Relația dintre știrile false și inteligența artificială (AI): un studiu pentru viitorul (foarte) apropiat

De la apariția IA în lume, schimbările sunt din ce în ce mai vizibile. Vorbim despre schimbările din viața noastră de zi cu zi, inclusiv despre cele referitoare la știri și alfabetizarea media. Unul dintre cele mai importante atuuri de care trebuie să luăm în considerare este legat de faptul că AI poate influența atât în ​​moduri bune/pozitive, cât și în moduri negative.

Inteligența artificială neutră: utilizarea negativă și pozitivă a inteligenței artificiale

Printre negative, putem număra deep fake-urile (videoclipuri sau fotografii manipulate) sunt în mare parte legate de politică și de actualitate (cum ar fi războaie, pandemie sau alegeri), în acest sens există zeci de site-uri web create cu sprijinul AI pentru a scrie articole și pentru a răspândi informații în diferite limbi în întreaga lume. O mare parte din aceste site-uri web sunt și rămân încă anonime, cu scopul de a face „bani din veniturile din publicitate, generând în același timp conținut care nu este verificat în mod corespunzător de către un om și, în unele cazuri, provoacă narațiuni complet false”.

 

Combaterea știrilor false folosind AI

Desigur, dacă considerăm AI ca ceva neutru pe care îl putem folosi în interesul nostru, îl putem folosi și pentru a crea ceva semnificativ și util. În acest fel, există mai multe proiecte în întreaga lume și în Europa privind combaterea știrilor false folosind AI, unul dintre ele fiind GoodNews, pentru depistarea știrilor false. Acest proiect este realizat de Michael Bronstein, profesor la Universitatea din Lugano din Elveția și la Imperial College London, Marea Britanie. El a subliniat, de asemenea, faptul că abilitățile precum gândirea critică sunt mai importante decât tehnologia, pentru a combate știrile false: „Nu este vorba doar de detectarea știrilor false. Este, de asemenea, o problemă de încredere și o lipsă de gândire critică. Oamenii își pierd încrederea în mass-media și instituțiile tradiționale, iar asta nu este ceva care poate fi atenuat doar prin tehnologie”, a spus el.

Un alt proiect de luat în considerare este Fondango, care are ca scop încercarea, testarea și apoi validarea mai multor instrumente AI care ar putea fi puse în uz pentru a identifica dezinformarea. Proiectul se bazează pe UE, a fost lansat în 2018, dar este încă în curs de dezvoltare și este coordonat de Francesco Saverio Nucci, director de cercetare în aplicații la Engineering R&D Labs, Italia. Scopul principal este, după cum vedem, combaterea dezinformarii mass-media, dar și formarea profesioniștilor media în alfabetizarea datelor și în gestionarea mai bună a datelor.

În concluzie, suntem conștienți că AI poate crea daune în mass-media și știri, dar înseamnă și că dacă învățăm să lucrăm cu ea, poate crea și soluțiile. Cu toate acestea, inteligența artificială nu este singura problemă atunci când vine vorba de dezinformare, ci mai degrabă sunt abilitățile de gândire critică, de analiză și de înțelegere a informațiilor.

 

„Știrile false nu sunt o chestiune matematică de algoritmi și date, ci o întrebare foarte filozofică despre cum ne descurcăm cu adevărul.”

Francesco Nucci, Engineering Group, Italia

 

_
Bibliografie:

https://cordis.europa.eu/article/id/430588-ai-factcheckers-aid-the-battle-against-fake-news
https://ec.europa.eu/research-and-innovation/en/horizon-magazine/can-artificial-intelligence-help-end-fake-news
https://www.eng.it/en/who-we-are/
https://www.euronews.com/next/2023/05/02/rapid-growth-of-news-sites-using-ai-tools-like-chatgpt-is-driving-the-spread-of-misinforma 

 

_
Cover image: Steve Johnson / from Unsplash

Finanțat de Uniunea Europeană. Cu toate acestea, punctele de vedere și opiniile exprimate aparțin exclusiv autorului (autorilor) și nu reflectă în mod necesar cele ale Uniunii Europene sau ale Agenției Executive pentru Educație și Cultură a Uniunii Europene (EACEA). Nici Uniunea Europeană și nici EACEA nu pot fi trase la răspundere pentru acestea. Numărul acordului: 2022-1-BG01-KA220-ADU-000085514
Număr acord: 2022-1-BG01-KA220-ADU-000085514

© 2023 Information Matters Project, All rights reserved