Adi Iacob
Folosirea știrilor false (fake news) pentru a dezinforma publicul a devenit o preocupare majoră pentru guvernele din întreaga lume ca urmare a scandalului legat de alegerile prezidențiale din 2016, din Statele Unite. OpenAI, un ONG care cercetează tehnologia inteligenței artificiale, a lansat un algoritm care poate genera un text coerent, inclusiv articole false, după ce i s-a oferit doar un fragment ca exemplu.
Algoritmul poate fi reglat pentru a imita stilul în care este scris textul dat ca exemplu, scrie Bloomberg.
Iată un exemplu oferit de OpenAI, care demonstrează modul în care funcționează algoritmul (sistemul a primit numai primele două propoziții, care au fost scrise de o persoană reală):
"Încărcătura unui tren care transporta materiale nucleare controlate a fost furată astăzi în Cincinnati. Locul unde se află este necunoscut."
Și acesta este restul articolului scris de sistemul dotat cu inteligență artificială, fără îndrumare umană:
'Incidentul a avut loc pe linia de tren din centrul orașului, care circulă de la stațiile din Covington și Ashland.
Într-un e-mail trimis agențiilor de știri din Ohio, Departamentul de Energie al Statelor Unite a declarat că lucrează cu Administrația Feroviară Federală pentru a găsi hoțul.
Materialul furat a fost preluat de la centrul de cercetare nucleară din cadrul Universității din Cincinnati, potrivit unui comunicat de presă al autorităților. «Furtul acestui material nuclear va avea consecințe negative semnificative asupra sănătății publice și a mediului, a forței de muncă și a economiei națiunii noastre», a declarat Tom Hicks, secretarul american pentru energie. «Prioritatea noastră principală este să ne găsim hoțul și să ne asigurăm că nu se va întâmpla din nou».
Reprezentanții Comisiei de Reglementari Nucleare nu au oferit informații până în acest moment.
Conform comunicatului, U.S. Department of Energy's Office of Nuclear Material Safety and Security conduce investigația.
«Siguranța oamenilor, a mediului și a stocului nuclear al națiunii este cea mai mare prioritate a noastră», a spus Hicks. «Vom rezolva această situație fără nici o scuză»".
Din cauza potențialului său de a fi folosit în mod greșit pentru a dezinforma, reprezentanții OpenAI au ales să nu pună la dispoziție cele mai puternice versiuni ale algoritmului său pentru uz public și nici nu va lansa codul sursă și datele de antrenament utilizate pentru a crea software-ul.