Videoclipurile false perfecte vor fi recunoscute de inteligența artificială
Videoclipurile false perfecte vor fi recunoscute de inteligența artificială

Video: Videoclipurile false perfecte vor fi recunoscute de inteligența artificială

Video: Videoclipurile false perfecte vor fi recunoscute de inteligența artificială
Video: Teen Titans GO! To The Movies Exclusive Clip | Time Cycles | @dckids - YouTube 2024, Aprilie
Anonim
Premiera operei despre otrăvirea lui Litvinenko începe în Anglia
Premiera operei despre otrăvirea lui Litvinenko începe în Anglia

În urmă cu un an, Manish Agrawala de la Stanford a contribuit la dezvoltarea tehnologiei de sincronizare a buzelor care a permis editorilor video să modifice cuvintele vorbitorilor aproape imperceptibil. Instrumentul ar putea introduce cu ușurință cuvinte pe care o persoană nu le-a rostit niciodată, chiar în mijlocul unei propoziții, sau șterge cuvintele pe care le-a spus. Totul va părea realist cu ochiul liber și chiar și pentru multe sisteme informatice.

Acest instrument a făcut mult mai ușor să remediați greșelile fără a re-filma scene întregi și a adaptat, de asemenea, emisiuni TV sau filme pentru diferite categorii de public în diferite locuri. Dar această tehnologie a creat și noi oportunități tulburătoare pentru videoclipuri false greu de găsit, cu intenția clară de a denatura adevărul. De exemplu, un videoclip republican recent a folosit o tehnică mai dură pentru un interviu cu Joe Biden.

În această vară, Agrawala și colegii de la Stanford și UC Berkeley au dezvăluit o abordare bazată pe inteligență artificială a tehnologiei de sincronizare a buzelor. Noul program detectează cu acuratețe peste 80% din falsuri, recunoscând cele mai mici discrepanțe între sunetele oamenilor și forma gurii lor.

Dar Agrawala, directorul Stanford Institute for Media Innovation și profesor de informatică la Forest Baskett, care este afiliat și la Stanford Institute for Human-Centered Artificial Intelligence, avertizează că nu există o soluție tehnică pe termen lung la falsurile profunde.

Cum funcționează falsurile

Există motive legitime pentru manipularea videoclipurilor. De exemplu, oricine filmează o emisiune TV, un film sau o reclamă fictivă poate economisi timp și bani folosind instrumente digitale pentru corectarea erorilor sau personalizarea scripturilor.

Problema apare atunci când aceste instrumente sunt utilizate în mod deliberat pentru a răspândi informații false. Și multe dintre tehnici sunt invizibile pentru spectatorul mediu.

Multe videoclipuri false profunde se bazează pe schimbarea feței, suprapunând literalmente fața unei persoane pe videoclipul altei persoane. Dar, deși instrumentele de schimbare a feței pot fi convingătoare, ele sunt relativ brute și, de obicei, lasă artefacte digitale sau vizuale pe care un computer le poate detecta.

Pe de altă parte, tehnologiile de sincronizare a buzelor sunt mai puțin vizibile și, prin urmare, mai dificil de detectat. Acestea manipulează o porțiune mult mai mică a imaginii și apoi sintetizează mișcările buzelor care se potrivesc exact cu modul în care gura unei persoane s-ar mișca de fapt dacă ar spune anumite cuvinte. Potrivit Agrawal, având în vedere suficiente mostre de imagine și voce a unei persoane, un producător fals poate face o persoană să „spună” orice.

Detectarea contrafacerilor

Preocupat de utilizarea neetică a unei astfel de tehnologii, Agrawala a lucrat cu Ohad Freed, doctorand la Stanford, pentru a dezvolta un instrument de detectare; Hani Farid, profesor la Universitatea din California, Berkeley School of Information; și Shruti Agarwal, doctorand la Berkeley.

La început, cercetătorii au experimentat cu o tehnică pur manuală în care observatorii au studiat imagini video. A funcționat bine, dar în practică a consumat multă muncă și a consumat mult timp.

Cercetătorii au testat apoi o rețea neuronală bazată pe inteligență artificială care ar fi mult mai rapidă să facă aceeași analiză după antrenamentele video cu fostul președinte Barack Obama. Rețeaua neuronală a detectat mai mult de 90 la sută din sincronizarea buzelor lui Obama, deși precizia pentru alți vorbitori a scăzut la aproximativ 81 la sută.

Un adevărat test al adevărului

Cercetătorii spun că abordarea lor este doar o parte a jocului pisică și șoarece. Pe măsură ce tehnicile de falsificare profundă se îmbunătățesc, acestea vor lăsa și mai puține chei.

În cele din urmă, spune Agrawala, adevărata problemă nu este atât combaterea videoclipurilor profund false, cât combaterea dezinformării. De fapt, remarcă el, o mare parte din dezinformare provine din denaturarea sensului a ceea ce oamenii au spus de fapt.

„Pentru a reduce dezinformarea, trebuie să îmbunătățim alfabetizarea media și să dezvoltăm sisteme de responsabilitate”, spune el. „Acest lucru poate însemna legi care interzic producerea deliberată de dezinformare și consecințele încălcării acestora, precum și mecanisme de eliminare a prejudiciului rezultat”.

Recomandat: