Prin răspândirea videoclipurilor pentru falsuri pe internet, profesorul avertizează că acest lucru vă va ajuta să le recunoașteți mai ușor
Deși unele dintre ele sunt destul de inofensive, un caz de escroci prin fotografiile actorului Brad Pitt, care a profitat de inteligența artificială (DI), a fost ademenit de peste 830.000 de la francez. Exemplul unui fals profund este utilizat pentru a efectua escrocherii financiare grave sau alte infracțiuni.
Fapari de imagine pot beneficia, de asemenea,
Astăzi, falsul video are o conotație destul de negativă, dar primele încercări de efectuat din motive, nu din motive rău intenționate, afirmă creatorul tehnologic DI, șeful departamentului de sisteme electronice Vilnius Tech. DR. Arthur Serackis.
Potrivit acestuia, dezvoltarea unor astfel de tehnologii a fost determinată de cea mai simplă dorință de a genera imagini și alte imagini ale oamenilor. Inițial, imaginile erau imperfecte, încețoșate și lipsite de detalii, dar soluțiile DI actuale vă permit să generați chipul, vocea oricărei persoane, să încărcați imaginea unei persoane false într -un videoclip sau chiar o transmisie în direct. Astfel de falsuri sunt adesea folosite pentru a se distra și pentru a se distra, iar uneori pot aduce o mulțime de beneficii.
„Există tehnologii DI pentru a crea un gemeni digital uman care vorbește aceleași lucruri, dar o altă limbă”, spune Prof. DR. A. Serackis.
Astfel de soluții ar putea fi aplicate în industria cinematografică. – Imaginați -vă că mergeți la cinema și în loc să citiți subtitrările pentru a auzi sunetul altor oameni, ați vedea actorul dvs. preferat vorbind lituanian, dar cu vocea voastră. Ar fi un efect uriaș.
Deși un astfel de prototip nu este încă implementat, gemenul digital poate fi aplicat perfect în procesul de studiu. „Profesorul virtual” segurat este un mare ajutor pentru lectori, în special în aceste zile.
„Am observat că studenții preferă acei subiecți de studiu care au posibilitatea de a vizualiza videoclipuri de prelegeri mai târziu, dar pentru unii lectori provoacă disconfort.
Între timp, un „profesor virtual” cu un lector sau chipul unei alte persoane, potrivit materialului furnizat, creează un videoclip care poate fi ascultat de mai multe ori.
În plus, dacă unele fragmente, formule sau metode din această prelegere explică de neînțeles, DI poate fi solicitat să furnizeze un alt videoclip în care „lectorul” va spune mai multe detalii sau va construi altfel o narațiune ”, împărtășește profesorul Vilnius Tech.
Numărul de amenințări crește
În timp ce instrumentele de îmbunătățire DI vă permit să creați falsuri din ce în ce mai impresionante, realiste, provoacă, de asemenea, mai multe amenințări. Deși tehnologia în sine nu este rea sau concepută pentru fraudă, acestea sunt ușor accesibile, astfel încât pot fi folosite de toți oamenii, chiar și de cei ale căror intenții nu sunt cele mai grave, spune Prof. DR. A. Serackis.
Adesea, falsurile video sunt folosite în timpul alegerilor pentru a discredita politicienii și pentru a le face rău. Cu toate acestea, alegerile nu sunt o zonă în care falsurile video sunt utilizate cel mai frecvent și provoacă cele mai multe pagube.
În Coaliția pentru Femei în Jurnalism, jurnalismul feminin a efectuat un studiu, care a constatat că cele mai nocive pagube aduse stimulentelor folosite pentru promovarea intimidării și dezinformării în pornografie în ultimii doi ani.
„Un exemplu este cazul SUA, când Liceul Carmel a falsificat imaginea directorului școlii și a circulat o înregistrare în care se presupune că a reprodus elevii negri și a jignit o mare parte a comunității. Cu toate acestea, comunitatea jignită nu a obținut reacția corectă din partea școlii, așa că conducerea sa a dorit chiar să facă procese. Același fals a fost folosit și într -o altă școală.
Uneori, imaginile oamenilor sunt folosite și în filme pornografice, videoclipuri și sunt încă publicate. Acestea sunt cazuri complexe și extrem de sensibile, deoarece astfel de înregistrări sunt de obicei distribuite pe canale private sau nu foarte controlate ”, spune Prof. DR. A. Serackis.
Recunoașteți falsurile video – posibil
Cu toate acestea, profesorul susține că chiar și falsul videoclip inteligent de cea mai înaltă calitate poate fi recunoscut, mai ales atunci când fața se mișcă în videoclip. Se întâmplă că falsurile video sunt utilizate pentru transmisiile live sau conversațiile video, dar în acest caz, unele tehnologii mai simple sunt utilizate pentru a recunoaște.
„Dacă vedeți că o persoană nu arată așa cum trebuie, cereți -vă capul să întoarcă capul la 90 de grade sau să vă treziți mâna în fața feței. Dacă este o falsă, recunoașterea feței și procesul de generare a imaginilor vor fi afectate.
Acesta este un exemplu simplu, practic, dar important, deoarece astfel de înregistrări fac multe daune ”, sfătuiește omul de știință al tehnologiei Vilnius.
Prospect DR. Domnul Serackis solicită, de asemenea, ca fundalul să fie subliniat în videoclipuri – din cauza tehnologiei limitate, el este de obicei alb, iluminat – chiar, aproape fără umbre.
Între timp, pentru a recunoaște dacă fotografiile sunt false sau nu pot ajuta greșelile lui Di, adesea asociate cu anatomia umană – de exemplu, înfățișând prea multe sau prea mici degete.
Faltele video sunt, de asemenea, trădate de o varietate de anomalii ale funcționalității sau de legi inactive ale fizicii, care la prima vedere observăm uneori – de exemplu, în oglinda ciudată și nu este posibilă.
Suspiciunile pot duce la situații neobișnuite, anomalii sociale sau culturale, cum ar fi japoneza, care este un contact fizic apropiat și public, această națiune nu este tipică.
„Și mai interesant sunt artefactele biometrice. Atunci când generați o falsă video cu o persoană bine cunoscută, anumite caracteristici pot fi generate incorect, cum ar fi forma urechii. Urechile fiecărei persoane sunt unice, la fel ca și amprentele și, prin urmare, pot fi folosite pentru a recunoaște o persoană.
În plus, fotografiile digerate sunt adesea prea stilizate, iar caracteristicile sunt spălate, iar culorile sunt prea expresive ”, spune șeful Departamentului Sistemelor Electronice.
Oamenii de știință Vilnius Tech au creat instrument DI – pentru recunoașterea operațională a forței
Tehnologia inteligentă este, de asemenea, dezvoltată pentru a recunoaște falsurile video. În prezent prof. DR. A. Serackis cu echipa care va crea o soluție DI inovatoare care va identifica instantaneu previziunile video, în special cele generate de DI, și va preveni astfel manipularea în spațiul informațional.
„Soluția pe care o creăm folosind tehnologii de recunoaștere video este capabilă să identifice și să analizeze o cantitate extrem de mare de puncte faciale – observăm o secvență de modificări ale mișcărilor musculare faciale, mimică, chiar și un ochi al elevului și putem identifica dacă aceste modificări sunt generat „, spune omul de știință.
Este adevărat că acest prototip detectează falsuri, ar trebui utilizate videoclipuri mai lungi ale capului uman și mușchii faciali.
Acest lucru restricționează aplicarea compromisurilor instrumentului și forțelor, dar profesorul spune că crearea de instrumente de detectare a falsurilor video este un proces nesfârșit și provocator, care necesită soluții din ce în ce mai inteligente.
„Uneori, greșelile lui Di par ridicole și ușor de recunoscut, dar dacă DI nu este în măsură să distingă între câte și ce degete trebuie să genereze, să creeze o soluție care să detecteze și să recunoască automat aceste greșeli, există o mare provocare. Tehnologii abia create care recunosc aceste greșeli, se deplasează în inteligență artificială generativă.
Deci, care a lucrat acum o jumătate de an, astăzi nu mai funcționează, așa că încă ne îmbunătățim prototipul. Folosim cele mai recente instrumente false video pentru a -l „înșela”, apoi căutăm noi modalități de a evita această înșelăciune.
Observăm modul în care alți cercetători detectează falsurile video și încercăm să completeze prototipul nostru cu soluții similare.
În plus, devine relevant să recunoaștem editarea video atunci când o persoană este înfățișată într -un mediu care nu a fost, arată că a vizitat un oraș, deși nu a ajuns de fapt.
Aceasta este o provocare ușor diferită pentru detectarea contrafacerii, dar căutăm o soluție pentru această sarcină ”, împărtășește prof. DR. Arthur Serackis.