sâmbătă, 10 februarie 2024

Orice imagini sau videoclipuri generate de inteligența artificială sunt considerate deepfake-uri?

Nu, nu orice videoclip / imagine, generat(ă) de inteligență artificială (IA), este un deepfake. Există o diferență semnificativă între imagini generate de IA în general și deepfake-uri. De fapt, majoritatea covârșitoare a imaginilor si videoclipurilor create cu ajutorul inteligenței artificiale nu sunt deepfake.

Imagine ilustrativă simbolizând fenomenul deepfake, generată de HD Satelit utilizând inclusiv tehnologii AI

Imaginile generate de IA pot varia de la creații artistice originale și imagini de sinteză până la reprezentări vizuale ale datelor sau simulări. Acestea sunt create folosind algoritmi de învățare automată sau rețele neuronale care pot genera imagini noi, bazându-se pe seturi mari de date și instruire.

Deepfake-urile, pe de altă parte, sunt un subtip specific de conținut generat de Inteligența Artificială, care implică manipularea sau generarea sintetică a videoclipurilor sau imaginilor cu scopul de a înlocui fața unei persoane cu a alteia, imitând vocea sau alte trăsături ale comportamentului. Scopul deepfake-urilor este adesea de a crea materiale convingătoare și realiste care să pară autentice, fiind folosite uneori în scopuri negative, cum ar fi dezinformarea, manipularea opiniei publice sau hărțuirea.

Prin urmare, deși deepfake-urile sunt generate de tehnologii de inteligență artificială, nu toate imaginile create de IA sunt deepfake-uri. De fapt, majoritatea imaginilor generate  de către IA sunt folosite în scopuri creative, ilustrative, educative sau de cercetare, fără intenția de a induce în eroare sau de a falsifica realitatea.

Ce sunt deepfake-urile?

În era digitală, tehnologia deepfake a devenit una dintre cele mai discutate și, în același timp, controversate inovații. Utilizând algoritmi avansați de inteligență artificială și învățare automată, deepfake-urile permit crearea sau modificarea de videoclipuri și imagini cu o precizie uluitoare, înlocuind fețe, imitând voci și modificând expresii faciale sau acțiuni în moduri care păreau imposibile până de curând. Această capacitate revoluționară de a manipula conținutul media are implicații profunde, atât pozitive cât și negative, pentru societate, etică și securitatea informațională.

Tehnologia deepfake se bazează pe rețele neuronale și algoritmi de învățare profundă. Un sistem de tip "generative adversarial network" (GAN) este adesea la bază, implicând două rețele neuronale care lucrează în opoziție: una generativă, care produce imagini sau secvențe video, și una discriminatorie, care evaluează autenticitatea acestora. Prin antrenarea continuă, rețeaua generativă devine din ce în ce mai bună în a crea conținut care să păcălească rețeaua discriminatorie, ducând la rezultate uimitor de realiste.

Aplicațiile deepfake sunt variate, mergând de la divertisment și creație artistică, până la educație și simulări pentru antrenamente. În industria filmului, tehnologia poate fi folosită pentru a întineri actori (de exemplu, în cel mai recent film din seria Indiana Jones) sau a le permite să fie reprezentate în noi roluri după decesul lor (destul de discutabil). În educație, poate fi utilizată pentru a recrea evenimente istorice cu o acuratețe vizuală impresionantă.

Cu toate acestea, potențialul de abuz al tehnologiei deepfake este semnificativ. Poate fi folosită pentru a crea știri false, manipula opinia publică, hărțui sau defăima persoane prin crearea de conținut compromițător fals. Astfel de utilizări ridică serioase întrebări de legalitate, în special când este vorba despre videoclipuri care par realiste, dar sunt complet fabricate sau sau parțial modificate si distribuite in scopuri malițioase.

Sunt acceptabile deepfake-urile creat în scop umoristic? 

Utilizarea deepfake-urilor în scop umoristic ridică întrebări importante legate de etică și responsabilitate. În general, este considerat o practică bună să se specifice clar atunci când un material este un deepfake, chiar și în context umoristic, pentru mai multe motive.

Chiar dacă intenția este doar de a amuza, unii spectatori pot interpreta materialul ca fiind autentic. Specificarea că este vorba de un deepfake ajută la prevenirea răspândirii informațiilor false sau înșelătoare. Prin marcarea clară a conținutului ca fiind fabricat sau modificat, creatorii pot evita potențialele acuzații de defăimare, hărțuire sau alte forme de abuz care pot rezulta din interpretarea greșită a materialelor umoristice ca fiind reale.

În unele jurisdicții, există legi și reglementări care impun divulgarea manipulărilor digitale în anumite contexte, deși acestea variază semnificativ de la un loc la altul. Indiferent de cerințele legale, este o practică de bun simț și etică să se ofere publicului informații clare despre natura conținutului deepfake pe care îl consumă, mai ales în cazul materialelor defăimătoare care pot fi ușor interpretate greșit ca fiind reale.

Recunoașterea și combaterea conținutului deepfake este esențială pentru menținerea integrității informației. Organizații și cercetători dezvoltă metode pentru detectarea deepfake-urilor, inclusiv tehnici de analiză a frecvenței imaginilor, evaluarea incoerenței mișcării și identificarea semnăturilor specifice algoritmilor de IA. 

Legislație și pedepse în România

Legislația și reglementările evoluează, de asemenea, pentru a aborda provocările legate de răspândirea materialelor false și manipulative.

În Romania există un proiect de lege încă din anul 2023 (legea 295) privind interzicerea utilizării malițioase a tehnologiei și limitarea fenomenului Deepfake ( Falsul Sever). Proiectul a fost adoptat de Senat încă din vara anului trecut si a ajuns la Camera Deputaților la începutul lunii februarie a acestui an, însă a fost amânat pentru până cel mai târziu in aprilie 2024.

În privința organismului care ar trebui sa vegheze la respectarea acestei legi, comisiile parlamentare oscilează deocamdată între CNA (Consiliul Național al Audiovizualului) ori ANCOM (Autoritatea Națională de Administrare și reglementare în Comunicații), evidențiind rolul pe l-ar putea avea in acest proces și SRI (Serviciul Roman de Informații). 

Conform acestei legi, cei care se vor face vinovați de publicarea de deepfake vor primi amenzi (limită superioară modificată recent, comparativ cu proiectul inițial) între 600 lei și 90000 lei (peste 18.000 euro la cursul actual) sau pedeapsă cu închisoare de până la 2 ani.

Expunerea de motive


În expunerea e motive a inițiatorilor proiectului legislativ se argumentează că, în contextul evoluției rapide a tehnologiilor digitale, inclusiv a inteligenței artificiale (IA), realității augmentate (RA) și învățării automate (machine learning), se impune intervenția legislativă pentru a contracara potențialele riscuri asociate cu conținutul generat în mod artificial, cum ar fi imaginile, înregistrările audio și video. 

Această necesitate este amplificată de pericolul crescut pe care îl reprezintă deepfake-urile, depășind impactul știrilor false prin capacitatea lor de a genera elemente false în diverse medii de comunicare. Se mai arată că, în fapt, conținutul generat prin tehnologia deepfake, denumit "Fals Sever", poate aduce atingere semnificativă imaginii și reputației individului, organizațiilor sau chiar instituțiilor statului, având potențialul de a afecta negativ interesele sociale, politice și de securitate națională. Această tehnologie, tot mai accesibilă și convingătoare, prezintă riscuri în domeniile media, divertisment și poate conduce chiar la fraude financiare majore. 

Observând inițiativele legislative din Statele Unite ale Americii și din anumite țări europene pentru limitarea acestui fenomen, se constată o lacună în legislația românească în ceea ce privește reglementarea producției și distribuției de conținut deepfake cu intenții malițioase. 

De aceea, inițiatorii legii consideră că este esențială stabilirea unui cadru legal care să permită utilizarea responsabilă a acestor tehnologii, garantând că sunt acceptate doar în scopuri legitime, comerciale și clar definite

Propunerea legislativă își propune să clarifice terminologia specifică domeniului și să stabilească criteriile pentru identificarea infracțiunilor asociate cu producția și distribuția de conținut deepfake. În esență, se dorește ca orice material audio sau video creat prin IA, care induce în eroare prin sugestia falsă că o persoană a spus / făcut ceva ce în realitate nu spus/ făcut, să fie considerat o faptă penală, subliniind responsabilitatea și intenția deliberată în realizarea și răspândirea acestui tip de conținut.

Proiectul legislativ


În acest context, proiectul legislativ definește deepfake-urile, cunoscute și sub denumirea de "Falsul Sever", ca fiind orice conținut vizual sau audio generat prin inteligență artificială (IA) sau tehnologie de realitate augmentată (RV) care prezintă persoane în ipostaze neautentice, spunând sau făcând lucruri pe care nu le-au spus sau făcut în realitate. Conform acestei legi, producerea, distribuirea și stocarea conținutului deepfake pe internet sau în mass-media fără o notificare clară și vizibilă este strict interzisă. Avertismentele trebuie să acopere cel puțin 10% din suprafața conținutului deepfake și să fie prezente pe întreaga durată a difuzării, informând privitorii că materialul conține scene fabricate sau modificate. Nerespectarea acestor reguli se consideră infracțiune și poate duce la sancțiuni, inclusiv amendă penală sau închisoare, variind de la 6 luni la 2 ani. Mai mult, legislația specifică că orice conținut deepfake creat și distribuit în scopuri comerciale trebuie să includă un anunț care avertizează explicit asupra naturii imaginare a materialului.

Amendamentele comisiilor


Pe de alta parte, Comisia pentru tehnologia informației și comunicațiilor și Comisia pentru cultură, arte, mijloace de informare în masă au adus amendamente proiectului legislativ, in sensul că prezenta lege de fapt reglementează realizarea, difuzarea în mass-media, precum şi distribuirea pe platforme online a oricărui conținut vizual şi/sau audio generat sau manipulat, prin utilizarea tehnologiei în contextul fenomenului deepfake, cu scopul inducerii în eroare a opiniei publice cu privire la autenticitatea mesajului transmis. 

De asemenea, a fost precizat un amendament care arată că în înțelesul prezentei legi termenii și expresiile următoare au următoarele semnificații:

a) deepfake – orice conținut de tip imagine, audio și/sau video realizat de regulă cu ajutorul inteligenței artificiale sau realității virtuale, astfel încât să creeze aparența că o persoană a spus sau a făcut lucruri care în realitate nu au fost spuse sau făcute de acea persoană;

b) utilizarea malițioasă a tehnologiei - acțiunea intenționată de inducere în eroare, cu scopul de a crea dezinformare și/sau haos informațional prin manipularea comportamentului uman și/sau exploatarea vulnerabilităților.

Un alt amendament arată că utilizarea malițioasă a tehnologiei prin realizarea, difuzarea în mass-media, precum și distribuirea pe platforme online de conținut tip deepfake este interzisă dacă acel conținut nu este însoțit de un avertisment redat pe cel puțin 10% din suprafața expunerii şi pe toată durata difuzării respectivului conținut vizual sau de un mesaj sonor la începutul şi la finalul conținutului audio: „Acest material conține ipostaze imaginare”.

Un amendament suplimentar arată atribuțiile Consiliul Național al Audiovizualului de a verifica dacă sunt încălcate dispozițiile, în urma sesizării acestuia sau în urma sesizării din oficiu. În cazul în care constată nerespectarea dispozițiilor prezentei legi, Consiliul Național al Audiovizualului solicită platformei online să suspende provizoriu distribuirea materialului în cauză. Suspendarea va fi menținută sau ridicată prin hotărârea instanței judecătorești competente a se pronunța dacă a fost săvârșită o infracțiune. Potrivit competențelor ce le revin, instituțiile cu atribuții în domeniile mass-media, internet, dispun prin decizie oprirea de la difuzarea în mass-media sau blocarea distribuirii pe internet a conținutului de tip deepfake (dacă nu este neînsoțit de avertisment sau mesaj sonor) şi obligă autorul conținutului să îl elimine.

Conform altui amendament, crearea / realizarea conținutului tip deepfake se pedepsește cu închisoare de la 6 luni la 2 ani, iar difuzarea/distribuirea conținutului tip deepfake, cunoscând natura falsă a conținutului, se pedepsește cu amendă între 60 şi 180 de zile. Instanța care constată săvârșirea infracțiunii se pronunță și asupra menținerii sau a ridicării suspendării conținutului de tip deepfake de pe platforma online.

Un ultim amendament propus de comisii prevede că în termen de maxim 60 de zile de la data intrării în vigoare a prezentei legi, Consiliul Național al Audiovizualului va trebui să înființeze o structură responsabilă de aplicarea prevederilor prezentei legi.

Așadar, legislația pentru limitarea fenomenului deepfake în România nu este încă finalizata la momentul publicării acestui articol, deoarece dezbaterile pe aceasta temă continuă deocamdată.


Niciun comentariu despre subiectul „Orice imagini sau videoclipuri generate de inteligența artificială sunt considerate deepfake-uri?”:

Trimiteți un comentariu

☑ Comentariile conforme cu regulile comunității vor fi aprobate în maxim 10 ore.

Top 5 articole în ultimele 7 zile