Imagini porno cu Taylor Swift, concepute cu inteligenta artificiala, virale pe X

Fanii și politicienii americani și-au exprimat vineri furia după ce în ultimele zile au fost răspândite imagini porno cu Taylor Swift false, create cu ajutorul inteligenței artificiale generative, pe X (fostul Twitter) și pe alte platforme.

Aproximativ 47 de milioane de persoane au văzut una dintre aceste imagini pe rețeaua socială X. Presa din Statele Unite a raportat că fotografia a rămas pe X mai mult de 17 ore înainte de a fi ștearsă.

Nu este o noutate imaginile pornografice false, cunoscute sub numele de „deepfake”, care vizează atât femei celebre, cât și numeroase persoane anonime. Cu toate acestea, mai mulți activişti și autorități de reglementare cred că dezvoltarea programelor de inteligenţă artificială (AI) generativă ar putea duce la un flux incontrolabil de conținut dăunător.

Deoarece milioanele de fani ai lui Taylor Swift sunt furioși, faptul că astfel de imagini o afectează de această dată pe cea mai ascultată artistă din lume pe platforma Spotify ar putea ajuta la aducerea în discuție a problemei.

„Singura „parte bună” a faptului că acest lucru i se întâmplă lui Taylor Swift este că are puterea necesară pentru an obține adoptarea unei legi care să elimine acest lucru. Un influent pe rețeaua X, Danisha Carter, a postat: „Voi sunteţi bolnavi”.

Instagram și Facebook au reguli mai stricte cu privire la nuditate decât X. Deși Apple și Google pot supraveghea conținutul care circulă pe aplicații prin regulile aplicate sistemelor lor de operare mobile, până acum X a permis acest lucru.

X a declarat într-un comunicat că are o „politică de toleranță zero” cu privire la publicarea neconsensuală de imagini nud. O declarație a fost făcută de platformă, care an anunțat că va „elimina în mod concret toate imaginile identificate” ale cântăreței și „va lua măsurile corespunzătoare împotriva conturilor care le-au postat”.

Reprezentanții cântăreței americane nu au oferit încă o declarație.

Politicianul democrat Yvette Clarke, care a susținut o lege pentru a combate fenomenul, a declarat: „Ceea ce i s-a întâmplat lui Taylor Swift nu este o noutate; femeile sunt de ani de zile ținta unor imagini false, fără consimțământul lor”. Ea an arătat că crearea acestor imagini este acum mai simplă și mai ieftină datorită progreselor AI.

Conform unui studiu din 2019, 96% dintre videoclipurile deepfake erau pornografice. Revista Wired afirmă că în primele nouă luni ale anului 2023, 113.000 de astfel de videoclipuri au fost uploadate pe site-urile porno principale.

În plus, Casa Albă a fost afectată de deepfake-uri cu Taylor Swift; vineri, guvernul a declarat că este îngrijorat de imaginile online false ale cântăreței pop și a subliniat că reţelele sociale ar trebui să respecte propriile reguli pentru a preveni răspândirea dezinformărilor de acest tip, potrivit Reuters.

Este foarte alarmant. În cadrul unei conferințe de presă, Karine Jean-Pierre, secretarul de presă al Casei Albe, a declarat: „Şi astfel, vom face tot ce putem pentru a rezolva această problemă”. Ea an adăugat că Congresul ar trebui să ia măsuri legislative în această privință.

Jean-Pierre a declarat că femeile sunt afectate în mod disproporționat de legislația laxă împotriva imaginilor false, care pot fi create de AI. Jean-Pierre a declarat: „Așadar, în timp ce companiile de social media iau decizii independente privind gestionarea conținutului, credem că au un rol important de jucat în ceea ce privește aplicarea, respectarea propriilor reguli pentru a preveni răspândirea dezinformării și an imaginilor intime, neconsimțite ale unor persoane reale”.

Tagged: Tags