![]() Comentarii Adauga Comentariu _ Fie că sunt politicieni, vedete pop sau adolescente, deepfake-urile sexualizate reprezintă o oglindă a lumii noastre sexiste![]() _ Indiferent dacă este vorba despre politicieni, vedete pop sau adolescenți fete, deepfake sexualizate sunt o oglindă a lumii noastre sexisteDeputatul victorian Georgie Purcell a vorbit recent împotriva unei imagini editate digital în mass-media care i-a alterat corpul și i-a îndepărtat parțial o parte din haine. Fie că editarea a fost sau nu asistată de inteligență artificială (AI), experiența ei demonstrează potențialele daune sexiste, discriminatorii și bazate pe gen care pot apărea atunci când aceste tehnologii sunt utilizate necontrolat. Experiența lui Purcell. reflectă, de asemenea, o tendință tulburătoare în care imaginile, în special ale femeilor și fetelor, sunt sexualizate, „deepfake” și „nudificate” fără știrea sau consimțământul persoanei. Termenul AI poate include o gamă largă de computere. aplicații software și smartphone care utilizează un anumit nivel de procesare automată. Deși science-fiction ne-ar putea determina să gândim altfel, o mare parte din utilizarea de zi cu zi a instrumentelor asistate de AI este relativ simplă. Învățăm un program de calculator sau o aplicație pentru smartphone ceea ce vrem să facă, învață din datele pe care le alimentăm și aplică această învățare pentru a îndeplini sarcina în moduri diferite. O problemă cu editarea imaginilor AI este că aceste instrumente se bazează pe informațiile pe care societatea noastră umană le-a generat. Nu este întâmplător faptul că instruirea unui instrument să editeze o fotografie a unei femei ar putea duce la ca subiectul să pară mai tânăr, mai zvelt și/sau mai curbat și chiar mai puțin îmbrăcat. O simplă căutare pe internet pentru „femei” va dezvălui rapid că acestea sunt calitățile pe care societatea noastră le susține frecvent. Probleme similare au apărut în instrumentele de recunoaștere facială AI care au identificat greșit suspecții în anchetele penale din cauza rasiilor și sexului. părtinire care este încorporată în software. Fantomele sexismului și rasismului, se pare, sunt literalmente în mașini. Tehnologia ne reflectă lipsa de respect, inegalitatea, discriminarea și — în tratamentul lui Purcell — sexismul fățiș pe care noi înșine le-am vehiculat deja . Deși oricine poate fi victima abuzului bazat pe imagini facilitate de inteligență artificială sau a falsurilor sexuale profunde, nu este un secret că există inegalități de gen în imaginile pornografice găsite online. Sensity. AI (fostul Deeptrace Labs) a raportat despre videoclipurile deepfake online din decembrie 2018 și a constatat în mod constant că 90-95% dintre ele sunt pornografie neconsensuală. Aproximativ 90% dintre ei sunt femei. Tinerele, copiii și adolescenții de pe tot globul sunt, de asemenea, supuși creării și împărtășirii neconsensuale de imagini deepfake sexualizate și nudificate. Rapoarte recente despre imagini sexuale false ale adolescentelor au apărut dintr-un liceu din New Jersey din Statele Unite și dintr-un alt liceu din Almendralejo, Spania. Un al treilea caz a fost raportat într-un liceu din Londra, care a contribuit la ca o fată de 14 ani să-și ia viața. Femeile celebrități sunt, de asemenea, o țintă populară a imaginilor deepfake sexualizate. Chiar luna trecută, deepfake-urile sexualizate ale lui Taylor Swift au fost distribuite în mod deschis pe o gamă largă de platforme digitale și site-uri web, fără consimțământ. În timp ce datele de cercetare privind ratele mai ample de victimizare și comitere a acestui tip de editare și distribuție a imaginilor sunt rare, Sondajul nostru din 2019 în Regatul Unit, Australia și Noua Zeelandă a constatat că 14,1% dintre respondenții cu vârste cuprinse între 16 și 84 de ani s-au confruntat cu cineva care creează, distribuie sau amenința că va distribui o imagine modificată digital reprezentându-i într-un mod sexual. Cercetările noastre au scos, de asemenea, lumină asupra daunelor acestei forme de abuz. Victimele au raportat că s-au confruntat cu traume psihologice, sociale, fizice, economice și existențiale, similare prejudiciilor identificate de victimele altor forme de violență sexuală și abuz bazat pe imagine. Anul acesta, am început un nou studiu pentru a explora în continuare problema. Vom analiza ratele actuale de victimizare și comitere, consecințele și daunele creării și distribuirii neconsensuale de deepfake sexualizate în SUA, Marea Britanie și Australia. Vrem să aflăm cum putem îmbunătăți răspunsurile, intervențiile și prevenirea. Abuzul de Swift într-un astfel de forum public a reaprins un apel pentru legi federale și reglementări ale platformei, moderare și standarde comunitare pentru a preveni și bloca Deepfakes sexualizate să nu fie distribuite. În mod uimitor, în timp ce partajarea neconsensuală a deepfakes sexualizate este deja o crimă în majoritatea statelor și teritoriilor australiene, legile referitoare la crearea lor sunt mai puțin consecvente. Și în SUA, nu există o lege națională care să incrimineze deepfakes sexualizate. Mai puțin de jumătate dintre statele SUA au unul, iar legile statale variază foarte mult în ceea ce privește cât de mult protejează și sprijină victimele. Dar concentrarea asupra statelor sau țărilor individuale nu este suficientă pentru a aborda această problemă globală. Deepfake-urile sexualizate și conținutul generat de inteligența artificială sunt comise la nivel internațional, evidențiind necesitatea unei acțiuni globale colective. Există o oarecare speranță că putem învăța să detectăm mai bine conținutul generat de inteligența artificială prin îndrumări în depistarea falsurilor. Dar realitatea este că tehnologiile se îmbunătățesc constant, astfel încât abilitățile noastre de a diferenția „real” de „fals” digital sunt din ce în ce mai limitate. Progresele tehnologice sunt agravate de disponibilitatea tot mai mare a „nudify” sau aplicațiile „eliminați îmbrăcămintea” de pe diverse platforme și magazine de aplicații, care sunt în mod obișnuit promovate online. Astfel de aplicații normalizează și mai mult tratamentul sexist și obiectivarea femeilor, fără a ține cont de felul în care victimele înseși ar putea simți acest lucru. Dar ar fi o greșeală să dai vina numai pe tehnologie pentru rău sau sexism, lipsa de respect și abuzul care decurge din ea. Tehnologia este neutră din punct de vedere moral. Nu poate lua nici credit, nici vina. În schimb, dezvoltatorii de tehnologie, platformele digitale și site-urile web au obligația clară de a fi mai proactivi prin construirea siguranței prin proiectare. Cu alte cuvinte, punând siguranța și drepturile utilizatorilor în prim-plan în proiectarea și dezvoltarea produselor și serviciilor online. Platformele, aplicațiile și site-urile web trebuie, de asemenea, să fie responsabile pentru prevenirea, perturbarea și eliminarea în mod proactiv a conținutului și tehnologiilor neconsensuale care pot crea un astfel de conținut. Australia este lider în acest sens prin intermediul Biroului pentru eSafety. Dle comisar, inclusiv legile naționale care obligă platformele digitale să răspundă. Dar sunt necesare acțiuni și colaborare la nivel mondial în continuare dacă vrem cu adevărat să abordăm și să prevenim daunele falsurilor sexuale neconsensuale. Acest articol este republicat din The Conversation sub o licență Creative Commons. Citiți articolul original.
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu