Inteligjenca Artificiale klonon zërin e figurave politike
Ndërsa zgjedhjet me aksione të larta afrohen në SHBA dhe Bashkimin Evropian, mjetet e inteligjencës artificiale të disponueshme publikisht mund të përdoren lehtësisht për të nxjerrë gënjeshtra bindëse zgjedhore në zërat e figurave kryesore politike, tha të premten një grup dixhital i të drejtave civile.
Studiuesit në Qendrën për Kundërshtimin Dixhital, me qendër në Uashington, DC, testuan gjashtë nga mjetet më të njohura të klonimit të zërit të AI-së për të parë nëse ato do të gjeneronin videoklipe, audio të pesë deklaratave të rreme për zgjedhjet në zërat e tetë politikanëve të shquar amerikanë dhe evropianë, njofton AP.
Gjetjet zbulojnë një boshllëk të jashtëzakonshëm në masat mbrojtëse kundër përdorimit të audios së gjeneruar nga AI për të mashtruar votuesit, një kërcënim që shqetëson gjithnjë e më shumë ekspertët pasi teknologjia është bërë e avancuar dhe e qasshme. Ndërsa disa nga mjetet kanë rregulla ose pengesa teknologjike për të ndaluar krijimin e dezinformatave zgjedhore, studiuesit zbuluan se shumë nga ato pengesa ishin të lehta për t’u anashkaluar me zgjidhje të shpejta.
Vetëm një nga kompanitë, mjetet e së cilës u përdorën nga studiuesit, u përgjigj pas kërkesave të shumta për koment. ElevenLabs tha se po kërkonte vazhdimisht mënyra për të rritur masat mbrojtëse.
Me pak ligje në fuqi për të parandaluar abuzimin e këtyre mjeteve, mungesa e vetë-rregullimit të kompanive i lë votuesit të prekshëm ndaj mashtrimeve të gjeneruara nga AI në një vit zgjedhjesh të rëndësishme demokratike në mbarë botën. Në BE, votuesit shkojnë në qendrat e votimit në zgjedhjet parlamentare në më pak se një javë, derisa zgjedhjet paraprake në SHBA po vazhdojnë përpara zgjedhjeve presidenciale të kësaj vjeshte.
“Është kaq e lehtë të përdorësh këto platforma për të krijuar gënjeshtra dhe për të detyruar politikanët në këmbë duke mohuar gënjeshtrat përsëri dhe përsëri dhe përsëri,” tha Imran Ahmed, përfaqësues i CEO-së. “Fatkeqësisht, demokracitë tona po shiten për lakmitë e zhveshura nga kompanitë e inteligjencës artificiale, të cilat janë të dëshpëruara për të qenë të parët në treg… pavarësisht faktit se ata e dinë se platformat e tyre, thjesht, nuk janë të sigurta.”
Qendra – një organizatë jofitimprurëse me zyra në SHBA, MB dhe Belgjikë – kreu hulumtimin në maj. Studiuesit përdorën mjetin e analitikës në internet Semrush për të identifikuar gjashtë mjetet e klonimit të zërit të AI me trafikun organik më mujor në internet: ElevenLabs, Speechify, PlayHT, Descript, Invideo AI dhe Veed.
Më pas, ata dërguan audioklipe të vërteta të politikanëve duke folur. Ata nxitën mjetet për të imituar zërat e politikanëve duke bërë pesë deklarata të pabaza.
Një deklaratë paralajmëroi votuesit të qëndrojnë në shtëpi mes kërcënimeve për bomba në qendrat e votimit. Katër të tjerat ishin rrëfime të ndryshme – për manipulim zgjedhor, gënjeshtër, shfrytëzim të fondeve të fushatës për shpenzime personale dhe marrje pilula të forta që shkaktojnë humbje të kujtesës.
Përveç Biden-i dhe Macron-i, mjetet bënë kopje reale të zërave të zëvendëspresidentit të SHBA-së Kamala Harris, ish-presidentit të SHBA-së, Donald Trump, kryeministrit të Mbretërisë së Bashkuar, Rishi Sunak, udhëheqësit të Punës të Mbretërisë së Bashkuar Keir Starmer, presidentes së Komisionit Evropian, Ursula von der Leyen dhe komisioneri i Tregut të Brendshëm, Thierry Breton.
“Asnjë nga mjetet e klonimit të zërit të AI-së nuk kishte masa të mjaftueshme sigurie për të parandaluar klonimin e zërave të politikanëve ose prodhimin e dezinformatave zgjedhore”, thuhet në raport.
Disa nga mjetet – Descript, Invideo AI dhe Veed – kërkojnë që përdoruesit të ngarkojnë një mostër unike audio përpara se të klonojnë një zë, një mbrojtje për të parandaluar njerëzit që të klonojnë një zë që nuk është i tyre. Megjithatë, studiuesit zbuluan se pengesa mund të anashkalohej lehtësisht duke gjeneruar një mostër unike duke përdorur një mjet të ndryshëm të klonimit të zërit të AI-së.
Një mjet, Invideo AI, jo vetëm që krijoi deklaratat e rreme që kërkoi qendra, por i ekstrapoloi ato për të krijuar dezinformata të mëtejshme.
Kur prodhonte klipin audio që udhëzon klonin e zërit të Biden-it për të paralajmëruar njerëzit për një kërcënim me bombë në qendrat e votimit, ai shtoi disa nga fjalitë e veta.
“Kjo nuk është një thirrje për të braktisur demokracinë, por një lutje për të garantuar sigurinë së pari,” tha klipi i rremë audio me zërin e Biden. “Zgjedhjet, kremtimi i të drejtave tona demokratike, vetëm vonohen, nuk mohohen.”
Në përgjithësi, për sa i përket sigurisë, Speechify dhe PlayHT performuan më të këqijat nga mjetet, duke gjeneruar audio të rreme të besueshme në të 40 testet e tyre, zbuluan studiuesit.
ElevenLabs performoi më së miri dhe ishte mjeti i vetëm që bllokoi klonimin e zërave të politikanëve në Mbretërinë e Bashkuar dhe SHBA-së. Sidoqoftë, mjeti ende lejoi krijimin e audios së rreme në zërat e të shquarve të BE-së. politikanëve, thuhet në raport.