Pse BE-ja nuk di çfarë të bëjë me ChatGPT-në?
Bashkimit Evropian do t’i duhet të paktën një vit tjetër për të kuptuar se si ta përdorë ligjin e tij të fuqishëm digjital për të frenuar rreziqet e ChatGPT, shkruan Politico.
Përdorimi i chatbot-it të inteligjencës artificiale ka marrë hov në Evropë dhe OpenAI këtë muaj deklaroi se ka kaluar një prag të rëndësishëm për shqyrtim rregullator.
Lajmi se më shumë se 120 milionë njerëz përdorin funksionin e kërkimit të ChatGPT çdo muaj nuk erdhi si surprizë për Komisionin Evropian, thanë dy zyrtarë për POLITICO.
Megjithatë, rregullatorët ende nuk kanë kuptuar se si ta trajtojnë ChatGPT sipas Aktit të fuqishëm të Shërbimeve Digjitale të BE-së, në fuqi që nga fillimi i vitit 2024, për t’u siguruar që platformat minimizojnë rreziqet e tyre. Një vendim pritet vetëm në mesin e vitit 2026, sipas një zyrtari të lartë të Komisionit.
Është një rast prove i aftësisë së BE-së për të trajtuar rreziqet e paraqitura nga modelet e mëdha gjuhësore, të cilat po bëhen shpejt po aq të kudondodhura në jetën e njerëzve sa motorët tradicionalë të kërkimit.
Ngadalësia pasqyron faktin se ligji kryesor digjital u hartua përpara se ChatGPT të bëhej pjesë e rrjedhës kryesore, dhe përkufizimet e tij nuk i mbulojnë qartë chatbot-et e inteligjencës artificiale – duke e lënë Brukselin në rrezik të mbetet prapa në trajtimin e këtyre rreziqeve, edhe pse ato vijnë në fokus më të mprehtë.
OpenAI kohët e fundit pranoi se 1.2 milion njerëz çdo javë kanë biseda me ChatGPT që sugjerojnë se po planifikojnë të marrin jetën e tyre, dhe se “në disa raste të rralla, modeli mund të mos sillet siç është menduar në këto situata të ndjeshme”.
“Për një industri të mësuar me korniza vullnetare të sigurisë së inteligjencës artificiale dhe standarde të vetëpërcaktuara, regjimi i kujdesit të duhur ligjërisht i detyrueshëm i DSA-së mund të jetë një kontroll i vështirë i realitetit”, tha Mathias Vermeulen, drejtor në firmën ligjore dhe konsulencën AWO të Brukselit.
“OpenAI do të duhet të përmirësojë ndjeshëm lojën e saj dhe nuk do të jetë në gjendje të shpëtojë me një punë të thjeshtë kopjimi/ngjitjeje të asaj që po bën aktualisht”, tha ai.
Kompania nuk iu përgjigj kritikave, duke iu drejtuar faqeve të saj të ndihmës online për informacion se si kompania po përputhet me DSA-në.
Gjithashtu vuri në dukje se shifra prej 120 milionësh i referohet njerëzve që përdorin aftësitë e kërkimit të ChatGPT, dhe jo të gjithë shërbimit.
ChatGPT është tashmë i rregulluar sipas Aktit të IA-së të BE-së. Që nga gushti, ai duhet të vlerësojë rreziqet dhe t’i zbusë ato, duke rrezikuar gjoba deri në 15 milionë euro nëse nuk i përmbahet.
Por shifrat e përdoruesve tani e vendosin chatbot-in në ligën e madhe, duke u ngjitur shumë mbi pragun mujor prej 45 milionë përdoruesish për platformat e mëdha dhe motorët e kërkimit sipas DSA-së.
Sapo të bjerë nën DSA-në, ai rrezikon gjoba deri në 6 përqind të xhiros së tij vjetore globale.
ChatGPT nuk ishte “parashikuar” nga DSA, por “i përshtatet gjuhës së statutit”, tha Martin Husovec, një profesor i drejtësisë në Shkollën e Ekonomisë në Londër.
Sipas strukturës së ligjit, BE-ja i përcakton faqet si platforma shumë të mëdha online dhe motorë kërkimi – të ashtuquajturat VLOS ose VLOS – që duhet të përputhen me rregullat më të rrepta.
“Një pyetje thelbësore” është fushëveprimi i përcaktimit për ChatGPT, tha Joris Van Hoboken, profesor i drejtësisë i fokusuar në qeverisjen e IA-së në Universitetin e Lirë të Brukselit.
Komisioni mund ta kufizojë atë në funksionalitetet e kërkimit të ChatGPT, ta klasifikojë atë si një motor kërkimi, ose ta hapë hapjen për të gjithë ofertën – qoftë si platformë apo shërbim.
Cilat kërkesa i vendosen OpenAI dhe si mund t’i përmbushë ato varen kryesisht nga ajo që vendos Komisioni.
OpenAI do të duhet të kuptojë se sa serioze janë rreziqet e paraqitura nga chatbot-i i tij – duke përfshirë zgjedhjet dhe shëndetin publik.
Do të duhet t’i zbusë ato dhe të informojë Komisionin në një raport të gjatë pajtueshmërie. Sa më i gjerë të jetë përcaktimi, aq më i gjerë duhet të jetë ky raport.
Këto vlerësime rreziku përfshijnë “hartimin e sistemeve të tyre të rekomandimit dhe çdo sistemi tjetër algoritmik përkatës”, sipas ligjit DSA.
Kjo mund të jetë e vështirë nëse Komisioni synon të gjithë modelin e madh gjuhësor që qëndron në themel të ChatGPT dhe përgjigjeve të tij, në krahasim me një fokus më të ngushtë në përmbajtjen e kërkimit që u ofrohet përdoruesve.
Një përkufizim i ngushtë mund ta shpëtonte OpenAI-n nga një angazhim: Si motor kërkimi, nuk do të duhej të ofronte një mekanizëm njoftimi dhe veprimi që u lejon përdoruesve të sinjalizojnë përmbajtjen për heqje.
Nëse një përcaktim bëhet në mesin e vitit 2026, kjo do të thotë që kërkesat e DSA-së do të prekin OpenAI-n në tremujorin e fundit të vitit të ardhshëm.
OpenAI gjithashtu mund ta kundërshtojë përcaktimin, siç kanë bërë pa sukses platformat e tjera në të kaluarën, tha João Pedro Quintais, profesor i asociuar i ligjit të informacionit në Universitetin e Amsterdamit. Çdo mosmarrëveshje do ta zgjaste më tej procesin.
Pyetje kyçe mbeten se si dy ligjet kryesore që trajtojnë AI-në dhe platformat mbivendosen.
Akti i AI-së dhe DSA-ja u hartuan për të bashkëjetuar në rastet kur AI është e integruar në shërbimet digjitale, siç janë Përmbledhjet e AI-së të Google-it, tha Quintais. Ato nuk u hartuan duke pasur parasysh të ashtuquajturit ofrues të AI-së të integruar vertikalisht si OpenAI.
Të dy ligjet bazohen në dy korniza të ndryshme rreziku. Platformat duhet të vlerësojnë se në cilat kategori rreziku bien dhe t’i përshtatin shërbimet e tyre në mënyrë të përshtatshme.
Këto korniza rreziku nuk janë të përafërta në mënyrë të përkryer; Akti i AI-së thotë se modelet duhet të klasifikohen si të papranueshme, të larta, të kufizuara ose minimale ose aspak rrezik.
Platformat dhe motorët e kërkimit duhet të përcaktojnë dhe zbutin katër lloje të “rreziqeve sistemike”, siç janë integriteti qytetar, zgjedhjet, shëndeti publik dhe të drejtat themelore.
Por sipas Aktit të AI-së, veçoritë e integruara në VLOPSE, siç janë Përmbledhjet e AI-së të Google-it, supozohet se janë në përputhje me rregullat e AI-së nëse ato paraqesin vlerësime DSA.
Kjo do të thotë që disa aspekte të rregullimit – për shembull, dezinformimi dhe deepfakes – “merren përsipër nga DSA”, tha Quintais, ndërsa rreziqe të tjera, për shembull, përdorimi i ChatGPT në proceset e punësimit, mbeten brenda Aktit të AI-së.
Mund të ketë boshllëqe në mënyrën se si kompania vlerëson rrezikun e shërbimeve të saj sepse të dy kornizat nuk përputhen në mënyrë të përkryer, tha Quintais.
Kompania gjithashtu mund të përfitojë nga ajo që njihet si ligje të sigurta, sipas të cilave platformat dhe motorët e kërkimit nuk janë përgjegjës për përmbajtjen e postuar në to, shtoi ai. /

