Chat-GPT a împlinit ieri un an. DigitalPolicy face azi trei ani. Coincidence?! I think not! 🙂 Dar e momentul potrivit să ne uităm un pic pe unde se mai află instituțiile europene cu negocierea pe Actul privind Inteligența Artificială (AI Act), despre care am scris la vremea lui aici. De fapt, ar trebui să mai adăugăm aici un termen de referință: Chat-GPT a împlinit un an, DigitalPolicy trei, iar procesul de negociere al AI Act are deja 2 ani împliniți. Pare că legislația IA e în pericol.
Da, vorbim încă de un proces de negociere, având în vedere că AI Act încă nu a intrat în vigoare. Ce s-a întâmplat? Dacă nu vrei să mergi mai departe cu cititul, am răspuns la această întrebare deja din prima propoziție. Chat-GPT a împlinit un an, asta s-a întâmplat. Dacă vrei să mergi mai departe, vei afla despre:
- cum noile aplicabilități ale IA au deturnat textul inițial al regulamentului
- cum unele state pot deturna toată negocierea unui act legislativ din varii motive (a se citi – interese naționale)
- cât de divizați sunt toți actorii care au habar cât de cât despre IA. Dacă ei sunt divizați, atunci ce pretenții să mai avem unii de la alții că înțelegem ceva despre IA?
De ce te-ar interesa să mergi mai departe?
- reglementarea IA a pornit ca o soluție pentru protecția și siguranța consumatorilor. Deci, dacă nu iese, noi, cetățenii, ieșim mai prost.
- mărul discordiei se învârte în jurul sistemelor de tip Chat-GPT și reglementarea acestora. Sunt acestea riscante sau nu? Dacă ai folosit cel puțin o dată un astfel de sistem, atunci ți-ai făcut o părere despre asta. Cum te situezi? Vezi mai jos ce s-ar putea întâmpla cu acestea.
- de la “IA va aduce sfârșitul lumii” la “IA o să-mi elimine jobul”, cred că le-am auzit pe toate în ultima vreme. Vorbim cu adevărat despre așa ceva? Ce poate să facă o astfel de reglementare cu privire la aceste amenințări?
Să purcedem, deci.
Unde eram cu AI Act?
Impresiile cu privire la această abordare pe riscuri au fost și sunt împărțite în clasica diviziune între cei care cred că reglementarea e nașpa și cei care cred că reglementarea nu merge destul de departe.
De ce ar fi reglementarea nașpa în general? Răspunsul e că ar crea mai multe costuri de operare a acestor sisteme și că oricum restricțiile de operare dăunează inovației. Fiindcă nu poți să faci ce vrei, atunci nu poți inova. Dacă nu poți inova, nu poți aduce produse și servicii de valoare pe piață cu care să creezi mai multă valoare. Filosofia asta vine din America unde modelul de reglementare a tehnologiei este mult mai relaxat și pune accentul pe auto-reglementare. Nu mă credeți pe mine, atunci credeți-o pe Anu Bradford care scrie despre acest model în noua sa carte – Digital Empires.
Na și de aici se împute treaba cu toată legislația 🙂 De ce? Pentru că un produs nou a apărut în mijlocul procesului de negociere al AI Act și a direcționat total concentrarea pe utilizarea universală a acesteia, concentrare care intră în conflict cu modul în care erau văzute sistemele IA până atunci – un sistem pentru o utilizare pentru un domeniu.
Produsul era nou prin capabilitățile pe care a reușit să le obțină cu ajutorul infrastucturii și puterii de calcul, dar tehnologia din spate nu era chiar nouă. E vorba despre Chat-GPT, desigur.
Cine v-a lucrat aici?
Vorba aia, când vine meșterul să repare ceva și se ia cu mâinile în cap și zice: cine v-a lucrat aici? Cam așa și cu opinia publică acum cu puțin timp la dispoziție pentru finalizarea negocierilor pentru Actul IA când ne-am trezit cu toții cu o bombă din partea unor state. Dar să păstrăm un pic suspansul aici.
Deci, OpenAI și Chat-GPT ne-au lucrat aici și au determinat negociatorii din Parlamentul European să propună includerea “foundational models” sau “sistemelor de IA de uz general” în textul propunerii de regulament. Până aici toate bune. Dacă ai utilizat cel puțin o dată Chat-GPT și nu ți s-a zburlit părul pe spate când ai văzut că se exprimă bine în română și poate să-ți ușureze destul de mult activitatea, atunci felicitări, ești mult mai echilibrat decât mine. Sau mai optimist.
Hai să-ți stric un pic impresia despre acesta. De fiecare dată când noi îl folosim, îl antrenăm. De fiecare dată când îl folosim, acesta învață. Dar atenție, învață cuvinte și știe că trebuie să-ți livreze ceva ce s-ar potrivi ca răspuns la întrebare. De aceea, poate să inventeze chestii. Am făcut un training pentru profesorii din sistemul preuniversitar despre cum ar putea integra această unealtă la clasă și le-am arătat cum poate inventa bibliografii și cărți atunci când îi ceri surse de informare. Reacția a fost cam așa: 😲
Și din această mică discuție irelevantă cu niște profesori, vine întrebarea care e pe buzele negociatorilor europeni: sunt aceste modele riscante? ar trebui să le punem în categoria aia de risc ridicat (care vine la rândul ei cu niște obligații)?
A fi sau a nu fi de mare risc?
Fără a intra foarte mult în aspecte tehnice legate atât de aceste sisteme de uz general, cât și de negocierile europene, e suficient să spunem că reglementarea acestora a intrat în vizorul și a Parlamentului și a Consiliului UE, dar cu abordări oarecum diferite.
Background pentru cine nu știe: Comisia Europeană propune, Parlamentul și Consiliul negociază între ele și extind sau reduc propunerea inițială, iar Comisia poate interveni cu variante de compromis etc. Dar, votul final se dă în ambele instituții pe o variantă pe care se negociază luni bune în general. Sau ani.
Spre exemplu, președinția cehă de anul trecut a propus includerea acestora în categoriile de risc ridicat indiferent de cum se utilizează (să nu uităm că acestea pot fi utilizate în orice domeniu). Parlamentul a venit cu o serie diferită de obligații pentru aceste sisteme de uz general indiferent de categoria de risc în care se află. Aici e dilema. Spre exemplu, Google Maps e considerat un astfel de sistem pentru că are la bază IA. Dacă-l folosești ca să te duci în excursie, treaba ta, e o chestie personală și nu prea există foarte multe riscuri asociate. Dar dacă e folosit ca soft integrat într-o ambulanță sau o mașină de poliție (gen cum sunt BMW-urile noastre :), atunci intervin aspecte legate de securitate, viață privată etc.
Aici a apărut o nouă variantă de compromis – “tiered approach” – din nou din limbajul melodios al birocrației europene. Adică nu toate sistemele de genul acesta sunt cu impact maxim asupra societății, deci Comisia a propus reglementarea pe două categorii: prima care le include pe toate sistemele de uz general (cu obligații de transparență) și a doua cu mai multe obligații pentru sistemele IA cu impact asupra societății. Acestea ar trebui să ofere explicații cu privire la modul de funcționare a sistemelor, spre exemplu.
Responsabilitatea de a desemna pe cele din urmă ar cădea instituției denumite generic AI Office (pe bază de capabilități, număr de utilizatori, investiții etc), care s-ar ocupa de foarte multe aspecte tehnice pentru implementarea reglementării. Aici ar putea intra, de exemplu, Chat-GPT. Acestea ar reprezenta un risc sistemic asupra societății datorită puterii lor și numeroaselor sale utilizări.
Legislația IA e în pericol
Și acum vine detonarea bombei. Pe ultima sută de metri, Franța, Germania și Italia au publicat o scrisoare în care și-au exprimat dezacordul total cu privire la reglementarea acestor sisteme de uz general și limitarea acestei reglementări la realizarea unor coduri de conduită pe care companiile se angajează să le respecte. Mai mult, n-ar fi de acord nici cu sancțiuni, decât după încălcări repetate ale codului de conduită. Toată lumea a fost luată prin surprindere de această poziție, care va paraliza Consiliul UE, iar Parlamentul a menționat clar că nu va da înapoi cu privire la această reglementare.
Care-i problema Franței, Germaniei și a Italiei? Eterna problemă: reglementarea acestor sisteme ar ucide inovația. Inovație realizată în UE. Presa scrie că imboldul pentru această poziție a venit de la 2-3 companii din domeniul IA din țările respective. Veșnicul lobby, adică 🙂 Dar demersul pare oarecum egoist, având în vedere că aceste state au fost de acord cu reglementarea sistemelor IA atunci când ele vin din alte părți. Deja când vorbim de lucruri din ograda noastră, lucrurile se complică.
Motivul tehnic se leagă de faptul că abordarea cu privire la sistemele de tip Chat-GPT se leagă mai degrabă de tehnologie în sine, deci de cei care o pun pe piață, decât de utilizarea lor, spre deosebire de restul propunerii de regulament. Reglementarea ar presupune obligații pentru cei care pun pe piață, nu cei care o utilizează. Dar să nu uităm că aceste sunt sisteme de uz general, deci nu prea ai alte portițe de reglementare pentru că sunt mii de tipuri de utilizări posibile.
De ce acum și nu mai demult când era vorba și de o reglementare poate mai dură? Aceasta e o întrebare bună care poate ține de un demers strategic de a întârzia per total tot regulamentul. Pentru că asta se poate întâmpla. Vine finalul de an și ultimele întâlniri pe acest subiect sunt pe 6 decembrie, apoi se schimbă Președinția de la 1 ianuarie, iar mare lucru nu mai pot face pentru că Parlamentul nu va mai lucra prea mult, având în vedere că vor fi alegeri în iunie.
Am citit reacții de genul din presă: “acum ori niciodată”, “declaration of war” șamd.
Ce mai zic alții?
Dovadă că procesul decizional european e chiar democratic și deschis este numărul relativ mare de scrisori deschise și apeluri publice din jurul acestui regulament. E semn că presiunea, de oricare parte ar fi ea, funcționează. Iar, odată cu apelul lansat de Franța, Germania și Italia, presiunea publică s-a intensificat și ea.
Să începem cu industria. Ce spune?
- DigitalEurope – una din cele mai mari asociații profesionale care reprezintă companiile din tehnologie – sprijină scrisoarea celor trei țări. Nu sunt de acord cu clasificarea sistemelor de uz general ca fiind de mare risc, iar companiile n-ar trebui să fie împiedicate să utilizeze aceste sisteme. Reglementarea lor ar însemna poate finalul lor: “let’s not regulate them out of existence”
- scrisoare deschisă a mai multor asociații profesionale și companii din mai multe sectoare, printre care Renault, Siemens, Valeo, Carrefour etc: reglementarea acestor sisteme ar duce la costuri ridicate de conformitate și ar duce la retragerea investițiilor și relocarea companiilor. Ceea ce ar duce la o rămânere în urmă și mai mare față de SUA în ceea ce privește dezvoltarea tehnologiei. De ce n-ar trebui reglementate? Pentru că nu știm încă prea multe despre aceste sisteme. Ar trebui instituite doar o serie de principii generale, subliniind faptul că ele vor deveni aproape ca niște asistenți personali
Pe scurt, ideile sunt aceleași – nu reglementați mai mult decât trebuie, ucideți inovația și dezvoltarea. Într-adevăr, dezvoltarea tehnologică de care ne bucurăm acum este rezultatul unui mediu relaxat de reglementare. Dar să nu uităm unde am ajuns acum: concentrarea informației la o mână de companii, eliminarea competiției, expansiunea necontrolată a social media cu repercusiuni sociale importante.
De aici pornește și un alt punct de vedere enunțat de European Policy Centre. Analiștii acestui think-tank detaliază că lipsa reglementării unor astfel de sisteme de IA va putea aduce același tip de concentrare în mâna corporațiilor mari, lucru care oarecum deja se întâmplă. De altfel, haosul de la compania OpenAI, unde fondatorul Sam Altman a fost dat afară și reinstaurat în decurs de câteva zile, arată limitele abordării private cu privire la auto-reglementare.
Soluția lor vine din două părți. Din reglementare oricum. Mai precis, din politica de competiție, pentru a elimina riscul concentrării puterii IA în mâinile unor companii, așa cum se întâmplă acum cu social media. Dar oricum, realizarea de astfel de modele presupune investiții mari, iar competiția ar fi restrânsă, astfel că aici vine a doua parte a propunerii de reglementare, anume dotarea acestor companii cu statut de “utilități publice” sau cu responsabilități fiduciare care să le lege de un anumit interes public. Cam cum vorbim despre compania de electricitate sau de apă.
Institutul Ada Lovelace, una din vocile cele mai relevante din IA din lume, afirmă fără echivoc: “ar fi iresponsabil să nu reglementăm sistemele IA de uz general pentru a proteja câțiva campioni naționali”. Furnizorii ar trebui să fie reglementați și nu utilizările specifice pentru că aceștia au capacitatea financiară de a asigura conformitate pentru întregul lanț de valoare.
Pe lângă toate argumentele similare cu cei de la EPC, poziția Ada Lovelace vine și din studiul preferințelor și atitudinilor cetățenilor cu privire la IA, despre care am vorbit aici. Oamenii vor reglementare, vor să aibă încredere în soluțiile IA pe care le utilizează.
Cele mai clare poziții cu privire la necesitatea de a trata diferit sistemele IA de uz general vin de la o scrisoare semnată de o grămadă de cercetători și universitari proeminenți din IA. Ei vorbesc despre riscul sistemic inerent al acestor sisteme datorită caracterului lor general sau a potențialului de a afecta aproape orice parte a societății. Ei spun că nu există altă soluție decât de a reglementa “la origini”, acolo unde se pot rezolva destule probleme dinainte de implementare în anumite sectoare.
What now?
Sunt câteva scenarii pe masă la ora actuală. Cel mai des menționat în presa de specialitate este că întreg regulamentul este în pericol și că nu mai este prea mult timp la dispoziție. The clock is ticking.
Dar uităm adesea că politicii europene aproape că îi place acest tip de urgență. Marile decizii din tratate s-au realizat în miezul nopții sau foarte aproape de expirarea unui termen-limită. Astfel de condiții invită la compromis, iar compromisul este la inima procesului decizional european. Acesta este al doilea scenariu: un compromis pe ultima sută de metri între ce vor statele și ce vrea Parlamentul. Problema e că am fost deja la momentul unui compromis – cu acea abordare pe două paliere – și acesta a fost respins.
Închei cu poziția directorului pentru cercetare al Centre for European Policy Studies, care a contribuit cu multă cunoaștere la procesul de realizare și negociere pentru acest dosar legislativ: “finish it already”.
Referințe
- https://www.euractiv.com/section/artificial-intelligence/news/ai-act-meps-close-ranks-in-asking-for-tighter-rules-for-powerful-ai-models/
- https://www.euractiv.com/section/artificial-intelligence/news/eus-ai-act-negotiations-hit-the-brakes-over-foundation-models/
- https://www.euractiv.com/section/artificial-intelligence/news/spanish-presidency-envisages-landing-zones-on-law-enforcement-in-ai-rulebook/
- https://www.euractiv.com/section/artificial-intelligence/news/france-germany-italy-push-for-mandatory-self-regulation-for-foundation-models-in-eus-ai-law/
- https://www.politico.eu/article/france-germany-power-grab-kill-eu-blockbuster-ai-artificial-intelligence-bill/
- https://www.euractiv.com/section/artificial-intelligence/news/behind-frances-stance-against-regulating-powerful-ai-models/
- https://uploads-ssl.webflow.com/6034e2e35a869ae02e67f55f/649eadd757bee709f4fe1f49_Brandbrief en-US (2).pdf
- https://www.ceps.eu/eu-policymakers-youve-done-a-mostly-good-job-on-the-ai-act-now-finish-it-already/
- https://www.euractiv.com/section/artificial-intelligence/opinion/regulating-ai-foundation-models-is-crucial-for-innovation/
- https://www.digitalsme.eu/general-purpose-ai-fit-for-european-small-scale-innovators/
- https://www.taylorwessing.com/en/insights-and-events/insights/2023/11/ai-act-at-risk