Taginteligența artificială

Inteligența artificială la locul de muncă: Cui îi e frică de AIu’?

Ați auzit de Uncanny Valley? Nu, nu este cel mai recent serial-hit de pe Netflix, deși ar putea fi un titlu bun. Mai știți reacția aia reacția pe care ați avut-o pentru prima dată când v-a impresionat o unealtă gen Chat-GPT? Impresionat, dar speriat, poate și ați respins unealta. Asta e uncanny valley 🙂 E un teritoriul ăla obligatoriu pe care intrăm atunci când dăm de o tehnologie de genul acesta care este foarte apropiată de om, dar care nu e chiar un om. O animație sau o hologramă ar mai putea să ne dea același efect, dar nu le folosim la fel de des în zilele noastre. De ce ne-ar interesa acest efect? Pentru că se referă la atitudinea, mai ales la sentimentele pe care ni le trezesc tehnologiile pe care le utilizăm și, pe măsură ce avansează, Uncanny Valley se poate despărți în Canionul acceptării sau Groapa Marianelor Respingerii tehnologiei.

Mai adăugam la asta și faptul că tot la 5 minute auzim din stânga și din dreapta că “roboții ne vor lua joburile” și traseul spre Groapa Marianelor e garantat. Studii există o grămadă pe tema asta, dar parcă oriunde te uiți, percepția e diferită. Bănuiesc că de aici au pornit cei de la Comisia Europeană când s-au gândit să analizeze percepția europenilor asupra tehnologiei la locul de muncă, în special cu privire la inteligența artificială (IA). Căci la asta ne uităm în acest articol. Dar, ca orice analiză de pe aici, ne uităm mai adânc. Nu, nu la niveluri de Groapa Marianelor 🙂

Ce urmărim?

  • rezultatele Eurobarometrului care analizează percepția și relația românilor cu tehnologiile digitale, în special IA
  • ce ne ajută? ce ne încurcă?
  • cum ne pot ajuta politicile naționale și europene să avem o relație echilibrată cu tehnologia la locul de muncă?

Dar înainte un pic de context. Să purcedem.

De ce vorbim despre inteligența artificială la locul de muncă?

Avem două motive mari de tot pentru care vorbim despre asta. Se leagă de cuvântul preferat al europenilor – reglementări. În primul rând, e vorba de o prioritate politică a Comisiei Europene. Președinta Comisiei a trasat recent mandatele și sarcinile pentru comisari în 2024, iar Comisarul responsabil pentru afaceri sociale și competențe, Roxana Minzatu, a primit o scrisoare de misiune unde Ursula von der Leyen spunea asta: Aș dori să îți îndrepți atenția și înspre impactul digitalizării asupra pieței muncii, în special printr-o inițiativă privind gestionarea algoritmică și prin posibile legi în domeniul inteligenței artificiale (IA) la locul de muncă, după consultarea partenerilor sociali. Vei propune, de asemenea, introducerea în legislație a dreptului la deconectare. Astfel, vorbim iarăși despre “năpastele” astea de drepturi ale europenilor în spațiul digital și față de tehnologie de care nu prea au chef cei din leadership să se ocupe acum, ocupați fiind cu competitivitatea și discursurile despre simplificare etc. Chiar zilele astea, doamna Comisar a fost întrebată dacă exclude realizarea acestei propuneri de legislații și se pare că este încă pe radarul acesteia, conform Euractiv.

Al doilea motiv se leagă de altă lege care e în atenția tuturor – AI Act – care reglementează modul în care sunt puse pe piață produsele/serviciile pe bază de IA. Reglementarea funcționează pe principiul protecției consumatorilor, iar cei care pun pe piață astfel de sisteme trebuie să se asigure că nu dăunează drepturilor consumatorilor. Există deci câteva niveluri de risc, dictate de modul în care sunt utilizate. La capitolul “risc ridicat” intră și utilizările sistemelor de IA în anumite circumstanțe, printre care se numără și “ocuparea forței de muncă, astfel: sisteme de IA care se utilizează în procesele de recrutare, respectiv cele care iau decizii “care afectează termenii relațiilor de muncă” sau care “alocă sarcini pe baza comportamentului individual sau a trăsăturilor ori caracteristicilor personale sau pentru a monitoriza și evalua performanța și comportamentul persoanelor aflate în astfel de relații”. Aici am mai putea include și utilizarea pentru biometrie, dacă astfel de sisteme se utilizează la locul de muncă pentru controlul accesului, spre exemplu. Ne petrecem destul de mult timp la locul de muncă și IA la locul de muncă va fi parte din activitatea noastră tot mai mult – trebuie să vedem cum ne situăm față de aceasta.

Vom avea în perioada următoare multe informări la locurile de muncă cu privire la folosirea IA pe măsură ce aceasta se va tot folosi. Nu mai zic că există o prevedere în AI Act, care cere care companiilor să se asigure că persoanele care lucrează cu acestea înțeleg efectele, beneficiile și riscurile acestei tehnologii. Ce moment mai prielnic să vedem ce relație au europenii cu tehnologia?

Ok, acum că am stabilit de ce vorbim despre asta și cum se leagă toate, hai să vedem ce au zis românii 🙂

 

Cui îi e frică de IA?

Eurobarometrul despre AI în România a fost realizat în perioada aprilie-mai 2024 în toate statele membre, prin metoda față-în-față, pe un eșantion de 1042 de respondenți din România. Știm că nu e cel mai prielnic moment pentru sondaje în perioada asta, deci luăm și asta with a grain of salt și ținem cont de reticența oamenilor de a răspunde cu riscul de a se face de rușine. De asemenea, trebuie să reținem o informație importantă: întrebările au fost formulate cu referire la toate tehnologiile digitale, inclusiv inteligența artificială, deci scorurile pe anumite întrebări nu reflectă întreg tabloul legat de relația noastră cu tehnologia

Deci, cum stăm?

  • 32% din români spun că tehnologiile digitale, inclusiv AI, au un impact negativ pentru locul de muncă actual față de 21% la nivel european. În ceea ce privește impactul asupra societății – procentul e în creștere la 35% și mai apropiat de media europeană de 33%. Sentimentele pozitive sunt doar pentru impactul pozitiv asupra economiei (61% față de 65%).
  • 48% văd cu ochi buni percepția utilizării roboților și AI la locul de muncă, dar procentul nu e foarte diferit față cel european. Procentul este totuși scăzut și poate fi un obstacol în calea digitalizării în economie pentru că vedem un efect de rezistență împotriva tehnologiei. Activități de genul integrării lucrătorilor în designul și implementarea tehnologiilor ar putea rezolva o parte din această problemă, la fel și un dialog social coerent cu privire la digitalizare. La nivel european, discursul legat de Industria 5.0 ar putea fi un punct de pornire pentru creșterea gradului de acceptare și integrare a tehnologiilor. Dar desigur la noi lipsește cu desăvârșire 🙂
  • 63% consideră că roboții și AI fură locurile de muncă (procent în scădere totuși față de ultimul eurobarometru) – dar aproape de media europeană. Doar 43% din români spun că aceste tehnologii pot fi utilizate pentru a lua decizii corecte la locul de muncă
  • observăm procente apropiate și între RO și UE cu privire la acordul legat de dispariția locurilor de muncă în procent mai mare decât vor putea fi create (64% vs 66%)
  • 28% nu văd o problemă în a utiliza AI sau tehnologii digitale pentru concedierea automată a lucrătorilor (față de 16% în UE), în timp ce 47% nu văd o problemă în a utiliza AI sau tehnologii digitale pentru monitorizarea lucrătorilor (față de 31% media UE). Singura apreciere care ar fi cât de cât pozitivă pentru utilizarea tehnologiei la locul de muncă este pentru îmbunătățirea siguranței și securității lucrătorilor.
  • 56% se consideră competenți în utilizarea tehnologiei în viața de zi, respectiv au încredere în competențele lor pentru a lucra (61%). Foarte interesantă această disonanță cognitivă (adică una zic și aia fac) legată de nivelul competențelor digitale în România – ultimele date de la nivelul anului 2023 arată că doar 27% au competențe digitale cel puțin de bază. Nivelul de sofisticare al slujbelor poate juca un rol în această disonanță – adică dacă bați la calculator cam același lucru în fiecare zi la muncă, e normal să crezi că ești competent. Dar contează și ce faci și cum faci. De asemenea, aș mai adăuga apetitul românului pentru social media – am văzut cu toții cum sunt toți competenți pe Tik Tok. Scrollul pe social media nu antrenează decât mușchii degetelor 🙂
  • cu privire la comunicarea din partea angajatorilor privind utilizarea tehnologiilor digitale la locul de muncă – doar 15% au primit o informare echilibrată.
  • În ceea ce privește regulile pentru abordarea riscurilor și maximizarea beneficiilor – adică acele mult-hulite reglementări de care americanii vor să se scape – iată că totuși europenii cam vor reguli – 82% sunt de acord cu reguli pentru protecția vieții private, 77% vor implicarea lucrătorilor în proiectarea și adoptarea noilor tehnologii. Noi, românii, nu suntem obișnuiți cu consultarea, cu chestii fancy, gen co-creare, co-design, deci doar 67% ar vrea astfel de reguli. Îngrijorător e și procentul care ar vrea limitarea monitorizării automate a angajaților, deși majoritar, de 61%. Aici speculez un pic și mă gândesc că cei 30% care n-ar vrea asta au o problemă cu colegii lor care sigur nu lucrează nimic 🙂
  • o secțiune cu adevărat interesantă a acestui raport se referă la informarea angajaților cu privire la utilizarea tehnologiilor, informare investigată și din punct de vedere al angajatorilor și al angajaților. Există o discrepanță semnificativă între percepții: 36% dintre angajați spun că nu li s-a adus la cunoștință despre utilizarea tehnologiilor digitale, în timp ce doar 19% dintre angajatori recunosc că nu și-au informat angajații (un procent la jumătate față de media europeană). Această diferență sugerează o problemă de comunicare între cele două părți. În cazul informării detaliate (care include beneficii, dezavantaje și drepturi), există de asemenea o diferență: 15% dintre angajați spun că au primit astfel de informații, în timp ce 13% dintre angajatori susțin că au oferit astfel de explicații. Puțini de altfel. Deci iarăși n-avem treabă cu consultarea și cu dialogul. Sau putem vorbi de mailuri trimise de angajatori care se pun la capitolul informare, dar pe care angajații nu prea le-au citit.

 

Deci, pe scurt:

  • Observăm o reticență a românilor față de impactul tehnologiilor digitale și inteligenței artificiale (IA) la locul de muncă, deși percepția este puțin mai pozitivă decât media UE. Acest lucru poate constitui un obstacol în calea digitalizării economiei.
  • Mulți români consideră că roboții și IA fură locurile de muncă și sunt sceptici cu privire la capacitatea acestor tehnologii de a lua decizii corecte la muncă.
  • Există o discrepanță între percepția de sine a românilor privind competențele digitale și nivelul real al acestor competențe, ceea ce poate indica o lipsă de conștientizare.
  • Comunicarea dintre angajatori și angajați cu privire la utilizarea tehnologiilor digitale la locul de muncă pare deficitară, existând diferențe de percepție semnificative între cele două părți.

Am mai văzut așa ceva până acum?

avem date și din alt Eurobarometru legat de transformarea digitală în România din 2024, unde românii au percepții interesante, anume:

  • scoruri mult mai scăzute decât media europeană legate de sprijinul pe care ar trebui să-l primească pentru a face față transformării digitale (68% RO – 88% UE)
  • scoruri scăzute despre dezvoltarea de IA care să respecte drepturile și valorile noastre (65% RO versus 78% UE)
  • de asemenea, românii nu prea sunt încântați de efectele digitalizării serviciilor publice / private asupra vieții lor – doar 59% spun că le-a făcut viața mai ușoară
  • și aici securitatea și protecția datelor sunt factori cheie pentru români pentru încrederea în tehnologiile digitale – cu procent de 66% față de 79% UE.
  • 77% dintre europeni și 67% dintre români consideră adaptarea serviciilor digitale la nevoile individuale ca fiind esențială pentru o experiență mai bună a utilizatorilor, indicând așteptări crescute pentru soluții personalizate.
  • Deși tehnologia avansează, majoritatea (74% în UE, 60% în RO) recunoaște importanța sprijinului uman în adopția digitală.
  • Nevoia de educație și formare în competențe digitale este percepută ca vitală de 72% în UE și 63% în RO, sugerând necesitatea investițiilor în alfabetizarea digitală pentru utilizarea eficientă a serviciilor de către toți cetățenii.

Și acum ce ne facem?

Deocamdată băltim în procente din astea majoritare, dar care pot să stagneze sau chiar să o ia la vale, dacă mai auzim discursuri politice, gen “nu vrem să fim controlați de tehnologie” etc. Și astea spuse cu ajutorul unui smartphone. Reticența cu privire la integrarea tehnologiilor transpare și din aceste cifre. Păi, ce facem?

  • facem programe de competențe digitale. Și chiar avem cu ce – de data asta. N-am mai văzut atâtea programe de competențe digitale câte au fost în perioada asta în România. Problema e cum măsurăm impactul acestora.
  • implementăm odată strategia aia de inteligență artificială aprobată anul trecut unde există 2-3 obiective specifice exact pe sprijinirea adoptării tehnologiei la nivel de societate și la nivel de sectoare economice.
  • facem niște programe de dialog social și cooperare dintre angajatori, angajați și mediatorii acestora pentru a putea ajunge la o înțelgere cu privire la integrarea tehnologiilor la locul de muncă. NB: prima dată trebuie convinși angajații că e bine să fie consultați și implicați și apoi angajatorii. Și rezolvăm problemele de comunicare și informare dintre angajați și angajatori.
  • punem accent pe implementarea AI Act – mai ales zona de alfabetizare în materie de inteligență artificială. Să începem măcar să vorbim despre asta.
  • vorbim și noi un pic despre cum putem să ne folosim de câteva unelte colaborative pentru integrarea tehnologiilor la locul de muncă? Mulțumesc.

Relația românilor cu inteligența artificială la locul de muncă rămâne într-o perpetuă „uncanny valley” – acea zonă de disconfort cognitiv unde roboții ne par aproape umani, dar nu suficient pentru a nu ne produce fiori. Pentru a traversa această vale și a cultiva acceptarea tehnologiilor digitale în România, avem nevoie de educație și dialog social structurat – două concepte la fel de familiare în peisajul nostru organizațional precum punctualitatea în transportul feroviar. Numai așa putem transforma anxietatea față de monitorizarea angajaților prin tehnologie în participare conștientă la inevitabila transformare digitală a economiei, un proces care, în ritmul actual, s-ar putea finaliza aproximativ când vor fi gata și autostrăzile.

Surse

  • Eurobarometrul privind percepția europenilor privind inteligența artificială și viitorul muncii: https://europa.eu/eurobarometer/surveys/detail/3222
  • Eurobarometrul privind Deceniul Digital: https://europa.eu/eurobarometer/surveys/detail/3174
  • Sursă imagine de fundal: Microsoft Designer cu prompt „people running away from a robot in a city setting. similar to godzilla” 🙂

De la Matrix la UE. Despre Actul privind inteligența artificială

Unul din filmele mele preferate este Matrix. Prima parte, din motive evidente. Cunoscătorii știu despre ce vorbesc. M-a fascinat ideea filmului încă de dinainte să mă ocup de cercetare în ceea ce privește tehnologia digitală, politicile publice și viețile oamenilor. Mai degrabă pentru ideea liberului arbitru și, desigur, a scenelor de acțiune din film 🙂

Dar acțiunea se petrece și în partea filosofică a filmului, fiind vorba despre modul în care o inteligență artificială (IA) a creat un mijloc de a-și susține existența prin asuprirea oamenilor într-o realitate simulată și transformarea lor într-o sursă de energie. De ce ar face asta? Păi, să vezi definiția inteligenței artificiale – un sistem care acționează pentru a-și atinge obiectivele setate. Și nu poți să-ți duci la capăt obiectivele setate decât dacă ai o sursă de energie stabilă și inepuizabilă.

Realitatea e alta..nu cu mult, desigur:

  • avem de-a face cu algoritmi care optimizează activitatea lor cu consecințe adesea dramatice – vezi algoritmii social media proiectați pentru engagement pe platformă care au venit cu efecte adverse
  • se lucrează la arme autonome
  • vrem sau nu vrem să recunoaștem, suntem deja o sursă de date pentru programe bazate pe inteligența artificială
  • avem de-a face cu mulți care au luat pastila albastră

Povestea inteligenței artificiale este similară în mai multe filme – tehnologia devine conștientă de sine, realizează relele pe care le-a făcut omenirea sau ajunge la concluzia că supraviețuirea ei este țelul suprem și decide să extermine omenirea.

Aici realitatea nu e chiar așa:

  • nu avem de-a face încă cu inteligența artificială generală – adică cea pe care o vedem în filme, cu care conversezi și care se decide să ne subjuge
  • avem de-a face cu narrow AI – adică aplicații de inteligență artificială realizate pentru scopuri precise cum ar fi recunoașterea facială sau algoritmii care îți personalizează căutările Google
  • avem frânturi de coduri de conduită pe inteligență artificială, discuții despre etică în inteligența artificială și, desigur, avem un proiect de reglementare UE pentru inteligența artificială – primul din lume, de altfel

Cu ce seamănă realitatea noastră cu filmele de care ziceam? Avem de-a face cu o cursă pentru supremația în inteligența artificială. Pe primele locuri – SUA și China, urmate undeva pe turnantă de Uniunea Europeană care de fapt aleargă într-o total altă cursă: cea a reglementării, mai degrabă.

Povestea de săptămâna asta începe, deci, de la Matrix și ajunge la Uniunea Europeană și încercările ei de a împiedica manifestarea în viața reală a oricărui film apocaliptic de genul acesta. Două construcții care par unora iluzorii oricum 🙂

Despre ce o să citești mai jos?

  • ce presupune proiectul de regulament european privind inteligența artificială?
  • de ce mă interesează? cu ce mă ajută?
  • cine ce spune despre acest proiect?

 

Nu încă un regulament european….

Oh, ba da! Acum că am terminat cu cele două regulamente privind piețele digitale și serviciile digitale, care tocmai au primit votul final în Parlamentul European, e rândul regulamentului privind inteligența artificială să intre în scenă.

De ce e nevoie de un regulament european să reglementeze inteligența artificială? Sunt mai multe motive. În primul rând, vorbim de o tehnologie cu profunde implicații în ceea ce privește liberul arbitru (hello, Matrix!), luarea deciziilor, supravegherea sau viața intimă a oamenilor.

În al doilea rând, pentru că unele companii pot comite foarte multe abuzuri pornind de la „vrăjitoria” asta numită IA. Cazul companiei Clearview e notoriu, compania lăudându-se că este „cea mai mare rețea de fețe din lume”, folosind o serie de tactici cam lipsite de etică pentru a-ți colecta selfie-urile pe care le postezi cine știe pe unde. Practic, au făcut un program de recunoaștere facială bazat pe IA folosind date de pe social media și vând acest program autorităților de aplicare a legii din toată lumea (am înțeles că și autorități din UE au achiziționat acest soft, deși ar fi ilegal conform GDPR). Au ajuns acum la a doua amendă și au primit și încă câteva decizii de încetare a activității de colectare a datelor în Franța, Italia sau UK.

În al treilea rând, ca să fie prima care setează trendul 🙂 Într-adevăr, dacă setează regulile pe care se vor dezvolta principalele aplicații de inteligență în viitor, poate forța utilizarea acestor reguli la nivel internațional. E un mod de a opera similar cu regulile pe confidențialitate, unde o cercetătoare a denumit efectul Bruxelles generalizarea normelor GDPR la nivel global deoarece înseamnă reducere de costuri. Deci, foarte probabil să vorbim de efectul Bruxelles și în domeniul IA. Asta doar dacă regulile se dovedesc destul de puternice încât să forțeze companiile să le internalizeze și piața UE este suficient de atractivă.

Care sunt principalele stipulări ale viitorului regulament?

Ca de obicei când vine vorba de reglementări europene, întrebarea-cheie este: cum să cer îndeplinirea unor obligații și respectarea unor standarde fără să omor sectorul pe care vreau să-l reglementez? Pentru că, desigur, nimănui nu-i place să respecte reguli – de la copii la companiile de tehnologie care trâmbițează sus și tare că reglementările creează costuri în plus care nu există în alte părți. Ei mai zic că reglementările ar face produsele să fie necompetitive și, desigur, că omoară libertatea și creativitatea. Ce „vinde” această reglementare și o face diferită de celelalte pe sectorul digital care s-au întâlnit cu un astfel de discurs este faptul că nu a mai fost așa ceva până acum. Deci, companiile își pot pune amprenta asupra legislației prin magicul proces de lobby.

OK, revenind, ce presupune regulamentul? Accentul cade aici pe problema riscurilor inerente și necunoscute pe care sistemele IA le pot determina – nu doar la nivel de utilizare, ci și la nivel geopolitic. Deci, principalele stipulări ale regulamentului au la bază o abordare „risk-based” care cataloghează sistemele IA pe tipurile de riscuri pe care le creează, astfel:

  • riscuri inacceptabile – sisteme IA care contravin valorilor europene și care vor fi interzise. Aici intră sistemele de credit social, utilizate în China – exemplu clar dat de către propunerea de regulament și care va fi interzis explicit
  • riscuri ridicate – sisteme IA care au efecte adverse asupra siguranței sau drepturilor fundamentale ale europenilor. Vor fi clasificate astfel cele care îndeplinesc 2 condiții cumulativ: vor fi folosite într-unul din domeniile identificare biometrică, managementul infrastructurii critice, educație, piața muncii, acces la servicii publice sau privat esențiale, aplicarea legii, migrație și controlul graniței, justiție și prezintă un risc asupra sănătății sau siguranței sau afectează drepturile fundamentale ale cetățeanului. Vor trece printr-o evaluare pentru a le stabili statutul
  • riscuri limitate – sisteme IA care va trebui să respecte o serie de obligații, cum ar fi transparență, adică să fii informat că vorbești cu un sistem AI și nu cu un om
  • riscuri minime – toate celelalte sisteme IA care nu intră în categoriile de mai sus și nu vor avea alte obligații decât ce există deja în legislații
Exemple de sisteme IA pe tipuri de riscuri
Majoritatea legislației se învârte în jurul sistemelor cu risc ridicat și creează o serie de obligații pentru ele, dintre care cele mai importante pentru noi, cetățenii sunt:
  • obligațiile de transparență și de furnizare a informațiilor pentru utilizatori
  • supravegherea umană
  • evaluări de conformitate înainte de plasarea pe piață
  • supravegherea pieței din partea autorităților statele și europene (statele membre și, implicit, și România vor desemna o autoritate pentru supravegherea pieței de IA)
Și cu asta ajungem la mema asta:

Și cu ce dracu mă ajută pe mine, domnișoară?!

Secțiunea asta se întoarce 🙂 A mai fost pe aici și mi se pare chiar o expresie relevantă pentru toate ideile debitate pe această platformă. O să prezint pe scurt câteva situații prin care IA îți poate afecta drepturile fundamentale și you be the judge.

În primul rând, am spus în secțiunea de mai sus că IA e o tehnologie cu profunde implicații în liberul arbitru (hello, Matrix!), luarea deciziilor sau supravegherea sau viața intimă a oamenilor. Să vedem câteva situații:

  • luarea deciziilor – cine vrei să ia decizia să scoată CV-ul tău din teancul de CV-uri primite de o corporație și să decidă să te angajeze? Un om de HR sau un soft de inteligență artificială (IA) care poate face o prognoză cu privire la cum te vei descurca în viitor la acea slujbă? De unde știe el să facă această prognoză? Poate un astfel de sistem să ia o decizie corectă?
  • liberul arbitru – controlul comportamentului este explicit interzis în actuala formă a proiectului de regulament. Deci, nu va exista un sistem de supraveghere menit să verifice și să pedepsească comportamente considerate nepotrivite de către o autoritate arbitrară. Aici discuția poate intra pe o pantă mai complicată dacă ne gândim că algoritmii social media ar putea influența comportamente sau crea comportamente pe social media cu implicații indirecte asupra liberului arbitru. Dar hai să nu ne băgăm aici, având în vedere că problema rețelelor sociale și a algoritmilor săi nu este considerată de risc ridicat
  • supravegherea sau viața intimă a persoanelor – una e sistemul de supraveghere dintr-un aeroport, alta e sistemul de supraveghere într-un oraș care, cuplat cu recunoașterea facială, poate să-ți urmărească fiecare pas. Nu suntem neapărat aici, dar povestea cu Clearview AI menționată mai sus arată că am putea fi. Să nu uităm că acest soft a fost achiziționat de forțe de poliție din Europa. Întrebarea care se pune și la care nu cred că legislația IA răspunde este: ai dreptul să mergi până jos la magazin să cumperi o pâine fără a te gândi că cineva te vede și te urmărește și pune informația asta cap la cap cu altceva? (sigur că așteptați la o întrebare filosofică aici)

Toate întrebările de mai sus, dar și proiectul de legislație, pornesc de la premisa că sistemul IA funcționează pe baza unui set de date de calitate, cu ajutorul căreia acesta „a învățat”. De altfel, există stipulări în proiectul de regulament care se asigură că sistemele cu risc ridicat vor fi dezvoltate pe seturi de date de calitate și că sistemele vor avea guvernanță a datelor clară cu privire la:

  • cum au decis designul sistemului
  • colectarea de date și procesul de procesare a datelor
  • formularea ipotezelor de lucru pentru sistem
  • examinarea posibilelor biasuri (și altele)

Testarea datelor utilizate va trebui să ia în calcul și caracteristicile geografice sau comportamentale din zona în care vor fi utilizate sistemele cu risc ridicat. Mai precis, sistemele IA nu pot funcționa universal pentru că avem particularități culturale sau de comportament, spre exemplu să recunoască că o burqa nu e tot una cu o cagulă (exemplu exagerat, dar e util pentru înțelegere).

În al doilea rând, proiectul de regulament IA ne dă posibilitatea să aflăm când avem de-a face cu un sistem IA și nu cu un om. Spre exemplu, când vei depune actele pentru un împrumut bancar, vei fi informat că un sistem IA îți calculează scorul de credit.

În al treilea rând, supravegherea umană este cheia pentru ca drepturile noastre să fie respectate, iar sistemele cu risc ridicat va trebui să se asigure că un om suficient de bine pregătit, care înțelege cum funcționează sistemul, îl va „stăpâni”. Sarcinile acestuia/acesteia vor fi de a fi conștient/ă de tendința umană de a se baza prea mult pe tehnologie, de a fi capabil/ă de a interpreta corect rezultatele sau de a decide să nu folosească sistemul. Deci, aici avem de-a face nu doar cu IT-iști care creează sistemele astea, ci va trebui să ținem cont că forța de muncă în general are nevoie de cunoștințe de IA ca să poată folosi sistemele astea care doar se vor înmulți în viitor.

În al patrulea rând, statele și Comisia vor supraveghea piața și vor putea cere scoaterea unor sisteme care se dovedesc a fi prea riscante sau care vor avea efecte neintenționate. Deci, și aici avem nevoie de oameni bine pregătiți la nivel național care să poată înțelege tehnologia, dar și drepturile noastre fundamentale 🙂

Sună totul too good to be true? E vremea să ne uităm ce mai zic alții pe acest subiect.

Cum e de fapt?

Lucrurile sunt departe de a fi perfecte în ceea ce privește abordarea „futureproof” și neutră cu care se laudă Comisia Europeană. Sau cel puțin așa zic cei care s-au pronunțat pe lege.

Institutul Ada Lovelace din UK, printre cele mai semnificative institute de cercetare pe chestiuni de tehnologie din lume, are câteva probleme cu acest proiect de regulament:

  • mare parte din reglementările la adresa sistemelor IA vor cădea în brațele producătorului, dar acestea nu sunt produse „finite” sau, zic cei de la Ada, statice, „comportamentul lor schimbându-se în funcție de noi seturi de date, integrări în diverse ecosisteme etc”. Iar „utilizatorii” de astfel de sisteme IA au un rol limitat în legislație. Mai pe scurt, regulamentul nu descâlcește responsabilitățile diverselor entități implicate în utilizarea sistemelor IA – de la simple firme care cumpără un sistem, la social media, unde algoritmii nu neapărat că fac parte integrantă din sistemul IA
  • chiar dacă face caz din ideea necesității respectării drepturilor fundamentale ale cetățenilor, cei de la Ada cred că draftul de regulament cam ignoră contribuția cetățenilor/utilizatorilor finali ai sistemului IA. Adică nu te poți plânge unei autorități că ai fost nedreptățit de un sistem IA.
  • paralel cu obiecția de mai sus, cei de la Ada mai spun că regulamentul nu oferă o evaluare de impact asupra drepturilor fundamentale, cu toate că proiectul menționează importanța drepturilor fundamentale de foarte multe ori
  • clasificarea sistemelor pe tipuri de risc a fost făcută oarecum arbitrar, conform celor de la Ada. Și nu știm dacă se vor putea adăuga alte tipuri de sisteme în viitor. Ei spun că această listă arbitrară nu prea creează încredere în tehnologie, așa cum tot trâmbițează UE

DigitalEurope, asociația care reprezintă interesele marilor companii la Bruxells (printre care și BigTech), și-a formulat o poziție pe subiect:

  • și ei sunt de acord că lista sistemelor IA cu risc mare e cam vagă și ar trebui detaliată
  • și ei sunt de acord că utilizatorul sistemului trebuie să aibă un rol mai bine stabilit – pornind de la simpla idee că una e să-l creezi, ala e să-l folosești, dar obligațiile trebuie împărțite
  • sigur ar rezulta foarte multă hârțogărie din partea celor care creează astfel de sisteme – un lucru car poate dăuna IMM-urilor și start-upurilor.
  • sarcina implementării cade și în cârca statelor membre, care ar putea interpreta diferit unele aspecte ale regulamentului, ceea ce ar duce și la mai multă fragmentare. Deci, e nevoie de mai multă coordonare și sprijin pentru state de la nivel european (prin instituția propusă numită European AI Board)

Cercetătorii cei mai celebri pe subiect și-au formulat și ei păreri pe subiect (și nu doar cele din sfera – vai, IA va aduce pieirea omenirii). Max Tegmark este unul dintre cei mai celebri specialiști IA din lume și, invitat la o audiere a Parlamentului European pe acest subiect, s-a pronunțat că propunerea de regulament nu este „futureproof” deloc, având în vedere că nu face referire la sisteme de uz general, care sunt de fapt viitorul tehnologiei IA.

Altă obiecție a lui Tegmark – care nu este cuprinsă la rândul ei în textul legislației – se referă la potențialul de manipulare la nivel societal pe care-l au aceste sisteme și care nu cade sub incidența acestui proiect. Se referea desigur la social media.

Pe scurt: legislație limitată, vorbește despre drepturi fundamentale, dar nu face prea multe pentru a le rezolva, delimitări oarecum arbitrare ale tipurilor de riscuri și posibile implementări defectuoase.

Cum rămâne?

La aceeași audiere a Parlamentului European a participat și Stuart Russell, unul din „pionierii domeniului” care a fost de acord cu ideile lui Tegmark. El a și scris unul din primele manuale de IA în SUA și a scris o carte, numită Human Compatible, unde explică potențialul și limitările IA. Recomand cartea.

Chiar dacă recunoaște că avem de-a face cu limitări tehnologice în ceea ce privește construirea unor sisteme IA generale, în cartea cu subtitlul AI and the Problem of Control el vine deja cu o teorie cu privire la IA în așa fel încât să reducă din start unele potențiale amenințări. Deci, nu avem încă de-a face cu IA foarte puternice, dar el deja vine cu idei despre cum să schimbăm de tot definiția și construcția IA. Dacă asta nu te pune pe gânduri, atunci ce?

Ideea lui principală, cu care vă las în acest final de articol, este să regândim definiția IA de la:

„mașinile sunt inteligente atâta timp cât se așteaptă ca prin acțiunile lor să-și îndeplinească obiectivele”

la

„mașinile ne sunt benefice atâta timp cât se așteaptă ca prin acțiunile lor să ne îndeplinească obiectivele noastre”.

De la obiectivele lor – pe care noi le setăm, dar poate le setăm prost și cu consecințe nebănuite – la obiectivele noastre cu adevărat. Regăsesc ceva fărâmă din ideile astea în proiectul de regulament IA? Nu prea, deocamdată ne gândim la IA ca la niște produse pe care le cumpărăm și care trebuie să aibă marca de conformitate CE pe ele. Nu gândim societal.

 

Referințe

 

Digital Policy este o platformă de analize de politici publice digitale, axată pe nivelurile european, național și local.

Pagini

Newsletter