O nouă lege va permite consumatorilor să dea în judecată şi să ceară daune companiilor, dacă pot dovedi că inteligența artificială creată de acestea le-a făcut rău.
UE creează noi reguli pentru a facilita chemarea în judecată a companiilor AI pentru vătămare. Un proiect de lege dezvăluit săptămâna aceasta, care va deveni lege în câțiva ani, face parte din eforturile Europei de a împiedica dezvoltatorii AI să lanseze sisteme periculoase.
În timp ce companiile tehnologice se plâng că această lege ar putea avea un efect negativ asupra inovației, activiștii consumatorilor spun că nu merge suficient de departe.
Tehnologiile AI puternice ne modelează din ce în ce mai mult viețile, relațiile și societățile, iar daunele făcute de ele sunt bine documentate.
Algoritmii rețelelor sociale stimulează dezinformarea, sistemele de recunoaștere facială sunt adesea extrem de discriminatorii, iar sistemele AI predictive care sunt utilizate pentru a aproba sau respinge împrumuturile pot fi mai puțin precise pentru minorități.
Noul proiect de lege, denumit Directiva privind răspunderea AI, va adăuga noi reglementări în Legea AI a UE şi urmează să devină lege cam în același timp.
Legea AI ar putea impune verificări suplimentare pentru utilizările „cu risc ridicat” ale inteligenţei artificiale care au cel mai mare potențial de a dăuna oamenilor, inclusiv sistemele de poliție, recrutare sau asistență medicală.
Noua lege de răspundere ar oferi oamenilor și companiilor dreptul de a acționa în judecată pentru daune după ce au fost prejudiciaţi de un sistem AI.
Scopul este de a trage la răspundere dezvoltatorii, producătorii și utilizatorii tehnologiilor precum şi să solicite explicaţii despre construcţia și instruirea sistemelelor AI.
Companiile de tehnologie care nu respectă regulile riscă sancţiuni colective la nivelul UE.
De exemplu, persoanele aflate în căutarea unui loc de muncă care pot dovedi că un sistem AI pentru examinarea CV-urilor i-a discriminat pot cere unei instanțe de judecată să forțeze compania AI care a creat sistemul să le acorde acces la informații despre acesta, astfel încât să-i poată identifica pe cei responsabili și să afle ce a mers prost. Înarmați cu aceste informații, ei pot merge în instanţă.
Propunerea trebuie totuşi să parcurgă procesul legislativ al UE, proces care va dura cel puțin câțiva ani. Acesta va fi modificat de membrii Parlamentului European și de guvernele UE și probabil se va confrunta cu un lobby intens din partea companiilor tehnologice, care susțin că astfel de reguli ar putea avea un efect „dăunător” asupra inovației.
„Acest proiect de lege ar putea avea un impact negativ asupra dezvoltării software” spune Mathilde Adjutor, Managerul de politici din Europa pentru grupul de lobby tehnologic CCIA, care reprezintă companii precum Google, Amazon și Uber.
„Conform noilor reguli dezvoltatorii nu numai că riscă să devină răspunzători pentru erorile software, ci și pentru impactul potențial al software-ului asupra sănătății mintale a utilizatorilor”, adaugă ea.
Imogen Parker, Director asociat de politici la Institutul Ada Lovelace, un institut de cercetare AI, spune că proiectul de lege va transfera puterea de la companii înapoi către consumatori, o corecție pe care o consideră deosebit de importantă având în vedere potențialul AI de a discrimina.
Proiectul de lege se va asigura că atunci când un sistem AI dăunează, există o modalitate comună de a solicita compensații în întreaga UE, spune Thomas Boué, șeful politicii europene pentru lobby-ul tehnologic BSA, ai cărui membri includ Microsoft și IBM.
Cu toate acestea, unele organizații și activiști pentru drepturile consumatorilor spun că propunerile nu merg suficient de departe și vor pune ștacheta prea sus pentru consumatorii care doresc să depună reclamații.
Ursula Pachl, Director General Adjunct al Organizației Europene a Consumatorilor, spune că propunerea este o „adevărată dezamăgire”, deoarece pune pe consumatori responsabilitatea de a dovedi că un sistem AI le-a făcut rău sau că un dezvoltator AI a fost neglijent.
„Într-o lume a sistemelor AI de tip „cutie neagră” extrem de complexe și obscure, va fi practic imposibil pentru consumator să folosească noile reguli”, spune Pachl.
De exemplu, spune ea, va fi extrem de dificil să dovedești că discriminarea rasială împotriva cuiva s-a datorat modului în care a fost instituit un sistem de evaluare a creditelor.
„De asemenea, proiectul de lege nu ia în considerare daunele indirecte cauzate de sistemele AI”, a declarat Claudia Prettner, reprezentanta UE la Future of Life Institute, o organizație nonprofit care se concentrează pe riscul existențial de AI.
O versiune mai bună ar ține companiile responsabile atunci când acțiunile lor provoacă rău chiar fără o intentie negativă, aşa cum fac regulile care există deja pentru mașini sau animale, adaugă Prettner.
„Sistemele AI sunt adesea construite pentru un anumit scop, dar apoi duc la daune neașteptate într-o altă zonă. Algoritmii rețelelor sociale, de exemplu, au fost creați pentru a maximiza timpul petrecut pe platforme, dar au sporit din neatenție conținutul polarizat”, precizează ea.
UE dorește ca Actul său AI să fie standardul global pentru reglementarea AI.
Şi alte țări, cum ar fi SUA, unde sunt în desfășurare unele proiecte pentru a reglementa tehnologia, urmăresc îndeaproape aceasta nouă lege UE. Comisia Federală pentru Comerț ia în considerare regulile privind modul în care companiile gestionează datele și construiesc algoritmi și a obligat companiile care au colectat date ilegal să-și ștergă algoritmii. La începutul acestui an, agenția a forțat compania de dietă Weight Watchers să facă acest lucru, după ce a colectat ilegal date despre copii.
Indiferent dacă reușește sau nu, această nouă legislație a UE va avea un efect de undă asupra modului în care AI este reglementată în întreaga lume.
„Este în interesul cetățenilor, al companiilor și al autorităților de reglementare ca în UE răspunderea să fie corectă pentru AI. Nu se poate ca AI să funcționeze pentru oameni și societate fără aceasta”, spune Parker.
Articol de Răzvan Lupu