vineri, martie 1, 2024

Comisia salută acordul politic referitor la Regulamentul privind inteligența artificială

Comisia salută acordul politic la care au ajuns Parlamentul European și Consiliul cu privire la Regulamentul privind inteligența artificială (Regulamentul privind IA), propus de Comisie în aprilie 2021.

Președinta Comisiei Europene, Ursula von der Leyen, a declarat: „Inteligența artificială ne schimbă deja viața de zi cu zi. Iar acesta este doar începutul. Utilizată înțelept și pe scară largă, IA promite beneficii uriașe pentru economia și societatea noastră. De aceea salut călduros acordul politic la care au ajuns astăzi Parlamentul European și Consiliul cu privire la Regulamentul privind inteligența artificială. Regulamentul UE privind IA este primul cadru juridic cuprinzător din lume pentru inteligența artificială. Trăim deci un moment istoric. Regulamentul privind IA trece valorile europene într-o nouă eră. Prin concentrarea reglementării asupra riscurilor identificabile, acordul de astăzi va promova inovarea responsabilă în Europa. Prin garantarea siguranței și a drepturilor fundamentale ale cetățenilor și ale întreprinderilor, el va sprijini dezvoltarea, adoptarea și apoi utilizarea la scară largă a unei IA de încredere în UE. Regulamentul privind IA convenit în Europa va aduce o contribuție substanțială la dezvoltarea la nivel global a unor norme și principii pentru o IA centrată pe factorul uman.” 

Abordarea europeană pentru a asigura o IA de încredere

Noile norme se vor aplica direct și în același mod în toate statele membre, pe baza unei definiții a IA adaptate exigențelor viitorului. Abordarea depinde de riscuri:

Risc minim: Marea majoritate a sistemelor de IA se încadrează în categoria cu risc minim. Aplicațiile cu risc minim precum sistemele de recomandare sau filtrele spam bazate pe IA nu vor fi supuse unor obligații, întrucât prezintă doar riscuri minime sau chiar niciun risc pentru drepturile sau siguranța cetățenilor. Companiile care le oferă se pot angaja însă voluntar să respecte coduri de conduită suplimentare pentru respectivele sisteme de IA.

Risc ridicat: Sistemele considerate a fi cu risc ridicat vor trebui să respecte anumite cerințe stricte printre care: sisteme de minimizare a riscului, seturi de date de înaltă calitate, înregistrarea operațiunilor, documentație detaliată, informații clare pentru utilizatori, control uman și un nivel ridicat de robustețe, acuratețe și securitate cibernetică. Spațiile de testare în materie de reglementare vor facilita inovarea responsabilă și dezvoltarea unor sisteme de IA conforme.

Printre sistemele de IA cu grad ridicat de risc se numără: infrastructurile critice precum cele din domeniul apei, al gazelor și al energiei electrice; dispozitivele medicale; sistemele de stabilire a accesului la instituțiile de învățământ ori sistemele de recrutare a angajaților; sau anumite sisteme utilizate în domeniul aplicării legii, al controlului la frontiere, al administrării justiției și al proceselor democratice. La acestea se adaugă sistemele biometrice de identificare, clasificare și recunoaștere a emoțiilor.

Risc inacceptabil: Vor fi interzise sistemele de IA considerate a fi o amenințare clară la adresa drepturilor fundamentale ale persoanelor. Printre acestea se numără sistemele sau aplicațiile de IA care manipulează comportamentul uman pentru a împiedica utilizatorii să-și exercite liberul arbitru (ex. jucării care utilizează asistența vocală și încurajează minorii să adopte comportamente periculoase), sistemele care permit guvernelor să atribuie punctaje sociale (social scoring) și anumite aplicații în contextul activităților polițienești bazate pe analiza predictivă. În plus, vor fi interzise unele utilizări ale sistemelor biometrice. Este cazul sistemelor de recunoaștere a emoțiilor utilizate la locul de muncă, al unor sisteme de împărțire a oamenilor pe categorii sau al identificării biometrice de la distanță în timp real în scopul asigurării respectării legii în spațiile accesibile publicului (cu excepții restrânse).

Risc specific în materie de transparență: Atunci când o aplicație sau un site le propune utilizatorilor sisteme de IA precum roboții de chat, trebuie să îi informeze că de fapt interacțiunea este cu un echipament tehnic, nu cu un om. Imaginile și videoclipurile trucate de tip deepfake și alte conținuturi generate de IA vor trebui etichetate ca atare, iar utilizatorii trebuie să fie informați atunci când se utilizează sisteme biometrice de clasificare sau de recunoaștere a emoțiilor. În plus, furnizorii vor trebui să proiecteze sistemele în așa fel încât orice conținut artificial (audio, video, text și imagini) să fie marcat într-un format care poate fi citit automat și să fie detectabil ca fiind generat sau manipulat artificial.

Amenzi

Întreprinderile care nu respectă normele vor fi amendate. Amenzile ar urma să varieze între 35 de milioane EUR sau 7 % din cifra de afaceri anuală globală (alegându-se cea mai mare dintre cele două valori) pentru încălcări legate de utilizarea aplicațiilor de IA interzise, 15 milioane EUR sau 3 % pentru încălcări ale altor obligații și 7,5 milioane EUR sau 1,5 % pentru furnizarea de informații incorecte. Pentru IMM-urile și start-up-urile care încalcă prevederile Regulamentului privind IA, plafoanele prevăzute pentru amenzile administrative sunt mai proporționale.

IA de uz general

Regulamentul privind IA introduce norme specifice pentru modelele de IA de uz general, pentru a asigura transparența de-a lungul lanțului valoric. Pentru modelele foarte puternice care ar putea prezenta riscuri sistemice, vor exista obligații suplimentare legate de gestionarea riscurilor, de monitorizarea incidentelor grave, de evaluarea modelelor și de testarea adversarială. Noile obligații vor fi operaționalizate prin intermediul unor coduri de practici elaborate de firmele din domeniu, de comunitatea științifică, de societatea civilă și de alte părți interesate, împreună cu Comisia.

În ceea ce privește guvernanța, autoritățile naționale de supraveghere a pieței vor superviza punerea în aplicare a noilor norme la nivel național, în timp ce un Oficiu european pentru IA nou înființat în cadrul Comisiei Europene va asigura coordonarea la nivel european. Oficiul pentru IA va superviza, de asemenea, aplicarea și asigurarea respectării noilor norme privind modelele de IA de uz general. Acționând împreună cu autoritățile naționale de supraveghere a pieței, Oficiul pentru IA va fi primul organism din lume care va asigura respectarea unor norme obligatorii privind IA. Prin urmare, se preconizează că acesta va deveni un punct de referință internațional. Pentru modelele de uz general, un grup științific de experți independenți va juca un rol central. El va emite alerte privind riscurile sistemice și va contribui la clasificarea și testarea modelelor.

Etapele următoare

Acordul politic face în prezent obiectul aprobării oficiale de către Parlamentul European și Consiliu și va intra în vigoare la 20 de zile de la publicarea în Jurnalul Oficial. Regulamentul privind IA ar urma să devină aplicabil la doi ani de la intrarea sa în vigoare, cu excepția anumitor dispoziții: interdicțiile se vor aplica deja după 6 luni, iar normele privind IA de uz general se vor aplica după 12 luni.

Pentru a acoperi perioada de tranziție (până când regulamentul devine general aplicabil), Comisia va lansa un Pact privind IA. Acesta va reuni dezvoltatori de IA din Europa și din întreaga lume care se angajează voluntar să implementeze principalele obligații prevăzute de Regulamentul privind IA înainte de termenele legale.

Pentru a promova norme privind IA de încredere la nivel internațional, Uniunea Europeană va continua să lucreze în cadrul unor foruri precum G7, OCDE, Consiliul Europei, G20 și ONU. Recent am susținut acordul liderilor G7 din cadrul procesului de la Hiroshima privind IA în raport cu Principiile directoare internaționale și cu Codul de conduită voluntar pentru sistemele de IA avansate.

Context

De mai mulți ani, Comisia facilitează și consolidează cooperarea cu privire la IA în întreaga UE pentru a stimula competitivitatea și pentru a asigura încrederea pe baza valorilor UE.

În urma publicării Strategiei europene privind IA în 2018 și a finalizării unei ample consultări a părților interesate, Grupul de experți la nivel înalt privind inteligența artificială a publicat în 2019 Orientările pentru o inteligență artificială de încredere, iar în 2020 o Listă de evaluare pentru o inteligență artificială de încredere. În paralel, primul Plan coordonat privind IA a fost publicat în decembrie 2018, sub forma unui angajament asumat în comun cu statele membre.

Cartea albă privind IA, publicată de Comisie în 2020, a stabilit o viziune clară pentru IA în Europa: un ecosistem de excelență și încredere, care a deschis drumul pentru acordul politic de astăzi. S-a organizat o consultare publică cu privire la Cartea albă privind IA, la care au participat numeroase părți interesate din întreaga lume. Cartea albă a fost însoțită de Raportul privind implicațiile în materie de siguranță și răspundere ale inteligenței artificiale, ale internetului obiectelor și ale roboticii, care a concluzionat că legislația actuală referitoare la siguranța produselor conține lacune ce trebuiau remediate, în special în cadrul Directivei privind echipamentele tehnice.

Cercetarea independentă și bazată pe dovezi desfășurată de Centrul Comun de Cercetare (JRC) a fost fundamentală pentru conturarea politicilor UE în domeniul IA și pentru asigurarea implementării eficace a acestora. Prin cercetări și analize riguroase, JRC a sprijinit elaborarea Regulamentului privind IA, contribuind la terminologia în domeniul IA, la clasificarea riscurilor, la formularea cerințelor tehnice și la elaborarea standardelor armonizate (acțiune în curs).

Articole similare

- Publicitate -