vineri, martie 1, 2024

Legea UE privind IA: prima reglementare a inteligenței artificiale

Folosirea inteligenței artificiale în UE va fi reglementată de actul legislativ privind IA, prima lege cuprinzătoare pentru IA din lume. Aflați cum vă va proteja.

În cadrul strategiei sale digitale, UE dorește să reglementeze inteligența artificială pentru a asigura condiții optime de dezvoltare și folosire a acestei tehnologii inovatoare. IA poate aduce numeroase beneficii, cum ar fi servicii medicale mai bune, transport mai sigur și mai curat, producție mai eficientă precum și energie mai ieftină și mai sustenabilă.

În aprilie 2021, Comisia Europeană a propus primul cadru normativ al UE pentru IA. Acesta prevede ca sistemele IA ce pot fi folosite în diferite aplicații să fie analizate și clasificate conform cu nivelul de risc pentru utilizatori. Diferitele niveluri de risc impun mai multă sau mai puțină reglementare. O dată intrate în vigoare, acestea vor fi primele norme din lume în privința IA.

Ce dorește Parlamentul prin legislația privind IA

Prioritatea Parlamentului este să se asigure că sistemele IA folosite în UE sunt sigure, transparente, trasabile, nediscriminatorii și ecologice. Sistemele IA trebuie supravegheate de oameni, nu prin procese automatizate, pentru a evita rezultatele dăunătoare.

Parlamentul dorește, de asemenea, să stabilească o definiție uniformă și neutră din punct de vedere tehnologic pentru IA, care să poată fi aplicată sistemelor IA viitoare.

Actul IA: reguli diferite pentru diferite niveluri de risc

Noile reguli stabilesc obligații pentru furnizori și utilizatori în funcție de nivelul de risc din partea inteligenței artificiale. Deși multe sisteme IA prezintă un risc minim, acestea trebuie evaluate.

Risc inacceptabil

Sistemele IA cu risc inacceptabil sunt sisteme considerate o amenințare pentru oameni și vor fi interzise. Ele includ:

  • Manipularea cognitiv-comportamentală a persoanelor sau a anumitor grupuri vulnerabile: de exemplu jucării activate prin voce care încurajează comportamentul periculos la copii
  • Scorul social: clasificarea persoanelor în funcție de comportament, statut socio-economic sau caracteristici personale
  • Sisteme de identificare biometrică în timp real și la distanță, cum ar fi recunoașterea facială

Pot fi permise unele excepții. De exemplu, sistemele de identificare biometrică la distanță „ulterioare” – în care identificarea are loc după trecerea unei perioade semnificative de timp – vor fi permise pentru a urmări infracțiuni grave, dar numai cu aprobarea instanței.

Risc ridicat

Sistemele IA care afectează negativ siguranța sau drepturile fundamentale vor fi considerate cu risc ridicat și vor fi împărțite în două categorii:

  1. Sisteme IA utilizate în produsele care intră sub incidența legislației UE privind siguranța produselor. Acestea includ jucării, aviație, mașini, dispozitive medicale și ascensoare.
  2. Sisteme IA din opt domenii specifice care vor trebui înregistrate într-o bază de date a UE:
    • Identificarea și clasificarea biometrică a persoanelor fizice
    • Managementul și operarea infrastructurii critice
    • Educație și formare profesională
    • Ocuparea forței de muncă, managementul lucrătorilor și accesul la activități independente
    • Accesul și folosirea unor servicii private esențiale, precum și a unor servicii și beneficii publice
    • Aplicarea legii
    • Gestionarea migrației, azilului și controlului la frontieră
    • Asistența în interpretarea și aplicarea legii.

Toate sistemele IA cu risc ridicat vor fi evaluate înainte de a fi puse pe piață și, de asemenea, pe parcursul ciclului lor de viață.

IA generativă

IA generativă, cum este ChatGPT, va trebui să se conformeze cerințelor de transparență:

  • Menționarea faptului că un conținut a fost generat de IA
  • Proiectarea modelului pentru a preveni generarea de conținut ilegal
  • Publicarea de rezumate ale datelor protejate prin drepturi de autor utilizate pentru instruire

Risc limitat

Sistemele de IA cu risc limitat vor trebui să respecte cerințe minime de transparență care să permită utilizatorilor să ia decizii în cunoștință de cauză. După ce a interacționat cu aplicațiile, utilizatorul poate decide dacă dorește să le folosească în continuare. Utilizatorii trebuie să fie informați atunci când interacționează cu IA. Această cerință include sisteme IA care generează sau manipulează imagini, conținut audio sau video, de exemplu deepfakes.

Articole similare

- Publicitate -