Regulile AI pentru prima lume din Europa sunt stabilite pentru aprobarea finala. Iata ce se intampla in continuare

Legislatorii Uniunii Europene urmeaza sa dea miercuri aprobarea finala legii privind inteligenta artificiala a blocului celor 27 de natiuni, punand regulile de nivel mondial pe cale sa intre in vigoare mai tarziu in acest an. Parlamentarii din Parlamentul European sunt pregatiti sa voteze in favoarea Legii privind inteligenta artificiala la cinci ani dupa ce au fost propuse pentru prima data. Se asteapta ca Actul AI sa actioneze ca un indicator global pentru alte guverne care se confrunta cu modul de reglementare a tehnologiei in dezvoltare rapida.

„Legea AI a indreptat viitorul AI intr-o directie centrata pe om, intr-o directie in care oamenii detin controlul asupra tehnologiei si in care aceasta – tehnologia – ne ajuta sa valorificam noi descoperiri, cresterea economica, progresul societal si sa deblocam potentialul uman. ”, a declarat Dragos Tudorache, un parlamentar roman care a fost co-lider al negocierilor Parlamentului privind proiectul de lege.

Marile companii de tehnologie au sustinut in general necesitatea de a reglementa AI in timp ce faceau lobby pentru a se asigura ca orice reguli functioneaza in favoarea lor. CEO-ul OpenAI, Sam Altman, a provocat o mica valva anul trecut, cand a sugerat ca producatorul ChatGPT s-ar putea retrage din Europa daca nu poate respecta Legea AI – inainte de a da inapoi pentru a spune ca nu exista planuri de plecare.

Iata o privire asupra primului set cuprinzator de reguli AI din lume:

CUM FUNctioneaza AI ACTUL?

La fel ca multe reglementari ale UE, Legea AI a fost initial destinata sa actioneze ca legislatie privind siguranta consumatorilor, adoptand o „abordare bazata pe risc” a produselor sau serviciilor care utilizeaza inteligenta artificiala.

Cu cat o aplicatie AI este mai riscanta, cu atat se confrunta cu mai multa atentie. Sistemele cu risc scazut, cum ar fi sistemele de recomandare de continut sau filtrele de spam, se vor confrunta doar cu reguli usoare, cum ar fi dezvaluirea faptului ca sunt alimentate de AI. UE se asteapta ca majoritatea sistemelor AI sa intre in aceasta categorie.

Utilizarile cu risc ridicat ale inteligentei artificiale, cum ar fi dispozitivele medicale sau infrastructura critica, cum ar fi retelele de apa sau electrice, se confrunta cu cerinte mai severe, cum ar fi utilizarea datelor de inalta calitate si furnizarea de informatii clare utilizatorilor.

Unele utilizari ale inteligentei artificiale sunt interzise deoarece se considera ca prezinta un risc inacceptabil, cum ar fi sistemele de scor social care guverneaza modul in care se comporta oamenii, unele tipuri de politie predictiva si sisteme de recunoastere a emotiilor in scoala si la locul de munca.

Alte utilizari interzise includ scanarea fetelor de catre politie in public folosind sisteme de „identificare biometrica” la distanta alimentate de AI, cu exceptia infractiunilor grave precum rapirea sau terorismul.

DAR AI GENERATIV?

Primele proiecte ale legii s-au concentrat pe sistemele AI care efectueaza sarcini limitate, cum ar fi scanarea CV-urilor si a cererilor de munca. Cresterea uluitoare a modelelor de inteligenta artificiala de uz general, exemplificata de ChatGPT de la OpenAI, i-a determinat pe factorii de decizie din UE sa incerce sa tina pasul.

Ei au adaugat prevederi pentru asa-numitele modele AI generative, tehnologia care sta la baza sistemelor de chatbot AI care pot produce raspunsuri, imagini si multe altele unice si aparent realiste.

Dezvoltatorii de modele AI de uz general – de la startup-uri europene pana la OpenAI si Google – vor trebui sa furnizeze un rezumat detaliat al textului, imaginilor, videoclipurilor si altor date de pe internet care sunt utilizate pentru instruirea sistemelor, precum si pentru a respecta legislatia UE privind drepturile de autor.

Imaginile deepfake generate de AI, videoclipurile sau audio ale persoanelor, locurilor sau evenimentelor existente trebuie sa fie etichetate ca fiind manipulate artificial.

Exista un control suplimentar pentru cele mai mari si mai puternice modele AI care prezinta „riscuri sistemice”, care includ GPT4 de la OpenAI – cel mai avansat sistem al sau – si Gemini de la Google.

UE spune ca este ingrijorata ca aceste sisteme puternice de inteligenta artificiala ar putea „provoca accidente grave sau pot fi utilizate abuziv pentru atacuri cibernetice de anvergura”. De asemenea, se tem ca AI generativa ar putea raspandi „prejudecati daunatoare” in multe aplicatii, afectand multi oameni.

Companiile care furnizeaza aceste sisteme vor trebui sa evalueze si sa atenueze riscurile; raportati orice incidente grave, cum ar fi defectiunile care cauzeaza moartea cuiva sau vatamari grave ale sanatatii sau proprietatii; pune in aplicare masuri de securitate cibernetica; si dezvaluie cata energie folosesc modelele lor.

REGULILE EUROPEI INFLUENTEAZA RESTUL LUMII?

Bruxelles-ul a sugerat pentru prima data reglementari privind inteligenta artificiala in 2019, asumand un rol global familiar in intensificarea controlului industriilor emergente, in timp ce alte guverne se straduiesc sa tina pasul.

In SUA, presedintele Joe Biden a semnat un ordin executiv cuprinzator privind IA in octombrie, care se asteapta sa fie sustinut de legislatie si acorduri globale. Intre timp, parlamentarii din cel putin sapte state din SUA lucreaza la propria lor legislatie privind inteligenta artificiala.

Presedintele chinez Xi Jinping a propus initiativa sa de guvernare globala a AI, iar autoritatile au emis „masuri provizorii” pentru gestionarea AI generativa, care se aplica textului, imaginilor, audio, video si altor continuturi generate pentru oamenii din China.

Alte tari, de la Brazilia pana in Japonia, precum si grupari globale precum Natiunile Unite si Grupul celor sapte natiuni industrializate, se deplaseaza pentru a crea balustrade AI.

CE SE INTAMPLA IN URMATOARE?

Se asteapta ca Actul AI sa devina lege oficial in mai sau iunie, dupa cateva formalitati finale, inclusiv o binecuvantare din partea tarilor membre UE. Prevederile vor incepe sa intre in vigoare in etape, tarile fiind obligate sa interzica sistemele interzise de inteligenta artificiala la sase luni dupa ce regulile vor intra in cartile de lege.

Regulile pentru sistemele AI de uz general, cum ar fi chatbotii, vor incepe sa se aplice la un an dupa intrarea in vigoare a legii. Pana la jumatatea anului 2026, setul complet de reglementari, inclusiv cerintele pentru sistemele cu risc ridicat, va fi in vigoare.

Cand vine vorba de punere in aplicare, fiecare tara din UE isi va infiinta propriul caine de paza AI, unde cetatenii pot depune o plangere daca cred ca au fost victima unei incalcari a regulilor. Intre timp, Bruxelles va crea un birou AI insarcinat cu aplicarea si supravegherea legii pentru sistemele AI de uz general.

Incalcarile Legii AI ar putea duce la amenzi de pana la 35 de milioane de euro (38 de milioane de dolari), sau 7% din veniturile globale ale unei companii.