Claudiu Zamfir
Negociatorii Parlamentului European și ai Consiliului Uniunii Europene, instituțiile legiuitoare ale UE, au convenit asupra unei variante de compromis a AI Act, viitoarea lege de reglementare a inteligenței artificale în statele blocului comunitar, inclusiv România, unul dintre negociatori fiind un europarlamentar român.
După ce va fi adoptat oficial de Parlamentul European și Consiliul UE și publicat în Jurnalul Oficial al Uniunii Europene, regulamentul AI Act urmează să se aplice la doi ani de la intrarea sa în vigoare, cu unele excepții pentru anumite prevederi.
Conform comunicatelor Consiliului UE și Parlamentului European, principalele prevederi agreate de principiu de către negociatorii celor două instituții, asupra Regulamentului european cu privire la Inteligența Artificială, sunt următoarele:
Negociatorii din partea Parlamentului European și cei ai statelor membre UE au păstrat posibilitatea ca, sub rezerva garanțiilor, autoritățile de aplicare a legii (cum este Poliția) să folosească inteligența artificială pentru identificarea biometrică de la distanță a oamenilor, în spațiile publice .
Având în vedere particularitățile autorităților de aplicare a legii și nevoia de a-și păstra capacitatea de a utiliza inteligența artificială în activitatea lor vitală, au fost convenite mai multe modificări ale propunerii inițiale a Comisiei Europene, referitoare la utilizarea sistemelor AI în scopuri de aplicare a legii.
Sub rezerva garanțiilor adecvate, aceste modificări reflectă nevoia de a respecta confidențialitatea datelor operaționale sensibile în legătură cu activitățile instituțiilor de aplicare a legii.
De exemplu, a fost introdusă o procedură de urgență care permite agențiilor de aplicare a legii să implementeze un instrument AI cu risc ridicat care nu a trecut procedura de evaluare a conformității în caz de urgență. Totuși, a fost introdus și un mecanism specific pentru a se asigura că drepturile fundamentale vor fi suficient protejate împotriva oricăror potențiale utilizări abuzive ale sistemelor AI.
În plus, în ceea ce privește utilizarea sistemelor de identificare biometrică de la distanță în timp real în spații accesibile publicului, se clarifică obiectivele în care o astfel de utilizare este strict necesară în scopuri de aplicare a legii și pentru care autoritățile de aplicare a legii ar trebui să li se permită în mod excepțional să utilizeze astfel de sisteme.
Acordul dintre negociatorii Parlamentului European și ai Consiliului UE prevede garanții suplimentare și limitează aceste excepții la:
Acordul dintre negociatorii PE și ai Consiliului UE clarifică și faptul că AI Act nu se va aplica domeniilor care sunt oricum în afara domeniului de aplicare al dreptului Uniunii Europene.
Astfel, AI Act nu va afecta competențele statelor membre UE în materie de securitate națională sau competențele oricărei entități încredințate cu sarcini în acest domeniu.
În plus, AI Act nu se va aplica sistemelor care sunt utilizate doar în scopuri militare sau de apărare.
Legea inteligenței artificiale nu se va aplica sistemelor de AI utilizate în scop exclusiv de cercetare și inovare sau persoanelor care utilizează inteligența artificială cu scopuri non-profesionale, conform acordului dintre negociatorii PE și ai Consiliului UE.
În vederea creării unui cadru juridic mai favorabil inovării, s-a clarificat faptul că sandbox-urile de reglementare AI, care ar trebui să stabilească un mediu controlat pentru dezvoltarea, testarea și validarea sistemelor AI inovatoare, ar trebui să permită testarea sistemelor AI inovatoare în condiții reale.
În plus, au fost adăugate prevederi care permit testarea sistemelor AI în condiții reale, în condiții și cu garanții specifice. Pentru a reduce sarcina administrativă pentru companiile mai mici (IMM), acordul provizoriu include o listă de acțiuni care trebuie întreprinse pentru a sprijini astfel de operatori și prevede unele derogări limitate și clar specificate.
Sistemele de inteligență artificială care prezintă doar un risc limitat vor fi supuse unor obligații de transparență „foarte ușoare”, de exemplu, dezvăluirea faptului că conținutul a fost generat de IA, astfel încât utilizatorii să poată lua decizii în cunoștință de cauză cu privire la utilizarea ulterioară.
În schimb, sistemele clasificate ca fiind cu risc ridicat vor fi supuse unui set de cerințe și obligații pentru a obține acces pe piața UE. Aici, firmele mici și mijlocii (IMM) din domeniul inteligenței artificiale vor beneficia totuși de cerințe mai relaxate pentru a demonstra că sistemele lor de IA cu risc ridicat respectă legea.
Pentru sistemele de inteligență artificială clasificate ca fiind cu risc ridicat (din cauza potențialului lor semnificativ asupra sănătății, siguranței, drepturilor fundamentale ale omului, mediului, democrației și statului de drept), au fost convenite obligații clare. Aici, companiile vizate vor trebui să facă o evaluare obligatorie a impactului asupra drepturilor fundamentale, aplicabilă și sectoarelor de asigurări și bancar.
De asemenea, sistemele AI utilizate pentru a influența rezultatul alegerilor și comportamentul alegătorilor sunt clasificate ca fiind cu risc ridicat. Cetățenii vor avea dreptul de a depune plângeri cu privire la sistemele de inteligență artificială și de a primi explicații cu privire la deciziile bazate pe sisteme de inteligență artificială cu risc ridicat care le afectează drepturile.
Deoarece sistemele AI sunt dezvoltate și distribuite prin lanțuri valorice complexe, AI Act va clarifica împărțirea responsabilităților și a rolurilor diferiților actori din aceste lanțuri valorice, în special furnizorii și utilizatorii sistemelor AI.
Unul dintre cele mai importante obiective pentru care se luptă, în prezent, marii dezvoltatori de inteligență artificială este atingerea stadiului de AGI - inteligența artificială generală.
În forma convenită de negociatorii Parlamentului European și cei ai Consiliului UE, în viitoarea AI Act au fost adăugate prevederi pentru a ține cont de situațiile în care sistemele AI pot fi utilizate în mai multe scopuri diferite (AI de uz general) și în care tehnologia AI de uz general este ulterior integrată într-un alt sistem cu risc ridicat.
Acordul provizoriu abordează cazurile specifice ale sistemelor de inteligență artificială de uz general, denumite GPAI.
Pentru a ține seama de gama largă de sarcini pe care sistemele AI le pot îndeplini și de extinderea rapidă a capabilităților lor, sistemele și modelele GPAI vor trebui să respecte cerințe de transparență. Acestea includ:
întocmirea documentației tehnice,
respectarea legislației UE privind drepturile de autor,
diseminarea de rezumate detaliate despre conținutul utilizat pentru generare.
Pentru modelele GPAI de mare impact, cu risc sistemic, s-au introdus obligații mai stricte. Dacă aceste modele îndeplinesc anumite criterii, acestea vor trebui:
Până la publicarea standardelor armonizate ale UE, firmele care utilizează GPAI cu risc sistemic se pot baza pe coduri de conduită pentru a respecta legea AI.
Se introduc și reglementări în privința modelelor de bază (foundation models), sisteme mari capabile să îndeplinească o gamă largă de sarcini distincte, cum ar fi generarea de videoclipuri, text, imagini, calcul sau generarea de linii de cod. Aici, viitoarea lege prevede că modelele de bază vor trebui să respecte anumite obligații de transparență înainte de a fi introduse pe piață.
De asemenea, negociatorii UE au introdus un regim mai strict pentru modelele de bază cu „impact ridicat”. Acestea sunt modele de bază antrenate cu o cantitate mare de date și care au o complexitate avansată, capabilități și performanță mult peste medie și care pot disemina riscuri sistemice de-a lungul lanțului valoric.
Amenzile pentru încălcarea AI Act au fost stabilite ca procent din cifra de afaceri anuală globală a companiei care a comis abaterea sau o sumă predeterminată, dacă aceasta este mai mare. Astfel, amenda va fi de:
Pentru IMM-uri și startup-uri, amenzile vor fi mai mici.
De asemenea, o persoană fizică sau juridică va putea depune o plângere la autoritatea relevantă de supraveghere a pieței în cazul încălcării AI Act urmând ca reclamația să fie tratată în conformitate cu procedurile dedicate ale autorității respective.
Viitorul Regulament european cu privire la Inteligența Artificială (AI Act) urmează să fie adoptat oficial atât de Parlament, cât și de Consiliul UE (miniștri ai statelor membre).
Între timp, La Parlamentul European, Comisiile pentru Piața internă și Libertățile civile vor vota acordul într-o ședință. În paralel, la Consiliul UE, lucrările la nivel tehnic vor continua în săptămânile următoare pentru a finaliza detaliile noului regulament. Președinția Consiliului UE va înainta textul de compromis reprezentanților statelor membre (consiliul COREPER) spre aprobare.
Întregul text va trebui să fie confirmat de ambele instituții și să fie supus revizuirii juridico-lingvistice înainte de adoptarea oficială de către colegislatori.
După publicarea în Jurnalul Oficial al Uniunii Europene, regulamentul AI Act urmează să se aplice la doi ani de la intrarea sa în vigoare, cu unele excepții pentru anumite prevederi.
Europarlamentarul român Dragos Tudorache (Renew Europe), negociator al PE privind AI Act, a declarat:
„Uniunea Europeană este prima din lume care introduce o reglementare solidă privind inteligența artificială, ghidând dezvoltarea și evoluția acesteia într-o direcție centrată pe om. AI Act stabilește reguli pentru modele mari și puternice de inteligență artificială, asigurându-se că acestea nu prezintă riscuri sistemice pentru Uniunea Europeană. (Legea) oferă garanții puternice pentru cetățenii noștri și pentru democrațiile noastre împotriva oricăror abuzuri abuzuri de tehnologie de către autoritățile publice. Ne protejează IMM-urile, ne consolidează capacitatea de a inova și de a conduce în domeniul IA și protejează sectoarele vulnerabile ale economiei noastre. Uniunea Europeană a adus contribuții impresionante în lume. AI Act este încă una, care va avea un impact semnificativ asupra viitorului nostru digital”.
Încă din anul 2021, Comisia Europeană a inițiat proiectul AI Act, o propunere de regulament de „stabilire a unor norme armonizate privind inteligența artificială”. Aceasta este prima încercare majoră a unei jurisdicții la nivel mondial, de reglementare a domeniului inteligenței artificiale.
Pe scurt, Comisia Europeană susține că propunerea sa de regulament vrea să reducă „riscurile utilizărilor specifice ale inteligenței artificiale, clasificându-le în 4 niveluri diferite: risc inacceptabil, risc ridicat, risc limitat și risc minim”.