Denisa Crăciun
Angajatorii din România ar trebui să țină cont de două aspecte atunci când se decid să implementez o soluție de tip IA în procesul intern de angajări, în contextul Regulamentului privind Inteligența Artificială (AI Act), potrivit unei companii de consultanță în GDPR.
AI Act, prin care sunt detaliate toate aspectele de care să țină cont atât furnizorii de soluții AI în resurse umane, cât și utilizatorii finali în construcția unei soluții de recrutare bazate pe AI și în actul de recrutare ca atare, a intrat în vigoare în vara lui 2024.
„Cele aproape 200 de articole stabilesc criteriile pe care angajatorii trebuie le abia în vedere atunci când apelează la soluții de recrutare construite pe baze GenAI și regulile foarte clare de urmat de către furnizorii acestor soluții în procesul de concepere a acestora”, arată Cristiana Deca, CEO Decalex, expert în cybersecurity, GDPR și protecția drepturilor fundamentale ale omului în contextul digitalizării și utilizării soluțiilor de inteligență artificială, într-o analiză transmisă StartupCafe.ro.
„Scopul este acela de a pune „la adăpost” drepturile fundamentale ale candidaților și de a preveni pe cât posibil încălcarea acestora prin soluții de recrutare bazate pe AI care nu se conformează a priori unor reguli bine stabilite. Cu alte cuvinte, regulamentul special creat pentru reglementarea domeniului de recrutare bazat pe AI vine în ideea de a asigura un echilibru între stimularea inovării și protecția drepturilor cetățenilor, pe fondul utilizării responsabile a acestor soluții.
AI Act, în vigoare la 1 august 2024, clasifica aceste soluții în funcție de gradul de risc, fiind esențial pentru beneficiari să aibă la îndemâna criterii de alegere. Prevederile regulamentului merg până la a interzice utilizarea soluțiilor AI care analizează sau monitorizează caracteristici sau trăsături emoționale ale candidaților la angajare și acordă o foarte mare atenție respectării drepturilor fundamentale ale omului.
Regulamentul definește de patru categorii de risc
1. Sisteme de IA cu risc inacceptabil (interzise)
Aceasta este cea mai strictă categorie și include sistemele de IA care sunt considerate o amenințare gravă la adresa siguranței și drepturilor fundamentale ale omului. Acestea sunt interzise complet în UE și aș menționa aici manipularea comportamentală subliminală care poate influența persoanele într-un mod care le poate afecta liberul arbitru (cum sunt minorii sau alt tip de persoane vulnerabile).
2. Sisteme IA cu risc ridicat
Sunt definite aici sisteme care prezintă riscuri semnificative pentru siguranță și drepturile fundamentale, fiind supuse unor reguli stricte de conformitate. Sistemele de IA cu risc ridicat sunt permise doar dacă respectă anumite cerințe riguroase legate de siguranță, transparență, responsabilitate și monitorizare.
Regulamentul impune aici o serie de pasi, începând cu Evaluarea riguroasă, înainte de utilizare (audituri de conformitate, evaluarea riscurilor etc.) a soluției respective. Apoi, Transparență în privința construcției soluției respective de recrutare, iar utilizatorii trebuie să fie informați că interacționează cu un sistem de IA. Este obligatorie, de asemenea, supravegherea umană constantă pentru a reduce riscul de decizii eronate sau neetice.
3. Sisteme de IA cu risc limitat
Aceste sisteme sunt considerate mai puțin periculoase, totuși trebuie să respecte anumite norme de transparență. De obicei, acestea implică interacțiuni cu utilizatori, iar aceștia trebuie informați că interacționează cu un sistem de inteligență artificială. Exemple: Chatbots sau asistenți virtuali și Sistemele de recomandare pe platforme de streaming sau comerț electronic sunt cele mai des create și utilizate, despre care beneficiarii trebuie să înțeleagă că interacționează cu un agent automatizat.
4. Sisteme de IA cu risc minim
Acestea sunt considerate a fi cu cel mai scăzut nivel de risc și sunt permise fără reguli speciale, fiind în esență lăsate să opereze liber. Acest tip de sisteme include, de exemplu, IA utilizată pentru aplicații de divertisment sau majoritatea aplicațiilor de gaming.
Act AI detaliază modul de abordare și prevenire a riscurilor cu cea mai mare probabilitate de apariție, astfel: Discriminare și părtinire, unde se acordă o atenție deosebită evitării discriminării pe baza IA, mai ales în contextul evaluărilor automate în domenii precum angajarea sau accesul la servicii publice. Apoi, Supravegherea și pierderea confidențialității, prin care se urmărește prevenirea abuzurilor de supraveghere în masă prin recunoașterea facială sau alte tehnologii de identificare biometrică. Și nu în ultimul rând, Răspunderea și responsabilitatea. Regulamentul cere ca entitățile care dezvoltă și implementează IA să fie trasabile și să poată fi trase la răspundere în caz de incidente sau erori.
Ca expert pe zona drepturilor fundamentale ale omului și, prin extensia necesară din ultimii peste 10 ani în cybersecurity și GDPR, aș spune că avem cel puțin două aspecte esențiale de care trebuie să țină cont angajatorii atunci când se decid să implementeze o soluție de tip AI în procesul intern de recrutare:
1. Analiza în acord cu prevederile noului regulament CE a oricărei soluții AI propusă de către provideri, tocmai pentru a evita pe cât posibil cele două riscuri majore: neconformare cu regulamentul și eventuale procese cu angajații sau potențiali angajați, pe baza unui Audit.
2. Alegerea celei mai puțin expuse soluții la una dintre cele trei categorii de riscuri identificate de către analiștii comisiei – ridicat, moderat și scăzut – în funcție de specificul companiei și al domeniului de activitate.
Recomand companiilor să urmeze serie de pași, obligatorii în contextul apariției Act AI, bazați pe adaptabilitate, conformitate și independența de soluțiile AI și crearea unor proceduri interne foarte clare, care să le protejeze de toate riscurile expuse mai sus (cel puțin), urmând câțiva pași absolut obligatorii atunci când apelează la o soluție AI pentru filtrarea CV-urilor și analiza abilităților candidaților pe baza unor interviuri automate. Pentru a respecta AI Act, ar trebui identificat și clasificat sistemul AI pe care urmează să-l adoptați, să stabiliți un cadru de guvernanță a datelor, care să vă asigure transparența în relația cu utilizatorii.
Este bine ca solutia AI să fie auditata la fiecare șase luni pentru a va asigura că performanța rămâne conformă cu reglementările. Auditul include analiza deciziilor luate de AI și verificarea conformității cu politicile de etică și confidențialitate. Se poate considera că adoptarea Act AI constituie unul dintre pașii importanți în definirea cadrului în care soluțiile bazate pe inteligența artificială pot fi create și adoptate de către utilizatori (companii) în procesele, din ce în ce mai complexe, de recrutare, într-o piață a forței de muncă total modificată, așa cum apare aceasta ca fiind în ultimii cinci ani, post-pandemie”.
---