AI Act
Legea AI este primul cadru juridic vreodată privind inteligența artificială (IA), care abordează riscurile IA și poziționează Europa să joace un rol de lider la nivel global.
Legea AI oferă dezvoltatorilor și utilizatorilor de IA cerințe și obligații clare referitoare la utilizările specifice ale IA. În același timp, reglementarea urmărește să reducă sarcinile administrative și financiare pentru afaceri, în special pentru întreprinderile mici și mijlocii (IMM-uri).
Legea AI face parte dintr-un pachet mai larg de măsuri politice pentru a sprijini dezvoltarea unei IA de încredere, care include și Pachetul de Inovare în IA și Planul Coordonat privind IA. Împreună, aceste măsuri garantează siguranța și drepturile fundamentale ale persoanelor și afacerilor în ceea ce privește IA. De asemenea, ele întăresc adoptarea, investițiile și inovația în IA în întreaga UE.
Legea AI este primul cadru juridic cuprinzător vreodată privind IA la nivel mondial. Scopul noilor reguli este de a promova o IA de încredere în Europa și dincolo de ea, asigurându-se că sistemele IA respectă drepturile fundamentale, siguranța și principiile etice și abordând riscurile modelelor de IA foarte puternice și impactante.
De ce avem nevoie de reguli privind IA?
Legea AI asigură că europenii pot avea încredere în ceea ce oferă IA. În timp ce majoritatea sistemelor IA prezintă riscuri limitate sau inexistente și pot contribui la rezolvarea multor provocări societale, anumite sisteme IA creează riscuri pe care trebuie să le abordăm pentru a evita rezultate nedorite.
De exemplu, adesea nu este posibil să aflăm de ce un sistem IA a luat o decizie sau a făcut o predicție și a întreprins o anumită acțiune. Astfel, poate deveni dificil să evaluăm dacă cineva a fost dezavantajat în mod nedrept, cum ar fi într-o decizie de angajare sau într-o aplicație pentru un program de beneficii publice.
Deși legislația existentă oferă o anumită protecție, aceasta este insuficientă pentru a aborda provocările specifice pe care le pot aduce sistemele IA.
Noile reguli:
- abordează riscurile create în mod specific de aplicațiile IA
- interzic practicile IA care prezintă riscuri inacceptabile
- determină o listă de aplicații cu risc ridicat
- stabilesc cerințe clare pentru sistemele IA destinate aplicațiilor cu risc ridicat
- definesc obligații specifice pentru utilizatorii și furnizorii de aplicații IA cu risc ridicat
- necesită o evaluare a conformității înainte ca un sistem IA să fie pus în funcțiune sau pe piață
- pun în aplicare măsuri de supraveghere după ce un sistem IA a fost pus pe piață
- stabilesc o structură de guvernanță la nivel european și național
O abordare bazată pe riscuri
Cadrul de reglementare definește 4 niveluri de risc pentru sistemele IA: risc inacceptabil, risc ridicat, risc limitat și risc minim sau inexistent.
Toate sistemele IA considerate o amenințare clară la adresa siguranței, mijloacelor de trai și drepturilor oamenilor sunt interzise, de la scoruri sociale de către guverne la jucării care folosesc asistență vocală care încurajează comportamente periculoase.
Risc ridicat Sistemele IA identificate ca având risc ridicat includ tehnologia IA utilizată în:
- infrastructuri critice (de exemplu, transporturi), care ar putea pune în pericol viața și sănătatea cetățenilor
- educație sau formare profesională, care pot determina accesul la educație și parcursul profesional al unei persoane (de exemplu, notarea examenelor)
- componente de siguranță ale produselor (de exemplu, aplicații IA în chirurgie asistată de roboți)
- angajare, managementul lucrătorilor și accesul la activități independente (de exemplu, software de sortare a CV-urilor pentru procedurile de recrutare)
- servicii private și publice esențiale (de exemplu, evaluarea creditelor care refuză cetățenilor posibilitatea de a obține un împrumut)
- aplicarea legii, care poate interfera cu drepturile fundamentale ale oamenilor (de exemplu, evaluarea fiabilității probelor)
- gestionarea migrației, azilului și controlului la frontieră (de exemplu, examinarea automată a cererilor de viză)
- administrarea justiției și procesele democratice (de exemplu, soluții IA pentru căutarea hotărârilor judecătorești)
Sistemele IA cu risc ridicat sunt supuse unor obligații stricte înainte de a putea fi puse pe piață:
- sisteme adecvate de evaluare și atenuare a riscurilor
- calitate ridicată a seturilor de date care alimentează sistemul pentru a minimiza riscurile și rezultatele discriminatorii
- înregistrarea activităților pentru a asigura trasabilitatea rezultatelor
- documentație detaliată care să ofere toate informațiile necesare despre sistem și scopul acestuia pentru ca autoritățile să îi evalueze conformitatea
- informații clare și adecvate pentru utilizator
- măsuri adecvate de supraveghere umană pentru a minimiza riscurile
- nivel ridicat de robustețe, securitate și acuratețe
Toate sistemele de identificare biometrică la distanță sunt considerate cu risc ridicat și supuse unor cerințe stricte. Utilizarea identificării biometrice la distanță în spațiile publice accesibile în scopuri de aplicare a legii este, în principiu, interzisă.
Excepțiile restrânse sunt strict definite și reglementate, cum ar fi atunci când este necesar să se caute un copil dispărut, să se prevină o amenințare teroristă specifică și iminentă sau să se detecteze, localizeze, identifice sau urmărească un autor sau suspect al unei infracțiuni grave.
Aceste utilizări sunt supuse autorizării de către un organism judiciar sau alt organism independent și limitărilor adecvate în timp, acoperire geografică și bazele de date căutate.
Risc limitat
Risc limitat se referă la riscurile asociate cu lipsa de transparență în utilizarea IA. Legea IA introduce obligații specifice de transparență pentru a asigura că oamenii sunt informați atunci când este necesar, promovând încrederea. De exemplu, atunci când se utilizează sisteme IA precum chatbot-uri, oamenii ar trebui să fie conștienți că interacționează cu o mașină pentru a putea lua o decizie informată de a continua sau de a se retrage. Furnizorii trebuie, de asemenea, să asigure că conținutul generat de IA este identificabil. În plus, textele generate de IA publicate cu scopul de a informa publicul pe teme de interes public trebuie etichetate ca fiind generate artificial. Aceasta se aplică și conținutului audio și video care constituie deep fakes.
Risc minim sau inexistent
Legea IA permite utilizarea liberă a IA cu risc minim. Aceasta include aplicații precum jocurile video bazate pe IA sau filtrele de spam. Majoritatea sistemelor IA utilizate în prezent în UE se încadrează în această categorie.
Cum funcționează în practică pentru furnizorii de sisteme IA cu risc ridicat? Procesul pas cu pas pentru declarația de conformitate Odată ce un sistem IA este pe piață, autoritățile sunt responsabile de supravegherea pieței, utilizatorii asigură supravegherea umană și monitorizarea, iar furnizorii au un sistem de monitorizare post-piață în vigoare. Furnizorii și utilizatorii vor raporta, de asemenea, incidentele grave și defectele.
O soluție pentru utilizarea de încredere a modelelor IA mari Tot mai mult, modelele IA de uz general devin componente ale sistemelor IA. Aceste modele pot efectua și adapta nenumărate sarcini diferite.
Deși modelele IA de uz general pot permite soluții IA mai bune și mai puternice, este dificil să se supravegheze toate capacitățile.
Aici, Legea IA introduce obligații de transparență pentru toate modelele IA de uz general pentru a permite o mai bună înțelegere a acestor modele și obligații suplimentare de gestionare a riscurilor pentru modelele foarte capabile și impactante. Aceste obligații suplimentare includ autoevaluarea și atenuarea riscurilor sistemice, raportarea incidentelor grave, efectuarea de teste și evaluări ale modelelor, precum și cerințe de securitate cibernetică.
Legislație pregătită pentru viitor Deoarece IA este o tehnologie în evoluție rapidă, reglementarea are o abordare pregătită pentru viitor, permițând regulilor să se adapteze la schimbările tehnologice. Aplicațiile IA ar trebui să rămână de încredere chiar și după ce au fost puse pe piață. Acest lucru necesită gestionarea continuă a calității și riscurilor de către furnizori.
Aplicarea și implementarea Oficiul European pentru IA, înființat în februarie 2024 în cadrul Comisiei, supraveghează aplicarea și implementarea Legii IA împreună cu statele membre. Acesta își propune să creeze un mediu în care tehnologiile IA respectă demnitatea umană, drepturile și încrederea. De asemenea, promovează colaborarea, inovația și cercetarea în IA între diferiți factori interesați. Mai mult, se angajează în dialog și cooperare internațională pe probleme de IA, recunoscând necesitatea alinierii globale privind guvernanța IA. Prin aceste eforturi, Oficiul European pentru IA își propune să poziționeze Europa ca lider în dezvoltarea etică și durabilă a tehnologiilor IA.
Pașii următori Legea IA a intrat în vigoare la 1 august și va fi pe deplin aplicabilă după 2 ani, cu unele excepții: interdicțiile vor intra în vigoare după șase luni, regulile de guvernanță și obligațiile pentru modelele IA de uz general devin aplicabile după 12 luni, iar regulile pentru sistemele IA – integrate în produse reglementate – se vor aplica după 36 de luni. Pentru a facilita tranziția la noul cadru de reglementare, Comisia a lansat Pactul IA, o inițiativă voluntară care urmărește să sprijine implementarea viitoare și invită dezvoltatorii de IA din Europa și dincolo de ea să respecte obligațiile cheie ale Legii IA înainte de termen.
Linkuri rapide
Resurse CITYINNOHUB
Finanțare de până la 1.500.000 EUR pentru creșterea competitivitățiI IMM-urilor din regiunea Sud-Est (Ghid în consultare publică)
Solicitanții eligibili în cadrul prezentului apel de proiecte sunt: Microîntreprinderi, întreprinderi mici și mijlocii non- agricole din Regiunea de Dezvoltare Sud-Est, cu sediul social sau punct de lucru în mediul urban, cu excepția teritoriului acoperit de ITI Delta Dunării. Întreprinderi mici și mijlocii non-agricole, cu sediul social sau punct de lucru înregistrat fiscal, în mediul rural, cu excepția teritoriului acoperit de ITI Delta Dunării.
Apel Granturi pentru sprijinirea antreprenorilor în dezvoltarea tehnologiilor digitale avansate (PNRR)
Apelul de proiecte a fost lansat în 25 martie 2024 și rămâne deschis pentru perioada de depunere până pe 07 mai 2024
OPORTUNITATE DE FINANȚARE PRIN EIT MANUFACTURING PENTRU STARTUP-URILE DIN REGIUNEA SUD-EST A ROMÂNIEI
Apelul de finanțare – BoostUp! South East 2023 pentru internaționalizarea și scalarea business-urilor – a fost deschis în august 2023 și rămâne deschis pentru depunerea de proiecte până pe 16 octombrie 2023 – ora 23:59 CEST.
Abonați-vă la continut exclusiv
CITYINNOHUB
Nu rata ocazia de a explora o lume a posibilităților în cadrul evenimentului CITYINNOHUB, unde ideile revoluționare se întâlnesc cu resursele și expertiza necesară succesului.