Când AI-ul greșește, cine răspunde? Analiza etică și legală pentru România – de la recrutare la credit, de la medicină la justiție."
O banka din București folosește AI pentru credit scoring. O cerere e refuzată. Motivul? AI-ul a decis. Dar de ce? Nimeni nu poate explica exact. Clientul e rom de etnie romă. Coincidență? Poate. Dar nu poți demonstra niciuna dintre variante.Asta e problema etică centrală a AI-ului în 2026. Nu roboții care se revoltă. Nu superinteligenta care ne domină. Ci deciziile invizibile care afectează vieți reale – și nimeni nu răspunde pentru ele.
Cele 5 probleme etice urgente în România
1. Discriminarea algoritmică
AI-ul învață din date istorice. Dacă datele istorice conțin prejudecăți, AI-ul le reproduce – și le amplifică.Exemplu: Un sistem ATS (Applicant Tracking System) antrenat pe deciziile de recrutare din ultimii 5 ani din România. Dacă în ultimii 5 ani, managerii au preferat bărbați pentru poziții tehnice, AI-ul va prefera bărbați. Nu pentru că e programat să discrimineze – ci pentru că a învățat din discriminarea existentă.
Caz real: În 2025, o firmă de HR din Cluj a fost acționată în instanță pentru că sistemul lor ATS excludea candidați peste 45 de ani. AI-ul a învățat pattern-ul din deciziile anterioare ale recuratorilor.
2. Opacitatea decizională
Când AI-ul ia o decizie, de cele mai multe ori nu poți explica CUM a luat-o. E o "black box".Problema: EU AI Act cere "dreptul la explicație" pentru deciziile cu risc înalt. Dar cum explici o decizie bazată pe miliarde de parametri?
În România: Un client refuzat la credit are dreptul să ceară explicații. Dar banca poate doar să zică: "modelul a evaluat profilul tău ca risc înalt". Asta nu e o explicație. E o tautologie.
3. Responsabilitatea difuză
Când AI-ul greșește, cui îi dai vina?- Dezvoltatorului modelului? (Meta, OpenAI, Anthropic?)
- Implementatorului sistemului? (Firma de IT care l-a integrat?)
- Utilizatorului final? (Compania care a luat decizia bazată pe AI?)
- Nimeni? (E doar un tool, nu e nimeni responsabil?)
4. Consimțământul uninformat
Când folosești ChatGPT, știi că datele tale sunt procesate? Când un pacient e diagnosticat de AI, știe? Când un elev e evaluat de AI, părinții știu?Majoritatea oamenilor nu știu când AI-ul e implicat în decizii despre ei. Și chiar dacă ar ști, nu ar înțelege implicațiile. E un consimțământ teoretic, nu real.
5. Concentrarea puterii
Cine controlează AI-ul controlează deciziile. În România, majoritatea tool-urilor AI vin de la 3-4 companii americane. Asta înseamnă că decizii despre cetățeni români sunt influențate de algoritmi făcuți în California, antrenați pe date americane, și optimizați pentru piețe americane.E o formă de dependență tech pe care nimeni nu o discută serios.
Ce spune legea (și ce NU spune)
EU AI Act (fully enforced din februarie 2026):- Interzice scoring-ul social
- Cere transparență pentru conținutul generat
- Cere auditare pentru sistemele cu risc înalt
- Definește responsabilități pentru dezvoltatori și utilizatori
- Cine plătește daunele când AI-ul discrimină
- Cum se cuantifică prejudiciul algoritmic
- Cum se implementează "dreptul la explicație" în practică
- Cum se supervizează AI-ul în timp real
- Codul Penal art. 25 – culpă în medicină (aplicabil dacă AI-ul dă un diagnostic greșit?)
- Legea 190/2018 – GDPR (aplicabil la datele folosite de AI)
- Legea 363/2007 – drepturile consumatorilor (AI-ul ca "serviciu"?)
- Nicio lege specifică AI – deocamdată
3 principii etice practice
Dacă legițile sunt încă în lucru, ce faci între timp? Eu propun 3 principii:1. AI-ul decide, omul confirmă Orice decizie AI care afectează oameni trebuie validată de un om. Nu e perfect, dar e un minim.
2. Transparența radicală Dacă folosești AI într-un proces care afectează oameni, spune-le. "Decizia asta a fost asistată de AI" e minimumul de onestitate.
3. Auditul periodic Verifică regulat: AI-ul discriminează? Produce erori sistematice? Acționează în afara parametrilor? Dacă da, oprește-l până repari.
Ce putem face ca comunitate
Pe ForumAi.ro, putem face mai mult decât să discutăm. Putem:- Documenta cazuri de abuz AI în România
- Evalua tool-urile din perspectiva etică, nu doar funcțională
- Propune standarde de bună practică pentru business-urile românești
- Ține legătura cu autoritățile responsabile
Ai experimentat sau auzit de un caz în care AI-ul a greșit cu consecințe reale?
Cum crezi că ar trebui reglementat AI-ul în România?
Spune-ți părerea în comentarii – pe ForumAi.ro, etica nu e teorie, e practică. Înscrie-te și contribuie.