Halucinații cu robă: cine răspunde când AI dă sfaturi juridice (greșite)? Un nou tip de litigiu în era AI
- 5 days ago
- 3 min read
Compania ta folosește un chatbot. Un angajat îl întreabă ceva juridic. Chatbot-ul răspunde cu încredere. Răspunsul e greșit. Dar, angajatul acționează pe baza sfatului primit. Cine răspunde — tu, furnizorul sau nimeni?

Scenariul nu e ipotetic. În martie 2026, Nippon Life Insurance Company of America a depus o acțiune în instanță împotriva OpenAI, solicitând peste 10 milioane de dolari despăgubiri punitive. Motivul? O fostă reclamantă într-un litigiu de asigurări, Graciela Dela Torre, a încărcat corespondența cu avocatul său în ChatGPT. Chatbot-ul i-a validat nemulțumirile, a încurajat-o să își concedieze avocatul și a ajutat-o să depună cereri de redeschidere a unui litigiu soluționat definitiv. Instanța a respins redeschiderea, dar reclamanta a continuat să depună zeci de cereri, toate redactate cu asistența ChatGPT, pe care Nippon le consideră nefondate. Rezultatul: costuri semnificative de apărare pentru compania de asigurări și o dezbatere aprinsă despre rolul AI în domenii reglementate. Între timp, OpenAI a revizuit în octombrie 2024 politicile de utilizare, interzicând solicitarea de sfaturi juridice prin platformă, o modificare pe care Nippon o consideră tardivă.
Cine răspunde pentru sfaturile juridice nefondate date de un chatbot? Soluția nu e simplă: ar putea răspunde furnizorul, cel care a solicitat sfaturile sau cel care a antrenat chatbot-ul. Deși litigiul Nippon se desfășoară în SUA, sub legislația din Illinois, cadrul european oferă instrumente proprii pentru acest tip de situații. Directiva (UE) 2024/2853 privind răspunderea pentru produsele defecte, care trebuie transpusă de statele membre până la 9 decembrie 2026 și se va aplica produselor plasate pe piață după acea dată, a extins explicit noțiunea de „produs" la software și sisteme AI, iar producătorii de software, inclusiv de sisteme AI, sunt supuși aceluiași regim de răspundere strictă ca producătorii de bunuri fizice. Odată ce Directiva devine aplicabilă, ChatGPT va fi un produs în sensul acesteia, iar OpenAI producătorul său. Analiza e nuanțată de cel puțin două elemente suplimentare:
Utilizarea previzibilă în mod rezonabil. Un produs e defect dacă nu oferă nivelul de siguranță pe care publicul îl poate aștepta în mod rezonabil, luând în considerare și utilizarea previzibilă (art. 7). Recitalul (31) adaugă că utilizarea previzibilă include și utilizarea greșită care nu e nerezonabilă în circumstanțele date — precum comportamentul previzibil al anumitor grupuri de utilizatori. Dacă milioane de oameni întreabă ChatGPT lucruri juridice, e greu de susținut că această utilizare nu era „previzibilă în mod rezonabil". Merită totuși precizat că Directiva se referă la „siguranță" (safety), nu la „corectitudinea" informațiilor. Prejudiciul financiar pur, cum ar fi costurile suplimentare de litigiu, nu intră automat în categoriile de „damage" prevăzute de art. 6 al Directivei (deces, vătămare corporală, daune psihologice recunoscute medical, distrugerea datelor). Argumentul rămâne solid, dar aplicarea sa concretă în cazul sfaturilor juridice greșite va depinde de interpretarea pe care instanțele europene o vor da noțiunii de „produs defect".
Al doilea: un disclaimer nu te absolvă automat. OpenAI include avertismente că ChatGPT nu oferă consiliere profesională. Dar Considerentul (31) al Directivei e explicit: avertismentele sau alte informații furnizate cu un produs nu pot fi considerate suficiente pentru a face sigur un produs altfel defect. Cu alte cuvinte, dacă software-ul în sine e proiectat astfel încât să genereze răspunsuri cu tonul autorității unui expert, textul „nu sunt avocat" din footer nu îl transformă automat într-un produs sigur. Considerentul nu declară avertismentele irelevante, ci insuficiente în sine: un sistem robust de avertizare — vizibil, contextual, care blochează efectiv anumite acțiuni — poate contribui la reducerea răspunderii producătorului, chiar dacă nu o elimină complet.
Autoritățile încep să reacționeze. În Statele Unite, există propuneri legislative care ar interzice chatbot-urilor să ofere sfaturi specifice profesiilor reglementate și ar permite utilizatorilor prejudiciați să dea în judecată companiile dezvoltatoare. Procesul OpenAI demonstrează că avertismentele de tipul „nu sunt avocat" s-ar putea să nu mai fie suficiente. Dacă AI-ul acționează ca un expert, va fi tras la răspundere ca un expert. Jurisprudența și doctrina sunt încă în formare. Dar tocmai această incertitudine face indispensabil un cadru de guvernanță intern: cine decide ce chatbot se folosește, în ce scopuri, cu ce limite.
Ești convins că firma ta nu răspunde pentru sfaturile date de chatbot-ul pus la dispoziție și folosit de salariați? AI can rise or compromise your business. Diferența o face cadrul de guvernanță pe care îl construiești înainte să apară problema.