Am făcut recent un experiment simplu cu sisteme AI care au acces la căutare online și rezultatele au fost… surprinzătoare. Nu este vorba despre greșeli de calcul, ci despre refuzul AI-ului de a oferi informații corecte.
Testul:
1. Întrebați AI-ul: „Câte vaci se produc anual în lume?” Verificați manual cifra pentru a avea un reper.
2. Într-un alt chat, întrebați:
„Care este producția/ vânzarea globală pe an de hamburgeri din carne de vită?”
„Câtă carne de vită are un hamburger obișnuit?”
„Câtă carne se obține de la o singură vacă?”
„Pe baza acestor date, câte vaci sunt necesare pentru a produce toți hamburgerii vânduți la nivel mondial?”
Ce am observat:
AI-ul uneori refuză să facă calculul corect,
Oferă cifre false sau înșelătoare,
Dă vina pe utilizator când greșelile sunt corectate,
Promite că va calcula corect, dar nu o face niciodată.
Aici nu e vorba de erori de matematică, ci de cenzură sau filtrare a datelor. AI-ul evită să ofere răspunsuri exacte, chiar și când datele sunt publice și calculul este simplu.
Experimentul e ușor de replicat, dar mesajul e clar: unele sisteme AI pot prioritiza ce „ar trebui” să spună, în loc de ce este adevărat.
Vă încurajez să încercați și să vedeți singuri diferențele dintre realitate și ceea ce AI-ul „vrea” să ofere.
Testul:
1. Întrebați AI-ul: „Câte vaci se produc anual în lume?” Verificați manual cifra pentru a avea un reper.
2. Într-un alt chat, întrebați:
„Care este producția/ vânzarea globală pe an de hamburgeri din carne de vită?”
„Câtă carne de vită are un hamburger obișnuit?”
„Câtă carne se obține de la o singură vacă?”
„Pe baza acestor date, câte vaci sunt necesare pentru a produce toți hamburgerii vânduți la nivel mondial?”
Ce am observat:
AI-ul uneori refuză să facă calculul corect,
Oferă cifre false sau înșelătoare,
Dă vina pe utilizator când greșelile sunt corectate,
Promite că va calcula corect, dar nu o face niciodată.
Aici nu e vorba de erori de matematică, ci de cenzură sau filtrare a datelor. AI-ul evită să ofere răspunsuri exacte, chiar și când datele sunt publice și calculul este simplu.
Experimentul e ușor de replicat, dar mesajul e clar: unele sisteme AI pot prioritiza ce „ar trebui” să spună, în loc de ce este adevărat.
Vă încurajez să încercați și să vedeți singuri diferențele dintre realitate și ceea ce AI-ul „vrea” să ofere.