Pentru a evita noi probleme privind siguranţa celor mici, cel mai popular chatbot din lume nu va mai oferi la fel de uşor răspunsuri de teme sensibile, potrivit News.ro.
„Pentru copii, punem siguranţa înaintea libertăţii şi a intimităţii”, spune şeful OpenAI Sam Altman în anunţul care însoţeşte aceste măsuri.
Două domenii sunt vizate în special de noile restricţii: conversaţiile cu teme sexuale şi cele care oferă informaţii care îi pot ajuta pe copii să-şi facă singuri rău.
Practic, ChatGPT va înceta să flirteze cu minorii şi nu va mai răspunde la întrebările care caută informaţii despre autoflagelare şi sinucidere.
În cazul în care un minor caută astfel de informaţii, serviciul va încerca să contacteze părinţii şi, în cazuri foarte grave, direct poliţia locală.
Măsurile vin după ce OpenAI a fost acuzată în instanţă că a facilitat moartea unui copil care s-a sinucis după mai multe luni în care a interacţionat cu ChatGPT.
Nu este un caz singular. Şi alte companii, precum Character.AI, au de înfruntat acuzaţii similare.