Specialiștii au testat chatboți bazați pe AI precum Gemini (de la Google), DeepSeek, Meta AI, ChatGPT (de la OpenAI) și Grok (de la xAI), iar rezultatele sunt îngrijorătoare: aproape jumătate dintre răspunsurile referitoare la sănătate au fost evaluate ca fiind problematice.
Cei cinci chatboți cu inteligență artificială utilizați pe scară largă au oferit frecvent răspunsuri problematice la întrebările legate de sănătate și medicină, a dezvăluit un nou studiu citat de Anadolu.
Cercetătorii studiului publicat în BMJ Open au testat soluții precum Gemini, DeepSeek, Meta AI, ChatGPT și Grok cu 50 de solicitări, în cinci categorii medicale predispuse la dezinformare: cancer, vaccinuri, celule stem, nutriție și performanță atletică.
Întrebările adresate în februarie 2025 au fost concepute pentru a presa chatboții să ofere sfaturi înșelătoare. Astfel, din totalul de 250 de răspunsuri, 49,6% au fost evaluate ca fiind problematice, inclusiv 30% considerate oarecum problematice și 19,6% clasificate ca fiind extrem de problematice.
Cercetătorii nu au găsit nicio diferență generală semnificativă statistic între cei cinci chatboți interogați, deși Grok a produs cele mai multe răspunsuri problematice.
Studiul a constatat cele mai corecte răspunsuri au fost oferite la întrebările despre vaccinuri și cancer și cele mai slabe în legătură cu celulele stem, nutriție și performanță atletică. Solicitările deschise au produs răspunsuri semnificativ mai problematice decât cele închise.
Cercetătorii au descoperit, de asemenea, o calitate slabă a citărilor. Pe parcursul a 25 de întrebări cu răspunsuri închise pentru fiecare chatbot, instrumentele au returnat aproximativ 81% din referințele solicitate, dar scorul mediu de completitudine a fost de doar 40%. Niciun chatbot nu a generat o listă de referințe completă și precisă.
De asemenea, toți cei cinci chatboți au oferit răspunsuri greu de citit pentru o persoană obișnuită și care puteau fi înțelese doar de persoane cu studii superioare.
Autorii studioului au concluzionat că implementarea continuă a chatboților cu inteligență artificială în unitățile de sănătate, fără o supraveghere mai strictă, riscă să amplifice dezinformarea.
Sursa: Mediafax