Când Grokipedia a lui Elon Musk nu copiază pur și simplu cuvânt cu cuvânt din Wikipedia, aceasta răspândește informații false despre epidemia de SIDA, justifică sclavia și citează site-uri web ale supremației albe. Acum, cel puțin doi dintre cele mai mari modele AI, ChatGPT de la OpenAI și Claude de la Anthropic, citează Grokipedia ca sursă în răspunsurile lor la întrebările utilizatorilor, potrivit unui raport The Guardian.
Cel mai recent model de ChatGPT a început să citeze Grokipedia lui Elon Musk ca sursă pentru o gamă largă de întrebări, inclusiv despre conglomeratele iraniene și despre persoanele care contestă Holocaustul, fapt ce provoacă îngrijorări cu privire la dezinformarea de pe platformă.
Într-un caz, ChatGPT a citat Grokipedia pentru a furniza afirmații demontate despre Sir Richard Evans, un istoric britanic care a fost principalul martor expert împotriva negatorului Holocaustului, David Irving, la procesul său de calomnie din 2000.
Raportul a constatat, de asemenea, că ChatGPT nu era singurul chatbot AI care extrăgea informații din Grokipedia a lui Musk. Claude de la Anthropic cita, de asemenea, Grokipedia pentru anumite întrebări.
Potrivit The Guardian, LLM-ul folosea uneori enciclopedia online generată de AI a lui Elon Musk pentru subiecte mai puțin obișnuite, cum ar fi politica iraniană și detalii despre istoricul britanic Sir Richard Evans. Probleme de acest gen au fost semnalate ca fiind problematice în urmă cu câțiva ani în cadrul formării AI, unde unii experți au susținut că formarea AI pe date generate de AI ar degrada calitatea și ar duce la un fenomen numit „colapsul modelului”.
Și, deși citarea datelor generate de AI este diferită de utilizarea acestora pentru formare, aceasta prezintă totuși riscuri pentru persoanele care se bazează pe AI pentru cercetare. Cea mai mare problemă în acest sens este că modelele de AI sunt cunoscute pentru faptul că halucinează sau inventează informații eronate. De exemplu, Anthropic a încercat să conducă o afacere cu ajutorul AI-ului său „Claudius” — acesta a halucinat de mai multe ori în timpul experimentului, iar AI-ul a afirmat chiar că va livra băuturi personal.
Chiar și CEO-ul Nvidia, Jensen Huang, a recunoscut în 2024 că rezolvarea acestei probleme este încă „la câțiva ani distanță” și necesită mult mai multă putere de calcul. În plus, mulți utilizatori au încredere că ChatGPT și alte LLM-uri furnizează informații exacte, doar câțiva verificând sursele reale utilizate pentru a răspunde la o anumită întrebare. Din această cauză, repetarea cuvintelor lui Grok de către ChatGPT poate fi problematică, mai ales că Grokipedia nu este editată direct de oameni.
În schimb, aceasta este generată complet de AI, iar oamenii pot doar să solicite modificări ale conținutului său, nu să scrie sau să editeze articolele direct.
Musk a creat Grokipedia ca alternativă la Wikipedia, pe care a criticat-o în ultimii ani. Cu toate acestea, Grokipedia a devenit rapid o sursă de falsuri și dezinformare pe teme cu încărcătură politică.
Grokipedia este alimentată de compania de AI xAI a lui Elon Musk și de chatbotul său AI, Grok.
Grok a avut propriile probleme pe platforma de socializare a lui Musk, X, unde vara trecută a început să îl laude pe Hitler și să se refere la sine ca „MechaHitler”. Într-un incident separat, cu câteva luni mai devreme, Grok a început să răspundă la fiecare întrebare de pe X cu teorii conspiraționiste de dreapta despre „genocidul albilor” din Africa de Sud.
Musk însuși s-a adâncit și mai mult în ideologia de extremă dreapta, care depășește chiar și sprijinul său financiar acordat președintelui Donald Trump. Cu doar câteva săptămâni în urmă, fondatorul Grokipedia, Elon Musk, a distribuit pe X o imagine care prezenta într-o lumină pozitivă statul apartheid din Rhodesia, cunoscut astăzi sub numele de Zimbabwe.
Experții în securitate au subliniat că modelele AI pot fi manipulate pentru a distribui dezinformare și falsuri prin tactici precum „LLM Grooming”. Deși nu este clar dacă există vreo intenție rău-intenționată din partea unor terți în spatele utilizării Grokipedia ca sursă de către ChatGPT și Claude, The Guardian notează că acest lucru este cu siguranță îngrijorător.
Utilizarea unei alte platforme AI ca sursă creează o buclă recursivă și am putea ajunge în cele din urmă la LLM-uri care citează conținutul neverificat unul de la altul. Acest lucru nu este diferit de zvonurile și poveștile care se răspândesc între oameni, cu „altcineva a spus-o” ca sursă. Acest lucru duce la efectul de adevăr iluzoriu, în care informațiile false sunt considerate corecte de mulți, în ciuda faptului că există date care spun altceva, deoarece au fost repetate de atât de mulți oameni.
Societatea umană era plină de mituri și legende similare, transmise de-a lungul a sute de ani prin mai multe generații. Cu toate acestea, având în vedere că AI procesează „tone” de date la viteze infinit mai mari decât oamenii, utilizarea surselor AI riscă proliferarea folclorului digital cu fiecare interogare introdusă în LLM-urile AI.
Ceea ce este și mai îngrijorător este faptul că diverse părți profită deja de acest lucru. Au existat rapoarte privind „LLM grooming”, The Guardian afirmând că unele rețele de propagandă „produc volume masive de dezinformare în efortul de a alimenta modelele AI cu minciuni”. Acest lucru a stârnit îngrijorare în SUA; de exemplu, Gemini de la Google a repetat, potrivit unor rapoarte, linia oficială a Partidului Comunist Chinez în 2024. Se pare că această problemă a fost rezolvată momentan, dar dacă LLM-urile încep să citeze alte surse generate de AI care nu au fost verificate și confirmate, atunci acesta este un nou risc la care oamenii trebuie să fie atenți.