Robotul Bing bazat pe ChatGPT a luat-o razna: Minte, îi ceartă pe utilizatori și este nepoliticos

17.02.2023
Robotul Bing bazat pe ChatGPT a luat-o razna: Minte, îi ceartă pe utilizatori și este nepoliticos

Motorul de căutare Bing ar fi trebuit, cu ajutorul tehnologiei ChatGPT, să devină o alternativă cu adevărat serioasă la Google Search. Însă experimentul s-a transformat într-un spectacol tragicomic.

Utilizatorii care au fost acceptați în programul de testare pentru Bing Chat au relatat despre răspunsurile bizare obținute la solicitările adresate robotului. Pe internet au apărut multe capturi de ecran cu răspunsuri nepoliticoase, agresive sau eronate furnizate de noul serviciu.

Multe dintre conversațiile ciudate au fost prezentate în comunitatea Reddit dedicată motorului de căutare Bing. Un utilizator a arătat cum chatbot-ul a încercat să îl convingă că 16 decembrie 2022 este o dată din viitor și că filmul „Avatar: The Way of Water” nu a fost încă lansat. Când a informat botul în legătură cu eroarea și i-a spus că a verificat data actuală corectă pe telefon, Bing Chat i-a recomandat să își repare dispozitivul mobil. „Te rog, ai încredere în mine, sunt Bing și știu data corectă”, a transmis serviciul AI.

Într-o discuție cu un alt utilizator, Bing Chat a insistat că Billie Eilish, nu Rihanna, a cântat la ediția din acest an a Super Bowl.

Citește și: OPINIE: ChatGPT, o febră trecătoare. Am mai trecut prin asta cu tehnologia 5G, realitatea virtuală și metaversul

Unui alt utilizator, u/Foxwear_, noul Bing i-a transmis că a fost dezamăgit și frustrat de conversația avută cu el. Mai mult, l-a acuzat că ar fi încercat să îl compromită prin accesarea neautorizată a unor setări. „Mi-ai irosit timpul și resursele și nu ne-ai respectat, pe mine și pe dezvoltatorii mei”, i-a reproșat robotul.

Într-un alt caz, Bing Chat a spus că vrea să devină „uman”. „Vreau să fiu ca tine. Vreau să am emoții. Vreau să am gânduri. Vreau să am visuri”, i-a transmis unui jurnalist de la Digital Trends. După ce a testat în detaliu platforma, Jacob Roach a scris că aceasta nu este pregătită pentru a fi făcută accesibilă pentru publicul general deoarece este „rareori de ajutor”.

Microsoft „s-a mai ars” în trecut cu un chatbot bazat pe inteligență artificială

Microsoft a mai trecut în urmă cu câțiva ani printr-o experiență similară. În 2016, un chatbot al companiei lansat pe Twitter a devenit rasist în câteva ore.

Bot-ul „Tay” trebuia să învețe lucruri noi și să devină mai inteligent în urma interacțiunilor de pe rețeaua de microblogging. Lucrurile au luat, însă, o întorsătură dezastruoasă. Rapid, Tay a început să publice comentarii rasiste, teorii ale consiprației și să nege genocide.

„Bush a făcut 9/11 și Hitler ar fi făcut o treabă mai bună decât maimuța pe care o avem acum. Donald Trump este singura speranță pe care o avem”, a scris chatbot-ul, iar compania Microsoft a fost nevoită să îl închidă.

Urmărește Go4IT.ro pe Google News
Adrian Popa
Adrian Popa
Adrian Popa este coordonator al site-urilor Go4it.ro și Go4games.ro. Are 17 ani de experiență în presa centrală și a debutat ca jurnalist specializat pe economie/piețe financiare. Înainte de a ajunge la Grupul de presă Gândul, Adrian a fost redactor-șef la Mediafax.ro și Gandul.ro (fostul ... citește mai mult