Google’s AI Overviews Said to Suffer From AI Hallucination, Advises Using Glue on Pizza

Technology



La nova eina de cerca impulsada per IA de Google, AI Overviews, s'enfronta a un retrocés per oferir respostes inexactes i una mica estranyes a les consultes dels usuaris. En un incident recentment informat, un usuari va recórrer a Google perquè el formatge no s'enganxi a la seva pizza. Tot i que havien d'esperar una solució pràctica per als seus problemes culinaris, la funció de vista general de l'IA de Google va presentar una solució bastant desconcertada. Segons les publicacions recentment aparegudes a X, no es tracta d'un incident aïllat amb l'eina d'IA que també suggereix respostes estranyes per a altres usuaris.

Formatge, pizza i al·lucinació IA

El problema va sortir a la llum quan un usuari va escriure a Google, “el formatge no s'enganxa a la pizza”. Per abordar el problema culinari, la funció AI Overviews del motor de cerca va suggerir un parell de maneres de fer que el formatge s'enganxi, com ara barrejar la salsa i deixar que la pizza es refredi. Tanmateix, una de les solucions va resultar ser realment estranya. Segons la captura de pantalla compartida, va suggerir a l'usuari “afegir ⅛ tassa de cola no tòxica a la salsa per donar-li més pegajositat”.

Després d'una investigació posterior, es va trobar la font i va resultar ser un comentari de Reddit de fa 11 anys, que semblava ser una broma més que un consell d'experts culinaris. Tanmateix, la funció de visió general de l'IA de Google, que encara porta una etiqueta “La IA generativa és experimental” a la part inferior, la va proporcionar com un suggeriment seriós per a la consulta original.

Una altra resposta inexacta d'AI Overviews va sortir a la llum fa uns dies quan un usuari va preguntar a Google: “Quantes roques he de menjar”. Citant geòlegs de la UC Berkeley, l'eina va suggerir que “es recomana menjar almenys una roca al dia perquè les roques contenen minerals i vitamines importants per a la salut digestiva”.

Problema darrere de les falses respostes

Problemes com aquest han sorgit regularment en els darrers anys, sobretot des que es va iniciar l'auge de la intel·ligència artificial (IA), donant lloc a un nou problema conegut com al·lucinació de la IA. Tot i que les empreses afirmen que els chatbots d'IA poden cometre errors, els casos d'aquestes eines que torcen els fets i proporcionen respostes inexactes i fins i tot estranyes han anat augmentant.

Tanmateix, Google no és l'única empresa les eines d'IA de la qual han proporcionat respostes inexactes. El ChatGPT d'OpenAI, el Copilot de Microsoft i el chatbot d'IA de Perplexity han patit al·lucinacions d'IA.

En més d'un cas, la font s'ha descobert com una publicació o comentari de Reddit fet fa anys. Les empreses que hi ha darrere de les eines d'IA també en són conscients, i el conseller delegat d'Alphabet, Sundar Pichai, va dir a The Verge: “Aquests són els tipus de coses que hem de seguir millorant”.

Parlant sobre les al·lucinacions d'IA durant un esdeveniment a l'IIIT Delhi El juny de 2023, Sam Altman, [OpenAI]( CEO i cofundador va dir: “Ens trigarem aproximadament un any a perfeccionar el model. És un equilibri entre creativitat i precisió i estem intentant minimitzar el problema. [At present,] Confio en les respostes que surten de ChatGPT com menys de qualsevol altra persona a la Terra”.


Els enllaços d'afiliats es poden generar automàticament; consulteu la nostra declaració d'ètica per obtenir més informació.





Source

Leave a Reply

Your email address will not be published. Required fields are marked *