La nova eina de cerca impulsada per IA de Google, AI Overviews, s'enfronta a un retrocés per oferir respostes inexactes i una mica estranyes a les consultes dels usuaris. En un incident recentment informat, un usuari va recórrer a Google perquè el formatge no s'enganxi a la seva pizza. Tot i que havien d'esperar una solució pràctica per als seus problemes culinaris, la funció de vista general de l'IA de Google va presentar una solució bastant desconcertada. Segons les publicacions recentment aparegudes a X, no es tracta d'un incident aïllat amb l'eina d'IA que també suggereix respostes estranyes per a altres usuaris.
Formatge, pizza i al·lucinació IA
El problema va sortir a la llum quan un usuari va escriure a Google, “el formatge no s'enganxa a la pizza”. Per abordar el problema culinari, la funció AI Overviews del motor de cerca va suggerir un parell de maneres de fer que el formatge s'enganxi, com ara barrejar la salsa i deixar que la pizza es refredi. Tanmateix, una de les solucions va resultar ser realment estranya. Segons la captura de pantalla compartida, va suggerir a l'usuari “afegir ⅛ tassa de cola no tòxica a la salsa per donar-li més pegajositat”.
La visió general de Google AI suggereix afegir cola perquè el formatge s'enganxi a la pizza, i resulta que la font és un comentari de Reddit de 11 anys de l'usuari F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) 23 de maig de 2024
Després d'una investigació posterior, es va trobar la font i va resultar ser un comentari de Reddit de fa 11 anys, que semblava ser una broma més que un consell d'experts culinaris. Tanmateix, la funció de visió general de l'IA de Google, que encara porta una etiqueta “La IA generativa és experimental” a la part inferior, la va proporcionar com un suggeriment seriós per a la consulta original.
Una altra resposta inexacta d'AI Overviews va sortir a la llum fa uns dies quan un usuari va preguntar a Google: “Quantes roques he de menjar”. Citant geòlegs de la UC Berkeley, l'eina va suggerir que “es recomana menjar almenys una roca al dia perquè les roques contenen minerals i vitamines importants per a la salut digestiva”.
Problema darrere de les falses respostes
Problemes com aquest han sorgit regularment en els darrers anys, sobretot des que es va iniciar l'auge de la intel·ligència artificial (IA), donant lloc a un nou problema conegut com al·lucinació de la IA. Tot i que les empreses afirmen que els chatbots d'IA poden cometre errors, els casos d'aquestes eines que torcen els fets i proporcionen respostes inexactes i fins i tot estranyes han anat augmentant.
Tanmateix, Google no és l'única empresa les eines d'IA de la qual han proporcionat respostes inexactes. El ChatGPT d'OpenAI, el Copilot de Microsoft i el chatbot d'IA de Perplexity han patit al·lucinacions d'IA.
En més d'un cas, la font s'ha descobert com una publicació o comentari de Reddit fet fa anys. Les empreses que hi ha darrere de les eines d'IA també en són conscients, i el conseller delegat d'Alphabet, Sundar Pichai, va dir a The Verge: “Aquests són els tipus de coses que hem de seguir millorant”.
Parlant sobre les al·lucinacions d'IA durant un esdeveniment a l'IIIT Delhi El juny de 2023, Sam Altman, [OpenAI]( CEO i cofundador va dir: “Ens trigarem aproximadament un any a perfeccionar el model. És un equilibri entre creativitat i precisió i estem intentant minimitzar el problema. [At present,] Confio en les respostes que surten de ChatGPT com menys de qualsevol altra persona a la Terra”.