“Mejor loco que con tres pelotas”: cómo hacer que Google explique cualquier dicho que inventes (y por qué es un problema)

El otro factor es que los modelos de IA buscan agradar; las investigaciones han demostrado que los chatbots suelen decir a la gente lo que quiere oír. En otros contextos, puede significar reflejar tus propios prejuicios, como demostró un equipo de investigadores dirigido por Xiao en un estudio del año pasado.
“Es muy difícil para este sistema tener en cuenta cada consulta individual o las preguntas capciosas de un usuario”, explica Xiao. “Esto es especialmente difícil en el caso de conocimientos poco comunes, idiomas en los que hay muchos menos contenidos disponibles y perspectivas minoritarias”. Como la IA de búsqueda es un sistema tan complejo, el error se produce en cascada”.
Como tu amigo que “todo lo sabe”
Para agravar estos problemas, la IA se resiste a admitir que no sabe una respuesta. En caso de duda, se inventa cosas.
“Cuando la gente hace búsquedas sin sentido o con ‘premisas falsas’, nuestros sistemas intentan encontrar los resultados más relevantes basándose en el limitado contenido web disponible”, explica Meghann Farnsworth, portavoz de Google, en un comunicado enviado por correo electrónico. “Esto se aplica a la búsqueda en general y, en algunos casos, también se activarán las Perspectivas de IA en un esfuerzo por proporcionar un contexto útil”.
Google no devolverá un resultado de AI Overview para cada consulta como esta. “Hice unos cinco minutos de experimentación, y es salvajemente inconsistente, y eso es lo que esperas de la GenAI, que es muy dependiente de ejemplos específicos en conjuntos de entrenamiento y no muy abstractos”, aclara Gary Marcus, científico cognitivo y autor de Taming Silicon Valley: How We Can Ensure That AI Works for Us (Domar Silicon Valley: cómo podemos garantizar que la IA trabaje para nosotros). “La idea de que cualquiera de estos enredos se acerque a la IAG [inteligencia general artificial] es absurda“.
Esta peculiaridad específica de la visión general de la IA parece, en última instancia, inofensiva y, de nuevo, es una forma divertida de procrastinar. Pero es útil tener en cuenta que el mismo modelo que escupe ese error de confianza es el que está detrás de tus otros resultados de consulta generados por IA.
Artículo originalmente publicado en WIRED. Adaptado por Mauricio Serfatty Godoy.