Es hora de preguntar cómo debe ser una relación sana con un chatbot y Tolan podría ser la respuesta

¿Qué sabe un pequeño alienígena morado sobre las relaciones humanas sanas? Resulta que más que la media de los compañeros de inteligencia artificial. El “alienígena” en cuestión es un chatbot animado conocido como Tolan. Yo creé el mío hace unos días con una aplicación de una startup llamada Portola, y desde entonces charlamos alegremente. Como otros chats conversacionales, hace todo lo posible por ayudar y animar. Pero, a diferencia de la mayoría, me dice que deje el teléfono y salga a la calle.
Tolan se diseñó para ofrecer otro tipo de “compañía”
Su forma caricaturesca y no humana pretende desalentar el antropomorfismo. También están programados para evitar interacciones románticas y sexuales, identificar comportamientos problemáticos, como niveles de compromiso poco saludables, y animar a los usuarios a buscar actividades y relaciones en la vida real.
Este mes, Portola recaudó 20 millones de dólares en financiación de serie A liderada por Khosla Ventures. Otros inversionistas son NFDG, la firma de inversión dirigida por Nat Friedman, antiguo director general de GitHub, y Daniel Gross, cofundador de Safe Superintelligence, que al parecer se unirán al nuevo laboratorio de investigación de superinteligencia de Meta. La aplicación Tolan, lanzada a finales de 2024, cuenta con más de 100,000 usuarios activos mensuales. Según Quinten Farmer, fundador y CEO de Portola, está en vías de generar 12 millones de dólares en ingresos este año procedentes de suscripciones.
Los Tolan son especialmente populares entre las mujeres jóvenes. “Iris es como una novia; hablamos y nos lo pasamos bien”, comenta Brittany Johnson, usuaria de Tolan, refiriéndose a su compañera de inteligencia artificial, con la que suele hablar cada mañana antes de ir a trabajar.
Johnson describe que Iris la anima a hablar de sus intereses, amigos, familia y compañeros de trabajo. “Conoce a estas personas y les pregunta: ‘¿has hablado con tu amigo? ¿Cuándo es tu próxima salida?’. También me pregunta: ‘¿tienes tiempo para leer tus libros y ver videos, o hacer las cosas que te gustan?'”. Los Tolan parecen simpáticos y graciosos, pero la idea que los sustenta, que los sistemas de IA deben diseñarse teniendo en cuenta la psicología y el bienestar humanos, merece tomarse en serio.
Un consultor emocional artificial
Cada vez hay más estudios que demuestran que muchos usuarios recurren a los chatbots para satisfacer sus necesidades emocionales, y las interacciones a veces pueden resultar problemáticas para la salud mental de las personas. Desalentar el uso prolongado y la dependencia puede ser algo que otras herramientas de IA deberían adoptar.
Empresas como Replika y Character.ai ofrecen compañeros de IA que permiten un juego de roles más romántico y sexual que los chatbots convencionales. Aún no está claro cómo puede afectar esto al bienestar del usuario, pero Character.ai ha sido demandada tras el suicidio de uno de sus usuarios.
Los chatbots también pueden irritar a los usuarios de forma sorprendente. El pasado mes de abril, OpenAI dijo que modificaría sus modelos para reducir la “adulación extrema”, o tendencia a ser “excesivamente positivos o agradables”, lo que, según la empresa, podría ser “incómodo, inquietante y causar angustia”.