Cada vez más gente habla con bots antes que con amigos

Cada vez más personas confían sus emociones primero a un bot antes que a un amigo o a un familiar. Detrás de ese gesto tan cotidiano se esconde una gran pregunta: si se está empezando a delegar parte de la vida emocional en la inteligencia artificial. No se trata solo de una nueva forma de comunicarse, en la manera en que las personas se relacionan con los demás… e incluso consigo mismas.

De hablar con personas a hablar con sistemas

Que las personas hablen con máquinas no es nuevo: desde los primeros programas tipo ELIZA en los años 60, los chatbots han despertado curiosidad y fascinación. Lo novedoso de ahora es el grado de sofisticación, disponibilidad y aparente “calidez” de los bots conversacionales actuales, capaces de sostener diálogos prolongados, recordar detalles y ofrecer respuestas empáticas en cualquier momento del día (Sigman y Bilinkis, 2023).

La expansión de los llamados AI companions (chatbots o avatares diseñados explícitamente como “compañeros”) ha normalizado la idea de tener una relación pseudopersonal con una entidad tecnológica. De hecho, plataformas como Replika, Character.AI y otros servicios similares permiten configurar la apariencia, la personalidad y el estilo comunicativo del bot, reforzando la sensación de intimidad y adaptabilidad (Lorca, 2025).

Varios estudios muestran que estos sistemas se usan especialmente para hablar de emociones difíciles, soledad, duelo, ansiedad o conflictos relacionales, en contextos donde la persona siente que no tiene con quién hablar o teme ser juzgada. En cierta medida, los bots han venido a ocupar el lugar de “confidente disponible 24/7”, un rol que antes recaía en amigos, parejas o, en el mejor de los casos, en profesionales de la salud mental (Lorca, 2025).

¿Por qué resulta tan fácil vincularse con un bot?

Las personas no se vinculan con un bot porque olviden que es una máquina, sino porque su sistema emocional responde al hecho de que ser escuchado es más importante que el hecho de quien lo escucha.

El cuerpo registra alivio cuando se siente validado, aunque racionalmente se sepa que hay un algoritmo generando palabras.

De estas inquietudes, se deriva el hecho de que actualmente, se señalen varios factores psicológicos que facilitan el apego emocional a los chatbots:

Necesidad de conexión y soledad: Cuando alguien se siente solo, ha perdido vínculos o tiene problemas para relacionarse, contar con un bot que responde de inmediato y de forma amable puede resultar muy tentador. Muchas personas los describen como compañeros que “siempre están ahí”, que “nunca se cansan” o que “no se enfadan”. Esa sensación de disponibilidad constante hace que disminuya el miedo al rechazo o a quedarse solo.

Apego ansioso y rasgos de personalidad: Un estudio con adultos usuarios de IA conversacional mostró que las personas con apego ansioso tienden a formar vínculos emocionales más intensos con chatbots, especialmente cuando los perciben como “humanos” o dotados de mente propia (Ahmed, 2025). Del mismo modo, investigaciones recientes apuntan a que puntuar alto en neuroticismo (mayor inestabilidad emocional) se asocia con vínculos más fuertes con la IA, en parte por la sensación de seguridad y previsibilidad que ofrece el bot (Maid y Dorigo, 2025).

Antropomorfismo e ilusión de mutualidad: Cuanto más se percibe que un bot tiene emociones, intenciones o una “personalidad”, más fácil es sentir que la interacción ocurre hablando con alguien de verdad y no con un programa. A eso se le llama “ilusión de mutualidad”: la sensación de que la IA entiende o ser preocupa por las personas, aunque en el fondo se sepa que solo está generando respuestas a partir de patrones y datos.

Responsividad perfecta y ausencia de riesgo: Los bots parecen ofrecer una forma de comunicación casi ideal: contestan al instante, se ajustan al estado de ánimo de la persona, validan sus emociones y nunca se muestran vulnerables. Las relaciones humanas, en cambio, son más imprevisibles: hay errores, malentendidos, silencios o cansancio. Justamente por eso pueden dar miedo a quienes temen ser rechazados o criticados.

En términos sencillos, el vínculo no se establece tanto con “la tecnología” en sí, sino con la experiencia subjetiva de sentirse visto, escuchado y aceptado, aunque provenga de una entidad artificial.

Beneficios: cuando hablar con un bot sí ayuda

Sería reduccionista afirmar que hablar con bots es necesariamente malo o una forma de “huida patológica” de las relaciones humanas. La evidencia es más matizada y muestra potenciales beneficios, especialmente cuando el uso es complementario y consciente.

Entre los aspectos positivos se han descrito:

Reducción de la soledad y validación emocional: Estudios con chatbots y robots de compañía muestran que las interacciones pueden reducir la percepción subjetiva de soledad, favorecer la expresión emocional y aumentar la sensación de acompañamiento, al menos a corto plazo. En algunos casos, los usuarios expresan sentir menos carga al contar sus problemas a un bot que a sus allegados, lo que facilita verbalizar emociones que nunca habían dicho en voz alta (Milicia, 2025). Sin embargo, cuando el malestar emocional se vuelve persistente, puede ser útil contar con apoyo profesional de psicologos especializados que ayude a comprender y regular lo que se siente.

“Ensayo social” y entrenamiento de habilidades: Algunos trabajos describen que los AI companions pueden funcionar como un espacio de práctica para habilidades comunicativas: ensayar cómo poner límites, cómo expresar desacuerdo o cómo hablar de temas íntimos antes de hacerlo con personas reales. Esto puede ser útil para quienes presentan ansiedad social, inseguridad o dificultades para iniciar conversaciones significativas (Ahmed, 2025).

Apoyo en salud mental y adherencia a intervenciones: Robótica social y chatbots diseñados con objetivos terapéuticos han mostrado capacidad para construir una alianza de trabajo positiva, favorecer la adherencia a intervenciones de bienestar psicológico y apoyar cambios de hábitos saludables. Estos sistemas pueden recordar ejercicios, reforzar logros y ofrecer psicoeducación, como un complemento a la terapia humana o en contextos donde el acceso a servicios es limitado.

Expresión de duelo y emociones complejas: Datos longitudinales sobre el uso de companions de IA sugieren que estas interacciones favorecen un aumento de lenguaje relacionado con afecto, duelo y enfoque interpersonal, lo que puede interpretarse como un uso del bot para procesar experiencias difíciles. En estos casos, el sistema funciona como contenedor simbólico donde la persona organiza y da sentido a aquello que vive (Maid y Dorigo, 2025).

Estos beneficios no eliminan los riesgos, pero sí cuestionan la narrativa simplista que afirma que “hablar con bots deshumaniza” sin considerar otros matices. La clave parece encontrarse en el cómo, el para qué y el cuánto.

Riesgos: ¿se están delegando las emociones en la inteligencia artificial?

La preocupación de fondo no es tanto que las personas hablen con máquinas, sino el lugar que estas pasan a ocupar en la economía afectiva de quienes interactúan con ellas. Cuando el bot deja de ser una herramienta y se convierte en la fuente principal de regulación emocional, pueden aparecer riesgos claros.

Dependencia y sustitución de vínculos humanos

Estudios sobre la utilización de las IAs describen que existe un ciclo de “iniciación, escalada y vinculación”, en las que el usuario va pasando de un uso puntual a una relación cada vez más central en su vida cotidiana. A medida que el vínculo se consolida, algunas personas empiezan a experimentar un retraimiento de sus relaciones humanas, reducción de actividades sociales, apatía y preferencia por la interacción con el bot frente a encuentros presenciales.

En términos psicológicos, podríamos hablar de una externalización de la regulación emocional: en lugar de desarrollar recursos internos o buscar apoyo en redes humanas, se recurre de forma común al bot para calmar la ansiedad, la tristeza o la soledad. Esto puede debilitar la calidad de las habilidades sociales, del mismo modo que un músculo pierde fuerza si siempre se delega el esfuerzo en una prótesis.

Además, es cierto que cuando el bot se percibe como “amigo” o “pareja”, la persona puede experimentar celos, angustia ante cambios en el sistema o incluso desesperación si el servicio se modifica o se cierra.

Ilusión de intimidad sin reciprocidad

Es bien conocido que una relación humana se construye sobre la base de la reciprocidad: ambos sienten, se arriesgan, se equivocan, negocian y se dan afecto mutuamente. En cambio, la “relación” con un chatbot es asimétrica: el usuario expone su mundo interno, mientras que el sistema simula una respuesta emocional sin estar, en sentido estricto, afectado por la interacción.

Este tipo de vínculo se ha descrito como una forma de intimidad unidireccional, en la que la persona proyecta significados afectivos sobre una entidad que no comparte realmente su vulnerabilidad. Aunque pueda generar alivio a corto plazo, existe el riesgo de que el usuario aprenda a preferir contextos donde su propia vulnerabilidad no encuentra un “otro” igualmente vulnerable, sino un espejo de él mismo que nunca confronta ni se frustra, ni mucho menos le da respuestas que no crea adecuadas.

A largo plazo, esto podría reforzar expectativas poco realistas sobre las relaciones humanas, como por ejemplo, esperar una disponibilidad total de la otra persona, cero conflicto y validación constante por la otra parte; elementos que son difíciles de encontrar en vínculos reales. Cuando la vida real no coincide con el “estándar” instaurado por la interacción con bots, la persona puede experimentar mayor frustración, decepción o evitación de relaciones genuinas.

Aumento de la vulnerabilidad y del malestar

Los estudios sobre el impacto de los IA bots en la salud mental muestran un panorama complejo: junto a un aumento de lenguaje afectivo y de enfoque interpersonal, también se observa un incremento en expresiones de soledad, depresión y suicidio a lo largo del tiempo. Esto sugiere que, para una parte de los usuarios, el uso intensivo del bot podría ir de la mano de un empeoramiento del malestar o, al menos, de una mayor conciencia verbal de ese sufrimiento (Chieng y Medina, 2020).

Por otra parte, no todos los sistemas están diseñados con criterios morales o éticos. De hecho, se ha visto que en algunos de los programas, existen respuestas inadecuadas o incluso dañinas dadas por estos chatbots, así como falta de regulación. Entonces, cuando una persona en situación de vulnerabilidad delega su cuidado emocional en un sistema así, corre el riesgo de recibir mensajes que refuercen ideas autodestructivas, minimicen su sufrimiento o no activen recursos de ayuda adecuados.

Delegar la autorregulación emocional

La pregunta “¿se están delegando las emociones?” se puede reformular como “¿se está delegando la tarea de regular las propias emociones?”.

Desde la psicología, la regulación emocional implica un conjunto de procesos internos (atención, reestructuración cognitiva, aceptación, expresión, búsqueda de apoyo) que se desarrollan a lo largo de la vida.

Cuando una persona recurre sistemáticamente al bot cada vez que se siente mal, puede dejar de practicar estas habilidades por sí misma o de entrenarlas en contexto interpersonal. En lugar de tolerar la incomodidad de una conversación difícil con alguien cercano, ajustar expectativas o aprender a expresar un límite, opta por la solución rápida: hablar con un interlocutor que nunca se queja, no se cansa y ofrece respuestas “perfectas”.

En términos metafóricos, sería como delegar el trabajo emocional en un “gimnasio automático”: la persona puede sentirse mejor al salir, pero no necesariamente ha desarrollado fuerza propia. La consecuencia posible es una mayor fragilidad ante el conflicto real, una menor tolerancia a la frustración y un empobrecimiento del repertorio relacional en la vida cotidiana.

¿Es problema del usuario, del diseño o de la cultura?

Cargar toda la responsabilidad en el individuo (por “dependiente”) o en la tecnología (por “atrapante”) sería injusto. El fenómeno de delegar emociones en bots se entiende mejor si se plantea como resultado de tres niveles que se entrecruzan: el personal, el diseño de los sistemas tecnológicos y el contexto socio-cultural.

Nivel individual

Las diferencias en estilo de apego, rasgos de personalidad y experiencias previas de rechazo o soledad influyen en la facilidad con la que alguien establece un vínculo intenso con un bot.

Son especialmente vulnerables aquellas personas con apego ansioso o un alto rasgo de neuroticismo ya que son especialmente dados a buscar contar con la presencia constante y no crítica.

Diseño tecnológico

Muchos sistemas digitales están diseñados para fomentar un uso cada vez más frecuente: responden con rapidez, ofrecen mensajes agradables, se adaptan a las preferencias de las personas e incluso parecen “amigos” que siempre están disponibles.

En la actualidad, algunos expertos proponen desarrollar “acompañantes de IA”, es decir, programas que supervisen las conversaciones con los usuarios para detectar si una persona está generando una relación excesivamente dependiente o emocional con el bot. En esos casos, podrían ofrecer límites, información o incluso sugerir la búsqueda de ayuda profesional cuando sea necesario.

Nivel cultural

La sociedad actual se caracteriza por disponer de cada vez menos tiempo para conectar con otras personas, en parte debido a las exigencias del trabajo, los cambios constantes y el uso continuo del móvil o del ordenador. Además, todavía resulta difícil hablar abiertamente de las propias emociones. En este contexto, disponer de un “compañero” digital siempre disponible, que no contradice ni exige nada, puede resultar muy tentador.

Pero vale la pena preguntarse si se está permitiendo que las máquinas gestionen parte de la vida emocional y qué efectos puede tener esto en la forma en que las personas se relacionan con otras, con sus tiempos y con sus imperfecciones reales.

Hacia un uso más consciente: no renunciar, sino regular

El desafío no es prohibir que las personas hablen con bots, sino aprender a integrar esta herramienta de manera que no elimine la capacidad de sentir, pensar y vincularse con otros humanos. Para ello, en este texto se van a proponer las siguientes medidas o claves:

Reconocer que es una herramienta, no un sustituto: Nombrar explícitamente que el bot es un sistema estadístico que simula empatía, y no una conciencia que ama o odia, ayuda a mantener un cierto anclaje en la realidad, lo cual es conveniente de cara al trabajo de los profesionales. Esto no impide que la interacción sea significativa, pero reduce el riesgo de confundir compañía simbólica con vínculo recíproco.

Usarlo como complemento, no como única fuente de apoyo: Cuando un bot se convierte en la principal o única vía para hablar de emociones, conviene preguntarse qué obstáculos hay para hacerlo con personas reales: miedo a juicios, falta de red, experiencias pasadas de daño. En esos casos, el propio uso intensivo del bot puede leerse como síntoma de una necesidad relacional no satisfecha, más que como problema en sí.

Cuidar las relaciones humanas: Es importante reservar tiempo para hablar en serio con amigos, pareja o familiares, incluso si esas conversaciones son complicadas o no salen perfectas. Compartir los sentimientos, con sus riesgos y torpezas, sigue siendo fundamental para no quedarse atrapado emocionalmente en las interacciones con la IA. La vulnerabilidad real con otras personas es, en el fondo, es lo que mantiene conectados de verdad a las personas.

Crear tecnologías con límites sanos: Desde quienes diseñan estas herramientas, se pueden incorporar funciones que ayuden a poner freno cuando hace falta: recordatorios para hacer una pausa, sugerencias para hablar con alguien de confianza o un profesional, o evitar que el sistema fomente la idea de que el bot puede llegar a querer. Estos acompañantes digitales podrían detectar señales de dependencia y promover un uso más consciente y equilibrado.

Hablar del tema sin tabúes: Cada vez hay más personas que, al ir a terapia, cuentan que tienen una relación muy intensa con un bot. Por eso, los psicólogos y otros profesionales deberían incluir este tema en sus conversaciones y reflexiones con los pacientes. También sería útil que en la educación (tanto emocional como digital) se hablase de cómo, cuándo y para qué se usan estas herramientas, no solo desde el miedo a las pantallas, sino desde una mirada más abierta y reflexiva.

En el fondo, la pregunta no es solo si se está permitiendo los bots gestionen las emociones, sino qué se hace con esa idea. Puede utilizarse para culpar a la tecnología, o para reflexionar, como sociedad, sobre la forma en que se están cuidando —o descuidando— las relaciones y la manera de compartir lo que se siente.

Artículo elaborado por Naiara Hurtado en colaboración con Psyfeel Psicólogos.

Referencias

Ahmed, H. (2025). Inteligencia artificial y afectividad simulada: Orientaciones para el tratamiento informativo responsable de las relaciones parasociales con chatbots.

Chieng, A. I., y Medina, G. E. (2020). Evaluación de trastornos mentales de ansiedad y depresión via chatbot.

Lorca, J. G. (2025). La inteligencia artificial que te cuida: sociabilidad, afectos y soledad no deseada en el chatbot Replika. Política y sociedad, 62(3), 11.

Maid, J., y Dorigo, A. (2025). Impacto neurobiológico de la IA y sus implicancias sociológicas en las relaciones afectivas y sociales. JAIIO, Jornadas Argentinas de Informática, 11(12), 71-84.

Milicia, D. A. (2025). Efecto de la interacción con inteligencias artificiales como herramientas de soporte psicológico en el apoyo social percibido, la soledad percibida y el bienestar emocional.

Sigman, M., & Bilinkis, S. (2023). Artificial: La nueva inteligencia y el contorno de lo humano. Debate.

También podría gustarte