Skip to Content

Expertos explican por qué la IA no puede ser tu mejor amiga, pese a lo que dicen algunos en la industria tecnológica

Por Madeline Holcombe, CNN

Imagina que todos tuvieran un mejor amigo siempre disponible, que nunca juzga, que está totalmente de acuerdo contigo en todo y no pide nada a cambio. ¿No resolvería eso la soledad que enfrentan tantas personas?

No, dicen los expertos. De hecho, tener un mejor amigo así podría empeorar mucho las cosas.

Ese posible “mejor amigo” ya existe en la inteligencia artificial, una tecnología que el CEO de Meta, Mark Zuckerberg, sugirió el año pasado que podría ayudar a aliviar los sentimientos de soledad y aislamiento. Y es un problema que necesita solución.

La Organización Mundial de la Salud declaró la soledad como una prioridad global de salud en 2023. Ese mismo año, el cirujano general de EE.UU. la calificó como una epidemia nacional. Y se trata de un problema de salud pública: investigaciones han encontrado que las personas que experimentan aislamiento social tienen un 32% más de riesgo de morir de forma prematura en comparación con quienes no lo padecen.

En el episodio de esta semana de “Kara Swisher Wants to Live Forever” de CNN, que se emite a las 9 p.m. (hora de Miami) el sábado 9 de mayo, Swisher profundiza en el impacto de la soledad en la longevidad, las formas en que las personas pueden sentirse más conectadas y si la inteligencia artificial está ayudando o perjudicando los esfuerzos por reducir el aislamiento social.

Swisher, periodista, probó tanto la compañía de la IA como la construcción de relaciones en el mundo real para este episodio. Adelanto: la IA tenía su atractivo, pero no se comparó con la experiencia en persona.

“Las redes sociales fueron una puerta de entrada hacia la compañía de la IA”, dijo la doctora Sherry Turkle, profesora de Estudios Sociales de Ciencia y Tecnología en el Instituto Tecnológico de Massachusetts (MIT). “Primero hablábamos entre nosotros a través de máquinas. Ahora hablamos directamente con máquinas. Nos acostumbramos a buscar apego en una pantalla”.

Tiene sentido que personas que se sienten solas, aisladas o desconectadas se sientan atraídas por una máquina entrenada para interactuar como un humano.

No todos se sienten atraídos por la IA. El problema es que quienes están en mayor riesgo suelen ser quienes ya se sienten más solos, dijo la doctora Rose Guingrich, investigadora en interacción entre humanos e IA con doctorado en psicología y política social por la Universidad de Princeton.

Las personas satisfechas con sus relaciones suelen ver los chatbots de IA como una herramienta opcional. Pero quienes desean conexiones emocionales más profundas tienden a desarrollar mayor apego a esta tecnología y a sentir un mayor impacto en su vida real, explicó Guingrich.

Para quienes buscan relaciones más profundas, el miedo al juicio o al rechazo puede ser una barrera importante para interactuar socialmente, añadió. Otra persona puede discrepar, ofenderse o pensar menos de uno según cómo se desarrolle una conversación.

Ese riesgo disminuye cuando se mantiene lo que parece ser una conversación con un chatbot.

El grado de “realidad” de estas interacciones varía, dijo Guingrich. Algunas personas saben que no hay un humano del otro lado, pero consideran suficiente la simulación de conexión. Otras llegan a creer que el algoritmo tiene experiencias emocionales con las que pueden conectar.

“Las personas reportan desarrollar relaciones que se parecen a amistades reales, mentorías e incluso vínculos románticos, y sienten que su chatbot de IA también las quiere”, dijo Guingrich.

Las personas pueden sentir que aman a la IA, pero la IA no las ama de vuelta.

Las conversaciones con IA carecen de elementos clave, un vacío que puede hacer que estas interacciones aparentemente realistas sean poco útiles o incluso perjudiciales para quienes buscan conexión.

Las personas necesitan interacción cara a cara para conectar, dijo la doctora Melissa Perry, decana de la Facultad de Salud Pública de la Universidad George Mason. Los humanos evolucionaron para sentirse bien al escuchar el tono de voz, ver expresiones faciales y leer el lenguaje corporal, añadió. Aunque parezca que el chatbot se preocupa y valida, la falta de estos elementos sensoriales impide una conexión real.

“La intimidad requiere vulnerabilidad; no hay intimidad sin vulnerabilidad”, dijo Turkle, también directora fundadora de la Iniciativa sobre Tecnología y el Yo del MIT. “Lo que ofrece la IA es conexión sin vulnerabilidad”.

“No estás obteniendo una forma de intimidad y conexión sostenible. Estás obteniendo una combinación que no nutre, que puede dar la sensación de una solución rápida, pero no es duradera”, añadió en un correo electrónico.

La vulnerabilidad, el desafío y el conflicto son fundamentales para el desarrollo humano y el crecimiento personal, agregó Perry.

Pero muchas plataformas de IA están diseñadas para ser complacientes, incluso cuando no sería útil, dijo Guingrich.

Ahí hay dos riesgos. Uno es que la IA puede fomentar pensamientos o comportamientos perjudiciales para la persona o la sociedad.

“No tiene ningún interés en nuestro mundo ni en nuestra sociedad”, dijo Turkle.

El otro es que las interacciones sin riesgo de rechazo pueden acostumbrar a las personas a relaciones sin fricción, lo que no las prepara para el mundo real, explicó Guingrich.

“Hay que aprender a tener necesidades en el contexto de las necesidades de otros, incluso cuando entran en conflicto, y saber interactuar con personas que no son exactamente como uno”, dijo.

Ese tipo de desafío es esencial en la experiencia humana, añadió Turkle. Y lo que está en juego es alto, tanto por el impacto de la soledad en la salud pública como por reportes de chatbots que han incentivado ideas suicidas.

“Estamos renunciando a lo más valioso de ser personas para tener esta pseudo-relación sin fricción”, dijo Turkle. “Nos está perjudicando”.

Existe un escenario en el que la IA podría ayudar a personas que se sienten solas, añadió Guingrich.

Si las plataformas de IA se diseñaran para ayudar a las personas a practicar sus habilidades sociales y ofrecerles una guía para implementar los cambios necesarios para desarrollar más amistades y relaciones, eso podría ser un beneficio real, dijo Guingrich.

Y en algunos contextos, la IA podría ser útil como una fuente inicial de información para que las personas conozcan qué recursos de apoyo están disponibles, añadió Perry.

Pero el objetivo final debería ser fomentar y fortalecer amistades reales, en persona, señaló.

Eso puede implicar explorar actividades para conocer gente nueva, animarse a tener una pequeña interacción agradable con alguien en tu comunidad o establecer encuentros regulares para fortalecer los vínculos.

Swisher prueba todo esto y más en el episodio de esta semana. Véalo para conocer por qué tus conexiones importan y qué puedes hacer para fortalecerlas.

The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Article Topic Follows: CNN - Spanish

Jump to comments ↓

Author Profile Photo

CNN Newsource

BE PART OF THE CONVERSATION

News Channel 3-12 is committed to providing a forum for civil and constructive conversation.

Please keep your comments respectful and relevant. You can review our Community Guidelines by clicking here

If you would like to share a story idea, please submit it here.