Intimar con la IA

03/08/2025 04:01
    Un artículo reciente de Harvard Business Review revela que en 2025 ha aumentado el uso de la Inteligencia Artificial como apoyo emocional.

    Semanas atrás se publicó un artículo de Harvard Business Review en el que por segundo año se aborda cuál es el verdadero uso que le estamos dando a la Inteligencia Artificial (IA).

    Los resultados basados en una exploración que tomó información espontánea de usuarios en foros como Reddit y Quora, sugiere que, a diferencia del año pasado en el que los usos eran más asistenciales, en 2025 la tendencia que está creciendo es la interacción con la IA como apoyo emocional.

    Los tres principales usos que coronan el ranking en orden son: 1) Terapia/compañía, 2) Organizar mi vida y 3) Encontrar propósito. El nivel de involucramiento con la IA es variable, la constante es la evolución de este recurso a una dimensión relacional. Conversamos con la IA para compartir nuestros miedos, hacer las preguntas que no nos hemos atrevido hacer en voz alta, buscar comprensión, aliviar la soledad, superar duelos y manejar la incertidumbre.

    Hay personas recurriendo a consejos terapéuticos con su chatbot (algo que no es nuevo), simulando conversaciones difíciles con personas que están vivas o que han muerto o, incluso, teniendo delirios espirituales.

    Sobre esto último existe un hilo del subreddit de ChatGPT titulado “Psicosis inducida por ChatGPT”. La publicación original inició con el testimonio de una maestra de 27 años que narraba cómo su pareja estaba convencida, tan sólo después de interactuar un mes con esta herramienta, de que el chat “le da las respuestas al universo”.

    Al revisar las conversaciones notó que el popular modelo de OpenAI le hablaba a su marido como si fuera el próximo mesías, otorgándole apodos como “caminante del río” y “niño espiral”. “Se emocionaba con los mensajes y lloraba mientras los leía en voz alta”, comentó la mujer en entrevista con Rolling Stone. Esta anécdota pronto abrió una conversación extendida entre muchos usuarios que reportaban historias similares de fantasías místicas, IA como entes iluminados y profecías de las que estaban convencidos familiares y amigos.

    Todo esto se muestra revelador no sólo de la velocidad con la que está evolucionando la masificación de esta tecnología y la curva de aprendizaje que tienen los usuarios -cada vez más exigentes, más comprometidos y sofisticados en sus demandas- sino que nos deja ver una vez más las necesidades más intrínsecas de la naturaleza humana.

    Para abordar esto, pensemos en el espejo. De un lado estamos nosotros y la pregunta principal sería: ¿por qué intentamos humanizar a la IA? La respuesta no es novedosa, la tendencia humana a verse reflejada en otros persiste desde el principio. Somos animales sociales, necesitamos interlocución y validación del otro.

    Y por otra parte, se responde con el creciente vacío existencial que se vive en tiempos de incertidumbre. Después de una pandemia, en albores de guerras que amenazan con escalar y en un mundo globalizado, masificado y paradójicamente aislado, no es tan asombroso que usuarios encuentren en la IA un espacio seguro en el que interactuar buscando reducir su estrés sin sentirse juzgados.

    Marco Eduardo Murueta, doctor en Filosofía, psicólogo y presidente de AMAPSI, refiere que al dejarnos imbuir por la sensación de inhospitalidad del mundo podemos perder instintos (qué hacer) y tradiciones (cómo hacerlo). Señala que necesitamos relaciones satisfactorias que nos anclen y nos ayuden a tener referentes claros para comprendernos. Esta búsqueda de relaciones auténticas es dinámica y sigue evolucionando cuando intentamos experimentar la conexión en la era digital.

    Chatbots como Replika llevan años demostrando exitosamente lo profundo que puede ser desde la perspectiva del usuario, la conexión con un avatar digital. Otros están revolucionando la asistencia en el área de salud mental: Webot, programado con principios de terapia cognitivo-conductual; Karim, diseñado específicamente para ayudar a los refugiados sirios con problemas emocionales, o Therabot, sobre el cual se hizo el primer ensayo clínico de un terapeuta de IA regenerativa con resultados alentadores. Todos hitos interesantes y puertas para polémicas sobre el ejercicio profesional y el riesgo de sustituir al humano terapeuta.

    Pero la realidad es compleja, el acceso a los servicios de atención para la salud mental no siempre están garantizados. La OMS señala que en algunos países el “90 por ciento de las personas con enfermedades mentales graves no recibe ningún tipo de atención” y en muchos casos “los modelos institucionales son obsoletos” y “no se ajustan a las normas internacionales de derechos humanos”. En México, según Zoé Robledo, director general del IMSS, 3 de cada 10 personas sufre de algún trastorno de salud mental a lo largo de su vida, pero más del 60 por ciento no recibe tratamiento.

    Y luego, está el otro lado del espejo: la IA. Al atravesar la ilusión y el hype del momento de aceleración tecnológica, son también válidas preguntas sobre la privacidad y la autonomía: ¿a dónde van estos datos tan profundos y sensibles? ¿Nos puede conocer la IA mejor que nuestros vínculos más cercanos? ¿Qué se hace con este tipo de información, qué tan vulnerables podemos ser frente a su uso? ¿Qué consecuencias a largo plazo puede tener la dependencia relacional con la IA?

    Las interacciones entre humano y máquina siguen transformándose; se basan en la “confianza”, pero realmente estamos lejos de entender el alcance y la capacidad de agencia de esta tecnología inédita a la lógica de cualquier desarrollo previo en la historia de la humanidad.

    Más allá de los temores del momento en el que se pueda anunciar la singularidad, que dividen al público entre futuros distópicos y utópicos, la computación afectiva es una disciplina con más de 25 años de desarrollo que ha trabajado proactivamente para que las máquinas reconozcan cada vez mejor las emociones humanas (lenguaje, reconocimiento de gestos, entonaciones de voz, claves culturales) y generen una respuesta adecuada al respecto. En pocas palabras, pueden simular tener emociones o expresar la idea de empatía e incluso llegar a ser verosímil, pero no están habilitadas para sentirlas.

    El punto es hasta dónde la ilusión es indistinguible de la realidad. Entrenamos a nuestros chatbots a imagen y semejanza de nuestros gustos, curiosidades, narraciones y anhelos, para luego correr el riesgo de ensimismarnos en nuestro reflejo, como lo hizo Narciso. La IA llegó para quedarse y la intimidad es su nuevo territorio de conquista.

    La autora es Ida Vanesa Medina Padrón, estratega en LEXIA (@LexiaGlobal). Comunicadora Social egresada de la UCAB-Venezuela, con experiencia en documentales audiovisuales, periodismo en medios, marketing y trabajo con asociaciones civiles.