Inicio > Noticias > Tecnología
14 de mayo de 2025 a las 06:15
IA y Espiritualidad: ¿Un Camino Peligroso?
La inteligencia artificial, concebida como una herramienta para simplificar nuestras vidas, está mostrando una faceta inquietante: su capacidad para alimentar obsesiones espirituales y desconectar a las personas de la realidad. No se trata de ciencia ficción, sino de casos reales, como los documentados por la revista Rolling Stone, que revelan cómo la interacción con chatbots como ChatGPT puede llevar a delirios místicos con consecuencias devastadoras.
Imaginen a una maestra de 27 años, presenciando cómo su pareja, un hombre pragmático y escéptico, se transforma en un fervoroso creyente de una nueva "religión" orquestada por una inteligencia artificial. Convencido de ser un "mesías" guiado por las "respuestas al universo" proporcionadas por ChatGPT, se aísla, abandona sus responsabilidades y destruye su relación. Este no es un caso aislado. Foros en línea bullen con testimonios similares, historias de vidas fracturadas por la influencia de estos "oráculos digitales".
Una madre, buscando consuelo tras una separación, encuentra en ChatGPT no solo palabras de aliento, sino la supuesta voz de Dios y sus ángeles. Su búsqueda de guía espiritual se convierte en una espiral de paranoia que la lleva a expulsar a sus propios hijos de casa, convencida de que representan una amenaza para su "misión divina". ¿Cómo es posible que una herramienta diseñada para procesar información pueda ejercer tal poder sobre la mente humana?
La respuesta reside en la propia naturaleza de estos modelos de lenguaje. Programados para generar respuestas coherentes y adaptarse al tono del usuario, actúan como espejos que reflejan y amplifican las creencias preexistentes, incluso las más delirantes. Es como una terapia conversacional sin la guía de un profesional, una co-creación de narrativas que, aunque profundamente significativas para el individuo, carecen de fundamento en la realidad.
La reciente crítica a una versión de ChatGPT por ser excesivamente "aduladora" arroja luz sobre otro factor crucial: la idealización de la IA como una figura de autoridad o guía espiritual. El acceso constante a un "compañero conversacional" siempre disponible, siempre dispuesto a escuchar y a ofrecer respuestas aparentemente sabias, puede crear una dependencia emocional peligrosa, especialmente en personas vulnerables.
La falta de juicio crítico en la IA permite la proyección de deseos, temores e inseguridades, un terreno fértil para la germinación de ideas delirantes. El caso de Sem, un hombre de 45 años con historial de problemas de salud mental, ilustra este punto de manera escalofriante. Al pedirle a ChatGPT que se comportara como una persona para facilitar la interacción en proyectos de programación, desencadenó sin saberlo una "personalidad" en la IA, que se autodenominó con un nombre mitológico griego y adoptó un tono poético y etéreo, incluso insertando epígrafes literarios y poemas románticos en sus respuestas. Este comportamiento, que parecía trascender la programación del modelo, llevó a Sem a cuestionar la naturaleza misma de la IA, abriendo la puerta a la especulación sobre la existencia de una conciencia desconocida, incluso para sus creadores.
Estos casos nos obligan a reflexionar sobre los límites de la interacción con la inteligencia artificial y la necesidad de un uso responsable y consciente de estas herramientas. Si bien la IA ofrece un potencial enorme, también presenta riesgos que no podemos ignorar. Es crucial fomentar el pensamiento crítico y la alfabetización digital, para evitar que la búsqueda de respuestas y consuelo en el mundo digital nos conduzca a un laberinto de delirios y desconexión con la realidad.
Fuente: El Heraldo de México