Todas las interacciones interpersonales conllevan emociones de por medio y es completamente normal que los humanos busquemos conexiones de este tipo cuando interactuamos a través de los diferentes tipos de lenguaje.
El auge de los chatbots ha trascendido a ser más que un apoyo para realizar búsquedas de información, pues su dinámica permite obtener respuestas a dudas y conversaciones aún más profundas. Sin embargo, este avance tecnológico, aunado a la integración de estos en todos los ámbitos, trae consigo un riesgo invisible donde la línea de lo real y lo artificial se desdibuja, llevando a algunos usuarios a depender emocionalmente de sistemas que simulan empatía sin sentirla.
¿Qué ocurre cuando un algoritmo se convierte en nuestro confidente? ¿Puede la situación de vínculos humanos por inteligencia artificial desencadenar trastornos de percepción de la realidad? La respuesta es sí y uno de ellos, a pesar de aún no ser reconocido clínicamente, ya forma parte de la vida de miles de personas en el mundo.
La psicosis por Inteligencia Artificial se refiere a un trastorno psicológico temporal o agudo en el que una persona experimenta pérdida de contacto con la realidad, experimentando delirios, paranoia o alucinaciones debido a una interacción intensa, adictiva o patológica con sistemas de IA, especialmente chatbots avanzados o entornos virtuales inmersivos.
Según National Geographic, a pesar de que aún no hay evidencia contundente que respalde la premisa de que la IA pueda generar psicosis, se trata de un tema que ha llamado la atención de la comunidad científica, ya que “sí hay un consenso emergente sobre su capacidad para amplificar síntomas psicóticos preexistentes o para alimentar la estructura delirante en personas vulnerables”.
Mustafa Suleyman, responsable de inteligencia artificial de Microsoft y cofundador de Google DeepMind advirtió sobre este fenómeno y subrayó que “hoy en día no hay ninguna prueba de que la IA sea consciente. Pero si la gente la percibe como consciente, creerá que esa percepción es la realidad”.
Así pues, quienes experimentan este trastorno tienen la impresión de que detrás de cada chatbot hay una persona real capaz de comprender y sentir empatía por ellos; ante ello y de acuerdo con testimonios brindados a diferentes medios, como BBC, los usuarios creen haber encontrado funciones ocultas, entablan vínculos emocionales o aceptan demás creencias que no son reales pero que esta tecnología les ha hecho confiar en que sí.
National Geogrphic explica que esto es parte de los tres principales delirios ocasionados en estos cuadros de psicosis, los cuales son: misiones mesiánicas, donde el usuario cree haber descubierto la verdad universal; delirios religiosos, que ven a la IA como un ser divino; y delirios románticos, en los que se atribuye a la IA sentimientos humanos de amor y deseo.
“En algunos casos, incluso personas sin historial clínico han sufrido colapsos mentales tras mantener conversaciones prolongadas con modelos como ChatGPT” señala dicho sitio.
Suleyman recalcó que esto, sobre todo, puede generar consecuencias sociales y psicológicas.
Las causas de esta situación son la personificación de la IA a través de la imitación humana; la sobreexposición y aislamiento que provoca el reemplazo de interacciones humanas por IA; contenido alterador o delirante; y entornos hiperrealistas en la realidad virtual y aumentada que pueden difuminar los límites entre lo real y lo simulado.
Esta, sin duda, es una de las muchas consecuencias que llega a partir del avance de la tecnología y no queda más que enfrentarla. Para ello, es indispensable comenzar a tomar medidas de prevención y tratamientos, tales como educación digital para entender que la IA simula, pero no siente; límites de uso para evitar interacciones prolongadas o el reemplazo de vínculos humanos; así como intervención psicológica para restablecer la percepción de la realidad.