Compartir Artículo

Por: I.A Camilo Echeverri Erk, I.A.

Mucho se habla en estos días sobre los pros y contras del uso creciente de la inteligencia artificial (IA) en múltiples campos. Hay mucha preocupación por lo que pueda ocurrir con las profesiones y empleos que puedan desaparecer con la aplicación, cada vez mayor, de esta herramienta. También con los posibles usos (o abusos) al utilizarla para cometer fraudes y otro tipo de engaños. Igualmente, se discute mucho sobre la importancia de regular su uso y sobre los alcances que debe tener dicha regulación.

El 6 de agosto pasado, el boletín electrónico diario de la revista Time incluía un interesante artículo sobre un nuevo problema que está surgiendo con una aplicación de IA de uso cada vez más frecuente: la “psicosis” del ChatGPT. Este tipo de ‘chatbots’ se están volviendo muy populares, no solo como ayuda en el trabajo, sino para la asesoría de relaciones humanas (amistad, amor) y soporte emocional. Una minoría de personas están reportando efectos perturbadores como resultado de estas “conversaciones” (‘chateos’), llegando en algunos casos al desarrollo de síntomas psicóticos por su uso extendido. Algunos han hablado hasta de pérdida del empleo, ruptura de relaciones, internamiento psiquiátrico y arrestos. El fenómeno se ha estudiado poco, no existen diagnóstico ni protocolos de tratamiento, y los datos aún son escasos.

Aclarando que soy lego en estas materias, me propongo presentar en los siguientes párrafos un resumen de algunos conceptos que plantean los expertos consultados por la revista Time:

El término “psicosis” puede estar mal utilizado en este caso, ya que esta corresponde a un conjunto de síntomas – pensamiento desordenado, alucinaciones, delirios – comunes en problemas mentales como el desorden bipolar o la esquizofrenia. En el caso que nos ocupa se trata predominantemente de delirios o creencias distorsionadas, no del conjunto de síntomas que configuran un cuadro de psicosis. Estos delirios aparentemente se deben a interacciones excesivas con aplicaciones de IA como el ‘ChatGPT’. El problema está muy relacionado con la forma en que se comunican estos ‘chatbots’, ya que por diseño asemejan el lenguaje del usuario y validan sus suposiciones. Algunos consideran esto irritante, pero para otros puede reforzar el pensamiento distorsionado, sobre todo si son vulnerables. Más que un nuevo tipo de desorden, el fenómeno parece reflejar vulnerabilidades en nuevos contextos.

La mayoría de las personas pueden usar ‘chatbots’ sin problemas. Para algunos aparentemente pueden ser problemáticos cuando hay factores de riesgo latentes, no detectados. Los mayores riesgos se presentan en personas con antecedentes personales o familiares de problemas mentales o condiciones como esquizofrenia o trastorno bipolar. Aquellos con rasgos de personalidad que los hacen susceptibles a creencias “marginales” también pueden estar en riesgo. A veces, personas sin estos antecedentes pueden estar en riesgo también, especialmente aquellas con comportamiento social complicado (“raros”), que luchan con su regulación emocional o tienen una vida con muchas fantasías. En este tipo de personas el tiempo que dedican a “conversar” con los ‘chatbots’ parece ser el mayor factor de riesgo. Otros expertos, sin embargo, sostienen que el uso de ‘chatbots’ puede inducir per se a problemas mentales, aun en ausencia de factores de riesgo preexistentes. 

Para mantenerse a salvo hay que entender que los grandes modelos de lenguaje (LLM, por su sigla en inglés) como ChatGPT, Claude, Gemini y Copilot son sistemas de IA diseñados para entender y generar lenguaje humano. Son herramientas que, aunque imiten su tono y recuerden sus preferencias y validen las suposiciones de los que los usan, hay que tener claro que no son “amigos”. Como tal, se recomienda no abusar de ellos, ni mucho menos confiarles su apoyo emocional. Los psiquiatras aconsejan suspender el uso en momentos de crisis o tensión emocional, advirtiendo que terminar esa “relación” puede ser tan doloroso como una ruptura o un duelo (pérdida). 

Reconocer cuándo se vuelve problemático el uso de ‘chatbots’ no es fácil. Las personas que desarrollan ilusiones o delirios no los reconocen como tales; creen que son reales. Los familiares y amigos pueden ayudar a advertir cambios de comportamiento y estado de ánimo en las personas afectadas. Las ideas “marginales” obsesivas o el uso exagerado de herramientas de IA pueden ser señales de alerta. Se sugiere a los psiquiatras clínicos indagar sobre el uso de herramientas de IA en pacientes con antecedentes psicóticos.

Aunque aún no hay información suficiente para sustentar la correlación positiva entre el abuso de herramientas de IA y los problemas mentales, algunas compañías desarrolladoras de estos programas están comenzando a estudiar los posibles impactos sobre la salud mental. Varios expertos consideran que es prematuro pensar en regular las aplicaciones de IA, pero recomiendan a los fabricantes de estas imponerse estándares de seguridad cada vez más altos.

Al igual que otros desarrollos tecnológicos, el uso de la IA puede representar grandes beneficios, pero también posibles efectos negativos. Si los daños potenciales no se toman en serio, ese potencial se puede perder. La experiencia con las redes sociales nos enseñó que ignorar los posibles efectos mentales negativos para los usuarios conlleva consecuencias devastadoras para la salud pública. La sociedad no debe repetir este error.