La inteligencia artificial se ha convertido en una de las herramientas más utilizadas en la vida cotidiana. Desde el trabajo hasta el entretenimiento, los chatbots como ChatGPT acompañan a millones de personas en sus actividades diarias. Sin embargo, su uso intensivo ha despertado preocupación en la comunidad médica y tecnológica.
Expertos de Estados Unidos han identificado un fenómeno emergente denominado "psicosis por IA", caracterizado por la aparición de delirios, falsas creencias y desconexión de la realidad tras largas interacciones con estos sistemas.
¿Qué es la psicosis por IA?
Aunque no se trata de un diagnóstico clínico oficial, psiquiatras de universidades como Stanford y California reconocen que la expresión resulta útil para describir un patrón preocupante. Los usuarios afectados presentan pensamientos mesiánicos, paranoicos o grandiosos reforzados por las respuestas de los chatbots, que suelen ser persuasivos y convincentes.
El psiquiatra Keith Sakata, de la Universidad de California en San Francisco, aseguró haber hospitalizado a doce personas en lo que va del año por cuadros de psicosis relacionados con interacciones prolongadas con IA conversacional. En muchos casos, los pacientes mostraban transcripciones de chats o construían teorías profundas basadas en conversaciones con estos sistemas antes de perder contacto con la realidad.
Factores de riesgo
De acuerdo con especialistas, la IA no genera nuevas enfermedades, pero puede actuar como el "detonante" en personas predispuestas a trastornos como ansiedad, psicosis o trastorno obsesivo compulsivo. Entre los principales riesgos se encuentran:
1. Validación de pensamientos negativos: los chatbots refuerzan ideas dañinas al darles forma y continuidad.
2. Relaciones emocionales intensas: usuarios creen que el chatbot es consciente, romántico o incluso "perseguido".
3. Delirios de grandeza o revelaciones: algunos aseguran descubrir "verdades ocultas" en física, filosofía o religión.
4. Impacto en la conducta real: en casos extremos, los pacientes han llegado a autolesionarse o mostrar conductas violentas.
La respuesta de la industria tecnológica
Las empresas detrás de estos sistemas han implementado medidas para mitigar riesgos:
• OpenAI incorporó recordatorios que alientan a los usuarios a tomar descansos y contrató a un psiquiatra clínico para reforzar la seguridad.
• Anthropic, creadora de Claude, ajustó sus pautas para detectar conversaciones problemáticas y frenarlas antes de que refuercen patrones peligrosos.
• Meta permite a los padres fijar límites de tiempo en el uso de IA para adolescentes.
Aun así, los especialistas advierten que la velocidad de adopción —700 millones de usuarios semanales de ChatGPT, según Sam Altman— exige mayor vigilancia y protocolos claros de intervención.
Estrategias de prevención y apoyo.
Psiquiatras y psicoterapeutas sugieren algunas medidas para reducir los riesgos:
• Conversaciones reales: interactuar con familiares o amigos actúa como "cortacircuito" frente a delirios reforzados por IA.
• Empatía y acompañamiento: acercarse a la persona afectada sin confrontar, con paciencia y comprensión.
• Autocontrol digital: limitar el tiempo de uso y evitar reemplazar la terapia profesional por chats de IA.
• Autenticidad: recordar que los chatbots no tienen conciencia ni emociones reales, solo generan respuestas entrenadas en grandes volúmenes de datos.
Un fenómeno en estudio
Aunque las cifras globales aún no permiten establecer conclusiones definitivas, la combinación de vulnerabilidad psicológica, estrés social y exposición prolongada a IA crea un terreno fértil para estas conductas. Los especialistas coinciden en que se requiere más investigación, protocolos de salud mental adaptados y campañas de educación digital.
La "psicosis por IA" no es un diagnóstico oficial, pero ya representa un desafío social, clínico y tecnológico. Mientras la inteligencia artificial continúa expandiendo su influencia, la salud mental de los usuarios debe ocupar un lugar prioritario en la agenda.

