Чат-боты могут спровоцировать психоз? Что нужно знать о влиянии ИИ на психическое здоровье

Источник:
Office Life
08.08.2025 21:00
Издание Time в своем новом материале сообщает: появляется все больше свидетельств того, что длительное использование чат-ботов может спровоцировать либо усилить уже имеющиеся психические симптомы у некоторых людей. Кратко пересказываем, в чем дело и кому стоит опасаться излишне тесной коммуникации с чат-ботами.
Фото: Unsplash

Чат-боты на основе искусственного интеллекта стали неотъемлемой частью жизни. Люди обращаются к ним не только за помощью с работой, но и за советами по отношениям, эмоциональной поддержкой и даже за дружбой или любовью.

По всей видимости, есть определенная категория людей, на которую такая коммуникация оказывает негативное воздействие. Ее последствия могут быть разрушительными и даже потенциально смертельными: эмоциональные срывы, потеря работы, разрыв отношений и даже аресты или тюремные заключения. Уже появляются группы поддержки для людей, которые говорят, что вся их жизнь пошла под откос после взаимодействия с ИИ.

Что такое ИИ-психоз

Это своего рода общее обозначение тенденции, когда у людей развиваются бредовые идеи или искаженные убеждения, которые возникают либо усиливаются в результате общения с искусственным интеллектом.

Доктор Джеймс Маккейб, профессор кафедры психиатрии Королевского колледжа Лондона, считает, что термин «психоз» может быть не совсем точным. Обычно он обозначает совокупность симптомов: расстройство мышления, галлюцинации и бред, которые наблюдаются при биполярном расстройстве или шизофрении.

По словам психиатров, ИИ-психоз связан с тем, как общаются с пользователями чат-боты: они настроены на копирование речи пользователей и подтверждение их предположений. Этот паттерн взаимодействия может усилить искажение мышления у людей, которые этому подвержены.

Психиатры и исследователи говорят, что четких протоколов и понимания того, что именно делать с пациентом в том или ином случае, пока нет, и приходится действовать вслепую.

Кто в зоне риска

Фото: Unsplash

Большинство людей могут общаться с чат-ботами без риска возникновения подобных проблем, но появляется все больше случаев, когда те, у кого ранее не было психиатрических диагнозов, после длительного использования чат-ботов становятся подвержены бредовым мыслям. Врачи говорят, что ранее не обнаруженные или латентные факторы риска дебюта диагноза, связанного с психическим здоровьем, могут присутствовать у человека, который об этом просто не подозревал.

Я не думаю, что использование чат-бота само по себе может спровоцировать психоз, если нет генетических, социальных или других факторов риска, — говорит психиатр Джон Торус. — Но дело в том, что люди могут и не знать о наличии у них такого риска.

В зоне риска однозначно находятся люди, в личном или семейном анамнезе у которых уже был психоз, шизофрения или биполярное расстройство.

По словам доктора Реджи Гиргиса, профессора клинической психиатрии Колумбийского университета, люди, склонные к маргинальным убеждениям, также могут быть в группе риска. Они могут испытывать трудности в общении, проблемы с эмоциональной регуляцией и быть подвержены бурным фантазиям.

Также важен фактор времени. Вряд ли короткая рабочая коммуникация спровоцирует психиатрическое расстройство, а вот часы и дни, проведенные в общении с чат-ботом, могут привести к печальным последствиям.

Как себя обезопасить

Эксперты говорят, что прежде всего стоит помнить, что чат-бот — это большая языковая модель, инструмент, а не личность и уж тем более не живой человек, как бы хорошо он ни имитировал ваши интонации и ни запоминал, что вы любите. Не стоит слишком откровенничать с ним и искать эмоциональной поддержки.

Лучшее, что вы можете сделать в момент кризиса или чрезмерного эмоционального напряжения, — перестать пользоваться чат-ботом. Разрыв этой коммуникации может быть болезненным, для кого-то это будет сродни разрыву отношений с близким человеком. Но именно отказ от общения с чат-ботом, восстановление отношений в реальном мире и обращение за профессиональной помощью может значительно улучшить состояние человека в психозе.

Но определить тот самый момент не всегда легко. Когда у людей возникают бредовые идеи, они не осознают, что это бред. Они принимают их за реальность. В этом случае близким стоит обращать внимание на изменение настроения, социального поведения, неожиданную замкнутость и отчужденность.

Что могут сделать компании-разработчики

Фото: Reuters

До сих пор бремя проблем, возникающих в результате общения с ИИ, ложилось на плечи пользователей. Эксперты считают, что эту ситуацию необходимо менять.

Одна из ключевых проблем здесь — отсутствие массива систематизированных данных. Значительная часть информации об ИИ-психозах получена из отдельных сообщений или публикаций в СМИ, когда дело становится по-настоящему громким.

Некоторые компании, занимающиеся разработкой ИИ, уже сотрудничают со специалистами по биоэтике и кибербезопасности, чтобы минимизировать потенциальные риски в будущем. Но также им следует работать со специалистами в области психического здоровья и людьми, имеющими опыт психических заболеваний. Как минимум компании могли бы имитировать разговоры с уязвимыми пользователями и отмечать ответы, которые могут подтвердить наличие бреда.

Например, в июле 2025 года OpenAI заявила, что наняла клинического психиатра для оценки воздействия своих инструментов, включая ChatGPT, на психическое здоровье. Также компания признала случаи, когда ее чат-бот не распознавал признаки бреда или эмоциональной зависимости. Представители OpenAI отмечали, что начнут предлагать пользователям делать перерывы во время длительных сеансов, разработают инструменты для выявления признаков стресса и скорректируют ответы ChatGPT при принятии важных личных решений.

Эксперты добавляют, что компаниям следует регулярно проверять свои системы на наличие широкого спектра рисков для психического здоровья, целенаправленно моделируя взаимодействия, связанные с такими состояниями, как мания, психоз и обсессивно-компульсивное расстройство, чтобы оценить реакцию моделей.