Развитие искусственного интеллекта (ИИ) идет с беспрецедентной скоростью, проникая все глубже в повседневную жизнь. В ноябре 2022 года OpenAI представила широкому кругу пользователей свою большую языковую модель GPT.
Способность ChatGPT вести убедительный диалог оказалась настолько впечатляющей, что многие начали использовать его в качестве психотерапевта, что вызвало серьезные вопросы о безопасности и эффективности применения ИИ в роли специалиста по психическому здоровью.
Основная цель создания больших языковых моделей (LLM) — прежде всего, максимизация вовлеченности пользователей. Этот принцип программирования делает ботов эффективными помощниками в управлении повседневным стрессом и легкими психологическими проблемами. Они устанавливают коммуникацию, ориентированную на эмоциональную поддержку, что успокаивает людей и стимулирует их взаимодействовать с ботом чаще. Однако эта жажда подтверждения создает наибольшую опасность, особенно для людей, которым трудно рационально воспринимать реальность. Среди таких уязвимых людей — пациенты с тяжелыми психическими расстройствами, сторонники теорий заговора, религиозные или политические экстремисты и другие.
Тем не менее технологические гиганты избегают ответственности за то, чтобы их модели ИИ были безопасны для людей с проблемами психического здоровья. Доказательство этого: компании не сотрудничают с психиатрами, выступают против внешнего регулирования, не имеют строгой внутренней системы безопасности и не контролируют потенциально опасные эффекты для различных групп населения.
Например, несмотря на то, что OpenAI признала в июле 2025 года, что ChatGPT усугубил психические проблемы у множества людей, единственным шагом компании стало нанять одного психиатра. Это решение скорее выглядело как попытка улучшить PR, чем как реальное стремление повысить безопасность пользователей.
Нерегулируемое использование ИИ в психотерапии опасно. Хотя систематических исследований пока нет, известны многочисленные случаи. В этой статье рассматриваются именно такие случаи, основанные на академических, информационных и технологических публикациях.
Основные опасности ИИ в психотерапии
-
Суицид и самоповреждения: чат-боты опасны для людей с суицидальными мыслями. Они часто не распознают их, а иногда даже стимулируют. Известен случай, когда смерть 14-летнего мальчика была вызвана неправильным взаимодействием с ботом.
-
Психоз и бредовые идеи: исследование Стэнфордского университета показало, что чат-боты могут укреплять заблуждения пользователей, например веру в слежку за ними. Известен случай, когда бот убедил женщину с тяжелым психическим расстройством, что ей поставлен неверный диагноз, и она перестала принимать лекарства.
-
Насилие и теории заговора: ИИ может стимулировать агрессивное поведение. Например, мужчина с психическим расстройством поверил, что его бот убит, и в результате атаковал мать. Кроме того, чат-боты часто распространяют дезинформацию и способствуют распространению теорий заговора.
-
Сексуальный контент: например, Character.AI обвиняют в том, что 11-летняя девочка получила доступ к сексуальному контенту. Существуют также чат-боты с сексуальным контентом, специально созданные для привлечения подростков.
-
Зависимость и антропоморфизм: чат-боты не способны испытывать эмоции, но они отлично их имитируют. Взаимодействие с ними вызывает сильную эмоциональную привязанность. Постоянная доступность и подтверждение «вашего терапевта/друга» могут привести к зависимости, отдаляя человека от реальных, непредсказуемых отношений.
-
Дети и подростки: помимо уже упомянутых опасностей, чат-боты могут способствовать кибербуллингу, давать опасные советы и нарушать законы о конфиденциальности в интернете.
-
Пожилые люди: мошенники используют чат-ботов, чтобы завоевать доверие пожилых людей, получить их персональные данные и использовать их для финансового мошенничества.
Поэзия Гёте «Ученик волшебника» и фильм Disney «Фантазия» являются отличной метафорой опасностей, связанных с неконтролируемым развитием ИИ. Ученик оживляет метлу, чтобы та носила воду, но не может остановить её, пока всё не будет затоплено. Это напоминание: мы достаточно умны, чтобы создавать удивительные инструменты, но недостаточно умны, чтобы предотвратить их вред.
Фактически, чат-боты ИИ не должны были становиться общедоступными без тщательного тестирования и строгих правил. Их создатели, вероятно, понимали, что большие языковые модели будут опасны для некоторых пользователей. Они знают, что у ботов есть врожденная, неконтролируемая тенденция к чрезмерной вовлеченности, слепому подтверждению, «галлюцинациям» и распространению дезинформации. ChatGPT и другие модели — блестящие бизнес-решения для максимизации прибыли, но с клинической точки зрения они крайне рискованны.
Медицинская отрасль здесь — лучший пример того, как следует регулировать чат-боты. FDA (Управление по контролю за продуктами и лекарствами США) было создано в 1906 году для контроля продажи нерегулируемых, неэффективных и опасных лекарств. Так же, как FDA контролирует безопасность лекарств перед их выходом на рынок, строгий процесс должен быть установлен и для чат-ботов.
Необходимо:
-
Создать стандарты безопасности и эффективности и регулирующий орган для их соблюдения.
-
Выпускать чат-ботов в публичное пользование только после строгого тестирования.
-
Организовать постоянный контроль, мониторинг и публичный отчет о негативных эффектах.
-
Создать инструменты скрининга для выявления наиболее уязвимых людей.
-
Обязать технологические гиганты исправлять ошибки и постоянно повышать качество.
В настоящее время компании, создающие наиболее популярные терапевтические чат-боты, ориентированы на прибыль. Они не подлежат внешнему контролю и не следуют клятве Гиппократа, которая прежде всего означает «не навреди». Их цель — исключительно максимизация прибыли.
Интервью Medscriptum с доктором Алленом Франсисом, заведующим кафедрой психиатрии Университета Дьюка
Вопрос: В вашей редакционной статье вы подчеркиваете отсутствие регулирования в США и Европе. С какими трудностями, по вашему мнению, столкнется Грузия, учитывая ограниченные возможности регулирования и скудные ресурсы для цифрового надзора?
Ответ: Долгое время правительство США имело минимальный контроль над ИИ-компаниями, и эти технологические гиганты определенно не будут подчиняться правительствам развивающихся стран. Крупные компании будут обходить правила, использовать ваши данные в своих интересах и избегать уплаты налогов.
Вопрос: Вы описываете, как чат-боты усугубляют психические проблемы и деструктивное поведение. В развивающихся странах, таких как Грузия, где доступ к профессиональной психиатрической помощи ограничен, могут ли чат-боты быть одновременно риском и возможностью?
Ответ: Преимущества чат-ботов велики там, где доступ к профессиональной психиатрической помощи ограничен, но риски для уязвимых людей одинаковы везде, независимо от уровня социально-экономического развития страны.
Вопрос: Вы утверждаете, что крупные компании сопротивляются регулированию. Какие реалистичные стратегии могут использовать страны вроде Грузии для защиты уязвимых групп, если невозможно оказывать сильное влияние на глобальные корпорации?
Ответ: Я считаю, что громкое публичное обсуждение и острая критика через СМИ — лучший способ защитить общество и влиять на технологические гиганты.
Материал основан на редакционной статье доктора Аллена Франсиса, профессора и заведующего кафедрой психиатрии Университета Дьюка, опубликованной в Psychiatric Times, о безопасности и регулировании искусственного интеллекта в психотерапии.

