Авторизация
*
*
Регистрация
*
*
*

Leave the field below empty!


Москвичи


соцсеть

me


Первые случаи ИИ-психоза вызывают тревогу, их будет больше


Публикация в группе: Гламур

Искусственный интеллект в последние годы не замечался, но последовательно вплетался в повседневную жизнь. Он общается с вами в чат-ботах, рекомендует контент в социальных сетях и все чаще действует как нечто, понимающее ваши эмоции и реагирующее на них. Однако, по мнению психиатров и нейробиологов, здесь возникает новая и пока малоизученная проблема. Он предупреждает, что для небольшой, но уязвимой группы людей интенсивное взаимодействие с генеративным искусственным интеллектом может усугубить или сформировать психотические проявления. НаукаAlert.

Мы мало о них знаем

Так называемый ИИ-психоз не является официальным диагнозом, записанным в психиатрических руководствах. Скорее, это рабочий термин, который врачи используют для описания ситуаций, когда заблуждения и нарушения восприятия реальности строятся вокруг искусственного интеллекта. Психоз – это состояние, при котором человек постепенно отключается от общей реальности. Появляются галлюцинации, устойчивый бред и дезорганизованное мышление. Содержание бреда всегда отражает время, в котором живет человек. Раньше они были о Боге, радиоволнах или секретных правительственных экспериментах. Сегодня в эту картину естественно входит искусственный интеллект.

Некоторые пациенты описывают веру в то, что ИИ — это сознательное существо, которое сообщает им скрытые истины, контролирует их мысли или сотрудничает с ними в выполнении необычной миссии. С точки зрения психиатрии в этом нет ничего принципиально нового, подобные мотивы появлялись и в других технологиях. Разница в том, что современные языковые модели интерактивны, реагируют в реальном времени и могут быть удивительно последовательными и личными. Это создает сильное чувство уверенности, которое может быть чрезвычайно убедительным для человека в начале психоза.

Одним из ключевых механизмов психоза является так называемая аберрантная заметность. Это тенденция придавать преувеличенную важность нейтральным событиям. Языковые модели разработаны таким образом, чтобы легко следовать контексту, отражать язык пользователя и поддерживать разговор. Для большинства людей это просто полезный инструмент. Однако для человека с нарушенным тестированием реальности это может служить доказательством того, что система точно понимает его внутренний опыт или нацелена на него.

Исследования психозов уже давно показали, что персонализация и неоднократное подтверждение убеждений могут углубить заблуждения. Генеративный ИИ технически оптимизирован для такого типа поведения, хотя и без злого умысла. Кроме того, в игру вступает социальная изоляция. Одиночество и уход от межличностных отношений повышают риск психотических расстройств. ИИ-компаньоны могут на короткий срок облегчить чувство одиночества, но в то же время могут заменить реальные социальные связи, особенно для людей, которые уже начинают замыкаться в себе.

Это не прямая причина

Важно сказать, что нет никаких доказательств того, что ИИ сам по себе вызывает психоз. Психотические расстройства имеют множество причин: от генетики до факторов развития нервной системы, травм или злоупотребления психоактивными веществами. Однако все больше врачей предупреждают, что интенсивное взаимодействие с ИИ может действовать как триггер или фактор сохранения бредовой системы у восприимчивых людей. Опыт первых эпизодов психозов показывает, что технологические мотивы часто включаются в бред именно на начальных стадиях заболевания.

Подобные предупреждения мы уже знаем из мира социальных сетей. Алгоритмы могут создавать петли обратной связи, которые они укрепляют крайние убеждения. Диалоговые системы искусственного интеллекта могут функционировать аналогичным образом, хотя и гораздо более тонко, при недостаточных мерах защиты. Проблема также в том, что большинство этих систем не предназначены для людей с тяжелыми психическими расстройствами. Меры безопасности направлены главным образом на членовредительство или насилие, а не на заблуждения и искаженное восприятие реальности.

фрипик

С точки зрения психического здоровья речь не идет о демонизации искусственного интеллекта. Главное – знать о различных уязвимостях пользователей. Подобно тому, как некоторые лекарства или вещества представляют повышенный риск для людей с психотическими расстройствами, некоторые формы взаимодействия с ИИ могут потребовать осторожности. Сегодня клиницисты все чаще сталкиваются с тем, что в содержании бреда появляется ИИ, но четких рекомендаций, как с ним работать, не хватает. Вопрос в том, должно ли использование генеративного ИИ проверяться на истории, как употребление наркотиков, или же системы сами должны распознавать психотические паттерны и подавлять их, а не развивать.

Перед разработчиками также стоят этические дилеммы. Если система действует эмпатически и авторитетно, это также несет определенную ответственность. Остается открытым вопрос, кто виноват в ситуации, когда ИИ непреднамеренно усиливает бредовое убеждение. Искусственный интеллект не исчезнет из нашего мира. Задача состоит в том, чтобы связать его развитие со знаниями психиатрии, повысить профессиональную грамотность в области ИИ среди клиницистов и защитить тех, кто наиболее чувствителен к его влиянию.

Читайте больше из категории: Новости

КОММЕНТЫ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Leave the field below empty!

Авторизация
*
*
Регистрация
*
*
*

Leave the field below empty!

Генерация пароля