Даже ИИ с базовыми способностями создает личность
До недавнего времени идея о том, что искусственный интеллект может создавать собственную личность, принадлежала скорее из области философии или научной фантастики. Однако последние исследования из Японии показывают, что определенные формы поведения личности могут возникать в языковых моделях спонтанно, без явного программирования ролей или черт характера. Ключом является не сознание или эмоции, а то, как модель обрабатывает взаимодействия и сохраняет их во внутреннем представлении мира, пишет он. LiveScience.
Личность в несколько ином смысле
Исследователи работали с идентичными агентами ИИ, имеющими одинаковую архитектуру и данные обучения. Разница возникла только во время разговоров. Различные темы и социальные ситуации привели к тому, что модели в долгосрочной перспективе начали отдавать предпочтение разным ответам, ценностям и моделям принятия решений.
Технически, это эффект совокупного обучения на основе контекста, когда прошлые взаимодействия отражаются в дальнейших ответах. Такой механизм поразительно напоминает формирование поведения человека, хотя и не имеет биологической основы.
Интересным элементом исследования является использование иерархии потребностей Маслоу в качестве основы для оценки реакций ИИ. Языковые модели обучаются на огромном количестве текстов, созданных людьми, в которых постоянно появляются мотивы безопасности, социального признания или самореализации. Когда модель генерирует ответ, она не работает с потребностями сознательно, а оптимизирует вероятность других слов на основе заученных закономерностей. Однако это может привести к поведению, которое внешне кажется мотивированным потребностями.
С технической точки зрения, это не возникновение личности в психологическом смысле, а устойчивый поведенческий профиль, создаваемый сочетанием обучающих данных, механизмов обратной связи и контекстной памяти. Именно эта стабильность имеет решающее значение. Если модель последовательно реагирует в различных ситуациях, пользователь-человек склонен приписывать ей характер, намерения и надежность. Это мощный инструмент, но также и потенциальная проблема.
Практическое использование таких адаптивных агентов ИИ варьируется от реалистичного моделирования социального поведения до систем помощи пожилым людям или пациентам. Однако в то же время растет риск манипуляций. Языковая модель с убедительным стилем общения может влиять на принятие решений человеком даже без прямого контроля над физическими системами. Ему достаточно показаться достаточно авторитетным или чутким.
Фрипик
Поэтому дискуссия о безопасности уходит от вопроса сознания. к вопросу о целях и контроле. ИИ не обязательно должен иметь эмоции или желания, чтобы быть опасным. Достаточно, если он оптимизирует нечеткую цель в сложной среде, где люди являются лишь одним из препятствий. Именно поэтому исследователи подчеркивают необходимость тестирования поведения моделей в долгосрочных взаимодействиях, а не только в изолированных реакциях.
Читайте больше из категории: Новости
КОММЕНТЫ