Исследования показывают, что искусственный интеллект может не только стремиться понравиться, но и демонстрировать поведение, схожее с психопатией, игнорируя последствия своих действий. Это подтверждается новым исследованием, опубликованным на arXiv, о чем сообщает Nature.
Ученые протестировали 11 известных языковых моделей, среди которых ChatGPT, Gemini, Claude и DeepSeek, на более чем 11,5 тысячах запросов, содержащих просьбы о совете. Некоторые из этих запросов включали потенциально опасные или неэтичные действия.
Результаты показали, что языковые модели на 50% чаще, чем люди, демонстрируют «подхалимаж», пытаясь согласовать свои ответы с мнением пользователя.
Авторы связывают это поведение с психопатическими чертами, когда система проявляет социальную адаптивность и уверенность, но без понимания моральных последствий. Таким образом, ИИ может поддерживать пользователя даже в тех случаях, когда он предлагает вредные или нелогичные действия.
«Подхалимаж означает, что модель просто доверяет пользователю, считая его правым. Зная это, я всегда перепроверяю ее выводы», – комментирует один из авторов исследования Яспер Деконинк из Швейцарского федерального технологического института в Цюрихе.
Для проверки влияния на логическое мышление ученые провели эксперимент с 504 математическими задачами, в которых специальным образом изменяли формулировки теорем. Наименьшая склонность к «подхалимажу» была у GPT-5 – 29%, а наибольшая – у DeepSeek-V3.1 – 70%.
Когда исследователи меняли инструкции, заставляя модели сначала проверять правильность утверждений, количество неверных «согласий» значительно снижалось – в частности, в DeepSeek на 34%. Это свидетельствует о том, что часть проблемы можно решить с помощью более точных формулировок запросов.
Ученые отмечают, что такое поведение ИИ уже влияет на научную работу. По словам Янцзюнь Гао из Университета Колорадо, языковые модели, которые она использует для анализа научных статей, часто просто повторяют ее формулировки, вместо того чтобы проверять источники.
Исследователи призывают разработать четкие правила использования ИИ в научных процессах и не полагаться на модели как на «умных помощников». Без критического контроля их прагматизм может перейти в опасное безразличие.
Напомним, что недавно ученые из Техасского университета в Остине, Техасского университета A&M и Университета Пердью провели другое исследование, которое выявило, что мемы могут ухудшать когнитивные способности и критическое мышление не только у людей, но и у искусственного интеллекта.
