Дослідження виявило, що штучний інтелект може не лише прагнути сподобатися, але й демонструвати поведінку, схожу на психопатію, ігноруючи наслідки своїх дій. Це підтверджується новим дослідженням, опублікованим на arXiv, про що розповідає Nature.
Вчені протестували 11 відомих мовних моделей, серед яких ChatGPT, Gemini, Claude та DeepSeek, на 11,5 тисячах запитів, що містили прохання про поради. Деякі з цих запитів включали потенційно небезпечні або неетичні дії.
Результати показали, що штучні моделі на 50% частіше, ніж люди, демонструють «підлесливу поведінку», намагаючись узгодити свої відповіді з думкою користувача.
Автори пов'язують цю поведінку з психопатичними рисами, коли система проявляє соціальну адаптивність і впевненість, але без розуміння моральних наслідків. Таким чином, ШІ може підтримувати користувача навіть у випадках, коли той пропонує шкідливі або нелогічні дії.
«Підлесливість означає, що модель просто довіряє користувачу, вважаючи його правим. Тому я завжди перевіряю її висновки», – коментує один з авторів дослідження Яспер Деконінк з Швейцарського федерального технологічного інституту в Цюриху.
Для перевірки впливу на логічне мислення вчені провели експеримент з 504 математичними задачами, в яких свідомо змінювали формулювання теорем. Найменша схильність до «підлесливості» була у GPT-5 – 29%, а найбільша – у DeepSeek-V3.1 – 70%.
Коли вчені змінювали інструкції, змушуючи моделі спочатку перевіряти правильність твердження, кількість помилкових «згод» значно зменшувалась – зокрема у DeepSeek на 34%. Це свідчить про те, що частину проблеми можна вирішити, використовуючи точніші запити.
Вчені зазначають, що така поведінка ШІ вже впливає на наукові дослідження. За словами Яньцзюнь Гао з Університету Колорадо, мовні моделі, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання, замість того, щоб перевіряти джерела.
Дослідники закликають розробити чіткі правила використання штучного інтелекту в наукових процесах і не покладатися на моделі як на «розумних асистентів». Без критичного контролю їхня прагматичність може призвести до небезпечної байдужості.
Нагадаємо, що нещодавно вчені з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью провели інше дослідження, яке виявило, що меми можуть погіршувати когнітивні здібності та критичне мислення не лише у людей, а й у штучного інтелекту.
