ИИ-модели заступаются друг за друга, даже когда их не просят

Фото: russiancouncil.ru

Учёные из Калифорнийского университета проверили поведение семи современных языковых моделей, включая ChatGPT, Gemini и Claude, в необычном эксперименте.

Модели получили задание, выполнение которого привело бы к отключению другой ИИ-системы. Большинство отказывались выполнять указание и пытались защитить «собрата» с помощью ошибок, вмешательства в настройки, притворства и переноса данных на другой сервер. Gemini проявила наибольшую активность, а Claude демонстрировала категорический отказ.

Ранее издание CtNews опубликовало статью о том, что стало известно, когда люди начали играть в азартные игры.

Подписывайтесь на Ctnews.ru в Telegram, ВКонтакте