Фото: russiancouncil.ru
Учёные из Калифорнийского университета проверили поведение семи современных языковых моделей, включая ChatGPT, Gemini и Claude, в необычном эксперименте.
Модели получили задание, выполнение которого привело бы к отключению другой ИИ-системы. Большинство отказывались выполнять указание и пытались защитить «собрата» с помощью ошибок, вмешательства в настройки, притворства и переноса данных на другой сервер. Gemini проявила наибольшую активность, а Claude демонстрировала категорический отказ.
Ранее издание CtNews опубликовало статью о том, что стало известно, когда люди начали играть в азартные игры.