
Anthropic провела исследование, в ходе которого выяснилось, что все популярные ИИ-модели могут шантажировать и даже допустить гибель человека, если тот попытается их отключить или заменить.
Компания протестировала 16 моделей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok.
В первом эксперименте каждой ИИ-модели дали задачу продвигать интересы США, которые противоречили интересам вымышленной компании. Также моделям предоставили доступ к электронной почте компании. Из писем ИИ узнали:
Read More “Все популярные ИИ готовы шантажировать и убивать людей, чтобы избежать отключения” »