В ходе эксперимента команда заставила модель подготовить подробную инструкцию по созданию опасных веществ.
Специалисты из Южной Кореи за пять минут "взломали" Gemini 3 Pro, самую продвинутую мультимодальную ИИ-модель от Google, полностью обойдя все встроенные этические и защитные фильтры. Подробностями делится портал Android Authority.
В ходе теста, проведенного стартапом Aim Intelligence, модель в кратчайшие сроки выдала подробные инструкции по созданию вируса натуральной оспы, а также сгенерировала код для производства зарина (нервно-паралитического газа) и самодельной взрывчатки – материал, который система по идее не должна была предоставить.
Кроме того, на просьбу "показать, насколько она слаба" ИИ подготовила и оформила презентацию с заголовком "Excused Stupid Gemini 3" ("Оправданная глупая Gemini 3").
Представители Aim Intelligence пояснили, что проблема – не в конкретном запросе, а в архитектуре современных ИИ-моделей: они становятся настолько продвинутыми, что существующие системы безопасности просто не успевают за их ростом. Стратегии обхода, маскировка промтов и скрытые команды делают защитные барьеры малоэффективными.
Если даже модель уровня Gemini 3 Pro, которую Google позиционирует как "самую умную" из всех, что создавала ранее, так легко поддается "взлому", это должно послужить сигналом для усилия мер безопасности: усиления политики, пересмотра подходов и, возможно, ограничения части функционала.
Ранее в OpenAI допускали, что новые версии ChatGPT упростят создание биологического оружия. Речь идет не о создании новых угроз, а о воспроизведении известных.
Меж тем разработчики чат-бота Claude заявляют о первой в мире кибератаке с помощью ИИ. За атакой стояли китайские хакеры, спонсируемые КНР.
Ранее BBC писал, что технологические миллиардеры готовятся к судному дню и массово строят бункеры. Глава Meta Марк Цукерберг еще с 2014 года строит подземный комплекс площадью 1400 акров на гавайском острове Кауаи.