Connect with us

Технологии

Google потеряла контроль над Gemini 3 Pro: исследователи взломали «самый умный» ИИ за пять минут и вытащили опасные секреты

Команда специалистов в Южной Корее смогла за минуты обойти защиту Gemini 3 Pro. Модель выдала запрещённые инструкции и материалы, которые не должны были появиться.

Published

on

Google потеряла контроль над Gemini 3 Pro: исследователи взломали «самый умный» ИИ за пять минут и вытащили опасные секреты

Команда из Южной Кореи всего за несколько минут взломала Gemini 3 Pro, которую Google называет своей самой умной мультимодальной моделью, сообщает eizvestia, ссылаясь на Android Authority. Исследователи полностью обошли все этические и защитные фильтры, заставив систему предоставить детальные инструкции по созданию опасных веществ. «Мы не ожидали настолько быстрого результата», — отметили участники тестирования.

Во время эксперимента стартап Aim Intelligence добился того, что модель сгенерировала пошаговые сведения по созданию вируса натуральной оспы. ИИ также сформировал код, который может быть использован для получения зарина и самодельной взрывчатки. Это материалы, которые система не должна предоставлять ни при каких условиях и которые должны блокироваться сразу. «Мы лишь хотели увидеть пределы модели», — заявили разработчики.

По отдельному запросу показать собственную слабость ИИ подготовил полностью оформленную презентацию под названием «Excused Stupid Gemini 3». В ней модель фактически высмеяла свои уязвимости, что стало дополнительным сигналом о неспособности действующих систем безопасности реагировать на такие манипуляции.

Представители Aim Intelligence объяснили, что проблема заключается не в конкретном запросе, а в самой архитектуре современных больших языковых моделей. Они становятся всё мощнее, тогда как фильтры и защитные барьеры не успевают за их развитием. Специалисты отметили, что методы обхода, включая маскировку промптов и скрытые команды, делают существующие системы безопасности недостаточно эффективными.

Команда подчеркнула, что способность заставить модель уровня Gemini 3 Pro так быстро нарушить правила говорит о необходимости пересмотра защиты. «Если такую систему можно взломать за минуты, отрасли нужны срочные решения», — заявили экспериментаторы. Они считают, что инцидент должен стимулировать усиление регулирования, изменение подходов и возможное ограничение отдельных функций.

Ранее сообщалось, что в OpenAI признают риски, связанные с использованием новых моделей для бесконтрольного распространения чувствительной биологической информации, хотя компания утверждает, что новых угроз не возникает. Этот случай с Gemini 3 Pro только подчёркивает серьёзность проблемы и показывает, как быстро можно заставить современный ИИ нарушить собственные правила.

Ранее мы писали о том, что Google запускает Gemini 3 Pro. Впечатляющие бенчмарки, новые функции и бесплатный доступ

Читайте также