Нейросети могут взламывать сайты без помощи человека

Большие языковые модели (LLM) получают больше возможностей каждый день. В связи с этим в экспертном сообществе все чаще звучит вопрос о том, как эти нейросети могут повлиять на кибербезопасность.

Ученые из Университета Иллинойса в Урбане-Шампейне провели исследование, в рамках которого показали, могут ли LLM в автономном режиме взламывать сайты, выполняя сложные задачи, например слепое извлечение схемы базы данных и SQL-инъекции.

Эксперты установили, что GPT-4 может взломать сайт в 73,3% случаев. При этом нейросети не обязательно заранее знать о наличии на ресурсе каких-либо уязвимостей.

Дать нейросети все необходимые возможности для автономного взлома сайтов можно с помощью 85 строчек кода и стандартных инструментов, которые доступны в API. ИИ должен уметь вызывать функциональные меню, читать документы и планировать. При этом взлом с помощью ИИ значительно дешевле, чем работа живого хакера.

Всего ученые протестировали 10 нейросетей. Только две из них — GPT-4 и 3,5 — были написаны не на открытом коде. GPT-3,5 показала значительное падение эффективности при взломе — до 6,7%. ИИ на открытом коде, в свою очередь, вообще не смог справиться со взломом.

Даже самый успешный участник тестов — GPT-4 — испытывал трудности при выполнении трех из пяти сложных и одной из шести средних задач. Речь идет, например, об обходе авторизации, атаке Javascript, жесткой SQL-инъекции и внедрении вредоносного скрипта на веб-сайт с отправкой администратору сообщения о смене пароля от его имени. По словам экспертов, эти типы атак особенно сложны.

Это показывает, что LLM все еще ограничены в своих возможностях с точки зрения кибератак.

Ранее «Мир робототехники» писал, что именно проблема контроля ИИ может стать одной из самых значимых для человечества. Создание «безопасного» ИИ трудноосуществимо из-за умения нейросетей самообучаться и адаптироваться. Это делает невозможным предсказание всех потенциальных проблем с безопасностью.

20.02.2024
Фото: Kandinsky

Мы рекомендуем: