16+


ИИ за огненной стеной: в США разрабатывают файервол для нейросетей

Развитие больших языковых моделей (LLM) поднимает все больше вопросов, связанных с цифровой безопасностью. Среди угроз как классические, например, инъекции и кража данных, так и новые, которые позволяют захватывать контроль над моделями и выполнять несанкционированные действия.

Американская компания Cloudflare объявила о разработке межсетевого экрана для защиты больших языковых моделей — Firewall for AI. Этот усовершенствованный брандмауэр, который включает в себя инструменты, предназначенные для мониторинга и обнаружения уязвимостей, ограничения скорости и обнаружения конфиденциальных данных.

В разработке находится новый инструмент, который будет анализировать запросы от конечных пользователей. Это необходимо для обнаружения попыток извлечения данных и других злоупотреблений.

Firewall for AI можно развернуть перед моделями на платформе ИИ Cloudflare Workers и в любой сторонней инфраструктуре.

Ранее «Мир робототехники» писал, что специалисты Корнелльского университета активно изучают способности искусственного интеллекта отличать вредоносный код от обычного. С помощью нейросети эксперты смогли написать вредоносную программу — червя, который может поражать другие умные системы.

11.03.2024
Фото: Kandinsky

Мы рекомендуем: