16+


Google запретил Gemini генерировать изображения людей из-за «расистской» толерантности

Компания Google сообщила, что приостановила возможность генерации изображения людей в нейросети Gemini. Причиной принятия такого решения стала очень странная форма толерантности, которую проявлял искусственный интеллект.

Пользователи Gemini заметили, что нейросеть корректно генерирует изображения азиатов, чернокожих и латиноамериканцев, однако отказывается отвечать на запросы, касающиеся белых людей. Кроме того, ИИ игнорирует исторический контекст, создавая чернокожих солдат нацистской Германии или папу римского женского пола.

В Google объяснили, что ошибка связана со специальными настройками, которые, с одной стороны, запрещают нейросети создавать оскорбительные изображения, картинки, содержащие сцены насилия и секса, а также портреты реально существующих людей, а с другой обязывают ИИ представлять на изображениях расовое разнообразие. Последняя не учитывала исторический контекст, а первая привела к тому, что Gemini со временем начала воспринимать некоторые рядовые запросы как потенциально чувствительные или оскорбительные.

В результате модель начала действовать либо слишком либерально, либо слишком консервативно.

Специалисты Google планируют провести масштабное тестирование генеративных способностей ИИ. Они отметили, что на нейросеть оказывает большое влияние информационный фон. Из-за этого могут возникать «галлюцинации».

Ранее «Мир робототехники» писал, что большие языковые модели (LLM) получают больше возможностей каждый день. В связи с этим в экспертном сообществе все чаще звучит вопрос о том, как эти нейросети могут повлиять на кибербезопасность. Ученые из Университета Иллинойса в Урбана-Шампейн провели исследование, в рамках которого показали, могут ли LLM в автономном режиме взламывать сайты, выполняя сложные задачи, например слепое извлечение схемы базы данных и SQL-инъекции.
28.02.2024
Фото: Kandinsky

Мы рекомендуем: