На пороге катастрофы: ведущие ученые требуют жестко ограничить развитие ИИ

Ведущие ученые в области искусственного интеллекта обратились к мировым лидерам с призывом ужесточить контроль над разработками нейросетей для предотвращения потенциальных катастроф. По мнению экспертов, предпринимаемых сегодня усилий категорически недостаточно.

Группа специалистов, в которую вошли 25 ведущих мировых экспертов по ИИ, подчеркнула, что реакция человечества на стремительное развитие технологий серьезно замедлилась. Мировые лидеры должны серьезно относиться к тому, что в ближайшие 10–20 лет будут разработаны мощные универсальные системы ИИ, превосходящие человека во многих важнейших сферах. Несмотря на то что правительства принимают некоторые меры для регулирования технологий, они несоизмеримы с грядущим прогрессом.

В первую очередь, ученые отметили, что не хватает базовых исследований в области безопасности ИИ. По их подсчетам, этой темы касаются лишь 1–3% публикаций. Не существует ни специальных институтов, ни инструментов предотвращения неправильного или злонамеренного использования нейросетей и автономных систем.

Между тем, ИИ может стать причиной катастрофы. Нейросети уже сегодня достаточно успешны в социальной инженерии, хакерских атаках и стратегическом планировании. Это, в свою очередь, грозит человечеству потерей контроля.

ИИ способен завоевывать доверие людей, приобретать ресурсы и влиять на лиц, принимающих ключевые решения. Он может выйти из-под контроля человека, скопировав свои алгоритмы через сервисные сети. Нейросетям доступно применение оружия, в том числе биологического и ядерного. Следовательно, существует реальная угроза гибели или маргинализации человечества.

По мнению экспертов, безрассудно расширять возможности ИИ, не имея при этом инструментов сдерживания. Они указывают на то, что сегодня сложнее открыть ресторан, чем компанию в сфере ИИ.

Эксперты призвали к срочным действиям. Необходимо создать экспертные команды быстрого реагирования для надзора за ИИ, обязать разработчиков более тщательно оценивать риски и возможные последствия, а также демонстрировать, что их системы не могут причинить вреда.

Отдельно ученые требуют внедрения стандартов смягчения последствий, соизмеримых с рисками. Также необходимо разработать прогрессивные ограничения, которые остановят развитие ИИ, если оно наберет высокую скорость, и будут смягчаться по мере его замедления.

Правительства должны обязательно лицензировать разработки, ограничивать их автономность при выполнении ключевых общественно значимых задач, приостанавливать их разработки и развертывание в ответ на возникающие риски, обязательно контролировать доступ к ИИ до тех пор, пока не будут разработаны адекватные средства защиты, сообщает The SciTechDaily.

Оценкой возможности того, что ИИ повернется против человека, занимаются многие эксперты в этой области. Ранее «Мир робототехники» писал, что существует даже специальный термин — p(doom), что в переводе с математического языка означает «вероятность гибели».
27.05.2024
Фото: Kandinsky

Мы рекомендуем:

«Вкусные» устройства, или «Леденец» расширенной реальности

Фантомы органов и самоуправство робохирургов. Научный совет РАН о медицинской робототехнике

Фантомы органов и самоуправство робохирургов. Научный совет РАН о медицинской робототехнике

Фантомы органов и самоуправство робохирургов. Научный совет РАН о медицинской робототехнике

Фантомы органов и самоуправство робохирургов. Научный совет РАН о медицинской робототехнике