ИИ дает внушительное количество инструментов, которые ежедневно упрощают жизнь людям по всему миру. Его перспективное развитие в предстоящие десятилетия способно значительно расширить наши возможности, но лишь при одном условии — разработка и использование ИИ будут ограничены рядом правил.
Одной из самых ранних систем рекомендаций по созданию нейросетей и управлению ими являются Азиломарские принципы. Они были разработаны группой ученых и экспертов на Конференции Beneficial AI, прошедшей в 2017 году в Калифорнии.
Азиломарские принципы представляют собой 23 рекомендации по взаимодействию с искусственным интеллектом. Они призваны минимизировать риск возникновения негативных ситуаций и добиться в работе с ИИ наилучших результатов. В данных принципах отражены различные аспекты, например, вопрос финансирования исследований, ответственность, согласование ценностей, человеческий контроль.
Документ, в котором отражены Азиломарские принципы, подписали более 5700 человек. Среди них физик-теоретик Стивен Хокинг, бизнесмен и главный инженер компании SpaceX Илон Маск, сооснователь и главный научный сотрудник OpenAI Илья Суцкевер, профессор Калифорнийского университета Стюарт Рассел. Документ не имеет юридической силы, но все равно может стать руководством для тех, кто участвует в исследовании и разработке инновационных технологий.
Основные каноны
Безопасность: необходимо поддерживать надежность систем искусственного интеллекта на протяжении всего срока их эксплуатации.
Ответственность: люди, отвечающие за проектировку и создание систем ИИ, несут персональную ответственность за влияние разработок на общество, а также моральные последствия их использования.
Человеческие ценности: в процессе проектирования и эксплуатации искусственного интеллекта важно опираться на человеческие идеалы — достоинства, права, свободы и культурное разнообразие.
Прозрачность: всегда должна быть возможность установить причину неисправности, из-за которой искусственный интеллект причиняет вред и вызывает проблемы; системы ИИ должны объяснять людям свои действия и решения.
Ограничение гонки вооружений ИИ: противостояние государств ради достижения превосходства в области автономного смертоносного оружия необходимо избегать.
Минимизация рисков: действия по смягчению последствий использования ИИ необходимо планировать заранее.
Общее благо: искусственный интеллект следует развивать только во благо всего человечества, а не ради выгоды отдельных государств, организаций или групп людей.
Человеческий контроль: вопросы, связанные со способами делегирования задач искусственному интеллекту, всегда должны решаться человеком.
Минусы концепции
Некоторые представители научного сообщества отмечают слабые места Азиломарских принципов. Например, Техсин Зия — ученый, руководящий исследованиями в области ИИ в Университете Комсатс в Пакистане.
Он выделил следующие минусы:
- Принципы являются лишь рекомендациями и не закреплены законодательно, поэтому нельзя гарантировать их соблюдение.
- Принципы описывают возможные проблемы поверхностно, не предлагая конкретных мер по их предотвращению или исправлению.
- Принципы оставляют большую свободу для интерпретации, поскольку составлены довольно абстрактно.
Этика в «черном ящике»
Тем не менее, эксперты уверены, что Азиломарские принципы необходимы. Развивающийся искусственный интеллект обладает внушительным потенциалом не только для качественного улучшения жизни человека, но и для создания серьезных проблем.
Например, актуальным является вопрос сохранения рабочих мест. ИИ стремительно развивается, справляясь со сложными задачами все лучше. По этой причине есть риск вытеснения реальных сотрудников, что вызовет безработицу и экономический спад. Азиломарские принципы закрепляют, что любая ИИ-система должна создаваться не для замены человека, а для помощи ему.
Еще одна проблема — социальная дискриминация. Например, было обнаружено, что алгоритм найма Amazon проявлял дискриминацию по отношению к кандидатам-женщинам. Если нейросети будут активно применяться в сфере принятия решений, вероятно, они могут иметь половые или расовые предрассудки. Объясняется это тем, что массивы данных, на которых обучаются системы искусственного интеллекта, содержат предвзятую информацию. Азиломарские принципы призваны минимизировать воздействие такой информации на ИИ-системы.
Скептицизм и опасения касательно ИИ-систем связаны с восприятием их как «черных ящиков». Дело в том, что решения и действия, которые вырабатывают алгоритмы искусственного интеллекта, сложны для понимания и контроля. Одним из Азиломарских принципов является прозрачность, которая позволит сделать работу систем ИИ понятной для каждого пользователя, а вследствие этого укрепить доверие людей к современным технологиям.
