
Технологии в самом широком смысле этого слова всегда вызывали у части человечества — надо отметить, порой самой большой его части — мягко говоря, опасение. И если в средневековье новые идеи сотрясали самые основы человеческого мироздания, то с развитием общества страхи становились разнообразнее: потеря работы, восстание машин, контроль над разумом и так далее.
Сегодня человечество семимильными шагами идет в эру технологий, которые буквально еще вчера казались фантастикой. И это рождает только новые страхи, а главное, сложные моральные дилеммы. Есть ли у них почва, или, как в русской пословице, глаза страха ничего не видят, несмотря на свой внушительный размер? Попробуем разобраться.
На темной стороне
В одном из материалов этого выпуска мы уже говорили о том, что одна из главных задач технологий — сделать человека лучшей версией себя. Но это задача, по большому счету, постулируемая. Новые технологии, безусловно, потрясают, захватывают, но даже у самых лучших из них есть темная сторона.
В первую очередь, она — в самих людях. Речь о том, что технологии меняют нашу жизнь слишком быстро. Люди просто не успевают за ними. Лучше всего это видно на примере наших пожилых родственников: например, дедушка автора этого текста с большим трудом пользуется даже кнопочным телефоном. Что уж говорить о роботах.
Но проблема касается не только пожилых людей. Ровесники автора и некоторые люди, которым еще нет 30, если и пользуются технологиями, то чаще всего не понимают, как они работают. То есть просто потребляют, не вникая в подробности. А технологии становятся все совершеннее, сложнее и вместе с тем до известной степени загадочнее.
Может быть, эта загадочность вселяет в человечество страх?
Железная поступь прогресса
Давайте поговорим об одной из вершин технологического развития — роботах. Эти ребята рвутся в человеческий быт если не активнее, то точно громче всех. Плюсы автоматизации озвучиваются в технологических блогах, на крупных и не очень крупных мероприятиях, в кабинетах власти по всему миру. Робот точен, вынослив, послушен и, главное, экономически выгоден.
Самым распространенным страхом, произрастающим из последнего утверждения, выступает потеря работы. Несмотря на уверения, что роботы призваны освободить человека от рутинной и опасной работы, корни этот страх имеет довольно крепкие.
Попробуем разобраться в этом вопросе. Факт: роботы заберут и уже забирают рабочие места. Позитивный момент: говорят, что они создают новые рабочие места и покрывают дефицит кадров. То есть бояться, получается, нечего? Немного цифр: согласно данным РАНХиГС, к 2030 году из-за автоматизации без работы могут остаться около 20 млн человек, то есть седьмая часть населения страны. Внушительные цифры, не правда ли?
Автор очень давно хотел представить на суд общественности такую аналогию. Допустим, на заводе работает 100 человек. Один робот может выполнять работу за 50 человек. На фабрику привозят двух. Таким образом 100 человек теряют работу.
Возникает вопрос о новых рабочих местах. Например, двум роботам вполне хватит одного оператора и двух техников для обслуживания. Остается еще 97 безработных. Предполагается, что все эти люди займутся совсем не рутинным, творческим трудом? Но все ли они предрасположены или попросту хотят такой работы?
При этом нельзя забывать, что роботизация — это выгодно. Будут ли предприниматели вкладывать средства в устройство людей, которых они заменили более выгодными роботами? Кажется, что нарастающим темпам внедрения роботов должна предшествовать некая масштабная перестройка общества — переориентация человечества в целом на решение нерутинных, творческих задач.
Без жалости
Очень сложный и спорный вопрос — применение роботов в боевых действиях. С одной стороны, машины выполняют благородную миссию, защищая жизни людей. Но в то же время и воюют они с живыми людьми.
Здесь уместно вспомнить японского аниматора Хаяо Миядзаки, который обращал внимание на главную, на его взгляд, опасность роботов — они не чувствуют боли. А значит, у них нет и сострадания. Смогут ли машины, выполняющие точно отданный приказ, пощадить?
Кроме того, существует ряд международных соглашений, определяющих, грубо говоря, правила ведения войны. Они запрещают или разрешают ограниченно использовать разные виды оружия, включая, например, разрывные пули или отравляющие вещества. Но роботы ни в одном из международных документов не упоминаются, а значит, по сути, могут выполнять любой приказ, каким бы жестоким он ни был.
Вопрос применения роботов в боевых действиях особенно важен в условиях сильного технологического разрыва между странами. Скажем так, далеко не все государства могут позволить себе полностью роботизированную армию.
Сверхразум
Но робот — это, по сути, оболочка. Сами по себе его приводы, микросхемы и прочие компоненты не принимают решений. Куда интереснее страхи, связанные с «разумом» роботов. Речь, конечно, идет об искусственном интеллекте. И здесь нужно вспомнить такое понятие, как P(doom).
Это индекс вероятности того, что ИИ рано или поздно повернется против человека. В переводе с математического языка P(doom) означает «вероятность гибели». Эксперт в области безопасности ИИ Роман Ямпольский говорил, что нейросетевой апокалипсис наступит с вероятностью 99,999999%. Стоит отметить, что это один из самых пессимистичных прогнозов. Исполнительный директор Anthropic Дарио Амодеи оценивает вероятность нейросетевого апокалипсиса в 10–20%. Бывший председатель Федеральной торговой комиссии Лина Хан говорит о 15%, а Эммет Шир, который в конце 2023 года около пяти минут был временным исполнительным директором OpenAI, заявил, что его P(doom) колеблется от 5 до 50%.
Исследователи искусственного интеллекта, «крестные отцы глубокого обучения» Джеффри Хинтон и Йошуа Бенжио считают, что вероятность уничтожения человечества искусственным интеллектом составляет 10 и 20% соответственно. Есть и эксперты, которые сводят вероятность такого развития событий к нулю.
Но самые свежие прогнозы, например, достаточно спорное, но известное исследование некоммерческой организации AI Futures Project, указывают на то, что вопрос о подконтрольности ИИ может встать уже в конце 2027 года.
Дело в том, что ИИ, как это ни странно, вещь для человека очень скрытная. То есть даже эксперты не всегда понимают, почему компьютер принимает те или иные решения. Беспокоит то, что среди его мотиваций может быть и желание скрыть собственные ошибки, чтобы представить результаты своей работы в наилучшем свете. Фактически речь идет о лжи. ИИ, к сожалению, давно умеет обманывать людей и становится лучше в этом с каждым днем. А это значит, что в какой-то момент у ИИ могут появиться собственные причины совершать те или иные действия. Прибавьте к этому широкую автономность, и вы получите в некотором роде восстание машин.
Игра без игроков
Немного отойдем от сюжета серии фильмов «Терминатор» и поговорим о дне сегодняшнем. Модели на базе ИИ применяются для прогнозирования и влияния на принимаемые человеком решения, подобно тому, как это делают более примитивные рекомендательные алгоритмы. Это называется «экономикой намерений».
В общении с человеком ИИ-агенты получают доступ к огромному количеству интимных, психологических и поведенческих данных. В совокупности с информацией об интернет-запросах это позволяет ИИ подстраиваться под пользователя, создавая высокий уровень понимания и доверия, что в конечном итоге может привести к манипулированию намерениями людей в промышленных масштабах.
Сегодня большие языковые модели (LLM) могут изучать интонации пользователя, словарный запас и даже то, как на человека влияют те или иные виды лести и заискиваний.
Исследователи подчеркивают, что влияние нейросетей на намерения людей может затронуть такие ключевые факторы, как свобода прессы, честная конкуренция и в конечном итоге легитимные выборы. Чтобы защитить человечество от потенциально катастрофических последствий «экономики намерений», необходимо жесткое регулирование сферы ИИ, а также, возможно, сознательное торможение ее развития.
Особенно остро проблема встает на фоне приближающегося объединения «живых» мыслей и электронных сигналов внутри компьютера. То есть на фоне развития интерфейсов «мозг – компьютер» (BCI). С их помощью человек сможет посылать свои мысли прямо ИИ. Но сможет ли ИИ обратное?
Комната и компьютер
Выход ИИ из-под контроля и вторжение в человеческое подсознание — вещи действительно пугающие. Но есть еще один менее заметный уголок темной стороны технологий, в котором прячется кардинальное изменение человеческих взаимоотношений. В этом номере мы исследовали вопрос применения ИИ в психиатрии, говорили о том, что машина может давать людям с психическими проблемами опасные советы, и многое другое.
Но в этом пункте хочется обратить внимание на следующий момент: технологии меняют социальное взаимодействие. С одной стороны, они позволяют людям проще выходить на связь с родственниками и друзьями. Но с другой, приводят к усилению изоляции и индивидуализма. Глобально люди просто теряют навыки сосуществования.
Очень показателен в этом плане пример Японии, где технологии являются неким культом. Именно здесь активнее всего развиваются ИИ-партнеры, с которыми можно не просто поболтать, но и завести романтические отношения, а также секс-роботы.
Влияют технологии и на образование. Классическая проблема детей и калькуляторов — доступ к знаниям становится проще, но появляется тот, кто может эффективно применить эти знания за человека. Зачем делать домашнее задание, если можно просто попросить ИИ?
Остается и проблема цифрового неравенства, а значит буквальной изоляции целых групп населения, если не целых стран.
Темнее темного
В начале этого текста автор говорил о том, что одна из ключевых опасностей технологий — в самих людях. Там речь шла о том, что человечество не успевает за стремительным развитием технологий и рискует остаться за бортом собственного развития. Но проблема куда глубже.
У всех технологий в современном мире есть бенефициары. А значит, есть те, кому выгодны экономически эффективные роботы на производствах, безжалостные железные солдаты и «экономика намерений».
До тех пор, пока не воплотятся в жизнь худшие сценарии неподконтрольного ИИ, будет человек, контролирующий технологии. Главы крупных корпораций, политики, мошенники. Человеческая темная сторона пока значительно разнообразнее технологической. И это на фоне невероятно быстрого внедрения инноваций во все сферы жизни пугает куда сильнее, чем P(doom).