Мозг человека, несмотря на огромное количество самых разнообразных исследований, является достаточно плохо изученным органом. Особенно это касается взаимодействия между сознанием и подсознанием. Профессор Открытого университета Каталонии и автор книги «Искусственный интеллект и нейроправа: защита бессознательного “я человека”» Игнаси Бельтран де Эредиа уверен, что именно подсознание в ближайшем будущем может полностью подчиниться воле искусственного интеллекта.
Эксперт поясняет, что сознание является «второстепенным персонажем», контролируя только 5% деятельности человека. Остальные 95% формируются подсознанием. Речь идет о той основе, на которой человек принимает, казалось бы, абсолютно сознательные решения.
«Проблема в том, что мы не осознаем этого экстраординарного потока нейронной активности, потому что взаимодействие между сознательным разумом и бессознательным поведением чрезвычайно сложно. Силы, управляющие нашей жизнью, очень далеки от нашего осознания или контроля», — пишет Игнаси Бельтран де Эредиа.
Он подчеркивает, что человек не контролирует источник, из которого в сознание приходит то или иное решение. При этом сознательно люди всегда стремятся убедить себя в том, что полностью контролируют этот процесс.
Этим уже сегодня активно пользуются рекомендательные алгоритмы, которые с каждым днем собирают все больше информации о пользователях и становятся все умнее и находчивее в манипулировании их предпочтениями. Сейчас эти системы преследуют в первую очередь коммерческие цели, но масштабный сбор данных о каждой конкретной личности и человечестве в целом в перспективе может раскрыть перед искусственным интеллектом самые интимные и незаметные аспекты поведения людей.
Безусловно, индивидуальное поведение каждого элемента сложной динамической системы предсказать практически невозможно, но закономерности становятся понятны на более высоком уровне с помощью математического моделирования и компьютерного анализа. Так, существуют универсальные модели человеческого поведения, анализу подвергаются мимика и голос. Это, в свою очередь, может предоставить искусственному интеллекту доступ к эмоциям, настроению, социокультурным особенностям, а потом и к личности человека.
При этом даже сейчас пользователи добровольно принимают рекомендации нейросетей и строят на их основе свое поведение, потому что в конечном итоге машины предлагают живому мозгу удовольствия.
Этот аспект, по мнению Игнаси Бельтрана де Эредиа недооценивается несмотря на то, что в перспективе такое «приятное» воздействие на подсознание может привести к принятию человеком решений, которые в противном случае были бы для него нежелательными.
«Имейте в виду, что эта антропометрия с помощью повсеместного анализа позволяет косвенно расшифровывать самые сокровенные слои разума. Эти формулы помогают выявить определенные глубинные закономерности нашего поведения», — поясняет профессор.
Следовательно, подсознание человека уже сейчас открыто для манипуляций и требует правовой защиты. Игнаси Бельтран де Эредиа отмечает, что зачатки такой защиты есть в первом в мире комплексном наборе правил регулирования использования искусственного интеллекта, который разрабатывается в Евросоюзе. Однако эксперт подвергает критике сформулированные в проекте документа предложения.
Де-юре, разрабатываемые правила запрещают искусственный интеллект, использующий методы воздействия на подсознание человека с целью существенного искажения поведения, которое может причинить физический или психологический вред.
Однако де-факто крайне сложно определить, насколько сильно искусственный интеллект повлиял на принятое человеком решение, так как сама «жертва» в данном случае не будет осознавать этого влияния.
Еще одна проблема заключается в том, что запретительное правило будет действовать только в том случае, если удастся доказать, что человек не принял бы конкретного решения без воздействия на его подсознание искусственного интеллекта. То есть потребуется подтверждение факта, который не имеет отношения к реальности.
Проблемой также является определение значительности ущерба, который был нанесен в связи с принятием человеком навязанного нейросетью решения.
«Если окончательный текст будет принят с учетом этой совокупной конфигурации, очевидно, что подсознание будет очень уязвимым. И вмешательство в бессознательное, которое не переходит определенных границ, будет защищено законом», — пишет Игнаси Бельтран де Эредиа.
Фактически такое положение вещей ведет к девальвации двух определяющих факторов человеческого бытия: свободы и идентичности.
Профессор подчеркивает, что свободный выбор возможен только в том случае, если на человека не оказывается чрезмерного давления и он достаточно хорошо информирован об альтернативных возможностях. При этом само давление со стороны нейросетей человек, если и может осознать, то с большим трудом. А рекомендательные алгоритмы, по сути, не оставляют сознанию выбора, диктуя, что ему нравится и чего оно хочет. Это открывает широкие возможности для злоупотребления в самом широком смысле этого слова.
Идентичность также оказывается под угрозой, поскольку такие математические механизмы низводят человека до уровня животного, обученного определенному типу поведения.
Игнаси Бельтран де Эредиа делает вывод, что любое решение, принятое на основе расшифровки искусственным интеллектом подсознания человека, должно быть признано недействительным. Даже в том случае, если оно привело к положительным результатам.
Ранее «Мир робототехники» писал, что нейросети, созданные для генерации текстов, могут прогнозировать события в жизни людей. К таким выводам пришли ученые, проанализировав данные о здоровье и трудоспособности шести миллионов граждан Дании с помощью нейросети life2vec.