16+


В МИРЭА призвали запретить ИИ воздействовать на подсознание человека

Российский технологический университет (РТУ МИРЭА) обратился к главе Минцифры России Максуту Шадаеву с предложением запретить использовать искусственный интеллект в некоторых сферах деятельности. Эксперты призвали закрепить риск-ориентированный подход в качестве базового принципа регулирования работы нейросетей.

Полный запрет предлагается ввести на подсознательное влияние на человеческое поведение, в результате которого может быть причинен физический вред, создание социальных рейтингов, социальный скоринг, принятие судебных решений, создание рекламы для детей и политического контента.

«Речь идет о выделении и закреплении на законодательном уровне отраслей и общественных отношений, где ИИ не может применяться в принципе, и сфер, в которых использование ИИ предполагает высокие риски», — цитирует ТАСС письмо ректора РТУ МИРЭА Станислава Куджа.

По мнению экспертов университета, высокие риски при использовании ИИ возникают в таких сферах, как сбор и хранение биометрических данных, принятие кадровых решений, проектирование, создание и эксплуатация объектов критической инфраструктуры, правоохранительная сфера и другие. В этих сферах необходимо ввести систему управления рисками и качеством.

«Таким образом, Россия станет одной из первых стран в мире, применивших комплексный подход к регулированию сферы искусственного интеллекта, основанный на основополагающих принципах прозрачности и безопасности для человека», — подчеркивается в письме ректора.

Ранее «Мир робототехники» писал, что мозг человека, несмотря на огромное количество самых разнообразных исследований, является достаточно плохо изученным органом. Особенно это касается взаимодействия между сознанием и подсознанием. Профессор Открытого университета Каталонии и автор книги «Искусственный интеллект и нейроправа: защита бессознательного “я человека”» Игнаси Бельтран де Эредиа уверен, что именно подсознание в ближайшем будущем может полностью подчиниться воле искусственного интеллекта.

22.01.2024
Фото: Kandinsky

Мы рекомендуем: