
Специалисты Копенгагенского университета первыми в мире смогли доказать невозможность создания постоянно стабильных нейросетей. Ключевая особенность исследования заключается в том, что оно подчеркивает неотъемлемые различия между искусственным и человеческим интеллектами.
ИИ и связанные с ним технологии сегодня переживают подъем. Компьютеры точнее врачей интерпретируют медицинские снимки, переводят тексты и живую речь на разные языки, вскоре смогут полноценно управлять автомобилями и делать это более безопасно, чем человек. Однако нейросети имеют существенные недостатки.
В исследовании в качестве примера приводится автомобиль под управлением ИИ, который считывает дорожный знак. Все проходит удачно до того момента, пока на знаке не появляется «посторонний шум» — наклейка. Водитель-человек не обратит на нее внимание, но нейросеть такая мелочь может легко вывести из строя.
Так в 2016 году система визуализации автопилота Tesla Model S не смогла отличить белый кузов грузовика от облака на небе. Из-за этого ИИ повел машину под прицеп. В результате столкновения находившийся в кабине Tesla водитель погиб. Если бы он сам управлял машиной, аварии бы скорее всего не произошло.
Один из авторов исследования профессор Амир Иегудайофф отметил, что реальная жизнь связана с огромным количеством всевозможных шумов. Люди привыкли игнорировать эти помехи, а вот ИИ они могут привести в замешательство. При этом такие ошибки алгоритмов не являются проблемой, если происходят крайне редко. Однако могут представлять серьезную опасность в случае частого повторения.
Исследование датских ученых — попытка математически определить, сколько шума может и должен выдерживать алгоритм, чтобы его можно было признать стабильным.
Эксперты отмечают, что одной из самых важных вещей в науке является воспроизводимость. Нейросеть можно назвать воспроизводимой в том случае, если она выдает один и тот же результат, когда получает разные сигналы при фиксированной внутренней случайности. Если последний фактор исключается, то нейросеть становиться глобально стабильной, то есть выдает один и тот же результат с вероятностью, сколь угодно близкой к 1.
Ученые Копенгагенского университета указывают на то, что для многочисленных задач обучения ИИ глобальная стабильность достижима лишь в малой степени.
Ранее «Мир робототехники» писал, что Liquid AI — структурное подразделение Массачусетского технологического института (MIT) — планирует создать принципиально новый вид искусственного интеллекта. Речь идет о так называемых жидких нейросетях, которые могут адаптироваться к новым условиям даже в процессе обучения.