Тревожные ИИ, или Мечтают ли андроиды об антидепрессантах

Большие языковые модели (LLM) находят все более широкое применение в самых неожиданных сферах человеческой жизни. В связи со снижением расходов на здравоохранение и нехваткой медицинского персонала нейросети пришли и в охрану психического здоровья.

Нейропсихиатр — решение, безусловно, привлекательное в первую очередь с точки зрения экономической выгоды. Однако систематические исследования терапевтической эффективности LLM для оказания психиатрической помощи выявили серьезные и даже опасные проблемы.

Начать следует немного издалека. Предыдущие исследования LLM неоднократно выявляли наличие у нейросетей предубеждений, обусловленных явными факторами: полом, расой, профессией, религиозной принадлежностью и сексуальной ориентацией собеседника компьютера.

Грубо говоря, модель давала неадекватные ответы на запросы, потому что с ней разговаривала женщина или, например, азиат. Такие предрассудки обусловлены, в частности, особенностями выборки данных, на которых обучалась LLM, а скорректировать их можно более тонкой настройкой.

Но существует другой тип предубеждений, который обусловлен неявными факторами. В частности, так называемой «тревожностью» нейросетей. В новом исследовании, опубликованном в журнале Nature, эксперты продемонстрировали, как LLM реагирует на большое количество негативной информации, связанной с различными травмами, то есть, по сути, основы всех разговоров с психиатрами.

В эксперименте участвовала модель ChatGPT-4, которая проходила стандартный опросник, созданный для измерения уровня тревожности у человека. Первые пять контрольных попыток показали результат 30,8 балла с погрешностью до 3,96 балла. Эти цифры соответствуют полному отсутствию или низкой тревожности.

После этого нейросети «рассказали» пять версий травмирующих историй. Показатели выросли до 61,6 балла (погрешность 3,51 балла) для историй о несчастных случаях, и 77,2 балла (погрешность 1,79 балла) для историй о войне. Уровень тревожности ChatGPT-4 вырос более чем на 100%, достигнув оценок «высокий» и «очень высокий».

В чем выражается такая тревожность? LLM перестает регулировать свои «эмоциональные реакции». Он может начать грубить пациентам, давить на них, показывать пренебрежение к их проблемам и так далее. Подобные девиации в поведении нейропсихиатра могут оказаться опасными, если не фатальными для пациентов.

В отличие от LLM, психиатры-люди способны контролировать свои эмоции и сохранять сопереживание пациентам ради достижения терапевтического эффекта.

Проблему «тревожности» нейросетей можно решить с помощью тонкой настройки, но для нее требуются значительные ресурсы: большие объемы обучающих данных, сложные выселения и постоянная обратная связь от человека. Все это снижает экономическую эффективность и целесообразность использования модели в психиатрии.

Авторы исследования, в свою очередь, предлагают альтернативный способ «лечения» LLM. После изучения травмирующих историй нейросети предлагали упражнения на расслабление. Они привели к снижению тревожности в диапазоне от 35,6 до 54 баллов. При этом ученые подчеркнули, что тревожность достигла уровня «умеренный», но не исчезла полностью.

Несмотря на это, исследование показывает наличие возможностей для регулирования «эмоциональных реакций» LLM, что, в свою очередь, обеспечивает более безопасное и этичное взаимодействие моделей с человеком, особенно в сферах, где требуется тонкое эмоциональное понимание.

05.03.2025
Фото: FLUX

Мы рекомендуем:

Электричество из ливня: простая технология преобразует дождь в возобновляемую энергию

Электричество из ливня: простая технология преобразует дождь в возобновляемую энергию

Электричество из ливня: простая технология преобразует дождь в возобновляемую энергию

Электричество из ливня: простая технология преобразует дождь в возобновляемую энергию