ChatGPT поймали на плагиате

Компания Copyleaks, которая является одним из ведущих мировых специалистов по выявлению плагиата, исследовала работу большой языковой модели GPT-3.5 от компании OpenAI. Эксперты определили степень оригинальности контента, который создала нейросеть.

Для проведения анализа Copyleaks попросила ИИ сгенерировать материалы по 26 дисциплинам: физике, химии, психологии, праву, экономике, биологии, географии, математике, информатике, истории, философии, статистике, обществознанию, социологии, гуманитарным наукам и др. После этого все тексты были проверены на полное копирование, копирование с незначительными изменениями и перефразирование чужих работ.

59,7% выходных данных GPT-3.5 содержали ту или иную форму плагиата: 45,7% — идентичный текст, 27,4% — незначительные изменения, 46,5% — перефразированный текст.  Самый высокий уровень плагиата GPT-3.5 показала в физике (27%) и химии (24,7%).

Исследование Copyleaks иллюстрирует необходимость применения систем распознавания сгенерированного нейросетями контента. Кроме того, оно показывает, что ИИ не создает совершенно уникальные материалы, что, в свою очередь, поднимает вопросы авторского права и интеллектуальной собственности.

Ранее «Мир робототехники» писал, что министр цифрового развития, связи и массовых коммуникаций РФ Максут Шадаев выступил на цифровом форуме Шанхайской организации сотрудничества (ШОС) в Алма-Ате. Он сообщил, что в 2024 году возглавляемое им ведомство планирует внедрить технологию GPT на портале «Госуслуги» для консультирования граждан.

28.02.2024
Фото: Kandinsky

Мы рекомендуем:

«Вкусные» устройства, или «Леденец» расширенной реальности

Фантомы органов и самоуправство робохирургов. Научный совет РАН о медицинской робототехнике

Фантомы органов и самоуправство робохирургов. Научный совет РАН о медицинской робототехнике

Фантомы органов и самоуправство робохирургов. Научный совет РАН о медицинской робототехнике

Фантомы органов и самоуправство робохирургов. Научный совет РАН о медицинской робототехнике