
Злоупотребление использованием искусственного интеллекта в подготовке научных публикаций, в ущерб их качеству, становится все более распространенным в последнее время, не обращая внимания на доступность или доверие получателя. Некоторые исследования, опубликованные в специализированных журналах, содержат фразы, раскрывающие их создание с помощью программ на основе этой технологии, или включают, например, изображения, лишенные точности или источника.
Специалисты признают важность использования инструментов, таких как ChatGPT, для помощи в написании контента, особенно в отношении перевода для исследователей, для которых английский не является родным языком. Однако недавно несколько научных журналов отозвали несколько исследований, выявив недобросовестные практики. Например, в начале текущего года из-за изображения мыши, которое широко обсуждалось в социальных сетях, было отозвано исследование, опубликованное в престижном журнале издательства Frontier.
В прошлом месяце было отозвано другое исследование из-за изображения человеческой ноги, содержащей количество костей больше, чем этому фактически должно быть. Проблемы в этой области, кажется, не ограничиваются ошибочными изображениями, и включают проблемы с ChatGPT, инструментом для общения, разработанным американской компанией OpenAI.
Социальные медиа широко обсуждали исследование, опубликованное издательской группой британским научным издательством Elsevier, с начальной фразой «Конечно! Вот вам введение в вашу тему», типичным ответом ChatGPT. Эксперты отмечают, что подобные смущающие ошибки, произошедшие мимо ответственных экспертов перед публикацией, все еще достаточно редки и не могли бы пройти через экспертные советы престижных журналов.
Искусственный интеллект в научной литературе становится все более сложным для обнаружения. Обнаружив, что слова, показывающие использование инструментов искусственного интеллекта, такие как «точный», «сложный» или «заслуживающий похвалы», участвовали в миллионах научных статей, библиотека Университета Колледжа Лондона Андрюя Грея провел исследование.
Один из соавторов Иван Оранский заметил, что искусственный интеллект начал создавать что-то вроде «фабрик» для выпуска «поддельных» исследований в больших количествах. Эти структуры производят множество низкокачественных, искаженных или ложных статей, и предполагается, что примерно 2% опубликованных исследований ежегодно являются их продукцией. Этот процент значительно возрастает из-за использования искусственного интеллекта, по словам эксперта.
Исследование показало, что искусственный интеллект, вероятно, использовался в 60 тысячах научных статей в 2023 году, что составляет около 1% годового объема, и ожидается «значительный рост» этих цифр в 2024 году. Американская ассоциация Retraction Watch заметила рекордное количество отзывов научных статей в 2023 году - 13 тысяч.