Научный журнал Harvard Kennedy School's Misinformation Review опубликовал исследование, посвященное "загрязнению" академической поисковой системы Google Scholar "ИИ-мусором". Как выяснилось, почти две трети статей, которые выдает этот поисковик, созданы при помощи ИИ:
Риск того, что мы называем "взломом доказательств", значительно возрастает, когда созданные ИИ исследования распространяются в поисковых системах. Это может иметь ощутимые последствия, поскольку неверные результаты могут просачиваться дальше в общество и, возможно, во все новые и новые области.
Большинство этих сфабрикованных GPT-статей были найдены в неиндексируемых журналах и рабочих документах, но в некоторых случаях среди них были исследования, опубликованные в основных научных журналах и материалах конференций.
Подобная ситуация может привести к двум крупным проблемам:
Во-первых, обилие сфабрикованных "исследований", просачивающихся во все сферы научной инфраструктуры, грозит перегрузить систему научной коммуникации и поставить под угрозу целостность научных данных. Вторая проблема заключается в увеличении вероятности того, что убедительно выглядящий научный контент на самом деле был обманным образом создан с помощью ИИ-инструментов и оптимизирован для поиска в общедоступных академических поисковых системах, в частности в Google Scholar.
В 2021 году издательство Springer Nature было вынуждено отозвать более 40 статей из Arabian Journal of Geosciences, в которых, несмотря на название журнала, обсуждались самые разные темы, включая спорт, загрязнение воздуха и детскую медицину. Помимо того, что статьи были не по теме, они были плохо написаны, вплоть до отсутствия смысла, а в предложениях часто отсутствовала логика.
В феврале прошлого года издательство Frontiers получило нагоняй за публикацию в журнале Cell and Developmental Biology статьи, в которой содержались изображения, созданные Midjourney, в частности, анатомически неправильные изображения гениталий крысы. Frontiers отозвало статью через несколько дней после ее публикации.