Американские библиотекари столкнулись с волной абсурдных обвинений: некоторые пользователи утверждают, что они якобы скрывают некие запрещённые книги, о которых знает только искусственный интеллект. Эти заявления стремительно распространяются в соцсетях, хотя никаких доказательств нет.
Авторы Scientific American решили разобраться в ситуации и выяснили, что во всём виноват ИИ, который выдумывает данные. Сара Фоллс, руководитель отдела по взаимодействию с исследователями в Библиотеке Вирджинии, подсчитала, что около 15% всех запросов на справочную информацию генерируются чат-ботами, такими как ChatGPT. Причём нередко запросы содержат вопросы о поддельных цитатах.
По её словам, люди просто отказываются верить, что запрашиваемых данных никогда не было: они больше доверяют своим ботам, чем специалистам, профессионально занимающимся поиском достоверных сведений.
Международный комитет Красного Креста (ICRC), который также подвергся обвинениям в сокрытии архивных материалов, даже опубликовал заявление:
Если ссылку найти не удаётся, это не означает, что ICRC скрывает информацию. Причины могут быть разными: от вырванных из контекста цитат и документов, находящихся в других учреждениях, до галлюцинаций нейросетей, что происходит всё чаще.
Или вот ситуация: независимый автор Chicago Sun-Times составил для газеты список летних книг, включив в него 15 произведений, однако оказалось, что десяти из них попросту не существует.
Эксперты отмечают, что подобные случаи становятся всё более частыми по мере роста популярности ИИ‑инструментов. Алгоритмы создают правдоподобные, но полностью фиктивные описания книг, а пользователи принимают их за реальность.
Тем не менее, Gizmodo подчёркивает, что обвинять во всём исключительно ИИ нельзя, проблема существовала и до появления ChatGPT. Например, в 2017 году профессор Мидлсекского университета обнаружил не менее 400 статей, которые ссылались на несуществующие научные работы. Они, вероятно, были добавлены из-за лени или небрежности, а не из намерения обмануть.