Как проверить, не написал ли текст ИИ, и есть ли в этом смысл

Протестировала популярные варианты и узнала, что я машина.

Учитывая распространённость текстовых нейросетей, в том числе бесплатных, нередко задумываешься: а не нейронка ли написала текст, который подаётся как личный опыт и рекомендация? Мало кому хочется слепо доверять словам, за которыми не стоит человек, особенно если предлагают услугу или продукт.

⚡️Новости из мира гаджетов, обзоры, гайды и не только — в телеграм-канале «Технологии | Лайфхакер».

В обычной жизни риск ошибки не так высок, но есть сферы, где проверке текстов приходится уделять больше внимания. Это касается научных работ, учебных заданий, а также контента, которым наполняют сайты. 

Хотя Google и «Яндекс» не пессимизируют ИИ-тексты как таковые, они выявляют шаблонные и бесполезные материалы и понижают их в выдаче — вне зависимости от того, живой у них автор или нет. И у нейросетевого контента, особенно невычитанного и созданного без хорошего промптинга, шансы оказаться бестолковым и устаревшим примерно такие же, как у работы копирайтера, которого волнует не качество статьи, а лишь количество знаков. 

Если текст качественный, уникальный и ссылается на проверенные актуальные источники, он будет продвигаться в поиске вне зависимости от того, причастен ИИ к его созданию или нет. Но тем, кто контент не создаёт, а только заказывает или проверяет, нужен инструмент для оценки человечности — отсюда и спрос на детекторы.

Как работают детекторы ИИ

Такие сервисы ищут в текстах паттерны и особенности, присущие человеческой речи и языковым моделям, и анализируют, чего получилось больше. А потом выдают вердикт — вероятность того, что автор человек, а не машина.

Длинные тире и кавычки-«ёлочки» не всегда аргумент

Почти все детекторы в первую очередь оценивают два ключевых показателя.

  • Предсказуемость (perplexity, не путать с ботом) — грубо говоря, может ли оценивающая статью нейронка предсказать, какое слово будет следующим. Нейросети склонны выбирать самый вероятный и подходящий вариант, из-за чего текст получается складным, но уж слишком ровным и стройным. Там, где человек может сбиться с мысли, добавить жизненный пример или пошутить, условный ChatGPT просто будет продолжать доносить главную идею. Если на протяжении всего текста так и происходит, детектор это заметит.
  • Всплесковость (burstiness) — примерно то же, что предсказуемость, только в отношении не содержания, а формы текста. Человек может использовать рубленые короткие фразы, чтобы сделать акцент, выразить школьную любовь к поэзии Маяковского или просто не разбираться, какой знак препинания правильнее поставить. Или, наоборот, удариться в пространное описание и не заканчивать предложение, пока оно не перерастёт в целый абзац без точек. А зачастую миксовать то и другое с нормальными предложениями, как учили на уроках русского: подлежащее, сказуемое и дальше по списку. У нейросети всё чаще вылизано и усреднено: предложения примерно одной длины, экспрессии на уровне формы минимум, мысль хорошо структурирована и не уходит в сторону.

Это не всё, чем оперируют детекторы. Также они:

  • Сравнивают текст с миллионами уже размеченных примеров — от живых людей и разных моделей вроде GPT‑5, Grok 4 и так далее.
  • Ищут шаблоны — избыточные синонимы, красивые, но пустые формулировки, обилие вводных слов, фраз вроде «важно заметить», за которыми не стоит ничего важного.
  • Ищут скрытые водяные знаки — непечатаемые символы, которые чат-боты намеренно или из-за ошибки добавляют в генерации. На подобном не раз ловили ChatGPT.
  • Разбивают текст на блоки в поисках элементов «машинности» в отдельных фразах и предложениях. Если слог в целом нормальный и человеческий, но некоторые моменты вызывают сомнения, эти части будут подсвечены как потенциально сгенерированные.

Методы разных сервисов различаются, но обычно это сочетания описанных выше техник плюс свой корпус размеченных текстов, на которых обучали модель в детекторе. В результате на эффективность влияет ещё и то, как много было материалов на нужном языке.

Получается ли у детекторов ИИ определить человечность

Лучше один раз показать, чем сто раз рассказать, поэтому я решила провести эксперимент: прогнать через популярные детекторы написанный мной текст — вот этот, что вы сейчас читаете, и второй, сгенерированный в Gemini. Да, стандарт всё же ChatGPT, но из-за мастер-промпта мой не способен выдать нормальный материал без детального запроса. А для чистоты и наглядности эксперимента всё же хотелось взять самый дефолтный ИИ-текст, который не был улучшен какими-либо настройками и техниками. 

Здесь можно было бы считерить и проверить сервисы на коротеньких статьях длиной в пару абзацев, получить свои 100% человечности и поглумиться над детекторами, но это было бы нечестно. Любые их версии очень нестабильно работают с маленькими объёмами — не хватает данных для анализа. Плюс сценарии использования всё же предполагают, что пользователь будет проверять за раз несколько страниц, а не пару предложений. Поэтому нужны были тексты хотя бы на пару тысяч знаков.

Текст сгенерирован ИИ

Начнём с генерации. У Gemini получилась простая базовая статья. Но была проблема с таблицами — сравнениями сервисов: они нормально не копируются в поле ввода, поэтому почти для всех детекторов этот блок пришлось вырезать. 

Я не шутила, когда говорила про простейший промпт

Популярный мультиязычный GPTZero (запустила через «Google Документы», чтобы сохранить таблицу) выдал нерешительные 49%, немного склоняясь в сторону человеческого автора. При этом подчёркивание как-то подозрительно распределилось по статье: красный (точно ИИ), жёлтый (вероятно, ИИ) и зелёный (человек) блоки шли последовательно.

На экране выше всё полностью красное, ниже — зелёное

Российский «Текст.ру», в котором тоже есть ИИ-детектор, без проблем выдал статье 100% человечности. Сильное заявление для полностью платного инструмента.

Самые бездарно потраченные 7 рублей в моей жизни

GigaCheck от «Сбера» так же легко обмануть не получилось.

Коротко и по делу

Бонусом прогнала ту же статью через несколько чат-ботов. Результат оказался интересным: ориентированный на английский язык ChatGPT и Gemini сочли, что текст почти наверняка человеческий, тогда как русскоязычная «Алиса AI», а также китайские DeepSeek и Qwen сразу сказали, что вероятность участия ИИ выше 80%.

ChatGPT совсем не угадал

При этом обзор от Qwen вышел забавнее прочих: бот заметил, что текст тоже по теме обнаружения ИИ, и прямо в вердикте ссылался на разные его пункты.

Qwen высоко оценил значимость работы коллеги

Учитывайте, что речь о быстро и топорно сгенерированном тексте без каких-либо правок человеком.

Текст написан человеком

По крайней мере, я себя машиной не считаю. Скормила детекторам весь этот текст без учёта блоков с экспериментом и рекомендацией сервисов. Потому что составила рекомендации как раз после тестов — такая вот рекурсия.

Томить не буду: все перечисленные выше решения от «Текст.ру» до Gemini сошлись во мнении, что текст человеческий. 

«Алиса» считает, что у меня отсутствуют идеальные грамматические конструкции — это же плюс, правда? Правда?..

Для подтверждения гипотезы я прогнала ещё несколько текстов с разной степенью авторской экспрессии, которые точно написаны людьми. Худшая точность оказалась у GPTZero и Gemini. Последний регулярно принимал экспрессию за штампы ИИ и был убеждён, что Android 15 и Grok 4 — это галлюцинации и предположения моделей, ведь таких версий ещё не существует. Вот что с LLM делает устаревший датасет.

У Gemini 2026 год ещё не наступил

«Текст.ру» иногда подсвечивал как сгенерированные ИИ обычные фрагменты описаний и технических характеристик — видимо, даже в нейродетектор просочился анализ уникальности. А GigaCheck называл генерацией любые чуть более вылизанные и фактологические статьи, которые прошли через редактора. 

У китайских ботов и «Алисы» проблем с анализом практически не возникло: обычно они предполагали, что ИИ мог использоваться для сбора информации, но согласились, что тексты писали люди. В одном случае Qwen заявил, что аргументы есть и за человечность, и за ИИ, но в любом случае материал качественно проработан, а кто его написал — уже не так важно. В общем, бот не определился и выбрал дипломатию.

В чём проблема сервисов для проверки

Если бы можно было выделить одну конкретную причину, по которой ИИ-детекторы работают так нестабильно, то их создатели давно придумали бы решение, и всё стало бы идеально. Но проблема в сочетании сразу нескольких факторов.

  • Качество принимается за работу ИИ. Детекторы нередко обвиняют в использовании нейросетей обычный человеческий текст — особенно если он хорошо структурированный, деловой, академический или просто вычитан дотошным редактором. Формальный стиль с соблюдением всех правил часто выглядит машинным, потому что в повседневной жизни так мало кто пишет.
  • Проблемы с объёмом и смешанным контентом. В коротких текстах — меньше 300–400 слов — просто не хватает вводных для точного ответа. А если человек отредактировал ИИ-статью под себя или добавил собственные примеры и опыт, сервис для проверки не сможет выдать точный вердикт — максимум подсветит сомнительные места.
  • Большие языковые модели постоянно дорабатываются. Если мы знаем о признаках сгенерированного текста и можем их обозначить, то разработчики моделей тем более о них в курсе. И в новых версиях внедряют способы обходить эти маркеры и делать текст человечнее.
  • Языковые особенности. Большинство топовых сервисов изначально заточены под английский. Для русского языка результаты традиционно менее стабильные, когда речь идёт о мультиязычных сервисах. Но при этом сейчас появляются адекватные решения, подстроенные и под него. 

А ещё нельзя игнорировать, что люди и нейросетевые модели зачастую обучаются письму на одних и тех же данных: классической и современной литературе, типовых примерах из учебников, статьях из интернета. Из-за этого детекторам не позавидуешь: приходится разбираться, что является грамотным материалом, написанным вручную, а что — текстом в разговорном стиле, созданным нейросетью.

Какие детекторы ИИ можно попробовать

Да, эти сервисы неидеальны. Но мой небольшой эксперимент показал, что некоторые инструменты вызывают больше доверия, чем прочие. По крайней мере, при работе с русским языком. Вот эти сервисы — что немаловажно, все они бесплатные. И нет, это не было запланировано: просто так вышло, что платные решения справились хуже.

GigaCheck

Детектор от «Сбера» доступен на сайте в телеграм-боте. Позволяет без регистрации проверять тексты объёмом до 1 000 слов и 10 000 символов, но выдаёт только вердикт: ИИ или человек. Подробности не расписывает, процента уверенности не даёт, вероятные проблемные места не подчёркивает. Показал себя лучшим из специализированных сервисов, но всё равно способен на ошибки, если текст больше про факты, чем про личный опыт.

Алиса AI

Чат-бот с «Алисой» можно попросить оценить вероятность того, что статья сгенерирована нейросетью. И, в отличие от ChatGPT или Gemini, обученная на множестве русскоязычных текстов модель от «Яндекса» отлично справляется с этой задачей. Чат-бот полностью бесплатный, но отсутствие «Плюса» накладывает ограничения: переписки хранятся только 14 дней (с подпиской — вечно), а запросы обрабатываются с более низким приоритетом. 

DeepSeek

Хотя в последнее время этот чат-бот не радует качеством созданных текстов и фактчека, с идентификацией сгенерированного текста у DeepSeek всё прилично. Бот бесплатный, открывается в России без ограничений и достойно справляется с русским языком. Просто вставьте текст в поле ввода сообщения или подгрузите документ и попросите оценить вероятность того, что статья сгенерирована ИИ. 

Qwen

Как и DeepSeek, Qwen — это китайский чат-бот с неплохим пониманием русского языка. Во время тестов он точно определял «ИИшность» приведённых примеров и аргументировал своё решение — а также указывал, какие критерии важные, а какие «флажки» могут отмечаться ошибочно. Бот бесплатный и доступен в России.

Обложка: Ирина Салдина / Лайфхакер
Если нашли ошибку, выделите текст и нажмите Ctrl + Enter

Это упрощённая версия страницы.

Читать полную версию
Сенди
Дело ясное, что если захотеть, то можно выявить кто именно написал текст текст.
Наталья Мурахтанова
|изменено
Как редактор я устала уже раздражаться из-за притягивания кавычек-ёлочек и длинных тире)
Skubacok
Профессиональные издержки 😎