Почему все вообще обсуждают раздевание фото с ИИ
Если кратко, то из-за Илона Маска. Если подробнее, то в принадлежащей ему соцсети X (бывшая Twitter) добавили функцию модификации чужих фотографий через встроенный бот Grok. Достаточно было тегнуть его в комментариях к снимку и попросить изменить изображение по запросу. И — кто бы мог подумать — пользователи тут же начали требовать раздеть людей на фото, сменить одежду на микробикини, принять конкретные позы, обмазаться маслом и так далее. Результаты независимого анализа оказались ожидаемыми, но от этого не менее отвратительными:
Каждый час Grok генерировал около 6 700 изображений с обнажением или сексуализацией пользователей.
Подсчитали это самым интуитивным методом: 24 часа отслеживали медиа, которые выкладывает официальный аккаунт @grok. Информация общедоступная — отображается прямо в профиле.
Функция появилась в конце декабря 2025 года, но уже в начале 2026-го ситуация накалилась. Сеть стала наполняться сообщениями о том, что бот раздевает не только совершеннолетних девушек, которые явно не давали на это согласия, но и подростков. Против X начались официальные расследования в Европе, Индии и Малайзии, ситуацией заинтересовался Национальный центр по борьбе с сексуальной эксплуатацией в США.
Маск быстро написал в своём аккаунте X, что у него нет информации о хотя бы одном примере генерации обнажённых изображений подростков через Grok. И обвинил во всём пользователей: мол, бот делает только то, что ему говорят, но при этом отказывается создавать нелегальный контент и подчиняется законам разных стран и штатов.
Проблемы в генерации подобных изображений Маск, похоже, не видел. Но под давлением рекламодателей и риска блокировок (в Малайзии и Индонезии власти уже ограничили доступ) в Grok сначала оставили возможность создания фото только для платных подписчиков, а позднее полностью запретили генерировать картинки с людьми в открытой и вызывающей одежде.
Неужели раньше дипфейков не было
Конечно, были. Ещё в 2019‑м стала популярной нейросеть DeepNude, которая обещала в пару кликов раздеть девушек на фото, — и с тех пор появлялось и умирало несметное количество аналогов в самой разной упаковке. Некоторые маскировались под обычные нейросетевые редакторы, в которых обнажение было одним из доступных фильтров. Остальные же не пытались шифроваться и подсвечивали основную функцию открыто.
При этом для поиска таких инструментов даже не нужно глубоко копать и лезть в даркнет.
Современные модели вроде SDXL при локальном запуске позволяют обходить встроенную цензуру. А специализированные сайты, приложения и даже телеграм-боты продолжают работать, предлагая аналогичные функции — зачастую в пару кликов и без навыков пользования нейросетями.
Особенность Grok в том, что процесс происходил прямо в социальной сети: пользователи буквально под выложенной фотографией могли публично запросить модификацию. Это и стало источником повышенного общественного внимания.
Конечно, если копнуть глубже, то пользователи, вообще-то, ещё с появления первых фоторедакторов подгоняли лица людей к телам моделей Playboy. Просто тогда труд был ручным, занимал больше времени и требовал хоть каких-то навыков. А результат, скорее всего, никогда не покидал компьютер, на котором его создали.
В чём тогда разница
Главное отличие функции, которая дала людям ещё один повод ненавидеть Илона Маска, от других существующих инструментов — прозрачность. Да, судя по всему, в Grok был какой-то фильтр и он отказывался генерировать совершенную наготу. Но это был инструмент с легчайшим доступом, который к тому же выставлял результаты на всеобщее обозрение. И это плохо сразу по нескольким причинам.
Во-первых, что очевидно, повысилась виральность. Фотографии были в открытом доступе — а значит, любой желающий мог посмотреть, сохранить или сгенерировать свой вариант. В результате такие несогласованные компрометирующие изображения разлетались быстро. Во-вторых, снизился порог вхождения.
Больше не нужно заморачиваться и искать специальный сервис, который почти наверняка оказался бы платным. Всё можно сделать прямо в соцсети в пару кликов.
Ну и в‑третьих, тренд дал ощущение вседозволенности. Здесь сработал известный психологический эффект социального доказательства: в новых и сомнительных ситуациях люди склонны ориентироваться не на собственные принципы, а на то, как ведут себя окружающие. В обычной жизни работает понятная простая логика: если я сгенерирую полуголые изображения знакомой девушки или знаменитости, да ещё и опубликую их, все посчитают меня крипом.
Но если остальные пользователи развлекаются с новым инструментом, персональная ответственность размывается: всем можно — почему бы и мне не попробовать? В итоге к тренду подтянулись те, кто в ином случае даже не подумал бы кого-то раздевать и искать средства, позволяющие это сделать.
При этом, как ни противно признавать, Grok в чём-то даже честнее упомянутых ранее DeepNude и его идейных наследников.
Кого обычно раздевают
Когда дипфейки только появились, было ощущение, что технология сильнее всего ударит по знаменитостям и их репутации. И в целом это справедливо, ведь в разное время сомнительные энтузиасты массово генерировали раздетые и просто странные фото Галь Гадот, Тейлор Свифт, Скарлет Йоханссон, Дженны Ортеги, Сидни Суини и многих других артисток. Причём случаев, когда что-то подобное делали со знаменистостями-мужчинами, не документировалось.
Конечно, это не означает, что мужчин совсем никогда не раздевают с помощью ИИ и не генерируют с ними другой сексуализированный контент. Но гендерный дисбаланс дипфейков налицо: страдают преимущественно женщины. По некоторым данным, они составляют до 99% от всех жертв — хотя точные числа, разумеется, подсчитать невозможно.
И важно понимать, что эти «до 99%» — далеко не всегда известные женщины с ресурсами для того, чтобы бороться против сгенерированного контента с ними. Понятно, что всё, что попадает в интернет, остаётся в нём навсегда. Но звёзды могут нанять представителей, которые будут запрашивать удаление сомнительных фото и видео, а их фанаты способны завалить ленты шквалом фото и видео с концертов, чтобы найти в этом потоке дипфейки было практически невозможно. То есть да, селебрити — более вероятная цель, но также им легче себя защитить.
Обычных женщин тоже могут раздеть — и, как показал инцидент с Grok, раздевают, но у них средств противодействия куда меньше. Во многом как раз потому, что окружающим может казаться: ну кому она нужна, чтобы дипфейки клепать? Очистить репутацию, а то и объяснить ситуацию близким старшего поколения ощутимо сложнее.
Почему так происходит
Для высоких технологий мотивация у таких «раздеваний» на удивление приземлённая. Это банальное развлечение и эффект новизны: людям любопытно протестировать инструмент и посмотреть, что получится. Как фотожабы и демотиваторы, которые в какой-то момент всем было очень забавно клепать, — только ставка выше, потому что объектом становится реальный человек.
Но если цель не развлечение, то краски резко сгущаются. Такие изображения могут выступать рычагом для шантажа и давления.
Исследователи фиксируют случаи, когда сгенерированные обнажённые изображения используют для вымогательства денег или интимных материалов — особенно среди подростков и студентов. Причём жертвами чаще становятся несовершеннолетние девушки.
Также это удобный способ травли и разрушения репутации. Для буллинга больше не нужно ничего добывать, выслеживать и подтасовывать — достаточно фотографии из открытого профиля и пары долларов на генерацию. Порог входа минимальный, доказать поддельность сложно, а психологический урон наносится мгновенно.
Даже если человек сможет объяснить, что это фейк, и ему поверят, осадок останется — ведь срабатывает когнитивное искажение «нет дыма без огня». Мол, не будут же генерировать такое без повода. К сожалению, будут.
Наконец, есть также и коммерческий стимул. На платформах вроде OnlyFans и Fanvue продаётся контент с ИИ-моделями, чьи лица взяты у реальных людей — блогеров, знакомых или случайных девушек из соцсетей. Журналисты 404 Media описывали схемы, как всё это массово генерируется и монетизируется без согласия прототипов. С точки зрения «автора» таких моделей, всё будто бы безобидно: он же ничего не украл и никого не эксплуатировал — всё рисовала нейросеть. Но по факту используется чужая идентичность и внешность, а разбираться с последствиями — объяснять ситуацию семье, работодателю, партнёру — приходится жертве.
Как с этим пытаются бороться
На уровне контента существуют стандартные механизмы. Можно отправить жалобу в соцсеть или на хостинг, сославшись на нарушение приватности или несанкционированное использование изображения. Крупные платформы действительно удаляют такие материалы, но проблема в скорости: копии разлетаются быстрее, чем их успевают чистить.
Некоторые страны начали вводить прямую уголовную или административную ответственность за несанкционированные сексуализированные дипфейки. В США в начале 2026 года был принят федеральный закон DEFIANCE Act, позволяющий жертвам подавать гражданские иски к создателям контента. В Великобритании поправки к Закону о безопасности в интернете криминализируют распространение интимных изображений без согласия, включая сгенерированные версии. В некоторых странах Азии также идут расследования и блокировки сервисов, есть первые случаи арестов за создание и распространение дипфейков.
В России аналогичных норм пока нет, поэтому пострадавшим приходится опираться на общие статьи о клевете, нарушении частной жизни и распространении порнографии.
Параллельно магазины приложений пытаются резать инфраструктуру. Google Play и App Store регулярно удаляют приложения, прямо рекламирующие функции раздевания и создания дипфейков, — но разработчики маскируют их под обычные ИИ-редакторы и возвращают под новыми именами. Это напоминает борьбу с гидрой: закрываешь один сервис — появляются три клона. Поэтому многие исследователи предлагают смещать фокус с модерации готовых картинок на ограничения самих инструментов и на юридическую ответственность пользователей, а не только площадок.
Но пока подобные сервисы доступны и дёшевы (а иногда даже бесплатны), а реальное наказание за их использование — единичные случаи где-то за океаном, никто не защищён от того, что завтра его (а будем честны, её) обнажённые или полуобнажённые ИИ-фотографии могут пойти гулять по тредам и чатам. Хотелось бы верить, что все резко опомнятся и подумают, не дичь ли они творят. Но, скорее всего, без повышения порога входа и реальных судебных последствий проблема останется системной и массовой, а не уделом малочисленных сомнительных личностей с Photoshop и тонной свободного времени.