Нейросети давно научились писать музыку, и сейчас это уже не развлечение для гиков, а целый поток треков, которые залетают в топы наравне с работами живых групп. Вокруг этого кипят страсти: одни кричат про убийство профессии музыканта и нейрослоп в стримингах, другие радуются, что у каждого в телефоне теперь профессиональная студия звукозаписи. Попробуем разобраться с сутью ИИ-музыки и связанными с ней проблемами и вызовами.
Что за нейромузыка и как она делается
Всё начиналось с малого. ИИ-сервисы не придумывали песни с нуля, а лишь чистили шумы, выравнивали ритм или меняли голос, позволяя создавать условные каверы на «Короля и Шута» с вокалом Фредди Меркьюри. Нейросети могли выступить и в роли композитора: генерировать не готовый звук, а только ноты и аккорды либо собирать музыку из готовых лупов и семплов. Это обеспечивало бесконечный источник идей, которые музыканты потом допиливали вручную. В таких сценариях человек всё ещё оставался главным.
Но настоящий прорыв случился, когда появились генераторы «всё в одном», вроде Suno или Udio. Это та самая «волшебная кнопка», которая пугает индустрию больше всего. Здесь не нужны ни ноты, ни инструменты, ни слух. Вы просто вводите промпт: «меланхоличный синти-поп про космос, женский вокал, стиль 80‑х» — и через 30 секунд получаете готовую песню с куплетом, припевом и обложкой, которую можно загрузить на YouTube, Spotify и другие площадки. При написании статьи я буквально так и сделал — результат ниже.
Это максимально снизило порог входа, и сейчас создать хит может любой, кто способен описать мысль словами. Результат же получается настолько убедительным, что отличить его от демозаписи реальной группы очень сложно. Особенно для непрофессионала. Голос с эмоциями, плотный звук, структура — всё на месте. Неудивительно, что такой контент начал просачиваться туда, где его совсем не ждали, — в официальные музыкальные чарты.⠀
Насколько ИИ-музыка уже популярна
Лучший ответ на этот вопрос — громкая история начала 2026 года. В Швеции неожиданно завирусился трек Jag Vet, Du Är Inte Min («Я знаю, ты не моя») исполнителя Jacub. Песня набрала почти 6 миллионов прослушиваний и заняла первую строчку в местном Spotify Top 50.
Меланхоличный поп-хит звучал из каждого утюга, люди добавляли песню в плейлисты и TikTok-ролики, пока не грянул гром. Выяснилось, что никакого Якуба не существует, а песня — дело рук сотрудников лейбла, которые сгенерировали её через ИИ. Сам трек — ниже.
Самое интересное здесь — реакция индустрии. Песню удалили из официального чарта по формальному признаку, а не потому, что она была плохой или некачественной. Как раз наоборот, тест Тьюринга для ушей был пройден блестяще, ведь миллионы людей слушали голос робота и испытывали настоящие эмоции. Так что если любите редакторские подборки или листаете ленту рекомендаций, то, возможно, и вы когда-то ставили лайк ИИ-треку, даже не подозревая об этом.
Но хиты — это лишь верхушка айсберга. Огромный пласт потребления приходится на так называемую функциональную музыку. Это бесконечные плейлисты «Lo-Fi для учёбы», «Ambient для стримов» или «Музыка для фокуса». Слушателю этого жанра абсолютно всё равно, есть ли у автора биография, душа или паспорт. Главное — чтобы музыка не отвлекала и создавала настроение.
Для нейросетей это идеальная ниша, и они уже начали её захватывать, буквально наводняя релизами. Живой музыкант может писать альбом целый год. Нейросеть генерирует тысячу треков за день. Алгоритмы стримингов видят, что такой контент действительно слушают (он длинный, ровный, его не переключают), и начинают охотно продвигать в рекомендации. В итоге ИИ играет по правилам платформ даже лучше, чем живые люди.⠀
Как на ИИ реагирует музыкальная индустрия
Именно это умение роботов обыгрывать людей на их же поле и заставило регуляторы дёрнуть стоп-кран. История с удалением шведского ИИ-хита стала, по сути, первой показательной поркой. Решение было принято официальным органом чартов IFPI Sweden сразу же, как только вскрылось происхождение трека. Индустрия провела жирную красную линию: роботы — отдельно, люди — отдельно.
За этим запретом скрывается вполне конкретный страх потери денег. Стриминги работают по системе «общего котла», когда все средства подписчиков собираются в одну кучу, а потом делятся между артистами. Если ИИ начнёт заваливать платформы миллионами треков, доля роялти живых музыкантов будет постоянно снижаться.
Ещё один кошмар лейблов — неконтролируемое использование голоса. Нейросети научились копировать тембр звёзд пугающе точно, и в Сети гуляют сотни ИИ-каверов, где Курт Кобейн, Виктор Цой или Егор Летов перепевают современные хиты. Даже если автор честно пишет, что это ИИ, он фактически паразитирует на чужом бренде. Слушатель приходит на знакомый голос, но деньги и внимание достаются не правообладателям, а автору промпта.
Индустрия уже начала отстреливаться. В США недавно подписали ELVIS Act, который защищает голос артистов от дипфейков, а Евросоюз утвердил AI Act с жёсткими требованиями к прозрачности. Платформы тоже закручивают гайки: YouTube, например, обновил правила и теперь требует от авторов ставить метки на сгенерированный контент. Эпоха Дикого Запада, когда можно было выдать нейросеть за талантливого новичка, стремительно заканчивается.
Почему вокруг ИИ-музыки столько хейта
Самый громкий хейт льётся даже не от лейблов, а от обычных слушателей и музыкантов в соцсетях. Авторы, которые честно признаются, что используют Suno или Udio, регулярно получают порцию яда: «это не музыка», «ты просто нажал кнопку», «вы убиваете профессию». Стоит кому-то выложить видео процесса генерации — и сразу летят дизлайки с обвинениями в лени. Для многих это просто способ выразить себя, не тратясь на студию, но критики видят здесь плевок в сторону тех, кто потратил годы на освоение инструмента и поиск единомышленников.
Масла в огонь подливает нейрослоп — тысячи однотипных треков, которые штампуют ради монетизации и забивают ими рекомендации стримингов. Это создаёт впечатление, что вся нейромузыка — сплошной мусор и обман, хотя грань здесь тонка. Однако отличный пример того, как ИИ служит искусству, — история с «последней песней» The Beatles.
В 1995‑м Пол Маккартни, Джордж Харрисон и Ринго Старр пытались доработать утраченное демо Джона Леннона, записанное в его нью-йоркской квартире. Из-за громкого пианино и шума работающего в комнате телевизора вытащить вокал из старой кассеты так и не удалось. Но в 2023‑м это вышло сделать с помощью ИИ: нейросеть «узнала» тембр Леннона по архивным записям и сделала чистым, студийным. Остальные битлы записали инструменты, и вышла полноценная песня, номинированная на «Грэмми», кстати.
ИИ не сочинял и не пел с нуля, а просто сделал возможным то, что раньше было технически нереально. И что-то здесь хейтеры особо не ворчали про бездушность нейросетей, спасших трек…
Что в итоге
Можно с уверенностью сказать, что нейросети превратили музыку из элитарного ремесла в доступное почти каждому занятие и уже практически на равных конкурируют с живыми артистами. Инструменты стали проще, результат — убедительнее, а дистанция между идеей и готовым треком сократилась до нескольких шагов. Технологии уже не остановить, и все споры постепенно уходят в философскую плоскость.
Кого теперь считать «настоящим музыкантом»? Того, кто годами учил сольфеджио и стирал пальцы о струны, или того, у кого есть сильная идея и умение точно сформулировать её для алгоритма? Где проходит граница между исполнителем, автором и оператором инструмента? И главный вопрос: если песня вызывает мурашки и попадает в самое сердце, имеет ли принципиальное значение, кто именно стоит за её созданием? Кажется, ответить на него может только слушатель.
Пишите в комментариях, что об этом думаете вы и как относитесь к ИИ-музыке.