AI сильно удешевил генерацию кода, но не удешевил его проверку, поддержку и ответственность за ошибки. Из-за этого в индустрии всё чаще возникает то, что можно назвать “кризисом code slop” — потоком плохо сделанного, небезопасного и трудно поддерживаемого AI-кода.
После появления vibe coding — подхода, при котором человек пишет приложение почти на естественном языке, а AI генерирует код — барьер входа в разработку резко упал. Это позволило тысячам людей без классической инженерной подготовки быстро делать прототипы, приложения и демо.
Но именно здесь и начались проблемы. Проблема не в том, что “непрограммисты вдруг лезут в код”. Проблема в том, что создание работающего приложения — это не только генерация текста, а целый комплекс задач:
архитектура;
безопасность;
права доступа;
обработка ошибок;
работа с базой данных;
масштабируемость;
поддержка в долгую.
AI может быстро сгенерировать внешне рабочий код, но он часто не понимает контекст, не учитывает уязвимости и не умеет строить устойчивую систему.
Apple уже начала жёстче реагировать на такие приложения. Например:
приложение Anything было полностью удалено из App Store;
Replit и Vibecode сталкивались с длительной заморозкой обновлений;
причина — нарушение правил, связанных с загрузкой и выполнением неаудированного кода.
Это важный сигнал: платформы понимают, что поток AI-сгенерированных приложений становится проблемой не только качества, но и безопасности.
Особенно тяжёлые последствия видны в open source. Поддерживающие мейнтейнеры начали сталкиваться с лавиной AI-сгенерированных pull request’ов и ложных баг-репортов. Из-за этого:
проекты тратят больше времени на фильтрацию мусора;
реальные уязвимости тонут в потоке фальшивых;
у сопровождающих просто выгорают ресурсы.
Некоторые проекты уже начали ограничивать или даже запрещать AI-сгенерированные PR без проверки.
Генерировать код стало почти бесплатно. А вот проверять, исправлять и сопровождать его по-прежнему дорого.
Именно поэтому система становится несбалансированной:
создавать можно за секунды;
разбирать последствия приходится людям;
ответственность тоже остаётся на людях.
Это и есть основа будущего кризиса. Даже опытные разработчики в некоторых экспериментах тратили с AI больше времени, а не меньше.
Почему так происходит?
AI генерирует лишний код;
разработчик тратит время на правки;
создаётся ложное ощущение скорости;
в итоге выпускается больше сырого материала.
То есть “ощущение продуктивности” не всегда означает реальный рост эффективности. Сейчас AI в программировании оказался в точке, где:
барьер входа стал ниже;
количество кода выросло;
качество в среднем упало;
нагрузка на проверяющих и мейнтейнеров выросла;
риски для пользователей стали выше.
По сути, индустрия получила масштабируемый генератор прототипов, но не получила столь же масштабируемую систему контроля качества.
AI действительно может ускорять создание простого кода и демо. Но если компания или разработчик не умеют:
проверять результат,
понимать архитектуру,
обеспечивать безопасность,
поддерживать продукт в долгую,
то AI становится не помощником, а источником code slop — дешёвого кода с дорогими последствиями.
“Кризис кодовой помойки” — это не временный шум, а системная проблема новой эпохи. И чем больше AI будет писать код, тем важнее станет человеческое суждение: архитектурное, инженерное и этическое.
Как и сказано в статье, AI может заменить набор текста, но не может заменить решение, что стоит писать, а что — нет.
Если хочешь, я могу ещё:
сделать короткую выжимку на 1 экран,
переписать это в стиле деловой колонки,
или собрать список главных рисков AI-кода для бизнеса.
sms_systems@inbox.ru
+ 7 (985) 982-70-55