GitHub объявил, что с 24 апреля 2026 года данные взаимодействия пользователей с Copilot Free, Pro и Pro+ будут по умолчанию использоваться для обучения и улучшения AI-моделей. Отказаться можно, но только вручную через настройки приватности. Для пользователей Copilot Business и Copilot Enterprise новые правила не действуют.
С точки зрения GitHub, это логичное развитие продукта: Copilot всё активнее используется разработчиками по всему миру, а для улучшения качества модели нужны реальные данные из практики, а не только лабораторные тесты.
Но для многих пользователей новость прозвучала совсем иначе — как очередной пример того, что их код и взаимодействия с AI снова превращают в сырьё для обучения.
Что именно будет использоваться
По заявлению GitHub, в обучение могут попадать:
введённые пользователем запросы и фрагменты кода;
код вокруг курсора;
комментарии и документация;
имена файлов, структура репозитория и навигационные паттерны;
принятые или отредактированные ответы Copilot;
взаимодействия с чат-режимом и inline-подсказками.
При этом GitHub утверждает, что не будет использовать:
данные пользователей, которые явно отключили участие;
данные корпоративных клиентов Business и Enterprise;
статически хранимые issue, discussions и содержимое частных репозиториев в том виде, в каком они не участвуют в работе сервиса.
Формально у пользователей есть выбор. На практике — именно это и вызвало волну критики.
Многие жалуются, что:
опция отказа спрятана слишком глубоко;
формулировки в письме и в интерфейсе не совпадают;
пользователю легко запутаться в том, что именно участвует в обучении;
непонятно, что происходит, если в репозитории есть другие участники, которые не отказались от участия.
Фактически GitHub выбрал модель opt-out, а не opt-in: если пользователь сам ничего не сделал, его данные уже считаются разрешёнными для обучения. И именно это больше всего раздражает сообщество.
Компания объясняет своё решение просто: Copilot растёт очень быстро, а значит, модели нужно больше реальных сценариев использования, чтобы лучше работать в разных языках, проектах и задачах.
GitHub подчёркивает, что похожие практики уже применяют и другие компании, включая Microsoft, Anthropic и JetBrains. Компания также ссылается на эффект от внутренних данных: по её словам, обучение на взаимодействиях сотрудников Microsoft уже улучшило качество подсказок и повысило долю принятых предложений.
Иначе говоря, GitHub говорит: если модель должна быть полезной, ей нужны живые рабочие примеры.
Проблема в том, что для многих разработчиков дело уже не только в технической логике, а в доверии.
У GitHub и раньше были претензии по поводу того, как Copilot может взаимодействовать с приватным кодом. Теперь же тревога усилилась: если сервис по умолчанию собирает данные об использовании, то насколько контролируемым остаётся процесс?
Хотя GitHub утверждает, что защищает данные фильтрами, аудитом и ограничениями доступа, пользователей это убеждает не всех. Для части сообщества новая политика выглядит как ещё один шаг в сторону того, чтобы монетизировать личную и корпоративную разработку за счёт самих разработчиков.
Случай с GitHub показывает более широкий тренд: AI-платформы всё сильнее зависят от поведения пользователей, а значит, начинают бороться не только за удобство, но и за доступ к данным.
Это создаёт очень неудобный вопрос для всей отрасли:если AI улучшается за счёт реальных пользовательских сценариев, где проходит граница между “улучшением продукта” и “использованием труда и кода пользователей в интересах платформы”?
Пока у компаний вроде GitHub есть ответ: “это необходимо для качества”.У сообщества ответ другой: “по умолчанию — значит против нас”.
Новая политика GitHub — это не просто обновление правил Copilot. Это очередной этап в превращении пользовательских данных в топливо для AI-моделей. Формально у разработчиков остаётся выбор. Но именно способ, которым этот выбор реализован, и вызывает наибольшее раздражение.
Потому что в индустрии, где AI всё чаще обучается на реальной работе пользователей, вопрос уже не только в технологиях. Вопрос в том, кто контролирует данные, кто получает выгоду и кто в итоге становится сырьём для обучения.
sms_systems@inbox.ru
+ 7 (985) 982-70-55