GitHub снова меняет правила Copilot: личный код по умолчанию пойдёт на обучение AI

GitHub снова меняет правила Copilot: личный код по умолчанию пойдёт на обучение AI
 

GitHub объявил, что с 24 апреля 2026 года данные взаимодействия пользователей с Copilot Free, Pro и Pro+ будут по умолчанию использоваться для обучения и улучшения AI-моделей. Отказаться можно, но только вручную через настройки приватности. Для пользователей Copilot Business и Copilot Enterprise новые правила не действуют.

С точки зрения GitHub, это логичное развитие продукта: Copilot всё активнее используется разработчиками по всему миру, а для улучшения качества модели нужны реальные данные из практики, а не только лабораторные тесты.

Но для многих пользователей новость прозвучала совсем иначе — как очередной пример того, что их код и взаимодействия с AI снова превращают в сырьё для обучения.

Что именно будет использоваться

По заявлению GitHub, в обучение могут попадать:

введённые пользователем запросы и фрагменты кода;

код вокруг курсора;

комментарии и документация;

имена файлов, структура репозитория и навигационные паттерны;

принятые или отредактированные ответы Copilot;

взаимодействия с чат-режимом и inline-подсказками.

При этом GitHub утверждает, что не будет использовать:

данные пользователей, которые явно отключили участие;

данные корпоративных клиентов Business и Enterprise;

статически хранимые issue, discussions и содержимое частных репозиториев в том виде, в каком они не участвуют в работе сервиса.

Формально у пользователей есть выбор. На практике — именно это и вызвало волну критики.

Многие жалуются, что:

опция отказа спрятана слишком глубоко;

формулировки в письме и в интерфейсе не совпадают;

пользователю легко запутаться в том, что именно участвует в обучении;

непонятно, что происходит, если в репозитории есть другие участники, которые не отказались от участия.

Фактически GitHub выбрал модель opt-out, а не opt-in: если пользователь сам ничего не сделал, его данные уже считаются разрешёнными для обучения. И именно это больше всего раздражает сообщество.

Компания объясняет своё решение просто: Copilot растёт очень быстро, а значит, модели нужно больше реальных сценариев использования, чтобы лучше работать в разных языках, проектах и задачах.

GitHub подчёркивает, что похожие практики уже применяют и другие компании, включая Microsoft, Anthropic и JetBrains. Компания также ссылается на эффект от внутренних данных: по её словам, обучение на взаимодействиях сотрудников Microsoft уже улучшило качество подсказок и повысило долю принятых предложений.

Иначе говоря, GitHub говорит: если модель должна быть полезной, ей нужны живые рабочие примеры.

Проблема в том, что для многих разработчиков дело уже не только в технической логике, а в доверии.

У GitHub и раньше были претензии по поводу того, как Copilot может взаимодействовать с приватным кодом. Теперь же тревога усилилась: если сервис по умолчанию собирает данные об использовании, то насколько контролируемым остаётся процесс?

Хотя GitHub утверждает, что защищает данные фильтрами, аудитом и ограничениями доступа, пользователей это убеждает не всех. Для части сообщества новая политика выглядит как ещё один шаг в сторону того, чтобы монетизировать личную и корпоративную разработку за счёт самих разработчиков.

Случай с GitHub показывает более широкий тренд: AI-платформы всё сильнее зависят от поведения пользователей, а значит, начинают бороться не только за удобство, но и за доступ к данным.

Это создаёт очень неудобный вопрос для всей отрасли:если AI улучшается за счёт реальных пользовательских сценариев, где проходит граница между “улучшением продукта” и “использованием труда и кода пользователей в интересах платформы”?

Пока у компаний вроде GitHub есть ответ: “это необходимо для качества”.У сообщества ответ другой: “по умолчанию — значит против нас”.

Новая политика GitHub — это не просто обновление правил Copilot. Это очередной этап в превращении пользовательских данных в топливо для AI-моделей. Формально у разработчиков остаётся выбор. Но именно способ, которым этот выбор реализован, и вызывает наибольшее раздражение.

Потому что в индустрии, где AI всё чаще обучается на реальной работе пользователей, вопрос уже не только в технологиях. Вопрос в том, кто контролирует данные, кто получает выгоду и кто в итоге становится сырьём для обучения.

БОЛЬШЕ ИНФОРМАЦИИ

Email

sms_systems@inbox.ru

Телефон

+ 7 (985) 982-70-55

Если у вас есть инновационная идея, мы будем рады реализовать ее для Вас!

Специалисты нашей кампании и наши разработки для вас!