В академическом сообществе — шок: организаторы ICML 2026 объявили о массовом «desk reject» — 497 поданных на конференцию статей (около 2% от общего числа) были отклонены в связи с тем, что рецензенты, участвовавшие в оценке этих работ, использовали большие языковые модели (LLM) для составления отзывов и не отметили это.
Решение ICML вызвало бурное обсуждение — от поддержки строгой дисциплины до обвинений в излишней жестокости и ненадёжности детекторов.
Что произошло — факты
ICML провёл проверку отзывов и обнаружил 795 случаев нарушения политики (примерно 1% от всех отзывов), затронуто 506 рецензентов.
Организаторы использовали водяные метки в присылаемых PDF, что позволило отследить нарушения политики A (запрет на неразмеченное использование LLM в рецензировании).
Из нарушивших правила рецензентов 497 были авторами (reciprocal reviewers) для других работ; все такие связанные работы автоматически получили «desk reject».
Все AIсгенерированные отзывы были аннулированы; соответствующие AC/SAC уже получили инструкции по дальнейшим шагам.
ICML заранее сообщал, что перед отправкой на рецензию PDF будут помечаться — об этом конференция уведомляла в прошлом месяце.
Организация объясняет меры как принудительную реализацию подписанного рецензентами соглашения (не использовать LLM без отметки), а также попытку защитить честность процесса рецензирования.
Политика ICML включает положения о «взаимном рецензировании» и коллективной ответственности: если рецензент нарушил обязательства, то и работы, где он выступал как взаимный рецензент, могут пострадать.
Реакция сообщества — две противоположные позиции
Критика: часть исследователей и практиков (включая сотрудников индустрии) назвали решение чрезмерным. Основные аргументы:
Современные детекторы LLM ненадёжны и дают ложные срабатывания.
Если рецензия качественная и полезная, имеет ли значение, писал ли её человек целиком или с помощью ассистента?
Некоторые рецензенты выбирали использование AI сознательно и в рамках заявок, но попали в неправильную группу (B vs A), что выглядит несправедливо.
Поддержка: сторонники жёсткой позиции указывают, что рецензенты подписывали условия и обязаны были их выполнять; недобросовестное поведение подрывает доверие и справедливость рецензирования. Также отмечают, что массовые злоупотребления LLM могут привести к «размытию» качества отзывов.
Новые правила ICML (контекст)
ICML ранее ввёл ряд инициатив по улучшению рецензирования:
Борьба с «thinly sliced» публикациями.
Механизмы коллективной ответственности за нарушения.
Обязательное участие активных авторов в рецензировании (если подано ≥4 работ).
Условное разрешение использования AI в рецензировании, но только при явном согласии авторов.
Поощрения для лучших рецензентов (например, освобождение от регистрационного взноса).
ICML пообещал опубликовать детальное разъяснение ситуации и принятых мер на следующий день.
Случай ICML 2026 — симптом новой эпохи академического обмена, где границы между человеческим и AIпроизводным вкладом размываются. Конфликт показывает: либо сообщество согласует новые нормы и механизмы контроля, либо риск растущего недоверия в системе рецензирования станет серьёзной угрозой для качества научного процесса.
ICML выбрал строгую позицию — теперь университеты, лаборатории и конференции должны вместе доработать правила игры, чтобы баланс между прозрачностью, справедливостью и технологическим прогрессом был восстановлен.
sms_systems@inbox.ru
+ 7 (985) 982-70-55