ICML устроил «жёсткую зачистку»: 497 работ отклонены

ICML устроил «жёсткую зачистку»: 497 работ отклонены
 

В академическом сообществе — шок: организаторы ICML 2026 объявили о массовом «desk reject» — 497 поданных на конференцию статей (около 2% от общего числа) были отклонены в связи с тем, что рецензенты, участвовавшие в оценке этих работ, использовали большие языковые модели (LLM) для составления отзывов и не отметили это.

Решение ICML вызвало бурное обсуждение — от поддержки строгой дисциплины до обвинений в излишней жестокости и ненадёжности детекторов.

Что произошло — факты

ICML провёл проверку отзывов и обнаружил 795 случаев нарушения политики (примерно 1% от всех отзывов), затронуто 506 рецензентов.

Организаторы использовали водяные метки в присылаемых PDF, что позволило отследить нарушения политики A (запрет на неразмеченное использование LLM в рецензировании).

Из нарушивших правила рецензентов 497 были авторами (reciprocal reviewers) для других работ; все такие связанные работы автоматически получили «desk reject».

Все AIсгенерированные отзывы были аннулированы; соответствующие AC/SAC уже получили инструкции по дальнейшим шагам.

ICML заранее сообщал, что перед отправкой на рецензию PDF будут помечаться — об этом конференция уведомляла в прошлом месяце.

Организация объясняет меры как принудительную реализацию подписанного рецензентами соглашения (не использовать LLM без отметки), а также попытку защитить честность процесса рецензирования.

Политика ICML включает положения о «взаимном рецензировании» и коллективной ответственности: если рецензент нарушил обязательства, то и работы, где он выступал как взаимный рецензент, могут пострадать.

Реакция сообщества — две противоположные позиции

Критика: часть исследователей и практиков (включая сотрудников индустрии) назвали решение чрезмерным. Основные аргументы:

Современные детекторы LLM ненадёжны и дают ложные срабатывания.

Если рецензия качественная и полезная, имеет ли значение, писал ли её человек целиком или с помощью ассистента?

Некоторые рецензенты выбирали использование AI сознательно и в рамках заявок, но попали в неправильную группу (B vs A), что выглядит несправедливо.

Поддержка: сторонники жёсткой позиции указывают, что рецензенты подписывали условия и обязаны были их выполнять; недобросовестное поведение подрывает доверие и справедливость рецензирования. Также отмечают, что массовые злоупотребления LLM могут привести к «размытию» качества отзывов.

Новые правила ICML (контекст)

ICML ранее ввёл ряд инициатив по улучшению рецензирования:

Борьба с «thinly sliced» публикациями.

Механизмы коллективной ответственности за нарушения.

Обязательное участие активных авторов в рецензировании (если подано ≥4 работ).

Условное разрешение использования AI в рецензировании, но только при явном согласии авторов.

Поощрения для лучших рецензентов (например, освобождение от регистрационного взноса).

ICML пообещал опубликовать детальное разъяснение ситуации и принятых мер на следующий день.

Случай ICML 2026 — симптом новой эпохи академического обмена, где границы между человеческим и AIпроизводным вкладом размываются. Конфликт показывает: либо сообщество согласует новые нормы и механизмы контроля, либо риск растущего недоверия в системе рецензирования станет серьёзной угрозой для качества научного процесса.

ICML выбрал строгую позицию — теперь университеты, лаборатории и конференции должны вместе доработать правила игры, чтобы баланс между прозрачностью, справедливостью и технологическим прогрессом был восстановлен.

БОЛЬШЕ ИНФОРМАЦИИ

Email

sms_systems@inbox.ru

Телефон

+ 7 (985) 982-70-55

Если у вас есть инновационная идея, мы будем рады реализовать ее для Вас!

Специалисты нашей кампании и наши разработки для вас!