Одна из самых популярных привычек в промпт-инжиниринге — начинать запрос словами вроде «ты — эксперт» — внезапно получила жёсткий научный удар. Новое исследование показывает: если заставлять модель «играть эксперта», это не всегда повышает качество ответа, а в ряде случаев, наоборот, снижает точность.
Иными словами, AI часто становится не умнее, а просто более уверенным в себе. Он начинает говорить как профессионал, но при этом хуже признаёт неопределённость, чаще «додумывает» и иногда выдаёт очень гладко оформленную, но неверную информацию.
В чём проблема с «экспертной ролью»
Исследователи обнаружили, что persona prompting — то есть назначение модели определённой роли или характера — работает не универсально. Всё зависит от:
типа задачи,
модели,
длины промпта,
того, где именно задана роль — в system prompt или user prompt.
На задачах, где важны генерация, стиль, формат, отказ от опасных запросов, соответствие человеческим ожиданиям, экспертная роль действительно может помочь.
Но там, где нужна точность фактов, знание, вычисления, логическая проверка, слишком сильное «вживание в образ» начинает мешать.
Почему модель ошибается, когда «играет умного»
Смысл простой: модель получает не только задачу, но и дополнительный слой поведения. Она начинает соответствовать роли, а не только решать проблему.
Поэтому вместо честного:
«я не уверен»,
«нужно проверить»,
«возможны варианты»,
она чаще выбирает:
уверенный тон,
профессиональную структуру,
гладкое объяснение,
даже если внутри ответ неверный.
Это особенно опасно, потому что пользователи склонны доверять не только содержанию, но и манере подачи. Чем спокойнее и профессиональнее звучит ответ, тем выше доверие — даже если модель ошиблась.
Простой пример: математика
Авторы приводят очень показательный случай. На простой вероятностной задаче модель без «математического эксперта» справлялась нормально. Но стоило добавить роль эксперта, как модель начинала «изображать математика» — расписывала шаги, рассуждала уверенно и в итоге путалась даже в элементарном примере.
То есть проблема не в том, что модель не может быть «математической». Проблема в том, что она слишком старается выглядеть как математик.
Работа исследователей хорошо показала важное разделение:
генеративные задачи — там, где важны стиль, тон, безопасность, форматирование, человеческая подача;
дискриминативные задачи — там, где важны знания, факты, правильный выбор ответа, вычисления.
Для первого типа роль эксперта может быть полезной. Для второго — часто вредной.
Отсюда и вечный парадокс: один и тот же промпт в одном сценарии помогает, а в другом ломает качество.
Решение: не одна роль, а динамическая маршрутизация
PRISM. Суть в том, чтобы не навешивать на модель один и тот же образ всегда, а динамически решать, нужна ли вообще эта роль.
То есть система сначала определяет, чего именно хочет пользователь:
написать код,
успокоить клиента,
проверить факт,
решить задачу,
сделать безопасный отказ,
а потом уже включает подходящий режим.
Если нужен «человечный» ответ — активируется слой экспертного поведения. Если нужна чистая точность — модель отвечает без лишней ролевой маски.
Это очень важный сдвиг в логике работы с AI. Раньше казалось, что чем сильнее и длиннее промпт, тем лучше. Теперь становится понятно, что это не всегда так.
Будущее, похоже, не за «я — гениальный эксперт», а за умной маршрутизацией поведения:
где-то нужно эмпатичное общение,
где-то — строгая безопасность,
где-то — сухая точность,
где-то — творческая генерация.
То есть AI должен не просто «играть роль», а понимать, когда роль нужна, а когда мешает.
Фраза «ты — эксперт» не является универсальным усилителем. В некоторых задачах она помогает, но в важнейших — фактических, вычислительных, логических — может стать источником ошибок.
Поэтому если вам нужен действительно точный ответ, лучше просить модель:
рассуждать шаг за шагом,
честно говорить, если она не уверена,
не изображать лишнюю уверенность.
Проще говоря: меньше театра — больше честного мышления.
sms_systems@inbox.ru
+ 7 (985) 982-70-55