В поисковую эпоху главным было привести пользователя к себе. В эпоху AI задача изменилась: теперь важнее не то, кто оказался в списке ссылок, а чей голос модель воспроизведёт как “правильный ответ”. Именно поэтому GEO — Generative Engine Optimization, оптимизация под генеративные модели — становится новой точкой борьбы за влияние.
Если SEO пыталось попасть в поле зрения пользователя, то GEO пытается попасть в поле зрения самой модели. А это уже гораздо опаснее: AI не просто показывает варианты, он выдаёт один уверенный ответ, который выглядит как истина.
В поисковой системе человек видел набор ссылок и сам принимал решение, кому доверять. В AI-интерфейсе пользователь часто получает уже готовый вывод. Внешне это удобнее, но по сути означает передачу части когнитивного суверенитета модели.
Отсюда и новая реальность: если раньше компании боролись за вход в поток внимания, то теперь они борются за выход из потока машинного ответа. Не за то, чтобы вас увидели, а за то, чтобы вас процитировали.
Формально GEO — это продолжение SEO для эпохи AI. Компании и сервисы пытаются сделать так, чтобы их контент лучше понимался и чаще использовался генеративными системами.
На легальном уровне в этом нет ничего нового или плохого: бизнес всегда хотел, чтобы машины лучше индексировали его данные. Но проблема начинается там, где оптимизация превращается в подмену реальности.
Если вместо полезного сигнала в систему массово подсовывают выдуманные отзывы, фальшивые обзоры, искусственно раздутые упоминания и ложные источники, то GEO перестаёт быть оптимизацией и становится отравлением информационной среды.
У SEO были хотя бы некоторые ограничения:
поисковая выдача содержала несколько ссылок;
пользователь видел, что часть результатов — реклама;
можно было сравнить источники;
ответственность за выбор всё ещё оставалась у человека.
В AI всё иначе. Пользователь часто получает один ответ, сформулированный уверенным тоном. Источники могут быть скрыты, а логика вывода — непрозрачной. Это и делает GEO настолько чувствительным инструментом: если модель можно накормить нужными данными, то она начнёт говорить не просто “о вас”, а за вас.
AI опасен не тогда, когда он явно ошибается. Опасность в том, что он может ошибаться очень убедительно.
В популярных темах модели уже кажутся пользователям надёжными. Но именно эта доверчивость переносится потом и на редкие, локальные, специфические или плохо покрытые темы — туда, где данных мало, а шанс манипуляции намного выше.
Получается тревожная конструкция:
AI собирает и формирует ответ;
GEO подмешивает нужные сигналы;
пользователь верит в итог.
И всё это происходит без явного маркера, где правда заканчивается и начинается информационная настройка.
Автор называет это почти поэтично — «прозрачная глупость»: система выглядит разумной, но в действительности может быть пустой, если её сознательно загрязнять.
Самое неожиданное в этой истории — публичное разоблачение GEO не обязательно снижает интерес к нему. Напротив, оно может его подогреть.
Когда становится ясно, что “все так делают”, рынок быстро начинает действовать по логике:
если это работает у других, надо делать и нам;
если наказания почти нет, значит, можно;
если алгоритм можно обмануть, значит, обманутые будут вынуждены догонять.
Так рождается эффект разбитого окна: как только практика становится видимой и массовой, она перестаёт восприниматься как исключение и превращается в норму.
GEO трудно остановить ещё и потому, что его эффект сложно доказать. Нельзя с абсолютной точностью показать, что конкретный ответ AI появился именно из-за конкретной “подкормки”. Нельзя легко отделить “нормальное влияние контента” от “информационного отравления”.
Это делает регулирование почти бессильным. Граница между законной оптимизацией и манипуляцией размыта, а сама модель генерации работает как чёрный ящик. Именно поэтому автор утверждает: это не временная аномалия, а новая постоянная цифровой среды.
На фоне информационного мусора особенно растёт ценность того, что нельзя легко подделать:
личного опыта;
практического знания;
реальной экспертности;
живых наблюдений;
проверенного поля деятельности.
Автор делает важный вывод: в мире, где машины могут производить тонны однотипного текста, особенно ценными становятся люди, которые действительно что-то делают, а не только пишут об этом.
Это и есть, пожалуй, лучшая анти-GEO-стратегия: быть источником, который невозможно сымитировать.
GEO — это не временный шум вокруг AI-поиска, а новый слой борьбы за влияние. В эпоху SEO компании боролись за клики. В эпоху AI они борются за то, чтобы модель повторила их версию реальности.
И в этом смысле главный конфликт уже не про трафик. Он про доверие.
Если раньше вопрос звучал так: “Как попасть в выдачу?”, то теперь он звучит иначе:“Почему именно этому ответу должен верить человек?”
И чем больше AI становится “единственным говорящим”, тем острее становится задача защищать сам источник смысла.
sms_systems@inbox.ru
+ 7 (985) 982-70-55