СЕО-копирайтер против нейросети. Кто кого?

Основной задачей СЕО является оптимизировать текст таким образом, чтобы пользователь интернета мог его найти. Согласны, это азбучная истина, но сегодня появляется дополнительный элемент, окончание цитаты – «а поисковая система не смогла заблокировать». Об этом и поговорим в рамках данной статьи.

В 2010-м поисковик и СЕО-оптимизатор решали одну задачу, сегодня их задачи прямо противоположны

Поясним этот момент:

  • Поисковая система работает по алгоритму, подбирая выдачу сайта по запросу пользователя;
  • СЕОшник правит тексты таким образом, чтобы ПС могла найти текст по этому запросу, (учитывая алгоритм работы ПС);
  • Сотрудники ПС в ручном режиме отсеивают тексты со спамом и рекламой, на своё усмотрение, принимая решение понизить рейтинг сайта или оставить, как есть;
  • Пользователь задаёт вопрос ПС, понятия не имея обо всех этих алгоритмах и правилах.

Пользователь просто набирает «купить зелёные лосины». И если ещё пару лет назад в выдаче появились бы блоги, форумы и прочий мусор, где эта фраза звучит много раз, то сегодня ключевое слово «купить», запускает алгоритм поиска мест, где лосины продают.

И это движение в сторону «предугадывания» желания пользователя сегодня дошло до своего апогея. Современные алгоритмы вроде «Королев», исключают рутинный ручной контроль, став продолжением других алгоритмов. Санкции, накладываемые на сайты, становятся автоматизированными, а апелляция весьма трудоёмким занятием.

Напомним цитату Яндекса в отношении санкций алгоритма Баден-Баден: «Снижение рейтинга будет не только за «переспам», но и за неестественные (нечитабельные) употребления фраз».

  • За переспам может быть наказан магазин, в каталоге которого 50 видов зелёных лосин, имеющих незначительные отличия в артикулах на одной странице, и таких фактов множество;
  • Ярким примером наказания за «неестественные» употребления фраз стал один из популярных литературных порталов;
  • Рейтинг ряда спортивных сайтов был понижен из-за текстов, в которых не было маркированных списков;
  • Несколько сайтов, посвящённых рукоделию, пострадали из-за обилия картинок и минимума текстов.

Список можно продолжать, но общая тенденция очевидна. Робот не в состоянии понять, что специфика некоторых ресурсов никак не может быть вписана в самый детально описанный алгоритм. И дальнейшее усложнение алгоритмов может загнать ситуацию в тупик автоматизированного семантического анализа с неверными результатами, в дебрях которого и дипломированный филолог разберётся не сразу.

Тем более на фоне победных рапортов о достижениях в этой сфере нейросетей.

Гром грянул откуда не ждали, а многие и вовсе в это не верили

Программы, которые занимаются дешифрацией, известны довольно давно, фактически это противостояние (например, шифровальных ключей). Одна программа шифрует, вторая расшифровывает, и этим никого не удивить – просто один алгоритм против другого.

В данном примере мы получили уникальную ситуацию, в которой заведомо стохастический шифр был изобретён человеком, а расшифрован машиной. Скажете, расшифровкой текстов машины занимаются давно? Давайте уточним несколько моментов:

  • Программы (не дешифраторы) расшифровывали тексты, а не закодированные сообщения. Иными словами логически выстроенные и взаимосвязанные сообщения;
  • Как таковой расшифровкой программы не занимались, решая задачи по перебору вариантов для исследователя (совпадения «букв», «слов», «словоформ» и т.д.);
  • Алгоритмы расшифровки менялись в зависимости от промежуточных результатов;
  • Решение об изменении направления поиска, окончании или отказе от поиска в данном направлении оставалось за человеком.

Последняя фраза вам не напоминает поведение алгоритмов типа «Королев» от Яндекса? «Вторичные» программы проводят рутинную исследовательскую работу по поиску ответа на запрос пользователя, а сам алгоритм (аналог человека в данном случае) «принимает решение». Примерно так и обстоит дело на данный момент времени.

Вернёмся к новости. Впервые в истории развития (условно пока, очень условно) «искусственного интеллекта», нейросеть, получив входные данные и сравнительные данные для анализа, самостоятельно провела полный цикл исследований, выдав итоговый результат.

Ещё раз подчеркнём, не промежуточные данные для обдумывания человеком, а итоговый результат. Причём, результат в сфере, которая, как казалось, будет ещё долго недоступной для автоматизированной оценки – в сфере семантического анализа. И в данном случае анализа максимально высокого уровня сложности.

Поисковые системы пытаются анализировать семантику, а что если проанализировать их?

Проще говоря, если в эту нейросеть заложить текущие правила СЕО с точки зрения поисковых систем, она почти мгновенно составит свой рейтинг «настоящих, релевантных текстов, на 100% отвечающих запросам пользователей».

И цифра в 100% не кажется преувеличением, учитывая, что Гугл уже предложил финансирование дальнейших работ по расшифровке манускрипта Войнича. Отложим споры о том, имеет текст смысл или нет, это удел историков и филологов. Мы говорим о другом. Один робот (нейросеть) в состоянии провести анализ других роботов (поисковых систем с их алгоритмами) и выстроить свой рейтинг. Судя по всему, это будет действительно честный рейтинг.

Эта нейросеть в состоянии решить и обратную задачу – сконструировать логически непротиворечивый текст, который, возможно, и не будет иметь смысла, но будет в выдаче первым во ВСЕХ поисковых системах. Причина? Нейросеть в состоянии учесть все правила всех алгоритмов всех поисковых систем. Достаточно только правильно составить программу.

А если в эту программу заложить опцию «пометить заливкой фрагменты, которые можно редактировать», то через полчаса работы копирайтера средней руки никто в этом тексте не опознает творение робота. При этом в выдаче текст останется на первых местах.

Кто виноват, что делать, и насколько быстро получит развитие этот подход?

Сначала, насколько быстро. Программирование нейросети на расшифровку манускрипта Войнича заняло почти два месяца. Отметим, что в успех затеи мало кто верил, так что никто никуда не спешил. Работала нейросеть (по разным данным) от суток до трёх, и опять же никто никуда не спешил.

А вот сейчас, судя по привлекаемым ресурсам, кое-кто может начать поторапливаться, чтобы первым оказаться у истоков. Так что виноват в этом деле ошеломительный успех предтечи ИИ в деле, казавшемся безнадёжным всем исследователям.

И что делать? Спрашиваем себя мы. Хороший вопрос, ответ на него зависит от того, кто начнёт использовать новые возможности глубокого семантического анализа.

Если поисковые системы, то СЕО в нынешнем виде канет в лету. ИИ будет глубоко наплевать на количество ключей, тип вхождения, наличия списков и прочего. По-сути, текст будет читать «обычный человек», только с ОЧЕНЬ широким кругозором. Именно он будет принимать решение, соответствует ли «магазин зелёных лосин» запросу «хочу купить зелёные лосины». Если даже магазин торгует лосинами, но там нет зелёных, он просто не попадёт в выдачу.

Значит, роботы будут «обдумывать» тексты? Конец текстовому продвижению сайтов?

Даже если так, это не будет означать закат СЕО вообще. Это будет логическое развитие общего улучшения контента, которое мы наблюдаем последние два года. «Webprojectxxi» давно поставил контент во главу угла продвижения, и, похоже, эта ставка начинает работать всё эффективнее.

Правила упростятся, а может быть, вообще отпадут за ненадобностью. Вместо кучи разных алгоритмов будет простой анализ – «полезный контент / не полезный контент». И то, что сейчас мы видим в ПС (ужесточение правил в попытках решить эту задачу), приобретёт логически законченный вид. А сео-переоптимизированные тексты канут в лету вместе с правилами ПС.

И поверьте нам на слово, учитывая развитие нейросетей, доступность их машинного времени и явный интерес Гугл, к революции в СЕО пора готовиться уже сейчас. Иначе вскоре может наступить утро, когда сайт с первой страницы выдачи рухнет в бездну сотых страниц.

Правильные апдейты

Продвижение сайтов

Задать вопрос