В конечном итоге, искусственная оптимизация не приводит к желаемому результату. Даже если владельцу сайта удается на какое-то время продвинуть свой ресурс в результатах поиска, его действия вредят другим людям и экологии сети в целом. Пользователям поиска становится труднее найти ответ на свой вопрос, а в интернете появляется большое количество мусорного контента. Яндекс рассматривает подобные методы псевдооптимизации как разновидность поискового спама (п.3.7 Лицензии на использование поисковой системы Яндекса). Их использование может негативно отразиться на оценке сайта поисковой системой.
При вводе поискового запроса «натуральное мыло своими руками» мы получаем 4 рекламных объявления, которые условно можно поделить на два блока. Первый соответствует поисковому запросу и предлагает нам товары для мыловарения (наборы, формы, материалы). Второй блок предлагает нам уже готовое мыло, пусть даже и ручной работы. Не спорим, существует вероятность, что, посмотрев на ваше объявление, потенциальный клиент передумает варить мыло сам и закажет у вас готовый продукт. Но, скорее всего, он зайдет на сайт, не найдет там того, что искал, и уйдет. А вы заплатите за клик, который не привел к конверсии. Возникает вопрос — как избежать таких ситуаций.
Распространённый паттерн: открыть страницу поиска в Google и щёлкать по разным результатам в поисках нужной информации. Можно открыть десятки отдельных вкладок или ходить на каждый сайт по очереди, возвращаясь затем на поисковую выдачу (кнопка Back в браузере). Специалист по поисковой оптимизации Дэн Петрович из австралийской компании Dejan Marketing придумал, как эксплуатировать этот паттерн с выгодой для себя и получить обширную статистику посещений сайтов конкурентов, лишив их трафика.
Рассмотрим это обновление на обычном примере. Допустим, вам нужно купить дверь. Если ввести запрос, Google выдаст фотографии дверей. Из них: 2-3 страницы, где непосредственно можно купить двери, 3-4 сайта компаний-производителей дверей и 2-3 сайта о том, как выбрать и поменять дверь. Если бы не было обновления Payday Loan, вы бы увидели 15-20 запросов на одну тематику (к примеру, где купить дверь).
Информационный поиск (Information Retrieval, IR) — поиск неструктурированной информации, единицей представления которой является документ произвольных форматов. Предметом поиска выступает информационная потребность пользователя, неформально выраженная в поисковом запросе. И критерий поиска, и его результаты не детерминированы. Этими признаками информационный поиск отличается от «поиска данных», который оперирует набором формально заданных предикатов, имеет дело со структурированной информацией и чей результат всегда детерминирован. Теория информационного поиска изучает все составляющие процесса поиска, а именно предварительную обработку текста (индексирование), обработку и исполнение запроса, ранжирование, пользовательский интерфейс и обратную связь.
По большому счету, сегодня практически невозможно получить «чистую» поисковую выдачу. Дело в том, что Google владеет огромными наборами данных о своих пользователях. Он знает не только то, где мы живем, а еще и что любим читать и смотреть, какие страны посещать, он знает, в какие магазины мы ходим  и что мы в них покупаем. Например, чтобы найти сервис заказа пиццы, часто уже не нужно добавлять город. Запрос «заказ пиццы» приведет к разным результатам для людей, которые задали такие запросы, например, из Киева или из Одессы.
Сейчас любой оптимизатор может сам выбрать подходящие для мониторинга позиций сайта средства. Одни выбирают онлайн-сервисы поисковых систем, другие прибегают к помощи стационарных программ, которые могут быть как бесплатными, так и обходиться "в копейку". Важно, чтобы это был в действительности качественный инструмент, позволяющий точно определить позиции веб-ресурса в соответствии со всеми поставленными задачами.

Сейчас любой оптимизатор может сам выбрать подходящие для мониторинга позиций сайта средства. Одни выбирают онлайн-сервисы поисковых систем, другие прибегают к помощи стационарных программ, которые могут быть как бесплатными, так и обходиться "в копейку". Важно, чтобы это был в действительности качественный инструмент, позволяющий точно определить позиции веб-ресурса в соответствии со всеми поставленными задачами.
Для анализа трафика из выдачи используются системы аналитики, такие как — Яндекс.Метрика и/или Google Analytics. Данные системы позволяют оценить целевой трафик, его величину, конкретные поисковые запросы, по которым осуществляются переходы и прочую полезную для SEO информацию. На Рис.2 представлен пример анализа входящего на сайт трафика по запросам, в которых содержится слово «дублен*». Отчет получен с использованием системы аналитики Google Analytics.
Поисковые системы постоянно оценивают качество результатов поиска и вносят необходимые поправки в алгоритм. Так, в Google идут активные разработки персонализированного поиска, основанного на данных о предпочтениях пользователя. Перед сменой своих алгоритмов ранжирования Яндекс и Рамблер активно используют динамическую выдачу, когда разным пользователям по одинаковым запросам показываются разные результаты поиска для оценки кликабельности элементов.
Давным-давно доказано (Экарт), что если оставить в рассмотрении первые k сингулярных чисел (остальные приравнять к нулю), мы получим ближайшую из всех возможных аппроксимацию исходной матрицы ранга k (в некотором смысле ее «ближайшую семантическую интерпретацию ранга k»). Уменьшая ранг, мы отфильтровываем нерелевантные детали; увеличивая, пытаемся отразить все нюансы структуры реальных данных.

Для анализа трафика из выдачи используются системы аналитики, такие как — Яндекс.Метрика и/или Google Analytics. Данные системы позволяют оценить целевой трафик, его величину, конкретные поисковые запросы, по которым осуществляются переходы и прочую полезную для SEO информацию. На Рис.2 представлен пример анализа входящего на сайт трафика по запросам, в которых содержится слово «дублен*». Отчет получен с использованием системы аналитики Google Analytics.
На скорость работы поисковых систем часто влияет архитектура и логика машины, поэтому результаты кэшируются, поиск идет параллельно по дата-центрам, данные дублируются. Полноту ответа отрабатывают колдунщик и алгоритмы, учитывающие синонимию, омонимию, аббревиатуры и др. За точность отвечают непосредственно механизмы ранжирования. Также важно, чтобы предлагаемая информация была актуальной, а подчас свежей, что обеспечивается быстрым роботом.
Вполне приличная статья и хочу добавить, что не все пока что используют такие приемы маркетинга в жизни. Мне удалось лишь подобное встретить в рекламном агентстве http://rim-m.ru/ , которое предложило много креативных вариантов рекламы как в реальной жизни, так и в интернете. Подходы у них к такому делу серьезные и мой бизнес они продвинули быстро и хорошо.
Сообщество SEO знает его как человека, который расшифровывает Патенты Google, и после почти 15 лет исследований патентов и документов из поисковых систем — Билл уничтожил больше мифов SEO, чем любой другой человек. Он обладает богатыми знаниями о индустрии цифрового маркетинга, глубоким пониманием того, как работают поисковые системы, и уникальным пониманием лучших методов SEO. Теперь он рядом с нами, чтобы поделиться своим опытом, но просим вас также наблюдать и его сайт и быть постоянно в курсе с развитием философии компании Google.
×