Мы специалисты по продвижению сайтов в Интернете и в прошлом ведущие сотрудники Google. На двоих у нас больше 14 лет опыта в обеспечении качества Поиска. Мы досконально изучили, как работает Google Поиск: отслеживали происхождение спам-сигналов, анализировали ссылочные сети, применяли санкции к сайтам и снимали их после повторных проверок. Мы разрабатывали рекомендации по обеспечению качества Поиска и следили за их выполнением, помогали веб-мастерам на справочных форумах и конференциях. В общем, у Google Поиска нет секретов от нас. Однако мы не помогаем продвигать сайты со спамом и не обещаем первых позиций в результатах поиска. И ещё – мы не делаем скидок.
Как и любая программа, поисковая система оперирует структурами данных и исполняет алгоритм. Разнообразие алгоритмов не очень велико, но оно есть. Не считая квантовых компьютеров, которые обещают нам волшебный прорыв в «алгоритмической сложности» поиска и про которые автору почти ничего не известно, есть четыре класса поисковых алгоритмов. Три алгоритма из четырех требуют «индексирования», предварительной обработки документов, при котором создается вспомогательный файл, сиречь «индекс», призванный упростить и ускорить сам поиск. Это алгоритмы инвертированных файлов, суффиксных деревьев, сигнатур. В вырожденном случае предварительный этап индексирования отсутствует, а поиск происходит при помощи последовательного просмотра документов. Такой поиск называется прямым.
Однако, как только речь заходит о повышении качества поиска, о большом объеме информации, о потоке пользовательских запросов, кроме эмпирически проставленных коэффициентов полезным оказывается оперировать каким-нибудь, пусть и несложным, теоретическим аппаратом. Модель поиска — это некоторое упрощение реальности, на основании которого получается формула (сама по себе никому не нужная), позволяющая программе принять решение: какой документ считать найденным и как его ранжировать. После принятия модели коэффициенты часто приобретают физический смысл и становятся понятнее самому разработчику, да и подбирать их становится интереснее.
К серой поисковой оптимизации можно отнести добавление большого количества ключевых слов в текст страницы, зачастую в ущерб читабельности для человека, например: «Масло масляное, потому что в нём есть маслопроизводные маслянистые жиры». (С появлением алгоритма Баден-Баден[6], Яндекс находит такие страницы и накладывает на них санкции[7].) При этом оптимизация заключается сначала в подборе ключевых запросов для конкретной веб-страницы, определении размера целевого «SEO-текста» и необходимой частоты ключевых слов в нём, а затем в формулировании предложений и фраз, содержащих в себе ключевые запросы определённое количество фраз в разных падежах, единственном и множественном числе, при разных формах глаголов. Эти параметры могут потом корректироваться по результатам выдачи поисковых систем. При этом задача SEO-копирайтера — написать оригинальный текст таким образом, чтобы подобная оптимизация была как можно менее заметна «живому» читателю (и в частности асессору поисковой системы). Широко применяется также включение ключевого запроса в HTML-теги title, meta description, h1, alt, атрибут meta keywords.
Замечали навязчивую рекламу, преследующую вас по всему интернету? Большинство поисковых систем следят за вами. Политика конфиденциальности поисковой системы ДзенПоиск не предусматривает записи и хранения какой-либо пользовательской информации и слежения за пользователями. Поисковая система не хранит и, следовательно, не может никому передать журнал поисковых запросов, посещенных сайтов, IP адрес пользователя и т. д.
PageRank также оценивает важность каждой страницы, принимающей участие в голосовании. При получении голосов от страниц с большей значимостью ссылка становится более ценной. Значимые страницы получают более высокий рейтинг PageRank и отображаются в начале результатов поиска. Технология Google использует совокупные интеллектуальные веб-средства, чтобы определить значимость страницы. Человеческий фактор или подтасовка результатов невозможны, и именно поэтому пользователи доверяют Google как источнику объективной информации, в результатах поиска которого отсутствуют проплаченные рекламные объявления.
Простейшая идея глобального (т.е. статического) учета ссылочной популярности состоит в подсчете числа ссылок, указывающих на страницы. Примерно то, что в традиционном библиотековедении называют индексом цитирования. Этот критерий использовался в поисковых системах еще до 1998 года. Однако он легко подвергается накрутке, кроме того, он не учитывает вес самих источников.
Существует распространенное убеждение, что каждое новое поколение программ совершеннее предыдущего. Дескать, раньше все было несовершенно, зато теперь повсюду царит чуть ли не искусственный интеллект. Иная крайняя точка зрения состоит в том, что «все новое — это хорошо забытое старое». Думаю, что применительно к поисковым системам истина лежит где-то посередине.
После оптимизации сайта и выведения его на лидирующие позиции поисковой выдачи нужно продолжить работы по закреплению и поддержке достигнутого результата. В случае, если программа продвижения будет приостановлена, позиции сайта будут постепенно ухудшаться. Это происходит из-за активной деятельности конкурентов по продвижению своих интернет-ресурсов, а также изменения алгоритмов работы поисковых систем. В итоге, достигнутый результат будет утерян.
Digital-маркетинг и связанные с ним каналы очень важны, но не вместо других, а вместе с другими. Недостаточно знать своих клиентов, надо знать их лучше, нежели кто-либо из конкурентов, таким образом Вы будете знать где, когда и как они наиболее восприимчивы и готовы к Вашему информационному посылу. Чтобы владеть такой информацией, надо иметь консолидированное представление преимуществ и ожиданий клиента во всех типах каналов: веб, социальные медиа, мобильная связь, прямая почтовая рассылка, точки продажи и т.д. 
Критика булевской модели, вполне справедливая, состоит в ее крайней жесткости и непригодности для ранжирования. Поэтому еще в 1957 году Джойс и Нидхэм предложили учитывать частотные характеристики слов, чтобы «... операция сравнения была бы отношением расстояния между векторами...» (Джойс, 1957). Векторная модель и была с успехом реализована в 1968 году отцом- основателем науки об информационном поиске Джерардом Солтоном (Gerard Salton) [2] в поисковой системе SMART (Salton's Magical Automatic Retriever of Text).
Сообщество SEO знает его как человека, который расшифровывает Патенты Google, и после почти 15 лет исследований патентов и документов из поисковых систем — Билл уничтожил больше мифов SEO, чем любой другой человек. Он обладает богатыми знаниями о индустрии цифрового маркетинга, глубоким пониманием того, как работают поисковые системы, и уникальным пониманием лучших методов SEO. Теперь он рядом с нами, чтобы поделиться своим опытом, но просим вас также наблюдать и его сайт и быть постоянно в курсе с развитием философии компании Google.
×