Надстройка для браузера Google Toolbar показывает для каждой веб-страницы целое число от 0 до 10, которое она называет PageRank, или важностью этой страницы с точки зрения Google. Однако механизм его расчёта и что в точности обозначает это значение, не раскрывается. По некоторым данным, эти значения обновляются лишь несколько раз в год (в то время, как внутренние значения PageRank пересчитываются непрерывно[12]) и показывают значения PageRank страниц на логарифмической шкале.[13]
Сканирование может быть описано, как автоматизированный процесс систематического изучения общедоступных страниц в Интернете. Проще говоря, во время этого процесса Google обнаруживает новые или обновленные страницы и добавляет их в свою базу. Для облегчения работы он использует специальную программу. «Googlebots» (можно встретить альтернативные названия: «боты» или «роботы») посещают список URL-адресов, полученных в процессе прошлого сканирования и дополненных данными карты сайта, которую предоставляют веб-мастера и анализируют их содержание. При обнаружении ссылок на другие страницы во время посещения сайта, боты также добавляют их в свой список и устанавливают систематические связи. Процесс сканирования происходит на регулярной основе в целях выявления изменений, изъятия «мертвых» ссылок и установления новых взаимосвязей. И это при том, что только по данным на сентябрь 2014 года насчитывается около миллиарда веб-сайтов. Можете себе представить сложность такой задачи? Тем ни менее, боты не посещают абсолютно каждый сайт. Чтобы попасть в список проверяемых, веб-ресурс должен быть рассмотрен, как достаточно важный.

Сервис в своей работе использует алгоритмы нескольких поисковых систем. В описании Ixquick упоминается десять разных поисковиков, а для определения релевантности результата используется  система «Star System». Ее суть состоит в том, что один условный бал (звезда) присваивается результату из одной поисковой системы. Список ранжируется в зависимости от количества звезд. Иными словами, в верхней части списка окажутся сайты, которые были найдены с помощью сразу нескольких поисковых систем.
Именно эти параметры использовались и используются на регулярной основе для выбора моделей и их параметров в рамках созданной Американским институтом стандартов (NIST) конференции по оценке систем текстового поиска (TREC — text retrival evaluation conference) [6]. Начавшаяся в 1992 году консорциумом из 25 групп, к 12-му году своего существования конференция накопила значительный материал, на котором до сих пор оттачиваются поисковые системы. К каждой очередной конференции готовится новый материал (т.н. дорожка) по каждому из интересующих направлений. «Дорожка» включает коллекцию документов и запросов. Приведу примеры.

С тех пор алгоритмы и математические модели, применяемые при ранжировании в Google, значительно улучшились. В интервью в 2007 году Амит Сингхал, представитель отдела качества поиска Google, заявил, что их поисковая система использует более 200 ранжирующих сигналов, лишь одним из которых является PageRank,[5] но он до сих пор играет существенную роль в поисковых продуктах Google.[6] Стоит отметить, что алгоритм PageRank, в том виде, в каком он был изложен Пейджем в статье 1998 года[3], может быть улучшен в некоторых практических аспектах (например, ссылкам могут назначаться разные веса), и алгоритмы, применяемые в современных поисковых системах, являются скорее лишь его вариантами.

Pay per click (с англ. — «платить за клик») — это рекламная модель, применяемая в интернете, в которой рекламодатель размещает рекламу на сайтах, и платит их владельцам за нажатие пользователем на размещённый баннер (текстовый или графический) либо «тело» документа (классический пример — рекламный код формата clickunder). Таким образом рекламодатель как бы покупает себе клиентов в интернете.
Мы специалисты по продвижению сайтов в Интернете и в прошлом ведущие сотрудники Google. На двоих у нас больше 14 лет опыта в обеспечении качества Поиска. Мы досконально изучили, как работает Google Поиск: отслеживали происхождение спам-сигналов, анализировали ссылочные сети, применяли санкции к сайтам и снимали их после повторных проверок. Мы разрабатывали рекомендации по обеспечению качества Поиска и следили за их выполнением, помогали веб-мастерам на справочных форумах и конференциях. В общем, у Google Поиска нет секретов от нас. Однако мы не помогаем продвигать сайты со спамом и не обещаем первых позиций в результатах поиска. И ещё – мы не делаем скидок.
Как известно, поисковая оптимизация одностраничных приложений задача непростая и решение ее может потребовать значительных затрат труда, особых умений от разработчиков и финансовых затрат от заказчика. Какие же решения предлагает сообщество, чтобы, по возможности быстро и с минимальными затратами, сделать React веб-сайт дружественным к поисковым серверам?
×