Похороны куклы Краткий курс: свободная музыка Как реформировать здравоохранение в России? Краткий курс: фри-джаз Виктор Шендерович. Короткая похвала иронии Как написать «Тетрис» Как работают поисковые системы Анатолий Найман: жизнь без рецепта Что такое постсоветский человек? Что такое культура? Нужен ли госзаказ в кино? С чего начинается музей?
Наполнение сайта меняется под семантическое ядро, но важно не делать это бездумно. Тексты пишутся не ради поискового робота, а для людей — это основное правило. Поисковые роботы уже умеют определять «переоптимизированные», набитые ключевыми словами тексты. Наказание — понижение позиции в выдаче. У «Яндекса» этим занимается специальный алгоритм — «Баден-Баден».
Обычно рекламодатели хотят, чтобы пользователи нажимали на их объявления. Однако иногда это не главное. Возможно, вам нужно, чтобы вашу рекламу увидело как можно больше людей. В таком случае вам больше подойдет цена за тысячу показов в видимой области экрана, а не за клик. При этом варианте назначения ставок сумма, которую вы платите, зависит от того, как часто ваша реклама появлялась в поле зрения пользователей в контекстно-медийной сети Google. Вы указываете максимальную цену, которую хотите платить за каждую тысячу показов в видимой области экрана (наличие кликов при этом роли не играет).
Эта модель позволяет рекламодателям помещать заявки на рекламоместо (обычно ключевые слова - keywords). Сайты, используя рекламную интернет-систему (рекламодателей), соревнуются друг с другом (своего рода аукцион). Основная цель: приобрести лучшее рекламоместо по самой низкой цене. Рекламодатели достигают этого, сообщая о максимальной сумме, которую они готовы заплатить за рекламоместо.
При введении ключевых слов она не требует использования специальных знаков (кавычек, заглавных букв и тому подобное), а это значительно облегчает процесс поиска нужной информации. Кроме этого, среди положительных качеств Google можно отметить ее огромную базу данных. На настоящий момент она насчитывает более трех миллиардов страниц, поэтому база этого поисковика входит в список самых больших.
Ссылки – вообще отдельная область SEO. Сложно, дорого, долго, но без этого никуда. Чтобы поисковик понимал, какой сайт трастовый, какому доверять и какой показывать, он начинает анализировать окружение этого сайта. Проще говоря, чем больше на меня ссылаются сайтов (из моей же ниши с моей тематикой), чем чаще меня упоминают в интернете. И чем качественнее эти ссылки, тем больше у меня авторитет в глазах поисковой системы. Если вы злоупотребляете ссылками, закупаете их где попало, не продумываете соотношение анкоров (текст ссылки), то вы портите карму своего сайта — поисковые системы такие сайты банят. Но не стоит покупать ссылки, пока вы не проработаете структуру своего сайта и не оптимизируете его. Сначала SEO, потом сайт. Не выбрасывайте деньги на ветер.

Описание ссылки на сайт в выдаче называется сниппетом. Сниппет формируется поисковыми системами. Для формирования сниппета поисковые системы могут брать текст из таких источников как: текст на странице, текст описания сайта в каталоге (Яндекс.Каталог, DMOZ), текст мета-тега Description. При этом каждая поисковая система имеет свои особенности формирования сниппета. В частности Google чаще всего использует текст мета-тега Description. Так произошло и в данном случае — этот текст можно увидеть в коде сайта, на странице он не отображается.


Но что же поменялось в действительности за последние годы? Не алгоритмы и не структуры данных, не математические модели. Хотя и они тоже. Поменялась парадигма использования систем. Проще говоря, к экрану со строчкой поиска подсели домохозяйка, ищущая утюг подешевле, и выпускник вспомогательного интерната в надежде найти работу автомеханика. Кроме появления фактора, невозможного в доинтернетовскую эру, — фактора тотальной востребованности поисковых систем — стала очевидна еще пара изменений. Во-первых, стало ясно, что люди не только «думают словами», но и «ищут словами». В ответе системы они ожидают увидеть слово, набранное в строке запроса. И второе: «человека ищущего» трудно «переучить искать», так же как трудно переучить говорить или писать. Мечты 60—80-х об итеративном уточнении запросов, о понимании естественного языка, о поиске по смыслу, о генерации связного ответа на вопрос с трудом выдерживают сейчас жестокое испытание реальностью.
Когда он вводит свой запрос в поисковую машину, он желает найти то, что ему надо, как можно проще и быстрее. Получив результат, пользователь составляет свою оценку работе системы, руководствуясь несколькими критериями. Получилось ли у него найти нужную информацию? Если нет, то сколько раз ему пришлось переформатировать текст запроса, чтобы найти ее? Насколько актуальная информация была им получена? Как быстро поисковая система обработала его запрос? Насколько удобно были предоставлены поисковые результаты? Был ли нужный результат первым, или находился на 30-ом месте? Сколько «мусора» (ненужной информации) было найдено вместе с полезными сведениями? Найдется ли актуальная для него информация, при использовании ПС, через неделю, либо через месяц?
Вообще у прямых алгоритмов есть принципиально беспроигрышные отличительные черты. Например, неограниченные возможности по приближенному и нечеткому поиску. Ведь любое индексирование всегда сопряжено с упрощением и нормализацией терминов, а следовательно, с потерей информации. Прямой же поиск работает непосредственно по оригинальным документам безо всяких искажений.
Для сообщников, которые будут читать это в 2100 году, скажу: когда-то давным-давно, в 2018 году, Рэнд Фишкин был самой выдающейся фигурой в мире SEO-технологий. После почти 20 лет в SEO — он видел все, побывал везде, и вот он здесь, чтобы рассказать нам немного больше о его удивительном пути, который он проделал до настоящего времени и о следующих вехах этого знаменательного путешествия, — выходе его книги Потерявшийся стартапер и основатель и новом стартапе — проекте SparkToro.
×