Серая оптимизация отличается от чёрной тем, что она официально не запрещена, но её использование всё равно может быть расценено как неестественное завышение популярности сайта. Некоторые поисковые системы, например, Google, могут временно или постоянно заблокировать такой сайт. То есть, конечное решение о том, являются ли методы продвижения законными или нет, принимает специалист — модератор поисковой системы, а не программа.
Поисковая система Яндекс постоянно совершенствует оформление результатов поиска. В связи с этим на странице выдачи стала указываться дополнительная информация по сайту: адрес организации со ссылкой на Яндекс.Карты, телефон, регион организации. Эти данные можно ввести в базу Яндекса вручную через панель веб-мастера (после прохождения процедуры регистрации и подтверждения своих прав на управление ресурсом). В качестве дополнительных данных также выступают быстрые ссылки, которые формируются алгоритмически на основе структуры сайта, и ссылки на аккаунты компаний в социальных сетях, адреса которых также указываются через панель веб-мастера Яндекса. Кроме того, существует возможность сразу в выдаче указать информацию о доставке, цене на конкретную продукцию и т.д. Это можно сделать с помощью специального языка программирования для создания YML-файлов.
Цифровой маркетинг Маркетинг в социальных сетях Бренд-менеджмент Интернет-маркетинг Маркетинг на основе баз данных Маркетинг-менеджмент (англ.) Маркетинговые исследования Маркетинговые коммуникации (Реклама) Маркетинговая стратегия Мерчандайзинг Поведение потребителей (англ.) Поисковый маркетинг Продажи Продакт-плейсмент Продвижение Связи с общественностью Сегментация и нацеливание Социальный маркетинг Стратегический маркетинг Управление ключевыми клиентами (англ.) Управление продуктами (англ.) Управление ценой и ценностью Позиционирование
Методы оптимизации можно разделить на три класса в соответствии с их цветом (белый, серый и чёрный), однако, последние события в мире поисковых систем дают понять, что это разделение весьма условно — любая манипуляция определёнными параметрами сайта может быть расценена поисковиком как крайне нежелательное влияние на его результаты. Так, любая попытка манипулирования поисковыми результатами прямо запрещена в лицензии на использование поисковой системы «Яндекс». «Белые» оптимизаторы и маркетологи пользуются рекомендациями Яндекса по созданию «хороших» сайтов[5]. Таким образом, продвигают сайт, не нарушая правил поисковых систем.
Распространённый паттерн: открыть страницу поиска в Google и щёлкать по разным результатам в поисках нужной информации. Можно открыть десятки отдельных вкладок или ходить на каждый сайт по очереди, возвращаясь затем на поисковую выдачу (кнопка Back в браузере). Специалист по поисковой оптимизации Дэн Петрович из австралийской компании Dejan Marketing придумал, как эксплуатировать этот паттерн с выгодой для себя и получить обширную статистику посещений сайтов конкурентов, лишив их трафика.
Приблизительно три из пяти поисковых систем и модулей функционируют безо всяких математических моделей. Точнее сказать, их разработчики не ставят перед собой задачу реализовывать абстрактную модель и/или не подозревают о существовании оной. Принцип здесь прост: лишь бы программа хоть что-нибудь находила. Абы как. А дальше сам пользователь разберется.

Обо всех задачах и способах их решения рассказать невозможно. Для примера рассмотрим «расширение запроса», которое обычно производится через привлечение к поиску ассоциированных терминов. Решение этой задачи возможно в двух видах — локальном (динамическом) и глобальном (статическом). Локальные техники опираются на текст запроса и анализируют только документы, найденные по нему. Глобальные же «расширения» могут оперировать тезаурусами, как априорными (лингвистическими), так и построенными автоматически по всей коллекции документов. По общепринятому мнению, глобальные модификации запросов через тезаурусы работают неэффективно, понижая точность поиска. Более успешный глобальный подход основан на построенных вручную статических классификациях, например, веб-директориях. Этот подход широко используется в интернет-поисковиках в операциях сужения или расширения запроса.
The University of Illinois at Urbana-Champaign is a world leader in research, teaching and public engagement, distinguished by the breadth of its programs, broad academic excellence, and internationally renowned faculty and alumni. Illinois serves the world by creating knowledge, preparing students for lives of impact, and finding solutions to critical societal needs.
Реклама в Фейсбук не так давно добавила для бизнеса еще одну удобную фишку — возможность отслеживать аудиторию офлайн-событий. Теперь рекламодатели могут настраивать таргетинг на аудиторию, которая так или иначе принимала участие в этих офлайн-событиях. Зачем это вам нужно? Допустим, проводили вы какую-то встречу или мероприятие, и многие люди оставили вам данные….
Вместо того, чтобы возвращать точные ответы на запросы, используя введенные пользователем ключевые слова (как это было раньше), Google интерпретирует намерения и контекст поиска. Цель состоит в том, чтобы понять смысл поискового запроса пользователя и возвращать соответствующие результаты. Это означает, что точные совпадения ключевых слов становятся менее важными в пользу поиска намерения. В качестве примера: если вы вводите запрос «погода», то вряд ли ожидаете получить полное объяснение самого термина. Скорее в данном случае имеются в виду погодные условия. Что-то наподобие:

Startpage.com обещает не сохранять IP-адреса пользователей и, по утверждению сервиса, не использует файлы cookie для трекинга. Кроме того, Startpage.com доступен из сети Tor. Серверы поисковой системы находятся в Нидерландах. У сайта есть удобная особенность: результаты поиска можно просматривать при помощи опции «Прокси», которая шифрует соединение с соответствующей веб-страницей с помощью прокси-сервера. Таким образом, это настоящий поисковик без запретов: можно спокойно просматривать то, что блокирует ваш провайдер. Поисковые прокси — главная фишка Startpage, которые делают его поисковиком без цензуры. Если вам необходимо искать без блокировок, этот сервис для вас.
Важность персонализированного контента очень значима в digital-маркетинге. Весь контент, который вы отправляете потенциальным и существующим клиентам, должен отличаться между собой. Решением вопроса может стать создание динамического сайта, который будет отличать нового пользователя от старого, и будет показывать им разную информацию. К примеру, новый посетитель будет видеть стандартную страницу с перечнем ваших товаров или услуг, а пользователь, который уже был на вашем сайте — презентацию нового продукта. Этому подходу компания HubSpot название Smart-контент — контент, персонализированный под нужды клиента. Важно понимать, что один подход для всех больше не работает. Также компания проводила опрос, благодаря которому они получили данные, что персонализированный призыв к действию на 41% эффективнее, чем стандартный призыв. В свою очередь компания Smart Insights провела исследования и выявила, что более 60% пользователей больше доверяют компаниям, создающим персонализированный контент.
Если верить аналитике Garthner Hype Loop, то инструменты недостаточно эффективны, пока интерес к ним превышает умение ими пользоваться, то есть они находятся на пике хайпа. На пике сейчас медийное использование больших данных, нейросети, искусственный интеллект, маркетинг с лидерами мнений, виртуальная и дополненная реальности. Что мешает им быть эффективными на 100%?

К серой поисковой оптимизации можно отнести добавление большого количества ключевых слов в текст страницы, зачастую в ущерб читабельности для человека, например: «Масло масляное, потому что в нём есть маслопроизводные маслянистые жиры». (С появлением алгоритма Баден-Баден[6], Яндекс находит такие страницы и накладывает на них санкции[7].) При этом оптимизация заключается сначала в подборе ключевых запросов для конкретной веб-страницы, определении размера целевого «SEO-текста» и необходимой частоты ключевых слов в нём, а затем в формулировании предложений и фраз, содержащих в себе ключевые запросы определённое количество фраз в разных падежах, единственном и множественном числе, при разных формах глаголов. Эти параметры могут потом корректироваться по результатам выдачи поисковых систем. При этом задача SEO-копирайтера — написать оригинальный текст таким образом, чтобы подобная оптимизация была как можно менее заметна «живому» читателю (и в частности асессору поисковой системы). Широко применяется также включение ключевого запроса в HTML-теги title, meta description, h1, alt, атрибут meta keywords.
Некоторое время назад мой друг Boris Wertz написал в своем блоге статью «Есть только 2 способа построить бизнес в $100 млн.». Я хотел бы рассмотреть это вопрос подробнее и предположить, что есть пять стратегий создать интернет-компанию на $100 млн. Это не значит, что я не согласен со статьей Бориса. Я думаю, что наши взгляды очень похожи, и по большей части «мои» пять стратегий лишь немного отличаются и более детализируют взгляд Бориса.
На заре своего существования Интернет еще не обладал большим объемом информации. Количество пользователей Сетью было тоже совсем невелико. Однако со временем возникла необходимость в оптимизации доступа к информации, содержащейся в Интернете, благодаря чему в 1994 году на свет появился проект под названием Yahoo. Данный проект подразумевал создание каталогов сайтов, в которых ссылки на сайты были сгруппированы по различным темам. Однако этот проект еще совсем мало был похож на современные поисковые системы. Первой поисковой системой в привычном для нас понимании стала WebCrawler.
Широкий класс документов в вебе активно копируется и редактируется — ленты новостных агентств, документация и юридические документы, прейскуранты магазинов, ответы на часто задаваемые вопросы и т.д. Популярные типы изменений: корректура, реорганизация, ревизия, реферирование, раскрытие темы и т.д. Наконец, публикации могут быть скопированы с нарушением авторских прав и изменены злонамеренно с целью затруднить их обнаружение.
Сканирование может быть описано, как автоматизированный процесс систематического изучения общедоступных страниц в Интернете. Проще говоря, во время этого процесса Google обнаруживает новые или обновленные страницы и добавляет их в свою базу. Для облегчения работы он использует специальную программу. «Googlebots» (можно встретить альтернативные названия: «боты» или «роботы») посещают список URL-адресов, полученных в процессе прошлого сканирования и дополненных данными карты сайта, которую предоставляют веб-мастера и анализируют их содержание. При обнаружении ссылок на другие страницы во время посещения сайта, боты также добавляют их в свой список и устанавливают систематические связи. Процесс сканирования происходит на регулярной основе в целях выявления изменений, изъятия «мертвых» ссылок и установления новых взаимосвязей. И это при том, что только по данным на сентябрь 2014 года насчитывается около миллиарда веб-сайтов. Можете себе представить сложность такой задачи? Тем ни менее, боты не посещают абсолютно каждый сайт. Чтобы попасть в список проверяемых, веб-ресурс должен быть рассмотрен, как достаточно важный.
Когда пользователь вводит запрос, Google производит в базе данных поиск, подходящий под условия и алгоритмически определяет актуальность содержания, что выводит к определенному рейтингу среди найденных сайтов. Логично, что результаты, которые считаются более релевантными для пользователя поисковой системы, намеренно получают более высокий ранг, чем результаты, которые имеют меньше шансов обеспечить адекватный ответ. 

PPC — удобный инструмент для тех, кто хочет привлечь на лендинг качественный трафик, так как этот вид интернет-рекламы тесно связан с запросами и ожиданиями пользователей. Если традиционные виды рекламы на телевидении или в прессе могут быть доступны случайной аудитории, PPC реклама в идеале показывается только потенциально заинтересованным пользователям.
Самый эффективный путь, на мой взгляд, это всестороннее тестирование рекламных кампаний перед большим запуском. А также детальный контроль результатов, не только с помощью отслеживания медийных и посткликовых показателей, но и проведения бренд-лифтов и больших исследований. Всесторонний анализ дает намного больше данных для коррекции в креативах и медийных настройках.
И в результате смотрим на получившееся число. Если оно явно неконкурентно, и, выставив подобную ставку, мы потеряем все показы по объявлению, то переход нецелесообразен. Если есть сомнения, можно протестировать и проверить. При этом справка Google AdWords советует начинать показы с более высоких ставок, чтобы получить хороший показатель качества, а затем уже понижать их значение до нужного вам уровня.
Полнота является одной из главнейших характеристик поиска, она представляет собой отношение цифры найденных по запросу информационных документов к их общему числу в интернете, относящихся к данному запросу. Например, в сети есть 100 страниц имеющих словосочетание «как выбрать авто», а по такому же запросу было отобрано всего 60 из общего количества, то в данном случае полнота поиска составит 0,6. Понятно, что чем полнее сам поиск, тем больше вероятность, что пользователь найдет именно тот документ, который ему необходим, конечно, если он вообще существует.
Интернет-продвижение может быть эффективно для ВСЕХ компаний, потенциальная аудитория которых ищет подобные товары или услуги в интернете. Согласно статистике, численность интернет-пользователей растет с каждым годом, сегодня уже более трети россиян пользуются интернетом. Причем именно эта аудитория очень привлекательна для бизнеса, т.к. она обладает высокой платежеспособностью. Задумайтесь, тысячи, а, возможно, десятки и сотни тысяч людей ежедневно ищут Ваши товары, а находят товары конкурентов! И все потому, что более расторопные конкуренты уже заняли самые лучшие места в выдаче поисковых систем. Вы тоже можете занять эти «места под солнцем» - для этого нужно начать поисковую оптимизацию сайта.
×