Алгоритмы поисковых систем: Алгоритмы поисковых систем: поведенческие факторы

Содержание

Алгоритмы поисковых систем: поведенческие факторы

Откуда поисковые системы знают о происходящем на вашем сайте? И зачем им это вообще знать?

Откуда данные?

Со страницы поисковой выдачи — переход на ваш сайт по ссылке из поиска фиксируется, равно как и возврат пользователя обратно к результатам поиска.

Google Analytics и Яндекс.Метрика — это популярные системы статистики, которые активно продвигаются не только путём улучшения функциональности, но и путём сокрытия данных о трафике из соответствующей поисковой системы: узнать обо всех поисковых запросах, которые привели к вам посетителей из Яндекса можно только из отчётов Метрики, а из Google — по отчётам Analytics. Системы статистики передают в Google и Яндекс очень много информации о поведении пользователей на вашем сайте.

Пользователи Google Chrome и Яндекс Браузера, приходящие на ваш сайт, в большинстве своём автоматически отправляют в Google и в Яндекс статистику использования браузера. Эта настройка по умолчанию активирована, обычные пользователи её не отключают.

Плагины для браузеров — Яндекс Бар и Google Toolbar — если пользователь не использует «фирменный» браузер, то он всё равно может снабжать поисковик статистикой о своих посещениях. Тулбары очень активно продвигаются и часто устанавливаются вместе со сторонним программным обеспечением.

Какие данные могут использоваться в ранжировании?

Показатель отказов — если средний пользователь проводит на сайте несколько секунд и закрывает вкладку браузера, то это плохой показатель, означающий, что пользователь не нашёл на сайте то, что искал, либо не понял как этим сайтом пользоваться.

Время, проведенное на сайте — если пользователи проводят на сайте много времени, то это означает, что сайт им интересен, верно и обратное — малое время просмотра обычно свидетельствует об отсутствии интереса.

Глубина просмотра — если пользователи просматривают на сайте много страниц, то это также свидетельствует о высоком интересе к содержанию сайта и о полезности сайта, если же просмотров мало, то сайт скорее всего если и был полезен, то интереса не вызвал.

Возвращение к повторному поиску — высокая доля возврата обратно к поиску — не очень позитивный фактор, если пользователь после просмотра сайта продолжил что-то искать, то на вашем сайте он искомого не нашёл.

Повторные возвращения на сайт — критерий хорошего сайта, если пользователи возвращаются через некоторое время — значит сайт не только был интересен пользователю единожды, но и продолжает быть ему интересен.

Алгоритмы поисковых систем: история развития

Поисковые системы на сегодняшний день для ранжирования результатов поиска учитывают многочисленные факторы. Но за этой сложностью стоит уже почти 3 десятилетия развития поисковых алгоритмов.

В девяностые годы количество пользователей сети было не столь значительным, как сегодня. Тогда сайтов и информации в сети было не так много, люди, в основном, использовали каталоги сайтов, где были представлены и классифицированы по тематике известные сайты. К середине 90х поисковики еще только начали появляться, а поиск в те годы основывался лишь на текстовом содержании сайтов. Но к концу 90х аудитория Интернета стала достаточно быстро увеличиваться, число сайтов — возрастать, поиск по каталогам становился всё более неэффективным, а текстовый поиск, основанный только на содержании сайтов, часто выдавал не очень полезные результаты — вернее результаты полезные были, но найти их в неупорядоченном списке было очень непросто.

Рост аудитории интернета стал вызывать коммерческий интерес — компании стали продвигать товары и услуги, регистрируя свои сайты в популярных каталогах и заполняя свои сайты огромными массивами информации. В это же время появился и поисковый спам — создание текстовых материалов не для людей, а для роботов поисковых систем (так называемые дорвеи), показ роботам и людям разного содержания (так называемый клоакинг). Алгоритмы поиска и так уже не справлялись со своими задачами из-за роста объёма, а тут еще и целенаправленное вредительство появилось.

Но в 98 году на сцену вышел Google с инновационной технологией PageRank, основанной на том, что интернет — это сеть, документы в сети взаимосвязаны, а эти взаимосвязи весьма ценны тем, что на хорошие сайты много ссылок, а на плохие — мало, что хорошие чаще ссылаются на хороших, а на плохие или не ссылаются вовсе, или ссылаются очень редко. Способность отделять хорошее от плохого и возможность упорядочивать хорошие сайты стали основой для расцвета Google. Собственно с появлением этой технологии в SEO началась новая эра — эра ссылок.

После появления PageRank поисковиками стали учитываться еще и тексты ссылок. Если на сайт часто ссылались с неким текстом, то по соответствующему поисковому запросу сайт находился выше в результатах поиска. В этом процессе учитывалось и качество ссылающегося сайта — ссылка с хорошего сайта (с сайта с высоким PR) давала гораздо более сильный эффект.

Но на каждое действие находится противодействие. Коммерческий интерес к нахождению на высоких позициях в результатах поиска всё возрастал, поэтому появление методов для влияния на результаты поиска при наличии коммерческой заинтересованности было лишь вопросом времени. Ссылками стали меняться, они стали покупаться и продаваться, сайты-каталоги стали использоваться для получения ссылок, особо заинтересованные в продвижении компании стали разрабатывать фермы сайтов для получения ссылок на собственные или продвигаемые сайты.

В начале «нулевых» годов поисковые системы были еще достаточно просты, достижение высоких позиций по любым запросам были только вопросом времени и бюджета. Пара месяцев активного обмена ссылками, регистрация по базе каталогов и покупка пары десятков хороших ссылок — и всё, сайт надолго «в десятке». Именно в эти годы компания «Веб Креатор» вышла на этот рынок, это были хорошие времена как для оптимизаторов, так и для заказчиков.

В конце «нулевых» поисковики стали «закручивать гайки» — обмен стал детектироваться и перестал учитываться, многие крупные порталы, уличённые в продаже ссылок, были «зафильтрованы» и ссылки с них перестали учитываться, тоже самое произошло с каталогами и большими фермами. Сеошники ответили на это запуском автоматических бирж по купле-продажи ссылок и переходом к более комплексному подходу. Прошла волна автоматически сгенерированных сайтов и сайтов с ворованных контеном, Яндекс ответил на это АГС-фильтром, а Google стал еще чаще «запихивать» новые сайты в песочницу.

Поисковые системы активно развивали и продолжают развивать свои алгоритмы, работа которых направлена на снижение внешних воздействий на результаты поиска и на формирование качественных результатов для каждого конкретного пользователя. В настоящий момент уже внедрены или активно тестируются как алгоритмы геотаргетинга, персонификации и учета истории запросов при формировании результатов поиска, отслеживание поведения пользователей на сайтах для определения их «полезности» и многое другое. Сейчас поисковые алгоритмы учитывают более тысячи различных факторов, контролировать которые достаточно сложно, поэтому достичь качественных результатов можно только работая над сайтом комплексно, повышая его качество не только для роботов поисковых систем, но и для конечных пользователей.

Google Bert — новый алгоритм поиска

Об алгоритмах и изменениях в Google

Мы часто говорим нашим клиентам, что узнать достоверно все факторы ранжирования невозможно. Потому что они меняются во времени, имеют разный вес для разных сайтов — и ни одна, даже самая крупная, компания не сможет создать симуляцию работы алгоритмов поисковых систем просто из-за глобальной разницы во внутренних ресурсах. Google в среднем выпускает 2 обновления ежедневно — то есть это 600–700 обновлений в год. Значимых из них немного: принципиально менять выдачу могут примерно 2–3. Наш опыт показывает, что если для продвижения сайта не используются накрутки и некачественный контент, то не более чем одно из обновлений действительно требует оперативного вмешательства.

Из последних изменений можно отметить:

Медицинские апдейты. Алгоритмы получили такое название потому, что затронули прежде всего сайты медицинской тематики. Но «повезло» не только медицине. Последний апдейт, «Флорида-2», был анонсирован в марте. Если вкратце, то пострадали сайты, манипулирующие внешними ссылками, а также малополезные ресурсы. Также Google обозначил принцип EAT (экспертность-авторитетность-надежность), который играет определяющую роль для контента в ряде тематик: юриспруденция, финансы, медицина и т. п.

Mobile first. Приоритет мобильного контента над десктопным. Например, если у вас отдельная мобильная версия, то индексироваться будет она, а не основной сайт. Это не новый алгоритм — он был запущен очень давно. Сначала работал в режиме тестирования, но уже в этом году начались массовые переводы сайтов на мобильное индексирование. По данным Google, с 1 июля абсолютно все сайты переведены на новый тип индексирования.

Обновление поискового краулера. Это не алгоритм, однако изменение важное — мы, кстати, о нем писали. Если вкратце — поисковый робот научился понимать динамический контент (например, часть скриптов).

The June 2019 Core Update и the September 2019 Core Update. В Google решили, что из-за обилия обновлений самые значимые проще называть датами: так будет удобнее отвечать на вопросы пользователей. Обновления были связаны с детализацией принципов EAT и с тем, как поисковая система понимает запросы пользователей. Сам Google на панику пользователей ответил, что реагировать на эти обновления не нужно никак: они не должны повлиять на объем целевого трафика. Интересно здесь то, что последнее обновление с большой долей вероятности повлияло на новый алгоритм — Bert.

Google Bert

В октябре Google опять анонсировал масштабное изменение алгоритма, которое использует новый подход к пониманию запросов пользователя: не по ключевым словам, а интерпретацию предложения целиком. Поисковик назвал Bert самым масштабным обновлением за последние 5 лет, которое затронет 10% поисковых запросов.

векторная модель. Понятие частотности термина

Соскучились по формулам и статьям, которые заставляют мозги пошевелиться и вспомнить школьный курс математики? Один из авторов на Seomoz, видимо, почувствовал эту потребность и написал интересную техническую статью, которую мы с удовольствием перевели.

Хорошая поисковая система не пытается выдать страницы, которые лучше всего соответствуют входному запросу. Хорошая поисковая система пытается ответить на основной вопрос.

Если Вы понимаете это, то поймете, почему Google (и другие поисковые системы) используют сложный алгоритм для определения того, какие результаты они должны отдавать по тем или иным запросам.

Факторы алгоритма влияющие на ранжирование состоят из точных факторов – количество обратных ссылок и, возможно, некоторых социальных сигналов, такие как кнопки like и +1. Это, как правило, внешние воздействия. Еще есть внутренние факторы непосредственно на самой странице.

Способы построения страницы и различные элементы страницы играют важную роль в алгоритме. Но только путем анализа внутренних и внешних факторов Google может определить, какие страницы могут ответить на вопрос пользователей. Для этого ему нужно анализировать текст на странице.

В этой статье я подробно расскажу про проблемы поисковика и кое-что объясню дополнительно. К сожалению, я не раскрываю алгоритм Google в конце этой статьи, но мы на один шаг приблизимся к тому, чтобы лучше понять изнанку некоторых советов, которые мы часто даем в роли seo-специалистов.

Будут некоторые формулы, но не паникуйте. Эта статья не только о формулах (кроме того, в тексте есть ссылка на файл-калькулятор в формате.xls). И еще кое-что: я буду иллюстрировать некоторые описания фотографиями голландских котлет 🙂

Правда или ложь

Поисковые системы чрезвычайно эволюционировали за последние годы, но поначалу они могли иметь дело только с логическими операторами. Проще говоря, термин был включен в документ или нет. Что-то было истинным или ложным, 1 или 0.

Кроме того, вы могли использовать операторы И, ИЛИ и НЕТ для поиска документов, которые содержали несколько терминов или исключали термины.

Звучит достаточно просто, но с этим есть некоторые проблемы. Предположим, у нас есть два документа с такими текстами:

Док1: «И наш ресторан в Нью-Йорке подает крокеты и тефтели.»

Док2: «В Голландии Вы получаете крокеты и тефтели с прилавка.»

Если мы должны построить поисковую систему, первый шаг – это разметка текста. Мы хотим иметь возможность быстро определить, какие документы содержат термин. Будет легче, если мы сложим маркеры в базу данных. Один маркер – какой-либо единственный термин в тексте. Итак, сколько маркеров содержит Док1?

В тот момент, когда вы начали отвечать на этот вопрос, вы, наверное, подумали об определении «термина». В действительности, в этом примере «Нью-Йорк» может быть признан одним термином. Способ, которым мы можем определить, что два слова являются одним, выходит за рамки этой статьи, так что на данный момент мы отслеживаем одно слово как отдельную лексему.

Таким образом, мы имеем 10 маркеров в первом документе и 11 во втором. Чтобы избежать дублирования информации в нашей базе данных, мы сохраним типы, а не маркеры.

Типы — это уникальные маркеры в тексте. В примере Док1 дважды содержится маркер «И» (И наш ресторан в Нью-Йорке подает крокеты и тефтели.)

В этом примере я игнорирую то, что «И» появляется один раз с, и еще один раз — без сохранения ценности термина. Как и с определением термина, есть методы, которые указывают, должно ли что-то быть использовано, как имеющее отдельную ценность. В этом случае мы предполагаем, что нет, и что «И» и «и» относятся к одинаковому типу.

Храня все типы в базе данных с документами, где мы можем их найти, мы в состоянии искать в пределах базы данных с помощью логических операторов. Запрос «крокеты» приведет нас и к Дoк1 и Док2, а запрос «крокет и тефтели» вернет результатом только Док1.

Проблема этого метода в том, что вы, вероятно, получите слишком много или слишком мало результатов. Кроме того, он лишен способности организовать результаты. Если нам необходимо усовершенствовать наш метод, мы должны определить, как мы можем использовать остальные маркеры или их отсутствие в документе.

Если бы вы были Google, то какие факторы на странице использовали бы для организации результатов?

Зональные Индексы

Относительно простой метод должен использовать зональные индексы. Веб-страница может быть разделена на различные зоны (title, description, author и body). Добавляя вес к каждой зоне, мы можем компетентно вычислить простую оценку для каждого документа. Это один из первых страничных методов поисковых системах, используемый для определения тематики на странице.

Действие по оценке зональной индексации:

Выполняем следующий поисковой запрос: «крокеты И тефтели». И у нас есть документ со следующими зонами:

Поскольку в какой-момент все начали злоупотреблять весом, который присваивался, например, description, то для Google стало более важно расколоть тело страницы в различных зонах и назначить различный вес на каждую отдельную зону «тела».

Это довольно трудно, потому что сеть содержит разнообразные документов с различными структурами. Интерпретация документа XML для машины довольно проста, но с HTML уже сложнее.

Структура и теги довольно ограничены, что делает анализ более сложным. Конечно, скоро HTML5 станет более общеупотребимым, а кроме того, Google поддерживает микроформаты, но разметка все еще имеет ограничения. Например, если вы знаете, что Google присваивает больше веса на содержание внутри тега content и меньше на содержание тега footer – вы никогда не будете использовать footer.

Чтобы определить контекст страницы, Google делит веб-страницу на блоки. Таким образом поисковик может оценить, какие блоки на странице важны, а какие – нет. Один из методов, которые могут быть при этом использованы – текстовое / кодовое соотношение. Блок на странице, в котором больше текста, чем HTML кода, вероятно, содержит главный контент страницы. Блок, который содержит много ссылок / HTML кода и мало контента – вероятно, меню. Именно поэтому выбор правильного редактора WYSIWYG очень важен, некоторые из этих редакторов используют много мусорного HTML-кода.

Использование сооотношения текст / код является лишь одним из методов, которые поисковая система может использовать для разделения страницы на блоки. Преимущество метода зональной индексации – вы можете довольно просто подсчитать оценку каждого документа. Недостаток – многие документы могут получить одинаковое значение веса.

Частота термина

Когда я просил Вас подумать о факторах страницы, которые вы использовали бы для определения релевантности документа, вы, вероятно, думали о частоте термина. Частота использования поисковых терминов – логичный шаг для оценки веса каждого документа.

Некоторые seo-агентства продолжают писать тексты с использованием определенного процента ключевых слов в тексте. Мы знаем, что этот прием уже не так хорошо работает, но разрешите мне показать – почему именно. Постараюсь объяснить это на основе следующих примеров.

Числа в таблице ниже – количество вхождений слова в документе (также называется частотой термина или tf). Так какой документ будет иметь лучшую оценку по запросу «крокеты и тефтели»?

Оценка для обоих документов будет выглядеть следующим образом:

оценка («крокеты и тефтели», Док1) = 8 + 10 + 2 = 20
оценка («крокеты и тефтели», Док2) = 1+20+9=30

В этом примере Док2 более соответствует запросу. Термин «и» получает больший вес, но разве это справедливо? Это стоп-слово, и мы хотели бы дать ему только небольшую ценность. Мы можем добиться этого с помощью обратной частоты документа (TF-IDF), который является противоположностью частоте документа (DF).

Частота документов – это количество документов, где упоминается термин. Обратная частота документов – ну, в общем, противоположность. По мере увеличения количества документов с упоминанием термина IDF будет сокращаться.

Вы можете рассчитать IDF путем деления общего количества документов у вас в «теле» на количество документов, содержащих слово, а затем взять логарифм этого коэффициента.

Предположим, что IDF нашего запроса является следующим:

IDF (крокеты) = 5
IDF (и) = 0,01
IDF (тефтели) = 2

Тогда Вы получаете следующие оценки:

вес («крокеты и тефтели», Док1) = 8*5 + 10*0.01 + 2*2 = 44.1
вес («крокеты и тефтели», Док2) = 1*5 + 20*0.01 + 2*9 = 23.2

Теперь Док1 имеет большую оценку. Но сейчас мы учитываем длину. Один документ может содержать гораздо больше контента, чем другой, не будучи при этом более релевантным. С помощью этого метода большой документ довольно легко получает высокий бал.

Векторная модель

Мы можем найти выход их этой ситуации, посмотрев на сходство косинуса документа.

Точное объяснение теории, стоящей за этим методом, выходит за рамки этой статьи. Но вы можете думать об этом, как о своего рода золотой середине между запросами терминов в документе. Я сделал файл Excel, так что вы можете поиграть с ним самостоятельно. Объяснение есть в самом файле. Вам необходимы следующие показатели:

Запросы терминов – каждый отдельный термин в запросе
Частота документов – сколько документов, содержащих этот запрос, знает Google
Частота термина – частота для каждого отдельного запроса термина в документе

Вот пример, где я фактически использовал эту модель. У веб-сайта была целевая страница, разработанная, чтобы ранжироваться по запросу «fiets kopen» (по голландски — «купить велосипеды»). Проблема состояла в том, что по запросу ранжировалась домашняя страница.

Для формулы мы включаем ранее упомянутую обратную частоту документа (IDF). Для этого нам понадобится общее количество документов в индексе Google. Будем считать, что это N = 10.4 миллиардов (на время написания статьи).

Объяснение таблицы ниже:

TF = частота термина
DF = частота документа
IDF = обратная частота документа
Wt, q = вес для термина в запросе
Wt, d = вес для термина в документе
Продукт = Вес, q * Вес, d
Оценка = Сумма продуктов

Главная страница, которая ранжировалась — http://www.fietsentoko.nl/

 

Страница, которую я хотел ранжировать: http://www.fietsentoko.nl/fietsen/

Хотя во втором документе чаще упоминается нужный термин запроса, оценка документа по запросу была ниже (чем выше — тем лучше). Это произошло из-за отсутствия баланса между терминами запроса.

После этого расчета я изменил текст на странице, увеличив использование термина «fietsen» и снизив использование «kopen», который является более общим термином в поисковых системах и имеет меньший вес. Это изменило оценку следующим образом:

Через несколько дней Google просканировал страницы, и документ, который я изменил, начал ранжироваться по нужному запросу. Из этого мы можем сделать вывод, что количество упоминаний термина не так важно, важно найти правильный баланс для терминов, которые вы хотите ранжировать.

Ускорение процесса

Чтобы делать этот расчет для каждого документа, соответствующего поисковому запросу, потребуются большие вычислительные мощности. Можно сделать проще – добавлять некоторые статические данные, чтобы определить документы, которые вам нужно оценить.

Например, PageRank является хорошим статическим значением. Когда вы впервые рассчитываете оценку для страниц, которые соответствуют запросу и имеют высокий PageRank, у вас есть хорошие переменные, чтобы найти некоторые документы, которые попадут в топ 10 в любом случае. Другая возможность – использование топ-списков. Для каждого отдельного слова брать только верхний документ N с лучшими результатами по этому слову.

Если у вас есть много запросов слова, вы можете соединить списки, чтобы найти документы, содержащие все запросы слова, и, вероятно, имеющие высокую оценку.

Только если документов, содержащих все слова, слишком мало, вы необходимо искать во всех документах. Таким образом вы можете рассчитать оптимизацию текста не только используя векторную формулу, но и упрощая расчеты благодаря статистическим данным.

Релевантная обратная связь

Релевантная обратная связь означает определенную ценность для слова в запросе, основанную на релеватности документа. Используя обратную связь, поисковая система может изменить запрос пользователя (не сообщая об этом самому пользователю).

В первую очередь здесь нужно определить – релевантен документ или нет. У Google не было такой функции в течение долгого времени. Первое, что они сделали – разрешили добавлять результаты поиска в избранное, теперь это кнопка + 1. Если достаточно многие люди начнут нажимать на кнопку по определенному результату, Google начнет считать документ важным для этого запроса.

Другой метод – смотреть на текущие страницы, которые хорошо ранжируются. Они будут считаться релевантными. Недостатком здесь является текучесть. Если вы ищете «тефтели и крокеты» и все страницы, которые хорошо ранжируются, принадлежат закусочным в Амстердаме, существует опасность, что вы назначите ценность Амстердаму и закончите с одними закусочными в результатах.

Еще один способ для Google – сбор данных. Они могут смотреть на CTR различных страниц. Страницы с высоким CTR и низким показателем отказов можно считать актуальными. Страницы с высокими отказами будут просто неуместны.

(Прим.: данные по +1 и CTR сейчас применимы для продвижения на Западе. У нас это пока не применимо).

Примером того, как мы можем использовать эти данные для корректировки веса слова по запросу, является формула обратной связи Рочио. Это обозначение ценности для каждого термина в запросе и, возможно, добавления дополнительных слов запроса. Формула для этого следующая:

Таблица ниже – объяснение этой формулы. Допустим, мы применяем следующие ценности :

Термин запроса +1 (альфа)
Релевантный термин +1 (бета)
Нерелевантный термин –0.5 (гамма)

У нас есть следующий запрос: «крокеты и тефтели»

Релеватность следующих документов такова:

Док1: релевантный
ДОк2: релевантный
Док3: не релевантный

Новые запросы следующие: крокеты (2) и (1) тефтели(1) кафе(0.5)

Ценность для каждого отдельного термина – вес, котоый входит в ваш запрос. Мы можем использовать этот вес в наших векторных вычислениях. Хотя термину «Амстердам» дали счет –0.5, отрицательные величины скорректировались назад к 0. Таким образом мы не исключаем термины из результатов поиска. И хотя «кафе» не появлялось в оригинальном запросе, в новом запросе оно получило вес.

Предположим, что Google использует этот способ релевантной обратной связи когда вы смотрите на страницы, которые уже занимают место по определенному запросу. Используя тот же словарь, вы можете гарантировать, что получите максимальную отдачу от такого способа релевантной обратной связи.

Выводы

Короче говоря, мы рассмотрели одну из возможностей назначения ценности на документ, основанный на содержании страницы. Хотя векторный метод довольно точен, это не единственный метод для вычисления релевантности. Есть много факторов ранжирования, и это также остается только частью полного алгоритма поисковых систем вроде Google.

Мы также рассмотрели релевантную обратную связь. Надеюсь, что показал вам некоторые методы работы поисковика, которые вы можете использовать в работе с внутренними факторами.

Все, хватит. Пока это обмозговать и пойти поиграться с файлом :).

—————

Оригинал: Search Engine Algorithm Basics.
Большое спасибо Роману Жаркову за помощь в переводе и вычитке.

Как работают поисковые системы. Анализ алгоритмов, фильтров, апдейтов.

Как работают поисковые системы. Сборник статей и практических материалов.

Поисковая система – это крупный аппаратно-программный комплекс, предназначенный для поиска в интернете и выдающий результаты по запросу пользователя в виде списка сайтов, релевантных запросу. Самые распространенные системы поиска: Google, Яндекс, Bing, Mail.Ru.

Развитие поисковых систем происходит на наших глазах. Ежедневно внедряются несколько новых алгоритмов, улучшающих релевантность выдачи поисковиков. Чтобы соответствовать требованиям качества поисковых машин, необходимо отслеживать все важнейшие изменения алгоритмов, фильтров и обновлений.

Статьи предназначены для практического использования при поисковой оптимизации продвигаемых сайтов. В них приведены практические советы, помогающие соответствовать высоким требованиям к качеству контента и сайта, помогающие занять лидирующие позиции в выдаче поисковых машин.


Дорогие друзья. Перед вами уже третье ежегодное исследование рынка поисковых систем. В этом году рассмотрены не только рынки России, Украины, Белоруссии и иных постсоветских стран, но и основные показатели 2020 года для зарубежных рынков.

Важность владения такой информацией трудно переоценить. Зная рейтинг поисковых систем, какую долю занимает тот или иной поисковик в пределах страны, можно сосредоточить свои усилия на продвижении под нужную поисковую систему.
Далее →

18
Июл
2020

26 мая в 18:00 по Москве на YouTube канале Михаила Шакина и в Facebook прошел круглый стол. Обсуждались вопросы Майского апдейта Google, причины падения трафика и возможности его восстановления, какие шаги стоит предпринять чтобы восстановить или улучшить ранжирование. Были затронуты проблемы E-A-T. В конце круглого стола отвечали на разные каверзные вопросы зрителей.

Приняли участие, собственно ваш покорный слуга, тов. DrMax, Максим Пивоваров. А заведовал столом — Михаил Шакин.

Смотрите полную версию круглого стола на канале Михаила Шакина или прямо здесь.

YMYL, EAT и майский Google Core Update

Презентация, на которую постоянно ссылались в  видео и которая периодически отказывалась показываться.

27
Май
2020

BERT — это нейронная сеть, созданная Google, доказавшая свои преимущества в ряде задач. С помощью BERT можно создавать программы для обработки естественного языка: анализировать текст, отвечать на произвольные вопросы, создавать переводчики и т.д. В октябре 2019 года компания добавила обученную нейронную сеть BERT в основное ядро алгоритмов Google для английского языка, а в декабре — еще для сотни языков, включая русский. Новое обновление, которое сам Google считает прорывом, получило ожидаемое название BERT. Обновление, по утверждению компании, затронуло 10% всех поисковых запросов.

Далее →

16
Янв
2020

Чуть более года назад вышло обновление ядра алгоритмов Google, получившее название Medic Update. Оно оказало огромное влияние на все сайты множества отраслей, таких как медицина, финансы, экономика, торговля и т.д. Примечательно, что за месяц до этого Google выпустил новое руководство по качеству сайтов и специально упомянул, что в дальнейшем EAT будет крайне важным для оценки и ранжирования значительной части проектов. Весной 2019 года Google выложил обновленную и переработанную версию руководства и весной — летом этого года внушительное число сайтов индустрии медицины, финансов, путешествий, бизнеса ощутили влияние новых обновлений алгоритмов на себе. Примечательно, что в сентябре вышло новое обновление QRG, а сразу после этого вышло обновление ядра алгоритмов Google. И многие сайты опять упали в Гугле. Самая свежая версия  QRG датируется 5 декабря 2019 года.
Далее →

26
Сен
2019

Статистика поисковых систем является важнейшим фактором, определяющим стратегию продвижения сайта. Действительно, важно знать,аудиторию пользователей поисковых систем, тем самым понимая, продвижение в какой поисковой системе (Яндекс, Google, Bing и т.д. ) более «выгодно», принесет больше посетителей, конвертаций, прибыли. Неверно выбранная стратегия продвижения может ощутимо повлиять на финансовые затраты при продвижении проектов.
Далее →

12
Сен
2019

В марте Google выпустил значительное обновление собственных алгоритмов ранжирования, оказавших сильное влияние на значительное число сайтов в Интернете. Многие сайты, пострадавшие от «медицинского» апдейта в августе 2018 года и проводившие работу по модернизации проектов, росту их качества, устранению ошибок — получили значительное улучшение в ранжировании и восстановили, а то и улучшили собственные позиции. Однако, по некоторым наблюдениям, мартовские обновления алгоритмов затронули не только медицинские сайты, но и интернет — проекты, которые можно считать YMYL.

Эта статья является второй частью сборника кейсов, по восстановлению сайтов после медицинского апдейта. Как и в первой части, я поделюсь некоторыми кейсами полного или частичного восстановления трафика и расскажу, что предпринималось каждым сайтом для этого.
Далее →

7
Апр
2019

Обновление алгоритмов Google, например августовский Medic Update, показало, как Google может легко разрушить любой бизнес. Оптимизаторы, годами работающие над медицинскими, финансовыми, ЗОЖ сайтами, сайтами связанными с электронной коммерцией, в одночасье остались без трафика, без посетителей, без денег. Реальный бизнес утерял большую часть новых клиентов, что привело к снижению прибыли и даже к закрытию ряда компаний.

Все это было вызвано тем, что сайты формально отвечали требованиям алгоритмов ранжирования Google, но не требованиям пользователей. На этих сайтах оптимизаторы показали все свое мастерство SEO оптимизации, при этом недостаточно вложились в их полезность для конечных пользователей.

Сегодня есть практические методы восстановления сайтов, потерявших трафик в результате медицинского обновления. Но все они потребуют от вас большой работы по совершенствованию самой сути вашего интернет проекта. Ну или можно просто ничего не делать, смирившись с утерей трафика и уповать на трафик с Яндекса. Но не забывайте, что через 2-3 года Яндекс повторяет за Google все нововведения и тогда Вы окончательно лишитесь трафика и разрушите свой бизнес полностью.

Далее →

29
Дек
2018

Сегодня многие оптимизаторы, владельцы сайта чувствуют перемены, которые стучаться в их двери. Например, растёт доля мобильных пользователей, вырастает доля использования Google в сравнении с иными  поисковыми системами и т.д. Но конкретных цифр у них на руках нет. Нигде не публикуются цифры рейтинга поисковых систем. И оптимизаторы по старинке пытаются оптимизировать под десктоп или Яндекс, хотя сегодня уже совершенно иная ситуация. Давайте посмотрим на конкретные срезы пользователей Рунета и выясним под какие поисковые системы и платформы следует оптимизировать сайт. Приступим.
Далее →

8
Июн
2018

Проводя многочисленные аудиты сайтов, за последний год стал отмечать все больше жалоб на то, что падает трафик с Google при практически неизменных позициях основных ключевых слов. Падение трафика за год около 50% — это очень серьезно для коммерческих или информационных сайтов. А такая ситуация отмечается на целом ряде мощных проектов. Народ недоумевает, хотя все довольно просто.

Далее →

28
Май
2018

Совсем скоро значительное число SEO оптимизаторов, долгое время продвигающие клиентские сайты, понесут заслуженную анальную кару от своих заказчиков. На наших глазах продолжается первый акт интереснейшего действия, который может отбросить далеко за ТОП мощнейшие сайты, десятилетиями просиживающими в ТОПе. И все это связано с постепенным разворачиванием Mobile-first индекса Google. Далее →

25
Апр
2018

Как Google тайно манипулирует результатами поиска, и кто от этого в выигрыше

| Поделиться

Google составляет поисковую выдачу таким образом, чтобы вверху оказывались сайты крупных компаний, а также инструктирует рекламодателей, как продвинуться вверх в результатах поиска. Некоторые манипуляции направлены на то, чтобы сгладить остроту общественной дискуссии на различные противоречивые темы.

Расследование The Wall Street Journal

Google манипулирует поисковыми алгоритмами, чтобы менять на свое усмотрение результаты поиска в угоду крупному бизнесу, а также сглаживать остроту общественных дискуссий. Об этом по результатам собственного расследования сообщает издание The Wall Street Journal. Практики компании резко контрастируют с ее постоянными заявлениями, что поисковые алгоритмы объективны, а человеческое вмешательство в их работу не допускается.

The Wall Street Journal пришел к выводу, что после выборов президента США в 2016 г. этот механизм начал работать активнее. В 2018 г. компания внесла в алгоритмы более 3,2 тыс. изменений, хотя в 2017 г. их было 2,4 тыс., а в 2010 г. — всего 500. Нагрузка на инженеров растет, поскольку в данный момент примерно 15% поисковых запросов — это слова или комбинации слов, которые компания раньше не встречала.

Основные выводы

По результатам более 100 интервью и собственного тестирования The Wall Street Journal утверждает, что поисковая выдача Google изменяется в угоду крупному бизнесу в ущерб более мелким предприятиям. Как минимум в одном случае был затронут рекламодатель Google — компания eBay. Также поисковик Google продвигает крупные сайты, такие как Amazon и Facebook.

Инженеры Google регулярно вносят изменения в различную информацию, которую видит пользователь — избранные сниппеты, граф знаний, автозаполнение строки поиска и результаты поиска по новостям. На все эти данные не распространяются ограничения на ручное вмешательство, которые действуют на общий массив поисковой выдачи.

Несмотря на уверения в обратном, Google ведет «черный список» сайтов, и здесь имеются в виду совсем не спам-сайты или ресурсы, которые нарушают закон. Свидетельствуя перед Конгрессом, компания уверяла, что «черного списка» у нее нет.

Механизм автозаполнения строки запроса видоизменен таким образом, чтобы не предлагать пользователям острые и провокационные варианты заполнения, если речь идет о противоречивых темах, таких как аборты или иммиграция.

Руководители и сотрудники Google, включая сооснователей Ларри Пейджа (Larry Page) и Сергея Брина (Sergey Brin), не пришли к единому мнению о том, как далеко должно заходить вмешательство в результаты поиска. Поэтому сотрудники могут требовать внесения изменений в конкретные результаты поиска, в том числе по таким темам, как прививки и аутизм.

На Google работает более 10 тыс. низкооплачиваемых контрактных работников, которые занимаются оценкой результатов поиска. Google говорит, что они всего лишь оценивают качество работы алгоритмов, но на самом деле компания дает им наставление относительно того, в каком порядке следует располагать результаты.

Сравнение с Bing и DuckDuckGo

Журналисты сравнили работу алгоритмов Google с работой поисковой системы Bing компании Microsoft и поисковика DuckDuckGo, который делает акцент на защите приватности. Последний собирает данные из систем других компаний, в частности, Yahoo. Сравнение показало, что Google предлагает другой список вариантов автозаполнения строки запроса и другие органические результаты поиска.

Google манипулирует результатами поиска в угоду крупному бизнесу

Например, если пользователь набирает «Дональд Трамп», поисковик Google предлагает более безобидные и прогнозируемые варианты автозаполнения, чем другие системы. Точно так же дела обстоят с другими кандидатами в президенты США. Например, Google предлагает добавить к имени кандидата от демократов Джо Байдена (Joe Biden) «сколько лет», а DuckDuckGo показывает вариант «слишком стар, чтобы баллотироваться». Если Google не приводит в автозаполнении ни одного резкого эпитета в адрес Байдена, то DuckDuckGo предлагает продолжить поисковый запрос словами «идиот», «лжец» и т. п. Если ввести в Google «иммигранты это» или «аборт это», варианты автозаполнения будут менее провокационными, чем в других поисковиках.

Проект «Сова» и другие истории

В 2016 г. внутреннее расследование Google показало, что от 0,1% до 0,25% поисковых запросов пользователей касаются какой-либо недостоверной информации. Несмотря на небольшую долю, это составляло примерно 2 млрд запросов в год. Google тут же собрала команду, которая должна была разработать механизм проверки интернет-ресурсов на авторитетность. Инициатива получила название проект «Сова».

Команда использовала наработки, оставшиеся со времен активной борьбы со спамом. Был составлен список признаков, которые позволяют характеризовать ту или иную интернет-страницу как авторитетную, то есть не содержащую дезинформации. Страницы, где отсутствовали такие признаки, опускались вниз в поисковой выдаче.

Грузовые дроны и воздушные такси: какой будет Москва будущего

Инновации и стартапы

Примерно в это время ручное вмешательство в поисковую выдачу и начало становиться в компании все более привычным делом. Google начала менять результаты поиска в зависимости от своих взглядов на некоторые острые общественные вопросы. В каких-то случаях это выглядело резонно — например, продвижение в верх выдачи сайта горячей линии спасения от самоубийств — но компания редко поясняла, какие именно изменения она внесла, и почему.

Например, есть основания полагать, что своим топовым положением в результатах поиска горячая линия спасения от самоубийств обязана одному из многочисленных контрактных работников по имени Зак Лэнгли (Zack Langley). 27-летний Зак, который сейчас работает менеджером по логистике, в 2016 г. в течение года по контракту оценивал для Google результаты поиска. Его наняла компания-подрядчик Lionbridge Technologies, которая сотрудничает с Google. Лэнгли работал 20 часов в неделю из дома, получая в час $13,5. Ему давали реальные результаты поиска, а он выстраивал их в определенном порядке на свое усмотрение. Заку не понравилась поисковая выдача по запросу «лучший способ убить себя», и он понизил в рейтинге все сайты, кроме горячей линии предотвращения суицида. Вскоре от Google последовал приказ по всей Lionbridge ставить этот сайт на первое место в выдаче.

Многие манипуляции Google с поиском берут начало в 2000-х гг., когда компании приходилось активно бороться со спамом. В частности, из той эпохи пришли «черные списки». К тому же времени относится конфликт между Пейджем и Брином, у которых были разные взгляды на способы борьбы со спамом. Брин возражал против человеческого вмешательства в работу алгоритмов, а Пейдж считал, что засилье спама вредно для пользователей. Доходило до того, что Брин, выходец из еврейской семьи, ради объективности оставлял в выдаче антисемитские ресурсы, а Пейдж давал подчиненным инструкции за его спиной. Но ручное вмешательство в работу алгоритмов в итоге победило.

Напомним, министерство юстиции США ведет антимонопольное расследование против Google, в которое недавно были включены поисковик и мобильная ОС Android. Руководство Google дважды за последний год было вынуждено свидетельствовать перед Конгрессом на тему политических предубеждений. В Европе Google была оштрафована более чем на $9 млрд за последние три года в связи с антиконкурентными практиками, в частности, за продвижение собственных продуктов через свой поисковик.

Поддержка крупного бизнеса

В результатах поиска Google сознательно продвигает крупный бизнес в ущерб малому, мотивируя это тем, что на крупных площадках потребитель с большей вероятностью найдет то, что ему нужно. Так продвигаются, например, продукты Amazon — причем даже те, которые уже сняты с продажи. Google знает об этой несостыковке, но алгоритм не меняет.

Некоторые рекламодатели Google получают от компании инструкции, как улучшить свое положение в поисковой выдаче. Google корректирует инструкции при обновлении алгоритмов, посылая для этого к рекламодателю своих специалистов по поиску. Кроме того, компания чаще обновляет индексацию сайтов вроде Facebook и Amazon, что позволяет им чаще появляться в результатах поиска.

От манипуляций Google пострадал маркетплейс eBay, который долгое время получал третью часть своего трафика через поисковик компании. В 2014 г. трафик неожиданно упал, что стоило компании $200 млн прогнозируемой выручки. Google сообщила, что решила снизить рейтинг большого количества страниц eBay, через которые шло много трафика. Маркетплейс, который тратит около $30 млн в год на рекламу в Google, хотел сначала отозвать эти деньги в знак протеста, но потом решил надавить на компанию другими способами. В итоге Google согласилась повысить рейтинг некоторых страниц, если eBay сделает их более «полезными и актуальными», что обошлось маркетплейсу в копеечку.

Трагедия малого бизнеса

Если у компании нет ресурсов, которыми располагает eBay, договориться с Google не получится. В пример The Wall Street Journal приводит Дэна Бакстера (Dan Baxter) из штата Делавэр, который более 20 лет назад основал купонный веб-сайт DealCatcher. В один прекрасный день трафик сайта без видимых причин упал на 93% — потому что количество пользователей, переходящих на него из поисковика Google, сократилось с 31 тыс. до 2,4 тыс. То есть, сайт практически исчез из поисковой выдачи.

У Бакстера не было знакомых в Google, поэтому он нанял специального консультанта, который должен был разобраться, что произошло. Консультант связался с Google, но не получил ответа. Бакстер пытался объяснить свою ситуацию на форуме поддержки, где ему сказали, что это вряд ли техническая проблема. Ровно через месяц после исчезновения трафика он вернулся в прежнем объеме, и никто до сих пор не знает, почему.

Валерия Шмырова



Что такое поисковый алгоритм | Алгоритм поисковых систем

Поисковый алгоритм – разновидность алгоритма используемая в поисковых системах и предназначенная для отбора результатов поискового запроса, в большей степени соответствующих вкладываемому в запрос смыслу (или иначе, – наиболее релевантных).

Код поисковых алгоритмов не является открытым, поэтому о нюансах их работы можно рассуждать лишь приблизительно. Параметрами принимаемыми в расчет поисковым алгоритмом могут быть следующие данные:

  • Наименование и возраст сайта.
  • Объем ресурса.
  • Частота обновления ресурса.
  • Структура и содержание семантического ядра сайта и ее соответствие структуре и содержанию поискового запроса.
  • Индекс цитирования.
  • Содержание метатегов.
  • Топология сайта.
  • Единство стиля оформления интернет-ресурса.
  • Взаимное расположение ключевых слов запроса в тексте начальных страниц сайта.
  • Присутствие на сайте мультимедийного контента.
  • Содержимое сайта robots.txt. Внеся определенные изменения в этот документ можно добиться того, чтобы поисковые системы вовсе не индексировали cстраницы сайта.

Относительный вес того или иного параметра в алгоритме поиска – коммерческая тайна компании-разработчика конкретной поисковой системы, хотя зачастую и может быть определена экспериментально.

Типы поисковых алгоритмов

Поиск подходящих под запрос страниц осуществляется в рамках так называемого поискового индекса – так или иначе организованного каталога интернет-ресурсов периодически корректируемого программами-роботами. Выделяют прямые алгоритмы, буквально просматривающие сайты включенные в индекс и обратные(инвертированные) алгоритмы работающие не с содержимым интернет-страниц, а с их образами в виде текстовых документов. Инвертированные алгоритмы превосходят прямые по скорости. Для этого есть достаточно причин: отсутствие необходимости переключения контекста поиска с сайта на сайт и наличие развитых программных инструментов обработки текстов.

В свою очередь у пользователя также имеется возможность влиять на работу поискового алгоритма. Для этого предназначены довольно развитые языки запросов.

Что такое алгоритм поиска?

Алгоритм поиска — это уникальная формула, которую поисковая машина использует для извлечения определенной информации, хранящейся в структуре данных, и определения значимости веб-страницы и ее содержимого. Алгоритмы поиска уникальны для их поисковой системы и определяют ранжирование веб-страниц в результатах поиска.

Общие типы поисковых алгоритмов

Поисковые системы используют особые алгоритмы, основанные на размере и структуре данных для получения возвращаемого значения.

Алгоритм линейного поиска

Алгоритмы линейного поиска считаются наиболее простыми из всех алгоритмов поиска, поскольку для их реализации требуется минимальное количество кода. Алгоритмы линейного поиска, также известные как последовательный поиск, представляют собой простейшую формулу для использования алгоритмов поиска. Алгоритмы линейного поиска лучше всего подходят для коротких неупорядоченных и несортированных списков. Чтобы найти то, что ищется, алгоритм просматривает элементы в виде списка. Как только он доходит до искомого элемента, поиск завершается.Линейный поиск не является распространенным способом поиска, поскольку это довольно неэффективный алгоритм по сравнению с другими доступными алгоритмами поиска.

Простой пример алгоритма линейного поиска:

Допустим, вы встречаетесь со своей подругой Стефани сегодня вечером в кино на премьере нового фильма. Она предлагает получить ваш билет и подождать в очереди, чтобы занять хорошие места в театре. Придя в театр, вы замечаете, что очередь длинная, и понятия не имеете, где находится ваш друг.Однако вы знаете, как выглядит Стефани, поэтому по пути вы начинаете с конца очереди и просматриваете лица каждого человека в поисках своего друга. Как только вы найдете ее, вы встанете в очередь рядом с ней. Вы просто следовали алгоритму линейного поиска. Очередь длинная, и люди неупорядочены, поэтому лучший способ найти того, кого вы ищете, — это просмотреть строку от одного конца до другого.

Алгоритм двоичного поиска

Алгоритм двоичного поиска, в отличие от алгоритмов линейного поиска, использует упорядочение списка.Этот алгоритм — лучший выбор, когда в alist есть термины, встречающиеся в порядке увеличения размера. Алгоритм начинается в середине списка. Если цель ниже средней точки, она исключает верхнюю половину списка; если цель выше средней точки, она вырезает нижнюю половину списка. Для больших баз данных алгоритмы двоичного поиска будут давать гораздо более быстрые результаты, чем алгоритмы линейного поиска.

Двоичный поиск использует цикл или рекурсию для разделения пространства поиска пополам после сравнения.

Алгоритмы двоичного поиска состоят из трех основных разделов, определяющих, какую половину списков следует исключить и как просмотреть оставшуюся часть списка. Предварительная обработка отсортирует коллекцию, если она еще не упорядочена. Двоичный поиск использует цикл или рекурсию для разделения пространства поиска пополам после сравнения. Постобработка определяет, какие переменные-кандидаты остаются в пространстве поиска.

Простой пример алгоритма двоичного поиска:

Вы ищете свой любимый синий свитер в гардеробной.Вы скоординировали цвет своей одежды справа налево на основе стандартной теории цвета ROYGBIV. Вы открываете дверь и идете прямо к середине шкафа, где находится ваша зеленая одежда, и автоматически исключаете первую половину вариантов, поскольку они не близки к тем вариантам цвета, которые вы ищете. Как только вы исключили половину вариантов, вы понимаете, что ваш выбор синей одежды велик и составляет большую часть второй половины вариантов одежды, поэтому вы переходите к середине раздела синих / индиго.Вы можете удалить индиго и фиолетовый цвета. После этого у вас останется только зеленый и синий свитер, и вы сможете выбрать свой любимый синий свитер из оставшейся части одежды. Исключив варианты одежды пополам, вы вдвое сократите время поиска и остановитесь на своем любимом синем свитере.

Как поисковые алгоритмы влияют на поисковую оптимизацию

Алгоритмы поиска

помогают определить рейтинг веб-страницы в конце поиска, когда результаты отображаются в списке.

Каждая поисковая система использует определенный набор правил, чтобы помочь определить, является ли веб-страница реальной или спамерской, и будут ли контент и данные на странице представлять интерес для пользователя. Результаты этого процесса в конечном итоге определяют рейтинг сайта на странице результатов поисковой системы.

Хотя каждый набор правил и формул алгоритмов различается, поисковые системы используют релевантность, индивидуальные факторы и факторы вне страницы для определения рейтинга страницы в результатах поиска.

Соответствие

Поисковые системы выполняют поиск по содержанию и тексту веб-страниц в поисках ключевых слов и их местоположения на веб-сайте.Если ключевые слова встречаются в заголовке страницы, заголовке и первых двух предложениях на странице сайта, то эта страница будет иметь более высокий рейтинг по этому ключевому слову, чем другие сайты. Поисковые системы могут сканировать, чтобы увидеть, как ключевые слова используются в тексте страницы, и определят, соответствует ли страница тому, что вы ищете. Частота поиска ключевых слов влияет на релевантность сайта. Если ключевые слова вставлены в текст сайта и не поступают естественным образом, поисковые системы отметят это как наполнение ключевыми словами.Наполнение ключевыми словами снижает релевантность сайта и ухудшает рейтинг страницы в результатах поиска.

Индивидуальные факторы

Поскольку алгоритмы поиска специфичны для поисковых систем, индивидуальные факторы зависят от способности каждой поисковой системы использовать свой собственный набор правил для применения поискового алгоритма. У поисковых систем есть разные наборы правил для поиска и обхода сайтов; за добавление штрафов к сайтам за спам по ключевым словам; и сколько сайтов они индексируют. В результате, если вы выполните поиск по запросу «домашний декор» в Google, а затем снова в Bing, вы увидите две разные страницы результатов.Google индексирует больше страниц, чем Bing, и чаще, и, как следствие, отображает другой набор результатов для поисковых запросов.

Факторы вне страницы

Внестраничные факторы, которые помогают поисковым системам определять рейтинг страницы, включают такие вещи, как гиперссылки и отслеживание кликов. Измерения количества кликов могут помочь поисковой системе определить, сколько людей посещают сайт, если они сразу же уходят с сайта, сколько времени они проводят на сайте и что ищут.Плохие внешние факторы могут снизить релевантность сайта и рейтинг SEO, поэтому важно учитывать эти элементы и при необходимости работать над их улучшением.

Как только вы лучше поймете, как работают алгоритмы поиска, их роль в поисковой оптимизации и рейтинге сайта, вы сможете внести необходимые изменения в сайт, чтобы улучшить его рейтинг. В Volusion наша команда специалистов по поисковой оптимизации (SEO) может помочь вам внести коррективы и настроить ваш сайт так, чтобы он был должным образом оптимизирован для поисковых систем.Свяжитесь с нами сегодня и позвольте нам помочь вам начать поисковую оптимизацию вашего сайта!

Готовы вывести SEO-оптимизацию электронной коммерции на новый уровень? Узнайте, как Volusion может помочь вам увеличить посещаемость и продажи вашего магазина!

Как работает поисковая система Amazon A9?

Относится к производительности

Факторы ранжирования, связанные с эффективностью, сложнее контролировать, потому что существуют факторы, не связанные с ключевыми словами. Однако вы должны хорошо понимать эти факторы, чтобы иметь комплексную стратегию оптимизации Amazon SEO.

1. История продаж

Чем больше продаж вы производите на Amazon, тем выше ваш рейтинг. Высокая скорость продаж чрезвычайно выгодна для Amazon, поэтому алгоритм A9 будет анализировать результаты продаж и повышать рейтинг продуктов, которые хорошо продаются. Благодаря более высокому коэффициенту конверсии и увеличению скорости продаж вы ускорите дополнительные продажи и создадите положительные отзывы клиентов, подпитывая эффект маховика.

Если вы работаете с новыми продуктами и вам нужно увеличить продажи, вы можете поэкспериментировать с кампаниями Amazon с оплатой за клик (PPC), запустить рекламную акцию или предложить процентную скидку и убедиться, что ваши цены конкурентоспособны.Используя оптимизацию цен в реальном времени, например с помощью лучшей в своем классе технологии ценообразования Feedvisor, алгоритмы машинного обучения определяют оптимальную цену для ваших продуктов, несмотря на постоянно меняющуюся динамику рынка.

2. Цена

Цены, которые вы устанавливаете на свои продукты Amazon, могут сильно повлиять на ваш коэффициент конверсии и показатели продаж. Если вы оцениваете свои продукты стратегически и конкурентоспособно, ваш коэффициент конверсии возрастет. Обязательно проведите конкурентный анализ, чтобы понять, в каких ценовых категориях ваши конкуренты, как на Amazon, так и за ее пределами, предлагают похожие продукты.

Комплексная платформа оптимизации цен и аналитики

Feedvisor постоянно анализирует вашу постоянно меняющуюся конкурентную среду и определяет оптимальные цены, чтобы обеспечить правильный баланс скорости продаж и прибыльности. Поддержание этого баланса на постоянной основе должно положительно повлиять на ваш коэффициент конверсии, что, в свою очередь, может улучшить ваш органический рейтинг.

3. Наличие продукта

История наличия товара на складе, безусловно, может помочь в определении рейтинга товара для любого конкретного поиска.Если, например, вам нужно повысить цены, чтобы сохранить оставшийся инвентарь, который у вас есть на конкретном ASIN, в результате ваши показатели продаж пострадают. При более высоких ценах объем продаж и коэффициент конверсии уменьшатся, что, в свою очередь, может нанести ущерб вашей позиции в рейтинге.

Кроме того, вы можете повышать цены только до тех пор, пока либо товар полностью не закончится, либо продажи не остановятся. Как только товар снова появится в наличии, ваш рейтинг ключевых слов должен восстановиться до того уровня, который был до повышения цен и дефицита.Продукты могут восстановить свои предыдущие позиции после пополнения запасов при условии, что продажи могут быть произведены своевременно.

В то время как низкий уровень запасов может напрямую привести к снижению продаж и более низкому коэффициенту конверсии, наличие избыточных запасов может привести ко многим скрытым расходам. Эти расходы включают плату за долгосрочное хранение, моральный износ, проценты по кредиту и альтернативные затраты, связанные с отказом от инвестиций в новые продукты. Уровни запасов влияют не только на ваши продажи, но и на ваши расходы.

Если вы еще этого не сделали, приоритезация регулярного пополнения запасов должна стать частью вашей обычной работы.Отсутствие на складе означает 0% Buy Box и отсутствие конверсии. Пополнение ваших самых продаваемых товаров — это медленный процесс, о котором можно заботиться еженедельно, просматривая 20% самых продаваемых товаров, чтобы оценить, сколько запасов вам нужно заказать до того, как они исчезнут.

Используя передовой опыт Feedvisor и информацию об управлении запасами на базе искусственного интеллекта, вы можете понять, какие действия следует предпринять, чтобы максимизировать рентабельность инвестиций в инвентарь и поддерживать стабильную позицию в инвентаре — и то, и другое помогает поддерживать продажи, коэффициент конверсии и органический рейтинг.

4. Изображения продукта

Хотя изображения не являются прямым фактором ранжирования Amazon, связанным с производительностью, они играют решающую роль как в вашем рейтинге кликов, так и в коэффициенте конверсии. Как правило, чем выше эти показатели для определенного ключевого слова, тем выше будет рейтинг вашего продукта в результатах поиска по этому ключевому слову.

Изображения ваших продуктов отображаются, когда покупатель нажимает на страницу с подробными сведениями. Вы можете продемонстрировать от семи до девяти изображений, связанных с товаром, и они должны соответствовать требованиям Amazon к изображениям.Если возможно, позвольте функции масштабирования работать с изображениями и показывать продукт под разными углами, а также в процессе использования, чтобы помочь покупателю понять, на что на самом деле будет похоже покупка и использование продукта.

5. Отзывы клиентов

отзывов — еще один косвенный фактор, который может повлиять на рейтинг вашего продукта на Amazon. Отзывы клиентов могут существенно повлиять на ваш коэффициент конверсии, что демонстрирует их важную роль в Amazon SEO. Продукты с высокими рейтингами (четыре звезды и выше) с большей вероятностью будут занимать более высокое место в результатах поиска Amazon, чем продукты с менее чем четырьмя звездами.

Чтобы проверить отзывы о продукте, более трех четвертей (79%) потребителей обращаются на Amazon до совершения покупки, поэтому вам следует постоянно следить за своими отзывами, чтобы гарантировать, что клиенты не откажутся от своей потенциальной покупки из-за отрицательного отзыва. Своевременно отвечая на отрицательные отзывы, вы показываете своим потенциальным клиентам, что вы цените их время и опыт работы с вашими продуктами, а также поддерживаете в целом положительное впечатление о покупателях.

Последние мысли

Amazon теперь владеет 5% акций U.S. розничный рынок, включая как онлайн, так и офлайн каналы. Более двух третей всех кликов по продукту на огромном рынке происходит на первой странице результатов поиска, что подчеркивает критическую важность установления «всегда активного» подхода к поисковой оптимизации.

Если вы уделяете большое внимание ранжированию на Amazon, сосредоточьтесь на повышении скорости продаж и оставайтесь в курсе спроса, что, в свою очередь, улучшит ваш коэффициент конверсии, возможности таргетинга по ключевым словам, а также лояльность и вовлеченность клиентов.

Как поисковый алгоритм Google распространяет ложную информацию с предубеждением вправо | Google

Поисковый алгоритм Google систематически продвигает ложную или крайне правую информацию по таким разнообразным темам, как изменение климата и гомосексуальность.

После недавнего расследования, проведенного Observer, которое обнаружило, что поисковая система Google явно предлагает неонацистские веб-сайты и антисемитскую литературу, Guardian обнаружила еще дюжину примеров предвзятых результатов поиска.

Алгоритм поиска Google и его функция автозаполнения отдают приоритет веб-сайтам, которые, например, заявляют, что изменение климата — это обман, быть геем — это грех, а массового убийства в Сэнди-Хук не было.

Фотография: Google Фотография: Google

Повышенное внимание к алгоритмам Google — который удалил антисемитские и сексистские фразы автозаполнения после недавнего расследования Observer — происходит во время напряженных дебатов вокруг роли фейковых новостей в обеспечении поддержки консервативных политических лидеров , особенно избранный президент США Дональд Трамп.

Facebook столкнулся с серьезной негативной реакцией за свою роль в обеспечении широкого распространения дезинформации, и специалисты по данным и коммуникационные эксперты утверждали, что правые группы нашли творческие способы манипулирования тенденциями в социальных сетях и алгоритмами поиска.

Согласно последним данным Guardian, поисковые запросы Google усугубляют проблему.

Раньше, когда журналист или ученый обнаруживал одну из этих алгоритмических сбоев, люди в Google незаметно вручную вносили корректировки в процесс, который не был ни прозрачным, ни подотчетным.

В то же время политически мотивированные третьи стороны, включая «альтернативных правых», крайне правое движение в США, используют различные методы, чтобы обмануть алгоритм и продвинуть пропаганду и дезинформацию на более высокие позиции в поисковом рейтинге Google.

Эти коварные манипуляции — как со стороны Google, так и со стороны третьих лиц, пытающихся обмануть систему — влияют на то, как пользователи поисковой системы воспринимают мир, даже на то, как они голосуют. Это побудило некоторых исследователей изучить роль Google в президентских выборах так же, как они изучали Facebook.

Фотография: Google Фотография: Google

Роберт Эпштейн из Американского института поведенческих исследований и технологий четыре года пытался реконструировать алгоритмы поиска Google. На основе систематических исследований он считает, что Google может фальсифицировать выборы с помощью того, что он называет эффектом манипулирования поисковой системой (SEME).

Эпштейн провел пять экспериментов в двух странах, чтобы обнаружить, что предвзятые рейтинги в результатах поиска могут изменить мнение не определившихся избирателей.Если Google изменяет свой алгоритм, чтобы показывать более положительные результаты поиска для кандидата, искатель может сформировать более положительное мнение об этом кандидате.

В сентябре 2016 года Эпштейн опубликовал результаты, опубликованные через российское информационное агентство Sputnik News, которые показали, что Google подавлял отрицательные результаты автозаполнения, относящиеся к Хиллари Клинтон.

«Мы знаем, что если в списке есть отрицательное предложение автозаполнения, оно привлечет в 5–15 раз больше кликов, чем нейтральное предложение», — сказал Эпштейн.«Если вы опустите негативы для одной точки зрения, одной сети отелей или одного кандидата, у вас будет чертовски много людей, которые увидят только положительные моменты независимо от точки зрения, которую вы поддерживаете».

Фотография: Google Фотография: Google

Даже изменение порядка, в котором определенные поисковые запросы появляются в автоматически заполняемом списке, может иметь огромное влияние, поскольку первый результат приносит наибольшее количество кликов, сказал он.

В то время Google заявил, что алгоритм автозаполнения был разработан, чтобы опустить уничижительные или оскорбительные термины, связанные с именами людей, но это не было «точной наукой».

Затем есть секретный рецепт факторов, которые входят в алгоритм, который Google использует для определения важности веб-страницы, с учетом предубеждений людей, которые ее запрограммировали. Эти факторы включают в себя, сколько и какие другие веб-сайты ссылаются на страницу, сколько трафика они получают и как часто страница обновляется. Люди, которые очень активны в политическом плане, обычно являются наиболее пристрастными, что означает, что экстремистские взгляды, активно пропагандируемые в блогах и периферийных СМИ, поднимаются в поисковом рейтинге.

«Эти платформы структурированы таким образом, что они позволяют и позволяют — сознательно или бессознательно — доминировать более крайние взгляды», — сказал Мартин Мур из Центра изучения средств массовой информации, коммуникации и власти Королевского колледжа Лондона.

Появление на первой странице результатов поиска Google может дать веб-сайтам с сомнительными редакционными принципами чрезмерный авторитет и трафик.

«Эти две манипуляции могут работать вместе, оказывая огромное влияние на людей, даже если они не знают, что ими манипулируют, и наше исследование очень ясно показывает это», — сказал Эпштейн.«Практически никто не знает о предвзятости в поисковых предложениях или рейтингах».

Эти манипуляции могут работать вместе, оказывая огромное влияние на людей, которые не знают, что ими манипулируют.
Роберт Эпштейн

Это усугубляется персонализацией результатов поиска Google, что означает, что разные пользователи видят разные результаты в зависимости от их интересов. «Это дает таким компаниям, как Google, еще больше возможностей влиять на мнения, отношения, убеждения и поведение людей», — сказал он.

Эпштейн хочет, чтобы Google был более прозрачным в том, как и когда он вручную манипулирует алгоритмом.

«Они постоянно вносят эти корректировки. Для них абсурдно говорить, что все автоматизировано », — сказал он. Ручные удаления из автозаполнения включают «злые евреи» и «злые женщины». Google также изменил свои результаты, поэтому, когда кто-то ищет способы покончить с собой, им показывают телефон доверия для самоубийц.

Вскоре после того, как Эпштейн опубликовал свое исследование, указывающее на подавление отрицательных результатов поиска с автозаполнением, относящихся к Клинтону, что он считает тесными связями между кампанией Клинтона и Google, поисковая система, похоже, отказалась от такой цензуры, сказал он.Это, как он утверждал, привело к потоку про-Трамповского и антиклинтоновского контента (включая фейковые новости), часть которого была создана в ответ на то, чтобы подняться наверх.

«Если бы мне пришлось делать это снова, я бы не опубликовал эти данные. Есть некоторые признаки того, что они оказали вредное воздействие на Хиллари Клинтон, чего я никогда не планировал ».

Рея Дрисдейл, генеральный директор компании Outspoken Media, занимающейся цифровым маркетингом, не видела свидетельств проклинтоновского редактирования со стороны Google. Тем не менее, она отметила сети партизанских веб-сайтов — непропорционально правых — использующих гораздо более совершенные методы поисковой оптимизации, чтобы обеспечить высокий рейтинг их мировоззрения.

Тем временем технически подкованные группы правых организовали онлайн и разработали творческие способы контролировать и манипулировать разговорами в социальных сетях посредством массовых акций, сказал Шейн Берли, журналист и исследователь, изучавший «альтернативных правых».

Фотография: Google

«Происходит то, что они могут настолько плотно забивать хэштеги, используя несколько учетных записей, что в конечном итоге это становится тенденцией», — сказал он. «Для них это отличный способ диктовать, как что-то будет освещаться, что будет обсуждаться.Это помогло им переосмыслить обсуждение иммиграции «.

Берли отметил, что «cuckservative», то есть консерваторы, которые продались, является хорошим примером термина, который «alt-right» удалось популяризировать эффективным способом. Точно так же, если вы введете в Google запрос «феминизм — это …», он автоматически дополнит «феминизм — это рак» — популярный призыв сторонников Трампа.

Они могут настолько плотно забивать хэштеги, используя несколько учетных записей, что в конечном итоге они становятся трендовыми.
Шейн Берли

«Это дает такой эффект, что некоторые слова в алгоритмах поиска становятся чем-то вроде волшебных.Те же группы, в том числе участники популярного форума Reddit для «альт-правых» The_Donald, использовали методы, которые используются фирмами по управлению репутацией и маркетологами, чтобы подтолкнуть свои компании к результатам поиска Google, чтобы изображения и статьи, поддерживающие Трампа, получили высокий рейтинг.

«Экстремисты годами пытались использовать алгоритм Google с переменным успехом, — сказал Бриттан Хеллер, директор по технологиям и обществу Антидиффамационной лиги. «Ключ традиционно был связан с воздействием на алгоритм большого количества предвзятых поисковых запросов.”

Проблема стала особенно сложной для Google в эпоху постправды, когда веб-сайты сторонников превосходства белых могут иметь такой же показатель« надежности »в глазах Google, как и другие веб-сайты, занимающие высокие позиции в рейтинге страниц.

«Что делает Google, когда ложь больше не является исключением?» — сказал Хеллер.

«Раньше считалось, что в Интернете есть доля правды. С появлением фейковых новостей и взлома СМИ ситуация может измениться.

Представитель Google заявила в заявлении: «Мы получили много вопросов об автозаполнении и хотим помочь людям понять, как это работает: подсказки автозаполнения генерируются алгоритмически на основе поисковой активности и интересов пользователей. Пользователи ищут в Интернете такой широкий спектр материалов — 15% запросов, которые мы видим каждый день, являются новыми. Из-за этого термины, появляющиеся в автозаполнении, могут быть неожиданными или неприятными. Мы делаем все возможное, чтобы не допускать появления оскорбительных выражений, таких как порнография и разжигание ненависти, но не всегда понимаем это правильно.Автозаполнение — это не точная наука, и мы всегда работаем над улучшением наших алгоритмов ».

Что нужно знать

Каждый год или около того специалисты по поисковой оптимизации и менеджеры веб-сайтов ожидают серьезных изменений в алгоритме ранжирования Google. Несмотря на то, что они никогда не были идеальными, эти обновления были фундаментальными, помогая пользователям находить наилучшие результаты по их запросам. Некоторые из этих изменений настолько незначительны, что пользователи почти никогда их не замечают, но некоторые настолько сильны, что могут значительно повлиять на ваше присутствие в результатах поиска.

Быть в курсе этих обновлений и соответствующим образом корректировать стратегию — одна из самых важных и трудных задач, с которыми сталкиваются стратеги SEO. Вот что вам нужно знать, чтобы не отставать от Google.

Последние обновления алгоритмов

Во-первых, давайте посмотрим на некоторые из наиболее заметных обновлений, внесенных Google за последние годы, и на то, какие недостатки они исправили, чтобы понять, чего Google пытается достичь с помощью обновлений своих алгоритмов.

Панда

Выпущено: 24 февраля 2011 г.

Решенные проблемы: Плагиат, дублированный или слабый контент, избыточное количество ключевых слов, спам, созданный пользователями

Пингвин

Выпущено: 24 апреля 2012 г.

Решенные проблемы: Сайты с нерелевантными или спамерскими ссылками, «чрезмерная оптимизация» якорного текста

Колибри

Выпущено: 22 августа 2013 г.

Решенные проблемы: Некачественный контент, слишком много ключевых слов

Голубь

Выпущено: 24 июля 2014 г.

Решенные проблемы: Слабое SEO на странице и за ее пределами

мобильный

Выпущено: 21 апреля 2015 г.

Решаемые проблемы: Отсутствие мобильной версии веб-страницы, плохое мобильное использование

РейтингBrain

Выпущено: 26 октября 2015 г.

Решенные проблемы: RankBrain не решал конкретные проблемы веб-сайта, но реализовал машинное обучение и искусственный интеллект в алгоритме

Фред

Выпущено: 8 марта 2017 г.

Решенные проблемы: Тонкое, партнерское или ориентированное на рекламу содержание

Почему следует отслеживать обновления Google

Если вы эксперт по SEO, ваш долг — следить за любыми изменениями, которые напрямую влияют на вашу стратегию и тактику SEO.

Отсутствие отслеживания этих изменений и обновлений алгоритма может отрицательно повлиять на следующее:

  • Органический поисковый трафик
  • Рейтинг в поисковых системах
  • Рентабельность инвестиций
  • Преобразования
  • Выручка

Некоторые люди ошибочно полагают, что алгоритмы — это меры наказания, реализуемые Google. На самом деле, однако, алгоритмы — это способ Google вознаграждать веб-сайты за предоставление релевантного и полезного контента, а также за качественный пользовательский интерфейс.

Поисковая оптимизация похожа на палку о двух концах: есть и победитель, и проигравший, и если вам нужно управлять более чем одним сайтом, вы можете оказаться обоими. Проще говоря, Google хочет обеспечить наиболее релевантный поиск по запросу пользователя, и не каждый веб-сайт может занять первое место в рейтинге.

Но даже в этом случае очень сложно, если не невозможно, отслеживать каждое изменение алгоритма, которое вносит Google. Хотя обычно объявляется одно крупное обновление каждый год, на самом деле Google обновляет свои алгоритмы поиска сотни раз в год, что означает, что алгоритм изменяется в среднем более одного раза в день.

Когда так много изменений происходит почти постоянно, как оптимизаторы поисковых систем могут отслеживать их все?

Как отслеживать обновления алгоритмов Google

Существует множество онлайн-инструментов и ресурсов, которые помогут вам отслеживать обновления алгоритмов Google, включая популярные сайты, такие как Moz и SEMrush. Но для меня самым эффективным методом отслеживания изменений алгоритма всегда был Twitter.

Преимущества Twitter включают отраслевую дискуссию сообщества, включающую глубокий анализ, который может не так быстро распространиться по другим каналам.

Несколько лет назад Мэтт Каттс был идеальным человеком для информирования SEO-сообщества о любых изменениях, которые Google внес в поиск. С тех пор как в прошлом году он ушел с поста руководителя отдела качества поиска Google, никто другой не смог занять его место, оставив дыру в коллективных знаниях отрасли об изменениях алгоритмов.

Тем не менее, некоторые эксперты Google активны и будут сообщать вам о любых изменениях через свои учетные записи Twitter.

Джон Мюллер

(@JohnMu)

Джон Мюллер (John Mueller) — старший аналитик трендов для веб-мастеров в Google и один из их ключевых пропагандистов SEO.Его канал в Твиттере содержит массу полезных идей для улучшения вашего сайта. Он также активен на канале Google для веб-мастеров на Youtube.

Барри Шварц

(@rustybrick)

Если и есть кто-нибудь, кто всегда в курсе новостей и обновлений алгоритмов Google, то это Барри Шварц. Самопровозглашенный «помешанный на поиске» Шварц основал Search Engine Roundtable и почти постоянно обсуждает поиск в своем Twitter.

Мари Хейнс

(@Marie_Haynes)

Мари Хейнс — консультант по маркетингу в поисковых системах, которая не только предоставляет ценные идеи и информацию на своем канале в Twitter, но также публикует в своем блоге сообщения о поиске и тематические исследования.

Гленн Гейб

(@glenngabe)

Гленн Гейб — еще один энтузиаст поиска и консультант по маркетингу, который делится данными всякий раз, когда замечает изменения в алгоритме Google. Его аккаунт в Twitter и его блог регулярно обновляются.

Если Twitter вам не нравится, такие сайты, как Moz, Search Engine Journal и Search Engine Land, предлагают регулярные обновления об обновлениях алгоритмов в своих блогах.

Moz Блог

Если вы ищете быстрые и простые решения для своей тактики и стратегии SEO и интернет-маркетинга, то вы никогда не ошибетесь с Moz, особенно со всеми эффективными и информативными учебниками, советами и руководствами.

Журнал поисковых систем

Search Engine Journal — еще одно замечательное руководство по всему, что касается алгоритмов Google, включая их названия, даты и влияние — с 2003 года по сегодняшний день.

Фактически, у SEJ есть целая страница, посвященная обновлениям и изменениям алгоритмов, которые включают обновление алгоритма, дату публикации и краткое описание его влияния.

Земля для поисковых систем

Search Engine Land — детище ветеранов поисковой индустрии Дэнни Салливана и Криса Шермана, известное своим подробным освещением новостей и анализом обновлений алгоритмов Google.

Полезные инструменты для корректировки вашей стратегии SEO

Поскольку все эти изменения происходят в Google каждый день, может быть сложно не отставать от них и соответствующим образом корректировать наши стратегии. К счастью, в нашем распоряжении множество инструментов. Вот некоторые из моих любимых.

млн унций

Moz — лидер в области упрощения SEO с помощью образования, программного обеспечения и сообщества. Он также предлагает бесплатные инструменты и руководства для обучения SEO, в том числе подробный исследователь ключевых слов и анализатор метрик на странице.

Один особенно крутой бесплатный инструмент, который предлагает Moz, — это Mozcast, который отслеживает «погоду» алгоритма Google. Оформив подписку на Moz Pro, вы можете использовать этот инструмент для отслеживания стабильности вашего рейтинга в поисковой выдаче, а также изменений посетителей вашего сайта и вовлеченности.

Ahrefs

Ahrefs располагает универсальными инструментами, которые не только помогут вашему сайту привлечь больше поискового трафика, но и смогут исследовать конкурентов и отслеживать свою нишу. Он включает в себя блог с полезными ресурсами и несколькими бесплатными инструментами, но реальные преимущества приходят с подпиской.С помощью средства проверки неработающих ссылок, генератора ключевых слов, средства отслеживания рейтинга, средства проверки обратных ссылок и т. Д. Ahrefs может помочь вам отслеживать все, что нужно вашему сайту для успешной выдачи результатов поиска, независимо от того, какие изменения внесены в алгоритм.

SEMrush

SEMrush — еще один фаворит поклонников SEO-сообщества. С бесплатными вебинарами, электронными книгами и курсами по SEO SEMrush предлагает множество бесплатных способов научиться анализировать свой рейтинг, вносить изменения на основе алгоритма и находить новые возможности.

Одной из самых привлекательных функций подписки SEMrush является Domain vs.Анализ домена, который позволяет вам напрямую сравнивать ваш сайт с конкурентами. Этот инструмент может помочь вам понять данные и посещаемость вашего сайта, а также ваших конкурентов с помощью аналитических отчетов.

Google

В то время как Google, как известно, молчаливо относится к обновлениям алгоритмов, Центральный блог Google для веб-мастеров является надежным источником официальных новостей об алгоритме и о том, как обновления могут повлиять на рейтинг веб-сайта в поисковой выдаче. Руководство для веб-мастеров по качеству и содержанию предлагает полезные советы и рекомендации, которым должен следовать ваш сайт, чтобы оставаться в индексе Google.

Вы также можете использовать бесплатное приложение Test My Site, чтобы проверить, оптимизирован ли ваш сайт для мобильных устройств, что важно для определения рейтинга в поисковой выдаче.

Что делать после обновления алгоритма

Независимо от того, насколько вы готовы к обновлению алгоритма, есть некоторые вещи, которые следует учитывать при каждом обновлении.

  • Убедитесь, что изменения в рейтинге вашего веб-сайта вызваны изменением алгоритма, а не чем-то еще, например, технической проблемой SEO или изменением, которое вы внесли в свой контент.
  • Начать сбор данных.
  • Поищите источники о том, как вы можете собрать достоверную информацию и узнать, что эксперты по SEO говорят в данный момент.
  • Измените тактику и стратегию SEO как можно скорее.

Сводка

Нет необходимости — или эффективно — отслеживать каждое изменение, которое происходит в алгоритме Google, но, если вы будете отслеживать все основные обновления, вы сможете вносить правильные корректировки и увеличивать органический трафик до твой сайт.

Как алгоритмы Google упрощают поисковую оптимизацию

Только в США мы ежемесячно выполняем более 12 миллиардов поисковых запросов в Интернете. Из этих 12 миллиардов поисковых запросов 33% общего трафика по каждому поисковому запросу направляется в одно место: на первое место в результатах обычного поиска Google.

Учитывая эту сумасшедшую статистику, улучшение рейтинга вашей поисковой системы по релевантным ключевым словам является разумной целью, но как, в свете постоянно меняющихся правил и алгоритмов, мы можем позиционировать наш бизнес, чтобы занять это прибыльное первое место?

К счастью, последние обновления алгоритмов Google сделали SEO проще, чем когда-либо прежде.Чтобы превзойти своих конкурентов, вам нужно сделать одну простую вещь: создать отличный контент.

Как Google рассчитывает поисковый рейтинг?

Поисковые системы существуют для выполнения очень простой задачи: подключения людей к информации. Когда пользователь ищет продукт или услугу, Google пытается найти в Интернете наиболее релевантные и полезные фрагменты доступного контента.

Другими словами, Google пытается подражать нам — читателям — в определении качества, релевантности и преимуществ содержания веб-сайта и его соответствующего ранжирования.

Google полагается на свои алгоритмы поиска для сканирования, анализа и ранжирования мирового веб-контента. Именно эти закулисные вычисления определяют, где ваши сообщения в блоге и веб-страницы будут ранжироваться по определенным условиям поиска.

Задача расчета поисковых рейтингов

Что важно, такие термины, как качество , и релевантность , , довольно субъективны. Не существует черно-белых способов фильтрации контента по этим квалификаторам, поэтому Google приходится полагаться на эвристические метрики, которые обеспечивают близкое (но не идеальное) приближение к качеству.

Самыми известными из этих показателей являются ключевые слова и обратные ссылки, но на протяжении многих лет Google учитывал всевозможные показатели в своем анализе. Начиная с первой версии Google в 2000 году, каждый из этих показателей использовался в качестве замены качества контента:

  • Плотность ключевого слова
  • Якорный текст
  • Метаописания
  • Количество обратных ссылок
  • Качество обратной ссылки (определяется по PageRank)
  • Внутренние ссылки
  • Теги ALT и
  • Слова, выделенные жирным курсивом
  • Свежесть содержимого
  • Длина содержимого
  • Поделиться в соцсетях

Однако у этого подхода есть серьезная проблема: им можно манипулировать.

Когда люди начали выяснять некоторые показатели, которые определяют рейтинг Google в поисковых системах, появилась возможность намеренно изменять контент, чтобы «обмануть» систему. Наполнение ключевыми словами, манипуляции с обратными ссылками и платные сети блогов — все это методы, используемые для успешного подрыва алгоритмов Google, помогая некачественному контенту вырваться на первое место.

Краткая история обновлений алгоритмов Google

Чтобы дать отпор, Google постоянно обновляет свои алгоритмы поиска.По мере того, как их технология становилась все более мощной, их список показателей качества становился более разнообразным и сложным, создавая более точные алгоритмы, которыми труднее манипулировать.

Были сотни обновлений, наиболее заметными из которых являются Panda, Penguin, Hummingbird и Pigeon :

.

2011

Обновление Google Panda было выпущено для наказания за короткий, неоригинальный контент.

2012

Penguin был создан для выявления компаний, которые манипулировали и / или покупали обратные ссылки для своего контента или веб-сайтов.

2013

Hummingbird был разработан для улучшения семантического поиска (способ, которым Google определяет взаимосвязь между ключевыми словами, которые мы ищем, и результатами, которые мы хотим найти).

2014

Pigeon был разработан для повышения рейтинга в поиске Google на основе местоположения.

В 2015 году и далее мы увидим два самых значительных изменения в алгоритмах Google:

  1. Похоже, что вся поисковая система должна быть полностью переработана с добавлением точных и поддающихся проверке фактов, которые заменят ссылки в качестве основной поисковой метрики Google.
  2. Мы также ожидаем, что будущие изменения алгоритмов будут происходить чаще и с меньшей помпой, поскольку поисковый гигант движется к непрерывной системе непрерывных обновлений.

Что это значит для вашего бизнеса?

Каждое из обновлений Google было разработано, чтобы помочь поисковой системе более точно отражать реальных пользователей и определять наиболее релевантный и полезный доступный контент. Их усложняющиеся алгоритмы означают, что «превзойти» Google труднее, чем когда-либо, но это также означает, что у качественного контента больше шансов, чем когда-либо, занять высокий рейтинг — просто благодаря тому, что он хорошо .

Поисковая оптимизация больше не игра в кошки-мышки, в которой используются временные лазейки Google. Вместо этого стойки ворот были прочно закреплены на своих местах. Чтобы занять высокое место в результатах поиска, вы должны создавать ценный, полезный и релевантный контент. Вот и все.

Вместо того, чтобы зацикливаться на ключевых словах и обратных ссылках, вашему бизнесу необходимо сосредоточиться на единственной цели — создании качественного контента. Это должно быть:

  • Решение проблем: создавайте реальную ценность, решая реальные проблемы, с которыми сталкиваются ваши потенциальные клиенты
  • Комплексный: не срезайте углы.Стремитесь быть лучшим и наиболее полным ответом в любом месте в Интернете. Эпические посты тоже не помешают!
  • Точный и хорошо информированный: исследуйте свой контент, будьте как можно точнее и актуальнее, и цитируйте авторитетные источники

Итак, вы хотите улучшить SEO?

Повышение рейтинга вашей поисковой системы никогда не было таким простым. Вместо того, чтобы писать с расчетом на поисковые системы, пишите с расчетом на конечного пользователя. Помимо улучшения пользовательского опыта, обучения посетителей и завоевания доверия потенциальных клиентов, вы также увидите, как ваши рейтинги резко возрастут.

Почему? Потому что, если вы сможете создать контент, который впечатлит реальных людей, вы также произведете впечатление на поисковые системы.

Понимание алгоритма Google и его влияние на SEO

Клиентка недавно спросила, почему ее новый веб-сайт стоимостью 20 000 долларов не получает никакого органического трафика.

Сайт был ошеломляющим и имел простой пользовательский интерфейс, но после дальнейшего расследования она признала, что у нее не было бюджета на SEO.

Простая причина того, что она не получала органического трафика, заключается в том, что ее сайт не был оптимизирован для алгоритма Google.

Или любой другой алгоритм поисковой системы, если на то пошло.

По сути, у нее есть спортивный автомобиль с двигателем для картинга, который никогда не будет работать так хорошо, как кажется.

В эпоху, когда создать собственный сайт на Squarespace, Wix или WordPress легко, это повсеместная проблема.

Так что же такое алгоритм Google и почему он важен?

Мы расскажем об этом в этой статье, а также дадим несколько советов о том, как повысить рейтинг в результатах поиска Google.

Давайте перейдем к делу.

Что такое алгоритм поиска Google?

Чтобы ответить на этот вопрос, давайте вернемся в середину 1990-х годов.

На заре Интернета выход в сеть часто означал вставку компакт-диска в дисковод и загрузку AOL (America Online). Из-за масштабной маркетинговой кампании, которую можно охарактеризовать только как «ковровую бомбардировку» (буквально пятьдесят процентов всех выпущенных компакт-дисков какое-то время были компакт-дисками AOL), веб-сайт и поисковые системы AOL были самыми популярными в мире на рубеже веков. век.

Затем, в 2001 году, AOL наконец-то обогнал давний конкурент Yahoo !. Yahoo! удерживался на первом месте до 2010 года, когда его обогнал Google.

То, что выделяло эти компании на заре Интернета и в конечном итоге привело к нынешнему триумфу Google, — это алгоритм.

Google был первым, кто стал известен тем, что отслеживал ссылки на тех страницах, где ранние поисковые системы служили индексами веб-страниц (индексы составлялись редакторами-людьми!).Как сказал один журналист:

« Yahoo! был карточным каталогом в Интернете, позволяющим эффективно искать нужные «книги» в зависимости от того, как они были названы. Система Google позволяет выполнять поиск по всем страницам всех книг во всей библиотеке. Он был гораздо более всеобъемлющим, к тому же ему все же удалось вывести хорошие материалы на вершину списка ».

Google и другие алгоритмы поисковых систем

Проще говоря, алгоритмы поиска Google — это уравнения программирования, обеспечивающие его конкурентное преимущество.

Эти программные уравнения делают Google таким полезным инструментом для таких пользователей, как вы и я, поскольку они обеспечивают легкий доступ к сайтам, которые, скорее всего, удовлетворят наши запросы в Интернете.

Более подробное техническое описание взято из журнала Search Engine:

«Алгоритмы Google — это сложная система, используемая для извлечения данных из поискового индекса и мгновенного предоставления наилучших возможных результатов по запросу. Поисковая система использует комбинацию алгоритмов и многочисленных сигналов ранжирования для доставки веб-страниц, ранжированных по релевантности, на страницах результатов поисковой системы (SERP).”

Почему алгоритм Google имеет значение для вашей стратегии SEO

Если ваш сайт не находится в рейтинге Google, он невидим.

Это может показаться чрезмерным, но факт в том, что Google занимает более 90% рынка, когда речь идет о глобальном использовании поисковых систем.

Это примерно два триллиона запросов в год — 3,8 миллиона запросов в минуту. Алгоритм Google — это то, что решает, попадет ли ваш сайт в список лучших результатов, и давайте помнить, что три лучших результата получают 75 результатов.1% от всех кликов.

Алгоритм Google важен для вашей стратегии SEO, потому что это фон, на котором выполняется большинство поисковых запросов.

Как работает алгоритм Google

Обновления алгоритмов Google

Google постоянно настраивает и вносит небольшие изменения, но иногда они вносят систематические изменения, которые выпускаются под такими именами, как «Pigeon», «RankBrain» и «BERT».

Согласно предыдущим алгоритмам, Google больше внимания уделял ключевым словам и условиям поиска.

С помощью BERT Google ранжирует страницы на основе тем и идей, лежащих в основе поисковых запросов. В результате наполнение ключевыми словами является устаревшей и неэффективной стратегией, и вместо этого создатели контента должны больше сосредоточиться на предоставлении ценного контента, который нравится их целевым потребителям.

Даже за последний месяц Search Engine Journal подтверждает, что «у нас было около десяти обновлений от Google, и только три из этих обновлений не были подтверждены Google».

Почему все изменения? Потому что Google уделяет первоочередное внимание качеству.«

С каждым выпущенным алгоритмом люди в конечном итоге находят способы продвигать некачественные сайты в топ результатов поиска.

Многие изменения алгоритмов — это попытки исправить эти лазейки, чтобы пользователи Google были вознаграждены высококачественными сайтами, которые точно соответствуют поисковому замыслу.

Штрафы Google

Вы когда-нибудь видели необъяснимое падение посещаемости вашего сайта? Возможно, это произошло из-за штрафа Google.

В этом случае вы должны были получить отчет о ручных мерах в Google Search Console, и вам нужно будет исправить проблемы на своем веб-сайте, а затем заполнить форму, объяснив причину проблемы и ваше решение.

Это потенциально сложно и определенно не весело.

Штрафы отличаются от понижения в рейтинге из-за нового алгоритма (хотя он может ощущаться так же!). Если алгоритм Google обнаружит проблему на вашей странице, вы не получите уведомления.

Вы просто начнете терять трафик.

И вам также не нужно будет связываться с Google, чтобы решить эту проблему, поэтому, если вы сможете выяснить, в чем проблема (вот список наиболее распространенных), вы можете исправить ее и снова наблюдать, как растет ваш рейтинг.

Черная шляпа против белой SEO

Помните те старые вестерны, которые вы смотрели в детстве? Вы всегда могли сказать, кто были плохие парни, потому что они носили черные шляпы, в то время как хорошие парни (например, Клинт Иствуд) носили белые шляпы.

В мире SEO черная шляпа означает все, что пытается обмануть алгоритм и получить более высокий рейтинг некачественного сайта, чем следовало бы, в то время как белая шляпа означает правильную оптимизацию страницы.

Black Hat SEO включает такие тактики, как наполнение ключевыми словами, гостевые сети публикации, покупка ссылок, дублирование контента и даже вредоносное ПО.

Небольшой совет — не идите по этой дороге.

Google продолжает совершенствоваться в выявлении и наказании тактики черной шляпы, поэтому даже если кто-то публикует спам-ссылки в вашем разделе комментариев (например, «нажмите здесь, чтобы получить 100% гарантированные результаты SEO!»), Лучше сразу удалить эти комментарии. , поэтому ваш сайт не будет отмечен.

Как повысить рейтинг в Google: 7 советов, как улучшить свою позицию в поисковой выдаче

Совет 1. Сосредоточьтесь на качественном содержании

При использовании BERT, это, без сомнения, самый важный совет, который мы можем предложить.

По мере того, как алгоритм Google становится все лучше и лучше в распознавании и вознаграждении качественного контента, становится все более важным, чтобы ваш сайт шел в ногу со временем.

Если вам нужно сосредоточиться только на одном, то это оно. Лучше создать небольшую базу поклонников, преданных вашему сайту из-за его качества, чем создавать копии других сайтов, которые не помогают вашему бренду.

Вы можете создавать отличный контент, подробно описывая свои продукты и услуги, но помните, что всегда лучше быть ориентированным на клиента.Это означает, что вы должны писать о своих продуктах и ​​услугах на основе фактических поисковых запросов пользователей, используя исследование ключевых слов.

Google предлагает планировщик ключевых слов, чтобы помочь в этом процессе.

Совет 2. Используйте теги заголовков

Если ваш опыт работы с передовыми методами SEO ограничен, пройдите несколько курсов по техническим компонентам SEO. Многие вещи, которые вы узнаете, применимы при оптимизации для алгоритма Google. Например, когда дело доходит до тегов заголовков.

Хорошее практическое правило для тегов заголовков — использовать основное ключевое слово, затем дополнительное ключевое слово и название вашей торговой марки.

Теги заголовков в этом формате помогают алгоритму Google классифицировать ваш сайт, и, поскольку теги заголовков — это то, что вы видите на странице результатов поисковой системы (SERP), обычно решает вопрос, нажимает ли кто-то на вашу страницу.

Совет 3. Будьте в курсе изменений в алгоритме

Поскольку Google вносит так много изменений для улучшения своего алгоритма, важно оставаться на вершине, чтобы ваш сайт оставался на вершине рейтинга. Но как?

Search Engine Journal — отличное место для начала.

Здесь регулярно публикуются статьи и советы. У Moz также есть текущий список критических обновлений за последние двадцать лет, о которых вы должны быть в курсе.

Совет 4. Оптимизируйте URL-адреса

Как и теги заголовков, оптимизация URL-адресов помогает Google классифицировать вашу страницу и дает людям простой способ понять, что на вашей странице.

Moz пишет, что лучший способ оптимизировать URL-адрес — использовать следующий формат:

  • http: // www.example.com/category-keyword/subcategory-keyword/primary-keyword.html

Совет 5. Используйте основные страницы и тематические группы

Основные страницы и тематические кластеры — это форма архитектуры сайта, которая улучшает рейтинг за счет оптимальной организации вашего контента.

Мы подробно писали об этом здесь, но, вкратце, основная страница — это тематическая страница, которая предоставляет длинный общий обзор предмета.

Каждая страница столпа должна ссылаться на множество конкретных тематических сообщений, нацеленных на ключевые слова с длинным хвостом, и эти сообщения должны ссылаться на страницу столпа.

Эта организационная структура сообщает Google, что ваш сайт имеет богатое содержание и, вероятно, будет соответствовать поисковым запросам лучше, чем другие сайты, у которых нет такой инфраструктуры.

Совет 6. Следите за своими результатами

Хотя это не прямой путь к более высокому ранжированию, если вы не отслеживаете свои результаты, вы не узнаете, работают ли внесенные вами изменения или нет.

Вам следует отслеживать такие вещи, как рейтинг целевой страницы, органический трафик и конверсии, а также показатель отказов.

Совет 7. Начните со стратегии

И последнее, но не менее важное: все рекомендации, изложенные выше, должны носить стратегический характер.

Не начинайте волей-неволей вносить изменения, потратьте несколько часов (или недель, если вы крупная компания) на разработку стратегии и не начинайте оптимизацию, пока не узнаете, для чего вы оптимизируете.

Последние мысли: что вашему бренду следует знать об алгоритме Google

Если вы новичок в SEO и алгоритмах Google, мы надеемся, что эта статья помогла вам прояснить некоторые концепции и оставила вам некоторые практические выводы.

Google готов доминировать в отрасли на долгие годы (хотя, если история нам что-то говорит, так это то, что выскочка может появиться в любой момент и все изменить).

Вам понадобится , чтобы оптимизировать вашу онлайн-стратегию и поддерживать высокий рейтинг вашего сайта.

Вот несколько важных выводов, которые следует запомнить:

  • Создавайте аутентичный контент, соответствующий запросам реальных потребителей
  • Алгоритм Google часто меняется, но вы можете всегда быть в курсе изменений.
  • Не пытайтесь обмануть систему — Google рано или поздно обнаружит и накажет ваш сайт.
  • Если у вас нет опыта в области SEO, наймите надежного стороннего поставщика или пройдите несколько курсов, чтобы вы могли настроить свой веб-сайт на успех.

Что это такое и как работают поисковые системы?

Для большинства из нас, когда мы думаем «поисковая машина», мы думаем о Google.

В конце концов, Google получает более 63 000 запросов в секунду.

И для большинства людей «Интернет» — это то, что возникает, когда вы ищете что-то в Google.

Однако эти результаты, которые вы видите, — это только то, что обнаружил Google, и хочет включить .

Большая часть Интернета НЕ находится в Google. Почему? Потому что :

  • Google не оправдывает этого (например, веб-сайты, занимающиеся незаконными действиями)
  • Google не любит (например, веб-сайт, который Google считает бесполезным)
  • Веб-сайт не хочет быть там (поэтому он сообщает поисковому роботу: «Эй, не включай меня»)

Это означает, что эти веб-сайты «недоступны для поиска».

Их нельзя найти с помощью поисковой системы. Вы должны знать точный адрес веб-сайта, чтобы получить к ним доступ.

Интересный факт : по оценкам, 96-99% всего Интернета — это «глубокая паутина»

В этой статье мы поговорим о том, что такое поисковая машина на самом деле, как она работает, и мы будем охватить даже самые популярные типы поисковых систем и поисковые компании.

Что такое поисковая машина?

Определение поисковой системы : Интернет-поисковая система, или поисковая система в Интернете, представляет собой веб-программное обеспечение, разработанное для проведения и выполнения поиска в Интернете (выполняемого пользователем) во «Всемирной паутине» на основе набор правил (называемый алгоритмом), который предназначен для возврата страницы результатов поиска (называемой SERP, для страницы результатов поисковой системы), которая, по мнению алгоритма, поможет ответить на поисковый запрос пользователя (также известный как вопрос).

Вау, это был полный рот.

По сути, это программа, которая возвращает множество веб-сайтов, которые, по ее мнению, будут наиболее подходящими для удовлетворения той причины, по которой вы ввели свой поисковый запрос.

Итак, когда вы гуглите «Как приготовить бутерброд с сыром на гриле», поисковая система просматривает весь его индекс (например, цифровую версию библиотеки) и дает вам кучу рецептов, видео, изображений и т. Д.

Он не знает ТОЧНО, что вы хотите знать о приготовлении сэндвича с сыром на гриле, поэтому он покажет вам, во что он «верит» (на самом деле, у них нет убеждений), что будет хорошим разнообразием ресурсов, которые помогут вам решить вашу проблему.

Как работают поисковые системы?

Поисковые системы являются конкурентами.

Yahoo — это собственная компания, точно так же, как Google — это собственная компания, и точно так же, как Bing — это собственная компания — они не собираются вместе, чтобы решить, как должна работать поисковая система.

Они соревнуются.

Итак, у каждой поисковой системы есть «секретная формула» (чрезвычайно сложные математические вычисления, называемые алгоритмом), созданная компанией, которая, по ее мнению, будет обеспечивать наилучшие результаты поиска.

Почему? Потому что их клиенты — искатели.

Если они каждый раз будут давать хорошие результаты, вы будете возвращаться.

Я давно перестал пользоваться Yahoo, потому что это отстой. Когда я что-то ищу, я никогда не получаю того, что мне действительно нужно.

Чтобы еще больше усложнить ситуацию, эти компании всегда вводят новшества. Они постоянно обновляют свои алгоритмы, чтобы продолжать улучшать результаты, и поэтому мы (широкая публика) никогда не знаем точно, как это работает.

Пример того, как работает поисковая система

Позвольте мне привести пример, чтобы проиллюстрировать, как работает поисковая система, а также дать вам небольшую резкую критику о том, почему то, что движет всем нашим бизнесом (мы называемся SERP Co, в честь all) на самом деле представляет собой одну гигантскую вымогательскую машину.

Заявление об ограничении ответственности : Это образовательная тирада, но я постараюсь сделать ее краткой.

Поисковые системы перемещаются по всемирной паутине, переходя по гиперссылкам (также известным как «ссылки»).

Ссылка — это интерактивная вещь, которая приведет вас в другое место. Вот пример ссылки на SERP Co.

Когда они переходят по ссылкам, они читают со страницы все, что могут.

Они читают HTML, CSS, Javascript и т. Д.

Итак, когда вы видите это:

Они видят это:

Когда они читают страницу, они начинают «понимать», что представляет собой веб-сайт. целое (и отдельные страницы на нем) о.

Когда они ползают и читают наш веб-сайт, они могут понять, что мы — компания цифрового маркетинга (это заметно в HTML тега заголовка нашей домашней страницы, а также в качестве основного заголовка (называемого

) на первая страница).

После того, как поисковая система сформирует представление о вашем веб-сайте, она «сохранит его» в большой базе данных, называемой индексом, которая действует как цифровая библиотека всех веб-сайтов в Интернете (которые она просканировала).

Итак, когда вы выполняете поиск в поисковой системе, поисковая машина не выходит и быстро сканирует всю сеть в поисках ответов, она просто ищет в своей собственной базе данных, чтобы найти наиболее близкое соответствие вашему поисковому запросу.

Алгоритмы поисковых систем

Итак, вы хотите знать , как работают поисковые системы , да?

Как работает алгоритм традиционной поисковой системы

Допустим, вы ищете «компанию цифрового маркетинга в Лос-Анджелесе», поисковая система просматривает ее уже сформированный индекс и находит все веб-сайты, которые она ранее просматривала, классифицировала и включала в его индекс, релевантный тому поиску, который вы выполнили.

Затем он вернет ВСЕ результаты.

Однако на каждой странице результатов поиска есть место только для 10 органических списков.

Итак, поисковая система должна решить, «кому показывать 1, 2, 3 и т. Д.»

Он делает это на основе большого количества факторов ранжирования поисковой системы, которые помогают поисковой машине определять, какой результат является «лучшим» или «наиболее релевантным».

Именно здесь в игру вступает алгоритм — набор правил, определяющих, как поисковая система понимает и расставляет приоритеты для вашего веб-сайта.

Вот отличное видео от Google (крупнейшей поисковой системы в мире) о том, как работает их алгоритм:

Нетрадиционные поисковые системы

В разговорной речи, когда мы говорим «поисковая машина», большинство людей думают о текстовом поиске, например, Google.com (поисковая система на основе сканера).

Это был бы пример, который мы только что привели выше.

Однако с непрерывным развитием технологий мы стали свидетелями появления многих других типов поисковых систем (и, следовательно, алгоритмов поисковых систем).

По сути, все, что вы «ищите», является поисковой системой, но она не обязательно имеет тот же алгоритм, что и текстовая поисковая машина.

Давайте рассмотрим несколько примеров.

Примеры алгоритмов поисковых систем

Поисковые системы на основе поисковых роботов

Поисковые системы на основе поисковых роботов используют программные алгоритмы / программы для поиска и категоризации веб-сайтов и веб-страниц.

Они «ползают» (подобно цифровой версии щелчка по ссылке) по этим ссылкам со страницы на страницу и с веб-сайта на веб-сайт, и начинают создавать гигантскую «сеть» отношений и категоризации.

Вот почему эти краулеры называются «краулерами», или «пауками», или «ботами».

Веб-сканирует веб-сайты, загружает их в свой «индекс» и анализирует информацию, чтобы они могли должным образом классифицировать их (а затем отображать / передавать их искателю, ищущему такую ​​информацию).

Когда пользователь что-то ищет, поисковая система проверяет свой «индекс» на релевантные веб-сайты, которые она может предоставить пользователю.

Конечным результатом всех этих «ползающих пауков» является гигантская взаимосвязанная «паутина», которую мы называем Всемирной паутиной, или Интернетом.

Примеры поисковых систем, основанных на сканерах
  • Google
  • Yahoo
  • Bing
  • Vivisimo
  • Dogpile
  • Altavista
  • Overture
  • Blekko
  • Duck Duck Go
  • Excite
  • ExactSeek
  • ePilot
  • ICQ
  • iWon
  • Jayde
  • Kanoodle
  • Kosmix
  • Kanoodle
  • Kosmix
  • 9028 9028 Tecape
  • WiseNut
  • Yebol
Поисковые машины каталогов

Поисковая система каталогового типа заставляет людей решать, к каким категориям будут принадлежать веб-сайты.

Люди вручную добавляют и систематизируют веб-сайты по категориям, проверяют сайты на качество, определяют рейтинг и т. Д. На основе заранее определенного набора оценок / правил.

Мета-поисковые машины

Мета-поисковые машины подобны поисковой машине результатов поисковой машины — они берут результаты поиска из других поисковых систем и затем объединяют эти результаты в одну страницу агрегированных результатов.

Звучит немного смешно? Я тоже так думаю по большей части.

Примеры мета-поисковых систем
  • Answers.com
  • Clusty
  • DeeperWeb
  • Dogpile
  • Excite
  • Harvester42
  • HotBot
  • .com
  • Mobissimo
  • Turbo10
  • WebCrawler
  • yolink
Гибридные поисковые системы

Гибридные поисковые системы представляют собой сочетание поисковых систем на основе каталогов и поисковых систем на основе краулеров.

Поисковые системы по картам

Поисковые системы по картам помогают пользователям находить местоположения компаний на карте.

Обычно они объединяют предоставленные пользователями данные, алгоритмическую приоритизацию, виды улиц с автомобильных видеокамер, спутников, отзывы пользователей и т. Д.

Примеры поисковых систем по картам
  • Google Maps
  • Apple Maps
  • Bing Maps
  • Waze
  • MapQuest
  • Maps.me
  • Citymapper
  • Here.com
Системы поиска мультимедиа / изображений

Поиск изображений / мультимедиа позволяет выполнять поиск по мультимедиа, используя поисковые запросы в нескольких типах данных.

Поскольку компьютеры все еще учатся понимать, что такое изображение, мы можем добавлять другие уровни данных к нашему мультимедиа, чтобы помочь ему понять, классифицировать и т. Д.

Эти дополнительные данные, называемые метаданными, могут быть такими, как текстовые описания, ссылки на другой связанный контент или даже дополнительную «разметку кода» из набора описательных стандартов, которые сообщают машинам, что такое изображение / видео / и т. д. на самом деле есть.

Подробнее (и надоедает до смерти) по адресу: schema.org

Примеры мультимедийных поисковых систем
  • Bing Videos
  • blinkx
  • FindSounds
  • Google Images
  • Google Video
  • Picsearch
  • Podscope
  • ScienceStage
  • Veoza 9028
  • Yahoo! Видео
  • YouTube
Системы голосового поиска

Голосовой поиск позволяет нам общаться с устройствами и получать обратную связь в ответ.

Вы, наверное, уже знакомы с этим.

Примеры голосовых поисковых систем
  • Amazon Alexa
  • Google Home
  • Apple Siri
Поисковые системы для покупок

Поисковые системы для покупок помогают потребителям находить товары.

Самый очевидный пример — Amazon.

Они основаны на их собственных алгоритмах, загрузках продуктов, отзывах пользователей и т. Д.

Примеры поисковых систем для покупок
  • Amazon
  • Ali Express
  • Bing Shopping
  • Google Покупки
  • Покупки.com
  • ShopWiki
  • Shopzilla

Список популярных поисковых систем

  1. Google
  2. YouTube
  3. Bing
  4. Yahoo
  5. Amazon
  6. Baidu
  7. Facebook
  8. Duck Duck Duck

Google

Google — многонациональная технологическая компания, специализирующаяся на продуктах и ​​услугах, связанных с Интернетом, включая интернет-рекламу, технологии поисковых систем, облачные вычисления, программное обеспечение и оборудование.

Google — крупнейшая поисковая система в Интернете, занимающая более 90% рынка.

YouTube

YouTube — это платформа для обмена видео, первоначально основанная тремя бывшими сотрудниками PayPal — Стивом Ченом, Джаведом Каримом и Чадом Херли в феврале 2005 года. ) часов видео каждый день пользователями.

YouTube теперь принадлежит Google и является вторым по величине поисковым запросом в Интернете.

Bing

В 2009 году Bing заменил MSN Search в качестве основной поисковой системы Microsoft и их попытку вернуть долю рынка у Google.

Bing поставляется на многих ПК и является поисковой системой по умолчанию для всех машин, работающих под управлением ОС Windows

Yahoo

Основанная в 1994 году Джерри Янгом и в настоящее время принадлежащая Verizon Yahoo была одной из первых поисковых систем в Интернете. .

Его популярность продолжает снижаться.

Amazon

Amazon — это платформа для онлайн-покупок, основанная Джеффом Безосом в 1995 году.

Amazon — ведущая компания в области данных и считается одной из ведущих компаний, борющихся за контроль над поиском (добившихся большого успеха благодаря своим продуктам Amazon Alexa).

Более половины ВСЕХ поисковых запросов о покупках в Интернете начинаются с Amazon.

Baidu

Baidu — китайская компания, занимающаяся поисковыми системами и интернет-технологиями, со штаб-квартирой в Шанхае.

Это в основном китайский аналог Google.

Спросите

Ask.com, первоначально называвшийся «Спроси Дживс», был создан как поисковая система веб-сайтов, которая могла отвечать на повседневные вопросы и возвращать эти ответы на естественном языке — как если бы вы действительно спрашивали у кого-то ответ на ваш вопрос.

Facebook

Facebook — это социальные сети и социальные сети.

По состоянию на июнь 2019 года более 2 410 000 000 активных пользователей Facebook ежемесячно во всем мире.

AOL

Также приобретенная Verizon, AOL является одной из первых веб-служб.

Кто до сих пор использует AOL в качестве поисковой системы? Я никого лично не знаю, но у моих родителей до сих пор есть адреса электронной почты @ aol.com!

Duck Duck Go

DuckDuckGo — это поисковая система в Интернете, которая уделяет особое внимание защите конфиденциальности пользователей, выполняющих поиск, и отличается тем, что показывает всем пользователям одни и те же результаты поиска по заданному поисковому запросу, делая упор на возвращение лучших результатов поиска, а не большинства результатов из более 400 отдельных источников, включая краудсорсинговые сайты, такие как Википедия, и другие поисковые системы, такие как Bing, Yahoo !, и Яндекс.По состоянию на август 2019 года в среднем у него было 44 196 092 прямых запроса в день. (источник)

Как поисковые системы зарабатывают деньги?

Поисковые системы зарабатывают деньги, обслуживая рекламу в соответствии с «обычными» результатами.

Компании могут платить поисковой системе за «показ» на странице 1, платя деньги за то, чтобы она там находилась.

Они также зарабатывают деньги, размещая партнерские ссылки в результатах поиска.

Заключительные мысли

Поисковые системы — это то место, куда (почти) повсюду сейчас приходят, чтобы получить ответы на свои вопросы, рекомендации предприятий, сделать покупки, изучить новые навыки и т. Д.

Они управляют нашим обществом и нашими рынками.

Если вы являетесь владельцем бизнеса, вам необходимо иметь недвижимость на первой странице для продаваемых вами продуктов и услуг, в противном случае вы упустите астрономическое количество нового бизнеса.

Пожалуйста, свяжитесь с нами для помощи в продвижении вашего бизнеса здесь.

Или, если вы просто хотите узнать больше о том, как проводить SEO и маркетинг для своего бизнеса, вы можете бесплатно присоединиться к нам в Университете поисковой выдачи.

Оставьте комментарий