Алгоритмы поисковых систем: поведенческие факторы
Откуда поисковые системы знают о происходящем на вашем сайте? И зачем им это вообще знать?
Откуда данные?
Со страницы поисковой выдачи — переход на ваш сайт по ссылке из поиска фиксируется, равно как и возврат пользователя обратно к результатам поиска.
Google Analytics и Яндекс.Метрика — это популярные системы статистики, которые активно продвигаются не только путём улучшения функциональности, но и путём сокрытия данных о трафике из соответствующей поисковой системы: узнать обо всех поисковых запросах, которые привели к вам посетителей из Яндекса можно только из отчётов Метрики, а из Google — по отчётам Analytics. Системы статистики передают в Google и Яндекс очень много информации о поведении пользователей на вашем сайте.
Пользователи Google Chrome и Яндекс Браузера, приходящие на ваш сайт, в большинстве своём автоматически отправляют в Google и в Яндекс статистику использования браузера. Эта настройка по умолчанию активирована, обычные пользователи её не отключают.
Плагины для браузеров — Яндекс Бар и Google Toolbar — если пользователь не использует «фирменный» браузер, то он всё равно может снабжать поисковик статистикой о своих посещениях. Тулбары очень активно продвигаются и часто устанавливаются вместе со сторонним программным обеспечением.
Какие данные могут использоваться в ранжировании?
Показатель отказов — если средний пользователь проводит на сайте несколько секунд и закрывает вкладку браузера, то это плохой показатель, означающий, что пользователь не нашёл на сайте то, что искал, либо не понял как этим сайтом пользоваться.
Время, проведенное на сайте — если пользователи проводят на сайте много времени, то это означает, что сайт им интересен, верно и обратное — малое время просмотра обычно свидетельствует об отсутствии интереса.
Глубина просмотра — если пользователи просматривают на сайте много страниц, то это также свидетельствует о высоком интересе к содержанию сайта и о полезности сайта, если же просмотров мало, то сайт скорее всего если и был полезен, то интереса не вызвал.
Возвращение к повторному поиску — высокая доля возврата обратно к поиску — не очень позитивный фактор, если пользователь после просмотра сайта продолжил что-то искать, то на вашем сайте он искомого не нашёл.
Повторные возвращения на сайт — критерий хорошего сайта, если пользователи возвращаются через некоторое время — значит сайт не только был интересен пользователю единожды, но и продолжает быть ему интересен.
Алгоритмы поисковых систем: история развития
Поисковые системы на сегодняшний день для ранжирования результатов поиска учитывают многочисленные факторы. Но за этой сложностью стоит уже почти 3 десятилетия развития поисковых алгоритмов.
В девяностые годы количество пользователей сети было не столь значительным, как сегодня. Тогда сайтов и информации в сети было не так много, люди, в основном, использовали каталоги сайтов, где были представлены и классифицированы по тематике известные сайты. К середине 90х поисковики еще только начали появляться, а поиск в те годы основывался лишь на текстовом содержании сайтов. Но к концу 90х аудитория Интернета стала достаточно быстро увеличиваться, число сайтов — возрастать, поиск по каталогам становился всё более неэффективным, а текстовый поиск, основанный только на содержании сайтов, часто выдавал не очень полезные результаты — вернее результаты полезные были, но найти их в неупорядоченном списке было очень непросто.
Рост аудитории интернета стал вызывать коммерческий интерес — компании стали продвигать товары и услуги, регистрируя свои сайты в популярных каталогах и заполняя свои сайты огромными массивами информации. В это же время появился и поисковый спам — создание текстовых материалов не для людей, а для роботов поисковых систем (так называемые дорвеи), показ роботам и людям разного содержания (так называемый клоакинг). Алгоритмы поиска и так уже не справлялись со своими задачами из-за роста объёма, а тут еще и целенаправленное вредительство появилось.
Но в 98 году на сцену вышел Google с инновационной технологией PageRank, основанной на том, что интернет — это сеть, документы в сети взаимосвязаны, а эти взаимосвязи весьма ценны тем, что на хорошие сайты много ссылок, а на плохие — мало, что хорошие чаще ссылаются на хороших, а на плохие или не ссылаются вовсе, или ссылаются очень редко. Способность отделять хорошее от плохого и возможность упорядочивать хорошие сайты стали основой для расцвета Google. Собственно с появлением этой технологии в SEO началась новая эра — эра ссылок.
После появления PageRank поисковиками стали учитываться еще и тексты ссылок. Если на сайт часто ссылались с неким текстом, то по соответствующему поисковому запросу сайт находился выше в результатах поиска. В этом процессе учитывалось и качество ссылающегося сайта — ссылка с хорошего сайта (с сайта с высоким PR) давала гораздо более сильный эффект.
Но на каждое действие находится противодействие. Коммерческий интерес к нахождению на высоких позициях в результатах поиска всё возрастал, поэтому появление методов для влияния на результаты поиска при наличии коммерческой заинтересованности было лишь вопросом времени. Ссылками стали меняться, они стали покупаться и продаваться, сайты-каталоги стали использоваться для получения ссылок, особо заинтересованные в продвижении компании стали разрабатывать фермы сайтов для получения ссылок на собственные или продвигаемые сайты.
В начале «нулевых» годов поисковые системы были еще достаточно просты, достижение высоких позиций по любым запросам были только вопросом времени и бюджета. Пара месяцев активного обмена ссылками, регистрация по базе каталогов и покупка пары десятков хороших ссылок — и всё, сайт надолго «в десятке». Именно в эти годы компания «Веб Креатор» вышла на этот рынок, это были хорошие времена как для оптимизаторов, так и для заказчиков.
В конце «нулевых» поисковики стали «закручивать гайки» — обмен стал детектироваться и перестал учитываться, многие крупные порталы, уличённые в продаже ссылок, были «зафильтрованы» и ссылки с них перестали учитываться, тоже самое произошло с каталогами и большими фермами. Сеошники ответили на это запуском автоматических бирж по купле-продажи ссылок и переходом к более комплексному подходу. Прошла волна автоматически сгенерированных сайтов и сайтов с ворованных контеном, Яндекс ответил на это АГС-фильтром, а Google стал еще чаще «запихивать» новые сайты в песочницу.
Поисковые системы активно развивали и продолжают развивать свои алгоритмы, работа которых направлена на снижение внешних воздействий на результаты поиска и на формирование качественных результатов для каждого конкретного пользователя. В настоящий момент уже внедрены или активно тестируются как алгоритмы геотаргетинга, персонификации и учета истории запросов при формировании результатов поиска, отслеживание поведения пользователей на сайтах для определения их «полезности» и многое другое. Сейчас поисковые алгоритмы учитывают более тысячи различных факторов, контролировать которые достаточно сложно, поэтому достичь качественных результатов можно только работая над сайтом комплексно, повышая его качество не только для роботов поисковых систем, но и для конечных пользователей.
7 советов, как писать и оформлять тексты с учетом SEO-оптимизации
Как преподнести написанную статью, чтобы пользователи прочитали ее до конца? Почему важно уделить особое внимание построению текста? Какие должны быть подзаголовки, ссылки и списки? Корреспондент Теплицы изучил вопрос и узнал у экспертов, что изменилось в подходе к текстовой оптимизации и как эффективнее всего оформить материал.
SEO-тексты – это такие статьи, которые обеспечивают сайту хорошую seo-оптимизацию, то есть продвижение в поисковых системах. Чтобы создать такой текст, нужно качественно его оформить. Ваш текст должен выглядеть простым и понятным для пользователя.
О тенденциях
По мнению руководителя SEO-направления агентства Nimax Олега Белова, за пару последних лет подход к текстовой оптимизации изменился. Эксперт назвал основные тенденции:
1. Ужесточение и усовершенствование антиспам фильтров. По словам Олега Белова, Google использует алгоритм Panda, смысл которого в оценке качества контента. В марте 2017 года Яндекс запустил алгоритм «Баден-Баден». «Из анонсированных особенностей алгоритма наиболее важным видится угроза пессимизации всего сайта (понижение позиции сайта в выдаче поисковой системы. – Прим. ред.) за некачественный контент, а не отдельно взятых страниц или поисковых фраз», – отметил эксперт.
2. Усложнение подхода в оценке текстовой релевантности. Поисковые системы все больше руководствуются семантическим поиском. Пример тому алгоритмы «Палех» у Яндекса и RankBrain у Google.
«Общий смысл этих технологий – понять именно смысловое значение поисковой фразы (что пользователи подразумевают), а не просто поиск документов по наличию в них определенных слов». Олег Белов
3. Усложнение модели ранжирования. «Грубо говоря, если в ранжирующей формуле используется 100 факторов, то значение каждого фактора сильнее, чем в случае, когда этих факторов около 1000», – объяснил суть принципа Белов.
Еще по теме: Что такое поисковая оптимизация: структура и задачи SEO
4. Усиление хостовых факторов. Поисковики все больше учитывают качество сайта целиком, а не конкретные страницы. По словам Олега Белова, на крупных площадках, которые всесторонне прорабатывают семантику, стараются максимально охватить тематику или ассортимент, поисковый трафик больше. «Если речь идет об интернет-магазинах, – уточнил эксперт. – Хороший пример – засилье товарных агрегаторов в e-commerce (электронной коммерции)».
Для настройки текстовой оптимизации есть несколько общих принципов, которых стоит придерживаться.
7 правил оформления текстов
1. Разбивка на абзацы. Не пытайтесь заключить весь смысл вашей статьи в два-три абзаца. Разбивайте и структурируйте мысли. В идеале в одном абзаце должно быть от трех до семи строк. Такое построение текста не спугнет читателя.
2. Подзаголовки. В самом начале текста идет заголовок h2, а дальше подзаголовки уровня h3 и по необходимости h4, их в тексте может быть несколько. Открывая статью, читатель может просмотреть подзаголовки, оценить пользу статьи, а уже потом приступить к чтению. Именно подзаголовки упорядочивают повествование и помогают читателю ориентироваться в тексте. Другими словами, подзаголовки – это тезисное изложение сути вашего текста. Они удобны для распознавания поисковиками и для пользователей.
3. Поисковые фразы. Для продвижения вы должны выбрать ключевые слова. По мнению Олега Белова, важно, чтобы на одну страницу приходились запросы из одного кластера (совместимые по смыслу между собой). Эти запросы должны присутствовать в мета-тегах, а также в контенте страниц. C их употреблением не нужно перебарщивать. Например, использовать только три или четыре основных запроса на статью.
«Не стоит употреблять поисковые фразы в большом количестве, злоупотреблять форматированием и вставлять их во все заголовки второго и третьего уровня – все это осталось в далеком прошлом». Олег Белов
Список слов и фраз можно составить с помощью сервисов Google.Adwords и Яндекс.Вордстат. Предлагаем посмотреть видеоурок Теплицы о том, как проверить тематику будущей статьи с помощью подбора слов.
4. Ссылки. Если вы уже писали о какой-то теме ранее, не стоит пересказывать ее суть. Просто прикрепите гиперссылку и напишите, что читателю будет полезно увидеть еще один материал по теме. Такой инструмент оптимизации называется перелинковка. Переходя на другую страницу сайта, пользователь проводит на нем больше времени. А этот поведенческий фактор поисковики расценивают положительно при ранжировании материалов.
5. Списки. Один из отличных способов выстроить статью и передать важную мысль – использовать списки. Такой элемент разнообразит подачу материала, не сделает вашу статью монотонной.
6. Объем статьи. Олег Белов уверен, что дать общие рекомендации по количеству используемых слов в тексте невозможно. Такую задачу решают текстовые анализаторы, например, приложения MegaIndex или Just Magic. Цифры, полученные в ходе анализа, можно использовать для ориентира.
«Стоит не только обращать внимание на цифры, но всегда думать о качестве текста, о том, чем он будет полезен и интересен, о его добавочной ценности и о разнообразии типов контента, то есть не только текст».
Олег Белов
7. Фото- и видеоконтент. Поисковики оценивают, какой тип контента есть в вашей статье, кроме текста. Внимательно подберайте главную иллюстрацию для статьи, которая будет дополнять материал. В целом изображение должно быть большим, но при этом не тяжелым, до 60 кб. Лучше использовать изображения с лицензией Creative Commons (то есть бесплатные), скриншоты или свои собственные фотоснимки. Заполните теги Title, Alt и подпись к картинке.
К размещению видеоконтента особых требований нет, вы можете просто взять ролик с Youtube.
Не забудьте проверить текст на орфографию и пунктуацию. Используйте для этого онлайн-сервисы Орфограммка, ОРФО Online или Text.ru.
Алгоритм — это, поисковые алгоритмы (ПС)
Алгоритмы ПС (поисковые системы) — математические формулы, которые определяют позиции сайтов в результатах выдачи.
На основании ключевых слов поисковые машины определяют сайты наиболее релевантные введенному поисковому запросу. Согласно алгоритму, поисковик анализирует содержимое сайта, находит ключевую фразу из запроса пользователя и делает вывод о том, какую позицию сайту присудить. У каждой поисковой машины есть свои собственные алгоритмы, которые базируются на общих принципах работы алгоритмов.
Алгоритмы Google
Впервые об алгоритмах заговорили, когда Google обзавелся своим собственным поисковым механизмом (Индекс Цитирования). ИЦ был разработан для присвоения позиций страницам сайтов в зависимости от количества и качества внешних ссылок. Таким образом, появился некий стандарт определения релевантности интернет-ресурсов в результатах поиска. Такая технология принесла успех, что обеспечило Google высокую популярность.
Первоначально главным фактором, который Google учитывал при ранжировании сайтов, считался PR, однако не обделял он вниманием и внутреннее наполнение страниц интернет-ресурсов; вскоре в этот список факторов добавились региональность и актуальность данных.
В 2000г. для наилучшего вычисления PR Кришна Бхарат предложил алгоритм Hilltop. Со следующего года Google начал определять коммерческие и некоммерческие страницы, поэтому алгоритм изменили. В 2001г. был добавлен фактор, наделяющий ссылки с трастовых сайтов большим весом.
В 2003г. был разработан алгоритм «Флорида», который вызвал шквал негодования со стороны оптимизаторов. Он игнорировал популярные в то время методы продвижения и сайты с огромным количеством ключевых слов на страницах и с повторяющимися анкорами.
С 2006г. на вооружение был взят алгоритм израильского студента Ори Алона, «Орион», который учитывал качество индексируемых страниц.
В 2007г. был разработан алгоритм «Austin», сильно видоизменивший поисковую выдачу.
В 2009г. появился алгоритм «Caffeine», благодаря которому улучшился поиск Google, а проиндексированных страниц стало больше.
В 2011г. был выпущен новый алгоритм, «Panda», который дает более высокие позиции интернет-ресурсам с качественными текстовыми материалами на страницах.
Алгоритмы Яндекса
Летом в июле 2007г. Яндекс официально заявил о том, что механизмы ранжирования подвержены изменениям. Первым алгоритмом, о котором в 2008г. Яндекс упомянул в одном из своих интервью, был 8SP1, до этого алгоритмам не присваивали никаких имен, а внесенные в алгоритмы изменения оптимизаторы могли определить только методом проб и ошибок.
16 мая 2008г. появился новый алгоритм «Магадан», который располагал таким возможностями, как переработка транслитераций и аббревиатур.
В этом же году был разработан алгоритм «Находка», с его релизом в выдаче стали появляться информационные сайты, как например, Википедия.
Алгоритм «Арзамас», или «Анадырь»(10 апреля 2009г.), положительно повлиял только на региональное продвижение, также были разработаны фильтры для сайтов со всплывающими баннерами (попандеры и кликандеры).
В этом же году в ноябре Яндекс представил алгоритм «Снежинск», в котором ввел в обращение метод машинного обучения, «Матрикснет». Поскольку были введены новые параметры ранжирования, технология продвижения усложнилась: пришлось оптимизировать сайты комплексно.
Официальный релиз «Конаково» состоялся в декабре 2009г., по сути, это была обновленная версия «Снежинска». Благодаря «Конаково» сайты стали ранжироваться по 19 регионам и по 1250 городам России.
В сентябре 2010г. вышел «Обнинск», который комплексно оценивал текстовое содержание сайтов и лучше определял авторство текстовых материалов. Большое количество ключевых слов расценивалось как спам и наказывалось фильтрами. Искусственные ссылки перестали оказывать сильное воздействие на ранжирование сайтов. Продукты копирайтинга стали пользоваться большим спросом.
Декабрь 2010 г. был ознаменован появлением алгоритма «Краснодар», для которого была внедрена специальная технология «Спектр». Яндекс повысил качество поисковой выдачи, научившись разделять запросы на объекты (например, имена, модели) и систематизировать их (техника, лекарства и т.д.).
Релиз алгоритма «Рейкьявик» состоятся 17 августа 2011г., он был направлен на улучшение поиска при работе с англоязычными запросами.
Характеристика
Раньше поисковые системы находили всю необходимую информацию, обработав некоторые показатели сайтов, например, заголовки, количество контента, ключевики. Но стремительно развивающаяся оптимизация и появление огромного количества спамных сайтов препятствовали такой работе и вынуждали поисковые системы совершенствовать свои алгоритмы, чтобы игнорировать «плохие», по их мнению, сайты. Таким образом, обновление алгоритмов — это реакция на появление новых методов продвижения.
Яндекс | |
Алгоритмы, анализирующие качество контента | |
Флорида (Florida) Запуск: ноябрь, 2003 г. Особенности:
| Магадан Запуск: май, июль, 2008 г.
|
Остин (Austin) Запуск: январь, 2004 г. Особенности:
| АГС-17, АГС-30, АГС-40 Запуск: сентябрь, декабрь, 2009 г., ноябрь, 2012 г. Особенности:
|
Панда (Panda) Запуск: февраль, 2011 г. Особенности:
| Снежинск Запуск: ноябрь, 2009 г. Особенности:
|
Колибри (Hummingbird) Запуск: сентябрь, 2013 г. Особенности:
| Краснодар Запуск: декабрь, 2010 г. Особенности:
|
Пират (Pirate) Запуск: октябрь, 2014 г. Особенности:
| Баден-Баден Запуск: март, 2017 г. Особенности:
|
Фред (Fred) Запуск: март, 2017 г. Особенности:
| |
Алгоритмы, анализирующие качество ссылок | |
PageRank Запуск: впервые в 1998 г. С тех пор было несколько обновлений. Особенности:
| 8 SP1 Запуск: январь, 2008 г.
|
Кассандра (Cassandra) Запуск: апрель, 2003 г. Особенности:
| Обнинск Запуск: сентябрь, 2010 г. Особенности:
|
Хилтоп (Hilltop) Запуск: декабрь, 2010 г. Особенности:
| Минусинск Запуск: май, 2015 г. Особенности:
|
Пингвин (Penguin) Запуск: апрель, 2012 г. Особенности:
| |
Алгоритмы, анализирующие пригодность сайта для мобильных устройств | |
Mobile friendly Запуск: апрель, 2015 г. Особенности:
| Владивосток Запуск: февраль, 2016 г. Особенности:
|
Алгоритмы, работающие со сложными и редкими запросами | |
Орион (Orion) Запуск: 2006 г.
| Палех Запуск: ноябрь, 2016 г. Особенности:
|
RankBrain Запуск: октябрь, 2015 г. Особенности:
| Королев Запуск: август, 2017 г. Особенности:
|
Алгоритмы, учитывающие интересы пользователя (персонализация) | |
Персональный поиск Запуск: июнь, 2005 г.
| Рейкьявик Запуск: август, 2011 г. Особенности:
|
Search Plus Your World Запуск: январь, 2012 г. Особенности:
| Калининград Запуск: декабрь, 2012 г. Особенности:
|
Дублин Запуск: май, 2013 г. Особенности:
| |
Алгоритмы, направленные на улучшение качества ранжирования в целом | |
Кофеин (Caffeine) Запуск: июнь, 2010 г. Особенности:
| Находка Запуск: сентябрь, 2008 г. Особенности:
|
Алгоритмы, отвечающие за региональное ранжирование | |
Опоссум (Possum) Запуск: сентябрь, 2016 г. Особенности:
| Арзамас / Анадырь Запуск: первая версия — апрель, 2009 г.
|
Конаково Запуск: декабрь, 2009 г., март 2010 г. Особенности:
|
Поисковый алгоритм – мозг поисковой системы
Поисковый алгоритм – математическая модель, которую поисковые системы используют для анализа интересов пользователей, поиска и анализа информации в интернете и в итоге предоставления пользователям информации, наиболее отвечающей их интересам.
В информационном поиске основной смысловой единицей пользовательского интереса (интента) является запрос, который пользователь вводит в поисковую систему. Информация, отвечающая интересу пользователя, называется релевантной. Применительно к поисковому запросу говорят, что информация релевантна запросу пользователя.
Но не только это определяет направленность работы поисковых алгоритмов. Чтобы точнее подстроиться под конкретного пользователя поисковая система учитывает и другие его параметры: регион (н-р, город), пол, возраст и проч. – всё это поисковые алгоритмы научились определять уже достаточно точно.
Таким образом, действие алгоритмов поисковых систем направлено на предоставление конкретному пользователю информации наиболее релевантной его запросу, а также прочим параметрам (регион и др. – см. выше).Поисковая система представляет пользователю не один, а множество ответов на его запрос и выстраивает эти ответы в список – поисковую выдачу. Выше в списке находятся ответы, которые по «мнению» поисковой системы являются самыми релевантными. Такое выстраивание по релевантности (от большей к меньшей) называется поисковым ранжированием.
Вся информация в интернете расположена на страницах сайтов (веб-страницах). Соответственно, в своей выдаче поисковая система представляет пользователю список ссылок на веб-страницы, на которых пользователь получит ответ на свой запрос. Эти ссылки сопровождаются кратким описанием вебстраницы (сниппетом) и ранжируются, как уже сказано, по принципу релевантности. Это ранжирование и есть основная задача поисковых систем – их алгоритмов.
Сегодня поисковые алгоритмы – это уже не просто математические модели, это искусственный интеллект. В алгоритмы закладывается очень большой набор параметров (факторов ранжирования) для анализа интернет-информации, а также довольно сложная математическая модель, которая анализирует вебсайты по этим параметрам. По сути поисковый алгоритм – это не одна, а множество математических моделей (отдельных алгоритмов), работающих совместно и очень гибко – в зависимости от конкретной ситуации, т.е. конкретных параметров со стороны пользователи и со стороны анализируемой информации (сайтов).
Особенностью любого искусственного интеллекта, в т.ч. поисковых алгоритмов, является то, что изначально он не способен самостоятельно решать задачи – например, по подбору и ранжированию релевантной для пользователей информации. Искусственный интеллект, как и человека, необходимо обучить – заложить в него базу знаний и критерии, на основе которых он будет уже действовать самостоятельно, в т. ч. самообучаться (накапливать новые знания). Процесс обучения искусственного интеллекта называется машинным обучением. При настройке работы поисковых алгоритмов в качестве их учителей выступают асессоры
– люди, вручную оценивающие сайты и на выходе формирующие и закладывающие соответствующие критерии в работу поисковых алгоритмов.
Механизм работы алгоритмов поисковых систем знают только их разработчики – и то не на все 100%, поскольку после обучения искусственный интеллект начинает принимать самостоятельные решения. То есть, если на определённую позицию своей выдачи поисковая система вывела какой-то сайт (веб-страницу), разработчики не смогут полностью понять, почему система это сделала – вывела именно этот сайт, а не какой-то другой похожий.
Эта проблема является общей в работе любого искусственного интеллекта и называется проблемой чёрного ящика (black-box problem). Её суть в том, что, в отличие от человека, искусственный интеллект не даёт обратной связи, не объясняет свои действия; и найти конкретные причины, по которым машина приняла определённое решение, бывает очень сложно, а часто – невозможно.
Как сказано, основным общим критерием ранжирования информации в поисковой выдаче является её релевантность запросам пользователей. Большинство информации описывается текстами. Соответственно, поисковый алгоритм ищет веб-страницы, тексты которых и дают ответ на запрос пользователя. Основными сигналами при этом служат ключи – слова и фразы в тексте, наиболее подходящие по смыслу под запрос пользователя. Но сегодня искусственный интеллект поисковых систем стал во многом способен распознавать смысл не только отдельных слов и фраз, а целых текстовых блоков. Это явление (технология) называется неявным семантическим индексированием – LSI (latent semantic indexing), когда система распознает общий контекст текстов.
Но одних текстов недостаточно для оценки качества сайта. Алгоритмы поисковых систем также учитывают дизайн, наличие изображений и видео, форматирование контента (разбивку на абзацы, логические блоки и т.д.), читабельность шрифта (н-р, размер), наличие сопутствующих пользовательских сервисов на сайте и т. д. Кроме этого система учитывает скорость загрузки сайта, его адаптированность под различные устройства (компьютеры и мобильные) и прочие технические параметры. Система также учитывает внешние ссылки, ведущие на веб-страницу и сайт в целом, что логически (но не всегда) характеризует авторитетность ресурса. Учитывается возраст страницы и сайта. Всё это – тоже факторы ранжирования, которых существует несколько сотен в поисковой системе.
Особое внимание поисковые алгоритмы уделяют реакции пользователей на информацию (контент) страницы и сайта. Это так называемые поведенческие факторы ранжирования
(ПФ). Система отслеживает, читают ли пользователи тексты, смотрят ли видео, скачивают ли какие-то материалы, делают ли иные действия (регистрация, покупка, звонок в компанию и т.д.) – существует много ПФ. Если ПФ хорошие, т.е. реакция пользователей на контент страницы/сайта активная, алгоритм повышает данный ресурс в своей выдаче. Если ПФ не очень хорошие – понижает. ПФ являются самыми главными факторами ранжировании, поскольку именно они характеризуют, нравится ли реально вебсайт пользователям или нет.
В целом здесь приведено очень общее внешнее описание принципов действия поисковых алгоритмов. Как сказано, у каждой поисковой системы их не один, а несколько, и работают они в комплексе. Время от времени сотрудники поисковых систем совершенствуют свои алгоритмы – «выкатывают» их новые версии. Может происходить и текущая настройка («подкрутка») работы уже действующих алгоритмов.
Поисковые алгоритмы существуют не только в общеизвестных поисковых системах Яндекс, Google и Baidu (китайский поисковик). Все социальные площадки (соцсети) также используют внутри себя поиск, алгоритмы которого также по комплексу параметров анализируют аудиторию и контент внутри социальной площадки и предоставляют её пользователям релевантные результаты – наиболее интересный контент. Подобные же технологии реализуются и в других системах, где так или иначе присутствует информационный поиск. Практически во всех этих технологиях поисковые алгоритмы сегодня уже являются искусственным интеллектом, который становится всё более совершенным.
Компания SeoTemple несколько лет и успешно работает в области поисковой оптимизации (SEO) и в целом в области интернет-маркетинга, который также охватывает соцсети и прочие площадки. Мы накопили значительный опыт и знания, в т.ч. о работе поисковых алгоритмов. Поэтому наши специалисты заточат Ваш сайт и Ваш бизнес так, что он будет нравится поисковым система и приносить Вам прибыль.
Заказать поисковое продвижение
Поисковые алгоритмы Google
Алгоритм поисковой системы — это формула, по которой она находит и ранжирует релевантные ответы на конкретный запрос пользователя.
Работа поискового алгоритма основана на анализе множества факторов, показывающих ценность веб-ресурсов и их содержимого для пользователей.
Развитие поискового алгоритма Google
Первоначально главным фактором ранжирования сайтов в Google была релевантность контента запросу пользователя, которая определялась по вхождениям слов из этого запроса в мета-теги и тексты, Кроме того, позиция страницы в результатах поиска зависела от количества ведущих на неё ссылок.
Сегодня для ранжирования документов в Google используется искусственный интеллект, подбирающий подходящий по смыслу документ даже при отсутствии в его заголовке ключевых слов из запроса.
Поисковая выдача стала персонализированной и зависит теперь не только от качества, релевантности и авторитетности сайта, но и от местонахождения пользователя и его персональных интересов, а также от комплекса поведенческих факторов. Если, например, при переходе на страницу веб-ресурса посетители сразу же покидают его, то поисковая система расценивает такой сайт как неинтересный для интернет-сообщества и понижает его позиции в результатах поиска.
Появление огромного количества сайтов, в том числе спамных, использующих нечестные методы продвижения, вынуждало поисковые системы совершенствовать свои алгоритмы. Сейчас поисковый алгоритм Google включает примерно 200 факторов ранжирования и продолжает регулярно обновляться.
Однако многие из этих изменений и связанные с ними факторы компания держит в секрете, чтобы избежать их использования для манипуляции результатами поиска. Публично объявляется только о наиболее значимых обновлениях алгоритма.
Хронология и особенности основных алгоритмов и обновлений Google
1. Бостон — Февраль 2003
https://moz.com/google-algorithm-change
Первое официально объявленное изменение алгоритма Google. Обновления становятся ежемесячными. Изменения алгоритма в них сочетались с обновлениями индекса (так называемый «Google Dance»).
2. Кассандра — Апрель 2003
https://moz.com/google-algorithm-change
Фильтруются сайты со скрытыми ссылками и текстами, со ссылками с сайтов-дорвеев, принадлежащих одному владельцу.
3. Фриц — Июль 2003
https://www.mattcutts.com/blog/explaining-algorithm-updates-and-data-refreshes/
Обновление поисковой выдачи стало происходить не ежемесячно, а почти каждый день. В результате изменения стали не такими резкими.
4. Дополнительный индекс («Supplemental Index») — Сентябрь 2003
https://www. searchenginewatch.com/2003/09/02/search-engine-size-wars-googles-supplemental-results/
Страницы, которые Google считал малоинформативными или дублирующими, заносились в дополнительный индекс. Позже от Supplemental Index отказались – он был интегрирован в основную базу.
5. Флорида — Январь 2003
https://www.searchenginewatch.com/2003/12/07/what-happened-to-my-site-on-google/
Из выдачи отфильтрованы некачественные сайты, перенасыщенные ключевыми словами, неуникальным контентом, покупными ссылками. Считается, что это обновление положило начало профессиональному SEO.
6. Бренди — Февраль 2004
https://www.sitepoint.com/brandy-google-update/
Обновление включало масштабное расширение индекса, скрытое семантическое индексирование (LSI), учет релевантности анкорного текста и тематическую близость сайтов-доноров и акцепторов ссылок.
7. Атрибут Nofollow — Январь 2005
https://www. searchenginewatch.com/2005/01/18/google-yahoo-msn-unite-on-support-for-nofollow-attribute-for-links/
Введение атрибута «nofollow» для закрытия от индексации спамных ссылок.
8. Персонализация поиска — Июнь 2005
https://googleblog.blogspot.com/2005/06/search-gets-personal.html
Персонализация поисковой выдачи на основе истории запросов пользователя.
9. Универсальный поиск — Май 2007
https://searchengineland.com/google-20-google-universal-search-11232
Google добавляет в поисковую выдачу результаты из блоков новостей, видео, изображений, локального и других видов специализированного поиска.
10. Google Suggest (Поисковые подсказки) — Август 2008
https://searchengineland.com/googlecom-finally-gets-google-suggest-feature-14626
При вводе запроса в поисковую строку появляется список аналогичных фраз, использованных в поиске ранее.
11. Кофеин — Июнь 2010
https://googleblog.blogspot.com/2010/06/our-new-search-index-caffeine.html
Новая система веб-индексации – не по слоям, а параллельно — по мере нахождения новых страниц или обновления информации на старых. Теперь свежие данные появляются в индексе гораздо быстрее.
12. Панда (Фермер) — Февраль 2011
https://www.wired.com/2011/03/the-panda-that-hates-farms/
Пессимизация «ферм» контента, сайтов с неуникальным, бесполезным, некачественным содержимым Алгоритм несколько раз обновлялся, в 2016 г. включен в основную формулу ранжирования. Подробнее см. статью об алгоритме «Панда» в блоге «Лабрики».
13. Top heavy (Макет страницы) — Январь 2012
https://search.googleblog.com/2012/01/page-layout-algorithm-improvement.html
Алгоритм понижает позиции ресурсов, на которых реклама занимает значительную часть страницы и затрудняет доступ к основному контенту.
14. Венеция — Февраль 2012
https://moz.com/blog/understand-and-rock-the-google-venice-update
Учет местоположения пользователя — в разных регионах предоставляются различные результаты поиска по геозависимым запросам.
15. Пингвин — Апрель 2012
https://searchengineland.com/google-launches-update-targeting-webspam-in-search-results-119295
Пессимизация сайтов, использующих технологии веб-спама для манипуляции результатами поиска (массовая закупка ссылок, неестественные анкоры, переспам страниц ключевыми фразами и т. п.). После нескольких обновлений «Пингвин» стал частью основного поискового алгоритма Google. Подробнее об алгоритме «Пингвин» — см. в статье нашего блога.
16. Граф знаний (Knowledge Graph) — Май 2012
https://search.googleblog.com/2012/05/introducing-knowledge-graph-things-not.html
Семантическая технология и база знаний, используемая для повышения качества поисковой выдачи. Граф знаний предоставляет структурированную и подробную информацию по теме запроса, которая дополняет список сайтов в результатах поиска. Теперь пользователи могут получать ответы на вопросы прямо на странице выдачи, не переходя на другие сайты.
17. Пират (DMCA Penalty) — Август 2012
https://searchengineland.com/dmca-requests-now-used-in-googles-ranking-algorithm-130118
Понижение позиций сайтов, нарушающих авторские права. В октября 2014 г. Вышло обновление алгоритма — Pirate 2.0.
18. Обновление EMD (Exact Match Domain) — Сентябрь 2012
https://searchengineland.com/low-quality-exact-match-domains-are-googles-next-target-134889
Обновление алгоритма, которое понижает рейтинг некачественных доменов с точным вхождением поискового запроса.
19. Колибри (Hummingbird) — Август 2013
https://searchengineland.com/google-hummingbird-172816
Новый алгоритм позволил находить страницы по сложным многословным и «разговорным» запросам. Для этого использовалось понимание смысла и исследование конструкции запроса, определение местоположения пользователя и др.
20. Голубь (Pigeon) — Август 2014
https://searchengineland.com/google-makes-significant-changes-local-search-ranking-algorithm-197778
Корректировка локального поиска — по геозависимым запросам выше ранжируются ближайшие к пользователю результаты.
21. Mobile-Friendly — Апрель 2015
https://webmasters.googleblog.com/2015/02/finding-more-mobile-friendly-search.html
Приоритет в мобильном поиске получают сайты, которые имеют версию, адаптированную для мобильных устройств.
22. RankBrain — Октябрь 2015
https://searchengineland.com/faq-all-about-the-new-google-rankbrain-algorithm-234440
Применение технологии машинного обучения для определения тематики запроса. RankBrain позволяет находить релевантные ответы по смыслу, даже без буквального совпадения ключевых слов в запросе и в документе.
23. Обновление Cкорости (Speed Update) — Июль 2018
https://webmasters.googleblog.com/2018/01/using-page-speed-in-mobile-search.html
Скорость загрузки веб-страницы становится фактором ранжирования для мобильного поиска.
24. «Медицинское» обновление (Medic Update) — Август 2018
https://www.seroundtable.com/google-medic-update-26177.html
Улучшение поиска по сайтам YMYL (your money or your life), т. е. касающихся вопросов здоровья, финансов или безопасности.
25. Алгоритм BERT (Bidirectional Encoder Representations from Transformers) — Октябрь 2019
https://blog.google/products/search/search-language-understanding-bert
Улучшение обработки запросов на естественном языке при помощи нейросетей. Теперь при определении смысла запроса учитывается контекст всего предложения, включая предлоги.
Подробнее об алгоритме BERT вы можете прочитать в статье нашего блога.
Все, что вам нужно знать
Часто я замечаю, что сосредотачиваюсь на определенных стратегиях для выполнения определенных функций.
Как написать убедительный текст для ранжирования при голосовом поиске?
Какие структурированные данные позволяют легко добиться успеха?
Вроде того.
Эти важные вопросы часто освещаются здесь, в Search Engine Journal, в очень полезных статьях.
Но важно не просто понимать, какая тактика может помочь вам в ранжировании. Вам нужно понять , как работает .
Понимание структуры, в которой функционирует стратегия, имеет первостепенное значение для понимания не только того, почему эта стратегия работает, но и того, как и чего она пытается достичь.
Ранее мы обсуждали, как поисковые системы сканируют и индексируют информацию.
В этой главе будут изучены основы работы алгоритмов поиска.
Что такое алгоритм? РецептЕсли вы спросите Google, что такое алгоритм, вы обнаружите, что сам движок (и почти все остальные) определяет его как «процесс или набор правил, которым необходимо следовать при расчетах или других операциях по решению проблем. , особенно с помощью компьютера.”
Если вы что-нибудь извлечете из этого определения, очень важно понять, чего это не в нашем контексте.
Объявление
Продолжить чтение ниже
Алгоритм — это , а не формула.
Чтобы понять разницу, почему это важно и что каждый из них делает, давайте на минутку рассмотрим еду, которую я мог бы разместить сегодня вечером на своей тарелке.
Мы пойдем с моим любимцем:
- Ростбиф
- Хрен
- Йоркширский пудинг
- Зеленая фасоль
- Картофельное пюре
- Соус
(Правильно, мы, канадцы, едим больше, чем путин и клен сироп, хотя оба прекрасны, хотя, вероятно, не вместе.)
Ростбиф должен быть идеально приготовлен и заправлен.
Приправа в сочетании с жареным может служить примером формулы — сколько каждого продукта необходимо для производства продукта.
Вторая используемая формула — это количество времени и при какой температуре должно быть приготовлено жаркое, учитывая его вес. То же самое произойдет с каждым элементом в списке.
Реклама
Продолжить чтение ниже
На самом базовом уровне у нас было бы 12 формул (6 элементов x 2 — одна для измерений, а другая для времени и продолжительности приготовления в зависимости от объема), составляющих алгоритм, настроенный с целью создание одного из любимых блюд Дэйва.
Мы даже не включаем различные формулы и алгоритмы, необходимые для производства самих ингредиентов, таких как выращивание коровы или выращивание картофеля.
Давайте добавим еще одну формулу — формулу, учитывающую количество различных продуктов, которые я хотел бы иметь на своей тарелке.
Итак, теперь у нас есть алгоритм для выполнения этой очень важной задачи. Фантастический!
Теперь нам просто нужно настроить этот алгоритм так, чтобы остальная часть моей семьи тоже наслаждалась едой.
Мы должны учитывать, что каждый человек индивидуален и хочет разное количество каждого ингредиента и может захотеть разные приправы.
Итак, добавляем формулу для каждого человека. Хорошо.
Алгоритм алгоритмовЧто, черт возьми, общего у алгоритма поиска и обеденного стола?
Намного больше, чем вы думаете.
Давайте посмотрим на несколько основных характеристик веб-сайта для сравнения. («Мало» означает далеко не все. Как, например, даже близко.)
- URL-адреса
- Контент
- Внутренние ссылки
- Внешние ссылки
- Изображения
- Скорость
Как мы видели с нашим алгоритмом обеда, каждый из этих Дальнейшее разделение областей осуществляется с использованием различных формул и, по сути, различных подалгоритмов.
Было бы лучше, если бы мы думали об этом не как о и алгоритме , а как о алгоритмах .
Также важно иметь в виду, что, хотя задействовано множество алгоритмов и бесчисленное количество формул, все еще существует алгоритм и .
Реклама
Продолжить чтение ниже
Его задача — определить, как эти другие взвешиваются для получения окончательных результатов, которые мы видим в поисковой выдаче.
Итак, вполне законно признать, что наверху есть какой-то алгоритм — один алгоритм, который управляет ими всеми, так сказать, — но всегда распознает, что существует бесчисленное множество других алгоритмов, и, как правило, они алгоритмы, о которых мы думаем, когда рассматриваем, как они влияют на результаты поиска.
Вернемся к нашей аналогии.
У нас есть множество различных характеристик веб-сайта, оцениваемых так же, как у нас есть несколько элементов еды, которые могут оказаться на нашей обеденной тарелке.
Для получения желаемого результата у нас должно быть большое количество формул и подалгоритмов для создания каждого элемента на пластине и мастер-алгоритм для определения количества и размещения каждого элемента.
Звучит знакомо?
Когда мы думаем об «алгоритме Google», на самом деле мы имеем в виду массивный набор алгоритмов и формул, каждый набор для выполнения одной конкретной функции и собранный вместе ведущим или, осмелюсь сказать, «ядром» алгоритм размещения результатов.
Реклама
Продолжить чтение ниже
Итак, у нас есть:
- Алгоритмы, такие как Panda, для помощи Google в оценке, фильтрации, наказании и вознаграждении контента на основе определенных характеристик, и этот алгоритм, вероятно, включал множество других алгоритмов в пределах
- Алгоритм Penguin для определения ссылок и адресации спама в них. Но этот алгоритм, безусловно, требует данных из других уже существующих алгоритмов, которые отвечают за оценку ссылок, и, вероятно, некоторых новых алгоритмов, задача которых состоит в понимании общих характеристик ссылочного спама, чтобы более крупный алгоритм Penguin мог выполнять свою работу.
- Алгоритмы для конкретных задач.
- Алгоритмы организации.
- Алгоритмы, отвечающие за сбор всех данных и помещение их в контекст, который дает желаемый результат, поисковую выдачу, которую пользователи сочтут полезной.
Вот и все. Вот как работают алгоритмы поиска.
Почему алгоритмы поиска используют сущностиОдна из областей поиска, которой в последнее время уделяется пристальное внимание, хотя и не уделяется должного внимания, — это идея сущностей.
Для контекста объект определяется Google как:
«Вещь или понятие, которое является единичным, уникальным, четко определенным и различимым».
Итак, в нашей аналогии с ужином это я. Я сущность.
Объявление
Продолжить чтение ниже
Каждый член моей семьи также является самостоятельным лицом. Фактически, моя семейная ячейка является самостоятельной единицей.
Таким образом, жаркое и каждый ингредиент, который в него входит, также являются их собственными сущностями.
Как йоркширский пудинг, так и мука, из которой он сделан.
Google видит мир как совокупность сущностей. Вот почему:
За моим обеденным столом у меня есть четыре отдельных объекта, у которых будет состояние «ест», и множество объектов потребляются.
Подобная классификация всех нас дает Google лотов и преимуществ по сравнению с простой оценкой нашей деятельности в виде набора слов.
Теперь каждая едящая сущность может назначить им сущности, которые находятся на их тарелке (ростбиф, хрен, стручковая фасоль, картофельное пюре, йоркширский пудинг, но без подливки для сущности xyz1234567890).
Google использует этот тип классификации для оценки веб-сайтов.
Думайте о каждой сущности, сидящей за столом, как о странице.
Реклама
Продолжить чтение ниже
Глобальная сущность, которая представляет всех нас (назовем эту сущность «Дэвис»), будет о «обеде с ростбифом», но каждая отдельная сущность, представляющая человека (или страницу в нашей аналогии), является разные.
Таким образом, Google может легко классифицировать и оценивать взаимосвязанность веб-сайтов и мира в целом.
По сути, поисковые системы не обязаны судить только об одном веб-сайте — они должны ранжировать их все.
Предполагается, что сущность «Дэвис» связана с «ужином с ростбифом», но сущность по соседству (назовем ее «Робинзоны») занимается «жареным движением».
Теперь, если внешняя организация, известная как «Moocher», хотела определить, где поесть, варианты могут быть ранжированы для Moocher на основе их предпочтений или запроса.
Реальная ценность сущностей (на мой взгляд) заключается в том, что происходит на следующий день.У нас есть остатки.
Обработав сущность «ростбиф» по другой формуле и добавив сущности хлеб, сыр и лук, мы получим:
Как алгоритмы поиска используют сущностиХорошо, может показаться не очевидным, насколько важно это понимание алгоритмов поиска и того, как сущности работают таким образом.
Реклама
Продолжить чтение ниже
Хотя понимание того, как Google видит, что представляет собой веб-сайт в целом, имеет очевидную ценность, вы можете спросить, почему для Google важно понимать, что мой ростбиф и соус из говядины связаны между собой и на самом деле — взяты из одной и той же основной сущности.
Давайте вместо этого рассмотрим, что Google понимает, что веб-страница посвящена ростбифу. Также предположим, что на него ссылается другая страница, и эта страница посвящена говяжьему соусу.
В этом сценарии невероятно важно, чтобы Google знал, что ростбиф и соус из говядины взяты из одного и того же основного объекта.
Они могут назначить релевантность этой ссылке на основе связности этих объектов.
До того, как идея сущностей вошла в поисковую систему, поисковым системам оставалось присваивать релевантность на основе близости слов, плотности и других элементов, которые легко неправильно интерпретировать и манипулировать.
Сущностями гораздо труднее манипулировать.
Страница либо посвящена объекту, либо нет.
Путем сканирования Интернета и отображения общих способов взаимосвязи сущностей поисковые системы могут предсказать, какие отношения должны иметь наибольший вес.
Реклама
Продолжить чтение ниже
Итак, как работают алгоритмы поиска?Хорошо, мы прошли большой путь, и вы, вероятно, проголодались. Вы хотите кое-что на вынос.
Контекст имеет значениеВажно понимать, как работают алгоритмы, чтобы применить контекст к тому, что вы испытываете / читаете.
Когда вы слышите об обновлении алгоритма, важно знать, что то, что обновляется, скорее всего, представляет собой небольшой кусок очень большой головоломки.
Знание этого помогает понять, какие аспекты сайта или мира корректируются в обновлении и как эта корректировка вписывается в большую цель движка.
Сущности очень важныКроме того, очень важно двигаться вперед, чтобы понять, что сущности:
- Сегодня играют огромную роль в поисковых алгоритмах.
- Есть свои алгоритмы.
- Со временем будет играть все возрастающую роль.
Знание этого поможет вам понять не только то, какой контент является ценным (насколько близки те сущности, о которых вы пишете?), Но и то, какие ссылки могут быть оценены более благоприятно.
Реклама
Продолжить чтение ниже
И это лишь пара преимуществ.
Все дело в намерении пользователяАлгоритмы поиска работают как большой набор других алгоритмов и формул, каждый со своей целью и задачей, для получения результатов, которыми будет удовлетворен пользователь.
Фактически, существуют алгоритмы для отслеживания только этого аспекта результатов и внесения корректировок, когда считается, что ранжирующие страницы не удовлетворяют намерения пользователя в зависимости от того, как пользователи взаимодействуют с ними.
Сюда входят алгоритмы, специально разработанные для понимания сущностей и того, как сущности связаны друг с другом, чтобы обеспечить релевантность и контекст для других алгоритмов.
Кредиты изображений
Показанное изображение: Пауло Бобита
Определить алгоритм Снимок экрана: сделанный автором
Часы на классной доске: Adobe Stock и Adobe Stock
Урок алгоритма Google: Adobe Stock
Но подождите, это еще не все: Adobe Stock
Говядина: Adobe Stock
Как работают поисковые системы: сканирование, индексирование и ранжирование | Руководство для начинающих по SEO
Для определения релевантности поисковые системы используют алгоритмы, процесс или формулу, с помощью которых хранимая информация извлекается и упорядочивается значимым образом.За прошедшие годы эти алгоритмы претерпели множество изменений, чтобы улучшить качество результатов поиска. Google, например, вносит корректировки в алгоритм каждый день — некоторые из этих обновлений представляют собой незначительные улучшения качества, тогда как другие представляют собой основные / общие обновления алгоритмов, развернутые для решения конкретной проблемы, например Penguin для решения проблемы ссылочного спама. Ознакомьтесь с нашей историей изменений алгоритмов Google, чтобы увидеть список подтвержденных и неподтвержденных обновлений Google, начиная с 2000 года.
Почему алгоритм меняется так часто? Google просто пытается держать нас в тонусе? Хотя Google не всегда раскрывает подробности того, почему они делают то, что они делают, мы знаем, что цель Google при корректировке алгоритмов — улучшить общее качество поиска.Вот почему в ответ на вопросы об обновлении алгоритма Google ответит примерно так: «Мы постоянно делаем качественные обновления». Это означает, что, если ваш сайт пострадал после корректировки алгоритма, сравните его с рекомендациями Google по обеспечению качества или рекомендациями по оценке качества поиска, оба очень красноречивы с точки зрения того, чего хотят поисковые системы.
Чего хотят поисковые системы?
Поисковые системы всегда хотели одного и того же: давать полезные ответы на вопросы поисковиков в наиболее полезных форматах.Если это правда, то почему кажется, что поисковая оптимизация сейчас отличается от прошлых лет?
Подумайте об этом как о человеке, изучающем новый язык.
Поначалу их понимание языка очень элементарное — «См. Spot Run». Со временем их понимание начинает углубляться, и они изучают семантику — значение языка и взаимосвязь между словами и фразами. В конце концов, при достаточной практике ученик знает язык достаточно хорошо, чтобы понимать нюансы, и может дать ответы даже на расплывчатые или неполные вопросы.
Когда поисковые системы только начинали изучать наш язык, было намного проще обмануть систему, используя уловки и тактики, которые на самом деле противоречили рекомендациям по обеспечению качества. Возьмем, к примеру, наполнение ключевыми словами. Если вы хотите ранжироваться по определенному ключевому слову, например «смешные анекдоты», вы можете несколько раз добавить на свою страницу слова «смешные анекдоты» и сделать его жирным в надежде повысить свой рейтинг по этому запросу:
Добро пожаловать до анекдотов ! Рассказываем самых смешных анекдотов в мире. Веселые анекдоты, , Веселые, , безумные. Ваш смешной анекдот ждет. Устройтесь поудобнее и прочитайте смешных анекдотов , потому что смешных анекдотов могут вас порадовать, а смешнее . Всего смешных любимых анекдотов .
Эта тактика создавала ужасный пользовательский опыт, и вместо того, чтобы смеяться над забавными шутками, людей засыпали раздражающим, трудно читаемым текстом. Возможно, это сработало в прошлом, но поисковые системы никогда этого не хотели.
Как работают поисковые системы?
В этом руководстве мы познакомим вас с принципами работы поисковых систем. Это будет охватывать процессы сканирования и индексации , а также такие концепции, как краулинговый бюджет и PageRank .
Поисковые системы работают путем сканирования сотен миллиардов страниц с помощью собственных поисковых роботов. Эти веб-сканеры обычно называются роботами поисковых систем или пауками .Поисковая система перемещается по сети, загружая веб-страницы и переходя по ссылкам на этих страницах, чтобы обнаруживать новые страницы, которые стали доступными.
Индекс поисковой системы
веб-страниц, обнаруженных поисковой системой, добавляются в структуру данных, называемую индексом.
Индекс включает все обнаруженные URL-адреса вместе с рядом соответствующих ключевых сигналов о содержимом каждого URL-адреса, например:
- ключевых слов обнаружил в содержании страницы — какие темы охватывает страница?
- Тип содержимого , которое сканируется (с использованием микроданных, называемых схемой) — что включено на страницу?
- свежесть страницы — как недавно она обновлялась?
- Предыдущее взаимодействие с пользователем страницы и / или домена — как люди взаимодействуют со страницей?
Какова цель алгоритма поисковой машины?
Цель алгоритма поисковой машины — предоставить соответствующий набор высококачественных результатов поиска, которые позволят выполнить запрос / вопрос пользователя как можно быстрее.
Затем пользователь выбирает вариант из списка результатов поиска, и это действие, наряду с последующими действиями, затем учитывается в будущих знаниях, которые могут повлиять на ранжирование в поисковых системах в будущем.
Что происходит при выполнении поиска?
Когда поисковый запрос вводится пользователем в поисковую систему, все страницы, которые считаются релевантными, идентифицируются из индекса, и используется алгоритм для иерархического ранжирования соответствующих страниц в наборе результатов.
Алгоритмы, используемые для ранжирования наиболее релевантных результатов, различаются для каждой поисковой системы. Например, страница, которая имеет высокий рейтинг по поисковому запросу в Google, может не иметь высокого рейтинга по тому же запросу в Bing.
Помимо поискового запроса, поисковые системы используют другие релевантные данные для выдачи результатов, в том числе:
Почему страница может не индексироваться?
Существует ряд обстоятельств, при которых URL-адрес не будет проиндексирован поисковой системой. Это может быть связано с:
Далее: сканирование в поисковых системах
Автор
Сэм Марсден
Сэм Марсден — менеджер по поисковой оптимизации и контенту DeepCrawl.Сэм регулярно выступает на маркетинговых конференциях, таких как SMX и BrightonSEO, и является автором отраслевых публикаций, таких как Search Engine Journal и State of Digital.
Поисковые алгоритмы и исследования
Вам, как поисковику или специалисту по поисковой оптимизации, действительно нужно разбираться в алгоритмах и технологиях, на которых работают поисковые системы? Совершенно верно, — заявила группа экспертов на недавней конференции по стратегиям поисковых систем.
Специальный отчет с конференции Search Engine Strategies, 28 февраля — 3 марта 2005 г., Нью-Йорк, штат Нью-Йорк.
На панели «Алгоритм поисковой системы и исследования» были представлены Рахул Лахири, вице-президент по управлению продуктами и поисковым технологиям в Ask Jeeves, Майк Грехан, генеральный директор Smart Interactive (недавно приобретенный компанией webSourced), и доктор Эдель Гарсия из Mi Islita.com.
О чем вообще такая суета?
«Неужели нам действительно нужно знать всю эту научную информацию о поисковых системах?» — спросил Грехан.»Да!» он ответил однозначно и продолжил объяснение практического конкурентного преимущества, которое вы получаете, понимая функции алгоритма поиска.
«Если вы знаете, что ставит один документ выше другого, вы можете стратегически оптимизировать и лучше обслуживать своих клиентов. И если ваш клиент спросит: «Почему мой конкурент всегда в первой двадцатке, а я нет? Как работают поисковые системы? »Если вы скажете:« Я не знаю — они просто знают — как долго вы думаете, что собираетесь хранить этот аккаунт? »
Грехан проиллюстрировал свою точку зрения, процитировав Брайана Пинкертона, который разработал первую поисковую систему с полнотекстовым поиском еще в 1994 году.«Представьте себе, — пояснил он, — покупатель заходит в огромный магазин одежды для путешествий со всеми типами товаров для отпуска в любой точке мира, смотрит на парня, который там работает, и выпаливает:« Путешествие ». что продавец должен был начать?
Пользователи поисковых систем хотят достичь своих целей с минимальной когнитивной нагрузкой и с максимальным удовольствием. Они не думают тщательно, когда вводят запросы; они используют неточный поиск по трем словам и не научились правильно формулировать запросы.Это усложняет работу поисковой системы.
Эвристика, проблемы изобилия и эволюция алгоритмов
Грехан объяснил важную роль, которую эвристика играет в ранжировании документов. «Очаровательная комбинация вещей вместе дает звание. Нам нужно понять как можно больше, чтобы, по крайней мере, когда мы говорим о том, что ставит один документ выше другого, у нас есть некоторое представление о том, что на самом деле происходит.”
Грехан описал развитие алгоритмов поиска с течением времени. В ранних поисковых системах текст был чрезвычайно важен. Но затем исследователь поиска Джон Кляйнберг обнаружил то, что он назвал «проблемой изобилия». Проблема изобилия возникает, когда поиск по запросу возвращает миллионы страниц, содержащих соответствующий текст. Скажем, поиск по запросу «цифровые камеры» вернет миллионы страниц. Как узнать, какие страницы самые важные или авторитетные? Как поисковая система решает, какой из них окажется в топе? Алгоритмы поисковых систем должны были усложняться, чтобы справиться с проблемой избытка.
Теория социальных сетей и библиометрия
Развитие поисковых алгоритмов включило принципы социальных наук и библиометрии в ранжирование документов. Грехан объяснил, как теория социальных сетей рассматривает взаимосвязь между вещами, а алгоритмы поисковых систем принимают это во внимание, оценивая связи между сайтами.
Библиометрию довольно легко понять на примере анализа цитирования.Это практика, когда автор цитирует влиятельные или центральные статьи в качестве источников или ссылок на свои собственные работы. Это происходит в научном сообществе, где авторы цитируют работы других ученых в своих статьях и отчетах. Цитата эквивалентна голосованию, в котором говорится: «Этот парень здесь — эксперт. Я прочитал его материалы, а затем смог подготовить свои собственные ».
Точно так же поисковые системы используют мудрость библиометрии, но немного иначе, чем люди.Поисковые системы рассматривают Интернет как график. веб-ссылки — это узлы, связанные вместе на графике. Есть два различных типа связи: направленное ребро и совместное цитирование. Направленный край довольно простой. Мы видим направленное ребро, когда веб-сайт A ссылается на веб-сайт B. Это прямая ссылка. Но поскольку поисковые системы смотрят на Интернет как на огромный граф, они получают другой взгляд, альтернативный взгляд, называемый совместным цитированием. Здесь страница C указывает на A и B, но A и B не связаны друг с другом. С помощью алгоритмов поисковые системы понимают, что даже несмотря на то, что между A и B нет прямой связи, существует связь между двумя сайтами, на которых они находятся.
PageRank и алгоритмы HITS
Грехан сказал, что существует два основных алгоритма, основанных на ссылках — PageRank и поиск по темам, вызванный гиперссылками (HITS). PageRank Google измеряет престиж страницы независимо от любого запроса. Таким образом, PageRank не зависит от ключевых слов, что означает, что все веб-страницы уже имеют рейтинг до того, как какой-либо поисковик введет запрос.
Это прямо контрастирует с алгоритмом HITS. HITS зависит от ключевого слова. Когда кто-то выполняет запрос в движке, используя алгоритм HITS (например, Teoma), процесс другой.Если пользователь вводит «синие виджеты» в поле запроса, алгоритм HITS получает данные от сообщества «синих виджетов», а затем определяет ранжирование страниц на лету. Получение информации от сообщества, в котором учитываются люди, ближе к реальному миру. В реальной жизни люди разделены на разные ниши, сообщества, религии, группы, клубы и т. Д. HITS пытается воспроизвести сообщества и получить значимый вклад.
Теория с дырками
Проблема, по словам Грехана, в том, что ни PageRank, ни HITS на самом деле не работают.В самом начале — по крайней мере теоретически — они были великолепны. На практике они были полны проблем. Грехан пошутил, что проблема с Page Rank в том, что никто, даже Google, не использует его. Он описал HITS как «дрейф темы», «кумовское связывание (спам)» и «анализ времени выполнения». Проблема времени выполнения была значительной. Греан сказал, что команда IBM заставила HITS выполнить поисковый запрос. . . за 11 минут! К счастью для Teoma, Апостолос Герасулис решил проблему времени выполнения и нашел способ вернуть поиск менее чем за одну секунду.Эта технология сейчас используется в Ask Jeeves и Teoma.
Центры и органы власти
Понятия хабов и органов власти являются ключевыми для многих поисковых алгоритмов. Власти — это веб-страницы с хорошим содержанием по определенной теме. Хабы — это страницы, которые указывают на множество других страниц, например каталоги с множеством гиперссылок на разные страницы. Грехан объяснил, что хабы и власти могут дополнять друг друга. Хороший центр может быть хорошим центром, а хороший центр может быть хорошим центром.Теперь поисковые системы продвинули эту концепцию на шаг вперед, используя популярность конкретной темы. Например, Teoma оценивает сайт не только по популярности, но и по количеству страниц с одинаковой тематикой, которые ссылаются на него.
Hilltop, местный разряд, Флорида и долина за пределами
Грехан затем коснулся другого известного алгоритма под названием Hilltop. Hilltop основан на HITS. Он локально основан на тексте привязки ссылки и окружающем его тексте. Кришна Бхарат, один из ученых, участвовавших в разработке Hilltop, был нанят Google.Грехан прокомментировал, что в рамках новаторского поиска и оценки заявок Google позже подала заявку на новый патент на алгоритм, известный как Local Rank, основанный на работе Бахрата с Hilltop.
В ноябре 2003 года Google радикально изменил свой алгоритм. Грехан считает, что этот переход, известный как «Флорида» членам сообщества поискового маркетинга, был переходом Google от алгоритмов, не зависящих от ключевых слов, к зависимости от ключевых слов.
Идеи от Ask Jeeves
По словам Рахула Лахири из Ask Jeeves,Ask Jeeves занимает седьмое место в рейтинге сайтов в Интернете и четвертое место в рейтинге поисковых систем.Лахири описал ряд компонентов, которые являются ключевыми для алгоритмов поиска Ask Jeeves, включая размер индекса, актуальность контента и структуру данных. По его словам, внимание компании Ask Jeeves на структуре данных уникально и отличает ее подход от других систем.
В веб-поиске есть два ключевых фактора: анализ контента и анализ связей. Лахири подтвердила, что Ask Jeeves рассматривает Интернет как график и изучает взаимосвязи между ними, пытаясь сопоставить кластеры связанной информации.
Разбивая сеть на различные информационные сообщества, Ask Jeeves может полагаться на «знания» властей в каждом сообществе, чтобы лучше понять запрос и предоставить поисковику больше результатов по теме. Если у вас есть сайт меньшего размера, но тот, который очень актуален для вашего сообщества, ваш сайт может иметь более высокий рейтинг, чем некоторые более крупные сайты, которые предоставляют релевантную информацию, но не являются частью сообщества.
Почему важна совместная встречаемость
Доктор.Эдель Гарсия задержался и не смог физически присутствовать на панели, но подготовил презентацию в PowerPoint с аудио-повествованием. Модератор Крис Шерман сказал всем притвориться, что доктор Гарсия «направляет» через него, и представил его вместо него.
Доктор Гарсия — ученый, специализирующийся на искусственном интеллекте и поиске информации. Он объяснил, что термины, которые чаще встречаются вместе, как правило, связаны или «связаны». Кроме того, семантические ассоциации влияют на то, как мы думаем о термине.Когда мы видим термин «алоха», мы думаем о «Гавайях» из-за семантических ассоциаций между терминами. Согласно Гарсиа, теория совместного возникновения может использоваться для понимания семантических ассоциаций между терминами, брендами, продуктами, услугами и т. Д.
Затем доктор Гарсия задал вопрос. Почему нам следует заботиться о терминологических ассоциациях в поисковой системе? Его ответ: подумайте об ассоциациях ключевых слов и брендов. Это имеет серьезные последствия для поискового маркетинга.
Источники совместного возникновения и использование
Далее Гарсия ввел «c-индексы» или индексы совместной встречаемости.Он разработал этот метод для количественной оценки степени взаимосвязи между различными терминами. Существует три основных типа источников совместной встречаемости:
1. Глобальный (базы данных, коллекции)
2. Локальный (наборы ответов, отдельные документы)
3. Фрактальный (распределение слов, сегментация отрывков)
Д-р Гарсиа затем предложил очень простой пример, используя два члена (k1 и k2). Подумайте о двух перекрывающихся диаграммах Венна. Перекрывающиеся круги — n1 и n2 — представляют количество результатов поиска, содержащих k1 и k2.Область перекрытия k12 представляет количество результатов, содержащих как k1, так и k2. Обнаруженный Гарсия индекс корреляции можно объяснить: c (корреляция) такая, что c = n12 / (n1 + n2 -n12).
Гарсия считает, что оптимизаторы поисковых систем могут использовать c-index для правильной идентификации семантически связанных терминов из пула терминов-кандидатов для данной поисковой системы базы данных. (C-значения можно вычислить с помощью простого калькулятора). Гарсиа также показал, как с-индексы можно использовать для отслеживания тенденций ключевых слов, шаблонов слов и тем во времени.C-индексы могут раскрыть информацию о терминах, включая их конкурентоспособность, временные тенденции и даже то, что термины используются чрезмерно (спам). Гарсия сказал, что его исследование показало, что запросы, связанные со спамом, имеют чрезвычайно высокие c-индексы.
Затем д-р Гарсиа объяснил то, что он назвал коэффициентами EF. Буква «E» в EF означает Exact, а буква «F» — Findall. Findall — это режим по умолчанию для большинства поисковых систем. Это происходит, когда условия запроса возвращаются в любом порядке. Точный режим возвращает результаты в заданном или точном порядке.Гарсия объясняет, что коэффициенты EF можно использовать для оценки относительной частоты естественных последовательностей и фраз в источнике. Он сказал, что их также можно использовать для проверки того, насколько легко или сложно было бы ранжировать данную последовательность в поисковой системе.
EF-отношения могут использоваться для идентификации и тестирования естественных последовательностей терминов, изучения возможности ранжирования для данной последовательности и понимания поведения поисковых систем при поиске информации. Он успешно продемонстрировал необходимость понимания математики поиска, чтобы действительно служить вашим клиентам в поисковом маркетинге.
Для получения дополнительной информации о теориях доктора Гарсиа посетите ветку форума Search Engine Watch Сочетание ключевых слов и семантическая взаимосвязь.
Панель завершилась оживленной сессией вопросов и ответов. Куда идет эволюция алгоритма поиска? У Грехана был готов ответ: он ожидает введения вероятностного скрытого семантического индексирования и вероятностного поиска тем, вызванного гипертекстом. Что означают эти полные рта жаргона? Чтобы узнать это, вам нужно будет явиться на следующую SES.
Кристин Черчилль — президент KeyRelevance.com, фирмы, занимающейся поисковым маркетингом с полным спектром услуг, предлагающей органическую оптимизацию поисковых систем, создание стратегических ссылок, тестирование удобства использования и управление оплатой за клик.
Шпаргалка по самым совершенным алгоритмам Google
Алгоритм Google постоянно развивается, что может вызвать некоторые головные боли, когда вы маркетолог, пытаясь постоянно поддерживать максимально возможный рейтинг страницы.
Однако есть и хорошие новости: можно «взломать» алгоритм и сохранить высокий рейтинг Google. Позвольте мне показать вам, как это сделать.
Что мы знаем о факторах ранжирования алгоритма Google?Мы так много знаем об алгоритме Google, потому что Google не раскрывает его основные факторы ранжирования. Другими словами, никто не совсем уверен, какие флажки поставить, чтобы обеспечить рейтинг на первой странице. Тем не менее, вот краткое изложение факторов ранжирования, о которых мы знаем:
- Скорость страницы: Обновления Google со скоростью страницы могут повлиять на вас, если ваш веб-сайт медленно загружается, потому что медленные веб-сайты создают неудобства для пользователей.
- Релевантность содержания: Хотя вы не должны забивать свой веб-сайт ключевыми словами, вы должны использовать некоторые релевантные ключевые слова и создавать релевантное содержание на основе этих терминов.
- Дизайн сайта: Ваш веб-сайт должен быть удобным и легким в навигации.
- Качество ссылок: Если вы хотите повысить рейтинг в Google, убедитесь, что вы размещаете ссылки только на информативный и релевантный контент. Это может повлиять на нерелевантные ссылки.
- Удобство для мобильных устройств: Google использует мобильную версию вашего веб-сайта для ранжирования и индексации, что означает, что «удобство для мобильных устройств» является фактором ранжирования.
- Статус HTTPS: Как правило, Google предпочитает защищенные веб-сайты, поскольку они более надежны. HTTPS более безопасен, чем HTTP, поэтому наличие сертификата SSL может помочь вам в рейтинге.
- Вовлеченность пользователей: Наконец, Google может повлиять на веб-сайты с высоким показателем отказов и небольшим количеством повторных посетителей, потому что страницы могут быть низкого качества.
Проще говоря, алгоритм Google увеличивает количество сайтов, которые предлагают людям лучший пользовательский опыт.
Как часто вносятся изменения в алгоритмы Google?Google ежедневно вносит незначительные изменения в свой алгоритм.Они могут даже выпустить несколько обновлений за 24 часа.
Эти изменения обычно небольшие, и вы, вероятно, не заметите падения рейтинга страниц поиска только из-за этих обновлений.
Однако этого нельзя сказать о «основных» обновлениях. Google вносит эти более масштабные и радикальные изменения несколько раз в год, и они могут напрямую повлиять на производительность вашей страницы.
Следите за обновлениями ядра не реже одного-двух раз в год.
Важные обновления алгоритмов GoogleЧтобы помочь вам лучше понять функцию изменений алгоритмов Google, вот краткое изложение некоторых ключевых исторических обновлений и того, какое влияние они оказали на стратегии ранжирования страниц.
Google ПандаВыпущенное в 2011 году, это обновление алгоритма нацелено на недопустимые практики, такие как заполнение ключевыми словами и дублирование контента. Он ввел «показатель качества», который помогал ранжировать веб-страницы на основе того, как люди воспримут контент, а не того, сколько ключевых слов он включает.
Чтобы «выжить» Google Panda, маркетологи писали качественный образовательный контент, переписывали неэффективные статьи и стратегически использовали ключевые слова.
Google PenguinЭто обновление, представленное в 2012 году, напрямую борется с тактикой «черной шляпы» SEO, такой как каталоги ссылок и спамерские обратные ссылки.Как и в обновлении Panda, здесь также учитывалось заполнение ключевыми словами.
Цель состояла в том, чтобы отойти от акцента на количестве ссылок, чтобы повысить рейтинг страницы в поиске, и вместо этого перейти к высококачественному контенту, включающему только ценные, привлекательные ссылки.
Google HummingbirdЭто обновление 2013 года было направлено на устранение разрыва между тем, какие ключевые слова использовали люди, и типом контента, который они действительно хотели найти. Другими словами, он был направлен на то, чтобы сделать работу с поисковой системой более человечной и переместить наиболее информативный и релевантный контент на первую страницу.
В ответ маркетологи повысили свой уровень, включив больше вариантов ключевых слов и релевантных поисковых фраз, чтобы повысить свои шансы оправдать ожидания читателей.
Google RankBrainВ 2015 году Google выпустил расширение для колибри, RankBrain. Он ранжирует страницы в зависимости от того, соответствуют ли они поисковому запросу пользователя. Другими словами, он продвигает наиболее релевантный и информативный контент по ключевому слову или поисковой фразе.
Вы можете пройти RankBrain, исследуя намерения пользователей по каждому ключевому слову, которые ищут люди, и создавая богатый и качественный контент, соответствующий их ожиданиям.
Как я узнаю, когда Google выпускает новое обновление алгоритма?Нет необходимости отслеживать каждую настройку, которую Google вносит в свой алгоритм. Однако очень важно отслеживать основные обновления, чтобы вы могли соответствующим образом адаптировать свою стратегию SEO.
Во-первых, настройте оповещение Google об изменениях алгоритма. С помощью Google Alerts вы будете получать уведомление прямо на свой почтовый ящик всякий раз, когда обновления алгоритма упоминаются в Интернете, чтобы вы могли начать подготовку к изменениям как можно скорее.
Затем, если вы в Твиттере, подпишитесь на Google SearchLiaison. Это официальный аккаунт, в котором вы будете видеть уведомления об обновлениях основного алгоритма. Оповещения Google не работают в социальных сетях, поэтому подписка на этот аккаунт дает вам еще один способ отслеживать любые упоминания об изменениях алгоритмов:
Здесь вы можете прочитать официальные объявления, чтобы узнать больше о том, как эти обновления алгоритмов влияют на вас. Вы также можете узнать больше о планируемых улучшениях в Google, которые могут помочь вам улучшить вашу стратегию SEO в целом.
В-третьих, вы можете использовать Google Analytics, чтобы выявлять изменения в алгоритме. Чем может помочь Google Analytics? Ну, с одной стороны, это может помочь вам определить необычные колебания трафика и конверсий. Затем вы можете более внимательно изучить свою эффективность, чтобы увидеть, не повлияло ли на вас каким-либо образом изменение алгоритма Google.
Наконец, попробуйте инструмент анализа алгоритмов, например MozCast или Grump от Accuranker. Эти инструменты ежедневно отслеживают изменения в алгоритме Google, чтобы помочь маркетологам опережать любые обновления.
С помощью Grump, например, вы можете отслеживать изменения алгоритма на разных устройствах, поэтому, если вы заметили падение мобильного трафика или конверсий, вы можете использовать этот инструмент, чтобы увидеть, не стал ли Google «ворчливее», чем обычно, что предполагает изменение к алгоритму:
Как определить, какое обновление алгоритма Google попало на ваш сайтЗаметили ли вы в последнее время резкое снижение посещаемости? Изменение алгоритма может быть ответственным. Вот два лучших способа определить, какое обновление только что пришло на ваш сайт, и как оправиться от штрафных санкций:
- Во-первых, проверьте Центр поиска Google (бывший веб-мастера).Эта платформа содержит множество ресурсов, которые помогут вам диагностировать типичные проблемы с производительностью и определить возможные недостатки алгоритма.
- Затем войдите в Search Console, бесплатный инструмент аналитики от Google. Если вы хотите выявить проблемы с удобством использования мобильных устройств или отслеживать эффективность своего сайта, в Search Console есть все необходимые ресурсы.
В совокупности эти инструменты могут помочь вам легко отслеживать изменения в алгоритме Google.
Отличается ли алгоритм Google от других поисковых систем?Да.Во-первых, мы не знаем, как часто поисковые системы, такие как Bing или Yahoo, обновляют свои алгоритмы, тогда как мы знаем, что Google обновляет свой алгоритм очень часто.
С другой стороны, ключевые факторы ранжирования Bing немного более прозрачны, в том числе:
- метаданные
- время загрузки страницы
- количество и качество обратных ссылок
Таким образом, в некотором смысле легче понять алгоритм Bing и настроить свою стратегию SEO в соответствии с ним.
Поскольку Yahoo тесно связан с Bing, принципы очень похожи, но разница в том, что они опубликовали прозрачное и полезное руководство, чтобы помочь маркетологам лучше понять свои ключевые факторы ранжирования.
Как добиться успеха с помощью алгоритма GoogleГотовы взяться за алгоритм Google и повысить рейтинг своей страницы? Вот 10 полезных советов.
1. Оптимизация для мобильных устройствБлагодаря индексу Google, ориентированному на мобильные устройства, вы должны оптимизировать свой веб-сайт для мобильных устройств, если хотите повысить свой рейтинг.
Чтобы проверить, как ваш веб-сайт отображается на мобильных устройствах, зайдите на страницу Mobile-Friendly Test, введите свой URL-адрес и проанализируйте результаты. Например, вот мой:
2. Аудит входящих ссылокЗатем проверьте свои входящие ссылки. Все ли они работают должным образом и содержат ли ссылки на актуальный и актуальный контент? Если нет, исправьте ссылки и убедитесь, что они перенаправляют на полезные сообщения, чтобы повысить удобство использования вашего сайта для пользователей.
Входящие ссылки хорошего качества могут улучшить ваш рейтинг.
3. Повысьте вовлеченность пользователейВовлеченность пользователей имеет значение. В конце концов, если вы генерируете большие объемы трафика, это прекрасно, но менее идеально, если у вас высокий показатель отказов или вы не видите много повторных посетителей.
Сосредоточьтесь на проведении качественного исследования ключевых слов, чтобы вы всегда соответствовали правильному поисковому запросу, и убедитесь, что вы наполняете свой веб-сайт заслуживающим доверия контентом, чтобы пользователи дольше привлекали внимание. Это может помочь вам взломать алгоритм Google.
4.Уменьшить время загрузки сайтаМедленный веб-сайт с плохим временем загрузки может затруднить взаимодействие с пользователем и повлиять на ваш рейтинг в Google. Проверьте время загрузки страницы с помощью инструмента Google PageSpeed Insights:
После того, как вы запустите анализ, Google предложит несколько советов по увеличению скорости страницы.
5. Избегайте дублирования содержимогоБудь то всего лишь несколько строк текста или основные блоки контента, дублирование контента на вашем сайте может повлечь за собой штраф.
Чтобы определить дублирующийся контент, попробуйте Duplicate Page Finder. Введите URL-адреса, которые вы хотите сравнить, проверьте результаты и внесите соответствующие изменения.
Вы также можете узнать, использует ли кто-то другой ваш контент на своем сайте, посетив Siteliner и проверив свой URL:
6. Создание информационного содержанияЕсли кто-то нажимает на ваш веб-сайт и остается на нем, Google знает, что вы, вероятно, ответили на поисковый запрос пользователя. Другими словами, вы создаете полезный, информативный контент.
Результат? Более высокий рейтинг страницы, чем если бы ваши статьи были поверхностными или не нацелены на правильное поисковое намерение.
7. Избегайте переполнения ключевыми словамиНаполнение ключевыми словами означает втиснуть одно и то же ключевое слово в ваш контент несколько раз, чтобы повысить ваши шансы на ранжирование. Этот тип контента часто отвлекает, его трудно читать, и он не соответствует алгоритму Google.
Хотите избежать избыточного количества ключевых слов и оставаться на стороне Google? Просто используйте ключевое слово естественно в тексте.
8. Не оптимизируйте слишком многоSEO имеет значение, но не переусердствуйте. Не включайте в контент нерелевантные ссылки, не покупайте ссылки и избегайте чрезмерной оптимизации анкорных текстов.
Трудно найти баланс между эффективным SEO и чрезмерной оптимизацией, но пока вы избегаете агрессивных методов построения ссылок и тактики черной шляпы, все будет в порядке.
9. Улучшение навигации по сайтуВсегда отдавайте предпочтение пользовательскому опыту:
- оптимизация меню и навигации веб-сайта
- создание карты сайта
- обеспечение работы всех ваших навигационных ссылок
Если вы еще не перешли с HTTP на HTTPS, сделайте это сейчас. Сайты HTTPS более безопасны, а значит, заслуживают большего доверия. Google награждает заслуживающие доверия веб-сайты более высокими рейтингами, поэтому с точки зрения маркетинга это того стоит.
Все, что вам нужно сделать, это купить сертификат SSL, установить его в учетной записи хостинга вашего сайта и обновить свои URL-адреса на HTTPS, а не на HTTP.
Часто задаваемые вопросы об алгоритмах GoogleНадеюсь, теперь вы понимаете алгоритмы Google, но позвольте мне резюмировать некоторые ключевые моменты.
Какие проблемы обычно решает Google при обновлении алгоритмов?
Google хочет улучшить взаимодействие с пользователем в Интернете, поэтому обновления алгоритмов направлены на улучшение ответа на намерения пользователя.
На какие действия обычно влияют обновления алгоритмов Google?
Google обычно ищет некачественные обратные ссылки, наполнение ключевыми словами и некачественный контент.
Сообщает ли Google, когда они внесли изменение в алгоритм?
Google обычно объявляет о серьезных и радикальных изменениях алгоритмов, но не уведомляет никого о более мелких и более частых изменениях.
Как мне получить уведомление, когда Google выпускает обновление?
Попробуйте инструмент мониторинга алгоритмов, отслеживайте свой трафик и конверсии на предмет заметных изменений и подпишитесь на Google Alerts.
Вывод алгоритма GoogleВ нижней строке? Алгоритм Google часто меняется, что может напрямую повлиять на вашу стратегию SEO. Когда Google объявит о своем следующем обновлении ядра, обязательно прочитайте, как это может повлиять на рейтинг вашей страницы, и ознакомьтесь с моими консультационными услугами, если вам понадобится дополнительная помощь.
Наконец, чтобы избежать штрафов за алгоритм, сосредоточьтесь на создании богатого, ценного контента для пользователей, исправьте все неработающие ссылки, замените некачественные обратные ссылки новыми и внедрите сертификат SSL, если у вас его нет.
Как вы отслеживаете изменения алгоритма Google?
Узнайте, как мое агентство может привлечь огромное количество трафика на ваш веб-сайт
- SEO — разблокируйте огромное количество SEO-трафика. Смотрите реальные результаты.
- Контент-маркетинг — наша команда создает эпический контент, которым будут делиться, получать ссылки и привлекать трафик.
- Paid Media — эффективные платные стратегии с четкой окупаемостью.
Заказать звонок
Алгоритм поиска | Brafton
Под алгоритмом понимается формула или процесс, используемый для достижения определенного результата. Что касается интернет-маркетинга, поисковые системы используют алгоритм для ранжирования веб-сайтов на страницах результатов поисковых систем (SERP). Алгоритмы поиска находят и возвращают в Интернете контент, который по формуле считается наиболее релевантным запросам пользователей. Они полагаются на сотни сигналов, связанных с оптимизацией данной страницы для поисковой оптимизации, и все чаще включают факторы, указывающие на то, что страница ценна для поисковиков.
Поисковые системы регулярно обновляют свои алгоритмы, чтобы предоставлять пользователям наиболее полные и точные результаты, и эти обновления требуют постоянных проверок качества в отношении содержания сайта и общего SEO.
Алгоритмы и рост персонального поискаНа заре поиска алгоритмы, специфичные для поисковых систем, были достаточно согласованными для каждого пользователя. Поиск в Google с компьютера в Калифорнии, вероятно, дал бы те же результаты, что и поиск с компьютера в Бостоне.
Поскольку поиск стал универсальной отправной точкой для исследования, разработчики поиска работали над адаптацией своих результатов поиска к человеку, выполняющему поиск. Такая информация, как местоположение, предыдущие поисковые запросы и история веб-поиска, теперь учитывается в результатах поиска, поскольку системы пытаются предоставить информацию, которая, скорее всего, поможет отдельным пользователям. Контентные страницы даже подлежат приоритетному ранжированию, если ими поделились друзья / онлайн-связи искателей, которые вошли в свои социальные учетные записи во время поиска (Facebook при использовании Bing и Google+ при использовании Google).Действительно, алгоритмы поиска были обновлены, чтобы учитывать факторы, указывающие на популярный и полезный контент.
Алгоритмы и обеспечение качества контентаТак же, как алгоритмы все чаще учитывают личную историю поиска, они постоянно дорабатываются для получения наиболее качественных и релевантных результатов.
Google в настоящее время является ведущей поисковой системой, собирая около двух третей поисковых запросов в мире. Компания также была наиболее агрессивной в переоснащении своих алгоритмов поиска, чтобы гарантировать, что результаты поиска предоставляют пользователям информацию, которая с наибольшей вероятностью ответит на их запросы.Одним из хорошо известных сигналов для алгоритмов Google является PageRank, который измеряет количество качественных ссылок, указывающих на страницу.
Среди основных изменений, внесенных Google в 2011 году, — усиление акцента на поощрении веб-сайтов, которые предоставляют качественный и оригинальный контент. Первое обновление алгоритма Panda произошло в феврале и негативно повлияло на некачественный контент, в то же время повысив рейтинг более надежной информации и веб-сайтов. Последний алгоритм, Panda 2.5, был запущен в конце сентября и привел к значительным потерям трафика для одних веб-сайтов и увеличению прибыли для других.
Руководители второй ведущей поисковой системы, Bing, также предположили, что их алгоритмы нацелены на повышение рейтинга веб-страниц с высококачественным, оптимизированным для SEO содержанием. Дуэйн Форрестер из Bing дошел до того, что напомнил маркетологам, что «все сигналы ранжирования SEO связаны с определенным содержанием».
Ресурсы Google Panda
Ресурсы Google Penguin
Ресурсы Google Hummingbird
Развитие алгоритмов и голосовой поиск
Как и большинство специалистов по цифровому маркетингу, я всегда в курсе всех основных изменений алгоритмов Google.Я также много экспериментирую с различными другими стратегиями цифрового маркетинга. Результаты часто меня приятно удивляют. В другие дни я ломаю голову, пытаясь понять, что заставило веб-сайт упасть в рейтинге в одночасье. Если ваш веб-сайт в один прекрасный день находится наверху результатов поисковой системы, а на следующий день где-то внизу, возможно, Google внес одно из своих многочисленных изменений в алгоритм без предупреждения.
Цель Google при внесении этих изменений в алгоритм состоит не в том, чтобы заставить интернет-маркетологов и веб-мастеров сомневаться в собственных силах.Имейте в виду, что Google честно играет в результатах поиска для предприятий и их клиентов. Общая цель состоит в том, чтобы в лучшем случае привлечь клиентов на веб-сайты компаний и как можно быстрее направить клиентов на тот веб-сайт или информацию, которую они ищут. Когда они встречаются, это прекрасно.
Дело в том, что алгоритмы Google постоянно развиваются. Чтобы сохранить конкурентное преимущество, веб-мастера должны расширять свои знания об алгоритмах поисковых систем в дополнение к проверенным методам поисковой оптимизации (SEO).Лучший способ сделать это — узнать больше об искусственном интеллекте, машинном обучении и новейшей разновидности алгоритмов: голосовом поиске.
Как работает AI
Если вы когда-нибудь прикасались к горячей плите, вы не решитесь прикоснуться к ней еще раз. Искусственный интеллект (ИИ) — это процесс, который сообщает машинам, что что-то не так, и ему необходимо собрать новую информацию и как-то к ней приспособиться. Технология искусственного интеллекта эффективно обучает компьютеры обрабатывать большие объемы данных, распознавать в них закономерности и изменять то, как компьютер на них реагирует.
Специалисты по цифровому маркетингу должны думать о поиске Google как о всеведущем — или всезнающем. Я прочитал статью, в которой предлагается предположить, что Google все видит и слышит. Наша задача как экспертов по цифровому маркетингу — предоставить как можно больше доказательств, чтобы убедить Google в том, что наш сайт занял первое место в рейтинге.
Каков наилучший подход к оптимизации голосового поиска?
Недавно я разговаривал с Олегом Щеголевым, соучредителем SEMrush, который дал несколько здравых и простых советов по оптимизации голосового поиска.Он научил меня, что среди приоритетов для маркетологов использование ключевых слов с длинным хвостом, включение вашей компании в список Google Мой бизнес и оптимизация мобильной версии вашего веб-сайта — это три важнейших шага.
По словам генерального директора Google Сундара Пичаи, по данным Search Engine Land, голосовой поиск составляет 20% запросов в мобильном приложении Google и на устройствах Android. Специалисты по цифровому маркетингу должны подумать о словах-триггерах, которые используют клиенты при использовании голосового поиска, и соответствующим образом оптимизировать их.Щеголев объяснил важность оптимизации содержания веб-сайта в форме вопросов, которые люди могут задать при использовании голосового поиска — например, начиная с фразы «где я могу найти».
По моему опыту, у меня были отличные результаты, когда я использовал поисковые запросы на основе намерений пользователя и вопросов, такие как «где», «рядом со мной» или «в» определенном месте. В одном из моих проектов я значительно увеличил локальную видимость одного из моих филиалов с геотаргетированным контентом, создав контент, содержащий ключевое слово местоположения «Queens, NYC».«Я создал несколько блогов с местными условиями и дополнительные страницы с контентом, связанным с аудиторией — например,« мероприятия для пожилых людей в Квинсе, Нью-Йорк ». Кроме того, я оптимизировал листинг Google My Business для филиала в Квинсе, часто собираю отзывы и публикую обновления.
Понимание RankBrain и голосового поиска
RankBrain является частью основного алгоритма Google, который использует машинное обучение для получения наиболее релевантных результатов по поисковому запросу. Он эффективно собирает и интерпретирует наборы данных — местоположение искателя, поисковые слова и т. Д.- понять истинные намерения пользователя, выполняющего поиск, и направить его на наиболее релевантные сайты. Со временем RankBrain обучает компьютер сопоставлять сигналы с результатами и использовать вычисления для ранжирования веб-сайтов в поисковой системе.
Предлагаю думать как заказчик при работе над оптимизацией. Например, предположим, что у меня была тяга к тако, когда я ехал один в своей машине. Я мог бы выбрать голосовой поиск, чтобы не снимать руки с руля. Я могу задать своему мобильному телефону вопрос, например: «Где ближайший ресторан тако?» Обратите внимание на слово-триггер для голосового поиска: «где.”
За секунды поисковая система может найти все ближайшие рестораны тако. Сайты с самым высоким рейтингом, скорее всего, будут географически ближайшими. Голосовой поиск, вероятно, также будет учитывать силу отзывов о ресторане и звонил ли я в конкретный ресторан со своего телефона в прошлом.
Таким образом, оптимизируя свой сайт, думайте о своих привычках, пытаясь найти то, что вам нужно или что вы хотите. Ознакомьтесь с голосовым поиском и используйте его почаще.Задавайте вопросы, а не собирайте вместе несколько слов. Вы просто можете обнаружить, что Google перенаправит вас на нужный вам сайт, а не на тот, который вы ожидали.
Двигаясь вперед, я легко могу согласиться с предсказанием Щеголева, что голосовой поиск станет более сложным и скоро будет использовать более совершенные механизмы искусственного интеллекта. Как и в случае с любым другим инструментом цифрового маркетинга, мы должны оставаться в курсе, поскольку он неизбежно развивается.
.