Главная Новости

Кирилл Казаков: Современные технологии продвижения интернет-сайтов

Опубликовано: 06.09.2018

видео Кирилл Казаков: Современные технологии продвижения интернет-сайтов

Викторова Мария рекрутирование в инстаграм. 2015 06 28

Кирилл Вячеславович, вопрос продвижения сайтов во «всемирной паутине» сегодня как никогда актуален: в современном мире день занятого человека не проходит без обращения к интернет-поисковикам. Какой способ привлечения трафика вы назвали бы самым продуктивным?


SMM ПРОДВИЖЕНИЕ ВЕБИНАРА. ОШИБКИ И НЮАНСЫ ПРИ ПРОДВИЖЕНИИ

Согласно последним исследованиям, более 80% посетителей практически любого сайта попадают на его страницы благодаря поисковым машинам. Это наиболее бюджетный способ привлечения трафика на сайт среди всех существующих в Интернете.

Какие поисковые системы сегодня востребованы в России?

В 2015 году компания Яндекс в своем блоге предоставила информацию о том, что на главную страницу ее поиска заходят более 150 миллионов раз в день. Сейчас, благодаря широкому распространению мобильного интернета, эта цифра увеличивается с каждым днем. 

Однако Яндекс является не единственной поисковой системой, широко востребованной у российских пользователей. Согласно данным liveinternet.ru, в январе 2016 года доля Яндекса на рынке поискового трафика в России составила 56,9% – более 36% принадлежат крупнейшему мировому поисковику Google, из года в год укрепляющему свои позиции в нашей стране во многом за счет популярности мобильной платформы Android.

Согласно последним исследованиям, более 80% посетителей практически любого сайта попадают на его страницы благодаря поисковым машинам

Замыкают пятерку самых востребованных в России поисковиков Search Mail.ru, Bing и Rambler, но суммарная доля проходящего через них трафика невелика – всего лишь около 6% на троих. 

Изменились ли алгоритмы работы поисковых машин за последние десятилетия?

Если мы обратимся к истории этого вопроса, то обнаружим, что в конце 1990-х годов, в период становления поисковых машин, поисковый алгоритм не умел распознавать «спам» – многократное использование одинаковых ключевых слов в теле контента, в мета-тегах, комментариях и т.д.

Чтобы такие сайты не отпугивали посетителей, повторяющиеся ключевые слова делались невидимыми с помощью специальных HTML-уловок. 

Со временем поисковые машины стали способны отличать спамовые страницы и штрафовать за использование спамовых методов. Но в 1999 году появился еще один способ отслеживания эффективности алгоритмов индексирования – через подсчет количества и авторитетности сайтов, ссылающихся на продвигаемую интернет-страницу.

Как появилось это правило?

Это правило пришло из системы библиотек и архивов и до сих пор играет важную роль в притоке посетителей на сайт. С момента появления этого правила начался рост значения так называемых «внешних факторов» (англ. Off-page factors), названых так, поскольку они не зависят от контента страницы, и, как следствие, свободны от влияния спамеров. 

Были созданы так называемые ссылочные фермы (англ. Link farm). Логика их работы такова: если поисковые машины учитывают количество входящих ссылок на сайт, то можно создать специальную внешнюю страницу, на которой будет много ссылок на нашу. Таким образом, официальной целью подобных ссылочных ферм было создание сообщества, объединенного ссылками. 

Не столь явная, но понятная цель – достижение высоких позиций в рейтингах для своих сайтов. Кроме ссылочных ферм, до последнего времени были популярны ссылочные биржи, позволявшие платно разместить ссылки на сайт заказчика. 

При этом наибольший ссылочный вес мог приобрести не тот сайт, который этого был бы достоин, а тот, бюджет которого на покупку ссылок был выше.

Актуальны ли сейчас ссылочные фермы и биржи?

Эволюция алгоритмов поисковиков в наши дни практически полностью нивелировала преимущества использования ссылочных ферм и бирж, тогда как негативные последствия от их использования многократно выросли.

В 2000 году появилась поисковая система Google, и уже к 2002 году стала ключевым поисковиком почти во всех ведущих странах мира, кроме России и Китая. Ключевыми слагаемыми успеха поисковика Google являются устойчивость к спаму за счет внестраничных технологий, простой интерфейс, наличие инструментов Sitemap (технология построения «карты ссылок» сайта для удобства его индексации в поисковых машинах), Google Analytics (инструмент сбора и анализа статистики сайта), Google Webmaster Tools (инструмент веб-мастера сайта) и других. 

Следствием борьбы между Google и недобросовестными веб-мастерами, борющимися за высокие позиции в выдаче, является появление новых антиспам алгоритмов, значительно повлиявших на облик нынешней поисковой выдачи Google, по сравнению с тем, какой она была несколько лет назад.

Например?

В частности в 2012 году Google выпустил антиспам алгоритм «Пингвин», сделавший переизбыток входящих ссылок  с продвигаемыми ключевыми словами негативным фактором ранжирования: владельцы сайтов, попавших под этот фильтр, столкнулись со снижением трафика от 30 до 70%.

Несколько позже аналогичные меры предпринимает и ведущий российский поисковик – Яндекс. В декабре 2013 Яндекс объявил о том, что ссылочная масса более не будет учитываться при расчете позиций коммерческих сайтов по Москве и области в органической поисковой выдаче.

В начале марта 2014 же Яндекс официально отключил ссылки по Москве и региону в самых топовых и конкурентных тематиках (недвижимость, салоны красоты и т.д.). Летом 2015 года был введен фильтр «Минусинск», снизивший позиции всех сайтов, продвижение которых базировалась на покупке внешних ссылок. В первые недели его применения позиции поисковой выдачи изменились более чем на 60%. 

rss