Новости в сегменте SEO оптимизации

Узнайте стоимость, это бесплатно

Более 500 успешных клиентов

Более 1000 ключевых слов в ТОП10

Более 50 компаний в социальных сетях

Активно внедряется ПО поиска похожих изображений

Год назад Яндекс внедрил у себя технологию «Сибирь» по распознаванию изображений, которая базируется на алгоритмах исследования их содержимого. Эта технология пока несовершенна, но постоянно развивается. Недавно алгоритм был дополнен блоком «Похожие картинки», который позволяет по загруженному изображению найти не только его копии, но и похожие картинки.

Алгоритм использует в своей работе принципы работы нейронных сетей (Neural Networks) головного мозга. Это – один из важных этапов по созданию искусственного интеллекта.

Из-за того, что пока разработанный блок не может сравниться с человеческим разумом, результаты поиска похожих изображений могут удивить. Но это лишь первые шаги в этом направлении, в дальнейшем технология будет совершенствоваться и развиваться.

Penguin и Panda – перспективы и реальность

Осенью Google обновил один из блоков поискового алгоритма – разработчики выкатили Penguin 3.0, исправивший ошибки, допущенные в предыдущих версиях. Но новый алгоритм не произвел каких-либо революционных изменений в лучшую сторону – результат выдачи изменился всего на 1% в поиске.

Это говорит о том, что многие потерпевшие сайты в результате борьбы с «левыми» спам-ссылками так и не могут восстановить свои позиции. Совершенно очевидно, что эти сайты использовали некорректные методы повышения своего рейтинга, и исправить положение старыми путями не получится. Только надежные и релевантные ссылки будут теперь учитываться в результатах продвижения.

Исходя из этого, по мнению известного аналитика Аарона Фридмана, период внезапных и кардинальных изменений в поисковых алгоритмах Google заканчивается. Но разработчики «Пингвина» и «Панды» утверждают, что впредь апдейты будут происходить непрерывно в реальном времени, пока алгоритмы не доработают до запланированных результатов.

Влияние внешних JavaScript и CSS на показатели ранжирования

Внедрение новых алгоритмов в Google привело к тому, что сейчас поисковые роботы воспринимают веб-страницу не как текстовый массив, а как современный браузер. То есть, при ранжировании страницы учитываются внешние CSS и JavaScript-файлы.

Поэтому Google настоятельно рекомендует сделать эти файлы доступными для просмотра роботами. В дальнейшем при создании сайтов нужно пользоваться технологией прогрессивного улучшения (progressive enhancement), подразумевающей правильную семантическую верстку контента, а также доступность функциональности в виде JS- и CSS-файлов.