Сертификат безопасности ssl, революция от Google в 2018

Сертификат безопасности ssl — это что-то вроде индивидуальной печати сайта. Он нужен для защиты персональной информации посетителей ресурса, а также для защиты транзакций на посещаемом сайте.
Количество валидных сертификатов безопасности ssl, по данным сайта REG.RU, который ссылается на statonline, с начала 2017 года существенно выросло. Как сообщает этот ресурс, рост в российской доменной зоне .ru составил 60% (с 360 000 до 579 000).
Кроме указанного роста, увеличилась общая доля сертификатов безопасности ssl. К примеру, в начале 2017 года доля таких SSL- сертификатов составляла 81%. Сейчас же она колеблется около 87%. Другими словами, рост составил порядка 9%.
Let’s Encrypt ssl является одной из компаний лидеров, которая занимается выдачей сертификатов безопасности ssl. Эта тенденция прослеживалась и в 2017 году. Другими словами, рынок услуг выдачи таких сертификатов выбрал флагманов, которые развивают этот сегмент. Let’s Encrypt ssl обслуживает около 400 000 SSL-сертификатов.
На втором месте по выдаче таких сертификатов стоит компания COMODO ssl. Она обслуживает 77 000 SSL-сертификатов.
На третьем, четвёртом и пятом месте стоят компании GlobalSign ssl, cPanel ssl и DigiCert ssl. На них приходится 50 000, 42 000 и 7 800 SSL-сертификатов.
 
Для наглядности распределение SSL-сертификатов на рынке таково:
1. Let’s Encrypt ssl — 400 000.
2. COMODO ssl — 77 000.
3. GlobalSign ssl — 50 000.
4. cPanel ssl — 42 000.
5. DigiCert ssl — 7 800.
В России наибольшей популярностью пользуются сертификаты безопасности ssl уровня Domain Validation. Их число не так давно превысило 570 000 штук.
По мнению многих экспертов, в отношение сертификатов безопасности ssl, стремление собственников интернет-ресурсов использовать такие сертификаты понятно. Такое рвение важно не только потому, что оно помогает создать безопасный протокол https версии веб-ресурса, но и в плане сохранение стабильного трафика на своём сайте.
К примеру, компания Google с того года оповестила веб-мастеров подключать безопасный протокол https версии своих ресурсов.
Это связано с тем, что Google планирует, уже с этого года, обновить свой браузер Google Chrome. После чего все ресурсы, которые не используют сертификат безопасности ssl будут помечаться как небезопасные.
OpenStat приводит статистику, по которой становится видно, что в 2018 году общий объём пользователей использующих, упомянутый выше, Google Chrome составляет 54%. Несложно предвидеть, как отреагирует интернет-сообщество на подобные обновления алгоритмов браузера Chrome.
Ещё интересно:

Обновление яндекс директ с помощью keyword bids от яндекса

Обновление яндекс директ, наконец, случится. Стало известно, что группа разработчиков Директа заявила о начале бета-тестировании нового сервиса. Он нужен для определения приоритетов ключевым словам или фразам. Этот сервис носит название — API KeywordBids яндекс. Вся необходимая информационная база размещена и опубликована в сети.

Читать далее «Обновление яндекс директ с помощью keyword bids от яндекса»

Джон Мюллер объяснил, как предоставить карту сайта с более чем 50 000 URL-адресов используя файл sitemap

Файлы Sitemap ограничены 50 000 URL-адресами на файл, поэтому что делать веб-мастерам, если у них есть сайт, который превышает 50 000 страниц?

Мюллер говорит, что для одного веб-сайта может быть создано несколько файлов sitemap xml. Затем эти файлы можно объединить в файл индекса sitemap. Или как выразился Мюллер,

«файл Sitemap для файлов Sitemap».
Кроме того, это работает для файлов Sitemap ru с менее чем 50 000 URL-адресов, поскольку владельцы сайтов могут захотеть использовать несколько таких файлов для разных разделов своего ресурса.Несколько файлов Sitemap также могут быть представлены отдельно, независимо от того, содержатся ли они в файле индекса Sitemap или нет.

Мюллер рекомендует автоматически создавать эти файлы на своем сервере. Это обеспечит максимально быстрое обновление Вашего нового контента поисковыми системами.

Поэтому, если Вы не знаете, как создавать файлы Sitemap, это нормально, потому что большинство систем управления контентом занимаются этим самостоятельно. Обычно все, что Вам нужно сделать, это включить его в панели управления.

Ниже приведена стенограмма пресс-конференции Мюллера:

«Файлы Sitemap — отличный способ сделать ваш контент известным Google и другим поисковым системам. Однако они ограничены 50 000 URL-адресов на файл.Что вы делаете, если у вас больше URL-адресов? Вы можете создать более одного файла Sitemap для каждого веб-сайта. Вы можете отправить их отдельно, например, через Search Console. Или вы можете создать файл индекса sitemap.

Файл индекса google sitemap является файлом sitemap для, собственно одноименных, файлов Sitemap. Вы можете перечислить в нем несколько таких файлов. Если вы используете файл этого индекса, то Вы можете просто отправить этот файл для своего сайта в Search Console.

Даже если у вас меньше 50 000 URL-адресов, Вы можете отправить несколько файлов Sitemap. Например, это можно сделать, чтобы отслеживать различные разделы Вашего веб-сайта или просто в целом для простоты обслуживания файлов Sitemap.

Когда дело доходит до создания таких файлов, мы настоятельно рекомендуем Вам автоматически их прогонять через Ваш сервер. Это лучший способ убедиться, что новый и обновленный контент быстро обновляется поисковыми системами.

Большинство современных систем управления контентом позаботятся об этом для вас. Часто это просто вопрос переключения кнопок на панели управления, чтобы включить их».

Джон Мюллер говорит, что параметры Google в URL-адресах не имеют значения

«Удалит ли .html из моих URL-адресов мой сайт?»

Короткий ответ — нет. Мюллер говорит, что Google не волнует, заканчиваются ли URL-адреса на .html, .php, .asp или, вообще, не имеют параметров. Независимо от того, на какой URL-адрес заканчивается сайт, он все равно будет отображаться в результатах поиска.

Фактически удаление параметров из URL-адресов может даже повредить сайту. Удаление параметров — это эквивалент реструктуризации сайта, а старые URL-адреса должны быть перенаправлены на новые. Как и любая реструктуризация сайта, для его переработки компаниям потребуется время.

Если вы находитесь в ситуации, когда вам абсолютно необходимо удалить параметры из URL-адресов, например, переходя на систему управления контентом, которая их не позволяет. Мюллер рекомендует делать это в то время, когда вы менее зависимы от поискового трафика.

Полный ответ Мюллера выглядит так:

«URL-адреса важны для поисковых систем, таких как Google. Им все равно, какие из них используют ваши URL? Ответ — нет.

Google использует URL-адреса для идентификации фрагментов контента. Если ваши URL-адреса заканчиваются на .html, .php, .asp или просто содержат в них слова, это не имеет большого значения для Google. Все эти URL-адреса могут отображаться в поиске аналогичным образом.

Тем не менее, когда вам нужно изменить свои URL-адреса, например, если вы перейдете к новой системе управления контентом, которая не позволяет использовать URL-адреса .html, вообще, имейте в виду, что это изменение будет реструктурировать ваш сайт. Вам нужно будет перенаправить старые URL-адреса на новые.

Такие изменения могут занять довольно много времени, чтобы их можно было перерабатывать. Поэтому выбор этого времени, когда вы не зависите от поиска, — является хорошей идеей. И поскольку это может занять время, мы не рекомендуем делать такие изменения на wim. При изменении URL-адресов выбирайте URL-адреса, которые, как вы уверены, могут работать долго».

Facebook больше не разрешает таргетинг объявлений

Facebook закрывает некоторые категории партнёрств. Подобная новость, после официальной пресс-конференции, не незамедлительно оказало влияние на стоимость акций компании. Инвесторы прекрасно понимают, что этот шаг даст сторонним поставщикам данных возможность предлагать свой таргетинг рекламодателям Facebook.

Сюда входят агрегаторы данных, такие как Experian и Acxiom, которые могут предоставлять клиентам автономные данные для улучшения таргетинга объявлений, например, закупочную деятельность за пределами Facebook.

Это общепринятая отраслевая практика, как отметил сам Facebook, но компания полагает, что отключение категорий партнеров улучшит конфиденциальность пользователей на Facebook.

Разумеется, это изменение должно привести к сокращению так называемой жуткой рекламы на Facebook. К примеру, существуют объявления, которые кажутся слишком целенаправленными и навязчивыми. Основываются же такие объявления на привычках потенциальных клиентов, которые, последние, осуществляли в интернет-магазинах.

А также важно отметить, что это изменение происходит на фоне последствий скандала с конфиденциальностью данных Cambridge Analytica. Хотя категории партнеров не были напрямую связаны со скандалом, тем не менее этот шаг может помочь восстановить уверенность пользователей в том, что Facebook будет защищать их конфиденциальность в будущем.

Mobile first верстка

Mobile first верстка и ее роль в конкурентной борьбе интернет-ресурсов. 
На днях, компания Гугл анонсировала mobile-first индекс технологию. По словам разработчиков, она способна индексировать существенное число сайтов. Тем не менее принцип mobile first не заработал в полную силу и лишь применим к сайтам, которые следуют четким рекомендациям Google. Рекомендации можно найти в официальной спецификации на сайте компании.

Специалисты ожидали анонс нового алгоритма ещё с того года. По их словам, новый метод ранжирования сайтов с помощью mobile-first верстки произведёт мини-революцию в seo продвижении сайтов.

Те сайты, к которым будет применён новый метод ранжирования получат соответствующие сообщения от Гугл. Этот алгоритм способен поднять уровень посещений таких ресурсов с помощью мобильных роботов Smartphone Googlebot.

До этого Google имел всего лишь один индекс. Сейчас же, новый mobile-first индекс способен индексировать, с большей результативностью, те сайты, которые ориентируются на мобильную версию своего ресурса.

Цитата:

Старая система алгоритмов использовала десктопную версию текста на странице. Это вызывало сложности для поиска с мобильных устройств. Связано это с тем, что версия обычного сайта существенно отличалась от мобильного.

Преимущества mobile first индекса заключается в том, что mobile first вёрстка способна ранжировать эти мобильные сайты с большим приоритетом. Именно это, мы считаем, позволит таким сайтам быть более конкурентноспособными.»Google успокоил владельцев тех ресурсов, которые ещё не готовы к новым методам индексации:

Если сайты не успели подготовиться к новому алгоритму, то им не нужно расстраивается. Новый метод индексации это — не оценка контента сайта, а всего лишь его сборка. Тот контент, который был собран с помощью mobile first на сайте, не имеет явного преимущества перед обычной мобильной версткой. Более того, прежнее содержание страницы будет также индексироваться.
Всё же, владельцам своих ресурсов стоит задуматься о том, как применить новую технологию у себя на сайтах уже сейчас.

Контент для поисковых систем. Представитель Google раскрыл тайну

Контент для поисковых систем может обновляться на усмотрение вебмастера. Во время пресс-конференции Джона Мюллера, который является представителем компании Гугл, было сделано следующие заявление с его стороны:

При работе с алгоритмами, Гугл не учитывает частоту и объемы появления вновь добавленного контента для поисковых систем.

Подобным сообщением Мюллер озадачил большинство присутствующих программистов. В итоге один из специалистов IT-индустрии задал ему вопрос:

Учитывают ли алгоритмы от компании Гугл график, объёмы или периодичность появления нового контента для поисковых систем на веб-ресурсе? И что будет, если этот ресурс вместо прежних семи публикаций, начнёт генерировать две?

Ответ представителя Гугл удивил многих. По его словам, разницы для поисковой системы нет. А также он добавил, что веб-ресурс — это не автоматическая программа, которая генерирует контент с четкой последовательностью.

Кроме того из интервью Мюллера специалисты узнали о том, что Гугл не советует пользоваться метатегом Refresh, который нужен для переходов на внешние ресурсы.