По умолчанию геотаргетинг выставился на Сент-Мартен.
По умолчанию геотаргетинг выставился на Сент-Мартен.
Пока что я вижу, что при пересечении всяких там российско-китайских границ на университетских проксях не сможет кешироваться ничего, и в России если с сайта что-то в блок попадёт, то сайт грохнется сразу весь. И, самое неприятное, либо как-то ужимать поддомены сайта в один-два, либо брать несколько вайлдкардов, потому что в отличие от DNS, звёздочка в сертификате работает только на один уровень вложенности. Когда сайты делал, сроду не думал, как потом натянуть на них TLS. Мог, хотел и делал хосты до пятого уровня вложенности. Всё равно виртуально. И-таки потом успешно перетаскиваю по частям на VDS.
Либо как-то на Аде написать, чтоб при обнаружении по SNI запроса на неопознанный поддомен так же на лету по API запрашивался бесплатный DV сертификат от Comodo и/или Let's Encrypt, сохранялся и сразу использовался в соединении. Или скомбинировать: на сайте, где пользователь может тыкнуть адресную строку мышкой, хороший сертификат, а внутри — бесплатные DV.
Смотрю и думаю, а зачем. Может, подождать, вдруг TLS станет не таким дебильным? SNI же как-то дождались.
Для каких страниц составляются сниппеты?
Вот интересно, а если у меня каждый пост на форуме размечен DiscussionForumPosting, в сниппет это не попадёт, ну а хотя бы радости–то прибавит?
Специальные сниппеты формируются для страниц, где размещена только одна работа (один сериал, одна статья и т. п.), которая и является основным содержимым страницы. Язык страницы может быть русским, английским, белорусским, украинским, турецким, татарским или казахским.
Вот интересно, а если у меня каждый пост на форуме размечен DiscussionForumPosting, в сниппет это не попадёт, ну а хотя бы радости–то прибавит?
linkfeed.ru недостаточно просто отправить сайт на повторную модерацию. Надо удалить и добавить снова, оказывается.
На
#1666722 #1666627 ) предлагают в том числе поискать расширение/протокол, и поисковые запросы, на которые сделан редирект, не активно освоены конкурентами. Это хорошо, когда ты знаешь, по каким запросам идут ламеры, а конкуренты, давно не бывшие ламерами, эти запросы недосмотрели. Хоть и нет времени сайтом заниматься, но трафик лишним не бывает.
Отлично! Предыдущие описанные крючки (
google.ru Вот она, на предпоследней позиции p2p.toom.su Пришёл юзер на такой адрес, и ни картинок, ни оформления, исходный викикод. Нахрена мне это надо? Кому надо, посмотрит, а из поисковиков случайным посетителям нечего это показывать.
Я, когда в X-Wiki реализовывал Sitemap, не мог придумать, как priority генерить. Неочевидно же. Когда я от поисковиков такую фигню пропалил, тут я придумал, куда priority приспособить. На собственно страницу priority 0.8, а на всякие viewer=code, xpage=print и прочие priority=0.1. Почему–то не помогло. Дату изменения Гугл усвоил, в выдаче видно, а priority — хрен.
Из индексирования постремался совсем изымать. Неспроста же Гугл показывает низкоприоритетную страницу на первой странице в выдаче. Вместо этого, сделал, если на подобный неосновной адрес посетитель приходит из поисковика, его редиректит на нормальную страницу. Что–то типа клоакинга получается.
Очередная напасть, в поиске появляются не только странички с моих викисайтов, но так же и их исходные коды: Я, когда в X-Wiki реализовывал Sitemap, не мог придумать, как priority генерить. Неочевидно же. Когда я от поисковиков такую фигню пропалил, тут я придумал, куда priority приспособить. На собственно страницу priority 0.8, а на всякие viewer=code, xpage=print и прочие priority=0.1. Почему–то не помогло. Дату изменения Гугл усвоил, в выдаче видно, а priority — хрен.
Из индексирования постремался совсем изымать. Неспроста же Гугл показывает низкоприоритетную страницу на первой странице в выдаче. Вместо этого, сделал, если на подобный неосновной адрес посетитель приходит из поисковика, его редиректит на нормальную страницу. Что–то типа клоакинга получается.