http и https: как закрыть от индексации ненужное

Аватар пользователя Mefidze
Не в сети
Последнее посещение: 34 недели 1 день назад
Зарегистрирован: 2014-06-03
Сообщения:

Клиент хочет сделать у себя на сайте версию с https для реализации технических моментов (платежные данные, оплата и так далее). Хотелось бы узнать наилучший способ, как закрыть эту версию от индексации. Ведь если не убрать, то по сути это будет дублированный контент, дублированные страницы. Есть конечно же варианты, но хотелось бы понять, какой из них будет самым оптимальным. Спасибо.

Аватар пользователя igorstrong
Не в сети
Последнее посещение: 2 недели 6 дней назад
Зарегистрирован: 2015-04-27
Сообщения:
Самым оптимальный вариантом в

Самым оптимальный вариантом в данной ситуации является закрытие от индексации конкретных разделов в файле сайта robots.txt. В таком случае возможно избежать повторов и сделать контент наиболее оптимальным для восприятия поисковыми системами.

Аватар пользователя tornado5
Онлайн
Последнее посещение: 39 мин. 2 сек. назад
Зарегистрирован: 2014-06-24
Сообщения:
Баллы: 25.80
Наиболее действенный вариант

Наиболее действенный вариант - это сделать соответствующие записи в файле robots.txt. Но, я открою вам небольшой секрет: не один метод не гарантирует на 100%, что ваш сайт не будет проиндексирован поисковой системой и не попадет в выдачу. Так что лучше использовать сразу несколько вариантов.

Аватар пользователя illarionova.197348
Не в сети
Последнее посещение: 3 дня 20 часов назад
Зарегистрирован: 2014-10-19
Сообщения:
Баллы: 4.10
Ну вот на самом деле, самый

Ну вот на самом деле, самый простой и в тоже время, более эффективный способ сделать надежные страницу так это, вот здесь robots.txt. Но скажу сразу, что на самом деле, никто не застрахован от ошибок и только по этой причине, надо полностью перестраховаться еще различными способами, с которыми можно ознакомится в интернете.

Аватар пользователя mr.khropko
Не в сети
Последнее посещение: 46 недель 4 дня назад
Зарегистрирован: 2014-07-11
Сообщения:
Объясните клиенту, что есть

Объясните клиенту, что есть только один способ robots.txt. Там вы можеет прописать закрытие отдельных страниц, блоков или всего сайта отдельно от яндекса и гугла. Посмотрите в справочнике, как это безболезнено сделать или выложите уже ваш вариант, а мы, если неправильно, его подправим.

Реклама