Как закрыть страницу сайта
Перейти к содержимому

Как закрыть страницу сайта

  • автор:

Как заблокировать сайт в Chrome (8 простых способов)

Есть две разные billion зарегистрированные сайты в мире. Эти сайты предоставляют отличные ресурсы для исследований, развлечений, торговли и социального взаимодействия. Доступ к этим ресурсам можно получить с помощью интернет-браузеров, таких как Google Chrome.

У Интернета также есть своя неприятная сторона, из-за которой мы не хотим расстраиваться. В том или ином случае, будучи пользователем Интернета, вы наверняка хотели заблокировать веб-сайт в Chrome по множеству причин. Для этого есть несколько известных методов:

Способ 1. Блокируйте веб-сайты с расширением Chrome. Заблокируйте сайт.

Расширения Chrome можно использовать для блокировки веб-сайтов в Chrome. Расширения — это надстройки, которые предоставляют Chrome больше функций, которые обычно недоступны в браузере.

Одно из лучших расширений, используемых для блокировки веб-сайтов, называется Blocksite. Использовать этот метод довольно просто, поскольку инструмент расширения легко справится с этой задачей. Blocksite имеет базу пользователей в один миллион человек и пользуется доверием многих пользователей Chrome. Он может эффективно блокировать веб-сайты в Chrome на различных устройствах и operaтинговые системы.

Использование Blocksite упрощает процесс блокировки веб-сайтов. Он работает в Chrome, установленном на различных устройствах и operaтинговые системы.

Вот шаги для загрузки и использования Blocksite:

Шаг 1) Откройте Google Chrome и посетите Google Chrome веб-сайт или альтернативно нажмите на https://chrome.google.com/webstore/category/extensions.

Шаг 2) Введите «BlockSite» в строке поиска, просмотрите отображаемые результаты и выберите расширение.

Блокируйте веб-сайты с помощью расширения Chrome

Шаг 3) Нажмите на расширение Blocksite. Затем выберите ‘Добавить в Chrome’ как показано ниже.

Блокируйте веб-сайты с помощью расширения Chrome

Произойдет подтверждение установки. Нажмите на ‘Я принимаю’ принять условия.

Шаг 4) Выберите план или нажмите «Начни мою бесплатную пробную версию» использовать бесплатную версию. Это приведет к панели управления.

Блокируйте веб-сайты с помощью расширения Chrome

Примечание. Это приведет к панели управления BlockSite.

Шаг 6) На вкладке Блокировать сайты нажмите кнопку ‘Больше вариантов’ и «Блокировать сайты». Введите URL-ссылку сайта, который вы хотите заблокировать, в диалоговом окне. box и нажмите ‘Добавьте предмет’.

Блокируйте веб-сайты с помощью расширения Chrome

Советы: Альтернативно, вы можете следовать следующемуwing методы достижения того же результата.

Шаг 1) Откройте сайт, который хотите заблокировать, и щелкните ссылку правой кнопкой мыши. Появится раскрывающееся меню.

Шаг 2) Нажмите на «БлокСайт» опция расширения в меню.

Шаг 3) Нажмите «Заблокировать эту ссылку». Заблокированный веб-сайт указан под «Блокировать сайты‘, поэтому, чтобы разблокировать сайт, просто зайдите в настройки расширения и отредактируйте список заблокированных сайтов.

Способ 2. Блокировка веб-сайта с помощью функции безопасного поиска Google в Chrome.

Эта функция работает путем блокировки веб-сайтов, отображающих неприемлемый контент. При активации он блокирует веб-сайты и веб-контент, которые Google уже пометил как неприемлемые.

Шаг 1) Включите его, щелкнув значок настроек в правом верхнем углу веб-страницы Chrome или, альтернативно, перейдите в раздел Настройки Chrome.

Шаг 2) Отметьте флажокbox письменный «Включить безопасный поиск», прокрутите веб-страницу вниз и нажмите ‘Сохранять’. Эта настройка будет блокировать веб-сайты на неопределенный срок, пока не будет отключена.

Блокировка веб-сайта с помощью Google SafeSearch

Способ 3. Как заблокировать веб-сайт с помощью администратора Google

Вы можете вручную блокировать веб-сайты от имени администратора Google. Это подходит для Google Chrome браузеры на компьютерах, подключенных через консоль администратора Google. Например, рассмотрим школы и офисы. Вы также можете использовать блокировку веб-сайтов для взрослых с помощью черного списка.

Вот шаги, чтобы заблокировать веб-сайт с помощью Google Admin:

Шаг 1) Откройте Google Chrome браузер. Затем войдите в свою учетную запись администратора Google Suite по адресу admin.google.com.

Как заблокировать сайт с помощью Google Admin

Шаг 2) Перейдите в «Устройство» > «Chrome» > «Настройки».

Как заблокировать сайт с помощью Google Admin

Шаг 3) Выделите «Настройки пользователя и браузера» что в свою очередь открывает «Блокировка URL-адресов > Черный список URL-адресов»

Шаг 4) Поместите в текст URL-адреса и ссылки на веб-страницы, которые вы хотите заблокировать. box под ‘URL черный список’.

Примечание: Кроме того, вы можете поставить следующееwing ссылки в текстовом поле, чтобы пользователи, подключенные к сети, не могли получить к ним доступ и внести изменения:

Шаг 5) Чтобы просмотреть заблокированные или разблокированные веб-сайты, посетите «Черный список URL-адресов» и удалить записи. Это также предотвращает доступ к сайту даже в режиме инкогнито.

Блокировка сайта с помощью роутера

Способ 4. Блокировка веб-сайта с помощью маршрутизатора (macOS и Windows)

Маршрутизаторы также могут блокировать веб-сайты, и когда вы это делаете, URL-адреса также блокируются на всех устройствах, подключенных к этому маршрутизатору.

Шаг 1) Чтобы заблокировать URL-адреса, введите IP-адрес вашего маршрутизатора в строку поиска Chrome. Это приведет к этой странице входа

Блокировка сайта с помощью роутера

Шаг 2) Поместите в текст данные для входа администратора вашего роутера. boxэто предусмотрено.

Примечание: Информация для входа обычно написана на упаковке или в руководстве пользователя роутера. Это приведет к веб-странице маршрутизатора.

Шаг 3) Найдите настройки блокировки сайта. Обычно его можно найти на вкладке «Безопасность», фильтре URL-адресов, настройках брандмауэра, правилах маршрутизации или настройках родительского контроля.

Блокировка сайта с помощью роутера

Шаг 4) Введите доменное имя/веб-адрес сайта, который вы хотите заблокировать, и нажмите «Применить».

Примечание: Вашему Chrome и всем устройствам, подключенным к роутеру, будет запрещен доступ к сайту даже в режиме инкогнито.

Способ 5. Блокировка веб-сайта путем внесения изменений в файлы хоста.

Вы можете заблокировать веб-сайт на своем устройстве, отредактировав файлы хоста. Это текстовый файл в формате operating-система вашего компьютера, содержащая доменные имена и IP-адреса. Размещение ссылки в списке приведет к постоянной блокировке веб-сайта, если она не будет удалена.

Шаг 1) Чтобы внести URL-адреса в список, найдите файл хоста на своем

Локальный диск C:\Windows→System32→драйверы→и т.д.→папка→хосты

Блокировка сайта с помощью роутера

Шаг 2) Сделайте еще одну копию файла хоста для резервного копирования на случай ошибки.

Шаг 3) Откройте хост-файл в текстовом редакторе, например Блокноте или Nano, для Windows.

Шаг 4) Прокрутите страницу вниз и введите новую строку под последним символом «#».

Шаг 5) В новой строке введите свой ‘#’, а затем IP-адрес вашего локального хоста, ‘127.0.0.1’, а затем доменное имя веб-сайта.

Блокировка сайта с помощью роутера

Шаг 6) Нажмите на ‘Файл’ Чтобы сохранить настройки, или нажмите CTRL+S. Сохранить как все файлы.

Советы: Когда вы открываете Chrome и выполняете поиск по доменному имени веб-сайта, в результатах поиска Google ничего не отображается. Вы также можете добавить новые строки с доменными именами для блокировки веб-сайтов. Чтобы разблокировать сайты, просто удалите запись из файла хоста.

Способ 6: как ограничить доступ к веб-сайту в Chrome с помощью Screen Time на Mac

Экранное время — это функция Mac и iOS, которая доступнаmarily, чтобы помочь контролировать время использования устройства. Это инструмент для повышения производительности пользователей Mac. Его также можно использовать для блокировки веб-сайтов или ограничения доступа к определенным приложениям.

Вот пошаговое руководство по блокировке веб-сайтов с учетом экранного времени:

Шаг 1) Перейдите в меню Apple/Mac и нажмите «Системные настройки«

Шаг 2) Нажмите на ‘Экранное время’, затем перейдите к «Контент и конфиденциальность». По умолчанию контент и конфиденциальность отключены. Нажмите на ‘Включать’ снять ограничения.

Как ограничить сайт в Chrome с помощью Screen Time

Шаг 3) Нажмите на «Ограничить сайты для взрослых» автоматически блокировать такие веб-сайты. Нажмите кнопку «Настроить», чтобы добавить любой другой конкретный веб-сайт.

Как ограничить сайт в Chrome с помощью Screen Time

Шаг 4) Это приведет к ‘Ограниченный’ раздел. Нажми на ‘+’ значок, чтобы добавить URL-адреса веб-сайтов в список.

Как ограничить сайт в Chrome с помощью Screen Time

Шаг 5) Введите URL-адрес веб-сайта в отведенное место, затем нажмите ‘ЛАДНО’ чуть ниже текста box чтобы добавить этот веб-сайт в список ограниченных, затем нажмите ‘ЛАДНО’ внизу страницы, чтобы сохранить изменения.

Советы: Этот метод может добавлять в список другие URL-адреса. Любой браузер на вашем Mac не может посетить все URL-адреса в черном списке URL-адресов.

Как ограничить сайт в Chrome с помощью Screen Time

Метод 7: как заблокировать веб-сайт паролем с помощью расширения Blocksite Chrome

Шаг 1) После установки Blocksite коснитесь значка красного щита в правом верхнем углу страницы.

Как ограничить сайт в Chrome с помощью Screen Time

Шаг 2) Нажмите на значок шестеренки/настроек, чтобы открыть окно блокировки сайта.

Как ограничить сайт в Chrome с помощью Screen Time

Шаг 3) Появляется страница. Нажать на «Введите веб-адрес» box вверху страницы и введите адрес веб-сайта или нежелательную ссылку URL.

Как ограничить сайт в Chrome с помощью Screen Time

Шаг 4) Хит «+ Добавить элемент» кнопка справа от текста box. Теперь веб-сайт будет добавлен в список заблокированных сайтов.

Шаг 5) В левой части страницы выберите ‘Защита паролем.’

Как ограничить сайт в Chrome с помощью Screen Time

Шаг 6) Проверить «Защитите предпочитаемые параметры блокировки сайта и страницу расширения Chrome паролем». Это активирует функцию пароля. На том же экране введите email адрес и пароль, которые вы хотите использовать, затем нажмите ‘Сохранить.’

Как ограничить сайт в Chrome с помощью Screen Time

Шаг 7) Сообщение предупредит вас о том, что вам необходимо подтвердить свой электронный адрес.mail адрес. Нажмите ‘ЛАДНО’.

Зайди в свой электронныйmail адрес и следуйте инструкциям, чтобы проверить новые изменения.

Чтобы удалить веб-сайт из списка заблокированных, щелкните значок корзины рядом с ним и удалите его или щелкните красный круглый значок справа от адреса сайта.

Метод 8: как заблокировать сайты в Chrome на вашем компьютере Android Устройство

BlockSite также полезен для блокировки отвлекающих факторов на сайтах социальных сетей, а также для блокировки контента для взрослых и других конкретных веб-сайтов. Он также доступен в виде приложения для блокировки веб-сайтов или приложений на ваших мобильных устройствах.

Вот шаги, как заблокировать сайты в Chrome на вашем компьютере. Android устройство:

Шаг 1) На вашем Android устройстве, посетите Google Play Store, найдите приложение BlockSite и установите его на свой Android Телефон.

Как заблокировать сайты в Chrome на вашем компьютере Android

Шаг 2) Перейдите в настройки и измените ограничения доступности/конфиденциальности, чтобы приложение могло работать.

Как заблокировать сайты в Chrome на вашем компьютере Android

Шаг 3) Нажмите зеленый плюсик, чтобы начать процесс блокировки сайта.

Как заблокировать сайты в Chrome на вашем компьютере Android

Шаг 4) В предоставленной строке поиска найдите ключевое слово, имя домена, веб-сайт или приложение, которое вы хотите заблокировать.

Как заблокировать сайты в Chrome на вашем компьютере Android

Шаг 5) Выбрав сайт, нажмите «Готово», чтобы сохранить настройки.

Как заблокировать сайты в Chrome на вашем компьютере Android

Чтобы разблокировать сайт, нажмите значок корзины рядом с названием сайта в списке «Заблокированные элементы», чтобы удалить запись.

Обзор

  • Интернет является обширным инструментом для обмена знаниями, общения, коммерции и т. д.
  • С другой стороны, он содержит вредный и неприемлемый контент, вирусы и вредоносные программы-вымогатели. Это также является большим источником отвлечения, если с ним не справиться должным образом.
  • Пользователи Chrome могут использовать расширения, вносить изменения в хост-файлы компьютера или использовать встроенные методы для блокировки доступа к сайтам, которые они не хотят посещать.
  • За блокировкой с помощью расширений Chrome и опции SafeSearch легко следить, в то время как для обработки других может потребоваться больше времени.
  • Блокировка некоторых веб-сайтов и URL-адресов — это лучший вариант, если вы цените продуктивность и хотите защитить своих детей от контента для взрослых и откровенного контента, а также других ограничений контента.
  • 10 лучших БЕСПЛАТНЫХ блокировщиков рекламы (Adblock) Расширение для Chrome
  • Как остановить всплывающую рекламу в Chrome (обновление 2024 г.)
  • 9 ЛУЧШИЙ YouTube Блокировщики рекламы для Android, iOS и веб-браузеры
  • 15 лучших БЕСПЛАТНЫХ альтернатив GitHub (2024 г.)
  • 17 лучших (ДЕЙСТВИТЕЛЬНО БЕСПЛАТНЫХ) менеджеров паролей в 2024 году
  • Альтернатива 7 Wayback Machine (Интернет) Archiвеб-сайт)
  • 20+ ЛУЧШИХ приложений для учета рабочего времени сотрудников (бесплатных и платных), апрель 2024 г.
  • 19 лучших кастомов URL Shortener (БЕСПЛАТНОЕ сокращение ссылок) в 2024 г.

Как закрыть страницу сайта

Как закрыть сайт от индексации или убрать из индекса отдельные страницы

ЧЕК-ЛИСТ: ТЕХНИЧЕСКАЯ ЧАСТЬ — ИСПРАВЛЕНИЕ
Инструкцию одобрил
Tech Head of SEO в TRINET.Group

Рамазан Миндубаев

Контент сайта должен быть информативным и полезным для пользователя, а соответствующие страницы — открытыми для сканирования поисковым роботом. Однако есть случаи, когда нужно закрыть страницу от индексации. Разберемся в каких случаях это уместно.

  1. Причины запретить индексацию страницы
  2. Какие страницы не индекстровать
  3. Как закрыть страницы от индексации
    3.1. Как закрыть сайт от индексации Google
  4. Как проверить, сколько страниц закрыто от индексации
  5. Заключение

Причины запретить индексацию страниц

Владелец сайта заинтересован, чтобы потенциальный клиент находил его веб-ресурс в выдаче, а поисковая система в том, чтобы предоставить пользователю ценную и релевантную информацию. Для индексации должны быть открыты только те страницы, которые имеет смысл выводить в результаты поиска.

Рассмотрим причины, по которым следует запретить индексацию сайта или отдельных страниц:

Контент не несет в себе смысловой нагрузки для поисковой системы и пользователей или же вводит их в заблуждение.

К такому контенту можно отнести технические и административные страницы сайта (корзина, страница оплаты, результатов поиска, авторизация и т.д.), данные с персональной информацией, наборы фильтров каталога товара в электронной коммерции (множественный выбор фильтров по цене, цвету, фактуре и другое).

Нерациональное использование краулингового бюджета.

Краулинговый бюджет это определенное количество страниц сайта, которое периодически сканирует поисковая система. Для всех сайтов это значение количества страниц разное и не постоянное и в том числе зависит от типа сайта и частоты его обновления. В наших интересах тратить ресурсы краулеров на те страницы, которые представляют ценность и пользу как для клиента так и для нас (бизнеса). Чтобы краулер чаще посещал и обновлял контент в индексе нужных нам страниц, необходимо закрыть от сканирования те, которые вытягивают краулинговый бюджет и не приносят собственно пользы.

Расход краулингового бюджета

Схема сканирования, индексирования и ранжирования сайта

Хотите прямо сейчас проверить, какие страницы вашего сайта индексируются и находятся в топе поисковой выдачи? А по каким фразам ранжируется ваш конкурент? Попробуйте Serpstat (нужно зарегистрироваться и после вы получите доступ к бесплатным инструментам). Если хотите доминировать на своем рынке — используйте Serpstat и достигайте большей эффективности в онлайн.

Какие закрыть страницы от индексации
Страницы сайта в процессе разработки

Если проект только в процессе создания, лучше закрыть сайт от поисковых систем. Рекомендуется открыть доступ к сканированию наполненных и оптимизированных страниц, отображение которых в результатах поиска целесообразно. При разработке сайта на тестовом сервере доступ к нему должен быть ограничен с помощью файла robots.txt, мета тега noindex или пароля, однако приоритетный вариант — это именно присвоение метатега ко всем страницам разрабатываемого ресурса, так как в таком случае индексация страницы невозможна, в отличие от robots.txt, где директива запрета скорей рекомендация для краулера и индексация страниц все равно возможна в ряде случаев. Зачастую программисту не сложно добавить нужную логику что бы вывести дополнительный мета тег и запретить индексацию сайта. Для ворд пресса можно использовать настройки плагина Yoast SEO или другого с подобной функцией.

Закрыть сайт от индексации в robots.txt можно следующим содержимым (первая директива — означает обращение ко всем краулерам, вторая директива — запрещает сканировать все URL сайта):

Эти две строчки запретят доступ к сайту всем роботам поисковых систем.

Если нужно при этом разрешить сканировать конкретные URL, нужно добавить директиву Allow: /namepage$ где /namepage URL страницы разрешенной к сканированию. Директива разрешения сканирования доминирует над запретом (для конкретного URL ), а значек $ отменяет применение по умолчанию не выводимывого символа «*». То есть если не поставить $ — мы разрешим сканировать вложенные URL относительно родителя , такие как /namepage /indexpage.html и т.д.

Запрет индексации для сайта на сервере NGINX осуществляется с помощью добавления кода add_header X-Robots-Tag «noindex, nofollow»; в файл .conf.

Когда и как нужно закрывать сайт от индексации

Мы прилагаем все усилия, чтобы наши обзоры были максимально честными, точными и объективными. Если вы посещаете ссылки в нашем контенте, мы можем получить комиссионное вознаграждение от ваших покупок, однако это не влияет на нашу редакционную политику и мы не станем рекомендовать продукты или сервисы, в которых не уверены.

Индексация сайта поисковыми роботами — процесс сканирования и обработки данных этого сайта и добавления его в специальную базу для последующего ранжирования в выдаче. Именно благодаря индексации сайты попадают в поле видимости потенциальных клиентов. Однако иногда сайты или их отдельные страницы нужно закрывать от индексации. В этой статье рассмотрим, в каких случаях требуется это сделать, разберем способы скрытия ресурсов от поисковых краулеров и покажем, как узнать, закрыт ли сайт от индексации или нет.

Что нужно закрывать от индексации

Важно, чтобы в поисковой выдаче были исключительно целевые страницы, соответствующие запросам пользователей. Поэтому от индексации в обязательном порядке нужно закрывать:

1. Бесполезные для посетителей страницы или контент, который не нужно индексировать. В зависимости от CMS, это могут быть:

  • страницы административной части сайта;
  • страницы с личной информацией пользователей, например, аккаунты в блогах и на форумах;
  • дубли страниц;
  • формы регистрации, заказа, страница корзины;
  • страницы с неактуальной информацией;
  • версии страниц для печати;
  • RSS-лента;
  • медиа-контент;
  • страницы поиска и т.д.

2. Страницы с нерелевантным контентом на сайте, который находится в процессе разработки.

3. Страницы с информацией, предназначенной для определенного круга лиц, например, корпоративные ресурсы для взаимодействий между сотрудниками одной компании.

4. Сайты-аффилиаты.

Если вы закроете эти страницы, процесс индексации других, наиболее важных для продвижения страниц сайта ускорится.

Нет времени разбираться?
SEO-продвижение под ключ

Проанализируем конкурентов, подберем запросы с низкой конкуренцией, проведем поисковую оптимизацию сайта, организуем внешнюю ссылочную массу, проработаем карточки компании на онлайн картах, проведем базовую UX-аналитику сайта. Над каждым проектом работает от 6 до 10 специалистов. Собственные разработчики для доработки сайта при необходимости. От вас — сайт, от нас — позиции в Яндекс/Google и трафик.

Способы закрытия сайта от индексации

Закрыть сайт или страницы сайта от поисковых краулеров можно следующими способами:

  1. С помощью файла robots.txt и специальных директив.
  2. Добавив метатеги в HTML-код отдельной страницы.
  3. С помощью специального кода, который нужно добавить в файл .htaccess.
  4. Воспользовавшись специальными плагинами (если сайт сделан на популярной CMS).

Далее рассмотрим каждый из этих способов.

С помощью robots.txt

Robots.txt — текстовый файл, который поисковые краулеры посещают в первую очередь. Здесь для них прописываются указания — так называемые директивы.

Этот файл должен соответствовать следующим требованиям:

  • название файла прописано в нижнем регистре;
  • он имеет формат .txt;
  • его размер не превышает 500 КБ;
  • находится в корне сайте;
  • файл доступен по адресу URL сайта/robots.txt, а при его запросе сервер отправляет в ответ код 200 ОК.

В robots.txt прописываются такие директивы:

  • User-agent. Показывает, для каких именно роботов предназначены директивы.
  • Disallow. Указывает роботу на то, что некоторое действие (например, индексация) запрещено.
  • Allow. Напротив, разрешает совершать действие.
  • Sitemap. Указывает на прямой URL-адрес карты сайта.
  • Clean-param. Помогает роботу Яндекса правильно определять страницу для индексации.

Имейте в виду: поскольку информация в файле robots.txt — это скорее указания или рекомендации, нежели строгие правила, некоторые системы могут их игнорировать. В таком случае в индекс попадут все страницы вашего сайта.

Полный запрет сайта на индексацию в robots.txt

Вы можете запретить индексировать сайт как всем роботам поисковой системы, так и отдельно взятым. Например, чтобы закрыть весь сайт от робота Яндекса, который сканирует изображения, нужно прописать в файле следующее:

Привлекли 35.000.000 людей на 185 сайтов
Мы точно знаем, как увеличить онлайн–продажи

Применяем лучшие практики digital–продвижения как из вашей тематики, так и из смежных областей бизнеса. Именно это сделает вас на голову выше конкурентов и принесёт лиды и продажи.

User-agent: YandexImages Disallow: /

Чтобы закрыть для всех роботов:

User-agent: * Disallow: /

Чтобы закрыть для всех, кроме указанного:

User-agent: * Disallow: / User-agent: Yandex Allow: /

В данном случае, как видите, индексация доступна для роботов Яндекса.

Запрет на индексацию отдельных страниц и разделов сайта

Для запрета на индексацию одной страницы достаточно прописать ее URL-адрес (домен не указывается) в директиве файла:

User-agent: * Disallow: /registration.html

Чтобы закрыть раздел или категорию:

User-agent: * Disallow: /category/

Чтобы закрыть все, кроме указанной категории:

User-agent: * Disallow: / Allow: /category

Чтобы закрыть все категории, кроме указанной подкатегории:

User-agent: * Disallow: /uslugi Allow: /uslugi/main

В качестве подкатегории здесь выступает «main».

Запрет на индексацию прочих данных

Чтобы скрыть директории, в файле нужно указать:

User-agent: * Disallow: /portfolio/

Чтобы скрыть всю директорию, за исключением указанного файла:

User-agent: * Disallow: /portfolio/ Allow: avatar.png

Чтобы скрыть UTM-метки:

User-agent: * Disallow: *utm=

Чтобы скрыть скриптовые файлы, нужно указать следующее:

User-agent: * Disallow: /scripts/*.ajax

По такому же принципу скрываются файлы определенного формата:

User-agent: * Disallow: /*.png

Вместо .png подставьте любой другой формат.

Через HTML-код

Запретить индексировать страницу можно также с помощью метатегов в блоке в HTML-коде.

Атрибут «content» здесь может содержать следующие значения:

  • index. Разрешено индексировать все содержимое страницы;
  • noindex. Весь контент страницы закрыт от индексации;
  • follow. Разрешено индексировать ссылки;
  • nofollow. Разрешено сканировать контент, но ссылки при этом закрыты от индексации;
  • all. Все содержимое страницы подлежит индексации.

Открывать и закрывать страницу и ее контент можно для краулеров определенной ПС. Для этого в атрибуте «name» нужно указать название робота:

  • yandex — обозначает роботов Яндекса:
  • googlebot — аналогично для Google.

Помимо прочего, существует метатег Meta Refresh. Как правило, Google не индексирует страницы, в коде которых он прописан. Однако использовать его именно с этой целью не рекомендуется.

Так выглядит фрагмент кода, запрещающий индексировать страницу:

Чтобы запретить индексировать страницу краулерам Google, нужно ввести:

Чтобы сделать то же самое в Яндексе:

На уровне сервера

В некоторых случаях поисковики игнорируют запреты и продолжают индексировать все данные. Чтобы этого не происходило, рекомендуем попробовать ограничить возможность посещения страницы для отдельных краулеров на уровне сервера. Для этого в файл .htaccess в корневой папке сайта нужно добавить специальный код. Для краулеров Google он будет таким:

SetEnvIfNoCase User-Agent "^Googlebot" search_bot

Для краулеров Яндекса таким:

SetEnvIfNoCase User-Agent "^Yandex" search_bot

На WordPress

В процессе создания сайта на готовой CMS нужно закрывать его от индексации. Здесь мы разберем, как сделать это в популярной CMS WordPress.

Закрываем весь сайт

Закрыть весь сайт от краулеров можно в панели администратора: «Настройки» => «Чтение». Выберите пункт «Попросить поисковые системы не индексировать сайт». Далее система сама отредактирует файл robots.txt нужным образом.

Закрытие сайта от индексации через панель администратора в WordPress

Закрытие сайта от индексации через панель администратора в WordPress

Закрываем отдельные страницы с помощью плагина Yoast SEO

Чтобы закрыть от индексации как весь сайт, так и его отдельные страницы или файлы, установите плагин Yoast SEO.

Для запрета на индексацию вам нужно:

  • Открыть страницу для редактирования и пролистать ее вниз до окна плагина.
  • Настроить режим индексации на вкладке «Дополнительно».

Закрытие от индексации с помощью плагина Yoast SEO

Закрытие от индексации с помощью плагина Yoast SEO

Настройка режима индексации

Настройка режима индексации

Запретить индексацию сайта на WordPress можно также через файл robots.txt. Отметим, что в этом случае требуется особый подход к редактированию данного файла, так как необходимо закрыть различные служебные элементы: страницы рассылок, панели администратора, шаблоны и т.д. Если этого не сделать, в поисковой выдаче могут появиться нежелательные материалы, что негативно скажется на ранжировании всего сайта.

Как узнать, закрыт ли сайт от индексации

Есть несколько способов, которыми вы можете воспользоваться, чтобы проверить, закрыт ли ваш сайт или его отдельная страница от индексации или нет. Ниже рассмотрим самые простые и удобные из них.

В Яндекс.Вебмастере

Для проверки вам нужно пройти верификацию в Яндексе, зайти в Вебмастер, в правом верхнем углу найти кнопку «Инструменты», нажать и выбрать «Проверка ответа сервера».

Проверка возможности индексации страницы в Яндекс.Вебмастере

Проверка возможности индексации страницы в Яндекс.Вебмастере

В специальное поле на открывшейся странице вставляем URL интересующей страницы. Если страница закрыта от индексации, то появится соответствующее уведомление.

Так выглядит уведомление о запрете на индексацию страницы

Так выглядит уведомление о запрете на индексацию страницы

Таким образом можно проверить корректность работы файла robots.txt или плагина для CMS.

В Google Search Console

Зайдите в Google Search Console, выберите «Проверка URL» и вставьте адрес вашего сайта или отдельной страницы.

Проверка возможности индексации в Google Search Console

Проверка возможности индексации в Google Search Console

С помощью поискового оператора

Введите в поисковую строку следующее: site:https:// + URL интересующего сайта/страницы. В результатах вы увидите количество проиндексированных страниц и так поймете, индексируется ли сайт поисковой системой или нет.

Проверка индексации сайта в Яндексе с помощью специального оператора

Проверка индексации сайта в Яндексе с помощью специального оператора

Проверка индексации отдельной страницы

Проверка индексации отдельной страницы

С помощью такого же оператора проверить индексацию можно и в Google.

С помощью плагинов для браузера

Мы рекомендуем использовать RDS Bar. Он позволяет увидеть множество SEO-показателей сайта, в том числе статус индексации страницы в основных поисковых системах.

Плагин RDS Bar

Плагин RDS Bar

Итак, теперь вы знаете, когда сайт или его отдельные страницы/элементы нужно закрывать от индексации, как именно это можно сделать и как проводить проверку, и можете смело применять новые знания на практике.

Как закрыть страницу сайта

Чтобы закрыть окно или вкладку браузера, которая была открыта с помощью JavaScript, используйте метод window.close(). Например, приведенный ниже код закроет текущую вкладку.

Метод window.close() будет работать только при следующих условиях:

  1. Вкладки должны быть открыты с помощью JavaScript. Например, с помощью open().
  2. В браузере Firefox вкладка, которую вы хотите закрыть, не должны быть открыты с помощью значений параметра strWindowFeatures «noopener» или «noreferrer». Например, если окно было открыто с помощью open(«index.html», «_blank», «noopener»), то функция window.close() не сработает.

Как закрыть окно браузера с помощью JavaScript — демонстрация

Обратите внимание на следующие особенности приведенного ниже примера:

  • Кнопка «Open demo» откроет вкладку с этой статьей. При этом браузер автоматически прокрутит страницу до начала раздела с демонстрацией.
  • Кнопка «Close current window» отображается как в текущей вкладке, так и во вновь открытой. Но она будет работать только в последней.
  • Если вы нажмете кнопку «Open demo» пару раз, то откроете несколько вкладок браузера с этой статьей. При этом кнопка «Close current window» должна работать во всех вкладках браузера. Но кроме оригинальной, которую вы открыли вручную.

Исходный код

Это стандартный HTML-код к с добавлением обработчиков onclick, которые вызываются, когда кто-то нажимает на кнопки.

JavaScript-функция tsw_open_demo_window()вызывается при нажатии кнопки «Открыть демонстрацию».

Я использовал относительный URL-адрес, так как в примере открывается эта же страница. Но вы можете использовать абсолютный адрес (включая «http://» или «https://»).

Кнопка «Close current window» не выполняет никаких других действий, кроме вызова window.close(). Поэтому я поместил JavaScript-код непосредственно в ее атрибут onclick.

Пожалуйста, опубликуйте ваши мнения по текущей теме статьи. За комментарии, отклики, лайки, подписки, дизлайки огромное вам спасибо!

Вадим Дворников автор-переводчик статьи « How to Close a Browser Tab/Window with JavaScript »

Как закрыть страницу

Всемирная сеть Интернета затягивает в свои ряды все больше людей. Данным сервисом пользуются все, «от мала, до велика». Молодежь проводит все свое свободное и несвободное время у мониторов, даже пенсионеры поняли уникальности сети. Общаются с друзьями и близкими ежедневно, невзирая на тысячи километров удаленности. Проблема есть только одна – неумение пользоваться всеми возможностями компьютера.

Пользуясь социальными сетями, мы выкладываем всю личную информацию, давая возможность абсолютно посторонним людям, любящим «совать свой нос» в чужие дела выведать наши личные данные и использовать их в мошеннических схемах. Дабы такого не случилось, есть смысл правильно закрывать страницу с личной информацией, закрывая доступ к паролям. Зная ответ на вопрос «Как закрыть страницу?», мы обезопасим себя от визита нежелательных и незваных гостей на своей страничке.

Закрыть страницы в браузерах довольно просто. Всегда есть в уголке крестик, нажимая на который мы без проблем уходим со страницы. Будь то Google Chrome, Opera, Explorer, Firefox, имеют дополнительные возможности закрытия. К ним относятся:

  • Способ, о котором уже сказано – крестик в правом верхнем углу, но именно крестик страницы (вкладки), а не браузера;
  • Комбинация клавиш CTRL+W, тут уже точно не ошибетесь, закроется именно вкладка
  • Нажим правой клавиши на мышке на названии страницы – открываются опции.
  • Выбираете закрыть страницу – следует закрытие текущей страницы
  • Закрыть страницы справа – избавляетесь от открытых справа от активной страницы вкладок
  • Закрыть страниц слева – следует закрытие слева от активной вкладки страниц
  • Чтобы закрыть сразу все вкладки, используйте комбинацию клавиатуры CTRL+SHIFT+W.

Для безопасности просто закрыть страницы недостаточно, нужно очистить историю посещений и кэш.

Независимо от используемого браузера, способ один:

  • открываем раздел «настройки»,
  • переходим на раздел История посещений и очищаем историю нажимом на опцию «Очистить историю посещений».
  • В разделе cookies очищаем введенные где-либо и сохраненные пароли и логины.

Общаясь в социальных сетях, вводя в своем профиле всю информацию о себе, мы опять-таки подвергаем свои данные просмотру посторонних людей. Чтобы ограничить круг лиц, читающих наши данные, или вообще «закрыть» нашу страницу от посторонних глаз, при добавлении одноклассника, друга в Моем мире, В контакте, необходимо быть уверенным – добавлять в друзья или отклонить. Также можно заглянуть на страничку «желающего» подружиться. Нажать на опцию «добавить в друзья», а при возврате на свою страницу — сделать отклонение. Не «приняв» его предложение, вы все-таки подружитесь с ним, и будете иметь возможность посещать его вкладку, писать сообщения на стене, оставлять пожелания и так далее.

удаление страницы в Моем Мире

удаление страницы в Моем Мире

Второй ответ на вопрос «Как закрыть страницу?». Закинуть нового контактора в специальную группу и закрыть всей группе доступ к просмотру ваших файлов. Также можно в любой социальной сети зайти в пункт меню «приватность» или «Доступ к странице» — далее выбираем опцию «Не видит никто» или «Видят только добавленные пользователи» и сохраняем введенные изменения. Таким образом, проблема безопасности наших данных уже решена.

Персональный компьютер, не всегда бывает «персональным», к сожалению. Наши домочадцы или друзья то и дело норовят присесть к компу на секунду и залезть на «не желаемые» для нас страницы социальных сетей. Давайте попросту закроем доступы и дело с концом. Вы зададите вопрос — Как закрыть страницу и доступ к ней? Сейчас узнаем.

Как закрыть «лишние» страницы сайта от индексации в поисковиках: 3 способа и пошаговая инструкция

Термин «Индексация» означает действия поисковых роботов, в результате которых они «считывают» и сохраняют в базы Яндекса и Гугла содержимое сайта: картинки, видеоролики и другие вебматериалы.

Когда в индекс попадают только полезные материалы, в поисковой выдаче по нужным запросам будут выходить только релевантные веб-ресурсы. Частая ошибка при оптимизации сайта — не исключать страницы, которые не следует показывать в результатах поиска. В этой статье покажем, как скрывать их от индексации и рассмотрим все способы.

Почему нельзя индексировать весь сайт целиком

Во-первых, для Интернет-пользователей наличие в выдаче бесполезного контента затрудняет поиск нужной информации, как следствие — поисковики понижают сайты с «ненужными» страницами в выдаче.

Во-вторых, есть требование поисковиков к уникальности контента. Когда какая-либо информация дублируется на разных веб-страницах — для роботов она уже не уникальная, поэтому без настройки запрета не обойтись, если:

  • У вас версия сайта для мобайла на отдельном домене
  • Вы тестируете сайт на другом домене — поисковые роботы также могут принять одинаковые страницы за дубликаты.

В-третьих, у поисковиков есть ограничение по количеству веба для сканирования, для каждого ресурса — своя цифра, она называется краулинговый бюджет. Когда он уходит на редиректы, спам и прочую фигню, его может не хватить на действительно ценные материалы.

В-четвертых, когда вы кардинально меняете дизайн и структуру, лучше скрыть сайт, чтобы он за это время не потерял позиции в поиске из-за низких показателей юзабилити.

Что нужно закрывать от индексации

Закрыть от индексации рекомендуем следующие страницы.

Дубли

Это страницы сайта, единственное различие которых — URL-адреса. Когда несколько одинаковых или почти одинаковых веб-страниц попадают в индексирование, они конкурируют между собой, в результате чего сайт серьезно теряет позиции в выдаче.

Во всех случаях, когда контент открывается не по одному URL-адресу, а по нескольким, система считает его дублем и пессимизирует сайт, на котором находится такой контент.

Кроме того, это сильно влияет и на скорость обхода сайта программами, так как нужно просмотреть уже не одну страницу, а несколько, то есть краулинговый бюджет тратится не по назначению.

Документы для скачивания

Примеры: политика конфиденциальности, обучающие материалы, руководства.

Когда заголовки документов появляются в выдаче выше, чем веб-страницы с ответом на тот же запрос, это плохая идея. Человек может скачать документ и не пойти дальше изучать контент.

Веб в разработке

Они пока не решают задачи пользователей и не готовы к конкуренции — ни к чему показывать их поисковым роботам, иначе рейтинг сайта в поисковиках может упасть.

Технические страницы

К ним относится всё, что относится к служебным целям, но не информативно с точки зрения SEO для пользователей. Примеры:

  • Результаты поиска по сайту
  • Формы связи и регистрации
  • Личный кабинет
  • Корзина пользователя
  • Пагинация — с ней не всё однозначно, поэтому этот вид разберем отдельно

Как проверить, корректно ли работает запрет индексации

Прежде чем переходить к инструкции, важный момент: ни один способ не гарантирует на 100%, что поисковые роботы не будут игнорировать запрет. Поэтому всегда проверяйте результат в панели веб-мастеров Google Search Console и Яндекс.Вебмастер.

В первом инструменте при настройке запрета должен быть статус, как на скриншоте ниже:

Закрытие страниц сайта от индексации, проверка статуса в Google Search Console

В Вебмастере Яндекса зайдите в раздел «Индексирование» и проверьте статус любого URL.

Закрытие страниц сайта от индексации, проверка статуса в Яндекс.Вебмастере

Скрыть от сканирования можно как отдельные веб-страницы, фрагменты и разделы сайта, так и весь сайт целиком. Далее рассмотрим все способы по порядку и разберем, когда какой лучше применять.

Как закрыть страницы от индексации в robots.txt

Robots.txt — самый распространенный способ. Вы используете текстовый файл под этим именем, чтобы задать в нем веб-страницы, которые поисковые программы будут посещать в ходе индексации и исключить те, которые посещать не нужно. То есть для поисковиков файл robots служит ориентиром.

Шаг 1. Найдите или создайте robots.txt

Первое, что нужно найти — корневую папку сайта. Именно туда загружаются все каталоги и файлы сайта. Для этого зайдите в панель управления хостингом, там вы увидите нужный домен и в блоке «Корневая директория» — путь.

Когда файла в корневой папке нет, это значит, что для поисковиков нет ограничений по индексации, и в выдачу может попасть какая угодно страница с сайта. Чтобы этого не допустить, откройте на компьютере пустой документ в формате txt, сохраните под этим именем и залейте.

Путь до домена — тот же. В панели управления хостингом нажмите кнопки «Каталог» — «Закачать» и загрузите, который создали.

Шаг 2. Пропишите список роботов, для которых работает запрет

Первая строка в документе будет такой, если вы хотите запретить индексацию для всех без исключения:

Если, например, только Яндекс — такой:

Шаг 3. Примените директиву Disallow и укажите адрес

Через двоеточие напишите адрес. Выглядит это примерно так:

В этой схеме catalog означает раздел, page — адрес.

Чтобы запретить сканирование для всех поисковиков, кроме какого-то определенного, например, Гугла, задайте это в четырех строках подряд:

Директива Allow позволяет Гуглу индексировать сайт.

Чтобы запретить индексацию целого раздела, нужно прописать его название со слешами:

Чтобы поисковые роботы не посещали сайт целиком, в файле пропишите такие строки:

Мнение экспертов

Отчасти директивы Crawl-delay потеряли свою актуальность. Максим Ворошин, SEO-специалист MKlines, назвал случаи, когда условие в robots.txt может не сработать. Для Яндекса оно обязательное лишь отчасти: если на закрытый материал ведут несколько ссылок или идет трафик, есть вероятность, что он появится в индексе поисковика. Что касается системы Гугла — для появления закрытой страницы в поиске достаточно того, чтобы на неё вело много ссылок.

По опыту эксперта Алены Рыбиной, блогера SEOFY, Яндексу безразлично, как закрывать страницы от индекса — они в любом случае пропадут из базы. Ситуация, когда Гугл индексирует, несмотря на robots.txt, бывает не часто — как правило, поисковик придерживается инструкций индексации. Бывали и исключения, например, когда индексировались страницы плагинов и с динамическими параметрами, несмотря на то, что в настройке не было ошибок.

При этом, как отмечает Анастасия Шестова, руководитель направления поискового продвижения ИнтерЛабс, обычно количество таких страниц невелико и не является значимой проблемой.

Как закрыть страницы от индексации через метатег Robots

Если программы всё-таки индексируют веб из файла Robots.txt, есть альтернативный способ — директивы noindex и nofollow в метатеге Robots. Их нужно добавить в страницы.

Способ метатега помогает скрыть:

  • Конкретный кусок текста.
  • Ссылку.
  • Весь контент полностью.

Разница между первым и вторым вариантом — во втором вы запретите индексацию, но при этом также обрубите передачу статического веса страниц.

Как правило, метатег Robots — самый простой способ запретить индексацию. Он работает 100% для всех поисковых систем. Однако если проверка в Search Console и Вебмастере показывает, что запрет индексации не действует, скопируйте в файл .htaccess следующий кусок кода:

SetEnvIfNoCase User-Agent «^Googlebot» search_bot

SetEnvIfNoCase User-Agent «^Yandex» search_bot

SetEnvIfNoCase User-Agent «^Yahoo» search_bot

SetEnvIfNoCase User-Agent «^Aport» search_bot

SetEnvIfNoCase User-Agent «^BlogPulseLive» search_bot

SetEnvIfNoCase User-Agent «^msnbot» search_bot

SetEnvIfNoCase User-Agent «^Mail» search_bot

SetEnvIfNoCase User-Agent «^spider» search_bot

SetEnvIfNoCase User-Agent «^igdeSpyder» search_bot

SetEnvIfNoCase User-Agent «^Robot» search_bot

SetEnvIfNoCase User-Agent «^php» search_bot

SetEnvIfNoCase User-Agent «^Snapbot» search_bot

SetEnvIfNoCase User-Agent «^WordPress» search_bot

SetEnvIfNoCase User-Agent «^Parser» search_bot

SetEnvIfNoCase User-Agent «^bot» search_bot

Как закрыть страницы от индексации через X-Robots-Tag

Этот способ запрещает индексацию контента определенного формата. Другое название — HTTP-заголовок на уровне сервера. Проще это реализовать через .htaccess, то есть с помощью таких строк в документе:

Как закрыть от индексации html-файлы

Это для html. А чтобы бот не не индексировал изображения на сайте, можно отключить форматы .png, .jpeg, .jpg, .gif:

Как закрыть от индексации изображения

По аналогии в директиве FilesMatch можно использовать любой формат.

О методе заголовков на уровне сервера Google рассказывал еще в 2007 году. По словам эксперта Максима Ворошина, этот метод работает в 100% случаев, но используется реже остальных.

Важное преимущество — в том, что метод можно использовать как для html-страниц, так и для любого типа содержимого, например, файлов .doc и .pdf.

Как закрыть страницы пагинации от индексации

Нет единого мнения, стоит ли скрывать их от сканирования.

Аргумент «против» — актуальный для интернет-магазинов: риск, что товары не на первой странице каталога будут выпадать из индекса из-за низкой ссылочной массы.

Аргумент «за» — возможность появления дублей title на сайте.

Что касается настройки запрета для пагинации, перечисленные в статье способы не помогут. Оптимальный вариант — канонический способ rel=»canonical» с указанием главной страницы категории. В этом случае поисковики обходят ссылки на страницах пагинации, но сами страницы не появляются в индексе.

Заключение

Если показывать в поиске все подряд материалы сайта, в том числе заведомо бесполезные для посетителей, сайт может серьезно «просесть» в выдаче по позициям. В том числе есть смысл ставить запрет на индексацию для всех страниц, которые пока не готовы к потоку пользователей.

Сделать это можно тремя способами:

  • Прописать в документе robots.txt
  • Применить директиву noindex
  • Использовать HTTP-заголовок на уровне сервера

В то же время ни один способ не дает гарантии, что закрытые страницы не попадут в базы поисковиков, поэтому стоит дополнительно проверить результат по URL-адресам в сервисах Яндекс.Вебмастер и Search Console.

Закрыть от индексации в robots.txt страницу на сайте, текст, фильтр или поддомен

Индексация — это процесс анализа страниц сайта поисковыми системами и внесение информации о них в Базу Данных (индекс) для последующего использования ее в ранжировании web-ресурсов и формирования поисковой выдачи.

Зачем нужны запреты от индексации?

Как правило, от поисковых систем закрывают информацию, которая не должна отображаться в поисковой выдаче — это разного рода техническая, служебная и конфиденциальная информация, страницы с непригодным для продвижения контентом. Чаще всего оптимизаторы запрещают для индекса дубли страниц, корзину, результаты поиска на сайте, личный кабинет пользователя.

Методы блокировок от индексации

На эту тему существует подробная инструкция от Google. Выделим два основных метода запрета индексации страницы:

Robots.txt — это специальный текстовый файл, в котором содержатся рекомендации для поисковых систем о том, какие страницы можно индексировать, а какие не следует. Яндекс.Помощь дает подробное разъяснение по использованию файла robots.txt , почитать которое можно здесь.

Чтобы заблокировать страницу от индексации поисковых систем в robots.txt , необходимо воспользоваться директивой Disallow. Пример от Яндекс:

заблокировать страницу от индексации

При помощи тега robots с атрибутом noindex.

О правилах употребления noindex вы можете прочитать в нашей статье Страницы с тегом . Чтобы заблокировать страницу с помощью этого атрибута, необходимо добавить в раздел страницы следующие строчки:

— страница будет заблокирована для большинства поисковых роботов

Также можно закрыть страницу от какой-либо конкретной поисковой системы, например:

Как обнаружить на сайте заблокированные от индексации страницы?

Иметь информацию о таких страницах необходимо хотя бы потому, что некоторые из них могут быть закрыты случайно, например, из-за ошибки при употреблении директив в robots.txt . К тому же, ссылаться на заблокированные URL не рекомендуется, потому что это нарушает передачу статического веса страниц. Посмотреть данные обо всех страницах вашего сайта с блокировкой от индексации вы можете с помощью сервиса Labrika. Находится отчет в подразделе «Блокировки индексации» раздела «SEO-аудит» в левом боковом меню:

Блокировки индексации

На странице отчета вы можете увидеть следующую информацию:

Блокировки индексации

  1. Кнопка для обновления данных по сайту. При ее нажатии вы сможете получить свежий SEO-анализ по всем важным параметрам, в том числе — по блокировкам от индексации.
  2. На этой вкладке содержатся данные обо всех страницах, которые закрыты от индексации.
  3. Данные исключительно об ошибках в блокировках:

Related posts:

  1. Как закрасить фигуру в c
  2. Как вставить картинку в гугл презентацию
  3. Как выбрать сеть вручную на андроид
  4. Почему скачет температура процессора intel

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *