Удаление сайта из поиска Google и «Яндекс»

Интернет-маркетолог
Стаж 10 лет
Опубликовано: 24.03.2026

Иногда возникает необходимость убрать сайт или его отдельную страницу из поисковой выдачи. Причины могут быть разными: от смены домена и скрытия разделов в разработке до удаления неактуального контента. Главная задача — сделать так, чтобы конкретный URL стал недоступен для пользователей из поиска. Разберем основные способы, как исключить ненужный контент из индекса поисковых систем и когда это действительно требуется.

А на вашем сайте техничка в порядке?
  • Подарим чек-лист по внутренней оптимизации
  • Проконсультируем по SEO-вопросам

Содержание
Навигация по статье
Быстрый выбор способа удаления сайта
  1. Быстрый выбор способа удаления сайта
  2. Зачем может потребоваться удалить сайт из поиска
  3. Удаление страницы из «Яндекса»
  4. Навсегда удалить страницу или файл (404/410 + X‑Robots‑Tag)
  5. Удаление сайта из «Яндекса» через robots.txt
  6. Через метатеги
  7. Удаление сайта из Google
  8. Полезные советы
  9. Коротко о главном

Быстрый выбор способа удаления сайта

Прежде чем погружаться в технические детали, стоит определить, какой метод подходит для вашей задачи. Этот быстрый анализ поможет выбрать нужный инструмент и оценить риски, чтобы не навредить SEO-продвижению основного сайта.

Метод Врем./Пост. Где работает Скорость Примечание / Риск
Meta robots: noindex (HTML) Пост. Google / Яндекс Дни / нед. Не блокируйте страницу в robots.txt — иначе робот не увидит noindex
X‑Robots‑Tag: noindex (HTTP) Пост. Оба Дни / нед. Для PDF/DOC/JPG и пр.; нужна корректная серверная настройка
Инструменты удалений (GSC / «Вебмастер») Врем. Оба Часы / дни В Google — временно (~6 мес.). Без правок на сайте URL вернётся
410 / 404 на странице Пост. Оба Дни / нед. (410 быстрее) Удалено навсегда; проверьте внутренние ссылки и sitemap
301 / 308 редирект Пост. Оба Дни Для переноса / слияния; сохраняет сигналы. Нельзя на нерелевантную страницу
robots.txt: Disallow Опер. Оба Мгнов. для обхода Не удаляет уже проиндексированные URL
Пароль / HTTP Auth Врем. / Пост. Оба Быстро Для тестов / интранета; сочетайте с удалением, если URL уже в индексе

Зачем может потребоваться удалить сайт из поиска

Рассмотрим несколько стандартных ситуаций, когда владелец сайта решает заняться удалением страниц из поисковой системы.

  • Старый сайт. Если веб-ресурс не работает, можно убрать его из поиска. Вообще лучше всего настроить редирект со старого домена на новый, но в этой статье предположим, что вы просто хотите его удалить.
  • Неактуальные страницы. Например, если информация на странице начинает устаревать или вы изменили публичную оферту, а старая версия находится в поиске. Чтобы не вводить пользователей в заблуждение, лучше сделать ее недоступной.
  • Дубли. Иногда в результате технической ошибки или особенностей CMS появляются дубли страниц. Это веская причина убрать их из поиска, чтобы избежать проблем с индексацией.

Важно: даже после полного удаления из индекса поисковиков, копия страницы может сохраниться в сторонних веб-архивах.

Версия Kokoc.com из 2013 года
Версия Kokoc.com из 2013 года

Таким образом, несмотря на полное удаление сайта или страницы из поиска, ее теоретически можно будет найти другими способами. Также учитывайте, что для разных поисковых систем способы убрать ресурс из выдачи могут отличаться.

Важное дополнение: ни один из описанных методов не позволит вам удалить чужой сайт, например, ресурс конкурента. Управление доступно только для сайтов, где у вас есть права владельца.

5 классных SEO-кейсов
Круче, чем Гудини: как мы вырастили трафик в 2,2 раза

Все вы прекрасно знаете Гарри Гудини: этот фокусник мог выбраться из закрытой бочки, брошенной в воду. Примерно в таких же рамках оказались и мы, начиная работу с сайтом Eurorepar. Узкий функционал, жесткие требования. Но мы справились без магии, увеличив трафик х2!

Как выжать максимум из двадцатилетнего сайта

Можно ли выжать максимум из 20-летнего сайта и докрутить его до современных стандартов? А если есть отягчающие обстоятельства — накрутка поведенческих факторов, антиботы, да еще и админка капризничает и сама удаляет категории?

Долгая дорога в SEO и мощный прорыв

Наш клиент — интернет-магазин B2B промышленной тематики. Он достался нам после предыдущих подрядчиков, и первые год-два мы исправляли их ошибки. А потом началась долгая кропотливая работа, которая в итоге принесла желанный результат.

Qugo: вырастили трафик из блога платформы b2b в 9,7 раз!

Молодой сайт, сложная тематика b2b, крупные конкуренты — с такими вводными трафик и позиции оставляли желать лучшего. Но бы добились цели: повысили трафик и позиции, улучшили узнаваемость бренда

Эффективное ссылочное продвижение для федеральной аптечной сети

Федеральная аптечная сеть пришла в Kokoc Performance (входит в Kokoc Group) за ссылочным продвижением. Интересно, что в компании есть своя in-house команда по SEO, которая подготовила ссылочную стратегию, а за ее реализацией обратилась к нам.

1/5

Удаление страницы из «Яндекса»

Существует несколько способов для Яндекса, которые отличаются по техническим нюансам. Выбор конкретного метода зависит от ваших прав доступа к инструментам управления сайтом и желаемой скорости.

Через «Яндекс Вебмастер»

В «Яндекс.Вебмастер» есть встроенный инструмент для удаления ссылок на отдельные страницы из поиска. В меню сервиса находим вкладку «Инструменты» и в выпадающем списке выбираем «Удаление страниц из поиска».

Меню «Яндекс Вебмастер» с инструментом для удаления страниц
Меню «Яндекс Вебмастер» с инструментом для удаления страниц

Открывается окно с полем для ввода удаляемых URL. Указываем в поле соответствующие страницы и жмем кнопку «Удалить». За сутки система позволяет отправить на удаление ограниченное количество URL — до 500 штук.

Удаление страниц из поиска по URL
Удаление страниц из поиска по URL

Еще есть вариант удаления «По префиксу». Переходим на соответствующую страницу, кликнув на кнопку «По префиксу». Здесь предлагается два способа удаления. Один через Robots.txt, который мы рассмотрим ниже, а другой — через указание префикса в поле. Например, если нужно исключить из поиска целую группу страниц (скажем, профили пользователей с URL, начинающимися на /profile/), достаточно указать этот префикс и кликнуть «Удалить».

Удаление страниц сайта из поиска по префиксу
Удаление страниц сайта из поиска по префиксу

Работа через «Яндекс Вебмастер» — быстрый и надежный способ убрать определённые страницы из поисковой выдачи. После заявки проверяйте статус в разделе «Страницы в поиске» и запускайте «Переобход» для ускорения.

  • Инструменты → Удаление страниц → Вставьте URL или префикс.
  • Для постоянного эффекта — удалите страницу (410/404) или добавьте noindex.
  • Ускорение: «Переобход страниц» + актуальный sitemap.xml.

Удаление страницы (404/410): пошагово

Код ответа 410 Gone — это явный сигнал для поискового робота, что страница удалена навсегда. Google обрабатывает его быстрее, чем стандартный 404 Not Found. Для «Яндекса» разница менее критична, но код 410 все равно является более сильным сигналом.

  1. Удалите страницу на сайте: верните код ответа 410 (лучше) или 404.
  2. Уберите все внутренние ссылки и запись из карты сайта (sitemap.xml).
  3. В «Яндекс Вебмастере» / GSC запросите переобход URL.
  4. Проверьте спустя 2–14 дней операторами site: и в инструментах вебмастеров.

Если поисковый краулер при очередном переобходе сайта посетит страницу с нужным статусом, он её удалит из поиска. Чтобы робот быстрее пришёл на нужный адрес, отправьте его на переобход в панелях для вебмастеров — это значительно ускорит процесс деиндексации.

Читайте также:

Навсегда удалить страницу или файл (404/410 + X‑Robots‑Tag)

Для HTML-страниц: настройте ответ сервера 410 (предпочтительно) или 404, уберите все внутренние ссылки на этот адрес, исключите URL из карты сайта (sitemap.xml) и запросите переобход в «Яндекс Вебмастер» или GSC.

Для файлов (PDF, DOC, JPG): либо физически удалите файл с сервера (он будет отдавать код 404/410), либо сохраните его доступным, но добавьте HTTP-заголовок X‑Robots‑Tag: noindex. Это основной способ управлять индексацией не-HTML документов, не удаляя их.

Пример конфигурации для Apache (.htaccess):


<FilesMatch "\.(pdf|docx|xls|ppt|jpg|png)$">
  Header set X-Robots-Tag "noindex, noarchive"
</FilesMatch>

Пример конфигурации для Nginx:


location ~* \.(pdf|docx|xls|ppt|jpg|png)$ {
  add_header X-Robots-Tag "noindex, noarchive";
}

Важно: не применяйте блокировку этих URL в файле robots.txt. В противном случае поисковые роботы не смогут выполнить сканирование, чтобы увидеть директиву noindex или код ответа сервера, и страница может остаться в индексе.

Эффективное SEO
  • Гарантия результатов
  • Комплексное развитие
  • При любом тарифе отслеживаем динамику заявок и звонков с сайтов
  • Регулярный пересмотр семантического ядра
Узнать больше

Удаление сайта из «Яндекса» через robots.txt

Выше уже упоминалось, что удалить отдельные страницы и целые каталоги можно через файл robots.txt. Давайте разберёмся, как это работает. Для запрета посещения поисковыми роботами определённых страниц существует директива Disallow, подробнее про то, как она работает, можно прочитать в нашей статье.

Здесь же мы рассмотрим, как удалять с её помощью страницы из поисковой выдачи. Допустим, нам нужно удалить каталог с персональными страничками пользователей /password, а также отдельную страницу с префиксом /page/?156. Для этого прописываем в файле robots.txt строки, выделенные на скриншоте.

Удаление через robots.txt
Удаление через robots.txt

Обратите внимание, что директивы для удаления нужно вводить после указания: User-agent: Yandex. Так вы покажете, что эта директива должна выполняться поисковым роботом «Яндекса».

Важно понимать: директива Disallow в robots.txt не удаляет уже проиндексированные URL. Она лишь запрещает дальнейшее сканирование. Используйте ее для предотвращения индексации новых разделов, а не для деиндексации уже попавших в поиск страниц.

Через метатеги

Еще один надежный вариант — запрет индексации через метатеги. Для этого используется стандартный метатег robots, который нужно размещать в секции <head> HTML-кода страницы. Этот способ идеально подходит для отдельных страниц, включая те, что созданы для корпоративных нужд или на чистом HTML.

Вписываем в код страницы между тегами head такую конструкцию:

<meta name="robots" content="noindex, follow">

Закрытие страницы от индексации через метатеги
Закрытие страницы от индексации через метатеги

Параметр noindex запрещает индексирование контента страницы, а follow — разрешает поисковому роботу переходить по ссылкам на ней. Этот тег универсален и работает для обеих поисковых систем. Главное правило: не блокируйте эту страницу в robots.txt, иначе робот не увидит директиву noindex, и страница может остаться в выдаче.

Удаление сайта из Google

Чтобы убрать сайт из поиска Google, можно воспользоваться инструментом в Google Search Console. В главном меню сервиса найдите раздел «Удаления» и перейдите в него. Затем нажмите кнопку «Создать запрос».

Страница для удаления страниц сайта
Страница для удаления страниц сайта

Открывается всплывающее окно, где есть два варианта:

  1. Временное удаление URL. Этот инструмент обеспечивает быстрое скрытие страницы из результатов поиска. Для постоянного эффекта необходимо также применить один из методов на самом сайте (например, noindex или код 410).
  2. Удаление кэшированной копии страницы. Здесь можно удалить оставшуюся в кэше копию, если основной контент уже изменен.

Рассмотрим вариант с временным удалением страницы. Вставляем в поле URL. После чего выбираем «Удалить только этот URL». Если вы хотите удалить, например, категорию товаров из поиска, можно выбрать «Удалить все URL с этим префиксом». В этом случае из выдачи уйдут все документы с таким префиксом. Нажимаем кнопку «След.».

Создание запроса на удаление из Google
Создание запроса на удаление из Google

Показывается окно с предупреждением, что страница во всех вариантах будет удалена из поиска. Нажимаем «Отправить запрос».

Подтверждение запроса на удаление
Подтверждение запроса на удаление

Теперь на вкладке «Удаление» появилась новая строка. При необходимости вы можете отправить ещё один запрос.

Страница с отправленным запросом
Страница с отправленным запросом

Помимо инструмента «Удаления» и метатега noindex, Google корректно обрабатывает коды ответа 410/404 для исключения страниц и учитывает редиректы 301/308 при переносе. Важно помнить, что инструмент в GSC — это временная мера (блокировка действует около 6 месяцев), и без постоянных изменений на сайте URL со временем вернется в индекс. Запрос на временное удаление обычно обрабатывается в течение суток. После этого подтвердите постоянные изменения на сайте и проверьте статус через инструмент «Проверка URL» для полного контроля над видимостью.

Экспертный аудит видимости в нейросетях
  • проведем анализ на предмет успешности ранжирования сайта в нейросетях и AI-поиске
  • покажем решения для повышения органического трафика за счет GEO/AEO
Получить аудит

Полезные советы

В заключение — небольшой чек-лист, который поможет принять верное решение по работе с нежелательными страницами сайта и улучшить общую SEO-оптимизацию.

  • Удаляйте страницы, контент которых начал устаревать. Все недействительные оферты и карточки отсутствующих товаров лучше убрать из индекса. Это не только вводит пользователей в заблуждение, но и может негативно сказаться на общей позиции сайта в выдаче.
  • Способ удаления зависит от поисковой системы. «Яндекс» и Google по-разному реагируют на инструменты, запрещающие индексацию, — учитывайте это.
  • Дублируйте запреты. Для надежности лучше использовать несколько способов одновременно, например, noindex и удаление через панель вебмастера.
  • Используйте инструменты «Вебмастер» и Search Console. Это позволяет ускорить процесс и получить подтверждение, что страница исключена из поиска.
  • При переносе или слиянии страниц используйте 301/308 редирект на релевантный новый URL, а не удаляйте старую страницу — так сохраняются трафик и ссылочные сигналы.
  • Проводите периодический технический аудит сайта, чтобы выявлять дубли, «битые» ссылки и страницы, которые являются кандидатами на удаление. Это важная часть поддержания структуры ресурса в порядке.
  • Проверяйте результат: используйте оператор `site:` в поиске, а также отчеты в «Яндекс Вебмастере» и GSC. Обращайте внимание на дату последнего обхода и текущий статус индексации, чтобы убедиться в полном удалении.

Коротко о главном

  • Удалять из поиска обычно требуется страницы с устаревшим, неактуальным контентом или технические дубли.
  • Недостаточно поставить «заглушку» — нужно сообщить об этом поисковым роботам с помощью специальных инструментов или кодов ответа.
  • «Яндекс» предлагает несколько разных инструментов для удаления страниц из поиска, включая опции в «Вебмастере» и директивы в robots.txt.
  • Google удаляет URL по noindex и корректным кодам 410/404, учитывает 301/308 при переносе; инструмент «Удаление» в GSC — временная мера на ≈6 месяцев.

Присоединяйтесь
к нашему
Telegram-каналу!

Перейти

Присоединяйтесь
к нашему
Telegram-каналу!

Перейти

Комментарии (7)

s
s.melnikov
25.03.2026 15:59
Кстати, по поводу удаления файлов типа PDF и DOCX, о которых говорится в статье. Чтобы не искать их вручную, можно просто спарсить поисковую выдачу по запросу `site:ваш-сайт.ru filetype:pdf` и получить готовый список URL. Это сильно ускоряет процесс, когда нужно массово проставить X-Robots-Tag.
k
kirill_p
26.03.2026 23:25
Немного запутался с X‑Robots‑Tag для PDF-файлов. Правильно ли я понимаю, что если настроить «noindex» через сервер, то файл просто уйдёт из поиска, но останется доступен по прямой ссылке? Мне важно, чтобы пользователи, которые получают ссылку в рассылке, всё равно могли его скачать.
K
Kokoc Perfomance
26.03.2026 23:50
При X‑Robots‑Tag «noindex» для PDF файл обычно уходит из поиска, но остаётся доступен по прямой ссылке — так что в рассылке его смогут скачать. Важно только не закрывать этот URL в robots.txt, иначе робот может не увидеть заголовок и документ дольше останется в индексе.
В
Веб-архивариус
27.03.2026 19:23
Сохранил, такая инфа всегда должна быть под рукой.
E
EdgeCase_Handler
27.03.2026 13:03
Управлять X‑Robots‑Tag через конфиги сервера не всегда удобно, особенно если нет прямого доступа. Для таких случаев есть Cloudflare Workers, где можно гибко настраивать заголовки буквально на лету. Почему этот, казалось бы, очевидный для многих способ не попал в обзор?
K
Kokoc Perfomance
27.03.2026 13:33
Cloudflare Workers действительно удобный способ выставлять X‑Robots‑Tag без доступа к конфигам, но в обзор мы его не включили, потому что фокусировались на универсальных механиках на стороне сайта и вебмастерских инструментах, не завязанных на конкретный CDN‑провайдер. Как edge-альтернатива это рабочий подход, важно лишь не перекрыть URL в robots.txt и гарантировать, что нужный заголовок отдается на всех вариантах ответа, которые видит робот.
О
Ольга Сабурова
31.03.2026 12:53
Надо же, сколько всего придумано, чтобы убирать страницы из поиска. У нас старая страница с новогодней акцией до сих пор в Яндексе висела, а после удаления через Вебмастер пропала буквально за пару дней.
💬 Оставить комментарий
Популярные статьи автора
Узнайте стоимость продвижения сейчас
Выберите удобный способ связи:
Выберите удобный способ связи:
Введите Ваш номер телефона:
Введите адрес Вашего сайта:
Введите Ваше имя:

Введите Ваш Email:
Введите адрес Вашего сайта:
Введите Ваше имя:

Оперативно отвечаем в рабочее время: с 10:00 до 19:00
Оперативно отвечаем в рабочее время: с 10:00 до 19:00
Вы уже проголосовали
+7 (495) 772 97 91
Возьмем ТОП вместе?

Цена лидов в различных нишах
Тематика Стоимость лида (Москва/Россия)
Отдых 500
Мебель 350
Оборудование 500
Бансковские услуги 500
Безопасность 500
Организация мероприятий, концерты, праздники 500
Недвижимость 500
Строительство и отделка 500
Грузоперевозки 500
Доставка еды 350
Юридические услуги 500
Бухгалтерские услуги 500
Пластиковые окна 500
Детские товары 350
Автозапчасти 350
Образование 500
Возьмем ТОП вместе?

Оставить заявку сейчас
Выберите интересующую услугу *

Подпишитесь на рассылку
Не пропустите самое интересное из мира SEO и Digital. Только актуальные и самые крутые статьи.
Заявка успешно отправлена!
Наши сотрудники уже приступили к анализу Вашего сайта. Наш менеджер свяжется с вами в течение дня, спасибо!