Сайт или отдельные страницы запрещены в robots.txt, но продолжают находиться в поиске

Как правило, после установки запрещающих директив в файле robots.txt исключение страниц из поисковой выдачи происходит в течение двух недель автоматически. Также для удаления страниц из поиска можно использовать инструмент Удалить URL (в этом случае удаление произойдет в течение суток).

Убедиться в том, что посещение роботом страниц сайта действительно запрещено, можно с помощью инструмента Анализ robots.txt. Непосредственно в инструменте можно корректировать указания.

Рекомендации по удалению отдельных страниц или сайта из результатов поиска можно найти в разделе Помощи Удаление сайта.