Коллеги, добрый день!
У нас есть сайт, точнее блог, мы в свое время наплодили много страниц кторые потом пришлось удалить. Удаленных ссылок было порядка 25 тысяч (долго рассказывать почему так много- это были tegи), но я не про это. Вобщем поскольку ссылок много, я их удалял по 1000 штук через CHROM расширение,,, но ссылки обратно повялялись вотчете ГУГЛ КОНСОЛЬ. и мы с коллегами решили прописать disallow в robot.txt все что было с teg. и так ссылки с отчета 404 в консоле с teg исчезли через пару недель. Теперь я совсем запутался. Ведь РОБОТТКС по сути дает команду ГУГЛ боту что ЧИТАТЬ на сайте а что не ЧИТАТЬ... а тут получается ГУГЛ перестал "индексировать" (или показывать в отчете ГУГЛ) ранее удаленные (2 года назад) ссылки. я не совсем понимаю. Гугл просто отчет не показывает в 404. или эти 404 действительно исчезли с индекса и даже с КЭША гугл?