Google отметил страницы, запрещенные к индексации в robots.txt, как ошибочные
Ну так я и не хочу, чтобы эти страницы индексировались, поэтому и запретил в файле роботс. 7 лет все было нормально и вот началась какая-то ерунда. Роботс я не трогал и ничего не менял. Судя по графику на скрине эта ошибка и раньше вылезала, но в тот раз траффик не падал и я не заметил. С каких пор гугл за запрещенные страницы стал ронять траффик?
Чекнул сайт в бесплатном анализе pr-cy и он показал, что из индексации гугла выпало около 3000 страниц (это 25% от общего количества проиндексированных страниц). Но не знаю как посмотреть какие именно страницы выпали.