Подскажите,что делаю не так : Гугл сканирует страницы поиска,сортировки которые запрещены в robots.txt. Поэтому много Повторяющееся метаописание,Повторяющиеся заголовки (теги title) Сам robots.txt Disallow: /my-account Disallow: /index.php?route=account/simpleedit Disallow: /order-history Disallow: /change-password Disallow: /downloads Disallow: /search?filter_name= Disallow: /search Disallow: /search? Disallow: /simplecheckout Disallow: /checkout Disallow: /vouchers Disallow: /affiliate-login Disallow: /request-return Disallow: /index.php?route=checkout/simplecheckout Disallow: /login Disallow: /admin Disallow: /cache Disallow: /niks Disallow: /catalog Disallow: /download Disallow: /export Disallow: /system Disallow: /index.php?route=account Disallow: /index.php?route=account/account Disallow: /index.php?route=checkout/cart Disallow: /index.php?route=checkout/shipping Disallow: /index.php?route=common/home Disallow: /index.php?route=product/product/captcha Disallow: /index.php?route=product/product*&manufacturer_id= Disallow: /index.php?route=product/search Disallow: /index.php?route=information/contact/captcha Disallow: /index.php?route=information/information&information_id= Disallow: /index.php?route=account/login Disallow: /index.php?route=information/information/info&information_id=5 Disallow: /route=account/ Disallow: /route=account/login Disallow: /route=checkout/ Disallow: /route=checkout/cart Disallow: /route=affiliate/ Disallow: /route=product/search Disallow: /?sort= Disallow: /?sort Disallow: /&sort= Disallow: /?order= Disallow: /?order Disallow: /&order= Disallow: /?limit= Disallow: /&limit= Disallow: /?filter_name= Disallow: /&filter_name= Disallow: /?filter_sub_category= Disallow: /&filter_sub_category= Disallow: /?filter_description= Disallow: /&filter_description= Disallow: /?tracking= Disallow: /&tracking= Disallow: /?manufacturer Disallow: /?keyword Disallow: /?page Disallow: /&page Disallow: /page Disallow: /?tag Disallow: /&tag Disallow: /*search* Disallow: /*tag*
Может ты сначало все открыл, google проиндексировал, а сейчас ты поставил robots.txt и из поисковой выдачи google не убрал еще
Скорее всего так и было, когда разрабатывали сайт не закрыли в роботе и он все проиндексировал. А потом только позакрывали все в robots.txt
То, что Вы закрыли страницы от индексации в robots, не гарантирует того, что эти страницы не попадут в индекс. В панели Инструментов для Веб-Мастеров есть возможность удалить url из индекса.(по пути: Индекс Google - Удалить URL-адреса).