Народ, киньте пример такого файла, для российских поисковикоы и гугла.
inurl:robots.txt
User-agent:*
Disallow:/cgi-bin
Disallow:/search
Disallow:/query.html
Disallow:/help
Disallow:/360pics/text
Disallow:/911/911day/text
Disallow:/911/heroes/text
Disallow:/911/messages/text
Disallow:/911/patriotism/text
Disallow:/911/patriotism2/text
Disallow:/911/progress/text
Disallow:/911/remembrance/text
Disallow:/911/response/text
Disallow:/911/sept112002/text
Disallow:/911/text
Disallow:/QA-test/text
Disallow:/aci/text
Disallow:/afac/text
Disallow:/webmail/text
Disallow:/whatnew/text
Disallow:/whatsnew/text
Disallow:/whitehouse-new/text
Disallow:/whmo/text
Disallow:/whquiz/text
Disallow:/wmd/text
Disallow:/ww2/photoessay1/text
Disallow:/ww2/photoessay2/text
Disallow:/ww2/photoessay3/text
Disallow:/ww2/text
User-agent:whsearch
Disallow:/cgi-bin
Disallow:/search
Disallow:/query.html
Disallow:/help
Disallow:/sitemap.html
Disallow:/privacy.html
Disallow:/accessibility.html
User-Agent: *
Disallow: /fucking_hackers/
# robots.txt for www.web-hack.ru
Это что реал всю эту ботву писать надо?
Эта вроде всём поисковикам разрешает все страницы индексировать.User-agent:*#
Disallow:#
Эта вроде всём поисковикам разрешает все страницы индексировать.