忽略具有特定参数的robot.txt中的url?
我想谷歌忽略像这样的url:
http://www.mydomain.com/new-printers?dir=asc&order=price&p=3
所有具有参数dir,order和price的url都应该被忽略,但是我没有Robots.txt的经验。
任何想法?
如果你想禁止查询string,这里有一个解决scheme:
Disallow: /*?*
或者如果你想更精确的查询string:
Disallow: /*?dir=*&order=*&p=*
您也可以添加到robots.txt要允许的url
Allow: /new-printer$
$
将确保只有/new-printer
将被允许。
更多信息:
http://code.google.com/web/controlcrawlindex/docs/robots_txt.html
http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-querystrings/
您可以使用以下几行来阻止这些特定的查询string参数
Disallow: /*?*dir= Disallow: /*?*order= Disallow: /*?*p=
因此,如果任何URL包含dir=
, order=
或p=
查询string中的任何地方 ,它将被阻止。
使用Google WebMaster工具注册您的网站。 在那里你可以告诉Google如何处理你的参数。
站点configuration – > URL参数
你应该有包含这些参数的页面表明,他们应该被排除在索引通过机器人meta标签。 例如