北京网站建设多年网站建设经验,依托强大的服务优势,为您提供专业的北京网站建设服务

当前位置:首页 > 北京网站建设 > 怎样写好网站的robots.txt文件
北京网站制作 网站建设公司 网站搭建 网站制作公司 企业建站 网站设计公司 网站开发 网站设计 北京网站设计 网页设计公司 常见问题 高端网站建设 企业网站建设 品牌网站建设 网页设计模板 网页设计与制作 网站建设多少钱 网站设计与制作 网站建设费用 做网站 做网站公司 高端网站设计 网站建设方案 网站建设制作 北京网站建设 网站建设知识 网站建设优化 网站建设空间 建设网站 制作网站 设计网站 开发网站 网站建设开发 网站开发公司 网页制作 搭建网站 网站设计制作 网站设计费用 企业网站设计 公司网站建设 公司网站设计 公司网站制作 企业做网站 网站设计与开发 网站建设备案

怎样写好网站的robots.txt文件

作者:鹏飞网络   时间:2010-10-31   分类:北京网站建设

做网站当然希望搜索引擎抓取我们网站的内容,但我们做SEO优化SEO优化时候并不希望所有的信息都公布于众,比如后台隐私,或者其它一些杂七杂八的信息。那么这时候我们就可以能过robots.txt文件来控制网站在搜索引擎中的展示,robots.txt是一个纯文本文件,通过在这个文件中声明该网站中不想被搜索引擎robots访问的部分。


带“*”的一种写法:

User-agent: *

Disallow: /ad*

Allow: /ad/img/

Disallow: /*.php$

Disallow: /*.jsp$

Disallow: /*.css$


这种写法允许所有蜘蛛访问,但会限制以“ad”开头的目录及文件,并限制抓取.php文件、.jsp文件和.css文件。其中Disallow: /ad*会连同附件目录(即你上传的图片、软件等)一起限制抓取,如果想让搜索引擎抓取img目录中的内容,需要将写上第三行“Allow: /ad/img/“。


较合理的一种写法:

User-agent: *

Disallow: /admin

Disallow: /content/plugins

Disallow: /content/themes

Disallow: /includes

Disallow: /?s=

Sitemap:https://www.ipp114.com/


采用这种写法允许所有搜索引擎抓取,并逐一列举需要限制的目录,同时限制抓取网站的搜索结果,最后一行代码是你网站的Sitemap路径,大多数搜索引擎都会识别它。

如果对自己写的robots.txt不放心,建议你使用Google管理员工具中的“工具->测试robots.txt”来对你的robots.txt进行测试,确保你的修改正确。