如何正确撰写robots文件

 时间:2024-10-13 21:26:56

有时因为网站需要,我们的站点内有大量的相似、重复页面,如果被搜索引擎发现一个站点有大量的重复,就会给予惩罚。这是我们就要用到robots文件,用以屏蔽一些类似的页面,另外robots文件也可以帮助我们屏蔽一些个人隐私文件。

工具/原料

网站域名、服务器。

FTP工具。

关于robots.txt一般站长需要注意以下几点:

1、如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。

2、必须命名为:robots.txt,都是小写,robot后面加"s"。

3、robots.txt必须放置在一个站点的根目录下。如:通过http://www.zer0v.com/robots.txt 可以成功访问到,则说明本站的放置正确。

4、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。

5、有几个禁止,就得有几个Disallow函数,并分行描述。

6、至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: / (注:只是差一个斜杆)。

补充说明:

1、User-agent: * 星号说明允许所有搜索引擎收录

2、Disallow: /search.html 说明 http://www.zer0v.com/search.html 这个页面禁止搜索引擎抓取。

  • 电脑文件怎么直接传输到微信?
  • 电脑文件怎么发送到微信
  • 桌面文件怎么打包发送到微信
  • 文件夹怎么发送到微信
  • 苹果手机怎么弄文件夹放图片进去
  • 热门搜索
    关于传染病的手抄报 海洋手抄报图片 关于春联的手抄报 中秋节手抄报的内容 小学生诚信手抄报 感恩的手抄报资料 三年级手抄报保护环境 爱国手抄报大全 中华经典诵读手抄报 手抄报英语