怎么写s是什么

一、什么是robots.txt?
robots是网站和搜索引擎协议的纯文本文件,当一个搜索引擎蜘蛛来访问站点的时候,首先爬行检查根目录是否存在这个文件 。如果存在的话 ,那么就会根据文件的内容来确定访问范围 ,如果没有的话蜘蛛就会沿着链接进行抓取,robots放在项目的根目录下。

二 、 robots.txt基本语法 :
1、允许所有搜索引擎访问网站的所有部分,robots.txt写法如下
User-agent:
*Disallow:
或者
User-agent:
*Allow: /
注意 : 1. 首个英文要大写,冒号是英文状态下 ,冒号后面有一个空格,这几点一定不能写错。
2 、禁止所有搜索引擎访问网站的所有部分
robots.txt写法如下:
User-agent:
*Disallow: /
3 、只需要禁止蜘蛛访问某个目录 ,比如禁止admin、css、images等目录被索引
robots.txt写法如下:
User-agent:
*Disallow: /css/
Disallow: /admin/
Disallow: /images/
注意:路径后面有斜杠和没有斜杠的区别:比如Disallow: /images/ 有斜杠是禁止抓取images整个文件夹,Disallow: /images 没有斜杠意思是凡是路径里面有/images关键词的都会被屏蔽
4 、屏蔽一个文件夹/templets,但是又能抓取其中一个文件的写法:/templets/main
robots.txt写法如下 :
User-agent:
*Disallow: /templets
Allow: /main
5、 禁止访问/html/目录下的所有以”.php”为后缀的URL(包含子目录)
robots.txt写法如下:
User-agent:
*Disallow: /html/*.php
6、 仅允许访问某目录下某个后缀的文件,则使用“$”
robots.txt写法如下:
User-agent:
*Allow: .html$
Disallow: /
7、禁止索引网站中所有的动态页面
比如这里限制的是有“?”的域名