配置您的robots.txt文件
作者:
最后更新于 | 最初发布于 | 分类: SEO工具
在一个网站里,robots.txt是一个重要的文件,每个网站都应当有一个设置正确的robots.txt。
当搜索引擎来抓取你的网站文件之前,它们会先来看看你网站的robots.txt文件的设置,以了解你所允许它抓取的范围,包括哪些文件,哪些目录。
那么如何配置您的robots.txt文件呢?
让我们看一个例子:
# robots.txt file start# Exclude Files From All Robots:
User-agent: *
# End robots.txt file
Disallow: /security/
Disallow: /admin/
Disallow: /admin.htm
有#号的都是注释,方便阅读。
User-agent就是搜索引擎的蜘蛛,后面用了*号,表示对所有的蜘蛛有效。
Disallow就是表示不允许抓取,后面的目录或者文件,表示禁止抓取的范围。
如果你有一些文件,或者目录,比如后台程序,或者一些私人隐秘的内容,不希望公开的话,就用这个Disallow来阻止抓取。
编辑好这个文件,然后保存在你的网站的根目录下,那么搜索引擎就会来看的。
如果你没有robots.txt文件,在你的网站访问日志文件里,你会看到蜘蛛访问robots.txt文件不成功的纪录。
好了,现在就去设置你的robots.txt文件吧。
这里有一个robots.txt生成器
相关的文章
- 安装 Ubuntu 24.04 (LTS), Webmin, Nginx, MariaDB, PHP8.3-FPM,Perl-Fastcgi 到 DigitalOcean 的 VPS(1)
- 安装 Ubuntu 24.04 (LTS), Webmin, Nginx, MariaDB, PHP8.3-FPM,Perl-Fastcgi 到 DigitalOcean 的 VPS(2)
- 安装 Ubuntu 22.04 (LTS), Webmin, Nginx, MariaDB, PHP8.1-FPM,Perl-Fastcgi 到 DigitalOcean 的 VPS(1)
- 安装 Ubuntu 20.04, Webmin, Nginx, MariaDB, PHP7.4-FPM,Perl-Fastcgi 到 DigitalOcean 的 VPS(1)
- Google 开源 robots.txt 解析器,并推动 REP 为互联网标准
- 寻找合适 VPS 服务的时候要考虑的几个问题
- 给域名设置多少个DNS解析服务器(nameserver)
- Google 搜索的确可能会收录在 Robots.txt 里被排除的网址
评论