robots.txt文件相关问题解析

发布时间:2019-07-13编辑:脚本学堂
本文介绍了robots.txt文件的相关用法与问题,可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。

spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。

可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

第一, robots.txt文件大大节省服务器宽带

像email retrievers、image strippers这类搜索引擎都耗用大量宽带,而且对网站没有什么太大的意义,而通过robots.txt就可以制止不必要的爬行工作,如果你的网站是图片站的话,没有设置好robots.txt文件的话,就会浪费大量的服务器宽带。

第二、方便搜索引擎爬起工作

如果网站内容丰富,页面很多,设置robots.txt文件更为重要,比如你有个网站,整个站有50多个g,打开页面可能会比较慢,如果不配置好robots.txt文件的话,蜘蛛爬行工作就会很费力,而且如果太多的蜘蛛爬行,以至会影响你网站的正常访问。

第三、robots.txt文件可以制止搜索引擎索引页面

可以通过robots.txt文件对你的网站非公开页面进行制止蜘蛛爬行,如果你的网站后台程序、管理程序很重要不想让别人看到、那么你可以通过 robots.txt进行设置,事实上,对于某些在运行中产生临时页面的网站来说,如果没有配置robots.txt文件的话,搜索引擎甚至会索引那些临时文件。

第四、robots.txt对网站地图链接重要性

如果我们把自己的网站地图链接放在robots.txt文件里,那么我们每天就不用到各个搜索引擎的站长工具或者相似的站长部分去提交自己的 sitemap文件,各大搜索引擎都发布了对网站地图的新的支持方式,就是在robots.txt文件里直接包括sitemap文件的链接。目前对此表示支持的搜索引擎公司有google, yahoo,而中文搜索引擎公司,显然不在这个圈子内。

好处在于可以不用每天去各大搜索引擎去提交自己的sitemap文件,可以减少工作量。