网站首页  词典首页

请输入您要查询的英文单词:

 

单词 robots.txt
释义

robots.txt

  • 网络机器人协议;文件;下面是一些著名站点的
1.
机器人协议
机器人协议(robots.txt)不过是一个txt文本文件,存在于你域名根目录之下,作用是将网站的目录结构信息告诉爬虫和蜘蛛,并限 …
www.ilikeseo.cn
2.
文件
...来到要抓取的网站,都会先访问这个网站根目录下的一个文件robots.txt),如果不存在该文件,则搜索引擎机器人默认这 …
zhidao.baidu.com
3.
下面是一些著名站点的
搜索引擎优化魔法书 -... ... 四、 Robots.txt 下面是一些著名站点的 robots.txt: 正确的应该是: User-agent:GoogleBot ...
tech.alltosun.com
4.
限制搜索
Discuz!二次开发 ... register.php 注册 robots.txt 限制搜索 rss.php rss 信息发布 ...
bbs.php100.com
5.
相关搜索引擎配置文件
一狮网络-站长巨人的肩膀上 ... Print.aspx 文章打印文件 robots.txt 相关搜索引擎配置文件 Search.aspx 搜索文件 ...
onelions.com
6.
拦截
网站内部搜索引擎优化检查-seomoz... ... Cloaking( 伪装)? (应该没有) robots.txt拦截? Meta Keywords – 关键字? (应 …
www.0755seoer.com
7.
模板制作
DEDECMS教程 qq群讲座 - 站长网 admin5.com ... index.php 搜索控制文件 robots.txt 模板制作 /templets 模板目录 ...
www.admin5.com
8.
搜索引擎收录的方法
禁止搜索引擎收录的方法robots.txt)一、什么是robots.txt文件?搜索引擎通过一种程序robot(又称spider),自动访问互联网 …
hi.baidu.com

例句

释义:
1.
If you do not want all the resources on your Web site to be indexed by automatic tools, say so in a robots. txt file.
如果不想让Web站点上的所有资源都能被自动工具编入索引,就请在robots.txt文件内加以说明。
www.ibm.com
2.
The easy solution is to use the robots. txt file to let know about this and have it not index the duplicate pages.
最简单的办法是使用robots.txt文件,让谷歌知道这一点,并有不重复的索引页。
results.amazing-network-marketing.com
3.
Literally half a year ago, Jonty was looking at this file called robots. txt, which is kind of funny to start with.
从表面上看,半年前Jonty正在研究这个名为robots.txt的文件,这是开始变得很有趣。
www.bing.com
4.
Once you chose your permalink structure, stick to it! Set up the Robots. txt file.
一旦选择了您的永久链接结构,就要坚持使用它。
www.looah.com
5.
Making mistakes in the robots. txt file accidentally disallow spiders from crawling through the entire site, resulting in no indexed pages.
txt文件中的偶然失误会禁止“蜘蛛(spider)”爬过整个站点,最后导致没有建立页面的索引。
www.ibm.com
6.
When spidering or scraping, always obey the robots. txt file available on the server and incorporate it into your politeness policy.
在进行这种操作时,一定要遵循服务器上提供的robots.txt文件的指示,并将其结合到您的礼貌原则当中。
www.ibm.com
7.
This acts as an "inclusion list" to complement the "exclusion list" of robots. txt.
这有点像一个“包含列表”,充当了robots.txt的“排除列表”的补集。
www.ibm.com
8.
But all the major and legitimate Web crawling engines obey the requests in robots. txt.
不过,所有主要的合法Web爬虫引擎都会遵从robots.txt内的要求。
www.ibm.com
9.
Googlebot recognizes an extension to the robots. Txt standard called Allow.
Googlebot可识别称为“Allow”的robots.txt标准扩展名。
www.google.com
10.
We were really just correcting an oversight in the spec for robots. txt files.
我们真的只是在robots.txt文件规范性方面纠正了一个疏忽。
www.bing.com
1.
Google has published a convention that piggybacks on the robots. txt convention.
Google在robots.txt约定的基础上发布了一个新的约定。
www.ibm.com
2.
When creating the robots. txt file, make sure that it is created correctly.
当创建robots.txt文件时,请确定它被正确创建。
www.ibm.com
3.
robots. txt may NOT be excluded for the page the back link is on.
我们提供的锚文本在页面上是可能的选择锚文本。
www.bing.com
4.
First, point the robots. txt to the site map directory.
首先,将robots.txt指向站点地图目录。
www.ibm.com
5.
Know how robots. txt and search engine spiders work.
知道robots.txt的作用,以及搜索引擎蜘蛛的工作原理。
www.cnblogs.com
6.
Scope out areas of your site that is searchable by using a robot. txt file.
通过使用robots.txt文件,划分出您站点中可搜索的区域。
www.ibm.com
7.
Create a standard for the proper way to code a robots. txt file.
为编写robots.txt文件的方式建立一个标准。
www.ibm.com
8.
robots. txt file includes additional instructions in the form of Isaac Asimov's famous three laws of robotics
不像其他网站,Last.fm的robots.txt文件包括了著名的艾萨克.阿西莫夫“机器人三定律”的补充说明
www.bing.com
9.
To do this, create a file called robot. txt to drop into your Web server's root directory. In the robot. txt
要进行划分,请创建一个名为robots.txt的文件,并将该文件拉入到Web服务器的根目录下。
www.ibm.com
10.
Added default robots. txt to control crawlers
增加了默认的robots.txt来控制爬行器
www.ibm.com
1.
Best Practice 1: Verify your video URLs are crawlable: check your robots. txt
最佳实践一:确保视频网址可被抓取:检查robots.txt文件。
www.bing.com
随便看

 

英汉双解词典包含2704715条英汉词条,基本涵盖了全部常用单词的翻译及用法,是英语学习的有利工具。

 

Copyright © 2004-2022 Newdu.com All Rights Reserved
更新时间:2024/11/15 18:53:23