22问答网
所有问题
淘宝封百度爬虫是什么意思
如题所述
举报该问题
推荐答案 2017-06-09
百度是搜索引擎,爬虫就是沿着网站的链接不断搜索,并下载到本地的机器人程序.
搜索引擎在一定程度上会给网站造成负担.
所以现在有很多网站都有反爬虫设置,把自己想要被搜索出的东西直接提供给爬虫,而不让爬虫去抢占带宽.淘宝网已经开始屏蔽百度的蜘蛛爬虫,淘宝网在网站根目录下的robots.txt文件中设置相关命令,禁止百度蜘蛛获取网页信息。
温馨提示:答案为网友推荐,仅供参考
当前网址:
http://22.wendadaohang.com/zd/fh266SI6STI006hI2S6.html
其他回答
第1个回答 2017-06-09
不能说封,本身网站是可以不让爬虫采集数据的,当初百度也拿这个说360,这也是基本的网络礼仪,所以,淘宝有权选择,是不是让你百度采集。
相似回答
电子商务:
淘宝
为
什么
禁止搜索引擎蜘蛛爬行抓取内容
答:
robots.txt(小写字母)是一种存放在一些网站的服务器根目录下的ASCII编码的文本文件。它的作用是告诉搜索引擎的
爬虫
机器人(又称网络蜘蛛、漫游器)该网站中的哪些内容是不允许被搜索引擎爬虫抓取的,哪些是允许被抓取的。由于在一些系统中URL大小写敏感,因此robots.txt的文件名均统一为小写。robots.txt放置...
什么是淘宝
反
爬虫
?
答:
根据百度百科的定义:网络爬虫(又被称为网页蜘蛛,网络机器人),
是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本
。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。不过,淘宝为了屏蔽网络爬虫对自身数据(例如商品价格、月销量、收藏量、评价、月成交记录等等)的抓取,往往是采取...
大家正在搜
数据爬虫是什么意思
反爬虫是什么意思
大数据爬虫什么意思
爬虫爬取淘宝商品数据
爬虫爬取淘宝数据
怎么用爬虫抓取淘宝数据
淘宝反爬虫
淘宝爬虫接单
淘宝爬虫工具
相关问题
爬虫协议,比如淘宝不让百度抓去他的信息,然后百度除开伪装成客...
淘宝为什么要禁止百度蜘蛛
京东为何禁止淘宝爬虫进行访问呢?