怎么防止网站被采集

4 sec read

最近公司一些独有的数据被竞争对手采集了。想了想有没有可以防止被采集的方法。自己想了下发现这个问题很难解决,下面是我自己想到的。

  1. 通过cookies防采集(这个没有,采集都是先获取cookies再执行采集的)
  2. 屏蔽IP(这个首先要获取对方的IP,执行起来比较麻烦)
  3. 请求次数判断(一段时间内请求多少次,则将该IP加入黑名单禁止访问或需要验证码访问。这样做很容易把搜索引擎也挡在门外,可以将搜索引擎的user-agent和IP加入白名单。如:Google robots 的 UA及 IP http://www.iplists.com/google.txt
  4. 采集一般不下载JS文件,使用JS判断,或使用AJAX,这个也会把搜索引擎挡在门外。

不知道谁还有更好的可行方法分享下。当然我首先想到的是向搜索引擎举报。

打赏作者
微信支付标点符 wechat qrcode
支付宝标点符 alipay qrcode

含C/C++代码包Anaconda安装问题

上篇文章主要讲了libffm在Windows系统下安装遇到的问题,今天在Linux环境下的Anaconda中安
1 min read

FFM/libffm在Windows上的使用

FFM 的作者Yu-Chin Juan在GitHub上开源了C++版本的代码libffm,由于日常的数据处理都
5 min read

使用Python获取照片Exif信息

什么是Exif? Exif(Exchangeable image file format)是专门为数码相机的照
4 min read

2 Replies to “怎么防止网站被采集”

    1. URL没有规则也是可以采集的,可以通过上层页面来获取下层页面的链接。这个只能防普通的程序采集。

发表评论

电子邮件地址不会被公开。 必填项已用*标注