1、八爪鱼
国内知名度最高、业界最领先的网络爬虫软件之一。八爪鱼软件能满足多种业务场景,适合产品、运营、销售、数据分析、政府机关、电商从业者、学术研究等多种身份职业,可模板采集、智能采集、不间断云采集、自定义采集、多层级采集、全自动数据格式化等。软件现提供免费版和收费版,免费版有功能限制,收费版分旗舰版、旗舰+版、私有云版,价格每年约1999元至6.98万元不等。
2、火车头
火车头是使用人数最多、最受欢迎的互联网数据抓取、处理、分析,挖掘软件之一。它凭借其灵活的配置与强大的性能领先国内数据采集类产品,历经十余年的升级更新,积累了大量用户和良好口碑。软件采集时不限网页,不限内容,支持多种扩展,打破操作局限;分布式高速采集系统,多个大型服务端同时稳定运作,快速分解任务量,最大化提升效率;内置采集监控系统,实时报错及时修复。软件为收费制,性价比较高,每年约960元起。
3、集搜客GooSeeker
集搜客GooSeeker始于2007年,是国内最早的网络爬虫工具之一,近年来,集搜客已把互联网内容结构化和语义化技术成功推广到金融、保险、电信运营、电信设备制造、电子制造、零售、电商、旅游、教育等行业。软件通用于国内外网站,免编程,大批量抓取,可作为微博采集工具箱,采集数据一键输出至Excel表格;软件还可自动分词和情感分析、报表摘录和笔记等。软件现提供免费版、专业版、旗舰版、VIP版,每年约399元至2万元不等。
4、神箭手
神箭手亦是使用人数最多的网络爬虫软件之一,它封装了复杂的算法和分布式逻辑,可提供灵活简单的开发接口;应用自动分布式部署和运行,可视化简单操作,弹性扩展计算和存储资源;统一可视化管理不同来源的数据,restful接口/webhook推送/graphql访问等高级功能让用户无缝对接现有系统。软件现提供企业标准版和高级版,每年约5699元至1.49万,以及企业定制版。此外,神箭手支持私有云部署,可为企业、学校、政府机关等提供高效的一站式大数据中心。
5、Import.io
Import.io是一款来自英国伦敦的收费制网络爬虫工具,在美国开设有分公司,曾凭借三年收入增长640%,而被评为“美国成长最快的100家软件公司之一”,后入选《Inc》杂志评选的“年度公司5000强榜单”。作为十大爬虫软件之一,Import.io提供了从数据爬取、清洗、加工到应用的一套完整解决方案,涉及零售与制造业、数据爬取与加工、机器学习算法、风控等领域;Magic、Extractor、Crawler和Connector是其四大特色功能。
6、HTTrack
HTTracks是一款免费的网络爬虫软件,适用于Windows、Linux、Sun Solaris和其他Unix系统。它可以将一个或多个Web站点下载到本地目录,递归构建全部目录,以及获取HTML、图像和其它文件到本地计算机。HTTrack会维持原站点的相对链接结构,用户可以用浏览器打开本地的镜像页面,并逐个链接浏览,与在线浏览无异。HTTrack也支持对已有镜像站点的更新,以及从中断点恢复下载。HTTrack高度可配置,并提供帮助文档。
7、WebMagic
WebMagic是一个开源的Java垂直爬虫框架,核心简单但涵盖爬虫的全部流程,灵活而强大,适合爬虫入门学习。WebMagic无需配置,只用少量代码即可实现一个爬虫,其组件PageProcessor、Scheduler、Downloader和Pipeline,对应爬虫生命周期中的处理、管理、下载和持久化等功能。其特色之处在于完全模块化设计,拥有强大的可扩展性;支持多线程;支持分布式;支持爬取js动态渲染的页面等。
8、后羿采集器
后羿采集器是买购网编辑认为最好用的网络爬虫工具之一,它适用于Linux、Windows和Mac,提供的免费功能可以解决绝大部分编程小白的数据抓取需求,而收费的专业版、旗舰版、OEM版,可以满足更高级更复杂的需求。另外不同于其他同类软件的特色之处,就是后羿采集器还支持无限制免费导出,支持TXT、EXCEL、CSV和HTML文件格式,或直接发布到数据库MySQL、MongoDB、SQL Server和PostgreSQL。
9、Octoparse
Octoparse是八爪鱼的海外版本,是最优秀的爬虫软件之一,提供免费版和付费版,付费版均提供云服务。作为一款功能齐全的互联网采集工具,Octoparse内置了许多高效工具,用户无需任何编码技能便可从复杂网页结构中收集结构化数据。采集页面设计简单友好,完全可视化操作,适用于新手用户。广告封锁功能,可提高采集效率;提供Xpath设置,精准定位网页数据的元素;支持导出多种数据格式如CSV、Excel、XML等。
10、ParseHub
ParseHub是一款免费免编码的爬虫工具,同时提供付费版,适用于Windows、Mac OS X和Linux系统。ParseHub支持从使用了AJAX、JavaScript、cookie等技术的网站收集数据,其机器学习技术可以读取、分析,然后将Web文档转换为相关数据。作为免费软件,用户能在Parsehub中设置不超过5个publice项目,而付费版允许创建至少20个private项目来抓取网站。