主页 > 知识库 > 小众实用的Python 爬虫库RoboBrowser

小众实用的Python 爬虫库RoboBrowser

热门标签:郑州智能外呼系统中心 400电话 申请 条件 电销机器人 金伦通信 南京crm外呼系统排名 汕头电商外呼系统供应商 云南地图标注 宾馆能在百度地图标注吗 crm电销机器人 北京外呼电销机器人招商

1. 前言

大家好,我是安果!

今天推荐一款小众轻量级的爬虫库:RoboBrowser

RoboBrowser,Your friendly neighborhood web scraper!由纯 Python 编写,运行无需独立的浏览器,它不仅可以做爬虫,还可以实现 Web 端的自动化

项目地址:

​https://github.com/jmcarp/robobrowser

2. 安装及用法

在实战之前,我们先安装依赖库及解析器

PS:官方推荐的解析器是 「lxml」

# 安装依赖
pip3 install robobrowser

# lxml解析器(官方推荐)
pip3 install lxml

RoboBrowser 常见的 2 个功能为:

  • 模拟表单 Form 提交
  • 网页数据爬取

使用 RoboBrowser 进行网页数据爬取,常见的 3 个方法如下:

  • find

查询当前页面满足条件的第一个元素

  • find_all

查询当前页面拥有共同属性的一个列表元素

  • select

通过 CSS 选择器,查询页面,返回一个元素列表

需要指出的是,RoboBrowser 依赖于 BS4,所以它的使用方法和 BS4 类似

更多功能可以参考:

https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/

3. 实战一下

我们以「 百度搜索及爬取搜索结果列表 」为例

3-1  打开目标网站

首先,我们实例化一个 RoboBrowser 对象

from time import sleep

from robobrowser import RoboBrowser

home_url = 'https://baidu.com'

# parser: 解析器,HTML parser; used by BeautifulSoup
# 官方推荐:lxml
rb = RoboBrowser(history=True, parser='lxml')

# 打开目标网站
rb.open(home_url)

然后,使用 RoboBrowser 实例对象中的 open() 方法打开目标网站

3-2  自动化表单提交

首先,使用 RoboBrowser 实例对象获取网页中的表单 Form

然后,通过为表单中的输入框赋值模拟输入操作

最后,使用 submit_form() 方法进行表单提交,模拟一次搜索操作

# 获取表单对象
bd_form = rb.get_form()

print(bd_form)

bd_form['wd'].value = "AirPython"

# 提交表单,模拟一次搜索
rb.submit_form(bd_form)

3-3  数据爬取

分析搜索页面的网页结构,利用 RoboBrowser 中的 select() 方法匹配出所有的搜索列表元素

遍历搜索列表元素,使用 find() 方法查询出每一项的标题及 href 链接地址

# 查看结果
result_elements = rb.select(".result")

# 搜索结果
search_result = []

# 第一项的链接地址
first_href = ''

for index, element in enumerate(result_elements):
 title = element.find("a").text
 href = element.find("a")['href']
 search_result.append(title)

 if index == 0:
  first_href = element.find("a")
  print('第一项地址为:', href)

print(search_result)

最后,使用 RoboBrowser 中的 follow_link() 方法模拟一下「点击链接,查看网页详情」的操作

# 跳转到第一个链接
rb.follow_link(first_href)

# 获取历史
print(rb.url)

需要注意的是,follow_link() 方法的参数为带有 href 值的 a 标签

4. 最后

文中结合百度搜索实例,使用 RoboBrowser 完成了一次自动化及爬虫操作

相比 Selenium、Helium 等,RoboBrowser 更轻量级,不依赖独立的浏览器及驱动

如果想处理一些简单的爬虫或 Web 自动化,RoboBrowser 完全够用;但是面对一些复杂的自动化场景,更建议使用 Selenium、Pyppeteer、Helium 等

以上就是Python 爬虫库RoboBrowser的使用简介的详细内容,更多关于Python 爬虫库RoboBrowser的资料请关注脚本之家其它相关文章!

您可能感兴趣的文章:
  • Python基于httpx模块实现发送请求
  • Python爬虫爬取爱奇艺电影片库首页的实例代码
  • Python爬虫之必备chardet库
  • Python爬虫进阶之Beautiful Soup库详解
  • Python爬虫之爬取某文库文档数据
  • Python爬虫爬取全球疫情数据并存储到mysql数据库的步骤
  • 详解Python之Scrapy爬虫教程NBA球员数据存放到Mysql数据库
  • python爬虫利器之requests库的用法(超全面的爬取网页案例)
  • python爬虫开发之使用Python爬虫库requests多线程抓取猫眼电影TOP100实例
  • python爬虫开发之使用python爬虫库requests,urllib与今日头条搜索功能爬取搜索内容实例
  • python爬虫请求库httpx和parsel解析库的使用测评

标签:锡林郭勒盟 西宁 怀化 浙江 文山 石家庄 梅州 昆明

巨人网络通讯声明:本文标题《小众实用的Python 爬虫库RoboBrowser》,本文关键词  小众,实,用的,Python,爬虫,;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 下面列出与本文章《小众实用的Python 爬虫库RoboBrowser》相关的同类信息!
  • 本页收集关于小众实用的Python 爬虫库RoboBrowser的相关信息资讯供网民参考!
  • 推荐文章