ython从零到壹九网络爬虫之elenium基础技术万字详解(定位元素常用方法鼠标操作)腾讯云开发者社区

Selenium是一款用于测试Web应用程序的经典工具,它直接运行在浏览器中,仿佛真正的用户在操作浏览器一样,主要用于网站自动化测试、网站模拟登陆、自动操作键盘和鼠标、测试浏览器兼容性、测试网站功能等,同时也可以用来制作简易的网络爬虫。

本文主要介绍Selenium Python API技术,它以一种非常直观的方式来访问Selenium WebDriver的所有功能,包括定位元素、自动操作键盘鼠标、提交页面表单、抓取所需信息等。

Selenium是ThoughtWorks公司专门为Web应用程序编写的一个验收测试工具,它提供的API支持多种语言,包括Python、Java、C#等,本书主要介绍Python环境下的Selenium技术。Python语言提供了Selenium扩展包,它是使用Selenium WebDriver(网页驱动)来编写功能、验证测试的一个API接口。

通过Selenium Python API,读者能够以一种直观的方式来访问Selenium WebDriver的所有功能。Selenium Python支持多种浏览器,诸如Chrome、火狐、IE、360等浏览器,也支持PhantomJS特殊的无界面浏览器引擎。

Selenium WebDriver API接口提供了一种定位网页中元素(Locate Elements)的策略,本书将使用Selenium Python讲解网络数据爬取知识,本章主要介绍Selenium技术的基础知识,后面的章节结合实例讲解如何利用Selenium定位网页元素、自动爬取、设计爬虫等。

类似于BeautifulSoup技术,Selenium制作的爬虫也是先分析网页的HTML源码和DOM树结构,再通过其所提供的方法定位到所需信息的结点位置,获取文本内容。

同时,推荐读者阅读官网提供的《Selenium with Python Bindings》开源技术文档,本文也汲取了它很多精彩的知识,再结合自己的理解和实际爬虫实例进行介绍的。下面从Selenium安装、驱动安装、PhantomJS三部分知识进行介绍,让我们开始吧!

读者可以访问PyPI网站来下载Selenium扩展包,例如图2所提供的selenium 3.4.3,对应的网址为:

我们点击“Downloads”按钮下载该Selenium扩展包,解压下载的文件后,在解压目录下执行下面的命令进行安装Selenium包。

PyPI全称是Python Package Index,是Python官方的第三方库的仓库,所有人都可以下载第三方库或上传自己开发的库到PyPI。

同时,作者更推荐大家使用pip工具来安装Selenium库,PyPI官方也推荐使用pip管理器来下载第三方库。Python3.6标准库中自带pip,Python2.x需要自己单独安装。前文介绍了pip工具的安装过程及基础用法。安装好pip工具后,直接调用命令即可安装Selenium:

调用命令“pip install selenium”安装Selenium包如图3所示。

此时的Selenium包已经安装成功,接下来需要调用浏览器来进行定位或爬取信息,而使用浏览器的过程中需要安装浏览器驱动。作者推荐使用Firefox浏览器、Chrome浏览器或PhantomJS浏览器,下面将结合实例讲解三种浏览器驱动的配置过程。

Selenium需要安装浏览器驱动,才能调用浏览器进行自动爬取或自动化测试,常见的包括Chrome、Firefox、IE、PhantomJS等浏览器。表1是部分浏览器驱动下载页面。

输出结果如下图所示:

调用时如果报错“Unable to start phantomjs with ghostdriver”,则需要设置PhantomJS的路径,或者配置到Scripts目录环境下。当Selenium安装成功并且PhantomJS下载配置好后,下面这代代码是调用方法。其中executable_path参数设置PhantomJS的路径。

代码含义为:

运行结果如图6所示,Python3效果一样。

注意,webdriver中提供的save_sceenshot()函数可以对网页进行截图,代码如下:

网页通常采用文档对象模型树结构进行存储,并且这些节点都是成对出现的,如“< html >”对应“</ html >”、“< table >”对应“</ table >”、“< div >”对应“</ div >”等。Selenium技术通过定位节点的特定属性,如class、id、name等,可以确定当前节点的位置,再获取相关网页的信息。

下面代码是定位百度搜索框并进行自动搜索,它作为我们的快速入门代码。

运行结果如下图所示,调用Firefox浏览器并搜索“数据分析”关键词,最后对浏览的网页进行截图操作。所以,Selenium常用于自动化测试领域。

下面对这部分代码进行详细讲解。

图8是百度首页审查元素的反馈结果,其中输入框input元素对应属性name为“kw”,所以定位其节点代码为:

Selenium Python提供了一种用于定位元素(Locate Elements)的策略,你可以根据所爬取网页的HTML结构选择最适合的方案,表8.2是Selenium提供的各种方法。定位多个元素时,只需将方法“element”后加s,这些元素将会以列表的形式返回。

该网页打开运行如下图9所示。

下面结合这个实例分别介绍各种元素定位方法,并以定位单个元素为主。

该方法是通过网页标签的id属性定位元素,它将返回第一个用id属性值匹配定位的元素。如果没有元素匹配id值,将会返回一个NoSuchElementException异常。

假设需要通过id属性定位页面中的杜甫、李商隐、杜牧三个超链接,HTML核心代码如下:

如果需要获取div布局,则使用如下代码:

如果写成如下代码,则返回第一个诗人的信息。

注意“elements”表示获取多个值。三个超链接都使用同一个id名称“link”,通过find_elements_by_id()函数定位获取之后,再调用for循环输出结果,如下所示:

输出结果如下图所示:

该方法是通过网页标签的name属性定位元素,它将返回第一个用name属性值匹配定位的元素。如果没有元素匹配name值,会返回NoSuchElementException异常。

下面介绍通过name属性定位页面中的杜甫、李商隐、杜牧三个超链接的方法,HTML源码如下:

如果需要分别获取杜甫、李商隐、杜牧三个超链接,则使用代码如下:

此时不能调用find_elements_by_name()函数获取多个元素,因为三位诗人对应超链接的name属性都是不同的,即“dufu”、“lsy”、“dumu”,如果name属性相同,则该方法可以获取同一name属性的多个元素。

XPath是用于定位XML文档中节点的技术,HTML\XML都采用网页DOM树状标签的结构进行编写的,所以可以通过XPath方法分析其节点信息。Selenium Python也提供了类似的方法来跟踪网页中的元素。

XPath定位元素方法不同于按照ID或Name属性的定位方法,前者更加的灵活、方便。

比如想通过ID属性定位第三个诗人“杜牧”的超链接信息,但是三位诗人的ID属性值都是相同的,即“link”,如果没有其他属性,那我们怎么实现呢?此时可以借助XPath方法进行定位元素。这也体现了XPath方法的一个优点:

XPath方法也可以通过除了ID和Name属性以外的其他属性进行定位元素,其完整函数为:

下面开始通过实例进行讲解,HTML代码如下:

这个div布局可能通过如下三种XPath方法定位:

如需定位第三位诗人“杜牧”超链接的内容,则使用如下所示的三种方法。

同时,如果是按钮控件且name属性相同,假设HTML代码如下:

则定位value值为“Clear”按钮元素的方法如下:

XPath定位方法作为最常用的定位元素方法之一,后面章节的实例中将会被反复利用,而本小节只是介绍了些基础知识,更多知识请读者在W3Schools XPath Tutorial、W3C XPath Recommendation或Selenium官方文档中学习。

当你需要定位一个锚点标签内的链接文本(Link Text)时就可以使用该方法。该方法将返回第一个匹配这个链接文本值的元素。如果没有元素匹配这个链接文本,将抛出一个NoSuchElementException异常。下面介绍调用该方法定位页面中的杜甫、李商隐、杜牧三个超链接,假设HTML源码如下:

如果需要分别获取杜甫、李商隐、杜牧三个超链接,则使用如下代码。

其中,find_element_by_link_text()函数是使用锚点标签的链接文本进行定位的,partial表示部分匹配,获取多个元素的方法则使用:

该方法是通过标签名(Tag Name)定位元素,它将返回第一个用Tag Name匹配定位的元素。如果没有元素匹配,将会返回一个NoSuchElementException异常。假设HTML源码如下:

定位元素h1和段落p的方法如下:

该方法是通过类属性名(Class Attribute Name)定位元素,它将返回第一个用类属性名匹配定位的元素。如果没有元素匹配,将会返回一个NoSuchElementException异常。

如果存在多个相同class值的content标签,则可以使用下面方法进行定位获取:

CSS选择器定位方法是比较难的一个方法,推荐读者下来自行研究,同时作者更推荐大家使用ID、Name、XPath等常用定位方法。

讲述完定位元素(Locate Elements)之后,我们需要对已经定位好的对象进行操作,这些操作的交互行为通常需要通过WebElement接口来实现,常见操作元素方法如表3所示。

通过find_element_by_name()定位元素,调用函数clear()清除输入框默认内容,如“请输入密码”等提示,并调用send_keys()函数输入正确的用户名和密码后点击登录。核心代码如下:

完整代码如下:

最终,该部分代码会自动输入指定的用户名和密码,然后输入回车键实现登录操作。但需要注意,由于部分页面是动态加载的,而实际操作时可能无法捕获其节点,同时百度网页的HTML源码也会不定期变化,但是其原理知识更为重要,希望读者掌握类似的分析方法,在后面爬取微博、知乎、B站等案例时,也会再结合实例详细讲解自动登录爬虫。

通过WebElement接口可以获取常用的值,其中常见属性值如下表所示。

该部分代码如下:

输出结果如下图所示:

Selenium技术另一个特点就是可以自动化操作鼠标和键盘,所以它更多的应用是自动化测试领域,通过自动操作网页,反馈响应结果从而检测网站健壮性和安全性。

在Selenium提供的Webdriver库中,其子类Keys提供了所有键盘按键操作,比如回车键、Tab键、空格键,同时也包括一些常见的组合按键操作,如Ctrl+A(全选)、Ctrl+C(复制)、Ctrl+V(粘贴)等。常用键盘操作如下:

下面举一个百度自动搜索“Python”关键字的简单示例,代码如下:

首先需要定位百度搜索框的HTML源代码,分析结果如图14所示,百度搜索框对应的HTML标签为input且其ID属性为“kw”,故定位代码为:

同样可以自动搜索作者“Eastmount”的信息,哈哈~

Selenium操作鼠标技术也常用于自动化测试中,它位于ActionChains类中,最常用的是click()函数,该函数表示单击鼠标左键操作。常见的鼠标操作如下:

下面的示例代码是定位百度的logo图片,再执行鼠标右键另存为图片操作。

弹出对话框如下图所示,新版本尝试输入k键也能另存为网页。

前一小节讲述了Python操作键盘和鼠标,建议读者一定要自己去实现该部分代码,从而更好地应用到实际项目中去。本小节主要介绍Selenium的导航控制操作,包括页面交互、表单操作和对话框间移动。

前面讲述的百度搜索案例就是一个页面交互的过程,包括:

这里我们将补充页面交互的切换下拉菜单的实例。定位“name”下拉菜单标签之后,我们调用SELECT类选中选项,同时select_by_visible_text()用于显示选中菜单,也可以提交Form表单。

如果读者想取消已经选中的选项,则使用如下代码:

网站通常都是由多个窗口组成的,称为多帧Web应用,WebDriver提供了方法switch_to_window来支持命名窗口间的移动切换。比如:

现在driver的所有操作将会针对特定的窗口。但是怎么才能知道窗口的名字呢?可以通过定位其HTML源码中的超链接,或者给switch_to_window()方法传递一个“窗口句柄”,常用的方法是循环遍历所有的窗口,再获取指定的句柄进行定位操作,核心代码如下:

更多知识推荐读者阅读官方文档,下面是捕获弹出式对话框内容的核心代码。

后续实例也会介绍一种窗口句柄转义的方法。

Selenium库分析和定位节点的方法和BeautifulSoup库类似,它们都能够利用类似于XPath技术来定位标签,都拥有丰富的操作函数来爬取数据。但不同之处在于:

Selenium用得更广泛的领域是自动化测试,它直接运行在浏览器中(如Firefox、Chrome、IE等),就像真实用户操作一样,对开发的网页进行各式各样的测试,它更是自动化测试方向的必备工具。希望读者能掌握这种技术的爬取方法,尤其是目标网页需要验证登录等情形。

THE END
0.小白如何入门Python爬虫?这是我见过最详细的入门教学这是我见过最详细的入门教学_python 爬取 小白教程 想要入门Python 爬虫首先需要解决四个问题 熟悉python编程 了解HTML 了解网络爬虫的基本原理 学习使用python爬虫库 01了解什么是爬虫,它的基本流程是什么? 网络爬虫,其实叫作网络数据采集更容易理解。 就是通过编程向网络服务器请求数据(HTML表单),然后解析HTML,提取jvzquC41dnuh0lxfp0tfv87623e96>;52:60c{ykenk0fnyckny03<=62;=44
1.Python入门爬虫,教程详解。python学习爬虫Python入门爬虫,教程详解。 文章目录 前言 一、Python网络爬虫 二、抓取的数据格式 三、现代前端页面爬取 总结 关于Python技术储备 一、Python所有方向的学习路线 二、Python基础学习视频 三、精品Python学习书籍 四、Python工具包+项目源码合集 ①Python工具包jvzquC41dnuh0lxfp0tfv87523e92;9328:0c{ykenk0fnyckny03<8;76=94
2.Python爬虫介绍|菜鸟教程一、什么是爬虫 爬虫:一段自动抓取互联网信息的程序,从互联网上抓取对于我们有价值的信息。 二、Python爬虫架构 Python 爬虫架构主要由五个部分组成,分别是调度器、URL管理器、网页下载器、网页解析器、应用程序(爬取的有价值数据)。 调度器:相当于一台电脑的CPU,主要负责调度URL管理器、下载器、解析器之间的协调jvzquC41yy}/t~sqqd4dqv4y5etpvn4r{vnpp6xrkfks/rsvtq4ivvq
3.爬虫是怎么工作的?从原理到用途技术门槛差异: 简单的爬虫(比如爬取静态网页)用Python的“requests”“BeautifulSoup”库就能实现,新手跟着教程也能做; 复杂的爬虫(比如爬取需要登录的平台、动态网页),需要掌握更多技术(如Selenium、API接口调用)。 五、总结 爬虫本身没有“好坏”之分,它就像一把“铲子”:用它合规地挖掘公开信息,能帮我们提高效率jvzquC41fg|fnxugt0gmk‚zp0eun1jwvkerf1:;::763
4.爬虫入门教程(非常详细)从零基础入门到精通,看完这一篇就够了本文介绍了Python在抓取网页、模拟浏览器行为、网页处理以及爬虫框架中的优势,特别强调了urllib和BeautifulSoup库的作用,并提到了Python3.x的适用性。 01Python优势 对于网络爬虫开发来说,Python有着无与伦比天然优势,这里从两个方面对其优势进行分析与讲解。 jvzquC41dnuh0lxfp0tfv8fqnct24<4ctvodnn4fgvgjn|435977;;<;
5.python爬虫入门,10分钟就够了,这可能是我见过最简单的基础教学一、基础入门 1.1什么是爬虫 爬虫(spider,又网络爬虫),是指向网站/网络发起请求,获取资源后分析并提取有用数据的程序。 从技术层面来说就是 通过程序模拟浏览器请求站点的行为,把站点返回的HTML代码/JSON数据/二进制数据(图片、视频) 爬到本地,进而提取自己需要的数据,存放起来使用。 jvzquC41dnuh0lxfp0tfv8r2a7?35?6491gsvrhng1jfvjnnu173;=5584<
6.Python爬虫入门知识!腾讯云开发者社区其中,搜索引擎就是个很好的例子,搜索引擎技术里面大量使用爬虫,他爬取下整个互联网的内容,存储在数据库里面,做索引。 爬虫思路 首先,我们要知道,每一个网页都是一份HTML文档,全称叫hypertext markup language,是一种文本标记语言,他长的就像这样: 代码语言:javascript jvzquC41yy}/eutwf0zfpljpv0ipo8igxgrprnw1ctzjeuj136<18;=
7.一文带你了解爬虫天池技术圈这表示除上面那些定义过的爬虫以外其他爬虫都不允许爬取百度任何东西! 2.法律 我们都知道在发起请求时User-agent是可以自定义的,也就是说我们可以绕过robots协议和以User-agent来定义的反爬虫技术,所以robots协议可能更像一个君子协议,那咱们国家有没有法律明文规定呢?我们来了解一下非法侵入计算机信息系统罪: jvzquC41vkgoeqn0cnozww3eqo5gq{zo1rutv8;4;57
8.《Python网络爬虫技术案例教程》共10单元473页).pdf《Python网络爬虫技术案例教程》共10单元473页).pdf,网络爬虫入门 第 章导读 当今这, 炸的信患时代,用户与网络的沟通本质上是数据 这导! 息数据量的爆发式增长。 3每量 的皂饕 .善着巨大的价值,用户如何自动高效地从互联网 掣感兴照 :晶地应用是f亟待解决的问题。 标样痢jvzquC41oc~/dxtm33>/exr1jvsm1;5441693>4:22922?6652653;<0ujzn
9.携程:关于反爬虫,看这一篇就够了腾讯云开发者社区三、什么是爬虫和反爬虫 因为反爬虫暂时是个较新的领域,因此有些定义要自己下。我们内部定义是这样的: 爬虫:使用任何技术手段,批量获取网站信息的一种方式。关键在于批量。 反爬虫:使用任何技术手段,阻止别人批量获取自己网站信息的一种方式。关键也在于批量。 jvzquC41yy}/eutwf0zfpljpv0ipo8igxgrprnw1ctzjeuj132>:8;:
10.Python爬虫入门教程(非常详细)爬虫python入门Python爬虫入门教程(非常详细) 初学Python之爬虫的简单入门 一、什么是爬虫? 1.简单介绍爬虫 爬虫的全称为网络爬虫,简称爬虫,别名有网络机器人,网络蜘蛛等等。 网络爬虫是一种自动获取网页内容的程序,为搜索引擎提供了重要的数据支撑。搜索引擎通过网络爬虫技术,将互联网中丰富的网页信息保存到本地,形成镜像备份。我们jvzquC41dnuh0lxfp0tfv8vsa6<1;=;731gsvrhng1jfvjnnu1744A59599
11.python很全的爬虫入门教程python爬虫学习python很全的爬虫入门教程 一、爬虫前的准备工作 首先,我们要知道什么是爬虫 1、什么是网络爬虫? 网络爬虫是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。 简单的来说,网络爬虫就是一段程序,它模拟人类访问互联网的形式,不停地从网络上获取jvzquC41dnuh0lxfp0tfv8r2a5=:2?7521gsvrhng1jfvjnnu1>4;B9826