本文共 3379 字,大约阅读时间需要 11 分钟。
文章目录
1 前言
本来是不打算学Xpath的,个人觉得BeautifulSoup()完全能够满足自己的爬虫需求了。但是在学Selenium是时候教程用的是Xpath,加上之前身边的小伙伴也一直在给自己安利Xpath,索性就了解一下。
2 Xpath语法
2.1 简介
XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。结构关系包括 父、子、兄弟、先辈、后代等。
2.2 语法
示例代码:
这是一个解析后的HTML文件的一部分Harry Potter J K. Rowling 2018 29.99
语法示例:
result = html.xpath('/bookstore/book/title')>输出:Harry Potter
result = html.xpath('/bookstore//title')>输出:Harry Potter
result = html.xpath('/bookstore/book/title/text()')>输出:Harry Potter
2.3 结点获取
XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。
下面列出了最有用的路径表达式:
表达式 | 描述 |
---|---|
nodename | 选取此节点的所有子节点。 |
/ | 从根节点选取。 |
// | 从选择的父节点中查找,不考虑它们的位置。 |
. | 选取当前节点。 |
… | 选取当前节点的父节点。 |
@ | 选取属性。 |
实例
在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:路径表达式 | 结果 |
---|---|
bookstore | 选取 bookstore 元素的所有子节点。 |
/bookstore | 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径! |
bookstore/book | 选取属于 bookstore 的子元素的所有 book 元素。 |
//book | 选取所有 book 子元素,而不管它们在文档中的位置。 |
bookstore//book | 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 |
//@lang | 选取名为 lang 的所有属性。 |
谓语(Predicates)
谓语用来查找某个特定的节点或者包含某个指定的值的节点。 谓语被嵌在方括号中。实例
在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:路径表达式 | 结果 |
---|---|
/bookstore/book[1] | 选取属于 bookstore 子元素的第一个 book 元素。 |
/bookstore/book[last()] | 选取属于 bookstore 子元素的最后一个 book 元素。 |
/bookstore/book[last()-1] | 选取属于 bookstore 子元素的倒数第二个 book 元素。 |
/bookstore/book[position()< 3 ] | 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。 |
//title[@lang] | 选取所有拥有名为 lang 的属性的 title 元素。 |
//title[@lang=’eng’] | 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。 |
/bookstore/book[price>35.00] | 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。 |
/bookstore/book[price>35.00]/title | 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。 |
选取未知节点
XPath 通配符可用来选取未知的 XML 元素。通配符 | 描述 |
---|---|
* | 匹配任何元素节点。 |
@* | 匹配任何属性节点。 |
node() | 匹配任何类型的节点。 |
实例
在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:路径表达式 | 结果 |
---|---|
/bookstore/* | 选取 bookstore 元素的所有子元素。 |
//* | 选取文档中的所有元素。 |
//title[@*] | 选取所有带有属性的 title 元素。 |
选取若干路径
通过在路径表达式中使用“|”运算符,您可以选取若干个路径。 实例 在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果,由于博客书写原因,在表中我把“|”换成了“~”:路径表达式 | 结果 |
---|---|
//book/title ~ //book/price | 选取 book 元素的所有 title 和 price 元素。 |
//title ~ //price | 选取文档中的所有 title 和 price 元素。 |
/bookstore/book/title ~ //price | 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。 |
2.4 选择当前结点的子节点
在使用Xpath的过程中都会遇到这样一种情况:在指定结点下选择子节点,我们先看一下以下代码:
node = html.xpath("//ul[@class='note-list']/li//div[@class='content']")node1 = node.xpath("//a[@class='title']")
我想在获取父节点node下的a结点,代码看似很完美没有任何错误。先找到父节点node,随后再父节点的基础上进行进一步定位,获取子节点node1(即class=‘title’的a节点)。但是当你看运行结果,就会发现你得到的是整个网页中的符合要求的所有a结点。
仔细想一下,你会发现//a[@class='title']
是在整个网页中寻找合适的节点,.//a[@class='title']
才是在父节点node下寻找结点,.
代表当前结点。正确的代码如下:
node = html.xpath("//ul[@class='note-list']/li//div[@class='content']")node1 = node.xpath(".//a[@class='title']")
2.5 输出网页源码
在编写爬虫的过程中我们难免会出现定位错误,这时,解决问题最好方法就是把我们定位到结点输出来。问题来了
title = node.xpath(".//a[@class='title']")[0]print(title)输出:
我们将定位的结点输出了,看不懂啊,在这里我们能看出来的只有这是一个a标签。怎么办呢,我们可以选择将这个Xpath对象还原成字符串对象
title = node.xpath(".//a[@class='title']")[0]title = etree.tostring(title)print(title)输出:家乡的小炒肉
2.6 Xpath与爬虫的交点
与Xpath搭配的常用解析方法是:etree.HTML()
from lxml import etree#发送请求req = requests.get(oneBlogUrl, timeout=10)#校正网页编码req.encoding = req.apparent_encoding#解析网页html = etree.HTML(req.text)
在解析过后就可以直接上Xpath了
article_list = html.xpath("/bookstore/book/title/text()")
与BeautifulSoup中的find()/find_all()方法相比,在用find_all()查找到标签后存放的形式是列表,需要在for循环中才能继续调用find()方法。这一点上Xpath是比BeautifulSoup较方便的,Xpath可以一步到位。
转载地址:https://mtyjkh.blog.csdn.net/article/details/80777765 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!