Xpath教程
发布日期:2021-07-01 04:21:22 浏览次数:12 分类:技术文章

本文共 3379 字,大约阅读时间需要 11 分钟。

文章目录

1 前言

本来是不打算学Xpath的,个人觉得BeautifulSoup()完全能够满足自己的爬虫需求了。但是在学Selenium是时候教程用的是Xpath,加上之前身边的小伙伴也一直在给自己安利Xpath,索性就了解一下。

2 Xpath语法

2.1 简介

XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。结构关系包括 父、子、兄弟、先辈、后代等。

2.2 语法

示例代码:

这是一个解析后的HTML文件的一部分
Harry Potter
J K. Rowling
2018
29.99

语法示例:

result = html.xpath('/bookstore/book/title')>输出:Harry Potter
result = html.xpath('/bookstore//title')>输出:Harry Potter
result = html.xpath('/bookstore/book/title/text()')>输出:Harry Potter

2.3 结点获取

XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。

下面列出了最有用的路径表达式:

表达式 描述
nodename 选取此节点的所有子节点。
/ 从根节点选取。
// 从选择的父节点中查找,不考虑它们的位置。
. 选取当前节点。
选取当前节点的父节点。
@ 选取属性。

实例

在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:

路径表达式 结果
bookstore 选取 bookstore 元素的所有子节点。
/bookstore 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
bookstore/book 选取属于 bookstore 的子元素的所有 book 元素。
//book 选取所有 book 子元素,而不管它们在文档中的位置。
bookstore//book 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于
//@lang 选取名为 lang 的所有属性。

谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点。
谓语被嵌在方括号中。

实例

在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式 结果
/bookstore/book[1] 选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()] 选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1] 选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()< 3 ] 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
//title[@lang] 选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang=’eng’] 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00] 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
/bookstore/book[price>35.00]/title 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

选取未知节点

XPath 通配符可用来选取未知的 XML 元素。

通配符 描述
* 匹配任何元素节点。
@* 匹配任何属性节点。
node() 匹配任何类型的节点。

实例

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式 结果
/bookstore/* 选取 bookstore 元素的所有子元素。
//* 选取文档中的所有元素。
//title[@*] 选取所有带有属性的 title 元素。

选取若干路径

通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
实例
在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果,由于博客书写原因,在表中我把“|”换成了“~”:

路径表达式 结果
//book/title ~ //book/price 选取 book 元素的所有 title 和 price 元素。
//title ~ //price 选取文档中的所有 title 和 price 元素。
/bookstore/book/title ~ //price 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

2.4 选择当前结点的子节点

在使用Xpath的过程中都会遇到这样一种情况:在指定结点下选择子节点,我们先看一下以下代码:

node = html.xpath("//ul[@class='note-list']/li//div[@class='content']")node1 = node.xpath("//a[@class='title']")

我想在获取父节点node下的a结点,代码看似很完美没有任何错误。先找到父节点node,随后再父节点的基础上进行进一步定位,获取子节点node1(即class=‘title’的a节点)。但是当你看运行结果,就会发现你得到的是整个网页中的符合要求的所有a结点。

仔细想一下,你会发现//a[@class='title']是在整个网页中寻找合适的节点,.//a[@class='title']才是在父节点node下寻找结点,.代表当前结点。正确的代码如下:

node = html.xpath("//ul[@class='note-list']/li//div[@class='content']")node1 = node.xpath(".//a[@class='title']")

2.5 输出网页源码

在编写爬虫的过程中我们难免会出现定位错误,这时,解决问题最好方法就是把我们定位到结点输出来。问题来了

title = node.xpath(".//a[@class='title']")[0]print(title)输出:

我们将定位的结点输出了,看不懂啊,在这里我们能看出来的只有这是一个a标签。怎么办呢,我们可以选择将这个Xpath对象还原成字符串对象

title = node.xpath(".//a[@class='title']")[0]title = etree.tostring(title)print(title)输出:家乡的小炒肉

2.6 Xpath与爬虫的交点

与Xpath搭配的常用解析方法是:etree.HTML()

from lxml import etree#发送请求req = requests.get(oneBlogUrl, timeout=10)#校正网页编码req.encoding = req.apparent_encoding#解析网页html = etree.HTML(req.text)

在解析过后就可以直接上Xpath了

article_list = html.xpath("/bookstore/book/title/text()")

与BeautifulSoup中的find()/find_all()方法相比,在用find_all()查找到标签后存放的形式是列表,需要在for循环中才能继续调用find()方法。这一点上Xpath是比BeautifulSoup较方便的,Xpath可以一步到位。

转载地址:https://mtyjkh.blog.csdn.net/article/details/80777765 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:Python学习之GUI--SQL数据库连接
下一篇:gitHub使用记录

发表评论

最新留言

做的很好,不错不错
[***.243.131.199]2024年04月13日 04时29分03秒