python 分词包_python调用hanlp分词包手记
发布日期:2021-09-13 06:38:56 浏览次数:0 分类:技术文章

本文共 1537 字,大约阅读时间需要 5 分钟。

python调用hanlp分词包手记

Hanlp作为一款重要的分词工具,本月初的时候看到大快搜索发布了hanlp的1.7版本,新增了文本聚类、流水线分词等功能。关于hanlp1.7版本的新功能,后面有使用的到时候在给大家分享。本篇分享一个在python里调用hanlp分词包的过程文章,供需要的朋友参考学习交流!以下为文章内容:

1.在python下安装pyhanlp

sudo pip install pyhanlp

(详见pyhanlp官方文档)

2.pyhanlp的一些使用方法

(1)Hanlp.segment的使用

from pyhanlp import *

print HanLP.segment("今天开心了吗?")

#输出:[今天/t, 开心/a, 了/ule, 吗/y, ?/w]

其它API函数的使用。

(pyhanlp里已经含有以下这些功能了,可以直接调用)

1 - # API列表

2CustomDictionary= LazyLoadingJClass('com.hankcs.hanlp.dictionary.CustomDictionary')

3 HanLP = SafeJClass('com.hankcs.hanlp.HanLP')

4 HanLP.Config = JClass('com.hankcs.hanlp.HanLP$Config')

5PerceptronLexicalAnalyzer= SafeJClass('com.hankcs.hanlp.model.perceptron.PerceptronLexicalAnalyzer')

6 DoubleArrayTrieSegment = SafeJClass('com.hankcs.hanlp.seg.Other.DoubleArrayTrieSegment')

7AhoCorasickDoubleArrayTrie = SafeJClass('com.hankcs.hanlp.collection.AhoCorasick.AhoCorasickDoubleArrayTrie')

8IOUtil = SafeJClass('com.hankcs.hanlp.corpus.io.IOUtil')

9TraditionalChineseTokenizer=SafeJClass('com.hankcs.hanlp.tokenizer.TraditionalChineseTokenizer')

调用方法

analyzer=PerceptronLexicalAnalyzer()

a =analyzer.analyze("今天开心了吗?")

print a

3.其它更多的功能的实现。

比如繁体分词,自动生成摘要这些hanlp能实现的,但不在以上API函数里面的,我们可以通过以下方法。

首先要在“../pyhanlp/init.py”pycharm文件下通过jclass语句引入更深类路径。比如(我引入的是中文繁体分词这个API函数)

TraditionalChineseTokenizer=SafeJClass('com.hankcs.hanlp.tokenizer.TraditionalChineseTokenizer')

然后就可以直接调用了,真的超级棒。

print TraditionalChineseTokenizer.segment('三華裔獲得傑出青年獎‘)

#输出:[三/m, 華裔/n, 獲得/v, 傑出青年/nz, 獎/n]

-其它更多的API函数的路径请参考java原代码。

---------------------

作者:小傻子kkk

转载地址:https://blog.csdn.net/weixin_39767645/article/details/110995317 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:pythoncanny边缘检测自适应阈值_基于python实现自适应阈值的canny边缘检测
下一篇:python pytz下载_python:pytz包安装问题:ImportError:没有名为pytz的模块

发表评论

最新留言

路过,博主的博客真漂亮。。
[***.172.111.71]2022年05月22日 08时33分48秒

关于作者

    喝酒易醉,品茶养心,人生如梦,品茶悟道,何以解忧?唯有杜康!
-- 愿君每日到此一游!

最新文章