首页 > 专利 > 杭州电子科技大学 > 一种基于分词工具共性信息和部分监督学习的分词方法专利详情

一种基于分词工具共性信息和部分监督学习的分词方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2021-04-09
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2021-07-30
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-03-08
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2041-04-09
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN202110381471.1 申请日 2021-04-09
公开/公告号 CN113111654B 公开/公告日 2022-03-08
授权日 2022-03-08 预估到期日 2041-04-09
申请年 2021年 公开/公告年 2022年
缴费截止日
分类号 G06F40/289G06N3/04G06N3/08 主分类号 G06F40/289
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 3
权利要求数量 4 非专利引证数量 1
引用专利数量 1 被引证专利数量 0
非专利引证 1、2021.03.11孔玲玲.面向少量标注数据的中文命名实体识别技术研究《.中国优秀硕士学位论文全文数据库》.2019,I138-1414.;
引用专利 WO2021043015A 被引证专利
专利权维持 1 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 张旻、夏小勇、姜明 第一发明人 张旻
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 3
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
朱月芬
摘要
本发明公开了一种基于分词工具共性信息和部分监督学习的分词方法。本发明步骤如下:(1)使用大量无标注数据和BiLSTM神经网络预训练一个具有多种分词工具共性信息的BiLSTM模块,获得训练好的BiLSTM神经网络模块;(2)使用少量标注数据训练初始分词模型,得到基于卷积神经网络和多种分词工具共性信息的初始分词模型M0。(3)利用M0对大量无标注数据集进行标注,得到大量伪标签数据。修改M0中的损失函数,利用少量标注数据和大量伪标签数据共同训练损失函数修改后的M0,得到基于多种分词工具共性信息和部分监督学习的中文分词模型M1。(4)迭代步骤(3)n次,得到最终分词模型Mn。本发明提高跨领域中文分词的准确率。
  • 摘要附图
    一种基于分词工具共性信息和部分监督学习的分词方法
  • 说明书附图:图1
    一种基于分词工具共性信息和部分监督学习的分词方法
  • 说明书附图:图2
    一种基于分词工具共性信息和部分监督学习的分词方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-03-08 授权
2 2021-07-30 实质审查的生效 IPC(主分类): G06F 40/289 专利申请号: 202110381471.1 申请日: 2021.04.09
3 2021-07-13 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于分词工具共性信息和部分监督学习的分词方法,其特征在于包括如下步骤:
步骤(1)使用大量无标注数据和BiLSTM神经网络预训练一个具有多种分词工具共性信息的BiLSTM模块,获得训练好的BiLSTM神经网络模块;所述的BiLSTM神经网络模块是初始分词模型的一部分;
步骤(2)使用少量标注数据训练初始分词模型,得到一个基于卷积神经网络和多种分词工具共性信息的分词模型M0;
步骤(3)利用分词模型M0对大量无标注数据集进行标注,得到大量伪标签数据;修改分词模型M0中的损失函数,利用少量标注数据和大量伪标签数据共同训练损失函数修改后的分词模型M0,得到基于多种分词工具共性信息和部分监督学习的中文分词模型M1;
步骤(4)迭代步骤(3),直到n次,得到最终分词模型Mn;
步骤(2)具体为:
2‑
1.设输入的句字x=[c1,c
2...cn],使用word2vec将其转换为字符嵌入层向量
2‑
2.使用步骤2‑1获得的字符嵌入层向量 作为输入,CNN和蕴含多种
分词工具共性信息的BILSTM神经网络模块作为特征提取层;
其中,W和b都是卷积核的参数,k是卷积核的大小, 表示从第
个字符到第 个字符之间的连接;
其中, 是CNN网络获取第i个字符的特征, 是蕴含多种分词工具共性信息模块获取的第i个字符的特征,hi是 和 相融合的特征;
2‑
3.将特征提取层的输出输入到CRF层解码;
对于输入句子x=[c1,c
2...cn],通过初始分词模型M0可以获得一个预测标签序列y=[y1,y
2...yn],这个预测标签序列打分的公式如下:
其中, 表示标签转移矩阵,Pi,yi表示标签得分矩阵;句子x的标签序列为y的似然概率定义为:
其中,Yx表示句子x所有可能的标注序列集合,y′表示随机的一个标注序列;
损失函数的公式如下:
其中,xi是第i个训练句子,yi是这个句子正确的标签序列,Nl是训练集中标注句子的数量,θ是初始分词模型的模型参数。

2.根据权利要求1所述的一种基于分词工具共性信息和部分监督学习的分词方法,其特征在于,步骤(1)具体为:
1‑
1.用现有的四种分词工具分别对大量无标注数据进行标注,并在句子的首尾加上准则标记;
1‑
2.使用步骤1‑1获得的标注数据作为输入,BiLSTM神经网络作为特征提取层,预训练一个富含多种分词工具共性信息的BiLSTM神经网络模块;
1‑
3.BiLSTM神经网络模块以字符嵌入为输入,输出含有多个分词工具共性信息的上下文表示:
其中,表示句子的嵌入层向量, 中的下标i表示句子中第i个字符, 表
示第i个字符的特征。

3.根据权利要求2所述的一种基于分词工具共性信息和部分监督学习的分词方法,其特征在于,步骤(3)具体为:
3‑
1.使用分词模型M0对无标注数据进行标注,获得伪标签数据集PUL;
3‑
2.利用少量标注数据和步骤3‑1获得的伪标签数据集PUL共同训练初始分词模型M0,伪标签标注数据的损失函数被定义为:
t‑1
其中,θ 是第t‑1次迭代学习到的模型参数,Nu为伪标签数据集中句子的数量,p(yi|t‑1 t‑1
xi;θ )是根据上一轮迭代的模型θ 对伪标签句子xi生成标签yi的概率分布。

4.根据权利要求3所述的一种基于分词工具共性信息和部分监督学习的分词方法,其特征在于,步骤(4)具体为:按照步骤(3)的流程迭代的训练模型;此时,模型的更新既基于标注数据,也基于无标注数据;在第t次迭代,模型更新的目标函数为:
t
其中,θ是第t次迭代学习到的模型参数, 是标注数据的损失函数, 是伪标签标注数据的损失函数,λ是一个可训练的参数。
说明书

技术领域

[0001] 本发明涉及中文分词任务,具体来讲是一种基于分词工具共性信息和部分监督学习的分词方法,属于自然语言处理技术领域。

背景技术

[0002] 近几年,基于神经网络的中文分词模型在分词准确率上取得了非常好的效果。然而,现有的中文分词方法和分词工具在特殊领域的分词准确率往往会急剧下降,跨领域分词成为中文分词的难点。针对缺乏标注数据领域的中文分词问题,提出了一种融合分词工具共性信息和部分监督学习的分词方法。它将少量目标领域标注数据的直接监督和大量目标领域无标注数据的训练相结合,通过迭代训练逐步优化模型,提高分词模型的领域适应性。该方法在跨领域的多个数据集上进行实验,实验结果表明,该方法在多个数据集的评价指标均优于对比模型,证明了本文方法的有效性。

发明内容

[0003] 本发明针对现有中文分词标注数据不足和领域适应性问题,公开一种融合多种分词工具共性信息和部分监督学习的跨域中文分词方法,提高跨领域分词的准确率。
[0004] 本发明解决其技术问题所采用的技术方案包括以下步骤:
[0005] 一种基于分词工具共性信息和部分监督学习的分词方法。按照如下步骤进行:
[0006] 步骤(1)使用大量无标注数据和BiLSTM神经网络预训练一个具有多种分词工具共性信息的BiLSTM模块,获得训练好的BiLSTM神经网络模块;所述的BiLSTM神经网络模块是初始分词模型的一部分。
[0007] 步骤(2)使用少量标注数据训练初始分词模型,得到一个基于卷积神经网络和多种分词工具共性信息的初始分词模型M0。
[0008] 步骤(3)利用初始分词模型M0对大量无标注数据集进行标注,得到大量伪标签数据。修改初始分词模型M0中的损失函数,利用少量标注数据和大量伪标签数据共同训练损失函数修改后的分词模型M0,得到基于多种分词工具共性信息和部分监督学习的中文分词模型M1。
[0009] 步骤(4)迭代步骤(3),直到n次,得到最终分词模型Mn。
[0010] 进一步的,步骤(1)具体为:
[0011] 1‑1用现有的四种分词工具(Jieba,THULAC,SnowNLP和Stanford)分别对大量无标注数据进行标注,并在句子的首尾加上准则标记。
[0012] 1‑2使用步骤1‑1获得的标注数据作为输入,BiLSTM神经网络作为特征提取层,预训练一个富含多种分词工具共性信息的BiLSTM神经网络模块。
[0013] 1‑3BiLSTM神经网络模块以字符嵌入为输入,输出含有多个分词工具共性信息的上下文表示:
[0014]
[0015] 其中,表示句子的嵌入层向量,i表示句子中第i个字符, 表示第i个字符的特征。
[0016] 进一步的,步骤(2)具体为:
[0017] 2‑1设输入句子x=[c1,c2...cn],使用word2vec将其转换为字符嵌入层向量[0018] 2‑2使用步骤2‑1获得的字符嵌入层向量 作为输入,CNN和蕴含多种分词工具共性信息的BiLSTM神经网络模块作为特征提取层。
[0019]
[0020] 其中,W和b都是卷积核的参数,k是卷积核的大小, 表示从第个字符到第 个字符之间的连接。
[0021]
[0022] 其中, 是CNN网络获取第i个字符的特征, 是蕴含多种分词工具共性信息模块获取的特征,hi是 和 相融合的特征。
[0023] 2‑3将特征提取层的输出输入到CRF层解码。
[0024] 对于输入句子x=[c1,c2...cn],通过初始分词模型M0可以获得一个预测标签序列y=[y1,y2...yn],这个预测标签序列打分的公式如下:
[0025]
[0026] 其中, 表示标签转移矩阵,Pi,yi表示标签得分矩阵。句子x的标签序列为y的似然概率定义为:
[0027]
[0028] 其中,Yx表示句子x所有可能的标注序列集合,y'表示随机的一个标注序列损失函数的公式如下:
[0029]
[0030] 其中,xi是第i个训练句子,yi是这个句子正确的标签序列,Nl是训练集中标注句子的数量,θ是初始分词模型的所有参数。
[0031] 进一步的,步骤(3)具体为:
[0032] 3‑1.使用初始分词模型M0对大量无标注数据进行标注,获得伪标签数据集PUL。
[0033] 3‑2.利用少量标注数据和步骤3‑1获得的伪标签数据集PUL共同训练初始分词模型M0,伪标签标注数据的损失函数被定义为:
[0034]
[0035] 其中,θt‑1是第t‑1次迭代学习到的模型参数,Nu为伪标签数据集中句子的数量,pt‑1 t‑1(yi|xi;θ )是根据上一轮迭代的模型θ 对伪标签句子xi生成标签yi的概率分布。
[0036] 进一步的,步骤(4)具体为:
[0037] 按照步骤(3)的流程迭代的训练模型。此时,模型的更新既基于标注数据,也基于无标注数据。在第t次迭代,模型更新的目标函数为:
[0038]
[0039] 其中,θt是第t次迭代学习到的模型参数,l(θt)是标注数据的损失函数,lUL(θt)是伪标注数据的损失函数,λ是一个可训练的参数。
[0040] 本发明由于采取以上技术方案,具有如下优点:本发明融合多种分词工具共性信息和部分监督学习缓解特定领域标注数据不足的问题,提高跨领域中文分词的准确率。在同等标注数据的情况下,融合多种分词工具共性信息可以将分词模型的准确率提升约3.2%,融合无标注数据进行迭代训练后可进一步提升约2.8%。标注数据越少,本文方法相对于其他方法的优势越明显。

实施方案

[0043] 下面结合附图对本发明作进一步描述。
[0044] 参照图1和图2,一种基于分词工具共性信息和部分监督学习的分词方法。按照如下步骤进行:
[0045] 步骤(1)使用大量无标注数据和BiLSTM神经网络预训练一个具有多种分词工具共性信息的BiLSTM模块,获得训练好的BiLSTM神经网络模块;所述的BiLSTM神经网络模块是初始分词模型的一部分。
[0046] 步骤(2)使用少量标注数据训练初始分词模型,得到一个基于卷积神经网络和多种分词工具共性信息的初始分词模型M0。
[0047] 步骤(3)利用初始分词模型M0对大量无标注数据集进行标注,得到大量伪标签数据。修改初始分词模型M0中的损失函数,利用少量标注数据和大量伪标签数据共同训练损失函数修改后的分词模型M0,得到基于多种分词工具共性信息和部分监督学习的中文分词模型M1。
[0048] 步骤(4)迭代步骤(3),直到n次,得到最终分词模型Mn。
[0049] 进一步的,步骤(1)具体为:
[0050] 1‑1用现有的四种分词工具(Jieba,THULAC,SnowNLP和Stanford)分别对大量无标注数据进行标注,并在句子的首尾加上准则标记。
[0051] 1‑2使用步骤1‑1获得的标注数据作为输入,BiLSTM神经网络作为特征提取层,预训练一个富含多种分词工具共性信息的BiLSTM神经网络模块。
[0052] 1‑3BiLSTM神经网络模块以字符嵌入为输入,输出含有多个分词工具共性信息的上下文表示:
[0053]
[0054] 其中,表示句子的嵌入层向量,i表示句子中第i个字符, 表示第i个字符的特征。
[0055] 进一步的,步骤(2)具体为:
[0056] 2‑1设输入句子x=[c1,c2...cn],使用word2vec将其转换为字符嵌入层向量[0057] 2‑2使用步骤2‑1获得的字符嵌入层向量 作为输入,CNN和蕴含多种分词工具共性信息的BiLSTM神经网络模块作为特征提取层。
[0058]
[0059] 其中,W和b都是卷积核的参数,k是卷积核的大小, 表示从第个字符到第 个字符之间的连接。
[0060]
[0061] 其中, 是CNN网络获取第i个字符的特征, 是蕴含多种分词工具共性信息模块获取的特征,hi是 和 相融合的特征。
[0062] 2‑3将特征提取层的输出输入到CRF层解码。
[0063] 对于输入句子x=[c1,c2...cn],通过初始分词模型M0可以获得一个预测标签序列y=[y1,y2...yn],这个预测标签序列打分的公式如下:
[0064]
[0065] 其中, 表示标签转移矩阵,Pi,yi表示标签得分矩阵。句子x的标签序列为y的似然概率定义为:
[0066]
[0067] 其中,Yx表示句子x所有可能的标注序列集合,y'表示随机的一个标注序列损失函数的公式如下:
[0068]
[0069] 其中,xi是第i个训练句子,yi是这个句子正确的标签序列,Nl是训练集中标注句子的数量,θ是初始分词模型的所有参数。
[0070] 进一步的,步骤(3)具体为:
[0071] 3‑1使用分词模型1对无标注数据进行标注,获得伪标签数据集PUL。
[0072] 3‑2融合无标注数据来训练神经网络分词模型,无标注数据的损失函数被定义为:
[0073]
[0074] 其中,θt‑1是第t‑1次迭代学习到的模型参数,Nu为无标注句子的数量,p(yi|xi;t‑1 t‑1
θ )是根据上一轮迭代的模型θ 对无标注句子xi生成标签yi的概率分布。
[0075] 进一步的,步骤(4)具体为:
[0076] 按照步骤(3)的流程迭代的训练模型。此时,模型的更新既基于标注数据,也基于无标注数据。在第t次迭代,模型更新的目标函数为:
[0077]
[0078] 其中,θt是第t次迭代学习到的模型参数,l(θt)是标注数据的损失函数,lUL(θt)是伪标注数据的损失函数,λ是一个可训练的参数。

附图说明

[0041] 图1是本发明的整体实施流程图;
[0042] 图2是融入无标注数据的训练流程图;
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号