CN107943783A - 一种基于lstm‑cnn的分词方法 - Google Patents
一种基于lstm‑cnn的分词方法 Download PDFInfo
- Publication number
- CN107943783A CN107943783A CN201710946604.9A CN201710946604A CN107943783A CN 107943783 A CN107943783 A CN 107943783A CN 201710946604 A CN201710946604 A CN 201710946604A CN 107943783 A CN107943783 A CN 107943783A
- Authority
- CN
- China
- Prior art keywords
- data
- character
- lstm
- sentence
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于LSTM‑CNN的分词方法。本方法为:将训练语料数据转化为字符级的语料数据;统计该语料数据字符得到一字符集合并对每个字符进行编号,得到字符编号集合;统计字符标签得到一标签集合,对标签进行编号得到标签编号集合;将语料按照句子长度划分,根据句子长度对得到的句子分组,得到包括n组句子的数据集合;随机无放回的从该数据集合中选取一句子分组,从中抽取多个句子,每一句子的字符构成一数据w,对应的标签集合为y;将数据w转换为对应的编号和标签y送入模型LSTM‑CNN,训练该深度学习模型的参数;将待预测的数据转换成与该深度学习模型匹配的数据,并将其送入训练好的深度学习模型,得到分词结果。
Description
技术领域
本发明属于计算机软件技术领域,涉及一种基于LSTM-CNN的分词方法。
背景技术
自然语言处理问题中亚洲类型的文字并非像西文具有天然的空格分隔符,很多西文处理方法并不能直接用于亚洲类型(中文、韩文和日文)文字的处理,这是因为亚洲类型(中文、韩文和日文)必须经过分词的这道工序才能保持和西文一致。因此,分词在亚洲类型文字的处理中是信息处理的基础,其应用场景包括:
1.搜索引擎:搜索引擎中一个重要的功能就是做文档的全文索引,其内容是将文字进行分词,然后将文档的分词结果和文档形成一个倒排索引,用户在查询的时候也是先将查询的输入语句进行分词,而后将分词的结果和索引数据库进行对比,从而找出与当前输入最为相似的文档。
2.自动摘要生成:自动摘要是指将一篇较长的文档用一段较短的语言文字去总结。而在总结的过程中,就需要计算一篇文档中关键词,因此在计算关键词之前必须先对文档做分词处理。
3.自动校对:自动校对是指对一段文字作语法错误的检查,其检查的粒度还是基于词的方式做的检查,因此需要将用户输入的连续文字做分词处理。
传统的分词方法可以分为基于词典的分词,基于词频统计的方法以及基于知识的方法;基于词典的分词严重依赖于词典库,词频统计的HMM(隐马尔可夫)和CRF(条件随机场)其只能关联当前词的前一个词的语义。基于知识的人工神经网络模型因模型训练时的梯度消失问题,在实际的应用中网络层数少,最终分词结果优势不明显。
基于词典的分词方法严重依赖于词典库,效率比较低,且不能够识别未登录词;本发明中登录词指的是已经出现在语料词表中的词,未登录词指的是没有出现在语料词表中的词。
基于词频统计分词方法(例如N-Gram),其只能关联当前词的前N-1个词的语义,识别精度不够高,当N增加的时,效率非常低。而且对未登录的识别率偏低。
发明内容
针对现有技术中存在的技术问题,本发明的目的在于提供一种基于LSTM-CNN的分词方法。本发明通过自然语言处理中的序列标注(sequential labeling)将一个序列作为输入,并训练一个模型使其为每一序列片段数据产生正确的输出。
针对与中文类似(英文天然带有空格作为词之间的分割符)的语言进行分词的方法。本发明要解决的核心问题包含三个:1分词的效率,2分词的精度,3未登录词的识别精度。
本发明的技术方案为:
一种基于LSTM-CNN的分词方法,其步骤包括:
1)将训练语料数据OrgData转化为字符级的语料数据NewData;
2)统计该语料数据NewData字符得到一字符集合CharSet,并对该字符集合CharSet中每个字符进行编号,得到该字符集合CharSet对应的字符编号集合CharID;统计NewData中的字符的标签,得到一标签集合LabelSet,对该标签集合LabelSet的标签进行编号,得到对应的标签编号集合LabelID;
3)将NewData按照句子长度划分,得到若干句子;然后根据句子长度对得到的句子进行分组,得到包括n组句子的数据集合GroupData;
4)随机无放回的从该数据集合GroupData中选取一句子分组,从该句子分组中抽取BatchSize个句子,每一个句子的字符构成一数据w,该句子的字符对应的标签集合为y;根据字符编号集合CharID将数据w转换为对应的编号,得到数据BatchData;根据标签编号集合LabelID将集合y中的标签转换为对应的编号,得到数据yID;
5)将步骤4)生成的多个数据BatchData及其对应的标签数据yID一起送入深度学习模型LSTM-CNN,训练该深度学习模型LSTM-CNN的参数,当深度学习模型产生的损失值Cost(y′,yID)迭代变化小于设定阈值或者达到最大迭代次数N,则终止深度学习模型的训练,得到训练后的深度学习模型LSTM-CNN;否则采用步骤4)的方法重新生成数据BatchData训练该深度学习模型LSTM-CNN;
6)将待预测的数据PreData转换成与该深度学习模型LSTM-CNN匹配的数据PreMData,并将其送入训练好的深度学习模型LSTM-CNN,得到分词结果OrgResult。
进一步的,该数据BatchData的长度为一固定长度maxLen,当抽取到的数据句子长度l<maxLen时,将该句子后面补maxLen-l个0,得到BatchData;并将对应的数据yID后面补maxLen-l个0,得到数据yID;其中,maxLen等于该深度学习模型LSTM-CNN中的LSTM单元个数。
进一步的,产生该损失值Cost(y′,yID)的方法为:
31)将数据BatchData在深度学习模型LSTM-CNN的Embedding层进行向量化,将数据BatchData中的每个字符转换成一向量;
32)将各数据BatchData对应的向量传入深度学习模型LSTM-CNN的LSTM层,其中该数据BatchData中的每一字符对应的向量传入LSTM层的一LSTM单元;且第i-1个LSTM单元的输出结果输入第i个LSTM单元;
33)将每个LSTM单元的输出hi传入深度学习模型LSTM-CNN的第一DropOut层;
34)将第一DropOut层的输出传入Conv卷积层进行卷积后,使用ReLU激活函数将卷积层的输出设为ci;
35)将该Conv层的输出ci依次经第二DropOut层、SoftMax层处理后,将得到的输出y′与传入的数据yID一起计算产生损失值Cost(y′,yID)。
进一步的,所述损失值Cost(y′,yID)=-yIDlog(y′)+(1-yID)log(1-y′);其中y′表示数据BatchData经过该SoftMax层后的输出。
进一步的,所述步骤5)中,所述设定条件为:当前计算的损失值Cost(y′,yID)与前m次损失值的平均值的差小于阈值θ。
进一步的,所述步骤2)中,将|li-lj|<δ的句子归入一组;其中,li表示第i句话的句子长度、lj表示第j句话的句子长度,δ表示句子长度间隔。
进一步的,所述步骤1)中,采用BMES的标记方式将该训练语料数据OrgData中的带有标签的每个词语按照字符级切分,将位于词语最开始的字符标记为B,位于词语中间的字符标记为M,位于词语末尾的字符标记为E,如果词语只有一个字符则标记为S。
进一步的,使用Adam梯度下降算法训练该深度学习模型LSTM-CNN的参数。
本发明分两个阶段:训练阶段,预测阶段。
(一)训练阶段:(参考图1的左边虚线框)
步骤1:将带有标签的训练语料数据转换为字符级的语料数据。
步骤2:使用Adam梯度下降算法训练深度学习模型。
(二)预测阶段:(参考图1的右边虚线框)
步骤1:将没有标签的测试语料数据转换为字符级的语料数据。
步骤2:使用训练阶段训练好的深度学习模型进行预测。
本发明主要具有以下优点:
为了解决未登录词问题,本发明放弃了传统的词表方法,而是采用基于词向量的思想,而且是基于字符的向量,而不是词语。传统的基于词表的方法,只有出现在词表中的词语才能够识别;没有出现在词表的词,也就是未登录词,就不能识别。每个词都是由一个个的字符组成的,采用基于词向量的思想,那么只要出现在字符表里面的所以字符构成的词语都能够识别。这里提到的字符,如果是处理中文的话,可以理解成就是所有汉字字符以及汉字标点符号的集合。
为了解决传统分词方法精度低的问题,本发明采用深度学习的思想,利用长短期记忆神经网络模型(LSTM)和卷积神经网络(CNN)模型相结合。
为了解决传统分词效率低,避开词频统计,避开字符串匹配,而是采用类似函数映射的方式进行分词。
本发明基于LSTM-CNN的分词方法,采用字符级而不是词语级,可以规避未登录词的问题;另外采用长短期记忆神经网络LSTM和卷积神经网络CNN的组合模型相比传统的算法,精度提高了很多。
附图说明
图1为本发明方法流程图。
图2为深度学习模型架构图。
具体实施方式
为使本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图作详细说明如下。
本发明的方法流程如图1所示,其包括:
(一)训练阶段:
步骤1:将原始训练语料数据OrgData转化为字符级的语料数据NewData。具体为:采用BMES(Begin,Middle,End,Single)的标记方式,将原始训练语料数据中的带有标签的每个词语按照字符级切分。则位于该词语最开始的字符标记为B,位于该词语中间的字符标记为M,位于该词语末尾的字符标记为E,如果该词语只有一个字符则标记为S。
步骤2:统计NewData中的字符,得到一字符集合CharSet,例如,假设有两个词语为:中华,中国,合并之后的字符集合就为:{中,华,国}。将该字符集合CharSet中每个字符按照自然数增序编号,得到字符集合CharSet对应的字符编号集合CharID。统计NewData中的字符的标签,得到一标签集合LabelSet,也一样将其产生对应的标签编号集合LabelID。标签集合LabelSet一般为{B,M,E,S},产生对应的LabelID,即将标签集合LabelSet中的这些字符转成一个数字来代表,便于程序识别。
步骤3:将NewData按照句子长度划分。设li表示第i句话的句子长度,则将|li-lj|<δ的句子归入一组,其中δ表示句子长度间隔。设分组之后的数据为GroupData,一共设为n组。
步骤4:随机无放回的从GroupData的某组句子中抽取BatchSize句,每一句子的字符构成数据w,该句子的字符对应的标签集合为y,并将抽取的数据w通过CharID转换为对应的编号,得到固定长度的数据BatchData(对应于图2中的w1,w2,…,wn),以及把对应的标签y通过LabelID转换为对应的编号,得到固定长度的数据yID。因为同一组的句子长度接近,相比乱抽取而言,精度提高大约2个百分点。
步骤5:将步骤4的多个数据BatchData及其对应的标签数据yID一起送入深度学习模型,产生损失值Cost(y′,yID)。具体的计算公式如下:
Cost(y′,yID)=-yIDlog(y′)+(1-yID)log(1-y′) (公式1)
其中y′表示BatchData经过深度学习模型分类层(SoftMax层)后的输出。对应于图2中的y1,y2,…,yn。
步骤6:使用Adam梯度下降算法训练深度学习模型的参数。
步骤7:如果深度学习模型产生的Cost(y′,yID)计算得到的损失值不再降低,或者达到最大迭代次数N,则终止深度学习模型的训练;否则跳到步骤4。
其中,Cost′i(y′,yID)表示前i次迭代时的损失值,Cost(y′,yID)表示当前迭代产生的损失值,这个公式表达的意思是如果当前的损失值与前M次损失值的平均值的差小于阈值θ,则认为不再降低。
预测阶段:
步骤1:将待预测的数据PreData转换成与模型匹配的数据格式PreMData。具体为:将待预测的数据转换成字符级的数字数据。
步骤2:将PreMData送入训练阶段训练好的深度学习模型,并得到分词预测结果OrgResult。
训练阶段步骤4所述的:将抽取的数据通过CharID转换为若干个固定长度的数据BatchData,以及把对应的标签通过LabelID转换为若干个固定长度的数据yID。具体为:
步骤1:将抽取到的数据w转换成数字,也即通过CharSet与CharID的对应关系,将w中的每个字符转换成对应的数字。
步骤2:将抽取的数据w对应的标签集合y转换成数字,也即通过LabelSet与LabelID的对应关系,将y中的每个字符转换成对应的数字,得到数据yID。
步骤3:假设规定长度为maxLen,当抽取到的数据句子长度l<maxLen时,将句子后面补maxLen-l个0,得到BatchData;maxLen等于LSTM的单元个数;因为通常只有不到5%的句子长度非常长,如果过分在意那些长的句子的话,那么精度会降低不少(如果出现l≥maxLen的情况,简单的处理方式是直接丢掉,或者将长句子分割成短句子进行处理)。并将w对应的数据yID后面补maxLen-l个0,得到yID。
本发明的深度学习模型架构图如图2所示,训练阶段步骤5所述的:将数据BatchData及其标签数据yID送入深度学习模型,产生损失值Cost(y′,yID),具体为:
步骤1:将传入的数据BatchData在Embedding层进行向量化,也即将每一数据BatchData中的每个字符都通过一字符转向量的向量表Char2Vec转换成字符ID编号对应的向量。向量表Char2Vec中每个字符有一个对应的字符ID编号。
步骤2:将步骤1得到的向量传入LSTM层,详细为:将每条数据BatchData中的第一个字符对应的向量w1传入LSTM层的第一个LSTM单元,第二个字符对应的向量w2传入LSTM层的第二个LSTM单元,依次类推。同时第i个LSTM单元的输入除了每条数据中的第i个字符对应的向量外,还包含第i-1个LSTM单元的输出,即第i-1个LSTM单元的输出结果输入第i个LSTM单元。注意,每个LSTM单元一次接收到的向量并不是只有一个,而是BatchSize个。
步骤3:将每个LSTM单元的输出hi传入DropOut层,也即是随机的将hi中η(0≤η≤1)的数据隐藏掉,不让其继续向后传递。
步骤4:将DropOut的输出传入Conv卷积层进行卷积后,使用ReLU激活函数将卷积层的输出设为ci。
步骤5:与步骤3类似,将Conv层的输出ci传入DropOut层,也即是随机的将ci中η(0≤η≤1)的数据隐藏掉,不让其继续向后传递。
步骤6:将DropOut的输出传入SoftMax层,并将Softmax的输出y′与传入的相应标签数据yID产生最终的损失值Cost(y′,yID),具体的计算见公式1。
预测阶段步骤2所述的深度学习模型,即为训练阶段训练好的深度学习模型,不过在预测时,其中涉及到的DropOut层的参数η=1,表示不隐藏任何数据,全部都传递到下一层。
以上实施仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求书所述为准。
Claims (8)
1.一种基于LSTM-CNN的分词方法,其步骤包括:
1)将训练语料数据OrgData转化为字符级的语料数据NewData;
2)统计该语料数据NewData字符得到一字符集合CharSet,并对该字符集合CharSet中每个字符进行编号,得到该字符集合CharSet对应的字符编号集合CharID;统计NewData中的字符的标签,得到一标签集合LabelSet,对该标签集合LabelSet的标签进行编号,得到对应的标签编号集合LabelID;
3)将NewData按照句子长度划分,得到若干句子;然后根据句子长度对得到的句子进行分组,得到包括n组句子的数据集合GroupData;
4)随机无放回的从该数据集合GroupData中选取一句子分组,从该句子分组中抽取BatchSize个句子,每一个句子的字符构成一数据w,该句子的字符对应的标签集合为y;根据字符编号集合CharID将数据w转换为对应的编号,得到数据BatchData;根据标签编号集合LabelID将集合y中的标签转换为对应的编号,得到数据yID;
5)将步骤4)生成的多个数据BatchData及其对应的标签数据yID一起送入深度学习模型LSTM-CNN,训练该深度学习模型LSTM-CNN的参数,当深度学习模型产生的损失值Cost(y′,yID)满足设定条件或者达到最大迭代次数N,则终止深度学习模型的训练,得到训练后的深度学习模型LSTM-CNN;否则采用步骤4)的方法重新生成数据BatchData训练该深度学习模型LSTM-CNN;
6)将待预测的数据PreData转换成与该深度学习模型LSTM-CNN匹配的数据PreMData,并将其送入训练好的深度学习模型LSTM-CNN,得到分词结果OrgResult。
2.如权利要求1所述的方法,其特征在于,该数据BatchData的长度为一固定长度maxLen,当抽取到的数据句子长度l<maxLen时,将该句子后面补maxLen-l个0,得到BatchData;并将对应的数据yID后面补maxLen-l个0,得到数据yID;其中,maxLen等于该深度学习模型LSTM-CNN中的LSTM单元个数。
3.如权利要求2所述的方法,其特征在于,产生该损失值Cost(y′,yID)的方法为:
31)将数据BatchData在深度学习模型LSTM-CNN的Embedding层进行向量化,将数据BatchData中的每个字符转换成一向量;
32)将各数据BatchData对应的向量传入深度学习模型LSTM-CNN的LSTM层,其中该数据BatchData中的每一字符对应的向量传入LSTM层的一LSTM单元;且第i-1个LSTM单元的输出结果输入第i个LSTM单元;
33)将每个LSTM单元的输出hi传入深度学习模型LSTM-CNN的第一DropOut层;
34)将第一DropOut层的输出传入Conv卷积层进行卷积后,使用ReLU激活函数将卷积层的输出设为ci;
35)将该Conv层的输出ci依次经第二DropOut层、SoftMax层处理后,将得到的输出y′与传入的数据yID一起计算产生损失值Cost(y′,yID)。
4.如权利要求3所述的方法,其特征在于,所述损失值Cost(y′,yID)=-yIDlog(y′)+(1-yID)log(1-y′);其中y′表示数据BatchData经过该SoftMax层后的输出。
5.如权利要求1所述的方法,其特征在于,所述步骤5)中,所述设定条件为:当前计算的损失值Cost(y′,yID)与前m次损失值的平均值的差小于阈值θ。
6.如权利要求1所述的方法,其特征在于,所述步骤2)中,将|li-lj|<δ的句子归入一组;其中,li表示第i句话的句子长度、lj表示第j句话的句子长度,δ表示句子长度间隔。
7.如权利要求1所述的方法,其特征在于,所述步骤1)中,采用BMES的标记方式将该训练语料数据OrgData中的带有标签的每个词语按照字符级切分,将位于词语最开始的字符标记为B,位于词语中间的字符标记为M,位于词语末尾的字符标记为E,如果词语只有一个字符则标记为S。
8.如权利要求1所述的方法,其特征在于,使用Adam梯度下降算法训练该深度学习模型LSTM-CNN的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710946604.9A CN107943783A (zh) | 2017-10-12 | 2017-10-12 | 一种基于lstm‑cnn的分词方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710946604.9A CN107943783A (zh) | 2017-10-12 | 2017-10-12 | 一种基于lstm‑cnn的分词方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107943783A true CN107943783A (zh) | 2018-04-20 |
Family
ID=61935183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710946604.9A Withdrawn CN107943783A (zh) | 2017-10-12 | 2017-10-12 | 一种基于lstm‑cnn的分词方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107943783A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109388806A (zh) * | 2018-10-26 | 2019-02-26 | 北京布本智能科技有限公司 | 一种基于深度学习及遗忘算法的中文分词方法 |
CN110008332A (zh) * | 2019-02-13 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 通过强化学习提取主干词的方法及装置 |
CN110633359A (zh) * | 2019-09-04 | 2019-12-31 | 北京百分点信息科技有限公司 | 语句等价性判断方法和装置 |
WO2021042529A1 (zh) * | 2019-09-02 | 2021-03-11 | 平安科技(深圳)有限公司 | 文章摘要自动生成方法、装置及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070250501A1 (en) * | 2005-09-27 | 2007-10-25 | Grubb Michael L | Search result delivery engine |
CN105740226A (zh) * | 2016-01-15 | 2016-07-06 | 南京大学 | 使用树形神经网络和双向神经网络实现中文分词 |
CN106844345A (zh) * | 2017-02-06 | 2017-06-13 | 厦门大学 | 一种基于参数线性约束的多任务分词方法 |
CN107145484A (zh) * | 2017-04-24 | 2017-09-08 | 北京邮电大学 | 一种基于隐多粒度局部特征的中文分词方法 |
-
2017
- 2017-10-12 CN CN201710946604.9A patent/CN107943783A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070250501A1 (en) * | 2005-09-27 | 2007-10-25 | Grubb Michael L | Search result delivery engine |
CN105740226A (zh) * | 2016-01-15 | 2016-07-06 | 南京大学 | 使用树形神经网络和双向神经网络实现中文分词 |
CN106844345A (zh) * | 2017-02-06 | 2017-06-13 | 厦门大学 | 一种基于参数线性约束的多任务分词方法 |
CN107145484A (zh) * | 2017-04-24 | 2017-09-08 | 北京邮电大学 | 一种基于隐多粒度局部特征的中文分词方法 |
Non-Patent Citations (3)
Title |
---|
GRZEGORZ CHRUPA LA: "Text segmentation with character-level text embeddings", 《WORKSHOP ON DEEP LEARNING FOR AUDIO, SPEECH AND LANGUAGE PROCESSING, ICML 2013》 * |
JASON P.C. CHIU等: "Named Entity Recognition with Bidirectional LSTM-CNNs", 《TRANSACTIONS OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 * |
ONUR KURU等: "CharNER:Character-Level Named Entity Recognition", 《THE 26TH INTERNATIONAL CONFERENCE ON COMPUTATIONAL LINGUISTICS: TECHNICAL PAPERS》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109388806A (zh) * | 2018-10-26 | 2019-02-26 | 北京布本智能科技有限公司 | 一种基于深度学习及遗忘算法的中文分词方法 |
CN109388806B (zh) * | 2018-10-26 | 2023-06-27 | 北京布本智能科技有限公司 | 一种基于深度学习及遗忘算法的中文分词方法 |
CN110008332A (zh) * | 2019-02-13 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 通过强化学习提取主干词的方法及装置 |
WO2021042529A1 (zh) * | 2019-09-02 | 2021-03-11 | 平安科技(深圳)有限公司 | 文章摘要自动生成方法、装置及计算机可读存储介质 |
CN110633359A (zh) * | 2019-09-04 | 2019-12-31 | 北京百分点信息科技有限公司 | 语句等价性判断方法和装置 |
CN110633359B (zh) * | 2019-09-04 | 2022-03-29 | 北京百分点科技集团股份有限公司 | 语句等价性判断方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108959242B (zh) | 一种基于中文字符词性特征的目标实体识别方法及装置 | |
CN108124477B (zh) | 基于伪数据改进分词器以处理自然语言 | |
CN109684642B (zh) | 一种结合页面解析规则和nlp文本向量化的摘要提取方法 | |
CN107797987B (zh) | 一种基于Bi-LSTM-CNN的混合语料命名实体识别方法 | |
CN107885721A (zh) | 一种基于lstm的命名实体识别方法 | |
CN106096664B (zh) | 一种基于社交网络数据的情感分析方法 | |
CN109670041A (zh) | 一种基于双通道文本卷积神经网络的带噪非法短文本识别方法 | |
US20060253274A1 (en) | Methods and systems relating to information extraction | |
CN107943783A (zh) | 一种基于lstm‑cnn的分词方法 | |
CN107894975A (zh) | 一种基于Bi‑LSTM的分词方法 | |
CN107977353A (zh) | 一种基于lstm-cnn的混合语料命名实体识别方法 | |
CN110134946A (zh) | 一种针对复杂数据的机器阅读理解方法 | |
CN107967251A (zh) | 一种基于Bi-LSTM-CNN的命名实体识别方法 | |
CN108021552A (zh) | 一种电力系统操作票内容提取方法及系统 | |
CN109657039B (zh) | 一种基于双层BiLSTM-CRF的工作履历信息抽取方法 | |
CN112966525B (zh) | 一种基于预训练模型和卷积神经网络算法的法律领域事件抽取方法 | |
CN107797988A (zh) | 一种基于Bi‑LSTM的混合语料命名实体识别方法 | |
CN107797986A (zh) | 一种基于lstm‑cnn的混合语料分词方法 | |
CN111709242A (zh) | 一种基于命名实体识别的中文标点符号添加方法 | |
CN107894976A (zh) | 一种基于Bi‑LSTM的混合语料分词方法 | |
CN107844475A (zh) | 一种基于lstm的分词方法 | |
CN107967259A (zh) | 泰语音节切分的方法及装置 | |
CN111159332A (zh) | 一种基于bert的文本多意图识别方法 | |
CN107992467A (zh) | 一种基于lstm的混合语料分词方法 | |
Ayifu et al. | Multilingual named entity recognition based on the BiGRU-CNN-CRF hybrid model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180420 |
|
WW01 | Invention patent application withdrawn after publication |