CN112686044A - 一种基于语言模型的医疗实体零样本分类方法 - Google Patents

一种基于语言模型的医疗实体零样本分类方法 Download PDF

Info

Publication number
CN112686044A
CN112686044A CN202110063300.4A CN202110063300A CN112686044A CN 112686044 A CN112686044 A CN 112686044A CN 202110063300 A CN202110063300 A CN 202110063300A CN 112686044 A CN112686044 A CN 112686044A
Authority
CN
China
Prior art keywords
entity
mask
ids
model
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110063300.4A
Other languages
English (en)
Inventor
张文龙
叶琪
阮彤
薛魁
翟洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China University of Science and Technology
Original Assignee
East China University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China University of Science and Technology filed Critical East China University of Science and Technology
Priority to CN202110063300.4A priority Critical patent/CN112686044A/zh
Publication of CN112686044A publication Critical patent/CN112686044A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本发明提出了一个新的基于语言模型的医疗实体零样本分类方法。该方法将实体分类问题通过构造自然语言的query转换为一种完型填空问题;之后利用预训练的医疗bert模型求出上述完型填空问题的答案,实现零样本的分类。该方法从到预训练医疗bert模型开始,使用医疗预训练语料训练bert模型得到预训练医疗bert模型。然后根据待识别的实体类别构造相应的完型填空模板,对实体分类问题测试集中每个句子中的每个实体利用所述构造的完型填空模板,生成完型填空问题。将所述完型填空问题使用预训练医疗bert模型预测每个完形填空问题的概率值,取其中概率值最大的类别作为实体对应的类别。本方法在CCKS2019数据集Precision达到85.60,Recall达到85.60,F‑score达到85.60。

Description

一种基于语言模型的医疗实体零样本分类方法
技术领域
本发明涉及一种实体分类技术,尤其涉及一种基于语言模型的医疗实体零样本分类方法。
背景技术
医疗健康领域信息抽取与人们的生活息息相关,随着科技的发展,医疗文本数量急剧增加,仅靠人力已远远无法满足医疗实体识别的需求。因此,医疗文本中的医疗实体分类,成为目前医疗健康领域的热点问题。医疗实体分类是理解语言的重要一步,医疗实体分类结果的好坏,对后续的问答系统等自然语言处理任务的结果有着很大的影响。医疗实体分类任务的目标是给定一个实体以及其所在医疗文本的上下文,把该实体分类到预先定义好的分类体系之中。
近年来随着深度学习技术取得的重大突破,相关的技术被广泛应用于自然语言处理领域(NLP,Natural Language Processing)中,例如BiLSTM+CRF、BERT等。但是,目前大多实体分类问题都需要大量的训练语料来训练模型,而语料的标注质量,语料的多少都很大程度上影响了训练后模型的准确性。另一方面,预料的标注也是一个费时费力的活。
发明内容
针对现有技术中的实体分类方案中所存在的不足,本发明提供了一种基于语言模型的医疗实体零样本分类方法,只需要训练医疗领域的bert模型,就可实现不需要标注实体分类训练语料的零样本的实体分类。
本发明采用以下技术方案:
一种基于语言模型的医疗实体零样本分类方法,包括如下步骤:
S1:使用预训练语料训练bert模型得到预训练医疗bert模型;
S2:根据待识别实体的类别构造相应的完型填空的模板;
S3:对实体分类问题测试集中每个句子中的每个实体利用所述构造的完型填空模板,生成完型填空问题;
S4:将所述完型填空问题使用预训练医疗bert模型预测每个完形填空问题的概率值,取其中概率值最大的类别作为实体对应的类别。
具体的,S1中预先训练医疗bert模型包括如下步骤:
S11:准备预训练bert模型需要的语料以及对应的词典,读取每个文件,对每篇文章进行正则分句后存储到texts列表中。对于texts中的每一个text,使用jieba分词进行分词处理,得到分词结果words列表,为每个词对应的生成一个0~1之间的随机数。遍历所有的words,对word使用bert分词器按词典中存在的字符分成更小的字符即:word_tokens,并得到对应词典中的word_token_ids,把word_token_ids追加到该单句的token_ids中。设置mask_rate=0.15,比较该word的rand值与mask_rate的大小。如果rand值大于或等于mask_rate,表示当前word不被mask掉,则每个字符对应的word_mask_ids都是0;如果rand值小于mask_rate,则依次处理每个字符,以80%的几率替换为[MASK],以10%的几率保持不变,以10%的几率替换为一个随机token,得到token_ids,mask_ids,对token_ids和mask_ids最多取前510个字符,然后在开头和结尾增加[CLS]和[SEP],如果当前token_ids与instance的长度之和大于512则对其进行截断,反之则进行padding,变为长度为512,放入到instances中。把处理好token_ids与instance的数据包含写入tfrecord;
S12:构建模型输入接口,ID序列:ids,句子序列segments_ids,位置序列:pos,掩盖矩阵:mask(其中mask用全1表示);
S13:构建词嵌入层token_emb、位置嵌入层pos_emb、句子嵌入层segments_emb,分别通过词向量矩阵Wtoken、位置向量矩阵Wpos、句子类型向量矩阵Wsegments,将对应的序列转换成对应的特征矩阵;
S14:构建12层二维掩盖矩阵的多头注意力层multi_head_2D_maski,公式为:
Figure BDA0002903516310000031
Figure BDA0002903516310000032
S15:构建逆嵌入层reverse_emb,将特征矩阵逆向转换成对应单词的概率分布,具体公式为:
Figure BDA0002903516310000033
S16:根据输入接口ids、segments_ids、pos、mask,以及token_emb、pos_emb、segments_emb、multi_head_2D_maski、reverse_emb,依次构建模型计算图,并计算输出单词序列的概率分布p_pred:
emb=ln(add(tokenemb(ids),pos_emb(pos),mask_emb(mask)))
Figure BDA0002903516310000034
Figure BDA0002903516310000035
Figure BDA0002903516310000036
Figure BDA0002903516310000037
S17:根据所构建的ids、segments_ids、pos、mask,输入所述的模型,计算得到模型的实际输出p_pred,根据所构建的output和所述的p_pred,通过交叉熵计算得到模型对当前批次数据的loss,设置模型batch_size为4069,learning_rate为0.00176,weight_decay_rate为0.01,并对模型中的参数求导得到梯度,使用Adam优化器,更新模型中的参数,得到预训练模型。
具体的,步骤S2中构造待识别实体的类别的完型填空的模板过程包括如下步骤:
S21:构造待识别实体的类别列表list;
S22:定义完型填空问题:
P(W|Smask)
其中W表示的是一个分类类别,Smask表示的是一段带MASK位的文本,P(W|Smask)表示把W填入Smask中MASK位置的概率;
S23:对类别列表list中的每一个类别分别构造带上下文和不带上下文的完型填空模板,完型填空模板包含待识别实体的一段文本[text],待识别的实体[entity]以及待识别实体的类别[type];
其中,带上下文关系的模板表示为:
S1(text,entity,type)=[text],上文中的[entity]是一种[mask],
W1(type)=[type]
不带上下文的模板表示为:
S2(entity,type)=[entity]是一种[mask]。
W2(type)=[type]。
具体的,步骤S3中使用完型填空模板生成完型填空问题的过程包括如下步骤:
S31:把实体分类问题测试集中的每个句子作为text,然后标记句子中的所有实体以及该实体在句子中位置,得到训练和测试的原始数据,其格式为:
{text:some text,entities[type,startpos,endpos,entity]}
其中text表示的是一个句子,type表示的是实体的类别,startpos表示该实体在句子中的开始位置,endpos表示该实体在句子中的结束位置,entity表示待识别的实体,其中,一个句子中可能包含多个实体;
S32:对于S31数据中的每个句子text中的每个实体使用所述构造的完型填空模板生成完型填空问题,其中,每一个实体要生成N个完型填空问题,N为事先构造的实体的类别的数量。
具体的,步骤S4中预测完型填空问题概率的过程包括如下步骤:
S41:定义分类模型,模型架构为S1中的bert模型架构;
S42:对S3中的完型填空问题进行序列化,并转变为id表示;
S43:构建输入token_ids=[CLS]+[x]n+[SEP]+[0]s_max-n-2,其中[CLS]为开始符号对应的ID,[x]n为医疗文本序列化后对应的Token ID序列,[SEP]为结束符号对应的ID,[0]s_max-n-2用于将不定长的医疗文本序列通过补0的方式,补成定长序列,s_max为输入序列长度,句子序列segment_ids=[0,……,0]s_max,句子序列为s_max维的向量,类型序列用于区分同时输入模型的两个句子,第一个句子的特征值设为0、第二个句子的特征值设为1,句子类型全设置为0;
输出序列output_ids=[0,……entity1,…,entityn0]s_max,输出序列为s_max维的向量,其中entityn表示实体类别对应id;
S44:token_ids、segment_ids和output_idss作为模型的输入,
模型输出为完型填空问题每个字符的概率:
P(xi|xi∈S)
其中,S表示输入的句子,xi表示中的一个字符;
S46:把这个概率序列转换为完型填空输出的概率值,其转换公式为:
Figure BDA0002903516310000051
S47:将同一个实体构造了N个完型填空问题,对这N个完型填空问题输入模型,模型输出N个概率值,最后取其中概率值最大的完型填空问题所对应的类别作为该实体最终对应的类别。
S44:S3中对与同一个实体构造了N个完型填空问题,其中,N为事先构造的实体的类别的数量,对这N个完型填空问题输入模型,模型输出N个概率值,最后取其中概率值最大的完型填空问题所对应的类别作为该实体最终对应的类别。
与现有技术相比,本发明具有以下优点或者有益效果:将实体分类问题通过构造自然语言的query转换为一种完型填空问题,把分类问题转换为完形填空问题。另一方面,不需要标注训练数据,无需训练模型,只需要构造对应实体分类的完型填空问题就可实现实体分类。本方法在CCKS2019数据集上Precision达到85.60,Recall达到85.60,F-score达到85.60。
附图说明
读者在参照附图阅读了本发明的具体实施方式以后,将会更清楚地了解本发明的各个方面。
图1示出依据本发明的一实施方式,基于语言模型的医疗实体零样本分类方法的流程框图。
具体实施方式
为了使本申请所揭示的技术内容更加详尽与完备,可参照附图以及本发明的下述各种具体实施例,附图中相同的标记代表相同或相似的组件。然而,本领域的普通技术人员应当理解,下文中所提供的实施例并非用来限制本发明所涵盖的范围。此外,附图仅仅用于示意性地加以说明,并未依照其原尺寸进行绘制。
下面参照附图,对本发明各个方面的具体实施方式作进一步的详细描述。
图1示出依据本发明的一实施方式,一种基于语言模型的医疗实体零样本分类方法,包括如下步骤:
S1:使用预训练语料训练bert模型得到预训练医疗bert模型;
S2:根据待识别实体的类别构造相应的完型填空的模板;
S3:对实体分类问题测试集中每个句子中的每个实体利用所述构造的完型填空模板,生成完型填空问题;
S4:将所述完型填空问题使用预训练医疗bert模型预测每个完形填空问题的概率值,取其中概率值最大的类别作为实体对应的类别。
具体的,S1中预先训练医疗bert模型包括如下步骤:
S11:准备预训练bert模型需要的语料以及对应的词典,读取每个文件,对每篇文章进行正则分句后存储到texts列表中。对于texts中的每一个text,使用jieba分词进行分词处理,得到分词结果words列表,为每个词对应的生成一个0~1之间的随机数。遍历所有的words,对word使用bert分词器按词典中存在的字符分成更小的字符即:word_tokens,并得到对应词典中的word_token_ids,把word_token_ids追加到该单句的token_ids中。设置mask_rate=0.15,比较该word的rand值与mask_rate的大小。如果rand值大于或等于mask_rate,表示当前word不被mask掉,则每个字符对应的word_mask_ids都是0;如果rand值小于mask_rate,则依次处理每个字符,以80%的几率替换为[MASK],以10%的几率保持不变,以10%的几率替换为一个随机token,得到token_ids,mask_ids,对token_ids和mask_ids最多取前510个字符,然后在开头和结尾增加[CLS]和[SEP],如果当前token_ids与instance的长度之和大于512则对其进行截断,反之则进行padding,变为长度为512,放入到instances中。把处理好token_ids与instance的数据包含写入tfrecord;
S12:构建模型输入接口,ID序列:ids,句子序列segments_ids,位置序列:pos,掩盖矩阵:mask(其中mask用全1表示);
S13:构建词嵌入层token_emb、位置嵌入层pos_emb、句子嵌入层segments_emb,分别通过词向量矩阵Wtoken、位置向量矩阵Wpos、句子类型向量矩阵Wsegments,将对应的序列转换成对应的特征矩阵;
S14:构建12层二维掩盖矩阵的多头注意力层multi_head_2D_maski,公式为:
Figure BDA0002903516310000071
Figure BDA0002903516310000072
S15:构建逆嵌入层reverse_emb,将特征矩阵逆向转换成对应单词的概率分布,具体公式为:
Figure BDA0002903516310000073
S16:根据输入接口ids、segments_ids、pos、mask,以及token_emb、pos_emb、segments_emb、multi_head_2D_maski、reverse_emb,依次构建模型计算图,并计算输出单词序列的概率分布p_pred:
emb=ln(add(tokenemb(ids),pos_emb(pos),mask_emb(mask)))
Figure BDA0002903516310000074
Figure BDA0002903516310000075
Figure BDA0002903516310000076
Figure BDA0002903516310000077
S17:根据所构建的ids、segments_ids、pos、mask,输入所述的模型,计算得到模型的实际输出p_pred,根据所构建的output和所述的p_pred,通过交叉熵计算得到模型对当前批次数据的loss,设置模型batch_size为4069,learning_rate为0.00176,weight_decay_rate为0.01,并对模型中的参数求导得到梯度,使用Adam优化器,更新模型中的参数,得到预训练模型。
具体的,步骤S2中构造待识别实体的类别的完型填空的模板过程包括如下步骤:
S21:构造待识别实体的类别列表list;
S22:定义完型填空问题:
P(W|Smask)
其中W表示的是一个分类类别,Smask表示的是一段带MASK位的文本,P(W|Smask)表示把W填入Smask中MASK位置的概率;
S23:对类别列表list中的每一个类别分别构造带上下文和不带上下文的完型填空模板,完型填空模板包含待识别实体的一段文本[text],待识别的实体[entity]以及待识别实体的类别[type];
其中,带上下文关系的模板表示为:
S1(text,entity,type)=[text],上文中的[entity]是一种[mask],
W1(type)=[type]
不带上下文的模板表示为:
S2(entity,type)=[entity]是一种[mask]。
W2(type)=[type]。
具体的,步骤S3中使用完型填空模板生成完型填空问题的过程包括如下步骤:
S31:把实体分类问题测试集中的每个句子作为text,然后标记句子中的所有实体以及该实体在句子中位置,得到训练和测试的原始数据,其格式为:
{text:some text,entities[type,startpos,endpos,entity]}
其中text表示的是一个句子,type表示的是实体的类别,startpos表示该实体在句子中的开始位置,endpos表示该实体在句子中的结束位置,entity表示待识别的实体,其中,一个句子中可能包含多个实体;
S32:对于S31数据中的每个句子text中的每个实体使用所述构造的完型填空模板生成完型填空问题,其中,每一个实体要生成N个完型填空问题,N为事先构造的实体的类别的数量。
具体的,步骤S4中预测完型填空问题概率的过程包括如下步骤:
S41:定义分类模型,模型架构为S1中的bert模型架构;
S42:对S3中的完型填空问题进行序列化,并转变为id表示;
S43:构建输入token_ids=[CLS]+[x]n+[SEP]+[0]s_max-n-2,其中[CLS]为开始符号对应的ID,[x]n为医疗文本序列化后对应的Token ID序列,[SEP]为结束符号对应的ID,[0]s_max-n-2用于将不定长的医疗文本序列通过补0的方式,补成定长序列,s_max为输入序列长度,句子序列segment_ids=[0,……,0]s_max,句子序列为s_max维的向量,类型序列用于区分同时输入模型的两个句子,第一个句子的特征值设为0、第二个句子的特征值设为1,句子类型全设置为0;
输出序列output_ids=[0,……entity1,…,entityn0]s_max,输出序列为s_max维的向量,其中entityn表示实体类别对应id;
S44:token_ids、segment_ids和output_idss作为模型的输入,
模型输出为完型填空问题每个字符的概率:
P(xi|xi∈S)
其中,S表示输入的句子,xi表示中的一个字符;
S46:把这个概率序列转换为完型填空输出的概率值,其转换公式为:
Figure BDA0002903516310000091
S47:将同一个实体构造了N个完型填空问题,对这N个完型填空问题输入模型,模型输出N个概率值,最后取其中概率值最大的完型填空问题所对应的类别作为该实体最终对应的类别。
S44:S3中对与同一个实体构造了N个完型填空问题,其中,N为事先构造的实体的类别的数量,对这N个完型填空问题输入模型,模型输出N个概率值,最后取其中概率值最大的完型填空问题所对应的类别作为该实体最终对应的类别。
综上所述,使用对本发明提出了一种基于语言模型的医疗实体零样本分类方法,将实体分类问题通过构造自然语言的query转换为一种完型填空问题。利用语言模型预测完型填空问题答案概率,求出完型填空问题答案作为实体类别。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (5)

1.一种基于语言模型的医疗实体零样本分类方法,其特征在于,包括如下步骤:
S1:使用预训练语料训练bert模型得到预训练医疗bert模型;
S2:根据待识别实体的类别构造相应的完型填空的模板;
S3:对实体分类问题测试集中每个句子中的每个实体利用所述构造的完型填空模板,生成完型填空问题;
S4:将所述完型填空问题使用预训练医疗bert模型预测每个完形填空问题的概率值,取其中概率值最大的类别作为实体对应的类别。
2.如权利要求1所述的基于语言模型的医疗实体零样本分类方法,其特征在于,所述步骤S1中,预先训练医疗bert模型包括如下步骤:
S11:准备预训练bert模型需要的语料以及对应的词典,读取每个文件,对每篇文章进行正则分句后存储到texts列表中。对于texts中的每一个text,使用jieba分词进行分词处理,得到分词结果words列表,为每个词对应的生成一个0~1之间的随机数。遍历所有的words,对word使用bert分词器按词典中存在的字符分成更小的字符即:word_tokens,并得到对应词典中的word_token_ids,把word_token_ids追加到该单句的token_ids中。设置mask_rate=0.15,比较该word的rand值与mask_rate的大小。如果rand值大于或等于mask_rate,表示当前word不被mask掉,则每个字符对应的word_mask_ids都是0;如果rand值小于mask_rate,则依次处理每个字符,以80%的几率替换为[MASK],以10%的几率保持不变,以10%的几率替换为一个随机token,得到token_ids,mask_ids,对token_ids和mask_ids最多取前510个字符,然后在开头和结尾增加[CLS]和[SEP],如果当前token_ids与instance的长度之和大于512则对其进行截断,反之则进行padding,变为长度为512,放入到instances中。把处理好token_ids与instance的数据包含写入tfrecord;
S12:构建模型输入接口,ID序列:ids,句子序列segments_ids,位置序列:pos,掩盖矩阵:mask(其中mask用全1表示);
S13:构建词嵌入层token_emb、位置嵌入层pos_emb、句子嵌入层segments_emb,分别通过词向量矩阵Wtoken、位置向量矩阵Wpos、句子类型向量矩阵Wsegments,将对应的序列转换成对应的特征矩阵;
S14:构建12层二维掩盖矩阵的多头注意力层multi_head_2D_maski,公式为:
Figure FDA0002903516300000011
Figure FDA0002903516300000012
S15:构建逆嵌入层reverse_emb,将特征矩阵逆向转换成对应单词的概率分布,具体公式为:
Figure FDA0002903516300000013
S16:根据输入接口ids、segments_ids、pos、mask,以及token_emb、pos_emb、segments_emb、multi_head_2D_maski、reverse_emb,依次构建模型计算图,并计算输出单词序列的概率分布p_pred:
emb=ln(add(tokenemb(ids),pos_emb(pos),mask_emb(mask)))
Figure FDA0002903516300000021
Figure FDA0002903516300000022
Figure FDA0002903516300000023
Figure FDA0002903516300000024
S17:根据所构建的ids、segments_ids、pos、mask,输入所述的模型,计算得到模型的实际输出p_pred,根据所构建的output和所述的p_pred,通过交叉熵计算得到模型对当前批次数据的loss,设置模型batch_size为4069,learning_rate为0.00176,weight_decay_rate为0.01,并对模型中的参数求导得到梯度,使用Adam优化器,更新模型中的参数,得到预训练模型。
3.如权利要求1所述的基于语言模型的医疗实体零样本分类方法,其特征在于,所述步骤S2中,构造待识别实体的类别的完型填空的模板过程包括如下步骤:
S21:构造待识别实体的类别列表list;
S22:定义完型填空问题:
P(W|Smask)
其中W表示的是一个分类类别,Smask表示的是一段带MASK位的文本,P(W|Smask)表示把W填入Smask中MASK位置的概率;
S23:对类别列表list中的每一个类别分别构造带上下文和不带上下文的完型填空模板,完型填空模板包含待识别实体的一段文本[text],待识别的实体[entity]以及待识别实体的类别[type];
其中,带上下文关系的模板表示为:
S1(text,entity,type)=[text],上文中的[entity]是一种[mask],
W1(type)=[type]
不带上下文的模板表示为:
S2(entity,type)=[entity]是一种[mask]。
W2(type)=[type]。
4.如权利要求1所述的基于语言模型的医疗实体零样本分类方法,其特征在于,所述步骤S3包括如下步骤:
S31:把实体分类问题测试集中的每个句子作为text,然后标记句子中的所有实体以及该实体在句子中位置,得到训练和测试的原始数据,其格式为:
{text:some text,entities[type,startpos,endpos,entity]}
其中text表示的是一个句子,type表示的是实体的类别,startpos表示该实体在句子中的开始位置,endpos表示该实体在句子中的结束位置,entity表示待识别的实体,其中,一个句子中可能包含多个实体;
S32:对于S31数据中的每个句子text中的每个实体使用所述构造的完型填空模板生成完型填空问题,其中,每一个实体要生成N个完型填空问题,N为事先构造的实体的类别的数量。
5.如权利要求1所述的基于语言模型的医疗实体零样本分类方法,其特征在于,所述步骤S4包括如下步骤:
S41:定义分类模型,模型架构为S1中的bert模型架构;
S42:对S3中的完型填空问题进行序列化,并转变为id表示;
S43:构建输入token_ids=[CLS]+[x]n+[SEP]+[0]s_max-n-2,其中[CLS]为开始符号对应的ID,[x]n为医疗文本序列化后对应的Token ID序列,[SEP]为结束符号对应的ID,[0]s_max-n-2用于将不定长的医疗文本序列通过补0的方式,补成定长序列,s_max为输入序列长度,句子序列segment_ids=[0,……,0]s_max,句子序列为s_max维的向量,类型序列用于区分同时输入模型的两个句子,第一个句子的特征值设为0、第二个句子的特征值设为1,句子类型全设置为0;
输出序列output_ids=[0,……entity1,…,entityn0]s_max,输出序列为s_max维的向量,其中entityn表示实体类别对应id;
S44:token_ids、segment_ids和output_idss作为模型的输入,
模型输出为完型填空问题每个字符的概率:
P(xi|xi∈S)
其中,S表示输入的句子,xi表示中的一个字符;
S46:把这个概率序列转换为完型填空输出的概率值,其转换公式为:
Figure FDA0002903516300000031
S47:将同一个实体构造了N个完型填空问题,对这N个完型填空问题输入模型,模型输出N个概率值,最后取其中概率值最大的完型填空问题所对应的类别作为该实体最终对应的类别。
CN202110063300.4A 2021-01-18 2021-01-18 一种基于语言模型的医疗实体零样本分类方法 Pending CN112686044A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110063300.4A CN112686044A (zh) 2021-01-18 2021-01-18 一种基于语言模型的医疗实体零样本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110063300.4A CN112686044A (zh) 2021-01-18 2021-01-18 一种基于语言模型的医疗实体零样本分类方法

Publications (1)

Publication Number Publication Date
CN112686044A true CN112686044A (zh) 2021-04-20

Family

ID=75458476

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110063300.4A Pending CN112686044A (zh) 2021-01-18 2021-01-18 一种基于语言模型的医疗实体零样本分类方法

Country Status (1)

Country Link
CN (1) CN112686044A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113961705A (zh) * 2021-10-29 2022-01-21 聚好看科技股份有限公司 一种文本分类方法及服务器
CN114201603A (zh) * 2021-11-04 2022-03-18 阿里巴巴(中国)有限公司 实体分类方法、装置、存储介质、处理器及电子装置
CN114757176A (zh) * 2022-05-24 2022-07-15 上海弘玑信息技术有限公司 一种获取目标意图识别模型的方法以及意图识别方法
CN115081428A (zh) * 2022-07-22 2022-09-20 粤港澳大湾区数字经济研究院(福田) 一种处理自然语言的方法、自然语言处理模型、设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840322A (zh) * 2018-11-08 2019-06-04 中山大学 一种基于强化学习的完形填空型阅读理解分析模型及方法
CN110083831A (zh) * 2019-04-16 2019-08-02 武汉大学 一种基于BERT-BiGRU-CRF的中文命名实体识别方法
CN111444721A (zh) * 2020-05-27 2020-07-24 南京大学 一种基于预训练语言模型的中文文本关键信息抽取方法
CN112016314A (zh) * 2020-09-17 2020-12-01 汪秀英 一种基于bert模型的医疗文本理解方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840322A (zh) * 2018-11-08 2019-06-04 中山大学 一种基于强化学习的完形填空型阅读理解分析模型及方法
CN110083831A (zh) * 2019-04-16 2019-08-02 武汉大学 一种基于BERT-BiGRU-CRF的中文命名实体识别方法
CN111444721A (zh) * 2020-05-27 2020-07-24 南京大学 一种基于预训练语言模型的中文文本关键信息抽取方法
CN112016314A (zh) * 2020-09-17 2020-12-01 汪秀英 一种基于bert模型的医疗文本理解方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FCD_ABC: "NER命名实体识别+bert的医疗实体及事件抽取", pages 1 - 2, Retrieved from the Internet <URL:https://blog.csdn.net/fcd_abc/article/details/106448081> *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113961705A (zh) * 2021-10-29 2022-01-21 聚好看科技股份有限公司 一种文本分类方法及服务器
CN114201603A (zh) * 2021-11-04 2022-03-18 阿里巴巴(中国)有限公司 实体分类方法、装置、存储介质、处理器及电子装置
CN114757176A (zh) * 2022-05-24 2022-07-15 上海弘玑信息技术有限公司 一种获取目标意图识别模型的方法以及意图识别方法
CN115081428A (zh) * 2022-07-22 2022-09-20 粤港澳大湾区数字经济研究院(福田) 一种处理自然语言的方法、自然语言处理模型、设备

Similar Documents

Publication Publication Date Title
CN112686044A (zh) 一种基于语言模型的医疗实体零样本分类方法
CN111046946B (zh) 基于crnn的缅甸语图像文本识别方法
CN111985239B (zh) 实体识别方法、装置、电子设备及存储介质
CN107943784B (zh) 基于生成对抗网络的关系抽取方法
CN111444721A (zh) 一种基于预训练语言模型的中文文本关键信息抽取方法
CN107729309A (zh) 一种基于深度学习的中文语义分析的方法及装置
CN111966917A (zh) 一种基于预训练语言模型的事件检测与摘要方法
CN108647191B (zh) 一种基于有监督情感文本和词向量的情感词典构建方法
CN112149421A (zh) 一种基于bert嵌入的软件编程领域实体识别方法
CN111611775B (zh) 一种实体识别模型生成方法、实体识别方法及装置、设备
CN109657061B (zh) 一种针对海量多词短文本的集成分类方法
CN112905736B (zh) 一种基于量子理论的无监督文本情感分析方法
CN110852110A (zh) 目标语句提取方法、问题生成方法以及信息处理设备
CN116070602B (zh) 一种pdf文档智能标注与抽取方法
CN113158656B (zh) 讽刺内容识别方法、装置、电子设备以及存储介质
CN115392256A (zh) 一种基于语义分割的药物不良事件关系抽取方法
CN111695053A (zh) 序列标注方法、数据处理设备、可读存储介质
CN114780582A (zh) 基于表格问答的自然答案生成系统及其方法
CN115935914A (zh) 一种入院记录缺失文本补充方法
CN111444720A (zh) 一种英文文本的命名实体识别方法
CN114611520A (zh) 一种文本摘要生成方法
CN116304023A (zh) 一种基于nlp技术的招投标要素抽取方法、系统及存储介质
CN115659989A (zh) 基于文本语义映射关系的Web表格异常数据发现方法
CN110909546B (zh) 一种文本数据的处理方法、装置、设备及介质
CN114911940A (zh) 文本情感识别方法及装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination