CN113780006A - 医学语义匹配模型的训练方法、医学知识匹配方法及装置 - Google Patents
医学语义匹配模型的训练方法、医学知识匹配方法及装置 Download PDFInfo
- Publication number
- CN113780006A CN113780006A CN202111136021.2A CN202111136021A CN113780006A CN 113780006 A CN113780006 A CN 113780006A CN 202111136021 A CN202111136021 A CN 202111136021A CN 113780006 A CN113780006 A CN 113780006A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- text
- semantic
- medical
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 121
- 238000000034 method Methods 0.000 title claims abstract description 52
- 239000013598 vector Substances 0.000 claims abstract description 145
- 238000004458 analytical method Methods 0.000 claims abstract description 60
- 230000006870 function Effects 0.000 claims abstract description 28
- 238000001514 detection method Methods 0.000 claims description 40
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012163 sequencing technique Methods 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 9
- 230000002087 whitening effect Effects 0.000 claims description 7
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 6
- 241000191967 Staphylococcus aureus Species 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 206010036790 Productive cough Diseases 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 5
- 210000003802 sputum Anatomy 0.000 description 5
- 208000024794 sputum Diseases 0.000 description 5
- 230000000873 masking effect Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241000191940 Staphylococcus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了医学语义匹配模型的训练方法、医学知识匹配方法及装置,该方法包括:在模型训练过程中,使用医学领域的文本对预训练语言模型进行语义训练,得到医学语义分析模型。通过医学语义分析模型的编码器生成每个样本对的两个第一句子级语义向量,再计算转换得到的两个第一句子级语义向量间的相似度,根据第二损失函数计算第二损失值并调整医学语义分析模型中的参数,以得到医学语义匹配模型。在应用过程中,通过文本库建立向量化知识库,再根据需求自行选择需要的模型并结合向量化知识库来进行高精度的匹配或粗精度的匹配,最后基于匹配结果及向量化知识库内的索引完成对匹配结果的输出,这样用户就快速找对与待匹配文本相关联的医学知识。
Description
技术领域
本发明涉及大数据技术领域,尤其是涉及医学语义匹配模型的训练方法、医学知识匹配方法及装置。
背景技术
目前大量的文本数据仍缺乏高效率的管理方式,主要还是依赖专家系统来人为管理。专家系统需要依靠临床分析师对文本数据进行阅读,定位业务中所需要的知识点,再把整理好的知识点与相关的项目关联起来。这种方法投入的人力成本高,效率低,速度慢且缺乏规划。
在当今自然语言处理领域,预训练语言模型开创了研究的新范式,刷新了多项自然语言处理任务的最好水平。预训练语言模型即先基于大量无监督语料进行语言模型预训练(Pre-training),再使用少量标注语料进行微调(Fine-tuning)来完成文本分类、序列标注、机器翻译、阅读理解等下游NLP(自然语言处理,Neuro-Linguistic Programming)任务。目前的预训练语言模型虽然在一般通用领域内表现较好,但由于其基于的大规模语料并非针对某一特定领域,所以目前常用的预训练语言模型无法很好的解决专业领域内的自然语言处理问题。在医学领域,这一缺点尤为严重,因为医学领域专业性极强,并且在医学领域使用深度学习模型的容错程度更低,所以目前常用的预训练语言模型如BERT等,在医学领域的适用性并不好,并不能很好的完成医学知识匹配任务。
发明内容
基于此,有必要针对上述问题,提供适用于医学领域的医学语义匹配模型的训练方法、医学知识匹配方法及装置。
一种医学语义匹配模型的训练方法,方法包括:
获取第一文本知识库和预训练语言模型,对第一文本知识库的文本进行实体全词覆盖,得到语义训练样本;第一文本数据库的文本包括多个检测报告文本和知识条目,实体全词覆盖用于隐藏文本中的至少一个词汇;
使用语义训练样本对预训练语言模型进行语义训练,以预测在语义训练样本的覆盖位置处的词汇补全结果,根据词汇补全结果和第一损失函数计算第一损失值,根据第一损失值调整预训练语言模型中的参数,得到训练后的医学语义分析模型,预训练语言模型包括编码器和第一输出层,编码器用于提取语义向量,第一输出层用于根据编码器输出的语义向量输出词汇补全结果;
获取多个样本对,多个样本对包括正样本对和负样本对,一个正样本对包括一个检测报告和一个匹配的知识条目,一个负样本对包括一个检测报告和一个不匹配的知识条目;
通过医学语义分析模型中的编码器生成每个样本对的两组词语级语义向量,对每个样本对的两组词语级语义向量进行降维,得到每个样本对的两个第一句子级语义向量;两组词语级语义向量包括检测报告对应的一组词语级语义向量和知识条目对应的一组词语级语义向量,一组词语级语义向量包括多个词语级语义向量,一个词语级语义向量为一个字对应的多维度语义向量;
通过与医学语义分析模型中编码器连接的第二输出层计算每个样本对的两个第一句子级语义向量间的相似度,根据相似度和第二损失函数计算第二损失值,根据第二损失值调整医学语义分析模型中编码器和第二输出层的参数,以增大正样本对的两个第一句子级语义向量间的相似度,且减小负样本对的两个第一句子级语义向量间的相似度,以得到训练后的医学语义匹配模型。
在其中一个实施例中,对第一文本知识库的文本进行实体全词覆盖,得到语义训练样本,包括:
获取医学标准术语库,医学标准术语库包括多个医学标准术语;
以词汇为单位对第一文本知识库中的文本进行分词,得到分词结果;
根据医学标准术语库,用覆盖标签对分词结果中的医学标准术语进行覆盖,得到语义训练样本。
在其中一个实施例中,对第一文本知识库的文本进行实体全词覆盖,得到语义训练样本,包括:
当每进行一轮语义训练时,随机对第一文本知识库的文本进行实体全词覆盖,其中一个目标文本中覆盖的实体词汇的字数与目标文本的字数的比值大于预设的第一比值,目标文本为任一文本。
在其中一个实施例中,对每个样本对的两组词语级语义向量进行降维,得到每个样本对的两个第一句子级语义向量,包括:
对每个样本对的两组词语级语义向量分别在预设的维度上取平均值,得到每个样本对的两个第一句子级语义向量。
在其中一个实施例中,第一损失函数为负对数拟然损失函数,预训练语言模型中的参数包括预训练语言模型中编码器的参数和第一输出层的参数。
在其中一个实施例中,第二损失函数为三重损失函数。
一种医学知识匹配方法,应用如权利要求1的医学语义分析模型和医学语义匹配模型,方法包括:
获取向量化知识库,向量化知识库包括多个向量化知识,一个向量化知识由医学语义分析模型中的编码器对第二文本知识库中的一个知识条目转换得到,第二文本知识库包括若干知识条目,一个向量化知识通过一个索引与第二文本知识库的一个知识条目关联;
当进行第一匹配标准的知识匹配时,通过医学语义分析模型的编码器将待匹配文本转换为向量化待匹配文本,将向量化待匹配文本和目标向量化知识输入医学语义匹配模型,输出所有向量化知识与待匹配文本的匹配度,目标向量化知识为向量化知识库中的任一向量化知识;
当进行第二匹配标准的知识匹配时,在向量化知识库内对向量化检索文本进行相似度计算,输出所有向量化知识与待匹配文本的匹配度;其中第一匹配标准对准确率的要求大于第二匹配标准;
根据匹配度对所有向量化知识进行排序,根据得到的排序结果和索引从第二文本知识库中输出第三预设数量的知识条目作为待匹配文本的医学知识匹配结果。
在其中一个实施例中,获取向量化知识库,包括:
通过医学语义分析模型将第二文本知识库中的每个知识条目均转化为一组词语级语义向量,对每组词语级语义向量进行降维,得到多个第二句子级语义向量;
对多个第二句子级语义向量分别进行白化操作,得到向量化知识库。
一种医学语义匹配模型的训练装置,装置包括:
医学语义分析模型训练模块,用于获取第一文本知识库和预训练语言模型,对第一文本知识库的文本进行实体全词覆盖,得到语义训练样本;第一文本数据库的文本包括多个检测报告文本和知识条目,实体全词覆盖用于隐藏文本中的至少一个词汇;使用语义训练样本对预训练语言模型进行语义训练,以预测在语义训练样本的覆盖位置处的词汇补全结果,根据词汇补全结果和第一损失函数计算第一损失值,根据第一损失值调整预训练语言模型中的参数,得到训练后的医学语义分析模型,预训练语言模型包括编码器和第一输出层,编码器用于提取语义向量,第一输出层用于根据编码器输出的语义向量输出词汇补全结果;
医学语义匹配模型训练模块,用于获取多个样本对,多个样本对包括正样本对和负样本对,一个正样本对包括一个检测报告和一个匹配的知识条目,一个负样本对包括一个检测报告和一个不匹配的知识条目;通过医学语义分析模型中的编码器生成每个样本对的两组词语级语义向量,对每个样本对的两组词语级语义向量进行降维,得到每个样本对的两个第一句子级语义向量;两组词语级语义向量包括检测报告对应的一组词语级语义向量和知识条目对应的一组词语级语义向量,一组词语级语义向量包括多个词语级语义向量,一个词语级语义向量为一个字对应的多维度语义向量;通过与医学语义分析模型中编码器连接的第二输出层计算每个样本对的两个第一句子级语义向量间的相似度,根据相似度和第二损失函数计算第二损失值,根据第二损失值调整医学语义分析模型中编码器和第二输出层的参数,以增大正样本对的两个第一句子级语义向量间的相似度,且减小负样本对的两个第一句子级语义向量间的相似度,以得到训练后的医学语义匹配模型。
一种医学知识匹配装置,应用上述的医学语义分析模型和医学语义匹配模型,装置包括:
向量化知识库获取模块,用于获取向量化知识库,向量化知识库包括多个向量化知识,一个向量化知识由医学语义分析模型中的编码器对第二文本知识库中的一个知识条目转换得到,第二文本知识库包括若干知识条目,一个向量化知识通过一个索引与第二文本知识库的一个知识条目关联;
第一匹配模块,用于当进行第一匹配标准的知识匹配时,将待匹配文本嵌入为待匹配文本向量,将待匹配文本向量和目标向量化知识输入医学语义匹配模型,输出所有向量化知识与待匹配文本的匹配度,目标向量化知识为向量化知识库中的任一向量化知识;
第二匹配模块,用于当进行第二匹配标准的知识匹配时,通过医学语义分析模型的编码器将待匹配文本转换为向量化待匹配文本,在向量化知识库内对向量化检索文本进行相似度计算,输出所有向量化知识与待匹配文本的匹配度;其中第一匹配标准对准确率的要求大于第二匹配标准;
匹配结果输出模块,用于根据匹配度对所有向量化知识进行排序,根据得到的排序结果和索引从第二文本知识库中输出第三预设数量的知识条目作为待匹配文本的医学知识匹配结果。
本发明提供了医学语义匹配模型的训练方法、医学知识匹配方法及装置,在模型训练过程中,使用医学领域的文本对预训练语言模型进行语义训练,得到医学语义分析模型,使得该医学语义分析模型能更好的解析医学语言的意义,从而更好地在医学领域适用。然后通过获取的多个样本对来训练医学语义分析模型的匹配能力,先通过医学语义分析模型的编码器生成每个样本对的两个第一句子级语义向量,再计算转换得到的两个第一句子级语义向量间的相似度,根据第二损失函数计算第二损失值,根据第二损失值调整医学语义分析模型中编码器和第二输出层的参数,得到训练后的医学语义匹配模型。通过该医学语义匹配模型即可高精度的对医学知识进行定位及管理,实现检测报告与医学知识之间的快速及准确匹配。在应用过程中,先通过包含各种知识条目的文本库建立向量化知识库,当进行不同匹配标准的知识匹配时,可根据需求自行选择需要的模型并结合向量化知识库来进行高精度的匹配或粗精度的匹配,最后基于匹配结果以及向量化知识库内在先建立的索引完成对知识匹配结果的输出,这样用户就快速找对与待匹配文本相关联的医学知识。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为一个实施例中医学语义匹配模型训练方法的流程示意图;
图2为一个实施例中医学知识匹配方法的流程示意图;
图3为医学知识匹配流程图;
图4为向量化知识库的示意图;
图5为一个实施例中医学语义匹配模型训练装置的结构示意图;
图6为一个实施例中医学知识匹配装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,图1为一个实施例中医学语义匹配模型训练方法的流程示意图,本实施例中医学语义匹配模型训练方法提供的步骤包括:
步骤102,获取第一文本知识库和预训练语言模型,对第一文本知识库的文本进行实体全词覆盖,得到语义训练样本。
其中,第一文本数据库内的文本包括足够数量的检测报告文本和知识条目。该检测报告文本是一种待匹配的文本,可以是为检测项目的结论性报告,也可以是一种医学问题,需要与至少一条知识条目之间建立匹配关系。示例性的,一个检测报告文本可以是“痰培养检出金黄色葡萄球菌”。一个知识条目为某一种类型的医学知识,包括医学文献、指南、结构化知识等。本实施例中的预训练语言模型选用Google开源的BERT-Chinese模型。而实体全词覆盖(Whole Entity Masking)是一个隐藏每一条文本中的至少一个词汇的动作,用覆盖标签mask对分词结果中的医学标准术语进行覆盖,通过对第一文本知识库的文本进行实体全词覆盖以得到语义训练样本。例如将文本“检测出的结果为阳性”隐藏为“检测出的结果为[mask][mask]”。该语义训练样本用于后续的语义训练(Masked Language Model,MLM训练),从而更好的理解文本被隐藏的词汇,使得模型具有理解语义的功能。
进一步的,检测报告文本涵盖的疾病和科室较多,为了提高第一文本数据库内语言的多样性,我们可以以检测项目为单位,通过以下公式从各个数据库总筛选出语言更加丰富的检测报告文本(也即文本库占比i更大的检测报告文本),以作为第一文本知识库中的数据:
文本库占比i=报告量占比i*(1-min(2文本重复率i+1-2,1))
报告量占比i=项目i报告数量/报告总量
文本重复率i=项目i报告最长模糊公共子串/项目i报告平均长度
其中项目i报告最长模糊公共子串为项目i报告中最长的公共连续子串,输出其长度,例如项目i报告[abcde],其公共连续子串[bcd],输出为3。项目i报告平均长度为所有项目报告的平均字数。
在一个具体实施例中,只针对医学标准术语进行实体全词覆盖,而不是对任意的词汇进行覆盖,从而能使后续训练得到的医学语义分析模型能更好的解析医学语言的意义。具体的,首先获取预先构建的医学标准术语库,该医学标准术语库内包括“葡萄球菌”、“痰培养”等医学标准术语。然后以词汇为单位对第一文本知识库中的文本进行分词,也即将文本中的所有词汇划分出来,得到分词结果。然后根据医学标准术语库,用覆盖标签mask对分词结果中的医学标准术语进行覆盖,得到语义训练样本。例如对于“痰培养检出金黄色葡萄球菌”进行覆盖,得到“[mask][mask][mask]检出金黄色葡萄球菌”的语义训练样本。
传统的静态覆盖(Static Masking)会在数据处理阶段就将语料进行覆盖,造成训练阶段每一轮(epoch)模型所需要预测的被覆盖词都相同,这样不利于学习更多语言多样性。
因此在一个具体实施例中,还通过动态调整覆盖机制(Dynamic Masking)来改变训练数据的生成流程,将覆盖机制由静态转换为动态,以保证模型每一轮训练过程中都会用到不同的、更多样的训练数据,让模型能从更多维的角度理解医学语言。具体的,当每进行一轮语义训练时,随机对第一文本知识库的文本进行实体全词覆盖,例如对于“痰培养检出金黄色葡萄球菌”进行覆盖,可以得到“[mask][mask][mask]检出金黄色葡萄球菌”的语义训练样本,也可以得到“痰培养检出金黄色[mask][mask][mask][mask]”的语义训练样本。其中一个目标文本中覆盖的实体词汇的字数与目标文本的字数的比值大于预设的第一比值,该目标文本为任一文本,也即mask数量占文本的字数大于第一比值。例如,本实施例中的第一比值取15%。
步骤104,使用语义训练样本对预训练语言模型进行语义训练,以预测在语义训练样本的覆盖位置处的词汇补全结果,根据词汇补全结果和第一损失函数计算第一损失值,根据第一损失值调整预训练语言模型中的参数,得到训练后的医学语义分析模型。
其中,该预训练语言模型BERT-Chinese包括多层编码器和第一输出层,该编码器用于提取语义训练样本的语义向量,该第一输出层用于根据编码器输出的语义向量输出词汇覆盖处的词汇补全结果。MLM训练是一个完形填空的过程,基于语义训练样本中被覆盖词汇的上下文信息,预测在语义训练样本的覆盖位置处的词汇补全结果。也即例如通过“金黄色葡萄球菌”来预测“[mask][mask][mask]检出金黄色葡萄球菌”这一文本中mask处的原词汇是什么。被覆盖词汇在最后一个隐藏层的预测参数会输入softmax层,再通过如下所示的第一损失函数(负对数拟然损失函数)来计算计算第一损失值L(θ,θ1):
其中,M为覆盖词集合;V为字典词ID集合;θ为预训练语言模型中编码器部分的参数;θ1为该第一输出层中的参数,p表示各种预测的补全结果的概率。最后根据第一损失值L(θ,θ1)计算梯度,完成对θ和θ1的反向优化,使得L(θ,θ1)不断减小,直至达到预设的训练标准,从而得到训练后的医学语义分析模型KM-BERT。
步骤106,获取多个样本对,通过医学语义分析模型中的编码器生成每个样本对的两组词语级语义向量,对每个样本对的两组词语级语义向量进行降维,得到每个样本对的两个第一句子级语义向量。
基于上述的KM-BERT模型,通过在不同类型的知识(如检测项目,临床意义,文献指南等)上进行知识匹配精训练,来进一步达到知识定位及匹配管理的效果。进行知识匹配精训练需要准备充足的样本对,该样本对既包括正样本对也包括负样本对,一个正样本对包括一个检测报告和一个匹配的知识条目,该匹配的知识条目与可以作为该检测报告的参考信息,以帮助用户更明确的了解检测报告的含义,对该正样本打上标签1;一个负样本对包括一个检测报告和一个不匹配的知识条目,该不匹配的知识条目是与该检测报告无关的信息,不会帮助用户更明确的了解检测报告的含义,对该负样本打上标签-1。训练时要求正样本对和负样本对的比例为1:10。
KM-BERT模型有一共有12层的编码器,针对输入的每一个字,每一层都可以生成一个基于语义分析的768维度的向量。由于在倒数第二层生成的语义向量在下游任务中有较好的效果,所以我们只取每个字在倒数第二层生成的语义向量,则每句话的所生成的语义向量维度为[词数*768],也就是本实施例中的一组词语级语义向量。可见,对于一个样本对而言,生成的两组词语级语义向量,既包括检测报告对应的一组词语级语义向量,也包括知识条目对应的一组词语级语义向量。一组词语级语义向量包括多个词语级语义向量,一个词语级语义向量为一个字对应的多维度语义向量。再采用Reduce-Mean方法沿着预设的词数(axis=0)维度求取平均值(也即对词语级语义向量进行降维),从而将每一条检测报告或每一条知识条目生成为一个句子级的768维度语义向量,也即本实施例中的一个第一句子级语义向量。
具体的来说,Reduce-mean方法举例如下:
例句:金黄色葡萄球菌
以上7字例句通过KM-BERT模型生成一个维度为7*768的词语级语义向量:
[[0.234,0.142,0.112,...,0.653,0.543,0.125],
[0.234,0.142,0.112,...,0.653,0.543,0.125],
...
[0.234,0.142,0.112,...,0.653,0.543,0.125]
[0.234,0.142,0.112,...,0.653,0.543,0.125]]
再沿着词数维度(axis=0)求平均值可得一个1*768维度的句子级语义向量:
[0.234,0.142,0.112,...,0.653,0.543,0.125]
对于一个样本对来说,我们可以同时获得2个1*768维度的句子级语义向量。
步骤108,通过与医学语义分析模型中编码器连接的第二输出层计算每个样本对的两个第一句子级语义向量间的相似度,根据相似度和第二损失函数计算第二损失值,根据第二损失值调整医学语义分析模型中编码器和第二输出层的参数,以得到训练后的医学语义匹配模型。
在一个具体实施例中,为将模型训练得到知识匹配的能力,还在输出的第一句子级语义向量后添加一层第二输出层来计算每两个第一句子级语义向量间的相似度,并输出至如下所示的第二损失函数(三重损失函数)中,通过第二损失函数计算第二损失值L(θ,θ2)。
L(θ,θ2)=max(||f(A∣θ,θ2)-f(P∣θ,θ2)||2-||f(A∣θ,θ2)-f(N∣θ,θ2)||2+α,0)
其中A为anchor对象,也就是待检测文本,P为与A属于同一个正样本对内的知识条目,N为与A属于同一个负样本对内的知识条目,ɑ是匹配的知识条目与不匹配的知识条目之间的间隔,f=编码器,f(A∣θ,θ2)为编码器将待检测文本转换出的向量,f(P∣θ,θ2)为编码器将匹配的知识条目转换出的向量,f(N∣θ,θ2)为编码器将不匹配的知识条目转换出的向量,||f(A∣θ,θ2)-fP∣θ,θ2表示向量空间中检测报告和匹配的知识条目的距离,fA∣θ,θ2-fN∣θ,θ2表示向量空间中检测报告和不匹配的知识条目的距离,θ是KM-BERT模型中编码器的参数,θ2是与该编码器连接的第二输出层的参数。根据第二损失值L(θ,θ2)计算梯度完成对KM-BERT模型中的参数θ和θ2的反向优化,使得L(θ,θ2)不断减小,直至达到预设的训练标准,以增大正样本对的两个第一句子级语义向量间的相似度,且减小负样本对的两个第一句子级语义向量间的相似度,将包括KM-BERT模型中训练后的编码器和与KM-BERT模型中编码器连接的第二输出层作为训练后的医学语义匹配模型KM-SEARCH。
上述医学语义匹配模型的训练方法,使用医学领域的文本对预训练语言模型进行语义训练,得到医学语义分析模型,使得该医学语义分析模型能更好的解析医学语言的意义,从而更好地在医学领域适用。然后通过获取的多个样本对来训练医学语义分析模型的匹配能力,先通过医学语义分析模型的编码器生成每个样本对的两个第一句子级语义向量,再计算转换得到的两个第一句子级语义向量间的相似度,根据第二损失函数计算第二损失值,根据第二损失值调整医学语义分析模型中编码器和第二输出层的参数,得到训练后的医学语义匹配模型。通过该医学语义匹配模型即可高精度的对医学知识进行定位及管理,实现检测报告与医学知识之间的快速及准确匹配。
如图2所示,图2为一个实施例中医学知识匹配方法的流程示意图,同时可参见图3,图3为医学知识匹配流程图,包括高精度的匹配和粗精度的匹配两个应用场景,可由用户根据需求自行选择。
本实施例中医学知识匹配方法提供的步骤包括:
步骤202,获取向量化知识库。
其中,向量化知识库包括多个向量化知识,一个向量化知识由KM-BERT模型中的编码器对第二文本知识库中的一个知识条目转换得到,具体由KM-BERT模型中倒数第二层的编码器生成一个知识条目对应的一个向量化知识并输出,该第二文本知识库内仅包括若干知识条目,一个向量化知识还通过一个索引与第二文本知识库的一个知识条目关联,从而便于后续步骤中进行查询。
具体的,假如我们有3000个检测项目需要进行管理,首先通过KM-BERT模型将每个检测项目均转化为一组词语级语义向量,再同样采用Reduce-Mean方法对每组词语级语义向量进行降维,得到3000个768维度的第二句子级语义向量,亦可描述为3000*768维度的矩阵来抽象表示3000个不同的检测项目。可参见图4,图4为得到的向量化知识库。
但由于768维度的语义向量仍过于庞大,为了减少下游的计算量,我们使用白化操作(Vector Whitening)技术降低第二句子级语义向量的维度,从而得到向量化知识库。这样不仅可以提高下游任务的计算效率和降低内存使用,实验也证明来可以提高匹配的精准率。通常我们会将维度降至256再进入下一步。此时我们对检测项目的抽象表示缩小为3000*256维度的矩阵,大大缩小了之后需要的计算量。其中,白化操作的流程如下:
Σ=(WT)-1W-1=(W-1)TW-1
已知Σ是一个正定对称矩阵,则以下SVD分解公式成立:
Σ=UΛUT
其中U为正交矩阵,Λ是一个正对角矩阵,根据定理综上可得:
得到W后,我们即可执行线性变化的公式,完成白化操作。
步骤204,当进行第一匹配标准的知识匹配时,通过医学语义分析模型的编码器将待匹配文本转换为向量化待匹配文本,将向量化待匹配文本和目标向量化知识输入医学语义匹配模型,输出所有向量化知识与待匹配文本的匹配度。
其中,该第一匹配标准也即进行当用户选择高精度匹配时对应的标准。待匹配文本可以是为检测项目的结论性报告,也可以是一种医学问题,需要与至少一条知识条目之间建立匹配关系。首先通过KM-BERT模型中倒数第二层的编码器将待匹配文本转换为向量化待匹配文本,该向量化待匹配文本也就是待匹配文本的向量化表示。目标向量化知识为向量化知识库中的任一向量化知识。在进行高精度的匹配时,只能逐一的通过KM-SEARCH中的第二输出层计算向量化待匹配文本与一个向量化知识之间的匹配度,例如通过计算余弦相似度的方式,直至所有的向量化知识都完成匹配度的计算,此时输出所有向量化知识与待匹配文本的匹配度。
步骤206,当进行第二匹配标准的知识匹配时,在向量化知识库内对向量化检索文本进行相似度计算,输出所有向量化知识与待匹配文本的匹配度。
其中,第一匹配标准对准确率的要求大于第二匹配标准,也即第二匹配标准是当用户选择粗精度匹配时对应的标准。该向量化检索文本也通过KM-BERT模型中倒数第二层的编码器将待匹配文本转换得到。
在一个具体实施例中,当进行第二匹配标准的知识匹配时,在向量化知识库这个语义空间通过余弦相似度计算并排序的方法来搜索匹配度靠前的向量化知识。其中相似度的值域在-1和1之间,结果越靠近1代表两者在语义空间越接近,越靠近-1则相反,具体公式如下:
其中x为向量化检索文本,y为某一向量化知识。
步骤208,根据匹配度对所有向量化知识进行排序,根据得到的排序结果和索引从第二文本知识库中输出第三预设数量的知识条目作为待匹配文本的医学知识匹配结果。
如图3所示,根据输出的匹配度我们可以对每条向量化知识进行排序并依照需求提取部分的向量化知识(例如前3)。然后根据提取的向量化知识和在先对每条知识生成的索引,回到第二文本知识库中查询相应的知识条目并输出,以作为待匹配文本的医学知识匹配结果。
上述医学知识匹配方法,先通过包含各种知识条目的文本库建立向量化知识库,当进行不同匹配标准的知识匹配时,可根据需求自行选择需要的模型并结合向量化知识库来进行高精度的匹配或粗精度的匹配,最后基于匹配结果以及向量化知识库内在先建立的索引完成对知识匹配结果的输出,这样用户就快速找对与待匹配文本相关联的医学知识。
在一个实施例中,如图5所示,提出了一种医学语义匹配模型训练装置,该装置包括:
医学语义分析模型训练模块502,用于获取第一文本知识库和预训练语言模型,对第一文本知识库的文本进行实体全词覆盖,得到语义训练样本;第一文本数据库的文本包括多个检测报告文本和知识条目,实体全词覆盖用于隐藏文本中的至少一个词汇;使用语义训练样本对预训练语言模型进行语义训练,以预测在语义训练样本的覆盖位置处的词汇补全结果,根据词汇补全结果和第一损失函数计算第一损失值,根据第一损失值调整预训练语言模型中的参数,得到训练后的医学语义分析模型,预训练语言模型包括编码器和第一输出层,编码器用于提取语义向量,第一输出层用于根据编码器输出的语义向量输出词汇补全结果。
医学语义匹配模型训练模块504,用于获取多个样本对,多个样本对包括正样本对和负样本对,一个正样本对包括一个检测报告和一个匹配的知识条目,一个负样本对包括一个检测报告和一个不匹配的知识条目;通过医学语义分析模型中的编码器生成每个样本对的两组词语级语义向量,对每个样本对的两组词语级语义向量进行降维,得到每个样本对的两个第一句子级语义向量;两组词语级语义向量包括检测报告对应的一组词语级语义向量和知识条目对应的一组词语级语义向量,一组词语级语义向量包括多个词语级语义向量,一个词语级语义向量为一个字对应的多维度语义向量;通过与医学语义分析模型中编码器连接的第二输出层计算每个样本对的两个第一句子级语义向量间的相似度,根据相似度和第二损失函数计算第二损失值,根据第二损失值调整医学语义分析模型中编码器和第二输出层的参数,以增大正样本对的两个第一句子级语义向量间的相似度,且减小负样本对的两个第一句子级语义向量间的相似度,以得到训练后的医学语义匹配模型。
在一个实施例中,如图6所示,提出了一种医学语义匹配模型训练装置,该装置包括:
向量化知识库获取模块602,用于获取向量化知识库,向量化知识库包括多个向量化知识,一个向量化知识由医学语义分析模型中的编码器对第二文本知识库中的一个知识条目转换得到,第二文本知识库包括若干知识条目,一个向量化知识通过一个索引与第二文本知识库的一个知识条目关联。
第一匹配模块604,用于当进行第一匹配标准的知识匹配时,将待匹配文本嵌入为待匹配文本向量,将待匹配文本向量和目标向量化知识输入医学语义匹配模型,输出所有向量化知识与待匹配文本的匹配度,目标向量化知识为向量化知识库中的任一向量化知识。
第二匹配模块606,用于当进行第二匹配标准的知识匹配时,通过医学语义分析模型的编码器将待匹配文本转换为向量化待匹配文本,在向量化知识库内对向量化检索文本进行相似度计算,输出所有向量化知识与待匹配文本的匹配度;其中第一匹配标准对准确率的要求大于第二匹配标准。
匹配结果输出模块608,用于根据匹配度对所有向量化知识进行排序,根据得到的排序结果和索引从第二文本知识库中输出第三预设数量的知识条目作为待匹配文本的医学知识匹配结果。
需要说明的是,上述医学语义匹配模型的训练方法、医学知识匹配方法及装置属于一个总的发明构思,医学语义匹配模型的训练方法、医学知识匹配方法及装置实施例中的内容可相互适用。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种医学语义匹配模型的训练方法,其特征在于,所述方法包括:
获取第一文本知识库和预训练语言模型,对所述第一文本知识库的文本进行实体全词覆盖,得到语义训练样本;所述第一文本数据库的文本包括多个检测报告文本和知识条目,所述实体全词覆盖用于隐藏所述文本中的至少一个词汇;
使用所述语义训练样本对所述预训练语言模型进行语义训练,以预测在所述语义训练样本的覆盖位置处的词汇补全结果,根据所述词汇补全结果和第一损失函数计算第一损失值,根据所述第一损失值调整所述预训练语言模型中的参数,得到训练后的医学语义分析模型,所述预训练语言模型包括编码器和第一输出层,所述编码器用于提取语义向量,所述第一输出层用于根据所述编码器输出的语义向量输出所述词汇补全结果;
获取多个样本对,所述多个样本对包括正样本对和负样本对,一个正样本对包括一个检测报告和一个匹配的知识条目,一个负样本对包括一个检测报告和一个不匹配的知识条目;
通过所述医学语义分析模型中的编码器生成每个样本对的两组词语级语义向量,对所述每个样本对的两组词语级语义向量进行降维,得到每个样本对的两个第一句子级语义向量;所述两组词语级语义向量包括检测报告对应的一组词语级语义向量和知识条目对应的一组词语级语义向量,一组词语级语义向量包括多个词语级语义向量,一个词语级语义向量为一个字对应的多维度语义向量;
通过与所述医学语义分析模型中编码器连接的第二输出层计算所述每个样本对的两个第一句子级语义向量间的相似度,根据所述相似度和第二损失函数计算第二损失值,根据所述第二损失值调整所述医学语义分析模型中编码器和所述第二输出层的参数,以增大正样本对的两个第一句子级语义向量间的相似度,且所述减小负样本对的两个第一句子级语义向量间的相似度,以得到训练后的医学语义匹配模型。
2.根据权利要求1所述的方法,其特征在于,所述对所述第一文本知识库的文本进行实体全词覆盖,得到语义训练样本,包括:
获取医学标准术语库,所述医学标准术语库包括多个医学标准术语;
以词汇为单位对所述第一文本知识库中的文本进行分词,得到分词结果;
根据所述医学标准术语库,用覆盖标签对所述分词结果中的医学标准术语进行覆盖,得到所述语义训练样本。
3.根据权利要求1所述的方法,其特征在于,对所述第一文本知识库的文本进行实体全词覆盖,得到语义训练样本,包括:
当每进行一轮语义训练时,随机对所述第一文本知识库的文本进行实体全词覆盖,其中一个目标文本中覆盖的实体词汇的字数与所述目标文本的字数的比值大于预设的第一比值,所述目标文本为任一文本。
4.根据权利要求1所述的方法,其特征在于,所述对所述每个样本对的两组词语级语义向量进行降维,得到每个样本对的两个第一句子级语义向量,包括:
对所述每个样本对的两组词语级语义向量分别在预设的维度上取平均值,得到所述每个样本对的两个第一句子级语义向量。
5.根据权利要求1所述的方法,其特征在于,所述第一损失函数为负对数拟然损失函数,预训练语言模型中的参数包括所述预训练语言模型中编码器的参数和所述第一输出层的参数。
6.根据权利要求1所述的方法,其特征在于,所述第二损失函数为三重损失函数。
7.一种医学知识匹配方法,其特征在于,应用如权利要求1所述的医学语义分析模型和医学语义匹配模型,所述方法包括:
获取向量化知识库,所述向量化知识库包括多个向量化知识,一个向量化知识由所述医学语义分析模型中的编码器对第二文本知识库中的一个知识条目转换得到,所述第二文本知识库包括若干知识条目,一个向量化知识通过一个索引与所述第二文本知识库的一个知识条目关联;
当进行第一匹配标准的知识匹配时,通过所述医学语义分析模型的编码器将所述待匹配文本转换为向量化待匹配文本,将所述向量化待匹配文本和目标向量化知识输入所述医学语义匹配模型,输出所有向量化知识与所述待匹配文本的匹配度,所述目标向量化知识为所述向量化知识库中的任一向量化知识;
当进行第二匹配标准的知识匹配时,在所述向量化知识库内对所述向量化检索文本进行相似度计算,输出所有向量化知识与所述待匹配文本的匹配度;其中所述第一匹配标准对准确率的要求大于所述第二匹配标准;
根据匹配度对所有向量化知识进行排序,根据得到的排序结果和索引从所述第二文本知识库中输出第三预设数量的知识条目作为所述待匹配文本的医学知识匹配结果。
8.根据权利要求7所述的方法,其特征在于,所述获取向量化知识库,包括:
通过所述医学语义分析模型将所述第二文本知识库中的每个知识条目均转化为一组词语级语义向量,对每组词语级语义向量进行降维,得到多个第二句子级语义向量;
对所述多个第二句子级语义向量分别进行白化操作,得到所述向量化知识库。
9.一种医学语义匹配模型训练装置,其特征在于,所述装置包括:
医学语义分析模型训练模块,用于获取第一文本知识库和预训练语言模型,对所述第一文本知识库的文本进行实体全词覆盖,得到语义训练样本;所述第一文本数据库的文本包括多个检测报告文本和知识条目,所述实体全词覆盖用于隐藏所述文本中的至少一个词汇;使用所述语义训练样本对所述预训练语言模型进行语义训练,以预测在所述语义训练样本的覆盖位置处的词汇补全结果,根据所述词汇补全结果和第一损失函数计算第一损失值,根据所述第一损失值调整所述预训练语言模型中的参数,得到训练后的医学语义分析模型,所述预训练语言模型包括编码器和第一输出层,所述编码器用于提取语义向量,所述第一输出层用于根据所述编码器输出的语义向量输出所述词汇补全结果;
医学语义匹配模型训练模块,用于获取多个样本对,所述多个样本对包括正样本对和负样本对,一个正样本对包括一个检测报告和一个匹配的知识条目,一个负样本对包括一个检测报告和一个不匹配的知识条目;通过所述医学语义分析模型中的编码器生成每个样本对的两组词语级语义向量,对所述每个样本对的两组词语级语义向量进行降维,得到每个样本对的两个第一句子级语义向量;所述两组词语级语义向量包括检测报告对应的一组词语级语义向量和知识条目对应的一组词语级语义向量,一组词语级语义向量包括多个词语级语义向量,一个词语级语义向量为一个字对应的多维度语义向量;通过与所述医学语义分析模型中编码器连接的第二输出层计算所述每个样本对的两个第一句子级语义向量间的相似度,根据所述相似度和第二损失函数计算第二损失值,根据所述第二损失值调整所述医学语义分析模型中编码器和所述第二输出层的参数,以增大正样本对的两个第一句子级语义向量间的相似度,且所述减小负样本对的两个第一句子级语义向量间的相似度,以得到训练后的医学语义匹配模型。
10.一种医学知识匹配装置,其特征在于,应用如权利要求1所述的医学语义分析模型和医学语义匹配模型,所述装置包括:
向量化知识库获取模块,用于获取向量化知识库,所述向量化知识库包括多个向量化知识,一个向量化知识由所述医学语义分析模型中的编码器对第二文本知识库中的一个知识条目转换得到,所述第二文本知识库包括若干知识条目,一个向量化知识通过一个索引与所述第二文本知识库的一个知识条目关联;
第一匹配模块,用于当进行第一匹配标准的知识匹配时,将待匹配文本嵌入为待匹配文本向量,将所述待匹配文本向量和目标向量化知识输入所述医学语义匹配模型,输出所有向量化知识与所述待匹配文本的匹配度,所述目标向量化知识为所述向量化知识库中的任一向量化知识;
第二匹配模块,用于当进行第二匹配标准的知识匹配时,通过所述医学语义分析模型的编码器将所述待匹配文本转换为向量化待匹配文本,在所述向量化知识库内对所述向量化检索文本进行相似度计算,输出所有向量化知识与所述待匹配文本的匹配度;其中所述第一匹配标准对准确率的要求大于所述第二匹配标准;
匹配结果输出模块,用于根据匹配度对所有向量化知识进行排序,根据得到的排序结果和索引从所述第二文本知识库中输出第三预设数量的知识条目作为所述待匹配文本的医学知识匹配结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111136021.2A CN113780006B (zh) | 2021-09-27 | 2021-09-27 | 医学语义匹配模型的训练方法、医学知识匹配方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111136021.2A CN113780006B (zh) | 2021-09-27 | 2021-09-27 | 医学语义匹配模型的训练方法、医学知识匹配方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113780006A true CN113780006A (zh) | 2021-12-10 |
CN113780006B CN113780006B (zh) | 2024-04-09 |
Family
ID=78853711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111136021.2A Active CN113780006B (zh) | 2021-09-27 | 2021-09-27 | 医学语义匹配模型的训练方法、医学知识匹配方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780006B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114582494A (zh) * | 2022-03-03 | 2022-06-03 | 数坤(北京)网络科技股份有限公司 | 诊断结果分析方法、装置、存储介质及电子设备 |
CN118227802A (zh) * | 2024-05-23 | 2024-06-21 | 浙江大学 | 一种基于大语言模型的标准数字化处理方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310438A (zh) * | 2020-02-20 | 2020-06-19 | 齐鲁工业大学 | 基于多粒度融合模型的中文句子语义智能匹配方法及装置 |
CN111428514A (zh) * | 2020-06-12 | 2020-07-17 | 北京百度网讯科技有限公司 | 语义匹配方法、装置、设备以及存储介质 |
CN111708882A (zh) * | 2020-05-29 | 2020-09-25 | 西安理工大学 | 基于Transformer的中文文本信息缺失的补全方法 |
CN112905768A (zh) * | 2021-02-08 | 2021-06-04 | 中国工商银行股份有限公司 | 一种数据交互方法、装置及存储介质 |
CN113065353A (zh) * | 2021-03-16 | 2021-07-02 | 北京金堤征信服务有限公司 | 实体识别方法及装置 |
-
2021
- 2021-09-27 CN CN202111136021.2A patent/CN113780006B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310438A (zh) * | 2020-02-20 | 2020-06-19 | 齐鲁工业大学 | 基于多粒度融合模型的中文句子语义智能匹配方法及装置 |
CN111708882A (zh) * | 2020-05-29 | 2020-09-25 | 西安理工大学 | 基于Transformer的中文文本信息缺失的补全方法 |
CN111428514A (zh) * | 2020-06-12 | 2020-07-17 | 北京百度网讯科技有限公司 | 语义匹配方法、装置、设备以及存储介质 |
CN112905768A (zh) * | 2021-02-08 | 2021-06-04 | 中国工商银行股份有限公司 | 一种数据交互方法、装置及存储介质 |
CN113065353A (zh) * | 2021-03-16 | 2021-07-02 | 北京金堤征信服务有限公司 | 实体识别方法及装置 |
Non-Patent Citations (4)
Title |
---|
CHAO LIU 等: "Chinese Named Entity Recognition Based on BERT with Whole Word Masking", 《ICCAI \'20, 》, pages 311 - 316 * |
LIU YANG 等: "Beyond 512 Tokens: Siamese Multi-depth Transformer-base d Hierarchical Enco der for Long-Form Do cument Matching", 《CIKM \'20》, pages 1725 - 1734 * |
刘超: "基于 BERT 的中文命名实体识别方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 6, pages 138 - 808 * |
徐文峰 等: "融合实体上下文特征的深度文本语义匹配模型", 《武汉大学学报( 理学版)》, vol. 66, no. 5, pages 483 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114582494A (zh) * | 2022-03-03 | 2022-06-03 | 数坤(北京)网络科技股份有限公司 | 诊断结果分析方法、装置、存储介质及电子设备 |
CN114582494B (zh) * | 2022-03-03 | 2022-11-15 | 数坤(北京)网络科技股份有限公司 | 诊断结果分析方法、装置、存储介质及电子设备 |
CN118227802A (zh) * | 2024-05-23 | 2024-06-21 | 浙江大学 | 一种基于大语言模型的标准数字化处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113780006B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220019745A1 (en) | Methods and apparatuses for training service model and determining text classification category | |
CN109726389B (zh) | 一种基于常识和推理的中文缺失代词补全方法 | |
CN110162785B (zh) | 数据处理方法和代词消解神经网络训练方法 | |
CN108519971B (zh) | 一种基于平行语料库的跨语种新闻主题相似性对比方法 | |
CN108932342A (zh) | 一种语义匹配的方法、模型的学习方法及服务器 | |
KR20180062321A (ko) | 딥러닝-기반 키워드에 연관된 단어를 도출하는 방법과 컴퓨터프로그램 | |
CN112052684A (zh) | 电力计量的命名实体识别方法、装置、设备和存储介质 | |
Singh et al. | A decision tree based word sense disambiguation system in Manipuri language | |
CN113780006B (zh) | 医学语义匹配模型的训练方法、医学知识匹配方法及装置 | |
CN111507089B (zh) | 基于深度学习模型的文献分类方法、装置和计算机设备 | |
Bensalah et al. | CRAN: an hybrid CNN-RNN attention-based model for Arabic machine translation | |
WO2023004528A1 (zh) | 一种基于分布式系统的并行化命名实体识别方法及装置 | |
CN112100377A (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
CN113821635A (zh) | 一种用于金融领域的文本摘要的生成方法及系统 | |
CN111753088A (zh) | 一种自然语言信息的处理方法 | |
CN115600597A (zh) | 基于注意力机制和词内语义融合的命名实体识别方法、装置、系统及存储介质 | |
Thattinaphanich et al. | Thai named entity recognition using Bi-LSTM-CRF with word and character representation | |
CN116644148A (zh) | 关键词识别方法、装置、电子设备及存储介质 | |
CN114648029A (zh) | 一种基于BiLSTM-CRF模型的电力领域命名实体识别方法 | |
CN116861269A (zh) | 工程领域的多源异构数据融合及分析方法 | |
CN111400449A (zh) | 一种正则表达式抽取方法及装置 | |
Sinapoy et al. | Comparison of lstm and indobert method in identifying hoax on twitter | |
Preetham et al. | Comparative Analysis of Research Papers Categorization using LDA and NMF Approaches | |
Rajani Shree et al. | POS tagger model for Kannada text with CRF++ and deep learning approaches | |
Arbaatun et al. | Hate speech detection on Twitter through Natural Language Processing using LSTM model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 510700 No. 10, helix 3 Road, International Biological Island, Huangpu District, Guangzhou City, Guangdong Province Applicant after: GUANGZHOU KINGMED CENTER FOR CLINICAL LABORATORY Applicant after: GUANGZHOU MEDICAL University Address before: 510330 Guangdong Guangzhou Haizhuqu District Xingang East Road 2429, 3rd floor. Applicant before: GUANGZHOU KINGMED CENTER FOR CLINICAL LABORATORY Applicant before: GUANGZHOU MEDICAL University |
|
GR01 | Patent grant | ||
GR01 | Patent grant |