CN111312356B - 一种基于bert和融入功效信息的中药处方生成方法 - Google Patents
一种基于bert和融入功效信息的中药处方生成方法 Download PDFInfo
- Publication number
- CN111312356B CN111312356B CN202010054040.XA CN202010054040A CN111312356B CN 111312356 B CN111312356 B CN 111312356B CN 202010054040 A CN202010054040 A CN 202010054040A CN 111312356 B CN111312356 B CN 111312356B
- Authority
- CN
- China
- Prior art keywords
- chinese medicine
- traditional chinese
- prescription
- symptom
- bert
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/10—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Chemical & Material Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medicinal Chemistry (AREA)
- Document Processing Apparatus (AREA)
Abstract
本发明提供了一种基于BERT和融入功效信息的中药处方生成方法,获取症状描述和处方数据对,以及中药功效信息集;并通过预训练好的BERT模型得到固定长度的每个中药的功效信息编码;构建基于BERT‑GRU的中药处方生成模型,并利用所述训练集微调所述中药处方生成模型;利用中药处方生成模型生成处方。本发明通过深度学习的方法,利用预训练的BERT强大的语言表征能力来提升句子表达能力,从中医古籍经典方剂数据中挖掘规律,并融入中药功效信息,通过训练编码器和解码器两个网络,来最大化中药处方序列的条件概率,实现根据症状文本描述开具辅助的中医处方。
Description
技术领域
本发明属于医药技术领域,尤其涉及一种基于BERT和融入功效信息的中药处方生成方法。
背景技术
我国在中医药学方面的研究具有悠久历史和深厚底蕴,至今已有数千年的历史。中医药结合东方传统哲学和古代科技文化的精髓,在诊断、治疗、预防、保健等方面积累、总结、传承了大量经验,形成了自上而下的一套完整的理论诊治体系。现在的许多中医经常在治疗患者时以过去传承下来的经典处方和治疗记录作为参考。
当前,计算机技术日益成熟,渗透到了各个行业。随着人工智能与大数据技术的进一步发展,互联网技术可以为我国中医行业注入新的活力,提高其效率。方剂学在中医药研究中一直是研究的热门方向,处方是中医诊治中非常重要的一环,完整的处方包括草药成分、比例、制备方法和汤剂剂量,而草药组成是最重要的部分。由于中医处方的组成成分、作用机制非常复杂,同时本身理论存在模糊的地方,“方-症-药”关系规整化具有较大的难度,这激励我们设计一种能够通过学习过去中医药几千年来积累、总结下来的经典方剂来根据症状生成处方的模型,从中医经典方剂中挖掘出暗藏的、潜在的“方-药-症”规律,根据症状智能地生成处方,促进中医更好的治疗患者。
大量古籍资料中含有的诊治方法和处方等文本数据,通过自然语言处理能够帮助我们将隐藏在文字中的规律挖掘出来,而深度学习是自然语言处理的强大工具。如图1所示,现有的处方生成方法主要由深度学习中的seq2seq网络结构组成,seq2seq模型包括编码器和解码器,编码器对症状句子进行编码,解码器对其进行解码生成处方。编码器和解码器模型一般采用RNN或其变体GRU等,层数较浅,较为简单,存在很大的不足,不能很好的对症状数据进行编码;且单纯研究症状与处方之间的对应关系,没有引入中药功效、主治等外部知识信息,准确率、召回率、F1值较低。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于BERT和融入功效信息的中药处方生成方法,通过深度学习的方法,利用预训练的BERT模型强大的语言表征能力来提升句子表达能力,从中医古籍经典方剂数据中挖掘规律,并融入中药功效信息,实现根据症状文本描述开具辅助的中医处方。
为了达到以上目的,本发明采用的技术方案为:
本方案提供一种基于BERT和融入功效信息的中药处方生成方法,包括以下步骤:
S1、获取若干一一对应的症状描述和处方数据对,以及中药功效信息,并对所述数据对进行预处理,将预处理后的结果作为训练集;
S2、将所述中药功效信息按中药字典顺序进行排序,并通过预训练好的BERT模型得到固定长度的每个中药的功效信息编码;
S3、将预训练好的BERT模型作为编码器,将GRU作为解码器,利用所述中药功效信息的编码初始化GRU解码器的输出层参数,并利用所述训练集微调BERT编码器,同时利用所述训练集训练GRU解码器,构建中药处方生成模型;
S4、将待预测的症状句子作为测试样本输入至训练好的中药处方生成模型,并利用中药处方生成模型生成中药的处方。
进一步地,所述步骤S1包括以下步骤:
S101、爬取网上公开的资料,得到方剂数据和中药数据,其中,所述中药数据包括中药别名以及中药功效信息;
S102、利用所述中药数据对方剂数据进行清洗,并利用自然语言处理方法去除制备方法和剂量,保留处方症状描述和中药组成,并对中药进行别名替换,构建初始化症状-处方对数据集;
S103、对所述症状-处方对数据集的句子语料进行分词处理;
S104、利用预训练好的BERT模型对症状字符进行词典数值化处理,并按照中药名出现的前后顺序统计不重复的药名,将统计的中药名组成中药词典,并根据中药词典对处方数据进行数值化处理,得到数值化编码后的症状-处方对训练集。
再进一步地,所述步骤S103中的分词处理具体为:
采用字符级划分症状句子,以及按中药名切分处方句子。
再进一步地,所述步骤S3中的编码器包括Embedding层以及堆叠的12层transformer编码单元;
每个所述transformer编码单元均包括多头自注意力层和前向反馈层。
再进一步地,所述中药处方生成模型的损失函数loss的表达式如下:
qt'=ξ(qt,qv)
ξ(qt,qv)=((qv/M)+qt)/2
其中,qt'表示目标概率分布,pt表示t时间步模型输出的概率分布,t表示时间步,ξ(·)表示投影函数,qv表示单词q的向量表示,qt表示原始目标概率,M表示目标生成草药的个数。
再进一步地,所述步骤S4包括以下步骤:
S401、初始化BERT编码器;
S402、将待预测的症状句子输入至BERT编码器,利用12层transformer编码单元对所述症状句子进行编码;
S403、取BERT编码器的最后一层输出的隐藏向量表示作为BERT编码器输出;
S404、将所述隐藏向量表示输入至GRU解码器中进行解码,生成中药处方。
再进一步地,所述步骤S404包括以下步骤:
S4041、根据所述隐藏向量表示利用注意力机制得到动态的症状信息编码的上下文向量ct;
S4042、根据所述症状上下文向量ct利用GRU解码器进行解码,并根据解码出来的序列生成中药的处方。
再进一步地,所述步骤S4041中上下文向量ct的表达式如下:
其中,T表示症状序列长度,hj表示症状编码器各个时间步隐藏向量,atj表示注意力权重,a(st-1,hj)表示对齐模型,st-1表示解码器上一时间步隐藏状态向量,表示参数矩阵,Wa、Ua均表示要学习的参数矩阵。
再进一步地,所述步骤S4042中中药处方生成的过程如下:
st=f(st-1,ct,Eyt-1)
p(yt|y1,...,t,x)=g(st·H)
其中,st表示时间步为t时解码器的隐藏状态向量,f(·)表示GRU,ct表示症状信息编码的上下文向量,E表示中药词汇数量,yt-1表示上一时间步预测的中药的one-hot编码,p(yt|y1,...,t,x)表示在给定症状句子和前t个时间步的中药输出时,该时间步输出中药的概率分布,g(·)表示softmax操作,H表示中药的功效信息编码的Herb Embeddings矩阵。
本发明的有益效果:
(1)本发明一种基于BERT和融入功效信息的中药处方生成方法,主要根据迁移学习的思想,充分利用了BERT编码器具有强大的语言表征能力的特点,使用公开的预训练好的BERT作为编码器,然后在症状处方数据上进行微调,利用了大量的预训练语料,一定程度降低了对所需训练数据量的依赖;同时BERT编码器用的是Transformer编码单元,相对过去用RNN的方法更加高效、能捕捉更长距离的依赖,它能捕捉到上下文信息,并且可以有更深的层数、具有更好的并行性;
(2)本发明通过深度学习的方法,利用预训练的BERT强大的语言表征能力来提升句子表达能力,从中医古籍经典方剂数据中学习名老中医的诊疗思想,挖掘规律,并融入中药功效信息,实现根据症状文本描述开具辅助的中医处方;
(3)本发明将中药的功效信息融入到处方生成过程中,对处方生成进行指导,基于本发明的方法,在召回率、F1得分方面优于以前的模型方法;
(4)本发明通过训练编码器和解码器两个网络,来最大化草药组成序列的条件概率,实现输入症状自动生成处方。
附图说明
图1为传统中药处方生成方法的示意图。
图2为本发明的方法流程图。
图3为本发明的中药处方生成模型图。
图4为本发明的BERT编码器结构示意图。
图5为本发明中BERT编码器的内部结构示意图。
图6为本发明中融入中药功效信息的方法示意图,
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
实施例
本方案提供一种基于BERT和融入功效信息的中药处方生成方法,通过深度学习的方法,利用预训练的BERT强大的语言表征能力来提升句子表达能力,从中医古籍经典方剂数据中挖掘规律,并融入中药功效信息,实现根据症状文本描述开具辅助的中医处方,如图2所示,包括以下步骤:
S1、获取若干一一对应的症状描述和处方数据对,以及中药功效信息,并对所述数据对进行预处理,将预处理后的结果作为训练集,其实现方法如下:
S101、爬取网上公开的资料,得到处方数据和中药数据,其中,所述中药数据包括中药别名以及中药功效信息;
S102、利用所述中药数据对方剂数据进行清洗,并利用自然语言处理方法去除制备方法和剂量,保留处方症状描述和中药组成,并对中药进行别名替换,构建初始化症状-处方对数据集;
S103、对所述症状-处方对数据集的句子语料进行分词处理,其采用字符级划分症状句子,以及按中药名切分处方句子;
S104、利用预训练好的BERT模型对症状字符进行词典数值化处理,并按照中药名出现的前后顺序统计不重复的药名,将统计的中药名组成中药词典,并根据中药词典对处方数据进行数值化处理,得到数值化编码后的症状-处方对训练集;
S2、将所述中药功效信息按中药字典顺序进行排序,并通过预训练好的BERT模型得到固定长度的每个中药的功效信息编码;
S3、将预训练好的BERT模型作为编码器,将GRU作为解码器,以及利用所述中药功效信息的编码初始化GRU解码器的输出层参数,并利用所述训练集调整BERT编码器,以及利用所述训练集训练GRU解码器,构建中药处方生成模型;
S4、将待预测的症状句子作为测试样本输入至训练好的中药处方生成模型,并利用中药处方生成模型生成中药的处方,其实现方法如下:
S401、初始化BERT编码器;
S402、将待预测的症状句子输入至BERT编码器,利用12层transformer编码单元对所述症状句子进行编码;
S403、取编码器的最后一层输出的隐藏向量表示作为编码器输出;
S404、将所述隐藏向量表示输入至GRU解码器中进行解码操作,生成中药处方,其实现方法如下:
S4041、根据所述隐藏向量表示利用注意力机制得到动态的症状信息编码的上下文向量ct;
S4042、根据所述上下文向量ct利用GRU进行解码,并根据解码出来的序列生成中药的处方。
本实施例中,给定由N个数据样本组成的中药症状-处方对数据集,第i个数据样本(x(i),y(i))包含描述症状的一个源文本x(i)和中药处方y(i),中药处方y(i)由中药序列组成。我们的中药处方生成模型的基本目标是优化我们生成草药的条件概率p(y1,y2,...,yt'|x1,x2,...,xt),具体目标如式所示:
其中,ci为编码器将输入的症状信息编码的得到的上下文语义向量,每一个p(yi|ci,y1,y2,...,yi-1)代表最新生成的草药是由前i-1个草药联合上下文向量p(yi|ci,y1,y2,...,yi-1)生成的。该目标通过我们提出的模型实现,模型主要分为编码部分和解码部分。
本实施例中,编码部分由12个Transformer编码单元堆叠组成的深度网络BERT模型,使用在大量公开数据集上预训练好的google开源的预训练权重对该模型进行初始化,将初始化后的BERT作为编码器。通过训练数据进行微调,得到症状句子每个字包含上下文信息的向量编码。
如图3所示,图3中的E1,E2,...,EN表示字的文本输入,经过BERT编码器,就可以得到文本的向量化表示。具体地,症状向量作为输入,每个时刻输入一个字符向量。编码器将模型输入,即可变长度的症状字符序列x=(x1,x2,...,xT)送入BERT编码器,取最后一层的隐藏层神经元输出作为编码器的输出h=(h1,h2,h3,...,hl)。
本实施例中,如图4-图5所示,Bert编码器包括:Embedding层和堆叠的12层transformer编码单元。Embedding层是词嵌入、句子类型嵌入以及位置嵌入之和,分别表示词信息、句子对信息和位置信息,三者之和作为输入向量。堆叠的12层编码单元每层由两个子层构成,其中,多头自注意力层和前向反馈层,用于对症状句子进行编码。计算过程如下:
MultiHead(Q,K,V)=Concat(head1,...,headi)Wo
headi=Attention(QWi Q,KWi K,VWi V)
其中,MultiHead(·)表示多头注意力机制,Q,K,V表示多头注意力层的输入向量,即词向量,Concat(·)表示将多个head拼接成一个向量,head表示多头注意力机制的某一个头,h为头的个数,Wo表示参数矩阵,Wi Q、Wi K、Wi V表示不同子空间的映射矩阵,KT表示K的转置,Attention是自注意力计算过程,是计算症状句子中的每个字与句子中所有字的关系,反应了症状句子中不同字词之间的关联性以及重要程度,学习句子内部的词依赖关系,捕获句子的内部结构;表示为K的维度的平方根,通过h个不同的线性变换对Q,K,V进行投影,分成不同的子空间,通过计算多次来捕获不同子空间上的相关信息,最后将不同的注意力结果拼接起来,并映射到原空间中得到最终的症状注意力向量作为输出,得到更立体更全面的词与词之间的关系。
FFN=max(0,xW1+b1)W2+b2
out=LN(x+subLayer(input))
上式中,a、β、W、b表示学习参数,μi表示平均值,表示方差,ε表示一个很小的数,防止数值计算的除0错误,x表示该层的输入,LN和FFN分别为层归一化和残差网络模块,用来解决深度学习中的退化问题,LN为层归一化操作,input为子层输入,subLayer为子层相应的计算公式,即前面提到的MultiHead或FFN公式,output为子层输出。
本实施例中,BERT编码器的输入是预处理过的文本,12层每层的输出为下一层的输入,最后一层编码层的输出作为症状句子转换而成的隐藏向量表达h=(h1,h2,h3,...,hl),即BERT编码器的输出。
本实施例中,解码部分:用前一步骤编码器得到的症状隐藏向量,采用注意力机制,通过GRU构成的解码器进行解码,生成相应处方。具体实现为:在得到编码器各个时间步的隐藏状态向量后,根据注意力机制得到动态的症状信息编码的上下文向量ct,公式如下:
权重atj计算如下:
其中,T表示症状序列长度,hj表示编码器各个时间步隐藏向量,表示参数矩阵,atj表示注意力权重,即解码器某时间步应分配给每个症状字词多少注意力,Wa、Ua均表示要学习的参数矩阵,ct由编码器产生的各个时间步隐藏向量加权的和构成,每个时间步的ct可能不同,a(st-1,hj)是对齐模型(alignment模型),通过测量解码器上一时间步隐藏状态向量st-1和编码器各个时间步隐藏状态向量hj之间的相关性得到。我们根据解码器的前一时间步的隐藏状态st-1计算第t个输出中药需要多少hj,即atj。
本实施例中,解码器通过GRU逐步解码生成可变长度序列y=(y1,y2,...yT'),即我们需要生成的处方,公式如下:
st=f(st-1,ct,Eyt-1)
p(yt|y1,...,t,x)=g(st·H)
其中,st表示时间步为t时解码器的隐藏状态向量,f(·)表示GRU,ct表示症状信息编码的上下文向量,E表示目标草药序列的词嵌入矩阵,E∈(V×D),V是药草词汇数量,D是嵌入维度,yt-1表示上一时间步预测的草药的one-hot编码,通过上一时间步的隐藏状态输出、上一个时间步预测的草药以及动态的上下文向量迭代生成该时间步的隐藏状态输出,p(yt|y1,...,t,x)表示在给定症状句子和前t个时间步的中药输出时,该时间步输出中药的概率分布,g(·)表示softmax操作,H表示中药的功效信息编码的Herb Embeddings矩阵。
本实施例中,如图6所示,在解码时提出了一种融入功效信息的思路,文本生成某种程度上可以看作是embedding层面的匹配,用BERT编码中药功效信息,同时用BERT编码器编码症状信息,使症状信息与中药功效信息在一个语义空间下被编码,将解码器生成的隐藏层向量与用BERT编码中药功效信息得到的Herb Embeddings矩阵做内积,即相似性匹配。
本实施例中,如图6所示,g(·)即softmax激活函数,它能够输出t时刻草药词汇中每个草药生成的概率,经过softmax函数得到字典中每味药在当前时刻输出的概率,选取概率最大值,找到治疗相应病症的中药,然后不断进行解码直到解码器输出结束符,则解码结束,得到生成的处方。
本实施例中,草药的顺序在产生处方时很重要,但不是强有序的。在模型以错误顺序生成草药时,我们也不能认为其完全错误。因此使用一种损失函数,其对交叉熵函数做了一些改进:
本发明中目标概率分布qt',不是传统交叉熵函数中使用的one-hot目标概率qt,目标概率分布qt'根据原始目标概率qt和该样本的整体目标序列q计算,qv表示q的单词向量表示,q中存在的目标草药在qv中的位置填1,不在的为0。本发明使用函数ξ将原始目标标签概率qt投影到新的概率分布qt'中:
qt'=ξ(qt,qv)
函数ξ在模型以错误的顺序预测标签时减少严厉的惩罚,投影函数ξ公式为:
ξ(qt,qv)=((qv/M)+qt)/2
其中,M是整体目标序列q的长度,即目标生成草药的个数。这个函数意味着在解码的t时刻,对于每个目标药草标记pi,我们首先将softmax函数处理之后得到的草药的概率分布除以整体目标序列M。然后,我们将该概率分布和原始概率qt相加取平均值作为时间t的最终概率分布。总的来说,就是加入整体目标序列的信息,降低模型以错误顺序生成草药时的损失。本发明通过训练编码器和解码器两个网络,来最大化草药组成序列的条件概率,实现输入症状自动生成处方。
本实施例中,通过准确率、召回率和F1值来衡量模型效果,准确率即生成的正确的草药占整个生成序列的比例,召回率即生成的正确的草药占目标生成序列的比例,而准确率和召回率往往存在矛盾的情况,提高准确率有时会带来召回率的降低,需要综合考虑,即F1值:
本发明通过以上设计,利用预训练的BERT强大的语言表征能力来提升句子表达能力,从中医古籍经典方剂数据中挖掘规律,并融入中药功效信息,实现根据症状文本描述开具辅助的中医处方。
Claims (5)
1.一种基于BERT和融入功效信息的中药处方生成方法,其特征在于,包括以下步骤:
S1、获取若干一一对应的症状描述和处方数据对,以及中药功效信息,并对所述数据对进行预处理,将预处理后的结果作为训练集;
S2、将所述中药功效信息按中药字典顺序进行排序,并通过预训练好的BERT模型得到固定长度的每个中药的功效信息编码;
S3、将预训练好的BERT模型作为编码器,将GRU作为解码器,利用所述中药功效信息的编码初始化GRU解码器的输出层参数,并利用所述训练集微调BERT编码器,同时利用所述训练集训练GRU解码器,构建中药处方生成模型;
S4、将待预测的症状句子作为测试样本输入至训练好的中药处方生成模型,并利用中药处方生成模型生成中药处方;
所述步骤S4包括以下步骤:
S401、初始化BERT编码器;
S402、将待预测的症状句子输入至BERT编码器,利用12层transformer编码单元对所述症状句子进行编码;
S403、取BERT编码器的最后一层输出的隐藏向量表示作为BERT编码器输出;
S404、将所述隐藏向量表示输入至GRU解码器中进行解码操作,生成中药处方;
所述步骤S404包括以下步骤:
S4041、根据所述隐藏向量表示利用注意力机制得到动态的症状信息编码的上下文向量ct;
S4042、根据所述症状上下文向量ct利用GRU解码器进行解码,并根据解码出来的序列生成中药处方;
所述步骤S4041中上下文向量ct的表达式如下:
所述步骤S4042中中药处方生成的过程如下:
st=f(st-1,ct,Eyt-1)
p(yt|y1,...,t,x)=g(st·H)
其中,st表示时间步为t时解码器的隐藏状态向量,f(·)表示GRU,ct表示症状信息编码的上下文向量,E表示中药词汇数量,yt-1表示上一时间步预测的中药的one-hot编码,p(yt|y1,...,t,x)表示在给定症状句子和前t个时间步的中药输出时,该时间步输出中药的概率分布,g(·)表示softmax操作,H表示中药的功效信息编码的Herb Embeddings矩阵。
2.根据权利要求1所述的基于BERT和融入功效信息的中药处方生成方法,其特征在于,所述步骤S1包括以下步骤:
S101、爬取网上公开的资料,得到方剂数据和中药数据,其中,所述中药数据包括中药别名以及中药功效信息;
S102、利用所述中药数据对方剂数据进行清洗,并利用自然语言处理方法去除制备方法和剂量,保留处方症状描述和中药组成,并对中药进行别名替换,构建初始化症状-处方对数据集;
S103、对所述症状-处方对数据集的句子语料进行分词处理;
S104、利用预训练好的BERT模型对症状字符进行词典数值化处理,并按照中药名出现的前后顺序统计不重复的药名,将统计的中药名组成中药词典,并根据中药词典对处方数据进行数值化处理,得到数值化编码后的症状-处方对训练集。
3.根据权利要求1所述的基于BERT和融入功效信息的中药处方生成方法,其特征在于,所述步骤S103中的分词处理具体为:
采用字符级划分症状句子,以及按中药名切分处方句子。
4.根据权利要求1所述的基于BERT和融入功效信息的中药处方生成方法,其特征在于,所述步骤S3中的编码器包括Embedding层以及堆叠的12层transformer编码单元;
每个所述transformer编码单元均包括多头自注意力层和前向反馈层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010054040.XA CN111312356B (zh) | 2020-01-17 | 2020-01-17 | 一种基于bert和融入功效信息的中药处方生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010054040.XA CN111312356B (zh) | 2020-01-17 | 2020-01-17 | 一种基于bert和融入功效信息的中药处方生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111312356A CN111312356A (zh) | 2020-06-19 |
CN111312356B true CN111312356B (zh) | 2022-07-01 |
Family
ID=71161465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010054040.XA Active CN111312356B (zh) | 2020-01-17 | 2020-01-17 | 一种基于bert和融入功效信息的中药处方生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111312356B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111883263A (zh) * | 2020-07-29 | 2020-11-03 | 济南浪潮高新科技投资发展有限公司 | 一种中药方剂药效辅助判定方法、装置、设备和存储介质 |
CN112420191A (zh) * | 2020-11-23 | 2021-02-26 | 北京麦岐科技有限责任公司 | 一种中医辅助决策系统及方法 |
CN112420153B (zh) * | 2020-11-26 | 2022-11-15 | 山东浪潮科学研究院有限公司 | 一种基于gan的中药方剂改进的方法 |
CN113077873B (zh) * | 2021-05-06 | 2022-11-22 | 井颐医疗信息技术(杭州)有限公司 | 一种中医临床决策支持系统及方法 |
CN113345574B (zh) * | 2021-05-26 | 2022-03-22 | 复旦大学 | 基于bert语言模型与cnn模型的中医胃痛养生方案获取装置 |
CN113688230B (zh) * | 2021-07-21 | 2024-07-26 | 武汉众智数字技术有限公司 | 一种文本摘要生成的方法及系统 |
CN115050481B (zh) * | 2022-06-17 | 2023-10-31 | 湖南中医药大学 | 一种基于图卷积神经网络的中医方剂功效预测方法 |
CN115424696B (zh) * | 2022-11-04 | 2023-02-03 | 之江实验室 | 一种基于迁移学习的中医罕见病中药处方生成方法和系统 |
CN115719628B (zh) * | 2022-11-16 | 2024-07-23 | 联仁健康医疗大数据科技股份有限公司 | 一种中医处方生成方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877923A (zh) * | 2018-05-03 | 2018-11-23 | 华南理工大学 | 一种基于深度学习的舌苔生成中药处方的方法 |
CN110083831A (zh) * | 2019-04-16 | 2019-08-02 | 武汉大学 | 一种基于BERT-BiGRU-CRF的中文命名实体识别方法 |
CN110134953A (zh) * | 2019-05-05 | 2019-08-16 | 北京科技大学 | 基于中医古籍文献的中医命名实体识别方法及识别系统 |
US20190266250A1 (en) * | 2018-02-24 | 2019-08-29 | Twenty Lane Media, LLC | Systems and Methods for Generating Jokes |
CN110222225A (zh) * | 2019-06-11 | 2019-09-10 | 苏州思必驰信息科技有限公司 | Gru编解码器训练方法、音频的摘要生成方法及装置 |
CN110390049A (zh) * | 2019-07-10 | 2019-10-29 | 北京航空航天大学 | 一种面向软件开发问题的答案自动生成方法 |
-
2020
- 2020-01-17 CN CN202010054040.XA patent/CN111312356B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190266250A1 (en) * | 2018-02-24 | 2019-08-29 | Twenty Lane Media, LLC | Systems and Methods for Generating Jokes |
CN108877923A (zh) * | 2018-05-03 | 2018-11-23 | 华南理工大学 | 一种基于深度学习的舌苔生成中药处方的方法 |
CN110083831A (zh) * | 2019-04-16 | 2019-08-02 | 武汉大学 | 一种基于BERT-BiGRU-CRF的中文命名实体识别方法 |
CN110134953A (zh) * | 2019-05-05 | 2019-08-16 | 北京科技大学 | 基于中医古籍文献的中医命名实体识别方法及识别系统 |
CN110222225A (zh) * | 2019-06-11 | 2019-09-10 | 苏州思必驰信息科技有限公司 | Gru编解码器训练方法、音频的摘要生成方法及装置 |
CN110390049A (zh) * | 2019-07-10 | 2019-10-29 | 北京航空航天大学 | 一种面向软件开发问题的答案自动生成方法 |
Non-Patent Citations (5)
Title |
---|
Attention Is All You Need;Ashish Vaswani 等;《arxiv》;20171206;全文 * |
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding;Jacob Devlin 等;《arxiv》;20181011;全文 * |
一文读懂BERT(原理篇);废柴当自强;《CSDN》;20190419;全文 * |
人工神经网络在药物制剂研究中的应用;苏青等;《成都医学院学报》;20070315;第2卷(第01期);37-70 * |
基于深度学习的电子病历应用与研究;肖严;《中国优秀博硕士学位论文全文数据库(硕士) 医药卫生科技辑》;20200115(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111312356A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111312356B (zh) | 一种基于bert和融入功效信息的中药处方生成方法 | |
CN110598221B (zh) | 利用生成对抗网络构造蒙汉平行语料提高蒙汉翻译质量的方法 | |
CN110737769B (zh) | 一种基于神经主题记忆的预训练文本摘要生成方法 | |
CN109471895A (zh) | 电子病历表型抽取、表型名称规范化方法及系统 | |
CN111858932B (zh) | 基于Transformer的多重特征中英文情感分类方法及系统 | |
CN111897949A (zh) | 一种基于Transformer的引导性文本摘要生成方法 | |
CN110059324B (zh) | 基于依存信息监督的神经网络机器翻译方法及装置 | |
CN112084314A (zh) | 一种引入知识的生成式会话系统 | |
CN109062910A (zh) | 基于深度神经网络的句子对齐方法 | |
CN116738985B (zh) | 医学文本的标准化处理方法及装置 | |
Kesavan et al. | Deep learning based automatic image caption generation | |
CN111723196A (zh) | 基于多任务学习的单文档摘要生成模型构建方法及装置 | |
CN113515619B (zh) | 一种基于显著性信息门控机制的关键词生成方法 | |
CN111444730A (zh) | 基于Transformer模型的数据增强维汉机器翻译系统训练方法和装置 | |
CN115906857A (zh) | 一种基于词汇增强的中医文本命名实体识别方法 | |
CN114861601A (zh) | 基于旋转式编码的事件联合抽取方法及存储介质 | |
CN114972907A (zh) | 基于强化学习和对比学习的图像语义理解及文本生成 | |
CN117932066A (zh) | 一种基于预训练的“提取-生成”式答案生成模型及方法 | |
CN111353315B (zh) | 一种基于随机残差算法的深层神经机器翻译系统 | |
CN116681090A (zh) | BestTransformer汉盲转换方法及系统 | |
CN110825869A (zh) | 一种基于复制机制的变分生成解码器的文本摘要生成方法 | |
CN116663501A (zh) | 一种基于多模态共享权重的中文变体文本转换方法 | |
CN114757177B (zh) | 一种基于bart融合指针生成网络的文本摘要方法 | |
CN116521857A (zh) | 基于图形增强的问题驱动抽象式多文本答案摘要方法与装置 | |
CN116151260A (zh) | 一种基于半监督学习的糖尿病命名实体识别模型构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |