CN113988013A - 基于多任务学习和图注意力网络的icd编码方法及装置 - Google Patents

基于多任务学习和图注意力网络的icd编码方法及装置 Download PDF

Info

Publication number
CN113988013A
CN113988013A CN202111243214.8A CN202111243214A CN113988013A CN 113988013 A CN113988013 A CN 113988013A CN 202111243214 A CN202111243214 A CN 202111243214A CN 113988013 A CN113988013 A CN 113988013A
Authority
CN
China
Prior art keywords
coding
task
icd
text
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111243214.8A
Other languages
English (en)
Inventor
张勇
田冰
李欣
李超
盛明
王霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202111243214.8A priority Critical patent/CN113988013A/zh
Publication of CN113988013A publication Critical patent/CN113988013A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于多任务学习和图注意力网络的ICD编码方法及装置,方法包括:获取至少一个编码预测任务对应的医疗文本;至少一个编码预测任务包括ICD编码任务;根据至少一个编码预测任务对应的医疗文本,构建相应的文本图;将文本图输入编码预测模型,得到编码预测结果;编码预测结果包括ICD编码结果,编码预测模型基于训练数据对图注意力网络进行训练得到。本发明提供的基于多任务学习和图注意力网络的ICD编码方法及装置,由于在编码预测前先将医疗文本转化为文本图的形式,可以缓解数据不平衡的问题,有效提高了医疗文本的自动编码效果,编码结果更加准确、可靠。

Description

基于多任务学习和图注意力网络的ICD编码方法及装置
技术领域
本发明涉及医疗文本处理技术领域,尤其涉及一种基于多任务学习和图注意力网络的ICD编码方法及装置。
背景技术
国际疾病编码(International Code of Disease,ICD)是一种国际统一的疾病分类方法,也是卫生信息标准体系的重要组成部分。在医疗文本处理领域,医疗文本的ICD编码是一项非常重要的任务,通常由专业的ICD编码员完成编码工作,编码员需要在翻阅详细厚重的病案信息后,才能给出正确的编码结果,存在费时费力、效率低下的问题。
为此,自动ICD编码技术应运而生,但现有的自动ICD编码方法忽略了医疗文本中的数据不平衡的问题,得到的ICD编码结果不够准确。
因此,现在亟需一种可以缓解医疗文本数据不平衡问题、编码结果更加准确的ICD编码方法。
发明内容
本发明提供一种基于多任务学习和图注意力网络的ICD编码方法及装置,用以解决现有技术中自动ICD编码方法忽略了医疗文本中数据不平衡的问题,得到的ICD编码结果不够准确的缺陷。
第一方面,本发明提供一种基于多任务学习和图注意力网络的ICD编码方法,该方法包括:
获取至少一个编码预测任务对应的医疗文本;其中,所述至少一个编码预测任务包括ICD编码任务;
根据所述至少一个编码预测任务对应的医疗文本,构建相应的文本图;
将所述文本图输入编码预测模型,得到所述编码预测模型输出的编码预测结果;
其中,所述编码预测结果包括ICD编码结果;所述编码预测模型是基于训练数据对图注意力网络进行训练得到的,所述训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
根据本发明提供的一种基于多任务学习和图注意力网络的ICD编码方法,根据所述至少一个编码预测任务对应的医疗文本,构建相应的文本图,包括:
根据编码预测任务对应的医疗文本,获取与所述医疗文本相关的概念;
分别识别各个概念与所述医疗文本之间的关系,并确定各个概念之间的关系;
将所述医疗文本和所述概念作为节点,并将各个概念与所述医疗文本之间的关系以及各个概念之间的关系作为边,构建得到相应的文本图。
根据本发明提供的一种基于多任务学习和图注意力网络的ICD编码方法,将所述文本图输入编码预测模型,得到所述编码预测模型输出的编码预测结果,包括:
将至少一个编码预测任务对应的所述文本图输入图注意力网络编码层;其中,所述图注意力网络编码层包括多个用于处理不同等级编码预测任务的子编码层;
根据所述编码预测任务对应的处理等级,通过相应的子编码层对所述编码预测任务对应的文本图进行处理,得到编码预测结果。
根据本发明提供的一种基于多任务学习和图注意力网络的ICD编码方法,将所述文本图输入编码预测模型,得到所述编码预测模型输出的编码预测结果,包括:
将至少一个编码预测任务对应的所述文本图输入相应的特定任务编码层进行处理,得到至少一个特定任务处理结果;
将至少一个编码预测任务对应的所述文本图输入全局共享编码层进行处理,得到全局共享处理结果;
将所述至少一个特定任务处理结果分别与所述全局共享处理结果进行加权求和,得到编码预测结果。
根据本发明提供的一种基于多任务学习和图注意力网络的ICD编码方法,所述至少一个编码预测任务还包括治疗方案推荐任务。
根据本发明提供的一种基于多任务学习和图注意力网络的ICD编码方法,所述至少一个编码预测任务还包括死亡预测任务。
第二方面,本发明还提供一种基于多任务学习和图注意力网络的ICD编码装置,该装置包括:
获取模块,用于获取至少一个编码预测任务对应的医疗文本;其中,所述至少一个编码预测任务包括ICD编码任务;
第一处理模块,用于根据所述至少一个编码预测任务对应的医疗文本,构建相应的文本图;
第二处理模块,用于将所述文本图输入编码预测模型,得到所述编码预测模型输出的编码预测结果;
其中,所述编码预测结果包括ICD编码结果;所述编码预测模型是基于训练数据对图注意力网络进行训练得到的,所述训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
第三方面,本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述基于多任务学习和图注意力网络的ICD编码方法的步骤。
第四方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述基于多任务学习和图注意力网络的ICD编码方法的步骤。
第五方面,本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述基于多任务学习和图注意力网络的ICD编码方法的步骤。
本发明提供的基于多任务学习和图注意力网络的ICD编码方法及装置,通过基于编码预测任务对应的医疗文本构建相应的文本图,将文本图输入编码预测模型,得到编码预测模型输出的编码预测结果,由于在编码预测前先将医疗文本数据转化为文本图的形式,可以缓解数据不平衡的问题,有效提高了医疗文本的自动ICD编码效果,得到的编码结果更加准确、可靠。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于多任务学习和图注意力网络的ICD编码方法的流程示意图;
图2是文本图的构建原理示意图;
图3是基于通用共享层次多任务学习方式的数据处理原理示意图;
图4是基于任务特定共享多任务学习方式的数据处理原理示意图;
图5是本发明提供的基于多任务学习和图注意力网络的ICD编码装置的结构示意图;
图6是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合图1至图4描述本发明实施例提供的基于多任务学习和图注意力网络的ICD编码方法的实现流程。
图1示出了本发明实施例提供基于多任务学习和图注意力网络的ICD编码方法,该方法包括:
步骤110:获取至少一个编码预测任务对应的医疗文本;其中,至少一个编码预测任务包括ICD编码任务。
本实施例中编码预测任务可以包含ICD编码任务、治疗方案推荐任务以及死亡预测任务,不同任务对应的医疗文本不同。
步骤120:根据至少一个编码预测任务对应的医疗文本,构建相应的文本图。
由于本实施例中编码预测任务可以包含多个任务,不同任务对应的医疗文本不同,所以针对不同任务需要建立相应的文本图。
具体地,参见附图2,本实施例中构建相应的文本图的过程,包括:
首先,根据编码预测任务对应的医疗文本,获取与医疗文本相关的概念。
本实施例将某一任务的医疗文本输入到MetaMap中,获取医疗相关的概念,即UMLS医疗领域知识。MetaMap是一个把生物医学文本与UMLS(Unified Medical LanguageSystem,一体化医学语言系统)超级词表中的概念匹配起来的程序,该程序可以设置很多参数,这些参数用于控制MetaMap的输出以及内部运行(如单词变形的程度、是否忽略超级词表中含有常见词的字串,是否考虑字母的顺序等等)。
然后,分别识别各个概念与医疗文本之间的关系,并确定各个概念之间的关系。
在确定概念与文本间的关系时,本实施例使用TF-IDF方法来识别概念和文本节点之间的边。TF-IDF是一种统计方法,用以评估字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。
在确定概念与概念之间的关系时,首先使用UMLS来获得概念之间的初始关系,然后统计概念在文本中的共现次数,之后利用逐点互信息(Pointwise Mutual Information,PMI)来计算概念之间的关联,计算公式如下:
Figure BDA0003320196580000061
其中,#W(i)表示包含概念i的滑动窗口的数量,#W(j)表示包含概念j的滑动窗口的数量,#W(i,j)表示同时包含概念i和j的滑动窗口的数量,#W表示总的滑动窗口的数量。
最后,将医疗文本和概念作为节点,并将各个概念与医疗文本之间的关系以及各个概念之间的关系作为边,构建得到相应的文本图。
由于本实施例中文本图包含文本与概念以及概念与概念之间的关联关系,相比于原来散落的医疗文本数据,可以有效缓解数据不平衡的问题。
步骤130:将文本图输入编码预测模型,得到编码预测模型输出的编码预测结果;
其中,编码预测结果包括ICD编码结果;编码预测模型是基于训练数据对图注意力网络进行训练得到的,训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
可以理解的是,本实施例中使用的图注意力网络是指在图数据上采用了注意力机制进行编码的神经网络。
在实际应用中,可能涉及多个编码预测任务的处理需求,比如可能需要获得ICD编码结果、治疗方案推荐结果以及死亡预测结果,为此,本实施例中编码预测模型可以实现多个任务的同步处理,该模型采用多任务学习方式,具体地,本实施例主要采用通用共享层次多任务学习和任务特定共享多任务学习两种方式,学习过程中的主任务是自动ICD编码,即将一个国际疾病编码通过计算赋值给一段文本,两个辅助任务分别是治疗方案推荐和死亡预测。
可以理解的是,通用共享层次多任务学习是指在文本图建模中不同的任务共享相同的图注意力编码方法,任务特定共享多任务学习是指在不同的任务共享知识的同时保留了各个任务特点的方法。
参见附图3,采用通用共享层次多任务学习方式时,不同的任务通过一个共享的图注意力网络编码层进行处理,在这个过程中,对不同的编码预测任务进行分层,实现低级别任务在图注意力网络的较低级别进行监督学习,同时在更深的层保持更复杂的交互。
每个任务通过各自的子编码层进行最终的预测,卷积处理的公式如下:
Figure BDA0003320196580000081
其中,假定任务k将第t层作为输出层,h表示文本图中节点的向量表示,Θ(s)表示图注意力网络的参数。
如果编码预测模型是通过上述通用共享层次多任务学习方式训练得到的,相应地,将文本图输入编码预测模型,得到编码预测模型输出的编码预测结果,包括:
将至少一个编码预测任务对应的文本图输入图注意力网络编码层;其中,图注意力网络编码层包括多个用于处理不同等级编码预测任务的子编码层;
根据编码预测任务对应的处理等级,通过相应的子编码层对编码预测任务对应的文本图进行处理,得到编码预测结果。
比如对于ICD编码、治疗方案推荐和死亡预测三个任务,在实际医学诊断过程中,需要先根据ICD编码结果确定病因,之后根据治疗方案推荐结果给出治疗推荐方案,即用药方案,最后根据死亡预测结果对患者进行死亡或者存活判断。
根据上述诊断环节各任务的执行顺序,可以确定ICD编码为高级别任务,治疗方案推荐为次级别任务,死亡预测为低级别任务,因此在图注意力网络中,ICD编码任务可以在编码层的前n层子编码层中完成,治疗方案推荐任务在前n+i层子编码层中完成,死亡预测任务在前n+j层子编码层中完成,其中i<j,且二者均为正数。
参见附图3,本实施例以ICD编码任务和死亡预测任务为例,首先将ICD编码任务对应的文本图和死亡预测任务对应的文本图均输入共享的图注意力网络编码层,通过相应的子编码层进行处理后,在相应层输出ICD编码结果和死亡预测结果。
参见附图4,采用任务特定共享多任务学习方式时,任务数据的处理过程如下:
首先,将每个任务通过各自的特定任务编码层进行处理,对于t层的特定任务的输出,公式如下:
Figure BDA0003320196580000091
其中,αvu表示节点u到v的注意力系数,具体表达式为:
Figure BDA0003320196580000092
上式中,W表示权重矩阵,
Figure BDA0003320196580000093
表示文本图中节点v的邻居节点,f表示LeakyReLU函数,aT表示权重向量。
然后,将所有任务通过全局共享的全局共享编码层进行处理,处理的结果分别输入到每个任务的特定任务编码层中,对于t层的全局共享输出结果,公式如下:
Figure BDA0003320196580000094
其中,Θ(s)表示全局共享编码层的参数。
最后,任务k的最终输出是特定任务编码层输出结果和全局共享编码层输出结果的加权和,其卷积处理公式如下:
Figure BDA0003320196580000095
其中,gi→k(i∈s,k)分别控制从全局共享编码层和特定任务编码层传递到任务k的信息流部分。
如果编码预测模型是通过上述特定共享多任务学习方式训练得到的,相应地,将文本图输入编码预测模型,得到编码预测模型输出的编码预测结果,包括:
将至少一个编码预测任务对应的文本图输入相应的特定任务编码层进行处理,得到至少一个特定任务处理结果;
将至少一个编码预测任务对应的文本图输入全局共享编码层进行处理,得到全局共享处理结果;
将至少一个特定任务处理结果分别与全局共享处理结果进行加权求和,得到编码预测结果。
参见附图4,本实施例以ICD编码任务和死亡预测任务为例进行说明,分别将ICD编码任务对应的文本图和死亡预测任务对应的文本图输入到各自对应的特定任务编码层进行处理,并将ICD编码任务对应的文本图和死亡预测任务对应的文本图共同输入到全局共享编码层进行处理,得到的全局共享处理结果分别输入ICD编码任务对应的特定任务编码层和死亡预测任务对应的特定任务编码层,将ICD编码任务对应的特定任务处理结果与全局共享处理结果进行加权求和,输出ICD编码结果;并将死亡预测任务对应的特定任务处理结果与全局共享处理结果进行加权求和,得到死亡预测结果。
本实施例中编码预测模型在进行训练时,主要完成定义损失函数并进行参数优化的过程,该训练过程中采用如下损失函数:
Figure BDA0003320196580000101
其中,Nk表示训练样本的数量,C表示类别个数,
Figure BDA0003320196580000102
表示真实值,
Figure BDA0003320196580000103
表示预测的概率,Θ表示所有训练参数的集合。
对于自动ICD编码任务和治疗方案推荐任务,使用sigmoid作为激活函数,对于死亡预测这样的二分类任务,使用softmax作为激活函数。最终ICD编码结果包含医疗文本的ICD标注结果,治疗方案推荐结果包含治疗需要的药物,即用药方案,死亡预测结果为死亡或存活信息。
这样,本发明实施例在ICD编码任务的基础上,加入了两个辅助任务,能够在不同的任务间共享信息,在实现ICD编码的同时,还能够同步进行治疗方案推荐和死亡预测,功能更加完善。
下面对本发明提供的基于多任务学习和图注意力网络的ICD编码装置进行描述,下文描述的基于多任务学习和图注意力网络的ICD编码装置与上文描述的基于多任务学习和图注意力网络的ICD编码方法可相互对应参照。
图5示出了本发明实施例提供的基于多任务学习和图注意力网络的ICD编码装置,该装置包括:
获取模块510,用于获取至少一个编码预测任务对应的医疗文本;其中,至少一个编码预测任务包括ICD编码任务;
第一处理模块520,用于根据至少一个编码预测任务对应的医疗文本,构建相应的文本图;
第二处理模块530,用于将文本图输入编码预测模型,得到编码预测模型输出的编码预测结果;
其中,编码预测结果包括ICD编码结果;编码预测模型是基于训练数据对图注意力网络进行训练得到的,训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
需要说明的是,本发明实施例提供的ICD编码装置主要实现对临床记录文本,即医疗文本进行ICD标注的功能。此外,编码预测任务还可以包括两个辅助任务,即治疗方案推荐任务和死亡预测任务。
本实施例提到的文本图是指利用知识来帮助构建实体层次的异构文本图,其本质是通过将文本和文本中的概念作为节点,以文本-概念和概念-概念为边组成的无向图。
具体地,本实施例中第一处理模块520,包括:
概念获取单元,用于根据编码预测任务对应的医疗文本,获取与医疗文本相关的概念;
关系识别单元,用于分别识别各个概念与医疗文本之间的关系,并确定各个概念之间的关系;
文本图构建单元,用于将医疗文本和概念作为节点,并将各个概念与医疗文本之间的关系以及各个概念之间的关系作为边,构建得到相应的文本图。
在一个具体的实施例中,第二处理模块530包括:
第一输入单元,用于将至少一个编码预测任务对应的文本图输入图注意力网络编码层;其中,图注意力网络编码层包括多个用于处理不同等级编码预测任务的子编码层;
第一预测单元,用于根据编码预测任务对应的处理等级,通过相应的子编码层对编码预测任务对应的文本图进行处理,得到编码预测结果。
在另一个具体的实施例中,第二处理模块530包括:
第二输入单元,用于将至少一个编码预测任务对应的文本图输入相应的特定任务编码层进行处理,得到至少一个特定任务处理结果;
第三输入单元,用于将至少一个编码预测任务对应的文本图输入全局共享编码层进行处理,得到全局共享处理结果;
第二预测单元,用于将至少一个特定任务处理结果分别与全局共享处理结果进行加权求和,得到编码预测结果。
由此可见,本发明实施例提供的基于多任务学习和图注意力网络的ICD编码装置,一方面利用文本图来获取不同层次的语义概念之间以及文本与概念之间的关联,从而缓解数据不平衡的问题。另一方面,还增加了两个辅助的任务,即治疗方案推荐任务和死亡预测任务,从而能够在不同的任务间共享信息。上述两个方面的改进,大大提高了医疗文本的自动ICD编码的效果。
图6示例了一种电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(processor)610、通信接口(Communications Interface)620、存储器(memory)630和通信总线640,其中,处理器610,通信接口620,存储器630通过通信总线640完成相互间的通信。处理器610可以调用存储器630中的逻辑指令,以执行基于多任务学习和图注意力网络的ICD编码方法,该方法包括:获取至少一个编码预测任务对应的医疗文本;其中,至少一个编码预测任务包括ICD编码任务;根据至少一个编码预测任务对应的医疗文本,构建相应的文本图;将文本图输入编码预测模型,得到编码预测模型输出的编码预测结果;其中,编码预测结果包括ICD编码结果;编码预测模型是基于训练数据对图注意力网络进行训练得到的,训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
此外,上述的存储器630中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的基于多任务学习和图注意力网络的ICD编码方法,该方法包括:获取至少一个编码预测任务对应的医疗文本;其中,至少一个编码预测任务包括ICD编码任务;根据至少一个编码预测任务对应的医疗文本,构建相应的文本图;将文本图输入编码预测模型,得到编码预测模型输出的编码预测结果;其中,编码预测结果包括ICD编码结果;编码预测模型是基于训练数据对图注意力网络进行训练得到的,训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的基于多任务学习和图注意力网络的ICD编码方法,该方法包括:获取至少一个编码预测任务对应的医疗文本;其中,至少一个编码预测任务包括ICD编码任务;根据至少一个编码预测任务对应的医疗文本,构建相应的文本图;将文本图输入编码预测模型,得到编码预测模型输出的编码预测结果;其中,编码预测结果包括ICD编码结果;编码预测模型是基于训练数据对图注意力网络进行训练得到的,训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于多任务学习和图注意力网络的ICD编码方法,其特征在于,包括:
获取至少一个编码预测任务对应的医疗文本;其中,所述至少一个编码预测任务包括ICD编码任务;
根据所述至少一个编码预测任务对应的医疗文本,构建相应的文本图;
将所述文本图输入编码预测模型,得到所述编码预测模型输出的编码预测结果;
其中,所述编码预测结果包括ICD编码结果;所述编码预测模型是基于训练数据对图注意力网络进行训练得到的,所述训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
2.根据权利要求1所述的一种基于多任务学习和图注意力网络的ICD编码方法,其特征在于,根据所述至少一个编码预测任务对应的医疗文本,构建相应的文本图,包括:
根据编码预测任务对应的医疗文本,获取与所述医疗文本相关的概念;
分别识别各个概念与所述医疗文本之间的关系,并确定各个概念之间的关系;
将所述医疗文本和所述概念作为节点,并将各个概念与医疗文本之间的关系以及各个概念之间的关系作为边,构建得到相应的文本图。
3.根据权利要求1所述的一种基于多任务学习和图注意力网络的ICD编码方法,其特征在于,将所述文本图输入编码预测模型,得到所述编码预测模型输出的编码预测结果,包括:
将至少一个编码预测任务对应的所述文本图输入图注意力网络编码层;其中,所述图注意力网络编码层包括多个用于处理不同等级编码预测任务的子编码层;
根据所述编码预测任务对应的处理等级,通过相应的子编码层对所述编码预测任务对应的文本图进行处理,得到编码预测结果。
4.根据权利要求1所述的一种基于多任务学习和图注意力网络的ICD编码方法,其特征在于,将所述文本图输入编码预测模型,得到所述编码预测模型输出的编码预测结果,包括:
将至少一个编码预测任务对应的所述文本图输入相应的特定任务编码层进行处理,得到至少一个特定任务处理结果;
将至少一个编码预测任务对应的所述文本图输入全局共享编码层进行处理,得到全局共享处理结果;
将所述至少一个特定任务处理结果分别与所述全局共享处理结果进行加权求和,得到编码预测结果。
5.根据权利要求1所述的一种基于多任务学习和图注意力网络的ICD编码方法,其特征在于,所述至少一个编码预测任务还包括治疗方案推荐任务。
6.根据权利要求1或5所述的一种基于多任务学习和图注意力网络的ICD编码方法,其特征在于,所述至少一个编码预测任务还包括死亡预测任务。
7.一种基于多任务学习和图注意力网络的ICD编码装置,其特征在于,包括:
获取模块,用于获取至少一个编码预测任务对应的医疗文本;其中,所述至少一个编码预测任务包括ICD编码任务;
第一处理模块,用于根据所述至少一个编码预测任务对应的医疗文本,构建相应的文本图;
第二处理模块,用于将所述文本图输入编码预测模型,得到所述编码预测模型输出的编码预测结果;
其中,所述编码预测结果包括ICD编码结果;所述编码预测模型是基于训练数据对图注意力网络进行训练得到的,所述训练数据包括基于ICD编码任务对应的医疗文本构建的文本图样本数据以及相应的ICD编码结果样本数据。
8.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述基于多任务学习和图注意力网络的ICD编码方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述基于多任务学习和图注意力网络的ICD编码方法的步骤。
10.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述基于多任务学习和图注意力网络的ICD编码方法的步骤。
CN202111243214.8A 2021-10-25 2021-10-25 基于多任务学习和图注意力网络的icd编码方法及装置 Pending CN113988013A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111243214.8A CN113988013A (zh) 2021-10-25 2021-10-25 基于多任务学习和图注意力网络的icd编码方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111243214.8A CN113988013A (zh) 2021-10-25 2021-10-25 基于多任务学习和图注意力网络的icd编码方法及装置

Publications (1)

Publication Number Publication Date
CN113988013A true CN113988013A (zh) 2022-01-28

Family

ID=79741165

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111243214.8A Pending CN113988013A (zh) 2021-10-25 2021-10-25 基于多任务学习和图注意力网络的icd编码方法及装置

Country Status (1)

Country Link
CN (1) CN113988013A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112530582A (zh) * 2020-12-11 2021-03-19 万达信息股份有限公司 一种辅助死因分类编码的智能系统
CN115270718A (zh) * 2022-07-26 2022-11-01 中国医学科学院阜外医院 一种疾病编码的自动编目方法及系统
CN116227433A (zh) * 2023-05-09 2023-06-06 武汉纺织大学 基于医学知识注入提示的少样本icd编码方法和系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112530582A (zh) * 2020-12-11 2021-03-19 万达信息股份有限公司 一种辅助死因分类编码的智能系统
CN112530582B (zh) * 2020-12-11 2023-11-14 万达信息股份有限公司 一种辅助死因分类编码的智能系统
CN115270718A (zh) * 2022-07-26 2022-11-01 中国医学科学院阜外医院 一种疾病编码的自动编目方法及系统
CN115270718B (zh) * 2022-07-26 2023-10-10 中国医学科学院阜外医院 一种疾病编码的自动编目方法及系统
CN116227433A (zh) * 2023-05-09 2023-06-06 武汉纺织大学 基于医学知识注入提示的少样本icd编码方法和系统
CN116227433B (zh) * 2023-05-09 2023-07-04 武汉纺织大学 基于医学知识注入提示的少样本icd编码方法和系统

Similar Documents

Publication Publication Date Title
CN110442869B (zh) 一种医疗文本处理方法及其装置、设备和存储介质
CN113988013A (zh) 基于多任务学习和图注意力网络的icd编码方法及装置
JP7466058B2 (ja) グラフニューラルネットワークに基づく臨床オミックスデータ処理方法、装置、電子機器、及びコンピュータプログラム
CN112084789B (zh) 文本处理方法、装置、设备及存储介质
CN109739995B (zh) 一种信息处理方法及装置
CN110866124A (zh) 基于多数据源的医学知识图谱融合方法及装置
CN110598786B (zh) 神经网络的训练方法、语义分类方法、语义分类装置
Meacham et al. Towards explainable AI: Design and development for explanation of machine learning predictions for a patient readmittance medical application
KR102620904B1 (ko) 자연 솔루션 언어
CN112201359A (zh) 基于人工智能的重症问诊数据识别方法及装置
CN113096756A (zh) 病情演变分类方法、装置、电子设备和存储介质
US20220044329A1 (en) Predictive System for Request Approval
US11520986B2 (en) Neural-based ontology generation and refinement
Pires et al. SnakeFace: a transfer learning based app for snake classification
CN112948580A (zh) 一种文本分类的方法和系统
WO2020046159A1 (ru) Система и способ для хранения и обработки данных
JP7442217B1 (ja) プログラム、情報処理方法、および情報処理装置
Babbar et al. Connectionist model in artificial intelligence
Miller Clinical ambiguity in the intelligent machine era (treats breaks and discharges)
Greenhill The physician executive’s crash course on AI in health care
Jauhari How do Big Data and Generative AI dawn on Computational Biology?
CN117876090A (zh) 风险识别方法、电子设备、存储介质及程序产品
CN116631402A (zh) 一种业务查询方法、装置、电子设备及存储介质
KR20230081294A (ko) 신경망의 학습 방법, 인공지능 장치 및 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램
CN118093604A (zh) 知识图谱更新方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination