CN116740476A - 一种基于患者360可视化人体自动标注方法 - Google Patents
一种基于患者360可视化人体自动标注方法 Download PDFInfo
- Publication number
- CN116740476A CN116740476A CN202311025363.6A CN202311025363A CN116740476A CN 116740476 A CN116740476 A CN 116740476A CN 202311025363 A CN202311025363 A CN 202311025363A CN 116740476 A CN116740476 A CN 116740476A
- Authority
- CN
- China
- Prior art keywords
- patient
- layer
- information
- human body
- input end
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002372 labelling Methods 0.000 title claims abstract description 29
- 238000012800 visualization Methods 0.000 title claims description 7
- 230000000007 visual effect Effects 0.000 claims abstract description 34
- 238000004088 simulation Methods 0.000 claims abstract description 24
- 210000000056 organ Anatomy 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000000605 extraction Methods 0.000 claims description 35
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 13
- 238000010276 construction Methods 0.000 claims description 9
- 238000000034 method Methods 0.000 claims description 8
- 238000011282 treatment Methods 0.000 description 5
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 208000019622 heart disease Diseases 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 206010061218 Inflammation Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011269 treatment regimen Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
本发明提供了一种基于患者360可视化人体自动标注方法,本发明中建立了360可视化人体仿真模型,将身体部位、器官名称和生理参数标注在该模型上,通过语义识别对患者信息进行处理,得到语义信息,从而实现对患者信息的处理,对获取的语义信息进行分类,得到各个信息的类别,从而根据类别,将其关联到360可视化人体仿真模型对应的标注下,在患者与医生沟通时,可直接指明问题部位,以及病情信息,给患者和医生均呈现直观的视觉,减少了患者理解病情难度和就诊时间。
Description
技术领域
本发明涉及语义识别技术领域,具体而言,涉及一种基于患者360可视化人体自动标注方法。
背景技术
在医院中,患者根据诊断书,以及医生描述从而明确自身的患病位置,以及患病类型和患病情况。但这种方式,医生需要花费大量的时间帮助患者认清自身情况,造成就诊时间长,患者理解病情难度大。
发明内容
本发明的目的在于提供一种基于患者360可视化人体自动标注方法,其解决了患者与医生沟通时缺乏参考对象,存在就诊时间长,患者理解病情难度大的问题。
本发明的实施例通过以下技术方案实现:一种基于患者360可视化人体自动标注方法,包括以下步骤:
S1、建立360可视化人体仿真模型;
S2、对360可视化人体仿真模型进行标注;
S3、采用语义识别模型对患者信息进行语义识别,得到语义信息;
S4、根据360可视化人体仿真模型上标注的信息,对语义信息进行分类,得到患者各个信息的类别;
S5、根据患者各个信息的类别,将患者的各个信息关联到标注后的360可视化人体仿真模型对应标注信息下。
进一步地,所述S2中标注的信息包括:身体部位、器官和生理参数。
进一步地,所述语义识别模型包括:特征提取单元、注意力单元和分类单元;
所述特征提取单元的输入端作为语义识别模型的输入端,其输出端与注意力单元的输入端连接;所述分类单元的输入端与注意力单元的输出端连接,其输出端作为语义识别模型的输出端。
进一步地,所述特征提取单元包括:第一卷积层、第二卷积层、全局池化层、向量构建层、全连接层、矩阵变换层、特征提取层和乘法器M1;
所述第一卷积层的输入端作为特征提取单元的输入端,其输出端分别与矩阵变换层的输入端、第二卷积层的输入端和全局池化层的输入端连接;所述向量构建层的输入端与全局池化层的输出端连接,其输出端与全连接层的输入端连接,所述乘法器M1的第一输入端与全连接层的输出端连接,其第二输入端与第二卷积层的输出端连接;所述特征提取层的第一输入端与乘法器M1的输出端连接,其第二输入端与矩阵变换层的输出端连接,其输出端作为特征提取单元的输出端。
进一步地,所述第一卷积层内置个卷积核,用于处理/>的患者信息,得到/>个的患者信息,其中,/>为患者信息的高度,/>为患者信息的宽度,/>为通道数;
所述全局池化层的数量有个,/>个池化层对每个通道的患者信息进行池化处理,得到/>个数值;
所述向量构建层将个数值组成一个/>维向量;
所述全连接层用于根据每维向量,计算出一个权重值,得到个权重值。
上述进一步地方案的有益效果:本发明中根据每个通道的信息,从而计算出每个通道的权重,实现对每个通道的信息进行加权,自适应的增加特征关注度,提高不同信息的分类精度。
进一步地,所述第二卷积层的卷积核大小为1*1,所述乘法器M1用于将个权重值与第二卷积层输出后的/>个/>的患者信息进行加权,得到患者特征信息。
进一步地,所述矩阵变换层用于将第一卷积层输出的每个通道的的患者信息进行转置运算。
进一步地,所述特征提取层的表达式为:
其中,为第/>个通道的特征,/>为双曲正切函数,/>为矩阵变换层输出的第/>个通道的患者信息,/>为/>的权重,/>为第/>个通道的患者特征信息,/>为/>的权重,/>为哈达玛积。
进一步地,所述注意力单元的表达式为:
其中,为注意力单元的第/>个输出,/>为激活函数,/>为通道数。
进一步地,所述语义识别模型的损失函数为:
其中,为损失函数,/>为样本数量,/>为第/>个样本的标签,/>为第/>个样本经语义识别模型处理后对应的输出,/>为对数函数。
本发明实施例的技术方案至少具有如下优点和有益效果:本发明中建立了360可视化人体仿真模型,将身体部位、器官名称和生理参数标注在该模型上,通过语义识别对患者信息进行处理,得到语义信息,从而实现对患者信息的处理,对获取的语义信息进行分类,得到各个信息的类别,从而根据类别,将其关联到360可视化人体仿真模型对应的标注下,在患者与医生沟通时,可直接指明问题部位,以及病情信息,给患者和医生均呈现直观的视觉,减少了患者理解病情难度和就诊时间。
附图说明
图1为一种基于患者360可视化人体自动标注方法的流程图;
图2为语义识别模型的结构示意图;
图3为特征提取单元的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
如图1所示,一种基于患者360可视化人体自动标注方法,包括以下步骤:
S1、建立360可视化人体仿真模型;
在本发明中360定义为:该人体仿真模型的360°可观察可查看。
通过现有医学图像处理软件和人体三维建模软件,构建人体仿真模型。
S2、对360可视化人体仿真模型进行标注;
标注方法包括文本标注和图形标注,具体地根据人体结构形成元素标签,如身体部位、器官、生理参数等。
S3、采用语义识别模型对患者信息进行语义识别,得到语义信息;
在S3中患者信息包括:影像学资料和诊断资料等。
S4、根据360可视化人体仿真模型上标注的信息,对语义信息进行分类,得到患者各个信息的类别;
在本发明中,360可视化人体仿真模型上标注的信息就是语义信息待分类的类型。
S5、根据患者各个信息的类别,将患者的各个信息关联到标注后的360可视化人体仿真模型对应标注信息下。
例如,患者信息中有部分内容属于心脏病,则该部分患者信息的类别为心脏病,将该部分患者信息关联到360可视化人体仿真模型标注的心脏的心脏病,从而进行直观显示。
所述S2中标注的信息包括:身体部位、器官和生理参数。
如图2所示,所述语义识别模型包括:特征提取单元、注意力单元和分类单元;
所述特征提取单元的输入端作为语义识别模型的输入端,其输出端与注意力单元的输入端连接;所述分类单元的输入端与注意力单元的输出端连接,其输出端作为语义识别模型的输出端。
如图3所示,所述特征提取单元包括:第一卷积层、第二卷积层、全局池化层、向量构建层、全连接层、矩阵变换层、特征提取层和乘法器M1;
所述第一卷积层的输入端作为特征提取单元的输入端,其输出端分别与矩阵变换层的输入端、第二卷积层的输入端和全局池化层的输入端连接;所述向量构建层的输入端与全局池化层的输出端连接,其输出端与全连接层的输入端连接,所述乘法器M1的第一输入端与全连接层的输出端连接,其第二输入端与第二卷积层的输出端连接;所述特征提取层的第一输入端与乘法器M1的输出端连接,其第二输入端与矩阵变换层的输出端连接,其输出端作为特征提取单元的输出端。
所述第一卷积层内置个卷积核,用于处理/>的患者信息,得到/>个/>的患者信息,其中,/>为患者信息的高度,/>为患者信息的宽度,/>为通道数。
特征提取单元的输入量为一个的患者信息,经过第一卷积层处理,得到/>个的患者信息,即每个卷积核处理得到一个新的患者信息。
所述全局池化层的数量有个,/>个池化层对每个通道的患者信息进行池化处理,得到/>个数值;
所述向量构建层将个数值组成一个/>维向量;
所述全连接层用于根据每维向量,计算出一个权重值,得到个权重值。
所述第二卷积层的卷积核大小为1*1,所述乘法器M1用于将个权重值与第二卷积层输出后的/>个/>的患者信息进行加权,得到患者特征信息。
本发明中根据每个通道的信息,从而计算出每个通道的权重,实现对每个通道的信息进行加权,自适应的增加特征关注度,提高不同信息的分类精度。
所述矩阵变换层用于将第一卷积层输出的每个通道的的患者信息进行转置运算。
所述特征提取层的表达式为:
其中,为第/>个通道的特征,/>为双曲正切函数,/>为矩阵变换层输出的第/>个通道的患者信息,/>为/>的权重,/>为第/>个通道的患者特征信息,/>为/>的权重,/>为哈达玛积。
乘法器输出了按通道加权后的信息,该加权后的信息与矩阵变换层输出的信息按通道进行融合,实现特征融合,解决梯度消失。
所述注意力单元的表达式为:
其中,为注意力单元的第/>个输出,/>为激活函数,/>为通道数。
所述语义识别模型的损失函数为:
其中,为损失函数,/>为样本数量,/>为第/>个样本的标签,/>为第/>个样本经语义识别模型处理后对应的输出,/>为对数函数。
本发明中添加增强系数增强损失函数中损失值的计算,用于进一步地衡量损失程度,提高语义识别模型训练精度。
本发明实施例的技术方案至少具有如下优点和有益效果:
1、本发明中建立了360可视化人体仿真模型,将身体部位、器官名称和生理参数标注在该模型上,通过语义识别对患者信息进行处理,得到语义信息,从而实现对患者信息的处理,对获取的语义信息进行分类,得到各个信息的类别,从而根据类别,将其关联到360可视化人体仿真模型对应的标注下,在患者与医生沟通时,可直接指明问题部位,以及病情信息,给患者和医生均呈现直观的视觉,减少了患者理解病情难度和就诊时间。
2、本发明的基于患者360可视化人体仿真模型标注方法可以解决医院在患者诊疗和交流方面的问题。本发明能够将患者的临床数据与人体仿真模型相结合,以可视化的方式呈现患者的解剖结构和疾病情况,帮助医生直观地理解患者的病情和病变位置。通过标注,医生可以在人体模型上绘制各种疾病标记,如肿瘤、损伤、炎症等,以便更全面地评估病情、制定治疗方案并与患者进行交流。提升医生对患者病情的理解和诊断能力,增强医患沟通和患者参与度,提高诊疗效果和治疗满意度。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于患者360可视化人体自动标注方法,其特征在于,包括以下步骤:
S1、建立360可视化人体仿真模型;
S2、对360可视化人体仿真模型进行标注;
S3、采用语义识别模型对患者信息进行语义识别,得到语义信息;
S4、根据360可视化人体仿真模型上标注的信息,对语义信息进行分类,得到患者各个信息的类别;
S5、根据患者各个信息的类别,将患者的各个信息关联到标注后的360可视化人体仿真模型对应标注信息下。
2.根据权利要求1所述的基于患者360可视化人体自动标注方法,其特征在于,所述S2中标注的信息包括:身体部位、器官和生理参数。
3.根据权利要求1所述的基于患者360可视化人体自动标注方法,其特征在于,所述语义识别模型包括:特征提取单元、注意力单元和分类单元;
所述特征提取单元的输入端作为语义识别模型的输入端,其输出端与注意力单元的输入端连接;所述分类单元的输入端与注意力单元的输出端连接,其输出端作为语义识别模型的输出端。
4.根据权利要求3所述的基于患者360可视化人体自动标注方法,其特征在于,所述特征提取单元包括:第一卷积层、第二卷积层、全局池化层、向量构建层、全连接层、矩阵变换层、特征提取层和乘法器M1;
所述第一卷积层的输入端作为特征提取单元的输入端,其输出端分别与矩阵变换层的输入端、第二卷积层的输入端和全局池化层的输入端连接;所述向量构建层的输入端与全局池化层的输出端连接,其输出端与全连接层的输入端连接,所述乘法器M1的第一输入端与全连接层的输出端连接,其第二输入端与第二卷积层的输出端连接;所述特征提取层的第一输入端与乘法器M1的输出端连接,其第二输入端与矩阵变换层的输出端连接,其输出端作为特征提取单元的输出端。
5.根据权利要求4所述的基于患者360可视化人体自动标注方法,其特征在于,所述第一卷积层内置个卷积核,用于处理/>的患者信息,得到/>个/>的患者信息,其中,/>为患者信息的高度,/>为患者信息的宽度,/>为通道数;
所述全局池化层的数量有个,/>个池化层对每个通道的患者信息进行池化处理,得到/>个数值;
所述向量构建层将个数值组成一个/>维向量;
所述全连接层用于根据每维向量,计算出一个权重值,得到个权重值。
6.根据权利要求5所述的基于患者360可视化人体自动标注方法,其特征在于,所述第二卷积层的卷积核大小为1*1,所述乘法器M1用于将个权重值与第二卷积层输出后的/>个的患者信息进行加权,得到患者特征信息。
7.根据权利要求6所述的基于患者360可视化人体自动标注方法,其特征在于,所述矩阵变换层用于将第一卷积层输出的每个通道的的患者信息进行转置运算。
8.根据权利要求7所述的基于患者360可视化人体自动标注方法,其特征在于,所述特征提取层的表达式为:
其中,为第/>个通道的特征,/>为双曲正切函数,/>为矩阵变换层输出的第/>个通道的患者信息,/>为/>的权重,/>为第/>个通道的患者特征信息,/>为/>的权重,/>为哈达玛积。
9.根据权利要求8所述的基于患者360可视化人体自动标注方法,其特征在于,所述注意力单元的表达式为:
其中,为注意力单元的第/>个输出,/>为激活函数,/>为通道数,/>为第/>个通道的特征。
10.根据权利要求9所述的基于患者360可视化人体自动标注方法,其特征在于,所述语义识别模型的损失函数为:
其中,为损失函数,/>为样本数量,/>为第/>个样本的标签,/>为第/>个样本经语义识别模型处理后对应的输出,/>为对数函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311025363.6A CN116740476B (zh) | 2023-08-15 | 2023-08-15 | 一种基于患者360可视化人体自动标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311025363.6A CN116740476B (zh) | 2023-08-15 | 2023-08-15 | 一种基于患者360可视化人体自动标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116740476A true CN116740476A (zh) | 2023-09-12 |
CN116740476B CN116740476B (zh) | 2023-11-07 |
Family
ID=87904797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311025363.6A Active CN116740476B (zh) | 2023-08-15 | 2023-08-15 | 一种基于患者360可视化人体自动标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116740476B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793611A (zh) * | 2014-02-18 | 2014-05-14 | 中国科学院上海技术物理研究所 | 医学信息的可视化方法和装置 |
CN109918671A (zh) * | 2019-03-12 | 2019-06-21 | 西南交通大学 | 基于卷积循环神经网络的电子病历实体关系抽取方法 |
CN110675623A (zh) * | 2019-09-06 | 2020-01-10 | 中国科学院自动化研究所 | 基于混合深度学习的短时交通流量预测方法、系统、装置 |
CN111651593A (zh) * | 2020-05-08 | 2020-09-11 | 河南理工大学 | 基于词向量和字向量混合模型的文本情感分析方法 |
CN111709233A (zh) * | 2020-05-27 | 2020-09-25 | 西安交通大学 | 基于多注意力卷积神经网络的智能导诊方法及系统 |
US20200357143A1 (en) * | 2019-05-09 | 2020-11-12 | Sri International | Semantically-aware image-based visual localization |
CN112686377A (zh) * | 2021-03-18 | 2021-04-20 | 北京地平线机器人技术研发有限公司 | 利用卷积硬件对特征数据进行反卷积处理的方法和装置 |
CN115206548A (zh) * | 2022-07-21 | 2022-10-18 | 四川互慧软件有限公司 | 一种门诊的智能问诊及排队检查系统 |
CN116343284A (zh) * | 2022-12-19 | 2023-06-27 | 四川农业大学 | 基于注意力机制的多特征户外环境情绪识别方法 |
CN116543406A (zh) * | 2023-05-15 | 2023-08-04 | 中国医学科学院医学信息研究所 | 多特征融合的双目标自监督医疗问题文本聚类方法及系统 |
-
2023
- 2023-08-15 CN CN202311025363.6A patent/CN116740476B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793611A (zh) * | 2014-02-18 | 2014-05-14 | 中国科学院上海技术物理研究所 | 医学信息的可视化方法和装置 |
CN109918671A (zh) * | 2019-03-12 | 2019-06-21 | 西南交通大学 | 基于卷积循环神经网络的电子病历实体关系抽取方法 |
US20200357143A1 (en) * | 2019-05-09 | 2020-11-12 | Sri International | Semantically-aware image-based visual localization |
CN110675623A (zh) * | 2019-09-06 | 2020-01-10 | 中国科学院自动化研究所 | 基于混合深度学习的短时交通流量预测方法、系统、装置 |
CN111651593A (zh) * | 2020-05-08 | 2020-09-11 | 河南理工大学 | 基于词向量和字向量混合模型的文本情感分析方法 |
CN111709233A (zh) * | 2020-05-27 | 2020-09-25 | 西安交通大学 | 基于多注意力卷积神经网络的智能导诊方法及系统 |
CN112686377A (zh) * | 2021-03-18 | 2021-04-20 | 北京地平线机器人技术研发有限公司 | 利用卷积硬件对特征数据进行反卷积处理的方法和装置 |
CN115206548A (zh) * | 2022-07-21 | 2022-10-18 | 四川互慧软件有限公司 | 一种门诊的智能问诊及排队检查系统 |
CN116343284A (zh) * | 2022-12-19 | 2023-06-27 | 四川农业大学 | 基于注意力机制的多特征户外环境情绪识别方法 |
CN116543406A (zh) * | 2023-05-15 | 2023-08-04 | 中国医学科学院医学信息研究所 | 多特征融合的双目标自监督医疗问题文本聚类方法及系统 |
Non-Patent Citations (2)
Title |
---|
MARIANO RIVERA 等: "Hadamard Layer to Improve Semantic Segmentation in Medical Images", 《MEXICAN CONFERENCE ON PATTERN RECOGNITION》, pages 181 * |
连瑞源: "基于深度学习的文档级生物医学关系抽取研究", 《中国优秀硕士学位论文全文数据库基础科学辑》, pages 006 - 1492 * |
Also Published As
Publication number | Publication date |
---|---|
CN116740476B (zh) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7297267B2 (ja) | リスクのある心臓組織の可視化のための方法およびシステム | |
CN109065110B (zh) | 一种基于深度学习方法的自动生成医学影像诊断报告的方法 | |
CN111292839B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
KR102366290B1 (ko) | 의료기계 학습 시스템 | |
Wu et al. | A residual fusion network for osteosarcoma MRI image segmentation in developing countries | |
CN110427994A (zh) | 消化道内镜图像处理方法、装置、存储介质、设备及系统 | |
US20040181431A1 (en) | Device for generating standardized medical findings | |
CN114864088B (zh) | 一种基于医疗健康的数字孪生建立方法、装置和存储介质 | |
Fu et al. | Deep-learning-based CT imaging in the quantitative evaluation of chronic kidney diseases | |
CN105825519B (zh) | 用于处理医学影像的方法和装置 | |
CN116740476B (zh) | 一种基于患者360可视化人体自动标注方法 | |
CN112215969A (zh) | 一种基于虚拟现实的用户数据处理方法及装置 | |
CN116664592A (zh) | 基于图像的动静脉血管分离方法、装置、电子设备及介质 | |
KR20210000103A (ko) | 건강기록 시스템 | |
Liang et al. | Human-centered ai for medical imaging | |
CN115312198A (zh) | 结合注意力机制和多尺度特征挖掘的深度学习脑肿瘤预后分析建模方法及系统 | |
CN114334128A (zh) | 基于ct影像的肿瘤演进过程分析方法、系统及存储介质 | |
Liu et al. | A new data visualization and digitization method for building electronic health record | |
CN113077894A (zh) | 基于图卷积神经网络的皮肤诊断系统、方法、设备及介质 | |
Miller | Preventive medicine by risk factor analysis | |
TWI832380B (zh) | 基於心電圖診斷心臟狀態的方法與電子裝置 | |
CN116977555A (zh) | 影像学检查ai识别及三维动态展示方法及系统 | |
TWI796018B (zh) | 利用病灶唯一碼產生共觀結構性報告的方法 | |
JP7389233B2 (ja) | 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル | |
EP4358022A1 (en) | Medical image diagnostic system, medical image diagnostic method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |