CN112085716B - 一种基于时阈聚焦图网络的nafld超声视频分类方法 - Google Patents

一种基于时阈聚焦图网络的nafld超声视频分类方法 Download PDF

Info

Publication number
CN112085716B
CN112085716B CN202010923735.7A CN202010923735A CN112085716B CN 112085716 B CN112085716 B CN 112085716B CN 202010923735 A CN202010923735 A CN 202010923735A CN 112085716 B CN112085716 B CN 112085716B
Authority
CN
China
Prior art keywords
network
nafld
threshold
video
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010923735.7A
Other languages
English (en)
Other versions
CN112085716A (zh
Inventor
王连生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202010923735.7A priority Critical patent/CN112085716B/zh
Publication of CN112085716A publication Critical patent/CN112085716A/zh
Application granted granted Critical
Publication of CN112085716B publication Critical patent/CN112085716B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本发明公开了一种基于时阈聚焦图网络的NAFLD超声视频分类方法,该方法通过结合时阈聚焦图网络和损失函数,对输入的肝脏超声视频分类,从而判断是否患有NAFLD。其中,时阈聚焦图网络由三个子网络组成,分别是特征提取网络、局部连接时阈图网络和全局连接时阈图网络;损失函数由二进制交叉熵损失和区间聚焦损失两部分组成。本发明能够解决现有NAFLD诊断中存在的耗时、专业要求高、误判的问题,提供一种可靠、高效的NAFLD自动诊断方法。

Description

一种基于时阈聚焦图网络的NAFLD超声视频分类方法
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于时阈聚焦图网络的NAFLD超声视频分类方法。
背景技术
超声视频凭借其无创性和低成本的优势被广泛应用于非酒精性脂肪性肝病(NAFLD)的诊断,然而,大多数的现有NAFLD诊断方法聚焦于关键帧中的NAFLD诊断而非直接对视频进行诊断,导致面临以下几个问题:(1)耗时性与专业性要求:现有方法要求医生浏览整个视频去人工提取关键帧,这在临床诊断的过程中带来了极大的不便性;(2)对于某些包含噪声或特征较弱的帧较为敏感:由于在图像层次的分类过程中,每一帧的分类与其它帧都是相互独立的,因此,对于一些包含噪声或特征较弱的帧,很容易发生误判;(3)中间误差:基于关键帧的方法一般分为两步,第一步提取关键帧,第二步根据关键帧进行诊断,在这种情况下,第一步产生的主观误差会累积进而影响后续的诊断步骤。
发明内容
为解决上述问题,本发明提供了一种基于时阈聚焦图网络的NAFLD超声视频分类方法。
本发明采用以下技术方案:
一种基于时阈聚焦图网络的NAFLD超声视频分类方法,包括以下步骤:
S1、将一段肝脏超声视频输入时阈聚焦图网络,所述时阈聚焦图网络由三个子网络组成,分别是特征提取网络、局部连接时阈图网络和全局连接时阈图网络,所述特征提取网络对每一帧进行编码,得到整个视频的特征向量序列F;
S2、局部连接时阈图网络构建稀疏图并判定每一帧属于NAFLD的分类概率p;
S3、全局连接时阈图网络构建稠密图并判定每一帧对最终视频分类的重要性程度a;
S4、结合步骤S2所述的分类概率p和步骤S3所述的重要性程度a,计算最终视频整体的分类概率
Figure GDA0003586069570000025
从而判断是否患有NAFLD;
S5、计算损失函数,优化分类结果,所述损失函数由二进制交叉熵损失和区间聚焦损失两部分组成。
进一步地,步骤S1具体为:给定一段肝脏超声视频V={It|t=1,2,...T},其中,It表示视频中的第t帧,T表示视频长度,经过特征提取网络对每一帧进行编码,得到整个视频的特征向量序列F={Ft|t=1,2,...T},其中Ft表示视频中第t帧对应的特征向量。
进一步地,所述步骤S2中的所述局部连接时阈图网络基于所述特征提取网络获得的特征向量序列F={Ft|t=1,2,...T},构建稀疏图Gcls=(Vcls,Ecls,Ft),其中,V和E分别表示结点与边的集合,特别地,稀疏图的邻接矩阵定义如下:
Figure GDA0003586069570000021
其中,元素
Figure GDA0003586069570000022
表示第i帧与第j帧之间的关联性,即边的权重,帧之间的距离越近,关联性越高,反之越低,r表示连接所连接的帧之间的最长距离,仅距离小于r的帧之间存在相连的边,对上述的邻接矩阵进行归一化处理如下:
Figure GDA0003586069570000023
其中,I∈RT×T是一个单位矩阵,用于建立自连接,而
Figure GDA0003586069570000024
代表对应的度矩阵,再经过两个图卷积层与激活函数之后,最终得到概率分布如下:
Figure GDA0003586069570000031
其中,
Figure GDA0003586069570000032
Figure GDA0003586069570000033
是可训练的参数矩阵,σ表示sigmoid函数。
进一步地,所述步骤S3中的所述全局连接时阈图图网络基于所述特征提取网络获得的特征向量序列F={Ft|t=1,2,...T},构建稠密图Gatt=(Vatt,Eatt,Ft),其中,V和E分别表示结点与边的集合,特别地,稠密图的邻接矩阵定义如下:
Figure GDA0003586069570000034
其中,元素
Figure GDA0003586069570000035
表示第i帧与第j帧之间的关联性,即边的权重,帧之间的距离越近,关联性越高,反之越低,r表示连接所连接的帧之间的最长距离,仅距离小于r的帧之间存在相连的边,对上述的邻接矩阵进行归一化处理如下:
Figure GDA0003586069570000036
其中,I∈RT×T是一个单位矩阵,用于建立自连接,而
Figure GDA0003586069570000037
代表对应的度矩阵,再经过两个图卷积层与激活函数之后,最终得到概率分布如下:
Figure GDA0003586069570000038
其中,
Figure GDA0003586069570000039
Figure GDA00035860695700000310
是可训练的参数矩阵,σ表示sigmoid函数。
进一步地,所述步骤S4中最终视频整体的分类概率可表示如下:
Figure GDA00035860695700000311
进一步地,所述步骤5中的损失函数的数学表达式如下:L=LBCE1×LIFL,其中,LBCE表示二进制交叉熵损失,LIFL表示区间聚焦损失,λ1是控制二进制交叉熵损失和区间聚焦损失之间相对重要性的比例因子。
进一步地,所述λ1设为1。
进一步地,所述二进制交叉熵损失的计算如下:
Figure GDA0003586069570000041
其中,
Figure GDA0003586069570000042
和y分别表示各个视频的预测概率与真实值,N表示训练集中的视频数。
进一步地,所述区间聚焦损失计算如下:
LIFL=Lsparsity2Lcontinuity
其中,λ2是控制稀疏性和连续性之间相对重要性的比例因子,用于微调稀疏性与连续性的不同影响;具体的,
Figure GDA0003586069570000043
进一步地,所述λ2设为5。
采用上述技术方案后,本发明与背景技术相比,具有如下优点:
本发明的NAFLD超声视频诊断方法是直接对超声视频进行诊断分类,无需提取关键帧,省去了传统的人工提取关键帧所需消耗的大量时间,该方法通过建立局部连接时阈图网络与全连接时阈图网络分别用于分类与注意力相关特征的提取,充分利用了视频数据的上下文信息辅助NAFLD的诊断,大大提高了诊断的效率;同时又进一步引入区间聚焦损失约束注意力的分布情况,提高了注意力的可靠性;为NAFLD的自动诊断提供了一种高效、准确的方法。
附图说明
图1为本发明NAFLD超声视频诊断方法示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例一
如图1所示,一种基于时阈聚焦图网络的NAFLD超声视频分类方法,包括以下步骤:
S1、将一段肝脏超声视频输入时阈聚焦图网络,所述时阈聚焦图网络由三个子网络组成,分别是特征提取网络、局部连接时阈图网络和全局连接时阈图网络,所述特征提取网络对每一帧进行编码,得到整个视频的特征向量序列F;
S2、局部连接时阈图网络构建稀疏图并判定每一帧属于NAFLD的分类概率p;
在这里,局部连接时阈图网络构建了一张稀疏图用于判定每一帧属于NAFLD的概率,为最终的视频终端提供了图像层级的细粒度参考。详细地,LTGN将整个视频视为一张图,其中,每一帧的特征向量对应于图中的结点。帧与帧之间根据时间上的位置相互连接,通过消息传递机制捕获上下文信息进行分类。LTGN中仅使用了局部连接,即只有在时间位置上较为接近的帧之间才存在边,其主要原因是对于某一关键帧的诊断,启发性信息仅存在于附近的其它关键帧上,而与远距离的无用帧无关。构建好图之后,LTGN使用两个图卷积层整合每一帧邻域内的信息,以此将上下文信息融合进当前帧的特征表示中,提高了特征的表达性。最后,由激活层使用sigmoid函数对输出进行归一化,得到每一帧属于NAFLD的概率。
S3、全局连接时阈图网络构建稠密图并判定每一帧对最终视频分类的重要性程度a;
在这里,全局连接时阈图网络构建了一张稠密图用于判定每一帧对最终视频分类的重要程度。与LTGN类似,FTGN将整个视频视为一张图,其中每一帧对应的特征向量视为图中的结点。不同的是,FTGN采取了全连接的策略,即任意两帧之间均存在连接的边。其主要原因是对于某一帧的重要程度判断,即使是在距离较远的无用帧中也存在相关的纹理结构信息提示关键帧的位置。然后,同样由两层的图卷积层对邻居结点的信息进行整合,最终由sigmoid函数对输出进行标准化。
S4、结合步骤S2所述的分类概率p和步骤S3所述的重要性程度a,计算最终视频整体的分类概率
Figure GDA0003586069570000061
从而判断是否患有NAFLD;
S5、计算损失函数,优化分类结果,所述损失函数由二进制交叉熵损失和区间聚焦损失两部分组成。
所述步骤5中的损失函数的数学表达式如下:L=LBCE1×LIFL,其中,LBCE表示二进制交叉熵损失,LIFL表示区间聚焦损失,λ1是控制二进制交叉熵损失和区间聚焦损失之间相对重要性的比例因子,这里将λ1设为1。
所述二进制交叉熵损失的计算如下:
Figure GDA0003586069570000062
其中,
Figure GDA0003586069570000063
和y分别表示各个视频的预测概率与真实值,N表示训练集中的视频数,区间聚焦损失计算如下:
LIFL=Lsparsity2Lcontinuity
其中,λ2是控制稀疏性和连续性之间相对重要性的比例因子,用于微调稀疏性与连续性的不同影响,这里λ2设为5;具体的,
Figure GDA0003586069570000064
上述二进制交叉熵损失用于衡量最终的预测值与真实值之间的差异,联合优化时阈聚焦图网络的各个模块;而时阈聚焦损失则用于约束注意力分布的稀疏性与连续性,主要优化注意力模块,增强注意力的可靠性。
本实施例的时域聚焦图网络使用的数据集由来自148个受试者的肝脏超声视频组成,其中74段视频来自NAFLD患者,另外74段视频属于正常样本。为了避免冗余与计算成本,我们对每个视频以5帧为间隔进行稀疏采样。然后,我们在原始分辨率为800*600的图像上于中心区域裁剪512*512大小的部分,以排除边缘的无关信息,随后再放缩至224*224。
通过上述对模型的训练与测试,本实施例的方法获得了86.49%的准确率,86.49%的特异性和86.49%的敏感性,证明了本实施例方法的有效性与优越性。
此外,我们还将本实施例与现有的基于关键帧的NAFLD诊断方法CNN+SVM和CNN进行比较,得到如下表1的结果:
表1时域聚焦图网络与其他网络的比较
Figure GDA0003586069570000071
从上表可以看出,相较于表现最好的基于关键帧的NAFLD诊断方法CNN,本实施例的方法在准确率、特异性、敏感性和AUC值上分别提升了3.38%,5.48%,1.35%和2.79%,提升效果十分显著,说明了视频数据中的上下文信息对于NAFLD的重要促进作用,更体现了本实施例的方法作为无需人为提取关键帧的全自动方法,表现出的性能与效率上的巨大优越性。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (9)

1.一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:包括以下步骤:
S1、将一段肝脏超声视频输入时阈聚焦图网络,所述时阈聚焦图网络由三个子网络组成,分别是特征提取网络、局部连接时阈图网络和全局连接时阈图网络,所述特征提取网络对每一帧进行编码,得到整个视频的特征向量序列F;
S2、局部连接时阈图网络构建稀疏图并判定每一帧属于NAFLD的分类概率p;
S3、全局连接时阈图网络构建稠密图并判定每一帧对最终视频分类的重要性程度a;
S4、结合步骤S2所述的分类概率p和步骤S3所述的重要性程度a,计算最终视频整体的分类概率
Figure FDA0003602635400000011
所述步骤S4中最终视频整体的分类概率可表示如下:
Figure FDA0003602635400000012
S5、计算损失函数,优化分类结果,所述损失函数由二进制交叉熵损失和区间聚焦损失两部分组成。
2.如权利要求1所述的一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:步骤S1具体为:给定一段肝脏超声视频V={It|t=1,2,...T},其中,It表示视频中的第t帧,T表示视频长度,经过特征提取网络对每一帧进行编码,得到整个视频的特征向量序列F={Ft|t=1,2,...T},其中Ft表示视频中第t帧对应的特征向量。
3.如权利要求2所述的一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:所述步骤S2中的所述局部连接时阈图网络基于所述特征提取网络获得的特征向量序列F={Ft|t=1,2,...T},构建稀疏图Gcls=(Vcls,Ecls,Ft),其中,V和E分别表示结点的集合与边的集合,稀疏图的邻接矩阵定义如下:
Figure FDA0003602635400000013
其中,元素
Figure FDA0003602635400000021
表示第i帧与第j帧之间的关联性,即边的权重,帧之间的距离越近,关联性越高,反之越低,r表示连接所连接的帧之间的最长距离,仅距离小于r的帧之间存在相连的边,对上述的邻接矩阵进行归一化处理如下:
Figure FDA0003602635400000022
其中,I∈RT×T是一个单位矩阵,用于建立自连接,而
Figure FDA0003602635400000023
代表对应的度矩阵,再经过两个图卷积层与激活函数之后,最终得到概率分布如下:
Figure FDA0003602635400000024
其中,
Figure FDA0003602635400000025
Figure FDA0003602635400000026
是可训练的参数矩阵,σ表示sigmoid函数。
4.如权利要求3所述的一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:所述步骤S3中的所述全局连接时阈图网络基于所述特征提取网络获得的特征向量序列F={Ft|t=1,2,...T},构建稠密图Gatt=(Vatt,Eatt,Ft),其中,V和E分别表示结点的集合与边的集合,稠密图的邻接矩阵定义如下:
Figure FDA0003602635400000027
其中,元素
Figure FDA0003602635400000028
表示第i帧与第j帧之间的关联性,即边的权重,帧之间的距离越近,关联性越高,反之越低,r表示连接所连接的帧之间的最长距离,仅距离小于r的帧之间存在相连的边,对上述的邻接矩阵进行归一化处理如下:
Figure FDA0003602635400000029
其中,I∈RT×T是一个单位矩阵,用于建立自连接,而
Figure FDA00036026354000000210
代表对应的度矩阵,再经过两个图卷积层与激活函数之后,最终得到概率分布如下:
Figure FDA00036026354000000211
其中,
Figure FDA00036026354000000212
Figure FDA00036026354000000213
是可训练的参数矩阵,σ表示sigmoid函数。
5.如权利要求4所述的一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:所述步骤5中的损失函数的数学表达式如下:L=LBCE1×LIFL,其中,LBCE表示二进制交叉熵损失,LIFL表示区间聚焦损失,λ1是控制二进制交叉熵损失和区间聚焦损失之间相对重要性的比例因子。
6.如权利要求5所述的一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:所述λ1设为1。
7.如权利要求1或6所述的一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:所述二进制交叉熵损失的计算如下:
Figure FDA0003602635400000031
其中,
Figure FDA0003602635400000032
和y分别表示各个视频的预测概率与真实值,N表示训练集中的视频数。
8.如权利要求1或6所述的一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:所述区间聚焦损失计算如下:
LIFL=Lsparsity2Lcontinuity
其中,λ2是控制稀疏性和连续性之间相对重要性的比例因子,用于微调稀疏性与连续性的不同影响;具体的,
Figure FDA0003602635400000033
9.如权利要求8所述的一种基于时阈聚焦图网络的NAFLD超声视频分类方法,其特征在于:所述λ2设为5。
CN202010923735.7A 2020-09-04 2020-09-04 一种基于时阈聚焦图网络的nafld超声视频分类方法 Active CN112085716B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010923735.7A CN112085716B (zh) 2020-09-04 2020-09-04 一种基于时阈聚焦图网络的nafld超声视频分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010923735.7A CN112085716B (zh) 2020-09-04 2020-09-04 一种基于时阈聚焦图网络的nafld超声视频分类方法

Publications (2)

Publication Number Publication Date
CN112085716A CN112085716A (zh) 2020-12-15
CN112085716B true CN112085716B (zh) 2022-06-07

Family

ID=73732380

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010923735.7A Active CN112085716B (zh) 2020-09-04 2020-09-04 一种基于时阈聚焦图网络的nafld超声视频分类方法

Country Status (1)

Country Link
CN (1) CN112085716B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956620A (zh) * 2016-04-29 2016-09-21 华南理工大学 一种基于稀疏表示的肝脏超声图像识别方法
CN108197629A (zh) * 2017-12-30 2018-06-22 北京工业大学 一种基于标签相关性约束张量分解的多模态医学影像特征提取方法
CN109063712A (zh) * 2018-06-22 2018-12-21 哈尔滨工业大学 一种基于超声图像的多模型肝脏弥漫性疾病智能诊断方法及系统
CN110689599A (zh) * 2019-09-10 2020-01-14 上海大学 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN110772286A (zh) * 2019-11-05 2020-02-11 王宁 一种基于超声造影识别肝脏局灶性病变的系统
CN110798750A (zh) * 2019-11-29 2020-02-14 广州市百果园信息技术有限公司 视频水印去除方法、视频数据发布方法及相关装置
CN110930367A (zh) * 2019-10-31 2020-03-27 上海交通大学 多模态超声影像分类方法以及乳腺癌诊断装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956620A (zh) * 2016-04-29 2016-09-21 华南理工大学 一种基于稀疏表示的肝脏超声图像识别方法
CN108197629A (zh) * 2017-12-30 2018-06-22 北京工业大学 一种基于标签相关性约束张量分解的多模态医学影像特征提取方法
CN109063712A (zh) * 2018-06-22 2018-12-21 哈尔滨工业大学 一种基于超声图像的多模型肝脏弥漫性疾病智能诊断方法及系统
CN110689599A (zh) * 2019-09-10 2020-01-14 上海大学 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN110930367A (zh) * 2019-10-31 2020-03-27 上海交通大学 多模态超声影像分类方法以及乳腺癌诊断装置
CN110772286A (zh) * 2019-11-05 2020-02-11 王宁 一种基于超声造影识别肝脏局灶性病变的系统
CN110798750A (zh) * 2019-11-29 2020-02-14 广州市百果园信息技术有限公司 视频水印去除方法、视频数据发布方法及相关装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Liansheng Wang et al..A novel approach combined transfer learning and deep learning to predict TMB from histology image.《Pattern Recognition Letters》.2020,第135卷第2444-248页. *
Zhonghang Zhu et al..Weakly-Supervised Balanced Attention Network for Gastric Pathology Image Localization and Classification.《2020 IEEE 17th International Symposium on Biomedical Imaging (ISBI)》.2020, *
裘静韬 等.应用化肝脏病灶分割的预测方案.《计算机工程与应用》.2019, *

Also Published As

Publication number Publication date
CN112085716A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
Zhang et al. Supervision by fusion: Towards unsupervised learning of deep salient object detector
CN112232231B (zh) 行人属性的识别方法、系统、计算机设备和存储介质
CN115221325A (zh) 一种基于标签语义学习和注意力调整机制的文本分类方法
CN111259720A (zh) 基于自监督代理特征学习的无监督行人重识别方法
CN108846411A (zh) 基于配对稀疏贝叶斯极限学习机的主减速器故障诊断方法
Devi et al. A survey of machine learning techniques
Khan et al. Benchmark methodological approach for the application of artificial intelligence to lung ultrasound data from covid-19 patients: From frame to prognostic-level
CN111028940B (zh) 肺结节多尺度检测方法、装置、设备及介质
Sun et al. Iterative structure transformation and conditional random field based method for unsupervised multimodal change detection
Idarraga et al. False negative rates in benign thyroid nodule diagnosis: machine learning for detecting malignancy
CN110647897B (zh) 一种基于多部分注意力机制的零样本图像分类识别方法
Latha et al. Deep Learning based Automatic Detection of Intestinal Hemorrhage Using Wireless Capsule Endoscopy Images
Lin et al. Decoupled gradient harmonized detector for partial annotation: Application to signet ring cell detection
CN112085716B (zh) 一种基于时阈聚焦图网络的nafld超声视频分类方法
CN112085742B (zh) 一种基于上下文注意力的nafld超声视频诊断方法
KR20230070085A (ko) 뇌 네트워크를 이용한 알츠하이머병에 대한 진단정보 제공방법
Shah Performance Modeling and Algorithm Characterization for Robust Image Segmentation: Robust Image Segmentation
CN116633639B (zh) 基于无监督与有监督融合强化学习的网络入侵检测方法
Kumar et al. Diabetic Retinopathy Detection using Deep Learning Methodology
CN116109639A (zh) 基于多任务学习网络的缺陷检测方法及装置
CN115661539A (zh) 一种嵌入不确定性信息的少样本图像识别方法
CN111681748B (zh) 基于智能视觉感知的医疗行为动作规范性评价方法
Cao et al. No-reference image quality assessment by using convolutional neural networks via object detection
CN112085718B (zh) 一种基于孪生注意力网络的nafld超声视频诊断系统
Zhu et al. Find Gold in Sand: Fine-Grained Similarity Mining for Domain-Adaptive Crowd Counting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant