CN108550151A - 一种基于对抗训练的反向域自适应方法 - Google Patents
一种基于对抗训练的反向域自适应方法 Download PDFInfo
- Publication number
- CN108550151A CN108550151A CN201810344960.8A CN201810344960A CN108550151A CN 108550151 A CN108550151 A CN 108550151A CN 201810344960 A CN201810344960 A CN 201810344960A CN 108550151 A CN108550151 A CN 108550151A
- Authority
- CN
- China
- Prior art keywords
- depth
- image
- converter
- training
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012549 training Methods 0.000 title claims abstract description 49
- 230000009977 dual effect Effects 0.000 title claims abstract description 30
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 24
- 238000013459 approach Methods 0.000 title claims abstract description 15
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 33
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 12
- 210000000162 simple eye Anatomy 0.000 claims abstract description 10
- 238000001839 endoscopy Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 47
- 238000005070 sampling Methods 0.000 claims description 9
- 230000003042 antagnostic effect Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 210000001072 colon Anatomy 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 3
- 238000002059 diagnostic imaging Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 210000000056 organ Anatomy 0.000 claims description 3
- 238000009877 rendering Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000000717 retained effect Effects 0.000 claims description 2
- 239000003814 drug Substances 0.000 claims 1
- 238000012113 quantitative test Methods 0.000 abstract description 3
- 210000003484 anatomy Anatomy 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 208000033962 Fontaine progeroid syndrome Diseases 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 238000002290 gas chromatography-mass spectrometry Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明中提出的一种基于对抗训练的反向域自适应方法,其主要内容包括:生成合成的医学数据、反向域适应、单眼内窥镜图像深度估计,其过程为,通过对抗训练来训练转换器网络,训练由一个发生器组成,用于产生真实内窥镜图像的类似合成的表示,发生器中的损失函数包含一个鉴别器,用于将内窥镜图像分类为真实图像或合成图像,自正则化项用于惩罚较大的实际图像偏差,最后使用合成的内窥镜数据来训练单眼内窥镜检查深度估计网络,并使用来自真实内窥镜检查数据对其进行定量测试,以验证域适应方法。本发明将真实医学图像转换为有用的合成表示,其深度显著更好,同时保持了临床相关的诊断特征。
Description
技术领域
本发明涉及图像合成领域,尤其是涉及了一种基于对抗训练的反向域自适应方法。
背景技术
随着医疗技术和医疗器械的快速发展,各种医学影像数据也急剧增长,这给利用传统影像分析方法实现疾病诊断的医生带来了巨大挑战。但是随着计算机视觉领域的深度学习方法日渐成熟,也为实现医学影像的自动分析以及辅助医生实现疾病的高精度智能诊断提供了新的契机。临床诊断、疾病筛查、介入计划和治疗监测方面的许多应用都依赖于来自医疗器械等的医学图像的主观解释。然而现有的医学图像由于缺乏注释、代表性不足、标准化较差而不可用,又或者合成的医学图像不能保留临床相关特征而不可用。
本发明提出了一种基于对抗训练的反向域自适应方法,通过对抗训练来训练转换器网络,训练由一个发生器组成,用于产生真实内窥镜图像的类似合成的表示,发生器中的损失函数包含一个鉴别器,用于将内窥镜图像分类为真实图像或合成图像,自正则化项用于惩罚较大的实际图像偏差,最后使用合成的内窥镜数据来训练单眼内窥镜检查深度估计网络,并使用来自真实内窥镜检查数据对其进行定量测试,以验证域适应方法。本发明将真实医学图像转换为有用的合成表示,其深度显著更好,同时保持了临床相关的诊断特征。
发明内容
针对医学图像缺乏注释、代表性不足、标准化较差等问题,本发明的目的在于提供一种基于对抗训练的反向域自适应方法,通过对抗训练来训练转换器网络,训练由一个发生器组成,用于产生真实内窥镜图像的类似合成的表示,发生器中的损失函数包含一个鉴别器,用于将内窥镜图像分类为真实图像或合成图像,自正则化项用于惩罚较大的实际图像偏差,最后使用合成的内窥镜数据来训练单眼内窥镜检查深度估计网络,并使用来自真实内窥镜检查数据对其进行定量测试,以验证域适应方法。
为解决上述问题,本发明提供一种基于对抗训练的反向域自适应方法,其主要内容包括:
(一)生成合成的医学数据;
(二)反向域适应;
(三)单眼内窥镜图像深度估计。
其中,所述的生成合成的医学数据,生成一个去除患者特定细节的大型医疗图像数据集,使网络可以训练通用诊断特征;合成数据可以由以下三部分生成:
(1)为医学成像设备开发精确的正演模型;
(2)生成正在成像的器官解剖学准确模型;
(3)从各种位置、角度和参数渲染图像。
进一步地,所述的图像数据集,开发一种内窥镜的正演模型,使用广角单眼相机和两到三个光源,显示真实的平方反比定律强度衰减;使用综合生成的、解剖结构准确的结肠模型,并使用放置在各种角度和变化条件下的虚拟内窥镜对其进行成像,以模拟实际内窥镜的移动;为每个渲染图像生成像素级的标定真实深度;最终创建具有26万个具有标定真实深度的图像数据集。
其中,所述的反向域适应,主要包括转换器损失、鉴别器损失和自正则化。
进一步地,所述的转换器损失,提出的反向域适应方法的目标是使用一组合成图像来学习能够将真实图像变换成类似合成表示的转换器;变换器应能够欺骗鉴别器;该设置有三个关键要求:
(1)转换器输出应该只删除图像中患者特定的细节,同时保留诊断特征;
(2)对抗训练不应该在变换后的图像中引入伪影;
(3)对抗训练应该稳定。
进一步地,所述的鉴别器损失,为了将真实图像转换为合成图像,真实图像和合成图像之间的差距需要最小化;理想的转换器应该每次都能够产生真实图像无法区分的合成表示,如果将鉴别器嵌入在转换器损失函数内,则可以实现;鉴别器的作用是强制转换器产生合成图像;
为了训练网络,对合成图像进行小批量采样,并将图像通过转换器转换成合成图像;使用随机采样、缓冲输出和一组随机采样的合成图像;这增加了对抗性训练的稳定性,因为缺乏记忆会使对抗性训练产生分歧并引入伪像;在每个步骤中,使用这个小批量和参数训练鉴别器,使用随机梯度下降(SGD)进行更新;然后用训练过的鉴别器更新转换器损失;随着转换器和鉴别器之间的训练达到平衡,转换器每次都可以欺骗鉴别器。
进一步地,所述的自正则化,转换器的一个关键要求是只移除患者特定的数据,并应保留其他特征,如形状等;利用真实图像和合成真实图像之间的简单像素损失项来惩罚变换后的图像与实际图像的显著偏差;
总损失函数测定了鉴别器被欺骗的程度,估计变换后的图像与真实图像的接近程度。
其中,所述的单眼内窥镜图像深度估计,为了评估提出的反向域适应方法的有效性,利用综合生成的内窥镜检查数据训练网络,并证明它可以适应三个不同的目标域;通过对抗训练证明目标域的分布可以更加接近源域,表明深度估计范例是域独立的;
一旦产生了具有标定真实深度的合成数据,则使用基于卷积神经网络-条件随机场(CNN-CRF)的深度估计框架;假设是一种合成内窥镜图像,它已被分成p超像素,是每个超像素的深度矢量;在这种情况下,合成数据的条件概率分布可以定义为:
其中,E是能量函数;为了预测新图像的深度,需要解决最大后验概率(MAP)问题,
进一步地,所述的能量函数,令ξ和η为x的节点和边缘上的一元势函数和二元势函数,则能量函数可以表示为:
其中,ξ从单个超像素回归深度,η鼓励相邻超像素之间的平滑度;目标是在一个统一的CNN框架中学习两个势函数。
进一步地,所述的一元势函数和二元势函数,一元势函数部分将单个图像超像素片作为输入,并将其馈送到输出该超像素回归深度的CNN;二元势函数是基于标准CRF顶点和边缘的特征函数;β为网络参数,S为相似度矩阵,其中表示第i个和第j个超像素之间的相似性度量;整体能量函数最终为:
为了训练,相对于两个学习参数,可以最小化从公式(1)计算的概率密度函数的负对数似然性;两个正则化项被添加到目标函数中惩罚重度加权的向量。
附图说明
图1是本发明一种基于对抗训练的反向域自适应方法的系统框架图。
图2是本发明一种基于对抗训练的反向域自适应方法的无监督反向域适应内窥镜图像。
图3是本发明一种基于对抗训练的反向域自适应方法的生成合成医学影像数据的框架图。
图4是本发明一种基于对抗训练的反向域自适应方法的对抗训练的架构图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于对抗训练的反向域自适应方法的系统框架图。主要包括生成合成的医学数据,反向域适应和单眼内窥镜图像深度估计。
单眼内窥镜图像深度估计,为了评估提出的反向域适应方法的有效性,利用综合生成的内窥镜检查数据训练网络,并证明它可以适应三个不同的目标域;通过对抗训练证明目标域的分布可以更加接近源域,表明深度估计范例是域独立的;
一旦产生了具有标定真实深度的合成数据,则使用基于卷积神经网络-条件随机场(CNN-CRF)的深度估计框架;假设是一种合成内窥镜图像,它已被分成p超像素,是每个超像素的深度矢量;在这种情况下,合成数据的条件概率分布可以定义为:
其中,E是能量函数;为了预测新图像的深度,需要解决最大后验概率(MAP)问题,
令ξ和η为x的节点和边缘上的一元势函数和二元势函数,则能量函数可以表示为:
其中,ξ从单个超像素回归深度,η鼓励相邻超像素之间的平滑度;目标是在一个统一的CNN框架中学习两个势函数。
一元势函数部分将单个图像超像素片作为输入,并将其馈送到输出该超像素回归深度的CNN;二元势函数是基于标准CRF顶点和边缘的特征函数;β为网络参数,S为相似度矩阵,其中表示第i个和第j个超像素之间的相似性度量;整体能量函数最终为:
为了训练,相对于两个学习参数,可以最小化从公式(1)计算的概率密度函数的负对数似然性;两个正则化项被添加到目标函数中惩罚重度加权的向量。
图2是本发明一种基于对抗训练的反向域自适应方法的无监督反向域适应内窥镜图像。使用内窥镜的精确正演模型和解剖学正确的结肠模型来生成具有标定真实深度的合成内窥镜图像;这个大的合成数据集可以用来训练一个深度网络来进行深度估计;对抗性网络将输入内窥镜图像转换成合成表示,同时通过自正规化保留临床相关特征;这些类似合成的图像可以直接用于从合成图像上训练的网络进行深度估计。
图3是本发明一种基于对抗训练的反向域自适应方法的生成合成医学影像数据的框架图。生成一个去除患者特定细节的大型医疗图像数据集,使网络可以训练通用诊断特征;合成数据可以由以下三部分生成:
(1)为医学成像设备开发精确的正演模型;
(2)生成正在成像的器官解剖学准确模型;
(3)从各种位置、角度和参数渲染图像。
开发一种内窥镜的正演模型,使用广角单眼相机和两到三个光源,显示真实的平方反比定律强度衰减;使用综合生成的、解剖结构准确的结肠模型,并使用放置在各种角度和变化条件下的虚拟内窥镜对其进行成像,以模拟实际内窥镜的移动;为每个渲染图像生成像素级的标定真实深度;最终创建具有26万个具有标定真实深度的图像数据集。
图4是本发明一种基于对抗训练的反向域自适应方法的对抗训练的架构图。反向域适应主要包括转换器损失、鉴别器损失和自正则化。
转换器损失,其特征在于,提出的反向域适应方法的目标是使用一组合成图像来学习能够将真实图像变换成类似合成表示的转换器;变换器应能够欺骗鉴别器;该设置有三个关键要求:
(1)转换器输出应该只删除图像中患者特定的细节,同时保留诊断特征;
(2)对抗训练不应该在变换后的图像中引入伪影;
(3)对抗训练应该稳定。
鉴别器损失,其特征在于,为了将真实图像转换为合成图像,真实图像和合成图像之间的差距需要最小化;理想的转换器应该每次都能够产生真实图像无法区分的合成表示,如果将鉴别器嵌入在转换器损失函数内,则可以实现;鉴别器的作用是强制转换器产生合成图像;
为了训练网络,对合成图像进行小批量采样,并将图像通过转换器转换成合成图像;使用随机采样、缓冲输出和一组随机采样的合成图像;这增加了对抗性训练的稳定性,因为缺乏记忆会使对抗性训练产生分歧并引入伪像;在每个步骤中,使用这个小批量和参数训练鉴别器,使用随机梯度下降(SGD)进行更新;然后用训练过的鉴别器更新转换器损失;随着转换器和鉴别器之间的训练达到平衡,转换器每次都可以欺骗鉴别器。
自正则化,其特征在于,转换器的一个关键要求是只移除患者特定的数据,并应保留其他特征,如形状等;利用真实图像和合成真实图像之间的简单像素损失项来惩罚变换后的图像与实际图像的显著偏差;
总损失函数测定了鉴别器被欺骗的程度,估计变换后的图像与真实图像的接近程度。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于对抗训练的反向域自适应方法,其特征在于,主要包括生成合成的医学数据(一);反向域适应(二);单眼内窥镜图像深度估计(三)。
2.基于权利要求书1所述的生成合成的医学数据(一),其特征在于,生成一个去除患者特定细节的大型医疗图像数据集,使网络可以训练通用诊断特征;合成数据可以由以下三部分生成:
(1)为医学成像设备开发精确的正演模型;
(2)生成正在成像的器官解剖学准确模型;
(3)从各种位置、角度和参数渲染图像。
3.基于权利要求书2所述的图像数据集,其特征在于,开发一种内窥镜的正演模型,使用广角单眼相机和两到三个光源,显示真实的平方反比定律强度衰减;使用综合生成的、解剖结构准确的结肠模型,并使用放置在各种角度和变化条件下的虚拟内窥镜对其进行成像,以模拟实际内窥镜的移动;为每个渲染图像生成像素级的标定真实深度;最终创建具有26万个具有标定真实深度的图像数据集。
4.基于权利要求书1所述的反向域适应(二),其特征在于,主要包括转换器损失、鉴别器损失和自正则化。
5.基于权利要求书4所述的转换器损失,其特征在于,提出的反向域适应方法的目标是使用一组合成图像来学习能够将真实图像变换成类似合成表示的转换器;变换器应能够欺骗鉴别器;该设置有三个关键要求:
(1)转换器输出应该只删除图像中患者特定的细节,同时保留诊断特征;
(2)对抗训练不应该在变换后的图像中引入伪影;
(3)对抗训练应该稳定。
6.基于权利要求书4所述的鉴别器损失,其特征在于,为了将真实图像转换为合成图像,真实图像和合成图像之间的差距需要最小化;理想的转换器应该每次都能够产生真实图像无法区分的合成表示,如果将鉴别器嵌入在转换器损失函数内,则可以实现;鉴别器的作用是强制转换器产生合成图像;
为了训练网络,对合成图像进行小批量采样,并将图像通过转换器转换成合成图像;使用随机采样、缓冲输出和一组随机采样的合成图像;这增加了对抗性训练的稳定性,因为缺乏记忆会使对抗性训练产生分歧并引入伪像;在每个步骤中,使用这个小批量和参数训练鉴别器,使用随机梯度下降(SGD)进行更新;然后用训练过的鉴别器更新转换器损失;随着转换器和鉴别器之间的训练达到平衡,转换器每次都可以欺骗鉴别器。
7.基于权利要求书4所述的自正则化,其特征在于,转换器的一个关键要求是只移除患者特定的数据,并应保留其他特征,如形状等;利用真实图像和合成真实图像之间的简单像素损失项来惩罚变换后的图像与实际图像的显著偏差;
总损失函数测定了鉴别器被欺骗的程度,估计变换后的图像与真实图像的接近程度。
8.基于权利要求书1所述的单眼内窥镜图像深度估计(三),其特征在于,为了评估提出的反向域适应方法的有效性,利用综合生成的内窥镜检查数据训练网络,并证明它可以适应三个不同的目标域;通过对抗训练证明目标域的分布可以更加接近源域,表明深度估计范例是域独立的;
一旦产生了具有标定真实深度的合成数据,则使用基于卷积神经网络-条件随机场(CNN-CRF)的深度估计框架;假设是一种合成内窥镜图像,它已被分成p超像素,是每个超像素的深度矢量;在这种情况下,合成数据的条件概率分布可以定义为:
其中,E是能量函数;为了预测新图像的深度,需要解决最大后验概率(MAP)问题,
9.基于权利要求书8所述的能量函数,其特征在于,令ξ和η为x的节点和边缘上的一元势函数和二元势函数,则能量函数可以表示为:
其中,ξ从单个超像素回归深度,η鼓励相邻超像素之间的平滑度;目标是在一个统一的CNN框架中学习两个势函数。
10.基于权利要求书9所述的一元势函数和二元势函数,其特征在于,一元势函数部分将单个图像超像素片作为输入,并将其馈送到输出该超像素回归深度的CNN;二元势函数是基于标准CRF顶点和边缘的特征函数;β为网络参数,S为相似度矩阵,其中表示第i个和第j个超像素之间的相似性度量;整体能量函数最终为:
为了训练,相对于两个学习参数,可以最小化从公式(1)计算的概率密度函数的负对数似然性;两个正则化项被添加到目标函数中惩罚重度加权的向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810344960.8A CN108550151A (zh) | 2018-04-17 | 2018-04-17 | 一种基于对抗训练的反向域自适应方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810344960.8A CN108550151A (zh) | 2018-04-17 | 2018-04-17 | 一种基于对抗训练的反向域自适应方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108550151A true CN108550151A (zh) | 2018-09-18 |
Family
ID=63515445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810344960.8A Withdrawn CN108550151A (zh) | 2018-04-17 | 2018-04-17 | 一种基于对抗训练的反向域自适应方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108550151A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322446A (zh) * | 2019-07-01 | 2019-10-11 | 华中科技大学 | 一种基于相似性空间对齐的域自适应语义分割方法 |
CN110428462A (zh) * | 2019-07-17 | 2019-11-08 | 清华大学 | 多相机立体匹配方法和装置 |
CN111046760A (zh) * | 2019-11-29 | 2020-04-21 | 山东浪潮人工智能研究院有限公司 | 一种基于域对抗网络的笔迹鉴定方法 |
CN111489403A (zh) * | 2019-01-28 | 2020-08-04 | 斯特拉德视觉公司 | 利用gan来生成虚拟特征图的方法及装置 |
CN113436240A (zh) * | 2021-06-22 | 2021-09-24 | 同济大学 | 一种基于域适应的复杂环境下的单目图像深度估计方法 |
CN114332090A (zh) * | 2022-03-16 | 2022-04-12 | 中南大学 | 多源域自适应脑网络分类方法、系统、设备及存储介质 |
US11450079B2 (en) * | 2019-03-08 | 2022-09-20 | Fujifilm Corporation | Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845471A (zh) * | 2017-02-20 | 2017-06-13 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的视觉显著性预测方法 |
CN107506800A (zh) * | 2017-09-21 | 2017-12-22 | 深圳市唯特视科技有限公司 | 一种基于无监督域适应的无标签视频人脸识别方法 |
-
2018
- 2018-04-17 CN CN201810344960.8A patent/CN108550151A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845471A (zh) * | 2017-02-20 | 2017-06-13 | 深圳市唯特视科技有限公司 | 一种基于生成对抗网络的视觉显著性预测方法 |
CN107506800A (zh) * | 2017-09-21 | 2017-12-22 | 深圳市唯特视科技有限公司 | 一种基于无监督域适应的无标签视频人脸识别方法 |
Non-Patent Citations (1)
Title |
---|
FAISAL MAHMOOD: "Unsupervised Reverse Domain Adaptation for Synthetic Medical Images via Adversarial Training", 《ARXIV:1711.06606V2》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111489403A (zh) * | 2019-01-28 | 2020-08-04 | 斯特拉德视觉公司 | 利用gan来生成虚拟特征图的方法及装置 |
CN111489403B (zh) * | 2019-01-28 | 2023-09-26 | 斯特拉德视觉公司 | 利用gan来生成虚拟特征图的方法及装置 |
US20220383607A1 (en) * | 2019-03-08 | 2022-12-01 | Fujifilm Corporation | Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device |
US11450079B2 (en) * | 2019-03-08 | 2022-09-20 | Fujifilm Corporation | Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device |
US11978550B2 (en) * | 2019-03-08 | 2024-05-07 | Fujifilm Corporation | Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device |
CN110322446B (zh) * | 2019-07-01 | 2021-02-19 | 华中科技大学 | 一种基于相似性空间对齐的域自适应语义分割方法 |
CN110322446A (zh) * | 2019-07-01 | 2019-10-11 | 华中科技大学 | 一种基于相似性空间对齐的域自适应语义分割方法 |
CN110428462A (zh) * | 2019-07-17 | 2019-11-08 | 清华大学 | 多相机立体匹配方法和装置 |
CN111046760A (zh) * | 2019-11-29 | 2020-04-21 | 山东浪潮人工智能研究院有限公司 | 一种基于域对抗网络的笔迹鉴定方法 |
CN111046760B (zh) * | 2019-11-29 | 2023-08-08 | 山东浪潮科学研究院有限公司 | 一种基于域对抗网络的笔迹鉴定方法 |
CN113436240A (zh) * | 2021-06-22 | 2021-09-24 | 同济大学 | 一种基于域适应的复杂环境下的单目图像深度估计方法 |
CN114332090A (zh) * | 2022-03-16 | 2022-04-12 | 中南大学 | 多源域自适应脑网络分类方法、系统、设备及存储介质 |
CN114332090B (zh) * | 2022-03-16 | 2022-05-10 | 中南大学 | 多源域自适应脑网络分类方法、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108550151A (zh) | 一种基于对抗训练的反向域自适应方法 | |
US11900940B2 (en) | Processing speech signals of a user to generate a visual representation of the user | |
CN105447837B (zh) | 基于自适应云模型的多模态脑部图像融合方法 | |
Crystal et al. | Photographic and video deepfakes have arrived: how machine learning may influence plastic surgery | |
CN110414607A (zh) | 胶囊内窥镜图像的分类方法、装置、设备及介质 | |
CN111477337B (zh) | 基于个体自适应传播网络的传染病预警方法、系统及介质 | |
CN112768065A (zh) | 一种基于人工智能的面瘫分级诊断方法、装置 | |
CN115760835A (zh) | 一种图卷积网络的医学图像分类的方法 | |
CN112150569A (zh) | 将cbct图像生成为ct图像的方法、装置及终端设备 | |
Wang et al. | A DCNN system based on an iterative method for automatic landmark detection in cephalometric X-ray images | |
Tan et al. | Style interleaved learning for generalizable person re-identification | |
CN109934796A (zh) | 一种基于深度集成学习的器官自动勾画方法 | |
Liang et al. | SPRNet: Automatic fetal standard plane recognition network for ultrasound images | |
CN115409843B (zh) | 基于尺度均衡耦合卷积架构的脑神经影像特征提取方法 | |
Schroder et al. | A machine learning enhanced mechanistic simulation framework for functional deficit prediction in TBI | |
CN116757982A (zh) | 一种基于多尺度编解码器的多模态医学图像融合方法 | |
Yang et al. | Hierarchical progressive network for multimodal medical image fusion in healthcare systems | |
Kondou et al. | Artificial intelligence-based forensic sex determination of East Asian cadavers from skull morphology | |
Celard et al. | Study on synthetic video generation of embryo development | |
Joshi et al. | Intelligent Fusion Approach for MRI and CT Imaging using CNN with Wavelet Transform Approach | |
Li et al. | An analysis of the health care platform in the cloud environment | |
CN108961228A (zh) | 一种远程医疗诊断系统 | |
Gu et al. | FedACS: An efficient federated learning method among multiple medical institutions with adaptive client sampling | |
Singh et al. | Reconstruction of the Human Persona in 3D from Voice, and its Reverse | |
Anand et al. | Transformer-based Multiclass Classification of Cervicogram Images for Improved Cervical Cancer Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180918 |