CN108550151A - 一种基于对抗训练的反向域自适应方法 - Google Patents

一种基于对抗训练的反向域自适应方法 Download PDF

Info

Publication number
CN108550151A
CN108550151A CN201810344960.8A CN201810344960A CN108550151A CN 108550151 A CN108550151 A CN 108550151A CN 201810344960 A CN201810344960 A CN 201810344960A CN 108550151 A CN108550151 A CN 108550151A
Authority
CN
China
Prior art keywords
depth
image
converter
training
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810344960.8A
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201810344960.8A priority Critical patent/CN108550151A/zh
Publication of CN108550151A publication Critical patent/CN108550151A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明中提出的一种基于对抗训练的反向域自适应方法,其主要内容包括:生成合成的医学数据、反向域适应、单眼内窥镜图像深度估计,其过程为,通过对抗训练来训练转换器网络,训练由一个发生器组成,用于产生真实内窥镜图像的类似合成的表示,发生器中的损失函数包含一个鉴别器,用于将内窥镜图像分类为真实图像或合成图像,自正则化项用于惩罚较大的实际图像偏差,最后使用合成的内窥镜数据来训练单眼内窥镜检查深度估计网络,并使用来自真实内窥镜检查数据对其进行定量测试,以验证域适应方法。本发明将真实医学图像转换为有用的合成表示,其深度显著更好,同时保持了临床相关的诊断特征。

Description

一种基于对抗训练的反向域自适应方法
技术领域
本发明涉及图像合成领域,尤其是涉及了一种基于对抗训练的反向域自适应方法。
背景技术
随着医疗技术和医疗器械的快速发展,各种医学影像数据也急剧增长,这给利用传统影像分析方法实现疾病诊断的医生带来了巨大挑战。但是随着计算机视觉领域的深度学习方法日渐成熟,也为实现医学影像的自动分析以及辅助医生实现疾病的高精度智能诊断提供了新的契机。临床诊断、疾病筛查、介入计划和治疗监测方面的许多应用都依赖于来自医疗器械等的医学图像的主观解释。然而现有的医学图像由于缺乏注释、代表性不足、标准化较差而不可用,又或者合成的医学图像不能保留临床相关特征而不可用。
本发明提出了一种基于对抗训练的反向域自适应方法,通过对抗训练来训练转换器网络,训练由一个发生器组成,用于产生真实内窥镜图像的类似合成的表示,发生器中的损失函数包含一个鉴别器,用于将内窥镜图像分类为真实图像或合成图像,自正则化项用于惩罚较大的实际图像偏差,最后使用合成的内窥镜数据来训练单眼内窥镜检查深度估计网络,并使用来自真实内窥镜检查数据对其进行定量测试,以验证域适应方法。本发明将真实医学图像转换为有用的合成表示,其深度显著更好,同时保持了临床相关的诊断特征。
发明内容
针对医学图像缺乏注释、代表性不足、标准化较差等问题,本发明的目的在于提供一种基于对抗训练的反向域自适应方法,通过对抗训练来训练转换器网络,训练由一个发生器组成,用于产生真实内窥镜图像的类似合成的表示,发生器中的损失函数包含一个鉴别器,用于将内窥镜图像分类为真实图像或合成图像,自正则化项用于惩罚较大的实际图像偏差,最后使用合成的内窥镜数据来训练单眼内窥镜检查深度估计网络,并使用来自真实内窥镜检查数据对其进行定量测试,以验证域适应方法。
为解决上述问题,本发明提供一种基于对抗训练的反向域自适应方法,其主要内容包括:
(一)生成合成的医学数据;
(二)反向域适应;
(三)单眼内窥镜图像深度估计。
其中,所述的生成合成的医学数据,生成一个去除患者特定细节的大型医疗图像数据集,使网络可以训练通用诊断特征;合成数据可以由以下三部分生成:
(1)为医学成像设备开发精确的正演模型;
(2)生成正在成像的器官解剖学准确模型;
(3)从各种位置、角度和参数渲染图像。
进一步地,所述的图像数据集,开发一种内窥镜的正演模型,使用广角单眼相机和两到三个光源,显示真实的平方反比定律强度衰减;使用综合生成的、解剖结构准确的结肠模型,并使用放置在各种角度和变化条件下的虚拟内窥镜对其进行成像,以模拟实际内窥镜的移动;为每个渲染图像生成像素级的标定真实深度;最终创建具有26万个具有标定真实深度的图像数据集。
其中,所述的反向域适应,主要包括转换器损失、鉴别器损失和自正则化。
进一步地,所述的转换器损失,提出的反向域适应方法的目标是使用一组合成图像来学习能够将真实图像变换成类似合成表示的转换器;变换器应能够欺骗鉴别器;该设置有三个关键要求:
(1)转换器输出应该只删除图像中患者特定的细节,同时保留诊断特征;
(2)对抗训练不应该在变换后的图像中引入伪影;
(3)对抗训练应该稳定。
进一步地,所述的鉴别器损失,为了将真实图像转换为合成图像,真实图像和合成图像之间的差距需要最小化;理想的转换器应该每次都能够产生真实图像无法区分的合成表示,如果将鉴别器嵌入在转换器损失函数内,则可以实现;鉴别器的作用是强制转换器产生合成图像;
为了训练网络,对合成图像进行小批量采样,并将图像通过转换器转换成合成图像;使用随机采样、缓冲输出和一组随机采样的合成图像;这增加了对抗性训练的稳定性,因为缺乏记忆会使对抗性训练产生分歧并引入伪像;在每个步骤中,使用这个小批量和参数训练鉴别器,使用随机梯度下降(SGD)进行更新;然后用训练过的鉴别器更新转换器损失;随着转换器和鉴别器之间的训练达到平衡,转换器每次都可以欺骗鉴别器。
进一步地,所述的自正则化,转换器的一个关键要求是只移除患者特定的数据,并应保留其他特征,如形状等;利用真实图像和合成真实图像之间的简单像素损失项来惩罚变换后的图像与实际图像的显著偏差;
总损失函数测定了鉴别器被欺骗的程度,估计变换后的图像与真实图像的接近程度。
其中,所述的单眼内窥镜图像深度估计,为了评估提出的反向域适应方法的有效性,利用综合生成的内窥镜检查数据训练网络,并证明它可以适应三个不同的目标域;通过对抗训练证明目标域的分布可以更加接近源域,表明深度估计范例是域独立的;
一旦产生了具有标定真实深度的合成数据,则使用基于卷积神经网络-条件随机场(CNN-CRF)的深度估计框架;假设是一种合成内窥镜图像,它已被分成p超像素,是每个超像素的深度矢量;在这种情况下,合成数据的条件概率分布可以定义为:
其中,E是能量函数;为了预测新图像的深度,需要解决最大后验概率(MAP)问题,
进一步地,所述的能量函数,令ξ和η为x的节点和边缘上的一元势函数和二元势函数,则能量函数可以表示为:
其中,ξ从单个超像素回归深度,η鼓励相邻超像素之间的平滑度;目标是在一个统一的CNN框架中学习两个势函数。
进一步地,所述的一元势函数和二元势函数,一元势函数部分将单个图像超像素片作为输入,并将其馈送到输出该超像素回归深度的CNN;二元势函数是基于标准CRF顶点和边缘的特征函数;β为网络参数,S为相似度矩阵,其中表示第i个和第j个超像素之间的相似性度量;整体能量函数最终为:
为了训练,相对于两个学习参数,可以最小化从公式(1)计算的概率密度函数的负对数似然性;两个正则化项被添加到目标函数中惩罚重度加权的向量。
附图说明
图1是本发明一种基于对抗训练的反向域自适应方法的系统框架图。
图2是本发明一种基于对抗训练的反向域自适应方法的无监督反向域适应内窥镜图像。
图3是本发明一种基于对抗训练的反向域自适应方法的生成合成医学影像数据的框架图。
图4是本发明一种基于对抗训练的反向域自适应方法的对抗训练的架构图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于对抗训练的反向域自适应方法的系统框架图。主要包括生成合成的医学数据,反向域适应和单眼内窥镜图像深度估计。
单眼内窥镜图像深度估计,为了评估提出的反向域适应方法的有效性,利用综合生成的内窥镜检查数据训练网络,并证明它可以适应三个不同的目标域;通过对抗训练证明目标域的分布可以更加接近源域,表明深度估计范例是域独立的;
一旦产生了具有标定真实深度的合成数据,则使用基于卷积神经网络-条件随机场(CNN-CRF)的深度估计框架;假设是一种合成内窥镜图像,它已被分成p超像素,是每个超像素的深度矢量;在这种情况下,合成数据的条件概率分布可以定义为:
其中,E是能量函数;为了预测新图像的深度,需要解决最大后验概率(MAP)问题,
令ξ和η为x的节点和边缘上的一元势函数和二元势函数,则能量函数可以表示为:
其中,ξ从单个超像素回归深度,η鼓励相邻超像素之间的平滑度;目标是在一个统一的CNN框架中学习两个势函数。
一元势函数部分将单个图像超像素片作为输入,并将其馈送到输出该超像素回归深度的CNN;二元势函数是基于标准CRF顶点和边缘的特征函数;β为网络参数,S为相似度矩阵,其中表示第i个和第j个超像素之间的相似性度量;整体能量函数最终为:
为了训练,相对于两个学习参数,可以最小化从公式(1)计算的概率密度函数的负对数似然性;两个正则化项被添加到目标函数中惩罚重度加权的向量。
图2是本发明一种基于对抗训练的反向域自适应方法的无监督反向域适应内窥镜图像。使用内窥镜的精确正演模型和解剖学正确的结肠模型来生成具有标定真实深度的合成内窥镜图像;这个大的合成数据集可以用来训练一个深度网络来进行深度估计;对抗性网络将输入内窥镜图像转换成合成表示,同时通过自正规化保留临床相关特征;这些类似合成的图像可以直接用于从合成图像上训练的网络进行深度估计。
图3是本发明一种基于对抗训练的反向域自适应方法的生成合成医学影像数据的框架图。生成一个去除患者特定细节的大型医疗图像数据集,使网络可以训练通用诊断特征;合成数据可以由以下三部分生成:
(1)为医学成像设备开发精确的正演模型;
(2)生成正在成像的器官解剖学准确模型;
(3)从各种位置、角度和参数渲染图像。
开发一种内窥镜的正演模型,使用广角单眼相机和两到三个光源,显示真实的平方反比定律强度衰减;使用综合生成的、解剖结构准确的结肠模型,并使用放置在各种角度和变化条件下的虚拟内窥镜对其进行成像,以模拟实际内窥镜的移动;为每个渲染图像生成像素级的标定真实深度;最终创建具有26万个具有标定真实深度的图像数据集。
图4是本发明一种基于对抗训练的反向域自适应方法的对抗训练的架构图。反向域适应主要包括转换器损失、鉴别器损失和自正则化。
转换器损失,其特征在于,提出的反向域适应方法的目标是使用一组合成图像来学习能够将真实图像变换成类似合成表示的转换器;变换器应能够欺骗鉴别器;该设置有三个关键要求:
(1)转换器输出应该只删除图像中患者特定的细节,同时保留诊断特征;
(2)对抗训练不应该在变换后的图像中引入伪影;
(3)对抗训练应该稳定。
鉴别器损失,其特征在于,为了将真实图像转换为合成图像,真实图像和合成图像之间的差距需要最小化;理想的转换器应该每次都能够产生真实图像无法区分的合成表示,如果将鉴别器嵌入在转换器损失函数内,则可以实现;鉴别器的作用是强制转换器产生合成图像;
为了训练网络,对合成图像进行小批量采样,并将图像通过转换器转换成合成图像;使用随机采样、缓冲输出和一组随机采样的合成图像;这增加了对抗性训练的稳定性,因为缺乏记忆会使对抗性训练产生分歧并引入伪像;在每个步骤中,使用这个小批量和参数训练鉴别器,使用随机梯度下降(SGD)进行更新;然后用训练过的鉴别器更新转换器损失;随着转换器和鉴别器之间的训练达到平衡,转换器每次都可以欺骗鉴别器。
自正则化,其特征在于,转换器的一个关键要求是只移除患者特定的数据,并应保留其他特征,如形状等;利用真实图像和合成真实图像之间的简单像素损失项来惩罚变换后的图像与实际图像的显著偏差;
总损失函数测定了鉴别器被欺骗的程度,估计变换后的图像与真实图像的接近程度。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (10)

1.一种基于对抗训练的反向域自适应方法,其特征在于,主要包括生成合成的医学数据(一);反向域适应(二);单眼内窥镜图像深度估计(三)。
2.基于权利要求书1所述的生成合成的医学数据(一),其特征在于,生成一个去除患者特定细节的大型医疗图像数据集,使网络可以训练通用诊断特征;合成数据可以由以下三部分生成:
(1)为医学成像设备开发精确的正演模型;
(2)生成正在成像的器官解剖学准确模型;
(3)从各种位置、角度和参数渲染图像。
3.基于权利要求书2所述的图像数据集,其特征在于,开发一种内窥镜的正演模型,使用广角单眼相机和两到三个光源,显示真实的平方反比定律强度衰减;使用综合生成的、解剖结构准确的结肠模型,并使用放置在各种角度和变化条件下的虚拟内窥镜对其进行成像,以模拟实际内窥镜的移动;为每个渲染图像生成像素级的标定真实深度;最终创建具有26万个具有标定真实深度的图像数据集。
4.基于权利要求书1所述的反向域适应(二),其特征在于,主要包括转换器损失、鉴别器损失和自正则化。
5.基于权利要求书4所述的转换器损失,其特征在于,提出的反向域适应方法的目标是使用一组合成图像来学习能够将真实图像变换成类似合成表示的转换器;变换器应能够欺骗鉴别器;该设置有三个关键要求:
(1)转换器输出应该只删除图像中患者特定的细节,同时保留诊断特征;
(2)对抗训练不应该在变换后的图像中引入伪影;
(3)对抗训练应该稳定。
6.基于权利要求书4所述的鉴别器损失,其特征在于,为了将真实图像转换为合成图像,真实图像和合成图像之间的差距需要最小化;理想的转换器应该每次都能够产生真实图像无法区分的合成表示,如果将鉴别器嵌入在转换器损失函数内,则可以实现;鉴别器的作用是强制转换器产生合成图像;
为了训练网络,对合成图像进行小批量采样,并将图像通过转换器转换成合成图像;使用随机采样、缓冲输出和一组随机采样的合成图像;这增加了对抗性训练的稳定性,因为缺乏记忆会使对抗性训练产生分歧并引入伪像;在每个步骤中,使用这个小批量和参数训练鉴别器,使用随机梯度下降(SGD)进行更新;然后用训练过的鉴别器更新转换器损失;随着转换器和鉴别器之间的训练达到平衡,转换器每次都可以欺骗鉴别器。
7.基于权利要求书4所述的自正则化,其特征在于,转换器的一个关键要求是只移除患者特定的数据,并应保留其他特征,如形状等;利用真实图像和合成真实图像之间的简单像素损失项来惩罚变换后的图像与实际图像的显著偏差;
总损失函数测定了鉴别器被欺骗的程度,估计变换后的图像与真实图像的接近程度。
8.基于权利要求书1所述的单眼内窥镜图像深度估计(三),其特征在于,为了评估提出的反向域适应方法的有效性,利用综合生成的内窥镜检查数据训练网络,并证明它可以适应三个不同的目标域;通过对抗训练证明目标域的分布可以更加接近源域,表明深度估计范例是域独立的;
一旦产生了具有标定真实深度的合成数据,则使用基于卷积神经网络-条件随机场(CNN-CRF)的深度估计框架;假设是一种合成内窥镜图像,它已被分成p超像素,是每个超像素的深度矢量;在这种情况下,合成数据的条件概率分布可以定义为:
其中,E是能量函数;为了预测新图像的深度,需要解决最大后验概率(MAP)问题,
9.基于权利要求书8所述的能量函数,其特征在于,令ξ和η为x的节点和边缘上的一元势函数和二元势函数,则能量函数可以表示为:
其中,ξ从单个超像素回归深度,η鼓励相邻超像素之间的平滑度;目标是在一个统一的CNN框架中学习两个势函数。
10.基于权利要求书9所述的一元势函数和二元势函数,其特征在于,一元势函数部分将单个图像超像素片作为输入,并将其馈送到输出该超像素回归深度的CNN;二元势函数是基于标准CRF顶点和边缘的特征函数;β为网络参数,S为相似度矩阵,其中表示第i个和第j个超像素之间的相似性度量;整体能量函数最终为:
为了训练,相对于两个学习参数,可以最小化从公式(1)计算的概率密度函数的负对数似然性;两个正则化项被添加到目标函数中惩罚重度加权的向量。
CN201810344960.8A 2018-04-17 2018-04-17 一种基于对抗训练的反向域自适应方法 Withdrawn CN108550151A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810344960.8A CN108550151A (zh) 2018-04-17 2018-04-17 一种基于对抗训练的反向域自适应方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810344960.8A CN108550151A (zh) 2018-04-17 2018-04-17 一种基于对抗训练的反向域自适应方法

Publications (1)

Publication Number Publication Date
CN108550151A true CN108550151A (zh) 2018-09-18

Family

ID=63515445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810344960.8A Withdrawn CN108550151A (zh) 2018-04-17 2018-04-17 一种基于对抗训练的反向域自适应方法

Country Status (1)

Country Link
CN (1) CN108550151A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110322446A (zh) * 2019-07-01 2019-10-11 华中科技大学 一种基于相似性空间对齐的域自适应语义分割方法
CN110428462A (zh) * 2019-07-17 2019-11-08 清华大学 多相机立体匹配方法和装置
CN111046760A (zh) * 2019-11-29 2020-04-21 山东浪潮人工智能研究院有限公司 一种基于域对抗网络的笔迹鉴定方法
CN111489403A (zh) * 2019-01-28 2020-08-04 斯特拉德视觉公司 利用gan来生成虚拟特征图的方法及装置
CN113436240A (zh) * 2021-06-22 2021-09-24 同济大学 一种基于域适应的复杂环境下的单目图像深度估计方法
CN114332090A (zh) * 2022-03-16 2022-04-12 中南大学 多源域自适应脑网络分类方法、系统、设备及存储介质
US11450079B2 (en) * 2019-03-08 2022-09-20 Fujifilm Corporation Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN107506800A (zh) * 2017-09-21 2017-12-22 深圳市唯特视科技有限公司 一种基于无监督域适应的无标签视频人脸识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN107506800A (zh) * 2017-09-21 2017-12-22 深圳市唯特视科技有限公司 一种基于无监督域适应的无标签视频人脸识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FAISAL MAHMOOD: "Unsupervised Reverse Domain Adaptation for Synthetic Medical Images via Adversarial Training", 《ARXIV:1711.06606V2》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489403A (zh) * 2019-01-28 2020-08-04 斯特拉德视觉公司 利用gan来生成虚拟特征图的方法及装置
CN111489403B (zh) * 2019-01-28 2023-09-26 斯特拉德视觉公司 利用gan来生成虚拟特征图的方法及装置
US20220383607A1 (en) * 2019-03-08 2022-12-01 Fujifilm Corporation Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device
US11450079B2 (en) * 2019-03-08 2022-09-20 Fujifilm Corporation Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device
US11978550B2 (en) * 2019-03-08 2024-05-07 Fujifilm Corporation Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device
CN110322446B (zh) * 2019-07-01 2021-02-19 华中科技大学 一种基于相似性空间对齐的域自适应语义分割方法
CN110322446A (zh) * 2019-07-01 2019-10-11 华中科技大学 一种基于相似性空间对齐的域自适应语义分割方法
CN110428462A (zh) * 2019-07-17 2019-11-08 清华大学 多相机立体匹配方法和装置
CN111046760A (zh) * 2019-11-29 2020-04-21 山东浪潮人工智能研究院有限公司 一种基于域对抗网络的笔迹鉴定方法
CN111046760B (zh) * 2019-11-29 2023-08-08 山东浪潮科学研究院有限公司 一种基于域对抗网络的笔迹鉴定方法
CN113436240A (zh) * 2021-06-22 2021-09-24 同济大学 一种基于域适应的复杂环境下的单目图像深度估计方法
CN114332090A (zh) * 2022-03-16 2022-04-12 中南大学 多源域自适应脑网络分类方法、系统、设备及存储介质
CN114332090B (zh) * 2022-03-16 2022-05-10 中南大学 多源域自适应脑网络分类方法、系统、设备及存储介质

Similar Documents

Publication Publication Date Title
CN108550151A (zh) 一种基于对抗训练的反向域自适应方法
US11900940B2 (en) Processing speech signals of a user to generate a visual representation of the user
CN105447837B (zh) 基于自适应云模型的多模态脑部图像融合方法
Crystal et al. Photographic and video deepfakes have arrived: how machine learning may influence plastic surgery
CN110414607A (zh) 胶囊内窥镜图像的分类方法、装置、设备及介质
CN111477337B (zh) 基于个体自适应传播网络的传染病预警方法、系统及介质
CN112768065A (zh) 一种基于人工智能的面瘫分级诊断方法、装置
CN115760835A (zh) 一种图卷积网络的医学图像分类的方法
CN112150569A (zh) 将cbct图像生成为ct图像的方法、装置及终端设备
Wang et al. A DCNN system based on an iterative method for automatic landmark detection in cephalometric X-ray images
Tan et al. Style interleaved learning for generalizable person re-identification
CN109934796A (zh) 一种基于深度集成学习的器官自动勾画方法
Liang et al. SPRNet: Automatic fetal standard plane recognition network for ultrasound images
CN115409843B (zh) 基于尺度均衡耦合卷积架构的脑神经影像特征提取方法
Schroder et al. A machine learning enhanced mechanistic simulation framework for functional deficit prediction in TBI
CN116757982A (zh) 一种基于多尺度编解码器的多模态医学图像融合方法
Yang et al. Hierarchical progressive network for multimodal medical image fusion in healthcare systems
Kondou et al. Artificial intelligence-based forensic sex determination of East Asian cadavers from skull morphology
Celard et al. Study on synthetic video generation of embryo development
Joshi et al. Intelligent Fusion Approach for MRI and CT Imaging using CNN with Wavelet Transform Approach
Li et al. An analysis of the health care platform in the cloud environment
CN108961228A (zh) 一种远程医疗诊断系统
Gu et al. FedACS: An efficient federated learning method among multiple medical institutions with adaptive client sampling
Singh et al. Reconstruction of the Human Persona in 3D from Voice, and its Reverse
Anand et al. Transformer-based Multiclass Classification of Cervicogram Images for Improved Cervical Cancer Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20180918