CN110084751A - 图像重建系统及方法 - Google Patents

图像重建系统及方法 Download PDF

Info

Publication number
CN110084751A
CN110084751A CN201910336289.7A CN201910336289A CN110084751A CN 110084751 A CN110084751 A CN 110084751A CN 201910336289 A CN201910336289 A CN 201910336289A CN 110084751 A CN110084751 A CN 110084751A
Authority
CN
China
Prior art keywords
image
loss function
generator
high quality
arbiter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910336289.7A
Other languages
English (en)
Inventor
余锦华
汪源源
王若尧
邓寅晖
童宇宸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201910336289.7A priority Critical patent/CN110084751A/zh
Publication of CN110084751A publication Critical patent/CN110084751A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本发明是一种图像重建系统,系统包含:生成器和判别器。通过该系统来图像重建方法为:步骤1、给系统输入目标的低质量图像和高质量图像;步骤2、生成器读取低质量图像后,根据L1损失函数来生成人工组合图像;步骤3、生成器通过梯度损失函数来调整生成的人工组合图像的边缘的锐度;步骤4、判别器读取所述人工组合图像和高质量图像后产生对抗损失函数;步骤5、生成器再根据对抗损失函数来进一步对人工组合图像优化。本发明可以帮助超声仪器向着小型化的趋势发展,以使超声成像技术可以在家庭健康检查和极端环境下医疗等领域具有更高的应用价值。

Description

图像重建系统及方法
技术领域
本发明涉及一种便携式超声设备高分辨图像重建系统及方法,由低质量超声图像生成高质量超声图像,属于有监督学习的技术范畴。
背景技术
受益于主要成像技术的发展,超声成像的质量有了显著的提高。然而,更先进的信号处理技术和成像过程往往需要更加昂贵庞大的设备作为支撑。
而且,由于简化的超声设备有很多限制,便携超声设备的成像质量并没有达到令人满意的程度。糟糕的图像质量降低了医生对诊断结果的信心,甚至有可能在急诊中导致误诊。因此,图像质量低是限制便携式超声设备发展与推广的主要障碍。
超声成像的质量评估主要涉及三个方面,分别是空间分辨率,对比度和信噪比。与传统正常尺寸的超声设备相比,便携式超声设备生成的图像一般空间分辨率更低,对比度更低,信噪比更差。因此目前相关的科研工作从提高便携式超声设备的分辨率、对比度和降噪等多方面入手,旨在提高便携超声设备的成像质量。
近年来,以卷积神经网络为基础的各类机器学习方法在计算机视觉领域取得了巨大成就。在物体检测、分类、分割等多个传统方法无法很好解决的问题上,基于卷积神经网络的深度学习方法都取得了重大突破。
一个普通的神经网络的基础是神经元。将多个神经元组合在一起形成多层网络结构,也就构成了一个神经网络。传统神经网络采用了全连接结构,即每一个神经元都和下一层的所有神经元相连。这样做既没有必要,也会导致神经网络参数量巨大,难以实现。
卷积神经网络与普通神经网络的区别之处在于,卷积神经网络限制了神经元间连接的数量,每个神经元仅与其感知域(receptive field)内的神经元相连接。对一张图像来说,每个像素仅考虑它和它周围几个像素的关联。这一假设大大降低了网络的参数量,并且在多数情况下也合情合理。由于神经元的加权计算与二维离散函数的卷积具有相同的形式,这一类的神经网络被称为卷积神经网络。相较于传统的图像识别算法,卷积神经网络具有优秀的泛化能力和表达能力。卷积神经网络由多个串联的卷积层组成,这些卷积层被用于提取图像的高维特征。这类特征与人工指定的如形状、色彩等低维特征相比,受亮度、旋转、尺度变化等影响较小,因此在图像分类、目标识别、语义分割等应用中表现出色。网络中的各个参数是根据算法学习得到,不需要人工指定,对数据集的拟合和表达会更好。
但是,卷积神经网络在处理图像生成问题时的表现不尽如人意。图像生成问题需要算法能够根据已有信息,生成本来没有的但是尽可能合理的信息。本发明所研究的根据低质量超声图像生成高质量超声图像的问题就属于此类。这类问题要求算法生成的图像尽可能真实,让人无法分辨图像是由算法生成的,也就是要使生成图像的分布尽可能接近真实图像的分布。卷积神经网络在处理这类问题时,很难设计一个合适的损失函数来描述生成分布和真实分布之间的接近程度。
生成对抗网络由两个卷积神经网络构成,分别是生成器(Generator,G)和判别器(Discriminator,D)。生成器用于生成图像,判别器用于判别生成的图像是否足够接近真实图像的分布。判别器判别能力越强,生成器就需要生成更真实的图像来迷惑判别器。同样,生成器生成的图像越真实,判别器就需要更强的判别能力来检测出图像是生成的而非真实的。
生成对抗网络最初应用于无监督学习领域,如在人脸数据集上训练生成新的人脸等。生成器首先利用卷积神经网络对一个高维特征(通常用一个随机噪声代替)进行处理,利用这个高维特征生成图像,这一方法被广泛应用于有监督的图像生成问题上。这并不能解决所有监督图像的生成问题,如图像超分辨率重建、图像风格转换等。
发明内容
为了解决上述现有技术中存在的问题,并为了提高便携超声设备的成像质量,本发明通过如下技术方案来实现。
本发明的图像重建系统,包含:生成器和判别器;
系统读取目标的高质量图像和低质量图像;
所述生成器从高质量图像当中利用卷积神经网络提取高维特征,再利用高维特征对低质量图像进行处理后生成人工组合图像;
所述判别器读取所述人工组合图像和高质量图像后产生对抗损失函数,并将所述对抗损失函数反馈给所述生成器;
所述生成器综合所述对抗损失函数以及高维特征来生成尽可能接近真实图像的人工组合图像。
优选地,所述生成器结构是具有稀疏连接的U-Net模型。
优选地,所述高质量图像和低质量图像的像素大小为128×128,且低质量图像是由便携式超声设备来生成,高质量图像由其他大型超声设备采集而成。
优选地,对卷积神经网络提取的高维特征,引用的函数包含L1损失函数和梯度损失函数。
优选地,所述L1损失函数表示为:
其中,x是输入的低质量图像向量,y是输出的高质量图像向量,G表示的是生成器;x,y~Pdata(x,y)指的是由数据(x,y)构成一个空间分布Pdata(x,y);Pdata(x,y)指的是data(x,y)的分布;||y-G(x)||1指的是L1范数。
优选地,所述对抗损失函数表示为:
式中,D表示判别器;logD(x,y)、log(1-D(G(x))代表交叉熵函数的组成部分,由其定义的对抗损失函数用于使生成器生成的图像尽可能接近真实图像;D(x,y)是以x作为输入向量、y为0(高质量图像)的判别器的输出;D(G(x))是x作为输入向量,生成高质量图像G(x),然后输入判别器,得到判别器的输出。
优选地,所述梯度损失函数表示为:
其中,x1、x2分别是图像数据的水平方向和竖直方向;是生成图像和真实高质量图像间水平和竖直梯度误差绝对值之和。
优选地,所述生成器综合对抗损失函数以及高维特征后,人工组合图像的优化表示为:
其中,α、β分别是相应函数的权重;表示的是优化的过程,通过调节G和D使得整体损失函数的最大值最小化。
一种图像重建方法,包含如下步骤:
步骤1、给系统输入目标的低质量图像和高质量图像;
步骤2、生成器读取低质量图像后,根据L1损失函数来生成人工组合图像;
步骤3、生成器通过梯度损失函数来调整生成的人工组合图像的边缘的锐度;
步骤4、判别器读取所述人工组合图像和高质量图像后产生对抗损失函数;
步骤5、生成器再根据对抗损失函数来进一步对人工组合图像优化。
优选地,所述步骤3中梯度损失函数为人工组合图像和高质量图像间水平和竖直梯度误差绝对值之和。
本发明的优点在于:在硬件上,本发明可以帮助超声仪器向着小型化的趋势发展,以使超声成像技术可以在家庭健康检查和极端环境下医疗等领域具有更高的应用价值。在算法上,本发明采用了一种基于生成对抗网络(Generative Adversarial Networks,GAN)的深度学习方法,用于打破其他方法生成的便携式超声图像质量的限制。
附图说明
图1为本发明的设计方案结构示意图;
图2为本发明步骤的流程图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合附图和具体实施例对本发明做进一步详细的说明,但不以任何方式限制本发明的范围。
如附图1所示,本发明的图像重建系统包含:生成器和判别器;当便携式超声设备给系统输入一个低质量图像时,其他大型超声设备(比如:Philips的EPIQ超声系统;GE的LOGIQ E9超声诊断仪)也依照该低质量图像生成高质量图像输入给系统;此时,所述生成器利用卷积神经网络,从高质量图像当中提取高维特征,再利用这些高维特征对低质量图像进行处理后生成人工组合图像;所述判别器读取所述人工组合图像和高质量图像后产生对抗损失函数,并将所述对抗损失函数反馈给所述生成器;所述生成器再综合所述对抗损失函数和高维特征来生成尽可能接近真实图像的人工组合图像。
超声图像的重建与传统的图像翻译工作相比,一个显著的难点在于低质量超声图像存在大面积的伪影。直接在输入输出端之间分享低层次信息会导致在高质量图像中依然存在大量伪影。为了使得生成图像的结构与高质量图像足够接近,同时减少伪影,本发明采用的生成器结构仅保留了原始U-Net结构中最底层的连接。本发明将这一结构称为具有稀疏连接的U-Net模型(Sparse skip connection U-Net,SSC U-Net)。
另外,低质量图像和高质量图像是局部小块图像,以提高判别器对高频信息的建模能力。这一操作假设了不同局部小块图像之间的像素点是不相关的。同样的假设在处理图像风格转换等问题时也经常使用。实际训练中使用的局部小块图像的像素大小为128×128。
本发明的原理方法的描述如下:
步骤1、给系统输入目标的低质量图像和高质量图像。
步骤2、生成器读取低质量图像后,根据L1损失函数来生成人工组合图像;由于本发明是一个有监督学习的过程,因此高维特征当中引入L1损失函数,使人工组合图像和高质量图像取得像素级的相似。L1损失函数可以和传统的对抗损失函数相结合用于GAN的训练,而且L1损失函数能够使训练更加稳定,同时可以保留图像上的低频结构信息。L1损失函数定义如下:
式中,x是输入的低质量图像向量,y是输出的高质量图像向量,G表示的是生成器;x,y~Pdata(x,y)指的是由数据(x,y)构成一个空间分布Pdata(x,y);Pdata(x,y)指的是data(x,y)的分布;||y-G(x)||1指的是L1范数,L1范数(L1 norm)是指向量中各个元素绝对值之和。
步骤3、生成器通过梯度损失函数来调整生成的人工组合图像的边缘的锐度;其中,梯度损失函数定义为人工组合图像和高质量图像间水平和竖直梯度误差绝对值之和;由于L1损失函数在保留低频结构信息的同时会引起图像的平滑,在超声图像中,如纹理、斑点、噪声等的细节都希望能够被尽可能地重建出来。基于此,本发明引入了梯度损失函数以保证生成图像边缘的锐度。梯度损失函数由下式给出:
其中,x1、x2分别是图像数据的水平方向和竖直方向;是生成图像和真实高质量图像间水平和竖直梯度误差绝对值之和。
步骤4、判别器读取所述人工组合图像和高质量图像后产生对抗损失函数;在GAN训练过程中,一般会使用交叉熵函数作为损失函数。这一损失函数一般也被称为对抗损失函数。对抗损失函数定义如下:
式中,D表示的是判别器;式中logD(x,y)、log(1-D(G(x))代表交叉熵函数的组成部分,由其定义的对抗损失函数用于使生成器生成的图像尽可能接近真实图像;D(x,y)是以x作为输入向量、y为0(高质量图像)的判别器的输出;D(G(x))是x作为输入向量,生成高质量图像G(x),然后输入判别器,得到判别器的输出。
步骤5、综上,生成器根据对抗损失函数和梯度损失函数来进一步对人工组合图像优化,人工组合图像的优化表示为:
其中,α、β分别是相应函数的权重;表示的是优化的过程,通过调节G和D使得整体损失函数的最大值最小化。
针对从低质量超声图像生成高质量超声图像这一问题本身,生成对抗网络具有如下优势:
(1)模型具有多层次非线性结构,具有强大的拟合能力和特征提取能力,能有效学习从低质量图像到高质量图像的映射,从分辨率、对比度和信噪比等多方面提升图像质量。
(2)特征提取器是从实际超声图像中生成器利用卷积神经网络来自动学习得到的,不是人工设计的,更具代表性,对数据的适应性也更好。
(3)判别器的引入能够使得生成图像更加真实,取得更好的视觉效果。
(4)硬件技术的快速发展使得神经网络可以部署在在嵌入式系统上。本发明提出的模型有条件应用于便携式超声设备。
尽管本发明的内容已经通过上述优选实例作了详细介绍,但应当认识到上述的描述不应被认为是本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (10)

1.一种图像重建系统,其特征在于,系统包含:生成器和判别器;
系统读取目标的高质量图像和低质量图像;
所述生成器从高质量图像当中利用卷积神经网络提取高维特征,再利用高维特征对低质量图像进行处理后生成人工组合图像;
所述判别器读取所述人工组合图像和高质量图像后产生对抗损失函数,并将所述对抗损失函数反馈给所述生成器;
所述生成器综合所述对抗损失函数以及高维特征来生成尽可能接近真实图像的人工组合图像。
2.如权利要求1所述的图像重建系统,其特征在于,所述生成器结构是具有稀疏连接的U-Net模型。
3.如权利要求1所述的图像重建系统,其特征在于,所述高质量图像和低质量图像的像素大小为128×128,且低质量图像是由便携式超声设备来生成,高质量图像由其他大型超声设备采集而成。
4.如权利要求1所述的图像重建系统,其特征在于,对卷积神经网络提取的高维特征,引用的函数包含L1损失函数和梯度损失函数。
5.如权利要求4所述的图像重建系统,其特征在于,所述L1损失函数表示为:
其中,x是输入的低质量图像向量,y是输出的高质量图像向量,G表示的是生成器;x,y~Pdata(x,y)指的是由数据(x,y)构成一个空间分布Pdata(x,y);Pdata(x,y)指的是data(x,y)的分布;||y-G(x)||1指的是L1范数。
6.如权利要求5所述的图像重建系统,其特征在于,所述对抗损失函数表示为:
式中,D表示判别器;logD(x,y)、log(1-D(G(x))代表交叉熵函数的组成部分,由其定义的对抗损失函数用于使生成器生成的图像尽可能接近真实图像;D(x,y)是以x作为输入向量、y为0(高质量图像)的判别器的输出;D(G(x))是x作为输入向量,生成高质量图像G(x),然后输入判别器,得到判别器的输出。
7.如权利要求6所述的图像重建系统,其特征在于,所述梯度损失函数表示为:
其中,x1、x2分别是图像数据的水平方向和竖直方向;是生成图像和真实高质量图像间水平和竖直梯度误差绝对值之和。
8.如权利要求7所述的图像重建系统,其特征在于,所述生成器综合对抗损失函数以及高维特征后,人工组合图像的优化表示为:
其中,α、β分别是相应函数的权重;表示的是优化的过程,通过调节G和D使得整体损失函数的最大值最小化。
9.一种图像重建方法,其特征在于,利用权利要求1-8中任一项所述的图像重建系统,所述图像重建方法包含如下步骤:
步骤1、给系统输入目标的低质量图像和高质量图像;
步骤2、生成器读取低质量图像后,根据L1损失函数来生成人工组合图像;
步骤3、生成器通过梯度损失函数来调整生成的人工组合图像的边缘的锐度;
步骤4、判别器读取所述人工组合图像和高质量图像后产生对抗损失函数;
步骤5、生成器再根据对抗损失函数来进一步对人工组合图像优化。
10.如权利要求9所述的图像重建方法,其特征在于,所述步骤3中梯度损失函数为人工组合图像和高质量图像间水平和竖直梯度误差绝对值之和。
CN201910336289.7A 2019-04-24 2019-04-24 图像重建系统及方法 Pending CN110084751A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910336289.7A CN110084751A (zh) 2019-04-24 2019-04-24 图像重建系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910336289.7A CN110084751A (zh) 2019-04-24 2019-04-24 图像重建系统及方法

Publications (1)

Publication Number Publication Date
CN110084751A true CN110084751A (zh) 2019-08-02

Family

ID=67416583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910336289.7A Pending CN110084751A (zh) 2019-04-24 2019-04-24 图像重建系统及方法

Country Status (1)

Country Link
CN (1) CN110084751A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766612A (zh) * 2019-12-26 2020-02-07 杭州知衣科技有限公司 一种基于深度学习的图像超分辨率方法
CN111862253A (zh) * 2020-07-14 2020-10-30 华中师范大学 一种基于深度卷积生成对抗网络的草图着色方法及系统
WO2021052103A1 (zh) * 2019-09-18 2021-03-25 华为技术有限公司 图像生成的方法、装置以及计算机
CN112837318A (zh) * 2021-03-29 2021-05-25 深圳大学 超声图像生成模型的生成方法、合成方法、介质及终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107492071A (zh) * 2017-08-17 2017-12-19 京东方科技集团股份有限公司 医学图像处理方法及设备
CN109064443A (zh) * 2018-06-22 2018-12-21 哈尔滨工业大学 一种基于腹部超声图像的多模型器官分割方法及系统
CN109325931A (zh) * 2018-08-22 2019-02-12 中北大学 基于生成对抗网络和超分辨率网络的多模态图像融合方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107492071A (zh) * 2017-08-17 2017-12-19 京东方科技集团股份有限公司 医学图像处理方法及设备
CN109064443A (zh) * 2018-06-22 2018-12-21 哈尔滨工业大学 一种基于腹部超声图像的多模型器官分割方法及系统
CN109325931A (zh) * 2018-08-22 2019-02-12 中北大学 基于生成对抗网络和超分辨率网络的多模态图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IRINA SÁNCHEZ 等: ""Brain MRI super-resolution using 3D generative adversarial networks"", 《ARXIV.ORG》 *
XIN YI 等: ""Sharpness-aware Low dose CT denoising using conditional generative adversarial network"", 《ARXIV.ORG》 *
吴洋洋 等: ""生成对抗网络的血管内超声图像超分辨率重建"", 《南方医科大学学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021052103A1 (zh) * 2019-09-18 2021-03-25 华为技术有限公司 图像生成的方法、装置以及计算机
CN110766612A (zh) * 2019-12-26 2020-02-07 杭州知衣科技有限公司 一种基于深度学习的图像超分辨率方法
CN111862253A (zh) * 2020-07-14 2020-10-30 华中师范大学 一种基于深度卷积生成对抗网络的草图着色方法及系统
CN111862253B (zh) * 2020-07-14 2023-09-15 华中师范大学 一种基于深度卷积生成对抗网络的草图着色方法及系统
CN112837318A (zh) * 2021-03-29 2021-05-25 深圳大学 超声图像生成模型的生成方法、合成方法、介质及终端
CN112837318B (zh) * 2021-03-29 2023-07-18 深圳大学 超声图像生成模型的生成方法、合成方法、介质及终端

Similar Documents

Publication Publication Date Title
CN110084751A (zh) 图像重建系统及方法
WO2021077997A9 (zh) 图像去噪的多生成器生成对抗网络学习方法
CN107492071A (zh) 医学图像处理方法及设备
CN109637634B (zh) 一种基于生成对抗网络的医学图像合成方法
CN109389585B (zh) 一种基于全卷积神经网络的脑组织提取方法
Sinha et al. Medical image processing
Tan et al. Automated vessel segmentation in lung CT and CTA images via deep neural networks
CN108564561A (zh) 一种钼靶图像中胸大肌区域自动检测方法
CN112598759A (zh) 抑制低剂量ct图像中伪影噪声的多尺度特征生成对抗网络
CN110517198A (zh) 用于ldct图像去噪的高频敏感gan网络
CN111415728A (zh) 基于cnn和gan的ct图像数据自动分类方法及设备
CN105654425A (zh) 一种应用于医学x光图像的单幅图像超分辨率重建方法
CN113205096A (zh) 一种基于注意力的联合图像与特征自适应的语义分割方法
CN112488971A (zh) 基于空间注意力机制和深度卷积生成对抗网络的医学图像融合方法
Holste et al. Self-supervised learning of echocardiogram videos enables data-efficient clinical diagnosis
CN107146211A (zh) 基于线扩散函数和双边滤波的视网膜血管图像降噪方法
CN112308827A (zh) 基于深度卷积神经网络的毛囊检测方法
CN110264428A (zh) 一种基于3d卷积反卷积和生成对抗网络的医学图像降噪方法
CN105225214B (zh) 一种基于直觉模糊处理理论的图像融合方法及其系统
Ding et al. Ultrasound image super-resolution with two-stage zero-shot cyclegan
Guo et al. Thyroid nodule ultrasonic imaging segmentation based on a deep learning model and data augmentation
Kumari et al. Data efficient deep learning for medical image analysis: A survey
Li et al. HRINet: alternative supervision network for high-resolution CT image interpolation
Kayal et al. Spectral data augmentation techniques to quantify lung pathology from CT-Images
Wang et al. Rethinking separable convolutional encoders for end-to-end semantic image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190802