CN110472737B - 神经网络模型的训练方法、装置和医学图像处理系统 - Google Patents
神经网络模型的训练方法、装置和医学图像处理系统 Download PDFInfo
- Publication number
- CN110472737B CN110472737B CN201910752893.8A CN201910752893A CN110472737B CN 110472737 B CN110472737 B CN 110472737B CN 201910752893 A CN201910752893 A CN 201910752893A CN 110472737 B CN110472737 B CN 110472737B
- Authority
- CN
- China
- Prior art keywords
- training
- neural network
- network model
- image
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 276
- 238000003062 neural network model Methods 0.000 title claims abstract description 158
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000012545 processing Methods 0.000 title claims abstract description 82
- 238000003672 processing method Methods 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 70
- 230000008569 process Effects 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 4
- 238000011161 development Methods 0.000 abstract description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000002452 interceptive effect Effects 0.000 abstract 1
- 238000002372 labelling Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000018109 developmental process Effects 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000003902 lesion Effects 0.000 description 5
- 238000005481 NMR spectroscopy Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000002600 positron emission tomography Methods 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
本公开涉及人工智能领域中基于神经网络的计算机视觉技术。具体地,本公开提供了一种用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的医学图像处理方法、以及医学图像处理系统。训练方法包括:训练图像集获取步骤,获得用于训练神经网络模型的训练图像集,训练图像集包括未标注的第一类训练图像;第一训练步骤,利用第一类训练图像以及对应于第一类训练图像的第一损失函数,训练神经网络模型;其中,第一损失函数对应于神经网络模型对于第一类训练图像中的一个图像及其干扰图像的预测值的差异。本公开提供的训练方法在利用有标训练数据的基础上,进一步利用了无标训练数据,从而降低了训练成本,加快了医学图像处理系统的开发周期。
Description
技术领域
本公开涉及人工智能领域,更具体地,本公开涉及一种用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的医学图像处理方法、以及医学图像处理系统。
背景技术
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。神经网络已被人工智能界广泛应用。神经网络是一种大规模、多参数优化的工具。依靠大量的训练数据,神经网络能够学习出数据中难以总结的隐藏特征,从而完成诸如计算机视觉的多种复杂任务。
可以将基于神经网络模型的计算机视觉技术用于诸如内窥镜图像的医学图像处理中,从而对于医学图像自动进行处理。在利用神经网络模型执行上述医学图像处理时,需要预先利用医生标注的大量训练样本数据对神经网络模型执行训练过程,以便在训练过程中不断调整整个神经网络模型的参数设置,直到获得满足训练结束条件的神经网络模型以便随后执行相应的处理任务。然而,不同于一般自然图像的获取和标注,医学图像获取成本高,并且需要具有专业知识的医生进行标注,从而导致训练图像集的构建难度大、成本高。
发明内容
鉴于上述问题而提出了本公开。本公开提供了一种用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的医学图像处理方法、以及医学图像处理系统、电子设备和计算机可读存储介质。
根据本公开的一个方面,提供了一种用于图像处理的神经网络模型的训练方法,所述训练方法包括:训练图像集获取步骤,获得用于训练所述神经网络模型的训练图像集,所述训练图像集包括未标注的第一类训练图像;第一训练步骤,利用所述第一类训练图像以及对应于所述第一类训练图像的第一损失函数,训练所述神经网络模型;其中,所述第一损失函数对应于所述神经网络模型对于所述第一类训练图像中的一个图像及其干扰图像的预测值的差异。
此外,根据本公开一个方面的神经网络模型的训练方法,其中,所述训练图像集获取步骤包括:在第一训练步骤之前,对所述第一类训练图像中的一个图像执行随机变换处理,生成所述干扰图像。
此外,根据本公开一个方面的神经网络模型的训练方法,其中,所述训练图像集包括已标注的第二类训练图像,所述训练方法还包括:第二训练步骤,利用所述第二类训练图像以及对应于所述第二类训练图像的第二损失函数,训练所述神经网络模型;其中,所述第二损失函数对应于所述神经网络模型对于所述第二类训练图像中的一个第二类训练图像的预测值与所述一个第二类训练图像的标注值的差异。
此外,根据本公开一个方面的神经网络模型的训练方法,其中,交替执行所述第一训练步骤和所述第二训练步骤,或者同时执行所述第一训练步骤和所述第二训练步骤。
此外,根据本公开一个方面的神经网络模型的训练方法,其中,所述同时执行所述第一训练步骤和所述第二训练步骤包括:利用作为所述第一损失函数和所述第二损失函数的加权和的第三损失函数,训练所述神经网络模型。
此外,根据本公开一个方面的神经网络模型的训练方法,其中,所述神经网络模型用于医学图像处理,所述第一类训练图像为未经医生标注的医学图像,并且所述第二类训练图像为医生标注后的医学图像。
根据本公开的另一个方面,提供了一种利用神经网络模型的医学图像处理方法,包括:接收输入的医学图像;利用所述神经网络模型对所述输入的医学图像执行特征提取处理;以及基于提取的特征,输出处理结果,其中,利用如上所述的神经网络模型的训练方法,获得所述神经网络模型。
根据本公开的又一个方面,提供了一种用于图像处理的神经网络模型的训练装置,包括:训练图像集获取单元,用于获取用于训练所述神经网络模型的训练图像集,所述训练图像集包括未标注的第一类训练图像;训练单元,用于执行第一训练步骤,以利用所述第一类训练图像以及对应于所述第一类训练图像的第一损失函数,训练所述神经网络模型;其中,所述第一损失函数对应于所述神经网络模型对于所述第一类训练图像中的一个图像及其干扰图像的预测值的差异。
此外,根据本公开又一个方面的神经网络模型的训练装置,其中,所述训练图像集获取单元在第一训练步骤之前,对所述第一类训练图像中的一个图像执行随机变换处理,生成所述干扰图像。
此外,根据本公开又一个方面的神经网络模型的训练装置,其中,所述训练图像集包括已标注的第二类训练图像,所述训练单元还用于执行:第二训练步骤,利用所述第二类训练图像以及对应于所述第二类训练图像的第二损失函数,训练所述神经网络模型;其中,所述第二损失函数对应于所述神经网络模型对于所述第二类训练图像中的一个第二类训练图像的预测值与所述一个第二类训练图像的标注值的差异。
此外,根据本公开又一个方面的神经网络模型的训练装置,其中,所述训练单元交替执行所述第一训练步骤和所述第二训练步骤,或者同时执行所述第一训练步骤和所述第二训练步骤。
此外,根据本公开又一个方面的神经网络模型的训练方法,其中,所述训练单元利用作为所述第一损失函数和所述第二损失函数的加权和的第三损失函数,训练所述神经网络模型。
此外,根据本公开又一个方面的神经网络模型的训练装置,其中,所述神经网络模型用于医学图像处理,所述第一类训练图像为未经医生标注的医学图像,并且所述第二类训练图像为医生标注后的医学图像。
根据本公开的又一个方面,提供了一种电子设备,包括:处理器;以及存储器,用于存储计算机程序指令;其中,当所述计算机程序指令由所述处理器加载并运行时,所述处理器执行如上所述的神经网络模型的训练方法以及如上所述的医学图像处理方法。
根据本公开的再一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序指令,其中,所述计算机程序指令被处理器加载并运行时,所述处理器执行如上所述的神经网络模型的训练方法以及如上所述的医学图像处理方法。
根据本公开的再一个方面,提供了一种医学图像处理系统,包括:图像获取单元,用于获取待处理的医学图像;图像处理单元,用于处理所述医学图像,生成图像处理结果;以及结果输出单元,用于输出所述图像处理结果,其中,所述图像处理单元执行如上所述的神经网络模型的训练方法以及如上所述的医学图像处理方法。
如以下将详细描述的,根据本公开的用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的医学图像处理方法、以及医学图像处理系统、电子设备和计算机可读存储介质,在利用有标训练数据的基础上,进一步利用无标训练数据,最大化利用所有已收集训练数据中的信息,从而对于相同的标注成本提升神经网络模型的效果,或者对于相同的神经网络模型效果,降低标注成本并加快开发周期。特别对于医学图像这类标注难度和成本高的训练图像,根据本公开的用于图像处理的神经网络模型的训练方法更大程度地降低了训练和开发成本,并且随着训练数据的逐渐积累,不断迭代提升神经网络模型的效果。
要理解的是,前面的一般描述和下面的详细描述两者都是示例性的,并且意图在于提供要求保护的技术的进一步说明。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是图示根据本公开实施例的医学图像处理系统的示意图;
图2是概述根据本公开实施例的神经网络模型的训练方法的应用场景的示意图;
图3是图示根据本公开实施例的神经网络模型的训练方法的流程图;
图4是进一步图示根据本公开实施例的神经网络模型的训练方法的流程图;
图5是图示根据本公开实施例的神经网络模型的训练方法的示意图;
图6是图示根据本公开实施例的神经网络模型的训练装置的功能框图;
图7是图示根据本公开实施例的电子设备的硬件框图;以及
图8是图示根据本公开的实施例的计算机可读存储介质的示意图。
具体实施方式
为了使得本公开的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
本申请实施例提供的方案涉及人工智能领域中基于神经网络的计算机视觉技术,具体通过如下实施例进行说明。
图1是图示根据本公开实施例的医学图像处理系统的示意图。
如图1所示,根据本公开实施例的医学图像处理系统100包括图像获取单元101、图像处理单元102以及结果输出单元103。图像获取单元101、图像处理单元102以及结果输出单元103可以配置为处于同一物理位置,甚至配置为属于同一物理设备。可替代地,图像获取单元101、图像处理单元102以及结果输出单元103可以配置为处于不同位置,并且通过有线或者无线通信网络连接,从而在相互之间传输数据或者命令。
具体地,图像获取单元101用于获取待处理的医学图像。在本公开的实施例中,所述医学图像包括但不限于内窥镜图像、血管造影图像、计算机断层扫描图像、正子发射断层扫描图像、核磁共振图像、超音波图像等。
图像处理单元102用于处理所述医学图像,生成图像处理结果。图像处理单元102例如为服务器、图形工作站、个人计算机等。如下将详细描述的,图像处理单元102可以利用其中配置的神经网络模型对图像获取单元101提供的医学图像执行特征提取处理,基于提取的特征生成图像处理结果。图像处理单元102中配置的神经网络模型需要预先利用根据本公开实施例的神经网络模型的训练方法来训练以获取。
结果输出单元103用于输出所述图像处理结果。所述图像处理结果例如为指示医学图像病灶所处位置、状态的可视化图像。由于图像处理结果是由图像处理单元102利用训练好的神经网络模型所生成的,利用了人眼无法观察和判断的更多维度的丰富信息,并且不像医生受其经验和专业知识的限制,从而实现了对于医学图像更加高效和精准的处理。
参照图2示意性地描述根据本公开实施例的神经网络模型的训练方法的应用场景。
如图2所示,根据本公开实施例的神经网络模型20用于接收输入10,并且所述输入10执行特征提取处理,基于提取的特征,生成输出30。在本公开的实施例中,所述输入10例如可以是图像、视频、自然语言文本等待处理的对象。所示神经网络模型20对所述输入10执行图像语义分割、物体检测、动作追踪、自然语言翻译等处理,以生成所述输出30。
在本公开的一个实施例中,所述神经网络模型20可以配置于如图1所示的医学图像处理系统100(例如内窥镜AI诊断系统)中。更具体地,所述神经网络模型20可以配置在医学图像处理系统100内的图像处理单元102中。在医学图像处理系统100中,将医学影像作为所述输入10,神经网络模型20输出的处理结果作为所述输出30,所述输出30可以医学影像各个区域分类结果。此外,可以使用进一步的图像处理将分类结果指示为病灶的区域可视化,以示出病灶的位置与轮廓。
例如,为了检测内窥镜影像中病灶的位置,神经网络模型20可以是卷积神经网络(CNN)模型。在卷积神经网络模型中,例如可以使用输入层对输入图像进行预处理。此后,可以使用多个级联的卷积层对预处理后的输入图像进行特征提取。最后,可以经由池化层、全连接层等输出针对输入图像的分类结果。在输入图像为内窥镜影像的情况下,卷积神经网络模型给出了输入影像中存在哪一类病灶的分类结果。容易理解的是,根据本公开实施例的神经网络模型20可以采用不同的网络结构,包括但不限于卷积神经网络、循环神经网络(RNN)等。所述卷积神经网络包括但不限于U-Net神经网络、ResNet、DenseNet等。
为了获得用于医学图像处理系统100中的所述神经网络模型20,需要收集大量的医学图像作为训练样本,对初始神经网络模型执行训练。对于所收集的医学图像,通常具有对应的人工标注。然而,不同于一般自然图像的获取和标注,医学图像获取成本高,并且需要具有专业知识的医生进行标注,从而导致训练图像集的构建难度大、成本高。在如下将详细的对于神经网络模型20的训练过程中,在利用有标训练数据的基础上,进一步利用无标训练数据,最大化利用所有已收集训练数据中的信息,从而对于相同的标注成本提升神经网络模型的效果,或者对于相同的神经网络模型效果,降低标注成本并加快开发周期。特别对于医学图像这类标注难度和成本高的训练图像,根据本公开的用于图像处理的神经网络模型的训练方法更大程度地降低了训练和开发成本,并且随着训练数据的逐渐积累,不断迭代提升神经网络模型的效果。
以下,参照图3到图5详细描述根据本公开实施例的神经网络模型的训练方法。图3是图示根据本公开实施例的神经网络模型的训练方法的流程图;图4是进一步图示根据本公开实施例的神经网络模型的训练方法的流程图;
图5是图示根据本公开实施例的神经网络模型的训练方法的示意图。
如图3所示,根据本公开实施例的神经网络模型的训练方法包括以下步骤。
在步骤S301中,获得用于训练所述神经网络模型的训练图像集。
在本公开的实施例中,通过医学图像处理系统100中的图像获取单元101获取诸如内窥镜图像、血管造影图像、计算机断层扫描图像、正子发射断层扫描图像、核磁共振图像、超音波图像等的医学图像。
对于收集的训练图像,通常需要人工进行标注。具体地,对于医学图像,需要医生对其进行标注,例如标注医学图像中病灶的位置和轮廓等。容易理解的是,这种需要专业人员进行的标注过程成本高并且耗时。
在本公开的实施例中,除了利用这种人工标注的有标训练数据外,还将进一步利用没有人工标注的无标训练数据。具体地,在本公开的实施例中,对于未标注的第一类训练图像,执行随机变换生成相应的干扰图像。具体地,所述随机变换处理包括但不限于翻转、旋转、平移、颜色变换、添加高斯噪声中的一个或多个处理。
也就是说,在本公开的实施例中,获取的训练图像集包括未标注的第一类训练图像及其相应的干扰图像以及已标注的第二类训练图像。
在步骤S302中,利用所述第一类训练图像以及对应于所述第一类训练图像的第一损失函数,训练所述神经网络模型。
在本公开的实施例中,在这样的假设下利用未标注的第一类训练图像:当训练图像有不影响判断的扰动(例如,翻转、旋转、平移、颜色变换、添加高斯噪声)时,神经网络模型的预测结果应该一致。在此假设下,所述第一损失函数对应于所述神经网络模型对于所述第一类训练图像中的一个图像及其干扰图像的预测值的差异。也就是说,利用所述第一类训练图像以及对应于所述第一类训练图像的第一损失函数,训练所述神经网络模型使得神经网络模型对于一个图像及其干扰图像的预测值的差异最小化。
以下,将进一步参照图4详细描述该第一损失函数的表达式。此外,在本公开的实施例中,不仅利用未标注的第一类训练图像,还利用标注的第二类训练图像执行训练。以下,参照图4进一步详细描述根据本公开实施例的神经网络模型的训练方法。
如图4所示,根据本公开实施例的神经网络模型的训练方法包括以下步骤。
在步骤S401中,获得用于训练所述神经网络模型的训练图像。如上所述,通过医学图像处理系统100中的图像获取单元101获取诸如内窥镜图像、血管造影图像、计算机断层扫描图像、正子发射断层扫描图像、核磁共振图像、超音波图像等的医学图像。
在步骤S402中,对于未标注的第一类训练图像,执行随机变换处理,生成相应的干扰图像。所述随机变换处理包括但不限于翻转、旋转、平移、颜色变换、添加高斯噪声中的一个或多个处理。
在步骤S403中,对第二类训练图像进行人工标注。图4所示的步骤S401到S403对应于图3中的步骤S301。
在步骤S404中,利用所述第一类训练图像以及对应于所述第一类训练图像的第一损失函数,训练所述神经网络模型。图4所示的步骤S404对应于图3中的步骤S302,在此将省略其重复描述。
在步骤S405中,利用所述第二类训练图像以及对应于所述第二类训练图像的第二损失函数,训练所述神经网络模型。在本公开的实施例中,在这样的假设下利用标注的第二类训练图像:神经网络模型对于标注的第二类训练图像的预测结果与其标注应该一致。在此假设下,所述第二损失函数对应于所述神经网络模型对于所述第二训练图像中的一个图像预测值与其标注的差异。也就是说,利用所述第二类训练图像以及对应于所述第二类训练图像的第二损失函数,训练所述神经网络模型使得神经网络模型对于一个图像预测值与其标注值的差异最小化。
在步骤S406中,判断是否满足训练结束条件。如果满足训练在满足训练结束条件的情况下,结束所述训练方法。
在不满足所述训练结束条件的情况下,处理进到步骤S407。在步骤S407,对于未标注的第一类训练图像,执行随机变换处理,生成相应的干扰图像。所述随机变换处理包括但不限于翻转、旋转、平移、颜色变换、添加高斯噪声中的一个或多个处理。也就是说,在利用所述第一类训练图像执行训练之前,再次随机生成相应的干扰图像。由于采用随机变换处理,步骤S407中生成的干扰图像可以与步骤S402中生成的干扰图像不同。
此后,重复执行步骤S404到S406,直到判断满足训练结束条件。具体地,所述训练结束条件包括但不限于:所述更新的神经网络模型满足预定收敛条件。
需要理解的是,图4所示的步骤S404和S405可以顺序交替执行,例如,可以先执行步骤S405再执行步骤S404。可替代地,步骤S404和S405可以同时执行。更具体地,同时执行步骤S404和S405即同时利用未标注的第一类训练图像和标注的第二类训练图像。在此情况下,利用作为所述第一损失函数和所述第二损失函数的加权和的第三损失函数,训练所述神经网络模型。需要理解的是,如图5所示,用于加权的损失函数不限于上述第一损失函数和第二损失函数,而是可以包含其他类型的损失函数。
图5示意性地图示根据本公开实施例的神经网络模型的训练方法。
如图5所示,训练图像集包括未标注的第一类训练图像及其干扰图像(x1,x1’),以及标注的第二类训练图像及其标注(x0,y0)。
对于标注的第二类训练图像(x0,y0),神经网络模型通过注入数据增强、预处理、深度学习以及分类的全连接层等输出x0的预测值z0。预测值z0经过例如softmax函数得到归一化的预测概率p0。
其中z0[i]表示z0向量的第i个单元,C表示分类的种类总数。
预测值p0和真实标签y0计算出交叉熵损失函数(即,第二损失函数)。
LCE(p0,y0)=-log(p0[y0]) 表达式(2)
对于未标注的第一类训练图像(x1,x1’),其中x1和x1’具有相同尺寸,神经网络模型通过注入数据增强、预处理、深度学习以及分类的全连接层等分别输出预测值z1和zr。预测值z1和zr经过例如softmax函数得到归一化的预测概率p1和pr。p1和pr与上面的表达式(1)相同。
预测概率p1和pr的偏差作为一致性损失函数(即,第一损失函数)。
或者
此外,如图5所示,还可以利用其它损失函数。例如,最小化熵损失函数和正则化损失函数。
最小化熵损失函数例如由表达式(5)表示:
该最小化熵损失函数用于使得神经网络模型更加确定地预测为某一类,而不是认为几个种类都有可能。
正则化损失函数则用于降低神经网络模型的过拟合,其包括但不限于神经网络模型的所有参数的L2正则化。
可以对如上所述的各种损失函数进行加权求和,以获得最终的损失函数Ltotal。
Ltotal=ω0·LCE+ω1·LReg+ω2·LCon+ω3·LEnt 表达式(6)
如表达式(6)所示的各种损失函数的权重w0-w3可以是恒定值或者随着训练过程动态变化的。
如此获得Ltotal之后,可以采用端到端的基于随机梯度下降的方法执行对于神经网络模型的训练,直到神经网络模型满足训练结束条件。此外,当获取了新的训练图像时,可以进一步对神经网络模型执行训练,以获取迭代更新的神经网络模型。
以上,参照附图描述了根据本发明实施例的用于图像处理的神经网络模型的训练方法。以下,将描述根据本公开实施例的神经网络模型的训练装置。
图6是图示根据本公开实施例的神经网络模型的训练装置的功能框图。如图6所示,根据本公开实施例的训练装置60包括训练图像集获取单元601和训练单元602。上述各模块可以分别执行如上参照图3到图5描述的根据本公开的实施例的神经网络模型的训练方法的各个步骤。本领域的技术人员理解:这些单元模块可以单独由硬件、单独由软件或者由其组合以各种方式实现,并且本公开不限于它们的任何一个。
训练图像集获取单元601用于获取用于训练所述神经网络模型的训练图像集,所述训练图像集包括未标注的第一类训练图像。所述训练图像集获取单元601对所述第一类训练图像中的一个图像执行随机变换处理,生成干扰图像。所述随机变换处理包括但不限于翻转、旋转、平移、颜色变换、添加高斯噪声中的一个或多个处理。
训练单元602用于执行第一训练步骤,以利用所述第一类训练图像以及对应于所述第一类训练图像的第一损失函数,训练所述神经网络模型;其中,所述第一损失函数对应于所述神经网络模型对于所述第一类训练图像中的一个图像及其干扰图像的预测值的差异。
进一步地,所述训练单元602还用于执行第二训练步骤,利用所述第二类训练图像以及对应于所述第二类训练图像的第二损失函数,训练所述神经网络模型;其中,所述第二损失函数对应于所述神经网络模型对于所述第二类训练图像中的一个第二类训练图像的预测值与所述一个第二类训练图像的标注值的差异。
进一步地,所述训练单元602可以交替执行所述第一训练步骤和所述第二训练步骤,或者同时执行所述第一训练步骤和所述第二训练步骤。所述训练单元利用作为所述第一损失函数和所述第二损失函数的加权和的第三损失函数,训练所述神经网络模型。所述神经网络模型用于医学图像处理,所述第一类训练图像为未经医生标注的医学图像,并且所述第二类训练图像为医生标注后的医学图像。
图7是图示根据本公开实施例的电子设备700的硬件框图。根据本公开实施例的电子设备至少包括处理器;以及存储器,用于存储计算机程序指令。当计算机程序指令由处理器加载并运行时,所述处理器执行如上所述的神经网络模型的训练方法和图像处理方法。
图7所示的电子设备700具体地包括:中央处理单元(CPU)701、图形处理单元(GPU)702和主存储器703。这些单元通过总线704互相连接。中央处理单元(CPU)701和/或图形处理单元(GPU)702可以用作上述处理器,主存储器703可以用作上述存储计算机程序指令的存储器。此外,电子设备700还可以包括通信单元705、存储单元706、输出单元707、输入单元708和外部设备706,这些单元也连接到总线704。
图8是图示根据本公开的实施例的计算机可读存储介质的示意图。如图8所示,根据本公开实施例的计算机可读存储介质800其上存储有计算机程序指令801。当所述计算机程序指令801由处理器运行时,执行参照以上附图描述的根据本公开实施例的神经网络模型的训练方法和图像处理方法。所述计算机可读存储介质包括但不限于例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存、光盘、磁盘等。
以上,参照附图描述了根据本公开实施例的用于图像处理的神经网络模型的训练方法和装置、利用神经网络模型的医学图像处理方法、以及医学图像处理系统、电子设备和计算机可读存储介质,在利用有标训练数据的基础上,进一步利用无标训练数据,最大化利用所有已收集训练数据中的信息,从而对于相同的标注成本提升神经网络模型的效果,或者对于相同的神经网络模型效果,降低标注成本并加快开发周期。特别对于医学图像这类标注难度和成本高的训练图像,根据本公开的用于图像处理的神经网络模型的训练方法更大程度地降低了训练和开发成本,并且随着训练数据的逐渐积累,不断迭代提升神经网络模型的效果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
另外,如在此使用的,在以“至少一个”开始的项的列举中使用的“或”指示分离的列举,以便例如“A、B或C的至少一个”的列举意味着A或B或C,或AB或AC或BC,或ABC(即A和B和C)。此外,措辞“示例的”不意味着描述的例子是优选的或者比其他例子更好。
还需要指出的是,在本公开的系统和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (5)
1.一种用于医学图像处理的神经网络模型的训练方法,所述训练方法包括:
训练图像集获取步骤,获得用于训练所述神经网络模型的训练图像集,所述训练图像集包括被医生标注后的医学图像和未经医生标注的医学图像,所述神经网络模型用于医学图像处理;对所述未经医生标注的医学图像中的一个图像执行随机变换处理,生成干扰图像;
第一训练步骤,对于所述未经医生标注的医学图像及对应的干扰图像(x1,x1’),通过所述神经网络模型输出所述未经医生标注的医学图像对应的预测值z1和对应的所述干扰图像对应的预测值zr,通过表达式(1)得到所述预测值z1的预测概率p1和所述预测值zr的预测概率pr;
其中,所述表达式(1)是:
其中,在所述第一训练步骤中,所述表达式(1)中的p是p1,z是z1,z[i]表示z1向量的第i个单元,或者,p是pr,z是zr,z[i]表示zr向量的第i个单元;C表示分类的种类总数;
利用所述预测概率p1和所述预测概率pr的偏差,通过表达式(3)或者表达式(4)计算出第一损失函数,所述第一损失函数对应于所述神经网络模型对于所述未经医生标注的医学图像中的一个图像及对应的干扰图像的预测值的差异;
其中,所述表达式(3)是:
所述表达式(4)是:
所述训练方法还包括:
第二训练步骤,对于所述被医生标注后的医学图像及对应的标注(x0,y0),通过所述神经网络模型输出所述被医生标注后的医学图像x0的预测值z0,通过所述表达式(1)得到所述预测值z0的预测概率p0;
其中,在所述第二训练步骤中,所述表达式(1)中的p是p0,z是z0,z[i]表示z0向量的第i个单元;
利用所述预测概率p0和所述被医生标注后的医学图像的真实标签y0,通过表达式(2)计算出第二损失函数,所述第二损失函数对应于所述神经网络模型对于所述被医生标注后的医学图像中的一个被医生标注后的医学图像的预测值与所述一个被医生标注后的医学图像的标注值的差异;
其中,所述表达式(2)是:
LCE(p0,y0)=-log(p0[y0])
所述训练方法还包括:
利用作为所述第一损失函数、所述第二损失函数、最小化熵损失函数和正则化损失函数的加权和的最终损失函数,训练所述神经网络模型,其中各个损失函数的权重随着训练过程动态变化;
其中,所述最小化熵损失函数表示如下:
训练结束步骤,当所述神经网络模型满足训练结束条件时,结束对所述神经网络模型的训练;其中,所述训练结束条件包括当所述干扰图像相对于对应的所述未经医生标注的医学图像的扰动不影响判断时,所述神经网络模型的预测结果一致,以及所述神经网络模型输出的所述被医生标注后的医学图像的所述预测值与所述标注值一致。
2.一种利用神经网络模型的医学图像处理方法,包括:
接收输入的医学图像;
利用所述神经网络模型对所述输入的医学图像执行特征提取处理;以及
基于提取的特征,输出处理结果,
其中,利用如权利要求1所述的神经网络模型的训练方法,获得所述神经网络模型。
3.一种用于医学图像处理的神经网络模型的训练装置,包括:
训练图像集获取单元,用于获取用于训练所述神经网络模型的训练图像集,所述训练图像集包括被医生标注后的医学图像和未经医生标注的医学图像,所述神经网络模型用于医学图像处理;对所述未经医生标注的医学图像中的一个图像执行随机变换处理,生成干扰图像;
训练单元,用于执行第一训练步骤、第二训练步骤和训练结束步骤;
第一训练步骤:对于所述未经医生标注的医学图像及对应的干扰图像(x1,x1’),通过所述神经网络模型输出所述未经医生标注的医学图像对应的预测值z1和对应的所述干扰图像对应的预测值zr,通过表达式(1)得到所述预测值z1的预测概率p1和所述预测值zr的预测概率pr;
其中,所述表达式(1)是:
其中,在所述第一训练步骤中,所述表达式(1)中的p是p1,z是z1,z[i]表示z1向量的第i个单元,或者,p是pr,z是zr,z[i]表示zr向量的第i个单元;C表示分类的种类总数;
利用所述预测概率p1和所述预测概率pr的偏差,通过表达式(3)或者表达式(4)计算出第一损失函数,所述第一损失函数对应于所述神经网络模型对于所述未经医生标注的医学图像中的一个图像及对应的干扰图像的预测值的差异;
其中,所述表达式(3)是:
所述表达式(4)是:
第二训练步骤:对于所述被医生标注后的医学图像及对应的标注(x0,y0),通过所述神经网络模型输出所述被医生标注后的医学图像x0的预测值z0,通过所述表达式(1)得到所述预测值z0的预测概率p0;
其中,在所述第二训练步骤中,所述表达式(1)中的p是p0,z是z0,z[i]表示z0向量的第i个单元;
利用所述预测概率p0和所述被医生标注后的医学图像的真实标签y0,通过表达式(2)计算出第二损失函数,所述第二损失函数对应于所述神经网络模型对于所述被医生标注后的医学图像中的一个被医生标注后的医学图像的预测值与所述一个被医生标注后的医学图像的标注值的差异;
其中,所述表达式(2)是:
LcE(po,yo)=-log(po[yo])
所述训练单元,还用于利用作为所述第一损失函数、所述第二损失函数、最小化熵损失函数和正则化损失函数的加权和的最终损失函数,训练所述神经网络模型,其中各个损失函数的权重随着训练过程动态变化;
其中,所述最小化熵损失函数表示如下:
训练结束步骤,当所述神经网络模型满足训练结束条件时,结束对所述神经网络模型的训练;其中,所述训练结束条件包括当所述干扰图像相对于对应的所述未经医生标注的医学图像的扰动不影响判断时,所述神经网络模型的预测结果一致,以及所述神经网络模型输出的所述被医生标注后的医学图像的所述预测值与所述标注值一致。
4.一种电子设备,包括:
处理器;以及
存储器,用于存储计算机程序指令;
其中,当所述计算机程序指令由所述处理器加载并运行时,所述处理器执行如权利要求1所述的神经网络模型的训练方法以及如权利要求2所述的医学图像处理方法。
5.一种医学图像处理系统,包括:
图像获取单元,用于获取待处理的医学图像;
图像处理单元,用于处理所述医学图像,生成图像处理结果;以及
结果输出单元,用于输出所述图像处理结果,
其中,所述图像处理单元执行如权利要求1所述的神经网络模型的训练方法以及如权利要求2所述的医学图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910752893.8A CN110472737B (zh) | 2019-08-15 | 2019-08-15 | 神经网络模型的训练方法、装置和医学图像处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910752893.8A CN110472737B (zh) | 2019-08-15 | 2019-08-15 | 神经网络模型的训练方法、装置和医学图像处理系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110472737A CN110472737A (zh) | 2019-11-19 |
CN110472737B true CN110472737B (zh) | 2023-11-17 |
Family
ID=68511804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910752893.8A Active CN110472737B (zh) | 2019-08-15 | 2019-08-15 | 神经网络模型的训练方法、装置和医学图像处理系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110472737B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111598124B (zh) * | 2020-04-07 | 2022-11-11 | 深圳市商汤科技有限公司 | 图像处理及装置、处理器、电子设备、存储介质 |
CN111523597B (zh) * | 2020-04-23 | 2023-08-25 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
CN111814833B (zh) * | 2020-06-11 | 2024-06-07 | 浙江大华技术股份有限公司 | 票据处理模型的训练方法及图像处理方法、图像处理设备 |
CN112199479B (zh) * | 2020-09-15 | 2024-08-02 | 北京捷通华声科技股份有限公司 | 优化语言语义理解模型方法、装置、设备及存储介质 |
CN112348819A (zh) * | 2020-10-30 | 2021-02-09 | 上海商汤智能科技有限公司 | 模型训练方法、图像处理及配准方法以及相关装置、设备 |
CN112396605B (zh) * | 2021-01-21 | 2021-04-23 | 北京安德医智科技有限公司 | 网络训练方法及装置、图像识别方法和电子设备 |
CN113255427B (zh) * | 2021-02-09 | 2022-05-27 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、电子设备和存储介质 |
CN113052802B (zh) * | 2021-03-11 | 2024-04-09 | 南京大学 | 基于医学图像的小样本图像分类方法、装置及设备 |
CN113158960A (zh) * | 2021-05-06 | 2021-07-23 | 吴国军 | 一种医学图像识别模型构建和识别方法及装置 |
WO2024138387A1 (zh) * | 2022-12-27 | 2024-07-04 | 深圳华大生命科学研究院 | 批次效应去除模型的训练方法及去除方法、装置 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107256552A (zh) * | 2017-06-14 | 2017-10-17 | 成都康托医疗设备有限公司 | 息肉图像识别系统及方法 |
CN107563444A (zh) * | 2017-09-05 | 2018-01-09 | 浙江大学 | 一种零样本图像分类方法及系统 |
CN107680088A (zh) * | 2017-09-30 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于分析医学影像的方法和装置 |
CN108133220A (zh) * | 2016-11-30 | 2018-06-08 | 北京市商汤科技开发有限公司 | 模型训练、关键点定位及图像处理方法、系统及电子设备 |
CN108664999A (zh) * | 2018-05-03 | 2018-10-16 | 北京图森未来科技有限公司 | 一种分类模型的训练方法及其装置、计算机服务器 |
CN109325538A (zh) * | 2018-09-29 | 2019-02-12 | 北京京东尚科信息技术有限公司 | 目标检测方法、装置和计算机可读存储介质 |
CN109472360A (zh) * | 2018-10-30 | 2019-03-15 | 北京地平线机器人技术研发有限公司 | 神经网络的更新方法、更新装置和电子设备 |
CN109523532A (zh) * | 2018-11-13 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
CN109740657A (zh) * | 2018-12-27 | 2019-05-10 | 郑州云海信息技术有限公司 | 一种用于图像数据分类的神经网络模型的训练方法与设备 |
CN109871791A (zh) * | 2019-01-31 | 2019-06-11 | 北京字节跳动网络技术有限公司 | 图像处理方法和装置 |
CN109886343A (zh) * | 2019-02-26 | 2019-06-14 | 深圳市商汤科技有限公司 | 图像分类方法及装置、设备、存储介质 |
CN110084131A (zh) * | 2019-04-03 | 2019-08-02 | 华南理工大学 | 一种基于深度卷积网络的半监督行人检测方法 |
CN110110745A (zh) * | 2019-03-29 | 2019-08-09 | 上海海事大学 | 基于生成对抗网络的半监督x光图像自动标注 |
-
2019
- 2019-08-15 CN CN201910752893.8A patent/CN110472737B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108133220A (zh) * | 2016-11-30 | 2018-06-08 | 北京市商汤科技开发有限公司 | 模型训练、关键点定位及图像处理方法、系统及电子设备 |
CN107256552A (zh) * | 2017-06-14 | 2017-10-17 | 成都康托医疗设备有限公司 | 息肉图像识别系统及方法 |
CN107563444A (zh) * | 2017-09-05 | 2018-01-09 | 浙江大学 | 一种零样本图像分类方法及系统 |
CN107680088A (zh) * | 2017-09-30 | 2018-02-09 | 百度在线网络技术(北京)有限公司 | 用于分析医学影像的方法和装置 |
CN108664999A (zh) * | 2018-05-03 | 2018-10-16 | 北京图森未来科技有限公司 | 一种分类模型的训练方法及其装置、计算机服务器 |
CN109325538A (zh) * | 2018-09-29 | 2019-02-12 | 北京京东尚科信息技术有限公司 | 目标检测方法、装置和计算机可读存储介质 |
CN109472360A (zh) * | 2018-10-30 | 2019-03-15 | 北京地平线机器人技术研发有限公司 | 神经网络的更新方法、更新装置和电子设备 |
CN109523532A (zh) * | 2018-11-13 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
CN109740657A (zh) * | 2018-12-27 | 2019-05-10 | 郑州云海信息技术有限公司 | 一种用于图像数据分类的神经网络模型的训练方法与设备 |
CN109871791A (zh) * | 2019-01-31 | 2019-06-11 | 北京字节跳动网络技术有限公司 | 图像处理方法和装置 |
CN109886343A (zh) * | 2019-02-26 | 2019-06-14 | 深圳市商汤科技有限公司 | 图像分类方法及装置、设备、存储介质 |
CN110110745A (zh) * | 2019-03-29 | 2019-08-09 | 上海海事大学 | 基于生成对抗网络的半监督x光图像自动标注 |
CN110084131A (zh) * | 2019-04-03 | 2019-08-02 | 华南理工大学 | 一种基于深度卷积网络的半监督行人检测方法 |
Non-Patent Citations (8)
Title |
---|
Mehdi Sajjadi 等.Regularization With Stochastic Transformations and Perturbations for Deep Semi-Supervised Learning.《30th Conference on Neural Information Processing Systems (NIPS 2016)》.2016, * |
Regularization With Stochastic Transformations and Perturbations for Deep Semi-Supervised Learning;Mehdi Sajjadi 等;《30th Conference on Neural Information Processing Systems (NIPS 2016)》;20161205;第1171-1179页 * |
Samuli Laine 等.TEMPORAL ENSEMBLING FOR SEMI-SUPERVISEDLEARNING.《arXiv》.2017, * |
Semi-supervised Learning by Entropy Minimization;Yves Grandvalet 等;《Advances in Neural Information Processing Systems》;20040131;第1-8页 * |
TEMPORAL ENSEMBLING FOR SEMI-SUPERVISED LEARNING;Samuli Laine 等;《arXiv》;1-13 * |
TEMPORAL ENSEMBLING FOR SEMI-SUPERVISEDLEARNING;Samuli Laine 等;《arXiv》;20170315;第1-13页摘要,第1-3节,图1 * |
基于半监督深度网络学习的细粒度图像检索;王晓飞 等;《电子测量技术》;20181123;第41卷(第22期);第71-76页 * |
王晓飞 等.基于半监督深度网络学习的细粒度图像检索.《电子测量技术》.2018,第41卷(第22期), * |
Also Published As
Publication number | Publication date |
---|---|
CN110472737A (zh) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110472737B (zh) | 神经网络模型的训练方法、装置和医学图像处理系统 | |
CN110689038B (zh) | 神经网络模型的训练方法、装置和医学图像处理系统 | |
CN111476292B (zh) | 医学图像分类处理人工智能的小样本元学习训练方法 | |
EP3923238B1 (en) | Medical image segmentation method and device, computer device and readable storage medium | |
JP7391846B2 (ja) | ディープニューラルネットワークを使用したコンピュータ支援診断 | |
CN108921851B (zh) | 一种基于3d对抗网络的医学ct图像分割方法 | |
Sivaramakrishnan et al. | Visualizing abnormalities in chest radiographs through salient network activations in deep learning | |
US12094188B2 (en) | Methods and systems for training learning network for medical image analysis | |
CN113821668A (zh) | 数据分类识别方法、装置、设备及可读存储介质 | |
CN111583385A (zh) | 一种可变形数字人解剖学模型的个性化变形方法及系统 | |
CN110390676A (zh) | 显微镜下医学染色图像的细胞检测方法、智能显微镜系统 | |
CN112818821A (zh) | 基于可见光和红外光的人脸采集源检测方法和装置 | |
CN110570425B (zh) | 一种基于深度强化学习算法的肺结节分析方法及装置 | |
Ito et al. | An Automated Method for Generating Training Sets for Deep Learning based Image Registration. | |
CN114037699B (zh) | 一种病理图像分类方法、设备、系统及存储介质 | |
CN115661282A (zh) | 伪影识别方法、装置及计算机可读存储介质 | |
CN114283406A (zh) | 细胞图像识别方法、装置、设备、介质及计算机程序产品 | |
Zhang et al. | Lightweight transformer backbone for medical object detection | |
Tsaniya et al. | Automatic radiology report generator using transformer with contrast-based image enhancement | |
EP4339961A1 (en) | Methods and systems for providing a template data structure for a medical report | |
CN115690115A (zh) | 一种基于重建预训练的肺部医学图像分割方法 | |
WO2014030262A1 (ja) | 形状データ生成プログラム、形状データ生成方法及び形状データ生成装置 | |
Ma et al. | Unsupervised Prototype-Wise Contrastive Learning for Domain Adaptive Semantic Segmentation in Remote Sensing Image | |
Reddy et al. | Optimized CNN model with deep convolutional GAN for brain tumor detection | |
Ramesh et al. | Hybrid U-Net and ADAM Algorithm for 3DCT Liver Segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |