CN114332554A - 图像分割模型的训练方法、图像分割方法、装置及设备 - Google Patents
图像分割模型的训练方法、图像分割方法、装置及设备 Download PDFInfo
- Publication number
- CN114332554A CN114332554A CN202111328774.3A CN202111328774A CN114332554A CN 114332554 A CN114332554 A CN 114332554A CN 202111328774 A CN202111328774 A CN 202111328774A CN 114332554 A CN114332554 A CN 114332554A
- Authority
- CN
- China
- Prior art keywords
- image
- predicted
- determining
- annotated
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003709 image segmentation Methods 0.000 title claims abstract description 249
- 238000000034 method Methods 0.000 title claims abstract description 107
- 238000012549 training Methods 0.000 title claims abstract description 69
- 230000015654 memory Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 13
- 230000006870 function Effects 0.000 description 63
- 238000012545 processing Methods 0.000 description 34
- 210000003734 kidney Anatomy 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 18
- 230000011218 segmentation Effects 0.000 description 18
- 208000003174 Brain Neoplasms Diseases 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000002591 computed tomography Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 239000000126 substance Substances 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009278 visceral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30084—Kidney; Renal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种图像分割模型的训练方法、图像分割方法、装置及设备,属于人工智能技术领域。方法包括:获取有标注图像集和无标注图像集,有标注图像集包括第一图像和第一图像的标注图像,无标注图像集包括第二图像;根据第一网络模型获取第一图像的预测图像;根据第二网络模型获取第二图像的预测图像;基于第二图像和第一图像的标注图像,确定第二图像的参考图像;基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,根据第一网络模型确定图像分割模型。本申请实施例减少了需要标注的图像数量,降低时间消耗和人力消耗,降低了成本,提高模型训练速度,从而提高图像分割效率。
Description
技术领域
本申请实施例涉及人工智能技术领域,特别涉及一种图像分割模型的训练方法、图像分割方法、装置及设备。
背景技术
随着人工智能技术的发展,网络模型的应用越来越广泛,例如,将网络模型应用在图像处理技术领域,通过网络模型识别图像中的目标区域,这种用于识别图像中的目标区域的网络模型称为图像分割模型。
相关技术中,需要获取大量的图像,人工对这些图像进行标注得到训练样本集,并基于训练样本集获取图像分割模型。然而,对于如医学成像等技术领域,人工对图像进行标注需要耗费大量的时间和人力,在成本增加的同时,也影响了图像分割模型的训练速度,从而影响了图像分割效率。
发明内容
本申请实施例提供了一种图像分割模型的训练方法、图像分割方法、装置及设备,可用于解决相关技术中的时间和人力消耗大,图像分割模型的训练速度慢、图像分割效率不高的问题,所述技术方案包括如下内容。
一方面,本申请实施例提供了一种图像分割模型的训练方法,所述方法包括:
获取有标注图像集和无标注图像集,所述有标注图像集包括第一图像和所述第一图像的标注图像,所述标注图像是通过对所述第一图像进行标注得到的图像分割结果,所述无标注图像集包括第二图像;
根据第一网络模型获取所述第一图像的预测图像,所述第一图像的预测图像是通过对所述第一图像进行预测得到的图像分割结果;
根据第二网络模型获取所述第二图像的预测图像,所述第二图像的预测图像是通过对所述第二图像进行预测得到的图像分割结果;
基于所述第二图像和所述第一图像的标注图像,确定所述第二图像的参考图像,所述第二图像的参考图像是通过对所述第二图像进行计算得到的图像分割结果;
基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,根据所述第一网络模型确定图像分割模型。
另一方面,本申请实施例提供了一种图像分割方法,所述方法包括:
获取待分割图像;
根据图像分割模型获取所述待分割图像的图像分割结果,所述图像分割模型是基于上述任一所述的图像分割模型的训练方法得到的。
另一方面,本申请实施例提供了一种图像分割模型的训练装置,所述装置包括:
获取模块,用于获取有标注图像集和无标注图像集,所述有标注图像集包括第一图像和所述第一图像的标注图像,所述标注图像是通过对所述第一图像进行标注得到的图像分割结果,所述无标注图像集包括第二图像;
所述获取模块,还用于根据第一网络模型获取所述第一图像的预测图像,所述第一图像的预测图像是通过对所述第一图像进行预测得到的图像分割结果;
所述获取模块,还用于根据第二网络模型获取所述第二图像的预测图像,所述第二图像的预测图像是通过对所述第二图像进行预测得到的图像分割结果;
确定模块,用于基于所述第二图像和所述第一图像的标注图像,确定所述第二图像的参考图像,所述第二图像的参考图像是通过对所述第二图像进行计算得到的图像分割结果;
所述确定模块,还用于基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,根据所述第一网络模型确定图像分割模型。
在一种可能的实现方式中,所述确定模块,用于基于所述第一图像的标注图像,确定所述第一图像的前景原型和所述第一图像的背景原型,所述第一图像的前景原型是所述第一图像中第一区域的参考特征,所述第一图像的背景原型是所述第一图像中除所述第一区域之外的其他区域的参考特征;基于所述第一图像的前景原型、所述第一图像的背景原型和所述第二图像,确定所述第二图像的参考图像。
在一种可能的实现方式中,所述确定模块,用于获取所述第一图像的特征图,所述第一图像的特征图用于表征所述第一图像的语义信息;基于所述第一图像的特征图和所述第一图像的标注图像,确定所述第一图像的前景原型和所述第一图像的背景原型。
在一种可能的实现方式中,所述确定模块,用于获取所述第二图像的特征图,所述第二图像的特征图用于表征所述第二图像的语义信息;基于所述第一图像的前景原型、所述第一图像的背景原型和所述第二图像的特征图,确定所述第二图像的参考图像。
在一种可能的实现方式中,所述确定模块,用于基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值;基于所述第一网络模型的损失值,根据所述第一网络模型确定图像分割模型。
在一种可能的实现方式中,所述确定模块,用于基于所述第一图像的预测图像和所述第一图像的标注图像确定第一损失值;基于所述第二图像的预测图像和所述第二图像的参考图像确定第二损失值;基于所述第一损失值和所述第二损失值,确定所述第一网络模型的损失值。
在一种可能的实现方式中,所述确定模块,用于确定所述第一网络模型的模型参数和所述第二网络模型的模型参数;基于所述第一网络模型的模型参数、所述第二网络模型的模型参数、所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值。
在一种可能的实现方式中,所述第二网络模型的模型参数是基于所述第一网络模型的模型参数确定的。
在一种可能的实现方式中,所述确定模块,还用于基于所述第一图像和所述第二图像的预测图像,确定所述第一图像的参考图像,所述第一图像的参考图像是通过对所述第一图像进行计算得到的图像分割结果;
所述确定模块,还用于基于所述第一图像的预测图像、所述第一图像的标注图像、所述第一图像的参考图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值。
在一种可能的实现方式中,所述确定模块,用于基于所述第二图像的预测图像,确定所述第二图像的前景原型和所述第二图像的背景原型,所述第二图像的前景原型是所述第二图像中第二区域的参考特征,所述第二图像的背景原型是所述第二图像中除所述第二区域之外的其他区域的参考特征;基于所述第二图像的前景原型、所述第二图像的背景原型和所述第一图像,确定所述第一图像的参考图像。
在一种可能的实现方式中,所述确定模块,用于获取所述第二图像的特征图;基于所述第二图像的特征图和所述第二图像的预测图像,确定所述第二图像的前景原型和所述第二图像的背景原型。
在一种可能的实现方式中,所述确定模块,用于获取所述第一图像的特征图;基于所述第二图像的前景原型、所述第二图像的背景原型和所述第一图像的特征图,确定所述第一图像的参考图像。
在一种可能的实现方式中,所述确定模块,用于基于所述第一图像的预测图像和所述第一图像的标注图像确定第一损失值;基于所述第二图像的预测图像和所述第二图像的参考图像确定第二损失值;基于所述第一图像的标注图像和所述第一图像的参考图像确定第三损失值;基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述第一网络模型的损失值。
另一方面,本申请实施例提供了一种图像分割模型的训练装置,所述装置包括:
第一获取模块,用于获取待分割图像;
第二获取模块,用于根据图像分割模型获取所述待分割图像的图像分割结果,所述图像分割模型是基于上述任一所述的图像分割模型的训练方法得到的。
在一种可能的实现方式中,所述第二获取模块,用于根据所述图像分割模型获取所述待分割图像的特征图,所述待分割图像的特征图用于表征所述待分割图像的语义信息;基于所述待分割图像的特征图,确定所述待分割图像的图像分割结果。
另一方面,本申请实施例提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以使所述电子设备实现上述任一所述的图像分割模型的训练方法或者图像分割方法。
另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以使计算机实现上述任一所述的图像分割模型的训练方法或者图像分割方法。
另一方面,还提供了一种计算机程序或计算机程序产品,所述计算机程序或计算机程序产品中存储有至少一条计算机指令,所述至少一条计算机指令由处理器加载并执行,以使计算机实现上述任一种图像分割模型的训练方法或者图像分割方法。
本申请实施例提供的技术方案至少带来如下有益效果:
本申请实施例提供的技术方案是基于第二图像和第一图像的标注图像,确定第二图像的参考图像,实现将有标注数据集中通过标注得到的图像分割结果传播给无标注数据集,从而减少需要标注的图像数量,降低时间消耗和人力消耗,降低了成本。之后,通过第一图像的预测图像和标注图像、第二图像的预测图像和参考图像得到图像分割模型,加快了图像分割模型的训练速度,提高了图像分割的效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种图像分割模型的训练方法或者图像分割方法的实施环境示意图;
图2是本申请实施例提供的一种图像分割模型的训练方法的流程图;
图3是本申请实施例提供的一种图像分割方法的流程图;
图4是本申请实施例提供的一种图像分割模型的训练示意图;
图5是本申请实施例提供的一种脑肿瘤图像的图像分割结果示意图;
图6是本申请实施例提供的一种肾脏图像的图像分割结果示意图;
图7是本申请实施例提供的一种图像分割模型的训练装置的结构示意图;
图8是本申请实施例提供的一种图像分割装置的结构示意图;
图9是本申请实施例提供的一种终端设备的结构示意图;
图10是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
图1是本申请实施例提供的一种图像分割模型的训练方法或者图像分割方法的实施环境示意图,如图1所示该实施环境包括电子设备11,本申请实施例中的图像分割模型的训练方法或者图像分割方法可以由电子设备11执行。示例性地,电子设备11可以包括终端设备或者服务器中的至少一项。
终端设备可以是智能手机、游戏主机、台式计算机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器和膝上型便携计算机中的至少一种。
服务器可以为一台服务器,或者为多台服务器组成的服务器集群,或者为云计算平台和虚拟化中心中的任意一种,本申请实施例对此不加以限定。服务器可以与终端设备通过有线网络或无线网络进行通信连接。服务器可以具有数据处理、数据存储以及数据收发等功能,在本申请实施例中不加以限定。
本申请各可选实施例的图像分割模型的训练方法或者图像分割方法是基于人工智能技术实现的。人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习、自动驾驶、智慧交通等几大方向。
计算机视觉(Computer Vision,CV)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、光学字符识别(Optical Character Recognition,OCR)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、三维(Three Dimensional,3D)技术、虚拟现实、增强现实、同步定位与地图构建、自动驾驶、智慧交通等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
基于上述实施环境,本申请实施例提供了一种图像分割模型的训练方法,以图2所示的本申请实施例提供的一种图像分割模型的训练方法的流程图为例,该方法可由图1中的电子设备11执行。如图2所示,该方法包括步骤201至步骤205。
步骤201,获取有标注图像集和无标注图像集,有标注图像集包括第一图像和第一图像的标注图像,标注图像是通过对第一图像进行标注得到的图像分割结果,无标注图像集包括第二图像。
可选地,第一图像的数量为至少一个,任一个第一图像存在该第一图像的标注图像。可选地,第二图像的数量也为至少一个。可以理解的是,第二图像的数量大于或者等于或者小于第一图像的数量。由于各个第一图像的处理方式相同,因此,本申请各可选实施例将从第一图像的角度介绍各个第一图像的处理方式,又由于各个第二图像的处理方式也相同,因此,本申请各可选实施例将从第二图像的角度介绍各个第二图像的处理方式。
本申请实施例中,训练数据集包括有标注图像集和无标注图像集,有标注图像集中包括M个第一图像和每个第一图像的标注图像,无标注图像集中包括N-M个第二图像,第一图像和第二图像的数量和为N。其中,N和M均为正整数。
可选地,第一图像和第二图像均为二维图像或者均为三维图像,其中,二维图像的最小分割单位为像素,三维图像的最小分割单位为体素(即体积元素)。本申请各可选实施例中将以第一图像和第二图像均为三维图像为例进行举例说明,第一图像和第二图像均为二维图像与第一图像和第二图像均为三维图像的实现原理相类似,在此不再赘述。
本申请实施例中,Xl(i),Xu(i)∈RH×W×D,Yl(i)∈{0,1}H×W×D,R表示实数,H表示三维图像的高度,W表示三维图像的宽度,D表示三维图像的深度。
步骤202,根据第一网络模型获取第一图像的预测图像,第一图像的预测图像是通过对第一图像进行预测得到的图像分割结果。
可选地,第一网络模型包括编码器和解码器。将第一图像输入至第一网络模型,由第一网络模型的编码器提取第一图像的特征图,由第一网络模型的解码器基于第一图像的特征图确定第一图像的预测图像。其中,第一图像的特征图包括第一图像中各个体素的体素特征,因此,第一图像的特征图能够表征第一图像的语义信息。
本申请实施例中,第一网络模型的模型参数记为θ,第一网络模型的模型参数包括编码器的模型参数和解码器的模型参数。
步骤203,根据第二网络模型获取第二图像的预测图像,第二图像的预测图像是通过对第二图像进行预测得到的图像分割结果。
可选地,第二网络模型包括编码器和解码器。将第二图像输入至第二网络模型,由第二网络模型的编码器提取第二图像的特征图,由第二网络模型的解码器基于第二图像的特征图确定第二图像的预测图像。其中,第二图像的特征图包括第二图像中各个体素的特征,因此,第二图像的特征图能够表征第二图像的语义信息。
本申请实施例中,第二网络模型的模型参数记为第二网络模型的模型参数包括编码器的模型参数和解码器的模型参数。第二网络模型的模型参数可以与第一网络模型的模型参数相同(即第二网络模型为第一网络模型),第二网络模型的模型参数也可以与第一网络模型的模型参数不同(即第二网络模型与第一网络模型是不同的两个模型,示例性的,第一网络模型为学生模型,第二网络模型为教师模型)。
在一种可能的实现方式中,第二网络模型的模型参数是基于第一网络模型的模型参数确定的。
本申请实施例中,第一网络模型可以作为学生模型,第二网络模型可以作为教师模型。通过学生模型的模型参数确定教师模型的模型参数,实现了基于学生模型构建自集成的教师模型,能够提高教师模型的预测结果的准确性。
可选地,根据指数移动平均值(Exponential Moving Average,EMA)的方法,基于第一网络模型的模型参数调整第三网络模型的模型参数,得到第二网络模型的模型参数。第二网络模型的模型参数可以用如下所示的公式(1)表示。
可以理解的是,由于第一网络模型包括编码器和解码器,第二网络模型也包括编码器和解码器,而第二网络模型是通过调整第三网络模型的模型参数得到的,因此,第三网络模型也包括编码器和解码器。在公式(1)中,可以为第二网络模型的编码器(或者解码器)的模型参数,可以为第三网络模型的编码器(或者解码器)的模型参数,θt可以为第一网络模型的编码器(或者解码器)的模型参数。
步骤204,基于第二图像和第一图像的标注图像,确定第二图像的参考图像,第二图像的参考图像是通过对第二图像进行计算得到的图像分割结果。
本申请实施例中,可以基于第二图像、第一图像和第一图像的标注图像,确定第二图像的参考图像。也就是说,对于任一个第二图像,可以基于该任一个第二图像、任一个第一图像和该任一个第一图像的标注图像,确定该任一个第二图像的参考图像。
在一种可能的实现方式中,基于第二图像和第一图像的标注图像,确定第二图像的参考图像,包括:基于第一图像的标注图像,确定第一图像的前景原型和第一图像的背景原型,第一图像的前景原型是第一图像中第一区域的参考特征,第一图像的背景原型是第一图像中除第一区域之外的其他区域的参考特征;基于第一图像的前景原型、第一图像的背景原型和第二图像,确定第二图像的参考图像。
可选地,第一图像包括第一区域和除第一区域之外的其他区域。第一图像中的第一区域可以称为第一图像的前景区域,前景区域是目标对象(例如车辆、建筑物、肿瘤、肾脏等)所在的区域,第一图像中除第一区域之外的其他区域可以称为第一图像的背景区域,背景区域是不包含目标对象的区域。通常情况下,对第一图像进行图像分割处理是从第一图像中分割出第一图像的前景区域的处理。
本申请实施例中,前景区域的各个体素具有相类似的体素特征,可以采用一个体素特征来表达前景区域的任一个体素,这个体素特征可以称为参考特征。基于同样的原理,背景区域的各个体素也具有相类似的体素特征,可以采用另一个参考特征来表达背景区域的任一个体素。
本申请实施例中,第一图像的前景区域的参考特征称为第一图像的前景原型,第一图像的背景区域的参考特征称为第一图像的背景原型。可以基于第一图像以及第一图像的标注图像,确定第一图像的前景原型和第一图像的背景原型。
可选地,基于第一图像的标注图像,确定第一图像的前景原型和第一图像的背景原型,包括:获取第一图像的特征图,第一图像的特征图用于表征第一图像的语义信息;基于第一图像的特征图和第一图像的标注图像,确定第一图像的前景原型和第一图像的背景原型。
本申请实施例中,将第一图像输入至第一网络模型,由第一网络模型的编码器提取第一图像的特征图。将第一图像的特征图与第一图像的标注图像进行叉乘处理,得到第一图像的特征分割图,特征分割图是已分割出前景区域的体素特征和背景区域的体素特征的特征图。基于第一图像的前景区域的体素特征,确定第一图像的前景原型;基于第一图像的背景区域的体素特征,确定第一图像的背景原型。
上述确定第一图像的前景原型和第一图像的背景原型的操作也可以称为掩码平均池化操作。掩码平均池化操作是利用分割标注来掩蔽由编码器提取的前景区域的体素特征(或者背景区域的体素特征),从而得到背景原型(或者前景原型),以实现基于有标注图像集中的前景原型和背景原型,通过非参数度量学习来测量与无标注图像集的相似性,从而对无标注图像集进行分割。
本申请实施例中,第k个第一图像Xl(k)的特征图记为Fl(k),第k个第一图像的标注图像记为Yl(k),第k个第一图像的前景区域记为Cfg,第k个第一图像中任一个体素的空间位置记为(x,y,z),则通过掩码平均池化操作,按照如下所示的公式(2)确定第一图像的前景原型,按照如下所示的公式(3)确定第一图像的背景原型。
其中,pl(fg)为第一图像的前景原型,K为第一图像的数量,为第k个第一图像的特征图中空间位置为(x,y,z)的体素的体素特征,为第k个第一图像的标注图像中空间位置为(x,y,z)的体素的体素信息,1[·]为当满足条件是返回值为1的指示器函数,pl(bg)为第一图像的背景原型。
需要说明的是,第一图像的特征图需要通过三线性插值进行上采样处理,以使上采样处理后的第一图像的特征图与第一图像的标注图像的尺寸一致。其中,本申请实施例不限定三线性插值的具体方式。
可选地,基于第一图像的前景原型、第一图像的背景原型和第二图像,确定第二图像的参考图像,包括:获取第二图像的特征图,第二图像的特征图用于表征第二图像的语义信息;基于第一图像的前景原型、第一图像的背景原型和第二图像的特征图,确定第二图像的参考图像。
本申请实施例中,将第二图像输入至第二网络模型,由第二网络模型的编码器提取第二图像的特征图。然后,基于第一图像的前景原型、第一图像的背景原型和第二图像的特征图,计算第二图像的特征图与第一图像的前景原型之间的相似度或者计算第二图像的特征图与第一图像的背景原型之间的相似度,得到相似度结果。之后,利用归一化指数函数(例如Softmax函数)对相似度结果进行归一化处理,得到第二图像的参考图像。
上述确定第二图像的参考图像的操作也可以称为基于非参数度量学习机制的操作。通过非参数度量学习来测量与无标注图像集的相似性,从而对无标注图像集进行分割。
本申请实施例中,计算相似度时所采用的函数记为距离函数d(·),第二图像的特征图记为Fu,第二图像的特征图中任一个体素的空间位置记为(x,y,z)。第一图像的前景原型为pl(l(fg),第一图像的背景原型为pl(bg),且满足Pl={pl(f(fg)}∪{pl(bg)}。对于每一个Pl(j∈(fg,bg))∈Pl,按照如下所示的公式(4)确定第二图像的参考图像。
其中,为第二图像的参考图像中空间位置为(x,y,z)的体素的体素特征,exp为指数函数,d(·)为距离函数,为第二图像的特征图中空间位置为(x,y,z)的体素的体素特征,pl(j)为第一图像的前景原型或者第一图像的背景原型,Pl包括第一图像的前景原型和第一图像的背景原型,∑为求和函数的符号。α为比例系数,本申请实施例不限定比例系数的具体数值,示例性的,比例系数为20。
需要说明的是,第二图像的特征图需要通过三线性插值进行上采样处理。其中,本申请实施例不限定三线性插值的具体方式。另外,本申请实施例也不对距离函数做限定,示例性的,距离函数为余弦距离的函数。
步骤205,基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,根据第一网络模型确定图像分割模型。
本申请实施例中,基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,对第一网络模型进行一次更新处理,得到更新后的第一网络模型。若满足训练结束条件,则将更新后的第一网络模型作为图像分割模型,若不满足训练结束条件,则将更新后的第一网络模型作为下一次训练的第一网络模型,重新执行步骤201(或者步骤202)至步骤205的步骤,直至得到图像分割模型。
本申请实施例不对满足训练结束条件做限定,示例性的,满足训练结束条件为训练次数达到目标次数。目标次数的数值可以根据人工经验或者应用场景灵活设置,在此不做限定。
在一种可能的实现方式中,基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,根据第一网络模型确定图像分割模型,包括:基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值;基于第一网络模型的损失值,根据第一网络模型确定图像分割模型。
本申请实施例中,可以先基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值。然后,根据第一网络模型的损失值调整第一网络模型的模型参数,以实现对第一网络模型进行一次更新处理,得到更新后的第一网络模型,并基于更新后的第一网络模型得到图像分割模型。
可选地,基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值,包括:基于第一图像的预测图像和第一图像的标注图像确定第一损失值;基于第二图像的预测图像和第二图像的参考图像确定第二损失值;基于第一损失值和第二损失值,确定第一网络模型的损失值。
本申请实施例中,将第一图像的预测图像和第一图像的标注图像输入至第一损失函数中,得到第一损失值。其中,第一损失函数也称为监督损失函数,本申请实施例不对第一损失函数做限定,第一损失函数中包括至少一种函数类型。示例性的,第一损失值是按照如下所示的公式(5)确定的。
Ls=0.5*Lce(Yl,Pl)+0.5*LDice(Yl,Pl) 公式(5)
其中,Ls为第一损失值,Lce为交叉熵损失函数的函数符号,Yl为第一图像的预测图像,Pl为第一图像的标注图像,LDice是Dice损失函数的函数符号,Dice损失函数是一种集合相似度度量函数,可以用于计算两个样本之间的相似度。
本申请实施例中,将第二图像的预测图像和第二图像的参考图像输入至第二损失函数,得到第二损失值。其中,第二损失函数也称为前向原型一致性损失函数,本申请实施例不对第二损失函数做限定。示例性的,第二损失值是按照如下所示的公式(6)确定的。
Lfpc=Lmse(Pl2u,Pu) 公式(6)
其中,Lfpc为第二损失值,Lmse为均方误差(Mean-Square Error,MSE)损失函数的函数符号,Pl2u为第二图像的参考图像,Pu为第二图像的预测图像。
在确定了第一损失值和第二损失值之后,基于第一损失值和第二损失值,确定第一网络模型的损失值。可选地,基于第一损失值、第一损失值的权重、第二损失值以及第二损失值的权重,确定第一网络模型的损失值,且本申请实施例不对第一损失值的权重和第二损失值的权重做限定。
可选地,基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值,包括:确定第一网络模型的模型参数和第二网络模型的模型参数;基于第一网络模型的模型参数、第二网络模型的模型参数、第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值。
本申请实施例中,先获取第一网络模型的模型参数和第二网络模型的模型参数。其中,第二网络模型的模型参数与第一网络模型的模型参数之间的关系在上文已描述,在此不再赘述。
在确定第一损失值时,基于第一网络模型的模型参数、第一图像的预测图像和第一图像的标注图像,确定第一损失值。在确定第二损失值时,基于第一网络模型的模型参数、第二网络模型的模型参数、第二图像的预测图像和第二图像的参考图像,确定第二损失值。之后,基于第一损失值和第二损失值,确定第一网络模型的损失值。
在一种可能的实现方式中,根据第二网络模型获取第二图像的预测图像之后,还包括:基于第一图像和第二图像的预测图像,确定第一图像的参考图像,第一图像的参考图像是通过对第一图像进行计算得到的图像分割结果;基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值,包括:基于第一图像的预测图像、第一图像的标注图像、第一图像的参考图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值。
本申请实施例中,可以基于第一图像、第二图像和第二图像的预测图像,确定第一图像的参考图像。也就是说,对于任一个第一图像,可以基于该任一个第一图像、任一个第二图像和该任一个第二图像的预测图像,确定该任一个第一图像的参考图像。
可选地,基于第一图像和第二图像的预测图像,确定第一图像的参考图像,包括:基于第二图像的预测图像,确定第二图像的前景原型和第二图像的背景原型,第二图像的前景原型是第二图像中第二区域的参考特征,第二图像的背景原型是第二图像中除第二区域之外的其他区域的参考特征;基于第二图像的前景原型、第二图像的背景原型和第一图像,确定第一图像的参考图像。
第二图像包括第二区域和除第二区域之外的其他区域。第二图像中的第二区域可以称为第二图像的前景区域,前景区域是目标对象(例如车辆、建筑物、肿瘤、肾脏等)所在的区域,第二图像中除第二区域之外的其他区域可以称为第二图像的背景区域,背景区域是不包含目标对象的区域。通常情况下,对第二图像进行图像分割处理是从第二图像中分割出第二图像的前景区域的处理。
本申请实施例中,前景区域的各个体素具有相类似的体素特征,可以采用一个体素特征来表达前景区域的任一个体素,这个体素特征可以称为参考特征。基于同样的原理,背景区域的各个体素也具有相类似的体素特征,可以采用另一个参考特征来表达背景区域的任一个体素。
本申请实施例中,第二图像的前景区域的参考特征称为第二图像的前景原型,第二图像的背景区域的参考特征称为第二图像的背景原型。可以基于第二图像以及第二图像的预测图像,确定第二图像的前景原型和第二图像的背景原型。
可选地,基于第二图像的预测图像,确定第二图像的前景原型和第二图像的背景原型,包括:获取第二图像的特征图;基于第二图像的特征图和第二图像的预测图像,确定第二图像的前景原型和第二图像的背景原型。
本申请实施例中,将第二图像输入至第二网络模型,由第二网络模型的编码器提取第二图像的特征图。将第二图像的特征图与第二图像的预测图像进行叉乘处理,得到第二图像的特征分割图,特征分割图是已分割出前景区域的体素特征和背景区域的体素特征的特征图。基于第二图像的前景区域的体素特征,确定第二图像的前景原型;基于第二图像的背景区域的体素特征,确定第二图像的背景原型。
上述确定第二图像的前景原型和第二图像的背景原型的操作也可以称为掩码平均池化操作。通过掩码平均池化操作实现了基于无标注图像集中的前景原型和背景原型,通过非参数度量学习来测量与有标注图像集的相似性,从而对有标注图像集进行分割。
本申请实施例中,第二图像的预测图像满足如下所示的公式(7)
其中,为第二图像的预测图像,当j∈bg时,Pu(j)为第二图像的预测图像中的背景区域(即第二图像的背景区域),当j∈fg时,Pu(j)为第二图像的预测图像中的前景区域(即第二图像的前景区域),argmax是一种对函数求参数的函数的符号。
本申请实施例中,第k个第二图像Xu(k)的特征图记为Fu(k),第k个第二图像的预测图像记为第k个第二图像的前景区域记为Cfg,第k个第二图像中任一个体素的空间位置记为(x,y,z),则通过掩码平均池化操作,按照如下所示的公式(8-1)确定第二图像的前景原型,按照如下所示的公式(8-2)确定第二图像的背景原型。
其中,pu(fg)为第二图像的前景原型,K为第二图像的数量,为第k个第二图像的特征图中空间位置为(x,y,z)的体素的体素特征,为第k个第二图像的预测图像中空间位置为(x,y,z)的体素的体素信息,1[·]为当满足条件是返回值为1的指示器函数,pu(bg)为第二图像的背景原型。
需要说明的是,第二图像的特征图需要通过三线性插值进行上采样处理,以使上采样处理后的第二图像的特征图与第二图像的预测图像的尺寸一致。其中,本申请实施例不限定三线性插值的具体方式。
可选地,基于第二图像的前景原型、第二图像的背景原型和第一图像,确定第一图像的参考图像,包括:获取第一图像的特征图;基于第二图像的前景原型、第二图像的背景原型和第一图像的特征图,确定第一图像的参考图像。
本申请实施例中,将第一图像输入至第一网络模型,由第一网络模型的编码器提取第一图像的特征图。然后,基于第二图像的前景原型、第二图像的背景原型和第一图像的特征图,计算第一图像的特征图与第二图像的前景原型之间的相似度或者计算第一图像的特征图与第二图像的背景原型之间的相似度,得到相似度结果。之后,利用归一化指数函数(例如Softmax函数)对相似度结果进行归一化处理,得到第一图像的参考图像。
上述确定第一图像的参考图像的操作也可以称为基于非参数度量学习机制的操作。通过非参数度量学习来测量与有标注图像集的相似性,从而对有标注图像集进行分割。
本申请实施例中,计算相似度时所采用的函数记为距离函数d(·),第一图像的特征图记为Fl,第一图像的特征图中任一个体素的空间位置记为(x,y,z)。第二图像的前景原型为pu(fg),第二图像的背景原型为pu(bg),且满足Pu={pu(fg)}∪{pu(bg)}。对于每一个Pu(j∈(fg,bg))∈Pu,按照如下所示的公式(9)确定第一图像的参考图像。
其中,为第一图像的参考图像中空间位置为(x,y,z)的体素的体素特征,exp为指数函数,d(·)为距离函数,Fl (x,y,z)为第一图像的特征图中空间位置为(x,y,z)的体素的体素特征,pu(j)为第二图像的前景原型或者第二图像的背景原型,Pu包括第二图像的前景原型和第二图像的背景原型,∑为求和函数的符号。α为比例系数,本申请实施例不限定比例系数的具体数值,示例性的,比例系数为20。
需要说明的是,第一图像的特征图需要通过三线性插值进行上采样处理。其中,本申请实施例不限定三线性插值的具体方式。另外,本申请实施例也不对距离函数做限定,示例性的,距离函数为余弦距离的函数。
通过上述方式,能够确定出第一图像的参考图像,之后,基于第一图像的预测图像、第一图像的标注图像、第一图像的参考图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值。
可选地,基于第一图像的预测图像、第一图像的标注图像、第一图像的参考图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值,包括:基于第一图像的预测图像和第一图像的标注图像确定第一损失值;基于第二图像的预测图像和第二图像的参考图像确定第二损失值;基于第一图像的标注图像和第一图像的参考图像确定第三损失值;基于第一损失值、第二损失值和第三损失值,确定第一网络模型的损失值。
本申请实施例中,将第一图像的预测图像和第一图像的标注图像输入至第一损失函数中,得到第一损失值,将第二图像的预测图像和第二图像的参考图像输入至第二损失函数,得到第二损失值。其中,第一损失值和第二损失值的相关描述,可以见上文有关第一损失值和第二损失值的描述,在此不再赘述。本申请实施例中,将第一图像的标注图像和第一图像的参考图像输入至第三损失函数,得到第三损失值。其中,第三损失函数也称为后向原型一致性损失函数,本申请实施例不对第三损失函数做限定。示例性的,第三损失值是按照如下所示的公式(10)确定的。
Lbpc=Lce(Yl,Pu2l) 公式(10)
其中,Lbpc为第三损失值,Lce为交叉熵损失函数的函数符号,Yl是第一图像的标注图像,Pu2l是第一图像的参考图像。
在确定了第一损失值、第二损失值以及第三损失值之后,基于第一损失值、第二损失值以及第三损失值确定第一网络模型的损失值。可选的,第一网络模型的损失值是按照如下所示的公式(11)确定的。
L=Ls+λLc,其中,Lc=Lfpc+βLbpc 公式(11)
其中,L为第一网络模型的损失值,Ls为第一损失值,Lc为原型一致性损失值,Lfpc为第二损失值,Lbpc为第三损失值,λ为权衡Ls与Lc的系数,β为平衡Lfpc和Lbpc的超参数,本申请实施例不限定λ与β的取值。
示例性的,β为10,λ满足:其中,λ(t)(即λ)是与训练次数相关的高斯函数,t为训练次数,wmax为最终的一致性权重,e为自然数,tmax为目标训练次数,这样的λ设计可以避免在训练开始时被非常不可靠的一致性目标所支配。
本申请实施例中,在确定第一网络模型的损失值时,可以先获取第一网络模型的模型参数和第二网络模型的模型参数,再基于第一网络模型的模型参数、第二网络模型的模型参数、第一图像的预测图像、第一图像的标注图像、第一图像的参考图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值。其中,第二网络模型的模型参数与第一网络模型的模型参数之间的关系在上文已描述,在此不再赘述。
可选的,基于第一网络模型的模型参数、第二网络模型的模型参数、第一图像的预测图像、第一图像的标注图像、第一图像的参考图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值。
在确定第一损失值时,基于第一网络模型的模型参数、第一图像的预测图像和第一图像的标注图像,确定第一损失值。在确定第二损失值时,基于第一网络模型的模型参数、第二网络模型的模型参数、第二图像的预测图像和第二图像的参考图像,确定第二损失值。在确定第三损失值时,基于第一网络模型的模型参数、第二网络模型的模型参数、第一图像的标注图像和第一图像的参考图像,确定第三损失值。之后,基于第一损失值、第二损失值和第三损失值,确定第一网络模型的损失值。
在一种可能的实现方式中,根据第一网络模型的损失值调整第一网络模型的模型参数,以实现对第一网络模型进行一次更新处理,得到更新后的第一网络模型。若满足训练结束条件,则将更新后的第一网络模型作为图像分割模型。若不满足训练结束条件,则可以基于更新后的第一网络模型的模型参数,确定第二网络模型的模型参数,以实现对第二网络模型进行一次更新处理,得到更新后的第二网络模型,其中,可以按照上述公式(1)的方式,确定第二网络模型的模型参数。之后,将更新后的第一网络模型作为下一次训练的第一网络模型,将更新后的第二网络模型作为下一次训练的第二网络模型,重新执行步骤201(或者步骤202)至步骤205的步骤,直至得到图像分割模型。
上述方法基于第二图像和第一图像的标注图像,确定第二图像的参考图像,实现将有标注数据集中通过标注得到的图像分割结果传播给无标注数据集,从而减少需要标注的图像数量,降低时间消耗和人力消耗,降低了成本。之后,通过第一图像的预测图像和标注图像、第二图像的预测图像和参考图像得到图像分割模型,加快了图像分割模型的训练速度,提高了图像分割的效率。
基于上述实施环境,本申请实施例提供了一种图像分割方法,以图3所示的本申请实施例提供的一种图像分割方法的流程图为例,该方法可由图1中的电子设备11执行。如图3所示,该方法包括步骤301至步骤302。
步骤301,获取待分割图像。
本申请实施例不对待分割图像做限定,示例性的,待分割图像为医学图像、摄影图像等。
步骤302,根据图像分割模型获取待分割图像的图像分割结果。
其中,图像分割模型是基于上述实施例的图像分割模型的训练方法得到的。
本申请实施例中,将待分割图像输入至图像分割模型,由图像分割模型输出对待分割图像进行预测得到的图像分割结果。
可选的,根据图像分割模型获取待分割图像的图像分割结果,包括:根据图像分割模型获取待分割图像的特征图,待分割图像的特征图用于表征待分割图像的语义信息;基于待分割图像的特征图,确定待分割图像的图像分割结果。
本申请实施例中,图像分割模型包括编码器和解码器。将待分割图像输入至图像分割模型,由图像分割模型的编码器提取待分割图像的特征图,由图像分割模型的解码器基于待分割图像的特征图确定待分割图像的图像分割结果。其中,待分割图像的特征图包括待分割图像中各个体素的特征,因此,待分割图像的特征图能够表征待分割图像的语义信息。
上述方法中的图像分割模型是通过第一图像的预测图像和标注图像、第二图像的预测图像和参考图像得到的,其中,第二图像的参考图像是基于第二图像和第一图像的标注图像确定的,实现将有标注数据集中通过标注得到的图像分割结果传播给无标注数据集,从而减少需要标注的图像数量,降低时间消耗和人力消耗,降低了成本。基于第二图像的参考图像得到图像分割模型,加快了图像分割模型的训练速度,提高了图像分割的效率。
上述从方法步骤的角度阐述了图像分割模型的训练方法以及图像分割方法,下面将从一个场景的角度,详细介绍图像分割模型的训练方法和图像分割方法。本申请实施例中的场景为对医学图像(例如肾脏图像)进行分割的场景,也就是说,本申请实施例是用医学图像来训练得到图像分割模型,并利用图像分割模型对医学图像进行图像分割。
本申请实施例中,收集了210个对象的电子计算机断层扫描(ComputedTomography,CT)肾脏图像。对于每一个对象的CT肾脏图像,进行如下所述的预处理,得到预处理后的肾脏图像:将该CT肾脏图像重采样至1立方毫米(mm3)的分辨率,CT强度截断至[75,175]亨氏单位(HU),随后将CT强度进行归一化,并裁剪出感兴趣区域(Region OfInterest,ROI),得到以肾脏为中心的3D切块区域,即得到预处理后的肾脏图像。
本申请实施例将这210个对象的预处理后的肾脏图像分为三组,其中一组为用于训练得到图像分割模型的样本图像集,该样本图像集包括150个对象的预处理后的肾脏图像,另一组图像为用于验证图像分割模型的分割效果的验证图像集,该验证图像集包括10个对象的预处理后的肾脏图像,剩余一组图像为用于测试图像分割模型的分割结果的测试图像集,该测试图像集包括50个对象的预处理后的肾脏图像。其中,本申请实施例通过数据扩充的方式扩充肾脏图像的数量,该数据扩充的方式包括但不限于随机裁剪、翻转和旋转。
其中,用于训练得到图像分割模型的样本图像集包括有标注图像集和无标注图像集。其中,有标注图像集记为SL,无标注图像集记为SU。本申请实施例是基于有标注图像集、无标注图像集、第一网络模型的模型参数和第二网络模型的模型参数,按照如下所示的公式(12)调整第一网络模型的损失值,直至得到图像分割模型。
本申请实施例中,有标注图像集中包括第一图像和第一图像的标注图像,无标注图像集中包括第二图像,第一图像和第二图像均为肾脏图像。请参见图4,图4是本申请实施例提供的一种图像分割模型的训练示意图。
第一图像记为l,第一网络模型包括编码器和解码器。将第一图像输入至第一网络模型的编码器中,由第一网络模型的编码器提取第一图像的特征。一方面,由第一网络模型的解码器根据第一图像的特征图确定第一图像的预测图像,另一方面,将第一图像的特征图和第一图像的标注图像进行叉乘处理,得到第一图像的特征分割图,第一图像的特征分割图是已分割出第一图像的前景区域的体素特征和第一图像的背景区域的体素特征的特征图。然后,基于第一图像的特征分割图确定第一图像的前景/背景原型,构建第一图像的前景/背景原型的集合。
第二图像记为u,第二网络模型包括编码器和解码器,其中,第二网络模型的编码器的模型参数是利用指数移动平均值的方法,根据第一网络模型的编码器的模型参数确定的,第二网络模型的解码器的模型参数是利用指数移动平均值的方法,根据第一网络模型的解码器的模型参数确定的。将第二图像输入至第二网络模型的编码器中,由第二网络模型的编码器提取第二图像的特征。一方面,由第二网络模型的解码器根据第二图像的特征图确定第二图像的预测图像,另一方面,根据第二图像的特征图和第一图像的前景/背景原型的集合进行相似度计算处理,得到第二图像的参考图像,其中,上述确定第二图像的参考图像的过程可以称为前向过程。
可选的,将第二图像的预测图像和第二图像的特征图进行叉乘处理,得到第二图像的特征分割图,第二图像的特征分割图是已分割出第二图像的前景区域的体素特征和第二图像的背景区域的体素特征的特征图。然后,基于第二图像的特征分割图确定第二图像的前景/背景原型,构建第二图像的前景/背景原型的集合。之后,根据第一图像的特征图和第二图像的前景/背景原型的集合进行相似度计算处理,得到第一图像的参考图像,其中,上述确定第一图像的参考图像的过程可以称为反(或者后)向过程。
之后,基于第一网络模型的模型参数、第二网络模型的模型参数、第一图像的预测图像、第一图像的标注图像、第一图像的参考图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值,以根据第一网络模型的损失值调整第一网络模型的模型参数。通过多次对第一网络模型的模型参数进行调整,可以得到图像分割模型,该图像分割模型记为本申请实施例的图像分割模型。
需要说明的是,上述对第一网络模型进行训练得到图像分割模型的实现方式,可以详见步骤201至步骤205的相关描述,二者的实现原理相类似,在此不在赘述。
本申请实施例中,还利用有标注图像集对第一网络模型进行训练,得到另一个图像分割模型,该图像分割模型记为全监督图像分割模型。其中,在训练本申请实施例的图像分割模型和全监督图像分割模型时,基于图形处理器(Graphics Processing Unit,GPU)、和随机梯度下降(Stochastic Gradient Descent,SGD)优化器训练第一网络模型,其中,权重衰减=0.0001,动量=0.9。样本数(即Batch)大小设置为4,包括2个第一图像和2个第二图像。目标训练次数为20000。学习速率被初始化为0.01,并且在每一次训练之后以0.9的幂衰减。输入第一网络模型的图像尺寸为96×96×96的体素图像。
在得到上述两种图像分割模型之后,获取待分割图像,将待分割图像输入至每一种图像分割模型,得到图像分割结果。其中,待分割图像为医学图像。请参见图5和图6,图5是本申请实施例提供的一种脑肿瘤图像的图像分割结果示意图,图6是本申请实施例提供的一种肾脏图像的图像分割结果示意图。
图5中的(1)为一张脑肿瘤图像,图5中的(2)为这张脑肿瘤图像的标注图像(虚线表示标注结果),图5中的(3)为利用本申请实施例的图像分割模型得到的这张脑肿瘤图像的图像分割结果(虚线表示图像分割结果),图5中的(4)为利用全监督图像分割模型得到的这张脑肿瘤图像的图像分割结果(虚线表示图像分割结果)。图5中的(5)为另一张脑肿瘤图像,图5中的(6)为这张脑肿瘤图像的标注图像(虚线表示标注结果),图5中的(7)为利用本申请实施例的图像分割模型得到的这张脑肿瘤图像的图像分割结果(虚线表示图像分割结果),图5中的(8)为利用全监督图像分割模型得到的这张脑肿瘤图像的图像分割结果(虚线表示图像分割结果)。
图6中的(1)为一张肾脏图像,图6中的(2)为利用本申请实施例的图像分割模型得到的这张肾脏图像的图像分割结果(虚线表示图像分割结果),图6中的(3)为利用全监督图像分割模型得到的这张肾脏图像的图像分割结果(虚线表示图像分割结果)。图6中的(4)为另一张肾脏图像,图6中的(5)为利用本申请实施例的图像分割模型得到的这张肾脏图像的图像分割结果(虚线表示图像分割结果),图6中的(6)为利用全监督图像分割模型得到的这张肾脏图像的图像分割结果(虚线表示图像分割结果)。
为了对比不同模型的图像分割效果,本申请实施例采用三种样本图像集对七种网络模型进行训练,得到多种图像分割模型。其中,这三种样本图像集中标注图像的占比分别为5%、10%和20%。每一种样本图像集可以训练得到七种图像分割模型,这七种图像分割模型分别为全监督图像分割模型、均值-教师自集成(MT)图像分割模型、不确定性感知均值-教师自集成(UAMT)图像分割模型、熵最小化方法(Entropy Mini)图像分割模型、深度对抗网络(DAN)图像分割模型、插值一致性训练(ICT)图像分割模型和本申请实施例的图像分割模型。
本申请实施例在测试阶段使用64×64×64的体素步长的滑动窗口,采用四个指标对上述七种图像分割模型进行综合评价,这四个指标分别为Dice系数(一种用于衡量相似度的指标)、杰卡德(Jaccard)系数、95%豪斯多夫距离(95%Hausdorff distance,95HD)和平均表面距离(The Average Surface Distance,ASD),综合评价结果如下表1所示。
表1
由表1可知,本申请实施例的图像分割模型的Dice系数和Jaccard系数均较大,而95HD和ASD均较小。由于图像分割模型的分割效果与Dice系数成正比、与Jaccard系数也成正比,而与95HD成反比,也与ASD成反比。因此,根据表1可以明显得出,本申请实施例的图像分割模型的分割效果优于其他六种图像分割模型的分割效果。
图7所示为本申请实施例提供的一种图像分割模型的训练装置的结构示意图,如图7所示,该装置包括:
获取模块701,用于获取有标注图像集和无标注图像集,有标注图像集包括第一图像和第一图像的标注图像,标注图像是通过对第一图像进行标注得到的图像分割结果,无标注图像集包括第二图像;
获取模块701,还用于根据第一网络模型获取第一图像的预测图像,第一图像的预测图像是通过对第一图像进行预测得到的图像分割结果;
获取模块701,还用于根据第二网络模型获取第二图像的预测图像,第二图像的预测图像是通过对第二图像进行预测得到的图像分割结果;
确定模块702,用于基于第二图像和第一图像的标注图像,确定第二图像的参考图像,第二图像的参考图像是通过对第二图像进行计算得到的图像分割结果;
确定模块702,还用于基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,根据第一网络模型确定图像分割模型。
在一种可能的实现方式中,确定模块702,用于基于第一图像的标注图像,确定第一图像的前景原型和第一图像的背景原型,第一图像的前景原型是第一图像中第一区域的参考特征,第一图像的背景原型是第一图像中除第一区域之外的其他区域的参考特征;基于第一图像的前景原型、第一图像的背景原型和第二图像,确定第二图像的参考图像。
在一种可能的实现方式中,确定模块702,用于获取第一图像的特征图,第一图像的特征图用于表征第一图像的语义信息;基于第一图像的特征图和第一图像的标注图像,确定第一图像的前景原型和第一图像的背景原型。
在一种可能的实现方式中,确定模块702,用于获取第二图像的特征图,第二图像的特征图用于表征第二图像的语义信息;基于第一图像的前景原型、第一图像的背景原型和第二图像的特征图,确定第二图像的参考图像。
在一种可能的实现方式中,确定模块702,用于基于第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值;基于第一网络模型的损失值,根据第一网络模型确定图像分割模型。
在一种可能的实现方式中,确定模块702,用于基于第一图像的预测图像和第一图像的标注图像确定第一损失值;基于第二图像的预测图像和第二图像的参考图像确定第二损失值;基于第一损失值和第二损失值,确定第一网络模型的损失值。
在一种可能的实现方式中,确定模块702,用于确定第一网络模型的模型参数和第二网络模型的模型参数;基于第一网络模型的模型参数、第二网络模型的模型参数、第一图像的预测图像、第一图像的标注图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值。
在一种可能的实现方式中,第二网络模型的模型参数是基于第一网络模型的模型参数确定的。
在一种可能的实现方式中,确定模块702,还用于基于第一图像和第二图像的预测图像,确定第一图像的参考图像,第一图像的参考图像是通过对第一图像进行计算得到的图像分割结果;
确定模块702,还用于基于第一图像的预测图像、第一图像的标注图像、第一图像的参考图像、第二图像的预测图像和第二图像的参考图像,确定第一网络模型的损失值。
在一种可能的实现方式中,确定模块702,用于基于第二图像的预测图像,确定第二图像的前景原型和第二图像的背景原型,第二图像的前景原型是第二图像中第二区域的参考特征,第二图像的背景原型是第二图像中除第二区域之外的其他区域的参考特征;基于第二图像的前景原型、第二图像的背景原型和第一图像,确定第一图像的参考图像。
在一种可能的实现方式中,确定模块702,用于获取第二图像的特征图;基于第二图像的特征图和第二图像的预测图像,确定第二图像的前景原型和第二图像的背景原型。
在一种可能的实现方式中,确定模块702,用于获取第一图像的特征图;基于第二图像的前景原型、第二图像的背景原型和第一图像的特征图,确定第一图像的参考图像。
在一种可能的实现方式中,确定模块702,用于基于第一图像的预测图像和第一图像的标注图像确定第一损失值;基于第二图像的预测图像和第二图像的参考图像确定第二损失值;基于第一图像的标注图像和第一图像的参考图像确定第三损失值;基于第一损失值、第二损失值和第三损失值,确定第一网络模型的损失值。
上述装置是基于第二图像和第一图像的标注图像,确定第二图像的参考图像,实现将有标注数据集中通过标注得到的图像分割结果传播给无标注数据集,从而减少需要标注的图像数量,降低时间消耗和人力消耗,降低了成本。之后,通过第一图像的预测图像和标注图像、第二图像的预测图像和参考图像得到图像分割模型,加快了图像分割模型的训练速度,提高了图像分割的效率。
应理解的是,上述图7提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图8所示为本申请实施例提供的一种图像分割装置的结构示意图,如图8所示,该装置包括:
第一获取模块801,用于获取待分割图像;
第二获取模块802,用于根据图像分割模型获取待分割图像的图像分割结果,图像分割模型是基于上述任一的图像分割模型的训练方法得到的。
在一种可能的实现方式中,第二获取模块802,用于根据图像分割模型获取待分割图像的特征图,待分割图像的特征图用于表征待分割图像的语义信息;基于待分割图像的特征图,确定待分割图像的图像分割结果。
上述装置中的图像分割模型是通过第一图像的预测图像和标注图像、第二图像的预测图像和参考图像得到的,其中,第二图像的参考图像是基于第二图像和第一图像的标注图像确定的,实现将有标注数据集中通过标注得到的图像分割结果传播给无标注数据集,从而减少需要标注的图像数量,降低时间消耗和人力消耗,降低了成本。基于第二图像的参考图像得到图像分割模型,加快了图像分割模型的训练速度,提高了图像分割的效率。
应理解的是,上述图8提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图9示出了本申请一个示例性实施例提供的终端设备900的结构框图。该终端设备900可以是便携式移动终端,比如:智能手机、平板电脑、MP3(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端设备900还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端设备900包括有:处理器901和存储器902。
处理器901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器901可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器901所执行以实现本申请中方法实施例提供的图像分割模型的训练方法或者图像分割方法。
在一些实施例中,终端设备900还可选包括有:外围设备接口903和至少一个外围设备。处理器901、存储器902和外围设备接口903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口903相连。具体地,外围设备包括:射频电路904、显示屏905、摄像头组件906、音频电路907、定位组件908和电源909中的至少一种。
外围设备接口903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器901和存储器902。在一些实施例中,处理器901、存储器902和外围设备接口903被集成在同一芯片或电路板上;在一些其他实施例中,处理器901、存储器902和外围设备接口903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路904还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏905是触摸显示屏时,显示屏905还具有采集在显示屏905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器901进行处理。此时,显示屏905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏905可以为一个,设置在终端设备900的前面板;在另一些实施例中,显示屏905可以为至少两个,分别设置在终端设备900的不同表面或呈折叠设计;在另一些实施例中,显示屏905可以是柔性显示屏,设置在终端设备900的弯曲表面上或折叠面上。甚至,显示屏905还可以设置成非矩形的不规则图形,也即异形屏。显示屏905可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件906用于采集图像或视频。可选地,摄像头组件906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器901进行处理,或者输入至射频电路904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端设备900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器901或射频电路904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路907还可以包括耳机插孔。
定位组件908用于定位终端设备900的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件908可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源909用于为终端设备900中的各个组件进行供电。电源909可以是交流电、直流电、一次性电池或可充电电池。当电源909包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端设备900还包括有一个或多个传感器910。该一个或多个传感器910包括但不限于:加速度传感器911、陀螺仪传感器912、压力传感器913、指纹传感器914、光学传感器915以及接近传感器916。
加速度传感器911可以检测以终端设备900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器911可以用于检测重力加速度在三个坐标轴上的分量。处理器901可以根据加速度传感器911采集的重力加速度信号,控制显示屏905以横向视图或纵向视图进行用户界面的显示。加速度传感器911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器912可以检测终端设备900的机体方向及转动角度,陀螺仪传感器912可以与加速度传感器911协同采集用户对终端设备900的3D动作。处理器901根据陀螺仪传感器912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器913可以设置在终端设备900的侧边框和/或显示屏905的下层。当压力传感器913设置在终端设备900的侧边框时,可以检测用户对终端设备900的握持信号,由处理器901根据压力传感器913采集的握持信号进行左右手识别或快捷操作。当压力传感器913设置在显示屏905的下层时,由处理器901根据用户对显示屏905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器914用于采集用户的指纹,由处理器901根据指纹传感器914采集到的指纹识别用户的身份,或者,由指纹传感器914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器914可以被设置在终端设备900的正面、背面或侧面。当终端设备900上设置有物理按键或厂商Logo时,指纹传感器914可以与物理按键或厂商Logo集成在一起。
光学传感器915用于采集环境光强度。在一个实施例中,处理器901可以根据光学传感器915采集的环境光强度,控制显示屏905的显示亮度。具体地,当环境光强度较高时,调高显示屏905的显示亮度;当环境光强度较低时,调低显示屏905的显示亮度。在另一个实施例中,处理器901还可以根据光学传感器915采集的环境光强度,动态调整摄像头组件906的拍摄参数。
接近传感器916,也称距离传感器,通常设置在终端设备900的前面板。接近传感器916用于采集用户与终端设备900的正面之间的距离。在一个实施例中,当接近传感器916检测到用户与终端设备900的正面之间的距离逐渐变小时,由处理器901控制显示屏905从亮屏状态切换为息屏状态;当接近传感器916检测到用户与终端设备900的正面之间的距离逐渐变大时,由处理器901控制显示屏905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图9中示出的结构并不构成对终端设备900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图10为本申请实施例提供的服务器的结构示意图,该服务器1000可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器1001和一个或多个的存储器1002,其中,该一个或多个存储器1002中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器1001加载并执行以实现上述各个方法实施例提供的图像分割模型的训练方法或者图像分割方法,示例性的,处理器1001为CPU。当然,该服务器1000还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器1000还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,该存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以使电子设备实现上述任一种图像分割模型的训练方法或者图像分割方法。
可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-OnlyMemory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序或计算机程序产品,该计算机程序或计算机程序产品中存储有至少一条计算机指令,该至少一条计算机指令由处理器加载并执行,以使计算机实现上述任一种图像分割模型的训练方法或者图像分割方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (20)
1.一种图像分割模型的训练方法,其特征在于,所述方法包括:
获取有标注图像集和无标注图像集,所述有标注图像集包括第一图像和所述第一图像的标注图像,所述标注图像是通过对所述第一图像进行标注得到的图像分割结果,所述无标注图像集包括第二图像;
根据第一网络模型获取所述第一图像的预测图像,所述第一图像的预测图像是通过对所述第一图像进行预测得到的图像分割结果;
根据第二网络模型获取所述第二图像的预测图像,所述第二图像的预测图像是通过对所述第二图像进行预测得到的图像分割结果;
基于所述第二图像和所述第一图像的标注图像,确定所述第二图像的参考图像,所述第二图像的参考图像是通过对所述第二图像进行计算得到的图像分割结果;
基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,根据所述第一网络模型确定图像分割模型。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第二图像和所述第一图像的标注图像,确定所述第二图像的参考图像,包括:
基于所述第一图像的标注图像,确定所述第一图像的前景原型和所述第一图像的背景原型,所述第一图像的前景原型是所述第一图像中第一区域的参考特征,所述第一图像的背景原型是所述第一图像中除所述第一区域之外的其他区域的参考特征;
基于所述第一图像的前景原型、所述第一图像的背景原型和所述第二图像,确定所述第二图像的参考图像。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一图像的标注图像,确定所述第一图像的前景原型和所述第一图像的背景原型,包括:
获取所述第一图像的特征图,所述第一图像的特征图用于表征所述第一图像的语义信息;
基于所述第一图像的特征图和所述第一图像的标注图像,确定所述第一图像的前景原型和所述第一图像的背景原型。
4.根据权利要求2所述的方法,其特征在于,所述基于所述第一图像的前景原型、所述第一图像的背景原型和所述第二图像,确定所述第二图像的参考图像,包括:
获取所述第二图像的特征图,所述第二图像的特征图用于表征所述第二图像的语义信息;
基于所述第一图像的前景原型、所述第一图像的背景原型和所述第二图像的特征图,确定所述第二图像的参考图像。
5.根据权利要求1至4任一所述的方法,其特征在于,所述基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,根据所述第一网络模型确定图像分割模型,包括:
基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值;
基于所述第一网络模型的损失值,根据所述第一网络模型确定图像分割模型。
6.根据权利要求5所述的方法,其特征在于,所述基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值,包括:
基于所述第一图像的预测图像和所述第一图像的标注图像确定第一损失值;
基于所述第二图像的预测图像和所述第二图像的参考图像确定第二损失值;
基于所述第一损失值和所述第二损失值,确定所述第一网络模型的损失值。
7.根据权利要求5所述的方法,其特征在于,所述基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值,包括:
确定所述第一网络模型的模型参数和所述第二网络模型的模型参数;
基于所述第一网络模型的模型参数、所述第二网络模型的模型参数、所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值。
8.根据权利要求7所述的方法,其特征在于,所述第二网络模型的模型参数是基于所述第一网络模型的模型参数确定的。
9.根据权利要求5所述的方法,其特征在于,所述根据第二网络模型获取所述第二图像的预测图像之后,还包括:
基于所述第一图像和所述第二图像的预测图像,确定所述第一图像的参考图像,所述第一图像的参考图像是通过对所述第一图像进行计算得到的图像分割结果;
所述基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值,包括:
基于所述第一图像的预测图像、所述第一图像的标注图像、所述第一图像的参考图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值。
10.根据权利要求9所述的方法,其特征在于,所述基于所述第一图像和所述第二图像的预测图像,确定所述第一图像的参考图像,包括:
基于所述第二图像的预测图像,确定所述第二图像的前景原型和所述第二图像的背景原型,所述第二图像的前景原型是所述第二图像中第二区域的参考特征,所述第二图像的背景原型是所述第二图像中除所述第二区域之外的其他区域的参考特征;
基于所述第二图像的前景原型、所述第二图像的背景原型和所述第一图像,确定所述第一图像的参考图像。
11.根据权利要求10所述的方法,其特征在于,所述基于所述第二图像的预测图像,确定所述第二图像的前景原型和所述第二图像的背景原型,包括:
获取所述第二图像的特征图;
基于所述第二图像的特征图和所述第二图像的预测图像,确定所述第二图像的前景原型和所述第二图像的背景原型。
12.根据权利要求10所述的方法,其特征在于,所述基于所述第二图像的前景原型、所述第二图像的背景原型和所述第一图像,确定所述第一图像的参考图像,包括:
获取所述第一图像的特征图;
基于所述第二图像的前景原型、所述第二图像的背景原型和所述第一图像的特征图,确定所述第一图像的参考图像。
13.根据权利要求9所述的方法,其特征在于,所述基于所述第一图像的预测图像、所述第一图像的标注图像、所述第一图像的参考图像、所述第二图像的预测图像和所述第二图像的参考图像,确定所述第一网络模型的损失值,包括:
基于所述第一图像的预测图像和所述第一图像的标注图像确定第一损失值;
基于所述第二图像的预测图像和所述第二图像的参考图像确定第二损失值;
基于所述第一图像的标注图像和所述第一图像的参考图像确定第三损失值;
基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述第一网络模型的损失值。
14.一种图像分割方法,其特征在于,所述方法包括:
获取待分割图像;
根据图像分割模型获取所述待分割图像的图像分割结果,所述图像分割模型是基于权利要求1至13任一所述的方法得到的。
15.根据权利要求14所述的方法,其特征在于,所述根据图像分割模型获取所述待分割图像的图像分割结果,包括:
根据所述图像分割模型获取所述待分割图像的特征图,所述待分割图像的特征图用于表征所述待分割图像的语义信息;
基于所述待分割图像的特征图,确定所述待分割图像的图像分割结果。
16.一种图像分割模型的训练装置,其特征在于,所述装置包括:
获取模块,用于获取有标注图像集和无标注图像集,所述有标注图像集包括第一图像和所述第一图像的标注图像,所述标注图像是通过对所述第一图像进行标注得到的图像分割结果,所述无标注图像集包括第二图像;
所述获取模块,还用于根据第一网络模型获取所述第一图像的预测图像,所述第一图像的预测图像是通过对所述第一图像进行预测得到的图像分割结果;
所述获取模块,还用于根据第二网络模型获取所述第二图像的预测图像,所述第二图像的预测图像是通过对所述第二图像进行预测得到的图像分割结果;
确定模块,用于基于所述第二图像和所述第一图像的标注图像,确定所述第二图像的参考图像,所述第二图像的参考图像是通过对所述第二图像进行计算得到的图像分割结果;
所述确定模块,还用于基于所述第一图像的预测图像、所述第一图像的标注图像、所述第二图像的预测图像和所述第二图像的参考图像,根据所述第一网络模型确定图像分割模型。
17.一种图像分割装置,其特征在于,所述装置包括:
第一获取模块,用于获取待分割图像;
第二获取模块,用于根据图像分割模型获取所述待分割图像的图像分割结果,所述图像分割模型是基于权利要求1至13任一所述的方法得到的。
18.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以使所述电子设备实现如权利要求1至13任一所述的图像分割模型的训练方法或者实现如权利要求14至15任一所述的图像分割方法。
19.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以使计算机实现如权利要求1至13任一所述的图像分割模型的训练方法或者实现如权利要求14至15任一所述的图像分割方法。
20.一种计算机程序产品,其特征在于,所述计算机程序产品中存储有至少一条计算机指令,所述至少一条计算机指令由处理器加载并执行,以使计算机实现如权利要求1至13任一所述的图像分割模型的训练方法或者实现如权利要求14至15任一所述的图像分割方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111328774.3A CN114332554A (zh) | 2021-11-10 | 2021-11-10 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
PCT/CN2022/121320 WO2023082870A1 (zh) | 2021-11-10 | 2022-09-26 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
EP22891672.2A EP4358033A1 (en) | 2021-11-10 | 2022-09-26 | Training method and apparatus for image segmentation model, image segmentation method and apparatus, and device |
US18/216,918 US20230343063A1 (en) | 2021-11-10 | 2023-06-30 | Image segmentation model training method and apparatus, image segmentation method and apparatus, and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111328774.3A CN114332554A (zh) | 2021-11-10 | 2021-11-10 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114332554A true CN114332554A (zh) | 2022-04-12 |
Family
ID=81045581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111328774.3A Pending CN114332554A (zh) | 2021-11-10 | 2021-11-10 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230343063A1 (zh) |
EP (1) | EP4358033A1 (zh) |
CN (1) | CN114332554A (zh) |
WO (1) | WO2023082870A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114067119A (zh) * | 2022-01-17 | 2022-02-18 | 深圳市海清视讯科技有限公司 | 全景分割模型的训练方法、全景分割方法及装置 |
WO2023082870A1 (zh) * | 2021-11-10 | 2023-05-19 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
CN116258730A (zh) * | 2023-05-16 | 2023-06-13 | 先进计算与关键软件(信创)海河实验室 | 一种基于一致性损失函数的半监督医学图像分割方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116369959B (zh) * | 2023-06-05 | 2023-08-11 | 杭州医策科技有限公司 | 基于双模态ct的甲状旁腺术前定位方法和装置 |
CN117422879B (zh) * | 2023-12-14 | 2024-03-08 | 山东大学 | 原型演化的小样本语义分割方法及系统 |
CN117475091B (zh) * | 2023-12-27 | 2024-03-22 | 浙江时光坐标科技股份有限公司 | 高精度3d模型生成方法和系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784424B (zh) * | 2019-03-26 | 2021-02-09 | 腾讯科技(深圳)有限公司 | 一种图像分类模型训练的方法、图像处理的方法及装置 |
CN113538441A (zh) * | 2021-01-06 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 图像分割模型的处理方法、图像处理方法及装置 |
CN112966687B (zh) * | 2021-02-01 | 2024-01-19 | 深圳市优必选科技股份有限公司 | 图像分割模型训练方法、装置及通信设备 |
CN113112509B (zh) * | 2021-04-12 | 2023-07-04 | 深圳思谋信息科技有限公司 | 图像分割模型训练方法、装置、计算机设备和存储介质 |
CN113591566A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 图像识别模型的训练方法、装置、电子设备和存储介质 |
CN114332554A (zh) * | 2021-11-10 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
-
2021
- 2021-11-10 CN CN202111328774.3A patent/CN114332554A/zh active Pending
-
2022
- 2022-09-26 EP EP22891672.2A patent/EP4358033A1/en active Pending
- 2022-09-26 WO PCT/CN2022/121320 patent/WO2023082870A1/zh active Application Filing
-
2023
- 2023-06-30 US US18/216,918 patent/US20230343063A1/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023082870A1 (zh) * | 2021-11-10 | 2023-05-19 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、图像分割方法、装置及设备 |
CN114067119A (zh) * | 2022-01-17 | 2022-02-18 | 深圳市海清视讯科技有限公司 | 全景分割模型的训练方法、全景分割方法及装置 |
CN116258730A (zh) * | 2023-05-16 | 2023-06-13 | 先进计算与关键软件(信创)海河实验室 | 一种基于一致性损失函数的半监督医学图像分割方法 |
CN116258730B (zh) * | 2023-05-16 | 2023-08-11 | 先进计算与关键软件(信创)海河实验室 | 一种基于一致性损失函数的半监督医学图像分割方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230343063A1 (en) | 2023-10-26 |
WO2023082870A1 (zh) | 2023-05-19 |
EP4358033A1 (en) | 2024-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114332554A (zh) | 图像分割模型的训练方法、图像分割方法、装置及设备 | |
WO2020224479A1 (zh) | 目标的位置获取方法、装置、计算机设备及存储介质 | |
CN111739035B (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
CN111325726A (zh) | 模型训练方法、图像处理方法、装置、设备及存储介质 | |
CN111091166B (zh) | 图像处理模型训练方法、图像处理方法、设备及存储介质 | |
CN110555839A (zh) | 缺陷检测识别方法、装置、计算机设备及存储介质 | |
CN110400304B (zh) | 基于深度学习的物体检测方法、装置、设备及存储介质 | |
CN110413837B (zh) | 视频推荐方法和装置 | |
CN110570460B (zh) | 目标跟踪方法、装置、计算机设备及计算机可读存储介质 | |
CN110544272A (zh) | 脸部跟踪方法、装置、计算机设备及存储介质 | |
CN112749613B (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
CN112884770B (zh) | 图像分割处理方法、装置及计算机设备 | |
CN111062981A (zh) | 图像处理方法、装置及存储介质 | |
CN111192262A (zh) | 基于人工智能的产品缺陷分类方法、装置、设备及介质 | |
CN113610750A (zh) | 对象识别方法、装置、计算机设备及存储介质 | |
CN113378705B (zh) | 车道线检测方法、装置、设备及存储介质 | |
CN111598896B (zh) | 图像检测方法、装置、设备及存储介质 | |
CN110647881A (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN113724189A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN113570645A (zh) | 图像配准方法、装置、计算机设备及介质 | |
CN114511864B (zh) | 文本信息提取方法、目标模型的获取方法、装置及设备 | |
CN111325220A (zh) | 图像生成方法、装置、设备及存储介质 | |
CN114283299A (zh) | 图像聚类方法、装置、计算机设备及存储介质 | |
CN113821658A (zh) | 对编码器进行训练的方法、装置、设备及存储介质 | |
CN110675473B (zh) | 生成gif动态图的方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40071558 Country of ref document: HK |