CN113378696A - 图像处理方法、装置、设备及存储介质 - Google Patents
图像处理方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113378696A CN113378696A CN202110636583.7A CN202110636583A CN113378696A CN 113378696 A CN113378696 A CN 113378696A CN 202110636583 A CN202110636583 A CN 202110636583A CN 113378696 A CN113378696 A CN 113378696A
- Authority
- CN
- China
- Prior art keywords
- target
- type
- image
- model
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims abstract description 88
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims description 43
- 230000006870 function Effects 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 26
- 238000002372 labelling Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 206010000496 acne Diseases 0.000 description 31
- 239000011148 porous material Substances 0.000 description 30
- 238000004891 communication Methods 0.000 description 8
- 210000004243 sweat Anatomy 0.000 description 7
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 208000024891 symptom Diseases 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了图像处理方法、装置、设备及存储介质,涉及人工智能技术领域,具体为计算机视觉、深度学习技术领域,可应用于图像处理场景下。具体实现方案为:从目标图像中获取人脸区域图像;将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果;基于所述至少一种类型的目标区域分别对应的分割结果,确定所述人脸区域图像中所述至少一种类型的目标区域分别对应的子图像;在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息。本公开实施例能够保证检测至少一种类型的目标区域内包含的目标对象的位置信息的精确度。
Description
技术领域
本公开涉及人工智能技术领域,具体为计算机视觉、深度学习技术领域。
背景技术
目标识别是图像处理的一个重要的手段,在目标识别中的一种处理类型为对人脸的皮肤状况进行识别。在对人脸的皮肤状况进行识别的处理中往往仅能够判断是否存在一种或多种类型的皮肤症状,而无法对不同类型的皮肤症状进行准确定位。因此,如何对人脸图像中不同类型的皮肤症状进行准确定位就成为需要解决的问题。
发明内容
本公开提供了一种图像处理方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种图像处理方法,包括:
从目标图像中获取人脸区域图像;
将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果;
基于所述至少一种类型的目标区域分别对应的分割结果,确定所述人脸区域图像中所述至少一种类型的目标区域分别对应的子图像;
在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息。
根据本公开的另一方面,提供了一种图像处理装置,包括:
提取模块,用于从目标图像中获取人脸区域图像;
识别模块,用于将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果;
区域获取模块,用于基于所述至少一种类型的目标区域分别对应的分割结果,确定所述人脸区域图像中所述至少一种类型的目标区域分别对应的子图像;
位置确定模块,用于在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
根据本公开的技术,可保证检测至少一种类型的目标区域内包含的目标对象的位置信息的精确度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开一实施例的图像处理方法示意图;
图2是根据本公开另一实施例的图像处理方法示意图;
图3是根据本公开一实施例的模型训练的处理流程示意图;
图4是根据本公开又一实施例的图像处理装置示意图;
图5是根据本公开又一实施例的图像处理装置示意图;
图6是用来实现本公开实施例的图像处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开实施例首先提供了一种图像处理方法,如图1所示,包括:
步骤S11:从目标图像中获取人脸区域图像;
步骤S12:将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果;
步骤S13:基于所述至少一种类型的目标区域分别对应的分割结果,确定所述人脸区域图像中所述至少一种的目标区域分别对应的子图像;
步骤S14:在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息。
本实施例提供的方法可以应用于图像处理装置,该图像处理装置可以包括有服务器、终端设备或芯片;该终端设备可以包括有手机、笔记本、平板电脑、台式电脑或其他设备等等,本实施例对于图像处理装置的具体形式不做限定。
在一种实现方式中,所述目标图像可以是包含人脸的图像。优选的,所述目标图像可以为包含人脸的RGB(红绿蓝,Red Green Blue)图像。
在一种实现方式中,所述从目标图像中获取人脸区域图像,可以包括:对所述目标图像进行检测得到人脸区域;在检测得到的所述人脸区域符合预设条件的情况下,从所述目标图像中获取所述人脸区域所在位置的图像作为所述人脸区域图像。其中,所述预设条件可以包括:脸部无遮挡,比如未佩戴墨镜、未佩戴口罩等等。
在一种实现方式中,所述至少一种类型的目标区域分别对应的分割结果具体可以为:所述至少一种类型中每一种类型的至少一个目标区域分别对应的分割结果。也就是说,所述至少一种类型中的每一种类型的目标区域的数量可以为一个或多个,本实施例不对每一种类型的目标区域的数量进行限定。
在一种实现方式中,所述基于所述至少一种类型的目标区域分别对应的分割结果,确定所述人脸区域图像中所述至少一种类型的目标区域分别对应的子图像可以是:基于所述至少一种类型中每一种类型的至少一个目标区域分别对应的掩膜进行处理,得到所述人脸区域图像中包含的所述至少一种类型中每一种类型的至少一个目标区域分别对应的子图像。
所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息,具体可以为:所述至少一种类型中每一种类型的至少一个目标区域中包含的目标对象所对应的位置信息。其中,所述每一种类型的至少一个目标区域中的每一个目标区域内可以包含有对应的目标对象。举例来说,假设某一种类型的目标区域为黑头区域,相应的,任意一个黑头区域中包含的目标对象为黑头。
所述目标对象所对应的位置信息可以指的是该目标对象在所述人脸区域图像中的位置坐标。
本实施例中,先获取目标图像中的人脸区域图像,再采用目标模型预测人脸区域图像中包含的至少一种类型的目标区域分别对应的分割结果,然后根据所述至少一种类型的目标区域分别对应的分割结果确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息。由于目标模型可以针对至少一种类型的目标区域分别确定对应的分割结果,因此在后续进行至少一种类型的目标区域内包含的目标对象的定位的处理中,可以针对不同类型的目标区域内包含的目标对象分别进行定位,保证了对每一种类型的目标区域内包含的目标对象进行定位的精确度,还可以避免在多种类型重叠的区域中无法对不同类型的区域中所包含的目标对象分别进行定位或定位出现歧义的问题。
在一种实施方式中,所述将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果,包括:
将所述人脸区域图像输入所述目标模型的第一网络,得到所述人脸区域图像所对应的特征图;
将所述特征图输入所述目标模型的第二网络,得到所述至少一种类型的目标区域分别对应的分割结果。
其中,所述第一网络可以为Resnet(残差网络)。
需要说明的是,所述至少一种类型的目标区域中,每一种类型的目标区域的数量可以为一个或多个。所述至少一种类型的目标区域分别对应的分割结果,具体可以为至少一种类型中每一种类型的至少一个目标区域所分别对应的掩膜(Mask)。
举例来说,所述至少一种类型的目标区域可以包括以下至少之一:黑头区域、毛孔区域、色斑区域。相应的,所述至少一种类型的目标区域分别对应的分割结果,可以包括以下至少之一:至少一个毛孔区域分别对应的掩膜,至少一个黑头区域分别对应的掩膜,至少一个色斑区域分别对应的掩膜。
本实施例中,通过目标模型中的第一网络首先提取图像特征得到人脸区域图像的特征图,然后再通过目标模型中的第二网络进行至少一种类型的目标区域所对应的分割结果的预测,分别得到所述至少一种类型的目标区域所分别对应的分割结果,如此可以避免在人脸区域图像中多个类型的目标区域存在重叠的时候无法准确的对不同类型的目标区域进行划分的问题,保证了最终对至少一种类型的目标区域内包含的目标对象进行定位的精确度。
本实施例中,所述将所述特征图输入所述目标模型的第二网络,得到所述至少一种类型的目标区域分别对应的分割结果,包括:
将所述特征图输入所述目标模型的所述第二网络中的检测网络,得到至少一个候选框;将所述至少一个候选框中的每一个候选框输入所述目标模型的所述第二网络中的至少一个预测分支进行预测,得到所述每一个候选框中包含的至少一种类型的目标区域及其对应的分割结果;其中,所述至少一个预测分支中不同的预测分支用于预测不同类型的目标区域及其对应的分割结果。
所述目标模型的所述第二网络中的检测网络可以为RPN(Region ProposalNetwork,区域生成网络)。需要说明的是,所述目标模型的所述第二网络中的检测网络在输出所述至少一个候选框时并不会输出所述至少一个候选框所分别包含的目标区域的类型。
所述目标模型的所述第二网络中包含至少一个预测分支;其中,所述至少一个预测分支中的不同预测分支用于预测候选框中所包含的不同类型的目标区域及其对应的分割结果。也就是说,不同的预测分支对应于不同类型的目标区域,相应的,所述至少一个预测分支中的任意一个预测分支输出的结果可以是候选框中包含该预测分支所对应类型的目标区域及其对应的分割结果,或者是候选框中不包含该预测分支所对应的类型的目标区域的预测结果。
进一步地,所述将所述至少一个候选框中的每一个候选框输入所述目标模型的所述第二网络中的至少一个预测分支进行预测,得到所述每一个候选框中包含的至少一种类型的目标区域及其对应的分割结果,可以包括:
将所述至少一个候选框中的第k个候选框输入所述第二网络的所述至少一个预测分支中的第y个预测分支进行预测,得到所述第y个预测分支输出的第k个候选框中包含该第y个预测分支所对应的类型的目标区域及其对应的分割结果,或者得到所述第y个预测分支输出的不包含该第y个预测分支所对应的类型的目标区域的预测结果;其中,k和y均为大于等于1的整数。
以上所述第k个候选框为至少一个候选框中的任意之一。另外,以上示例中,仅示意出所述第k个候选框输入至少一个预测分支中的某一个预测分支的处理,实际处理中,所述第k个候选框可以是并行的输入所述至少一个预测分支中的每一个预测分支,只是每一个预测分支的处理与前述第y个预测分支的处理是相同的,因此不进行重复说明。
需要理解,当任意一个候选框分别输入所述至少一个预测分支中的每一个预测分支之后,可以得到所述每一个预测分支输出的结果,因此在所述目标模型的所述第二网络的所述至少一个预测分支全部输出预测的结果之后,某一个候选框中可能仅包含一种类型的目标区域,也可能包含有多种类型的目标区域。举例来说,所述目标模型的所述第二网络可以包括两个预测分支,所述两个预测分支中的第一预测分支用于预测候选框中是否包含黑头区域,若包含则输出该黑头区域所对应的分割结果;第二预测分支用于预测候选框中是否包含毛孔区域,若包含则输出该毛孔区域所对应的分割结果。在所述目标模型的第二网络中的所述检测网络输出至少一个候选框的情况下,将所述至少一个候选框中的任意一个候选框(比如第k个候选框)分别输入上述两个预测分支,其中第一预测分支对该第k个候选框进行预测得到的结果为其中包含黑头区域,并输出该黑头区域对应的分割结果(即掩膜);其中第二预测分支对该第k个候选框进行预测得到的结果为其中包含毛孔区域,并输出该毛孔区域对应的分割结果(即掩膜)。也就是说,第k个候选框中包含了黑头区域以及毛孔区域两种类型的目标区域。如此,在某一个候选框为多种类型的目标区域的重叠区域的情况下,可以准确的预测得到该候选框中包含的不同类型的目标区域。
这里,所述目标模型的所述第二网络中的所述检测网络输出的候选框可以为矩形框;所述目标模型的所述第二网络中的至少一个预测分支中任意一个预测分支所输出的目标区域的分割结果(即掩膜)的形状可以为不规则形状,比如,可以是圆形或多边形。
本实施例中,通过目标模型中的第一网络提取图像特征得到人脸区域图像的特征图,再通过目标模型中的第二网络的检测网络对特征图进行处理得到至少一个候选框,然后通过至少一个预测分支分别对每一个候选框中包含的目标区域的类型及分割结果进行预测,以得到每一个候选框中包含的至少一种类型的目标区域及其所分别对应的分割结果,如此可以避免在不同类型的目标区域存在重叠的时候无法进行准确的分割的问题,保证了最终识别结果的精确度。
在一种实施方式中,所述在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息,包括:
在所述至少一种类型的目标区域分别对应的所述子图像中的第i种类型的目标区域对应的子图像中,基于像素点的颜色和/或灰度值确定所述第i种类型的目标区域对应的子图像的目标像素点,将所述目标像素点的位置坐标作为所述第i种类型的目标区域中包含的目标对象所对应的位置信息;其中,i为大于等于1的整数。
所述至少一种类型的目标区域分别对应的所述子图像具体可以包括:所述至少一种类型中每一种类型的至少一个目标区域所分别对应的子图像。所述第i种类型的目标区域对应的子图像可以为所述至少一种类型中任意一种类型的目标区域所对应的子图像。需要理解的是,所述第i种类型的目标区域对应的子图像的数量可以为一个或多个,本实施例针对其中任意一个子图像的处理进行说明,对于第i种类型的目标区域包含的每一个子图像的处理与前述处理均相同,不做重复说明。
其中,所述基于像素点的颜色和/或灰度值确定所述第i种类型的目标区域对应的子图像的目标像素点,将所述目标像素点的位置坐标作为所述第i种类型的目标区域中包含的目标对象所对应的位置信息可以为:从所述第i种类型的目标区域对应的子图像中确定与周围区域存在颜色和/或灰度差异最大的一个像素点作为所述第i种类型的目标区域对应的子图像的目标像素点,将所述目标像素点的位置坐标作为所述第i种类型的目标区域中包含的目标对象所对应的位置信息。
以所述至少一种类型的目标区域为黑头区域以及毛孔区域为例进行说明,由于黑头和毛孔与周围皮肤有着颜色和/或灰度值的差别,因此可以从第i种类型的目标区域对应的子图像中找出与周围区域存在颜色和/或灰度值的差异最大的一个像素点作为黑头或毛孔(即目标像素点),进而获取该黑头或毛孔的具体的位置坐标。
具体地,前述从所述第i种类型的目标区域对应的子图像中确定与周围区域存在颜色和/或灰度差异最大的一个像素点的处理方式可以包括:
将所述第i种类型的目标区域对应的子图像与至少两个高斯函数差分算子进行卷积,得到所述第i种类型的目标区域对应的子图像的至少两个模糊图像;基于所述至少两个模糊图像确定局部最大值,将所述局部最大值所在位置处的像素点作为所述第i种类型的目标区域对应的子图像中确定与周围区域存在颜色和/或灰度差异最大的一个像素点。
其中,其中,所述至少两个模糊图像可以为至少两个低通滤波结果。所述至少两个高斯函数差分算子之间的标准偏差是不同的,也就是可以通过调整标准偏差得到至少两个高斯函数差分算子。
所述基于所述至少两个模糊图像确定局部最大值,可以是将所述至少两个模糊图像组成立方体,将所述立方体中的斑点作为所述局部最大值。其中,所述立方体中的斑点的产生原因可以是:所述至少两个模糊图像中的任意两个连续模糊图像之间的差异堆叠于立方体中而产生的。
本实施例中,通过目标模型识别出多种类型的目标区域的分割结果,进而在每一种类型所对应的每一个目标区域对应的子图像中识别出其中包含的目标对象的位置坐标。由于目标模型的识别处理可以避免多个类型的目标区域之间的重叠问题,因此保证了在最终识别每一个类型的目标区域中包含的目标对象的位置信息的精确度;另外,由于仅通过目标模型就可以对至少一种类型的目标区域进行分割,进而可以对每一个类型的目标区域中包含的目标对象的位置信息进行定位,如此可以保证识别每一个类型的目标区域中包含的目标对象的位置信息的速度。
在一种实施方式中,所述从目标图像中检测得到人脸区域子图像,包括:
对所述目标图像进行检测,得到人脸区域所对应的矩形框;
基于所述人脸区域所对应的所述矩形框,确定人脸区域初始图像;
对所述人脸区域初始图像进行归一化处理,得到所述人脸区域图像。
其中,所述对所述目标图像进行检测,得到人脸区域所对应的矩形框具体可以为:将所述目标图像输入人脸检测模型,得到所述人脸检测模型输出的人脸区域所对应的矩形框。
所述基于所述人脸区域所对应的所述矩形框,确定人脸区域初始图像,可以包括:基于所述人脸区域所对应的所述矩形框的左上角坐标和人脸区域对应的宽和高,确定人脸区域;基于预设比例对所述人脸区域进行扩大得到扩大后的人脸区域;从所述目标图像中提取所述扩大后的所述人脸区域内包含的图像并插值成预设尺度后得到所述人脸区域初始图像。
其中,所述预设尺度可以为根据实际需求预先设置的,比如,可以为512x512大小。
所述预设比例可以根据实际情况设置,比如可以是5%。相应的,所述基于预设比例对所述人脸区域进行扩大得到扩大后的人脸区域,可以指的是:将所述人脸区域的四个边框分别基于所述预设比例向外移动得到新的四个边框,将所述新的四个边框内包含的区域作为所述扩大后的人脸区域。
其中,所述人脸区域的四个边框可以分别为:所述人脸区域的上边框、所述人脸区域的下边框、所述人脸区域的左边框、所述人脸区域的右边框。所述向外移动指的是向任意一个边框与所述人脸区域的中心点的垂线的反方向移动;比如,所述人脸区域的上边框向外移动指的是向上移动,所述人脸区域的下边框向外移动指的是向下移动,所述人脸区域的左边框向外移动指的是向左移动,所述人脸区域的右边框向外移动指的是向右移动。
所述对所述人脸区域初始图像进行归一化处理,得到所述人脸区域图像,可以包括:将人脸区域初始图像中的每个像素的像素值调整至预设像素值区间内,得到所述人脸区域图像。其中,所述将人脸区域初始图像中的每个像素的像素值调整至预设像素值区间内,可以为:将人脸区域初始图像中的每个像素的像素值减128再除以256,使每个像素的像素值在[-0.5,0.5]之间。
进一步地,所述将人脸区域初始图像中的每个像素的像素值调整至预设像素值区间内,得到所述人脸区域图像,还可以包括:将人脸区域初始图像中的每个像素的像素值调整至预设像素值区间内,得到归一化处理后的图像,将归一化处理后的图像进行数据增强处理,得到所述人脸区域图像。其中,所述数据增强处理可以包括以下至少之一:数据缩放、平移、旋转。
以所述至少一种类型的目标区域分别为毛孔区域以及黑头区域,所述至少一种类型的目标区域内包含的目标对象为黑头以及毛孔为例,结合图2,对本实施例提供的方案进行说明,包括:
S21:输入目标图像;示例性的,该目标图像可以为包含脸部的人体图像;
S22:对所述目标图像进行人脸检测;
S23:从所述目标图像中获取人脸区域图像;
S24:将所述人脸区域图像输入目标模型,得到毛孔区域的分割结果以及黑头区域的分割结果;
S25:基于毛孔区域的分割结果确定人脸区域图像中的毛孔区域对应的子图像,以及基于黑头区域的分割结果确定人脸区域图像中的黑头区域对应的子图像;从所述毛孔区域对应的子图像中确定所述毛孔区域中包含的毛孔的位置信息,以及从所述黑头区域对应的子图像中确定所述黑头区域中包含的黑头的位置信息。
本实施例中,可以预先从目标图像中提取人脸区域初始图像,再对人脸区域初始图像进行归一化处理,得到人脸区域图像,如此,可以在后续进行至少一种类型的目标区域的分割结果的识别的处理中基于更加准确的人脸区域图像进行识别,能够保证后续识别的精确度。
在一种实施方式中,训练得到前述目标模型的方式可以包括:
基于训练样本对预设模型进行训练,得到训练后的预设模型;将所述训练后的预设模型作为所述目标模型;其中,所述训练样本中包含至少一种类型的目标对象的标注结果。
具体来说,所述训练样本可以为图片;所述训练样本的数量可以为一个或多个;在每一个训练样本中均包含至少一种类型的目标对象的标注结果。
其中,所述至少一种类型的目标对象的标注结果具体可以指的是所述至少一种类型的目标对象的位置坐标。所述至少一种类型的目标对象具体可以指的是所述至少一种类型中每一种类型中的至少一个目标对象;比如,所述至少一种类型的目标对象可以包括黑头以及毛孔,任意一个训练样本中可以预先标注有全部黑头的位置坐标以及全部毛孔的位置坐标。
本实施例中,通过预先标注有至少一种类型的目标对象的标注结果对预设模型进行训练,可以使得训练得到的目标模型更加快速准确的识别得到至少一种类型的目标区域的分割结果。
所述基于训练样本对预设模型进行训练,包括:
将所述训练样本输入所述预设模型的预设第一网络,得到所述预设模型的预设第一网络输出的特征图;
将所述特征图输入所述预设模型中的预设第二网络,得到所述预设模型中的所述预设第二网络输出的至少一种类型的目标区域的分割结果;
基于所述至少一种类型的目标区域的分割结果、以及所述训练样本的所述至少一种类型的目标对象的标注结果,确定所述至少一种类型的目标区域的分割结果分别对应的第一类损失函数以及第二类损失函数;
根据所述第一类损失函数以及所述第二类损失函数进行反向传导更新所述预设模型。
其中,所述基于所述至少一种类型的目标区域的分割结果、以及所述训练样本的所述至少一种类型的目标对象的标注结果,确定所述至少一种类型的目标区域的分割结果分别对应的第一类损失函数以及第二类损失函数,具体可以包括:
基于所述至少一种类型中的第j种类型的目标区域的分割结果、以及训练样本中的第j种类型的目标对象的位置坐标,确定所述第j种类型的目标区域的分割结果对应的第一类损失函数以及第二类损失函数;j为大于等于1的整数。
这里,所述第j种类型的目标区域可以为所述至少一种类型的目标区域中的任意之一,由于针对每一种类型的目标区域的处理与上述说明相同,因此不做一一赘述。
其中,所述第一类损失函数可以为Dice损失(Dice Loss)函数,第二类损失函数可以为BCE(二进制交叉熵)损失函数。
关于所述预设模型的收敛的确定方式可以包括以下至少之一:预设模型的迭代次数达到预设次数;预设模型的第一类损失函数和第二类损失函数低于预设门限值。
示例性的,假设所述至少一种类型的目标区域为黑头区域以及毛孔区域,所述至少一种类型的目标对象为黑头以及毛孔,所述第一损失函数为Dice损失函数,所述第二损失函数为BCE损失函数,训练样本中包含黑头的标注结果(即黑头的位置坐标)以及毛孔的标注结果(即毛孔的位置坐标);结合图3对预设模型的训练进行说明:输入训练样本至预设模型的预设第一网络;其中,所述第一网络可以为ResNet;
将第一网络输出的特征图输入预设模型的预设第二网络,得到所述预设第二网络输出的黑头区域分割结果以及毛孔区域分割结果;其中,所述第二网络可以包括RPN;
基于所述黑头区域分割结果与训练样本中的黑头的标注结果计算所述黑头区域分割结果所对应的Dice损失以及BCE损失,以及基于所述毛孔区域分割结果与训练样本中的毛孔的标注结果计算所述毛孔区域分割结果所对应的Dice损失以及BCE损失;然后根据所述黑头区域分割结果所对应的Dice损失以及BCE损失,以及所述毛孔区域分割结果所对应的Dice损失以及BCE损失进行反向传导更新所述预设模型,直至所述预设模型收敛,得到所述目标模型。其中,所述反向传导更新所述预设模型具体可以指的是反向传导更新所述预设模型的参数。
本实施例中,采用包含至少一种类型的目标对象的标注结果的训练样本确定预设模型输出的每一个类型的目标区域的分割结果所对应的第一类损失函数以及第二类损失函数,进而根据每一个类型的目标区域的分割结果所对应的第一类损失函数以及第二类损失函数对预设模型进行反向传导以更新预设模型,从而可以使得训练得到的目标模型更加精确的识别得到至少一种类型的目标区域的分割结果。
本公开实施例还提供一种图像处理装置,如图4所示,包括:
提取模块41,用于从目标图像中获取人脸区域图像;
识别模块42,用于将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果;
区域获取模块43,用于基于所述至少一种类型的目标区域分别对应的分割结果,确定所述人脸区域图像中所述至少一种类型的目标区域分别对应的子图像;
位置确定模块44,用于在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息。
所述识别模块42,用于将所述人脸区域图像输入所述目标模型的第一网络,得到所述人脸区域图像所对应的特征图;将所述特征图输入所述目标模型的第二网络,得到所述至少一种类型的目标区域分别对应的分割结果。
所述识别模块42,用于将所述特征图输入所述目标模型的所述第二网络中的检测网络,得到至少一个候选框;将所述至少一个候选框中的每一个候选框输入所述目标模型的所述第二网络中的至少一个预测分支进行预测,得到所述每一个候选框中包含的至少一种类型的目标区域及其对应的分割结果;其中,所述至少一个预测分支中不同的预测分支用于预测不同类型的目标区域及其对应的分割结果。
所述位置确定模块44,用于在所述至少一种类型的目标区域分别对应的所述子图像中第i种类型的目标区域对应的子图像中,基于像素点的颜色和/或灰度值确定所述第i种类型的目标区域对应的子图像的目标像素点,将所述目标像素点的位置坐标作为所述第i种类型的目标区域中包含的目标对象所对应的位置信息;其中,i为大于等于1的整数。
所述提取模块41,用于对所述目标图像进行检测,得到人脸区域所对应的矩形框;基于所述人脸区域所对应的所述矩形框,确定人脸区域初始图像;对所述人脸区域初始图像进行归一化处理,得到所述人脸区域图像。
如图5所示,所述装置还包括:
模型训练模块45,用于基于训练样本对预设模型进行训练,得到训练后的预设模型;将所述训练后的预设模型作为所述目标模型;其中,所述训练样本中包含至少一种类型的目标对象的标注结果。
所述模型训练模块45,用于将所述训练样本输入所述预设模型的预设第一网络,得到所述预设模型的预设第一网络输出的特征图;将所述特征图输入所述预设模型中的预设第二网络,得到所述预设模型中的所述预设第二网络输出的至少一种类型的目标区域的分割结果;基于所述至少一种类型的目标区域的分割结果、以及所述训练样本的所述至少一种类型的目标对象的标注结果,确定所述至少一种类型的目标区域的分割结果分别对应的第一类损失函数以及第二类损失函数;根据所述第一类损失函数以及所述第二类损失函数进行反向传导更新所述预设模型。
本公开提供的方案,利用人脸检测模型获取人脸区域图像,通过目标模型先获取所述人脸区域图像的特征图,再对特征图进行检测得到至少一个候选框,然后再预测候选框包含的至少一种类型的目标区域及其对应的分割结果,最后确定每一个类型中的每一个目标区域所包含的目标对象的位置信息。如此,通过目标模型可以高效的对人脸区域图像进行至少一种类型的目标区域及其对应的分割结果进行预测,提升了处理效率以及速度;另外,由于分别对候选框进行不同类型的目标区域的预测,避免了不同类型的目标区域存在重叠而导致无法识别或无法定位的问题,保证了最终识别得到目标对象的位置信息的精确度。
本公开实施例各装置中的各单元、模块或子模块的功能可以参见上述方法实施例中的对应描述,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备60的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图6所示,电子设备60包括计算单元61,其可以根据存储在只读存储器(ROM)62中的计算机程序或者从存储单元68加载到随机访问存储器(RAM)63中的计算机程序来执行各种适当的动作和处理。在RAM63中,还可存储电子设备60操作所需的各种程序和数据。计算单元61、ROM 62以及RAM 63通过总线64彼此相连。输入输出(I/O)接口65也连接至总线64。
电子设备60中的多个部件连接至I/O接口65,包括:输入单元66,例如键盘、鼠标等;输出单元67,例如各种类型的显示器、扬声器等;存储单元68,例如磁盘、光盘等;以及通信单元69,例如网卡、调制解调器、无线通信收发机等。通信单元69允许电子设备60通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元61可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元61的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元61执行上文所描述的各个方法和处理,例如图像处理方法。例如,在一些实施例中,图像处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元68。在一些实施例中,计算机程序的部分或者全部可以经由ROM 62和/或通信单元69而被载入和/或安装到电子设备60上。当计算机程序加载到RAM63并由计算单元61执行时,可以执行上文描述的图像处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元61可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行图像处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (17)
1.一种图像处理方法,包括:
从目标图像中获取人脸区域图像;
将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果;
基于所述至少一种类型的目标区域分别对应的分割结果,确定所述人脸区域图像中所述至少一种类型的目标区域分别对应的子图像;
在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息。
2.根据权利要求1所述的方法,其中,所述将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果,包括:
将所述人脸区域图像输入所述目标模型的第一网络,得到所述人脸区域图像所对应的特征图;
将所述特征图输入所述目标模型的第二网络,得到所述至少一种类型的目标区域分别对应的分割结果。
3.根据权利要求2所述的方法,其中,所述将所述特征图输入所述目标模型的第二网络,得到所述至少一种类型的目标区域分别对应的分割结果,包括:
将所述特征图输入所述目标模型的所述第二网络中的检测网络,得到至少一个候选框;将所述至少一个候选框中的每一个候选框输入所述目标模型的所述第二网络中的至少一个预测分支进行预测,得到所述每一个候选框中包含的至少一种类型的目标区域及其对应的分割结果;其中,所述至少一个预测分支中不同的预测分支用于预测不同类型的目标区域及其对应的分割结果。
4.根据权利要求1所述的方法,其中,所述在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息,包括:
在所述至少一种类型的目标区域分别对应的所述子图像中的第i种类型的目标区域对应的子图像中,基于像素点的颜色和/或灰度值确定所述第i种类型的目标区域对应的子图像的目标像素点,将所述目标像素点的位置坐标作为所述第i种类型的目标区域中包含的目标对象所对应的位置信息;其中,i为大于等于1的整数。
5.根据权利要求1所述的方法,其中,所述从目标图像中确定人脸区域图像,包括:
对所述目标图像进行检测,得到人脸区域所对应的矩形框;
基于所述人脸区域所对应的所述矩形框,确定人脸区域初始图像;
对所述人脸区域初始图像进行归一化处理,得到所述人脸区域图像。
6.根据权利要求1-5任一项所述的方法,其中,所述方法还包括:
基于训练样本对预设模型进行训练,得到训练后的预设模型;将所述训练后的预设模型作为所述目标模型;其中,所述训练样本中包含至少一种类型的目标对象的标注结果。
7.根据权利要求6所述的方法,其中,所述基于训练样本对预设模型进行训练,包括:
将所述训练样本输入所述预设模型的预设第一网络,得到所述预设模型的预设第一网络输出的特征图;
将所述特征图输入所述预设模型中的预设第二网络,得到所述预设模型中的所述预设第二网络输出的至少一种类型的目标区域的分割结果;
基于所述至少一种类型的目标区域的分割结果、以及所述训练样本的所述至少一种类型的目标对象的标注结果,确定所述至少一种类型的目标区域的分割结果分别对应的第一类损失函数以及第二类损失函数;
根据所述第一类损失函数以及所述第二类损失函数进行反向传导更新所述预设模型。
8.一种图像处理装置,包括:
提取模块,用于从目标图像中获取人脸区域图像;
识别模块,用于将所述人脸区域图像输入目标模型,得到所述目标模型输出的至少一种类型的目标区域分别对应的分割结果;
区域获取模块,用于基于所述至少一种类型的目标区域分别对应的分割结果,确定所述人脸区域图像中所述至少一种类型的目标区域分别对应的子图像;
位置确定模块,用于在所述至少一种类型的目标区域分别对应的所述子图像中,确定所述至少一种类型的目标区域中分别包含的目标对象所对应的位置信息。
9.根据权利要求8所述的装置,其中,所述识别模块,用于将所述人脸区域图像输入所述目标模型的第一网络,得到所述人脸区域图像所对应的特征图;将所述特征图输入所述目标模型的第二网络,得到所述至少一种类型的目标区域分别对应的分割结果。
10.根据权利要求9所述的装置,其中,所述识别模块,用于将所述特征图输入所述目标模型的所述第二网络中的检测网络,得到至少一个候选框;将所述至少一个候选框中的每一个候选框输入所述目标模型的所述第二网络中的至少一个预测分支进行预测,得到所述每一个候选框中包含的至少一种类型的目标区域及其对应的分割结果;其中,所述至少一个预测分支中不同的预测分支用于预测不同类型的目标区域及其对应的分割结果。
11.根据权利要求8所述的装置,其中,所述位置确定模块,用于在所述至少一种类型的目标区域分别对应的所述子图像中第i种类型的目标区域对应的子图像中,基于像素点的颜色和/或灰度值确定所述第i种类型的目标区域对应的子图像的目标像素点,将所述目标像素点的位置坐标作为所述第i种类型的目标区域中包含的目标对象所对应的位置信息;其中,i为大于等于1的整数。
12.根据权利要求8所述的装置,其中,所述提取模块,用于对所述目标图像进行检测,得到人脸区域所对应的矩形框;基于所述人脸区域所对应的所述矩形框,确定人脸区域初始图像;对所述人脸区域初始图像进行归一化处理,得到所述人脸区域图像。
13.根据权利要求8-12任一项所述的装置,其中,所述装置还包括:
模型训练模块,用于基于训练样本对预设模型进行训练,得到训练后的预设模型;将所述训练后的预设模型作为所述目标模型;其中,所述训练样本中包含至少一种类型的目标对象的标注结果。
14.根据权利要求13所述的装置,其中,所述模型训练模块,用于将所述训练样本输入所述预设模型的预设第一网络,得到所述预设模型的预设第一网络输出的特征图;将所述特征图输入所述预设模型中的预设第二网络,得到所述预设模型中的所述预设第二网络输出的至少一种类型的目标区域的分割结果;基于所述至少一种类型的目标区域的分割结果、以及所述训练样本的所述至少一种类型的目标对象的标注结果,确定所述至少一种类型的目标区域的分割结果分别对应的第一类损失函数以及第二类损失函数;根据所述第一类损失函数以及所述第二类损失函数进行反向传导更新所述预设模型。
15.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110636583.7A CN113378696A (zh) | 2021-06-08 | 2021-06-08 | 图像处理方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110636583.7A CN113378696A (zh) | 2021-06-08 | 2021-06-08 | 图像处理方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113378696A true CN113378696A (zh) | 2021-09-10 |
Family
ID=77576447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110636583.7A Pending CN113378696A (zh) | 2021-06-08 | 2021-06-08 | 图像处理方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378696A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113963148A (zh) * | 2021-10-29 | 2022-01-21 | 北京百度网讯科技有限公司 | 对象检测方法、对象检测模型的训练方法及装置 |
CN114037814A (zh) * | 2021-11-11 | 2022-02-11 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备和介质 |
CN114387649A (zh) * | 2022-01-11 | 2022-04-22 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
CN115880672A (zh) * | 2023-02-08 | 2023-03-31 | 中国第一汽车股份有限公司 | 目标检测方法、装置、存储介质及设备 |
CN117689660A (zh) * | 2024-02-02 | 2024-03-12 | 杭州百子尖科技股份有限公司 | 基于机器视觉的保温杯温度质检方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190015059A1 (en) * | 2017-07-17 | 2019-01-17 | Siemens Healthcare Gmbh | Semantic segmentation for cancer detection in digital breast tomosynthesis |
CN111369427A (zh) * | 2020-03-06 | 2020-07-03 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、可读介质和电子设备 |
CN111523414A (zh) * | 2020-04-13 | 2020-08-11 | 绍兴埃瓦科技有限公司 | 人脸识别方法、装置、计算机设备和存储介质 |
CN111709875A (zh) * | 2020-06-16 | 2020-09-25 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111767846A (zh) * | 2020-06-29 | 2020-10-13 | 北京百度网讯科技有限公司 | 图像识别方法、装置、设备和计算机存储介质 |
CN112614140A (zh) * | 2020-12-17 | 2021-04-06 | 深圳数联天下智能科技有限公司 | 一种训练色斑检测模型的方法及相关装置 |
-
2021
- 2021-06-08 CN CN202110636583.7A patent/CN113378696A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190015059A1 (en) * | 2017-07-17 | 2019-01-17 | Siemens Healthcare Gmbh | Semantic segmentation for cancer detection in digital breast tomosynthesis |
CN111369427A (zh) * | 2020-03-06 | 2020-07-03 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、可读介质和电子设备 |
CN111523414A (zh) * | 2020-04-13 | 2020-08-11 | 绍兴埃瓦科技有限公司 | 人脸识别方法、装置、计算机设备和存储介质 |
CN111709875A (zh) * | 2020-06-16 | 2020-09-25 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111767846A (zh) * | 2020-06-29 | 2020-10-13 | 北京百度网讯科技有限公司 | 图像识别方法、装置、设备和计算机存储介质 |
CN112614140A (zh) * | 2020-12-17 | 2021-04-06 | 深圳数联天下智能科技有限公司 | 一种训练色斑检测模型的方法及相关装置 |
Non-Patent Citations (1)
Title |
---|
马维民;: "基于大数据的皮肤影像分析策略", 皮肤科学通报, no. 02, 15 April 2018 (2018-04-15) * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113963148A (zh) * | 2021-10-29 | 2022-01-21 | 北京百度网讯科技有限公司 | 对象检测方法、对象检测模型的训练方法及装置 |
CN113963148B (zh) * | 2021-10-29 | 2023-08-08 | 北京百度网讯科技有限公司 | 对象检测方法、对象检测模型的训练方法及装置 |
CN114037814A (zh) * | 2021-11-11 | 2022-02-11 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备和介质 |
CN114037814B (zh) * | 2021-11-11 | 2022-12-23 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备和介质 |
CN114387649A (zh) * | 2022-01-11 | 2022-04-22 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
CN115880672A (zh) * | 2023-02-08 | 2023-03-31 | 中国第一汽车股份有限公司 | 目标检测方法、装置、存储介质及设备 |
CN115880672B (zh) * | 2023-02-08 | 2023-06-02 | 中国第一汽车股份有限公司 | 目标检测方法、装置、存储介质及设备 |
CN117689660A (zh) * | 2024-02-02 | 2024-03-12 | 杭州百子尖科技股份有限公司 | 基于机器视觉的保温杯温度质检方法 |
CN117689660B (zh) * | 2024-02-02 | 2024-05-14 | 杭州百子尖科技股份有限公司 | 基于机器视觉的保温杯温度质检方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378696A (zh) | 图像处理方法、装置、设备及存储介质 | |
US11810319B2 (en) | Image detection method, device, storage medium and computer program product | |
CN112949767B (zh) | 样本图像增量、图像检测模型训练及图像检测方法 | |
CN113436100B (zh) | 用于修复视频的方法、装置、设备、介质和产品 | |
CN112560862B (zh) | 文本识别方法、装置及电子设备 | |
JP7393472B2 (ja) | 陳列シーン認識方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN113642583B (zh) | 用于文本检测的深度学习模型训练方法及文本检测方法 | |
EP3876197A2 (en) | Portrait extracting method and apparatus, electronic device and storage medium | |
CN112989995B (zh) | 文本检测方法、装置及电子设备 | |
CN114550177A (zh) | 图像处理的方法、文本识别方法及装置 | |
CN113627439A (zh) | 文本结构化处理方法、处理装置、电子设备以及存储介质 | |
CN113570606A (zh) | 目标分割的方法、装置及电子设备 | |
CN113378712A (zh) | 物体检测模型的训练方法、图像检测方法及其装置 | |
CN113378958A (zh) | 自动标注方法、装置、设备、存储介质及计算机程序产品 | |
CN112528995A (zh) | 用于训练目标检测模型的方法、目标检测方法及装置 | |
CN114495101A (zh) | 文本检测方法、文本检测网络的训练方法及装置 | |
CN116385789A (zh) | 图像处理方法、训练方法、装置、电子设备及存储介质 | |
CN114677566B (zh) | 深度学习模型的训练方法、对象识别方法和装置 | |
CN114511862B (zh) | 表格识别方法、装置及电子设备 | |
CN114612971A (zh) | 人脸检测方法、模型训练方法、电子设备及程序产品 | |
CN113936158A (zh) | 一种标签匹配方法及装置 | |
CN114119990A (zh) | 用于图像特征点匹配的方法、装置及计算机程序产品 | |
CN113947146A (zh) | 样本数据生成方法、模型训练方法、图像检测方法及装置 | |
CN113313125A (zh) | 图像处理方法和装置、电子设备、计算机可读介质 | |
CN113435257A (zh) | 表格图像的识别方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |