WO2017193906A1 - 一种图像处理方法及处理系统 - Google Patents
一种图像处理方法及处理系统 Download PDFInfo
- Publication number
- WO2017193906A1 WO2017193906A1 PCT/CN2017/083583 CN2017083583W WO2017193906A1 WO 2017193906 A1 WO2017193906 A1 WO 2017193906A1 CN 2017083583 W CN2017083583 W CN 2017083583W WO 2017193906 A1 WO2017193906 A1 WO 2017193906A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- calibration
- training
- calibration area
- generate
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 35
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 230000011218 segmentation Effects 0.000 claims abstract description 87
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims description 79
- 238000013135 deep learning Methods 0.000 claims description 30
- 238000012360 testing method Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000013501 data transformation Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 4
- 241000226585 Antennaria plantaginifolia Species 0.000 claims description 3
- 238000002845 discoloration Methods 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 2
- 210000004209 hair Anatomy 0.000 description 49
- 230000008569 process Effects 0.000 description 14
- 230000003068 static effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000037308 hair color Effects 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000004061 bleaching Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000004043 dyeing Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000000118 hair dye Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本申请提供一种图像处理方法及处理系统,方法包括:获取图像;选择所述图像的标定区域;从预设的分割模型中读取所述标定区域对应的特征参数;通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。通过分割模型中获取的特征参数对图像进行分割,分割的准确率高,适用场景广泛。
Description
本申请要求于2016年05月09日提交中国专利局、申请号为201610302568.8、发明名称为“一种图像处理方法及处理系统”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
本申请属于图像处理领域,尤其涉及一种图像处理方法及处理系统。
头发对人的整体形象,起着至关重要的作用,因此近些年来引起了越来越多的关注。在拍照、美图、和社交平台等应用中,对头发的分割往往成为首要任务之一。
目前,一般是通过人脸检测技术进行人脸定位,之后进行头发区域评估,同时根据头发颜色等计算每个像素属于头发区域的概率,最后综合位置信息和颜色概率进行全局头发分割。
在上述头发分割方法中,第一步的人脸定位,其算法极大取决于人脸的几何位置和人脸区域的完整性,因此针对侧脸或人脸部分遮挡的图像极易定位失败,降低定位的准确率。
第二步的头发区域估计,由于头发形状分布的多样性,如长发,短发、散发等各种发型,使得头发区域具有不稳定的统计信息,降低估计的准确率。
第三步的利用头发颜色的统计信息进行概率计算,由于头发颜色同样具有分布广泛等特征,针对不同人种以及染发颜色的多样性,导致头发颜
色统计信息可靠性低,进而降低概率计算的准确率。
采用上述图像处理技术,将以上若干步骤进行串行处理,所有环节的错误率将累加在一起,进而加剧了准确率的降低、导致鲁棒性能差。
发明内容
本申请的实施例提供了一种图像处理方法,包括:
获取图像;
选择所述图像的标定区域;
从预设的分割模型中读取所述标定区域对应的特征参数;以及
通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。
本申请的实施例还提供了一种图像处理系统,包括:
图像获取模块,用于获取图像;
区域选择模块,用于选择所述图像的标定区域;
特征获取模块,用于从预设的分割模型中读取所述标定区域对应的特征参数;以及
分割模块,用于通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。
本申请的实施例还提供了一种图像处理系统,包括处理器和存储有程序的存储器,其中所述处理器执行所述存储器中存储的程序以执行:
获取图像;
选择所述图像的标定区域;
从预设的分割模型中读取所述标定区域对应的特征参数;以及
通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。
本申请实施例提供的图像处理方法及处理系统,通过分割模型中获取的特征参数,对图像进行分割,以生成标定区域所对应的分割结果。通过深度学习获取分割模型,其分割模型的鲁棒性强,且运用分割模型进行分割的准确率高,适用场景广泛。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。[0026]图1是根据本申请一实施例提供的图像处理方法的流程示意图;
图2是根据本申请一实施例提供的图像处理方法的流程示意图;
图3是根据本申请一实施例提供的图像处理系统的模块示意图;
图4是根据本申请一实施例提供的图像处理系统和处理方法的应用环境示意图;
图5A-5D分别是根据本申请实施例提供的训练图像、标定图像、测试图像、和分割结果的示意图。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都对应本申请保护的范围。
本发明的原理以实施在一适当的运算环境中来举例说明。以下的说明
是基于所示例的本申请的具体实施例,其不应被视为限制本申请未在此详述的其它具体实施例。
此处说明的本发明原理并不代表为一种限制。本领域技术人员将可了解到,以下所述的多种步骤及操作即可实施在软件中,也可实施在硬件中。本发明的原理使用许多其它泛用性或特定目的运算、通信环境或组态来进行操作。
请参阅图1,所示为根据本申请一实施例提供的图像处理方法的流程示意图。所述图像处理方法,可执行于终端、或服务器中。
所述图像处理方法,包括以下步骤S101-S104。
在步骤S101中,获取图像。
所述图像包括但不限于人物、风景、或物品等的图像。下面以人物图像为例。如图5C的图像所示,所述人物图像至少包括头部。所述人物图像可以是半身像或全身像、正面像或侧脸像;单人像或集体像等。
在步骤S102中,选择所述图像的标定区域。
以所述标定区域选择头发为例进行阐述。可以理解的是,所述标定区域还可以选择为:胡子、眉毛、眼睛、鼻子、嘴、衣服、或眼镜等。
在一种实现方式中,选择所述图像的标定区域可以包括:
(1)在所述图像中进行点选,并对点选处的特征进行提取,进而扩展到其相似的区域,以生成所选择的标定区域,如,在图5C所示的图像中点选头发区域中的至少任一点;或
(2)输入文字或点选虚拟文字框/文字按键的方式,从所述图像中选择标定区域,比如在图5C所示的图像的显示界面上输入:头发。
在步骤S103中,从预设的分割模型中读取所述标定区域对应的特征参数。
所述分割模型,可以理解为是通过深度学习所形成的分类器。进而采
用所述分类器对所述标定区域进行分析,以输出所述标定区域所对应的特征参数。
所述特征参数用于描述所述标定区域的特征,包括静态特征和/或动态特征。所述静态特征,是指已有图像中所展示出的或提取的特征参数,比如:从已有的3张图片所提取的头发的静态特征。所述动态特征,是指适应不同改变、不同景深、和/或不同遮挡所形成的过程参数,比如:从不同背景、不同位置、带帽子与否等图像中所提取的头发的动态变化的过程参数。
在步骤S104中,通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。
如图5D所示的分割结果的示意图,其中,头发作为标定区域,通常以第一颜色进行显示,而非标定区域可以通过第二颜色或虚化等方式进行显示。可以理解的是,若不显示所述非标定区域,可以视为以透明色或背景色作为第二颜色。
可选地,在生成了分割结果之后,还可以对所述分割结果进行变形、变色或/和替换处理。
可以理解的是,精确的头发分割,为一系列以头发为操作对象的产品提供了坚实的算法基础。在对所述标定区域进行分割之后,可以对分割结果进行进一步的处理。仍以头发为例,此处可以进行发型的变换,比如直发变卷发等;或染发处理,比如:单色染、多色的挑染、和多色漂染等;此处还可以对分割结果进行替换,比如短发变长发等。
另外,还可以通过变色、变形或/和替换处理,对所述图像中的人物进行虚拟换装,为虚拟现实(Virtual Reality,VR)提供技术支持。
本申请实施例提供的图像处理方法,通过分割模型中获取的特征参数,对图像进行分割,以生成标定区域所对应的分割结果,具有分割的准
确率高,适用场景广泛的优点。
请参阅图2,所示为根据本申请一实施例提供的图像处理方法的流程示意图。所述图像处理方法,通常执行于服务器中,用于通过深度学习训练,生成分割模型和参数,以供图1中的步骤S103进行读取。
所述图像处理方法包括以下步骤S201-S203。
在步骤S201中,获取多个训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域。
具体而言,本步骤包括以下步骤(1)-(5)。
(1)针对所述训练图像和/或标定图像设置多个采集标准。
其中,以标定图像为头发为例,其对应的采集标准包括但不限于:发型、颜色、光照强度、缩放尺度、和/或清晰度。可以理解的是,针对不同的标定图像,采集标准也会进行适应性调整,如标定图像为眼睛的采集标准还可加入形状和颜色,标定图像为鼻子还可以加入高度和形状等。
(2)根据所述多个采集标准,采集人物图像,以作为训练图像,如5A所示的训练图像。
(3)对所述训练图像中的至少一个标定区域进行标定,以生成所述训练图像所对应的标定图像,如图5B的标定图像所示,其中通常可以用第一颜色表示标定区域,用第二颜色表示未标定区域。
此外,通常选择一个标定区域,如头发。也可以一次选择多个标定区域,如包括头发、眉毛、和胡子在内的毛发。或选择一个笼统的区域,如面部。
(4)选择数据变换的方式,所述数据变换的方式包括但不限于:抖动处理、桶形畸变、枕形畸变、左旋、右旋、横向拉伸、纵向拉伸、亮度衰减、翻转、和/或裁剪等。
可以理解的是,为了使得分割模型更加鲁棒,训练集的训练图像和标
定图像应尽量包含各种场景下的情形,这些情形既可以通过采集获取,也可以通过数据变换的方式进行后期补充。这样的训练集才能覆盖更广泛,得到的分割模型也更加健壮和鲁棒。
(5)对所述训练图像和其对应的标定图像进行同一方式的数据变换,以获取成倍的训练数据。
可以理解的是,数据变换的目的在于,通过轻量级代价获取成倍的训练数据,避免繁冗的图像标注工作。通过扩大训练集,提升算法的准确率。
在步骤S202中,通过全卷积网络(Fully Convolutional Network,FCN),对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型。
具体而言,本步骤包括以下步骤(1)-(8)。
(1)通过深度学习平台定义分割模型的配置文件。
其中,所述深度学习平台,以现有的开源平台Caffe为例,一般采用梯度下降的规则对配置文件中的权重参数进行计算。可以理解的是,所述深度学习分为前向传播和后向反馈两个过程,其具有强大的自学习能力,可以对学习成果进行实时检验,具有极高的鲁棒性。
(2)初始化所述配置文件中各层的权重参数,所述权重参数为卷积层和全连接层的卷积核参数。
其中,常规的深度学习网络一般属于卷积神经网络(Convolutional Neural Network,CNN)类型的网络模型,所述CNN类型的网络模型由若干卷积层、少量采样层和最后几层全连接层组成。而著名的VGG网络正是一种典型的CNN类型的网络模块,它由13个卷积层、5个采样层、3个全连接层和一个回归层组成。在本步骤中,所述配置文件以VGG配置文件为例,其中所述配置文件的各层至少包括:卷积层和全连接层。
(3)通过所述权重参数对所述训练图像进行卷积计算,以得到所述训
练图像的特征图。
可以理解的是,VGG网络具有强大的图像鉴别能力,可用于对图像进行分类。其中,首先将VGG网络中的全连接层转换为卷积层,再计算回归层对输入数据的概率统计,并针对整图主体目标的分类进行逻辑回归计算,而最后一层的回归层由于输入数据变成了图像数据,因此进行每个像素的分类回归计算,从而最终得到每个像素的分类属性。由于本文的像素属性仅分为头发和背景两个分类,因此最终的分割结果能准确的表征头发区域范围,即得到了训练图像的特征图。
(4)对比所述特征图和所述标定图像,并进行回归统计,以得到误差值。
至此,则完成了深度学习平台的前向传播过程。此外,补充说明的是,在测试过程中,仅需执行前向传播即可。
(5)根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型。
具体而言,本步骤包括:逐层计算所述误差值对配置文件中各层输入数据的偏导值;将所述偏导值叠加到该层的权重参数后,对该层权重参数进行一次修正。至此,则完成了深度学习平台的向后反馈过程。
(6)当完成一次迭代后,判断所述误差值是否小于预设值。
其中,所述前向传播与所述后向反馈合在一起称之为一次迭代。可以理解的是,每次迭代之后,权重参数都会得到一次修正,误差值也会趋于减小,即通过梯度下降的规则对配置文件中的权重参数进行计算和修正。
(7)若所述误差值不小于所述预设值,则继续进行所述深度学习训练,直至生成小于所述预设值的误差值。
(8)若所述误差值小于所述预设值,则完成所述深度学习训练。
可以理解的是,如此经过超大规模次数的迭代后,误差值将不再明显
减小,而恒定在一个极小值,此时称之为网络已收敛,由于误差值已很小,此时分割网络的输入结果与标定图几乎一致,也即生成了所述分割模型。
在步骤S203中,通过所述分割模型对所述标定区域进行分析,以生成所述标定区域所对应的特征参数。
其中,所述分割模型,可以理解为是通过深度学习所形成的分类器。进而采用所述分类器对所述标定区域进行分析,以输出所述标定区域所对应的特征参数。
所述特征参数用于描述所述标定区域的特征,包括静态特征和/或动态特征。所述静态特征,是指已有图像中所展示出的或提取的特征参数,比如:从已有的3张图片所提取的头发的静态特征。所述动态特征,是指适应不同改变、不同景深、和/或不同遮挡所形成的过程参数,比如:从不同背景、不同位置、带帽子与否等图像中所提取的头发的动态变化的过程参数。
本申请实施例提供的图像处理方法,通过分割模型中获取的特征参数,对图像进行分割,以生成标定区域所对应的分割结果,其分割模型进行深度学习的鲁棒性强,且运用分割模型进行分割的准确率高,适用场景广泛。
请参阅图3,所示为根据本申请一实施例提供的一种图像处理系统的基本模块示意图。
所述图像处理系统3,包括训练子单元31和执行子单元32。可以理解的是,所述训练子单元31通常执行于服务器中,用于构建图像处理所依据的分割模型。所述执行子单元32可执行于服务器或终端中,用于基于上述分割模型执行图像处理任务。
具体而言,所述训练子单元31又称训练模块,包括:获取子模块311、模型子模块312、和参数子模块313。
获取子模块311,用于获取训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域。
可以理解的是,为了获取包括海量训练图像和标定图像的训练集,可以通过针对所述训练图像和/或标定图像设置多个采集标准、以及对已有训练集进行数据变换的方式进行后期补充。这样的训练集才能覆盖更广泛,得到的分割模型也更加健壮和鲁棒。
其中,以标定图像为头发为例,其对应的采集标准包括但不限于:发型、颜色、光照强度、缩放尺度、和/或清晰度。可以理解的是,针对不同的标定图像,采集标准也会进行适应性调整,如标定图像为眼睛的采集标准还可加入形状和颜色,标定图像为鼻子还可以加入高度和形状等。
所述数据变换的方式包括但不限于:抖动处理、桶形畸变、枕形畸变、左旋、右旋、横向拉伸、纵向拉伸、亮度衰减、翻转、和/或裁剪等。可以理解的是,数据变换的目的在于,通过轻量级代价获取成倍的训练数据,避免繁冗的图像标注工作。通过扩大训练集,提升算法的准确率。
模型子模块312,用于通过全卷积网络,对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型。
具体而言,所述模型子模块312,包括:
文件子模块3121,用于通过深度学习平台定义分割模型的配置文件。
以下,通过现有的深度学习的开源平台Caffe为例进行分析,可以理解的是,采用其他深度学习平台亦可,但需些微不脱离本实施例本质的调整。可以理解的是,所述深度学习分为前向传播和后向反馈两个过程,其具有强大的自学习能力,可以对学习成果进行实时检验,具有极高的鲁棒性。
初始子模块3122,用于初始化所述配置文件中各层的权重参数,所述权重参数为卷积层和全连接层的卷积核参数。
可以理解的是,VGG网络具有强大的图像鉴别能力,可用于对图像进行分类。故,以下,配置文件为VGG配置文件为例,则所述配置文件的各层至少包括:卷积层和全连接层。
特征子模块3123,用于通过所述权重参数对所述训练图像进行卷积计算,以得到所述训练图像的特征图。
具体而言,所述卷积计算的过程,包括:首先将VGG网络中的全连接层转换为卷积层,再计算回归层对输入数据的概率统计,并针对整图主体目标的分类进行逻辑回归计算,而最后一层的回归层由于输入数据变成了图像数据,因此进行每个像素的分类回归计算,从而最终得到每个像素的分类属性。由于本文的像素属性仅分为头发和背景两个分类,因此最终的分割结果能准确的表征头发区域范围,即得到了训练图像的特征图。
误差子模块3124,用于对比所述特征图和所述标定图像,并进行回归统计,以得到误差值。
至此,则完成了深度学习平台的前向传播过程。此外,补充说明的是,在测试过程中,仅需执行前向传播即可。
修正子模块3125,用于根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型。
具体而言,所述修正过程包括:逐层计算所述误差值对配置文件中各层输入数据的偏导值;将所述偏导值叠加到该层的权重参数后,对该层权重参数进行一次修正。至此,则完成了深度学习平台的向后反馈过程。
判断子模块3126,用于当完成一次迭代后,判断所述误差值是否小于预设值。
其中,所述前向传播与所述后向反馈合在一起称之为一次迭代。可以理解的是,每次迭代之后,权重参数都会得到一次修正,误差值也会趋于减小,即通过梯度下降的规则对配置文件中的权重参数进行计算和修正。
成熟子模块3127,用于当所述误差值不小于所述预设值,则继续进行所述深度学习训练,直至生成小于所述预设值的误差值,并当小于时,完成所述深度学习训练,并生成分割模型。
可以理解的是,如此经过超大规模次数的迭代后,误差值将不再明显减小,而恒定在一个极小值,此时称之为网络已收敛,由于误差值已很小,此时分割网络的输入结果与标定图几乎一致,也即生成了所述分割模型。
参数子模块313,用于通过所述分割模型对所述标定区域进行分析,以生成所述标定区域所对应的特征参数。
所述执行子单元32也可用作训练之后的测试。所述执行子单元32包括:图像获取模块321、区域选择模块322、特征获取模块323、和分割模块324。
图像获取模块321,用于获取图像。其中,所述图像包括但不限于:人物、风景、或物品等的图像。本文如下皆以人物图像为例。如图5C的测试图像所示,所述人物图像至少要包括头部。所述人物图像可以是半身像或全身像、正面像或侧脸像;单人像或集体像等。
区域选择模块322,用于选择所述图像的标定区域。其中,以所述标定区域以头发为例进行阐述。可以理解的是,所述标定区域还可以选择为:胡子、眉毛、眼睛、鼻子、嘴、衣服、或眼镜等。
所述区域选择模块322包括:图内选择子模块3221,用于在所述测试图像中进行点选,并对点选处的特征进行提取,进而扩展到其相似的区域,以生成所选择的标定区域;或/和图外选择子模块3222,用于输入文字或点选虚拟文字框/文字按键的方式,从所述测试图像中选择标定区域。
特征获取模块323,用于从预设的分割模型中读取所述标定区域对应的特征参数。
其中,所述分割模型,可以理解为是通过深度学习所形成的分类器。
进而采用所述分类器对所述标定区域进行分析,以输出所述标定区域所对应的特征参数。所述特征参数用于描述所述标定区域的特征,包括静态特征和/或动态特征。所述静态特征,是指已有图像中所展示出的或提取的特征参数,比如:从已有的3张图片所提取的头发的静态特征。所述动态特征,是指适应不同改变、不同景深、和/或不同遮挡所形成的过程参数,比如:从不同背景、不同位置、带帽子与否等图像中所提取的头发的动态变化的过程参数。
分割模块324,用于通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。
其中,如图5D所示的分割结果的示意图,其中,头发作为标定区域,通常以第一颜色进行显示,而非标定区域可以通过第二颜色或虚化等方式进行显示。可以理解的是,若不显示所述非标定区域,可以视为以透明色或背景色作为第二颜色。
此外,所述图像处理系统3还包括:优化模块33,用于对所述分割结果进行变形或变色处理。
可以理解的是,精确的头发分割,为一系列以头发为操作对象的产品提供了坚实的算法基础。在对所述标定区域进行分割之后,可以对分割结果进行进一步的处理。仍以头发为例,此处可以进行发型的变换,比如直发变卷发等;或染发处理,比如:单色染、多色的挑染、和多色漂染等;此处还可以对分割结果进行替换,比如短发变长发等。
另外,还可以通过变色、变形或/和替换处理,对所述图像中的人物进行虚拟换装,为虚拟现实(Virtual Reality,VR)提供技术支持。
本申请实施例提供的图像处理系统,通过分割模型中获取的特征参数,对测试图像进行分割,以生成标定区域所对应的分割结果,具有分割的准确率高,适用场景广泛的优点。
请参阅图4,所示为本申请实施例提供的图像处理系统和处理方法的应用环境的示意图。其中,图像处理任务可以描述为:
训练阶段,由服务器41执行,通过相关的配置文件,指定网络结构信息、数据集信息、训练参数,可以使用Caffe的train功能进行网络的训练,训练的最终结果是得到一个.caffemodel模型文件,即,分割模型及各标定区域所对应的特征参数。
其中,需要说明的是,由于深度学习平台由于计算复杂度大,所述服务器41一般同时支持中央处理器(CPU)和图形处理器(GPU)两种方式实现。可以理解的是,GPU相比CPU具有更专业的硬件计算资源,其一次计算速度较CPU快几倍至几十倍。由于基于精准度高的VGG分类网络,同样计算复杂度较大,因此更适合于用GPU来计算。用GPU计算时,我们的头发分割能达到准实时的效果,而用CPU计算亦可,但需要若干秒时间,其具体的性能对比如下表所示。
表1在CPU和GPU以及不同分辨率下的算法耗时
测试阶段,由终端设备42、43或服务器41执行,通过Caffe的测试接口(通常是Python或Matlab的接口),载入.caffemodel模型文件,在内存里生成网络模型。指定输入数据(通常是一个或多个图像文件)作为测试图像,获得网络的输出作为分割结果。
通信网络44,用于在服务器41与终端设备42、43之间传递所述分割模型、特征参数、和/或分割结果。
本申请实施例提供的图像处理系统和处理方法属于同一构思。虽然各实施例的侧重不同,但其设计思想是一致的。且,在某个实施例中没有详述的部分,可以参见说明书全文的详细描述,不再赘述。
本申请实施例还提供了一种图像处理系统,其包括处理器和存储有程序的存储器,其中所述处理器执行所述存储器中存储的程序以执行上述图像处理方法。
综上所述,虽然本发明已以优选实施例揭露如上,但上述优选实施例并非用以限制本发明,本领域的普通技术人员,在不脱离本发明的精神和范围内,均可作各种更动与润饰,因此本发明的保护范围以权利要求界定的范围为准。
Claims (15)
- 一种图像处理方法,其特征在于,包括:获取图像;选择所述图像的标定区域;从预设的分割模型中读取所述标定区域对应的特征参数;以及通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。
- 如权利要求1所述的处理方法,其特征在于,获取图像之前还包括:获取训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域;通过全卷积网络,对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型;以及通过所述分割模型对所述标定区域进行分析,以生成所述标定区域所对应的特征参数。
- 如权利要求2所述的处理方法,其特征在于,所述通过全卷积网络,对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型,包括:通过深度学习平台定义分割模型的配置文件;初始化所述配置文件中各层的权重参数,所述权重参数为卷积层和全连接层的卷积核参数;通过所述权重参数对所述训练图像进行卷积计算,以得到所述训练图 像的特征图;对比所述特征图和所述标定图像,并进行回归统计,以得到误差值;以及根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型。
- 如权利要求3所述的处理方法,其特征在于,所述根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型,包括:计算所述误差值对配置文件中各层输入数据的偏导值,所述各层包括:卷基层和全连接层;以及将所述偏导值叠加到该层的权重参数后,对该层权重参数进行一次修正。
- 如权利要求3所述的处理方法,其特征在于,根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型,之后还包括:判断所述误差值是否小于预设值;若所述误差值小于所述预设值,则完成所述深度学习训练;或若所述误差值不小于所述预设值,则继续进行所述深度学习训练,直至生成小于所述预设值的误差值。
- 如权利要求2所述的处理方法,其特征在于,获取训练图像和所述训练图像对应的标定图像,包括:采集人物图像,作为训练图像;对所述训练图像中的至少一个标定区域进行标定,以生成所述训练图像所对应的标定图像。
- 如权利要求6所述的处理方法,其特征在于,采集人物图像,作为训练图像,之前还包括:设置多个采集标准,所述采集标准包括:发型、颜色、光照强度、缩放尺度、和/或清晰度;以及所述采集人物图像包括:根据所述多个采集标准,采集人物图像。
- 如权利要求6或7所述的处理方法,其特征在于,对所述训练图像中的至少一个标定区域进行标定,以生成所述训练图像所对应的标定图像,之后还包括:选择数据变换的方式,包括:抖动处理、桶形畸变、枕形畸变、左旋、右旋、横向拉伸、纵向拉伸、亮度衰减、翻转、和/或裁剪;以及对所述训练图像和其对应的标定图像进行同一方式的数据变换,以获取成倍的训练数据。
- 如权利要求1所述的处理方法,其特征在于,通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果,之后还包括:对所述分割结果进行变形或变色处理。
- 如权利要求1所述的处理方法,其特征在于,选择所述图像的标定区域,包括:在所述图像中通过点选的方式选择标定区域;或通过输入文字或通过点选文字或虚拟按键的方式,从所述图像中选择标定区域。
- 一种图像处理系统,其特征在于,包括:图像获取模块,用于获取图像;区域选择模块,用于选择所述图像的标定区域;特征获取模块,用于从预设的分割模型中读取所述标定区域对应的特征参数;以及分割模块,用于通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。
- 如权利要求11所述的处理系统,其特征在于,还包括训练模块,所述训练模块包括:获取子模块,用于获取训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域;模型子模块,用于通过全卷积网络,对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型;以及参数子模块,用于通过所述分割模型对所述标定区域进行分析,以生成所述标定区域所对应的特征参数。
- 如权利要求11所述的处理系统,其特征在于,还包括:优化模块,用于对所述分割结果进行变形或变色处理。
- 如权利要求11所述的处理系统,其特征在于,所述区域选择模块包括:图内选择子模块,用于在所述测试图像中通过点选的方式选择标定区域;或图外选择子模块,用于通过输入文字或通过点选文字或虚拟按键的方式,从所述图像中选择标定区域。
- 一种图像处理系统,其特征在于,包括处理器和存储有程序的存 储器,其中所述处理器执行所述存储器中存储的程序以执行:获取图像;选择所述图像的标定区域;从预设的分割模型中读取所述标定区域对应的特征参数;以及通过所述特征参数对所述图像进行分割,以生成所述标定区域所对应的分割结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/949,719 US10810742B2 (en) | 2016-05-09 | 2018-04-10 | Dynamic and static image processing method and system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610302568.8 | 2016-05-09 | ||
CN201610302568.8A CN106022221B (zh) | 2016-05-09 | 2016-05-09 | 一种图像处理方法及处理系统 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US15/949,719 Continuation US10810742B2 (en) | 2016-05-09 | 2018-04-10 | Dynamic and static image processing method and system |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017193906A1 true WO2017193906A1 (zh) | 2017-11-16 |
Family
ID=57099208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2017/083583 WO2017193906A1 (zh) | 2016-05-09 | 2017-05-09 | 一种图像处理方法及处理系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10810742B2 (zh) |
CN (1) | CN106022221B (zh) |
WO (1) | WO2017193906A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112612980A (zh) * | 2020-12-22 | 2021-04-06 | 北京百度网讯科技有限公司 | 图片服务方法、装置、设备、存储介质及计算机程序产品 |
CN112801164A (zh) * | 2021-01-22 | 2021-05-14 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、装置、设备及存储介质 |
CN113674338A (zh) * | 2018-12-14 | 2021-11-19 | 北京市商汤科技开发有限公司 | 双心室量化方法、装置、电子设备及存储介质 |
EP3876190A4 (en) * | 2018-10-30 | 2021-12-29 | Tencent Technology (Shenzhen) Company Limited | Endoscopic image processing method and system and computer device |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022221B (zh) * | 2016-05-09 | 2021-11-30 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
CN106529555B (zh) * | 2016-11-04 | 2019-12-06 | 四川大学 | 一种基于全卷积网络的dr片肺轮廓提取方法 |
CN106611160B (zh) * | 2016-12-15 | 2019-12-17 | 中山大学 | 一种基于卷积神经网络的图像头发识别方法及其装置 |
CN106778705B (zh) * | 2017-02-04 | 2020-03-17 | 中国科学院自动化研究所 | 一种行人个体分割方法及装置 |
CN106897682A (zh) * | 2017-02-15 | 2017-06-27 | 电子科技大学 | 一种基于卷积神经网络的白带中白细胞自动识别方法 |
CN107025629B (zh) * | 2017-04-27 | 2021-03-26 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
JP6487493B2 (ja) * | 2017-05-18 | 2019-03-20 | ファナック株式会社 | 画像処理システム |
CN108229479B (zh) | 2017-08-01 | 2019-12-31 | 北京市商汤科技开发有限公司 | 语义分割模型的训练方法和装置、电子设备、存储介质 |
CN107590811B (zh) * | 2017-09-29 | 2021-06-29 | 北京奇虎科技有限公司 | 基于场景分割的风景图像处理方法、装置及计算设备 |
CN107862326A (zh) * | 2017-10-30 | 2018-03-30 | 昆明理工大学 | 一种基于全卷积神经网络的成熟苹果识别方法 |
CN107767391A (zh) * | 2017-11-02 | 2018-03-06 | 北京奇虎科技有限公司 | 风景图像处理方法、装置、计算设备及计算机存储介质 |
CN108205659A (zh) * | 2017-11-30 | 2018-06-26 | 深圳市深网视界科技有限公司 | 人脸遮挡物去除及其模型构建的方法、设备及介质 |
CN108280397B (zh) * | 2017-12-25 | 2020-04-07 | 西安电子科技大学 | 基于深度卷积神经网络的人体图像头发检测方法 |
CN109191388A (zh) * | 2018-07-27 | 2019-01-11 | 上海爱优威软件开发有限公司 | 一种暗图像处理方法及系统 |
CN109117760B (zh) * | 2018-07-27 | 2021-01-22 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备和计算机可读介质 |
CN109344840B (zh) * | 2018-08-07 | 2022-04-01 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
CN109308679B (zh) | 2018-08-13 | 2022-08-30 | 深圳市商汤科技有限公司 | 一种图像风格转换方法及装置、设备、存储介质 |
CN109359527B (zh) * | 2018-09-11 | 2020-09-04 | 杭州格像科技有限公司 | 基于神经网络的头发区域提取方法及系统 |
EP3627444A1 (en) * | 2018-09-20 | 2020-03-25 | L'oreal | Method and system for determining a characteristic of a keratinous surface and method and system for treating said keratinous surface |
CN109602373B (zh) * | 2018-12-06 | 2020-08-14 | 浙江思密达智能装备有限公司 | 泡沫检测报警机构 |
CN111382647B (zh) * | 2018-12-29 | 2021-07-30 | 广州市百果园信息技术有限公司 | 一种图片处理方法、装置、设备及存储介质 |
CN109819318B (zh) * | 2019-02-02 | 2022-03-22 | 广州虎牙信息科技有限公司 | 一种图像处理、直播方法、装置、计算机设备及存储介质 |
CN110211065B (zh) * | 2019-05-23 | 2023-10-20 | 九阳股份有限公司 | 一种食材图像的颜色校正方法和装置 |
CN110298797B (zh) * | 2019-06-12 | 2021-07-09 | 博微太赫兹信息科技有限公司 | 一种基于卷积神经网络的毫米波图像处理方法 |
CN112133260B (zh) * | 2019-06-24 | 2022-06-07 | 腾讯科技(深圳)有限公司 | 图像调节方法及装置 |
CN110969631B (zh) * | 2019-11-25 | 2023-04-11 | 杭州小影创新科技股份有限公司 | 一种精细化照片染发方法及系统 |
CN114078083A (zh) * | 2020-08-11 | 2022-02-22 | 北京达佳互联信息技术有限公司 | 头发变换模型生成方法和装置、头发变换方法和装置 |
CN112070094B (zh) * | 2020-11-11 | 2021-04-27 | 北京达佳互联信息技术有限公司 | 训练数据的筛选方法、装置、电子设备及存储介质 |
CN113689437A (zh) * | 2021-07-26 | 2021-11-23 | 南京理工大学 | 基于迭代式选择-修正网络的交互式图像分割方法 |
CN116664585B (zh) * | 2023-08-02 | 2023-11-24 | 瑞茜时尚(深圳)有限公司 | 基于深度学习的头皮健康状况检测方法及相关装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101308571A (zh) * | 2007-05-15 | 2008-11-19 | 上海中科计算技术研究所 | 一种利用主动网格与人脸识别结合生成新人脸的方法 |
CN102436637A (zh) * | 2010-09-29 | 2012-05-02 | 中国科学院计算技术研究所 | 从头部图像中自动分割头发的方法及其系统 |
CN102831396A (zh) * | 2012-07-23 | 2012-12-19 | 常州蓝城信息科技有限公司 | 一种计算机人脸识别方法 |
CN106022221A (zh) * | 2016-05-09 | 2016-10-12 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5181171A (en) * | 1990-09-20 | 1993-01-19 | Atlantic Richfield Company | Adaptive network for automated first break picking of seismic refraction events and method of operating the same |
US5732697A (en) * | 1995-11-22 | 1998-03-31 | Arch Development Corporation | Shift-invariant artificial neural network for computerized detection of clustered microcalcifications in mammography |
CN101046880A (zh) * | 2006-03-27 | 2007-10-03 | 腾讯科技(深圳)有限公司 | 一种在三维模型中显示人物图像的方法及装置 |
JP4764273B2 (ja) * | 2006-06-30 | 2011-08-31 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、記憶媒体 |
CN102436636B (zh) * | 2010-09-29 | 2013-09-25 | 中国科学院计算技术研究所 | 自动分割头发的方法及其系统 |
CN102103690A (zh) * | 2011-03-09 | 2011-06-22 | 南京邮电大学 | 一种自动的头发区域分割方法 |
CN102609958A (zh) * | 2012-01-19 | 2012-07-25 | 北京三星通信技术研究有限公司 | 视频对象提取的方法及设备 |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
ES2864149T3 (es) * | 2014-03-06 | 2021-10-13 | Progress Inc | Red neuronal y método de entrenamiento de red neuronal |
CN104123749A (zh) * | 2014-07-23 | 2014-10-29 | 邢小月 | 一种图像处理方法及系统 |
TWI553565B (zh) * | 2014-09-22 | 2016-10-11 | 銘傳大學 | 利用二維臉部影像估測其三維角度方法,及其臉部置換資料庫建立方法與臉部影像置換方法 |
US9460517B2 (en) * | 2014-10-22 | 2016-10-04 | Pointivo, Inc | Photogrammetric methods and devices related thereto |
WO2016086744A1 (en) * | 2014-12-02 | 2016-06-09 | Shanghai United Imaging Healthcare Co., Ltd. | A method and system for image processing |
US10061972B2 (en) * | 2015-05-28 | 2018-08-28 | Tokitae Llc | Image analysis systems and related methods |
US9884623B2 (en) * | 2015-07-13 | 2018-02-06 | GM Global Technology Operations LLC | Method for image-based vehicle localization |
CN105354565A (zh) * | 2015-12-23 | 2016-02-24 | 北京市商汤科技开发有限公司 | 基于全卷积网络人脸五官定位与判别的方法及系统 |
US10083378B2 (en) * | 2015-12-28 | 2018-09-25 | Qualcomm Incorporated | Automatic detection of objects in video images |
US9916524B2 (en) * | 2016-02-17 | 2018-03-13 | Microsoft Technology Licensing, Llc | Determining depth from structured light using trained classifiers |
-
2016
- 2016-05-09 CN CN201610302568.8A patent/CN106022221B/zh active Active
-
2017
- 2017-05-09 WO PCT/CN2017/083583 patent/WO2017193906A1/zh active Application Filing
-
2018
- 2018-04-10 US US15/949,719 patent/US10810742B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101308571A (zh) * | 2007-05-15 | 2008-11-19 | 上海中科计算技术研究所 | 一种利用主动网格与人脸识别结合生成新人脸的方法 |
CN102436637A (zh) * | 2010-09-29 | 2012-05-02 | 中国科学院计算技术研究所 | 从头部图像中自动分割头发的方法及其系统 |
CN102831396A (zh) * | 2012-07-23 | 2012-12-19 | 常州蓝城信息科技有限公司 | 一种计算机人脸识别方法 |
CN106022221A (zh) * | 2016-05-09 | 2016-10-12 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3876190A4 (en) * | 2018-10-30 | 2021-12-29 | Tencent Technology (Shenzhen) Company Limited | Endoscopic image processing method and system and computer device |
US11849914B2 (en) | 2018-10-30 | 2023-12-26 | Tencent Technology (Shenzhen) Company Limited | Endoscopic image processing method and system, and computer device |
CN113674338A (zh) * | 2018-12-14 | 2021-11-19 | 北京市商汤科技开发有限公司 | 双心室量化方法、装置、电子设备及存储介质 |
CN112612980A (zh) * | 2020-12-22 | 2021-04-06 | 北京百度网讯科技有限公司 | 图片服务方法、装置、设备、存储介质及计算机程序产品 |
CN112612980B (zh) * | 2020-12-22 | 2024-03-01 | 北京百度网讯科技有限公司 | 图片服务方法、装置、设备、存储介质及计算机程序产品 |
CN112801164A (zh) * | 2021-01-22 | 2021-05-14 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、装置、设备及存储介质 |
CN112801164B (zh) * | 2021-01-22 | 2024-02-13 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106022221B (zh) | 2021-11-30 |
US20180225828A1 (en) | 2018-08-09 |
US10810742B2 (en) | 2020-10-20 |
CN106022221A (zh) | 2016-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017193906A1 (zh) | 一种图像处理方法及处理系统 | |
US11468636B2 (en) | 3D hand shape and pose estimation | |
US11403874B2 (en) | Virtual avatar generation method and apparatus for generating virtual avatar including user selected face property, and storage medium | |
US9978003B2 (en) | Utilizing deep learning for automatic digital image segmentation and stylization | |
EP3338217B1 (en) | Feature detection and masking in images based on color distributions | |
US9639914B2 (en) | Portrait deformation method and apparatus | |
US9547908B1 (en) | Feature mask determination for images | |
US20230237841A1 (en) | Occlusion Detection | |
US10318797B2 (en) | Image processing apparatus and image processing method | |
WO2022156640A1 (zh) | 一种图像的视线矫正方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
JP2020522285A (ja) | 全身測定値抽出のためのシステムおよび方法 | |
WO2022095721A1 (zh) | 参数估算模型的训练方法、装置、设备和存储介质 | |
CN114187633B (zh) | 图像处理方法及装置、图像生成模型的训练方法及装置 | |
WO2022037170A1 (zh) | 一种增强图像实例分割的方法、系统、设备及介质 | |
US11631154B2 (en) | Method, apparatus, device and storage medium for transforming hairstyle | |
CN111127309A (zh) | 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置 | |
US10803677B2 (en) | Method and system of automated facial morphing for eyebrow hair and face color detection | |
CN109376618B (zh) | 图像处理方法、装置及电子设备 | |
KR20200097201A (ko) | 딥 러닝 기반 3d 데이터 생성 방법 및 장치 | |
CN113223128B (zh) | 用于生成图像的方法和装置 | |
CN114820907A (zh) | 人脸图像卡通化处理方法、装置、计算机设备和存储介质 | |
KR20200071008A (ko) | 2차원 이미지 처리 방법 및 이 방법을 실행하는 디바이스 | |
US11830236B2 (en) | Method and device for generating avatar, electronic equipment, medium and product | |
KR20240003744A (ko) | 주변인 및 부착된 객체 제거 | |
CN115482413A (zh) | 图像分类网络的训练方法、图像分类方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17795524 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17795524 Country of ref document: EP Kind code of ref document: A1 |