CN106022221A - 一种图像处理方法及处理系统 - Google Patents
一种图像处理方法及处理系统 Download PDFInfo
- Publication number
- CN106022221A CN106022221A CN201610302568.8A CN201610302568A CN106022221A CN 106022221 A CN106022221 A CN 106022221A CN 201610302568 A CN201610302568 A CN 201610302568A CN 106022221 A CN106022221 A CN 106022221A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- region
- generate
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000012545 processing Methods 0.000 title claims abstract description 23
- 238000012360 testing method Methods 0.000 claims abstract description 58
- 230000011218 segmentation Effects 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims description 75
- 210000004209 hair Anatomy 0.000 claims description 49
- 238000013135 deep learning Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 241000226585 Antennaria plantaginifolia Species 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 230000003068 static effect Effects 0.000 description 9
- 230000000644 propagated effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000037308 hair color Effects 0.000 description 5
- PLXMOAALOJOTIY-FPTXNFDTSA-N Aesculin Natural products OC[C@@H]1[C@@H](O)[C@H](O)[C@@H](O)[C@H](O)[C@H]1Oc2cc3C=CC(=O)Oc3cc2O PLXMOAALOJOTIY-FPTXNFDTSA-N 0.000 description 4
- 238000004043 dyeing Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000004308 accommodation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种图像处理方法及处理系统,包括:获取测试图像;选择所述测试图像的标定区域;从预设的分割模型中读取所述标定区域对应的特征参数;通过所述特征参数对所述测试图像进行分割,以生成所述标定区域所对应的分割结果。本发明通过分割模型中的特征参数对测试图像进行分割,其分割模型进行深度学习的鲁棒性强,且运用分割模型进行分割的准确率高,适用场景广泛。
Description
技术领域
本发明属于领域图像处理领域,尤其涉及一种图像处理方法及处理系统。
背景技术
头发对人的整体形象,起着至关重要的作用,因此近些年来引起了越来越多的关注。在拍照、美图、和社交平台等应用中,对头发的分割往往成为首要任务之一。
在现有技术中,一般是通过人脸检测技术进行人脸定位,之后进行头发区域评估,同时根据头发颜色等计算每个像素属于头发区域的概率,最后综合位置信息和颜色概率进行全局头发分割。
现有技术的缺点在于:
第一步的人脸定位,其算法极大取决于人脸的几何位置和人脸区域的完整性,因此针对侧脸或人脸部分遮挡的图像则极易定位失败,降低定位的准确率;
第二步的头发区域估计,由于头发形状分布的多样性,如长发,短发、散发等各种发型,使得头发区域具有不稳定的统计信息,降低估计的准确率;
第三步的利用头发颜色的统计信息进行概率计算,由于头发颜色同样具有分布广泛等特征,针对不同人种以及染发颜色的多样性,导致头发颜色统计信息可靠性低,进而降低概率计算的准确率;
最后,由于采用传统图像处理技术,将以上若干步骤进行串行处理,所有环节的错误率将累加在一起,进而加剧了准确率的降低、导致鲁棒性能差。
发明内容
有鉴于此,本发明的目的在于提供一种图像处理方法及处理系统,用于解决传统图像处理技术中,准确率低、鲁棒性能差等技术问题。
为解决上述技术问题,本发明的实施例提供了一种图像处理方法,包括:
获取测试图像;
选择所述测试图像的标定区域;
从预设的分割模型中读取所述标定区域对应的特征参数;以及
通过所述特征参数对所述测试图像进行分割,以生成所述标定区域所对应的分割结果。
为解决上述技术问题,本发明的实施例还提供了一种图像处理系统,包括:
图像模块,用于获取测试图像;
区域模块,用于选择所述测试图像的标定区域;
特征模块,用于从预设的分割模型中读取所述标定区域对应的特征参数;以及
分割模块,用于通过所述特征参数对所述测试图像进行分割,以生成所述标定区域所对应的分割结果。
本发明实施例提供的图像处理方法及处理系统,通过分割模型中的特征参数,对测试图像进行分割,以生成标定区域所对应的分割结果,其分割模型进行深度学习的鲁棒性强,且运用分割模型进行分割的准确率高,适用场景广泛。
附图说明
图1是本发明实施例一提供的图像处理方法的流程示意图;
图2是本发明实施例二提供的图像处理方法的流程示意图;
图3是本发明实施例三提供的图像处理系统的模块示意图;
图4是本发明实施例五提供的图像处理系统和处理方法的应用环境示意图;
图5A~5D分别是本发明实施例提供的训练图像、标定图像、测试图像、和分割结果的示意图。
具体实施方式
请参照附图中的图式,其中相同的组件符号代表相同的组件,本发明的原理是以实施在一适当的运算环境中来举例说明。以下的说明是基于所示例的本发明的具体实施例,其不应被视为限制本发明未在此详述的其它具体实施例。
本发明原理以上述文字来说明,其并不代表为一种限制,本领域技术人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。本发明的原理使用许多其它泛用性或特定目的运算、通信环境或组态来进行操作。
实施例一
请参阅图1,所示为本发明实施例提供的图像处理方法的基本流程示意图。所述图像处理方法,可执行于终端、或服务器中。
所述图像处理方法,包括:
在步骤S101中,获取测试图像。
其中,所述测试图像包括但不限于:人物、风景、或物品等,本文如下皆以人物图像为例,如图5C的测试图像所示,所述人物图像至少要包括头部,可以是半身像或全身像、正面像或侧脸像;单人像或集体像等。
在步骤S102中,选择所述测试图像的标定区域。
其中,以所述标定区域选择头发为例进行阐述。可以理解的是,所述标定区域还可以选择为:胡子、眉毛、眼睛、鼻子、嘴、衣服、或眼镜等。
具体而言,所述选择所述测试图像的标定区域,包括:
(1)在所述测试图像中进行点选,并对点选处的特征进行提取,进而扩展到其相似的区域,以生成所选择的标定区域,如,在图5C所示的测试图像中点选头发区域中的至少任一点;或
(2)输入文字或或点选虚拟文字框/文字按键的方式,从所述测试图像中选择标定区域,比如在图5C所示的测试图像的显示界面上输入:头发。
在步骤S103中,从预设的分割模型中读取所述标定区域对应的特征参数。
其中,所述分割模型,可以理解为是通过深度学习所形成的分类器。进而采用所述分类器对所述标定区域进行分析,以输出所述标定区域所对应的特征参数。
所述特征参数用于描述所述标定区域的特征,包括静态特征和/或动态特征。所述静态特征,是指已有图像中所展示出的或提取的特征参数,比如:从已有的3张图片所提取的头发的静态特征。所述动态特征,是指适应不同改变、不同景深、和/或不同遮挡所形成的过程参数,比如:从不同背景、不同位置、带帽子与否等图像中所提取的头发的动态变化的过程参数。
在步骤S104中,通过所述特征参数对所述测试图像进行分割,以生成所述标定区域所对应的分割结果。
如图5D所示的分割结果的示意图,其中,头发作为标定区域,通常以第一颜色进行显示,而非标定区域可以通过第二颜色或虚化等方式进行显示,可以理解的是,若不显示所述非标定区域,可以视为以透明色或背景色作为第二颜色。
在步骤S105中,对所述分割结果进行变形、变色或/和替换处理。
可以理解的是,精确的头发分割,为一系列以头发为操作对象的产品具有了坚实的算法基础,因此,在对所述标定区域进行分割之后,可以进行进一步的美化处理。仍以头发为例,此处可以进行发型的变换,比如直发变卷发等;或染发处理,比如:单色染、多色的挑染、和多色漂染等;此处还可以对分割结果进行替换,比如短发变长发等。
同时,我们还可以通过所述变色、变形或/和替换处理,还可以用于对所述测试图像中的人物进行虚拟换装,为当下虚拟现实(Virtual Reality,VR)提供技术支持。
本发明实施例提供的图像处理方法,通过分割模型中的特征参数,对测试图像进行分割,以生成标定区域所对应的分割结果,具有分割的准确率高,适用场景广泛的优点。
实施例二
请参阅图2,所示为本发明实施例提供的图像处理方法的流程示意图。所述图像处理方法,通常执行于服务器中,用于通过深度学习训练,以生成分割模型和参数,以供图1中的步骤S103进行读取。
所述图像处理方法,还包括:
在步骤S201中,获取训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域。
具体而言,本步骤包括:
(1)针对所述训练图像和/或标定图像设置多个采集标准;
其中,以标定图像为头发为例,其对应的采集标准包括但不限于:发型、颜色、光照强度、缩放尺度、和/或清晰度。可以理解的是,针对不同的标定图像,采集标准也会进行适应性调整,如标定图像为眼睛的采集标准还可加入形状和颜色,标定图像为鼻子还可以加入高度和形状等;
(2)根据所述多个采集标准,采集人物图像,以作为训练图像,如5A所示的训练图像;
(3)对所述测试图像中的至少一个标定区域进行标定,以生成所述训练图像所对应的标定图像,如图5B的标定图像所示,其中通常可以用第一颜色表示标定区域,用第二颜色表示未标定区域;
此外,通常选择一个标定区域,如头发;也可以一次选择多个标定区域,如包括头发、眉毛、和胡子在内的毛发;或选择一个笼统的区域,如面部美化。
(4)选择数据变换的方式,所述数据变换的方式包括但不限于:抖动处理、桶形畸变、枕形畸变、左旋、右旋、横向拉伸、纵向拉伸、亮度衰减、翻转、和/或裁剪等;
可以理解的是,为了使得分割模型更加鲁棒,训练集的训练图像和标定图像应尽量包含各种场景下的情形,这些情形既可以通过采集获取,也可以通过数据变换的方式进行后期补充。这样的训练集才能覆盖更广泛,得到的分割模型也更加健壮和鲁棒。
(5)对所述训练图像和其对应的标定图像进行同一方式的数据变换,以获取成倍的训练数据。
可以理解的是,数据变换的目的在于,通过轻量级代价获取成倍的训练数据,避免繁冗的图像标注工作。通过扩大训练集,提升算法的准确率。
在步骤S202中,通过全卷积网络(Fully Convolutional Network,FCN),对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型。
具体而言,本步骤包括:
(1)通过深度学习平台定义分割模型的配置文件;
其中,所述深度学习平台,以现有的开源平台Caffe为例,一般采用梯度下降的规则对配置文件中的权重参数进行计算。可以理解的是,所述深度学习分为前向传播和后向反馈两个过程,其具有强大的自学习能力,可以对学习成果进行实时检验,具有极高的鲁棒性。
(2)初始化所述配置文件中各层的权重参数,所述权重参数为卷积层和全连接层的卷积核参数;
其中,常规的深度学习网络一般属于卷积神经网络(Convolutional NeuralNetwork,CNN)类型的网络模型,所述CNN类型的网络模型由若干卷积层、少量采样层和最后几层全连接层组成。而著名的VGG网络正是一种典型的CNN类型的网络模块,它由13个卷积层、5个采样层、3个全连接层和一个回归层组成。在本步骤中,所述配置文件以VGG配置文件为例,其中所述配置文件的各层至少包括:卷积层和全连接层。
(3)通过所述权重参数对所述训练图像进行卷积计算,以得到所述训练图像的特征图;
可以理解的是,VGG网络具有强大的图像鉴别能力,可用于对图像进行分类。其中,本步骤首先将VGG网络中的全连接层转换为卷积层,再计算回归层对输入数据的概率统计,并针对整图主体目标的分类进行逻辑回归计算,而最后一层的回归层由于输入数据变成了图像数据,因此进行每个像素的分类回归计算,从而最终得到每个像素的分类属性。由于本文的像素属性仅分为头发和背景两个分类,因此最终的分割结果能准确的表征头发区域范围,即得到了训练图像的特征图。
(4)对比所述特征图和所述标定图像,并进行回归统计,以得到误差值;
可以理解的是,至此,则完成了深度学习平台的前向传播过程。此外,补充说明的是,在测试过程中,仅需执行前向传播即可。
(5)根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型;
具体而言,本步骤包括:逐层计算所述误差值对配置文件中各层输入数据的偏导值;将所述偏导值叠加到该层的权重参数后,对该层权重参数进行一次修正。至此,则完成了深度学习平台的向后反馈过程。
(6)当完成一次迭代后,判断所述误差值是否小于预设值。
其中,所述前向传播与所述后向反馈合在一起称之为一次迭代。可以理解的是,每次迭代之后,权重参数都会得到一次修正,误差值也会趋于减小,即通过梯度下降的规则对配置文件中的权重参数进行计算和修正。
(7)若所述误差值不小于所述预设值,则继续进行所述深度学习训练,直至生成小于所述预设值的误差值;
(8)若所述误差值小于所述预设值,则完成所述深度学习训练。
可以理解的是,如此经过超大规模次数的迭代后,误差值将不再明显减小,而恒定在一个极小值,此时称之为网络已收敛,由于误差值已很小,此时分割网络的输入结果与标定图几乎一致,也即生成了所述分割模型。
在步骤S203中,通过所述分割模型对所述标定区域进行分析,以生成所述标定区域所对应的特征参数。
其中,所述分割模型,可以理解为是通过深度学习所形成的分类器。进而采用所述分类器对所述标定区域进行分析,以输出所述标定区域所对应的特征参数。
所述特征参数用于描述所述标定区域的特征,包括静态特征和/或动态特征。所述静态特征,是指已有图像中所展示出的或提取的特征参数,比如:从已有的3张图片所提取的头发的静态特征。所述动态特征,是指适应不同改变、不同景深、和/或不同遮挡所形成的过程参数,比如:从不同背景、不同位置、带帽子与否等图像中所提取的头发的动态变化的过程参数。
本发明实施例提供的图像处理方法,通过分割模型中的特征参数,对测试图像进行分割,以生成标定区域所对应的分割结果,其分割模型进行深度学习的鲁棒性强,且运用分割模型进行分割的准确率高,适用场景广泛。
实施例三
请参阅图3,所示为本发明实施例提供的一种图像处理系统的基本模块示意图。
所述图像处理系统3,包括训练子单元31和测试子单元32。可以理解的是,所述训练子单元31通常执行于服务器中,用于构建图像处理所依据的分割模型。所述测试子单元32可执行于服务器或终端中,用于基于上述分割模型执行具体的图像处理任务。
具体而言,所述训练子单元31又称训练模块,包括:获取子模块311、模型子模块312、和参数子模块313。
获取子模块311,用于获取训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域。
可以理解的是,为了获取包括海量训练图像和标定图像的训练集,可以通过针对所述训练图像和/或标定图像设置多个采集标准、以及对已有训练集进行数据变换的方式进行后期补充。这样的训练集才能覆盖更广泛,得到的分割模型也更加健壮和鲁棒。
其中,以标定图像为头发为例,其对应的采集标准包括但不限于:发型、颜色、光照强度、缩放尺度、和/或清晰度。可以理解的是,针对不同的标定图像,采集标准也会进行适应性调整,如标定图像为眼睛的采集标准还可加入形状和颜色,标定图像为鼻子还可以加入高度和形状等。
所述数据变换的方式包括但不限于:抖动处理、桶形畸变、枕形畸变、左旋、右旋、横向拉伸、纵向拉伸、亮度衰减、翻转、和/或裁剪等。可以理解的是,数据变换的目的在于,通过轻量级代价获取成倍的训练数据,避免繁冗的图像标注工作。通过扩大训练集,提升算法的准确率。
模型子模块312,用于通过全卷积网络,对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型。
具体而言,所述模型子模块312,包括:
文件子模块3121,用于通过深度学习平台定义分割模型的配置文件。
以下,通过现有的深度学习的开源平台Caffe为例进行分析,可以理解的是,采用其他深度学习平台亦可,但需些微不脱离本实施例本质的调整。可以理解的是,所述深度学习分为前向传播和后向反馈两个过程,其具有强大的自学习能力,可以对学习成果进行实时检验,具有极高的鲁棒性。
初始子模块3122,用于初始化所述配置文件中各层的权重参数,所述权重参数为卷积层和全连接层的卷积核参数。
可以理解的是,VGG网络具有强大的图像鉴别能力,可用于对图像进行分类。故,以下,配置文件为VGG配置文件为例,则所述配置文件的各层至少包括:卷积层和全连接层。
特征子模块3123,用于通过所述权重参数对所述训练图像进行卷积计算,以得到所述训练图像的特征图。
具体而言,所述卷积计算的过程,包括:首先将VGG网络中的全连接层转换为卷积层,再计算回归层对输入数据的概率统计,并针对整图主体目标的分类进行逻辑回归计算,而最后一层的回归层由于输入数据变成了图像数据,因此进行每个像素的分类回归计算,从而最终得到每个像素的分类属性。由于本文的像素属性仅分为头发和背景两个分类,因此最终的分割结果能准确的表征头发区域范围,即得到了训练图像的特征图。
误差子模块3124,用于对比所述特征图和所述标定图像,并进行回归统计,以得到误差值。
可以理解的是,至此,则完成了深度学习平台的前向传播过程。此外,补充说明的是,在测试过程中,仅需执行前向传播即可。
修正子模块3125,用于根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型。
具体而言,所述修正过程包括:逐层计算所述误差值对配置文件中各层输入数据的偏导值;将所述偏导值叠加到该层的权重参数后,对该层权重参数进行一次修正。至此,则完成了深度学习平台的向后反馈过程。
判断子模块3126,用于当完成一次迭代后,判断所述误差值是否小于预设值。
其中,所述前向传播与所述后向反馈合在一起称之为一次迭代。可以理解的是,每次迭代之后,权重参数都会得到一次修正,误差值也会趋于减小,即通过梯度下降的规则对配置文件中的权重参数进行计算和修正。
成熟子模块3127,用于当所述误差值不小于所述预设值,则继续进行所述深度学习训练,直至生成小于所述预设值的误差值,并当小于时,完成所述深度学习训练,并生成分割模型。
可以理解的是,如此经过超大规模次数的迭代后,误差值将不再明显减小,而恒定在一个极小值,此时称之为网络已收敛,由于误差值已很小,此时分割网络的输入结果与标定图几乎一致,也即生成了所述分割模型。
参数子模块313,用于通过所述分割模型对所述标定区域进行分析,以生成所述标定区域所对应的特征参数。
具体而言,所述测试子单元32,包括:图像模块321、区域模块322、特征模块323、和分割模块324。
图像模块321,用于获取测试图像。其中,所述测试图像包括但不限于:人物、风景、或物品等,本文如下皆以人物图像为例,如图5C的测试图像所示,所述人物图像至少要包括头部,可以是半身像或全身像、正面像或侧脸像;单人像或集体像等。
区域模块322,用于选择所述测试图像的标定区域。其中,以所述标定区域以头发为例进行阐述。可以理解的是,所述标定区域还可以选择为:胡子、眉毛、眼睛、鼻子、嘴、衣服、或眼镜等。
所述区域模块322包括:图内选择子模块3221,用于在所述测试图像中进行点选,并对点选处的特征进行提取,进而扩展到其相似的区域,以生成所选择的标定区域;或/和图外选择子模块3222,用于输入文字或或点选虚拟文字框/文字按键的方式,从所述测试图像中选择标定区域。
特征模块323,用于从预设的分割模型中读取所述标定区域对应的特征参数。
其中,所述分割模型,可以理解为是通过深度学习所形成的分类器。进而采用所述分类器对所述标定区域进行分析,以输出所述标定区域所对应的特征参数。所述特征参数用于描述所述标定区域的特征,包括静态特征和/或动态特征。所述静态特征,是指已有图像中所展示出的或提取的特征参数,比如:从已有的3张图片所提取的头发的静态特征。所述动态特征,是指适应不同改变、不同景深、和/或不同遮挡所形成的过程参数,比如:从不同背景、不同位置、带帽子与否等图像中所提取的头发的动态变化的过程参数。
分割模块324,用于通过所述特征参数对所述测试图像进行分割,以生成所述标定区域所对应的分割结果。
其中,如图5D所示的分割结果的示意图,其中,头发作为标定区域,通常以第一颜色进行显示,而非标定区域可以通过第二颜色或虚化等方式进行显示。可以理解的是,若不显示所述非标定区域,可以视为以透明色或背景色作为第二颜色。
此外,所述图像处理系统3还包括:优化模块33,连接于所述分割模块324,用于对所述分割结果进行变形或变色处理。
可以理解的是,精确的头发分割,为一系列以头发为操作对象的产品具有了坚实的算法基础,因此,在对所述标定区域进行分割之后,可以进行进一步的美化处理。仍以头发为例,此处可以进行发型的变换,比如直发变卷发等;或染发处理,比如:单色染、多色的挑染、和多色漂染等;此处还可以对分割结果进行替换,比如短发变长发等。
同时,我们还可以通过所述变色、变形或/和替换处理,还可以用于对所述测试图像中的人物进行虚拟换装,为当下虚拟现实(Virtual Reality,VR)提供技术支持。
本发明实施例提供的图像处理系统,通过分割模型中的特征参数,对测试图像进行分割,以生成标定区域所对应的分割结果,其分割模型进行深度学习的鲁棒性强,且运用分割模型进行分割的准确率高,适用场景广泛。
实施例四
请参阅图4,所示为本发明实施例提供的图像处理系统和处理方法的应用环境的示意图。其中,图像处理任务可以描述为:
训练阶段,由服务器41执行,通过相关的配置文件,指定网络结构信息、数据集信息、训练参数,可以使用Caffe的train功能进行网络的训练,训练的最终结果是得到一个.caffemodel模型文件,即,分割模型及各标定区域所对应的特征参数。
其中,需要说明的是,由于深度学习平台由于计算复杂度大,所述服务器41一般同时支持中央处理器(CPU)和图形处理器(GPU)两种方式实现。可以理解的是,GPU相比CPU具有更专业的硬件计算资源,其一次计算速度较CPU快几倍至几十倍。由于基于精准度高的VGG分类网络,同样计算复杂度较大,因次更适合于用GPU来计算。用GPU计算时,我们的头发分割能达到准实时的效果,而用CPU计算亦可,但需要若干秒时间,其具体的性能对比如下表所示。
表1在CPU和GPU以及不同分辨率下的算法耗时
测试阶段,由终端设备42、43或服务器41执行,通过Caffe的测试接口(通常是Python或Matlab的接口),载入.caffemodel模型文件,在内存里生成网络模型。指定输入数据(通常是一个或多个图像文件)作为测试图像,获得网络的输出作为分割结果。
通信网络44,用于在服务器41与终端设备42、43之间传递所述分割模型、特征参数、和/或分割结果。
本发明实施例提供的图像处理系统和处理方法属于同一构思。虽然各实施例的侧重不同,但其设计思想是一致的。且,在某个实施例中没有详述的部分,可以参见说明书全文的详细描述,不再赘述。
综上所述,虽然本发明已以优选实施例揭露如上,但上述优选实施例并非用以限制本发明,本领域的普通技术人员,在不脱离本发明的精神和范围内,均可作各种更动与润饰,因此本发明的保护范围以权利要求界定的范围为准。
Claims (14)
1.一种图像处理方法,其特征在于,包括:
获取测试图像;
选择所述测试图像的标定区域;
从预设的分割模型中读取所述标定区域对应的特征参数;以及
通过所述特征参数对所述测试图像进行分割,以生成所述标定区域所对应的分割结果。
2.如权利要求1所述的处理方法,其特征在于,获取测试图像,之前还包括:
获取训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域;
通过全卷积网络,对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型;以及
通过所述分割模型对所述标定区域进行分析,以生成所述标定区域所对应的特征参数。
3.如权利要求2所述的处理方法,其特征在于,所述通过全卷积网络,对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型,包括:
通过深度学习平台定义分割模型的配置文件;
初始化所述配置文件中各层的权重参数,所述权重参数为卷积层和全连接层的卷积核参数;
通过所述权重参数对所述训练图像进行卷积计算,以得到所述训练图像的特征图;
对比所述特征图和所述标定图像,并进行回归统计,以得到误差值;以及
根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型。
4.如权利要求3所述的处理方法,其特征在于,所述根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型,包括:
计算所述误差值对配置文件中各层输入数据的偏导值,所述各层包括:卷基层和全连接层;以及
将所述偏导值叠加到该层的权重参数后,对该层权重参数进行一次修正。
5.如权利要求3所述的处理方法,其特征在于,根据所述误差值对所述配置文件中的权重参数进行修正,以生成分割模型,之后还包括:
判断所述误差值是否小于预设值;
若所述误差值小于所述预设值,则完成所述深度学习训练;或
若所述误差值不小于所述预设值,则继续进行所述深度学习训练,直至生成小于所述预设值的误差值。
6.如权利要求2所述的处理方法,其特征在于,获取训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域,包括:
采集人物图像,作为训练图像;
对所述测试图像中的至少一个标定区域进行标定,以生成所述训练图像所对应的标定图像。
7.如权利要求6所述的处理方法,其特征在于,采集人物图像,作为训练图像,之前还包括:
设置多个采集标准,所述采集标准包括:发型、颜色、光照强度、缩放尺度、和/或清晰度;以及
所述采集人物图像具体为:根据所述多个采集标准,采集人物图像。
8.如权利要求6或7所述的处理方法,其特征在于,对所述测试图像中的至少一个标定区域进行标定,以生成所述训练图像所对应的标定图像,之后还包括:
选择数据变换的方式,包括:抖动处理、桶形畸变、枕形畸变、左旋、右旋、横向拉伸、纵向拉伸、亮度衰减、翻转、和/或裁剪;以及
对所述训练图像和其对应的标定图像进行同一方式的数据变换,以获取成倍的训练数据。
9.如权利要求1所述的处理方法,其特征在于,通过所述特征参数对所述测试图像进行分割,以生成所述标定区域所对应的分割结果,之后还包括:
对所述分割结果进行变形或变色处理。
10.如权利要求1所述的处理方法,其特征在于,选择所述测试图像的标定区域,包括:
在所述测试图像中通过点选的方式选择标定区域;或
通过输入文字或通过文字或点选虚拟按键的方式,从所述测试图像中选择标定区域。
11.一种图像处理系统,其特征在于,包括:
图像模块,用于获取测试图像;
区域模块,用于选择所述测试图像的标定区域;
特征模块,用于从预设的分割模型中读取所述标定区域对应的特征参数;以及
分割模块,用于通过所述特征参数对所述测试图像进行分割,以生成所述标定区域所对应的分割结果。
12.如权利要求11所述的处理系统,其特征在于,还包括训练模块,连接于所述特征模块,所述训练模块包括:
获取子模块,用于获取训练图像和所述训练图像对应的标定图像,所述标定图像中包含至少一个标定区域;
模型子模块,用于通过全卷积网络,对所述训练图像和所述训练图像对应的标定图像进行深度学习训练,以生成所述分割模型;以及
参数子模块,用于通过所述分割模型对所述标定区域进行分析,以生成所述标定区域所对应的特征参数。
13.如权利要求11所述的处理系统,其特征在于,还包括:
优化模块,连接于所述分割模块,用于对所述分割结果进行变形或变色处理。
14.如权利要求11所述的处理系统,其特征在于,所述区域模块包括:
图内选择子模块,用于在所述测试图像中通过点选的方式选择标定区域;或/和
图外选择子模块,用于通过输入文字或通过文字或点选虚拟按键的方式,从所述测试图像中选择标定区域。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610302568.8A CN106022221B (zh) | 2016-05-09 | 2016-05-09 | 一种图像处理方法及处理系统 |
PCT/CN2017/083583 WO2017193906A1 (zh) | 2016-05-09 | 2017-05-09 | 一种图像处理方法及处理系统 |
US15/949,719 US10810742B2 (en) | 2016-05-09 | 2018-04-10 | Dynamic and static image processing method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610302568.8A CN106022221B (zh) | 2016-05-09 | 2016-05-09 | 一种图像处理方法及处理系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106022221A true CN106022221A (zh) | 2016-10-12 |
CN106022221B CN106022221B (zh) | 2021-11-30 |
Family
ID=57099208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610302568.8A Active CN106022221B (zh) | 2016-05-09 | 2016-05-09 | 一种图像处理方法及处理系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10810742B2 (zh) |
CN (1) | CN106022221B (zh) |
WO (1) | WO2017193906A1 (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106529555A (zh) * | 2016-11-04 | 2017-03-22 | 四川大学 | 一种基于全卷积网络的dr片肺轮廓提取方法 |
CN106611160A (zh) * | 2016-12-15 | 2017-05-03 | 中山大学 | 一种基于卷积神经网络的图像头发识别方法及其装置 |
CN106778705A (zh) * | 2017-02-04 | 2017-05-31 | 中国科学院自动化研究所 | 一种行人个体分割方法及装置 |
CN106897682A (zh) * | 2017-02-15 | 2017-06-27 | 电子科技大学 | 一种基于卷积神经网络的白带中白细胞自动识别方法 |
CN107025629A (zh) * | 2017-04-27 | 2017-08-08 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
WO2017193906A1 (zh) * | 2016-05-09 | 2017-11-16 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
CN107590811A (zh) * | 2017-09-29 | 2018-01-16 | 北京奇虎科技有限公司 | 基于场景分割的风景图像处理方法、装置及计算设备 |
CN107767391A (zh) * | 2017-11-02 | 2018-03-06 | 北京奇虎科技有限公司 | 风景图像处理方法、装置、计算设备及计算机存储介质 |
CN107862326A (zh) * | 2017-10-30 | 2018-03-30 | 昆明理工大学 | 一种基于全卷积神经网络的成熟苹果识别方法 |
CN108205659A (zh) * | 2017-11-30 | 2018-06-26 | 深圳市深网视界科技有限公司 | 人脸遮挡物去除及其模型构建的方法、设备及介质 |
CN108229479A (zh) * | 2017-08-01 | 2018-06-29 | 北京市商汤科技开发有限公司 | 语义分割模型的训练方法和装置、电子设备、存储介质 |
CN108280397A (zh) * | 2017-12-25 | 2018-07-13 | 西安电子科技大学 | 基于深度卷积神经网络的人体图像头发检测方法 |
CN108961144A (zh) * | 2017-05-18 | 2018-12-07 | 发那科株式会社 | 图像处理系统 |
CN109117760A (zh) * | 2018-07-27 | 2019-01-01 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备和计算机可读介质 |
CN109191388A (zh) * | 2018-07-27 | 2019-01-11 | 上海爱优威软件开发有限公司 | 一种暗图像处理方法及系统 |
CN109344840A (zh) * | 2018-08-07 | 2019-02-15 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
CN109359527A (zh) * | 2018-09-11 | 2019-02-19 | 杭州格像科技有限公司 | 基于神经网络的头发区域提取方法及系统 |
CN109523522A (zh) * | 2018-10-30 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 内窥镜图像的处理方法、装置、系统及存储介质 |
CN109602373A (zh) * | 2018-12-06 | 2019-04-12 | 余姚市盈宝电器有限公司 | 泡沫检测报警机构 |
CN110969631A (zh) * | 2019-11-25 | 2020-04-07 | 杭州趣维科技有限公司 | 一种精细化照片染发方法及系统 |
CN112133260A (zh) * | 2019-06-24 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 图像调节方法及装置 |
CN112740266A (zh) * | 2018-09-20 | 2021-04-30 | 莱雅公司 | 用于确定角蛋白表面的特性的方法和系统以及用于处理所述角蛋白表面的方法和系统 |
CN113689437A (zh) * | 2021-07-26 | 2021-11-23 | 南京理工大学 | 基于迭代式选择-修正网络的交互式图像分割方法 |
CN116664585A (zh) * | 2023-08-02 | 2023-08-29 | 瑞茜时尚(深圳)有限公司 | 基于深度学习的头皮健康状况检测方法及相关装置 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109308679B (zh) | 2018-08-13 | 2022-08-30 | 深圳市商汤科技有限公司 | 一种图像风格转换方法及装置、设备、存储介质 |
CN109741395B (zh) * | 2018-12-14 | 2021-07-23 | 北京市商汤科技开发有限公司 | 双心室量化方法、装置、电子设备及存储介质 |
CN111382647B (zh) * | 2018-12-29 | 2021-07-30 | 广州市百果园信息技术有限公司 | 一种图片处理方法、装置、设备及存储介质 |
CN109819318B (zh) * | 2019-02-02 | 2022-03-22 | 广州虎牙信息科技有限公司 | 一种图像处理、直播方法、装置、计算机设备及存储介质 |
CN110211065B (zh) * | 2019-05-23 | 2023-10-20 | 九阳股份有限公司 | 一种食材图像的颜色校正方法和装置 |
CN110298797B (zh) * | 2019-06-12 | 2021-07-09 | 博微太赫兹信息科技有限公司 | 一种基于卷积神经网络的毫米波图像处理方法 |
CN114078083A (zh) * | 2020-08-11 | 2022-02-22 | 北京达佳互联信息技术有限公司 | 头发变换模型生成方法和装置、头发变换方法和装置 |
CN112070094B (zh) * | 2020-11-11 | 2021-04-27 | 北京达佳互联信息技术有限公司 | 训练数据的筛选方法、装置、电子设备及存储介质 |
CN112612980B (zh) * | 2020-12-22 | 2024-03-01 | 北京百度网讯科技有限公司 | 图片服务方法、装置、设备、存储介质及计算机程序产品 |
CN112801164B (zh) * | 2021-01-22 | 2024-02-13 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101046880A (zh) * | 2006-03-27 | 2007-10-03 | 腾讯科技(深圳)有限公司 | 一种在三维模型中显示人物图像的方法及装置 |
CN102103690A (zh) * | 2011-03-09 | 2011-06-22 | 南京邮电大学 | 一种自动的头发区域分割方法 |
CN102436637A (zh) * | 2010-09-29 | 2012-05-02 | 中国科学院计算技术研究所 | 从头部图像中自动分割头发的方法及其系统 |
CN102436636A (zh) * | 2010-09-29 | 2012-05-02 | 中国科学院计算技术研究所 | 自动分割头发的方法及其系统 |
CN102609958A (zh) * | 2012-01-19 | 2012-07-25 | 北京三星通信技术研究有限公司 | 视频对象提取的方法及设备 |
CN104123749A (zh) * | 2014-07-23 | 2014-10-29 | 邢小月 | 一种图像处理方法及系统 |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
CN105354565A (zh) * | 2015-12-23 | 2016-02-24 | 北京市商汤科技开发有限公司 | 基于全卷积网络人脸五官定位与判别的方法及系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5181171A (en) * | 1990-09-20 | 1993-01-19 | Atlantic Richfield Company | Adaptive network for automated first break picking of seismic refraction events and method of operating the same |
US5732697A (en) * | 1995-11-22 | 1998-03-31 | Arch Development Corporation | Shift-invariant artificial neural network for computerized detection of clustered microcalcifications in mammography |
JP4764273B2 (ja) * | 2006-06-30 | 2011-08-31 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、記憶媒体 |
CN101308571A (zh) * | 2007-05-15 | 2008-11-19 | 上海中科计算技术研究所 | 一种利用主动网格与人脸识别结合生成新人脸的方法 |
CN102831396A (zh) * | 2012-07-23 | 2012-12-19 | 常州蓝城信息科技有限公司 | 一种计算机人脸识别方法 |
SG11201608265XA (en) * | 2014-03-06 | 2016-11-29 | Progress Inc | Neural network and method of neural network training |
TWI553565B (zh) * | 2014-09-22 | 2016-10-11 | 銘傳大學 | 利用二維臉部影像估測其三維角度方法,及其臉部置換資料庫建立方法與臉部影像置換方法 |
US20160239976A1 (en) * | 2014-10-22 | 2016-08-18 | Pointivo, Inc. | Photogrammetric methods and devices related thereto |
GB2547399B (en) * | 2014-12-02 | 2018-05-02 | Shanghai United Imaging Healthcare Co Ltd | A method and system for image processing |
US10061972B2 (en) * | 2015-05-28 | 2018-08-28 | Tokitae Llc | Image analysis systems and related methods |
US9884623B2 (en) * | 2015-07-13 | 2018-02-06 | GM Global Technology Operations LLC | Method for image-based vehicle localization |
US10083378B2 (en) * | 2015-12-28 | 2018-09-25 | Qualcomm Incorporated | Automatic detection of objects in video images |
US9916524B2 (en) * | 2016-02-17 | 2018-03-13 | Microsoft Technology Licensing, Llc | Determining depth from structured light using trained classifiers |
CN106022221B (zh) * | 2016-05-09 | 2021-11-30 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
-
2016
- 2016-05-09 CN CN201610302568.8A patent/CN106022221B/zh active Active
-
2017
- 2017-05-09 WO PCT/CN2017/083583 patent/WO2017193906A1/zh active Application Filing
-
2018
- 2018-04-10 US US15/949,719 patent/US10810742B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101046880A (zh) * | 2006-03-27 | 2007-10-03 | 腾讯科技(深圳)有限公司 | 一种在三维模型中显示人物图像的方法及装置 |
CN102436637A (zh) * | 2010-09-29 | 2012-05-02 | 中国科学院计算技术研究所 | 从头部图像中自动分割头发的方法及其系统 |
CN102436636A (zh) * | 2010-09-29 | 2012-05-02 | 中国科学院计算技术研究所 | 自动分割头发的方法及其系统 |
CN102103690A (zh) * | 2011-03-09 | 2011-06-22 | 南京邮电大学 | 一种自动的头发区域分割方法 |
CN102609958A (zh) * | 2012-01-19 | 2012-07-25 | 北京三星通信技术研究有限公司 | 视频对象提取的方法及设备 |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
CN104123749A (zh) * | 2014-07-23 | 2014-10-29 | 邢小月 | 一种图像处理方法及系统 |
CN105354565A (zh) * | 2015-12-23 | 2016-02-24 | 北京市商汤科技开发有限公司 | 基于全卷积网络人脸五官定位与判别的方法及系统 |
Non-Patent Citations (4)
Title |
---|
YANGQING JIA ET AL.: "Caffe: Convolutional architecture for fast feature embedding", 《PROCEEDING MM "14 PROCEEDINGS OF THE 22ND ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA》 * |
YANGQING JIA ET AL.: "Fully convolutional networks for semantic segmentation", 《THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), 2015》 * |
柏松编著: "《精通Photoshop抠图8大核心技法》", 30 June 2014, 北京:清华大学出版社 * |
王楠等: "融合局部与全局信息的头发形状模型", 《自动化学报》 * |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017193906A1 (zh) * | 2016-05-09 | 2017-11-16 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
US10810742B2 (en) | 2016-05-09 | 2020-10-20 | Tencent Technology (Shenzhen) Company Limited | Dynamic and static image processing method and system |
CN106529555B (zh) * | 2016-11-04 | 2019-12-06 | 四川大学 | 一种基于全卷积网络的dr片肺轮廓提取方法 |
CN106529555A (zh) * | 2016-11-04 | 2017-03-22 | 四川大学 | 一种基于全卷积网络的dr片肺轮廓提取方法 |
CN106611160A (zh) * | 2016-12-15 | 2017-05-03 | 中山大学 | 一种基于卷积神经网络的图像头发识别方法及其装置 |
CN106611160B (zh) * | 2016-12-15 | 2019-12-17 | 中山大学 | 一种基于卷积神经网络的图像头发识别方法及其装置 |
CN106778705A (zh) * | 2017-02-04 | 2017-05-31 | 中国科学院自动化研究所 | 一种行人个体分割方法及装置 |
CN106778705B (zh) * | 2017-02-04 | 2020-03-17 | 中国科学院自动化研究所 | 一种行人个体分割方法及装置 |
CN106897682A (zh) * | 2017-02-15 | 2017-06-27 | 电子科技大学 | 一种基于卷积神经网络的白带中白细胞自动识别方法 |
CN107025629B (zh) * | 2017-04-27 | 2021-03-26 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
CN107025629A (zh) * | 2017-04-27 | 2017-08-08 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
CN108961144A (zh) * | 2017-05-18 | 2018-12-07 | 发那科株式会社 | 图像处理系统 |
CN108229479B (zh) * | 2017-08-01 | 2019-12-31 | 北京市商汤科技开发有限公司 | 语义分割模型的训练方法和装置、电子设备、存储介质 |
CN108229479A (zh) * | 2017-08-01 | 2018-06-29 | 北京市商汤科技开发有限公司 | 语义分割模型的训练方法和装置、电子设备、存储介质 |
WO2019024808A1 (zh) * | 2017-08-01 | 2019-02-07 | 北京市商汤科技开发有限公司 | 语义分割模型的训练方法和装置、电子设备、存储介质 |
US11301719B2 (en) | 2017-08-01 | 2022-04-12 | Beijing Sensetime Technology Development Co., Ltd. | Semantic segmentation model training methods and apparatuses, electronic devices, and storage media |
CN107590811A (zh) * | 2017-09-29 | 2018-01-16 | 北京奇虎科技有限公司 | 基于场景分割的风景图像处理方法、装置及计算设备 |
CN107862326A (zh) * | 2017-10-30 | 2018-03-30 | 昆明理工大学 | 一种基于全卷积神经网络的成熟苹果识别方法 |
CN107767391A (zh) * | 2017-11-02 | 2018-03-06 | 北京奇虎科技有限公司 | 风景图像处理方法、装置、计算设备及计算机存储介质 |
CN108205659A (zh) * | 2017-11-30 | 2018-06-26 | 深圳市深网视界科技有限公司 | 人脸遮挡物去除及其模型构建的方法、设备及介质 |
CN108280397A (zh) * | 2017-12-25 | 2018-07-13 | 西安电子科技大学 | 基于深度卷积神经网络的人体图像头发检测方法 |
CN109191388A (zh) * | 2018-07-27 | 2019-01-11 | 上海爱优威软件开发有限公司 | 一种暗图像处理方法及系统 |
CN109117760A (zh) * | 2018-07-27 | 2019-01-01 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备和计算机可读介质 |
CN109117760B (zh) * | 2018-07-27 | 2021-01-22 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备和计算机可读介质 |
CN109344840A (zh) * | 2018-08-07 | 2019-02-15 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
CN109344840B (zh) * | 2018-08-07 | 2022-04-01 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、存储介质、程序产品 |
CN109359527B (zh) * | 2018-09-11 | 2020-09-04 | 杭州格像科技有限公司 | 基于神经网络的头发区域提取方法及系统 |
CN109359527A (zh) * | 2018-09-11 | 2019-02-19 | 杭州格像科技有限公司 | 基于神经网络的头发区域提取方法及系统 |
CN112740266A (zh) * | 2018-09-20 | 2021-04-30 | 莱雅公司 | 用于确定角蛋白表面的特性的方法和系统以及用于处理所述角蛋白表面的方法和系统 |
WO2020088288A1 (zh) * | 2018-10-30 | 2020-05-07 | 腾讯科技(深圳)有限公司 | 内窥镜图像的处理方法、系统及计算机设备 |
CN109523522A (zh) * | 2018-10-30 | 2019-03-26 | 腾讯科技(深圳)有限公司 | 内窥镜图像的处理方法、装置、系统及存储介质 |
CN109602373A (zh) * | 2018-12-06 | 2019-04-12 | 余姚市盈宝电器有限公司 | 泡沫检测报警机构 |
CN112133260A (zh) * | 2019-06-24 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 图像调节方法及装置 |
CN112133260B (zh) * | 2019-06-24 | 2022-06-07 | 腾讯科技(深圳)有限公司 | 图像调节方法及装置 |
CN110969631A (zh) * | 2019-11-25 | 2020-04-07 | 杭州趣维科技有限公司 | 一种精细化照片染发方法及系统 |
CN110969631B (zh) * | 2019-11-25 | 2023-04-11 | 杭州小影创新科技股份有限公司 | 一种精细化照片染发方法及系统 |
CN113689437A (zh) * | 2021-07-26 | 2021-11-23 | 南京理工大学 | 基于迭代式选择-修正网络的交互式图像分割方法 |
CN113689437B (zh) * | 2021-07-26 | 2024-06-11 | 南京理工大学 | 基于迭代式选择-修正网络的交互式图像分割方法 |
CN116664585A (zh) * | 2023-08-02 | 2023-08-29 | 瑞茜时尚(深圳)有限公司 | 基于深度学习的头皮健康状况检测方法及相关装置 |
CN116664585B (zh) * | 2023-08-02 | 2023-11-24 | 瑞茜时尚(深圳)有限公司 | 基于深度学习的头皮健康状况检测方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
US20180225828A1 (en) | 2018-08-09 |
US10810742B2 (en) | 2020-10-20 |
CN106022221B (zh) | 2021-11-30 |
WO2017193906A1 (zh) | 2017-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106022221A (zh) | 一种图像处理方法及处理系统 | |
CN109816012B (zh) | 一种融合上下文信息的多尺度目标检测方法 | |
US20190294970A1 (en) | Systems and methods for polygon object annotation and a method of training an object annotation system | |
CN107481279B (zh) | 一种单目视频深度图计算方法 | |
CN110084304B (zh) | 一种基于合成数据集的目标检测方法 | |
CN107103613B (zh) | 一种三维手势姿态估计方法 | |
CN111160085A (zh) | 一种人体图像关键点姿态估计方法 | |
CN103914699B (zh) | 一种基于色彩空间的自动唇彩的图像增强的方法 | |
CN106462724B (zh) | 基于规范化图像校验面部图像的方法和系统 | |
CN114782691A (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
CN103810473B (zh) | 一种基于隐马尔科夫模型的人体对象的目标识别方法 | |
CN106599837A (zh) | 基于多图像输入的人脸识别方法及装置 | |
CN111126256A (zh) | 一种基于自适应空谱多尺度网络的高光谱图像分类方法 | |
Xiao et al. | Accurate motion layer segmentation and matting | |
CN109919059B (zh) | 基于深度网络层次化与多任务训练的显著性物体检测方法 | |
CN106096542A (zh) | 基于距离预测信息的图像视频场景识别方法 | |
CN108154104A (zh) | 一种基于深度图像超像素联合特征的人体姿态估计方法 | |
CN108470185A (zh) | 卫星影像的地物标注装置及方法 | |
CN113610905B (zh) | 基于子图像匹配的深度学习遥感图像配准方法及应用 | |
CN109920018A (zh) | 基于神经网络的黑白照片色彩恢复方法、装置及存储介质 | |
CN110245611A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN113378812A (zh) | 一种基于Mask R-CNN和CRNN的数字表盘识别方法 | |
CN111179272B (zh) | 一种面向道路场景的快速语义分割方法 | |
Gain et al. | A novel unbiased deep learning approach (dl-net) in feature space for converting gray to color image | |
CN113052783A (zh) | 一种基于人脸关键点的人脸图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |