CN107609536A - 信息生成方法和装置 - Google Patents
信息生成方法和装置 Download PDFInfo
- Publication number
- CN107609536A CN107609536A CN201710911147.XA CN201710911147A CN107609536A CN 107609536 A CN107609536 A CN 107609536A CN 201710911147 A CN201710911147 A CN 201710911147A CN 107609536 A CN107609536 A CN 107609536A
- Authority
- CN
- China
- Prior art keywords
- image
- classification
- information
- face region
- human face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请实施例公开了信息生成方法和装置。该方法的一具体实施方式包括:获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息;基于该人脸区域信息,从该待检测图像中提取人脸图像;将该人脸图像输入预先训练的卷积神经网络,得到图像特征信息,其中,该卷积神经网络用于提取图像特征;对该图像特征信息进行解析,确定该人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率;基于该概率,生成用于指示该各个像素点所归属的类别的信息。该实施方式实现了富于针对性的信息生成。
Description
技术领域
本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及信息生成方法和装置。
背景技术
人脸识别具有较多的应用场景,例如人脸支付、人脸认证、人脸美化等等。在进行人脸识别之前,如何对包括人脸的图像进行检测,生成有助于人脸识别的信息(例如基于该信息可以快速地确定人脸部位的位置等),以提高人脸识别效率,是一个值得研究的问题。
发明内容
本申请实施例的目的在于提出一种信息生成方法和装置。
第一方面,本申请实施例提供了一种信息生成方法,该方法包括:获取待检测图像和预先对上述待检测图像进行人脸检测后所得的、用于指示上述待检测图像中的人脸区域的人脸区域信息;基于上述人脸区域信息,从上述待检测图像中提取人脸图像;将上述人脸图像输入预先训练的卷积神经网络,得到图像特征信息,其中,上述卷积神经网络用于提取图像特征;对上述图像特征信息进行解析,确定上述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率;基于上述概率,生成用于指示上述各个像素点所归属的类别的信息。
在一些实施例中,上述对上述图像特征信息进行解析,确定上述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率,包括:将上述图像特征信息输入预先训练的概率计算模型,得到上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率,其中,上述概率计算模型用于表征包括人脸的图像的图像特征信息与像素点归属于上述类别标识集合中的每个类别标识的概率的对应关系。
在一些实施例中,上述卷积神经网络和上述概率计算模型是通过以下训练步骤训练得到的:提取预置的、包括显示有人脸的样本图像和上述样本图像的标注的训练样本,其中,上述标注包括用于表征上述样本图像中的各个像素点是否归属于上述类别标识集合中的每个类别标识的数据标记;利用机器学习方法,基于上述训练样本、预设的分类损失函数和反向传播算法训练得到卷积神经网络和概率计算模型,其中,上述分类损失函数用于表征上述概率计算模型输出的概率与上述标注中所包括的数据标记的差异程度。
在一些实施例中,上述卷积神经网络包括5个卷积层和5个反卷积层,上述卷积层用于对所输入的信息进行下采样操作,上述反卷积层用于对所输入的信息进行上采样操作。
在一些实施例中,上述基于上述概率,生成用于指示上述各个像素点所归属的类别的信息,包括:对于上述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;生成与上述人脸图像大小相同的矩阵,其中,上述矩阵中的每个元素是上述人脸图像中的、与该元素处于同一位置的像素点所归属的类别的类别标识。
在一些实施例中,上述基于上述人脸区域信息,从上述待检测图像中提取人脸图像,包括:扩大上述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;截取上述第一人脸区域得到上述人脸图像。
在一些实施例中,人脸区域为矩形区域;以及上述扩大上述人脸区域信息所指示的人脸区域的范围,包括:将上述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
第二方面,本申请实施例提供了一种信息生成装置,该装置包括:获取单元,配置用于获取待检测图像和预先对上述待检测图像进行人脸检测后所得的、用于指示上述待检测图像中的人脸区域的人脸区域信息;提取单元,配置用于基于上述人脸区域信息,从上述待检测图像中提取人脸图像;输入单元,配置用于将上述人脸图像输入预先训练的卷积神经网络,得到图像特征信息,其中,上述卷积神经网络用于提取图像特征;确定单元,配置用于对上述图像特征信息进行解析,确定上述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率;生成单元,配置用于基于上述概率,生成用于指示上述各个像素点所归属的类别的信息。
在一些实施例中,上述确定单元包括:输入子单元,配置用于将上述图像特征信息输入预先训练的概率计算模型,得到上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率,其中,上述概率计算模型用于表征包括人脸的图像的图像特征信息与像素点归属于上述类别标识集合中的每个类别标识的概率的对应关系。
在一些实施例中,上述卷积神经网络和上述概率计算模型是通过以下训练步骤训练得到的:提取预置的、包括显示有人脸的样本图像和上述样本图像的标注的训练样本,其中,上述标注包括用于表征上述样本图像中的各个像素点是否归属于上述类别标识集合中的每个类别标识的数据标记;利用机器学习方法,基于上述训练样本、预设的分类损失函数和反向传播算法训练得到卷积神经网络和概率计算模型,其中,上述分类损失函数用于表征上述概率计算模型输出的概率与上述标注中所包括的数据标记的差异程度。
在一些实施例中,上述卷积神经网络包括5个卷积层和5个反卷积层,上述卷积层用于对所输入的信息进行下采样操作,上述反卷积层用于对所输入的信息进行上采样操作。
在一些实施例中,上述生成单元包括:确定子单元,配置用于对于上述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;生成子单元,配置用于生成与上述人脸图像大小相同的矩阵,其中,上述矩阵中的每个元素是上述人脸图像中的、与该元素处于同一位置的像素点所归属的类别的类别标识。
在一些实施例中,上述提取单元包括:扩大子单元,配置用于扩大上述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;截取子单元,配置用于截取上述第一人脸区域得到上述人脸图像。
在一些实施例中,人脸区域为矩形区域;以及上述扩大子单元包括:扩大模块,配置用于将上述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当上述一个或多个程序被上述一个或多个处理器执行,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,上述程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的信息生成方法和装置,通过获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息,以便基于该人脸区域信息,从该待检测图像中提取人脸图像。而后将该人脸图像输入预先训练的卷积神经网络,以便得到图像特征信息。然后通过对该图像特征信息进行解析,可以确定该人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率。最后基于该概率,可以生成用于指示该各个像素点所归属的类别的信息。从而有效利用了预先训练的卷积神经网络对上述人脸图像的图像特征信息的确定,以及基于该图像特征信息对上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的确定,实现了富于针对性的信息生成。
而且,通过从待检测图像中提取人脸图像可以缩小检测范围,提高图像检测效率。另外,所生成的用于指示人脸图像所包括的各个像素点所归属的类别的信息可以用于人脸识别流程,基于该各个像素点所归属的类别(例如左眼、右眼、上嘴唇、下嘴唇等等),可以快速地识别出人脸中的不同部位,因此可以有助于提高人脸识别效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的信息生成方法的一个实施例的流程图;
图3是根据本申请的信息生成方法的一个应用场景的示意图;
图4是根据本申请的信息生成方法的又一个实施例的流程图;
图5是根据本申请的信息生成装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的信息生成方法或信息生成装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括数据存储用服务器101,网络102和图像处理服务器103。网络102用以在数据存储用服务器101和图像处理服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
数据存储用服务器101可以是提供各种服务的服务器,例如用于存储包括人脸的图像和用于指示该图像中的人脸区域的人脸区域信息的服务器。可选地,数据存储用服务器101还可以具有人脸检测功能,该人脸区域信息可以是数据存储用服务器101对该图像进行人脸检测后所生成的信息。
图像处理服务器103可以是提供各种服务的服务器,例如从数据存储用服务器101获取待检测图像和用于指示该待检测图像中的人脸区域的人脸区域信息,并基于该待检测图像和该人脸区域信息进行相应的检测操作,并且还可以生成相应的信息,例如用于指示从待检测图像中提取的人脸图像所包括的各个像素点所归属的类别的信息。
需要说明的是,本申请实施例所提供的信息生成方法一般由图像处理服务器103执行,相应地,信息生成装置一般设置于图像处理服务器103中。
需要指出的是,若图像处理服务器103所要获取的待检测图像和用于指示该待检测图像中的人脸区域的人脸区域信息预先存储在图像处理服务器103本地,则系统架构100中可以不包括数据存储用服务器101。
应该理解,图1中的数据存储用服务器、网络和图像处理服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的数据存储用服务器、网络和图像处理服务器。
继续参考图2,示出了根据本申请的信息生成方法的一个实施例的流程200。该信息生成方法的流程200,包括以下步骤:
步骤201,获取待检测图像和预先对待检测图像进行人脸检测后所得的、用于指示待检测图像中的人脸区域的人脸区域信息。
在本实施例中,信息生成方法运行于其上的电子设备(例如图1所示的图像处理服务器103)可以通过有线连接方式或无线连接方式从所连接的数据存储用服务器(例如图1所示的数据存储用服务器101)获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息。当然,若该待检测图像和该人脸区域信息预先存储在上述电子设备本地,上述电子设备可以本地获取该待检测图像和该人脸区域信息。
需要说明的是,人脸区域可以是具有任意形状(例如圆形、矩形等等)的人脸区域。这里,当上述待检测图像中的人脸区域为圆形区域时,上述人脸区域信息例如可以包括该人脸区域的中心点的坐标和该人脸区域的半径。当上述待检测图像中的人脸区域为矩形区域时,上述人脸区域信息例如可以包括该人脸区域的至少一个顶点的坐标、高度和宽度等等。
需要指出的是,上述待检测图像和上述人脸区域信息可以是上述电子设备主动获取的,也可以是上述电子设备被动获取的(例如是上述数据存储用服务器发送给上述电子设备的),本实施例不对此方面内容做任何限定。
在本实施例的一些可选的实现方式中,上述电子设备还可以从所连接的终端设备获取上述待检测图像和上述人脸区域信息。需要说明的是,本实施例不对上述待检测图像和上述人脸区域信息的来源做任何限定。
步骤202,基于人脸区域信息,从待检测图像中提取人脸图像。
在本实施例中,上述电子设备在获取到上述待检测图像和上述人脸区域信息后,上述电子设备可以基于上述人脸区域信息,从上述待检测图像中提取人脸图像。作为示例,上述电子设备可以在上述待检测图像中截取上述人脸区域信息所指示的人脸区域得到人脸图像。
步骤203,将人脸图像输入预先训练的卷积神经网络,得到图像特征信息。
在本实施例中,上述电子设备在得到人脸图像后,上述电子设备可以将该人脸图像输入预先训练的卷积神经网络,得到图像特征信息。其中,该卷积神经网络可以用于提取图像特征。此处,图像特征信息可以是用于对图像的特征进行表征的信息,图像的特征可以是图像的各种基本要素(例如颜色、线条、纹理等)。实践中,卷积神经网络(ConvolutionalNeural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现。因而,可以利用卷积神经网络进行图像特征信息的提取。
需要说明的是,上述卷积神经网络可以是利用机器学习方法和训练样本对现有的深度卷积神经网络(例如DenseBox、VGGNet、ResNet、SegNet等)进行有监督训练而得到的。需要指出的是,上述卷积神经网络可以包括至少一个卷积层和至少一个反卷积层。其中,该卷积层可以用于对所输入的信息进行下采样操作;该反卷积层可以用于对所输入的信息进行上采样操作。此外,上述卷积神经网络还可以使用各种非线性激活函数(例如ReLU(Rectified Linear Units,修正线性单元)函数、Sigmoid函数等)对信息进行非线性计算。
步骤204,对图像特征信息进行解析,确定人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率。
在本实施例中,上述电子设备可以利用各种方式对图像特征信息进行解析,确定上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率。作为示例,上述电子设备本地或与上述电子设备远程通信连接的服务器中可以预先存储有大量的图像特征信息与各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的对应关系的对应关系表。上述电子设备可以在该对应关系表中查询与上述人脸图像中的图像特征信息相匹配的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率。
需要说明的是,上述类别标识集合中的类别标识所指示的类别例如可以是左眼、右眼、上嘴唇、下嘴唇、背景、头发、左眉毛或右眉毛等。另外,上述类别标识集合中的类别标识可以用字母或数字等字符表示。
在本实施例的一些可选的实现方式中,上述电子设备可以将上述人脸图像的图像特征信息输入预先训练的第一概率计算模型,得到上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率。作为示例,上述第一概率计算模型可以是技术人员基于大量统计计算而预先制定的、用于表征图像特征信息与像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的对应关系的对应关系表;也可以是使用朴素贝叶斯模型(Naive Bayesian Model,NBM)、支持向量机(SupportVector Machine,SVM)等用于分类的模型或使用分类函数(例如softmax函数等)等进行训练得到的。
步骤205,基于上述概率,生成用于指示人脸图像所包括的各个像素点所归属的类别的信息。
在本实施例中,上述电子设备在确定上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率后,上述电子设备可以基于该概率,生成用于指示上述人脸图像所包括的各个像素点所归属的类别的信息。作为示例,对于上述人脸图像所包括的每个像素点,上述电子设备可以将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别。而后上述电子设备可以生成对应关系信息,其中,该对应关系信息可以包括上述人脸图像中的每个像素点的坐标和与该坐标对应的类别标识(即该像素点所归属的类别的类别标识)。
可选地,上述类别标识集合中的每个类别标识可以具有对应的类别名称。上述电子设备在确定上述人脸图像所包括的每个像素点所归属的类别后,上述电子设备还可以生成包括以下信息的对应关系表:上述人脸图像中的每个像素点的坐标、与该坐标对应的类别名称(即该像素点所归属的类别的类别名称)。
在本实施例的一些可选的实现方式中,上述电子设备在生成用于指示上述人脸图像所包括的各个像素点所归属的类别的信息后,上述电子设备还可以输出该信息,例如将该信息输出至所连接的人脸识别系统等。
在本实施例的一些可选的实现方式中,上述电子设备在生成用于指示上述人脸图像所包括的各个像素点所归属的类别的信息后,上述电子设备还可以存储该信息,例如将该信息存储至上述电子设备本地或与上述电子设备远程通信连接的服务器。
继续参见图3,图3是根据本实施例的信息生成方法的应用场景的一个示意图。在图3的应用场景中,图像处理服务器301可以从所连接的数据存储用服务器302获取待检测图像303和预先对待检测图像303进行人脸检测后、用于指示待检测图像303中的人脸区域的人脸区域信息304。而后,图像处理服务器301可以在待检测图像303中截取人脸区域信息304所指示的人脸区域,得到人脸图像305。之后,图像处理服务器301可以将人脸图像305输入预先训练的卷积神经网络,得到图像特征信息306。然后,图像处理服务器301可以对图像特征信息306进行解析,确定人脸图像305所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率307。最后,图像处理服务器301可以基于概率307,生成对应关系信息308,其中,对应关系信息308可以包括人脸图像305所包括的每个像素点的坐标和与该坐标对应的类别标识,即该像素点所归属的类别的类别标识。
本申请的上述实施例提供的方法有效利用了预先训练的卷积神经网络对上述人脸图像的图像特征信息的确定,以及基于该图像特征信息对上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的确定,实现了富于针对性的信息生成。
而且,通过从待检测图像中提取人脸图像可以缩小检测范围,提高图像检测效率。另外,所生成的用于指示人脸图像所包括的各个像素点所归属的类别的信息可以用于人脸识别流程,基于该各个像素点所归属的类别(例如左眼、右眼、上嘴唇、下嘴唇等等),可以快速地识别出人脸中的不同部位,因此可以有助于提高人脸识别效率。
进一步参见图4,其示出了信息生成方法的又一个实施例的流程400。该信息生成方法的流程400,包括以下步骤:
步骤401,获取待检测图像和预先对待检测图像进行人脸检测后所得的、用于指示待检测图像中的人脸区域的人脸区域信息。
在本实施例中,信息生成方法运行于其上的电子设备(例如图1所示的图像处理服务器103)可以通过有线连接方式或无线连接方式从所连接的数据存储用服务器(例如图1所示的数据存储用服务器101)获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息。当然,若该待检测图像和该人脸区域信息预先存储在上述电子设备本地,上述电子设备可以本地获取该待检测图像和该人脸区域信息。需要指出的是,人脸区域可以为矩形区域。
步骤402,扩大人脸区域信息所指示的人脸区域的范围,得到第一人脸区域,并截取第一人脸区域得到人脸图像。
在本实施例中,上述电子设备在获取到上述待检测图像和上述人脸区域信息后,上述电子设备可以扩大人脸区域信息所指示的人脸区域的范围,得到第一人脸区域。上述电子设备可以截取该第一人脸区域得到人脸图像。
在本实施例中,上述电子设备可以将上述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值,将经扩大后的人脸区域作为第一人脸区域。这里,该预设倍数例如可以是1等数值。而且,该高度和该宽度可以对应同一个预设数值,也可以对应不同的预设数值。例如,与该高度对应的预设数值是与该高度相同的数值;与该宽度对应的预设数值是与该高度相同的数值。预设倍数和预设数值是可以根据实际需要进行修改的,本实施例不对此方面内容做任何限定。
步骤403,将人脸图像输入预先训练的卷积神经网络,得到图像特征信息。
在本实施例中,上述电子设备在得到人脸图像后,上述电子设备可以将该人脸图像输入预先训练的卷积神经网络,得到图像特征信息。其中,该卷积神经网络可以用于提取图像特征。此处,图像特征信息可以是用于对图像的特征进行表征的信息,图像的特征可以是图像的各种基本要素(例如颜色、线条、纹理等)。
需要说明的是,该卷积神经网络例如可以是全卷积网络(Fully ConvolutionalNetworks,FCN)。该卷积神经网络例如可以包括5个卷积层和5个反卷积层。该卷积层可以用于对所输入的信息进行下采样操作,该反卷积层可以用于对所输入的信息进行上采样操作。这里,该卷积神经网络可以使用非线性激活函数(例如ReLU函数、Sigmoid函数等)对信息进行非线性计算。
步骤404,将图像特征信息输入预先训练的概率计算模型,得到人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率。
在本实施例中,上述电子设备在得到上述人脸图像的图像特征信息后,上述电子设备可以将该图像特征信息输入预先训练的概率计算模型,得到上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率。其中,该概率计算模型可以用于表征包括人脸的图像的图像特征信息与像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的对应关系。
这里,上述类别标识集合中的类别标识所指示的类别例如可以是左眼、右眼、上嘴唇、下嘴唇、背景、头发、左眉毛或右眉毛等。另外,上述类别标识集合中的类别标识可以用字母或数字等字符表示。
需要说明的是,上述概率计算模型可以是神经网络中的一个全连接层(FullyConnected Layers,FC)。上述全卷积网络和该全连接层可以构成一个卷积神经网络的整体。上述电子设备可以同时对该卷积神经网络进行训练,即同时对上述全卷积网络和上述全连接层进行训练。
具体地,上述电子设备可以通过以下训练步骤训练得到上述卷积神经网络和上述概率计算模型:
首先,上述电子设备可以提取预置的、包括显示有人脸的样本图像和该样本图像的标注的训练样本。其中,该标注可以包括用于表征该样本图像中的各个像素点是否归属于上述类别标识集合中的每个类别标识所指示的类别的数据标记。这里,每个像素点所对应的数据标记的数目与上述类别标识集合中的类别标识的数目相同。需要说明的是,数据标记可以包括0和1。0可以表示“不归属于”;1可以表示“归属于”。作为示例,对于任意一个像素点和任意一个类别标识,若同时与该像素点和该类别标识相关联的数据标记为0,则可以表征该像素点不归属于该类别标识所指示的类别。需要指出的是,上述标注可以用矩阵表示。
而后,上述电子设备可以利用机器学习方法,并基于上述训练样本、预设的分类损失函数和反向传播算法训练得到卷积神经网络和概率计算模型。其中,该分类损失函数可以用于表征上述概率计算模型输出的概率与上述标注中所包括的数据标记的差异程度。上述分类损失函数可以是各种用于分类的损失函数(例如Hinge Loss函数或Softmax Loss函数等)。在训练过程中,分类损失函数可以约束卷积核修改的方式和方向,训练的目标为使分类损失函数的值最小。因而,训练后得到的全卷积网络和全连接层的参数即为分类损失函数的值为最小值时所对应的参数。
需要说明的是,上述反向传播算法(Back Propgation Algorithm,BP算法)也可称为误差反向传播(Error Back Propagation,BP)算法,或误差逆传播算法。BP算法是由学习过程由信号的正向传播与误差的反向传播两个过程组成。在前馈网络中,输入信号经输入层输入,通过隐层计算由输出层输出,输出值与标记值比较,若有误差,将误差25反向由输出层向输入层传播,在这个过程中,可以利用梯度下降算法(例如随机梯度下降算法)对神经元权值(例如卷积层中卷积核的参数等)进行调整。此处,上述分类损失函数即可用于表征输出值与标记值的误差。
步骤405,对于人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别。
在本实施例中,对于上述人脸图像所包括的每个像素点,上述电子设备可以将在步骤404所确定的、与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别。作为示例,对于某个像素点P,假定上述类别标识集合包括类别标识A、B、C,像素点P归属于类别标识A所指示的类别的概率为0.6,归属于类别标识B所指示的类别的概率为0.7,归属于类别标识C所指示的类别的概率为0.8,则与像素点P对应的最大概率为0.8,上述电子设备可以将类别标识C所指示的类别确定为像素点P所归属的类别。
步骤406,生成与人脸图像大小相同的矩阵。
在本实施例中,上述电子设备在确定上述人脸图像所包括的每个像素点所归属的类别后,上述电子设备可以生成与上述人脸图像大小相同的矩阵。其中,该矩阵中的每个元素可以是上述人脸图像中的、与该元素处于同一位置的像素点所归属的类别的类别标识。
从图4中可以看出,与图2对应的实施例相比,本实施例中的信息生成方法的流程400突出了对待检测图像中的人脸区域的范围进行扩大的步骤,利用预先训练的概率计算模型对上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率进行确定的步骤,以及生成与上述人脸图像大小相同的矩阵的步骤。由此,本实施例描述的方案通过对人脸区域的范围进行扩大,可以扩大人脸图像的覆盖面积,使人脸图像尽可能地包括较多的人脸部位。通过该概率计算模型确定上述概率,可以提高上述概率的准确度,进而可以提高所生成的信息的有效性。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种信息生成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例所示的信息生成装置500包括:获取单元501、提取单元502、输入单元503、确定单元504和生成单元505。其中,获取单元501配置用于获取待检测图像和预先对上述待检测图像进行人脸检测后所得的、用于指示上述待检测图像中的人脸区域的人脸区域信息;提取单元502配置用于基于上述人脸区域信息,从上述待检测图像中提取人脸图像;输入单元503配置用于将上述人脸图像输入预先训练的卷积神经网络,得到图像特征信息,其中,上述卷积神经网络用于提取图像特征;确定单元504配置用于对上述图像特征信息进行解析,确定上述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率;而生成单元505配置用于基于上述概率,生成用于指示上述各个像素点所归属的类别的信息。
在本实施例中,信息生成装置500中:获取单元501、提取单元502、输入单元503、确定单元504和生成单元505的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204和步骤205的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述确定单元504可以包括:输入子单元(图中未示出),配置用于将上述图像特征信息输入预先训练的概率计算模型,得到上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率,其中,上述概率计算模型可以用于表征包括人脸的图像的图像特征信息与像素点归属于上述类别标识集合中的每个类别标识的概率的对应关系。
在本实施例的一些可选的实现方式中,上述卷积神经网络和上述概率计算模型可以是通过以下训练步骤训练得到的:提取预置的、包括显示有人脸的样本图像和上述样本图像的标注的训练样本,其中,上述标注可以包括用于表征上述样本图像中的各个像素点是否归属于上述类别标识集合中的每个类别标识的数据标记;利用机器学习方法,基于上述训练样本、预设的分类损失函数和反向传播算法训练得到卷积神经网络和概率计算模型,其中,上述分类损失函数可以用于表征上述概率计算模型输出的概率与上述标注中所包括的数据标记的差异程度。
在本实施例的一些可选的实现方式中,上述卷积神经网络可以包括5个卷积层和5个反卷积层,上述卷积层可以用于对所输入的信息进行下采样操作,上述反卷积层可以用于对所输入的信息进行上采样操作。
在本实施例的一些可选的实现方式中,上述生成单元505可以包括:确定子单元(图中未示出),配置用于对于上述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;生成子单元(图中未示出),配置用于生成与上述人脸图像大小相同的矩阵,其中,上述矩阵中的每个元素是上述人脸图像中的、与该元素处于同一位置的像素点所归属的类别的类别标识。
在本实施例的一些可选的实现方式中,上述提取单元502可以包括:扩大子单元(图中未示出),配置用于扩大上述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;截取子单元(图中未示出),配置用于截取上述第一人脸区域得到上述人脸图像。
在本实施例的一些可选的实现方式中,人脸区域可以为矩形区域;以及上述扩大子单元可以包括:扩大模块(图中未示出),配置用于将上述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
本申请的上述实施例提供的装置有效利用了预先训练的卷积神经网络对上述人脸图像的图像特征信息的确定,以及基于该图像特征信息对上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的确定,实现了富于针对性的信息生成。
而且,通过从待检测图像中提取人脸图像可以缩小检测范围,提高图像检测效率。另外,所生成的用于指示人脸图像所包括的各个像素点所归属的类别的信息可以用于人脸识别流程,基于该各个像素点所归属的类别(例如左眼、右眼、上嘴唇、下嘴唇等等),可以快速地识别出人脸中的不同部位,因此可以有助于提高人脸识别效率。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的系统中限定的上述功能。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、提取单元、输入单元、确定单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待检测图像和预先对待检测图像进行人脸检测后所得的、用于指示待检测图像中的人脸区域的人脸区域信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备包括:获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息;基于该人脸区域信息,从该待检测图像中提取人脸图像;将该人脸图像输入预先训练的卷积神经网络,得到图像特征信息,其中,该卷积神经网络用于提取图像特征;对该图像特征信息进行解析,确定该人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率;基于该概率,生成用于指示该各个像素点所归属的类别的信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种信息生成方法,其特征在于,所述方法包括:
获取待检测图像和预先对所述待检测图像进行人脸检测后所得的、用于指示所述待检测图像中的人脸区域的人脸区域信息;
基于所述人脸区域信息,从所述待检测图像中提取人脸图像;
将所述人脸图像输入预先训练的卷积神经网络,得到图像特征信息,其中,所述卷积神经网络用于提取图像特征;
对所述图像特征信息进行解析,确定所述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率;
基于所述概率,生成用于指示所述各个像素点所归属的类别的信息。
2.根据权利要求1所述的方法,其特征在于,所述对所述图像特征信息进行解析,确定所述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率,包括:
将所述图像特征信息输入预先训练的概率计算模型,得到所述人脸图像所包括的各个像素点归属于所述类别标识集合中的每个类别标识所指示的类别的概率,其中,所述概率计算模型用于表征包括人脸的图像的图像特征信息与像素点归属于所述类别标识集合中的每个类别标识的概率的对应关系。
3.根据权利要求2所述的方法,其特征在于,所述卷积神经网络和所述概率计算模型是通过以下训练步骤训练得到的:
提取预置的、包括显示有人脸的样本图像和所述样本图像的标注的训练样本,其中,所述标注包括用于表征所述样本图像中的各个像素点是否归属于所述类别标识集合中的每个类别标识的数据标记;
利用机器学习方法,基于所述训练样本、预设的分类损失函数和反向传播算法训练得到卷积神经网络和概率计算模型,其中,所述分类损失函数用于表征所述概率计算模型输出的概率与所述标注中所包括的数据标记的差异程度。
4.根据权利要求1所述的方法,其特征在于,所述卷积神经网络包括5个卷积层和5个反卷积层,所述卷积层用于对所输入的信息进行下采样操作,所述反卷积层用于对所输入的信息进行上采样操作。
5.根据权利要求1所述的方法,其特征在于,所述基于所述概率,生成用于指示所述各个像素点所归属的类别的信息,包括:
对于所述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;
生成与所述人脸图像大小相同的矩阵,其中,所述矩阵中的每个元素是所述人脸图像中的、与该元素处于同一位置的像素点所归属的类别的类别标识。
6.根据权利要求1所述的方法,其特征在于,所述基于所述人脸区域信息,从所述待检测图像中提取人脸图像,包括:
扩大所述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;
截取所述第一人脸区域得到所述人脸图像。
7.根据权利要求6所述的方法,其特征在于,人脸区域为矩形区域;以及
所述扩大所述人脸区域信息所指示的人脸区域的范围,包括:
将所述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
8.一种信息生成装置,其特征在于,所述装置包括:
获取单元,配置用于获取待检测图像和预先对所述待检测图像进行人脸检测后所得的、用于指示所述待检测图像中的人脸区域的人脸区域信息;
提取单元,配置用于基于所述人脸区域信息,从所述待检测图像中提取人脸图像;
输入单元,配置用于将所述人脸图像输入预先训练的卷积神经网络,得到图像特征信息,其中,所述卷积神经网络用于提取图像特征;
确定单元,配置用于对所述图像特征信息进行解析,确定所述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率;
生成单元,配置用于基于所述概率,生成用于指示所述各个像素点所归属的类别的信息。
9.根据权利要求8所述的装置,其特征在于,所述确定单元包括:
输入子单元,配置用于将所述图像特征信息输入预先训练的概率计算模型,得到所述人脸图像所包括的各个像素点归属于所述类别标识集合中的每个类别标识所指示的类别的概率,其中,所述概率计算模型用于表征包括人脸的图像的图像特征信息与像素点归属于所述类别标识集合中的每个类别标识的概率的对应关系。
10.根据权利要求9所述的装置,其特征在于,所述卷积神经网络和所述概率计算模型是通过以下训练步骤训练得到的:
提取预置的、包括显示有人脸的样本图像和所述样本图像的标注的训练样本,其中,所述标注包括用于表征所述样本图像中的各个像素点是否归属于所述类别标识集合中的每个类别标识的数据标记;
利用机器学习方法,基于所述训练样本、预设的分类损失函数和反向传播算法训练得到卷积神经网络和概率计算模型,其中,所述分类损失函数用于表征所述概率计算模型输出的概率与所述标注中所包括的数据标记的差异程度。
11.根据权利要求8所述的装置,其特征在于,所述卷积神经网络包括5个卷积层和5个反卷积层,所述卷积层用于对所输入的信息进行下采样操作,所述反卷积层用于对所输入的信息进行上采样操作。
12.根据权利要求8所述的装置,其特征在于,所述生成单元包括:
确定子单元,配置用于对于所述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;
生成子单元,配置用于生成与所述人脸图像大小相同的矩阵,其中,所述矩阵中的每个元素是所述人脸图像中的、与该元素处于同一位置的像素点所归属的类别的类别标识。
13.根据权利要求8所述的装置,其特征在于,所述提取单元包括:
扩大子单元,配置用于扩大所述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;
截取子单元,配置用于截取所述第一人脸区域得到所述人脸图像。
14.根据权利要求13所述的装置,其特征在于,人脸区域为矩形区域;以及
所述扩大子单元包括:
扩大模块,配置用于将所述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710911147.XA CN107609536A (zh) | 2017-09-29 | 2017-09-29 | 信息生成方法和装置 |
US16/052,405 US10853623B2 (en) | 2017-09-29 | 2018-08-01 | Method and apparatus for generating information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710911147.XA CN107609536A (zh) | 2017-09-29 | 2017-09-29 | 信息生成方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107609536A true CN107609536A (zh) | 2018-01-19 |
Family
ID=61067554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710911147.XA Pending CN107609536A (zh) | 2017-09-29 | 2017-09-29 | 信息生成方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10853623B2 (zh) |
CN (1) | CN107609536A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256591A (zh) * | 2018-02-26 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN109241930A (zh) * | 2018-09-20 | 2019-01-18 | 北京字节跳动网络技术有限公司 | 用于处理眉部图像的方法和装置 |
CN109390056A (zh) * | 2018-11-05 | 2019-02-26 | 平安科技(深圳)有限公司 | 健康预测方法、装置、终端设备及计算机可读存储介质 |
CN110232722A (zh) * | 2019-06-13 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置 |
CN110956055A (zh) * | 2018-09-26 | 2020-04-03 | 北京中科虹星科技有限公司 | 一种人脸图像活体检测方法及系统 |
WO2020108466A1 (zh) * | 2018-11-30 | 2020-06-04 | 华为技术有限公司 | 一种图像解析方法以及装置 |
CN111339993A (zh) * | 2020-03-16 | 2020-06-26 | 上海联影医疗科技有限公司 | 一种x射线图像金属检测方法和系统 |
CN111444362A (zh) * | 2020-03-31 | 2020-07-24 | 腾讯音乐娱乐科技(深圳)有限公司 | 恶意图片拦截方法、装置、设备和存储介质 |
CN111626193A (zh) * | 2020-05-26 | 2020-09-04 | 北京嘀嘀无限科技发展有限公司 | 一种面部识别方法、面部识别装置及可读存储介质 |
CN111783822A (zh) * | 2020-05-20 | 2020-10-16 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及存储介质 |
CN112330619A (zh) * | 2020-10-29 | 2021-02-05 | 浙江大华技术股份有限公司 | 一种检测目标区域的方法、装置、设备及存储介质 |
CN112634123A (zh) * | 2019-10-08 | 2021-04-09 | 北京京东尚科信息技术有限公司 | 一种图像处理方法和装置 |
US20210192772A1 (en) * | 2019-12-24 | 2021-06-24 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
CN113627221A (zh) * | 2020-05-09 | 2021-11-09 | 阿里巴巴集团控股有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110211200B (zh) * | 2019-04-22 | 2023-04-18 | 深圳安科高技术股份有限公司 | 一种基于神经网络技术的牙弓线生成方法及其系统 |
CN110378381B (zh) * | 2019-06-17 | 2024-01-19 | 华为技术有限公司 | 物体检测方法、装置和计算机存储介质 |
CN110349108B (zh) * | 2019-07-10 | 2022-07-26 | 北京字节跳动网络技术有限公司 | 处理图像的方法、装置、电子设备、及存储介质 |
CN110826567B (zh) * | 2019-11-06 | 2023-04-07 | 北京字节跳动网络技术有限公司 | 光学字符识别方法、装置、设备及存储介质 |
CN111783635A (zh) * | 2020-06-30 | 2020-10-16 | 北京百度网讯科技有限公司 | 图像标注方法、装置、设备以及存储介质 |
CN111881944A (zh) * | 2020-07-08 | 2020-11-03 | 贵州无忧天空科技有限公司 | 图像鉴别的方法、电子设备和计算机可读介质 |
CN112183203A (zh) * | 2020-08-26 | 2021-01-05 | 北京工业大学 | 一种基于多尺度像素特征融合的实时交通标志检测方法 |
CN112329701A (zh) * | 2020-11-20 | 2021-02-05 | 北京联合大学 | 一种用于低分辨率图像的人脸表情识别方法 |
CN113379592B (zh) * | 2021-06-23 | 2023-09-01 | 北京百度网讯科技有限公司 | 图片中敏感区域的处理方法、装置和电子设备 |
CN117037258B (zh) * | 2023-10-09 | 2024-02-20 | 苏州元脑智能科技有限公司 | 面部图像的检测方法、装置、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504376A (zh) * | 2014-12-22 | 2015-04-08 | 厦门美图之家科技有限公司 | 一种人脸图像的年龄分类方法和系统 |
CN105868797A (zh) * | 2015-01-22 | 2016-08-17 | 深圳市腾讯计算机系统有限公司 | 网络参数训练方法、景物类型识别方法及装置 |
CN106469298A (zh) * | 2016-08-31 | 2017-03-01 | 乐视控股(北京)有限公司 | 基于人脸图像的年龄识别方法及装置 |
CN106485215A (zh) * | 2016-09-29 | 2017-03-08 | 西交利物浦大学 | 基于深度卷积神经网络的人脸遮挡检测方法 |
CN106599830A (zh) * | 2016-12-09 | 2017-04-26 | 中国科学院自动化研究所 | 人脸关键点定位方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8027521B1 (en) * | 2008-03-25 | 2011-09-27 | Videomining Corporation | Method and system for robust human gender recognition using facial feature localization |
US9928410B2 (en) * | 2014-11-24 | 2018-03-27 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
US11026634B2 (en) * | 2017-04-05 | 2021-06-08 | doc.ai incorporated | Image-based system and method for predicting physiological parameters |
CN110838124B (zh) * | 2017-09-12 | 2021-06-18 | 深圳科亚医疗科技有限公司 | 用于分割具有稀疏分布的对象的图像的方法、系统和介质 |
-
2017
- 2017-09-29 CN CN201710911147.XA patent/CN107609536A/zh active Pending
-
2018
- 2018-08-01 US US16/052,405 patent/US10853623B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504376A (zh) * | 2014-12-22 | 2015-04-08 | 厦门美图之家科技有限公司 | 一种人脸图像的年龄分类方法和系统 |
CN105868797A (zh) * | 2015-01-22 | 2016-08-17 | 深圳市腾讯计算机系统有限公司 | 网络参数训练方法、景物类型识别方法及装置 |
CN106469298A (zh) * | 2016-08-31 | 2017-03-01 | 乐视控股(北京)有限公司 | 基于人脸图像的年龄识别方法及装置 |
CN106485215A (zh) * | 2016-09-29 | 2017-03-08 | 西交利物浦大学 | 基于深度卷积神经网络的人脸遮挡检测方法 |
CN106599830A (zh) * | 2016-12-09 | 2017-04-26 | 中国科学院自动化研究所 | 人脸关键点定位方法及装置 |
Non-Patent Citations (2)
Title |
---|
YIZHANG XIA等: "Face Occlusion Detection Using Deep Convolutional Neural Networks", 《INTERNATIONAL JOURNAL OF PATTERN RECOGNITION AND ARTICIAL INTELLIGENCE》 * |
赵婕: "《图像特征提取与语义分析》", 30 June 2015, 重庆大学出版社 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256591A (zh) * | 2018-02-26 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN108256591B (zh) * | 2018-02-26 | 2021-11-26 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN109241930A (zh) * | 2018-09-20 | 2019-01-18 | 北京字节跳动网络技术有限公司 | 用于处理眉部图像的方法和装置 |
CN109241930B (zh) * | 2018-09-20 | 2021-03-02 | 北京字节跳动网络技术有限公司 | 用于处理眉部图像的方法和装置 |
CN110956055A (zh) * | 2018-09-26 | 2020-04-03 | 北京中科虹星科技有限公司 | 一种人脸图像活体检测方法及系统 |
CN109390056A (zh) * | 2018-11-05 | 2019-02-26 | 平安科技(深圳)有限公司 | 健康预测方法、装置、终端设备及计算机可读存储介质 |
CN111259686A (zh) * | 2018-11-30 | 2020-06-09 | 华为终端有限公司 | 一种图像解析方法以及装置 |
WO2020108466A1 (zh) * | 2018-11-30 | 2020-06-04 | 华为技术有限公司 | 一种图像解析方法以及装置 |
CN111259686B (zh) * | 2018-11-30 | 2024-04-09 | 华为终端有限公司 | 一种图像解析方法以及装置 |
US11734953B2 (en) | 2018-11-30 | 2023-08-22 | Huawei Technologies Co., Ltd. | Image parsing method and apparatus |
CN110232722B (zh) * | 2019-06-13 | 2023-08-04 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置 |
CN110232722A (zh) * | 2019-06-13 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置 |
CN112634123A (zh) * | 2019-10-08 | 2021-04-09 | 北京京东尚科信息技术有限公司 | 一种图像处理方法和装置 |
US20210192772A1 (en) * | 2019-12-24 | 2021-06-24 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
US11842509B2 (en) * | 2019-12-24 | 2023-12-12 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
CN111339993A (zh) * | 2020-03-16 | 2020-06-26 | 上海联影医疗科技有限公司 | 一种x射线图像金属检测方法和系统 |
CN111444362B (zh) * | 2020-03-31 | 2024-04-16 | 腾讯音乐娱乐科技(深圳)有限公司 | 恶意图片拦截方法、装置、设备和存储介质 |
CN111444362A (zh) * | 2020-03-31 | 2020-07-24 | 腾讯音乐娱乐科技(深圳)有限公司 | 恶意图片拦截方法、装置、设备和存储介质 |
CN113627221A (zh) * | 2020-05-09 | 2021-11-09 | 阿里巴巴集团控股有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN111783822B (zh) * | 2020-05-20 | 2024-04-16 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及存储介质 |
CN111783822A (zh) * | 2020-05-20 | 2020-10-16 | 北京达佳互联信息技术有限公司 | 图像分类方法、装置及存储介质 |
CN111626193A (zh) * | 2020-05-26 | 2020-09-04 | 北京嘀嘀无限科技发展有限公司 | 一种面部识别方法、面部识别装置及可读存储介质 |
CN112330619A (zh) * | 2020-10-29 | 2021-02-05 | 浙江大华技术股份有限公司 | 一种检测目标区域的方法、装置、设备及存储介质 |
CN112330619B (zh) * | 2020-10-29 | 2023-10-10 | 浙江大华技术股份有限公司 | 一种检测目标区域的方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US10853623B2 (en) | 2020-12-01 |
US20190102605A1 (en) | 2019-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107609536A (zh) | 信息生成方法和装置 | |
CN107679490B (zh) | 用于检测图像质量的方法和装置 | |
CN108038469B (zh) | 用于检测人体的方法和装置 | |
CN107590807A (zh) | 用于检测图像质量的方法和装置 | |
CN107590482A (zh) | 信息生成方法和装置 | |
CN107578034A (zh) | 信息生成方法和装置 | |
CN107644209A (zh) | 人脸检测方法和装置 | |
CN108898185A (zh) | 用于生成图像识别模型的方法和装置 | |
CN108154196B (zh) | 用于输出图像的方法和装置 | |
US20230081645A1 (en) | Detecting forged facial images using frequency domain information and local correlation | |
CN108898186A (zh) | 用于提取图像的方法和装置 | |
CN107633218A (zh) | 用于生成图像的方法和装置 | |
CN107578017A (zh) | 用于生成图像的方法和装置 | |
CN107622240A (zh) | 人脸检测方法和装置 | |
CN107908789A (zh) | 用于生成信息的方法和装置 | |
CN109002842A (zh) | 图像识别方法和装置 | |
CN107622252A (zh) | 信息生成方法和装置 | |
CN109410218A (zh) | 用于生成车辆损伤信息的方法和装置 | |
CN108280477A (zh) | 用于聚类图像的方法和装置 | |
CN108229485A (zh) | 用于测试用户界面的方法和装置 | |
CN110443222A (zh) | 用于训练脸部关键点检测模型的方法和装置 | |
CN107679466A (zh) | 信息输出方法和装置 | |
CN108256591A (zh) | 用于输出信息的方法和装置 | |
CN107910060A (zh) | 用于生成信息的方法和装置 | |
CN108062544A (zh) | 用于人脸活体检测的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180119 |