CN108108669A - 一种基于显著子区域的面部特征解析方法 - Google Patents
一种基于显著子区域的面部特征解析方法 Download PDFInfo
- Publication number
- CN108108669A CN108108669A CN201711251398.6A CN201711251398A CN108108669A CN 108108669 A CN108108669 A CN 108108669A CN 201711251398 A CN201711251398 A CN 201711251398A CN 108108669 A CN108108669 A CN 108108669A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- msub
- mrow
- subregion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Abstract
本发明提供一种基于显著子区域的面部特征解析方法,包括:建立训练模型;根据所述训练模型进行候选面部图像区域提取和面部图像的精细预测,获取面部特征解析结果,本发明通过结合区域的整体特征和显著子区域的局部特征对图像各区域是否包含面部图像进行判定,对面部图像和非面部图像的判别具有较高的区分能力,同时局部特征的提取速度快,本发明通过自动提取的对面部图像和背景有较高区分能力的区域,利用这些子区域的特征可以大幅提高面部特征解析的准确率,同时由于子区域特征和整体特征的提取共用一个卷积网络,因此不会引入额外的时间开销,有效的提高了解析效率。
Description
技术领域
本发明涉及物体检测识别技术领域,尤其涉及一种基于显著子区域的面部特征解析方法。
背景技术
面部特征解析是指判断图像中是否包含面部图像并给出面部图像所在的区域,通常是面部特征解析的第一步,在整个技术中有重要的地位。目前,面部特征解析技术日趋成熟,可广泛应用在安防、金融、教育、娱乐等领域。现有的面部特征解析方法大致可以分为以下三类。
第一类是根据区域内手工特征如Harr特征、局部二值特征、梯度直方图特征,使用支持向量机、级联的AdaBoost等分类器对图像各区域是否包含面部图像进行判定,图像的区域一般为遍历整个图像的滑动窗口。但手工特征结合传统分类器的方法使得面部特征解析的准确率不够高。
第二类是采用最近的基于卷积神经网络的通用物体检测方法,先由卷积网络输出部分可能包含物体的区域,再利用该区域更深层次的卷积特征进行物体类别的判定和位置与大小的回归。应用于面部特征解析问题时,物体类别数为2,分别是面部图像和背景。这种方法相比于传统方法提高了面部特征解析的准确率,但仍然无法满足实际应用需求。
第三类是采用多个卷积神经网络级联的方法,每一个级联单元根据区域整体的卷及特征判定当前区域是否包含面部图像并回归面部图像的位置和大小,之后保留包含面部图像的区域供下一个级联单元进一步判断,初始的候选区域为遍历整个图像的滑动窗口。这种方式大大提高了面部特征解析的准确率,但多个卷积神经网络的级联也使得算法具有较大的时间开销。
因此,亟需一种新的技术手段,能够提高面部特征解析的准确率,同时降低额外的时间开销。
发明内容
鉴于以上所述现有技术的缺点,本发明提供一种基于显著子区域的面部特征解析方法,以解决上述技术问题。
本发明提供的基于显著子区域的面部特征解析方法,包括:
建立训练模型;
根据所述训练模型进行候选面部图像区域提取和面部图像的精细预测,获取面部特征解析结果;
所述候选面部图像区域提取包括通过不同层次和不同分辨率的卷积层获取图像中包含不同尺度的候选区域,根据所述训练模型对输入图像进行处理,获取处理结果,所述处理结果包括输入图像的特征图、特征图出现面部图像的概率以及面图图像框的坐标;
所述面部图像的精细预测包括根据特征图出现面部图像的概率对面部图像框进行筛选,根据筛选结果获取面部图像候选区域集,对面部图像候选区域集中的每个候选区域进行处理,获取对应候选区域的属于面部图像区域的最终概率,并通过与预先设置的第一阈值进行比较完成面部图像的精细预测。
进一步,对面部图像框进行筛选后,获取第一筛选结果,对所述第一筛选结果进行非极大值抑制处理,依次从筛选后的面部图像框中选择与其他面部图像框重叠度小于第二阈值,且概率最大的面部图像框,获取第二筛选结果,将所述第二筛选结果作为面部图像候选区域集。
进一步,根据所述第二筛选结果,获取精确面部图像框坐标。
进一步,所述面部图像候选区域集包括多个候选区域,所有候选区域均获得第二筛选结果后,对其进行第二非极大值抑制处理。
进一步,建立训练模型之前,还包括:采集包含面部图像的训练图片,并对所述训练图片中的面部图像进行标注;
所述标注包括为每一个面部图像设置一个标注框,使面部图像位于标注框内部,且面部图像的轮廓贴紧标注框的边,并记录标注框在图片中的坐标。
进一步,所述训练模型中包括损失层,所述损失层包括面部特征解析损失和子区域显著性损失,将已标注的图片输入至训练模型,通过迭代处理最小化损失进行训练,获取训练模型的网络参数。
进一步,所述面部特征解析损失通过如下公式获取:
L=Lc+Lr
其中,L为面部特征解析损失,Lc为面部图像分类的损失,Lr为面部图像框坐标回归的损失,N为候选区域的总数,yi∈{0,1}为候选区域i的标签,i为候选区域序号,pi为子网络预测的候选区域,i为属于面部图像的概率,为候选区域i的面部图像框坐标,为其对应的标注框坐标,||.||2为向量的二范数。
进一步,所述子区域显著性损失通过如下公式获取:
其中,Ls为子区域显著性损失,i和j为候选区域的序号,δij∈{0,1},为候选区域i中第t个显著子区域的特征,为候选区域j中第t个显著子区域的特征,M是参与计算的区域对的总数量,αt为第t个显著子区域的权重。
进一步,将待处理的显著子区域的序号设置为t=1,每一个区域对(i,j)的权重置为根据第t个显著子区域特征之间的欧式距离对子区域对进行分类,获取第t个显著子区域的分类错误,根据分类错误的最小值更新每一区域对的权重,获取新权重
本发明的有益效果:本发明中的基于显著子区域的面部特征解析方法,通过结合区域的整体特征和显著子区域的局部特征对图像各区域是否包含面部图像进行判定,对面部图像和非面部图像的判别具有较高的区分能力,同时局部特征的提取速度快,本发明通过自动提取的对面部图像和背景有较高区分能力的区域,利用这些子区域的特征可以大幅提高面部特征解析的准确率,同时由于子区域特征和整体特征的提取共用一个卷积网络,因此不会引入额外的时间开销,有效的提高了解析效率。
附图说明
图1是本发明实施例中的基于显著子区域的面部特征解析方法的原理框图。
图2是本发明实施例中的基于显著子区域的面部特征解析方法的精细预测子网络图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
如图1所示,本实施例中的基于显著子区域的面部特征解析方法,包括:
建立训练模型;
根据所述训练模型进行候选面部图像区域提取和面部图像的精细预测,获取面部特征解析结果;
所述候选面部图像区域提取包括通过不同层次和不同分辨率的卷积层获取图像中包含不同尺度的候选区域,根据所述训练模型对输入图像进行处理,获取处理结果,所述处理结果包括输入图像的特征图、特征图出现面部图像的概率以及面图图像框的坐标;
所述面部图像的精细预测包括根据特征图出现面部图像的概率对面部图像框进行筛选,根据筛选结果获取面部图像候选区域集,对面部图像候选区域集中的每个候选区域进行处理,获取对应候选区域的属于面部图像区域的最终概率,并与预先设置的第一阈值进行比较。
在本实施例中,以级联的卷积神经网络为框架,结合区域的整体特征和显著子区域的局部特征对图像各区域是否包含面部图像进行判定。显著子区域是由图像内容自动选取的,对面部图像和非面部图像的判别具有较高的区分能力,同时由于局部特征的提取速度很快,可在几乎不增加运行时间的条件下显著提高面部特征解析的准确率。
本实施例中的基于显著子区域的面部特征解析方法利用不同层次、不同分辨率的卷积层获取图像中可能包含面部图像的不同尺度的候选区域,通过精细预测子网络对候选区域作进一步的判断,丢弃判定为非面部图像的区域并在判定为面部图像的区域进行面部图像位置和大小的精确预测,本实施例采用了端到端的卷积神经网络的方法,检测的流程即是网络的前向传输过程。
如图1所示,在本实施例中,以简化的VGG Net作为基础网络进行说明,简化操作包括:去掉了其中所有的池化层;将每一个卷积层的特征通道减半。用于提取候选区域集合1的卷积层1中采用的卷积核大小为1X1,通道数为64,分辨率为原图像的1/16X1/16;用于提取候选区域集合2的卷积层2采用的卷积核大小为3X3,通道数为64,分辨率为输入图像的1/32X1/32;用于提取候选区域集合3的卷积层3采用的卷积核大小为3X3,通道数为64,分辨率为输入图像的1/64X1/64。
通过精细预测子网络进行精细预测,进一步预测候选区域属于面部图像的置信度,并为置信度高于一定阈值的区域回归面部图像矩形框的坐标,精细预测子网络采用区域池化技术提取每一个候选区域的整体特征,由整体特征经过全连接得到5个显著子区域的坐标,其中每个子区域包含上、下、左、右4个坐标,这些坐标共同组成一个20维的向量。显著子区域的特征也通过区域池化技术提取。精细预测子网络中,候选区域的整体特征与显著子区域的特征按通道进行堆叠得到新的特征。新特征经过全连接层输出两个向量,一个2维向量表示区域为面部图像与非面部图像的置信度,一个4维向量表示面部图像矩形框的上、下、左、右坐标。精细预测子网络1、2、3都具有相同的结构和不同的参数,这些参数与整个网络的参数经训练过程确定。
在本实施例中,建立训练模型可以离线进行,候选面部图像区域提取和面部图像的精细预测利用训练模型进行处理,对面部图像框进行筛选后,获取第一筛选结果,对第一筛选结果进行非极大值抑制处理,依次从筛选后的面部图像框中选择与其他面部图像框重叠度小于第二阈值,且概率最大的面部图像框,获取第二筛选结果,将第二筛选结果作为面部图像候选区域集,本实施例中候选面部图像区域如图1中的候选区域集1、2、3,由于这三个集合的获取方式相同,下面以候选区域集1为例进行说明,该步骤可分为两个子步骤:
1、输入图片经过基础网络和卷积层1处理后得到一个64通道,空间分辨率为原图1/16X1/16的特征图;在特征图的每一个空间位置,以该位置周围3X3大小的特征图为特征,经过全连接输出该位置出现面部图像的概率以及面部图像框的坐标;优选地,本实施例对所有位置按照概率进行排序并保留概率最大的1000个面部图像框。
2、对保留的面部图像框进行非极大值抑制。从概率最大的面部图像框开始,依次从1000个面部图像框中选择与已挑选出的其他面部图像框重叠度小于第二阈值,且概率最大的面部图像框,优选地,本实施例采用直到挑选的面部图像框数量等于300。这些面部图像框将作为候选面部图像框即候选区域集1。
在本实施例中,面部图像的精细预测包括对每一个候选区域,都经过精细预测子网络进一步处理,输出该区域属于面部图像区域的最终概率,对于概率大于第一阈值的区域,同时输出更精确的面部图像框的坐标。待所有的候选区域处理完成后,对保留的面部图像框采用与上述步骤中相同的处理方式进行非极大指抑制,得到最终的面部特征解析结果。
在本实施例中,在建立训练模型之前,需要采集包含面部图像的训练图片,并对所述训练图片中的面部图像进行标注;标注包括为每一个面部图像设置一个标注框,使面部图像位于标注框内部,且面部图像的轮廓贴紧标注框的边,并记录标注框在图片中的坐标。优选地,本实施例中,标注时为图片中的每一个面部图像提供一个矩形框,使面部图像位于矩形框内部且面部图像的轮廓贴紧矩形的边,记录矩形框在图片中的坐标。
在本实施例中,在图1所示的精细预测子网络上添加两个损失层,分别计算面部特征解析损失L和子区域显著性损失Ls,如图2所示。其中L以面部图像置信度和面部图像框坐标的6维向量为输入,Ls以显著子区域的特征为输入。
面部特征解析损失L通过如下公式获取:
L=Lc+Lr (式1)
其中,Lc是面部图像分类的损失,具有如下形式:
其中,N指候选区域的总数,yi∈{0,1}是候选区域i的标签,属于面部图像则yi取值为1,否则取值为0,pi是子网络预测的候选区域i属于面部图像的概率。
Lr是面部图像框坐标回归的损失,具有如下形式:
其中,表示子网络预测的候选区域i的面部图像框坐标,为其对应的标注框坐标,||.||2表示向量的二范数。
子区域显著性损失Ls,通过如下公式获取:
这里i和j表示候选区域的序号,δij∈{0,1},当区域i和区域j都为面部图像区域时δi,j=1,当他们其中一个为面部图像区域而另一个为非面部图像区域时δi,j=0,两个都为非面部图像区域则不参与Ls的计算;是候选区域i中第t个显著子区域的特征,M是参与计算的区域对的总数量;αt为第t个显著子区域的权重。
其中,显著子区域的权重按照以下步骤求取:
(1)、初始化,将待处理的显著子区域的序号设置为t=1,每一个区域对(i,j)的权重置为
(2)、利用第t个显著子区域特征之间的欧式距离对子区域对进行分类。分类函数为
(3)、计算第t个显著子区域的分类错误权重在步骤C22中θt取使分类错误最小的值。
(4)、更新每一个区域对的权重:
(5)、归一化新权重
(6)、若t小于5则将t设置为t+1,重复上述步骤(2)-(5)。
在本实施例中,如果在反向传播过程中αt和θt都被视为常数,无需对它们求取梯度。
将标注好的图片输入训练模型,通过迭代处理最小化损失进行训练,获取训练模型的网络参数,优选地,通过随机梯度下降迭代最小化损失来训练网络的参数。训练过程中一次迭代处理的图片数量即batch-size设置为1,本实施例中共采用了10万张面部图像图片,训练迭代次数为100万次,初始的60万次迭代学习率设置为0.04,60万次到80万次设置为0.004,80万次到100万次设置为0.0004。
经过确定网络参数后,对于任意一张图像就可将其输入至训练模型,经过前向传播,由输出层得到该图像上的面部特征解析结果。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (9)
1.一种基于显著子区域的面部特征解析方法,其特征在于,包括:
建立训练模型;
根据所述训练模型进行候选面部图像区域提取和面部图像的精细预测,获取面部特征解析结果;
所述候选面部图像区域提取包括通过不同层次和不同分辨率的卷积层获取图像中包含不同尺度的候选区域,根据所述训练模型对输入图像进行处理,获取处理结果,所述处理结果包括输入图像的特征图、特征图出现面部图像的概率以及面图图像框的坐标;
所述面部图像的精细预测包括根据特征图出现面部图像的概率对面部图像框进行筛选,根据筛选结果获取面部图像候选区域集,对面部图像候选区域集中的每个候选区域进行处理,获取对应候选区域的属于面部图像区域的最终概率,并通过与预先设置的第一阈值进行比较完成面部图像的精细预测。
2.根据权利要求1所述的基于显著子区域的面部特征解析方法,其特征在于,对面部图像框进行筛选后,获取第一筛选结果,对所述第一筛选结果进行非极大值抑制处理,依次从筛选后的面部图像框中选择与其他面部图像框重叠度小于第二阈值,且概率最大的面部图像框,获取第二筛选结果,将所述第二筛选结果作为面部图像候选区域集。
3.根据权利要求2所述的基于显著子区域的面部特征解析方法,其特征在于,根据所述第二筛选结果,获取精确面部图像框坐标。
4.根据权利要求3所述的基于显著子区域的面部特征解析方法,其特征在于,所述面部图像候选区域集包括多个候选区域,所有候选区域均获得第二筛选结果后,对其进行第二非极大值抑制处理。
5.根据权利要求1所述的基于显著子区域的面部特征解析方法,其特征在于,建立训练模型之前,还包括:采集包含面部图像的训练图片,并对所述训练图片中的面部图像进行标注;
所述标注包括为每一个面部图像设置一个标注框,使面部图像位于标注框内部,且面部图像的轮廓贴紧标注框的边,并记录标注框在图片中的坐标。
6.根据权利要求5所述的基于显著子区域的面部特征解析方法,其特征在于,所述训练模型中包括损失层,所述损失层包括面部特征解析损失和子区域显著性损失,将已标注的图片输入至训练模型,通过迭代处理最小化损失进行训练,获取训练模型的网络参数。
7.根据权利要求6所述的基于显著子区域的面部特征解析方法,其特征在于,所述面部特征解析损失通过如下公式获取:
L=Lc+Lr
<mrow>
<msub>
<mi>L</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mi>log</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>log</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
<mrow>
<msub>
<mi>L</mi>
<mi>r</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>X</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
<mo>;</mo>
</mrow>
其中,L为面部特征解析损失,Lc为面部图像分类的损失,Lr为面部图像框坐标回归的损失,N为候选区域的总数,yi为候选区域i的标签,i为候选区域序号,pi为子网络预测的候选区域i属于面部图像的概率,为候选区域i的面部图像框坐标,为其对应的标注框坐标,||.||2为向量的二范数。
8.根据权利要求6所述的基于显著子区域的面部特征解析方法,其特征在于,所述子区域显著性损失通过如下公式获取:
<mrow>
<msub>
<mi>L</mi>
<mi>s</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>M</mi>
</mfrac>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</munder>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>5</mn>
</munderover>
<msub>
<mi>&alpha;</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>&delta;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>f</mi>
<mi>i</mi>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>f</mi>
<mi>j</mi>
<mi>t</mi>
</msubsup>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
<mo>-</mo>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>&delta;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mo>)</mo>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>f</mi>
<mi>i</mi>
<mi>t</mi>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>f</mi>
<mi>j</mi>
<mi>t</mi>
</msubsup>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
其中,Ls为子区域显著性损失,i和j为候选区域的序号,δij∈{0,1},为候选区域i中第t个显著子区域的特征,fj t为候选区域j中第t个显著子区域的特征,M是参与计算的区域对的总数量,αt为第t个显著子区域的权重。
9.根据权利要求8所述的基于显著子区域的面部特征解析方法,其特征在于,将待处理的显著子区域的序号设置为t=1,每一个区域对(i,j)的权重置为根据第t个显著子区域特征之间的欧式距离对子区域对进行分类,获取第t个显著子区域的分类错误,根据分类错误的最小值更新每一区域对的权重,获取新权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711251398.6A CN108108669A (zh) | 2017-12-01 | 2017-12-01 | 一种基于显著子区域的面部特征解析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711251398.6A CN108108669A (zh) | 2017-12-01 | 2017-12-01 | 一种基于显著子区域的面部特征解析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108108669A true CN108108669A (zh) | 2018-06-01 |
Family
ID=62208012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711251398.6A Pending CN108108669A (zh) | 2017-12-01 | 2017-12-01 | 一种基于显著子区域的面部特征解析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108108669A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086770A (zh) * | 2018-07-25 | 2018-12-25 | 成都快眼科技有限公司 | 一种基于精准尺度预测的图像语义分割方法及模型 |
CN109448001A (zh) * | 2018-10-26 | 2019-03-08 | 山东世纪开元电子商务集团有限公司 | 一种图片自动裁剪方法 |
CN109744996A (zh) * | 2019-01-11 | 2019-05-14 | 中南大学 | Oct图像的bmo位置定位方法 |
CN110619350A (zh) * | 2019-08-12 | 2019-12-27 | 北京达佳互联信息技术有限公司 | 图像检测方法、装置及存储介质 |
CN111476353A (zh) * | 2020-04-07 | 2020-07-31 | 中国科学院重庆绿色智能技术研究院 | 一种引入显著性的gan图像超分辨率方法 |
CN111680698A (zh) * | 2020-04-21 | 2020-09-18 | 北京三快在线科技有限公司 | 图像识别方法、装置及图像识别模型的训练方法、装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295515A (zh) * | 2016-07-28 | 2017-01-04 | 北京小米移动软件有限公司 | 确定图像中的人脸区域的方法及装置 |
CN106384098A (zh) * | 2016-09-23 | 2017-02-08 | 北京小米移动软件有限公司 | 基于图像的头部姿态检测方法、装置以及终端 |
CN106650575A (zh) * | 2016-09-19 | 2017-05-10 | 北京小米移动软件有限公司 | 人脸检测方法及装置 |
-
2017
- 2017-12-01 CN CN201711251398.6A patent/CN108108669A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295515A (zh) * | 2016-07-28 | 2017-01-04 | 北京小米移动软件有限公司 | 确定图像中的人脸区域的方法及装置 |
CN106650575A (zh) * | 2016-09-19 | 2017-05-10 | 北京小米移动软件有限公司 | 人脸检测方法及装置 |
CN106384098A (zh) * | 2016-09-23 | 2017-02-08 | 北京小米移动软件有限公司 | 基于图像的头部姿态检测方法、装置以及终端 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086770A (zh) * | 2018-07-25 | 2018-12-25 | 成都快眼科技有限公司 | 一种基于精准尺度预测的图像语义分割方法及模型 |
CN109086770B (zh) * | 2018-07-25 | 2021-12-17 | 成都快眼科技有限公司 | 一种基于精准尺度预测的图像语义分割方法及模型 |
CN109448001A (zh) * | 2018-10-26 | 2019-03-08 | 山东世纪开元电子商务集团有限公司 | 一种图片自动裁剪方法 |
CN109448001B (zh) * | 2018-10-26 | 2021-08-27 | 世纪开元智印互联科技集团股份有限公司 | 一种图片自动裁剪方法 |
CN109744996A (zh) * | 2019-01-11 | 2019-05-14 | 中南大学 | Oct图像的bmo位置定位方法 |
CN109744996B (zh) * | 2019-01-11 | 2021-06-15 | 中南大学 | Oct图像的bmo位置定位方法 |
CN110619350A (zh) * | 2019-08-12 | 2019-12-27 | 北京达佳互联信息技术有限公司 | 图像检测方法、装置及存储介质 |
CN111476353A (zh) * | 2020-04-07 | 2020-07-31 | 中国科学院重庆绿色智能技术研究院 | 一种引入显著性的gan图像超分辨率方法 |
CN111476353B (zh) * | 2020-04-07 | 2022-07-15 | 中国科学院重庆绿色智能技术研究院 | 一种引入显著性的gan图像超分辨率方法 |
CN111680698A (zh) * | 2020-04-21 | 2020-09-18 | 北京三快在线科技有限公司 | 图像识别方法、装置及图像识别模型的训练方法、装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108108669A (zh) | 一种基于显著子区域的面部特征解析方法 | |
WO2019140767A1 (zh) | 安检识别系统及其控制方法 | |
CN104537647B (zh) | 一种目标检测方法及装置 | |
CN104778464B (zh) | 一种基于深度卷积神经网络的服装定位检测方法 | |
CN107833220A (zh) | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 | |
CN108898610A (zh) | 一种基于mask-RCNN的物体轮廓提取方法 | |
CN109829893A (zh) | 一种基于注意力机制的缺陷目标检测方法 | |
CN109271960A (zh) | 一种基于卷积神经网络的人数统计方法 | |
CN106709568A (zh) | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 | |
CN108961675A (zh) | 基于卷积神经网络的跌倒检测方法 | |
CN104915926B (zh) | 图像处理设备和图像处理方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN113569667B (zh) | 基于轻量级神经网络模型的内河船舶目标识别方法及系统 | |
CN108765465A (zh) | 一种无监督sar图像变化检测方法 | |
CN107506793A (zh) | 基于弱标注图像的服装识别方法及系统 | |
CN109829449A (zh) | 一种基于超像素时空上下文的rgb-d室内场景标注方法 | |
CN108108751A (zh) | 一种基于卷积多特征和深度随机森林的场景识别方法 | |
CN107944403B (zh) | 一种图像中的行人属性检测方法及装置 | |
CN107516316A (zh) | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 | |
CN107423702A (zh) | 基于tld跟踪系统的视频目标跟踪方法 | |
CN108009481A (zh) | 一种cnn模型的训练方法及装置、人脸识别方法及装置 | |
CN104992454B (zh) | 一种区域化自动变类的图像分割方法 | |
CN109858487A (zh) | 基于分水岭算法和图像类别标签的弱监督语义分割方法 | |
CN110310277B (zh) | 基于深度特征和ntv-rpca的织物疵点检测方法 | |
CN106683110A (zh) | 用户终端及其目标跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180601 |