CN109117689A - 行人检测方法和装置 - Google Patents
行人检测方法和装置 Download PDFInfo
- Publication number
- CN109117689A CN109117689A CN201710479970.8A CN201710479970A CN109117689A CN 109117689 A CN109117689 A CN 109117689A CN 201710479970 A CN201710479970 A CN 201710479970A CN 109117689 A CN109117689 A CN 109117689A
- Authority
- CN
- China
- Prior art keywords
- image
- classifier
- node
- sample image
- cascade
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 87
- 238000012549 training Methods 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 17
- 230000002123 temporal effect Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000012545 processing Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种行人检测方法和装置,属于行人检测技术领域,其可至少部分解决现有的行人检测方法在准确率、速度、计算量等方面存在不足的问题。本发明的行人检测方法包括:提取图像的特征点;根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分;根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人。
Description
技术领域
本发明属于行人检测技术领域,具体涉及一种行人检测方法和装置。
背景技术
行人检测是计算机视觉领域的一项重要研究方向,其通过对图像进行分析检测出图像中是否有行人。行人检测技术在车辆辅助驾驶、智能监控、智能机器人等领域中有着广泛的应用。例如,车辆辅助驾驶系统可利用行人检测技术发现车辆前方的行人,提醒司机避让;智能监控系统可利用行人检测技术发现监控画面中的行人,以便对行人的行为进行分析,对可疑人员进行跟踪;而智能机器人则可利用行人检测技术发现周边环境中的行人,以自动避让或跟随等。
其中,“行人检测”一词中的“行人”并不限于正在“行走的人”,其实际代表的就是人。
另外,一幅图中实际可能包括多个行人。对这类图像,可将其分割为多个小块,再用行人检测技术检测每块中是否有行人,最后将各块的检测结果合并起来,即可确定整幅图像中是否有行人、有几个行人、行人在什么位置(通过检测出有行人的小块的位置确定),由此,行人检测技术的直接结果就是图像中有行人或无行人。
现在已有了积分通道法、累计通道法、滤波器通道法等多种行人检测技术,但是它们在检测准确率、检测速度、检测计算量等方面仍然存在一些不足。
发明内容
本发明至少部分解决现有的行人检测方法在检测准确率、检测速度、检测计算量等方面存在不足的问题,提供一种检测准确率高、速度快、运算量小的行人检测方法和装置。
解决本发明技术问题所采用的技术方案是一种行人检测方法,其包括:
提取图像的特征点;
根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分;
根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人。
优选的是,所述根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分包括:用分类器将图像分入其叶子节点中,以该叶子节点的节点得分为图像在该分类器的分类得分;其中,分类器包括分支节点和叶子节点,每个分支节点有两个下级节点,叶子节点无下级节点;分支节点具有特征点对取法和节点阈值,用于根据特征点对取法选取图像的一对特征点,并比较该对特征点的特征值之差与节点阈值,若特征值之差大于或等于节点阈值则将图像分入其下级的右节点,否则将图像分入其下级的左节点;
所述根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人包括:比较图像在级联分类器各级的级联得分与相应的级联阈值,若所有级联得分均大于或等于相应的级联阈值则判断图像中有行人,否则判断图像中无行人;其中,级联分类器由多个分类器按预定顺序级联构成,图像在级联分类器每级的级联得分等于图像在该级和之前各级分类器的分类得分之和。
进一步优选的是,所述提取图像的特征点包括:将图像转变为具有预定的分辨率和颜色通道的标准图像;使用特征提取算法从标准图像中提取特征点。
进一步优选的是,所述特征提取算法包括HOG算法、LUV颜色、LBP算法。
进一步优选的是,在所述提取图像的特征点之前,还包括:使用样本图像依次训练多个分类器;其中,样本图像包括多个有行人的正样本图像和多个无行人的负样本图像;按照训练的顺序,将多个分类器组成级联分类器;根据有行人的验证样本图像计算所述级联分类器各级的级联阈值。
进一步优选的是,每个分类器的训练过程包括:
计算各样本图像在当前分类器的权值;
将全部样本图像放入根节点中,根节点深度为1;
判断是否有节点未处理,若有则进入下一步,若无则结束训练,用全部经过处理的节点组成分类器;
选择一个未处理的节点进行处理,用其中的正样本图像及其权值、负样本图像及其权值计算该节点的节点得分和正样本图像权值比率;
判断该节点的深度是否达到预定值,以及判断正样本图像权值比率是否达到预设条件,若其中有至少一个为是则返回所述判断是否有节点未处理的步骤,若均为否则进入下一步;
在该节点中的每个样本图像中随机选出多对特征点,不同样本图像中特征点的选取方法相同;
从以上多对特征点中选择一对为临时特征点对,设定临时阈值,若节点中样本图像的临时特征点对的特征值之差大于或等于临时阈值则将样本图像分入右集合,否则将样本图像分入左集合;
根据左集合和右集合中的正样本图像及其权值、负样本图像及其权值计算该节点的临时得分;
在该节点下级拆分出左节点和右节点,拆分出的节点的深度为该节点的深度加1;以临时得分最大值所对应的临时特征点对的取法为该节点的特征点对取法,以临时得分最大值所对应的临时阈值为该节点的节点阈值,将临时得分最大值时分入左集合的样本图像分入其下级的左节点,将分入右集合的样本图像分入其下级的右节点;
返回所述判断是否有节点未处理的步骤。
进一步优选的是,所述正样本图像权值比率所述节点得分SCORE=max(-a,min(a,a×ln(RATIO/1-RATIO)));其中,a为大于0的系数,WPS为节点中正样本图像的权值的和,WNS为节点中负样本图像的权值的和;
所述正样本图像权值比率的预设条件为RATIO<TH1或RATIO>1-TH1,其中TH1为预设的阈值;
所述临时得分SCORE2=|WLP-WLN-WRP+WRN|,其中WLP为左集合中正样本图像的权值的和,WLN为左集合中负样本图像的权值的和,WRP为右集合中正样本图像的权值的和,WRN为右集合中负样本图像的权值的和。
进一步优选的是,第1个训练的分类器中,任意正样本图像的权值任意负样本图像的权值其中,NP为正样本图像的总数,NN为负样本图像的总数;
当k大于或等于2时,第k个训练的分类器中样本图像的权值通过Softboost算法计算得到。
进一步优选的是,所述Softboost算法包括:
计算第k-1个训练的分类器的话语权ALPHA,ALPHA=MAX(-a,min(a,0.1×a×ln((1-ERRWT)/ERRWT))),其中,ERRWT为第k-1个训练的分类器全部叶子节点的加权误差ERRW的和,而ERRW=ERR×(WPS+WNS),ERR=min(RATIO,1-RATIO);
计算样本图像在第k个训练的分类器的检测得分Hk,Hk=Hk-1+hk-1×ALPHA;其中,hk-1为该样本图像在第k-1个训练的分类器中的分类得分,Hk-1为该样本图像在第k-1个训练的分类器的检测得分,H1为0;
若该样本图像为正样本图像,则其在第k个训练的分类器中的初始权值WP'k=exp(-Hk)/NP/2,若该样本图像为负样本图像,则其在第k个训练的分类器中的初始权值WN'k=exp(Hk)/NN/2;
计算第k个训练的分类器中的样本图像的总初始权值W'k,其等于该分类器中所有样本图像的初始权值的和;
用各样本图像在第k个训练的分类器中的初始权值除以总初始权值,得到各本祥图像在该分类器中的权值。
进一步优选的是,a=5。
进一步优选的是,所述根据有行人的验证样本图像计算所述级联分类器各级的级联阈值包括:计算各验证样本图像在级联分类器各级的级联得分;设定级联分类器各级的级联阈值,所述级联阈值为能保证级联分类器的相应级对验证样本图像的漏检率低于设定值的全部级联阈值中的最大值,所述漏检率为判断验证样本图像为无行人的概率。
解决本发明技术问题所采用的技术方案是一种行人检测装置,其包括:
提取单元,其用于提取图像的特征点;
多个分类器单元,其用于根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分;
级联分类器单元,其用于根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人。
优选的是,所述分类器单元具体用于用分类器将图像分入其叶子节点中,以该叶子节点的节点得分为图像在该分类器的分类得分;其中,分类器包括分支节点和叶子节点,每个分支节点有两个下级节点,叶子节点无下级节点;分支节点具有特征点对取法和节点阈值,用于根据特征点对取法选取图像的一对特征点,并比较该对特征点的特征值之差与节点阈值,若特征值之差大于或等于节点阈值则将图像分入其下级的右节点,否则将图像分入其下级的左节点;
所述级联分类器单元具体用于比较图像在级联分类器各级的级联得分与相应的级联阈值,若所有级联得分均大于或等于相应的级联阈值则判断图像中有行人,否则判断图像中无行人;其中,级联分类器由多个分类器按预定顺序级联构成,图像在级联分类器每级的级联得分等于图像在该级和之前各级分类器的分类得分之和。
进一步优选的是,所述行人检测装置还包括:分类器训练单元,用于使用样本图像依次训练多个分类器;其中,样本图像包括多个有行人的正样本图像和多个无行人的负样本图像;级联分类器训练单元,用于按照训练的顺序,将多个分类器组成级联分类器;并用于根据有行人的验证样本图像计算所述级联分类器各级的级联阈值。
本发明的行人检测方法中,每个分类器通过差分通道方式对图像进行分类并得到分类得分;由于差分通道分类是一种弱分类,故该行人检测方法还将多个分类器组成级联分类器(即构成随机决策森林),并用该级联分类器判断图像中是否有行人,即相当于用多个分类器的结果综合判断图像中是否有行人,因此其检测准确率大幅提高,检测速度快,且检测所需的运算量小。
附图说明
图1为本发明的实施例的一种行人检测方法中分类器的结构示意图;
图2为本发明的实施例的一种行人检测方法的构架示意图。
具体实施方式
为使本领域技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明作进一步详细描述。
实施例1:
本实施例提供一种行人检测方法,其包括:
S11、提取图像的特征点。
S12、根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分。
S13、根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人。
本实施例的行人检测方法中,每个分类器通过差分通道方式对图像进行分类并得到分类得分;由于差分通道分类是一种弱分类,故该行人检测方法还将多个分类器组成级联分类器(即构成随机决策森林),并用该级联分类器判断图像中是否有行人,即相当于用多个分类器的结果综合判断图像中是否有行人,因此其检测准确率大幅提高,检测速度快,且检测所需的运算量小。
实施例2:
如图1、图2所示,本实施例提供一种行人检测方法,该行人检测方法用于检测图像中是否有行人。
其中,若图像较大而可能包括多个行人,则可先将图像分割为多个小块,再用该行人检测方法检测每个小块图像中是否有行人。
本实施例的行人检测方法通过多个使用差分通道的分类器(DCRDF分类器)对图像进行分类,并在每个分类器中得到该图像的分类得分;之后用由各分类器级联组成的级联分类器(随机决策森林)得出多个级联得分,根据这些级联得分判断图像中是否有行人。
在实际进行行人检测之前,可先通过训练得到分类器和级联分类器,再用所得的分类器和级联分类器进行行人检测。应当理解,在通过训练得到分类器和级联分类器后,即可用该分类器和级联分类器多次进行行人检测,而不是每次进行行人检测前都要重新训练。
具体的,本实施例的行人检测方法包括以下步骤:
首先、训练分类器和级联分类器,其包括:
S21、使用样本图像依次训练多个分类器;其中,样本图像包括多个有行人的正样本图像和多个无行人的负样本图像。
也就是说,先选取NP个确定有行人的图像作为正样本图像,再选取NN个确定无行人的图像作为负样本图像,之后用这些样本图像依次对多个(例如4096个)分类器进行训练,以得到每个分类器的具体参数(或者说分类器模型)。
其中,训练每个分类器的过程具体包括:
S2111、提取样本图像的特征点。
本实施例中,对图像(包括样本图像、验证样本图像、实际判断的图像等)的处理是通过特征点进行的,而特征点则通过对图像进行特征点提取得到。为了用样本图像训练分类器,则先要对全部的样本图像进行特征点提取。
提取特征点的步骤具体可包括:将图像转变为具有预定的分辨率和颜色通道的标准图像;使用特征提取算法从标准图像中提取特征点。
也就是说,先对图像进行缩放和颜色转变,将其调整为具有特定分辨率(如1024*768)以及特定的颜色通道(如RGB通道)的标准图像,由此,图像中的每个点可通过其坐标和颜色通道号决定,而每个点的值为其相应颜色通道的分量(如亮度或灰度)。之后,通过已知的特征提取算法对标准图像进行特征提取,从中得到多个特征点。
而具体可用的特征提取算法包括HOG算法、LUV颜色、LBP算法,也就是说,可用LUV颜色特征,结合HOG算法和LBP算法,从图像中提取特征点。
当然,此处的特征提取算法仅仅是本实施例适用的优选算法,若适用其它算法提取图像的特征点,也是可行的。
当然,应当理解,在对全部样本图像进行完一次特征点提取后,则提取的特征点(或者说经过提取的图像)可用于多个分类器的训练,即不是每个分类器进行训练时都要单独进行一次特征点提取,而是可利用之前提取的特征点。
S2112、计算各样本图像在当前分类器的权值。
每个样本图像在每个分类器中都具有特定的权值,而训练分类器前,需要先确定各样本图像在其中的权值。
其中,对于第1个训练的分类器,其中任意正样本图像的权值任意负样本图像的权值
也就是说,第1个训练的分类器中,样本图像的权值可通过相应类型的样本图像的数量直接计算的到。应当理解,此时全部正样本图像的权值的和为1/2,全部负样本图像的权值的和为1/2,而全部样本图像的权值的和为1。
而其它分类器中样本图像的权值需要通过之前训练完成的分类器的参数计算得到,为了清楚,其具体计算方法将在后续介绍。
S2113、将全部样本图像(或者说提取出的样本图像特征点)放入根节点中,根节点深度为1。
其中,如图1所示,分类器是通过差分通道进行分类的,即分类器由多个节点构成,这些节点分为分支节点和叶子节点,每个分支节点有左、右两个下级节点(下级节点可能为分支节点也可能为叶子节点),其用于将图像分入其下级的某个节点中;而叶子节点则没有下级节点。故当对一个图像进行分类时,图像首先进入第一级的分支节点,并被分入该分支节点的某个下级节点中,若该下级节点还有更下级的节点,则图像继续按此规律沿不同路径下分,直到达到某个无下级节点的叶子节点中,即图像被分入该叶子节点。
由于此时分类器尚未建立,故需先为其建立第一级的分支节点(根节点),并将全部的样本图像分入根节点中,显然,该根节点的深度(所处级数)为1,即其是最上级的分支节点。
其中,可将该根节点放入一个FIFO堆栈(先入先出堆栈)中,以便对FIFO堆栈中的节点依次进行处理。
S2114、判断是否有节点未处理,若有则进入下一步,若无则结束训练,用全部经过处理的节点组成分类器。
也就是说,判断堆栈中是否还有未经处理的节点,若有则进入下一步对其进行处理,若无则表示训练已经完成,故跳至S2122步骤,用处理完毕的节点建立分类器。
应当理解,当第一次从S2113步骤进入本步骤时,堆栈中只有一个未经处理的根节点,故其必然进入下一步。
S2115、选择一个未处理的节点进行处理,用其中的正样本图像及其权值、负样本图像及其权值计算该节点的节点得分和正样本图像权值比率。
也就是说,按照顺序从FIFO堆栈中选取此时最先进入的节点进行处理(第一个处理的必然为根节点),以得到该节点的节点得分和正样本图像权值比率。
其中,正样本图像权值比率而节点得分SCORE=max(-a,min(a,a×ln(RATIO/1-RATIO)));其中,a为大于0的系数,WPS为节点中正样本图像的权值的和,WNS为节点中负样本图像的权值的和。
也就是说,此时节点中有一些正样本图像和负样本图像(对于根节点则为全部的样本图像),而本步骤中则对该节点中的正样本图像和负样本图像的权值分别进行求和,得到节点中的正样本图像的总权值WPS和负样本图像的总权值WNS;之后,求出正样本图像的总权值WPS在所有样本图像的总权值(WPS+WNS)中的占比,作为正样本图像权值比率RATIO。
进一步的,通过以上公式根据正样本图像权值比率RATIO求出该节点的节点得分SCORE。其中,a是人为设定的系数,其取值会影响分类器的分类得分,根据经验得出,a=5是最优选的。
同时,为了后续过程中计算其它分类器中样本图像的权值,此时还可求出该节点的分类误差ERR=min(RATIO,1-RATIO),进一步可计算得到出该节点的加权误差ERRW=ERR×(WPS+WNS)。
S2116、判断该节点的深度是否达到预定值,以及判断正样本图像权值比率是否达到预设条件,若其中有至少一个为是则返回判断是否有节点未处理的步骤,若均为否则进入下一步。
在处理完一个节点后,可判断该节点的深度是否达到预定值(例如5),即判断此时分类器的级数是否达到预定值。
同时,还要判断以上求得的正样本图像权值比率是否符合预设的条件,该条件为RATIO<TH1或RATIO>1-TH1,其中,TH1为预设的阈值,例如其可为0.01。
如果发现以上两点中有至少一个的判断结果为是,则表明该节点的处理彻底完成,不再需要对其进行拆分;而若两点的判断结果均为否,则表明需要继续对该节点进行拆分,并进入下一步。
S2117、在该节点中的每个样本图像中随机选出多对特征点,不同样本图像中特征点的选取方法相同。
也就是说,先确定一个随机的选取方法,其用于从图像中选出多对(例如10000对)特征点,之后用该方法从该节点的所有样本图像中选取特征点。这样,对于节点中每个单独的样本图像,其中都被随机选取了多对特征点,但节点中不同样本图像的特征点对的选取方式却是相同的。
应当理解,对一个样本图像,其一对特征点中的两个特征点必然不同,但是一个特征点可能处于多个不同的特征点对中。
S2118、从以上多对特征点中选择一对为临时特征点对,设定临时阈值,若节点中样本图像的临时特征点对的特征值之差大于或等于临时阈值则将样本图像分入右集合,否则将样本图像分入左集合。
也就是说,从多对特征点中随机选取一对(所有样本图像的取法相同),并设定一个临时阈值。这样,在每个样本图像中,该对特征点F1和F2的特征值都有一定的差值DF,而通过该差值DF与临时阈值的关系可对该样本图像进行分类,若某样本图像的特征值之差DF大于或等于临时阈值则将其分入右集合,反之将样本图像分入左集合;该过程相当于用该对特征点和临时阈值对节点中的样本图像进行分类。
S2119、根据左集合和右集合中的正样本图像及其权值、负样本图像及其权值计算该节点的临时得分。
在得到左集合和右集合后,分别对其中正样本图像、负样本图像的权值进行求和,从而得到左集合中正样本图像的权值的和WLP、左集合中负样本图像的权值的和WLN、右集合中正样本图像的权值的和WRP、右集合中负样本图像的权值的和WRN,并根据这些权值和求出临时得分SCORE2=|WLP-WLN-WRP+WRN|。
S2120、在该节点下级拆分出左节点和右节点,拆分出的节点的深度为该节点的深度加1;以临时得分最大值所对应的临时特征点对的取法为该节点的特征点对取法,以临时得分最大值所对应的临时阈值为该节点的节点阈值,将临时得分最大值时分入左集合的样本图像分入其下级的左节点,将分入右集合的样本图像分入其下级的右节点。
也就是说,先为该节点拆分出两个下级节点(下级节点的深度当然比当前节点深度加1),并将两个下级节点加入FIFO堆栈中;之后,确定本节点的特征点对取法和节点阈值,以及确定应分入左节点和右节点的样本图像。
显然,当选取不同的特征点对和临时阈值时,分入左集合和右集合中的正样本图像、负样本图像不同,相应的临时得分也不同。而在所有特征点对和临时阈值对应的临时得分中,必然有一个最大值;而该临时得分最大值对应的特征点对即为最优的特征点对,应用其为本节点的特征点对取法,而临时得分最大值对应的临时阈值即为最优的临时阈值,应用其为本节点的节点阈值,临时得分最大值对应的左集合与右集合中的样本图像则被分别分入该节点下级的左节点和右节点中(相当于用确定出的特征点对取法和节点阈值对节点中的样本图像进行分类)。
当然,要确定出以上临时得分的最大值,实际需要不断重复步骤S2118和S2119进行尝试,在此对其具体过程不再描述。
S2121、返回步骤S2114。
经过S2120步骤后,当前节点拆分出了两个下级节点,而当前节点中的样本图像也都被分别分入了两个下级节点中,故此时当前节点已被处理完成(其中无样本图像),故被移出FIFO堆栈;而两个新拆分出的下级节点则新进入了FIFO堆栈中,且还未被处理(其有样本图像),故在返回判断是否有节点未处理的步骤后,可继续对它们进行处理。
这样不断重复,直到不再有新节点需要被拆分,且所有已被拆分出的节点都被处理完成为止。
S2122、用处理完毕的节点建立分类器。
在将FIFO堆栈中的所有节点处理完成后,则会得到多个具有一定结构的节点(包括分支节点和叶子节点),且其中每个节点都具有确定的节点得分、节点阈值、特征点对取法;由此,即可用这些节点组成一个分类器,当前分类器的训练完成。
S2123、计算下一个训练的分类器中各样本图像的权值,之后返回S2113步骤,开始训练下一个分类器。
应当理解,本步骤实际是分类器(除第1个训练的分类器)训练的开始步骤,但由于其要利用上一个训练分类器的参数,故为了便于理解才将其放在此处说明。
具体的,当k大于或等于2时,第k个训练的分类器中样本图像的权值通过Softboost算法计算得到。
也就是说,除第1个训练的分类器外,其它分类器中样本图像的权值是通过其前一个分类器中的相关参数按照softboost算法计算得到的,其具体过程如下:
(1)计算第k-1个训练的分类器的话语权ALPHA,ALPHA=MAX(-a,min(a,0.1×a×ln((1-ERRWT)/ERRWT))),其中,ERRWT为第k-1个训练的分类器全部叶子节点的加权误差ERRW的和。
如前,对于当前完成训练的分类器(第k-1个训练的分类器),其每个节点可计算得到一个加权误差ERRW,而其中所有的叶子节点的加权误差的和则为ERRWT,通过该ERRWT可计算得到该分类器的话语权ALPHA。
(2)计算样本图像在第k个训练的分类器的检测得分Hk,Hk=Hk-1+hk-1×ALPHA;其中,hk-1为该样本图像在第k-1个训练的分类器中的分类得分,Hk-1为该样本图像在第k-1个训练的分类器的检测得分,H1为0。
也就是说,根据当前训练完成的分类器(第k-1个训练的分类器)的话语权ALPHA,以及样本图像在其中的检测得分Hk-1和分类得分hk-1(即样本图像最终分入的叶子节点的节点得分),可算出该样本图像在下一个训练的分类器(第k个训练的分类器)中的检测得分Hk(其在第k个训练的分类器的检测得分则由其在第k-2个训练的分类器的检测得分计算得到,依次类推);其中,所有样本图像在第1个训练的分类器的检测得分H1均设定为0。
(3)若该样本图像为正样本图像,则其在第k个训练的分类器中的初始权值WP'k=exp(-Hk)/NP/2,若该样本图像为负样本图像,则其在第k个训练的分类器中的初始权值WN'k=exp(Hk)/NN/2。
也就是说,根据样本图像为正样本图像或负样本图像,进一步用以上公式根据其检测得分Hk算出其在第k个训练的分类器中的初始权值WP'k或WN'k。
(4)计算第k个训练的分类器中的样本图像的总初始权值W'k,其等于该分类器中所有样本图像的初始权值的和。
也就是说,将全部样本图像在第k个训练的分类器中的初始权值(WP'k或WN'k)相加,得到其权值的和W'k。
(5)用各样本图像在第k个训练的分类器中的初始权值除以总初始权值,得到各本祥图像在该分类器中的权值。
也就是说,用以上计算得到的初始权值(WP'k或WN'k)分别除以以上总初始权值W'k,从而得到各样本图像在第k个训练的分类器中权值,该权值是归一化,故所有全部样本图像的权值的和应为1。
S22、按照训练的顺序,将多个分类器组成级联分类器。
在训练得到多个级联分类器后,即按照训练的顺序将它们组成级联分类器,即将第k个训练的分类器作为级联分类器的第k级。
其中,图像在级联分类器每级的级联得分等于图像在该级和之前各级分类器的分类得分之和。也就是说,对一个图像,级联分类器中每级的分类器都能对其进行分类并得到一个分类得分,而级联分类器第k级的级联得分即等于其中第1级、第2级....直到第k级的分类器的分类得分的和。
S23、根据有行人的验证样本图像计算级联分类器各级的级联阈值。
级联分类器的每一级还设置有级联阈值,若图像在该级的级联得分大于或等于该级联阈值,则该级判断图像中无行人,而若图像在该级的级联得分小于该级联阈值,则该级判断图像中有行人。
本步骤中,选用多个确定有行人的验证样本图像在级联分类器中进行处理,以确定级联分类器各级的级联阈值。具体的,本步骤可为:
计算各验证样本图像在级联分类器各级的级联得分;设定级联分类器各级的级联阈值,级联阈值为能保证级联分类器的相应级对验证样本图像的漏检率低于设定值的全部级联阈值中的最大值,漏检率为判断验证样本图像为无行人的概率。
也就是说,提取各验证样本图像的特征点,并用之前训练的各分类器对验证样本图像进行分类而得到相应的分类得分,进而计算出各样本图像在级联分类器各级中的级联得分。
显然,对级联分类器每一级,当其选用不同的级联阈值时,会对验证样本图像产生不同的判断结果,级联阈值越小则造成漏检(将有行人图像判断为无行人)的概率越低,但同时其造成误检(将无行人图像判断为有行人)的概率会提高。具体的,如果级联阈值为所有验证样本图像在该级的级联得分的最小值(或者比最小值还小),则该级会判断所有的验证样本图像均有行人,故其可完全避免漏检。
为了平衡漏检与误检的关系,本实施例的行人检测方法中要求,级联阈值应当为能够保证漏检率低于预定值(例如0.000005)时的最大值。也就是说,可计算级联阈值为不同值时的漏检率,以其中可满足漏检率条件的最大的级联阈值作为相应级的级联阈值,从而最终得出联分类器的各级的级联阈值,完成训练过程。
在训练完成后,即可用训练得到的分类器和级联分类器,对实际的图像进行行人检测,其包括以下步骤:
S24、提取图像的特征点。
也就是说,按照以上的方法,对需要进行行人检测的图像进行特征点提取。
S25、用分类器将图像分入其叶子节点中,以该叶子节点的节点得分为图像在该分类器的分类得分;其中,分类器包括分支节点和叶子节点,每个分支节点有两个下级节点,叶子节点无下级节点;分支节点具有特征点对取法和节点阈值,用于根据特征点对取法选取图像的一对特征点,并比较该对特征点的特征值之差与节点阈值,若特征值之差大于或等于节点阈值则将图像分入其下级的右节点,否则将图像分入其下级的左节点。
也就是说,用以上训练得到的分类器,对图像进行分类,将图像分入其某个叶子节点中,并以该叶子节点的得分作为图像在该分类器中的分类得分。
具体的,图像先进入第一级的分支节点,该节点按照其特征点对取法从图像中选取一对特征点(如F1和F2),并比较这两个特征点的特征值的差DF与节点阈值,根据二者的关系将图像分入其下级的左节点或右节点。在下级节点中,重复以上过程,直到图像进入无下级节点的叶子节点为止。
S26、比较图像在级联分类器各级的级联得分与相应的级联阈值,若所有级联得分均大于或等于相应的级联阈值则判断图像中有行人,否则判断图像中无行人;其中,级联分类器由多个分类器按预定顺序级联构成,图像在级联分类器每级的级联得分等于图像在该级和之前各级分类器的分类得分之和。
也就是说,将图像在不同分类器中的分类得分相加,求出图像在级联分类器各级中的级联得分,并分别将级联得分与相应的级联阈值进行比较,以判断图像中是否有行人。其中,若是级联分类器的每级均判断图像中有行人,则得到最终的判断结果为图像中有行人;而只要有至少一级判断图像中无行人,则得到最终的判断结果为图像中无行人。
显然,由于只要有级联分类器的一级判断图像中无行人则最终结果就为图像中无行人,因此,以上判断过程可逐级进行,即依次计算图像在级联分类器各级的级联得分,且每次得到级联得分后即进行判断,若判断结果为有行人则继续计算下一级的计算,若判断结果为无行人则停止后续过程,直接得出图像中无行人的判断结果,以降低计算量。
实施例3:
本实施例提供一种行人检测装置,其包括:
提取单元,其用于提取图像的特征点;
多个分类器单元,其用于根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分;
级联分类器单元,其用于根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人。
优选的,分类器单元具体用于用分类器将图像分入其叶子节点中,以该叶子节点的节点得分为图像在该分类器的分类得分;其中,分类器包括分支节点和叶子节点,每个分支节点有两个下级节点,叶子节点无下级节点;分支节点具有特征点对取法和节点阈值,用于根据特征点对取法选取图像的一对特征点,并比较该对特征点的特征值之差与节点阈值,若特征值之差大于或等于节点阈值则将图像分入其下级的右节点,否则将图像分入其下级的左节点;
级联分类器单元具体用于比较图像在级联分类器各级的级联得分与相应的级联阈值,若所有级联得分均大于或等于相应的级联阈值则判断图像中有行人,否则判断图像中无行人;其中,级联分类器由多个分类器按预定顺序级联构成,图像在级联分类器每级的级联得分等于图像在该级和之前各级分类器的分类得分之和。
更优选的,行人检测装置还包括:
分类器训练单元,用于使用样本图像依次训练多个分类器;其中,样本图像包括多个有行人的正样本图像和多个无行人的负样本图像;
级联分类器训练单元,用于按照训练的顺序,将多个分类器组成级联分类器;并用于根据有行人的验证样本图像计算所述级联分类器各级的级联阈值。
本实施例的行人检测装置可执行上述行人检测方法,故其检测准确率高、速度快、运算量低。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (14)
1.一种行人检测方法,其特征在于,包括:
提取图像的特征点;
根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分;
根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人。
2.根据权利要求1所述的行人检测方法,其特征在于,
所述根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分包括:用分类器将图像分入其叶子节点中,以该叶子节点的节点得分为图像在该分类器的分类得分;其中,分类器包括分支节点和叶子节点,每个分支节点有两个下级节点,叶子节点无下级节点;分支节点具有特征点对取法和节点阈值,用于根据特征点对取法选取图像的一对特征点,并比较该对特征点的特征值之差与节点阈值,若特征值之差大于或等于节点阈值则将图像分入其下级的右节点,否则将图像分入其下级的左节点;
所述根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人包括:比较图像在级联分类器各级的级联得分与相应的级联阈值,若所有级联得分均大于或等于相应的级联阈值则判断图像中有行人,否则判断图像中无行人;其中,级联分类器由多个分类器按预定顺序级联构成,图像在级联分类器每级的级联得分等于图像在该级和之前各级分类器的分类得分之和。
3.根据权利要求2所述的行人检测方法,其特征在于,所述提取图像的特征点包括:
将图像转变为具有预定的分辨率和颜色通道的标准图像;
使用特征提取算法从标准图像中提取特征点。
4.根据权利要求3所述的行人检测方法,其特征在于,
所述特征提取算法包括HOG算法、LUV颜色、LBP算法。
5.根据权利要求2所述的行人检测方法,其特征在于,在所述提取图像的特征点之前,还包括:
使用样本图像依次训练多个分类器;其中,样本图像包括多个有行人的正样本图像和多个无行人的负样本图像;
按照训练的顺序,将多个分类器组成级联分类器;
根据有行人的验证样本图像计算所述级联分类器各级的级联阈值。
6.根据权利要求5所述的行人检测方法,其特征在于,每个分类器的训练过程包括:
计算各样本图像在当前分类器的权值;
将全部样本图像放入根节点中,根节点深度为1;
判断是否有节点未处理,若有则进入下一步,若无则结束训练,用全部经过处理的节点组成分类器;
选择一个未处理的节点进行处理,用其中的正样本图像及其权值、负样本图像及其权值计算该节点的节点得分和正样本图像权值比率;
判断该节点的深度是否达到预定值,以及判断正样本图像权值比率是否达到预设条件,若其中有至少一个为是则返回所述判断是否有节点未处理的步骤,若均为否则进入下一步;
在该节点中的每个样本图像中随机选出多对特征点,不同样本图像中特征点的选取方法相同;
从以上多对特征点中选择一对为临时特征点对,设定临时阈值,若节点中样本图像的临时特征点对的特征值之差大于或等于临时阈值则将样本图像分入右集合,否则将样本图像分入左集合;
根据左集合和右集合中的正样本图像及其权值、负样本图像及其权值计算该节点的临时得分;
在该节点下级拆分出左节点和右节点,拆分出的节点的深度为该节点的深度加1;以临时得分最大值所对应的临时特征点对的取法为该节点的特征点对取法,以临时得分最大值所对应的临时阈值为该节点的节点阈值,将临时得分最大值时分入左集合的样本图像分入其下级的左节点,将分入右集合的样本图像分入其下级的右节点;
返回所述判断是否有节点未处理的步骤。
7.根据权利要求6所述的行人检测方法,其特征在于,
所述正样本图像权值比率所述节点得分SCORE=max(-a,min(a,a×ln(RATIO/1-RATIO)));其中,a为大于0的系数,WPS为节点中正样本图像的权值的和,WNS为节点中负样本图像的权值的和;
所述正样本图像权值比率的预设条件为RATIO<TH1或RATIO>1-TH1,其中TH1为预设的阈值;
所述临时得分SCORE2=|WLP-WLN-WRP+WRN|,其中WLP为左集合中正样本图像的权值的和,WLN为左集合中负样本图像的权值的和,WRP为右集合中正样本图像的权值的和,WRN为右集合中负样本图像的权值的和。
8.根据权利要求7所述的行人检测方法,其特征在于,
第1个训练的分类器中,任意正样本图像的权值任意负样本图像的权值其中,NP为正样本图像的总数,NN为负样本图像的总数;
当k大于或等于2时,第k个训练的分类器中样本图像的权值通过Softboost算法计算得到。
9.根据权利要求8所述的行人检测方法,其特征在于,所述Softboost算法包括:
计算第k-1个训练的分类器的话语权ALPHA,ALPHA=MAX(-a,min(a,0.1×a×ln((1-ERRWT)/ERRWT))),其中,ERRWT为第k-1个训练的分类器全部叶子节点的加权误差ERRW的和,而ERRW=ERR×(WPS+WNS),ERR=min(RATIO,1-RATIO);
计算样本图像在第k个训练的分类器的检测得分Hk,Hk=Hk-1+hk-1×ALPHA;其中,hk-1为该样本图像在第k-1个训练的分类器中的分类得分,Hk-1为该样本图像在第k-1个训练的分类器的检测得分,H1为0;
若该样本图像为正样本图像,则其在第k个训练的分类器中的初始权值WP'k=exp(-Hk)/NP/2,若该样本图像为负样本图像,则其在第k个训练的分类器中的初始权值WN'k=exp(Hk)/NN/2;
计算第k个训练的分类器中的样本图像的总初始权值W'k,其等于该分类器中所有样本图像的初始权值的和;
用各样本图像在第k个训练的分类器中的初始权值除以总初始权值,得到各本祥图像在该分类器中的权值。
10.根据权利要求7至9中任意一项所述的行人检测方法,其特征在于,
a=5。
11.根据权利要求5所述的行人检测方法,其特征在于,所述根据有行人的验证样本图像计算所述级联分类器各级的级联阈值包括:
计算各验证样本图像在级联分类器各级的级联得分;
设定级联分类器各级的级联阈值,所述级联阈值为能保证级联分类器的相应级对验证样本图像的漏检率低于设定值的全部级联阈值中的最大值,所述漏检率为判断验证样本图像为无行人的概率。
12.一种行人检测装置,其特征在于,包括:
提取单元,其用于提取图像的特征点;
多个分类器单元,其用于根据图像的特征点,用分类器对图像进行分类,根据分类结果得到图像在该分类器的分类得分;
级联分类器单元,其用于根据分类得分得出图像在级联分类器各级的级联得分,将级联得分与相应的级联阈值向比较,据此判断图像中是否有行人。
13.根据权利要求12所述的行人检测装置,其特征在于,还包括:
所述分类器单元具体用于用分类器将图像分入其叶子节点中,以该叶子节点的节点得分为图像在该分类器的分类得分;其中,分类器包括分支节点和叶子节点,每个分支节点有两个下级节点,叶子节点无下级节点;分支节点具有特征点对取法和节点阈值,用于根据特征点对取法选取图像的一对特征点,并比较该对特征点的特征值之差与节点阈值,若特征值之差大于或等于节点阈值则将图像分入其下级的右节点,否则将图像分入其下级的左节点;
所述级联分类器单元具体用于比较图像在级联分类器各级的级联得分与相应的级联阈值,若所有级联得分均大于或等于相应的级联阈值则判断图像中有行人,否则判断图像中无行人;其中,级联分类器由多个分类器按预定顺序级联构成,图像在级联分类器每级的级联得分等于图像在该级和之前各级分类器的分类得分之和。
14.根据权利要求13所述的行人检测装置,其特征在于,还包括:
分类器训练单元,用于使用样本图像依次训练多个分类器;其中,样本图像包括多个有行人的正样本图像和多个无行人的负样本图像;
级联分类器训练单元,用于按照训练的顺序,将多个分类器组成级联分类器;并用于根据有行人的验证样本图像计算所述级联分类器各级的级联阈值。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710479970.8A CN109117689B (zh) | 2017-06-22 | 2017-06-22 | 行人检测方法和装置 |
EP18789304.5A EP3644218A4 (en) | 2017-06-22 | 2018-03-14 | TARGET DETECTION METHOD AND APPARATUS |
US16/097,736 US11393218B2 (en) | 2017-06-22 | 2018-03-14 | Object detection method and device |
PCT/CN2018/078973 WO2018233325A1 (zh) | 2017-06-22 | 2018-03-14 | 目标检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710479970.8A CN109117689B (zh) | 2017-06-22 | 2017-06-22 | 行人检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109117689A true CN109117689A (zh) | 2019-01-01 |
CN109117689B CN109117689B (zh) | 2020-01-07 |
Family
ID=64732543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710479970.8A Active CN109117689B (zh) | 2017-06-22 | 2017-06-22 | 行人检测方法和装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11393218B2 (zh) |
EP (1) | EP3644218A4 (zh) |
CN (1) | CN109117689B (zh) |
WO (1) | WO2018233325A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113496174A (zh) * | 2020-04-07 | 2021-10-12 | 北京君正集成电路股份有限公司 | 一种提升三级级联检测召回率和正确率的方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100232686A1 (en) * | 2009-03-16 | 2010-09-16 | Siemens Medical Solutions Usa, Inc. | Hierarchical deformable model for image segmentation |
CN104143081A (zh) * | 2014-07-07 | 2014-11-12 | 闻泰通讯股份有限公司 | 基于嘴部特征的笑脸识别系统及方法 |
CN104504365A (zh) * | 2014-11-24 | 2015-04-08 | 闻泰通讯股份有限公司 | 视频序列中的笑脸识别系统及方法 |
CN104504366A (zh) * | 2014-11-24 | 2015-04-08 | 上海闻泰电子科技有限公司 | 基于光流特征的笑脸识别系统及方法 |
CN104850818A (zh) * | 2014-02-17 | 2015-08-19 | 华为技术有限公司 | 人脸检测器训练方法、人脸检测方法及装置 |
CN105718866A (zh) * | 2016-01-15 | 2016-06-29 | 北京大学 | 一种视觉目标检测与识别方法 |
CN106022254A (zh) * | 2016-05-17 | 2016-10-12 | 上海民实文化传媒有限公司 | 图像识别技术 |
CN106599856A (zh) * | 2016-12-19 | 2017-04-26 | 四川长虹电器股份有限公司 | 一种联合人脸检测、定位和识别的方法 |
CN106682598A (zh) * | 2016-12-14 | 2017-05-17 | 华南理工大学 | 一种基于级联回归的多姿态的人脸特征点检测方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7643674B2 (en) * | 2005-05-12 | 2010-01-05 | Hewlett-Packard Development Company, L.P. | Classification methods, classifier determination methods, classifiers, classifier determination devices, and articles of manufacture |
EP2385484A1 (en) * | 2010-05-06 | 2011-11-09 | STMicroelectronics (Grenoble 2) SAS | Object detection in an image |
EP3500964A1 (en) * | 2016-08-22 | 2019-06-26 | Iris International, Inc. | System and method of classification of biological particles |
US10922626B2 (en) * | 2018-03-09 | 2021-02-16 | Qualcomm Incorporated | Conditional branch in machine learning object detection |
-
2017
- 2017-06-22 CN CN201710479970.8A patent/CN109117689B/zh active Active
-
2018
- 2018-03-14 WO PCT/CN2018/078973 patent/WO2018233325A1/zh unknown
- 2018-03-14 US US16/097,736 patent/US11393218B2/en active Active
- 2018-03-14 EP EP18789304.5A patent/EP3644218A4/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100232686A1 (en) * | 2009-03-16 | 2010-09-16 | Siemens Medical Solutions Usa, Inc. | Hierarchical deformable model for image segmentation |
CN104850818A (zh) * | 2014-02-17 | 2015-08-19 | 华为技术有限公司 | 人脸检测器训练方法、人脸检测方法及装置 |
CN104143081A (zh) * | 2014-07-07 | 2014-11-12 | 闻泰通讯股份有限公司 | 基于嘴部特征的笑脸识别系统及方法 |
CN104504365A (zh) * | 2014-11-24 | 2015-04-08 | 闻泰通讯股份有限公司 | 视频序列中的笑脸识别系统及方法 |
CN104504366A (zh) * | 2014-11-24 | 2015-04-08 | 上海闻泰电子科技有限公司 | 基于光流特征的笑脸识别系统及方法 |
CN105718866A (zh) * | 2016-01-15 | 2016-06-29 | 北京大学 | 一种视觉目标检测与识别方法 |
CN106022254A (zh) * | 2016-05-17 | 2016-10-12 | 上海民实文化传媒有限公司 | 图像识别技术 |
CN106682598A (zh) * | 2016-12-14 | 2017-05-17 | 华南理工大学 | 一种基于级联回归的多姿态的人脸特征点检测方法 |
CN106599856A (zh) * | 2016-12-19 | 2017-04-26 | 四川长虹电器股份有限公司 | 一种联合人脸检测、定位和识别的方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113496174A (zh) * | 2020-04-07 | 2021-10-12 | 北京君正集成电路股份有限公司 | 一种提升三级级联检测召回率和正确率的方法 |
CN113496174B (zh) * | 2020-04-07 | 2024-01-23 | 北京君正集成电路股份有限公司 | 一种提升三级级联检测召回率和正确率的方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3644218A4 (en) | 2021-03-17 |
WO2018233325A1 (zh) | 2018-12-27 |
US11393218B2 (en) | 2022-07-19 |
CN109117689B (zh) | 2020-01-07 |
EP3644218A1 (en) | 2020-04-29 |
US20210224558A1 (en) | 2021-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107609493B (zh) | 优化人脸图片质量评价模型的方法及装置 | |
CN107153789B (zh) | 利用随机森林分类器实时检测安卓恶意软件的方法 | |
CN105975959B (zh) | 基于神经网络的人脸特征提取建模、人脸识别方法及装置 | |
JP4273359B2 (ja) | 年齢推定システム及び年齢推定方法 | |
US11444876B2 (en) | Method and apparatus for detecting abnormal traffic pattern | |
CN106874894A (zh) | 一种基于区域全卷积神经网络的人体目标检测方法 | |
US20050246307A1 (en) | Computerized modeling method and a computer program product employing a hybrid Bayesian decision tree for classification | |
WO2020192442A1 (zh) | 利用少数标注图像生成分类器的方法 | |
US20040243537A1 (en) | Contents filter based on the comparison between similarity of content character and correlation of subject matter | |
CN107909027A (zh) | 一种具有遮挡处理的快速人体目标检测方法 | |
CN109902223A (zh) | 一种基于多模态信息特征的不良内容过滤方法 | |
CN104809393A (zh) | 一种基于流行度分类特征的托攻击检测算法 | |
CN109040113A (zh) | 基于多核学习的分布式拒绝服务攻击检测方法及装置 | |
WO2024051597A1 (zh) | 一种引体向上的规范计数方法、系统及其存储介质 | |
CN107067022B (zh) | 图像分类模型的建立方法、建立装置和设备 | |
CN107392089A (zh) | 一种眉毛运动检测方法和装置及活体识别方法和系统 | |
Kistijantoro | Vitality based feature selection for intrusion detection | |
CN107145778A (zh) | 一种入侵检测方法及装置 | |
CN107832730A (zh) | 提高人脸识别准确率的方法和人脸识别系统 | |
Siriseriwan et al. | The effective redistribution for imbalance dataset: Relocating safe-level SMOTE with minority outcast handling | |
CN109714311A (zh) | 一种基于聚类算法的异常行为检测的方法 | |
CN107465814B (zh) | 一种基于手机惯性传感器的用户输入识别方法 | |
CN107368777A (zh) | 一种微笑动作检测方法和装置及活体识别方法和系统 | |
CN109117689A (zh) | 行人检测方法和装置 | |
CN108154172A (zh) | 基于三支决策的图像识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |