CN110163033A - 正样本获取方法、行人检测模型生成方法和行人检测方法 - Google Patents
正样本获取方法、行人检测模型生成方法和行人检测方法 Download PDFInfo
- Publication number
- CN110163033A CN110163033A CN201810149833.2A CN201810149833A CN110163033A CN 110163033 A CN110163033 A CN 110163033A CN 201810149833 A CN201810149833 A CN 201810149833A CN 110163033 A CN110163033 A CN 110163033A
- Authority
- CN
- China
- Prior art keywords
- positive sample
- node
- subset
- positive
- pedestrian detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 120
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000012549 training Methods 0.000 claims abstract description 47
- 239000013598 vector Substances 0.000 claims description 166
- 238000000605 extraction Methods 0.000 claims description 21
- 238000013145 classification model Methods 0.000 claims description 5
- 230000009191 jumping Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7796—Active pattern-learning, e.g. online learning of image or video features based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种正样本获取方法、行人检测模型生成方法和行人检测方法,该正样本获取方法包括:对原始图像中预先标记的正样本原始框添加扰动,以得到正样本选取框,所述正样本原始框所围住的图像包含行人;提取所述正样本选取框所围住的图像以作为正样本。本发明的技术方案可有效提升原始图像中可获取的正样本的数量,以及为正样本添加背景,可有效提升训练出的行人检测模型的识别精准度。
Description
技术领域
本发明涉及智能识别技术领域,特别涉及一种正样本获取方法、行人检测模型生成方法、行人检测方法、存储设备和行人检测装置。
背景技术
行人检测是计算机视觉领域的一项重要研究方向,通过对摄像头拍摄得到的视觉图像进行智能分析,自动检测出图像中所包含的行人。行人检测在车辆辅助驾驶、智能监控、智能机器人等领域中有着广泛的应用。
在现有的行人检测过程中,往往是基于预先获取的正样本和负样本来训练相应的分类器,再基于分类器对待检测图像进行识别,以检测出待检测图像中是否包含行人。其中,正样本的数量和选取质量可在一定程度上影响分类器的识别精准度。
现有的正样本选取,往往是通过在原始图像中人工标记的正样本标识框,且一个正样本标识框正好框住一个完整的行人(不含背景)。此时,原始图像中一个行人仅能提取出一个正样本,原始图像中可提取的正样本数量有限,且基于该正样本标识框所提取的正样本所训练出的分类器,难以对含有背景的行人图像进行识别,从而导致识别精准度不高。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提出了一种正样本获取方法、行人检测模型生成方法、行人检测方法、存储设备和行人检测装置。
为实现上述目的,本发明提供了一种正样本获取方法,包括:
对原始图像中预先标记的正样本原始框添加扰动,以得到正样本选取框,所述正样本原始框所围住的图像包含行人;
提取所述正样本选取框所围住的图像以作为正样本。
可选地,所述对正样本原始框添加扰动的步骤具体包括:
对所述正样本原始框的中心位置,和/或所述正样本原始框的宽,和/或所述正样本原始框的高,添加随机扰动,以得到所述正样本选取框。
可选地,所述对正样本原始框添加扰动的步骤具体包括:
对所述正样本原始框的中心位置、和/或所述正样本原始框的宽、和/或所述正样本原始框的高,添加随机扰动,以得到所述正样本扰动框;
保持所述正样本扰动框的中心位置不变,对所述正样本扰动框进行随机放大或缩小,以得到所述正样本选取框。
为实现上述目的,本发明还提供了一种行人检测模型生成方法,包括:
采用上述正样本获取方法来获取若干个正样本;
从原始图像中提取若干个不包含行人的图像以作为负样本;
根据获取的多个所述正样本和多个所述负样采用预设的分类模型算法来生成行人检测模型。
可选地,所述根据获取的多个所述正样本和多个所述负样采用预设的分类模型算法来生成行人检测模型的步骤包括:
对各所述正样本和各所述负样本进行标准化;
采用预设的特征提取算法对标准化后的各所述正样本和各所述负样本进行特征向量提取,以得到正样本特征训练集和负样本特征训练集;
根据所述正样本特征训练集和所述负样本特征训练集训练出若干个弱分类器,全部所述弱分类器构成所述行人检测模型。
可选地,所述根据所述正样本特征训练集和所述负样本特征训练集训练出若干个弱分类器的步骤包括:
S1、初始化所述正样本特征训练集中各正样本特征向量所对应的检测得分和权值,初始化所述负样本特征训练集中各负样本特征向量所对应的检测得分和权值,初始化弱分类器数量t=0;
S2、设置一存储结构,并将根节点放入至所述存储结构中,根节点的深度为1,根节点中包含全部所述正样本特征向量和全部所述负样本特征向量;
S3、检测所述存储结构是否为空;若检测出所述存储结构为空,则执行步骤S7,否则执行步骤S4;
S4、从所述存储结构中取出一个节点,并判断该节点是否可拆分;
若判断出该节点可拆分则执行步骤S5,否则执行步骤S3;
S5、确定该节点进行拆分时所选取的特征属性及其对应的特征阈值;
S6、根据确定出的特征属性及其对应特征阈值,将该节点中的全部特征向量拆分为左子集合和右子集合,增加两个新节点,分别包含所述左子集合和所述右子集合,该两个新节点作为当前节点的子节点,并将该两个新节点添加到所述存储结构中,此时跳转至执行步骤S4;
S7、记录所有节点的深度、子节点、特征属性及其对应特征阈值,完成一个弱分类器的训练;
S8、执行t=t+1,并判断t是否大于预设阈值T,若判断出t大于T,则训练出若干个弱分类器的步骤结束;否则执行步骤S9;
S9、利用当前完成训练的弱分类器对各正样本特征向量、各负样本特征向量的检测得分和权值进行更新,并基于更新后的检测得分和权值执行步骤S2。
可选地,在步骤S1和步骤S3之间还包括:
S2a、对各所述正样本特征向量和各所述负样本特征向量的权值进行规范化。
可选地,在步骤S1中,第k1个正样本特征向量的初始化权值为第k1个正样本特征向量的初始化检测得分为HPk1=0,第k2个负样本特征向量的初始化权值为第k2个负样本特征向量的初始化检测得分为HNk2=0;
其中,NP为所述正样本的数量,NN为所述负样本的数量,k1∈[1,NP],k2∈[1,NN]。
可选地,步骤S4包括:
S41、从存储结构中取出一个节点,计算该节点中正样本特征向量的权值和与总权值的比率RATIO、以及节点得分SCORE;
比率
节点得分
其中,WPS为该节点中正样本特征向量的权值和,WNS为节点中负样本特征向量的权值和,p为大于0的常数。
S42、判断该节点是否同时满足条件a和条件b,条件a为DEPTH<MAXDEPTH,条件b为TH≤RATIO≤1-TH;
其中,DEPTH为该节点的深度,MAXDEPTH为预先设置的节点最大深度,TH为预先设置的比率阈值;
若步骤S42判断出该节点同时满足条件a和条件b,则判断出该节点可拆分;否则,判断出该节点不可拆分。
可选地,步骤S5包括:
S51a、随机选择NF个特征属性,并设置对应的特征阈值,针对每一特征属性及其对应的特征阈值对该节点进行分类,得到NF个特征分类结果,每个分类结果均包含一个左子集合和一个右子集合,其中,第i个特征属性对应的阈值为THi,i∈[1,NF],在基于第i个特征属性进行分类时,将该节点中对应于第i个特征属性的特征值小于THi的特征向量放入左子集合,将该节点中对应于第i个特征属性的特征值大于或等于THi的特征向量放入右子集合;
S52a、计算出各分类结果的分类得分SCORE_C:
SCORE_C=|WLP-WLN-WRP+WRN|;
其中,WLP为左子集合中的正样本特征向量的权值和,WLN为左子集合中的负样本特征向量的权值和,WRP为右子集合中的正样本特征向量的权值和,WRN为右子集合中的负样本特征向量的权值和;
S53a、选取分类得分最大的分类结果所对应的特征属性和特征阈值,以作为该节点进行拆分时所选取的特征属性及其对应的特征阈值。
可选地,在获取若干个正样本的同时还包括:
获取正样本的位置参数向量L=(dx,dy,dw,dh);
其中,
x、y分别为所述正样本原始框的中心点的横坐标和纵坐标,w、h分别为所述正样本原始框的宽和高;
x’、y’分别为所述正样本扰动框的中心点的横坐标和纵坐标,w’、h’分别为所述正样本扰动框的宽和高。
可选地,步骤S5包括:
S51b、随机选择NF个特征属性,并设置对应的特征阈值,针对每一特征属性及其对应的特征阈值对该节点进行分类,得到NF个特征分类结果,每个分类结果均包含一个左子集合和一个右子集合,其中,第i个特征属性对应的阈值为THi,i∈[1,NF],在基于第i个特征属性进行分类时,将该节点中对应于第i个特征属性的特征值小于THi的特征向量放入左子集合,将该节点中对应于第i个特征属性的特征值大于或等于THi的特征向量放入右子集合;
S52b、计算出各分类结果的分类得分SCORE_C:
SCORE_C=|WLP-WLN-WRP+WRN|;
其中,WLP为左子集合中的正样本特征向量的权值和,WLN为左子集合中的负样本特征向量的权值和,WRP为右子集合中的正样本特征向量的权值和,WRN为右子集合中的负样本特征向量的权值和;
S53b、确定每一个分类结果中的左子集合和右子集合的正负属性,其中,若WLP-WLN-WRP+WRN的值为正,则左子集合为正样本子集合,右子集合为负样本子集合;反之,则左子集合为负样本子集合,右子集合为正样本子集合;
S54b、计算正样本子集合中正样本特征向量的回归误差ERROR_R:
ERROR_R=Var(dx)+Var(dy)+Var(dw)+Var(dh),
其中,
N为正样本子集合中正样本特征向量的数量,dxj、dyj、dwj、dhj分别为正样本子集合中第j个正样本特征向量对应的正样本的位置参数向量中横坐标、纵坐标、宽、高,分别为正样本子集合中N个正样本特征向量所对应正样本的位置参数向量中横坐标的平均值、纵坐标的平均值、宽的平均值、高的平均值;
S55b、计算各分类结果的总得分SCORE_TOTAL:
SCORE_TOTAL=SCORE_C-λ*ERROR_R
其中,λ为大于0的常数;
S56b、选取总得分最大的分类结果所对应的特征属性和特征阈值,以作为该节点进行拆分时所选取的特征属性及其对应的特征阈值。
可选地,在步骤S9中,
更新后的正样本特征向量的检测得分HPk1'=HPk1+hpk1;
更新后的负样本特征向量的检测得分HNk2'=HNk2+hnk2;
更新后的正样本特征向量的权值
更新后的负样本特征向量的权值
其中,NP为所述正样本的数量,NN为所述负样本的数量,HPk1为当前第k1个正样本特征向量的权值,HNk2为当前第k2个负样本特征向量的权值,hpk1为第K1个正样本输入至当前完成训练的弱分类器时该弱分类器输出的节点得分,hnk2为第K2个负样本输入至当前完成训练的弱分类器时该弱分类器输出的节点得分。
可选地,所述特征提取算法包括:方向梯度直方图特征提取算法、亮度色度颜色特征提取算法、局部二进制模式特征提取算法中的至少一种。
为实现上述目的,本发明还提供了一种行人检测方法,包括:
采用上述生成方法生成行人检测模型;
对待检测图像进行标准化,并采用预设的特征提取算法进行特征向量提取,得到待检测特征向量;
使用所述行人检测模型对所述待检测特征向量进行分类,并基于分类结果确定所述待检测图像中是否包含行人。
可选地,所述使用所述行人检测模型对所述待检测特征向量进行分类的步骤包括:
使用各所述弱分类器分别对所述待检测特征向量进行分类,各所述弱分类器分别输出相应的节点得分;
对全部所述弱分类器所输出的节点得分进行求和,得到分类器总得分S;
判断分类器总得分S是否大于预先设置的阈值得分S’;若判断出S>S’,则检测出待检测图像中包含行人;反之,则检测出待检测图像中不包含行人。
可选地,所述使用所述行人检测模型对所述待检测特征向量进行分类的同时,还包括:
判断各弱分类器输出的叶子节点的属性是否为正样本子集合;
若判断出第k个弱分类器输出的叶子节点的属性为正样本子集合时,获取该正样本子集合中正样本特征向量所对应正样本的位置参数向量中横坐标的平均值纵坐标的平均值宽的平均值高的平均值
在检测出待检测图像中包含行人之后,还包括:
计算待检测图像中行人所对应的标识框的位置参数向量L'=(dx',dy',dw',dh'),
其中,
M(k)用于表征第k个弱分类器输出的叶子节点的属性是否为正样本子集合,其中若为正样本子集合,则M(k)=1,若为负样本子集合,则M(k)=0;SCORE(k)为第k个弱分类器输出的叶子节点对应的节点得分。
为实现上述目的,本发明还提供了一种正样本获取设备,所述正样本获取设备中存储有程序,且在所述程序运行时执行上述正样本获取方法。
为实现上述目的,本发明还提供了一种行人检测模型生成设备,所述行人检测模型生成设备中存储有程序,且在所述程序运行时执行上述行人检测模型生成方法。
为实现上述目的,本发明还提供了一种行人检测设备,所述行人检测设备中存储有程序,且在所述程序运行时执行上述行人检测方法。
本发明具有以下有益效果:
本发明提供了一种正样本获取方法、行人检测模型生成方法、行人检测方法、存储设备和行人检测装置,通过增大可提取的正样本的数量,以及为正样本添加背景,可有效提升行人检测模型的识别精准度;此外,通过获取正样本中行人的位置信息参量,并在训练弱分类器的过程中基于分类得分和定位误差来确定进行拆分时的特征属性,可使得最终成型的行人检测模型其不但可对待检测图像中是否有行人进行检测,还可在检测出待检测图像中存在行人时对行人的位置进行定位。
附图说明
图1为本发明实施例一提供的一种正样本获取方法的流程图;
图2a为本发明中根据正样本原始框来获取正样本选取框的一种示意图;
图2b为本发明中根据正样本原始框来获取正样本选取框的又一种示意图;
图3为本发明实施例二提供的一种行人检测模块生成方法的流程图;
图4为本发明实施例二中步骤203的一种具体流程图;
图5为本发明实施例二中步骤2033的一种具体流程图;
图6为本发明实施例二中步骤S4的一种具体流程图;
图7a为本发明实施例二中步骤S5的一种具体流程图;
图7b为本发明实施例二中步骤S5的又一种具体流程图;
图8为本发明实施例三提供的一种行人检测方法的流程图;
图9为本发明实施例三中步骤303的一种具体流程图;
图10为本发明实施例四提供的一种行人检测方法的流程图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图对本发明提供的一种正样本获取方法、行人检测模型生成方法、行人检测方法、存储设备和行人检测装置进行详细描述。
图1为本发明实施例一提供的一种正样本获取方法的流程图,如图1所示,该正样本获取方法包括:
步骤101、对原始图像中预先标记的正样本原始框添加扰动,以得到正样本选取框。
本发明中的正样本原始框即为现有技术中人工标记的正样本标识框,该正样本原始框正好围住一个完整的行人。
通过对正样本原始框添加随机扰动,以使得正样本原始框在一定区域内移动,以得到正样本选取框。
图2a为本发明中根据正样本原始框来获取正样本选取框的一种示意图,如图2a所示,作为一种可选方案,在步骤101中,对正样本原始框的中心位置,和/或正样本原始框的宽,和/或正样本原始框的高,添加随机扰动,以得到正样本扰动框,并将正样本扰动框作为正样本选取框,即正样本选取框与正样本扰动框的形状、尺寸完全一致。
图2b为本发明中根据正样本原始框来获取正样本选取框的又一种示意图,如图2b所示,与上述图2a所示获取正样本过程不同的是,在图2b所示获取过程中,在得到正样本扰动框后,可保持正样本扰动框的中心位置不变,对正样本扰动框进行随机放大或缩小,以得到正样本选取框。通过对正样本扰动框作随机放大或缩小处理以得到正样本选取框,可进一步提升后序训练出的检测模型的鲁棒性。
以对扰动框随机放大α倍为例,保持所述正样本扰动框的中心位置不变,将正样本扰动框的宽和高同时放大倍,从而得到正样本选取框。在实际应用中,应保证正样本的质量,正样本选取框所围住的图像应至少包含行人的部分图像。进一步优选地,正样本选取框所围住的图像包含行人的完整图像。
在步骤101中,通过为正样本原始框添加扰动,可获取到行为周围的背景,即正样本选取框中不仅包含行人图像也包含行人周边的背景图像,可大大提升检测模型的鲁棒性。
步骤102、提取正样本选取框所围住的图像以作为正样本。
在本实施例中,针对原始图像中的一个行人,通过对正样本原始框添加随机扰动,可得到无数个不同的正样本扰动框,再对正样本扰动框进行放大可得到相应的正样本选取框,正样本选取框的数量理论上也是无数个。此时,可提取出无数个不同的正样本。
本发明的技术方案可基于一个行人来获取多个不同的正样本,从而可有效提升原始图像中可提取的正样本的数量,有利于提高分类器的识别精准度。此外,该正样本中不仅包含完整的行人图像,还包含行人周围的背景图像,其也能在一定程度上提升分类器对行人的识别能力。
图3为本发明实施例二提供的一种行人检测模块生成方法的流程图,如图3所示,该行人检测模型生成方法包括:
步骤201、获取若干个正样本。
在步骤S201中,采用上述实施例一中提供的正样本获取方法来获取多个不同的正样本,具体过程此处不再赘述。在本实施例中,正样本的数量为NP个。
步骤202、从原始图像中提取若干个不包含行人的图像以作为负样本。
在原始图像中随机选取若干个不包含行人的图像,每一个图像均可作为一个负样本。选取负样本的过程与现有技术中相同,此处不再详细描述。在本实施例中,负样本的数量为NN个。
需要说明的是,在实际应用中负样本的数量NN往往多于正样本的数量NP,例如正样本的数量NP为2000个,负样本的数量为20000个。
步骤S203、根据获取的多个正样本和多个负样采用预设的分类模型算法来生成行人检测模型。
图4为本发明实施例二中步骤203的一种具体流程图,如图4所示,步骤203包括:
步骤2031、对各正样本和各负样本进行标准化。
首先,对各样本图像X进行缩放,使其转变为特定宽W和高H以及特征颜色通道(例如RGB通道)的标准图像,标准图像的像素数据表示为X(m,n,c),其中m表示图像上的纵坐标,其取值范围是[1,H];n表示横坐标,其取值范围是[1,W];c表示RGB颜色通道,其取值范围是1,2,3。
步骤2032、采用预设的特征提取算法对标准化后的各正样本和各负样本进行特征向量提取,以得到正样本特征训练集和负样本特征训练集。
对标准化后的各正样本和各负样本采用预设的特征提取算法进行特征向量提取,得到正样本特征训练集FP和负样本特征训练集FN。
其中,FP={FP1,…,FPk1,…,FPNP},FN={FN1,…,FNk2,…,FNNN};FPK1表示第k1个正样本对应的特征向量,k1∈[1,NP],FNk2表示第k2个负样本对应的特征向量,k2∈[1,NN]。
可选地,预设的特征提取算法包括:方向梯度直方图(Histogram of OrientedGradient,简称HOG)特征提取算法、亮度色度颜色(LUV颜色)特征提取算法、局部二进制模式(Local Binary Patterns,简称LBP)特征提取算法中的至少一种。
步骤2033、根据正样本特征训练集和负样本特征训练集训练出若干个弱分类器,全部弱分类器构成行人检测模型。
图5为本发明实施例二中步骤2033的一种具体流程图,如图5所示,步骤2033包括:
可选地,本发明中采用Adaboost算法来生成多个弱分类器。步骤2033包括:
步骤S1、初始化各样本特征向量的检测得分和权值,初始化弱分类器数量。
初始化正样本特征训练集FP中各正样本特征向量所对应的检测得分和权值,其中,第k1个正样本特征向量的初始化权值为第k1个正样本特征向量的初始化检测得分为HPk1=0。
初始化负样本特征训练集FN中各负样本特征向量所对应的检测得分和权值,其中,第k2个负样本特征向量的初始化权值为第k2个负样本特征向量的初始化检测得分为HNk2=0。
初始化弱分类器数量t=0,表示当前得到的若分类器的数量t为0个。
步骤S2、设置一存储结构,并将根节点放入至存储结构中,根节点的深度为1,根节点中包含全部正样本特征向量和全部负样本特征向量。
本实施例中,以存储结构为一个先进先出(First In First Out,简称FIFO)的堆栈为例进行描述。当然,该存储结构还可以为其他具有数据存储功能的存储结构。
在步骤S2中,创建一个空的先进先出节点堆栈,并将根节点放入该堆栈,根节点深度设置为1,根节点中包含NP个正样本特征向量FPk1和NN个负样本特征向量FNk2。
需要说明的是,为便于后续的计算,在步骤S1和步骤S3之间还包括步骤S2a。
步骤S2a、对各样本特征向量进行规范化。
具体地,计算全部正样本特征向量和全部负样本特征向量的权值总和并将每个正样本特征向量和负样本特征向量的权值除以W,以对各权值进行规范化。
需要说明的是,步骤S2a可在步骤S2之前执行,或之后执行,或与步骤S2同时执行。
步骤S3、检测存储结构是否为空。
在步骤S3中,若检测出存储结构为空,则执行步骤S7;若检测出存储结构不为空(存在节点),则执行步骤S4。
S4、从存储结构中取出一个节点,并判断该节点是否可拆分。
图6为本发明实施例二中步骤S4的一种具体流程图,如图6所示,步骤S4包括:
步骤S41、从存储结构中取出一个节点,计算该节点中正样本特征向量的权值和与总权值的比率RATIO、以及节点得分SCORE。
假定取出的节点的深度为DEPTH,该节点包含NP2个正样本特征向量FPk3和NN2个负样本特征向量FPk4,其中k3∈[1,NP2],k4∈[1,NN],该节点中正样本特征向量的权值和与总权值的比率RATIO和节点得分SCORE分别为:
其中,
WPS为该节点中正样本特征向量的权值和,WNS为节点中负样本特征向量的权值和,p为大于0的常数(例如P=5)。
步骤S42、判断该节点是否同时满足条件a和条件b。
其中,条件a为:
DEPTH<MAXDEPTH;
条件b为:
TH≤RATIO≤1-TH;
MAXDEPTH为预先设置的节点最大深度(例如MAXDEPTH=5),TH为预先设置的比率阈值(例如TH=0.001)。
若步骤S42判断出该节点同时满足条件a和条件b,则判断出该节点可拆分;若步骤S42判断出该节点无法同时满足条件a和条件b,则判断出该节点不可拆分。
若步骤S4中判断出该节点可拆分,则执行步骤S5;若步骤S4中判断出该节点不可拆分,则执行步骤S3。
步骤S5、确定该节点进行拆分时所选取的特征属性及其对应的特征阈值。
作为本发明的一种可选方案,在步骤S5中基于分类误差(分类得分)来确定进行拆分时的特征属性和特征阈值。图7a为本发明实施例二中步骤S5的一种具体流程图,如图7a所示,步骤S5包括:
步骤S51a、随机选择多个特征属性,并设置对应的特征阈值,针对每一特征属性及其对应的特征阈值对该节点进行分类,得到多个个特征分类结果。
在步骤S51a中,随机选择NF(例如1000)个特征属性,并设置对应的特征阈值,针对每一特征属性及其对应的特征阈值对该节点进行分类,得到NF个特征分类结果,每个分类结果均包含一个左子集合和一个右子集合。其中,第i个特征属性对应的阈值为THi,i∈[1,NF],在基于第i个特征属性进行分类时,将该节点中对应于第i个特征属性的特征值小于THi的特征向量放入左子集合,将该节点中对应于第i个特征属性的特征值大于或等于THi的特征向量放入右子集合。
步骤S52a、计算出各分类结果的分类得分SCORE_C。
分类得分SCORE_C=|WLP-WLN-WRP+WRN|;
其中,WLP为左子集合中的正样本特征向量的权值和,WLN为左子集合中的负样本特征向量的权值和,WRP为右子集合中的正样本特征向量的权值和,WRN为右子集合中的负样本特征向量的权值和。
步骤S53a、选取分类得分最大的分类结果所对应的特征属性和特征阈值。
在步骤S53a中,对各分类结果的分类得分SCORE_C进行比较、排序,选取分类得分最大的分类结果的特征属性和特征阈值,以作为该节点进行拆分时所选取的特征属性及其对应的特征阈值。
作为本发明的又一种可选方案,在步骤S5中基于分类得分(分类误差)和定位误差(位置方差)来确定进行拆分时的特征属性和特征阈值。
可选地,在通过步骤201获取正样本的同时,还获取了各正样本的位置参数向量L=(dx,dy,dw,dh)。
其中,
x、y分别为正样本原始框的中心点的横坐标和纵坐标,w、h分别为正样本原始框的宽和高;x’、y’分别为正样本扰动框的中心点的横坐标和纵坐标,w’、h’分别为正样本扰动框的宽和高。
图7b为本发明实施例二中步骤S5的又一种具体流程图,如图7b所示,步骤S5包括:
步骤S51b、随机选择NF个特征属性,并设置对应的特征阈值,针对每一特征属性及其对应的特征阈值对该节点进行分类,得到NF个特征分类结果。
步骤S52b、计算出各分类结果的分类得分SCORE_C。
对于步骤S51a和S51b的描述可参见前述对步骤S51a和S51b的描述,此处不再赘述。
步骤S53b、确定每一个分类结果中的左子集合和右子集合的正负属性。
在步骤S53b中,判断WLP-WLN-WRP+WRN的取值的正负,若WLP-WLN-WRP+WRN的值为正,则左子集合为正样本子集合,右子集合为负样本子集合;若WLP-WLN-WRP+WRN的值为负,则左子集合为负样本子集合,右子集合为正样本子集合。
步骤S54b、计算正样本子集合中正样本特征向量的回归误差ERROR_R。
回归误差ERROR_R=Var(dx)+Var(dy)+Var(dw)+Var(dh);
其中,
N为正样本子集合中正样本特征向量的数量,dxj、dyj、dwj、dhj分别为正样本子集合中第j个正样本特征向量对应的正样本的位置参数向量中横坐标、纵坐标、宽、高,分别为正样本子集合中N个正样本特征向量所对应正样本的位置参数向量中横坐标的平均值、纵坐标的平均值、宽的平均值、高的平均值;
步骤S55b、计算各分类结果的总得分SCORE_TOTAL。
总得分SCORE_TOTAL=SCORE_C-λ*ERROR_R;
其中,λ为大于0的常数(例如λ=0.1),可根据实际经验进行选取。
步骤S56b、选取总得分最大的分类结果所对应的特征属性和特征阈值。
在步骤S56b中,对各分类结果的总得分SCORE_TOTAL进行比较、排序,选取总得分最大的分类结果的特征属性和特征阈值,以作为该节点进行拆分时所选取的特征属性及其对应的特征阈值。
与图7a所示选取对节点进行拆分的特征属性不同的是,图7b所示的选取方法不仅考虑了分类误差,还考虑到了定位误差,其不仅能提高分类器的识别精确度,还能在一定程度对待检测图像中的行人进行精准定位,定位原理可参见后续描述。
步骤S6、根据确定出的特征属性及其对应特征阈值,将该节点中的全部特征向量拆分为左子集合和右子集合,增加两个新节点,分别包含左子集合和右子集合,该两个新节点作为当前节点的子节点,并将该两个新节点添加到存储结构中。
基于步骤S5确定该节点进行拆分时所对应的特征属性和特征阈值,对该节点进行拆分,并基于拆分结果生成两个新节点,作为该节点的子节点,并将该两个新节点添加到存储结构中。在步骤S6执行完后,跳转至执行步骤S4。
步骤S7、记录所有节点的深度、子节点、特征属性及其对应特征阈值,完成一个弱分类器的训练。
在步骤S3中判断出该存储结构为空时,则表明无节点可进行拆分,一个分类器所对应的一颗决策树完成。通过记录该决策树所有节点的深度、子节点、特征属性、特征属性对应的特征阈值等信息,即完成一个弱分类器的训练。
步骤S8、执行t=t+1,并判断t是否大于预设阈值T。
预设阈值T表示弱分类器的数量上限值(例如T=2000)。若判断出t大于T,则表示弱分类器的数量达到上限,训练弱分类器的步骤结束;否则,执行步骤S9。
步骤S9、利用当前完成训练的弱分类器对各正样本特征向量、各负样本特征向量的检测得分和权值进行更新。
可选地,更新后的正样本特征向量的检测得分HPk1'=HPk1+hpk1;
更新后的负样本特征向量的检测得分HNk2'=HNk2+hnk2;
更新后的正样本特征向量的权值
更新后的负样本特征向量的权值
其中,NP为所述正样本的数量,NN为所述负样本的数量,HPk1为当前第k1个正样本特征向量的权值,HNk2为当前第k2个负样本特征向量的权值,hpk1为第K1个正样本输入至当前完成训练的弱分类器时该弱分类器输出的节点得分,hnk2为第K2个负样本输入至当前完成训练的弱分类器时该弱分类器输出的节点得分。
在对各正样本特征向量的检测得分和权值完成更新后,利用更新后的检测得分和权值继续训练新的弱分类器,即跳转至执行步骤S2。
本发明实施例二提供了一种行人检测模型生成方法,基于该生成方法所生成的行人检测模型可对待检测图像中的行人进行精准识别。此外,当获取正样本的同时还获取位置参数向量时,最终生成的行人检测模型不仅可对待检测图像中的行人进行识别,还可确定出行人在待检测图像中的位置。
图8为本发明实施例三提供的一种行人检测方法的流程图,如图8所示,该行人检测方法包括:包括:
步骤301、生成行人检测模型。
在步骤301中,采用上述实施例二中提供的生成方法来生成行人检测模块,具体过程可参见上述实施例二中的内容,此处不再赘述。
步骤302、对待检测图像进行标准化,并采用预设的特征提取算法进行特征向量提取,得到待检测特征向量。
将待检测图像转变为具有特定宽W和高H以及特征颜色通道的标准图像,并采用训练弱分类器时所使用的特征提取算法对待检测图像进行特征向量提取,得到待检测特征向量。
步骤303、使用行人检测模型对待检测特征向量进行分类,并基于分类结果确定待检测图像中是否包含行人。
图9为本发明实施例三中步骤303的一种具体流程图,如图9所示,当行人检测模型包括若干个若分类器时,步骤303包括:
步骤3031、使用各弱分类器分别对待检测特征向量进行分类,各弱分类器分别输出相应的节点得分。
其中,第k个分类器输出的节点得分记为Sk,k∈[1,T],T为弱分类器的数量。
步骤3032、对全部弱分类器所输出的节点得分进行求和,得到分类器总得分S。
其中,总得分
步骤3033、判断分类器总得分S是否大于预先设置的阈值得分S’。
在步骤S3033中,若判断出S>S’,则检测出待检测图像中包含行人;反之,则检测出待检测图像中不包含行人。
本发明实施例三提供了一种行人检测方法,可对待检测图像中是否包含行人进行精准识别。
图10为本发明实施例四提供的一种行人检测方法的流程图,如图10所示,该行人检测方法包括:包括:
步骤401、生成行人检测模型。
其中,在生成行人检测模型中的各弱分类器的过程中,基于分类得分和定位误差来确定节点进行拆分时的特征属性。
步骤402、对待检测图像进行标准化,并采用预设的特征提取算法进行特征向量提取,得到待检测特征向量。
步骤403、使用各弱分类器分别对待检测特征向量进行分类,各弱分类器分别输出相应的节点得分。
步骤404、依次判断各弱分类器输出的叶子节点的属性是否为正样本子集合,且在判断出弱分类器输出的叶子节点的属性为正样本子集合时,获取该正样本子集合中正样本特征向量所对应正样本的位置参数向量中横坐标的平均值、纵坐标的平均值、宽的平均值、高的平均值。
其中,若判断出第k个弱分类器输出的叶子节点的属性为正样本子集合时,则获取该正样本子集合中正样本特征向量所对应正样本的位置参数向量中横坐标的平均值纵坐标的平均值宽的平均值高的平均值
步骤405、对全部弱分类器所输出的节点得分进行求和,得到分类器总得分S。
其中,总得分
步骤406、判断分类器总得分S是否大于预先设置的阈值得分S’。
在步骤406中,若判断出S>S’,则检测出待检测图像中包含行人,此时执行步骤407;反之,则检测出待检测图像中不包含行人,流程结束。
步骤407、计算待检测图像中行人所对应的标识框的位置参数向量L'=(dx',dy',dw',dh')。
其中,
M(k)用于表征第k个弱分类器输出的叶子节点的属性是否为正样本子集合,其中若为正样本子集合,则M(k)=1,若为负样本子集合,则M(k)=0;SCORE(k)为第k个弱分类器输出的叶子节点对应的节点得分。
通过上述步骤407所计算出的标识框的位置参数向量L'=(dx',dy',dw',dh'),可在一定程度上反映出行人在待检测图像的位置信息。
由此可见,本发明实施例四提供的行人检测方法,其不但可对待检测图像中是否有行人进行检测,还可在检测出待检测图像中存在行人时对行人的位置进行定位。
本发明实施例五提供了一种正样本获取设备,该正样本获取设备中存储有程序,且在程序运行时执行上述实施例一提供的正样本获取方法。
本发明实施例六提供了一种行人检测模型生成设备,该行人检测模型生成设备中存储有程序,且在程序运行时执行上述实施例二中提供的行人检测模型生成方法。
本发明实施例七提供了一行人检测设备,该行人检测设备中存储有程序,且在程序运行时执行上述实施例三或实施例四提供的行人检测方法。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (20)
1.一种正样本获取方法,其特征在于,包括:
对原始图像中预先标记的正样本原始框添加扰动,以得到正样本选取框,所述正样本原始框所围住的图像包含行人;
提取所述正样本选取框所围住的图像以作为正样本。
2.根据权利要求1所述的正样本获取方法,其特征在于,所述对正样本原始框添加扰动的步骤具体包括:
对所述正样本原始框的中心位置,和/或所述正样本原始框的宽,和/或所述正样本原始框的高,添加随机扰动,以得到正样本扰动框,并将所述正样本扰动框作为所述正样本选取框。
3.根据权利要求1所述的正样本获取方法,其特征在于,所述对正样本原始框添加扰动的步骤具体包括:
对所述正样本原始框的中心位置、和/或所述正样本原始框的宽、和/或所述正样本原始框的高,添加随机扰动,以得到所述正样本扰动框;
保持所述正样本扰动框的中心位置不变,对所述正样本扰动框进行随机放大或缩小,以得到所述正样本选取框。
4.一种行人检测模型生成方法,其特征在于,包括:
采用上述权利要求1至3中任一所述的正样本获取方法来获取若干个正样本;
从原始图像中提取若干个不包含行人的图像以作为负样本;
根据获取的多个所述正样本和多个所述负样采用预设的分类模型算法来生成行人检测模型。
5.根据权利要求4所述的行人检测模型生成方法,其特征在于,所述根据获取的多个所述正样本和多个所述负样采用预设的分类模型算法来生成行人检测模型的步骤包括:
对各所述正样本和各所述负样本进行标准化;
采用预设的特征提取算法对标准化后的各所述正样本和各所述负样本进行特征向量提取,以得到正样本特征训练集和负样本特征训练集;
根据所述正样本特征训练集和所述负样本特征训练集训练出若干个弱分类器,全部所述弱分类器构成所述行人检测模型。
6.根据权利要求5所述的行人检测模型生成方法,其特征在于,所述根据所述正样本特征训练集和所述负样本特征训练集训练出若干个弱分类器的步骤包括:
S1、初始化所述正样本特征训练集中各正样本特征向量所对应的检测得分和权值,初始化所述负样本特征训练集中各负样本特征向量所对应的检测得分和权值,初始化弱分类器数量t=0;
S2、设置一存储结构,并将根节点放入至所述存储结构中,根节点的深度为1,根节点中包含全部所述正样本特征向量和全部所述负样本特征向量;
S3、检测所述存储结构是否为空;若检测出所述存储结构为空,则执行步骤S7,否则执行步骤S4;
S4、从所述存储结构中取出一个节点,并判断该节点是否可拆分;
若判断出该节点可拆分则执行步骤S5,否则执行步骤S3;
S5、确定该节点进行拆分时所选取的特征属性及其对应的特征阈值;
S6、根据确定出的特征属性及其对应特征阈值,将该节点中的全部特征向量拆分为左子集合和右子集合,增加两个新节点,分别包含所述左子集合和所述右子集合,该两个新节点作为当前节点的子节点,并将该两个新节点添加到所述存储结构中,此时跳转至执行步骤S4;
S7、记录所有节点的深度、子节点、特征属性及其对应特征阈值,完成一个弱分类器的训练;
S8、执行t=t+1,并判断t是否大于预设阈值T,若判断出t大于T,则训练出若干个弱分类器的步骤结束;否则执行步骤S9;
S9、利用当前完成训练的弱分类器对各正样本特征向量、各负样本特征向量的检测得分和权值进行更新,并基于更新后的检测得分和权值执行步骤S2。
7.根据权利要求6所述的行人检测模型生成方法,其特征在于,在步骤S1和步骤S3之间还包括:
S2a、对各所述正样本特征向量和各所述负样本特征向量的权值进行规范化。
8.根据权利要求6所述的行人检测模型生成方法,其特征在于,在步骤S1中,第k1个正样本特征向量的初始化权值为第k1个正样本特征向量的初始化检测得分为HPk1=0,第k2个负样本特征向量的初始化权值为第k2个负样本特征向量的初始化检测得分为HNk2=0;
其中,NP为所述正样本的数量,NN为所述负样本的数量,k1∈[1,NP],k2∈[1,NN]。
9.根据权利要求6所述的行人检测模型生成方法,其特征在于,步骤S4包括:
S41、从存储结构中取出一个节点,计算该节点中正样本特征向量的权值和与总权值的比率RATIO、以及节点得分SCORE;
比率
节点得分
其中,WPS为该节点中正样本特征向量的权值和,WNS为节点中负样本特征向量的权值和,p为大于0的常数。
S42、判断该节点是否同时满足条件a和条件b,条件a为DEPTH<MAXDEPTH,条件b为TH≤RATIO≤1-TH;
其中,DEPTH为该节点的深度,MAXDEPTH为预先设置的节点最大深度,TH为预先设置的比率阈值;
若步骤S42判断出该节点同时满足条件a和条件b,则判断出该节点可拆分;否则,判断出该节点不可拆分。
10.根据权利要求6所述的行人检测模型生成方法,其特征在于,步骤S5包括:
S51a、随机选择NF个特征属性,并设置对应的特征阈值,针对每一特征属性及其对应的特征阈值对该节点进行分类,得到NF个特征分类结果,每个分类结果均包含一个左子集合和一个右子集合,其中,第i个特征属性对应的阈值为THi,i∈[1,NF],在基于第i个特征属性进行分类时,将该节点中对应于第i个特征属性的特征值小于THi的特征向量放入左子集合,将该节点中对应于第i个特征属性的特征值大于或等于THi的特征向量放入右子集合;
S52a、计算出各分类结果的分类得分SCORE_C:
SCORE_C=|WLP-WLN-WRP+WRN|;
其中,WLP为左子集合中的正样本特征向量的权值和,WLN为左子集合中的负样本特征向量的权值和,WRP为右子集合中的正样本特征向量的权值和,WRN为右子集合中的负样本特征向量的权值和;
S53a、选取分类得分最大的分类结果所对应的特征属性和特征阈值,以作为该节点进行拆分时所选取的特征属性及其对应的特征阈值。
11.根据权利要求6所述的行人检测模型生成方法,其特征在于,当采用上述权利要求2或3中所述正样本获取方法来获取若干个正样本时,在获取若干个正样本的同时还包括:
获取正样本的位置参数向量L=(dx,dy,dw,dh);
其中,
x、y分别为所述正样本原始框的中心点的横坐标和纵坐标,w、h分别为所述正样本原始框的宽和高;
x’、y’分别为所述正样本扰动框的中心点的横坐标和纵坐标,w’、h’分别为所述正样本扰动框的宽和高。
12.根据权利要求11所述的行人检测模型生成方法,其特征在于,步骤S5包括:
S51b、随机选择NF个特征属性,并设置对应的特征阈值,针对每一特征属性及其对应的特征阈值对该节点进行分类,得到NF个特征分类结果,每个分类结果均包含一个左子集合和一个右子集合,其中,第i个特征属性对应的阈值为THi,i∈[1,NF],在基于第i个特征属性进行分类时,将该节点中对应于第i个特征属性的特征值小于THi的特征向量放入左子集合,将该节点中对应于第i个特征属性的特征值大于或等于THi的特征向量放入右子集合;
S52b、计算出各分类结果的分类得分SCORE_C:
SCORE_C=|WLP-WLN-WRP+WRN|;
其中,WLP为左子集合中的正样本特征向量的权值和,WLN为左子集合中的负样本特征向量的权值和,WRP为右子集合中的正样本特征向量的权值和,WRN为右子集合中的负样本特征向量的权值和;
S53b、确定每一个分类结果中的左子集合和右子集合的正负属性,其中,若WLP-WLN-WRP+WRN的值为正,则左子集合为正样本子集合,右子集合为负样本子集合;反之,则左子集合为负样本子集合,右子集合为正样本子集合;
S54b、计算正样本子集合中正样本特征向量的回归误差ERROR_R:
ERROR_R=Var(dx)+Var(dy)+Var(dw)+Var(dh),
其中,
N为正样本子集合中正样本特征向量的数量,dxj、dyj、dwj、dhj分别为正样本子集合中第j个正样本特征向量对应的正样本的位置参数向量中横坐标、纵坐标、宽、高,分别为正样本子集合中N个正样本特征向量所对应正样本的位置参数向量中横坐标的平均值、纵坐标的平均值、宽的平均值、高的平均值;
S55b、计算各分类结果的总得分SCORE_TOTAL:
SCORE_TOTAL=SCORE_C-λ*ERROR_R
其中,λ为大于0的常数;
S56b、选取总得分最大的分类结果所对应的特征属性和特征阈值,以作为该节点进行拆分时所选取的特征属性及其对应的特征阈值。
13.根据权利要求6所述的行人检测模型生成方法,其特征在于,在步骤S9中,
更新后的正样本特征向量的检测得分HPk1'=HPk1+hpk1;
更新后的负样本特征向量的检测得分HNk2'=HNk2+hnk2;
更新后的正样本特征向量的权值
更新后的负样本特征向量的权值
其中,NP为所述正样本的数量,NN为所述负样本的数量,HPk1为当前第k1个正样本特征向量的权值,HNk2为当前第k2个负样本特征向量的权值,hpk1为第K1个正样本输入至当前完成训练的弱分类器时该弱分类器输出的节点得分,hnk2为第K2个负样本输入至当前完成训练的弱分类器时该弱分类器输出的节点得分。
14.根据权利要求5所述的行人检测模型生成方法,其特征在于,所述特征提取算法包括:方向梯度直方图特征提取算法、亮度色度颜色特征提取算法、局部二进制模式特征提取算法中的至少一种。
15.一种行人检测方法,其特征在于,包括:
采用上述权利要求4-14中任一所述生成方法生成行人检测模型;
对待检测图像进行标准化,并采用预设的特征提取算法进行特征向量提取,得到待检测特征向量;
使用所述行人检测模型对所述待检测特征向量进行分类,并基于分类结果确定所述待检测图像中是否包含行人。
16.根据权利要求15所述的行人检测方法,其特征在于,当采用上述权利要求5-14中任一所述生成方法生成行人检测模型时,所述使用所述行人检测模型对所述待检测特征向量进行分类的步骤包括:
使用各所述弱分类器分别对所述待检测特征向量进行分类,各所述弱分类器分别输出相应的节点得分;
对全部所述弱分类器所输出的节点得分进行求和,得到分类器总得分S;
判断分类器总得分S是否大于预先设置的阈值得分S’;若判断出S>S’,则检测出待检测图像中包含行人;反之,则检测出待检测图像中不包含行人。
17.根据权利要求15所述的行人检测方法,其特征在于,当采用上述权利要求11或12中所述生成方法生成行人检测模型时,所述使用所述行人检测模型对所述待检测特征向量进行分类的同时,还包括:
判断各弱分类器输出的叶子节点的属性是否为正样本子集合;
若判断出第k个弱分类器输出的叶子节点的属性为正样本子集合时,获取该正样本子集合中正样本特征向量所对应正样本的位置参数向量中横坐标的平均值纵坐标的平均值宽的平均值高的平均值
在检测出待检测图像中包含行人之后,还包括:
计算待检测图像中行人所对应的标识框的位置参数向量L'=(dx',dy',dw',dh'),
其中,
M(k)用于表征第k个弱分类器输出的叶子节点的属性是否为正样本子集合,其中若为正样本子集合,则M(k)=1,若为负样本子集合,则M(k)=0;SCORE(k)为第k个弱分类器输出的叶子节点对应的节点得分。
18.一种正样本获取设备,其特征在于,所述正样本获取设备中存储有程序,且在所述程序运行时执行上述权利要求1-3中任一所述的正样本获取方法。
19.一种行人检测模型生成设备,其特征在于,所述行人检测模型生成设备中存储有程序,且在所述程序运行时执行上述权利要求4-14中任一所述的行人检测模型生成方法。
20.一种行人检测设备,其特征在于,所述行人检测设备中存储有程序,且在所述程序运行时执行上述权利要求15-17中任一所述的行人检测方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810149833.2A CN110163033B (zh) | 2018-02-13 | 2018-02-13 | 正样本获取方法、行人检测模型生成方法和行人检测方法 |
PCT/CN2019/074668 WO2019158015A1 (zh) | 2018-02-13 | 2019-02-03 | 样本获取方法、目标检测模型生成方法、目标检测方法 |
EP19753684.0A EP3754539A4 (en) | 2018-02-13 | 2019-02-03 | SAMPLE ACQUISITION PROCESS, TARGET DETECTION MODEL GENERATION PROCESS, TARGET DETECTION PROCESS |
US16/605,752 US11238296B2 (en) | 2018-02-13 | 2019-02-03 | Sample acquisition method, target detection model generation method, target detection method, computing device and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810149833.2A CN110163033B (zh) | 2018-02-13 | 2018-02-13 | 正样本获取方法、行人检测模型生成方法和行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163033A true CN110163033A (zh) | 2019-08-23 |
CN110163033B CN110163033B (zh) | 2022-04-22 |
Family
ID=67619728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810149833.2A Active CN110163033B (zh) | 2018-02-13 | 2018-02-13 | 正样本获取方法、行人检测模型生成方法和行人检测方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11238296B2 (zh) |
EP (1) | EP3754539A4 (zh) |
CN (1) | CN110163033B (zh) |
WO (1) | WO2019158015A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112200274A (zh) * | 2020-12-09 | 2021-01-08 | 湖南索莱智能科技有限公司 | 一种目标检测方法、装置、电子设备和存储介质 |
CN114266945A (zh) * | 2022-02-28 | 2022-04-01 | 粤港澳大湾区数字经济研究院(福田) | 一种目标检测模型的训练方法、目标检测方法及相关装置 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353538B (zh) * | 2020-02-28 | 2023-04-07 | 西安理工大学 | 基于深度学习的相似图像匹配方法 |
CN111598833B (zh) * | 2020-04-01 | 2023-05-26 | 江汉大学 | 一种目标样本瑕疵检测的方法、装置及电子设备 |
CN111814852B (zh) * | 2020-06-24 | 2024-07-05 | 理光软件研究所(北京)有限公司 | 图像检测方法、装置、电子设备和计算机可读存储介质 |
CN112257797A (zh) * | 2020-10-29 | 2021-01-22 | 瓴盛科技有限公司 | 行人头部图像分类器的样本图像生成方法及相应训练方法 |
CN112560992B (zh) * | 2020-12-25 | 2023-09-01 | 北京百度网讯科技有限公司 | 优化图片分类模型的方法、装置、电子设备及存储介质 |
CN112651458B (zh) * | 2020-12-31 | 2024-04-02 | 深圳云天励飞技术股份有限公司 | 分类模型的训练方法、装置、电子设备及存储介质 |
CN112926463B (zh) * | 2021-03-02 | 2024-06-07 | 普联国际有限公司 | 一种目标检测方法和装置 |
CN112836768B (zh) * | 2021-03-08 | 2022-07-19 | 北京电子工程总体研究所 | 一种数据平衡方法和系统、计算机设备和介质 |
CN113111708B (zh) * | 2021-03-10 | 2023-12-29 | 北京爱笔科技有限公司 | 车辆匹配样本生成方法、装置、计算机设备和存储介质 |
CN112906669A (zh) * | 2021-04-08 | 2021-06-04 | 济南博观智能科技有限公司 | 一种交通目标检测方法、装置、设备及可读存储介质 |
CN113255456B (zh) * | 2021-04-28 | 2023-08-25 | 平安科技(深圳)有限公司 | 非主动活体检测方法、装置、电子设备及存储介质 |
CN113159209B (zh) * | 2021-04-29 | 2024-05-24 | 深圳市商汤科技有限公司 | 目标检测方法、装置、设备和计算机可读存储介质 |
CN113283493A (zh) * | 2021-05-19 | 2021-08-20 | Oppo广东移动通信有限公司 | 样本的获取方法、装置、终端及存储介质 |
CN113344042A (zh) * | 2021-05-21 | 2021-09-03 | 北京中科慧眼科技有限公司 | 基于辅助驾驶的路况图像模型训练方法、系统和智能终端 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5649023A (en) * | 1994-05-24 | 1997-07-15 | Panasonic Technologies, Inc. | Method and apparatus for indexing a plurality of handwritten objects |
US20070233435A1 (en) * | 2006-03-31 | 2007-10-04 | Gary Bradski | Boosted linear modeling of non-linear time series |
US20070237387A1 (en) * | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
CN101281521A (zh) * | 2007-04-05 | 2008-10-08 | 中国科学院自动化研究所 | 一种基于多分类器融合的敏感网页过滤方法及系统 |
CN101290660A (zh) * | 2008-06-02 | 2008-10-22 | 中国科学技术大学 | 一种用于行人检测的树状组合分类方法 |
CN103366160A (zh) * | 2013-06-28 | 2013-10-23 | 西安交通大学 | 融合肤色、人脸和敏感部位检测的不良图像判别方法 |
CN103902968A (zh) * | 2014-02-26 | 2014-07-02 | 中国人民解放军国防科学技术大学 | 一种基于AdaBoost分类器的行人检测模型训练方法 |
CN103984953A (zh) * | 2014-04-23 | 2014-08-13 | 浙江工商大学 | 基于多特征融合与Boosting决策森林的街景图像的语义分割方法 |
CN105426870A (zh) * | 2015-12-15 | 2016-03-23 | 北京文安科技发展有限公司 | 一种人脸关键点定位方法及装置 |
US9443320B1 (en) * | 2015-05-18 | 2016-09-13 | Xerox Corporation | Multi-object tracking with generic object proposals |
CN106295502A (zh) * | 2016-07-25 | 2017-01-04 | 厦门中控生物识别信息技术有限公司 | 一种人脸检测方法及装置 |
CN106778452A (zh) * | 2015-11-24 | 2017-05-31 | 沈阳新松机器人自动化股份有限公司 | 服务机器人基于双目视觉的人体检测与跟踪方法 |
CN107301378A (zh) * | 2017-05-26 | 2017-10-27 | 上海交通大学 | 图像中多分类器集成的行人检测方法和系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4712563B2 (ja) * | 2006-01-16 | 2011-06-29 | 富士フイルム株式会社 | 顔検出方法および装置並びにプログラム |
CN101853389A (zh) * | 2009-04-01 | 2010-10-06 | 索尼株式会社 | 多类目标的检测装置及检测方法 |
US8699752B2 (en) * | 2011-09-29 | 2014-04-15 | Nec Laboratories America, Inc. | Adaptive cross partition for learning weak classifiers |
JP6320112B2 (ja) * | 2014-03-27 | 2018-05-09 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
CN105095857B (zh) * | 2015-06-26 | 2018-11-16 | 上海交通大学 | 基于关键点扰动技术的人脸数据增强方法 |
CN107463879A (zh) * | 2017-07-05 | 2017-12-12 | 成都数联铭品科技有限公司 | 基于深度学习的人体行为识别方法 |
-
2018
- 2018-02-13 CN CN201810149833.2A patent/CN110163033B/zh active Active
-
2019
- 2019-02-03 EP EP19753684.0A patent/EP3754539A4/en active Pending
- 2019-02-03 WO PCT/CN2019/074668 patent/WO2019158015A1/zh unknown
- 2019-02-03 US US16/605,752 patent/US11238296B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5649023A (en) * | 1994-05-24 | 1997-07-15 | Panasonic Technologies, Inc. | Method and apparatus for indexing a plurality of handwritten objects |
US20070233435A1 (en) * | 2006-03-31 | 2007-10-04 | Gary Bradski | Boosted linear modeling of non-linear time series |
US20070237387A1 (en) * | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
CN101281521A (zh) * | 2007-04-05 | 2008-10-08 | 中国科学院自动化研究所 | 一种基于多分类器融合的敏感网页过滤方法及系统 |
CN101290660A (zh) * | 2008-06-02 | 2008-10-22 | 中国科学技术大学 | 一种用于行人检测的树状组合分类方法 |
CN103366160A (zh) * | 2013-06-28 | 2013-10-23 | 西安交通大学 | 融合肤色、人脸和敏感部位检测的不良图像判别方法 |
CN103902968A (zh) * | 2014-02-26 | 2014-07-02 | 中国人民解放军国防科学技术大学 | 一种基于AdaBoost分类器的行人检测模型训练方法 |
CN103984953A (zh) * | 2014-04-23 | 2014-08-13 | 浙江工商大学 | 基于多特征融合与Boosting决策森林的街景图像的语义分割方法 |
US9443320B1 (en) * | 2015-05-18 | 2016-09-13 | Xerox Corporation | Multi-object tracking with generic object proposals |
CN106778452A (zh) * | 2015-11-24 | 2017-05-31 | 沈阳新松机器人自动化股份有限公司 | 服务机器人基于双目视觉的人体检测与跟踪方法 |
CN105426870A (zh) * | 2015-12-15 | 2016-03-23 | 北京文安科技发展有限公司 | 一种人脸关键点定位方法及装置 |
CN106295502A (zh) * | 2016-07-25 | 2017-01-04 | 厦门中控生物识别信息技术有限公司 | 一种人脸检测方法及装置 |
CN107301378A (zh) * | 2017-05-26 | 2017-10-27 | 上海交通大学 | 图像中多分类器集成的行人检测方法和系统 |
Non-Patent Citations (3)
Title |
---|
BO WU 等: "Cluster Boosted Tree Classifier for Multi-View, Multi-Pose Object Detection", 《2007 IEEE》 * |
KAIPENG ZHANG: "Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks", 《IEEE SIGNAL PROCESSING LETTERS》 * |
KANG-KOOKKONG 等: "Design of coupled strong classifiers in AdaBoost framework and its application to pedestrian detection", 《PATTERN RECOGNITION LETTERS》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112200274A (zh) * | 2020-12-09 | 2021-01-08 | 湖南索莱智能科技有限公司 | 一种目标检测方法、装置、电子设备和存储介质 |
CN114266945A (zh) * | 2022-02-28 | 2022-04-01 | 粤港澳大湾区数字经济研究院(福田) | 一种目标检测模型的训练方法、目标检测方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3754539A1 (en) | 2020-12-23 |
US20200151484A1 (en) | 2020-05-14 |
US11238296B2 (en) | 2022-02-01 |
WO2019158015A1 (zh) | 2019-08-22 |
EP3754539A4 (en) | 2021-11-10 |
CN110163033B (zh) | 2022-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163033B (zh) | 正样本获取方法、行人检测模型生成方法和行人检测方法 | |
US9824294B2 (en) | Saliency information acquisition device and saliency information acquisition method | |
CN107833213B (zh) | 一种基于伪真值自适应法的弱监督物体检测方法 | |
Rahtu et al. | Learning a category independent object detection cascade | |
CN107316036B (zh) | 一种基于级联分类器的害虫识别方法 | |
JP5202148B2 (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
US8023701B2 (en) | Method, apparatus, and program for human figure region extraction | |
CN105096307B (zh) | 在成对的立体图像中检测物体的方法 | |
WO2016138838A1 (zh) | 基于投影极速学习机的唇语识别方法和装置 | |
CN111783505A (zh) | 伪造人脸的识别方法、装置和计算机可读存储介质 | |
CN105144239A (zh) | 图像处理装置、程序及图像处理方法 | |
CN110599463B (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
JP6897749B2 (ja) | 学習方法、学習システム、および学習プログラム | |
CN111383244B (zh) | 一种目标检测跟踪方法 | |
CN111382766A (zh) | 一种基于Faster R-CNN的设备故障检测方法 | |
CN112651996B (zh) | 目标检测跟踪方法、装置、电子设备和存储介质 | |
JP7341962B2 (ja) | 学習データ収集装置、学習装置、学習データ収集方法およびプログラム | |
CN111191531A (zh) | 一种快速行人检测方法及系统 | |
CN113870254A (zh) | 目标对象的检测方法、装置、电子设备及存储介质 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
JP2012048624A (ja) | 学習装置、方法及びプログラム | |
CN114445691A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
JP5552946B2 (ja) | 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム | |
CN108133210B (zh) | 一种图像格式识别方法及装置 | |
CN111723719A (zh) | 基于类别外部记忆的视频目标检测方法、系统、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |