CN109325963A - 一种基于svm的公交乘客三维轨迹分类方法 - Google Patents

一种基于svm的公交乘客三维轨迹分类方法 Download PDF

Info

Publication number
CN109325963A
CN109325963A CN201810891823.6A CN201810891823A CN109325963A CN 109325963 A CN109325963 A CN 109325963A CN 201810891823 A CN201810891823 A CN 201810891823A CN 109325963 A CN109325963 A CN 109325963A
Authority
CN
China
Prior art keywords
image
camera
track
downward projection
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810891823.6A
Other languages
English (en)
Other versions
CN109325963B (zh
Inventor
张朝阳
张文涛
孙士杰
郑宝峰
雷琪
李莹
廖政
武非凡
杨璐
梁浩翔
云旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changan University
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Priority to CN201810891823.6A priority Critical patent/CN109325963B/zh
Publication of CN109325963A publication Critical patent/CN109325963A/zh
Application granted granted Critical
Publication of CN109325963B publication Critical patent/CN109325963B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • G06T3/604Rotation of a whole image or part thereof using a CORDIC [COordinate Rotation Digital Compute] device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于SVM的公交乘客三维轨迹分类方法,包括以下步骤:利用深度相机获取公交车的上、下车图像,并提取所述图像的前景图像;分别建立相机坐标系和世界坐标系,通过相机标定,获得所述前景图像中像素坐标与世界坐标的转换关系,然后将所述的前景图像转换为世界坐标系下的俯视投影图;针对所述的俯视投影图,首先对俯视投影图进行块化,然后确定局部高度值最大的区域,最后对该区域进行扩展以锁定人头目标,获取人头目标的三维轨迹,然后提取三维轨迹的特征,训练SVM分类器,实现轨迹的分类。本发明方法能够对疑似目标的三维轨迹进行分类,实现对上、下车乘客的计数,并且识别精度高。

Description

一种基于SVM的公交乘客三维轨迹分类方法
技术领域
本发明涉及图像处理与计数领域,具体涉及一种基于SVM的公交乘客三维轨迹分类方法。
背景技术
目前,基于视频图像的公交客流量的获取方式主要采用单目相机,在获得乘客运动轨迹后则利用检测线的方式判断乘客上、下车人数。但是该方法是在二维图像上进行处理,遮挡情况下轨迹信息丢失严重,且无法区分乘客轨迹和伪目标轨迹,导致精度较差。
发明内容
本发明的目的是提供一种基于SVM的公交乘客三维轨迹分类方法,用以对目标的三维轨迹进行分类。
为了实现上述任务,本发明采用以下技术方案:
一种基于SVM的公交乘客三维轨迹分类方法,包括以下步骤:
利用深度相机获取公交车的上、下车图像,并提取所述图像的前景图像;分别建立相机坐标系和世界坐标系,通过相机标定,获得所述前景图像中像素坐标与世界坐标的转换关系,然后将所述的前景图像转换为世界坐标系下的俯视投影图;
针对所述的俯视投影图,首先对俯视投影图进行块化,然后确定局部高度值最大的区域,最后对该区域进行扩展以锁定人头目标,获取人头目标的三维轨迹,然后提取三维轨迹的特征,训练SVM分类器,实现轨迹的分类。
进一步地,所述的提取所述图像的前景图像,包括:
首先利用深度相机拍摄公交车前门、后门在无乘客时的图像,从该图像中提取出彩色图像作为背景图像,然后针对于深度相机采集的公交车的上、下车图像对应的彩色图像,通过以下公式提取前景图像:
上式中,Di为提取的前景图像的二值化数据,Ii为当前帧的图像的彩色图像,B为背景图像,T为判别阈值。
进一步地,分别建立相机坐标系和世界坐标系,通过相机标定,获得所述前景图像中像素坐标与世界坐标的转换关系,包括:
以相机光心作为相机坐标系原点Oc,光轴为Z轴,X轴平行于公交台阶所在平面建立相机坐标系Oc;以相机与公交台阶坐在平面的垂足作为世界坐标系的原点Ow,世界坐标系的X轴平行于相机坐标系X轴,Z轴与台阶所在平面垂直,建立世界坐标系Ow;对相机进行标定,可求解相机参数矩阵C,通过相机参数矩阵C、前景图像中的像素坐标,以及该像素坐标对应的深度值,即可得到前景图像中像素坐标与世界坐标的转换关系。
进一步地,将所述的前景图像转换为世界坐标系下的俯视投影图,包括:
针对于深度图像采集的公交车上、下车图像,在图像的深度图像中,深度值代表的是世界坐标系中的点P(xp,yp,zp)到相机的距离len,根据世界坐标系下物体的几何关系可得如下公式:
len=m·r
Zp=Hc-len·sinθ
上面的式子中,Hc为相机的安装高度,点G(xG,yG,0)是相机光心、世界坐标系中的点P(xp,yp,zp)的连线与XOY平面的交点;m为点P的深度值;r为单位深度值对应的该点到相机的距离;Zp是点P在世界坐标系下的高度值;
根据上述的公式将前景图像转换为世界坐标系下的俯视投影图。
进一步地,所述的对俯视投影图进行块化,包括:
将整个俯视投影图分为N*M个方块,并设定每个方块的宽度W,然后计算每个方块的平均高度,计算平均高度的公式如下:
上式中,M(i,j)为第i行第j列中所有像素坐标对应的高度值之和,W为方块的宽度,BlockD[c][r]为第c行第r列方块的平均高度值。
进一步地,所述的确定局部高度值最大的区域,包括:
计算出每个方块的平均高度值之后进行搜索,寻找局部高度值最大区域:
遍历每个方块并分别比较当前方块与其周围8邻域方块的大小关系,遍历前将当前小块标记值设为为0;如果比邻域方块的深度值大,则该方块的标记值就加1,否则记为0;如果方块的标记值等于8,则确定该方块为一个局部高度值最大的区域。
进一步地,所述的锁定人头目标的方法包括:
(1)将局部高度值最大区域的方块标记为种子像素点;
(2)分别计算种子像素点与其邻域像素点深度值之间的差值,将差值与阈值T′进行比较,若小于T′,则将该邻域像素点标记为边缘点,否则不进行标记;本实施例中,所述的T′=10;
(3)依次将所述邻域像素点记为新的种子像素点,按照步骤(2)相同的方法进行处理,则通过所述的边缘点即锁定了人头目标,将人头目标的最小外接矩形作为检测框。
进一步地,所述的获取人头目标的三维轨迹,包括:
对于第N帧图像对应的俯视投影图中的一个未匹配过的检测框i,在第N+1帧图像对应的俯视投影图中进行遍历,计算出与N+1帧图像对应的俯视投影图中未匹配检测框的距离;
从第N+1帧图像对应的俯视投影图中所有检测框中选择与第N帧图像对应的俯视投影图中的第i个检测框距离最小的检测框k;
对于已查找到最小距离的情况,将最小距离与设定的阈值T0判断,如最小距离小于阈值T0,则认为第N+1帧图像对应的俯视投影图中检测框k与第N帧图像对应的俯视投影图中的第i个检测框匹配,从而得到检测框中人头目标的三维轨迹。
进一步地,所述的提取三维轨迹的特征,训练SVM分类器,实现轨迹的分类,包括:
从公交上、下车图像中提取多条三维轨迹作为训练样本,并划分正样本、负样本,分别选取六组轨迹特征:轨迹点数、轨迹长度、Y方向上轨迹的跨度、Z方向上轨迹的跨度、轨迹中检测框的人头概率平均值和轨迹的斜率;
计算正、负样本特征的概率分布图,选取最佳特征组合,训练SVM分类器以获取最优参数,从而实现SVM分类器对三维轨迹的分类。
本发明具有以下技术特点:
本发明提供的分类方法,在深度相机采集的深度图像的基础上,通过相机标定将深度图像转换为世界坐标系下的俯视投影图,从而得到运动目标的三维轨迹,然后提取真实目标和伪目标的轨迹特征信息,采用SVM分类器进行分类识别。该方法能够对疑似目标的三维轨迹进行分类,实现对上、下车乘客的计数,并且识别精度高。
附图说明
图1为公交上、下车视频图像,其中左侧为彩色图像,右侧为深度图像;
图2为深度图像中背景图像和前景图像;其中左侧为原图,右侧为二值图;
图3为世界坐标系示意图;
图4为世界坐标系下空间点的几何关系图;
图5为俯视投影图的转换过程,其中左侧为原图,中部为前景图像对应的深度图像,右侧为俯视投影图;
图6的左侧为图像分块后的示意图,右侧为投影图块化的示意图。
图7为人头目标锁定效果图,其中左侧为原图,右侧为投影图。
图8为目标三维轨迹跟踪效果图,其中左侧为原图,右侧为投影图。
图9分别为上、下车三维轨迹正样本;
图10分别为上、下车三维轨迹负样本;
图11的(a)至(d)分别为特征F1、特征F3、特征F4和特征F5的三维轨迹正负样本特征概率分布图;
图12为本发明实施例轨迹的分类的测试结果;
图13为本发明方法的流程示意图。
具体实施方式
本发明提供了一种基于SVM的公交乘客三维轨迹分类方法,通过深度相机标定将深度图像转化为世界坐标系下的俯视投影图,获取目标的三维轨迹,然后提取轨迹特征训练SVM分类器,实现目标轨迹的分类。本发明的具体步骤如下:
步骤1,利用深度相机获取公交车的上、下车图像
本实施例中,采用的RGB-D相机分别安装在公交车内的前门、后门上方,分别用于获取公交车的上车图像和下车图像,相机的安装高度为Hc。深度相机获取的图像包括RGB彩色图像和Depth深度图像,彩色图像中的像素坐标和深度图像中的像素坐标是一一匹配的,如图1所示。
步骤2,针对上、下车图像,提取图像的前景图像
在该步骤中,如图2所示,首先利用深度相机拍摄公交车前门、后门在无乘客时的图像,从该图像中提取出彩色图像作为背景图像,然后针对于深度相机采集的公交车的上、下车图像A1(包含乘客时)对应的彩色图像,通过以下公式提取前景图像:
上式中,Di为提取的前景图像的二值化数据,Ii为当前帧的图像的彩色图像,B为背景图像,T为判别阈值;即将当前帧图像的彩色图像中每个像素与背景图像的对应位置像素的差值求绝对值,如绝对值大于设定的判别阈值,则在前景图像上将该像素的值置为0,否则置为1;所述的阈值T>1,可通过调整阈值T获取不同的前景图像提取效果。
本方案中,对于上车图像、下车图像的处理过程相同,下面的过程是针对于上车图像或下车图像进行处理。
步骤3,分别建立相机坐标系和世界坐标系,通过相机标定,获得所述前景图像中像素坐标与世界坐标的转换关系,
以相机光心作为相机坐标系原点Oc,光轴为Z轴,X轴平行于公交台阶所在平面建立相机坐标系Oc。以相机与公交台阶坐在平面的垂足作为世界坐标系的原点Ow,世界坐标系的X轴平行于相机坐标系X轴,Z轴与台阶所在平面垂直,建立世界坐标系Ow,如图3所示。对相机进行标定,可求解相机参数矩阵C,通过相机参数矩阵C、前景图像中的像素坐标,以及该像素坐标对应的深度值(由于深度相机采集的图像中,彩色图像和深度图像的坐标是对应的,因此彩色图像中某像素坐标对应的深度值,即该像素在深度图像中对应像素的深度值),即可得到前景图像中像素坐标(即在图像中的二维坐标)与世界坐标的转换关系,由此可将前景图像的像素坐标转换到世界坐标系中。
步骤4,将所述的前景图像转换为世界坐标系下的俯视投影图
针对于深度图像采集的公交车上、下车图像A1,在A1的深度图像中,深度值代表的是世界坐标系中的点P(xp,yp,zp)到相机的距离len根据世界坐标系下物体的几何关系可得如下公式:
len=m·r
Zp=Hc-len·sinθ
上面的式子中,Hc为相机的安装高度,点G(xG,yG,0)是相机光心、世界坐标系中的点P(xp,yp,zp)的连线与XOY平面的交点;所述的XOY平面即世界坐标系的X轴、Y轴及原点O确定的平面;m为点P的深度值;r为单位深度值对应的该点到相机的距离;Zp是点P在世界坐标系下的高度值。
如图4所示,即先将前景图像中的像素坐标转换到世界坐标系中,例如上面的示例中,前景图像中的某一个像素坐标对应于世界坐标系中的点P,根据点P的坐标可计算出点G的坐标,由此计算出sin(θ);根据所述像素坐标的深度值,可计算出len,从而通过上面的公式计算出了前景图像中像素坐标对应的高度值。
根据上面的公式,可计算出前景图像中每一个像素坐标在世界坐标系下的高度值,将不同的高度值对应不同的灰度值,从而得到前景图像对应的俯视投影图,如图5所示。
步骤5,针对所述的俯视投影图,首先对俯视投影图进行块化,根据单个人体头部区域具有最大高度的特点,然后确定局部高度值最大的区域,最后对该区域进行扩展以锁定人头目标。
步骤5.1,块化处理
将整个俯视投影图分为N*M个方块(N行M列),并设定每个方块的宽度W,然后计算每个方块的平均高度,本实施例中,图像大小为320*240,所以将方块的宽度设置为W=5。计算平均高度的公式如下:
上式中,M(i,j)为第i行第j列(也即第c行第r列)中所有像素坐标对应的高度值之和,W为方块的宽度,BlockD[c][r]为第c行第r列方块的平均高度值,如图6所示。
步骤5.2,确定局部高度值最大的区域
计算出每个方块的平均高度值之后进行搜索,寻找局部高度值最大区域:
遍历每个方块并分别比较当前方块与其周围8邻域方块的大小关系,遍历前将当前小块标记值设为为0;如果比邻域方块的深度值大,则该方块的标记值就加1,否则记为0;如果方块的标记值等于8,则确定该方块为一个局部高度值最大的区域。
步骤5.3,锁定人头目标
获得局部高度值最大的区域后,采用以下方法对该区域进行扩展以锁定人头目标:
(1)将局部高度值最大区域的方块标记为种子像素点;
(2)分别计算种子像素点与其邻域像素点深度值之间的差值,将差值与阈值T′进行比较,若小于T′,则将该邻域像素点标记为边缘点,否则不进行标记;本实施例中,所述的T′=10;
(3)依次将所述邻域像素点记为新的种子像素点,按照步骤(2)相同的方法进行处理,则通过所述的边缘点即锁定了人头目标,将人头目标的最小外接矩形作为检测框,如图7所示。
步骤6,获取人头目标的三维轨迹
步骤6.1,通过前面的步骤可获得第N帧、第N+1帧图像对应的俯视投影图中的检测框。
对于第N帧图像对应的俯视投影图中的一个未匹配过的检测框i,在第N+1帧图像对应的俯视投影图中进行遍历,计算出与N+1帧图像对应的俯视投影图中未匹配检测框的距离,计算公式为:
上式中,(xi,yi,zi)为第N帧图像对应的俯视投影图中的第i个检测框的中心点在世界坐标系中的坐标,(xj,yj,zj)为N+1帧图像对应的俯视投影图中的第j个检测框的中心点在世界坐标系中的坐标。
步骤6.2,从第N+1帧图像对应的俯视投影图中所有检测框中选择与第N帧图像对应的俯视投影图中的第i个检测框距离最小的检测框k;若没有找到距离最小的检测框,或者没有任何目标可被用来计算距离,则记录所述的第i个检测框未成功匹配。
步骤6.3,对于已查找到最小距离的情况,将最小距离与设定的阈值T0判断。原因是此时得到的最小距离可能依然过大,不符合匹配要求。若距离过大,则认为这两帧中的检测框内的目标并不是同一物体。如经过阈值判断,所计算的最小距离小于阈值T0,则认为第N+1帧图像对应的俯视投影图中检测框k与第N帧图像对应的俯视投影图中的第i个检测框匹配,两个检测框中的目标为同一物体;判别依据如下:
其中,数字1代表匹配成功,0代表匹配失败,d代表检测框中心点之间的最小距离。两帧图像中相互匹配的两个目标框之间的连线即为该目标框对应的人头目标的三维轨迹,如图8所示。
如果第N帧中出现未成功匹配的检测框,则分为两种情况:一种情况是新出现的目标,没有经过匹配,此时将其标记为新目标;二为之前已经被匹配过,有跟踪记录的,如果此时已经多于设定的阈值帧(设置为5帧)没有成功匹配任何目标框,则删除该条轨迹。
步骤7,提取三维轨迹的特征,训练SVM分类器,实现轨迹的分类
本实施例中,按照上述方法,在实际的公交车的上下车图像中,通过手动标记的方法,提取了928条三维轨迹作为训练样本。其中,正样本712条,负样本216条,如图9、图10所示。
通过对大量的三维轨迹正负样本特点进行分析研究,提取了以下6个特征:
(1)轨迹点数,即一条轨迹上锁定目标框的个数,记为特征变量F1;
(2)轨迹长度,即一条轨迹上锁定框中心点距离之和,记为特征变量F2;
(3)Y方向上轨迹的跨度,即在Y方向上的分量,记为特征变量F3;
(4)Z方向上轨迹的跨度,即在Z方向上的分量,记为特征变量F4;
(5)轨迹(一条轨迹是由许多检测框组成)中检测框的人头概率平均值,记为特征变量F5;
(6)轨迹的斜率,记为特征变量F6;
特征的概率分布图如图11的(a)至(d)所示。所述的Y方向、Z方向是指世界坐标系的Y方向和Z方向。计算正、负样本特征的概率分布图,选取最优特征组合,训练SVM分类器,设置RBF核,经过10折叠法交叉验证后得到最优参数(γ,C)=(0.01,1),实现SVM分类器对三维轨迹的分类;其中C为惩罚系数,r为核函数;最后经过测试得到图12的结果。

Claims (9)

1.一种基于SVM的公交乘客三维轨迹分类方法,其特征在于,包括以下步骤:
利用深度相机获取公交车的上、下车图像,并提取所述图像的前景图像;分别建立相机坐标系和世界坐标系,通过相机标定,获得所述前景图像中像素坐标与世界坐标的转换关系,然后将所述的前景图像转换为世界坐标系下的俯视投影图;
针对所述的俯视投影图,首先对俯视投影图进行块化,然后确定局部高度值最大的区域,最后对该区域进行扩展以锁定人头目标,获取人头目标的三维轨迹,然后提取三维轨迹的特征,训练SVM分类器,实现轨迹的分类。
2.如权利要求1所述的基于SVM的公交乘客三维轨迹分类方法,其特征在于,所述的提取所述图像的前景图像,包括:
首先利用深度相机拍摄公交车前门、后门在无乘客时的图像,从该图像中提取出彩色图像作为背景图像,然后针对于深度相机采集的公交车的上、下车图像对应的彩色图像,通过以下公式提取前景图像:
上式中,Di为提取的前景图像的二值化数据,Ii为当前帧的图像的彩色图像,B为背景图像,T为判别阈值。
3.如权利要求1所述的基于SVM的公交乘客三维轨迹分类方法,其特征在于,分别建立相机坐标系和世界坐标系,通过相机标定,获得所述前景图像中像素坐标与世界坐标的转换关系,包括:
以相机光心作为相机坐标系原点Oc,光轴为Z轴,X轴平行于公交台阶所在平面建立相机坐标系Oc;以相机与公交台阶坐在平面的垂足作为世界坐标系的原点Ow,世界坐标系的X轴平行于相机坐标系X轴,Z轴与台阶所在平面垂直,建立世界坐标系Ow;对相机进行标定,可求解相机参数矩阵C,通过相机参数矩阵C、前景图像中的像素坐标,以及该像素坐标对应的深度值,即可得到前景图像中像素坐标与世界坐标的转换关系。
4.如权利要求1所述的基于SVM的公交乘客三维轨迹分类方法,其特征在于,将所述的前景图像转换为世界坐标系下的俯视投影图,包括:
针对于深度图像采集的公交车上、下车图像,在图像的深度图像中,深度值代表的是世界坐标系中的点P(xp,yp,zp)到相机的距离len,根据世界坐标系下物体的几何关系可得如下公式:
len=m·r
Zp=Hc-len·sinθ
上面的式子中,Hc为相机的安装高度,点G(xG,yG,0)是相机光心、世界坐标系中的点P(xp,yp,zp)的连线与XOY平面的交点;m为点P的深度值;r为单位深度值对应的该点到相机的距离;Zp是点P在世界坐标系下的高度值;
根据上述的公式将前景图像转换为世界坐标系下的俯视投影图。
5.如权利要求1所述的基于SVM的公交乘客三维轨迹分类方法,其特征在于,所述的对俯视投影图进行块化,包括:
将整个俯视投影图分为N*M个方块,并设定每个方块的宽度W,然后计算每个方块的平均高度,计算平均高度的公式如下:
上式中,M(i,j)为第i行第j列中所有像素坐标对应的高度值之和,W为方块的宽度,BlockD[c][r]为第c行第r列方块的平均高度值。
6.如权利要求1所述的基于SVM的公交乘客三维轨迹分类方法,其特征在于,所述的确定局部高度值最大的区域,包括:
计算出每个方块的平均高度值之后进行搜索,寻找局部高度值最大区域:
遍历每个方块并分别比较当前方块与其周围8邻域方块的大小关系,遍历前将当前小块标记值设为为0;如果比邻域方块的深度值大,则该方块的标记值就加1,否则记为0;如果方块的标记值等于8,则确定该方块为一个局部高度值最大的区域。
7.如权利要求1所述的基于SVM的公交乘客三维轨迹分类方法,其特征在于,所述的锁定人头目标的方法包括:
(1)将局部高度值最大区域的方块标记为种子像素点;
(2)分别计算种子像素点与其邻域像素点深度值之间的差值,将差值与阈值T′进行比较,若小于T′,则将该邻域像素点标记为边缘点,否则不进行标记;
(3)依次将所述邻域像素点记为新的种子像素点,按照步骤(2)相同的方法进行处理,则通过所述的边缘点即锁定了人头目标,将人头目标的最小外接矩形作为检测框。
8.如权利要求1所述的基于SVM的公交乘客三维轨迹分类方法,其特征在于,所述的获取人头目标的三维轨迹,包括:
对于第N帧图像对应的俯视投影图中的一个未匹配过的检测框i,在第N+1帧图像对应的俯视投影图中进行遍历,计算出与N+1帧图像对应的俯视投影图中未匹配检测框的距离;
从第N+1帧图像对应的俯视投影图中所有检测框中选择与第N帧图像对应的俯视投影图中的第i个检测框距离最小的检测框k;
对于已查找到最小距离的情况,将最小距离与设定的阈值T0判断,如最小距离小于阈值T0,则认为第N+1帧图像对应的俯视投影图中检测框k与第N帧图像对应的俯视投影图中的第i个检测框匹配,从而得到检测框中人头目标的三维轨迹。
9.如权利要求1所述的基于SVM的公交乘客三维轨迹分类方法,其特征在于,所述的提取三维轨迹的特征,训练SVM分类器,实现轨迹的分类,包括:
从公交上、下车图像中提取多条三维轨迹作为训练样本,并划分正样本、负样本,分别选取六组轨迹特征:轨迹点数、轨迹长度、Y方向上轨迹的跨度、Z方向上轨迹的跨度、轨迹中检测框的人头概率平均值和轨迹的斜率;
计算正、负样本特征的概率分布图,选取最佳特征组合,训练SVM分类器以获取最优参数,从而实现SVM分类器对三维轨迹的分类。
CN201810891823.6A 2018-08-07 2018-08-07 一种基于svm的公交乘客三维轨迹分类方法 Active CN109325963B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810891823.6A CN109325963B (zh) 2018-08-07 2018-08-07 一种基于svm的公交乘客三维轨迹分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810891823.6A CN109325963B (zh) 2018-08-07 2018-08-07 一种基于svm的公交乘客三维轨迹分类方法

Publications (2)

Publication Number Publication Date
CN109325963A true CN109325963A (zh) 2019-02-12
CN109325963B CN109325963B (zh) 2021-05-18

Family

ID=65264010

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810891823.6A Active CN109325963B (zh) 2018-08-07 2018-08-07 一种基于svm的公交乘客三维轨迹分类方法

Country Status (1)

Country Link
CN (1) CN109325963B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008557A (zh) * 2019-10-30 2020-04-14 长安大学 一种基于几何约束的车辆细粒度识别方法
CN112767442A (zh) * 2021-01-18 2021-05-07 中山大学 一种基于顶视角的行人三维检测跟踪方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6768509B1 (en) * 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
CN102663767A (zh) * 2012-05-08 2012-09-12 北京信息科技大学 视觉测量系统的相机参数标定优化方法
US20150178584A1 (en) * 2008-10-14 2015-06-25 Joshua Victor Aller Shape detection and ellipse fitting of a polygon
US9165190B2 (en) * 2012-09-12 2015-10-20 Avigilon Fortress Corporation 3D human pose and shape modeling
CN106228560A (zh) * 2016-07-28 2016-12-14 长安大学 一种复杂场景下的人数统计方法
CN106570883A (zh) * 2016-10-25 2017-04-19 长安大学 一种基于rgb‑d相机的人数统计方法
CN106600643A (zh) * 2016-10-25 2017-04-26 长安大学 一种基于轨迹分析的人数统计方法
CN107563347A (zh) * 2017-09-20 2018-01-09 南京行者易智能交通科技有限公司 一种基于tof相机的客流计数方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6768509B1 (en) * 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
US20150178584A1 (en) * 2008-10-14 2015-06-25 Joshua Victor Aller Shape detection and ellipse fitting of a polygon
CN102663767A (zh) * 2012-05-08 2012-09-12 北京信息科技大学 视觉测量系统的相机参数标定优化方法
US9165190B2 (en) * 2012-09-12 2015-10-20 Avigilon Fortress Corporation 3D human pose and shape modeling
CN106228560A (zh) * 2016-07-28 2016-12-14 长安大学 一种复杂场景下的人数统计方法
CN106570883A (zh) * 2016-10-25 2017-04-19 长安大学 一种基于rgb‑d相机的人数统计方法
CN106600643A (zh) * 2016-10-25 2017-04-26 长安大学 一种基于轨迹分析的人数统计方法
CN107563347A (zh) * 2017-09-20 2018-01-09 南京行者易智能交通科技有限公司 一种基于tof相机的客流计数方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YUEJIN WANG 等: "The pedestrian detecting and counting system based on automatic method of CCD calibration", 《 2017 9TH INTERNATIONAL CONFERENCE ON ADVANCED INFOCOMM TECHNOLOGY》 *
张文涛等: "基于SVM的公交人数统计方法研究", 《中国科技论文》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008557A (zh) * 2019-10-30 2020-04-14 长安大学 一种基于几何约束的车辆细粒度识别方法
CN112767442A (zh) * 2021-01-18 2021-05-07 中山大学 一种基于顶视角的行人三维检测跟踪方法及系统
CN112767442B (zh) * 2021-01-18 2023-07-21 中山大学 一种基于顶视角的行人三维检测跟踪方法及系统

Also Published As

Publication number Publication date
CN109325963B (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
Wang et al. Automatic laser profile recognition and fast tracking for structured light measurement using deep learning and template matching
Li et al. Traffic light recognition for complex scene with fusion detections
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN108596129A (zh) 一种基于智能视频分析技术的车辆越线检测方法
CN108981672A (zh) 基于单目机器人与测距传感器结合的舱门实时定位方法
CN104978567B (zh) 基于场景分类的车辆检测方法
CN105718870A (zh) 自动驾驶中基于前向摄像头的道路标线提取方法
CN109919974A (zh) 基于r-fcn框架多候选关联的在线多目标跟踪方法
CN104615986B (zh) 利用多检测器对场景变化的视频图像进行行人检测的方法
CN107292870A (zh) 基于图像对齐与检测网络模型的轨道塞钉故障检测方法与系统
CN106682586A (zh) 一种复杂光照条件下基于视觉的实时车道线检测的方法
CN102915433B (zh) 基于字符组合的车牌定位和识别方法
CN109341580A (zh) 钢轨廓形的追踪方法、系统及装置
CN108197604A (zh) 基于嵌入式设备的快速人脸定位跟踪方法
CN107491720A (zh) 一种基于改进型卷积神经网络的车型识别方法
CN108009494A (zh) 一种基于无人机的道路交叉口车辆跟踪方法
CN111340855A (zh) 一种基于轨迹预测的道路移动目标检测方法
CN104123529A (zh) 人手检测方法及系统
CN107025657A (zh) 一种基于视频图像的车辆行为轨迹检测方法
Ma et al. An all-weather lane detection system based on simulation interaction platform
Al-Ariny et al. An efficient vehicle counting method using mask r-cnn
CN109325963A (zh) 一种基于svm的公交乘客三维轨迹分类方法
Chang et al. Real-time vehicle tracking mechanism with license plate recognition from road images
CN113077494A (zh) 一种基于车辆轨迹的路面障碍物智能识别设备
CN116012579A (zh) 一种基于列车车辆智能巡检机器人拍摄图像检测零部件异常状态的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant