CN110555419A - 基于双目立体视觉的客流计数方法 - Google Patents

基于双目立体视觉的客流计数方法 Download PDF

Info

Publication number
CN110555419A
CN110555419A CN201910846037.9A CN201910846037A CN110555419A CN 110555419 A CN110555419 A CN 110555419A CN 201910846037 A CN201910846037 A CN 201910846037A CN 110555419 A CN110555419 A CN 110555419A
Authority
CN
China
Prior art keywords
head
count
region
value
passenger flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910846037.9A
Other languages
English (en)
Other versions
CN110555419B (zh
Inventor
吕楠
张丽秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Abd Smart Eye Electronics Co Ltd
Original Assignee
Abd Smart Eye Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Abd Smart Eye Electronics Co Ltd filed Critical Abd Smart Eye Electronics Co Ltd
Priority to CN201910846037.9A priority Critical patent/CN110555419B/zh
Publication of CN110555419A publication Critical patent/CN110555419A/zh
Application granted granted Critical
Publication of CN110555419B publication Critical patent/CN110555419B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明提供一种基于双目立体视觉的客流计数方法,包括如下步骤:S1:通过双目设备获取深度图像信息;S2:深度图像平滑压缩;S3:设置人头区域大小;S4:计算区域平均深度数据;S5:搜索头部区域;S6:人头区域跟踪;和S7:计算头部区域移动距离并进行方向计数。本发明的方法利用双目设备输出的深度信息,结合人头区域深度信息特征的图像算法,能够准确地计算出人员的流动量。

Description

基于双目立体视觉的客流计数方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于深度信息的图像处理方法。
背景技术
客流统计可以帮助管理者掌握近期的客流量变化的规律,制定有效的决策及方案,有助于对人员流动进行分析和科学的决策。
目前客流技术方法多依赖于单目视频,通过传统的图像处理方法来达到客流统计的目的,包括背景建模、移动侦测和特征提取等方法。但基于单目的客流计数方法受环境干扰较大,如光线和影子,对于某些人流环境也很难达到理想的技术效果,如出现人流密集、人员带帽子、背包、拉箱子和推车等情况时,会经常产生误记和漏记。基于单目的客流计数方法的准确率不高,容易使后期管理者分析客流变化时产生偏差。
背景技术部分的内容仅仅是发明人所知晓的技术,并不当然代表本领域的现有技术。
发明内容
针对现有技术存在问题中的一个或多个,本发明提供一种基于双目立体视觉的客流计数方法,通过结合双目设备输出的深度信息,对客流进行计数,准确率高,环境的适应性好。
本发明提供的基于双目立体视觉的客流计数方法,包括如下步骤:
S1:通过双目设备获取深度图像信息;
S2:深度图像平滑压缩;
S3:设置人头区域大小;
S4:计算区域平均深度数据;
S5:搜索头部区域;
S6:人头区域跟踪;和
S7:计算头部区域移动距离并进行方向计数。
根据本发明的一个方面,步骤S1中,所述深度图像信息的图像的分辨率为640*400,深度信息值范围为0到255。深度信息值指的是每个像素点的深度大小,范围是0到255,深度图输出格式为8位数据。
根据本发明的一个方面,步骤S2中,所述深度图像平滑压缩的方法包括:计算相邻的组成正方形形状的四个像素点深度数据的平均值,计算公式为:
其中,Is(X,Y)为平滑压缩后深度信息值,Io(x,y)为平滑压缩前原始的深度信息值。
优选地,深度图像平滑压缩至分辨率为320*200。
平滑压缩可以减少后期的运算量,同时可以消除原始深度信息的噪点,避免噪点给图像带来干扰。
根据本发明的一个方面,步骤S3中,所述设置人头区域大小的方法包括:根据双目设备安装的高度,设定此高度下人员头部区域的大小。
优选地,步骤S3中,人头区域为正方形。安装双目设备后,将标准人员放置在双目设备下,双目设备探测的有效距离为0.5米到3米,高度越低,人员的头部区域就会越大,相反,高度越高,人员的头部区域就会越小。为了保证检测人员头部信息的完整,双目设备架设高度范围为2.5米到4米较为合适。将人员头部区域设置为正方形方便计算。
根据本发明的一个方面,步骤S4中,所述计算区域平均深度数据的方法包括:以步骤S3中设定好的人员头部区域大小为标准,对步骤S2中平滑压缩后的图像进行遍历,每次遍历计算区域内的深度信息平均值,以得到区域平均深度数据,计算深度信息平均值的公式如下:
其中,D(x,y)为平均深度数据数值,Is(xi,yi)为平滑压缩后深度数据数值,n为人员头部区域内像素点数量的总和。
根据本发明的一个方面,步骤S5中,所述搜索头部区域的方法包括:根据步骤S4中计算出来的平均深度数据,以某一像素点为中心,以步骤S3中设定好的人头区域正方形的边长的一半作为搜索范围的搜索半径,判断此像素点对应的平均深度数值是否大于搜索范围内其他像素点所对应的平均深度数据数值,如果大于就进行累加,当累加值大于搜索范围内其他像素点总和的90%时,即认为是头部区域,筛选条件的公式如下:
if Dc(xi,yi)>Ds(xj,yj) j=1,2,…n then N=N+1
if N>90%×n then Headture=1
其中,Dc(xi,yi)为中心点平均深度数据数值,Ds(xj,yj)为搜索范围内其他像素点平均深度数据数值,n为搜索范围内其他像素点总和,N为累加值。将累加值大于搜索范围内其他像素点总和的百分比设置为90%,可以达到最佳的效果,能够避免人多密集时带来的误检。
通过步骤S4中的遍历,将以每个像素点为中心,以步骤S3中设定好的人头区域大小计算该像素点所对应的区域平均深度数据数值,再在步骤S5中对对应的像素点的平均深度数据数值进行比较。
根据本发明的一个方面,步骤S6中,所述人头区域跟踪的方法包括:比较前后相邻两帧图像的头部区域的距离,找出上一帧某头部区域和当前帧某头部区域的最近距离,当所述最近距离在一定范围内时,则认为是同一头部区域。
优选地,相邻两帧的两个头部区域距离的计算公式如下:
其中,HeadDis为相邻帧间两个头部区域距离,Hk-1(xi)和Hk(xj)分别为上一帧某头部区域中心点的横坐标和当前帧某头部区域中心点的横坐标,Hk-1(yi)和Hk(yj)分别为上一帧某头部区域中心点的纵坐标和当前帧某头部区域中心点的纵坐标。
优选地,所述最近距离小于头部正方形区域边长的一半时,认为是同一头部区域。
根据本发明的一个方面,步骤S7中,所述计算头部区域移动距离并进行方向计数的方法包括:对同一头部区域进行跟踪,是以第一次探测到的头部区域为起点,以最后一次探测到的头部区域为终点;通过头部区域内的中心点坐标,计算出第一次和最后一次探测到的头部区域分别向不同方向移动的总距离,对每个方向的移动总距离设置阈值,当头部区域的其中一个方向的移动总距离大于此方向的阈值时,对这个方向的人数进行累加,对同一个头部区域的跟踪结束。
优选地,计算出头部区域在图像画面中向上、向下、向左和向右的四个方向的移动总距离。
进一步优选地,累加人数的公式如下:
if Hn(x)-H1(x)>Rthreshold then Rcount=Rcount+1
if Hn(x)-H1(x)<Lthreshold then Lcount=Lcount+1
if Hn(y)-H1(y)>Dthreshold then Dcount=Dcount+1
if Hn(y)-H1(y)<Uthreshold then Ucount=Ucount+1
其中,H1(x)和Hn(x)分别为第一次和最后一次的头部区域中心点的横坐标,H1(y)和Hn(y)分别为第一次和最后一次的头部区域中心点的纵坐标,Rthreshold和Rcount分别为向右方向移动阈值和累加计数,Lthreshold和Lcount分别为向左方向移动阈值和累加计数,Dthreshold和Dcount分别为向下方向移动阈值和累加计数,Uthreshold和Ucount分别为向上方向移动阈值和累加计数。
本发明的有益效果是:
本发明的方法利用了双目设备输出的深度信息,结合人头区域深度信息特征的图像算法,进行准确的方向计数。通过本发明的方法,人员计数的准确性和抗干扰性都得到了提升,经测试准确性可达到98%以上,可以有效排除由于阳光产生的影子的干扰,同时可以排除人员背包、戴帽和拉箱子等干扰。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明的计数方法的流程图;
图2是本发明的双目摄像头深度信息采集的示意图,其中,1—双目摄像头,2—双目摄像头距离地面高度,3—双目摄像头覆盖区域面积,4—双目摄像头覆盖区域水平方向长度,5—双目摄像头覆盖区域垂直方向长度;
图3是深度图像平滑压缩示意图,其中,6—640*400原始深度图像分辨率大小,7—320*200平滑压缩后图像分辨率大小,8—相邻四个像素点,9—平滑压缩后一个像素点;
图4是计算区域平均深度数据示意图,其中,10—平滑压缩后深度信息,11—头部区域深度信息平均值,12—计算后头部区域深度信息平均值;
图5是人头区域跟踪示意图,其中,13—上一帧头部区域,14—当前帧头部区域,15—跟踪搜索范围,16—相邻帧间头部距离,17—双目摄像头覆盖区域;
图6是方向计数示意图,其中,18—双目摄像头覆盖区域,19—头部区域起始位置,20—头部区域向右终止位置,21—头部区域向右距离,22—头部区域向上终止位置,23—头部区域向上距离,24—头部区域向左终止位置,25—头部区域向左距离,26—头部区域向下终止位置,27—头部区域向下距离。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
在本发明的描述中,需要理解的是,术语"中心"、"纵向"、"横向"、"长度"、"宽度"、"厚度"、"上"、"下"、"前"、"后"、"左"、"右"、"坚直"、"水平"、"顶"、"底"、"内"、"外"、"顺时针"、"逆时针"等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本实施例示出了基于双目立体视觉的客流计数方法,如图1所示,包括如下步骤:
S1:通过双目设备获取深度图像信息:如图2所示,采用纯双目摄像头的双目设备1,两个摄像头之间的距离为6厘米,摄像头焦距为2.0毫米,有效探测距离为0.5-3米,视场角水平方向为100度,垂直方向为75度,帧率每秒为25帧。设置双目设备1距离地面的高度2为2.3米,获取深度图像分辨率为640*400,深度信息数值范围为0到255的图像。
S2:深度图像平滑压缩:如图3所示,以S1的图像的每的组成正方形形状的相邻四个像素点8为一组,每一组像素点的深度数据数值求平均值得到压缩后的图像的一个像素点9的深度数据,再将压缩后的图像的所有像素点组成平滑压缩后的图像,压缩后的图像的分辨率为320*200,四个像素点8的深度数据求平均值的公式为:
其中,Is(X,Y)为平滑压缩后深度信息值,Io(x,y)为平滑压缩前原始的深度信息值。
S3:设置人头区域大小:根据双目设备1距离地面的高度2设定人员头部区域的大小,该人员头部区域为正方形。
S4:计算区域平均深度数据:如图4所示,以S3中设定好的人员头部区域11的大小为标准,对S2中平滑压缩后的图像10进行遍历,每次遍历计算区域内的深度信息平均值,公式为:
其中,D(x,y)为平均深度数据数值,Is(xi,yi)为平滑压缩后深度数据数值,n为人员头部区域内像素点数量的总和。
S5:搜索头部区域:根据S4中计算出来的平均深度数据,以某一像素点为中心,以S3中设定好的人头区域正方形的边长的一半作为搜索范围的搜索半径,判断此像素点对应的平均深度数值是否大于搜索范围内其他像素点所对应的平均深度数据数值,如果大于就进行累加,当累加值大于搜索范围内其他像素点总和的90%时,即认为是头部区域,筛选条件的公式如下:
if Dc(xi,yi)>Ds(xj,yj) j=1,2,…n then N=N+1
if N>90%×n then Headture=1
其中,Dc(xi,yi)为中心点平均深度数据数值,Ds(xj,yj)为搜索范围内其他像素点平均深度数据数值,n为搜索范围内其他像素点总和,N为累加值。
S6:人头区域跟踪:如图5所示,比较前后相邻两帧图像的头部区域的距离,找出上一帧某头部区域13和当前帧某头部区域14的最近距离,当所述最近距离小于头部正方形区域边长的一半时,也就是头部区域14在跟踪搜索范围15内时,则认为是同一头部区域,相邻两帧的两个头部区域距离16的计算公式如下:
其中HeadDis为相邻帧间两个头部区域距离16,Hk-1(xi)和Hk(xj)分别为上一帧某头部区域中心点的横坐标和当前帧某头部区域中心点的横坐标,Hk-1(yi)和Hk(yj)分别为上一帧某头部区域中心点的纵坐标和当前帧某头部区域中心点的纵坐标。
S7:计算头部区域移动距离并进行方向计数:对同一头部区域进行跟踪,是以第一次探测到的头部区域为起点,以最后一次探测到的头部区域为终点;通过头部区域内的中心点坐标,计算出第一次和最后一次探测到的头部区域向上、向下、向左和向右的四个方向移动的总距离,对每个方向的移动总距离设置阈值,当头部区域的其中一个方向的移动总距离大于此方向的阈值时,对这个方向的人数进行累加,对同一个头部区域的跟踪结束。如图6所示,头部区域从起始位置19开始移动,当其向右距离21超过向右终止位置20和起始位置19之间的距离时,对向右方向流动的人数进行累加;头部区域从起始位置19开始移动,当其向上距离23超过向上终止位置22和起始位置19之间的距离时,对向上方向流动的人数进行累加;头部区域从起始位置19开始移动,当其向左距离25超过向左终止位置24和起始位置19之间的距离时,对向左方向流动的人数进行累加;头部区域从起始位置19开始移动,当其向下距离27超过向下终止位置26和起始位置19之间的距离时,对向下方向流动的人数进行累加。累加人数的公式如下:
if Hn(x)-H1(x)>Rthreshold then Rcount=Rcount+1
if Hn(x)-H1(x)<Lthreshold then Lcount=Lcount+1
if Hn(y)-H1(y)>Dthreshold then Dcount=Dcount+1
if Hn(y)-H1(y)<Uthreshold then Ucount=Ucount+1
其中,H1(x)和Hn(x)分别为第一次和最后一次的头部区域中心点的横坐标,H1(y)和Hn(y)分别为第一次和最后一次的头部区域中心点的纵坐标,Rthreshold和Rcount分别为向右方向移动阈值和累加计数,Lthreshold和Lcount分别为向左方向移动阈值和累加计数,Dthreshold和Dcount分别为向下方向移动阈值和累加计数,Uthreshold和Ucount分别为向上方向移动阈值和累加计数。
采用上述方法对室内人流进行测试,测试结果如下:
实施例2:
本实施例示出了基于双目立体视觉的客流计数方法,本实施例采用的方法和实施例1的基本相同,不同的地方是本实施例的双目设备距离地面高度为3米。
采用实施例2的方法对室内人流进行测试,测试结果如下:
实施例3:
本实施例示出了基于双目立体视觉的客流计数方法,本实施例采用的方法和实施例1的基本相同,不同的地方是本实施例的双目设备距离地面高度为2.9米,且测试地点为人流较多的机场。
采用实施例3的方法在机场进行测试,测试结果如下:
第一次测试采用四人来回走的方式,其中二人使用拉杆箱,二人各背一个背包;第二次测试采用四人来回走的方式,其中二人使用拉杆箱,二人各背两个包;第三次测试采用五人来回走的方式,其中二人使用拉杆箱,三人各背一个背包。
综合进准确率=软件算法统计的进入的总人数/实际进入的总人数。综合出准确率=软件算法统计的出去的总人数/实际出去的总人数。错误次数表示每一次行人通过时,多计一人或少计一人的次数。绝对进准确率=进入的错误次数/实际进入的总人数*100%。绝对出准确率=出去的错误次数/实际出去的总人数*100%。
对比例4:
本对比例示出了采用单目设备进行客流计数方法,包括如下步骤:
S1:基于单目设备对背景建模;
S2:对人头进行移动侦测;
S3:对人头进行特征提取;
S4:统计进出人数。
采用对比例4的方法在和实施例3相同的环境下进行测试,测试结果如下:
第一次测试采用四人来回走的方式,其中二人使用拉杆箱,二人各背一个背包;第二次测试采用四人来回走的方式,其中二人使用拉杆箱,二人各背两个包。
综合进准确率=软件算法统计的进入的总人数/实际进入的总人数。综合出准确率=软件算法统计的出去的总人数/实际出去的总人数。错误次数表示每一次行人通过时,多计一人或少计一人的次数。绝对进准确率=进入的错误次数/实际进入的总人数*100%。绝对出准确率=出去的错误次数/实际出去的总人数*100%。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种基于双目立体视觉的客流计数方法,其特征在于,包括如下步骤:
S1:通过双目设备获取深度图像信息;
S2:深度图像平滑压缩;
S3:设置人头区域大小;
S4:计算区域平均深度数据;
S5:搜索头部区域;
S6:人头区域跟踪;和
S7:计算头部区域移动距离并进行方向计数。
2.根据权利要求1所述的基于双目立体视觉的客流计数方法,其特征在于,步骤S1中,所述深度图像信息的图像的分辨率为640*400,深度信息值范围为0到255。
3.根据权利要求1所述的基于双目立体视觉的客流计数方法,其特征在于,步骤S2中,所述深度图像平滑压缩的方法包括:计算相邻的四个像素点深度数据的平均值,计算公式为:
其中,Is(X,Y)为平滑压缩后深度信息值,Io(x,y)为平滑压缩前原始的深度信息值;
优选地,深度图像平滑压缩至分辨率为320*200。
4.根据权利要求1所述的基于双目立体视觉的客流计数方法,其特征在于,步骤S3中,所述设置人头区域大小的方法包括:根据双目设备安装的高度,设定此高度下人员头部区域的大小。
5.根据根据权利要求1所述的基于双目立体视觉的客流计数方法,其特征在于,步骤S3中,所述人头区域为正方形。
6.根据权利要求1所述的基于双目立体视觉的客流计数方法,其特征在于,步骤S4中,所述计算区域平均深度数据的方法包括:以步骤S3中设定好的人员头部区域大小为标准,对步骤S2中平滑压缩后的图像进行遍历,每次遍历计算区域内的深度信息平均值,以得到区域平均深度数据,计算深度信息平均值的公式如下:
其中,D(X,Y)为平均深度数据数值,Is(xi,yi)为平滑压缩后深度数据数值,n为人员头部区域内像素点数量的总和。
7.根据权利要求1所述的基于双目立体视觉的客流计数方法,其特征在于,步骤S5中,所述搜索头部区域的方法包括:根据步骤S4中计算出来的平均深度数据,以某一个像素点为中心,以步骤S3中设定好的人头区域正方形的边长的一半作为搜索范围的搜索半径,判断此像素点对应的平均深度数据数值是否大于搜索范围内其他像素点所对应的平均深度数据数值,如果大于就进行累加,当累加值大于搜索范围内其他像素点总和的90%时,即认为是头部区域,筛选条件的公式如下:
if Dc(xi,yi)>Ds(xj,yj)j=1,2,…n then N=N+1
if N>90%×n then Headture=1
其中,Dc(xi,yi)为中心点平均深度数据数值,Ds(xj,yj)为搜索范围内其他像素点平均深度数据数值,n为搜索范围内其他像素点总和,N为累加值。
8.根据权利要求1所述的基于双目立体视觉的客流计数方法,其特征在于,步骤S6中,所述人头区域跟踪的方法包括:比较前后相邻两帧图像的头部区域的距离,找出上一帧某头部区域和当前帧某头部区域的最近距离,当所述最近距离在一定范围内时,则认为是同一头部区域;
优选地,相邻两帧的两个头部区域距离的计算公式如下:
其中,HeadDis为相邻帧间两个头部区域距离,Hk-1(xi)和Hk(xj)分别为上一帧某头部区域中心点的横坐标和当前帧某头部区域中心点的横坐标,Hk-1(yi)和Hk(yj)分别为上一帧某头部区域中心点的纵坐标和当前帧某头部区域中心点的纵坐标。
9.根据权利要求8所述的基于双目立体视觉的客流计数方法,其特征在于,所述最近距离小于头部正方形区域边长的一半时,认为是同一头部区域。
10.根据权利要求1所述的基于双目立体视觉的客流计数方法,其特征在于,步骤S7中,所述计算头部区域移动距离并进行方向计数的方法包括:对同一个头部区域进行跟踪是以第一次探测到的头部区域为起点,以最后一次探测到的头部区域为终点;通过头部区域内的中心点坐标,计算出第一次和最后一次探测到的头部区域分别向不同方向移动的总距离,对每个方向的移动总距离设置阈值,当头部区域的其中一个方向的移动总距离大于此方向的阈值时,对这个方向的人数进行累加,对同一个头部区域的跟踪结束。
11.根据权利要求10所述的基于双目立体视觉的客计数方法,其特征在于,计算出头部区域在图像画面中向上、向下、向左和向右的移动总距离。
12.根据权利要求11所述的基于双目立体视觉的客流计数方法,其特征在于,进一步优选地,累加人数的公式如下:
if Hn(x)-H1(x)>Rthreshold then Rcount=Rcount+1
if Hn(x)-H1(x)<Lthreshold then Lcount=Lcount+1
if Hn(y)-H1(y)>Dthreshold then Dcount=Dcount+1
if Hn(y)-H1(y)<Uthreshold then Ucount=Ucount+1
其中,H1(x)和Hn(x)分别为第一次和最后一次的头部区域中心点横坐标,H1(y)和Hn(y)分别为第一次和最后一次的头部区域中心点纵坐标,Rthreshold和Rcount分别为向右方向移动阈值和累加计数,Lthreshold和Lcount分别为向左方向移动阈值和累加计数,Dthreshold和Dcount分别为向下方向移动阈值和累加计数,Uthreshold和Ucount分别为向上方向移动阈值和累加计数。
CN201910846037.9A 2019-09-09 2019-09-09 基于双目立体视觉的客流计数方法 Active CN110555419B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910846037.9A CN110555419B (zh) 2019-09-09 2019-09-09 基于双目立体视觉的客流计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910846037.9A CN110555419B (zh) 2019-09-09 2019-09-09 基于双目立体视觉的客流计数方法

Publications (2)

Publication Number Publication Date
CN110555419A true CN110555419A (zh) 2019-12-10
CN110555419B CN110555419B (zh) 2023-05-26

Family

ID=68739377

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910846037.9A Active CN110555419B (zh) 2019-09-09 2019-09-09 基于双目立体视觉的客流计数方法

Country Status (1)

Country Link
CN (1) CN110555419B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110044502A1 (en) * 2009-04-28 2011-02-24 Hisense State Key Laboratory Of Digital Multi-Media Technology Co., Ltd. Motion detection method, apparatus and system
CN103021059A (zh) * 2012-12-12 2013-04-03 天津大学 一种基于视频监控的公交客流计数方法
CN103839038A (zh) * 2012-11-23 2014-06-04 浙江大华技术股份有限公司 一种人数统计的方法及装置
US20150185161A1 (en) * 2013-07-16 2015-07-02 Leeo, Inc. Electronic device with environmental monitoring
CN106548163A (zh) * 2016-11-25 2017-03-29 青岛大学 基于tof深度相机客流计数的方法
CN106709444A (zh) * 2016-12-19 2017-05-24 集美大学 基于双目红外摄像的公交客流计数设备及其方法
CN106709432A (zh) * 2016-12-06 2017-05-24 成都通甲优博科技有限责任公司 基于双目立体视觉的人头检测计数方法
CN108038432A (zh) * 2017-11-30 2018-05-15 中国人民解放军国防科技大学 一种基于光流计数的公交人流统计方法及系统
CN108446611A (zh) * 2018-03-06 2018-08-24 深圳市图敏智能视频股份有限公司 一种车门状态关联的双目图像公交客流计算方法
CN109285376A (zh) * 2018-08-09 2019-01-29 同济大学 一种基于深度学习的公交车客流统计分析系统
CN110084197A (zh) * 2019-04-28 2019-08-02 苏州清研微视电子科技有限公司 基于深度学习的公交车客流量统计方法和系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110044502A1 (en) * 2009-04-28 2011-02-24 Hisense State Key Laboratory Of Digital Multi-Media Technology Co., Ltd. Motion detection method, apparatus and system
CN103839038A (zh) * 2012-11-23 2014-06-04 浙江大华技术股份有限公司 一种人数统计的方法及装置
CN103021059A (zh) * 2012-12-12 2013-04-03 天津大学 一种基于视频监控的公交客流计数方法
US20150185161A1 (en) * 2013-07-16 2015-07-02 Leeo, Inc. Electronic device with environmental monitoring
CN106548163A (zh) * 2016-11-25 2017-03-29 青岛大学 基于tof深度相机客流计数的方法
CN106709432A (zh) * 2016-12-06 2017-05-24 成都通甲优博科技有限责任公司 基于双目立体视觉的人头检测计数方法
CN106709444A (zh) * 2016-12-19 2017-05-24 集美大学 基于双目红外摄像的公交客流计数设备及其方法
CN108038432A (zh) * 2017-11-30 2018-05-15 中国人民解放军国防科技大学 一种基于光流计数的公交人流统计方法及系统
CN108446611A (zh) * 2018-03-06 2018-08-24 深圳市图敏智能视频股份有限公司 一种车门状态关联的双目图像公交客流计算方法
CN109285376A (zh) * 2018-08-09 2019-01-29 同济大学 一种基于深度学习的公交车客流统计分析系统
CN110084197A (zh) * 2019-04-28 2019-08-02 苏州清研微视电子科技有限公司 基于深度学习的公交车客流量统计方法和系统

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
YAHIAOUI T 等: "Real-time passenger counting in buses using dense stereovision", 《JOURNAL OF ELECTRONIC IMAGING》 *
YUNZHOU ZHANG 等: "Research on People Counting Based on Stereo Vision", 《APPLIED MECHANICS AND MATERIALS》 *
万学军: "基于视频的室内人流量检测系统的设计与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
于海滨 等: "基于区域视差提取的视觉客流统计方法", 《传感技术学报》 *
刘惠惠: "基于壁画的对象识别技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
朱秋煜 等: "一种基于立体视觉的公交车客流计数方法", 《中国图象图形学报》 *
王颢星 等: "基于二阶平滑先验的图像保边平滑快速算法", 《高技术通讯》 *
范广超 等: "一种改进的分形图像压缩算法", 《通信技术》 *

Also Published As

Publication number Publication date
CN110555419B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
US11670086B2 (en) System and process for detecting, tracking and counting human objects of interest
JP6549797B2 (ja) 通行人の頭部識別方法及びシステム
CN108021848B (zh) 客流量统计方法及装置
CN105141885B (zh) 进行视频监控的方法及装置
CN106910203B (zh) 一种视频监测中运动目标的快速检测方法
CN105225482B (zh) 基于双目立体视觉的车辆检测系统和方法
Terada et al. A method of counting the passing people by using the stereo images
CN103077386B (zh) 一种级联的视频流虹膜图像质量检测方法
US9098769B2 (en) Method and a device for objects counting
CN104952060B (zh) 一种红外行人感兴趣区域自适应分割提取方法
US20190095720A1 (en) Device and method for detecting abnormal situation
US20160042515A1 (en) Method and device for camera calibration
CN106600643B (zh) 一种基于轨迹分析的人数统计方法
CN107741231A (zh) 一种基于机器视觉的多运动目标快速测距方法
CN102880444A (zh) 一种基于立体视觉运动场分析的打架斗殴检测方法
CN103473554A (zh) 人流统计系统及方法
CN103366155B (zh) 通畅路径检测中的时间相干性
KR101448392B1 (ko) 피플 카운팅 방법
CN106599776B (zh) 一种基于轨迹分析的人数统计方法
Russo et al. A new approach to obtain metric data from video surveillance: Preliminary evaluation of a low-cost stereo-photogrammetric system
CN110555419A (zh) 基于双目立体视觉的客流计数方法
CN106845361B (zh) 一种行人头部识别方法及系统
CN114581522A (zh) 一种支撑点搜索的单目视觉室内定位方法
KR102161343B1 (ko) 스트림 리즈닝 감시 시스템 및 그것을 이용한 미아발생 알람방법
KR102161344B1 (ko) 스트림 리즈닝 감시 시스템 및 그것을 이용한 스트림 리즈닝 감시방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant