CN110490030B - 一种基于雷达的通道人数统计方法及系统 - Google Patents
一种基于雷达的通道人数统计方法及系统 Download PDFInfo
- Publication number
- CN110490030B CN110490030B CN201810463243.7A CN201810463243A CN110490030B CN 110490030 B CN110490030 B CN 110490030B CN 201810463243 A CN201810463243 A CN 201810463243A CN 110490030 B CN110490030 B CN 110490030B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- shoulder
- head
- point
- pedestrian information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本申请提供一种基于雷达的通道人数统计方法及系统,所述方法通过第一检测雷达获取经过检测区域的第一行人信息;再根据第一行人信息中的头部特征数据识别行人头部,在识别出行人头部后,根据肩部特征数据识别的行人肩部,如果在第一行人信息中识别出行人肩部,确定第一行人信息中存在行人目标,并为行人目标设置识别标签;通过第二检测雷达获取包含带有识别标签的行人目标的第二行人信息,最后根据获取第一行人信息和第二行人信息的时间关系,确定经过检测区域的行人目标进出方向,以及根据行人目标进出方向统计通道人数。所述方法不仅保持了较高的行人目标识别精度,提高人数统计的准确率而且能够判断行人方向。
Description
技术领域
本申请涉及雷达检测技术领域,尤其涉及一种基于雷达的通道人数统计方法及系统。
背景技术
通道人数统计,常应用于公共交通、商业街道、旅游景区等系统中,能够实时统计在特定的时间段内该地区的行人流量数据,获得的数据对于区域安全和流量控制具有重要的参考意义。现有技术中,为了统计进入或离开特定区域的行人流量,通常需要在区域的入口或出口通道处设置相应的人数统计装置。
闸机是一种常见的通道人数统计装置,即在区域的入口和出口处,设置一个或多个闸机,闸机上具有分割人数的机械结构,例如把手或闸门,机械结构通常只能容纳一个行人通过,迫使行人依次形成队列通过入口或出口。可见,基于闸机的通道人数统计装置由于采用了特定的机械结构使行人顺次进入,在能够精确统计通道人数的同时,也使得通道内的行人必须一个接一个的进入区域内,很容易造成拥堵使得基于闸机的通道人数统计装置只限于固定场所使用不能用于紧急疏散出口,即基于闸机的通道人数统计装置的人数统计效率较低。
现有技术中,还可以利用基于图像探测器的通道人数统计装置来进行非接触式的人数统计。即通过热成像或视频拍摄装置,对经过通道的行人进行图像获取,再对获取后的图像进行分析识别其中的行人,并对识别出的行人进行计数,达到人数统计的目的。例如,视频识别系统中常通过设置在通道顶部的摄像头实时对通道进行视频拍摄,拍摄后的视频再通过计算机以视频图像智能分析技术为原理识别出行人,以及进行人数统计。但这种方法很容易受到环境光的影响,当环境光不足或在夜间时,识别率会明显下降,并且在行人穿戴帽子或相互距离很近时,容易无法识别出通道内的行人,并且无法判断行人的行进方向,即基于图像探测器的通道人数统计装置的人数统计准确率较低且不能判断行人行进方向。
发明内容
本申请提供了一种基于雷达的通道人数统计方法及系统,以解决传统方法统计准确率低且不能判断行人方向的问题。
一方面,本申请提供一种基于雷达的通道人数统计方法,包括:
通过第一检测雷达获取经过检测区域的第一行人信息,以及生成与所述第一行人信息对应的二维点阵图像;
在所述二维点阵图像中提取识别特征数据,所述识别特征数据包括头部特征数据和肩部特征数据;
根据所述头部特征数据识别所述第一行人信息中的行人头部,以及在识别出行人头部后,根据所述肩部特征数据识别所述第一行人信息中的行人肩部;
如果在所述第一行人信息中识别出行人肩部,确定所述第一行人信息中存在行人目标,以及为所述行人目标设置识别标签;
通过第二检测雷达获取第二行人信息,所述第二行人信息中包含带有所述识别标签的行人目标;
根据获取所述第一行人信息和所述第二行人信息的时间关系,确定经过所述检测区域的行人目标进出方向,以及根据所述行人目标进出方向统计通道人数。
可选的,在所述二维点阵图像中提取识别特征数据包括:
遍历所述二维点阵图像中的扫描点坐标,确定最高点坐标;
根据所述最高点坐标以及预设头部识别区域值,划定头部识别区域;以及,
根据所述最高点坐标以及预设肩部位置经验值划定肩部预识别区域。
可选的,确定头部特征识别区域后,按照以下步骤识别第一行人信息中的行人头部:
遍历所述头部识别区域中的所有扫描点,计算各相邻点的横向坐标差绝对值和纵向坐标差绝对值;
分别对计算得到的所有所述横向坐标差绝对值和所述纵向坐标差绝对值进行累加求和,生成头部宽度和头部高度;
根据所述头部宽度和所述头部高度生成头部识别判断值,以及获取预设的头部紧凑度和头部最小宽度;
对比所述头部识别判断值与所述头部紧凑度,以及对比所述头部宽度与所述头部最小宽度;
如果所述头部宽度大于或等于所述头部最小宽度,并且所述头部识别判断值小于或等于所述头部紧凑度,确定在所述第一行人信息中识别出行人头部。
可选的,根据以下公式计算所述头部识别判断值:
头部识别判断值tightness=(sumX+sumY)/(n-1);
式中,sumX为所述头部宽度;sumY为所述头部高度;n为所述头部识别区域中的扫描点个数。
可选的,预设肩部位置经验值等于最高点纵向坐标值的1/10;在识别出行人头部后,按照以下步骤识别第一行人信息中的行人肩部:
遍历所述肩部预识别区域中所有扫描点坐标,确定所述肩部预识别区域的最高点;
根据所述肩部预识别区域的最高点以及预设肩部识别区域值,划定肩部识别区域;
遍历所述肩部识别区域中的所有扫描点,计算各相邻点的横向坐标差绝对值和纵向坐标差绝对值;
分别对计算得到的所有所述横向坐标差绝对值和所述纵向坐标差绝对值进行累加求和,生成肩部宽度和肩部高度;
根据所述肩部宽度和所述肩部高度生成肩部识别判断值,以及获取预设的肩部紧凑度和肩部最小宽度;
对比所述肩部识别判断值与所述肩部紧凑度,以及对比所述肩部宽度与所述肩部最小宽度;
如果所述肩部宽度大于或等于所述肩部最小宽度,并且所述肩部识别判断值小于或等于所述肩部紧凑度,确定在所述第一行人信息中识别出行人肩部。
可选的,在确定所述第一行人信息中存在行人目标后,所述方法还包括:
遍历所述二维点阵图像中的扫描点坐标,确定最高点坐标;
以所述最高点为中心,分别在所述二维点阵图像的左右两个方向上查找下一个扫描点;以及以所述最高点作为宽度向波谷点;
计算查找到的扫描点与所述宽度向波谷点纵向坐标值之差,并将计算所得差值的绝对值作为横向分割判断值;
对比所述横向分割判断值与预设的横向分割阈值,如果所述横向分割判断值小于所述横向分割阈值,确定查找到的点与所述宽度向波谷点属于同一个行人目标;
更新所述宽度向波谷点为查找到的扫描点,继续在同方向上查找下一个扫描点,直到所述横向分割判断值大于或等于所述横向分割阈值,确定查找到的点与所述宽度向波谷点不属于同一个行人目标;
以最左侧和最右侧的所述宽度向波谷点为边界点,在所述二维点阵图像中临时擦除所述边界点之间的扫描点,并继续对其他扫描点进行上述判断,分割所述二维点阵图像中行人目标;为每一个所述行人目标设置识别标签。
可选的,在确定所述第一行人信息中存在行人目标后,所述方法还包括:
遍历当前二维点阵图像中的扫描点坐标,确定最高点坐标,以及将所述最高点作为厚度向波谷点;
根据所述最高点坐标以及预设查找范围划分查找区域;
获取所述当前二维点阵图像的前一帧二维点阵图像,以及在前一帧二维点阵图像的所述查找区域对应的区域中查找纵向坐标值最大的峰值点;
计算所述峰值点与所述厚度向波谷点的纵向坐标值之差,并将计算所得差值的绝对值作为进出向分割判断值;
对比所述进出向分割判断值与预设的进出向分割阈值,如果所述进出向分割判断值小于所述进出向分割阈值,确定查找到的所述峰值点与所述厚度向波谷点属于同一个行人目标;
更新所述厚度向波谷点为所述峰值点,继续向前获取前一帧二维点阵图像,直到所述进出向分割判断值大于或等于所述进出向分割阈值,确定查找到的峰值点与所述厚度向波谷点不属于同一个行人目标;并记录此时的所述厚度向波谷点所在的二维点阵图像为第一帧二维点阵图像;
对当前帧二维点阵图像与后一帧二维点阵图像进行相同的判断,确定最后一帧二维点阵图像,为第一帧二维点阵图像与最后一帧二维点阵图像中分割区域内的行人目标设置相同的识别标签,在进出向上分割所述二维点阵图像中的行人目标。
可选的,所述识别标签为所述第一行人信息中所述行人目标的中心点,记为基准中心点;通过第二检测雷达获取第二行人信息包括:
识别所述第二行人信息中的行人目标以及行人目标的中心点,记为识别中心点;
计算所述基准中心点的横向坐标值与所述识别中心点的横向坐标值之差,并将计算所得差值的绝对值作为中心点判断值;
对比所述中心点判断值与预设最大允许误差值,如果所述中心点判断值小于或等于最大允许误差值,确定所述第二行人信息中包含带有所述识别标签的行人目标。
可选的,根据获取所述第一行人信息和所述第二行人信息的时间关系,确定经过所述检测区域的行人目标进出方向,包括:
记录识别出第一行人信息中存在行人目标的第一行人信息获取时刻T1;
记录识别出第二行人信息中包含带有所述识别标签的行人目标的第二行人信息获取时刻T2;
根据所述第一行人信息获取时刻T1与所述第二行人信息获取时刻T2的先后顺序,以及所述第一检测雷达和所述第二检测雷达的安装位置确定所述行人目标进出方向;
如果所述第一行人信息获取时刻T1早于所述第二行人信息获取时刻T2,确定所述行人目标行进方向为从所述第一检测雷达到所述第二检测雷达;
如果所述第一行人信息获取时刻T1晚于所述第二行人信息获取时刻T2,确定所述行人目标行进方向为从所述第二检测雷达到所述第一检测雷达。
另一方面,本申请还提供一种基于雷达的通道人数统计系统,包括设置在通道上方的第一检测雷达和第二检测雷达,以及连接所述第一检测雷达和所述第二检测雷达的数据处理装置;所述第一检测雷达和所述第二检测雷达的扫描面相互平行且均垂直于所述通道中的行人主要移动方向,所述第一检测雷达和所述第二检测雷达的扫描面之间相互间隔预设距离;
所述数据处理装置包括处理器、存储器和计数器,并且所述数据处理装置被进一步配置为执行以下程序步骤:
通过第一检测雷达获取经过检测区域的第一行人信息,以及生成与所述第一行人信息对应的二维点阵图像;
在所述二维点阵图像中提取识别特征数据,所述识别特征数据包括头部特征数据和肩部特征数据;
根据所述头部特征数据识别所述第一行人信息中的行人头部,以及在识别出行人头部后,根据所述肩部特征数据识别所述第一行人信息中的行人肩部;
如果在所述第一行人信息中识别出行人肩部,确定所述第一行人信息中存在行人目标,以及为所述行人目标设置识别标签;
通过第二检测雷达获取第二行人信息,所述第二行人信息中包含带有所述识别标签的行人目标;
根据获取所述第一行人信息和所述第二行人信息的时间关系,确定经过所述检测区域的行人目标进出方向,以及根据所述行人目标进出方向统计通道人数。
由以上技术方案可知,本申请提供一种基于雷达的通道人数统计方法及系统,所述方法在实际使用中,通过第一检测雷达获取经过检测区域的第一行人信息并生成二维点阵图像;再根据其中的头部特征数据识别第一行人信息中的行人头部,以及在识别出行人头部后,根据肩部特征数据识别第一行人信息中的行人肩部;如果在第一行人信息中识别出行人肩部,确定第一行人信息中存在行人目标,并为行人目标设置识别标签;通过第二检测雷达获取包含带有识别标签的行人目标的第二行人信息,最后根据获取第一行人信息和第二行人信息的时间关系,确定经过检测区域的行人目标进出方向,以及根据行人目标进出方向统计通道人数。所述方法不仅保持了较高的行人目标识别精度,提高人数统计的准确率而且能够判断行人方向。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一种基于雷达的通道人数统计方法流程图;
图2为本申请实施例中二维点阵图的示意图;
图3为本申请实施例中在二维点阵图中提取识别特征数据的流程示意图;
图4为本申请实施例中提取头部特征数据的示意图;
图5为本申请实施例中提取肩部特征数据的示意图;
图6为本申请实施例中识别第一行人信息中行人头部的流程示意图;
图7为本申请实施例中识别第一行人信息中行人肩部的流程示意图;
图8为本申请实施例中识别肩部特征的示意图;
图9为一种基于雷达的通道人数统计系统结构图;
图10为本申请实施例中在宽度向分割行人目标的流程示意图;
图11为本申请实施例中在进出度向分割行人目标的流程示意图;
图12为本申请实施例中通过第二检测雷达获取第二行人信息的流程示意图;
图13为本申请实施例中确定经过所述检测区域的行人目标进出方向流程示意图。
具体实施方式
下面将详细地对实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下实施例中描述的实施方式并不代表与本申请相一致的所有实施方式。仅是与权利要求书中所详述的、本申请的一些方面相一致的系统和方法的示例。
参见图1,为一种基于雷达的通道人数统计方法流程图。由图1可知,本申请提供的一种基于雷达的通道人数统计方法,包括以下步骤:
S1:通过第一检测雷达获取经过检测区域的第一行人信息,以及生成与所述第一行人信息对应的二维点阵图像。
本申请提供的技术方案在实际应用中,先将第一检测雷达在一个扫描周期内的获取的检测数据进行叠加,并在同一横向位置取最高点的方式来获得二维轮廓点阵图,即由三维降为二维,如图2所示。在获得叠加结果后,再对二维轮廓点阵图进行平滑处理,以便后续处理中,在二维点阵图中进行行人特征的提取以及进行参数化识别。本申请中,为了获得更好的雷达检测结果,所述第一检测雷达和第二检测雷达可以采用激光雷达,利用激光雷达的高速扫描频率,实时对检测雷达下的检测区域进行场景复现,进而可以有效提高目标检测的效率。
本实施例中,检测区域是指通道中位于检测雷达安装位置下方的一部分区域,这部分区域的大小可以根据检测雷达的安装高度以及检测雷达的安装精度来确定,但检测区域要覆盖整个通道的宽度。由于在本申请提供的技术方案中,为了判断经过检测区域的行人目标移动方向,检测雷达包括两个,即第一检测雷达和第二检测雷达来检测进入和离开检测雷达下方的目标。此时,检测区域是两个检测雷达的扫描面与地面围组成的矩形区域。
需要说明的是,在本申请提供的技术方案中,所述的第一和第二仅仅是为了便于描述而对结构相同的检测雷达进行的区分,并不对检测雷达的目标检测顺序进行限定,实际使用时,检测到进入检测区域的行人目标的检测雷达可称作第一检测雷达,检测到离开检测区域的行人目标的检测雷达可称作第二检测雷达,而由于通道内的行人目标行进方向不同,实际行人目标可能会通过第二检测雷达检测到进入检测区域,而通过第一检测雷达检测到离开检测区域。因此,实际使用中两个检测雷达可以选择形状和规格完全相同的雷达设备,以便进行数据处理。
S2:在所述二维点阵图像中提取识别特征数据,所述识别特征数据包括头部特征数据和肩部特征数据。
由于在实际使用中,第一检测雷达和第二检测雷达都安装在通道的顶部,雷达能够检测出扫描点与检测雷达之间的距离,进而对检测区域的场景进行复现,因此,当检测雷达所扫描到的数据中会包含行人目标时,则必然能够扫描到行人目标的头部和肩部,并且在实际检测过程中,行人的头部和肩部也最明显与周围物品进行区分,例如,行李箱、交通工具等。
进一步地,如图3所示,在二维点阵图像中提取识别特征数据的步骤,包括:
S201:遍历所述二维点阵图像中的扫描点坐标,确定最高点坐标;
S202:根据所述最高点坐标以及预设头部识别区域值,划定头部识别区域;
S203:根据所述最高点坐标以及预设肩部位置经验值划定肩部预识别区域。
本实施例中,先从二维点阵图中,取最高点位置,记为PEAK_1(x,y),如图4所示,应该取得1号标注位置。再根据最高点PEAK_1(x,y)划定头部识别区域。显然,在本实施例中,区域的划定需两个参数来确定头部识别区域的范围,即预设头部识别区域值,其中一个参数是上下误差范围,记为headRange,另一个参数是头部最大宽度,记为headMaxWidth,这两个参数均可以根据实际人体的尺寸进行设定。实际进行识别区域的划分时,可以PEAK_1(x,y)为中心,左右各headMaxWidth/2为横向识别区域,向下headRange为纵向识别区域,所围成的矩形区域即为头部识别区域。
同时,在划定了头部识别区域后,本实施例中还要预划定肩部识别区域。一般来讲,人体在直立状态下的头部的长度占整个身高的1/8-1/7,而人在行走时会有稍微低头或探肩等情况,实际测得的从头顶到肩部的距离要比正常值小,因此,在本实施例中,可设定识别肩部区域时的纵向最高值取一个经验值,即PEAK_1.y-PEAK_1.y/10,从而确定预划定区域的位置。并且通过设置肩部位置经验值进一步划定预识别区域的范围,肩部位置经验值至少包括纵向宽度值,标记为ShoulderVerticalWidth和横向区域的宽度,标记为ShoulderHorizonWidth。例如肩部预识别区域的起始位置为shoulderStart(x,y),则shoulderStart.y即纵向坐标,应为PEAK_1.y-PEAK_1.y/10,shoulderStart.x,即起始位置横向坐标,应为PEAK_1.x,如图5所示。
需要说明的是,由于在本申请提供的技术方案中,先进行头部识别,并且只有在识别出行人头部后,才进行相应的肩部识别,因此,本实施例中可以先只进行头部识别区域的划分,而当识别出行人头部后,再进行肩部预识别区域的划分,以减少数据处理量。
S3:根据所述头部特征数据识别所述第一行人信息中的行人头部,以及在识别出行人头部后,根据所述肩部特征数据识别所述第一行人信息中的行人肩部。
进一步地,如图6所示,在划定了头部特征识别区域后,按照以下步骤识别第一行人信息中的行人头部:
S301:遍历所述头部识别区域中的所有扫描点,计算各相邻点的横向坐标差绝对值和纵向坐标差绝对值;
S302:分别对计算得到的所有所述横向坐标差绝对值和所述纵向坐标差绝对值进行累加求和,生成头部宽度和头部高度;
S303:根据所述头部宽度和所述头部高度生成头部识别判断值,以及获取预设的头部紧凑度和头部最小宽度;
S304:对比所述头部识别判断值与所述头部紧凑度,以及对比所述头部宽度与所述头部最小宽度;
S305:如果所述头部宽度大于或等于所述头部最小宽度,并且所述头部识别判断值小于或等于所述头部紧凑度,确定在所述第一行人信息中识别出行人头部。
本实施例中,依次遍历头部识别区域内的每个扫描点,将相邻点的x值的差和y值的差进行分别累加。例如,从所述二维点阵图的一侧开始,检测雷达扫描到的点分别为A1(x1,y1),A2(x2,y2),A3(x3,y3),…,An(xn,yn)。其中,n表示头部识别区域中扫描点的个数。abs(x2-x1)表示A2和A1的横向坐标差,abs(y2-y1)表示A2和A1的纵向坐标差。进而对上述横向坐标差绝对值和纵向坐标差绝对值进行累加求和,即:
sumX=abs(x2-x1)+abs(x3-x2)+…+abs(xn-x(n-1));
sumY=abs(y2-y1)+abs(y3-y2)+…+abs(yn-y(n-1))。
进一步地,根据以下公式计算所述头部识别判断值:
头部识别判断值tightness=(sumX+sumY)/(n-1);
式中,sumX为所述头部宽度;sumY为所述头部高度;n为所述头部识别区域中的扫描点个数。
在计算出头部识别判断值以后,将头部识别判断值tightness作为参数进行记录,可见头部识别判断值越小,表示头部的扫描点越紧凑,则识别为头部的可能性也越高。通过预设头部紧凑度,记为headPointTightness,作为阈值,可以对参数化判断识别结果。另外,头部宽度sumX能够反映头部的大小,因此可以进一步引入头部最小宽度,记为headMinWidth,作为另一个判断参数,进行综合判断,以更准确的识别出行人头部。本实施例中,当满足头部宽度sumX大于等于头部最小宽度headMinWidth,并且头部识别判断值tightness小于等于头部紧凑度headPointTightness时,确定识别出头部。
进一步地,如图7所示,在识别出行人头部后,按照以下步骤识别第一行人信息中的行人肩部:
S306:遍历所述肩部预识别区域中所有扫描点坐标,确定所述肩部预识别区域的最高点;
S307:根据所述肩部预识别区域的最高点以及预设肩部识别区域值,划定肩部识别区域;
S308:遍历所述肩部识别区域中的所有扫描点,计算各相邻点的横向坐标差绝对值和纵向坐标差绝对值;
S309:分别对计算得到的所有所述横向坐标差绝对值和所述纵向坐标差绝对值进行累加求和,生成肩部宽度和肩部高度;
S310:根据所述肩部宽度和所述肩部高度生成肩部识别判断值,以及获取预设的肩部紧凑度和肩部最小宽度;
S311:对比所述肩部识别判断值与所述肩部紧凑度,以及对比所述肩部宽度与所述肩部最小宽度;
S312:如果所述肩部宽度大于或等于所述肩部最小宽度,并且所述肩部识别判断值小于或等于所述肩部紧凑度,确定在所述第一行人信息中识别出行人肩部。
由于在步骤S203中只是划定一个大的预识别区域,而在进行肩部识别时,如果区域太大,容易受到手臂的影响,例如,行人在经过时做出了伸臂动作,而将手臂的甩动部分也一并加入到识别区域内,从而增加了识别的不稳定性。因此,本实施例中还需要缩小识别区域,避免手臂甩动动作的影响。即,在上述划定的预识别区域内找出最高点,记为shoulderPeak(x,y),并作为缩小后的肩部识别区域的起始点,再预设一个肩部识别区域值,记为shoulderRange,组成肩部纵向识别区域,如图8,图9所示。
在划定了肩部识别区域后,与头部识别的方式基本相同,本实施例中,依次遍历肩部识别区域内的每个扫描点,将相邻扫描点的x值的差和y值的差进行分别累加。例如,从一侧开始,点分别为A1(x1,y1),A2(x2,y2),A3(x3,y3),…,An(xn,yn)。n表示点的个数。abs(x2-x1)表示A2和A1的横向坐标差,abs(y2-y1)表示A2和A1的纵向坐标差。有如下公示:
sumX=abs(x2-x1)+abs(x3-x2)+…+abs(xn-x(n-1));
sumY=abs(y2-y1)+abs(y3-y2)+…+abs(yn-y(n-1));
肩部识别判断值:tightness′=(sumX+sumY)/(n-1);
同样,在进行肩部识别时,也可以将肩部识别判断值tightness′作为参数提取出来,肩部识别判断值tightness′越小表示扫描到的点越紧凑,为肩膀的可能性也越高。并设置肩部紧凑度,记为shoulderTightness,进行肩部识别判断。另外,sumX反映的是肩膀的宽度,也设置相应的肩部最小宽度,记为shoulderMinWidth,作为识别肩部的参数标准。当满足sumX大于等于shoulderMinWidth并且tightness′小于或等于shoulderTightness时,识别出行人肩部。
本实施例中,在识别出行人头部后再进一步识别行人肩部,而在识别出行人肩部后,才确定扫描到的目标是行人目标。而由于人体存在两个肩部位置,因此在实际使用中,应该将行人头部两侧的肩部区域都进行识别,从而获得更高的识别准确率。但在个别情况下,也可以识别出一个肩部位置即可认定识别成功,实际使用中,应根据具体的精度要求和检测雷达的分辨率等设定对应的识别判断方式。
S4:如果在所述第一行人信息中识别出行人肩部,确定所述第一行人信息中存在行人目标,以及为所述行人目标设置识别标签;
进一步地,如图10所示,在确定所述第一行人信息中存在行人目标后,所述方法还包括:
S401:遍历所述二维点阵图像中的扫描点坐标,确定最高点坐标;
S402:以所述最高点为中心,分别在所述二维点阵图像的左右两个方向上查找下一个扫描点;以及以所述最高点作为宽度向波谷点;
S403:计算查找到的扫描点与所述宽度向波谷点纵向坐标值之差,并将计算所得差值的绝对值作为横向分割判断值;
S404:对比所述横向分割判断值与预设的横向分割阈值,如果所述横向分割判断值小于所述横向分割阈值,确定查找到的点与所述宽度向波谷点属于同一个行人目标;
S405:更新所述宽度向波谷点为查找到的扫描点,继续在同方向上查找下一个扫描点,直到所述横向分割判断值大于或等于所述横向分割阈值,确定查找到的点与所述宽度向波谷点不属于同一个行人目标;
S406:以最左侧和最右侧的所述宽度向波谷点为边界点,在所述二维点阵图像中临时擦除所述边界点之间的扫描点,并继续对其他扫描点进行上述判断,分割所述二维点阵图像中行人目标;为每一个所述行人目标设置识别标签。
本实施例中,可以在检测雷达获取的检测结果中对扫描到的行人目标进行分割,即从二维点阵图中,通过对比各个扫描点的纵向坐标取最高点,例如,最高点位置1,记为PEAK_1(x,y)。将该点记为宽度向波谷点,根据从最高点向左右两个查找方向,分别表示为leftHorisonWaveThough(x,y)和rightHorisonWaveThough(x,y),即分别表示左侧的波谷点和右侧的波谷点。再从PEAK_1(x,y)分别向左右两侧分别查找各点的y值,记录该点为Ai(xi,yi),并用Ai.yi表示Ai(xi,yi)点的y值。以向右遍历为例,如果Ai.yi小于rightHorisonWaveThough.y则更新右波谷为rightHorisonWaveThough(xi`,yi`),直至出现某点的y值大于波谷的y值一定值,该值作为横向分割判断的参数,即横向分割判断值,记为abs(Ai.yi-rightHorisonWaveThough.yi`),再根据经验及人体结构,预设横向分割阈值,记为minWaveThroughDiffInHorison,当abs(Ai.yi-rightHori sonWaveThough.yi`)>minWaveThroughDiffInHorison时,找到右波谷点rightHorisonWave Though(xi`,yi`),同样,可以在左侧方向上,用同样的方法查找左波谷点。
当左右波谷点都找到后,左右波谷点之间扫描到的点应处于同一个行人目标,即一个目标横向分割完毕。相应的,如果该目标识别为人,则人的高度,宽度,所在通道的横向起始位置,横向结束位置便可以直接确定。进一步地,该目标分割完毕,将其在整个二维轮廓点阵图中临时擦除掉,继续按照上述步骤分割其他目标。最后,还可以对识别分割出的设置相应的识别标识,例如,先后分割出的目标分别标记为1,2,3,4,5。
进一步地,如图11所示,在确定所述第一行人信息中存在行人目标后,所述方法还包括:
S411:遍历当前二维点阵图像中的扫描点坐标,确定最高点坐标,以及将所述最高点作为厚度向波谷点;
S412:根据所述最高点坐标以及预设查找范围划分查找区域;
S413:获取所述当前二维点阵图像的前一帧二维点阵图像,以及在前一帧二维点阵图像的所述查找区域对应的区域中查找纵向坐标值最大的峰值点;
S414:计算所述峰值点与所述厚度向波谷点的纵向坐标值之差,并将计算所得差值的绝对值作为进出向分割判断值;
S415:对比所述进出向分割判断值与预设的进出向分割阈值,如果所述进出向分割判断值小于所述进出向分割阈值,确定查找到的所述峰值点与所述厚度向波谷点属于同一个行人目标;
S416:更新所述厚度向波谷点为所述峰值点,继续向前获取前一帧二维点阵图像,直到所述进出向分割判断值大于或等于所述进出向分割阈值,确定查找到的峰值点与所述厚度向波谷点不属于同一个行人目标;并记录此时的所述厚度向波谷点所在的二维点阵图像为第一帧二维点阵图像;
S417:对当前帧二维点阵图像与后一帧二维点阵图像进行相同的判断,确定最后一帧二维点阵图像,为第一帧二维点阵图像与最后一帧二维点阵图像中分割区域内的行人目标设置相同的识别标签,在进出向上分割所述二维点阵图像中的行人目标。
本实施例中,不仅需要对检测雷达扫描到的多个行人目标进行横向分割,而且需要对通道中经过的行人目标进行进出方向上的分割。显然,只有识别出行人目标时,才进行纵向分割。由于在实际检测过程中,在行进方向上识别多个行人,需要综合多帧检测数据进行判断。因此,本实施例中,保留每一帧雷达数据,以用来查找一个行人目标对应的第一帧和最后一帧检测数据。相应的查找过程如下:
首先在二维点阵图中识别出行人目标后,记录人的最高点为passengerPeak(x,y),同时将其记为frontWaveThough(x,y)和backWaveThough(x,y),分别表示前波谷点和后波谷点。其次在二维点阵图中,确定查找区域,包括横向区域和纵向区域,其中查找的横向区域可以为行人目标的头部中心位置左右各headMaxWidth/2,纵向区域为人的最高点的y值,记为passengerPeak.y。按照查找区域,依次向前面每帧雷达数据查找该区域内的纵向峰值点,记为Peak(xi,yi),并以Peak(xi,yi).yi表示该点的纵向峰值。当Peak(xi,yi).yi<frontWaveThough(x,y).y时,重新标记前波谷点为frontWaveTh ough(xi`,yi`),直至出现某帧查找区域内的峰值y值大于波谷的y值一定差值,记为a bs(Peak(xi,yi).yi-frontWaveThough.yi`),并预设进出向分割阈值minWaveThroughDi ffInVertical,即当abs(Peak(xi,yi).yi-frontWaveThough.yi`)>minWaveThroughDiffIn Vertical时,找到并记录该人进入雷达的第一帧。
同样的方法,向后面收到的雷达数据,查找最后一帧并记录最后一帧。当识别出一个行人目标后,将行人目标分割出来,最后可根据该行人目标在通道内的横向起始位置在二维轮廓点阵图中彻底删除,以便重新叠加新的雷达数据。
S5:通过第二检测雷达获取第二行人信息,所述第二行人信息中包含带有所述识别标签的行人目标。
进一步地,如图12所示,所述识别标签为所述第一行人信息中所述行人目标的中心点,记为基准中心点;通过第二检测雷达获取第二行人信息包括:
S501:识别所述第二行人信息中的行人目标以及行人目标的中心点,记为识别中心点;
S502:计算所述基准中心点的横向坐标值与所述识别中心点的横向坐标值之差,并将计算所得差值的绝对值作为中心点判断值;
S503:对比所述中心点判断值与预设最大允许误差值,如果所述中心点判断值小于或等于最大允许误差值,确定所述第二行人信息中包含带有所述识别标签的行人目标。
本实施例中,当两个检测雷达分别识别并分割出行人目标后,需要进行目标匹配从而判断第一检测雷达和第二检测雷达识别出的目标是否为同一个人。实际使用中,可以进行位置匹配。即,经过上述行人目标的识别方法和目标分割后,一个人的高度,宽度,横向起始和结束位置,中心位置,刚进入雷达时的第一帧数据,离开雷达时的最后一帧数据均能够识得到确定。因此,在本实施例中可以优先按照中心位置匹配。
由于行人进入两个雷达的扫描区域时,头部基本保持在同一位置,因此在误差允许的范围内,可认定为同一个行人目标。用于判断的误差可以预先根据连个雷达之间的距离进行设定,标记为maxHeadDistanceWithSamePassenger。示例地,假设第一检测雷达识别出的行人目标的中心位置为centerPos(x1,y1),并且centerPos(x1,y1).x1表示在第一检测雷达下中心横向位置,第二检测雷达识别出的行人的中心位置为centerPos(x2,y2),centerPos(x2,y2).x2表示在第二检测雷达下中心横向位置坐标,两个中心横向位置差用abs(centerPos(x1,y1).x1-centerPos(x2,y2).x2),实际目标判断过程中,如果abs(centerPos(x1,y1).x1-centerPos(x2,y2).x2)≤maxHeadDistanceWithSame Passenger,则认为两个雷达识别出的行人目标是同一个人。
需要说明的是,如果上述按照中心位置匹配不成功的话,还可以按照起始位置和结束位置交叉百分比进行匹配。即交叉百分比越高,证明是同一个位置的可能性越大。
S6:根据获取所述第一行人信息和所述第二行人信息的时间关系,确定经过所述检测区域的行人目标进出方向,以及根据所述行人目标进出方向统计通道人数。
进一步地,如图13所示,根据获取所述第一行人信息和所述第二行人信息的时间关系,确定经过所述检测区域的行人目标进出方向,包括:
S601:记录识别出第一行人信息中存在行人目标的第一行人信息获取时刻T1;
S602:记录识别出第二行人信息中包含带有所述识别标签的行人目标的第二行人信息获取时刻T2;
S603:根据所述第一行人信息获取时刻T1与所述第二行人信息获取时刻T2的先后顺序,以及所述第一检测雷达和所述第二检测雷达的安装位置确定所述行人目标进出方向;
S604:如果所述第一行人信息获取时刻T1早于所述第二行人信息获取时刻T2,确定所述行人目标行进方向为从所述第一检测雷达到所述第二检测雷达;
S605:如果所述第一行人信息获取时刻T1晚于所述第二行人信息获取时刻T2,确定所述行人目标行进方向为从所述第二检测雷达到所述第一检测雷达。
本实施例中,同一个行人目标在两个雷达下匹配成功后,开始判断行人目标的进出方向。首先,对两个雷达进行同步,本申请中,两个雷达的同步,是指两个雷达的运行Tick是基于同一时间开始,而雷达中的每帧数据都存有这个Tick当前值。
实际使用中,可以通过检测雷达获取行人目标的先后顺序来确定目标行进方向,例如,行人目标从左向右走,会先经过第一检测雷达的扫描面,经算法识别和分割出人后,记录第一帧中包含的时刻T1,而后经过第二检测雷达的扫描面,同样经算法识别和分割出人后,记录时刻第一帧中包含的时刻T2,由于雷达具有同步功能,则必然存在T2>T1,假设事先设定好先经过雷达1的方向为进入方向,那么算法判断出T2>T1后,就认为是进入1人,反之,认为离开1人。
基于以上所述的通道人数统计方法,本申请还提供一种基于雷达的通道人数统计系统,如图9所示,所述系统包括设置在通道上方的第一检测雷达1和第二检测雷达2,以及连接所述第一检测雷达1和所述第二检测雷达2的数据处理装置3;所述第一检测雷达1和所述第二检测雷达2的扫描面相互平行且均垂直于所述通道中的行人主要移动方向,所述第一检测雷达1和所述第二检测雷达2的扫描面之间相互间隔预设距离;
所述数据处理装置3包括处理器31、存储器32和计数器33,并且所述数据处理装置3被进一步配置为执行以下程序步骤:
通过第一检测雷达1获取经过检测区域的第一行人信息,以及生成与所述第一行人信息对应的二维点阵图像;
在所述二维点阵图像中提取识别特征数据,所述识别特征数据包括头部特征数据和肩部特征数据;
根据所述头部特征数据识别所述第一行人信息中的行人头部,以及在识别出行人头部后,根据所述肩部特征数据识别所述第一行人信息中的行人肩部;
如果在所述第一行人信息中识别出行人肩部,确定所述第一行人信息中存在行人目标,以及为所述行人目标设置识别标签;
通过第二检测雷达2获取第二行人信息,所述第二行人信息中包含带有所述识别标签的行人目标;
根据获取所述第一行人信息和所述第二行人信息的时间关系,确定经过所述检测区域的行人目标进出方向,以及根据所述行人目标进出方向统计通道人数。
本申请提供的通道人数统计系统可以识别行人目标在通道中的进出方向,识别人数和进出方向精度高,当雷达扫描频率在40Hz及以上,脉冲分辨率在0.5度及以上时,识别率可达98%以上。另外由于所述系统基于检测雷达,可以不受环境光线、温度变化、衣服颜色以及行人的行进速度影响。检测雷达不会对行人面部特征进行拍摄,因此不存在隐私安全的问题。
由以上技术方案可知,本申请提供一种基于雷达的通道人数统计方法及系统,所述方法在实际使用中,通过第一检测雷达获取经过检测区域的第一行人信息并生成二维点阵图像;再根据其中的头部特征数据识别第一行人信息中的行人头部,以及在识别出行人头部后,根据肩部特征数据识别第一行人信息中的行人肩部;如果在第一行人信息中识别出行人肩部,确定第一行人信息中存在行人目标,并为行人目标设置识别标签;通过第二检测雷达获取包含带有识别标签的行人目标的第二行人信息,最后根据获取第一行人信息和第二行人信息的时间关系,确定经过检测区域的行人目标进出方向,以及根据行人目标进出方向统计通道人数。所述方法不仅保持了较高的行人目标识别精度,提高人数统计的准确率而且能够判断行人方向。
本申请提供的实施例之间的相似部分相互参见即可,以上提供的具体实施方式只是本申请总的构思下的几个示例,并不构成本申请保护范围的限定。对于本领域的技术人员而言,在不付出创造性劳动的前提下依据本申请方案所扩展出的任何其他实施方式都属于本申请的保护范围。
Claims (9)
1.一种基于雷达的通道人数统计方法,其特征在于,包括:
通过第一检测雷达获取经过检测区域的第一行人信息,以及生成与所述第一行人信息对应的二维点阵图像;
在所述二维点阵图像中提取识别特征数据,所述识别特征数据包括头部特征数据和肩部特征数据;
根据所述头部特征数据识别所述第一行人信息中的行人头部,以及在识别出行人头部后,根据所述肩部特征数据识别所述第一行人信息中的行人肩部;
如果在所述第一行人信息中识别出行人肩部,确定所述第一行人信息中存在行人目标,以及为所述行人目标设置识别标签;
通过第二检测雷达获取第二行人信息,所述第二行人信息中包含带有所述识别标签的行人目标;
记录识别出第一行人信息中存在行人目标的第一行人信息获取时刻T1;
记录识别出第二行人信息中包含带有所述识别标签的行人目标的第二行人信息获取时刻T2;
根据所述第一行人信息获取时刻T1与所述第二行人信息获取时刻T2的先后顺序,以及所述第一检测雷达和所述第二检测雷达的安装位置确定所述行人目标进出方向;
如果所述第一行人信息获取时刻T1早于所述第二行人信息获取时刻T2,确定所述行人目标行进方向为从所述第一检测雷达到所述第二检测雷达;
如果所述第一行人信息获取时刻T1晚于所述第二行人信息获取时刻T2,确定所述行人目标行进方向为从所述第二检测雷达到所述第一检测雷达;
根据所述行人目标进出方向统计通道人数。
2.根据权利要求1所述的通道人数统计方法,其特征在于,在所述二维点阵图像中提取识别特征数据包括:
遍历所述二维点阵图像中的扫描点坐标,确定最高点坐标;
根据所述最高点坐标以及预设头部识别区域值,划定头部识别区域;以及,
根据所述最高点坐标以及预设肩部位置经验值划定肩部预识别区域。
3.根据权利要求2所述的通道人数统计方法,其特征在于,确定头部特征识别区域后,按照以下步骤识别第一行人信息中的行人头部:
遍历所述头部识别区域中的所有扫描点,计算各相邻点的横向坐标差绝对值和纵向坐标差绝对值;
分别对计算得到的所有所述横向坐标差绝对值和所述纵向坐标差绝对值进行累加求和,生成头部宽度和头部高度;
根据所述头部宽度和所述头部高度生成头部识别判断值,以及获取预设的头部紧凑度和头部最小宽度;
对比所述头部识别判断值与所述头部紧凑度,以及对比所述头部宽度与所述头部最小宽度;
如果所述头部宽度大于或等于所述头部最小宽度,并且所述头部识别判断值小于或等于所述头部紧凑度,确定在所述第一行人信息中识别出行人头部。
4.根据权利要求3所述的通道人数统计方法,其特征在于,根据以下公式计算所述头部识别判断值:
头部识别判断值tightness=(sumX+sumY)/(n-1);
式中,sumX为所述头部宽度;sumY为所述头部高度;n为所述头部识别区域中的扫描点个数。
5.根据权利要求2所述的通道人数统计方法,其特征在于,预设肩部位置经验值等于最高点纵向坐标值的1/10;在识别出行人头部后,按照以下步骤识别第一行人信息中的行人肩部:
遍历所述肩部预识别区域中所有扫描点坐标,确定所述肩部预识别区域的最高点;
根据所述肩部预识别区域的最高点以及预设肩部识别区域值,划定肩部识别区域;
遍历所述肩部识别区域中的所有扫描点,计算各相邻点的横向坐标差绝对值和纵向坐标差绝对值;
分别对计算得到的所有所述横向坐标差绝对值和所述纵向坐标差绝对值进行累加求和,生成肩部宽度和肩部高度;
根据所述肩部宽度和所述肩部高度生成肩部识别判断值,以及获取预设的肩部紧凑度和肩部最小宽度;
对比所述肩部识别判断值与所述肩部紧凑度,以及对比所述肩部宽度与所述肩部最小宽度;
如果所述肩部宽度大于或等于所述肩部最小宽度,并且所述肩部识别判断值小于或等于所述肩部紧凑度,确定在所述第一行人信息中识别出行人肩部。
6.根据权利要求1所述的通道人数统计方法,其特征在于,在确定所述第一行人信息中存在行人目标后,所述方法还包括:
遍历所述二维点阵图像中的扫描点坐标,确定最高点坐标;
以所述最高点为中心,分别在所述二维点阵图像的左右两个方向上查找下一个扫描点;以及以所述最高点作为宽度向波谷点;
计算查找到的扫描点与所述宽度向波谷点纵向坐标值之差,并将计算所得差值的绝对值作为横向分割判断值;
对比所述横向分割判断值与预设的横向分割阈值,如果所述横向分割判断值小于所述横向分割阈值,确定查找到的点与所述宽度向波谷点属于同一个行人目标;
更新所述宽度向波谷点为查找到的扫描点,继续在同方向上查找下一个扫描点,直到所述横向分割判断值大于或等于所述横向分割阈值,确定查找到的点与所述宽度向波谷点不属于同一个行人目标;
以最左侧和最右侧的所述宽度向波谷点为边界点,在所述二维点阵图像中临时擦除所述边界点之间的扫描点,并继续对其他扫描点进行上述判断,分割所述二维点阵图像中行人目标;为每一个所述行人目标设置识别标签。
7.根据权利要求1所述的通道人数统计方法,其特征在于,在确定所述第一行人信息中存在行人目标后,所述方法还包括:
遍历当前二维点阵图像中的扫描点坐标,确定最高点坐标,以及将所述最高点作为厚度向波谷点;
根据所述最高点坐标以及预设查找范围划分查找区域;
获取所述当前二维点阵图像的前一帧二维点阵图像,以及在前一帧二维点阵图像的所述查找区域对应的区域中查找纵向坐标值最大的峰值点;
计算所述峰值点与所述厚度向波谷点的纵向坐标值之差,并将计算所得差值的绝对值作为进出向分割判断值;
对比所述进出向分割判断值与预设的进出向分割阈值,如果所述进出向分割判断值小于所述进出向分割阈值,确定查找到的所述峰值点与所述厚度向波谷点属于同一个行人目标;
更新所述厚度向波谷点为所述峰值点,继续向前获取前一帧二维点阵图像,直到所述进出向分割判断值大于或等于所述进出向分割阈值,确定查找到的峰值点与所述厚度向波谷点不属于同一个行人目标;并记录此时的所述厚度向波谷点所在的二维点阵图像为第一帧二维点阵图像;
对当前帧二维点阵图像与后一帧二维点阵图像进行相同的判断,确定最后一帧二维点阵图像,为第一帧二维点阵图像与最后一帧二维点阵图像中分割区域内的行人目标设置相同的识别标签,在进出向上分割所述二维点阵图像中的行人目标。
8.根据权利要求1所述的通道人数统计方法,其特征在于,所述识别标签为所述第一行人信息中所述行人目标的中心点,记为基准中心点;通过第二检测雷达获取第二行人信息包括:
识别所述第二行人信息中的行人目标以及行人目标的中心点,记为识别中心点;
计算所述基准中心点的横向坐标值与所述识别中心点的横向坐标值之差,并将计算所得差值的绝对值作为中心点判断值;
对比所述中心点判断值与预设最大允许误差值,如果所述中心点判断值小于或等于最大允许误差值,确定所述第二行人信息中包含带有所述识别标签的行人目标。
9.一种基于雷达的通道人数统计系统,其特征在于,所述系统包括设置在通道上方的第一检测雷达和第二检测雷达,以及连接所述第一检测雷达和所述第二检测雷达的数据处理装置;所述第一检测雷达和所述第二检测雷达的扫描面相互平行且均垂直于所述通道中的行人主要移动方向,所述第一检测雷达和所述第二检测雷达的扫描面之间相互间隔预设距离;
所述数据处理装置包括处理器、存储器和计数器,并且所述数据处理装置被进一步配置为执行以下程序步骤:
通过第一检测雷达获取经过检测区域的第一行人信息,以及生成与所述第一行人信息对应的二维点阵图像;
在所述二维点阵图像中提取识别特征数据,所述识别特征数据包括头部特征数据和肩部特征数据;
根据所述头部特征数据识别所述第一行人信息中的行人头部,以及在识别出行人头部后,根据所述肩部特征数据识别所述第一行人信息中的行人肩部;
如果在所述第一行人信息中识别出行人肩部,确定所述第一行人信息中存在行人目标,以及为所述行人目标设置识别标签;
通过第二检测雷达获取第二行人信息,所述第二行人信息中包含带有所述识别标签的行人目标;
记录识别出第一行人信息中存在行人目标的第一行人信息获取时刻T1;
记录识别出第二行人信息中包含带有所述识别标签的行人目标的第二行人信息获取时刻T2;
根据所述第一行人信息获取时刻T1与所述第二行人信息获取时刻T2的先后顺序,以及所述第一检测雷达和所述第二检测雷达的安装位置确定所述行人目标进出方向;
如果所述第一行人信息获取时刻T1早于所述第二行人信息获取时刻T2,确定所述行人目标行进方向为从所述第一检测雷达到所述第二检测雷达;
如果所述第一行人信息获取时刻T1晚于所述第二行人信息获取时刻T2,确定所述行人目标行进方向为从所述第二检测雷达到所述第一检测雷达;
根据所述行人目标进出方向统计通道人数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810463243.7A CN110490030B (zh) | 2018-05-15 | 2018-05-15 | 一种基于雷达的通道人数统计方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810463243.7A CN110490030B (zh) | 2018-05-15 | 2018-05-15 | 一种基于雷达的通道人数统计方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110490030A CN110490030A (zh) | 2019-11-22 |
CN110490030B true CN110490030B (zh) | 2023-07-14 |
Family
ID=68544912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810463243.7A Active CN110490030B (zh) | 2018-05-15 | 2018-05-15 | 一种基于雷达的通道人数统计方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490030B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339840B (zh) * | 2020-02-10 | 2023-04-07 | 浙江大华技术股份有限公司 | 人脸检测方法和监控系统 |
CN113313165B (zh) * | 2021-05-27 | 2023-11-24 | 深圳大学 | 一种基于雷达的人数统计方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209318A (ja) * | 2005-01-26 | 2006-08-10 | East Japan Railway Co | 人数検出装置及び方法 |
JP2013156718A (ja) * | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | 人物追跡属性推定装置、人物追跡属性推定方法、プログラム |
CN106570449A (zh) * | 2016-02-29 | 2017-04-19 | 浙江工业大学 | 一种基于区域定义的人流量与人气指数检测方法及检测系统 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE9420544U1 (de) * | 1994-12-23 | 1995-02-09 | Wienand, Hans-Theo, 51063 Köln | Vorrichtung zum Zählen von Personen |
JP2012115570A (ja) * | 2010-12-02 | 2012-06-21 | Panasonic Corp | 通過者識別装置 |
CN103049787B (zh) * | 2011-10-11 | 2015-11-25 | 汉王科技股份有限公司 | 一种基于头肩特征的人数统计方法和系统 |
JP2014006075A (ja) * | 2012-06-21 | 2014-01-16 | Denso Corp | 歩行者検知装置 |
CN105303191A (zh) * | 2014-07-25 | 2016-02-03 | 中兴通讯股份有限公司 | 一种前视监视场景下的行人计数方法和装置 |
CN105139425B (zh) * | 2015-08-28 | 2018-12-07 | 浙江宇视科技有限公司 | 一种人数统计方法及装置 |
CN105809113B (zh) * | 2016-03-01 | 2019-05-21 | 湖南拓视觉信息技术有限公司 | 三维人脸识别方法及应用其的数据处理装置 |
WO2017196515A1 (en) * | 2016-05-09 | 2017-11-16 | Iteris, Inc. | Pedestrian counting and detection at a traffic intersection based on location of vehicle zones |
CN106127812B (zh) * | 2016-06-28 | 2018-10-12 | 中山大学 | 一种基于视频监控的客运站非出入口区域的客流统计方法 |
CN106203513B (zh) * | 2016-07-08 | 2019-06-21 | 浙江工业大学 | 一种基于行人头肩多目标检测及跟踪的统计方法 |
CN106599776B (zh) * | 2016-10-25 | 2019-06-28 | 长安大学 | 一种基于轨迹分析的人数统计方法 |
CN107423708A (zh) * | 2017-07-25 | 2017-12-01 | 成都通甲优博科技有限责任公司 | 一种确定视频中行人人流量的方法及其装置 |
CN107452012B (zh) * | 2017-07-28 | 2020-10-30 | 浙江大华技术股份有限公司 | 一种行人识别方法、装置和电子设备 |
-
2018
- 2018-05-15 CN CN201810463243.7A patent/CN110490030B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209318A (ja) * | 2005-01-26 | 2006-08-10 | East Japan Railway Co | 人数検出装置及び方法 |
JP2013156718A (ja) * | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | 人物追跡属性推定装置、人物追跡属性推定方法、プログラム |
CN106570449A (zh) * | 2016-02-29 | 2017-04-19 | 浙江工业大学 | 一种基于区域定义的人流量与人气指数检测方法及检测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110490030A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3779772B1 (en) | Trajectory tracking method and apparatus, and computer device and storage medium | |
US8582816B2 (en) | Method and apparatus for video analytics based object counting | |
CN109644255B (zh) | 标注包括一组帧的视频流的方法和装置 | |
CN105844234B (zh) | 一种基于头肩检测的人数统计的方法及设备 | |
CA3094424C (en) | Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator | |
US8655078B2 (en) | Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus | |
JP5603403B2 (ja) | 対象物計数方法、対象物計数装置および対象物計数プログラム | |
CN107798272B (zh) | 快速多目标检测与跟踪系统 | |
JP4970195B2 (ja) | 人物追跡システム、人物追跡装置および人物追跡プログラム | |
EP2450832A1 (en) | Image processing apparatus and image processing method | |
CN109325404A (zh) | 一种公交场景下的人数统计方法 | |
JPH11252587A (ja) | 物体追跡装置 | |
CN103824070A (zh) | 一种基于计算机视觉的快速行人检测方法 | |
US20160055382A1 (en) | Vehicle discrimination apparatus | |
JP5931662B2 (ja) | 道路状況監視装置、及び道路状況監視方法 | |
CN102855508B (zh) | 敞开式校园防尾随系统 | |
CN109344690A (zh) | 一种基于深度相机的人数统计方法 | |
CN110490030B (zh) | 一种基于雷达的通道人数统计方法及系统 | |
CN111489380A (zh) | 一种目标物体轨迹分析方法 | |
CN112562315B (zh) | 一种获取车流信息的方法、终端及存储介质 | |
JP3629935B2 (ja) | 移動体の速度計測方法およびその方法を用いた速度計測装置 | |
JP6028972B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR20150002040A (ko) | 호그 연속기법에 기반한 칼만 필터와 클러스터링 알고리즘을 이용하여 실시간으로 보행자를 인식하고 추적하는 방법 | |
JP2002008019A (ja) | 軌道認識装置及び軌道認識装置を用いた鉄道車両 | |
JP2002002485A (ja) | 軌道認識装置及び軌道認識装置を用いた鉄道車両 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |