CN113163110B - 一种人流密度分析系统及分析方法 - Google Patents

一种人流密度分析系统及分析方法 Download PDF

Info

Publication number
CN113163110B
CN113163110B CN202110245319.0A CN202110245319A CN113163110B CN 113163110 B CN113163110 B CN 113163110B CN 202110245319 A CN202110245319 A CN 202110245319A CN 113163110 B CN113163110 B CN 113163110B
Authority
CN
China
Prior art keywords
image frame
target
detected
radar
moment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110245319.0A
Other languages
English (en)
Other versions
CN113163110A (zh
Inventor
仲启春
戴坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Next Dimension Technology Co ltd
Original Assignee
Beijing Next Dimension Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Next Dimension Technology Co ltd filed Critical Beijing Next Dimension Technology Co ltd
Priority to CN202110245319.0A priority Critical patent/CN113163110B/zh
Publication of CN113163110A publication Critical patent/CN113163110A/zh
Application granted granted Critical
Publication of CN113163110B publication Critical patent/CN113163110B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种人流密度分析系统及分析方法,包括摄像机、控制器和多个雷达。雷达用于在其探测范围内存在目标时,对目标进行探测,得到目标信息,并将目标信息传输至控制器,进而能够通过雷达提前检测目标,从而解决仅通过摄像头无法及时发现目标的问题,在摄像头拍摄不到的盲区也能对目标进行及时检测。另外,摄像机对处于优先雷达的探测范围内的所有目标拍摄视频,并将视频传输至控制器,控制器还对视频进行分析,判断目标是否为人形目标,并对人形目标进行相似度计算,得到不同的人形目标的数量,不同的人形目标的数量即为人流密度,进而能够避免同一时间段内重复统计人数的问题,得到的统计数据精确,从而提高人流密度的计算精度。

Description

一种人流密度分析系统及分析方法
技术领域
本发明涉及人流密度识别技术领域,特别是涉及一种人流密度分析系统及分析方法。
背景技术
目前常见的人流密度分析系统,主要是摄像头在某一时间段某一特定位置采集视频流,然后通过计算机对视频流进行分析,来获取这一时间段这一特定位置的人流密度。然而这种人流密度分析系统的缺陷是容易重复统计人数,导致统计数据不够准确。另外,仅仅通过摄像头往往不能及时发现目标,在摄像头拍摄不到的盲区无法进行及时检测,同样会导致统计数据不够准确。
发明内容
本发明的目的是提供一种人流密度分析系统及分析方法,能够及时发现目标,并能够对人形目标进行相似度检测,避免重复统计人数的问题,获取的人流密度精度高。
为实现上述目的,本发明提供了如下方案:
一种人流密度分析系统,所述系统包括摄像机、控制器和多个雷达;
多个所述雷达均固定设置于待测区域的预设位置;多个所述雷达组成的探测范围覆盖所述待测区域;
多个所述雷达均与所述控制器通信连接;所述雷达用于在其探测范围内存在目标时,对所述目标进行探测,得到目标信息,并将所述目标信息传输至所述控制器;所述目标包括人或物;
所述摄像机与所述控制器通信连接;所述控制器用于在当前时刻传输所述目标信息的雷达中选取优先级最高的雷达作为优先雷达,并根据所述优先雷达的探测范围控制所述摄像机旋转;
所述摄像机用于对处于所述优先雷达的探测范围内的所有目标拍摄视频,并将所述视频传输至所述控制器;
所述控制器还用于对所述视频进行分析,判断所述目标是否为人形目标;并对所述人形目标进行相似度计算,得到不同的人形目标的数量;所述不同的人形目标的数量即为人流密度。
一种人流密度分析方法,控制上述分析系统进行工作,所述分析方法包括如下步骤:
接收雷达传输的包括目标信息的数据帧;所述目标信息对应的目标包括人或物;
在当前时刻传输所述数据帧的雷达中选取优先级最高的雷达作为优先雷达,并根据所述优先雷达的探测范围控制摄像机旋转;
接收所述摄像机对处于所述优先雷达的探测范围内的所有目标所拍摄的视频;
对所述视频进行分析,判断所述目标是否为人形目标;
对所述人形目标进行相似度计算,得到不同的人形目标的数量;所述不同的人形目标的数量即为人流密度。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明所提供的一种人流密度分析系统及分析方法,包括摄像机、控制器和多个雷达。多个雷达均固定设置于待测区域的预设位置,且多个雷达组成的探测范围覆盖待测区域。雷达用于在其探测范围内存在目标时,对目标进行探测,得到目标信息,并将目标信息传输至控制器,目标包括人或物,进而能够通过雷达提前检测目标,从而解决仅通过摄像头无法及时发现目标的问题,在摄像头拍摄不到的盲区也能对目标进行及时检测,提高所获得的人流密度统计数据的精度。另外,控制器在当前时刻传输目标信息的雷达中选取优先级最高的雷达作为优先雷达,并根据优先雷达的探测范围控制摄像机旋转,摄像机用于对处于优先雷达的探测范围内的所有目标拍摄视频,并将视频传输至控制器,进而能够及时获取包括目标的视频。控制器还对视频进行分析,判断目标是否为人形目标,并对人形目标进行相似度计算,得到不同的人形目标的数量,不同的人形目标的数量即为人流密度,进而能够避免同一时间段内重复统计人数的问题,得到的统计数据精确,从而提高人流密度的计算精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1所提供的人流密度分析系统的结构框图。
图2为本发明实施例2所提供的人流密度分析方法的方法流程图。
图3为本发明实施例2所提供的人形目标检测的方法流程图。
图4为本发明实施例2所提供的人形目标相似度计算的方法流程图。
符号说明:
1-雷达;2-摄像机;3-控制器;4-显示终端。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种人流密度分析系统及分析方法,能够通过雷达提前检测目标,锁定方向,再进一步转动摄像机拍摄目标,进而能够及时发现目标,并判断目标是否为人形目标,还能够对人形目标进行相似度检测,避免重复统计人数的问题,获取的人流密度精度高。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1:
本实施例用于提供一种人流密度分析系统,如图1所示,所述系统包括摄像机2、控制器3和多个雷达1;
多个雷达1均固定设置于待测区域的预设位置,且多个雷达1组成的探测范围覆盖待测区域。具体的,雷达1的数量可为三个,每个雷达1的可探测角度为120度。当然,本发明并不对雷达1的数量进行具体限制,只要多个雷达1的探测角度总和大于等于360度即可,进而能够利用多个雷达1提前识别从任意方向前往待测区域的目标。
多个雷达1均与控制器3通信连接,控制器3与雷达1之间可以通过socket通信。雷达1用于在其探测范围内存在目标时,对目标进行探测,得到目标信息,并将目标信息传输至控制器3,目标包括人或物。即雷达1在其探测范围内存在目标时,将探测到的目标信息传输至控制器3,在其探测范围内不存在目标时,则不向控制器3传输数据。
摄像机2与控制器3通信连接。具体的,摄像机2可固定设置于任一雷达1上,摄像机2可以采用云台球机。控制器3用于在当前时刻传输目标信息的雷达1中选取优先级最高的雷达1作为优先雷达,并根据优先雷达的探测范围控制摄像机2旋转。由于各个雷达1均仅在其探测范围内存在目标时才向控制器3传输目标信息,故各个时刻向控制器3传输目标信息的雷达1可能是不同的,本实施例通过提前预设各个雷达1的优先级顺序,在每一时刻从当前传输目标信息的雷达1中选取优先级最高的雷达1作为优先雷达,并利用摄像机2对优先雷达探测范围内的目标进行拍摄,进而能够对每一时刻最重要的方向进行拍摄,以检测这一方向来往待测区域的人流量。为了使本领域技术人员更加清楚的了解这一方案,在此举例进行说明。假定有三个雷达1,分别命名为雷达A、雷达B和雷达C,预设的优先级顺序为A>B>C。假定第一时刻,雷达A和雷达B同时向控制器3传输目标信息,则控制器3根据预设的优先级顺序选取优先级最高的雷达A作为优先雷达,在第二时刻,雷达B和雷达C同时向控制器3传输目标信息,则控制器3根据预设的优先级顺序选取优先级最高的雷达B作为优先雷达。
控制器3内设置多个全局变量数组,每一全局变量数组与一雷达1的IP地址相对应,并以全局变量数组作为缓存区接收雷达1所传输的目标信息。控制器3在同时接收到多个雷达1传输的目标信息后,根据雷达1的IP地址将其放置于与雷达1相对应的全局变量数组内,还根据雷达1的IP地址结合预设的优先级顺序选取当前时刻的优先雷达,并根据优先雷达的探测范围控制摄像机2旋转,摄像机2用于对处于优先雷达的探测范围内的所有目标拍摄视频,并将视频传输至控制器3,进而能够及时获取包括目标的视频。
控制器3还用于对视频进行分析,判断目标是否为人形目标,并对人形目标进行相似度计算,得到不同的人形目标的数量,所述不同的人形目标的数量即为人流密度,从而能够避免同一时间段内重复统计人数的问题,得到的统计数据精确,进而提高人流密度的计算精度。
作为一种可选的实施方式,本实施例的人流密度分析系统还包括显示终端4,显示终端4与控制器3通信连接。控制器3还用于对目标信息进行解析,得到目标的位置信息。所述位置信息包括横坐标、纵坐标和方位角。在得到人形目标后,本实施例的控制器3还对人形目标进行框选,并将各个人形目标的位置信息叠加到视频的左上方,且任意相邻两个人形目标的位置信息之间间隔预设长度,即多个人形目标的位置信息分行显示,从而对视频内容进行更改,得到更改后的视频,并传输至显示终端4,在显示终端4上显示更改后的视频,便于人为观看所拍摄的人形目标。
实施例2:
本实施例用于提供一种人流密度分析方法,控制如实施例1所述的分析系统进行工作,如图2所示,所述分析方法包括如下步骤:
S1:接收雷达1传输的包括目标信息的数据帧;所述目标信息对应的目标包括人或物;
具体的,雷达1获取目标信息后,将目标信息进行打包得到数据帧,并以20hz的频率将数据帧传输至控制器3。本实施例选用了一种具体的雷达上传协议格式来说明本实施例的方案,利用如表1所示的雷达上传协议格式,雷达1每次可以传输216字节的数据,最多能够同时采集16个目标的目标信息,所述目标信息包括目标的距离、角度、坐标、速度和回波功率。
表1雷达上传协议格式
Figure BDA0002963884150000051
Figure BDA0002963884150000061
在接收雷达1传输的包括目标信息的数据帧之后,本实施例的分析方法还可以包括:以数据帧的帧头所在字节为起始字节,以数据帧的最后一个字节为终止字节,对起始字节和终止字节以内的字节的数据进行累加,得到累加值。然后提取累加值的低八位,并将低八位与数据帧帧尾所在字节的数据进行比对,以对数据帧进行校验,若低八位与数据帧帧尾所在字节的数据一致,则数据帧校验通过。根据校验结果判断数据帧内的数据是否准确,若数据帧校验通过,则数据帧内的数据准确。从而控制器3能够对获得的数据帧进行校验,以判断数据帧内数据的准确性,当数据准确时,才会执行S2,在数据不准确时,则不保存此数据帧。
作为一种可选的实施方式,在数据帧内的数据准确时,本实施例的分析方法还包括对目标信息进行解析,得到目标的位置信息。所述位置信息包括横坐标、纵坐标和方位角。具体的,基于表1所示的雷达上传协议格式,从雷达1传输的数据帧中获取第七个字节的数据,得到目标个数。根据表1所示的雷达上传协议格式,从第八个字节开始是目标信息,每个目标的目标信息占13个字节,依据目标信息获取每个目标的横坐标、纵坐标和方位角。横坐标、纵坐标和方位角这些数据均占用两个字节,每个数据都有正负,且低位数据在前。在获取数据的具体数值时,定义一个short类型的数据c,依次判断每个数据的正负性,对数据进行处理,若数据为正,则数据c=高位数据*256+低位数据,若数据为负,则数据c=-1*(高位数据按位取反*256+低位数据按位取反+1),从而得到横坐标、纵坐标和方位角这些数据的具体数值。然后将数据缩小到相应倍数并放入浮点类型的结构体中,结构体为全局变量,便于其余模块调用该结构体。结构体包含两部分内容,目标个数和每个目标的浮点类型的横坐标,纵坐标和方位角。
S2:在当前时刻传输所述数据帧的雷达1中选取优先级最高的雷达1作为优先雷达,并根据所述优先雷达的探测范围控制摄像机2旋转;
S3:接收所述摄像机2对处于所述优先雷达的探测范围内的所有目标所拍摄的视频;
摄像机2以25帧/秒的频率获取视频,并通过网络接口将视频传输至控制器3。
S4:对所述视频进行分析,判断所述目标是否为人形目标;
具体的,如图3所示,S4可以包括:
步骤401:对所述视频进行抓取帧处理,得到每一时刻对应的图像帧;
步骤402:以第一时刻对应的图像帧作为对比图像帧,以第二时刻对应的图像帧作为待测图像帧;
步骤403:将所述待测图像帧与所述对比图像帧进行插分运算,得到运算结果,并根据所述运算结果判断所述待测图像帧内是否存在运动目标;
由于摄像机2采集的视频具有连续性的特点,如果没有运动目标,则连续帧之间的变化很微弱,如果存在运动目标,则连续帧之间会有明显的变化。故本实施例对时间上连续的两帧图像进行差分运算,以判断是否存在运动目标。具体的,对于待测图像帧的每一像素点,计算像素点的灰度值与对比图像帧中对应像素点的灰度值的差值,得到像素点的灰度差。对所有像素点的灰度差进行求和,得到待测图像帧和对比图像帧的图像灰度差,所述图像灰度差即为运算结果。再判断运算结果是否处于预设阈值内,若运算结果不处于预设阈值内,则待测图像帧内存在运动目标,从而实现运动目标的检测。
步骤404:若所述待测图像帧内存在运动目标,则以所述待测图像帧作为目标图像帧,并选取所述待测图像帧下一时刻对应的图像帧作为待测图像帧,返回“将所述待测图像帧与所述对比图像帧进行插分运算”的步骤,直至除第一时刻以外的每一时刻对应的图像帧均已进行运动目标的检测;
步骤405:若所述待测图像帧内不存在运动目标,则以所述待测图像帧作为对比图像帧,并选取所述待测图像帧下一时刻对应的图像帧作为待测图像帧,返回“将所述待测图像帧与所述对比图像帧进行插分运算”的步骤,直至除第一时刻以外的每一时刻对应的图像帧均已进行运动目标的检测;
步骤406:对于每一所述目标图像帧,提取所述目标图像帧的HOG特征,并基于所述HOG特征,利用训练好的SVM分类模型判断所述目标图像帧中的目标是否为人形目标。
作为一种可选的实施方式,在得到目标图像帧后,对于每一目标图像帧,对目标图像帧进行灰度化,得到灰度化后的目标图像帧,灰度化能够提高人形目标识别的效率。然后对灰度化后的目标图像帧进行腐蚀处理,得到腐蚀后的目标图像帧,腐蚀能够消除物体边界点,使目标缩小,可以消除小于结构元素的噪声点。再对腐蚀后的目标图像帧进行膨胀处理,得到膨胀后的目标图像帧,膨胀可以将与物体接触的所有背景点合并到物体中,使目标增大,可填补目标中的空洞。先腐蚀后膨胀能够消除图像上细小的噪声,并平滑物体边界。最后计算膨胀后的目标图像帧的梯度,提取膨胀后的目标图像帧的HOG特征,得到目标图像帧的HOG特征。方向梯度直方图特征(Histogram of Oriented Gradient,HOG)是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子,它通过计算和统计图像局部区域的梯度方向直方图来构成特征。根据HOG特征,来进一步判断运动目标是否为人形目标。
本实施例还包括对SVM分类模型进行训练,得到训练好的SVM分类模型的过程。具体的,以人形训练样本和非人形训练样本作为输入,提取各个样本的HOG特征,对SVM分类模型进行训练,并以分类准确度大于等于98%作为迭代终止条件,得到训练好的SVM分类模型。进而基于目标图像帧的HOG特征,利用训练好的SVM分类模型判断目标图像帧中的目标是否为人形目标,实现人形目标的检测。
作为一种可选的实施方式,在完成人形目标的检测后,所述分析方法还包括:利用人形框对视频内的每一人形目标分别进行框选,形成带框的人形图像,同时通过OSD叠加技术,将各个人形目标的位置信息叠加到视频的左上方,即将控制器3解析得到的雷达1探测的人形目标的横坐标、纵坐标和方位角信息叠加到视频的左上方,且任意相邻两个人形目标的位置信息之间间隔预设长度,即多个人形目标的位置信息分行显示,从而对视频内容进行更改,得到更改后的视频,并将更改后的视频传输至显示终端4进行显示,便于人为观察探测范围内的人形目标。
其中,OSD叠加技术为:分析视频中人形目标的个数,并根据人形目标的个数进行循环更新。循环更新为:通过调用OSD函数在视频上创建一个区域,获取区域显示画布信息,查找需要显示的人形目标的位置信息所对应的汉字在HZK16(点阵汉字库)中的偏移位置,找到汉字读取字模,更新显示画布。对于下一人形目标位置信息的显示,通常基于上个人形目标的显示位置向下偏移预设长度再创建一个区域,用于显示下一人形目标的位置信息,预设长度为50。
S5:对所述人形目标进行相似度计算,得到不同的人形目标的数量;所述不同的人形目标的数量即为人流密度。
具体的,如图4所示,S5可以包括:
步骤501:以包含所述人形目标的所述目标图像帧作为统计图像帧;
步骤502:提取第一张所述统计图像帧中每个人形目标的特征值,得到目标基准集合;
步骤503:以第二张所述统计图像帧作为待测统计图像帧;
步骤504:提取所述待测统计图像帧中每个人形目标的特征值,得到第一集合;
步骤505:对于所述第一集合的每一个特征值,计算所述特征值与所述目标基准集合的每一特征值之间的欧氏距离,根据所述欧式距离判断所述目标基准集合内是否存在与所述特征值相似的第一特征值;
具体的,若两个特征值之间的欧式距离小于门限值,则说明两个特征值对应的目标为同一目标,进而将与第一集合内的特征值之间的欧式距离小于门限值的目标基准集合内的特征值作为第一特征值。
步骤506:若所述目标基准集合内不存在与所述特征值相似的第一特征值,则将所述特征值保存在目标基准集合内,得到更新后的目标基准集合;
步骤507:以所述更新后的目标基准集合作为下一循环中的目标基准集合,以所述待测统计图像帧的下一张统计图像帧作为下一循环中的待测统计图像帧,返回“提取所述待测统计图像帧中每个人形目标的特征值,得到第一集合”的步骤;
步骤508:根据所述目标基准集合内的特征值的数量得到不同的人形目标的数量。
本实施例所提供的基于雷达1+视频分析来统计人流密度的方案,有两个优势:雷达1可以360度监控待测区域内目标数量及状态,摄像机2可以获取高质量图片及视频,且所用的人形目标检测方法更便于识别人形目标,结合雷达1与摄像机2二者的优势,精准识别目标。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种人流密度分析系统,其特征在于,所述系统包括摄像机、控制器和多个雷达;
多个所述雷达均固定设置于待测区域的预设位置;多个所述雷达组成的探测范围覆盖所述待测区域;
多个所述雷达均与所述控制器通信连接;所述雷达用于在其探测范围内存在目标时,对所述目标进行探测,得到目标信息,并将所述目标信息传输至所述控制器;所述目标包括人或物;
所述摄像机与所述控制器通信连接;所述控制器用于在当前时刻传输所述目标信息的雷达中选取优先级最高的雷达作为优先雷达,并根据所述优先雷达的探测范围控制所述摄像机旋转;
所述摄像机用于对处于所述优先雷达的探测范围内的所有目标拍摄视频,并将所述视频传输至所述控制器;
所述控制器还用于对所述视频进行分析,判断所述目标是否为人形目标;并对所述人形目标进行相似度计算,得到不同的人形目标的数量;所述不同的人形目标的数量即为人流密度;
所述对所述视频进行分析,判断所述目标是否为人形目标具体包括:
对所述视频进行抓取帧处理,得到每一时刻对应的图像帧;
以第一时刻对应的图像帧作为对比图像帧,以第二时刻对应的图像帧作为待测图像帧;
将所述待测图像帧与所述对比图像帧进行插分运算,得到运算结果,并根据所述运算结果判断所述待测图像帧内是否存在运动目标;
若所述待测图像帧内存在运动目标,则以所述待测图像帧作为目标图像帧,并选取所述待测图像帧下一时刻对应的图像帧作为待测图像帧,返回“将所述待测图像帧与所述对比图像帧进行插分运算”的步骤,直至除第一时刻以外的每一时刻对应的图像帧均已进行运动目标的检测;
若所述待测图像帧内不存在运动目标,则以所述待测图像帧作为对比图像帧,并选取所述待测图像帧下一时刻对应的图像帧作为待测图像帧,返回“将所述待测图像帧与所述对比图像帧进行插分运算”的步骤,直至除第一时刻以外的每一时刻对应的图像帧均已进行运动目标的检测;
对于每一所述目标图像帧,提取所述目标图像帧的HOG特征,并基于所述HOG特征,利用训练好的SVM分类模型判断所述目标图像帧中的目标是否为人形目标。
2.如权利要求1所述的一种人流密度分析系统,其特征在于,所述控制器还用于对所述目标信息进行解析,得到所述目标的位置信息;所述位置信息包括横坐标、纵坐标和方位角。
3.一种人流密度分析方法,控制如权利要求1-2任一项所述的分析系统进行工作,所述分析方法包括如下步骤:
接收雷达传输的包括目标信息的数据帧;所述目标信息对应的目标包括人或物;
在当前时刻传输所述数据帧的雷达中选取优先级最高的雷达作为优先雷达,并根据所述优先雷达的探测范围控制摄像机旋转;
接收所述摄像机对处于所述优先雷达的探测范围内的所有目标所拍摄的视频;
对所述视频进行分析,判断所述目标是否为人形目标;
对所述人形目标进行相似度计算,得到不同的人形目标的数量;所述不同的人形目标的数量即为人流密度;
所述对所述视频进行分析,判断所述目标是否为人形目标具体包括:
对所述视频进行抓取帧处理,得到每一时刻对应的图像帧;
以第一时刻对应的图像帧作为对比图像帧,以第二时刻对应的图像帧作为待测图像帧;
将所述待测图像帧与所述对比图像帧进行插分运算,得到运算结果,并根据所述运算结果判断所述待测图像帧内是否存在运动目标;
若所述待测图像帧内存在运动目标,则以所述待测图像帧作为目标图像帧,并选取所述待测图像帧下一时刻对应的图像帧作为待测图像帧,返回“将所述待测图像帧与所述对比图像帧进行插分运算”的步骤,直至除第一时刻以外的每一时刻对应的图像帧均已进行运动目标的检测;
若所述待测图像帧内不存在运动目标,则以所述待测图像帧作为对比图像帧,并选取所述待测图像帧下一时刻对应的图像帧作为待测图像帧,返回“将所述待测图像帧与所述对比图像帧进行插分运算”的步骤,直至除第一时刻以外的每一时刻对应的图像帧均已进行运动目标的检测;
对于每一所述目标图像帧,提取所述目标图像帧的HOG特征,并基于所述HOG特征,利用训练好的SVM分类模型判断所述目标图像帧中的目标是否为人形目标。
4.如权利要求3所述的一种人流密度分析方法,其特征在于,在接收雷达传输的包括目标信息的数据帧之后,所述分析方法还包括:
以所述数据帧的帧头所在字节为起始字节,以所述数据帧的最后一个字节为终止字节,对所述起始字节和所述终止字节以内的字节的数据进行累加,得到累加值;
提取所述累加值的低八位,并将所述低八位与所述数据帧帧尾所在字节的数据进行比对,对所述数据帧进行校验;若所述低八位与所述数据帧帧尾所在字节的数据一致,则所述数据帧校验通过;
根据所述校验结果判断所述数据帧内的数据是否准确;若所述数据帧校验通过,则所述数据帧内的数据准确。
5.如权利要求3所述的一种人流密度分析方法,其特征在于,所述对于每一所述目标图像帧,提取所述目标图像帧的HOG特征具体包括:
对于每一所述目标图像帧,对所述目标图像帧进行灰度化,得到灰度化后的目标图像帧;
对所述灰度化后的目标图像帧进行腐蚀处理,得到腐蚀后的目标图像帧;
对所述腐蚀后的目标图像帧进行膨胀处理,得到膨胀后的目标图像帧;
提取所述膨胀后的目标图像帧的HOG特征,得到所述目标图像帧的HOG特征。
6.如权利要求3所述的一种人流密度分析方法,其特征在于,所述将所述待测图像帧与所述对比图像帧进行插分运算,得到运算结果,并根据所述运算结果判断所述待测图像帧内是否存在运动目标具体包括:
对于所述待测图像帧的每一像素点,计算所述像素点的灰度值与所述对比图像帧中对应像素点的灰度值的差值,得到所述像素点的灰度差;
对所有所述像素点的灰度差进行求和,得到所述待测图像帧和所述对比图像帧的图像灰度差;所述图像灰度差即为运算结果;
判断所述运算结果是否处于预设阈值内;若所述运算结果不处于预设阈值内,则所述待测图像帧内存在运动目标。
7.如权利要求3所述的一种人流密度分析方法,其特征在于,所述对所述人形目标进行相似度计算,得到不同的人形目标的数量具体包括:
以包含所述人形目标的所述目标图像帧作为统计图像帧;
提取第一张所述统计图像帧中每个人形目标的特征值,得到目标基准集合;
以第二张所述统计图像帧作为待测统计图像帧;
提取所述待测统计图像帧中每个人形目标的特征值,得到第一集合;
对于所述第一集合的每一个特征值,计算所述特征值与所述目标基准集合的每一特征值之间的欧氏距离,根据所述欧氏距离判断所述目标基准集合内是否存在与所述特征值相似的第一特征值;
若所述目标基准集合内不存在与所述特征值相似的第一特征值,则将所述特征值保存在目标基准集合内,得到更新后的目标基准集合;
以所述更新后的目标基准集合作为下一循环中的目标基准集合,以所述待测统计图像帧的下一张统计图像帧作为下一循环中的待测统计图像帧,返回“提取所述待测统计图像帧中每个人形目标的特征值,得到第一集合”的步骤;
根据所述目标基准集合内的特征值的数量得到不同的人形目标的数量。
8.如权利要求7所述的一种人流密度分析方法,其特征在于,所述分析方法还包括对所述目标信息进行解析,得到所述目标的位置信息;所述位置信息包括横坐标、纵坐标和方位角。
9.如权利要求8所述的一种人流密度分析方法,其特征在于,将所述人形目标的位置信息均叠加到所述视频的左上方,且任意相邻两个所述人形目标的位置信息之间间隔预设长度。
CN202110245319.0A 2021-03-05 2021-03-05 一种人流密度分析系统及分析方法 Active CN113163110B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110245319.0A CN113163110B (zh) 2021-03-05 2021-03-05 一种人流密度分析系统及分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110245319.0A CN113163110B (zh) 2021-03-05 2021-03-05 一种人流密度分析系统及分析方法

Publications (2)

Publication Number Publication Date
CN113163110A CN113163110A (zh) 2021-07-23
CN113163110B true CN113163110B (zh) 2022-04-08

Family

ID=76884335

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110245319.0A Active CN113163110B (zh) 2021-03-05 2021-03-05 一种人流密度分析系统及分析方法

Country Status (1)

Country Link
CN (1) CN113163110B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110232314A (zh) * 2019-04-28 2019-09-13 广东工业大学 一种基于改进的Hog特征结合神经网络的图像行人检测方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11397258B2 (en) * 2015-07-17 2022-07-26 Origin Wireless, Inc. Method, apparatus, and system for outdoor target tracking
FR3031192B1 (fr) * 2014-12-30 2017-02-10 Thales Sa Procede de suivi optique assiste par radar et systeme de mission pour la mise en oeuvre de procede
JP6413898B2 (ja) * 2015-04-02 2018-10-31 株式会社デンソー 歩行者判定装置
CN105069429B (zh) * 2015-07-29 2018-05-15 中国科学技术大学先进技术研究院 一种基于大数据平台的人流量分析统计方法和系统
EP3133469B1 (en) * 2015-08-18 2019-11-13 Sikorsky Aircraft Corporation System and method for digitization of vehicular components
CN205142414U (zh) * 2015-11-24 2016-04-06 陕西亿达泰电子科技有限公司 一种基于雷达的视频联动监控装置
WO2018011964A1 (ja) * 2016-07-15 2018-01-18 三菱電機株式会社 移動物体検出装置
KR101967305B1 (ko) * 2016-10-14 2019-05-15 주식회사 만도 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템
CN108037501B (zh) * 2018-01-30 2023-10-03 长沙深之瞳信息科技有限公司 一种能获取目标俯仰向角度的区域警戒雷达系统及方法
CN108965809B (zh) * 2018-07-20 2020-12-01 长安大学 雷达引导的视频联动监控系统及控制方法
CN109343050B (zh) * 2018-11-05 2021-08-27 浙江大华技术股份有限公司 一种雷达视频监测方法及装置
CN109982043A (zh) * 2019-04-02 2019-07-05 西安华腾微波有限责任公司 一种智能监控的信息处理方法及装置
CN110738105A (zh) * 2019-09-05 2020-01-31 哈尔滨工业大学(深圳) 一种基于深度学习的计算城市街道小区人流量的方法、装置、系统及存储介质
CN110708518B (zh) * 2019-11-05 2021-05-25 北京深测科技有限公司 一种人流分析预警疏导方法及系统
KR102118125B1 (ko) * 2020-01-15 2020-06-09 주식회사 사라다 레이더와 카메라를 이용한 영상 관제 장치 및 방법
CN112133087A (zh) * 2020-08-12 2020-12-25 苏州思扬智慧科技有限公司 一种轨道交通智慧客流分析与导引系统及其客流分析与导引的方法
CN112115828A (zh) * 2020-09-09 2020-12-22 苏州思扬智慧科技有限公司 一种基于点云和相机融合的人和人脸检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110232314A (zh) * 2019-04-28 2019-09-13 广东工业大学 一种基于改进的Hog特征结合神经网络的图像行人检测方法

Also Published As

Publication number Publication date
CN113163110A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN108710865B (zh) 一种基于神经网络的司机异常行为检测方法
CN109636771B (zh) 基于图像处理的飞行目标检测方法及系统
US11410035B2 (en) Real-time target detection method deployed on platform with limited computing resources
CN107993245B (zh) 一种空天背景多目标检测和跟踪方法
CN109272509B (zh) 一种连续图像的目标检测方法、装置、设备及存储介质
CN111242973A (zh) 目标跟踪方法、装置、电子设备及存储介质
CN110782433B (zh) 基于时序的动态信息暴力抛物检测方法、装置及存储介质
CN108388879A (zh) 目标的检测方法、装置和存储介质
CN111951313B (zh) 图像配准方法、装置、设备及介质
CN111832413A (zh) 基于时空多尺度网络的人流密度图估计、定位和跟踪方法
CN107578424B (zh) 一种基于时空分类的动态背景差分检测方法、系统及装置
CN110114801B (zh) 图像前景检测装置及方法、电子设备
CN110853025A (zh) 基于多列残差空洞卷积神经网络的人群密度预测方法
CN109684986B (zh) 一种基于车辆检测跟踪的车辆分析方法及系统
CN111259736B (zh) 一种基于深度学习的复杂环境下行人实时检测方法
CN115761568A (zh) 一种基于YOLOv7网络和Deepsort网络的猕猴检测方法
CN117036737A (zh) 基于信息熵、gms与lc显著检测的特征提取与匹配方法
CN109919957B (zh) 一种基于动态视觉传感器的角点检测方法
CN113569687B (zh) 基于双流网络的场景分类方法、系统、设备及介质
CN113163110B (zh) 一种人流密度分析系统及分析方法
CN112767450A (zh) 一种基于多损失学习的相关滤波目标跟踪方法及系统
CN112183431A (zh) 实时行人数量统计方法、装置、相机和服务器
CN110930436A (zh) 一种目标跟踪方法及设备
CN114648730A (zh) 一种梯度统计结合局部匹配的红外目标跟踪方法及系统
CN110738638B (zh) 视觉显著性检测算法适用性预测与性能盲评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant