CN109583366A - 一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法 - Google Patents
一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法 Download PDFInfo
- Publication number
- CN109583366A CN109583366A CN201811433932.XA CN201811433932A CN109583366A CN 109583366 A CN109583366 A CN 109583366A CN 201811433932 A CN201811433932 A CN 201811433932A CN 109583366 A CN109583366 A CN 109583366A
- Authority
- CN
- China
- Prior art keywords
- evacuation
- wifi
- data
- video
- track data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 238000005457 optimization Methods 0.000 claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims abstract description 15
- 238000011156 evaluation Methods 0.000 claims abstract description 9
- 230000000007 visual effect Effects 0.000 claims abstract description 9
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 7
- 230000008676 import Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 230000003542 behavioural effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 238000009877 rendering Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 241001269238 Data Species 0.000 abstract 1
- 238000002474 experimental method Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000003703 image analysis method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Marketing (AREA)
- Geometry (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Alarm Systems (AREA)
Abstract
本发明提出了一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法,属于建筑安全与疏散技术领域。所述方法首先在体育建筑中布设多个视频拍摄设备和WiFi定位AP接入点,通过采集视频数据和WiFi定位数据形成相应数据库;其次获得基于视频的疏散轨迹数据和基于WiFi的疏散轨迹数据;然后通过SIFT算法对两个疏散轨迹数据进行匹配识别,使用基于WiFi的疏散轨迹数据对基于视频的疏散轨迹数据进行尺寸和形状的校准,然后通过神经网络算法进行数据融合,获得优化的疏散轨迹数据;最后,建立疏散区域三维模型,将优化的疏散轨迹数据导入所述疏散区域三维模型中,结合可视化编程工具进行疏散性能评价。
Description
技术领域
本发明涉及一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法,属于建筑安全与疏散技术领域。
背景技术
近年来随着文化体育事业的蓬勃发展,我国体育场地设施数量也大幅度增加。由于体育场建筑疏散期间在较短时间内聚集了高密度使用人员,疏散设计不当可能导致安全时间内人员不能完全撤离,或引发拥挤、骚乱、践踏等事故,造成严重后果。而对人群疏散行为的研究,能够帮助设计者对体育建筑中的人流疏散通道进行综合分析与评价,辅助建立合理的建筑布局,以及在紧急情况下人员的疏散方案。对可能发生的紧急疏散形成有效地疏导,保证观众的生命财产安全,具有重要的意义。
人群疏散轨迹反映了人群在疏散过程中的路径选择,与其他行人的位置关系以及与其他物体的距离,在与时间结合时还可以反映疏散者的速度、疏散的动态过程等,具有丰富的信息量,是人群疏散行为研究中的一种重要方法。
目前获得人群疏散轨迹的方法主要有软件模拟、真人实验、从真实疏散过程提取三种途径。由于真实疏散情况下人群的组成复杂性和人群决策行为的复杂性,现有的软件模拟方法都会对疏散人群组成、使用者运动状况、使用者心理状况和判断决策等做一定程度的简化和假定,其模拟的轨迹往往与实际有所偏差;真人实验的方法由于成本较高,往往只能在小规模人群中进行,难以模拟大规模人群的疏散情况,同时由于真人实验中实验者的心态和真实疏散情况有所不同,在实验中的疏散行为并不能完全反应真实疏散情况;从真实疏散过程中提取疏散路径往往更加真实,但相应的难度也更大。目前可使用的方法主要有基于视频图像的分析方法和基于无线定位技术的方法。这两种方法都存在一定的局限:视频分析法存在以下缺点:(1)视频的图像存在透视变形现象,虽然可以通过反透视公式进行纠正,但结果仍然有一定偏差;(2)视频中存在遮挡现象,可能导致部分疏散者被部分或全部遮挡而无法识别,造成数据缺失;(3)视频的图像缺乏定量的尺度参照,只能通过已知长度的物体作为参照进行估计,存在误差。(4)由于镜头视角范围的局限,只能拍摄到镜头所及的局部区域的疏散情况,对整个场地完整情况的拍摄往往需要多个镜头共同拍摄。无线定位的方法有WiFi、ZigBee、蓝牙和超宽带、红外线技术、RFID射频技术等。其中由于WiFi的普及率最高,获取成本低,更适合用于大规模人群疏散的研究。但WiFi定位法存在由于仅能捕捉到携带可接收WiFi信号的移动设备的疏散者,不能捕捉由于特殊情况手机关机的人群和一些没有携带移动设备的人群,如儿童、部分不习惯用智能手机的老人等,造成样本数据缺失的问题;同时由于电磁信号的干扰和物体的遮挡等原因,采集到的数据可能包含大量无用的噪声或存在数据缺失。
发明内容
本发明为了解决现有的疏散轨迹生成方法的局限性,提出了一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法,该方法通过将视频图像分析和WiFi定位这两种方法结合,弥补了视频分析方法存在透视变形、遮挡现象、缺乏参照尺度的局限性和WiFi定位方法存在样本缺失值、包含大量无用噪声的局限性,是一种低成本、高效、准确的疏散轨迹生成方法。
一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法,所述方法包括:
步骤1、在观众疏散之前,于体育建筑中布设多个视频拍摄设备和WiFi定位AP接入点,在观众疏散过程中,通过视频拍摄设备和WiFi定位AP实时采集视频数据和WiFi定位数据,形成视频数据库和WiFi定位数据库;
步骤2、对步骤1形成的所述视频数据库进行数据处理,获得基于视频的疏散轨迹数据;
步骤3、对步骤1形成的所述WiFi定位数据库进行数据处理,获得基于WiFi的疏散轨迹数据;
步骤4、通过SIFT算法对所述基于视频的疏散轨迹数据和基于WiFi的疏散轨迹数据进行匹配识别,使用基于WiFi的疏散轨迹数据对基于视频的疏散轨迹数据进行尺寸和形状的校准,然后通过神经网络算法进行数据融合,获得优化的疏散轨迹数据;
步骤5、建立疏散区域三维模型,将步骤4获得的所述优化的疏散轨迹数据导入所述疏散区域三维模型中,结合可视化编程工具进行人群运动状态、疏散通道和安全出口部位的疏散性能评价。
进一步地,步骤1所述实时采集视频数据和WiFi定位数据的过程包括:
在体育场馆中一个区域周边布置多台视频拍摄设备,在观众疏散过程中获得不同角度的观众疏散数据,所述观众疏散数据包括观众疏散的画面和所述画面对应的时间;
在体育场馆中布置多个WiFi定位AP接入点,在疏散过程中采集WiFi定位数据,所述WiFi定位数据包括数据采集的时间、设备的MAC地址以及信号强度RSSI值信息。
进一步地,步骤2所述获取基于视频的疏散轨迹数据的过程包括:
步骤一、对视频图像进行预处理;
步骤二、利用即时差分算法提取图像中的运动区域,
步骤三、结合基于形状的分类方式以及基于运动的分类方式从运动人群中筛选出观众对象;
步骤四、建立混合色彩模型进行运动人群头部区域检测;
步骤五、以疏散者头部的位置代替疏散者位置,获得根据时间变化的运动轨迹;
步骤六、使用反透视算法求出真实世界中的运动轨迹;
步骤七、通过参照物尺度推算出运动轨迹的实际尺度,从而得到基于视频的疏散轨迹。
上述视频分析过程主要使用Matlab工具下的Simulink模块实现。
进一步地,步骤3所述获得基于WiFi的疏散轨迹数据的过程包括:
第一步、对获得的Wifi数据进行脱敏、清洗和缺失值处理;
第二步、以基于距离的信号指示模型将RSSI值转化为距离;
第三步、使用加权循环三边组合测量法计算获得目标位置,形成目标的运动轨迹数据。
进一步地,第二步中通过利用对数距离路径损耗模型完成RSSI值向距离的转化,所述对数距离路径损耗模型如下:
其中,Xσ是一个均值为0,均方为σ的高斯随机变量,取值范围为4~10;n为路径损耗系数,据不同环境其取值范围为2~5;Pr(d)和Pr(d0)分别表示距离d和d0处的信号强度;实际应用中,Pr(d0)作为参考距离d0=1m处的参考信号强度;通过各已知量求出d值;
进一步地,第三步所述使用加权循环三边组合测量法计算获得目标位置,形成目标的运动轨迹数据的具体过程包括:
第1步、分组划分:将N个AP接收点接收的RSSI值计算出的d值按每三个参考节点的定位数据为一组进行划分,不可重复;
第2步、确定分组估算坐标:对每个分组的参考节点执行三边测量法并计算得到一个待测节点的估计坐标共可得CN 3个估计坐标(i=1,2,……N),其中,三边测量法具体方法为:将每个分组的三个参考节点分别定义为(x1,y1)、(x2,y2)、(x3,y3),目标到各个AP的距离分别为d1、d2、d3,则通过以下公式计算得出目标的位置
第3步、确定权重值:对每组参考节点确定的△ABC计算其最小角的角度值βi,将βi作为对应估算坐标的权重值;
第4步、计算待测节点坐标:根据每个估算坐标和相应的权重值,用权重重心法计算待测节点的最终估计坐标:
第5步、将多组位置信息依据时间连接得到每一目标的运动轨迹,将多个目标的运动轨迹进行整合,得到观众群体的基于WiFi定位的疏散轨迹。
进一步地,步骤4所述通过SIFT算法对所述基于视频的疏散轨迹数据和基于WiFi的疏散轨迹数据进行匹配识别的具体过程包括:
A1、分别生成基于视频图像的疏散轨迹和基于WiFi定位的疏散轨迹的俯瞰视角图像;
A2、利用SIFT特征提取算法,匹配两俯瞰视角图像中的特征点;
A3、将特征点匹配度高的轨迹两两对应,建立轨迹映射关系;
A4、将对应轨迹中同一时间的位置点两两对应,建立位置点映射关系。
进一步地,步骤4所述使用基于WiFi的疏散轨迹数据对基于视频的疏散轨迹数据进行尺寸和形状的校准的具体过程包括:
B1、提取基于视频图像的疏散轨迹和基于WiFi定位的疏散轨迹中一对特征点P和P*,其中,P为基于视频图像的疏散轨迹点,P*为基于WiFi定位的疏散轨迹点;
B2、对所述特征点P和P*划定邻域范围,计算所述特征点P和P*分别与邻域中的点的欧式距离(d1、d2、d3……dn)、(d*1、d*2、d*3……d*n),从而计算单点缩放系数:
B3、计算多对特征点的单点缩放系数λ值,将所有单点缩放系数取算数平均值作为缩放系数,对基于视频图像的疏散轨迹数据整体以进行缩放尺度校正;
B4、通过计算每对特征点的矢量向量,建立旋转校正矩阵,对基于视频图像的疏散轨迹数据进行形状校正。
进一步地,步骤4所述通过神经网络算法进行数据融合,获得优化的疏散轨迹数据的具体过程包括:
C1、使用前馈型BP神经网络算法构建网络结构;
C2、将输入信号通过前馈型BP神经网络算法构建网络结构中的隐含层运算传给输出层,与输出层的预期结果进行比较,计算出误差;
C3、将所述误差反向传播从而不断更新权重缩小误差,实现对疏散轨迹数据的优化,获得优化后的疏散轨迹数据。
进一步地,所述步骤5具体为:使用Rhino-Grasshopper等建模-分析平台建立疏散区域三维模型,导入优化的疏散轨迹数据。结合可视化编程工具,进行人群疏散行为分析和建筑走道、出口等的疏散性能评价。
本发明有益效果:
(1)本发明针对真实疏散行为进行轨迹提取,避免了计算机仿真和实验模拟无法反映真实疏散情况的问题;同时本发明结合了视频图像分析方法和WiFi定位法,对两种方法进行取长补短、数据融合,其结果相比单一的数据源具有更高的精度。
(2)本发明采用的视频图像分析方法和WiFi定位法都可以及时搜集大量人群疏散原始数据,具有效率高、样本容量大的优点。
(3)本发明采用WiFi定位的方法,无需为受试者佩戴硬件设备,减少了成本投入,尤其在大规模的人群研究中具有更加显著的意义。
附图说明
图1为本发明一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法的流程图。
图2为本发明B-P神经网络算法结构图。
具体实施方式
下面结合具体实施例对本发明做进一步说明,但本发明不受实施例的限制。
实施例1:
一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法,如图1所示,所述方法包括:
步骤1、在观众疏散之前,于体育建筑中布设多个视频拍摄设备和WiFi定位AP接入点,在观众疏散过程中,通过视频拍摄设备和WiFi定位AP实时采集视频数据和WiFi定位数据,形成视频数据库和WiFi定位数据库;
具体为:在体育场馆中一个区域周边布置多台视频拍摄设备,在观众疏散过程中获得不同角度的观众疏散数据,所述观众疏散数据包括观众疏散的画面和所述画面对应的时间;在体育场馆中布置多个WiFi定位AP接入点,在疏散过程中采集WiFi定位数据,所述WiFi定位数据包括数据采集的时间、设备的MAC地址以及信号强度RSSI值信息。
步骤2、对步骤1形成的所述视频数据库进行数据处理,获得基于视频的疏散轨迹数据;
步骤3、对步骤1形成的所述WiFi定位数据库进行数据处理,获得基于WiFi的疏散轨迹数据;
步骤4、通过SIFT算法对所述基于视频的疏散轨迹数据和基于WiFi的疏散轨迹数据进行匹配识别,使用基于WiFi的疏散轨迹数据对基于视频的疏散轨迹数据进行尺寸和形状的校准,然后通过神经网络算法进行数据融合,获得优化的疏散轨迹数据;
步骤5、建立疏散区域三维模型,将步骤4获得的所述优化的疏散轨迹数据导入所述疏散区域三维模型中,结合可视化编程工具进行人群运动状态、疏散通道和安全出口部位的疏散性能评价。
本实施例中,步骤2所述获取基于视频的疏散轨迹数据的具体实施过程包括:
Step1:将视频分解为逐帧的图像序列,对图像进行预处理,所述预处理包括通过卡尔曼滤波算法、混合高斯模型算法解决光照变化、阴影和镜头晃动的问题;
Step 2:使用即时差分算法,比较视频的图片序列中相邻的三帧图像中像素的差异来提取运动区域,通过关联组件分析,提取出运动部分聚集成运动区域;
Step 3:结合基于形状的分类方式以及基于运动的分类方式从运动人群中筛选出观众对象;其中,所述基于形状的分类方式具体为通过图像斑点分散度、图像斑点面积和轮廓长宽比作为关键特征来区分目标的方法;所述基于运动的分类方式具体为利用人的活动呈现非刚性、铰接式和周期性的特点从运动群体中筛选出观众对象的方法;
Step 4:根据头发颜色在RGB和HSV颜色空间、脸部颜色在YUV颜色空间中的聚类情况,建立混合颜色模型进行头部区域检测;
Step 5:通过提取每一帧图像中疏散者头部的位置,并与帧所代表的时间对应,获得疏散者根据时间变化的带有透视的运动轨迹;
Step 6:使用反透视算法求出真实世界中的运动轨迹,其中,假设坐标原点位于图像画面左下角,此时,所述反透视算法的转换公式如下:
式中,M1是一个3乘4的本征矩阵,由摄像机内部参数确定,(fx,fy)为焦点坐标,(u0,v0)为投影中心;M2由一个旋转矩阵R和一个变换矩阵T组成;偏航角和俯仰角将决定这个旋转矩阵R,变换矩阵T由相机位置决定;
A7:通过参照物(如过道宽度、座椅高度等)的尺度推算出运动轨迹的实际尺度,从而得到基于视频的疏散轨迹。
上述视频分析过程主要使用Matlab工具下的Simulink模块实现。
步骤3所述获得基于WiFi的疏散轨迹数据的过程包括:
第一步、对获得的Wifi数据进行脱敏、清洗和缺失值处理;
第二步、以基于距离的信号指示模型将RSSI值转化为距离;
第三步、使用加权循环三边组合测量法计算获得目标位置,形成目标的运动轨迹数据。
其中,第二步中通过利用对数距离路径损耗模型完成RSSI值向距离的转化,所述对数距离路径损耗模型如下:
其中,Xσ是一个均值为0,均方为σ的高斯随机变量,取值范围为4~10;n为路径损耗系数,据不同环境其取值范围为2~5;Pr(d)和Pr(d0)分别表示距离d和d0处的信号强度;实际应用中,Pr(d0)作为参考距离d0=1m处的参考信号强度;通过各已知量求出d值;
第三步所述使用加权循环三边组合测量法计算获得目标位置,形成目标的运动轨迹数据的具体过程包括:
第1步、分组划分:将N个AP接收点接收的RSSI值计算出的d值按每三个参考节点的定位数据为一组进行划分,不可重复;
第2步、确定分组估算坐标:对每个分组的参考节点执行三边测量法并计算得到一个待测节点的估计坐标共可得CN 3个估计坐标(i=1,2,……N),其中,三边测量法具体方法为:将每个分组的三个参考节点分别定义为(x1,y1)、(x2,y2)、(x3,y3),目标到各个AP的距离分别为d1、d2、d3,则通过以下公式计算得出目标的位置
第3步、确定权重值:对每组参考节点确定的△ABC计算其最小角的角度值βi,将βi作为对应估算坐标的权重值;
第4步、计算待测节点坐标:根据每个估算坐标和相应的权重值,用权重重心法计算待测节点的最终估计坐标:
第5步、将多组位置信息依据时间连接得到每一目标的运动轨迹,将多个目标的运动轨迹进行整合,得到观众群体的基于WiFi定位的疏散轨迹。
步骤4所述通过SIFT算法对所述基于视频的疏散轨迹数据和基于WiFi的疏散轨迹数据进行匹配识别的具体过程包括:
A1、分别生成基于视频图像的疏散轨迹和基于WiFi定位的疏散轨迹的俯瞰视角图像;
A2、利用SIFT特征提取算法,匹配两俯瞰视角图像中的特征点;
A3、将特征点匹配度高的轨迹两两对应,建立轨迹映射关系;
A4、将对应轨迹中同一时间的位置点两两对应,建立位置点映射关系。
步骤4所述使用基于WiFi的疏散轨迹数据对基于视频的疏散轨迹数据进行尺寸和形状的校准的具体过程包括:
B1、提取基于视频图像的疏散轨迹和基于WiFi定位的疏散轨迹中一对特征点P和P*,其中,P为基于视频图像的疏散轨迹点,P*为基于WiFi定位的疏散轨迹点;
B2、对所述特征点P和P*划定邻域范围,计算所述特征点P和P*分别与邻域中的点的欧式距离(d1、d2、d3……dn)、(d*1、d*2、d*3……d*n),从而计算单点缩放系数:
B3、计算多对特征点的单点缩放系数λ值,将所有单点缩放系数取算数平均值作为缩放系数,对基于视频图像的疏散轨迹数据整体以进行缩放尺度校正;
B4、通过计算每对特征点的矢量向量,建立旋转校正矩阵,对基于视频图像的疏散轨迹数据进行形状校正。
步骤4所述通过神经网络算法进行数据融合,获得优化的疏散轨迹数据的具体过程包括:
C1、使用前馈型BP神经网络算法构建网络结构;
C2、将输入信号通过前馈型BP神经网络算法构建网络结构中的隐含层运算传给输出层,与输出层的预期结果进行比较,计算出误差;
C3、将所述误差反向传播从而不断更新权重缩小误差,实现对疏散轨迹数据的优化,获得优化后的疏散轨迹数据。
上述过程在实际应用中的具体形式为:
用newff()函数创建前向型BP神经网络,调用train函数进行训练,传递函数为tansig(),设定训练目标误差和最大训练次数,采用标准的梯度下降算法进行训练,由于newff()函数具有随机性,每一次的训练结果会有所不同,当训练达到期望之后,使用sim函数进行仿真。
所述步骤5具体为:使用Rhino-Grasshopper等建模-分析平台建立疏散区域三维模型,导入优化的疏散轨迹数据。结合可视化编程工具,进行人群疏散行为分析和建筑走道、出口等的疏散性能评价。具体为:
对体育场馆的疏散区域进行测绘,使用Rhino-Grasshopper平台建立疏散区域的三维模型;将优化后的轨迹数据导入Rhino-Grasshopper平台,使用可视化编程语言进行编程,对数据进行量化,获取每一轨迹中每一定位点的坐标和对应时间,以及定位点与周边环境物体的距离,对人群运动状态的分析包括疏散者的瞬时速度、人流涌速、人群平均速度和人群密度,这些值可由下面的公式求出:
通过疏散者在ti-Δt′/2时刻位置(x0,y0)与ti+Δt′/2时刻位置(x1,y1),可以计算出疏散者在ti时刻的瞬时速度vi,单位为(m/s):
疏散路径某一截面在Δt时间内通过人数为NΔt,人流涌速J*Δt代表该截面单位时间通过的人数,单位为(人/s),可由下式求出:
其中,tNΔt表示第N个人离开截面的时刻;t1Δt代表第一个人进入截面的时刻。
人群平均速度v*Δt反映了人群整体的疏散速度,单位为(m/s),可由下式求出:
人群密度ρΔt代表每平方米区域上疏散者个数,单位为(人/㎡),可由下式求出:
分析疏散者在疏散过程中瞬时速度的变化,其中速度较小的区域很可能是易造成拥堵的区域;某一截面人流涌速随时间的变化情况可以反映这一位置人流疏散的动态过程;对建筑走道的疏散性能评价可以通过走道上的人群密度及疏散者与过道边缘、墙体、座位等的距离综合分析,从而评估疏散过道宽度的合理性;对出口的疏散性能评价可以通过出口截面的人流涌速、人群在出口处的速度变化、总的疏散时间进行评价。
虽然本发明已以较佳的实施例公开如上,但其并非用以限定本发明,任何熟悉此技术的人,在不脱离本发明的精神和范围内,都可以做各种改动和修饰,因此本发明的保护范围应该以权利要求书所界定的为准。
Claims (10)
1.一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法,其特征在于,所述方法包括:
步骤1、在观众疏散之前,于体育建筑中布设多个视频拍摄设备和WiFi定位AP接入点,在观众疏散过程中,通过视频拍摄设备和WiFi定位AP实时采集视频数据和WiFi定位数据,形成视频数据库和WiFi定位数据库;
步骤2、对步骤1形成的所述视频数据库进行数据处理,获得基于视频的疏散轨迹数据;
步骤3、对步骤1形成的所述WiFi定位数据库进行数据处理,获得基于WiFi的疏散轨迹数据;
步骤4、通过SIFT算法对所述基于视频的疏散轨迹数据和基于WiFi的疏散轨迹数据进行匹配识别,使用基于WiFi的疏散轨迹数据对基于视频的疏散轨迹数据进行尺寸和形状的校准,然后通过神经网络算法进行数据融合,获得优化的疏散轨迹数据;
步骤5、建立疏散区域三维模型,将步骤4获得的所述优化的疏散轨迹数据导入所述疏散区域三维模型中,结合可视化编程工具进行人群运动状态、疏散通道和安全出口部位的疏散性能评价。
2.根据权利要求1所述体育建筑疏散人群轨迹生成方法,其特征在于,步骤1所述实时采集视频数据和WiFi定位数据的过程包括:
在体育场馆中一个区域周边布置多台视频拍摄设备,在观众疏散过程中获得不同角度的观众疏散数据,所述观众疏散数据包括观众疏散的画面和所述画面对应的时间;
在体育场馆中布置多个WiFi定位AP接入点,在疏散过程中采集WiFi定位数据,所述WiFi定位数据包括数据采集的时间、设备的MAC地址以及信号强度RSSI值信息。
3.根据权利要求1所述体育建筑疏散人群轨迹生成方法,其特征在于,步骤2所述获取基于视频的疏散轨迹数据的过程包括:
步骤一、对视频图像进行预处理;
步骤二、利用即时差分算法提取图像中的运动区域,
步骤三、结合基于形状的分类方式以及基于运动的分类方式从运动人群中筛选出观众对象;
步骤四、建立混合色彩模型进行运动人群头部区域检测;
步骤五、以疏散者头部的位置代替疏散者位置,获得根据时间变化的运动轨迹;
步骤六、使用反透视算法求出真实世界中的运动轨迹;
步骤七、通过参照物尺度推算出运动轨迹的实际尺度,从而得到基于视频的疏散轨迹。
4.根据权利要求1所述体育建筑疏散人群轨迹生成方法,其特征在于,步骤3所述获得基于WiFi的疏散轨迹数据的过程包括:
第一步、对获得的Wifi数据进行脱敏、清洗和缺失值处理;
第二步、以基于距离的信号指示模型将RSSI值转化为距离;
第三步、使用加权循环三边组合测量法计算获得目标位置,形成目标的运动轨迹数据。
5.根据权利要求4所述体育建筑疏散人群轨迹生成方法,其特征在于,第二步中通过利用对数距离路径损耗模型完成RSSI值向距离的转化,所述对数距离路径损耗模型如下:
其中,Xσ是一个均值为0,均方为σ的高斯随机变量,取值范围为4~10;n为路径损耗系数,据不同环境其取值范围为2~5;Pr(d)和Pr(d0)分别表示距离d和d0处的信号强度;实际应用中,Pr(d0)作为参考距离d0=1m处的参考信号强度;通过各已知量求出d值。
6.根据权利要求4所述体育建筑疏散人群轨迹生成方法,其特征在于,第三步所述使用加权循环三边组合测量法计算获得目标位置,形成目标的运动轨迹数据的具体过程包括:
第1步、分组划分:将N个AP接收点接收的RSSI值计算出的d值按每三个参考节点的定位数据为一组进行划分,不可重复;
第2步、确定分组估算坐标:对每个分组的参考节点执行三边测量法并计算得到一个待测节点的估计坐标共可得CN 3个估计坐标(i=1,2,……N),其中,三边测量法具体方法为:将每个分组的三个参考节点分别定义为(x1,y1)、(x2,y2)、(x3,y3),目标到各个AP的距离分别为d1、d2、d3,则通过以下公式计算得出目标的位置
第3步、确定权重值:对每组参考节点确定的△ABC计算其最小角的角度值βi,将βi作为对应估算坐标的权重值;
第4步、计算待测节点坐标:根据每个估算坐标和相应的权重值,用权重重心法计算待测节点的最终估计坐标:
第5步、将多组位置信息依据时间连接得到每一目标的运动轨迹,将多个目标的运动轨迹进行整合,得到观众群体的基于WiFi定位的疏散轨迹。
7.根据权利要求1所述体育建筑疏散人群轨迹生成方法,其特征在于,步骤4所述通过SIFT算法对所述基于视频的疏散轨迹数据和基于WiFi的疏散轨迹数据进行匹配识别的具体过程包括:
A1、分别生成基于视频图像的疏散轨迹和基于WiFi定位的疏散轨迹的俯瞰视角图像;
A2、利用SIFT特征提取算法,匹配两俯瞰视角图像中的特征点;
A3、将特征点匹配度高的轨迹两两对应,建立轨迹映射关系;
A4、将对应轨迹中同一时间的位置点两两对应,建立位置点映射关系。
8.根据权利要求1所述体育建筑疏散人群轨迹生成方法,其特征在于,步骤4所述使用基于WiFi的疏散轨迹数据对基于视频的疏散轨迹数据进行尺寸和形状的校准的具体过程包括:
B1、提取基于视频图像的疏散轨迹和基于WiFi定位的疏散轨迹中一对特征点P和P*,其中,P为基于视频图像的疏散轨迹点,P*为基于WiFi定位的疏散轨迹点;
B2、对所述特征点P和P*划定邻域范围,计算所述特征点P和P*分别与邻域中的点的欧式距离(d1、d2、d3……dn)、(d*1、d*2、d*3……d*n),从而计算单点缩放系数:
B3、计算多对特征点的单点缩放系数λ值,将所有单点缩放系数取算数平均值作为缩放系数,对基于视频图像的疏散轨迹数据整体以进行缩放尺度校正;
B4、通过计算每对特征点的矢量向量,建立旋转校正矩阵,对基于视频图像的疏散轨迹数据进行形状校正。
9.根据权利要求1所述体育建筑疏散人群轨迹生成方法,其特征在于,步骤4所述通过神经网络算法进行数据融合,获得优化的疏散轨迹数据的具体过程包括:
C1、使用前馈型BP神经网络算法构建网络结构;
C2、将输入信号通过前馈型BP神经网络算法构建网络结构中的隐含层运算传给输出层,与输出层的预期结果进行比较,计算出误差;
C3、将所述误差反向传播从而不断更新权重缩小误差,实现对疏散轨迹数据的优化,获得优化后的疏散轨迹数据。
10.根据权利要求1所述体育建筑疏散人群轨迹生成方法,其特征在于,所述步骤5具体为:使用Rhino-Grasshopper等建模-分析平台建立疏散区域三维模型,导入优化的疏散轨迹数据。结合可视化编程工具,进行人群疏散行为分析和建筑走道、出口的疏散性能评价。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811433932.XA CN109583366B (zh) | 2018-11-28 | 2018-11-28 | 一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811433932.XA CN109583366B (zh) | 2018-11-28 | 2018-11-28 | 一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109583366A true CN109583366A (zh) | 2019-04-05 |
CN109583366B CN109583366B (zh) | 2022-04-08 |
Family
ID=65924818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811433932.XA Active CN109583366B (zh) | 2018-11-28 | 2018-11-28 | 一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109583366B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110940316A (zh) * | 2019-12-09 | 2020-03-31 | 国网山东省电力公司 | 复杂环境下变电站消防机器人的导航方法及系统 |
CN110989599A (zh) * | 2019-12-09 | 2020-04-10 | 国网智能科技股份有限公司 | 一种变电站消防机器人自主作业控制方法及系统 |
CN112084959A (zh) * | 2020-09-11 | 2020-12-15 | 腾讯科技(深圳)有限公司 | 一种人群图像处理方法及装置 |
CN113470066A (zh) * | 2020-03-31 | 2021-10-01 | 中国科学技术大学 | 行人疏散轨迹成分分离方法 |
CN113780206A (zh) * | 2021-09-16 | 2021-12-10 | 福建平潭瑞谦智能科技有限公司 | 一种基于视频图像分析处理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070168288A1 (en) * | 2006-01-13 | 2007-07-19 | Trails.Com, Inc. | Method and system for dynamic digital rights bundling |
CN108446469A (zh) * | 2018-03-07 | 2018-08-24 | 山东师范大学 | 一种基于视频驱动的群组行为疏散仿真方法及装置 |
CN108833420A (zh) * | 2018-06-23 | 2018-11-16 | 苏州万店掌网络科技有限公司 | 一种基于视频分析和wifi探针组合分析客流的系统 |
-
2018
- 2018-11-28 CN CN201811433932.XA patent/CN109583366B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070168288A1 (en) * | 2006-01-13 | 2007-07-19 | Trails.Com, Inc. | Method and system for dynamic digital rights bundling |
CN108446469A (zh) * | 2018-03-07 | 2018-08-24 | 山东师范大学 | 一种基于视频驱动的群组行为疏散仿真方法及装置 |
CN108833420A (zh) * | 2018-06-23 | 2018-11-16 | 苏州万店掌网络科技有限公司 | 一种基于视频分析和wifi探针组合分析客流的系统 |
Non-Patent Citations (3)
Title |
---|
YING LIU等: "Prospective Positioning Architecture and Technologies in 5G Networks", 《IEEE NETWORK》 * |
李乃鹏: "视觉-WiFi联合无线终端用户识别算法研究", 《万方数据库学位论文库》 * |
胡永利 等: "多源异构感知数据融合方法及其在目标定位跟踪中的应用", 《中国科学:信息科学》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110940316A (zh) * | 2019-12-09 | 2020-03-31 | 国网山东省电力公司 | 复杂环境下变电站消防机器人的导航方法及系统 |
CN110989599A (zh) * | 2019-12-09 | 2020-04-10 | 国网智能科技股份有限公司 | 一种变电站消防机器人自主作业控制方法及系统 |
CN113470066A (zh) * | 2020-03-31 | 2021-10-01 | 中国科学技术大学 | 行人疏散轨迹成分分离方法 |
CN113470066B (zh) * | 2020-03-31 | 2024-04-02 | 中国科学技术大学 | 行人疏散轨迹成分分离方法 |
CN112084959A (zh) * | 2020-09-11 | 2020-12-15 | 腾讯科技(深圳)有限公司 | 一种人群图像处理方法及装置 |
CN112084959B (zh) * | 2020-09-11 | 2024-04-16 | 腾讯科技(深圳)有限公司 | 一种人群图像处理方法及装置 |
CN113780206A (zh) * | 2021-09-16 | 2021-12-10 | 福建平潭瑞谦智能科技有限公司 | 一种基于视频图像分析处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109583366B (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109583366A (zh) | 一种基于视频图像和WiFi定位的体育建筑疏散人群轨迹生成方法 | |
Boltes et al. | Collecting pedestrian trajectories | |
Xie et al. | Video crowd detection and abnormal behavior model detection based on machine learning method | |
CN103886344B (zh) | 一种图像型火灾火焰识别方法 | |
CN103473554B (zh) | 人流统计系统及方法 | |
CN107256377B (zh) | 用于检测视频中的对象的方法、设备和系统 | |
CN110175576A (zh) | 一种结合激光点云数据的行驶车辆视觉检测方法 | |
CN104899883B (zh) | 一种深度图像场景的室内对象立方体检测方法 | |
CN102509104B (zh) | 基于置信度图的增强现实场景虚拟对象判别和检测方法 | |
CN110147743A (zh) | 一种复杂场景下的实时在线行人分析与计数系统及方法 | |
CN108038867A (zh) | 基于多特征融合和立体视觉的火焰检测和定位方法 | |
CN102156880A (zh) | 基于改进的社会力模型的异常集群行为检测方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
CN102509105B (zh) | 一种基于贝叶斯推理的图像场景分层处理方法 | |
CN106228507A (zh) | 一种基于光场的深度图像处理方法 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
CN105631852B (zh) | 基于深度图像等高线的室内人体检测方法 | |
CN106295657A (zh) | 一种视频数据结构化过程中提取人体高度特征的方法 | |
CN104463869A (zh) | 一种视频火焰图像复合识别方法 | |
CN106445146B (zh) | 用于头盔显示器的手势交互方法与装置 | |
CN110287798A (zh) | 基于特征模块化和上下文融合的矢量网络行人检测方法 | |
CN106815563A (zh) | 一种基于人体表观结构的人群数量预测方法 | |
Li et al. | A top–bottom clustering algorithm based on crowd trajectories for small group classification | |
CN105069829B (zh) | 一种基于多目视频的人体动画生成方法 | |
Zhi-chao et al. | Key pose recognition toward sports scene using deeply-learned model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |