CN111080679A - 一种对大型场所室内人员动态跟踪定位的方法 - Google Patents
一种对大型场所室内人员动态跟踪定位的方法 Download PDFInfo
- Publication number
- CN111080679A CN111080679A CN202010002399.2A CN202010002399A CN111080679A CN 111080679 A CN111080679 A CN 111080679A CN 202010002399 A CN202010002399 A CN 202010002399A CN 111080679 A CN111080679 A CN 111080679A
- Authority
- CN
- China
- Prior art keywords
- target
- positioning
- information
- tracking
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
Abstract
本发明公开了一种对大型场所室内人员动态跟踪定位的方法,具体如下:在场所室内区域分布若干个摄像装置;在场所入口处设置信息采集模块,通过信息采集模块对进入人员进行身份验证;在摄像装置所拍摄的图像中捕获到目标位置,得出目标当前时刻所处的世界坐标位置;当目标处于多视频装置视域重叠区域中,采用多摄像装置加权K最邻近法来提高目标人员的定位精度根据当前定位结果结合前一时间段内的目标的位置、线速度、加速度信息,对目标进行下一时刻的轨迹预测;结合目标预测区域结果,利用Camshift和Kalman滤波算法结合对目标进行跟踪,获得定位目标的实时位置信息。本发明可实时动态显示场所内人员的位置信息,并对指定人员进行快速定位和轨迹跟踪与预测。
Description
技术领域
本发明涉及室内人员跟踪定位技术领域,特别是一种对大型场所室内人员动态跟踪定位的方法。
背景技术
随着人们物质财富和精神文明的双面提升,外出旅行、参观博物馆和展览馆、参加大型室内主题活动等已成为日常生活中的一部分。相应场所设施也越来越齐全场所室内面积也越建越大,因此,对室内场所的安全服务提出了更高的要求,急需建立大型场所室内人员跟踪定位系统、建立到访人员信息数据库,快速查找目标人员所在位置及以往路径轨迹,从而有效解决未登机/检票旅客查找、人员走失、人员查找、危险份子识别与跟踪定位、事故牵涉人员轨迹回放等问题。
目前针对大型场所室内人员定位与跟踪并没有有效的解决方案,对于大型场所室内监控系统来说,单个摄像机所拍摄的视频画面,其视域范围有限,不能满足对目标人员大范围、连续性跟踪定位的需求,对多摄像机联合拍摄,因其视角和范围不同,从而视频画面又不便观测和分析,随着多视频拼接技术的发展对大范围监控和目标跟踪提供了可能,但由于技术尚未成熟所拼接出的画面又存在拼接不匹配、重影、目标跟踪结果跳变、全景效果质量低等问题。
发明内容
本发明所要解决的技术问题是克服现有技术的不足而提供一种对大型场所室内人员动态跟踪定位的方法,可实现人员位置状态等信息多角度多方式的显示,提高目标人员的定位精度。
本发明为解决上述技术问题采用以下技术方案:
根据本发明提出的一种对大型场所室内人员动态跟踪定位的方法,包括以下步骤:
步骤S1、在场所室内区域分布若干个摄像装置,对场所室内区域的所有摄像装置进行内参和外参的标定,建立世界坐标系与图像平面坐标系的对应关系;
步骤S2、在场所入口处设置信息采集模块,通过场所入口处的信息采集模块对进入人员进行身份验证,该人员为目标,核验成功后开闸放行的同时触发摄像装置对该目标进行捕获,并将目标身份信息与捕获特征进行匹配;
步骤S3、在摄像装置所拍摄的图像中捕获到目标位置,将目标位置通过坐标转换关系从图像平面坐标系下转换到世界坐标系下,从而得出目标当前时刻所处的世界坐标位置;当目标处于多视频装置视域重叠区域中时,采用多摄像装置加权K最邻近法对目标进行定位,获得该区域内世界坐标系下的位置信息;
步骤S4、根据当前定位结果结合前一时间段内的目标的位置、线速度、加速度信息,对目标进行下一时刻的轨迹预测,依据预测的方向和目标行进步长生成预测区域;
步骤S5、结合目标预测区域结果,利用Camshift和Kalman滤波算法结合对目标进行跟踪,获得定位目标的实时位置信息。
作为本发明所述的一种对大型场所室内人员动态跟踪定位的方法进一步优化方案,步骤S5后还包括步骤S6-S8,具体如下:
步骤S6、将定位目标的实时位置信息导入三维仿真模型中,利用三维显示平台进行定位结果呈现;或根据查询需求将所需查询目标的跟踪轨迹和轨迹预测结果匹配到三维仿真模型中通过三维显示平台进行展示。
步骤S7、将摄像装置所拍摄的视频文件和对目标的定位结果、路径轨迹和轨迹跟踪信息进行存储。
步骤S8、重复执行步骤S3~步骤S7,直至目标从出口离开场所停止该目标动态跟踪定位任务。
作为本发明所述的一种对大型场所室内人员动态跟踪定位的方法进一步优化方案,对场所出入口区域多方位多角度布设摄像装置,且该区域摄像装置所拍摄视频画面重叠视域必须包括整个出入闸机口,其他区域相邻两个摄像装置所拍摄视频画面重叠区域不小于10%,且全部摄像装置的成像画面合并后应覆盖整个室内场所;所有摄像装置在相同视场下具有相同的图片分辨率;所安装位置与三维仿真模型中的位置准确对应。
作为本发明所述的一种对大型场所室内人员动态跟踪定位的方法进一步优化方案,步骤S4中预测区域的信息包含区域的角度θ和区域半径R;
圆心角θ与半径R之间的对应关系,
其中,R0为1.5倍步长。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
(1)通过摄像装置实现大型场所室内人员的定位、跟踪与轨迹预测,并结合三维仿真平台,根据查询需求,可实现人员位置状态等信息多角度多方式的显示;
(2)采用单目摄像装置可对室内环境中人员进行准确定位;
(3)采用多摄像装置加权K最邻近法来提高目标人员的定位精度;
(4)根据当前定位结果,结合前一时间段内的目标的位置、线速度、加速度信息,采用区域面积相等约束对目标进行下一时刻的轨迹预测。
附图说明
图1是大型场所室内人员动态跟踪定位系统的结构示意图。
图2是大型场所室内人员动态跟踪定位方法的流程图。
图3是单目摄像装置对目标人员定位方法的示意图。
图4是Camshift和Kalman滤波相结合的跟踪算法流程图。
图5是目标人员轨迹预测的示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明进行详细描述。
图2是大型场所室内人员动态跟踪定位方法的流程图;具体如下:
1摄像装置的标定
摄像装置成像过程中需要用到四种不同的坐标系,包括:图像坐标系、成像坐标系、摄像机坐标系、世界坐标系,其中图像坐标系是以图像边缘为坐标轴设定的,成像坐标系是以成像中心坐标原点进行设定。在定位过程中我们希望将摄像机捕捉画面上的目标点在真实世界中找到该点的世界坐标,因此必须建立图像坐标系与世界坐标系的对应关系。
图像坐标系的基本单元是像素,而成像平面坐标系是以实际物理单位作为坐标值,两者的对应关系如式(1)所示。
式中,(u,v)为图像坐标系,(x,y)为成像坐标系,dx表示每个像素单元对应在x轴上的实际物理量大小,同样,dy表示像素单元在y轴实际物理量的对应,s表示两坐标之间的倾斜度。
由摄像机与成像画面的关系可知,摄像机的焦距轴垂直于成像画面,根据针孔模型利用三角形关系即可建立摄像机坐标系与成像坐标之间的对应关系,如式(2)所示。
其中,(x,y)为成像坐标系,(xc,yc,zc,1)T为摄像机坐标系,f为摄像机焦距。
摄像机坐标系与世界坐标系的对应关系如式(3)所示。
其中,(xc,yc,zc,1)T为摄像机坐标系,(xW,yW,zW,1)T为世界坐标系,R为旋转矩阵,t为平移向量,M为坐标变换矩阵。
结合以上三式,图像坐标系与世界坐标系的对应关系如下式所示。
其中,αu=f/dx,αv=f/dy,s=s′f,P为投影矩阵包含了投影变换的内参和外参。
在上述坐标转换过程中对内参的求取可采用Opencv中的方法来求取,为了提高模型参数精确度,可采用不同方向对标定板图像进行多次采集。
2单一摄像装置目标定位算法
根据摄像机线性成像原理进行目标物体定位,如图3所示,
其中,图中灰色平面为场所室内地面,Ow xw yw zw为世界坐标系,Oc xc yc zc为摄像机坐标系,o′i为成像坐标系的原点也即是成像平面的中心像素点,ui,vi分别为图像坐标系的坐标轴;Ci为第i个摄像机的位置,hi为摄像机距离地面的高度,zch为摄像机Ci到场所室内地面的垂点,oi为摄像机拍摄成像画面中心像素点也即是o′i点在真实世界的映射点,li为距离摄像机与映射点oi的水平距离;Pi为目标人员所处的位置,P′i为目标人员的头顶,hp为目标人员的高度;在摄像机坐标系下的点与图像坐标系下的映射关系如下:点P′i和点d1重合映射为点d′1、点Pi映射为点d′p、点d2映射为点d′2。覆盖Pi点的方形表示为遮挡物。定位分为目标人员脚部未遮挡和遮挡两种情况。
第一种情况摄像机可以拍摄到目标人员脚部,即在摄像机图像上可以捕捉到目标人员脚部点Pi所映射点d′p。
进一步的,计算图像坐标系下脚部像素点信息,并将该信息转换到成像坐标系下。
假设成像平面的物理尺寸为m和n,图像的分辨率为M×N,M、N分别为ui和vi方向上图片像素数量,因此,d′p点在成像坐标系下的坐标(xp,yp)可以表示为:
其中,(upi,vpi)为d′p在图像坐标系下所对应的像素点坐标。
进一步的,通过公式(2)、(3)将成像坐标系对应的目标人员位置点(xp,yp)转换成世界坐标系下的位置坐标,即可求出目标人员在室内的准确位置。
另一种情况为目标人员脚部被遮挡,即是在摄像机图像上捕捉不到目标人员脚部点Pi所映射点d′p。
3多摄像装置目标定位算法
当目标人员处于大型场所室内入口区域或两摄像头视域重叠区域处时,因位置在其视域范围内,多个摄像装置均可捕捉到该目标人员,并能计算出定位信息。由于受到画面、像素,特别是空间位置等因素的影响所计算出的位置多少存在偏差,在这种场景下,本发明采用多摄像装置加权K最邻近法(weight K-nearest neighbor,WKNN)来提高目标人员的定位精度。
目标人员与摄像装置的距离跟其定位结果的误差成正比,因此在多摄像定位时,将距离反比设置为加权项。
目标人员与摄像机的距离可以等效为成像坐标系上目标点距离坐标原点的距离,即:
其中,(xk,yk)为目标人员在第k个摄像装置成像坐标系下的目标点。
根据WKNN算法,在K个摄像机视域下目标人员在世界坐标系下的坐标为:
k∈[1,K] (9)
其中,(xwk,ywk,zwk)为第k个摄像装置所计算出的目标人员在世界坐标系下的坐标,Wk为WKNN算法的加权系数,(xw,yw,zw)为WKNN算法最终对目标人员在世界坐标系下定位的结果。
4目标轨迹预测
在已知当前时刻目标人员所处的位置坐标后,可根据目标人员当前时刻之前的位置、速度、加速度等信息对其进行行为轨迹预测。
轨迹预测一方面可以分析目标人员在未来将发生的行为轨迹,另一方面轨迹预测有助于摄像机在下一时刻对目标进行跟踪捕获。
本发明根据目标人员历史位置坐标点、速度、加速度信息对下一时刻将出现的区域进行预测,预测区域的信息包含区域的角度θ和区域半径R。
根据行人步行统计规律,成人平均步幅为60cm,加速过程加速度范围为0.02m/s2~0.83m/s2,均值为0.24m/s2,减速过程加速度范围为-0.78m/s2~-0.01m/s2,均值为-0.23m/s2,因此,本实例中采用加速加速度上线为0.9m/s2,减速加速度下线为-0.8m/s2。
根据以下几种特殊情况进行预测方程的建立,如图4所示。
长虚线表示目标人员历史运动轨迹,圆点表示目标人员当前时刻位置点,短虚线表示当前位置点的轨迹切线。
当目标人员的速度为0时,区域的角度θ为360°,半径R0为1.5倍步长;
当目标人员做匀速运动时,区域的角度θ为60°;
当目标人员以最高加速度做加速运动时,区域的角度θ为15°;
在任何情况下,以预测区域面积相等作为约束条件,建立圆心角θ与半径Ra之间的对应关系,如式(10)所示。
其中,R0为1.5倍步长,即R0=90cm。
根据以上几种特殊情况,采用线性关系建立圆心角与加速度之间的对应关系,如式(11)所示。
5目标跟踪
对目标人员的连续跟踪有利于目标的捕获和实时定位,本实例采用Camshift(Continuously Adaptive Mean-Shift)和Kalman滤波算法结合对目标人员进行跟踪。
Camshift的核心思想是根据目标运动状态的前一帧或目标位置与大小结合的初始化搜索框,利用颜色直方图计算像素重心,将搜索框中心与像素重心重合,并计算像是重心与搜索框中心的距离,小于设定阈值及目标跟踪成功,阈值的设定为上述第4项的目标轨迹预测中预测区域的半径Ra值。Camshift算法具有可根据目标变化而自适应调整跟搜索框窗口的大小的优点,其算法步骤为:
(1)捕获目标人员图像,并将目标从摄像机拍摄原始背景画面中分离;
(2)设定搜索框窗口大小;
(3)计算窗口中的像素点重心;
(4)将窗口中心点与像素重心点重合;
(5)判断距离阈值是否跟踪成功;
(6)跟踪成功后调整窗口大小;
(7)重复(2)~(6)步骤。
当目标人员所处位置发生变化时,其与摄像机的距离发生变化,因此成像画面中的像素信息必发生变化,Camshift算法可以通过步骤(6)将收敛区域集中,及时调整窗口大小,达到自适应跟踪的效果。
在Camshift算法中由于缺乏运动模型的预测信息,在目标人员被遮挡时会出现目标丢失现象,针对这一问题引入Kalman滤波算法,增加目标人员的运动预测和目标特征更新信息。
Kalman滤波可以根据目标当前的状态特征结合一系列不完全的、包含噪声的测量序列可对目标的下一时刻的状态进行预测,达到预测未来更新当下的效果。
Kalman滤波可分为预测和更新两个过程,预测过程采用观测信息与先验估计得到修正后的后验估计,该后验估计也即是下一时刻的先验估计;更新部分是将测量信息与前一时刻的预测信息进行加权融合。Kalman滤波的状态方程为:
Xk=FXk-1+BUk+Wk
其中,Xk和Xk-1为目标t时刻和t-1时刻的状态向量,F为传递矩阵,B为输入矩阵,Uk为外部控制向量,Wk为均值为零的高斯白噪声。
Kalman滤波的观测方程为:
Zk=HkXk+Vk
其中,Zk为k时刻的观测向量,Hk为观测矩阵,Vk为观测噪声。
Camshift和Kalman结合对目标人员进行跟踪的算法流程如图5所示。
根据目标检测结果对Kalman滤波器进行初始化,Camshift算法对目标进行跟踪,当目标被遮挡时,采用Kalman滤波器在上一时刻的状态对当前时刻进行预测,并将预测值作为目标的当前时刻的状态值,并将结果更新Kalman滤波器。
图1是大型场所室内人员动态跟踪定位系统的结构示意图,上述方法可以基于一种利用视觉装置对大型场所室内人员动态跟踪定位的系统来实现,其大型场所指的是机场航站楼、火车站候车大厅、博物馆、展览馆等对人员定位和跟踪有需求的场所。其系统包括室内三维仿真建模、信息采集模块、视频模块、信息控制处理模块、信息查询模块、三维跟踪定位显示平台;其中,
所述室内三维仿真建模,利用多重传感器技术的移动扫描车对室内环境进行扫描,通过点云数据和全景空间信息构建虚拟现实,建立室内环境高精度三维仿真模型,进一步地为三维跟踪定位显示平台提供三维地图;
所述信息采集模块,以人脸识别机为核心,自动完成旅客、游客和工作人员“人”“证”或“票”三合一核验,并确保是本人持证过检;
所述视频模块,包括分布在室内区域若干个摄像装置;
所述信息控制处理模块,包括设定设备统一时间、标识目标信息、在视频信息中捕获目标、获取目标定位坐标、实现相邻视域拼接、目标轨迹预测、数据存储等功能;
所述信息查询模块,用于输入需要查询目标人员的信息;
所述三维跟踪定位显示平台,用于显示室内三维场景下人员的实时位置坐标、运动轨迹及轨迹预测等信息。
信息采集模块,设置在室内场所的入口处,采用闸机模式,以人脸识别机为核心,并采集身高信息,将人员脸部特征与身份证信息、票据信息进行核验,核验通过准予放行;同时将人脸特征、身份(旅客/工作人员)、身高、国籍、年龄段、出行等信息进行融合、标识并存储在信息控制处理模块数据库中。
视频模块,对场所出入口区域应多方位多角度布设摄像装置,且该区域摄像装置所拍摄视频画面重叠视域必须包括整个出入闸机口,其他区域相邻两个摄像装置所拍摄视频画面重叠区域不小于10%,且全部摄像装置的成像画面合并后除特殊私密空间外应覆盖整个室内场所;所有摄像装置在相同视场下具有相同的图片分辨率;所安装位置与三维仿真模型中的位置准确对应。
信息查询模块,通过输入界面输入需要查询目标人员特征信息,来调取存储在信息控制处理模块中的目标人员位置数据,进一步的在显示平台上显示查询目标的位置和轨迹信息。
信息查询模块,输入查询信息分为必选项和非必选项,其中必选项包括:姓名、身份证号码、工作证号码,非必选项包括:性别、国籍、年龄段、航班信息、车票信息等,每次输入查询信息至少包含一项必选项。
三维跟踪定位显示平台,实时展示室内场景下人员的位置信息;可根据信息查询模块输入的信息,调取所查询人员的当前位置坐标、过往运动轨迹、未来轨迹预测方向,并能结合当前位置坐标的区域调取该区域摄像装置的视频内容。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围内。
Claims (4)
1.一种对大型场所室内人员动态跟踪定位的方法,其特征在于,包括以下步骤:
步骤S1、在场所室内区域分布若干个摄像装置,对场所室内区域的所有摄像装置进行内参和外参的标定,建立世界坐标系与图像平面坐标系的对应关系;
步骤S2、在场所入口处设置信息采集模块,通过场所入口处的信息采集模块对进入人员进行身份验证,该人员为目标,核验成功后开闸放行的同时触发摄像装置对该目标进行捕获,并将目标身份信息与捕获特征进行匹配;
步骤S3、在摄像装置所拍摄的图像中捕获到目标位置,将目标位置通过坐标转换关系从图像平面坐标系下转换到世界坐标系下,从而得出目标当前时刻所处的世界坐标位置;当目标处于多视频装置视域重叠区域中时,采用多摄像装置加权K最邻近法对目标进行定位,获得该区域内世界坐标系下的位置信息;
步骤S4、根据当前定位结果结合前一时间段内的目标的位置、线速度、加速度信息,对目标进行下一时刻的轨迹预测,依据预测的方向和目标行进步长生成预测区域;
步骤S5、结合目标预测区域结果,利用Camshift和Kalman滤波算法结合对目标进行跟踪,获得定位目标的实时位置信息。
2.根据权利要求1所述的一种对大型场所室内人员动态跟踪定位的方法,其特征在于,步骤S5后还包括步骤S6-S8,具体如下:
步骤S6、将定位目标的实时位置信息导入三维仿真模型中,利用三维显示平台进行定位结果呈现;或根据查询需求将所需查询目标的跟踪轨迹和轨迹预测结果匹配到三维仿真模型中通过三维显示平台进行展示。
步骤S7、将摄像装置所拍摄的视频文件和对目标的定位结果、路径轨迹和轨迹跟踪信息进行存储。
步骤S8、重复执行步骤S3~步骤S7,直至目标从出口离开场所停止该目标动态跟踪定位任务。
3.根据权利要求1所述的一种对大型场所室内人员动态跟踪定位的方法,其特征在于,对场所出入口区域多方位多角度布设摄像装置,且该区域摄像装置所拍摄视频画面重叠视域必须包括整个出入闸机口,其他区域相邻两个摄像装置所拍摄视频画面重叠区域不小于10%,且全部摄像装置的成像画面合并后应覆盖整个室内场所;所有摄像装置在相同视场下具有相同的图片分辨率;所安装位置与三维仿真模型中的位置准确对应。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010002399.2A CN111080679B (zh) | 2020-01-02 | 2020-01-02 | 一种对大型场所室内人员动态跟踪定位的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010002399.2A CN111080679B (zh) | 2020-01-02 | 2020-01-02 | 一种对大型场所室内人员动态跟踪定位的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111080679A true CN111080679A (zh) | 2020-04-28 |
CN111080679B CN111080679B (zh) | 2023-04-18 |
Family
ID=70322126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010002399.2A Active CN111080679B (zh) | 2020-01-02 | 2020-01-02 | 一种对大型场所室内人员动态跟踪定位的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111080679B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232279A (zh) * | 2020-11-04 | 2021-01-15 | 杭州海康威视数字技术股份有限公司 | 一种人员间距检测方法和装置 |
CN112307912A (zh) * | 2020-10-19 | 2021-02-02 | 科大国创云网科技有限公司 | 一种基于摄像头确定人员轨迹的方法及系统 |
CN112507058A (zh) * | 2021-02-05 | 2021-03-16 | 成都怡康科技有限公司 | 一种基于定位终端的轨迹回放方法 |
CN112785628A (zh) * | 2021-02-09 | 2021-05-11 | 成都视海芯图微电子有限公司 | 一种基于全景视角检测跟踪的轨迹预测方法及系统 |
CN113256691A (zh) * | 2021-05-11 | 2021-08-13 | 广州织点智能科技有限公司 | 一种目标跟踪方法、装置、设备和存储介质 |
CN113630562A (zh) * | 2021-06-03 | 2021-11-09 | 山东捷瑞数字科技股份有限公司 | 用于人员行为数据采集的方法、系统和存储介质 |
CN113688194A (zh) * | 2021-07-13 | 2021-11-23 | 金钱猫科技股份有限公司 | 一种人员移动轨迹监测方法、系统和存储设备 |
CN113761701A (zh) * | 2020-09-11 | 2021-12-07 | 北京京东乾石科技有限公司 | 目标仿真控制的方法和装置 |
CN113763435A (zh) * | 2020-06-02 | 2021-12-07 | 精标科技集团股份有限公司 | 基于多摄像机的跟踪拍摄方法 |
CN113792681A (zh) * | 2021-09-17 | 2021-12-14 | 平安科技(深圳)有限公司 | 基于点云匹配的信息采集方法、装置、电子设备及介质 |
CN115546710A (zh) * | 2022-08-09 | 2022-12-30 | 国网湖北省电力有限公司黄龙滩水力发电厂 | 水电厂的人员定位方法、装置、设备及可读存储介质 |
CN117218681A (zh) * | 2023-11-09 | 2023-12-12 | 厦门瑞为信息技术有限公司 | 单目镜头的身高估计方法及小孩过闸装置与判断方法 |
CN117058331B (zh) * | 2023-10-13 | 2023-12-19 | 山东建筑大学 | 基于单个监控摄像机的室内人员三维轨迹重建方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106772234A (zh) * | 2017-02-10 | 2017-05-31 | 武汉大学 | 一种摄像头与电磁波协同定位追踪的方法和系统 |
CN107481284A (zh) * | 2017-08-25 | 2017-12-15 | 京东方科技集团股份有限公司 | 目标物跟踪轨迹精度测量的方法、装置、终端及系统 |
WO2018014730A1 (zh) * | 2016-07-18 | 2018-01-25 | 华为技术有限公司 | 一种摄像机参数调整方法、导播摄像机及系统 |
US10096122B1 (en) * | 2017-03-28 | 2018-10-09 | Amazon Technologies, Inc. | Segmentation of object image data from background image data |
-
2020
- 2020-01-02 CN CN202010002399.2A patent/CN111080679B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018014730A1 (zh) * | 2016-07-18 | 2018-01-25 | 华为技术有限公司 | 一种摄像机参数调整方法、导播摄像机及系统 |
CN106772234A (zh) * | 2017-02-10 | 2017-05-31 | 武汉大学 | 一种摄像头与电磁波协同定位追踪的方法和系统 |
US10096122B1 (en) * | 2017-03-28 | 2018-10-09 | Amazon Technologies, Inc. | Segmentation of object image data from background image data |
CN107481284A (zh) * | 2017-08-25 | 2017-12-15 | 京东方科技集团股份有限公司 | 目标物跟踪轨迹精度测量的方法、装置、终端及系统 |
Non-Patent Citations (2)
Title |
---|
匡志科;刘合安;: "基于多摄像头的行人视频运动目标检测算法研究" * |
李鹏飞: "双目视觉运动目标跟踪定位系统的设计" * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113763435A (zh) * | 2020-06-02 | 2021-12-07 | 精标科技集团股份有限公司 | 基于多摄像机的跟踪拍摄方法 |
CN113761701A (zh) * | 2020-09-11 | 2021-12-07 | 北京京东乾石科技有限公司 | 目标仿真控制的方法和装置 |
CN112307912A (zh) * | 2020-10-19 | 2021-02-02 | 科大国创云网科技有限公司 | 一种基于摄像头确定人员轨迹的方法及系统 |
CN112232279A (zh) * | 2020-11-04 | 2021-01-15 | 杭州海康威视数字技术股份有限公司 | 一种人员间距检测方法和装置 |
CN112232279B (zh) * | 2020-11-04 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 一种人员间距检测方法和装置 |
CN112507058A (zh) * | 2021-02-05 | 2021-03-16 | 成都怡康科技有限公司 | 一种基于定位终端的轨迹回放方法 |
CN112507058B (zh) * | 2021-02-05 | 2021-04-16 | 成都怡康科技有限公司 | 一种基于定位终端的轨迹回放方法 |
CN112785628A (zh) * | 2021-02-09 | 2021-05-11 | 成都视海芯图微电子有限公司 | 一种基于全景视角检测跟踪的轨迹预测方法及系统 |
CN112785628B (zh) * | 2021-02-09 | 2023-08-08 | 成都视海芯图微电子有限公司 | 一种基于全景视角检测跟踪的轨迹预测方法及系统 |
CN113256691A (zh) * | 2021-05-11 | 2021-08-13 | 广州织点智能科技有限公司 | 一种目标跟踪方法、装置、设备和存储介质 |
CN113630562A (zh) * | 2021-06-03 | 2021-11-09 | 山东捷瑞数字科技股份有限公司 | 用于人员行为数据采集的方法、系统和存储介质 |
CN113688194A (zh) * | 2021-07-13 | 2021-11-23 | 金钱猫科技股份有限公司 | 一种人员移动轨迹监测方法、系统和存储设备 |
CN113792681A (zh) * | 2021-09-17 | 2021-12-14 | 平安科技(深圳)有限公司 | 基于点云匹配的信息采集方法、装置、电子设备及介质 |
CN115546710A (zh) * | 2022-08-09 | 2022-12-30 | 国网湖北省电力有限公司黄龙滩水力发电厂 | 水电厂的人员定位方法、装置、设备及可读存储介质 |
CN117058331B (zh) * | 2023-10-13 | 2023-12-19 | 山东建筑大学 | 基于单个监控摄像机的室内人员三维轨迹重建方法及系统 |
CN117218681A (zh) * | 2023-11-09 | 2023-12-12 | 厦门瑞为信息技术有限公司 | 单目镜头的身高估计方法及小孩过闸装置与判断方法 |
CN117218681B (zh) * | 2023-11-09 | 2024-02-06 | 厦门瑞为信息技术有限公司 | 单目镜头的身高估计方法及小孩过闸装置与判断方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111080679B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111080679B (zh) | 一种对大型场所室内人员动态跟踪定位的方法 | |
CN111126304B (zh) | 一种基于室内自然场景图像深度学习的增强现实导航方法 | |
US8599266B2 (en) | Digital processing of video images | |
Sidla et al. | Pedestrian detection and tracking for counting applications in crowded situations | |
US7321386B2 (en) | Robust stereo-driven video-based surveillance | |
CN110142785A (zh) | 一种基于目标检测的巡检机器人视觉伺服方法 | |
Yahyanejad et al. | Incremental mosaicking of images from autonomous, small-scale uavs | |
US20150178571A1 (en) | Methods, devices and systems for detecting objects in a video | |
CN106529538A (zh) | 一种飞行器的定位方法和装置 | |
US20100103266A1 (en) | Method, device and computer program for the self-calibration of a surveillance camera | |
US20130208948A1 (en) | Tracking and identification of a moving object from a moving sensor using a 3d model | |
US20050012817A1 (en) | Selective surveillance system with active sensor management policies | |
US20050237390A1 (en) | Multiple camera system for obtaining high resolution images of objects | |
CN109712428A (zh) | 一种停车位置定位方法及装置、系统 | |
JP2012063350A (ja) | 測位処理装置、測位処理方法、画像処理装置および画像処理方法 | |
CN106370160A (zh) | 一种机器人室内定位系统和方法 | |
CN110796032A (zh) | 基于人体姿态评估的视频围栏及预警方法 | |
CN107038714A (zh) | 多型视觉传感协同目标跟踪方法 | |
CN110378292A (zh) | 三维空间定位系统和方法 | |
CN112053391A (zh) | 一种基于动态三维模型的监控预警方法、系统及存储介质 | |
CN110276379A (zh) | 一种基于视频图像分析的灾情信息快速提取方法 | |
CN114511592A (zh) | 一种基于rgbd相机和bim系统的人员轨迹追踪方法及系统 | |
CN113743380B (zh) | 一种基于视频图像动态监测的主动跟踪方法 | |
CN114663473A (zh) | 基于多视角信息融合的人员目标定位与追踪方法及系统 | |
Wang et al. | A detection and tracking system for fisheye videos from traffic intersections |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |