CN111931638B - 一种基于行人重识别的局部复杂区域定位系统及方法 - Google Patents
一种基于行人重识别的局部复杂区域定位系统及方法 Download PDFInfo
- Publication number
- CN111931638B CN111931638B CN202010789567.7A CN202010789567A CN111931638B CN 111931638 B CN111931638 B CN 111931638B CN 202010789567 A CN202010789567 A CN 202010789567A CN 111931638 B CN111931638 B CN 111931638B
- Authority
- CN
- China
- Prior art keywords
- camera unit
- camera
- target
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于行人重识别的局部复杂区域定位系统及方法,该方法步骤为:用户端向服务器端发送待寻找的目标图像;摄像头单元采集各个监控区域的图像,并与自身编号发送至服务器端;构建摄像头单元信息表;对图像信息进行图像分割,筛选出符合行人类别的目标,并根据边界框选取感兴趣区域;感兴趣区域与目标图像输入到深度学习网络中进行特征提取及特征匹配,获取目标图片;获取拍摄到目标图片对应的摄像头单元编号,对照摄像头单元信息表,获取摄像头单元的安装位置,并结合目标感兴趣区域在整个图片中的位置,将目标位置进行可视化显示。本发明实现对场景复杂尤其是有多层结构的局部区域的精确定位。
Description
技术领域
本发明涉及定位技术领域,具体涉及一种基于行人重识别的局部复杂区域定位系统及方法。
背景技术
局部复杂区域是指例如购物广场这种具有复杂的路线以及多层楼结构的区域,现有的主要定位方式有:基于GPS卫星定位、基于信号发射及接收传感器的局部定位和基于wifi的局部定位;
其中,基于GPS卫星定位在局部小区域中基本无法正常运作,尤其是在一些复杂的区域,例如多层式的建筑以及手机GPS信号严重受影响的地方;基于信号发射及接收传感器的局部定位通过被定位者主动发出定位信号,并且传递给传感器,传感器收到信号并对其进行分析从而进行定位,如果想要定位较为准确,则传感器的部署应该较为密集,但又会使各个传感器的监视区域重叠,定位不精准,但是如果降低部署密度,又会导致信号容易受到路径衰落及窄带衰落、多径干扰等的影响,导致定位不精准,并且,传感器需发射特定的信号,传感器所管控的范围易受到环境的干扰的影响;基于wifi的局部定位,与使用传感器的方法一样的,wifi的覆盖范围很广,两个wifi的定位范围将会有很大的重叠,导致定位十分不精准,尤其是在局部的小区域,例如大型购物广场等, wifi的信号强度会受到多方面的因素的影响,通过wifi信号只能确定被定位者距离wifi信号发射源的距离大小,而不能反映其精确的方位。
以上定位方式存在定位准确度差、鲁棒性差、实现成本高等问题,无法实现对场景复杂尤其是有多层结构的局部区域的精确定位。
发明内容
为了克服现有技术存在的缺陷与不足,本发明提供一种基于行人重识别的局部复杂区域定位系统及方法,解决现有的定位方式中存在准确度差、鲁棒性差、实现成本高等问题,实现对场景复杂尤其是有多层结构的局部区域的精确定位。
为了达到上述目的,本发明采用以下技术方案:
本发明提供一种基于行人重识别的局部复杂区域定位系统,包括:图像采集模块、通信模块、服务器端和客户端;
所述图像采集模块设有多个摄像头单元,设于局部复杂区域的不同位置中,所述图像采集模块用于记录各个摄像头单元在整个场景中所处的位置、安装位置距离地面的高度、XYZ三个方向的方位角,构建摄像头单元信息表;
所述摄像头单元用于采集各个监控区域的图像,并与自身编号发送至通信模块;
所述通信模块用于将摄像头单元采集的监控区域图像及摄像头单元编号传输至服务器端;
所述客户端用于向服务器端发送待寻找的目标图像;
所述服务器端用于接收摄像头单元采集图像信息并进行图像分割,筛选出符合行人类别的目标,并根据边界框选取感兴趣区域;
所述服务器端用于将选取的感兴趣区域与目标图像输入到深度学习网络中进行特征提取及特征匹配,获取目标图片;
所述服务器端用于获取拍摄到目标图片对应的摄像头单元编号,对照摄像头单元信息表,获取摄像头单元的安装位置,结合目标感兴趣区域在整个图片中的位置以及摄像头单元的安装位置,获取目标位置;
所述客户端用于将目标位置进行可视化显示。
作为优选的技术方案,所述通信模块采用wifi通信模块。
本发明还提供一种基于行人重识别的局部复杂区域定位方法,包括:
用户端向服务器端发送待寻找的目标图像;
图像采集模块设有多个摄像头单元,摄像头单元采集各个监控区域的图像,并与自身编号通过通信模块发送至服务器端;
图像采集模块记录各个摄像头单元在整个场景中所处的位置、安装位置距离地面的高度、XYZ三个方向的方位角,构建摄像头单元信息表;
服务器端接收摄像头单元采集图像信息并进行图像分割,筛选出符合行人类别的目标,并根据边界框选取感兴趣区域;
将选取的感兴趣区域与目标图像输入到深度学习网络中进行特征提取及特征匹配,筛选出匹配度最高的感兴趣区域,获取匹配度最高的感兴趣区域对应的目标图片;
服务器端获取拍摄到目标图片对应的摄像头单元编号,对照摄像头单元信息表,获取摄像头单元的安装位置;
结合目标感兴趣区域在整个图片中的位置以及摄像头单元的安装位置,将目标位置进行可视化显示。
作为优选的技术方案,所述深度学习网络采用AdaptiveReID深度学习网络。
作为优选的技术方案,所述将选取的感兴趣区域与目标图像输入到深度学习网络中进行特征提取及特征匹配,具体步骤包括:
深度学习网络计算出的所有感兴趣区域以及目标图像信息的特征向量,然后将目标图像信息的特征向量与所有的感兴趣区域的特征向量进行相关度匹配,并且挑选出匹配度最高的感兴趣区域,接着将该感兴趣区域的来源图片,即目标图片,实时地传送给客户端。
作为优选的技术方案,所述摄像头单元采集各个监控区域的图像,摄像头单元所采集的监控覆盖范围的宽度表示为:
W=dmax-dmin
dmin=tan(θz-θc)*Hv
dmax=tan(θz+θc)*Hv
其中,θz表示摄像头单元安装时与相机坐标系Z轴所构成的方位角的补角,θc表示摄像头单元本身的视场角的一半,Hv表示摄像头单元安装的高度,dmax表示摄像头所覆盖的范围中距离摄像头安装墙壁的最大距离,dmin表示摄像头所覆盖的范围中距离摄像头安装墙壁的最小距离。
作为优选的技术方案,所述结合目标感兴趣区域在整个图片中的位置以及摄像头单元的安装位置,将目标位置进行可视化显示,具体步骤包括:
将整个图片的高度设为H,目标距离上边缘的距离设为h,计算出目标距离摄像机视野的覆盖范围的上边缘的距离w:
计算目标距离摄像头单元的距离depth:
depth=Hv*sec(θz)+((W-w)-Hv*tan(θz))*sin(θz)
通过目标距离摄像头单元的距离depth以及摄像头单元的内参矩阵,将图像坐标系中的目标(x0,y0)映射到相机坐标系中的点(xc,yc,zc),通过旋转矩阵以及转移矩阵,将相机坐标系的点(xc,yc,zc)映射到世界坐标系中的点(xw,yw,zw),获得目标在世界坐标系下的坐标。
本发明与现有技术相比,具有如下优点和有益效果:
(1)本发明采用了使用视频监控作为定位信息采集模块的技术方案,解决了各个定位信息采集单元的监控范围交叠和覆盖不完全的问题,达到了对局部区域监控资源的充分利用以及易于调节覆盖范围使得覆盖完全并且尽量减少重叠的技术效果。
(2)本发明针对方位受限的进行信号采集,一个摄像头仅仅对准某一个方位,并且其视场也是受限的,其拍摄获得的照片本身包含了方位信息,解决了现有技术中仅可以估计距离而难以定位准确方向,以及在多层级结构的复杂区域中无法定位确定位于哪个层级的技术问题,达到了对被定位者具体方位以及距离同时进行判定的技术效果。
(3)本发明对摄像头的位置、视场角、方位角、放置高度等信息综合利用,从而对定位进行更进一步的精确的技术方案,解决了定位精度太过粗略的技术问题,达到了对被定位者的具体位置定位更加精确的技术效果。
(4)本发明采用了使用图像信息作为定位信息的技术方案,解决了在局部区域的复杂电磁环境中,用于定位的信息在传播过程中受到多方面的电磁干扰的技术问题,达到了获取更加鲁棒的定位信息的技术效果。
(5)本发明采用了主动式的定位技术方案,解决了在一些特殊情况中无法主动地对所要寻找的目标进行定位的技术问题,达到了对任何一个人在该局部复杂区域的任何时间任何地点都能够被定位的技术效果。
附图说明
图1为本实施例基于行人重识别的局部复杂区域定位系统的整体架构示意图;
图2为本实施例基于行人重识别的局部复杂区域定位方法的流程示意图;
图3为本实施例摄像头覆盖范围示意图;
图4为本实施例沿相机坐标系X轴正方向的侧视图;
图5为本实施例拍摄到的目标与上边缘的距离示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例
如图1所示,本实施例提供一种基于行人重识别的局部复杂区域定位系统,包括:各个摄像头单元组成的图像采集模块、wifi通信模块、数字图像处理算法运行的服务器端和客户端;
本实施例将图像采集模块的各个单元合理地分配、安装在该局部复杂区域的不同位置中,以实现对需要被定位到的地方的完整且无交叠的覆盖,并记录图像采集模块的各个摄像头单元在整个场景中所处的位置、安装位置距离地面的高度、XYZ三个方向的方位角(以该图像采集模块所安装在的平面的法向为 X轴正方向,以摄像头单元所在位置为原点的右手坐标系中该摄像头所拍摄的方向与XYZ三轴的正方向的夹角),构建摄像头单元信息表。
如图2所示,用户使用客户端APP将需要被定位的目标的照片或者其他形式的图像传递给服务器端;
各个摄像头单元不断地将其拍摄到的实时的数字图像信息以及本单元的编号发送给服务器端;
服务器端先使用运行在服务器终端的目标检测算法,框选出所有的图像采集模块单元传输过来的图像信息,采用目标检测领域速度较快且效果较好的 YOLO算法,将其首先将图像划分成一个S*S的网格,并且预测有一个目标的中心落在这个格子内的概率、这个中心在这个格子中的位置、该目标的大小以及该目标的种类,仅仅选出种类为“human”的预测结果,并将其框选出来,从而获得各个摄像头单元传输来的图像信息中所有的行人;
服务器端紧接着将上述步骤中框选出的行人作为感兴趣区域(ROI)截取下来缓存在服务器中,接着将这些截取出的感兴趣区域ROI交付给运行在服务器终端的行人重识别算法,本实施例采用AdaptiveReID深度学习网络,将截取出的所有ROI以及用户在客户端提供的被定位者的图像信息放入到AdaptiveReID 深度学习网络中,AdaptiveReID深度学习网络计算出的所有ROI以及被定位者图像信息的特征向量,然后将被定位者图像信息的特征向量与所有的ROI的特征向量进行相关度匹配,并且挑选出匹配度最高的ROI,接着将该ROI的来源图片,即目标图片,实时地传送给用户的客户端;
服务器端获取目标图片的拍摄者的编号,也就是拍摄到目标图片的摄像头的编号,然后查阅摄像头单元信息表,根据该单元信息中其位于整个使用场景的坐标信息,便可以缩小定位范围;
由于每个摄像头的方位角、高度已知,而且摄像头的视角范围也是固定的,因此可以估计出其所覆盖的范围,如图3所示,其中摄像头所拍摄的正方向也即相机坐标系的Z轴方向,图中采用向量Zc表示;
沿着图3中X轴的正方向来侧视的话,如图4所示,其中θz表示摄像头安装时与Z轴所构成的方位角的补角,θc则为摄像头本身的视场角的一半,Hv表示摄像头安装的高度。因此可通过如下的公式计算出摄像头所覆盖的范围中距离摄像头所安装的墙壁的最大距离dmax和最小距离dmin以及视野范围的宽度:
dmin=tan(θz-θc)*Hv
dmax=tan(θz+θc)*Hv
W=dmax-dmin
由于拍摄到的目标的位置与其实际在摄像机的覆盖范围内的位置是一个线性的关系,因此如果在一张照片中找到了目标,可以根据其距离上边缘的距离来估算出其在图4中大致的位置,如图5所示,整张照片的高度为H,目标距离上边缘的距离为h。通过下面的公式,可以计算出目标距离摄像机视野的覆盖范围的上边缘的距离w:
由P点向相机坐标系的Z轴Zc做垂线,再通过角θz即可计算出其距离摄像头的距离,也就是其深度信息depth:
depth=Hv*sec(θz)+((W-w)-Hv*tan(θz))*sin(θz)
通过目标的深度信息depth以及摄像头的内参矩阵K可以将图像坐标系中的目标(x0,y0)映射到相机坐标系中的点(xc,yc,zc):
zc=depth
本实施例以Ow为世界坐标系的原点,又由于已经知道了摄像机的三个方位角,可以获取到相机坐标系的Z轴正方向Zc在世界坐标系的单位向量zc,将其与世界坐标系的Z轴正方向Zw的单位向量zw之间做叉乘便可以得到从世界坐标系到相机坐标系的旋转过程所依赖的旋转轴的单位向量r。再通过zc与zw之间点乘便可以获取到旋转角的余弦值,进而获取旋转角度θr:
r=zw×zc
θr=arctan(zw·zc)
通过旋转轴r以及旋转角度θr,根据罗德里格斯公式,可以计算出旋转矩阵 R,又由于从世界坐标系的原点到相机坐标系的原点仅仅是向Zw移动了Hv,因此其转移矩阵t表示为:
通过旋转矩阵R以及转移矩阵t,可以将相机坐标系下的一点(xc,yc,zc)映射到世界坐标系中的一点(xw,yw,zw):
也就是目标在以图4中的Ow为原点的世界坐标系下该目标的坐标。进而第二次对目标的坐标进行精确。
将该精确的定位位置实时地传输到用户客户端,并进行可视化的显示。
在本实施例中,结合实际场景做进一步的说明,具体可假设场景为一个大型购物广场。
当一位儿童在一个大型购物广场中走丢的时候。其父母可以将该儿童的照片交给服务器端。与此同时,该大型购物广场将所有的监控摄像头采集到的图片通过wifi模组传递给服务器端,服务器端通过运行在其上的目标检测算法: YOLO及行人重识别算法:SSD从中检索出包含有该孩子图片,并且将其挑选出来,从挑选出来的图片中将孩子所处的位置框选出来,通过利用这个孩子和拍摄到该图片的摄像头的监控范围的边缘的相对信息得到其处于拍摄到该图片的摄像头所负责的监控区域的哪个位置,最终,结合拍摄到该图片的摄像头的位置,将该孩子的精准位置实时地显示在该区域的局部三维地图中,从而实现对其的精准追踪。
在本实施例中,位置信息采集是以采集到的图像为载体进行表征并使用行人重识别技术进行处理,从而进行复杂区域定位,数据处理采用集中在服务器端的集中式处理的方式,通过将得到的精准位置信息,映射到该购物广场的三维地图中从而实现可视化的显示。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (5)
1.一种基于行人重识别的局部复杂区域定位系统,其特征在于,包括:图像采集模块、通信模块、服务器端和客户端;
所述图像采集模块设有多个摄像头单元,设于局部复杂区域的不同位置中,所述图像采集模块用于记录各个摄像头单元在整个场景中所处的位置、安装位置距离地面的高度、XYZ三个方向的方位角,构建摄像头单元信息表;
所述摄像头单元用于采集各个监控区域的图像,并与自身编号发送至通信模块;
所述摄像头单元采集各个监控区域的图像,摄像头单元所采集的监控覆盖范围的宽度表示为:
W=dmax-dmin
dmin=tan(θz-θc)*Hv
dmax=tan(θz+θc)*Hv
其中,θz表示摄像头单元安装时与相机坐标系Z轴所构成的方位角的补角,θc表示摄像头单元本身的视场角的一半,Hv表示摄像头单元安装的高度,dmax表示摄像头所覆盖的范围中距离摄像头安装墙壁的最大距离,min表示摄像头所覆盖的范围中距离摄像头安装墙壁的最小距离;
所述通信模块用于将摄像头单元采集的监控区域图像及摄像头单元编号传输至服务器端;
所述客户端用于向服务器端发送待寻找的目标图像;
所述服务器端用于接收摄像头单元采集图像信息并进行图像分割,筛选出符合行人类别的目标,并根据边界框选取感兴趣区域;
所述服务器端用于将选取的感兴趣区域与目标图像输入到深度学习网络中进行特征提取及特征匹配,获取目标图片;
所述服务器端用于获取拍摄到目标图片对应的摄像头单元编号,对照摄像头单元信息表,获取摄像头单元的安装位置,结合目标感兴趣区域在整个图片中的位置以及摄像头单元的安装位置,获取目标位置;
所述客户端用于将目标位置进行可视化显示;
所述结合目标感兴趣区域在整个图片中的位置以及摄像头单元的安装位置,将目标位置进行可视化显示,具体包括:
将整个图片的高度设为H,目标距离上边缘的距离设为h,计算出目标距离摄像机视野的覆盖范围的上边缘的距离w:
计算目标距离摄像头单元的距离depth:
depth=Hv*sec(θz)+((W-w)-Hv*tan(θz))*sin(θz)
通过目标距离摄像头单元的距离depth以及摄像头单元的内参矩阵,将图像坐标系中的目标(x0,y0)映射到相机坐标系中的点(xc,yc,zc),通过旋转矩阵以及转移矩阵,将相机坐标系的点(xc,yc,zc)映射到世界坐标系中的点(xw,yw,zw),获得目标在世界坐标系下的坐标。
2.根据权利要求1所述的基于行人重识别的局部复杂区域定位系统,其特征在于,所述通信模块采用wifi通信模块。
3.一种基于行人重识别的局部复杂区域定位方法,其特征在于,包括:
用户端向服务器端发送待寻找的目标图像;
图像采集模块设有多个摄像头单元,摄像头单元采集各个监控区域的图像,并与自身编号通过通信模块发送至服务器端;
所述摄像头单元采集各个监控区域的图像,摄像头单元所采集的监控覆盖范围的宽度表示为:
W=dmax-dmin
dmin=tan(θz-θc)*Hv
dmax=tan(θz+θc)*Hv
其中,θz表示摄像头单元安装时与相机坐标系Z轴所构成的方位角的补角,θc表示摄像头单元本身的视场角的一半,Hv表示摄像头单元安装的高度,dmax表示摄像头所覆盖的范围中距离摄像头安装墙壁的最大距离,min表示摄像头所覆盖的范围中距离摄像头安装墙壁的最小距离;
图像采集模块记录各个摄像头单元在整个场景中所处的位置、安装位置距离地面的高度、XYZ三个方向的方位角,构建摄像头单元信息表;
服务器端接收摄像头单元采集图像信息并进行图像分割,筛选出符合行人类别的目标,并根据边界框选取感兴趣区域;
将选取的感兴趣区域与目标图像输入到深度学习网络中进行特征提取及特征匹配,筛选出匹配度最高的感兴趣区域,获取匹配度最高的感兴趣区域对应的目标图片;
服务器端获取拍摄到目标图片对应的摄像头单元编号,对照摄像头单元信息表,获取摄像头单元的安装位置;
结合目标感兴趣区域在整个图片中的位置以及摄像头单元的安装位置,将目标位置进行可视化显示;
所述结合目标感兴趣区域在整个图片中的位置以及摄像头单元的安装位置,将目标位置进行可视化显示,具体步骤包括:
将整个图片的高度设为H,目标距离上边缘的距离设为h,计算出目标距离摄像机视野的覆盖范围的上边缘的距离w:
计算目标距离摄像头单元的距离depth:
depth=Hv*sec(θz)+((W-w)-Hv*tan(θz))*sin(θz)
通过目标距离摄像头单元的距离depth以及摄像头单元的内参矩阵,将图像坐标系中的目标(x0,y0)映射到相机坐标系中的点(xc,yc,zc),通过旋转矩阵以及转移矩阵,将相机坐标系的点(xc,yc,zc)映射到世界坐标系中的点(xw,yw,zw),获得目标在世界坐标系下的坐标。
4.根据权利要求3所述的基于行人重识别的局部复杂区域定位方法,其特征在于,所述深度学习网络采用AdaptiveReID深度学习网络。
5.根据权利要求3所述的基于行人重识别的局部复杂区域定位方法,其特征在于,所述将选取的感兴趣区域与目标图像输入到深度学习网络中进行特征提取及特征匹配,具体步骤包括:
深度学习网络计算出的所有感兴趣区域以及目标图像信息的特征向量,然后将目标图像信息的特征向量与所有的感兴趣区域的特征向量进行相关度匹配,并且挑选出匹配度最高的感兴趣区域,接着将该感兴趣区域的来源图片,即目标图片,实时地传送给客户端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010789567.7A CN111931638B (zh) | 2020-08-07 | 2020-08-07 | 一种基于行人重识别的局部复杂区域定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010789567.7A CN111931638B (zh) | 2020-08-07 | 2020-08-07 | 一种基于行人重识别的局部复杂区域定位系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111931638A CN111931638A (zh) | 2020-11-13 |
CN111931638B true CN111931638B (zh) | 2023-06-20 |
Family
ID=73307031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010789567.7A Active CN111931638B (zh) | 2020-08-07 | 2020-08-07 | 一种基于行人重识别的局部复杂区域定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111931638B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101646072A (zh) * | 2009-08-25 | 2010-02-10 | 深圳市融创天下科技发展有限公司 | 一种多摄像头自动定位的系统 |
CN101789123A (zh) * | 2010-01-27 | 2010-07-28 | 中国科学院半导体研究所 | 一种创建基于单目机器视觉距离图的方法 |
CN106096512A (zh) * | 2016-05-31 | 2016-11-09 | 上海美迪索科电子科技有限公司 | 利用深度摄像头对车辆或行人进行识别的检测装置及方法 |
CN108108750A (zh) * | 2017-12-12 | 2018-06-01 | 清华大学苏州汽车研究院(吴江) | 基于深度学习和单目视觉的距离空间重建方法 |
CN110455027A (zh) * | 2019-07-16 | 2019-11-15 | 海信集团有限公司 | 一种图像采集装置及其冰箱、控制方法 |
CN110796074A (zh) * | 2019-10-28 | 2020-02-14 | 桂林电子科技大学 | 一种基于时空数据融合的行人再识别方法 |
CN110830756A (zh) * | 2018-08-07 | 2020-02-21 | 华为技术有限公司 | 一种监控方法与装置 |
CN111079600A (zh) * | 2019-12-06 | 2020-04-28 | 长沙海格北斗信息技术有限公司 | 多摄像头的行人识别方法及识别系统 |
CN111368706A (zh) * | 2020-03-02 | 2020-07-03 | 南京航空航天大学 | 基于毫米波雷达和机器视觉的数据融合动态车辆检测方法 |
-
2020
- 2020-08-07 CN CN202010789567.7A patent/CN111931638B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101646072A (zh) * | 2009-08-25 | 2010-02-10 | 深圳市融创天下科技发展有限公司 | 一种多摄像头自动定位的系统 |
CN101789123A (zh) * | 2010-01-27 | 2010-07-28 | 中国科学院半导体研究所 | 一种创建基于单目机器视觉距离图的方法 |
CN106096512A (zh) * | 2016-05-31 | 2016-11-09 | 上海美迪索科电子科技有限公司 | 利用深度摄像头对车辆或行人进行识别的检测装置及方法 |
CN108108750A (zh) * | 2017-12-12 | 2018-06-01 | 清华大学苏州汽车研究院(吴江) | 基于深度学习和单目视觉的距离空间重建方法 |
CN110830756A (zh) * | 2018-08-07 | 2020-02-21 | 华为技术有限公司 | 一种监控方法与装置 |
CN110455027A (zh) * | 2019-07-16 | 2019-11-15 | 海信集团有限公司 | 一种图像采集装置及其冰箱、控制方法 |
CN110796074A (zh) * | 2019-10-28 | 2020-02-14 | 桂林电子科技大学 | 一种基于时空数据融合的行人再识别方法 |
CN111079600A (zh) * | 2019-12-06 | 2020-04-28 | 长沙海格北斗信息技术有限公司 | 多摄像头的行人识别方法及识别系统 |
CN111368706A (zh) * | 2020-03-02 | 2020-07-03 | 南京航空航天大学 | 基于毫米波雷达和机器视觉的数据融合动态车辆检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111931638A (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112525162B (zh) | 一种无人机测量输电线路影像距离的系统及方法 | |
US9134127B2 (en) | Determining tilt angle and tilt direction using image processing | |
CN110926474B (zh) | 卫星/视觉/激光组合的城市峡谷环境uav定位导航方法 | |
JP6002126B2 (ja) | 画像ベースの測位のための方法および装置 | |
CN105700547B (zh) | 一种基于导航飞艇的空中立体视频街景系统及实现方法 | |
CN111435081B (zh) | 海面测量系统、海面测量方法以及存储介质 | |
CN110632589B (zh) | 一种雷达光电信息融合技术 | |
US20120330601A1 (en) | Determining tilt angle and tilt direction using image processing | |
KR101663669B1 (ko) | 공간 예측 근사 및 방사 컨벌루션 | |
JP5838560B2 (ja) | 画像処理装置、情報処理装置、及び撮像領域の共有判定方法 | |
JP6138326B1 (ja) | 移動体、移動体の制御方法、移動体を制御するプログラム、制御システム、及び情報処理装置 | |
CN115841487B (zh) | 一种沿输电线路的隐患定位方法及终端 | |
CN111444845A (zh) | 一种非机动车辆违停识别方法、装置及系统 | |
Seiz et al. | Cloud mapping from the ground: Use of photogrammetric methods | |
Savoy et al. | Cloud base height estimation using high-resolution whole sky imagers | |
CN111931638B (zh) | 一种基于行人重识别的局部复杂区域定位系统及方法 | |
Kumar et al. | Identifying reflected gps signals and improving position estimation using 3d map simultaneously built with laser range scanner | |
JPH11250252A (ja) | 3次元物体認識装置および方法 | |
KR102542556B1 (ko) | 고해상도 드론 동영상과 딥러닝 객체 인식기술을 활용한 실시간 습지 지역 주요 식생 탐지와 식생 객체 위치 확인 방법 및 그 시스템 | |
US20220103762A1 (en) | Imaging apparatus, imaging system, and imaging method | |
US20210256712A1 (en) | On-Demand Image Based Location Tracking Platform | |
CN114627398A (zh) | 一种基于屏幕光通信的无人机定位方法及系统 | |
KR101856151B1 (ko) | 실내 측위 인프라 정보 수집을 위한 포터블 수집 장치 | |
CN111486820B (zh) | 测量系统、测量方法以及存储介质 | |
CN110617800A (zh) | 基于民航客机的应急遥感监测方法、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |