CN109308718B - 一种基于多深度相机的空间人员定位装置及方法 - Google Patents
一种基于多深度相机的空间人员定位装置及方法 Download PDFInfo
- Publication number
- CN109308718B CN109308718B CN201810903890.5A CN201810903890A CN109308718B CN 109308718 B CN109308718 B CN 109308718B CN 201810903890 A CN201810903890 A CN 201810903890A CN 109308718 B CN109308718 B CN 109308718B
- Authority
- CN
- China
- Prior art keywords
- depth
- head
- depth camera
- camera
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012937 correction Methods 0.000 claims abstract description 7
- 230000004927 fusion Effects 0.000 claims abstract description 5
- 230000009466 transformation Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000013519 translation Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多深度相机的空间人员定位装置及方法,利用多个3D智能深度相机协同工作来获取空间中场景的3D深度影像,再经过畸变校正与3D深度影像增强后提取人体目标;然后根据所获得的人体目标区域提取人头肩区域方向深度直方图特征和头部区域空间密度特征;结合人头部2D影像和3D深度影像采用头部凸面方形相似度特征来判断定位目标是否为人;再对头顶部中心点直接进行三维重投影变换计算出该定位点在实际空间下的坐标和人员身高;最后对多个深度相机的定位数据进行加权融合并确定最终的空间人员定位信息,该发明具有实时性强、易扩展、数据准确、不需辅助定位设施的有点,在区域监控、VR定位、人机交互方面具有广泛的应用价值。
Description
技术领域
本发明涉及空间人员定位技术领域,具体为一种基于多深度相机的空间人员定位装置及方法。
背景技术
空间人员定位是指在真实环境中实现人体位置定位。已有的空间人员的定位可以分为两类:基于视觉的定位和基于非视觉的定位。基于非视觉的定位方法大多采用无线通讯、基站定位、惯性传感器,红外激光等,定位精度高,但通常涉及复杂的设备或系统,且通常需要在人身上安装信号收发装置。而基于视觉的定位方法多使用单目或者双目相机来获取场景信息。其中,单目视觉仅能获取空间中的二维影像,在目标的精确定位上存在较大难度,且影像质量受外界环境影响较大;而双目立体视觉能够通过相应的算法实现深度信息的提取,但需要结合双相机进行特征信息的联合匹配,算法相对复杂,稳定性较差,难以确保复杂场景应用的实时性。
发明内容
针对背景技术中存在的问题,本发明提供了一种基于多深度相机的空间人员定位装置及方法,能够实时获取目标人员的位置和姿态信息,不仅成本低,装置简单,测量范围大,而且具有较好的系统稳定性。
为实现上述目的,本发明提供如下技术方案:一种基于多深度相机的空间人员定位装置,该定位装置的深度影像获取和处理由5个深度相机组成,即分别为中间深度相机、前方深度相机、左侧深度相机、后方深度相机以及右侧深度相机;其中所述中间深度相机安装在上方垂直向下拍摄,另外四个深度相机分别安装在该中间深度相机的四周,且均与水平方向有一固定的夹角θ,各个深度相机的参数相同,该参数包括测量精度、距离分辨率、影像分辨率、水平视场角、垂直视场角和相机焦距。
本发明还提供了一种基于多深度相机的空间人员定位方法,该方法使用如权利要求1中所述的基于多深度相机的空间人员定位装置,该方法具体包括的步骤如下:
步骤2.1:分别获取所述5个深度相机在同一时刻采集的灰度影像和深度影像;
步骤2.2:对每个深度相机采集的灰度影像进行畸变校正,通过MATLAB软件计算相机的畸变系数和内参数;
步骤2.3:对每个深度相机进行温度补偿校正,最终计算获得准确的3D深度影像数据;
步骤2.4:对每个深度相机采集的深度影像进行三维滤波增强,消除深度影像中的噪点,提高拍摄的应用场景的深度影像质量;
步骤2.5:对每个深度相机采集的深度影像进行动态阈值分割,获取人体目标区域,即腰部以上的头肩区域;
步骤2.6:根据所获得的人体目标区域提取头肩区域垂直方向深度直方图(Histograms of Oriented Depth,HOD)特征,和头部区域空间密度(Spatial Density ofHead,SDH)特征Dhead为:
其中,VRec为人头部所在的三维空间体积;VHead为头部的体积,可近似为球体体积,表示为:
其中,Ti(x,y)为深度影像数据二值化后的结果,为有效的目标点,hz为深度影像中头部区域;
步骤2.7:根据步骤2.6,提取人体目标区域测试样本的HOD特征和SDH特征,并进行特征训练,来获取决策函数,进而区分不同类别目标的特征向量;
步骤2.8:根据所述决策函数判断各个3D深度影像中是否为人体目标,如果判断为否,则进入步骤2.13,如果判断为是,则进入步骤2.9;
步骤2.9:根据所获得的人体目标的头部区域的2D影像和3D深度影像,判断该区域是否满足头部凸面方形相似度(Convexity and Square Similarity of Head,CSSH)特征;如果不满足,则进入步骤2.13,如果满足则进入步骤2.10;
CSSH特征Scs为;
Scs=k1*Scon+k2*Ssqu
其中,k1,k2为权重系数,Scon为头部凸面相似度,Ssqu为头部方形相似度。并设定Tk∈[0,1]为判断阈值;当Scs≥Tk,当前区域满足CSSH特征;反之,则不满足;
头部凸面相似度Scon为:
其中,n为头部区域圆弧凸面的边缘上选取的凸点的个数,且n为偶数;N为满足凸面上任意一条圆弧曲线从它的一端到另外一端的过程中满足斜率变化规律的点的个数;
头部方形相似度Ssqu为:
其中,Hi(x,y)为头部区域所在的外接平面矩形区域,M为行数,N为列数;Chead为矩形区域周长;
步骤2.10:根据步骤2.9的判断结果确定人体目标,计算头部区域的中心点为人体目标定位点,从而获得2D影像中的人体目标定位点;
步骤2.11:根据2D人体目标定位点和该点的3D影像数据计算实际空间中的人员位置,即x轴坐标X,y轴坐标Y和人体高度H,并统一变换到世界坐标系,包括:
2.11a:以中间深度相机1.1所在位置为场景原点,其相机坐标系为场景对应的世界坐标系,获取的人员位置不需坐标变换;
2.11b:将前方深度相机1.2计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取前方深度相机1.2得到的人员位置变换后的世界坐标;
2.11c:将后方深度相机1.3计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取后方深度相机1.3得到的人员位置变换后的世界坐标;
2.11d:将左侧深度相机1.4计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取左侧深度相机1.4得到的人员位置变换后的世界坐标;
2.11e:将右侧深度相机1.5计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取右侧深度相机1.5得到的人员位置变换后的世界坐标;
步骤2.12:根据步骤2.11计算得到的人员位置坐标,对获得的多组定位数据进行加权数据融合,内容包括:
2.12a:如果仅有一个深度相机可以得到确定的人体头部区域,则直接计算获得人体目标的人员位置坐标(X,Y,H);
2.12b:如果两台深度相机可以得到确定的人体头部区域,则输出人员位置坐标为:
X=cx1x1+cx2x2
Y=cy1y1+cy2y2
H=ch1h1+ch2h2
2.12c:如果三台深度相机可以得到确定的人体头部区域,则输出人员位置坐标为:
X=cx1x1+cx2x2+cx3x3
Y=cy1y1+cy2y2+cy3y3
H=ch1h1+ch2h2+ch3h3
步骤2.13:未检测到人体目标,输出人员位置坐标为(0,0,0)。
与现有技术相比,本发明的有益效果是:本发明基于多深度相机的空间人员定位装置及方法采用多个深度相机来对空间的人员进行检测定位,扩大了测量范围;利用3D深度影像直接获取人员的距离信息,克服了现有的空间人员定位技术设备复杂,受环境影响大,不能实时提供准确有效的人员位置信息等缺陷;多个智能深度相机协同工作,对定位信息进行了数据融合处理,使整个系统运行更加稳定,定位数据更加可靠,鲁棒性更强。
附图说明
图1是一种基于多深度相机的空间人员定位装置空间场景图;
图2是一种基于多深度相机的空间人员定位装置结构布局平面图;
图3是一种基于多深度相机的空间人员定位方法流程图;
图4是本发明中人体头部区域空间分布示意图;
图5是本发明中人体头部区域圆弧凸面示意图;
图6是本发明中人体头部区域外接平面矩形示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1和图2所示,一种基于多深度相机的空间人员定位装置,该定位装置的深度影像获取和处理由5个深度相机组成,分别为中间深度相机1.1、前方深度相机1.3、左侧深度相机1.3、后方深度相机1.4、右侧深度相机1.5;其中中间深度相机安装在上方垂直向下拍摄,另外四个深度相机分别安装在中间深度相机的四周,且与水平方向有一固定的夹角,各个深度相机的参数相同,该参数包括测量精度、距离分辨率、影像分辨率、水平视场角、垂直视场角和相机焦距;
如图3所示,一种基于多深度相机的空间人员定位方法,使用上述的基于多深度相机的空间人员定位装置,具体步骤如下:
步骤2.1:分别获取所述5个深度相机在同一时刻采集的灰度影像和深度影像;
步骤2.2:对每个深度相机采集的灰度影像进行畸变校正,通过MATLAB软件计算相机的畸变系数和内参数;
步骤2.3:对每个深度相机进行温度补偿校正,最终计算获得准确的3D深度影像数据;
步骤2.4:对每个深度相机采集的深度影像进行三维滤波增强,消除深度影像中的噪点,提高拍摄的应用场景的深度影像质量;
步骤2.5:对每个深度相机采集的深度影像进行动态阈值分割,获取人体目标区域,即腰部以上的头肩区域;
步骤2.6:根据所获得的人体目标区域提取头肩区域垂直方向深度直方图(Histograms of Oriented Depth,HOD)特征,和头部区域空间密度(Spatial Density ofHead,SDH)特征Dhead为:
其中,VRec为人头部所在的三维空间体积;VHead为头部的体积,可近似为球体体积,表示为:
其中,Ti(x,y)为深度影像数据二值化后的结果,为有效的目标点,hz为深度影像中头部区域;
步骤2.7:根据步骤2.6,提取人体目标区域测试样本的HOD特征和SDH特征,并进行特征训练,来获取决策函数,进而区分不同类别目标的特征向量;
步骤2.8:根据所述决策函数判断各个3D深度影像中是否为人体目标,如果判断为否,则进入步骤2.13,如果判断为是,则进入步骤2.9;
步骤2.9:根据所获得的人体目标的头部区域的2D影像和3D深度影像,判断该区域是否满足头部凸面方形相似度(Convexity and Square Similarity of Head,CSSH)特征。如果不满足,则进入步骤2.13,如果满足则进入步骤2.10。
CSSH特征Scs为;
Scs=k1*Scon+k2*Ssqu
其中,k1,k2为权重系数,Scon为头部凸面相似度,Ssqu为头部方形相似度。并设定Tk∈[0,1]为判断阈值。当Scs≥Tk,当前区域满足CSSH特征;反之,则不满足。
头部凸面相似度Scon为:
其中,n为头部区域圆弧凸面的边缘上选取的凸点的个数,且n为偶数;N为满足凸面上任意一条圆弧曲线从它的一端到另外一端的过程中满足斜率变化规律的点的个数。
头部方形相似度Ssqu为:
其中,Hi(x,y)为头部区域所在的外接平面矩形区域,M为行数,N为列数,如3D影像数据为有效点,值为1,否则值为0;Chead为矩形区域周长;
步骤2.10:根据步骤2.9的判断结果确定人体目标,计算头部区域的中心点为人体目标定位点,从而获得2D影像中的人体目标定位点。
步骤2.11:根据2D人体目标定位点和该点的3D影像数据计算实际空间中的人员位置,即x轴坐标X,y轴坐标Y和人体高度H,并统一变换到世界坐标系,包括:
2.11a:以中间深度相机1.1所在位置为场景原点,其相机坐标系为场景对应的世界坐标系,获取的人员位置不需坐标变换;
2.11b:将前方深度相机1.2计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取前方深度相机1.2得到的人员位置变换后的世界坐标;
2.11c:将后方深度相机1.3计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取后方深度相机1.3得到的人员位置变换后的世界坐标;
2.11d:将左侧深度相机1.4计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取左侧深度相机1.4得到的人员位置变换后的世界坐标;
2.11e:将右侧深度相机1.5计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取右侧深度相机1.5得到的人员位置变换后的世界坐标;
步骤2.12:根据步骤2.11计算得到的人员位置坐标,对获得的多组定位数据进行加权数据融合,内容包括:
2.12a:如果仅有一个深度相机可以得到确定的人体头部区域,则直接计算获得人体目标的人员位置坐标(X,Y,H);
2.12b:如果两台深度相机可以得到确定的人体头部区域,则输出人员位置坐标为:
X=cx1x1+cx2x2
Y=cy1y1+cy2y2
H=ch1h1+ch2h2
2.12c:如果三台深度相机可以得到确定的人体头部区域,则输出人员位置坐标为:
X=cx1x1+cx2x2+cx3x3
Y=cy1y1+cy2y2+cy3y3
H=ch1h1+ch2h2+ch3h3
步骤2.13:未检测到人体目标,输出人员位置坐标为(0,0,0);
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种基于多深度相机的空间人员定位装置,其特征在于:该定位装置的深度影像获取和处理由5个深度相机组成,即分别为中间深度相机、前方深度相机、左侧深度相机、后方深度相机以及右侧深度相机;其中所述中间深度相机安装在上方垂直向下拍摄,另外四个深度相机分别安装在该中间深度相机的四周,且均与水平方向有一固定的夹角θ,各个深度相机的参数相同,该参数包括测量精度、距离分辨率、影像分辨率、水平视场角、垂直视场角和相机焦距;
其定位方法具体包括的步骤如下:
步骤2.1:分别获取所述5个深度相机在同一时刻采集的灰度影像和深度影像;
步骤2.2:对每个深度相机采集的灰度影像进行畸变校正,通过MATLAB软件计算相机的畸变系数和内参数;
步骤2.3:对每个深度相机进行温度补偿校正,最终计算获得准确的3D深度影像数据;
步骤2.4:对每个深度相机采集的深度影像进行三维滤波增强,消除深度影像中的噪点,提高拍摄的应用场景的深度影像质量;
步骤2.5:对每个深度相机采集的深度影像进行动态阈值分割,获取人体目标区域,即腰部以上的头肩区域;
步骤2.6:根据所获得的人体目标区域提取头肩区域垂直方向深度直方图(Histogramsof Oriented Depth,HOD)特征,和头部区域空间密度(Spatial Density of Head,SDH)特征Dhead为:
其中,VRec为人头部所在的三维空间体积;VHead为头部的体积,可近似为球体体积,表示为:
其中,Ti(x,y)为深度影像数据二值化后的结果,为有效的目标点,hz为深度影像中头部区域;
步骤2.7:根据步骤2.6,提取人体目标区域测试样本的HOD特征和SDH特征,并进行特征训练,来获取决策函数,进而区分不同类别目标的特征向量;
步骤2.8:根据所述决策函数判断各个3D深度影像中是否为人体目标,如果判断为否,则进入步骤2.13,如果判断为是,则进入步骤2.9;
步骤2.9:根据所获得的人体目标的头部区域的2D影像和3D深度影像,判断该区域是否满足头部凸面方形相似度(Convexity and Square Similarity of Head,CSSH)特征;如果不满足,则进入步骤2.13,如果满足则进入步骤2.10;
CSSH特征Scs为;
Scs=k1*Scon+k2*Ssqu
其中,k1,k2为权重系数,Scon为头部凸面相似度,Ssqu为头部方形相似度;并设定Tk∈[0,1]为判断阈值;当Scs≥Tk,当前区域满足CSSH特征;反之,则不满足;
头部凸面相似度Scon为:
其中,n为头部区域圆弧凸面的边缘上选取的凸点的个数,且n为偶数;N为满足凸面上任意一条圆弧曲线从它的一端到另外一端的过程中满足斜率变化规律的点的个数;
头部方形相似度Ssqu为:
其中,Hi(x,y)为头部区域所在的外接平面矩形区域,M为行数,N为列数;Chead为矩形区域周长;
步骤2.10:根据步骤2.9的判断结果确定人体目标,计算头部区域的中心点为人体目标定位点,从而获得2D影像中的人体目标定位点;
步骤2.11:根据2D人体目标定位点和该点的3D影像数据计算实际空间中的人员位置,即x轴坐标X,y轴坐标Y和人体高度H,并统一变换到世界坐标系,包括:
2.11a:以中间深度相机1.1所在位置为场景原点,其相机坐标系为场景对应的世界坐标系,获取的人员位置不需坐标变换;
2.11b:将前方深度相机1.2计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取前方深度相机1.2得到的人员位置变换后的世界坐标;
2.11c:将后方深度相机1.3计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取后方深度相机1.3得到的人员位置变换后的世界坐标;
2.11d:将左侧深度相机1.4计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取左侧深度相机1.4得到的人员位置变换后的世界坐标;
2.11e:将右侧深度相机1.5计算得到的人员位置相机坐标乘对应的旋转矩阵加上对应的平移矩阵,获取右侧深度相机1.5得到的人员位置变换后的世界坐标;
步骤2.12:根据步骤2.11计算得到的人员位置坐标,对获得的多组定位数据进行加权数据融合,内容包括:
2.12a:如果仅有一个深度相机可以得到确定的人体头部区域,则直接计算获得人体目标的人员位置坐标(X,Y,H);
2.12b:如果两台深度相机可以得到确定的人体头部区域,则输出人员位置坐标为:
X=cx1x1+cx2x2
Y=cy1y1+cy2y2
H=ch1h1+ch2h2
2.12c:如果三台深度相机可以得到确定的人体头部区域,则输出人员位置坐标为:
X=cx1x1+cx2x2+cx3x3
Y=cy1y1+cy2y2+cy3y3
H=ch1h1+ch2h2+ch3h3
步骤2.13:未检测到人体目标,输出人员位置坐标为(0,0,0)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810903890.5A CN109308718B (zh) | 2018-08-09 | 2018-08-09 | 一种基于多深度相机的空间人员定位装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810903890.5A CN109308718B (zh) | 2018-08-09 | 2018-08-09 | 一种基于多深度相机的空间人员定位装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109308718A CN109308718A (zh) | 2019-02-05 |
CN109308718B true CN109308718B (zh) | 2022-09-23 |
Family
ID=65225828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810903890.5A Active CN109308718B (zh) | 2018-08-09 | 2018-08-09 | 一种基于多深度相机的空间人员定位装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109308718B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110232353B (zh) * | 2019-06-12 | 2023-06-06 | 成都世纪光合作用科技有限公司 | 一种获取场景人员深度位置的方法和装置 |
CN111179312B (zh) * | 2019-12-24 | 2023-07-21 | 北京欣奕华科技有限公司 | 基于3d点云和2d彩色图像相结合的高精度目标跟踪方法 |
CN111611914A (zh) * | 2020-05-20 | 2020-09-01 | 北京海月水母科技有限公司 | 一种双目人脸识别探头人形定位技术 |
CN112697065B (zh) * | 2021-01-25 | 2022-07-15 | 东南大学 | 基于相机阵列的三维形貌重构方法 |
CN112734820B (zh) * | 2021-03-29 | 2021-08-03 | 之江实验室 | 注视目标估计的方法和装置、电子设备、神经网络结构 |
CN113538578B (zh) * | 2021-06-22 | 2023-07-25 | 恒睿(重庆)人工智能技术研究院有限公司 | 目标定位方法、装置、计算机设备和存储介质 |
CN113965701B (zh) * | 2021-09-10 | 2023-11-14 | 苏州雷格特智能设备股份有限公司 | 一种基于两个深度相机的多目标空间坐标对应绑定方法 |
CN117222543A (zh) * | 2021-10-14 | 2023-12-12 | 宁德时代新能源科技股份有限公司 | 确定电池箱的位置的方法及拆换电池箱的方法 |
CN114119761B (zh) * | 2022-01-28 | 2022-06-14 | 杭州宏景智驾科技有限公司 | 多相机机动车定位方法和装置、电子设备和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106485735A (zh) * | 2015-09-01 | 2017-03-08 | 南京理工大学 | 基于立体视觉技术的人体目标识别与跟踪方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9269151B2 (en) * | 2014-02-11 | 2016-02-23 | Microsoft Technology Licensing, Llc | Manufacturing line monitoring |
CN106683130B (zh) * | 2015-11-11 | 2020-04-10 | 杭州海康威视数字技术股份有限公司 | 一种深度图像获得方法及装置 |
CN205230344U (zh) * | 2015-12-24 | 2016-05-11 | 北京万集科技股份有限公司 | 一种基于tof相机的车辆定位系统 |
CN107689054B (zh) * | 2017-08-24 | 2020-09-22 | 北京航空航天大学 | 一种多相机拓扑连通图建立与跨相机目标跟踪方法 |
-
2018
- 2018-08-09 CN CN201810903890.5A patent/CN109308718B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106485735A (zh) * | 2015-09-01 | 2017-03-08 | 南京理工大学 | 基于立体视觉技术的人体目标识别与跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109308718A (zh) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109308718B (zh) | 一种基于多深度相机的空间人员定位装置及方法 | |
CN105894499B (zh) | 一种基于双目视觉的空间物体三维信息快速检测方法 | |
CN104463108B (zh) | 一种单目实时目标识别及位姿测量方法 | |
CN107392963B (zh) | 一种用于软式自主空中加油的仿鹰眼运动目标定位方法 | |
CN102902355B (zh) | 移动设备的空间交互方法 | |
CN110443199B (zh) | 一种基于二维几何轮廓的点云姿态识别方法 | |
CN110889829B (zh) | 一种基于鱼眼镜头的单目测距方法 | |
CN108235774B (zh) | 信息处理方法、装置、云处理设备以及计算机程序产品 | |
CN106570903A (zh) | 一种基于rgb‑d摄像头的视觉识别与定位方法 | |
CN107392929B (zh) | 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法 | |
KR102206108B1 (ko) | 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법 | |
CN107977996B (zh) | 基于靶标标定定位模型的空间目标定位方法 | |
CN105225230A (zh) | 一种识别前景目标对象的方法及装置 | |
US11727637B2 (en) | Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera | |
CN106033614B (zh) | 一种强视差下的移动相机运动目标检测方法 | |
CN106504289B (zh) | 一种室内目标检测方法及装置 | |
CN108230402B (zh) | 一种基于三棱锥模型的立体标定方法 | |
CN113850865A (zh) | 一种基于双目视觉的人体姿态定位方法、系统和存储介质 | |
CN112085802A (zh) | 一种基于双目摄像头获取三维指静脉图像的方法 | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN115359130A (zh) | 雷达和相机的联合标定方法、装置、电子设备及存储介质 | |
CN117523461A (zh) | 一种基于机载单目相机的运动目标跟踪与定位方法 | |
CN108388854A (zh) | 一种基于改进fast-surf算法的定位方法 | |
CN110909571A (zh) | 一种高精度面部识别空间定位方法 | |
Wang et al. | Target recognition and localization of mobile robot with monocular PTZ camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |