CN104156972B - 基于激光扫描测距仪与多相机融合的透视成像方法 - Google Patents

基于激光扫描测距仪与多相机融合的透视成像方法 Download PDF

Info

Publication number
CN104156972B
CN104156972B CN201410422858.7A CN201410422858A CN104156972B CN 104156972 B CN104156972 B CN 104156972B CN 201410422858 A CN201410422858 A CN 201410422858A CN 104156972 B CN104156972 B CN 104156972B
Authority
CN
China
Prior art keywords
point
laser scanning
matrix
coordinate system
point set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410422858.7A
Other languages
English (en)
Other versions
CN104156972A (zh
Inventor
杨涛
张艳宁
马文广
王斯丙
姚博伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201410422858.7A priority Critical patent/CN104156972B/zh
Publication of CN104156972A publication Critical patent/CN104156972A/zh
Application granted granted Critical
Publication of CN104156972B publication Critical patent/CN104156972B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种基于激光扫描测距仪与多相机融合的透视成像方法,摒弃了传统方法只采用图像传感器的方式,在使用图像传感器获取图像信息的基础上引入了激光扫描测距仪获取场景的点云数据,利用点云数据获取场景的深度信息,根据深度信息进行聚焦深度的选择,减少时间复杂度。同时本发明利用场景的深度信息,可以对获得的投影点进行筛选,提高透视成像结果的清晰度。由于本发明采用全景相机获取场景的图像信息,同时获取多视角的图像,因此能够获取多视角透视成像结果。本发明在自建数据库上进行测试结果,测试结果显示本方法能够快速有效的得到更清晰的多视角透视成像结果。

Description

基于激光扫描测距仪与多相机融合的透视成像方法
技术领域
本发明涉及一种合成孔径透视成像方法,特别是一种基于激光扫描测距仪与多相机融合的透视成像方法。
背景技术
相机阵列透视成像是计算机视觉领域的一个重要研究课题,在视频监控、隐藏目标探测等方面具有广泛的应用。文献“Synthetic Aperture Imaging using PixelLabeling via Energy Minimization,PR,46(1):174-187,2013”公开了一种基于能量最小化像素标记的合成孔径成像方法。该方法将透视成像转化为前景点/非前景点的分类问题,首先对每个相机视角下的像素利用能量最小化方法标记属于遮挡物的前景像素点,然后,在给定聚焦深度对非前景像素点进行平均,获得遮挡目标透视成像。虽然这种方法能够对指定深度目标的透视成像,但是由于该方法采用了能量最小化像素标记的方式进行前景的标记工作,需要进行大量的计算,因此时间复杂度高。同时,由于标记的精度问题,使得前景的标记工作存在较大误差,影响透视成像的清晰度。此外,该方法只进行了传统的单镜头的透视成像工作,对于大场景多视角的透视成像不具有适用性。
发明内容
要解决的技术问题
为了避免现有技术的成像方法透视成像不够清晰、时间复杂度较高、无法完成多视角透视成像的缺点,本发明提出一种基于激光扫描测距仪与多相机融合的透视成像方法。
技术方案
一种基于激光扫描测距仪与多相机融合的透视成像方法,其特征在于步骤如下:
步骤1:确定以激光扫描测距仪载台中心为世界坐标系原点的世界坐标系,测量激光扫描测距仪A、B和C的二维扫描坐标系的原点到世界坐标系的距离和偏转角度,计算激光扫描测距仪扫描获取的二维点云到世界坐标系的旋转矩阵和平移矩阵,完成激光扫描测距仪的标定;
步骤2:对激光扫描测距仪A在t时刻采集的目标点云集Pt中每个点的领域进行高斯分布统计分析,删除不符合高斯分布的离群点,获得目标点集P't;使用KD-tree方法对激光扫描测距仪A在t-1时刻采集的点集Pt-1构建拓扑结构,利用点集P't查找点集Pt-1中对应的临近点,获得参考点集Pt-1';使用ICP算法获取目标点集P't到参考点集Pt-1'的2x2的旋转矩阵Rt'和2x1的平移矩阵Tt',计算点集Pt投影到全局世界坐标系的旋转矩阵Rt=Rt-1R't,平移矩阵Tt=Rt·Tt'+Tt-1,其中Rt-1、Tt-1分别为点集Pt-1'到全局世界坐标系的旋转矩阵和平移矩阵,将点集Pt投影到全局世界坐标系中,获取二维地图;
步骤3:利用张氏标定法对第0-5号相机的镜头进行内参标定,获取内参矩阵K0,K1,K2,K3,K4,K5
步骤4:利用黑白格标定板方法,计算标定平面参数N,采用标准线性最小二乘法计算矩阵H:
N · H P ^ l = | | N | | 2
通过H计算第0号镜头相对于激光扫描测距仪A的标准正交方向矩阵以及位置向量利用非线性优化算法进一步优化方向矩阵以及位置向量同样方法得到第1号镜头与激光扫描测距仪B的标准正交方向矩阵以及位置向量第4号镜头与激光扫描测距仪C的标准正交方向矩阵以及位置向量
步骤5:根据二维地图构建过程中所获取的点集Pt A到全局世界坐标系的旋转矩阵Rt以及平移矩阵Tt,所述的Pt A为激光扫描测距仪A在t时刻获取激光点云集合,则在t时刻相机视角对应的位姿参数为:
R c = R t 0 0 1 , T c = T t 0 T
步骤6:利用二维地图构建过程中使用的ICP算法,获取激光扫描测距仪B或C在t时刻采集的点集Pti s(i=1,2,…,n.s=B,C)到上一组点集Pt0 s(s=B,C)所在坐标系的旋转矩阵Rti0 s和Tti0 s,计算变换后的点集
P ti s ^ = R ti 0 s · P ti s + T ti 0 s , ( i = 1,2 , . . . , n . s = B , C )
计算到第1号镜头及第4号镜头的相机坐标系中的对应点集合:
P ti B ^ = R c 1 l T c 1 l 0 1 P c 1
P ti C ^ = R c 4 l T c 4 l 0 1 P c 4
根据小孔成像模型Pimg=KPc获取点集Pt1 B,Pt2 B,…,Ptn B以及Pt1 C,Pt2 C,…,Ptn C在彩色图像上的对应像素坐标,K表示相机内参标定获取的相机内参矩阵;从而得到点云数据的彩色纹理信息,实现点云数据与图像数据的融合,获取图像数据中部分像素所对应的深度信息;
步骤7:计算聚焦平面Πdes上的像素点pdes(x,y)在参考视角坐标系下对应的3维空间点pref为:
pref=pdes·step+ws
其中step表示在参考视角坐标系下Πdes中一个像素的大小,ws表示Πdes在参考视角坐标系下的起始点,所述的参考视角为每个相机采集的第一帧图像;step可以由以下公式求取:
step = stepx stepy = ± 0.5 * ( w h / f x f y ) * dep
其中w和h分别表示合成图像的宽和高,fx和fy表示相机的焦距,dep表示聚焦平面的深度,计算pref在世界坐标系下的对应点pw
pw=Rref·pref+Tref
其中Rref表示参考视角的旋转矩阵,Tref表示参考视角的平移矩阵,通过对pw利用针孔相机模型进行投影变换,得到像素点pdes(x,y)在每一个视角下对应的点pi',并组成一个点集合表示为P'={p1',p2',…,pn'}:
s * p i ′ 1 = K · [ R i | T i ] · p w 1
其中[Ri|Ti]为第i个视角的旋转矩阵和平移矩阵,如果pi'在成像平面Πi上,则可以获得这个点的RGB值,记为cj,以及深度值dj,同样方法获取所有投影点的像素值,组成颜色值集合Cdes={c1,c2,…,cn}和深度值集合Ddes={d1,d2,…,dn},根据深度值信息,去除不合理的投影点,采用求取平均值的方式,获取点pdes(x,y)的颜色值,得到遮挡目标的透视成像。
有益效果
本发明提出的一种基于激光扫描测距仪与多相机融合的透视成像方法,利用激光扫描测距仪获取场景的点云信息,同时融合全景相机获取的场景彩色图像信息,利用合成孔径成像方法,可以更快速的获取更清晰透视成像结果。由于全景相机可以采集全视角的全景图像,因此本算法能够获取多视角的透视成像结果。在自建数据库上的测试结果显示,本发明能够快速有效的得到更清晰的多视角透视成像结果。
具体实施方式
现结合实施例对本发明作进一步描述:
1、多激光扫描测距仪标定
本发明使用三台激光扫描测距仪获取场景的二维点云数据,其中激光扫描测距仪A(前扫描)用于进行二维地图构建,激光扫描测距仪B(左侧扫描)用于场景左侧点云数据获取,激光扫描测距仪C(右侧扫描)用于场景右侧点云数据获取。
首先根据实验平台的设计信息,确定激光扫描测距仪的世界坐标系(本发明选取激光扫描测距仪载台中心为世界坐标系原点)。然后根据扫描测距仪的布局信息,测量获取单台扫描测距仪的二维扫描坐标系的原点到世界坐标系的距离、偏转角度等信息,计算得到激光扫描测距仪扫描获取的二维点云到世界坐标系的旋转矩阵和平移矩阵,完成激光扫描测距仪的标定。
2、二维地图构建
激光扫描测距仪A(本发明使用的激光扫描测距仪为德国SICK LMS511-10100型,扫描频率为50HZ,扫描角度为-5°~185°,角分变率为0.5°)在t时刻采集的目标点云集Pt中每个点的领域进行统计分析,对于配个点p,计算该点到其所有临近点的平均距离。假设的得到的结果是一个高斯分布,其形状由均值和标准差决定,平均距离在标准范围(由全局距离平均值和方差定义)之外的点,定义为离群点并从数据集中删除,获得目标点集P't
使用KD-tree方法对激光扫描测距仪A在t-1时刻采集的点集Pt-1构建拓扑结构,利用点集P't查找点集Pt-1中对应的临近点,获得参考点集Pt-1'。
以数据开始采集时刻数据采集平台所处位置的激光扫描测距仪世界坐标系为全局世界坐标系,使用ICP算法获取目标点集P't到参考点集Pt-1'的2x2的旋转矩阵Rt'和2x1的平移矩阵Tt',设点集Pt-1'到全局世界坐标系的旋转矩阵为Rt-1,平移矩阵为Tt-1,则点集Pt投影到全局世界坐标系的旋转矩阵为Rt=Rt-1Rt',平移矩阵为Tt=Rt·Tt'+Tt-1。将点集Pt投影到全局世界坐标系中,获取二维地图。
3、相机内参标定
该部分主要由现有的技术完成,在内部参数的标定方法中,以基于二维标定板的标定方法最为成熟,其实现条件简单且精度较好,本发明中采用12行9列的二维平面标定板,其中格子尺寸为2cm×2cm,利用张氏标定法对全景相机中的单相机进行标定,该标定方法以若干不同姿态的标定板图像作为输入,利用检测到的标定板上角点的图像坐标来计算相机的内部参数以及畸变系数,完成相机内参标定。按照此方法,依次完成六个相机镜头的相机内参标定工作,获取内参矩阵K0,K1,K2,K3,K4,K5
4、彩色相机与激光扫描测距仪的联合标定
根据坐标变换理论可知,将相机坐标转换为扫描测距仪坐标可以利用如下公式:
P l = R c l T c l 0 1 P c - - - ( 4 )
P l = H c l P c - - - ( 5 )
H c l = R c l T c l 0 1 - - - ( 6 )
其中Pl为激光扫描测距仪获取的点云坐标,为彩色相机与激光扫描测距仪之间的旋转矩阵,为两者之间的平移矩阵。
由于平面在三维坐标系中可以用它的法线表示,因此标定板平面可以表示其中N表示平行于法线并且大小等于相机到标定板的距离。因为从相机中估计的激光点云必须处于标定板上,因此可得如下几何约束:
N · ( R c l ) - 1 ( P l - T c l ) = | | N | | 2 - - - ( 7 )
其中Pl为激光扫描测距仪获取的点云坐标,利用公式(4)可知,Pl在相机参考帧中的对应点由于点Pc在标定板平面上,因此有N·Pc=||N||2,进而得到该几何约束。
由于激光扫描测距仪所得到的点为2维点,令点Pl=[x y z 1]T,则点Pl可以进一步化简为 P ^ l = x z 1 T , 公式(7)就可以表示为:
N · H P ^ l = | | N | | 2 - - - ( 8 )
其中 H = ( R c l ) - 1 1 0 0 0 - T c l 0 1 , 且是一个能够将激光扫描测距仪坐标系变换为相机坐标系的3x3矩阵,将H用向量表示为H=[H1,H2,H3],其中Hi表示H矩阵中的第i行。对于不同位置的标定板,本算法能够得到不同的线性公式,从而采用线性最小二乘法解得H。一旦获取H,就能够根据公式(9)和公式(10)获取得到第0号镜头相对于激光扫描测距仪的标准正交方向矩阵以及位置向量
R c 0 l = [ H 1 , - H 1 × H 2 , H 2 ] T - - - ( 9 )
T c 0 l = - [ H 1 , - H 1 × H 2 , H 2 ] T H 3 - - - ( 10 )
同理,获取第1号镜头与激光扫描测距仪B的标准正交方向矩阵以及位置向量以及第4号镜头与激光扫描测距仪C的标准正交方向矩阵以及位置向量
5、相机位姿估计
相机位姿估计将主要获取相机坐标系相对于世界坐标系的旋转矩阵Rc以及平移矩阵Tc。由于数据采集过程中,数据采集平台的运动被固定在水平平面内,因此Rc和Tc将满足以下形式:
R c = r 1 r 2 0 r 3 r 4 0 0 0 1 , T c = r 1 r 2 0 - - - ( 11 )
其中ri和ti分别表示Rc矩阵和矩阵Tc中的不同参数。
已知数据采集平台在t时刻采集获取多视角图像It0,It1,It2,It3,It4,It5以及激光点云集合Pt A(A表示激光扫描测距仪A获取的激光点云)。根据二维地图构建过程中所获取的点集Pt A到全局世界坐标系的旋转矩阵Rt以及平移矩阵Tt,则在t时刻相机视角对应的位姿参数为: R c = R t 0 0 1 , T c = T t 0 T .
6、点云数据与图像数据融合
本发明使用Ladybug5全景相机获取多视角图像,图像采集频率为每秒1帧,令数据采集平台在t时刻采集获取多视角图像It0,It1,It2,It3,It4,It5以及激光点云集合Pt0 B和Pt0 C(B表示激光扫描测距仪B获取的激光点云,C表示激光扫描测距仪C获取的激光点云),在进行下一组图像采集时,激光扫描测距仪获取的点云集合记为Pt1 B,Pt2 B,…,Ptn B以及Pt1 C,Pt2 C,…,Ptn C。利用二维地图构建过程中使用的ICP算法,获取点集Pti s(i=1,2,…,n.s=B,C)到点集Pt0 s(s=B,C)所在坐标系的旋转矩阵Rti0 s和Tti0 s,根据公式(12):
P ti s ^ = R ti 0 s · P ti s + T ti 0 s , ( i = 1,2 , . . . , n . s = B , C ) - - - ( 12 )
获取变换后的点集
已知第1号镜头与激光扫描测距仪B的标准正交方向矩阵以及位置向量以及第4号镜头与激光扫描测距仪C的标准正交方向矩阵以及位置向量则通过公式(4)可以获取点集到第1号镜头及第4号镜头的相机坐标系中的对应点集合。由于可以将相机的成像模型看成小孔成像模型,因此根据小孔成像模型有:
Pimg=KPc (13)
其中K表示相机内参标定获取的相机内参矩阵,由公式(13)获取点集Pt1 B,Pt2 B,…,Ptn B以及Pt1 C,Pt2 C,…,Ptn C在彩色图像上的对应像素坐标,建立点云数据与图像中像素点的对应关系,从而得到点云数据的彩色纹理信息,进而获取图像数据中部分像素所对应的深度信息(即像素点对应的点云的深度信息)。
7、遮挡目标透视成像
根据点云数据与图像数据融合结果(即点云数据与图像数据中像素点的对应结果),选择隐藏目标所在深度为聚焦深度,记为d,聚焦平面记为Πdes且平行于选取的参考视角。假设在含有隐藏目标的图像序列中共有n个不同的视角,记为V1,V2,…,Vref,…,Vn,Vref是选取的参考视角,Πi表示不同视角下的成像平面。设点pdes(x,y)表示Πdes上的像素点,因此在参考视角坐标系下对应的3维空间点pref为:
pref=pdes·step+ws (14)
其中step表示在参考相机坐标系下Πdes中一个像素的大小,ws表示Πdes在参考相机坐标系下的起始点。step可以由以下公式求取:
step = stepx stepy = ± 0.5 * ( w h / f x f y ) * dep - - - ( 15 )
其中w和h分别表示合成图像的宽和高,fx和fy表示焦距,dep表示聚焦平面的深度。根据公式(3)得到点pref在世界坐标系下的对应点pw
pw=Rref·pref+Tref (16)
其中Rref表示参考相机的旋转矩阵,Tref表示参考相机的平移矩阵。通过对pw利用针孔相机模型进行投影变换,得到像素点pdes(x,y)在每一个视角下对应的点pi',并组成一个点集合表示为P'={p1',p2',…,pn'}:
s * p i ′ 1 = K · [ R i | T i ] · p w 1 - - - ( 17 )
其中K表示相机内参矩阵,[Ri|Ti]为第i个视角的旋转矩阵和平移矩阵。如果pi'在成像平面Πi上,则可以获得这个点的RGB值,记为cj,以及深度值dj。同样可以获取所有投影点的像素值,组成颜色值集合Cdes={c1,c2,…,cn}和深度值集合Ddes={d1,d2,…,dn}。根据深度值信息,去除不合理的投影点,采用求取平均值的方式,获取点pdes(x,y)的颜色值。
根据以上方法,获取聚焦平面Πdes上所有点的颜色值,得到遮挡目标的透视成像结果。

Claims (1)

1.一种基于激光扫描测距仪与多相机融合的透视成像方法,其特征在于步骤如下:
步骤1:确定以激光扫描测距仪载台中心为世界坐标系原点的世界坐标系,测量激光扫描测距仪A、B和C的二维扫描坐标系的原点到世界坐标系的距离和偏转角度,计算激光扫描测距仪扫描获取的二维点云到世界坐标系的旋转矩阵和平移矩阵,完成激光扫描测距仪的标定;
步骤2:对激光扫描测距仪A在t时刻采集的目标点云集Pt中每个点的领域进行高斯分布统计分析,删除不符合高斯分布的离群点,获得目标点集P't;使用KD-tree方法对激光扫描测距仪A在t-1时刻采集的点集Pt-1构建拓扑结构,利用点集P't查找点集Pt-1中对应的临近点,获得参考点集Pt-1';使用ICP算法获取目标点集P't到参考点集Pt-1'的2x2的旋转矩阵Rt'和2x1的平移矩阵Tt',计算点集Pt投影到全局世界坐标系的旋转矩阵Rt=Rt-1gR′t,平移矩阵Tt=RtgT′t+Tt-1,其中Rt-1、Tt-1分别为点集Pt-1'到全局世界坐标系的旋转矩阵和平移矩阵,将点集Pt投影到全局世界坐标系中,获取二维地图;
步骤3:利用张氏标定法对第0-5号相机的镜头进行内参标定,获取内参矩阵K0,K1,K2,K3,K4,K5
步骤4:利用黑白格标定板方法,计算标定平面参数N,采用标准线性最小二乘法计算矩阵H:
N · H P l ^ = | | N | | 2
通过H计算第0号镜头相对于激光扫描测距仪A的标准正交方向矩阵以及位置向量利用非线性优化算法进一步优化方向矩阵以及位置向量同样方法得到第1号镜头与激光扫描测距仪B的标准正交方向矩阵以及位置向量第4号镜头与激光扫描测距仪C的标准正交方向矩阵以及位置向量 为激光扫描测距仪获取的点云坐标Pl的简化,
步骤5:根据二维地图构建过程中所获取的点集Pt A到全局世界坐标系的旋转矩阵Rt以及平移矩阵Tt,所述的Pt A为激光扫描测距仪A在t时刻获取激光点云集合,则在t时刻相机视角对应的位姿参数为:
R c = R t 0 0 1 , T c = T t 0 T
步骤6:利用二维地图构建过程中使用的ICP算法,获取激光扫描测距仪B或C在t时刻采集的点集Pti s(i=1,2,L,n.s=B,C)到上一组点集Pt0 s(s=B,C)所在坐标系的旋转矩阵Rti0 s和Tti0 s,计算变换后的点集
P t i s ^ = R t i 0 s · P t i s + T t i 0 s , ( i = 1 , 2 , L , n . s = B , C )
计算到第1号镜头及第4号镜头的相机坐标系中的对应点集合:
P t i B ^ = R c 1 l T c 1 l 0 1 P c 1
P t i C ^ = R c 4 l T c 4 l 0 1 P c 4
根据小孔成像模型Pimg=KPc获取点集Pt1 B,Pt2 B,L,Ptn B以及Pt1 C,Pt2 C,L,Ptn C在彩色图像上的对应像素坐标,K表示相机内参标定获取的相机内参矩阵;从而得到点云数据的彩色纹理信息,实现点云数据与图像数据的融合,获取图像数据中部分像素所对应的深度信息;
步骤7:计算聚焦平面Πdes上的像素点pdes(x,y)在参考视角坐标系下对应的3维空间点pref为:
pref=pdesgstep+ws
其中step表示在参考视角坐标系下Πdes中一个像素的大小,ws表示Πdes在参考视角坐标系下的起始点,所述的参考视角为每个相机采集的第一帧图像;step可以由以下公式求取:
s t e p = s t e p x s t e p y = ± 0.5 * ( w h / f x f y ) * d e p
其中w和h分别表示合成图像的宽和高,fx和fy表示相机的焦距,dep表示聚焦平面的深度,计算pref在世界坐标系下的对应点pw
pw=Rrefgpref+Tref
其中Rref表示参考视角的旋转矩阵,Tref表示参考视角的平移矩阵,通过对pw利用针孔相机模型进行投影变换,得到像素点pdes(x,y)在每一个视角下对应的点pi',并组成一个点集合表示为P'={p1',p2',L,pn'}:
其中[Ri|Ti]为第i个视角的旋转矩阵和平移矩阵,如果pi'在成像平面Πi上,则可以获得这个点的RGB值,记为cj,以及深度值dj,同样方法获取所有投影点的像素值,组成颜色值集合Cdes={c1,c2,L,cn}和深度值集合Ddes={d1,d2,L,dn},根据深度值信息,去除不合理的投影点,采用求取平均值的方式,获取点pdes(x,y)的颜色值,得到遮挡目标的透视成像。
CN201410422858.7A 2014-08-25 2014-08-25 基于激光扫描测距仪与多相机融合的透视成像方法 Expired - Fee Related CN104156972B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410422858.7A CN104156972B (zh) 2014-08-25 2014-08-25 基于激光扫描测距仪与多相机融合的透视成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410422858.7A CN104156972B (zh) 2014-08-25 2014-08-25 基于激光扫描测距仪与多相机融合的透视成像方法

Publications (2)

Publication Number Publication Date
CN104156972A CN104156972A (zh) 2014-11-19
CN104156972B true CN104156972B (zh) 2017-01-25

Family

ID=51882462

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410422858.7A Expired - Fee Related CN104156972B (zh) 2014-08-25 2014-08-25 基于激光扫描测距仪与多相机融合的透视成像方法

Country Status (1)

Country Link
CN (1) CN104156972B (zh)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105737849A (zh) * 2015-12-24 2016-07-06 武汉武大卓越科技有限责任公司 隧道车用激光扫描仪与相机相对位置的检校方法
CN105701837A (zh) * 2016-03-21 2016-06-22 完美幻境(北京)科技有限公司 一种相机几何标定处理方法及装置
CN106127722B (zh) * 2016-05-03 2019-02-19 深圳视觉龙智能传感器有限公司 多相机的标定及对位贴合方法
CN106097348B (zh) * 2016-06-13 2019-03-05 大连理工大学 一种三维激光点云与二维图像的融合方法
CN107766784A (zh) * 2016-08-20 2018-03-06 宋坤骏 一种新型视频人数统计算法
WO2018176440A1 (zh) * 2017-04-01 2018-10-04 深圳市速腾聚创科技有限公司 点云与平面图像融合方法、智能设备及非易失性计算机可读存储介质
CN106969708B (zh) * 2017-04-20 2023-03-07 华侨大学 一种骨料形态质量的检测装置和方法
CN107292921B (zh) * 2017-06-19 2020-02-04 电子科技大学 一种基于kinect相机的快速三维重建方法
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
CN108226938B (zh) * 2017-12-08 2021-09-21 华南理工大学 一种agv小车的定位系统和方法
CN110019627B (zh) * 2017-12-25 2022-04-12 北京京东乾石科技有限公司 识别交通导流线的方法及其系统、计算机系统
CN107993027A (zh) * 2017-12-26 2018-05-04 潘永森 一种评价准确的洪水灾害风险评价系统
CN108230242B (zh) * 2018-01-10 2021-07-06 大连理工大学 一种从全景激光点云到视频流的转换方法
US10867414B2 (en) 2018-04-10 2020-12-15 Apple Inc. Point cloud attribute transfer algorithm
CN108731645A (zh) * 2018-04-25 2018-11-02 浙江工业大学 基于全景图的室外全景相机姿态估计方法
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
CN108775901B (zh) * 2018-07-20 2021-05-07 山东大学 一种实时slam场景地图构建系统、导航系统及方法
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US11430155B2 (en) 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
CN109917786A (zh) * 2019-02-04 2019-06-21 浙江大学 一种面向复杂环境作业的机器人感知系统及系统运行方法
CN111862224B (zh) * 2019-04-17 2023-09-19 杭州海康威视数字技术股份有限公司 确定相机与激光雷达之间外参的方法和装置
CN110796596A (zh) * 2019-08-30 2020-02-14 深圳市德赛微电子技术有限公司 图像拼接方法、成像装置及全景成像系统
CN112541950A (zh) * 2019-09-20 2021-03-23 杭州海康机器人技术有限公司 一种深度相机外参的标定方法、及装置
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
CN113532329B (zh) * 2020-03-16 2024-03-19 天目爱视(北京)科技有限公司 一种以投射光斑为标定点的标定方法
CN111521204B (zh) * 2020-03-19 2021-09-03 安徽建筑大学 一种基于绝对位置旋转型编码器的角位移视觉测量方法
CN111445507B (zh) * 2020-04-16 2023-07-18 北京深测科技有限公司 一种非视域成像的数据处理方法
CN111524176A (zh) * 2020-04-16 2020-08-11 深圳市沃特沃德股份有限公司 视距测量定位的方法、装置和计算机设备
CN111696141B (zh) * 2020-05-22 2023-10-27 武汉天际航信息科技股份有限公司 一种三维全景扫描采集方法、设备及存储设备
CN112233188B (zh) * 2020-10-26 2024-03-12 南昌智能新能源汽车研究院 一种激光雷达和全景相机的数据融合系统的标定方法
CN112581521B (zh) * 2020-12-22 2023-04-07 同济大学 一种磁浮轨道中心线提取方法
CN112880558A (zh) * 2021-01-12 2021-06-01 西北工业大学 一种六轴大部件筒段对接虚拟仿真台使用方法
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
CN113469947B (zh) * 2021-06-08 2022-08-05 智洋创新科技股份有限公司 一种适合多种地形的测量隐患与输电导线净空距离的方法
CN115690219A (zh) * 2023-01-03 2023-02-03 山东矩阵软件工程股份有限公司 一种复杂环境下运行列车三维信息的检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009032235A1 (en) * 2007-09-07 2009-03-12 Carestream Health, Inc. Apparatus and method for multi-modal imaging
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103093460A (zh) * 2013-01-06 2013-05-08 西北工业大学 基于平行视差的移动相机虚拟阵列标定方法
CN103440641A (zh) * 2013-07-29 2013-12-11 西北工业大学 基于最优相机选择的遮挡目标透视成像方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009032235A1 (en) * 2007-09-07 2009-03-12 Carestream Health, Inc. Apparatus and method for multi-modal imaging
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103093460A (zh) * 2013-01-06 2013-05-08 西北工业大学 基于平行视差的移动相机虚拟阵列标定方法
CN103440641A (zh) * 2013-07-29 2013-12-11 西北工业大学 基于最优相机选择的遮挡目标透视成像方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Unstructured Synthetic Aperture Photograph based Occluded Object Imaging";Wenguang Ma et al;《ICIG》;20130728;第34-39页 *

Also Published As

Publication number Publication date
CN104156972A (zh) 2014-11-19

Similar Documents

Publication Publication Date Title
CN104156972B (zh) 基于激光扫描测距仪与多相机融合的透视成像方法
US9965870B2 (en) Camera calibration method using a calibration target
CN111275750B (zh) 基于多传感器融合的室内空间全景图像生成方法
CN103198524B (zh) 一种大规模室外场景三维重建方法
Sirmacek et al. Performance evaluation for 3-D city model generation of six different DSMs from air-and spaceborne sensors
Coorg et al. Extracting textured vertical facades from controlled close-range imagery
CN108053476B (zh) 一种基于分段三维重建的人体参数测量系统及方法
CN106780712B (zh) 联合激光扫描和影像匹配的三维点云生成方法
CN105243637B (zh) 一种基于三维激光点云进行全景影像拼接方法
CN105931234A (zh) 一种地面三维激光扫描点云与影像融合及配准的方法
CN110246186A (zh) 一种自动化三维彩色成像与测量方法
AU2011312140A1 (en) Rapid 3D modeling
CN102072706A (zh) 一种多相机定位与跟踪方法及系统
CN110243307A (zh) 一种自动化三维彩色成像与测量系统
CN111060006A (zh) 一种基于三维模型的视点规划方法
CN112801184A (zh) 一种云跟踪方法、系统及装置
CN110230979A (zh) 一种立体标靶及其三维彩色数字化系统标定方法
CN113345084B (zh) 三维建模系统及三维建模方法
CN101246595A (zh) 光学三维扫描系统中多视点云数据拼合方法
CN108230242A (zh) 一种从全景激光点云到视频流的转换方法
CN108362205A (zh) 基于条纹投影的空间测距方法
CN106683163A (zh) 一种视频监控的成像方法及系统
JP4354708B2 (ja) 多視点カメラシステム
CN108257182A (zh) 一种立体摄像头模组的标定方法及装置
Khan et al. Clifford geometric algebra-based approach for 3D modeling of agricultural images acquired by UAVs

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170125

Termination date: 20190825