CN103413304A - 基于彩色深度融合的虚拟阵列合成孔径透视成像方法 - Google Patents

基于彩色深度融合的虚拟阵列合成孔径透视成像方法 Download PDF

Info

Publication number
CN103413304A
CN103413304A CN2013103264539A CN201310326453A CN103413304A CN 103413304 A CN103413304 A CN 103413304A CN 2013103264539 A CN2013103264539 A CN 2013103264539A CN 201310326453 A CN201310326453 A CN 201310326453A CN 103413304 A CN103413304 A CN 103413304A
Authority
CN
China
Prior art keywords
frame
depth
camera
des
rotation matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013103264539A
Other languages
English (en)
Inventor
杨涛
张艳宁
王斯丙
马文广
仝小敏
范洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN2013103264539A priority Critical patent/CN103413304A/zh
Publication of CN103413304A publication Critical patent/CN103413304A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于彩色深度融合的虚拟阵列合成孔径透视成像方法,用于解决现有利用水平视差进行相机阵列合成孔径成像的方法所成图像清晰度差的技术问题。技术方案是直接从数据源入手,预先就给出被观测目标和遮挡物的深度信息,然后根据预先获取的深度信息,给予被观测目标和遮挡物不同的深度标记,利用深度标记去除投影之后错误的投影点,减少错误投影点对目标清晰度的负面影响,从而获取更加接近现实的目标图像。

Description

基于彩色深度融合的虚拟阵列合成孔径透视成像方法
技术领域
本发明涉及一种虚拟阵列合成孔径透视成像方法,特别涉及一种基于彩色深度融合的虚拟阵列合成孔径透视成像方法。
背景技术
透过遮挡物对观测目标进行观察在当今需求越来越大,利用合成孔径透视成像方法透过遮挡物对观测目标进行观察有很重要的意义。现有的合成孔径透视成像技术有:基于水平视差的相机阵列合成孔径成像。
文献“Using Plane+Parallax for Calibrating Dense Camera Arrays,in Proc.CVPR(1),2004,pp.2-9”公开了一种利用水平视差进行相机阵列合成孔径成像的方法。这种方法利用所有相机光心共面或者共线的特性,减少相机标定时要估计的参数数量,并且避免了进行非线性捆绑调整。而该方法需要对每幅图像进行遍历来获取被观测目标与遮挡物的深度范围,这样做非常耗时。并且该方法在成像方面采用简单的将所有相机视角下的图像进行平均的合成图像方式,对于聚焦平面内任意一点在各个视角下对应的投影点的颜色信息求平均,将该平均值作为合成图像中点的颜色值,这就导致一些错误投影点的颜色信息对成像结果产生负面影响,使得所获取的隐藏目标图像存在严重的模糊情况。
发明内容
为了克服现有利用水平视差进行相机阵列合成孔径成像的方法所成图像清晰度差的不足,本发明提供一种基于彩色深度融合的虚拟阵列合成孔径透视成像方法。该方法直接从数据源入手,预先就给出被观测目标和遮挡物的深度信息,然后根据预先获取的深度信息,给予被观测目标和遮挡物不同的深度标记,利用深度标记去除投影之后错误的投影点,减少错误投影点对目标清晰度的负面影响,从而获取更加接近现实的目标图像。
本发明解决其技术问题所采用的技术方案是:一种基于彩色深度融合的虚拟阵列合成孔径透视成像方法,其特点是包括以下步骤:
步骤一、采用Kinect获取彩色图像和深度图片,然后利用Kinect SDK forWindows+OpenNI2+OpenCV将获取的图片信息、深度信息及RGB信息保存。将OpenNI的图像数据格式转换为OpenCV的数据格式相同。对于彩色图像,先将数据塞入OpenCV三通道RGB对象,再转换到BGR进行保存。对于深度图像,先放入单通道对象,最后将深度值等比例缩小到[0,255]的值域中,作为灰度图进行保存。
步骤二、使用PTAM系统做相机标定,对于相机内参的求解,首先使用人手持标定板,用相机拍摄各个角度的图片,然后使用PTAM的CameraCalibrator子模块对相机内参进行求解;对于相机外参的求解,进行一步累加计算:
假如以第一帧为参考帧,第二帧相对于第一帧的相机外参由PTAM求出,假设分别是平移向量T1,旋转矩阵为R1。需要将旋转矩阵分解为绕x轴,y轴,z轴旋转的三个角度ψ1,θ1。计算公式如下:
R x ( ψ ) = 1 0 0 0 cos ψ sin ψ 0 - sin ψ cos ψ - - - ( 1 )
R z ( θ ) = cos θ sin θ 0 - sin θ cos θ 0 0 0 1 - - - ( 3 )
Figure BDA00003591237200024
第三帧相对于第二帧的相机外参由PTAM求出,假设分别是平移向量T2,旋转矩阵为R2。旋转矩阵分解出的三个角度分别是ψ2,
Figure BDA00003591237200025
θ2,第三帧相对于第一帧的平移向量是T=T1+T2,三个旋转角度是:
Figure BDA00003591237200026
再根据(4)式求解出第三帧相对于第一帧的旋转矩阵,以后每一帧相对于参考帧的相机外参都这样求解。
步骤三、假设一组含有遮挡物的图片序列中有n个不同的视角,分别是V1,V2,…,Vn,选取其中的一个视角作为参考视角Vref。使用∏i表示不同视角的成像平面。假设∏des是想要获取的聚焦平面,点pdes表示∏des上的一个二维点,在参考视角坐标系下对应的三维空间点pref为:
pref=pdes·size+o   (6)
其中,size表示在参考相机坐标系下∏des中一个像素的大小,o表示∏des在参考相机坐标系下的起始点。size由以下公式求取:
size = sizeX sizeY = ± 0.5 · ( w h / f x f y ) · depth - - - ( 7 )
其中,w和h分别表示合成图像的宽和高,fx和fy表示焦距,depth表示聚焦平面的深度。计算pref在世界坐标系下的坐标。对pref的世界坐标利用针孔相机模型,得到其在每一个视角的成像平面上的点p',具体计算如下:
Z c x y 1 = K [ R | T ] X W Y W Z W 1 - - - ( 8 )
其中,K表示相机的内参,R和T表示当前帧的旋转矩阵和平移向量,(x,y)表示p'在成像平面上的坐标。
步骤四、在获取图片时,已经获取了图片中每个像素的深度信息和RGB信息,并且根据深度信息对像素做了标记,对所有的有效投影点获取平均RGB值,将该平均值作为聚焦平面上点的颜色值,获取虚拟聚焦平面上所有点的颜色值,生成目标的合成图像。
本发明的有益效果是:该方法直接从数据源入手,预先就给出被观测目标和遮挡物的深度信息,然后根据预先获取的深度信息,给予被观测目标和遮挡物不同的深度标记,利用深度标记去除投影之后错误的投影点,减少错误投影点对目标清晰度的负面影响,从而获取更加接近现实的目标图像。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于彩色深度融合的虚拟阵列合成孔径透视成像方法具体步骤如下:
1.对彩色图像和深度图像进行校正和数据源获取。
这里使用的是Kinect来获取彩色图像和深度图片,由于Kinect的彩色摄像机和红外投影仪不在同一个位置,所以就会产生一定的视差,视差会导致彩色图像和深度图像中的像素不对应。如果彩色图和深度图中本该对应的像素,却相差很大(一般大于10个像素),就会严重影响到合成孔径透视成像的效果。针对这种问题,就需要进行校正。
数据源获取方法是让单个Kinect在场景中自由移动来获取彩色图片和深度图片,然后利用Kinect SDK for Windows+OpenNI2+OpenCV将获取的图片信息、深度信息及RGB信息保存出来。由于已经预先知道被观测目标和遮挡物的深度范围,利用这些深度信息,就能够给予被观测目标和遮挡物不同的标记,为以后根据投影点的不同深度获取像素的RGB信息提供了基础。但是需要注意,OpenNI的图像数据并不与OpenCV的数据格式相同,所以需要转换为OpenCV可读取的图像格式。对于彩色图像,先将数据塞入OpenCV三通道(8位)RGB对象,再转换到BGR来进行保存。对于深度图像,先放入单通道(16位)对象(这是因为深度数据的值域较大),最后将深度值等比例缩小到[0,255]的值域中,作为灰度图进行保存。
2.相机标定。
使用PTAM(并行跟踪与绘制系统)系统做相机标定,对于相机内参的求解,首先使用人手持标定板,用相机拍摄各个角度的图片,然后使用PTAM(并行跟踪与绘制系统)的CameraCalibrator子模块对相机内参进行求解;对于相机外参的求解,需要注意的是,PTAM求解的相机外参是帧与帧之间的旋转矩阵和平移向量,而这里需要的相机外参是以某一帧为参考帧,之后每一帧的旋转矩阵和平移向量都是根据参考帧来求解,所以这里需要进行一步累加计算,具体过程如下:
假如以第一帧为参考帧,第二帧相对于第一帧的相机外参可由PTAM求出,假设分别是平移向量T1,旋转矩阵为R1。这里需要将旋转矩阵分解为绕x轴,y轴,z轴旋转的三个角度ψ1
Figure BDA00003591237200041
θ1。计算公式如下:
R x ( ψ ) = 1 0 0 0 cos ψ sin ψ 0 - sin ψ cos ψ - - - ( 1 )
Figure BDA00003591237200043
R z ( θ ) = cos θ sin θ 0 - sin θ cos θ 0 0 0 1 - - - ( 3 )
Figure BDA00003591237200052
第三帧相对于第二帧的相机外参也可由PTAM(并行跟踪与绘制系统)求出,假设分别是平移向量T2,旋转矩阵为R2。旋转矩阵分解出的三个角度分别是ψ2,θ2,第三帧相对于第一帧的平移向量是T=T1+T2,三个旋转角度是:
再根据(4)式求解出第三帧相对于第一帧的旋转矩阵,以后每一帧相对于参考帧的相机外参都这样求解。
3.获取聚焦平面上点在各个视角下的投影点。
假设一组含有遮挡物的图片序列中有n个不同的视角,分别是V1,V2,…,Vn,选取其中的一个视角作为参考视角Vref。使用∏i表示不同视角的成像平面。假设∏des是想要获取的聚焦平面,点pdes表示∏des上的一个二维点,在参考视角坐标系下对应的3维空间点pref为:
pref=pdes·size+o   (6)
其中,size表示在参考相机坐标系下∏des中一个像素的大小,o表示∏des在参考相机坐标系下的起始点。size由以下公式求取:
size = sizeX sizeY = ± 0.5 · ( w h / f x f y ) · depth - - - ( 7 )
其中,w和h分别表示合成图像的宽和高,fx和fy表示焦距,depth表示聚焦平面的深度。计算pref在世界坐标系下的坐标。对pref的世界坐标利用针孔相机模型,得到其在每一个视角的成像平面上的点p',具体计算如下:
Z c x y 1 = K [ R | T ] X W Y W Z W 1 - - - ( 8 )
其中,K表示相机的内参,R和T表示当前帧的旋转矩阵和平移向量,(x,y)表示p'在成像平面上的坐标。
4.获取聚焦平面上点的颜色值。
在获取图片时,已经获取了图片中每个像素的深度信息和RGB信息,并且根据深度信息对像素做了标记,如果步骤3中投影点所处深度属于目标所处深度,就认为该投影点为有效投影点,获取该点所对应的RGB信息,同样方式获取其他有效投影点的值,对所有的有效投影点获取平均RGB值,将该平均值作为聚焦平面上点的颜色值。采用上述方法,获取虚拟聚焦平面上所有点的颜色值,生成目标的合成图像。

Claims (1)

1.一种基于彩色深度融合的虚拟阵列合成孔径透视成像方法,其特征在于包括以下步骤:
步骤一、采用Kinect获取彩色图像和深度图片,然后利用Kinect SDK forWindows+OpenNI2+OpenCV将获取的图片信息、深度信息及RGB信息保存;将OpenNI的图像数据格式转换为OpenCV的数据格式相同;对于彩色图像,先将数据塞入OpenCV三通道RGB对象,再转换到BGR进行保存;对于深度图像,先放入单通道对象,最后将深度值等比例缩小到[0,255]的值域中,作为灰度图进行保存;
步骤二、使用PTAM系统做相机标定,对于相机内参的求解,首先使用人手持标定板,用相机拍摄各个角度的图片,然后使用PTAM的CameraCalibrator子模块对相机内参进行求解;对于相机外参的求解,进行一步累加计算:
假如以第一帧为参考帧,第二帧相对于第一帧的相机外参由PTAM求出,假设分别是平移向量T1,旋转矩阵为R1;需要将旋转矩阵分解为绕x轴,y轴,z轴旋转的三个角度ψ1,
Figure FDA00003591237100011
θ1;计算公式如下:
R x ( ψ ) = 1 0 0 0 cos ψ sin ψ 0 - sin ψ cos ψ - - - ( 1 )
R z ( θ ) = cos θ sin θ 0 - sin θ cos θ 0 0 0 1 - - - ( 3 )
Figure FDA00003591237100015
第三帧相对于第二帧的相机外参由PTAM求出,假设分别是平移向量T2,旋转矩阵为R2;旋转矩阵分解出的三个角度分别是ψ2,θ2,第三帧相对于第一帧的平移向量是T=T1+T2,三个旋转角度是:
Figure FDA00003591237100017
再根据(4)式求解出第三帧相对于第一帧的旋转矩阵,以后每一帧相对于参考帧的相机外参都这样求解;
步骤三、假设一组含有遮挡物的图片序列中有n个不同的视角,分别是V1,V2,…,Vn,选取其中的一个视角作为参考视角Vref;使用∏i表示不同视角的成像平面;假设∏des是想要获取的聚焦平面,点pdes表示∏des上的一个二维点,在参考视角坐标系下对应的三维空间点pref为:
pref=pdes·size+o   (6)
其中,size表示在参考相机坐标系下∏des中一个像素的大小,o表示∏des在参考相机坐标系下的起始点;size由以下公式求取:
size = sizeX sizeY = ± 0.5 · ( w h / f x f y ) · depth - - - ( 7 )
其中,w和h分别表示合成图像的宽和高,fx和fy表示焦距,depth表示聚焦平面的深度;计算pref在世界坐标系下的坐标;对pref的世界坐标利用针孔相机模型,得到其在每一个视角的成像平面上的点p',具体计算如下:
Z c x y 1 = K [ R | T ] X W Y W Z W 1 - - - ( 8 )
其中,K表示相机的内参,R和T表示当前帧的旋转矩阵和平移向量,(x,y)表示p'在成像平面上的坐标;
步骤四、在获取图片时,已经获取了图片中每个像素的深度信息和RGB信息,并且根据深度信息对像素做了标记,对所有的有效投影点获取平均RGB值,将该平均值作为聚焦平面上点的颜色值,获取虚拟聚焦平面上所有点的颜色值,生成目标的合成图像。
CN2013103264539A 2013-07-30 2013-07-30 基于彩色深度融合的虚拟阵列合成孔径透视成像方法 Pending CN103413304A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2013103264539A CN103413304A (zh) 2013-07-30 2013-07-30 基于彩色深度融合的虚拟阵列合成孔径透视成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2013103264539A CN103413304A (zh) 2013-07-30 2013-07-30 基于彩色深度融合的虚拟阵列合成孔径透视成像方法

Publications (1)

Publication Number Publication Date
CN103413304A true CN103413304A (zh) 2013-11-27

Family

ID=49606309

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013103264539A Pending CN103413304A (zh) 2013-07-30 2013-07-30 基于彩色深度融合的虚拟阵列合成孔径透视成像方法

Country Status (1)

Country Link
CN (1) CN103413304A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103646397A (zh) * 2013-12-02 2014-03-19 西北工业大学 基于多源数据融合的实时合成孔径透视成像方法
CN111798513A (zh) * 2020-06-16 2020-10-20 武汉大学 一种基于事件相机的合成孔径成像方法及系统
CN112470189A (zh) * 2018-04-17 2021-03-09 上海科技大学 光场系统的遮挡消除
CN112767296A (zh) * 2021-01-20 2021-05-07 山东大学 一种基于时间序列成像的多传感器数据融合方法及系统
CN114266819A (zh) * 2022-03-02 2022-04-01 中国科学院空天信息创新研究院 一种船只吃水深度求解方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6768509B1 (en) * 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103093460A (zh) * 2013-01-06 2013-05-08 西北工业大学 基于平行视差的移动相机虚拟阵列标定方法
US20130127901A1 (en) * 2010-08-27 2013-05-23 Todor G. Georgiev Methods and Apparatus for Calibrating Focused Plenoptic Camera Data
CN103198475A (zh) * 2013-03-08 2013-07-10 西北工业大学 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6768509B1 (en) * 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
US20130127901A1 (en) * 2010-08-27 2013-05-23 Todor G. Georgiev Methods and Apparatus for Calibrating Focused Plenoptic Camera Data
CN102917175A (zh) * 2012-09-13 2013-02-06 西北工业大学 基于相机阵列合成孔径成像的遮挡多目标自动抠像方法
CN103093460A (zh) * 2013-01-06 2013-05-08 西北工业大学 基于平行视差的移动相机虚拟阵列标定方法
CN103198475A (zh) * 2013-03-08 2013-07-10 西北工业大学 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
VAIBHAV VAISH* ET AL.: "using plane+parallax for calibrating dense camera arrays", 《PROCEEDINGS OF THE 2004 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
XIAOQIANG ZHANG ET AL.: "Calibrate a moving camera on a linear translating stage using virtual plane+parallax", 《ISCIDE"12 PROCEEDINGS OF THE THIRD SINO-FOREIGN-INTERCHANGE CONFERENCE ON INTELLIGENT SCIENCE AND INTELLIGENT DATA ENGEERING》 *
ZHAO PEI ET AL.: "A novel multi-object detection method in complex scene using synthetic aperture imaging", 《PATTERN RECOGNITION》 *
刘鑫 等: "基于GPU和Kinect的快速物体重建", 《自动化学报》 *
李红燕: "一种相移合成孔径数字全息图高精度合成方法", 《光学学报》 *
苏晋: "摄像机标定方法研究", 《摄像机标定方法研究 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103646397A (zh) * 2013-12-02 2014-03-19 西北工业大学 基于多源数据融合的实时合成孔径透视成像方法
CN103646397B (zh) * 2013-12-02 2016-10-19 西北工业大学 基于多源数据融合的实时合成孔径透视成像方法
CN112470189A (zh) * 2018-04-17 2021-03-09 上海科技大学 光场系统的遮挡消除
CN112470189B (zh) * 2018-04-17 2024-03-29 上海科技大学 光场系统的遮挡消除
CN111798513A (zh) * 2020-06-16 2020-10-20 武汉大学 一种基于事件相机的合成孔径成像方法及系统
CN112767296A (zh) * 2021-01-20 2021-05-07 山东大学 一种基于时间序列成像的多传感器数据融合方法及系统
CN114266819A (zh) * 2022-03-02 2022-04-01 中国科学院空天信息创新研究院 一种船只吃水深度求解方法和装置

Similar Documents

Publication Publication Date Title
CN111047510B (zh) 一种基于标定的大视场角图像实时拼接方法
CN111062873B (zh) 一种基于多对双目相机的视差图像拼接与可视化方法
US10194135B2 (en) Three-dimensional depth perception apparatus and method
CN104616284A (zh) 彩色深度相机的彩色图像到深度图像的像素级对准算法
US10217281B2 (en) Apparatus for reconstructing 3D model and method for using the same
US9451236B2 (en) Apparatus for synthesizing three-dimensional images to visualize surroundings of vehicle and method thereof
US9195121B2 (en) Markerless geometric registration of multiple projectors on extruded surfaces using an uncalibrated camera
CN101726855B (zh) 基于立方体投影对鱼眼图像畸变校正方法
US20180122099A1 (en) Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof
US11307595B2 (en) Apparatus for acquisition of distance for all directions of moving body and method thereof
CN109872401B (zh) 一种无人机视频增强现实实现方法
CN103607584B (zh) 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法
CN103971375B (zh) 一种基于图像拼接的全景凝视相机空间标定方法
CN102521586B (zh) 一种用于拍照手机的高分辨率三维人脸扫描方法
CN103413304A (zh) 基于彩色深度融合的虚拟阵列合成孔径透视成像方法
CN107784038B (zh) 一种传感器数据的标注方法
CN104333675A (zh) 一种基于球面投影的全景电子稳像方法
CN104156972A (zh) 基于激光扫描测距仪与多相机融合的透视成像方法
CN109920007A (zh) 基于多光谱光度立体与激光扫描的三维成像装置及方法
CN102650886A (zh) 基于主动全景视觉传感器的机器人视觉系统
CN111009030A (zh) 一种多视高分辨率纹理图像与双目三维点云映射方法
CN107843251A (zh) 移动机器人的位姿估计方法
CN104463791A (zh) 一种基于球面模型的鱼眼图像校正法
CN101702233A (zh) 视频帧中基于三点共线标记点的三维定位方法
CN110275179A (zh) 一种基于激光雷达以及视觉融合的构建地图方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20131127