CN103426170A - 基于非结构光场合成孔径成像的隐藏目标成像方法 - Google Patents
基于非结构光场合成孔径成像的隐藏目标成像方法 Download PDFInfo
- Publication number
- CN103426170A CN103426170A CN201310323475XA CN201310323475A CN103426170A CN 103426170 A CN103426170 A CN 103426170A CN 201310323475X A CN201310323475X A CN 201310323475XA CN 201310323475 A CN201310323475 A CN 201310323475A CN 103426170 A CN103426170 A CN 103426170A
- Authority
- CN
- China
- Prior art keywords
- ref
- des
- color value
- point
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于非结构光场合成孔径成像的隐藏目标成像方法,用于解决现有基于平面+视差的合成孔径成像方法所成图像清晰度差的技术问题。技术方案是采用聚类的方式去除部分颜色值差异大的像素点,只选取颜色值相近的最大一类中的像素点作为有效投影点,对这些有效投影点的颜色值进行平均,得到聚焦平面上点的像素值,进而得到隐藏目标的合成图像。通过UCSD数据库以及自建数据库进行测试,本发明能够获得隐藏目标更清晰以及更接近现实的合成图像,同时也解决了自由移动成像平台采集的光场数据中隐藏目标成像问题。
Description
技术领域
本发明涉及一种隐藏目标成像方法,特别涉及一种基于非结构光场合成孔径成像的隐藏目标成像方法。
背景技术
基于移动相机虚拟相机阵列的隐藏目标成像技术是计算机视觉领域的一个重要研究课题,其在对隐藏目标成像、检测、识别和跟踪以及自由深度视点成像方面具有广泛的应用。目前的合成孔径成像方法主要有:基于平面+视差的合成孔径成像方法与基于能量最小化的像素标记合成孔径成像方法。
文献“Using Plane+Parallax for Calibrating Dense Camera Array,CVPR,2004”公开了一种基于平面+视差的合成孔径成像方法。该方法发现相机在共面或者共线的情况下,利用这种共面或共线的特点减小相机标定时要估计的参数数量,根据标定结果进行合成孔径成像,获取隐藏目标的合成图像。然而该方法限定相机阵列中所有相机必须共面,且固定,对于多相机光心不共面或者单相机自由移动情况下的相机标定问题无法解决,导致无法根据场景需要增加视角,也无法对室外真实场景中的隐藏目标成像。该方法在成像方面采用了简单的将所有相机视角下的图像进行平均的合成图像方式,对于聚焦平面内任意一点在各个视角下对应的投影点的颜色信息求平均,将该平均值作为合成图像中点的颜色值,这就导致一些错误投影点的颜色信息对成像结果产生负面影响,使得所获取的隐藏目标图像存在严重的模糊情况。
发明内容
为了克服现有基于平面+视差的合成孔径成像方法所成图像清晰度差的不足,本发明提供一种基于非结构光场合成孔径成像的隐藏目标成像方法。该方法采用聚类的方式去除部分颜色值差异大的像素点,只选取颜色值相近的最大一类中的像素点作为有效投影点,对这些有效投影点的颜色值进行平均,得到聚焦平面上点的像素值,进而得到隐藏目标的合成图像。通过UCSD数据库以及自建数据库进行测试,本发明能够获得隐藏目标更清晰以及更接近现实的合成图像,同时也能够解决自由移动成像平台采集的光场数据中隐藏目标成像问题。
本发明解决其技术问题所采用的技术方案是:一种基于非结构光场合成孔径成像的隐藏目标成像方法,其特点是包括以下步骤:
步骤一、采用KLT的特征点跟踪与匹配方法,获取图像中的特征点,然后选取好的特征点和关键帧,初始化连续的几何结构和运动,利用位置估计初始化所有新加入的帧的相机参数和三维点,最后利用捆绑调整提炼存在的结构和运动,获取光场中自由移动的相机的位置信息以及相机内参。
步骤二、假设在含有隐藏目标的图像序列中共有n个不同的视角,命名V1,V2,…,Vref,…,Vn,Vref是选取的用于合成孔径成像的参考视角。使用Πi表示不同视角下的成像平面。假设Πdes是想要获取的聚焦平面且平行于Πref,使用点pdes(x,y)代表Πdes上的一个二维像素点。在参考视角坐标系下对应的三维空间点pref为:
pref=pdes·step+ws (1)
其中,step表示在参考相机坐标系下Πdes中一个像素的大小,ws表示Πdes在参考相机坐标系下的起始点。step由以下公式求取:
其中,w和h分别表示合成图像的宽和高,fx和fy表示焦距,dep表示聚焦平面的深度。根据公式(3)得到点pref在世界坐标系下的对应点pw:
pw=Rref·pref+Tref (3)
其中,Rref表示参考相机的旋转矩阵,Tref表示参考相机的平移矩阵。通过对pw利用针孔相机模型进行投影变换,得到像素点pdes(x,y)在每一个视角下对应的点pi′,并组成一个点集合表示为P′={p1′,p2′,…,pn′}:
其中,K表示相机内参矩阵,[Ri|Ti]为第i个视角的旋转矩阵和平移矩阵。如果pi′在成像平面Πi上,则获得这个点的RGB值,记为cj。同样获取所有投影点的像素值,组成颜色值集合Cdes={c1,c2,…,cn}。
步骤三、对于颜色值集合Cdes,利用最近邻聚类方法获取最大类以及最大类的平均颜色值:
第一步,初始化。选取第一个点的颜色值c1为第一类的中心;
第二步,对于颜色值集合中的每一颜色值ci,计算其到所有已知聚类中心hj(j=1,2,…,Q)的欧式距离dj(j=1,2,…,Q);
第三步,寻找最小距离,假设为dk,如果最小距离小于给定的阈值,那么该RGB颜色值属于第k类,更新该类的中心:
其中,m为第k类中包含的颜色值数;如果最小距离大于给定的阈值,则将该颜色值作为新的类的中心;
第四步,重复第二步和第三步,直到所有的颜色值已经聚类结束。选取最大类中所有颜色值的平均值作为pdes(x,y)的颜色值。
步骤四、对于聚焦平面上所有的点,重复上面的步骤,获取其颜色值,生成合成图像。
本发明的有益效果是:该方法采用聚类的方式去除部分颜色值差异大的像素点,只选取颜色值相近的最大一类中的像素点作为有效投影点,对这些有效投影点的颜色值进行平均,得到聚焦平面上点的像素值,进而得到隐藏目标的合成图像。通过UCSD数据库以及自建数据库进行测试,本发明能够获得隐藏目标更清晰以及更接近现实的合成图像,同时也解决了自由移动成像平台采集的光场数据中隐藏目标成像问题。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于非结构光场合成孔径成像的隐藏目标成像方法具体步骤如下:
1、相机标定。
该部分主要由现有的技术完成,首先是基于KLT方法的特征点跟踪与匹配,获取图像中的特征点,然后选取好的特征点和关键帧,初始化连续的几何结构和运动,利用位置估计技术初始化所有新加入的帧的相机参数和三维点,最后利用捆绑调整提炼存在的结构和运动。利用此方式,获取光场中自由移动的相机的位置信息以及相机内参,从而解决了单相机模拟虚拟相机阵列的标定问题。
2、获取聚焦平面上点在各个视角下的投影点。
假设在含有隐藏目标的图像序列中共有n个不同的视角,命名V1,V2,Vref,…,Vn,Vref是选取的用于合成孔径成像的参考视角。使用Πi表示不同视角下的成像平面。假设Πdes是想要获取的聚焦平面且平行于Πref,使用点pdes(x,y)代表Πdes上的一个2维像素点。因此在参考视角坐标系下对应的三维空间点pref为:
pref=pdes·step+ws (1)
其中,step表示在参考相机坐标系下Πdes中一个像素的大小,ws表示Πdes在参考相机坐标系下的起始点。step由以下公式求取:
其中,w和h分别表示合成图像的宽和高,fx和fy表示焦距,dep表示聚焦平面的深度。根据公式(3)得到点pref在世界坐标系下的对应点pw:
pw=Rref·pref+Tref (3)
其中,Rref表示参考相机的旋转矩阵,Tref表示参考相机的平移矩阵。通过对pw利用针孔相机模型进行投影变换,得到像素点pdes(x,y)在每一个视角下对应的点pi′,并组成一个点集合表示为P′={p1′,p2′,…,pn′}:
其中,K表示相机内参矩阵,[Ri|Ti]为第i个视角的旋转矩阵和平移矩阵。如果pi′在成像平面Πi上,则获得这个点的RGB值,记为cj。同样获取所有投影点的像素值,组成颜色值集合Cdes={c1,c2,…,cn}。
3、获取聚焦平面上的点的颜色值。
对于颜色值集合Cdes,利用最近邻聚类方法获取最大类以及最大类的平均颜色值,具体聚类步骤如下:
第一步,初始化。选取第一个点的颜色值c1为第一类的中心;
第二步,对于颜色值集合中的每一颜色值ci,计算其到所有已知聚类中心hj(j=1,2,…,Q)的欧式距离dj(j=1,2,…,Q);
第三步,寻找最小距离,假设为dk,如果最小距离小于给定的阈值(本实验中设为5),那么该RGB颜色值属于第k类,更新该类的中心:
其中,m为第k类中包含的颜色值数;如果最小距离大于给定的阈值,则将该颜色值作为新的类的中心;
第四步,重复第二步和第三步,直到所有的颜色值已经聚类结束。选取最大类的聚类中心值,即最大类中所有颜色值的平均值作为pdes(x,y)的颜色值。
4、生成合成图像。
对于聚焦平面上所有的点,重复上面的步骤,获取其颜色值,生成合成图像。
Claims (1)
1.一种基于非结构光场合成孔径成像的隐藏目标成像方法,其特征在于包括以下步骤:
步骤一、采用KLT的特征点跟踪与匹配方法,获取图像中的特征点,然后选取好的特征点和关键帧,初始化连续的几何结构和运动,利用位置估计初始化所有新加入的帧的相机参数和三维点,最后利用捆绑调整提炼存在的结构和运动,获取光场中自由移动的相机的位置信息以及相机内参;
步骤二、假设在含有隐藏目标的图像序列中共有n个不同的视角,命名V1,V2,…,Vref,…,Vn,Vref是选取的用于合成孔径成像的参考视角;使用Πi表示不同视角下的成像平面;假设Πdes是想要获取的聚焦平面且平行于Πref,使用点pdes(x,y)代表Πdes上的一个二维像素点;在参考视角坐标系下对应的三维空间点pref为:
pref=pdes·step+ws (1)
其中,step表示在参考相机坐标系下Πdes中一个像素的大小,ws表示Πdes在参考相机坐标系下的起始点;step由以下公式求取:
其中,w和h分别表示合成图像的宽和高,fx和fy表示焦距,dep表示聚焦平面的深度;根据公式(3)得到点pref在世界坐标系下的对应点pw:
pw=Rref·pref+Tref (3)
其中,Rref表示参考相机的旋转矩阵,Tref表示参考相机的平移矩阵;通过对pw利用针孔相机模型进行投影变换,得到像素点pdes(x,y)在每一个视角下对应的点pi′,并组成一个点集合表示为P′={p1′,p2′,…,pn′}:
其中,K表示相机内参矩阵,[Ri|Ti]为第i个视角的旋转矩阵和平移矩阵;如果pi′在成像平面Πi上,则获得这个点的RGB值,记为cj;同样获取所有投影点的像素值,组成颜色值集合Cdes={c1,c2,…,cn};
步骤三、对于颜色值集合Cdes,利用最近邻聚类方法获取最大类以及最大类的平均颜色值:
第一步,初始化;选取第一个点的颜色值c1为第一类的中心;
第二步,对于颜色值集合中的每一颜色值ci,计算其到所有已知聚类中心hj(j=1,2,…,Q)的欧式距离dj(j=1,2,…,Q);
第三步,寻找最小距离,假设为dk,如果最小距离小于给定的阈值,那么该RGB颜色值属于第k类,更新该类的中心:
其中,m为第k类中包含的颜色值数;如果最小距离大于给定的阈值,则将该颜色值作为新的类的中心;
第四步,重复第二步和第三步,直到所有的颜色值已经聚类结束;选取最大类中所有颜色值的平均值作为pdes(x,y)的颜色值;
步骤四、对于聚焦平面上所有的点,重复上面的步骤,获取其颜色值,生成合成图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310323475XA CN103426170A (zh) | 2013-07-29 | 2013-07-29 | 基于非结构光场合成孔径成像的隐藏目标成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310323475XA CN103426170A (zh) | 2013-07-29 | 2013-07-29 | 基于非结构光场合成孔径成像的隐藏目标成像方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103426170A true CN103426170A (zh) | 2013-12-04 |
Family
ID=49650860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310323475XA Pending CN103426170A (zh) | 2013-07-29 | 2013-07-29 | 基于非结构光场合成孔径成像的隐藏目标成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103426170A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803270A (zh) * | 2017-01-13 | 2017-06-06 | 西北工业大学深圳研究院 | 无人机平台基于单目slam的多关键帧协同地面目标定位方法 |
CN107403423A (zh) * | 2017-08-02 | 2017-11-28 | 清华大学深圳研究生院 | 一种光场相机的合成孔径去遮挡方法 |
CN107576969A (zh) * | 2017-08-08 | 2018-01-12 | 中国科学院西安光学精密机械研究所 | 基于gpu并行计算的大场景隐藏目标成像系统与方法 |
WO2018205164A1 (en) * | 2017-05-10 | 2018-11-15 | Shanghaitech University | Method and system for three-dimensional model reconstruction |
CN114387327A (zh) * | 2021-12-21 | 2022-04-22 | 陕西师范大学 | 基于深度学习视差预测的合成孔径聚焦成像方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093460A (zh) * | 2013-01-06 | 2013-05-08 | 西北工业大学 | 基于平行视差的移动相机虚拟阵列标定方法 |
WO2013076728A1 (en) * | 2011-11-22 | 2013-05-30 | Elta Systems Ltd. | System and method for processing multi-camera array images |
-
2013
- 2013-07-29 CN CN201310323475XA patent/CN103426170A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013076728A1 (en) * | 2011-11-22 | 2013-05-30 | Elta Systems Ltd. | System and method for processing multi-camera array images |
CN103093460A (zh) * | 2013-01-06 | 2013-05-08 | 西北工业大学 | 基于平行视差的移动相机虚拟阵列标定方法 |
Non-Patent Citations (2)
Title |
---|
VAIBHAV VAISH, BENNETT WILBURN, NELL JOSHI, MARC LEVOY: "Using Plane + Parallax for Calibrating Dense Camera Arrays", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
WENGUANG MA,TAO YANG, YANNING ZHANG, XIAOMIN TONG: "Unstructured Synthetic Aperture Photograph based Occluded Object Imaging", 《2013 SEVENTH INTERNATIONAL CONFERENCE ON IMAGE AND GRAPHICS》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106803270A (zh) * | 2017-01-13 | 2017-06-06 | 西北工业大学深圳研究院 | 无人机平台基于单目slam的多关键帧协同地面目标定位方法 |
WO2018205164A1 (en) * | 2017-05-10 | 2018-11-15 | Shanghaitech University | Method and system for three-dimensional model reconstruction |
US10762654B2 (en) | 2017-05-10 | 2020-09-01 | Shanghaitech University | Method and system for three-dimensional model reconstruction |
CN107403423A (zh) * | 2017-08-02 | 2017-11-28 | 清华大学深圳研究生院 | 一种光场相机的合成孔径去遮挡方法 |
CN107403423B (zh) * | 2017-08-02 | 2019-12-03 | 清华大学深圳研究生院 | 一种光场相机的合成孔径去遮挡方法 |
CN107576969A (zh) * | 2017-08-08 | 2018-01-12 | 中国科学院西安光学精密机械研究所 | 基于gpu并行计算的大场景隐藏目标成像系统与方法 |
CN107576969B (zh) * | 2017-08-08 | 2019-06-28 | 中国科学院西安光学精密机械研究所 | 基于gpu并行计算的大场景隐藏目标成像系统与方法 |
CN114387327A (zh) * | 2021-12-21 | 2022-04-22 | 陕西师范大学 | 基于深度学习视差预测的合成孔径聚焦成像方法 |
CN114387327B (zh) * | 2021-12-21 | 2024-03-12 | 陕西师范大学 | 基于深度学习视差预测的合成孔径聚焦成像方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021004312A1 (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
CN111914715B (zh) | 一种基于仿生视觉的智能车目标实时检测与定位方法 | |
CN109048926A (zh) | 一种基于立体视觉的机器人智能避障系统及方法 | |
CN110349221A (zh) | 一种三维激光雷达与双目可见光传感器的融合标定方法 | |
CN103868460B (zh) | 基于视差优化算法的双目立体视觉自动测量方法 | |
Perrollaz et al. | Probabilistic representation of the uncertainty of stereo-vision and application to obstacle detection | |
CN102646275B (zh) | 通过跟踪和定位算法实现虚拟三维叠加的方法 | |
CN110782524A (zh) | 基于全景图的室内三维重建方法 | |
CN105180904B (zh) | 基于编码结构光的高速运动目标位姿测量方法 | |
CN107784038B (zh) | 一种传感器数据的标注方法 | |
CN104156972A (zh) | 基于激光扫描测距仪与多相机融合的透视成像方法 | |
CN102609941A (zh) | 基于ToF深度相机的三维注册方法 | |
CN105719352B (zh) | 人脸三维点云超分辨率融合方法及应用其的数据处理装置 | |
CN102982551B (zh) | 空间三条不平行直线线性求解抛物折反射摄像机内参数 | |
CN102222348B (zh) | 一种三维目标运动矢量计算方法 | |
CN103426170A (zh) | 基于非结构光场合成孔径成像的隐藏目标成像方法 | |
CN109712232B (zh) | 一种基于光场的物体表面轮廓三维成像方法 | |
CN103198475B (zh) | 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 | |
Hu et al. | Aerial monocular 3d object detection | |
CN112801074A (zh) | 一种基于交通摄像头的深度图估计方法 | |
CN105513094A (zh) | 基于三维Delaunay三角剖分的立体视觉跟踪方法及系统 | |
CN113034586B (zh) | 道路倾角检测方法和检测系统 | |
Dragon et al. | Ground plane estimation using a hidden markov model | |
CN111914615A (zh) | 基于立体视觉的消防区域可通过性分析系统 | |
CN105739106A (zh) | 一种体感多视点大尺寸光场真三维显示装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20131204 |