CN106303501B - 基于图像稀疏特征匹配的立体图像重构方法及装置 - Google Patents

基于图像稀疏特征匹配的立体图像重构方法及装置 Download PDF

Info

Publication number
CN106303501B
CN106303501B CN201610708440.1A CN201610708440A CN106303501B CN 106303501 B CN106303501 B CN 106303501B CN 201610708440 A CN201610708440 A CN 201610708440A CN 106303501 B CN106303501 B CN 106303501B
Authority
CN
China
Prior art keywords
eye image
image
point
eye
sparse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610708440.1A
Other languages
English (en)
Other versions
CN106303501A (zh
Inventor
张新
张希飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN KAIAOSI TECHNOLOGY Co Ltd
Ifreecomm Technology Co Ltd
Original Assignee
SHENZHEN KAIAOSI TECHNOLOGY Co Ltd
Ifreecomm Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN KAIAOSI TECHNOLOGY Co Ltd, Ifreecomm Technology Co Ltd filed Critical SHENZHEN KAIAOSI TECHNOLOGY Co Ltd
Priority to CN201610708440.1A priority Critical patent/CN106303501B/zh
Publication of CN106303501A publication Critical patent/CN106303501A/zh
Application granted granted Critical
Publication of CN106303501B publication Critical patent/CN106303501B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Abstract

本发明公开一种基于图像稀疏特征匹配的立体图像重构方法及装置,其中,该方法包括:校正获取的左眼图像及右眼图像;分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征;根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图;对左眼图像与右眼图像的稀疏视差图进行图像差值运算,得到图像的稠密视差图;根据图像的稠密视差图及测定参数重构观察区的立体模型。本发明的技术方案能够简化3D图像数据重构的运算量,提高重构后3D图像的显示效果。

Description

基于图像稀疏特征匹配的立体图像重构方法及装置
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于图像稀疏特征匹配的立体图像重构方法及装置。
背景技术
目前,立体内容生成设备通常对两路光学信号进行采集,通过工业相机上的CCD或CMOS感光元件将分光器分出的光学信号转为数字信号,再通过工业相机上数据接口将图像数据传输到计算机或监视器上,将两路信号分别呈现给观察者双眼。立体内容生成设备具有两个并排的成像元器件,在不同的视角实时采集被观察物体,对得到的双目图像经过处理后,可以形成立体视觉。
利用立体内容生成设备得到的3D图像数据直接显示时,一些具有特殊或则重大意义的像素点的个数要比图像总的像素点数少很多,导致用户不能直观地观测到关键区域的变化,容易产生视觉疲劳,为此,需要基于重大意义的像素点对3D图像数据进行重构。3D图像数据进行重构的过程中需要寻找像素点的匹配对,若现有技术中图像重合的面积较大,会增加像素点的匹配对寻找的难度,导致3D图像数据重构计算复杂的问题。
发明内容
本发明的主要目的是提供一种基于图像稀疏特征匹配的立体图像重构方法,能够简化3D图像数据重构的运算量,提高重构后3D图像的显示效果。
为实现上述目的,本发明采用的一个技术方案为:提供一种基于图像稀疏特征匹配的立体图像重构方法,包括如下步骤:
校正获取的左眼图像及右眼图像;
分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征;
根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图;
对左眼图像与右眼图像的稀疏视差图进行图像差值运算,得到图像的稠密视差图;
根据图像的稠密视差图及测定参数重构观察区的立体模型。
优选地,所述校正获取的左眼图像及右眼图像的步骤,具体包括:
从左眼图像及右眼图像中选取多个匹配点,并计算对应的基础矩阵;
根据左眼图像及右眼图像各自极线交点的原则对应计算出左极点及右极点;
选择一矩阵作为右眼图像的变换矩阵,并根据变换矩阵将右极点映射到无穷远极点处;
根据基础矩阵及变换矩阵计算出左眼图像的变换矩阵;
根据右眼图像的变换矩阵及左眼图像的变换矩阵重新采样左眼图像及右眼图像,以校正获取的左眼图像及右眼图像。
优选地,所述分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征的步骤,具体包括:
根据Harris角点检测算法检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的角点特征;
根据水平边缘Sobel算子及垂直边缘Sobel算子检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的边缘特征;
根据左眼图像与右眼图像对应的角点特征及边缘特征生成稀疏特征图。
优选地,所述根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图的步骤,具体包括:
根据基于极线约束的SSDA算法找出与左眼图像的目标像素点的对应的匹配特征点;
根据基于极线约束的SSDA算法找出与右眼图像的目标像素点的对应的匹配特征点;
判断两次计算的匹配特征点是否相同,若是则保留匹配特征点,并根据匹配特征点得到左眼图像与右眼图像的稀疏视差图,若否则去除保留匹配特征点。
优选地,所述根据图像的稠密视差图及测定参数重构观察区的立体模型的步骤,具体包括:
根据图像的稠密视差图及测定参数求取观察区内所有像素点的三维坐标;
对观察区内所有三维坐标的像素点进行渲染形成立体图像。
为实现上述目的,本发明采用的另一个技术方案为:提供一种基于图像稀疏特征匹配的立体图像重构装置,包括:
校正模块,用于校正获取的左眼图像及右眼图像;
检测模块,用于分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征;
匹配模块,用于根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图;
差值运算模块,用于对左眼图像与右眼图像的稀疏视差图进行图像差值运算,得到图像的稠密视差图;
重构模块,用于根据图像的稠密视差图及测定参数重构观察区的立体模型。
优选地,所述校正模块具体用于:
从左眼图像及右眼图像中选取多个匹配点,并计算对应的基础矩阵;
根据左眼图像及右眼图像各自极线交点的原则对应计算出左极点及右极点;
选择一矩阵作为右眼图像的变换矩阵,并根据变换矩阵将右极点映射到无穷远极点处;
根据基础矩阵及变换矩阵计算出左眼图像的变换矩阵;
根据右眼图像的变换矩阵及左眼图像的变换矩阵重新采样左眼图像及右眼图像,以校正获取的左眼图像及右眼图像。
优选地,根据Harris角点检测算法检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的角点特征;
根据水平边缘Sobel算子及垂直边缘Sobel算子检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的边缘特征;
根据左眼图像与右眼图像对应的角点特征及边缘特征生成稀疏特征图。
优选地,所述匹配模块具体用于:
根据基于极线约束的SSDA算法找出与左眼图像的目标像素点的对应的匹配特征点;
根据基于极线约束的SSDA算法找出与右眼图像的目标像素点的对应的匹配特征点;
判断两次计算的匹配特征点是否相同,若是则保留匹配特征点,并根据匹配特征点得到左眼图像与右眼图像的稀疏视差图,若否则去除保留匹配特征点。
优选地,所述重构模块具体用于:
根据图像的稠密视差图及测定参数求取观察区内所有像素点的三维坐标;
对观察区内所有三维坐标的像素点进行渲染形成立体图像。
本发明的技术方案通过先校正获取的左眼图像及右眼图像,能够使两图像水平扫描线共线,只需沿观察区内一个方向进行搜索,然后分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征,无需对所有的像素点进行匹配,通过前两个步骤可以大大减少立体图像重构的计算量;再根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图;以及对左眼图像与右眼图像的稀疏视差图进行图像差值运算,得到图像的稠密视差图;最后根据图像的稠密视差图及测定参数重构观察区的立体模型,通过后面三个步骤可以重构观察区的立体模型,即重构出3D图像,并且能够提高构后3D图像的显示效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明基于图像稀疏特征匹配的立体图像重构方法一实施例的方法流程图;
图2为本发明基于图像稀疏特征匹配的立体图像重构装置一实施例的模块方框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
请参照图1,在本发明实施例中,该基于图像稀疏特征匹配的立体图像重构方法,包括如下步骤:
步骤S10、校正获取的左眼图像及右眼图像。通过校正步骤能够使左眼图像与右眼图像中观察区的像素特征点变换到同一扫描线上。经过校正步骤之后后,左眼图像和右眼图像对应的特征点变换到同一扫描线上,可以将匹配的搜索范围从二维降到了一维,降低匹配计算的难度。
步骤S20、分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征。由于左眼图像及右眼图像的像素冗余量大,需要提取图像中非常明显的目标特征作为图像分析和稀疏匹配的基础,本步骤中选用的目标特征为角点特征和边缘特征,并通过角点特征和边缘特征分别对左眼图像及右眼图像进行检测,得出对应的特征点。
步骤S30、根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图。
步骤S40、对左眼图像与右眼图像的稀疏视差图进行图像差值运算,得到图像的稠密视差图。
步骤S50、根据图像的稠密视差图及测定参数重构观察区的立体模型。测定参数包括图像采集的设备的基线距及焦距,根据稠密视差图、基线距及焦距可以计算观察区的像素点的三维坐标,通过对多个像素点的三维坐标进行渲染,可以得到观察区的立体模型,以获得重构的立体图像。
本发明的技术方案通过先校正获取的左眼图像及右眼图像,能够使两图像水平扫描线共线,只需沿观察区内一个方向进行搜索,然后分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征,无需对所有的像素点进行匹配,通过前两个步骤可以大大减少立体图像重构的计算量;再根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图;以及对左眼图像与右眼图像的稀疏视差图进行图像差值运算,得到图像的稠密视差图;最后根据图像的稠密视差图及测定参数重构观察区的立体模型,通过后面三个步骤可以重构观察区的立体模型,即重构出3D图像,并且能够提高构后3D图像的显示效果。
在一具体的实施例中,所述步骤S10具体包括:
从左眼图像及右眼图像中选取多个匹配点,并计算对应的基础矩阵;具体的,该多个匹配点的数量至少为7个。
根据左眼图像及右眼图像各自极线交点的原则对应计算出左极点及右极点;
选择一矩阵作为右眼图像的变换矩阵,并根据变换矩阵将右极点映射到无穷远极点处;
根据基础矩阵及变换矩阵计算出左眼图像的变换矩阵;
根据右眼图像的变换矩阵及左眼图像的变换矩阵重新采样左眼图像及右眼图像,以校正获取的左眼图像及右眼图像。
本实施例中,左眼图像及右眼图像校正步骤,主要目的是将两幅图像中的像素点进行二维空间变换,该变换为Ui(i=1,2),变换后图像像素可以表示为p'i=Uipi,其中,p'i是点pi变换后的坐标。设无穷远的极点坐标为e=(1,0,0)T,图像校正的目标是将两幅图像中对应的极线变换成一组平行的直线,即需求一基础矩阵F,使F经过校正后可表示为:
在立体内容生成设备无法进行前端标定的情况,选用不需要标定也可根据Hartley算法,完成左眼图像及右眼图像的校正,经过校正后的图像,像点在左眼图像及右眼图像上的高度一致。
在一具体的实施例中,所述步骤S20具体包括:
根据Harris角点检测算法检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的角点特征;
根据水平边缘Sobel算子及垂直边缘Sobel算子检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的边缘特征;
根据左眼图像与右眼图像对应的角点特征及边缘特征生成稀疏特征图。
本实施例中,根据Harris角点检测算法检测左眼图像与右眼图像中观察区,具体计算过程如下:
首先,对观察区的每一个像素点计算相关性矩阵M,
其中,gx和gy分别为x和y方向的梯度,为高斯模板。
然后,计算每一像素点的Harris角点响应R,
R=det(M)-k·tr2(M),
其中,det()为矩阵行列式,tr为矩阵的迹,k为默认常数,一般取值为0.04~0.06。
最后,在w*w范围内(一般w取10以内)寻找极大值点,若Harris角点响应R大于阀值T(一般取4500~5000),则视为角点特征。
本实施例中,根据水平边缘Sobel算子及垂直边缘Sobel算子检测左眼图像与右眼图像中观察区,具体计算过程如下:
首先,选用Sobel算子分别遍历左眼图像及右眼图像,其中,该Sobel算子包括水平边缘Sobel算子S1及垂直边缘Sobel算子S2,
然后,根据边缘检测算子的中心与中心像素对应原则,分别进行水平和垂直两次卷积运算,两次运算的最大值作为该点的边缘值输出;
最后,遍历整幅图像之后得到左眼图像及右眼图像的边缘特征。结合得到的角点特征和边缘特征,生成左眼图像及右眼图像的稀疏特征图像。
在一具体的实施例中,所述步骤S30具体包括:
根据基于极线约束的SSDA算法找出与左眼图像的目标像素点的对应的匹配特征点;
根据基于极线约束的SSDA算法找出与右眼图像的目标像素点的对应的匹配特征点;
判断两次计算的匹配特征点是否相同,若是则保留匹配特征点,并根据匹配特征点得到左眼图像与右眼图像的稀疏视差图,若否则去除保留匹配特征点。
本实施例中,将上述步骤S20得到左眼图像及右眼图像的稀疏特征图分别记为T和S,在T中以(i,j)为中心取M*N的区域作为匹配的模板区域Tij,在S中以(i,j)为参考点且尺寸与相同的子图为Sij,如此,可以计算出绝对误差值:
在Sij中随机选取像素点,计算它同Tij中对应点的误差值e,然后将e累加起来,当累加r次误差超过阈值Th(为一视图像大小而定的经验值),则停止累加,并记下次数r,定义检测曲面为:
把I(i,j)值大的(i,j)点作为匹配特征点。
经过特征匹配之后得到的匹配点对可能存在误匹配点,本实施例中,使用一致性约束来去除误差结果,即若左图中一特征点x与右图中y相匹配,则检查右图中y是否与x相匹配,如果两次匹配计算得到的特征点不一致,则认为该点是误匹配特征点,并去除该误匹配特征点,如果两次匹配计算得到的特征点一致,则保留该匹配特征点。
在一具体的实施例中,步骤S40对左眼图像与右眼图像的稀疏视差图进行图像差值运算,得到图像的稠密视差图。具体的方法如下:选用最近邻插值算法插值得图像的稠密视差图:取插值点的4个邻点中距离最近的邻点灰度值作为该点的灰度值。设插值点(i,j)到周边4个邻点fk(i,j)(k=1,2,3,4)的距离为dk(k=1,2,3,4),则:
I(i,j)=fl(i,j),dl=min{d1,d2,d3,d4},l=1,2,3,4。
在一具体的实施例中,所述根据图像的稠密视差图及测定参数重构观察区的立体模型的步骤,具体包括:
根据图像的稠密视差图及测定参数求取观察区内所有像素点的三维坐标;
对观察区内所有三维坐标的像素点进行渲染形成立体图像。
本实施例中,假设两摄像机观测空间物体的一匹配特征点为P(x,y,z),左眼图像及右眼图像的坐标分别为Pl=(xl,yl),Pr=(xr,yr),由于两图像的水平扫描线共线,即yl=yr=Y,则视差为Disparity=xl-xr,在已知摄像机基线距B和焦距f的情况下,点P在相机坐标系下的三维坐标可以表示如下:
求取所有像素点的三维坐标后,对三维坐标进行渲染,重构观察区的立体模型,即可得到3D图像,并可由多张连续的3D图像可以重构出立体视频。
请参照图2,本发明的实施例中,该基于图像稀疏特征匹配的立体图像重构装置,包括:
校正模块10,用于校正获取的左眼图像及右眼图像。通过校正模块10可以使左眼图像与右眼图像中观察区的像素特征点变换到同一扫描线上。
检测模块20,用于分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征。
匹配模块30,用于根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图。
差值运算模块40,用于对左眼图像与右眼图像的稀疏视差图进行图像差值运算,得到图像的稠密视差图。
重构模块50,用于根据图像的稠密视差图及测定参数重构观察区的立体模型。
在一具体的实施例中,所述校正模块10具体用于:
从左眼图像及右眼图像中选取多个匹配点,并计算对应的基础矩阵;
根据左眼图像及右眼图像各自极线交点的原则对应计算出左极点及右极点;
选择一矩阵作为右眼图像的变换矩阵,并根据变换矩阵将右极点映射到无穷远极点处;
根据基础矩阵及变换矩阵计算出左眼图像的变换矩阵;
根据右眼图像的变换矩阵及左眼图像的变换矩阵重新采样左眼图像及右眼图像,以校正获取的左眼图像及右眼图像。
本实施例中,校正模块10主要目的是将两幅图像中的像素点进行二维空间变换,图像校正的目标是将两幅图像中对应的极线变换成一组平行的直线,如此,在根据左眼图像搜索右眼图像的特征匹配点过程中,搜索二维的像素点只需沿着区域内x轴方向前进,而不需要判断y轴方向的像素,因此将算法从二维搜索降维成一维搜索,减少了计算量,提高了匹配精度。在立体内容生成设备无法进行前端标定的情况,选用不需要标定也可根据Hartley算法,完成左眼图像及右眼图像的校正,具体计算方法如下所述,此处不再赘述。可以理解的是,经过校正后的图像,像点在左眼图像及右眼图像上的高度一致。
在一具体的实施例中,所述检测模块20具体用于:
根据Harris角点检测算法检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的角点特征;
根据水平边缘Sobel算子及垂直边缘Sobel算子检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的边缘特征;
根据左眼图像与右眼图像对应的角点特征及边缘特征生成稀疏特征图。
本实施例中,由于左眼图像及右眼图像的像素冗余量大,需要提取图像中非常明显的目标特征作为图像分析和稀疏匹配的基础,本实施例中选用的目标特征为角点特征和边缘特征,并通过角点特征和边缘特征分别对左眼图像及右眼图像进行检测,得出对应的特征点,具体计算方法如下所述,此处不再赘述。可以理解的是,通过上述的目标特征的检测方法,可以大大减少重构图像运算量,提高图像处理效率。
在一具体的实施例中,所述匹配模块30具体用于:
根据基于极线约束的SSDA算法找出与左眼图像的目标像素点的对应的匹配特征点;
根据基于极线约束的SSDA算法找出与右眼图像的目标像素点的对应的匹配特征点;
判断两次计算的匹配特征点是否相同,若是则保留匹配特征点,并根据匹配特征点得到左眼图像与右眼图像的稀疏视差图,若否则去除保留匹配特征点。
本实施例中,考虑到经过特征匹配之后得到的匹配点对可能存在误匹配点,该匹配模块30使用一致性约束来去除误差结果,即若左图中一特征点x与右图中y相匹配,则检查右图中y是否与x相匹配,如果两次匹配计算得到的特征点不一致,则认为该点是误匹配特征点,并去除该误匹配特征点,如果两次匹配计算得到的特征点一致,则保留该匹配特征点,可以提高匹配特征点的准确率,以提高重构图像的显示效果。
在一具体的实施例中,所述重构模块50具体用于:
根据图像的稠密视差图及测定参数求取观察区内所有像素点的三维坐标;
对观察区内所有三维坐标的像素点进行渲染形成立体图像。
本实施例中,该重构模块50可以根据稠密视差图以及结合前期摄像机标定得到的参数(如,基线距及焦距数据),可以计算出每个观察点在摄像机坐标系下的三维坐标,计算出所有像素点的三维坐标可对所有像素点进行渲染,重构观察区的立体模型,即可得到3D图像,并可由多张连续的3D图像可以重构出立体视频。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。

Claims (6)

1.一种基于图像稀疏特征匹配的立体图像重构方法,其特征在于,包括如下步骤:
校正获取的左眼图像及右眼图像;
分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征,具体包括,
根据Harris角点检测算法检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的角点特征,具体为,对观察区的每一个像素点计算相关性矩阵M,
其中,gx和gy分别为x和y方向的梯度,为高斯模板,
计算每一像素点的Harris角点响应R,
R=det(M)-k·tr2(M),
其中,det()为矩阵行列式,tr为矩阵的迹,k为默认常数,取值为0.04~0.06,
在w*w范围内寻找极大值点,若Harris角点响应R大于阀值T,则视为角点特征,其中,w取10以内,T取4500~5000;
根据水平边缘Sobel算子及垂直边缘Sobel算子检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的边缘特征,具体为,选用Sobel算子分别遍历左眼图像及右眼图像,其中,该Sobel算子包括水平边缘Sobel算子S1及垂直边缘Sobel算子S2,
根据边缘检测算子的中心与中心像素对应原则,分别进行水平和垂直两次卷积运算,两次运算的最大值作为该点的边缘值输出;
遍历整幅图像之后得到左眼图像及右眼图像的边缘特征;
根据左眼图像与右眼图像对应的角点特征及边缘特征生成稀疏特征图;
根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图,具体包括:
根据基于极线约束的SSDA算法找出与左眼图像的目标像素点的对应的匹配特征点,具体为,将左眼图像的稀疏特征图记为T,在T中以(i,j)为中心取M*N的区域作为匹配的模板区域Tij,计算出绝对误差值,计算公式如下,
根据基于极线约束的SSDA算法找出与右眼图像的目标像素点的对应的匹配特征点,具体为,将右眼图像的稀疏特征图记为S,在S中以(i,j)为参考点且尺寸与Tij相同的子图为Sij,在Sij中随机选取像素点,计算它同Tij中对应点的误差值e,然后将e累加起来,当累加r次误差超过阈值Th,则停止累加,并记下次数r,将I(i,j)值大的(i,j)点作为匹配特征点,检测曲面公式如下,
判断两次计算的匹配特征点是否相同,若是则保留匹配特征点,并根据匹配特征点得到左眼图像与右眼图像的稀疏视差图,若否则去除保留匹配特征点;
对左眼图像与右眼图像的稀疏视差图进行图像插值运算,得到图像的稠密视差图;
根据图像的稠密视差图及测定参数重构观察区的立体模型。
2.如权利要求1所述的基于图像稀疏特征匹配的立体图像重构方法,其特征在于,所述校正获取的左眼图像及右眼图像的步骤,具体包括:
从左眼图像及右眼图像中选取多个匹配点,并计算对应的基础矩阵;
根据左眼图像及右眼图像各自极线交点的原则对应计算出左极点及右极点;
选择一矩阵作为右眼图像的变换矩阵,并根据变换矩阵将右极点映射到无穷远极点处;
根据基础矩阵及变换矩阵计算出左眼图像的变换矩阵;
根据右眼图像的变换矩阵及左眼图像的变换矩阵重新采样左眼图像及右眼图像,以校正获取的左眼图像及右眼图像。
3.如权利要求1所述的基于图像稀疏特征匹配的立体图像重构方法,其特征在于,所述根据图像的稠密视差图及测定参数重构观察区的立体模型的步骤,具体包括:
根据图像的稠密视差图及测定参数求取观察区内所有像素点的三维坐标;
对观察区内所有三维坐标的像素点进行渲染形成立体图像。
4.一种基于图像稀疏特征匹配的立体图像重构装置,其特征在于,包括:
校正模块,用于校正获取的左眼图像及右眼图像;
检测模块,用于分别检测经校正的左眼图像与右眼图像中观察区的角点及边缘,得到左眼图像与右眼图像的角点特征及边缘特征,具体用于,
根据Harris角点检测算法检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的角点特征,具体为,对观察区的每一个像素点计算相关性矩阵M,
其中,gx和gy分别为x和y方向的梯度,为高斯模板,
计算每一像素点的Harris角点响应R,
R=det(M)-k·tr2(M),
其中,det()为矩阵行列式,tr为矩阵的迹,k为默认常数,取值为0.04~0.06,
在w*w范围内寻找极大值点,若Harris角点响应R大于阀值T,则视为角点特征,其中,w取10以内,T取4500~5000;
根据水平边缘Sobel算子及垂直边缘Sobel算子检测左眼图像与右眼图像中观察区,找出左眼图像与右眼图像对应的边缘特征,具体为,选用Sobel算子分别遍历左眼图像及右眼图像,其中,该Sobel算子包括水平边缘Sobel算子S1及垂直边缘Sobel算子S2,
根据边缘检测算子的中心与中心像素对应原则,分别进行水平和垂直两次卷积运算,两次运算的最大值作为该点的边缘值输出;
遍历整幅图像之后得到左眼图像及右眼图像的边缘特征;
根据左眼图像与右眼图像对应的角点特征及边缘特征生成稀疏特征图;
匹配模块,用于根据基于极线约束的SSDA算法分别对左眼图像与右眼图像的角点特征及边缘特征进行匹配,得到左眼图像与右眼图像的稀疏视差图,具体包括:
根据基于极线约束的SSDA算法找出与左眼图像的目标像素点的对应的匹配特征点,具体为,将左眼图像的稀疏特征图记为T,在T中以(i,j)为中心取M*N的区域作为匹配的模板区域Tij,计算出绝对误差值,计算公式如下,
根据基于极线约束的SSDA算法找出与右眼图像的目标像素点的对应的匹配特征点,具体为,将右眼图像的稀疏特征图记为S,在S中以(i,j)为参考点且尺寸与Tij相同的子图为Sij,在Sij中随机选取像素点,计算它同Tij中对应点的误差值e,然后将e累加起来,当累加r次误差超过阈值Th,则停止累加,并记下次数r,将I(i,j)值大的(i,j)点作为匹配特征点,检测曲面公式如下,
判断两次计算的匹配特征点是否相同,若是则保留匹配特征点,并根据匹配特征点得到左眼图像与右眼图像的稀疏视差图,若否则去除保留匹配特征点;
差值运算模块,用于对左眼图像与右眼图像的稀疏视差图进行图像插值运算,得到图像的稠密视差图;
重构模块,用于根据图像的稠密视差图及测定参数重构观察区的立体模型。
5.如权利要求4所述的基于图像稀疏特征匹配的立体图像重构装置,其特征在于,所述校正模块具体用于:
从左眼图像及右眼图像中选取多个匹配点,并计算对应的基础矩阵;
根据左眼图像及右眼图像各自极线交点的原则对应计算出左极点及右极点;
选择一矩阵作为右眼图像的变换矩阵,并根据变换矩阵将右极点映射到无穷远极点处;
根据基础矩阵及变换矩阵计算出左眼图像的变换矩阵;
根据右眼图像的变换矩阵及左眼图像的变换矩阵重新采样左眼图像及右眼图像,以校正获取的左眼图像及右眼图像。
6.如权利要求4所述的基于图像稀疏特征匹配的立体图像重构装置,其特征在于,所述重构模块具体用于:
根据图像的稠密视差图及测定参数求取观察区内所有像素点的三维坐标;
对观察区内所有三维坐标的像素点进行渲染形成立体图像。
CN201610708440.1A 2016-08-23 2016-08-23 基于图像稀疏特征匹配的立体图像重构方法及装置 Active CN106303501B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610708440.1A CN106303501B (zh) 2016-08-23 2016-08-23 基于图像稀疏特征匹配的立体图像重构方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610708440.1A CN106303501B (zh) 2016-08-23 2016-08-23 基于图像稀疏特征匹配的立体图像重构方法及装置

Publications (2)

Publication Number Publication Date
CN106303501A CN106303501A (zh) 2017-01-04
CN106303501B true CN106303501B (zh) 2018-12-04

Family

ID=57615413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610708440.1A Active CN106303501B (zh) 2016-08-23 2016-08-23 基于图像稀疏特征匹配的立体图像重构方法及装置

Country Status (1)

Country Link
CN (1) CN106303501B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114981138A (zh) * 2020-02-13 2022-08-30 华为技术有限公司 车辆可行驶区域的检测方法以及检测装置
CN113674407B (zh) * 2021-07-15 2024-02-13 中国地质大学(武汉) 基于双目视觉图像的三维地形重建方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN102243706A (zh) * 2011-08-18 2011-11-16 杭州海康威视软件有限公司 基于目标边缘方向的目标分类方法和系统
CN102413342A (zh) * 2011-09-05 2012-04-11 清华大学 双目立体视频的几何校正方法及系统
CN104065954A (zh) * 2014-07-03 2014-09-24 中国传媒大学 一种高清立体视频的视差范围快速检测方法
CN105139412A (zh) * 2015-09-25 2015-12-09 深圳大学 一种高光谱图像角点检测方法与系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102065313B (zh) * 2010-11-16 2012-10-31 上海大学 平行式相机阵列的未标定多视点图像校正方法
CN102223556B (zh) * 2011-06-13 2013-02-27 天津大学 一种多视点立体图像零视差校正方法
CN103345736B (zh) * 2013-05-28 2016-08-31 天津大学 一种虚拟视点绘制方法
CN104065947B (zh) * 2014-06-18 2016-06-01 长春理工大学 一种集成成像系统的深度图获取方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN102243706A (zh) * 2011-08-18 2011-11-16 杭州海康威视软件有限公司 基于目标边缘方向的目标分类方法和系统
CN102413342A (zh) * 2011-09-05 2012-04-11 清华大学 双目立体视频的几何校正方法及系统
CN104065954A (zh) * 2014-07-03 2014-09-24 中国传媒大学 一种高清立体视频的视差范围快速检测方法
CN105139412A (zh) * 2015-09-25 2015-12-09 深圳大学 一种高光谱图像角点检测方法与系统

Also Published As

Publication number Publication date
CN106303501A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
JP5792157B2 (ja) 画像処理装置、方法、プログラム及び記録媒体
Bonfort et al. General specular surface triangulation
CN102592124B (zh) 文本图像的几何校正方法、装置和双目立体视觉系统
US20160295194A1 (en) Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images
KR100513055B1 (ko) 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법
US6263100B1 (en) Image processing method and apparatus for generating an image from the viewpoint of an observer on the basis of images obtained from a plurality of viewpoints
US20140079336A1 (en) Systems and methods for correcting user identified artifacts in light field images
JP5715735B2 (ja) 3次元測定方法、装置、及びシステム、並びに画像処理装置
TW201724026A (zh) 基於場景之拍攝圖像而產生合併、融合三維點雲
US20100020178A1 (en) Calibrating a camera system
JP7379704B2 (ja) 視覚化カメラ及び光学コヒーレンストモグラフィを統合するシステム及び方法
Forkuo Automatic fusion of photogrammetric imagery and laser scanner point clouds
CN109357633B (zh) 三维扫描方法、装置、存储介质和处理器
CN105654547B (zh) 三维重建方法
CN102831601A (zh) 基于联合相似性测度和自适应支持权重的立体匹配方法
JP2013024662A (ja) 3次元範囲計測システム、3次元範囲計測プログラムおよび記録媒体
CN111009030A (zh) 一种多视高分辨率纹理图像与双目三维点云映射方法
CN110458952B (zh) 一种基于三目视觉的三维重建方法和装置
Mahdy et al. Projector calibration using passive stereo and triangulation
CN107374638A (zh) 一种基于双目视觉模块的身高测量系统及方法
CN106303501B (zh) 基于图像稀疏特征匹配的立体图像重构方法及装置
JP6285686B2 (ja) 視差画像生成装置
US20180131921A1 (en) Three-dimensional video image display processing device, video information recording medium, video information providing server, and recording medium storing a program
GB2569609A (en) Method and device for digital 3D reconstruction
Zhao et al. Geometrical-analysis-based algorithm for stereo matching of single-lens binocular and multi-ocular stereovision system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant