CN107886101A - 一种基于rgb‑d的场景三维特征点高效提取方法 - Google Patents
一种基于rgb‑d的场景三维特征点高效提取方法 Download PDFInfo
- Publication number
- CN107886101A CN107886101A CN201711293628.5A CN201711293628A CN107886101A CN 107886101 A CN107886101 A CN 107886101A CN 201711293628 A CN201711293628 A CN 201711293628A CN 107886101 A CN107886101 A CN 107886101A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- mfrac
- msubsup
- msup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本发明公开了一种基于RGB‑D的场景三维特征点高效提取方法,其中,包括以下步骤:步骤101,利用透视投影模型,给出RGB‑D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示;步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB‑D图像三维特征点的RGB‑D尺度空间;步骤103,在RGB‑D尺度空间上极值检测,获取特征点的位置;以及步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。通过采用本发明提供的方法,进行图像的三维特征提取,可以为后续图像配准、图像拼接、目标跟踪与识别等提供大量稳定的图像特征。
Description
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于RGB-D的场景三维特征点高效提取方法。
背景技术
图像匹配技术是实现图像拼接、图像校正、目标识别与分类的关键步骤之一,已经广泛应用在图像识别以及图像重建等领域中。图像匹配技术主要分为基于像素的方法和基于特征的方法,其中基于特征的图像匹配方法是最常用的匹配方法。基于特征的图像匹配方法对于图像畸变、遮挡等具有一定的鲁棒性,但是它的匹配性能在很大程度上取决于特征提取的质量。如何提取稳定可靠的特征,提高匹配准确度是实现图像匹配的重要环节。
现有的特征提取方法大部分都是基于RGB图像或灰度图像的,它们主要面临以下两个问题:(1)丢失了实际物体的三维结构信息,无法提取表征三维物体本质属性的特征;(2)容易受到光照等外界条件的影响。这些问题使图像特征很难满足辨识度高的要求。
RGB图像包含物体的表面颜色信息和纹理信息,Depth图像记录了场景各点与相机的距离信息,相对稳定地反映了图像物体表面的三维结构信息。因此,RGB图像和Depth图像对彼此都是一种有效的补充,这种互补性极大地促进RGB-D图像在物体检测、图像识别与分类、特征描述、3D重建等领域的研究应用。但是,现有的RGB-D图像特征点提取方法都是对RGB信息和Depth信息的简单融合,稳定性低,影响特征匹配的准确度。
发明内容
本发明的目的在于提供一种基于RGB-D的场景三维特征点高效提取方法来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种基于RGB-D的场景三维特征点高效提取方法,其中,包括以下步骤:
步骤101,利用透视投影模型,给出RGB-D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示;
步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB-D图像三维特征点的RGB-D尺度空间;
步骤103,在RGB-D尺度空间上极值检测,获取特征点的位置;以及
步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。
进一步地,步骤101中的“场景中物点在相机坐标系中的参数表示”为:
(1)式中,是物点P在相机坐标系中的坐标,(u,v)平面为成像平面,ω为相机的水平视角,W,H表示图像I0的分辨率,D(u,v)为物点到相机的水平距离。
进一步地,步骤102具体包括:
根据尺度空间理论,图像I0(x,y)的高斯尺度空间L(x,y,σ)表示为高斯函数G(x,y,σ)与原始图像I0的卷积,如下(2)式所示:
L(x,y,σ)=G(x,y,σ)*I0(x,y), (2)
其中则图像I0的高斯尺度空间等价于扩散方程初值问题(3)式,即:
扩散方程(3)有唯一解*表示卷积;
利用有限差分理论,得到扩散方程初值问题的差分近似形式包括:
对图像I0的支撑域Ω进行步长为h的离散得Ωd,引入以下差分量,得到扩散方程(3)的差分形式,进而建立RGB-D尺度空间,差分量的表达如下:
其中和为简化符号;
同理,定义类似,即:
因此,引入拉普拉斯算子L的离散二阶微分算子有以下差分方程(9)式,即RGB-D尺度空间的表达式,具体为:
将(9)式写成矩阵形式,令再由导数的定义,(9)式近似于为(10)式:
(10)式中,τ为图像层间的尺度差,即τ=σ(n+1)-σ(n),由(10)式迭代求解,即可建立RGB-D尺度空间。
进一步地,步骤103具体为:在RGB-D尺度空间上检测极值,得到图像潜在的特征点。
进一步地,步骤104具体包括:
为获取连续情况下的极值点,利用子像元插值法,精确定位特征点,其具体如下:
步骤1041,令F(u,v)=Af(u,v),假设经上述极值检测得到的极值点为(u1,v1),则在此极值点(u1,v1)处将F(u,v)Taylor展开,并求驻点得到偏移量
步骤1042,根据偏移量中所有分量与0.5的大小关系定位特征点;
为增强特征匹配稳定性和抗噪能力,筛除低对比度和边缘响应点,其具体如下:
步骤1043,删除定位出的特征点中低对比度的特征点;
步骤1044,删除定位出的特征点中的边缘响应点;
步骤1045,经过步骤1043和步骤1044的筛选,保留下来的特征点即为RGB-D图像的稳定三维特征点。
进一步地,步骤1041中的“此极值点(u1,v1)处将F=Af Taylor展开”具体如下:
在上述检测到的极值点(u1,v1)处Taylor展开:
(11)式中,为偏移量,Fu,Fv分别表示F(u,v)对变量u,v的一阶偏导数,Fuu,Fvv分别表示F(u,v)对变量u,v的二阶偏导数,Fuv表示F(u,v)对变量u,v的混合偏导数;
步骤1041中的“求驻点得到偏移量”具体如下:
对(11)式求驻点,则有
进一步地,步骤1042中的“根据偏移量中所有分量与0.5的大小关系定位特征点”包括:
若偏移量中全部分量的绝对值都小于0.5,保留此极值点(u1,v1)和其偏移量并根据此极值点(u1,v1)和偏移量定位连续情况下的极值点(u,v);若偏移量中有绝对值大于0.5的分量,则需要根据具体情况替换极值点的位置为(u1,v1)周围的像素点:
(1)若中|u-u1|>0.5,即u>u1+0.5或者u<u1-0.5,则说明分量u相对于相对于u1,更接近u1+1或者u1-1,即连续情况下的极值点(u,v)更接近像素点(u1+1,v1)或者(u1-1,v1);下面在像素点(u1+1,v1)或者(u1-1,v1)处重复步骤1041-1042,并给定最高重复次数N;若在重复上述步骤1041-1042 N次以内,已有像素点对应的偏移量满足全部分量的绝对值都小于0.5,则保留此像素点,并根据此像素点和偏移量即可定位连续情况下的极值点;若重复上述步骤1041-1042 N次后计算得到的偏移量仍有绝对值大于0.5的分量,则直接删除此像素点;
(2)对于中|v-v1|>0.5的情况,同上述(1)做相应处理。
进一步地,步骤1043具体包括:
精确定位的特征点(u,v)处的极值为
给定阈值τ1,若F(u,v)小于阈值τ1,则认为此特征点为低对比度的特征点,删除,否则保留。
进一步地,步骤1044具体包括:
利用特征点(u,v)处2×2的Hessian矩阵HF来筛选特征点:
计算Hessian矩阵HF的迹和行列式。给定阈值τ2,判定是否小于若小于,则保留特征点,否则删除。
通过采用本发明提供的方法,进行图像的三维特征提取,可以为后续图像配准、图像拼接、目标跟踪与识别等提供大量稳定的图像特征。
附图说明
图1是本发明实施例提供的基于RGB-D的场景三维特征点高效提取方法的流程图。
图2是本发明实施例提供的物点在相机坐标系中的参数表示示意图。
图3本发明实施例提供的示例图片中提取的场景三维特征点。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
如图1所示,本发明实施例提供的一种基于RGB-D的场景三维特征点高效提取方法包括以下步骤:
步骤101,利用透视投影模型,给出RGB-D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示。
步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB-D图像三维特征点的RGB-D尺度空间。
步骤103,在RGB-D尺度空间上极值检测,获取特征点的位置。
步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。
下面分别就本发明的四个步骤进行详细阐述。
步骤101中,RGB-D图像可以有目前市面上出现的RGB-D相机、微软的kinect、光场相机等获得。RGB-D图像是两幅图像:一个是RGB三通道彩色图像,另一个是Depth图像。Depth图像类似于灰度图像,只是它的每个像素值是传感器距离物体的实际距离。但文中提到的图像I0是指RGB图像,同时图像I0中每个像点对应的Depth也可知,即下文中提及的“图像I0”是携带Depth信息的RGB图像。
步骤101中,透视投影模型是现有的技术,图2是透视投影示意图,表示了物点与像点在相机坐标系中的关系。图2中,坐标系OXYZ为相机坐标系。坐标系O’UV为相机中成像面坐标系。(u,v)平面为成像平面,是实际场景中物体上的点(简称物点),p:m(u,v)为物点对应的像点。f表示相机光心O到成像面(u,v)的距离即像距。D(u,v)是RGB图像(u,v)处像点p:m(u,v)对应的实际场景物点的深度,即物点到相机的水平距离。ω为相机的水平视角。W,H表示图像I0的分辨率,图中以图像I0的中心为坐标原点,则图像I0在O’UV坐标系中的范围为:
并且,从图2中可以推导出场景中的物点在相机坐标系中的坐标为:
公式(1)给出的是图像I0中像点对应实际场景中物点在相机坐标系中的参数表示。其中u、v分别是图像I0中像素的下标。
步骤101中,“RGB-D图像保三维几何结构的降维计算方法”具体包括:
利用透视投影,即专利中的图2,将RBG图像和Depth图像结合,得到了实际场景物体在相机坐标系中的参数表示,即函数,该函数不仅融合了RGB图像的灰度信息和Depth图像的深度信息,并将三维空间结构转化为二维图像平面上。
步骤101利用透视投影模型将三维物体映射到二维成像平面上,对RGB-D图像进行了降维处理,且该降维处理保留了物体的三维几何结构信息。
步骤102中,由尺度空间理论知,图像I0(x,y)的高斯尺度空间L(x,y,σ)表示为高斯函数G(x,y,σ)与原始图像I0的卷积,如下式(2)所示:
L(x,y,σ)=G(x,y,σ)*I0(x,y), (2)
式(2)中
图像I0的高斯尺度空间亦可以表示为扩散方程初值问题,即如下(3)式:
扩散方程(3)有唯一解*表示卷积。由此可将图像信息处理的尺度空间与扩散方程(3)联系起来。
再根据有限差分理论,对图像I0的支撑域Ω进行步长为h的离散得Ωd,引入差分量,得到扩散方程(3)的差分形式,进而建立RGB-D尺度空间,差分量的表达如下:
其中和为简化符号。同理,定义类似,即,
因此,引入拉普拉斯算子L的离散二阶微分算子有以下差分方程(9)式,即RGB-D尺度空间的表达式,具体为:
将(9)式写成矩阵形式,令再由导数的定义,(9)式近似于为式(10):
其中,τ为图像层间的尺度差,即τ=σn+1-σn。σn+1和σn分别表示图像f(n+1)和f(n)的模糊度,即尺度。由(10)式知,给定图像I0,由(10)式迭代求解出平滑后的图像,即可建立RGB-D尺度空间。
步骤103中,因为尺度归一化的高斯拉普拉斯函数的极值同其它的特征提取函数(如:梯度,Hessian或Harris)比较,能够产生最稳定的图像特征。而本实施例建立RGB-D尺度空间的差分方程(9)式又是尺度归一化的高斯拉普拉斯函数的近似,所以本实施例在RGB-D尺度空间上检测极值,可得到图像潜在的特征点。
步骤104中,由于步骤103获得的极值是在离散情况下检测得到的,则上述极值并非连续情况下的极值。为获取连续情况下的极值点,需要利用子像元插值法,即利用Taylor展开,得到连续情况下的极值点,并筛选特征点,以增强特征匹配稳定性和抗噪能力。步骤104具体包括:
为获取连续情况下的极值点,利用子像元插值法,精确定位特征点,其具体如下:
步骤1041,令F(u,v)=Af(u,v),假设经上述极值检测得到的极值点为(u1,v1),则在此极值点(u1,v1)处将F(u,v)Taylor展开,并求驻点得到偏移量
步骤1042,根据偏移量中所有分量与0.5的大小关系定位特征点;
为增强特征匹配稳定性和抗噪能力,筛除低对比度和边缘响应点,其具体如下:
步骤1043,删除定位出的特征点中低对比度的特征点;
步骤1044,删除定位出的特征点中的边缘响应点;
步骤1045,经过步骤1043和步骤1044的筛选,保留下来的特征点即为RGB-D图像的稳定三维特征点。
在一个实施例中,步骤1041中的“此极值点(u1,v1)处将F=Af Taylor展开”具体如下:
在上述检测到的极值点(u1,v1)处Taylor展开:
(11)式中,为偏移量,Fu,Fv分别表示F(u,v)对变量u,v的一阶偏导数,Fuu,Fvv分别表示F(u,v)对变量u,v的二阶偏导数,Fuv表示F(u,v)对变量u,v的混合偏导数;
步骤1041中的“求驻点得到偏移量”具体如下:
对(11)式求驻点,则有
在一个实施例中,步骤1042中的“根据偏移量中所有分量与0.5的大小关系定位特征点”包括:
若偏移量中全部分量的绝对值都小于0.5,保留此极值点(u1,v1)和其偏移量并根据此极值点(u1,v1)和偏移量定位连续情况下的极值点(u,v);若偏移量中有绝对值大于0.5的分量,则需要根据具体情况替换极值点的位置为(u1,v1)周围的像素点:
(1)若中|u-u1|>0.5,即u>u1+0.5或者u<u1-0.5,则说明分量u相对于相对于u1,更接近u1+1或者u1-1,即连续情况下的极值点(u,v)更接近像素点(u1+1,v1)或者(u1-1,v1);下面在像素点(u1+1,v1)或者(u1-1,v1)处重复步骤1041-1042,并给定最高重复次数N。若在重复上述步骤1041-1042 N次以内,已有像素点对应的偏移量满足全部分量的绝对值都小于0.5,则保留此像素点,并根据此像素点和偏移量即可定位连续情况下的极值点;若重复上述步骤1041-1042 N次后计算得到的偏移量仍有绝对值大于0.5的分量,则直接删除此像素点;
(2)对于中|v-v1|>0.5的情况,同上述(1)做相应处理。
本实施例中,建立RGB-D尺度空间时降采样因子设置为2(可以根据实际情况设置为其它数值),根据偏移量中所有分量与0.5的大小关系即可精确定位特征点。
在一个实施例中,步骤1043具体包括:精确定位的特征点(u,v)处的极值为:
给定阈值τ1,若F(u,v)小于阈值τ1,则认为此特征点为低对比度的特征点,删除,否则保留。
在一个实施例中,步骤1044具体包括:
利用特征点(u,v)处2×2的Hessian矩阵HF来筛选特征点:
计算Hessian矩阵HF的迹和行列式。给定阈值τ2,判定是否小于若小于,则保留特征点,否则删除。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种基于RGB-D的场景三维特征点高效提取方法,其特征在于,包括以下步骤:
步骤101,利用透视投影模型,给出RGB-D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示;
步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB-D图像三维特征点的RGB-D尺度空间;
步骤103,在RGB-D尺度空间上极值检测,获取特征点的位置;以及
步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。
2.如权利要求1所述的一种基于RGB-D的场景三维特征点高效提取方法,其特征在于,步骤101中的“场景中物点在相机坐标系中的参数表示”为:
<mrow>
<mover>
<mi>r</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>2</mn>
<mi>u</mi>
<mi> </mi>
<mi>t</mi>
<mi>a</mi>
<mi>n</mi>
<mfrac>
<mi>&omega;</mi>
<mn>2</mn>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>2</mn>
<mi>v</mi>
<mfrac>
<mi>H</mi>
<mi>W</mi>
</mfrac>
<mi>t</mi>
<mi>a</mi>
<mi>n</mi>
<mfrac>
<mi>&omega;</mi>
<mn>2</mn>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mi>D</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>.</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
(1)式中,是物点P在相机坐标系中的坐标,(u,v)平面为成像平面,ω为相机的水平视角,W,H表示图像I0的分辨率,D(u,v)为物点到相机的水平距离。
3.如权利要求1所述的基于RGB-D的场景三维特征点高效提取方法,其特征在于,步骤102具体包括:
根据尺度空间理论,图像I0(x,y)的高斯尺度空间L(x,y,σ)表示为高斯函数G(x,y,σ)与原始图像I0的卷积,如下(2)式所示:
L(x,y,σ)=G(x,y,σ)*I0(x,y), (2)
其中则图像I0的高斯尺度空间等价于扩散方程初值问题(3)式,即:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mfrac>
<mrow>
<mo>&part;</mo>
<mi>f</mi>
</mrow>
<mrow>
<mo>&part;</mo>
<mi>&sigma;</mi>
</mrow>
</mfrac>
<mo>=</mo>
<mfrac>
<mrow>
<msup>
<mo>&part;</mo>
<mn>2</mn>
</msup>
<mi>f</mi>
</mrow>
<mrow>
<msup>
<mo>&part;</mo>
<mn>2</mn>
</msup>
<mi>x</mi>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<mrow>
<msup>
<mo>&part;</mo>
<mn>2</mn>
</msup>
<mi>f</mi>
</mrow>
<mrow>
<msup>
<mo>&part;</mo>
<mn>2</mn>
</msup>
<mi>y</mi>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>f</mi>
<msub>
<mo>|</mo>
<mrow>
<mi>&sigma;</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
</msub>
<mo>=</mo>
<msub>
<mi>I</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
扩散方程(3)有唯一解*表示卷积;
利用有限差分理论,得到扩散方程初值问题的差分近似形式包括:
对图像I0的支撑域Ω进行步长为h的离散得Ωd,引入以下差分量,得到扩散方程(3)的差分形式,进而建立RGB-D尺度空间,差分量的表达如下:
<mrow>
<msub>
<mo>&part;</mo>
<mi>u</mi>
</msub>
<mi>f</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>-</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>r</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mover>
<mi>r</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>-</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
<mo>=</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>-</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mo>&part;</mo>
<msup>
<mi>u</mi>
<mo>+</mo>
</msup>
</msub>
<mi>f</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>r</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mover>
<mi>r</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
<mo>=</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mo>+</mo>
</msubsup>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mo>&part;</mo>
<msup>
<mi>u</mi>
<mo>-</mo>
</msup>
</msub>
<mi>f</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>-</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>r</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>-</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mover>
<mi>r</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
<mo>=</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>-</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mo>-</mo>
</msubsup>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mo>&part;</mo>
<mrow>
<mi>u</mi>
<mi>u</mi>
</mrow>
</msub>
<mi>f</mi>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mo>&part;</mo>
<msup>
<mi>u</mi>
<mo>+</mo>
</msup>
</msub>
<mi>f</mi>
<mo>-</mo>
<msub>
<mo>&part;</mo>
<msup>
<mi>u</mi>
<mo>-</mo>
</msup>
</msub>
<mi>f</mi>
</mrow>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mfrac>
<mo>=</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mo>+</mo>
</msubsup>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mo>+</mo>
</msubsup>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mo>-</mo>
</msubsup>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>-</mo>
<mi>h</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mo>-</mo>
</msubsup>
<msubsup>
<mi>r</mi>
<mi>u</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
其中和为简化符号;
同理,定义类似,即:
<mrow>
<msub>
<mo>&part;</mo>
<mrow>
<mi>v</mi>
<mi>v</mi>
</mrow>
</msub>
<mi>f</mi>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mo>&part;</mo>
<msup>
<mi>v</mi>
<mo>+</mo>
</msup>
</msub>
<mi>f</mi>
<mo>-</mo>
<msub>
<mo>&part;</mo>
<msup>
<mi>v</mi>
<mo>-</mo>
</msup>
</msub>
<mi>f</mi>
</mrow>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mfrac>
<mo>=</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mo>+</mo>
</msubsup>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mo>+</mo>
</msubsup>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mo>-</mo>
</msubsup>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>-</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mo>-</mo>
</msubsup>
<msubsup>
<mi>r</mi>
<mi>v</mi>
<mrow>
<mo>+</mo>
<mo>-</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
因此,引入拉普拉斯算子L的离散二阶微分算子有以下差分方程(9)式,即RGB-D尺度空间的表达式,具体为:
将(9)式写成矩阵形式,令再由导数的定义,(9)式近似于为(10)式:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mfrac>
<mrow>
<msup>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msup>
<mo>-</mo>
<msup>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</msup>
</mrow>
<mi>&tau;</mi>
</mfrac>
<mo>=</mo>
<msub>
<mi>A</mi>
<mi>n</mi>
</msub>
<msup>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msup>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
</msup>
<mo>=</mo>
<msub>
<mi>I</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
(10)式中,τ为图像层间的尺度差,即τ=σ(n+1)-σ(n),由(10)式迭代求解,即可建立RGB-D尺度空间。
4.如权利要求1所述的基于RGB-D的场景三维特征点高效提取方法,其特征在于,步骤103具体为:在RGB-D尺度空间上检测极值,得到图像潜在的特征点。
5.如权利要求1所述的基于RGB-D的场景三维特征点高效提取方法,其特征在于,步骤104具体包括:
为获取连续情况下的极值点,利用子像元插值法,精确定位特征点,其具体如下:
步骤1041,令F(u,v)=Af(u,v),假设经上述极值检测得到的极值点为(u1,v1),则在此极值点(u1,v1)处将F(u,v)Taylor展开,并求驻点得到偏移量
步骤1042,根据偏移量中所有分量与0.5的大小关系定位特征点;
为增强特征匹配稳定性和抗噪能力,筛除低对比度和边缘响应点,其具体如下:
步骤1043,删除定位出的特征点中低对比度的特征点;
步骤1044,删除定位出的特征点中的边缘响应点;
步骤1045,经过步骤1043和步骤1044的筛选,保留下来的特征点即为RGB-D图像的稳定三维特征点。
6.如权利要求5所述的基于RGB-D的场景三维特征点高效提取方法,其特征在于,步骤1041中的“此极值点(u1,v1)处将F=Af Taylor展开”具体如下:
在上述检测到的极值点(u1,v1)处Taylor展开:
<mrow>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>&ap;</mo>
<mi>F</mi>
<msub>
<mo>|</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</msub>
<mo>+</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>u</mi>
</msub>
<mo>,</mo>
<msub>
<mi>F</mi>
<mi>v</mi>
</msub>
<mo>)</mo>
</mrow>
<msub>
<mo>|</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</msub>
<mover>
<mi>&delta;</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>+</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msup>
<mover>
<mi>&delta;</mi>
<mo>&RightArrow;</mo>
</mover>
<mi>T</mi>
</msup>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>F</mi>
<mrow>
<mi>u</mi>
<mi>u</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>F</mi>
<mrow>
<mi>u</mi>
<mi>v</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>F</mi>
<mrow>
<mi>u</mi>
<mi>v</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>F</mi>
<mrow>
<mi>v</mi>
<mi>v</mi>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<msub>
<mo>|</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</msub>
<mover>
<mi>&delta;</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
</mrow>
(11)式中,为偏移量,Fu,Fv分别表示F(u,v)对变量u,v的一阶偏导数,Fuu,Fvv分别表示F(u,v)对变量u,v的二阶偏导数,Fuv表示F(u,v)对变量u,v的混合偏导数;
步骤1041中的“求驻点得到偏移量”具体如下:
对(11)式求驻点,则有
<mrow>
<mover>
<mi>&delta;</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>=</mo>
<mo>-</mo>
<msup>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>F</mi>
<mrow>
<mi>u</mi>
<mi>u</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>F</mi>
<mrow>
<mi>u</mi>
<mi>v</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>F</mi>
<mrow>
<mi>u</mi>
<mi>v</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>F</mi>
<mrow>
<mi>v</mi>
<mi>v</mi>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<msub>
<mo>|</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</msub>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>u</mi>
</msub>
<mo>,</mo>
<msub>
<mi>F</mi>
<mi>v</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<msub>
<mo>|</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>12</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
7.如权利要求5所述的基于RGB-D的场景三维特征点高效提取方法,其特征在于,步骤1042中的“根据偏移量中所有分量与0.5的大小关系定位特征点”包括:
若偏移量中全部分量的绝对值都小于0.5,保留此极值点(u1,v1)和其偏移量并根据此极值点(u1,v1)和偏移量定位连续情况下的极值点(u,v);若偏移量中有绝对值大于0.5的分量,则需要根据具体情况替换极值点的位置为(u1,v1)周围的像素点:
(1)若中|u-u1|>0.5,即u>u1+0.5或者u<u1-0.5,则说明分量u相对于相对于u1,更接近u1+1或者u1-1,则连续情况下的极值点(u,v)更接近像素点(u1+1,v1)或者(u1-1,v1);下面在像素点(u1+1,v1)或者(u1-1,v1)处重复步骤1041-1042,并给定最高重复次数N;若在重复上述步骤1041-1042N次以内,已有像素点对应的偏移量满足全部分量的绝对值都小于0.5,则保留此像素点,并根据此像素点和偏移量即可定位连续情况下的极值点;若重复上述步骤1041-1042N次后计算得到的偏移量仍有绝对值大于0.5的分量,则直接删除此像素点;
(2)对于中|v-v1|>0.5的情况,同上述(1)做相应处理。
8.如权利要求7所述的基于RGB-D的场景三维特征点高效提取方法,其特征在于,步骤1043具体包括:
精确定位的特征点(u,v)处的极值为
给定阈值τ1,若F(u,v)小于阈值τ1,则认为此特征点为低对比度的特征点,删除,否则保留。
9.如权利要求8所述的RGB-D图像三维特征点的提取方法,其特征在于,步骤1044具体包括:
利用特征点(u,v)处2×2的Hessian矩阵HF来筛选特征点:
计算Hessian矩阵HF的迹和行列式。给定阈值τ2,判定是否小于若小于,则保留特征点,否则删除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711293628.5A CN107886101B (zh) | 2017-12-08 | 2017-12-08 | 一种基于rgb-d的场景三维特征点高效提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711293628.5A CN107886101B (zh) | 2017-12-08 | 2017-12-08 | 一种基于rgb-d的场景三维特征点高效提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107886101A true CN107886101A (zh) | 2018-04-06 |
CN107886101B CN107886101B (zh) | 2021-06-15 |
Family
ID=61773197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711293628.5A Active CN107886101B (zh) | 2017-12-08 | 2017-12-08 | 一种基于rgb-d的场景三维特征点高效提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107886101B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490209A (zh) * | 2019-07-30 | 2019-11-22 | 西安理工大学 | 基于epi的光场图像特征点检测方法 |
CN110908512A (zh) * | 2019-11-14 | 2020-03-24 | 光沦科技(杭州)有限公司 | 一种基于动态手势坐标映射的人机交互方法 |
CN111368585A (zh) * | 2018-12-25 | 2020-07-03 | 中国科学院长春光学精密机械与物理研究所 | 一种弱小目标检测方法、检测系统、存储装置及终端设备 |
CN114299318A (zh) * | 2021-12-24 | 2022-04-08 | 电子科技大学 | 一种快速点云数据处理和目标图像匹配的方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102938142A (zh) * | 2012-09-20 | 2013-02-20 | 武汉大学 | 基于Kinect的室内LiDAR缺失数据填补方法 |
CN104715254A (zh) * | 2015-03-17 | 2015-06-17 | 东南大学 | 一种基于2d和3d sift特征融合的一般物体识别方法 |
CN106204429A (zh) * | 2016-07-18 | 2016-12-07 | 合肥赑歌数据科技有限公司 | 一种基于sift特征的图像配准方法 |
CN106709947A (zh) * | 2016-12-20 | 2017-05-24 | 西安交通大学 | 一种基于rgbd相机的三维人体快速建模系统 |
US20170161945A1 (en) * | 2015-12-04 | 2017-06-08 | Autodesk, Inc. | Keypoint-based point-pair-feature for scalable automatic global registration of large rgb-d scans |
CN107240129A (zh) * | 2017-05-10 | 2017-10-10 | 同济大学 | 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法 |
-
2017
- 2017-12-08 CN CN201711293628.5A patent/CN107886101B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102938142A (zh) * | 2012-09-20 | 2013-02-20 | 武汉大学 | 基于Kinect的室内LiDAR缺失数据填补方法 |
CN104715254A (zh) * | 2015-03-17 | 2015-06-17 | 东南大学 | 一种基于2d和3d sift特征融合的一般物体识别方法 |
US20170161945A1 (en) * | 2015-12-04 | 2017-06-08 | Autodesk, Inc. | Keypoint-based point-pair-feature for scalable automatic global registration of large rgb-d scans |
CN106204429A (zh) * | 2016-07-18 | 2016-12-07 | 合肥赑歌数据科技有限公司 | 一种基于sift特征的图像配准方法 |
CN106709947A (zh) * | 2016-12-20 | 2017-05-24 | 西安交通大学 | 一种基于rgbd相机的三维人体快速建模系统 |
CN107240129A (zh) * | 2017-05-10 | 2017-10-10 | 同济大学 | 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法 |
Non-Patent Citations (2)
Title |
---|
ZDDHUB: "SIFT算法详解", 《HTTPS://BLOG.CSDN.NET/ZDDBLOG/ARTICLE/DETAILS/7521424》 * |
柯翔等: "一种适用于室内服务机器人的实时物体识别系统", 《计算机系统应用》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368585A (zh) * | 2018-12-25 | 2020-07-03 | 中国科学院长春光学精密机械与物理研究所 | 一种弱小目标检测方法、检测系统、存储装置及终端设备 |
CN111368585B (zh) * | 2018-12-25 | 2023-04-21 | 中国科学院长春光学精密机械与物理研究所 | 一种弱小目标检测方法、检测系统、存储装置及终端设备 |
CN110490209A (zh) * | 2019-07-30 | 2019-11-22 | 西安理工大学 | 基于epi的光场图像特征点检测方法 |
CN110908512A (zh) * | 2019-11-14 | 2020-03-24 | 光沦科技(杭州)有限公司 | 一种基于动态手势坐标映射的人机交互方法 |
CN114299318A (zh) * | 2021-12-24 | 2022-04-08 | 电子科技大学 | 一种快速点云数据处理和目标图像匹配的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107886101B (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080911B2 (en) | Mosaic oblique images and systems and methods of making and using same | |
CN108053367A (zh) | 一种基于rgb-d特征匹配的3d点云拼接与融合方法 | |
CN110956661B (zh) | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 | |
CN101002069B (zh) | 产生具有非均匀分辨率的合成图像的方法 | |
CN107886101A (zh) | 一种基于rgb‑d的场景三维特征点高效提取方法 | |
CN107945221A (zh) | 一种基于rgb‑d图像的三维场景特征表达与高精度匹配方法 | |
CN105550994B (zh) | 一种基于卫星影像的无人机影像快速概略拼接方法 | |
CN104616247B (zh) | 一种用于基于超像素sift航拍地图拼接的方法 | |
CN110324534B (zh) | 图像处理方法、装置及电子设备 | |
CN110415304B (zh) | 一种视觉标定方法及系统 | |
CN112862683B (zh) | 一种基于弹性配准和网格优化的邻接图像拼接方法 | |
CN107609562A (zh) | 一种基于sift算法的尺度空间特征检测方法 | |
CN113744142B (zh) | 图像修复方法、电子设备及存储介质 | |
Zhao et al. | RFVTM: a recovery and filtering vertex trichotomy matching for remote sensing image registration | |
Caner et al. | Local image registration by adaptive filtering | |
CN111882588A (zh) | 图像块配准方法及相关产品 | |
CN115456870A (zh) | 基于外参估计的多图像拼接方法 | |
Zhang et al. | Image mosaic of bionic compound eye imaging system based on image overlap rate prior | |
Ayushi et al. | Automated image mosaicing system with analysis over various image noise | |
Chand et al. | Implementation of Panoramic Image Stitching using Python | |
Cwir | Evaluation of Feature Detector-Descriptors for Automatic Registration of Multimodal Lunar Images | |
AU2012205205B2 (en) | Mosaic oblique images and methods of making and using same | |
Barazzetti | High dynamic range photography without a tripod: A linear formulation for image fusion | |
Chen et al. | a Unified Blending Framework for Panorama Completion via Graph Cuts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |