CN113129351A - 一种基于光场傅里叶视差分层的特征检测方法 - Google Patents
一种基于光场傅里叶视差分层的特征检测方法 Download PDFInfo
- Publication number
- CN113129351A CN113129351A CN202110261554.7A CN202110261554A CN113129351A CN 113129351 A CN113129351 A CN 113129351A CN 202110261554 A CN202110261554 A CN 202110261554A CN 113129351 A CN113129351 A CN 113129351A
- Authority
- CN
- China
- Prior art keywords
- parallax
- image
- space
- light field
- fourier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于光场傅里叶视差分层的特征检测方法,解决了二维图像只能聚焦在某一固定深度,其他深度的目标模糊不清,进而导致二维图像特征检测不全面和深度信息缺失的难题。与现有技术相比,本发明方法的有点在于,可以准确全面地检测到场景各个视差层的目标物体的特征点,且检测到的FDL_Harris特征点具有尺度不变性、旋转不变性和视差信息,并且对亮度变化和噪声不敏感。这些局部不变性使得检测到的特征更加稳定和鲁棒。
Description
技术领域
本发明属于计算机视觉和数字图像技术领域,具体涉及一种基于光场傅里叶视差分层的特征检测方法。
背景技术
图像特征检测、描述和匹配是计算机视觉任务中许多应用的基础,例如目标识别跟踪、三维重建、图像拼接、缺陷检测和姿态估计等等。图像特征点检测是图像分析与识别的前提,它是将高维的图像数据进行简化表达最有效的方式,从一幅图像的的数据矩阵中,很难直接提取到有用的信息,所以必须根据这些原始的图像数据提取出图像中的关键信息及它们的关系。从图像中选取某些特征点并对图像进行局部分析,而非观察整幅图像。只要图像中有足够多可检测的特征点,并且这些特征点各不相同且特征稳定,能被精确地定位,针对其的应用也就十分有效。早期的二维图像特征检测主要集中在角点检测上,典型的角点检测算子有Forstner、Harris、SUSAN等。直到Lowe提出一种SIFT特征检测算法,从图像中提取不变特征,人们才从特征检测就是角点检测的思想中解放出来。之后,提出了许多快速特征检测方法,如Fast、SURF、PCA-SIFT、ASIFT等。传统相机拍摄的二维图像只能聚焦在某一固定深度的场景上,而其他深度的目标会模糊。因此,传统的二维图像特征检测方法不能全面检测到场景中不同深度目标的特征。与传统的二维图像成像不同,四维光场成像可以描述光在三维空间中的自由分布。斯坦福大学的Levoy等人提出了一个四维光场的数学模型-双平面模型,它使用两个平行平面来记录场景中的光线分布。光场双平面模型通过记录光线通过两个平行平面的四维坐标来表达光线的二维位置信息和二维角度信息。光场丰富的角度信息和位置信息使得场景的深度估计变得容易。另外,在光场双平面模型中,根据光的传播原理,改变光场的成像平面进行数字聚焦,得到不同深度聚焦的图像。受限于二维图像成像的不确定性,基于四维光场图像的特征检测方法逐渐受到重视。基于一种新的射线高斯核构造了光场的尺度-深度(Lisad)空间,并通过在Lisad空间中寻找极值来找到场景中的三维关键点。Teixeira等人提出了一种基于光场EPI线检测的三维关键点检测方法。斯坦福大学的Donald等人介绍了一种从四维光场中提取特征曲线的纹理互相关技术,并提出了一种基于4D平面拟合和斜率一致性来区分折射和朗伯特征的方法。另外,Donald等人还提出了一种四维光场的特征检测器和描述符:LIFF,它具有尺度不变性和对视角变化的鲁棒性,但是深度空间的离散化意味着平均划分的深度不一定正好对应到场景中目标的深度,进而会导致特征检测的不全面。
发明内容
本发明的目的是提供一种基于光场傅里叶视差分层的特征检测方法,解决了二维图像特征检测不全面、深度信息缺失的问题。
本发明所采用的技术方案是,一种基于光场傅里叶视差分层的特征检测方法,具体按照以下步骤实施:
步骤1、定义傅里叶视差层模型的层数k,根据四维光场图像LF(x,y,u,v)将场景分解成三维的傅里叶视差层模型FDL(wx,wy,k);
步骤2、使用傅里叶逆变换将傅里叶视差层模型FDL(wx,wy,k)从频率域转换到空间域,构建光场图像的视差空间DS(x,y,k);
步骤3、在视差空间DS(x,y,k)的基础上,引入高斯尺度空间G(x,y,σ),生成四维的尺度-视差空间SDS(x,y,k,σ);
步骤4、在尺度-视差空间SDS(x,y,k,σ)中,使用具有旋转不变性的Harris角点检测算子进行特征检测,获取FDL_Harris角点;
步骤5、在尺度-视差空间SDS(x,y,k,σ)中,使用梯度直方图对FDL_Harris角点及其邻域进行特征描述,生成特征描述符。
本发明的特点还在于:
步骤1具体过程为:
步骤1.1、读入四维光场图像LF(x,y,u,v),其中(x,y)为光场的空间分辨率,(u,v)为光场的角度分辨率;
步骤1.2、定义傅里叶视差层模型的层数k,k为正整数,范围为[4,15];
步骤1.3、根据光场傅里叶视差层的定义,将场景分解为离散的层的和,得到傅里叶视差层模型,表示为FDL(wx,wy,k)。
步骤2具体过程为:
步骤2.1、使用快速傅里叶逆变换将光场的傅里叶视差层模型FDL(wx,wy,k)从频率域转换回空间域,生成光场视差空间DS(x,y,k);
步骤2.2、对视差空间DS(x,y,k)中的每一层图像,进行灰度映射,将灰度范围映射到[0,255],得到光场图像的视差空间DS(x,y,k)。
步骤3具体过程为:
步骤3.1、定义高斯尺度空间的组数o,定义高斯金字塔的层数s;
步骤3.2、取视差空间DS(x,y,k)中的每一层图像,令每一层图像img=DS(x,y,i),i∈[1,k];
对图像img进行插值,使得插值后的图像长和宽均放大为原图的2倍,作为计算空间第一组的s层图像,记为img1(2x,2y,1:s);计算空间的第二组的s层的图像就是图像img,记为img2(x,y,1:s);将图像img缩小一倍作为计算空间第三组的s层图像,记为img3(x/2,y/2,1:s);将图像img缩小二倍作为计算空间第四组的s层图像,记为img4(x/4,y/4,1:s);
步骤3.3、令高斯卷积的尺度因子分别为[σ1,σ2,σ3,σ4],对计算高斯尺度空间中每一组的s层图像分别用公式(1)所示的高斯核做高斯卷积,得到尺度-视差空间SDS(x,y,k,σ);
步骤4具体过程为:
步骤4.1、分别对尺度-视差空间SDS(x,y,k,σ)中的每一个视差和各尺度对应的图像img进行Harris特征提取,作为候选角点;
步骤4.2、取所有候选角点的最大角点响应值Rmax,若候选角点的角点响应值大于i*Rmax,其中0<i<1,则是FDL_Harris角点;否则不是。
步骤5的具体过程为:
步骤5.1、在尺度-视差空间SDS(x,y,k,σ)中,定义FDL_Harris角点的描述邻域半径为r,将角度[0,360]分为n个bins,其中角度为0的轴线作为坐标轴;
步骤5.2、计算特征邻域内的梯度直方图,选取最大的梯度幅值对应的角度作为特征点主方向,并将坐标轴旋转至特征点的主方向;
步骤5.3、将旋转后的特征邻域分为m个块,计算每个块内的梯度直方图,生成长度为m*n的特征描述符。
计算特征邻域内的梯度直方图采用的公式为:
其中,m(x,y)是角点坐标为(x,y)的点的梯度幅值,x、y分别为角点的横纵坐标,L代表的尺度视差空间的图像,θ是角点的梯度方向。
本发明的有益效果是:
本发明一种基于光场傅里叶视差分层的特征检测方法,解决了现有二维图像只能聚焦在场景中的某一固定深度,其他深度的目标模糊不清,进而导致特征检测不全面的难题。并且FDL_Harris特征点同时具有尺度不变性、旋转不变性和视差信息,这些特性使得特征点的鲁棒性高、稳定性好。
附图说明
图1是采用本发明一种基于光场傅里叶视差分层的特征检测方法检测结果图;
图2是采用现有的LIFF方法检测结果图。
具体实施方式
下面结合附图及具体实施方式对本发明进行详细说明。
本发明一种基于光场傅里叶视差分层的特征检测方法,具体按照以下步骤实施:
步骤1、定义傅里叶视差层模型的层数k,根据四维光场图像LF(x,y,u,v)将场景分解成三维的傅里叶视差层模型FDL(wx,wy,k);
步骤1具体过程为:
步骤1.1、读入四维光场图像LF(x,y,u,v),其中(x,y)为光场的空间分辨率,(u,v)为光场的角度分辨率;
步骤1.2、定义傅里叶视差层模型的层数k,k为正整数,范围为[4,15];
步骤1.3、根据光场傅里叶视差层的定义,将场景分解为离散的层的和,得到傅里叶视差层模型,表示为FDL(wx,wy,k)。
步骤2、使用傅里叶逆变换将傅里叶视差层模型FDL(wx,wy,k)从频率域转换到空间域,构建光场图像的视差空间DS(x,y,k);
步骤2具体过程为:
步骤2.1、使用快速傅里叶逆变换将光场的傅里叶视差层模型FDL(wx,wy,k)从频率域转换回空间域,生成光场视差空间DS(x,y,k);
步骤2.2、对视差空间DS(x,y,k)中的每一层图像,进行灰度映射,将灰度范围映射到[0,255],得到光场图像的视差空间DS(x,y,k)。
步骤3、在视差空间DS(x,y,k)的基础上,引入高斯尺度空间G(x,y,σ),生成四维的尺度-视差空间SDS(x,y,k,σ);
步骤3具体过程为:
步骤3.1、定义高斯尺度空间的组数o,定义高斯金字塔的层数s;
步骤3.2、取视差空间DS(x,y,k)中的每一层图像,令每一层图像img=DS(x,y,i),i∈[1,k];
对图像img进行插值,使得插值后的图像长和宽均放大为原图的2倍,作为计算空间第一组的s层图像,记为img1(2x,2y,1:s);计算空间的第二组的s层的图像就是图像img,记为img2(x,y,1:s);将图像img缩小一倍作为计算空间第三组的s层图像,记为img3(x/2,y/2,1:s);将图像img缩小二倍作为计算空间第四组的s层图像,记为img4(x/4,y/4,1:s);
步骤3.3、令高斯卷积的尺度因子分别为[σ1,σ2,σ3,σ4],对计算高斯尺度空间中每一组的s层图像分别用公式(1)所示的高斯核做高斯卷积,得到尺度-视差空间SDS(x,y,k,σ);
步骤4、在尺度-视差空间SDS(x,y,k,σ)中,使用具有旋转不变性的Harris角点检测算子进行特征检测,获取FDL_Harris角点;
步骤4具体过程为:
步骤4.1、分别对尺度-视差空间SDS(x,y,k,σ)中的每一个视差和各尺度对应的图像img进行Harris特征提取,作为候选角点;
步骤4.2、取所有候选角点的最大角点响应值Rmax,若候选角点的角点响应值大于i*Rmax,其中0<i<1,则是FDL_Harris角点;否则不是。
步骤5、在尺度-视差空间SDS(x,y,k,σ)中,使用梯度直方图对FDL_Harris角点及其邻域进行特征描述,生成特征描述符。
步骤5的具体过程为:
步骤5.1、在尺度-视差空间SDS(x,y,k,σ)中,定义FDL_Harris角点的描述邻域半径为r,将角度[0,360]分为n个bins,其中角度为0的轴线作为坐标轴;
步骤5.2、计算特征邻域内的梯度直方图,选取最大的梯度幅值对应的角度作为特征点主方向,并将坐标轴旋转至特征点的主方向;
计算特征邻域内的梯度直方图采用的公式为:
其中,m(x,y)是角点坐标为(x,y)的点的梯度幅值,x、y分别为角点的横纵坐标,L代表的尺度视差空间的图像,θ是角点的梯度方向。
步骤5.3、将旋转后的特征邻域分为m个块,计算每个块内的梯度直方图,生成长度为m*n的特征描述符。
采用本发明一种基于光场傅里叶视差分层的特征检测方法对四维光场图像进行检测,读入四维光场图像LF(x,y,u,v),其中(x,y)为光场的空间分辨率,大小为512*512,(u,v)为光场的角度分辨率,大小为9*9,傅里叶视差层模型的层数k取值范围为[4,15],根据光场傅里叶视差层的定义,将场景分解为离散的层的和,表示为FDL(wx,wy,k),使用快速傅里叶逆变换将光场的傅里叶视差层模型FDL(wx,wy,k)从频率域转换回空间域,生成光场视差空间DS(x,y,k),大小为512*512*9。该步骤的特点在于,视差空间的每一个视差层对应的聚焦区域的对比度明显增强,失焦区域趋于消失。对视差空间DS(x,y,k)中的每一层图像,进行灰度映射,将灰度范围映射到[0,255]。定义高斯尺度空间的组数o=4,定义高斯金字塔的层数s=4。取视差空间DS(x,y,k)中的每一层图像,令img=DS(x,y,i),i∈[1,k]。对图像img进行插值,使得插值后的图像长和宽均放大为原图的2倍,作为计算空间第一组的4层图像,记为img1(2x,2y,1:s),大小为1024*1024*4;计算空间的第二组的4层的图像就是图像img,记为img2(x,y,1:s),大小为512*512*4;将图像img缩小一倍作为计算空间第三组的4层图像,记为img3(x/2,y/2,1:s),大小为256*256*4;将图像img缩小二倍作为计算空间第四组的4层图像,记为img4(x/4,y/4,1:s),大小为128*128*4。令高斯卷积的尺度因子分别为[σ1,σ2,σ3,σ4],对计算空间每一组的四层图像分别用公式(1)所示的高斯核做高斯卷积,得到尺度-视差空间,记为SDS。
分别对尺度-视差空间SDS中的每一个尺度和每一个视差对应的图像img进行Harris特征提取,作为候选角点。取所有候选角点的最大角点响应值Rmax,若候选角点的角点响应值大于0.2*Rmax,则是FDL_Harris角点;否则不是。
定义FDL_Harris角点的描述邻域半径为3*1.5σ,将角度[0,360]分为8个bins,每个bin为45度。计算特征邻域内的梯度直方图,选取最大的梯度幅值对应的角度作为特征点主方向。并将坐标轴旋转至特征点的主方向,以确保特征描述符的旋转不变性。
计算特征邻域内的梯度直方图采用的公式为:
然后将旋转后的特征邻域分为4*4个块,计算每个块内的梯度直方图,生成长度为16*8的特征描述符。
如图1所示,根据图1可知,本发明的基于光场傅里叶视差分层的特征检测方法可以更加全面地检测到场景中物体的角点。
采用LIFF方法对相同的光场图像进行检测,设置参数为:深度列表的长度为9,得到的特征检测结果如图2所示,具有明显的特征检测不全面的问题。
通过图1与图2对比可知,本发明的方法得到的图像可以准确全面地检测到场景各个视差层的目标物体的特征点,且检测到的FDL_Harris特征点具有尺度不变性、旋转不变性和视差信息,并且对亮度变化和噪声不敏感。这些局部不变性使得检测到的特征更加稳定和鲁棒。
通过上述方式,本发明一种基于光场傅里叶视差分层的特征检测方法,解决了现有二维图像只能聚焦在场景中的某一固定深度,其他深度的目标模糊不清,进而导致特征检测不全面的难题。并且FDL_Harris特征点同时具有尺度不变性、旋转不变性和视差信息,这些特性使得特征点的鲁棒性高、稳定性好。
Claims (7)
1.一种基于光场傅里叶视差分层的特征检测方法,其特征在于,具体按照以下步骤实施:
步骤1、定义傅里叶视差层模型的层数k,根据四维光场图像LF(x,y,u,v)将场景分解成三维的傅里叶视差层模型FDL(wx,wy,k);
步骤2、使用傅里叶逆变换将傅里叶视差层模型FDL(wx,wy,k)从频率域转换到空间域,构建光场图像的视差空间DS(x,y,k);
步骤3、在视差空间DS(x,y,k)的基础上,引入高斯尺度空间G(x,y,σ),生成四维的尺度-视差空间SDS(x,y,k,σ);
步骤4、在尺度-视差空间SDS(x,y,k,σ)中,使用具有旋转不变性的Harris角点检测算子进行特征检测,获取FDL_Harris角点;
步骤5、在尺度-视差空间SDS(x,y,k,σ)中,使用梯度直方图对FDL_Harris角点及其邻域进行特征描述,生成特征描述符。
2.根据权利要求1所述一种基于光场傅里叶视差分层的特征检测方法,其特征在于,步骤1具体过程为:
步骤1.1、读入四维光场图像LF(x,y,u,v),其中(x,y)为光场的空间分辨率,(u,v)为光场的角度分辨率;
步骤1.2、定义傅里叶视差层模型的层数k,k为正整数,范围为[4,15];
步骤1.3、根据光场傅里叶视差层的定义,将场景分解为离散的层的和,得到傅里叶视差层模型,表示为FDL(wx,wy,k)。
3.根据权利要求1所述一种基于光场傅里叶视差分层的特征检测方法,其特征在于,步骤2具体过程为:
步骤2.1、使用快速傅里叶逆变换将光场的傅里叶视差层模型FDL(wx,wy,k)从频率域转换回空间域,生成光场视差空间DS(x,y,k);
步骤2.2、对视差空间DS(x,y,k)中的每一层图像,进行灰度映射,将灰度范围映射到[0,255],得到光场图像的视差空间DS(x,y,k)。
4.根据权利要求1所述一种基于光场傅里叶视差分层的特征检测方法,其特征在于,步骤3具体过程为:
步骤3.1、定义高斯尺度空间的组数o,定义高斯金字塔的层数s;
步骤3.2、取视差空间DS(x,y,k)中的每一层图像,令每一层图像img=DS(x,y,i),i∈[1,k];
对图像img进行插值,使得插值后的图像长和宽均放大为原图的2倍,作为计算空间第一组的s层图像,记为img1(2x,2y,1:s);计算空间的第二组的s层的图像就是图像img,记为img2(x,y,1:s);将图像img缩小一倍作为计算空间第三组的s层图像,记为img3(x/2,y/2,1:s);将图像img缩小二倍作为计算空间第四组的s层图像,记为img4(x/4,y/4,1:s);
步骤3.3、令高斯卷积的尺度因子分别为[σ1,σ2,σ3,σ4],对计算高斯尺度空间中每一组的s层图像分别用公式(1)所示的高斯核做高斯卷积,得到尺度-视差空间SDS(x,y,k,σ);
5.根据权利要求1所述一种基于光场傅里叶视差分层的特征检测方法,其特征在于,步骤4具体过程为:
步骤4.1、分别对尺度-视差空间SDS(x,y,k,σ)中的每一个视差和各尺度对应的图像img进行Harris特征提取,作为候选角点;
步骤4.2、取所有候选角点的最大角点响应值Rmax,若候选角点的角点响应值大于i*Rmax,其中0<i<1,则是FDL_Harris角点;否则不是。
6.根据权利要求1所述一种基于光场傅里叶视差分层的特征检测方法,其特征在于,步骤5的具体过程为:
步骤5.1、在尺度-视差空间SDS(x,y,k,σ)中,定义FDL_Harris角点的描述邻域半径为r,将角度[0,360]分为n个bins,其中角度为0的轴线作为坐标轴;
步骤5.2、计算特征邻域内的梯度直方图,选取最大的梯度幅值对应的角度作为特征点主方向,并将坐标轴旋转至特征点的主方向;
步骤5.3、将旋转后的特征邻域分为m个块,计算每个块内的梯度直方图,生成长度为m*n的特征描述符。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110261554.7A CN113129351B (zh) | 2021-03-10 | 2021-03-10 | 一种基于光场傅里叶视差分层的特征检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110261554.7A CN113129351B (zh) | 2021-03-10 | 2021-03-10 | 一种基于光场傅里叶视差分层的特征检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129351A true CN113129351A (zh) | 2021-07-16 |
CN113129351B CN113129351B (zh) | 2023-08-11 |
Family
ID=76772980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110261554.7A Active CN113129351B (zh) | 2021-03-10 | 2021-03-10 | 一种基于光场傅里叶视差分层的特征检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129351B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114936990A (zh) * | 2022-04-26 | 2022-08-23 | 北京信息科技大学 | 一种基于光场傅里叶视差层的视差重建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140334745A1 (en) * | 2013-05-10 | 2014-11-13 | Trustees Of Princeton University | Resolution light-field imaging |
WO2017049994A1 (zh) * | 2015-09-25 | 2017-03-30 | 深圳大学 | 一种高光谱图像角点检测方法与系统 |
CN109819158A (zh) * | 2018-12-20 | 2019-05-28 | 西北工业大学 | 基于光场成像的视频稳像方法 |
CN110276795A (zh) * | 2019-06-24 | 2019-09-24 | 大连理工大学 | 一种基于分裂迭代算法的光场深度估计方法 |
CN110490924A (zh) * | 2019-07-16 | 2019-11-22 | 西安理工大学 | 一种基于多尺度Harris的光场图像特征点检测方法 |
-
2021
- 2021-03-10 CN CN202110261554.7A patent/CN113129351B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140334745A1 (en) * | 2013-05-10 | 2014-11-13 | Trustees Of Princeton University | Resolution light-field imaging |
WO2017049994A1 (zh) * | 2015-09-25 | 2017-03-30 | 深圳大学 | 一种高光谱图像角点检测方法与系统 |
CN109819158A (zh) * | 2018-12-20 | 2019-05-28 | 西北工业大学 | 基于光场成像的视频稳像方法 |
CN110276795A (zh) * | 2019-06-24 | 2019-09-24 | 大连理工大学 | 一种基于分裂迭代算法的光场深度估计方法 |
CN110490924A (zh) * | 2019-07-16 | 2019-11-22 | 西安理工大学 | 一种基于多尺度Harris的光场图像特征点检测方法 |
Non-Patent Citations (2)
Title |
---|
熊伟;张骏;高欣健;张旭东;高隽;: "自适应成本量的抗遮挡光场深度估计算法", 中国图象图形学报, no. 12 * |
赵彩霞;吕建平;姬宝金;: "基于信息熵度量的高斯尺度空间角点检测算法", 西安邮电学院学报, no. 01 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114936990A (zh) * | 2022-04-26 | 2022-08-23 | 北京信息科技大学 | 一种基于光场傅里叶视差层的视差重建方法 |
CN114936990B (zh) * | 2022-04-26 | 2023-03-07 | 北京信息科技大学 | 一种基于光场傅里叶视差层的视差重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113129351B (zh) | 2023-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cao et al. | Self-adaptively weighted co-saliency detection via rank constraint | |
Yin et al. | Hot region selection based on selective search and modified fuzzy C-means in remote sensing images | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
Kamencay et al. | Improved Depth Map Estimation from Stereo Images Based on Hybrid Method. | |
CN107967482A (zh) | 图标识别方法及装置 | |
JP2014081347A (ja) | 3dシーンにおける3d物体の認識および姿勢決定のための方法 | |
Bobkov et al. | Noise-resistant deep learning for object classification in three-dimensional point clouds using a point pair descriptor | |
CN108401565B (zh) | 基于改进的KAZE特征和Pseudo-RANSAC算法的遥感图像配准方法 | |
Ansari | A review on SIFT and SURF for underwater image feature detection and matching | |
CN112465796B (zh) | 一种融合焦点堆栈和全聚焦图像的光场特征提取方法 | |
Yang et al. | Stereo matching using epipolar distance transform | |
CN115063526A (zh) | 二维图像的三维重建方法、系统、终端设备及存储介质 | |
Rani | Image processing techniques: a review | |
Mu et al. | Discrete stationary wavelet transform based saliency information fusion from frequency and spatial domain in low contrast images | |
CN118230006A (zh) | 一种基于大模型分割增强特征的图像匹配方法 | |
CN113129351B (zh) | 一种基于光场傅里叶视差分层的特征检测方法 | |
Zhao et al. | Cvml-pose: convolutional vae based multi-level network for object 3d pose estimation | |
Liu et al. | Identification method of sunflower leaf disease based on sift point | |
CN107085725A (zh) | 一种通过基于自适应码本的llc聚类图像区域的方法 | |
Rathi et al. | Copy move forgery detection by using integration of SLIC and SIFT | |
Seo et al. | Learning 3D local surface descriptor for point cloud images of objects in the real-world | |
Tripathi et al. | Comparative Analysis of Techniques Used to Detect Copy-Move Tampering for Real-World Electronic Images | |
Lakshmi et al. | Keypoint-based mapping analysis on transformed Side Scan Sonar images | |
Tian et al. | An automatic occlusion handling method in augmented reality | |
Su et al. | High-precision matching algorithm for multi-image segmentation of micro animation videos in mobile network environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |