CN113129351B - 一种基于光场傅里叶视差分层的特征检测方法 - Google Patents

一种基于光场傅里叶视差分层的特征检测方法 Download PDF

Info

Publication number
CN113129351B
CN113129351B CN202110261554.7A CN202110261554A CN113129351B CN 113129351 B CN113129351 B CN 113129351B CN 202110261554 A CN202110261554 A CN 202110261554A CN 113129351 B CN113129351 B CN 113129351B
Authority
CN
China
Prior art keywords
parallax
image
space
light field
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110261554.7A
Other languages
English (en)
Other versions
CN113129351A (zh
Inventor
金海燕
张萌
肖照林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110261554.7A priority Critical patent/CN113129351B/zh
Publication of CN113129351A publication Critical patent/CN113129351A/zh
Application granted granted Critical
Publication of CN113129351B publication Critical patent/CN113129351B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于光场傅里叶视差分层的特征检测方法,解决了二维图像只能聚焦在某一固定深度,其他深度的目标模糊不清,进而导致二维图像特征检测不全面和深度信息缺失的难题。与现有技术相比,本发明方法的有点在于,可以准确全面地检测到场景各个视差层的目标物体的特征点,且检测到的FDL_Harris特征点具有尺度不变性、旋转不变性和视差信息,并且对亮度变化和噪声不敏感。这些局部不变性使得检测到的特征更加稳定和鲁棒。

Description

一种基于光场傅里叶视差分层的特征检测方法
技术领域
本发明属于计算机视觉和数字图像技术领域,具体涉及一种基于光场傅里叶视差分层的特征检测方法。
背景技术
图像特征检测、描述和匹配是计算机视觉任务中许多应用的基础,例如目标识别跟踪、三维重建、图像拼接、缺陷检测和姿态估计等等。图像特征点检测是图像分析与识别的前提,它是将高维的图像数据进行简化表达最有效的方式,从一幅图像的的数据矩阵中,很难直接提取到有用的信息,所以必须根据这些原始的图像数据提取出图像中的关键信息及它们的关系。从图像中选取某些特征点并对图像进行局部分析,而非观察整幅图像。只要图像中有足够多可检测的特征点,并且这些特征点各不相同且特征稳定,能被精确地定位,针对其的应用也就十分有效。早期的二维图像特征检测主要集中在角点检测上,典型的角点检测算子有Forstner、Harris、SUSAN等。直到Lowe提出一种SIFT特征检测算法,从图像中提取不变特征,人们才从特征检测就是角点检测的思想中解放出来。之后,提出了许多快速特征检测方法,如Fast、SURF、PCA-SIFT、ASIFT等。传统相机拍摄的二维图像只能聚焦在某一固定深度的场景上,而其他深度的目标会模糊。因此,传统的二维图像特征检测方法不能全面检测到场景中不同深度目标的特征。与传统的二维图像成像不同,四维光场成像可以描述光在三维空间中的自由分布。斯坦福大学的Levoy等人提出了一个四维光场的数学模型-双平面模型,它使用两个平行平面来记录场景中的光线分布。光场双平面模型通过记录光线通过两个平行平面的四维坐标来表达光线的二维位置信息和二维角度信息。光场丰富的角度信息和位置信息使得场景的深度估计变得容易。另外,在光场双平面模型中,根据光的传播原理,改变光场的成像平面进行数字聚焦,得到不同深度聚焦的图像。受限于二维图像成像的不确定性,基于四维光场图像的特征检测方法逐渐受到重视。基于一种新的射线高斯核构造了光场的尺度-深度(Lisad)空间,并通过在Lisad空间中寻找极值来找到场景中的三维关键点。Teixeira等人提出了一种基于光场EPI线检测的三维关键点检测方法。斯坦福大学的Donald等人介绍了一种从四维光场中提取特征曲线的纹理互相关技术,并提出了一种基于4D平面拟合和斜率一致性来区分折射和朗伯特征的方法。另外,Donald等人还提出了一种四维光场的特征检测器和描述符:LIFF,它具有尺度不变性和对视角变化的鲁棒性,但是深度空间的离散化意味着平均划分的深度不一定正好对应到场景中目标的深度,进而会导致特征检测的不全面。
发明内容
本发明的目的是提供一种基于光场傅里叶视差分层的特征检测方法,解决了二维图像特征检测不全面、深度信息缺失的问题。
本发明所采用的技术方案是,一种基于光场傅里叶视差分层的特征检测方法,具体按照以下步骤实施:
步骤1、定义傅里叶视差层模型的层数k,根据四维光场图像LF(x,y,u,v)将场景分解成三维的傅里叶视差层模型FDL(wx,wy,k);
步骤2、使用傅里叶逆变换将傅里叶视差层模型FDL(wx,wy,k)从频率域转换到空间域,构建光场图像的视差空间DS(x,y,k);
步骤3、在视差空间DS(x,y,k)的基础上,引入高斯尺度空间G(x,y,σ),生成四维的尺度-视差空间SDS(x,y,k,σ);
步骤4、在尺度-视差空间SDS(x,y,k,σ)中,使用具有旋转不变性的Harris角点检测算子进行特征检测,获取FDL_Harris角点;
步骤5、在尺度-视差空间SDS(x,y,k,σ)中,使用梯度直方图对FDL_Harris角点及其邻域进行特征描述,生成特征描述符。
本发明的特点还在于:
步骤1具体过程为:
步骤1.1、读入四维光场图像LF(x,y,u,v),其中(x,y)为光场的空间分辨率,(u,v)为光场的角度分辨率;
步骤1.2、定义傅里叶视差层模型的层数k,k为正整数,范围为[4,15];
步骤1.3、根据光场傅里叶视差层的定义,将场景分解为离散的层的和,得到傅里叶视差层模型,表示为FDL(wx,wy,k)。
步骤2具体过程为:
步骤2.1、使用快速傅里叶逆变换将光场的傅里叶视差层模型FDL(wx,wy,k)从频率域转换回空间域,生成光场视差空间DS(x,y,k);
步骤2.2、对视差空间DS(x,y,k)中的每一层图像,进行灰度映射,将灰度范围映射到[0,255],得到光场图像的视差空间DS(x,y,k)。
步骤3具体过程为:
步骤3.1、定义高斯尺度空间的组数o,定义高斯金字塔的层数s;
步骤3.2、取视差空间DS(x,y,k)中的每一层图像,令每一层图像img=DS(x,y,i),i∈[1,k];
对图像img进行插值,使得插值后的图像长和宽均放大为原图的2倍,作为计算空间第一组的s层图像,记为img1(2x,2y,1:s);计算空间的第二组的s层的图像就是图像img,记为img2(x,y,1:s);将图像img缩小一倍作为计算空间第三组的s层图像,记为img3(x/2,y/2,1:s);将图像img缩小二倍作为计算空间第四组的s层图像,记为img4(x/4,y/4,1:s);
步骤3.3、令高斯卷积的尺度因子分别为[σ1234],对计算高斯尺度空间中每一组的s层图像分别用公式(1)所示的高斯核做高斯卷积,得到尺度-视差空间SDS(x,y,k,σ);
步骤4具体过程为:
步骤4.1、分别对尺度-视差空间SDS(x,y,k,σ)中的每一个视差和各尺度对应的图像img进行Harris特征提取,作为候选角点;
步骤4.2、取所有候选角点的最大角点响应值Rmax,若候选角点的角点响应值大于i*Rmax,其中0<i<1,则是FDL_Harris角点;否则不是。
步骤5的具体过程为:
步骤5.1、在尺度-视差空间SDS(x,y,k,σ)中,定义FDL_Harris角点的描述邻域半径为r,将角度[0,360]分为n个bins,其中角度为0的轴线作为坐标轴;
步骤5.2、计算特征邻域内的梯度直方图,选取最大的梯度幅值对应的角度作为特征点主方向,并将坐标轴旋转至特征点的主方向;
步骤5.3、将旋转后的特征邻域分为m个块,计算每个块内的梯度直方图,生成长度为m*n的特征描述符。
计算特征邻域内的梯度直方图采用的公式为:
其中,m(x,y)是角点坐标为(x,y)的点的梯度幅值,x、y分别为角点的横纵坐标,L代表的尺度视差空间的图像,θ是角点的梯度方向。
本发明的有益效果是:
本发明一种基于光场傅里叶视差分层的特征检测方法,解决了现有二维图像只能聚焦在场景中的某一固定深度,其他深度的目标模糊不清,进而导致特征检测不全面的难题。并且FDL_Harris特征点同时具有尺度不变性、旋转不变性和视差信息,这些特性使得特征点的鲁棒性高、稳定性好。
附图说明
图1是采用本发明一种基于光场傅里叶视差分层的特征检测方法检测结果图;
图2是采用现有的LIFF方法检测结果图。
具体实施方式
下面结合附图及具体实施方式对本发明进行详细说明。
本发明一种基于光场傅里叶视差分层的特征检测方法,具体按照以下步骤实施:
步骤1、定义傅里叶视差层模型的层数k,根据四维光场图像LF(x,y,u,v)将场景分解成三维的傅里叶视差层模型FDL(wx,wy,k);
步骤1具体过程为:
步骤1.1、读入四维光场图像LF(x,y,u,v),其中(x,y)为光场的空间分辨率,(u,v)为光场的角度分辨率;
步骤1.2、定义傅里叶视差层模型的层数k,k为正整数,范围为[4,15];
步骤1.3、根据光场傅里叶视差层的定义,将场景分解为离散的层的和,得到傅里叶视差层模型,表示为FDL(wx,wy,k)。
步骤2、使用傅里叶逆变换将傅里叶视差层模型FDL(wx,wy,k)从频率域转换到空间域,构建光场图像的视差空间DS(x,y,k);
步骤2具体过程为:
步骤2.1、使用快速傅里叶逆变换将光场的傅里叶视差层模型FDL(wx,wy,k)从频率域转换回空间域,生成光场视差空间DS(x,y,k);
步骤2.2、对视差空间DS(x,y,k)中的每一层图像,进行灰度映射,将灰度范围映射到[0,255],得到光场图像的视差空间DS(x,y,k)。
步骤3、在视差空间DS(x,y,k)的基础上,引入高斯尺度空间G(x,y,σ),生成四维的尺度-视差空间SDS(x,y,k,σ);
步骤3具体过程为:
步骤3.1、定义高斯尺度空间的组数o,定义高斯金字塔的层数s;
步骤3.2、取视差空间DS(x,y,k)中的每一层图像,令每一层图像img=DS(x,y,i),i∈[1,k];
对图像img进行插值,使得插值后的图像长和宽均放大为原图的2倍,作为计算空间第一组的s层图像,记为img1(2x,2y,1:s);计算空间的第二组的s层的图像就是图像img,记为img2(x,y,1:s);将图像img缩小一倍作为计算空间第三组的s层图像,记为img3(x/2,y/2,1:s);将图像img缩小二倍作为计算空间第四组的s层图像,记为img4(x/4,y/4,1:s);
步骤3.3、令高斯卷积的尺度因子分别为[σ1234],对计算高斯尺度空间中每一组的s层图像分别用公式(1)所示的高斯核做高斯卷积,得到尺度-视差空间SDS(x,y,k,σ);
步骤4、在尺度-视差空间SDS(x,y,k,σ)中,使用具有旋转不变性的Harris角点检测算子进行特征检测,获取FDL_Harris角点;
步骤4具体过程为:
步骤4.1、分别对尺度-视差空间SDS(x,y,k,σ)中的每一个视差和各尺度对应的图像img进行Harris特征提取,作为候选角点;
步骤4.2、取所有候选角点的最大角点响应值Rmax,若候选角点的角点响应值大于i*Rmax,其中0<i<1,则是FDL_Harris角点;否则不是。
步骤5、在尺度-视差空间SDS(x,y,k,σ)中,使用梯度直方图对FDL_Harris角点及其邻域进行特征描述,生成特征描述符。
步骤5的具体过程为:
步骤5.1、在尺度-视差空间SDS(x,y,k,σ)中,定义FDL_Harris角点的描述邻域半径为r,将角度[0,360]分为n个bins,其中角度为0的轴线作为坐标轴;
步骤5.2、计算特征邻域内的梯度直方图,选取最大的梯度幅值对应的角度作为特征点主方向,并将坐标轴旋转至特征点的主方向;
计算特征邻域内的梯度直方图采用的公式为:
其中,m(x,y)是角点坐标为(x,y)的点的梯度幅值,x、y分别为角点的横纵坐标,L代表的尺度视差空间的图像,θ是角点的梯度方向。
步骤5.3、将旋转后的特征邻域分为m个块,计算每个块内的梯度直方图,生成长度为m*n的特征描述符。
采用本发明一种基于光场傅里叶视差分层的特征检测方法对四维光场图像进行检测,读入四维光场图像LF(x,y,u,v),其中(x,y)为光场的空间分辨率,大小为512*512,(u,v)为光场的角度分辨率,大小为9*9,傅里叶视差层模型的层数k取值范围为[4,15],根据光场傅里叶视差层的定义,将场景分解为离散的层的和,表示为FDL(wx,wy,k),使用快速傅里叶逆变换将光场的傅里叶视差层模型FDL(wx,wy,k)从频率域转换回空间域,生成光场视差空间DS(x,y,k),大小为512*512*9。该步骤的特点在于,视差空间的每一个视差层对应的聚焦区域的对比度明显增强,失焦区域趋于消失。对视差空间DS(x,y,k)中的每一层图像,进行灰度映射,将灰度范围映射到[0,255]。定义高斯尺度空间的组数o=4,定义高斯金字塔的层数s=4。取视差空间DS(x,y,k)中的每一层图像,令img=DS(x,y,i),i∈[1,k]。对图像img进行插值,使得插值后的图像长和宽均放大为原图的2倍,作为计算空间第一组的4层图像,记为img1(2x,2y,1:s),大小为1024*1024*4;计算空间的第二组的4层的图像就是图像img,记为img2(x,y,1:s),大小为512*512*4;将图像img缩小一倍作为计算空间第三组的4层图像,记为img3(x/2,y/2,1:s),大小为256*256*4;将图像img缩小二倍作为计算空间第四组的4层图像,记为img4(x/4,y/4,1:s),大小为128*128*4。令高斯卷积的尺度因子分别为[σ123,σ4],对计算空间每一组的四层图像分别用公式(1)所示的高斯核做高斯卷积,得到尺度-视差空间,记为SDS。
分别对尺度-视差空间SDS中的每一个尺度和每一个视差对应的图像img进行Harris特征提取,作为候选角点。取所有候选角点的最大角点响应值Rmax,若候选角点的角点响应值大于0.2*Rmax,则是FDL_Harris角点;否则不是。
定义FDL_Harris角点的描述邻域半径为3*1.5σ,将角度[0,360]分为8个bins,每个bin为45度。计算特征邻域内的梯度直方图,选取最大的梯度幅值对应的角度作为特征点主方向。并将坐标轴旋转至特征点的主方向,以确保特征描述符的旋转不变性。
计算特征邻域内的梯度直方图采用的公式为:
然后将旋转后的特征邻域分为4*4个块,计算每个块内的梯度直方图,生成长度为16*8的特征描述符。
如图1所示,根据图1可知,本发明的基于光场傅里叶视差分层的特征检测方法可以更加全面地检测到场景中物体的角点。
采用LIFF方法对相同的光场图像进行检测,设置参数为:深度列表的长度为9,得到的特征检测结果如图2所示,具有明显的特征检测不全面的问题。
通过图1与图2对比可知,本发明的方法得到的图像可以准确全面地检测到场景各个视差层的目标物体的特征点,且检测到的FDL_Harris特征点具有尺度不变性、旋转不变性和视差信息,并且对亮度变化和噪声不敏感。这些局部不变性使得检测到的特征更加稳定和鲁棒。
通过上述方式,本发明一种基于光场傅里叶视差分层的特征检测方法,解决了现有二维图像只能聚焦在场景中的某一固定深度,其他深度的目标模糊不清,进而导致特征检测不全面的难题。并且FDL_Harris特征点同时具有尺度不变性、旋转不变性和视差信息,这些特性使得特征点的鲁棒性高、稳定性好。

Claims (4)

1.一种基于光场傅里叶视差分层的特征检测方法,其特征在于,具体按照以下步骤实施:
步骤1、定义傅里叶视差层模型的层数k,根据四维光场图像LF(x,y,u,v)将场景分解成三维的傅里叶视差层模型FDL(wx,wy,k);
步骤2、使用傅里叶逆变换将傅里叶视差层模型FDL(wx,wy,k)从频率域转换到空间域,构建光场图像的视差空间DS(x,y,k);具体过程为:
步骤2.1、使用快速傅里叶逆变换将光场的傅里叶视差层模型FDL(wx,wy,k)从频率域转换回空间域,生成光场视差空间DS(x,y,k);
步骤2.2、对视差空间DS(x,y,k)中的每一层图像,进行灰度映射,将灰度范围映射到[0,255],得到光场图像的视差空间DS(x,y,k);
步骤3、在视差空间DS(x,y,k)的基础上,引入高斯尺度空间G(x,y,σ),生成四维的尺度-视差空间SDS(x,y,k,σ);具体过程为:
步骤3.1、定义高斯尺度空间的组数o,定义高斯金字塔的层数s;
步骤3.2、取视差空间DS(x,y,k)中的每一层图像,令每一层图像img=DS(x,y,i),i∈[1,k];
对图像img进行插值,使得插值后的图像长和宽均放大为原图的2倍,作为计算空间第一组的s层图像,记为img1(2x,2y,1:s);计算空间的第二组的s层的图像就是图像img,记为img2(x,y,1:s);将图像img缩小一倍作为计算空间第三组的s层图像,记为img3(x/2,y/2,1:s);将图像img缩小二倍作为计算空间第四组的s层图像,记为img4(x/4,y/4,1:s);
步骤3.3、令高斯卷积的尺度因子分别为[σ1234],对计算高斯尺度空间中每一组的s层图像分别用公式(1)所示的高斯核做高斯卷积,得到尺度-视差空间SDS(x,y,k,σ);
步骤4、在尺度-视差空间SDS(x,y,k,σ)中,使用具有旋转不变性的Harris角点检测算子进行特征检测,获取FDL_Harris角点;具体过程为:
步骤4.1、分别对尺度-视差空间SDS(x,y,k,σ)中的每一个视差和各尺度对应的图像img进行Harris特征提取,作为候选角点;
步骤4.2、取所有候选角点的最大角点响应值Rmax,若候选角点的角点响应值大于i*Rmax,其中0<i<1,则是FDL_Harris角点;否则不是;
步骤5、在尺度-视差空间SDS(x,y,k,σ)中,使用梯度直方图对FDL_Harris角点及其邻域进行特征描述,生成特征描述符。
2.根据权利要求1所述一种基于光场傅里叶视差分层的特征检测方法,其特征在于,步骤1具体过程为:
步骤1.1、读入四维光场图像LF(x,y,u,v),其中(x,y)为光场的空间分辨率,(u,v)为光场的角度分辨率;
步骤1.2、定义傅里叶视差层模型的层数k,k为正整数,范围为[4,15];
步骤1.3、根据光场傅里叶视差层的定义,将场景分解为离散的层的和,得到傅里叶视差层模型,表示为FDL(wx,wy,k)。
3.根据权利要求1所述一种基于光场傅里叶视差分层的特征检测方法,其特征在于,步骤5的具体过程为:
步骤5.1、在尺度-视差空间SDS(x,y,k,σ)中,定义FDL_Harris角点的描述邻域半径为r,将角度[0,360]分为n个bins,其中角度为0的轴线作为坐标轴;
步骤5.2、计算特征邻域内的梯度直方图,选取最大的梯度幅值对应的角度作为特征点主方向,并将坐标轴旋转至特征点的主方向;
步骤5.3、将旋转后的特征邻域分为m个块,计算每个块内的梯度直方图,生成长度为m*n的特征描述符。
4.根据权利要求3所述一种基于光场傅里叶视差分层的特征检测方法,其特征在于,所述计算特征邻域内的梯度直方图采用的公式为:
其中,m(x,y)是角点坐标为(x,y)的点的梯度幅值,x、y分别为角点的横纵坐标,L代表的尺度视差空间的图像,θ是角点的梯度方向。
CN202110261554.7A 2021-03-10 2021-03-10 一种基于光场傅里叶视差分层的特征检测方法 Active CN113129351B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110261554.7A CN113129351B (zh) 2021-03-10 2021-03-10 一种基于光场傅里叶视差分层的特征检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110261554.7A CN113129351B (zh) 2021-03-10 2021-03-10 一种基于光场傅里叶视差分层的特征检测方法

Publications (2)

Publication Number Publication Date
CN113129351A CN113129351A (zh) 2021-07-16
CN113129351B true CN113129351B (zh) 2023-08-11

Family

ID=76772980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110261554.7A Active CN113129351B (zh) 2021-03-10 2021-03-10 一种基于光场傅里叶视差分层的特征检测方法

Country Status (1)

Country Link
CN (1) CN113129351B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114936990B (zh) * 2022-04-26 2023-03-07 北京信息科技大学 一种基于光场傅里叶视差层的视差重建方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017049994A1 (zh) * 2015-09-25 2017-03-30 深圳大学 一种高光谱图像角点检测方法与系统
CN109819158A (zh) * 2018-12-20 2019-05-28 西北工业大学 基于光场成像的视频稳像方法
CN110276795A (zh) * 2019-06-24 2019-09-24 大连理工大学 一种基于分裂迭代算法的光场深度估计方法
CN110490924A (zh) * 2019-07-16 2019-11-22 西安理工大学 一种基于多尺度Harris的光场图像特征点检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679360B2 (en) * 2013-05-10 2017-06-13 Trustees Of Princeton University High-resolution light-field imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017049994A1 (zh) * 2015-09-25 2017-03-30 深圳大学 一种高光谱图像角点检测方法与系统
CN109819158A (zh) * 2018-12-20 2019-05-28 西北工业大学 基于光场成像的视频稳像方法
CN110276795A (zh) * 2019-06-24 2019-09-24 大连理工大学 一种基于分裂迭代算法的光场深度估计方法
CN110490924A (zh) * 2019-07-16 2019-11-22 西安理工大学 一种基于多尺度Harris的光场图像特征点检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
自适应成本量的抗遮挡光场深度估计算法;熊伟;张骏;高欣健;张旭东;高隽;;中国图象图形学报(第12期);全文 *

Also Published As

Publication number Publication date
CN113129351A (zh) 2021-07-16

Similar Documents

Publication Publication Date Title
Abdel-Basset et al. 2-Levels of clustering strategy to detect and locate copy-move forgery in digital images
Zheng et al. Fusion of block and keypoints based approaches for effective copy-move image forgery detection
Jaberi et al. Accurate and robust localization of duplicated region in copy–move image forgery
Fatan et al. Underwater cable detection in the images using edge classification based on texture information
Takacs et al. Fast computation of rotation-invariant image features by an approximate radial gradient transform
CN110136125B (zh) 一种基于层次特征点匹配的图像复制移动伪造检测方法
Abidin et al. Copy-move image forgery detection using deep learning methods: a review
Ansari A review on SIFT and SURF for underwater image feature detection and matching
Logoglu et al. Cospair: colored histograms of spatial concentric surflet-pairs for 3d object recognition
Lee et al. Performance evaluation of local descriptors for maximally stable extremal regions
Wang et al. Robust color image retrieval using visual interest point feature of significant bit-planes
Wary et al. A review on robust video copy detection
Fatima et al. FAST, BRIEF and SIFT based image copy-move forgery detection technique
Anzid et al. Multimodal images classification using dense SURF, spectral information and support vector machine
Rani Image processing techniques: a review
CN113129351B (zh) 一种基于光场傅里叶视差分层的特征检测方法
Diwan et al. Unveiling Copy-Move Forgeries: Enhancing Detection With SuperPoint Keypoint Architecture
CN112465796B (zh) 一种融合焦点堆栈和全聚焦图像的光场特征提取方法
Liu et al. Dense stereo correspondence with contrast context histogram, segmentation-based two-pass aggregation and occlusion handling
Haines et al. Estimating Planar Structure in Single Images by Learning from Examples.
Rathi et al. Copy move forgery detection by using integration of SLIC and SIFT
Zhang et al. Region-of-interest extraction based on spectrum saliency analysis and coherence-enhancing diffusion model in remote sensing images
Lee et al. SAM-Net: LiDAR depth inpainting for 3D static map generation
Elhariri et al. Performance analysis of using feature fusion for crack detection in images of historical buildings
Bao et al. Local feature based multiple object instance identification using scale and rotation invariant implicit shape model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant