CN104079827B - 一种光场成像自动重对焦方法 - Google Patents
一种光场成像自动重对焦方法 Download PDFInfo
- Publication number
- CN104079827B CN104079827B CN201410301659.0A CN201410301659A CN104079827B CN 104079827 B CN104079827 B CN 104079827B CN 201410301659 A CN201410301659 A CN 201410301659A CN 104079827 B CN104079827 B CN 104079827B
- Authority
- CN
- China
- Prior art keywords
- focusing
- interest
- area
- depth
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000003384 imaging method Methods 0.000 title claims abstract description 39
- 230000003287 optical effect Effects 0.000 title claims abstract description 31
- 238000013210 evaluation model Methods 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 18
- 238000011156 evaluation Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000009877 rendering Methods 0.000 claims description 2
- 238000011161 development Methods 0.000 abstract description 2
- 230000007246 mechanism Effects 0.000 abstract description 2
- 238000011160 research Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013441 quality evaluation Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Studio Devices (AREA)
Abstract
本发明公开了一种光场成像自动重对焦方法,该方法建立点扩散函数模型和模糊度评价模型,基于以上模型,根据不同对焦深度及其对应重对焦图像估计感兴趣区域的模糊度估计函数,对函数求取极值点获得感兴趣区域对焦深度,最终获得该深度对应的重对焦图像。本发明通过直接估计感兴趣区域的对焦深度实现感兴趣区域的重对焦,克服了现有方法计算冗余度大的弊端,为光场成像在扩大成像景深方面的应用提供了一种快速有效的自动重对焦机制,提高了光场成像感兴趣区域重对焦操作的执行效率,有利于促进光场成像的研究及应用发展。
Description
技术领域
本发明涉及一种用于光场成像中感兴趣区域(ROI)的自动重对焦方法,属于计算成像、图像处理、计算机视觉等技术领域。
背景技术
光场为光辐射在空间各个位置各个方向的传播。1908年Lippmann首先提出了基于透镜阵列形式的光场相机,直到1992年Adelson在此基础上提出了全光场相机并提出了其在图像深度提取方面的应用后,光场成像作为一种计算成像方式开始受到越来越多的关注。光场成像利用其特殊的成像结构,拓宽了图像捕获的数据种类,在扩大成像景深、深度估计、超分辨率、物体分割、生物特征识别等领域已经得到应用。
利用光场成像在扩大成像景深方面的优势,可以在一次曝光后,通过重对焦处理获取不同深度的重对焦图像,基于此Raghavendra和Zhang分别将其应用在人脸和虹膜检测识别领域,有助于推进生物特征识别在大范围场景下的应用。在拍摄过程中,用户最关注的是感兴趣区域的对焦情况,希望ROI对焦清晰。由于没有关于ROI区域深度信息的先验知识,目前常用的对焦策略是渲染出场景中所有不同深度的一组重对焦图像,根据对ROI的模糊度判断从这一组重对焦图像中找到模糊度最小的一幅重对焦图像以实现ROI的自动重对焦(ARF)处理。这种重对焦模式虽然在目前光场成像角度分辨率较低(小于10)的情况下速度很快,但当角度分辨率较大(如大于16)时渲染出一组重对焦图像耗时增加,当用户其实只关注某一感兴趣区域的重对焦图像时,对其他区域进行重对焦处理其实是一种不必要的操作,影响了自动重对焦处理的效率。
目前,光学上的自动对焦(AF)主要有主动式和被动式两种处理方式,其中主动式就是利用外界的近红外光或超声波信号获取ROI深度,利用深度信息调节成像镜头焦距;被动式的是利用ROI的清晰度评价值反复迭代获取最优值来调节成像镜头焦距。被动式的自动对焦方式与上述的光场成像ROI重对焦处理类似,相比较主动式的对焦方式而言,被动式的仍是一种比较耗时的处理手段。借鉴主动式自动对焦方法,如果在光场成像过程中能够直接获取ROI的深度,利用深度值确定感兴趣区域的重对焦参数,就可以直接针对ROI进行重对焦处理,而不再需要计算所有深度的重对焦图像,这样就能够把重对焦操作处理计算量降到最低,提高了自动重对焦的效率。光场成像本身也可以用来对场景进行深度估计,但这种深度估计方法计算量较大耗时较多不适合用于快速的ARF操作,而且对于不是朗伯表面(Lambert surface)的物体,如虹膜,深度估计尚不够准确。利用离焦模糊对深度进行估计Nayar等人已经开展了相关研究并提出一个实时深度估计系统,因此该方法为光场成像自动重对焦过程中关键的深度估计提供一种可借鉴的快速有效的解决途径。
发明内容
(一)要解决的技术问题
本发明旨在突破现有光场成像感兴趣区域重对焦过程中计算冗余度较大的局限,提出一种新的光场成像自动重对焦方法,以提高光场成像感兴趣区域重对焦的效率。
(二)技术方案
为解决上述技术问题,本发明提出一种光场成像自动重对焦方法,该方法包括以下步骤:
步骤S1、建立光场重对焦处理模型,该模型建立重对焦图像和对焦深度的基本映射关系;
步骤S2、根据点扩散函数定义对h(β)建模,并确定用以估计h(β)的重对焦图像数量n;
步骤S3、对于采集到的光场原始图像,将其解码为4D光场参数化表示,该参数化表示由对应于不同视角的子孔径图像构成;
步骤S4、自动检测出需重对焦的感兴趣区域;
步骤S5、对该光场做重对焦处理,渲染出n幅对焦在不同深度βi(i=1,…,n)的图像
步骤S6、使用机器学习的方法,构建模糊度评价模型BM;
步骤S7、利用模糊度估计模型BM,对重对焦图像估计感兴趣区域的模糊度σh(βi);
步骤S8、利用βi和σh(βi)(i=1,…,n)估计出该光场中感兴趣区域的点扩散函数的方差
步骤S9、求取函数的极小值点β0,即为重对焦在感兴趣区域的对焦深度β0;
步骤S10、利用重对焦算法渲染出β0对应的感兴趣区域对焦清晰的光场重对焦图像。
根据本发明的一种实施方式,所述步骤S2进一步包括以下步骤:
步骤S21、获取点光源S0的光场表示
步骤S22、对光场做重对焦渲染处理得到
步骤S23、将进行尺度变换后,得到重对焦点扩散函数根据对焦深度β与α关系β=f(α),其中β=α-1,进一步可得到h(β);
步骤S24、本发明仅关注对焦深度与图像模糊度之间的关系,图像模糊度采用h(β)的方差σh(β)衡量,以简化模型复杂度,最终建模得到σh(β)。
根据本发明的一种实施方式,所述步骤S4中的自动检测感兴趣区域,是利用目标检测算法,在中心视角的子孔径图像上自动检测出感兴趣区域坐标及尺寸,该坐标及尺寸用于对渲染在任意深度的重对焦图像的感兴趣区域进行分割。
根据本发明的一种实施方式,所述步骤S6进一步包括以下步骤:
步骤S61、建立感兴趣区域模糊度训练库。训练库包含了感兴趣区域图像样本,这些样本对应于不同模糊度,并由模糊度进行标注;
步骤S62、对训练集中的样本提取图像模糊度评价特征;
步骤S63、利用步骤S61的感兴趣区域模糊度训练库及步骤S62提取的模糊度评价特征,训练模糊度评价回归模型。
根据本发明的一种实施方式,所述步骤S7包括以下步骤:
步骤S71、利用所述步骤S4得出的感兴趣区域坐标,提取重对焦图像的感兴趣区域;
步骤S72、对感兴趣区域图像提取图像模糊度评价特征;
步骤S73、将该图像模糊度评价特征送入所述步骤S6得到的回归模型中,得到感兴趣区域的模糊度评价。
根据本发明的一种实施方式,所述步骤S9求取极小值点基于公式该式建立一种确定感兴趣区域重对焦的对焦深度的模型。
(三)有益效果
本发明基于光场成像的经典重对焦理论,通过建立离焦模糊与对焦深度关系模型,以及模糊度评价模型,提出了一种新的光场成像自动重对焦方法,可实现感兴趣区域的快速有效重对焦操作,克服了现有方法计算冗余度大的弊端,提高了光场成像重对焦操作的执行效率,有利于促进光场成像的研究及应用发展。
附图说明
图1为光场成像对焦示意图;
图2为本发明提供的光场成像自动重对焦方法流程图;
图3为本发明提供的自动重对焦方法光线空间(ray-space)示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
成像系统以某一焦距对场景进行成像过程中,位于对焦面的物体成像清晰,偏离对焦面的物体成像模糊,离焦模糊正是由此偏离造成的,可用点扩散函数(PSF)分析表示,基于此,本发明建立一种光场重对焦模型为:
其中代表卷积,g[x]为某区域清晰图像,p为全场景清晰图像,β为清晰区域所对应的对焦深度,h(β)为该深度对应的点扩散函数,N[x]为图像噪声。因此本发明提出的光场成像自动重对焦方法的核心即是从某一已知的g[x]估计感兴趣区域的对焦深度值β0。
与对焦深度β对应的点扩散函数h(β)随着对焦面深度变化而改变,图像模糊度采用h(β)的方差σh(β)衡量。利用模糊度估计模型,估计不同对焦深度βi(i=1,…,n)对应的σh(βi),即
其中BM为模糊度评价函数,n为估计σh(β)所需的样本深度个数。那么,感兴趣区域对焦深度值β0采用如下式子得到,即
其中为基于βi和σh(βi)对方差σh(β)的估计函数,第一项确保β0为的极小值,第二项保证了对σh(β)估计的准确度,λ为平衡系数。该式建立了一种确定感兴趣区域重对焦的对焦深度的模型。
图1为光场成像对焦示意图(n=1)。如图1所示,S为一点光源,其对焦面101(微透镜面)与主透镜L之间的距离为F,其在传感器平面102所成的像满足高斯分布,即
其中为点光源S产生的四维光场参数化表示;x=(x1,x2)T为空间维度坐标;u=(u1,u2)T为角度维度坐标;σr为光学参数常量,当主镜头焦距、光圈等参数确定后,σr为恒定值;x0为S对应的图像空间维度坐标。
根据积分重对焦原理,即重对焦本质上是对子孔径图像的缩放,平移,积分的过程,积分重对焦方法参考文献R.Ng.Digital light field photography.PhD thesis,Stanford university,2006.所述,可将重对焦图像表示为
其中为重对焦算子,LF为四维光场,α为重对焦面与主透镜之间的距离与F的比值,αxα为重对焦图像的空间坐标。
为了消除积分重聚焦造成的图像尺度变化,本发明定义一个积分不变调整图形尺度算子,即
其中η为尺度变化系数,I(x)为待调整图像。
于是,S点光源对应的点扩散函数(PSF)可以表示为
将重对焦公式和尺度算子代入,可进一步表示为
其中
如图1所示,当重对焦于点光源S0时,其重对焦面103距主透镜L的距离为α0·F,其四维光场可表示为
根据S0的虚拟传感器平面104与实际传感器平面102之间的几何关系,结合传感器平面所成像呈高斯分布的特点,可进一步将S0建立的四维光场表示为
其中f为主镜头的焦距。
重对焦平面对应α·F的重对焦图像与重对焦平面对应α'·F的重对焦图像满足以下关系,
其中α=α'·α0,由此可进一步推导出S0在重对焦面对应α·F时所定义的PSF为
进一步表示为
其中,为简化起见,令β=α-1,则σh(β)可表示为
σh(β)=|β0-β|σr
该式直观描述了一种模糊度与对焦深度之间的关系。从该式可以看出,通过估计图像模糊度σh(β),就可以得到感兴趣区域对焦深度β0与已知某一对焦深度β的偏差Δβ=|β0-β|,进而可以利用已知的β得到关于β0的两个估计值β+Δβ和β-Δβ。
图2为本发明提供的光场成像自动重对焦方法流程图,如图2所示,该方法包括以下步骤:
步骤S1、建立光场重对焦处理模型,该模型建立重对焦图像和对焦深度的基本映射关系。
如前所述,重对焦图像和对焦深度的基本映射关系即其中h(β)为对焦深度β对应的点扩散函数,g[x]为重对焦图像。
步骤S2、根据点扩散函数定义对h(β)建模,并确定用以估计h(β)的重对焦图像数量n。
步骤S2可以进一步包括以下几个步骤:
步骤S21、获取点光源S0的光场表示
步骤S22、对光场做重对焦渲染处理得到其中是重对焦算子;
步骤S23、将进行尺度变换后,得到重对焦点扩散函数根据对焦深度β与α关系β=f(α),进一步可得到h(β);
步骤S24、本发明仅关注对焦深度与图像模糊度之间的关系,图像模糊度采用h(β)的方差σh(β)衡量,以简化模型复杂度,最终建模得到σh(β)。
步骤S3、对于采集到的光场原始图像,将其解码为4D光场参数化表示LF(x,u),表示在像距F处采集的光场,其中,x=(x1,x2)T为空间维度坐标;u=(u1,u2)T为角度维度坐标,,该参数化表示由对应于不同视角的子孔径图像构成。
解码方法参见上文提到的参考文献:R.Ng.Digital light fieldphotography.PhD thesis,Stanford university,2006。
步骤S4、自动检测出需重对焦的感兴趣区域(ROI)。
该步骤具体可利用目标检测算法,在中心视角的子孔径图像上自动检测出感兴趣区域坐标及尺寸,该坐标及尺寸用于对渲染在任意深度的重对焦图像的感兴趣区域进行分割。
步骤S5、对该光场做重对焦处理,渲染出n幅对焦在不同深度βi(i=1,…,n)的图像
步骤S6、使用机器学习的方法,构建模糊度评价模型BM。
该步骤具体包括如下分步骤:
步骤S61、建立感兴趣区域模糊度训练库。训练库包含了感兴趣区域图像样本,这些样本对应于不同模糊度,并由模糊度进行标注;
步骤S62、对训练集中的样本提取图像模糊度评价特征;
步骤S63、利用步骤S61的感兴趣区域模糊度训练库及步骤S62提取的模糊度评价特征,训练模糊度评价回归模型。
步骤S7、利用模糊度估计模型BM,对重对焦图像估计感兴趣区域的模糊度σh(βi)。
所述步骤S7的估计感兴趣区域模糊度进一步包括以下几个步骤:
步骤S71、利用步骤S4得出的感兴趣区域坐标,提取重对焦图像的感兴趣区域;
步骤S72、对感兴趣区域图像提取图像模糊度评价特征;
步骤S73、将该图像模糊度评价特征送入步骤S6得到的回归模型中,得到感兴趣区域的模糊度评价。
步骤S8、利用βi和σh(βi)(i=1,…,n)估计出该光场中感兴趣区域的点扩散函数的方差
步骤S9、求取函数的极小值点β0,即为重对焦在感兴趣区域的对焦深度β0。
所述步骤S9求取极小值点基于公式该式建立一种确定感兴趣区域重对焦的对焦深度的模型。
步骤S10、利用重对焦算法渲染出β0对应的感兴趣区域对焦清晰的光场重对焦图像。
图3为本发明提供的自动重对焦方法光线空间(ray-space)示意图,与图1情况对应。图3中的x坐标和u坐标分别表示空间维度坐标和角度维度坐标。附图标记301为光源S0对应的四维光场,其斜率则对应它在场景中的对焦深度,对S0进行重对焦即是将301表示的四维光场垂直投影到重对焦投影面302。
本发明提供的自动重对焦方法通过图3进行解释描述,即是,如感兴趣区域确定为S0所处位置,目标是获取S0清晰的重对焦图像,首先根据某一对焦深度βI渲染出其对应的重对焦图像,利用模糊度评价模型确定σh(βI)303,然后就可以得到该σh(βI)对应的四维光场S0301和S0'304,它们分别对应重对焦投影面302和305,即分别代表深度为β0=βI+Δβ和β0'=βI-Δβ的重对焦投影面,对这两个投影面对应的重对焦图像进行模糊度评价,选取模糊度最小的即是感兴趣区域S0的重对焦图像。
下面介绍基于DIIVINE指数方法的模型建立的实施例。
DIVIINE方法是一种性能突出的无参考图像质量评价方法,其应用图像质量的统计特征,可以对不同内容的图像做出较为客观的质量评价。自然图像往往包含有内容不变的统计特性,而降质过程,如模糊、噪声等,常常会改变这些图像的统计特性。DIVIINE方法正是基于这样的假设,通过对图像抽取统计特性特征,完成质量评价。该方法可以从图像多个特征角度对图像进行质量评价,由此带来即是计算量的增大。在光场成像自动重对焦过程中只需关注图像质量中的模糊度评价这一特征,因此需要对现有DIIVINE评价方法进行改进,使其在模糊度这一特征上的权重较大,降低图像其他特征的权重,由此可以减少对其他特征进行评价的操作,节省计算时间,提高图像评价过程的效率。
基于DIVIINE模糊度评价的方法,本发明利用LASSO回归对DIIVINE的图像质量特征进行加权,即
其中w为特征权重系数,A为大小为m×n的训练集矩阵,m为训练样本的维数,n为特征维数,σ为模糊度标记向量,λ为平衡系数。然后,用加权特征训练支持向量机回归(SVR)模型,该模型用于对重对焦图像进行模糊度评价,其中SVR参数通过对训练集数据交叉验证估计得到。
本发明可广泛应用于大场景远距离多模态生物特征识别系统中。与传统相机相比,光场成像技术应用于大场景远距离情况下的生物特征识别具有更大的优势,因为光场成像可以扩大成像场景的景深范围,而且可以在一次曝光的情况下,利用重对焦技术,获得不同对焦面的图像。由于大场景下目标的多变性,系统对目标区域自动重对焦的实时处理效率要求更高。本发明提供的自动重对焦方法减少了现有方法对目标区域重对焦处理过程中的计算冗余度,为多模态生物特征识别系统在大场景远距离这一复杂环境下的应用提供了一种高效可靠的实现机制。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种光场成像自动重对焦方法,其特征在于,该方法包括以下步骤:
步骤S1、建立光场重对焦处理模型,该模型建立重对焦图像和对焦深度的基本映射关系;所述重对焦模型为:
<mrow>
<mi>g</mi>
<mo>&lsqb;</mo>
<mi>x</mi>
<mo>&rsqb;</mo>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mi>h</mi>
<mo>(</mo>
<mi>&beta;</mi>
<mo>)</mo>
<mo>&CircleTimes;</mo>
<mi>p</mi>
<mo>)</mo>
</mrow>
<mo>&lsqb;</mo>
<mi>x</mi>
<mo>&rsqb;</mo>
<mo>+</mo>
<mi>N</mi>
<mo>&lsqb;</mo>
<mi>x</mi>
<mo>&rsqb;</mo>
</mrow>
其中代表卷积,g[x]为某区域清晰图像,p为全场景清晰图像,β为清晰区域所对应的对焦深度,h(β)为该深度对应的点扩散函数,N[x]为图像噪声;
步骤S2、根据点扩散函数定义对h(β)建模,并确定用以估计h(β)的重对焦图像数量n;
步骤S3、对于采集到的光场原始图像,将其解码为4D光场参数化表示LF(x,u),表示在像距F处采集的光场,其中x=(x1,x2)T为空间维度坐标;u=(u1,u2)T为角度维度坐标,该参数化表示由对应于不同视角的子孔径图像构成;
步骤S4、自动检测出需重对焦的感兴趣区域;
步骤S5、对该光场做重对焦处理,渲染出n幅对焦在不同深度βi(i=1,...,n)的图像
步骤S6、使用机器学习的方法,构建模糊度评价模型BM
步骤S7、利用模糊度估计模型BM,对重对焦图像估计感兴趣区域的模糊度σh(βi);
步骤S8、利用βi和σh(βi)(i=1,...,n)估计出该光场中感兴趣区域的点扩散函数的方差
步骤S9、基于公式求取函数的极小值点β0,即为重对焦在感兴趣区域的对焦深度β0;
步骤S10、利用重对焦算法渲染出β0对应的感兴趣区域对焦清晰的光场重对焦图像;
所述步骤S2进一步包括以下步骤:
步骤S21、获取点光源S0的光场表示
步骤S22、对光场做重对焦渲染处理得到其中,
为重对焦算子,为四维光场,α为重对焦面与主透镜之间的距离与F的比值,αxα为重对焦图像的空间坐标;
步骤S23、将进行尺度变换,定义一个积分不变调整图形尺度算子,即其中η为尺度变化系数,I(x)为待调整图像,得到重对焦点扩散函数根据对焦深度β与α关系β=f(α),其中β=α-1,进一步可得到h(β);
步骤S24、简化模型复杂度,最终建模得到σh(β);
所述步骤S4中的自动检测感兴趣区域,是利用目标检测算法,在中心视角的子孔径图像上自动检测出感兴趣区域坐标及尺寸,该坐标及尺寸用于对渲染在任意深度的重对焦图像的感兴趣区域进行分割;
所述步骤S6进一步包括以下步骤:
步骤S61、建立感兴趣区域模糊度训练库;训练库包含了感兴趣区域图像样本,这些样本对应于不同模糊度,并由模糊度进行标注;
步骤S62、对训练集中的样本提取图像模糊度评价特征,利用LASSO回归对DIIVINE的图像质量特征进行加权,即
<mrow>
<mi>w</mi>
<mo>=</mo>
<mi>arg</mi>
<mi> </mi>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
<mo>|</mo>
<mo>|</mo>
<mi>A</mi>
<mi>w</mi>
<mo>-</mo>
<mi>&sigma;</mi>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>|</mo>
<mo>|</mo>
<mi>w</mi>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
</mrow>
其中w为特征权重系数,A为大小为m×n的训练集矩阵,m为训练样本的维数,n为特征维数,σ为模糊度标记向量,λ为平衡系数;
步骤S63、利用步骤S61的感兴趣区域模糊度训练库及步骤S62提取的模糊度评价特征,训练模糊度评价回归模型;
所述步骤S7包括以下步骤:
步骤S71、利用所述步骤S4得出的感兴趣区域坐标,提取重对焦图像的感兴趣区域;
步骤S72、对感兴趣区域图像提取图像模糊度评价特征;
步骤S73、将该图像模糊度评价特征送入所述步骤S6得到的回归模型中,得到感兴趣区域的模糊度评价。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410301659.0A CN104079827B (zh) | 2014-06-27 | 2014-06-27 | 一种光场成像自动重对焦方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410301659.0A CN104079827B (zh) | 2014-06-27 | 2014-06-27 | 一种光场成像自动重对焦方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104079827A CN104079827A (zh) | 2014-10-01 |
CN104079827B true CN104079827B (zh) | 2017-12-22 |
Family
ID=51600846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410301659.0A Active CN104079827B (zh) | 2014-06-27 | 2014-06-27 | 一种光场成像自动重对焦方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104079827B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104486537B (zh) * | 2014-10-27 | 2018-09-04 | 北京智谷技术服务有限公司 | 光场采集控制方法和装置 |
TWI559042B (zh) * | 2014-12-03 | 2016-11-21 | 國立清華大學 | 區塊式數位重對焦系統及其方法 |
EP3035284A1 (en) * | 2014-12-19 | 2016-06-22 | Thomson Licensing | Method and apparatus for generating an adapted slice image from a focal stack |
US10666848B2 (en) | 2015-05-05 | 2020-05-26 | Microsoft Technology Licensing, Llc | Remote depth sensing via relayed depth from diffusion |
CN104899870B (zh) * | 2015-05-15 | 2017-08-25 | 清华大学深圳研究生院 | 基于光场数据分布的深度估计方法 |
WO2017054111A1 (zh) * | 2015-09-28 | 2017-04-06 | 华为技术有限公司 | 一种光场图像的分享、下载方法和装置 |
CN105184808B (zh) * | 2015-10-13 | 2018-09-07 | 中国科学院计算技术研究所 | 一种光场图像前后景自动分割方法 |
DE102016200660A1 (de) * | 2015-12-23 | 2017-06-29 | Robert Bosch Gmbh | Verfahren zur Erstellung einer Tiefenkarte mittels einer Kamera |
CN105975926B (zh) * | 2016-04-29 | 2019-06-21 | 中山大学 | 基于光场相机的人脸活体检测方法 |
CN106060358B (zh) * | 2016-07-20 | 2021-12-03 | 成都微晶景泰科技有限公司 | 场景连续分析方法、设备及成像装置 |
CN106875348B (zh) * | 2016-12-30 | 2019-10-18 | 成都西纬科技有限公司 | 一种重对焦图像处理方法 |
CN111480183B (zh) * | 2017-11-20 | 2023-08-08 | 上海科技大学 | 用于产生透视效果的光场图像渲染方法和系统 |
CN108881717B (zh) * | 2018-06-15 | 2020-11-03 | 深圳奥比中光科技有限公司 | 一种深度成像方法及系统 |
CN112967242B (zh) * | 2021-02-26 | 2023-07-04 | 北京信息科技大学 | 一种基于视觉特征聚合的光场质量评价方法 |
TWI787800B (zh) * | 2021-04-29 | 2022-12-21 | 國立臺灣大學 | 光場合成方法及系統 |
CN114518654B (zh) * | 2022-02-11 | 2023-05-09 | 南京大学 | 一种高分辨大景深成像方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101562701A (zh) * | 2009-03-25 | 2009-10-21 | 北京航空航天大学 | 一种用于光场成像的数字对焦方法及装置 |
CN102663721A (zh) * | 2012-04-01 | 2012-09-12 | 清华大学 | 动态场景的散焦深度估计和全聚焦图像获取方法 |
CN103209307A (zh) * | 2013-04-18 | 2013-07-17 | 清华大学 | 编码重聚焦计算摄像方法及装置 |
CN103209298A (zh) * | 2012-01-13 | 2013-07-17 | 索尼公司 | 相机自动聚焦适应性模糊匹配模型拟合 |
CN103314571A (zh) * | 2011-11-30 | 2013-09-18 | 松下电器产业株式会社 | 摄像装置 |
CN103458261A (zh) * | 2013-09-08 | 2013-12-18 | 华东电网有限公司 | 一种基于立体视觉的视频场景变化检测方法 |
-
2014
- 2014-06-27 CN CN201410301659.0A patent/CN104079827B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101562701A (zh) * | 2009-03-25 | 2009-10-21 | 北京航空航天大学 | 一种用于光场成像的数字对焦方法及装置 |
CN103314571A (zh) * | 2011-11-30 | 2013-09-18 | 松下电器产业株式会社 | 摄像装置 |
CN103209298A (zh) * | 2012-01-13 | 2013-07-17 | 索尼公司 | 相机自动聚焦适应性模糊匹配模型拟合 |
CN102663721A (zh) * | 2012-04-01 | 2012-09-12 | 清华大学 | 动态场景的散焦深度估计和全聚焦图像获取方法 |
CN103209307A (zh) * | 2013-04-18 | 2013-07-17 | 清华大学 | 编码重聚焦计算摄像方法及装置 |
CN103458261A (zh) * | 2013-09-08 | 2013-12-18 | 华东电网有限公司 | 一种基于立体视觉的视频场景变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104079827A (zh) | 2014-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104079827B (zh) | 一种光场成像自动重对焦方法 | |
CA2961921C (en) | Camera calibration method using a calibration target | |
CN104966308B (zh) | 一种计算激光光束光斑大小的方法 | |
CN104899870B (zh) | 基于光场数据分布的深度估计方法 | |
CN102843509B (zh) | 图像处理装置和图像处理方法 | |
KR20110013200A (ko) | 인체 자세 식별 방법 및 장치 | |
CN107392965A (zh) | 一种基于深度学习和双目立体视觉相结合的测距方法 | |
CN109564687A (zh) | 学习方法和程序 | |
CN110120071A (zh) | 一种面向光场图像的深度估计方法 | |
CN104463240B (zh) | 一种仪表定位方法及装置 | |
CN112333379A (zh) | 图像对焦方法、装置及图像采集设备 | |
CN112365586A (zh) | 3d人脸建模与立体判断方法及嵌入式平台的双目3d人脸建模与立体判断方法 | |
JP6971084B2 (ja) | ライト・フィールド・データに関連するボケを表現するデータを生成する方法及び装置 | |
CN112465778A (zh) | 一种水下鱼群观测装置及方法 | |
CN116682140A (zh) | 基于注意力机制多模态融合的三维人体姿态估计算法 | |
US10096113B2 (en) | Method for designing a passive single-channel imager capable of estimating depth of field | |
CN105180802A (zh) | 一种物体尺寸信息识别方法和装置 | |
WO2022126430A1 (zh) | 辅助对焦方法、装置及系统 | |
CN105025219A (zh) | 图像获取方法 | |
JP2021015559A (ja) | 三次元形状モデル生成装置、三次元形状モデル生成方法、及びプログラム | |
JP6882266B2 (ja) | ピクセルビームを表すデータを生成する装置及び方法 | |
CN112146647B (zh) | 一种地面纹理的双目视觉定位方法及芯片 | |
CN114140659A (zh) | 一种基于无人机视角下人体检测的社交距离监控方法 | |
CN114219804A (zh) | 一种基于原型分割网络的小样本牙齿检测方法及存储介质 | |
TWI336589B (en) | An image extraction apparatus and method for automatically detecting the focused area |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |