CN104574369B - 基于热扩散的全局扩散模糊深度获取方法 - Google Patents

基于热扩散的全局扩散模糊深度获取方法 Download PDF

Info

Publication number
CN104574369B
CN104574369B CN201410803429.4A CN201410803429A CN104574369B CN 104574369 B CN104574369 B CN 104574369B CN 201410803429 A CN201410803429 A CN 201410803429A CN 104574369 B CN104574369 B CN 104574369B
Authority
CN
China
Prior art keywords
mrow
pixel
image
scenery
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410803429.4A
Other languages
English (en)
Other versions
CN104574369A (zh
Inventor
魏阳杰
王�义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201410803429.4A priority Critical patent/CN104574369B/zh
Publication of CN104574369A publication Critical patent/CN104574369A/zh
Application granted granted Critical
Publication of CN104574369B publication Critical patent/CN104574369B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明一种基于热扩散的全局扩散模糊深度获取方法,属于图像处理技术领域;该方法首先根据设定条件拍摄一幅正常图像1,利用摄像机透过光学扩散器拍摄一幅同一景物扩散后的图像2,然后构建每个像素点对应景物实际位置到光学扩散器的距离与图像模糊程度之间的关系,最后获得每个像素点的深度值,构建景物的3D形貌图像,本发明把物理学中的热扩散机理融入了光学模糊成像中,只利用一台摄像机进行深度获取,在不改变任何摄像机参数的情况下,建立了基于光学扩散器的扩散模糊与景物3D深度之间的严谨数学模型,在小透镜情况下进行高精度深度估计,对透镜畸变不敏感,提高了景物深度获取方法的精度和灵敏度,降低了成本。

Description

基于热扩散的全局扩散模糊深度获取方法
技术领域
本发明属于图像处理技术领域,特别涉及一种基于热扩散的全局扩散模糊深度获取方法。
背景技术
使用二维光学图像重建景物三维轮廓信息的技术是实时三维视觉观测方面研究的热点和前沿问题之一;目前,典型的三维视觉观测方法包括:立体视觉深度获取、聚焦深度获取方法、离焦深度获取方法等,其中,离焦深度获取是一种利用景深有限的区域图像的模糊程度来恢复深度的方法;相比较而言,基于离焦测度机理的三维显微视觉方法只需要两幅图像、计算量小、适应性强等特点,因而,对实现基于二维图像的高精度三维观测更具有实际意义。
尽管,传统的离焦深度获取方法在宏观领域已经相对成熟,但是,在高分辨率深度获取中仍存在以下问题:1)两幅不同摄像机参数情况下的模糊图像很难获得;摄像机的视场和放大倍数成反比,高倍显微环境下,视场受限,既很难容纳两台摄像机同时观测,也不允许对高倍放大的摄像机改变摄像机参数;虽然,最新的离焦深度获取方法可以通过改变物距采集两幅模糊图像,但是,微米甚至纳米尺度的精确步进在实际应用中很难实现;2)大光圈摄像机镜头生产困难;理论上,增大摄像机镜头的光圈是提高传统深度获取准确性的最直接的方式;但是,实际应用中生产大光圈镜头不仅非常耗时,而且非常昂贵;更重要的是,随着光圈增大景深变小,离焦图像的模糊度很难精确测量;3)离焦深度获取方法中的深度敏感性与深度的平方成反比;当摄像机的放大倍数增加时,离焦深度获取方法的敏感性就会相应地降低,应用受限,因此,研究一种小光圈、高精度、高敏感性的深度获取方法是十分必要的。
最新的研究结果表明扩散图像可以表示成清晰图像和扩散函数的卷积,而且扩散模糊程度是由扩散函数和物体-扩散器间距离共同决定;所以,利用扩散模糊图像重建景物深度在理论上是可行的;与传统的离焦深度获取相比,扩散深度获取具有以下优势:小透镜情况下的高精度深度估计;远景深度获取;对透镜畸变不敏感;但是,到目前为止,关于扩散深度获取的研究非常少,并没有景物深度和能量扩散函数之间的严谨数学模型。
发明内容
针对现有技术的不足,本发明提出一种基于热扩散的全局扩散模糊深度获取方法,以达到小透镜情况下,提高扩散模糊深度获取方法精度与灵敏度和降低成本的目的。
本发明技术方案如下:
基于热扩散的全局扩散模糊深度获取方法,包括以下步骤:
步骤1、根据实际需求,在景物前放置一台摄像机,设定摄像机的焦距、像距、数值孔径以及模糊圆半径与模糊度的比例系数,根据设定条件拍摄一幅正常图像1;
步骤2、在摄像机与景物之间放置一个扩散角已知的光学扩散器,光学扩散器与摄像机的距离根据实际需求设定,保持摄像机的焦距、像距、数值孔径以及模糊圆半径与模糊度的比例系数不变,利用摄像机透过光学扩散器拍摄一幅同一景物扩散后的图像2,图像1与图像2尺寸大小相同;
步骤3、构建每个像素点对应景物实际位置到光学扩散器的距离与图像模糊程度之间的关系,具体步骤如下:
步骤3.1、将图像1转化成像素点矩阵1,将图像2转化成像素点矩阵2;
步骤3.2、根据摄像机成像面上每个像素点与光轴之间的夹角、光学扩散器的扩散角、景物实际位置到光学扩散器的距离、摄像机与光学扩散器之间的距离和摄像机的像距,获得摄像机成像面上每个像素点的模糊圆斑半径;
步骤3.3、根据获得的像素点模糊圆斑半径、模糊圆半径与模糊度之间的比例关系,构建每个像素点对应景物实际位置到光学扩散器的距离与扩散模糊程度之间的关系;
步骤4、根据所获每个像素点对应景物实际位置到光学扩散器的距离与扩散模糊程度之间的关系、图像1和图像2,获得每个像素点对应景物实际位置到光学扩散器的距离,具体步骤如下:
步骤4.1、设定初始时图像1中全部像素点对应景物实际位置到光学扩散器的距离相同,均等于摄像机拍摄景物清晰度最高时,摄像机到景物的距离与摄像机到光学扩散器的距离之差,设定总亮度差阈值,所述的总亮度差为图像2中每个像素点的亮度与实际扩散图像中对应像素点的亮度之差的总和,并设置每一次迭代时,每个像素点所对应景物实际位置到光学扩散器当前距离的增量值,即步长;
步骤4.2、以图像1为扩散源,图像2为扩散目标,对图像1进行扩散,并获得实际扩散后图像中每个像素点的亮度,对图2中每个像素点的亮度与实际扩散图像中对应像素点的亮度之差求和,得到总亮度差;
步骤4.3、判断所获总亮度差是否大于设定的总亮度差阈值,若是,执行步骤4.4,否则,执行步骤4.5;
步骤4.4、设置每个像素点对应景物实际位置到光学扩散器的当前距离增加一个步长,继续扩散,返回步骤4.2继续迭代;
步骤4.5、停止迭代,此时每个像素点对应景物实际位置到光学扩散器的距离即为每个像素点的深度值;
步骤5、根据获得的每个像素点的深度值,构建景物的3D形貌图像。
步骤3.2所述的获得摄像机成像面上每个像素点的模糊圆斑半径,由以下公式确定:
其中,b表示扩散模糊圆斑的半径,υ表示摄像机的像距,θ表示光学扩散器的扩散角,Z表示每个像素点对应景物实际位置到光学扩散器的距离,U表示摄像机到光学扩散器的距离,α表示每个像素点与光轴之间的夹角。
步骤3.3所述的景物实际位置到光学扩散器的距离与扩散模糊程度之间的关系,由以下公式确定:
其中,σ表示每个像素点的模糊度,b表示扩散模糊圆斑的半径,γ表示模糊圆半径与模糊度之间的比例系数,取值范围为[0.5,1.5],υ表示摄像机的像距,θ表示光学扩散器的扩散角,Z表示每个像素点对应景物实际位置到光学扩散器的距离,U表示摄像机到光学扩散器的距离,α表示每个像素点与光轴之间的夹角;
对公式(2)进行转化,获得每个像素点对应景物实际位置到光学扩散器之间距离的计算公式如下:
步骤4.2所述的得到总亮度差,计算公式如下:
其中,F(Z)表示总亮度差,u(y,z,Δt)表示像素点(y,z)经过Δt时间的图像亮度,E2(y,z)表示像素点(y,z)扩散后的图像亮度,dydz表示y方向和z方向的单位亮度变化,ρ表示规格化参数,取值范围为ρ大于0,表示梯度算子,Z表示每个像素点对应景物实际位置到光学扩散器的距离,k表示优化参数,取值范围为k大于0。
本发明的有益效果:
本发明在前期关于离焦深度获取的基础上,以物理学中的热扩散为发点,只利用一台摄像机进行深度获取,在不改变任何摄像机参数的情况下,建立了基于光学扩散器的扩散模糊与景物3D深度之间的严谨数学模型;本发明在小透镜情况下进行高精度深度估计,对透镜畸变不敏感,提高了景物深度获取方法的精度和灵敏度,降低了成本,对于促进高精度观测技术和相关领域科技的发展具有非常重要的意义。
附图说明
图1为本发明一种实施例的基于热扩散的全局扩散模糊深度获取方法流程图;
图2为本发明一种实施例的所拍摄景物正常图像1;
图3为本发明一种实施例的所拍摄景物扩散后图像2;
图4为本发明一种实施例的构建每个像素点对应景物实际位置到光学扩散器的距离与图像模糊程度之间的关系方法流程图;
图5为本发明一种实施例的获得每个像素点对应景物实际位置到光学扩散器的距离方法流程图;
图6为本发明一种实施例的基于热扩散的全局扩散模糊深度获取方法构建的3D形貌图像;
图7为本发明一种实施例的景物真实3D形貌图像;
图8为本发明一种实施例的深度误差值图像。
具体实施方式
下面结合附图对本发明具体实施方式加以详细的说明。
本发明实施例对五张叠加排放的扑克牌进行实验,扑克牌每张厚度0.3mm;本发明实施例采用Canon EOS 5D Mark III相机,镜头为Canon EF 50mm F/1.8,光学扩散器采用Edmund Optics扩散器,扩散函数采用高斯函数,利用matlab软件进行公式计算,并输出最终结果图像。
基于热扩散的全局扩散模糊深度获取方法,如图1所示,包括以下步骤:
步骤1、在景物前放置一台摄像机,摄像机与景物之间距离为502mm,设定摄像机的焦距为50mm,像距为56mm,数值孔径为2,模糊圆半径与模糊度的比例系数γ=0.9,根据设定条件拍摄一幅正常图像1,如图2所示;
步骤2、在摄像机与景物之间放置一个扩散角为10°的光学扩散器,光学扩散器与摄像机的距离为U=500mm,保持摄像机的焦距、像距、数值孔径以及模糊圆半径与模糊度的比例系数不变,利用摄像机透过光学扩散器拍摄一幅同一景物扩散后的图像2,如图3所示,图像1与图像2尺寸大小都为110×110;
步骤3、构建每个像素点对应景物实际位置到光学扩散器的距离与图像模糊程度之间的关系,如图4所示,具体步骤如下:
步骤3.1、将图像1转化成110×110的像素点矩阵1,将图像2转化成110×110的像素点矩阵2;
步骤3.2、根据摄像机成像面上每个像素点与光轴之间的夹角、光学扩散器的扩散角、景物实际位置到光学扩散器的距离、摄像机与光学扩散器之间的距离和摄像机的像距,获得摄像机成像面上每个像素点的模糊圆斑半径,由以下公式确定:
其中,b表示扩散模糊圆斑的半径,υ表示摄像机的像距,θ表示光学扩散器的扩散角,Z表示每个像素点对应景物实际位置到光学扩散器的距离,U表示摄像机到光学扩散器的距离,α表示每个像素点与光轴之间的夹角;
本发明实施例中,θ=10°;
步骤3.3、根据获得的像素点模糊圆斑半径、模糊圆半径与模糊度之间的比例关系,构建每个像素点对应景物实际位置到光学扩散器的距离与扩散模糊程度之间的关系,确定公式如下:
其中,σ表示每个像素点的模糊度,γ表示模糊圆半径与模糊度之间的比例系数;
本发明实施例中,γ=0.9;
对公式(2)进行转化,获得每个像素点对应景物实际位置到光学扩散器之间距离的计算公式如下:
步骤4、根据所获每个像素点对应景物实际位置到光学扩散器的距离与扩散模糊程度之间的关系、图像1和图像2,获得每个像素点对应景物实际位置到光学扩散器的距离,如图5所示,具体步骤如下:
步骤4.1、设定初始时图像1中全部像素点对应景物实际位置到光学扩散器的距离相同,均等于0.01mm,设定总亮度差阈值为1,所述的总亮度差为图像2中每个像素点的亮度与实际扩散图像中对应像素点的亮度之差的总和,并设置每一次迭代时,每个像素点所对应景物实际位置到光学扩散器当前距离的增量值为0.005mm,即步长为0.005mm;
步骤4.2、以图像1为扩散源,图像2为扩散目标,对图像1进行扩散,并获得实际扩散后图像中每个像素点的亮度,对图2中每个像素点的亮度与实际扩散图像中对应像素点的亮度之差求和,得到总亮度差,由以下公式确定:
其中,F(Z)表示总亮度差,u(y,z,Δt)表示像素点(y,z)经过Δt时间的图像亮度,E2(y,z)表示像素点(y,z)扩散后的图像亮度,dydz表示y方向和z方向的单位亮度变化,ρ表示规格化参数,取值范围为ρ大于0,表示梯度算子,Z表示每个像素点对应景物实际位置到光学扩散器的距离,k表示优化参数,取值范围为k大于0;
本发明实施例中,设置ρ=0.2,k=0.1;
步骤4.3、判断所获总亮度差是否大于1,若是,执行步骤4.4,否则,执行步骤4.5;
步骤4.4、设置每个像素点对应景物实际位置到光学扩散器的当前距离增加一个步长,继续扩散,返回步骤4.2继续迭代;
步骤4.5、停止迭代,此时每个像素点对应景物实际位置到光学扩散器的距离即为每个像素点的深度值;
步骤5、根据获得的每个像素点的深度值,将每个像素点对应景物实际位置点连接,利用matlab软件构建景物的3D形貌图像,如图6所示。
本发明实施例中,设置迭代100次,若迭代次数达到100,则自动跳出迭代,结束循环过程。
为了验证算法的精度,本发明实施例中重建了景物的真实3D形貌,如图7所示,计算真实形貌与本发明实施例构建形貌在每个像素点的差值,公式如下:
ζ=Z/Ze-1 (5)
其中,ζ表示每个像素点的误差值,Z表示每个像素点对应景物实际位置到光学扩散器的距离,即每个像素点深度值,Ze表示景物每个像素点的实际深度值,用千分尺测量得出;
计算结果如图8所示,误差分析得到的结果是:本实施方式提出的基于热扩散的全局扩散模糊深度获取方法的平均误差仅为0.043mm,均方差为0.0536。

Claims (2)

1.一种基于热扩散的全局扩散模糊深度获取方法,其特征在于:包括以下步骤:
步骤1、根据实际需求,在景物前放置一台摄像机,设定摄像机的焦距、像距、数值孔径以及模糊圆半径与模糊度的比例系数,根据设定条件拍摄一幅正常图像1;
步骤2、在摄像机与景物之间放置一个扩散角已知的光学扩散器,光学扩散器与摄像机的距离根据实际需求设定,保持摄像机的焦距、像距、数值孔径以及模糊圆半径与模糊度的比例系数不变,利用摄像机透过光学扩散器拍摄一幅同一景物扩散后的图像2,图像1与图像2尺寸大小相同;
步骤3、构建每个像素点对应景物实际位置到光学扩散器的距离与图像模糊程度之间的关系,具体步骤如下:
步骤3.1、将图像1转化成像素点矩阵1,将图像2转化成像素点矩阵2;
步骤3.2、根据摄像机成像面上每个像素点与光轴之间的夹角、光学扩散器的扩散角、景物实际位置到光学扩散器的距离、摄像机与光学扩散器之间的距离和摄像机的像距,获得摄像机成像面上每个像素点的模糊圆斑半径;
所述的获得摄像机成像面上每个像素点的模糊圆斑半径,由以下公式确定:
<mrow> <mi>b</mi> <mo>=</mo> <mfrac> <mrow> <mi>v</mi> <mo>&amp;CenterDot;</mo> <mi>t</mi> <mi>a</mi> <mi>n</mi> <mi>&amp;theta;</mi> </mrow> <mrow> <msup> <mi>cos</mi> <mn>2</mn> </msup> <mi>&amp;alpha;</mi> </mrow> </mfrac> <mo>&amp;CenterDot;</mo> <mfrac> <mi>Z</mi> <mrow> <mi>Z</mi> <mo>+</mo> <mi>U</mi> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,b表示扩散模糊圆斑的半径,υ表示摄像机的像距,θ表示光学扩散器的扩散角,Z表示每个像素点对应景物实际位置到光学扩散器的距离,U表示摄像机到光学扩散器的距离,α表示每个像素点与光轴之间的夹角;
步骤3.3、根据获得的像素点模糊圆斑半径、模糊圆半径与模糊度之间的比例关系,构建每个像素点对应景物实际位置到光学扩散器的距离与扩散模糊程度之间的关系;
所述的景物实际位置到光学扩散器的距离与扩散模糊程度之间的关系,由以下公式确定:
<mrow> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> <mo>=</mo> <msup> <mi>&amp;gamma;</mi> <mn>2</mn> </msup> <msup> <mi>b</mi> <mn>2</mn> </msup> <mo>=</mo> <msup> <mi>&amp;gamma;</mi> <mn>2</mn> </msup> <msup> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>v</mi> <mo>&amp;CenterDot;</mo> <mi>t</mi> <mi>a</mi> <mi>n</mi> <mi>&amp;theta;</mi> </mrow> <mrow> <msup> <mi>cos</mi> <mn>2</mn> </msup> <mi>&amp;alpha;</mi> </mrow> </mfrac> <mo>&amp;CenterDot;</mo> <mfrac> <mi>Z</mi> <mrow> <mi>Z</mi> <mo>+</mo> <mi>U</mi> </mrow> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,σ表示每个像素点的模糊度,b表示扩散模糊圆斑的半径,γ表示模糊圆半径与模糊度之间的比例系数,取值范围为[0.5,1.5],υ表示摄像机的像距,θ表示光学扩散器的扩散角,Z表示每个像素点对应景物实际位置到光学扩散器的距离,U表示摄像机到光学扩散器的距离,α表示每个像素点与光轴之间的夹角;
对公式(2)进行转化,获得每个像素点对应景物实际位置到光学扩散器之间距离的计算公式如下:
<mrow> <mi>Z</mi> <mo>=</mo> <mfrac> <mrow> <mi>&amp;sigma;</mi> <mo>&amp;CenterDot;</mo> <mi>U</mi> <mo>&amp;CenterDot;</mo> <msup> <mi>cos</mi> <mn>2</mn> </msup> <mi>&amp;alpha;</mi> </mrow> <mrow> <mo>(</mo> <mi>&amp;gamma;</mi> <mo>&amp;CenterDot;</mo> <mi>v</mi> <mo>&amp;CenterDot;</mo> <mi>t</mi> <mi>a</mi> <mi>n</mi> <mi>&amp;theta;</mi> <mo>-</mo> <mi>&amp;sigma;</mi> <mo>&amp;CenterDot;</mo> <msup> <mi>cos</mi> <mn>2</mn> </msup> <mi>&amp;alpha;</mi> <mo>)</mo> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
步骤4、根据所获每个像素点对应景物实际位置到光学扩散器的距离与扩散模糊程度之间的关系、图像1和图像2,获得每个像素点对应景物实际位置到光学扩散器的距离,具体步骤如下:
步骤4.1、设定初始时图像1中全部像素点与景物距离相同,均等于摄像机拍摄景物清晰度最高时摄像机与景物之间的距离,设定总亮度差阈值,所述的总亮度差为图像2中每个像素点的亮度与实际扩散图像中对应像素点的亮度之差的总和,并设置每一次迭代时,每个像素点所对应景物实际位置到光学扩散器当前距离的增量值,即步长;
步骤4.2、以图像1为扩散源,图像2为扩散目标,对图像1进行扩散,并获得实际扩散后图像中每个像素点的亮度,对图像2中每个像素点的亮度与实际扩散图像中对应像素点的亮度之差求和,得到总亮度差;
步骤4.3、判断所获总亮度差是否大于设定的总亮度差阈值,若是,执行步骤4.4,否则,执行步骤4.5;
步骤4.4、设置每个像素点对应景物实际位置到光学扩散器的当前距离增加一个步长,继续扩散,返回步骤4.2继续迭代;
步骤4.5、停止迭代,此时每个像素点对应景物实际位置到光学扩散器的距离即为每个像素点的深度值;
步骤5、根据获得的每个像素点的深度值,构建景物的3D形貌图像。
2.根据权利要求1所述的基于热扩散的全局扩散模糊深度获取方法,其特征在于:步骤4.2所述的得到总亮度差,计算公式如下:
<mrow> <mtable> <mtr> <mtd> <mrow> <mi>F</mi> <mrow> <mo>(</mo> <mi>Z</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>&amp;Integral;</mo> <mo>&amp;Integral;</mo> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>(</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> <mo>,</mo> <mi>&amp;Delta;</mi> <mi>t</mi> <mo>)</mo> <mo>-</mo> <msub> <mi>E</mi> <mn>2</mn> </msub> <mo>(</mo> <mi>y</mi> <mo>,</mo> <mi>z</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mi>d</mi> <mi>y</mi> <mi>d</mi> <mi>z</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mi>&amp;rho;</mi> <mo>|</mo> <mo>|</mo> <mo>&amp;dtri;</mo> <mi>Z</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;rho;</mi> <mi>k</mi> <mo>|</mo> <mo>|</mo> <mi>Z</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,F(Z)表示总亮度差,u(y,z,Δt)表示像素点(y,z)经过Δt时间的图像亮度,E2(y,z)表示像素点(y,z)扩散后的图像亮度,dydz表示y方向和z方向的单位亮度变化,ρ表示规格化参数,取值范围为ρ大于0,表示梯度算子,Z表示每个像素点对应景物实际位置到光学扩散器的距离,k表示优化参数,取值范围为k大于0。
CN201410803429.4A 2014-12-19 2014-12-19 基于热扩散的全局扩散模糊深度获取方法 Active CN104574369B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410803429.4A CN104574369B (zh) 2014-12-19 2014-12-19 基于热扩散的全局扩散模糊深度获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410803429.4A CN104574369B (zh) 2014-12-19 2014-12-19 基于热扩散的全局扩散模糊深度获取方法

Publications (2)

Publication Number Publication Date
CN104574369A CN104574369A (zh) 2015-04-29
CN104574369B true CN104574369B (zh) 2017-10-20

Family

ID=53090341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410803429.4A Active CN104574369B (zh) 2014-12-19 2014-12-19 基于热扩散的全局扩散模糊深度获取方法

Country Status (1)

Country Link
CN (1) CN104574369B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815823B (zh) * 2017-02-22 2020-02-07 广东工业大学 一种透镜畸变标定校正方法及其装置
CN108364274B (zh) * 2018-02-10 2020-02-07 东北大学 微纳米尺度下光学图像的无损清晰重构方法
CN111260776B (zh) * 2020-02-07 2023-04-18 山西大学 一种自适应正态分析的三维形貌重建方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103793909A (zh) * 2014-01-21 2014-05-14 东北大学 基于衍射模糊的单视觉全局深度信息获取方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103793909A (zh) * 2014-01-21 2014-05-14 东北大学 基于衍射模糊的单视觉全局深度信息获取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Depth from Diffusion;Changyin Zhou等;《Proceedings of IEEE Conference of Computer Vision and Pattern Recognition》;20100630;第1110-1117页 *
摄像机参数固定的全局离焦深度恢复;魏阳杰等;《中国图象图形学报》;20101231;第1811-1817页 *

Also Published As

Publication number Publication date
CN104574369A (zh) 2015-04-29

Similar Documents

Publication Publication Date Title
CN109166154B (zh) 用于光场三维粒子图像重构的光场相机校准方法
CN103530880B (zh) 基于投影高斯网格图案的摄像机标定方法
CN104268876B (zh) 基于分块的摄像机标定方法
CN106595528A (zh) 一种基于数字散斑的远心显微双目立体视觉测量方法
CN106157246B (zh) 一种全自动的快速柱面全景图像拼接方法
CN104729429A (zh) 一种远心成像的三维形貌测量系统标定方法
US9270948B2 (en) Image pick-up device, method, and system utilizing a lens having plural regions each with different focal characteristics
CN104182982A (zh) 双目立体视觉摄像机标定参数的整体优化方法
CN109859272A (zh) 一种自动对焦双目摄像头标定方法及装置
CN105931222A (zh) 用低精度二维平面靶标实现高精度相机标定的方法
CN105716542A (zh) 一种基于柔性特征点的三维数据拼接方法
CN104279960A (zh) 用移动设备进行物体尺寸测量的方法
CN108051183B (zh) 基于高斯光学的聚焦型光场相机参数标定方法
CN106971408A (zh) 一种基于时空转换思想的摄像机标定方法
CN103793909B (zh) 基于衍射模糊的单视觉全局深度信息获取方法
CN104574369B (zh) 基于热扩散的全局扩散模糊深度获取方法
CN104807405B (zh) 一种基于光线角度标定的三维坐标测量方法
CN104123725B (zh) 一种单线阵相机单应性矩阵h的计算方法
Thomason et al. Calibration of a microlens array for a plenoptic camera
CN104634323B (zh) 一种多级摄像三维照相系统及方法
CN103544699B (zh) 一种基于单图片三圆模版的摄像头标定方法
CN104123726B (zh) 基于消隐点的大锻件测量系统标定方法
CN104813217B (zh) 用于设计能够估计景深的无源单通道成像器的方法
CN113447241B (zh) 分割投影成像系统的快速定标方法及装置
CN112489141B (zh) 车载摄像头单板单图带中继镜的产线标定方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant