CN112132771B - 一种基于光场成像的多聚焦图像融合方法 - Google Patents
一种基于光场成像的多聚焦图像融合方法 Download PDFInfo
- Publication number
- CN112132771B CN112132771B CN202011201016.0A CN202011201016A CN112132771B CN 112132771 B CN112132771 B CN 112132771B CN 202011201016 A CN202011201016 A CN 202011201016A CN 112132771 B CN112132771 B CN 112132771B
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- refocusing
- pyramid
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 16
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 8
- 238000000034 method Methods 0.000 claims abstract description 12
- 238000011156 evaluation Methods 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 abstract description 4
- 230000007547 defect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于光场成像的多聚焦图像融合方法,首先得到光场图像的子孔径图像,再通过光场相机的主透镜、微透镜阵列、传感器及成像平面之间的位置关系搭建重聚焦模型,并利用线面之间的三角关系推出重聚焦系数;然后通过调整重聚焦系数使图像中不同的目标分别聚焦至清晰度最高处;再由图像清晰度评价函数——Tenengrad评价函数将重聚焦图像划分为多个部分,根据划分部分建立mask掩膜并以此表示融合位置;利用拉普拉斯金字塔融合算法将经过上述处理后的图像进行融合。该方法能保证飞行器可以获得不同非合作目标最清晰的特征信息,并减少背景变换给后续图像处理工作带来的干扰,能更好的满足制导系统对准确性的要求。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种图像融合方法。
背景技术
图像制导由于信息丰富、实时性强、制导精度高等优点成为精确制导系统中常用的制导方式之一,在航空、航天领域得到广泛的应用。导引头处安装的摄像机实时获取目标信息,并分析处理相应的图像序列,从而解算出跟踪目标在实际背景中的相应位置信息。目前图像制导系统中大多使用单目相机,单目相机结构简单且成本低,但由于其只能拍摄二维图像导致大量可利用的光线深度信息被摒弃;且在面对多个非合作目标时,传统的先聚焦后拍照模式使单目相机无法在一张图像中将多个目标对焦至正确深度、导致目标信息缺失、无法满足制导过程中对准确性的要求,多个不同的目标拍摄不同聚焦深度的图像又会使后续的图像处理的步骤较为繁杂、无法满足制导对实时性的要求;且多张图像会使多个非合作目标之间的相对信息产生较大变化、导致后续数据处理的工作量增加,这些都限制了图像制导的发展。
由于光场相机在主透镜和传感器平面之间加入的微透镜阵列能够让光线二次折射,使二维空间信息和二维角度信息同时被记录,四维数据使光场相机拥有先拍照后聚焦的特性。重聚焦处理不仅可以避免失焦现象,还可以使图像内的多个目标分别达到其清晰度最高的聚焦位置。
发明内容
为了克服现有技术的不足,本发明提供了一种基于光场成像的多聚焦图像融合方法,首先得到光场图像的子孔径图像,再通过光场相机的主透镜、微透镜阵列、传感器及成像平面之间的位置关系搭建重聚焦模型,并利用线面之间的三角关系推出重聚焦系数;然后通过调整重聚焦系数使图像中不同的目标分别聚焦至清晰度最高处;再由图像清晰度评价函数——Tenengrad评价函数将重聚焦图像划分为多个部分,根据划分部分建立mask掩膜并以此表示融合位置;利用拉普拉斯金字塔融合算法将经过上述处理后的图像进行融合。该方法能保证飞行器可以获得不同非合作目标最清晰的特征信息,并减少背景变换给后续图像处理工作带来的干扰,能更好的满足制导系统对准确性的要求。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:对光场相机拍摄图像提取子孔径图像,子孔径图像中有N个目标物;
步骤2:设置子孔径图像中每个目标物的重聚焦系数,生成N幅聚焦深度不同的重聚焦图像,每幅重聚焦图像聚焦一个目标物;
步骤3:将子孔径图像按照目标物的位置分割成N个部分,每部分包含一个目标物;再按照和子孔径图像相同的分割方法将N幅重聚焦图像进行分割;对每一幅重聚焦图像,采用清晰度评价Tenengrad函数得到每个分割部分的Tenengrad函数值;在每一幅重聚焦图像中,将Tenengrad函数值最高的部分权值记为1,其余部分权值记为0;
步骤4:根据Tenengrad函数值建立子孔径图像的mask掩模图像,采用子孔径图像的mask掩模图像建立每幅重聚焦图像的高斯金字塔;再由高斯金字塔得到每幅重聚焦图像的拉普拉斯金字塔;高斯金字塔和拉普拉斯金字塔均有M层,记两个金字塔的最底层为第1层,最高层为第M层;
步骤5:用高斯金字塔的第i层减去第i-1层经过上采样和高斯卷积处理后的图像,得到第i-1层的差分图像,再将高斯金字塔的第1层进行上采样和高斯卷积后分别与第i-1层的差分图像相加得到第i-1层的重构图像,从而得到每一层新的高斯金字塔图像,把新的高斯金字塔图像所有层叠加,得到重聚焦图像重构图像;
步骤6:建立重聚焦图像重构图像的mask掩模图像;然后建立拉普拉斯金字塔每一层的差分图像,将每一层的差分图像中对应重聚焦图像中权值为1的部分保留,权值为0的部分去除,再分别与重聚焦图像重构图像的mask掩模图像叠加;得到拉普拉斯金字塔每一层的掩模差分图像;
步骤7:对拉普拉斯金字塔的第M层进行上采样和高斯卷积后,分别与拉普拉斯金字塔每一层的掩模差分图像相加,得到M个结果图像,再将这M个结果图像相加,得到最终的多聚焦图像融合结果。
有益效果:
本发明提出的一种基于光场成像的多聚焦图像融合方法,在于解决飞行器捕捉多个非合作目标时传统相机造成的失焦和多次聚焦拍摄造成的背景变换复杂、目标间相对信息缺失等问题。该方法可以将飞行器面对的每个非合作目标聚焦至最佳深度、并融合成一张清晰度较高且能体现出各个目标相对位置关系的图像,避免了传统成像的失焦现象以及减少了处理多幅图像时算法的复杂性,能保证飞行器获得不同非合作目标最清晰的特征信息,并减少背景变换给后续图像处理工作带来的干扰,能更好的满足制导系统对准确性的要求。
附图说明
图1为本发明方法搭建的重聚焦模型。
图2为本发明实施例提取的子孔径图像。
图3为本发明实施例设置不同的聚焦系数α时的重聚焦图像,图(a)为聚焦玩具,图(b)为聚焦杯子。
图4为采用本发明实施例中进行拉普拉斯金字塔融合后得到的结果。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
一种基于光场成像的多聚焦图像融合方法,包括如下步骤:
步骤1:对光场相机拍摄图像提取子孔径图像,子孔径图像中有N个目标物;
步骤2:设置子孔径图像中每个目标物的重聚焦系数,生成N幅聚焦深度不同的重聚焦图像,每幅重聚焦图像聚焦一个目标物;
步骤3:将子孔径图像按照目标物的位置分割成N个部分,每部分包含一个目标物;再按照和子孔径图像相同的分割方法将N幅重聚焦图像进行分割;对每一幅重聚焦图像,采用清晰度评价Tenengrad函数得到每个分割部分的Tenengrad函数值;在每一幅重聚焦图像中,将Tenengrad函数值最高的部分权值记为1,其余部分权值记为0;
步骤4:根据Tenengrad函数值建立子孔径图像的mask掩模图像,采用子孔径图像的mask掩模图像建立每幅重聚焦图像的高斯金字塔;再由高斯金字塔得到每幅重聚焦图像的拉普拉斯金字塔;高斯金字塔和拉普拉斯金字塔均有M层,记两个金字塔的最底层为第1层,最高层为第M层;
步骤5:用高斯金字塔的第i层减去第i-1层经过上采样和高斯卷积处理后的图像,得到第i-1层的差分图像,再将高斯金字塔的第1层进行上采样和高斯卷积后分别与第i-1层的差分图像相加得到第i-1层的重构图像,从而得到每一层新的高斯金字塔图像,把新的高斯金字塔图像所有层叠加,得到重聚焦图像重构图像;
步骤6:建立重聚焦图像重构图像的mask掩模图像;然后建立拉普拉斯金字塔每一层的差分图像,将每一层的差分图像中对应重聚焦图像中权值为1的部分保留,权值为0的部分去除,再分别与重聚焦图像重构图像的mask掩模图像叠加;得到拉普拉斯金字塔每一层的掩模差分图像;
步骤7:对拉普拉斯金字塔的第M层进行上采样和高斯卷积后,分别与拉普拉斯金字塔每一层的掩模差分图像相加,得到M个结果图像,再将这M个结果图像相加,得到最终的多聚焦图像融合结果。
具体实施例:
1.光场相机图像用4D的光场信息L(x,y,u,v)来表征,其中(u,v)为二维角度信息、(x,y)为二维空间信息。为了简化重聚焦模型,将L(x,y,u,v)压缩成2D的形式L(x,u),如图1所示,根据成像平面和光线之间的三角相似关系可以得出在仅用二维数据来表征光场信息的情况下,光场相机传感器平面上的成像点和重聚焦平面上的成像点之间的位置关系,如式(1)所示:
其中,为光场相机传感器平面上的成像点,x′2u为重聚焦平面上的成像点,定义为距离系数,定义为重聚焦系数,F为主透镜到传感器平面的距离,F′为主透镜到重聚焦平面的距离,m为预设参数,f光场相机传感器焦距。
将2D的光场信息扩展成4D,则扩展后的重聚角公式如(2)所示:
其中,(x′,y′)为扩展后的二维空间信息,L0(·)为扩展函数。
将光场的所有角度信息经过相加后得到(3)式即为光场的重聚角公式:
通过(3)式可得将4D光场信息中所有角度像素对应的空间像素求和,则可获得在重聚焦平面上每点的像素值,即重聚焦后的二维图像。由此可知,通过改变聚焦系数α可以使不同目标物体达到其正确聚焦深度。
本实施例用光场相机拍摄含有杯子和玩具两个目标物体的图片,利用Matlab中的光场工具箱LFToolbox0.4、通过对相机自带白图像进行解码获得相机成像平面原始图像,再选取合适的角度像素位置提取相应的子孔径图像,如图2所示。本实施例选取角度像素为(5,2)处的子孔径图像。用Matlab和C++混合编译重聚焦程序,通过不断调整重聚焦系数确定让杯子聚焦至正确深度的系数为α=1.025、使玩具聚焦至正确深度的系数为α=1.003。由此,获得两张背景信息一致,且目标信息清晰丰富的重聚焦图像,如图3所示,图(a)为聚焦玩具,图(b)为聚焦杯子。
2.Tenengrad函数是利用梯度的不同来对图像是否清晰进行判断的评价函数,利用Sobel算子对水平方向和竖直方向的梯度值进行提取,如式(4)所示:
式中Gx、Gy为Sobel卷积核,I(x,y)为图像在点(x,y)处的梯度值。定义Tenengrad函数如式(5)所示:
其中,n为图像总像素数。
由于聚焦至正确深度的图像中边缘比模糊图像更为清晰、更为尖锐,故清晰图片的梯度函数值比模糊图像的梯度函数值大。同理,在一张图像中,清晰部分的Tenengrad函数值也要大于模糊部分的。根据图像中的目标个数和分布,将本发明使用的图片在像素为(179,0)位置处纵向分为左右两部分;根据Tenengrad来确定两张重聚焦图像清晰和模糊部分为后续图像融合做准备,本发明中目标物所属图像部分的Tenengrad评价函数值如下表所示:
表1 Tenengrad评价函数表
图像左侧 | 图像右侧 | |
α=1.003 | 1.38344 | 1.05679 |
α=1.025 | 0.48725 | 1.14597 |
3.建立两张重聚焦图像的高斯金字塔和拉普拉斯金字塔,根据图像大小和融合效果选择金字塔层数为3层;根据Tenengrad函数的评价结果,建立mask掩膜,将两张图像得分高的部分记为1、得分低的部分记为0,同时建立该掩膜图像的高斯金字塔。根据步骤4到步骤7的方法对图像进行处理,最终所得图像即为拉普拉斯金字塔融合结果。
Claims (1)
1.一种基于光场成像的多聚焦图像融合方法,其特征在于,包括以下步骤:
步骤1:对光场相机拍摄图像提取子孔径图像,子孔径图像中有N个目标物;
步骤2:设置子孔径图像中每个目标物的重聚焦系数,生成N幅聚焦深度不同的重聚焦图像,每幅重聚焦图像聚焦一个目标物;
步骤3:将子孔径图像按照目标物的位置分割成N个部分,每部分包含一个目标物;再按照和子孔径图像相同的分割方法将N幅重聚焦图像进行分割;对每一幅重聚焦图像,采用清晰度评价Tenengrad函数得到每个分割部分的Tenengrad函数值;在每一幅重聚焦图像中,将Tenengrad函数值最高的部分权值记为1,其余部分权值记为0;
步骤4:根据Tenengrad函数值建立子孔径图像的mask掩模图像,采用子孔径图像的mask掩模图像建立每幅重聚焦图像的高斯金字塔;再由高斯金字塔得到每幅重聚焦图像的拉普拉斯金字塔;高斯金字塔和拉普拉斯金字塔均有M层,记两个金字塔的最底层为第1层,最高层为第M层;
步骤5:用高斯金字塔的第i层减去第i-1层经过上采样和高斯卷积处理后的图像,得到第i-1层的差分图像,再将高斯金字塔的第1层进行上采样和高斯卷积后分别与第i-1层的差分图像相加得到第i-1层的重构图像,从而得到每一层新的高斯金字塔图像,把新的高斯金字塔图像所有层叠加,得到重聚焦图像重构图像;
步骤6:建立重聚焦图像重构图像的mask掩模图像;然后建立拉普拉斯金字塔每一层的差分图像,将每一层的差分图像中对应重聚焦图像中权值为1的部分保留,权值为0的部分去除,再分别与重聚焦图像重构图像的mask掩模图像叠加;得到拉普拉斯金字塔每一层的掩模差分图像;
步骤7:对拉普拉斯金字塔的第M层进行上采样和高斯卷积后,分别与拉普拉斯金字塔每一层的掩模差分图像相加,得到M个结果图像,再将这M个结果图像相加,得到最终的多聚焦图像融合结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011201016.0A CN112132771B (zh) | 2020-11-02 | 2020-11-02 | 一种基于光场成像的多聚焦图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011201016.0A CN112132771B (zh) | 2020-11-02 | 2020-11-02 | 一种基于光场成像的多聚焦图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112132771A CN112132771A (zh) | 2020-12-25 |
CN112132771B true CN112132771B (zh) | 2022-05-27 |
Family
ID=73852482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011201016.0A Active CN112132771B (zh) | 2020-11-02 | 2020-11-02 | 一种基于光场成像的多聚焦图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132771B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113012174B (zh) * | 2021-04-26 | 2024-02-09 | 中国科学院苏州生物医学工程技术研究所 | 一种图像融合方法、系统及设备 |
CN116681633B (zh) * | 2023-06-06 | 2024-04-12 | 国网上海市电力公司 | 一种多波段成像及融合方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103778616A (zh) * | 2012-10-22 | 2014-05-07 | 中国科学院研究生院 | 基于区域的对比度金字塔图像融合方法 |
CN104463949A (zh) * | 2014-10-24 | 2015-03-25 | 郑州大学 | 一种基于光场数字重聚焦的快速三维重建方法及其系统 |
CN107424155A (zh) * | 2017-04-17 | 2017-12-01 | 河海大学 | 一种面向光场重聚焦图像的聚焦分割方法 |
CN108337434A (zh) * | 2018-03-27 | 2018-07-27 | 中国人民解放军国防科技大学 | 一种针对光场阵列相机的焦外虚化重聚焦方法 |
CN109447930A (zh) * | 2018-10-26 | 2019-03-08 | 太原科技大学 | 小波域光场全聚焦图像生成算法 |
CN110824689A (zh) * | 2019-11-01 | 2020-02-21 | 南京理工大学 | 全自动显微图像景深拓展系统及其方法 |
CN111260712A (zh) * | 2020-02-07 | 2020-06-09 | 清华大学深圳国际研究生院 | 一种基于重聚焦极线图邻域分布的深度估计方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8978984B2 (en) * | 2013-02-28 | 2015-03-17 | Hand Held Products, Inc. | Indicia reading terminals and methods for decoding decodable indicia employing light field imaging |
WO2014165244A1 (en) * | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
CN107343130B (zh) * | 2017-08-17 | 2019-07-05 | 中国人民解放军国防科技大学 | 一种基于dmd动态分光的高动态成像模块 |
-
2020
- 2020-11-02 CN CN202011201016.0A patent/CN112132771B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103778616A (zh) * | 2012-10-22 | 2014-05-07 | 中国科学院研究生院 | 基于区域的对比度金字塔图像融合方法 |
CN104463949A (zh) * | 2014-10-24 | 2015-03-25 | 郑州大学 | 一种基于光场数字重聚焦的快速三维重建方法及其系统 |
CN107424155A (zh) * | 2017-04-17 | 2017-12-01 | 河海大学 | 一种面向光场重聚焦图像的聚焦分割方法 |
CN108337434A (zh) * | 2018-03-27 | 2018-07-27 | 中国人民解放军国防科技大学 | 一种针对光场阵列相机的焦外虚化重聚焦方法 |
CN109447930A (zh) * | 2018-10-26 | 2019-03-08 | 太原科技大学 | 小波域光场全聚焦图像生成算法 |
CN110824689A (zh) * | 2019-11-01 | 2020-02-21 | 南京理工大学 | 全自动显微图像景深拓展系统及其方法 |
CN111260712A (zh) * | 2020-02-07 | 2020-06-09 | 清华大学深圳国际研究生院 | 一种基于重聚焦极线图邻域分布的深度估计方法和装置 |
Non-Patent Citations (4)
Title |
---|
Achromatic metalens array for full-colour light-field imaging;Ren Jie Lin 等;《Nature Nanotechnology》;20191231;第1-6页 * |
Evaluation of focus measures in multi-focus image fusion;Wei Huang 等;《Pattern Recognition Letters》;20070331;第28卷(第4期);第493-500页 * |
基于小波域清晰度评价的光场全聚焦图像融合;谢颖贤 等;《北京航空航天大学学报》;20190930;第45卷(第9期);第1848-1854页 * |
微透镜阵列式光场成像模型及其标定方法;张旭 等;《光学学报》;20141231;第34卷(第12期);第1-13页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112132771A (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107025660B (zh) | 一种确定双目动态视觉传感器图像视差的方法和装置 | |
US8928737B2 (en) | System and method for three dimensional imaging | |
CN112132771B (zh) | 一种基于光场成像的多聚焦图像融合方法 | |
CN104881855B (zh) | 一种利用形态学和自由边界条件活动轮廓模型的多聚焦图像融合方法 | |
CN108427961B (zh) | 基于卷积神经网络的合成孔径聚焦成像深度评估方法 | |
CN111107337B (zh) | 深度信息补全方法及其装置、监控系统和存储介质 | |
CN103473743B (zh) | 一种获取图像深度信息的方法 | |
CN108564620B (zh) | 一种针对光场阵列相机的场景深度估计方法 | |
CN106296811A (zh) | 一种基于单光场相机的目标物三维重构方法 | |
CN109064505A (zh) | 一种基于滑动窗口张量提取的深度估计方法 | |
CN109949354B (zh) | 一种基于全卷积神经网络的光场深度信息估计方法 | |
CN110060304B (zh) | 一种生物体三维信息采集方法 | |
CN112907573B (zh) | 一种基于3d卷积的深度补全方法 | |
CN117237546B (zh) | 一种基于光场成像的增材构件三维轮廓重建方法及系统 | |
CN109255809A (zh) | 一种光场图像深度估计方法及装置 | |
CN103177432A (zh) | 一种用编码孔径相机获取全景图方法 | |
CN107845145A (zh) | 一种电子显微场景下的三维重构系统及方法 | |
CN115272403A (zh) | 一种基于图像处理技术的破片飞散特性测试方法 | |
JP6285686B2 (ja) | 視差画像生成装置 | |
CN113808019A (zh) | 一种非接触测量系统及方法 | |
CN110827343B (zh) | 基于能量增强散焦响应的改进光场深度估计方法 | |
CN111028257B (zh) | 微透镜子图像几何中心及边缘的提取方法及装置 | |
CN108830804B (zh) | 基于线扩展函数标准差的虚实融合模糊一致性处理方法 | |
CN112002008A (zh) | 一种整合光学和视觉智能技术的三维物体检测装置和方法 | |
CN112288669B (zh) | 一种基于光场成像的点云地图获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |