CN114757994B - 一种基于深度学习多任务的自动对焦方法及系统 - Google Patents
一种基于深度学习多任务的自动对焦方法及系统 Download PDFInfo
- Publication number
- CN114757994B CN114757994B CN202210665226.8A CN202210665226A CN114757994B CN 114757994 B CN114757994 B CN 114757994B CN 202210665226 A CN202210665226 A CN 202210665226A CN 114757994 B CN114757994 B CN 114757994B
- Authority
- CN
- China
- Prior art keywords
- motor
- prediction result
- definition
- label
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 17
- 238000010606 normalization Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 27
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000007547 defect Effects 0.000 abstract description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习多任务的自动对焦方法及系统,涉及图像处理技术领域,首先将目标图像进行数据预处理,得到预处理后的目标图像,以及数据归一化后的当前电机位置;将预处理后的目标图像输入至训练好的预测网络中,得到清晰度类别标签预测结果和电机移动步数预测结果;依据清晰度类别标签预测结果,判断是否对电机进行位置移动,并判断移动方向;依据判断结果,对电机执行操作。本发明能在普通嵌入式设备上做到实时性,速度更快,计算量比传统算法更小,解决了传统方法需要多帧多次搜索的弊端,且在实时对焦过程中不会出现虚焦画面。
Description
技术领域
本发明涉及图像处理技术领域,更具体的说是涉及一种基于深度学习多任务的自动对焦方法及系统。
背景技术
自动对焦(Auto Focus,AF)是利用物体光反射的原理,将反射的光被相机上的传感器CCD接收,通过计算机处理,带动电动对焦装置进行对焦的方式叫自动对焦。它多分为二类:一是主动式,另一个则是被动式。
其中,被动式对焦即直接接收分析来自景物自身的反光,进行自动对焦的方式,又分为基于相位差和基于反差的两种对焦技术。
其中基于反差的对焦技术是通过检测图像的轮廓边缘实现自动对焦的。图像的轮廓边缘越清晰,则它的亮度梯度就越大,或者说边缘处景物和背景之间的对比度就越大。反之,失焦的图像轮廓边缘模糊不清,亮度梯度或对比度下降;失焦越远,对比度越低。
在基于反差的对焦技术中,可以分为对焦深度法(depth from focusing,DFF)和离焦深度法(depth from defocus,DFD)。DFF是一种建立在搜索算法上的自动对焦方法,它通过对一个评价函数对不同对焦位置所成的像的清晰度进行评价,利用正确对焦位置最清晰这个特征找到正确的对焦位置。而DFD可以从离焦图像中获取到深度信息从而完成自动对焦。目前有一种方法是基于直边响应估算成像系统的点扩散函数并根据光学模型计算深度。
主动式对焦一般需要相机上的红外线发生器、超声波发生器发出红外光或超声波到被摄体。相机上的接受器接收反射回来的红外光或超声波进行对焦。局限在于对焦对斜面,光滑面对焦困难;对亮度大,远距离的被摄体对焦困难。这是由于发出的光被反射到其它方向,或达不到被摄体所至,而且当被摄体能吸收光或波时对焦困难,还会被玻璃反射故透过玻璃对焦困难。
基于相位差的对焦技术往往需要特殊的含有相位传感器,这样会牺牲掉部分成像传感单元的空间,对成像质量造成损失。
同时,DFF的的方法往往需要搜索10~12幅的图像才能够精确的找到这个位置,这种方法由于要获得过多的图像,所以速度比较慢,实用性不好。然而DFD方法中需要的直边响应往往在实际应用场景中无法达到,因此实际误差较大效果不好。
因此,如何克服现有的对焦算法中对焦速度慢、效果较差、计算量高的技术缺陷,是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种基于深度学习多任务的自动对焦方法及系统,以克服上述技术缺陷。
为了实现上述目的,本发明提供如下技术方案:
一种基于深度学习多任务的自动对焦方法,包括以下步骤:
步骤1、将目标图像进行数据预处理,得到预处理后的目标图像,以及数据归一化后的当前电机位置;
步骤2、将预处理后的目标图像输入至训练好的预测网络中,得到清晰度类别标签预测结果和电机移动步数预测结果;
步骤3、依据清晰度类别标签预测结果,判断是否对电机进行位置移动,并判断移动方向;依据判断结果,对电机执行操作。
可选的,所述步骤1中,数据预处理的具体步骤为:
步骤1.1、将目标图像进行ISP处理,并经过颜色空间转换变成灰度图;
步骤1.2、对灰度图中间区域进行裁剪,得到灰度剪裁图;
步骤1.3、按清晰度对灰度剪裁图进行类别判定,得到灰度剪裁图的清晰度类别标签;
步骤1.4、将灰度剪裁图和当前电机位置分别进行数据归一化。
其中,灰度裁剪图归一化是将灰度裁剪图归一化到(0,1)的区间或者(-1,1)的区间,便于后续模型训练;当前电机位置归一化是将当前电机位置除以当前焦距、当前物距像距下电机所能移动到的最大电机位置。
可选的,所述清晰度类别标签有gt_0、gt_1、gt_2、gt_3,所对应的清晰度分别为清晰、次清晰、次模糊、模糊。
可选的,所述预测网络的训练步骤为:
获取训练图像,对训练图像进行数据预处理,得到预处理后的训练图像以及清晰度类别标签、当前电机位置;
将预处理后的训练图像进行数据增强;
将数据增强后的训练图像输入神经网络中,得到标签预测值和电机移动步数预测结果;选取标签预测值中的最大值作为清晰度类别标签预测结果;
根据清晰度类别标签和清晰度类别标签预测结果,计算得到标签损失值;
根据当前电机位置和电机移动步数预测结果,计算得到电机位置损失值;
对标签损失值和电机位置损失值进行加权求和,得到总损失值;
根据总损失值更新网络模型参数,并得到最终的预测网络。
上述预测网络的训练过程中,使用灰度图训练,主要的目的是为了消除光照、颜色对网络学习的影响,只考虑清晰度和对比度来估算步进电机的对焦位置。
可选的,所述数据增强方法包括翻转、加噪声、裁剪、旋转、变形等。
可选的,所述标签预测值包括0_pred、1_pred、2_pred、3_pred,所对应的清晰度分别为清晰、次清晰、次模糊、模糊。
可选的,所述步骤3具体为:
当清晰度类别标签预测结果为3_pred时,将电机移动到:当前电机位置+电机移动步数预测结果;
当清晰度类别标签预测结果为2_pred时,将电机移动到电机步数有效范围的80%;
当清晰度类别标签预测结果为1_pred时,将电机移动到电机步数有效范围的30%;
当清晰度类别标签预测结果为0_pred时,当前电机位置为准焦位置,电机不移动。
可选的,电机移动方向通过预测网络进行预测得到的清晰度类别标签预测结果判断,电机移动后,当前帧目标图像和前一帧目标图像相比,如果清晰度类别标签预测结果从清晰变为模糊,表示电机移动了错误的方向,则控制电机往相反的方向移动,如果清晰度类别标签预测结果从模糊变为清晰,则保持电机当前移动方向。
本发明还公开一种基于深度学习多任务的自动对焦系统,包括:
图像预处理模块,用于将目标图像进行数据预处理,得到预处理后的目标图像,以及数据归一化后的当前电机位置;
预测模块,用于将预处理后的目标图像输入至训练好的预测网络中,得到清晰度类别标签预测结果和电机移动步数预测结果;
判断执行模块,用于依据清晰度类别标签预测结果,判断是否对电机进行位置移动,并判断移动方向;依据判断结果,对电机执行操作。
经由上述的技术方案可知,本发明公开了一种基于深度学习多任务的自动对焦方法及系统,与现有技术相比,具有以下有益效果:
本发明第一方面解决了步进电机移动方向不确定的问题,传统的算法需要通过电机移动多次并判断清晰度来判断方向,本发明则通过一个多任务网络将当前帧的清晰度类别(即上述清晰度类别标签预测结果)预测出来,然后通过预测的类别来判断电机移动的方向。本发明第二方面解决了反差式对焦算法对焦时间长的问题,传统反差式对焦需要不断地驱动电机,对每个电机位置地清晰度进行计算,直到找到清晰度最高的电机位置。本发明的多任务网络在输出当前帧的清晰度类别的同时还输出了步进电机到达准焦位置需要移动的步数,从而大大缩减了对焦时间,也避免了相机对焦的“拉风箱”效应。本发明可运用于拍照,摄像相关系统及终端设备。
本发明能在普通嵌入式设备上做到实时性,速度更快,计算量比传统算法更小。本发明解决了传统方法需要多帧多次搜索的弊端,且在实时对焦过程中不会出现虚焦画面,白天和晚上多灯光场景都能实时对焦并体验良好,适用于多传感器,且可拓展于其他的任务领域。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明的方法步骤示意图;
图2为本发明的系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种基于深度学习多任务的自动对焦方法,参见图1,包括以下步骤:
步骤1、将目标图像进行数据预处理,得到预处理后的目标图像,以及数据归一化后的当前电机位置;
步骤2、将预处理后的目标图像输入至训练好的预测网络中,得到清晰度类别标签预测结果和电机移动步数预测结果;
步骤3、依据清晰度类别标签预测结果,判断是否对电机进行位置移动,并判断移动方向;依据判断结果,对电机执行操作。
可选的,所述步骤1中,数据预处理的具体步骤为:
步骤1.1、将目标图像进行ISP处理,并经过颜色空间转换变成灰度图;
步骤1.2、对灰度图中间区域进行裁剪,得到灰度剪裁图;
步骤1.3、按清晰度对灰度剪裁图进行类别判定,得到灰度剪裁图的清晰度类别标签;
步骤1.4、将灰度剪裁图和当前电机位置分别进行数据归一化。
所述空间转换还可以包括RGB转换HSV、RGB转换HSL等。
可选的,所述清晰度类别标签有gt_0、gt_1、gt_2、gt_3,所对应的清晰度分别为清晰、次清晰、次模糊、模糊。
可选的,所述预测网络的训练步骤为:
获取训练图像,对训练图像进行数据预处理,得到预处理后的训练图像以及清晰度类别标签、当前电机位置;
将预处理后的训练图像进行数据增强;
将数据增强后的训练图像输入神经网络中,得到标签预测值和电机移动步数预测结果;选取标签预测值中的最大值作为清晰度类别标签预测结果;
根据清晰度类别标签和清晰度类别标签预测结果,计算得到标签损失值;
根据当前电机位置和电机移动步数预测结果,计算得到电机位置损失值;
对标签损失值和电机位置损失值进行加权求和,得到总损失值;
根据总损失值更新网络模型参数,并得到最终的预测网络。
可选的,所述数据增强方法包括水平垂直方向翻转、加轻微噪声、裁剪、旋转、变形等。
可选的,所述标签预测值包括0_pred、1_pred、2_pred、3_pred,所对应的清晰度分别为清晰、次清晰、次模糊、模糊。
可选的,所述步骤3具体为:
当清晰度类别标签预测结果为3_pred时,将电机移动到:当前电机位置+电机移动步数预测结果;
当清晰度类别标签预测结果为2_pred时,将电机移动到电机步数有效范围的80%;
当清晰度类别标签预测结果为1_pred时,将电机移动到电机步数有效范围的30%;
当清晰度类别标签预测结果为0_pred时,当前电机位置为准焦位置,电机不移动。
其中,电机步数有效范围根据镜头当前的焦距、像距、物距所决定,具体的可根据镜头标定的对焦表查询电机步数有效范围。
在另一种实施例中,还可以选择当清晰度类别标签预测结果为2_pred或3_pred,将电机移动到“当前电机位置+电机移动步数预测结果”的位置,当清晰度类别标签预测结果为1_pred,则将电机小步数移动,并且通过sobel算子计算清晰度,选取清晰度最高的位置为准焦位置,当清晰度类别标签预测结果为0_pred,表示当前电机位置为准焦位置,则电机不移动。
可选的,电机移动方向通过预测网络进行预测得到的清晰度类别标签预测结果判断,电机移动后,如果清晰度类别标签预测结果从清晰变为模糊,表示电机移动了错误的方向,则控制电机往相反的方向移动,如果清晰度类别标签预测结果从模糊变为清晰,则保持电机当前移动方向。
在另一实施例中还公开一种基于深度学习多任务的自动对焦系统,参见图2,包括:
图像预处理模块,用于将目标图像进行数据预处理,得到预处理后的目标图像,以及数据归一化后的当前电机位置;
预测模块,用于将预处理后的目标图像输入至训练好的预测网络中,得到清晰度类别标签预测结果和电机移动步数预测结果;
判断执行模块,用于依据清晰度类别标签预测结果,判断是否对电机进行位置移动,并判断移动方向;依据判断结果,对电机执行操作。
现有技术中,基于数字图像的传统自动对焦算法所用图像越多对焦精度越高,这个过程需要较多图像,一般需要达到10幅以上,所需要步数较多,对焦过程耗时较长。而本发明只需4-5副图像即可,所需要的步数较少,大大缩减了对焦时间。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (8)
1.一种基于深度学习多任务的自动对焦方法,其特征在于,包括以下步骤:
步骤1、将目标图像进行数据预处理,得到数据归一化后的灰度裁剪图,以及数据归一化后的当前电机位置;
步骤2、将预处理后的目标图像输入至训练好的预测网络中,得到清晰度类别标签预测结果和电机移动步数预测结果;
所述预测网络的训练步骤为:
获取训练图像,对训练图像进行数据预处理,得到预处理后的训练图像以及清晰度类别标签、数据归一化后的当前电机位置;
将预处理后的训练图像进行数据增强;
将数据增强后的训练图像输入神经网络中,得到标签预测值和电机移动步数预测结果;选取标签预测值中的最大值作为清晰度类别标签预测结果;
根据清晰度类别标签和清晰度类别标签预测结果,计算得到标签损失值;
根据当前电机位置和电机移动步数预测结果,计算得到电机位置损失值;
对标签损失值和电机位置损失值进行加权求和,得到总损失值;
根据总损失值更新网络模型参数,并得到最终的预测网络;
步骤3、依据清晰度类别标签预测结果,判断是否对电机进行位置移动,并判断移动方向;依据判断结果,对电机执行操作。
2.根据权利要求1所述的一种基于深度学习多任务的自动对焦方法,其特征在于,所述步骤1中,数据预处理的具体步骤为:
对目标图像进行ISP处理,并经过颜色空间转换变成灰度图;
对灰度图中间区域进行裁剪,得到灰度剪裁图;
按清晰度对灰度剪裁图进行类别判定,得到灰度剪裁图的清晰度类别标签;
将灰度剪裁图和当前电机位置分别进行数据归一化。
3.根据权利要求2所述的一种基于深度学习多任务的自动对焦方法,其特征在于,所述清晰度类别标签有gt_0、gt_1、gt_2、gt_3,所对应的清晰度分别为清晰、次清晰、次模糊、模糊。
4.根据权利要求3所述的一种基于深度学习多任务的自动对焦方法,其特征在于,所述进行数据增强的方法包括翻转、加噪声、裁剪、旋转、变形。
5.根据权利要求3所述的一种基于深度学习多任务的自动对焦方法,其特征在于,所述标签预测值包括0_pred、1_pred、2_pred、3_pred,所对应的清晰度分别为清晰、次清晰、次模糊、模糊。
6.根据权利要求5所述的一种基于深度学习多任务的自动对焦方法,其特征在于,所述步骤3具体为:
当清晰度类别标签预测结果为3_pred时,将电机移动到:当前电机位置+电机移动步数预测结果;
当清晰度类别标签预测结果为2_pred时,将电机移动到电机步数有效范围的80%;
当清晰度类别标签预测结果为1_pred时,将电机移动到电机步数有效范围的30%;
当清晰度类别标签预测结果为0_pred时,当前电机位置为准焦位置,电机不移动。
7.根据权利要求6所述的一种基于深度学习多任务的自动对焦方法,其特征在于,电机移动方向通过预测网络进行预测得到的清晰度类别标签预测结果判断,电机移动后,如果清晰度类别标签预测结果从清晰变为模糊,则控制电机往相反的方向移动,如果清晰度类别标签预测结果从模糊变为清晰,则保持电机当前移动方向。
8.一种基于深度学习多任务的自动对焦系统,其特征在于,包括:
图像预处理模块,用于将目标图像进行数据预处理,得到预处理后的目标图像,以及数据归一化后的当前电机位置;
预测模块,用于将预处理后的目标图像输入至训练好的预测网络中,得到清晰度类别标签预测结果和电机移动步数预测结果;
所述预测网络的训练步骤为:
获取训练图像,对训练图像进行数据预处理,得到预处理后的训练图像以及清晰度类别标签、数据归一化后的当前电机位置;
将预处理后的训练图像进行数据增强;
将数据增强后的训练图像输入神经网络中,得到标签预测值和电机移动步数预测结果;选取标签预测值中的最大值作为清晰度类别标签预测结果;
根据清晰度类别标签和清晰度类别标签预测结果,计算得到标签损失值;
根据当前电机位置和电机移动步数预测结果,计算得到电机位置损失值;
对标签损失值和电机位置损失值进行加权求和,得到总损失值;
根据总损失值更新网络模型参数,并得到最终的预测网络;
判断执行模块,用于依据清晰度类别标签预测结果,判断是否对电机进行位置移动,并判断移动方向;依据判断结果,对电机执行操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210665226.8A CN114757994B (zh) | 2022-06-14 | 2022-06-14 | 一种基于深度学习多任务的自动对焦方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210665226.8A CN114757994B (zh) | 2022-06-14 | 2022-06-14 | 一种基于深度学习多任务的自动对焦方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114757994A CN114757994A (zh) | 2022-07-15 |
CN114757994B true CN114757994B (zh) | 2022-09-20 |
Family
ID=82336307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210665226.8A Active CN114757994B (zh) | 2022-06-14 | 2022-06-14 | 一种基于深度学习多任务的自动对焦方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114757994B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109714519A (zh) * | 2017-10-25 | 2019-05-03 | 成都市极米科技有限公司 | 一种自动调整图像画面的方法和系统 |
CN114125216A (zh) * | 2021-10-27 | 2022-03-01 | 中国科学院软件研究所 | 一种面向软件定义卫星的成像系统及成像方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104301601B (zh) * | 2013-11-27 | 2017-11-03 | 中国航空工业集团公司洛阳电光设备研究所 | 一种粗精调结合的红外图像自动调焦方法 |
US9674435B1 (en) * | 2016-07-06 | 2017-06-06 | Lawrence Maxwell Monari | Virtual reality platforms for capturing content for virtual reality displays |
-
2022
- 2022-06-14 CN CN202210665226.8A patent/CN114757994B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109714519A (zh) * | 2017-10-25 | 2019-05-03 | 成都市极米科技有限公司 | 一种自动调整图像画面的方法和系统 |
CN114125216A (zh) * | 2021-10-27 | 2022-03-01 | 中国科学院软件研究所 | 一种面向软件定义卫星的成像系统及成像方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114757994A (zh) | 2022-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110248096B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
US10101572B2 (en) | Variable focal length lens system with multi-level extended depth of field image processing | |
CN110611761B (zh) | 摄像装置、焦点调节方法以及存储介质 | |
JP3733392B2 (ja) | 画像の構図変化検出方法 | |
US9361680B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
CN109714519B (zh) | 一种自动调整图像画面的方法和系统 | |
JP2020537382A (ja) | デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体 | |
CN111083365B (zh) | 一种最佳焦平面位置快速检测方法及装置 | |
JP5374119B2 (ja) | 距離情報取得装置、撮像装置、及びプログラム | |
CN112203012B (zh) | 一种图像清晰度计算方法、自动聚焦方法及系统 | |
CN110191287B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
Wang et al. | Intelligent autofocus | |
CN111679418B (zh) | 基于激光图像的显微镜自动聚焦方法、系统及计算机设备 | |
CN105592258B (zh) | 自动聚焦方法及装置 | |
CN114757994B (zh) | 一种基于深度学习多任务的自动对焦方法及系统 | |
KR20170101532A (ko) | 이미지 융합 방법 및 이를 위한 컴퓨터 프로그램, 그 기록매체 | |
CN107592455B (zh) | 浅景深效果成像方法、装置及电子设备 | |
CN114760419B (zh) | 一种基于深度学习的自动对焦方法及系统 | |
CN114785953B (zh) | 基于sfr的相机自动对焦方法及装置 | |
CN113163112B (zh) | 一种聚变焦控制方法及系统 | |
US8823860B2 (en) | Apparatus for auto-focusing detection, camera applying the same, and method for calculating distance to subject | |
US8588530B2 (en) | Method and camera for detecting a region having a specific shape | |
CN115115690A (zh) | 视频残差解码装置和关联方法 | |
Antunes et al. | All-in-focus imaging using a series of images on different focal planes | |
JP2004288157A (ja) | デジタルイメージの定義スコアの決定 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |