CN117957850A - 自动聚焦调节方法和使用该方法的相机装置 - Google Patents

自动聚焦调节方法和使用该方法的相机装置 Download PDF

Info

Publication number
CN117957850A
CN117957850A CN202280060550.5A CN202280060550A CN117957850A CN 117957850 A CN117957850 A CN 117957850A CN 202280060550 A CN202280060550 A CN 202280060550A CN 117957850 A CN117957850 A CN 117957850A
Authority
CN
China
Prior art keywords
camera device
captured image
objects
distance
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280060550.5A
Other languages
English (en)
Inventor
金大峰
朴东辰
朴基范
权宁祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanhua Vision Co ltd
Original Assignee
Hanhua Vision Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hanhua Vision Co ltd filed Critical Hanhua Vision Co ltd
Publication of CN117957850A publication Critical patent/CN117957850A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Abstract

一种相机装置,具有处理器和存储可由处理器执行的指令的存储器,所述相机装置包括:图像传感器,捕获被摄体的图像;对象识别器,识别捕获的图像中包括的对象;距离计算器,基于所识别的对象在捕获的图像中的占据百分比来计算所述相机装置与所识别的对象之间的距离;以及控制器,在聚焦范围内移动透镜的同时搜索参考值最大的最佳聚焦位置,所述聚焦范围至少包含与计算出的距离对应的所述透镜的聚焦位置。

Description

自动聚焦调节方法和使用该方法的相机装置
技术领域
本公开涉及一种自动聚焦调节技术,并且更具体地,涉及一种能够通过估计透镜与被摄体之间的距离来执行快速自动聚焦调节的自动聚焦调节方法和装置。
背景技术
诸如数码相机和数字摄像机之类的电子装置安装有诸如电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)图像传感器之类的图像捕获装置。图像捕获装置具有自动调节焦点的自动聚焦(AF)功能。在自动聚焦中,通过驱动透镜来适当地调节焦点,并且可以获取这样的聚焦图像。
然而,在根据现有技术的自动聚焦中,不能根据作为目标的被摄体将焦点自动调节到用户期望的部分。在这种情况下,当捕获图像时,用户必须执行用于焦点调节的操纵,因此,用户在他/她自己致力于图像捕获本身时可能无法捕获图像。
此外,为了使用这种自动聚焦功能,需要通过改变透镜的位置来调节透镜与图像传感器之间的距离并且执行被摄体的图像的聚焦,因此,发生用于找到最佳聚焦位置的时间延迟。
如图1所示,根据相关技术的相机包括:透镜1;图像传感器2,捕获通过透镜传输的被摄体的图像;图像处理器3,处理关于由图像传感器捕获的图像的信息以生成指示图像的聚焦程度的锐度;控制器5,根据图像处理器3的锐度来计算透镜1的适当位置;以及透镜驱动单元4,用于将透镜1移动到由控制器5计算的位置。
具体地讲,当通过用户的相机操纵等而输入自动聚焦命令时,控制器5通过将透镜1移动到初始位置来初始化透镜1的位置,该初始位置是最远距离位置(其是最靠近图像传感器的位置(离被摄体最远的位置))或最近距离位置(其是最远离图像传感器的位置(最靠近被摄体的位置))。此后,控制器5在以规则间隔移动透镜1的同时计算透镜1的各个位置处的锐度(例如,对比度数据),并且确定锐度值中具有最大锐度的透镜1的位置。
此后,控制器5再次将透镜1移动到具有最大锐度的点附近,在将透镜1在具有最大锐度的点附近的预定范围内短地移动的同时计算透镜1的各个位置处的锐度,并最终确定锐度值中具有最大锐度的点。
最后,控制器5将透镜1移动到具有最大锐度的点,然后完成自动聚焦。
如上所述,根据现有技术的自动聚焦功能应计算透镜位置改变的所有区域的锐度,因此,自动聚焦所需的时间增加,并且当为了减少自动聚焦所需的时间而执行快速自动聚焦时,自动聚焦的精度降低。
发明内容
技术问题
本公开的方面通过基于人工智能深度学习的事物检测技术来改善基于对比度的自动聚焦性能。
本发明的方面还通过使用检测到的对象信息和透镜/传感器信息估计被摄体与透镜之间的距离来改善自动聚焦速度。
本发明的方面还在自动聚焦操作期间使用对象检测信息进一步改善自动聚焦性能。
然而,本发明的方面不限于本文阐述的那些。通过参考下面给出的本发明的详细描述,上述和其他方面对于本公开所属领域的普通技术人员将变得更加明显。
技术方案
根据示例性实施例的方面,提供一种相机装置,包括处理器和存储可由处理器执行的指令的存储器,所述相机装置包括:图像传感器,捕获被摄体的图像;对象识别器,识别捕获的图像中包括的对象;距离计算器,基于所识别的对象在捕获的图像中的占据百分比来计算所述相机装置与所识别的对象之间的距离;以及控制器,在聚焦范围内移动透镜时搜索参考值最大的最佳聚焦位置,所述聚焦范围至少包含对应于计算出的距离的所述透镜的聚焦位置。
所述参考值是对比度数据或边缘数据。
所述相机装置还包括:存储装置,用于存储所述相机装置的规格信息,
其中,所述距离计算器获取所述规格信息中包括的垂直方向上的视角,并使用所获取的垂直方向上的视角、所述对象的尺寸的比率和所述对象的物理尺寸来计算所述相机装置与所识别的对象之间的距离,所述对象的尺寸的比率是所述对象的整体或所述对象的一部分在垂直方向上的尺寸与捕获的图像在垂直方向上的尺寸的比率。
所述对象是人,并且所述对象的一部分是面部。
所述对象是车辆,并且所述对象的一部分是所述车辆的牌照。
所述控制器读取存储在所述存储装置中的所述规格信息中包括的轨迹数据,并参考所述轨迹数据从计算出的距离确定所述聚焦范围,所述轨迹数据被表示为根据在特定变焦倍率下到所述被摄体的距离的聚焦位置。
所述对象是在包含于捕获的图像中的多个对象中选择的对象。
所述选择的对象是所述多个对象中最靠近捕获的图像的中心的对象。
所述多个对象包括不同类型的两个或更多个对象,所述选择的对象是在所述两个或更多个对象中其整体或一部分的尺寸被标准化的对象。
通过基于深度学习的事物检测算法来执行所述对象的识别,并且作为所述识别的结果,获得所述对象的识别的准确度,所述选择的对象是多个对象中具有较高准确度的对象。
所述控制器在捕获的图像中设定窗口且在设定的窗口中搜索所述最佳聚焦位置,设定的窗口设定在所述选择的对象周围。
通过基于深度学习的事物检测算法来执行所述对象的识别,并且作为所述识别的结果,获得所述对象的识别的准确度,随着准确度变高,聚焦范围被设定为更窄,并且随着准确度变低,聚焦范围被设定为更宽。
所述控制器在捕获的图像中设定窗口且在设定的窗口中搜索所述最佳聚焦位置,当存在识别的对象的移动时,所述控制器考虑到对象的移动来设定窗口。
当所述对象的所述移动是所述对象变得靠近或远离所述图像传感器的移动时,所述控制器改变所述窗口的尺寸。
当所述对象的所述移动是捕获的图像中的所述对象到另一位置的移动时,所述控制器根据所述移动将所述窗口移动并设定到预测位置。
根据示例性实施例的另一方面,提供一种自动聚焦调节方法,在相机装置中的处理器的控制下由指令执行,所述相机装置包括所述处理器和存储可由所述处理器执行的所述指令的存储器,所述自动聚焦调节方法包括如下步骤:捕获被摄体的图像;识别捕获的图像中包括的对象;基于识别的对象在捕获的图像中的占据百分比来计算所述相机装置与识别的对象之间的距离;在聚焦范围内移动透镜,所述聚焦范围至少包含与计算出的距离对应的所述透镜的聚焦位置;以及在移动所述透镜的同时搜索参考值最大的最佳聚焦位置。
所述自动聚焦调节方法还包括如下步骤:获取包括在所述相机装置的规格信息中的垂直方向上的视角;以及使用所获取的竖直方向上的视角、所述对象的尺寸的比率与所述对象的物理尺寸来计算所述相机装置与所识别的对象之间的距离,其中,所述对象的尺寸的比率是所述对象的整体或所述对象的一部分在垂直方向上的尺寸与捕获的图像在所述垂直方向上的尺寸的比率。
所述对象是在包含于捕获的图像中的多个对象中选择的对象,并且选择的对象是所述多个对象中最靠近捕获的图像的中心的对象。
所述对象是在包含于捕获的图像中的多个对象中选择的对象,所述多个对象包括不同类型的两个或更多个对象,并且所述选择的对象是在所述两个或更多个对象中其整体或一部分的尺寸被标准化的对象。
通过基于深度学习的事物检测算法来执行所述对象的识别,并且作为所述识别的结果,获得所述对象的识别的准确度,选择捕获的图像中包括的多个对象中具有较高准确度的对象作为识别的对象。
有益效果
根据本公开,可以通过在对比度自动聚焦技术中缩小自动聚焦搜索范围来减少自动聚焦所需的时间的同时,减少由于聚焦的不准确度引起的性能劣化。
另外,根据本公开,可以通过提供图形用户界面(GUI)来提高用户的便利性,使得用户可以在相机的设定中选择搜索范围。
此外,通过将诸如激光器的距离测量装置添加到根据本公开的自动聚焦改进技术,能够进行更快且更准确的自动聚焦。
附图说明
图1是根据现有技术的具有自动聚焦功能的相机的框图。
图2是示出根据本公开的实施例的相机装置的配置的框图。
图3a至图3c是示出仅使用由相机装置捕获的图像来计算与特定对象的距离的示例的图。
图4是示出寻找参考值最大的最佳聚焦位置的处理的图。
图5是示出在特定倍率下聚焦位置的变化的轨迹数据的曲线图。
图6是示出基于多个对象中靠近图像中心的对象来计算距离的示例的图。
图7a和7b是示出设定当控制器从对比度数据确定具有最大锐度的透镜的位置时使用的AF窗口的方法的图。
图8a是根据本公开的示例性实施例的人工智能(AI)装置的框图,并且图8b是可以应用本公开的深度神经网络(DNN)模型的示例。
图9是示出实现图2所示的相机装置的计算装置的硬件配置的框图。
图10是示出根据本公开的实施例的相机装置中的自动聚焦调节方法的示意性流程图。
具体实施方式
参照下面结合附图说明的示例性实施例,本公开的优点和特征以及实现它们的方法将是显而易见的。然而,本发明构思不限于本文公开的示例性实施例,而是可以以各种方式实现。提供示例性实施例用于使本发明构思的公开内容彻底并且用于将本发明构思的范围完全传达给本领域技术人员。应当注意,本公开的范围仅由权利要求限定。在整个说明书中,相同的附图标记表示相同的元件。
除非另有定义,否则本文使用的所有术语(包括技术术语和科学术语)具有与本公开所属领域的普通技术人员通常理解的含义相同的含义。将进一步理解,诸如在常用词典中定义的那些术语应被解释为具有与其在相关领域和/或本申请的上下文中的含义一致的含义,并且将不以理想化或过度正式的意义解释,除非在本文中明确地如此定义。
本文使用的术语用于说明实施例而不是限制本公开。如本文所使用的,单数形式也旨在包括复数形式,除非上下文另有明确说明。在整个说明书中,词语“包括(comprise)”和诸如“包括(comprises)”或“包括(comprising)”的变体将被理解为暗示包括所述要素但不排除任何其他要素。
以下,将参照附图详细说明本公开的示例性实施例。
图2是示出根据本公开的实施例的相机装置100的配置的框图。相机装置100可以被配置为包括透镜105、图像传感器110、图像处理器115、透镜驱动器120、对象识别器130、人工智能(AI)装置20、控制器150、距离计算器160和存储装置170。
控制器150可以用作控制相机装置100的其他组件的操作的控制器,并且通常可以由中央处理单元(CPU)、微处理器等实现。另外,存储装置170是存储由控制器150执行的结果或控制器150的操作所需的数据的存储介质,并且可以由易失性存储器或非易失性存储器实现。
透镜105可以通过快门(未示出)打开或关闭,并且在快门打开的状态下引入从被摄体反射的光。透镜105可以通过透镜驱动器120在预定范围内移动(向前或向后)以进行聚焦调节。透镜驱动器120通常可以由旋转马达、线性马达或各种其他类型的致动器实现。
图像传感器110以在快门打开的状态下捕获输入到透镜105的光并将捕获的光作为电信号输出的方式捕获图像。这样的图像可以被显示为模拟信号或数字信号,但是最近,这样的图像通常被显示为数字信号。数字信号由图像处理器或图像信号处理器(ISP)预处理,然后提供给控制器150,并且临时或永久地存储在存储装置170中。
对象识别器130识别捕获的图像中包括的对象。对象是指可以与背景区分开并且具有独立运动的目标,诸如图像中包括的人或事物。对象的这种识别可以由AI装置20通过深度学习算法来执行。稍后将参照图8a和图8b更详细地说明AI装置20。由对象识别器130识别的对象通常可以由对象ID、对象类型、对象概率、对象尺寸等定义。对象ID是指示对象是否相同的任意标识符,并且对象的类型指示可以由人区分的诸如人、动物和车辆之类的类别。此外,对象概率是指示正确识别对象的准确度的数值。例如,当特定对象的类型是人并且对象概率是80%时,这意味着对象将是人的概率是80%。
距离计算器160基于所识别的对象在捕获图像中的占据百分比来计算相机装置与所识别的对象之间的距离。距离计算器160还可以像基于激光的距离测量装置一样直接测量与所识别的对象的距离。在下文中,假设仅通过分析图像(诸如图像中的对象的占据百分比)来计算距离来说明本公开。
图3a至图3c是示出仅使用由相机装置100捕获的图像来计算与特定对象的距离的示例的图。其中,图3a示出基于图像中包括的对象(例如,人)的整体尺寸来计算相机装置100与人之间的距离的示例。
在图3a中,将被计算的值是相机装置100与人10之间的距离D。这里,相机装置100在垂直方向上的视角被表示为θ,并且可以由相机装置100根据视角θ进行图像捕获的垂直方向上的尺寸被表示为V。另外,诸如人的对象的尺寸可以由上述对象识别器130以框15的形式显示,并且对象在垂直方向上的尺寸可以被定义为H。
相机装置100的视角θ可以从相机装置100的规格信息获得,并且规格信息可以预先存储在存储装置170中。
在这种情况下,可以被图像捕获的垂直方向上的尺寸V与垂直方向上的对象的尺寸H(当对象是人时,人的高度)之间的比率可以被认为与图像中的对象的尺寸与由图像传感器110捕获的图像的在垂直方向上的尺寸的比率相同。因此,当图像在垂直方向上的尺寸被假设为100并且对象的尺寸与图像在垂直方向上的尺寸的比率为P(%)时,建立如等式1中表示的关系。
[等式1]
另外,在距离D和可以被图像捕获的垂直方向上的尺寸V之间满足等式2。这里,θ是指相机装置100在垂直方向上的视角,更确切地说,是在特定倍率下垂直方向上的视角。
[等式2]
因此,当等式1和等式2彼此组合时,如等式3所示计算最终获得的距离D。
[等式3]
在等式3中,视角θ可以从相机装置100的规格中得知,并且可以通过确认由图像传感器110捕获的图像来简单地得知对象的尺寸的比率P。例如,当所捕获的图像中的垂直像素的数目为1080且所捕获的图像中的特定对象所占据的垂直像素的数目为216时,对象的尺寸的比率P将为20。
另外,假设视角θ为30°,则对应于人的高度的H可以被认为是大约1m至2m,因此,D的最小值将为9.25m,并且D的最大值将为18.5m。
由于通过如上所述的简单计算将相机装置与对象之间的距离减小到预定范围而不是整个距离范围(0到无穷大),因此当使用预定范围作为参考点搜索最佳聚焦位置时,自动聚焦操作的时间将明显减少。
另外,可以通过追加反映对象的位置、透镜失真信息等来进行更准确的计算,并且在视角改变的变焦相机的情况下,可以通过根据每个倍率将每个物体尺寸的距离值存储在表中来快速计算距离。然而,这种距离计算足以在自动聚焦操作期间缩窄聚焦搜索范围,且因此可被充分利用,即使准确度不完美。
在图3a中,已经基于对象的整体尺寸(诸如人的身高)计算了相机装置100与对象10之间的距离D。然而,如上所述,人的身高可以具有相当多的各种范围,并且即使在同一人的情况下也可以根据姿势而改变。因此,在图3b中,可以基于对象的一部分(例如,人的面部17)在垂直方向上的尺寸Ha,通过应用上述等式3来计算距离D。特别地,在人的面部17中,面部的特征点(诸如眼睛、鼻子和嘴)是清晰的,并且特征点的尺寸之间的偏差小,因此,可以获得更准确的结果。
同时,当使用具有比人的面部更标准化的尺寸的对象的一部分时,可以进一步提高距离D的计算精度。如图3c所示,车辆的牌照19根据国家规定在水平和垂直方向上具有标准化尺寸。因此,可以基于车辆的牌照19在垂直方向上的尺寸Hb通过应用上述等式3来计算距离D。在这种情况下,计算的距离D的准确度将高于其他实施例中的准确度。
再次参照图2,控制器150驱动透镜驱动器120,以便在聚焦范围内移动透镜,该聚焦范围至少包括与由距离计算器160计算的距离D对应的透镜105的聚焦位置。另外,控制器150搜索在聚焦范围内参考值最大的最佳聚焦位置。图4是示出如上所述的寻找参考值最大的最佳聚焦位置Fo的过程的图。当透镜105的聚焦位置移动时,控制器150连续地检查参考值的变化。控制器首先在以相对较大的步长移动的同时寻找包括峰值出现的点(峰值点)的峰值区段。一旦寻找到峰值区段,控制器可以在峰值区段中精细移动的同时寻找到最终峰值点k,并且将这样的峰值点k处的焦点位置设定为最佳聚焦位置Fo
最后,控制器150驱动透镜驱动器120以将透镜105移动到最佳聚焦位置Fo,使得自动聚焦操作完成。
对比度数据或边缘数据通常可以用作参考值。这样的对比度数据可以被定义为感兴趣区域中的像素与周围像素之间的绝对差之和(SAD),并且SAD越大,图像的边缘数据或细节越多。通常,聚焦越准确,边缘数据的值越高。
如上所述,计算出的距离D与透镜105的聚焦位置具有对应关系。图5是示出在特定倍率下聚焦位置的变化的轨迹数据的曲线图。这样的轨迹数据可以作为相机装置100的规格信息预先存储在存储装置170中。这里,水平轴是相机装置100的变焦倍率,并且垂直轴是相机装置100的聚焦位置。
图5示例性地仅示出无限Inf距离的轨迹数据(实线)和1.5m距离的轨迹数据(虚线)。例如,在变焦倍率为1597的位置,1.5m距离的聚焦位置约为300,并且无限距离的聚焦位置约为500。在一般自动聚焦功能的情况下,应从非常近的距离到无限的距离(即,在0到500的范围N中)搜索最佳聚焦位置。另一方面,如本公开中所建议的,例如,当计算出的距离D为1.5m时,仅需要在减小的裕度范围(即,聚焦范围M)内搜索最佳聚焦位置,该范围至少包括计算出的聚焦位置b,因此,自动聚焦操作所需的时间减少,使得快速自动聚焦变得可能。
在上文中,已经说明了基于图像中的对象计算距离D并使用计算出的距离D寻找最佳聚焦位置的处理。然而,在许多情况下,图像中存在多个对象而不是仅一个对象。因此,优选的是,作为用于计算所捕获的图像中的距离D的基础的对象是从多个对象中选择的一些对象或一个对象。
作为选择多个对象中的一个的实施例,所选择的对象可以是多个对象中最靠近所捕获的图像的中心的对象。图6是示出基于多个对象中靠近图像中心的对象来计算距离D的示例的图。
当照相机简单地基于图像的中心执行自动聚焦时,在图像的中心pc处没有对象的情况下,事物通过自动聚焦而失焦,使得可能获得模糊图像。当相机装置100包括如图2所示的对象识别器130时,优选地基于在多个对象中选择的对象Po来计算距离D。然而,有必要确定用于在图像中的多个对象中选择对象的基础。通常,在大多数情况下,用户将他/她想要捕获图像的目标放置在图像的中心。因此,在实施例中,选择多个对象中最靠近图像的中心pc的对象po
然而,在图6中,所有的多个对象都是人,但是人和其他事物可以在图像中混合。即,当图像中的多个对象包括不同类型的两个或更多个对象时,可以不同地确定用于选择对象的基础。例如,在具有如图3c所示的具有标准化尺寸的部分的对象(例如,牌照)和另一对象混合的图像中,可以基于具有标准化尺寸的部分的对象而不是基于对象是否靠近图像的中心来计算距离D。
作为另一实施例,还可以基于具有高对象概率的对象来计算距离D。
如上所述,对象识别器130可以使用基于深度学习的事物检测算法来识别对象,并且因此,获得对象识别的准确度,即,对象概率。在这种情况下,可以基于图像中的多个对象中具有最高对象概率或准确度的对象来计算距离D。这是为了防止在错误判断对象的类型时距离D被完全不正确地计算,从而阻碍快速自动聚焦操作。
图7a和7b是示出设定当控制器150从对比度数据确定具有最大锐度的透镜11的位置时使用的AF窗口的方法的图。图6用于选择作为距离计算器160计算距离D的基础的对象的处理,而图7a和图7b用于随后由控制器150执行的基于对比度数据搜索最佳聚焦位置的处理,因此与图6区分开。
通常,为了防止过多的计算,在图像中设定的AF窗口而不是整个图像中执行最佳聚焦搜索。即,控制器150计算对比度数据,以便在AF窗口中搜索最佳聚焦位置。搜索最佳聚焦位置的准确度可以根据如何设定这种AF窗口而改变。例如,当如图7a所示将AF窗口简单地设定在图像的中心pc时,AF窗口中可以包括两个对象,并且当边缘数据在远位置的对象中比在近位置的对象中更多时,可能误判最佳聚焦位置。
如上所述,对象识别器130通过基于深度学习的事物检测算法来识别对象,并且已经知道对象的尺寸信息,因此,由各个对象占据的区域31和32可以被设定为AF窗口,或者各个对象中的一个的区域31可以被设定为AF窗口。这种基于对象的AF窗口设定有助于提高自动聚焦的准确度和快速性。
同时,,即使控制器150如上所述地基于由距离计算器160计算的距离D确定聚焦位置,控制器150也设定包括具有预定裕度的聚焦位置的聚焦范围,并在聚焦范围中搜索最佳聚焦位置。然而,存在折衷,因为聚焦范围的尺寸(即,裕度的尺寸)越大,准确度越高但自动聚焦速度越慢,并且聚焦范围的尺寸越小,自动聚焦速度越快但准确度越低。
因此,在本公开的实施例中,使用从对象识别器130获得的对象的准确度(即,对象概率)来确定裕度的尺寸。优选的是,随着准确度变高,聚焦范围被设定为更窄(裕度被设定为更小),并且随着准确度变低,聚焦范围被设定为更宽(裕度被设定为更大)。这样的可变裕度根据基于深度学习的事物检测算法取决于对象概率而变化,并且因此可以根据图像中的对象的情况来适当地调节。
同时,到目前为止已经说明了在当前捕获的图像中设定自动聚焦的实施例。然而,在图像中的对象以预定速度或更高速度移动的情况下,即使快速执行自动聚焦,也难以实现与对象的移动速度相对应的响应性能。因此,考虑到这一点,本公开的实施例提出了一种根据移动对象的移动速度在将被移动到的预测位置设定AF窗口的方法。
首先,控制器150在捕获的图像中设定AF窗口,并在设定的AF窗口中搜索最佳聚焦位置。当对象识别器130识别出所识别的对象的移动是预定阈值或更大时,控制器150考虑到对象的移动来设定AF窗口。
在一实施例中,当对象的移动是变得靠近或远离图像传感器110的对象的移动(靠近或远离移动)时,控制器150改变和设定AF窗口的尺寸。当对象移动以变得靠近图像传感器110时,AF窗口的尺寸可以提前显著改变,并且当对象移动以变得远离图像传感器110时,AF窗口的尺寸可以提前显著改变。
另外,在另一实施例中,当对象的移动是在捕获的图像中的对象到另一位置的移动(二维移动)时,控制器150可以根据移动预先将AF窗口移动并设定到预测位置。当对象的移动是靠近或远离移动和二维移动的复合时,控制器150可以考虑到靠近或远离移动和二维移动两者来改变AF窗口的尺寸和位置。
图8a是根据本公开的示例性实施例的人工智能(AI)装置的框图,并且图8b是可以应用本公开的深度神经网络(DNN)模型的示例。
AI装置20可以包括具有能够执行AI处理的AI模块的通信装置、包括AI模块的服务器等。另外,AI装置20可以作为至少一部分被包括在通信装置中,并且可以被提供为一起执行AI处理中的至少一些。AI装置20可以包括AI处理器21、存储器25和/或通信单元27。
AI装置20是能够学习神经网络的计算装置,并且可以由诸如服务器、台式PC、笔记本PC和平板PC之类的各种电子装置实现。
AI处理器21可以通过使用存储在存储器25中的程序来学习神经网络。特别地,AI处理器21可以学习用于识别对象相关数据的神经网络。这里,用于识别对象相关数据的神经网络可以被设计为在计算机上模拟人脑结构,并且可以包括具有模拟人类神经网络的神经元的权重的多个网络节点。多个网络节点可以根据它们各自的连接关系交换数据,使得神经元可以模拟神经元的突触活动以通过突触发送和接收信号。这里,神经网络可以包括从神经网络模型开发的深度学习模型。在深度学习模型中,多个网络节点可以位于不同的层中并且根据卷积连接关系交换数据。神经网络模型的示例包括诸如深度神经网络(DNN)、卷积深度神经网络(CNN)、循环神经网络(RNN)、受限玻尔兹曼机(RBM)、深度信念网络(DBN)或深度Q网络之类的各种深度学习技术,并且可以应用于诸如计算机视觉、语音识别、自然语言处理和语音/信号处理的领域。
同时,执行如上所述的功能的处理器可以是通用处理器(例如,CPU),但是可以是用于人工智能学习的AI专用处理器(例如,GPU)。存储器25可以存储AI装置20的操作所需的各种程序和数据。存储器25可以由非易失性存储器、易失性存储器、闪存、硬盘驱动器(HDD)、固态驱动器(SDD)等实现。存储器25由AI处理器21访问,并且可以由AI处理器21执行数据读/写/编辑/删除/更新。另外,根据本公开的示例性实施例,存储器25可以存储通过用于数据分类/识别的学习算法生成的神经网络模型(例如,深度学习模型26)。
同时,AI处理器21可以包括用于学习用于数据分类/识别的神经网络的数据学习单元22。数据学习单元22可以学习关于使用哪些训练数据以及如何使用训练数据对数据进行分类和识别的标准,以便确定数据分类/识别。数据学习单元22可以通过获取将被用于学习的训练数据并将获取的训练数据应用于深度学习模型来学习深度学习模型。
数据学习单元22可以以至少一个硬件芯片的形式制造并安装在AI装置20上。例如,数据学习单元22可以以用于人工智能(AI)的专用硬件芯片的形式制造,或者可以制造为通用处理器(CPU)或专用图形处理器(GPU)的一部分并安装在AI装置20上。另外,数据学习单元22可以由软件模块实现。当由软件模块(或包括指令的程序模块)实现时,软件模块可以存储在非暂时性计算机可读介质中。在这种情况下,至少一个软件模块可以由操作系统(OS)或应用提供。
数据学习单元22可以包括训练数据获取单元23和模型学习单元24。
训练数据获取单元23可以获取用于对数据进行分类和识别的神经网络模型所请求的训练数据。例如,训练数据获取单元23可以获取用于输入到神经网络模型中的对象数据和/或样本数据作为训练数据。
模型学习单元24可以通过使用所获取的训练数据来学习以具有用于确定神经网络模型如何对预定数据进行分类的标准。在这种情况下,模型学习单元24可以使用训练数据的至少一部分作为确定标准而通过监督学习来训练神经网络模型。可替代地,模型学习单元24可以通过无监督学习来训练神经网络模型,以在没有监督的情况下通过使用训练数据的自学习来发现标准。另外,模型学习单元24可以通过使用关于基于学习的情况确定的结果是否正确的反馈,通过强化学习来训练神经网络模型。另外,模型学习单元24可以通过使用包括误差反向传播方法(error back-propagation method)或梯度下降方法(gradient decent method)的学习算法来训练神经网络模型。
当训练神经网络模型时,模型学习单元24可以将学习的神经网络模型存储在存储器中。模型学习单元24可以将学习的神经网络模型存储在经由有线或无线网络连接到AI装置20的服务器的存储器中。
数据学习单元22还可以包括训练数据预处理器(未示出)和训练数据选择单元(未示出),以便改善识别模型的分析结果或节省生成识别模型所需的资源或时间。
训练数据预处理器可以预处理所获取的数据,使得所获取的数据可以用于学习以确定情况。例如,训练数据预处理器可以将所获取的数据处理成预设格式,使得模型学习单元24可以将所获取的用于学习的训练数据用于图像识别。
另外,训练数据选择单元可以从由训练数据获取单元23获取的训练数据或由预处理器预处理的训练数据中选择训练所需的数据。所选择的训练数据可以被提供给模型学习单元24。例如,训练数据选择单元可以通过检测通过相机装置获取的图像中的特定区域来仅选择关于包括在特定区域中的对象的数据作为训练数据。
另外,数据学习单元22还可以包括模型评估单元(未示出)以改善神经网络模型的分析结果。
模型评估单元可以将评估数据输入到神经网络模型,并且当从评估数据输出的分析结果不满足预定标准时,可以使模型学习单元24重新训练(retrain)神经网络模型。在这种情况下,评估数据可以是用于评估识别模型的预定义数据。例如,当在用于评估数据的训练的识别模型的分析结果中,分析结果不准确的评估数据的数量或比率超过预设阈值时,模型评估单元可以将模型评估为不满足预定标准。通信单元27可以将AI处理器21的AI处理结果发送到外部通信装置。
参照图8b,深度神经网络(DNN)是在输入层和输出层之间包括若干隐藏层的人工神经网络(ANN)。深度神经网络可以对复杂的非线性关系进行建模,如在典型的人工神经网络中那样。
例如,在用于对象识别模型的深度神经网络结构中,每个对象可以被表示为基本图像元素的分层配置。在这种情况下,附加层可以聚合逐渐聚集的下级层的特性。深度神经网络的该特征允许用比类似执行的人工神经网络更少的单元(节点)来建模更复杂的数据。
随着隐藏层的数量增加,人工神经网络被称为“深度”,并且使用这种充分加深的人工神经网络作为学习模型的机器学习范例被称为深度学习。此外,用于深度学习的足够深度的人工神经网络通常被称为深度神经网络(DNN)。
在本公开中,训练对象数据生成模型所需的数据可以被输入到DNN的输入层,并且可以通过输出层生成用户可以使用的有意义的评估数据,同时数据通过隐藏层。以这种方式,通过神经网络模型训练的评估数据的准确度可以由概率表示,并且概率越高,评估结果的准确度越高。
图9是示出实现相机装置100的计算装置200的硬件配置的框图。
参照图9,计算装置200包括总线220、处理器230、存储器240、存储装置250、输入/输出接口210和网络接口260。总线220是用于在处理器230、存储器240、存储装置250、输入/输出接口210和网络接口260之间传输数据的路径。然而,不特别限制处理器230、存储器240、存储装置250、输入/输出接口210和网络接口260如何连接。处理器230是诸如中央处理单元(CPU)或图形处理单元(GPU)的算术处理单元。存储器240是诸如随机存取存储器(RAM)或只读存储器(ROM)的存储器。存储装置250是诸如硬盘、固态驱动器(SSD)或存储卡的存储装置。存储装置250还可以是诸如RAM或ROM之类的存储器。
输入/输出接口210是用于连接计算装置200和输入/输出装置的接口。例如,键盘或鼠标连接到输入/输出接口210。
网络接口260是用于通信地连接计算装置200和外部装置以彼此交换传输包的接口。网络接口260可以是用于连接到有线线路或用于连接到无线线路的网络接口。例如,计算装置200可以经由网络50连接到另一计算装置200-1。
存储装置250存储实现计算装置200的功能的程序模块。处理器230通过执行程序模块来实现计算装置200的功能。这里,处理器230可以将程序模块读取到存储器240中,然后可以执行程序模块。
计算装置200的硬件配置不特别限于图9中所示的配置。例如,程序模块可以存储在存储器240中。在该示例中,计算装置200可以不包括存储装置250。
相机装置100可以至少包括处理器230和存储器240,存储器240存储可以由处理器230执行的指令。特别地,可以通过经由处理器230执行包括在相机装置100中包括的各种功能块或步骤的指令来驱动图2的相机装置100。
图10是示出根据本公开的实施例的相机装置100中的自动聚焦调节方法的示意性流程图。
首先,图像传感器110捕获被摄体的图像(S51)。
接下来,对象识别器130使用基于深度学习的事物检测算法来识别捕获的图像中包括的对象(S52)。
距离计算器160基于所识别的对象在捕获图像中的占据百分比来计算相机装置与所识别的对象之间的距离(S53)。
控制器150在至少包括与计算出的距离对应的透镜的聚焦位置的聚焦范围内移动透镜(S54)。
最后,控制器150搜索在透镜移动时参考值最大的最佳聚焦位置(S55)。
在S53中,更具体地,距离计算器160获取包括在相机装置的规格信息中的垂直方向上的视角,并且使用所获取的垂直方向上的视角、对象的尺寸的比率和对象的物理尺寸来计算相机装置与所识别的对象之间的距离。在这种情况下,对象的尺寸的比率可以是对象的整体或一部分在垂直方向上的尺寸与捕获的图像在垂直方向上的尺寸的比率。
这里,对象可以是在捕获图像中包括的多个对象中选择的对象,并且所选择的对象可以是多个对象中最靠近捕获的图像的中心的对象。
可替代地,对象可以是在捕获的图像中包括的多个对象中选择的对象,多个对象可以包括不同类型的两个或更多个对象,并且所选择的对象可以是在两个或更多个对象中其整体或一部分的尺寸被标准化的对象。
可替选地,可以通过基于深度学习的事物检测算法来执行对象的识别,作为识别的结果,可以获得对象的识别的准确度,并且可以选择捕获图像中包括的多个对象中具有较高准确度的对象作为识别的对象。
受益于前述说明和相关附图中呈现的教导的本领域技术人员将想到本发明的许多修改和其他实施例。因此,应当理解,本发明不限于所公开的特定实施例,并且修改和实施例旨在包括在所附权利要求的范围内。

Claims (20)

1.一种相机装置,包括处理器和存储可由所述处理器执行的指令的存储器,所述相机装置包括:
图像传感器,捕获被摄体的图像;
对象识别器,识别捕获的图像中包括的对象;
距离计算器,基于所识别的对象在捕获的图像中的占据百分比来计算所述相机装置与所识别的对象之间的距离;以及
控制器,在聚焦范围内移动透镜的同时搜索参考值最大的最佳聚焦位置,所述聚焦范围至少包含与计算出的距离对应的所述透镜的聚焦位置。
2.根据权利要求1所述的相机装置,其中,
所述参考值是对比度数据或边缘数据。
3.根据权利要求1所述的相机装置,还包括:
存储装置,用于存储所述相机装置的规格信息,
其中,所述距离计算器获取所述规格信息中包括的垂直方向上的视角,并使用所获取的垂直方向上的视角、所述对象的尺寸的比率和所述对象的物理尺寸来计算所述相机装置与所识别的对象之间的距离,
所述对象的尺寸的比率是所述对象的整体或所述对象的一部分在垂直方向上的尺寸与捕获的图像在垂直方向上的尺寸的比率。
4.根据权利要求3所述的相机装置,其中,
所述对象是人,并且所述对象的一部分是面部。
5.根据权利要求3所述的相机装置,其中,
所述对象是车辆,并且所述对象的一部分是所述车辆的牌照。
6.根据权利要求3所述的相机装置,其中,
所述控制器读取存储在所述存储装置中的所述规格信息中包括的轨迹数据,并参考所述轨迹数据从计算出的距离确定所述聚焦范围,
所述轨迹数据被表示为根据在特定变焦倍率下到所述被摄体的距离的聚焦位置。
7.根据权利要求1所述的相机装置,其中,
所述对象是在包含于捕获的图像中的多个对象中选择的对象。
8.根据权利要求7所述的相机装置,其中,
所述选择的对象是所述多个对象中最靠近捕获的图像的中心的对象。
9.根据权利要求7所述的相机装置,其中,
所述多个对象包括不同类型的两个或更多个对象,
所述选择的对象是在所述两个或更多个对象中其整体或一部分的尺寸被标准化的对象。
10.根据权利要求7所述的相机装置,其中,
通过基于深度学习的事物检测算法来执行所述对象的识别,并且作为所述识别的结果,获得所述对象的识别的准确度,
所述选择的对象是所述多个对象中具有较高准确度的对象。
11.根据权利要求7所述的相机装置,其中,
所述控制器在捕获的图像中设定窗口且在设定的窗口中搜索所述最佳聚焦位置,
设定的窗口设定在所述选择的对象周围。
12.根据权利要求1所述的相机装置,其中,
通过基于深度学习的事物检测算法来执行所述对象的识别,并且作为所述识别的结果,获得所述对象的识别的准确度,
随着准确度变高,聚焦范围被设定为更窄,并且随着准确度变低,聚焦范围被设定为更宽。
13.根据权利要求1所述的相机装置,其中,
所述控制器在捕获的图像中设定窗口且在设定的窗口中搜索所述最佳聚焦位置,
当存在识别的对象的移动时,所述控制器考虑到对象的移动来设定窗口。
14.根据权利要求13所述的相机装置,其中,
当所述对象的移动是变得靠近或远离所述图像传感器的所述对象的移动时,所述控制器改变所述窗口的尺寸。
15.根据权利要求13所述的相机装置,其中,
当所述对象的移动是捕获的图像中向另一位置的所述对象的移动时,所述控制器根据所述移动将所述窗口移动并设定到预测位置。
16.一种自动聚焦调节方法,在相机装置中的处理器的控制下由指令执行,所述相机装置包括所述处理器和存储可由所述处理器执行的所述指令的存储器,所述自动聚焦调节方法包括如下步骤:
捕获被摄体的图像;
识别捕获的图像中包括的对象;
基于识别的对象在捕获的图像中的占据百分比来计算所述相机装置与识别的对象之间的距离;
在聚焦范围内移动透镜,所述聚焦范围至少包含与计算出的距离对应的所述透镜的聚焦位置;以及
在移动所述透镜的同时搜索参考值最大的最佳聚焦位置。
17.根据权利要求16所述的自动聚焦调节方法,还包括如下步骤:
获取包括在所述相机装置的规格信息中的垂直方向上的视角;以及
使用所获取的垂直方向上的视角、所述对象的尺寸的比率与所述对象的物理尺寸来计算所述相机装置与所识别的对象之间的距离,
其中,所述对象的尺寸的比率是所述对象的整体或所述对象的一部分在垂直方向上的尺寸与捕获的图像在所述垂直方向上的尺寸的比率。
18.根据权利要求16所述的自动聚焦调节方法,其中,
所述对象是在包含于捕获的图像中的多个对象中选择的对象,并且所述选择的对象是所述多个对象中最靠近捕获的图像的中心的对象。
19.根据权利要求16所述的自动聚焦调节方法,其中,
所述对象是在包含于捕获的图像中的多个对象中选择的对象,所述多个对象包括不同类型的两个或更多个对象,并且所述选择的对象是在所述两个或更多个对象中其整体或一部分的尺寸被标准化的对象。
20.根据权利要求16所述的自动聚焦调节方法,其中,
通过基于深度学习的事物检测算法来执行所述对象的识别,并且作为所述识别的结果,获得所述对象的识别的准确度,
选择捕获的图像中包括的多个对象中具有较高准确度的对象作为识别的对象。
CN202280060550.5A 2022-04-29 2022-05-17 自动聚焦调节方法和使用该方法的相机装置 Pending CN117957850A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2022-0053253 2022-04-29
KR1020220053253A KR20230153626A (ko) 2022-04-29 2022-04-29 오토 포커스 조절 방법 및 이를 이용한 카메라 장치
PCT/KR2022/007016 WO2023210856A1 (ko) 2022-04-29 2022-05-17 오토 포커스 조절 방법 및 이를 이용한 카메라 장치

Publications (1)

Publication Number Publication Date
CN117957850A true CN117957850A (zh) 2024-04-30

Family

ID=88518980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280060550.5A Pending CN117957850A (zh) 2022-04-29 2022-05-17 自动聚焦调节方法和使用该方法的相机装置

Country Status (3)

Country Link
KR (1) KR20230153626A (zh)
CN (1) CN117957850A (zh)
WO (1) WO2023210856A1 (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031760A (ja) 2007-07-04 2009-02-12 Sanyo Electric Co Ltd 撮像装置及びオートフォーカス制御方法
KR20100068717A (ko) * 2008-12-15 2010-06-24 삼성전자주식회사 촬영 장치에서의 오토포커스 방법 및 장치
US20130258167A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Method and apparatus for autofocusing an imaging device
KR101758684B1 (ko) * 2012-07-23 2017-07-14 한화테크윈 주식회사 객체 추적 장치 및 방법
KR101932546B1 (ko) * 2014-09-30 2018-12-27 한화테크윈 주식회사 Af 카메라에 있어서, 최적의 주밍 속도를 찾는 장치 및 방법
KR102407624B1 (ko) * 2015-10-06 2022-06-10 삼성전자주식회사 전자 장치의 영상 처리 방법 및 그 전자 장치

Also Published As

Publication number Publication date
KR20230153626A (ko) 2023-11-07
WO2023210856A1 (ko) 2023-11-02

Similar Documents

Publication Publication Date Title
US20200050867A1 (en) Method and apparatus for obtaining vehicle loss assessment image, server and terminal device
CN110070107B (zh) 物体识别方法及装置
KR102548732B1 (ko) 신경망 학습 방법 및 이를 적용한 장치
CN108648211B (zh) 一种基于深度学习的小目标检测方法、装置、设备和介质
Minut et al. A reinforcement learning model of selective visual attention
CN110348270B (zh) 影像物件辨识方法与影像物件辨识系统
CN105930822A (zh) 一种人脸抓拍方法及系统
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
WO2021216561A2 (en) Method and apparatus for camera calibration
CN111598065A (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
Javidi et al. Fundamentals of automated human gesture recognition using 3D integral imaging: a tutorial
CN113747041A (zh) 一种摄像机对焦方法及基于循环神经网络的对焦方法
US20220321792A1 (en) Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
KR20210087249A (ko) 촬영장치 및 그 제어방법
KR20130091441A (ko) 물체 추적 장치 및 그 제어 방법
CN112784494B (zh) 假阳性识别模型的训练方法、目标识别方法及装置
US20230386185A1 (en) Statistical model-based false detection removal algorithm from images
US11272097B2 (en) Aesthetic learning methods and apparatus for automating image capture device controls
US20230206643A1 (en) Occlusion detection and object coordinate correction for estimating the position of an object
US20230260259A1 (en) Method and device for training a neural network
CN117957850A (zh) 自动聚焦调节方法和使用该方法的相机装置
Zarkasi et al. Weightless Neural Networks Face Recognition Learning Process for Binary Facial Pattern
KR20230064959A (ko) Ai 기반 객체인식을 통한 감시카메라 wdr 영상 처리
CN114519899A (zh) 一种基于多生物特征自适应融合的身份识别方法及系统
CN113920168A (zh) 一种音视频控制设备中图像跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination