CN114760410A - 用于使用图像差异进行聚焦选择的系统、方法和装置 - Google Patents

用于使用图像差异进行聚焦选择的系统、方法和装置 Download PDF

Info

Publication number
CN114760410A
CN114760410A CN202210018012.1A CN202210018012A CN114760410A CN 114760410 A CN114760410 A CN 114760410A CN 202210018012 A CN202210018012 A CN 202210018012A CN 114760410 A CN114760410 A CN 114760410A
Authority
CN
China
Prior art keywords
image
image sensor
distance
imaging
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210018012.1A
Other languages
English (en)
Inventor
保罗·波罗尼维茨
冼涛
冯琛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hand Held Products Inc
Original Assignee
Hand Held Products Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hand Held Products Inc filed Critical Hand Held Products Inc
Publication of CN114760410A publication Critical patent/CN114760410A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • G06K7/10801Multidistance reading
    • G06K7/10811Focalisation

Abstract

本发明题为“用于使用图像差异进行聚焦选择的系统、方法和装置”。本公开的实施方案整体涉及在多成像器环境中的自动聚焦选择。实施方案包括被配置用于通过第一图像传感器捕获具有与物体相关联的背景的视觉对象的第一图像的方法、系统和装置。确定该第一图像中的该视觉对象与该第一图像中的该背景之间的特性差异,并且基于该确定的特性差异来选择距离确定模式。因此,基于所选的距离确定模式计算到该物体的距离,并且基于计算的到物体的距离控制第二图像传感器以捕获该物体的第二图像。

Description

用于使用图像差异进行聚焦选择的系统、方法和装置
技术领域
本公开的实施方案总体涉及用于使用多个图像传感器成像的方法和系统,并且更具体地涉及用于此类方法和系统的使用图像差异进行聚焦选择。
背景技术
在成像装置中,透镜通常被设计和布置成使得处于特定的预定范围的对象经由透镜看起来焦点对准。利用图像传感器来经由透镜捕获表示视场的图像数据。通常,当待成像的对象超出透镜的焦点时,透镜需要移动到一个或多个其它聚焦位置,以使对象焦点对准。为了提供改变聚焦的能力,用于可变聚焦的常规具体实施保持体积庞大、缓慢和/或易受一种或多种环境影响的损害。在这方面,常规的可变焦距透镜具有有限的可操作性,并且无法适应不同的成像条件。
发明内容
通常,本文提供的本公开的实施方案被配置用于在多成像器(或多图像传感器)环境中的自动聚焦选择。本文描述和示出的示例性实施方案提供了用于具有多个图像传感器的成像引擎的快速且自动的聚焦选择机构和方案。一些示例性实施方案涉及基于从多成像器成像引擎的不同传感器获得的图像之间的图像差异的聚焦选择估计。通过检查以下附图和详细描述,另选聚焦选择和/或另选聚焦方案中的一者或多者的其他具体实施对于本领域技术人员将是或将变得显而易见。本说明书内包括的所有此类附加具体实施均旨在处于本公开的范围内,并且受以下权利要求书的保护。
根据一些示例性实施方案,本文提供了一种成像方法。该方法可使用无数具体实施中的任何一种来实现,诸如经由如本文所述的多传感器成像引擎和/或多传感器成像装置的硬件、软件和/或固件来实现。在方法的一些示例性具体实施中,示例性方法包括通过第一图像传感器捕获具有与物体相关联的背景的视觉对象的第一图像。示例性方法还包括确定第一图像中的视觉对象与第一图像中的背景之间的特性差异,并且基于确定的特性差异从第一模式和第二模式中选择距离确定模式。示例性方法还包括基于所选的距离确定模式计算到物体的距离,并且基于计算的到物体的距离来控制第二图像传感器以捕获物体的第二图像。
附加地或另选地,在方法的一些实施方案中,确定特性差异包括确定第一图像中的视觉对象的第一强度与第一图像中的背景的第二强度之间的强度差异。
附加地或另选地,在方法的一些实施方案中,选择距离确定模式包括响应于强度差异大于或等于阈值,选择第一模式作为距离确定模式,并且响应于强度差异小于阈值,选择第二模式作为距离确定模式。
附加地或另选地,在方法的一些实施方案中,第一模式包括计算第一图像中的视觉对象的深度作为到物体的距离。附加地或另选地,在方法的一些实施方案中,第二模式包括确定物体在第一图像中的第一位置、通过第二图像传感器捕获物体的第三图像、确定物体在第三图像中的第二位置,以及根据第一位置和第二位置计算到物体的距离。
附加地或另选地,在方法的一些实施方案中,方法进一步包括基于第一图像传感器和第二图像传感器的成像距离来计算到物体的距离。
附加地或另选地,在方法的一些实施方案中,根据第一位置和第二位置计算到物体的距离包括基于第一位置计算第一图像的第一图像偏移;基于第二位置计算第二图像的第二图像偏移;以及基于第一图像偏移和第二图像偏移计算到物体的距离。
附加地或另选地,在方法的一些实施方案中,方法进一步包括基于计算的到物体的距离来改变第二图像传感器的聚焦位置。
附加地或另选地,在方法的一些实施方案中,方法进一步包括通过第二图像传感器捕获来自改变的聚焦位置的物体的第二图像,并且对该第二图像进行解码以提取在物体中编码的信息。
附加地或另选地,在方法的一些实施方案中,视觉对象是瞄准器投影,物体包括信息标记,第一图像传感器包括近场图像传感器,并且第二图像传感器包括远场图像传感器。
根据一些示例性实施方案,本文提供了一种成像系统。在示例性实施方案中,成像系统包括:存储器,该存储器被配置为存储可执行指令;和一个或多个处理器,该一个或多个处理器被配置为执行该可执行指令。在一些示例性实施方案中,该一个或多个处理器被配置为从第一图像传感器获得具有与物体相关联的背景的视觉对象的第一图像。在一些示例性实施方案中,该一个或多个处理器被进一步被配置为确定第一图像中的视觉对象与第一图像中的背景之间的特性差异,并且基于确定的特性差异从第一模式和第二模式中选择距离确定模式。在一些示例性实施方案中,该一个或多个处理器被进一步被配置为基于所选的距离确定模式计算到物体的距离,并且基于计算的到物体的距离来控制第二图像传感器以捕获物体的第二图像。
附加地或另选地,在成像系统的一些实施方案中,为了确定特性差异,该一个或多个处理器被配置为确定视觉对象的第一强度与背景的第二强度之间的强度差异。
附加地或另选地,在成像系统的一些实施方案中,为了选择距离确定模式,该一个或多个处理器被配置为响应于强度差异大于或等于阈值,选择第一模式作为距离确定模式。另选地,在成像系统的一些示例性实施方案中,为了选择距离确定模式,该一个或多个处理器被配置为响应于强度差异小于阈值而选择第二模式作为距离确定模式。
附加地或另选地,在成像系统的一些实施方案中,第一模式包括用于计算视觉对象在第一图像中的深度作为到物体的距离的指令。
附加地或另选地,在成像系统的一些实施方案中,第二模式包括指令,该指令用于确定物体在第一图像中的第一位置,从第二图像传感器获得物体的第三图像,确定物体在第三图像中的第二位置,并且根据第一位置和第二位置计算到物体的距离。
附加地或另选地,在成像系统的一些实施方案中,该一个或多个处理器被进一步被配置为基于第一图像传感器和第二图像传感器的成像距离来计算到物体的距离。
附加地或另选地,在成像系统的一些实施方案中,为了根据第一位置和第二位置计算物体的距离,该一个或多个处理器被配置为基于第一位置计算第一图像的第一图像偏移,基于第二位置计算第二图像的第二图像偏移,并且基于第一图像偏移和第二图像偏移计算物体的距离。
附加地或另选地,在成像系统的一些实施方案中,该一个或多个处理器进一步被配置为基于计算的到物体的距离来改变第二图像传感器的聚焦位置。
附加地或另选地,在成像系统的一些实施方案中,该一个或多个处理器被进一步被配置为从第二图像传感器获得来自改变的聚焦位置的物体的第二图像,并对第二图像解码以提取在物体中编码的信息。
在一些示例性实施方案中,提供了一种成像装置。在示例性实施方案中,装置包括第一图像传感器、第二图像传感器和控制器。在一些示例性实施方案中,第一图像传感器被配置为捕获具有与物体相关联的背景的视觉对象的第一图像。在一些示例性实施方案中,控制器被配置为从第一图像传感器获得第一图像,确定第一图像中的视觉对象与第一图像中的背景之间的特性差异,并且基于确定的特性差异从第一模式和第二模式中选择距离确定模式。在一些示例性实施方案中,控制器被进一步被配置为基于所选的距离确定模式计算到物体的距离,并且基于计算的距离控制第二图像传感器捕获物体的第二图像。
附图说明
因此,已经概括地描述了本公开的实施方案,现在将参考附图,这些附图未必按比例绘制,并且其中:
图1A示出了根据本公开的示例性实施方案的示例性多传感器成像系统的框图;
图1B示出了根据本公开的示例性实施方案的示例性多传感器成像引擎的框图;
图2示出了根据本公开的示例性实施方案的示例性多传感器成像装置的框图;
图3示出了根据本公开的示例性实施方案的与示例性多传感器成像装置相关联的视场的可视化;
图4A示出了根据本公开的示例性实施方案的示例性多图像传感器成像装置的透视图;
图4B示出了根据本公开的示例性实施方案的示例性多传感器成像装置的图像传感器的透视组件视图;
图5示出了根据本公开的示例性实施方案的示例性多传感器成像装置的图像传感器的另一透视组件视图;
图6示出了根据本公开的示例性实施方案的多传感器成像装置的瞄准器投影;
图7示出了根据本公开的示例性实施方案的描绘了成像过程的示例性操作的流程图;
图8示出了根据本公开的示例性实施方案的流程图,该流程图描绘了用于在多成像器环境中聚焦控制的过程的示例性操作;
图9A示出了通过近场图像传感器捕获的用于确定视觉对象与物体的背景之间的强度差异的示例性图像;
图9B示出了用于测量到场景中的物体的距离的示例性方案;并且
图10示出了根据本公开的示例性实施方案的流程图,该流程图描绘了具有基于图像差异的自动聚焦选择的成像方法的的示例性操作。
具体实施方式
在下文中现在将参考附图更全面地描述本发明的实施方案,在附图中示出了本公开的一些但不是全部的实施方案。实际上,本公开的实施方案能够以许多不同的形式体现,并且不应该被解释为限于本文所阐述的实施方案;相反,提供了这些实施方案,使得本公开将满足适用的法律要求。在全篇内容中,类似的标号指代类似的元件。
成像设备和系统已在比单纯的摄影更复杂和更先进的领域中得到应用。一直需要改进这些设备和系统的成像能力以适应支持新的能力。虽然一些解决方案已经提出了在现有配置中的误差和噪声最小化,但是其它解决方案旨在添加更多部件以支持新的能力。一种此类解决方案涉及使用多个图像传感器来对场景的不同方面进行成像。每个图像传感器需要不同的聚焦机构来以合适的清晰度捕获视场。适当的聚焦选择需要估计待捕获的物体的深度。然而,由于成像条件的变化,适合于一种类型的成像条件的深度估计技术可能不适用于在其它类型的成像条件下估计物体的深度。因此,依赖于仅一种类型的深度估计技术可能不足以满足不同成像条件中的成像要求。因此,此类成像设备和系统对于图像捕获具有有限的可操作性。
成像装置(诸如标记读取器)用于各种场景,每个场景都要求满足一组特定的成像要求,以便可连续执行与标记读取器相关联的操作,诸如符号解码。由于成像读取器的应用领域多种多样,因此存在大量使用此类装置的成像条件。这些装置的可操作性受到它们能够成功处理所捕获的图像的成像条件类型的限制。有效的图像处理需要有效的图像捕获,而图像捕获又受若干成像因素(诸如聚焦、曝光、照明等)的控制。此外,对于此类装置,优选的是在尽可能短的持续时间内执行图像捕获和图像处理。缩短此持续时间的一种方法是通过使用高效的算法和硬件来加快图像处理任务。然而,考虑到可用于此类装置的有限形状因数、重量和电源,此类升级存在限制。因此,对于受形状因数和/或尺寸和可用电源限制的设备,期望捕获适于图像处理的图像所花费的时间尽可能短。为此,期望调节光学部件所需的时间较短,使得图像传感器快速聚焦到物体上而无需额外部件。
成像装置和系统利用视觉对象(诸如瞄准器投影)来确定到被成像的物体的距离,使得图像传感器可以因此基于所确定的到物体的距离聚焦到物体上。通常,当前场景条件诸如当用于高环境光环境时可能导致无法将瞄准器投影与背景区分开来的情况。因此,将成像装置正确地聚焦到被成像的物体成为挑战。即使预定的聚焦位置/步长也可能不是有益的,因为直接搜索合适的焦点可能需要额外的时间和处理,这可以延迟整体图像捕获过程。
本文描述的一些实施方案涉及在包括多个图像传感器的多图像传感器环境中的自动聚焦选择。本文描述的一些实施方案提供用于计算从成像系统到目标或物体的距离以确定多图像传感器环境的一个或多个光学部件的自动聚焦设置的装置。一些实施方案利用瞄准器投影使物体或目标沿着期望的轴线居中。瞄准器投影可以基于结构化光束,该结构化光束沿着成像系统的光轴将图案投射到场景中的一个或多个区域上。如果物体或目标接近含有光轴的水平平面,则这允许物体或目标焦点对准。举例来说,一些示例性的瞄准器图案形状可以包括但不限于与光轴重合的激光束(光斑)、与含有光轴的水平平面重合的激光扇形(线)以及两条(例如)平行的、间隔开的线,其中一条线位于上方并且一条线位于含有光轴的水平平面下方。当物体或目标位于两条线之间时,其在对应图像传感器上的所得图像是焦点对准的。
本文描述的一些实施方案利用由成像引擎的近场图像传感器捕获的图像,以确定瞄准器投影是否与背景区分开,并且基于近场图像中捕获的瞄准器与近场图像中捕获的背景之间的强度差异来执行距离确定模式的选择。实施方案进一步根据所选的模式执行对到物体或目标的距离的估计,由此基于估计的距离执行在远场中的成像引擎的聚焦选择。实施方案进一步利用聚焦调整的远场图像传感器来捕获物体或目标的图像以进行进一步处理。例如,所捕获的图像可以用于对在物体或目标中编码的信息进行解码。在一些示例性实施方案中,由聚焦调整的远场图像传感器捕获的图像可以与由近场图像捕获的图像组合以产生立体图像。一些实施方案可利用多个近场图像传感器和多个远场图像传感器,并且用于距离估计的过程可以扩展为每对近场图像传感器和远场图像传感器的图像差异计算的累积。在一些示例性实施方案中,用于确定特性差异的处理可以针对每个近场图像传感器进行平均,使得正确确定用于选择适当距离确定模式的触发因素。在一些示例性实施方案中,对于所有近场图像传感器和远场图像传感器,对图像差异的处理也可以被平均。
在一些实施方案中,可以触发一个或多个事件,而指示使用诸如瞄准器投影的视觉对象可以需要距离估计的情况。在这方面,可以利用视觉对象与其背景之间的一个或多个特性差异来确定场景中的照明条件。如果照明条件指示视觉对象以可接受的水平与背景区分开,则可以依赖较不严格的距离估计方法以计算到物体或目标的距离。例如,可以确定对应于近场图像中的视觉对象的像素和对应于近场图像中的背景的像素(尤其是视觉对象的边界像素附近的像素)之间的强度差异以确定照明条件。以类似的方式,可以利用有助于确定视觉对象和背景的区别性的其它参数。
在一些示例性实施方案中,如果照明条件指示视觉对象不能以可接受的水平与背景区分开,则可以利用用于确定成像引擎的每个图像传感器的图像之间的图像差异的过程。为此,可以对近场图像进行解码以确定物体或目标在近场图像中的位置。并行地,可以捕获和解码来自远场图像传感器的另一图像,以确定物体或目标在远场图像中的位置。然后,图像差异可以根据物体或目标在两个图像中的位置来表达,该位置又可以用于确定到物体或目标的距离。因此,可以确定远场图像传感器的对应聚焦位置,并且可以从该聚焦位置对物体或目标进行成像以捕获物体或目标的可解码图像。
在此类情况下,对另一距离估计模式的改变有助于节省直接搜索聚焦位置所需的相当多的时间和资源。这提高了成像装置用于解码信息的响应时间。此外,由于示例性实施方案不需要聚焦机构(诸如聚焦电机)的不必要移动,因此示例性实施方案产生所捕获的图像中的显著功率节省和/或噪声降低。
一些实施方案利用由多传感器成像引擎的立体相机捕获的图像之间的差异来计算到物体的距离。从图像差异获得距离需要在确定差异之前对来自立体相机的图像进行校正。这将图像归一化,因此它们似乎从并行、匹配的相机中取得,无论其实际外在和固有参数如何。这允许将差异简单地测量为校正图像之间的水平特征偏移。根据图像中对象特征的这种水平差异测量,可以利用诸如平常的三角测量操作的合适技术来确定到物体的距离。确定的距离又可以用于针对多传感器成像引擎的一个或多个图像传感器进行适当聚焦选择。
此类实施方案使用最小的额外计算提供有效的聚焦选择。此类实施方案的操作以可能使得成功完成图像处理任务(诸如标记或符号扫描)的方式来捕获图像,同时增加在包括足以成功处理的数据的期望操作时间范围内捕获图像的可能性。通过实施本文描述的各种示例性实施方案,在解决由使用多个传感器和改变成像条件引起的挑战的同时,维持或改进成像装置的操作效率。
在一些实施方案中,可以修改或进一步放大上述操作中的一些操作。此外,在一些实施方案中,还可包括附加的任选操作。可以任何顺序和任何组合执行对上述操作的修改、放大或添加。
[定义]
术语“照明”是指由限定视场内的照明源产生的一条或多条光线。在至少一个示例性上下文中,照明包括由对应照明源产生的一个或多个照明脉冲。在一些实施方案中,基于“限定脉冲频率”产生照明,该“限定脉冲频率”是指由照明源产生的照明脉冲的速率。附加地或另选地,在一些实施方案中,基于“限定脉冲相位”产生照明,该“限定脉冲相位”是指激活周期,照明源在该激活周期内产生对应照明。因此,照明周期可指与照明脉冲相对应的照明源保持激活的持续时间。
术语“照明源”(也称为“照明器源”或“照明器”)是指被配置为在期望视场内产生照明的一个或多个光生成硬件、设备和/或部件。照明源的非限制性示例包括一个或多个发光二极管(LED)、激光器等。一个或多个照明源可专用于或共同用于多图像传感器系统的每个图像传感器和/或投影光学器件。
术语“近场照明源”是指被配置为产生照明以照亮与近场图像传感器相关联的近视场的照明源。在至少一个示例性上下文中,近场照明源被配置为与远场照明源相比在更宽的视场中产生照明。
术语“远场照明源”是指被配置为产生照明以照亮与远场成像器相关联的远视场的照明源。在至少一个示例性上下文中,远场照明源被配置为与近场照明源相比在更窄的视场中产生照明。
术语“近场照明”是指由近场照明源产生的特定照明。在一些实施方案中,近场照明与由近场图像传感器捕获的近视场的照明相关联。
术语“远场照明”是指由远场照明源产生的特定照明。在一些实施方案中,远场照明与由远场图像传感器捕获的远视场的照明相关联。
术语“成像器”或“成像模块”是指被配置用于捕获表示特定视场的图像的一个或多个部件。在至少一个示例性上下文中,成像器包括限定特定视场的至少一个光学部件(例如,透镜和/或相关联外壳)。附加地或另选地,在至少一个示例性上下文中,成像器包括图像传感器,该图像传感器被配置为基于诸如经由光学部件与图像传感器接合的光来输出图像。
术语“图像传感器”是指被配置为基于入射在图像传感器上的光来生成由数据对象表示的图像的一个或多个部件。在一些此类示例性上下文中,图像传感器将与图像传感器交互的光波转换为表示由传感器输出的图像的信号。
术语“近场图像传感器”是指被配置用于捕获近视场的图像的图像传感器。在至少一个上下文中,近场图像传感器包括限定近视场的至少一个近场光学部件,和电子传感器。在至少一个示例性上下文中,近场图像传感器可以包括全局快门。在一些示例性上下文中,近场图像传感器可以包括卷帘快门。术语“近场图像”是指由近场图像传感器生成的电子数据,该电子数据体现近视场中场景的所捕获的表示。
术语“远场图像传感器”是指被配置用于捕获远视场的图像的图像传感器。在至少一个上下文中,远场图像传感器包括限定远视场的至少一个远场光学部件,和电子传感器。在至少一个示例性上下文中,远场图像传感器可以包括卷帘快门。在一些示例性上下文中,远场图像传感器可以包括全局快门。术语“远场图像”是指由远场图像传感器生成的电子数据,该电子数据体现远视场中场景的所捕获的表示。
术语“曝光时间段”或简称为“曝光”是指表示图像传感器被配置用于暴露于即将到来的光的时间长度的电子数据。在至少一个示例性实施方案中,成像器的图像传感器被配置为利用可变曝光时间,该可变曝光时间可被设定为特定曝光时间值。
术语“视觉对象”是指由成像器投影到场景中以帮助图像捕获的投影图案或对象。在至少一个示例性实施方案中,视觉对象可以是瞄准器投影(下文也称为瞄准器)。
术语“物体”或“目标”是指正在成像的场景中的一个或多个感兴趣区域。在一些示例实施方案中,物体可与正在成像的场景的背景在光学上区分开来。
术语“特性差异”是指图像中两个区域之间的差异,表示为每个区域的图像特性之间的差异。此类图像特性可以包括但不限于强度、清晰度、像素计数等。在一些示例性实施方案中,图像中的两个区域之间的特性差异可以对应于图像中的两个区域之间的强度差异。在一些示例性实施方案中,图像中的两个区域之间的特性差异可以由每个此类区域的像素间分析确定。
本公开所属领域的技术人员在受益于前述描述和相关附图中呈现的教导之后,将想到本文所阐述的本公开的许多修改和其他实施方案。因此,应当理解,实施方案不限于所公开的特定实施方案,并且修改和其他实施方案旨在被包括在所附权利要求的范围内。此外,尽管上述描述和相关附图在元件和/或功能的某些示例组合的语境中描述了示例实施方案,但应当理解,在不脱离所附权利要求书的范围的情况下,可由另选的实施方案提供元件和/或功能的不同组合。就这一点而言,例如,还可设想与上文明确描述的那些不同的元件和/或功能组合,如可在所附权利要求中的一些中所示的那样。尽管本文采用了特定术语,但它们仅以一般性和描述性意义使用,而不是出于限制的目的。
图1A示出了根据本公开的示例性实施方案的示例性多传感器成像系统10(在下文中,也称为成像系统10)的框图。多传感器成像系统10包括与控制器20通信地耦接的成像引擎100、通信接口40、激活部件60和一个或多个外围部件80。在一些示例性实施方案中,成像系统10可包括比图1A所示更少或更多的部件。成像系统10被配置用于使用一个或多个照明源在一个或多个视场中捕获目标的一个或多个图像。成像系统10处理一个或多个图像以执行一个或多个图像处理任务,诸如标记读取。因此,在本公开的一些示例性实施方案中,成像系统10可部分或全部体现为标记或符号读取器或能够读取标记和类似符号的手持设备。图2中示出成像系统10的一个示例性实施方案,其细节将在本公开的后续部分中描述。
控制器20可被配置为执行与成像系统10相关联的一个或多个控制操作。例如,控制器20可控制成像引擎100,以引起在成像引擎100的视场中对目标的图像捕获。附加地,控制器20可处理所捕获的图像以执行一个或多个图像处理任务。控制器20可体现为包括一个或多个处理器和存储器的中央处理单元(CPU)。在一些示例性实施方案中,控制器20可使用一个或多个微控制器单元(MCU)实现为各种硬件处理装置中的一者或多者,诸如协处理器、微处理器、数字信号处理器(DSP)、具有或不具有伴随的DSP的处理元件,或各种其他处理电路,包括集成电路,诸如例如ASIC(专用集成电路)、FPGA(现场可编程门阵列)、硬件加速度器、专用计算机芯片等。在一些实施方案中,控制器20的处理器可包括一个或多个处理核,该一个或多个处理核被配置为独立地操作。多核处理器可在单个物理封装件内实现多重处理。附加地或另选地,处理器可包括经由总线串接配置的一个或多个处理器,以实现对指令、流水线和/或多线程的独立执行。
存储器可为非暂态的,并且可包括例如一个或多个易失性存储器和/或非易失性存储器。例如,存储器可为电子存储设备(例如,计算机可读存储介质),其包括被配置为存储可由机器(例如,计算设备如处理器)检索的数据(例如,比特)的门。存储器可被配置为存储用于使装置能够根据本发明的示例性实施方案执行各种功能的信息、数据、内容、应用、指令等。例如,存储器可被配置为缓冲数据以供处理器处理。附加地或另选地,存储器可被配置为存储指令以供处理器执行。
处理器(和/或协处理器或辅助该处理器或以其他方式与该处理器相关联的任何其他处理电路)可经由总线与存储器通信,以用于在成像系统10的部件之间传递信息。处理器可被配置为执行存储在存储器中或可以其他方式供该处理器访问的指令。附加地或另选地,处理器可被配置为执行硬编码功能。因此,无论通过硬件方法或软件方法配置,还是通过它们的组合配置,处理器均可表示能够根据本发明的实施方案执行操作同时进行相应配置的实体(例如,以电路形式物理地体现)。因此,例如,当处理器体现为ASIC、FPGA等时,该处理器可以为用于进行本文所述的操作的专门配置的硬件。另选地,又如,当处理器体现为软件指令的执行器时,指令可将处理器专门配置为在执行指令时执行本文所述的算法和/或操作。除了别的以外,处理器还可包括被配置为支持控制器20的操作的时钟、算术逻辑单元(ALU)和逻辑门。
通信接口40可包括用于支持向和从成像系统10的通信的输入接口和输出接口。通信接口40可为任何装置,诸如以硬件或者硬件和软件的组合体现的设备或电路,其被配置为向/从与成像系统10进行通信的通信设备接收和/或传输数据。就这一点而言,通信接口40可包括例如天线(或多个天线)并且支持用于实现与无线通信网络进行通信的硬件和/或软件。附加地或另选地,通信接口40可包括用于与天线进行交互以引起经由天线传输信号或处理经由天线所接收的信号的接收的电路。在一些环境中,通信接口40可另选地或附加地支持有线通信。因此,例如,通信接口40可包括通信调制解调器和/或用于支持经由电缆、数字用户线(DSL)、通用串行总线(USB)或其他机制进行通信的其他硬件和/或软件。
激活部件60可包括被配置为指示用户发起(和/或终止)期望功能的硬件、软件、固件和/或它们的组合。例如,激活部件60可传输激活信号以使控制器20开始成像引擎100的操作,例如开始由一个或多个照明源进行照亮,和/或由图像传感器捕获一个或多个图像。附加地或另选地,激活部件60可向控制器20传输停用信号以终止对应的功能,例如停止经由图像传感器的扫描。在一些实施方案中,激活部件60体现为一个或多个按钮、触发器和/或设置在底座的主体中或主体上的其他物理部件。例如,在至少一个示例性上下文中,激活部件60体现为一个或多个“触发器”部件,当操作者接合这些触发器部件时(例如,当操作者挤压触发器时),触发器部件将信号传输到控制器20以发起对应的功能。在一些此类实施方案中,当操作者将部件脱离接合时(例如,当操作者释放触发器时),激活部件可向控制器20传输停用信号以停止此类功能。另选地或附加地,在至少一些实施方案中,激活部件60体现为不具有由操作者直接接合的任何部件。例如,当成像系统10体现为成像装置时,激活部件60可体现为硬件和/或软件或它们的组合,用于检测成像装置已被升高和/或定位到预定义“扫描”位置,和/或从该位置降低以触发停用。另选地或附加地,激活部件60可体现为成像系统10的用户界面元件。在此类实施方案中,体现为用户界面元件的激活部件60可被配置为在用户界面上接收来自用户的输入,并继而向控制器20传输对应的命令。
一个或多个外围部件80包括成像系统10的其他结构和功能元件,诸如例如显示设备、用户界面、壳体、底座、电源等。外围部件80中的一个或多个外围部件可由控制器控制,并且可按照控制器20提供的指令或控制进行操作。
图1B示出了根据本公开的示例性实施方案的示例性多传感器成像引擎(下文也称为“成像引擎”)。具体地讲,如图所示,示例性多传感器成像引擎体现为多传感器成像引擎100。多传感器成像引擎100包括多个图像传感器,例如,近场图像传感器和/或远场图像传感器,这些图像传感器被配置用于分别在与近场图像传感器相关联的近视场和与远场图像传感器相关联的远视场中捕获图像数据对象。在至少一个示例性上下文中,多传感器成像引擎100被配置用于捕获图像以用于在不同范围内进行标记读取的目的,该不同范围诸如使用近场图像传感器的近距离范围和使用远场图像传感器的远距离范围。
如图所示,多传感器成像引擎100包括近场图像捕获光学器件104A。近场捕获光学器件104A可体现为一个或多个透镜和/或其他光学部件,该一个或多个透镜和/或其他光学部件被配置为使得光能够横向透过对应的图像传感器(具体地讲,近场图像传感器102A)并与其交互。就这一点而言,近场图像捕获光学器件104A可限定可由近场图像传感器102A捕获的特定视场。在一些实施方案中,近场图像捕获光学器件104A限定与第一聚焦范围相关联的近视场,使得位于第一聚焦范围处和/或可确定的偏移内的对象在由近场图像传感器102A捕获的图像中可以清晰可见。
另外,如图所示,多传感器成像引擎100包括远场图像捕获光学器件104B。远场图像捕获光学器件104B可体现为一个或多个透镜和/或其他光学部件,该一个或多个透镜和/或其他光学部件被配置为使得光能够横向透过对应的图像传感器(具体地讲,远场图像传感器102B)并与其交互。就这一点而言,远场图像捕获光学器件104B可限定可由远场图像传感器102B捕获的第二视场。在一些实施方案中,远场图像捕获光学器件104B限定与第二聚焦范围相关联的远视场,使得位于第二聚焦范围处和/或可确定的偏移内的对象在由远场图像传感器102B捕获的图像中可以清晰可见。在一些此类实施方案中,近视场宽于远视场,使得所捕获数据更多表示多传感器成像引擎100的视场内的环境。远视场可窄于近视场,并且聚焦在更远的范围上,以使得能够更清晰地捕获位于比可在近视场中清晰捕获的对象更大范围处的对象。
在一些示例性实施方案中,近场成像传感器102可包括全局快门以提供增强的运动容差。近场成像传感器102A可使用大视场(FOV),该大FOV启用诸如但不限于光学字符识别(OCR)、图像重建、机器学习等的应用。在一些实施方案中,远场传感器102可包括卷帘快门。远场图像传感器102B使用小FOV来改进远场的采样。附加地,近场图像传感器102A和远场图像传感器102B中的每一者可以具有相关联的聚焦机构。该聚焦机构可包括聚焦方案,该聚焦方案控制一个或多个聚焦透镜沿图像传感器(102A或102B)的光轴方向的移动。为此,在一些实施方案中,聚焦方案可包括一个或多个运动致动器,例如,步进电机或压电致动器。在一些示例性实施方案中,聚焦方案可内置在透镜中,例如内置在可变(例如,液体)透镜中。
聚焦方案可在每个视场中提供多个离散聚焦位置,并且电机可将特定图像传感器的聚焦光学器件移动到离散聚焦位置中的每个离散聚焦位置以表现出聚焦机构。例如,在一些示例性实施方案中,为了改变远场图像传感器102B的聚焦,对应的电机可将远场图像传感器102B的相关联的聚焦光学器件移动到远场中的三个离散聚焦位置。每个聚焦机构的操作可由处理部件(诸如图1A的控制器20或处理器202)控制。在一些示例性实施方案中,在透镜具有内置聚焦方案的情况下,处理部件可使用估计的距离数据来控制透镜的聚焦。
在一些实施方案中,例如如图所示,每个图像传感器(或其子集)与用于产生照明的一个或多个部件相关联,该照明被配置用于照亮由图像传感器限定的视场。例如,如图所示,多传感器成像引擎100另外包括近场照明源106A和对应的近场投影光学器件108A。近场照明源106A被配置为在近场投影光学器件108A的光轴方向上产生光。该光透过近场投影光学器件108A折射以产生近场照明,该近场照明可基于近场投影光学器件108A的配置和设计产生为期望的图案。就这一点而言,由离开近场投影光学器件108A的光产生的照明可照亮特定视场,诸如可由近场图像传感器102A捕获的近视场。
类似地,多传感器成像引擎100另外包括远场照明源106B和对应的远场投影光学器件108B。远场照明源106B被配置为在远场投影光学器件108B的方向上产生光。该光透过远场投影光学器件108B折射以产生远场照明,该远场照明可基于远场投影光学器件108B的配置和设计产生为期望的图案。就这一点而言,远场照明可照亮特定视场,诸如可由远场图像传感器102B捕获的远视场。
附加地,在一些实施方案中,多传感器成像引擎100进一步包括瞄准器照明源110。瞄准器照明源110被配置为在瞄准器投影光学器件112的方向上产生光。例如,瞄准器照明源包括一个或多个激光二极管和/或高强度LED,该一个或多个激光二极管和/或高强度LED被配置为产生足够强效和/或集中的光。光透过瞄准器投影光学器件112折射以产生瞄准器照明,该瞄准器照明可基于瞄准器投影光学器件112的配置和设计产生为期望的图案。在一个示例上下文中,为了例如条形码扫描的目的,瞄准器图案可作为激光线图案、激光点图案产生,作为在其间包围有限区域的两条平行线等产生。
多传感器成像引擎100还包括保护窗口114。保护窗口114包括一个或多个光学部件,该一个或多个光学部件被配置为使得产生的光能够离开引擎100,并且使得入射光能够例如透过图像捕获光学器件104A和104B接收以与对应的图像传感器102A和102B交互。
应当理解,在其他实施方案中,多传感器成像引擎可包括任何数量的图像捕获光学器件、图像传感器、照明源和/或它们的任何组合。就这一点而言,成像引擎100可被扩展以捕获任何数量的视场,每个视场可与被设计用于具体地照亮对应视场的对应照明器相关联。照明源中的一个或多个照明源可不利地影响另一个照明器的操作。在此类情况下,当一个此类照明源激活时,可在照明源的照明脉冲之间激活受不利影响的图像传感器,如本文所述。此类操作可实施于照明源和图像传感器的任何组合。
在一些实施方案中,多传感器成像引擎100包括用于控制多传感器成像引擎100的一个或多个部件的激活的一个或多个处理部件(例如,处理器和/或其他处理电路)。例如,在至少一个示例性实施方案中,多传感器成像引擎100包括处理器,该处理器被配置用于对近场照明源106A和/或远场照明源106B的照明脉冲进行定时,和/或控制近场图像传感器102B和/或远场图像传感器102A的曝光。在一些此类上下文中,处理器体现为无数处理电路具体实施中的任一个具体实施,例如FPGA、ASIC、微处理器、CPU等。在至少一些实施方案中,处理器可与具有计算机编码指令的一个或多个存储器设备通信,这些计算机编码指令在由处理器执行时实现此类功能。在一些实施方案中,应当理解,处理器可包括一个或多个子处理器、远程处理器(例如,“云”处理器)等,并且/或者可与用于执行此类功能的一个或多个附加处理器通信。例如,在至少一个实施方案中,处理器可与成像装置内的另一个处理器(例如,相对于图2所示和所述的处理器202)通信和/或结合该另一个处理器操作。
图2示出了根据本公开的示例性实施方案的示例性多传感器成像装置200。如图所示,多传感器成像装置200包括用于容纳装置的各种部件的装置底座210。就这一点而言,应当理解,装置底座可体现为无数底座设计中的任一种设计、使用无数材料中的任一种材料等以适于定位多传感器成像装置200的各种部件以进行操作。在至少一个示例性上下文中,装置底座210可体现为手持式装置底座、可穿戴底座等。
多传感器成像装置200包括如上文相对于图1B所述的多传感器成像引擎100。多传感器成像装置200还包括处理器202。处理器202(和/或任何其他协处理器和/或辅助处理器202和/或以其他方式与处理器202相关联的处理电路)可向多传感器成像装置200提供处理功能。就这一点而言,处理器202可以如关于图1A的控制器20所讨论的无数方式中的任一种方式来体现。
在一些示例性实施方案中,处理器202被配置为提供用于操作多传感器成像装置200的一个或多个部件的功能。例如,处理器202可被配置用于激活远场照明源106B、近场照明源106A和/或瞄准器照明源110。附加地或另选地,在一些实施方案中,处理器202被配置用于激活近场图像传感器102A和/或远场图像传感器102B以使对应的图像传感器曝光,和/或用于读出所捕获数据以基于在曝光期间的所捕获数据来生成图像。附加地或另选地,在一些实施方案中,处理器202被配置为例如基于一个或多个图像处理任务来处理所捕获的图像。在一个此类示例性上下文中,处理器202被配置为执行从所捕获的图像中检测和解码视觉标记(诸如1D和/或2D条形码)的尝试。就这一点而言,处理器202可被配置为利用视觉标记解析算法和/或视觉标记解码算法来提供此类功能。
附加地或另选地,任选地在一些实施方案中,多传感器成像装置200还包括激活部件206。激活部件206可以如关于图1A的激活部件60所讨论的无数方式来体现。
附加地或另选地,任选地在一些实施方案中,成像装置200进一步包括显示器208。显示器208可体现为LCD、LED和/或被配置用于由装置200的一个或多个部件提供的数据的其他屏幕设备。例如,在一些实施方案中,显示器208被配置用于渲染用户界面,该用户界面包括文本、图像、控制元素和/或由处理器202提供用于渲染的其他数据。在一些实施方案中,例如,显示器208体现为与装置底座210的表面集成并且对操作者可见的LCD和/或LED监视器,例如以提供从条形码解码的信息和/或与从条形码解码的此类信息相关联的信息。在一个或多个实施方案中,显示器208可被配置为接收用户交互,和/或可基于用户交互向处理器202传输一个或多个对应的信号以触发功能。在一些此类实施方案中,显示器208提供体现激活部件206的用户界面功能,例如以使得操作者能够经由与用户界面的交互来发起和/或终止扫描功能。
附加地或另选地,任选地在一些实施方案中,成像装置200进一步包括存储器204。存储器204可提供存储功能,例如以存储由多传感器成像装置200处理的数据和/或用于提供本文所述的功能的指令。在一些实施方案中,处理器202可经由总线与存储器204通信,以在装置的部件之间传递信息和/或检索用于执行的指令。存储器204可以参考图1A的控制器20所讨论的无数方式来体现。存储器204可被配置为存储用于使成像装置200能够根据一些示例性实施方案执行各种功能的信息、数据、内容、应用、指令等。在一些实施方案中,存储器204包括用于由处理器202执行的计算机编码指令,例如以执行本文所述的功能和/或结合经由处理器202执行的硬编码功能。例如,当处理器202体现为软件指令的执行器时,这些指令可将处理器202专门配置为在执行这些指令时执行本文所述的算法和/或操作。
在本公开的一些示例性实施方案中,处理器202和存储器204可一起体现为成像控制装置,因此可与成像装置200固定或可拆卸地耦接,或者可部分或完全位于成像装置200之外。在一些实施方案中,成像控制装置可体现为与成像装置200操作地耦接的集成电路。
图3示出了可由示例性多传感器图像装置捕获的视场的可视化。例如,如图3所示,示出了可由多传感器成像装置200捕获的近视场302和远视场304。如图所示,近视场302宽于远视场,使得在近视场302内可捕获比远视场304更多的环境。
此外,如图所示,远视场304比近视场302延伸得更远。就这一点而言,与近视场302相比,远视场304的窄性质可使得能够捕获环境的特定部分的更详细表示。在一些实施方案中,多传感器成像装置200的对应近场图像传感器和对应远场图像传感器可捕获近视场302和远视场304。近视场302可与距多传感器成像装置200中对应的图像传感器特定距离处的近焦范围相关联。附加地或另选地,远视场304可与距多传感器成像装置200中对应的图像传感器另一距离处的远焦范围相关联。就这一点而言,近场聚焦范围可近于远场聚焦范围,使得与近场图像传感器相比,更远离多传感器成像装置200的对象在经由远场图像传感器捕获时具有更好的聚焦,从而允许扩展的范围。
多传感器成像装置200可被配置用于提供特别用于照亮视场302和304中的每一者的照明。就这一点而言,照明源可被具体设计成匹配对应的图像传感器的视场,使得照明适当地照亮对应视场而不会溢出或不足。在照明期间利用另一个照明源产生照明和在非对应图像传感器期间进行捕获可导致溢出(例如,当在近场照明脉冲期间使用远场图像传感器进行捕获时)和/或不足(例如,当在远场照明脉冲期间使用近场图像传感器进行捕获时),这可诸如由于照明过多和/或照明不足而影响所捕获的图像中的数据的质量,如所述。就这一点而言,可产生近场照明以便基本上或完全照亮近视场302。可根据照明图案产生近场照明,该照明图案充分照亮整个近视场302以供捕获。
可产生远场照明以便基本上或完全照亮远视场304。可根据照明图案产生远场照明,该照明图案充分照亮整个远视场304以供对应的远场图像传感器捕获。远场照明可照亮近视场302的仅一定百分比,例如近视场302的中心百分比(例如,25%、50%等)。
近场照明、远场照明和瞄准器照明可以以确保相关联图像传感器之间的干扰为零或最小的方式相对于彼此同步。在这方面,对应的照明源可以由控制器20/处理器202适当地控制,以确保有效的图像捕获。
本文描述的一些示例性实施方案提供了一种多图像传感器成像装置(在下文中也称为装置),该装置具有基于装置的多个图像传感器的图像之间的图像差异的自动聚焦选择机构。图4A示出了根据本公开的示例性实施方案的示例性多图像传感器成像装置的透视图。多传感器成像装置400可以具有多个图像传感器,装置400的每个图像传感器可以具有相关联的光学元件,并且每个图像传感器与其相关联的光学元件一起可以构成单独的成像组件。为了简洁起见,多传感器成像装置400已被示出为具有两个图像传感器组件400A和400B。然而,可以考虑在本公开的范围内,根据要求,多传感器成像装置400中可能存在更多的此类图像传感器组件。装置400进一步包括用于图像传感器400A和400B中的相应一个图像传感器的集成照明光学器件400A1和400B1。在一些示例性实施方案中,图像传感器组件400A可以适合于在装置400的近视场中成像,而图像传感器组件400B可以适合于在装置400的远视场中成像。一个或多个部件可以由传感器组件400A和400B中的每个传感器组件共享,并且因此可以作为装置400中的集成部件提供。例如,可以对传感器组件400A和400B两者共同提供集成瞄准器光学器件。在此类配置中,集成部件可以设置在对应于图像传感器组件400A和400B中的任一个图像传感器的成像组件上。
装置400的每个图像传感器可以具有相关联的光学元件,并且每个图像传感器与其相关联的光学元件一起可以构成单独的成像组件。图4B示出了根据本公开的示例性实施方案的示例性多传感器成像装置400的一个图像传感器的透视组件视图。图4B中所示的示例性成像组件400A可以包括设置或容纳在大体圆柱形镜筒404内的成像光学器件402。成像光学器件402可以包括一个或多个光学透镜,用于将入射辐射聚焦到图像传感器410上以用于图像形成。镜筒404可以可滑动地设置或包含在大体圆柱形套筒406内。套筒406可以固定到成像组件主体408,该成像组件主体可以为图像传感器410等其它物项提供平台。当镜筒404在套筒406内轴向移动时,成像光学器件402可以与图像传感器410焦点对准和离焦。因此,成像光学器件402可以定位到套筒406内的精确期望位置,以便使目标与图像传感器焦点对准。取决于目标相对于成像组件400的位置,可以为成像光学器件402限定用于使目标与图像传感器410焦点对准的多个聚焦位置。如先前所讨论的,控制器可以控制成像光学器件402的移动,以根据目标相对于成像组件400的位置将成像光学器件定位在多个聚焦位置中的一个聚焦位置处。镜筒404被插入到套筒406中并旋转以沿光轴OA改变光学器件402的位置,以将光学器件402精确地定位在相对于图像传感器410的期望位置处。镜筒404可以利用图像光学器件控制器(图4中未示出)在套筒406内移动。在一些示例性实施方案中,成像组件400A可以适合于在成像装置400的近视场中成像。在此类配置中,镜筒404的移动可以被完全或部分地限制,并且可以不存在聚焦机构。在一些此类配置中,可以不存在镜筒404,并且静止透镜可以设置在套筒406中。示例性成像组件400可以包栝一个或多个光源412,用于照亮包栝目标的场景的对应视场。附加地或任选地,在一些示例性实施方案中,成像组件400可以包栝用于将瞄准器作为视觉对象投影到被成像的场景上的瞄准器照明器414A和相关联的瞄准器光学器件414B。瞄准器照明器414A可以包栝一个或多个瞄准器LED,该一个或多个瞄准器LED可以由控制器控制以产生将瞄准器投影为指示器所需的照明。
图5示出了根据本公开的示例性实施方案的示例性多传感器成像装置400的图像传感器的另一透视组件视图。具体地,图5示出了包括照明模块、任选的瞄准器模块和成像模块的成像组件400B的分解透视图500。可以考虑,示例性多传感器成像装置的其它图像传感器可以具有与图5中所示的成像组件类似的结构。根据各种例示性实施方案,照明模块被配置成投影照明图案并且包括成像照明光源组件512A,该成像照明光源组件可以包括一个或多个光源。成像照明光源组件512A可以进一步包括一个或多个光源组,每个光源组包括例如一个或多个光源。在例示性实施方案中,此类光源可以例示性地包括发光二极管(LED)。在各种实施方案中,可使用具有广泛多种波长和滤光器或波长或滤光器的组合中的任一者的LED。在其他实施方案中也可使用其他类型的光源。光源可以例示性地安装到印刷电路板。这可以是相同的印刷电路板,图像传感器510可以例示性地安装在印刷电路板上。
在各种例示性实施方案中,如图5的实施方案所示,照明模块可以包括成像照明光学组件512B。成像照明光学组件512B或照明模块的其它部分可以包括任何各种光学元件,作为例示性示例,诸如一个或多个透镜、一个或多个漫射器、一个或多个反射镜和/或一个或多个棱镜。成像照明光学组件512B可以由此将照明聚焦、漫射、成形或以其它方式朝向目标区域进行投影。照明模块由此可以朝向目标区域或在目标区域上投影照明图案。由此投影的照明图案可以在不同实施方案中包括任何类型或图案的照明。
可以任选地提供瞄准器模块,尤其是当成像组件400A不具有一个此类瞄准器模块时。瞄准器模块可以被配置成用于投影瞄准图案并且包括瞄准器光源514A和瞄准器光学元件514B和514C。例如,瞄准器光源514A可以包括一个或多个发光二极管(LED)和/或瞄准激光器,而瞄准器光学元件可以包括一个或多个孔径514C和一个或多个透镜514A,透镜可以是例如球面透镜、非球面透镜、柱面透镜或变形透镜。瞄准器模块通过孔径514C和光学器件514B从瞄准器光源514A投射光,以将瞄准图案提供到目标上以帮助用图像传感器510捕获目标的图像。例如,瞄准器光源514A可以将光向前投射成半球形图案。LED光源的前表面可以包含集成凸透镜表面,该凸透镜表面被设计成减小离开LED的光的角度发散。由于尽可能多的这种光被引导通过瞄准器孔径514C并且被引导进一步穿过瞄准器光学器件514B。瞄准器光学器件514C可以被设计成将瞄准器孔径的图像产生到位于目标中的标记上。例如,在另一个具体实施中,瞄准器模块可以包括激光器和激光准直器。
成像模块被配置成用于图像捕获并且包括图像传感器510和成像光学器件组件504,该成像光学器件组件可操作用于将图像聚焦到图像传感器510上。图像传感器510可包括适于在全局快门或全帧快门模式下操作或另选地在卷帘快门模式下操作的像素阵列。图像传感器可为以CCD、CMOS、NMOS、PMOS、CID、CMD、背照式技术中的任一者实现的彩色或单色2D固态图像传感器。图像传感器可为渐进式或交错成像器。图像传感器可包含将入射光能量转换成电荷的光敏光电二极管(或像素)的阵列。示例性图像传感器可使用单色图像传感器,该单色图像传感器可包括滤色器元件,该滤色器元件限定分散在整个单色像素阵列中的色敏像素元件。示例性图像传感器设备可包括图像传感器处理器、模数转换器(ADC)和其他电路。成像光学器件组件504可以包括光学部件,诸如用于将光从目标聚焦到图像传感器510上的透镜。
成像组件500的模块可以以同步方式操作以执行图像处理任务。例如,成像照明模块可以在成像模块在照明曝光时间段期间曝光第一帧图像数据时投射照明图案。瞄准器模块可向多图像传感器装置的用户提供指示器,以将目标放置在所指示的区域内以进行有效的图像捕获。
图6示出了根据本公开的示例性实施方案的多传感器成像装置进行的瞄准器投影。在一些示例性实施方案中,多传感器成像装置可以是具有多个成像组件(诸如成像组件400和/或500)的智能手机602。就这一点而言,智能手机603可以具有与该智能手机集成或者可用作添加模块的瞄准器模块,以帮助瞄向标记以进行扫描。
瞄准器模块包括投影模块,投影模块用于将来自光源模块的光束形成为瞄准图案(即,图案)并且用于将图案投影到目标(例如,可解码标记)上。投影模块可以包括透镜(或多个透镜)、孔径和/或衍射光学元件(DOE)以帮助形成图案。在一些实施方案中,投影模块可以包括反射镜(或多个反射镜)以将光束/图案重定向和/或成形。由瞄准器投影模块创建的图案提供关于相机的视场的反馈,使得当图案604投影到目标(例如,条形码606)上时,用户可以理解成像的内容和该图像如何对准。为此,图案可以指示相机的视场的中心、相机的视场的边缘和/或相机的视场的拐角。因此,图案可以包括但不限于,例如:十字、框、线或拐角。在可能的实施方案中,可以利用图案来确定场景的照明条件,使得可以选择合适的距离确定模式以用于成像装置的聚焦。例如,图案的聚焦可以提供关于相机聚焦条形码的能力的信息。
图7示出了根据本公开的示例性实施方案的描绘了成像过程700的示例性操作的流程图。过程700可由参考图1A和图2所描述的成像系统10或成像装置200来实现。过程700包括在702处,通过第一图像传感器捕获具有与物体相关联的背景的视觉对象的第一图像。在物体放置在距成像系统一定距离处的一些示例性实施方案中,在捕获可解码图像以用于进一步图像处理之前确定成像条件是必不可少的。就这一点而言,第一图像传感器可以是适于在近视场中成像的传感器。第一图像传感器可以捕获近视场,该近视场包括视觉对象,诸如由投影装置投影的瞄准器、目标或物体和目标或物体的背景。在如图6所示的示例性上下文中,第一图像传感器可以捕获投影图案604以及目标条形码606和目标条形码606的背景的图像。
过程700进一步包括在704处,确定第一图像中的视觉对象与第一图像中的背景之间的特性差异。处理在702处捕获的图像以检测视觉对象及其背景。随后,执行分析(例如所捕获的图像的逐像素分析)以确定在第一图像中捕获的视觉对象与在第一图像中捕获的背景之间的一个或多个特性差异。在一些示例性实施方案中,确定一个或多个特性差异可以包括确定构成所捕获的图像中的视觉对象的像素与构成所捕获的图像中的背景的像素之间的强度差异。一个或多个特性差异的其它示例可以包括视觉对象的清晰度与背景之间的差异。
过程700可以包括在706处,基于确定的特性差异来从第一模式和第二模式中选择距离确定模式。当在704处确定的特性差异是显著的–例如大于或等于阈值时,这指示视觉对象在视觉上可被成像系统与背景区分开的情形。在此类情形下,很有可能的是,物体也可以借助于视觉对象来聚焦。也就是说,可以使用三角测量方法确定到视觉对象的距离,并且可以使用该距离来确定成像系统在远视场中的对应聚焦位置。到物体的距离(作为到视觉对象的距离)的计算可以被认为是第一距离确定模式。
然而,如果在704处确定的特性差异是不显著的,例如小于阈值,则这对应于场景的成像条件不利于在视觉上将视觉对象与背景区分开的情形。例如,当成像系统用在高环境光环境(诸如室外)中时,被成像场景中的高环境光可能产生在感兴趣区域与背景之间不能很好地区分的所捕获的图像。在此类情形下,如果使用此类所捕获的图像将成像系统聚焦在远场中,则可能的是,由于视觉对象无法追踪而无法确定到视觉对象的距离。因此,在704处确定的特性差异是用于选择合适的距离确定模式的重要触发因素。在视觉对象与背景不能区分开(即特性差异的量值小于阈值)的一些示例性实施方案中,使用第一图像传感器与成像系统的另一图像传感器之间的图像差异确定到物体的距离。使用图像差异确定到物体的距离的此类模式可以被认为是第二距离确定模式,稍后参考图8提供第二距离确定模式的详细描述。
过程700在708处包括基于所选的距离确定模式计算到物体的距离。在从第一模式和第二模式中选择合适的距离确定模式后,相应地根据所选模式计算到物体的距离。稍后参考图8讨论了距离计算的详细描述。
过程700包括在710处,基于计算的到物体的距离来控制第二图像传感器以捕获物体的第二图像。确定的到物体的距离是有助于决定图像传感器的聚焦位置的重要因素。因此,与确定的到物体的距离相对应地确定第二图像传感器(诸如远场图像传感器)的离散聚焦步长。为此,可以通过执行过程700的控制器获取查找表,该查找表提供与到物体的距离对应的聚焦步长。一旦确定了第二图像传感器的聚焦位置,控制器控制第二图像传感器的相关联光学器件移动到确定的聚焦位置,并且第二图像传感器捕获具有物体的场景的图像。因此,在不引发额外步骤或资源的情况下确定第二图像传感器的焦点。此外,相关光学器件的移动仅在需要时执行,而不会引发任何不必要的电机移动,从而节省了宝贵的机载电源并减少由于聚焦调整引起的所得图像中噪声的机会。因此,过程700提供了操作多传感器成像系统/装置的有效措施。因此,执行或利用过程700的装置产生成像和/或后续图像处理任务的改进。
图8示出了根据本公开的至少一个示例性实施方案的流程图,该流程图描绘了用于多成像器环境中的聚焦控制的过程800的示例性操作。过程800可以被认为是过程700的一部分,特别强调对距离确定模式的选择和距离的对应计算。当通过第一图像传感器(诸如近场图像传感器)进行的图像捕获完成并准备好进行进一步处理时,触发过程800。例如,参考图7的过程700,当步骤702处的图像捕获完成时,执行过程700的控制器可以调用过程800,用于对捕获的第一图像进行进一步处理,第一图像包括具有投影在其上的视觉对象的物体和物体的背景的图像。
过程800包括在802处,确定第一图像中的视觉对象的第一强度与第一图像中的背景的第二强度之间的强度差异。作为物体的视觉对象与背景之间的特性差异的一个示例,可以确定视觉对象与背景之间的强度差异。在一些示例性实施方案中,强度差异可以是对应于图像中的视觉对象的像素的像素强度值与对应于图像中的背景的像素的像素强度值之间的差异的指示器。每个像素的强度值可以是灰度图像的单个值或彩色图像的三个值。第一图像的一些或所有像素的强度值可以用于确定如参考图9A所述的强度差异。
图9A示出了由近场图像传感器捕获的示例性图像902,以用于确定视觉对象904与物体906的背景之间的强度差异。图像902可以包括m x n像素阵列。如图9A所示,由坐标(Mp,Ni)、(Mq Ni)、(Mq Nj)和(Mp Nj)定义的区域内的像素对应于视觉对象904,该视觉对象被表示为瞄准器投影。因此,具有位置索引(Mp,Ni)至(Mq,Ni)、(Mq,Ni)至(Mq,Nj)、(Mq,Nj)至(Mp,Nj)和(Mp,Nj)至(Mp,Ni)的像素限定视觉对象906的边界,并且因此可以被认为是视觉对象906的边界像素。具有位置索引(Mp-1,Ni-1)至(Mq+1,Ni-1)、(Mq+1,Ni-1)至(Mq+1,Nj+1)、(Mq+1,Nj+1)至(Mp-1,Nj+1)和(Mp-1,Nj+1)至(Mp-1,Ni-1)的像素对应于紧邻视觉对象904的边界像素的背景的像素。这些像素可以被称为背景像素。在一些示例性实施方案中,边界像素与背景像素之间的强度差异可以基于每个像素对计算,其中每个像素对包括一个边界像素和紧邻该边界像素的一个背景像素。在这方面,可以确定每个像素对的强度差异,并且每个像素对的强度差异的平均值确定视觉对象与背景之间的强度差异。
在一些示例性实施方案中,为了计算视觉对象与背景之间的强度差异,可以计算对应于图像中的视觉对象的所有像素的像素强度值的第一平均值和对应于图像中的背景的所有像素的像素强度值的第二平均值。然后可以将强度差异确定为第一平均值与第二平均值之间的差。在一些情况下,背景可以涵盖在位置上远离视觉对象的边界像素的大量像素。在此类情况下,为了简化计算,可以仅选择对应于背景的那些像素来计算第二平均值,这些像素在距视觉对象的边界像素的阈值接近度内。因此,以前述方式中的任何方式计算的强度差异可以用于确定第一图像中的视觉对象和第一图像的背景是否可以以可接受的清晰度水平区分开来。在这方面,可以将强度差异与阈值进行比较,以确定视觉对象是否可与背景区分开。
返回参考图8,过程800可以包括在804处确定视觉对象与背景之间的强度差异是否大于或等于阈值。阈值可以是可以例如按照操作员的输入或基于成像模式来设置的可配置值。如果在第一图像的图像捕获时的照明条件使得视觉对象与所捕获的图像中的背景区分开,则强度差异可大于或等于阈值。在此类情形下,步骤804处的确定的结果为“是”,并且控制转到步骤806。在步骤806处,过程800包括确定物体在第一图像中的第一位置。可以使用任何合适的图像处理技术和/或其它机器学习技术来确定物体的位置。例如,可以在图像中执行与信息标记有关的预定图案的识别。此类识别可以是用于对信息标记进行解码的工作流程的一部分,并且可以被称为子例程。在一些示例性实施方案中,物体可以是诸如图9A中所示的条形码906的信息标记。确定在近场图像902中的条形码906的位置的步骤可以包括识别近场图像902内的位置,该位置同时表现出高浓度的边缘和高浓度的低强度值而作为条形码的候选位置。
例如,诸如执行过程800的一个或多个处理器或控制器的合适处理介质可以处理图像902以识别数字图像902内的边缘。边缘是数字图像902的在强度上表现出高对比度转变的位置。例如,边缘可以限定从低强度到高强度(即从亮到暗)或者从高强度到低强度(即从暗到亮)的转变。由于条形码的性质,即黑色和白色(或其它暗和亮)图案,条形码产生突出的、易于检测的边缘。为了识别数字图像902内的边缘,处理部件可以分析图像902以检测亮度值表现出显著变化的位置。处理部件可以使用常规边缘检测技术识别图像902内的边缘。例如,处理部件可以将核矩阵(例如,权重或乘法因子的矩阵)应用于数字图像902以检测边缘。核矩阵通常比应用其的实际图像小得多。出于示例的目的,将描述三像素乘三像素(3×3)核矩阵。然而,条形码检测模块34可以使用其它尺寸的核矩阵。
在一些示例性实施方案中,3×3核矩阵可以依次以图像902的每个像素为中心,并且将中心像素周围的3×3区域的像素值乘以核矩阵的对应权重以生成加权像素值。接下来,可以对加权像素值求和以获得中心像素的一阶导数。处理部件可以将中心像素的一阶导数与转变阈值进行比较,并且当一阶导数大于或等于转变阈值时检测边缘。如果一阶导数大于或等于转变阈值,则确定像素位于边缘上。在一个方面,处理部件可以将被确定为位于边缘处的像素设置为与白色或黑色相关联的强度值,并且将被确定为不位于边缘处的像素设置为相反强度值,例如黑色或白色。因此,边缘检测的结果可以是边缘图,该边缘图是表示除了所识别的边缘之外所有细节都被去除的原始图像902的二进制图像。二进制图像可以是黑白图像,其中边缘是白色的,并且图像的其余部分是黑色的,或反之亦然,即边缘是黑色的,并且图像的其余部分是白色的。尽管使用数字图像902的一阶导数来描述边缘的检测,但是可以使用任何合适的边缘检测技术来检测图像902内的边缘,诸如使用数字图像902的二阶导数。
处理部件还可以处理图像902以识别具有低强度的图像区域(在此称为“低强度区域”)。低强度区域对应于图像902的暗部分。条形码检测模块34可以经由阈值处理来识别图像902的低强度区域。特别地,条形码检测模块34可以通过将每个像素强度值与强度阈值进行比较来识别图像902的低强度区域,并且滤除大于或等于强度阈值的任何像素值。因此,低强度检测的结果可以是低强度图,该低强度图是表示去除了高强度区域的原始图像902的二进制图像。在一个示例中,条形码检测模块34可以将小于或等于强度阈值的像素强度值设置为白色,并将大于或等于强度阈值的像素强度值设置为黑色。在这种情况下,图像902的低强度区域表示为白色区域,并且图像902的非低强度区域表示为黑色。另选地,低强度区域可以表示为黑色区域,其它区域表示为白色区域。在一些情况下,处理部件可以处理数字图像以并行识别图像902的边缘和低强度区域。
处理部件可以对边缘图执行一个或多个形态学运算,以识别图像902内表现出高浓度的边缘的位置。同样,处理部件可以对低强度图执行一个或多个形态学运算,以识别图像902内表现出高浓度的低强度值的位置。可以对边缘图和低强度图同时(即,并行地)或连续地执行形态学运算。形态学运算可以包括膨胀运算、腐蚀运算、开运算、闭运算等中的一者或多者。在一个示例中,处理部件可以对边缘图和低强度图执行膨胀。膨胀通常填充孔和破损区域,并且连接由小于用于膨胀的结构化元素的尺寸的空间分隔的区域。对于二进制图像,结构化元素(例如,3×3结构化元素)以每个像素为中心。如果结构化元素内的任何像素是白色的,则结构化元素居中的像素值设置为白色。可以针对灰度图像执行类似的方法。例如,在灰度图像中,通过将像素值设置为等于结构化元素内的像素值中的最大像素值,可以使用结构化元素重新计算每个像素值。以这种方式,由暗区域围绕的明亮区域的大小生长,并且被明亮区域围绕的暗区域的大小变小。图像中的小暗点随着它们被“填充”到周围的强度值而消失。该效果在数字图像中强度快速变化的地方最为明显,例如,在条形码所在的区域。
然后,处理部件可以组合膨胀的边缘图和膨胀的低强度图。例如,处理部件可以执行“与”运算以组合膨胀的边缘图和膨胀的低强度图。组合图像表示图像902的被识别为边缘和低强度区域的部分。换句话说,组合图像表示边缘和低强度区域在空间上同时发生的图像部分。
如果需要,在一些示例性实施方案中,处理部件可以再次对组合图像执行一个或多个形态学运算。例如,条形码检测模块34可以对组合图像执行另一膨胀运算,以填充孔和破损区域,并且连接由小于用于膨胀的结构化元素的大小的空间分隔的区域。处理部件还可以对组合的膨胀图像执行泛洪填充运算以进一步填充组合的膨胀图像的区域内的任何剩余孔。泛洪填充运算填充对象内部的孔。在一些情况下,处理部件可以执行闭运算而不是泛洪填充运算。闭运算关闭可能在填充元素的大小内的小孔,而泛洪填充运算关闭对象内的所有孔,无论孔的大小如何。以此方式,对组合图像执行的一个或多个形态学运算使具有重叠边缘和低强度部分的区域是纯白或几乎纯白区域。
然后,处理部件可以分析在一个或多个形态学运算之后保留在组合图像中的位置,以识别数字图像的可能潜在地为条形码的位置。换句话说,处理部件可以确定位置是否是条形码的候选者。例如,处理部件可以将组合图像中剩余的每个位置与一个或多个条形码标准进行比较,以确定位置是否是条形码的候选者。例如,处理部件可以将位置的大小与条形码大小标准进行比较以确定该位置是否太小或太大而不能是条形码。如果位置的大小小于阈值,则处理部件可以确定位置不是条形码。太小的位置(即使该位置被检测为条形码)也可能没有足够的细节来解析条形码,并且可能会被丢弃。作为另一示例,处理部件可以将位置的形状与条形码形状标准进行比较,以消除与条形码的形状(例如矩形或正方形)基本上不相似的位置。在又一示例中,处理部件可以将位置的填充因子与条形码填充因子标准进行比较。具体地,可以将正方形或矩形放置在该位置周围以确定相对于周围矩形区域有多少像素不是白色的。如果相对于周围矩形区域不是白色的像素百分比超过阈值百分比,则可以从候选位置消除该位置。
然后,通过验证该位置处的剩余数字图像是否具有独特的条形码特征,处理部件可以确定剩余的位置是否实际上是条形码。在一些2D条形码的情况下,例如,处理部件可以分析识别为条形码的候选者的图像的位置以确定所识别的位置是否包括条形码查找器图案。在2D数据矩阵条形码的情况下,处理部件可以在该位置内寻找独特的周边图案,例如,由交替的黑白方形模块组成的两条垂直线。在2D QR条形码的情况下,处理部件可以在所识别位置的三个角处寻找嵌套交替的亮暗方形的查找器图案。然而,处理部件可以针对其它独特的条形码查找器图案或与其它条形码符号相关联的其它独特特征分析所识别的位置。此外,处理部件可以分析除原始图像902之外的图像,诸如数字图像的灰度版本、用于独特条形码特征或图案的生成的边缘图或生成的低强度图。以此方式,在步骤806处,可以由处理部件确定和输出图像902中对应于条形码(即,物体)的位置。
过程800在808处可以包括通过第二图像传感器捕获物体的第三图像。处理部件可以调用不同于第一图像传感器的第二图像传感器以捕获物体的另一图像。在一些示例性实施方案中,第二图像传感器可以是适合于在成像系统的远视场中成像的图像传感器。因此,第二图像传感器可以具有卷帘快门。另选地,在一些较不密集的应用中,第二图像传感器甚至可以具有全局快门。第二图像传感器可以捕获包括物体的场景的图像。
过程800可以进一步包括在810处,确定物体在第三图像中的第二位置。由第二图像传感器捕获的图像可以由处理部件合适地处理以确定物体在所捕获的图像(即,第三图像)中的位置。例如,在物体可以是条形码的示例性情形中,处理部件可以执行用于以与参考步骤806描述的方式类似的方式确定在所捕获的图像中条形码的位置的子过程。因此,在步骤810处,可以确定物体在第三图像(由第二图像传感器捕获的图像)中的第二位置。
过程800可以进一步包括在812处根据在步骤806处确定的第一位置和在步骤810处确定的第二位置计算到物体的距离。计算到物体的距离需要计算各种参数,诸如第一图像传感器和第二图像传感器之间的基线、第一图像传感器和第二图像传感器中的每者的成像距离以及第一图像传感器和第二图像传感器的相应图像偏移。在一些示例性实施方案中,(从成像系统/装置)到物体的距离z可以根据以下等式计算:
Figure BDA0003460791480000301
其中:
B是第一图像传感器与第二图像传感器之间的基线距离;
v1和v2分别是第一图像传感器和第二图像传感器的成像距离;
d1和d2是第一图像和第三图像中的图像偏移,该图像偏移根据物体的第一位置和物体的第二位置计算。
第一图像传感器和第二图像传感器的基线B可以从成像装置/系统的设计获得。如图9B所示,两个图像传感器之间的基线距离B对应于传感器的光学中心O1和O2之间的直线距离。例如,O1可以对应于第一图像传感器的光学中心,并且O2可以对应于第二图像传感器的光学中心。在一些示例性实施方案中,可以从图像传感器的将被暴露于来自要捕获的图像的场景的入射照明的区域的中心考虑图像传感器的光学中心。
光学中心与图像传感器的光轴的起点之间的距离可以限定该图像传感器的成像距离‘v’。参考图9B,第一图像传感器的成像距离v1对应于点O1和C1之间的直线距离。以类似的方式,第二图像传感器的成像距离v2对应于点O2和C2之间的直线距离。
图像传感器的光轴的起点与图像传感器上的物体形成中心(即,所捕获的图像中物体的位置)之间的距离可以定义图像传感器及其对应的所捕获的图像的图像偏移‘d’。第一图像和第二图像中的图像偏移是物体在其相应所捕获的图像中的位置的函数。例如,第一图像传感器的图像偏移是物体在物体的第一图像中的第一位置的函数,而第二图像传感器的图像偏移是物体在第三图像中的第二位置的函数。参考图9B,第一图像的图像偏移d1可以对应于点C1和A1之间的直线距离。以类似的方式,第二图像的图像偏移d2可以对应于点C2和A2之间的直线距离。
以这种方式,这里描述的示例性实施方案提供了用于即使当成像条件可能不适合于有效图像捕获时估计到物体的距离的有效过程。
返回参考步骤804处的确定,如果在第一图像的图像捕获时的照明条件使得环境光非常高,则视觉对象可能与所捕获的图像中的背景融合或被背景压制。在此类情况下,强度差异可以小于阈值,并且在步骤804处的确定的结果为“否”,并且控制转到步骤814。
过程800可以包括在814处,计算第一图像中的视觉对象的深度作为到物体的距离。因此,当成像条件指示视觉对象(例如,图9A的瞄准器904)与背景基本上可区分开时,本发明的示例性实施方案可以提供用于计算到物体的距离的强度较低的过程。在此类情形下,可以将到物体的距离估计为在图7的步骤702处根据由第一图像传感器捕获的图像确定的到视觉对象的深度。在这方面,可以通过任何合适的方法(诸如但不限于三角测量)确定距离。
以此方式,本文描述的示例性实施方案提供了用于通过正确选择适当的距离确定模式来有效地确定到物体的距离的方法、装置和系统。在一些示例性实施方案中,过程700和/或800可以在环境照明防止以预定的清晰度水平捕获物体的情形下触发。
在通过任何距离确定模式计算到物体的距离之后,过程800在816处包括基于计算的到物体的距离来改变第二图像传感器的聚焦位置。估计的到物体的距离是物体距成像装置/系统多远的量度。因此,可以利用估计的到物体的距离来确定图像传感器的光学器件的对应聚焦位置。如果物体位于成像装置/系统的远场,则远场图像传感器可以更好地适合于在成像装置/系统的远场中成像。然而,如果物体位于成像装置/系统的近场中,则近场图像传感器可以是图像捕获的优选选择。在一些示例性实施方案中,可以利用估计的到物体的距离来确定哪些图像传感器适合于物体的图像捕获以进行进一步处理。例如,如果估计的到物体的距离小于或等于阈值,则近场图像传感器可以用于图像捕获,然而,如果估计的到物体的距离大于阈值,则远场图像传感器可以用于物体的图像捕获。因此,可以执行基于所选图像传感器的估计距离的聚焦选择。在这方面,处理部件可以参考查找表,该查找表描述了到物体的距离和图像传感器的聚焦步长之间的关系。使用查找表,可以决定适当的聚焦步长,并且可以根据确定的聚焦步长移动特定图像传感器。
以这种方式,本文描述的示例性实施方案提供用于将合适的图像传感器移动到物体处于焦点对准的位置的方法和机器。一些实施方案涉及环境照明抑制物体与图像传感器焦点对准的情形。本文描述的实施方案提供了时间高效以及能量高效的自动聚焦选择。此类实施方案考虑了一个或多个成像条件以选择用于确定物体深度的最佳拟合模式,并且根据所选最佳拟合模式执行聚焦选择。
图10示出了根据本公开的至少一个示例性实施方案的由示例性多传感器成像系统执行的标记解码过程的示例性工作流程。在一些示例性实施方案中,成像系统10和/或成像装置200可以包括示例性符号读取设备(诸如标记读取器)或作为该示例性符号读取设备的一部分。如图10所示的过程1000提供了包括方法700和800的各个方面的符号解码方法。当实施过程1000时,具有多个图像传感器的符号读取器能够减轻在多成像器环境中出现的自动聚焦选择的问题,并且因此能够提供快速且能量高效的自动聚焦方案和不含错误或减少符号图像的错误捕获。这产生符号的更快且有效的解码。通过以下公开内容,工作流程的另外的优点将变得显而易见。
过程1000的一些或所有步骤可以通过适当的数据处理装置和控制装置来执行。例如,在一些示例性实施方案中,过程1000可以由符号读取器的控制器或一个或多个处理器执行。在一些示例性实施方案中,符号读取器的控制器可以以类似于参考成像系统10的控制器20描述的方式来体现。
在接收到来自用户对成像装置200的激活部件206的输入时触发过程1000。作为响应,过程1000在1002处通过打开作为指示器的瞄准器而开始。如参考图2所描述的,瞄准器照明源110和瞄准器投影光学器件112可以一起产生作为期望图案的瞄准器。在一些示例性实施方案中,瞄准器通过瞄准器投影光学器件投射到场景上。接下来,在1004处,过程1000包括捕获包括作为物体的标记的场景的第一图像。第一图像可以在瞄准器打开的情况下由近场图像传感器捕获。因此,第一图像也可以称为近场图像。在一些示例性实施方案中,可以优选地在近场照明关闭的情况下捕获近场图像。然而,如果环境照明可能不足以捕获近场图像,则近场图像传感器可以在近场照明打开的情况下捕获近场图像。
在1006处,确定投影的瞄准器与背景之间的强度差异。强度差异可以以多种方式确定,例如以先前参考图8所讨论的方式。在1008处,执行对确定的强度差异的检查。该检查确定了确定的强度差异是否大于或等于阈值。在1008处,如果检查结果指示“是”,则控制转到1010,在1010处,选择第一模式作为距离确定模式。然而,如果在1008处的检查结果指示“否”,则控制转到1012,在1012处,选择第二模式作为距离确定模式。第一模式对应于用于基于如在近场图像中捕获的投影的瞄准器的距离来确定到物体(诸如标记)的距离的步骤序列。第二模式对应于用于基于物体在近场图像和由远场图像传感器捕获的远场图像中的位置确定到物体(诸如标记)的距离的步骤序列。
在选择合适的距离确定模式之后,过程1000包括在1014处基于所选的距离确定模式计算到标记的距离。可以视情况而定,根据图8的步骤812或814,可以按照所选的模式计算到标记的距离。计算的距离是标记距成像引擎的距离的量度。因此,在1016处,过程1000包括将远场中的成像引擎移动到基于计算的到标记的距离确定的聚焦位置。如先前参考图8的步骤816所讨论的,可以基于计算的到标记的距离来确定远场图像传感器的对应聚焦位置,并且可以按照确定的聚焦位置/聚焦步长移动成像引擎的远场图像传感器的成像光学器件。这确保了标记与远场图像传感器焦点对准。
在1018处,焦点对准的标记的图像由远场图像传感器从设定聚焦位置捕获。图像可以被称为标记的远场图像。过程1000包括在1020处,对捕获的标记的远场图像解码以提取在标记中编码的信息。解码的结果可以由标记读取器输出以用于后续操作或处理。
以此方式,图10中所示的示例性工作流程可以用于通过合适的硬件执行符号/标记解码,由此由于所选的距离确定模式提供的改进的聚焦选择控制,因此对来自近场图像和/或远场图像的目标符号成功解码的可能性显著增加。解码过程的此类改进带来了符号解码器设备本身的整体功能的改进。
尽管考虑到终端应用作为符号解码已经描述了图10中所示的示例性工作流程,但是可以预期,在本公开的范围内,利用双或多个图像传感器(并且由此多个照明源)的其它终端应用任务也可以被修改以从本文提供的改进的照明控制和同步框架获益。也就是说,本公开的范围决不应仅限于单独的符号解码器,并且可以进行合适的修改以将照明控制框架扩展到类似的终端使用案例,诸如基于多相机的移动电话。在一些示例性上下文中,多图像传感器设备可以体现为具有至少两个相机的智能手机。相机可以具有与它们中的每个相关联的相同或单独的照明源。智能手机中的至少一个相机可以被认为是主相机,该主相机与明亮、光线充足和光线不足的情形中的图像捕获相关联。此类相机的图像质量可以与兆像素(MP)强度直接相关联,并且如此在一些示例性实施方案中,主相机可具有12、24、48或64MP。智能手机中的一个或多个其它相机可被认为是与一个或多个图像增强功能相关联的辅助相机。例如,智能手机可以具有支持超变焦选项的长焦透镜。在一些示例性实施方案中,长焦透镜可以支持在2倍到10倍之间的变焦因子。在一些更先进的实施方案中,智能手机可以具有用于增强智能手机的视场的超广角透镜。附加地或任选地,在一些示例性实施方案中,智能手机可以包括深度传感器,以与视场中的主物体相比测量背景对象的深度。智能手机可以配备有存储器,该存储器存储对应于方法700、800和1000中所示的逻辑的编程指令。这些编程指令可以由智能手机的处理器执行以在物体的图像捕获期间执行自动聚焦选择。由于示例性实施方案还提供用于聚焦选择的自适应过程,所以提出的解决方案适用于各种成像情形和情况。
应当理解,上文在图7、图8和图10中所示的流程图中的每个框以及该流程图中的各框的组合可通过各种装置(诸如硬件、固件、处理器、电路、和/或与包括一个或多个计算机程序指令的软件的执行相关联的其他通信设备)来实现。例如,上述过程中的一者或多者可以通过计算机程序指令来体现。就这一点而言,体现上述过程的计算机程序指令可由采用本发明的实施方案的装置的存储器设备存储并且由成像装置/系统的处理器执行。应当理解,可将任何此类计算机程序指令加载到计算机或其他可编程装置(例如,硬件)上以产生机器,使得所得计算机或其他可编程装置实现流程图框中指定的功能。这些计算机程序指令还可存储在计算机可读存储器中,该计算机可读存储器可指示计算机或其他可编程装置以特定方式工作,使得存储在该计算机可读存储器中的指令产生一种制品,这些指令的执行实现流程图框中指定的功能。计算机程序指令还可以加载到计算机或其他可编程装置上,以使得在计算机或其他可编程装置上执行一系列操作,从而产生计算机实现的过程,使得在计算机或其他可编程装置上执行的指令提供用于实现流程图框中指定的功能的操作。
因此,流程图中的框支持用于执行指定功能的装置的组合以及用于执行指定功能/操作的操作的组合。还将理解,流程图中的一个或多个框以及流程图中的框的组合可由执行指定功能的基于硬件的专用计算机系统或者专用硬件和计算机指令的组合来实现。
尽管上文已描述了示例性处理系统,本文所述的主题和功能操作的具体实施可在其他类型的数字电子电路中或在计算机软件、固件或硬件(包括本说明书中所公开的结构及其结构等同物)中或在它们中的一者或多者的组合中实现。
本文所述的主题和操作的实施方案可在数字电子电路中,或在计算机软件、固件或硬件(包括本说明书中所公开的结构及其结构等同物)中或在它们中的一者或多者的组合中实现。本文所述主题的实施方案可被实现为在计算机存储介质上编码的一个或多个计算机程序(即,计算机程序指令的一个或多个模块),以供信息/数据处理装置执行或控制信息/数据处理装置的操作。另选地或附加地,可在人工生成的传播信号(例如,机器生成的电信号、光信号或电磁信号)上编码程序指令,该传播信号被生成以编码用于传输到合适的接收器装置以供信息/数据处理装置执行的信息/数据。计算机存储介质可以是计算机可读存储设备、计算机可读存储基板、随机或串行访问存储器阵列或设备,或者它们中的一者或多者的组合,或者可包括在计算机可读存储设备、计算机可读存储基板、随机或串行访问存储器阵列或设备,或者它们中的一者或多者的组合中。此外,虽然计算机存储介质不是传播信号,但计算机存储介质可以是在人工生成的传播信号中编码的计算机程序指令的源或目的地。计算机存储介质也可以是一个或多个单独的物理部件或介质(例如,多个CD、磁盘或其他存储设备),或者包括在一个或多个单独的物理部件或介质中。
本文所述的操作可被实现为由信息/数据处理装置对存储在一个或多个计算机可读存储设备上的或从其他源接收的信息/数据执行的操作。
术语“数据处理装置”涵盖用于处理数据的所有种类的装置、设备和机器,包括例如可编程处理器、计算机、片上系统、或前述的多个装置或它们的组合。该装置可包括专用逻辑电路(例如,FPGA(现场可编程门阵列)或ASIC(专用集成电路))。除了硬件之外,该装置还可包括为所考虑的计算机程序创建执行环境的代码(例如,构成处理器固件、协议栈、储存库管理系统、操作系统、跨平台运行环境、视觉机器或它们中的一者或多者的组合的代码)。该装置和执行环境可实现各种计算模型基础结构,诸如web服务、分布式计算基础结构和网格计算基础结构。
可以用任何形式的编程语言(包括编译或解译语言、说明性语言或程序语言)写入计算机程序(也称为程序、软件、软件应用程序、脚本或代码),并且可以任何形式部署该计算机程序,包括作为独立程序或作为模块、部件、子例程、对象或适用于计算环境中的其他单元。计算机程序可以但不必对应于文件系统中的文件。程序可存储在保存其他程序或信息/数据(例如,存储在标记语言文档中的一个或多个脚本)的文件的一部分中,存储在专用于所考虑的程序的单个文件中,或者存储在多个协调文件(例如,存储一个或多个模块、子程序或代码的部分的文件)中。
可由执行一个或多个计算机程序的一个或多个可编程处理器执行本文所述的过程和逻辑流,以通过对输入信息/数据进行操作并生成输出来执行动作。以举例的方式,适用于执行计算机程序的处理器包括通用微处理器和专用微处理器两者以及任何种类的数字计算机的任何一个或多个处理器。一般来讲,处理器将从只读存储器或随机存取存储器或这两者接收指令和信息/数据。计算机的基本元件是用于根据指令执行动作的处理器和用于存储指令和数据的一个或多个存储器。一般来讲,计算机还将包括用于存储数据的一个或多个大容量存储设备(例如,磁盘、磁光盘或光盘),或与该一个或多个大容量存储设备可操作地耦接以从该一个或多个大容量存储设备接收信息/数据或将信息/数据传输到该一个或多个大容量存储设备,或以上两者兼而有之。然而,计算机不需要具有此类设备。适合于存储计算机程序指令和信息/数据的设备包括所有形式的非易失性存储器、媒体和存储器设备,包括(以举例的方式)半导体存储器设备,例如EPROM、EEPROM和闪存存储器设备;磁盘,例如内部硬盘或可移动磁盘;磁光盘;以及CD-ROM和DVD-ROM磁盘。处理器和存储器可由专用逻辑电路补充或结合到专用逻辑电路中。
为了提供与用户的交互,本文所述的主题的实施方案可以在计算机上实现,该计算机具有用于向用户显示信息/数据的显示设备(例如,CRT(阴极射线管)或LCD(液晶显示器)监测器)以及键盘和指向设备(例如,鼠标或轨迹球,用户可以通过该鼠标或轨迹球向计算机提供输入)。也可使用其他类型的设备来提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感官反馈(例如,视觉反馈、听觉反馈或触觉反馈);并且可通过任何形式接收来自用户的输入,包括声音、语音或触觉输入。此外,计算机可通过向用户所使用的设备发送文档以及从用户所使用的设备接收文档来与用户进行交互;例如,通过响应于从用户的客户端设备上的web浏览器接收的请求而将网页发送到web浏览器。
尽管本说明书包含许多特定的具体实施细节,但这些细节不应解释为对任何公开或可要求保护内容的范围的限制,而应解释为对特定公开的特定实施方案而言是特定的特征的描述。本文在单独实施方案的上下文中描述的某些特征也可以在单个实施方案中组合实现。相反,在单个实施方案的上下文中描述的各种特征也可以分别在多个实施方案中或以任何合适的子组合来实现。此外,尽管特征可能在上面被描述为以某些组合形式起作用并且甚至最初是这样要求保护的,但在一些情况下,可以从组合中除去来自所要求保护的组合的一个或多个特征,并且所要求保护的组合可以针对子组合或子组合的变型。
类似地,尽管在附图中以特定顺序描绘了操作,但这不应理解为要求以所示的特定次序或以顺序次序执行此类操作,或者执行所有的所示操作以达到期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施方案中的各种系统部件的分离不应被理解为在所有实施方案中要求这种分离,并且应当理解,所描述的程序部件和系统通常可以在单个软件产品中集成在一起或分组成多个软件产品。
因此,已经描述了本主题的特定实施方案。其他实施方案在以下权利要求书的范围内。在一些情况下,权利要求书中所述的动作可以不同的顺序执行,并且仍然实现期望的结果。此外,附图中描绘的过程不一定需要所示的特定次序或顺序次序来实现期望的结果。在某些具体实施中,多任务和并行处理可能是有利的。

Claims (10)

1.一种方法,所述方法包括:
通过第一图像传感器捕获具有与物体相关联的背景的视觉对象的第一图像;
确定所述第一图像中的所述视觉对象与所述第一图像中的所述背景之间的特性差异;
基于所述确定的特性差异从第一模式和第二模式中选择距离确定模式;
基于所选的距离确定模式计算到所述物体的距离;以及
基于所述计算的到所述物体的距离来控制第二图像传感器以捕获所述物体的第二图像。
2.根据权利要求1所述的方法,其中确定所述特性差异包括确定所述第一图像中的所述视觉对象的第一强度与所述第一图像中的所述背景的第二强度之间的强度差异。
3.根据权利要求2所述的方法,其中选择所述距离确定模式包括:
响应于所述强度差异大于或等于阈值,选择所述第一模式作为所述距离确定模式;并且
响应于所述强度差异小于所述阈值,选择所述第二模式作为所述距离确定模式。
4.根据权利要求3所述的方法,其中所述第一模式包括计算所述第一图像中的所述视觉对象的深度作为到所述物体的距离。
5.根据权利要求3所述的方法,其中所述第二模式包括:
确定所述物体在所述第一图像中的第一位置;
通过所述第二图像传感器捕获所述物体的第三图像;
确定所述物体在所述第三图像中的第二位置;以及
根据所述第一位置和所述第二位置计算到所述物体的所述距离。
6.根据权利要求5所述的方法,所述方法进一步包括基于所述第一图像传感器和所述第二图像传感器的成像距离来计算到所述物体的所述距离。
7.根据权利要求5所述的方法,其中根据所述第一位置和所述第二位置计算到所述物体的所述距离包括:
基于所述第一位置计算所述第一图像的第一图像偏移;
基于所述第二位置计算所述第三图像的第二图像偏移;以及
基于所述第一图像偏移和所述第二图像偏移计算到所述物体的所述距离。
8.根据权利要求1所述的方法,所述方法进一步包括基于所述计算的到所述物体的距离来改变所述第二图像传感器的聚焦位置。
9.一种系统,所述系统包括:
存储器,所述存储器被配置为存储可执行指令;和
一个或多个处理器,所述一个或多个处理器被配置为执行所述可执行指令以:
从第一图像传感器获得具有与物体相关联的背景的视觉对象的第一图像;
确定所述第一图像中的所述视觉对象与所述第一图像中的所述背景之间的特性差异;
基于所述确定的特性差异从第一模式和第二模式中选择距离确定模式;
基于所选的距离确定模式计算到所述物体的距离;以及
基于所述计算的到所述物体的距离控制第二图像传感器以捕获所述物体的第二图像。
10.一种成像装置,所述成像装置包括:
第一图像传感器,所述第一图像传感器被配置为捕获具有与物体相关联的背景的视觉对象的第一图像;
第二图像传感器;和
控制器,所述控制器被配置为:
从所述第一图像传感器获得所述第一图像;
确定所述第一图像中的所述视觉对象与所述第一图像中的所述背景之间的特性差异;
基于所述确定的特性差异从第一模式和第二模式中选择距离确定模式;
基于所选的距离确定模式计算到所述物体的距离;以及
基于所述计算的距离控制所述第二图像传感器以捕获所述物体的第二图像。
CN202210018012.1A 2021-01-08 2022-01-07 用于使用图像差异进行聚焦选择的系统、方法和装置 Pending CN114760410A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/145,269 2021-01-08
US17/145,269 US11381729B1 (en) 2021-01-08 2021-01-08 Systems, methods, and apparatuses for focus selection using image disparity

Publications (1)

Publication Number Publication Date
CN114760410A true CN114760410A (zh) 2022-07-15

Family

ID=79730307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210018012.1A Pending CN114760410A (zh) 2021-01-08 2022-01-07 用于使用图像差异进行聚焦选择的系统、方法和装置

Country Status (4)

Country Link
US (2) US11381729B1 (zh)
EP (1) EP4027635A1 (zh)
JP (2) JP2022107533A (zh)
CN (1) CN114760410A (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11960961B2 (en) * 2021-10-12 2024-04-16 Zebra Technologies Corporation Aiming patterns for auto-focus rolling shutter camera with dual imaging FOV and associated systems
US20240070415A1 (en) * 2022-08-25 2024-02-29 Omron Corporation Using Distance Sensor Delta to Determine When to Enter Presentation Mode
US20240070414A1 (en) * 2022-08-29 2024-02-29 Hand Held Products, Inc. Near co-axial polarized illuminator apparatuses and uses thereof

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168090A (ja) * 1993-12-15 1995-07-04 Fuji Photo Optical Co Ltd カメラの測距装置
JP2007074696A (ja) * 2005-08-12 2007-03-22 Eastman Kodak Co 複数光学系を有する撮像装置
CN102547108A (zh) * 2010-10-19 2012-07-04 手持产品公司 自动聚焦光学成像装置
CN103827920A (zh) * 2011-09-28 2014-05-28 皇家飞利浦有限公司 根据图像的对象距离确定
US9538081B1 (en) * 2013-03-14 2017-01-03 Amazon Technologies, Inc. Depth-based image stabilization
US20170006211A1 (en) * 2015-07-01 2017-01-05 Sony Corporation Method and apparatus for autofocus area selection by detection of moving objects
CN111294508A (zh) * 2018-12-06 2020-06-16 阿里巴巴集团控股有限公司 利用相机阵列的成像系统及其实现方法和设备
US20200404134A1 (en) * 2019-06-20 2020-12-24 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor and storage medium

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2528368B2 (ja) * 1989-11-13 1996-08-28 富士写真フイルム株式会社 カメラ
EP0662600A4 (en) * 1993-06-10 1997-02-12 Oh Yoh Keisoku Kenkyusho Kk DEVICE FOR MEASURING THE POSITION OF A MOVABLE OBJECT.
JPH0823473A (ja) * 1994-07-05 1996-01-23 Canon Inc 撮像装置
US7128266B2 (en) 2003-11-13 2006-10-31 Metrologic Instruments. Inc. Hand-supportable digital imaging-based bar code symbol reader supporting narrow-area and wide-area modes of illumination and image capture
US7841533B2 (en) 2003-11-13 2010-11-30 Metrologic Instruments, Inc. Method of capturing and processing digital images of an object within the field of view (FOV) of a hand-supportable digitial image capture and processing system
US7303131B2 (en) 2004-07-30 2007-12-04 Symbol Technologies, Inc. Automatic focusing system for imaging-based bar code reader
KR101720189B1 (ko) * 2010-09-13 2017-03-27 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US9621869B2 (en) * 2012-05-24 2017-04-11 Sony Corporation System and method for rendering affected pixels
JP6102928B2 (ja) * 2012-09-14 2017-03-29 ソニー株式会社 画像処理装置、画像処理方法、および、プログラム
JP6223059B2 (ja) * 2013-08-21 2017-11-01 キヤノン株式会社 撮像装置、その制御方法およびプログラム
US9679175B2 (en) * 2014-06-13 2017-06-13 The Code Corporation Barcode reader ranging using targeting illumination
TWI538508B (zh) * 2014-08-15 2016-06-11 光寶科技股份有限公司 一種可獲得深度資訊的影像擷取系統與對焦方法
US20170171456A1 (en) 2015-12-10 2017-06-15 Google Inc. Stereo Autofocus
US10298853B2 (en) * 2016-01-13 2019-05-21 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus
EP3416370B1 (en) * 2016-03-23 2023-07-26 Huawei Technologies Co., Ltd. Photography focusing method, device, and apparatus for terminal
US10244180B2 (en) 2016-03-29 2019-03-26 Symbol Technologies, Llc Imaging module and reader for, and method of, expeditiously setting imaging parameters of imagers for imaging targets to be read over a range of working distances
US10534944B1 (en) * 2018-12-17 2020-01-14 Zebra Technologies Corporation Method and apparatus for decoding multiple symbology types

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168090A (ja) * 1993-12-15 1995-07-04 Fuji Photo Optical Co Ltd カメラの測距装置
JP2007074696A (ja) * 2005-08-12 2007-03-22 Eastman Kodak Co 複数光学系を有する撮像装置
CN102547108A (zh) * 2010-10-19 2012-07-04 手持产品公司 自动聚焦光学成像装置
CN103827920A (zh) * 2011-09-28 2014-05-28 皇家飞利浦有限公司 根据图像的对象距离确定
US9538081B1 (en) * 2013-03-14 2017-01-03 Amazon Technologies, Inc. Depth-based image stabilization
US20170006211A1 (en) * 2015-07-01 2017-01-05 Sony Corporation Method and apparatus for autofocus area selection by detection of moving objects
CN111294508A (zh) * 2018-12-06 2020-06-16 阿里巴巴集团控股有限公司 利用相机阵列的成像系统及其实现方法和设备
US20200404134A1 (en) * 2019-06-20 2020-12-24 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor and storage medium

Also Published As

Publication number Publication date
US20220303451A1 (en) 2022-09-22
US20220224823A1 (en) 2022-07-14
EP4027635A1 (en) 2022-07-13
JP2023145441A (ja) 2023-10-11
JP2022107533A (ja) 2022-07-21
US11381729B1 (en) 2022-07-05
US11647286B2 (en) 2023-05-09

Similar Documents

Publication Publication Date Title
US9076199B2 (en) System and method for determining and controlling focal distance in a vision system camera
US10855894B2 (en) Mobile device case and techniques for multi-view imaging
JP6951056B2 (ja) 加速度に基づく動き許容および予測符号化
US20230100386A1 (en) Dual-imaging vision system camera, aimer and method for using the same
US9411999B2 (en) Barcode reader having multiple sets of imaging optics
US11244147B2 (en) Optical data exchange while preserving social distancing
CN114760410A (zh) 用于使用图像差异进行聚焦选择的系统、方法和装置
US11875219B2 (en) System and method for auto-focusing a vision system camera on barcodes
US10832023B2 (en) Dual-imaging vision system camera and method for using the same
US9800749B1 (en) Arrangement for, and method of, expeditiously adjusting reading parameters of an imaging reader based on target distance
US10628646B1 (en) Off-axis dual-sensor vision system camera and method for using the same
US20170343345A1 (en) Arrangement for, and method of, determining a distance to a target to be read by image capture over a range of working distances
CN114793272A (zh) 用于具有多个图像传感器的成像系统的照明控制
KR102079697B1 (ko) 판독장치, 프로그램 및 유닛
US11030431B2 (en) Efficiency when reading multiple barcodes on objects
WO2017205065A1 (en) Arrangement for, and method of, determining a target distance and adjusting reading parameters of an imaging reader based on target distance
US11853845B2 (en) Machine vision system and method with multi-aperture optics assembly
KR20080075333A (ko) 촬영 영역 내에서 정확하게 얼굴 영상을 촬영하는 장치
WO2024052348A1 (en) Passive autofocus system and method
CN114663638A (zh) 用于使用两用照明器进行成像的系统、方法和装置
JP2016201116A (ja) 光照射装置およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination