CN107204012B - 降低飞行时间深度成像的功耗 - Google Patents

降低飞行时间深度成像的功耗 Download PDF

Info

Publication number
CN107204012B
CN107204012B CN201710157572.4A CN201710157572A CN107204012B CN 107204012 B CN107204012 B CN 107204012B CN 201710157572 A CN201710157572 A CN 201710157572A CN 107204012 B CN107204012 B CN 107204012B
Authority
CN
China
Prior art keywords
scene
image
pixels
depth
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710157572.4A
Other languages
English (en)
Other versions
CN107204012A (zh
Inventor
C·麦瑟
S·迪米尔达斯
霍斌
D·高家瑞拉
J·A·高登博格
N·莱多兹
于涛
J·诺拉奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Analog Devices Inc
Original Assignee
Analog Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Analog Devices Inc filed Critical Analog Devices Inc
Publication of CN107204012A publication Critical patent/CN107204012A/zh
Application granted granted Critical
Publication of CN107204012B publication Critical patent/CN107204012B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Abstract

本公开涉及用于降低飞行时间深度成像的功耗的系统及方法。实施方案的方面涉及被动深度确定。最初,可以创建场景的高功率深度图。可以标识场景中的对象,诸如刚体或其他对象或对象的一部分。可以捕获一系列较低功率或RGB图像。对象可以位于一个或多个低功率或RGB图像中。可以确定由一组像素表示的对象的位置的变化。根据对象的位置变化,可以外推出对象的新深度。对象的外推深度可以用于更新高功率深度图。

Description

降低飞行时间深度成像的功耗
技术领域
本公开涉及用于降低飞行时间深度成像的功耗的系统及方法。
背景技术
设备与对象之间的距离的感测可以通过从设备发射光且测量光从该对象反射且然后被设备采集所花费的时间来执行。距离感测设备可以包括光传感器,该光传感器采集由设备发射且然后从环境中的对象反射的光。
在飞行时间(TOF)三维(3D)图像传感器中,图像传感器捕获二维图像。图像传感器进一步配备有光源,光源照射对象,对象距设备的距离是通过检测发射的光返回到图像传感器所花费的时间来测量的。这提供了第三维信息,允许生成3D图像。为确定对象距成像设备的距离的目的而使用光源来照射对象会使用大量的电力。
发明内容
实施方案的方面涉及操作成像设备的方法。该方法可以包括:由图像传感器捕获第一图像;识别所捕获的图像中的对象的至少一部分;通过所述图像传感器捕获第二图像;从所述第二图像确定所述对象的所述至少一部分的位置的变化;以及基于所述对象的所述至少一部分的位置的变化来更新深度图。
实施方案的方面涉及一种包括图像传感器的成像设备;光源;和图像处理器。成像设备被配置为通过图像传感器捕获第一图像;识别所捕获的图像中的对象的至少一部分;通过所述图像传感器捕获第二图像;从所述第二图像确定所述对象的所述至少一部分的位置的变化;以及基于所述对象的所述至少一部分的位置的变化来更新深度图。
附图说明
将参考以下图来对本申请的各方面和实施方案进行说明。将意识到,图不一定是按比例绘制。在多个图中出现的项在它们出现的所有图中由相同的附图标记来表示。
图1A描绘根据一些实施方案的经配置以感测距离的说明性的成像设备;
图1B描绘根据一些实施方案的由图1A中所示的成像设备产生的说明性的距离映射;
图2是根据一些实施方案的成像设备的框图;
图3是描绘根据一些实施方案的确定距离信息的方法的流程图;
图4示出根据一些实施方案的用于确定到对象的距离的脉冲调制技术;
图5描绘根据一些实施方案的单个成像帧内的说明性的脉冲调制模式;
图6示出了在一些但不是全部帧中发射照射光的帧序列。
图7示出包括本文所述类型的成像设备的系统的实施例;
图8示出包括有本文所述类型的成像设备的移动设备;
图9示出包括本文所述类型的成像设备的游戏控制台;和
图10示出包括本文所述类型的成像设备的机器人。
图11是根据本公开的实施方案的使用成像设备进行成像的过程流程图。
图12A是根据本公开的实施方案的用于确定用于从同一场景的较低质量图像提供来自场景的较高质量图像的一个或多个算法参数的过程流程图。
图12B是根据本公开的实施方案的使用确定的算法参数以从捕获的较低质量图像提供较高质量图像的过程流程图。
图13A是根据本公开的实施方案的用于确定算法参数以从所捕获的图像提供特征提取的过程流程图。
图13B是根据本公开的实施方案的从由成像系统捕获的一组帧中进行特征提取的过程流程图。
图14是根据本公开的实施方案的用于过滤低功率深度图像的过程流程图。
图15是根据本公开的实施方案的用于通过刚体转换信息来更新深度图的过程流程图。
图16是根据本公开的实施方案的用于确定图像的逐像素平移以更新深度图的过程流程图。
图17是根据一些实施方案的具有惯性测量单元(IMU)的成像设备的框图。
图18A是使用结合使用RGB图像的深度图估计的IMU测量数据来更新深度图的过程流程图。
图18B是根据本公开的实施方案的用于使用惯性测量单元信息来估计深度图的过程流程图。
图19是根据本公开的实施方案的用于使用对物体的运动的分块式估计来更新深度图的过程流程图。
图20是用于外推更新的深度图的背景像素的过程流程图。
具体实施方式
本申请的方面提供用于操作TOF 3D感测系统的功率高效技术,使得TOF 3D感测系统的照射源的操作频率比距离信息所需要的每一帧低。例如通过比较两个二维(2D)图像来确定距离的低功率替代方式可以用于当不使用照射源时确定到对象的距离。然后,在至少一些实施方案中,仅当其他低功率技术不足时,即当低功率替代距离确定机制不能确定到被成像对象的距离时,才使用照射源来确定距离。以这种方式,可以减少照射源消耗的功率。
从二维图像获得关于第三维中的距离的信息可有益于多种应用,诸如那些期望三维图像的应用。三维图像本身在一些设置中可能是期望的最终目标,而在其它设置中,所确定的第三维中的距离信息可允许跟踪对象的移动或可以辅助做出关于要采取的措施的决策,例如导航物理环境。为获得关于对象或环境的第三维的信息,可以使用关于光照射对象/环境所花费的时间的信息,称为“飞行时间”或简称为“TOF”。然而,对于图像或图像序列的每帧进行照射和计算飞行时间信息既是处理器密集的,又是能量密集的。为降低处理要求和功率要求,披露了多种用于图像感测系统的技术。在一些实施方案中,图像感测系统使用飞行时间照射技术以及可替代的距离感测技术,使得飞行时间技术基于在对象或环境中何时检测到变化或者某时间段已经经过之后来执行。
根据本文所述的一些实施方案,可以利用成像设备来确定距离信息,成像设备被配置成发射照射光且感测从环境中的对象反射回到设备的照射光。在一些情况下,同一成像设备可另外地捕获环境的二维图像(例如,使用与用来感测反射的照射光的相同的图像传感器,或通过其它方式)。在图1A的TOF 3D感测系统100中描绘了示例性的成像设备。
在图1A的实施例中,成像设备110包括图像传感器112和照射光源114,两者都由处理器116控制。三个示例性的对象105a,105b和105c定位成分别距成像设备的距离为d2,d1和d3。照射光源114可以是激光光源比如激光二极管,其发射照射光(例如,激光),激光从成像设备向外行进,从对象105a-105c反射,并且入射到图像传感器112上。将意识到,为清晰,仅在图中描绘了那些既入射到对象105a,105b或105c又反射到图像传感器的那些光线。而且通常存在其它从照射光源发射的光线以及沿除了图中所示的方向之外的方向反射的光线。
图像传感器112可被配置成识别可见光和红外光(例如,可以是组合RGB和IR传感器)。在这些情况下,照射光源可以是红外辐射源,使得图像传感器112能够在同时接收到的红外辐射(其包含从环境中的对象反射的照射光)以及可见光(来自可见谱内的环境中的观察对象)之间进行区分。图像传感器112可以包括任何适合的图像传感器技术,包括但不限于,电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)成像设备。
在一些实现中,图像传感器112可以包括采集由成像设备观察到的场景的部分的反射照射光的多个像素。通过分析接收的光,图像传感器能够确定,对于每个像素,距该像素所观察到的对象的距离。因此,场景的“距离映射”可以通过图像传感器成像,其类似于常规的二维(2D)图像,除了每个像素测量距离而非光强度。图1A所描绘的场景的示例性的距离映射150显示在图1B中。在图1B所示的图像160中,距所感测的对象定位距所述成像设备越远,则像素越暗。结果,从成像设备所观察到的对应于对象105b的矩形形状被测量为相对靠近成像设备(浅灰色);从成像设备所观察到的对应于对象105a的三角形形状被测量处于距成像设备的中间距离(中灰色);并且从成像设备所观察到的对应于对象105c的圆形形状被测量为距成像设备相对较远(深灰色)。
照射光源114会消耗大量的电力来提供足够强以到达对象105a-105c且反射回图像传感器的光。该功耗可以表示TOF 3D感测系统的可用电力的大部分,尤其是当TOF 3D感测系统是电池供电操作时,例如用于便携式设备。
申请人已经认识且意识到距离感测可以通过成像设备在期望距离确定的仅一些而非全部情况下发射照射光以较高功率效率来执行。在照射光不由设备发射的那些情况下,图像分析技术可通过比较成像设备所捕获的2D图像以及检测那些图像中的一个对象或多个对象如何随时间变化而用来估计距离。
根据一些实施方案,当照射光被产生且捕获时所预先确定的距离可用作辅助利用2D图像分析技术估计距离的参考。例如,照射光可周期性地发射以周期性地确定距离,并且在那些发射之间可以执行图像分析以确定距离(例如,使用利用照射光作为参考点而预先确定的距离)。
根据一些实施方案,是否发射照射光(以通过采集反射的照射光来确定距离)的决策可基于2D图像的分析。该分析可以基于一个或多个2D图像来确定距离估计将有多精确,使得当精度降至可接受阈值以下时,做出利用照射光获得更精确的距离确定的决策。以这种方式,仅当2D图像分析不产生可接受地精确的距离测量时才发射照射光,这可以降低发射照射光的频率,从而降低电力使用。
虽然本公开的各方面可用于任何适合的成像设备,在多个帧期间(例如,在视频捕获中)捕获光的成像设备内应用这些方面尤其有利。一些成像设备可被配置成最终保留单个图像,而在图像设备已经被激活以保留单个图像之前和/或之后多次捕获图像(例如,设备被配置成在单个图像捕获之前显示场景,以达到预览静像的目的,和/或设备被配置成当被激活捕获单个图像时捕获多个图像,使得可以选择单个图像和/或从多个图像合成单个图像)。为了本文论述的目的,“帧”被视为能适用于如下期间的图像捕获:(i)视频捕获;以及(ii)静像捕获,其中在静像捕获过程中多个图像寄存在设备中(包括但不限于上文的那些实施例)。
根据一些实施方案,基于2D图像的分析确定是否发射照射光可以在与捕获2D图像的相同的帧内来执行。在相同的帧内做出确定可以确保,在确定不发射照射光的情况下,可以在后续帧期间内捕获2D图像,而不存在要做出确定的中间帧。因此,通过在每帧期间捕获图像,成像设备可以高效地工作。根据一些实施方案,一旦确定要发射照射光,在与做出确定的相同的帧内发射照射光。可替代地,如果在捕获2D图像的帧内没有足够的时间来确定发射照射光以及还发射照射光(例如,因为成像设备不具有在该帧内执行全部这些步骤的处理容量,因为帧时间极短,和/或由于设备的处理局限性),照射光的发射可以在后续帧中发生。
根据一些实施方案,使用照射光比如来自激光二极管的激光确定距离可以使用脉冲调制技术。在脉冲调制中,照射光被发射为已知持续时间的脉冲,使得可以识别反射光脉冲,并且测量其飞行时间(以及因此确定距对象的距离)。在一些实现中,脉冲调制技术可以利用多个快门来操作图像传感器,每个快门捕获所反射的照射光脉冲的一段。在每个快门期间所测得的反射照射光的小部分可以暗示光脉冲的飞行时间。该方法的实施例将在下文结合图4进行说明。
根据一些实施方案,使用照射光确定距离可使用连续波技术。在该技术中,通过测量从对象反射的光想相移来确定到对象的距离。当照射光的波长已知时,相移指示距对象的距离。
下面接着是与距离感测的技术和实施方案有关的各概念的更详细说明。应当理解的是,本文所述的各个方面可以通过多种方式中的任一种来实现。在本文提供了具体的实现的实施例仅为了示例说明的目的。另外,在下面的实施方案中所描述的各个方面可单独或组合使用,并且不限于本文明确描述的组合。
图2是根据一些实施方案的TOF 3D感测系统200的框图。TOF 3D感测系统200包括成像设备201,成像设备包括经由透镜205和可变光阑208接收来自成像设备外的光的图像传感器210。成像设备还包括被配置成从设备发射照射光的照射光源220。照射光源220可以是激光二极管,并且照射光可以是激光,但是替代选择是可能的。照射光源220由定时发射器214控制,定时发生器214还控制可变光阑208,允许图像传感器210处于关闭状态(不采集光)或打开状态(采集光)。由图像传感器210所采集的光由前端212读出,前端212可包括任何适合的电路系统且根据由定时发生器214所定义的时钟来操作。处理器216可以将同步信号提供给定时发生器214且从前端212读取数字图像数据。
在图2的实施例中,照射光源220是激光二极管,但是照射光源通常可以包括任何被配置成产生激光或其它类型的光的设备。根据一些实施方案,照射光源220可以包括非可见波长的光(例如,红外光或近红外光,作为非限制实施例)。根据一些实施方案,照射光源可以产生单波长光。根据一些实施方案,照射光源可以包括将来自源的光引导至环境内的多个对象的一个或多个扩散器和/或其它光学组件。
在图2的实施例中,任选的驱动器211和217被包含且如图所示定位以分别提供图像传感器输出信号和提供给照射光源的照射信号的适当的放大功能。
根据一些实施方案,图像传感器210可被配置成采集用于产生2D图像的目的的光以及采集由照射光源220发射且从环境中的对象反射的照射光。图像传感器210可以多种方式配置而使得这两个光源可被区分开。作为实施例,根据一些实施方案,图像传感器的一个或多个像素可以包括颜色过滤器(例如,拜耳模式或其它的红色、绿色和蓝色过滤器)。根据一些实施方案,图像传感器210可以是组合RGB和IR传感器。
根据一些实施方案,图像传感器210可以包括两组单独的像素,每组被配置成唯一地捕获两个光源中的一个(用于2D图像的光和反射的照射光)。如上文所述,照射光可以包括非可见波长的光,允许其与采集用于2D图像的可见光区分开)。两个光源可以分开(例如,通过棱镜)且被引导至不同的图像传感器。
根据一些实施方案,图像传感器210可以包括两种不同类型的像素(例如,散布的,例如以棋盘模式),每种像素被配置成捕获两个光源中的一个(用于2D图像的光和反射的照射光)。入射到成像设备上的光因此可以都被引导到图像传感器的像素,其中一部分(例如,一半)采集可用于产生2D图像的可见光,一部分(例如,一半)采集可用于确定距离信息的反射的照射光(例如,红外光)。
根据一些实施方案,图像传感器210可以包括被配置成采集两种光源(用于2D图像的光和反射的照射光)的像素。该像素可各自产生指示所采集的可见光的量的第一信号(其可用于产生2D图像)和指示所采集的反射的照射光的量的第二信号(其可用于确定距离信息)。
处理器216可以实现用于操作照射光源和/或图像传感器来产生2D图像同时测量距离信息的适合的方案,如本文所述的。例如,处理器216可以实现下面所述的方法300和/或关于下面的图4和图5所论述的脉冲调制方案中的任一个。
图3是描绘根据一些实施方案的利用TOF 3D感测系统确定距离信息的方法的流程图。方法300的实施例可通过例如图2所示的成像设备201和/或图1所示的成像设备110来执行。更特别地,方法300可以通过成像设备内的一个处理或多个处理器控制图像传感器和照射光源来执行。
在方法300中,成像设备利用照射光确定参考距离,然后使用2D图像来估计或精确地确定相对于参考距离的距离变化。如上文所述,在一些实施方案中,成像设备可以得出结论,照射光将要被发射且在确定利用一个或多个2D图像所估计的距离不足够精确(例如在某预设阈值精度以下)时确定利用照射光来确定距离。方法300是确定何时发射照射光的该方法的一个示例性的实施例。
方法300开始于动作302,其中照射光源被操作(例如,通过定时发生器和/或其它控制器)以发射照射光,图像传感器被操作(例如,通过定时发生器和/或其它控制器)以采集反射的照射光。照射光可被发射作为已知持续时间的脉冲或者作为连续波,并且可以包括任何适当波长的光,比如红外的。例如,动作302可以包括下文结合图4所描述的脉冲调制分析的步骤。
在动作304中,在动作302中所采集的照射光被分析以确定距一个或多个对象的距离。例如,图像传感器的每个像素可以接收反射的照射光且可以独立地确定距该像素所观察到的对象(或对象的一部分)的距离。根据一些实施方案,所采集的照射光可被分析以确定光所展现的相移(根据上述的连续波测量技术)。根据一些实施方案,照射光可以在多个快门周期内被采集以确定所发射的照射光脉冲的飞行时间(根据下面要说明的脉冲调制测量技术)。
在动作306中,通过图像传感器捕获2D图像。如上文所述,图像传感器可使用与用于采集反射的照射光的像素相同或不同的像素来捕获2D图像。
在动作308中,在动作306中所捕获的2D图像被分析以估计对象面积和/或形状变化。这些变化可相对于在对象出现在动作304中所确定的距离映射中时对象的形状来确定,和/或相对于在对象出现在先前捕获的2D图像中时对象的形状来确定。广义地讲,分析可以检查在先前所获得的距离映射和/或2D图像中所观察到的对象的形状并且确定较前状态和较后状态之间的对象的形状和/或表观面积的变化。例如,在距离映射和/或先前的2D图像被捕获之后朝向成像设备移动的对象将期望在后续的2D图像中看起来较大(具有较大的面积)。动作308的分析可使用除了在动作306中捕获的2D图像之外的、在动作308中之前所捕获的任意数量的距离映射和/或2D图像来估计形状/面积变化。
在动作310中,做出如下确定:在动作308中估计的面积/形状变化是否足够良定而使得无需额外的照射光来确定精确距离。在一些情况下,对象可以相对于成像设备移动而使得确定它们的新位置和/或取向是困难的。例如,对象可以移动和/或旋转以产生谱高亮,其使得确定对象的表观尺寸不精确(因为在该情况下接收到的光可能无法明确指示对象的形状)。而且,在一些实施方案中,在动作306中所捕获的2D图像可以在与先前捕获的图像不同的场景中,使得用于动作306中捕获的2D图像的距离信息无法通过与先前的2D图像比较来确定。
根据一些实施方案,动作308可以产生所确定的面积/形状变化的估计精度的置信水平和/或其它指示,并且是否发射照射光以确定距离的确定可以至少部分地基于该精度是否落到预选阈值以上或以下。
根据一些实施方案,动作310中的确定可以考虑多个对象以及它们的面积/形状变化可能在动作308中被精确(或不精确地)确定的程度。例如,在一些实现中,如果单个对象具有低于预设阈值的面积/形状变化估计精度,即使其它对象的面积/形状变化是以阈值以上的精度估计的,也可能期望发射照射光。另外地,或者可选地,可以考虑全部对象的形状/面积估计的平均精度(以及相对于预设阈值比较)来确定是否使用照射光。其它基于对象形状/面积变化估计精度的总效应的方案可以替代地实现。
如果在动作310中确定要发射额外的照射光来确定距离,则方法300返回到动作302。可替代的,如果确定不使用额外的照射光,则在动作312中确定在动作308中所估计的面积/形状变化所暗示(以及基于其)的距离变化。
在任选的动作309中,除了在动作308和/或动作304中确定的距离之外,可以利用在动作306中捕获的2D图像来生成3维图像(3D)图像。该动作可以包括:除了距离信息之外,基于在动作306中捕获的2D图像来生成立体图像。虽然在图3的实施例中动作309被描绘在动作312与314之间,将理解到,动作309可以发生在已经确定了距对象的距离之后的任意时间。
在动作314中,基于在动作312中确定的距离变化来更新先前在动作304中所确定的参考距离。在动作314的后续实例中,多个距离变化可应用于动作304中所确定的距离变化。然后,在动作306和动作308中捕获另一2D图像,任选地309,310,312和314重复,直到在动作310的实例中确定要使用另外的照射光来以期望的精度确定距离。
方法300的最终结果是,仅当在动作310中确定对象面积/形状变化估计不足够精确而使得额外的照射光将是有益的时候,在动作302中发射照射光。使用适当的算法来估计这些面积/形状变化,可以期望照射光仅在成像设备的帧的小部分中发射,从而降低功耗。在一些实施方案中,功耗可以降低2或以上的因子。根据一些实施方案,照射光以不到全部帧的一半或者不到全部帧的四分之一或者不到全部帧的10%发射。
虽然在图3的实施例中动作312描绘于动作310之后,将理解到,动作312还可以在动作310之前执行,使得所确定的距离,而非对象面积/形状变化,被用于确定在动作310中是否需要额外的距离信息。
图4示出了根据一些实施方案的确定距对象的距离的脉冲调制技术。如上文所述,在一些实施方案中,脉冲调制技术可应用确定距离。图400说明了可由比如图1A和图2所示的那些的图像传感器使用的该技术的一个实施例。
在图4的实施例中,在周期TLD(其可以是例如10ns与30ns之间,15ns与25ns之间,22ns或在这些范围内的任意值或值的范围)内发射照射光。该图示出了当返回到图像传感器而不是由于将从以下说明理解的原因而发射时的光脉冲。图中所示的时间轴开始于照射光脉冲开始发射时。当脉冲开始发射时,第一快门周期(标记为“S0快门”)开始,在该期间内图像传感器采集照射光。当第一快门周期结束时,在该周期内所采集的光从图像传感器读出,并且第二快门周期(标记为“S1快门”)开始.当第二快门周期结束时,在该周期内所采集的光也从图像传感器读出。
在第二快门周期结束之后,在所示的“背景快门”所指示的时间由图像传感器捕获背景图像。背景快门可以利用图像传感器捕获背景光。根据一些实施方案,背景快门信号可从S0快门周期和/或S1快门周期期间所采集的光中减除以估计在没有任何背景光的情况下在那些快门周期内所接收到的照射脉冲光(其可以表示在S0快门周期和S1快门周期期间所采集的光的“噪声”成分)。
根据一些实施方案,S0快门周期和/或S1快门周期和背景图像捕获快门可以都发生在图像传感器的单个帧内。根据一些实施方案,S0快门周期和/或S1快门周期、背景图像捕获快门和图像传感器额外捕获2D图像可以都发生在图像传感器的单个帧内。
在图4的实施例中,在S0中所采集的照射光(标记为“S0信号”)相对于在S1中所采集的照射光(标记为“S1信号”)的比率指示反射照射光的对象距图像传感器的距离。因为照射光在已知持续时间的脉冲内发射,所以与S1快门周期相比在S0快门周期内所采集的光越多,对象越靠近图像传感器。在图中示出了示例性的返回的照射光脉冲,该脉冲的大部分光是在第二快门周期内采集的,如S1信号具有比S0信号更大的持续时间所表明的。基于该方法,距对象的距离可经由以下公式来确定:
Figure BDA0001247553000000121
在上述公式中,“S0”和“S1”分别是指在S0和S1快门周期内接收到的信号的量值,“BG”是指在背景快门周期内接收到的信号的量值。例如,这些信号的量值可以是由图像传感器所产生的光强度信号(例如,在S0和/或S1的情况下照射光强度信号)。而且,在该公式中,“c”是光速,D是所确定的距对象的距离。
根据一些实施方案,为确定距离映射,图像传感器可以基于在S0和S1快门周期中的每一个期间内像素采集多少光来对于每个像素独立地执行上述计算。照射光脉冲可从单个照射光源发射并且利用如上所述的扩散器而散布到环境中的对象上。
图5描绘了根据一些实施方案的在单个成像帧内的照射光源的脉冲调制的示例性的模式。在一些情况下,有利的是在图像传感器的单个帧内发射照射光的多个脉冲且进行反射的照射光的多次测量。该方法可以例如比图4所示以及上文所述的单一测量产生更精确的距离测量。例如,通过图像传感器所捕获的额外光的背景噪声可通过进行照射光的反复测量而得以滤除。图5所示的图500描绘了使用关于图4所描述的方法在单个帧内执行多个脉冲调制测量的一个示例性的模式。
在图5的实施例中,相继发射多个照射光脉冲(下轴线)。当这些脉冲中的每一个被发射时,在从脉冲发射开始起始且以脉冲发射结束而结束的时间段内执行其中图像传感器采集光的S0快门周期(如图4所示)。在图5的实施例中,在一行内执行多个照射光脉冲与S0快门周期测量组合,而无需执行任何S1快门周期。
在S0相位脉冲组之后,相继发射另一组照射光脉冲。当这些脉冲中的每一个被发射时,在从脉冲发射结束为起始且以等于此后脉冲的持续时间的时间段结束的时间段内执行其中图像传感器采集光的S1快门(如图4所示)。
在S1相位脉冲组之后,S0和S1快门周期中的每一个期间所采集的光量的测量可以经整理且用于确定距离(例如,通过使用上述等式1)。因为期望照射光脉冲的长度较短(例如,不到30ns),甚至在如图5所示的多个周期内对象通常将不移动很多(如果真的移动)。例如,即使使用在S0和S1相位脉冲组期间的图5所示的十四个照射光脉冲,两个相位脉冲组可以在实质上不到一微秒内完成。
在S0和S1相位脉冲组完成之后,可以在多个快门周期内捕获背景图像(在该时间内不发射对应的照射光)。如上文所述,背景图像可被捕获以获得在S0相位组信号和S1相位组信号中存在的背景“噪声”的估计,并且可用于从S0/S1信号中减除该噪声。根据一些实施方案,2D图像可以在图5所示的同一帧期间内进一步由图像传感器捕获。
图6示出了在一些而非全部帧内发射照射光的帧序列。如上文所述,在帧序列中,可以在帧序列中的每一个内做出是否应发射照射光的判定。在不到全部的这些帧内,所得到的判定可以是不应发射照射光。作为该使用情况的示例性的实施例,图6示出了帧序列601-606,其中在帧601和605中而不是在帧602,603,604或606中发射照射光。
在图7中示出了可包含上述类型的成像设备的系统700的示例性的实现方式。系统700包括图2的成像设备201,但是根据本文所述的替代实施方案的成像设备可以替代地被包含。供电装置702可以被提供以对成像设备201供电,同时可能对系统的其它组件供电。供电装置702在一些实施方案中可以是电池,比如通常在移动电话、平板设备和其它消费电子产品中所使用的电池。如已经说明的,在一些实施方案中,成像设备201可以提供低功率操作,并且因此可以利于使用低功率电池作为供电装置702。然而,在所有实施方案中,供电装置702不限于电池,也不限于特定类型的电池。
系统700还包括存储器704和非易失性存储设备706。这些组件可以以任意适当的方式(比如经由共享通信链路708)与成像设备201通信耦合。共享通信链路708可以是总线或其它适当的连接。存储器704和/或非易失性存储设备706可以存储用于控制成像设备201的操作的处理器可执行指令,例如以结合图3所描述的方式来操作,和/或由成像设备201所捕获的数据。结合例如如本文所述的距离感测技术,用于例如对照射光源发信号以产生一个或多个光脉冲、打开和/或关闭图像传感器的快门、读出图像传感器的像素、基于所采集的照射光执行距离计算等的代码可以存储在存储器704或非易失性存储设备706中的一个或多个上。处理器216可以执行任何此类代码以提供如本文所述的距离感测技术。存储器704可以存储表示成像设备201所捕获的2D和/或3D图像的数据。在至少一些实施方案中,存储器704或非易失性存储设备706可以是非暂态存储器。
本文所述的成像系统可以在各种应用中使用,其一些实施例结合图8-10进行了说明。第一实施例是移动设备,比如智能电话、平板式计算机、智能手表、或其它移动设备。本文所述的类型的成像系统,比如成像设备201或系统700,可以用作为移动设备的照相机组件。图8示出了实施例,在该情况下是移动电话。移动电话800包括照相机802,照相机802可以是本文所述的用于捕获和生成3D图像的类型的成像设备,比如成像设备201。使用成像设备201作为照相机802可通过低功耗操作来促进,例如根据本申请的各方面本文结合成像设备所描述的操作方式。诸如移动电话800的移动设备通常借助电池电力来操作,并且因此消耗大功率的组件在这些设备内使用是不切实际的。相反,本文所描述的类型的成像设备可以以功率高效的方式部署在此类设备内。
图9示出了实现本文所述的类型的成像系统的娱乐系统。娱乐系统900包括控制台902和显示器904。该控制台可以是被配置成在显示器904上生成视频游戏的图像的视频游戏控制台,并且可以包括照相机906。照相机906可以是本文所述的类型的成像系统,其被配置成捕获3D图像,比如成像设备201。在图9的实施例中,用户908可以经由控制器910与娱乐系统交互,例如玩视频游戏。照相机906可以捕获用户和/或控制器的图像,并且可以确定距用户的距离D1。该距离信息可用于生成3D图像以显示在显示器904上或用于控制娱乐系统的某其它方面。例如,用户902可以利用手势来控制娱乐系统,并且可以至少部分地通过捕获距离信息D1来确定姿势。
本文所述的类型的成像系统还可以用于机器人。图10示出了具有成像系统1004的机器人1002的实施例。机器人可以是移动式的,由成像系统1004所采集的信息可用于辅助机器人的导航和/或电动机控制。成像系统1004可以是本文所述的类型,例如是系统700或成像设备201。移动机器人通常由电池供电,并且因此本文所述的根据一些所述的实施方案可以在相对低功率下操作的类型的成像系统可促进其与机器人的集成。
本文所描述的除图8-10中所示的那些之外的术语的使用的实施例也是可能的。例如,汽车和安全照相机可以实现本文所述的类型的3D成像设备。
本文在说明书和权利要求书中所使用的措辞“和/或”应当理解成意指如此联合的元素中的“任一者或两者”,即在一些情况下联合地存在而在其它情况下分离地存在的元素。在一些实施方案中,术语“近似”和“大约”可以用来意指在目标值的20%的均值内,在一些实施方案中意指目标值的±10%以内,在一些实施方案中意指目标值的5%以内,而在一些实施方案中在目标值的±2%以内。术语“近似”和“大约”可以包括目标值。
利用具有优化时变光强度的飞行时间深度感测
使用飞行时间相机的深度感测的大能量消耗源来自对照射场景的激光器供电。为了获得高信噪比(SNR),相机传感器暴露于足够量的光,这目前通常限制对插入设备的飞行时间感测。许多应用需要电池供电的解决方案,例如无人机感测,增强现实,汽车感测。
为了以最小的深度图像精度损失来降低功耗,本公开描述了机器学习和计算机视觉算法,以增强从使用低功率光源的飞行时间相机获得的低质量深度图像(即通过对给定帧发送较少的光脉冲)。使用从低功率设置获得的低质量深度图像来获得更高质量的深度图像就好像这些更高质量的深度图像是使用机器学习技术在高功率设置中收集的思想,是使用机器学习技术来将用有限资源(例如,功率,曝光时间,像素计数)获得的数据映射到利用更丰富的资源获得的数据的更一般理念的子集。一个其他实施例是将低SNR图像映射到可能已经被记录为高SNR图像的图像。由于这种资源的限制可能在用有限资源获得的数据中以系统的方式表现出来,所以如果存在足够的训练数据,则数据驱动/机器学习方法具有成功建模和补偿这种差异的潜力。
为了获得高质量深度图,实施方案包括在低质量深度图像旁边使用时间不敏感帧(例如,RGB帧)。作为实施例,RGB相机的功率消耗小于用于基于激光的深度图像捕获的功率消耗,并且RGB帧可以用于增加深度感测的分辨率。这种系统以数据驱动方法训练,例如通过经训练以在给定当前RGB图像和低质量深度图的情况下预测当前帧的高质量深度图的神经网络。为了进一步节省功率,还训练系统以输出置信度得分,置信度得分反映其可使用当前RGB图像和先前的深度估计有多精确地预测当前帧中的深度。当置信度得分低时,该系统可以打开激光器(或其他照射源)和/或使用更少的脉冲来获得低质量深度图。该低质量深度图可以与RGB图像一起使用以获得更高质量的深度图。
图11是根据本公开的实施方案的使用成像设备进行成像的过程流程图1100。该算法可以在1102处开始。成像系统处理器可以确定是否存储了现有的深度图(1104)。如果没有存储深度图,则成像系统可以使用激光脉冲捕获深度图(1106)。系统可以存储深度图(1108)。
如果存在深度图,则成像系统可以捕获一个或多个帧(例如,时间不敏感的帧,例如RGB帧)(1110)。该系统可以在固定的时间量内获取时间不敏感的图像。在实施方案中,系统可以对时间不敏感的图像执行分析并且获取时间不敏感的图像,直到对时间不敏感的图像的分析显示深度估计精度的置信度低于阈值。在实施方案中,可以分析时间不敏感图像的运动。诸如3D光流算法的图像处理或计算机视觉算法可以用于从时间不敏感和深度图图像来估计深度。
在设置的时间量之后,或当使用时间不敏感帧或运动量获得的深度估计的置信水平高于阈值时,可以使用飞行时间成像来测量新的深度图,而不使用时间不敏感图像(1112)。
可以基于更新的深度图来计算置信度得分(1114)。成像系统可以确定置信度得分是否高于阈值(例如,c>T)(1116)。如果置信度得分高于阈值,则不采用新的深度图图片(1120),并且成像系统可以继续获取时间不敏感帧(1510)。
如果置信度小于(或小于或等于)阈值(例如,c≤T),则成像系统可以基于置信度得分来调整用于捕获新的深度图像的激光功率(1118)。通常,激光功率可以基于激光功率函数f(c)来确定,其接收置信度得分并输出用于捕获新深度图的期望激光功率。例如,低置信度得分将导致较高的激光功率函数。
成像系统可使用经调整的激光功率来捕获新的深度图像(1506),并存储新的深度图(1108)。
图12A是根据本公开的实施方案的用于确定用于从同一场景的较低质量图像提供来自场景的较高质量图像的一个或多个算法参数的过程流程图1200。首先,可以捕获多个高质量图像并将其存储在数据库中(1202)。同样,为了训练目的,可以捕获多个类似的低质量图像(1204)。高质量图像和相应的低质量图像可以提供给训练算法(1206)。训练算法可以调整可以用于从低质量图像获得高质量图像的一个或多个算法参数(1208)。高质量图像包括具有高分辨率、高SNR、高功率或高资源消耗图像或上述的组合的图像。低质量图像可以是低分辨率、低SNR、低功率或资源消耗图像,或上述的组合。通过机器学习、训练、数据驱动分析等,来自高质量图像的方面可以与低质量图像进行比较。可以基于一个或多个算法参数来调整低质量图像以增加它们的质量。这些算法参数可以被存储用于通过成像系统处理器进行的即时质量调整。
在实施方案中,训练图像可以包括时间敏感图像(例如,飞行时间深度图像),并且还可以包括一个或多个时间不敏感图像(例如,不包括时间测量的RGB或IR图像)。值得注意的是,在即时质量调整期间,捕获的图像的类型将匹配训练中使用的那些类型(即,如果时间敏感图像和时间不敏感图像的组合用于训练目的,在正常的相机操作期间应使用时间敏感图像和时间不敏感图像的同一组合)。
图12B是根据本公开的实施方案的使用确定的算法参数从较低质量的捕获图像提供较高质量图像的过程流程图1250。在正常的图像捕获期间,可以通过捕获低质量图像来降低功耗(1252)。例如,可以使用低照射功率、低曝光时间、低分辨率等来捕获低质量图像。可以使用机器学习算法来处理低质量图像,所述机器学习算法使用从图12A确定的算法参数(1254)。成像系统可以输出通过使用算法参数处理低质量图像所形成的高质量图像(1256)。
使用机器学习特征提取算法的可变SNR深度图像采集
飞行时间相机拍摄场景的图片,其中每个像素表示场景中的对应点到相机的距离。通过使用光脉冲(例如,IR光)照射场景并通过测量脉冲从相机到表面和从表面返回到传感器所花费的时间来估计距离。代替发射脉冲,一些飞行时间相机发射调幅的连续光波并测量发射的连续波(CW)和反射波之间的相移。飞行时间相机可用于包括虚拟现实(VR)、增强现实(AR)、自治汽车导航、机器人导航、无人驾驶导航等的许多应用中。
上述应用一般使用深度图像作为执行某种类型的特征提取的机器学习算法的输入,诸如手势识别(例如,识别手指收缩运动)。例如,手势识别算法可以具有不同的阶段,例如:分割,其中在3D图像中识别身体部位,以及跟踪,其中跟踪检测到的身体部位的空间中的轨迹,以及何时提取手势。可以使用特征提取的其他应用包括对象检测和碰撞避免(例如,检测汽车/机器人/无人机附近的人/物体)。术语“特征”可以包括可以从自像素子集获得的帧提取的任何信息,并且在一些情况下,信息可以在一定量的时间内并且在多个帧上改变。
在一些实施方案中,可以通过对表示不同特征的深度图像(或深度图像和时间不敏感图像的组合)的帧(或视频)的标记序列的数据集的算法训练来执行特征识别。在例如手势识别的情况下,训练阶段可以包括向算法提供代表各种姿势的多个帧序列并调整其参数,直到算法能够将它们分类在正确的类别(例如,手指收缩运动)中。
如在常规相机中,由传感器捕获的光的量确定信噪比(SNR):捕获的光越多,SNR越好。可以通过(1)增加光源的功率或通过(2)增加曝光时间来增加收集的光量。由于眼睛安全的原因,增加光源的功率通常在消费者应用中是不可行的。替代解决方案是用较不强大的光源将传感器曝光较长时间。以较长曝光时间捕获图像也降低了帧速率,这在需要实时深度视频时可能成为问题。此外,长曝光时间导致图像中更多的模糊,因为对象更可能在较长时间窗口期间被捕获移动。
对于这两种解决方案,增加SNR意味着在光源中消耗更多的能量,这可能例如在便携式应用中耗尽电池。激光功率通常是飞行时间相机中能量消耗的主要来源,因此,寻找减少其使用的方法是一个挑战。
包括对深度图像/视频执行特征提取的机器学习算法的本公开的实施方案通常假定使用给定帧速率(通常为30FPS)的帧的序列(视频)来描述感兴趣的场景。每个帧可以仅包含深度图像,仅包含从时间不敏感传感器获得的图像或者两者的组合。本公开集中于每个帧包含至少由飞行时间相机获取的深度图像的情况。
本公开描述了一种算法,其学习序列中的哪些深度帧对于给定特征更重要,使得仅获取帧的子集。因为大多数感兴趣的场景是非常结构化的(例如缓慢移动的手),所以大多数信息实际上包含在有限数量的帧中,并且通过适当地选择那些帧,可以减少深度图像的数量,并因此降低光源功率。例如,在手势识别的情况下,可以在分割阶段期间捕获几个连续的帧,然后在跟踪阶段期间捕获较少的帧。在对象检测或碰撞避免的情况下,当没有物体出现在照相机附近时可以降低帧速率(或每个深度图像的SNR),并且当物体更靠近相机时增加帧速率(或SNR)。
在本公开中,训练被执行特征提取的算法被训练以向每个深度图像分配SNR值(没有帧等同于具有零SNR的帧,具有高光源功率的帧具有较高的SNR)。在手势识别的情况下,算法可以获知,当手势未被识别时在第一帧中需要高SNR(即,精确的深度图像/高功率深度图像),并且一旦算法对于该手势是置信的则可以使用较低的SNR。
图13A是根据本公开的实施例的用于确定算法参数以从所捕获的图像提供特征提取的过程流程图1300。首先,可以存储多个帧序列并且分配至少一个标签。标签对应于与帧序列相关联的特征,例如一个特定的手势。预先记录的帧序列与标签一起存储,并且被检索并输入到机器学习算法中(1302)。机器学习算法可以使用算法参数(1316)对帧序列(或者,在实施方案中,对来自帧序列的每个帧的像素的子集)进行操作(1304)。
机器学习算法处理每个预先记录的帧序列并且尝试提取与帧序列相关联的特征,并且输出对应于特征的估计的标记(1306)。训练包括确定与所存储的帧序列相关联的正确标记与由算法确定的估计标记之间的误差(1308)。如果误差高(例如,误差>阈值),则可以调整算法参数(1314),并且由机器学习算法使用调整的算法参数以提供修正的估计标记(1316,1304)。机器学习算法的参数被迭代地调整(1314),直到预测标签和数据库中的帧的图像系列的实际标签之间的误差低于某个阈值(1310)。
算法参数可以包括诸如滤波器或插值参数的参数,但是还可以包括相机控制参数,诸如每个捕获的帧的照明功率、SNR等。
如果误差<阈值,则来自机器学习的估计标签输出与来自所存储的帧序列的正确标签充分匹配,并且用于机器学习的算法参数被存储以供相机使用(1312)。换句话说,如果误差<阈值,则机器学习已充分地识别来自帧序列的特征(例如,手势)。
图13B是根据本公开的实施方案的用于从成像系统捕获的一组帧中进行特征提取的过程流程图1350。成像系统可以捕获包括一个或多个特征的帧或视频(1352)。成像系统可以使用来自图13A的存储的机器学习参数对捕获的帧/视频执行机器学习(1354)。成像系统可以使用机器学习来识别特征(1358)。在一些实施方案中,机器学习可输出一个或多个相机参数调整以调整图像捕获质量(达到机器学习算法的较高准确度)(1356)。将调整提供给成像系统,其可以使用新的相机参数来捕获新的帧。
在实施方案中,捕获的帧包括RBG和深度图像,其可以用于使用机器学习的特征提取(例如手势识别)。
用于深度感测的引导滤波
通过最小化脉冲数量来获得可靠的深度测量可以具有诸如降低功率的优点,允许更多的TOF相机被同时使用,允许更快地获取深度图像,允许更快的帧速率等。
在本部分中,描述了使用适于深度估计的边缘保留低通滤波器来获取深度图像的技术。这种滤波器用于从在低功率设置中获得的深度图中去除噪声。例如,可以使用双边滤波器,但是典型的双边滤波器可能需要高计算资源。
本公开描述了一种称为“引导滤波器”的滤波器类型,其可以用于深度图的噪声滤波的边缘保留。在本公开中,这种引导滤波器可以被称为“深度感知引导滤波”,但是在不偏离本公开的范围的情况下也可以使用其它滤波器,例如根据本公开的实施方案适用或使用的双边滤波器。通常,本公开描述了对于为深度成像捕获的S0和S1像素集合中的每一个保持滤波器的某些参数恒定。滤波可以减少深度图像的每个分量(S0和S1)上的低功率图像中的噪声,这允许以用于图像捕获的减少数量的脉冲的形式使用低功率。
在描述“深度感知引导滤波器”之前,为了完整性和清楚起见,在本部分中描述了传统的引导滤波器。以下总结了示例的引导滤波技术:
让:
W是待滤波的单个图像(RGB、深度或其它)的当前补片中的像素的NxN区域;
pij是当前补片中的原始像素值;
a,b是对于当前补片中的中心像素进行计算的系数,其中a可以被视为该区域中的像素值的差异的指示(例如,越靠近边缘,差异越大),并且在本文称为缩放系数。系数b可以被视为该区域中的像素值的平均值的指示(例如,b可以靠近平坦区域中的每个像素值)。系数(a,b)对于每个NxN区域可以不同。
λ是对于我们的待滤波的图像的所有补片所共有的规则化常数;
经滤波的像素表示为
Figure BDA0001247553000000211
系数可通过求解以下的优化问题来得到:
Figure BDA0001247553000000212
该边缘保留滤波器在λ参数被恰当选择时是有效的。例如,增加λ会得到更平滑的图像,但是具有更模糊的边缘;而减小λ会得到更清晰的边缘,但是具有较差的噪声抑制。λ的值可被选择以平衡竞争利益。当像素的基础补片W视觉上平滑时,可以期望a≈0且
Figure BDA0001247553000000213
其中
Figure BDA0001247553000000214
是指在像素的补片(也称为窗口)W中的像素值上所取的平均值。可替代地,当基础补片不平滑和/或具有高的差异时(例如,当有边缘时),期望a≈1且b≈0。该优化等式可以被精确地求解,得到以下a和b的等式:
Figure BDA0001247553000000215
可以通过在整个图像上划动NxN窗来对图像滤波以获得不同的图像补片且对于以补片为中心的每个像素计算a和b。作为另一后处理步骤,可以被处理为两个图像本身的每个像素的a和b的统一值可以利用NxN盒平均核心进一步滤波。该过程的输出是两个2D信号,A和B,它们分别由a和b的滤波值构成。
如果原始图像表示为I,则引导滤波器的输出是
Figure BDA0001247553000000221
上面的相乘和相加是逐元素进行的。
深度感知引导滤波器:
注意的是,在一些实施方案中,利用TOF相机获得的深度图可以利用两个图像(标示为S0和S1)来获得。深度图(标示为D)的一个计算与下式成比例
Figure BDA0001247553000000222
本公开描述了将引导滤波器应用于S0和S1。在这样做时,会出现的一个问题是在边缘附近引入伪迹。如果边缘周围的a值在S0和S1中不同,则围绕边缘的深度估计将失真。S0和S1中边缘重叠,并且可以通过将缩放系数“a”约束为对于S0和S1中的同一图像补片相同以最小化可能的伪迹来通过数学方式强制该重叠。因为边缘更直接地受“a”影响,可以允许系数“b”在S0和S1之间变化。确保对于S0和S1中的同一补片绑定“a”的一种方法是如下选择参数:
Figure BDA0001247553000000223
其中b0是用于S0的系数b,b1是用于S1的系数b。该问题以类似于引导滤波器情况的方式解决,其中由于附加的参数“b”矩阵等式中的矩阵将是3x3,而不是2x2。
通过将引导滤波器应用于S0和S1并且在对于S0和S1的滤波过程之间保持系数“a”对于每个相应像素窗口恒定,可以利用低功率技术来捕获S0和S1,例如使用较少的激光脉冲(例如,500个激光脉冲,与4000相对)。
图14是依照本公开的实施方案对低功率深度图像滤波的过程流程图1400。可以在第一时间段捕获第一图像(S0)(1402)。可以在不同于第一时间段的第二时间段捕获第二图像(S1)(1404)。可以以如图4-5中上述类似的方式来捕获S0和S1。
对于每个像素窗口(即,一组像素值)可以根据捕获图像之一来确定一组滤波系数(1406)。例如,可以利用以下等式利用每个S0和S1的像素(一组像素)的NxN窗口来确定系数。
Figure BDA0001247553000000231
引导滤波器可以利用受约束的“a”系数而应用于S0的每个像素(1408)。例如
Figure BDA0001247553000000232
引导滤波器可利用相同的受约束系数“a”而应用于S1的每个像素(1410)。例如
Figure BDA0001247553000000233
可基于S1^与S0^的比率来确定改进的深度图像(1412)。
可以使用硬件处理、软件算法或硬件和软件的组合来执行上述的引导滤波处理,以实现实时深度估计。
在一些实施方案中,针对第一图像S0和第二图像S1中的每一个的比例系数。可以针对第一捕获图像的每个对应组的像素强制执行一个或多个系数之间的差的绝对值,并且第二捕获图像低于阈值:
Figure BDA0001247553000000234
其中α是尺度系数a0和a1的代价系数。
被动深度确定
计算机视觉技术可以用于被动深度确定。被动深度确定意味着在一些帧中获得深度信息,即使不执行直接(或“主动”)深度确定,例如以节省功率。计算机视觉技术可以首先分割出图像中的刚体。使用2D图像和优化,本文描述的技术可以用于估计刚体在三维中的运动,使得可以从在帧1给出的深度图推断深度估计,而不是取新的深度图像。
在该部分中,描述了一种算法,其能够通过跟踪经历平移的对象而不必连续地打开激光器来更新帧序列中的深度图像。假定期望深度的对象在场景中是已知的。该过程允许估计每个对象的深度如何在给定使用标称激光功率和一系列“廉价获取”图像获得的初始深度测量值的情况下改变。这些“廉价获取的”图像可以是使用数字相机获取的RGB图像或者以低功率设置获取的IR图像。
在第一种情况中,假定对象是刚性的,这意味着对象的所有部分以相同的方式移动(即对象不收缩,扩展,扭曲等)。在第二种情况下,组成对象的每个点可以以其自己的方式移动。
让:
I(x,y,t)是图像。坐标x和y表示图像中的像素,例如第二行和第三列中的像素将具有x=2且y=3。时间t表示帧数,I(x,y,t)是每个像素处的强度。I将是缩写;
f是相机的焦距;
X,Y,Z是现实世界坐标;
U,V,W分别是X,Y,Z下的现实世界速度;
x,y是逐像素坐标。这些坐标相对于相机原点是已知的;
u,v分别是x和y下的逐像素速度;这还称为“光流”。
在实施方案的实现方式中,可以给出初始深度图、一系列低功率或RGB图像和焦距;即,已知Z,各坐标x,y,和f。对于每个像素给定Z,例如,如果对于x=2且y=3,Z=2米,这意味着在成像设备的第二行、第三列中的像素中所捕获的光来自2米远处的对象的部分。
为获得其余变量中的一些,可以使用如下所示的角度投射。
Figure BDA0001247553000000241
本文所描述的算法能够用于恢复U,V,和W(以及扩展地,u和v)。U,V,和W与u和v之间的关系显示如下,其是通过相对于时间进行微分而获得的。
Figure BDA0001247553000000242
这里描述的算法的基础是亮度恒定性假设。亮度恒定性假设表明在小时间段内经历小平移的像素在强度上不改变。数学上,这可以表示如下。
让下角标x,y,t表示相对于那些变量的偏导数
Ix+vIy+It=0
按U,V,W重写u和v
Figure BDA0001247553000000243
重新安排各项,下面的等式可称为等式A。
fIxU+fIyV-(xIx+yIy)W+ZIt=0
刚体平移
可以计算刚体平移以确定图像中的已知体如何改变位置。这样的信息可以用于更新深度图,而不依赖于获取另外的高成本深度估计(高成本暗示高功率、基于激光的深度图)。如前面部分所述,刚体运动意味着组成对象的所有点都以相同的位移矢量移动。再有,假设期望深度信息的对象在图像中是已知的。
假设和记号:
R是图像中正进行刚体平移的区域;
U,V,W对于所有点R是恒定的;
Z是从先前深度图测量得到的;
为求解刚体平移,我们求解U,V和W以使对于区域R中的所有像素在最小二乘意义上尽可能满足等式[00166]。这等价于最小化以下目标函数J(U,V,W):
J(U,V,W)=∫∫(x,y)∈R(fIxU+fIyV-(xIx-yIy)W+ZIt)2dxdy(等式J(U,V,W))
最小化J(U,V,W)的解如下:
Figure BDA0001247553000000251
该等式给出了对象的三维速度,其可以用于更新深度图。刚体的假设意味着对象的速度U,V和W对于对象中的所有像素是相同的,因此它们不依赖于像素的坐标x,y。等式J(U,V,W)从初始深度帧获取深度图Z,使用亮度恒定性假设并最小化等式J(U,V,W)以获得刚性对象的速度U,V,W。
帧t+1的估计深度图以如下方式获得:在帧t处取像素(x,y),具有相关联的现实世界深度Z。其现实世界X和Y坐标从下式获得:
Figure BDA0001247553000000252
现在给定速度U,V和W,在帧t处在像素(x,y)处获得的对象的部分的帧t+1处的位置(可称为X’,Y’,Z’)以如下方式获得:X’=X+U,Y’=Y+V,Z’=Z+W(其中我们将帧间的时间步骤归一化1)。还有,使用
Figure BDA0001247553000000253
可以在帧t+1处估计像素位置(x’,y’),这对应于(X+U)=(Z+W)x’/f,(Y+V)=(Z+W)y’/f。在这些等式中,唯一未知的是x’和y’,因此可以提取它们。因此,在帧t+1处,位置(x’,y’)处的像素具有深度Z+W。如果(x’,y’)不是整数,则(x’,y’)可以舍入到最近的整数以填充该像素处的深度图。
图15是根据本公开的实施方案的用于通过刚体平移信息来更新深度图的过程流程图1500。首先,为刚体平移算法识别一个或多个刚体(1502)。可以给出初始深度图(例如,先前捕获的高功率深度图,例如在帧1中)、一系列图像和焦距;即Z,坐标x,y和f是已知的。图像中的刚体可以被分割到x和y中的刚体的逐像素位置(1504)。可以捕获场景的一个或多个低功率图像(1506)。例如,可以使用RGB相机或使用低功率IR源的相机来捕获场景的一个或多个图像。可以使用上述技术来分析一个或多个图像,以确定刚体在从初始高功率图像的起始点和低功率图像中的至少一个之间的平移(1508)。可以使用刚体平移信息来更新初始深度图(1510)。平移的逐像素估计
本部分描述了使用运动的逐像素估计来更新深度图。注意,使用等式A对单个像素的U,V,和W的确定是未确定的问题,因为(U,V,W)值的几个三元组将满足等式A而没有任何附加约束,其中在刚体运动情况下,所需的附加约束来自所有像素以相同的U,V,W移动的事实。为了约束等式A以获得合理的解,一种方法是对U,V,和W施加“平滑”。这种方法的开发如下所示。
为了简化推导,假设逐像素速度u和v是已知的(即,光流是已知的);
U,V,和W是2D函数;
λ是常数;
假设Z已经从先前的深度图测量获得;
定义
Figure BDA0001247553000000261
并且
Figure BDA0001247553000000262
其中S和H是用于确定坐标U,V的中间函数
F标示为被积函数,并且相对于每个变量的拉格朗日-欧拉方程为:
Figure BDA0001247553000000263
Figure BDA0001247553000000271
Figure BDA0001247553000000272
省略代数,以下是示例推导:
Figure BDA0001247553000000273
Figure BDA0001247553000000274
Figure BDA0001247553000000275
尽可能地省略U,V,和W的坐标以避免杂乱,但是这些方程对于每个像素是真的。此外,观察拉格朗日-欧拉方程涉及U,V,和W的拉普拉斯算子。对于图像,拉普拉斯算子的一个这样的近似是:
Figure BDA0001247553000000276
其中
Figure BDA0001247553000000277
κ=3
这种推导到目前为止提出了迭代方案。对于每个点:
Figure BDA0001247553000000278
每个像素的相对运动可以用于更新深度估计。
图16是根据本公开的实施方案的用于确定图像的逐像素平移以更新深度图的过程流程图1600。首先,可以知道运动中的物体,并且可以知道物体速度(1602)。可以识别图像的已知深度图,或者如果现在先前捕获,则可以使用高功率深度估计技术捕获深度图(1604)。可以捕获场景的一个或多个低功率图像(例如,2D RGB图像或低功率IR图像)(1606)。可以例如使用上述算法(1608)来估计或计算物体的逐像素位置。可以使用物体的位置变化的逐像素计算来更新深度图(1610)。
使用惯性测量单元(IMU)进行帧插值
图17是根据一些实施方案的包括进一步配备有惯性测量单元(IMU)1702(包括加速度计,陀螺仪)的飞行时间(ToF)成像设备1701的感测系统1700的示意图。感测系统1700类似于系统200。IMU 1702提供关于ToF成像设备1701的运动的信息,诸如平移加速和旋转运动。由IMU提供的信息可以用于利用板载处理器216估计ToF成像设备1701的运动。
根据具有帧抽取方案以降低激光发射功率的ToF成像设备1701的一些实施方案,抽取帧中的深度图从ToF成像设备1701和RGB图像或其他光敏设备在抽取帧期间捕获的测量深度图内插。内插过程涉及计算复杂的算法以分割图像并通过相对于ToF成像设备1701内插这些分段的运动来内插每个分段的深度图。
图18A是对组合使用ToF成像设备1701的运动信息获得的静止对象的内插深度图和使用RGB图像的运动对象的深度图内插的场景的深度图进行插值的过程的实施方案。可通过处理从一个或多个惯性测量单元(1802)接收的数据来确定ToF成像设备1701的运动。基于先前RGB帧1805和来自先前帧1814的对应深度图来高效地计算具有对应深度图1806的估计RGB帧。然后将估计的RGB帧与在当前帧1804中捕获的RGB图像进行比较,可以从场景中识别和提取移动对象1808和静止对象1810的深度图。根据一些实施方案,使用数据驱动算法基于当前帧1804和先前帧1805的RGB图像来估计移动对象1812的深度图。通过组合移动对象1812和静止对象1810的深度图来产生当前帧1814的整个场景的内插深度图。
IMU可以用于辅助第一2D图像和第二2D图像之间的估计平移、旋转和重新缩放矢量。例如,IMU可以提供与图像传感器如何相对于场景中的对象移动有关的准确信息。该运动信息可以用于确定两个2D捕获图像之间的像素补片的平移、旋转和/或重新缩放。
图18B是根据本公开的实施方案的使用惯性测量单元信息来估计深度图的过程流程图1850。首先,诸如成像系统1701的成像系统可以在成像系统移动时收集IMU信息(1852)。在先前帧中,成像系统可以捕获二维图像,例如RGB图像和场景的深度图(1855)。成像系统1701可以使用IMU信息和先前捕获的二维图像和深度图来估计下一帧的新的二维图像和/或深度图(1856)。IMU可以提供关于在场景中的一个或多个对象如何可能在帧之间已经改变的信息,诸如变换信息。
物体运动的逐补片评估
图19是根据本公开的实施方案的使用对物体的运动的逐补片估计来更新深度图的过程流程图1900。首先,捕获第一帧(帧1),其可以是用于创建深度图(即,使用高功率深度估计技术)的高功率捕获(1902)。在由低功率或2D RGB技术捕获的一个或多个后来帧中(1904),其中,深度是未知的或有噪声的,图像的一个或多个补片(或像素的窗口)可以被评估,以找到也存在于帧1中的对应的补片(1906)。例如,对应的补片可以包括存在于每个帧中的对象或对象的部分。来自低功率/RGB图像的补片可以与高功率的图像中的在此补片附近的可能不同大小的补片进行比较,以估计该对象或对象的部分移动(平移)多少,改变多少尺寸(重新缩放),和/或旋转多少(1908)。可以使用诸如像素值的差的和的度量来执行比较,其中大的值对应于大的视差,并且正在寻找具有最小视差的补片。在实施方案中,可以实施相邻补片之间的变换的平滑度(1910)。
可以通过确定对象或对象的部分或其他感兴趣区域如何在两个图像之间改变来估计深度(1912)。例如,如果补片较大,那么对象比其在帧中更接近相机。在实施方案中,尺寸或其它运动的变化可以被量化以估计深度的变化。此外,旋转估计能力的使用可以帮助识别两个图像之间的补片(或像素组)。在第二图像中识别对应的像素补片之后,平移和重新缩放(以及在一些实施方案中的旋转)可以用于深度估计目的。
用于识别图像之间的像素位置的变化、重新缩放和/或旋转的算法的示例包括光流、块匹配、补片匹配、快速傅里叶变换等的变型。
在一些实施方案中,本文所描述的算法可受益于数据驱动方法以增加可靠性。可以收集包括以高脉冲计数获得的高精度深度图和一个或多个低功率或2D RGB图像的大图像集合。可以训练数据驱动算法,例如神经网络、支持向量机,以提高精度和/或速度。这样的数据驱动算法可以应用于实时图像处理技术以增强低功率深度图更新。例如,可以收集包括深度图的大数据集,以学习比较度量以比较补片。
作为使用补片位置、缩放或旋转的变化的实施例,可以捕获第一2D图像以及第一2D图像中的对象的深度图或深度估计。然后可以捕获第二2D图像。从第一2D图像,识别与像素(x,y)相邻并且接近的像素的补片,并将其分配给第一2D图像中的像素(x,y)。形成补片的像素的数量可以基于期望的分辨率、功耗、处理器利用率等选择。可以使用例如所捕获的整个图像的深度图来确定第一2D图像的像素的每个补片的深度图。来自第一2D图像的像素的深度可以由F(x,y)表示,其中F(x,y)表示位置(x,y)处的像素的深度。
可以例如使用上述一个或多个算法来确定补片的位置、缩放或旋转的变化。在该实施例中,可以确定像素补片已经历重新缩放和平移。像素的平移可以由T=(x'-x,y'-y)表示,其中(x',y')表示第二2D图像中的对应像素的新像素位置。重新缩放可以由因子α表示。第二2D图像中的像素的新深度可以表示为:
G(x’,y’)=(1/α)*F(x,y)=(1/α)*F((x’,y’)-T),
其中G(x’,y’)是第二2D图像的位置(x’,y’)处的每个像素的估计深度。
在实施方案中,可以对第二2D图像的每个像素执行深度估计。在实施方案中,第一2D图像和第二2D图像之间的像素(x,y)的深度变化可以用作分配给像素(x,y)的像素补片的像素深度的代表性变化。例如,来自第二2D图像的(x',y')处的像素可以被估计为在深度G(x',y')处,其与第一2D图像中在(x,y)处的像素的深度之差为量A=G(x',y')-F(x,y)。如果假设每个补片中的像素以相似的方式在第一2D图像和第二2D图像之间移动,则分配给第二2D图像中的像素(x',y')的补片中的像素的深度将相差量A。换句话说,分配给像素(x'y')的补片中的像素的深度将是分配给第一图像中的像素(x,y)的补片中的像素的深度加上A。
在实施方案中,对于形成分配给像素(x,y)的整个像素补片的每个像素,T和/或α可以保持恒定,可以估计块的深度,而不单独估计补片中每个像素的深度。
背景完成
虽然被动深度确定算法(刚体运动和逐像素方向运动版本)都可以用于监控场景中运动对象的深度,但是这些对象的运动也暴露背景中来自前一帧的深度测量不可用的区域。为了“填充”这些区域,可能的技术包括图像修复、块匹配等。例如,通过在“廉价获得”帧中使用块匹配,可以识别与未覆盖的背景补片最接近的匹配补片,然后使用位于来自高质量深度图的相同区域的补片来“填充”未覆盖区域。我们的方法将使用被动深度确定算法与这些“填充”方法一起来产生完整的深度图。
图20是用于外推更新的深度图的背景像素的过程流程图2000。成像系统可以识别其外推深度图的方法将不给出正确的深度估计的像素(2002)。例如,当对象或对象的部分从第一图像移动到第二图像时,显示由对象隐藏的任何东西。因为对象阻挡了背景的区域,所以隐藏的背景的深度不是初始深度图的部分。表示背景的像素在第二图像中被显示,但是深度是未知的。可以针对背景完成来识别那些像素。
成像系统可以定位图像中的、可用于估计新显露像素的深度的、具有正确深度估计的区域(2004)。上述背景完成可以用于基于图像中深度被正确估计的区域来估计深度(2006)。
在实施方案中,成像设备可以使用成像传感器从场景进行测量。术语“测量”可以包括捕获二维图像和深度图像(例如,可以用于构造深度图的深度信息)。术语“二维图像”包括不是深度图像的任何图像,例如颜色(RGB)图像、灰度图像、红外图像、其他常规图像等。
各种发明构思可以体现为至少一个非暂态性计算机可读存储介质(例如,计算机存储器,一个或多个软盘,压缩盘,光盘,磁带,闪存,现场可编程门阵列或其它半导体器件中的电路配置等)或用一个或多个程序编码的计算机可读存储设备(其可以包括前述示例),当在一个或多个计算机或其他处理器上执行时,一个或多个程序实现本申请的各个实施方案。
已经描述了本申请的技术的若干方面和实施方案,应当理解,本领域普通技术人员将容易想到各种改变、修改和改进。这样的改变、修改和改进旨在在本申请中描述的技术的精神和范围内。因此,应当理解,前述实施例仅以示例的方式给出,并且在所附权利要求及其等同物的范围内,本发明实施例可以以不同于具体描述的方式实施。此外,如果这些特征、系统、制品、材料和/或方法不相互矛盾,则本文所述的两个或更多个特征、系统、物品、材料和/或方法的任何组合包括在本公开的范围内。
此外,如所描述的,一些方面可以被具体化为一个或多个方法。作为方法的一部分执行的动作可以以任何合适的方式排序。因此,可以构造其中以不同于所示的顺序执行动作的实施方案,其可以包括同时执行一些动作,即使在说明性的实施方案中示出为顺序的动作。
本文定义和使用的所有定义应理解为高于字典定义,通过引用并入的文献中的定义和/或所定义术语的普通含义。
如本文在说明书和权利要求书中使用的短语“和/或”应当被理解为是指这样连接的元件中的“任一个或两个”,即在一些情况下连接存在而在其他情况下分离地存在的元件。
如本文在说明书和权利要求书中所使用的,关于一个或多个元件的列表的短语“至少一个”应当被理解为表示选自元素列表中的任意一个或多个元素的至少一个元素,但不一定包括在元素列表中具体列出的每个元素中的至少一个,并且不排除元素列表中的元素的任何组合。该定义还允许元素可以可选地存在,除了不是短语“至少一个”所指的元素列表中具体标识的元素之外,无论与具体标识的那些元素相关或不相关。
术语“近似”和“大约”可以用于表示在一些实施方案中在目标值的±20%内,在一些实施方案中在目标值的±10%内,在一些实施方案中在目标值的±5%内,并且在一些实施方案中在目标值的±2%内。术语“近似”和“大约”可以包括目标值。
在权利要求中以及在上述说明书中,所有过渡短语例如“包括”,“包含”,“携带”,“具有”,“含有”,“涉及”,“保持”、“由...构成”等是开放式的,即意思是包括但不限于。过渡性短语“由...组成”和“基本上由...组成”应分别是闭合或半闭合过渡短语。

Claims (22)

1.一种操作成像设备的方法,包括:
在多个帧的第一帧期间使用第一功率设置从场景捕获第一组测量值,所述第一组测量值包括表示所述场景中的至少一个对象与所述成像设备之间的距离的深度图;
在第二帧期间使用第二功率设置从所述场景捕获第二组测量值,所述第二功率设置低于所述第一功率设置;
在所述第二帧中识别第二像素窗口;
在所述第一帧中识别第一像素窗口,其中第一像素窗口对应于所述第二像素窗口并且包括所述深度图的相应的第一子集;
至少部分地基于所述深度图的所述第一子集,确定对象的至少一部分从所述第一像素窗口到所述第二像素窗口的运动、重定标和旋转中的至少一个;以及
至少部分地基于所述第二组测量值和所述运动、重定标和旋转中的至少一个的确定来更新在所述第一帧期间捕获的深度图。
2.如权利要求1所述的方法,其中所述深度图是第一深度图,并且其中所述第二组测量值包括在所述第二功率设置下捕获的第二深度图;所述方法还包括:
至少部分地基于所述第二深度图更新所述第一深度图。
3.如权利要求1所述的方法,其中所述第一组测量值包括第一二维图像,所述第二组测量值包括第二二维图像,所述方法还包括:
识别所述第一二维图像中的场景的至少部分;
从所述第二二维图像确定所述场景的所述至少部分的变换的变化;以及
其中更新所述深度图包括基于所述场景的所述至少部分的变换的所述变化来更新所述深度图。
4.如权利要求3所述的方法,其中所述场景的所述至少部分的所述变换的所述变化包括位置、取向或尺度的变化中的一个或多个。
5.如权利要求1所述的方法,还包括确定所述场景的所述至少部分的变换,包括:
识别表示所述第一组测量值中的至少一个对象的所述部分的第一组像素;
确定所述第一组像素中的至少一个像素的第一深度;
识别所述第二组测量值中的对应于所述至少一个对象的所述部分的第二组像素;以及
确定所述第二组像素中的至少一个像素的第二深度。
6.如权利要求3所述的方法,其中确定所述场景的所述至少部分的变换包括确定所述场景的所述至少部分的旋转。
7.如权利要求6所述的方法,其中确定所述场景的所述至少部分的旋转包括:
对所述第一二维图像和所述第二二维图像中的所述场景的所述至少部分中的像素应用快速傅里叶变换;
确定两个快速傅里叶变换的幅度;
将傅里叶变换的幅度的坐标变换为极坐标;
计算极坐标中的两个傅里叶变换的幅度的互功率谱;以及
确定所述互功率谱最大化的角度作为旋转角度。
8.如权利要求6所述的方法,其中确定所述场景的所述至少部分的旋转包括:
对所述第一二维图像和所述第二二维图像中的所述场景的所述至少部分中的像素应用快速傅里叶变换;
将快速傅里叶变换的至少一些坐标变换为对数标度的极坐标;
计算所述快速傅里叶变换在对数极坐标中的互功率谱;以及
确定将所述互功率谱最大化的平移的指数作为重定标。
9.如权利要求1所述的方法,进一步包括:
确定与所述第一组测量值和所述第二组测量值之间的比较相关联的置信度度量;以及
在所述多个帧的第三帧期间,使用第三功率设置捕获第三组测量值,所述第三功率设置基于所述置信度度量来确定。
10.如权利要求1所述的方法,进一步包括:
识别更新的深度图包括不正确的深度估计的像素;
在第一帧中找到在更新的深度图中具有正确深度估计的区域;以及
基于所述第一帧中的具有正确深度估计的区域将背景完成过程应用于具有不正确的深度估计的像素。
11.如权利要求1所述的方法,进一步包括:
通过耦合到图像传感器的惯性测量单元IMU确定所述图像传感器的位置、取向和速度中的至少一项;以及
将由所述IMU暗示的变换应用于所述场景的所述至少部分,以确定所述场景的所述至少部分如何在所述第一帧和所述第二帧之间改变。
12.一种成像设备,包括:
图像传感器,所述图像传感器被配置为:
捕获来自场景的第一组测量值,所述第一组测量值在多个帧的第一帧期间并且使用第一功率设置捕获,所述第一组测量值包括表示所述场景中的至少一个对象和图像传感器之间的距离的深度图;以及
捕获来自所述场景的第二组测量值,所述第二组测量值是在第二帧期间并使用第二功率设置捕获的;以及
图像处理器,所述图像处理器被配置为:
在所述第二帧中识别第二像素窗口;
在所述第一帧中识别第一像素窗口,其中第一像素窗口对应于所述第二像素窗口并且包括所述深度图的相应的第一子集;
至少部分地基于所述深度图的所述第一子集,确定对象的至少一部分从所述第一像素窗口到所述第二像素窗口的运动、重定标和旋转中的至少一个;以及
至少部分地基于所所述第二组测量值和所述运动、重定标和旋转中的至少一个的确定来更新在所述第一帧期间捕获的深度图。
13.如权利要求12所述的成像设备,其中所述深度图是第一深度图,并且其中所述第二组测量值包括在所述第二功率设置下捕获的第二深度图,并且其中所述图像处理器还被配置为至少部分地基于所述第二深度图来更新所述第一深度图。
14.如权利要求12所述的成像设备,其中所述第一组测量值包括第一二维图像,所述第二组测量值包括第二二维图像,并且所述图像处理器还被配置为:
识别所述第一二维图像中的场景的至少部分;以及
从所述第二二维图像确定所述场景的所述至少部分的变换的变化;以及
其中所述图像处理器基于所述场景的所述至少部分的变换的所述变化来更新所述深度图。
15.如权利要求14所述的成像设备,其中所述场景的所述至少部分的所述变换的所述变化包括位置、取向或尺度的变化中的一个或多个。
16.如权利要求12所述的成像设备,所述图像处理器还被配置成通过以下操作来确定所述场景的所述至少部分的变换:
识别表示所述至少一个对象的所述部分的第一组像素;
确定所述第一组像素中的至少一个的深度;
识别所述第二组测量值中的对应于所述至少一个对象的所述部分的第二组像素;以及
确定所述第二组像素中的至少一个的像素的第二深度。
17.如权利要求14所述的成像设备,其中所述图像处理器被配置以通过确定所述场景的所述至少部分的旋转来确定所述场景的所述至少部分的变换。
18.如权利要求17所述的成像设备,其中所述图像处理器被配置成通过以下操作来确定所述场景的所述至少部分的旋转:
对所述第一二维图像和所述第二二维图像中的所述场景的所述至少部分中的像素应用快速傅里叶变换;
确定两个快速傅里叶变换的幅度;
计算极坐标中两个傅里叶变换的幅度的互功率谱;
确定所述互功率谱最大化的角度作为旋转角度。
19.如权利要求17所述的成像设备,其中所述图像处理器进一步被配置成:
对所述第一二维图像和所述第二二维图像中的所述场景的所述至少部分中的像素应用快速傅里叶变换;
将快速傅里叶变换的至少一些坐标变换为对数标度的极坐标;
计算所述快速傅里叶变换在对数极坐标中的互功率谱;以及
确定所述互功率谱被最大化的平移的指数作为所述场景的所述至少部分的重新缩放。
20.如权利要求12所述的成像设备,其中所述图像处理器被配置为:
确定与所述第一组测量值和所述第二组测量值之间的比较相关联的置信度度量;以及
其中所述图像传感器进一步被配置为:在所述多个帧的第三帧期间使用第三功率设置捕获第三组测量值,所述第三功率设置基于所述置信度度量来确定。
21.如权利要求12所述的成像设备,其中所述图像处理器还被配置为:
识别更新的深度图包括不正确的深度估计的像素;
在第一帧中找到在更新的深度图中具有正确深度估计的区域;以及
基于所述第一帧中的具有正确深度估计的区域将背景完成过程应用于具有不正确的深度估计的像素。
22.如权利要求12所述的成像设备,其中所述图像处理器被配置为:
通过耦合到所述图像传感器的惯性测量单元IMU确定所述图像传感器的位置、取向和速度中的至少一项;以及
将由所述IMU暗示的变换应用于所述场景的所述至少部分,以确定所述场景的所述至少部分如何在所述第一帧和所述第二帧之间改变。
CN201710157572.4A 2016-03-16 2017-03-16 降低飞行时间深度成像的功耗 Active CN107204012B (zh)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201662309421P 2016-03-16 2016-03-16
US62/309,421 2016-03-16
US201662361488P 2016-07-12 2016-07-12
US62/361,488 2016-07-12
US201662398519P 2016-09-23 2016-09-23
US62/398,519 2016-09-23
US15/458,536 US10841491B2 (en) 2016-03-16 2017-03-14 Reducing power consumption for time-of-flight depth imaging
US15/458,536 2017-03-14

Publications (2)

Publication Number Publication Date
CN107204012A CN107204012A (zh) 2017-09-26
CN107204012B true CN107204012B (zh) 2021-02-12

Family

ID=59847968

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710157572.4A Active CN107204012B (zh) 2016-03-16 2017-03-16 降低飞行时间深度成像的功耗

Country Status (3)

Country Link
US (1) US10841491B2 (zh)
JP (1) JP2017223648A (zh)
CN (1) CN107204012B (zh)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016182502A1 (en) * 2015-05-14 2016-11-17 Medha Dharmatilleke Multi purpose mobile device case/cover integrated with a camera system & non electrical 3d/multiple video & still frame viewer for 3d and/or 2d high quality videography, photography and selfie recording
US10841491B2 (en) 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
JP6887126B2 (ja) * 2017-02-06 2021-06-16 パナソニックIpマネジメント株式会社 3次元モーション取得装置、及び3次元モーション取得方法
US10613228B2 (en) * 2017-09-08 2020-04-07 Microsoft Techology Licensing, Llc Time-of-flight augmented structured light range-sensor
WO2019075473A1 (en) * 2017-10-15 2019-04-18 Analog Devices, Inc. METHODS AND SYSTEMS FOR PROCESSING FLIGHT TIME DEPTH IMAGE
US10366531B2 (en) * 2017-10-24 2019-07-30 Lowe's Companies, Inc. Robot motion planning for photogrammetry
US9990767B1 (en) 2017-10-24 2018-06-05 Lowe's Companies, Inc. Generation of 3D models using stochastic shape distribution
US10957064B2 (en) * 2017-12-29 2021-03-23 PlusAI Corp Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same
JP7418340B2 (ja) * 2018-03-13 2024-01-19 マジック リープ, インコーポレイテッド 機械学習を使用した画像増強深度感知
US20190293795A1 (en) * 2018-03-21 2019-09-26 Visteon Global Technologies, Inc. Light modulating lidar system
CN108537836A (zh) * 2018-04-12 2018-09-14 维沃移动通信有限公司 一种深度数据获取方法及移动终端
US10663567B2 (en) 2018-05-04 2020-05-26 Microsoft Technology Licensing, Llc Field calibration of a structured light range-sensor
US10924692B2 (en) 2018-05-08 2021-02-16 Microsoft Technology Licensing, Llc Depth and multi-spectral camera
US10767996B2 (en) 2018-05-08 2020-09-08 Honeywell International Inc. System and methods for reducing the map search space requirements in a vision-inertial navigation system
US10996335B2 (en) 2018-05-09 2021-05-04 Microsoft Technology Licensing, Llc Phase wrapping determination for time-of-flight camera
US10607352B2 (en) * 2018-05-17 2020-03-31 Microsoft Technology Licensing, Llc Reduced power operation of time-of-flight camera
JP7068054B2 (ja) 2018-06-07 2022-05-16 株式会社東芝 距離計測装置、および距離計測方法
CN109191512B (zh) * 2018-07-27 2020-10-30 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质
CN109271847B (zh) * 2018-08-01 2023-04-07 创新先进技术有限公司 无人结算场景中异常检测方法、装置及设备
KR102590900B1 (ko) * 2018-08-27 2023-10-19 엘지이노텍 주식회사 영상 처리 장치 및 영상 처리 방법
CN112689776A (zh) * 2018-09-16 2021-04-20 苹果公司 使用彩色图像数据校准深度感测阵列
JP7262021B2 (ja) * 2018-09-18 2023-04-21 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
EP3855215A4 (en) * 2018-09-18 2021-11-10 Panasonic Intellectual Property Management Co., Ltd. DEPTH ACQUISITION DEVICE, DEPTH ACQUISITION PROCESS AND PROGRAM
EP3859394A4 (en) * 2018-09-28 2022-03-02 Panasonic Intellectual Property Management Co., Ltd. DEPTH ACQUISITION DEVICE, DEPTH ACQUISITION METHOD AND PROGRAM
WO2020085525A1 (ko) * 2018-10-23 2020-04-30 엘지전자 주식회사 이동단말기 및 그 제어 방법
US11620044B2 (en) 2018-10-23 2023-04-04 Lg Electronics Inc. Mobile terminal
US11500103B2 (en) 2018-10-23 2022-11-15 Lg Electronics Inc. Mobile terminal
KR102641163B1 (ko) 2018-11-29 2024-02-28 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
KR102552923B1 (ko) 2018-12-03 2023-07-10 삼성전자 주식회사 복수의 카메라들 또는 깊이 센서 중 적어도 하나를 이용하여 깊이 정보를 획득하는 전자 장치
CN109658352B (zh) * 2018-12-14 2021-09-14 深圳市商汤科技有限公司 图像信息的优化方法及装置、电子设备和存储介质
US11245875B2 (en) 2019-01-15 2022-02-08 Microsoft Technology Licensing, Llc Monitoring activity with depth and multi-spectral camera
CN113498473A (zh) * 2019-02-22 2021-10-12 普罗费塞公司 使用动态视觉传感器和图案投影的三维成像和感测
US11003947B2 (en) * 2019-02-25 2021-05-11 Fair Isaac Corporation Density based confidence measures of neural networks for reliable predictions
US11341373B1 (en) * 2019-03-11 2022-05-24 Apple Inc. End-to-end training of a machine learning node that interfaces with a fixed function node
JP2020170408A (ja) * 2019-04-04 2020-10-15 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
CN109903324B (zh) * 2019-04-08 2022-04-15 京东方科技集团股份有限公司 一种深度图像获取方法及装置
WO2020237441A1 (en) * 2019-05-24 2020-12-03 Guangdong Oppo Mobile Telecommunications Corp., Ltd. User equipment and method of oblique view correction
CN110111582B (zh) * 2019-05-27 2020-11-10 武汉万集信息技术有限公司 基于tof相机的多车道自由流车辆检测方法及系统
US10929956B2 (en) 2019-07-02 2021-02-23 Microsoft Technology Licensing, Llc Machine-learned depth dealiasing
CN110400342B (zh) * 2019-07-11 2021-07-06 Oppo广东移动通信有限公司 深度传感器的参数调整方法、装置以及电子设备
EP4004582A1 (en) * 2019-08-07 2022-06-01 Huawei Technologies Co., Ltd. Time-of-flight depth enhancement
US20220326384A1 (en) * 2019-08-23 2022-10-13 Semiconductor Energy Laboratory Co., Ltd. Imaging device, distance estimation device, and moving object
EP3789794A1 (de) * 2019-09-04 2021-03-10 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur distanzmessung
CN112461154B (zh) * 2019-09-09 2023-11-10 睿镞科技(北京)有限责任公司 3d成像方法、装置和深度相机
CN114902330A (zh) * 2019-10-10 2022-08-12 Dts公司 具有深度的空间音频捕获
US11343412B2 (en) * 2019-10-22 2022-05-24 Intel Corporation User detection and user attention detection using multi-zone depth sensing
JP7147729B2 (ja) * 2019-10-28 2022-10-05 株式会社デンソー 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム
JP7140091B2 (ja) * 2019-10-28 2022-09-21 株式会社デンソー 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム
US20210127051A1 (en) * 2019-10-28 2021-04-29 Byton North America Corporation Camera fusion and illumination for an in-cabin monitoring system of a vehicle
CN110944135B (zh) * 2019-11-18 2022-05-31 深圳前海达闼云端智能科技有限公司 一种功率控制方法、电子设备及存储介质
CN111090104B (zh) * 2019-12-26 2022-11-11 维沃移动通信有限公司 成像处理方法和电子设备
CN113096024B (zh) * 2020-01-09 2023-05-09 舜宇光学(浙江)研究院有限公司 用于深度数据的去飞点方法及其系统和电子设备
US11694333B1 (en) * 2020-02-05 2023-07-04 State Farm Mutual Automobile Insurance Company Performing semantic segmentation of 3D data using deep learning
CN111311615A (zh) * 2020-02-11 2020-06-19 香港光云科技有限公司 基于ToF的场景分割方法及系统、存储介质及电子设备
US20210302587A1 (en) * 2020-03-24 2021-09-30 Magic Leap, Inc. Power-efficient hand tracking with time-of-flight sensor
US20210356597A1 (en) * 2020-05-15 2021-11-18 Analog Devices International Unlimited Company Continuous wave time of flight system
CN111443357A (zh) * 2020-05-19 2020-07-24 炬佑智能科技(苏州)有限公司 一种测距方法及测距系统
US11317150B2 (en) * 2020-06-17 2022-04-26 Netflix, Inc. Video blurring systems and methods
EP4198570A4 (en) * 2020-08-17 2024-01-17 Sony Group Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
US11467276B2 (en) * 2020-08-25 2022-10-11 Volkswagen Aktiengesellschaft Live point cloud compression with egomotion propagation
CN112383715B (zh) * 2020-12-07 2022-05-17 Oppo(重庆)智能科技有限公司 图像获取装置、终端和图像获取方法
WO2022155747A1 (en) * 2021-01-22 2022-07-28 Airy3D Inc. Power management techniques in depth imaging
CN116917759A (zh) * 2021-02-11 2023-10-20 索尼半导体解决方案公司 配置控制电路和配置控制方法
EP4047389B1 (de) * 2021-02-18 2023-03-29 Sick Ag Erfassung dreidimensionaler bilddaten
US11790531B2 (en) * 2021-02-24 2023-10-17 Snap Inc. Whole body segmentation
US11962912B2 (en) * 2021-06-16 2024-04-16 Aptiv Technologies AG Object detection via comparison of synchronized pulsed illumination and camera imaging
CN113489858A (zh) * 2021-07-07 2021-10-08 曜芯科技有限公司 成像系统以及相关成像方法
CN116320746B (zh) * 2023-05-16 2023-08-01 武汉昊一源科技有限公司 Tof对焦装置、对焦方法及拍摄设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102014293A (zh) * 2010-12-20 2011-04-13 清华大学 平面视频的立体渲染方法
CN102385237A (zh) * 2010-09-08 2012-03-21 微软公司 基于结构化光和立体视觉的深度相机
CN102622776A (zh) * 2011-01-31 2012-08-01 微软公司 三维环境重构
CN106144816A (zh) * 2015-04-03 2016-11-23 奥的斯电梯公司 基于深度传感器的乘客检测

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US8509472B2 (en) 2004-06-24 2013-08-13 Digimarc Corporation Digital watermarking methods, programs and apparatus
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
KR101409769B1 (ko) 2007-08-01 2014-06-19 삼성전자주식회사 영상 데이터 처리 장치 및 그의 영상 데이터 처리 방법
US8537200B2 (en) 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
US8649592B2 (en) 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
US9014462B2 (en) 2010-11-10 2015-04-21 Panasonic Intellectual Property Management Co., Ltd. Depth information generating device, depth information generating method, and stereo image converter
US9171372B2 (en) 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
US8878897B2 (en) * 2010-12-22 2014-11-04 Cyberlink Corp. Systems and methods for sharing conversion data
US9819879B2 (en) 2011-07-12 2017-11-14 Samsung Electronics Co., Ltd. Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity
US9363535B2 (en) * 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
US8682087B2 (en) 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
CN103460249B (zh) 2011-12-21 2016-08-17 松下知识产权经营株式会社 图像处理装置以及图像处理方法
US8953024B2 (en) * 2012-02-21 2015-02-10 Intellectual Ventures Fund 83 Llc 3D scene model from collection of images
US9210405B2 (en) * 2012-03-22 2015-12-08 Qualcomm Technologies, Inc. System and method for real time 2D to 3D conversion of video in a digital camera
US20130257851A1 (en) * 2012-04-01 2013-10-03 Chao-Hua Lee Pipeline web-based process for 3d animation
US8659679B2 (en) * 2012-06-08 2014-02-25 Apple Inc. Hardware-constrained transforms for video stabilization processes
US9514522B2 (en) 2012-08-24 2016-12-06 Microsoft Technology Licensing, Llc Depth data processing and compression
US9552673B2 (en) 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
US9083960B2 (en) 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US9134114B2 (en) * 2013-03-11 2015-09-15 Texas Instruments Incorporated Time of flight sensor binning
US11172126B2 (en) * 2013-03-15 2021-11-09 Occipital, Inc. Methods for reducing power consumption of a 3D image capture system
US9584790B2 (en) 2013-06-03 2017-02-28 Microsoft Technology Licensing, Llc Edge preserving depth filtering
JP2015019204A (ja) 2013-07-10 2015-01-29 ソニー株式会社 画像処理装置および画像処理方法
RU2013135506A (ru) 2013-07-29 2015-02-10 ЭлЭсАй Корпорейшн Процессор изображений, сконфигурированный для эффективной оценки и исключения информации фона в изображениях
US10497140B2 (en) * 2013-08-15 2019-12-03 Intel Corporation Hybrid depth sensing pipeline
EP2871843B1 (en) * 2013-11-12 2019-05-29 LG Electronics Inc. -1- Digital device and method for processing three dimensional image thereof
JP6374690B2 (ja) 2014-04-01 2018-08-15 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US10201717B2 (en) 2014-07-30 2019-02-12 Brainlab Ag Online patient reconstruction and tracking for patient setup in radiation therapy using an iterative closest point algorithm
US9945946B2 (en) * 2014-09-11 2018-04-17 Microsoft Technology Licensing, Llc Ultrasonic depth imaging
WO2016107962A1 (en) * 2014-12-30 2016-07-07 Nokia Corporation Improving focus in image and video capture using depth maps
US10005482B2 (en) 2015-11-18 2018-06-26 The Boeing Company Cart apparatus and methods for use
US10708573B2 (en) * 2016-01-04 2020-07-07 Occipital, Inc. Apparatus and methods for three-dimensional sensing
US10841491B2 (en) 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
US10645367B2 (en) * 2017-04-20 2020-05-05 Wisconsin Alumni Research Foundation Systems, methods, and media for encoding and decoding signals used in time of flight imaging
WO2019075473A1 (en) 2017-10-15 2019-04-18 Analog Devices, Inc. METHODS AND SYSTEMS FOR PROCESSING FLIGHT TIME DEPTH IMAGE

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385237A (zh) * 2010-09-08 2012-03-21 微软公司 基于结构化光和立体视觉的深度相机
CN102014293A (zh) * 2010-12-20 2011-04-13 清华大学 平面视频的立体渲染方法
CN102622776A (zh) * 2011-01-31 2012-08-01 微软公司 三维环境重构
CN106144816A (zh) * 2015-04-03 2016-11-23 奥的斯电梯公司 基于深度传感器的乘客检测

Also Published As

Publication number Publication date
US20170272651A1 (en) 2017-09-21
US10841491B2 (en) 2020-11-17
JP2017223648A (ja) 2017-12-21
CN107204012A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
CN107204012B (zh) 降低飞行时间深度成像的功耗
US11589031B2 (en) Active stereo depth prediction based on coarse matching
CN107111746B (zh) 根据原始飞行时间图像的模型拟合
US11064178B2 (en) Deep virtual stereo odometry
Bensrhair et al. A cooperative approach to vision-based vehicle detection
US9626766B2 (en) Depth sensing using an RGB camera
US8897546B2 (en) Semi-global stereo correspondence processing with lossless image decomposition
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
US10839539B2 (en) System and method for active stereo depth sensing
US20150356357A1 (en) A method of detecting structural parts of a scene
US11082633B2 (en) Method of estimating the speed of displacement of a camera
US20110188708A1 (en) Three-dimensional edge extraction method, apparatus and computer-readable medium using time of flight camera
US10354413B2 (en) Detection system and picture filtering method thereof
US11810311B2 (en) Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching
US10679376B2 (en) Determining a pose of a handheld object
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
El Bouazzaoui et al. Enhancing rgb-d slam performances considering sensor specifications for indoor localization
US10803625B2 (en) Detection system and picturing filtering method thereof
Wolff et al. Super-pixel sampler: a data-driven approach for depth sampling and reconstruction
CN104459681B (zh) 自适应距离估计
US20220091265A1 (en) Mobile robot generating resized region of interest in image frame and using dual-bandpass filter
US20230003894A1 (en) Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method
JP7147729B2 (ja) 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム
CN115037869A (zh) 自动对焦方法、装置、电子设备及计算机可读存储介质
Oprea et al. Robust pose estimation using Time-of-Flight imaging

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant