CN104050656A - 用于确定图像中对象深度的设备和技术 - Google Patents
用于确定图像中对象深度的设备和技术 Download PDFInfo
- Publication number
- CN104050656A CN104050656A CN201410089278.0A CN201410089278A CN104050656A CN 104050656 A CN104050656 A CN 104050656A CN 201410089278 A CN201410089278 A CN 201410089278A CN 104050656 A CN104050656 A CN 104050656A
- Authority
- CN
- China
- Prior art keywords
- depth
- resolution optical
- optical pattern
- low resolution
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
- G01C11/025—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2531—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2536—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings with variable grating pitch, projected on the object with the same angle of incidence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明的名称为“用于确定图像中对象深度的设备和技术”,其中一种设备,可包括:投射低分辨率光学图案和高分辨率光学图案的发射器,其中高分辨率光学图案相比低分辨率光学图案具有更精细的分辨率;检测合成图像的传感器,其中所述合成图像包括包含投射的低分辨率光学图案的反射的低分辨率光学反射图案和包含投射的高分辨率光学图案的反射的高分辨率光学反射图案。所述设备还包括基于检测到的合成图像来确定第一深度范围中的对象深度和第二深度范围中的对象深度的逻辑。其它实施例被公开和要求权利。
Description
技术领域
本文描述的实施例一般涉及电子成像技术,特别是主动深度摄像机(camera)技术。
背景技术
近来,电子装置已被发展用于测量视野内的对象深度。此类深度信息在多个应用中使用,如游戏装置、扫描仪和三维(3D)打印机。在某些应用中,如那些依赖于手势识别的应用,相比通过场景记录的传统红绿蓝(RGB)图像所获取的信息,场景中对象的深度信息可提供更有价值的数据。“结构光”是一般熟知的确定物品深度的常用方法,并且涉及将光图案投射到场景中的对象上,然后当光图案被对象拦截时通过分析反射光提取到深度信息。发射器通常将可见光或红外线(IR)辐射投射到对象上,随后被传感器反射和捕获。
在某些场景中,当用户与电子装置如计算装置、通信装置、独立摄像机或其它包含深度测量摄像机的装置交互时,感兴趣的深度通常是距离摄像机10 cm到150 cm的范围。由于若干原因,设计出合适的光学系统在这样的范围中工作是有些困难的。为了在要求范围中提取对象(如人体)的深度图像,摄像机和发射器的景深都应该在10 cm到150cm范围中。然而,范围越短景深越短是光学镜头众所周知的特性。
因此,存在对于改进的技术和设备来解决这些以及其它问题的需要。
发明内容
本公开提供一种用于确定对象深度的设备,包括:投射低分辨率光学图案和高分辨率光学图案的发射器,所述高分辨率光学图案相比所述低分辨率光学图案具有更精细的分辨率;检测合成图像的传感器,所述合成图像包括包含所投射的低分辨率光学图案的反射的低分辨率光学反射图案、和包含所投射的高分辨率光学图案的反射的高分辨率光学反射图案;以及基于所检测的合成图像来确定第一深度范围中的对象深度和第二深度范围中的对象深度的逻辑。
本公开还提供一种用于确定对象深度的计算机实现的方法,包括:接收合成图像,所述合成图像包含由低分辨率光学图案的反射所形成的低分辨率反射图案和由高分辨率光学图案的反射所形成的高分辨率反射图案,所述高分辨率光学图案相比所述低分辨率光学图案具有更精细的分辨率;基于所述高分辨率反射图案来确定第一深度范围中的对象深度;以及基于所述高分辨率反射图案来确定第二深度范围中的对象深度。
本公开还提供一种设备,包括执行前述方法的部件。
本公开还提供至少一个机器可读媒体,可包含多个指令,所述指令响应于在计算装置上被运行而使得所述计算装置执行前述方法。
本公开还提供一种主动深度摄像机,包括:发射器系统,包含具有第一景深的第一发射器和具有第二景深的第二发射器,所述第二景深大于所述第一景深,所述发射系统投射包括低分辨率和高分辨率光学图案的合成光学图案;传感器系统,检测合成图像,所述合成图像包括包含所投射的低分辨率光学图案的反射的低分辨率光学反射图案,以及还包括包含所投射的高分辨率光学图案的反射的高分辨率光学反射图案;以及逻辑,基于所检测的合成图像来确定第一深度范围中的对象深度和第二深度范围中的对象深度。
附图说明
图1示出结构光组件的实施例。
图2示出结构光系统的实施例。
图3示出结构光组件的另一实施例。
图4示出结构光系统的另一实施例。
图5示出结构光系统的再一实施例。
图6A示出光学图案的一个实施例。
图6B示出光学图案的另一实施例。
图7示出操作结构光系统的一种使用场景。
图8示出结构光组件产生的示例性的光图案。
图9示出结构光组件的再一实施例。
图10示出示例性的第一逻辑流程。
图11示出示例性的第二逻辑流程。
图12示出示例性的系统体系结构。
具体实施方式
实施例涉及用于确定一定距离或深度范围上深度信息的设备和技术,特别是在距离摄像机或传感器约10 cm到150 cm的范围上。在各种实施例中,结构光组件包括发射器系统或发射器组件,所述发射器系统或发射器组件包括一个或更多设计成聚合发射光学图案的发射器。在某些实施例中,发射器系统包含多个发射器,其中发射器设计在发射器之间有所差异。特别是,第一发射器可被设计成生成在第一深度范围上有用的光学图案,而第二发射器可被设计成生成在第二深度范围上有用的光学图案。
因此,在当前的深度感应(或“主动深度”)摄像机领域,提出的实施例提供了在距离摄像机10 cm到150 cm范围上缺少精确深度测量能力的解决方案。特别是,某些实施例克服了由深度感应摄像机和人的特征的交互引起的确定图像深度的一些问题。例如,在近距离范围深度感应摄像机捕获的图案的一种降级源是人类皮肤的半透明性,它会使落在皮肤上光的细节变模糊。当对象靠近发射图案以反射离开对象的发射器时,落在手上的图案细节的尺寸相对较小并且会由于皮肤的半透明性而变得非常模糊。
由于落在对象上的特性的数目是对象到摄像机距离的函数,粗糙的图案可为近距离对象提供足够的深度分辨率。然而,此类粗糙图案为较远距离的对象提供低分辨率的深度信息。
另一种模糊源是依赖于对象距离的离焦模糊。尤其是,由离焦模糊引起的降级的严重程度是用于成像对象的镜头的函数。在传统方法中,当对象离焦时,构建出具有较小降级的镜头是可能的;然而,此类镜头要求小的光圈,可减少光线进入镜头的数量直到要求高信号功率生成成像的光图案。
通过提供一种生成更粗图案以用于分析靠近发射器的对象从而少受到来自对象(如人类皮肤)的模糊的方法,提出的实施例克服了这些问题。与此同时,投射更精细的图案用于分析距离发射器远些的对象深度。该方法提供了这样的优势,相对结构光控制台或组件不同距离(或深度)的对象深度信息可同时获取。此外,进一步的优势是,无需降低如下参考附图详细描述的记录光学图案的记录装置或传感器的帧率,即可获取深度信息。提出的实施例的多图案设计提供了更进一步的优势,捕获所述多个图案的传感器可采用大孔径的镜头,如此可减少创建所述多个图像的发射信号所要求的功率。
在某些实施例中,结构光组件还包括除传感器外的发射系统,所述发射系统具有由两个或更多光学图案组成的合成光学图案的投射所生成的扩展景深。本文使用的术语“景深”是指对象离传感器的深度可被精确确定的深度范围。在某些实施例中,发射系统可包括设计成投射低分辨率光学图案的第一发射器,由此对象深度可对于距离传感器约10 cm到50 cm范围的由低分辨率光学图案照明的对象被提取。结构光组件的发射系统还包括设计成投射高分辨率光学图案的第二发射器,由此对象深度可对于距离传感器50 cm到150 cm范围的高分辨率光学图案照明的对象被提取。可预存一些低分辨率和高分辨率光学图案作为参考图案。当低分辨率和高分辨率光学图案被投射到10 cm到150 cm范围中的对象上时,来自此类对象的反射可被传感器检测到并用于确定此类深度范围上的对象深度,如下详细描述的。在各种实施例中,发射器系统投射的不同光学图案相关的景深可以重叠,从而对象深度信息可从第一光学图案、第二光学图案或两者的反射被提取。在各种其它实施例中,结构光组件可被设计成投射三个或更多光学图案,所述图案各自设计用于从不同深度范围中提取深度信息。根据各种实施例,所述三个或更多光学图案可由一个或更多发射器生成。所述实施例并不受限于此上下文。
各种实施例可包含一个或更多元件。元件可包含布置成执行特定操作的任意结构。如对于给定一组的设计参数或性能约束所期望的,某些元件可实现为硬件、软件或其任意组合。尽管实施例可通过示例的方式在特定结构中描述为有限数量的元件,实施例在可选结构中可包括给定实现所期望的或多或少的元件。值得指出的是,任何“一个实施例”或“实施例”都意味着,结合实施例描述的特定特征、结构或特点都包括在至少一个实施例中。在说明书中到处存在的短语“在一个实施例中”不一定都指向相同实施例。
图1描述了与各种实施例一致的结构光组件102的特征。结构光组件102包括第一发射器104、第二发射器106、可见光红绿蓝(RGB)摄像机108和深度传感器110。在某些实施例中,第一发射器104被设计成发射高分辨率光学图案,而第二发射器106被设计成发射低分辨率光学图案。本文使用的术语“光学”和“光”一般涉及人类可见范围中的电磁辐射还有红外线(IR)辐射。因此“光学图案”表示如发射器的源生成的电磁辐射图案。在各种实施例中,此类光学图案包括小的区域,如彼此孤立的光点或矩形。光学图案可形成照明区域的阵列,其设计成从发生器的角范围中的对象反射和拦截。在某些实施例中,光学图案可包括含有曲线或线条的细长元件。所述实施例并不受限于此上下文。
除非另有说明,由提出的实施例的发射器生成的光学图案一般可根据已知技术来产生。例如,由发射器104、106生成的低分辨率和/或高分辨率光学图案都可由激光束来产生,所述激光束设计成生成合适的光波长如IR或可见波长。激光束可被引导通过一个或更多与激光束交互的光学元件(未示出),这些光学元件与激光束交互以产生相对较暗的矩阵中的光区域的图案。这些光区域可拦截对象为光点、方形、矩形、线条或上述组合等的图案。在某些实施例中,由发射器104、106产生的光区域的数目可数以千计或万计。
与提出的实施例相一致,传感器110可布置成检测被发射器104、106生成的光学图案照明的对象反射的光。在某些实施例中,传感器110包括根据已知技术的子传感器或传感器元件的二维阵列。以此方式并如下详述,被发射器104、106照明的对象反射的光学图案可被检测为二维光图案,它的准确布置提供了关于对象深度的信息。
在各种实施例中,结构光组件102可被部署在不同的系统中提供关于对象深度的动态输入。图2描述了示例性的系统120,包括结构光组件102、音频输入装置122、处理器124、存储器126、数字显示器128和音频输出装置130。在工作时,结构光组件102可与其它装置(如音频输入装置122)结合使用从而提供包含对象深度信息的输入,其结果可由数字显示器128和/或音频输出装置130表示。
在各种实施例中,处理器124和/或存储器126可位于结构光组件102中或者可与结构光组件102分隔开。结合图1,处理器124可包括处理存储器126和传感器110的输入的逻辑,以便从发射器104、106照明的对象来提取深度信息。利用具有不同分辨率的多个光学图案来确定深度信息的示例结合随后的附图来阐述。
特别是,在各种实施例中,处理器124可包括各种硬件元件、软件元件或两者的组合。硬件元件的示例可包括装置、组件、处理器、微处理器、电路、电路元件(如晶体管、电阻、电容、电感等)、集成电路、专用集成电路(ASIC)、可编程逻辑装置(PLD)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、存储单元、逻辑门、寄存器、半导体装置、芯片、微芯片、芯片组等等。软件元件的示例可包括软件组件、程序、应用、计算机程序、应用程序、系统程序、机器程序、操作系统软件、中间件、固件、软件模块、例程、子例程、函数、方法、规程、软件接口、应用程序接口(API)、指令集、计算代码、计算机代码、代码段、计算机代码段、字、值、符号,或其任意组合。决定实施例利用硬件元件和/或软件元件来实现可根据任何数目的因素而变化,如给定实现所期望的期望计算率、功率水平、耐热性、处理周期预算、输入数据率、输出数据率、存储器资源、数据总线速度以及其它设计或性能约束。
数字显示器128的示例包括液晶显示器(LCD)、发光二极管(LED)、摸感显示器、等离子显示器、阴极射线管,以及其它显示类型。在各种实施例中,系统100可包括各种输入装置(未示出),包含但并不限于键盘、键区、鼠标、操纵杆、触摸屏、或其它输入装置。
图3描述了结构光组件140的一种变化,其中音频输入装置、光学发射器和传感器被包含在共用的外壳中。在该实施例中,扩音器的阵列142与发射器104、106和传感器110一起被并置在结构光组件140中。
图4描述了系统150,包括通信耦合到计算装置152的结构光组件102。与提出的实施例相一致,计算装置152可以是膝上电脑或笔记本计算机或其它装置。在该示例中,结构光组件102可记录并提供结合计算装置152的操作来使用的对象深度信息。例如,用户手势可被结构光组件102记录并与计算装置152表示的可视内容进行交互。特别是,结构光组件102可形成部分的自然用户界面,以便选择可视项、控制程序功能或执行计算装置152表示的内容相关的其它操作。
图5描述了系统500,包括结构光组件102以及与结构光组件102交互的各种设备。如示出的,输出装置502-1、输出装置502-2和输出装置502-3通过各自的链路504-1、504-2和504-3链接到结构光组件102。在一个示例中,用户506可通过执行各种移动、手势与结构光组件102交互,它被结构光组件102感知并用来与输出装置502-1上表示的内容进行交互。因为结构光组件102可在广深度范围上提供对象深度信息,如距离结构光组件102跨度10-150cm的范围,所以用户可在可被系统500记录和解释的广深度范围中执行移动。
图6A描述了高分辨率光学图案602的一个示例,图6B描述了低分辨率光学图案604的一个示例,都可由提出的实施例的结构光组件来生成。在各种实施例中,高分辨率光学图案602和低分辨率光学图案604可由相同发射器或分开的发射器生成。再回到图1,在一个示例中,高分辨率光学图案602可由第一发射器104生成,而低分辨率光学图案604可由第二发射器106生成。与各种实施例相一致,可同时生成高分辨率光学图案602和低分辨率光学图案604,使得当对象位于第一发射器104和第二发射器106的投射范围中时,将两个图像同时投射到单个对象或一组对象上。以此方式,可同时检测来自给定对象或一组对象的高分辨率图案602和低分辨率图案604的反射,并提取高分辨率光学图案602和低分辨率光学图案604组合覆盖的深度范围中的对象深度信息。在一个特定示例中,高分辨率图案602的分辨率是低分辨率图案604的三倍,并可包括低分辨率图案604每单元九倍的光学特征。
图7描述了一种使用场景,其中用户704与结构光组件102交互。如该场景所示出的,发射器104投射高分辨率光学图案602而发射器106投射低分辨率光学图案604。进一步如图7所示出的,从各自的发射器104、106投射之后,高分辨率光学图案602和低分辨率光学图案604重叠以形成合成光学图案702。
在某些实施例中,发射器104和发射器106可在结构光组件102内被紧密间隔。例如发射器104和发射器106的间隔可大约1 cm到几cm。以此方式,光学图案602和光学图案604大体可在距离结构光组件102几厘米或更远处重叠。因此,距离结构光组件102超过几厘米的对象可用合成光学图案702照明,其图像随着距离结构光组件102的增加大体无变化。
当合成光学图案702被用户702拦截时,来自合成光学图案702的光可被用户704反射并生成合成图像。图7中,合成图像被显示为传感器110拦截的反射光学图案706。因为传感器110可包含二维元件或子传感器阵列,根据合成光学图案702反射自用户704的手时产生的光的确切变化,反射光学图案707可被感知为变化光强度的二维图案。
反射光学图案706可被认为是由光学图案604的反射所导致的低分辨率光学反射图案和光学图案602的反射所导致的高分辨率光学反射图案组成,所述光学图案各自形成落在用户704上的实际光学图案702的一部分。如下所述,通过分别提取反射光学图案706的低分辨率组件和高分辨率组件,可同时确定不同深度范围上的对象深度信息。
根据各种实施例,图8描述了来自传感器视角的结构光组件产生的光图案的图像,一般可对应于图7中描述的场景。如所示出的,当合成光学图案804从包括用户704的手806的表面反射时可形成合成图像802。可用上述合成光学图案702相似的方式形成合成光学图案804。如所示出的,在用户手806的外部区域内,一般未失真的图案在合成光学图案804中给出。在用户手806的反射区域内,形成合成图像并由反射光学图案808示出。从图8中可明显看出,反射光学图案808表示了合成光学图案804由于用户手806表面的反射发生的失真,除了其它因素以外,它可在透明度、表面定向发生变化,还可在离传感器的深度上发生变化。
当用户的手806在结构光组件102前移动时,反射光学图案808产生的合成光学图案804的失真可被用来确定在一定深度范围上的用户手势、深度信息、移动以及相关信息。当接收和分析反射光学图案808时,在结构光组件102的各种深度或距离上,反射光学图案808的不同组件可被用来提取信息。例如,在近距离范围,如距离(深度)约10和50cm之间,由发射器104生成的反射光学图案808的部分可被提取和分析从而确定合适的信息。在更远的距离,如距离结构光组件50和150cm之间,由发射器106生成的反射光学图案808的部分可被提取和分析从而确定合适的信息。
为了分开低分辨率和高分辨率光学反射图案,可采用过滤或其它图像处理。例如,反射光学图案808可进行高通过滤以便从反射光学图案808中提取高分辨率光学反射图案(未分别示出)。然后高分辨率光学反射图案可利用已知技术与可预存在存储器126中的光学图案602进行比较或匹配,以便确定例如约50到150 cm深度范围中的对象深度信息。
反射光学图案808可进一步进行低通过滤以便从反射光学图案808中提取低分辨率光学反射图案(未分别示出)。然后低分辨率光学反射图案可利用已知技术与可预存在存储器126中的光学图案604进行比较,以便确定例如约10到50 cm深度范围中的对象深度信息。
在一个特定示例中,反射光学图案808进行低通过滤之后,低通过滤图像(即低通过滤后的光学图案808)可被下采样以便减小过滤图像的尺寸。继而,低通过滤和下采样后的图像可经过高通过滤器以便提取最终的低分辨率反射光学图案。然后最终的低分辨率反射光学图案可与投射的低分辨率光学图案即光学图案604进行比较或“匹配”,以便提取在例如10到50 cm的深度范围上的信息,如深度信息。
在各种实施例中,如图8所示,低分辨率光学图案的部分可与高分辨率光学图案的部分重叠以形成合成光学图案。例如,合成光学图案804包含由高分辨率光学图案602生成的小矩形图案812和由低分辨率光学图案604生成的较大矩形图案814。在某些情况下,如所示出的,小矩形812附加在较大矩形814上。然而,如上所述的过滤可从合成光学图案804特别是反射光学图案808有效地提取分开的高分辨率光学反射图案和分开的低分辨率光学反射图案。
在具有两个或更多分开的发射器的结构光组件的实施例中,发送到一个或多更发射器的功率根据不同的使用场景而不同。例如,回到图7,发射器106可用比发射器104微弱很多的信号来发送。这是因为生成低分辨率图像604所要求的功率远远少于生成高分辨率图像602所要求的功率。特别是,由于低分辨率图像604的光图案旨在照明在近范围(如距离发射器106小于或等于50cm)的对象,低分辨率图像604可要求较少的功率,此外,既然传感器110检测到的信号强度与对象到传感器110的距离的平方成反比,检测位于结构光组件102更近的对象可要求更少的反射光。
以较低的功率信号启动发射器106的能力不仅整体节约了结构光组件102的功率,还降低了低分辨率反射光学图案对合成信号的高分辨率反射光学图案的干扰,它可具有相对较高的强度。
此外,与提出的实施例相一致,高分辨率反射光学图案可表示对低分辨率光学信号几乎无干扰,因为前者是高频率信号而这里如上所述的低通过滤旨在模糊该信号至恒定的信号强度。尽管恒定的信号强度可能会增加光子噪声,该噪声易于降级低分辨率光学图案的逼真度,对反射光学图案应用强低通过滤器减低了噪声而不降级性能。
在各种附加的实施例中,当感兴趣的对象全部靠近摄像机的结构光组件时,高分辨率发射器如发射器104可用开关(未示出)或其它机制来关闭从而获得功率消耗的显著降低。
图9给出了结构光组件902的另一实施例。在该实施例中,结构光组件902包含单个发射器904,它可在一个示例中生成合成光学图案906。合成图案906可由两个或更多图案组成,包括:包含分隔相对较大距离的大光学特征的第一光学图案,设计成从距离结构光组件902相对较近范围上的对象上提取深度信息;包含小于第一图案的那些光学特征并且与第一光学图案中的光学特征的分隔相比分隔较小距离的光学特征的第二光学图案,设计成从距离结构光组件902相对较远范围中的对象上提取深度信息;包含小于第二光学图案的那些光学特征并且与第一光学图案中的光学特征的分隔相比分隔较大距离的光学特征的可选第三光学图案,设计成从相对第二光学图案距离结构光组件902相对更远范围中的对象上提取深度信息,以及诸如此类。当合成光学图案906被用户704反射时,反射光学图案908被传感器110检测到。继而,如图6A到图8所述,两个或更多光学反射图案可从反射光学图案908被提取,并可用于生成两个或更多深度范围上的深度信息。
再一实施例中,结构光组件可包括两个或更多传感器,它们被布置成检测包含两个或更多反射光学图案的合成图像。来自所述两个或更多传感器的信号可依次处理从而提取所述两个或更多反射光学图案,从其获得相应两个或更多深度范围上的深度信息。
本文包含的是一组示例性的流程图,用于实现公开的体系结构的新颖方面。虽然为了示例性的目的,本文例如以流程图或流程图表的形式所示出的一个或更多方法,被显示和描述为一系列动作,可以理解方法并不受限于动作的次序,因此,某些动作可以不同的次序发生和/或与本文所述的其它动作同时发生。例如,那些本领域技术人员将会理解,方法或可表示为一系列相互关联的状态或活动,如状态图。此外,可能并非方法中示出的所有动作对于新颖的实现是被要求的。
图10描述了示例性的第一逻辑流程1000。逻辑流程1000可实现为,例如,利用结构光装置从一个或更多对象提取深度信息。在框1002处,接收基于低分辨率光学图案和高分辨率光学图案的从对象集合的反射的合成图像。在框1004处,从合成图像提取低分辨率光学反射图案。在框1006处,从合成图像中提取高分辨率图案。在框1008处,通过匹配高分辨率光学反射图案和高分辨率光学图案在第一深度范围中确定对象深度。在框1010处,通过匹配低分辨率光学反射图案和低分辨率光学图案确定第二深度范围中的对象深度。
图11描述了示例性的第二逻辑流程1100。该逻辑流程可实现为,例如,通过结构光系统,如系统120。在框1102处,应用高通过滤过程以便从合成图像中提取高分辨率光学反射图案,所述合成图像由高分辨率光学反射图案和低分辨率光学反射图案的反射图案组成。
在框1104处,对合成图像执行低通过滤以便提取低分辨率光学反射图案。
在框1106处,对低通过滤后的反射图案执行下采样。在框1108处,对下采样、低通过滤后的反射图案执行高通过滤。在框1110处,低分辨率光学图案与高通过滤、下采样、低通过滤后的反射图案进行比较。在框1112处,高分辨率光学图案与高通过滤后的反射图案进行比较。
图12是示例性系统实施例的图表,更具体地说,图12是显示可包含各种元件的平台1200的图表。例如图12显示出,平台(系统)1200可包括处理器/图形核1202、芯片组/平台控制集线器(PCH)1204、输入/输出(I/O)装置1206、随机访问存储器(RAM)(如动态RAM(DRAM))1208,只读存储器(ROM)1210、显示器电子器件1220、背光器显示1222,以及其它各种平台组件1214(如风扇、横流风机、散热片、DTM系统、冷却系统、外壳、通风孔等)。系统1200也可包括无线通信芯片1216和图形装置1218。然而,所述实施例并不限于这些元件。
如图12所示,I/O装置1206、RAM 1208和ROM 1210通过芯片组1204耦合到处理器1202。芯片组1204可通过总线1212耦合到处理器1202。因此,总线1212可包含多条线路。
处理器1202可以是包含一个或更多处理器核的中央处理单元,也可包括具有任意数目处理器核的任意数目的处理器。处理器1202可包括任意类型的处理单元,如CPU、多处理单元、精简指令集计算机(RISC)、带有管道的处理器、复杂指令集计算机(CISC)、数字信号处理器(DSP)等。在某些实施例中,处理器1202可以是位于多个分开的集成电路芯片上的多个分开的处理器。在某些实施例中,处理器1202可以是带有集成图形的处理器,而在其它实施例中,处理器1202可以是图形核或多核。
下面的示例属于进一步的实施例。
示例1是一种用于确定对象深度的设备,包括:投射低分辨率光学图案和高分辨率光学图案的发射器,其中高分辨率光学图案相比低分辨率光学图案具有更精细的分辨率;检测合成图像的传感器,所述合成图像包括包含投射的低分辨率光学图案的反射的低分辨率光学反射图案,以及包含投射的高分辨率光学图案的反射的高分辨率光学反射图案;以及基于检测到的合成图像确定第一深度范围中的对象深度和第二深度范围中的对象深度的逻辑。
在示例2中,示例1中的低分辨率光学图案可选择性用于确定距离传感器10和50 cm之间的对象深度,并且高分辨率光学图案可用于确定距离传感器50和150 cm之间的对象深度。
在示例3中,示例1-2中的任一示例的发射器可选择性包括:以第一信号功率投射低分辨率光学图案的第一发射器和以第二信号功率投射高分辨率光学图案的第二发射器,其中第二信号功率比第一信号功率高。
在示例4中,示例1-3中的任一示例的设备可选择性包括:从合成图像提取高分辨率光学反射图案的高通过滤器,以及从合成图像中提取低分辨率光学反射图案的低通过滤器。
在示例5中,示例1-4中的任一示例的逻辑可选择性通过匹配低分辨率光学反射图案和低分辨率光学图案来确定第一深度范围中的对象深度,以及通过匹配高分辨率光学反射图案和高分辨率光学图案来确定第二深度范围中的对象深度。
在示例6中,示例1-5中的任一示例的逻辑可选择性在提取的低分辨率光学反射图案上执行下采样。
在示例7中,示例1-6中的任一示例的发射器可选择性同时发射相应的低分辨率和高分辨率光学图案。
在示例8中,示例1-7中的任一示例的低分辨率光学图案和高分辨率光学图案可选择性包含红外线辐射。
在示例9中,示例1-8中的任一示例的设备可选择性包含禁用高分辨率发射器的开关。
在示例10中,示例1-9中的任一示例的传感器可选择性以每秒30帧或更大的帧率记录一系列的合成图像。
在示例11中,示例1-10中的任一示例的发射器可选择性投射中等分辨率光学图案,所述传感器可检测合成图像中包括所述中等范围光学图案的反射的中等分辨率光学反射图案,以及所述逻辑可基于检测到的合成图像来确定第三深度范围中的对象深度,所述第三深度范围介于第一和第二深度范围之间。
在示例12中,示例1-11中的任一示例的设备可选择性包含红绿蓝(RGB)数字摄像机以便与所述传感器检测所述合成图像同时来记录可视图像。
在示例13中,至少一个计算机可读存储媒体包括指令,所述指令在被运行时使得系统接收合成图像,所述合成图像包含由低分辨率光学图案的反射形成的低分辨率反射图案,以及由高分辨率光学图案的反射形成的高分辨率反射图案,其中高分辨率光学图案相比低分辨率光学图案具有更精细的分辨率,基于高分辨率光学反射图案来确定第一深度范围中的对象深度,以及基于高分辨率光学反射图案来确定第二深度范围中的对象深度。
在示例14中,示例13中的低分辨率光学图案可选择性用于确定10和50 cm之间的对象深度,并且高分辨率光学图案可确定50和150 cm之间的对象深度。
在示例15中,示例13-14中的任一示例的低分辨率光学图案可选择性包含以第一信号功率投射的光学图案,并且高分辨率光学图案可包含以第二信号功率投射的光学图案,其中第二信号功率比第一信号功率高。
在示例16中,示例13-15中的任一示例的至少一个计算机可读存储媒体可选择性包括指令,所述指令在被运行时使得系统生成第一过滤器以便从合成图像提取高分辨率光学反射图案,并且生成第二过滤器以便从合成图像提取低分辨率光学反射图案。
在示例17中,示例13-16中的任一示例的至少一个计算机可读存储媒体可选择性包括指令,所述指令在被运行时使系统通过匹配低分辨率反射图案和低分辨率光学图案来确定第一深度范围中的对象深度,并且通过匹配高分辨率反射图案和高分辨率光学图案来确定第二深度范围中的对象深度。
在示例18中,示例13-17中的任一示例的至少一个计算机可读存储媒体可选择性包括指令,所述指令在被运行时使系统在提取的低分辨率光学图案上执行下采样。
在示例19中,示例13-18中的任一示例的至少一个计算机可读存储媒体可选择性包括指令,所述指令在被运行时使系统同时发射相应的低分辨率和高分辨率图像。
在示例20中,示例13-19中的任一示例的低分辨率光学图案和高分辨率光学图案可包含红外线辐射。
在示例21中,示例13-20中的任一示例的至少一个计算机可读存储媒体可选择性包括指令,所述指令在被运行时使系统以每秒30帧或更大的帧率来接收一系列的合成图像。
在示例22中,示例13-21中的任一示例的至少一个计算机可读存储媒体可选择性包括指令,所述指令在被运行时使系统接收合成图像中包括所述中间范围光学图案的反射的中等分辨率光学图案,并且基于检测到的合成图像确定第三深度范围中的对象深度。
在示例23中,计算机实现的方法可包括接收合成图像,所述合成图像包含由低分辨率光学图案的反射形成的低分辨率反射图案,以及由高分辨率光学图案的反射形成的高分辨率反射图案,其中高分辨率光学图案相比低分辨率光学图案具有更精细的分辨率,基于高分辨率反射图案确定第一深度范围中的对象深度,以及基于高分辨率反射图案确定第二深度范围中的对象深度。
在示例24中,示例23中的低分辨率光学图案可选择性用于确定10和50 cm之间的对象深度,并且高分辨率光学图案用于确定50和150 cm之间的对象深度。
在示例25中,示例23-24中的任一示例的低分辨率光学图案可选择性包含以第一信号功率投射的光学图案,并且高分辨率光学图案可选择性包含以第二信号功率投射的光学图案,其中第二信号功率比第一信号功率高。
在示例26中,示例23-25中的任一示例的计算机实现的方法可选择性包括:生成第一过滤器以便从合成图像提取高分辨率光学反射图案,并且生成第二过滤器以便从合成图像提取低分辨率光学反射图案。
在示例27中,示例23-26中的任一示例的计算机实现的方法可选择性包括:通过匹配低分辨率反射图案和低分辨率光学图案来确定第一深度范围中的对象深度,并且通过匹配高分辨率反射图案和高分辨率光学图案来确定第二深度范围中的对象深度。
在示例28中,示例23-27中的任一示例的计算机实现的方法可选择性包括在提取的低分辨率光学图案上执行下采样。
在示例29中,示例23-28中的任一示例的计算机实现的方法可选择性包括同时发射相应的低分辨率和高分辨率图像。
在示例30中,示例23-29中的任一示例的计算机实现的方法可选择性包括以每秒30帧或更大的帧率接收一系列的合成图像。
在示例31中,一种设备可选择性包括执行示例23-30中的任一示例的方法的部件。
在示例32中,至少一个机器可读媒体可选择性包括多个指令,所述指令在计算装置上被运行时使所述计算装置执行示例23-31中的任一示例的方法。
在示例33中,一种主动深度摄像机可包括:包含具有第一景深的第一发射器以及具有第二景深的第二发射器的发射器系统,其中第二景深比第一景深大,所述发射器系统投射包含低分辨率和高分辨率光学图案的合成光学图案;检测合成图像的传感器系统,所述合成图像包括包含投射的低分辨率光学图案的反射的低分辨率光学反射图案,以及还包括包含投射的高分辨率光学图案的反射的高分辨率光学反射图案;以及基于检测到的合成图像确定第一深度范围中的对象深度和第二深度范围中的对象深度的逻辑。
在示例34中,示例33中的低分辨率光学图案可选择性用于确定距离传感器10和50 cm之间的对象深度,并且高分辨率光学图案用于确定距离传感器50和150 cm之间的对象深度。
在示例35中,示例33-34中的任一示例的发射器系统可包括以第一信号功率投射低分辨率光学图案的第一发射器,以及以第二信号功率投射高分辨率光学图案的第二发射器,其中第二信号功率比第一信号功率高。
在示例36中,示例33-35中的任一示例的主动深度摄像机可选择性包括从合成图像提取高分辨率光学反射图案的高通过滤器,以及从合成图像提取低分辨率光学反射图案的低通过滤器。
在示例37中,示例33-36中的任一示例的逻辑可选择性包括:通过匹配低分辨率光学反射图案和低分辨率光学图案确定第一深度范围中的对象深度,以及通过匹配高分辨率光学反射图案和高分辨率光学图案确定第二深度范围中的对象深度。
在示例38中,示例33-37中的任一示例的发射系统可选择性包括同时发射相应的低分辨率和高分辨率光学图案的单个发射器。
在示例39中,示例33-38中的任一示例的传感器系统可选择性以每秒30帧或更大的帧率记录一系列的合成图像。
在示例40中,示例33-39中的任一示例的发射器系统可选择性投射中等分辨率光学图案,所述传感器系统可检测合成图像中包括中间范围光学图案的反射的中等分辨率光学反射图案,以及所述逻辑可基于检测到的合成图像确定第三深度范围中的对象深度,第三深度范围介于第一和第二深度范围之间。
在示例41中,示例33-40中的任一示例的主动深度摄像机可包括红绿蓝(RGB)数字摄像机以便与传感器检测所述合成图像同时来记录可视图像。
某些实施例可使用语句“一个实施例”或“实施例”及其派生词进行描述。这些术语意味着结合实施例描述的特定特征、结构或特点包含在至少一个实施例中。说明书中各个位置短语“在一个实施例中”的出现不一定都指向相同实施例。此外,某些实施例可使用语句“耦合”或“连接”及其派生词进行描述。这些属于不一定作为彼此的同义词。例如,某些实施例可使用术语“连接”和/或“耦合”进行描述从而指示出两个或更多元件彼此是直接物理接触或电接触的。然而,术语“耦合”也意味着两个或更多元件可能并不是彼此直接接触的,但仍彼此合作或交互。
值得强调的是,说明书摘要被提供以使读者快速弄清本技术公开的实质。它的提交带有以下理解:它不会用来解释或限制权利要求的范围或含义。此外,在前面的具体实施方式中,可以看出为了公开的流畅的目的,各种特征被集成在单个实施例中。这种公开方法不要被解释为反映这样的意图,即主张权利的实施例比在每一项权利要求中详细列举的内容要求更多的特征。相反,如下权利要求所反映的,发明主题在于少于单个公开的实施例的所有特征。因此下面的权利要求与具体实施方式相结合,每一个权利要求独立作为分开的实施例。在所附权利要求中,术语“包括(including)”和“其中(in which)”被用作相关术语“包含(comprising)”和“其中(wherein)”的简单英语的对应词。此外,术语“第一”、“第二”、“第三”等仅被用作标号,并不旨在施加数字要求到其对象上。
上面所描述的内容包含公开的体系结构的示例。当然,不可能描述出组件和/或方法的每一种可能的组合,但本领域技术人员可意识到更多可能的组合和布置。相应的,新的体系结构旨在包含所有落在所附权利要求的精神和范围中的这样那样的变化、修改和改变。
各种实施例可使用硬件元件、软件元件或者两者的组合实现。硬件元件的示例可包括处理器、微处理器、电路、电路元件(如晶体管、电阻、电容、电感等)、集成电路、专用集成电路(ASIC)、可编程逻辑装置(PLD)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、逻辑门、寄存器、半导体装置、芯片、微芯片、芯片组等。软件的示例可包括软件组件、程序、应用、计算机程序、应用程序、系统程序、机器程序、操作系统软件、中间件、固件、软件模块、例程、子例程、函数、方法、规程、软件接口、应用程序接口(API)、指令集、计算代码、计算机代码、代码段、计算机代码段、字、值、符号或其任意组合。决定实施例利用硬件元件和/或软件元件实现可根据任意数目的因素而变化,如期望计算率、功率水平、耐热性、处理周期预算、输入数据率、输出数据率、存储器资源、数据总线速度及其它设计或性能约束。
某些实施例可使用语句“耦合”和“连接”及其派生词进行描述。这些术语并不旨在作为彼此的同义词。例如,某些实施例可使用术语“连接”和/或“耦合”进行描述从而表示出两个或更多元件是彼此直接物理或电子接触的。然而,术语“耦合”也可意味着两个或更多元件可能并不彼此直接接触,但仍然彼此合作或交互。
某些实施例可实现为,例如,利用可存储指令或指令集的计算机可读媒体或物件,如果由计算机执行,可使计算机实现根据实施例的方法和/或操作。此类计算机可包括,例如,任意合适的处理平台、计算平台、计算装置、处理装置、计算系统、处理系统、计算机、处理器等,并且可使用任意合适的硬件和/或软件的组合实现。计算机可读媒体或物件可包括,例如,任意类型的存储单元、存储装置、存储物件、存储媒体、储存装置、储存物件、储存媒体和/或储存单元如存储器、可移动或不可移动媒体、可擦除或不可擦除媒体、可写或可再写媒体、数字或模拟媒体、硬盘、软盘、光盘只读存储器(CD-ROM)、光盘刻录机(CD-R)、可重写光盘(CD-RW)、光盘、磁媒体、磁光媒体、可移动存储卡或存储盘、各种类型的数字化视频光盘(DVD)、磁带、盒式磁带等。指令可包括任意合适类型的代码,如源代码、编译代码、解释代码、可运行代码、静态代码、动态代码、加密代码等,利用任意合适的高级、低级、面向对象、可视、编译和/或解释编程语言实现。
除非特别说明,可以理解术语如“处理”、“计算”、“演算”、“确定”等,都涉及计算机或计算系统或相似的电子计算装置的行动和/或过程,其操纵表示为计算系统的寄存器和/或存储器中的物理量(如电子)的数据和/或将其变换为计算系统的存储器、寄存器或其它此类信息存储、传输或显示装置中的类似表示为物理量的其它数据。所述实施例并不受限于此上下文。
尽管主题的重要性已用结构特征和/或方法动作的特定语言进行了描述,可以理解定义在所附权利要求中的主题不一定受限于上述特定特征或动作。相反,上述特定特征和动作被公开为实现权利要求的示例形式。
本文已阐述了许多特定的细节以提供对实施例的详细理解。然而,本领域技术人员将理解,实施例可无需这些特定细节来实行。在其它场合中,众所周知的操作、组件和电路没有被详细描述以免混淆实施例。能够领会,本文公开的特定结构和功能细节可以是代表性的,并不一定限制实施例的范围。
Claims (25)
1. 一种用于确定对象深度的设备,包括:
投射低分辨率光学图案和高分辨率光学图案的发射器,所述高分辨率光学图案相比所述低分辨率光学图案具有更精细的分辨率;
检测合成图像的传感器,所述合成图像包括包含所投射的低分辨率光学图案的反射的低分辨率光学反射图案、和包含所投射的高分辨率光学图案的反射的高分辨率光学反射图案;以及
基于所检测的合成图像来确定第一深度范围中的对象深度和第二深度范围中的对象深度的逻辑。
2. 权利要求1所述的设备,
所述低分辨率光学图案用于确定离所述传感器10和50 cm之间的对象深度;以及
所述高分辨率光学图案用于确定离所述传感器50和150 cm之间的对象深度。
3. 权利要求1所述的设备,所述发射器包含:以第一信号功率投射所述低分辨率光学图案的第一发射器,以及以第二信号功率投射所述高分辨率光学图案的第二发射器,所述第二信号功率高于所述第一信号功率。
4. 权利要求1所述的设备,包括:
高通过滤器,从所述合成图像提取所述高分辨率光学反射图案;以及
低通过滤器,从所述合成图像提取所述低分辨率光学反射图案。
5. 权利要求1所述的设备,所述逻辑:
通过匹配所述低分辨率光学反射图案和所述低分辨率光学图案来确定第一深度范围中的对象深度;以及
通过匹配所述高分辨率光学反射图案和所述高分辨率光学图案来确定第二深度范围中的对象深度。
6. 权利要求4所述的设备,所述逻辑在所提取的低分辨率光学反射图案上执行下采样。
7. 权利要求1所述的设备,所述发射器同时发射相应的低分辨率和高分辨率光学图案。
8. 权利要求1所述的设备,所述低分辨率光学图案和高分辨率光学图案包括红外线辐射。
9. 权利要求1所述的设备,包括禁用所述高分辨率发射器的开关。
10. 权利要求1所述的设备,所述传感器以每秒30帧或更大的帧率记录一系列的合成图像。
11. 权利要求1所述的设备,包括:
所述发射器投射中等分辨率光学图案;
所述传感器检测所述合成图像中包含所述中等范围光学图案的反射的中等分辨率光学反射图案;以及
所述逻辑基于所检测的合成图像来确定第三深度范围中的对象深度,所述第三深度范围介于所述第一和所述第二深度范围之间。
12. 权利要求1所述的设备,包括红绿蓝(RGB)数字摄像机以便与所述传感器对所述合成图像的检测同时来记录可视图像。
13. 一种用于确定对象深度的计算机实现的方法,包括:
接收合成图像,所述合成图像包含由低分辨率光学图案的反射所形成的低分辨率反射图案和由高分辨率光学图案的反射所形成的高分辨率反射图案,所述高分辨率光学图案相比所述低分辨率光学图案具有更精细的分辨率;
基于所述高分辨率反射图案来确定第一深度范围中的对象深度;以及
基于所述高分辨率反射图案来确定第二深度范围中的对象深度。
14. 权利要求13所述的计算机实现的方法,所述低分辨率光学图案用于确定10和50 cm之间的对象深度;以及
所述高分辨率光学图案用于确定50和150 cm之间的对象深度。
15. 权利要求13所述的计算机实现的方法,所述低分辨率光学图案包括以第一信号功率投射的光学图案,以及所述高分辨率光学图案包括以第二信号功率投射的光学图案,所述第二信号功率高于所述第一信号功率。
16. 权利要求13所述的计算机实现的方法,包括:
生成第一过滤器,从所述合成图像提取所述高分辨率光学反射图案;以及
生成第二过滤器,从所述合成图像提取所述低分辨率光学反射图案。
17. 权利要求13所述的计算机实现的方法,包括:
通过匹配所述低分辨率反射图案和所述低分辨率光学图案来确定第一深度范围中的对象深度;以及
通过匹配所述高分辨率反射图案和所述高分辨率光学图案来确定第二深度范围中的对象深度。
18. 权利要求13所述的计算机实现的方法,包括在所提取的低分辨率光学图案上执行下采样。
19. 权利要求13所述的计算机实现的方法,包括同时发射相应的低分辨率和高分辨率图像。
20. 权利要求13所述的计算机实现的方法,包括以每秒30帧或更大的帧率来接收一系列的合成图像。
21. 一种设备,包括执行前述权利要求中任一项的方法的部件。
22. 至少一个机器可读媒体,可包含多个指令,所述指令响应于在计算装置上被运行而使得所述计算装置执行根据前述权利要求任一项的方法。
23. 一种主动深度摄像机,包括:
发射器系统,包含具有第一景深的第一发射器和具有第二景深的第二发射器,所述第二景深大于所述第一景深,所述发射系统投射包括低分辨率和高分辨率光学图案的合成光学图案;
传感器系统,检测合成图像,所述合成图像包括包含所投射的低分辨率光学图案的反射的低分辨率光学反射图案,以及还包括包含所投射的高分辨率光学图案的反射的高分辨率光学反射图案;以及
逻辑,基于所检测的合成图像来确定第一深度范围中的对象深度和第二深度范围中的对象深度。
24. 权利要求23所述的主动深度摄像机,所述逻辑:
通过匹配所述低分辨率光学反射图案和所述低分辨率光学图案来确定第一深度范围中的对象深度;以及
通过匹配所述高分辨率光学反射图案和所述高分辨率光学图案来确定第二深度范围中的对象深度。
25. 权利要求23所述的主动深度摄像机,所述发射器系统包括同时发射相应的低分辨率和高分辨率光学图案的单个发射器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/797,885 US20140267701A1 (en) | 2013-03-12 | 2013-03-12 | Apparatus and techniques for determining object depth in images |
US13/797885 | 2013-03-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104050656A true CN104050656A (zh) | 2014-09-17 |
Family
ID=50342160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410089278.0A Pending CN104050656A (zh) | 2013-03-12 | 2014-03-12 | 用于确定图像中对象深度的设备和技术 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140267701A1 (zh) |
EP (1) | EP2779092A1 (zh) |
CN (1) | CN104050656A (zh) |
TW (1) | TWI495842B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107209007A (zh) * | 2014-11-20 | 2017-09-26 | 曼蒂斯影像有限公司 | 以深度估计进行图像采集的方法、电路、设备、配件、系统和功能上相关联的计算机可执行代码 |
CN107532885A (zh) * | 2015-02-25 | 2018-01-02 | 脸谱公司 | 光图案中的强度变化用于体积中的物体的深度绘制 |
CN108462819A (zh) * | 2017-02-22 | 2018-08-28 | 奥斯兰姆奥普托半导体有限责任公司 | 用于运行相机用的光源的方法、光源、相机 |
EP3435026A1 (en) | 2017-07-24 | 2019-01-30 | Hand Held Products, Inc. | Dual-pattern optical 3d dimensioning |
CN109299662A (zh) * | 2018-08-24 | 2019-02-01 | 上海图漾信息科技有限公司 | 深度数据计算设备与方法及人脸识别设备 |
CN109691092A (zh) * | 2016-09-16 | 2019-04-26 | 高通股份有限公司 | 用于改进的深度感测的系统和方法 |
CN109708588A (zh) * | 2019-01-14 | 2019-05-03 | 业成科技(成都)有限公司 | 结构光投射器及结构光深度感测器 |
CN109842789A (zh) * | 2017-11-28 | 2019-06-04 | 奇景光电股份有限公司 | 深度感测装置及深度感测方法 |
CN109983506A (zh) * | 2016-12-15 | 2019-07-05 | 高通股份有限公司 | 用于改进的深度感测的系统和方法 |
CN111295691A (zh) * | 2017-10-30 | 2020-06-16 | 三星电子株式会社 | 处理图像的方法和装置 |
CN112949364A (zh) * | 2019-12-10 | 2021-06-11 | 纬创资通股份有限公司 | 活体脸部辨识系统与方法 |
US11450083B2 (en) | 2019-09-27 | 2022-09-20 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
US11639846B2 (en) | 2019-09-27 | 2023-05-02 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242278B2 (en) | 2014-12-01 | 2019-03-26 | Koninklijke Philips N.V. | Device and method for skin detection |
US9683834B2 (en) * | 2015-05-27 | 2017-06-20 | Intel Corporation | Adaptable depth sensing system |
US10761195B2 (en) * | 2016-04-22 | 2020-09-01 | OPSYS Tech Ltd. | Multi-wavelength LIDAR system |
KR101733228B1 (ko) * | 2016-04-28 | 2017-05-08 | 주식회사 메디트 | 구조광을 이용한 3차원 스캐닝 장치 |
CN106507069B (zh) * | 2016-11-29 | 2018-06-05 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106507019B (zh) | 2016-11-29 | 2019-05-10 | Oppo广东移动通信有限公司 | 控制方法、控制装置、电子装置 |
TWI621832B (zh) * | 2017-02-10 | 2018-04-21 | 緯創資通股份有限公司 | 物體偵測系統以及方法 |
CN106919928A (zh) * | 2017-03-08 | 2017-07-04 | 京东方科技集团股份有限公司 | 手势识别系统、方法及显示设备 |
US11016178B2 (en) | 2017-03-13 | 2021-05-25 | OPSYS Tech Ltd. | Eye-safe scanning LIDAR system |
US10542245B2 (en) * | 2017-05-24 | 2020-01-21 | Lg Electronics Inc. | Mobile terminal and method for controlling the same |
KR20220119769A (ko) | 2017-07-28 | 2022-08-30 | 옵시스 테크 엘티디 | 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기 |
KR102589319B1 (ko) | 2017-11-15 | 2023-10-16 | 옵시스 테크 엘티디 | 잡음 적응형 솔리드-스테이트 lidar 시스템 |
US20190188513A1 (en) * | 2017-12-20 | 2019-06-20 | Datalogic Usa Inc. | Systems and methods for object deskewing using stereovision or structured light |
US10572002B2 (en) | 2018-03-13 | 2020-02-25 | Facebook Technologies, Llc | Distributed artificial reality system with contextualized hand tracking |
US10528133B2 (en) * | 2018-03-13 | 2020-01-07 | Facebook Technologies, Llc | Bracelet in a distributed artificial reality system |
JP7324518B2 (ja) | 2018-04-01 | 2023-08-10 | オプシス テック リミテッド | 雑音適応型固体ライダシステム |
CN113692540A (zh) | 2019-04-09 | 2021-11-23 | 欧普赛斯技术有限公司 | 带激光控制的固态lidar发送器 |
US11846728B2 (en) | 2019-05-30 | 2023-12-19 | OPSYS Tech Ltd. | Eye-safe long-range LIDAR system using actuator |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5003166A (en) * | 1989-11-07 | 1991-03-26 | Massachusetts Institute Of Technology | Multidimensional range mapping with pattern projection and cross correlation |
US20090097039A1 (en) * | 2005-05-12 | 2009-04-16 | Technodream21, Inc. | 3-Dimensional Shape Measuring Method and Device Thereof |
CN101720047A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
US20110050859A1 (en) * | 2009-09-03 | 2011-03-03 | Technion Research & Development Foundation Ltd. | Devices and methods of generating three dimensional (3d) colored models |
FR2950140B1 (fr) * | 2009-09-15 | 2011-10-21 | Noomeo | Procede de numerisation tridimensionnelle comprenant une double mise en correspondance |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US20120176478A1 (en) * | 2011-01-11 | 2012-07-12 | Sen Wang | Forming range maps using periodic illumination patterns |
CN102663721A (zh) * | 2012-04-01 | 2012-09-12 | 清华大学 | 动态场景的散焦深度估计和全聚焦图像获取方法 |
US20120236317A1 (en) * | 2011-03-16 | 2012-09-20 | Canon Kabushiki Kaisha | Three-dimensional distance measurement apparatus, three-dimensional distance measurement method, and non-transitory computer-readable storage medium |
US20120293626A1 (en) * | 2011-05-19 | 2012-11-22 | In-G Co., Ltd. | Three-dimensional distance measurement system for reconstructing three-dimensional image using code line |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI291013B (en) * | 2006-01-25 | 2007-12-11 | Univ Nat Taipei Technology | Digital-structured micro-optic three-dimensional confocal surface profile measuring system and technique |
US8587681B2 (en) * | 2008-11-21 | 2013-11-19 | Omnivision Technologies, Inc. | Extended depth of field for image sensor |
GB0921461D0 (en) * | 2009-12-08 | 2010-01-20 | Qinetiq Ltd | Range based sensing |
US8687040B2 (en) * | 2010-11-01 | 2014-04-01 | Omnivision Technologies, Inc. | Optical device with electrically variable extended depth of field |
US9270875B2 (en) * | 2011-07-20 | 2016-02-23 | Broadcom Corporation | Dual image capture processing |
-
2013
- 2013-03-12 US US13/797,885 patent/US20140267701A1/en not_active Abandoned
-
2014
- 2014-03-05 TW TW103107482A patent/TWI495842B/zh not_active IP Right Cessation
- 2014-03-12 EP EP20140159087 patent/EP2779092A1/en not_active Withdrawn
- 2014-03-12 CN CN201410089278.0A patent/CN104050656A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5003166A (en) * | 1989-11-07 | 1991-03-26 | Massachusetts Institute Of Technology | Multidimensional range mapping with pattern projection and cross correlation |
US20090097039A1 (en) * | 2005-05-12 | 2009-04-16 | Technodream21, Inc. | 3-Dimensional Shape Measuring Method and Device Thereof |
US20110050859A1 (en) * | 2009-09-03 | 2011-03-03 | Technion Research & Development Foundation Ltd. | Devices and methods of generating three dimensional (3d) colored models |
FR2950140B1 (fr) * | 2009-09-15 | 2011-10-21 | Noomeo | Procede de numerisation tridimensionnelle comprenant une double mise en correspondance |
CN101720047A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US20120176478A1 (en) * | 2011-01-11 | 2012-07-12 | Sen Wang | Forming range maps using periodic illumination patterns |
US20120236317A1 (en) * | 2011-03-16 | 2012-09-20 | Canon Kabushiki Kaisha | Three-dimensional distance measurement apparatus, three-dimensional distance measurement method, and non-transitory computer-readable storage medium |
US20120293626A1 (en) * | 2011-05-19 | 2012-11-22 | In-G Co., Ltd. | Three-dimensional distance measurement system for reconstructing three-dimensional image using code line |
CN102663721A (zh) * | 2012-04-01 | 2012-09-12 | 清华大学 | 动态场景的散焦深度估计和全聚焦图像获取方法 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107209007A (zh) * | 2014-11-20 | 2017-09-26 | 曼蒂斯影像有限公司 | 以深度估计进行图像采集的方法、电路、设备、配件、系统和功能上相关联的计算机可执行代码 |
US11240485B2 (en) | 2014-11-20 | 2022-02-01 | Mantisvision Ltd. | Methods circuits devices assemblies systems and functionally associated with computer executable code for image acquisition with depth estimation |
CN107209007B (zh) * | 2014-11-20 | 2021-07-06 | 螳螂慧视科技有限公司 | 以深度估计进行图像采集的方法、设备、配件、系统 |
CN107532885A (zh) * | 2015-02-25 | 2018-01-02 | 脸谱公司 | 光图案中的强度变化用于体积中的物体的深度绘制 |
CN109691092A (zh) * | 2016-09-16 | 2019-04-26 | 高通股份有限公司 | 用于改进的深度感测的系统和方法 |
CN109691092B (zh) * | 2016-09-16 | 2020-08-25 | 高通股份有限公司 | 用于改进的深度感测的系统和方法 |
CN109983506A (zh) * | 2016-12-15 | 2019-07-05 | 高通股份有限公司 | 用于改进的深度感测的系统和方法 |
CN108462819B (zh) * | 2017-02-22 | 2020-10-16 | 奥斯兰姆奥普托半导体有限责任公司 | 用于运行相机用的光源的方法、光源、相机 |
US10663837B2 (en) | 2017-02-22 | 2020-05-26 | Osram Oled Gmbh | Method for operating a light source for a camera, light source, camera |
CN108462819A (zh) * | 2017-02-22 | 2018-08-28 | 奥斯兰姆奥普托半导体有限责任公司 | 用于运行相机用的光源的方法、光源、相机 |
US10733748B2 (en) | 2017-07-24 | 2020-08-04 | Hand Held Products, Inc. | Dual-pattern optical 3D dimensioning |
EP3435026A1 (en) | 2017-07-24 | 2019-01-30 | Hand Held Products, Inc. | Dual-pattern optical 3d dimensioning |
CN111295691A (zh) * | 2017-10-30 | 2020-06-16 | 三星电子株式会社 | 处理图像的方法和装置 |
CN111295691B (zh) * | 2017-10-30 | 2023-09-19 | 三星电子株式会社 | 处理图像的方法和装置 |
CN109842789A (zh) * | 2017-11-28 | 2019-06-04 | 奇景光电股份有限公司 | 深度感测装置及深度感测方法 |
CN109299662A (zh) * | 2018-08-24 | 2019-02-01 | 上海图漾信息科技有限公司 | 深度数据计算设备与方法及人脸识别设备 |
CN109708588A (zh) * | 2019-01-14 | 2019-05-03 | 业成科技(成都)有限公司 | 结构光投射器及结构光深度感测器 |
US11450083B2 (en) | 2019-09-27 | 2022-09-20 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
US11639846B2 (en) | 2019-09-27 | 2023-05-02 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
CN112949364A (zh) * | 2019-12-10 | 2021-06-11 | 纬创资通股份有限公司 | 活体脸部辨识系统与方法 |
CN112949364B (zh) * | 2019-12-10 | 2023-12-08 | 纬创资通股份有限公司 | 活体脸部辨识系统与方法 |
Also Published As
Publication number | Publication date |
---|---|
US20140267701A1 (en) | 2014-09-18 |
TW201447224A (zh) | 2014-12-16 |
EP2779092A1 (en) | 2014-09-17 |
TWI495842B (zh) | 2015-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104050656A (zh) | 用于确定图像中对象深度的设备和技术 | |
US10362301B2 (en) | Designing content for multi-view display | |
US10362296B2 (en) | Localized depth map generation | |
US10152634B2 (en) | Methods and systems for contextually processing imagery | |
JP5655095B2 (ja) | デプスカメラの互換性 | |
JP5778182B2 (ja) | デプスカメラの互換性 | |
CN106993112A (zh) | 基于景深的背景虚化方法及装置和电子装置 | |
US20210383199A1 (en) | Object-Centric Learning with Slot Attention | |
CN106415604B (zh) | 具有埃尔米特对称性的经译码光图案 | |
US20110164191A1 (en) | Interactive Projection Method, Apparatus and System | |
US20230239582A1 (en) | On-sensor image processor utilizing contextual data | |
CN110213491B (zh) | 一种对焦方法、装置及存储介质 | |
WO2018101097A1 (ja) | 投射装置、投射方法およびプログラム記録媒体 | |
US11846500B2 (en) | Three-dimensional depth measuring device and method | |
CN113344839B (zh) | 深度图像采集装置、融合方法和终端设备 | |
US10621400B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
Wu et al. | Moving event detection from LiDAR point streams | |
CN104335249B (zh) | 分析结构化光模式 | |
CN107743628A (zh) | Led面发光的结构化光 | |
US10345965B1 (en) | Systems and methods for providing an interactive user interface using a film, visual projector, and infrared projector | |
CN111505836B (zh) | 一种三维成像的电子设备 | |
US20210264625A1 (en) | Structured light code overlay | |
US9551922B1 (en) | Foreground analysis on parametric background surfaces | |
Chan et al. | Coarse and fine localized CNN classifier for intelligent DIC preprocessing in large structure health monitoring sample | |
Siegmund et al. | Deep learning for occlusion aware RGB-D image completion for structured light measurements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140917 |