CN106911922A - 从单个传感器生成的深度图 - Google Patents
从单个传感器生成的深度图 Download PDFInfo
- Publication number
- CN106911922A CN106911922A CN201610267138.7A CN201610267138A CN106911922A CN 106911922 A CN106911922 A CN 106911922A CN 201610267138 A CN201610267138 A CN 201610267138A CN 106911922 A CN106911922 A CN 106911922A
- Authority
- CN
- China
- Prior art keywords
- depth map
- focal length
- region
- another
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/529—Depth or shape recovery from texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
本公开涉及从单个传感器生成的深度图。用于生成深度图的装置包括:单个相机模块,具有固定近场焦距,被配置为捕获单个图像;图像分割器,被配置为将该图像分区成多个区域;焦距度量确定器,被配置为确定针对多个区域中的每个区域的焦距度量;以及深度图生成器,被配置为针对多个区域中的每个区域将焦距度量映射成深度值并且将多个深度值组合以生成针对单个相机的深度图。
Description
技术领域
一些实施例涉及用于从图像传感器捕获的单个图像生成深度图的装置和方法。
背景技术
使用(例如在CMOS架构中实施的)光电二极管像素的图像传感器是已知的。这种图像传感器具有很多应用。在一些应用中,可以提供像素阵列。用于确定到对象的距离的设备是已知的。
此外,当前的光子学3D图/深度设备通常被限制于针对其进行了优化的单个应用。例如,在多个相机或者相机阵列提供的一些设备中,图像可以被用于确定距离。计算相机应用可以比较这些图像内的特征,并且通过使用与相机或者相机阵列关联的本征和非本征参数的知识,确定相距设备的距离。计算相机应用因此可以创建3D图像与关联的3D深度图。
发明内容
根据第一方面,提供用于生成深度图的装置,该装置包括:单个相机模块,具有固定近场焦距,被配置为捕获单个图像;图像分割器,被配置为将图像分区成多个区域;焦距度量确定器,被配置为确定针对多个区域中的每个区域的焦距度量;以及深度图生成器,被配置为针对多个区域中的每个区域将焦距度量映射成深度值并且将多个深度值组合以生成针对单个相机的深度图。
单个相机模块可以被配置为捕获另一单个图像,图像分割器可以被配置为将另一图像分区成多个区域,焦距度量确定器可以被配置为确定针对多个区域中的每个区域的另一焦距度量;并且深度图生成器可以被配置为针对多个区域中的每个区域将焦距度量映射成另一深度值并且将多个另一深度值组合以生成针对单个相机的另一深度图。
装置可以进一步包括对象确定器,其被配置为从深度图确定深度图内与和背景分离的至少一个对象关联的位置。
对象确定器可以被配置为从另一深度图确定另一深度图内与至少一个对象关联的位置。
装置可以进一步包括对象追踪器,其被配置为追踪深度图内与和背景分离的至少一个对象关联的位置和另一深度图内与至少一个对象关联的位置之间的改变。
装置可以进一步包括姿势确定器,其被配置为从以下中的至少一个识别姿势:深度图内与和背景分离的至少一个对象关联的位置;另一深度图内与至少一个对象关联的位置;以及深度图内与和背景分离的至少一个对象关联的位置和另一深度图内与至少一个对象关联的位置之间的改变。
装置可以进一步包括控制器,其被配置为基于所识别的姿势控制装置的功能。
根据第二方面,提供用于生成深度图的方法,该方法包括:使用具有固定近场焦距的单个相机模块捕获单个图像;将图像分区成多个区域;确定针对多个区域中的每个区域的焦距度量;针对多个区域中的每个区域将焦距度量映射成深度值;以及将多个深度值组合以生成针对单个相机的深度图。
方法可以进一步包括:从单个相机模块捕获另一单个图像;将另一图像分区成多个区域;确定针对多个区域中的每个区域的另一焦距度量;针对多个区域中的每个区域将焦距度量映射成另一深度值;以及将多个另一深度值组合以生成针对单个相机的另一深度图。
方法可以进一步包括从深度图确定深度图内与和背景分离的至少一个对象关联的位置。
方法可以进一步包括从另一深度图确定另一深度图内与至少一个对象关联的位置。
方法可以进一步包括追踪深度图内与和背景分离的至少一个对象关联的位置和另一深度图内与至少一个对象关联的位置之间的改变。
方法可以进一步包括从以下中的至少一个识别姿势:深度图内与和背景分离的至少一个对象关联的位置;另一深度图内与至少一个对象关联的位置;以及深度图内与和背景分离的至少一个对象关联的位置和另一深度图内与至少一个对象关联的位置之间的改变。
方法可以进一步包括基于所识别的姿势控制装置的功能。
根据第三方面,提供用于生成深度图的装置,该装置包括:用于使用具有固定近场焦距的单个相机模块捕获单个图像的装置;用于将图像分区成多个区域的装置;用于确定针对多个区域中的每个区域的焦距度量的装置;用于针对多个区域中的每个区域将焦距度量映射成深度值的装置;以及用于将多个深度值组合以生成针对单个相机的深度图的装置。
装置可以进一步包括:用于从单个相机模块捕获另一单个图像的装置;用于将另一图像分区成多个区域的装置;用于确定针对多个区域中的每个区域的另一焦距度量的装置;用于针对多个区域中的每个区域将焦距度量映射成另一深度值的装置;以及用于将多个另一深度值组合以生成针对单个相机的另一深度图的装置。
装置可以进一步包括用于从深度图确定深度图内与和背景分离的至少一个对象关联的位置的装置。
装置可以进一步包括用于从另一深度图确定另一深度图内与至少一个对象关联的位置的装置。
装置可以进一步包括用于追踪深度图内与和背景分离的至少一个对象关联的位置和另一深度图内与至少一个对象关联的位置之间的改变的装置。
装置可以进一步包括用于从以下中的至少一个识别姿势的装置:深度图内与和背景分离的至少一个对象关联的位置;另一深度图内与至少一个对象关联的位置;以及深度图内与和背景分离的至少一个对象关联的位置和另一深度图内与至少一个对象关联的位置之间的改变。
装置可以进一步包括用于基于所识别的姿势控制装置的功能的装置。
附图说明
现在仅通过示例的方式参照附图,其中:
图1示出了包括单个相机传感器设置的用于从单个图像生成深度图的示例设备;
图2a和图2b示出了根据一些实施例的示例兴趣区域设置;
图3示出了根据一些实施例的示例深度图生成器/姿势确定器装置;
图4示出了根据一些实施例的示例焦距测量与对象距离图;
图5a至图5c示出了根据一些实施例的示例图像、具有兴趣区域和焦距测量的图像、以及从该图像生成的深度图;以及
图6示出了如图3所示的深度图生成器/姿势确定器装置的操作的流程图。
具体实施方式
与如本文中描述的实施例关联的概念是采用单个相机从单个图像确定深度图。
移动电话中的常规的多个相机或者相机阵列实施方式可以例如确定远离移动电话的对象的运动并且因此实现对移动电话的姿势控制。首先,多个相机可以捕获图像。图像信号处理器(ISP)或者处理器可以接着后处理图像以构造3D图。虽然多相机实施方式通常不增加移动电话的Z高度(或者厚度)(这是“像素竞赛”中对于较高分辨率的移动相机而言的普遍问题),但是两个或者多个相机在设备中的使用需要单个相机两倍(或者M倍)的体积。此外,在一些实施例中,深度图可以从使用飞行时间或者相似光学传感器强化的单个相机生成。这种配置是有问题的并且需要大量硬件和处理以便确定深度图。
在一些情况下,单个相机可以从多个图像确定深度图。例如通过拍摄具有不同焦点的两个或者多个分立图像,或者通过使得能够扫描(换句话说,从2个分立视点捕获图像)的相机。在这种实施例中,问题在于,在不同时间进行的曝光可能是两个不同对象的图像(例如当对象非常迅速地移动时)或者已经在曝光之间移动了的相同对象的图像。
如下文中进一步描述的概念涉及用于从单个图像生成深度图的装置和方法。在这种装置中,具有固定焦距并且具有短的场深度的单个相机被用于捕获可以被分割成(兴趣)区域的图像。这些图像区域或者部分或者分区可以被分析以便确定针对每个区域的焦距度量。接着通过使用焦距度量值和相距传感器的对象距离之间的关系,针对每个区域生成一系列对象距离值以形成深度图。所生成的深度图接着可以被分析以便确定对象和对对象分类并且此外追踪对象。例如,追踪手指或者手的位置。对对象的追踪接着可以被用于执行姿势确定并且此外用于控制功能或者参数。例如,在汽车环境中,相机可以被设置在汽车中,该相机捕获图像并且确定手或者手指对象,从中的对象追踪的姿势识别可以控制音量功能。在以下示例中,深度图在对象追踪和姿势识别应用中被采用。然而,要理解的是,深度图可以具有很多潜在应用。
对于图1,示出了示例电子设备100。设备100可以包括像素102的阵列。阵列的像素可以是任何合适的像素类型。此外,在像素102的阵列之上定位有固定焦距短场深度透镜101。
来自像素阵列的输出可以被提供到处理器104。处理器可以被配置为运行或者执行任何合适的应用或者程序,诸如单个图像深度图确定、对象确定、对象追踪、以及姿势控制。此外,在一些实施例中,该设备包括存储器105,存储器105被配置为存储应用或者程序代码并且此外存储诸如来自像素102的图像数据、或者对象分类和/或追踪数据之类的数据。
处理器的输出可以控制例如音频子系统106。然而,诸如显示器之类的任何合适的输出都可以被控制。例如,显示器可以允许对深度图的表现和/或显示所捕获的图像。备选地或者附加地,深度图和/或对象信息和/或姿势控制信息可以经由接口108输出。该接口可以将输出提供到另一设备和/或通信链路。通信链路可以是无线电链路、因特网、无线局域网、移动通信网络、或者任何其它合适的链路。
对于图3,深度图生成器/对象分析器/姿势确定器的示意性表示。在一些实施例中,这一功能可以在处理器内实施并且被编码在存储在存储器中的程序内。然而,在一些实施例中,图3所示的块被实施在硬件或者硬件和软件的组合内。
图3例如示出了兴趣区域(RoI)分割器301。RoI分割器301可以被配置为接收来自固定焦距近微距(near macro)相机的图像数据。对于图5a,示例捕获图像示出了靠近相机的手的图像,其中手具有指向相机的指向手指。
RoI分割器301接着可以被配置为将图像分割成若干不同的区域。这些区域可以根据任何期望的设置分布在图像之上。例如,在一些实施例中,ROI分割器被配置为生成一系列非重叠的规则分布区域。然而,这些区域可以被设置成不规则分布、非重叠/部分重叠或者重叠分布。ROI的尺寸可以针对特定应用被调谐。
对于图2a和图2b,示出了兴趣区域分布的两个示例兴趣区域设置。例如,图2a示出了区域的网格设置,其中图像数据201被分割成设置成行和列的长方形或者正方形区域203。对于图2b,图像数据201被分割成不规则设置,其中区域213由在图像中心处相交的径向线段215分割并且进一步由位于相距图像中心的限定半径值处的各种同心圆弧217分割。此外,对于图5b,示出了具有兴趣区域501的图5a所示的所捕获图像500的示例。图5b因此示出了以行和列设置的长方形区域501的网格覆在图像之上。RoI分割器301此外可以将针对每个所确定的区域的图像数据输出到焦距度量确定器303。
在一些实施例中,焦距度量确定器303被配置为接收与限定区域关联的图像值。焦距度量确定器303可以被配置为确定关于针对区域的图像数据的焦距度量。这一焦距度量可以是任何合适的焦距度量或者测量,诸如调制传递函数(MTF)或者空间频率响应(SFR)。焦距度量确定器303接着可以将针对区域的焦距度量值输出到深度图生成器305。图5b因此还针对每个区域501示出了焦距统计或者度量503,其指示图像锐度,其中当手指靠近相机时图像锐利并且对于远处对象来说图像离焦。在图5a至图5c所示的示例中,焦距度量提供从0(离焦=远)到5(对焦=近)的量度,然而可以实施任何其它合适的度量范围或者尺度。换句话说,焦距统计或者度量的粒度可以基于深度图的应用被控制。
在一些实施例中,深度图控制器302可以进一步控制焦距度量确定器303。例如,焦距度量确定器303可以被配置为当实施不同的应用时在焦距度量之间切换。
在一些实施例中,深度图生成器305被配置为接收与每个区域关联的焦距度量值并且从这一值确定深度或者距离值。这例如可以包括从聚焦的度量值映射到深度图值。这一映射可以是线性映射或者非线性映射。例如,图5c示出了从图5b所示的焦距度量值的深度图的映射,其中对象离相机越近,深度图区域黑暗强度增加。因此,对于图5a至图5c中的示例,与“手指”关联的区域具有所指示的最黑暗的区域。换句话说,知道了透镜聚焦在的距离,距离与焦距统计曲线可以被测量和/或表征。因此,可以估算基于单独区域图像焦距度量值的每个对象的近似距离。
在一些实施例中,深度图控制器302可以被配置为控制兴趣区域分割器301限定对兴趣区域的设置或者配置。
对于图4,示出了焦距测量与对象距离的图,从中,深度图生成器可以使用轮廓401将焦距值映射到深度值。在图4中,具有其固定焦距微距模式具有短场深度403的相机被配置为使得具有对焦的图像部分的任何区域(换句话说,相距相机的短距离)将产生高的焦距统计或者度量。相似地,相同的设置被配置为使得具有离焦的图像部分的任何区域(例如与相机相距一定距离)将产生低的焦距统计。换句话说,在使用低F数的透镜时,保持场深度短,并且针对图4中由区域403所示的场深度内的对象产生高焦距测量,并且度量随着对象距离增加而减少。深度图生成器305可以将一系列深度值(例如与图像区域关联的深度图)输出到帧存储307a。在一些实施例中,深度图控制器302可以被配置为确定合适的映射函数以将焦距度量值转换为距离值。
图3进一步示出了帧存储307a。帧存储307a可以被配置为接收来自深度图生成器305的深度图。帧存储接着可以将这些深度图存储在存储器中以用于之后使用,诸如对象确定/分类/追踪和/或姿势确定。
图3进一步示出了对象确定器307b,其被配置为接收来自深度图生成器305或者帧存储307a的深度图。对象确定器307b可以从深度图标识图像内的对象或者对图像内的对象分类。具有在正确焦平面内(与相机相距已知距离范围)的对象的区域接着可以产生最高的焦距度量。知道特定的区域允许计算对象的XY(和近似的Z)坐标。
此外图3示出了对象追踪器307c。对象追踪器307c可以接收若干帧之上的来自对象确定器307b的信息,并且基于从图像生成的深度图确定X、Y、以及Z方向上的对象轨迹。换句话说,具有最佳焦距的区域可以被用于对象追踪。在一些实施例中,对象可以在其停留于相同焦平面内的同时被追踪。然而,在一些实施例中,基于具有最高焦距度量的区域,对象仍然可以被追踪,其中相对于相机的距离改变也被追踪。
在其中多个区域具有相同的焦距度量的一些实施例中,可以决定是取整个图像的加权质心(或者具有大于确定阈值的焦距度量的区域)还是定位和追踪多个对象。
在一些实施例中,对象追踪器被配置为在对象移动时在帧到帧的基础上追踪对象的XYZ坐标。在这种实施例中,可以采用高帧率相机提升对象可以行进而仍然被追踪的最大速度。
在一些实施例中,来自对象确定器307b的确定对象和来自对象追踪器307c的对象追踪信息可以被传递到姿势识别器309。
在一些实施例中,装置可以包括姿势识别器309。姿势识别器309可以被配置为接收所确定的对象和/或所追踪的对象,并且确定所追踪的对象在X、Y、以及Z空间中的运动是否匹配限定的姿势。
在一些实施例中,姿势识别器309可以被配置为学习新的姿势,换句话说,姿势识别器309可以被训练。姿势识别器309可以被配置为将任何标识的姿势输出到特性控制器311。
在一些实施例中,装置包括特性控制器311,特性控制器311被配置为响应于所识别的姿势并且基于所识别的姿势控制装置的功能或者特性。例如,特性控制器可以被配置为改变用户界面显示,以便显示文本的下一页或者提高或者降低音轨的音量。
对于图6,示出了诸如图3所示的装置的示例操作的流程图。
装置被配置为接收来自固定焦距相机的图像。
在图6中由步骤601示出了接收来自固定焦距相机的图像的操作。
图像接着可以被分割成区域。
在图6中由步骤603示出了将图像分割成(兴趣)区域的操作。
装置可以进一步确定针对每个区域的焦距度量。
在图6中由步骤605示出了确定针对每个区域的焦距度量的操作。
此外,装置可以被配置为将确定的区域焦距度量映射到深度值。
在图6中由步骤607示出了将焦距度量映射到深度值的操作。
装置接着可以被配置为从深度图确定对象位置和/或对象分类和/或对象追踪值。这些值可以被存储或者在其它应用中使用。
在图6中由步骤609示出了从深度图确定针对对象的特性的操作。
此外,在一些实施例中,装置被配置为从所检测的或者所确定的对象的运动来确定姿势。
在图6中由步骤611示出了从所标识的对象姿势的运动来确定姿势的操作。
此外,在一些实施例中,装置可以被配置为基于所检测的姿势控制装置的特性和/或功能。
在图6中由步骤613示出了基于姿势控制特性/功能的操作。
示例应用可以在自动姿势识别范围内。因为这实际上是机器视觉,所以可以在收集焦距测量或者统计之前将各种不同算法(例如锐化、边缘增强、噪声减少、Canny滤波器等)应用于图像。在一些实施例中,装置图像阵列是光谱敏感阵列的IR区域。此外,在一些实施例中,装置进一步包括提供光源的IR照射器(IR LED)。
一些实施例可以被提供在电子设备中。应该领会的是,设备可以是任何合适的设备。仅通过示例的方式而不加限制,该设备可以是移动电话、智能电话、平板电脑、计算机、相机等。
上文已经描述了具有不同变化的各种实施例。应该注意的是,本领域技术人员可以将这些各种实施例和变化的各种元件组合。这种更改、修改、以及改善旨在作为本公开的一部分,并且旨在处于本发明的范围内。因此,以上描述仅通过示例的方式,并且不旨在于进行限制。本发明仅如以下权利要求和其等同物中限定的那样进行限制。
Claims (14)
1.一种用于生成深度图的装置,包括:
单个相机模块,具有固定近场焦距,被配置为捕获单个图像;
图像分割器,被配置为将所述图像分区成多个区域;
焦距度量确定器,被配置为确定针对所述多个区域中的每个区域的焦距度量;以及
深度图生成器,被配置为针对所述多个区域中的每个区域将所述焦距度量映射成深度值,并且将多个深度值组合以生成针对所述单个相机的深度图。
2.根据权利要求1所述的装置,其中所述单个相机模块被配置为捕获另一单个图像,所述图像分割器被配置为将另一图像分区成多个区域,所述焦距度量确定器被配置为确定针对所述多个区域中的每个区域的另一焦距度量;并且所述深度图生成器被配置为针对所述多个区域中的每个区域将所述焦距度量映射成另一深度值,并且将多个另一深度值组合以生成针对所述单个相机的另一深度图。
3.根据权利要求1和2中的任一项所述的装置,进一步包括对象确定器,其被配置为从所述深度图确定所述深度图内与和背景分离的至少一个对象关联的位置。
4.根据从属于权利要求2的权利要求3所述的装置,其中所述对象确定器被配置为从所述另一深度图确定所述另一深度图内与所述至少一个对象关联的位置。
5.根据权利要求4所述的装置,进一步包括对象追踪器,其被配置为追踪所述深度图内与和背景分离的至少一个对象关联的所述位置和所述另一深度图内与所述至少一个对象关联的所述位置之间的改变。
6.根据权利要求5所述的装置,进一步包括姿势确定器,其被配置为从以下中的至少一个识别姿势:
所述深度图内与和背景分离的至少一个对象关联的所述位置;
所述另一深度图内与所述至少一个对象关联的所述位置;以及
所述深度图内与和背景分离的至少一个对象关联的所述位置和所述另一深度图内与所述至少一个对象关联的所述位置之间的所述改变。
7.根据权利要求6所述的装置,进一步包括控制器,其被配置为基于所识别的姿势控制所述装置的功能。
8.一种用于生成深度图的方法,包括:
使用具有固定近场焦距的单个相机模块捕获单个图像;
将所述图像分区成多个区域;
确定针对所述多个区域中的每个区域的焦距度量;
针对所述多个区域中的每个区域将所述焦距度量映射成深度值;以及
将多个深度值组合以生成针对所述单个相机的深度图。
9.根据权利要求8所述的方法,进一步包括:
使用所述单个相机模块捕获另一单个图像;
将所述另一图像分区成多个区域;
确定针对所述多个区域中的每个区域的另一焦距度量;
针对所述多个区域中的每个区域将所述焦距度量映射成另一深度值;以及
将多个另一深度值组合以生成针对所述单个相机的另一深度图。
10.根据权利要求8和9中的任一项所述的方法,进一步包括从所述深度图确定所述深度图内与和背景分离的至少一个对象关联的位置。
11.根据从属于权利要求9的权利要求10所述的方法,进一步包括从所述另一深度图确定所述另一深度图内与所述至少一个对象关联的位置。
12.根据权利要求11所述的方法,进一步包括追踪所述深度图内与和背景分离的至少一个对象关联的所述位置和所述另一深度图内与所述至少一个对象关联的所述位置之间的改变。
13.根据权利要求12所述的方法,进一步包括从以下中的至少一个识别姿势:
所述深度图内与和背景分离的至少一个对象关联的所述位置;
所述另一深度图内与所述至少一个对象关联的所述位置;以及
所述深度图内与和背景分离的至少一个对象关联的所述位置和所述另一深度图内与所述至少一个对象关联的所述位置之间的所述改变。
14.根据权利要求13所述的方法,进一步包括基于所识别的姿势控制装置的功能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910609181.0A CN110335302B (zh) | 2015-12-23 | 2016-04-26 | 从单个传感器生成的深度图 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15202560.7 | 2015-12-23 | ||
EP15202560.7A EP3185209B1 (en) | 2015-12-23 | 2015-12-23 | Depth maps generated from a single sensor |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910609181.0A Division CN110335302B (zh) | 2015-12-23 | 2016-04-26 | 从单个传感器生成的深度图 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106911922A true CN106911922A (zh) | 2017-06-30 |
CN106911922B CN106911922B (zh) | 2019-08-06 |
Family
ID=55027488
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910609181.0A Active CN110335302B (zh) | 2015-12-23 | 2016-04-26 | 从单个传感器生成的深度图 |
CN201610267138.7A Active CN106911922B (zh) | 2015-12-23 | 2016-04-26 | 从单个传感器生成的深度图 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910609181.0A Active CN110335302B (zh) | 2015-12-23 | 2016-04-26 | 从单个传感器生成的深度图 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10839537B2 (zh) |
EP (1) | EP3185209B1 (zh) |
CN (2) | CN110335302B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108459417A (zh) * | 2018-02-05 | 2018-08-28 | 华侨大学 | 一种单目窄带多光谱立体视觉系统及其使用方法 |
CN110335302A (zh) * | 2015-12-23 | 2019-10-15 | 意法半导体(R&D)有限公司 | 从单个传感器生成的深度图 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10451714B2 (en) | 2016-12-06 | 2019-10-22 | Sony Corporation | Optical micromesh for computerized devices |
US10536684B2 (en) | 2016-12-07 | 2020-01-14 | Sony Corporation | Color noise reduction in 3D depth map |
US10181089B2 (en) * | 2016-12-19 | 2019-01-15 | Sony Corporation | Using pattern recognition to reduce noise in a 3D map |
US10495735B2 (en) | 2017-02-14 | 2019-12-03 | Sony Corporation | Using micro mirrors to improve the field of view of a 3D depth map |
US10795022B2 (en) | 2017-03-02 | 2020-10-06 | Sony Corporation | 3D depth map |
US10979687B2 (en) | 2017-04-03 | 2021-04-13 | Sony Corporation | Using super imposition to render a 3D depth map |
US10484667B2 (en) | 2017-10-31 | 2019-11-19 | Sony Corporation | Generating 3D depth map using parallax |
US10609274B2 (en) * | 2018-03-30 | 2020-03-31 | Qualcomm Incorporated | Systems and methods for autofocus and depth map generation |
US10582111B2 (en) | 2018-03-30 | 2020-03-03 | Qualcomm Incorporated | Systems and methods for autofocus and depth map generation |
US10549186B2 (en) | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100080481A1 (en) * | 2008-09-30 | 2010-04-01 | Liang-Gee Chen | 3D Depth Generation by Local Blurriness Estimation |
US20110222734A1 (en) * | 2010-03-10 | 2011-09-15 | Industrial Technology Research Institute | Methods for evaluating distances in a scene and apparatus and machine readable medium using the same |
US20120070070A1 (en) * | 2010-09-16 | 2012-03-22 | Primesense Ltd. | Learning-based pose estimation from depth maps |
US20140168062A1 (en) * | 2012-12-13 | 2014-06-19 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
CN104639927A (zh) * | 2013-11-11 | 2015-05-20 | 财团法人资讯工业策进会 | 拍摄立体影像的方法以及电子装置 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2113752C (en) * | 1994-01-19 | 1999-03-02 | Stephen Michael Rooks | Inspection system for cross-sectional imaging |
RU2411690C2 (ru) * | 2005-12-02 | 2011-02-10 | Конинклейке Филипс Электроникс Н.В. | Способ и устройство отображения стереоскопического изображения, способ для создания данных 3d изображения из входных данных 2d изображения и устройство для создания данных 3d изображения из входных данных 2d изображения |
JP5115138B2 (ja) * | 2007-10-17 | 2013-01-09 | 株式会社ニコン | 合焦測定装置、合焦測定方法およびプログラム |
US8233077B2 (en) * | 2007-12-27 | 2012-07-31 | Qualcomm Incorporated | Method and apparatus with depth map generation |
US8724013B2 (en) * | 2007-12-27 | 2014-05-13 | Qualcomm Incorporated | Method and apparatus with fast camera auto focus |
CN102273190A (zh) * | 2008-10-31 | 2011-12-07 | 惠普开发有限公司 | 适合于选择聚焦设置的方法和数字成像设备 |
EP2537332A1 (en) * | 2010-02-19 | 2012-12-26 | Dual Aperture, Inc. | Processing multi-aperture image data |
DE102010023344A1 (de) * | 2010-06-10 | 2012-01-19 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Kameraobjektiv und Kamerasystem |
JP5868183B2 (ja) * | 2010-06-15 | 2016-02-24 | パナソニック株式会社 | 撮像装置及び撮像方法 |
US8705801B2 (en) * | 2010-06-17 | 2014-04-22 | Panasonic Corporation | Distance estimation device, distance estimation method, integrated circuit, and computer program |
US9092875B2 (en) * | 2011-04-12 | 2015-07-28 | Panasonic Intellectual Property Management Co., Ltd. | Motion estimation apparatus, depth estimation apparatus, and motion estimation method |
JP2012237693A (ja) * | 2011-05-13 | 2012-12-06 | Sony Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
JP5822613B2 (ja) * | 2011-09-12 | 2015-11-24 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US8340456B1 (en) * | 2011-10-13 | 2012-12-25 | General Electric Company | System and method for depth from defocus imaging |
JP5963514B2 (ja) * | 2012-04-19 | 2016-08-03 | キヤノン株式会社 | 測距装置、測距方法及び撮像システム |
JP5932476B2 (ja) * | 2012-05-17 | 2016-06-08 | キヤノン株式会社 | 画像処理装置、撮像装置、距離計測方法および距離計測プログラム |
TWI489090B (zh) * | 2012-10-31 | 2015-06-21 | Pixart Imaging Inc | 偵測系統 |
US20140176745A1 (en) * | 2012-12-21 | 2014-06-26 | Nvidia Corporation | Approach for camera control |
US9129155B2 (en) * | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9456141B2 (en) * | 2013-02-22 | 2016-09-27 | Lytro, Inc. | Light-field based autofocus |
US10237528B2 (en) * | 2013-03-14 | 2019-03-19 | Qualcomm Incorporated | System and method for real time 2D to 3D conversion of a video in a digital camera |
EP2835613B1 (de) * | 2013-08-08 | 2019-01-16 | Hexagon Technology Center GmbH | Geodätisches Vermessungsgerät mit Mikrolinsenarray |
US20150086127A1 (en) * | 2013-09-20 | 2015-03-26 | Samsung Electronics Co., Ltd | Method and image capturing device for generating artificially defocused blurred image |
CN103619090A (zh) * | 2013-10-23 | 2014-03-05 | 深迪半导体(上海)有限公司 | 基于微型惯性传感器舞台灯光自动定位和追踪系统和方法 |
CN103618891B (zh) * | 2013-11-27 | 2015-07-15 | 天津大学 | 一种立体相机微距会聚拍摄质量客观评价方法 |
JP2015202560A (ja) * | 2014-04-15 | 2015-11-16 | 有限会社イマジン二十一 | 打抜き用カス取り装置 |
GB2541884A (en) * | 2015-08-28 | 2017-03-08 | Imp College Of Science Tech And Medicine | Mapping a space using a multi-directional camera |
EP3185209B1 (en) * | 2015-12-23 | 2019-02-27 | STMicroelectronics (Research & Development) Limited | Depth maps generated from a single sensor |
-
2015
- 2015-12-23 EP EP15202560.7A patent/EP3185209B1/en active Active
-
2016
- 2016-04-26 CN CN201910609181.0A patent/CN110335302B/zh active Active
- 2016-04-26 CN CN201610267138.7A patent/CN106911922B/zh active Active
- 2016-05-10 US US15/150,494 patent/US10839537B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100080481A1 (en) * | 2008-09-30 | 2010-04-01 | Liang-Gee Chen | 3D Depth Generation by Local Blurriness Estimation |
US20110222734A1 (en) * | 2010-03-10 | 2011-09-15 | Industrial Technology Research Institute | Methods for evaluating distances in a scene and apparatus and machine readable medium using the same |
US20120070070A1 (en) * | 2010-09-16 | 2012-03-22 | Primesense Ltd. | Learning-based pose estimation from depth maps |
US20140168062A1 (en) * | 2012-12-13 | 2014-06-19 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
CN104639927A (zh) * | 2013-11-11 | 2015-05-20 | 财团法人资讯工业策进会 | 拍摄立体影像的方法以及电子装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110335302A (zh) * | 2015-12-23 | 2019-10-15 | 意法半导体(R&D)有限公司 | 从单个传感器生成的深度图 |
CN110335302B (zh) * | 2015-12-23 | 2024-06-25 | 意法半导体(R&D)有限公司 | 从单个传感器生成的深度图 |
CN108459417A (zh) * | 2018-02-05 | 2018-08-28 | 华侨大学 | 一种单目窄带多光谱立体视觉系统及其使用方法 |
CN108459417B (zh) * | 2018-02-05 | 2020-06-26 | 华侨大学 | 一种单目窄带多光谱立体视觉系统及其使用方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110335302B (zh) | 2024-06-25 |
CN110335302A (zh) | 2019-10-15 |
US20170188017A1 (en) | 2017-06-29 |
US10839537B2 (en) | 2020-11-17 |
EP3185209B1 (en) | 2019-02-27 |
CN106911922B (zh) | 2019-08-06 |
EP3185209A1 (en) | 2017-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106911922A (zh) | 从单个传感器生成的深度图 | |
US9274204B2 (en) | Camera tracing and surveillance system and method for security using thermal image coordinate | |
KR102465532B1 (ko) | 객체 인식 방법 및 장치 | |
Berman et al. | Sensors for gesture recognition systems | |
US20200389575A1 (en) | Under-display image sensor | |
US9733717B2 (en) | Gesture-based user interface | |
US9256324B2 (en) | Interactive operation method of electronic apparatus | |
KR102399017B1 (ko) | 이미지 생성 방법 및 장치 | |
US20140037135A1 (en) | Context-driven adjustment of camera parameters | |
US10846866B2 (en) | Irradiation system, irradiation method, and program storage medium | |
CN110688914A (zh) | 一种手势识别的方法、智能设备、存储介质和电子设备 | |
Loke et al. | Indian sign language converter system using an android app | |
KR20150049122A (ko) | 영상 촬상 장치 및 이의 보케 영상 생성 방법 | |
JP6157165B2 (ja) | 視線検出装置及び撮像装置 | |
KR101640014B1 (ko) | 허위 안면 이미지 분류가 가능한 홍채 인식 장치 | |
US9268408B2 (en) | Operating area determination method and system | |
CN106791456A (zh) | 一种拍照方法及电子设备 | |
JP7420281B2 (ja) | 生体検知装置、制御方法、及びプログラム | |
JP2011198270A (ja) | 対象認識装置及びそれを用いた制御装置、並びに対象認識方法 | |
CN106951077B (zh) | 一种提示方法及第一电子设备 | |
CN106922181A (zh) | 方向感知自动聚焦 | |
KR20150005094A (ko) | 전자 디바이스 및 전자 디바이스에서 눈 영역 검출 방법 | |
JP2015184906A (ja) | 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム | |
CN107749942A (zh) | 悬浮拍摄方法、移动终端及计算机可读存储介质 | |
CN113805824B (zh) | 电子装置以及在显示设备上显示图像的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |