CN110400341B - 一种3d结构光深度相机和移动终端 - Google Patents

一种3d结构光深度相机和移动终端 Download PDF

Info

Publication number
CN110400341B
CN110400341B CN201910592545.9A CN201910592545A CN110400341B CN 110400341 B CN110400341 B CN 110400341B CN 201910592545 A CN201910592545 A CN 201910592545A CN 110400341 B CN110400341 B CN 110400341B
Authority
CN
China
Prior art keywords
depth
subunit
receiving module
image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910592545.9A
Other languages
English (en)
Other versions
CN110400341A (zh
Inventor
高乾坤
李骊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing HJIMI Technology Co Ltd
Original Assignee
Beijing HJIMI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing HJIMI Technology Co Ltd filed Critical Beijing HJIMI Technology Co Ltd
Priority to CN201910592545.9A priority Critical patent/CN110400341B/zh
Publication of CN110400341A publication Critical patent/CN110400341A/zh
Application granted granted Critical
Publication of CN110400341B publication Critical patent/CN110400341B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种3D结构光深度相机和移动终端,涉及3D深度测量领域。本发明提出的3D结构光深度相机包括:向场景投影编码后的结构光照明的发射模组,以一定的焦距拍摄场景被结构光照明后的斑点图像并传输给数据处理器单元的接收模组,以及对深度相机的各光学模组进行整体协同控制与数据计算的数据处理器单元,该数据处理器单元具体用于计算所述接收模组拍摄的图像数据的深度值,根据深度值的变化控制接收模组调整焦距,循环获取调焦后接收模组拍摄的图像数据并计算深度值,直至得到改善误差后的深度图像。

Description

一种3D结构光深度相机和移动终端
技术领域
本发明涉及3D深度测量领域,具体涉及一种改进的3D结构光深度相机和移动终端,能够抑制3D结构光的深度测量误差。
背景技术
3D深度测量技术可采集场景目标的深度坐标信息,为后端开发提供额外的数据处理自由度。随着移动终端器件与智能交互设备的普及,3D深度测量技术越来越成为新一代人机交互的核心技术,在工业检测、安防零售、体感游戏、移动支付和生物医学等方面都有着广泛的应用前景。
基于散斑结构光技术的深度相机是当前广泛采用的一种3D深度测量方案。它采用编码后随机、伪随机或规则排布的斑点光线簇投射至具体的空间场景,通过比对特征斑点的变形位移得到场景的深度信息。
当前深度测量技术的应用愈加广泛,对于深度信息获取的精度质量要求也越来越高。基于结构光照明的3D深度相机由于受到技术原理的限制,其深度测量精度随着场景距离的增加而成平方倍率的恶化。这影响了相机测量数据的置信度与有效性,从而严重制约了3D结构光测量技术在各方面应用的性能表现。虽然通过调整结构光发射端与接收端的基线距离能够一定程度上改善测量误差问题,但基线调整的冗余度较小,对误差的改善能力极为有限,且高精度对应宽基线,基线距离较大会破坏深度相机的结构紧凑性,不利于小型化。
因此在3D深度测量领域中,如何设计出具有改善深度测量误差能力且保留结构紧凑性的3D结构光深度相机就成为亟待解决的技术问题之一。
发明内容
针对深度测量误差随距离变化的问题,本发明提出了一种3D结构光深度相机,能够抑制3D结构光的深度测量误差,改善深度相机应用的性能,且结构紧凑。
本发明设计的一种3D结构光深度相机,包括:发射模组、接收模组和数据处理器单元;
所述发射模组向场景投影编码后的结构光照明;
所述接收模组以一定的焦距拍摄场景被结构光照明后的斑点图像并传输给数据处理器单元;
所述数据处理器单元对深度相机的各光学模组进行整体协同控制与数据计算,具体包括:计算所述接收模组拍摄的图像数据的深度值,根据深度值的变化控制接收模组调整焦距,循环获取调焦后接收模组拍摄的图像数据并计算深度值,直至得到改善误差后的深度图像。
上述的3D结构光深度相机还包括用来采集场景彩色图像的RGB成像模组;相应的,所述数据处理器单元将所述改善误差后的深度图与所述RGB成像模组采集的场景彩色图像进行渲染并输出场景的三维图像。
优选的,上述接收模组还包含对应发射模组波长的滤光片与偏振片。上述发射模组由光源、准直透镜和衍射光学元件组成。所述光源采用激光二极管、边发射激光器或者垂直腔面发射激光器。
优选的,上述数据处理器单元中存储有根据接收模组的变焦曲线对深度相机不同探测距离处的误差值进行标定后拟合形成深度测量误差-焦距变化曲线。
所述接收模组具体用于采用短焦广角模式测量初始场景的深度图像,得到全局深度图像;
所述数据处理器单元具体包括:
输入子单元,用于将所述接收模组采集到的全局深度图像输入给子区域确定子单元;
子区域确定子单元,用于从所述全局深度图像中选取一个当前子单元;
第一计算子单元,用于计算所述子区域确定子单元选取的当前子单元的深度值,并根据该深度值和预先标定存储的深度测量误差-焦距曲线得到调焦值,触发控制子单元;
控制子单元,用于根据所述第一计算子单元得到的调焦值调整焦距;用于收到第一判断子单元的触发时根据预设步长调整焦距;还用于控制接收模组拍摄获取调焦后当前子区域的深度图,然后触发第二计算子单元;
第二计算子单元,用于根据调焦后当前子区域的深度图,计算当前深度测量误差,并触发第一判断子单元;
第一判断子单元,用于判断所述第二计算子单元计算出的当前深度测量误差是否小于等于误差目标值,当判断为是则触发第二判断子单元,当判断为否时触发所述控制子单元;
第二判断子单元,用于判断是否还存在未做调焦处理的子区域,是则触发所述子区域确定子单元,否则触发输出子单元;
输出子单元,用于融合所有子区域输出改善误差后的深度图。
优选的,所述输出子单元,还用于将所述改善误差后的深度图与所述RGB成像模组采集的场景的彩色图像进行渲染,最终输出场景的三维图像。
本发明的有益效果在于,提供了一种改进的3D结构光深度相机设计方案,该方案通过采用可变焦的发射模组,从而能够通过焦距的调节抑制3D结构光的深度测量误差,改善深度相机的深度图质量,突破了传统3D结构光深度相机的技术缺陷。基于变焦成像模组的3D结构光深度相机输出的深度图质量更好,具有较统一的误差水平,为后续应用开发提供了更精确的基础参数值。
附图说明
图1是散斑结构光深度测量原理示意图;
图2是深度误差与探测距离的变化曲线图;
图3是一种3D结构光深度相机的组成结构图;
图4是本申请实施例中深度相机的深度误差改善流程图;
图5是本申请实施例中深度相机中的数据处理器单元的组成框图;
图6为本申请实施例中深度相机的深度误差改善效果示意图。
具体实施方式
基于结构光照明的3D结构光深度相机由于受到技术原理的限制,其深度测量精度随着场景距离的增加而成平方倍率的恶化。这影响了相机测量数据的置信度与有效性,从而严重制约了3D结构光测量技术在各方面应用的性能表现。虽然通过调整结构光发射端与接收端的基线距离能够一定程度上改善测量误差问题,但基线调整的冗余度较小,对误差的改善能力极为有限,且高精度对应宽基线,基线距离较大会破坏深度相机的结构紧凑性,不利于小型化,为此本实施例提出了一种更加优化的能够抑制3D结构光测量误差且基本保留结构紧凑性的深度相机设计方案。
下面结合附图对本发明的具体实施方式作进一步详细地说明。
首先,参照图1和图2对3D深度相机的深度测量误差随着场景距离的增加而成平方倍率的恶化的原理说明如下:
散斑结构光深度测量技术采用编码后的伪随机斑点光线簇作为光学探针,投射至空间物体,通过比对特征区域的位移量得到具体的深度值。如图1所示为散斑结构光深度测量原理示意图,其中Laser为结构光发射模组,Camera是接收模组,焦距为f,R是距离发射模组为dr的参考标定平面,b为发射模组与接收模组间的基线距离,Laser发射的探测光线分别到达参考平面与实际物体的Sr和S点,并被相机拍摄下来,它们在拍摄图像上对应的点分别是Tr与T,其间距差为k,根据三角几何分析可得物体上P点的探测距离d(即深度值)的计算公式为:
Figure BDA0002116514920000051
通常拍摄图的间距差由像素数确定,若接收模组的像素尺寸为p,Tr与T的坐标差为N,则深度值的计算公式(1)可变形为:
Figure BDA0002116514920000052
对公式(2)两边分别求关于d的微分,可得到精度估计公式:
Figure BDA0002116514920000053
其中δd表示深度变化量(即深度测量误差),δN为散斑点像素变化量(即斑点探测精度),δN由插值算法处理精度确定,通常取值为1/2、1/4、1/8或1/16 或者其他的有效值,但高精度的插值对应较长的算法处理时间,因此δN取值需根据实际情况选择。从公式(3)可知,当模组基本参数确定后,深度测量误差δd与探测距离d的平方正相关,这将导致随着探测距离d的增加深度测量误差δd会迅速恶化。
如图2所示为深度误差与探测距离的变化曲线图,其中各系统参数值分别设为p=3μm、b=55mm、f=3mm、δN=1/8,探测距离变化为0.5m≤d≤4m,每隔0.25m 取样一次。
为抑制3D测量精度的恶化问题,本发明提出一种改进的3D结构光深度相机设计方案。新设计采用可变焦的接收模组,通过调整焦距f来抑制探测距离变化对深度测量误差的影响。所提出的改进的3D结构光深度相机包括:第一部分为发射模组,向场景投影编码后的结构光照明;第二部分为具有变焦性能的接收模组,可根据探测距离的变化调整焦距以拍摄对应场景斑点图;第三部分为数据处理器单元,它接收所述接收模组拍摄的场景斑点图并调用深度提取算法计算对应场景的深度值;第四部分为RGB成像模组,用于采集场景常规的彩色图像。
基于散斑结构光的深度计算一般是将接收模组所采集的场景斑点图像与预先标定保存好的参考平面斑点图像进行匹配比较运算,由数据处理器单元分析处理得到二者之间对应特征像素点的变形量,并根据变形量得到实际场景中该物点的深度值,多个像素点的深度值组合为点云数据,进一步处理后构成场景物体的深度图像。
图3为本申请实施例的3D结构光深度相机的系统结构图,其中10为封装设计的深度相机;11为发射模组,由光源、准直透镜和DOE(Diffractive Opitcal Elements衍射光学元件)组成,功能是向场景投影编码后的结构光照明;12为接收模组,由变焦透镜和图像传感器组成,功能是以一定的焦距拍摄场景被结构光照明后的斑点图像;13为数据处理器单元,用于分析处理数据并合成为深度图;14为RGB成像模组。
发射模组11的光源可采用激光二极管(LD)、边发射激光器(EEL)或者垂直腔面发射激光器(VCSEL),若使用VCSEL光源,则一般包含若干阵列排布的发光点。优选地,光源的波长为830nm、940nm的红外光或者其他传输效率高的波长。
接收模组12为可变焦成像的光学模组,根据应用场景可选择连续变焦或者若干个离散变焦能力的成像模组。此外接收模组12还应包含对应发射模组11波长的滤光片与偏振片,以提高采集的场景斑点图像质量。
数据处理器单元13对深度相机10的各光学模组进行整体协同控制与数据计算;具体的,用于计算所述接收模组拍摄的图像数据的深度值,根据深度值的变化控制接收模组调整焦距,循环获取调焦后接收模组拍摄的图像数据并计算深度值,直至得到改善误差后的深度图像。以及将所述改善误差后的深度图与RGB成像模组14采集的场景的彩色图像进行渲染输出场景的三维图像。
数据处理器单元13可以是单个的仅包含深度计算功能的单元,或者是多种功能的处理器单元组合,包括但不限于中央处理器(Central Processing Unit,CPU)、图形处理器(Graphics Processing Unit,GPU)、数字信号处理器(Digital Signal Processing,DSP)、图像信号处理器(Image Signal Processing,ISP)和神经网络处理器(Neural ProcessingUnit,NPU)。上述处理器单元亦可嵌入至系统级芯片 (System on a Chip,SOC)或专用集成电路(Application Specific Integrated Circuit, ASIC)中,包含处理器、片上存储器、控制器与通信接口等。
若深度相机10装配在移动设备端,则数据处理器单元13为应用处理器(Application Processor,AP),如移动应用处理器,完成移动终端中除通信外其他功能的实现。
RGB成像模组14采集场景的可见光彩色图像以及物体的纹理信息,配合深度图像后可由数据处理器单元12渲染输出为场景的三维图像。
下面结合图4对本实施例提出的3D结构光深度相机的深度测量误差改善流程说明如下:
准备工作包括:根据接收模组的变焦曲线,对深度相机不同探测距离处的误差值进行标定,拟合形成深度测量误差-焦距变化曲线并存储于数据处理器单元中。
在实际应用中,对于新的测量场景,深度相机将按图4所示流程工作以输出改善误差后的深度图像,具体如下:
步骤1:采用短焦广角模式测量初始场景的深度图像,得到全局的场景深度信息;
步骤2:从所述全局深度图像中选取一个当前子区域,根据当前子区域的深度值和预先标定存储的深度测量误差-焦距曲线得到调焦值,根据所述调焦值调整焦距;
步骤3:拍摄获取调焦后当前子区域的深度图,计算当前深度测量误差;
步骤4:判断当前深度测量误差是否小于等于误差目标值,是则执行步骤6,否则执行步骤5;
步骤5:根据预设步长调整焦距,然后返回步骤3;
本步骤调整焦距可以是将当前焦距增加或减少预设步长,然后返回执行步骤 3。
可以理解的是,预设步长可先粗调然后再精细微调,如首先以10%的焦距值作为预设步长粗调,然后再以1%的焦距值作为预设步长微调,如此达到改进测量误差的目的,此处具体的步长可根据模组参数进行优化设置。
步骤6:判断是否还存在未做调焦处理的子区域,是则执行步骤2,否则执行步骤7;
一般的,可以通过对子区域加标记遍历的方式来实现本步骤。
步骤7:融合所有子区域输出改善误差后的深度图。
进一步的,本步骤之后还包括:深度相机将所述改善误差后的深度图与RGB 成像模组采集的场景的彩色图像进行渲染,最终输出场景的三维图像。
结合上述流程,可以理解的是深度相机中包含的数据处理器单元具体包括:
输入子单元1301,用于将接收模组采集到的全局深度图像输入给子区域确定子单元1302;
子区域确定子单元1302,用于从所述全局深度图像中选取一个当前子单元;
第一计算子单元1303,用于计算所述子区域确定子单元1302选取的当前子单元的深度值,并根据该深度值和预先标定存储的深度测量误差-焦距曲线得到调焦值,触发控制子单元1304;
控制子单元1304,用于根据所述第一计算子单元1303得到的调焦值调整焦距;用于收到第一判断子单元1306的触发时根据预设步长调整焦距;还用于控制接收模组拍摄获取调焦后当前子区域的深度图,然后触发第二计算子单元1305;
第二计算子单元1305,用于根据调焦后当前子区域的深度图,计算当前深度测量误差,并触发第一判断子单元;
第一判断子单元1306,用于判断所述第二计算子单元1305计算出的当前深度测量误差是否小于等于误差目标值,当判断为是是触发第二判断子单元1307,当判断为否时触发所述控制子单元1304;
第二判断子单元1307,用于判断是否还存在未做调焦处理的子区域,是则触发所述子区域确定子单元1302,否则触发所述输出子单元1308;
输出子单元1308,用于融合所有子区域输出改善误差后的深度图。
进一步的,本申请实施例中还可以将发射模组也调整成变焦投影状态,以使发射模组与接收模组在变焦时能够达到更好的视场匹配关系。具体可为发射模组外加一个变焦投影透镜,达到投射结构光图案的变焦效果,从而提高系统的误差改善性能。更进一步的,可在变焦的同时对模组的基线也进行调整,具体可将接收模组或发射模组安装在可调整滑轨上进行基线调整,以提高误差的改善性能。
采用本申请实施例中的深度相机进行深度误差改善所达到的效果示意图如图5所示,其中方框标志曲线为原始测量误差,星型标志曲线为改善后的测量误差曲线,圆形标志曲线为接收模组的变焦曲线。从图中可明显看出接收模组的焦距改变对于测量误差的改善效果。图中对应的系统参数分别设为p=3μm、b=55mm、原始接收模组焦距f=3mm、δN=1/8,探测距离变化为0.5m≤d≤4m,每隔0.25m 取样一次,新的变焦接收模组焦距变化为1.7mm≤f≤13.6mm。原始测量误差的变化范围为0.57mm≤δd≤36.4mm,而调焦改善后的测量误差变化范围为 1.0mm≤δd≤8.0mm。明显可见,采用新的设计方案后3D结构光深度相机的测量误差得到了较好的抑制。
需要说明的是,以上系统参数仅为示例说明调焦对测量误差抑制的有效性。在3D结构光深度相机设计中需根据测量误差允许值选择或者设计变焦接收模组,以满足实际的应用需求。
上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的普通技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。

Claims (8)

1.一种3D结构光深度相机,其特征在于,包括:发射模组、接收模组和数据处理器单元;
所述发射模组向场景投影编码后的结构光照明;
所述接收模组以一定的焦距拍摄场景被结构光照明后的斑点图像并传输给数据处理器单元;
所述数据处理器单元对深度相机的各光学模组进行整体协同控制与数据计算,具体包括:计算所述接收模组拍摄的图像数据的深度值,根据深度值的变化控制接收模组调整焦距,循环获取调焦后接收模组拍摄的图像数据并计算深度值,直至得到改善深度测量误差后的深度图像;
所述数据处理器单元中存储有根据接收模组的变焦曲线对深度相机不同探测距离处的误差值进行标定后拟合形成的深度测量误差-焦距变化曲线;
所述接收模组具体用于采用短焦广角模式测量初始场景的深度图像,得到全局深度图像;
所述数据处理器单元具体包括:
输入子单元,用于将所述接收模组采集到的全局深度图像输入给子区域确定子单元;
子区域确定子单元,用于从所述全局深度图像中选取一个当前子单元;
第一计算子单元,用于计算所述子区域确定子单元选取的当前子单元的深度值,并根据该深度值和预先标定存储的深度测量误差-焦距变化曲线得到调焦值,触发控制子单元;
控制子单元,用于根据所述第一计算子单元得到的调焦值调整焦距;用于收到第一判断子单元的触发时根据预设步长调整焦距;还用于控制接收模组拍摄获取调焦后当前子区域的深度图,然后触发第二计算子单元;
第二计算子单元,用于根据调焦后当前子区域的深度图,计算当前深度测量误差,并触发第一判断子单元;
第一判断子单元,用于判断所述第二计算子单元计算出的当前深度测量误差是否小于等于误差目标值,当判断为是则触发第二判断子单元,当判断为否时触发所述控制子单元;
第二判断子单元,用于判断是否还存在未做调焦处理的子区域,是则触发所述子区域确定子单元,否则触发输出子单元;
输出子单元,用于融合所有子区域输出改善误差后的深度图。
2.根据权利要求1所述的3D结构光深度相机,其特征在于,还包括:用来采集场景彩色图像的RGB成像模组;
所述数据处理器单元将改善误差后的深度图与所述RGB成像模组采集的场景彩色图像进行渲染并输出场景的三维图像。
3.根据权利要求1所述的3D结构光深度相机,其特征在于:所述接收模组还包含对应发射模组波长的滤光片与偏振片。
4.根据权利要求1所述的3D结构光深度相机,其特征在于:所述发射模组由光源、准直透镜和衍射光学元件组成。
5.根据权利要求4所述的3D结构光深度相机,其特征在于:所述光源采用激光二极管、边发射激光器或者垂直腔面发射激光器。
6.根据权利要求1所述的3D结构光深度相机,其特征在于:所述深度相机还包括RGB成像模组,所述输出子单元,还用于将改善误差后的深度图与所述RGB成像模组采集的场景的彩色图像进行渲染,最终输出场景的三维图像。
7.一种移动终端,其特征在于,包括权利要求1-6任一项所述的3D结构光深度相机。
8.根据权利要求7所述的移动终端,其特征在于,所述数据处理器单元具体为移动应用处理器。
CN201910592545.9A 2019-07-03 2019-07-03 一种3d结构光深度相机和移动终端 Active CN110400341B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910592545.9A CN110400341B (zh) 2019-07-03 2019-07-03 一种3d结构光深度相机和移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910592545.9A CN110400341B (zh) 2019-07-03 2019-07-03 一种3d结构光深度相机和移动终端

Publications (2)

Publication Number Publication Date
CN110400341A CN110400341A (zh) 2019-11-01
CN110400341B true CN110400341B (zh) 2021-09-21

Family

ID=68322657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910592545.9A Active CN110400341B (zh) 2019-07-03 2019-07-03 一种3d结构光深度相机和移动终端

Country Status (1)

Country Link
CN (1) CN110400341B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112929519B (zh) * 2019-12-06 2022-10-25 Oppo广东移动通信有限公司 深度相机、成像装置和电子设备
CN111683239B (zh) * 2020-06-22 2022-11-01 贝壳技术有限公司 三维相机的控制方法、装置及计算机可读存储介质
CN113301221B (zh) * 2021-03-19 2022-09-09 西安电子科技大学 一种深度网络相机图像处理方法及终端
EP4092572A1 (en) * 2021-05-20 2022-11-23 Wooptix S.L. Method for depth estimation for a variable focus camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101042521A (zh) * 2006-03-24 2007-09-26 明基电通股份有限公司 调焦曲线的决定方法
CN107301665A (zh) * 2017-05-03 2017-10-27 中国科学院计算技术研究所 具有可变焦光学摄像头的深度摄像头及其控制方法
CN109739027A (zh) * 2019-01-16 2019-05-10 北京华捷艾米科技有限公司 光点阵投影模组和深度相机

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9774833B2 (en) * 2013-07-16 2017-09-26 Texas Instruments Incorporated Projector auto-focus correction with the aid of a camera
US10785393B2 (en) * 2015-05-22 2020-09-22 Facebook, Inc. Methods and devices for selective flash illumination
CN106412426B (zh) * 2016-09-24 2019-08-20 上海大学 全聚焦摄影装置及方法
CN108957911B (zh) * 2018-08-22 2021-04-16 北京华捷艾米科技有限公司 散斑结构光投影模组及3d深度相机

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101042521A (zh) * 2006-03-24 2007-09-26 明基电通股份有限公司 调焦曲线的决定方法
CN107301665A (zh) * 2017-05-03 2017-10-27 中国科学院计算技术研究所 具有可变焦光学摄像头的深度摄像头及其控制方法
CN109739027A (zh) * 2019-01-16 2019-05-10 北京华捷艾米科技有限公司 光点阵投影模组和深度相机

Also Published As

Publication number Publication date
CN110400341A (zh) 2019-11-01

Similar Documents

Publication Publication Date Title
CN110400341B (zh) 一种3d结构光深度相机和移动终端
US9501833B2 (en) Method and system for providing three-dimensional and range inter-planar estimation
CN104776815B (zh) 一种基于达曼光栅的彩色三维轮廓测量装置与方法
US7812969B2 (en) Three-dimensional shape measuring apparatus
CN108171758B (zh) 基于最小光程原理和透明玻璃标定板的多相机标定方法
EP2568253B1 (en) Structured-light measuring method and system
JP6112769B2 (ja) 情報処理装置、情報処理方法
KR20190085151A (ko) 조정 가능한 초점 이미징 센서를 포함한 거리 센서
CN107860337B (zh) 基于阵列相机的结构光三维重建方法与装置
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
CN108881717B (zh) 一种深度成像方法及系统
CN108924408B (zh) 一种深度成像方法及系统
WO2014011182A1 (en) Convergence/divergence based depth determination techniques and uses with defocusing imaging
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
US11803982B2 (en) Image processing device and three-dimensional measuring system
JP2017134561A (ja) 画像処理装置、撮像装置および画像処理プログラム
CN108924407B (zh) 一种深度成像方法及系统
CN109741384B (zh) 深度相机的多距离检测装置及方法
CN109470166B (zh) 结构光深度感测器及感测方法
JP2021015089A (ja) 測距センサ
Kawasaki et al. Optimized aperture for estimating depth from projector's defocus
CN213091888U (zh) 深度测量系统及电子设备
US20230408253A1 (en) Three-dimensional scanner having sensors with overlapping fields of view
JP2011133360A (ja) 距離計測装置、距離計測方法、及びプログラム
JP2014194502A (ja) 撮像装置および撮像システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant