CN112213730B - 三维测距方法和装置 - Google Patents
三维测距方法和装置 Download PDFInfo
- Publication number
- CN112213730B CN112213730B CN201910620060.6A CN201910620060A CN112213730B CN 112213730 B CN112213730 B CN 112213730B CN 201910620060 A CN201910620060 A CN 201910620060A CN 112213730 B CN112213730 B CN 112213730B
- Authority
- CN
- China
- Prior art keywords
- scene
- time
- light
- light pulse
- exposure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000691 measurement method Methods 0.000 title description 2
- 238000000034 method Methods 0.000 claims abstract description 67
- 230000001678 irradiating effect Effects 0.000 claims abstract description 14
- 238000003384 imaging method Methods 0.000 claims description 42
- 238000012360 testing method Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 19
- 238000005286 illumination Methods 0.000 description 13
- 230000010287 polarization Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000001444 catalytic combustion detection Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本公开提供了一种三维测距方法和装置。所述一种三维测距方法,包括:发射第一光脉冲,照射待测场景,并且在第一曝光时间内获取第一场景图像;发射第二光脉冲,照射所述待测场景,并且在第二曝光时间内获取第二场景图像;基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息,其中,所述第一光脉冲的第一脉冲包络和所述第二光脉冲的第二脉冲包络的比为随时间变化的单调函数。
Description
技术领域
本公开涉及光学测距领域,更具体地,本公开涉及三维测距方法和三维测距装置。
背景技术
随着诸如自动驾驶、3D影音和游戏、智能手机导航、智能机器人等应用场景的出现,实时和精确地确定进行场景的深度测量变得越来越重要。
目前,存在多种测量场景深度的方法。传统的三角测距随着测距距离的增加,距离分辨率变得不断劣化。而随着激光技术的发展,利用激光进行场景深度的测量普遍。一种方法是向待测场景发射调制光信号,接收由待测场景中对象的反射的光,进而通过调解接收光确定待测场景中对象的距离。由于这是一种点到点的测量方式,因此需要大量的扫描以获取场景的深度信息,并且其空间分辨率受限。另一种方法使用预定照明模式的光照明待测场景,使用预先获得的标定信息获取待测场景的深度信息。此外,另一种方法是飞行时间测距法,其发射调制信号,并且使用与处于调制信号的四个不同相位的单个光敏像素相关联的四个传感器获得返回的信号相对于发射信号的相对相位偏移,从而确定深度信息。
现有的这些测距方法通常需要专用的硬件配置,测距设备体积大且笨重,并且测距的空间分辨率低、或测距视场窄、或测试距离短。
发明内容
鉴于上述问题而提出了本公开。本公开提供了一种三维测距方法和三维测距装置。
根据本公开的一个方面,提供了一种三维测距方法,包括:发射第一光脉冲,照射待测场景,并且在第一曝光时间内获取第一场景图像;发射第二光脉冲,照射所述待测场景,并且在第二曝光时间内获取第二场景图像;基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息,其中,所述第一光脉冲的第一脉冲包络和所述第二光脉冲的第二脉冲包络的比为随时间变化的单调函数。
根据本公开另一个方面,提供了一种三维测距方法,包括:发射第一光脉冲,照射待测场景,并且在第一曝光时间内获取第一场景图像,并且记录所述第一光脉冲的第一发光开始时间和第一发光结束时间以及所述第一曝光时间的第一曝光开始时间和第一曝光结束时间;发射第二光脉冲,照射所述待测场景,并且在第二曝光时间内获取第二场景图像,并且记录所述第二光脉冲的第二发光开始时间和第二发光结束时间以及所述第二曝光时间的第二曝光开始时间和第二曝光结束时间;基于所述第一场景图像和所述第二场景图像、所述第一发光开始时间、第一发光结束时间、所述第一曝光开始时间和第一曝光结束时间、以及所述第二发光开始时间、第二发光结束时间、所述第二曝光开始时间和第二曝光结束时间,获取所述待测场景的场景距离信息,其中,所述第一曝光时间和所述第二曝光时间与第一光脉冲和第二光脉冲的发光时长处于相同数量级。
此外,根据本公开的三维测距方法,其中,控制所述第一曝光时间设置,使得在所述第一曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第一曝光时间期间内的任意时刻都不为零;并且控制所述第二曝光时间设置,使得在所述第二曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第二曝光开始时间到曝光结束前特定时刻之间的任意时刻都不为零,并且在所述特定时刻之后都是零。
此外,根据本公开的三维测距方法,其中,所述场景距离信息是每个像素对应于所述场景图像中相应部分的距离信息。
此外,根据本公开的三维测距方法,其中,控制以同时获取所述场景2D图像和相应的所述场景距离信息。
此外,根据本公开的三维测距方法,还包括:在发射所述第一光脉冲之前、或者在发射所述第二光脉冲之后、或者在发射所述第一光脉冲和所述第二光脉冲之间,在背景曝光时间内获取所述待测场景的背景场景图像,其中,基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息包括:基于所述背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
此外,根据本公开的三维测距方法,其中,基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息包括:基于前一帧或多帧的背景场景图像,确定当前帧的背景场景图像,基于所述当前帧的背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
此外,根据本公开的三维测距方法,其中,控制所述第一光脉冲和所述第二光脉冲顺序发射,并且控制所述第一曝光时间满足第一预定时长,使得经由所述待测场景中每个点反射的所述第一光脉冲的至少一部分能在所述第一曝光时间用于获取所述第一场景图像,并且控制所述第二曝光时间满足第二预定时长,使得经由所述待测场景中每个点反射的所述第二光脉冲的至少一部分能在所述第二曝光时间用于获取所述第二场景图像。
此外,根据本公开的三维测距方法,其中,控制所述第一光脉冲和所述第二光脉冲同时发射,并且所述第一光脉冲具有第一波长,所述第二光脉冲具有第二波长,所述第一波长不同于所述第二波长。
此外,根据本公开的三维测距方法,其中,控制所述第一光脉冲具有第一偏振值,所述第二光脉冲具有第二偏振值,所述第一偏振值不同于所述第二偏振值。
此外,根据本公开的三维测距方法,还包括:发射多个第三光脉冲,照射所述待测场景,并且在多个相应的第三曝光时间内获取多个第三场景图像;其中,基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息包括:基于所述第一场景图像、所述第二场景图像以及所述多个第三场景图像,获取所述待测场景的场景距离信息,并且其中,所述第一光脉冲具有第一波长,所述第二光脉冲具有第二波长,所述多个第三光脉冲具有多个第三波长,并且所述第一波长、所述第二波长以及所述多个第三波长相互不同。
此外,根据本公开的三维测距方法,其中,所述第一光脉冲和/或所述第二光脉冲具有非均匀的空间光场分布。
此外,根据本公开的三维测距方法,其中,所述第一曝光时间和所述第二曝光时间分别是所述第一光脉冲和所述第二光脉冲的发光时长的1到5倍。
此外,根据本公开的三维测距方法,其中,由CCD或CMOS成像传感器获取所述背景场景图像、所述第一场景图像、所述第二场景图像和所述第三场景图像。
根据本公开的又一方面,提供了一种三维测距装置,包括:光源单元,配置为发射第一光脉冲和第二光脉冲,照射待测场景;成像单元,配置为在第一曝光时间内获取第一场景图像,并且在第二曝光时间内获取第二场景图像;处理单元,配置为基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息,其中,所述第一光脉冲的第一脉冲包络和所述第二光脉冲的第二脉冲包络的比为随时间变化的单调函数。
根据本公开的再一方面,提供了一种三维测距装置,包括:光源单元,配置为发射第一光脉冲和第二光脉冲,照射待测场景,并且记录所述第一光脉冲的第一发光开始时间和第一发光结束时间、以及并且所述第二光脉冲的第二发光开始时间和第二发光结束时间;成像单元,配置为在第一曝光时间内获取第一场景图像,并且在第二曝光时间内获取第二场景图像,并且记录所述第一曝光时间的第一曝光开始时间和第一曝光结束时间、以及所述第二曝光时间的第二曝光开始时间和第二曝光结束时间;处理单元,配置为基于所述第一场景图像和所述第二场景图像、所述第一发光开始时间、第一发光结束时间、所述第一曝光开始时间和第一曝光结束时间、以及所述第二发光开始时间、第二发光结束时间、所述第二曝光开始时间和第二曝光结束时间,获取所述待测场景的场景距离信息,其中,所述第一曝光时间和所述第二曝光时间与第一光脉冲和第二光脉冲的发光时长处于相同数量级。
此外,根据本公开的三维测距装置,其中,所述成像单元控制所述第一曝光时间设置,使得在所述第一曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第一曝光时间期间内的任意时刻都不为零;并且控制所述第二曝光时间设置,使得在所述第二曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第二曝光开始时间到曝光结束前特定时刻之间的任意时刻都不为零,并且在所述特定时刻之后都是零。
此外,根据本公开的三维测距装置,其中,所述场景距离信息是每个像素对应于所述场景图像中相应部分的距离信息。
此外,根据本公开的三维测距装置,其中,所述成像单元和所述处理单元同时获取所述场景图像和相应的所述场景距离信息。
此外,根据本公开的三维测距装置,其中所述成像单元在发射所述第一光脉冲之前、或者在发射所述第二光脉冲之后、或者在发射所述第一光脉冲和所述第二光脉冲之间,在背景曝光时间内获取所述待测场景的背景场景图像,其中,所述处理单元基于所述背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
此外,根据本公开的三维测距装置,其中,所述处理单元基于前一帧或多帧的背景场景图像,确定当前帧的背景场景图像,基于所述当前帧的背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
此外,根据本公开的三维测距装置,其中,所述光源单元顺序发射所述第一光脉冲和所述第二光脉冲,并且所述成像单元控制所述第一曝光时间满足第一预定时长,使得经由所述待测场景中每个点反射的所述第一光脉冲的至少一部分能在所述第一曝光时间用于获取所述第一场景图像,并且所述成像单元控制所述第二曝光时间满足第二预定时长,使得经由所述待测场景中每个点反射的所述第二光脉冲的至少一部分能在所述第二曝光时间用于获取所述第二场景图像。
此外,根据本公开的三维测距装置,其中,所述光源单元同时发射所述第一光脉冲和所述第二光脉冲,并且所述第一光脉冲具有第一波长,所述第二光脉冲具有第二波长,所述第一波长不同于所述第二波长。
此外,根据本公开的三维测距装置,其中,所述光源单元控制所述第一光脉冲具有第一偏振值,所述第二光脉冲具有第二偏振值,所述第一偏振值不同于所述第二偏振值。
此外,根据本公开的三维测距装置,其中,所述光源单元发射多个第三光脉冲,照射所述待测场景,并且所述成像单元在多个相应的第三曝光时间内获取多个第三场景图像;其中,所述处理单元基于所述第一场景图像、所述第二场景图像以及所述多个第三场景图像,获取所述待测场景的场景距离信息,并且其中,所述第一光脉冲具有第一波长,所述第二光脉冲具有第二波长,所述多个第三光脉冲具有多个第三波长,并且所述第一波长、所述第二波长以及所述多个第三波长相互不同。
此外,根据本公开的三维测距装置,其中,所述第一光脉冲和/或所述第二光脉冲具有非均匀的空间光场分布。
此外,根据本公开的三维测距装置,其中,所述第一曝光时间和所述第二曝光时间分别是所述第一光脉冲和所述第二光脉冲的发光时长的1到5倍。
此外,根据本公开的任一项所述的三维测距装置,其中,所述成像单元包括CCD和CMOS成像传感器。
如以下将详细描述的,根据本公开实施例的三维测距方法和装置通过使用标准的CCD或CMOS图像传感器,通过可控的照明和传感器曝光成像,在无需扫描和窄视场限制的情况下,实现了精确和实时的深度信息获取。此外,因为没有采用额外的机械部件,而且所使用诸如的CCD或CMOS的器件可以批量生产,从而增加了系统的可靠性、稳定性,同时降低了成本。
要理解的是,前面的一般描述和下面的详细描述两者都是示例性的,并且意图在于提供要求保护的技术的进一步说明。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是概述根据本公开实施例的三维测距方法和装置的应用场景的示意图;
图2是图示根据本公开一个实施例的三维测距方法的流程图;
图3是进一步图示根据本公开实施例的三维测距方法和装置的应用场景的示意图;
图4是图示根据本公开一个实施例的三维测距方法的发射光信号和成像信号的时序图;
图5是图示根据本公开一个实施例的三维测距方法的发射光信号和成像信号的时序图;
图6是图示根据本公开又一实施例的三维测距方法的流程图。
具体实施方式
为了使得本公开的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
首先,参照图1示意性地描述本公开的应用场景。图1是概述根据本公开实施例的三维测距方法和装置的应用场景的示意图。
如图1所示,根据本公开实施例的三维测距装置10对于待测场景104执行测距。在本公开的一个实施例中,所述三维测距装置10配置在自动驾驶系统中。所述三维测距装置10对车辆的行驶场景(例如,街道、高速路等)中的物体进行相对距离的测量,获取的场景距离信息将用于无人驾驶的定位、可行驶区域检测、车道标识线检测、障碍物检测、动态物体跟踪、障碍物分类识别等功能的实现。在本公开的另一实施例中,所述三维测距装置10配置在AR/VR影音游戏系统中。通过所述三维测距装置10对用户所处环境进行场景距离信息测量,从而精准定位用户在三维空间中的位置,增强用于在游戏中的真实体验感。在本公开的另一实施例中,所述三维测距装置10配置在智能机器人系统中。通过所述三维测距装置10对机器人所处工作环境进行场景距离信息测量,从而实现对所处工作环境的建模以及机器人的智能路径规划。
如图1示意性地示出,根据本公开实施例的三维测距装置10包括光源单元101、处理单元102和成像单元103。所述光源单元101例如可以受控发射光脉冲λ,以照射待测场景104。成像单元103在特定曝光时间内接收光脉冲λ在待测场景104中处于不同位置的物体1041、1042、1043上的反射或折射后的光信号,从而获得所述待测场景104的场景图像。
所述处理单元102控制所述光源单元101的发光以及所述成像单元103的成像,并且基于所述成像单元103获得的场景图像,确定所述待测场景104的场景距离信息。在本公开的实施例中,所述场景距离信息是每个像素对应于所述场景图像中相应部分的距离信息。也就是说,根据本公开的三维测距方法和装置实现了像素级的距离信息获取。此外,根据本公开的三维测距方法和装置同时获取所述场景2D图像和相应的所述场景距离信息。
如下将详细描述的,在本公开的实施例中,所述处理单元102可以控制所述光源单元101连续发射照明光,其中连续发射的照明光可以是普通激光,也可以是具有不同或相同偏振的偏振光。所述处理单元102还可以控制所述光源单元101同时发射不同波长和/或不同偏振的照明光。此外,所述处理单元102可以控制所述光源单元101发射具有非均匀的空间光场分布的照明光。相应地,所述处理单元102可以控制所述成像单元103对于连续发射的照明光进行所述待测场景104的成像。所述处理单元102还可以控制所述成像单元103对于同时发射不同波长和/或不同偏振的照明光进行所述待测场景104的成像。所述成像单元103例如可以由通用的CCD或CMOS成像传感器配置。
此外,如下将详细描述的,由于根据本公开实施例的三维测距方法和装置通过对所述待测场景104进行多次成像的方式来获取所述待测场景104的场景距离信息。整个所述成像过程无需控制所述光源单元101对所述待测场景104进行扫描操作。从而简化了操作过程,克服了现有技术中机械的缺陷。
此外,需要理解的是,所述光源单元101和所述成像单元103的具体参数将不构成对于本申请范围的限制,能够实现根据本公开实施例的三维测距方法的任何光源单元和成像单元的组合都包括在本公开的范围内。
以下,将参照附图2到图5进一步详细描述根据本公开实施例的三维测距方法。图2是图示根据本公开一个实施例的三维测距方法的流程图。图3是进一步图示根据本公开实施例的三维测距方法和装置的应用场景的示意图。图4和图5是图示根据本公开一个实施例的三维测距方法的发射光信号和成像信号的时序图。
如图2所示,根据本公开一个实施例的三维测距方法包括以下步骤。
在步骤S201中,发射第一光脉冲,照射待测场景,并且在第一曝光时间内获取第一场景图像。
在步骤S202中,发射第二光脉冲,照射所述待测场景,并且在第二曝光时间内获取第二场景图像。
在步骤S203中,基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
需要注意的是,图2所示的流程不考虑所述待测场景中背景光的理想情况。而在实际应用中,为了实现更加精确的测距,还需要考虑背景光对于测距用光脉冲成像过程的贡献,并且从获取的场景图像中移除背景光的影响。换句话说,在获取背景场景图像之后,步骤S203即可以表示为基于所述背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
在本公开的实施例中,在发射所述第一光脉冲之前、或者在发射所述第二光脉冲之后、或者在发射所述第一光脉冲和所述第二光脉冲之间,在背景曝光时间内获取所述待测场景的背景场景图像。对背景场景图像的获取可以在每次获取光脉冲照明下的场景图像之后执行,也可以在获取光脉冲照明下的场景图像之前执行。可替代地,对于连续多帧的场景测距,基于前一帧或多帧的背景场景图像,确定当前帧的背景场景图像。例如,可以基于以之前帧的背景场景图像变化量,预测当前帧的背景场景图像的变化可能性;或者可以当前光脉冲照明下的场景图像与之前光脉冲照明下的场景图像的变化量,预测当前帧背景场景图像的变化可能性,从而在场景图像的变化可能性大的情况下,重新执行一次背景场景图像的获取过程。相反地,在场景图像的变化可能性不大的情况下,可以使用之前一帧或多帧的背景场景图像作为当前帧的背景场景图像。
在本公开的实施例中,以上步骤S201和S202可以顺序执行或者可以同时执行。也就是说,可以顺序发射第一光脉冲和第二光脉冲,也可以同时发射第一光脉冲和第二光脉冲。
如图3所示,第一光脉冲λ1例如是光脉冲包络是不随时间变化的方波,而第二光脉冲λ2例如是光脉冲包络随时间调制的单调下降斜波。可替代地,第一光脉冲λ1还可以是光脉冲包络随时间调制的下降或上升斜波,而第二光脉冲λ2是与之不同的上升或下降斜波。也就是说,在根据本公开实施例的三维测距方法中,需要满足所述第一光脉冲λ1的第一脉冲包络和所述第二光脉冲λ2的第二脉冲包络的比为随时间变化的单调函数。这种所述第一光脉冲λ1的第一脉冲包络和所述第二光脉冲λ2的第二脉冲包络之间的单调函数关系将被记录,以用于所述处理单元102随后的场景距离信息确定。
第一光脉冲λ1与第二光脉冲λ2可以具有相同或不同的波长,以及相同或不同的偏振方向。所述成像单元103可以进一步包括带通滤波器和\或偏振器1031、镜头1032和图像传感器1033。例如,在顺序或同时发射第一光脉冲和第二光脉冲的情况下,通过带通滤波器和\或偏振器1031可以控制以允许特定波长或偏振方向的成像光通过,以实现对应于不同成像光脉冲以及背景光的场景成像。此外,图像传感器1033由CCD或CMOS图像传感器或焦平面阵列配置。
更具体地,为了实现根据本公开实施例的三维测距方法,需要控制所述第一光脉冲的第一发光开始时间和第一发光结束时间以及所述第一曝光时间的第一曝光开始时间和第一曝光结束时间、所述第二光脉冲的第二发光开始时间和第二发光结束时间以及所述第二曝光时间的第二曝光开始时间和第二曝光结束时间、以及所述第一光脉冲的第一脉冲包络和所述第二光脉冲的第二脉冲包络的包络比。在本公开的一个实施例中,所述第一曝光时间和所述第二曝光时间与第一光脉冲和第二光脉冲的发光时长处于相同数量级。更具体地,所述第一曝光时间和所述第二曝光时间分别是所述第一光脉冲和所述第二光脉冲的发光时长的1到5倍。
以下,参照附图4和图5进一步详细描述控制所述第一光脉冲的第一发光开始时间和第一发光结束时间以及所述第一曝光时间的第一曝光开始时间和第一曝光结束时间、所述第二光脉冲的第二发光开始时间和第二发光结束时间以及所述第二曝光时间的第二曝光开始时间和第二曝光结束时间、以及所述第一光脉冲的第一脉冲包络和所述第二光脉冲的第二脉冲包络的包络比执行测距的具体细节。
如图4所示,在t=0时刻发射第一光脉冲,第一光脉冲时长为Δ1,第一光脉冲的光脉冲包络为f1(t)。即,t=0是第一发光开始时间,Δ1是第一发光结束时间。待测场景中示意性地示出了两个物体,分别是处于相对远处的物体1和处于相对近处的物体2,并且假设物体表面反射率分别为R1和R2。对于物体1,从T1时刻开始,经由物体1反射的第一光脉冲开始返回。(T1+t11)是第一曝光开始时间(即图中的tb1),并且(T1+t12)是第一曝光结束时间。对于物体2,从T2时刻开始,经由物体2反射的第一光脉冲开始返回。(T2+t21)是第一曝光开始时间(即图中的tb1),并且(T2+t22)是第一曝光结束时间。第一曝光开始时间和第一曝光结束时间之差即为对于第一光脉冲的第一曝光时间τ1。此外,对于物体1,第一光脉冲的发射和反射进行的距离分别为r11和r12;对于物体2,第一光脉冲的发射和反射进行的距离分别为r21和r22。
同样地,在t=0时刻发射第二光脉冲,第二光脉冲时长为Δ2,第二光脉冲的光脉冲包络为f2(t)。即,t=0是第二发光开始时间,Δ2是第一发光结束时间。需要理解的是,将第一光脉冲和第二光脉冲示出为都在t=0时刻发射仅仅是示意性地,而实际上第一光脉冲和第二光脉冲可以同时发射或者不同时顺序发射。对于物体1,从T3时刻开始,经由物体1反射的第二光脉冲开始返回。(T3+t31)是第一曝光开始时间(即图中的tb2),并且(T3+t32)是第二曝光结束时间。对于物体2,从T4时刻开始,经由物体2反射的第二光脉冲开始返回。(T4+t41)是第二曝光开始时间(即图中的tb2),并且(T4+t42)是第二曝光结束时间。第二曝光开始时间和第二曝光结束时间之差即为对于第二光脉冲的第二曝光时间τ2,第二光脉冲的第二曝光时间τ2可以等于第一光脉冲的第一曝光时间τ1。此外,对于物体1,第二光脉冲的发射和反射进行的距离分别为r11和r12;对于物体2,第二光脉冲的发射和反射进行的距离分别为r21和r22。
如此,第一光脉冲对于物体1上的像素1和物体2上的像素2的曝光量1和2可以表示为:
第二光脉冲对于物体1上的像素1和物体2上的像素2的曝光量3和4可以表示为:
其中C1和C2分别是常数,与像素1和2代表空间相关,与时间无关。容易理解的是,对于像素1和像素2成像获得的图像输出值与各自的曝光量成正比。
在本公开的一个实施例中,控制所述第一曝光时间满足第一预定时长,使得经由所述待测场景中每个点反射的所述第一光脉冲的至少一部分能在所述第一曝光时间用于获取所述第一场景图像,并且控制所述第二曝光时间满足第二预定时长,使得经由所述待测场景中每个点反射的所述第二光脉冲的至少一部分能在所述第二曝光时间用于获取所述第二场景图像。也就是说,如图4所示,控制第一曝光开始时tb1、第二曝光开始时tb2、第一曝光时间τ1、第二曝光时间τ2、第一光脉冲时长Δ1和第二光脉冲时长Δ2,选择对于像素1和像素2的返回脉冲重叠的区域τ1和τ2执行曝光。
对于一个像素1或2来说,在不考虑背景光曝光的理想情况下,通过第一光脉冲和第二光脉冲两次曝光的曝光量比g表示为:
如果考虑背景光曝光的情况下,则通过第一光脉冲和第二光脉冲两次曝光的曝光量比g表示为:
T1到T4都与距离D相关,t11、t12、t31、t32、t21、t22、t41、t42、τ1和τ2为可控参数,那么仅需要控制f1(t)/f2(t)满足为单调变化函数,则g(D)成为距离的D的单调函数。因此,对于特定像素,通过测量该像素的两次曝光量,就可以通过两次曝光量的比值确定该像素的距离信息D。
图5示出了控制所述第一光脉冲的第一发光开始时间和第一发光结束时间以及所述第一曝光时间的第一曝光开始时间和第一曝光结束时间、所述第二光脉冲的第二发光开始时间和第二发光结束时间以及所述第二曝光时间的第二曝光开始时间和第二曝光结束时间、以及所述第一光脉冲的第一脉冲包络和所述第二光脉冲的第二脉冲包络的包络比的另一示例。
具体地,对于第一光脉冲,控制第一曝光开始时tb1、第一曝光时间τ1、第一光脉冲时长Δ1,选择对于像素1和像素2的返回脉冲重叠的区域τ1执行曝光。对于第二光脉冲,不同于图4所示的情况,控制第二曝光开始时tb2、第二曝光时间τ2、第二光脉冲时长Δ2,使得对于最远距离点的反射脉冲的尾部在第二曝光时间结束前到达,并且最早到达的反射脉冲的尾部和第二曝光开始时间同时。也就是说,控制所述第一曝光时间设置,使得在所述第一曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第一曝光时间期间内的任意时刻都不为零;并且控制所述第二曝光时间设置,使得在所述第二曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第二曝光开始时间到曝光结束前特定时刻之间的任意时刻都不为零,并且在所述特定时刻之后都是零。如此,同样使得满足通过第一光脉冲和第二光脉冲两次曝光的曝光量比g成为距离的D的单调函数。因此,对于特定像素,通过测量该像素的两次曝光量,就可以通过两次曝光量的比值确定该像素的距离信息D。
图6是图示根据本公开又一实施例的三维测距方法的流程图。不同于图2到图5描述的发射第一光脉冲和第二光脉冲两次曝光的情况,根据本公开又一实施例的三维测距方法可以包括多于两次曝光的情况。
如图6所示,根据本公开又一实施例的三维测距方法包括以下步骤。
在步骤S601中,发射第一光脉冲,照射待测场景,并且在第一曝光时间内获取第一场景图像。
在步骤S602中,发射第二光脉冲,照射所述待测场景,并且在第二曝光时间内获取第二场景图像。
在步骤S603中,发射多个第三光脉冲,照射所述待测场景,并且在多个相应的第三曝光时间内获取多个第三场景图像。
在步骤S604中,基于所述第一场景图像、所述第二场景图像以及所述多个第三场景图像,获取所述待测场景的场景距离信息。
所述第一光脉冲具有第一波长,所述第二光脉冲具有第二波长,所述多个第三光脉冲具有多个第三波长,并且所述第一波长、所述第二波长以及所述多个第三波长可以相互不同。
以上,参照附图描述了根据本公开实施例的三维测距方法和装置,其使用标准的CCD或CMOS图像传感器,通过可控的激光照明和传感器曝光成像,在无需扫描和窄视场限制的情况下,实现了精确和实时的深度信息获取。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
另外,如在此使用的,在以“至少一个”开始的项的列举中使用的“或”指示分离的列举,以便例如“A、B或C的至少一个”的列举意味着A或B或C,或AB或AC或BC,或ABC(即A和B和C)。此外,措辞“示例的”不意味着描述的例子是优选的或者比其他例子更好。
还需要指出的是,在本公开的系统和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (14)
1.一种三维测距方法,包括:
发射第一光脉冲,照射待测场景,并且在第一曝光时间内获取第一场景图像;
发射第二光脉冲,照射所述待测场景,并且在第二曝光时间内获取第二场景图像;
基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息,
其中,所述第一光脉冲的第一脉冲包络和所述第二光脉冲的第二脉冲包络的比为随时间变化的单调函数。
2.一种三维测距方法,包括:
发射第一光脉冲,照射待测场景,并且在第一曝光时间内获取第一场景图像,并且记录所述第一光脉冲的第一发光开始时间和第一发光结束时间以及所述第一曝光时间的第一曝光开始时间和第一曝光结束时间;
发射第二光脉冲,照射所述待测场景,并且在第二曝光时间内获取第二场景图像,并且记录所述第二光脉冲的第二发光开始时间和第二发光结束时间以及所述第二曝光时间的第二曝光开始时间和第二曝光结束时间;
基于所述第一场景图像和所述第二场景图像、所述第一发光开始时间、第一发光结束时间、所述第一曝光开始时间和第一曝光结束时间、以及所述第二发光开始时间、第二发光结束时间、所述第二曝光开始时间和第二曝光结束时间,获取所述待测场景的场景距离信息,
其中,所述第一曝光时间和所述第二曝光时间与第一光脉冲和第二光脉冲的发光时长处于相同数量级。
3.如权利要求1或2所述的三维测距方法,其中,控制所述第一曝光时间设置,使得在所述第一曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第一曝光时间期间内的任意时刻都不为零;并且
控制所述第二曝光时间设置,使得在所述第二曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第二曝光时间期间内特定时刻之间的任意时刻都不为零,并且在所述特定时刻之后都是零。
4.如权利要求1到3的任一项所述的三维测距方法,还包括:
在发射所述第一光脉冲之前、或者在发射所述第二光脉冲之后、或者在发射所述第一光脉冲和所述第二光脉冲之间,在背景曝光时间内获取所述待测场景的背景场景图像,
其中,基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息包括:
基于所述背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
5.如权利要求1到3的任一项所述的三维测距方法,其中,基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息包括:
基于前一帧或多帧的背景场景图像,确定当前帧的背景场景图像,
基于所述当前帧的背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
6.如权利要求5所述的三维测距方法,其中,控制所述第一光脉冲和所述第二光脉冲顺序发射,并且控制所述第一曝光时间满足第一预定时长,使得经由所述待测场景中每个点反射的所述第一光脉冲的至少一部分能在所述第一曝光时间用于获取所述第一场景图像,并且控制所述第二曝光时间满足第二预定时长,使得经由所述待测场景中每个点反射的所述第二光脉冲的至少一部分能在所述第二曝光时间用于获取所述第二场景图像。
7.如权利要求1所述的三维测距方法,还包括:
发射多个第三光脉冲,照射所述待测场景,并且在多个相应的第三曝光时间内获取多个第三场景图像;
其中,基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息包括:
基于所述第一场景图像、所述第二场景图像以及所述多个第三场景图像,获取所述待测场景的场景距离信息,并且
其中,所述第一光脉冲具有第一波长,所述第二光脉冲具有第二波长,所述多个第三光脉冲具有多个第三波长,并且所述第一波长、所述第二波长以及所述多个第三波长相互不同。
8.一种三维测距装置,包括:
光源单元,配置为发射第一光脉冲和第二光脉冲,照射待测场景;
成像单元,配置为在第一曝光时间内获取第一场景图像,并且在第二曝光时间内获取第二场景图像;
处理单元,配置为基于所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息,
其中,所述第一光脉冲的第一脉冲包络和所述第二光脉冲的第二脉冲包络的比为随时间变化的单调函数。
9.一种三维测距装置,包括:
光源单元,配置为发射第一光脉冲和第二光脉冲,照射待测场景,并且记录所述第一光脉冲的第一发光开始时间和第一发光结束时间、以及并且所述第二光脉冲的第二发光开始时间和第二发光结束时间;
成像单元,配置为在第一曝光时间内获取第一场景图像,并且在第二曝光时间内获取第二场景图像,并且记录所述第一曝光时间的第一曝光开始时间和第一曝光结束时间、以及所述第二曝光时间的第二曝光开始时间和第二曝光结束时间;
处理单元,配置为基于所述第一场景图像和所述第二场景图像、所述第一发光开始时间、第一发光结束时间、所述第一曝光开始时间和第一曝光结束时间、以及所述第二发光开始时间、第二发光结束时间、所述第二曝光开始时间和第二曝光结束时间,获取所述待测场景的场景距离信息,
其中,所述第一曝光时间和所述第二曝光时间与第一光脉冲和第二光脉冲的发光时长处于相同数量级。
10.如权利要求8或9所述的三维测距装置,其中,所述成像单元控制所述第一曝光时间设置,使得在所述第一曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第一曝光时间期间内的任意时刻都不为零;并且
控制所述第二曝光时间设置,使得在所述第二曝光时间期间所有因待测场景内物体而返回的光脉冲在所述第二曝光时间期间内特定时刻之间的任意时刻都不为零,并且在所述特定时刻之后都是零。
11.如权利要求8到10的任一项所述的三维测距装置,其中所述成像单元在发射所述第一光脉冲之前、或者在发射所述第二光脉冲之后、或者在发射所述第一光脉冲和所述第二光脉冲之间,在背景曝光时间内获取所述待测场景的背景场景图像,
其中,所述处理单元基于所述背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
12.如权利要求8到10的任一项所述的三维测距装置,其中,所述处理单元基于前一帧或多帧的背景场景图像,确定当前帧的背景场景图像,
基于所述当前帧的背景场景图像、所述第一场景图像和所述第二场景图像,获取所述待测场景的场景距离信息。
13.如权利要求11所述的三维测距装置,其中,所述光源单元顺序发射所述第一光脉冲和所述第二光脉冲,并且所述成像单元控制所述第一曝光时间满足第一预定时长,使得经由所述待测场景中每个点反射的所述第一光脉冲的至少一部分能在所述第一曝光时间用于获取所述第一场景图像,并且所述成像单元控制所述第二曝光时间满足第二预定时长,使得经由所述待测场景中每个点反射的所述第二光脉冲的至少一部分能在所述第二曝光时间用于获取所述第二场景图像。
14.如权利要求8所述的三维测距装置,其中,
所述光源单元发射多个第三光脉冲,照射所述待测场景,并且所述成像单元在多个相应的第三曝光时间内获取多个第三场景图像;
其中,所述处理单元基于所述第一场景图像、所述第二场景图像以及所述多个第三场景图像,获取所述待测场景的场景距离信息,并且
其中,所述第一光脉冲具有第一波长,所述第二光脉冲具有第二波长,所述多个第三光脉冲具有多个第三波长,并且所述第一波长、所述第二波长以及所述多个第三波长相互不同。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620060.6A CN112213730B (zh) | 2019-07-10 | 2019-07-10 | 三维测距方法和装置 |
US16/926,171 US11470261B2 (en) | 2019-07-10 | 2020-07-10 | Three-dimensional distance measuring method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620060.6A CN112213730B (zh) | 2019-07-10 | 2019-07-10 | 三维测距方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112213730A CN112213730A (zh) | 2021-01-12 |
CN112213730B true CN112213730B (zh) | 2024-05-07 |
Family
ID=74048080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910620060.6A Active CN112213730B (zh) | 2019-07-10 | 2019-07-10 | 三维测距方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11470261B2 (zh) |
CN (1) | CN112213730B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114935742B (zh) * | 2022-04-18 | 2023-08-22 | 深圳阜时科技有限公司 | 发射模组、光电检测装置及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1700038A (zh) * | 2005-03-25 | 2005-11-23 | 浙江大学 | 无扫描器脉冲调制式三维成像方法及系统 |
CN2773729Y (zh) * | 2005-03-25 | 2006-04-19 | 浙江大学 | 无扫描器脉冲调制式三维成像系统 |
CN102736085A (zh) * | 2012-06-21 | 2012-10-17 | 中国科学院半导体研究所 | 图像寻的激光成像测距方法及装置 |
CN108885264A (zh) * | 2015-12-18 | 2018-11-23 | 杰拉德·迪尔克·施密茨 | 对象的实时位置感测 |
CN109765565A (zh) * | 2017-11-10 | 2019-05-17 | 英飞凌科技股份有限公司 | 用于处理飞行时间相机的原始图像的方法和图像处理设备 |
CN109997057A (zh) * | 2016-09-20 | 2019-07-09 | 创新科技有限公司 | 激光雷达系统和方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5157451A (en) | 1991-04-01 | 1992-10-20 | John Taboada | Laser imaging and ranging system using two cameras |
US8471895B2 (en) * | 2008-11-25 | 2013-06-25 | Paul S. Banks | Systems and methods of high resolution three-dimensional imaging |
DE102013225676B4 (de) | 2012-12-17 | 2018-06-07 | pmdtechnologies ag | Lichtlaufzeitkamera mit einer Bewegungserkennung |
FR3005746B1 (fr) | 2013-05-14 | 2016-09-16 | Cie Ind Des Lasers - Cilas | Dispositif d'illumination laser a obturateur integre. |
EP2955544B1 (en) * | 2014-06-11 | 2020-06-17 | Sony Depthsensing Solutions N.V. | A TOF camera system and a method for measuring a distance with the system |
US10917626B2 (en) * | 2016-11-23 | 2021-02-09 | Microsoft Technology Licensing, Llc | Active illumination 3D imaging system |
US10732281B2 (en) * | 2017-03-28 | 2020-08-04 | Luminar Technologies, Inc. | Lidar detector system having range walk compensation |
US11212512B2 (en) * | 2017-12-28 | 2021-12-28 | Nlight, Inc. | System and method of imaging using multiple illumination pulses |
US10440294B1 (en) * | 2018-09-05 | 2019-10-08 | Google Llc | Compact color and depth imaging system |
-
2019
- 2019-07-10 CN CN201910620060.6A patent/CN112213730B/zh active Active
-
2020
- 2020-07-10 US US16/926,171 patent/US11470261B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1700038A (zh) * | 2005-03-25 | 2005-11-23 | 浙江大学 | 无扫描器脉冲调制式三维成像方法及系统 |
CN2773729Y (zh) * | 2005-03-25 | 2006-04-19 | 浙江大学 | 无扫描器脉冲调制式三维成像系统 |
CN102736085A (zh) * | 2012-06-21 | 2012-10-17 | 中国科学院半导体研究所 | 图像寻的激光成像测距方法及装置 |
CN108885264A (zh) * | 2015-12-18 | 2018-11-23 | 杰拉德·迪尔克·施密茨 | 对象的实时位置感测 |
CN109997057A (zh) * | 2016-09-20 | 2019-07-09 | 创新科技有限公司 | 激光雷达系统和方法 |
CN109765565A (zh) * | 2017-11-10 | 2019-05-17 | 英飞凌科技股份有限公司 | 用于处理飞行时间相机的原始图像的方法和图像处理设备 |
Non-Patent Citations (1)
Title |
---|
低慢小目标面阵推进式激光成像探测方法研究;李达;李云霞;蒙文;韩晓飞;;激光技术(第01期);第44-48页 * |
Also Published As
Publication number | Publication date |
---|---|
US20210014401A1 (en) | 2021-01-14 |
US11470261B2 (en) | 2022-10-11 |
CN112213730A (zh) | 2021-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240146895A1 (en) | Time-of-flight camera system | |
JP7189156B2 (ja) | 色によるパノラマlidar結果の増強 | |
KR102486385B1 (ko) | 깊이 정보 획득 장치 및 방법 | |
US20170123067A1 (en) | Tof camera system and a method for measuring a distance with the system | |
US10713810B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and storage medium | |
US11650299B2 (en) | Calibration method for solid-state LiDAR system | |
JP2002131016A (ja) | 距離測定装置、及び距離測定方法 | |
KR20140137513A (ko) | 3차원 영상 획득 장치 및 그 구동 방법 | |
KR101802894B1 (ko) | Tof 및 구조광 방식이 융합된 3차원 영상 획득 시스템 | |
CN112213730B (zh) | 三维测距方法和装置 | |
JP2006258465A (ja) | 3次元画像情報取得システム | |
WO2021136284A1 (zh) | 三维测距方法和装置 | |
CN112666540A (zh) | 光学试验用装置和光学测定器具的试验方法 | |
JP2023001122A (ja) | 撮像装置 | |
KR101866764B1 (ko) | 통합픽셀로 구성된 거리영상센서 | |
JP3973979B2 (ja) | 三次元形状計測装置 | |
JP2017133931A (ja) | 画像生成装置、ならびに距離画像およびカラー画像の生成方法 | |
JP2009186216A (ja) | 3次元形状測定装置 | |
Wang et al. | An LED-array-based range imaging system used for enhancing three-dimensional imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |