CN106657969A - 用于获得图像的装置和方法 - Google Patents
用于获得图像的装置和方法 Download PDFInfo
- Publication number
- CN106657969A CN106657969A CN201610796927.XA CN201610796927A CN106657969A CN 106657969 A CN106657969 A CN 106657969A CN 201610796927 A CN201610796927 A CN 201610796927A CN 106657969 A CN106657969 A CN 106657969A
- Authority
- CN
- China
- Prior art keywords
- light
- area
- period
- depth image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
Abstract
提供一种用于获得深度图像的装置和方法。该装置可以包括:光源,被配置为在第一时段向物体的第一区域发射第一光,并在第二时段向该物体的第二区域发射第二光,第一光和第二光分别从第一区域和第二区域反射;以及图像获得器,被配置为基于反射的第一光获得第一部分深度图像,基于反射的第二光获得第二部分深度图像,并基于第一部分深度图像和第二部分深度图像获得该物体的第一深度图像。
Description
对相关申请的交叉引用
本申请要求于2015年10月29日向韩国特许厅提交的韩国专利申请No.10-2015-0151103的权益,通过引用将其公开的内容整体合并于此。
技术领域
符合示范性实施例的装置和方法涉及获得深度图像。
背景技术
为了获得对象的深度图像,可以使用飞行时间(ToF)方法来测量光(例如,红外光)传播从观察点到对象的距离所花的时间。使用这样的ToF方法的ToF深度相机可以实时地在全部像素中获得对象的深度信息,不同于用于获得对象的深度图像的其他相机,诸如立体相机或结构光相机。
在ToF方法中,可以通过使用向对象发射的光与从对象反射的光之间的相位差获得深度图像。
发明内容
一个或多个示范性实施例提供获得具有减少的运动模糊的深度图像的装置和方法。
另外,一个或多个示范性实施例提供可以提高深度图像的帧率的获得图像的装置和方法。
根据一个示范性实施例的一个方面,提供一种用于获得深度图像的装置,包括:光源,被配置为在第一时段向物体的第一区域发射第一光,并在第二时段向该物体的第二区域发射第二光,第一光和第二光分别从第一区域和第二区域反射;以及图像获得器,被配置为基于反射的第一光获得第一部分深度图像,基于反射的第二光获得第二部分深度图像,并基于第一部分深度图像和第二部分深度图像获得该物体的第一深度图像。
第一时段和第二时段的至少一部分可以彼此不交迭。
第二时段可以在第一时段之后。
第一时段可以小于该图像获得器中包括的图像传感器的参考帧率的倒数。
第一时段可以小于或等于通过将第一区域与该物体的比率乘以所述参考帧率的倒数获得的值。
向第一区域发射的第一光的量可以大于参考光量。
向第一区域发射的第一光的量可以大于或等于通过将该物体与第一区域的比率乘以所述参考光量获得的值。
第一区域和第二区域的至少一部分可以彼此不交迭。
第一区域可以是该物体的上部区域,而第二区域可以是该物体的下部区域。
从该光源发射的第一光可以包括具有不同的相位的多条光。
所述多条光当中的相邻两条光之间的相位差可以为90°。
可以从具有不同的相位的多个部分图像获得第一部分深度图像。
该光源可以进一步被配置为在第三时段向该物体的第一区域发射第三光,第三光从第一区域反射,而且该图像获得器可以进一步被配置为基于反射的第三光获得第一区域的第三部分深度图像,并可以基于第二部分深度图像和第三部分深度图像获得该物体的第二深度图像。
第二时段和第三时段的至少一部分可以彼此不交迭。
第三时段可以在第二时段之后。
在第二时段与第三时段之间可以存在时间间隔。
该图像获得器可以包括:图像传感器,被配置为基于从第一区域反射的第一光获得多个第一部分图像,并基于从第二区域反射的第二光获得多个第二部分图像;以及处理器,被配置为从多个第一部分图像获得第一部分深度图像,从多个第二部分图像获得第二部分深度图像,并基于第一部分深度图像和第二部分深度图像获得该物体的第一深度图像
该图像传感器可以进一步被配置为将多条反射的第一光调制为具有不同的增益波形的信号。
根据另一示范性实施例的一个方面,提供一种获得深度图像的方法,包括:在第一时段向物体的第一区域发射第一光,第一光从第一区域反射;在第二时段向该物体的第二区域发射第二光,第二光从第二区域反射;基于反射的第一光获得第一部分深度图像;基于反射的第二光获得第二部分深度图像;以及基于第一部分深度图像和第二部分深度图像获得该物体的第一深度图像。
第一时段和第二时段的至少一部分可以彼此不交迭。
第二时段可以在第一时段之后。
第一时段可以小于被配置为接收反射的第一光和反射的第二光的图像传感器的参考帧率的倒数。
第一时段可以小于或等于通过将第一区域与该物体的比率乘以所述参考帧率的倒数获得的值。
向第一区域发射的第一光的量可以大于参考光量。
向第一区域发射的第一光的量可以大于或等于通过将该物体与第一区域的比率乘以所述参考光量获得的值。
第一区域和第二区域的至少一部分可以彼此不交迭。
第一区域可以是该物体的上部区域,而第二区域可以是该物体的下部区域。
所述发射第一光可以包括向第一区域发射多条第一光,而且所述多条第一光可以具有彼此不同的相位。
所述多条光当中的相邻两条光之间的相位差可以为90°。
该方法可以进一步包括:在第三时段向该物体的第一区域发射第三光,第三光从第一区域反射;基于反射的第三光获得第三部分深度图像;以及基于第二部分深度图像和第三部分深度图像获得该物体的第二深度图像。
第二时段和第三时段的至少一部分可以彼此不交迭。
第三时段可以是第二时段随后的时间间隔。
在第二时段与第三时段之间可以存在时间间隔。
根据另一示范性实施例的一个方面,提供一种通过深度图像传感器获得图像的方法,该方法包括:以预定的时段向物体的多个区域中的每个区域交替地发射光,所述光从所述多个区域中的每个区域反射;当每个预定时段结束时基于反射的光重复地获得部分深度图像;以及基于在所述预定时段发生k次以收集从该物体的全部多个区域反射的光的同时获得的部分深度图像,产生该物体的深度图像,k对应于该物体的所述多个区域的数量。
附图说明
通过参照附图描述特定示范性实施例,以上和/或其他方面将变得更加明显,其中:
图1是根据示范性实施例的用于获得图像的装置的框图;
图2是根据示范性实施例的获得深度图像的方法的流程图;
图3是根据示范性实施例的获得多个深度图像的方法的流程图;
图4是用于说明根据示范性实施例的获得深度图像的方法的参考图;
图5是用于说明作为比较示例的在图像传感器获得整个物体的图像之后获得深度图像的方法的参考图;
图6A示出通过使用图5的方法获得的深度图像;
图6B示出通过使用图4的方法获得的深度图像;
图7是用于说明根据另一示范性实施例的获得深度图像的方法的参考图;以及
图8A和图8B是用于说明根据另一示范性实施例的当占空比为50%时获得深度图像的方法的参考图。
具体实施方式
下面参照附图详细描述示范性实施例。
以下说明书中,类似的附图参考数字用于类似的元件,即便在不同的图中。诸如详细构造和元件的在说明书中定义的事项被提供用于帮助全面理解示范性实施例。然而,显然无需这些具体限定的事项也可以实践示范性实施例。而且,不详细描述公知功能或构造,因为它们将以不必要的细节模糊说明书。
在这里使用时,术语“和/或”包括一个或多个相关所列项目的任何和全部组合。诸如“…中的至少一个”的表达当在元素的列表之后时修饰元素的整个列表而不修饰列表的单个元素。
图1是根据示范性实施例的用于获得图像的装置(例如,相机)100的框图。参照图1,装置100可以包括:光源110,被配置为向物体10发射光;图像获得器120,被配置为通过使用从物体10反射的光获得物体10的深度图像;以及控制器130,被配置为控制光源110和图像获得器120的操作。
而且,装置100可以进一步包括:第一镜头140,被配置为收集反射的光以获得图像;以及滤镜150,被配置为选择性地透射具有预定波长的光并去除背景光或杂光。
光源110例如可以是发光二极管(LED)或激光二极管(LD),其可以发射人眼不可见的具有大约850nm的近红外(NIR)波长的光。然而,光源110的波长频带和类型不受限制。
物体10可以具有多个区域,而且光源110可以按时间间隔向划分的区域依次发射光。例如,光源110可以在第一时段向物体10的第一区域11发射光,而且可以在第二时段向物体10的第二区域12发射光。第一区域11和第二区域12的至少部分可以彼此不交迭。第一区域11可以是物体10的上部区域,而第二区域12可以是物体10的下部区域。而且,第一时段和第二时段的至少部分可以彼此不交迭。例如,第二时段可以是第一时段随后的时间间隔。
替代地,第一光源110可以包括:第一光源112,被配置为向物体10的第一区域11发射光;以及第二光源114,被配置为向物体10的第二区域12发射光。因而,可以根据控制器130的控制信号开启或关闭第一和第二光源112和114以交替地发射光。例如,可以在第一时段开启第一光源112以发射光,而且可以在第二时段开启第二光源114以发射光。可以在第二时段关闭第一光源112,而且可以在第一时段关闭第二光源114。
光源110例如可以执行幅度调制或相位调制,而且可以根据控制器130的控制信号输出结果光。根据控制器130的控制信号从光源110向物体10施加的发光信号可以是具有预定周期的周期性连续函数。例如,所述发光信号可以具有诸如正弦波形、锯齿(ramp)波形、或方波形的具体定义的波形,或者可以具有未定义的一般波形。
图像获得器120可以包括:图像传感器122,被配置为接收从物体10反射的光并获得图像;以及处理器124,被配置为从该图像获得包括物体10的深度信息的深度图像。
图像传感器122根据从控制器130接收的控制信号调制从物体10反射的光。例如,图像传感器122可以通过根据从控制130施加的具有预定波形的光调制信号改变增益来调制反射的光的幅度。为此,图像传感器122可以具有可变增益。
图像传感器122可以以几十到几百MHz的高光调制速度操作以便检测根据距离的光的传播时间或相位差。图像传感器122的示例可以包括:包含多通道板(MCP)的相位图像增强器、基于GaAs的固态调制器元件、以及使用电光材料的薄膜调制器元件。
图像传感器122可以从检测的反射光获得图像。如果仅要测量到物体10的一个点的距离,则图像传感器122例如可以包括单个光传感器,诸如光电二极管或积分器。然而,如果要同时测量到物体10的多个点的距离,则图像传感器122可以包括光电二极管或光探测器的二维(2D)或一维(1D)阵列。例如,图像传感器122可以是包括2D阵列的电荷耦合器件(CCD)图像传感器或接触式图像传感器(CIS)。
图像传感器122可以根据控制器130的控制信号将像素划分为多个区域的像素。图像传感器122的划分的区域可以对应于光源110的划分的区域。例如,当光源110将物体10划分为上部区域和下部区域时,控制器130可以将图像传感器122的像素划分为上部区域的像素和下部区域的像素。
控制器130可以将光源110与图像传感器122同步。具体地,控制器130可以控制图像传感器122以使得与第一区域11对应的图像传感器122的区域在光源110向第一区域11发射光时操作。控制器130可以控制图像传感器122以使得与第二区域12对应的图像传感器122的区域在光源110向第二区域12发射光时操作。
例如,当光源110向物体10的上部区域发射光时,图像传感器122的上部区域可以接收从物体的上部区域反射的光。当光源110向物体10的下部区域发射光时,图像传感器122的下部区域可以接收从物体的下部区域反射的光。
处理器124可以基于图像传感器122的输出获得深度图像。处理器124可以基于与物体10的第一区域11对应的图像传感器122的输出获得第一部分深度图像,而且可以基于与物体10的第二区域12对应的图像传感器122的输出获得第二部分深度图像。处理器124可以通过使用第一部分深度图像和第二部分深度图像产生深度图像(例如,深度图)。可以通过基于图像传感器122的坐标信息组合第一和第二部分深度图像获得深度图像。深度图像可以包括关于从光源110到物体10的表面的距离的信息。
处理器124例如可以是专用集成电路(IC)或装置100中提供的软件。当处理器124是软件时,可以在附加的可移动存储介质中存储处理器124。
图2是根据示范性实施例的获得深度图像的方法的流程图。参照图2,在操作S210,光源110可以在第一时段向物体10的第一区域11发射光。当光源110包括第一和第二光源112和114时,第一光源112可以向物体10的第一区域11发射光。然而,本示范性实施例不限于此。光源110可以通过调整照射角度向物体10的第一区域11发射光。第一区域11可以是物体10的区域,而且例如可以是物体10的上部区域。
首先,光源110可以在控制器130的控制下向物体10的第一区域11依次发射具有预定时段和预定波形的多条光。具有预定时段和预定波形的多条光可以彼此不同。光源110可以连续地依次发射多条光,或者可以按预定间隔依次发射多条光。
例如,当使用四条不同的光时,光源110可以在第一时间t1产生第一光并向物体10的第一区域11发射第一光,可以在第二时间t2产生第二光并向物体10的第一区域11发射第二光,可以在第三时间t3产生第三光并向物体10的第一区域11发射第三光,而且可以在第四时间t4产生第四光并向物体10的第一区域11发射第四光。可以向物体10的第一区域11依次发射第一至第四光。第一至第四光中的每一个可以为具有特定周期的连续函数,诸如正弦波形或脉冲波形。例如,第一至第四光可以是具有相同的周期、相同的波形、和不同的相位的周期性波。
当使用多条光(例如,n条光)时,相邻的光之间的相位差可以为360°/n,而且每个光的周期可以小于光源110的工作时间。可以在光源110的工作时间内向物体10的第一区域11依次发射全部n条光。
由于光源110向物体10的一个区域发射光,发射的光的量可以大于参考光量。参考光量可以指整个图像传感器122可以用以产生一帧图像的平均最小光量。由于光源110向物体10的一个区域发射光而且不向物体10的其余区域发射,光的量大于参考光量,因而物体10的平均光量可以是参考光量。例如,当光源110向1/N(N是等于或大于2的自然数)区域发射光时,光源110可以发射具有比参考光量大N倍的量的光。替代地,当光源110间断地发射光时,光源110可以发射具有参考光量的N倍或更多的量的光。
而且,第一时段可以小于图像传感器122的参考帧率的倒数。参考帧率的倒数是指图像传感器122用于产生一帧图像所花的时间。由于光源110向物体10的一个区域发射光而且图像传感器124接收从物体10的该区域反射的光,第一时段小于参考帧率的倒数。例如,当光源110向物体10的1/N(N是等于或大于2的自然数)区域发射光时,光源110可以以通过将1/N乘以参考帧率的倒数获得的时间发射光,而且图像传感器124可以以通过将1/N乘以参考帧率的倒数获得的时间接收光。替代地,当向物体10的第一区域11间断地发射光时,可以以比通过将1/N乘以参考帧率的倒数获得的时间短的时间向物体10的第一区域11发射光。
而且,在操作S220,光源110可以在第二时段向物体10的第二区域12发射光。当光源110包括第一和第二光源112和114时,第二光源114可以向物体10的第二区域12发射光。然而,本示范性实施例不限于此。光源110可以通过改变照射角度向物体10的第二区域12发射光。光源110可以调整照射角度以使得发射的光交替地朝向第一区域11和第二区域12传播。第二区域12可以是物体10的区域,而且第二区域12的尺寸可以等于第一区域11的尺寸。而且,第二区域12和第一区域11的至少一部分可以彼此不交迭。例如,第二区域12可以是下部区域。
光源110可以在控制器130的控制下向物体10的第二区域12依次发射具有预定时段和预定波形的多条光。具有预定时段和预定波形的多条光可以彼此不同。光源110可以连续地依次发射多条光,或者可以按预定间隔依次发射多条光。
第二时段和第一时段的至少一部分可以彼此不交迭。例如,第二时段可以是第一时段随后的时间间隔。然而,本示范性实施例不限于此。第一时段和第二时段的长度可以相同。例如,由于光源110向作为物体10的区域的第二区域12发射光,发射的光的量可以大于参考光量。第二时段可以小于图像传感器122的参考帧率的倒数。光源110执行的用以向物体10的第二区域12发射光的方法与光源110执行的用以向物体10的第一区域11发射光的方法相同,因而将不给出其详细说明。
在操作S230,图像获得器120可以通过使用从第一区域11反射的光获得第一部分深度图像。向物体10的第一区域11发射的光从物体10的表面反射到镜头140。通常,物体10的第一区域11可以具有多个表面,它们离装置100的距离(即,深度)彼此不同。例如,第一光可以从物体10的第一区域11的一表面反射以产生第一反射光,第二光可以从第一区域11的一表面反射以产生第二反射光,类似地,第n光可以从物体10的第一区域11的一表面反射以产生第n反射光。
镜头140将反射光聚焦在图像传感器122的区域内。滤镜150可以置于镜头140与图像传感器122之间,而且可以穿过预定波长区域内的光(即,感兴趣的波长区域内的光)并且滤除预定波长区域之外的光(例如,诸如背景光的外部光)。例如,当光源110发射具有大约850nm的NIR波长的光时,滤镜150可以是穿过处于大约850nm的NIR波长频带的光的红外(IR)带通滤镜。因此,入射到图像传感器122上的光主要包括从光源110发射并且从物体10的第一区域11反射的光,而且还包括外部光。虽然图1中滤镜150位于镜头140与图像传感器122之间,但是镜头140和滤镜150的位置可以互换。例如,可以通过镜头140将已经穿过滤镜150的NIR光聚焦在图像传感器122上。
接下来,图像传感器122将反射光调制为具有预定波形的光调制信号。图像传感器122的增益波形的周期可以与光的波形的周期相同。图1中,图像传感器122可以调制从物体10的第一区域11的表面反射的第一反射光,然后可以依次调制第二反射光至第n反射光。可以利用通过将反射光乘以光调制信号获得的量来调制每个反射光的幅度。光调制信号的周期与反射光的周期相同。
图像传感器122可以通过接收具有以预定时段调制的幅度的光来获得每个反射光的图像。例如,图像传感器122通过接收从第一区域11的表面反射然后以预定曝光时间调制的第一反射光来获得第一部分图像。图像传感器122获得的图像是物体10的一个区域的图像,因而被称为部分图像。接下来,图像传感器122通过接收从第一区域11的表面反射然后以预定曝光时间调制的第二反射光来获得第二部分图像。通过反复执行以上过程,图像传感器122通过接收从第一区域11的表面反射然后以预定曝光时间调制的第n反射光来获得第n部分图像。图像传感器122可以以该方式依次获得n个不同的部分图像。第一至第n部分图像可以是用于形成具有深度信息的图像的子帧图像。n个不同的部分图像可以具有不同的相位。n可以表示正整数。
已经描述通过使用n条不同的光获得n个不同的部分图像的方法。然而,可以通过使用相同的光并允许图像传感器122将多条反射光调制为具有不同的增益波形的信号来获得n个不同的部分图像。
例如,图像传感器122将反射光调制为第一光调制信号,将反射光调制为与第一光调制信号不同的第二光调制信号,并将反射光调制为与第一和第二光调制信号不同的第n光调制信号。第一至第n光调制信号可以是具有不同的波形的信号,或者可以是具有相同的周期、相同的波形、和不同的相位的信号。因此,图像传感器122可以获得n个不同的部分图像。
多个部分图像可以由于光或反射光的调制而具有不同的相位。当有n个部分图像时,相邻的部分图像之间的相位差可以为360°/n。例如,图像传感器122可以获得具有0°、90°、180°、和270°的相位的四个部分图像。然而,本示范性实施例不限于此,可以获得两个或更多个部分图像。
处理器124可以通过使用第一区域11的多个部分图像获得具有物体10的深度信息的第一部分深度图像。例如,假定通过使用具有不同的相位的四个部分图像获得部分深度图像的深度信息,处理器124可以获得具有如公式1所示的深度信息的第一部分深度图像。
[公式1]
公式1中,Rmax是根据示范性实施例的装置100捕获的物体10的最大距离,而且通过光速和光的调制频率确定,I1、I2、I3、和I4是第一至第四部分图像。
在操作S240,图像获得器120可以通过使用从第二区域12反射的光获得第二部分深度图像。获得第二部分深度图像的方法与获得第一部分深度图像的方法相同,因而将不给出其详细说明。
在操作S250,图像获得器120可以通过使用第一和第二部分深度图像获得物体10的第一深度图像。图像获得器120可以通过基于像素的坐标信息组合第一和第二部分深度图像获得第一深度图像。由于物体10被划分为多个区域而且如上所述从部分深度图像获得深度图像,所以可以减少运动模糊。
图3是根据示范性实施例的获得多个深度图像的方法的流程图。参照图3,在操作S310,图像获得器120可以通过使用第一和第二部分深度图像获得第一深度图像。上面已经描述获得第一深度图像的方法,因而将不给出其说明。
在操作S320,光源110可以在第三时段向物体10的第一区域11发射光。当光源110包括第一和第二光源112和114时,第一光源112可以向物体10的第一区域11发射光。然而,本示范性实施例不限于此。光源110可以通过改变照射角度向物体10的第一区域11发射光。
第三时段和第二时段的至少一部分可以彼此不交迭。例如,第三时段可以是第二时段随后的时间间隔。然而,本示范性实施例不限于此。第三时段可以是从第二时段经过预定的一段时间之后的时间。第三时段和第二时段或第一时段的长度可以相同。即,第三时段可以小于图像传感器122的参考帧率的倒数。这是因为只有图像传感器122的一些像素需要接收光。
在第三时段向第一区域11发射的光的量可以大于参考光量,而且可以与在第一时段向第一区域发射的光的量或在第二时段向第二区域12发射的光的量相同。在第三时段发射的光的量可以是通过将物体10与第一区域11的比率乘以参考光量获得的值。例如,当第一区域11是物体10的1/2时,在第三时段发射的光的量可以比参考光量大两倍。
在操作S330,图像获得器120可以通过使用在第三时段从第一区域11反射的光获得第三部分深度图像。具体地,图像传感器122可以获得多个部分图像。例如,多个部分图像可以是具有0°、90°、180°、和270°的相位的四个部分图像I1、I2、I3、和I4。然而,本示范性实施例不限于此。处理器124可以通过使用四个部分图像获得第三部分深度图像。获得第三部分深度图像的方法与获得第一部分深度图像的方法相同,因而将不给出其详细说明。
在操作S340,处理器124可以通过使用第二和第三部分深度图像获得物体10的第二深度图像。由于将之前获得的第二部分深度图像和新获得的第三部分深度图像相互组合以便获得第二深度图像,深度图像的帧率可以小于图像传感器122的参考帧率。例如,当图像传感器122的参考帧率为60帧每秒(fps)时,虽然花费1/60秒获得初始深度图像,但是下一深度图像的帧率可以为30fps,因为之前获得部分深度图像并且用于下一深度图像。而且,由于通过使用部分深度图像获得深度图像,可以减少运动模糊。
图4是用于说明根据示范性实施例的获得深度图像的方法的参考图。为便于说明,可以将物体10划分为上部区域H和下部区域L,而且光源110可以交替地向上部区域H和下部区域L发生多条光。多条光可以具有预定时段和预定波形,而且可以彼此不同。光源110可以连续地依次发射多条光。例如,光源110可以在第一时段向物体10的上部区域H发射具有不同的相位的多条光,例如,相邻的光之间的相位差为90°的四条光,而且可以在第二时段向物体10的下部区域L发射具有不同的相位的多条光。连续地,光源110可以交替地向上部区域H和下部区域L发射光。
图像获得器120可以根据控制器130的控制信号与光源110同步。因此,图像传感器122可以在第一时段获得物体10的上部区域H的具有0°、90°、180°、和270°的相位的部分图像I1、I2、I3、和I4。当T是图像传感器122的帧率的倒数时,图像传感器122可以在每个T/2的时间间隔获得每个部分图像。因此,图像传感器122可以在第一时段(即,从0到2T)获得四个部分图像。
处理器124可以通过使用四个部分图像I1、I2、I3、和I4获得物体10的上部区域H的第一部分深度图像PD1。接下来,图像传感器122可以在第二时段(例如,从2T到4T)获得物体10的下部区域L的具有0°、90°、180°、和270°的相位的部分图像I1、I2、I3、和I4。处理器124可以通过使用四个部分图像I1、I2、I3、和I4获得物体10的下部区域L的第二部分深度图像PD2。
接下来,在第一和第二时段过去之后,处理器124可以通过使用上部区域H的第一部分深度图像PD1和下部区域L的第二部分深度图像PD2获得物体10的第一深度图像D1。
通过使用相同的方法,光源110可以在第三时段(例如,从4T到6T)向物体10的上部区域H发射具有不同相位的多条光。图像传感器122可以通过与光源110同步获得物体10的上部区域H的具有0°、90°、180°、和270°的相位的部分图像I1、I2、I3、和I4。处理器124可以通过使用四个部分图像I1、I2、I3、和I4获得物体10的上部区域H的第三部分深度图像PD3。处理器124可以通过组合下部区域L的第二部分深度图像PD2和上部区域H的第三部分深度图像PD3获得物体10的第二深度图像D2。
图5是用于说明根据比较示例的图像传感器122在获得整个物体10的图像之后执行的用以获得深度图像的方法的参考图。当图像传感器122的参考帧率为60fps时,如图5所示,图像传感器122可以每1/60秒获得一个图像,而且可以在1/15秒之后通过使用四个图像获得深度图像。因此,深度图像的帧率为15fps。
当相互比较图4和图5时,图4的第二深度图像随后的任何深度图像的帧率比图5的高。这是因为使用了之前获得的部分深度图像和新获得的部分深度图像。即便在图5中,可以通过使用之前获得的图像(即,从0到4T获得的图像)和新获得的图像(即,从4T到5T获得的图像)获得第二深度图像随后的深度图像。然而,该情况下,深度图像中包括大量噪声,从而使得难以获得深度信息。
图6A示出通过使用图5的方法获得的深度图像。图6B示出通过使用图4的方法获得的深度图像。如图6A和图6B所示,图6B中的运动模糊比图6A中的运动模糊少。
虽然图4中物体10被划分为两个区域而且图像获得器120与光源110同步并获得上部和下部的部分深度图像,但是本示范性实施例不限于此。根据示范性实施例的装置100可以将物体10划分为三个或更多个区域,而且图像获得器120可以获得物体10的三个或更多个部分深度图像。
图7是用于说明根据另一示范性实施例的获得深度图像的方法的参考图。参照图7,光源110可以将物体10划分为上部区域H、中部区域C、和下部区域L,而且可以向上部区域H至下部区域L依次发射多条光。光源110的光的量可以比参考光量大三倍。
而且,图像获得器120可以以比参考帧率高三倍的速度获得部分图像。例如,处理器124可以通过使用从0至4T/3获得的部分图像获得第一部分深度图像PD1,可以通过使用从4T/3至8T/3获得的部分图像获得第二部分深度图像PD2,而且可以通过使用从8T/3至4T获得的部分图像获得第三部分深度图像PD3。因此,处理器124可以通过组合第一至第三部分深度图像PD1、PD2、和PD3获得第一深度图像D1。而且,处理器124可以从4T至4T+4T/3获得物体的上部区域H的第四部分深度图像PD4,而且可以通过组合第二至第四部分深度图像PD2、PD3、和PD4获得第二深度图像D2。
当物体10被划分为三个区域然后获得每个部分深度图像时,可以进一步减少运动模糊,而且可以进一步提高深度图像的帧率。替代地,物体10可以被划分为四个或更多个区域。
物体10已经被垂直划分。然而,本示范性实施例不限于此。物体10可以被水平划分,而且图像传感器122可以被水平同步。物体10可以延其他方向划分。
而且,装置100可以将物体10划分为多个区域,而且可以间断地向多个区域发射光。图像获得器120可以与光源110同步,而且可以仅当向物体10的一区域发光时获得部分图像。如上所述,光源110和图像传感器122可以彼此同步以在预定时段发射光,而且图像传感器122可以在该预定时段操作以调制反射光。由于图像传感器122在不发射光的时段不操作以将光接收维持在最低水平,所以可以防止图像传感器122接收外部光。发射光的时间与不发射光的时间的比率可以被称为占空比。当占空比小于100%时,可以意味着间断地发射光。
图8A和图8B是用于说明根据另一示范性实施例的当占空比为50%时获得深度图像的方法的参考图。参照图8A,光源110可以在4T当中的2T向物体10发射光。例如,光源110可以从0至T向物体10的上部区域H发射四条不同的光,而且可以从T至2T向物体10的下部区域L发射四条不同的光。向物体10发射的每个光的量可以比参考光量大四倍。这是因为占空比为50%而且仅向物体10的1/2区域发射光。当以该方式间断地发射光时,可以减少外部光。
虽然图8A中从0至T向物体10的上部区域H发射光,从T至2T向物体的下部区域L发射光,而且从2T至4T不发射光,但是本示范性实施例不限于此。如图8B所示,可以从0至T向物体10的上部区域H发射光,可以从2T至3T向下部区域L发射光,而且可以从T至2T和从3T至4T不向物体10发射光。如图8B所示,由于向物体10的区域间断地发射光,可以减少外部光和运动模糊,而且可以改善深度图像的帧率。虽然图8A和图8B中物体10被划分为两个区域,但是本示范性实施例不限于此。
虽然不限于此,但是示范性实施例可以实现为计算机可读记录介质上的计算机可读代码。计算机可读记录介质是可以存储之后可以由计算机系统读取的数据的任何数据存储设备。非暂时性计算机可读记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)、光可读介质(例如,CD-ROM、或DVD)等。计算机可读记录介质也可以分布在网络耦接的计算机系统上以使得以分布的方式存储和运行计算机可读代码。而且,示范性实施例可以被编写为通过诸如载波的计算机可读传输媒介发送的计算机程序,并且在运行程序的通用或专用数字计算机中接收和实施。另外,可以理解,在示范性实施例中,上述装置和设备的一个或多个单元可以包括电路、处理器、微处理器等,而且可以运行存储在计算机可读介质中的计算机程序。
前述示范性实施例仅仅是示范性的,不应当被解读为限制。本教导可以容易地应用于其他类型的装置。而且,示范性实施例的描述旨在是例示性的,而并不限制权利要求的范围,而且本领域技术人员显然可以得出许多替代、修改、和变体。
Claims (34)
1.一种用于获得深度图像的装置,该装置包括:
光源,被配置为在第一时段向物体的第一区域发射第一光,并在第二时段向该物体的第二区域发射第二光,第一光和第二光分别从第一区域和第二区域反射;以及
图像获得器,被配置为基于反射的第一光获得第一部分深度图像,基于反射的第二光获得第二部分深度图像,并基于第一部分深度图像和第二部分深度图像获得该物体的第一深度图像。
2.如权利要求1所述的装置,其中第一时段和第二时段的至少一部分彼此不交迭。
3.如权利要求2所述的装置,其中第二时段在第一时段之后。
4.如权利要求1所述的装置,其中第一时段小于该图像获得器中包括的图像传感器的参考帧率的倒数。
5.如权利要求4所述的装置,其中第一时段小于或等于通过将第一区域的尺寸与该物体的尺寸的比率乘以所述参考帧率的倒数获得的值。
6.如权利要求1所述的装置,其中向第一区域发射的第一光的量大于参考光量。
7.如权利要求6所述的装置,其中向第一区域发射的第一光的量大于或等于通过将该物体的尺寸与第一区域的尺寸的比率乘以所述参考光量获得的值。
8.如权利要求1所述的装置,其中第一区域和第二区域的至少一部分彼此不交迭。
9.如权利要求8所述的装置,其中第一区域是该物体的上部区域,而第二区域是该物体的下部区域。
10.如权利要求1所述的装置,其中从该光源发射的第一光包括具有不同的相位的多条光。
11.如权利要求10所述的装置,其中所述多条光当中的相邻两条光之间的相位差为90°。
12.如权利要求1所述的装置,其中从具有不同的相位的多个部分图像获得第一部分深度图像。
13.如权利要求1所述的装置,其中该光源进一步被配置为在第三时段向该物体的第一区域发射第三光,第三光从第一区域反射,而且
该图像获得器进一步被配置为基于反射的第三光获得第一区域的第三部分深度图像,并基于第二部分深度图像和第三部分深度图像获得该物体的第二深度图像。
14.如权利要求13所述的装置,其中第二时段和第三时段的至少一部分彼此不交迭。
15.如权利要求14所述的装置,其中第三时段在第二时段之后。
16.如权利要求15所述的装置,其中在第二时段与第三时段之间存在时间间隔。
17.如权利要求1所述的装置,其中该图像获得器包括:
图像传感器,被配置为基于从第一区域反射的第一光获得多个第一部分图像,并基于从第二区域反射的第二光获得多个第二部分图像;以及
处理器,被配置为从多个第一部分图像获得第一部分深度图像,从多个第二部分图像获得第二部分深度图像,并基于第一部分深度图像和第二部分深度图像获得该物体的第一深度图像。
18.如权利要求17所述的装置,其中该图像传感器进一步被配置为将多条反射的第一光调制为具有不同的增益波形的信号。
19.一种获得深度图像的方法,该方法包括:
在第一时段向物体的第一区域发射第一光,第一光从第一区域反射;
在第二时段向该物体的第二区域发射第二光,第二光从第二区域反射;
基于反射的第一光获得第一部分深度图像;
基于反射的第二光获得第二部分深度图像;以及
基于第一部分深度图像和第二部分深度图像获得该物体的第一深度图像。
20.如权利要求19所述的方法,其中第一时段和第二时段的至少一部分彼此不交迭。
21.如权利要求20所述的方法,其中第二时段在第一时段之后。
22.如权利要求19所述的方法,其中第一时段小于被配置为接收反射的第一光和反射的第二光的图像传感器的参考帧率的倒数。
23.如权利要求22所述的方法,其中第一时段小于或等于通过将第一区域的尺寸与该物体的尺寸的比率乘以所述参考帧率的倒数获得的值。
24.如权利要求19所述的方法,其中向第一区域发射的第一光的量大于参考光量。
25.如权利要求24所述的方法,其中向第一区域发射的第一光的量大于或等于通过将该物体的尺寸与第一区域的尺寸的比率乘以所述参考光量获得的值。
26.如权利要求19所述的方法,其中第一区域和第二区域的至少一部分彼此不交迭。
27.如权利要求26所述的方法,其中第一区域是该物体的上部区域,而第二区域是该物体的下部区域。
28.如权利要求19所述的方法,其中所述发射第一光包括向第一区域发射多条第一光,而且所述多条第一光具有彼此不同的相位。
29.如权利要求28所述的方法,其中所述多条光当中的相邻两条光之间的相位差为90°。
30.如权利要求19所述的方法,进一步包括:
在第三时段向该物体的第一区域发射第三光,第三光从第一区域反射;
基于反射的第三光获得第三部分深度图像;以及
基于第二部分深度图像和第三部分深度图像获得该物体的第二深度图像。
31.如权利要求30所述的方法,其中第二时段和第三时段的至少一部分彼此不交迭。
32.如权利要求31所述的方法,其中第三时段在第二时段之后。
33.如权利要求31所述的方法,其中在第二时段与第三时段之间存在时间间隔。
34.一种通过深度图像传感器获得图像的方法,该方法包括:
以预定的时段向物体的多个区域中的每个区域交替地发射光,所述光从所述多个区域中的每个区域反射;
当每个预定时段结束时基于反射的光重复地获得部分深度图像;以及
基于在所述预定时段发生k次以收集从该物体的全部多个区域反射的光的同时获得的部分深度图像,产生该物体的深度图像,k对应于该物体的所述多个区域的数量。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0151103 | 2015-10-29 | ||
KR1020150151103A KR102372088B1 (ko) | 2015-10-29 | 2015-10-29 | 영상 획득 장치 및 영상 획득 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106657969A true CN106657969A (zh) | 2017-05-10 |
CN106657969B CN106657969B (zh) | 2020-08-11 |
Family
ID=56119315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610796927.XA Active CN106657969B (zh) | 2015-10-29 | 2016-08-31 | 用于获得图像的装置和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10760906B2 (zh) |
EP (1) | EP3163316B1 (zh) |
KR (1) | KR102372088B1 (zh) |
CN (1) | CN106657969B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112615979A (zh) * | 2020-12-07 | 2021-04-06 | 江西欧迈斯微电子有限公司 | 图像获取方法、图像获取装置、电子装置和存储介质 |
CN112790582A (zh) * | 2019-11-14 | 2021-05-14 | 原相科技股份有限公司 | 电饭锅以及液体高度判断方法 |
CN112929516A (zh) * | 2019-12-05 | 2021-06-08 | 北京小米移动软件有限公司 | 图像采集模组、终端设备、图像处理方法及装置 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10469775B2 (en) * | 2017-03-31 | 2019-11-05 | Semiconductor Components Industries, Llc | High dynamic range storage gate pixel circuitry |
US10489925B2 (en) * | 2017-08-13 | 2019-11-26 | Shenzhen GOODIX Technology Co., Ltd. | 3D sensing technology based on multiple structured illumination |
JP7028588B2 (ja) * | 2017-09-04 | 2022-03-02 | 株式会社日立エルジーデータストレージ | 3次元距離測定装置 |
EP3732507A1 (en) | 2017-12-29 | 2020-11-04 | Sony Semiconductor Solutions Corporation | Imaging device and method |
KR102562361B1 (ko) * | 2018-10-05 | 2023-08-02 | 엘지이노텍 주식회사 | 깊이 정보를 획득하는 방법 및 카메라 모듈 |
KR102211600B1 (ko) * | 2018-10-15 | 2021-02-03 | 주식회사 고영테크놀러지 | 무 초점(Focus-less) 검사 장치 및 검사 방법 |
EP3640629B1 (en) | 2018-10-15 | 2024-05-08 | Koh Young Technology Inc | Focus-less inspection apparatus and method |
US10837795B1 (en) | 2019-09-16 | 2020-11-17 | Tusimple, Inc. | Vehicle camera calibration system |
US20230003894A1 (en) * | 2019-12-16 | 2023-01-05 | Sony Semiconductor Solutions Corporation | Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method |
KR102405494B1 (ko) | 2020-08-11 | 2022-06-08 | 주식회사 슈프리마아이디 | 조명 제어를 이용하는 이미지 생성 장치 |
KR102529593B1 (ko) * | 2022-10-25 | 2023-05-08 | 성형원 | 대상체에 대한 3d 정보를 획득하는 디바이스 및 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070181810A1 (en) * | 2006-02-06 | 2007-08-09 | Tan Michael R T | Vertical cavity surface emitting laser (VCSEL) array laser scanner |
CN103079085A (zh) * | 2011-10-25 | 2013-05-01 | 三星电子株式会社 | 三维图像获取装置及计算该装置中的深度信息的方法 |
US20140055771A1 (en) * | 2012-02-15 | 2014-02-27 | Mesa Imaging Ag | Time of Flight Camera with Stripe Illumination |
CN104104941A (zh) * | 2013-04-08 | 2014-10-15 | 三星电子株式会社 | 三维图像获取装置以及生成深度图像的方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10305010B4 (de) | 2003-02-07 | 2012-06-28 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Bilderzeugung |
JP3962929B2 (ja) | 2004-05-18 | 2007-08-22 | 防衛省技術研究本部長 | レーザ距離画像生成装置及び方法 |
EP2275833A1 (en) | 2009-07-01 | 2011-01-19 | IEE International Electronics & Engineering S.A.R.L. | Range camera and range image acquisition method |
US9599715B2 (en) * | 2010-08-03 | 2017-03-21 | Faro Technologies, Inc. | Scanner display |
KR101798063B1 (ko) | 2010-12-14 | 2017-11-15 | 삼성전자주식회사 | 조명 광학계 및 이를 포함하는 3차원 영상 획득 장치 |
KR101722641B1 (ko) * | 2010-12-23 | 2017-04-04 | 삼성전자주식회사 | 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법 |
JP5858688B2 (ja) | 2011-08-30 | 2016-02-10 | スタンレー電気株式会社 | 距離画像生成装置 |
KR20130027671A (ko) * | 2011-09-08 | 2013-03-18 | 한국전자통신연구원 | 깊이 정보 획득장치 및 이를 포함하는 3차원 정보 획득 시스템 |
KR101871235B1 (ko) | 2012-06-05 | 2018-06-27 | 삼성전자주식회사 | 깊이 영상 생성 방법 및 장치, 깊이 영상 처리 방법 및 장치 |
US20150260830A1 (en) * | 2013-07-12 | 2015-09-17 | Princeton Optronics Inc. | 2-D Planar VCSEL Source for 3-D Imaging |
KR102194237B1 (ko) * | 2014-08-29 | 2020-12-22 | 삼성전자주식회사 | 깊이 영상 촬영 장치 및 깊이 정보 획득 방법 |
-
2015
- 2015-10-29 KR KR1020150151103A patent/KR102372088B1/ko active IP Right Grant
-
2016
- 2016-03-25 US US15/081,407 patent/US10760906B2/en active Active
- 2016-06-01 EP EP16172379.6A patent/EP3163316B1/en active Active
- 2016-08-31 CN CN201610796927.XA patent/CN106657969B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070181810A1 (en) * | 2006-02-06 | 2007-08-09 | Tan Michael R T | Vertical cavity surface emitting laser (VCSEL) array laser scanner |
CN103079085A (zh) * | 2011-10-25 | 2013-05-01 | 三星电子株式会社 | 三维图像获取装置及计算该装置中的深度信息的方法 |
US20140055771A1 (en) * | 2012-02-15 | 2014-02-27 | Mesa Imaging Ag | Time of Flight Camera with Stripe Illumination |
CN104104941A (zh) * | 2013-04-08 | 2014-10-15 | 三星电子株式会社 | 三维图像获取装置以及生成深度图像的方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112790582A (zh) * | 2019-11-14 | 2021-05-14 | 原相科技股份有限公司 | 电饭锅以及液体高度判断方法 |
CN112790582B (zh) * | 2019-11-14 | 2022-02-01 | 原相科技股份有限公司 | 电饭锅以及液体高度判断方法 |
CN112929516A (zh) * | 2019-12-05 | 2021-06-08 | 北京小米移动软件有限公司 | 图像采集模组、终端设备、图像处理方法及装置 |
CN112929516B (zh) * | 2019-12-05 | 2023-08-08 | 北京小米移动软件有限公司 | 图像采集模组、终端设备、图像处理方法及装置 |
CN112615979A (zh) * | 2020-12-07 | 2021-04-06 | 江西欧迈斯微电子有限公司 | 图像获取方法、图像获取装置、电子装置和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US10760906B2 (en) | 2020-09-01 |
EP3163316B1 (en) | 2022-11-16 |
EP3163316A1 (en) | 2017-05-03 |
US20170122731A1 (en) | 2017-05-04 |
KR20170050059A (ko) | 2017-05-11 |
KR102372088B1 (ko) | 2022-03-08 |
CN106657969B (zh) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106657969A (zh) | 用于获得图像的装置和方法 | |
KR102486385B1 (ko) | 깊이 정보 획득 장치 및 방법 | |
JP7347942B2 (ja) | 3次元映像装置 | |
JP6132510B2 (ja) | 三次元映像獲得装置、及び三次元映像獲得装置における奥行き情報の算出方法 | |
CN104104941B (zh) | 三维图像获取装置以及生成深度图像的方法 | |
JP5858688B2 (ja) | 距離画像生成装置 | |
KR102056904B1 (ko) | 3차원 영상 획득 장치 및 그 구동 방법 | |
JP6309459B2 (ja) | ストライプ照明の飛行時間型カメラ | |
JP2021507268A (ja) | 物体を多次元捕捉するためのマルチパルスlidarシステム | |
EP2405663A1 (en) | Method of driving an image sensor | |
WO2019133631A3 (en) | System and method of imaging using multiple illumination pulses | |
WO2014075062A4 (en) | System and method for 3-dimensional object rendering of a moving object using structured light patterns and moving window imagery | |
CN105705962A (zh) | 具有主动照明的传感器系统 | |
US20180094919A1 (en) | Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor | |
KR102194237B1 (ko) | 깊이 영상 촬영 장치 및 깊이 정보 획득 방법 | |
GB2465072A (en) | Combining range information with images to produce new images of different perspective | |
CN107637071A (zh) | 投影装置、投影方法、投影模块、电子装置以及程序 | |
KR20160090464A (ko) | 티오에프 카메라에서 깊이 지도 생성 방법 | |
US20210389459A1 (en) | LiDAR DEVICE AND METHOD OF OPERATING THE SAME | |
CN106791781B (zh) | 一种连续波相位测量式单像素三维成像系统及方法 | |
US20200018592A1 (en) | Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor | |
JP2009284128A (ja) | データ通信装置 | |
CN106791497B (zh) | 一种脉冲增益调制式单像素三维成像系统及方法 | |
US9989642B2 (en) | Method of acquiring depth image and image acquiring apparatus using thereof | |
KR20110065399A (ko) | 텍스쳐 영상과 깊이 영상을 추출하는 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |