CN103079085A - 三维图像获取装置及计算该装置中的深度信息的方法 - Google Patents
三维图像获取装置及计算该装置中的深度信息的方法 Download PDFInfo
- Publication number
- CN103079085A CN103079085A CN2012103152558A CN201210315255A CN103079085A CN 103079085 A CN103079085 A CN 103079085A CN 2012103152558 A CN2012103152558 A CN 2012103152558A CN 201210315255 A CN201210315255 A CN 201210315255A CN 103079085 A CN103079085 A CN 103079085A
- Authority
- CN
- China
- Prior art keywords
- light
- light beam
- rendering
- optical modulator
- deriving means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4816—Constructional features, e.g. arrangements of optical elements of receivers alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4915—Time delay measurement, e.g. operational details for pixel components; Phase measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4918—Controlling received signal intensity, gain or exposure of sensor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/493—Extracting wanted echo signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
提供一种三维(3D)图像获取装置和在该3D图像获取装置中计算深度信息的方法,所述3D图像获取装置包括:光调制器,用于调制通过依次投射N(N是3或更大的自然数)个光束从对象反射的光;图像拾取装置,用于通过拍摄由光学调制器调制的光来生成N个子图像;以及信号处理器,用于通过使用所述N个图像来计算关于到对象的距离的深度信息。
Description
相关申请的交叉引用
本申请请求2011年10月25日提交的韩国专利申请第10-2011-0109431号的权益,其内容通过引用全文合并与此。
技术领域
本公开涉及三维(3D)图像获取装置以及在该3D图像获取装置中计算深度信息的方法。
背景技术
最近,根据用于显示具有深度感的图像的3D显示设备的发展和需求的增加,已经强调了三维(3D)内容的重要性。因此,正在进行诸如用户自己创建3D内容的3D照相机之类的3D图像获取装置的研究。这种3D照相机被期望在一次拍摄中获得除现有的2D彩色图像信息之外的深度信息。
可以使用利用两个照相机的立体视觉法或者利用结构化的光和照相机的三角测量法来获得关于对象的表面与3D照相机之间的距离的深度信息。然而,因为这些方法中的深度信息的精确度随着到对象的距离增加而快速地降低,并且这些方法取决于对象的表面状态,所以难以获得精确的深度信息。
为了改善此问题,已经引入飞行时间(TOF)。TOF方法是一种测量在照明光投射到对象之后直到从对象反射的光由光接收单元接收到的光飞行时间的方法。依据TOF方法,通过使用包括发光二极管(LED)或激光二极管(LD)的照明光学系统将预定的波长的光(例如,850纳米的近红外(NIR)光)照射到对象,由光接收单元接收从对象反射的具有相同的波长的光,然后执行一系列用于计算深度信息的处理过程。依据一系列处理过程引入不同的TOF技术。
在上面描述的TOF方法中,通过假定没有噪声的理想环境来计算深度信息。然而,当使用3D照相机时,诸如室内环境中的照明和户外环境中的太阳光之类的环境光总是存在于周围中。环境光入射到3D照相机,成为计算深度信息的过程中的噪声。
因此,在计算深度信息过程中必须除去成为噪声的环境光。
发明内容
提供一种通过除去环境光来计算深度信息的方法以及用于该方法的3D图像获取装置。
附加方面将在下面的描述中被部分地阐明,以及从该描述中将部分地明显,或者可以通过给出的实施例而学习到。
依据本发明的方面,一种三维(3D)图像获取装置包括:光调制器,用于调制通过依次投射N(N是3或更大的自然数)个光束从对象反射的光;图像拾取装置,用于通过拍摄由光调制器调制的光来生成N个子图像;以及信号处理器,用于通过使用该N个子图像来计算关于到对象的距离的深度信息。
所述N个光束可以间断地投射。
所述N个投射光束可以彼此不同并且由一个或多个光源发射。
所述一个或多个光源可以以预定时间间隔依次投N个光束。
光调制器的操作时间可以与N个光束的每一个的投射时间同步。
所述光调制器的操作时间可以比N个光束的每一个的投射时间更短。
所述图像拾取装置的曝光时间可以与光调制器的操作时间同步。
所述图像拾取装置可以在光投射时间期间曝光以拍摄已调制光,并且所述图像拾取装置可以在光投射时间的至少一部分剩余时间期间形式N个子图像。
在光投射时间期间所述图像拾取装置的全部像素可以曝光给已调制光。
所述N个光束可以是具有相同的周期且从由不同的强度和不同的相位构成的组中选择出的至少一个的周期波。
所述光调制器可以利用相同的调制信号调制反射的光。
所述N个光束可以是相同的周期波。
所述光调制器可以利用不同的调制信号调制反射的光。
所述N个光束当中在相邻的时间投射的任何两个光束之间的相位差可以是通过用N等分360°获得的值。
所述反射的光可以包括通过从对象反射所述N个光束获得的N个反射光束。
由所述图像拾取装置生成的所述N个子图像可以依次一对一匹配所述N个反射光束。
如果所述N个子图像不一对一匹配所述N个反射光束,则所述信号处理器可以以行为基础转换所述N个子图像并且将所述N个基于行的子图像与所述N个反射光束一对一匹配。
所述信号处理器可以通过对乘以第一加权因子的所述N个子图像取平均来生成第一平均图像,对乘以第二加权因子的所述N个子图像取平均来生成第二平均图像,并且从第一平均图像和第二平均图像计算深度信息。
可以从第一平均图像对第二平均图像的比率的反正切值计算所述深度信息。
依据本发明的另一方面,一种计算深度信息的方法包括:调制通过依次投射N(N是3或更大的自然数)个光束从对象反射的光;通过拍摄由光调制器调制的光生成N个子图像;以及通过使用所述N个子图像计算关于到对象的距离的深度信息。
所述N个光束可以间断地投射。
所述N个投射光束可以彼此不同并且由一个或多个光源发射。
可以以预定时间间隔依次投射所述N个光束。
用于调制光的光调制器的操作时间可以与N个光束的每一个的投射时间同步。
所述光调制器的操作时间可以比N个光束的每一个的投射时间更短。
用于拍摄光的图像拾取装置的曝光时间可以与光调制器的操作时间同步。
在光投射时间期间所述图像拾取装置的全部像素可以都曝光给已调制光。
所述N个光束可以是具有相同周期并且从由不同的强度和不同的相位构成的组中选择的至少一个的周期波,并且可以利用相同的调制信号调制所述反射的光。
所述N个光束可以是相同的周期波,并且可以利用不同的调制信号调制所述反射的光。
所述N个光束当中在相邻的时间投射的任何两个光束之间的相位差可以是通过用N等分360°获得的值。
所生成的N个子图像可以依次一对一匹配所述N个反射光束。
所述方法还可以包括,如果所述N个子图像不一对一匹配所述N个反射光束,则以行为基础转换所述N个子图像并且将所述N个基于行的子图像依次一对一匹配所述N个反射光束。
可以通过对乘以第一加权因子的所述N个子图像取平均来生成第一平均图像,可以对乘以第二加权因子的所述N个子图像取平均来生成第二平均图像,并且可以从第一平均图像和第二平均图像计算深度信息。
可以从第一平均图像对第二平均图像的比率的反正切值计算所述深度信息。
依据本发明的另一方面,一种三维(3D)图像获取装置包括光调制器,其调制从被间断地投射N个光束的对象反射的光;控制器,其控制光调制器以使光调制器与N个光束的每一个光束的投射时间同步。
3D图像获取装置还包括光源,其生成被依次投射的N个光束。
N是大于或等于3的自然数。
3D图像获取装置还包括图像传感器,其通过拍摄由光调制器调制的光来生成N个子图像,其中,图像传感器的曝光时间与光调制器的操作时间同步。
3D图像获取装置还包括信号处理器,其通过使用N个子图像来计算关于到对象的距离的深度信息。
附图说明
通过下面结合附图对该实施例的描述,这些和/或其它方面将变得明显且更易理解,其中:
图1是根据本发明的实施例的三维(3D)图像获取装置的示意图;
图2(A)到图2(D)示出根据本发明的实施例的、通过调制N个不同的反射光束生成N个不同的子图像的过程;
图3(A)到图3(D)示出根据本发明的实施例的、利用一个投射光束和N个不同的光学调制信号生成N个不同的子图像的过程;
图4A和图4B分别是根据本发明的实施例的、当投射光的占空比是100%时以及在投射光的占空比是20%的情况下、当3D图像被拍摄时的时间图;
图5是根据本发明的实施例的、当通过将光源、光调制器、以及图像拾取装置彼此同步来拍摄图像时的时间图;
图6是当在光调制器的单个操作时间期间图像拾取装置的全部像素并不都被曝光时、当图像被拍摄时的时间图;
图7是用于描述根据本发明的实施例的、从N个不同的图像计算深度信息的过程的示意图;
图8是根据本发明的实施例的、示出加权因子Ak和Bk的表格;以及
图9是根据本发明的实施例的、示出计算深度信息的方法的流程图。
具体实施方式
现在将详细参考实施例,附图中示出了其示例。在附图中,为了说明的清楚,层和区域的宽度和厚度被放大。在描述中,相同的参考标号始终指示相同元件。在元件列表之前的诸如“中的至少一个”的表达修饰整个元件列表并且不修饰该列表的各个元件。
图1是根据本发明的实施例的三维(3D)图像获取装置100的示意图。参照图1,3D图像获取装置100可以包括用于生成具有预定波长的光的光源101、用于调制从对象200反射的光的光调制器103、用于从已调制光生成子图像的图像拾取装置105、用于基于通过图像拾取装置105形成的子图像计算深度信息并且生成包括深度信息的图像的信号处理器106、以及用于控制光源101、光调制器103、图像拾取装置105、和信号处理器106的操作的控制器107。
此外,在光调制器103的光入射面的前面,3D图像获取装置100还可以包括用于仅传送从对象200反射的光当中的具有预定波长的光的滤波器108、以及用于将反射光集中在光调制器103的区域之内的第一镜头109、以及在光调制器103和图像拾取装置105之间的、用于将已调制光集中在图像拾取装置105的区域之内的第二镜头110。
例如,光源101可以是能够发射为了安全性而人眼不可见的、具有大约850纳米的近红外(NIR)波长的光的发光二极管(LED)或激光二极管(LD)。然而,光源101不局限于此波段或类型。
从光源101投射到对象200的光可以具有的形态是具有预定周期的、周期性的连续函数。例如,投射光可以具有诸如正弦波、斜波、或方波、或未定义的通用波形的具体定义的波形。此外,光源101可以在控制器107控制之下以周期性的方式仅在预定时间期间集中地将光投射到对象200。光投射到对象200的时间被称为光投射时间。
光调制器103在控制器107控制之下调制从对象200反射的光。例如,光调制器103可以响应于具有预定波长的光学调制信号通过改变增益来调制反射光的强度。为此,光调制器103可以具有可变增益。
光调制器103可以依据距离以数十到数百兆赫的高调制频率操作以识别光的相位差或传播时间。作为满足此条件的光调制器103,可以使用包括多通道板(Multi Channel Plate,MCP)的子图像增强器、GaAs系列的固态光调制器、或使用电光材料的薄型光调制器。虽然在图1中光调制器103是发射型光调制器,但是还可以使用反射型光调制器。
与光源101类似,光调制器103还可以在预定时间期间操作以调制从对象200反射的光。光调制器103进行操作以调制光的时间被称为光调制器103的操作时间。光源101的光投射时间可以与光调制器103的操作时间同步。从而,光调制器103的操作时间可以与光源101的光投射时间相同或比光源101的光投射时间更短。
图像拾取装置105在控制器107的控制之下通过检测由光调制器103调制的反射光来生成子图像。例如,如果只想要测量到对象200上的任何一个点的距离,则图像拾取装置105可以使用诸如光电二极管或积分器之类的单个光学传感器。然而,如果想要测量到对象200上的多个点的距离,则图像拾取装置105可以具有多个光电二极管或其他光检测器的2D或1D阵列。例如,图像拾取装置105可以包括电荷耦合器件(CCD)图像传感器或互补金属氧化物半导体(CMOS)图像传感器。图像拾取装置105可以对每个反射光束生成单个子图像。
信号处理器106基于由图像拾取装置105形成的子图像来计算深度信息并生成包括深度信息的3D图像。例如,可以通过专用集成电路(IC)或安装在3D图像获取装置100中的软件实现信号处理器106。当通过软件实现信号处理器106时,信号处理器106可以存储在分离的便携式存储介质中。
在下文中,描述具有以上所述结构的3D图像获取装置100的操作。
光源101在控制器107的控制之下依次并集中地向对象200投射具有预定周期和波形的N个不同的光束,其中N可以是3或更大的自然数。光源101可以依次地连续投射或以预定时间间隔投射具有N个不同的光束。
例如,当使用4个不同的投射光束时,光源101可以在时间T1期间生成并向对象200投射第一投射光束、在时间T2期间生成并向对象200投射第二投射光束、在时间T3期间生成并向对象200投射第三投射光束、以及在时间T4期间生成并向对象200投射第四投射光束。依次投射到对象200的这些第一投射光束到第四投射光束可以具有的形态是具有预定周期的连续函数,诸如正弦波。例如,第一投射光束到第四投射光束可以是具有相同的周期和波形以及不同的强度或相位的周期波。
当N个不同的光束被投射时,同时投射的任何两个光束之间的相位差可以是360°/N,并且每个投射光束的周期可以比光源101的操作时间更短。全部N个不同的光束可以在光源101的操作时间之内依次投射到对象200。
投射到对象200的光束在对象200的表面上反射并且入射到第一镜头109。通常,对象200具有多个表面,该多个表面具有距离3D图像获取装置100的不同的距离,即,深度。为了简化描述,图1示出具有5个表面P1到P5的对象200,该5个表面P1到P5具有不同的深度。当投射光束从具有不同深度的5个表面P1到P5反射时,生成5个不同时间延迟(即,不同相位)的反射光束。
例如,当第一投射光束从对象200的5个表面P1到P5反射时生成具有不同相位的5个第一反射光束,并且当第二投射光束从对象200的5个表面P1到P5反射时生成具有不同相位的5个第二反射光束。同样,当第N投射光束从对象200的5个表面P1到P5反射时生成具有不同相位的5个第N反射光束。从距离3D图像获取装置100最远的表面P1反射的反射光束以ΦP1的相位延迟到达第一镜头109,并且从距离3D图像获取装置100最近的表面P5反射的反射光束以小于ΦP1的ΦP5的相位延迟到达第一镜头109。
第一镜头109将反射光聚焦在光调制器103的区域之内。用于仅发送具有预定波长的光的滤波器108可以布置在第一镜头109和光调制器103之间以除去除预定波长之外的诸如背景光的环境光。例如,当光源101发出具有大约850纳米的NIR波长的光时,滤波器108可以是用于发送大约850纳米的NIR波段的NIR带通滤波器。从而,虽然入射到光调制器103的光可以几乎全是从光源101发出的并从对象200反射的光,但是环境光也包括在其中。虽然图1示出滤波器108布置在第一镜头109和光调制器103之间,但是第一镜头109和滤波器108的位置可以交换。例如,首先穿过滤波器108的NIR光可以通过第一镜头109聚焦于光调制器103。
光调制器103将反射光调制成为具有预定波长的光调制信号。为了描述方便起见,假定对象200的5个表面P1到P5对应于图像拾取装置105的划分在5个区域中的像素。光调制器103的增益波长的周期可以与投射光长的周期相同。在图1中,光调制器103可以调制从对象200的5个表面P1到P5反射的5个第一反射光束并且向图像拾取装置105提供调制光束,以及顺次地,可以对5个第二反射光束到5个第N反射光束依次进行调制并且向图像拾取装置105提供调制光束。当反射光穿过光调制器103时可以按照将反射光乘以光调制信号获得的值来调制反射光的强度。光调制信号的周期可以与投射光的周期相同。
从光调制器103输出的强度已调制光由第二镜头110进行倍率调整并重调焦距并且到达图像拾取装置105。从而,已调制光通过第二镜头110聚集在图像拾取装置105的区域之内。图像拾取装置105可以通过与光源101和光调制器103同步在预定时间期间接收已调制光以生成子图像。图像拾取装置105曝光以接收已调制光的时间是图像拾取装置105的曝光时间。
现在将描述从N个反射光束生成N个子图像的方法。
图2(A)到图2(D)示出根据本发明的实施例的、通过调制N个不同的反射光束生成N个不同的子图像的过程。
如图2(A)所示,图像拾取装置105通过在从对象200的5个表面P1到P5反射之后在预定曝光时间期间接收被调制的5个第一反射光束来生成第一子图像。此后,如图2(B)所示,图像拾取装置105通过在从对象200的5个表面P1到P5反射之后在预定曝光时间期间接收被调制的5个第二反射光束来生成第二子图像。在重复这些程序之后,如图2(C)所示,图像拾取装置105通过在从对象200的5个表面P1到P5反射之后在预定曝光时间期间接收被调制的5个第N反射光束来最终生成第N子图像。以这样的方式,可以依次获得如图2(D)所示的N个不同的子图像。
第一子图像到第N子图像可以是用于生成图像的单个帧的子帧图像。例如,假定单个帧的周期是Td,则图像拾取装置105获得第一子图像到第N子图像的每一个的曝光时间可以是大约Td/N。
在图2(A)到图2(D)中,已经描述通过使用N个不同的投射光束和N个不同的反射光束来生成N个不同的子图像的情况。然而,还有可能将相同的反射光束用于全部子图像并且光调制器103利用不同的增益波形来调制用于子图像的每一个的反射光束。
图3(A)到图3(D)示出根据本发明的实施例的、利用一个相同的投射光束和N个不同的光学调制信号生成N个不同的子图像的过程。参照图3,通过从对象200反射投射光束生成的反射光束对于全部子图像具有相同的波形和相位。如上所述,根据对象200的表面P1到P5,用于每个子图像的反射光束具有不同的相位时延ΦP1到ΦP5。如图3(A)到图3(C)所示,光调制器103通过使用第一光调制信号调制5个第一反射光束,通过使用不同于第一光调制信号的第二光调制信号调制5个第二反射光束,并且通过使用不同于任何其他光调制信号的第N光调制信号调制5个第N反射光束。此处,第一光调制信号到第N光调制信号可以具有彼此完全不同的波形或者具有相同的周期和波形但是它们的相位不同。因此,如图3(D)所示,图像拾取装置105可以获得N个彼此不同的第一子图像到第N子图像。
在下文中,描述通过使用信号波形生成子图像的方法。
为了描述方便起见,光源101向对象200投射N个不同的投射光并且光调制器103使用单个相同的光调制信号的实施例被描述为示例。然而,下面理论上的描述可以同等地施加于使用一个相同的投射光束和N个不同的光调制信号的情况。此外,因为计算深度信息的方法同等地应用于每个像素甚至用于由图像拾取装置105形成的子图像是2D阵列子图像的情况,所以仅描述应用于单个像素的方法。然而,当同时从2D阵列子图像中的多个像素计算深度信息时,通过省略将要通过有效地处理数据管理和存储器分配来重复地处理的部分可以减少计算量。
首先,具有周期Te的通用的投射光的波形Pe可以由等式1表达。
此处,s表示用于识别彼此不同的第一投射光束到第N投射光束的标识符。例如,当使用N个投射光束时,s=1,2,...,N。此外,ω表示每个投射光束的波形的角频率,其中ω=2π/Te。此外,a(s)表示投射光束的强度,并且θ(s)表示投射光束的相位。此外,表示可以存在于每个投射光束中的直流电(DC)偏移值。
在投射光从对象200反射之后返回到3D图像获取装置100的具有相位差ΦTOF的反射光的波形Pr可以由等式2表达。
此外,光调制器103的光调制信号的波形G可以由等式3表达。在等式3中,系数c表示光调制信号的强度并且表示可以存在于光调制信号中的DC偏移值。此处,假定控制光调制器103以使得光调制信号的角频率ω与投射光的角频率相同。
在穿过光调制器103之后到达图像拾取装置105的光的波形可以是通过将由等式2表达的反射光乘以光调制信号获得的结果。从而,到达图像拾取装置105的光的瞬时波形Iinst可以由等式4表达。
图像拾取装置105可以通过在预定曝光时间T期间接收入射光来生成子图像。从而,通过在曝光时间T期间将由等式4表达的瞬时波形积分来获得由图像拾取装置105生成的子图像。此处,曝光时间T可以与子帧的周期相同。例如,当以30帧每秒的速度执行拍摄并且每个帧具有N个子帧时,曝光时间T可以是大约0.033/N秒。虽然依据图像拾取装置105的灵敏度,在到达图像拾取装置105的光的强度与由图像拾取装置105形成的子图像之间可以存在预定转化比率,但是为了描述方便起见,可以简化预定转化比率以便由等式5定义图像拾取装置105的子图像I(s)。
如由等式5表达的,形成的子图像I(s)包括环境光分量。诸如太阳光或照明光的环境光具有的基本性能是它总是以均匀的量存在。相反地,可以依照期望来调整投射光的波形。因此,光源101与光调制器103同步以使得投射光在预定时间期间集中地投射并且光调制器103在该预定时间期间操作以调制反射光。此外,光调制器103可以在投射光不投射的时间期间不操作,以保持最小透射率,从而防止接收环境光。通过此操作,可以减少等式5的环境光分量。此处,投射光的投射时间对投射光的非投射时间的比率被称为占空比。当占空比小于100%时,光被间断地投射。
图4A是当投射光的占空比是100%时、当3D图像被拍摄时的时间图,并且图4B是当投射光的占空比是20%时、当3D图像被拍摄时的时间图。在图4A和图4B中,光源101、光调制器103、和图像拾取装置105操作。假定从光源101输出的光是红外光并且图4B的光源101通过仅在预定时间期间增加瞬时功率来向对象200集中地投射光以使得相同的光强度入射到光调制器103。在图4A和图4B中,环境光的强度和红外光的强度仅是示例并且不限于此。当然,具有100%的占空比的红外光的强度可以大于环境光的强度。例如,在室内、多云、或暗环境中红外光的强度可以大于环境光的强度,而在海边或阳光充足的环境中,环境光的强度可以大于红外光的强度。
在图4A中,光调制器103与光源101的光投射时间同步并且调制从对象200反射的光。然后,图像拾取装置105通过使用已调制光生成子图像。此处,因为入射到光调制器103的光还包括除从光源101投射的以及从对象200反射的光之外的环境光,所以光调制器103可以调制包括环境光的光,并且由图像拾取装置105生成的子图像还可以包括环境光分量。
图4B的光源101通过仅仅在预定时间期间增加瞬时功率来向对象200集中地投射光。此外,光调制器103的操作时间与光源101的光投射时间同步并且调制从对象200反射的光。此外,光调制器103可以在投射光不投射的时间期间不操作,以保持最小透射率,从而防止接收环境光。结果,在由图像拾取装置105拍摄的子图像中,可以减少环境光分量并且可以保持光源101的投射光分量。因此,当投射光的占空比从100%减少到20%时,环境光分量也可以减少1/5,并且由环境光分量引起的信噪比(S/N)可以增加5倍。
如上所述,为了减少环境光分量,光源101应该以小于100%的占空比投射光。此外,光调制器103的操作时间应该与光源101的光投射时间同步并且以数十到数百兆赫的高调制频率同时操作。作为满足此条件的光调制器103,例如,可以使用包括MCP的子图像增强器、GaAs系列的固态光调制器、或使用电光材料的薄型光调制器。
图像拾取装置105可以操作为全局快门或卷帘快门。全局快门的工作原理是当生成单个子图像时全部像素同时曝光。从而,在像素之间不存在曝光时间差。然而,卷帘快门的工作原理是当生成单个子图像时每个像素依次曝光。从而,在每两个像素之间存在曝光时间差。
图像拾取装置105的曝光时间还可以与光源101的光投射时间以及光调制器103的操作时间同步。当图像拾取装置105操作为全局快门时,控制器107将图像拾取装置105的曝光时间与光调制器103的操作时间同步。即使当图像拾取装置105操作为卷帘快门的时候,如果图像拾取装置105的全部像素的曝光时间等于或长于光调制器103的操作时间,则控制器107可以将图像拾取装置105的曝光时间与光调制器103的操作时间同步。
图5是根据本发明的实施例的、当通过将光源101、光调制器103、以及图像拾取装置105彼此同步来拍摄图像时的时间图。为了描述方便起见,图5示出利用具有不同相位差的4个投射光束拍摄图像的方法。
如图5所示,当图像拾取装置105操作为卷帘快门时,图像拾取装置105的曝光时间和子图像形成时间以行为基础变化。也就是说,图像拾取装置105以行为基础有时间延迟地拍摄和形成子图像。
在图5中,光源101的光投射时间、光调制器103的操作时间、以及图像拾取装置105的曝光时间彼此同步,并且图像拾取装置105的全部像素可以在图像拾取装置105的曝光时间期间曝光。在这种情况下,由图像拾取装置105形成的N个子图像可以依次一对一匹配于N个反射光束。
当光调制器103的单个操作时间比图像拾取装置105中的全部像素的曝光时间更短时,图像拾取装置105的全部像素可以并不都在光调制器103的单个操作时间期间曝光。
图6是当在光调制器103的单个操作时间期间、图像拾取装置105的全部像素并不都被曝光时、当图像被拍摄时的时间图。为了描述方便起见,图6示出利用具有不同相位差的4个投射光束拍摄图像的方法。
如图6所示,在光调制器103的单个操作时间期间可以并不曝光图像拾取装置105的整个像素区域。因此,N个反射光束可以不依次一对一地匹配由图像拾取装置105形成的行子图像。在这种情况下,信号处理器106将由图像拾取装置105以行为基础形成的行子图像I1’、I2’、I3’、和I4’转换成为一对一匹配N个反射光束0°、90°、180°、和270°的行子图像I1、I2、I3、和I4。
为此,信号处理器106可以将由等式6表达的转换矩阵应用于由图像拾取装置105以行为基础形成的行子图像。在等式6中,示出了用于转换对应于4个反射光束的4个行子图像I1’、I2’、I3’、和I4’的4*4转换矩阵。当然,N*N转换矩阵可以应用于N个行子图像。
此处,k表示图像拾取装置105的行,并且Aij表示基于图像拾取装置105的曝光时间和子图像的成像时间而预先定义和存储的转换值。
例如,图6中的第一行的转换表达式由等式7表达。
由等式8表达最后的行,即,第1238行的转换表达式。
通过转换矩阵转换的子图像I(s)可以应用于等式5。
在将N个行子图像与N个相位差进行一对一匹配之后,信号处理器106通过组合基于行的行子图像来生成N个子图像然后从N个子图像计算深度信息。
图7是用于描述根据本发明的实施例的、从N个不同的图像计算深度信息的过程的示意图。参照图7,信号处理器106通过将N个子图像分别乘以加权因子A1到AN,并且对加权的子图像取平均来生成第一平均值图像V,并且通过将N个子图像分别乘以加权因子B1到BN,并且对加权的子图像取平均来生成第二平均值图像U。
可以基于子图像的数量N预先定义和存储应用于此实施例的加权因子A1到AN以及B1到BN。例如,加权因子Ak和Bk可以由等式9表达。
在等式9中,i和j表示自然数1到N当中不同于k的任何其他数字(i≠k,j≠k),a(i)表示投射光束i的强度,并且相位θ(i)表示投射光束i的相位差。
在3D图像获取装置100的操作中,可以通过使用投射光束i的预定义的强度a(i)和相位θ(i)来数字化加权因子Ak和Bk,以将其用于计算深度信息。
图8是根据本发明的实施例的、示出加权因子Ak和Bk的表格。
在图8的表格中,假定投射光的强度对任何情况是都一样的并且通过用N等分360°来定义相位。例如,当N=3时,相位θ(1)、θ(2)、和θ(3)分别是0°、120°、和240°。
如图8所示,当预先计算的加权因子存储在3D图像获取装置100的存储器(未示出)中时,信号处理器106在每次计算深度信息时不必重新计算加权因子。也就是说,信号处理器106可以依据拍摄的子图像的数量从存储器读取适当的加权因子,并且执行将拍摄的子图像乘以读取的加权因子的计算。从而,深度信息的实时计算是可能的。此外,因为可以显著地减少除去不规则噪声必需的存储器使用量和计算量,所以可以减少3D图像获取装置100的尺寸和制造成本。
虽然图8的表格示出用于投射光的强度和相位的一个集合的加权因子,但是在实际使用时可以预先计算用于投射光的强度和相位的不同的集合的加权因子的集合。因此,当深度信息被计算时,信号处理器106可以从存储器读取对应于使用的投射光的强度和相位的集合以及拍摄的子图像的数量的加权因子的集合。此处,存储器可以包括在控制器107或者信号处理器106中或者可以是分离的储存设备。
如上所述的加权因子的使用可以允许信号处理器106甚至使用仅利用乘法和加法的权重平均法而不使用复杂的平均算法来计算除去了不规则噪声的深度信息。
信号处理器106可以从第一平均值图像V对第二平均值图像U的比率V/U的反正切值(arctan=tan-1)来计算深度信息。深度信息由等式10计算。
在等式10中,C表示光速而Te表示投射光波形的周期。
虽然已经在图7中描述信号处理器106在接收全部N个子图像之后计算图像的帧的深度信息,然后在接收全部N个新子图像之后计算图像的后续的帧的深度信息,但是信号处理器106不限于此。也就是说,信号处理器106可以更新用于每个子图像的深度信息。
例如,从第一子图像到第N子图像计算深度信息的方法与参照图3描述的方法相同。此后,当获得第(N+1)子图像时,可以通过除去第一子图像而使用第二子图像到第(N+1)子图像按照以上描述的权重平均法来重新计算深度信息。同样,当获得第(N+2)子图像时,可以通过除去第二子图像而使用第三子图像到第(N+2)子图像来重新计算深度信息。以这种方式,当N个子图像以先进先出(FIFO)方法保持在存储器中时,可以计算用于每子图像的新的深度信息。
此外,虽然已经描述了一个接一个地添加新子图像和同时一个接一个地除去现有的子图像的方法,但是可以在除去多个现有的子图像的同时添加相同数量的新的子图像。例如,通过添加小于N个的新子图像并除去相同数量的旧的子图像将子图像的总数保持为N。
可替换地,为了计算第一平均图像V和第二平均图像U,信号处理器106可以通过使用由等式11表达的递归求和来计算第一平均图像V和第二平均图像U。
VN+1=VN+ANI(N)
UN+1=UN+BNI(N) (11)
在这种情况下,当第N子图像被拍摄时,信号处理器106更新第一平均图像VN和第二平均图像UN并且除去当第(N-1)子图像被拍摄时生成的第一平均图像VN-1和第二平均图像UN-1。如上所述,如果以递归求和法生成第一平均图像和第二平均图像,则不必存储全部N个子图像,因此可以节省存储器空间。当包括深度信息的子图像具有多于百万像素的高分辨率时此存储空间可能是显著的。
在此实施例中,已经描述了在像素以2D阵列形式排列的图像拾取装置105中生成子图像的方法。然而,无论像素是否以1D阵列形式排列或是存在单个像素,都可以应用此子图像生成方法。
图9是示出上面已经描述的、计算深度信息的方法的流程图。参照图9,在操作S1中,光源101在控制器107控制之下向对象200依次投射N个不同的投射光束。此处,N可以是3或更大的自然数。N个不同的投射光束可以具有周期相同而强度或相位彼此不同的波形。N个不同的投射光束从对象200的表面反射然后依次入射到光调制器103作为N个不同的反射光束。在操作S2中,光调制器103的操作时间与光源101的光投射时间同步,并且光调制器103利用具有预定增益波形的光调制信号来调制从对象200的表面反射的N个不同的反射光束。此处,光调制信号可以是具有与投射光束的周期相同周期的周期波。如上所述,当通过将光源101的光投射时间与光调制器103的操作时间同步而仅仅在预定时间期间投射光时,并且当投射光被调制时,可以最小化已调制光中的环境光。
在操作S3中,图像拾取装置105通过依次拍摄N个调制的反射光束来生成N个子图像。图像拾取装置150的曝光时间还可以与光调制器103的操作时间同步。N个生成的子图像被传送到信号处理器106。
由图像拾取装置150生成的N个子图像可以依次与N个反射光束一对一匹配。然而,当N个子图像无法依次与N个反射光束一对一匹配时,则信号处理器106可以以行为基础转换N个子图像并且将N个基于行的子图像与N个反射光束一对一匹配。
在操作S4中,信号处理器106从存储器读取预定的预先计算的加权因子Ak和Bk。如上所述,可以基于使用的投射光束的数量N、投射光束的强度、以及投射光束的相位来定义加权因子Ak和Bk。依据投射光束的数量N、投射光束的强度、以及投射光束的相位的不同的集合,不同的加权因子Ak和Bk被预先计算并存储在存储器中。信号处理器106可以从存储在存储器中的不同的加权因子Ak和Bk当中读取对应于实际使用的投射光束的数量N、投射光束的强度、以及投射光束的相位的加权因子。
在操作S5中,信号处理器106通过将与N个反射光束一对一匹配的N个子图像乘以第一加权因子Ak并且对乘法结果取平均来获得第一平均图像V。同样,在操作S6中,信号处理器106通过将N个子图像乘以第二加权因子Bk并且对乘法结果取平均来获得第二平均图像U。在操作S7中,信号处理器106从第一平均图像V对第二平均图像U的比率(V/U)来计算深度信息,该深度信息是从3D图像获取装置100到对象200的距离。依据当前实施例,即使子图像的数量N增加,因为获得第一平均图像V和第二平均图像U所仅使用的乘法和加法操作按比例增加,所以在计算量方面的增加非常小。从而,可以仅利用相对较小计算量获得除去了不规则噪声的非常精确的深度信息。
如上所述,虽然在图9中已经描述了使用N个不同的投射光束的实施例,但是可以使用N个不同的光调制信号而不使用N个不同的投射光束。例如,N个不同的光调制信号可以是具有相同周期和波形以及不同强度或相位的周期波。甚至在这种情况下,也可以由图像拾取装置105获得N个不同的子图像,并且可以同等地应用计算深度信息的后续处理。然而,可以依据N个不同的光调制信号的强度和相位定义第一加权因子和第二加权因子。
如上所述,可以通过专用IC或安装在诸如个人计算机(PC)的通用计算机设备中的软件来实现信号处理器106,该信号处理器106用于通过执行以上描述的操作计算除去了不规则噪声的深度信息。当通过软件实现信号处理器106时,信号处理器106可以以计算机可运行的格式存储在分离的便携式存储介质中。
已经描述并在附图中示出了3D图像获取装置和该3D图像获取装置中计算深度信息的方法的示范性实施例。然而,应当理解,在其中描述的示范性实施例应该被认为仅出于描述意义而不是限制目的。每个实施例内的特征或方面的描述应当通常被认为是可以用在其它实施例中其它相似的特征或方面。
Claims (39)
1.一种三维(3D)图像获取装置,包括:
光调制器,用于调制从被依次投射N个光束的对象反射的光,其中N是3或更大的自然数;
图像拾取装置,用于通过拍摄由所述光调制器调制的光来生成N个子图像;以及
信号处理器,用于通过使用所述N个子图像来计算关于到所述对象的距离的深度信息。
2.如权利要求1所述的3D图像获取装置,其中所述N个光束被间断地投射。
3.如权利要求1所述的3D图像获取装置,其中所述N个投射光束彼此不同并由一个或多个光源发出。
4.如权利要求3所述的3D图像获取装置,其中所述一个或多个光源以预定时间间隔依次投射所述N个光束。
5.如权利要求1所述的3D图像获取装置,其中所述光调制器的操作时间与所述N个光束的每一个的投射时间同步。
6.如权利要求5所述的3D图像获取装置,其中所述光调制器的操作时间比所述N个光束的每一个的投射时间更短。
7.如权利要求5所述的3D图像获取装置,其中所述图像拾取装置的曝光时间与所述光调制器的操作时间同步。
8.如权利要求1所述的3D图像获取装置,其中所述图像拾取装置在光投射时间期间曝光以拍摄已调制光并在光投射时间的剩余时间的至少一部分期间形成所述N个子图像。
9.如权利要求1所述的3D图像获取装置,其中在光投射时间期间所述图像拾取装置的全部像素都曝光给已调制光。
10.如权利要求1所述的3D图像获取装置,其中所述N个光束是具有相同周期且从由不同强度和不同相位构成的组中选择的至少一个的周期波。
11.如权利要求10所述的3D图像获取装置,其中所述光调制器利用相同调制信号调制反射的光。
12.如权利要求1所述的3D图像获取装置,其中所述N个光束是相同的周期波。
13.如权利要求1所述的3D图像获取装置,其中所述光调制器利用不同的调制信号调制反射的光。
14.如权利要求1所述的3D图像获取装置,其中所述N个光束当中在相邻的时间投射的任何两个光束之间的相位差是通过用N等分360°获得的值。
15.如权利要求1所述的3D图像获取装置,其中所述反射的光包括通过从所述对象反射所述N个光束获得的N个反射光束。
16.如权利要求1所述的3D图像获取装置,其中由所述图像拾取装置生成的所述N个子图像依次一对一匹配N个反射光束。
17.如权利要求1所述的3D图像获取装置,其中,如果所述N个子图像不一对一匹配N个反射光束,则所述信号处理器以行为基础转换所述N个子图像并且将N个基于行的子图像依次一对一匹配所述N个反射光束。
18.如权利要求1所述的3D图像获取装置,其中所述信号处理器通过对乘以第一加权因子的所述N个子图像取平均来生成第一平均图像,对乘以第二加权因子的所述N个子图像取平均来生成第二平均图像,并且从所述第一平均图像和所述第二平均图像计算深度信息。
19.如权利要求18所述的3D图像获取装置,其中从所述第一平均图像对所述第二平均图像的比率的反正切值计算所述深度信息。
20.一种计算深度信息的方法,所述方法包括:
调制从被依次投射N个光束的对象反射的光,其中N是3或更大的自然数;
通过拍摄已调制光来生成N个子图像;以及
通过使用所述N个子图像来计算关于到所述对象的距离的深度信息。
21.如权利要求20所述的方法,其中所述N个光束被间断地投射。
22.如权利要求20所述的方法,其中所述N个投射光束彼此不同并且由一个或多个光源发出。
23.如权利要求22所述的方法,其中所述N个光束以预定时间间隔依次被投射。
24.如权利要求20所述的方法,其中用于调制光的所述光调制器的操作时间与所述N个光束的每一个的投射时间同步。
25.如权利要求24所述的方法,其中所述光调制器的操作时间比所述N个光束的每一个的投射时间更短。
26.如权利要求24所述的方法,其中用于拍摄光的所述图像拾取装置的曝光时间与所述光调制器的操作时间同步。
27.如权利要求26所述的方法,其中在光投射时间期间所述图像拾取装置的全部像素都曝光给已调制光。
28.如权利要求20所述的方法,其中所述N个光束是具有相同周期且从由不同强度和不同相位构成的组中选择的至少一个的周期波,并且利用相同调制信号调制所述反射的光。
29.如权利要求20所述的方法,其中所述N个光束是相同的周期波,并且利用不同调制信号调制所述反射的光。
30.如权利要求20所述的方法,其中所述N个光束当中在相邻的时间投射的任何两个光束之间的相位差是通过用N等分360°获得的值。
31.如权利要求20所述的方法,其中所生成的N个子图像依次一对一匹配N个反射光束。
32.如权利要求20所述的方法,还包括,如果所述N个子图像不一对一匹配N个反射光束,则以行为基础转换所述N个子图像并且将所述N个基于行的子图像依次一对一匹配所述N个反射光束。
33.如权利要求20所述的方法,其中通过对乘以第一加权因子的所述N个子图像取平均来生成第一平均图像,对乘以第二加权因子的N个子图像取平均来生成第二平均图像,并且从所述第一平均图像和所述第二平均图像计算深度信息。
34.如权利要求33所述的方法,其中从所述第一平均图像对所述第二平均图像的比率的反正切值计算所述深度信息。
35.一种三维(3D)图像获取装置,包括:
光调制器,其调制从被间断地投射N个光束的对象反射的光;
控制器,其控制所述光调制器以使所述光调制器与所述N个光束中的每一个光束的投射时间同步。
36.如权利要求35所述的3D图像获取装置,还包括:
光源,其生成被依次投射的N个光束。
37.如权利要求35所述的3D图像获取装置,其中,N是大于或等于3的自然数。
38.如权利要求35所述的3D图像获取装置,还包括:
图像传感器,其通过拍摄由所述光调制器调制的光来生成N个子图像,
其中,所述图像传感器的曝光时间与所述光调制器的操作时间同步。
39.如权利要求38所述的3D图像获取装置,还包括:
信号处理器,其通过使用所述N个子图像来计算关于到所述对象的距离的深度信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110109431A KR101854188B1 (ko) | 2011-10-25 | 2011-10-25 | 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법 |
KR10-2011-0109431 | 2011-10-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103079085A true CN103079085A (zh) | 2013-05-01 |
CN103079085B CN103079085B (zh) | 2016-12-21 |
Family
ID=47221902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210315255.8A Active CN103079085B (zh) | 2011-10-25 | 2012-08-30 | 三维图像获取装置及计算该装置中的深度信息的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9418425B2 (zh) |
EP (1) | EP2587276A1 (zh) |
JP (1) | JP6132510B2 (zh) |
KR (1) | KR101854188B1 (zh) |
CN (1) | CN103079085B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI511079B (zh) * | 2014-04-30 | 2015-12-01 | Au Optronics Corp | 三維影像校正裝置及三維影像校正方法 |
CN105611193A (zh) * | 2014-11-13 | 2016-05-25 | 三星电子株式会社 | 深度感测方法、三维图像传感器及其装置 |
CN106657969A (zh) * | 2015-10-29 | 2017-05-10 | 三星电子株式会社 | 用于获得图像的装置和方法 |
CN107765260A (zh) * | 2016-08-22 | 2018-03-06 | 三星电子株式会社 | 用于获取距离信息的方法、设备及计算机可读记录介质 |
CN107925751A (zh) * | 2015-12-07 | 2018-04-17 | 谷歌有限责任公司 | 用于多视点降噪和高动态范围的系统和方法 |
CN108616735A (zh) * | 2016-12-02 | 2018-10-02 | 北京三星通信技术研究有限公司 | 用于获得对象的三维深度图像的装置和方法 |
CN108845332A (zh) * | 2018-07-04 | 2018-11-20 | 歌尔股份有限公司 | 基于tof模组的深度信息测量方法及装置 |
CN109314775A (zh) * | 2015-12-21 | 2019-02-05 | 英特尔公司 | 用于增强深度相机系统的信噪比性能的系统和方法 |
CN109358339A (zh) * | 2018-08-31 | 2019-02-19 | 北京理工大学 | 一种基于固态面阵激光雷达的草地高度测量方法 |
CN110850441A (zh) * | 2017-08-15 | 2020-02-28 | 黑芝麻智能科技(上海)有限公司 | 使用全局快门图像传感器进行障碍物检测 |
WO2020192039A1 (en) * | 2019-03-27 | 2020-10-01 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Three-dimensional localization using light-depth images |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101722641B1 (ko) * | 2010-12-23 | 2017-04-04 | 삼성전자주식회사 | 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법 |
US9678209B2 (en) * | 2012-09-13 | 2017-06-13 | The United States Of America As Represented By The Secretary Of The Army | System for laser detection with enhanced field of view |
US8908041B2 (en) | 2013-01-15 | 2014-12-09 | Mobileye Vision Technologies Ltd. | Stereo assist with rolling shutters |
KR102241837B1 (ko) | 2013-02-13 | 2021-04-19 | 쓰리세이프 에이/에스 | 컬러를 기록하는 포커스 스캐닝 장치 |
JP6025081B2 (ja) * | 2013-02-28 | 2016-11-16 | 株式会社テクノロジーハブ | 距離画像センサ |
LU92173B1 (en) * | 2013-03-20 | 2014-09-22 | Iee Sarl | Distance determination method |
KR102056904B1 (ko) | 2013-05-22 | 2019-12-18 | 삼성전자주식회사 | 3차원 영상 획득 장치 및 그 구동 방법 |
JP5789765B2 (ja) * | 2013-06-07 | 2015-10-07 | パナソニックIpマネジメント株式会社 | 画像取得装置、画像取得方法、およびプログラム |
KR102163728B1 (ko) * | 2013-12-05 | 2020-10-08 | 삼성전자주식회사 | 거리영상 측정용 카메라 및 이를 이용한 거리영상 측정방법 |
KR102101864B1 (ko) * | 2014-01-29 | 2020-04-20 | 엘지이노텍 주식회사 | 깊이 정보 추출 장치 |
EP3101382A4 (en) | 2014-01-29 | 2017-08-30 | LG Innotek Co., Ltd. | Device for extracting depth information and method thereof |
US10419703B2 (en) * | 2014-06-20 | 2019-09-17 | Qualcomm Incorporated | Automatic multiple depth cameras synchronization using time sharing |
KR102194237B1 (ko) * | 2014-08-29 | 2020-12-22 | 삼성전자주식회사 | 깊이 영상 촬영 장치 및 깊이 정보 획득 방법 |
KR101610512B1 (ko) | 2014-09-23 | 2016-04-07 | 현대자동차주식회사 | 스테레오 카메라 및 그 작동 방법 |
US10422879B2 (en) * | 2014-11-14 | 2019-09-24 | Denso Corporation | Time-of-flight distance measuring device |
US10061029B2 (en) * | 2015-01-06 | 2018-08-28 | Samsung Electronics Co., Ltd. | Correction of depth images from T-O-F 3D camera with electronic-rolling-shutter for light modulation changes taking place during light integration |
US10024966B2 (en) * | 2015-01-28 | 2018-07-17 | Texas Instruments Incorporated | Efficient implementation of distance de-aliasing for ranging systems using phase domain computation |
KR102513628B1 (ko) * | 2015-04-24 | 2023-03-24 | 소니그룹주식회사 | 고체 촬상 소자, 반도체 장치, 및, 전자 기기 |
WO2016189808A1 (ja) * | 2015-05-28 | 2016-12-01 | パナソニックIpマネジメント株式会社 | 測距撮像装置、その測距方法及び固体撮像装置 |
KR102114969B1 (ko) | 2015-06-08 | 2020-06-08 | 삼성전자주식회사 | 광학 장치 및 깊이 정보 생성 방법 |
JP6849371B2 (ja) * | 2015-10-08 | 2021-03-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 側面発光レーザ光源、及びそれを含む三次元映像取得装置 |
KR102486385B1 (ko) | 2015-10-29 | 2023-01-09 | 삼성전자주식회사 | 깊이 정보 획득 장치 및 방법 |
KR102561099B1 (ko) * | 2016-09-23 | 2023-07-28 | 삼성전자주식회사 | ToF(time of flight) 촬영 장치 및 다중 반사에 의한 깊이 왜곡 저감 방법 |
WO2018166610A1 (en) * | 2017-03-16 | 2018-09-20 | Fastree3D Sa | Method and device for optimizing the use of multiple emitters and a detector in an active remote sensing application |
CN110537103A (zh) * | 2017-03-16 | 2019-12-03 | 法斯特里3D公司 | 主动式遥感应用中优化发射器和检测器使用的方法和装置 |
DE102017114565A1 (de) * | 2017-06-29 | 2019-01-03 | Osram Opto Semiconductors Gmbh | Optische Abstandsmessvorrichtung und Verfahren zum Betreiben einer optischen Abstandsmessvorrichtung |
US10972643B2 (en) * | 2018-03-29 | 2021-04-06 | Microsoft Technology Licensing, Llc | Camera comprising an infrared illuminator and a liquid crystal optical filter switchable between a reflection state and a transmission state for infrared imaging and spectral imaging, and method thereof |
US10924692B2 (en) | 2018-05-08 | 2021-02-16 | Microsoft Technology Licensing, Llc | Depth and multi-spectral camera |
KR20200013453A (ko) * | 2018-07-30 | 2020-02-07 | 삼성전자주식회사 | 3차원 영상 표시 장치 및 영상 처리 방법 |
KR102560397B1 (ko) * | 2018-09-28 | 2023-07-27 | 엘지이노텍 주식회사 | 카메라 장치 및 그의 깊이 정보 추출 방법 |
KR102571864B1 (ko) * | 2018-10-31 | 2023-08-29 | 엘지이노텍 주식회사 | 카메라 장치 |
US11212456B2 (en) * | 2018-12-21 | 2021-12-28 | Sony Group Corporation | Synchronized projection and image capture |
KR102160472B1 (ko) | 2020-04-16 | 2020-09-28 | 주식회사 자오스모터스 | Led 헤드 램프 연동 자동차 라이다 시스템 |
TWI773133B (zh) * | 2020-07-10 | 2022-08-01 | 大陸商廣州印芯半導體技術有限公司 | 測距裝置以及測距方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1194056A (zh) * | 1995-06-22 | 1998-09-23 | 3Dv系统有限公司 | 改进型光学测距摄象机 |
CN1844852A (zh) * | 1995-06-22 | 2006-10-11 | 3Dv系统有限公司 | 生成景物的混合图象的方法 |
US20080231832A1 (en) * | 2007-03-23 | 2008-09-25 | Fujifilm Corporation | Ranging apparatus and ranging method |
CN101558283A (zh) * | 2006-10-16 | 2009-10-14 | 弗兰霍菲尔运输应用研究公司 | 用于三维轮廓的非接触检测装置及方法 |
CN101866056A (zh) * | 2010-05-28 | 2010-10-20 | 中国科学院合肥物质科学研究院 | 基于led阵列共透镜tof深度测量的三维成像方法和系统 |
US7995191B1 (en) * | 2006-06-29 | 2011-08-09 | Sandia Corporation | Scannerless laser range imaging using loss modulation |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3682553A (en) * | 1968-09-19 | 1972-08-08 | Optics Technology Inc | Apparatus for acquiring and laying real time 3-d information |
US5081530A (en) | 1987-06-26 | 1992-01-14 | Antonio Medina | Three dimensional camera and range finder |
US4935616A (en) * | 1989-08-14 | 1990-06-19 | The United States Of America As Represented By The Department Of Energy | Range imaging laser radar |
US5694203A (en) | 1995-01-31 | 1997-12-02 | Kabushikikaisha Wacom | Distance camera device having light gate for extracting distance information |
US6088086A (en) | 1995-09-11 | 2000-07-11 | Sandia Corporation | Range determination for scannerless imaging |
WO1999040478A1 (en) | 1998-02-08 | 1999-08-12 | 3Dv Systems Ltd. | Large aperture optical image shutter |
US6091175A (en) | 1998-03-12 | 2000-07-18 | Camco International, Inc. | Self-centering rotor bearing assembly for submersible pump motors |
JP4105801B2 (ja) | 1998-07-02 | 2008-06-25 | ペンタックス株式会社 | 3次元画像入力装置 |
JP3840341B2 (ja) | 1998-10-15 | 2006-11-01 | 浜松ホトニクス株式会社 | 立体情報検出方法及び装置 |
US6323942B1 (en) | 1999-04-30 | 2001-11-27 | Canesta, Inc. | CMOS-compatible three-dimensional image sensor IC |
US6118946A (en) | 1999-06-29 | 2000-09-12 | Eastman Kodak Company | Method and apparatus for scannerless range image capture using photographic film |
US6288776B1 (en) * | 1999-11-24 | 2001-09-11 | Eastman Kodak Company | Method for unambiguous range estimation |
US6856355B1 (en) | 1999-11-30 | 2005-02-15 | Eastman Kodak Company | Method and apparatus for a color scannerless range image system |
US6794628B2 (en) | 2000-01-03 | 2004-09-21 | 3Dv Systems, Ltd. | Solid state optical shutter |
EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
US6349174B1 (en) * | 2000-05-17 | 2002-02-19 | Eastman Kodak Company | Method and apparatus for a color scannerless range imaging system |
US6456793B1 (en) * | 2000-08-03 | 2002-09-24 | Eastman Kodak Company | Method and apparatus for a color scannerless range imaging system |
US7072096B2 (en) * | 2001-12-14 | 2006-07-04 | Digital Optics International, Corporation | Uniform illumination system |
JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
US7095487B2 (en) * | 2003-10-09 | 2006-08-22 | Honda Motor Co., Ltd. | Systems and methods for determining depth using shuttered light pulses |
JP4161910B2 (ja) | 2004-01-28 | 2008-10-08 | 株式会社デンソー | 距離画像データ生成装置及び生成方法,プログラム |
US7616243B2 (en) | 2007-03-07 | 2009-11-10 | Altasens, Inc. | Method and apparatus for improving and controlling dynamic range in an image sensor |
DE102007023738A1 (de) * | 2007-05-16 | 2009-01-08 | Seereal Technologies S.A. | Verfahren und Einrichtung zum Rekonstruieren einer dreidimensionalen Szene in einem holographischen Display |
US7746450B2 (en) * | 2007-08-28 | 2010-06-29 | Science Applications International Corporation | Full-field light detection and ranging imaging system |
US8492683B2 (en) | 2008-06-27 | 2013-07-23 | Omg, Inc. | Stand-up membrane roofing induction heating tool |
EP2116864A1 (en) | 2008-05-09 | 2009-11-11 | Vrije Universiteit Brussel | TOF range finding with background radiation suppression |
JP5448617B2 (ja) | 2008-08-19 | 2014-03-19 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
WO2010021090A1 (ja) * | 2008-08-20 | 2010-02-25 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
JP4629136B2 (ja) | 2008-10-15 | 2011-02-09 | 富士フイルム株式会社 | 測距装置および測距方法並びにプログラム |
US8619354B2 (en) | 2008-12-24 | 2013-12-31 | Samsung Electronics Co., Ltd. | High speed optical shutter, method of operating the same and apparatus including the same |
KR101520029B1 (ko) | 2008-12-31 | 2015-05-15 | 삼성전자주식회사 | 고정세화 패턴을 갖는 광 변조기 |
KR101547327B1 (ko) | 2009-01-15 | 2015-09-07 | 삼성전자주식회사 | 광 이미지 변조기와 이를 포함하는 광학장치와 광 이미지 변조기의 제조 및 구동방법 |
KR101603778B1 (ko) | 2009-01-19 | 2016-03-25 | 삼성전자주식회사 | 광 이미지 셔터 |
KR101623960B1 (ko) | 2009-06-04 | 2016-05-25 | 삼성전자주식회사 | 광전자 셔터, 이의 동작 방법 및 광전자 셔터를 채용한 광학 장치 |
KR101638974B1 (ko) | 2009-06-17 | 2016-07-13 | 삼성전자주식회사 | 광 변조기와 그 제조 및 동작방법과 광 변조기를 포함하는 광학장치 |
KR101706354B1 (ko) | 2009-06-24 | 2017-02-13 | 삼성전자주식회사 | 고속 광 변조기 및 이를 이용한 광 변조방법 |
WO2011020921A1 (en) | 2009-08-21 | 2011-02-24 | Iee International Electronics & Engineering S.A. | Time-of-flight sensor |
KR20110051391A (ko) | 2009-11-10 | 2011-05-18 | 삼성전자주식회사 | 외광의 영향을 줄이기 위한 깊이 픽셀 장치 및 동작 방법 |
KR101675111B1 (ko) | 2010-01-08 | 2016-11-11 | 삼성전자주식회사 | 광 이미지 셔터 및 그 제조 방법 |
KR101675112B1 (ko) * | 2010-01-21 | 2016-11-22 | 삼성전자주식회사 | 거리 정보 추출 방법 및 상기 방법을 채용한 광학 장치 |
KR101753312B1 (ko) | 2010-09-17 | 2017-07-03 | 삼성전자주식회사 | 뎁스 영상 생성 장치 및 방법 |
KR101598547B1 (ko) | 2010-12-03 | 2016-03-02 | 삼성전자주식회사 | 광 이미지 변조기 및 그 제조 방법 |
KR101660408B1 (ko) | 2010-12-20 | 2016-09-27 | 삼성전자주식회사 | 입사광의 입사각 보정기능을 갖는 광 이미지 변조기 및 이를 포함하는 광학장치 |
KR101722641B1 (ko) * | 2010-12-23 | 2017-04-04 | 삼성전자주식회사 | 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법 |
KR20120075182A (ko) | 2010-12-28 | 2012-07-06 | 삼성전자주식회사 | 다중 패브리-페로 공진 모드를 이용한 광변조기 및 상기 광변조기를 포함하는 3차원 영상 획득 장치 |
KR101669219B1 (ko) | 2010-12-30 | 2016-10-26 | 삼성전자주식회사 | 광변조기 및 이를 채용한 광학장치 |
KR101799521B1 (ko) | 2011-05-24 | 2017-11-20 | 삼성전자 주식회사 | 광결정형 광변조기 및 이를 구비하는 3차원 영상 획득 장치 |
KR101955334B1 (ko) * | 2012-02-07 | 2019-03-07 | 삼성전자주식회사 | 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법 |
-
2011
- 2011-10-25 KR KR1020110109431A patent/KR101854188B1/ko active IP Right Grant
-
2012
- 2012-08-24 US US13/594,094 patent/US9418425B2/en active Active
- 2012-08-30 CN CN201210315255.8A patent/CN103079085B/zh active Active
- 2012-09-05 EP EP12183111.9A patent/EP2587276A1/en not_active Ceased
- 2012-10-22 JP JP2012233225A patent/JP6132510B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1194056A (zh) * | 1995-06-22 | 1998-09-23 | 3Dv系统有限公司 | 改进型光学测距摄象机 |
CN1844852A (zh) * | 1995-06-22 | 2006-10-11 | 3Dv系统有限公司 | 生成景物的混合图象的方法 |
US7995191B1 (en) * | 2006-06-29 | 2011-08-09 | Sandia Corporation | Scannerless laser range imaging using loss modulation |
CN101558283A (zh) * | 2006-10-16 | 2009-10-14 | 弗兰霍菲尔运输应用研究公司 | 用于三维轮廓的非接触检测装置及方法 |
US20080231832A1 (en) * | 2007-03-23 | 2008-09-25 | Fujifilm Corporation | Ranging apparatus and ranging method |
CN101866056A (zh) * | 2010-05-28 | 2010-10-20 | 中国科学院合肥物质科学研究院 | 基于led阵列共透镜tof深度测量的三维成像方法和系统 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI511079B (zh) * | 2014-04-30 | 2015-12-01 | Au Optronics Corp | 三維影像校正裝置及三維影像校正方法 |
CN105611193B (zh) * | 2014-11-13 | 2019-11-26 | 三星电子株式会社 | 深度感测方法、三维图像传感器及其装置 |
CN105611193A (zh) * | 2014-11-13 | 2016-05-25 | 三星电子株式会社 | 深度感测方法、三维图像传感器及其装置 |
CN106657969A (zh) * | 2015-10-29 | 2017-05-10 | 三星电子株式会社 | 用于获得图像的装置和方法 |
US10760906B2 (en) | 2015-10-29 | 2020-09-01 | Samsung Electronics Co., Ltd. | Apparatus and method for obtaining three-dimensional depth image |
CN106657969B (zh) * | 2015-10-29 | 2020-08-11 | 三星电子株式会社 | 用于获得图像的装置和方法 |
CN107925751A (zh) * | 2015-12-07 | 2018-04-17 | 谷歌有限责任公司 | 用于多视点降噪和高动态范围的系统和方法 |
CN107925751B (zh) * | 2015-12-07 | 2019-06-04 | 谷歌有限责任公司 | 用于多视点降噪和高动态范围的系统和方法 |
CN109314775A (zh) * | 2015-12-21 | 2019-02-05 | 英特尔公司 | 用于增强深度相机系统的信噪比性能的系统和方法 |
CN107765260A (zh) * | 2016-08-22 | 2018-03-06 | 三星电子株式会社 | 用于获取距离信息的方法、设备及计算机可读记录介质 |
CN108616735A (zh) * | 2016-12-02 | 2018-10-02 | 北京三星通信技术研究有限公司 | 用于获得对象的三维深度图像的装置和方法 |
CN108616735B (zh) * | 2016-12-02 | 2021-08-06 | 北京三星通信技术研究有限公司 | 用于获得对象的三维深度图像的装置和方法 |
CN110850441A (zh) * | 2017-08-15 | 2020-02-28 | 黑芝麻智能科技(上海)有限公司 | 使用全局快门图像传感器进行障碍物检测 |
CN108845332A (zh) * | 2018-07-04 | 2018-11-20 | 歌尔股份有限公司 | 基于tof模组的深度信息测量方法及装置 |
CN108845332B (zh) * | 2018-07-04 | 2020-11-20 | 歌尔光学科技有限公司 | 基于tof模组的深度信息测量方法及装置 |
CN109358339A (zh) * | 2018-08-31 | 2019-02-19 | 北京理工大学 | 一种基于固态面阵激光雷达的草地高度测量方法 |
WO2020192039A1 (en) * | 2019-03-27 | 2020-10-01 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Three-dimensional localization using light-depth images |
Also Published As
Publication number | Publication date |
---|---|
KR101854188B1 (ko) | 2018-05-08 |
CN103079085B (zh) | 2016-12-21 |
US9418425B2 (en) | 2016-08-16 |
EP2587276A1 (en) | 2013-05-01 |
JP2013093847A (ja) | 2013-05-16 |
JP6132510B2 (ja) | 2017-05-24 |
KR20130045018A (ko) | 2013-05-03 |
US20130101176A1 (en) | 2013-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103079085A (zh) | 三维图像获取装置及计算该装置中的深度信息的方法 | |
US11166004B2 (en) | Three-dimensional computational imaging method and apparatus based on single-pixel sensor, and non-transitory computer-readable storage medium | |
US9826216B1 (en) | Systems and methods for compact space-time stereo three-dimensional depth sensing | |
CN104104941B (zh) | 三维图像获取装置以及生成深度图像的方法 | |
JP6977045B2 (ja) | 物体までの距離を決定するためのシステム及び方法 | |
CN106454287B (zh) | 组合摄像系统、移动终端及图像处理方法 | |
KR102486385B1 (ko) | 깊이 정보 획득 장치 및 방법 | |
US9451240B2 (en) | 3-dimensional image acquisition apparatus and 3D image acquisition method for simultaneously obtaining color image and depth image | |
US9667944B2 (en) | Imaging optical system and 3D image acquisition apparatus including the imaging optical system | |
US20120162197A1 (en) | 3-dimensional image acquisition apparatus and method of extracting depth information in the 3d image acquisition apparatus | |
CN104792259B (zh) | 激光器测量系统和方法 | |
US10205933B2 (en) | Depth image acquisition apparatus and method of acquiring depth information | |
CN102143342A (zh) | 投影照明与图像传感器的卷帘的同步 | |
US20180094919A1 (en) | Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor | |
KR20140137513A (ko) | 3차원 영상 획득 장치 및 그 구동 방법 | |
WO2021169531A1 (zh) | 一种ToF深度测量装置、控制ToF深度测量装置的方法及电子设备 | |
US10509125B2 (en) | Method and device for acquiring distance information | |
JP3414624B2 (ja) | 実時間レンジファインダ | |
US20230403385A1 (en) | Spad array for intensity image capture and time of flight capture | |
US11747135B2 (en) | Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor | |
CN112019660B (zh) | 电子装置的控制方法及电子装置 | |
CN212905431U (zh) | 基于时间飞行的深度相机 | |
Liu et al. | Study of three-dimensional sensing by using inverse square law | |
Kawakita et al. | Real‐time depth‐mapping three‐dimension TV camera (Axi‐Vision camera) | |
RU2543688C2 (ru) | Камера и оптическая система для получения 3d изображений (варианты) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |