CN102547355A - 图像传感器和操作该图像传感器的方法 - Google Patents

图像传感器和操作该图像传感器的方法 Download PDF

Info

Publication number
CN102547355A
CN102547355A CN2011104211830A CN201110421183A CN102547355A CN 102547355 A CN102547355 A CN 102547355A CN 2011104211830 A CN2011104211830 A CN 2011104211830A CN 201110421183 A CN201110421183 A CN 201110421183A CN 102547355 A CN102547355 A CN 102547355A
Authority
CN
China
Prior art keywords
light
light source
lens
source module
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011104211830A
Other languages
English (en)
Other versions
CN102547355B (zh
Inventor
张丞爀
朴允童
李容济
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN102547355A publication Critical patent/CN102547355A/zh
Application granted granted Critical
Publication of CN102547355B publication Critical patent/CN102547355B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

提供一种图像传感器和操作该图像传感器的方法。根据示例性实施例,一种操作三维图像传感器的方法包括:使用由光源模块发射的光测量物体与三维图像传感器的距离;基于测量的距离来调整由所述光源模块发射的光的发射角。所述三维图像传感器包括所述光源模块。

Description

图像传感器和操作该图像传感器的方法
本申请要求于2010年12月21日提交到韩国知识产权局(KIPO)的第2010-0131147号韩国专利申请的优先权,其内容通过引用全部包含于此。
技术领域
示例性实施例涉及图像传感器和操作该图像传感器的方法。
背景技术
图像传感器是一种光电检测器件,这种光电检测器件将包括物体的图像和/或距离(即,深度)信息的光信号转换为电信号。已经开发了各种类型的图像传感器(诸如电荷耦合器件(CCD)图像传感器、COMS图像传感器(CIS)等),以提供物体的高质量图像信息。近来,已经研究和开发了三维(3D)图像传感器,这种三维图像传感器提供深度信息以及二维图像信息。
三维图像传感器可使用红外光或近红外光作为光源来获得深度信息。在传统的三维图像传感器中,由于即使在不存在感兴趣的物体的区域也投射光,所以会浪费光能。
发明内容
根据示例性实施例,一种操作三维图像传感器的方法包括:使用由光源模块发射的光测量物体与三维图像传感器的距离;基于测量的距离来调整由所述光源模块发射的光的发射角。所述三维图像传感器包括所述光源模块。
根据示例性实施例,测量步骤包括:在所述光源模块以期望的发射角发射光;通过检测发射的光的飞行时间来测量物体与三维图像传感器的距离。
根据示例性实施例,当物体与三维图像传感器的距离增大时,所述调整步骤减小光的发射角。
根据示例性实施例,所述光源模块包括光源和透镜,所述调整步骤基于测量的距离调整光源和透镜之间的间隔。
根据示例性实施例,所述调整步骤移动光源或透镜,使得当物体与三维图像传感器的距离增大时,光源和透镜之间的间隔增大。
根据示例性实施例,所述光源模块包括光源和透镜,所述调整步骤基于测量的距离调整透镜的折射率。
根据示例性实施例,当物体与三维图像传感器的距离增大时,所述调整步骤增大透镜的折射率。
根据示例性实施例,所述光源模块包括光源和透镜,所述调整步骤基于测量的距离调整透镜的曲率。
根据示例性实施例,当物体与三维图像传感器的距离增大时,所述调整步骤增大透镜的曲率。
根据示例性实施例,所述方法还包括:根据光的发射角的增大或减小,调整由所述光源模块发射的光的幅度。
根据示例性实施例,当光的发射角减小时,所述调整步骤减小光的幅度。
根据示例性实施例,一种操作三维图像传感器的方法包括:使用由光源模块发射的光获得物体的位置信息;基于获得的物体的位置信息来调整光源与透镜的相对位置。所述三维图像传感器包括所述光源模块,所述光源模块具有所述光源和透镜。
根据示例性实施例,物体的位置信息包括下列中的至少一个:物体与三维图像传感器的距离、物体的水平位置、物体的竖直位置以及物体的尺寸。
根据示例性实施例,光源与透镜的相对位置包括下列中的至少一个:光源和透镜之间的间隔、光源的水平位置以及光源的竖直位置。
根据示例性实施例,物体的位置信息包括物体的水平位置和竖直位置,所述调整步骤移动光源或透镜,使得物体、光源和透镜位于一条直线上。
根据示例性实施例,一种操作图像传感器的方法包括:使用由光源模块发射的光获得物体的位置信息;基于获得的位置信息来调整由所述光源模块发射的光的发射角。所述图像传感器包括所述光源模块。
根据示例性实施例,获得物体的位置信息的步骤包括:从所述光源模块以期望的发射角发射光;通过检测发射的光的飞行时间来测量物体与图像传感器的距离。
根据示例性实施例,所述调整步骤基于物体与图像传感器的距离来调整光的发射角。
根据示例性实施例,所述调整步骤通过基于测量的距离调整光源和透镜之间的间距,来调整光的发射角。所述光源模块包括所述光源和透镜。
根据示例性实施例,所述调整步骤通过基于测量的距离调整包括在所述光源模块中的透镜的折射率,来调整光的发射角。
根据示例性实施例,所述调整步骤通过基于测量的距离调整包括在所述光源模块中的透镜的曲率,来调整光的发射角。
根据示例性实施例,所述方法还包括:根据光的发射角的增大或减小,调整由所述光源模块发射的光的幅度。
根据示例性实施例,获得物体的位置信息的步骤包括:从所述光源模块以期望的发射角发射光;通过对从物体反射的光进行至少两次采样,并且基于所述至少两次采样计算发射的光和反射的光之间的相位差,来获得物体与图像传感器的距离。
根据示例性实施例,一种图像传感器包括:光源模块,被配置为向物体发射光;像素阵列,被配置为接收从物体反射的光;控制器,被配置为基于接收的光获得物体的位置信息,并且基于获得的位置信息调整由所述光源模块发射的光的发射角。
根据示例性实施例,控制器被配置为获得物体与图像传感器的距离作为位置信息,并且基于所述距离调整发射的光的发射角。
根据示例性实施例,控制器还被配置为通过对从物体反射的光进行至少两次采样,并且基于所述至少两次采样计算发射的光和反射的光之间的相位差,来获得物体与图像传感器的距离,或者通过检测发射的光的飞行时间来获得物体与图像传感器的距离。
根据示例性实施例,所述光源模块包括光源和透镜,控制器还被配置为通过基于获得的距离调整所述光源和透镜之间的间距,来调整发射的光的发射角。
根据示例性实施例,所述光源模块包括光源和透镜,控制器还被配置为通过基于获得的距离调整所述透镜的折射率,来调整发射的光的发射角。
根据示例性实施例,所述光源模块包括光源和透镜,控制器还被配置为通过基于获得的距离调整所述透镜的曲率,来调整发射的光的发射角。
根据示例性实施例,控制器还被配置为根据发射的光的发射角的调整来调整由所述光源模块发射的光的幅度。
附图说明
通过参照附图详细描述示例性实施例,上述和其它特点及优点会变得更加清楚。附图意图在于描述示例性实施例,而不应被解释为限制权利要求所要求保护的范围。附图不应被认为是按比例绘制,除非有明确标注。
图1是示出根据示例性实施例的三维图像传感器的框图。
图2是用于描述由图1的三维图像传感器计算物体的距离的示例的示图。
图3是示出根据示例性实施例的操作三维图像传感器的方法的流程图。
图4是用于描述根据图3的方法测量物体的距离的示例的示图。
图5A和图5B是用于描述根据图3的方法调整光的发射角的示例的示图。
图6是示出根据示例性实施例的操作三维图像传感器的方法的流程图。
图7是用于描述根据图6的方法测量物体的水平位置和竖直位置的示例的示图。
图8是用于描述根据图6的方法调整光源与透镜的相对位置的示例的示图。
图9是示出根据示例性实施例的操作三维图像传感器的方法的流程图。
图10是用于描述根据图9的方法测量物体的尺寸的示例的示图。
图11是示出根据示例性实施例的操作三维图像传感器的方法的流程图。
图12是示出包括根据示例性实施例的三维图像传感器的相机的框图。
图13是示出包括根据示例性实施例的三维图像传感器的计算系统的框图。
图14是示出在图13的计算系统中使用的接口的示例的框图。
具体实施方式
在下文中将参照附图更全面地描述各种示例性实施例,在附图中示出了一些示例性实施例。然而,本发明构思可以以许多不同的形式来实施,不应该被解释为限于在此阐述的示例性实施例。在附图中,为了清晰起见,可能会夸大层和区域的尺寸和相对尺寸。
应该理解,当元件或层被称为“在”另一元件或层“上”、“连接到”或“结合到”另一元件或层时,该元件或层可以直接在另一元件或层上,直接连接或结合到另一元件或层,或者也可以存在中间元件或中间层。相反,当元件被称为“直接在”另一元件或层“上”、“直接连接到”或“直接结合到”另一元件或层时,不存在中间元件或中间层。相同的标号始终表示相同的元件。如在这里所使用的,术语“和/或”包括一个或多个相关的所列项的任意组合和所有组合。
应该理解,尽管在这里可使用术语“第一”、“第二”、“第三”等来描述不同的元件、组件、区域、层和/或部分,但是这些元件、组件、区域、层和/或部分并不应受这些术语的限制。这些术语仅用于将一个元件、组件、区域、层或部分与另一个区域、层或部分进行区分。因此,在不脱离本发明构思的教导的情况下,下面讨论的第一元件、第一组件、第一区域、第一层或第一部分可被命名为第二元件、第二组件、第二区域、第二层或第二部分。
为了描述方便,在这里可使用空间相对术语,如“在…之下”、“在…下方”、“下部的”、“在…上方”、“上部的”等,以描述如附图中所示的一个元件或特征与其它元件或特征的关系。应该理解,除了在附图中描述的装置的方位之外,空间相对术语还意在包括装置在使用或操作中的不同方位。例如,如果附图中的装置被翻转,则被描述为“在”其它元件或特征“下方”或“之下”的元件随后将被定位为“在”其它元件或特征“上方”。因此,示例性术语“在…下方”可包括“在…上方”和“在…下方”两种方位。所述装置可被另外定位(旋转90度或者在其它方位),并且相应地解释这里使用的空间相对描述符。
这里使用的术语仅为了描述特定示例性实施例的目的,并非意图限制本发明构思。如这里所使用的,除非上下文另外清楚地指出,否则单数形式也意图包括复数形式。还应理解,当在本说明书中使用术语“包括”和/或“包含”时,说明存在所描述的特征、整体、步骤、操作、元件和/或组件,但不排除存在或添加一个或多个其它特征、整体、步骤、操作、元件、组件和/或其组合。
在此参照作为理想化的示例性实施例(和中间结构)的示意性图的剖视图来描述本发明的示例性实施例。这样,预计会出现例如由制造技术和/或公差引起的这些图的形状变化。因此,示例性实施例不应被理解为限于在此示出的区域的具体形状,而应该包括例如由制造导致的形状偏差。例如,示出为矩形的注入区域通常在其边缘具有倒圆或弯曲的特征和/或注入浓度的梯度,而不是从注入区域到非注入区域的二元变化。同样地,通过注入形成的掩埋区域可导致在掩埋区域和通过其发生注入的表面之间的区域中出现一定程度的注入。因此,在附图中示出的区域实际上是示意性的,它们的形状并不意图示出装置的区域的实际形状,也不意图限制本发明构思的范围。
除非另有定义,否则这里使用的所有术语(包括技术术语和科技术语)具有与本发明构思所属领域的普通技术人员所通常理解的含义相同的含义。还应理解,除非这里明确定义,否则术语(例如在通用字典中定义的术语)应该被解释为具有与它们在相关领域的上下文中的含义相同的含义,而不是以理想化的或者过于正式的意义来解释它们的含义。
图1是示出根据示例性实施例的三维图像传感器的框图。
参照图1,三维图像传感器100包括像素阵列110、模数转换(ADC)单元120、行扫描电路130、列扫描电路140、控制单元150和光源模块200。
像素阵列110可包括深度像素,深度像素接收被光源模块200发射到物体160之后从物体160反射的光RX。深度像素可将接收的光RX转换为电信号。深度像素可提供关于物体160与三维图像传感器100的距离的信息和/或黑白图像信息。
像素阵列110还可包括用于提供颜色图像信息的颜色像素。在这种情况下,三维图像传感器100可以是提供颜色图像信息和深度信息的三维图像传感器。根据示例性实施例,可在深度像素上形成红外滤光器和/或近红外滤光器,可在颜色像素上形成颜色滤光器(例如,红色滤光器、绿色滤光器和蓝色滤光器)。根据示例性实施例,可根据需要改变深度像素的数量与颜色像素的数量的比率。
ADC单元120可将从像素阵列110输出的模拟信号转换为数字信号。根据示例性实施例,ADC单元120可执行列模数转换,列模数转换使用分别结合到多个列线的多个模数转换器并行转换模拟信号。根据示例性实施例,ADC单元120可执行单一模数转换,单一模数转换使用单一模数转换器顺序地转换模拟信号。
根据示例性实施例,ADC单元120还可包括用于提取有效信号分量的相关双采样(CDS)单元。根据示例性实施例,CDS单元可执行模拟双采样,模拟双采样基于包括重置分量的模拟重置信号与包括信号分量的模拟数据信号质之间的差来提取有效信号分量。根据示例性实施例,CDS单元可执行数字双采样,数字双采样将模拟重置信号和模拟数据信号转换为两个数字信号并基于所述两个数字信号之间的差来提取有效信号分量。根据示例性实施例,CDS单元可执行双重相关双采样,双重相关双采样执行模拟双采样和数字双采样两者。
行扫描电路130可从控制单元150接收控制信号,并且可控制像素阵列110的行地址和行扫描。为了在多个行线中选择行线,行扫描电路130可将用于激活选择的行线的信号施加到像素阵列110。根据示例性实施例,行扫描电路130可包括:行解码器,选择像素阵列110的行线:行驱动器,施加用于激活选择的行线的信号。
列扫描电路140可从控制单元150接收控制信号,并且可控制像素阵列110的列地址和列扫描。列扫描电路140可将来自ADC单元120的数字输出信号输出到数字信号处理单元(未示出)和/或外部主机(未示出)。例如,列扫描电路140可向ADC单元120提供水平扫描控制信号,以顺序地选择包括在ADC单元120中的多个模数转换器。根据示例性实施例,列扫描电路140可包括:列解码器,选择多个模数转换器中的一个;列驱动器,将选择的模数转换器的输出施加到水平传输线。水平传输线可具有与数字输出信号的位宽度对应的位宽度。
控制单元150可控制ADC单元120、行扫描电路130、列扫描电路140和光源模块200。控制单元150可向ADC单元120、行扫描电路130、列扫描电路140和光源模块200提供控制信号(诸如时钟信号、时序控制信号等)。根据示例性实施例,控制单元150可包括控制逻辑电路、锁相环电路、时序控制电路、通信接口电路等。
光源模块200可发射期望(或预定)波长的光。例如,光源模块200可发射红外光和/或近红外光。光源模块200可包括光源210和透镜220。光源210可由控制单元150控制,以发射期望强度和/或特性(例如周期性)的光TX。例如,光TX的强度和/或特性可被控制,使得光TX具有脉冲波、正弦波、余弦波等的波形。光源210可由发光二极管(LED)、激光二极管等实现。透镜220可被配置为调整从光源210输出的光TX的发射角(或传播角)。例如,光源210和透镜220之间的间隔可被控制单元150控制,以调整光TX的发射角。
在下文中,下面将描述根据示例性实施例的三维图像传感器100的操作。
控制单元150可控制光源模块200以发射具有周期性强度的光TX。光源模块200发射的光TX可被物体160反射回三维图像传感器100,作为接收的光RX。接收的光RX可入射在深度像素上,深度像素可被行扫描电路130激活,以输出与接收的光RX对应的模拟信号。ADC单元120可将从深度像素输出的模拟信号转换为数字数据DATA。数字数据DATA可通过列扫描电路140和/或ADC单元120被提供给控制单元150。
包括在控制单元150中的计算单元155可基于数字数据DATA计算物体160与三维图像传感器100的距离、物体160的水平位置、物体160的竖直位置和/或物体160的尺寸。控制单元150可基于物体160的所述距离、水平位置、竖直位置和/或尺寸,来控制光TX的发射角或投射(或入射)区域。例如,控制单元150可控制光源210和透镜220之间的间隔、光源210和透镜220相对于彼此的相对位置(或布置)、透镜220的折射率、透镜220的曲率等。因此,由光源模块200发射的光TX可聚焦在感兴趣的物体160所在的区域,由此提高从深度像素提供的深度信息的准确度。此外,控制单元150可根据光TX的发射角的减小或增大或者根据光TX投射(或入射)的区域的尺寸来调整光TX的幅度(amplitude)(或每个周期期间光TX的最大强度)。例如,控制单元150可随着光TX的发射角的减小而减小TX的幅度。其结果是,在根据示例性实施例的三维图像传感器100中,可降低功耗。
数字数据DATA和/或深度信息可被提供给数字信号处理电路和/或外部主机。根据示例性实施例,像素阵列110可包括颜色像素,并且颜色图像信息以及深度信息可被提供给数字信号处理电路和/或外部主机。
如上所述,在根据示例性实施例的三维图像传感器100中,由于由光源模块200发射的光TX聚焦在感兴趣的物体160上,所以可提高深度信息的准确度,并且可降低功耗。
图2是用于描述由图1的三维图像传感器计算物体的距离的示例的示图。
参照图1和图2,由光源模块200发射的光TX具有周期性强度和/或特性。例如,光TX的强度(例如,每单位面积光子的数量)可具有正弦波的波形。
由光源模块200发射的光TX可从物体160被反射,然后可入射在像素阵列110上,作为接收的光RX。像素阵列110可对接收的光RX周期性地采样。根据示例性实施例,在接收的光RX的每个周期(例如,对应于发射的光TX的周期)期间,像素阵列110可通过例如在具有大约180度相位差的两个采样点、在具有大约90度相位差的四个采样点或者在多于四个采样点进行采样,来对接收的光RX执行采样。例如,像素阵列110可每周期分别在大约90度相位、大约180度相位、大约270度相位和大约360度相位分别提取接收的光RX的四个样本A0、A1、A2和A3。
接收的光RX可具有偏移B,偏移B与由于背景光、噪声等导致的光源模块200所发射的光TX的偏移不同。可通过等式1计算接收的光RX的偏移B。
[等式1]
B = A 0 + A 1 + A 2 + A 3 4
这里,A0表示在发射的光TX的大约90度相位采样的接收的光RX的强度,A1表示在发射的光TX的大约180度相位采样的接收的光RX的强度,A2表示在发射的光TX的大约270度相位采样的接收的光RX的强度,A3表示在发射的光TX的大约360度相位采样的接收的光RX的强度,
由于损失(例如,光损失),接收的光RX的幅度A可低于由光源模块2200发射的光TX的幅度。可通过等式2计算接收的光RX的幅度A。
[等式2]
A = ( A 0 - A 2 ) 2 + ( A 1 - A 3 ) 2 2
可基于接收的光RX的幅度A,由包括在像素阵列110中的各个深度像素提供关于物体160的黑白图像信息。
接收的光RX相对于发射的光TX可被延迟相位差Φ,相位差Φ可与例如物体160和三维图像传感器100的距离的两倍对应。可通过等式3计算发射的光TX和接收的光RX之间的相位差Φ。
[等式3]
Φ = arctan ( A 0 - A 2 A 1 - A 3 )
例如,发射的光TX和接收的光RX之间的相位差Φ可与飞行时间(TOF)对应。可通过等式“R=c×TOF/2”计算物体160与三维图像传感器100的距离,其中,R表示物体160的距离,c表示光速。即,可检测从光源模块200发射的光TX被物体160反射回三维图像传感器100期间的飞行时间,将检测的飞行时间的一半作为发射的光TX的飞行时间,由此可根据发射的光TX的飞行时间来计算物体160与三维图像传感器100的距离。此外,还可通过使用发射的光TX和接收的光RX之间的相位差Φ由等式4计算物体160与三维图像传感器100的距离。
[等式4]
R = c 4 πf Φ
这里,f表示调制频率,该调制频率是发射的光TX的强度的频率(或接收的光RX的强度的频率)。
可针对包括在像素阵列110中的每个深度像素执行距离的计算。例如,计算单元155可对与各个深度像素对应的各个数字数据DATA执行计算,以产生图像帧中的多个部分的距离值。即,每个距离值可基于从一个深度像素输出的信号被计算,并且可以是图像帧中的一个部分(或一个点)的距离值。此外,计算单元155可基于距离值在图像帧中将感兴趣的物体160与背景图像进行区分。例如,计算单元155可检测感兴趣的物体160,从而计算单元155可将图像帧中的具有相对高距离值的部分确定为感兴趣的物体160。因此,计算单元155可通过产生距离值并检测感兴趣的物体160,来产生关于感兴趣的物体160的深度信息。
在一些实施例中,计算单元155还可基于距离值计算感兴趣的物体160的水平/竖直位置。例如,计算单元155可测量在图像帧中感兴趣的物体160与中心的相对位置,并且可使用关于感兴趣的物体160的距离信息调整所述相对位置,以产生感兴趣的物体160的水平/竖直位置。
在一些实施例中,计算单元155还可基于距离值计算感兴趣的物体160的尺寸。例如,计算单元155可测量在图像帧中感兴趣的物体160的尺寸,并且可使用关于感兴趣的物体160的距离信息调整感兴趣的物体160的测量的尺寸,以产生感兴趣的物体160的尺寸。
如上所述,根据示例性实施例的三维图像传感器100可使用由光源模块200发射的光TX来获得关于物体160的深度信息。虽然图2示出了光TX(光TX的强度具有正弦波的波形),但是根据示例性实施例,三维图像传感器100可使用这样的光TX(光TX的强度具有各种类型的波形)。此外,三维图像传感器100可根据光TX的强度的波形、深度像素的结构等,来提取深度信息。
图3是示出根据示例性实施例的操作三维图像传感器的方法的流程图。图4是用于描述根据图3的方法测量物体的距离的示例的示图。图5A和图5B是描述根据图3的方法调整光的发射角的示例的示图。
参照图1、图3、图4、图5A和图5B,三维图像传感器100使用由光源模块200发射的光TX来测量物体160与三维图像传感器100的距离DIST(S310)。由光源210产生的光TX可通过透镜220被发射。如果光源210和透镜220具有第一间隔ITV1,则发射的光TX可具有第一发射角θ1,根据示例性实施例,第一发射角θ1可以是由光源模块200发射的光TX的最大发射角。三维图像传感器100可通过检测从物体160反射到三维图像传感器100的光RX,来测量物体160与三维图像传感器100的距离DIST。
三维图像传感器100基于物体160的距离DIST来调整由光源模块200发射的光TX的发射角(S330)。根据示例性实施例,如图5A所示,三维图像传感器100可将光源210和透镜220之间的间隔(或间距)调整为第二间隔ITV2,使得由光源模块200发射的光TX具有第二发射角θ2。例如,当物体160的距离DIST增大时,控制单元150可控制光源模块200减小光TX的发射角。根据示例性实施例,控制单元150可移动光源210,使得当物体160的距离DIST增大时,光源210和透镜220之间的间隔增大。根据示例性实施例,控制单元150可移动透镜220,使得当物体160的距离DIST增大时,光源210和透镜220之间的间隔增大。
根据示例性实施例,如图5B所示,三维图像传感器100可调整透镜220的曲率,使得由光源模块200发射的光TX具有第二发射角θ2。例如,当物体160的距离DIST增大时,控制单元150可增大透镜220的曲率(即,减小透镜220的曲率半径)。
根据示例性实施例,如图5B所示,三维图像传感器100可调整透镜220的折射率,使得由光源模块200发射的光TX具有第二发射角θ2。例如,当物体160的距离DIST增大时,控制单元150可增大透镜220的折射率。根据示例性实施例,三维图像传感器100可调整下列中的任何一个、任何两个或全部:光源210和透镜220之间的间隔:透镜220的曲率;透镜220的折射率。
在根据示例性实施例的操作三维图像传感器100的方法中,由于由光源模块200发射的光TX的发射角被与物体160的距离DIST对应地调整,所以即使用较少的功耗也可增大投射在物体160上的光能,并且可提高由三维图像传感器100获得的深度信息的准确度。
此外,在示例性实施例中,三维图像传感器100可在调整光TX的发射角之前发射具有最大幅度的光TX,并且可根据光TX的发射角的减小来减小光TX的幅度。因此,可降低光源模块200消耗的功率。然而,最初以最小幅度发射光而随后根据光TX的发射角使幅度最大化的操作也是可行的。
图6是示出根据示例性实施例的操作三维图像传感器的方法的流程图。图7是用于描述根据图6的方法测量物体的水平位置和竖直位置的示例的示图。图8是用于描述根据图6的方法调整光源与透镜的相对位置(或布置)的示例的示图。
参照图1、图6、图7和图8,三维图像传感器100使用由光源模块200发射的光TX来测量物体160的水平位置HP1和/或竖直位置VP1(S410)。例如,物体160可被布置在相对于连接光源210的中心和透镜220的中心的直线沿正水平方向的距离HP1处和/或沿正竖直方向的距离VP1处。可假设所述直线垂直穿过纸平面并穿过图7中所示的水平轴和竖直轴的交叉点。由光源模块200发射的光TX可从物体160被反射回三维图像传感器100。接收的光RX可被包括在像素阵列110中的深度像素以及ADC单元120转换为数据DATA,并且控制单元150可基于数据DATA测量物体160的水平位置HP1和/或竖直位置VP1。
三维图像传感器100基于物体160的水平位置HP1和/或竖直位置VP1,来调整光源210与透镜220的相对位置(或布置)(S430)。根据示例性实施例,如图8所示,控制单元150可基于物体160的正水平位置HP1和/或正竖直位置VP1,将光源210沿负水平方向移动期望的(或预定的)距离HP2,并且/或者将光源210沿负竖直方向移动期望的(或预定的)距离VP2。例如,光源210的调整的水平位置HP2与物体160的测量的水平位置HP1的比率可对应于光源210和透镜220的距离与物体160和透镜220的距离的比率,光源210的调整的竖直位置VP2与物体160的测量的竖直位置VP1的比率可对应于光源210和透镜220的距离与物体160和透镜220的距离的比率。
根据示例性实施例,控制单元150可基于物体160的正水平位置HP1和/或正竖直位置VP1,将透镜220沿正水平方向移动期望的(或预定的)距离HP2,并且/或者将透镜220沿正竖直方向移动期望的(或预定的)距离VP2。
根据示例性实施例,控制单元150可基于物体160的水平位置HP1和/或竖直位置VP1,沿水平方向和/或竖直方向移动光源210或透镜220,使得光源210、透镜220和物体160位于一条直线上。
此外,控制单元150可根据物体160与三维图像传感器100的距离和/或物体160的尺寸来调整由光源模块200发射的光TX的发射角,并且可调整(例如减小)发射的光TX的幅度。
如上所述,在根据示例性实施例的操作三维图像传感器100的方法中,由于根据物体160的水平位置HP1和/或竖直位置VP1来调整光源210和透镜220的位置,所以即使用较少的功耗也可增大投射(或入射)在物体160上的光能。因此,可提高由三维图像传感器100获得的深度信息的准确度,并且可降低由光源模块200消耗的功率。
图9是示出根据示例性实施例的操作三维图像传感器的方法的流程图。图10是用于描述根据图9的方法测量物体的尺寸的示例的示图。
参照图1、图9和图10,三维图像传感器100使用由光源模块200发射的光TX测量物体160的尺寸(S510)。由光源模块200发射的光TX可从物体160被反射回三维图像传感器100。接收的光RX可通过包括在像素阵列110中的深度像素以及ADC单元120被转换为数据DATA,并且控制单元150可基于数据DATA测量物体160的尺寸。
三维图像传感器100基于物体160的尺寸调整光源210与透镜220的相对位置(S520)。根据示例性实施例,如图10所示,控制单元150可调整光TX的发射角,使得发射的光TX聚焦在与物体160的尺寸对应的区域170上。例如,如图5A和图5B所示,控制单元150可移动光源210和/或透镜220,以调整光源210和透镜220之间的间隔。根据示例性实施例,控制单元150可调整下列中的任何一个、任何两个或全部:光源210和透镜220之间的间隔:透镜220的折射率;透镜220的曲率。
如上所述,在根据示例性实施例的操作三维图像传感器100的方法中,由于根据物体160的尺寸来调整光源210与透镜220的相对位置和/或透镜220的特性,所以即使用较少的功耗也可增大投射在物体160上的光能。因此,可提高由三维图像传感器100获得的深度信息的准确度,并且可降低由光源模块200消耗的功率。
图11是示出根据示例性实施例的操作三维图像传感器的方法的流程图。
参照图1和图11,三维图像传感器100使用由光源模块200发射的光TX来获得物体160的位置信息(S610)。例如,位置信息可包括物体160与三维图像传感器100的距离、物体160的水平位置、物体160的竖直位置、物体160的尺寸等。
三维图像传感器100基于物体160的位置信息来调整光源210与透镜220的相对位置(S630)。例如,三维图像传感器100可基于物体160与三维图像传感器100的距离,来调整光源210与透镜220之间的间隔、透镜220的折射率和/或透镜220的曲率。根据示例性实施例,三维图像传感器100可基于物体160的水平位置和竖直位置,沿水平方向和/或竖直方向移动光源210和/或透镜220,使得光源210、透镜220和物体160位于一条直线上。根据示例性实施例,三维图像传感器100可基于物体160的尺寸来调整下列中的任何一个、任何两个或全部:光源210和透镜220之间的间隔:透镜220的折射率;透镜220的曲率,以使得由光源模块200发射的光TX聚焦在与感兴趣的物体160对应的区域上。
根据示例性实施例,三维图像传感器100可在调整光源210和透镜220的相对位置之前发射具有最大幅度的光TX,并且可在调整所述相对位置之后减小光TX的幅度。因此,可降低由光源模块200消耗的功率。然而,最初以最小幅度发射光TX然后使幅度最大化的操作也是可行的。
如上所述,在根据示例性实施例的操作三维图像传感器100的方法中,由于基于物体160的位置信息来调整光源210和透镜220的相对位置,所以甚至可以用较少的功耗来增大投射在物体160上的光能。因此,可提高由三维图像传感器100获得的深度信息的准确度,并且可降低由光源模块200消耗的功率。
虽然图1至图11示出了包括光源210和透镜220的光源模块200的示例,但是在示例性实施例中也可包括这样的光源模块200,该光源模块200具有反射器和透镜220,或者具有反射器来代替透镜220。
图12是示出包括根据示例性实施例的三维图像传感器的相机的框图。
参照图12,相机800包括接收镜头810、三维图像传感器100、电机单元830和引擎单元840。三维图像传感器100可包括三维图像传感器芯片820和光源模块200。在示例性实施例中,三维图像传感器芯片820和光源模块200可被实现为单独的装置,或者可被实现为使得光源模块200的至少一个元件包括在三维图像传感器芯片820中。
接收镜头810可将入射光聚焦在三维图像传感器芯片820的光电接收区域(例如,深度像素和/或颜色像素)上。三维图像传感器芯片820可基于穿过接收镜头810的入射光,来产生包括深度信息和/或颜色图像信息的数据DATA1。例如,由三维图像传感器芯片820产生的数据DATA1可包括使用由光源模块200产生的红外光或近红外光产生的深度数据以及使用外部可见光产生的拜尔模式(Bayer pattern)的RGB数据。三维图像传感器芯片820可响应于时钟信号CLK将数据DATA1提供给引擎单元840。在示例性实施例中,三维图像传感器芯片820可使用移动产业处理器接口(MIPI)和/或相机串行接口(CSI)与引擎单元840进行接口连接。
电机单元830可响应于从引擎单元840接收的控制信号CTRL来控制镜头810的聚焦或者可执行遮光。在示例性实施例中,可通过电机单元830和/或三维图像传感器芯片820调整包括在光源模块200中的光源210和透镜220的相对位置。
引擎单元840可控制三维图像传感器100和电机单元830。引擎单元840可处理从三维图像传感器芯片820接收的数据DATA1。例如,引擎单元840可基于接收的数据DATA1产生三维颜色数据。在示例性实施例中,引擎单元840可基于RGB数据产生YUV数据(YUV数据包括亮度分量、亮度分量和蓝色分量之间的差以及亮度分量和红色分量之间的差),或者可产生压缩数据(诸如联合图像专家组(JPEG)数据)。引擎单元840可连接到主机/应用程序850,并且可基于主时钟信号MCLK将数据DATA2提供给主机/应用程序850。在示例性实施例中,引擎单元840可使用串行外围接口(SPI)和/或集成电路间(I2C)接口。
图13是示出根据示例性实施例的包括三维图像传感器的计算系统的框图。
参照图13,计算系统1000包括处理器1010、存储器装置1020、存储装置1030、输入/输出装置1040、电源1050和/或三维图像传感器100。虽然在图13中未示出,但是计算系统1000还可包括用于与电子装置(诸如视频卡、声卡、存储卡、USB装置等)通信的端口。
处理器1010可执行特定的计算和/或任务。例如,处理器1010可以是微处理器、中央处理单元(CPU)、数字信号处理器等。处理器1010可通过地址总线、控制总线和/或数据总线与存储器装置1020、存储装置1030以及输入/输出装置1040通信。处理器1010可连接到扩展总线(诸如外围部件互连(PCI)总线)。可由动态随机存取存储器(DRAM)、移动DRAM、静态随机存取存储器(SRAM)、相变随机存取存储器(PRAM)、阻抗随机存取存储器(RRAM)、纳米浮栅存储器(NFGM)、聚合物随机存取存储器(PoRAM)、磁性随机存取存储器(MRAM)、铁电随机存取存储器(FRAM)等来实现存储器装置1020。存储装置1030可包括固态驱动器、硬盘驱动器、CD-ROM等。输入/输出装置1040可包括输入装置(诸如键盘、鼠标、键区等)以及输出装置(诸如打印机、显示装置等)。电源1050可向计算系统1000供电。
三维图像传感器100可通过总线或其它期望的通信链路连接到处理器1010。如上所述,三维图像传感器100可基于感兴趣的物体的位置信息来调整由光源模块发射的光的投射区域,由此提高准确度并降低功耗。三维图像传感器100和处理器1010可被集成到一个芯片中,或者可被实现为单独的芯片。
在示例性实施例中,三维图像传感器100和/或三维图像传感器100的组件可按照诸如下列的各种期望的方式被封装:层叠封装(PoP)、球栅阵列(BGA)、芯片级封装(CSP)、有引线塑料芯片载体(PLCC)、塑料双列直插封装(PDIP)、窝伏尔组件封装裸芯片(die in waffle pack)、晶片形式封装裸芯片(diein wafer form)、板上芯片(COB)、陶瓷双列直插封装(CERDIP)、塑料公制四方扁平封装(MQFP)、薄四方扁平封装(TQFP)、小外形集成电路(SOIC)、窄间距小外形封装(SSOP)、薄小外形封装(TSOP)、系统级封装(SIP)、多芯片封装(MCP)、晶片级制作封装(WFP)或晶片级处理堆叠封装(WSP)。
计算系统1000可以是包括三维图像传感器100的任何计算系统。例如,计算系统1000可包括数字相机、移动电话、智能电话、个人数字助理(PDA)、便携式多媒体播放器(PMP)等。
图14是示出在图13的计算系统中使用的接口的示例的框图。
参照图14,计算系统1100可采用或支持MIPI接口,并且可包括应用程序处理器1110、三维图像传感器1140和显示装置1050。应用程序处理器1110的CSI主机1112可使用相机串行接口(CSI)执行与三维图像传感器1140的CSI装置1141的串行通信。在示例性实施例中,CSI主机1112可包括解串行器DES,CSI装置1141可包括串行化器SER。应用程序处理器1110的DSI主机1111可使用显示器串行接口(DSI)执行与显示装置1150的DSI装置1151的串行通信。在示例性实施例中,DSI主机1111可包括串行化器SER,DSI装置1151可包括解串行器DES。
计算系统1100还可包括射频(RF)芯片1160。应用程序处理器1110的物理层PHY 1113可使用MIPI DigRF执行与RF芯片1160的物理层PHY 1161的数据传输。应用程序处理器1110的PHY 1113可与DigRF MASTER 1114接口连接(或通信),以控制与RF芯片1160的PHY 1161的数据传输。计算系统1100还可包括全球定位系统(GPS)1120、存储装置1170、麦克风1180、DRAM 1185和/或扬声器1190。计算系统1100可使用超宽带(UWB)通信1210、无线局域网(WLAN)通信1220、全球微波互联接入(WIMAX)通信1230等与外部装置通信。然而,示例性实施例不限于图13和图14中所示的计算系统1000和1100的配置或接口。
可在三维图像传感器或包括该三维图像传感器的任何系统中使用这些示例性实施例,所述任何系统诸如计算机、数字相机、三维相机、移动电话、个人数字助理(PDA)、扫描仪、导航仪、视频电话、监控系统、自动聚焦系统、跟踪系统、运动捕获系统、图像稳定系统等。
虽然已经具体示出和描述了示例性实施例,但是本领域技术人员应该理解,在不脱离权利要求的精神和范围的情况下,可对其作出形式和细节上的改变。

Claims (30)

1.一种操作三维图像传感器的方法,所述方法包括:
使用由光源模块发射的光测量物体与三维图像传感器的距离,所述三维图像传感器包括所述光源模块;
基于测量的距离来调整由所述光源模块发射的光的发射角。
2.根据权利要求1所述的方法,其中,测量步骤包括:
在所述光源模块以期望的发射角发射光;
通过检测发射的光的飞行时间来测量物体与三维图像传感器的距离。
3.根据权利要求1所述的方法,其中,当物体与三维图像传感器的距离增大时,所述调整步骤减小光的发射角。
4.根据权利要求1所述的方法,其中,所述光源模块包括光源和透镜,
其中,所述调整步骤基于测量的距离调整光源和透镜之间的间隔。
5.根据权利要求4所述的方法,其中,所述调整步骤移动光源或透镜,使得当物体与三维图像传感器的距离增大时,光源和透镜之间的间隔增大。
6.根据权利要求1所述的方法,其中,所述光源模块包括光源和透镜,
其中,所述调整步骤基于测量的距离调整透镜的折射率。
7.根据权利要求6所述的方法,其中,当物体与三维图像传感器的距离增大时,所述调整步骤增大透镜的折射率。
8.根据权利要求1所述的方法,其中,所述光源模块包括光源和透镜,
其中,所述调整步骤基于测量的距离调整透镜的曲率。
9.根据权利要求8所述的方法,其中,当物体与三维图像传感器的距离增大时,所述调整步骤增大透镜的曲率。
10.根据权利要求1所述的方法,所述方法还包括:
根据光的发射角的增大或减小,调整由所述光源模块发射的光的幅度。
11.根据权利要求10所述的方法,其中,当光的发射角减小时,所述调整步骤减小光的幅度。
12.一种操作三维图像传感器的方法,所述方法包括:
使用由光源模块发射的光获得物体的位置信息,所述三维图像传感器包括所述光源模块,所述光源模块具有光源和透镜;
基于获得的物体的位置信息来调整光源与透镜的相对位置。
13.根据权利要求12所述的方法,其中,物体的位置信息包括下列中的至少一个:物体与三维图像传感器的距离、物体的水平位置、物体的竖直位置以及物体的尺寸。
14.根据权利要求12所述的方法,其中,光源与透镜的相对位置包括下列中的至少一个:光源和透镜之间的间隔、光源的水平位置以及光源的竖直位置。
15.根据权利要求12所述的方法,其中,物体的位置信息包括物体的水平位置和竖直位置,
其中,所述调整步骤移动光源或透镜,使得物体、光源和透镜位于一条直线上。
16.一种操作图像传感器的方法,所述方法包括:
使用由光源模块发射的光获得物体的位置信息,所述图像传感器包括所述光源模块;
基于获得的位置信息来调整由所述光源模块发射的光的发射角。
17.根据权利要求16所述的方法,其中,获得物体的位置信息的步骤包括:
从所述光源模块以期望的发射角发射光;
通过检测发射的光的飞行时间来测量物体与图像传感器的距离。
18.根据权利要求17所述的方法,其中,所述调整步骤基于物体与图像传感器的距离来调整光的发射角。
19.根据权利要求17所述的方法,其中,所述光源模块包括光源和透镜,所述调整步骤通过基于测量的距离调整所述光源和透镜之间的间距,来调整光的发射角。
20.根据权利要求17所述的方法,其中,所述调整步骤通过基于测量的距离调整包括在所述光源模块中的透镜的折射率,来调整光的发射角。
21.根据权利要求17所述的方法,其中,所述调整步骤通过基于测量的距离调整包括在所述光源模块中的透镜的曲率,来调整光的发射角。
22.根据权利要求17所述的方法,所述方法还包括:
根据光的发射角的增大或减小,调整由所述光源模块发射的光的幅度。
23.根据权利要求16所述的方法,其中,获得物体的位置信息的步骤包括:
从所述光源模块以期望的发射角发射光;
通过对从物体反射的光进行至少两次采样,并且基于所述至少两次采样计算发射的光和反射的光之间的相位差,来获得物体与图像传感器的距离。
24.一种图像传感器,包括:
光源模块,被配置为向物体发射光;
像素阵列,被配置为接收从物体反射的光;
控制器,被配置为基于接收的光获得物体的位置信息,并且基于获得的位置信息调整由所述光源模块发射的光的发射角。
25.根据权利要求24所述的图像传感器,其中,控制器被配置为获得物体与图像传感器的距离作为位置信息,并且基于所述距离调整发射的光的发射角。
26.根据权利要求25所述的图像传感器,其中,控制器还被配置为通过对从物体反射的光进行至少两次采样,并且基于所述至少两次采样计算发射的光和反射的光之间的相位差,来获得物体与图像传感器的距离,或者通过检测发射的光的飞行时间来获得物体与图像传感器的距离。
27.根据权利要求25所述的图像传感器,其中,所述光源模块包括光源和透镜,
控制器还被配置为通过基于获得的距离调整所述光源和透镜之间的间距,来调整发射的光的发射角。
28.根据权利要求25所述的图像传感器,其中,所述光源模块包括光源和透镜,
控制器还被配置为通过基于获得的距离调整所述透镜的折射率,来调整发射的光的发射角。
29.根据权利要求25所述的图像传感器,其中,所述光源模块包括光源和透镜,
控制器还被配置为通过基于获得的距离调整所述透镜的曲率,来调整发射的光的发射角。
30.根据权利要求24所述的图像传感器,其中,控制器还被配置为根据发射的光的发射角的调整来调整由所述光源模块发射的光的幅度。
CN201110421183.0A 2010-12-21 2011-12-13 图像传感器和操作该图像传感器的方法 Active CN102547355B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100131147A KR101694797B1 (ko) 2010-12-21 2010-12-21 3차원 이미지 센서의 구동 방법
KR10-2010-0131147 2010-12-21

Publications (2)

Publication Number Publication Date
CN102547355A true CN102547355A (zh) 2012-07-04
CN102547355B CN102547355B (zh) 2017-04-12

Family

ID=46233860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110421183.0A Active CN102547355B (zh) 2010-12-21 2011-12-13 图像传感器和操作该图像传感器的方法

Country Status (3)

Country Link
US (2) US20120154537A1 (zh)
KR (1) KR101694797B1 (zh)
CN (1) CN102547355B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777750A (zh) * 2012-10-23 2014-05-07 三星电子株式会社 包括图像传感器的移动系统和图像传感器的操作方法
CN104967763A (zh) * 2015-06-09 2015-10-07 联想(北京)有限公司 一种图像采集器件、图像采集方法及电子设备
CN105472224A (zh) * 2016-01-05 2016-04-06 北京度量科技有限公司 一种被动式光学动作捕捉设备及其应用
CN109031334A (zh) * 2018-08-27 2018-12-18 湖北工业大学 一种基于三维图像测距的安全监测系统与方法
CN109981993A (zh) * 2017-12-28 2019-07-05 舜宇光学(浙江)研究院有限公司 深度相机投射器功耗控制方法及其应用
CN111819468A (zh) * 2020-03-16 2020-10-23 深圳市汇顶科技股份有限公司 三维图像传感系统以及相关电子装置以及飞时测距方法
CN112693229A (zh) * 2019-10-23 2021-04-23 细美事有限公司 液滴检查模块和液滴检查方法

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI471630B (zh) * 2012-06-01 2015-02-01 Hon Hai Prec Ind Co Ltd 主動式距離對焦系統及方法
US10158842B2 (en) * 2012-06-20 2018-12-18 Honeywell International Inc. Cargo sensing detection system using spatial data
KR102102881B1 (ko) * 2012-11-13 2020-04-21 엘지디스플레이 주식회사 터치 센싱 시스템과 그 소비전력 제어방법
KR20150010230A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 단일 필터를 이용하여 대상체의 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치.
KR102153045B1 (ko) * 2013-12-04 2020-09-07 삼성전자주식회사 파장 분리 소자 및 이를 포함하는 3차원 영상 획득 장치
KR102101864B1 (ko) * 2014-01-29 2020-04-20 엘지이노텍 주식회사 깊이 정보 추출 장치
KR102263064B1 (ko) * 2014-08-25 2021-06-10 삼성전자주식회사 피사체의 움직임을 인식하는 장치 및 그 동작 방법
US20160073061A1 (en) * 2014-09-04 2016-03-10 Adesa, Inc. Vehicle Documentation System
KR102364084B1 (ko) * 2014-10-21 2022-02-17 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102312273B1 (ko) * 2014-11-13 2021-10-12 삼성전자주식회사 거리영상 측정용 카메라 및 그 동작방법
KR102305998B1 (ko) * 2014-12-08 2021-09-28 엘지이노텍 주식회사 영상 처리 장치
US9989630B2 (en) * 2015-05-13 2018-06-05 Infineon Technologies Ag Structured-light based multipath cancellation in ToF imaging
CN104902171B (zh) * 2015-05-19 2018-05-01 广东欧珀移动通信有限公司 一种摄像头角度纠正方法及终端
KR102311688B1 (ko) 2015-06-17 2021-10-12 엘지전자 주식회사 이동단말기 및 그 제어방법
US10594974B2 (en) 2016-04-07 2020-03-17 Tobii Ab Image sensor for vision based on human computer interaction
WO2017181381A1 (zh) * 2016-04-21 2017-10-26 华为技术有限公司 一种获取深度信息的方法及摄像装置
US10580234B2 (en) 2017-01-20 2020-03-03 Adesa, Inc. Vehicle documentation system
JP7103354B2 (ja) * 2017-05-24 2022-07-20 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019106033A1 (en) * 2017-11-28 2019-06-06 Sony Semiconductor Solutions Corporation Illumination device, time of flight system and method
KR102536534B1 (ko) * 2018-06-22 2023-05-25 엘지이노텍 주식회사 카메라 모듈
CN109788174B (zh) * 2019-01-11 2021-05-07 维沃移动通信有限公司 一种补光方法及终端
KR20200136148A (ko) 2019-05-27 2020-12-07 엘지이노텍 주식회사 카메라 모듈
CN112153442A (zh) * 2019-06-28 2020-12-29 Oppo广东移动通信有限公司 播放方法、装置、终端、电视设备、存储介质及电子设备
KR20210063674A (ko) * 2019-11-25 2021-06-02 엘지이노텍 주식회사 카메라 모듈
EP4280600A1 (en) * 2021-01-15 2023-11-22 LG Innotek Co., Ltd. Camera module
KR102473423B1 (ko) * 2021-05-03 2022-12-02 삼성전기주식회사 Tof 카메라 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1220807A (zh) * 1997-02-04 1999-06-23 索尼国际(欧洲)股份有限公司 适于显示3维图象的方法和装置
US20010043335A1 (en) * 1993-12-20 2001-11-22 Toshio Norita Measuring system with improved method of reading image data of an object
US20060235753A1 (en) * 2005-04-04 2006-10-19 Denso Corporation Vehicular user hospitality system
CN1984766A (zh) * 2004-07-28 2007-06-20 东洋制罐株式会社 饱和聚酯空心体的加热晶化装置及其加热方法
CN101466049A (zh) * 2007-12-19 2009-06-24 索尼株式会社 图像信号处理装置和方法、图像投影系统和方法
US20100278030A1 (en) * 2007-09-20 2010-11-04 Yasuhiro Tanaka Optical pickup optical system and optical pickup device having the same

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2927179B2 (ja) * 1994-06-15 1999-07-28 ミノルタ株式会社 3次元形状入力装置
DE10235562A1 (de) * 2002-08-03 2004-02-19 Robert Bosch Gmbh Verfahren und Vorrichtung zur optischen Distanzmessung
JP4265214B2 (ja) * 2002-12-20 2009-05-20 ソニー株式会社 照明装置およびカメラ
JP2004333736A (ja) * 2003-05-06 2004-11-25 Mitsubishi Electric Corp 携帯機器
US7178250B2 (en) * 2004-07-21 2007-02-20 Irwin Industrial Tool Company Intersecting laser line generating device
WO2006011674A1 (en) * 2004-07-30 2006-02-02 Matsushita Electric Works, Ltd. Image processing device
JP4659414B2 (ja) 2004-09-01 2011-03-30 アバゴ・テクノロジーズ・イーシービーユー・アイピー(シンガポール)プライベート・リミテッド 発光ダイオード及びそれを用いる発光制御システム
WO2006118037A1 (ja) * 2005-04-28 2006-11-09 Matsushita Electric Industrial Co., Ltd. 光ピックアップ装置、該光ピックアップ装置を有する光情報装置、及び該光情報装置を有する光情報記録再生装置
JP2007195020A (ja) 2006-01-20 2007-08-02 Sanyo Electric Co Ltd カメラ
EP2118699B1 (en) * 2006-11-06 2018-09-12 University of Massachusetts Systems and methods of all-optical fourier phase contrast imaging using dye doped liquid crystals
US8496575B2 (en) * 2006-11-14 2013-07-30 Olympus Corporation Measuring endoscope apparatus, program and recording medium
KR100825919B1 (ko) 2006-12-18 2008-04-28 엘지전자 주식회사 거리 측정 센서, 거리 측정 센서를 가진 이동로봇 및 그를이용한 이동로봇 주행 방법
CN101849137B (zh) 2007-11-08 2011-12-07 建兴电子科技股份有限公司 照明系统
JP4879218B2 (ja) * 2008-04-25 2012-02-22 シャープ株式会社 レンズ体、光源ユニット及び照明装置
JP2011133836A (ja) * 2009-12-24 2011-07-07 Shinten Sangyo Co Ltd リニア駆動led発光装置を備えたカメラ付き携帯電話

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010043335A1 (en) * 1993-12-20 2001-11-22 Toshio Norita Measuring system with improved method of reading image data of an object
CN1220807A (zh) * 1997-02-04 1999-06-23 索尼国际(欧洲)股份有限公司 适于显示3维图象的方法和装置
CN1984766A (zh) * 2004-07-28 2007-06-20 东洋制罐株式会社 饱和聚酯空心体的加热晶化装置及其加热方法
US20060235753A1 (en) * 2005-04-04 2006-10-19 Denso Corporation Vehicular user hospitality system
US20100278030A1 (en) * 2007-09-20 2010-11-04 Yasuhiro Tanaka Optical pickup optical system and optical pickup device having the same
CN101466049A (zh) * 2007-12-19 2009-06-24 索尼株式会社 图像信号处理装置和方法、图像投影系统和方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777750A (zh) * 2012-10-23 2014-05-07 三星电子株式会社 包括图像传感器的移动系统和图像传感器的操作方法
CN104967763A (zh) * 2015-06-09 2015-10-07 联想(北京)有限公司 一种图像采集器件、图像采集方法及电子设备
CN104967763B (zh) * 2015-06-09 2019-04-26 联想(北京)有限公司 一种图像采集器件、图像采集方法及电子设备
CN105472224A (zh) * 2016-01-05 2016-04-06 北京度量科技有限公司 一种被动式光学动作捕捉设备及其应用
CN105472224B (zh) * 2016-01-05 2017-03-15 北京度量科技有限公司 一种被动式光学动作捕捉设备及其应用
CN109981993A (zh) * 2017-12-28 2019-07-05 舜宇光学(浙江)研究院有限公司 深度相机投射器功耗控制方法及其应用
CN109981993B (zh) * 2017-12-28 2021-02-05 舜宇光学(浙江)研究院有限公司 深度相机投射器功耗控制方法及其应用
CN109031334A (zh) * 2018-08-27 2018-12-18 湖北工业大学 一种基于三维图像测距的安全监测系统与方法
CN112693229A (zh) * 2019-10-23 2021-04-23 细美事有限公司 液滴检查模块和液滴检查方法
CN111819468A (zh) * 2020-03-16 2020-10-23 深圳市汇顶科技股份有限公司 三维图像传感系统以及相关电子装置以及飞时测距方法
WO2021184155A1 (zh) * 2020-03-16 2021-09-23 深圳市汇顶科技股份有限公司 三维图像传感系统以及相关电子装置以及飞时测距方法
CN111819468B (zh) * 2020-03-16 2022-08-02 深圳市汇顶科技股份有限公司 三维图像传感系统以及相关电子装置以及飞时测距方法

Also Published As

Publication number Publication date
US20160037094A1 (en) 2016-02-04
CN102547355B (zh) 2017-04-12
KR20120069833A (ko) 2012-06-29
KR101694797B1 (ko) 2017-01-11
US20120154537A1 (en) 2012-06-21
US10602086B2 (en) 2020-03-24

Similar Documents

Publication Publication Date Title
CN102547355A (zh) 图像传感器和操作该图像传感器的方法
US20120236121A1 (en) Methods of Operating a Three-Dimensional Image Sensor Including a Plurality of Depth Pixels
US10171790B2 (en) Depth sensor, image capture method, and image processing system using depth sensor
US10186045B2 (en) Methods of and apparatuses for recognizing motion of objects, and associated systems
US20120249740A1 (en) Three-dimensional image sensors, cameras, and imaging systems
KR101938648B1 (ko) 이미지 센서를 포함하는 모바일 기기, 이미지 센서의 구동 방법 및 모바일 기기의 구동 방법
US9673237B2 (en) Depth pixel included in three-dimensional image sensor, three-dimensional image sensor including the same and method of operating depth pixel included in three-dimensional image sensor
US10021284B2 (en) Epipolar plane single-pulse indirect TOF imaging for automotives
CN104051483A (zh) 深度像素和包括该深度像素的三维图像传感器
US20130222543A1 (en) Method and apparatus for generating depth information from image
KR20120111013A (ko) 3차원 이미지 센서 및 이를 이용한 거리 측정 방법
US8901498B2 (en) Unit pixels, depth sensors and three-dimensional image sensors including the same
KR20120119279A (ko) 픽셀 어레이 및 이를 포함하는 3차원 이미지 센서
US11789133B2 (en) Time-of-flight sensor and method of calibrating errors in the same
WO2023015880A1 (zh) 训练样本集的获取方法、模型训练方法及相关装置
US9485483B2 (en) Image sensor and image sensor system including the same
US20220018946A1 (en) Multi-function time-of-flight sensor and method of operating the same
US20220043116A1 (en) Time-of-flight sensor and method of measuring distance using the same
KR20120111092A (ko) 촬상 장치
KR20120110614A (ko) 3차원 이미지 센서
JP7071633B2 (ja) 距離計測装置、距離計測方法および距離計測プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant