CN105847784A - 光学成像系统以及包括该光学成像系统的3d图像获取装置 - Google Patents

光学成像系统以及包括该光学成像系统的3d图像获取装置 Download PDF

Info

Publication number
CN105847784A
CN105847784A CN201610028856.9A CN201610028856A CN105847784A CN 105847784 A CN105847784 A CN 105847784A CN 201610028856 A CN201610028856 A CN 201610028856A CN 105847784 A CN105847784 A CN 105847784A
Authority
CN
China
Prior art keywords
light
pixel
imageing sensor
optical imaging
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610028856.9A
Other languages
English (en)
Other versions
CN105847784B (zh
Inventor
金奎植
朴勇和
佐藤竜
佐藤竜一
柳长雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105847784A publication Critical patent/CN105847784A/zh
Application granted granted Critical
Publication of CN105847784B publication Critical patent/CN105847784B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/40Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images giving the observer of a single two-dimensional [2D] image a perception of depth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/17Colour separation based on photon absorption depth, e.g. full colour resolution obtained simultaneously at each pixel location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

一种用于三维图像获取装置的光学成像系统包括:物镜,聚焦光;第一图像传感器,感测由物镜聚焦的光中可见光波段的光;以及第二图像传感器,感测透射通过第一图像传感器的光中红外线波段的光。三维图像获取装置包括用于三维图像获取装置的光学成像系统。

Description

光学成像系统以及包括该光学成像系统的3D图像获取装置
技术领域
本发明的实施方式涉及用于三维(“3D”)图像获取装置的光学成像系统和包括该光学成像系统的3D图像获取装置。
背景技术
近来,因为对于能够显示具有深度感的图像的3D显示装置的发展和需求增加,已经在3D内容领域中进行了研究。因此,正在对能够使使用者产生3D内容的各种3D图像获取装置进行研究。这样的3D照相机可以被用来同时获得深度信息和常规的二维(“2D”)彩色图像信息。
使用两个照相机的双目立体视觉方法或使用结构光和照相机的三角法可以被用来获得关于3D图像获取装置与对象的表面之间的距离的深度信息。然而,在这样的方法中,因为深度信息的精确度取决于对象的表面状态并随着与对象相隔的距离增加快速退化,所以精确的深度信息可能没有被有效地获得。
为了改善深度信息的精确度,可以使用飞行时间(“TOF”)方法。TOF技术是测量光在照射光被照射到对象上之后直到从对象反射的光被光接收部单元接收的飞行时间的方法。根据TOF技术,包括发光二极管(“LED”)或激光二极管(“LD”)的照明光学系统被用来投射预定波长(例如850nm近红光)的光到对象上,从对象反射的相同波长的光被光接收部接收。然后,进行一系列处理操作,诸如通过具有已知增益波形的光学快门对所接收的光的调制,来推导出深度信息。已经根据所述一系列光学处理操作引入了各种TOF技术。
采用TOF技术的3D图像获取装置典型地包括用于发射照射光的照射光学系统以及用于获取对象的图像以获得深度信息的光学成像系统。光学成像系统通过感测从对象反射的可见光产生一般的彩色图像并且通过感测从对象反射的照射光而同时产生仅具有深度信息的深度图像。因此,光学成像系统可以包括用于可见光的物镜和图像传感器以及用于照射光的物镜和图像传感器(即,双透镜和双传感器结构)。然而,在双透镜和双传感器结构中,彩色图像和深度图像具有不同的视场,因而,进行单独的处理以使所述两个图像精确匹配。因此,3D照相机的尺寸和其制造成本增加。
发明内容
已经提出了一种具有一个公共物镜和两个图像传感器(即,单透镜和双传感器结构)的三维("3D")照相机以减小其尺寸和制造成本。在使用具有单透镜和双传感器结构的3D照相机的光学成像系统中,包括3D照相机的光学成像系统的体积和重量会增加且其制造成本会增加。
本发明的实施方式提供一种能够以更简单的工艺制造具有一对公共物镜和两个图像传感器的更小的3D图像获取装置的光学成像系统。
本发明的实施方式提供包括该光学成像系统的3D图像获取装置。
根据本发明的实施方式,一种用于3D图像获取装置的光学成像系统包括:公共物镜,聚焦光;第一图像传感器,感测由物镜聚焦的光中可见光波段的光;以及第二图像传感器,感测透射通过第一图像传感器的光中红外线波段的光。
在实施方式中,第一图像传感器可以包括在其中限定多个像素部的有机图像传感器,其中有机图像传感器可以包括:多个第二像素电极,彼此间隔开地布置且与所述多个像素部相应;光敏层,以连续膜的形式设置在第二像素电极上,包括感测基本上在全可见光区中的光的有机光吸收材料,并且交叠所述多个像素部;第一像素电极,以连续膜的形式设置在光敏层上,交叠所述多个像素部,并且设置在光入射侧;以及多个滤色器,设置在第一像素电极上在与所述多个像素部相应的位置中,所述多个滤色器中的每个透射在某些波长区域中的光以被与其相应的像素部感测。
在实施方式中,所述多个滤色器可以包括第一滤色器、第二滤色器和第三滤色器,第一滤色器可以选择性地透射具有在大约400nm至大约500纳米(nm)的范围内的波长的光,第二滤色器可以选择性地透射具有在大约500nm至大约580nm的范围内的波长的光,第三滤色器可以选择性地透射具有在大约580nm至大约700nm的范围内的波长的光。
在实施方式中,第一图像传感器包括蓝色像素、绿色像素和红色像素。在这样的实施方式中,蓝色像素、绿色像素和红色像素的每个可以包括:设置在光入射侧的第一光透射电极;面对第一光透射电极的第二光透射电极;以及插置在第一光透射电极和第二光透射电极之间的光敏层,其中蓝色像素的光敏层可以包括吸收蓝色波长区域中的光的有机材料,绿色像素的光敏层可以包括吸收绿色波长区域中的光的有机材料,红色像素的光敏层可以包括吸收红色波长区域中的光的有机材料。
在实施方式中,蓝色像素、绿色像素和红色像素可以彼此水平地相邻。
在实施方式中,蓝色像素、绿色像素和红色像素中的其中两个可以彼此水平地相邻,蓝色像素、绿色像素和红色像素中的其它颜色的像素可以竖直地设置在由蓝色像素、绿色像素和红色像素中的所述其中两个限定的层上。
在实施方式中,蓝色像素和红色像素可以彼此水平地相邻,绿色像素可以竖直地设置在由蓝色像素和红色像素限定的层上。
在实施方式中,蓝色像素、绿色像素和红色像素可以竖直地一个设置在另一个上。
在实施方式中,蓝色像素、绿色像素和红色像素可以从物镜起顺序地一个设置在另一个上。
在实施方式中,蓝色像素的光敏层的有机材料可以具有在大约400nm至大约500nm的范围内的最大吸收波长(λmax),绿色像素的光敏层的有机材料可以具有在大约500nm至大约580nm的范围内的最大吸收波长(λmax),红色像素的光敏层的有机材料可以具有在大约580nm至大约700nm的范围内的最大吸收波长(λmax)。
在实施方式中,第二图像传感器可以包括:设置在光入射侧的第一光透射电极;面对第一光透射电极的第二光透射电极;以及光敏层,插置在第一光透射电极和第二光透射电极之间并且包括吸收红外线波段中的光的有机材料。
在实施方式中,第二图像传感器可以包括感测红外线波段中的光的硅光电二极管。
在另一实施方式中,光学成像系统还包括光学快门模块,该光学快门模块设置在第一图像传感器和第二图像传感器之间并且传输透过第一图像传感器的光中的红外线波段中的光。
在实施方式中,光学快门模块可以包括光学快门,该光学快门将红外线波段中的光调制为预定增益波形。
在实施方式中,光学快门模块还可以包括波长选择反射镜,该波长选择反射镜设置在光学快门上且反射可见光波段中的光并且透射红外线波段中的光。
在实施方式中,第一图像传感器、光学快门模块和第二图像传感器可以沿着光轴顺序地布置为基本上垂直于所述光轴。
在本发明的另一实施方式中,一种3D图像获取装置包括:此处描述的光学成像系统;光源,产生在红外线波段中的光并且将红外线波段中的光照射到对象上;视频信号处理器,利用分别来自光学成像系统的第一图像传感器和第二图像传感器的第一和第二视频信号产生3D图像;以及控制器,控制光源和视频信号处理器的操作。
在本发明的另一实施方式中,一种包括此处描述的3D图像获取装置的3D照相机。
在本发明的另一实施方式中,一种包括此处描述的3D图像获取装置的测距装置。
在本发明的另一实施方式中,一种包括此处描述的3D图像获取装置的手势识别器。
在本发明的另一实施方式中,一种包括此处描述的3D图像获取装置的游戏机。
附图说明
通过结合附图对本发明的实施方式的以下详细描述,本发明的这些和/或其它特征将变得明显且更易于理解,在附图中:
图1示意图,显示了根据本发明的用于三维(“3D”)图像获取装置的光学成像系统的实施方式的结构和包括该光学系统的3D图像获取装置的实施方式的结构;
图2是根据本发明的在用于3D图像获取装置的光学成像系统中第一图像传感器的实施方式的示意图;
图3是根据本发明的在用于3D图像获取装置的光学成像系统中第一图像传感器的备选实施方式的示意图;
图4是在用于图2和3显示的3D图像获取装置的光学成像系统中第一图像传感器的另一备选实施方式的示意性俯视平面图;
图5是根据本发明的在用于3D图像获取装置的光学成像系统中第一图像传感器的另一备选实施方式的示意图;
图6是根据本发明的在用于3D图像获取装置的光学成像系统中第一图像传感器的另一备选实施方式的示意图;
图7是根据本发明的在用于3D图像获取装置的光学成像系统中第二图像传感器的实施方式的示意图;
图8是示意图,示例性地显示用于3D图像获取装置的光学成像系统的备选实施方式的结构和包括该光学成像系统的3D图像获取装置的实施方式的结构;以及
图9是根据本发明的在用于3D图像获取装置的光学成像系统中光学快门模块的实施方式的示意图。
具体实施方式
以下将参考附图更全面地描述本发明,在附图中显示了本发明的示例性实施方式。如同本领域的技术人员能了解的,所描述的实施方式可以以各种不同的方式修改,所有修改都不脱离本发明的精神或范围。
将理解,当元件或层被称为“在”另一元件或层“上”、“连接到”或“联接到”另一元件或层时,它可以直接在所述另一元件或层上、直接连接到或直接联接到所述另一元件或层,或者可以存在居间元件或层。相反,当元件被称为“直接在”另一元件或层“上”、“直接连接到”或“直接联接到”另一元件或层时,没有居间元件或层存在。相同的附图标记始终指代相同的元件。在此使用时,术语“和/或”包括一个或多个相关列举项目的任意和所有组合。
将理解,虽然术语第一、第二等可以用于此来描述不同的元件、组件、区域、层和/或部分,但是这些元件、组件、区域、层和/或部分不应受这些术语限制。这些术语仅用于区分一个元件、组件、区域、层或部分与另一区域、层或部分。因而,以下讨论的第一元件、组件、区域、层或部分可以被称为第二元件、组件、区域、层或部分,而不脱离本发明的教导。
为了便于描述,可以在此使用空间关系术语,诸如“在……下面”、“以下”、“下”、“在……上”、“上”等来描述一个元件或特征与另一元件(或多个元件)或特征(或多个特征)如图中所示的关系。将理解,除了图中所描绘的取向之外,空间关系术语还旨在包含装置在使用或操作中的其它不同取向。例如,在一示例性实施方式中,如果在图中的装置被翻转,则被描述为“在”其它元件或特征“下”或“下面”的元件可以取向为“在”所述其它元件或特征“上"。因而,示例性术语“在……下”可以包含上和下两种取向。装置可以被另外地取向(旋转90度或其它取向),并且在此使用的空间关系描述语可以被相应地解释。
在此使用的术语仅用于描述特定实施方式,不意欲限制本发明。在此使用时,单数形式“一”和“该”也旨在包括复数形式,除非上下文清晰地另外表示。还将理解,当在本说明书中使用时,术语“包括”和/或“包含”说明所述特征、整数、步骤、操作、元件和/或组件的存在,但是不排除一个或多个其它特征、整数、步骤、操作、元件、组件和/或其组的存在或添加。
当在此使用时,考虑到对测量的质疑和与特定量的测量相关的误差(即,测量系统的限制),“大约”或“大致”包括所述值在内,并表示在本领域普通技术人员确定的对于特定值的可接受的偏差范围内。例如,“大约”可以表示在一个或多个标准偏差之内,或者在所述值的±30%、20%、10%、5%之内。
除非另外限定,在此使用的所有术语(包括技术和科学术语)具有与本发明所属的领域中的普通技术人员通常理解的相同含义。还将理解,术语(诸如在通常使用的字典中所定义的那些)应被理解为具有与其在相关领域的背景中的含义一致的含义,将不被理解为理想化或过度正式的意义,除非在此清楚地如此定义。
在此参考截面图示描述示例性实施方式,该截面图示是理想化示例性实施方式的示意性图示。因此,由于例如制造技术和/或公差引起的图示形状的偏离是可以预期的。因而,在此描述的实施方式不应被理解为限于在此示出的区域的特定形状,而是将包括例如由制造引起的形状的偏差。例如,被示为或描述为平坦的区域一般可以具有粗糙的和/或非线性的特征。此外,所示出的锐角可以是圆化的。因而,在图中示出的区域本质上是示意性的,它们的形状不旨在示出区域的精确形状,并且不旨在限制所给出的权利要求的范围。
在下文中,参考附图,说明根据一个实施方式的用于三维(“3D”)图像获取装置的光学成像系统的第一图像传感器、第二图像传感器和光学快门模块、包括这些的3D图像获取装置、以及用于3D图像获取装置的该光学成像系统。
在以下附图中,相同的附图标记表示相同的组成元件,为了清晰且为了方便起见,可以夸大组成元件的尺寸。将理解,当元件诸如层、膜、区域或基板被称为“在”另一元件“上”时,它可以直接在所述另一元件上,或者也可以存在居间元件。相反,当元件被称为“直接在”另一元件“上”时,不存在居间元件。
在下文中,将参考附图详细描述本发明的实施方式。
图1是示意图,显示了根据本发明的用于3D图像获取装置的光学成像系统的实施方式的结构和包括该光学成像系统的3D图像获取装置的实施方式的结构。
参考图1,根据本发明的3D图像获取装置700的实施方式包括产生具有预定波长的照射光的光源710、聚焦可见光和从外部对象(未示出)反射的照射光的物镜720、感测被物镜720聚焦的可见光且产生彩色图像的第一图像传感器730、感测从第一图像传感器730传输的照射光并且产生深度图像的第二图像传感器750、利用所述彩色图像和深度图像产生3D图像的视频信号处理器770以及控制器780,该控制器780控制光源710、第一图像传感器730、第二图像传感器750和视频信号处理器770的操作。在实施方式中,3D图像获取装置700还可以包括用于存储最后的3D图像的存储器790以及用于显示最后的3D图像的显示面板800。
在实施方式中,光源710可以包括能够发射为了安全而具有大约850纳米(nm)的近红外线(“NIR”)波长以及肉眼可见的照射光的发光二极管(“LED”)或激光二极管(“LD”),但是不限于此。在备选的实施方式中,可以根据设计要求使用适当的不同波段的照射光和不同类型的光源。在实施方式中,光源710可以响应从控制器780接收的控制信号而发射具有预定波长的各种形式例如正弦波、斜坡波或方波的照射光。
在实施方式中,如图1所示,如虚线所示,物镜720、第一图像传感器730和第二图像传感器750可以限定3D图像获取装置700的光学成像系统500。为了图示方便,图1示出了具有简单结构的物镜720,但是不限于此。在这样的实施方式中,物镜720可以是包括多个透镜组的变焦镜头。
在实施方式中,如上所述,在通过物镜720聚焦的光的可见光区域中的光(例如,图1所示的红光R、绿光G和蓝光B)通过第一图像传感器730感测以产生彩色图像。如上所述,参考图2至6,第一图像传感器730可以包括一个或多个像素部分,具体地,可以包括彩色像素,该彩色像素包括含有感测可见光区域中的光的材料的有机光电元件。因此,在通过物镜720聚焦的光的可见光区域中的光主要被第一图像传感器730的有机光电元件吸收,该有机光电元件包括选择性吸收可见光区域中的光的材料,除了可见光之外的其它光的红外区中的光,例如近红外区(例如,图1所示的红外线IR)中的光,也就是,大约700nm至大约1100nm的波长范围,或大约800nm至大约1100nm的波长范围,被感测红外区中的光的第二图像传感器750吸收以产生深度图像。
在这样的实施方式中,因为感测可见光的第一图像传感器730设置在物镜720的正后方并且感测红外光的第二图像传感器750设置在第一图像传感器730的正后方,所以用于3D图像获取装置700的光学成像系统500可以操作而不需要用于分离可见光与红外光的单独复杂构造。在这样的实施方式中,第一图像传感器730包括选择性地吸收和感测可见光的材料,因而被传输通过第一图像传感器730的光很少包括可见光,而除可见光之外的光,例如红外光,进入第二图像传感器750。在这样的实施方式中,因为第二图像传感器750仅选择性地感测红外光,所以用于3D图像获取装置的光学成像系统500有效地操作而不需要用于从入射光分离可见光和红外光的单独构造,因而光学成像系统500和包括该光学成像系统500的3D图像获取装置可具有减小的尺寸,例如,薄的厚度。在这样的实施方式中,光学成像系统500或包括该光学成像系统500的3D图像获取装置的制造成本可以降低,其光效率可以提高。
在下文中,将参考图2至6描述图1所示的3D图像获取装置700的光学成像系统500的第一图像传感器730的各种实施方式。
在实施方式中,如图2所示,在光学成像系统500中包括的第一图像传感器730包括感测可见光波段中的光的多个像素部100,所述多个像素部分别包括包含感测在某些或特定可见光区中的光的有机材料。
图2是示意性地显示根据本发明的第一图像传感器730的实施方式的截面图,其包括设置在入射侧的第一像素电极120、面对第一像素电极并且一个像素接着一个像素分开设置的第二像素电极110B、110R和110G、设置在第一像素电极120与第二像素电极110B、110R和110G之间并且包括吸收可见光波段的全波长区中的光的有机材料的光敏层130W、以及与第一像素电极120上的像素相应地设置的多个滤色器170B、170R和170G。在这样的实施方式中,如图2所示,第一像素电极120和光敏层130W可具有交叠所有的第二像素电极110B、110R和110G的连续膜形状。
在下文中,参考符号中包括‘B’的组成元件指的是限定蓝色像素的组成元件,参考符号中包括‘G’的组成元件指的是限定绿色像素的组成元件,参考符号中包括‘R’的组成元件指的是限定红色像素的组成元件。
在实施方式中,滤色器170B是选择性地透射具有在大约400nm到大约500nm范围中的波长的光的蓝色滤色器,滤色器170G是选择性地透射具有在大约500nm到大约580nm范围中的波长的光的绿色滤色器,滤色器170R是选择性地透射具有在大约580nm到大约700nm范围中的波长的光的红色滤色器。
第一像素电极120和第二像素电极110B、110G和110R是透明电极,因而第一图像传感器730可以通过每个像素选择性地吸收在可见光波段的某些或特定波长区中的光并且使得包括红外光的其余光穿过其透射。
第一像素电极120和第二像素电极110B、110g和110R可以是用于制造图像传感器的有机光电元件的光透射电极。在一个实施方式中,例如第一像素电极120和第二像素电极110B、110G和110R可以包括例如透明导体诸如铟锡氧化物(“ITO”)、铟锌氧化物(“IZO”)、锌氧化物(ZnO)、锡氧化物(SnO)、铝锡氧化物(“AlTO”)和氟掺杂的锡氧化物(“FTO”),或可以包括具有几纳米或几十纳米的薄厚度的金属薄膜、用金属氧化物掺杂的具有几纳米至几十纳米的薄厚度的金属薄膜、导电聚合物电极或其组合。
包括吸收可见光波段的全波长区中的光的有机材料的光敏层130W可以基本上吸收在全可见光区域中的光,例如,具有在从大约400nm到大约700nm范围中的波长的光。光敏层130W可以包括p型半导体材料和n型半导体材料,p型半导体材料和n型半导体材料的至少一种可以例如吸收全可见光区域中的光。
光敏层130W可以包括例如从聚苯胺、聚吡咯、聚噻吩、聚对苯撑乙烯、苯并二噻吩、噻吩并噻吩、聚[2-甲氧基-5-(2’-乙基-己氧基)-1,4-苯撑乙烯撑]、(“MEH-PPV”)、聚[2-甲氧基-5-(3,7-二甲基辛氧基)-1,4-苯乙炔](“MDMO-PPV”)、并五苯、二萘嵌苯、聚(3,4-乙烯二氧噻吩)(“PEDOT”)、聚(3-烷基噻吩)、聚((4,8-二(2-辛氧基)苯并[1,2-b:4,5-b']二噻吩)-2,6-二基-交替-(2-((十二烷氧基)羰基)噻吩并([3,4-b]噻吩)-3,6-二基)(“PTB1”)、聚((4,8-二(2-乙基己氧基)苯并[1,2-b:4,5-b']二噻吩)-2,6-二基-交替-(2-((2-乙基己氧基)羰基)-3-氟噻吩并([3,4-b]噻吩)-3,6-二基)(“PTB7”)、酞菁、锡(II)酞菁(SnPc)、铜酞菁、三芳胺、对二氨基联苯、吡唑啉、苯乙烯胺、腙、咔唑、噻吩、3,4-乙烯二氧噻吩(“EDOT”)、吡咯、菲、并四苯、萘、红荧烯、1,4,5,8-萘-二萘嵌苯四甲酸二酐(“NTCDA”)、三-(8-羟基喹啉)铝(“Alq3”)、富勒烯(例如C60、C70、C74、C76、C78、C82、C84、C720、C860等)、1-(3-甲氧基-羧基)丙基-1-苯基(6,6)C61(“PCBM”)、富勒烯衍生物诸如C71-PCBM、C84-PCBM和二-PCBM、无机半导体诸如CdS、CdTe、CdSe和ZnO、其衍生物和其共聚物中选择的至少两种,而不受限制。
滤色器170B、170R和170G分别透射在通过物镜720聚焦到第一像素电极120上的光当中的某些或特定波段中的光,使得吸收可见光的全波长区域中的光且设置在每个滤色器170B、170R和170G下面的光敏层130W可以选择性地吸收和感测从与其相应的滤色器传输的光并且通过设置在光敏层130W下面的第二像素电极110B、110G和110R将所吸收的光转换成电信号。因此,每个像素有效地感测在与其相应的某些或特定波长区域中的光并且输出相应的电信号。所输出的电信号可以为了第一图像传感器730的透明性而被传输到透明的薄膜晶体管(“TFT”)并且基于来自每个像素的电信号而被传送到设置在图1所示的3D图像获取装置700中的视频信号处理器770。
图3显示了用于图1所示的3D图像获取装置700的光学成像系统500的第一图像传感器730的备选实施方式。
在这样的实施方式中,光学成像系统500的第一图像传感器730包括感测可见光波段中的光的多个像素,所述多个像素包括光电元件,每个光电元件包括感测在与其相应的某些或特定可见光区域中的光的有机材料。
在这样的实施方式中,如图3所示,第一图像传感器包括蓝色像素100B、绿色像素100G和红色像素100G、设置在光入射侧的第一光透射电极20B、20G和20R、分别面对第一光透射电极20B、20G和20R的第二光透射电极10B、10G和10R、以及设置在第一光透射电极20B、20G和20R与第二光透射电极10B、10G和10R之间并且每个包括吸收在与其相应的某些或特定波长区域中的光的有机材料的光敏层30B、30G和30R,这样的像素在同一层中水平地布置。
在这样的实施方式中,如图3所示,可以省略在第一光透射电极20B、20G和20R上的滤色器。在图2所示的实施方式中,光敏层130W包括吸收在用于第一图像传感器的可见光的全波长区域中的光的材料或由其形成,因而用于传输在某些或特定波长区域中的光的滤色器设置在光通过其进入的第一光透射电极上,以吸收与每个像素相应的在某些或特定波长区域中的光。然而,在图3所示的实施方式中,每个像素分别包括选择性地吸收在彼此不同的波长区域中的光的光敏层30B、30G和30R的其中之一,从而可以省略滤色器。
蓝色像素100B的光敏层30B可以包括选择性地吸收在蓝色波长区域中的光的p型半导体材料和选择性地吸收在蓝色波长区域中的光的n型半导体材料,绿色像素100G的光敏层30G可以包括选择性地吸收在绿色波长区域中的光的p型半导体材料和选择性地吸收在绿色波长区域中的光的n型半导体材料,红色像素100R的光敏层30R可以包括选择性地吸收在红色波长区域中的光的p型半导体材料和选择性地吸收在红色波长范围中的光的n型半导体材料。
在图3显示的第一图像传感器的实施方式中,第一光透射电极20B、20G和20R、以及第二光透射电极10B、10G和10R可以包括与图2显示的第一图像传感器的第一像素电极120和第二像素电极110B、110R和110G相同的材料,因而将省略其任何重复的详细描述。
图4是示意性地显示在图2或3显示的第一图像传感器的实施方式中的像素的布置的平面图。图2或3显示的第一图像传感器的这样的实施方式可以在平面图中具有相同的形状。在这样的实施方式中,如图2所示,第一图像传感器的每个像素可以通过透射像素感测的在某些或特定波长区域中的光的滤色器170B、170R和170G限定或分隔,或如图3所示,第一图像传感器的每个像素可以通过每个像素自身100B、100G和100R或第一光透射电极20B、20G和20R限定或分隔。
图5是示意性地显示在图1所示的3D图像获取装置700中的光学成像系统500的第一图像传感器730的另一备选实施方式的视图。
在实施方式中,如图5所示,第一图像传感器包括蓝色像素100B、红色像素100R和绿色像素100G。在这样的实施方式中,如图5所示,蓝色像素100B和红色像素100R可以在同一层中关于彼此水平地设置或布置,而绿色像素100G可以竖直地设置或层叠在水平布置的蓝色像素100B和红色像素100R上。蓝色像素100B、红色像素100R和绿色像素100G可以每个包括有机光电元件。
在这样的实施方式中,蓝色像素100B可以包括设置在光入射侧的第一光透射电极120、面对第一光透射电极120的第二光透射电极110、以及设置在第一光透射电极120和第二光透射电极110之间并且包括吸收在蓝色波长区域中的光的有机材料的光敏层130B。在这样的实施方式中,红色像素100R可以包括设置在光入射侧的第一光透射电极120、面对第一光透射电极120的第二光透射电极110、以及设置在第一光透射电极120和第二光透射电极110之间并且包括吸收在红色波长区域中的光的有机材料的光敏层130R。在这样的实施方式中,绿色像素100G可以包括设置在光入射侧的第一光透射电极120、面对第一光透射电极120的第二光透射电极110、以及设置在第一光透射电极120和第二光透射电极110之间并且包括吸收在红色波长区域中的光的有机材料的光敏层130G。在这样的实施方式中,蓝色像素的光敏层的有机材料可具有在大约400nm至大约500nm范围内的最大吸收波长(λmax),绿色像素的光敏层的有机材料可具有在大约500nm至大约580nm的范围内的最大吸收波长(λmax),红色像素的光敏层的有机材料可具有在大约580nm至大约700nm的范围内的最大吸收波长(λmax)。
蓝色像素的光敏层130B可以包括选择性地吸收在蓝色波长区域中的光的p型半导体材料和选择性地吸收在蓝色波长区域中的光的n型半导体材料,红色像素的光敏层130R可以包括选择性地吸收在红色波长区域中的光的p型半导体材料和选择性地吸收在红色波长区域中的光的n型半导体材料,绿色像素的光敏层130G可以包括选择性地吸收在绿色波长区域中的光的p型半导体材料和选择性地吸收在绿色波长区域中的光的n型半导体材料。
在图5显示的第一图像传感器中的每个像素的第一光透射电极120和第二光透射电极110与图2显示的第一图像传感器的第一像素电极120和第二像素电极110B、110R和110G基本上相同,将省略其任何重复的详细描述。
图5显示了具有其中蓝色像素100B和红色像素100R水平地设置并且绿色像素100G竖直地设置或层叠在其上的结构的实施方式,但是其不限于此。在备选的实施方式中,第一图像传感器可具有其中蓝色像素100B、红色像素100R和绿色像素100G中的任何两个像素在同一层中水平地并排布置而蓝色像素100B、红色像素100R和绿色像素100G中的剩余像素竖直地设置在其上,例如,竖直地设置在由蓝色像素100B、红色像素100R和绿色像素100G中的两个像素限定的同一层上。
图6显示了图1所示的3D图像获取装置700的光学成像系统500的第一图像传感器730的另一备选实施方式。
在实施方式中,如图6所示,第一图像传感器包括包含像素的有机光电元件,该像素包括吸收且感测在与其相应的某些或特定波长区域中的光的光敏层。在由这些光电元件分别感测的每个波长区域中的光通过在每个器件中的第二光透射电极被转换为电信号,因而每个像素可以分别感测在与其相应的某些或特定波长区域中的光,并且输出与所感测的光相应的电信号。所输出的电信号被传送到图1的3D图像获取装置700中的视频信号处理器770,并且可以基于来自每个像素的电信号产生彩色图像。
参考图6,第一图像传感器的实施方式包括蓝色像素100B、绿色像素100G和红色像素100R,并且具有其中蓝色像素100B、绿色像素100G和红色像素100R顺序地竖直设置例如层叠的结构。蓝色像素100B、绿色像素100G和红色像素100R可以每个是有机光电元件。
在这样的实施方式中,蓝色像素100B包括设置在光入射侧的第一光透射电极20B、面对第一光透射电极20B的第二光透射电极10B、以及设置在第一光透射电极20B和第二光透射电极10B之间并且包括吸收在蓝色波长区域中的光的有机材料的光敏层30B。在这样的实施方式中,绿色像素100G可以包括设置在光入射侧的第一光透射电极20G、面对第一光透射电极20G的第二光透射电极10G、以及设置在第一光透射电极20G和第二光透射电极10G之间并且包括吸收在绿色波长区域中的光的有机材料的光敏层30G。在这样的实施方式中,红色像素100R可以包括设置在光入射侧的第一光透射电极20R、面对第一光透射电极20R的第二光透射电极10R、以及设置在第一光透射电极20R和第二光透射电极10R之间并且包括吸收在红色波长区域中的光的有机材料的光敏层30R。
蓝色像素100B的光敏层30B可以包括选择性地吸收在蓝色波长区域中的光的p型半导体材料和选择性地吸收在蓝色波长区域中的光的n型半导体材料,绿色像素100G的光敏层30G可以包括选择性地吸收在绿色波长区域中的光的p型半导体材料和选择性地吸收在绿色波长区域中的光的n型半导体材料,红色像素100R的光敏层30R可以包括选择性地吸收在红色波长区域中的光的p型半导体材料和选择性地吸收在红色波长区域中的光的n型半导体材料。
在图6显示的第一图像传感器的实施方式中,红色像素100R、绿色像素100G和蓝色像素100B自下而上顺序地一个竖直设置在另一个上,但是不限于此。在备选的实施方式中,蓝色像素、绿色像素和红色像素可以以不同的顺序竖直地设置或层叠。
在图6中显示的第一图像传感器中的第一光透射电极20B、20G、20R和第二光透射电极10B、10G、10R可以与图2中示出的第一图像传感器的第一像素电极120和第二像素电极110B、110R和110G基本上相同,将省略其任何重复的详细描述。
在实施方式中,在图1中显示的3D图像获取装置700的光学成像系统500的第二图像传感器750可以包括有机光电元件,该有机光电元件包括第一光透射电极20IR、面对第一光透射电极20IR的第二光透射电极10IR、以及设置在第一光透射电极20IR和第二光透射电极10IR之间并且包括选择性地感测红外区中的光的材料的光敏层30IR,如图7所示。
在这样的实施方式中,包括选择性地感测红外区中的光的材料的光敏层30IR可以包括选择性地吸收红外区中的光的p型半导体材料以及与p型半导体材料形成PN结的n型半导体材料。
选择性地吸收红外区中的光的p型半导体材料可以是,例如,能够吸收大于或等于大约700nm的波段中的光的酞菁基化合物作为其中空穴成为多数载流子的半导体材料。在一个实施方式中,例如,酞菁基化合物可以包括锡基、铝基、钠基、铯基和锰基酞菁化合物、酞菁氧钛(oxy titaniumphthalocyanine)等等。在实施方式中,锡基酞菁化合物可以是表现出在从大约600nm到大约900nm范围的波段的光吸收特性的SnPC。
在一个实施方式中,例如,n型半导体材料可以包括富勒烯诸如C60或C70等等作为其中电子成为多数载流子的半导体有机材料。备选地,n型半导体材料可以包括萘四羧酸酯酐(“NTCDA”)、Alq3、双(苯并喹啉)铍(“Bebq2”)等等。
第二图像传感器的第一光透射电极20IR和第二光透射电极10IR可以分别与图2所示的第一像素电极120和第二像素电极110B、110R和110G基本上相同,将省略其任何重复的详细描述。
在这样的实施方式中,包括吸收可见光波长区域中的光的材料的可见光吸收层(未示出)可以进一步设置在第二图像传感器750的第一光透射电极20IR上。在实施方式中,可见光吸收层可以被选择性地提供在第二图像传感器750的第一光透射电极20IR上以阻挡在可见光波长区域中的光,尽管可见光波长区域中的光很少没有在第一图像传感器730中被吸收而到达第二图像传感器750。备选地,飞行时间(“TOF”)传感器可以另外地设置在第二图像传感器750上以调制通过第二图像传感器750进入的照射光或红外光。
在实施方式中,用于3D图像获取装置的光学成像系统500的第一图像传感器730可以包括有机光电元件,该有机光电元件包括吸收并感测某些或特定可见光区中的光的材料。在这样的实施方式中,第二图像传感器750可以不包括有机光电元件。在这样的实施方式中,与设置在第二图像传感器750前面的第一图像传感器730不同,设置在第一图像传感器730后面的第二图像传感器750可以包括无机光电元件,例如电荷耦合器件(“CCD”)或互补金属氧化物半导体(“CMOS”),并且吸收在可见光区域中的光并将其余的光传送到第二图像传感器750。
第一图像传感器730感测在可见光区中的光以产生彩色图像,因而第一图像传感器720包括感测蓝色、绿色和红色波长区域中的光的多个像素,将入射光的量转换成关于每个像素的电信号,然后输出该电信号。与用于产生仅具有深度信息的深度图像的第二图像传感器750相比,用于产生彩色图像的第一图像传感器730可具有高分辨率。因此,第二图像传感器750可以小于第一图像传感器730。当第一图像传感器730和第二图像传感器750的尺寸彼此不同时,由第一图像传感器730产生的彩色图像和由第二图像传感器750产生的深度图像可具有不同的视场。在这样的实施方式中,具有较大尺寸的第一图像传感器730可以产生具有宽视场的彩色图像,第二图像传感器750可以产生具有窄视场的深度图像。因而,在这样的实施方式中,其放大倍率小于1的用于缩小图像的缩放光学系统(未示出)可以进一步设置在第一图像传感器730和第二图像传感器750之间以使第一图像传感器730和第二图像传感器750之间的视场匹配。在实施方式中,在包括缩放光学系统的情形下,通过缩放光学系统缩小的图像入射在第二图像传感器750上,使得由第二图像传感器750产生的图像的视场可以通过该缩放而加宽。
如此处描述的,包括第一图像传感器730以及第二图像传感器750的光学成像系统500可以被包括在各种3D图像获取装置中,例如3D照相机、测距装置、手势识别器、游戏机等,但是不限于此,其中第一图像传感器730包括有机光电元件并且产生彩色图像,第二图像传感器750感测从对象反射的照射光中在可见光区的光被吸收在第一图像传感器730中之后其余的照射光并且产生立体图像。
用于3D图像获取装置700的光学成像系统500的备选实施方式包括物镜720、第一图像传感器730和第二图像传感器750,如图1所示,还可以包括设置在第一图像传感器730和第二图像传感器750之间并且透射照射光(例如,从第一图像传感器730透射的光当中的红外区中的光)的光学快门模块740(图8中显示)。
图8是显示根据本发明的用于3D图像获取装置的光学成像系统600的实施方式以及包括光学系统600的3D图像获取装置900的实施方式的结构的示意图。
参考图8,根据本发明的3D图像获取装置900的实施方式包括产生具有预定波长的照射光的光源710、聚焦可见光和从外部对象(未示出)反射的照射光的物镜720、感测被物镜720聚焦的可见光且产生彩色图像的第一图像传感器730、透射从第一图像传感器730传输的光中的照射光的光学快门模块740、配置为感测从光学快门模块740发出的照射光并且产生深度图像的第二图像传感器750、利用彩色图像和深度图像产生3D图像的视频信号处理器770、以及控制光源710、第一图像传感器730、光学快门模块740、第二图像传感器750和视频信号处理器770的操作的控制器780。在这样的实施方式中,3D图像获取装置900还可以包括用于存储最后的3D图像的存储器790以及用于显示最后的3D图像的显示面板800。
在图8的实施方式中,如虚线所指示的,物镜720、第一图像传感器730、光学快门模块740和第二图像传感器750可以限定3D图像获取装置900的光学成像系统600。光学快门模块740可以设置在感测可见光波段中的光的第一图像传感器730的后面,光学快门模块740可以朝向第二图像传感器750传输照射光(例如,在透过第一图像传感器730的光当中的红外线波段中的光)。在实施方式中,第一图像传感器、光学快门模块和第二图像传感器可以沿着光学成像系统600的光轴顺序地布置为基本上垂直于光轴。
在3D图像获取装置900的实施方式中,如图8所示,由物镜720聚焦的光的可见光波段中的光被第一图像传感器730感测以产生彩色图像。如上所述,参考图2至6,第一图像传感器730可以包括多个像素部,例如,可以包括彩色像素,该彩色像素包括含有感测可见光区域中的光的材料的有机光电元件。因此,由物镜720聚焦的光的可见光区域中的光主要被第一图像传感器730的有机光电元件吸收,该第一图像传感器730包括选择性地吸收可见光区域中的光的材料,除可见光之外的其它光透过第一图像传感器730并且传送到光学快门模块740。光学快门模块740可以透射其余光当中的照射光,例如红外区中的光,例如,近红外区中的光,也就是,具有从大约700nm到大约1100nm或从大约800nm到大约1100nm范围中的波长的光,因而仅通过光学快门模块740的红外区中的光可以到达第二图像传感器750,因此由第二图像传感器750产生深度图像。
如上所述,用于3D图像获取装置900的光学成像系统600的实施方式包括在物镜720后面的感测可见光区中的光的第一图像传感器730,在第一图像传感器730后面的透射红外线波段中的光的光学快门模块740、以及在光学快门模块740后面的感测红外线波段中的光的第二图像传感器750,使得光学快门模块740有效地操作而不需要用于从照射光分离可见光(也就是,使可见光与红外光分离)的单独复杂结构。在这样的实施方式中,第一图像传感器730包括选择性地吸收可见光并因而吸收通过第一图像传感器730的可见光中的大部分光的材料,而包括红外光的其余光通过光学快门模块740,因此,光学快门模块740有效地操作而不需要使可见光从入射光分离以将红外光传输到第二图像传感器750的单独构造。在这样的实施方式中,第二图像传感器750选择性地吸收并感测仅红外光,光学快门模块740可以在用于3D图像获取装置900的光学成像系统600中没有用于使可见光和红外光从入射光分离的构造的情况下操作,因而光学快门模块740可具有减小的尺寸,例如光学成像系统600和3D图像获取装置900可以被制造得更薄。因此,3D图像获取装置900可以以低成本被有效地制造。
光学快门模块740可以通过能够传输照射光(也就是,通过第一图像传感器730的光中的红外区中的光)的任何材料制造,而没有用于使照射光或红外区中的光与可见光或其它波长区中的光分离的任何额外构造。
在实施方式中,波长选择反射镜(wavelength selectivity mirror),也就是,用于反射可见光的反射层可以进一步设置在光学快门模块740的一侧或两侧,例如设置在光学快门模块740的面对第一图像传感器730的表面上以通过去除可见光区中没有被吸收到第一图像传感器730中的一部分光而更有效地传输红外区中的光。此处,没有被吸收而是从第一图像传感器730透射的一部分光可以在波长选择反射镜处被反射并且被去除,但是红外线波长区域中的光通过波长选择反射镜并经过调制红外线波段中的光的光学快门,然后被第二图像传感器750感测。在实施方式中,光学快门根据TOF方法将从图像传感器第一次传输的照射光例如红外光调制成预定增益波形以获得关于对象的深度信息。在一个实施方式中,例如,光学快门可以是用于以几十至几百兆赫高速驱动的GaAs基半导体调制器。
在图8中显示的3D图像获取装置900的实施方式中,光源710、物镜720、第一图像传感器730、第二图像传感器750、视频信号处理器770、控制器780、存储器790、用于显示3D图像的显示面板800等等与图1至7中示出的那些相同,将省略其任何重复的详细描述。
图9是显示根据本发明的光学快门模块740的实施方式的结构的示意图。
参考图9,光学快门模块740的实施方式包括设置在基板10上并且反射与其相应的某些或特定波段中的光(例如可见光区域中的光)的第一和第二反射层11和16、设置在第一和第二反射层11和16之间并且具有取决于电场变化的折射率的晶体电光薄膜层14、设置在第一和第二反射层11和16之间并且以电光薄膜层14设置在其间的方式彼此间隔开以及向电光薄膜层14施加电场的第一和第二电极12和15、以及设置在第一电极12和电光薄膜层14之间或在第二电极15和电光薄膜层14之间的区域中以防止电流流入电光薄膜层14的电流防止层13。
基板10可以包括能够透射光的透明非晶材料例如玻璃、蓝宝石、硅、III-V族GaAs等等,或者由其形成。基板10的材料可以取决于用于调制的光波段或基于光学快门模块的类型(例如,光学快门模块是反射型或透射型)而被选择。
在实施方式中,通过可选地层叠具有彼此不同的折射率的两种透明电介质材料薄膜,第一和第二反射层11和16可具有关于某些或特定波段中的光的高反射率。在这样的实施方式中,同时具有光的透射和反射特性的层,诸如薄金属等而不是电介质材料薄膜,可以被用作第一和第二反射层11和16。在实施方式中,第一反射层11和第二反射层16可以基本上彼此相同,例如可以具有相同的材料以及相同的结构,第一反射层11或第二反射层16可以被省略。
第一反射层11和第二反射层16可具有大于或等于大约97%的相同反射率。然后,在与谐振模式相应的窄波段中的光可以被透射,而入射光在第一反射层11和第二反射层16之间谐振,其中电光薄膜层14在第一反射层11和第二反射层16的中间。因此,包括第一反射层11、电光薄膜层14和第二反射层16的结构是具有可控制的短波长透射特性的法布里-珀罗滤光器。透射光的波段可以取决于电光薄膜层14的折射率和厚度被控制。
电光薄膜层14可以包括具有当电场被施加到其上时变化的折射率的材料(也就是,显示电光(“EO”)效应的材料)或由其形成,这样的材料可以取决于电场的大小而改变谐振光的波长。这样的材料可以包括例如KTN、LiNbO3、PZT、PLZT和液晶中的至少一种。
电光薄膜层14可以包括具有当电场被施加到其上时变化的光吸收率的材料(也就是,显示电吸附(“EA”)效应的材料),或由其形成。在一个实施方式中,例如,电光薄膜层14可通过利用III-V族半导体并因而利用多量子阱(“MQW”)中的吸收波长根据电场的施加移动的性能而具有MQW结构。
第一电极12和第二电极15设置为施加电压,使得电场形成在包括透明导电材料的电光薄膜层14中。
电流防止层13防止第一和第二电极12和15中的至少一个的电流流入电光薄膜层14。电流防止层13可以包括包含ZrO2、TiO2、MgO、CeO2、Al2Oe、HfO2、NbO、SiO2和Si3N4的至少之一的绝缘材料,或由其形成。在这样的实施方式中,电流防止层13的绝缘材料可以基于电光薄膜层14的材料特性而被不同地选择。
电流防止层13可以设置在如图9所示的第一电极12和电光薄膜层14之间。然而,电流防止层13也可以设置在电光薄膜层14和第二电极15之间。备选地,电流防止层13可以设置在第一电极12和电光薄膜层14之间以及第二电极15和电光薄膜层14之间。
虽然已经结合目前被认为可行的示例性实施方式描述了本公开,但是将理解,本公开不限于所公开的实施方式,而是相反地,本公开旨在覆盖权利要求的精神和范围内包括的各种变形和等效布置。
本申请要求享有2015年1月30日提交的韩国专利申请No.10-2015-0015218的优先权以及由此产生的所有权益,其内容通过引用被整体合并于此。

Claims (20)

1.一种用于三维图像获取装置的光学成像系统,所述光学成像系统包括:
物镜,聚焦光;
第一图像传感器,感测由所述物镜聚焦的所述光中可见光波段的光;以及
第二图像传感器,感测透射通过所述第一图像传感器的光中红外线波段的光。
2.根据权利要求1所述的光学成像系统,其中
所述第一图像传感器包括在其中限定多个像素部的有机图像传感器,
其中所述有机图像传感器包括:
多个第二像素电极,彼此隔开地布置且与所述多个像素部相应;
光敏层,以连续膜的形式设置在所述第二像素电极上,包括感测在全可见光区中的光的有机材料,并且交叠所述多个像素部;
第一像素电极,以连续膜的形式设置在所述光敏层上,交叠所述多个像素部,并且设置在光入射侧;以及
多个滤色器,设置在所述第一像素电极上在与所述多个像素部相应的位置处,所述多个滤色器中的每个透射在某些波长区域中的光以被与其相应的像素部感测。
3.根据权利要求2所述的光学成像系统,其中
所述多个滤色器包含第一滤色器、第二滤色器和第三滤色器,
所述第一滤色器选择性地透射具有在400nm至500nm的范围内的波长的光,
所述第二滤色器选择性地透射具有在500nm至580nm的范围内的波长的光,以及
所述第三滤色器选择性地透射具有在580nm至700nm的范围内的波长的光。
4.根据权利要求1所述的光学成像系统,其中
所述第一图像传感器包括蓝色像素、绿色像素和红色像素,
所述蓝色像素、所述绿色像素和所述红色像素的每个包括:
设置在光入射侧的第一光透射电极;
面对所述第一光透射电极的第二光透射电极;以及
插置在所述第一光透射电极和所述第二光透射电极之间的光敏层,
所述蓝色像素的所述光敏层包括吸收蓝色波长区域中的光的有机材料,
所述绿色像素的所述光敏层包括吸收绿色波长区域中的光的有机材料,以及
所述红色像素的所述光敏层包括吸收红色波长区域中的光的有机材料。
5.根据权利要求4所述的光学成像系统,其中
所述蓝色像素、所述绿色像素和所述红色像素彼此水平地相邻。
6.根据权利要求4所述的光学成像系统,其中
所述蓝色像素、所述绿色像素和所述红色像素中的两个彼此水平地相邻,以及
所述蓝色像素、所述绿色像素和所述红色像素中的其它颜色像素竖直地设置在由所述蓝色像素、所述绿色像素和所述红色像素中的所述两个限定的层上。
7.根据权利要求6所述的光学成像系统,其中
所述蓝色像素和所述红色像素彼此水平地相邻,以及
所述绿色像素竖直地设置在由所述蓝色像素和所述红色像素限定的层上。
8.根据权利要求4所述的光学成像系统,其中
所述蓝色像素、所述绿色像素和所述红色像素竖直地一个设置在另一个上。
9.根据权利要求8所述的光学成像系统,其中
所述蓝色像素、所述绿色像素和所述红色像素从所述物镜起顺序地一个设置在另一个上。
10.根据权利要求4所述的光学成像系统,其中
所述蓝色像素的所述光敏层的所述有机材料具有在400nm至500nm的范围内的最大吸收波长(λmax),
所述绿色像素的所述光敏层的所述有机材料具有在500nm至580nm的范围内的最大吸收波长(λmax),以及
所述红色像素的所述光敏层的所述有机材料具有在580nm至700nm的范围内的最大吸收波长(λmax)。
11.根据权利要求1所述的光学成像系统,其中所述第二图像传感器包括:
设置在光入射侧的第一光透射电极;
面对所述第一光透射电极的第二光透射电极;以及
光敏层,插置在所述第一光透射电极和所述第二光透射电极之间,其中所述光敏层包括吸收红外线波段中的光的有机材料。
12.根据权利要求1所述的光学成像系统,其中
所述第二图像传感器包括感测所述红外线波段中的光的硅光电二极管。
13.根据权利要求1所述的光学成像系统,还包括:
光学快门模块,设置在所述第一图像传感器和所述第二图像传感器之间并且将透射通过所述第一图像传感器的光中的所述红外线波段中的光传送到所述第二图像传感器。
14.根据权利要求13所述的光学成像系统,其中所述光学快门模块包括:
波长选择反射镜,反射所述可见光波段中的光并且透射所述红外线波段中的光;以及
光学快门,将所述红外线波段中的光调制为预定的增益波形。
15.根据权利要求13所述的光学成像系统,其中
所述第一图像传感器、所述光学快门模块和所述第二图像传感器沿着光轴顺序地布置为垂直于所述光轴。
16.一种三维图像获取装置,包括:
权利要求1所述的光学成像系统;
光源,产生在所述红外线波段中的光并且将所述红外线波段中的所述光照射到对象上;
视频信号处理器,利用分别来自所述光学成像系统的所述第一图像传感器和所述第二图像传感器的第一和第二视频信号产生三维图像;以及
控制器,控制所述光源和所述视频信号处理器的操作。
17.一种三维照相机,包括权利要求16所述的三维图像获取装置。
18.一种测距装置,包括权利要求16所述的三维图像获取装置。
19.一种手势识别器,包括权利要求16所述的三维图像获取装置。
20.一种游戏机,包括权利要求16所述的三维图像获取装置。
CN201610028856.9A 2015-01-30 2016-01-15 光学成像系统以及包括该光学成像系统的3d图像获取装置 Active CN105847784B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0015218 2015-01-30
KR1020150015218A KR102282218B1 (ko) 2015-01-30 2015-01-30 3 차원 영상 획득 장치용 결상 광학계 및 이를 포함하는 3 차원 영상 획득 장치

Publications (2)

Publication Number Publication Date
CN105847784A true CN105847784A (zh) 2016-08-10
CN105847784B CN105847784B (zh) 2018-08-07

Family

ID=55357850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610028856.9A Active CN105847784B (zh) 2015-01-30 2016-01-15 光学成像系统以及包括该光学成像系统的3d图像获取装置

Country Status (4)

Country Link
US (1) US10869018B2 (zh)
EP (1) EP3059950B1 (zh)
KR (1) KR102282218B1 (zh)
CN (1) CN105847784B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108110017A (zh) * 2016-11-24 2018-06-01 比亚迪股份有限公司 复合像素单元及其制备方法、像素阵列及其应用
CN109889707A (zh) * 2019-02-02 2019-06-14 北京空间机电研究所 一种纸片成像系统
CN111584673A (zh) * 2020-05-22 2020-08-25 成都天马微电子有限公司 传感器、传感器的制造方法及电子设备
CN112867962A (zh) * 2018-09-11 2021-05-28 恩耐公司 电光调制器及其用于三维成像的使用和制造方法
WO2023283919A1 (zh) * 2021-07-16 2023-01-19 华为技术有限公司 一种图像传感器以及电子设备

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6442710B2 (ja) * 2013-07-23 2018-12-26 パナソニックIpマネジメント株式会社 固体撮像装置、撮像装置及びその駆動方法
CN107049254A (zh) * 2017-04-05 2017-08-18 展谱光电科技(上海)有限公司 便携式多光谱摄像和投影装置及方法
JP6796039B2 (ja) * 2017-05-01 2020-12-02 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited イメージセンサー
JP6973480B2 (ja) * 2017-05-08 2021-12-01 ソニーグループ株式会社 レーザ装置組立体
EP3474328B1 (en) * 2017-10-20 2021-09-29 Samsung Electronics Co., Ltd. Combination sensors and electronic devices
EP3508880A1 (en) * 2018-01-05 2019-07-10 Koninklijke Philips N.V. Laser arrangement with optical filter
KR102649560B1 (ko) * 2019-05-24 2024-03-19 삼성전자주식회사 광학 무선 통신 시스템
FR3098991B1 (fr) * 2019-07-19 2023-08-25 Isorg Pixel de capteur d’images
US11828851B2 (en) 2020-01-20 2023-11-28 The Board Of Trustees Of The Leland Stanford Junior University Wide-field resonant electro-optic imaging devices and applications

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09166493A (ja) * 1995-12-15 1997-06-24 Nikon Corp 撮像装置、撮像方法、および受光装置
JPH10210486A (ja) * 1997-01-21 1998-08-07 Sony Corp 画像撮像装置および方法
JP2000059798A (ja) * 1998-08-10 2000-02-25 Sony Corp 近赤外光/可視光共用撮像装置
CN1270706A (zh) * 1997-08-15 2000-10-18 尤尼艾克斯公司 具有可切换的感光灵敏度的有机二极管
US20020186976A1 (en) * 2001-06-08 2002-12-12 Asahi Kogaku Kogyo Kabushiki Kaisha Image-capturing device and diaphragm
CN101026776A (zh) * 2006-02-24 2007-08-29 罗技欧洲公司 在图像捕捉装置中使用3d传感器的方法和系统
US20120300038A1 (en) * 2011-05-24 2012-11-29 Inha Industry Partnership Institute Photonic crystal type light modulator and 3d image acquisition apparatus employing the same
US20130033579A1 (en) * 2010-02-19 2013-02-07 Dual Aperture Inc. Processing multi-aperture image data
US20140098192A1 (en) * 2012-10-10 2014-04-10 Samsung Electronics Co., Ltd. Imaging optical system and 3d image acquisition apparatus including the imaging optical system
WO2014204111A1 (en) * 2013-06-19 2014-12-24 Samsung Electronics Co., Ltd. Layered type color-depth sensor and three-dimensional image acquisition apparatus employing the same

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60130274A (ja) * 1983-12-19 1985-07-11 Toshiba Corp 固体撮像装置
JP3551571B2 (ja) * 1995-08-11 2004-08-11 ソニー株式会社 カラーccd固体撮像素子
US6483099B1 (en) 1998-08-14 2002-11-19 Dupont Displays, Inc. Organic diodes with switchable photosensitivity
JP5087304B2 (ja) * 2007-03-30 2012-12-05 富士フイルム株式会社 固体撮像素子の製造方法
KR101475464B1 (ko) 2008-05-09 2014-12-22 삼성전자 주식회사 적층형 이미지 센서
KR20090123540A (ko) 2008-05-28 2009-12-02 삼성전자주식회사 유기 광전 변환막, 이를 구비하는 광전 변환 소자 및이미지 센서
JP4802286B2 (ja) 2009-08-28 2011-10-26 富士フイルム株式会社 光電変換素子及び撮像素子
JP5447938B2 (ja) * 2009-09-01 2014-03-19 株式会社リコー 画像形成装置
KR101666600B1 (ko) * 2009-11-12 2016-10-17 삼성전자주식회사 유기 광전변환막을 이용한 입체용 컬러 이미지센서
KR101703311B1 (ko) 2010-03-08 2017-02-13 삼성전자주식회사 적외선 센서, 이를 포함하는 터치패널 및 입체용 컬러 이미지센서
JP5610796B2 (ja) 2010-03-08 2014-10-22 新日鐵住金ステンレス株式会社 炭化水素燃焼排ガスから発生する凝縮水環境における耐食性に優れるフェライト系ステンレス鋼
JP2011205222A (ja) * 2010-03-24 2011-10-13 Toshiba Corp カメラモジュール
US20120098971A1 (en) * 2010-10-22 2012-04-26 Flir Systems, Inc. Infrared binocular system with dual diopter adjustment
FR2969819A1 (fr) 2010-12-22 2012-06-29 St Microelectronics Grenoble 2 Capteur d'image tridimensionnel
JP2012238774A (ja) 2011-05-13 2012-12-06 Fujifilm Corp 撮像装置
KR20130014222A (ko) 2011-07-29 2013-02-07 삼성전자주식회사 3차원 이미지 센서 및 이를 포함하는 전자시스템
KR101861650B1 (ko) 2011-10-17 2018-05-29 삼성전자주식회사 이미지 센서, 이를 포함하는 전자 시스템 및 그 이미지 센싱 방법
KR101863626B1 (ko) * 2011-11-02 2018-07-06 삼성전자주식회사 영상 처리 장치 및 방법
KR101885244B1 (ko) 2011-11-07 2018-08-06 삼성전자주식회사 유기 광전 소자 및 이미지 센서
WO2013108656A1 (ja) * 2012-01-16 2013-07-25 ソニー株式会社 固体撮像素子およびカメラシステム
KR101989907B1 (ko) 2012-05-31 2019-06-17 삼성전자주식회사 유기 이미지 센서 및 그 제조방법
KR101860084B1 (ko) 2012-07-06 2018-05-23 삼성전자주식회사 유기 광전 재료, 상기 유기 광전 재료를 포함하는 유기 광전 소자 및 이미지 센서
US9379343B2 (en) 2012-09-10 2016-06-28 Samsung Electronics Co., Ltd. Light transmissive electrode, organic photoelectric device, and image sensor
KR101920848B1 (ko) 2012-09-13 2018-11-22 삼성전자주식회사 유기 광전 소자 및 이미지 센서
KR101960468B1 (ko) 2012-10-08 2019-03-21 삼성전자주식회사 유기 광전 소자 및 이미지 센서
KR102000719B1 (ko) 2012-10-25 2019-07-19 삼성전자주식회사 유기 광전 소자 및 이미지 센서

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09166493A (ja) * 1995-12-15 1997-06-24 Nikon Corp 撮像装置、撮像方法、および受光装置
JPH10210486A (ja) * 1997-01-21 1998-08-07 Sony Corp 画像撮像装置および方法
CN1270706A (zh) * 1997-08-15 2000-10-18 尤尼艾克斯公司 具有可切换的感光灵敏度的有机二极管
JP2000059798A (ja) * 1998-08-10 2000-02-25 Sony Corp 近赤外光/可視光共用撮像装置
US20020186976A1 (en) * 2001-06-08 2002-12-12 Asahi Kogaku Kogyo Kabushiki Kaisha Image-capturing device and diaphragm
CN101026776A (zh) * 2006-02-24 2007-08-29 罗技欧洲公司 在图像捕捉装置中使用3d传感器的方法和系统
US20130033579A1 (en) * 2010-02-19 2013-02-07 Dual Aperture Inc. Processing multi-aperture image data
US20120300038A1 (en) * 2011-05-24 2012-11-29 Inha Industry Partnership Institute Photonic crystal type light modulator and 3d image acquisition apparatus employing the same
US20140098192A1 (en) * 2012-10-10 2014-04-10 Samsung Electronics Co., Ltd. Imaging optical system and 3d image acquisition apparatus including the imaging optical system
WO2014204111A1 (en) * 2013-06-19 2014-12-24 Samsung Electronics Co., Ltd. Layered type color-depth sensor and three-dimensional image acquisition apparatus employing the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108110017A (zh) * 2016-11-24 2018-06-01 比亚迪股份有限公司 复合像素单元及其制备方法、像素阵列及其应用
CN112867962A (zh) * 2018-09-11 2021-05-28 恩耐公司 电光调制器及其用于三维成像的使用和制造方法
CN109889707A (zh) * 2019-02-02 2019-06-14 北京空间机电研究所 一种纸片成像系统
CN109889707B (zh) * 2019-02-02 2020-12-18 北京空间机电研究所 一种纸片成像系统
CN111584673A (zh) * 2020-05-22 2020-08-25 成都天马微电子有限公司 传感器、传感器的制造方法及电子设备
WO2023283919A1 (zh) * 2021-07-16 2023-01-19 华为技术有限公司 一种图像传感器以及电子设备

Also Published As

Publication number Publication date
KR20160094085A (ko) 2016-08-09
EP3059950A3 (en) 2016-12-21
US20160227194A1 (en) 2016-08-04
EP3059950A2 (en) 2016-08-24
EP3059950B1 (en) 2023-04-12
CN105847784B (zh) 2018-08-07
KR102282218B1 (ko) 2021-07-26
US10869018B2 (en) 2020-12-15

Similar Documents

Publication Publication Date Title
CN105847784A (zh) 光学成像系统以及包括该光学成像系统的3d图像获取装置
US9958535B2 (en) Detector for determining a position of at least one object
CN110120398B (zh) 图像传感器和电子装置
Jansen‐van Vuuren et al. Organic photodiodes: the future of full color detection and image sensing
KR102252336B1 (ko) 광학 검출기 및 그의 제조 방법
KR102497704B1 (ko) 광 검출기
CN105308749B (zh) 固态图像拾取元件、其制造方法和电子设备
US9389315B2 (en) Detector comprising a transversal optical sensor for detecting a transversal position of a light beam from an object and a longitudinal optical sensor sensing a beam cross-section of the light beam in a sensor region
US20180007343A1 (en) Optical detector
US10546898B2 (en) Imaging apparatus and electronic device
KR101666600B1 (ko) 유기 광전변환막을 이용한 입체용 컬러 이미지센서
JP2006270021A (ja) 積層型光電変換素子
JP2017005196A (ja) 固体撮像素子および固体撮像素子の製造方法、光電変換素子、撮像装置、電子機器、並びに光電変換素子。
CN104335352B (zh) 影像传感器及其操作方法
CN107018294A (zh) 电子装置
JP2016157744A (ja) 固体撮像素子
JP5102692B2 (ja) カラー撮像装置
KR101703311B1 (ko) 적외선 센서, 이를 포함하는 터치패널 및 입체용 컬러 이미지센서
KR102673656B1 (ko) 이미지 센서 및 전자 장치
CN114586182B (zh) 光电转换元件、电子设备及发光装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant