CN106664354B - 单片集成的三原色像素阵列和z像素阵列 - Google Patents

单片集成的三原色像素阵列和z像素阵列 Download PDF

Info

Publication number
CN106664354B
CN106664354B CN201580035530.2A CN201580035530A CN106664354B CN 106664354 B CN106664354 B CN 106664354B CN 201580035530 A CN201580035530 A CN 201580035530A CN 106664354 B CN106664354 B CN 106664354B
Authority
CN
China
Prior art keywords
pixel array
visible light
infrared light
optical system
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580035530.2A
Other languages
English (en)
Other versions
CN106664354A (zh
Inventor
温宗晋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of CN106664354A publication Critical patent/CN106664354A/zh
Application granted granted Critical
Publication of CN106664354B publication Critical patent/CN106664354B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/745Circuitry for generating timing or clock signals
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures

Abstract

描述一种装置,包括集成在同一半导体芯片上的第一像素阵列和第二像素阵列。第一像素阵列包含可见光像素并且不包含Z像素。第二像素阵列包含Z像素并且不包含可见光像素。第一像素阵列和第二像素阵列在所述同一半导体芯片上不重叠。

Description

单片集成的三原色像素阵列和Z像素阵列
技术领域
本发明的领域一般地涉及电子领域,并且尤其涉及单片集成的RGB像素阵列和Z像素阵列。
背景技术
许多现有的计算系统包括一个或多个传统的图像捕获照相机作为集成的外围设备。当前的趋势是通过将深度捕获集成到计算系统的成像组件中来增强计算系统成像能力。深度捕获可以用来,例如,执行诸如面部识别(例如,用于安全系统解锁)或者手势识别(例如,用于非接触式用户界面功能)这样的各种智能对象识别功能。
称作“飞行时间”成像的一种深度信息捕获方法将来自系统的光发射到对象上,并且关于图像传感器的多个像素的每个,测量光的发射与它的反射图像在传感器上的接收之间的时间。由飞行时间像素产生的图像对应于对象的三维轮廓,如由在不同(x,y)像素位置的每个的唯一深度测量(z)所表征的。
因为具有成像能力的许多计算系统本质上是移动的(例如,膝上型计算机、平板计算机、智能电话等),飞行时间操作与传统图像捕获的集成提出许多设计挑战,诸如成本挑战和封装挑战。
发明内容
描述一种装置,包括集成在同一半导体芯片上的第一像素阵列和第二像素阵列。第一像素阵列包含可见光像素并且不包含Z像素。第二像素阵列包含Z像素并且不包含可见光像素。第一像素阵列和第二像素阵列在所述同一半导体芯片上不重叠。
描述一种装置,包括用于在半导体芯片的表面面积的第一区域内基本上仅接收可见光的部件。装置也包括用于在半导体芯片的表面面积的第二区域内基本上仅接收红外光的部件,其中,第一区域和第二区域不混合。装置也包括用于在第一区域内在半导体芯片的第一多层结构内将可见光像素化成多个色彩的部件。装置也包括用于在第二区域内在半导体芯片的第二多层结构内对红外光进行像素化的部件。装置也包括用于在第一区域内使用半导体芯片的基底生成表示经像素化的可见光的第一电子信号的部件。装置也包括用于在第二区域内使用半导体芯片的基底生成表示经像素化的红外光的第二电子信号的部件。
附图说明
下面的描述和附图用来例示本发明的实施例。在附图中:
图1a和1b示出单片RGBZ像素阵列的不同透视图;
图2示出包括单片RGBZ像素阵列的照相机;
图3a至3c示出不同的RGBZ像素阵列实施例;
图4a至4d示出制造单片RGBZ像素阵列的方法;
图5示出由单片RGBZ像素阵列执行的方法;
图6示出包括单片RGBZ像素阵列的照相机系统;
图7示出包括具有单片RGBZ像素阵列的照相机的计算系统。
具体实施方式
“RGBZ”图像传感器是从同一照相机封装内实现传统图像捕获和飞行时间深度轮廓分析(profiling)的具有吸引力的解决方案。RGBZ图像传感器是包括不同种类的像素的图像传感器,一些像素对可见光敏感(例如,RGB像素)并且其他像素用来测量深度信息(飞行时间或者“Z”像素)。
在常见的实现方式中,飞行时间像素被设计为对IR光敏感,因为,如上所述,IR光用于飞行时间测量,使得飞行时间测量与RGB像素的传统成像功能不相互干扰。飞行时间像素另外地具有特殊的相关联的计时和/或定时电路系统以测量在像素处接收到光的时间。然而,因为飞行时间像素对IR光敏感,它们也可以被料想到仅作为IR像素使用(例如,在第二模式中),而不是作为飞行时间像素(亦即,捕获IR信息,但是不进行飞行时间测量)。
与RGB像素和Z像素包含在分开的封装中的解决方案相比较,将RGB像素和Z像素集成到同一封装中应当减小大小和成本。图1a和1b示出单片RGBZ像素阵列,其中半导体芯片101的表面面积的一个整个区域为RGB像素103而保留,并且半导体芯片101的表面面积的另一个整个区域为Z像素104而保留。
RGB像素阵列区域103包括具有对可见光敏感的不同种类像素的像素阵列(具体地,对可见红光敏感的R像素的子集、对可见绿光敏感的G像素的子集以及对可见蓝光敏感的B像素的子集)。Z像素阵列区域104具有对IR光敏感的像素。RGB像素用来支持传统的“2D”可见图像捕获(传统拍照)功能。IR敏感像素用来支持使用飞行时间技术的3D深度轮廓成像。虽然基本的实施例包括RGB像素用于可见图像捕获,但是其他实施例可以使用不同的有色像素方案(例如,青色、洋红色和黄色)。为了简单,本申请的剩余部分将主要参考RGB像素方案,即使可以使用其他有色方案。
如图1a和1b中观察到的,在实施例中,作为与飞行时间测量相关联的IR光典型地具有比与传统图像捕获相关联的可见光更弱的强度的结果,Z像素制作得比RGB像素大。这里,IR光典型地使用与照相机系统集成在一起的、具有有限发射强度的一个或多个垂直腔面发射激光器(VCSEL)或者发光二极管(LED)生成。如此,在IR光从对象反射并且由Z像素接收之后,IR光具有比普通日光或点亮的房间更小的强度。通过形成较大的Z像素,Z像素能够捕获充足量的IR光(尽管它的强度较弱),以生成可感知的信号。
图2示出包括如上面关于图1a和1b讨论的单片RGBZ传感器的照相机200的实施例的截面。如在图2中观察到的,照相机200包括可见光光学系统210和IR光光学系统211。可见光光学系统210包括透镜系统212和阻挡IR光的IR滤光器213。IR光光学系统211包括透镜系统214和阻挡可见光的可见光滤光器215。由可见光光学系统210处理的入射光最终由RGB像素阵列203接收。由IR光光学系统211处理的入射光最终由Z像素阵列204接收。RGB像素阵列203和Z像素阵列204集成在同一半导体芯片201上。半导体芯片201安装在下面的基底202上,如下面更详细描述的,基底202可以是封装基底或者另一个半导体芯片202。
可见光光学系统210和IR光光学系统211可以单独地/个体地包装(例如,使用各自的、包围的外壳),使得由一个系统接收的光不会进入另一个系统。可见光系统210中IR滤光器213对IR光的阻挡基本上防止RGB像素203检测到/响应由飞行时间照明器生成的IR光。类似地,IR光系统211中可见光滤光器215对可见光的阻挡基本上防止Z像素204检测到/响应可见光。如此,像素阵列203、204都将基本上接收与它们应当感测到的特定图像相关联的光。
两个光学系统的下面部分包含镜子系统216以使得来自两个光学系统210、211的输出图像平面更加靠近。这里,因为RGB像素阵列203和Z像素阵列204集成在同一半导体芯片201的表面上,它们的相对分离能够制作得比在该对光学系统210、211中使用的透镜的尺寸小。多元件透镜系统212、214的设计和操作在本领域中通常已知并且将不会深度地讨论。这里,如本领域中已知的,透镜系统212、214的每个被设计为捕获来自相当广的角度的入射光以向照相机提供更大的视野,并且然后以可接受地小的光学畸变将入射光处理成图像平面。
图3a至3c描绘将完整的图像传感器的一些或全部组件集成到同一半导体晶片上和/或同一半导体芯片封装内作为单片集成的RGB和Z像素阵列的各种实施例。如在本领域中已知的,完整的图像传感器典型地包括像素阵列电路系统、模拟到数字(ADC)电路系统以及定时和控制电路系统。像素阵列电路系统直接耦合到像素阵列并且用作到像素阵列的电接口。像素阵列电路系统典型地包括,例如,行地址解码器、列地址解码器和感测放大器。ADC电路系统负责将由像素生成的模拟信号转换成数字值。
定时和控制电路系统负责生成用来操作像素阵列和ADC电路系统的控制信号和计时信号。用于飞行时间测量的Z像素典型地接收来自定时和控制电路系统的时钟信号,每个时钟信号与照明器的时钟信号具有已知的相位关系。在一个实施例中,存在提供到Z像素阵列的每个Z像素的四个这种时钟信号(例如,0°、90°、180°和270°正交臂)。
这里,由不同相位的时钟计时的Z像素的区域将对于相同的闪光收集不同量的电荷。来自传感器的相同/相近区域中的不同计时节点的所收集的电荷信号能够组合在一起以生成关于节点所在区域的特定的飞行时间值。在一种方案中,这种组合由主机系统(例如,处理器或者应用处理器)使用图像信号处理器执行。其他实现方式可以包括同一半导体芯片上的图像信号处理器或者它的各种功能作为图像传感器。为了简单,讨论的剩余部分将假设图像信号处理器由主机执行。
图3a至3c示出关于单片集成的RGB像素阵列和Z像素阵列的不同封装和/或体系结构选项。如图3a中观察到的,完整的RGB图像传感器和完整的Z传感器集成在同一半导体芯片301上。即,半导体芯片301不仅包括RGB像素阵列303和Z像素阵列304,而且包括关于RGB像素阵列303和Z像素阵列304的每个的各自的像素阵列电路系统321、ADC电路系统322以及定时和控制电路系统323。在该实施例中,半导体芯片301可以封装在半导体芯片封装中并且半导体芯片301的输入和/或输出终端(I/O)可以直接路由至封装的I/O。如此,半导体芯片301的下面的基底302可以对应于半导体芯片封装基底。
如图3b中观察到的,半导体芯片301包括关于RGB像素阵列303和Z像素阵列304的各自的像素阵列电路系统321,但是不包括ADC电路系统或者定时和控制电路系统。这里,像图3a的实施例一样,半导体芯片301可以独自封装并且它的I/O路由到封装外部。在这种情况下,下面的基底302对应于封装基底,并且所封装的产品本质上是具有支持像素阵列电路系统321的一对像素阵列303、304。
相对照,如图3c中观察到的,下面的基底302可以对应于第二、下面的半导体芯片,具有像素阵列303、304的半导体芯片301堆叠在第二、下面的半导体芯片上。第二、下面的半导体芯片302然后可以安装在封装基底(未示出)上。芯片堆叠可以例如通过在上面的像素阵列半导体芯片301内形成基底通孔而完成,基底通孔在芯片的背面终止并且通过位于其间的焊料的微凸块接触下面的半导体芯片302的上表面上的焊盘(lands)。作为替换,围绕上面的像素阵列晶片301的外围的焊线(wire bond)焊盘可以支持接触封装基底上的焊线焊盘的焊线。
下面的半导体芯片302然后可以包括图像传感器的剩余组件的一个或多个。具体地,下面的半导体芯片302可以包括关于RGB像素阵列303和Z像素阵列304的任一或者二者的ADC电路系统322和/或定时和控制电路系统323的一个或多个。如此,包括两个半导体芯片301、302的封装可以包括关于两个像素阵列303、304的完整的图像传感器的所有或者至少实质部分。
图4a至4d示出制造集成的RGB像素阵列和Z像素阵列的方法。如图4a中观察到的,由许多沉积的并且图案化的金属化层形成的各自的电子互连要素430_1、430_2布置在半导体芯片基底431上,其中,互连要素被组织成针对每个像素阵列的集合430_1、430_2(例如,布线的第一集合430_1用于RGB像素阵列,并且布线的第二集合430_2用于Z像素阵列(即使两个集合430_1、430_2可以占据比如说金属化层。))在实施例中,如图4a中观察到的,Z像素比RGB像素大。如此,用于RGB像素的布线集合430_1倾向于比用于Z像素的布线集合430_2更密集。
对于每个像素,电子互连要素430_1、430_2典型地包括到底层硅的一个或多个触点(例如,偏置像素和/或拾取像素的光感应的电信号)以及到/来自例如位于像素阵列外围的外部的支持像素阵列电路的布线。代表这种电路系统的晶体管432在图4a中描绘。注意,虽然图3a至3c的实施例没有指示电路系统可以位于RGB和Z像素阵列之间的区域中,但是图4a指示它们可以如此位于(如由两个像素阵列之间晶体管的存在观察到的)。
金属化层内的触点和布线通过交替介电层和金属层的沉积和图案化而形成(例如,经由光致抗蚀剂分层和掩模曝光)而形成。典型地,某种形式的绝缘钝化层(例如,二氧化硅(SiO2)的薄层)也沉积在结构的金属化部分的最上层上。因此,当互连金属化序列完成时,关于两个图像传感器的布线集成在半导体基底431上。
如图4b中观察到的,在金属化层上面,可以(可选地)存在有经像素化的孔径层433或者“遮光板”,以在光学信号撞击到半导体基底431的表面上之前对光学信号有效地进行像素化。通常阻止撞击到孔径层金属化433上的入射光到达底层半导体基底431表面(如此,孔径层433可以由诸如金属这样的反射入射光的材料制成)。孔径层433典型地用来防止或者减少像素之间的串扰和/或防止或者减少晶体管或者像素附近/内的其他有源器件由于它们对入射光的敏感性而对其操作的干扰。孔径层433可以作为单独的薄膜沉积在互连金属化430上或者形成在上面讨论的互连金属化430的最后一层中。再次,在各种实施例中,Z像素可以比RGB像素大。如此,Z像素阵列孔径层433_2的开口可以大于RGB像素阵列孔径层433_1的开口。
如图4c中观察到的,关于结构的RGB一侧,形成有色滤光器434的阵列。每个有色滤光器与特定的孔径以及半导体基底431的底层区域垂直对齐。每个个体滤光器也具有被设计为主要通过特定色彩(红色、蓝色或者绿色)的光的特定光学通带。可以执行多个序列,以便形成RGB滤光器,因为每个类型的滤光器R、G和B将典型地需要针对它自己的特定色彩的至少一个掩模和/或染色或者其他序列。每个类型的有色滤光器可以由许多处理中的任何几个形成,诸如:1)将波音层涂覆在底层结构的表面上,并且然后通过光致抗蚀剂掩模对波音染料进行热转印,并且然后剥去掩模;2)将透明层涂覆在底层结构的表面上,并且然后通过光致抗蚀剂掩模吸收染料,并且然后剥去掩模;3)将经染色的层涂覆在底层结构的表面上,并且然后通过掩模对层的区域进行反应离子刻蚀(RIE),并且然后剥去掩模;4)使用染料和光致抗蚀剂的组合涂覆材料并且对材料进行图案化。
虽然没有描绘,IR滤光器的可选集合可以可选地布置在阵列的Z像素一侧上。如果不包括IR滤光器(如图4c中所描绘的),那么在RGB滤光器阵列434的处理期间,能够用掩模遮住像素阵列的Z侧。
如图4d中观察到的,在有色滤光器434在结构的RGB像素阵列一侧上形成之后,微透镜435_1、435_2在结构的RGB阵列一侧和Z像素阵列一侧上都形成。注意,因为较大的Z像素大小,Z像素阵列一侧上的微透镜435_2比RGB像素阵列一侧上的微透镜435_1大。每个微透镜阵列435_1、435_2能够由许多各种处理中的任何几个而形成,诸如:1)将一个或多个光致抗蚀剂层涂覆在底层结构上并且烘烤光致抗蚀剂层,将光致抗蚀剂层图案化为例如表示微透镜阵列的圆圈/圆柱,并且然后将光致抗蚀剂圆圈/圆柱熔化成微透镜的形状;2)在透明层(例如,熔融石英)上执行上面的1)的处理,并且使用熔化的光致抗蚀剂作为掩模,用于反应离子刻蚀(RIE)刻蚀到透明层中(这完成更加丰满的微透镜到透明层中的形成);3)瞄准阵列图案中的底层结构的微喷射液滴,以及使得液滴凝固。
图5示出由单片集成的RGB像素阵列和Z像素阵列执行的方法。如图5中观察到的,方法包括在半导体芯片的表面面积的第一区域内基本上仅接收可见光,以及在半导体芯片的表面面积的第二区域内基本上仅接收红外光,其中第一区域和第二区域是分离的501。方法也包括在第一区域内在半导体芯片的第一多层结构内将可见光像素化成多个色彩,以及在第二区域内在半导体芯片的第二多层结构内对红外光进行像素化502。方法也包括在第一区域内使用半导体芯片的基底生成表示经像素化的可见光的第一电子信号,以及在第二区域内使用半导体芯片的基底生成表示经像素化的红外光的第二电子信号504。
图6示出集成的传统照相机以及飞行时间成像系统600。系统600具有用于例如与较大系统/主板,诸如膝上型计算机、平板计算机或者智能电话的系统/主板进行电接触的连接器601。取决于布局和实现方式,连接器601可以连接到排线(flex cable),排线例如实现到系统/主板的实际连接,或者连接器601可以直接接触系统/主板。
连接器601附接到可以作为交替的导电和绝缘层的多层结构而实现的平面板602,其中对导电层进行图案化以形成支持系统600的内部电气连接的电子轨迹。通过连接器601,从较大主机系统接收命令,诸如将配置信息写入到照相机系统600内的配置寄存器/从配置寄存器读出配置信息的配置命令。
单片集成的RGB像素阵列和Z像素阵列603在位于照相机镜头模块604下面的半导体芯片上实现,照相机镜头模块604具有可见光光学系统610和IR光学系统610。单片集成的RGB像素阵列和Z像素阵列可以是具有关于两个像素阵列的ADC电路系统以及定时和控制电路系统的RGBZ图像传感器的一部分,RGBZ图像传感器封装在半导体芯片封装中并且安装在平面板602上。RGB像素用来支持传统的“2D”可见图像捕获(传统照相)功能。IR敏感的Z像素用来支持使用飞行时间技术的3D深度轮廓成像。虽然基本的实施例包括RGB像素用于可见图像捕获,但是其他实施例可以使用不同的有色像素方案(例如,青色、洋红色和黄色)。
平面板602可以类似地包括信号轨迹,以将由ADC电路系统提供的数字信息运送到连接器601,用于由诸如(例如,集成在应用处理器上的)图像信号处理管道这样的计算系统的较高端组件进行处理。注意,在其他实施例中,在ADC输出像素流上执行的至少某种形式的数字信号处理或者图像信号处理管道可以使用集成到照相机系统600中的半导体芯片上的数字逻辑电路系统执行。
孔径606下面由光源607构成的照明器605也安装在平面板602上。光源607可以作为在安装到平面板602的半导体芯片上实现的垂直腔面发射激光器(VCSEL)或者发光二极管(LED)的阵列而实现。作为替换,可以使用单个光源(例如,与阵列相对照,单个VCSEL或者LED)。光源驱动器耦合到光源阵列以使得它发射具有特定强度和经调制波形的光。
在实施例中,图6的集成系统600支持三种操作模式:1)2D模式;3)3D模式;以及3)2D/3D模式。在2D模式的情况下,系统表现为传统照相机。如此,照明器607被禁用并且图像传感器用来通过它的RGB像素接收可见图像。在3D模式的情况下,系统正在捕获照明器607和照相机镜头模块604的视野内的对象的飞行时间深度信息。如此,照明器被启用并且将IR光(例如,以开-关-开-关…序列)发射到对象上。IR光从对象反射,通过照相机镜头模块604接收并且由图像传感器的飞行时间像素感测。在2D/3D模式的情况下,上面描述的2D和3D模式同时起作用。
图7示出诸如个人计算系统(例如,台式机或者膝上型计算机)或者诸如平板设备或者智能电话这样的移动或手持计算系统这样的示例性计算系统700的描绘。如图7中观察到的,基本的计算系统可以包括中央处理单元701(其可以包括,例如,多个通用处理核)以及布置在应用处理器或者多核处理器750上的主存储控制器717、系统存储器702、显示器703(例如,触摸屏、扁平面板)、本地布线的点对点链路(例如,USB)接口704、各种网络I/O功能705(诸如以太网接口和/或蜂窝式调制解调器子系统)、无线局域网(例如,WiFi)接口706、无线点到点链路(例如,蓝牙)接口707以及全球定位系统接口708、各种传感器709_1至709_N、一个或多个照相机710、电池711、电力管理控制单元712、扬声器和麦克风713以及音频编码/解码器714。
应用处理器或者多核处理器750可以包括在它的CPU 401内的一个或多个通用处理核715、一个或多个图形处理单元716、主存储控制器717、I/O控制功能718以及一个或多个图像信号处理器管道719。通用处理核715典型地执行计算系统的操作系统和应用软件。图形处理单元716典型地执行图形密集型功能,以便例如生成在显示器703上展示的图形信息。存储控制功能717与系统存储器702接口连接。图像信号处理管道719接收来自照相机的图像信息并且处理原始图像信息供下游使用。电力管理控制单元712通常控制系统700的电力消耗。
相对于总体计算系统,触摸屏显示器703、通信接口704-707、GPS接口708、传感器709、照相机710以及扬声器/麦克风编码解码器713、714的每个都能够看作各种形式的I/O(输入和/或输出),在适当的情况下,总体计算系统同样包括集成的外围设备(例如,一个或多个照相机710)。取决于实现方式,这些I/O组件的各种可以集成在应用处理器/多核处理器750上或者可以位于晶片外面或者应用处理器/多核处理器750的封装外部。
在实施例中,一个或多个照相机710包括集成的传统可见图像捕获以及飞行时间深度测量系统,诸如上面关于图6描述的系统600。在应用处理器或者其他处理器的通用CPU核(或者具有指令执行管道以执行程序代码的其他功能块)上执行的应用软件、操作系统软件、设备驱动软件和/或固件可以将命令指向照相机系统并且从照相机系统接收图像数据。在命令的情况下,命令可以包括进入或者离开上面讨论的2D、3D或者2D/3D系统状态的任何。
本发明的实施例可以包括如上面陈述的各种处理。处理可以在机器可执行指令中实施。指令能够用来使得通用或者专用处理器执行某些处理。作为替换,这些处理可以由包含用于执行处理的硬接线逻辑的特定硬件组件,或者由经编程的计算机组件和定制硬件组件的任何组合执行。
本发明的元素也可以作为用于存储机器可执行指令的机器可读介质而提供。机器可读介质可以包括,但不局限于,软盘、光盘、CD-ROM以及磁光盘、闪存、ROM、RAM、EPROM、EEPROM、磁性或者光学卡、传播介质或者适合于存储电子指令的其他类型的介质/机器可读介质。例如,本发明可以作为计算机程序而下载,计算机程序可以经由通信链路(例如,调制解调器或者网络连接)借助于在载波或者其他传播介质中实施的数据信号从远程计算机(例如,服务器)传送到请求计算机(例如,客户端)。
在前面的说明书中,已经参考其特定的示例性实施例描述了本发明。然而,可以对其进行各种修改和改变而不背离如在附加权利要求书中陈述的本发明的更广泛精神和范围将是显然的。因此,在例示性而不是在限制性的意义上看待说明书和附图。

Claims (20)

1.一种成像设备,包括:
被配置为使可见光通过并阻挡红外光的可见光光学系统,以及被配置为使红外光通过并阻挡可见光的分开的红外光光学系统;
其中可见学光学系统包括第一组透镜,第一组透镜接收从对象反射的光并使可见光通过,并且红外光光学系统包括不同的第二组透镜,第二组透镜接收从对象反射的光并使红外光通过;
镜子系统;以及
图像传感器,其包括用于接收通过可见光光学系统的可见光的可见光像素阵列以及用于接收通过分开的红外光光学系统的红外光的红外光像素阵列,其中可见光像素阵列和红外光像素阵列两者都被安装在相同的半导体芯片上,
其中可见光像素阵列的中心和红外光像素阵列的中心之间的距离小于可见光光学系统的第一组透镜的光轴和与红外光光学系统的第二组透镜相关联的光轴之间的距离,以及
其中镜子系统被配置为:利用第一相互平行的两个镜子将从可见光光学系统输出的光引导朝向可见光像素阵列,以及利用第二相互平行的两个镜子将从红外光光学系统输出的光引导朝向红外光像素阵列。
2.根据权利要求1所述的设备,所述镜子系统包括第一镜子系统,其被配置为将在红外光被可见光光学系统阻挡之后由可见光光学系统输出的可见光引导朝向可见光像素阵列;以及第二镜子系统,其被配置为将在可见光被红外光光学系统阻挡之后从红外光光学系统输出的红外光引导朝向红外光像素阵列。
3.根据权利要求1所述的设备,包括对于可见光像素阵列和红外光像素阵列中的每一个的全都安装在相同半导体芯片上的(i)像素阵列电路,(ii)用于像素阵列的模拟到数字电路,以及(iii)用于像素阵列的定时和控制电路。
4.根据权利要求1所述的设备,包括:
对于可见光像素阵列和红外光像素阵列中的每一个的安装在相同半导体芯片上的用于像素阵列的定时和控制电路,并且
其中,对于可见光像素阵列和红外光像素阵列中的每一个,(i)用于像素阵列的模拟到数字电路和(ii)用于像素阵列的定时和控制电路不是安装在相同半导体芯片上。
5.根据权利要求1所述的设备,其中红外光像素阵列用于捕获对象的经像素化的深度轮廓。
6.根据权利要求1所述的设备,其中可见光像素阵列和红外光像素阵列在半导体芯片上不重叠。
7.根据权利要求1所述的设备,其中半导体芯片安装在第二半导体芯片上。
8.根据权利要求1所述的设备,其中红外光像素阵列的像素大于可见光像素阵列的像素。
9.根据权利要求1所述的设备,其中红外光像素阵列和可见光像素阵列是相同大小。
10.根据权利要求1所述的设备,其中第一组透镜包括平凹透镜、平凸透镜以及凸透镜。
11.根据权利要求2所述的设备,其中被配置为引导可见光的第一镜子系统包括反射可见光的两个镜子。
12.一种成像系统,包括:
照相机,包括:
被配置为使可见光通过并阻挡红外光的可见光光学系统,以及被配置为使红外光通过并阻挡可见光的分开的红外光光学系统;
其中可见学光学系统包括第一组透镜,第一组透镜接收从对象反射的光并使可见光通过,并且红外光光学系统包括不同的第二组透镜,第二组透镜接收从对象反射的光并使红外光通过;
镜子系统;以及
图像传感器,其包括用于接收通过可见光光学系统的可见光的可见光像素阵列以及用于接收通过分开的红外光光学系统的红外光的红外光像素阵列,其中可见光像素阵列和红外光像素阵列两者都被安装在相同的半导体芯片上,
其中可见光像素阵列的中心和红外光像素阵列的中心之间的距离小于可见光光学系统的第一组透镜的光轴和与红外光光学系统的第二组透镜相关联的光轴之间的距离,以及
其中镜子系统被配置为:利用第一相互平行的两个镜子将从可见光光学系统输出的光引导朝向可见光像素阵列,以及利用第二相互平行的两个镜子将从红外光光学系统输出的光引导朝向红外光像素阵列;以及
一个或多个计算机处理器,其被配置为接收由图像传感器输出的信号,并生成位于照相机的前方的对象的经像素化的深度轮廓。
13.根据权利要求12所述的系统,其中镜子系统包括:第一镜子系统,其被配置为将在红外光被可见光光学系统阻挡之后由可见光光学系统输出的可见光引导朝向可见光像素阵列;以及第二镜子系统,其被配置为将在可见光被红外光光学系统阻挡之后从红外光光学系统输出的红外光引导朝向红外光像素阵列。
14.根据权利要求12所述的系统,其中照相机包括:对于可见光像素阵列和红外光像素阵列中的每一个的全都安装在相同半导体芯片上的(i)像素阵列电路,(ii)用于像素阵列的模拟到数字电路,以及(iii)用于像素阵列的定时和控制电路。
15.根据权利要求12所述的系统,其中照相机包括:
对于可见光像素阵列和红外光像素阵列中的每一个的安装在相同半导体芯片上的用于像素阵列的定时和控制电路,并且
其中,对于可见光像素阵列和红外光像素阵列中的每一个,(i)用于像素阵列的模拟到数字电路和(ii)用于像素阵列的定时和控制电路不是安装在相同半导体芯片上。
16.根据权利要求12所述的系统,其中可见光像素阵列和红外光像素阵列在半导体芯片上不重叠。
17.根据权利要求12所述的系统,其中半导体芯片安装在第二半导体芯片上。
18.根据权利要求12所述的系统,其中红外光像素阵列的像素大于可见光像素阵列的像素。
19.根据权利要求12所述的系统,其中红外光像素阵列和可见光像素阵列是相同大小。
20.一种成像方法,包括:
使可见光通过被配置为阻挡红外光的可见光光学系统;
使红外光通过被配置为阻挡可见光的分开的红外光光学系统,
其中可见光光学系统包括第一组透镜,第一组透镜接收从对象反射的光并使可见光通过,并且红外光光学系统包括不同的第二组透镜,第二组透镜接收从对象反射的光并使红外光通过;
由图像传感器在用于接收通过可见光光学系统的可见光的可见光像素阵列处接收可见光以及在用于接收通过分开的红外光光学系统的红外光的红外光像素阵列处接收红外光,其中可见光像素阵列和红外光像素阵列两者都被安装在相同的半导体芯片上,
其中可见光像素阵列的中心和红外光像素阵列的中心之间的距离小于可见光光学系统的第一组透镜的光轴和与红外光光学系统的第二组透镜相关联的光轴之间的距离,以及
由镜子系统利用第一相互平行的两个镜子将从可见光光学系统输出的光引导朝向可见光像素阵列,以及利用第二相互平行的两个镜子将从红外光光学系统输出的光引导朝向红外光像素阵列。
CN201580035530.2A 2014-12-22 2015-10-22 单片集成的三原色像素阵列和z像素阵列 Active CN106664354B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/579,866 US20160182846A1 (en) 2014-12-22 2014-12-22 Monolithically integrated rgb pixel array and z pixel array
US14/579,866 2014-12-22
PCT/US2015/056912 WO2016105657A1 (en) 2014-12-22 2015-10-22 Monolithically integrated rgb pixel array and z pixel array

Publications (2)

Publication Number Publication Date
CN106664354A CN106664354A (zh) 2017-05-10
CN106664354B true CN106664354B (zh) 2020-03-03

Family

ID=56131007

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580035530.2A Active CN106664354B (zh) 2014-12-22 2015-10-22 单片集成的三原色像素阵列和z像素阵列

Country Status (4)

Country Link
US (3) US20160182846A1 (zh)
EP (1) EP3238256A4 (zh)
CN (1) CN106664354B (zh)
WO (1) WO2016105657A1 (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002415A1 (ja) * 2012-06-28 2014-01-03 パナソニック株式会社 撮像装置
US9608027B2 (en) * 2015-02-17 2017-03-28 Omnivision Technologies, Inc. Stacked embedded SPAD image sensor for attached 3D information
US20170257304A1 (en) * 2016-03-07 2017-09-07 General Electric Company Systems and methods for monitoring system performance and availability
EP3258493B1 (en) 2016-06-16 2021-01-27 ams AG System-on-chip camera with integrated light sensor(s) and method of producing a system-on-chip camera
CN206698329U (zh) * 2016-11-08 2017-12-01 聚晶半导体股份有限公司 摄像模块和摄像装置
DE102017209294A1 (de) * 2017-06-01 2018-12-06 Robert Bosch Gmbh Lidarsensor
US20180376044A1 (en) * 2017-06-22 2018-12-27 Robert Bosch Gmbh Device Having A CMOS VL and IR Imaging System
CN107505753B (zh) * 2017-09-15 2020-06-05 京东方科技集团股份有限公司 阵列基板及显示装置
US11016180B2 (en) 2017-09-25 2021-05-25 Waymo Llc Combination photodetector arrays for extended dynamic range
US11156753B2 (en) * 2017-12-18 2021-10-26 Viavi Solutions Inc. Optical filters
CN108965666B (zh) * 2018-07-19 2020-10-09 维沃移动通信有限公司 一种移动终端及图像拍摄方法
CN108965704B (zh) * 2018-07-19 2020-01-31 维沃移动通信有限公司 一种图像传感器、移动终端及图像拍摄方法
CN108965665B (zh) * 2018-07-19 2020-01-31 维沃移动通信有限公司 一种图像传感器及移动终端
CN110012280B (zh) * 2019-03-22 2020-12-18 盎锐(上海)信息科技有限公司 用于vslam系统的tof模组及vslam计算方法
EP3969938A4 (en) * 2019-05-13 2023-05-17 Ouster, Inc. SYNCHRONIZED IMAGE CAPTURE FOR ELECTRONIC SCANNING LIDAR SYSTEMS
KR20210078649A (ko) 2019-12-18 2021-06-29 삼성디스플레이 주식회사 표시 패널 및 이를 구비하는 표시 장치
KR20210082316A (ko) 2019-12-24 2021-07-05 삼성디스플레이 주식회사 표시 패널 및 이를 구비하는 표시 장치
CN112788313B (zh) * 2020-12-25 2023-04-07 RealMe重庆移动通信有限公司 图像传感器、成像系统和终端
DE102021201074A1 (de) 2021-02-05 2022-08-11 Robert Bosch Gesellschaft mit beschränkter Haftung Detektorbaugruppe und optischer Sensor
US11711594B2 (en) * 2021-03-01 2023-07-25 Qualcomm Incorporated Dual image sensor package
JP2024023058A (ja) * 2022-08-08 2024-02-21 ソニーセミコンダクタソリューションズ株式会社 光検出装置および光検出システム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030063185A1 (en) 2001-09-28 2003-04-03 Bell Cynthia S. Three-dimensional imaging with complementary color filter arrays
US7274393B2 (en) 2003-02-28 2007-09-25 Intel Corporation Four-color mosaic pattern for depth and image capture
US8134637B2 (en) * 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
US8139141B2 (en) 2004-01-28 2012-03-20 Microsoft Corporation Single chip red, green, blue, distance (RGB-Z) sensor
WO2006026354A2 (en) * 2004-08-25 2006-03-09 Newport Imaging Corporation Apparatus for multiple camera devices and method of operating same
US7375803B1 (en) 2006-05-18 2008-05-20 Canesta, Inc. RGBZ (red, green, blue, z-depth) filter system usable with sensor systems, including sensor systems with synthetic mirror enhanced three-dimensional imaging
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
US7547573B2 (en) 2006-08-01 2009-06-16 United Microelectronics Corp. Image sensor and method of manufacturing the same
US8446470B2 (en) * 2007-10-04 2013-05-21 Magna Electronics, Inc. Combined RGB and IR imaging sensor
JP2009093050A (ja) * 2007-10-11 2009-04-30 Mitsubishi Electric Corp 光センサ内蔵表示装置
KR101467509B1 (ko) * 2008-07-25 2014-12-01 삼성전자주식회사 이미지 센서 및 이미지 센서 동작 방법
EP2180513A1 (en) * 2008-10-27 2010-04-28 Stmicroelectronics SA Near infrared/color image sensor
KR20100107995A (ko) 2009-03-27 2010-10-06 삼성전기주식회사 광 픽업용 광 검출기 집적회로의 포토 다이오드 셀 구조 및그 제조방법
KR101044109B1 (ko) 2009-08-18 2011-06-28 삼성전기주식회사 렌즈 구동 모듈
KR101044140B1 (ko) 2009-09-11 2011-06-24 삼성전기주식회사 렌즈 구동 모듈
KR101044219B1 (ko) 2009-10-19 2011-06-29 삼성전기주식회사 렌즈 구동 모듈
KR101022938B1 (ko) 2009-11-10 2011-03-16 삼성전기주식회사 카메라모듈의 손떨림 보정기구
KR101156872B1 (ko) 2009-12-18 2012-06-20 삼성전기주식회사 렌즈 구동 모듈
KR101077408B1 (ko) 2010-02-05 2011-10-26 서강대학교산학협력단 Cmos 이미지 센서
KR101736330B1 (ko) * 2010-09-03 2017-05-30 삼성전자주식회사 픽셀, 이미지 센서, 및 이를 포함하는 이미지 처리 장치들
US8542348B2 (en) * 2010-11-03 2013-09-24 Rockwell Automation Technologies, Inc. Color sensor insensitive to distance variations
US9030528B2 (en) * 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
KR101289094B1 (ko) 2011-07-29 2013-07-23 삼성전기주식회사 선형 모터
CN102438111A (zh) * 2011-09-20 2012-05-02 天津大学 一种基于双阵列图像传感器的三维测量芯片及系统
TWI577001B (zh) 2011-10-04 2017-04-01 Sony Corp 固體攝像裝置、固體攝像裝置之製造方法及電子機器
KR101709282B1 (ko) * 2011-11-15 2017-02-24 삼성전자주식회사 이미지 센서, 이의 동작 방법, 및 이를 포함하는 장치들
KR101289142B1 (ko) 2011-11-28 2013-07-23 삼성전기주식회사 발광다이오드 패키지 모듈
US9224773B2 (en) * 2011-11-30 2015-12-29 Taiwan Semiconductor Manufacturing Company, Ltd. Metal shielding layer in backside illumination image sensor chips and methods for forming the same
WO2013104718A2 (en) 2012-01-10 2013-07-18 Softkinetic Sensors Nv Color and non-visible light e.g. ir sensor, namely a multispectral sensor
US9466121B2 (en) * 2012-09-11 2016-10-11 Qualcomm Incorporated Devices and methods for augmented reality applications
US9348019B2 (en) * 2012-11-20 2016-05-24 Visera Technologies Company Limited Hybrid image-sensing apparatus having filters permitting incident light in infrared region to be passed to time-of-flight pixel
US9124762B2 (en) 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera
KR102009192B1 (ko) 2013-02-05 2019-08-09 삼성전자주식회사 이미지 센서의 단위 픽셀 및 이를 포함하는 이미지 센서
US20140347442A1 (en) 2013-05-23 2014-11-27 Yibing M. WANG Rgbz pixel arrays, imaging devices, controllers & methods
US20150022869A1 (en) 2013-07-17 2015-01-22 Samsung Electronics Co., Ltd. Demosaicing rgbz sensor
KR102054774B1 (ko) * 2013-09-10 2019-12-11 삼성전자주식회사 동적 비전 센서, 조도 센서, 및 근접 센서 기능을 구비한 이미지 장치
US20150281601A1 (en) * 2014-03-25 2015-10-01 INVIS Technologies Corporation Modular Packaging and Optical System for Multi-Aperture and Multi-Spectral Camera Core

Also Published As

Publication number Publication date
US20180035066A1 (en) 2018-02-01
US10291870B2 (en) 2019-05-14
CN106664354A (zh) 2017-05-10
EP3238256A1 (en) 2017-11-01
US20160182846A1 (en) 2016-06-23
US10368022B2 (en) 2019-07-30
EP3238256A4 (en) 2018-06-06
WO2016105657A1 (en) 2016-06-30
US20180020179A1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
CN106664354B (zh) 单片集成的三原色像素阵列和z像素阵列
US10056422B2 (en) Stacked semiconductor chip RGBZ sensor
EP3238257B1 (en) Physical layout and structure of rgbz pixel cell unit for rgbz image sensor
US10263022B2 (en) RGBZ pixel unit cell with first and second Z transfer gates
CN113196741B (zh) 动态可编程图像传感器
US20180007347A1 (en) Integrated Camera System Having Two Dimensional Image Capture and Three Dimensional Time-of-Flight Capture With A Partitioned Field of View
CN106471798B (zh) 用于rgbz图像传感器的rgbz像素单元信元
US10381387B2 (en) Optical imaging device
US9881959B2 (en) Chip package and method of manufacturing the same
CN112823291A (zh) 飞行时间rgb-ir图像传感器
CN108899336B (zh) 一种信号识别系统及其制备方法、电子设备
US20220196465A1 (en) Reducing optical cross-talk in optical sensor modules
US11852523B2 (en) Optical sensor having directional sensitivity

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: American California

Applicant after: Google limited liability company

Address before: American California

Applicant before: Google Inc.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant