KR20130006168A - Sensor and data processing system having the same - Google Patents
Sensor and data processing system having the same Download PDFInfo
- Publication number
- KR20130006168A KR20130006168A KR1020110068052A KR20110068052A KR20130006168A KR 20130006168 A KR20130006168 A KR 20130006168A KR 1020110068052 A KR1020110068052 A KR 1020110068052A KR 20110068052 A KR20110068052 A KR 20110068052A KR 20130006168 A KR20130006168 A KR 20130006168A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- photo gate
- depth
- degrees
- gate
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4816—Constructional features, e.g. arrangements of optical elements of receivers alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
Abstract
Description
본 발명의 개념에 따른 실시 예는 센서에 관한 것으로, 특히 측면 전계(lateral field)의 발생 범위를 증가시킬 수 있는 포토 게이트 구조를 갖는 센서 및 이를 포함하는 데이터 처리 시스템에 관한 것이다.An embodiment according to the concept of the present invention relates to a sensor, and more particularly, to a sensor having a photogate structure capable of increasing a generation range of a lateral field and a data processing system including the same.
거리 센서는 소스(source)로부터 방사된 펄스 형태의 광신호가 타겟 물체(또는 측정 대상물)에 의해 반사되어 되돌아 올 때까지의 시간을 측정하고, 측정된 시간에 기초하여 상기 거리 센서와 상기 타겟 물체 사이의 거리(또는 깊이)를 산출할 수 있다.The distance sensor measures the time until the optical signal in the form of pulses emitted from a source is reflected back by the target object (or the measurement object), and between the distance sensor and the target object based on the measured time. The distance (or depth) of can be calculated.
상기 소스로부터 출력되는 신호로서 마이크로파(microwave), 광파(light wave), 또는 초음파(ultrasonic wave)가 주로 사용된다. 상기 거리 센서는 TOF(time of flight) 측정 방식을 이용하여 상기 거리를 측정할 수 있다.Microwaves, light waves, or ultrasonic waves are mainly used as signals output from the source. The distance sensor may measure the distance using a time of flight (TOF) measurement method.
1-탭 픽셀 구조의 깊이 픽셀을 포함하는 깊이 센서는 시간차를 두고 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들 각각을 상기 깊이 픽셀에 인가하며, 시간차를 가지고 측정되는 다수의 프레임 신호들 각각을 이용하여 상기 타겟 물체까지의 상기 거리를 계산할 수 있다.A depth sensor including a depth pixel of a 1-tap pixel structure applies each of the gate signals having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees with time difference to the depth pixel, and is measured with a time difference. The distance to the target object may be calculated using each of the frame signals.
이때, 계산된 거리의 정확도를 높이기 위해서는, 생성된 광전하를 상기 게이트 신호들 각각의 전압 레벨에 대응하는 센싱 노드 방향으로 효과적으로 이동시키는 것이 필요하다.At this time, in order to increase the accuracy of the calculated distance, it is necessary to effectively move the generated photocharge toward the sensing node corresponding to the voltage level of each of the gate signals.
따라서 본 발명이 이루고자 하는 기술적인 과제는 측면 전계의 발생 범위를 증가시켜 광전자 분해능을 향상시킬 수 있는 센서 및 이를 포함하는 데이터 처리 시스템을 제공하는 것이다.Therefore, the technical problem to be achieved by the present invention is to provide a sensor and a data processing system including the same that can increase the photoelectric resolution by increasing the generation range of the lateral electric field.
본 발명의 실시 예에 따른 센서는 1-탭 픽셀 구조(1-tab pixel structure)의 깊이 픽셀을 포함하고, 상기 깊이 픽셀은 광전하를 생성하는 광전 변환 영역, 상기 광전 변환 영역을 포함하는 반도체 기판 상에 구현되는 절연층, 및 각각이 상기 절연층 상에 구현되는 제1포토 게이트와 제2포토 게이트를 포함하고, 상기 제1포토 게이트에는 중앙 영역에서 상기 제2포토 게이트를 향해 돌출된 돌출 패턴이 형성되며, 상기 제2포토 게이트는 상기 돌출 패턴과 이격되고 상기 돌출 패턴을 둘러싸는 구조를 갖고, 상기 제1포토 게이트의 단면적의 크기와 상기 제2포토 게이트의 단면적의 크기는 상이하다.According to an embodiment of the present disclosure, a sensor includes a depth pixel of a 1-tab pixel structure, and the depth pixel includes a photoelectric conversion region for generating photocharges and a semiconductor substrate including the photoelectric conversion region. An insulating layer formed on the insulating layer, and a first photo gate and a second photo gate each of which is formed on the insulating layer, wherein the first photo gate has a protruding pattern protruding toward the second photo gate in a central region thereof. The second photo gate has a structure spaced apart from the protruding pattern and encloses the protruding pattern, and the size of the cross-sectional area of the first photo gate is different from that of the second photo gate.
상기 센서는 상기 제1포토 게이트에 인접한 플로팅 확산 영역(floating diffusion region)으로 전달된 상기 광전하에 기초하여 깊이 신호를 생성할 수 있다.The sensor may generate a depth signal based on the photocharge transferred to a floating diffusion region adjacent to the first photo gate.
또한, 상기 센서는 TOF(time of flight)에 기초하여 대상 물체까지의 깊이를 측정할 수 있다.In addition, the sensor may measure the depth to the target object based on the time of flight (TOF).
또한, 상기 제1포토 게이트에는 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들이 시간차를 두고 인가될 수 있다.In addition, gate signals having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees may be applied to the first photo gate with a time difference.
또한, 상기 제1포토 게이트의 상기 단면적의 상기 크기는 상기 제2포토 게이트의 상기 단면적의 상기 크기보다 클 수 있다.In addition, the size of the cross-sectional area of the first photo gate may be greater than the size of the cross-sectional area of the second photo gate.
본 발명의 실시 예에 따른 데이터 처리 시스템은 상기 센서 및 상기 센서의 동작을 제어하기 위한 프로세서를 포함한다.Data processing system according to an embodiment of the present invention includes the sensor and a processor for controlling the operation of the sensor.
상기 센서는 상기 제1포토 게이트에 인접한 플로팅 확산 영역으로 The sensor is moved to a floating diffusion region adjacent to the first photo gate.
전달된 상기 광전하에 기초하여 깊이 신호를 생성할 수 있다.A depth signal may be generated based on the transferred photocharges.
또한, 상기 제1포토 게이트에는 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들이 시간차를 두고 인가될 수 있다.In addition, gate signals having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees may be applied to the first photo gate with a time difference.
또한, 상기 센서는 TOF(time of flight)에 기초하여 대상 물체까지의 깊이를 측정할 수 있다.In addition, the sensor may measure the depth to the target object based on the time of flight (TOF).
상기 데이터 처리 시스템은 3차원 거리 측정기, 게임 컨트롤러, 거리 카메라, 또는 제스쳐 감지 장치로 구현될 수 있다.The data processing system may be implemented as a 3D range finder, a game controller, a distance camera, or a gesture sensing device.
본 발명의 실시 예에 따른 센서는 돌출 패턴을 갖는 포토 게이트 구조를 포함하여 측면 전계(lateral field)가 발생하는 범위를 확대함으로써 생성된 광전자의 분리성 또는 분해능을 높일 수 있는 효과가 있다.The sensor according to the embodiment of the present invention has an effect of increasing the separation or resolution of the photoelectrons generated by enlarging the range in which the lateral field occurs, including the photo gate structure having the protruding pattern.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 깊이 픽셀을 포함하는 센서의 블럭도이다.
도 2는 도 1에 도시된 깊이 픽셀의 단면도, 상기 깊이 픽셀에 포함된 다수의 게이트들의 평면도, 및 상기 깊이 픽셀의 동작을 설명하기 위한 반도체 표면의 포텐셜 분포를 도시한다.
도 3은 도 1에 도시된 깊이 픽셀에 구현된 다수의 포토 게이트들과 다수의 트랜지스터들을 포함하는 회로도이다.
도 4는 도 2에 도시된 제1포토 게이트 및 제2포토 게이트에 인가되는 게이트 신호들을 나타내는 그래프이다.
도 5는 본 발명의 다른 실시 예에 따른 깊이 픽셀을 포함하는 이미지 센서의 블럭도이다.
도 6은 도 5에 도시된 이미지 센서를 포함하는 데이터 처리 시스템의 블럭도이다.
도 7은 도 1에 도시된 센서를 포함하는 데이터 처리 시스템의 블럭도이다.
도 8은 도 1에 도시된 센서를 포함하는 데이터 처리 시스템의 다른 실시 예이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to more fully understand the drawings recited in the detailed description of the present invention, a detailed description of each drawing is provided.
1 is a block diagram of a sensor including a depth pixel according to an exemplary embodiment of the present invention.
FIG. 2 illustrates a cross-sectional view of the depth pixel shown in FIG. 1, a plan view of a plurality of gates included in the depth pixel, and a potential distribution of a semiconductor surface for explaining the operation of the depth pixel.
3 is a circuit diagram including a plurality of photo gates and a plurality of transistors implemented in a depth pixel illustrated in FIG. 1.
FIG. 4 is a graph illustrating gate signals applied to the first photo gate and the second photo gate shown in FIG. 2.
5 is a block diagram of an image sensor including a depth pixel according to another exemplary embodiment.
FIG. 6 is a block diagram of a data processing system including the image sensor shown in FIG. 5.
FIG. 7 is a block diagram of a data processing system including the sensor shown in FIG. 1.
FIG. 8 is another embodiment of a data processing system including the sensor shown in FIG. 1.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서 또는 출원에 설명된 실시 예들에 한정되는 것으로 해석되어서는 아니된다.Specific structural to functional descriptions of the embodiments according to the inventive concept disclosed herein are merely illustrated for the purpose of describing the embodiments according to the inventive concept. It may be embodied in various forms and should not be construed as limited to the embodiments set forth herein or in the application.
본 발명의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Embodiments in accordance with the concepts of the present invention can make various changes and have various forms, so that specific embodiments are illustrated in the drawings and described in detail in this specification or application. It is to be understood, however, that it is not intended to limit the embodiments according to the concepts of the present invention to the particular forms of disclosure, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first and / or second may be used to describe various components, but the components should not be limited by the terms. The terms are intended to distinguish one element from another, for example, without departing from the scope of the invention in accordance with the concepts of the present invention, the first element may be termed the second element, The second component may also be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "comprises ", or" having ", or the like, specify that there is a stated feature, number, step, operation, , Steps, operations, components, parts, or combinations thereof, as a matter of principle.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and are not construed in ideal or excessively formal meanings unless expressly defined herein. Do not.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings.
도 1은 본 발명의 실시 예에 따른 깊이 픽셀을 포함하는 센서의 블럭도이다.1 is a block diagram of a sensor including a depth pixel according to an exemplary embodiment of the present invention.
도 1을 참조하면, 센서(10)는 적외선 광원(12)을 이용하여 적외선 광신호(EL), 예컨대 변조된 적외선 광신호(modulated infrared photon signal)를 외부로 방사하고, 적외선 광신호(EL)가 적외선 광원(12)으로부터 방사된 시간과 적외선 광신호(EL)가 피사체(11) 또는 타겟 물체에 의하여 반사된 후 센서(10)로 입사되는 적외선 광신호(이를 "반사 광신호"라 한다. RL' 또는 RL)의 입사 시간의 시간 차(td)를 나타내는 수학식 1을 이용하여 피사체(11)까지의 거리 또는 깊이(d)를 측정할 수 있다. Referring to FIG. 1, the
여기서, d는 센서(10)와 피사체(11)와의 거리 또는 깊이를 나타내고, c는 광속을 나타낸다.Here, d represents the distance or depth between the
센서(10)는 적외선 광원(12), 깊이 센서 어레이(14), 적외선 통과 필터(17), CDS/ADC 회로(18), 타이밍 컨트롤러(20), 로우 디코더(row decoder; 22), 및 메모리(24)를 포함한다. 또한, 센서(10)는 이미지 신호 프로세서(150)를 더 포함할 수 있다.The
실시 예에 따라, 센서(10)와 이미지 신호 프로세서(150)는 하나의 반도체 칩,예컨대, SoC(System on Chip)로 구현될 수도 있고, 센서(10)와 이미지 신호 프로세서(150)는 서로 다른 반도체 칩으로 구현될 수 있다. 또한, 실시 예에 따라 센서(10)는 컬러 이미지 센서 칩과 함께 사용되어 3차원 이미지 정보와 깊이 정보를 동시에 측정하는데 이용될 수도 있다.According to an embodiment, the
또한, 센서(10)는 타이밍 컨트롤러(20)의 제어 하에 메모리(24)로부터 출력되는 데이터를 이미지 신호 프로세서(150)로 전송하기 위한 컬럼 디코더(미도시)를 더 포함할 수 있다.In addition, the
또한, 센서(10)는 반사 광신호(RL')를 적외선 통과 필터(17)로 집광시키기 위한 렌즈(미 도시)를 더 포함할 수 있다. 적외선 통과 필터(17)와 상기 렌즈를 포함하는 렌즈 모듈(미 도시)의 동작은 타이밍 컨트롤러(20)에 의하여 제어될 수 있다.In addition, the
깊이 센서 어레이(14)는 다수의 깊이 픽셀들(16)을 포함할 수 있다. 다수의 깊이 픽셀들(16) 각각은 상기 대상 물체로부터 반사되는 반사 광신호(RL 또는 RL') 및 다수의 게이트 신호들에 기초하여 다수의 프레임 신호들을 발생할 수 있다. 상기 다수의 게이트 신호들은 다수의 깊이 픽셀들(16) 각각에 일정한 위상 차이를 갖고 주기적으로 인가된다.
타이밍 컨트롤러(20)는 적외선 광원(12)의 동작과 다수의 깊이 픽셀들(16) 각각의 동작을 제어할 수 있다. 타이밍 컨트롤러(20)의 제어 하에, 적외선 광원(12)은 적외선 광신호(EL)를 외부로 방사(emit)할 수 있다.The
구체적으로, 타이밍 컨트롤러(20)는 다수의 거리 픽셀들(16) 각각에 구현된 다수의 포토게이트들(photogates) 각각의 동작을 제어하기 위한 다수의 게이트 신호들을 생성할 수 있다.In detail, the
적외선 광원(12)은 LED(light emitting diode), LD(laser diode) 또는 OLED(organic light emitting diode)로 구현될 수 있다. 센서(10)는 깊이 센서 어레이(14)의 주변에 배치된 다수의 적외선 광원들을 포함할 수 있으나, 도 1에서는 설명의 편의를 위하여 하나의 적외선 광원(12)만이 도시되었다.The infrared
CDS/ADC 회로(18)는, 타이밍 컨트롤러(20)로부터 출력된 제어 신호들에 응답하여 깊이 픽셀 어레이(14)로부터 출력된 신호들 각각에 대하여 CDS(correlated double sampling)을 수행한다. 또한, CSD/ADC 회로(18)는 CDS된 신호들 각각을 아날로그-디지털 변환(analog to digital converting)하여 디지털 신호들 각각을 출력한다.The CDS /
메모리(24)는 CDS/ADC 회로(18)로부터 출력된 각 디지털 신호를 수신하여 저장할 수 있다. 메모리(24)에 저장된 각 디지털 신호는 컬럼 디코더(미 도시)에 의하여 이미지 신호 프로세서(150)로 출력될 수 있다.The
도 2는 도 1에 도시된 깊이 픽셀의 단면도, 상기 깊이 픽셀에 포함된 다수의 게이트들의 평면도, 및 상기 깊이 픽셀의 동작을 설명하기 위한 반도체 표면의 포텐셜 분포를 도시한다. 도 2에서는 설명의 편의를 위하여 하나의 깊이 픽셀만이 도시되었다.FIG. 2 illustrates a cross-sectional view of the depth pixel shown in FIG. 1, a plan view of a plurality of gates included in the depth pixel, and a potential distribution of a semiconductor surface for explaining the operation of the depth pixel. In FIG. 2, only one depth pixel is shown for convenience of description.
도 1 및 도 2를 참조하면, 깊이 픽셀(16)은 1-탭 픽셀 구조를 갖는다. 즉, 센서(10)는 다수의 게이트 전극들 중 하나의 게이트 전극에 인접한 플로팅 확산 영역으로 전달된 광전하에 기초하여 깊이 신호를 생성할 수 있다. 즉, 다수의 게이트 전극들이 대칭적인 구조를 갖지 않기 때문에, 깊이 픽셀(16)은 1-탭 픽셀 구조를 갖는다.1 and 2,
깊이 픽셀(16)은 제1포토 게이트(PG1), 제2포토 게이트(PG2), 제1전송 회로(TX1), 제2전송 회로(TX2), 제1브리징 영역(BD1), 제2브리징 영역(BD2), 제1플로팅 확산 영역(FD1), 및 제2플로팅 확산 영역(FD2)을 포함한다.The
실시 예에 따라 제1브리징 영역(BD1)과 제2브리징 영역(BD2)은 구현되지 않을 수 있다. 브리징 영역들(BD1과 BD2)은 광전 변환 영역에서 생성된 광전자가 축적되는 영역이다. 브리징 영역들(BD1과 BD2)과 플로팅 확산 영역들(FD1과 FD2)은 반도체 기판(예컨대, P-타입 애피택셜 영역; 16-1) 내부에 형성될 수 있다.According to an embodiment, the first bridging area BD1 and the second bridging area BD2 may not be implemented. The bridging regions BD1 and BD2 are regions in which photoelectrons generated in the photoelectric conversion region are accumulated. The bridging regions BD1 and BD2 and the floating diffusion regions FD1 and FD2 may be formed inside the semiconductor substrate (eg, a P - type epitaxial region 16-1).
제1포토 게이트(PG1)와 제2포토 게이트(PG2) 각각의 하부에 위치하는 반도체 기판(16-1) 내부에서, 제1포토 게이트(PG1)와 제2포토 게이트(PG2) 각각을 통과한 반사 광신호(RL 또는 RL')에 의해 광전자(또는 광전하)가 생성된다. 즉, 상기 광전 변환 영역은 상기 광전자가 생성되는 영역을 의미한다.Inside the semiconductor substrate 16-1 positioned below each of the first and second photo gates PG1 and PG2, each of the first and second photo gates PG1 and PG2 passes through the first and second photo gates PG1 and PG2. Photoelectrons (or photocharges) are generated by the reflected light signal RL or RL '. That is, the photoelectric conversion region means a region where the photoelectron is generated.
포토 게이트들(PG1과 PG2)과 반도체 기판(16-1)의 사이 및 전송 회로들(TX1과 TX2)과 반도체 기판(16-1)의 사이는 절연층으로 절연된다. 반도체 기판(16-1)은 실리콘 기판일 수 있으면, 상기 절연층은 실리콘 산화물(SiO2)일 수 있다. 또한, 포토 게이트들(PG1과 PG2)은 폴리 실리콘 또는 금속으로 구현될 수 있다.The photo gates PG1 and PG2 and the semiconductor substrate 16-1 and between the transfer circuits TX1 and TX2 and the semiconductor substrate 16-1 are insulated with an insulating layer. If the semiconductor substrate 16-1 may be a silicon substrate, the insulating layer may be silicon oxide (SiO 2 ). In addition, the photo gates PG1 and PG2 may be implemented with polysilicon or metal.
제1포토 게이트(PG1)와 제2포토 게이트(PG2) 각각은 타이밍 컨트롤러(20)로부터 출력된 180도의 위상 차를 갖는 두 개의 게이트 신호들 각각에 응답하여 수집(collection) 동작과 전송(transfer) 동작을 제어할 수 있다.Each of the first photo gate PG1 and the second photo gate PG2 has a collection operation and a transfer in response to each of the two gate signals having a 180 degree phase difference output from the
여기서, 상기 수집 동작이라 함은 반사 광신호(RL 또는 RL')에 의하여 생성된 광전자가 반도체 기판(16-1)의 표면에 수집되는 동작을 의미하고, 상기 전송 동작이라 함은 수집된 광전자를 전송 회로들(TX1과 TX2) 각각을 이용하여 플로팅 확산 영역들(FD2과 FD2) 각각으로 전송하는 동작을 의미한다.Here, the collecting operation refers to an operation in which photoelectrons generated by the reflected light signal RL or RL 'are collected on the surface of the semiconductor substrate 16-1, and the transmission operation refers to the collected photoelectrons. It means an operation of transmitting to each of the floating diffusion regions FD2 and FD2 by using each of the transmission circuits TX1 and TX2.
제1포토 게이트(PG1)는 중앙 영역에서 제2포토 게이트(PG2)를 향해 돌출된 돌출 패턴(16-3)을 포함한다. 제2포토 게이트(PG2)는 돌출 패턴(16-3)과 이격되고 돌출 패턴(16-3)을 둘러싸는 구조를 갖는다. 이때, 제1포토 게이트(PG1)의 단면적의 크기와 제2포토 게이트(PG2)의 단면적의 크기는 상이하다. 실시 예에 따라 제1포토 게이트(PG1)의 상기 단면적의 상기 크기는 제2포토 게이트(PG2)의 상기 단면적의 상기 크기보다 클 수 있다.The first photo gate PG1 includes a protruding pattern 16-3 protruding toward the second photo gate PG2 in the central region. The second photo gate PG2 has a structure spaced apart from the protruding pattern 16-3 and surrounding the protruding pattern 16-3. At this time, the size of the cross-sectional area of the first photo gate PG1 and the size of the cross-sectional area of the second photo gate PG2 are different. In some embodiments, the size of the cross-sectional area of the first photo gate PG1 may be greater than the size of the cross-sectional area of the second photo gate PG2.
도 2에 도시된 포텐셜 분포는 제1포토 게이트(PG1)에 로우 레벨의 전압, 예컨대 0V가 인가되고, 제2포토 게이트(PG2)에 하이 레벨의 전압, 예컨대 3.3V가 인가될 때의 포텐셜 분포를 도시한다. 이 경우, 상기 광전 변환 영역에서 생성된 광전자(1)는 제2브리징 영역(BD2)으로 이동한다. 이는 제1포토 게이트(PG1)에 인가된 전압과 제2포토 게이트(PG2)에 인가된 전압의 차이에 의한 측면 전계(lateral field; 3)가 형성되기 때문이다. 따라서, 센서(10)의 광전자 분해능을 높이기 위해서는, 측면 전계(3)가 발생하는 범위를 증가시킬 필요가 있다. 결국 본 발명의 실시 예에 따른 센서(10)는, 상기와 같은 제1포토 게이트(PG1) 및 제2포토 게이트(PG2)의 구조를 포함함으로써, 측면 전계(3)가 형성되는 범위를 증가시킬 수 있다.The potential distribution shown in FIG. 2 is a potential distribution when a low level voltage, for example, 0 V is applied to the first photo gate PG1, and a high level voltage, for example, 3.3 V is applied to the second photo gate PG2. Shows. In this case, the optoelectronics 1 generated in the photoelectric conversion region move to the second bridging region BD2. This is because the
여기서, 상기 광전자 분해능이라 함은, 센서(10)가 생성된 광전자(1)를 이동시키려고 하는 브리징 영역 또는 플로팅 확산 영역으로 이동시킬 수 있는 능력을 의미한다. 또한, 상기 측면 전계라 함은 생성된 광전자(1)가 이동할 수 있도록 경사를 갖는 포텐셜 분포를 의미한다.Here, the photoelectron resolution means the ability of the
도 3은 도 1에 도시된 깊이 픽셀에 구현된 다수의 포토 게이트들과 다수의 트랜지스터들을 포함하는 회로도이다.3 is a circuit diagram including a plurality of photo gates and a plurality of transistors implemented in a depth pixel illustrated in FIG. 1.
도 1 내지 도 3을 참조하면, MOSFET으로 구현될 수 있는 제1전송 회로(TX1)는, 타이밍 컨트롤러(20)로부터 출력된 제1전송 신호(TG1)에 응답하여 반도체 기판(16-1) 내부에 생성된 광전자를 제1플로팅 확산 영역(FD1)으로 전송한다.1 to 3, the first transfer circuit TX1, which may be implemented as a MOSFET, is inside the semiconductor substrate 16-1 in response to the first transfer signal TG1 output from the
또한, MOSFET으로 구현될 수 있는 제2전송 회로(TX2)는, 타이밍 컨트롤러(20)로부터 출력된 제2전송 신호(TG2)에 응답하여, 생성된 광전자를 제2플로팅 확산 영역(FD2)으로 전송한다. 실시 예에 따라, 제1전송 신호(TG1)와 제2전송 신호(TG2)는 동일한 신호일 수 있다.In addition, the second transmission circuit TX2, which may be implemented as a MOSFET, transmits the generated photoelectrons to the second floating diffusion region FD2 in response to the second transmission signal TG2 output from the
각각의 리셋 트랜지스터(RX1과 RX2)는 타이밍 컨트롤러(20)로부터 출력된 리셋 신호(RS)에 응답하여 각 플로팅 확산 영역(FD1과 FD2)을 리셋할 수 있다.Each reset transistor RX1 and RX2 may reset each floating diffusion region FD1 and FD2 in response to a reset signal RS output from the
소스 팔로워 버퍼 증폭기(source follower buffer amplifier) 역할을 수행할 수 있는 각각의 드라이브 트랜지스터(DX1과 DX2)는, 각각의 플로팅 확산 영역(FD1과 FD2)에 충전된 광전자에 의하여 생성된 전압에 응답하여, 공급 전압(VDD)을 버퍼링하는 동작을 수행할 수 있다.Each drive transistor DX1 and DX2, which can serve as a source follower buffer amplifier, responds to the voltage generated by the photoelectrons charged in the respective floating diffusion regions FD1 and FD2. An operation of buffering the supply voltage VDD may be performed.
각각의 선택 트랜지스터(SX1과 SX2)는, 타이밍 컨트롤러(20)로부터 출력된 선택 신호(SEL)에 응답하여, 각각의 드라이브 트랜지스터(DX1과 DX2)에 의하여 버퍼링된 신호를 각각의 컬럼 라인으로 출력할 수 있다.Each of the select transistors SX1 and SX2 may output a signal buffered by each of the drive transistors DX1 and DX2 to each column line in response to the select signal SEL output from the
도 4는 도 2에 도시된 제1포토 게이트 및 제2포토 게이트에 인가되는 게이트 신호들을 나타내는 그래프이다.FIG. 4 is a graph illustrating gate signals applied to the first photo gate and the second photo gate shown in FIG. 2.
도 1 내지 도 4를 참조하면, 깊이 픽셀(16)은 180도의 위상 차를 갖는 게이트 신호들(G1a와 G2a)에 응답하여 프레임 신호들을 측정한 후, 180도의 위상 차를 갖는 게이트 신호들(G1b와 G2b)에 응답하여 프레임 신호들을 측정할 수 있다. 마찬가지로 깊이 픽셀(16)은 180도의 위상 차를 갖는 게이트 신호들(G1c와 G2c)에 응답하여 프레임 신호들을 측정한 후, 180도의 위상 차를 갖는 게이트 신호들(G1d와 G2d)에 응답하여 프레임 신호들을 측정할 수 있다. 즉, 제1포토 게이트(PG1)에는 90도의 위상 차이를 갖는 게이트 신호들(G1a 내지 G1d)이 주기적으로 인가되고, 제2포토 게이트(PG2)에는 90도의 위상 차이를 갖는 게이트 신호들(G2a 내지 G2d)이 주기적으로 인가된다. 이때, 제2포토 게이트(PG2)에는 제1포토 게이트(PG1)에 인가되는 게이트 신호들 각각과 180도의 위상 차이를 갖는 게이트 신호들이 주기적으로 인가된다.1 to 4, the
이때, 센서(10)는 제1포토 게이트(PG1)에 인접한 플로팅 확산 영역(FD1)으로 전달된 광전자에 기초하여 깊이 신호를 생성할 수 있다. 실시 예에 따라, 센서(10)는 제2포토 게이트(PG2)에 인접한 플로팅 확산 영역(FD2)으로 전달된 광전자에 기초하여 깊이 신호를 생성할 수 있다. 즉, 센서(10)에 포함된 깊이 픽셀(16)은 1-탭 픽셀 구조를 갖는다.In this case, the
도 5는 본 발명의 다른 실시 예에 따른 깊이 픽셀을 포함하는 이미지 센서의 블럭도이다.5 is a block diagram of an image sensor including a depth pixel according to another exemplary embodiment.
도 5에 도시된 이미지 센서(100)는 거리 픽셀을 이용하여 깊이 정보를 측정하는 기능과, 각 컬러 픽셀(예컨대, 레드 컬러 픽셀, 그린 컬러 픽셀, 및 블루 컬러 픽셀)을 이용하여 각 컬러 정보(예컨대, 레드 컬러 정보, 그린 컬러 정보, 및 블루 컬러 정보)를 측정하는 기능을 함께 결합하여 상기 깊이 정보와 함께 상기 각 컬러 정보를 얻을 수 있는 3차원 이미지 센서이다.The
이미지 센서(100)는 적외선 광원(12), 타이밍 컨트롤러(20), 픽셀 어레이(110), 로우 디코더(22), 컬럼 디코더(124), CDS/ADC 회로(130), 및 이미지 신호 프로세서(150)를 포함한다. 실시 예에 따라, 컬럼 디코더(124)는 CDS/ADC 회로(130)와 이미지 신호 프로세서(150) 사이에 배치될 수도 있다.The
적외선 광원(12)은, 타이밍 컨트롤러(20)의 제어 하에 적외선 광신호, 즉 변조 적외선 광신호를 생성할 수 있다.The infrared
픽셀 어레이(110)는 다수의 픽셀들을 포함한다. 상기 다수의 픽셀들 각각은 레드 픽셀, 그린 픽셀, 블루 픽셀, 깊이 픽셀, 마젠타 픽셀, 사이언 픽셀, 또는 예로우 픽셀 중에서 적어도 두 개의 픽셀들이 혼합되어 배열될 수 있다. 상기 다수의 픽셀들 각각은 다수의 로우 라인들과 다수의 컬럼 라인들의 교차점에 매트릭스 형태로 배열된다.The
상기 레드 픽셀은 가시광 영역 중에서 레드 영역에 속하는 파장들에 상응하는 레드 픽셀 신호를 생성하고, 상기 그린 픽셀은 상기 가시광 영역 중에서 그린 영역에 속하는 파장들에 상응하는 그린 픽셀 신호를 생성하고, 상기 블루 픽셀은 상기 가시광 영역 중에서 블루 영역에 속하는 파장들에 상응하는 블루 픽셀 신호를 생성한다. 상기 깊이 픽셀은 적외선 영역에 속하는 파장들에 상응하는 깊이 픽셀 신호를 생성할 수 있다.The red pixel generates a red pixel signal corresponding to wavelengths belonging to the red region of the visible light region, the green pixel generates a green pixel signal corresponding to wavelengths belonging to the green region of the visible light region, and the blue pixel Generates a blue pixel signal corresponding to wavelengths belonging to a blue region of the visible region. The depth pixel may generate a depth pixel signal corresponding to wavelengths belonging to an infrared region.
픽셀 어레이(110)에 구현된 깊이 픽셀의 구조 및 동작은 도 2 내지 도 4를 참조하여 설명한 깊이 픽셀의 구조 및 동작과 실질적으로 동일하다.The structure and operation of the depth pixel implemented in the
로우 디코더(22)는 타이밍 컨트롤러(20)로부터 출력된 제어 신호들에 응답하여 픽셀 어레이(110)에 구현된 다수의 로우들 중에서 어느 하나의 로우를 선택할 수 있다. 상기 다수의 로우들 각각에는 다수의 픽셀들이 배열될 수 있다.The
컬럼 디코더(124)는 타이밍 컨트롤러(20)로부터 출력된 제어 신호들에 응답하여 픽셀 어레이(110)에 구현된 다수의 컬럼 라인들 중에서 적어도 하나의 컬럼 라인을 선택할 수 있다.The
픽셀 어레이(110)에 구현된 다수의 픽셀들 중에서 어느 하나의 픽셀은 로우 디코더(22)와 컬럼 디코더에 의하여 선택될 수 있다. 따라서, 선택된 어느 하나의 픽셀에 의하여 생성된 신호(예컨대, 깊이 정보 또는 컬러 정보)는 CDS/ADC 회로(130)로 전송될 수 있다. Any one of the plurality of pixels implemented in the
CDS/ADC 회로(130)는 픽셀 어레이(110) 또는 컬럼 디코더(124)로부터 출력된 신호(예컨대, 깊이 정보 또는 컬러 정보)를 디지털 신호로 변환한다. 예컨대, CDS/ADC 회로(130)는 픽셀 어레이(110)로부터 출력된 신호(예컨대, 깊이 정보 또는 컬러 정보)에 대하여 CDS 동작을 수행하여 CDS 신호를 생성하고 생성된 CDS 신호에 ADC 동작을 수행하여 디지털 신호를 생성할 수 있다.The CDS /
이미지 신호 프로세서(150)는 CDS/ADC 회로(130) 또는 컬럼 디코더(124)로부터 출력된 디지털 신호로부터 디지털 픽셀 신호(예컨대, 깊이 정보 또는 컬러 정보)를 검출할 수 있다.The
도 6은 도 5에 도시된 이미지 센서를 포함하는 데이터 처리 시스템의 블럭도이다.FIG. 6 is a block diagram of a data processing system including the image sensor shown in FIG. 5.
도 6을 참조하면, 데이터 처리 시스템(200)은 이미지 센서(100)와 프로세서(210)를 포함할 수 있다.Referring to FIG. 6, the
프로세서(210)는 이미지 센서(100)의 동작, 예컨대 타이밍 컨트롤러(20)의 동작을 제어할 수 있다. 프로세서(210)는 이미지 센서(100)의 동작을 제어하기 위한 프로그램을 저장할 수 있다. 실시 예에 따라, 프로세서(210)는 이미지 센서(100)의 동작을 제어하기 위한 프로그램이 저장된 메모리(미 도시)를 액세스하여 상기 메모리에 저장된 상기 프로그램을 실행시킬 수 있다.The
이미지 센서(100)는 프로세서(210)의 제어 하에 각 디지털 픽셀 신호(예컨대, 컬러 정보 또는 깊이 정보)에 기초하여 3차원 이미지 정보를 생성할 수 있다. 상기 생성된 3차원 이미지 정보는 인터페이스(230)에 접속된 디스플레이(미 도시)를 통하여 디스플레이될 수 있다.The
이미지 센서(100)에 의하여 생성된 3차원 이미지 정보는 프로세서(210)의 제어 하에 버스(201)를 통하여 메모리 장치(220)에 저장될 수 있다. 메모리 장치(220)는 불휘발성 메모리 장치로 구현될 수 있다.The 3D image information generated by the
인터페이스(230)는 3차원 이미지 정보를 입출력하기 위한 인터페이스로 구현될 수 있다. 실시 예에 따라, 인터페이스(230)는 키보드, 마우스, 또는 터치 패드와 같은 입력 장치로 구현될 수 있고, 디스플레이 또는 프린터와 같은 출력 장치로 구현될 수도 있다.The
도 7은 도 1에 도시된 센서를 포함하는 데이터 처리 시스템의 블럭도이다.FIG. 7 is a block diagram of a data processing system including the sensor shown in FIG. 1.
도 7을 참조하면, 데이터 처리 시스템(300)은 깊이 센서(10), 다수의 컬러 픽셀들을 포함하는 컬러 이미지 센서(310), 및 프로세서(210)를 포함한다.Referring to FIG. 7, the
도 7에는 설명의 편의를 위하여, 물리적으로 서로 분리된 깊이 센서(10)와 컬러 이미지 센서(310)를 도시하나, 깊이 센서(10)와 컬러 이미지 센서(310)는 서로 물리적으로 중복되는 신호 처리 회로들을 포함할 수 있다.In FIG. 7, for convenience of description, the
여기서, 컬러 이미지 센서(310)는 깊이 픽셀을 포함하지 않고, 레드 픽셀, 그린 픽셀, 및 블루 픽셀을 포함하는 픽셀 어레이를 포함하는 이미지 센서를 의미할 수 있다. 따라서, 프로세서(210)는 깊이 센서(10)에 의하여 검출된 깊이 정보와 컬러 이미지 센서(310)에 의하여 검출된 각 컬러 정보(예컨대, 레드 정보, 그린 정보, 블루 정보, 마젠타 정보, 사이언 정보, 또는 옐로우 정보 중에서 적어도 하나에 기초하여 3차원 이미지 정보를 생성하고, 생성된 3차원 이미지 정보를 디스플레이를 통하여 디스플레이할 수 있다.Here, the
프로세서(210)에 의하여 생성된 3차원 이미지 정보는 버스(301)를 통하여 메모리 장치(220)에 저장될 수 있다.3D image information generated by the
도 6 또는 도 7에 도시된 데이터 처리 시스템(200 또는 300)은 3차원 거리 측정기, 게임 컨트롤러, 깊이 카메라, 또는 제스쳐 감지 장치(gesture sensing apparatus)에 사용될 수 있다.The
도 8은 도 1에 도시된 센서를 포함하는 데이터 처리 시스템의 다른 실시 예이다.FIG. 8 is another embodiment of a data processing system including the sensor shown in FIG. 1.
도 8을 참조하면, 단순 깊이(또는 거리) 측정 센서로서만 동작할 수 있는 데이터 처리 시스템(400)은 거리 센서(10)와 거리 센서(10)의 동작을 제어하기 위한 프로세서(210)를 포함한다.Referring to FIG. 8, a
프로세서(210)는 깊이 센서(10)로부터 출력된 깊이 정보에 기초하여 데이터 처리 시스템(400)과 파사체(또는 타겟 물체)와의 거리 정보 또는 깊이 정보를 계산할 수 있다. 프로세서(210)에 의하여 측정된 거리 정보 또는 깊이 정보는 버스(401)를 통하여 메모리 장치(220)에 저장될 수 있다.The
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
10: 센서
12: 적외선 광원
14: 깊이 센서 어레이
16: 깊이 픽셀
17: 적외선 통과 필터
18: CDS/ADC 회로
20: 타이밍 컨트롤러
22: 로우 디코더
24: 메모리
100: 이미지 센서
110: 픽셀 어레이
124: 컬럼 디코더
130: CDS/ADC 회로
150: 이미지 신호 프로세서
200: 데이터 처리 시스템10: Sensor
12: infrared light source
14: depth sensor array
16: depth pixel
17: Infrared pass filter
18: CDS / ADC circuit
20: timing controller
22: low decoder
24: memory
100: image sensor
110: pixel array
124: column decoder
130: CDS / ADC circuit
150: image signal processor
200: data processing system
Claims (10)
상기 깊이 픽셀은,
광전하를 생성하는 광전 변환 영역;
상기 광전 변환 영역을 포함하는 반도체 기판 상에 구현되는 절연층; 및
각각이 상기 절연층 상에 구현되는 제1포토 게이트와 제2포토 게이트를 포함하고,
상기 제1포토 게이트에는 중앙 영역에서 상기 제2포토 게이트를 향해 돌출된 돌출 패턴이 형성되며,
상기 제2포토 게이트는 상기 돌출 패턴과 이격되고 상기 돌출 패턴을 둘러싸는 구조를 갖고,
상기 제1포토 게이트의 단면적의 크기와 상기 제2포토 게이트의 단면적의 크기는 상이한 센서.Includes depth pixels of a 1-tab pixel structure,
The depth pixel is,
Photoelectric conversion regions for generating photocharges;
An insulating layer formed on the semiconductor substrate including the photoelectric conversion region; And
Each comprising a first photo gate and a second photo gate implemented on the insulating layer,
A protruding pattern protruding from the central region toward the second photo gate is formed in the first photo gate.
The second photo gate has a structure spaced apart from the protruding pattern and surrounding the protruding pattern,
The size of the cross-sectional area of the first photo gate and the size of the cross-sectional area of the second photo gate are different.
상기 센서는 상기 제1포토 게이트에 인접한 플로팅 확산 영역(floating diffusion region)으로 전달된 상기 광전하에 기초하여 깊이 신호를 생성하는 센서.The method of claim 1,
And the sensor generates a depth signal based on the photocharge transferred to a floating diffusion region adjacent to the first photo gate.
상기 센서는 TOF(time of flight)에 기초하여 대상 물체까지의 깊이를 측정하는 센서.The method of claim 1,
The sensor measures the depth to the object based on the time of flight (TOF).
상기 제1포토 게이트에는 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들이 시간차를 두고 인가되는 센서.The method of claim 2,
And a gate signal having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees is applied to the first photo gate with a time difference.
상기 제1포토 게이트의 상기 단면적의 상기 크기는 상기 제2포토 게이트의 상기 단면적의 상기 크기보다 큰 센서.The method of claim 2,
The size of the cross-sectional area of the first photo gate is greater than the size of the cross-sectional area of the second photo gate.
상기 센서의 동작을 제어하기 위한 프로세서를 포함하는 데이터 처리 시스템.The sensor of claim 1; And
And a processor for controlling the operation of the sensor.
상기 제1포토 게이트에 인접한 플로팅 확산 영역으로 전달된 상기 광전하에 기초하여 깊이 신호를 생성하는 데이터 처리 시스템.The method of claim 6, wherein the sensor,
And a depth signal based on the photocharges transferred to the floating diffusion region adjacent to the first photo gate.
상기 제1포토 게이트에는 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들이 시간차를 두고 인가되는 데이터 처리 시스템.The method of claim 7, wherein
And a gate signal having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees is applied to the first photo gate with a time difference.
상기 센서는 TOF(time of flight)에 기초하여 대상 물체까지의 깊이를 측정하는 데이터 처리 시스템.The method according to claim 6,
The sensor measures a depth to a target object based on a time of flight (TOF).
상기 데이터 처리 시스템은 3차원 거리 측정기, 게임 컨트롤러, 거리 카메라, 또는 제스쳐 감지 장치인 데이터 처리 시스템.The method according to claim 6,
The data processing system is a three-dimensional range finder, a game controller, a distance camera, or a gesture sensing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110068052A KR20130006168A (en) | 2011-07-08 | 2011-07-08 | Sensor and data processing system having the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110068052A KR20130006168A (en) | 2011-07-08 | 2011-07-08 | Sensor and data processing system having the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130006168A true KR20130006168A (en) | 2013-01-16 |
Family
ID=47837313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110068052A KR20130006168A (en) | 2011-07-08 | 2011-07-08 | Sensor and data processing system having the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130006168A (en) |
-
2011
- 2011-07-08 KR KR1020110068052A patent/KR20130006168A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210377473A1 (en) | Solid-state imaging apparatus, imaging system, and distance measurement method | |
KR101681198B1 (en) | Sensor, method of operating the sensor, and system having the sensor | |
KR102008233B1 (en) | Depth measurement device and method of measuring a distance to an object using the depth estimation device | |
KR102136850B1 (en) | A depth sensor, and a method of operating the same | |
KR101715141B1 (en) | a pixel for depth sensor and a image sensor including the pixel | |
KR101788032B1 (en) | Depth sensor, depth information error compensation method thereof, and signal processing system having the depth sensor | |
US8748951B2 (en) | Solid-state image sensing device | |
KR101823347B1 (en) | Sensor and data processing system having the same | |
KR20140047271A (en) | Depth sensor, image capturing method thereof and image processing system having the depth sensor | |
KR20110093382A (en) | Method for estimating depth information using depth estimation device | |
KR20120119279A (en) | Pixel array and three-dimensional image sensor including the same | |
US8901498B2 (en) | Unit pixels, depth sensors and three-dimensional image sensors including the same | |
KR20110024242A (en) | Method and device for estimating depth information, and signal processing apparatus having the device | |
KR20130111130A (en) | Depth estimation device and method therof | |
US11531094B2 (en) | Method and system to determine distance using time of flight measurement comprising a control circuitry identifying which row of photosensitive image region has the captured image illumination stripe | |
JP6716902B2 (en) | Electronics | |
US11054522B2 (en) | Distance measuring device | |
US9018573B2 (en) | Solid-state image sensing device with a change-over switch | |
US20200213550A1 (en) | Solid-state imaging device and imaging device including the same | |
KR20130006168A (en) | Sensor and data processing system having the same | |
KR20220005697A (en) | Image Sensing Device | |
US20230258808A1 (en) | Imaging element and imaging device | |
KR20230005605A (en) | Depth sensor and image detecting system including the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |