KR20130006168A - Sensor and data processing system having the same - Google Patents

Sensor and data processing system having the same Download PDF

Info

Publication number
KR20130006168A
KR20130006168A KR1020110068052A KR20110068052A KR20130006168A KR 20130006168 A KR20130006168 A KR 20130006168A KR 1020110068052 A KR1020110068052 A KR 1020110068052A KR 20110068052 A KR20110068052 A KR 20110068052A KR 20130006168 A KR20130006168 A KR 20130006168A
Authority
KR
South Korea
Prior art keywords
sensor
photo gate
depth
degrees
gate
Prior art date
Application number
KR1020110068052A
Other languages
Korean (ko)
Inventor
고형수
김원주
박윤동
정주환
이신욱
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110068052A priority Critical patent/KR20130006168A/en
Publication of KR20130006168A publication Critical patent/KR20130006168A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Abstract

PURPOSE: A sensor and a data processing system are provided to increase a generation range of an electric field in a side, thereby increasing photoelectron resolution. CONSTITUTION: A sensor(10) includes a depth pixel(16) of 1-tab pixel structure. A photoelectric transformation area generates a photo charge. An insulating layer is implemented on a semiconductor substrate. The semiconductor substrate includes the photoelectric transformation area. A first photo gate and a second photo gate are implemented on the insulating layer.

Description

센서 및 이를 포함하는 데이터 처리 시스템{SENSOR AND DATA PROCESSING SYSTEM HAVING THE SAME}Sensor and data processing system including same {SENSOR AND DATA PROCESSING SYSTEM HAVING THE SAME}

본 발명의 개념에 따른 실시 예는 센서에 관한 것으로, 특히 측면 전계(lateral field)의 발생 범위를 증가시킬 수 있는 포토 게이트 구조를 갖는 센서 및 이를 포함하는 데이터 처리 시스템에 관한 것이다.An embodiment according to the concept of the present invention relates to a sensor, and more particularly, to a sensor having a photogate structure capable of increasing a generation range of a lateral field and a data processing system including the same.

거리 센서는 소스(source)로부터 방사된 펄스 형태의 광신호가 타겟 물체(또는 측정 대상물)에 의해 반사되어 되돌아 올 때까지의 시간을 측정하고, 측정된 시간에 기초하여 상기 거리 센서와 상기 타겟 물체 사이의 거리(또는 깊이)를 산출할 수 있다.The distance sensor measures the time until the optical signal in the form of pulses emitted from a source is reflected back by the target object (or the measurement object), and between the distance sensor and the target object based on the measured time. The distance (or depth) of can be calculated.

상기 소스로부터 출력되는 신호로서 마이크로파(microwave), 광파(light wave), 또는 초음파(ultrasonic wave)가 주로 사용된다. 상기 거리 센서는 TOF(time of flight) 측정 방식을 이용하여 상기 거리를 측정할 수 있다.Microwaves, light waves, or ultrasonic waves are mainly used as signals output from the source. The distance sensor may measure the distance using a time of flight (TOF) measurement method.

1-탭 픽셀 구조의 깊이 픽셀을 포함하는 깊이 센서는 시간차를 두고 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들 각각을 상기 깊이 픽셀에 인가하며, 시간차를 가지고 측정되는 다수의 프레임 신호들 각각을 이용하여 상기 타겟 물체까지의 상기 거리를 계산할 수 있다.A depth sensor including a depth pixel of a 1-tap pixel structure applies each of the gate signals having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees with time difference to the depth pixel, and is measured with a time difference. The distance to the target object may be calculated using each of the frame signals.

이때, 계산된 거리의 정확도를 높이기 위해서는, 생성된 광전하를 상기 게이트 신호들 각각의 전압 레벨에 대응하는 센싱 노드 방향으로 효과적으로 이동시키는 것이 필요하다.At this time, in order to increase the accuracy of the calculated distance, it is necessary to effectively move the generated photocharge toward the sensing node corresponding to the voltage level of each of the gate signals.

따라서 본 발명이 이루고자 하는 기술적인 과제는 측면 전계의 발생 범위를 증가시켜 광전자 분해능을 향상시킬 수 있는 센서 및 이를 포함하는 데이터 처리 시스템을 제공하는 것이다.Therefore, the technical problem to be achieved by the present invention is to provide a sensor and a data processing system including the same that can increase the photoelectric resolution by increasing the generation range of the lateral electric field.

본 발명의 실시 예에 따른 센서는 1-탭 픽셀 구조(1-tab pixel structure)의 깊이 픽셀을 포함하고, 상기 깊이 픽셀은 광전하를 생성하는 광전 변환 영역, 상기 광전 변환 영역을 포함하는 반도체 기판 상에 구현되는 절연층, 및 각각이 상기 절연층 상에 구현되는 제1포토 게이트와 제2포토 게이트를 포함하고, 상기 제1포토 게이트에는 중앙 영역에서 상기 제2포토 게이트를 향해 돌출된 돌출 패턴이 형성되며, 상기 제2포토 게이트는 상기 돌출 패턴과 이격되고 상기 돌출 패턴을 둘러싸는 구조를 갖고, 상기 제1포토 게이트의 단면적의 크기와 상기 제2포토 게이트의 단면적의 크기는 상이하다.According to an embodiment of the present disclosure, a sensor includes a depth pixel of a 1-tab pixel structure, and the depth pixel includes a photoelectric conversion region for generating photocharges and a semiconductor substrate including the photoelectric conversion region. An insulating layer formed on the insulating layer, and a first photo gate and a second photo gate each of which is formed on the insulating layer, wherein the first photo gate has a protruding pattern protruding toward the second photo gate in a central region thereof. The second photo gate has a structure spaced apart from the protruding pattern and encloses the protruding pattern, and the size of the cross-sectional area of the first photo gate is different from that of the second photo gate.

상기 센서는 상기 제1포토 게이트에 인접한 플로팅 확산 영역(floating diffusion region)으로 전달된 상기 광전하에 기초하여 깊이 신호를 생성할 수 있다.The sensor may generate a depth signal based on the photocharge transferred to a floating diffusion region adjacent to the first photo gate.

또한, 상기 센서는 TOF(time of flight)에 기초하여 대상 물체까지의 깊이를 측정할 수 있다.In addition, the sensor may measure the depth to the target object based on the time of flight (TOF).

또한, 상기 제1포토 게이트에는 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들이 시간차를 두고 인가될 수 있다.In addition, gate signals having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees may be applied to the first photo gate with a time difference.

또한, 상기 제1포토 게이트의 상기 단면적의 상기 크기는 상기 제2포토 게이트의 상기 단면적의 상기 크기보다 클 수 있다.In addition, the size of the cross-sectional area of the first photo gate may be greater than the size of the cross-sectional area of the second photo gate.

본 발명의 실시 예에 따른 데이터 처리 시스템은 상기 센서 및 상기 센서의 동작을 제어하기 위한 프로세서를 포함한다.Data processing system according to an embodiment of the present invention includes the sensor and a processor for controlling the operation of the sensor.

상기 센서는 상기 제1포토 게이트에 인접한 플로팅 확산 영역으로 The sensor is moved to a floating diffusion region adjacent to the first photo gate.

전달된 상기 광전하에 기초하여 깊이 신호를 생성할 수 있다.A depth signal may be generated based on the transferred photocharges.

또한, 상기 제1포토 게이트에는 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들이 시간차를 두고 인가될 수 있다.In addition, gate signals having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees may be applied to the first photo gate with a time difference.

또한, 상기 센서는 TOF(time of flight)에 기초하여 대상 물체까지의 깊이를 측정할 수 있다.In addition, the sensor may measure the depth to the target object based on the time of flight (TOF).

상기 데이터 처리 시스템은 3차원 거리 측정기, 게임 컨트롤러, 거리 카메라, 또는 제스쳐 감지 장치로 구현될 수 있다.The data processing system may be implemented as a 3D range finder, a game controller, a distance camera, or a gesture sensing device.

본 발명의 실시 예에 따른 센서는 돌출 패턴을 갖는 포토 게이트 구조를 포함하여 측면 전계(lateral field)가 발생하는 범위를 확대함으로써 생성된 광전자의 분리성 또는 분해능을 높일 수 있는 효과가 있다.The sensor according to the embodiment of the present invention has an effect of increasing the separation or resolution of the photoelectrons generated by enlarging the range in which the lateral field occurs, including the photo gate structure having the protruding pattern.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 깊이 픽셀을 포함하는 센서의 블럭도이다.
도 2는 도 1에 도시된 깊이 픽셀의 단면도, 상기 깊이 픽셀에 포함된 다수의 게이트들의 평면도, 및 상기 깊이 픽셀의 동작을 설명하기 위한 반도체 표면의 포텐셜 분포를 도시한다.
도 3은 도 1에 도시된 깊이 픽셀에 구현된 다수의 포토 게이트들과 다수의 트랜지스터들을 포함하는 회로도이다.
도 4는 도 2에 도시된 제1포토 게이트 및 제2포토 게이트에 인가되는 게이트 신호들을 나타내는 그래프이다.
도 5는 본 발명의 다른 실시 예에 따른 깊이 픽셀을 포함하는 이미지 센서의 블럭도이다.
도 6은 도 5에 도시된 이미지 센서를 포함하는 데이터 처리 시스템의 블럭도이다.
도 7은 도 1에 도시된 센서를 포함하는 데이터 처리 시스템의 블럭도이다.
도 8은 도 1에 도시된 센서를 포함하는 데이터 처리 시스템의 다른 실시 예이다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to more fully understand the drawings recited in the detailed description of the present invention, a detailed description of each drawing is provided.
1 is a block diagram of a sensor including a depth pixel according to an exemplary embodiment of the present invention.
FIG. 2 illustrates a cross-sectional view of the depth pixel shown in FIG. 1, a plan view of a plurality of gates included in the depth pixel, and a potential distribution of a semiconductor surface for explaining the operation of the depth pixel.
3 is a circuit diagram including a plurality of photo gates and a plurality of transistors implemented in a depth pixel illustrated in FIG. 1.
FIG. 4 is a graph illustrating gate signals applied to the first photo gate and the second photo gate shown in FIG. 2.
5 is a block diagram of an image sensor including a depth pixel according to another exemplary embodiment.
FIG. 6 is a block diagram of a data processing system including the image sensor shown in FIG. 5.
FIG. 7 is a block diagram of a data processing system including the sensor shown in FIG. 1.
FIG. 8 is another embodiment of a data processing system including the sensor shown in FIG. 1.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서 또는 출원에 설명된 실시 예들에 한정되는 것으로 해석되어서는 아니된다.Specific structural to functional descriptions of the embodiments according to the inventive concept disclosed herein are merely illustrated for the purpose of describing the embodiments according to the inventive concept. It may be embodied in various forms and should not be construed as limited to the embodiments set forth herein or in the application.

본 발명의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Embodiments in accordance with the concepts of the present invention can make various changes and have various forms, so that specific embodiments are illustrated in the drawings and described in detail in this specification or application. It is to be understood, however, that it is not intended to limit the embodiments according to the concepts of the present invention to the particular forms of disclosure, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first and / or second may be used to describe various components, but the components should not be limited by the terms. The terms are intended to distinguish one element from another, for example, without departing from the scope of the invention in accordance with the concepts of the present invention, the first element may be termed the second element, The second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "comprises ", or" having ", or the like, specify that there is a stated feature, number, step, operation, , Steps, operations, components, parts, or combinations thereof, as a matter of principle.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and are not construed in ideal or excessively formal meanings unless expressly defined herein. Do not.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 깊이 픽셀을 포함하는 센서의 블럭도이다.1 is a block diagram of a sensor including a depth pixel according to an exemplary embodiment of the present invention.

도 1을 참조하면, 센서(10)는 적외선 광원(12)을 이용하여 적외선 광신호(EL), 예컨대 변조된 적외선 광신호(modulated infrared photon signal)를 외부로 방사하고, 적외선 광신호(EL)가 적외선 광원(12)으로부터 방사된 시간과 적외선 광신호(EL)가 피사체(11) 또는 타겟 물체에 의하여 반사된 후 센서(10)로 입사되는 적외선 광신호(이를 "반사 광신호"라 한다. RL' 또는 RL)의 입사 시간의 시간 차(td)를 나타내는 수학식 1을 이용하여 피사체(11)까지의 거리 또는 깊이(d)를 측정할 수 있다. Referring to FIG. 1, the sensor 10 emits an infrared light signal EL, for example, a modulated infrared photon signal, to the outside using the infrared light source 12, and the infrared light signal EL. The time when the light is emitted from the infrared light source 12 and the infrared light signal EL are reflected by the subject 11 or the target object and then the infrared light signal incident on the sensor 10 (this is referred to as a “reflected light signal”). The distance or depth d to the subject 11 may be measured by using Equation 1 representing the time difference td of the incident time of RL 'or RL.

Figure pat00001
Figure pat00001

여기서, d는 센서(10)와 피사체(11)와의 거리 또는 깊이를 나타내고, c는 광속을 나타낸다.Here, d represents the distance or depth between the sensor 10 and the subject 11, and c represents the luminous flux.

센서(10)는 적외선 광원(12), 깊이 센서 어레이(14), 적외선 통과 필터(17), CDS/ADC 회로(18), 타이밍 컨트롤러(20), 로우 디코더(row decoder; 22), 및 메모리(24)를 포함한다. 또한, 센서(10)는 이미지 신호 프로세서(150)를 더 포함할 수 있다.The sensor 10 includes an infrared light source 12, a depth sensor array 14, an infrared pass filter 17, a CDS / ADC circuit 18, a timing controller 20, a row decoder 22, and a memory. (24). In addition, the sensor 10 may further include an image signal processor 150.

실시 예에 따라, 센서(10)와 이미지 신호 프로세서(150)는 하나의 반도체 칩,예컨대, SoC(System on Chip)로 구현될 수도 있고, 센서(10)와 이미지 신호 프로세서(150)는 서로 다른 반도체 칩으로 구현될 수 있다. 또한, 실시 예에 따라 센서(10)는 컬러 이미지 센서 칩과 함께 사용되어 3차원 이미지 정보와 깊이 정보를 동시에 측정하는데 이용될 수도 있다.According to an embodiment, the sensor 10 and the image signal processor 150 may be implemented as one semiconductor chip, for example, a system on chip (SoC), and the sensor 10 and the image signal processor 150 may be different from each other. It may be implemented as a semiconductor chip. In some embodiments, the sensor 10 may be used together with a color image sensor chip to simultaneously measure 3D image information and depth information.

또한, 센서(10)는 타이밍 컨트롤러(20)의 제어 하에 메모리(24)로부터 출력되는 데이터를 이미지 신호 프로세서(150)로 전송하기 위한 컬럼 디코더(미도시)를 더 포함할 수 있다.In addition, the sensor 10 may further include a column decoder (not shown) for transmitting data output from the memory 24 to the image signal processor 150 under the control of the timing controller 20.

또한, 센서(10)는 반사 광신호(RL')를 적외선 통과 필터(17)로 집광시키기 위한 렌즈(미 도시)를 더 포함할 수 있다. 적외선 통과 필터(17)와 상기 렌즈를 포함하는 렌즈 모듈(미 도시)의 동작은 타이밍 컨트롤러(20)에 의하여 제어될 수 있다.In addition, the sensor 10 may further include a lens (not shown) for condensing the reflected light signal RL ′ with the infrared light passing filter 17. The operation of the infrared filter 17 and the lens module (not shown) including the lens may be controlled by the timing controller 20.

깊이 센서 어레이(14)는 다수의 깊이 픽셀들(16)을 포함할 수 있다. 다수의 깊이 픽셀들(16) 각각은 상기 대상 물체로부터 반사되는 반사 광신호(RL 또는 RL') 및 다수의 게이트 신호들에 기초하여 다수의 프레임 신호들을 발생할 수 있다. 상기 다수의 게이트 신호들은 다수의 깊이 픽셀들(16) 각각에 일정한 위상 차이를 갖고 주기적으로 인가된다.Depth sensor array 14 may include a number of depth pixels 16. Each of the plurality of depth pixels 16 may generate a plurality of frame signals based on a reflected light signal RL or RL 'reflected from the target object and a plurality of gate signals. The plurality of gate signals are periodically applied to each of the plurality of depth pixels 16 with a constant phase difference.

타이밍 컨트롤러(20)는 적외선 광원(12)의 동작과 다수의 깊이 픽셀들(16) 각각의 동작을 제어할 수 있다. 타이밍 컨트롤러(20)의 제어 하에, 적외선 광원(12)은 적외선 광신호(EL)를 외부로 방사(emit)할 수 있다.The timing controller 20 may control the operation of the infrared light source 12 and the operation of each of the plurality of depth pixels 16. Under the control of the timing controller 20, the infrared light source 12 may emit an infrared light signal EL to the outside.

구체적으로, 타이밍 컨트롤러(20)는 다수의 거리 픽셀들(16) 각각에 구현된 다수의 포토게이트들(photogates) 각각의 동작을 제어하기 위한 다수의 게이트 신호들을 생성할 수 있다.In detail, the timing controller 20 may generate a plurality of gate signals for controlling the operation of each of the plurality of photogates implemented in each of the plurality of distance pixels 16.

적외선 광원(12)은 LED(light emitting diode), LD(laser diode) 또는 OLED(organic light emitting diode)로 구현될 수 있다. 센서(10)는 깊이 센서 어레이(14)의 주변에 배치된 다수의 적외선 광원들을 포함할 수 있으나, 도 1에서는 설명의 편의를 위하여 하나의 적외선 광원(12)만이 도시되었다.The infrared light source 12 may be implemented as a light emitting diode (LED), a laser diode (LD), or an organic light emitting diode (OLED). The sensor 10 may include a plurality of infrared light sources disposed around the depth sensor array 14, but only one infrared light source 12 is shown in FIG. 1 for convenience of description.

CDS/ADC 회로(18)는, 타이밍 컨트롤러(20)로부터 출력된 제어 신호들에 응답하여 깊이 픽셀 어레이(14)로부터 출력된 신호들 각각에 대하여 CDS(correlated double sampling)을 수행한다. 또한, CSD/ADC 회로(18)는 CDS된 신호들 각각을 아날로그-디지털 변환(analog to digital converting)하여 디지털 신호들 각각을 출력한다.The CDS / ADC circuit 18 performs correlated double sampling (CDS) on each of the signals output from the depth pixel array 14 in response to the control signals output from the timing controller 20. In addition, the CSD / ADC circuit 18 outputs each of the digital signals by analog-to-digital converting each of the CDS signals.

메모리(24)는 CDS/ADC 회로(18)로부터 출력된 각 디지털 신호를 수신하여 저장할 수 있다. 메모리(24)에 저장된 각 디지털 신호는 컬럼 디코더(미 도시)에 의하여 이미지 신호 프로세서(150)로 출력될 수 있다.The memory 24 may receive and store each digital signal output from the CDS / ADC circuit 18. Each digital signal stored in the memory 24 may be output to the image signal processor 150 by a column decoder (not shown).

도 2는 도 1에 도시된 깊이 픽셀의 단면도, 상기 깊이 픽셀에 포함된 다수의 게이트들의 평면도, 및 상기 깊이 픽셀의 동작을 설명하기 위한 반도체 표면의 포텐셜 분포를 도시한다. 도 2에서는 설명의 편의를 위하여 하나의 깊이 픽셀만이 도시되었다.FIG. 2 illustrates a cross-sectional view of the depth pixel shown in FIG. 1, a plan view of a plurality of gates included in the depth pixel, and a potential distribution of a semiconductor surface for explaining the operation of the depth pixel. In FIG. 2, only one depth pixel is shown for convenience of description.

도 1 및 도 2를 참조하면, 깊이 픽셀(16)은 1-탭 픽셀 구조를 갖는다. 즉, 센서(10)는 다수의 게이트 전극들 중 하나의 게이트 전극에 인접한 플로팅 확산 영역으로 전달된 광전하에 기초하여 깊이 신호를 생성할 수 있다. 즉, 다수의 게이트 전극들이 대칭적인 구조를 갖지 않기 때문에, 깊이 픽셀(16)은 1-탭 픽셀 구조를 갖는다.1 and 2, depth pixel 16 has a one-tap pixel structure. That is, the sensor 10 may generate a depth signal based on the photocharges transferred to the floating diffusion region adjacent to one gate electrode of the plurality of gate electrodes. That is, since the plurality of gate electrodes do not have a symmetrical structure, the depth pixel 16 has a one-tap pixel structure.

깊이 픽셀(16)은 제1포토 게이트(PG1), 제2포토 게이트(PG2), 제1전송 회로(TX1), 제2전송 회로(TX2), 제1브리징 영역(BD1), 제2브리징 영역(BD2), 제1플로팅 확산 영역(FD1), 및 제2플로팅 확산 영역(FD2)을 포함한다.The depth pixel 16 includes a first photo gate PG1, a second photo gate PG2, a first transfer circuit TX1, a second transfer circuit TX2, a first bridging region BD1, and a second bridging region. (BD2), a first floating diffusion region FD1, and a second floating diffusion region FD2.

실시 예에 따라 제1브리징 영역(BD1)과 제2브리징 영역(BD2)은 구현되지 않을 수 있다. 브리징 영역들(BD1과 BD2)은 광전 변환 영역에서 생성된 광전자가 축적되는 영역이다. 브리징 영역들(BD1과 BD2)과 플로팅 확산 영역들(FD1과 FD2)은 반도체 기판(예컨대, P-타입 애피택셜 영역; 16-1) 내부에 형성될 수 있다.According to an embodiment, the first bridging area BD1 and the second bridging area BD2 may not be implemented. The bridging regions BD1 and BD2 are regions in which photoelectrons generated in the photoelectric conversion region are accumulated. The bridging regions BD1 and BD2 and the floating diffusion regions FD1 and FD2 may be formed inside the semiconductor substrate (eg, a P - type epitaxial region 16-1).

제1포토 게이트(PG1)와 제2포토 게이트(PG2) 각각의 하부에 위치하는 반도체 기판(16-1) 내부에서, 제1포토 게이트(PG1)와 제2포토 게이트(PG2) 각각을 통과한 반사 광신호(RL 또는 RL')에 의해 광전자(또는 광전하)가 생성된다. 즉, 상기 광전 변환 영역은 상기 광전자가 생성되는 영역을 의미한다.Inside the semiconductor substrate 16-1 positioned below each of the first and second photo gates PG1 and PG2, each of the first and second photo gates PG1 and PG2 passes through the first and second photo gates PG1 and PG2. Photoelectrons (or photocharges) are generated by the reflected light signal RL or RL '. That is, the photoelectric conversion region means a region where the photoelectron is generated.

포토 게이트들(PG1과 PG2)과 반도체 기판(16-1)의 사이 및 전송 회로들(TX1과 TX2)과 반도체 기판(16-1)의 사이는 절연층으로 절연된다. 반도체 기판(16-1)은 실리콘 기판일 수 있으면, 상기 절연층은 실리콘 산화물(SiO2)일 수 있다. 또한, 포토 게이트들(PG1과 PG2)은 폴리 실리콘 또는 금속으로 구현될 수 있다.The photo gates PG1 and PG2 and the semiconductor substrate 16-1 and between the transfer circuits TX1 and TX2 and the semiconductor substrate 16-1 are insulated with an insulating layer. If the semiconductor substrate 16-1 may be a silicon substrate, the insulating layer may be silicon oxide (SiO 2 ). In addition, the photo gates PG1 and PG2 may be implemented with polysilicon or metal.

제1포토 게이트(PG1)와 제2포토 게이트(PG2) 각각은 타이밍 컨트롤러(20)로부터 출력된 180도의 위상 차를 갖는 두 개의 게이트 신호들 각각에 응답하여 수집(collection) 동작과 전송(transfer) 동작을 제어할 수 있다.Each of the first photo gate PG1 and the second photo gate PG2 has a collection operation and a transfer in response to each of the two gate signals having a 180 degree phase difference output from the timing controller 20. You can control the operation.

여기서, 상기 수집 동작이라 함은 반사 광신호(RL 또는 RL')에 의하여 생성된 광전자가 반도체 기판(16-1)의 표면에 수집되는 동작을 의미하고, 상기 전송 동작이라 함은 수집된 광전자를 전송 회로들(TX1과 TX2) 각각을 이용하여 플로팅 확산 영역들(FD2과 FD2) 각각으로 전송하는 동작을 의미한다.Here, the collecting operation refers to an operation in which photoelectrons generated by the reflected light signal RL or RL 'are collected on the surface of the semiconductor substrate 16-1, and the transmission operation refers to the collected photoelectrons. It means an operation of transmitting to each of the floating diffusion regions FD2 and FD2 by using each of the transmission circuits TX1 and TX2.

제1포토 게이트(PG1)는 중앙 영역에서 제2포토 게이트(PG2)를 향해 돌출된 돌출 패턴(16-3)을 포함한다. 제2포토 게이트(PG2)는 돌출 패턴(16-3)과 이격되고 돌출 패턴(16-3)을 둘러싸는 구조를 갖는다. 이때, 제1포토 게이트(PG1)의 단면적의 크기와 제2포토 게이트(PG2)의 단면적의 크기는 상이하다. 실시 예에 따라 제1포토 게이트(PG1)의 상기 단면적의 상기 크기는 제2포토 게이트(PG2)의 상기 단면적의 상기 크기보다 클 수 있다.The first photo gate PG1 includes a protruding pattern 16-3 protruding toward the second photo gate PG2 in the central region. The second photo gate PG2 has a structure spaced apart from the protruding pattern 16-3 and surrounding the protruding pattern 16-3. At this time, the size of the cross-sectional area of the first photo gate PG1 and the size of the cross-sectional area of the second photo gate PG2 are different. In some embodiments, the size of the cross-sectional area of the first photo gate PG1 may be greater than the size of the cross-sectional area of the second photo gate PG2.

도 2에 도시된 포텐셜 분포는 제1포토 게이트(PG1)에 로우 레벨의 전압, 예컨대 0V가 인가되고, 제2포토 게이트(PG2)에 하이 레벨의 전압, 예컨대 3.3V가 인가될 때의 포텐셜 분포를 도시한다. 이 경우, 상기 광전 변환 영역에서 생성된 광전자(1)는 제2브리징 영역(BD2)으로 이동한다. 이는 제1포토 게이트(PG1)에 인가된 전압과 제2포토 게이트(PG2)에 인가된 전압의 차이에 의한 측면 전계(lateral field; 3)가 형성되기 때문이다. 따라서, 센서(10)의 광전자 분해능을 높이기 위해서는, 측면 전계(3)가 발생하는 범위를 증가시킬 필요가 있다. 결국 본 발명의 실시 예에 따른 센서(10)는, 상기와 같은 제1포토 게이트(PG1) 및 제2포토 게이트(PG2)의 구조를 포함함으로써, 측면 전계(3)가 형성되는 범위를 증가시킬 수 있다.The potential distribution shown in FIG. 2 is a potential distribution when a low level voltage, for example, 0 V is applied to the first photo gate PG1, and a high level voltage, for example, 3.3 V is applied to the second photo gate PG2. Shows. In this case, the optoelectronics 1 generated in the photoelectric conversion region move to the second bridging region BD2. This is because the lateral field 3 is formed by the difference between the voltage applied to the first photo gate PG1 and the voltage applied to the second photo gate PG2. Therefore, in order to increase the photoelectron resolution of the sensor 10, it is necessary to increase the range in which the side electric field 3 is generated. As a result, the sensor 10 according to the embodiment of the present invention includes the structures of the first photo gate PG1 and the second photo gate PG2 as described above, thereby increasing the range in which the side electric field 3 is formed. Can be.

여기서, 상기 광전자 분해능이라 함은, 센서(10)가 생성된 광전자(1)를 이동시키려고 하는 브리징 영역 또는 플로팅 확산 영역으로 이동시킬 수 있는 능력을 의미한다. 또한, 상기 측면 전계라 함은 생성된 광전자(1)가 이동할 수 있도록 경사를 갖는 포텐셜 분포를 의미한다.Here, the photoelectron resolution means the ability of the sensor 10 to move the generated optoelectronics 1 to a bridging region or floating diffusion region to be moved. In addition, the lateral electric field means a potential distribution having a slope so that the generated optoelectronics 1 can move.

도 3은 도 1에 도시된 깊이 픽셀에 구현된 다수의 포토 게이트들과 다수의 트랜지스터들을 포함하는 회로도이다.3 is a circuit diagram including a plurality of photo gates and a plurality of transistors implemented in a depth pixel illustrated in FIG. 1.

도 1 내지 도 3을 참조하면, MOSFET으로 구현될 수 있는 제1전송 회로(TX1)는, 타이밍 컨트롤러(20)로부터 출력된 제1전송 신호(TG1)에 응답하여 반도체 기판(16-1) 내부에 생성된 광전자를 제1플로팅 확산 영역(FD1)으로 전송한다.1 to 3, the first transfer circuit TX1, which may be implemented as a MOSFET, is inside the semiconductor substrate 16-1 in response to the first transfer signal TG1 output from the timing controller 20. The optoelectronic generated in the transfer to the first floating diffusion region (FD1).

또한, MOSFET으로 구현될 수 있는 제2전송 회로(TX2)는, 타이밍 컨트롤러(20)로부터 출력된 제2전송 신호(TG2)에 응답하여, 생성된 광전자를 제2플로팅 확산 영역(FD2)으로 전송한다. 실시 예에 따라, 제1전송 신호(TG1)와 제2전송 신호(TG2)는 동일한 신호일 수 있다.In addition, the second transmission circuit TX2, which may be implemented as a MOSFET, transmits the generated photoelectrons to the second floating diffusion region FD2 in response to the second transmission signal TG2 output from the timing controller 20. do. According to an embodiment, the first transmission signal TG1 and the second transmission signal TG2 may be the same signal.

각각의 리셋 트랜지스터(RX1과 RX2)는 타이밍 컨트롤러(20)로부터 출력된 리셋 신호(RS)에 응답하여 각 플로팅 확산 영역(FD1과 FD2)을 리셋할 수 있다.Each reset transistor RX1 and RX2 may reset each floating diffusion region FD1 and FD2 in response to a reset signal RS output from the timing controller 20.

소스 팔로워 버퍼 증폭기(source follower buffer amplifier) 역할을 수행할 수 있는 각각의 드라이브 트랜지스터(DX1과 DX2)는, 각각의 플로팅 확산 영역(FD1과 FD2)에 충전된 광전자에 의하여 생성된 전압에 응답하여, 공급 전압(VDD)을 버퍼링하는 동작을 수행할 수 있다.Each drive transistor DX1 and DX2, which can serve as a source follower buffer amplifier, responds to the voltage generated by the photoelectrons charged in the respective floating diffusion regions FD1 and FD2. An operation of buffering the supply voltage VDD may be performed.

각각의 선택 트랜지스터(SX1과 SX2)는, 타이밍 컨트롤러(20)로부터 출력된 선택 신호(SEL)에 응답하여, 각각의 드라이브 트랜지스터(DX1과 DX2)에 의하여 버퍼링된 신호를 각각의 컬럼 라인으로 출력할 수 있다.Each of the select transistors SX1 and SX2 may output a signal buffered by each of the drive transistors DX1 and DX2 to each column line in response to the select signal SEL output from the timing controller 20. Can be.

도 4는 도 2에 도시된 제1포토 게이트 및 제2포토 게이트에 인가되는 게이트 신호들을 나타내는 그래프이다.FIG. 4 is a graph illustrating gate signals applied to the first photo gate and the second photo gate shown in FIG. 2.

도 1 내지 도 4를 참조하면, 깊이 픽셀(16)은 180도의 위상 차를 갖는 게이트 신호들(G1a와 G2a)에 응답하여 프레임 신호들을 측정한 후, 180도의 위상 차를 갖는 게이트 신호들(G1b와 G2b)에 응답하여 프레임 신호들을 측정할 수 있다. 마찬가지로 깊이 픽셀(16)은 180도의 위상 차를 갖는 게이트 신호들(G1c와 G2c)에 응답하여 프레임 신호들을 측정한 후, 180도의 위상 차를 갖는 게이트 신호들(G1d와 G2d)에 응답하여 프레임 신호들을 측정할 수 있다. 즉, 제1포토 게이트(PG1)에는 90도의 위상 차이를 갖는 게이트 신호들(G1a 내지 G1d)이 주기적으로 인가되고, 제2포토 게이트(PG2)에는 90도의 위상 차이를 갖는 게이트 신호들(G2a 내지 G2d)이 주기적으로 인가된다. 이때, 제2포토 게이트(PG2)에는 제1포토 게이트(PG1)에 인가되는 게이트 신호들 각각과 180도의 위상 차이를 갖는 게이트 신호들이 주기적으로 인가된다.1 to 4, the depth pixel 16 measures frame signals in response to gate signals G1a and G2a having a phase difference of 180 degrees, and then gate signals G1b having a phase difference of 180 degrees. And frame signals in response to G2b). Similarly, the depth pixel 16 measures frame signals in response to gate signals G1c and G2c having a phase difference of 180 degrees, and then frame signals in response to gate signals G1d and G2d having a phase difference of 180 degrees. Can be measured. That is, gate signals G1a to G1d having a phase difference of 90 degrees are periodically applied to the first photo gate PG1 and gate signals G2a to 90 degree having a phase difference of 90 degrees to the second photo gate PG2. G2d) is applied periodically. In this case, gate signals having a phase difference of 180 degrees with each of the gate signals applied to the first photo gate PG1 are periodically applied to the second photo gate PG2.

이때, 센서(10)는 제1포토 게이트(PG1)에 인접한 플로팅 확산 영역(FD1)으로 전달된 광전자에 기초하여 깊이 신호를 생성할 수 있다. 실시 예에 따라, 센서(10)는 제2포토 게이트(PG2)에 인접한 플로팅 확산 영역(FD2)으로 전달된 광전자에 기초하여 깊이 신호를 생성할 수 있다. 즉, 센서(10)에 포함된 깊이 픽셀(16)은 1-탭 픽셀 구조를 갖는다.In this case, the sensor 10 may generate a depth signal based on the photoelectrons transferred to the floating diffusion region FD1 adjacent to the first photo gate PG1. According to an embodiment, the sensor 10 may generate a depth signal based on the photoelectrons transferred to the floating diffusion region FD2 adjacent to the second photo gate PG2. That is, the depth pixel 16 included in the sensor 10 has a one-tap pixel structure.

도 5는 본 발명의 다른 실시 예에 따른 깊이 픽셀을 포함하는 이미지 센서의 블럭도이다.5 is a block diagram of an image sensor including a depth pixel according to another exemplary embodiment.

도 5에 도시된 이미지 센서(100)는 거리 픽셀을 이용하여 깊이 정보를 측정하는 기능과, 각 컬러 픽셀(예컨대, 레드 컬러 픽셀, 그린 컬러 픽셀, 및 블루 컬러 픽셀)을 이용하여 각 컬러 정보(예컨대, 레드 컬러 정보, 그린 컬러 정보, 및 블루 컬러 정보)를 측정하는 기능을 함께 결합하여 상기 깊이 정보와 함께 상기 각 컬러 정보를 얻을 수 있는 3차원 이미지 센서이다.The image sensor 100 illustrated in FIG. 5 has a function of measuring depth information using distance pixels, and each color information (eg, a red color pixel, a green color pixel, and a blue color pixel). For example, a three-dimensional image sensor capable of combining the functions of measuring red color information, green color information, and blue color information) to obtain each color information together with the depth information.

이미지 센서(100)는 적외선 광원(12), 타이밍 컨트롤러(20), 픽셀 어레이(110), 로우 디코더(22), 컬럼 디코더(124), CDS/ADC 회로(130), 및 이미지 신호 프로세서(150)를 포함한다. 실시 예에 따라, 컬럼 디코더(124)는 CDS/ADC 회로(130)와 이미지 신호 프로세서(150) 사이에 배치될 수도 있다.The image sensor 100 includes an infrared light source 12, a timing controller 20, a pixel array 110, a row decoder 22, a column decoder 124, a CDS / ADC circuit 130, and an image signal processor 150. ). In some embodiments, the column decoder 124 may be disposed between the CDS / ADC circuit 130 and the image signal processor 150.

적외선 광원(12)은, 타이밍 컨트롤러(20)의 제어 하에 적외선 광신호, 즉 변조 적외선 광신호를 생성할 수 있다.The infrared light source 12 may generate an infrared light signal, that is, a modulated infrared light signal under the control of the timing controller 20.

픽셀 어레이(110)는 다수의 픽셀들을 포함한다. 상기 다수의 픽셀들 각각은 레드 픽셀, 그린 픽셀, 블루 픽셀, 깊이 픽셀, 마젠타 픽셀, 사이언 픽셀, 또는 예로우 픽셀 중에서 적어도 두 개의 픽셀들이 혼합되어 배열될 수 있다. 상기 다수의 픽셀들 각각은 다수의 로우 라인들과 다수의 컬럼 라인들의 교차점에 매트릭스 형태로 배열된다.The pixel array 110 includes a plurality of pixels. Each of the plurality of pixels may be arranged by mixing at least two pixels among red pixels, green pixels, blue pixels, depth pixels, magenta pixels, cyan pixels, or yellow pixels. Each of the plurality of pixels is arranged in a matrix form at the intersection of the plurality of row lines and the plurality of column lines.

상기 레드 픽셀은 가시광 영역 중에서 레드 영역에 속하는 파장들에 상응하는 레드 픽셀 신호를 생성하고, 상기 그린 픽셀은 상기 가시광 영역 중에서 그린 영역에 속하는 파장들에 상응하는 그린 픽셀 신호를 생성하고, 상기 블루 픽셀은 상기 가시광 영역 중에서 블루 영역에 속하는 파장들에 상응하는 블루 픽셀 신호를 생성한다. 상기 깊이 픽셀은 적외선 영역에 속하는 파장들에 상응하는 깊이 픽셀 신호를 생성할 수 있다.The red pixel generates a red pixel signal corresponding to wavelengths belonging to the red region of the visible light region, the green pixel generates a green pixel signal corresponding to wavelengths belonging to the green region of the visible light region, and the blue pixel Generates a blue pixel signal corresponding to wavelengths belonging to a blue region of the visible region. The depth pixel may generate a depth pixel signal corresponding to wavelengths belonging to an infrared region.

픽셀 어레이(110)에 구현된 깊이 픽셀의 구조 및 동작은 도 2 내지 도 4를 참조하여 설명한 깊이 픽셀의 구조 및 동작과 실질적으로 동일하다.The structure and operation of the depth pixel implemented in the pixel array 110 are substantially the same as the structure and operation of the depth pixel described with reference to FIGS. 2 to 4.

로우 디코더(22)는 타이밍 컨트롤러(20)로부터 출력된 제어 신호들에 응답하여 픽셀 어레이(110)에 구현된 다수의 로우들 중에서 어느 하나의 로우를 선택할 수 있다. 상기 다수의 로우들 각각에는 다수의 픽셀들이 배열될 수 있다.The row decoder 22 may select any one of a plurality of rows implemented in the pixel array 110 in response to control signals output from the timing controller 20. A plurality of pixels may be arranged in each of the plurality of rows.

컬럼 디코더(124)는 타이밍 컨트롤러(20)로부터 출력된 제어 신호들에 응답하여 픽셀 어레이(110)에 구현된 다수의 컬럼 라인들 중에서 적어도 하나의 컬럼 라인을 선택할 수 있다.The column decoder 124 may select at least one column line among a plurality of column lines implemented in the pixel array 110 in response to control signals output from the timing controller 20.

픽셀 어레이(110)에 구현된 다수의 픽셀들 중에서 어느 하나의 픽셀은 로우 디코더(22)와 컬럼 디코더에 의하여 선택될 수 있다. 따라서, 선택된 어느 하나의 픽셀에 의하여 생성된 신호(예컨대, 깊이 정보 또는 컬러 정보)는 CDS/ADC 회로(130)로 전송될 수 있다. Any one of the plurality of pixels implemented in the pixel array 110 may be selected by the row decoder 22 and the column decoder. Accordingly, a signal (eg, depth information or color information) generated by one selected pixel may be transmitted to the CDS / ADC circuit 130.

CDS/ADC 회로(130)는 픽셀 어레이(110) 또는 컬럼 디코더(124)로부터 출력된 신호(예컨대, 깊이 정보 또는 컬러 정보)를 디지털 신호로 변환한다. 예컨대, CDS/ADC 회로(130)는 픽셀 어레이(110)로부터 출력된 신호(예컨대, 깊이 정보 또는 컬러 정보)에 대하여 CDS 동작을 수행하여 CDS 신호를 생성하고 생성된 CDS 신호에 ADC 동작을 수행하여 디지털 신호를 생성할 수 있다.The CDS / ADC circuit 130 converts a signal (eg, depth information or color information) output from the pixel array 110 or the column decoder 124 into a digital signal. For example, the CDS / ADC circuit 130 generates a CDS signal by performing a CDS operation on a signal (eg, depth information or color information) output from the pixel array 110, and performs an ADC operation on the generated CDS signal. Digital signals can be generated.

이미지 신호 프로세서(150)는 CDS/ADC 회로(130) 또는 컬럼 디코더(124)로부터 출력된 디지털 신호로부터 디지털 픽셀 신호(예컨대, 깊이 정보 또는 컬러 정보)를 검출할 수 있다.The image signal processor 150 may detect a digital pixel signal (eg, depth information or color information) from the digital signal output from the CDS / ADC circuit 130 or the column decoder 124.

도 6은 도 5에 도시된 이미지 센서를 포함하는 데이터 처리 시스템의 블럭도이다.FIG. 6 is a block diagram of a data processing system including the image sensor shown in FIG. 5.

도 6을 참조하면, 데이터 처리 시스템(200)은 이미지 센서(100)와 프로세서(210)를 포함할 수 있다.Referring to FIG. 6, the data processing system 200 may include an image sensor 100 and a processor 210.

프로세서(210)는 이미지 센서(100)의 동작, 예컨대 타이밍 컨트롤러(20)의 동작을 제어할 수 있다. 프로세서(210)는 이미지 센서(100)의 동작을 제어하기 위한 프로그램을 저장할 수 있다. 실시 예에 따라, 프로세서(210)는 이미지 센서(100)의 동작을 제어하기 위한 프로그램이 저장된 메모리(미 도시)를 액세스하여 상기 메모리에 저장된 상기 프로그램을 실행시킬 수 있다.The processor 210 may control an operation of the image sensor 100, for example, an operation of the timing controller 20. The processor 210 may store a program for controlling the operation of the image sensor 100. According to an embodiment, the processor 210 may access a memory (not shown) in which a program for controlling the operation of the image sensor 100 is stored and execute the program stored in the memory.

이미지 센서(100)는 프로세서(210)의 제어 하에 각 디지털 픽셀 신호(예컨대, 컬러 정보 또는 깊이 정보)에 기초하여 3차원 이미지 정보를 생성할 수 있다. 상기 생성된 3차원 이미지 정보는 인터페이스(230)에 접속된 디스플레이(미 도시)를 통하여 디스플레이될 수 있다.The image sensor 100 may generate 3D image information based on each digital pixel signal (eg, color information or depth information) under the control of the processor 210. The generated 3D image information may be displayed through a display (not shown) connected to the interface 230.

이미지 센서(100)에 의하여 생성된 3차원 이미지 정보는 프로세서(210)의 제어 하에 버스(201)를 통하여 메모리 장치(220)에 저장될 수 있다. 메모리 장치(220)는 불휘발성 메모리 장치로 구현될 수 있다.The 3D image information generated by the image sensor 100 may be stored in the memory device 220 through the bus 201 under the control of the processor 210. The memory device 220 may be implemented as a nonvolatile memory device.

인터페이스(230)는 3차원 이미지 정보를 입출력하기 위한 인터페이스로 구현될 수 있다. 실시 예에 따라, 인터페이스(230)는 키보드, 마우스, 또는 터치 패드와 같은 입력 장치로 구현될 수 있고, 디스플레이 또는 프린터와 같은 출력 장치로 구현될 수도 있다.The interface 230 may be implemented as an interface for inputting and outputting 3D image information. According to an embodiment, the interface 230 may be implemented as an input device such as a keyboard, a mouse, or a touch pad, or may be implemented as an output device such as a display or a printer.

도 7은 도 1에 도시된 센서를 포함하는 데이터 처리 시스템의 블럭도이다.FIG. 7 is a block diagram of a data processing system including the sensor shown in FIG. 1.

도 7을 참조하면, 데이터 처리 시스템(300)은 깊이 센서(10), 다수의 컬러 픽셀들을 포함하는 컬러 이미지 센서(310), 및 프로세서(210)를 포함한다.Referring to FIG. 7, the data processing system 300 includes a depth sensor 10, a color image sensor 310 including a plurality of color pixels, and a processor 210.

도 7에는 설명의 편의를 위하여, 물리적으로 서로 분리된 깊이 센서(10)와 컬러 이미지 센서(310)를 도시하나, 깊이 센서(10)와 컬러 이미지 센서(310)는 서로 물리적으로 중복되는 신호 처리 회로들을 포함할 수 있다.In FIG. 7, for convenience of description, the depth sensor 10 and the color image sensor 310 are physically separated from each other, but the depth sensor 10 and the color image sensor 310 are physically overlapped with each other. Circuits may be included.

여기서, 컬러 이미지 센서(310)는 깊이 픽셀을 포함하지 않고, 레드 픽셀, 그린 픽셀, 및 블루 픽셀을 포함하는 픽셀 어레이를 포함하는 이미지 센서를 의미할 수 있다. 따라서, 프로세서(210)는 깊이 센서(10)에 의하여 검출된 깊이 정보와 컬러 이미지 센서(310)에 의하여 검출된 각 컬러 정보(예컨대, 레드 정보, 그린 정보, 블루 정보, 마젠타 정보, 사이언 정보, 또는 옐로우 정보 중에서 적어도 하나에 기초하여 3차원 이미지 정보를 생성하고, 생성된 3차원 이미지 정보를 디스플레이를 통하여 디스플레이할 수 있다.Here, the color image sensor 310 may refer to an image sensor including a pixel array including red pixels, green pixels, and blue pixels, without including depth pixels. Accordingly, the processor 210 may determine the depth information detected by the depth sensor 10 and each color information detected by the color image sensor 310 (eg, red information, green information, blue information, magenta information, cyan information, Alternatively, the 3D image information may be generated based on at least one of the yellow information, and the generated 3D image information may be displayed on the display.

프로세서(210)에 의하여 생성된 3차원 이미지 정보는 버스(301)를 통하여 메모리 장치(220)에 저장될 수 있다.3D image information generated by the processor 210 may be stored in the memory device 220 through the bus 301.

도 6 또는 도 7에 도시된 데이터 처리 시스템(200 또는 300)은 3차원 거리 측정기, 게임 컨트롤러, 깊이 카메라, 또는 제스쳐 감지 장치(gesture sensing apparatus)에 사용될 수 있다.The data processing system 200 or 300 shown in FIG. 6 or 7 may be used in a three-dimensional range finder, game controller, depth camera, or gesture sensing apparatus.

도 8은 도 1에 도시된 센서를 포함하는 데이터 처리 시스템의 다른 실시 예이다.FIG. 8 is another embodiment of a data processing system including the sensor shown in FIG. 1.

도 8을 참조하면, 단순 깊이(또는 거리) 측정 센서로서만 동작할 수 있는 데이터 처리 시스템(400)은 거리 센서(10)와 거리 센서(10)의 동작을 제어하기 위한 프로세서(210)를 포함한다.Referring to FIG. 8, a data processing system 400 that can only operate as a simple depth (or distance) measurement sensor includes a distance sensor 10 and a processor 210 for controlling the operation of the distance sensor 10. do.

프로세서(210)는 깊이 센서(10)로부터 출력된 깊이 정보에 기초하여 데이터 처리 시스템(400)과 파사체(또는 타겟 물체)와의 거리 정보 또는 깊이 정보를 계산할 수 있다. 프로세서(210)에 의하여 측정된 거리 정보 또는 깊이 정보는 버스(401)를 통하여 메모리 장치(220)에 저장될 수 있다.The processor 210 may calculate distance information or depth information between the data processing system 400 and the projectile (or target object) based on the depth information output from the depth sensor 10. Distance information or depth information measured by the processor 210 may be stored in the memory device 220 through the bus 401.

본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

10: 센서
12: 적외선 광원
14: 깊이 센서 어레이
16: 깊이 픽셀
17: 적외선 통과 필터
18: CDS/ADC 회로
20: 타이밍 컨트롤러
22: 로우 디코더
24: 메모리
100: 이미지 센서
110: 픽셀 어레이
124: 컬럼 디코더
130: CDS/ADC 회로
150: 이미지 신호 프로세서
200: 데이터 처리 시스템
10: Sensor
12: infrared light source
14: depth sensor array
16: depth pixel
17: Infrared pass filter
18: CDS / ADC circuit
20: timing controller
22: low decoder
24: memory
100: image sensor
110: pixel array
124: column decoder
130: CDS / ADC circuit
150: image signal processor
200: data processing system

Claims (10)

1-탭 픽셀 구조(1-tab pixel structure)의 깊이 픽셀을 포함하고,
상기 깊이 픽셀은,
광전하를 생성하는 광전 변환 영역;
상기 광전 변환 영역을 포함하는 반도체 기판 상에 구현되는 절연층; 및
각각이 상기 절연층 상에 구현되는 제1포토 게이트와 제2포토 게이트를 포함하고,
상기 제1포토 게이트에는 중앙 영역에서 상기 제2포토 게이트를 향해 돌출된 돌출 패턴이 형성되며,
상기 제2포토 게이트는 상기 돌출 패턴과 이격되고 상기 돌출 패턴을 둘러싸는 구조를 갖고,
상기 제1포토 게이트의 단면적의 크기와 상기 제2포토 게이트의 단면적의 크기는 상이한 센서.
Includes depth pixels of a 1-tab pixel structure,
The depth pixel is,
Photoelectric conversion regions for generating photocharges;
An insulating layer formed on the semiconductor substrate including the photoelectric conversion region; And
Each comprising a first photo gate and a second photo gate implemented on the insulating layer,
A protruding pattern protruding from the central region toward the second photo gate is formed in the first photo gate.
The second photo gate has a structure spaced apart from the protruding pattern and surrounding the protruding pattern,
The size of the cross-sectional area of the first photo gate and the size of the cross-sectional area of the second photo gate are different.
제1항에 있어서,
상기 센서는 상기 제1포토 게이트에 인접한 플로팅 확산 영역(floating diffusion region)으로 전달된 상기 광전하에 기초하여 깊이 신호를 생성하는 센서.
The method of claim 1,
And the sensor generates a depth signal based on the photocharge transferred to a floating diffusion region adjacent to the first photo gate.
제1항에 있어서,
상기 센서는 TOF(time of flight)에 기초하여 대상 물체까지의 깊이를 측정하는 센서.
The method of claim 1,
The sensor measures the depth to the object based on the time of flight (TOF).
제2항에 있어서,
상기 제1포토 게이트에는 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들이 시간차를 두고 인가되는 센서.
The method of claim 2,
And a gate signal having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees is applied to the first photo gate with a time difference.
제2항에 있어서,
상기 제1포토 게이트의 상기 단면적의 상기 크기는 상기 제2포토 게이트의 상기 단면적의 상기 크기보다 큰 센서.
The method of claim 2,
The size of the cross-sectional area of the first photo gate is greater than the size of the cross-sectional area of the second photo gate.
제1항에 기재된 센서; 및
상기 센서의 동작을 제어하기 위한 프로세서를 포함하는 데이터 처리 시스템.
The sensor of claim 1; And
And a processor for controlling the operation of the sensor.
제6항에 있어서, 상기 센서는,
상기 제1포토 게이트에 인접한 플로팅 확산 영역으로 전달된 상기 광전하에 기초하여 깊이 신호를 생성하는 데이터 처리 시스템.
The method of claim 6, wherein the sensor,
And a depth signal based on the photocharges transferred to the floating diffusion region adjacent to the first photo gate.
제7항에 있어서,
상기 제1포토 게이트에는 0도, 90도, 180도, 및 270도의 위상차를 갖는 게이트 신호들이 시간차를 두고 인가되는 데이터 처리 시스템.
The method of claim 7, wherein
And a gate signal having a phase difference of 0 degrees, 90 degrees, 180 degrees, and 270 degrees is applied to the first photo gate with a time difference.
제6항에 있어서,
상기 센서는 TOF(time of flight)에 기초하여 대상 물체까지의 깊이를 측정하는 데이터 처리 시스템.
The method according to claim 6,
The sensor measures a depth to a target object based on a time of flight (TOF).
제6항에 있어서,
상기 데이터 처리 시스템은 3차원 거리 측정기, 게임 컨트롤러, 거리 카메라, 또는 제스쳐 감지 장치인 데이터 처리 시스템.
The method according to claim 6,
The data processing system is a three-dimensional range finder, a game controller, a distance camera, or a gesture sensing device.
KR1020110068052A 2011-07-08 2011-07-08 Sensor and data processing system having the same KR20130006168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110068052A KR20130006168A (en) 2011-07-08 2011-07-08 Sensor and data processing system having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110068052A KR20130006168A (en) 2011-07-08 2011-07-08 Sensor and data processing system having the same

Publications (1)

Publication Number Publication Date
KR20130006168A true KR20130006168A (en) 2013-01-16

Family

ID=47837313

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110068052A KR20130006168A (en) 2011-07-08 2011-07-08 Sensor and data processing system having the same

Country Status (1)

Country Link
KR (1) KR20130006168A (en)

Similar Documents

Publication Publication Date Title
US20210377473A1 (en) Solid-state imaging apparatus, imaging system, and distance measurement method
KR101681198B1 (en) Sensor, method of operating the sensor, and system having the sensor
KR102008233B1 (en) Depth measurement device and method of measuring a distance to an object using the depth estimation device
KR102136850B1 (en) A depth sensor, and a method of operating the same
KR101715141B1 (en) a pixel for depth sensor and a image sensor including the pixel
KR101788032B1 (en) Depth sensor, depth information error compensation method thereof, and signal processing system having the depth sensor
US8748951B2 (en) Solid-state image sensing device
KR101823347B1 (en) Sensor and data processing system having the same
KR20140047271A (en) Depth sensor, image capturing method thereof and image processing system having the depth sensor
KR20110093382A (en) Method for estimating depth information using depth estimation device
KR20120119279A (en) Pixel array and three-dimensional image sensor including the same
US8901498B2 (en) Unit pixels, depth sensors and three-dimensional image sensors including the same
KR20110024242A (en) Method and device for estimating depth information, and signal processing apparatus having the device
KR20130111130A (en) Depth estimation device and method therof
US11531094B2 (en) Method and system to determine distance using time of flight measurement comprising a control circuitry identifying which row of photosensitive image region has the captured image illumination stripe
JP6716902B2 (en) Electronics
US11054522B2 (en) Distance measuring device
US9018573B2 (en) Solid-state image sensing device with a change-over switch
US20200213550A1 (en) Solid-state imaging device and imaging device including the same
KR20130006168A (en) Sensor and data processing system having the same
KR20220005697A (en) Image Sensing Device
US20230258808A1 (en) Imaging element and imaging device
KR20230005605A (en) Depth sensor and image detecting system including the same

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid