KR20130077330A - 3d image sensor and 3d image processing system having the same - Google Patents
3d image sensor and 3d image processing system having the same Download PDFInfo
- Publication number
- KR20130077330A KR20130077330A KR1020110145974A KR20110145974A KR20130077330A KR 20130077330 A KR20130077330 A KR 20130077330A KR 1020110145974 A KR1020110145974 A KR 1020110145974A KR 20110145974 A KR20110145974 A KR 20110145974A KR 20130077330 A KR20130077330 A KR 20130077330A
- Authority
- KR
- South Korea
- Prior art keywords
- region
- shutter
- image processing
- processing system
- pixel
- Prior art date
Links
- 230000000903 blocking effect Effects 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 4
- 239000004973 liquid crystal related substance Substances 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 description 24
- 230000000875 corresponding effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- XLOMVQKBTHCTTD-UHFFFAOYSA-N Zinc monoxide Chemical compound [Zn]=O XLOMVQKBTHCTTD-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 229910052733 gallium Inorganic materials 0.000 description 1
- 229910003437 indium oxide Inorganic materials 0.000 description 1
- PJXISJQVUVHSOJ-UHFFFAOYSA-N indium(iii) oxide Chemical compound [O-2].[O-2].[O-2].[In+3].[In+3] PJXISJQVUVHSOJ-UHFFFAOYSA-N 0.000 description 1
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- YVTHLONGBIQYBO-UHFFFAOYSA-N zinc indium(3+) oxygen(2-) Chemical compound [O--].[Zn++].[In+3] YVTHLONGBIQYBO-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
- G02B5/208—Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B9/00—Exposure-making shutters; Diaphragms
- G03B9/08—Shutters
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Optics & Photonics (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
본 발명의 개념에 따른 실시 예는 3D 이미지 처리 시스템에 관한 것으로, 특히, 컬러 정보뿐만 아니라 거리 정보도 포함하는 3D 이미지를 생성하기 위한 3D 이미지 처리 시스템에 관한 것이다.An embodiment according to the concept of the present invention relates to a 3D image processing system, and more particularly, to a 3D image processing system for generating a 3D image including distance information as well as color information.
센서(sensor)는 대상물의 상태 또는 위치를 검출하고 검출 결과를 전기적인 신호로 변환하여 전달하는 소자이다. 상기 센서의 종류로서는 빛 센서, 온도 센서, 압력 센서, 자기 센서, 또는 3D 이미지 센서 등이 있다.A sensor is a device that detects a state or position of an object and converts the detection result into an electrical signal and transmits the result. Examples of the sensor include a light sensor, a temperature sensor, a pressure sensor, a magnetic sensor, or a 3D image sensor.
상기 3D 이미지 센서는 상기 대상물의 컬러 정보뿐만 아니라 상기 3D 이미지 센서와 상기 대상물 사이의 거리 정보까지 포함하는 3D 이미지를 생성한다. The 3D image sensor generates a 3D image including color information of the object as well as distance information between the 3D image sensor and the object.
상기 3D 이미지 센서의 소스(source)로부터 출력되는 신호는 마이크로파(Micro wave), 광파(Light wave) 또는 초음파(Ultrasonic wave)가 사용될 수 있다.As a signal output from the source of the 3D image sensor, microwave, light wave or ultrasonic wave may be used.
상기 3D 이미지 센서는 TOF(time-Of-flight) 측정 방식을 이용하여 거리 정보를 생성한다. 즉, 상기 3D 이미지 센서는 소스(source)로부터 방사된 펄스 형태의 신호가 타겟 물체(또는, 측정 대상물)에 의해 반사되어 되돌아 올 때까지의 지연 시간을 측정하여 상기 3D 이미지 센서와 상기 대상물까지의 거리 정보(또는, 깊이 정보)를 산출한다.The 3D image sensor generates distance information using a time-of-flight measurement method. That is, the 3D image sensor measures a delay time until a signal in the form of pulses radiated from a source is reflected by a target object (or a measurement object) and returns to the 3D image sensor and the object. The distance information (or depth information) is calculated.
상기 3D 이미지 센서는 상기 거리 정보를 생성하기 위해 적외선 영역의 파장을 이용하며, 상기 컬러 정보를 생성하기 위해 가시광선 영역의 파장을 이용한다.The 3D image sensor uses the wavelength of the infrared region to generate the distance information, and uses the wavelength of the visible region to generate the color information.
따라서 상기 3D 이미지 센서는 상기 3D 이미지를 생성하기 위해 상기 가시광선 영역의 파장뿐만 아니라 상기 적외선 영역의 파장도 수신하여야 한다. Accordingly, the 3D image sensor must receive not only the wavelength of the visible light region but also the wavelength of the infrared region to generate the 3D image.
본 발명이 이루고자 하는 기술적 과제는 컬러 정보와 거리 정보를 포함하는 3D 이미지를 생성하기 위한 3D 이미지 처리 시스템을 제공하는 것이다.An object of the present invention is to provide a 3D image processing system for generating a 3D image including color information and distance information.
본 발명의 실시 예에 따른 3D 이미지 처리 시스템은 적외선 영역의 파장을 통과시키기 위한 제1영역과 상기 적외선 영역의 파장을 차단하기 위한 제2영역을 포함하는 필터, 및 상기 제1영역과 대응되는 제3영역과 상기 제2영역과 대응되는 제4영역을 포함하는 셔터를 포함한다.According to an embodiment of the present invention, a 3D image processing system includes a filter including a first region for passing a wavelength in an infrared region and a second region for blocking a wavelength in the infrared region, and a filter corresponding to the first region. And a shutter including three regions and a fourth region corresponding to the second region.
상기 3D 이미지 처리 시스템은 상기 제3영역과 상기 제4영역이 선택적으로 열리도록 상기 셔터를 제어하는 셔터 컨트롤러를 더 포함한다.The 3D image processing system further includes a shutter controller to control the shutter to selectively open the third region and the fourth region.
상기 셔터 컨트롤러는 상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 상기 제3영역이 열리도록 상기 셔터를 제어한다.The shutter controller controls the shutter to open the third region to generate distance information using the wavelength of the infrared region.
상기 셔터 컨트롤러는 상기 적외선 영역의 파장을 제외하여 컬러 정보를 생성하기 위해 상기 제4영역이 열리도록 상기 셔터를 제어한다.The shutter controller controls the shutter to open the fourth region to generate color information by excluding the wavelength of the infrared region.
상기 셔터는 액정으로 구현된다.The shutter is implemented by liquid crystal.
상기 3D 이미지 처리 시스템은 상기 적외선의 파장들에 상응하는 깊이 픽셀 신호를 생성하기 위한 깊이 픽셀, 가시광선 영역의 파장들에 상응하는 컬러 픽셀 신호를 생성하기 위한 복수의 컬러 픽셀들을 포함하는 픽셀 어레이를 더 포함한다.The 3D image processing system includes a pixel array including a depth pixel for generating a depth pixel signal corresponding to wavelengths of the infrared light and a plurality of color pixels for generating a color pixel signal corresponding to wavelengths of a visible light region. It includes more.
상기 3D 이미지 처리 시스템은 디지털 카메라이다.The 3D image processing system is a digital camera.
본 발명의 실시 예에 따른 3D 이미지 처리 시스템은 컬러 정보와 거리 정보를 포함하는 3D 이미지를 생성할 수 있는 효과가 있다.The 3D image processing system according to an embodiment of the present invention has the effect of generating a 3D image including color information and distance information.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 3D 이미지 처리 시스템의 블록도를 나타낸다.
도 2는 도 1에 도시된 필터의 일 실시 예를 나타낸다.
도 3은 도 1에 도시된 셔터의 일 실시 예를 나타낸다.
도 4는 도 1에 도시된 집적 회로의 블록도를 나타낸다.
도 5는 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 일 실시 예를 나타낸다.
도 6은 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 다른 실시 예를 나타낸다.
도 7은 도 1에 도시된 3D 이미지 처리 시스템의 동작 방법을 나타내는 플로우차트이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to more fully understand the drawings recited in the detailed description of the present invention, a detailed description of each drawing is provided.
1 is a block diagram of a 3D image processing system according to an exemplary embodiment.
FIG. 2 shows an embodiment of the filter shown in FIG. 1.
3 illustrates an embodiment of the shutter illustrated in FIG. 1.
4 illustrates a block diagram of the integrated circuit shown in FIG. 1.
FIG. 5 illustrates an embodiment of a unit pixel array constituting a part of the pixel array illustrated in FIG. 4.
6 illustrates another embodiment of a unit pixel array constituting a part of the pixel array illustrated in FIG. 4.
FIG. 7 is a flowchart illustrating a method of operating the 3D image processing system illustrated in FIG. 1.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are only for the purpose of illustrating embodiments of the inventive concept, But may be embodied in many different forms and is not limited to the embodiments set forth herein.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. It should be understood, however, that it is not intended to limit the embodiments according to the concepts of the present invention to the particular forms disclosed, but includes all modifications, equivalents, or alternatives falling within the spirit and scope of the invention.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are intended to distinguish one element from another, for example, without departing from the scope of the invention in accordance with the concepts of the present invention, the first element may be termed the second element, The second component may also be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "comprises ", or" having ", or the like, specify that there is a stated feature, number, step, operation, , Steps, operations, components, parts, or combinations thereof, as a matter of principle.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings.
도 1은 본 발명의 실시 예에 따른 3D 이미지 처리 시스템의 블록도를 나타낸다.1 is a block diagram of a 3D image processing system according to an exemplary embodiment.
도 1을 참조하면, 3D 이미지 처리 시스템(100)은 3차원 거리 측정기, 게임컨트롤러, 디지털 카메라, 또는 제스쳐 센싱 장치(gesture sensing apparatus)이다.Referring to FIG. 1, the 3D
3D 이미지 처리 시스템(100)은 3D 이미지 센서(10)와 프로세서(110)를 포함할 수 있다.The 3D
3D 이미지 센서(10)는 광원(32), 렌즈(34), 필터(40), 셔터(shutter; 50), 셔터 컨트롤러(51), 및 집적 회로(20)를 포함한다.The
광원(32)은 변조된 광신호(EL)를 타겟 물체(60)로 방사한다. 광원(32)으로서 LED(light emitting diode) 또는 레이저 다이오드(laser diode)가 사용될 수 있다. 변조된 광신호(EL)는 정현파 또는 구형파일 수 있다.The
광원(32)으로부터 출력된 변조된 광신호(EL)는 타겟 물체(60)에서 반사된다.The modulated light signal EL output from the
반사된 광신호(RL1)는 렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된다. The reflected optical signal RL1 is incident to the
집적 회로(20)로 입사된 광신호(RL1)는 적외선 영역의 파장을 가진다.The optical signal RL1 incident to the
3D 이미지 센서(10)는 렌즈(34)의 주변에 원형으로 배열되는 복수의 광원들을 포함하나, 설명의 편의를 위하여 하나의 광원(32)만을 도시한다.The
렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL1)는 집적 회로(20)에 의하여 복조될 수 있다. 즉, 렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL1)에 의해 거리 정보가 생성될 수 있다.The optical signal RL1 incident to the
주변 광(61)으로부터 출력된 광신호(AL)는 타겟 물체(60)에서 반사된다. The optical signal AL output from the
타겟 물체(60)에 의해 반사된 광신호(RL2)는 가시광선 영역의 파장을 가진다.The optical signal RL2 reflected by the target object 60 has a wavelength in the visible light region.
렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL2)는 집적 회로(20)에 의하여 컬러 정보가 생성될 수 있다.The optical signal RL2 incident to the
셔터 컨트롤러(51)는 적외선 영역의 파장을 가지는 광신호(RL1)가 통과되도록 하거나 가시광선 영역의 파장을 가지는 광신호(RL2)가 통과되도록 셔터(50)를 제어한다.The
프로세서(110)는 3D 이미지 센서(10)의 동작을 제어할 수 있다. 예컨대, 프로세서(110)는 3D 이미지 센서(10)의 동작을 제어하기 위한 프로그램이 저장된 메모리(120)를 액세스하여 메모리(120)에 저장된 상기 프로그램을 실행시킬 수 있다.The
3D 이미지 센서(10)는 프로세서(110)의 제어 하에 상기 컬러 정보와 상기 거리 정보에 기초하여 3차원 이미지 정보를 생성할 수 있다. 상기 생성된 3차원 이미지 정보는 인터페이스(130)에 접속된 디스플레이(미도시)를 통하여 디스플레이될 수 있다.The
3D 이미지 센서(10)에 의하여 생성된 3차원 이미지 정보는 프로세서(110)의 제어 하에 버스(101)를 통하여 메모리(120)에 저장될 수 있다. 메모리(120)는 불휘발성 메모리 장치로 구현될 수 있다.The 3D image information generated by the
인터페이스(130)는 3차원 이미지 정보를 입출력하기 위한 인터페이스로 구현될 수 있다. 실시 예에 따라, 인터페이스(130)는 무선 인터페이스로 구현될 수 있다.The
도 2는 도 1에 도시된 필터의 일 실시 예를 나타낸다.FIG. 2 shows an embodiment of the filter shown in FIG. 1.
도 1과 도 2를 참조하면, 필터(40)는 적외선 영역의 파장을 통과시키기 위한 제1영역(40-1)과 상기 적외선 영역의 파장을 차단하기 위한 제2영역(40-2)을 포함한다. 필터(40)는 방사형 또는 격자형으로 구현될 수 있다.1 and 2, the
제1영역(40-1)은 적외선 패스 필터로 구현될 수 있으며, 제2영역(40-2)은 적외선 차단 필터로 구현될 수 있다.The first region 40-1 may be implemented as an infrared pass filter, and the second region 40-2 may be implemented as an infrared cut filter.
실시 예에 따라 필터(40)는 다양한 패턴들로 구현될 수 있다.According to an embodiment, the
도 3은 도 1에 도시된 셔터의 일 실시 예를 나타낸다.3 illustrates an embodiment of the shutter illustrated in FIG. 1.
도 1 내지 도 3을 참조하면, 셔터(50)는 제1영역(40-1)과 대응되는 제3영역(50-1)과 제2영역(40-2)과 대응되는 제4영역(50-2)을 포함한다.1 to 3, the
셔터(50)는 방사형 또는 격자형으로 구현될 수 있다.The
셔터(50)는 정해진 시간 동안 적외선 또는 가시광선이 이미지 센서(10)로 전달되도록 하는 장치이다. The
셔터(50)는 액정으로 구현된다.The
셔터 컨트롤러(51)는 제3영역(50-1)과 제4영역(50-2)이 선택적으로 열리도록 셔터(50)를 제어한다. The
셔터 컨트롤러(51)는 상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 제3영역(50-1)이 열리도록 셔터(50)를 제어한다.The
셔터 컨트롤러(51)가 제3영역(50-1)이 열리도록 제어할 때, 이미지 센서(10)는 상기 적외선 영역의 파장을 이용하여 상기 거리 정보를 생성한다. When the
셔터 컨트롤러(51)는 상기 적외선 영역의 파장을 제외(가시광선 영역의 파장을 이용)하여 컬러 정보를 생성하기 위해 제4영역(50-2)이 열리도록 셔터(50)를 제어한다.The
셔터 컨트롤러(51)가 제4영역(50-2)이 열리도록 제어할 때, 이미지 센서(10)는 상기 가시광선 영역의 파장을 이용하여 상기 컬러 정보를 생성한다. When the
도 4는 도 1에 도시된 집적 회로의 블록도를 나타낸다. 4 illustrates a block diagram of the integrated circuit shown in FIG. 1.
도 1과 도 4를 참조하면, 집적 회로(20)는 적외선 영역의 파장을 이용하여 거리 정보를 생성하고, 가시광선 영역의 파장을 이용하여 컬러 정보를 생성한다.1 and 4, the
집적 회로(20)는 상기 거리 정보를 생성할 수 있는 깊이 픽셀과 상기 컬러 정보를 생성할 수 있는 RGB 컬러 픽셀들을 포함하는 픽셀 어레이(22)를 포함한다.The
픽셀 어레이(22)에 대해서는 도 5 또는 도 6에서 자세히 설명될 것이다.The
상기 깊이 픽셀은 1-탭 깊이 픽셀 또는 2-탭 깊이 픽셀이다.The depth pixel is a 1-tap depth pixel or a 2-tap depth pixel.
로우 디코더(row decoder; 24)는 타이밍 컨트롤러(26)로부터 출력된 로우 어드레스(row address)에 응답하여 복수의 로우들 중에서 어느 하나의 로우를 선택한다. 여기서, 로우(row)란 어레이(22)에서 X-방향으로 배치된 복수의 1-탭 깊이 픽셀들의 집합을 의미한다.The
포토 게이트 컨트롤러(28)는 타이밍 컨트롤러(26)의 제어하에 복수의 포토 게이트 컨트롤 신호들(Ga, Gb, Gc 및 Gd)을 생성하여 어레이(22)로 공급할 수 있다. The
각 포토 게이트 컨트롤 신호(Ga, Gb, Gc, 및 Gd)는 구형파이다.Each photo gate control signal Ga, Gb, Gc, and Gd is a square wave.
제1포트 게이트 컨트롤 신호(Ga)의 위상과 제3포트 게이트 컨트롤 신호(Gc)의 위상과의 차는 90°이고, 제1포트 게이트 컨트롤 신호(Ga)의 위상과 제2포토 게이트 컨트롤 신호(Gb)의 위상과의 차는 180°이고, 제1포트 게이트 컨트롤 신호(Ga)의 위상과 제4포토 게이트 컨트롤 신호(Gd)의 위상과의 차는 270°이다.The difference between the phase of the first port gate control signal Ga and the phase of the third port gate control signal Gc is 90 °, and the phase of the first port gate control signal Ga and the second photo gate control signal Gb. ) Is 180 °, and the difference between the phase of the first port gate control signal Ga and the phase of the fourth photo gate control signal Gd is 270 °.
광원 드라이버(30)는, 타이밍 컨트롤러(26)의 제어 하에, 광원(32)을 드라이빙(driving)할 수 있는 클락 신호를 생성할 수 있다.The
광원 드라이버(30)는 클락 신호(MLS) 또는 클락 신호(MLS)에 대한 정보를 포토 게이트 컨트롤러(28)로 공급한다. 따라서, 포토 게이트 컨트롤러(28)는 타이밍 컨트롤러(26)의 제어하에 변조된 광신호(EL)의 위상과 동일한 위상을 갖는 제1포트 게이트 컨트롤 신호(Ga)와, 변조된 광신호(EL)의 위상과 180°의 위상 차를 갖는 제2포트 게이트 컨트롤 신호(Gb)를 생성한다. 또한, 포토 게이트 컨트롤러(28)는 변조된 광신호(EL)의 위상과 90°의 위상 차를 갖는 제3포트 게이트 컨트롤 신호(Gc)와, 270°의 위상 차를 갖는 제4포트 게이트 컨트롤 신호(Gd)를 생성한다.The
포토 게이트 컨트롤러(28)는, 타이밍 컨트롤러(26)의 제어하에, 순차적으로 제1포토 게이트 컨트롤 신호(Ga), 제2포토 게이트 컨트롤 신호(Gb), 제3포토 게이트 컨트롤 신호(Gc), 및 제4포토 게이트 컨트롤 신호(Gd)를 어레이(22)로 공급할 수 있다.The
실시 예에 따라, 상기 깊이 픽셀이 2-탭 깊이 픽셀일 때, 포토 게이트 컨트롤러(28)는, 타이밍 컨트롤러(26)의 제어하에, 제1포토 게이트 컨트롤 신호(Ga)와 제3포토 게이트 컨트롤 신호(Gc)를 동시에 어레이(22)로 공급하고, 제2포토 게이트 컨트롤 신호(Gb)와 제4포토 게이트 컨트롤 신호(Gd)를 동시에 어레이(22)로 공급할 수 있다.According to an embodiment, when the depth pixel is a 2-tap depth pixel, the
예컨대, 포토 게이트 컨트롤러(28)와 광원 드라이버(30)는 서로 동기 되어 동작할 수 있다.For example, the
포토 게이트(110)는 투명 폴리 실리콘(poly silicon)으로 구현될 수 있다. 실시 예에 따라, 포토 게이트(110)는 ITO(Indium tin oxide, 또는 tin-doped indium oxide), IZO(Indium Zinc Oxide), 또는 ZnO(Zinc Oxide) 등으로 구현될 수 있다.The
상기 깊이 픽셀은 입사된 광신호의 광 전자들(또는 광 전하)을 일정시간, 예컨대 적분 시간 (integration time)동안 축적하고, 축적 결과에 따라 생성된 픽셀 신호들(A0', A1', A2', 및 A3')을 출력한다. 상기 깊이 픽셀에 의하여 생성된 각 픽셀 신호(Ak')는 수학식 1과 같이 나타낼 수 있다.The depth pixel accumulates photo electrons (or photo charges) of the incident optical signal for a predetermined time, for example, integration time, and generates pixel signals A0 ', A1', and A2 'according to the accumulation result. , And A3 '). Each pixel signal Ak 'generated by the depth pixel may be represented by Equation 1 below.
[수학식 1][Equation 1]
여기서, 상기 깊이 픽셀의 포토 게이트(110)로 입력되는 신호가 제1포토 게이트 컨트롤 신호(Ga)일 때, k는 0이고, 제3포토 게이트 컨트롤 신호(Gc)일 때, k는 1이고, 제2포토 게이트 컨트롤 신호(Gb)일 때 k는 2이고, 게이트 신호(Gd)의 위상 차가 270도일 때 k는 3이다.Here, k is 0 when the signal input to the
ak , n은 k에 해당하는 위상(phase) 차로 n(n은 자연수)번째 게이트 신호를 인가했을 때, 상기 깊이 픽셀에서 검출된 광전자들(또는 광 전하)의 수를 나타내고, N=fm*Tint이다. 여기서, fm은 변조된 광신호(EL)의 주파수를 나타내고, Tint는 적분 시간을 나타낸다. a k and n represent the number of photoelectrons (or photocharges) detected at the depth pixel when the n (n is a natural number) gate signal is applied with a phase difference corresponding to k, and N = fm * Tint. Here, fm represents the frequency of the modulated optical signal EL, and Tint represents the integration time.
타이밍 컨트롤러(26)의 제어 하에, CDS/ADC 회로(36)는 상기 깊이 픽셀로부터 검출된 각 픽셀 신호(A0', A1', A2', 및 A3')에 대해 CDS(correlated double sampling) 동작과 ADC(analog to digital converting) 동작을 수행하여 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)를 출력한다. Under the control of the
집적 회로(20)는 픽셀 어레이(22)에 구현된 다수의 컬럼 라인들로부터 출력된 픽셀 신호들을 CDS/ADC 회로(36)로 전송하기 위한 액티브 로드 회로들(미도시)을 더 포함할 수 있다.The
메모리(38)는 CDS/ADC 회로(36)로부터 출력된 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)를 수신하여 저장한다.The
이하, 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)는 설명의 편의상 각 픽셀 신호로 호칭한다.Hereinafter, each of the digital pixel signals A0, A1, A2, and A3 is referred to as each pixel signal for convenience of description.
마이크로 프로세서(39)는 복수의 픽셀 신호들(A0, A1, A2, 및 A3)을 이용하여 타겟 물체(40)까지의 거리 정보를 계산한다.The
예컨대, 변조된 광신호(EL)가 A(1+cosωt)/2이고, 3D 이미지 센서(10)로 입사된 광신호(RL1) 또는 3D 이미지 센서(10)에 의하여 검출된 광신호(RL1)가 A0=A'(1+cos(ωt+θ))+B, A1=A'(1+sin(ωt+θ))+B, A2=A'(1-cos(ωt+θ))+B, A3=A'(1-sin(ωt+θ))+B일 때, TOF에 의한 위상 쉬프트(phase shift; θ)는 수학식 2와 같다.For example, the modulated optical signal EL is A (1 + cosωt) / 2 and the optical signal RL1 incident on the
[수학식 2]&Quot; (2) "
θ=arctan((A3-A1)/(A2-A0))θ = arctan ((A3-A1) / (A2-A0))
따라서, 광원(32)으로부터 출력된 변조된 광신호(EL)는 타겟 물체(60)에서 반사되고, 3D 이미지 처리 시스템(100)과 타겟 물체(60) 사이의 거리 정보는 수학식 3과 같이 계산된다.Accordingly, the modulated light signal EL output from the
[수학식 3]&Quot; (3) "
Z=θ*C/(2*ω)=θ*C/(2*(2πf))Z = θ * C / (2 * ω) = θ * C / (2 * (2πf))
여기서, C는 광속을 나타낸다.Here, C represents the luminous flux.
실시 예에 따라, 마이크로 프로세서(39) 대신에 프로세서(110)가 복수의 픽셀 신호들(A0, A1, A2, 및 A3)을 이용하여 타겟 물체(40)까지의 거리 정보를 계산할 수 있다.According to an embodiment, the
또 다른 실시 예에 따라, 마이크로 프로세서(39)와 프로세서(110)는 하나의 프로세서로 구현될 수 있다.According to another embodiment, the
도 5는 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 일 실시 예를 나타낸다.FIG. 5 illustrates an embodiment of a unit pixel array constituting a part of the pixel array illustrated in FIG. 4.
도 5를 참조하면, 도 4의 픽셀 어레이(22)의 일부를 구성하는 단위 픽셀 어레이 (522-1)는 레드 픽셀(R), 그린 픽셀(G), 블루 픽셀(B), 및 깊이 픽셀(D)을 포함할 수 있다. 레드 픽셀(R), 그린 픽셀(G), 및 블루 픽셀(B)은 RGB 컬러 픽셀들이라고 불릴 수 있다.Referring to FIG. 5, the unit pixel array 522-1 constituting a part of the
레드 픽셀(R)은 가시광 영역 중에서 레드 영역에 속하는 파장들에 상응하는 레드 픽셀 신호를 생성하고, 그린 픽셀(G)은 상기 가시광 영역 중에서 그린 영역에 속하는 파장들에 상응하는 그린 픽셀 신호를 생성하고, 블루 픽셀(B)은 상기 가시광 영역 중에서 블루 영역에 속하는 파장들에 상응하는 블루 픽셀 신호를 생성한다. 깊이 픽셀(D)은 적외선 영역에 속하는 파장들에 상응하는 깊이 픽셀 신호를 생성한다.The red pixel R generates a red pixel signal corresponding to the wavelengths belonging to the red region of the visible region, and the green pixel G generates the green pixel signal corresponding to the wavelengths belonging to the green region of the visible region. The blue pixel B generates a blue pixel signal corresponding to wavelengths belonging to a blue region of the visible light region. The depth pixel D generates a depth pixel signal corresponding to the wavelengths belonging to the infrared region.
도 6은 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 다른 실시 예를 나타낸다. 도 6을 참조하면, 도 4의 픽셀 어레이(22)의 일부를 구성하는 단위 픽셀 어레이 (22-2)는 레드 픽셀(R), 그린 픽셀(G), 블루 픽셀(B), 및 두 개의 깊이 픽셀들(D)을 포함할 수 있다.6 illustrates another embodiment of a unit pixel array constituting a part of the pixel array illustrated in FIG. 4. Referring to FIG. 6, the unit pixel array 22-2 constituting a part of the
도 5와 도 6에 도시된 단위 픽셀 어레이(22-1과 22-2)는 설명의 편의를 위하여 예시적으로 도시한 것으로서 단위 픽셀 어레이의 패턴과 상기 패턴을 구성하는 픽셀들은 실시 예에 따라 다양한 변형이 가능하다. 예컨대, 도 5와 도 6에 도시된 각 픽셀(R, G, 및 B)은 마젠타 픽셀, 사이언 픽셀, 및 엘로우 픽셀로 대체될 수 있다.The unit pixel arrays 22-1 and 22-2 illustrated in FIGS. 5 and 6 are exemplarily illustrated for convenience of description, and the pattern of the unit pixel array and the pixels constituting the pattern may vary. Modifications are possible. For example, each pixel R, G, and B shown in FIGS. 5 and 6 may be replaced with a magenta pixel, cyan pixel, and yellow pixel.
도 7은 도 1에 도시된 3D 이미지 처리 시스템의 동작 방법을 나타내는 플로우차트이다.FIG. 7 is a flowchart illustrating a method of operating the 3D image processing system illustrated in FIG. 1.
도 1 내지 도 7을 참조하면, 3D 이미지 센서(10)는 적외선 영역의 파장을 가지는 광신호(RL1)를 수신한다(S10).1 to 7, the
이 때, 필터(40)의 제1영역(40-1)은 상기 적외선 영역의 파장을 가지는 광신호(RL1)를 통과시킨다. 셔터 컨트롤러(51)는 셔터(50)의 제3영역(50-1)이 열리도록 셔터(50)를 제어한다.At this time, the first region 40-1 of the
상기 적외선 영역의 파장을 가지는 광신호(RL1)를 이용하여 3D 이미지 센서(10)는 거리 정보를 생성한다(S20).The
3D 이미지 센서(10)는 가시광선 영역의 파장을 가지는 광신호(RL2)를 수신한다(S30).The
이 때, 필터(40)의 제2영역(40-2)은 상기 가시광선 영역의 파장을 가지는 광신호(RL2)를 통과시킨다. 셔터 컨트롤러(51)는 셔터(50)의 제4영역(50-2)이 열리도록 셔터(50)를 제어한다.At this time, the second region 40-2 of the
상기 가시외선 영역의 파장을 가지는 광신호(RL2)를 이용하여 3D 이미지 센서(10)는 컬러 정보를 생성한다(S40).The
프로세서(110)는 상기 거리 정보와 상기 컬러 정보를 이용하여 3D 이미지를 생성한다(S50).The
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
10; 3D 이미지 센서
20; 집적 회로
32; 광원
34; 렌즈
40; 필터
40-1; 제1영역
40-2; 제2영역
50; 셔터
50-1; 제3영역
50-2; 제4영역
51; 셔터 컨트롤러
100; 3D 이미지 처리 시스템
110; 프로세서10; 3D image sensor
20; integrated circuit
32; Light source
34; lens
40; filter
40-1; First area
40-2; Second area
50; shutter
50-1; Third area
50-2; Fourth area
51; Shutter controller
100; 3D image processing system
110; Processor
Claims (7)
상기 제1영역과 대응되는 제3영역과 상기 제2영역과 대응되는 제4영역을 포함하는 셔터를 포함하는 3D 이미지 처리 시스템.A filter comprising a first region for passing the wavelength in the infrared region and a second region for blocking the wavelength in the infrared region; And
And a shutter including a third region corresponding to the first region and a fourth region corresponding to the second region.
상기 제3영역과 상기 제4영역이 선택적으로 열리도록 상기 셔터를 제어하는 셔터 컨트롤러를 더 포함하는 3D 이미지 처리 시스템.The system of claim 1, wherein the 3D image processing system comprises:
And a shutter controller to control the shutter to selectively open the third region and the fourth region.
상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 상기 제3영역이 열리도록 상기 셔터를 제어하는 3D 이미지 처리 시스템.The method of claim 2, wherein the shutter controller,
And control the shutter to open the third region to generate distance information using the wavelength of the infrared region.
상기 적외선 영역의 파장을 제외하여 컬러 정보를 생성하기 위해 상기 제4영역이 열리도록 상기 셔터를 제어하는 3D 이미지 처리 시스템.The method of claim 2, wherein the shutter controller,
And control the shutter to open the fourth region to generate color information excluding the wavelength of the infrared region.
상기 적외선의 파장들에 상응하는 깊이 픽셀 신호를 생성하기 위한 깊이 픽셀, 가시광선 영역의 파장들에 상응하는 컬러 픽셀 신호를 생성하기 위한 복수의 컬러 픽셀들을 포함하는 픽셀 어레이를 더 포함하는 3D 이미지 처리 시스템. The system of claim 1, wherein the 3D image processing system comprises:
3D image processing further comprising a pixel array comprising a depth pixel for generating a depth pixel signal corresponding to the wavelengths of the infrared light, and a plurality of color pixels for generating a color pixel signal corresponding to wavelengths of a visible light region system.
디지털 카메라인 3D 이미지 처리 시스템.The system of claim 1, wherein the 3D image processing system comprises:
3D image processing system that is a digital camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110145974A KR20130077330A (en) | 2011-12-29 | 2011-12-29 | 3d image sensor and 3d image processing system having the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110145974A KR20130077330A (en) | 2011-12-29 | 2011-12-29 | 3d image sensor and 3d image processing system having the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130077330A true KR20130077330A (en) | 2013-07-09 |
Family
ID=48990605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110145974A KR20130077330A (en) | 2011-12-29 | 2011-12-29 | 3d image sensor and 3d image processing system having the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130077330A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9769456B2 (en) | 2014-11-13 | 2017-09-19 | Samsung Electronics Co., Ltd. | Camera for measuring depth image and method of measuring depth image |
-
2011
- 2011-12-29 KR KR1020110145974A patent/KR20130077330A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9769456B2 (en) | 2014-11-13 | 2017-09-19 | Samsung Electronics Co., Ltd. | Camera for measuring depth image and method of measuring depth image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11598857B2 (en) | Integrated lidar image-sensor devices and systems and related methods of operation | |
CN108291969B (en) | Imaging sensor with shared pixel readout circuitry | |
US10237534B2 (en) | Imaging device and a method for producing a three-dimensional image of an object | |
KR101977711B1 (en) | Depth sensor, image capturing method thereof and image processing system having the depth sensor | |
US10802144B2 (en) | Method and device of measuring the distance to an object | |
KR20120108383A (en) | Depth sensor, depth information error compensation method thereof, and signal processing system having the depth sensor | |
KR101711061B1 (en) | Method for estimating depth information using depth estimation device | |
KR101887988B1 (en) | Image sensor chip, operation method thereof, and system having the same | |
EP2451150B1 (en) | Color sensor insensitive to distance variations | |
KR20120079646A (en) | Depth sensor, defect correction method thereof, and signal processing system having the depth sensor | |
CN102538955B (en) | Radiation sensor | |
KR101739880B1 (en) | Color filter array, image sensor having the same, and image processing system having the same | |
KR20160032014A (en) | A method for driving a time-of-flight system | |
US20120134598A1 (en) | Depth Sensor, Method Of Reducing Noise In The Same, And Signal Processing System Including The Same | |
US20200386540A1 (en) | Mixed active depth | |
US20150312556A1 (en) | Rgb-ir sensor, and method and apparatus for obtaining 3d image by using same | |
KR101888564B1 (en) | Depth sensor, method of calculating depth in the same | |
KR20110024242A (en) | Method and device for estimating depth information, and signal processing apparatus having the device | |
JP5744511B2 (en) | Sensor, method of operating the same, and data processing system including the sensor | |
US9986184B2 (en) | Image sensor including phase difference detection pixels having auto focus accuracy based on phase difference, and image pick-up apparatus including the same | |
JP6765235B2 (en) | Optical sensor and its correction method | |
JP6716902B2 (en) | Electronics | |
KR20120100232A (en) | Microlens, depth sensor having the microlens and method for fabricating the microlens | |
CN112823291A (en) | Time-of-flight RGB-IR image sensor | |
TW202127635A (en) | Time of flight sensing system and image sensor used therein |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |