KR20130077330A - 3d image sensor and 3d image processing system having the same - Google Patents

3d image sensor and 3d image processing system having the same Download PDF

Info

Publication number
KR20130077330A
KR20130077330A KR1020110145974A KR20110145974A KR20130077330A KR 20130077330 A KR20130077330 A KR 20130077330A KR 1020110145974 A KR1020110145974 A KR 1020110145974A KR 20110145974 A KR20110145974 A KR 20110145974A KR 20130077330 A KR20130077330 A KR 20130077330A
Authority
KR
South Korea
Prior art keywords
region
shutter
image processing
processing system
pixel
Prior art date
Application number
KR1020110145974A
Other languages
Korean (ko)
Inventor
일리아 오브세아니코프
민동기
진영구
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110145974A priority Critical patent/KR20130077330A/en
Publication of KR20130077330A publication Critical patent/KR20130077330A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B9/00Exposure-making shutters; Diaphragms
    • G03B9/08Shutters

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE: A 3D image processing system is provided to produce color information and distance information by using wavelengths of infrared area and visible light area by controlling selective opening of a third region and a fourth region in a shutter controller. CONSTITUTION: A filter (40) comprises a first region for passing wavelengths of infrared area and a second region for blocking wavelengths of the infrared area. A shutter (50) comprises a third region corresponding to the first area and a forth region corresponding to the second region. An image sensor (10) produces distance information by using the wavelengths of the infrared area when a shutter controller (51) opens the third region. The image sensor produces color information by using visible light area when the shutter controller opens the forth region.

Description

3D 이미지 처리 시스템{3D image sensor and 3D image processing system having the same}3D image sensor and 3D image processing system having the same}

본 발명의 개념에 따른 실시 예는 3D 이미지 처리 시스템에 관한 것으로, 특히, 컬러 정보뿐만 아니라 거리 정보도 포함하는 3D 이미지를 생성하기 위한 3D 이미지 처리 시스템에 관한 것이다.An embodiment according to the concept of the present invention relates to a 3D image processing system, and more particularly, to a 3D image processing system for generating a 3D image including distance information as well as color information.

센서(sensor)는 대상물의 상태 또는 위치를 검출하고 검출 결과를 전기적인 신호로 변환하여 전달하는 소자이다. 상기 센서의 종류로서는 빛 센서, 온도 센서, 압력 센서, 자기 센서, 또는 3D 이미지 센서 등이 있다.A sensor is a device that detects a state or position of an object and converts the detection result into an electrical signal and transmits the result. Examples of the sensor include a light sensor, a temperature sensor, a pressure sensor, a magnetic sensor, or a 3D image sensor.

상기 3D 이미지 센서는 상기 대상물의 컬러 정보뿐만 아니라 상기 3D 이미지 센서와 상기 대상물 사이의 거리 정보까지 포함하는 3D 이미지를 생성한다. The 3D image sensor generates a 3D image including color information of the object as well as distance information between the 3D image sensor and the object.

상기 3D 이미지 센서의 소스(source)로부터 출력되는 신호는 마이크로파(Micro wave), 광파(Light wave) 또는 초음파(Ultrasonic wave)가 사용될 수 있다.As a signal output from the source of the 3D image sensor, microwave, light wave or ultrasonic wave may be used.

상기 3D 이미지 센서는 TOF(time-Of-flight) 측정 방식을 이용하여 거리 정보를 생성한다. 즉, 상기 3D 이미지 센서는 소스(source)로부터 방사된 펄스 형태의 신호가 타겟 물체(또는, 측정 대상물)에 의해 반사되어 되돌아 올 때까지의 지연 시간을 측정하여 상기 3D 이미지 센서와 상기 대상물까지의 거리 정보(또는, 깊이 정보)를 산출한다.The 3D image sensor generates distance information using a time-of-flight measurement method. That is, the 3D image sensor measures a delay time until a signal in the form of pulses radiated from a source is reflected by a target object (or a measurement object) and returns to the 3D image sensor and the object. The distance information (or depth information) is calculated.

상기 3D 이미지 센서는 상기 거리 정보를 생성하기 위해 적외선 영역의 파장을 이용하며, 상기 컬러 정보를 생성하기 위해 가시광선 영역의 파장을 이용한다.The 3D image sensor uses the wavelength of the infrared region to generate the distance information, and uses the wavelength of the visible region to generate the color information.

따라서 상기 3D 이미지 센서는 상기 3D 이미지를 생성하기 위해 상기 가시광선 영역의 파장뿐만 아니라 상기 적외선 영역의 파장도 수신하여야 한다. Accordingly, the 3D image sensor must receive not only the wavelength of the visible light region but also the wavelength of the infrared region to generate the 3D image.

본 발명이 이루고자 하는 기술적 과제는 컬러 정보와 거리 정보를 포함하는 3D 이미지를 생성하기 위한 3D 이미지 처리 시스템을 제공하는 것이다.An object of the present invention is to provide a 3D image processing system for generating a 3D image including color information and distance information.

본 발명의 실시 예에 따른 3D 이미지 처리 시스템은 적외선 영역의 파장을 통과시키기 위한 제1영역과 상기 적외선 영역의 파장을 차단하기 위한 제2영역을 포함하는 필터, 및 상기 제1영역과 대응되는 제3영역과 상기 제2영역과 대응되는 제4영역을 포함하는 셔터를 포함한다.According to an embodiment of the present invention, a 3D image processing system includes a filter including a first region for passing a wavelength in an infrared region and a second region for blocking a wavelength in the infrared region, and a filter corresponding to the first region. And a shutter including three regions and a fourth region corresponding to the second region.

상기 3D 이미지 처리 시스템은 상기 제3영역과 상기 제4영역이 선택적으로 열리도록 상기 셔터를 제어하는 셔터 컨트롤러를 더 포함한다.The 3D image processing system further includes a shutter controller to control the shutter to selectively open the third region and the fourth region.

상기 셔터 컨트롤러는 상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 상기 제3영역이 열리도록 상기 셔터를 제어한다.The shutter controller controls the shutter to open the third region to generate distance information using the wavelength of the infrared region.

상기 셔터 컨트롤러는 상기 적외선 영역의 파장을 제외하여 컬러 정보를 생성하기 위해 상기 제4영역이 열리도록 상기 셔터를 제어한다.The shutter controller controls the shutter to open the fourth region to generate color information by excluding the wavelength of the infrared region.

상기 셔터는 액정으로 구현된다.The shutter is implemented by liquid crystal.

상기 3D 이미지 처리 시스템은 상기 적외선의 파장들에 상응하는 깊이 픽셀 신호를 생성하기 위한 깊이 픽셀, 가시광선 영역의 파장들에 상응하는 컬러 픽셀 신호를 생성하기 위한 복수의 컬러 픽셀들을 포함하는 픽셀 어레이를 더 포함한다.The 3D image processing system includes a pixel array including a depth pixel for generating a depth pixel signal corresponding to wavelengths of the infrared light and a plurality of color pixels for generating a color pixel signal corresponding to wavelengths of a visible light region. It includes more.

상기 3D 이미지 처리 시스템은 디지털 카메라이다.The 3D image processing system is a digital camera.

본 발명의 실시 예에 따른 3D 이미지 처리 시스템은 컬러 정보와 거리 정보를 포함하는 3D 이미지를 생성할 수 있는 효과가 있다.The 3D image processing system according to an embodiment of the present invention has the effect of generating a 3D image including color information and distance information.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 3D 이미지 처리 시스템의 블록도를 나타낸다.
도 2는 도 1에 도시된 필터의 일 실시 예를 나타낸다.
도 3은 도 1에 도시된 셔터의 일 실시 예를 나타낸다.
도 4는 도 1에 도시된 집적 회로의 블록도를 나타낸다.
도 5는 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 일 실시 예를 나타낸다.
도 6은 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 다른 실시 예를 나타낸다.
도 7은 도 1에 도시된 3D 이미지 처리 시스템의 동작 방법을 나타내는 플로우차트이다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to more fully understand the drawings recited in the detailed description of the present invention, a detailed description of each drawing is provided.
1 is a block diagram of a 3D image processing system according to an exemplary embodiment.
FIG. 2 shows an embodiment of the filter shown in FIG. 1.
3 illustrates an embodiment of the shutter illustrated in FIG. 1.
4 illustrates a block diagram of the integrated circuit shown in FIG. 1.
FIG. 5 illustrates an embodiment of a unit pixel array constituting a part of the pixel array illustrated in FIG. 4.
6 illustrates another embodiment of a unit pixel array constituting a part of the pixel array illustrated in FIG. 4.
FIG. 7 is a flowchart illustrating a method of operating the 3D image processing system illustrated in FIG. 1.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are only for the purpose of illustrating embodiments of the inventive concept, But may be embodied in many different forms and is not limited to the embodiments set forth herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. It should be understood, however, that it is not intended to limit the embodiments according to the concepts of the present invention to the particular forms disclosed, but includes all modifications, equivalents, or alternatives falling within the spirit and scope of the invention.

제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are intended to distinguish one element from another, for example, without departing from the scope of the invention in accordance with the concepts of the present invention, the first element may be termed the second element, The second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "comprises ", or" having ", or the like, specify that there is a stated feature, number, step, operation, , Steps, operations, components, parts, or combinations thereof, as a matter of principle.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 3D 이미지 처리 시스템의 블록도를 나타낸다.1 is a block diagram of a 3D image processing system according to an exemplary embodiment.

도 1을 참조하면, 3D 이미지 처리 시스템(100)은 3차원 거리 측정기, 게임컨트롤러, 디지털 카메라, 또는 제스쳐 센싱 장치(gesture sensing apparatus)이다.Referring to FIG. 1, the 3D image processing system 100 may be a 3D range finder, a game controller, a digital camera, or a gesture sensing apparatus.

3D 이미지 처리 시스템(100)은 3D 이미지 센서(10)와 프로세서(110)를 포함할 수 있다.The 3D image processing system 100 may include a 3D image sensor 10 and a processor 110.

3D 이미지 센서(10)는 광원(32), 렌즈(34), 필터(40), 셔터(shutter; 50), 셔터 컨트롤러(51), 및 집적 회로(20)를 포함한다.The 3D image sensor 10 includes a light source 32, a lens 34, a filter 40, a shutter 50, a shutter controller 51, and an integrated circuit 20.

광원(32)은 변조된 광신호(EL)를 타겟 물체(60)로 방사한다. 광원(32)으로서 LED(light emitting diode) 또는 레이저 다이오드(laser diode)가 사용될 수 있다. 변조된 광신호(EL)는 정현파 또는 구형파일 수 있다.The light source 32 emits the modulated light signal EL to the target object 60. As the light source 32, a light emitting diode (LED) or a laser diode may be used. The modulated optical signal EL may be a sine wave or a square file.

광원(32)으로부터 출력된 변조된 광신호(EL)는 타겟 물체(60)에서 반사된다.The modulated light signal EL output from the light source 32 is reflected at the target object 60.

반사된 광신호(RL1)는 렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된다. The reflected optical signal RL1 is incident to the integrated circuit 20 through the lens 34, the filter 40, and the shutter 50.

집적 회로(20)로 입사된 광신호(RL1)는 적외선 영역의 파장을 가진다.The optical signal RL1 incident to the integrated circuit 20 has a wavelength in the infrared region.

3D 이미지 센서(10)는 렌즈(34)의 주변에 원형으로 배열되는 복수의 광원들을 포함하나, 설명의 편의를 위하여 하나의 광원(32)만을 도시한다.The 3D image sensor 10 includes a plurality of light sources arranged in a circle around the lens 34, but only one light source 32 is shown for convenience of description.

렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL1)는 집적 회로(20)에 의하여 복조될 수 있다. 즉, 렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL1)에 의해 거리 정보가 생성될 수 있다.The optical signal RL1 incident to the integrated circuit 20 through the lens 34, the filter 40, and the shutter 50 may be demodulated by the integrated circuit 20. That is, distance information may be generated by the optical signal RL1 incident to the integrated circuit 20 through the lens 34, the filter 40, and the shutter 50.

주변 광(61)으로부터 출력된 광신호(AL)는 타겟 물체(60)에서 반사된다. The optical signal AL output from the ambient light 61 is reflected by the target object 60.

타겟 물체(60)에 의해 반사된 광신호(RL2)는 가시광선 영역의 파장을 가진다.The optical signal RL2 reflected by the target object 60 has a wavelength in the visible light region.

렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL2)는 집적 회로(20)에 의하여 컬러 정보가 생성될 수 있다.The optical signal RL2 incident to the integrated circuit 20 through the lens 34, the filter 40, and the shutter 50 may generate color information by the integrated circuit 20.

셔터 컨트롤러(51)는 적외선 영역의 파장을 가지는 광신호(RL1)가 통과되도록 하거나 가시광선 영역의 파장을 가지는 광신호(RL2)가 통과되도록 셔터(50)를 제어한다.The shutter controller 51 controls the shutter 50 to pass the optical signal RL1 having the wavelength in the infrared region or to pass the optical signal RL2 having the wavelength in the visible region.

프로세서(110)는 3D 이미지 센서(10)의 동작을 제어할 수 있다. 예컨대, 프로세서(110)는 3D 이미지 센서(10)의 동작을 제어하기 위한 프로그램이 저장된 메모리(120)를 액세스하여 메모리(120)에 저장된 상기 프로그램을 실행시킬 수 있다.The processor 110 may control the operation of the 3D image sensor 10. For example, the processor 110 may access the memory 120 in which a program for controlling the operation of the 3D image sensor 10 is stored and execute the program stored in the memory 120.

3D 이미지 센서(10)는 프로세서(110)의 제어 하에 상기 컬러 정보와 상기 거리 정보에 기초하여 3차원 이미지 정보를 생성할 수 있다. 상기 생성된 3차원 이미지 정보는 인터페이스(130)에 접속된 디스플레이(미도시)를 통하여 디스플레이될 수 있다.The 3D image sensor 10 may generate 3D image information based on the color information and the distance information under the control of the processor 110. The generated 3D image information may be displayed through a display (not shown) connected to the interface 130.

3D 이미지 센서(10)에 의하여 생성된 3차원 이미지 정보는 프로세서(110)의 제어 하에 버스(101)를 통하여 메모리(120)에 저장될 수 있다. 메모리(120)는 불휘발성 메모리 장치로 구현될 수 있다.The 3D image information generated by the 3D image sensor 10 may be stored in the memory 120 through the bus 101 under the control of the processor 110. The memory 120 may be implemented as a nonvolatile memory device.

인터페이스(130)는 3차원 이미지 정보를 입출력하기 위한 인터페이스로 구현될 수 있다. 실시 예에 따라, 인터페이스(130)는 무선 인터페이스로 구현될 수 있다.The interface 130 may be implemented as an interface for inputting and outputting 3D image information. According to an embodiment, the interface 130 may be implemented as a wireless interface.

도 2는 도 1에 도시된 필터의 일 실시 예를 나타낸다.FIG. 2 shows an embodiment of the filter shown in FIG. 1.

도 1과 도 2를 참조하면, 필터(40)는 적외선 영역의 파장을 통과시키기 위한 제1영역(40-1)과 상기 적외선 영역의 파장을 차단하기 위한 제2영역(40-2)을 포함한다. 필터(40)는 방사형 또는 격자형으로 구현될 수 있다.1 and 2, the filter 40 includes a first region 40-1 for passing the wavelength of the infrared region and a second region 40-2 for blocking the wavelength of the infrared region. do. The filter 40 may be implemented radially or latticely.

제1영역(40-1)은 적외선 패스 필터로 구현될 수 있으며, 제2영역(40-2)은 적외선 차단 필터로 구현될 수 있다.The first region 40-1 may be implemented as an infrared pass filter, and the second region 40-2 may be implemented as an infrared cut filter.

실시 예에 따라 필터(40)는 다양한 패턴들로 구현될 수 있다.According to an embodiment, the filter 40 may be implemented in various patterns.

도 3은 도 1에 도시된 셔터의 일 실시 예를 나타낸다.3 illustrates an embodiment of the shutter illustrated in FIG. 1.

도 1 내지 도 3을 참조하면, 셔터(50)는 제1영역(40-1)과 대응되는 제3영역(50-1)과 제2영역(40-2)과 대응되는 제4영역(50-2)을 포함한다.1 to 3, the shutter 50 includes a third region 50-1 corresponding to the first region 40-1 and a fourth region 50 corresponding to the second region 40-2. -2).

셔터(50)는 방사형 또는 격자형으로 구현될 수 있다.The shutter 50 may be implemented in a radial or lattice form.

셔터(50)는 정해진 시간 동안 적외선 또는 가시광선이 이미지 센서(10)로 전달되도록 하는 장치이다. The shutter 50 is a device for transmitting infrared or visible light to the image sensor 10 for a predetermined time.

셔터(50)는 액정으로 구현된다.The shutter 50 is implemented by liquid crystal.

셔터 컨트롤러(51)는 제3영역(50-1)과 제4영역(50-2)이 선택적으로 열리도록 셔터(50)를 제어한다. The shutter controller 51 controls the shutter 50 to selectively open the third region 50-1 and the fourth region 50-2.

셔터 컨트롤러(51)는 상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 제3영역(50-1)이 열리도록 셔터(50)를 제어한다.The shutter controller 51 controls the shutter 50 to open the third region 50-1 to generate distance information using the wavelength of the infrared region.

셔터 컨트롤러(51)가 제3영역(50-1)이 열리도록 제어할 때, 이미지 센서(10)는 상기 적외선 영역의 파장을 이용하여 상기 거리 정보를 생성한다. When the shutter controller 51 controls the third region 50-1 to be opened, the image sensor 10 generates the distance information by using the wavelength of the infrared region.

셔터 컨트롤러(51)는 상기 적외선 영역의 파장을 제외(가시광선 영역의 파장을 이용)하여 컬러 정보를 생성하기 위해 제4영역(50-2)이 열리도록 셔터(50)를 제어한다.The shutter controller 51 controls the shutter 50 to open the fourth region 50-2 to generate color information by excluding the wavelength of the infrared region (using the wavelength of the visible ray region).

셔터 컨트롤러(51)가 제4영역(50-2)이 열리도록 제어할 때, 이미지 센서(10)는 상기 가시광선 영역의 파장을 이용하여 상기 컬러 정보를 생성한다. When the shutter controller 51 controls the fourth region 50-2 to be opened, the image sensor 10 generates the color information by using the wavelength of the visible light region.

도 4는 도 1에 도시된 집적 회로의 블록도를 나타낸다. 4 illustrates a block diagram of the integrated circuit shown in FIG. 1.

도 1과 도 4를 참조하면, 집적 회로(20)는 적외선 영역의 파장을 이용하여 거리 정보를 생성하고, 가시광선 영역의 파장을 이용하여 컬러 정보를 생성한다.1 and 4, the integrated circuit 20 generates distance information using a wavelength in an infrared region and generates color information using a wavelength in a visible ray region.

집적 회로(20)는 상기 거리 정보를 생성할 수 있는 깊이 픽셀과 상기 컬러 정보를 생성할 수 있는 RGB 컬러 픽셀들을 포함하는 픽셀 어레이(22)를 포함한다.The integrated circuit 20 includes a pixel array 22 including depth pixels capable of generating the distance information and RGB color pixels capable of generating the color information.

픽셀 어레이(22)에 대해서는 도 5 또는 도 6에서 자세히 설명될 것이다.The pixel array 22 will be described in detail in FIG. 5 or FIG. 6.

상기 깊이 픽셀은 1-탭 깊이 픽셀 또는 2-탭 깊이 픽셀이다.The depth pixel is a 1-tap depth pixel or a 2-tap depth pixel.

로우 디코더(row decoder; 24)는 타이밍 컨트롤러(26)로부터 출력된 로우 어드레스(row address)에 응답하여 복수의 로우들 중에서 어느 하나의 로우를 선택한다. 여기서, 로우(row)란 어레이(22)에서 X-방향으로 배치된 복수의 1-탭 깊이 픽셀들의 집합을 의미한다.The row decoder 24 selects any one of the plurality of rows in response to a row address output from the timing controller 26. Here, a row refers to a set of a plurality of 1-tap depth pixels arranged in the X-direction in the array 22.

포토 게이트 컨트롤러(28)는 타이밍 컨트롤러(26)의 제어하에 복수의 포토 게이트 컨트롤 신호들(Ga, Gb, Gc 및 Gd)을 생성하여 어레이(22)로 공급할 수 있다. The photo gate controller 28 may generate and supply the plurality of photo gate control signals Ga, Gb, Gc, and Gd to the array 22 under the control of the timing controller 26.

각 포토 게이트 컨트롤 신호(Ga, Gb, Gc, 및 Gd)는 구형파이다.Each photo gate control signal Ga, Gb, Gc, and Gd is a square wave.

제1포트 게이트 컨트롤 신호(Ga)의 위상과 제3포트 게이트 컨트롤 신호(Gc)의 위상과의 차는 90°이고, 제1포트 게이트 컨트롤 신호(Ga)의 위상과 제2포토 게이트 컨트롤 신호(Gb)의 위상과의 차는 180°이고, 제1포트 게이트 컨트롤 신호(Ga)의 위상과 제4포토 게이트 컨트롤 신호(Gd)의 위상과의 차는 270°이다.The difference between the phase of the first port gate control signal Ga and the phase of the third port gate control signal Gc is 90 °, and the phase of the first port gate control signal Ga and the second photo gate control signal Gb. ) Is 180 °, and the difference between the phase of the first port gate control signal Ga and the phase of the fourth photo gate control signal Gd is 270 °.

광원 드라이버(30)는, 타이밍 컨트롤러(26)의 제어 하에, 광원(32)을 드라이빙(driving)할 수 있는 클락 신호를 생성할 수 있다.The light source driver 30 may generate a clock signal capable of driving the light source 32 under the control of the timing controller 26.

광원 드라이버(30)는 클락 신호(MLS) 또는 클락 신호(MLS)에 대한 정보를 포토 게이트 컨트롤러(28)로 공급한다. 따라서, 포토 게이트 컨트롤러(28)는 타이밍 컨트롤러(26)의 제어하에 변조된 광신호(EL)의 위상과 동일한 위상을 갖는 제1포트 게이트 컨트롤 신호(Ga)와, 변조된 광신호(EL)의 위상과 180°의 위상 차를 갖는 제2포트 게이트 컨트롤 신호(Gb)를 생성한다. 또한, 포토 게이트 컨트롤러(28)는 변조된 광신호(EL)의 위상과 90°의 위상 차를 갖는 제3포트 게이트 컨트롤 신호(Gc)와, 270°의 위상 차를 갖는 제4포트 게이트 컨트롤 신호(Gd)를 생성한다.The light source driver 30 supplies the clock signal MLS or the information about the clock signal MLS to the photo gate controller 28. Accordingly, the photo gate controller 28 may control the first port gate control signal Ga having the same phase as that of the modulated optical signal EL under the control of the timing controller 26 and the modulated optical signal EL. A second port gate control signal Gb having a phase difference of 180 ° with a phase is generated. In addition, the photo gate controller 28 may include a third port gate control signal Gc having a phase difference of 90 ° and a phase of the modulated optical signal EL, and a fourth port gate control signal having a phase difference of 270 °. Produces (Gd).

포토 게이트 컨트롤러(28)는, 타이밍 컨트롤러(26)의 제어하에, 순차적으로 제1포토 게이트 컨트롤 신호(Ga), 제2포토 게이트 컨트롤 신호(Gb), 제3포토 게이트 컨트롤 신호(Gc), 및 제4포토 게이트 컨트롤 신호(Gd)를 어레이(22)로 공급할 수 있다.The photo gate controller 28 sequentially controls the first photo gate control signal Ga, the second photo gate control signal Gb, the third photo gate control signal Gc, and under the control of the timing controller 26. The fourth photo gate control signal Gd may be supplied to the array 22.

실시 예에 따라, 상기 깊이 픽셀이 2-탭 깊이 픽셀일 때, 포토 게이트 컨트롤러(28)는, 타이밍 컨트롤러(26)의 제어하에, 제1포토 게이트 컨트롤 신호(Ga)와 제3포토 게이트 컨트롤 신호(Gc)를 동시에 어레이(22)로 공급하고, 제2포토 게이트 컨트롤 신호(Gb)와 제4포토 게이트 컨트롤 신호(Gd)를 동시에 어레이(22)로 공급할 수 있다.According to an embodiment, when the depth pixel is a 2-tap depth pixel, the photo gate controller 28 may control the first photo gate control signal Ga and the third photo gate control signal under the control of the timing controller 26. Gc may be simultaneously supplied to the array 22, and the second photo gate control signal Gb and the fourth photo gate control signal Gd may be simultaneously supplied to the array 22.

예컨대, 포토 게이트 컨트롤러(28)와 광원 드라이버(30)는 서로 동기 되어 동작할 수 있다.For example, the photo gate controller 28 and the light source driver 30 may operate in synchronization with each other.

포토 게이트(110)는 투명 폴리 실리콘(poly silicon)으로 구현될 수 있다. 실시 예에 따라, 포토 게이트(110)는 ITO(Indium tin oxide, 또는 tin-doped indium oxide), IZO(Indium Zinc Oxide), 또는 ZnO(Zinc Oxide) 등으로 구현될 수 있다.The photo gate 110 may be implemented with transparent poly silicon. In some embodiments, the photo gate 110 may be formed of indium tin oxide (ITO) or tin-doped indium oxide (ITO), indium zinc oxide (IZO), zinc oxide (ZnO), or the like.

상기 깊이 픽셀은 입사된 광신호의 광 전자들(또는 광 전하)을 일정시간, 예컨대 적분 시간 (integration time)동안 축적하고, 축적 결과에 따라 생성된 픽셀 신호들(A0', A1', A2', 및 A3')을 출력한다. 상기 깊이 픽셀에 의하여 생성된 각 픽셀 신호(Ak')는 수학식 1과 같이 나타낼 수 있다.The depth pixel accumulates photo electrons (or photo charges) of the incident optical signal for a predetermined time, for example, integration time, and generates pixel signals A0 ', A1', and A2 'according to the accumulation result. , And A3 '). Each pixel signal Ak 'generated by the depth pixel may be represented by Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서, 상기 깊이 픽셀의 포토 게이트(110)로 입력되는 신호가 제1포토 게이트 컨트롤 신호(Ga)일 때, k는 0이고, 제3포토 게이트 컨트롤 신호(Gc)일 때, k는 1이고, 제2포토 게이트 컨트롤 신호(Gb)일 때 k는 2이고, 게이트 신호(Gd)의 위상 차가 270도일 때 k는 3이다.Here, k is 0 when the signal input to the photo gate 110 of the depth pixel is the first photo gate control signal Ga, and k is 1 when the third photo gate control signal Gc is present. K is 2 when the second photo gate control signal Gb is, and k is 3 when the phase difference of the gate signal Gd is 270 degrees.

ak , n은 k에 해당하는 위상(phase) 차로 n(n은 자연수)번째 게이트 신호를 인가했을 때, 상기 깊이 픽셀에서 검출된 광전자들(또는 광 전하)의 수를 나타내고, N=fm*Tint이다. 여기서, fm은 변조된 광신호(EL)의 주파수를 나타내고, Tint는 적분 시간을 나타낸다. a k and n represent the number of photoelectrons (or photocharges) detected at the depth pixel when the n (n is a natural number) gate signal is applied with a phase difference corresponding to k, and N = fm * Tint. Here, fm represents the frequency of the modulated optical signal EL, and Tint represents the integration time.

타이밍 컨트롤러(26)의 제어 하에, CDS/ADC 회로(36)는 상기 깊이 픽셀로부터 검출된 각 픽셀 신호(A0', A1', A2', 및 A3')에 대해 CDS(correlated double sampling) 동작과 ADC(analog to digital converting) 동작을 수행하여 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)를 출력한다. Under the control of the timing controller 26, the CDS / ADC circuit 36 performs correlated double sampling (CDS) operation on each pixel signal A0 ', A1', A2 ', and A3' detected from the depth pixel. An analog to digital converting (ADC) operation is performed to output each digital pixel signal A0, A1, A2, and A3.

집적 회로(20)는 픽셀 어레이(22)에 구현된 다수의 컬럼 라인들로부터 출력된 픽셀 신호들을 CDS/ADC 회로(36)로 전송하기 위한 액티브 로드 회로들(미도시)을 더 포함할 수 있다.The integrated circuit 20 may further include active load circuits (not shown) for transmitting pixel signals output from the plurality of column lines implemented in the pixel array 22 to the CDS / ADC circuit 36. .

메모리(38)는 CDS/ADC 회로(36)로부터 출력된 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)를 수신하여 저장한다.The memory 38 receives and stores each of the digital pixel signals A0, A1, A2, and A3 output from the CDS / ADC circuit 36.

이하, 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)는 설명의 편의상 각 픽셀 신호로 호칭한다.Hereinafter, each of the digital pixel signals A0, A1, A2, and A3 is referred to as each pixel signal for convenience of description.

마이크로 프로세서(39)는 복수의 픽셀 신호들(A0, A1, A2, 및 A3)을 이용하여 타겟 물체(40)까지의 거리 정보를 계산한다.The microprocessor 39 calculates distance information to the target object 40 using the plurality of pixel signals A0, A1, A2, and A3.

예컨대, 변조된 광신호(EL)가 A(1+cosωt)/2이고, 3D 이미지 센서(10)로 입사된 광신호(RL1) 또는 3D 이미지 센서(10)에 의하여 검출된 광신호(RL1)가 A0=A'(1+cos(ωt+θ))+B, A1=A'(1+sin(ωt+θ))+B, A2=A'(1-cos(ωt+θ))+B, A3=A'(1-sin(ωt+θ))+B일 때, TOF에 의한 위상 쉬프트(phase shift; θ)는 수학식 2와 같다.For example, the modulated optical signal EL is A (1 + cosωt) / 2 and the optical signal RL1 incident on the 3D image sensor 10 or the optical signal RL1 detected by the 3D image sensor 10. Is A0 = A '(1 + cos (ωt + θ)) + B, A1 = A' (1 + sin (ωt + θ)) + B, A2 = A '(1-cos (ωt + θ)) + When B, A3 = A '(1-sin (ωt + θ)) + B, the phase shift due to TOF is represented by Equation 2.

[수학식 2]&Quot; (2) "

θ=arctan((A3-A1)/(A2-A0))θ = arctan ((A3-A1) / (A2-A0))

따라서, 광원(32)으로부터 출력된 변조된 광신호(EL)는 타겟 물체(60)에서 반사되고, 3D 이미지 처리 시스템(100)과 타겟 물체(60) 사이의 거리 정보는 수학식 3과 같이 계산된다.Accordingly, the modulated light signal EL output from the light source 32 is reflected by the target object 60, and the distance information between the 3D image processing system 100 and the target object 60 is calculated as in Equation 3 below. do.

[수학식 3]&Quot; (3) "

Z=θ*C/(2*ω)=θ*C/(2*(2πf))Z = θ * C / (2 * ω) = θ * C / (2 * (2πf))

여기서, C는 광속을 나타낸다.Here, C represents the luminous flux.

실시 예에 따라, 마이크로 프로세서(39) 대신에 프로세서(110)가 복수의 픽셀 신호들(A0, A1, A2, 및 A3)을 이용하여 타겟 물체(40)까지의 거리 정보를 계산할 수 있다.According to an embodiment, the processor 110 may calculate the distance information to the target object 40 using the plurality of pixel signals A0, A1, A2, and A3 instead of the microprocessor 39.

또 다른 실시 예에 따라, 마이크로 프로세서(39)와 프로세서(110)는 하나의 프로세서로 구현될 수 있다.According to another embodiment, the microprocessor 39 and the processor 110 may be implemented as one processor.

도 5는 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 일 실시 예를 나타낸다.FIG. 5 illustrates an embodiment of a unit pixel array constituting a part of the pixel array illustrated in FIG. 4.

도 5를 참조하면, 도 4의 픽셀 어레이(22)의 일부를 구성하는 단위 픽셀 어레이 (522-1)는 레드 픽셀(R), 그린 픽셀(G), 블루 픽셀(B), 및 깊이 픽셀(D)을 포함할 수 있다. 레드 픽셀(R), 그린 픽셀(G), 및 블루 픽셀(B)은 RGB 컬러 픽셀들이라고 불릴 수 있다.Referring to FIG. 5, the unit pixel array 522-1 constituting a part of the pixel array 22 of FIG. 4 may include a red pixel R, a green pixel G, a blue pixel B, and a depth pixel (B). D). Red pixel R, green pixel G, and blue pixel B may be referred to as RGB color pixels.

레드 픽셀(R)은 가시광 영역 중에서 레드 영역에 속하는 파장들에 상응하는 레드 픽셀 신호를 생성하고, 그린 픽셀(G)은 상기 가시광 영역 중에서 그린 영역에 속하는 파장들에 상응하는 그린 픽셀 신호를 생성하고, 블루 픽셀(B)은 상기 가시광 영역 중에서 블루 영역에 속하는 파장들에 상응하는 블루 픽셀 신호를 생성한다. 깊이 픽셀(D)은 적외선 영역에 속하는 파장들에 상응하는 깊이 픽셀 신호를 생성한다.The red pixel R generates a red pixel signal corresponding to the wavelengths belonging to the red region of the visible region, and the green pixel G generates the green pixel signal corresponding to the wavelengths belonging to the green region of the visible region. The blue pixel B generates a blue pixel signal corresponding to wavelengths belonging to a blue region of the visible light region. The depth pixel D generates a depth pixel signal corresponding to the wavelengths belonging to the infrared region.

도 6은 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 다른 실시 예를 나타낸다. 도 6을 참조하면, 도 4의 픽셀 어레이(22)의 일부를 구성하는 단위 픽셀 어레이 (22-2)는 레드 픽셀(R), 그린 픽셀(G), 블루 픽셀(B), 및 두 개의 깊이 픽셀들(D)을 포함할 수 있다.6 illustrates another embodiment of a unit pixel array constituting a part of the pixel array illustrated in FIG. 4. Referring to FIG. 6, the unit pixel array 22-2 constituting a part of the pixel array 22 of FIG. 4 includes a red pixel R, a green pixel G, a blue pixel B, and two depths. Pixels D may be included.

도 5와 도 6에 도시된 단위 픽셀 어레이(22-1과 22-2)는 설명의 편의를 위하여 예시적으로 도시한 것으로서 단위 픽셀 어레이의 패턴과 상기 패턴을 구성하는 픽셀들은 실시 예에 따라 다양한 변형이 가능하다. 예컨대, 도 5와 도 6에 도시된 각 픽셀(R, G, 및 B)은 마젠타 픽셀, 사이언 픽셀, 및 엘로우 픽셀로 대체될 수 있다.The unit pixel arrays 22-1 and 22-2 illustrated in FIGS. 5 and 6 are exemplarily illustrated for convenience of description, and the pattern of the unit pixel array and the pixels constituting the pattern may vary. Modifications are possible. For example, each pixel R, G, and B shown in FIGS. 5 and 6 may be replaced with a magenta pixel, cyan pixel, and yellow pixel.

도 7은 도 1에 도시된 3D 이미지 처리 시스템의 동작 방법을 나타내는 플로우차트이다.FIG. 7 is a flowchart illustrating a method of operating the 3D image processing system illustrated in FIG. 1.

도 1 내지 도 7을 참조하면, 3D 이미지 센서(10)는 적외선 영역의 파장을 가지는 광신호(RL1)를 수신한다(S10).1 to 7, the 3D image sensor 10 receives an optical signal RL1 having a wavelength in an infrared region (S10).

이 때, 필터(40)의 제1영역(40-1)은 상기 적외선 영역의 파장을 가지는 광신호(RL1)를 통과시킨다. 셔터 컨트롤러(51)는 셔터(50)의 제3영역(50-1)이 열리도록 셔터(50)를 제어한다.At this time, the first region 40-1 of the filter 40 passes the optical signal RL1 having the wavelength of the infrared region. The shutter controller 51 controls the shutter 50 to open the third region 50-1 of the shutter 50.

상기 적외선 영역의 파장을 가지는 광신호(RL1)를 이용하여 3D 이미지 센서(10)는 거리 정보를 생성한다(S20).The 3D image sensor 10 generates distance information by using the optical signal RL1 having the wavelength of the infrared region (S20).

3D 이미지 센서(10)는 가시광선 영역의 파장을 가지는 광신호(RL2)를 수신한다(S30).The 3D image sensor 10 receives an optical signal RL2 having a wavelength in the visible light region (S30).

이 때, 필터(40)의 제2영역(40-2)은 상기 가시광선 영역의 파장을 가지는 광신호(RL2)를 통과시킨다. 셔터 컨트롤러(51)는 셔터(50)의 제4영역(50-2)이 열리도록 셔터(50)를 제어한다.At this time, the second region 40-2 of the filter 40 passes the optical signal RL2 having the wavelength of the visible ray region. The shutter controller 51 controls the shutter 50 to open the fourth region 50-2 of the shutter 50.

상기 가시외선 영역의 파장을 가지는 광신호(RL2)를 이용하여 3D 이미지 센서(10)는 컬러 정보를 생성한다(S40).The 3D image sensor 10 generates color information by using the optical signal RL2 having the wavelength of the visible ultraviolet region (S40).

프로세서(110)는 상기 거리 정보와 상기 컬러 정보를 이용하여 3D 이미지를 생성한다(S50).The processor 110 generates a 3D image by using the distance information and the color information (S50).

본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

10; 3D 이미지 센서
20; 집적 회로
32; 광원
34; 렌즈
40; 필터
40-1; 제1영역
40-2; 제2영역
50; 셔터
50-1; 제3영역
50-2; 제4영역
51; 셔터 컨트롤러
100; 3D 이미지 처리 시스템
110; 프로세서
10; 3D image sensor
20; integrated circuit
32; Light source
34; lens
40; filter
40-1; First area
40-2; Second area
50; shutter
50-1; Third area
50-2; Fourth area
51; Shutter controller
100; 3D image processing system
110; Processor

Claims (7)

적외선 영역의 파장을 통과시키기 위한 제1영역과 상기 적외선 영역의 파장을 차단하기 위한 제2영역을 포함하는 필터; 및
상기 제1영역과 대응되는 제3영역과 상기 제2영역과 대응되는 제4영역을 포함하는 셔터를 포함하는 3D 이미지 처리 시스템.
A filter comprising a first region for passing the wavelength in the infrared region and a second region for blocking the wavelength in the infrared region; And
And a shutter including a third region corresponding to the first region and a fourth region corresponding to the second region.
제1항에 있어서, 상기 3D 이미지 처리 시스템은,
상기 제3영역과 상기 제4영역이 선택적으로 열리도록 상기 셔터를 제어하는 셔터 컨트롤러를 더 포함하는 3D 이미지 처리 시스템.
The system of claim 1, wherein the 3D image processing system comprises:
And a shutter controller to control the shutter to selectively open the third region and the fourth region.
제2항에 있어서, 상기 셔터 컨트롤러는,
상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 상기 제3영역이 열리도록 상기 셔터를 제어하는 3D 이미지 처리 시스템.
The method of claim 2, wherein the shutter controller,
And control the shutter to open the third region to generate distance information using the wavelength of the infrared region.
제2항에 있어서, 상기 셔터 컨트롤러는,
상기 적외선 영역의 파장을 제외하여 컬러 정보를 생성하기 위해 상기 제4영역이 열리도록 상기 셔터를 제어하는 3D 이미지 처리 시스템.
The method of claim 2, wherein the shutter controller,
And control the shutter to open the fourth region to generate color information excluding the wavelength of the infrared region.
제1항에 있어서, 상기 셔터는 액정으로 구현되는 3D 이미지 처리 시스템.The 3D image processing system of claim 1, wherein the shutter is implemented by liquid crystal. 제1항에 있어서, 상기 3D 이미지 처리 시스템은,
상기 적외선의 파장들에 상응하는 깊이 픽셀 신호를 생성하기 위한 깊이 픽셀, 가시광선 영역의 파장들에 상응하는 컬러 픽셀 신호를 생성하기 위한 복수의 컬러 픽셀들을 포함하는 픽셀 어레이를 더 포함하는 3D 이미지 처리 시스템.
The system of claim 1, wherein the 3D image processing system comprises:
3D image processing further comprising a pixel array comprising a depth pixel for generating a depth pixel signal corresponding to the wavelengths of the infrared light, and a plurality of color pixels for generating a color pixel signal corresponding to wavelengths of a visible light region system.
제1항에 있어서, 상기 3D 이미지 처리 시스템은,
디지털 카메라인 3D 이미지 처리 시스템.
The system of claim 1, wherein the 3D image processing system comprises:
3D image processing system that is a digital camera.
KR1020110145974A 2011-12-29 2011-12-29 3d image sensor and 3d image processing system having the same KR20130077330A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110145974A KR20130077330A (en) 2011-12-29 2011-12-29 3d image sensor and 3d image processing system having the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110145974A KR20130077330A (en) 2011-12-29 2011-12-29 3d image sensor and 3d image processing system having the same

Publications (1)

Publication Number Publication Date
KR20130077330A true KR20130077330A (en) 2013-07-09

Family

ID=48990605

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110145974A KR20130077330A (en) 2011-12-29 2011-12-29 3d image sensor and 3d image processing system having the same

Country Status (1)

Country Link
KR (1) KR20130077330A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9769456B2 (en) 2014-11-13 2017-09-19 Samsung Electronics Co., Ltd. Camera for measuring depth image and method of measuring depth image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9769456B2 (en) 2014-11-13 2017-09-19 Samsung Electronics Co., Ltd. Camera for measuring depth image and method of measuring depth image

Similar Documents

Publication Publication Date Title
US11598857B2 (en) Integrated lidar image-sensor devices and systems and related methods of operation
CN108291969B (en) Imaging sensor with shared pixel readout circuitry
US10237534B2 (en) Imaging device and a method for producing a three-dimensional image of an object
KR101977711B1 (en) Depth sensor, image capturing method thereof and image processing system having the depth sensor
US10802144B2 (en) Method and device of measuring the distance to an object
KR20120108383A (en) Depth sensor, depth information error compensation method thereof, and signal processing system having the depth sensor
KR101711061B1 (en) Method for estimating depth information using depth estimation device
KR101887988B1 (en) Image sensor chip, operation method thereof, and system having the same
EP2451150B1 (en) Color sensor insensitive to distance variations
KR20120079646A (en) Depth sensor, defect correction method thereof, and signal processing system having the depth sensor
CN102538955B (en) Radiation sensor
KR101739880B1 (en) Color filter array, image sensor having the same, and image processing system having the same
KR20160032014A (en) A method for driving a time-of-flight system
US20120134598A1 (en) Depth Sensor, Method Of Reducing Noise In The Same, And Signal Processing System Including The Same
US20200386540A1 (en) Mixed active depth
US20150312556A1 (en) Rgb-ir sensor, and method and apparatus for obtaining 3d image by using same
KR101888564B1 (en) Depth sensor, method of calculating depth in the same
KR20110024242A (en) Method and device for estimating depth information, and signal processing apparatus having the device
JP5744511B2 (en) Sensor, method of operating the same, and data processing system including the sensor
US9986184B2 (en) Image sensor including phase difference detection pixels having auto focus accuracy based on phase difference, and image pick-up apparatus including the same
JP6765235B2 (en) Optical sensor and its correction method
JP6716902B2 (en) Electronics
KR20120100232A (en) Microlens, depth sensor having the microlens and method for fabricating the microlens
CN112823291A (en) Time-of-flight RGB-IR image sensor
TW202127635A (en) Time of flight sensing system and image sensor used therein

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid