KR20130077330A - 3d 이미지 처리 시스템 - Google Patents

3d 이미지 처리 시스템 Download PDF

Info

Publication number
KR20130077330A
KR20130077330A KR1020110145974A KR20110145974A KR20130077330A KR 20130077330 A KR20130077330 A KR 20130077330A KR 1020110145974 A KR1020110145974 A KR 1020110145974A KR 20110145974 A KR20110145974 A KR 20110145974A KR 20130077330 A KR20130077330 A KR 20130077330A
Authority
KR
South Korea
Prior art keywords
region
shutter
image processing
processing system
pixel
Prior art date
Application number
KR1020110145974A
Other languages
English (en)
Inventor
일리아 오브세아니코프
민동기
진영구
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110145974A priority Critical patent/KR20130077330A/ko
Publication of KR20130077330A publication Critical patent/KR20130077330A/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B9/00Exposure-making shutters; Diaphragms
    • G03B9/08Shutters

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

3D 이미지 처리 시스템이 개시된다. 상기 3D 이미지 처리 시스템은 적외선 영역의 파장을 통과시키기 위한 제1영역과 상기 적외선 영역의 파장을 차단하기 위한 제2영역을 포함하는 필터, 및 상기 제1영역과 대응되는 제3영역과 상기 제2영역과 대응되는 제4영역을 포함하는 셔터를 포함한다.

Description

3D 이미지 처리 시스템{3D image sensor and 3D image processing system having the same}
본 발명의 개념에 따른 실시 예는 3D 이미지 처리 시스템에 관한 것으로, 특히, 컬러 정보뿐만 아니라 거리 정보도 포함하는 3D 이미지를 생성하기 위한 3D 이미지 처리 시스템에 관한 것이다.
센서(sensor)는 대상물의 상태 또는 위치를 검출하고 검출 결과를 전기적인 신호로 변환하여 전달하는 소자이다. 상기 센서의 종류로서는 빛 센서, 온도 센서, 압력 센서, 자기 센서, 또는 3D 이미지 센서 등이 있다.
상기 3D 이미지 센서는 상기 대상물의 컬러 정보뿐만 아니라 상기 3D 이미지 센서와 상기 대상물 사이의 거리 정보까지 포함하는 3D 이미지를 생성한다.
상기 3D 이미지 센서의 소스(source)로부터 출력되는 신호는 마이크로파(Micro wave), 광파(Light wave) 또는 초음파(Ultrasonic wave)가 사용될 수 있다.
상기 3D 이미지 센서는 TOF(time-Of-flight) 측정 방식을 이용하여 거리 정보를 생성한다. 즉, 상기 3D 이미지 센서는 소스(source)로부터 방사된 펄스 형태의 신호가 타겟 물체(또는, 측정 대상물)에 의해 반사되어 되돌아 올 때까지의 지연 시간을 측정하여 상기 3D 이미지 센서와 상기 대상물까지의 거리 정보(또는, 깊이 정보)를 산출한다.
상기 3D 이미지 센서는 상기 거리 정보를 생성하기 위해 적외선 영역의 파장을 이용하며, 상기 컬러 정보를 생성하기 위해 가시광선 영역의 파장을 이용한다.
따라서 상기 3D 이미지 센서는 상기 3D 이미지를 생성하기 위해 상기 가시광선 영역의 파장뿐만 아니라 상기 적외선 영역의 파장도 수신하여야 한다.
본 발명이 이루고자 하는 기술적 과제는 컬러 정보와 거리 정보를 포함하는 3D 이미지를 생성하기 위한 3D 이미지 처리 시스템을 제공하는 것이다.
본 발명의 실시 예에 따른 3D 이미지 처리 시스템은 적외선 영역의 파장을 통과시키기 위한 제1영역과 상기 적외선 영역의 파장을 차단하기 위한 제2영역을 포함하는 필터, 및 상기 제1영역과 대응되는 제3영역과 상기 제2영역과 대응되는 제4영역을 포함하는 셔터를 포함한다.
상기 3D 이미지 처리 시스템은 상기 제3영역과 상기 제4영역이 선택적으로 열리도록 상기 셔터를 제어하는 셔터 컨트롤러를 더 포함한다.
상기 셔터 컨트롤러는 상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 상기 제3영역이 열리도록 상기 셔터를 제어한다.
상기 셔터 컨트롤러는 상기 적외선 영역의 파장을 제외하여 컬러 정보를 생성하기 위해 상기 제4영역이 열리도록 상기 셔터를 제어한다.
상기 셔터는 액정으로 구현된다.
상기 3D 이미지 처리 시스템은 상기 적외선의 파장들에 상응하는 깊이 픽셀 신호를 생성하기 위한 깊이 픽셀, 가시광선 영역의 파장들에 상응하는 컬러 픽셀 신호를 생성하기 위한 복수의 컬러 픽셀들을 포함하는 픽셀 어레이를 더 포함한다.
상기 3D 이미지 처리 시스템은 디지털 카메라이다.
본 발명의 실시 예에 따른 3D 이미지 처리 시스템은 컬러 정보와 거리 정보를 포함하는 3D 이미지를 생성할 수 있는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 3D 이미지 처리 시스템의 블록도를 나타낸다.
도 2는 도 1에 도시된 필터의 일 실시 예를 나타낸다.
도 3은 도 1에 도시된 셔터의 일 실시 예를 나타낸다.
도 4는 도 1에 도시된 집적 회로의 블록도를 나타낸다.
도 5는 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 일 실시 예를 나타낸다.
도 6은 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 다른 실시 예를 나타낸다.
도 7은 도 1에 도시된 3D 이미지 처리 시스템의 동작 방법을 나타내는 플로우차트이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.
도 1은 본 발명의 실시 예에 따른 3D 이미지 처리 시스템의 블록도를 나타낸다.
도 1을 참조하면, 3D 이미지 처리 시스템(100)은 3차원 거리 측정기, 게임컨트롤러, 디지털 카메라, 또는 제스쳐 센싱 장치(gesture sensing apparatus)이다.
3D 이미지 처리 시스템(100)은 3D 이미지 센서(10)와 프로세서(110)를 포함할 수 있다.
3D 이미지 센서(10)는 광원(32), 렌즈(34), 필터(40), 셔터(shutter; 50), 셔터 컨트롤러(51), 및 집적 회로(20)를 포함한다.
광원(32)은 변조된 광신호(EL)를 타겟 물체(60)로 방사한다. 광원(32)으로서 LED(light emitting diode) 또는 레이저 다이오드(laser diode)가 사용될 수 있다. 변조된 광신호(EL)는 정현파 또는 구형파일 수 있다.
광원(32)으로부터 출력된 변조된 광신호(EL)는 타겟 물체(60)에서 반사된다.
반사된 광신호(RL1)는 렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된다.
집적 회로(20)로 입사된 광신호(RL1)는 적외선 영역의 파장을 가진다.
3D 이미지 센서(10)는 렌즈(34)의 주변에 원형으로 배열되는 복수의 광원들을 포함하나, 설명의 편의를 위하여 하나의 광원(32)만을 도시한다.
렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL1)는 집적 회로(20)에 의하여 복조될 수 있다. 즉, 렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL1)에 의해 거리 정보가 생성될 수 있다.
주변 광(61)으로부터 출력된 광신호(AL)는 타겟 물체(60)에서 반사된다.
타겟 물체(60)에 의해 반사된 광신호(RL2)는 가시광선 영역의 파장을 가진다.
렌즈(34), 필터(40), 및 셔터(50)를 통하여 집적 회로(20)로 입사된 광신호(RL2)는 집적 회로(20)에 의하여 컬러 정보가 생성될 수 있다.
셔터 컨트롤러(51)는 적외선 영역의 파장을 가지는 광신호(RL1)가 통과되도록 하거나 가시광선 영역의 파장을 가지는 광신호(RL2)가 통과되도록 셔터(50)를 제어한다.
프로세서(110)는 3D 이미지 센서(10)의 동작을 제어할 수 있다. 예컨대, 프로세서(110)는 3D 이미지 센서(10)의 동작을 제어하기 위한 프로그램이 저장된 메모리(120)를 액세스하여 메모리(120)에 저장된 상기 프로그램을 실행시킬 수 있다.
3D 이미지 센서(10)는 프로세서(110)의 제어 하에 상기 컬러 정보와 상기 거리 정보에 기초하여 3차원 이미지 정보를 생성할 수 있다. 상기 생성된 3차원 이미지 정보는 인터페이스(130)에 접속된 디스플레이(미도시)를 통하여 디스플레이될 수 있다.
3D 이미지 센서(10)에 의하여 생성된 3차원 이미지 정보는 프로세서(110)의 제어 하에 버스(101)를 통하여 메모리(120)에 저장될 수 있다. 메모리(120)는 불휘발성 메모리 장치로 구현될 수 있다.
인터페이스(130)는 3차원 이미지 정보를 입출력하기 위한 인터페이스로 구현될 수 있다. 실시 예에 따라, 인터페이스(130)는 무선 인터페이스로 구현될 수 있다.
도 2는 도 1에 도시된 필터의 일 실시 예를 나타낸다.
도 1과 도 2를 참조하면, 필터(40)는 적외선 영역의 파장을 통과시키기 위한 제1영역(40-1)과 상기 적외선 영역의 파장을 차단하기 위한 제2영역(40-2)을 포함한다. 필터(40)는 방사형 또는 격자형으로 구현될 수 있다.
제1영역(40-1)은 적외선 패스 필터로 구현될 수 있으며, 제2영역(40-2)은 적외선 차단 필터로 구현될 수 있다.
실시 예에 따라 필터(40)는 다양한 패턴들로 구현될 수 있다.
도 3은 도 1에 도시된 셔터의 일 실시 예를 나타낸다.
도 1 내지 도 3을 참조하면, 셔터(50)는 제1영역(40-1)과 대응되는 제3영역(50-1)과 제2영역(40-2)과 대응되는 제4영역(50-2)을 포함한다.
셔터(50)는 방사형 또는 격자형으로 구현될 수 있다.
셔터(50)는 정해진 시간 동안 적외선 또는 가시광선이 이미지 센서(10)로 전달되도록 하는 장치이다.
셔터(50)는 액정으로 구현된다.
셔터 컨트롤러(51)는 제3영역(50-1)과 제4영역(50-2)이 선택적으로 열리도록 셔터(50)를 제어한다.
셔터 컨트롤러(51)는 상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 제3영역(50-1)이 열리도록 셔터(50)를 제어한다.
셔터 컨트롤러(51)가 제3영역(50-1)이 열리도록 제어할 때, 이미지 센서(10)는 상기 적외선 영역의 파장을 이용하여 상기 거리 정보를 생성한다.
셔터 컨트롤러(51)는 상기 적외선 영역의 파장을 제외(가시광선 영역의 파장을 이용)하여 컬러 정보를 생성하기 위해 제4영역(50-2)이 열리도록 셔터(50)를 제어한다.
셔터 컨트롤러(51)가 제4영역(50-2)이 열리도록 제어할 때, 이미지 센서(10)는 상기 가시광선 영역의 파장을 이용하여 상기 컬러 정보를 생성한다.
도 4는 도 1에 도시된 집적 회로의 블록도를 나타낸다.
도 1과 도 4를 참조하면, 집적 회로(20)는 적외선 영역의 파장을 이용하여 거리 정보를 생성하고, 가시광선 영역의 파장을 이용하여 컬러 정보를 생성한다.
집적 회로(20)는 상기 거리 정보를 생성할 수 있는 깊이 픽셀과 상기 컬러 정보를 생성할 수 있는 RGB 컬러 픽셀들을 포함하는 픽셀 어레이(22)를 포함한다.
픽셀 어레이(22)에 대해서는 도 5 또는 도 6에서 자세히 설명될 것이다.
상기 깊이 픽셀은 1-탭 깊이 픽셀 또는 2-탭 깊이 픽셀이다.
로우 디코더(row decoder; 24)는 타이밍 컨트롤러(26)로부터 출력된 로우 어드레스(row address)에 응답하여 복수의 로우들 중에서 어느 하나의 로우를 선택한다. 여기서, 로우(row)란 어레이(22)에서 X-방향으로 배치된 복수의 1-탭 깊이 픽셀들의 집합을 의미한다.
포토 게이트 컨트롤러(28)는 타이밍 컨트롤러(26)의 제어하에 복수의 포토 게이트 컨트롤 신호들(Ga, Gb, Gc 및 Gd)을 생성하여 어레이(22)로 공급할 수 있다.
각 포토 게이트 컨트롤 신호(Ga, Gb, Gc, 및 Gd)는 구형파이다.
제1포트 게이트 컨트롤 신호(Ga)의 위상과 제3포트 게이트 컨트롤 신호(Gc)의 위상과의 차는 90°이고, 제1포트 게이트 컨트롤 신호(Ga)의 위상과 제2포토 게이트 컨트롤 신호(Gb)의 위상과의 차는 180°이고, 제1포트 게이트 컨트롤 신호(Ga)의 위상과 제4포토 게이트 컨트롤 신호(Gd)의 위상과의 차는 270°이다.
광원 드라이버(30)는, 타이밍 컨트롤러(26)의 제어 하에, 광원(32)을 드라이빙(driving)할 수 있는 클락 신호를 생성할 수 있다.
광원 드라이버(30)는 클락 신호(MLS) 또는 클락 신호(MLS)에 대한 정보를 포토 게이트 컨트롤러(28)로 공급한다. 따라서, 포토 게이트 컨트롤러(28)는 타이밍 컨트롤러(26)의 제어하에 변조된 광신호(EL)의 위상과 동일한 위상을 갖는 제1포트 게이트 컨트롤 신호(Ga)와, 변조된 광신호(EL)의 위상과 180°의 위상 차를 갖는 제2포트 게이트 컨트롤 신호(Gb)를 생성한다. 또한, 포토 게이트 컨트롤러(28)는 변조된 광신호(EL)의 위상과 90°의 위상 차를 갖는 제3포트 게이트 컨트롤 신호(Gc)와, 270°의 위상 차를 갖는 제4포트 게이트 컨트롤 신호(Gd)를 생성한다.
포토 게이트 컨트롤러(28)는, 타이밍 컨트롤러(26)의 제어하에, 순차적으로 제1포토 게이트 컨트롤 신호(Ga), 제2포토 게이트 컨트롤 신호(Gb), 제3포토 게이트 컨트롤 신호(Gc), 및 제4포토 게이트 컨트롤 신호(Gd)를 어레이(22)로 공급할 수 있다.
실시 예에 따라, 상기 깊이 픽셀이 2-탭 깊이 픽셀일 때, 포토 게이트 컨트롤러(28)는, 타이밍 컨트롤러(26)의 제어하에, 제1포토 게이트 컨트롤 신호(Ga)와 제3포토 게이트 컨트롤 신호(Gc)를 동시에 어레이(22)로 공급하고, 제2포토 게이트 컨트롤 신호(Gb)와 제4포토 게이트 컨트롤 신호(Gd)를 동시에 어레이(22)로 공급할 수 있다.
예컨대, 포토 게이트 컨트롤러(28)와 광원 드라이버(30)는 서로 동기 되어 동작할 수 있다.
포토 게이트(110)는 투명 폴리 실리콘(poly silicon)으로 구현될 수 있다. 실시 예에 따라, 포토 게이트(110)는 ITO(Indium tin oxide, 또는 tin-doped indium oxide), IZO(Indium Zinc Oxide), 또는 ZnO(Zinc Oxide) 등으로 구현될 수 있다.
상기 깊이 픽셀은 입사된 광신호의 광 전자들(또는 광 전하)을 일정시간, 예컨대 적분 시간 (integration time)동안 축적하고, 축적 결과에 따라 생성된 픽셀 신호들(A0', A1', A2', 및 A3')을 출력한다. 상기 깊이 픽셀에 의하여 생성된 각 픽셀 신호(Ak')는 수학식 1과 같이 나타낼 수 있다.
[수학식 1]
Figure pat00001
여기서, 상기 깊이 픽셀의 포토 게이트(110)로 입력되는 신호가 제1포토 게이트 컨트롤 신호(Ga)일 때, k는 0이고, 제3포토 게이트 컨트롤 신호(Gc)일 때, k는 1이고, 제2포토 게이트 컨트롤 신호(Gb)일 때 k는 2이고, 게이트 신호(Gd)의 위상 차가 270도일 때 k는 3이다.
ak , n은 k에 해당하는 위상(phase) 차로 n(n은 자연수)번째 게이트 신호를 인가했을 때, 상기 깊이 픽셀에서 검출된 광전자들(또는 광 전하)의 수를 나타내고, N=fm*Tint이다. 여기서, fm은 변조된 광신호(EL)의 주파수를 나타내고, Tint는 적분 시간을 나타낸다.
타이밍 컨트롤러(26)의 제어 하에, CDS/ADC 회로(36)는 상기 깊이 픽셀로부터 검출된 각 픽셀 신호(A0', A1', A2', 및 A3')에 대해 CDS(correlated double sampling) 동작과 ADC(analog to digital converting) 동작을 수행하여 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)를 출력한다.
집적 회로(20)는 픽셀 어레이(22)에 구현된 다수의 컬럼 라인들로부터 출력된 픽셀 신호들을 CDS/ADC 회로(36)로 전송하기 위한 액티브 로드 회로들(미도시)을 더 포함할 수 있다.
메모리(38)는 CDS/ADC 회로(36)로부터 출력된 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)를 수신하여 저장한다.
이하, 각 디지털 픽셀 신호(A0, A1, A2, 및 A3)는 설명의 편의상 각 픽셀 신호로 호칭한다.
마이크로 프로세서(39)는 복수의 픽셀 신호들(A0, A1, A2, 및 A3)을 이용하여 타겟 물체(40)까지의 거리 정보를 계산한다.
예컨대, 변조된 광신호(EL)가 A(1+cosωt)/2이고, 3D 이미지 센서(10)로 입사된 광신호(RL1) 또는 3D 이미지 센서(10)에 의하여 검출된 광신호(RL1)가 A0=A'(1+cos(ωt+θ))+B, A1=A'(1+sin(ωt+θ))+B, A2=A'(1-cos(ωt+θ))+B, A3=A'(1-sin(ωt+θ))+B일 때, TOF에 의한 위상 쉬프트(phase shift; θ)는 수학식 2와 같다.
[수학식 2]
θ=arctan((A3-A1)/(A2-A0))
따라서, 광원(32)으로부터 출력된 변조된 광신호(EL)는 타겟 물체(60)에서 반사되고, 3D 이미지 처리 시스템(100)과 타겟 물체(60) 사이의 거리 정보는 수학식 3과 같이 계산된다.
[수학식 3]
Z=θ*C/(2*ω)=θ*C/(2*(2πf))
여기서, C는 광속을 나타낸다.
실시 예에 따라, 마이크로 프로세서(39) 대신에 프로세서(110)가 복수의 픽셀 신호들(A0, A1, A2, 및 A3)을 이용하여 타겟 물체(40)까지의 거리 정보를 계산할 수 있다.
또 다른 실시 예에 따라, 마이크로 프로세서(39)와 프로세서(110)는 하나의 프로세서로 구현될 수 있다.
도 5는 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 일 실시 예를 나타낸다.
도 5를 참조하면, 도 4의 픽셀 어레이(22)의 일부를 구성하는 단위 픽셀 어레이 (522-1)는 레드 픽셀(R), 그린 픽셀(G), 블루 픽셀(B), 및 깊이 픽셀(D)을 포함할 수 있다. 레드 픽셀(R), 그린 픽셀(G), 및 블루 픽셀(B)은 RGB 컬러 픽셀들이라고 불릴 수 있다.
레드 픽셀(R)은 가시광 영역 중에서 레드 영역에 속하는 파장들에 상응하는 레드 픽셀 신호를 생성하고, 그린 픽셀(G)은 상기 가시광 영역 중에서 그린 영역에 속하는 파장들에 상응하는 그린 픽셀 신호를 생성하고, 블루 픽셀(B)은 상기 가시광 영역 중에서 블루 영역에 속하는 파장들에 상응하는 블루 픽셀 신호를 생성한다. 깊이 픽셀(D)은 적외선 영역에 속하는 파장들에 상응하는 깊이 픽셀 신호를 생성한다.
도 6은 도 4에 도시된 픽셀 어레이의 일부를 구성하는 단위 픽셀 어레이의 다른 실시 예를 나타낸다. 도 6을 참조하면, 도 4의 픽셀 어레이(22)의 일부를 구성하는 단위 픽셀 어레이 (22-2)는 레드 픽셀(R), 그린 픽셀(G), 블루 픽셀(B), 및 두 개의 깊이 픽셀들(D)을 포함할 수 있다.
도 5와 도 6에 도시된 단위 픽셀 어레이(22-1과 22-2)는 설명의 편의를 위하여 예시적으로 도시한 것으로서 단위 픽셀 어레이의 패턴과 상기 패턴을 구성하는 픽셀들은 실시 예에 따라 다양한 변형이 가능하다. 예컨대, 도 5와 도 6에 도시된 각 픽셀(R, G, 및 B)은 마젠타 픽셀, 사이언 픽셀, 및 엘로우 픽셀로 대체될 수 있다.
도 7은 도 1에 도시된 3D 이미지 처리 시스템의 동작 방법을 나타내는 플로우차트이다.
도 1 내지 도 7을 참조하면, 3D 이미지 센서(10)는 적외선 영역의 파장을 가지는 광신호(RL1)를 수신한다(S10).
이 때, 필터(40)의 제1영역(40-1)은 상기 적외선 영역의 파장을 가지는 광신호(RL1)를 통과시킨다. 셔터 컨트롤러(51)는 셔터(50)의 제3영역(50-1)이 열리도록 셔터(50)를 제어한다.
상기 적외선 영역의 파장을 가지는 광신호(RL1)를 이용하여 3D 이미지 센서(10)는 거리 정보를 생성한다(S20).
3D 이미지 센서(10)는 가시광선 영역의 파장을 가지는 광신호(RL2)를 수신한다(S30).
이 때, 필터(40)의 제2영역(40-2)은 상기 가시광선 영역의 파장을 가지는 광신호(RL2)를 통과시킨다. 셔터 컨트롤러(51)는 셔터(50)의 제4영역(50-2)이 열리도록 셔터(50)를 제어한다.
상기 가시외선 영역의 파장을 가지는 광신호(RL2)를 이용하여 3D 이미지 센서(10)는 컬러 정보를 생성한다(S40).
프로세서(110)는 상기 거리 정보와 상기 컬러 정보를 이용하여 3D 이미지를 생성한다(S50).
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
10; 3D 이미지 센서
20; 집적 회로
32; 광원
34; 렌즈
40; 필터
40-1; 제1영역
40-2; 제2영역
50; 셔터
50-1; 제3영역
50-2; 제4영역
51; 셔터 컨트롤러
100; 3D 이미지 처리 시스템
110; 프로세서

Claims (7)

  1. 적외선 영역의 파장을 통과시키기 위한 제1영역과 상기 적외선 영역의 파장을 차단하기 위한 제2영역을 포함하는 필터; 및
    상기 제1영역과 대응되는 제3영역과 상기 제2영역과 대응되는 제4영역을 포함하는 셔터를 포함하는 3D 이미지 처리 시스템.
  2. 제1항에 있어서, 상기 3D 이미지 처리 시스템은,
    상기 제3영역과 상기 제4영역이 선택적으로 열리도록 상기 셔터를 제어하는 셔터 컨트롤러를 더 포함하는 3D 이미지 처리 시스템.
  3. 제2항에 있어서, 상기 셔터 컨트롤러는,
    상기 적외선 영역의 파장을 이용하여 거리 정보를 생성하기 위해 상기 제3영역이 열리도록 상기 셔터를 제어하는 3D 이미지 처리 시스템.
  4. 제2항에 있어서, 상기 셔터 컨트롤러는,
    상기 적외선 영역의 파장을 제외하여 컬러 정보를 생성하기 위해 상기 제4영역이 열리도록 상기 셔터를 제어하는 3D 이미지 처리 시스템.
  5. 제1항에 있어서, 상기 셔터는 액정으로 구현되는 3D 이미지 처리 시스템.
  6. 제1항에 있어서, 상기 3D 이미지 처리 시스템은,
    상기 적외선의 파장들에 상응하는 깊이 픽셀 신호를 생성하기 위한 깊이 픽셀, 가시광선 영역의 파장들에 상응하는 컬러 픽셀 신호를 생성하기 위한 복수의 컬러 픽셀들을 포함하는 픽셀 어레이를 더 포함하는 3D 이미지 처리 시스템.
  7. 제1항에 있어서, 상기 3D 이미지 처리 시스템은,
    디지털 카메라인 3D 이미지 처리 시스템.
KR1020110145974A 2011-12-29 2011-12-29 3d 이미지 처리 시스템 KR20130077330A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110145974A KR20130077330A (ko) 2011-12-29 2011-12-29 3d 이미지 처리 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110145974A KR20130077330A (ko) 2011-12-29 2011-12-29 3d 이미지 처리 시스템

Publications (1)

Publication Number Publication Date
KR20130077330A true KR20130077330A (ko) 2013-07-09

Family

ID=48990605

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110145974A KR20130077330A (ko) 2011-12-29 2011-12-29 3d 이미지 처리 시스템

Country Status (1)

Country Link
KR (1) KR20130077330A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9769456B2 (en) 2014-11-13 2017-09-19 Samsung Electronics Co., Ltd. Camera for measuring depth image and method of measuring depth image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9769456B2 (en) 2014-11-13 2017-09-19 Samsung Electronics Co., Ltd. Camera for measuring depth image and method of measuring depth image

Similar Documents

Publication Publication Date Title
US11598857B2 (en) Integrated lidar image-sensor devices and systems and related methods of operation
CN108291969B (zh) 具有共享像素读出电路系统的成像传感器
KR101977711B1 (ko) 깊이 센서, 이의 이미지 캡쳐 방법, 및 상기 깊이 센서를 포함하는 이미지 처리 시스템
US10237534B2 (en) Imaging device and a method for producing a three-dimensional image of an object
KR20120108383A (ko) 깊이 센서, 상기 깊이 센서의 깊이 정보 에러 보상 방법, 및 상기 깊이 센서를 포함하는 신호 처리 시스템
KR101711061B1 (ko) 깊이 추정 장치를 이용한 깊이 정보 추정 방법
KR101887988B1 (ko) 이미지 센서 칩, 이의 동작 방법, 및 이를 포함하는 시스템
EP2451150B1 (en) Color sensor insensitive to distance variations
KR20120079646A (ko) 깊이 센서, 상기 깊이 센서의 결점 수정 방법, 및 상기 깊이 센서를 포함하는 신호 처리 시스템
CN102538955B (zh) 辐射传感器
KR101739880B1 (ko) 컬러 필터 어레이, 이를 포함하는 이미지 센서, 및 이를 포함하는 이미지 처리 장치
KR20160032014A (ko) 타임 오브 플라이트 시스템 구동 방법
US20120134598A1 (en) Depth Sensor, Method Of Reducing Noise In The Same, And Signal Processing System Including The Same
US20150312556A1 (en) Rgb-ir sensor, and method and apparatus for obtaining 3d image by using same
KR101888564B1 (ko) 깊이 센서, 및 이의 깊이 계산 방법
KR20110024242A (ko) 깊이 정보를 추정할 수 있는 방법과 장치, 및 상기 장치를 포함하는 신호 처리 장치
US20200386540A1 (en) Mixed active depth
CN103533636A (zh) 测量到对象的距离的方法和装置
JP5744511B2 (ja) センサー、その動作方法、及びセンサーを含むデータ処理システム
KR101823347B1 (ko) 센서와 이를 포함하는 데이터 처리 시스템
US9986184B2 (en) Image sensor including phase difference detection pixels having auto focus accuracy based on phase difference, and image pick-up apparatus including the same
JP6765235B2 (ja) 光センサ及びその補正方法
JP6716902B2 (ja) 電子機器
KR20120100232A (ko) 마이크로렌즈, 상기 마이크로렌즈를 포함하는 깊이 센서, 및 상기 마이크로렌즈 제조 방법
CN112823291A (zh) 飞行时间rgb-ir图像传感器

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid