KR20120111092A - Image pick-up apparatus - Google Patents

Image pick-up apparatus Download PDF

Info

Publication number
KR20120111092A
KR20120111092A KR1020110029388A KR20110029388A KR20120111092A KR 20120111092 A KR20120111092 A KR 20120111092A KR 1020110029388 A KR1020110029388 A KR 1020110029388A KR 20110029388 A KR20110029388 A KR 20110029388A KR 20120111092 A KR20120111092 A KR 20120111092A
Authority
KR
South Korea
Prior art keywords
subjects
depth
image
data
color
Prior art date
Application number
KR1020110029388A
Other languages
Korean (ko)
Inventor
배광혁
경규민
김태찬
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110029388A priority Critical patent/KR20120111092A/en
Priority to US13/432,704 priority patent/US20120249740A1/en
Publication of KR20120111092A publication Critical patent/KR20120111092A/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing

Abstract

PURPOSE: A photographing device is provided to adaptively adjust a focus of a light receiving lens based on a depth map about subjects, thereby increasing a 3D realistic feeling. CONSTITUTION: A sensor module(100) generates depth data based on receiving light of subjects(50). An engine unit(300) generates a depth map about the subjects based on the depth data. The engine unit separates the subjects on the depth map. The engine unit generates a light receiving lens control signal based on the separated subjects. A motor unit(130) controls a focus of a light receiving lens(120) according to the control signal.

Description

촬상 장치{IMAGE PICK-UP APPARATUS}Imaging device {IMAGE PICK-UP APPARATUS}

본 발명은 이미지 분야에 관한 것으로, 보다 상세하게는 입체 컬러 데이터를 제공할 수 있는 촬상 장치에 관한 것이다.TECHNICAL FIELD The present invention relates to the field of imaging, and more particularly, to an imaging device capable of providing stereoscopic color data.

이미지 센서는 영상(Image) 또는 거리(Distance, Depth) 정보를 포함하는 광 신호를 전기적인 신호로 변환하는 장치이다. 정밀하면서도 정확하게 원하는 정보를 제공하기 위하여 이미지 센서에 대한 연구가 진행 중이며, 특히, 영상 정보뿐만 아니라 거리 정보를 제공하는 3차원 이미지 센서(3D Image Sensor)에 대한 연구 및 개발이 최근 활발하게 진행되고 있다.The image sensor is an apparatus for converting an optical signal including an image or distance or depth information into an electrical signal. In order to provide precise and accurate desired information, research on image sensor is underway. In particular, research and development of 3D image sensor that provides distance information as well as image information has been actively conducted recently. .

이에 따라, 본 발명의 목적은 적응적으로 초점 거리를 조절할 수 있는 촬상 장치를 제공하는데 있다.Accordingly, it is an object of the present invention to provide an imaging device capable of adaptively adjusting the focal length.

본 발명의 다른 목적은 3차원 현실감을 높일 수 있는 촬상 장치를 제공하는데 있다.Another object of the present invention is to provide an imaging device that can enhance three-dimensional realism.

상기 일 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 촬상 장치는 수광 렌즈, 센서 모듈, 엔진부 및 모터부를 포함한다. 상기 센서 모듈은 복수의 피사체들로부터의 수신광을 기초로 상기 피사체들에 대한 거리 정보를 포함하는 깊이 데이터를 생성한다. 상기 엔진부는 상기 깊이 데이터를 기초로 상기 피사체들에 대한 깊이 맵을 생성하고, 상기 깊이 맵 상에서 상기 피사체들을 분리하고, 분리된 피사체들에 기초하여 상기 수광 렌즈를 제어하기 위한 제어 신호를 생성한다. 상기 모터부는 상기 제어 신호에 따라 상기 수광 렌즈의 포커스를 제어한다. 상기 센서 모듈은 상기 포커스가 조절된 수광 렌즈를 통하여 집광된 상기 피사체들로부터 반사된 가시광선에 기초하여 상기 피사체들에 대한 컬러 데이터를 생성하여 상기 엔진부에 제공한다.In order to achieve the above object, an imaging device according to an embodiment of the present invention includes a light receiving lens, a sensor module, an engine unit, and a motor unit. The sensor module generates depth data including distance information about the subjects based on the received light from the plurality of subjects. The engine unit generates a depth map for the subjects based on the depth data, separates the subjects on the depth map, and generates a control signal for controlling the light receiving lens based on the separated subjects. The motor unit controls the focus of the light receiving lens according to the control signal. The sensor module generates color data for the subjects based on visible light reflected from the subjects collected through the focus-adjusted light receiving lens, and provides the generated color data to the engine unit.

실시예에 있어서, 상기 센서 모듈은 상기 깊이 데이터를 생성하는 깊이 센서 및 상기 컬러 데이터를 생성하는 컬러 센서를 포함할 수 있다.In an embodiment, the sensor module may include a depth sensor for generating the depth data and a color sensor for generating the color data.

상기 엔진부는 상기 깊이 데이터를 처리하여 상기 피사체들에 대한 깊이 이미지와 상기 깊이 맵을 생성하는 제1 이미지 신호 처리기, 상기 깊이 맵에 기초하여 상기 피사체들을 분리하고, 상기 분리된 피사체들에 기초하여 상기 수광 렌즈를 제어하기 위한 상기 제어 신호를 생성하는 분리 및 제어부 및 상기 컬러 데이터를 처리하여 상기 피사체들에 대한 컬러 이미지를 생성하는 제2 이미지 신호 처리기를 포함할 수 있다.The engine unit may process the depth data to generate a depth image and the depth map of the subjects, and separate the subjects based on the depth map, and based on the separated subjects. And a separation and control unit for generating the control signal for controlling the light receiving lens, and a second image signal processor for processing the color data to generate a color image of the subjects.

실시예에 있어서, 상기 촬상 장치는 상기 깊이 이미지와 상기 컬러 이미지에 기초하여 상기 피사체들에 대한 스테레오 이미지를 생성하는 애플리케이션을 더 포함할 수 있다.The image pickup device may further include an application for generating a stereo image of the subjects based on the depth image and the color image.

실시예에 있어서, 상기 제2 이미지 신호 처리기는 포커스가 조절된 상기 수광 렌즈와 상기 피사체들 각각의 거리에 따라 상기 피사체들 각각을 이미지 처리할 수 있다.In example embodiments, the second image signal processor may process each of the subjects according to a distance between each of the subjects and the light receiving lens whose focus is adjusted.

상기 다른 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 촬상 장치는 수광 렌즈, 센서 모듈 및 엔진부를 포함한다. 상기 센서 모듈은 상기 수광 렌즈를 통한, 복수의 피사체들로부터의 반사광을 기초로 상기 피사체들에 대한 거리 정보를 포함하는 깊이 데이터와 상기 복수의 피사체들로부터의 가시광선을 기초로 상기 피사체들에 대한 컬러 데이터를 생성한다. 상기 엔진부는 상기 깊이 데이터에 기초하여 상기 피사체들에 대한 깊이 맵을 생성하고 상기 깊이 맵에 기초하여 상기 컬러 데이터에 대하여 이미지 블러링 처리를 수행한다.In order to achieve the above object, the imaging apparatus according to the exemplary embodiment includes a light receiving lens, a sensor module, and an engine unit. The sensor module may be configured to determine depth data including distance information of the subjects based on the reflected light from the plurality of subjects through the light receiving lens and the visible light from the plurality of subjects. Generate color data. The engine unit generates a depth map for the subjects based on the depth data, and performs an image blurring process on the color data based on the depth map.

실시예에 있어서, 상기 센서 모듈은 상기 깊이 데이터와 상기 컬러 데이터를 동시에 제공하는 깊이/컬러 센서를 포함할 수 있다.In example embodiments, the sensor module may include a depth / color sensor configured to simultaneously provide the depth data and the color data.

실시예에 있어서, 상기 엔진부는 상기 깊이 데이터를 처리하여 상기 피사체들에 대한 깊이 이미지와 상기 깊이 맵을 생성하는 제1 이미지 신호 처리기, 상기 깊이 맵에 기초하여 상기 피사체들을 분리하고, 상기 분리된 피사체들에 관한 분리 데이터를 제공하는 분리부, 상기 컬러 데이터를 처리하여 상기 피사체들에 대한 컬러 이미지를 생성하는 제2 이미지 신호 처리기 및 상기 분리 데이터에 기초하여 상기 컬러 이미지에 대한 이미지 블러링 처리를 수행하여 블러링된 컬러 이미지를 제공하는 블러링 처리부를 포함할 수 있다.In example embodiments, the engine unit may process the depth data to generate a depth image of the subjects and the depth map, and separate the subjects based on the depth map, and separate the subjects. A separation unit for providing separation data relating to the data, a second image signal processor for processing the color data to generate a color image for the subjects, and performing an image blurring process for the color image based on the separation data It may include a blur processing unit for providing a blurred color image.

실시예에 있어서, 상기 촬상 장치는 상기 깊이 이미지와 상기 블러링된 컬러 이미지에 기초하여 상기 피사체들에 대한 스테레오 이미지를 제공하는 애플리케이션을 더 포함할 수 있다.In an embodiment, the imaging device may further include an application for providing a stereo image for the subjects based on the depth image and the blurred color image.

실시예에 있어서, 상기 수광 렌즈는 상기 피사체들을 모두 커버하는 심도(depth of field)를 갖을 수 있다.In example embodiments, the light receiving lens may have a depth of field covering all of the subjects.

복수의 피사체들에 대한 깊이 맵을 기초로 하여 수광 렌즈의 포커스를 적응적으로 조절하여 3차원 현실감을 향상시킬 수 있고, 깊이 맵을 기초로 컬러 이미지에 대한 블러링 처리를 수행하여 3차원 현실감을 향상시킬 수 있다.Based on the depth map of the plurality of subjects, the focus of the light receiving lens can be adaptively adjusted to improve the three-dimensional reality, and the blurring process on the color image based on the depth map can be used to perform the three-dimensional reality. Can be improved.

도 1은 본 발명의 일 실시예에 따른 촬상 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 도 1의 센서부의 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 도 2의 깊이 센서의 구성을 나타내는 블록도이다.
도 4는 도 3의 깊이 센서에서 피사체의 거리를 계산하는 일예를 설명하는 도면이다.
도 5는 본 발명의 다른 실시예에 따른 도 1의 센서부의 구성을 나타내는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 도 1의 엔진부의 구성을 나타내는 블록도이다.
도 7은 본 발명의 일 실시예에 따른 도 1의 호스트/애플리케이션을 나타낸다.
도 8은 복수의 피사체들에 대한 깊이 맵을 나타낸다.
도 9a 내지 도 9c는 깊이 맵에서 선택된 피사체를 나타낸다.
도 10a 내지 도 10c는 도 9a 내지 도 9c 각각에서 선택된 피사체에 포커싱된 컬러 이미지를 나타낸다.
도 11은 본 발명의 다른 실시예에 따른 촬상 장치를 나타내는 블록도이다.
도 12는 본 발명의 일 실시예에 따른 도 11의 엔진부의 구성을 나타내는 블록도이다.
도 13은 본 발명의 일 실시예에 따른 도 11의 호스트/애플리케이션을 나타낸다.
도 14는 복수의 피사체들에 대한 컬러 이미지를 나타낸다.
도 15는 복수의 피사체들에 대한 깊이 맵을 나타낸다.
도 16a 내지 도 16c는 선택된 피사체를 기준으로 블러링 처리가 수행된 경우의 블러링된 컬러 이미지를 나타낸다.
도 17은 본 발명의 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 18은 본 발명의 다른 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 19는 본 발명의 일 실시예에 따른 촬상 장치를 컴퓨팅 시스템에 응용한 예를 나타내는 블록도이다.
도 20은 도 19의 컴퓨팅 시스템에서 사용되는 인터페이스의 일 예를 나타내는 블록도이다.
1 is a block diagram illustrating an image capturing apparatus according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating a configuration of a sensor unit of FIG. 1 according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a configuration of a depth sensor of FIG. 2 according to an exemplary embodiment of the present invention.
4 is a diagram illustrating an example of calculating a distance of a subject in the depth sensor of FIG. 3.
5 is a block diagram illustrating a configuration of a sensor unit of FIG. 1 according to another exemplary embodiment of the present disclosure.
6 is a block diagram illustrating a configuration of the engine unit of FIG. 1 according to an exemplary embodiment of the present invention.
7 illustrates the host / application of FIG. 1 in accordance with an embodiment of the present invention.
8 illustrates a depth map of a plurality of subjects.
9A to 9C illustrate a subject selected in a depth map.
10A to 10C illustrate a color image focused on a subject selected in each of FIGS. 9A to 9C.
11 is a block diagram showing an image pickup device according to another embodiment of the present invention.
12 is a block diagram illustrating a configuration of the engine unit of FIG. 11 according to an embodiment of the present invention.
13 illustrates the host / application of FIG. 11 in accordance with an embodiment of the present invention.
14 illustrates a color image of a plurality of subjects.
15 illustrates a depth map of a plurality of subjects.
16A to 16C illustrate a blurred color image when the blurring process is performed based on the selected subject.
17 is a flowchart illustrating an image processing method according to an embodiment of the present invention.
18 is a flowchart illustrating an image processing method according to another exemplary embodiment of the present invention.
19 is a block diagram illustrating an example in which an imaging device according to an embodiment of the present invention is applied to a computing system.
20 is a block diagram illustrating an example of an interface used in the computing system of FIG. 19.

본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.For the embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be practiced in various forms, The present invention should not be construed as limited to the embodiments described in Figs.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 구성요소에 대해 사용하였다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. In describing the drawings, similar reference numerals are used for the components.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, the terms "comprise", "having", and the like are intended to specify the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, , Steps, operations, components, parts, or combinations thereof, as a matter of principle.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1은 본 발명의 일 실시예에 따른 촬상 장치를 나타내는 블록도이다.1 is a block diagram illustrating an image capturing apparatus according to an exemplary embodiment of the present invention.

도 1을 참조하면, 촬상 장치(10)는 센서 모듈(100), 수광 렌즈(120), 모터부(130) 및 엔진부(300)를 포함한다. 촬상 장치(10)는 애플리케이션(400)을 더 포함할 수도 있다. 센서 모듈(100)은 광원부(110) 및 센서부(200)를 포함할 수 있다. 광원부(110)는 광원(111) 및 렌즈(112)를 포함할 수 있다. 실시예에 따라 센서부(200) 및 광원부(110)는 각각 별도의 장치로 구현되거나, 광원부(110)의 적어도 일부의 구성이 센서부(200)에 포함되도록 구현될 수 있다.Referring to FIG. 1, the imaging apparatus 10 includes a sensor module 100, a light receiving lens 120, a motor unit 130, and an engine unit 300. The imaging device 10 may further include an application 400. The sensor module 100 may include a light source unit 110 and a sensor unit 200. The light source unit 110 may include a light source 111 and a lens 112. According to an exemplary embodiment, the sensor unit 200 and the light source unit 110 may be implemented as separate devices, or at least some components of the light source unit 110 may be included in the sensor unit 200.

수광 렌즈(120)는 센서부(200)의 수광 영역(예를 들어 센서부(200)에 포함되는 픽셀 어레이에 포함되는 거리 픽셀들 및/또는 컬러 픽셀들)으로 입사광을 집광시킬 수 있다. 센서부(200)는 복수의 피사체들(50)로부터 반사된 수신광(RX)에 기초하여 먼저 복수의 피사체들(50)에 대한 거리 정보를 포함하는 깊이 데이터(ZDTA)를 생성하여 엔진부(300)에 제공한다. 엔진부(300)는 깊이 데이터(ZDTA)를 기초로 피사체들(50)에 대한 거리 정보를 포함하는 깊이 맵을 생성하고, 상기 생성된 깊이 맵을 기초로 상기 깊이 맵 상에서 상기 피사체들을 분리하고, 분리된 피사체들에 기초하여 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 생성한다. 즉 엔진부(300)는 깊이 맵 상에서 복수의 피사체들 중 하나의 피사체를 선택하여 선택된 피사체를 포커스 영역으로 설정하고 이 설정된 포커스 영역으로 수광 렌즈(120)를 포커싱하도록 하기 위한 제어 신호(CTRL)를 생성할 수 있다.The light receiving lens 120 may collect incident light into a light receiving area of the sensor unit 200 (for example, distance pixels and / or color pixels included in the pixel array included in the sensor unit 200). The sensor unit 200 first generates depth data ZDTA including distance information about the plurality of subjects 50 based on the received light RX reflected from the plurality of subjects 50, and then generates the engine unit ( 300). The engine unit 300 generates a depth map including distance information about the subjects 50 based on the depth data ZDTA, separates the subjects on the depth map based on the generated depth map, The control signal CTRL for controlling the light receiving lens 120 is generated based on the separated subjects. That is, the engine unit 300 selects one of the plurality of subjects on the depth map, sets the selected subject as the focus region, and provides a control signal CTRL for focusing the light receiving lens 120 to the set focus region. Can be generated.

모터부(130)는 상기 엔진부(300)에서 제공되는 제어 신호(CTRL)에 따라 수광 렌즈(120)를 이동시켜 수광 렌즈(120)가 엔진부(300)에서 선택된 피사체로 포커싱되도록 한다. 이에 따라 센서 모듈(120)은 포커스가 조절된 수광 렌즈(120)를 통하여 집광된 피사체들(50)로부터 반사된 가시광선(VL)에 기초하여 피사체들(50)에 대한 컬러 데이터(CDTA)를 생성하고 생성된 컬러 데이터(CDTA)를 엔진부(300)에 제공한다.The motor unit 130 moves the light receiving lens 120 according to the control signal CTRL provided from the engine unit 300 so that the light receiving lens 120 is focused on the subject selected by the engine unit 300. Accordingly, the sensor module 120 collects the color data CDTA of the subjects 50 based on the visible light VL reflected from the subjects 50 focused through the focus-adjusted light receiving lens 120. The generated color data CDTA is provided to the engine unit 300.

광원부(110)의 광원(111)은 적외선 또는 근적외선을 생성하고, 렌즈(112)는 적외선 또는 근적외선이 피사체들(50)에 포커싱되도록 한다.The light source 111 of the light source unit 110 generates infrared or near infrared rays, and the lens 112 allows the infrared or near infrared rays to focus on the subjects 50.

센서 모듈(200)은 클록 신호(CLK)에 기초하여 깊이 데이터(ZDTA) 및또는 컬러 데이터(CDTA)를 포함하는 데이터(DATA1)를 엔진부(300)에 제공할 수 있다. 실시예에 따라, 센서 모듈(200)은 MIPI(Mobile Industry Processor Interface) 및/또는 CSI(Camera Serial Interface)를 통하여 엔진부(300)와 인터페이싱할 수 있다.The sensor module 200 may provide the engine unit 300 with data DATA1 including the depth data ZDTA and the color data CDTA based on the clock signal CLK. According to an embodiment, the sensor module 200 may interface with the engine unit 300 through a mobile industry processor interface (MIPI) and / or a camera serial interface (CSI).

엔진부(300)는 센서 모듈(100) 및 모터부(130)를 제어하고, 엔진부(300)는 센서부(200)로부터 수신된 데이터(DATA1)를 처리할 수 있다. 예를 들어, 엔진부(300)는 센서부(200)로부터 수신된 데이터(DATA1)에 기초하여 입체 컬러 데이터(스테레오 데이터)를 생성할 수 있다. 다른 예에서, 엔진부(300)는 데이터(DATA1)에 포함된 상기 RGB 데이터에 기초하여 휘도 성분, 상기 휘도 성분과 청색 성분의 차, 및 휘도 성분과 적색 성분의 차를 포함하는 YUV 데이터를 생성하거나, 압축 데이터, 예를 들어 JPEG(Joint Photography Experts Group) 데이터를 생성할 수 있다. 엔진부(300)는 호스트/어플리케이션(400)에 연결될 수 있으며, 엔진부(300)는 마스터 클록(MCLK)에 기초하여 데이터(DATA2)를 호스트/어플리케이션(400)에 제공할 수 있다. 또한, 엔진부(300)는 SPI(Serial Peripheral Interface) 및/또는 I2C(Inter Integrated Circuit)를 통하여 호스트/어플리케이션(400)과 인터페이싱할 수 있다.The engine unit 300 may control the sensor module 100 and the motor unit 130, and the engine unit 300 may process data DATA1 received from the sensor unit 200. For example, the engine unit 300 may generate stereoscopic color data (stereo data) based on the data DATA1 received from the sensor unit 200. In another example, the engine unit 300 generates YUV data including a luminance component, a difference between the luminance component and a blue component, and a difference between the luminance component and a red component based on the RGB data included in the data DATA1. Or compressed data, for example, Joint Photography Experts Group (JPEG) data. The engine unit 300 may be connected to the host / application 400, and the engine unit 300 may provide data DATA2 to the host / application 400 based on the master clock MCLK. In addition, the engine unit 300 may interface with the host / application 400 through a serial peripheral interface (SPI) and / or an inter integrated circuit (I2C).

도 1의 실시예에서 수광 렌즈(120)는 상대적으로 짧은 심도(depth of field)를 갖을 수 있다. 즉 수광 렌즈(120)의 초점은 피사체들(50) 중 어느 하나에만 맞춰질 수 있다.In the embodiment of FIG. 1, the light receiving lens 120 may have a relatively short depth of field. That is, the focus of the light receiving lens 120 may be focused only on any one of the subjects 50.

도 2는 본 발명의 일 실시예에 따른 도 1의 센서부의 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of a sensor unit of FIG. 1 according to an exemplary embodiment of the present invention.

도 2를 참조하면, 센서부(200a)는 깊이 센서(210)와 컬러 센서(220)를 포함할 수 있다. 깊이 센서(210)는 복수의 깊이 픽셀들로 구성된 깊이 픽셀 어레이를 포함하여 피사체들(50)로부터의 수신광(RX)에 기초하여 피사체들(50)에 대한 깊이 데이터(ZDTA)를 생성할 수 있다. 또한 컬러 센서(220)는 복수의 컬러 픽셀들로 구성된 컬러 픽셀 어레이를 포함하여 피사체들(50)로부터의 가시광선(VL)에 기초하여 피사체들(50)에 대한 컬러 데이터(CDTA)를 생성할 수 있다.Referring to FIG. 2, the sensor unit 200a may include a depth sensor 210 and a color sensor 220. The depth sensor 210 may generate depth data ZDTA for the subjects 50 based on the received light RX from the subjects 50, including a depth pixel array composed of a plurality of depth pixels. have. In addition, the color sensor 220 may include a color pixel array composed of a plurality of color pixels to generate color data CDTA for the subjects 50 based on the visible light VL from the subjects 50. Can be.

도 3은 본 발명의 일 실시예에 따른 도 2의 깊이 센서의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of a depth sensor of FIG. 2 according to an exemplary embodiment of the present invention.

도 3에서는 설명의 편의를 위하여 광원부(110)가 깊이 센서(210)에 포함되는 경우를 도시한다.3 illustrates a case in which the light source unit 110 is included in the depth sensor 210 for convenience of description.

도 3을 참조하면, 깊이 센서(210)는 깊이 픽셀 어레이(211), 아날로그-디지털 변환(Analog-to-Digital Conversion; ADC)부(212), 로우 주사 회로(213), 컬럼 주사 회로(214), 제어부(215) 및 광원 모듈(110)을 포함한다.Referring to FIG. 3, the depth sensor 210 includes a depth pixel array 211, an analog-to-digital conversion (ADC) unit 212, a row scan circuit 213, and a column scan circuit 214. ), The controller 215 and the light source module 110.

깊이 픽셀 어레이(211)는 광원 모듈(110)에서 송신된 광(TX)이 피사체들(50)에서 반사되어 수신된 광(RX)을 전기적인 신호로 변환하는 깊이 픽셀(depth pixel)들을 포함한다. 상기 깊이 픽셀들은 흑백 영상 정보와 함께 깊이 센서(210)로부터 피사체들(50)의 거리에 대한 정보를 제공할 수 있다.The depth pixel array 211 includes depth pixels in which the light TX transmitted from the light source module 110 is reflected by the subjects 50 and converts the received light RX into an electrical signal. . The depth pixels may provide information about the distance of the subjects 50 from the depth sensor 210 together with the black and white image information.

ADC부(212)는 깊이 픽셀 어레이(211)로부터 출력되는 아날로그 신호를 디지털 신호로 변환하여 깊이 데이터(ZDTA)를 제공할 수 있다. 실시예에 따라, ADC부(212)는 각 컬럼 라인마다 연결된 아날로그-디지털 변환기를 이용하여 아날로그 신호들을 병렬로 변환하는 컬럼 ADC를 수행하거나, 단일한 아날로그-디지털 변환기를 이용하여 상기 아날로그 신호들을 순차적으로 변환하는 단일 ADC를 수행할 수 있다.The ADC unit 212 may convert the analog signal output from the depth pixel array 211 into a digital signal to provide the depth data ZDTA. According to an embodiment, the ADC unit 212 performs a column ADC for converting analog signals in parallel using an analog-digital converter connected to each column line, or sequentially converts the analog signals using a single analog-digital converter. You can perform a single ADC that converts to.

실시예에 따라, ADC부(212)는 유효 신호 성분을 추출하기 위한 상관 이중 샘플링(Correlated Double Sampling; CDS)부를 포함할 수 있다. 일 실시예에서, 상기 CDS부는 리셋 성분을 나타내는 아날로그 리셋 신호와 신호 성분을 나타내는 아날로그 데이터 신호의 차이에 기초하여 상기 유효 신호 성분을 추출하는 아날로그 더블 샘플링(Analog Double Sampling)을 수행할 수 있다. 다른 실시예에서, 상기 CDS부는 상기 아날로그 리셋 신호와 상기 아날로그 데이터 신호를 디지털 신호들로 각각 변환한 후 상기 유효 신호 성분으로서 두 개의 디지털 신호의 차이를 추출하는 디지털 더블 샘플링(Digital Double Sampling)을 수행할 수 있다. 또 다른 실시예에서, 상기 CDS부는 상기 아날로그 더블 샘플링 및 상기 디지털 더블 샘플링을 모두 수행하는 듀얼 상관 이중 샘플링을 수행할 수 있다.According to an embodiment, the ADC unit 212 may include a correlated double sampling (CDS) unit for extracting an effective signal component. In one embodiment, the CDS unit may perform analog double sampling to extract the valid signal component based on a difference between an analog reset signal representing a reset component and an analog data signal representing a signal component. In another embodiment, the CDS unit converts the analog reset signal and the analog data signal into digital signals, and then performs digital double sampling to extract a difference between two digital signals as the effective signal component. can do. In another embodiment, the CDS unit may perform dual correlation double sampling that performs both the analog double sampling and the digital double sampling.

로우 주사 회로(213)는 제어부(215)로부터 제어 신호들을 수신하여 깊이 픽셀 어레이(211)의 로우 어드레스 및 로우 주사를 제어할 수 있다. 로우 주사 회로(213)는 로우 라인들 중에서 해당 로우 라인을 선택하기 위하여 해당 로우 라인을 활성화시키는 신호를 깊이 픽셀 어레이(211)에 인가할 수 있다. 일 실시예에서, 로우 주사 회로(213)는 깊이 픽셀 어레이(211) 내의 로우 라인을 선택하는 로우 디코더 및 선택된 로우 라인을 활성화시키는 신호를 공급하는 로우 드라이버를 포함할 수 있다.The row scan circuit 213 may receive the control signals from the controller 215 to control the row address and the row scan of the depth pixel array 211. The row scan circuit 213 may apply a signal for activating the row line to the depth pixel array 211 in order to select the row line among the row lines. In one embodiment, the row scanning circuit 213 may include a row decoder to select a row line in the depth pixel array 211 and a row driver to supply a signal to activate the selected row line.

컬럼 주사 회로(214)는 제어부(215)로부터 제어 신호들을 수신하여 깊이 픽셀 어레이(211)의 컬럼 어드레스 및 컬럼 주사를 제어할 수 있다. 컬럼 주사 회로(214)는 ADC부(212)에서 출력되는 디지털 출력 신호를 디지털 신호 프로세싱 회로(Digital Signal Processing Circuit, 미도시) 또는 외부의 호스트(미도시)로 출력할 수 있다. 예를 들어, 컬럼 주사 회로(214)는 수평 주사 제어 신호를 ADC부(212)에 출력함으로써, ADC부(212) 내의 복수의 아날로그-디지털 변환기들을 순차적으로 선택할 수 있다. 일 실시예에서, 컬럼 주사 회로(214)는 복수의 아날로그-디지털 변환기들 중 하나를 선택하는 컬럼 디코더 및 선택된 아날로그-디지털 변환기의 출력을 수평 전송선으로 유도하는 컬럼 드라이버를 포함할 수 있다. 한편, 상기 수평 전송선은 상기 디지털 출력 신호를 출력하기 위한 비트 폭을 가질 수 있다.The column scan circuit 214 may control the column address and the column scan of the depth pixel array 211 by receiving control signals from the controller 215. The column scan circuit 214 may output the digital output signal output from the ADC unit 212 to a digital signal processing circuit (not shown) or an external host (not shown). For example, the column scan circuit 214 may sequentially select a plurality of analog-to-digital converters in the ADC unit 212 by outputting a horizontal scan control signal to the ADC unit 212. In one embodiment, column scan circuitry 214 may include a column decoder to select one of the plurality of analog-to-digital converters and a column driver to direct the output of the selected analog-to-digital converter to a horizontal transmission line. On the other hand, the horizontal transmission line may have a bit width for outputting the digital output signal.

제어부(215)는 ADC부(212), 로우 주사 회로(213), 컬럼 주사 회로(214) 및 광원부(110)을 제어할 수 있다. 제어부(215)는 ADC부(212), 로우 주사 회로(213), 컬럼 주사 회로(214) 및 광원부(110)의 동작에 요구되는 클럭 신호, 타이밍 컨트롤 신호 등과 같은 제어 신호들을 공급할 수 있다. 일 실시예에서, 제어부(215)는 로직 제어 회로, 위상 고정 루프(Phase Lock Loop; PLL) 회로, 타이밍 제어 회로 및 통신 인터페이스 회로 등을 포함할 수 있다. 다른 실시예에서 제어부(215)의 기능은 엔진부(300)에 의하여 수행될 수도 있다.The controller 215 may control the ADC unit 212, the row scan circuit 213, the column scan circuit 214, and the light source unit 110. The controller 215 may supply control signals such as a clock signal and a timing control signal required for the operation of the ADC unit 212, the row scan circuit 213, the column scan circuit 214, and the light source unit 110. In one embodiment, the controller 215 may include a logic control circuit, a phase lock loop (PLL) circuit, a timing control circuit, a communication interface circuit, and the like. In another embodiment, the function of the controller 215 may be performed by the engine unit 300.

광원부(110)는 소정의 파장을 가진 광(예를 들어, 적외선 또는 근적외선)을 출력할 수 있다. 광원(111)은 제어부(215)에 의해 제어되어 세기가 주기적으로 변하는 광(TX)을 출력할 수 있다. 예를 들어, 광(TX)의 세기는 연속적인 펄스들을 가지는 펄스 파, 사인 파, 코사인 파 등과 같은 형태를 가지도록 제어될 수 있다. 광원(210)은 발광 다이오드(light emitting diode, LED), 레이저 다이오드 등으로 구현될 수 있다.The light source unit 110 may output light having a predetermined wavelength (for example, infrared rays or near infrared rays). The light source 111 may be controlled by the controller 215 to output light TX whose intensity is periodically changed. For example, the intensity of the light TX may be controlled to have a shape such as a pulse wave, sine wave, cosine wave, etc. having continuous pulses. The light source 210 may be implemented as a light emitting diode (LED), a laser diode, or the like.

도 4는 도 3의 깊이 센서에서 피사체의 거리를 계산하는 일예를 설명하는 도면이다.4 is a diagram illustrating an example of calculating a distance of a subject in the depth sensor of FIG. 3.

도 4에서는 설명의 편의를 위하여 피사체들(50) 중 하나의 피사체로부터의 수신광(RX)을 기초로 거리를 계산하는 일예를 설명한다.In FIG. 4, an example of calculating a distance based on the received light RX from one of the subjects 50 will be described for convenience of description.

도 3 및 도 4를 참조하면, 광원부(110)에서 방출된 광(TX)은 주기적으로 변동하는 세기를 가질 수 있다. 예를 들어, 방출된 광(TX)의 세기(즉, 단위 면적당 광자의 수)는 사인 파의 형태를 가질 수 있다.3 and 4, the light TX emitted from the light source unit 110 may have a varying intensity periodically. For example, the intensity of the emitted light TX (ie, the number of photons per unit area) can be in the form of a sine wave.

광원부(110)에서 방출된 광(TX)은 피사체(50)에서 반사되어 수신 광(RX)으로서 깊이 픽셀 어레이(211)에 입사된다. 깊이 픽셀 어레이(211)는 수신 광(RX)을 주기적으로 샘플링할 수 있다. 실시예에 따라, 깊이 픽셀 어레이(211)는 수신 광(RX)의 각 주기(즉, 방출된 광(TX)의 주기)마다 180 도의 위상 차를 가지는 두 개의 샘플링 포인트들, 각각 90 도의 위상 차를 가지는 네 개의 샘플링 포인트들, 또는 그 이상의 샘플링 포인트들에서 수신 광(RX)을 샘플링할 수 있다. 예를 들어, 깊이 픽셀 어레이(211)는 매 주기 마다 방출된 광(TX)의 90 도, 180 도, 270도 및 360도의 위상들에서 수신 광(RX)의 샘플들(A0, A1, A2, A3)을 추출할 수 있다.The light TX emitted from the light source unit 110 is reflected by the subject 50 and is incident on the depth pixel array 211 as the received light RX. The depth pixel array 211 may periodically sample the received light RX. According to an embodiment, the depth pixel array 211 has two sampling points having a phase difference of 180 degrees for each period of the received light RX (that is, the period of the emitted light TX), each 90 degrees of phase difference. The received light RX may be sampled at four sampling points having or, or more sampling points. For example, the depth pixel array 211 is capable of sampling samples A0, A1, A2, of received light RX at phases of 90 degrees, 180 degrees, 270 degrees and 360 degrees of emitted light TX every cycle. A3) can be extracted.

수신 광(RX)은 추가적인 배경 광, 노이즈 등에 의해 광원부(100)에서 방출된 광(TX)의 오프셋과 다른 오프셋(B)을 가질 수 있다. 수신 광(RX)의 오프셋(B)은 [수학식 1]과 같이 계산될 수 있다.The received light RX may have an offset B different from the offset of the light TX emitted from the light source unit 100 due to additional background light, noise, or the like. The offset B of the received light RX may be calculated as shown in [Equation 1].

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서, A0는 방출된 광(TX)의 90 도의 위상에서 샘플링된 수신 광(RX)의 세기를 나타내고, A1은 방출된 광(TX)의 180 도의 위상에서 샘플링된 수신 광(RX)의 세기를 나타내고, A2는 방출된 광(TX)의 270 도의 위상에서 샘플링된 수신 광(RX)의 세기를 나타내고, A3는 방출된 광(TX)의 360 도의 위상에서 샘플링된 수신 광(RX)의 세기를 나타낸다.Here, A0 represents the intensity of the received light RX sampled at the 90 degree phase of the emitted light TX, and A1 represents the intensity of the received light RX sampled at the 180 degree phase of the emitted light TX. Where A2 represents the intensity of the received light RX sampled in the 270 degree phase of the emitted light TX, and A3 represents the intensity of the received light RX sampled in the 360 degree phase of the emitted light TX. Indicates.

수신 광(RX)은 광 손실에 의해 광원부(110)에서 방출된 광(TX)의 진폭(amplitude)보다 작은 진폭(A)을 가질 수 있다. 수신 광(RX)의 진폭(A)은 [수학식 2]와 같이 계산될 수 있다.The received light RX may have an amplitude A that is smaller than an amplitude of the light TX emitted from the light source unit 110 by the light loss. The amplitude A of the received light RX may be calculated as shown in Equation 2 below.

[수학식 2]&Quot; (2) "

Figure pat00002
Figure pat00002

깊이 픽셀 어레이(211)에 포함된 거리 픽셀들 각각에 대한 수신 광(RX)의 진폭(A)에 기초하여 피사체(50)에 대한 흑백 영상 정보가 제공될 수 있다.Black and white image information about the subject 50 may be provided based on the amplitude A of the received light RX for each of the distance pixels included in the depth pixel array 211.

수신 광(RX)은 방출된 광(TX)에 대하여 깊이 센서(210)로부터 피사체(50)의 거리의 두 배에 상응하는 위상 차(φ)만큼 지연된다. 방출된 광(TX)에 대한 수신 광(RX)의 위상 차(φ)는 [수학식 3]과 같이 계산될 수 있다.The received light RX is delayed by the phase difference φ corresponding to twice the distance of the subject 50 from the depth sensor 210 with respect to the emitted light TX. The phase difference φ of the received light RX with respect to the emitted light TX may be calculated as shown in [Equation 3].

[수학식 3]&Quot; (3) "

Figure pat00003
Figure pat00003

방출된 광(TX)에 대한 수신 광(RX)의 위상 차(φ)는 광의 비행 시간(Time-Of-Flight; TOF)에 상응한다. 깊이 센서(210)로부터 피사체(50)의 거리는 수학식 “R = c * TOF / 2”(여기서, R은 피사체(160)의 거리를 나타내고, c는 빛의 속도를 나타낸다)을 이용하여 계산될 수 있다. 또한, 깊이 센서(210)로부터 피사체(50)의 거리는 수신 광(RX)의 위상 차(φ)를 이용하여 [수학식 4]와 같이 계산될 수 있다.The phase difference φ of the received light RX with respect to the emitted light TX corresponds to the time-of-flight (TOF) of the light. The distance of the subject 50 from the depth sensor 210 can be calculated using the equation “R = c * TOF / 2”, where R represents the distance of the subject 160 and c represents the speed of light. Can be. In addition, the distance of the subject 50 from the depth sensor 210 may be calculated using Equation 4 using the phase difference φ of the received light RX.

[수학식 4]&Quot; (4) "

Figure pat00004
Figure pat00004

여기서, f는 변조 주파수, 즉 방출된 광(TX)(또는 수신 광(RX))의 주파수를 나타낸다.Here, f denotes the modulation frequency, that is, the frequency of emitted light TX (or received light RX).

도 4에는 사인파의 형태를 가지도록 변조된 광(TX)을 이용한 예가 도시되어 있으나, 실시예에 따라, 깊이 센서(210)는 다양한 형태의 변조된 광(TX)을 이용할 수 있다. 또한, 깊이 센서(210)는 광(TX)의 세기의 파형, 거리 픽셀의 구조 등에 따라 다양한 방식으로 거리 정보를 추출할 수 있다.4 illustrates an example using light TX modulated to have a sine wave shape, but according to an exemplary embodiment, the depth sensor 210 may use various types of modulated light TX. In addition, the depth sensor 210 may extract the distance information in various ways according to the waveform of the intensity of the light TX, the structure of the distance pixel, and the like.

도 2의 컬러 센서(220)도 도 3의 깊이 센서(210)와 거의 동일한 구조를 가질 수 있으므로 도 2의 컬러 센서(220)의 구조에 대한 상세한 설명은 생략한다. 즉 도 2의 컬러 센서(220)는 컬러 픽셀 어레이, ADC부, 로우 주사 회로, 컬럼 주사 회로 및 제어부를 포함하여 피사체들(50)에 대한 컬러 데이터(CDTA)를 생성할 수 있다.Since the color sensor 220 of FIG. 2 may have substantially the same structure as the depth sensor 210 of FIG. 3, a detailed description of the structure of the color sensor 220 of FIG. 2 will be omitted. That is, the color sensor 220 of FIG. 2 may generate color data CDTA for the subjects 50 including the color pixel array, the ADC unit, the row scan circuit, the column scan circuit, and the controller.

도 5는 본 발명의 다른 실시예에 따른 도 1의 센서부의 구성을 나타내는 블록도이다.5 is a block diagram illustrating a configuration of a sensor unit of FIG. 1 according to another exemplary embodiment of the present disclosure.

도 5를 참조하면, 센서부(200b)는 복수의 컬러 픽셀들과 깊이 픽셀들이 배열된 깊이/컬러 픽셀 어레이(230), 컬러 픽셀 선택 회로(250, 270), 깊이 픽셀 선택 회로(240, 290), 컬러 픽셀 컨버터(260) 및 깊이 픽셀 컨버터(280)를 포함할 수 있다. 컬러 픽셀 선택 회로(250, 270)와 컬러 픽셀 컨버터(260)는 픽셀 어레이(230) 내의 컬러 픽셀을 제어하여 컬러 데이터(CDTA)를 제공하고, 깊이 픽셀 선택 회로(240, 290)와 깊이 픽셀 컨버터(280)는 픽셀 어레이(230) 내의 거리 픽셀을 제어하여 깊이 정보(ZDTA)를 제공한다.Referring to FIG. 5, the sensor unit 200b includes a depth / color pixel array 230 in which a plurality of color pixels and depth pixels are arranged, color pixel selection circuits 250 and 270, and depth pixel selection circuits 240 and 290. ), A color pixel converter 260, and a depth pixel converter 280. The color pixel selection circuits 250 and 270 and the color pixel converter 260 control color pixels in the pixel array 230 to provide color data CDTA, and the depth pixel selection circuits 240 and 290 and depth pixel converters. 280 controls depth pixels in the pixel array 230 to provide depth information ZDTA.

이와 같이 센서부(220b)에서는 영상의 컬러 데이터(CDTA) 및 깊이 데이터(ZDTA)를 제공하기 위하여 컬러 픽셀들을 제어하는 구성 요소들과 거리 픽셀들을 제어하는 구성 요소들이 별도로 구비되어 서로 독립적으로 동작할 수 있다.As such, in the sensor unit 220b, components for controlling the color pixels and components for controlling the distance pixels are separately provided to provide the color data CDTA and the depth data ZDTA of the image. Can be.

도 5에는 비록 도시되지 않았지만, 도 4와 같은 제어 회로가 포함되어 컬러 픽셀 선택 회로(250, 270), 깊이 픽셀 선택 회로(240, 290), 컬러 픽셀 컨버터(260) 및 깊이 픽셀 컨버터(280)를 제어할 수 있다.Although not shown in FIG. 5, a control circuit such as FIG. 4 is included to include the color pixel selection circuits 250 and 270, the depth pixel selection circuits 240 and 290, the color pixel converter 260 and the depth pixel converter 280. Can be controlled.

도 6은 본 발명의 일 실시예에 따른 도 1의 엔진부의 구성을 나타내는 블록도이다.6 is a block diagram illustrating a configuration of the engine unit of FIG. 1 according to an exemplary embodiment of the present invention.

도 6에서는 설명의 편의를 위하여 수광 렌즈(120)와 모터부(130)가 함께 도시되었다.In FIG. 6, the light receiving lens 120 and the motor unit 130 are shown together for convenience of description.

도 6을 참조하면, 엔진부(300)는 제1 이미지 신호 처리기(310), 분리 및 제어부(320) 및 제2 이미지 신호 처리기(330)를 포함할 수 있다.Referring to FIG. 6, the engine unit 300 may include a first image signal processor 310, a separation and control unit 320, and a second image signal processor 330.

제1 이미지 신호 처리기(310)는 깊이 데이터(ZDTA)를 처리하여 피사체들(50)에 대한 깊이 이미지(ZIMG)와 깊이 맵(DM)을 생성한다. 깊이 맵(DM)은 피사체들(50)에 대한 깊이 정보를 포함하고, 깊이 이미지(ZIMG)는 피사체들(50)에 대한 거리 정보를 포함하는 흑백 이미지일 수 있다. 깊이 이미지(ZIMG)는 애플리케이션(400)에 제공될 수 있고, 깊이 맵(DM)은 분리 및 제어부(320)에 제공된다. 분리 및 제어부(320)는 깊이 맵(DM)에 기초하여 깊이 맵(DM) 상에서 피사체들(50)을 분리하고 분리된 피사체에 기초하여 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 생성한다. 제어 신호(CTRL)는 모터부(130)에 제공되고 모터부(130)는 제어 신호(CTRL)에 따라 수광 렌즈(120)의 위치를 이동시켜 수광 렌즈(120)가 분리 및 제어부(320)에서 선택한 피사체에 포커싱되도록 한다. 분리 및 제어부(320)에서 선택한 피사체에 포커싱된 수광 렌즈(120)를 통하여 피사체들(50)로부터의 가시광선(VL)에 기초하여 센서부(200)에서는 컬러 데이터(CDTA)를 제2 이미지 신호 처리기(330)에 제공한다. 제2 이미지 신호 처리기(330)는 컬러 데이터(CDTA)를 처리하여 컬러 이미지(CIMG)를 생성한다.The first image signal processor 310 processes the depth data ZDTA to generate a depth image ZIMG and a depth map DM of the subjects 50. The depth map DM may include depth information about the subjects 50, and the depth image ZIMG may be a black and white image including distance information about the subjects 50. The depth image ZIMG may be provided to the application 400, and the depth map DM may be provided to the separation and control unit 320. The separation and control unit 320 separates the subjects 50 on the depth map DM based on the depth map DM, and provides a control signal CTRL for controlling the light receiving lens 120 based on the separated subject. Create The control signal CTRL is provided to the motor unit 130, and the motor unit 130 moves the position of the light receiving lens 120 according to the control signal CTRL so that the light receiving lens 120 is separated from the control unit 320. Focus on the selected subject. Based on the visible light VL from the subjects 50 through the light receiving lens 120 focused on the subject selected by the separation and control unit 320, the sensor unit 200 receives the color data CDTA as the second image signal. To the processor 330. The second image signal processor 330 processes the color data CDTA to generate a color image CIMG.

즉 본 발명의 일 실시예에 따른 촬상 장치(10)에서는 피사체들(50)에 대한 거리 정보를 기초로 깊이 맵(DM)을 먼저 생성하고, 상기 깊이 맵(DM)을 기초로 포커싱할 피사체를 선택한 다음, 수광 렌즈(120)를 선택된 피사체에 포커싱되도록 이동시킨 다음에 피사체들(50) 각각과 수광 렌즈(120)와의 거리에 따라 피사체들(50) 각각을 컬러 이미지 처리할 수 있다. 즉 피사체들(50) 중 분리 및 제어부(320)에 의하여 선택되어 수광 렌즈(120)에 의하여 포커싱된 피사체에 대하여는 많은 계산량으로 처리하고 나머지 피사체들에 대하여는 좀 더 적은 계산량으로 처리할 수 있다.That is, in the imaging apparatus 10 according to an exemplary embodiment, the depth map DM is first generated based on the distance information of the subjects 50, and the subject to be focused is selected based on the depth map DM. After the selection, the light receiving lens 120 may be moved to focus on the selected object, and then each of the subjects 50 may be color image processed according to the distance between each of the subjects 50 and the light receiving lens 120. That is, the subjects selected by the separation and control unit 320 among the subjects 50 and focused by the light receiving lens 120 may be processed with a large amount of calculation, and the remaining subjects may be processed with a smaller amount of calculation.

도 7은 본 발명의 일 실시예에 따른 도 1의 호스트/애플리케이션을 나타낸다.7 illustrates the host / application of FIG. 1 in accordance with an embodiment of the present invention.

도 7을 참조하면, 호스트/애플리케이션(400)은 컬러 이미지(CIMG)와 깊이 이미지(ZIMG)를 합성하여 스테레오 이미지(SIMG), 즉 3차원 컬러 이미지를 생성할 수 있다. 즉 호스트/애플리케이션(400)은 피사체들(50)에 대한 거리 정보를 포함하는 흑백의 깊이 이미지(ZIMG)와 복수의 피사체들(50) 중 하나에 포커싱되어 처리된 2차원 컬러 이미지를 합성하여 보다 현실감있는 3차원 컬러 이미지(스테레오 이미지)를 제공할 수 있다.Referring to FIG. 7, the host / application 400 may generate a stereo image SIMG, that is, a 3D color image by synthesizing the color image CIMG and the depth image ZIMG. That is, the host / application 400 synthesizes a black-and-white depth image ZIMG including distance information about the subjects 50 and a two-dimensional color image focused and processed on one of the plurality of subjects 50. It can provide a realistic three-dimensional color image (stereo image).

도 8은 복수의 피사체들에 대한 깊이 맵을 나타내고, 도 9a 내지 도 9c는 깊이 맵에서 선택된 피사체를 나타내고, 도 10a 내지 도 10c는 도 9a 내지 도 9c 각각에서 선택된 피사체에 포커싱된 컬러 이미지를 나타낸다.8 illustrates a depth map of a plurality of subjects, FIGS. 9A to 9C show a subject selected in the depth map, and FIGS. 10A to 10C show a color image focused on the selected subject in each of FIGS. 9A to 9C. .

이하 도 1 내지 도 10c를 참조하여 본 발명의 일 실시예에 따른 촬상 장치(10)의 동작을 상세히 설명한다.Hereinafter, operations of the imaging apparatus 10 according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 1 to 10C.

복수의 피사체들(50)이 각각 촬상 장치(10)로부터 서로 다른 거리에 위치하고 있다면, 동일한 송신광(TX)에 대하여 피사체들(50)로부터의 수신광(RX)이 센서부(200)에 도달하는 시간의 차이에 따라 도 8과 같은 깊이 맵(DM)을 얻을 수 있다. 깊이 맵(DM) 상에서 사용자가 도 9a에서와 같이 피사체(SO1)를 선택하면, 분리 및 제어부(320)는 선택된 피사체(SO1)에 포커싱 되도록 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 모터부(130)에 제공한다. 모터부(130)는 제어 신호(CTRL)에 따라서 수광 렌즈(120)를 이동시켜(예를 들어 센서부(200) 쪽으로), 수광 렌즈(120)의 초점을 선택된 피사체(SO1)에 맞춘다. 선택된 피사체(SO1)에 포커싱된 수광 렌즈(120)를 통하여 피사체들(50)로부터의 가시광선에 기초하여 센서부(200)는 컬러 데이터(CDTA)를 생성하고, 엔진부(300)의 제2 이미지 신호 처리기(330)는 컬러 데이터(CDTA)를 처리하여 도 10a와 같은 컬러 이미지(CIMG)를 제공할 수 있다.If the plurality of subjects 50 are located at different distances from the imaging apparatus 10, the received light RX from the subjects 50 reaches the sensor unit 200 with respect to the same transmission light TX. The depth map DM as shown in FIG. 8 can be obtained according to the time difference. When the user selects the subject SO1 on the depth map DM as shown in FIG. 9A, the separation and control unit 320 controls the light receiving lens 120 to focus on the selected subject SO1. To the motor unit 130. The motor unit 130 moves the light receiving lens 120 according to the control signal CTRL (for example, toward the sensor unit 200) to adjust the focus of the light receiving lens 120 to the selected object SO1. The sensor unit 200 generates color data CDTA based on the visible light from the subjects 50 through the light receiving lens 120 focused on the selected subject SO1, and generates the second data of the engine unit 300. The image signal processor 330 may process the color data CDTA to provide a color image CIMG as shown in FIG. 10A.

예를 들어, 깊이 맵(DM) 상에서 사용자가 도 9b에서와 같이 피사체(SO2)를 선택하면, 분리 및 제어부(320)는 선택된 피사체(SO2)에 포커싱 되도록 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 모터부(130)에 제공한다. 모터부(130)는 제어 신호(CTRL)에 따라서 수광 렌즈(120)를 이동시켜(예를 들어 센서부(200) 또는 피사체(50) 쪽으로), 수광 렌즈(120)의 초점을 선택된 피사체(SO2)에 맞춘다. 선택된 피사체(SO2)에 포커싱된 수광 렌즈(120)를 통하여 피사체들(50)로부터의 가시광선에 기초하여 센서부(200)는 컬러 데이터(CDTA)를 생성하고, 엔진부(300)의 제2 이미지 신호 처리기(330)는 컬러 데이터(CDTA)를 처리하여 도 10b와 같은 컬러 이미지(CIMG)를 제공할 수 있다.For example, when the user selects the subject SO2 on the depth map DM as shown in FIG. 9B, the separation and control unit 320 controls to control the light receiving lens 120 to focus on the selected subject SO2. The signal CTRL is provided to the motor unit 130. The motor unit 130 moves the light receiving lens 120 according to the control signal CTRL (for example, toward the sensor unit 200 or the subject 50), and focuses the light receiving lens 120 on the selected object SO2. ) The sensor unit 200 generates color data CDTA based on the visible light from the subjects 50 through the light receiving lens 120 focused on the selected subject SO2, and generates a second data of the engine unit 300. The image signal processor 330 may process the color data CDTA to provide a color image CIMG as shown in FIG. 10B.

예들 들어, 깊이 맵(DM) 상에서 사용자가 도 9c에서와 같이 피사체(SO3)를 선택하면, 분리 및 제어부(320)는 선택된 피사체(SO3)에 포커싱 되도록 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 모터부(130)에 제공한다. 모터부(130)는 제어 신호(CTRL)에 따라서 수광 렌즈(120)를 이동시켜(예를 들어 피사체(50) 쪽으로), 수광 렌즈(120)의 초점을 선택된 피사체(SO3)에 맞춘다. 선택된 피사체(SO3)에 포커싱된 수광 렌즈(120)를 통하여 피사체들(50)로부터의 가시광선에 기초하여 센서부(200)는 컬러 데이터(CDTA)를 생성하고, 엔진부(300)의 제2 이미지 신호 처리기(330)는 컬러 데이터(CDTA)를 처리하여 도 10c와 같은 컬러 이미지(CIMG)를 제공할 수 있다.For example, when the user selects the subject SO3 on the depth map DM as shown in FIG. 9C, the separation and control unit 320 controls the light receiving lens 120 to focus on the selected subject SO3. The CTRL is provided to the motor unit 130. The motor unit 130 moves the light receiving lens 120 (for example, toward the subject 50) according to the control signal CTRL to adjust the focus of the light receiving lens 120 to the selected subject SO3. The sensor unit 200 generates color data CDTA based on the visible light from the subjects 50 through the light receiving lens 120 focused on the selected subject SO3, and generates a second data of the engine unit 300. The image signal processor 330 may process the color data CDTA to provide a color image CIMG as shown in FIG. 10C.

도 11은 본 발명의 다른 실시예에 따른 촬상 장치를 나타내는 블록도이다.11 is a block diagram showing an image pickup device according to another embodiment of the present invention.

도 11을 참조하면, 촬상 장치(20)는 센서 모듈(500), 수광 렌즈(520) 및 엔진부(700)를 포함한다. 촬상 장치(20)는 애플리케이션(700)을 더 포함할 수도 있다. 센서 모듈(500)은 광원부(510) 및 센서부(600)를 포함할 수 있다. 광원부(510)는 광원(511) 및 렌즈(512)를 포함할 수 있다. 실시예에 따라 센서부(600) 및 광원부(510)는 각각 별도의 장치로 구현되거나, 광원부(510)의 적어도 일부의 구성이 센서부(600)에 포함되도록 구현될 수 있다.Referring to FIG. 11, the imaging device 20 includes a sensor module 500, a light receiving lens 520, and an engine unit 700. The imaging device 20 may further include an application 700. The sensor module 500 may include a light source unit 510 and a sensor unit 600. The light source unit 510 may include a light source 511 and a lens 512. According to an exemplary embodiment, the sensor unit 600 and the light source unit 510 may be implemented as separate devices, or at least some components of the light source unit 510 may be included in the sensor unit 600.

수광 렌즈(520)는 센서부(600)의 수광 영역(예를 들어 센서부(600)에 포함되는 픽셀 어레이에 포함되는 거리 픽셀들 및/또는 컬러 픽셀들)으로 입사광을 집광시킬 수 있다. 센서부(600)는 복수의 피사체들(60)로부터 반사된 수신광(RX)에 기초하여 복수의 피사체들(50)에 대한 거리 정보를 포함하는 깊이 데이터(ZDATA)를 생성하고, 피사체들(60)로부터의 가시광선(VL)에 기초하여 피사체들(60)에 대한 컬러 정보를 포함하는 컬러 데이터(CDTA)를 엔진부(700)에 제공한다. 엔진부(800)는 깊이 데이터(ZDTA)를 기초로 피사체들(60)에 대한 거리 정보를 포함하는 깊이 맵을 생성하고, 상기 생성된 깊이 맵을 기초로 상기 컬러 데이터(CDTA)에 대하여 이미지 블러링 처리를 수행할 수 있다.The light receiving lens 520 may collect incident light into a light receiving area of the sensor unit 600 (eg, distance pixels and / or color pixels included in the pixel array included in the sensor unit 600). The sensor unit 600 generates depth data ZDATA including distance information about the plurality of subjects 50 based on the received light RX reflected from the plurality of subjects 60, and the subjects ( The engine unit 700 provides the color data CDTA including the color information of the subjects 60 based on the visible light VL from the 60. The engine unit 800 generates a depth map including distance information about the subjects 60 based on the depth data ZDTA, and blurs an image on the color data CDTA based on the generated depth map. Ring processing can be performed.

광원부(510)의 광원(511)은 적외선 또는 근적외선을 생성하고, 렌즈(512)는 적외선 또는 근적외선이 피사체들(60)에 포커싱되도록 한다.The light source 511 of the light source unit 510 generates infrared or near infrared rays, and the lens 512 allows the infrared or near infrared rays to focus on the subjects 60.

센서 모듈(500)은 클록 신호(CLK)에 기초하여 깊이 데이터(ZDTA) 및또는 컬러 데이터(CDTA)를 포함하는 데이터(DATA1)를 엔진부(800)에 제공할 수 있다. 실시예에 따라, 센서 모듈(200)은 MIPI(Mobile Industry Processor Interface) 및/또는 CSI(Camera Serial Interface)를 통하여 엔진부(300)와 인터페이싱할 수 있다.The sensor module 500 may provide the engine unit 800 with data DATA1 including the depth data ZDTA and the color data CDTA based on the clock signal CLK. According to an embodiment, the sensor module 200 may interface with the engine unit 300 through a mobile industry processor interface (MIPI) and / or a camera serial interface (CSI).

엔진부(700)는 센서 모듈(500)을 제어하고 엔진부(700)는 센서부(600)로부터 수신된 데이터(DATA1)를 처리할 수 있다. 예를 들어, 엔진부(700)는 센서부(700)로부터 수신된 데이터(DATA1)에 기초하여 입체 컬러 데이터(스테레오 데이터)를 생성할 수 있다. 다른 예에서, 엔진부(700)는 데이터(DATA1)에 포함된 상기 RGB 데이터에 기초하여 휘도 성분, 상기 휘도 성분과 청색 성분의 차, 및 휘도 성분과 적색 성분의 차를 포함하는 YUV 데이터를 생성하거나, 압축 데이터, 예를 들어 JPEG(Joint Photography Experts Group) 데이터를 생성할 수 있다. 엔진부(700)는 호스트/어플리케이션(800)에 연결될 수 있으며, 엔진부(300)는 마스터 클록(MCLK)에 기초하여 데이터(DATA2)를 호스트/어플리케이션(400)에 제공할 수 있다. 또한, 엔진부(700)는 SPI(Serial Peripheral Interface) 및/또는 I2C(Inter Integrated Circuit)를 통하여 호스트/어플리케이션(400)과 인터페이싱할 수 있다.The engine unit 700 may control the sensor module 500, and the engine unit 700 may process data DATA1 received from the sensor unit 600. For example, the engine unit 700 may generate stereoscopic color data (stereo data) based on the data DATA1 received from the sensor unit 700. In another example, the engine unit 700 generates YUV data including a luminance component, a difference between the luminance component and a blue component, and a difference between the luminance component and a red component based on the RGB data included in the data DATA1. Or compressed data, for example, Joint Photography Experts Group (JPEG) data. The engine unit 700 may be connected to the host / application 800, and the engine unit 300 may provide data DATA2 to the host / application 400 based on the master clock MCLK. In addition, the engine unit 700 may interface with the host / application 400 through a Serial Peripheral Interface (SPI) and / or an Inter Integrated Circuit (I2C).

도 11의 실시예에서 수광 렌즈(520)는 상대적으로 긴 심도(depth of field)를 가질 수 있다. 즉 수광 렌즈(520)의 초점은 피사체들(60) 모두를 커버할 수 있다.In the embodiment of FIG. 11, the light receiving lens 520 may have a relatively long depth of field. That is, the focus of the light receiving lens 520 may cover all of the subjects 60.

센서부(600)는 도 2의 센서부(200a) 또는 도 5의 센서부(200b)와 실질적으로 동일한 구조를 갖을 수 있기 때문에, 센서부(600)의 구성과 동작에 대한 상세한 설명은 생략한다. 즉 센서부(600)는 복수의 깊이 픽셀들을 포함하는 깊이 픽셀 어레이를 구비하는 깊이 센서와 복수의 컬러 픽셀들을 포함하는 컬러 픽셀 어레이를 구비하는 컬러 센서가 서로 분리되어 구현될 수도 있고, 복수의 컬러 픽셀들과 깊이 픽셀들이 배열된 픽셀 어레이를 포함하는 깊이/컬러 센서로 구현될 수도 있다.Since the sensor unit 600 may have a structure substantially the same as that of the sensor unit 200a of FIG. 2 or the sensor unit 200b of FIG. 5, a detailed description of the configuration and operation of the sensor unit 600 will be omitted. . That is, the sensor unit 600 may be implemented in which a depth sensor having a depth pixel array including a plurality of depth pixels and a color sensor having a color pixel array including a plurality of color pixels are separated from each other. It may also be implemented with a depth / color sensor comprising a pixel array in which pixels and depth pixels are arranged.

도 12는 본 발명의 일 실시예에 따른 도 11의 엔진부의 구성을 나타내는 블록도이다.12 is a block diagram illustrating a configuration of the engine unit of FIG. 11 according to an embodiment of the present invention.

도 12를 참조하면, 엔진부(700)는 제1 이미지 신호 처리기(710), 분리부(720), 제2 이미지 신호 처리기(730) 및 이미지 블러링 처리부(740)를 포함할 수 있다. 제1 이미지 신호 처리기(710)는 깊이 데이터(ZDTA)를 처리하여 피사체들(60)에 대한 깊이 이미지(ZIMG)와 깊이 맵(DM)을 생성한다. 깊이 이미지(ZIMG)는 애플리케이션(800)에 제공될 수 있고, 깊이 맵(DM)은 분리부(720)에 제공된다. 분리부(720)는 깊이 맵(DM)에 기초하여 피사체들(60)을 분리(피사체들 중 하나를 선택)하고, 분리된 피사체들에 관한 분리 데이터(SDTA)를 제공한다. 제2 이미지 신호 처리기(730)는 컬러 데이터(CDTA)를 처리하여 피사체들(60)에 대한 컬러 이미지(CIMG)를 생성한다. 컬러 이미지(CIMG)는 블러링 처리부(740)에 제공된다. 블러링 처리부(740)는 분리 데이터(SDTA)에 기초하여 컬러 이미지(CIMG) 중에서 분리부(720)에서 선택된 피사체를 기준으로 하여 나머지 피사체들에 대하여 블러링 처리를 하여 블러링된 컬러 이미지(BCIMG)를 생성한다. 예들 들어 블러링 처리부(740)는 컬러 이미지(CIMG) 중에서 선택된 피사체는 그대로 유지하고 나머지 피사체들은 선택된 피사체와의 상대적 거리를 바탕으로 하여 나머지 피사체들에 대하여 서로 다른 블러 레벨로 블러링 처리를 수행할 수 있다.Referring to FIG. 12, the engine unit 700 may include a first image signal processor 710, a separation unit 720, a second image signal processor 730, and an image blur processing unit 740. The first image signal processor 710 processes the depth data ZDTA to generate a depth image ZIMG and a depth map DM of the subjects 60. The depth image ZIMG may be provided to the application 800, and the depth map DM is provided to the separator 720. The separating unit 720 separates the subjects 60 (select one of the subjects) based on the depth map DM, and provides separation data SDTA about the separated subjects. The second image signal processor 730 processes the color data CDTA to generate a color image CIMG of the subjects 60. The color image CIMG is provided to the blur processing unit 740. The blur processing unit 740 blurs the remaining subjects on the basis of the subject selected by the separating unit 720 among the color images CIMG based on the separation data SDTA, and blurs the color image BCIMG. ) For example, the blur processing unit 740 maintains the selected subject in the color image CIMG and performs the blurring process on the remaining subjects at different blur levels based on the relative distance from the selected subject. Can be.

도 13은 본 발명의 일 실시예에 따른 도 11의 호스트/애플리케이션을 나타낸다.13 illustrates the host / application of FIG. 11 in accordance with an embodiment of the present invention.

도 13을 참조하면, 호스트/애플리케이션(800)은 블러링된 컬러 이미지(BCIMG)와 깊이 이미지(ZIMG)를 합성하여 스테레오 이미지(SIMG), 즉 블러링 효과를 포함하는 3차원 컬러 이미지를 생성할 수 있다. 즉 호스트/애플리케이션(800)은 피사체들(60)에 대한 거리 정보를 포함하는 흑백의 깊이 이미지(ZIMG)와 거리 정보에 기초한 깊이 맵(DM)을 기초로 생성된 분리 데이터(SDTA)에 기초하여 피사체들(60) 중 선택된 피사체를 유지하고 나머지 피사체들은 블러링 처리를 한 블러링된 컬러 이미지(BCIMG)를 합성하여 보다 현실감 있는 3차원 컬러 이미지(스테레오 이미지)를 제공할 수 있다.Referring to FIG. 13, the host / application 800 synthesizes the blurred color image BCIMG and the depth image ZIMG to generate a stereo image SIMG, that is, a three-dimensional color image including a blurring effect. Can be. That is, the host / application 800 is based on the black and white depth image ZIMG including the distance information about the subjects 60 and the separated data SDTA based on the depth map DM based on the distance information. The selected subject may be maintained among the subjects 60, and the remaining subjects may be synthesized with a blurred color image BCIMG to provide a more realistic three-dimensional color image (stereo image).

도 14는 복수의 피사체들에 대한 컬러 이미지를 나타내고, 도 15는 복수의 피사체들에 대한 깊이 맵을 나타내고, 도 16a 내지 도 16c는 선택된 피사체를 기준으로 블러링 처리가 수행된 경우의 블러링된 컬러 이미지를 나타낸다. 설명의 편의를 위하여 도 15a의 깊이 맵에서 도 도 9a 내지 도 9c에서와 같이 피사체가 선택된 경우가 도 16a 내지 도 16c의 블러링된 컬러 이미지이다.14 illustrates a color image of a plurality of subjects, FIG. 15 illustrates a depth map of a plurality of subjects, and FIGS. 16A to 16C show blurring when a blurring process is performed based on a selected subject. Represents a color image. For convenience of description, when the subject is selected as shown in FIGS. 9A to 9C in the depth map of FIG. 15A, the blurred color image of FIGS. 16A to 16C is illustrated.

이하 도 11 내지 도 16c를 참조하여 본 발명의 다른 실시예에 따른 촬상 장치(20)의 동작을 상세히 설명한다.Hereinafter, operations of the imaging apparatus 20 according to another exemplary embodiment of the present invention will be described in detail with reference to FIGS. 11 to 16C.

복수의 피사체들(60)이 각각 촬상 장치(20)로부터 서로 다른 거리에 위치하고 있다면, 동일한 송신광(TX)에 대하여 피사체들(60)로부터의 수신광(RX)이 센서부(600)에 도달하는 시간의 차이에 따라 도 15와 같은 깊이 맵(DM)을 얻을 수 있다. 이 때, 수광 렌즈(520)는 상대적으로 긴 심도(depth of field)를 가지기 때문에 복수의 피사체들(60)이 각각 촬상 장치(20)로부터 서로 다른 거리에 위치하고 있더라도 복수의 피사체들(60)에 대한 컬러 이미지(CIMG)는 도 14와 같다. 즉 복수의 피사체들(60) 각각이 모두 초점이 맞아 명확히 나타난다.If the plurality of subjects 60 are located at different distances from the imaging device 20, the received light RX from the subjects 60 reaches the sensor unit 600 with respect to the same transmission light TX. According to the difference in time, a depth map DM as shown in FIG. 15 may be obtained. In this case, since the light receiving lens 520 has a relatively long depth of field, even if the plurality of subjects 60 are located at different distances from the imaging device 20, The color image CIMG is as shown in FIG. 14. That is, each of the plurality of subjects 60 is in focus and clearly appears.

예들 들어, 깊이 맵(DM) 상에서 도 9a에서와 같이 피사체(SO1)가 선택되면, 분리부(720)는 선택된 피사체(SO1)를 나타내는 분리 데이터(SDTA)를 이미지 블러링 처리부(740)에 제공하고, 이미지 블러링 처리부(740)에서는 선택된 피사체(SO1)를 제외한 나머지 피사체들 각각의 깊이 정보에 따라 나머지 피사체들에 대하여 블러링 처리를 수행하여 도 16a와 같은 블러링된 컬러 이미지(BCIMG)를 생성한다. 예들 들어, 깊이 맵(DM) 상에서 도 9b에서와 같이 피사체(SO2)를 선택되면, 분리부(720)는 선택된 피사체(SO2)를 나타내는 분리 데이터(SDTA)를 이미지 블러링 처리부(740)에 제공하고, 이미지 블러링 처리부(740)에서는 선택된 피사체(SO2)를 제외한 나머지 피사체들 각각의 깊이 정보에 따라 나머지 피사체들에 대하여 블러링 처리를 수행하여 도 16b와 같은 블러링된 컬러 이미지(BCIMG)를 생성한다. 예들 들어, 깊이 맵(DM) 상에서 도 9c에서와 같이 피사체(SO3)를 선택되면, 분리부(720)는 선택된 피사체(SO3)를 나타내는 분리 데이터(SDTA)를 이미지 블러링 처리부(740)에 제공하고, 이미지 블러링 처리부(740)에서는 선택된 피사체(SO3)를 제외한 나머지 피사체들 각각의 깊이 정보에 따라 나머지 피사체들에 대하여 블러링 처리를 수행하여 도 16b와 같은 블러링된 컬러 이미지(BCIMG)를 생성한다.For example, when the object SO1 is selected on the depth map DM as shown in FIG. 9A, the separation unit 720 provides the separation data SDTA representing the selected object SO1 to the image blur processing unit 740. In addition, the image blur processing unit 740 performs a blurring process on the remaining subjects according to depth information of each of the remaining subjects except for the selected subject SO1 to perform the blurred color image BCIMG as illustrated in FIG. 16A. Create For example, when the object SO2 is selected as shown in FIG. 9B on the depth map DM, the separation unit 720 provides the separation data SDTA representing the selected object SO2 to the image blur processing unit 740. In addition, the image blur processing unit 740 performs a blurring process on the remaining subjects according to the depth information of each of the remaining subjects except for the selected subject SO2 to generate the blurred color image BCIMG as shown in FIG. 16B. Create For example, when the object SO3 is selected as shown in FIG. 9C on the depth map DM, the separation unit 720 provides the separation data SDTA representing the selected object SO3 to the image blur processing unit 740. In addition, the image blur processing unit 740 performs a blurring process on the remaining subjects according to depth information of each of the remaining subjects except for the selected subject SO3 to generate the blurred color image BCIMG as illustrated in FIG. 16B. Create

도 17은 본 발명의 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.17 is a flowchart illustrating an image processing method according to an embodiment of the present invention.

도 1내지 도 10 및 도 17을 참조하면, 촬상 장치(10)의 센서 모듈(100)에서 피사체들(50)에 대한 거리 정보를 포함하는 깊이 데이터(ZDTA)를 생성한다(S110). 엔진부(300)에서 깊이 데이터(ZDTA)를 기초로 깊이 맵(DM)을 생성한다(S120). 깊이 맵(DM) 상에서 피사체들을 분리하고, 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 생성한다(S130). 제어 신호(CTRL)에 따라 모터부(130)에서 수광 렌즈(120)의 포커스를 제어하여 분리된 피사체에 포커스를 맞춘다(S140). 포커스가 제어된 수광 렌즈(120)를 통하여 집광된 가시광선에 기초하여 피사체들(50)에 대한 컬러 데이터(CDTA)를 센서 모듈(100)에서 생성한다(S150). 실시예에 있어서, 수광 렌즈(120)는 상대적으로 짧은 심도(depth of field)를 가질 수 있다. 즉 수광 렌즈(120)의 초점은 피사체들(50) 중 어느 하나에만 맞춰질 수 있다.1 to 10 and 17, the sensor module 100 of the imaging apparatus 10 generates depth data ZDTA including distance information about the subjects 50 (S110). The engine unit 300 generates a depth map DM based on the depth data ZDTA (S120). The subjects are separated on the depth map DM, and a control signal CTRL for controlling the light receiving lens 120 is generated (S130). The motor unit 130 controls the focus of the light receiving lens 120 according to the control signal CTRL to focus on the separated subject (S140). The sensor module 100 generates color data CDTA for the subjects 50 based on the visible light collected through the focus-controlled light receiving lens 120 (S150). In an embodiment, the light receiving lens 120 may have a relatively short depth of field. That is, the focus of the light receiving lens 120 may be focused only on any one of the subjects 50.

도 18은 본 발명의 다른 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.18 is a flowchart illustrating an image processing method according to another exemplary embodiment of the present invention.

도 11 내지 도 16 및 도 18을 참조하면, 센서 모듈(500)에서 피사체들(60)에 대한 거리 정보를 포함하는 깊이 데이터(ZDTA)를 생성한다(S210). 센서 모듈(500)에서 피사체들(60)에 대한 영상 정보를 포함하는 컬러 데이터(CDTA)를 생성한다(S220). 엔진부(700)에서 깊이 데이터(ZDTA)를 기초로 깊이 맵(DM)을 생성한다(S230). 엔진부(700)에서 깊이 맵(DM) 상에서 피사체들을 분리하고, 분리된 피사체를 나타내는 분리 데이터(SDTA)를 생성한다(S240). 엔진부(700)에서, 분리 데이터(SDTA)에 기초하여 컬러 데이터(CDTA)에 대한 이미지 블러링 처리를 수행하여 블러링된 컬러 이미지(BCIMG)를 생성한다(S250). 실시예에서 수광 렌즈(520)는 상대적으로 긴 심도(depth of field)를 가질 수 있다. 즉 수광 렌즈(520)의 초점은 피사체들(60) 모두를 커버할 수 있다.11 through 16 and 18, the sensor module 500 generates depth data ZDTA including distance information about the subjects 60 (S210). The sensor module 500 generates color data CDTA including image information of the subjects 60 in operation S220. The engine unit 700 generates a depth map DM based on the depth data ZDTA (S230). The engine unit 700 separates the subjects from the depth map DM, and generates separation data SDTA indicating the separated subjects (S240). The engine unit 700 performs an image blurring process on the color data CDTA based on the separation data SDTA to generate a blurred color image BCIMG (S250). In an embodiment, the light receiving lens 520 may have a relatively long depth of field. That is, the focus of the light receiving lens 520 may cover all of the subjects 60.

도 19는 본 발명의 일 실시예에 따른 촬상 장치를 컴퓨팅 시스템에 응용한 예를 나타내는 블록도이다.19 is a block diagram illustrating an example in which an imaging device according to an embodiment of the present invention is applied to a computing system.

도 19를 참조하면, 컴퓨팅 시스템(1000)은 프로세서(1010), 메모리 장치(1020), 저장 장치(1030), 입출력 장치(1040), 파워 서플라이(1050) 및 촬상 장치(900)를 포함할 수 있다. 한편, 도 33에는 도시되지 않았지만, 컴퓨팅 시스템(1000)은 비디오 카드, 사운드 카드, 메모리 카드, USB 장치 등과 통신하거나, 또는 다른 전자 기기들과 통신할 수 있는 포트(port)들을 더 포함할 수 있다.Referring to FIG. 19, the computing system 1000 may include a processor 1010, a memory device 1020, a storage device 1030, an input / output device 1040, a power supply 1050, and an imaging device 900. have. Although not shown in FIG. 33, the computing system 1000 may further include ports for communicating with a video card, a sound card, a memory card, a USB device, or the like, or communicating with other electronic devices. .

프로세서(1010)는 특정 계산들 또는 태스크(task)들을 수행할 수 있다. 실시예에 따라, 프로세서(1010)는 마이크로프로세서(micro-processor), 중앙 처리 장치(Central Processing Unit; CPU)일 수 있다. 프로세서(1010)는 어드레스 버스(address bus), 제어 버스(control bus) 및 데이터 버스(data bus)를 통하여 메모리 장치(1020), 저장 장치(1030) 및 입출력 장치(1040)와 통신을 수행할 수 있다. 실시예에 따라, 프로세서(1010)는 주변 구성요소 상호연결(Peripheral Component Interconnect; PCI) 버스와 같은 확장 버스에도 연결될 수 있다. 메모리 장치(1020)는 컴퓨팅 시스템(1000)의 동작에 필요한 데이터를 저장할 수 있다. 예를 들어, 메모리 장치(1020)는 디램(DRAM), 모바일 디램, 에스램(SRAM), 피램(PRAM), 에프램(FRAM), 알램(RRAM) 및/또는 엠램(MRAM)으로 구현될 수 있다. 저장 장치(1030)는 솔리드 스테이트 드라이브(solid state drive), 하드 디스크 드라이브(hard disk drive), 씨디롬(CD-ROM) 등을 포함할 수 있다. 입출력 장치(1040)는 키보드, 키패드, 마우스 등과 같은 입력 수단 및 프린터, 디스플레이 등과 같은 출력 수단을 포함할 수 있다. 파워 서플라이(1050)는 전자 기기(1000)의 동작에 필요한 동작 전압을 공급할 수 있다.Processor 1010 may perform certain calculations or tasks. According to an embodiment, the processor 1010 may be a micro-processor, a central processing unit (CPU). The processor 1010 may communicate with the memory device 1020, the storage device 1030, and the input / output device 1040 through an address bus, a control bus, and a data bus. have. In accordance with an embodiment, the processor 1010 may also be coupled to an expansion bus, such as a Peripheral Component Interconnect (PCI) bus. The memory device 1020 may store data necessary for the operation of the computing system 1000. For example, the memory device 1020 may be embodied as DRAM, mobile DRAM, SRAM, PRAM, FRAM, RRAM, and / or MRAM. have. The storage device 1030 may include a solid state drive, a hard disk drive, a CD-ROM, and the like. The input / output device 1040 may include input means such as a keyboard, a keypad, a mouse, and the like, and output means such as a printer or a display. The power supply 1050 can supply the operating voltage required for operation of the electronic device 1000. [

촬상 장치(900)는 상기 버스들 또는 다른 통신 링크를 통해서 프로세서(1010)와 연결되어 통신을 수행할 수 있다. 상술한 바와 같이, 촬상 장치(900)는 먼저 피사체들에 대한 거리 정보를 기초로 깊이 맵을 생성하고 깊이 맵에 따라서 수광 렌즈의 포커스를 조절할 수 있다. 또는 촬상 장치(900)는 피사체들에 대한 깊이 맵을 기초로 피사체들에 대한 컬러 이미지에 대한 블러링 처리를 수행하여 3차원 현실감을 향상시킬 수 있다. 촬상 장치(900)는 프로세서(1010)와 함께 하나의 칩에 집적될 수도 있고, 서로 다른 칩에 각각 집적될 수도 있다.The imaging device 900 may be connected to the processor 1010 through the buses or other communication links to perform communication. As described above, the imaging apparatus 900 may first generate a depth map based on the distance information on the subjects, and adjust the focus of the light receiving lens according to the depth map. Alternatively, the imaging apparatus 900 may improve the 3D reality by performing a blurring process on the color images of the subjects based on the depth map of the subjects. The imaging apparatus 900 may be integrated on one chip together with the processor 1010 or may be integrated on different chips, respectively.

촬상 장치(900)는 다양한 형태들의 패키지로 구현될 수 있다. 예를 들어, 3차원 이미지 센서(900)의 적어도 일부의 구성들은 PoP(Package on Package), Ball grid arrays(BGAs), Chip scale packages(CSPs), Plastic Leaded Chip Carrier(PLCC), Plastic Dual In-Line Package(PDIP), Die in Waffle Pack, Die in Wafer Form, Chip On Board(COB), Ceramic Dual In-Line Package(CERDIP), Plastic Metric Quad Flat Pack(MQFP), Thin Quad Flatpack(TQFP), Small Outline(SOIC), Shrink Small Outline Package(SSOP), Thin Small Outline(TSOP), Thin Quad Flatpack(TQFP), System In Package(SIP), Multi Chip Package(MCP), Wafer-level Fabricated Package(WFP), Wafer-Level Processed Stack Package(WSP) 등과 같은 패키지들을 이용하여 실장될 수 있다.The imaging device 900 may be implemented in various types of packages. For example, at least some components of the three-dimensional image sensor 900 may be packaged on packages (PoP), ball grid arrays (BGAs), chip scale packages (CSPs), plastic leaded chip carriers (PLCC), plastic dual in- Line Package (PDIP), Die in Waffle Pack, Die in Wafer Form, Chip On Board (COB), Ceramic Dual In-Line Package (CERDIP), Plastic Metric Quad Flat Pack (MQFP), Thin Quad Flatpack (TQFP), Small Outline (SOIC), Shrink Small Outline Package (SSOP), Thin Small Outline (TSOP), Thin Quad Flatpack (TQFP), System In Package (SIP), Multi Chip Package (MCP), Wafer-level Fabricated Package (WFP), It can be implemented using packages such as Wafer-Level Processed Stack Package (WSP).

한편, 컴퓨팅 시스템(1000)은 촬상 장치를 이용하는 모든 컴퓨팅 시스템으로 해석되어야 할 것이다. 예를 들어, 컴퓨팅 시스템(1000)은 디지털 카메라, 이동 전화기, 피디에이(Personal Digital Assistants; PDA), 피엠피(Portable Multimedia Player; PMP), 스마트폰 등을 포함할 수 있다.Meanwhile, the computing system 1000 should be interpreted as all computing systems using the imaging device. For example, the computing system 1000 may include a digital camera, a mobile phone, a personal digital assistant (PDA), a portable multimedia player (PMP), a smart phone, and the like.

도 20은 도 19의 컴퓨팅 시스템에서 사용되는 인터페이스의 일 예를 나타내는 블록도이다.20 is a block diagram illustrating an example of an interface used in the computing system of FIG. 19.

도 20을 참조하면, 컴퓨팅 시스템(1100)은 MIPI 인터페이스를 사용 또는 지원할 수 있는 데이터 처리 장치로 구현될 수 있고, 어플리케이션 프로세서(1110), 촬상 장치(1140) 및 디스플레이(1150) 등을 포함할 수 있다. 어플리케이션 프로세서(1110)의 CSI 호스트(1112)는 카메라 시리얼 인터페이스(Camera Serial Interface; CSI)를 통하여 3차원 이미지 센서(1140)의 CSI 장치(1141)와 시리얼 통신을 수행할 수 있다. 일 실시예에서, CSI 호스트(1112)는 디시리얼라이저(DES)를 포함할 수 있고, CSI 장치(1141)는 시리얼라이저(SER)를 포함할 수 있다. 어플리케이션 프로세서(1110)의 DSI 호스트(1111)는 디스플레이 시리얼 인터페이스(Display Serial Interface; DSI)를 통하여 디스플레이(1150)의 DSI 장치(1151)와 시리얼 통신을 수행할 수 있다.Referring to FIG. 20, the computing system 1100 may be implemented as a data processing device capable of using or supporting a MIPI interface, and may include an application processor 1110, an imaging device 1140, a display 1150, and the like. have. The CSI host 1112 of the application processor 1110 may perform serial communication with the CSI device 1141 of the 3D image sensor 1140 through a camera serial interface (CSI). In one embodiment, the CSI host 1112 may include a deserializer (DES), and the CSI device 1141 may include a serializer (SER). The DSI host 1111 of the application processor 1110 may perform serial communication with the DSI device 1151 of the display 1150 through a display serial interface (DSI).

일 실시예에서, DSI 호스트(1111)는 시리얼라이저(SER)를 포함할 수 있고, DSI 장치(1151)는 디시리얼라이저(DES)를 포함할 수 있다. 나아가, 컴퓨팅 시스템(1100)은 어플리케이션 프로세서(1110)와 통신을 수행할 수 있는 알에프(Radio Frequency; RF) 칩(1160)을 더 포함할 수 있다. 컴퓨팅 시스템(1100)의 PHY(1113)와 RF 칩(1160)의 PHY(1161)는 MIPI(Mobile Industry Processor Interface) DigRF에 따라 데이터 송수신을 수행할 수 있다. 또한, 어플리케이션 프로세서(1110)는 PHY(1161)의 MIPI DigRF에 따른 데이터 송수신을 제어하는 DigRF MASTER(1114)를 더 포함할 수 있다.In one embodiment, the DSI host 1111 may include a serializer (SER), and the DSI device 1151 may include a deserializer (DES). Further, the computing system 1100 may further include a Radio Frequency (RF) chip 1160 capable of communicating with the application processor 1110. The PHY 1113 of the computing system 1100 and the PHY 1161 of the RF chip 1160 may perform data transmission / reception in accordance with Mobile Industry Processor Interface (MIPI) DigRF. In addition, the application processor 1110 may further include a DigRF MASTER 1114 for controlling data transmission and reception according to the MIPI DigRF of the PHY 1161.

한편, 컴퓨팅 시스템(1100)은 지피에스(Global Positioning System; GPS)(1120), 스토리지(1170), 마이크(1180), 디램(Dynamic Random Access Memory; DRAM)(1185) 및 스피커(1190)를 포함할 수 있다. 또한, 컴퓨팅 시스템(1100)은 초광대역(Ultra WideBand; UWB)(1210), 무선 랜(Wireless Local Area Network; WLAN)(1220) 및 와이맥스(Worldwide Interoperability for Microwave Access; WIMAX)(1230) 등을 이용하여 통신을 수행할 수 있다. 다만, 컴퓨팅 시스템(1100)의 구조 및 인터페이스는 하나의 예시로서 이에 한정되는 것이 아니다.The computing system 1100 may include a Global Positioning System (GPS) 1120, a storage 1170, a microphone 1180, a dynamic random access memory (DRAM) 1185, and a speaker 1190. Can be. In addition, the computing system 1100 utilizes an ultra wideband (UWB) 1210, a wireless local area network (WLAN) 1220, a worldwide interoperability for microwave access (WIMAX) 1230, and the like. Communication can be performed. However, the structure and interface of the computing system 1100 is one example and is not limited thereto.

본 발명의 실시예들에 따른 촬상 장치는 입체 컬러 이미지를 제공하기 위하여 임의의 광감지 장치에 이용될 수 있다. 또한, 본 발명은 얼굴 인식 보안 시스템, 컴퓨터, 디지털 카메라, 3차원 카메라, 휴대폰, PDA, 스캐너, 차량용 네비게이션, 비디오 폰, 감시 시스템, 자동 포커스 시스템, 추적 시스템, 동작 감지 시스템, 이미지 안정화 시스템 등에 유용하게 이용될 수 있다.The imaging device according to embodiments of the present invention can be used in any light sensing device to provide a stereoscopic color image. The present invention is also useful for face recognition security systems, computers, digital cameras, 3D cameras, mobile phones, PDAs, scanners, car navigation systems, video phones, surveillance systems, auto focus systems, tracking systems, motion detection systems, image stabilization systems, and the like. Can be used.

상술한 바와 같이, 본 발명의 바람직한 실시예를 참조하여 설명하였지만 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, the present invention has been described with reference to a preferred embodiment of the present invention, but those skilled in the art may vary the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. It will be understood that modifications and changes can be made.

Claims (10)

수광 렌즈;
복수의 피사체들로부터의 수신광을 기초로 상기 피사체들에 대한 거리 정보를 포함하는 깊이 데이터를 생성하는 센서 모듈;
상기 깊이 데이터를 기초로 상기 피사체들에 대한 깊이 맵을 생성하고, 상기 깊이 맵 상에서 상기 피사체들을 분리하고, 분리된 피사체들에 기초하여 상기 수광 렌즈를 제어하기 위한 제어 신호를 생성하는 엔진부; 및
상기 제어 신호에 따라 상기 수광 렌즈의 포커스를 제어하는 모터부를 포함하고,
상기 센서 모듈은 상기 포커스가 조절된 수광 렌즈를 통하여 집광된 상기 피사체들로부터 반사된 가시광선에 기초하여 상기 피사체들에 대한 컬러 데이터를 생성하여 상기 엔진부에 제공하는 촬상 장치.
Light receiving lens;
A sensor module configured to generate depth data including distance information about the subjects, based on the received light from a plurality of subjects;
An engine unit generating a depth map of the subjects based on the depth data, separating the subjects on the depth map, and generating a control signal for controlling the light receiving lens based on the separated subjects; And
A motor unit for controlling the focus of the light receiving lens according to the control signal,
And the sensor module generates color data of the subjects and provides the generated color data to the engine unit based on visible rays reflected from the subjects focused through the focus-controlled light receiving lens.
제1항에 있어서, 상기 센서 모듈은
상기 깊이 데이터를 생성하는 깊이 센서; 및
상기 컬러 데이터를 생성하는 컬러 센서를 포함하는 것을 특징으로 하는 촬상 장치.
The method of claim 1, wherein the sensor module
A depth sensor for generating the depth data; And
And a color sensor for generating the color data.
제1항에 있어서,
상기 엔진부는,
상기 깊이 데이터를 처리하여 상기 피사체들에 대한 깊이 이미지와 상기 깊이 맵을 생성하는 제1 이미지 신호 처리기;
상기 깊이 맵에 기초하여 상기 피사체들을 분리하고, 상기 분리된 피사체들에 기초하여 상기 수광 렌즈를 제어하기 위한 상기 제어 신호를 생성하는 분리 및 제어부; 및
상기 컬러 데이터를 처리하여 상기 피사체들에 대한 컬러 이미지를 생성하는 제2 이미지 신호 처리기를 포함하는 것을 특징으로 하는 촬상 장치.
The method of claim 1,
The engine unit,
A first image signal processor configured to process the depth data to generate a depth image and the depth map of the subjects;
A separation and control unit for separating the subjects based on the depth map and generating the control signal for controlling the light receiving lens based on the separated subjects; And
And a second image signal processor configured to process the color data to generate a color image of the subjects.
제3항에 있어서, 상기 깊이 이미지와 상기 컬러 이미지에 기초하여 상기 피사체들에 대한 스테레오 이미지를 생성하는 애플리케이션을 더 포함하는 것을 특징으로 하는 촬상 장치.4. The imaging device of claim 3, further comprising an application for generating a stereo image for the subjects based on the depth image and the color image. 제3항에 있어서, 상기 제2 이미지 신호 처리기는 포커스가 조절된 상기 수광 렌즈와 상기 피사체들 각각의 거리에 따라 상기 피사체들 각각을 이미지 처리하는 것을 특징으로 하는 촬상 장치.The image pickup apparatus of claim 3, wherein the second image signal processor processes each of the subjects according to a distance between the light receiving lens and the subjects whose focus is adjusted. 수광 렌즈;
상기 수광 렌즈를 통한, 복수의 피사체들로부터의 반사광을 기초로 상기 피사체들에 대한 거리 정보를 포함하는 깊이 데이터와 상기 복수의 피사체들로부터의 가시광선을 기초로 상기 피사체들에 대한 컬러 데이터를 생성하는 센서 모듈; 및
상기 깊이 데이터에 기초하여 상기 피사체들에 대한 깊이 맵을 생성하고 상기 깊이 맵에 기초하여 상기 컬러 데이터에 대하여 이미지 블러링 처리를 수행하는 엔진부를 포함하는 촬상 장치.
Light receiving lens;
Generating color data of the subjects through the light receiving lens based on depth data including distance information of the subjects based on reflected light from a plurality of subjects and visible light from the plurality of subjects. A sensor module; And
And an engine unit generating a depth map of the subjects based on the depth data and performing an image blurring process on the color data based on the depth map.
제6항에 있어서, 상기 센서 모듈은 상기 깊이 데이터와 상기 컬러 데이터를 동시에 제공하는 깊이/컬러 센서를 포함하는 것을 특징으로 하는 촬상 장치.The imaging device of claim 6, wherein the sensor module comprises a depth / color sensor that provides the depth data and the color data simultaneously. 제6항에 있어서, 상기 엔진부는,
상기 깊이 데이터를 처리하여 상기 피사체들에 대한 깊이 이미지와 상기 깊이 맵을 생성하는 제1 이미지 신호 처리기;
상기 깊이 맵에 기초하여 상기 피사체들을 분리하고, 상기 분리된 피사체들에 관한 분리 데이터를 제공하는 분리부;
상기 컬러 데이터를 처리하여 상기 피사체들에 대한 컬러 이미지를 생성하는 제2 이미지 신호 처리기; 및
상기 분리 데이터에 기초하여 상기 컬러 이미지에 대한 이미지 블러링 처리를 수행하여 블러링된 컬러 이미지를 제공하는 블러링 처리부를 포함하는 것을 특징으로 하는 촬상 장치.
The method of claim 6, wherein the engine unit,
A first image signal processor configured to process the depth data to generate a depth image and the depth map of the subjects;
A separation unit that separates the subjects based on the depth map and provides separation data regarding the separated subjects;
A second image signal processor configured to process the color data to generate a color image of the subjects; And
And a blurring processing unit which performs an image blurring process on the color image based on the separated data to provide a blurred color image.
제8항에 있어서, 상기 깊이 이미지와 상기 블러링된 컬러 이미지에 기초하여 상기 피사체들에 대한 스테레오 이미지를 제공하는 애플리케이션을 더 포함하는 것을 특징으로 하는 촬상 장치.10. The imaging device of claim 8, further comprising an application for providing a stereo image for the subjects based on the depth image and the blurred color image. 제6항에 있어서, 상기 수광 렌즈는 상기 피사체들을 모두 커버하는 심도(depth of field)를 갖는 것을 특징으로 하는 촬상 장치.The image pickup device of claim 6, wherein the light receiving lens has a depth of field covering all of the subjects.
KR1020110029388A 2011-03-30 2011-03-31 Image pick-up apparatus KR20120111092A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110029388A KR20120111092A (en) 2011-03-31 2011-03-31 Image pick-up apparatus
US13/432,704 US20120249740A1 (en) 2011-03-30 2012-03-28 Three-dimensional image sensors, cameras, and imaging systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110029388A KR20120111092A (en) 2011-03-31 2011-03-31 Image pick-up apparatus

Publications (1)

Publication Number Publication Date
KR20120111092A true KR20120111092A (en) 2012-10-10

Family

ID=47281836

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110029388A KR20120111092A (en) 2011-03-30 2011-03-31 Image pick-up apparatus

Country Status (1)

Country Link
KR (1) KR20120111092A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150100394A (en) * 2014-02-25 2015-09-02 삼성전자주식회사 Image displaying method and apparatus
US9749613B2 (en) 2013-04-08 2017-08-29 Samsung Electronics Co., Ltd. 3D image acquisition apparatus and method of generating depth image in the 3D image acquisition apparatus
KR20200037698A (en) * 2018-10-01 2020-04-09 삼성전자주식회사 3D(dimension) image sensor comprising polarizer, and depth calibrating method and 3D image generating method based on the 3D image sensor
KR102184210B1 (en) * 2019-12-26 2020-11-27 박배억 3d camera system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9749613B2 (en) 2013-04-08 2017-08-29 Samsung Electronics Co., Ltd. 3D image acquisition apparatus and method of generating depth image in the 3D image acquisition apparatus
KR20150100394A (en) * 2014-02-25 2015-09-02 삼성전자주식회사 Image displaying method and apparatus
KR20200037698A (en) * 2018-10-01 2020-04-09 삼성전자주식회사 3D(dimension) image sensor comprising polarizer, and depth calibrating method and 3D image generating method based on the 3D image sensor
US11762073B2 (en) 2018-10-01 2023-09-19 Samsung Electronics Co., Ltd. Three-dimensional (3D) image sensors including polarizer, and depth correction methods and 3D image generation methods based on 3D image sensors
KR102184210B1 (en) * 2019-12-26 2020-11-27 박배억 3d camera system
WO2021133082A1 (en) * 2019-12-26 2021-07-01 박배억 Three-dimensional camera system

Similar Documents

Publication Publication Date Title
KR101694797B1 (en) Method of operating a three-dimensional image sensor
US10186045B2 (en) Methods of and apparatuses for recognizing motion of objects, and associated systems
KR101887099B1 (en) image processing system and image processing method
US20120249740A1 (en) Three-dimensional image sensors, cameras, and imaging systems
US20120236121A1 (en) Methods of Operating a Three-Dimensional Image Sensor Including a Plurality of Depth Pixels
KR102480600B1 (en) Method for low-light image quality enhancement of image processing devices and method of operating an image processing system for performing the method
KR20120111013A (en) A tree-dimensional image sensor and method of measuring distance using the same
KR20130100524A (en) Method of operating a three-dimensional image sensor
KR20130098042A (en) Apparatus of generating depth information and photographing apparatus including the same
US20080063294A1 (en) System and Method for High Performance Image Processing
JP6791962B2 (en) Imaging device
US9258502B2 (en) Methods of operating depth pixel included in three-dimensional image sensor and methods of operating three-dimensional image sensor
CN112189147A (en) Reduced power operation of time-of-flight cameras
US20180224629A1 (en) Focusing control device, focusing control method, focusing control program, lens device, and imaging device
KR20120111092A (en) Image pick-up apparatus
US9485483B2 (en) Image sensor and image sensor system including the same
US20190222752A1 (en) Sensors arragement and shifting for multisensory super-resolution cameras in imaging environments
CN111788568A (en) Method for generating a plurality of information by sensing a plurality of wavelength bandwidths using a camera and apparatus therefor
US20200374493A1 (en) Camera module comprising complementary color filter array and electronic device comprising same
JP2023169254A (en) Imaging element, operating method for the same, program, and imaging system
KR20220010192A (en) Multi-function time-of-flight sensor and method of operating the same
KR20120110614A (en) A tree-dimensional image sensor
US20150054919A1 (en) Three-dimensional image sensor module and method of generating three-dimensional image using the same
KR20110083888A (en) Image interpolating method by bayer-pattern-converting signal and program recording medium
US11467673B2 (en) Method for controlling camera and electronic device therefor

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid