KR20120111092A - Image pick-up apparatus - Google Patents
Image pick-up apparatus Download PDFInfo
- Publication number
- KR20120111092A KR20120111092A KR1020110029388A KR20110029388A KR20120111092A KR 20120111092 A KR20120111092 A KR 20120111092A KR 1020110029388 A KR1020110029388 A KR 1020110029388A KR 20110029388 A KR20110029388 A KR 20110029388A KR 20120111092 A KR20120111092 A KR 20120111092A
- Authority
- KR
- South Korea
- Prior art keywords
- subjects
- depth
- image
- data
- color
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
Abstract
Description
본 발명은 이미지 분야에 관한 것으로, 보다 상세하게는 입체 컬러 데이터를 제공할 수 있는 촬상 장치에 관한 것이다.TECHNICAL FIELD The present invention relates to the field of imaging, and more particularly, to an imaging device capable of providing stereoscopic color data.
이미지 센서는 영상(Image) 또는 거리(Distance, Depth) 정보를 포함하는 광 신호를 전기적인 신호로 변환하는 장치이다. 정밀하면서도 정확하게 원하는 정보를 제공하기 위하여 이미지 센서에 대한 연구가 진행 중이며, 특히, 영상 정보뿐만 아니라 거리 정보를 제공하는 3차원 이미지 센서(3D Image Sensor)에 대한 연구 및 개발이 최근 활발하게 진행되고 있다.The image sensor is an apparatus for converting an optical signal including an image or distance or depth information into an electrical signal. In order to provide precise and accurate desired information, research on image sensor is underway. In particular, research and development of 3D image sensor that provides distance information as well as image information has been actively conducted recently. .
이에 따라, 본 발명의 목적은 적응적으로 초점 거리를 조절할 수 있는 촬상 장치를 제공하는데 있다.Accordingly, it is an object of the present invention to provide an imaging device capable of adaptively adjusting the focal length.
본 발명의 다른 목적은 3차원 현실감을 높일 수 있는 촬상 장치를 제공하는데 있다.Another object of the present invention is to provide an imaging device that can enhance three-dimensional realism.
상기 일 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 촬상 장치는 수광 렌즈, 센서 모듈, 엔진부 및 모터부를 포함한다. 상기 센서 모듈은 복수의 피사체들로부터의 수신광을 기초로 상기 피사체들에 대한 거리 정보를 포함하는 깊이 데이터를 생성한다. 상기 엔진부는 상기 깊이 데이터를 기초로 상기 피사체들에 대한 깊이 맵을 생성하고, 상기 깊이 맵 상에서 상기 피사체들을 분리하고, 분리된 피사체들에 기초하여 상기 수광 렌즈를 제어하기 위한 제어 신호를 생성한다. 상기 모터부는 상기 제어 신호에 따라 상기 수광 렌즈의 포커스를 제어한다. 상기 센서 모듈은 상기 포커스가 조절된 수광 렌즈를 통하여 집광된 상기 피사체들로부터 반사된 가시광선에 기초하여 상기 피사체들에 대한 컬러 데이터를 생성하여 상기 엔진부에 제공한다.In order to achieve the above object, an imaging device according to an embodiment of the present invention includes a light receiving lens, a sensor module, an engine unit, and a motor unit. The sensor module generates depth data including distance information about the subjects based on the received light from the plurality of subjects. The engine unit generates a depth map for the subjects based on the depth data, separates the subjects on the depth map, and generates a control signal for controlling the light receiving lens based on the separated subjects. The motor unit controls the focus of the light receiving lens according to the control signal. The sensor module generates color data for the subjects based on visible light reflected from the subjects collected through the focus-adjusted light receiving lens, and provides the generated color data to the engine unit.
실시예에 있어서, 상기 센서 모듈은 상기 깊이 데이터를 생성하는 깊이 센서 및 상기 컬러 데이터를 생성하는 컬러 센서를 포함할 수 있다.In an embodiment, the sensor module may include a depth sensor for generating the depth data and a color sensor for generating the color data.
상기 엔진부는 상기 깊이 데이터를 처리하여 상기 피사체들에 대한 깊이 이미지와 상기 깊이 맵을 생성하는 제1 이미지 신호 처리기, 상기 깊이 맵에 기초하여 상기 피사체들을 분리하고, 상기 분리된 피사체들에 기초하여 상기 수광 렌즈를 제어하기 위한 상기 제어 신호를 생성하는 분리 및 제어부 및 상기 컬러 데이터를 처리하여 상기 피사체들에 대한 컬러 이미지를 생성하는 제2 이미지 신호 처리기를 포함할 수 있다.The engine unit may process the depth data to generate a depth image and the depth map of the subjects, and separate the subjects based on the depth map, and based on the separated subjects. And a separation and control unit for generating the control signal for controlling the light receiving lens, and a second image signal processor for processing the color data to generate a color image of the subjects.
실시예에 있어서, 상기 촬상 장치는 상기 깊이 이미지와 상기 컬러 이미지에 기초하여 상기 피사체들에 대한 스테레오 이미지를 생성하는 애플리케이션을 더 포함할 수 있다.The image pickup device may further include an application for generating a stereo image of the subjects based on the depth image and the color image.
실시예에 있어서, 상기 제2 이미지 신호 처리기는 포커스가 조절된 상기 수광 렌즈와 상기 피사체들 각각의 거리에 따라 상기 피사체들 각각을 이미지 처리할 수 있다.In example embodiments, the second image signal processor may process each of the subjects according to a distance between each of the subjects and the light receiving lens whose focus is adjusted.
상기 다른 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 촬상 장치는 수광 렌즈, 센서 모듈 및 엔진부를 포함한다. 상기 센서 모듈은 상기 수광 렌즈를 통한, 복수의 피사체들로부터의 반사광을 기초로 상기 피사체들에 대한 거리 정보를 포함하는 깊이 데이터와 상기 복수의 피사체들로부터의 가시광선을 기초로 상기 피사체들에 대한 컬러 데이터를 생성한다. 상기 엔진부는 상기 깊이 데이터에 기초하여 상기 피사체들에 대한 깊이 맵을 생성하고 상기 깊이 맵에 기초하여 상기 컬러 데이터에 대하여 이미지 블러링 처리를 수행한다.In order to achieve the above object, the imaging apparatus according to the exemplary embodiment includes a light receiving lens, a sensor module, and an engine unit. The sensor module may be configured to determine depth data including distance information of the subjects based on the reflected light from the plurality of subjects through the light receiving lens and the visible light from the plurality of subjects. Generate color data. The engine unit generates a depth map for the subjects based on the depth data, and performs an image blurring process on the color data based on the depth map.
실시예에 있어서, 상기 센서 모듈은 상기 깊이 데이터와 상기 컬러 데이터를 동시에 제공하는 깊이/컬러 센서를 포함할 수 있다.In example embodiments, the sensor module may include a depth / color sensor configured to simultaneously provide the depth data and the color data.
실시예에 있어서, 상기 엔진부는 상기 깊이 데이터를 처리하여 상기 피사체들에 대한 깊이 이미지와 상기 깊이 맵을 생성하는 제1 이미지 신호 처리기, 상기 깊이 맵에 기초하여 상기 피사체들을 분리하고, 상기 분리된 피사체들에 관한 분리 데이터를 제공하는 분리부, 상기 컬러 데이터를 처리하여 상기 피사체들에 대한 컬러 이미지를 생성하는 제2 이미지 신호 처리기 및 상기 분리 데이터에 기초하여 상기 컬러 이미지에 대한 이미지 블러링 처리를 수행하여 블러링된 컬러 이미지를 제공하는 블러링 처리부를 포함할 수 있다.In example embodiments, the engine unit may process the depth data to generate a depth image of the subjects and the depth map, and separate the subjects based on the depth map, and separate the subjects. A separation unit for providing separation data relating to the data, a second image signal processor for processing the color data to generate a color image for the subjects, and performing an image blurring process for the color image based on the separation data It may include a blur processing unit for providing a blurred color image.
실시예에 있어서, 상기 촬상 장치는 상기 깊이 이미지와 상기 블러링된 컬러 이미지에 기초하여 상기 피사체들에 대한 스테레오 이미지를 제공하는 애플리케이션을 더 포함할 수 있다.In an embodiment, the imaging device may further include an application for providing a stereo image for the subjects based on the depth image and the blurred color image.
실시예에 있어서, 상기 수광 렌즈는 상기 피사체들을 모두 커버하는 심도(depth of field)를 갖을 수 있다.In example embodiments, the light receiving lens may have a depth of field covering all of the subjects.
복수의 피사체들에 대한 깊이 맵을 기초로 하여 수광 렌즈의 포커스를 적응적으로 조절하여 3차원 현실감을 향상시킬 수 있고, 깊이 맵을 기초로 컬러 이미지에 대한 블러링 처리를 수행하여 3차원 현실감을 향상시킬 수 있다.Based on the depth map of the plurality of subjects, the focus of the light receiving lens can be adaptively adjusted to improve the three-dimensional reality, and the blurring process on the color image based on the depth map can be used to perform the three-dimensional reality. Can be improved.
도 1은 본 발명의 일 실시예에 따른 촬상 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 도 1의 센서부의 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 도 2의 깊이 센서의 구성을 나타내는 블록도이다.
도 4는 도 3의 깊이 센서에서 피사체의 거리를 계산하는 일예를 설명하는 도면이다.
도 5는 본 발명의 다른 실시예에 따른 도 1의 센서부의 구성을 나타내는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 도 1의 엔진부의 구성을 나타내는 블록도이다.
도 7은 본 발명의 일 실시예에 따른 도 1의 호스트/애플리케이션을 나타낸다.
도 8은 복수의 피사체들에 대한 깊이 맵을 나타낸다.
도 9a 내지 도 9c는 깊이 맵에서 선택된 피사체를 나타낸다.
도 10a 내지 도 10c는 도 9a 내지 도 9c 각각에서 선택된 피사체에 포커싱된 컬러 이미지를 나타낸다.
도 11은 본 발명의 다른 실시예에 따른 촬상 장치를 나타내는 블록도이다.
도 12는 본 발명의 일 실시예에 따른 도 11의 엔진부의 구성을 나타내는 블록도이다.
도 13은 본 발명의 일 실시예에 따른 도 11의 호스트/애플리케이션을 나타낸다.
도 14는 복수의 피사체들에 대한 컬러 이미지를 나타낸다.
도 15는 복수의 피사체들에 대한 깊이 맵을 나타낸다.
도 16a 내지 도 16c는 선택된 피사체를 기준으로 블러링 처리가 수행된 경우의 블러링된 컬러 이미지를 나타낸다.
도 17은 본 발명의 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 18은 본 발명의 다른 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 19는 본 발명의 일 실시예에 따른 촬상 장치를 컴퓨팅 시스템에 응용한 예를 나타내는 블록도이다.
도 20은 도 19의 컴퓨팅 시스템에서 사용되는 인터페이스의 일 예를 나타내는 블록도이다.1 is a block diagram illustrating an image capturing apparatus according to an exemplary embodiment of the present invention.
2 is a block diagram illustrating a configuration of a sensor unit of FIG. 1 according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a configuration of a depth sensor of FIG. 2 according to an exemplary embodiment of the present invention.
4 is a diagram illustrating an example of calculating a distance of a subject in the depth sensor of FIG. 3.
5 is a block diagram illustrating a configuration of a sensor unit of FIG. 1 according to another exemplary embodiment of the present disclosure.
6 is a block diagram illustrating a configuration of the engine unit of FIG. 1 according to an exemplary embodiment of the present invention.
7 illustrates the host / application of FIG. 1 in accordance with an embodiment of the present invention.
8 illustrates a depth map of a plurality of subjects.
9A to 9C illustrate a subject selected in a depth map.
10A to 10C illustrate a color image focused on a subject selected in each of FIGS. 9A to 9C.
11 is a block diagram showing an image pickup device according to another embodiment of the present invention.
12 is a block diagram illustrating a configuration of the engine unit of FIG. 11 according to an embodiment of the present invention.
13 illustrates the host / application of FIG. 11 in accordance with an embodiment of the present invention.
14 illustrates a color image of a plurality of subjects.
15 illustrates a depth map of a plurality of subjects.
16A to 16C illustrate a blurred color image when the blurring process is performed based on the selected subject.
17 is a flowchart illustrating an image processing method according to an embodiment of the present invention.
18 is a flowchart illustrating an image processing method according to another exemplary embodiment of the present invention.
19 is a block diagram illustrating an example in which an imaging device according to an embodiment of the present invention is applied to a computing system.
20 is a block diagram illustrating an example of an interface used in the computing system of FIG. 19.
본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.For the embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be practiced in various forms, The present invention should not be construed as limited to the embodiments described in Figs.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 구성요소에 대해 사용하였다.The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. In describing the drawings, similar reference numerals are used for the components.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, the terms "comprise", "having", and the like are intended to specify the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, , Steps, operations, components, parts, or combinations thereof, as a matter of principle.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.
도 1은 본 발명의 일 실시예에 따른 촬상 장치를 나타내는 블록도이다.1 is a block diagram illustrating an image capturing apparatus according to an exemplary embodiment of the present invention.
도 1을 참조하면, 촬상 장치(10)는 센서 모듈(100), 수광 렌즈(120), 모터부(130) 및 엔진부(300)를 포함한다. 촬상 장치(10)는 애플리케이션(400)을 더 포함할 수도 있다. 센서 모듈(100)은 광원부(110) 및 센서부(200)를 포함할 수 있다. 광원부(110)는 광원(111) 및 렌즈(112)를 포함할 수 있다. 실시예에 따라 센서부(200) 및 광원부(110)는 각각 별도의 장치로 구현되거나, 광원부(110)의 적어도 일부의 구성이 센서부(200)에 포함되도록 구현될 수 있다.Referring to FIG. 1, the
수광 렌즈(120)는 센서부(200)의 수광 영역(예를 들어 센서부(200)에 포함되는 픽셀 어레이에 포함되는 거리 픽셀들 및/또는 컬러 픽셀들)으로 입사광을 집광시킬 수 있다. 센서부(200)는 복수의 피사체들(50)로부터 반사된 수신광(RX)에 기초하여 먼저 복수의 피사체들(50)에 대한 거리 정보를 포함하는 깊이 데이터(ZDTA)를 생성하여 엔진부(300)에 제공한다. 엔진부(300)는 깊이 데이터(ZDTA)를 기초로 피사체들(50)에 대한 거리 정보를 포함하는 깊이 맵을 생성하고, 상기 생성된 깊이 맵을 기초로 상기 깊이 맵 상에서 상기 피사체들을 분리하고, 분리된 피사체들에 기초하여 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 생성한다. 즉 엔진부(300)는 깊이 맵 상에서 복수의 피사체들 중 하나의 피사체를 선택하여 선택된 피사체를 포커스 영역으로 설정하고 이 설정된 포커스 영역으로 수광 렌즈(120)를 포커싱하도록 하기 위한 제어 신호(CTRL)를 생성할 수 있다.The
모터부(130)는 상기 엔진부(300)에서 제공되는 제어 신호(CTRL)에 따라 수광 렌즈(120)를 이동시켜 수광 렌즈(120)가 엔진부(300)에서 선택된 피사체로 포커싱되도록 한다. 이에 따라 센서 모듈(120)은 포커스가 조절된 수광 렌즈(120)를 통하여 집광된 피사체들(50)로부터 반사된 가시광선(VL)에 기초하여 피사체들(50)에 대한 컬러 데이터(CDTA)를 생성하고 생성된 컬러 데이터(CDTA)를 엔진부(300)에 제공한다.The
광원부(110)의 광원(111)은 적외선 또는 근적외선을 생성하고, 렌즈(112)는 적외선 또는 근적외선이 피사체들(50)에 포커싱되도록 한다.The
센서 모듈(200)은 클록 신호(CLK)에 기초하여 깊이 데이터(ZDTA) 및또는 컬러 데이터(CDTA)를 포함하는 데이터(DATA1)를 엔진부(300)에 제공할 수 있다. 실시예에 따라, 센서 모듈(200)은 MIPI(Mobile Industry Processor Interface) 및/또는 CSI(Camera Serial Interface)를 통하여 엔진부(300)와 인터페이싱할 수 있다.The
엔진부(300)는 센서 모듈(100) 및 모터부(130)를 제어하고, 엔진부(300)는 센서부(200)로부터 수신된 데이터(DATA1)를 처리할 수 있다. 예를 들어, 엔진부(300)는 센서부(200)로부터 수신된 데이터(DATA1)에 기초하여 입체 컬러 데이터(스테레오 데이터)를 생성할 수 있다. 다른 예에서, 엔진부(300)는 데이터(DATA1)에 포함된 상기 RGB 데이터에 기초하여 휘도 성분, 상기 휘도 성분과 청색 성분의 차, 및 휘도 성분과 적색 성분의 차를 포함하는 YUV 데이터를 생성하거나, 압축 데이터, 예를 들어 JPEG(Joint Photography Experts Group) 데이터를 생성할 수 있다. 엔진부(300)는 호스트/어플리케이션(400)에 연결될 수 있으며, 엔진부(300)는 마스터 클록(MCLK)에 기초하여 데이터(DATA2)를 호스트/어플리케이션(400)에 제공할 수 있다. 또한, 엔진부(300)는 SPI(Serial Peripheral Interface) 및/또는 I2C(Inter Integrated Circuit)를 통하여 호스트/어플리케이션(400)과 인터페이싱할 수 있다.The
도 1의 실시예에서 수광 렌즈(120)는 상대적으로 짧은 심도(depth of field)를 갖을 수 있다. 즉 수광 렌즈(120)의 초점은 피사체들(50) 중 어느 하나에만 맞춰질 수 있다.In the embodiment of FIG. 1, the
도 2는 본 발명의 일 실시예에 따른 도 1의 센서부의 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of a sensor unit of FIG. 1 according to an exemplary embodiment of the present invention.
도 2를 참조하면, 센서부(200a)는 깊이 센서(210)와 컬러 센서(220)를 포함할 수 있다. 깊이 센서(210)는 복수의 깊이 픽셀들로 구성된 깊이 픽셀 어레이를 포함하여 피사체들(50)로부터의 수신광(RX)에 기초하여 피사체들(50)에 대한 깊이 데이터(ZDTA)를 생성할 수 있다. 또한 컬러 센서(220)는 복수의 컬러 픽셀들로 구성된 컬러 픽셀 어레이를 포함하여 피사체들(50)로부터의 가시광선(VL)에 기초하여 피사체들(50)에 대한 컬러 데이터(CDTA)를 생성할 수 있다.Referring to FIG. 2, the
도 3은 본 발명의 일 실시예에 따른 도 2의 깊이 센서의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of a depth sensor of FIG. 2 according to an exemplary embodiment of the present invention.
도 3에서는 설명의 편의를 위하여 광원부(110)가 깊이 센서(210)에 포함되는 경우를 도시한다.3 illustrates a case in which the
도 3을 참조하면, 깊이 센서(210)는 깊이 픽셀 어레이(211), 아날로그-디지털 변환(Analog-to-Digital Conversion; ADC)부(212), 로우 주사 회로(213), 컬럼 주사 회로(214), 제어부(215) 및 광원 모듈(110)을 포함한다.Referring to FIG. 3, the
깊이 픽셀 어레이(211)는 광원 모듈(110)에서 송신된 광(TX)이 피사체들(50)에서 반사되어 수신된 광(RX)을 전기적인 신호로 변환하는 깊이 픽셀(depth pixel)들을 포함한다. 상기 깊이 픽셀들은 흑백 영상 정보와 함께 깊이 센서(210)로부터 피사체들(50)의 거리에 대한 정보를 제공할 수 있다.The
ADC부(212)는 깊이 픽셀 어레이(211)로부터 출력되는 아날로그 신호를 디지털 신호로 변환하여 깊이 데이터(ZDTA)를 제공할 수 있다. 실시예에 따라, ADC부(212)는 각 컬럼 라인마다 연결된 아날로그-디지털 변환기를 이용하여 아날로그 신호들을 병렬로 변환하는 컬럼 ADC를 수행하거나, 단일한 아날로그-디지털 변환기를 이용하여 상기 아날로그 신호들을 순차적으로 변환하는 단일 ADC를 수행할 수 있다.The
실시예에 따라, ADC부(212)는 유효 신호 성분을 추출하기 위한 상관 이중 샘플링(Correlated Double Sampling; CDS)부를 포함할 수 있다. 일 실시예에서, 상기 CDS부는 리셋 성분을 나타내는 아날로그 리셋 신호와 신호 성분을 나타내는 아날로그 데이터 신호의 차이에 기초하여 상기 유효 신호 성분을 추출하는 아날로그 더블 샘플링(Analog Double Sampling)을 수행할 수 있다. 다른 실시예에서, 상기 CDS부는 상기 아날로그 리셋 신호와 상기 아날로그 데이터 신호를 디지털 신호들로 각각 변환한 후 상기 유효 신호 성분으로서 두 개의 디지털 신호의 차이를 추출하는 디지털 더블 샘플링(Digital Double Sampling)을 수행할 수 있다. 또 다른 실시예에서, 상기 CDS부는 상기 아날로그 더블 샘플링 및 상기 디지털 더블 샘플링을 모두 수행하는 듀얼 상관 이중 샘플링을 수행할 수 있다.According to an embodiment, the
로우 주사 회로(213)는 제어부(215)로부터 제어 신호들을 수신하여 깊이 픽셀 어레이(211)의 로우 어드레스 및 로우 주사를 제어할 수 있다. 로우 주사 회로(213)는 로우 라인들 중에서 해당 로우 라인을 선택하기 위하여 해당 로우 라인을 활성화시키는 신호를 깊이 픽셀 어레이(211)에 인가할 수 있다. 일 실시예에서, 로우 주사 회로(213)는 깊이 픽셀 어레이(211) 내의 로우 라인을 선택하는 로우 디코더 및 선택된 로우 라인을 활성화시키는 신호를 공급하는 로우 드라이버를 포함할 수 있다.The
컬럼 주사 회로(214)는 제어부(215)로부터 제어 신호들을 수신하여 깊이 픽셀 어레이(211)의 컬럼 어드레스 및 컬럼 주사를 제어할 수 있다. 컬럼 주사 회로(214)는 ADC부(212)에서 출력되는 디지털 출력 신호를 디지털 신호 프로세싱 회로(Digital Signal Processing Circuit, 미도시) 또는 외부의 호스트(미도시)로 출력할 수 있다. 예를 들어, 컬럼 주사 회로(214)는 수평 주사 제어 신호를 ADC부(212)에 출력함으로써, ADC부(212) 내의 복수의 아날로그-디지털 변환기들을 순차적으로 선택할 수 있다. 일 실시예에서, 컬럼 주사 회로(214)는 복수의 아날로그-디지털 변환기들 중 하나를 선택하는 컬럼 디코더 및 선택된 아날로그-디지털 변환기의 출력을 수평 전송선으로 유도하는 컬럼 드라이버를 포함할 수 있다. 한편, 상기 수평 전송선은 상기 디지털 출력 신호를 출력하기 위한 비트 폭을 가질 수 있다.The
제어부(215)는 ADC부(212), 로우 주사 회로(213), 컬럼 주사 회로(214) 및 광원부(110)을 제어할 수 있다. 제어부(215)는 ADC부(212), 로우 주사 회로(213), 컬럼 주사 회로(214) 및 광원부(110)의 동작에 요구되는 클럭 신호, 타이밍 컨트롤 신호 등과 같은 제어 신호들을 공급할 수 있다. 일 실시예에서, 제어부(215)는 로직 제어 회로, 위상 고정 루프(Phase Lock Loop; PLL) 회로, 타이밍 제어 회로 및 통신 인터페이스 회로 등을 포함할 수 있다. 다른 실시예에서 제어부(215)의 기능은 엔진부(300)에 의하여 수행될 수도 있다.The
광원부(110)는 소정의 파장을 가진 광(예를 들어, 적외선 또는 근적외선)을 출력할 수 있다. 광원(111)은 제어부(215)에 의해 제어되어 세기가 주기적으로 변하는 광(TX)을 출력할 수 있다. 예를 들어, 광(TX)의 세기는 연속적인 펄스들을 가지는 펄스 파, 사인 파, 코사인 파 등과 같은 형태를 가지도록 제어될 수 있다. 광원(210)은 발광 다이오드(light emitting diode, LED), 레이저 다이오드 등으로 구현될 수 있다.The
도 4는 도 3의 깊이 센서에서 피사체의 거리를 계산하는 일예를 설명하는 도면이다.4 is a diagram illustrating an example of calculating a distance of a subject in the depth sensor of FIG. 3.
도 4에서는 설명의 편의를 위하여 피사체들(50) 중 하나의 피사체로부터의 수신광(RX)을 기초로 거리를 계산하는 일예를 설명한다.In FIG. 4, an example of calculating a distance based on the received light RX from one of the
도 3 및 도 4를 참조하면, 광원부(110)에서 방출된 광(TX)은 주기적으로 변동하는 세기를 가질 수 있다. 예를 들어, 방출된 광(TX)의 세기(즉, 단위 면적당 광자의 수)는 사인 파의 형태를 가질 수 있다.3 and 4, the light TX emitted from the
광원부(110)에서 방출된 광(TX)은 피사체(50)에서 반사되어 수신 광(RX)으로서 깊이 픽셀 어레이(211)에 입사된다. 깊이 픽셀 어레이(211)는 수신 광(RX)을 주기적으로 샘플링할 수 있다. 실시예에 따라, 깊이 픽셀 어레이(211)는 수신 광(RX)의 각 주기(즉, 방출된 광(TX)의 주기)마다 180 도의 위상 차를 가지는 두 개의 샘플링 포인트들, 각각 90 도의 위상 차를 가지는 네 개의 샘플링 포인트들, 또는 그 이상의 샘플링 포인트들에서 수신 광(RX)을 샘플링할 수 있다. 예를 들어, 깊이 픽셀 어레이(211)는 매 주기 마다 방출된 광(TX)의 90 도, 180 도, 270도 및 360도의 위상들에서 수신 광(RX)의 샘플들(A0, A1, A2, A3)을 추출할 수 있다.The light TX emitted from the
수신 광(RX)은 추가적인 배경 광, 노이즈 등에 의해 광원부(100)에서 방출된 광(TX)의 오프셋과 다른 오프셋(B)을 가질 수 있다. 수신 광(RX)의 오프셋(B)은 [수학식 1]과 같이 계산될 수 있다.The received light RX may have an offset B different from the offset of the light TX emitted from the
[수학식 1][Equation 1]
여기서, A0는 방출된 광(TX)의 90 도의 위상에서 샘플링된 수신 광(RX)의 세기를 나타내고, A1은 방출된 광(TX)의 180 도의 위상에서 샘플링된 수신 광(RX)의 세기를 나타내고, A2는 방출된 광(TX)의 270 도의 위상에서 샘플링된 수신 광(RX)의 세기를 나타내고, A3는 방출된 광(TX)의 360 도의 위상에서 샘플링된 수신 광(RX)의 세기를 나타낸다.Here, A0 represents the intensity of the received light RX sampled at the 90 degree phase of the emitted light TX, and A1 represents the intensity of the received light RX sampled at the 180 degree phase of the emitted light TX. Where A2 represents the intensity of the received light RX sampled in the 270 degree phase of the emitted light TX, and A3 represents the intensity of the received light RX sampled in the 360 degree phase of the emitted light TX. Indicates.
수신 광(RX)은 광 손실에 의해 광원부(110)에서 방출된 광(TX)의 진폭(amplitude)보다 작은 진폭(A)을 가질 수 있다. 수신 광(RX)의 진폭(A)은 [수학식 2]와 같이 계산될 수 있다.The received light RX may have an amplitude A that is smaller than an amplitude of the light TX emitted from the
[수학식 2]&Quot; (2) "
깊이 픽셀 어레이(211)에 포함된 거리 픽셀들 각각에 대한 수신 광(RX)의 진폭(A)에 기초하여 피사체(50)에 대한 흑백 영상 정보가 제공될 수 있다.Black and white image information about the subject 50 may be provided based on the amplitude A of the received light RX for each of the distance pixels included in the
수신 광(RX)은 방출된 광(TX)에 대하여 깊이 센서(210)로부터 피사체(50)의 거리의 두 배에 상응하는 위상 차(φ)만큼 지연된다. 방출된 광(TX)에 대한 수신 광(RX)의 위상 차(φ)는 [수학식 3]과 같이 계산될 수 있다.The received light RX is delayed by the phase difference φ corresponding to twice the distance of the subject 50 from the
[수학식 3]&Quot; (3) "
방출된 광(TX)에 대한 수신 광(RX)의 위상 차(φ)는 광의 비행 시간(Time-Of-Flight; TOF)에 상응한다. 깊이 센서(210)로부터 피사체(50)의 거리는 수학식 “R = c * TOF / 2”(여기서, R은 피사체(160)의 거리를 나타내고, c는 빛의 속도를 나타낸다)을 이용하여 계산될 수 있다. 또한, 깊이 센서(210)로부터 피사체(50)의 거리는 수신 광(RX)의 위상 차(φ)를 이용하여 [수학식 4]와 같이 계산될 수 있다.The phase difference φ of the received light RX with respect to the emitted light TX corresponds to the time-of-flight (TOF) of the light. The distance of the subject 50 from the
[수학식 4]&Quot; (4) "
여기서, f는 변조 주파수, 즉 방출된 광(TX)(또는 수신 광(RX))의 주파수를 나타낸다.Here, f denotes the modulation frequency, that is, the frequency of emitted light TX (or received light RX).
도 4에는 사인파의 형태를 가지도록 변조된 광(TX)을 이용한 예가 도시되어 있으나, 실시예에 따라, 깊이 센서(210)는 다양한 형태의 변조된 광(TX)을 이용할 수 있다. 또한, 깊이 센서(210)는 광(TX)의 세기의 파형, 거리 픽셀의 구조 등에 따라 다양한 방식으로 거리 정보를 추출할 수 있다.4 illustrates an example using light TX modulated to have a sine wave shape, but according to an exemplary embodiment, the
도 2의 컬러 센서(220)도 도 3의 깊이 센서(210)와 거의 동일한 구조를 가질 수 있으므로 도 2의 컬러 센서(220)의 구조에 대한 상세한 설명은 생략한다. 즉 도 2의 컬러 센서(220)는 컬러 픽셀 어레이, ADC부, 로우 주사 회로, 컬럼 주사 회로 및 제어부를 포함하여 피사체들(50)에 대한 컬러 데이터(CDTA)를 생성할 수 있다.Since the
도 5는 본 발명의 다른 실시예에 따른 도 1의 센서부의 구성을 나타내는 블록도이다.5 is a block diagram illustrating a configuration of a sensor unit of FIG. 1 according to another exemplary embodiment of the present disclosure.
도 5를 참조하면, 센서부(200b)는 복수의 컬러 픽셀들과 깊이 픽셀들이 배열된 깊이/컬러 픽셀 어레이(230), 컬러 픽셀 선택 회로(250, 270), 깊이 픽셀 선택 회로(240, 290), 컬러 픽셀 컨버터(260) 및 깊이 픽셀 컨버터(280)를 포함할 수 있다. 컬러 픽셀 선택 회로(250, 270)와 컬러 픽셀 컨버터(260)는 픽셀 어레이(230) 내의 컬러 픽셀을 제어하여 컬러 데이터(CDTA)를 제공하고, 깊이 픽셀 선택 회로(240, 290)와 깊이 픽셀 컨버터(280)는 픽셀 어레이(230) 내의 거리 픽셀을 제어하여 깊이 정보(ZDTA)를 제공한다.Referring to FIG. 5, the
이와 같이 센서부(220b)에서는 영상의 컬러 데이터(CDTA) 및 깊이 데이터(ZDTA)를 제공하기 위하여 컬러 픽셀들을 제어하는 구성 요소들과 거리 픽셀들을 제어하는 구성 요소들이 별도로 구비되어 서로 독립적으로 동작할 수 있다.As such, in the sensor unit 220b, components for controlling the color pixels and components for controlling the distance pixels are separately provided to provide the color data CDTA and the depth data ZDTA of the image. Can be.
도 5에는 비록 도시되지 않았지만, 도 4와 같은 제어 회로가 포함되어 컬러 픽셀 선택 회로(250, 270), 깊이 픽셀 선택 회로(240, 290), 컬러 픽셀 컨버터(260) 및 깊이 픽셀 컨버터(280)를 제어할 수 있다.Although not shown in FIG. 5, a control circuit such as FIG. 4 is included to include the color
도 6은 본 발명의 일 실시예에 따른 도 1의 엔진부의 구성을 나타내는 블록도이다.6 is a block diagram illustrating a configuration of the engine unit of FIG. 1 according to an exemplary embodiment of the present invention.
도 6에서는 설명의 편의를 위하여 수광 렌즈(120)와 모터부(130)가 함께 도시되었다.In FIG. 6, the
도 6을 참조하면, 엔진부(300)는 제1 이미지 신호 처리기(310), 분리 및 제어부(320) 및 제2 이미지 신호 처리기(330)를 포함할 수 있다.Referring to FIG. 6, the
제1 이미지 신호 처리기(310)는 깊이 데이터(ZDTA)를 처리하여 피사체들(50)에 대한 깊이 이미지(ZIMG)와 깊이 맵(DM)을 생성한다. 깊이 맵(DM)은 피사체들(50)에 대한 깊이 정보를 포함하고, 깊이 이미지(ZIMG)는 피사체들(50)에 대한 거리 정보를 포함하는 흑백 이미지일 수 있다. 깊이 이미지(ZIMG)는 애플리케이션(400)에 제공될 수 있고, 깊이 맵(DM)은 분리 및 제어부(320)에 제공된다. 분리 및 제어부(320)는 깊이 맵(DM)에 기초하여 깊이 맵(DM) 상에서 피사체들(50)을 분리하고 분리된 피사체에 기초하여 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 생성한다. 제어 신호(CTRL)는 모터부(130)에 제공되고 모터부(130)는 제어 신호(CTRL)에 따라 수광 렌즈(120)의 위치를 이동시켜 수광 렌즈(120)가 분리 및 제어부(320)에서 선택한 피사체에 포커싱되도록 한다. 분리 및 제어부(320)에서 선택한 피사체에 포커싱된 수광 렌즈(120)를 통하여 피사체들(50)로부터의 가시광선(VL)에 기초하여 센서부(200)에서는 컬러 데이터(CDTA)를 제2 이미지 신호 처리기(330)에 제공한다. 제2 이미지 신호 처리기(330)는 컬러 데이터(CDTA)를 처리하여 컬러 이미지(CIMG)를 생성한다.The first image signal processor 310 processes the depth data ZDTA to generate a depth image ZIMG and a depth map DM of the
즉 본 발명의 일 실시예에 따른 촬상 장치(10)에서는 피사체들(50)에 대한 거리 정보를 기초로 깊이 맵(DM)을 먼저 생성하고, 상기 깊이 맵(DM)을 기초로 포커싱할 피사체를 선택한 다음, 수광 렌즈(120)를 선택된 피사체에 포커싱되도록 이동시킨 다음에 피사체들(50) 각각과 수광 렌즈(120)와의 거리에 따라 피사체들(50) 각각을 컬러 이미지 처리할 수 있다. 즉 피사체들(50) 중 분리 및 제어부(320)에 의하여 선택되어 수광 렌즈(120)에 의하여 포커싱된 피사체에 대하여는 많은 계산량으로 처리하고 나머지 피사체들에 대하여는 좀 더 적은 계산량으로 처리할 수 있다.That is, in the
도 7은 본 발명의 일 실시예에 따른 도 1의 호스트/애플리케이션을 나타낸다.7 illustrates the host / application of FIG. 1 in accordance with an embodiment of the present invention.
도 7을 참조하면, 호스트/애플리케이션(400)은 컬러 이미지(CIMG)와 깊이 이미지(ZIMG)를 합성하여 스테레오 이미지(SIMG), 즉 3차원 컬러 이미지를 생성할 수 있다. 즉 호스트/애플리케이션(400)은 피사체들(50)에 대한 거리 정보를 포함하는 흑백의 깊이 이미지(ZIMG)와 복수의 피사체들(50) 중 하나에 포커싱되어 처리된 2차원 컬러 이미지를 합성하여 보다 현실감있는 3차원 컬러 이미지(스테레오 이미지)를 제공할 수 있다.Referring to FIG. 7, the host /
도 8은 복수의 피사체들에 대한 깊이 맵을 나타내고, 도 9a 내지 도 9c는 깊이 맵에서 선택된 피사체를 나타내고, 도 10a 내지 도 10c는 도 9a 내지 도 9c 각각에서 선택된 피사체에 포커싱된 컬러 이미지를 나타낸다.8 illustrates a depth map of a plurality of subjects, FIGS. 9A to 9C show a subject selected in the depth map, and FIGS. 10A to 10C show a color image focused on the selected subject in each of FIGS. 9A to 9C. .
이하 도 1 내지 도 10c를 참조하여 본 발명의 일 실시예에 따른 촬상 장치(10)의 동작을 상세히 설명한다.Hereinafter, operations of the
복수의 피사체들(50)이 각각 촬상 장치(10)로부터 서로 다른 거리에 위치하고 있다면, 동일한 송신광(TX)에 대하여 피사체들(50)로부터의 수신광(RX)이 센서부(200)에 도달하는 시간의 차이에 따라 도 8과 같은 깊이 맵(DM)을 얻을 수 있다. 깊이 맵(DM) 상에서 사용자가 도 9a에서와 같이 피사체(SO1)를 선택하면, 분리 및 제어부(320)는 선택된 피사체(SO1)에 포커싱 되도록 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 모터부(130)에 제공한다. 모터부(130)는 제어 신호(CTRL)에 따라서 수광 렌즈(120)를 이동시켜(예를 들어 센서부(200) 쪽으로), 수광 렌즈(120)의 초점을 선택된 피사체(SO1)에 맞춘다. 선택된 피사체(SO1)에 포커싱된 수광 렌즈(120)를 통하여 피사체들(50)로부터의 가시광선에 기초하여 센서부(200)는 컬러 데이터(CDTA)를 생성하고, 엔진부(300)의 제2 이미지 신호 처리기(330)는 컬러 데이터(CDTA)를 처리하여 도 10a와 같은 컬러 이미지(CIMG)를 제공할 수 있다.If the plurality of
예를 들어, 깊이 맵(DM) 상에서 사용자가 도 9b에서와 같이 피사체(SO2)를 선택하면, 분리 및 제어부(320)는 선택된 피사체(SO2)에 포커싱 되도록 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 모터부(130)에 제공한다. 모터부(130)는 제어 신호(CTRL)에 따라서 수광 렌즈(120)를 이동시켜(예를 들어 센서부(200) 또는 피사체(50) 쪽으로), 수광 렌즈(120)의 초점을 선택된 피사체(SO2)에 맞춘다. 선택된 피사체(SO2)에 포커싱된 수광 렌즈(120)를 통하여 피사체들(50)로부터의 가시광선에 기초하여 센서부(200)는 컬러 데이터(CDTA)를 생성하고, 엔진부(300)의 제2 이미지 신호 처리기(330)는 컬러 데이터(CDTA)를 처리하여 도 10b와 같은 컬러 이미지(CIMG)를 제공할 수 있다.For example, when the user selects the subject SO2 on the depth map DM as shown in FIG. 9B, the separation and control unit 320 controls to control the
예들 들어, 깊이 맵(DM) 상에서 사용자가 도 9c에서와 같이 피사체(SO3)를 선택하면, 분리 및 제어부(320)는 선택된 피사체(SO3)에 포커싱 되도록 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 모터부(130)에 제공한다. 모터부(130)는 제어 신호(CTRL)에 따라서 수광 렌즈(120)를 이동시켜(예를 들어 피사체(50) 쪽으로), 수광 렌즈(120)의 초점을 선택된 피사체(SO3)에 맞춘다. 선택된 피사체(SO3)에 포커싱된 수광 렌즈(120)를 통하여 피사체들(50)로부터의 가시광선에 기초하여 센서부(200)는 컬러 데이터(CDTA)를 생성하고, 엔진부(300)의 제2 이미지 신호 처리기(330)는 컬러 데이터(CDTA)를 처리하여 도 10c와 같은 컬러 이미지(CIMG)를 제공할 수 있다.For example, when the user selects the subject SO3 on the depth map DM as shown in FIG. 9C, the separation and control unit 320 controls the
도 11은 본 발명의 다른 실시예에 따른 촬상 장치를 나타내는 블록도이다.11 is a block diagram showing an image pickup device according to another embodiment of the present invention.
도 11을 참조하면, 촬상 장치(20)는 센서 모듈(500), 수광 렌즈(520) 및 엔진부(700)를 포함한다. 촬상 장치(20)는 애플리케이션(700)을 더 포함할 수도 있다. 센서 모듈(500)은 광원부(510) 및 센서부(600)를 포함할 수 있다. 광원부(510)는 광원(511) 및 렌즈(512)를 포함할 수 있다. 실시예에 따라 센서부(600) 및 광원부(510)는 각각 별도의 장치로 구현되거나, 광원부(510)의 적어도 일부의 구성이 센서부(600)에 포함되도록 구현될 수 있다.Referring to FIG. 11, the
수광 렌즈(520)는 센서부(600)의 수광 영역(예를 들어 센서부(600)에 포함되는 픽셀 어레이에 포함되는 거리 픽셀들 및/또는 컬러 픽셀들)으로 입사광을 집광시킬 수 있다. 센서부(600)는 복수의 피사체들(60)로부터 반사된 수신광(RX)에 기초하여 복수의 피사체들(50)에 대한 거리 정보를 포함하는 깊이 데이터(ZDATA)를 생성하고, 피사체들(60)로부터의 가시광선(VL)에 기초하여 피사체들(60)에 대한 컬러 정보를 포함하는 컬러 데이터(CDTA)를 엔진부(700)에 제공한다. 엔진부(800)는 깊이 데이터(ZDTA)를 기초로 피사체들(60)에 대한 거리 정보를 포함하는 깊이 맵을 생성하고, 상기 생성된 깊이 맵을 기초로 상기 컬러 데이터(CDTA)에 대하여 이미지 블러링 처리를 수행할 수 있다.The
광원부(510)의 광원(511)은 적외선 또는 근적외선을 생성하고, 렌즈(512)는 적외선 또는 근적외선이 피사체들(60)에 포커싱되도록 한다.The
센서 모듈(500)은 클록 신호(CLK)에 기초하여 깊이 데이터(ZDTA) 및또는 컬러 데이터(CDTA)를 포함하는 데이터(DATA1)를 엔진부(800)에 제공할 수 있다. 실시예에 따라, 센서 모듈(200)은 MIPI(Mobile Industry Processor Interface) 및/또는 CSI(Camera Serial Interface)를 통하여 엔진부(300)와 인터페이싱할 수 있다.The
엔진부(700)는 센서 모듈(500)을 제어하고 엔진부(700)는 센서부(600)로부터 수신된 데이터(DATA1)를 처리할 수 있다. 예를 들어, 엔진부(700)는 센서부(700)로부터 수신된 데이터(DATA1)에 기초하여 입체 컬러 데이터(스테레오 데이터)를 생성할 수 있다. 다른 예에서, 엔진부(700)는 데이터(DATA1)에 포함된 상기 RGB 데이터에 기초하여 휘도 성분, 상기 휘도 성분과 청색 성분의 차, 및 휘도 성분과 적색 성분의 차를 포함하는 YUV 데이터를 생성하거나, 압축 데이터, 예를 들어 JPEG(Joint Photography Experts Group) 데이터를 생성할 수 있다. 엔진부(700)는 호스트/어플리케이션(800)에 연결될 수 있으며, 엔진부(300)는 마스터 클록(MCLK)에 기초하여 데이터(DATA2)를 호스트/어플리케이션(400)에 제공할 수 있다. 또한, 엔진부(700)는 SPI(Serial Peripheral Interface) 및/또는 I2C(Inter Integrated Circuit)를 통하여 호스트/어플리케이션(400)과 인터페이싱할 수 있다.The
도 11의 실시예에서 수광 렌즈(520)는 상대적으로 긴 심도(depth of field)를 가질 수 있다. 즉 수광 렌즈(520)의 초점은 피사체들(60) 모두를 커버할 수 있다.In the embodiment of FIG. 11, the
센서부(600)는 도 2의 센서부(200a) 또는 도 5의 센서부(200b)와 실질적으로 동일한 구조를 갖을 수 있기 때문에, 센서부(600)의 구성과 동작에 대한 상세한 설명은 생략한다. 즉 센서부(600)는 복수의 깊이 픽셀들을 포함하는 깊이 픽셀 어레이를 구비하는 깊이 센서와 복수의 컬러 픽셀들을 포함하는 컬러 픽셀 어레이를 구비하는 컬러 센서가 서로 분리되어 구현될 수도 있고, 복수의 컬러 픽셀들과 깊이 픽셀들이 배열된 픽셀 어레이를 포함하는 깊이/컬러 센서로 구현될 수도 있다.Since the
도 12는 본 발명의 일 실시예에 따른 도 11의 엔진부의 구성을 나타내는 블록도이다.12 is a block diagram illustrating a configuration of the engine unit of FIG. 11 according to an embodiment of the present invention.
도 12를 참조하면, 엔진부(700)는 제1 이미지 신호 처리기(710), 분리부(720), 제2 이미지 신호 처리기(730) 및 이미지 블러링 처리부(740)를 포함할 수 있다. 제1 이미지 신호 처리기(710)는 깊이 데이터(ZDTA)를 처리하여 피사체들(60)에 대한 깊이 이미지(ZIMG)와 깊이 맵(DM)을 생성한다. 깊이 이미지(ZIMG)는 애플리케이션(800)에 제공될 수 있고, 깊이 맵(DM)은 분리부(720)에 제공된다. 분리부(720)는 깊이 맵(DM)에 기초하여 피사체들(60)을 분리(피사체들 중 하나를 선택)하고, 분리된 피사체들에 관한 분리 데이터(SDTA)를 제공한다. 제2 이미지 신호 처리기(730)는 컬러 데이터(CDTA)를 처리하여 피사체들(60)에 대한 컬러 이미지(CIMG)를 생성한다. 컬러 이미지(CIMG)는 블러링 처리부(740)에 제공된다. 블러링 처리부(740)는 분리 데이터(SDTA)에 기초하여 컬러 이미지(CIMG) 중에서 분리부(720)에서 선택된 피사체를 기준으로 하여 나머지 피사체들에 대하여 블러링 처리를 하여 블러링된 컬러 이미지(BCIMG)를 생성한다. 예들 들어 블러링 처리부(740)는 컬러 이미지(CIMG) 중에서 선택된 피사체는 그대로 유지하고 나머지 피사체들은 선택된 피사체와의 상대적 거리를 바탕으로 하여 나머지 피사체들에 대하여 서로 다른 블러 레벨로 블러링 처리를 수행할 수 있다.Referring to FIG. 12, the
도 13은 본 발명의 일 실시예에 따른 도 11의 호스트/애플리케이션을 나타낸다.13 illustrates the host / application of FIG. 11 in accordance with an embodiment of the present invention.
도 13을 참조하면, 호스트/애플리케이션(800)은 블러링된 컬러 이미지(BCIMG)와 깊이 이미지(ZIMG)를 합성하여 스테레오 이미지(SIMG), 즉 블러링 효과를 포함하는 3차원 컬러 이미지를 생성할 수 있다. 즉 호스트/애플리케이션(800)은 피사체들(60)에 대한 거리 정보를 포함하는 흑백의 깊이 이미지(ZIMG)와 거리 정보에 기초한 깊이 맵(DM)을 기초로 생성된 분리 데이터(SDTA)에 기초하여 피사체들(60) 중 선택된 피사체를 유지하고 나머지 피사체들은 블러링 처리를 한 블러링된 컬러 이미지(BCIMG)를 합성하여 보다 현실감 있는 3차원 컬러 이미지(스테레오 이미지)를 제공할 수 있다.Referring to FIG. 13, the host /
도 14는 복수의 피사체들에 대한 컬러 이미지를 나타내고, 도 15는 복수의 피사체들에 대한 깊이 맵을 나타내고, 도 16a 내지 도 16c는 선택된 피사체를 기준으로 블러링 처리가 수행된 경우의 블러링된 컬러 이미지를 나타낸다. 설명의 편의를 위하여 도 15a의 깊이 맵에서 도 도 9a 내지 도 9c에서와 같이 피사체가 선택된 경우가 도 16a 내지 도 16c의 블러링된 컬러 이미지이다.14 illustrates a color image of a plurality of subjects, FIG. 15 illustrates a depth map of a plurality of subjects, and FIGS. 16A to 16C show blurring when a blurring process is performed based on a selected subject. Represents a color image. For convenience of description, when the subject is selected as shown in FIGS. 9A to 9C in the depth map of FIG. 15A, the blurred color image of FIGS. 16A to 16C is illustrated.
이하 도 11 내지 도 16c를 참조하여 본 발명의 다른 실시예에 따른 촬상 장치(20)의 동작을 상세히 설명한다.Hereinafter, operations of the
복수의 피사체들(60)이 각각 촬상 장치(20)로부터 서로 다른 거리에 위치하고 있다면, 동일한 송신광(TX)에 대하여 피사체들(60)로부터의 수신광(RX)이 센서부(600)에 도달하는 시간의 차이에 따라 도 15와 같은 깊이 맵(DM)을 얻을 수 있다. 이 때, 수광 렌즈(520)는 상대적으로 긴 심도(depth of field)를 가지기 때문에 복수의 피사체들(60)이 각각 촬상 장치(20)로부터 서로 다른 거리에 위치하고 있더라도 복수의 피사체들(60)에 대한 컬러 이미지(CIMG)는 도 14와 같다. 즉 복수의 피사체들(60) 각각이 모두 초점이 맞아 명확히 나타난다.If the plurality of
예들 들어, 깊이 맵(DM) 상에서 도 9a에서와 같이 피사체(SO1)가 선택되면, 분리부(720)는 선택된 피사체(SO1)를 나타내는 분리 데이터(SDTA)를 이미지 블러링 처리부(740)에 제공하고, 이미지 블러링 처리부(740)에서는 선택된 피사체(SO1)를 제외한 나머지 피사체들 각각의 깊이 정보에 따라 나머지 피사체들에 대하여 블러링 처리를 수행하여 도 16a와 같은 블러링된 컬러 이미지(BCIMG)를 생성한다. 예들 들어, 깊이 맵(DM) 상에서 도 9b에서와 같이 피사체(SO2)를 선택되면, 분리부(720)는 선택된 피사체(SO2)를 나타내는 분리 데이터(SDTA)를 이미지 블러링 처리부(740)에 제공하고, 이미지 블러링 처리부(740)에서는 선택된 피사체(SO2)를 제외한 나머지 피사체들 각각의 깊이 정보에 따라 나머지 피사체들에 대하여 블러링 처리를 수행하여 도 16b와 같은 블러링된 컬러 이미지(BCIMG)를 생성한다. 예들 들어, 깊이 맵(DM) 상에서 도 9c에서와 같이 피사체(SO3)를 선택되면, 분리부(720)는 선택된 피사체(SO3)를 나타내는 분리 데이터(SDTA)를 이미지 블러링 처리부(740)에 제공하고, 이미지 블러링 처리부(740)에서는 선택된 피사체(SO3)를 제외한 나머지 피사체들 각각의 깊이 정보에 따라 나머지 피사체들에 대하여 블러링 처리를 수행하여 도 16b와 같은 블러링된 컬러 이미지(BCIMG)를 생성한다.For example, when the object SO1 is selected on the depth map DM as shown in FIG. 9A, the
도 17은 본 발명의 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.17 is a flowchart illustrating an image processing method according to an embodiment of the present invention.
도 1내지 도 10 및 도 17을 참조하면, 촬상 장치(10)의 센서 모듈(100)에서 피사체들(50)에 대한 거리 정보를 포함하는 깊이 데이터(ZDTA)를 생성한다(S110). 엔진부(300)에서 깊이 데이터(ZDTA)를 기초로 깊이 맵(DM)을 생성한다(S120). 깊이 맵(DM) 상에서 피사체들을 분리하고, 수광 렌즈(120)를 제어하기 위한 제어 신호(CTRL)를 생성한다(S130). 제어 신호(CTRL)에 따라 모터부(130)에서 수광 렌즈(120)의 포커스를 제어하여 분리된 피사체에 포커스를 맞춘다(S140). 포커스가 제어된 수광 렌즈(120)를 통하여 집광된 가시광선에 기초하여 피사체들(50)에 대한 컬러 데이터(CDTA)를 센서 모듈(100)에서 생성한다(S150). 실시예에 있어서, 수광 렌즈(120)는 상대적으로 짧은 심도(depth of field)를 가질 수 있다. 즉 수광 렌즈(120)의 초점은 피사체들(50) 중 어느 하나에만 맞춰질 수 있다.1 to 10 and 17, the
도 18은 본 발명의 다른 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.18 is a flowchart illustrating an image processing method according to another exemplary embodiment of the present invention.
도 11 내지 도 16 및 도 18을 참조하면, 센서 모듈(500)에서 피사체들(60)에 대한 거리 정보를 포함하는 깊이 데이터(ZDTA)를 생성한다(S210). 센서 모듈(500)에서 피사체들(60)에 대한 영상 정보를 포함하는 컬러 데이터(CDTA)를 생성한다(S220). 엔진부(700)에서 깊이 데이터(ZDTA)를 기초로 깊이 맵(DM)을 생성한다(S230). 엔진부(700)에서 깊이 맵(DM) 상에서 피사체들을 분리하고, 분리된 피사체를 나타내는 분리 데이터(SDTA)를 생성한다(S240). 엔진부(700)에서, 분리 데이터(SDTA)에 기초하여 컬러 데이터(CDTA)에 대한 이미지 블러링 처리를 수행하여 블러링된 컬러 이미지(BCIMG)를 생성한다(S250). 실시예에서 수광 렌즈(520)는 상대적으로 긴 심도(depth of field)를 가질 수 있다. 즉 수광 렌즈(520)의 초점은 피사체들(60) 모두를 커버할 수 있다.11 through 16 and 18, the
도 19는 본 발명의 일 실시예에 따른 촬상 장치를 컴퓨팅 시스템에 응용한 예를 나타내는 블록도이다.19 is a block diagram illustrating an example in which an imaging device according to an embodiment of the present invention is applied to a computing system.
도 19를 참조하면, 컴퓨팅 시스템(1000)은 프로세서(1010), 메모리 장치(1020), 저장 장치(1030), 입출력 장치(1040), 파워 서플라이(1050) 및 촬상 장치(900)를 포함할 수 있다. 한편, 도 33에는 도시되지 않았지만, 컴퓨팅 시스템(1000)은 비디오 카드, 사운드 카드, 메모리 카드, USB 장치 등과 통신하거나, 또는 다른 전자 기기들과 통신할 수 있는 포트(port)들을 더 포함할 수 있다.Referring to FIG. 19, the
프로세서(1010)는 특정 계산들 또는 태스크(task)들을 수행할 수 있다. 실시예에 따라, 프로세서(1010)는 마이크로프로세서(micro-processor), 중앙 처리 장치(Central Processing Unit; CPU)일 수 있다. 프로세서(1010)는 어드레스 버스(address bus), 제어 버스(control bus) 및 데이터 버스(data bus)를 통하여 메모리 장치(1020), 저장 장치(1030) 및 입출력 장치(1040)와 통신을 수행할 수 있다. 실시예에 따라, 프로세서(1010)는 주변 구성요소 상호연결(Peripheral Component Interconnect; PCI) 버스와 같은 확장 버스에도 연결될 수 있다. 메모리 장치(1020)는 컴퓨팅 시스템(1000)의 동작에 필요한 데이터를 저장할 수 있다. 예를 들어, 메모리 장치(1020)는 디램(DRAM), 모바일 디램, 에스램(SRAM), 피램(PRAM), 에프램(FRAM), 알램(RRAM) 및/또는 엠램(MRAM)으로 구현될 수 있다. 저장 장치(1030)는 솔리드 스테이트 드라이브(solid state drive), 하드 디스크 드라이브(hard disk drive), 씨디롬(CD-ROM) 등을 포함할 수 있다. 입출력 장치(1040)는 키보드, 키패드, 마우스 등과 같은 입력 수단 및 프린터, 디스플레이 등과 같은 출력 수단을 포함할 수 있다. 파워 서플라이(1050)는 전자 기기(1000)의 동작에 필요한 동작 전압을 공급할 수 있다.
촬상 장치(900)는 상기 버스들 또는 다른 통신 링크를 통해서 프로세서(1010)와 연결되어 통신을 수행할 수 있다. 상술한 바와 같이, 촬상 장치(900)는 먼저 피사체들에 대한 거리 정보를 기초로 깊이 맵을 생성하고 깊이 맵에 따라서 수광 렌즈의 포커스를 조절할 수 있다. 또는 촬상 장치(900)는 피사체들에 대한 깊이 맵을 기초로 피사체들에 대한 컬러 이미지에 대한 블러링 처리를 수행하여 3차원 현실감을 향상시킬 수 있다. 촬상 장치(900)는 프로세서(1010)와 함께 하나의 칩에 집적될 수도 있고, 서로 다른 칩에 각각 집적될 수도 있다.The
촬상 장치(900)는 다양한 형태들의 패키지로 구현될 수 있다. 예를 들어, 3차원 이미지 센서(900)의 적어도 일부의 구성들은 PoP(Package on Package), Ball grid arrays(BGAs), Chip scale packages(CSPs), Plastic Leaded Chip Carrier(PLCC), Plastic Dual In-Line Package(PDIP), Die in Waffle Pack, Die in Wafer Form, Chip On Board(COB), Ceramic Dual In-Line Package(CERDIP), Plastic Metric Quad Flat Pack(MQFP), Thin Quad Flatpack(TQFP), Small Outline(SOIC), Shrink Small Outline Package(SSOP), Thin Small Outline(TSOP), Thin Quad Flatpack(TQFP), System In Package(SIP), Multi Chip Package(MCP), Wafer-level Fabricated Package(WFP), Wafer-Level Processed Stack Package(WSP) 등과 같은 패키지들을 이용하여 실장될 수 있다.The
한편, 컴퓨팅 시스템(1000)은 촬상 장치를 이용하는 모든 컴퓨팅 시스템으로 해석되어야 할 것이다. 예를 들어, 컴퓨팅 시스템(1000)은 디지털 카메라, 이동 전화기, 피디에이(Personal Digital Assistants; PDA), 피엠피(Portable Multimedia Player; PMP), 스마트폰 등을 포함할 수 있다.Meanwhile, the
도 20은 도 19의 컴퓨팅 시스템에서 사용되는 인터페이스의 일 예를 나타내는 블록도이다.20 is a block diagram illustrating an example of an interface used in the computing system of FIG. 19.
도 20을 참조하면, 컴퓨팅 시스템(1100)은 MIPI 인터페이스를 사용 또는 지원할 수 있는 데이터 처리 장치로 구현될 수 있고, 어플리케이션 프로세서(1110), 촬상 장치(1140) 및 디스플레이(1150) 등을 포함할 수 있다. 어플리케이션 프로세서(1110)의 CSI 호스트(1112)는 카메라 시리얼 인터페이스(Camera Serial Interface; CSI)를 통하여 3차원 이미지 센서(1140)의 CSI 장치(1141)와 시리얼 통신을 수행할 수 있다. 일 실시예에서, CSI 호스트(1112)는 디시리얼라이저(DES)를 포함할 수 있고, CSI 장치(1141)는 시리얼라이저(SER)를 포함할 수 있다. 어플리케이션 프로세서(1110)의 DSI 호스트(1111)는 디스플레이 시리얼 인터페이스(Display Serial Interface; DSI)를 통하여 디스플레이(1150)의 DSI 장치(1151)와 시리얼 통신을 수행할 수 있다.Referring to FIG. 20, the
일 실시예에서, DSI 호스트(1111)는 시리얼라이저(SER)를 포함할 수 있고, DSI 장치(1151)는 디시리얼라이저(DES)를 포함할 수 있다. 나아가, 컴퓨팅 시스템(1100)은 어플리케이션 프로세서(1110)와 통신을 수행할 수 있는 알에프(Radio Frequency; RF) 칩(1160)을 더 포함할 수 있다. 컴퓨팅 시스템(1100)의 PHY(1113)와 RF 칩(1160)의 PHY(1161)는 MIPI(Mobile Industry Processor Interface) DigRF에 따라 데이터 송수신을 수행할 수 있다. 또한, 어플리케이션 프로세서(1110)는 PHY(1161)의 MIPI DigRF에 따른 데이터 송수신을 제어하는 DigRF MASTER(1114)를 더 포함할 수 있다.In one embodiment, the DSI host 1111 may include a serializer (SER), and the
한편, 컴퓨팅 시스템(1100)은 지피에스(Global Positioning System; GPS)(1120), 스토리지(1170), 마이크(1180), 디램(Dynamic Random Access Memory; DRAM)(1185) 및 스피커(1190)를 포함할 수 있다. 또한, 컴퓨팅 시스템(1100)은 초광대역(Ultra WideBand; UWB)(1210), 무선 랜(Wireless Local Area Network; WLAN)(1220) 및 와이맥스(Worldwide Interoperability for Microwave Access; WIMAX)(1230) 등을 이용하여 통신을 수행할 수 있다. 다만, 컴퓨팅 시스템(1100)의 구조 및 인터페이스는 하나의 예시로서 이에 한정되는 것이 아니다.The
본 발명의 실시예들에 따른 촬상 장치는 입체 컬러 이미지를 제공하기 위하여 임의의 광감지 장치에 이용될 수 있다. 또한, 본 발명은 얼굴 인식 보안 시스템, 컴퓨터, 디지털 카메라, 3차원 카메라, 휴대폰, PDA, 스캐너, 차량용 네비게이션, 비디오 폰, 감시 시스템, 자동 포커스 시스템, 추적 시스템, 동작 감지 시스템, 이미지 안정화 시스템 등에 유용하게 이용될 수 있다.The imaging device according to embodiments of the present invention can be used in any light sensing device to provide a stereoscopic color image. The present invention is also useful for face recognition security systems, computers, digital cameras, 3D cameras, mobile phones, PDAs, scanners, car navigation systems, video phones, surveillance systems, auto focus systems, tracking systems, motion detection systems, image stabilization systems, and the like. Can be used.
상술한 바와 같이, 본 발명의 바람직한 실시예를 참조하여 설명하였지만 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, the present invention has been described with reference to a preferred embodiment of the present invention, but those skilled in the art may vary the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. It will be understood that modifications and changes can be made.
Claims (10)
복수의 피사체들로부터의 수신광을 기초로 상기 피사체들에 대한 거리 정보를 포함하는 깊이 데이터를 생성하는 센서 모듈;
상기 깊이 데이터를 기초로 상기 피사체들에 대한 깊이 맵을 생성하고, 상기 깊이 맵 상에서 상기 피사체들을 분리하고, 분리된 피사체들에 기초하여 상기 수광 렌즈를 제어하기 위한 제어 신호를 생성하는 엔진부; 및
상기 제어 신호에 따라 상기 수광 렌즈의 포커스를 제어하는 모터부를 포함하고,
상기 센서 모듈은 상기 포커스가 조절된 수광 렌즈를 통하여 집광된 상기 피사체들로부터 반사된 가시광선에 기초하여 상기 피사체들에 대한 컬러 데이터를 생성하여 상기 엔진부에 제공하는 촬상 장치.Light receiving lens;
A sensor module configured to generate depth data including distance information about the subjects, based on the received light from a plurality of subjects;
An engine unit generating a depth map of the subjects based on the depth data, separating the subjects on the depth map, and generating a control signal for controlling the light receiving lens based on the separated subjects; And
A motor unit for controlling the focus of the light receiving lens according to the control signal,
And the sensor module generates color data of the subjects and provides the generated color data to the engine unit based on visible rays reflected from the subjects focused through the focus-controlled light receiving lens.
상기 깊이 데이터를 생성하는 깊이 센서; 및
상기 컬러 데이터를 생성하는 컬러 센서를 포함하는 것을 특징으로 하는 촬상 장치.The method of claim 1, wherein the sensor module
A depth sensor for generating the depth data; And
And a color sensor for generating the color data.
상기 엔진부는,
상기 깊이 데이터를 처리하여 상기 피사체들에 대한 깊이 이미지와 상기 깊이 맵을 생성하는 제1 이미지 신호 처리기;
상기 깊이 맵에 기초하여 상기 피사체들을 분리하고, 상기 분리된 피사체들에 기초하여 상기 수광 렌즈를 제어하기 위한 상기 제어 신호를 생성하는 분리 및 제어부; 및
상기 컬러 데이터를 처리하여 상기 피사체들에 대한 컬러 이미지를 생성하는 제2 이미지 신호 처리기를 포함하는 것을 특징으로 하는 촬상 장치.The method of claim 1,
The engine unit,
A first image signal processor configured to process the depth data to generate a depth image and the depth map of the subjects;
A separation and control unit for separating the subjects based on the depth map and generating the control signal for controlling the light receiving lens based on the separated subjects; And
And a second image signal processor configured to process the color data to generate a color image of the subjects.
상기 수광 렌즈를 통한, 복수의 피사체들로부터의 반사광을 기초로 상기 피사체들에 대한 거리 정보를 포함하는 깊이 데이터와 상기 복수의 피사체들로부터의 가시광선을 기초로 상기 피사체들에 대한 컬러 데이터를 생성하는 센서 모듈; 및
상기 깊이 데이터에 기초하여 상기 피사체들에 대한 깊이 맵을 생성하고 상기 깊이 맵에 기초하여 상기 컬러 데이터에 대하여 이미지 블러링 처리를 수행하는 엔진부를 포함하는 촬상 장치.Light receiving lens;
Generating color data of the subjects through the light receiving lens based on depth data including distance information of the subjects based on reflected light from a plurality of subjects and visible light from the plurality of subjects. A sensor module; And
And an engine unit generating a depth map of the subjects based on the depth data and performing an image blurring process on the color data based on the depth map.
상기 깊이 데이터를 처리하여 상기 피사체들에 대한 깊이 이미지와 상기 깊이 맵을 생성하는 제1 이미지 신호 처리기;
상기 깊이 맵에 기초하여 상기 피사체들을 분리하고, 상기 분리된 피사체들에 관한 분리 데이터를 제공하는 분리부;
상기 컬러 데이터를 처리하여 상기 피사체들에 대한 컬러 이미지를 생성하는 제2 이미지 신호 처리기; 및
상기 분리 데이터에 기초하여 상기 컬러 이미지에 대한 이미지 블러링 처리를 수행하여 블러링된 컬러 이미지를 제공하는 블러링 처리부를 포함하는 것을 특징으로 하는 촬상 장치.The method of claim 6, wherein the engine unit,
A first image signal processor configured to process the depth data to generate a depth image and the depth map of the subjects;
A separation unit that separates the subjects based on the depth map and provides separation data regarding the separated subjects;
A second image signal processor configured to process the color data to generate a color image of the subjects; And
And a blurring processing unit which performs an image blurring process on the color image based on the separated data to provide a blurred color image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110029388A KR20120111092A (en) | 2011-03-31 | 2011-03-31 | Image pick-up apparatus |
US13/432,704 US20120249740A1 (en) | 2011-03-30 | 2012-03-28 | Three-dimensional image sensors, cameras, and imaging systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110029388A KR20120111092A (en) | 2011-03-31 | 2011-03-31 | Image pick-up apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120111092A true KR20120111092A (en) | 2012-10-10 |
Family
ID=47281836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110029388A KR20120111092A (en) | 2011-03-30 | 2011-03-31 | Image pick-up apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120111092A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150100394A (en) * | 2014-02-25 | 2015-09-02 | 삼성전자주식회사 | Image displaying method and apparatus |
US9749613B2 (en) | 2013-04-08 | 2017-08-29 | Samsung Electronics Co., Ltd. | 3D image acquisition apparatus and method of generating depth image in the 3D image acquisition apparatus |
KR20200037698A (en) * | 2018-10-01 | 2020-04-09 | 삼성전자주식회사 | 3D(dimension) image sensor comprising polarizer, and depth calibrating method and 3D image generating method based on the 3D image sensor |
KR102184210B1 (en) * | 2019-12-26 | 2020-11-27 | 박배억 | 3d camera system |
-
2011
- 2011-03-31 KR KR1020110029388A patent/KR20120111092A/en not_active Application Discontinuation
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9749613B2 (en) | 2013-04-08 | 2017-08-29 | Samsung Electronics Co., Ltd. | 3D image acquisition apparatus and method of generating depth image in the 3D image acquisition apparatus |
KR20150100394A (en) * | 2014-02-25 | 2015-09-02 | 삼성전자주식회사 | Image displaying method and apparatus |
KR20200037698A (en) * | 2018-10-01 | 2020-04-09 | 삼성전자주식회사 | 3D(dimension) image sensor comprising polarizer, and depth calibrating method and 3D image generating method based on the 3D image sensor |
US11762073B2 (en) | 2018-10-01 | 2023-09-19 | Samsung Electronics Co., Ltd. | Three-dimensional (3D) image sensors including polarizer, and depth correction methods and 3D image generation methods based on 3D image sensors |
KR102184210B1 (en) * | 2019-12-26 | 2020-11-27 | 박배억 | 3d camera system |
WO2021133082A1 (en) * | 2019-12-26 | 2021-07-01 | 박배억 | Three-dimensional camera system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101694797B1 (en) | Method of operating a three-dimensional image sensor | |
US10186045B2 (en) | Methods of and apparatuses for recognizing motion of objects, and associated systems | |
KR101887099B1 (en) | image processing system and image processing method | |
US20120249740A1 (en) | Three-dimensional image sensors, cameras, and imaging systems | |
US20120236121A1 (en) | Methods of Operating a Three-Dimensional Image Sensor Including a Plurality of Depth Pixels | |
KR102480600B1 (en) | Method for low-light image quality enhancement of image processing devices and method of operating an image processing system for performing the method | |
KR20120111013A (en) | A tree-dimensional image sensor and method of measuring distance using the same | |
KR20130100524A (en) | Method of operating a three-dimensional image sensor | |
KR20130098042A (en) | Apparatus of generating depth information and photographing apparatus including the same | |
US20080063294A1 (en) | System and Method for High Performance Image Processing | |
JP6791962B2 (en) | Imaging device | |
US9258502B2 (en) | Methods of operating depth pixel included in three-dimensional image sensor and methods of operating three-dimensional image sensor | |
CN112189147A (en) | Reduced power operation of time-of-flight cameras | |
US20180224629A1 (en) | Focusing control device, focusing control method, focusing control program, lens device, and imaging device | |
KR20120111092A (en) | Image pick-up apparatus | |
US9485483B2 (en) | Image sensor and image sensor system including the same | |
US20190222752A1 (en) | Sensors arragement and shifting for multisensory super-resolution cameras in imaging environments | |
CN111788568A (en) | Method for generating a plurality of information by sensing a plurality of wavelength bandwidths using a camera and apparatus therefor | |
US20200374493A1 (en) | Camera module comprising complementary color filter array and electronic device comprising same | |
JP2023169254A (en) | Imaging element, operating method for the same, program, and imaging system | |
KR20220010192A (en) | Multi-function time-of-flight sensor and method of operating the same | |
KR20120110614A (en) | A tree-dimensional image sensor | |
US20150054919A1 (en) | Three-dimensional image sensor module and method of generating three-dimensional image using the same | |
KR20110083888A (en) | Image interpolating method by bayer-pattern-converting signal and program recording medium | |
US11467673B2 (en) | Method for controlling camera and electronic device therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |