KR20160137289A - Photographing apparatus and method for controlling the same - Google Patents

Photographing apparatus and method for controlling the same Download PDF

Info

Publication number
KR20160137289A
KR20160137289A KR1020150098414A KR20150098414A KR20160137289A KR 20160137289 A KR20160137289 A KR 20160137289A KR 1020150098414 A KR1020150098414 A KR 1020150098414A KR 20150098414 A KR20150098414 A KR 20150098414A KR 20160137289 A KR20160137289 A KR 20160137289A
Authority
KR
South Korea
Prior art keywords
image
camera module
pixel structure
color
pixel
Prior art date
Application number
KR1020150098414A
Other languages
Korean (ko)
Other versions
KR102336449B1 (en
Inventor
이태희
정종삼
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/057,201 priority Critical patent/US9743015B2/en
Publication of KR20160137289A publication Critical patent/KR20160137289A/en
Priority to US15/645,427 priority patent/US9961272B2/en
Application granted granted Critical
Publication of KR102336449B1 publication Critical patent/KR102336449B1/en

Links

Images

Classifications

    • H04N5/2258
    • H04N5/23232
    • H04N5/23267
    • H04N5/2352
    • H04N5/335
    • H04N9/045

Abstract

According to an embodiment of the present invention, a filming apparatus includes: first and second camera modules filming the same subject; and a control unit which maps a second image obtained from the second camera module onto a first image obtained from the first camera module and uses the second image mapped onto the first image to synthesize a third image of the subject. Image sensors included in the first camera module have a first pixel structure with rectangular shapes. Image sensors included in the second camera module have a second pixel structure different from the first pixel structure.

Description

촬영 장치 및 촬영 장치의 동작방법{PHOTOGRAPHING APPARATUS AND METHOD FOR CONTROLLING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a photographing apparatus and a method of operating the photographing apparatus,

다양한 실시예들은 촬영 장치 및 그 동작방법에 관한 것으로서, 더욱 상세하게는 복수의 모듈들로부터 획득한 영상들을 이용한 영상 해상도를 향상시키는 촬영 장치 및 그 동작방법에 관한 것이다.BACKGROUND OF THE INVENTION Field of the Invention [0002] The present invention relates to an image capturing apparatus and an operation method thereof, and more particularly, to an image capturing apparatus and an operation method thereof that improve image resolution using images obtained from a plurality of modules.

다중 카메라 시스템은 두 개 이상의 카메라 모듈들을 포함하고, 카메라 모듈들 각각에 입력되는 영상들을 이용하여, 특정 객체에 대한 초점을 검출하거나 입체 영상을 생성할 수 있다. 또한 최근에 다중 카메라 시스템은 영상의 해상도를 향상시키기 위해 복수의 영상 정보를 얻는데 이용되고 있다.The multiple camera system includes two or more camera modules, and can detect a focus on a specific object or generate a stereoscopic image using the images input to each of the camera modules. Recently, a multi-camera system has been used to acquire a plurality of image information to improve the resolution of an image.

다양한 실시예들은, 이미지 센서의 픽셀 형태가 상이한 제1 카메라 모듈 및 제2 카메라 모듈로부터 획득한 각각의 영상을 이용하여, 영상 해상도를 향상시키는 촬영 장치 및 그 동작방법을 제공하고자 하는 것이다.Various embodiments provide a photographing apparatus and an operation method thereof that improve image resolution using respective images obtained from a first camera module and a second camera module having different pixel shapes of the image sensor.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면은, 동일한 피사체를 촬영하는 제1 카메라 모듈 및 제2 카메라 모듈; 상기 제1 카메라 모듈로부터 획득한 제1 영상에 상기 제2 카메라 모듈로부터 획득한 제2 영상을 매핑하고, 상제 제1 영상과 상기 매핑된 제2 영상을 이용하여 상기 피사체의 제3 영상을 합성하는 제어부를 포함하고, 상기 제1 카메라 모듈에 포함되는 이미지 센서는 픽셀 형태가 사각형으로 구성된 제1 픽셀 구조를 가지고, 상기 제2 카메라 모듈에 포함되는 이미지 센서는 상기 제1 픽셀 구조와 다른 제2 픽셀 구조를 가지는, 촬영 장치를 제공할 수 있다.As a technical means for achieving the above-mentioned technical object, a first aspect of the present disclosure is a camera module comprising: a first camera module and a second camera module for photographing the same object; A second image obtained from the second camera module is mapped to a first image acquired from the first camera module, and a third image of the subject is synthesized using the first image and the second image mapped Wherein the image sensor included in the first camera module has a first pixel structure in which the pixel shape is a quadrangle and the image sensor included in the second camera module has a second pixel structure different from the first pixel structure, Structure can be provided.

일 실시예에 따른 상기 제1 카메라 모듈과 상기 제2 카메라 모듈 중 하나는 칼라 카메라 모듈이고, 다른 하나는 모노 카메라 모듈인, 촬영 장치를 제공할 수 있다.One of the first camera module and the second camera module according to an embodiment is a color camera module and the other is a mono camera module.

일 실시예에 따른 상기 제2 픽셀 구조에 포함되는 복수의 픽셀 구조 중 제1 영역 및 제2 영역은 크기 및 모양 중 적어도 하나가 다른, 촬영 장치를 제공할 수 있다.The first and second regions among the plurality of pixel structures included in the second pixel structure according to an exemplary embodiment may have at least one of a size and a shape different from each other.

일 실시예에 따른 상기 제어부는, 상기 제1 영상과 상기 매핑된 제2 영상의 시차 정보를 기초로, 영상 합성시 기준이 되는 영상을 상기 칼라 카메라 모듈로부터 획득한 영상으로 할지 상기 모노 카메라 모듈로부터 획득한 영상으로 할 지 결정하는, 촬영 장치를 제공할 수 있다.The controller may be configured to determine whether the image obtained from the color camera module based on the parallax information of the first image and the mapped second image is an image obtained from the mono camera module It is possible to provide a photographing apparatus which determines whether to make an acquired image.

일 실시예에 따른 상기 제어부는, 상기 시차 정보가 임계값보다 큰 지를 판단하고, 상기 시차 정보가 상기 임계값보다 크면 상기 영상 합성시 기준이 되는 영상을 상기 칼라 카메라 모듈로부터 획득한 영상으로 결정하고, 상기 시차 정보가 상기 임계값보다 크지 않으면, 상기 영상 합성시 기준이 되는 영상을 상기 모노 카메라 모듈로부터 획득한 영상으로 결정하는, 촬영 장치를 제공할 수 있다.The controller determines whether the parallax information is greater than a threshold value. If the parallax information is greater than the threshold value, the controller determines the image to be a reference for the image synthesis as an image acquired from the color camera module And determining an image obtained as a reference in the image synthesis as an image acquired from the mono camera module if the parallax information is not greater than the threshold value.

일 실시예에 따른 상기 시차 정보는 상기 제1 영상과 상기 매핑된 제2 영상의 디스패리티 내지 오클루젼 정보 중 적어도 하나를 포함하는, 촬영 장치를 제공할 수 있다.The parallax information may include at least one of disparity and occlusion information of the first image and the mapped second image.

또한, 본 개시의 제 2 측면은, 제1 카메라 모듈로부터 피사체를 촬영한 제1 영상 및 제2 카메라 모듈로부터 상기 피사체를 촬영한 제2 영상을 획득하는 단계; 상기 획득된 제1 영상에 상기 획득된 제2 영상을 매핑하는 단계; 및 상기 제1 영상과 상기 매핑된 제2 영상을 이용하여 상기 피사체의 제3 영상을 합성하는 단계;를 포함하고, 상기 제1 카메라 모듈에 포함되는 이미지 센서는 픽셀 형태가 사각형으로 구성된 제1 픽셀 구조를 가지고, 상기 제2 카메라 모듈에 포함되는 이미지 센서는 상기 제1 픽셀 구조와 다른 제2 픽셀 구조를 가지는, 촬영 장치의 동작방법을 제공할 수 있다.According to a second aspect of the present disclosure, there is provided an image processing method comprising the steps of: obtaining a first image of a subject photographed from a first camera module and a second image of the subject photographed from a second camera module; Mapping the acquired second image to the acquired first image; And synthesizing a third image of the subject using the first image and the mapped second image, wherein the image sensor included in the first camera module includes a first pixel having a pixel shape of a rectangle, And the image sensor included in the second camera module has a second pixel structure different from the first pixel structure.

일 실시예에 따른 상기 제1 카메라 모듈과 상기 제2 카메라 모듈 중 하나는 칼라 카메라 모듈이고, 다른 하나는 모노 카메라 모듈일 수 있다.One of the first camera module and the second camera module according to an exemplary embodiment may be a color camera module and the other may be a mono camera module.

일 실시예에 따른 상기 제2 픽셀 구조에 포함되는 복수의 픽셀 구조 중 제1 영역 및 제2 영역은 크기 및 모양 중 적어도 하나가 다를 수 있다.The first and second regions of the plurality of pixel structures included in the second pixel structure may have at least one of a size and a shape different from each other.

일 실시예에 따른 상기 피사체의 제3 영상을 합성하는 단계는, 상기 제1 영상과 상기 매핑된 제2 영상의 시차 정보를 기초로, 영상 합성시 기준이 되는 영상을 상기 칼라 카메라 모듈로부터 획득한 영상으로 할지 상기 모노 카메라 모듈로부터 획득한 영상으로 할 지 결정하는 단계를 포함할 수 있다.The step of synthesizing the third image of the subject according to an exemplary embodiment may further include a step of acquiring an image serving as a reference upon image synthesis based on the parallax information of the first image and the mapped second image from the color camera module And determining whether to use the image obtained from the mono camera module or the image obtained from the mono camera module.

일 실시예에 따른 상기 피사체의 제3 영상을 합성하는 단계는, 상기 시차 정보가 임계값보다 큰 지를 판단하고, 상기 시차 정보가 상기 임계값보다 크면 상기 영상 합성시 기준이 되는 영상을 상기 칼라 카메라 모듈로부터 획득한 영상으로 결정하고, 상기 시차 정보가 상기 임계값보다 크지 않으면, 상기 영상 합성시 기준이 되는 영상을 상기 모노 카메라 모듈로부터 획득한 영상으로 결정하는 단계를 더 포함할 수 있다.The step of synthesizing the third image of the subject according to an exemplary embodiment may include determining whether the parallax information is greater than a threshold value and if the parallax information is greater than the threshold value, Determining whether the parallax information is greater than the threshold value, and determining an image obtained as a reference in the image synthesis as an image acquired from the mono camera module if the parallax information is not greater than the threshold value.

일 실시예에 따른 상기 시차 정보는 상기 제1 영상과 상기 매핑된 제2 영상의 디스패리티 내지 오클루젼 정보 중 적어도 하나를 포함할 수 있다.The parallax information may include at least one of disparity and occlusion information of the first image and the mapped second image.

또한, 본 개시의 제 3 측면은, 제 2 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.The third aspect of the present disclosure can also provide a computer-readable recording medium on which a program for causing a computer to execute the method of the second aspect is recorded.

도 1은 복수 개의 카메라 모듈을 포함하는 다중 카메라 시스템을 나타내는 도면이다.
도 2는 일 실시예에 따른 촬영 장치의 구성을 나타내는 블록도이다.
도 3은 도 2의 제1 카메라 모듈의 구성을 나타내는 블록도이다.
도 4는 다른 실시예에 따른 촬영 장치의 구성을 나타내는 블록도이다.
도 5는 일 실시예에 따른 제1 픽셀 구조를 설명하기 위해 참조되는 도면이다.
도 6은 일 실시예에 따른 제2 픽셀 구조를 설명하기 위해 참조되는 도면이고, 도 7은 다른 실시예에 따른 제2 픽셀 구조를 설명하기 위해 참조되는 도면이다.
도 8은 일 실시예에 따른 영상 매핑부에서 매핑된 제2 영상을 얻는 방법을 설명하기 위해 참조되는 도면이다.
도 9는 일 실시예에 따른 제3 영상을 합성하는 방법을 설명하기 위해 참조되는 도면이다.
도 10은 및 도 11은 일 실시예에 따른 영상 합성부의 동작방법을 나타내는 흐름도이다.
도 12는 일 실시예에 따른 영상 합성부에서 시차 정보를 얻기 위해 디스패리티(disparity)를 이용하는 방법을 설명하기 위해 참조되는 도면이고, 도 13은 다른 실시예에 따른 영상 합성부에서 시차 정보를 얻기 위해 오클루젼(occlusion)을 이용하는 방법을 설명하기 위해 참조되는 도면이다.
도 14는 일 실시예에 따른 모노 영상을 기준으로 제3 영상을 합성하는 방법을 설명하기 위해 참조되는 도면이고, 도 15는 다른 실시예에 따른 칼라 영상을 기준으로 제3 영상을 합성하는 방법을 설명하기 위해 참조되는 도면이다.
도 16은 일 실시예에 따른 촬영 장치의 동작방법을 나타내는 흐름도이다.
1 is a diagram illustrating a multiple camera system including a plurality of camera modules.
2 is a block diagram showing the configuration of a photographing apparatus according to an embodiment.
3 is a block diagram showing the configuration of the first camera module of Fig.
4 is a block diagram showing a configuration of a photographing apparatus according to another embodiment.
5 is a diagram referred to explain a first pixel structure according to an embodiment.
FIG. 6 is a diagram referred to explain a second pixel structure according to an embodiment, and FIG. 7 is a diagram referred to explain a second pixel structure according to another embodiment.
8 is a diagram for explaining a method of obtaining a second image mapped by the image mapping unit according to an embodiment.
FIG. 9 is a diagram for explaining a method of composing a third image according to an embodiment.
FIG. 10 and FIG. 11 are flowcharts illustrating an operation method of an image combining unit according to an exemplary embodiment.
FIG. 12 is a diagram for explaining a method of using disparity to obtain parallax information in an image synthesizing unit according to an embodiment. FIG. 13 is a flowchart illustrating a method of obtaining parallax information in an image synthesizing unit according to another embodiment. Lt; RTI ID = 0.0 > occlusion < / RTI >
FIG. 14 is a diagram for explaining a method of composing a third image based on a mono image according to an embodiment, and FIG. 15 illustrates a method of synthesizing a third image based on a color image according to another embodiment. Reference is made to the drawings.
16 is a flowchart showing an operation method of the photographing apparatus according to an embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .

아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

<도 1>&Lt; 1 >

도 1은 복수 개의 카메라 모듈을 포함하는 다중 카메라 시스템을 나타내는 도면이다.1 is a diagram illustrating a multiple camera system including a plurality of camera modules.

다중 카메라 시스템은 입체 영상을 생성하는 스테레오 카메라(stereoscopic camera)일 수 있다. 다중 카메라 시스템은 제1 카메라 모듈(21) 및 제2 카메라 모듈(22)을 포함할 수 있다. 이때, 제1 카메라 모듈(21)과 제2 카메라 모듈(22)은 소정 거리만큼 이격되어 배치될 수 있다. 다중 카메라 시스템은 제1 카메라 모듈(21)로부터 획득한 제1 영상과 제2 카메라 모듈(22)로부터 획득한 제2 영상을 이용하여 제3 영상을 획득할 수 있다.The multi-camera system may be a stereoscopic camera that generates stereoscopic images. The multiple camera system may include a first camera module 21 and a second camera module 22. At this time, the first camera module 21 and the second camera module 22 may be spaced apart from each other by a predetermined distance. The multi-camera system can acquire the third image using the first image acquired from the first camera module 21 and the second image acquired from the second camera module 22. [

<도 2, 도 3>2 and 3,

도 2는 일 실시예에 따른 촬영 장치의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of a photographing apparatus according to an embodiment.

도 2를 참조하면, 촬영 장치(100)는 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제어부(130)를 포함할 수 있다. 일 실시예에 따르는 촬영 장치(100)는 도 1에서 설명한 바와 같이, 복수의 카메라 모듈을 포함하는 다중 카메라 시스템으로 구현될 수 있다. 또한, 촬영 장치(100)는 정지 영상을 촬영하는 디지털 스틸 카메라나 동영상을 촬영하는 디지털 비디오 카메라 등의 다양한 형태로 구현될 수 있다. 또한, 촬영 장치(100)는 디지털 일안 리플렉스 카메라(DSLR), 미러리스 카메라 또는 스마트 폰이 포함될 수 있다. 다만, 이에 한정되는 것은 아니며 일 실시예에 따른 촬영 장치(100)는 렌즈 및 촬상소자를 포함하여 피사체를 촬영하고 이미지를 생성할 수 있는 복수의 카메라 모듈을 탑재한, 장치를 포함할 수 있다. 그리고, 일 실시예에 따르는 제어부(130)는 영상 매핑부(140) 및 영상 합성부(150)를 포함할 수 있다.Referring to FIG. 2, the photographing apparatus 100 may include a first camera module 110, a second camera module 120, and a controller 130. The imaging apparatus 100 according to one embodiment may be implemented with a multiple camera system including a plurality of camera modules, as described with reference to FIG. In addition, the photographing apparatus 100 may be implemented in various forms such as a digital still camera for photographing a still image or a digital video camera for photographing a moving image. Further, the photographing apparatus 100 may include a digital single-lens reflex camera (DSLR), a mirrorless camera, or a smart phone. However, the present invention is not limited thereto, and the photographing apparatus 100 according to one embodiment may include an apparatus including a lens and an image pickup device, and mounting a plurality of camera modules capable of photographing a subject and generating an image. In addition, the controller 130 may include an image mapping unit 140 and an image synthesizer 150 according to an exemplary embodiment of the present invention.

일 실시예에 따른 제1 카메라 모듈(110)에 포함되는 이미지 센서 및 제2 카메라 모듈(120)에 포함되는 이미지 센서는 서로 다른 픽셀 구조를 가질 수 있다. 예를 들어, 제1 카메라 모듈(110)에 포함되는 이미지 센서는 픽셀 형태가 사각형으로 구성된 제1 픽셀 구조를 가지고, 제2 카메라 모듈(120)에 포함되는 이미지 센서는 제1 픽셀 구조와 다른 제2 픽셀 구조를 가질 수 있다. 픽셀 구조란 카메라 모듈의 이미지 센서를 구성하는 픽셀들의 형태를 의미하며, 그 형태가 상이한 픽셀들은 촬영 시 받아들이는 광량 등의 차이를 보일 수 있다. 예를 들어, 픽셀 크기가 큰 픽셀은 같은 조건에서 픽셀 크기가 작은 픽셀과 비교하여 고감도 내지 밝은 영상을 얻을 수 있고, 픽셀 크기가 작은 픽셀은 같은 조건에서 픽셀 크기가 큰 픽셀과 비교하여 저감도 내지 어두운 영상을 얻을 수 있다. 따라서, 픽셀 크기가 다른 픽셀 구조를 이용하여 HDR(High Dynamic Range) 영상을 획득하는데 이용할 수 있다. 또한, 칼라 카메라 모듈의 경우 픽셀 형태의 차이에 따라 색재현 정도가 달라질 수 있다.The image sensor included in the first camera module 110 and the image sensor included in the second camera module 120 according to one embodiment may have different pixel structures. For example, the image sensor included in the first camera module 110 has a first pixel structure having a pixel shape of a quadrangle, and the image sensor included in the second camera module 120 has a pixel structure different from the first pixel structure. 2 pixel structure. The pixel structure refers to the shape of the pixels constituting the image sensor of the camera module, and the pixels having different shapes may show a difference in the amount of light to be received at the time of photographing. For example, a pixel having a large pixel size can obtain a high-sensitivity or bright image in comparison with a pixel having a small pixel size under the same condition, and a pixel having a small pixel size can be reduced in sensitivity A dark image can be obtained. Thus, pixel sizes can be used to obtain HDR (High Dynamic Range) images using different pixel structures. In the case of a color camera module, the degree of color reproduction may vary depending on the difference in pixel type.

일 실시예에 따른 제1 픽셀 구조는 직사각형 내지 정사각형의 픽셀 구조를 가지는 일반적인 픽셀 구조를 가지고, 제2 픽셀 구조는 제1 픽셀 구조와 다른 형태를 가지는 다각형 구조를 가지는 픽셀 구조를 가질 수 있다.The first pixel structure according to an embodiment may have a general pixel structure having a pixel structure of a rectangular or square shape and the second pixel structure may have a pixel structure having a polygonal structure having a shape different from the first pixel structure.

또한, 일 실시예에 따른 제1 카메라 모듈(110)에 포함되는 이미지 센서의 해상도와 제2 카메라 모듈(120)에 포함되는 이미지 센서의 해상도는 서로 다를 수 있다. 이미지 센서의 해상도는 이미지 센서에 포함되는 픽셀들의 개수에 의해 결정되며, 이미지 센서에 포함되는 픽셀들의 개수가 많을수록 이미지 센서의 해상도는 높아진다. 예를 들어, 제1 카메라 모듈(110)에 포함되는 이미지 센서의 해상도는 제2 카메라 모듈(120)에 포함되는 이미지 센서의 해상도보다 저해상도 일 수 있으며, 제2 카메라 모듈(120)에 포함되는 이미지 센서의 해상도는 제1 카메라 모듈(110)에 포함되는 이미지 센서의 해상도보다 고해상도 일 수 있다.In addition, the resolution of the image sensor included in the first camera module 110 and the resolution of the image sensor included in the second camera module 120 may be different from each other. The resolution of the image sensor is determined by the number of pixels included in the image sensor, and the higher the number of pixels included in the image sensor, the higher the resolution of the image sensor. For example, the resolution of the image sensor included in the first camera module 110 may be lower than the resolution of the image sensor included in the second camera module 120, The resolution of the sensor may be higher than the resolution of the image sensor included in the first camera module 110.

일 실시예에 따른 제1 카메라 모듈은 칼라 카메라 모듈이고, 제2 카메라 모듈은 모노 카메라 모듈일 수 있다. 다른 실시예에 따른 제1 카메라 모듈은 모노 카메라 모듈이고, 제2 카메라 모듈은 칼라 카메라 모듈일 수 있다. 동일한 이미지 센서에 대해서, 칼라 영상은 모노 영상과 비교하여 칼라 정보를 얻을 수 있는 효과가 있으며, 모노 영상은 칼라 영상과 비교하여 더 많은 광량을 흡수하므로 보다 향상된 디테일 정보를 얻을 수 있는 효과가 있다. 따라서, 칼라 카메라 모듈 및 모노 카메라 모듈을 동시에 이용할 경우, 칼라 영상 및 모노 영상에서의 효과를 동시에 얻을 수 있다.The first camera module according to an exemplary embodiment may be a color camera module, and the second camera module may be a mono camera module. The first camera module according to another embodiment may be a mono camera module, and the second camera module may be a color camera module. For the same image sensor, the color image has an effect of obtaining color information in comparison with the mono image, and the mono image absorbs more light amount compared with the color image, so that the improved detail information can be obtained. Therefore, when the color camera module and the mono camera module are used simultaneously, the effects on the color image and the mono image can be obtained at the same time.

제어부(130)는 촬영 장치(100)의 전체 동작을 제어할 수 있다. 제어부(130)는 촬영 장치(100)에 포함되는 각 구성 요소들에 각 구성 요소의 동작을 위한 제어 신호를 제공한다.The control unit 130 can control the entire operation of the photographing apparatus 100. The control unit 130 provides control signals for operation of each component to each component included in the photographing apparatus 100. [

제어부(130)는 입력되는 영상 신호를 처리하고, 이에 따라 또는 외부 입력 신호에 따라 각 구성부들을 제어할 수 있다. 제어부(130)는 하나 또는 복수개의 프로세서에 해당할 수 있다. 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The control unit 130 processes the input video signal and can control the respective components according to the input video signal or the external input signal. The controller 130 may correspond to one or a plurality of processors. A processor may be implemented as an array of a plurality of logic gates, or may be implemented as a combination of a general purpose microprocessor and a memory in which a program executable in the microprocessor is stored. It will be appreciated by those skilled in the art that the present invention may be implemented in other forms of hardware.

제어부(130)는 저장된 프로그램을 실행하거나, 별도의 모듈을 구비하여, 오토 포커싱, 줌 변경, 초점 변경, 자동 노출 보정 등을 제어하기 위한 제어 신호를 생성하여, 제1 카메라 모듈(110) 및 제2 카메라 모듈(120)에 각각 포함되는 조리개 구동부, 렌즈 구동부, 및 이미지 센서 제어부에 제공하고, 셔터, 스트로보 등 촬영 장치(100)에 구비된 구성 요소들의 동작을 총괄적으로 제어할 수 있다.The control unit 130 executes a stored program or generates a control signal for controlling autofocusing, zooming, focus change, automatic exposure correction, and the like by using a separate module, The lens driving unit, and the image sensor control unit included in the camera module 120 to control the operation of components included in the photographing apparatus 100 such as a shutter and a strobe.

또한 제어부(130)는 외부 모니터와 연결되어, 제1 카메라 모듈(110) 또는 제2 카메라 모듈(120)에 포함되는 이미지 신호 처리부로부터 입력된 영상 신호에 대해 외부 모니터에 디스플레이 되도록 소정의 영상 신호 처리를 행할 수 있으며, 이렇게 처리된 영상 데이터를 전송하여 상기 외부 모니터에서 해당 영상이 디스플레이 되도록 할 수 있다.The control unit 130 is connected to an external monitor to process a video signal inputted from the image signal processing unit included in the first camera module 110 or the second camera module 120, And transmits the processed image data to display the corresponding image on the external monitor.

한편, 일 실시예에 따른 영상 매핑부(140)는 제1 카메라 모듈(110)로부터 획득한 제1 영상에 제2 카메라 모듈(120)로부터 획득한 제2 영상을 매핑할 수 있다. 예를 들어, 영상 매핑부(140)는 제1 영상의 각 픽셀에 대해서 제2 영상의 이에 대응되는 픽셀 위치에 인접한 픽셀들을 이용하여 매핑할 수 있다.Meanwhile, the image mapping unit 140 may map a second image acquired from the second camera module 120 to a first image acquired from the first camera module 110. For example, the image mapping unit 140 may map each pixel of the first image using pixels adjacent to the pixel position corresponding to the second image.

한편, 일 실시예에 따른 영상 합성부(150)는 제1 영상과 매핑된 제2 영상간의 시차 정보를 이용하여 피사체의 제3 영상을 합성할 수 있다. 일 실시예에 따른 영상 합성부(150)는 제1 영상과 매핑된 제2 영상의 시차 정보를 기초로, 영상 합성시 기준이 되는 영상을 칼라 카메라 모듈로부터 획득한 영상으로 할지 모노 카메라 모듈로부터 획득한 영상으로 할 지 결정할 수 있다.Meanwhile, the image combining unit 150 may combine the third image of the subject using the parallax information between the first image and the second image mapped. The image synthesizer 150 may acquire an image based on the parallax information of the second image mapped with the first image from the color camera module, You can decide if you want to make one image.

또한, 일 실시예에 따른 영상 합성부(150)는 시차 정보가 임계값보다 큰 지를 판단하고, 시차 정보가 임계값보다 크면 영상 합성시 기준이 되는 영상을 칼라 카메라 모듈로부터 획득한 영상으로 결정하고, 시차 정보가 임계값보다 크지 않으면, 영상 합성시 기준이 되는 영상을 모노 카메라 모듈로부터 획득한 영상으로 결정할 수 있다.The image synthesizer 150 determines whether the parallax information is greater than the threshold value. If the parallax information is greater than the threshold value, the image synthesizer 150 determines the image as a reference image in the image synthesis as an image acquired from the color camera module , And if the parallax information is not greater than the threshold value, the reference image can be determined as an image obtained from the mono camera module.

또한, 영상 합성부(150)는 제1 영상과 매핑된 제2 영상의 디스패리티 내지 오클루젼 정보 중 적어도 하나를 이용하여 피사체의 제3 영상을 합성할 수 있다.In addition, the image combining unit 150 may synthesize a third image of a subject using at least one of disparity and occlusion information of the second image mapped to the first image.

일 실시예에 따를 때, 칼라 영상 내지 모노 영상 기준으로 제3 영상을 합성할 수 있으며, 칼라 영상 기준으로 제3 영상을 합성하는 경우, 칼라 정보를 그대로 유지할 수 있기 때문에 칼라 영상에서의 색재현성이 보장되며 이와 함께 모노 영상의 향상된 디테일 정보를 얻을 수 있다. 한편, 모노 영상 기준으로 제3 영상을 합성하는 경우, 모노 영상의 디테일 정보를 그대로 유지할 수 있기 때문에 모노 영상에서의 해상도 및 SNR(Signal to Noise Ratio)이 보장되며 이와 함께 칼라 영상의 색상 정보를 이용할 수 있는 효과가 있다.According to one embodiment, a third image can be synthesized based on a color image or a mono image reference. In a case where a third image is synthesized based on a color image reference, since color information can be maintained as it is, color reproducibility And can also obtain improved detail information of the mono image. On the other hand, in the case of synthesizing the third image based on the mono image, since the detail information of the mono image can be maintained as it is, the resolution and SNR (Signal to Noise Ratio) of the mono image are ensured and the color information of the color image is used There is an effect that can be.

도 3은 도 2의 제1 카메라 모듈의 구성을 나타내는 블록도이다.3 is a block diagram showing the configuration of the first camera module of Fig.

도 3을 참조하면, 제1 카메라 모듈(110)은 렌즈(111), 렌즈 구동부(112), 조리개(113), 조리개 구동부(115), 이미지 센서(116), 이미지 센서 제어부(117), 아날로그 신호 처리부(118), 이미지 신호 처리부(119)를 포함할 수 있다.3, the first camera module 110 includes a lens 111, a lens driver 112, a diaphragm 113, a diaphragm driver 115, an image sensor 116, an image sensor controller 117, A signal processing unit 118, and an image signal processing unit 119.

렌즈(111)는 복수 군, 복수 매의 렌즈들을 구비할 수 있다. 렌즈(111)는 렌즈 구동부(112)에 의해 그 위치가 조절될 수 있다. 렌즈 구동부(112)는 제어부(130)에서 제공된 제어 신호에 따라 렌즈(111)의 위치를 조절한다. 렌즈 구동부(112)는 렌즈(111)의 위치를 조절하여 초점 거리를 조절하고, 오토 포커싱, 줌 변경, 초점 변경들의 동작을 수행한다. The lens 111 may include a plurality of lenses and a plurality of lenses. The position of the lens 111 can be adjusted by the lens driving unit 112. [ The lens driving unit 112 adjusts the position of the lens 111 according to a control signal provided from the control unit 130. The lens driving unit 112 adjusts the position of the lens 111 to adjust the focal length, and performs operations of auto focusing, zoom change, and focus change.

조리개(113)는 조리개 구동부(115)에 의해 그 개폐 정도가 조절되며, 이미지 센서(116)로 입사되는 광량을 조절한다.The diaphragm 113 is controlled by the diaphragm driving unit 115 to adjust the amount of light incident on the image sensor 116.

렌즈(111) 및 조리개(113)를 투과한 광학 신호는 이미지 센서(116)의 수광면에 이르러 피사체의 상을 결상한다. 이미지 센서(116)는 광학 신호를 전기 신호로 변환하는 CCD(Charge Coupled Device) 이미지 센서 또는 CIS(Complementary Metal Oxide Semiconductor Image Sensor)일 수 있다. 이와 같은 이미지 센서(116)는 이미지 센서 제어부(117)에 의해 감도 등이 조절될 수 있다. 이미지 센서 제어부(117)는 실시간으로 입력되는 영상 신호에 의해 자동으로 생성되는 제어 신호 또는 사용자의 조작에 의해 수동으로 입력되는 제어 신호에 따라 이미지 센서(116)를 제어할 수 있다.The optical signal transmitted through the lens 111 and the diaphragm 113 arrives at the light receiving surface of the image sensor 116 and forms an image of the subject. The image sensor 116 may be a CCD (Charge Coupled Device) image sensor or a CIS (Complementary Metal Oxide Semiconductor Image Sensor) for converting an optical signal into an electric signal. The sensitivity of the image sensor 116 may be adjusted by the image sensor control unit 117. FIG. The image sensor control unit 117 can control the image sensor 116 according to a control signal automatically generated by a video signal input in real time or a control signal manually input by a user's operation.

아날로그 신호 처리부(118)는 이미지 센서(116)로부터 공급된 아날로그 신호에 대하여, 노이즈 저감 처리, 게인 조정, 파형 정형화, 아날로그-디지털 변환 처리 등을 수행한다.The analog signal processing unit 118 performs noise reduction processing, gain adjustment, waveform shaping, analog-to-digital conversion processing, and the like on the analog signal supplied from the image sensor 116.

이미지 신호 처리부(119)는 아날로그 신호 처리부(118)에서 처리된 영상 데이터 신호에 대해 특수기능을 처리하기 위한 신호 처리부이다. 예를 들면, 입력된 영상 데이터에 대해 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 화이트 밸런스 조절, 휘도의 평활화 및 칼라 쉐이딩(color shading) 등의 화질 개선 및 특수 효과 제공을 위한 영상 신호 처리를 수행할 수 있다. 이미지 신호 처리부(119)는 입력된 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 상기 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축형식은 가역 형식 또는 비가역 형식이어도 된다. 적절한 형식의 예로서, 정지 영상에 경우, JPEG(Joint Photographic Experts Group)형식이나 JPEG 2000 형식 등으로 변환도 가능하다. 또한, 동영상을 기록하는 경우, MPEG(Moving Picture Experts Group) 표준에 따라 복수의 프레임들을 압축하여 동영상 파일을 생성할 수 있다. 영상 파일은 예를 들면 Exif(Exchangeable image file format) 표준에 따라 생성될 수 있다.The image signal processing unit 119 is a signal processing unit for processing a special function for the image data signal processed by the analog signal processing unit 118. For example, it is possible to reduce noise to input image data, and to reduce noise, such as gamma correction, color filter array interpolation, color matrix, color correction, color enhancement color enhancement) It is possible to perform image signal processing for improving image quality such as white balance adjustment, smoothing of brightness and color shading, and for providing special effects. The image signal processing unit 119 may compress the input image data to generate an image file, or may restore the image data from the image file. The compression format of the image may be reversible or irreversible. As an example of a proper format, the still image can be converted into a JPEG (Joint Photographic Experts Group) format or a JPEG 2000 format. In addition, when recording a moving image, a moving image file can be generated by compressing a plurality of frames according to the MPEG (Moving Picture Experts Group) standard. The image file can be created according to the Exif (Exchangeable image file format) standard, for example.

이미지 신호 처리부(119)는 이미지 센서(116)에서 생성된 촬상 신호로부터 동영상 파일을 생성할 수 있다. 상기 촬상 신호는 이미지 센서(116)에서 생성되고, 아날로그 신호 처리부(118)에 의해 처리된 신호일 수 있다. 이미지 신호 처리부(119)는 촬상 신호로부터 동영상 파일에 포함될 프레임들을 생성하고, 상기 프레임들을 예를 들면, MPEG4(Moving Picture Experts Group 4), H.264/AVC, WMV(windows media video) 등의 표준에 따라 코딩되어, 동영상 압축된 후, 압축된 동영상을 이용하여 동영상 파일을 생성할 수 있다. 동영상 파일은 mpg, mp4, 3gpp, avi, asf, mov 등 다양한 형식으로 생성될 수 있다. 이미지 신호 처리부(119)는 생성된 제1 영상을 제어부(130)로 출력할 수 있다.The image signal processing unit 119 can generate a moving image file from the imaging signal generated by the image sensor 116. [ The image pickup signal may be a signal generated by the image sensor 116 and processed by the analog signal processing unit 118. The image signal processing unit 119 generates frames to be included in the moving picture file from the image pickup signal and outputs the frames to a standard such as Moving Picture Experts Group 4 (MPEG4), H.264 / AVC, WMV And the moving image file is compressed using the compressed moving image file. Video files can be created in various formats such as mpg, mp4, 3gpp, avi, asf, and mov. The image signal processing unit 119 may output the generated first image to the control unit 130.

또한, 이미지 신호 처리부(119)는 입력된 영상 데이터에 대해 불선명 처리, 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 수행할 수 있다. 영상 인식 처리로 얼굴 인식, 장면 인식 처리 등을 수행할 수 있다. 이미지 신호 처리부(119)는 디스플레이부에 영상 데이터를 디스플레이하기 위한 영상 신호 처리를 행할 수 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 생성 및 영상의 합성 처리 등을 수행할 수 있다.In addition, the image signal processing unit 119 can perform blurring processing, color processing, blur processing, edge emphasis processing, image analysis processing, image recognition processing, image effect processing, and the like on the input image data. The face recognizing process, the scene recognizing process, and the like can be performed by the image recognizing process. The image signal processing unit 119 can perform image signal processing for displaying image data on a display unit. For example, brightness level adjustment, color correction, contrast adjustment, contour enhancement adjustment, screen division processing, character image generation, and image synthesis processing can be performed.

한편, 제2 카메라 모듈(120)도 제1 카메라 모듈(110)과 동일하게 렌즈, 렌즈 구동부, 조리개, 조리개 구동부, 이미지 센서, 이미지 센서 제어부, 아날로그 신호 처리부, 이미지 신호 처리부를 포함할 수 있다. 상기 구성요소들에 대해서는 제1 카메라 모듈(110)에서 이미 설명하였으므로 중복하여 설명하지 않기로 한다.The second camera module 120 may include a lens, a lens driver, a diaphragm, a diaphragm driver, an image sensor, an image sensor controller, an analog signal processor, and an image signal processor, in the same manner as the first camera module 110. Since the components are already described in the first camera module 110, they will not be described in duplicate.

<도 4><Fig. 4>

도 4는 다른 실시예에 따른 촬영 장치(200)의 구성을 나타내는 블록도이다.4 is a block diagram showing the configuration of the image pickup apparatus 200 according to another embodiment.

도 4를 참조하면, 촬영 장치(200)는 제1 카메라 모듈(210), 제2 카메라 모듈(220), 제어부(230), 메모리(240), 저장/판독 제어부(250), 메모리 카드(242), 프로그램 저장부(260), 디스플레이부(270), 디스플레이 구동부(272), 조작부(280) 및 통신부(290)를 포함할 수 있다.4, the photographing apparatus 200 includes a first camera module 210, a second camera module 220, a controller 230, a memory 240, a storage / read controller 250, a memory card 242 A program storage unit 260, a display unit 270, a display driving unit 272, an operation unit 280, and a communication unit 290.

도 4의 제1 카메라 모듈(210), 제2 카메라 모듈(220) 및 제어부(230) 각각은 도 2의 제1 카메라 모듈(110), 제2 카메라 모듈(120) 및 제어부(130) 각각에 대응되므로, 동일한 설명은 생략하고, 나머지 구성요소에 대해서 설명하기로 한다.The first camera module 210, the second camera module 220 and the controller 230 of FIG. 4 are connected to the first camera module 110, the second camera module 120, and the controller 130, respectively, The same description will be omitted and the remaining components will be described.

도 4를 참조하면, 저장/판독 제어부(250)는 제1 카메라 모듈(210) 또는 제2 카메라 모듈(220)로부터 출력된 영상 데이터를 메모리 카드(242)에 저장할 수 있다. 이때, 저장/판독 제어부(250)는 사용자로부터의 신호에 따라 또는 자동으로 영상 데이터를 저장할 수 있다. 또한 저장/판독 제어부(250)는 메모리 카드(242)에 저장된 영상 파일로부터 영상에 관한 데이터를 판독하고, 이를 메모리(240)를 통해 또는 다른 경로를 통해 디스플레이 구동부(272)에 입력하여 디스플레이부(270)에 이미지가 표시되도록 할 수도 있다. Referring to FIG. 4, the storage / read controller 250 may store image data output from the first camera module 210 or the second camera module 220 in the memory card 242. At this time, the storage / read control unit 250 may store the image data according to a signal from the user or automatically. The storage / read control unit 250 reads data relating to an image from the image file stored in the memory card 242 and inputs the read data to the display driver 272 through the memory 240 or another path, 270 to display an image.

메모리 카드(242)는 탈착 가능한 것일 수도 있고 촬영 장치(200)에 영구 장착된 것일 수 있다. 예를 들면, 메모리 카드(242)는 SD(Secure Digital)카드 등의 플래시 메모리 카드 일 수 있다.The memory card 242 may be detachable or permanently attached to the imaging device 200. For example, the memory card 242 may be a flash memory card such as an SD (Secure Digital) card.

한편, 제1 카메라 모듈(210) 또는 제2 카메라 모듈(220)에서 처리된 이미지 신호는 메모리(240)를 거쳐 제어부(230)에 입력될 수도 있고, 메모리(240)를 거치지 않고 제어부(230)에 입력될 수도 있다. 메모리(240)는 촬영 장치(200)의 메인 메모리로서 동작하고, 촬영 장치(200)의 동작에 필요한 정보를 임시로 저장할 수 있다. 프로그램 저장부(260)는 촬영 장치(200)를 구동하는 운영 시스템, 응용 시스템 등의 프로그램을 저장할 수 있다.The image signal processed by the first camera module 210 or the second camera module 220 may be input to the control unit 230 via the memory 240 or may be input to the control unit 230 without passing through the memory 240. [ As shown in FIG. The memory 240 operates as a main memory of the photographing apparatus 200 and can temporarily store information necessary for the photographing apparatus 200 to operate. The program storage unit 260 may store programs such as an operating system and an application system for driving the photographing apparatus 200. [

촬영 장치(200)는 촬영 장치(200)의 동작 상태 또는 촬영 장치(200)에서 촬영한 영상 정보를 표시하도록 디스플레이부(270)를 포함할 수 있다. 제1 카메라 모듈(210) 및 제2 카메라 모듈(220)은 촬영한 영상 정보를 디스플레이부(270)에 디스플레이하기 위해 디스플레이 영상 신호 처리를 수행할 수 있다. 예를 들어, 제1 카메라 모듈(210) 및 제2 카메라 모듈(220)은 촬영한 영상 정보에 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등 생성 및 영상의 합성 처리 등을 수행할 수 있다.The photographing apparatus 200 may include a display unit 270 to display an operation state of the photographing apparatus 200 or image information photographed by the photographing apparatus 200. [ The first camera module 210 and the second camera module 220 may perform display image signal processing to display photographed image information on the display unit 270. For example, the first camera module 210 and the second camera module 220 generate luminance level adjustment, color correction, contrast adjustment, outline enhancement adjustment, screen division processing, character image generation, Synthesis processing, and the like.

디스플레이부(270)는 시각적인 정보를 사용자에게 제공할 수 있다. 시각적인 정보를 제공하기 위해 디스플레이부(270)는 예를 들면, 액정 디스플레이 패널(LCD), 유기 발광 디스플레이 패널 등으로 이루어질 수 있다. 또한, 디스플레이부(270)는 터치 입력을 인식할 수 있는 터치스크린일 수 있다.The display unit 270 can provide visual information to the user. In order to provide visual information, the display unit 270 may include, for example, a liquid crystal display panel (LCD), an organic light emitting display panel, or the like. Also, the display unit 270 may be a touch screen capable of recognizing a touch input.

디스플레이 구동부(272)는 디스플레이부(270)에 구동 신호를 제공한다.The display driver 272 provides a driving signal to the display unit 270.

조작부(280)는 사용자가 제어 신호를 입력할 수 있는 곳이다. 조작부(280)는 정해진 시간 동안 이미지 센서를 빛에 노출하여 사진을 촬영하도록 하는 셔터-릴리즈 신호를 입력하는 셔터-릴리즈 버튼, 전원의 온-오프를 제어하기 위한 제어 신호를 입력하는 전원 버튼, 입력에 따라 화각을 넓어지게 하거나 화각을 좁아지게 줌 버튼, 모드 선택 버튼, 기타 촬영 설정 값 조절 버튼 등 다양한 기능 버튼들을 포함할 수 있다. 조작부(280)는 버튼, 키보드, 터치 패드, 터치스크린, 원격 제어기 등과 같이 사용자가 제어 신호를 입력할 수 있는 어떠한 형태로 구현되어도 무방하다.The operation unit 280 is a place where the user can input the control signal. The operation unit 280 includes a shutter-release button for inputting a shutter-release signal for exposing the image sensor to light for a predetermined period of time to take a picture, a power button for inputting a control signal for controlling on / off of the power source, A zoom button, a mode selection button, and other shooting setting value adjustment buttons for widening the angle of view according to the zoom angle, or narrowing the angle of view. The operation unit 280 may be implemented in any form in which a user can input a control signal, such as a button, a keyboard, a touch pad, a touch screen, a remote controller, or the like.

통신부(290)는 네트워크 인터페이스 카드(NIC: Network Interface Card)나 모뎀 등을 포함하여 이루어질 수 있으며, 촬영 장치(200)가 외부 디바이스와 네트워크를 통해 유무선 방식으로 통신할 수 있도록 하는 역할을 수행할 수 있다. The communication unit 290 may include a network interface card (NIC), a modem, or the like, and may function to allow the photographing apparatus 200 to communicate with an external device via a network in a wired / wireless manner have.

한편, 도 2, 3 및 4에 도시된 촬영장치(100, 200)의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 촬영장치(100, 200)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, the block diagrams of the photographing apparatuses 100 and 200 shown in Figs. 2, 3 and 4 are block diagrams for an embodiment. Each component of the block diagram can be integrated, added, or omitted according to the specifications of the photographing apparatuses 100 and 200 actually implemented. That is, two or more constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary. In addition, the functions performed in each block are intended to illustrate embodiments, and the specific operation or apparatus does not limit the scope of the present invention.

<도 5, 도6, 도7>5, 6 and 7,

도 5는 일 실시예에 따른 제1 픽셀 구조를 설명하기 위해 참조되는 도면이고, 도 6은 일 실시예에 따른 제2 픽셀 구조를 설명하기 위해 참조되는 도면이고, 도 7은 다른 실시예에 따른 제2 픽셀 구조를 설명하기 위해 참조되는 도면이다.FIG. 5 is a diagram referred to explain a first pixel structure according to an embodiment, FIG. 6 is a diagram referred to explain a second pixel structure according to an embodiment, and FIG. Lt; RTI ID = 0.0 &gt; a &lt; / RTI &gt; second pixel structure.

일 실시예에 따른 제1 픽셀 구조는 일반적인 카메라 모듈의 이미지 센서가 가지는 직사각형 내지 정사각형의 픽셀 구조를 나타내고, 제2 픽셀 구조는 제1 픽셀 구조와 다른 형태의 다각형 구조를 가지는 픽셀 구조를 나타낼 수 있다.The first pixel structure according to an embodiment may represent a rectangular or square pixel structure of an image sensor of a general camera module and the second pixel structure may represent a pixel structure having a polygonal structure different from the first pixel structure .

도 5는 일 실시예에 따른 제1 픽셀 구조를 설명하기 위해 참조되는 도면이다. 도 5를 참조하면, 도 5에 도시된 제1 픽셀 구조를 구성하는 임의의 픽셀(81, 82)은 모두 직사각형 형태이며 그 크기가 동일하다.5 is a diagram referred to explain a first pixel structure according to an embodiment. Referring to FIG. 5, all the pixels 81 and 82 constituting the first pixel structure shown in FIG. 5 are all rectangular in shape and have the same size.

도 6은 일 실시예에 따른 제2 픽셀 구조를 설명하기 위해 참조되는 도면이다. 도 6(a)은 도 5의 일반적인 카메라 모듈의 이미지 센서를 45도 회전시켜서 얻은 이미지 센서의 제2 픽셀 구조를 도시한 도면이고, 도 6(b)는 허니콤(HoneyComb) 형태인 이미지 센서의 제2 픽셀 구조를 도시한 도면이다. 도 6(a) 및 6(b)를 참조하면, 각각 일반적인 카메라 모듈의 이미지 센서의 일 실시예인 도 5의 제1 픽셀 구조와 형태가 상이하다. 그러나 도 6(a)의 적어도 2개의 임의의 픽셀(31, 32) 및 도 6(b)의 적어도 2개의 임의의 픽셀(36, 37) 각각은 서로 그 크기와 모양이 동일하다.6 is a diagram referred to explain a second pixel structure according to an embodiment. 6 (a) is a view showing the second pixel structure of the image sensor obtained by rotating the image sensor of the general camera module of FIG. 5 by 45 degrees, and FIG. 6 (b) is a view showing an image sensor of HoneyComb type Lt; / RTI &gt; illustrates a second pixel structure. 6A and 6B are different from the first pixel structure of FIG. 5, which is an embodiment of an image sensor of a general camera module, respectively. However, at least two arbitrary pixels 31 and 32 of FIG. 6 (a) and at least two arbitrary pixels 36 and 37 of FIG. 6 (b) are the same in size and shape.

도 7은 다른 실시예에 따른 제2 픽셀 구조를 설명하기 위해 참조되는 도면이다. 도 7을 참조하면, 카메라 모듈의 이미지 센서는 적어도 2개의 임의의 픽셀의 크기 및 모양이 각각 다른 제2 픽셀 구조를 가질 수 있다. 예를 들어, 도 7(a)의 제2 픽셀 구조는 육각형 형태의 픽셀(41) 및 삼각형 형태의 픽셀(42)을 가지고, 도 7(b)의 제2 픽셀 구조는 팔각형 형태의 픽셀(46) 및 사각형 형태의 픽셀(47)을 가지고, 도 7(c)의 제2 픽셀 구조는 팔각형 형태의 픽셀(51) 및 사각형 형태이나 45도 회전시킨 픽셀(52)을 가지고, 도 7(d)의 제2 픽셀 구조는 십이각형 형태의 픽셀(56) 및 삼각형 형태의 픽셀(57)을 가진다.7 is a diagram referred to explain a second pixel structure according to another embodiment. Referring to FIG. 7, the image sensor of the camera module may have a second pixel structure in which at least two arbitrary pixels have different sizes and shapes. For example, the second pixel structure of Fig. 7 (a) has a hexagonal pixel 41 and a triangular pixel 42, and the second pixel structure of Fig. 7 (b) 7 (c) has a pixel 51 of an octagonal shape and a pixel 52 of a rectangular shape or a 45-degree rotated shape, and the pixel structure of FIG. 7 (d) Has a pixel 56 in the shape of a dodecagon and a pixel 57 in the form of a triangle.

<도 8>8,

도 8은 일 실시예에 따른 영상 매핑부(140)에서 매핑된 제2 영상을 얻는 방법을 설명하기 위해 참조되는 도면이다.FIG. 8 is a diagram for explaining a method of obtaining a second image mapped by the image mapping unit 140 according to an embodiment.

영상 매핑부(140)는 예를 들어 제1 픽셀 구조를 갖는 제1 카메라 모듈(110)로부터 획득된 영상 및 제2 픽셀 구조를 갖는 제2 카메라 모듈(120)로부터 획득된 영상을 수신한다. 영상 매핑부(140)는 제1 픽셀 구조에서 얻은 제1 영상 및 제2 픽셀 구조에서 얻은 제2 영상을 이용하여 화질이 향상된 제3 영상을 얻기 위해서는, 우선 픽셀 구조가 상이한 제1 영상 및 제2 영상간에, 픽셀 크기 및 모양, 해상도 등을 매핑 시켜야 할 필요가 있다. 구체적으로 영상 매핑부(140)는 제1 픽셀 구조에서 얻은 제1 영상의 각각의 픽셀에 대해서 이에 대응되는 위치에서 제2 영상의 픽셀값을 구해야 한다.The image mapping unit 140 receives the image obtained from the first camera module 110 having the first pixel structure and the image obtained from the second camera module 120 having the second pixel structure, for example. In order to obtain a third image having improved image quality by using the first image obtained in the first pixel structure and the second image obtained in the second pixel structure, the image mapping unit 140 first obtains the first image and the second image, It is necessary to map between images, pixel size, shape, resolution, and the like. Specifically, the image mapping unit 140 must obtain the pixel value of the second image at a position corresponding to each pixel of the first image obtained in the first pixel structure.

도 8(a)는 제1 픽셀 구조를 설명하기 위해 참조되는 도면이고, 도 8(b)는 제2 픽셀 구조로부터 매핑된 제2 영상을 얻는 방법을 설명하기 위해 참조되는 도면이다. 도 8(a)를 참조하면, 도 8(a)에 도시된 제1 픽셀 구조를 구성하는 임의의 픽셀은 모두 직사각형 형태이며 그 크기가 동일하다. 일 실시예에 따를 때, 매핑된 제2 영상의 각 픽셀값은 제1 픽셀 구조의 각 픽셀의 중심에 대응되는 위치에 인접한 픽셀들을 이용하여 얻을 수 있다.8 (a) is a diagram referred to explain a first pixel structure, and FIG. 8 (b) is a diagram referred to explain a method of obtaining a second image mapped from a second pixel structure. Referring to Fig. 8 (a), all pixels constituting the first pixel structure shown in Fig. 8 (a) are all rectangular in shape and have the same size. According to one embodiment, each pixel value of the mapped second image can be obtained using pixels adjacent to the position corresponding to the center of each pixel of the first pixel structure.

예를 들어, 도 8(b)를 참조하면, 제1 픽셀 구조의 (2,2)상의 픽셀 중심(61)에 대해서 이에 대응되는 제2 픽셀 구조에서의 위치를 알 수 있다. 일 실시예에 따를 때, 픽셀 중심(61)이 위치한 제2 픽셀 구조에서의 픽셀 및 그 인접픽셀들(72 내지 78)을 선형결합 하여 얻은 값을 제1 픽셀 구조의 (2,2)상의 픽셀값에 대응하는 제2 픽셀 구조의 (2,2)상의 픽셀값으로 할 수 있다.For example, referring to FIG. 8 (b), the position in the second pixel structure corresponding to the pixel center 61 on (2,2) of the first pixel structure can be known. According to one embodiment, the value obtained by linear combination of the pixel in the second pixel structure in which the pixel center 61 is located and its adjacent pixels 72 to 78 is divided into pixels on the (2, 2) (2, 2) of the second pixel structure corresponding to the value of the second pixel structure.

일 실시예에 따를 때, 픽셀 중심이 위치한 제2 픽셀 구조에서의 픽셀 및 중심픽셀과 인접픽셀들을 선형결합 할 때, 각 픽셀의 중심 간의 거리 및 각도, 픽셀 중심이 위치한 제2 픽셀 구조에서의 픽셀 및 인접픽셀의 크기 내지 모양의 동일 여부 등을 고려하여 가중치를 달리 할 수 있다. 다른 실시예에 따를 때, 픽셀 중심이 위치한 제2 픽셀 구조에서의 픽셀 및 인접픽셀들을 비선형결합 하여 얻은 값을 제1 픽셀 구조의 (2,2)상의 픽셀값에 대응하는 제2 픽셀 구조의 (2,2)상의 픽셀값으로 할 수 있다. According to one embodiment, when linearly combining pixels and adjacent pixels in the second pixel structure in which the pixel center is located, and adjacent pixels, the distance and angle between the centers of the respective pixels, the pixel And whether the sizes and shapes of adjacent pixels are the same or not. According to another embodiment, a value obtained by nonlinearly combining a pixel and a neighboring pixel in a second pixel structure in which the pixel center is located is defined as a value of ((2, 2) 2, 2).

<도 9>9,

도 9는 일 실시예에 따른 영상 합성부(150)에서 제3 영상을 합성하는 방법을 설명하기 위해 참조되는 도면이다.FIG. 9 is a diagram for explaining a method of synthesizing a third image in the image combining unit 150 according to an embodiment.

도 9를 참조하면, 영상 합성부(150)는 제1 영상(310)으로부터의 정보인 Y1Cb1Cr1 및 매핑된 제2 영상(320)으로부터의 정보인 Y2Cb2Cr2 정보를 영상 매핑부(140)로부터 수신한다. 제1 영상(310)은 제1 카메라 모듈로부터 획득한 영상이고, 매핑된 제2 영상(320)은 제1 영상(310)에 제2 카메라 모듈로부터 획득한 제2 영상을 매핑한 영상이다. 일 실시예에 따를 때 Y, Cb, Cr 정보 대신 R, G, B의 정보로 영상 합성부(150)에 전달될 수 있으며, 이에 한정되지 않는다.9, the image synthesis unit 150 receives Y1Cb1Cr1, which is information from the first image 310, and Y2Cb2Cr2, which is information from the mapped second image 320, from the image mapping unit 140. FIG. The first image 310 is an image obtained from the first camera module and the mapped second image 320 is an image obtained by mapping the second image acquired from the second camera module to the first image 310. According to an exemplary embodiment, R, G, and B information may be transmitted to the image combining unit 150 instead of Y, Cb, and Cr information, but the present invention is not limited thereto.

일 실시예에 따를 때, 제1 카메라 모듈은 칼라 카메라 모듈이고, 제2 카메라 모듈은 모노 카메라 모듈일 수 있다. 이 경우 칼라 카메라 모듈로부터 획득한 제1 영상(310)은 칼라 영상이고, 모노 카메라 모듈로부터 획득한 매핑된 제2 영상(320)은 모노 영상이며, 매핑된 제2 영상(320)의 Cb, Cr 정보는 무시할 수 있다. 다른 실시예에 따를 때, 제1 카메라 모듈은 모노 카메라 모듈이고, 제2 카메라 모듈은 칼라 카메라 모듈일 수 있다. 이 경우 모노 카메라 모듈로부터 획득한 제1 영상(310)은 모노 영상이고, 칼라 카메라 모듈로부터 획득한 매핑된 제2 영상(320)은 모노 영상이며, 제1 영상(310)의 Cb, Cr 정보는 무시할 수 있다.According to one embodiment, the first camera module may be a color camera module and the second camera module may be a mono camera module. In this case, the first image 310 obtained from the color camera module is a color image, the second image 320 obtained from the mono camera module is a mono image, and the Cb, Cr Information can be ignored. According to another embodiment, the first camera module may be a mono camera module and the second camera module may be a color camera module. In this case, the first image 310 acquired from the mono camera module is a mono image, the mapped second image 320 acquired from the color camera module is a mono image, and the Cb and Cr information of the first image 310 is Can be ignored.

영상 합성부(150)는 제1 영상(310) 및 매핑된 제2 영상(320)을 이용하여 제3 영상(330)의 Y3Cb3Cr3 정보를 획득한다. 일 실시예에 따를 때, 영상 합성부(150)는 제1 영상(310) 및 매핑된 제2 영상(320) 간의 동일한 피사체에 대한 시차 정보를 이용하여 제3 영상(330)의 Y3Cb3Cr3 정보를 획득할 수 있다. 시차 정보란 동일한 피사체에 대한 좌시점 영상 및 우시점 영상 간의 시점 차이를 의미한다. 일 실시예에 따른 제1 영상(310) 및 매핑된 제2 영상(320)간의 동일한 피사체에 대한 시차 정보는 디스패리티(disparity), 오클루젼(occlusion) 내지 단안단서(monocular cues) 정보 중 적어도 하나일 수 있다.The image synthesis unit 150 acquires Y3Cb3Cr3 information of the third image 330 using the first image 310 and the mapped second image 320. [ According to one embodiment, the image synthesis unit 150 acquires Y3Cb3Cr3 information of the third image 330 using the parallax information of the same object between the first image 310 and the mapped second image 320 can do. The parallax information means a viewpoint difference between a left view image and a right view image for the same object. The parallax information for the same object between the first image 310 and the mapped second image 320 according to an exemplary embodiment may include at least one of disparity, occlusion, and monocular cues information It can be one.

일 실시예에 따라 영상 합성부(150)는 칼라 영상인 제1 영상과 모노 영상인 제2 영상을 합성하여 제3 영상을 합성할 때, 시차 정보를 이용하여 기준이 되는 영상을 칼라 영상으로 할지, 모노 영상으로 할지 결정할 수 있다.According to an embodiment, when synthesizing a third image by combining a first image, which is a color image, and a second image, which is a mono image, the image synthesizing unit 150 may use the parallax information as a color image , And a mono image.

기준이 되는 영상을 칼라 영상으로 하는 경우에는 칼라 정보를 유지하기 때문에 영상의 색재현성은 보장되지만 모노 영상의 디테일 정보가 영역 별로 손실될 염려가 있다. 기준이 되는 영상을 모노 영상으로 하는 경우에는 모노 수준의 SNR 향상은 보장되지만 모노 시점의 색상 정보를 새로 생성해야 하므로 오클루전 영역의 색상 재현이 어렵다는 단점이 있다. 이와 같이 칼라 영상을 기준으로 하는 것이나 모노 영상을 기준으로 하는 것이나 모두 장단점이 있다.When the reference image is a color image, the color information is maintained, so that the color reproducibility of the image is guaranteed, but the detail information of the mono image may be lost in each area. When the reference image is a mono image, the SNR improvement at the mono level is guaranteed, but since the color information of the mono viewpoint must be newly generated, it is difficult to reproduce the color of the occlusion region. As described above, there are advantages and disadvantages both in terms of color image and in mono image.

따라서 일 실시예에 따른 영상 합성부(150)는 칼라 영상을 기준으로 한 영상 합성의 장점과 모노 영상을 기준으로 한 영상 합성의 장점을 모두 얻을 수 있도록 투 트랙 (two track)합성 기법을 이용할 수 있다. 즉, 영상 합성부(150)는 칼라 영상으로 기준으로 할지 모노 영상을 기준으로 할지 미리 결정해 놓지 않고, 두 가지 방식 중 어느 방식으로 할지를 시차 정보를 이용하여 결정할 수 있다. 도 10 및 도 11을 참조하여 영상 합성부(150)가, 컬러 영상과 모노 영상 합성시 기준이 되는 영상을 결정하는 동작을 설명하기로 한다.Accordingly, the image combining unit 150 may use a two-track combining technique to obtain the advantages of the image combining based on the color image and the advantages of the image combining based on the mono image. have. That is, the image synthesizer 150 can determine which of the two methods is to be performed using the parallax information, without determining in advance whether the reference is based on the color image or the mono image. 10 and 11, an operation of the image synthesizing unit 150 for determining a reference image for synthesizing a color image and a mono image will be described.

<도 10, 도11>10 and 11,

도 10은 및 도 11은 일 실시예에 따른 영상 합성부의 동작방법을 나타내는 흐름도이다.FIG. 10 and FIG. 11 are flowcharts illustrating an operation method of an image combining unit according to an exemplary embodiment.

도 10을 참조하면, 단계 S410에서 제1 영상 및 매핑된 제2 영상의 시차 정보를 획득한다. 시차 정보는 디스패리티(disparity), 오클루젼(occlusion) 내지 단안단서(monocular cues) 정보 중 적어도 하나일 수 있다.Referring to FIG. 10, in step S410, the parallax information of the first image and the mapped second image is obtained. The parallax information may be at least one of disparity, occlusion, and monocular cues information.

일 실시예에 따를 때 제1 카메라 모듈은 칼라 카메라 모듈이고, 제2 카메라 모듈은 모노 카메라 모듈일 수 있다. According to an embodiment, the first camera module may be a color camera module and the second camera module may be a mono camera module.

단계 S420에서 시차 정보를 이용하여 칼라 영상 기준 내지 모노 영상 기준의 합성 여부를 결정한다. 동일한 이미지 센서에 대해서, 칼라 영상은 모노 영상과 비교하여 칼라 정보를 얻을 수 있는 효과가 있으며, 모노 영상은 칼라 영상과 비교하여 더 많은 광량을 흡수하므로 보다 향상된 디테일 정보를 얻을 수 있는 효과가 있다.In step S420, whether to compose the color image reference or the mono image reference is determined by using the time difference information. For the same image sensor, the color image has an effect of obtaining color information in comparison with the mono image, and the mono image absorbs more light amount compared with the color image, so that the improved detail information can be obtained.

칼라 영상 기준으로 제3 영상을 합성하는 경우, 칼라 정보를 그대로 유지할 수 있기 때문에 칼라 영상에서의 색재현성이 보장되며 이와 함께 모노 영상의 향상된 디테일 정보를 얻을 수 있다. 한편, 모노 영상 기준으로 제3 영상을 합성하는 경우, 모노 영상의 디테일 정보를 그대로 유지할 수 있기 때문에 모노 영상에서의 해상도 및 SNR(Signal to Noise Ratio)이 보장되며 이와 함께 칼라 영상의 색상 정보를 이용할 수 있는 효과가 있다.In the case of synthesizing the third image based on the color image, since the color information can be maintained as it is, the color reproducibility in the color image is ensured and the improved detail information of the mono image can be obtained. On the other hand, in the case of synthesizing the third image based on the mono image, since the detail information of the mono image can be maintained as it is, the resolution and SNR (Signal to Noise Ratio) of the mono image are ensured and the color information of the color image is used There is an effect that can be.

단계 S430에서 단계 S420에서 결정된 영상을 기준으로 하여 제3 영상을 획득한다.In step S430, the third image is acquired based on the image determined in step S420.

도 11은 일 실시예에 따른 시차 정보 값의 크기에 따른 영상 합성부의 구체적인 동작방법을 나타내는 흐름도이다.11 is a flowchart illustrating a specific operation method of the image combining unit according to the magnitude of the parallax information value according to an exemplary embodiment.

단계 S510에서 제1 영상 및 매핑된 제2 영상의 시차 정보를 획득한다.In step S510, the parallax information of the first image and the mapped second image is obtained.

일 실시예에 따를 때, 단계 S520에서 시차 정보를 소정의 임계값과 비교하여, 시차 정보가 소정의 임계값보다 큰 경우 단계 S530에서 칼라 영상 기준으로 제3 영상을 합성하고, 시차 정보가 소정의 임계값보다 작은 경우 단계 S540에서 모노 영상 기준으로 제3 영상을 합성한다. 색상 정보는 칼라 영상에서만 획득될 수 있고, 디테일 정보는 칼라 및 모노 영상 모두에서 획득될 수 있기 때문에, 시차 정보가 소정의 임계값보다 큰 경우에는 보다 안정적인 색재현성을 위해 칼라 영상 기준으로 제3 영상을 합성할 수 있다.When the parallax information is greater than the predetermined threshold value in step S520, the parallax information is synthesized on the basis of the color image in step S530. If the parallax information is smaller than the predetermined threshold value, If it is smaller than the threshold value, the third image is synthesized on the basis of the mono image in step S540. Since the color information can be obtained only in the color image and the detail information can be obtained in both the color image and the mono image, when the parallax information is larger than the predetermined threshold value, the third image Can be synthesized.

단계 S550에서 단계 S530 및 S540에서 결정된 영상을 기준으로 하여 제3 영상을 획득한다.In step S550, the third image is acquired based on the image determined in steps S530 and S540.

<도 12, 도 13>12 and 13,

도 12는 일 실시예에 따른 영상 합성부에서 시차 정보를 얻기 위해 디스패리티(disparity)를 이용하는 방법을 설명하기 위해 참조되는 도면이고, 도 13은 다른 실시예에 따른 영상 합성부에서 시차 정보를 얻기 위해 오클루젼(occlusion)을 이용하는 방법을 설명하기 위해 참조되는 도면이다.FIG. 12 is a diagram for explaining a method of using disparity to obtain parallax information in an image synthesizing unit according to an embodiment. FIG. 13 is a flowchart illustrating a method of obtaining parallax information in an image synthesizing unit according to another embodiment. Lt; RTI ID = 0.0 &gt; occlusion &lt; / RTI &gt;

도 12를 참조하면, 제1 영상(610)은 제1 카메라 모듈로부터 획득한 영상이고 매핑된 제2 영상(620)은 제1 영상에 제2 카메라 모듈로부터 획득한 제2 영상을 매핑한 영상이다. 제1 카메라 모듈 및 제2 카메라 모듈이 동일한 광학적 특성을 가지더라도, 제1 카메라 모듈 및 제2 카메라 모듈의 위치 차이로 인해 제1 영상(610) 및 매핑된 제2 영상(620) 내에서의 피사체의 위치는 달라지게 된다. 일 실시예에 따를 때, xl을 좌시점 영상에서의 피사체(630)의 위치, xr을 우시점 영상에서의 동일한 피사체(630)의 위치라고 할 경우, 시차 정보는 이 두 값들의 차이를 구하고 가중치를 부가하여 얻을 수 있다.Referring to FIG. 12, the first image 610 is an image obtained from the first camera module, and the mapped second image 620 is an image obtained by mapping a second image acquired from the second camera module to the first image 620 . Even if the first camera module and the second camera module have the same optical characteristics, the first image 610 and the object in the mapped second image 620 due to the positional difference between the first camera module and the second camera module, The position of the light source is changed. According to one embodiment, when xl is the position of the subject 630 in the left view image and xr is the position of the same subject 630 in the right view image, the parallax information is obtained by obtaining the difference between the two values, Can be obtained.

도 13을 참조하면, 제1 영상(710)은 제1 카메라 모듈로부터 획득한 영상이고 매핑된 제2 영상(720)은 제1 영상에 제2 카메라 모듈로부터 획득한 제2 영상을 매핑한 영상이다. 다중 카메라 시스템은 제1 카메라 모듈 및 제2 카메라 모듈을 포함할 수 있으며, 이 경우 제1 카메라 모듈 및 제2 카메라 모듈은 소정 거리만큼 이격되어 배치될 수 있다. 제1 카메라 모듈 및 제2 카메라 모듈이 동일한 피사체 A, B를 촬영할 경우, 제1 영상(710)에는 제2 카메라 모듈에서 획득한 제2 영상(720)과 달리 피사체 B에서 일부 포함되지 않은 오클루젼 영역이 발생할 수 있다. 일 실시예에 따를 때, aL을 좌시점 영상에서의 피사체 A의 위치, aR을 우시점 영상에서의 동일한 피사체 A의 위치, bL을 좌시점 영상에서의 피사체 B의 위치, bR을 우시점 영상에서의 동일한 피사체 B의 위치라고 할 경우, 시차 정보는 각각 aL와 aR, bL과 bR의 차이를 구하여 가중치를 부가하여 얻을 수 있다.Referring to FIG. 13, the first image 710 is an image obtained from the first camera module, and the mapped second image 720 is an image obtained by mapping a second image acquired from the second camera module to the first image . The multiple camera system may include a first camera module and a second camera module. In this case, the first camera module and the second camera module may be spaced apart from each other by a predetermined distance. When the first camera module and the second camera module capture the same subjects A and B, unlike the second image 720 acquired from the second camera module, A zone region may occur. AL is the position of the subject A in the left view image, aR is the position of the same subject A in the right view image, bL is the position of the subject B in the left view image, and bR is the position of the subject B in the right view image , The parallax information can be obtained by obtaining the difference between aL and aR, bL and bR, respectively, and adding weight values.

<도 14, 도 15>14 and 15,

도 14는 일 실시예에 따른 모노 영상을 기준으로 제3 영상을 합성하는 방법을 설명하기 위해 참조되는 도면이고, 도 15는 다른 실시예에 따른 칼라 영상을 기준으로 제3 영상을 합성하는 방법을 설명하기 위해 참조되는 도면이다.FIG. 14 is a diagram for explaining a method of composing a third image based on a mono image according to an embodiment, and FIG. 15 illustrates a method of synthesizing a third image based on a color image according to another embodiment. Reference is made to the drawings.

도 14를 참조하면, 일 실시예에 따를 때, 제1 영상 및 매핑된 제2 영상 간의 시점 차이가 소정의 임계값 이하일 경우 모노 카메라 모듈에서 얻은 영상을 기준으로 제3 영상을 합성할 수 있다. 이 경우 제3 영상의 Y값은 모노 카메라 모듈에서 얻은 Y값을 이용하고, Cb, Cr값은 각각 칼라 카메라 모듈에서 얻은 Cb, Cr값에 모노 카메라 모듈 및 칼라 카메라 모듈 간 시점 차이에 대해 보상한 값을 이용할 수 있다.Referring to FIG. 14, when a viewpoint difference between a first image and a mapped second image is equal to or less than a predetermined threshold value, a third image may be synthesized based on an image obtained from the mono camera module. In this case, the Y value of the third image is obtained by using the Y value obtained from the mono camera module, and the Cb and Cr values are obtained by compensating the Cb and Cr values obtained from the color camera module for the viewpoint difference between the mono camera module and the color camera module Value can be used.

도 15를 참조하면, 다른 실시예에 따를 때, 제1 영상 및 매핑된 제2 영상 간의 시점 차이가 소정의 임계값 이상일 경우 칼라 카메라 모듈에서 얻은 영상을 기준으로 제3 영상을 합성할 수 있다. 이 경우 제3 영상의 Y값은 모노 카메라 모듈에서 얻은 Y값에 모노 카메라 모듈 및 칼라 카메라 모듈 간 시점 차이에 대해 보상한 값을 이용하고, Cr, Cr값은 칼라 카메라 모듈에서 얻은 Cb, Cr값을 이용할 수 있다.Referring to FIG. 15, according to another embodiment, when the viewpoint difference between the first image and the mapped second image is equal to or greater than a predetermined threshold value, the third image can be synthesized based on the image obtained from the color camera module. In this case, the Y value of the third image is obtained by compensating the Y value obtained from the mono camera module for the viewpoint difference between the mono camera module and the color camera module, and the Cr and Cr values are obtained from the Cb and Cr values obtained from the color camera module Can be used.

<도 16><Fig. 16>

도 16은 일 실시예에 따른 촬영 장치의 동작방법을 나타내는 흐름도이다.16 is a flowchart showing an operation method of the photographing apparatus according to an embodiment.

단계 S610에서 제1 카메라 모듈로부터 피사체를 촬영한 제1 영상을 획득한다.In step S610, a first image of the subject is captured from the first camera module.

단계 S620에서 제2 카메라 모듈로부터 동일한 피사체를 촬영한 제2 영상을 획득한다.In step S620, a second image obtained by capturing the same subject from the second camera module is acquired.

제1 카메라 모듈에 포함되는 이미지 센서는 픽셀 형태가 사각형으로만 구성된 제1 픽셀 구조를 가지고, 상기 제2 카메라 모듈에 포함되는 이미지 센서는 상기 제1 픽셀 구조와 다른 제2 픽셀 구조를 가질 수 있다.The image sensor included in the first camera module may have a first pixel structure in which the pixel shape is only composed of a rectangle and the image sensor included in the second camera module may have a second pixel structure different from the first pixel structure .

단계 S630에서 제1 카메라 모듈로부터 획득한 제1 영상에 제2 카메라 모듈로부터 획득한 제2 영상을 매핑할 수 있다. 매핑하는 과정에 대해서는 도 5에서 이미 설명하였으므로 중복하여 설명하지 않기로 한다.The second image acquired from the second camera module may be mapped to the first image acquired from the first camera module in step S630. The mapping process has already been described with reference to FIG. 5, and will not be repeated.

단계 S640에서 제1 영상과 매핑된 제2 영상을 이용하여 제3 영상을 합성할 수 있다. 합성하는 과정에 대해서는 도 6에서 이미 설명하였으므로 중복하여 설명하지 않기로 한다.In step S640, the third image may be synthesized using the second image mapped to the first image. Since the process of synthesizing has already been described with reference to FIG. 6, it will not be repeated.

일 실시예에 따른 영상 표시 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The image display method according to one embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, .

110 : 제1 카메라 모듈
120 : 제2 카메라 모듈
130 : 제어부
140 : 영상 매핑부
150 : 영상 합성부
110: first camera module
120: second camera module
130:
140: Image mapping unit
150:

Claims (13)

동일한 피사체를 촬영하는 제1 카메라 모듈 및 제2 카메라 모듈;
상기 제1 카메라 모듈로부터 획득한 제1 영상에 상기 제2 카메라 모듈로부터 획득한 제2 영상을 매핑하고, 상제 제1 영상과 상기 매핑된 제2 영상을 이용하여 상기 피사체의 제3 영상을 합성하는 제어부를 포함하고,
상기 제1 카메라 모듈에 포함되는 이미지 센서는 픽셀 형태가 사각형으로 구성된 제1 픽셀 구조를 가지고, 상기 제2 카메라 모듈에 포함되는 이미지 센서는 상기 제1 픽셀 구조와 다른 제2 픽셀 구조를 가지는, 촬영 장치.
A first camera module and a second camera module for photographing the same subject;
A second image obtained from the second camera module is mapped to a first image acquired from the first camera module, and a third image of the subject is synthesized using the first image and the second image mapped And a control unit,
Wherein the image sensor included in the first camera module has a first pixel structure having a pixel shape of a quadrangle and the image sensor included in the second camera module has a second pixel structure different from the first pixel structure, Device.
제1항에 있어서,
상기 제1 카메라 모듈과 상기 제2 카메라 모듈 중 하나는 칼라 카메라 모듈이고, 다른 하나는 모노 카메라 모듈인, 촬영 장치.
The method according to claim 1,
Wherein one of the first camera module and the second camera module is a color camera module and the other is a mono camera module.
제1항에 있어서,
상기 제2 픽셀 구조에 포함되는 복수의 픽셀 구조 중 제1 영역 및 제2 영역은 크기 및 모양 중 적어도 하나가 다른, 촬영 장치.
The method according to claim 1,
Wherein at least one of a size and a shape of the first area and the second area of the plurality of pixel structures included in the second pixel structure is different.
제2항에 있어서,
상기 제어부는,
상기 제1 영상과 상기 매핑된 제2 영상의 시차 정보를 기초로, 영상 합성시 기준이 되는 영상을 상기 칼라 카메라 모듈로부터 획득한 영상으로 할지 상기 모노 카메라 모듈로부터 획득한 영상으로 할 지 결정하는, 촬영 장치.
3. The method of claim 2,
Wherein,
Determining whether to use an image obtained from the color camera module or an image obtained from the mono camera module based on parallax information of the first image and the mapped second image, Shooting device.
제4항에 있어서,
상기 제어부는,
상기 시차 정보가 임계값보다 큰 지를 판단하고,
상기 시차 정보가 상기 임계값보다 크면 상기 영상 합성시 기준이 되는 영상을 상기 칼라 카메라 모듈로부터 획득한 영상으로 결정하고,
상기 시차 정보가 상기 임계값보다 크지 않으면, 상기 영상 합성시 기준이 되는 영상을 상기 모노 카메라 모듈로부터 획득한 영상으로 결정하는, 촬영 장치.
5. The method of claim 4,
Wherein,
Determines whether the parallax information is larger than a threshold value,
If the parallax information is greater than the threshold value, deciding the image as a reference for the image synthesis as an image acquired from the color camera module,
And determines an image as a reference for the image synthesis as an image acquired from the mono camera module if the parallax information is not greater than the threshold value.
제4항에 있어서,
상기 시차 정보는 상기 제1 영상과 상기 매핑된 제2 영상의 디스패리티 내지 오클루젼 정보 중 적어도 하나를 포함하는, 촬영 장치.
5. The method of claim 4,
Wherein the parallax information includes at least one of disparity and occlusion information of the first image and the mapped second image.
제1 카메라 모듈로부터 피사체를 촬영한 제1 영상 및 제2 카메라 모듈로부터 상기 피사체를 촬영한 제2 영상을 획득하는 단계;
상기 획득된 제1 영상에 상기 획득된 제2 영상을 매핑하는 단계; 및
상기 제1 영상과 상기 매핑된 제2 영상을 이용하여 상기 피사체의 제3 영상을 합성하는 단계;를 포함하고,
상기 제1 카메라 모듈에 포함되는 이미지 센서는 픽셀 형태가 사각형으로 구성된 제1 픽셀 구조를 가지고, 상기 제2 카메라 모듈에 포함되는 이미지 센서는 상기 제1 픽셀 구조와 다른 제2 픽셀 구조를 가지는, 촬영 장치의 동작방법.
Obtaining a first image of a subject photographed from a first camera module and a second image of the subject photographed from a second camera module;
Mapping the acquired second image to the acquired first image; And
And synthesizing a third image of the subject using the first image and the mapped second image,
Wherein the image sensor included in the first camera module has a first pixel structure having a pixel shape of a quadrangle and the image sensor included in the second camera module has a second pixel structure different from the first pixel structure, Method of operation of the device.
제7항에 있어서,
상기 제1 카메라 모듈과 상기 제2 카메라 모듈 중 하나는 칼라 카메라 모듈이고, 다른 하나는 모노 카메라 모듈인, 촬영 장치의 동작방법.
8. The method of claim 7,
Wherein one of the first camera module and the second camera module is a color camera module and the other is a mono camera module.
제7항에 있어서,
상기 제2 픽셀 구조에 포함되는 복수의 픽셀 구조 중 제1 영역 및 제2 영역은 크기 및 모양 중 적어도 하나가 다른, 촬영 장치의 동작방법.
8. The method of claim 7,
Wherein at least one of a size and a shape of the first area and the second area of the plurality of pixel structures included in the second pixel structure is different.
제8항에 있어서,
상기 피사체의 제3 영상을 합성하는 단계는,
상기 제1 영상과 상기 매핑된 제2 영상의 시차 정보를 기초로, 영상 합성시 기준이 되는 영상을 상기 칼라 카메라 모듈로부터 획득한 영상으로 할지 상기 모노 카메라 모듈로부터 획득한 영상으로 할 지 결정하는 단계를 포함하는, 촬영 장치의 동작방법.
9. The method of claim 8,
Wherein synthesizing the third image of the subject comprises:
Determining whether to use an image obtained from the color camera module or an image obtained from the mono camera module based on the parallax information of the first image and the mapped second image, The method comprising the steps of:
제10항에 있어서,
상기 피사체의 제3 영상을 합성하는 단계는,
상기 시차 정보가 임계값보다 큰 지를 판단하고,
상기 시차 정보가 상기 임계값보다 크면 상기 영상 합성시 기준이 되는 영상을 상기 칼라 카메라 모듈로부터 획득한 영상으로 결정하고,
상기 시차 정보가 상기 임계값보다 크지 않으면, 상기 영상 합성시 기준이 되는 영상을 상기 모노 카메라 모듈로부터 획득한 영상으로 결정하는 단계를 더 포함하는, 촬영 장치의 동작방법.
11. The method of claim 10,
Wherein synthesizing the third image of the subject comprises:
Determines whether the parallax information is larger than a threshold value,
If the parallax information is greater than the threshold value, decides an image as a reference for the image synthesis as an image acquired from the color camera module,
Further comprising the step of, if the parallax information is not greater than the threshold value, determining an image as a reference for the image synthesis as an image acquired from the mono camera module.
제10항에 있어서,
상기 시차 정보는 상기 제1 영상과 상기 매핑된 제2 영상의 디스패리티 내지 오클루젼 정보 중 적어도 하나를 포함하는, 촬영 장치의 동작방법.
11. The method of claim 10,
Wherein the parallax information includes at least one of disparity and occlusion information of the first image and the mapped second image.
제7항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium storing a program for causing a computer to execute the method of claim 7.
KR1020150098414A 2015-05-22 2015-07-10 Photographing apparatus and method for controlling the same KR102336449B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/057,201 US9743015B2 (en) 2015-05-22 2016-03-01 Image capturing apparatus and method of controlling the same
US15/645,427 US9961272B2 (en) 2015-05-22 2017-07-10 Image capturing apparatus and method of controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562165494P 2015-05-22 2015-05-22
US62/165,494 2015-05-22

Publications (2)

Publication Number Publication Date
KR20160137289A true KR20160137289A (en) 2016-11-30
KR102336449B1 KR102336449B1 (en) 2021-12-07

Family

ID=57707364

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150098414A KR102336449B1 (en) 2015-05-22 2015-07-10 Photographing apparatus and method for controlling the same

Country Status (1)

Country Link
KR (1) KR102336449B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791322A (en) * 2016-12-31 2017-05-31 北京工业大学 Hundred million pixel web cameras
KR20200091996A (en) * 2019-01-23 2020-08-03 삼성전자주식회사 Processor analyzing image data and generating final image data
KR20200143815A (en) * 2019-06-17 2020-12-28 주식회사 피앤오 Artificial intelligence camera system, method of transforming image therein, and computer-readable medium
WO2023113544A1 (en) * 2021-12-17 2023-06-22 삼성전자 주식회사 Electronic device comprising under-display camera and operation method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233383A (en) * 1996-02-28 1997-09-05 Nippon Telegr & Teleph Corp <Ntt> Image display device and image input/output system
JP2006237361A (en) * 2005-02-25 2006-09-07 Iwate Toshiba Electronics Co Ltd Cmos image sensor
JP2013026672A (en) * 2011-07-15 2013-02-04 Toshiba Corp Solid-state imaging device and camera module
JP2015050494A (en) * 2013-08-30 2015-03-16 日立オートモティブシステムズ株式会社 Imaging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09233383A (en) * 1996-02-28 1997-09-05 Nippon Telegr & Teleph Corp <Ntt> Image display device and image input/output system
JP2006237361A (en) * 2005-02-25 2006-09-07 Iwate Toshiba Electronics Co Ltd Cmos image sensor
JP2013026672A (en) * 2011-07-15 2013-02-04 Toshiba Corp Solid-state imaging device and camera module
JP2015050494A (en) * 2013-08-30 2015-03-16 日立オートモティブシステムズ株式会社 Imaging device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791322A (en) * 2016-12-31 2017-05-31 北京工业大学 Hundred million pixel web cameras
KR20200091996A (en) * 2019-01-23 2020-08-03 삼성전자주식회사 Processor analyzing image data and generating final image data
KR20200143815A (en) * 2019-06-17 2020-12-28 주식회사 피앤오 Artificial intelligence camera system, method of transforming image therein, and computer-readable medium
WO2023113544A1 (en) * 2021-12-17 2023-06-22 삼성전자 주식회사 Electronic device comprising under-display camera and operation method thereof

Also Published As

Publication number Publication date
KR102336449B1 (en) 2021-12-07

Similar Documents

Publication Publication Date Title
US9961272B2 (en) Image capturing apparatus and method of controlling the same
US10410061B2 (en) Image capturing apparatus and method of operating the same
US8792019B2 (en) Video creation device, video creation method and non-transitory computer-readable storage medium
CN101931752B (en) Imaging apparatus and focusing method
TW201119365A (en) Image selection device and method for selecting image
US9628719B2 (en) Read-out mode changeable digital photographing apparatus and method of controlling the same
JP2017055310A (en) Imaging apparatus and control method
KR101989152B1 (en) Apparatus and method for capturing still image during moving image photographing or reproducing
US20150189142A1 (en) Electronic apparatus and method of capturing moving subject by using the same
CN116324882A (en) Image signal processing in a multi-camera system
KR102336449B1 (en) Photographing apparatus and method for controlling the same
KR102368625B1 (en) Digital photographing apparatus and the method for the same
US20180365802A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable recording medium
JP2020017807A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2011239267A (en) Imaging apparatus and image processing apparatus
JP4717867B2 (en) Imaging apparatus and imaging method
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
JP5869839B2 (en) Image processing apparatus and control method thereof
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP2005229280A (en) Image processing apparatus and method, and program
US10447937B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium that perform image processing based on an image processing parameter set for a first object area, and information on a positional relationship between an object in a second object area and an object in the first object area
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
KR102014444B1 (en) Photographing apparatus, method for controlling the same, and computer-readable recording medium
WO2017208991A1 (en) Image capturing and processing device, electronic instrument, image capturing and processing method, and image capturing and processing device control program
JP2020046475A (en) Image processing device and control method therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant