KR20170047150A - Method and device for generating an image - Google Patents

Method and device for generating an image Download PDF

Info

Publication number
KR20170047150A
KR20170047150A KR1020160030949A KR20160030949A KR20170047150A KR 20170047150 A KR20170047150 A KR 20170047150A KR 1020160030949 A KR1020160030949 A KR 1020160030949A KR 20160030949 A KR20160030949 A KR 20160030949A KR 20170047150 A KR20170047150 A KR 20170047150A
Authority
KR
South Korea
Prior art keywords
pixel
image
monochrome image
camera
color
Prior art date
Application number
KR1020160030949A
Other languages
Korean (ko)
Other versions
KR102494696B1 (en
Inventor
조성현
한희철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/244,242 priority Critical patent/US9948857B2/en
Publication of KR20170047150A publication Critical patent/KR20170047150A/en
Priority to US15/914,591 priority patent/US10187566B2/en
Application granted granted Critical
Publication of KR102494696B1 publication Critical patent/KR102494696B1/en

Links

Images

Classifications

    • H04N5/2258
    • H04N5/2257
    • H04N5/228
    • H04N5/23229
    • H04N5/235
    • H04N9/735

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

A device according to an aspect of the present invention includes: a first camera which generates a first monochrome image; a second camera which generates a first color image; a first electronic circuit which generates a second monochrome image by using the first color image; a second electronic circuit which obtains information indicating a positional relationship between pixels included in the first and the second monochrome image; and a third electronic circuit which generates a third monochrome image based on the first monochrome image, the second monochrome image, and the obtained information. Accordingly, the present invention can generate an image with high quality by removing brightness noise and color noise.

Description

영상을 생성하는 방법 및 디바이스. {Method and device for generating an image}Method and device for generating images. {Method and device for generating an image}

영상을 생성하는 방법 및 디바이스에 관한다.A method and device for generating an image.

카메라가 달린 스마트 폰과 같은 모바일 기기가 대중화됨에 따라, 피사체를 촬영함에 있어서 DSLR이나 일반 디지털 카메라에 비하여 스마트 폰에 포함된 카메라를 사용하는 경우가 증가하고 있다. 그러나, 스마트 폰에 포함된 카메라의 크기 또는 두께는 스마트 폰 자체의 크기 또는 두께에 의하여 제약을 받게 된다. 따라서, 스마트 폰에 포함된 카메라는 크기가 작은 영상 센서와 렌즈를 사용할 수 밖에 없으며, 이는 화질의 저하를 초래하게 된다. 한편, 근래에 더 얇고 가벼운 모바일 기기에 대한 수요가 커짐에 따라, 얇은 두께의 카메라를 갖는 스마트 폰에 의해서도 고품질의 영상이 생성될 수 있는 기술에 대한 수요가 증가하고 있다.As a mobile device such as a smart phone with a camera is popularized, a camera included in a smart phone is increasingly used for shooting a subject, compared to a DSLR or a general digital camera. However, the size or thickness of the camera included in the smartphone is limited by the size or thickness of the smartphone itself. Therefore, a camera included in a smart phone is forced to use a small-sized image sensor and a lens, which causes deterioration of image quality. On the other hand, as demand for thinner and lighter mobile devices has increased in recent years, there is a growing demand for a technology capable of generating high-quality images even by a smart phone having a thin camera.

영상을 생성하는 방법 및 디바이스를 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.And to provide a method and device for generating an image. The present invention also provides a computer-readable recording medium on which a program for causing the computer to execute the method is provided. The technical problem to be solved is not limited to the technical problems as described above, and other technical problems may exist.

일 측면에 따른 디바이스는, 제 1 흑백 영상을 생성하는 제 1 카메라; 제 1 컬러 영상을 생성하는 제 2 카메라; 상기 제 1 컬러 영상을 이용하여 제 2 흑백 영상을 생성하는 제 1 전자 회로; 상기 제 1 흑백 영상에 포함된 픽셀들과 상기 제 2 흑백 영상에 포함된 픽셀들 사이의 위치 관계를 나타내는 정보를 획득하는 제 2 전자 회로; 및 상기 제 1 흑백 영상, 상기 제 2 흑백 영상 및 상기 획득된 정보에 기초하여 제 3 흑백 영상을 생성하는 제 3 전자 회로;를 포함한다.A device according to one aspect, comprising: a first camera for generating a first monochrome image; A second camera for generating a first color image; A first electronic circuit for generating a second monochrome image using the first color image; A second electronic circuit for obtaining information indicating a positional relationship between the pixels included in the first monochrome image and the pixels included in the second monochrome image; And a third electronic circuit for generating the third monochrome image, the second monochrome image, and the third monochrome image based on the obtained information.

다른 측면에 따른 영상을 생성하는 방법은, 제 1 흑백 영상 및 제 1 컬러 영상을 생성하는 단계; 상기 제 1 컬러 영상을 이용하여 제 2 흑백 영상을 생성하는 단계; 상기 제 1 흑백 영상에 포함된 픽셀들과 상기 제 2 흑백 영상에 포함된 픽셀들 사이의 위치 관계를 나타내는 정보를 획득하는 단계; 및 상기 제 1 흑백 영상, 상기 제 2 흑백 영상 및 상기 획득된 정보에 기초하여 제 3 흑백 영상을 생성하는 단계;를 포함한다.A method of generating an image according to another aspect includes generating a first monochrome image and a first color image; Generating a second monochrome image using the first color image; Obtaining information indicating a positional relationship between the pixels included in the first monochrome image and the pixels included in the second monochrome image; And generating a third monochrome image based on the first monochrome image, the second monochrome image, and the obtained information.

또 다른 측면에 따른 컴퓨터로 읽을 수 있는 기록매체는 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.According to another aspect, a computer-readable recording medium includes a recording medium on which a program for causing a computer to execute the above-described method is recorded.

도 1은 일 실시예에 따른 영상을 생성하는 방법의 일 예를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 디바이스의 일 예를 도시한 구성도이다.
도 3은 일 실시예에 따른 디바이스의 다른 예를 도시한 구성도이다.
도 4a 내지 도 4b는 일 실시예에 따른 디바이스가 복수 개의 카메라들을 포함하는 일 예를 설명하기 위한 도면들이다.
도 5a 내지 도 5b는 일 실시예에 따른 카메라들에 포함된 영상 센서의 일 예를 설명하기 위한 도면들이다.
도 6은 일 실시예에 따른 프로세서의 일 예를 도시한 구성도이다.
도 7은 일 실시예에 따른 제 1 전자 회로가 제 2 흑백 영상을 생성하는 일 예를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 제 2 전자 회로가 동작하는 일 예를 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 프로세서의 다른 예를 도시한 구성도이다.
도 10은 일 실시예에 따른 영상을 생성하는 방법의 일 예를 나타내는 흐름도이다.
도 11은 일 실시예에 따른 영상을 생성하는 방법의 다른 예를 나타내는 흐름도이다.
1 is a view for explaining an example of a method of generating an image according to an embodiment.
2 is a configuration diagram showing an example of a device according to an embodiment.
3 is a configuration diagram showing another example of a device according to an embodiment.
4A and 4B are views for explaining an example in which a device according to an embodiment includes a plurality of cameras.
5A and 5B are views for explaining an example of an image sensor included in cameras according to an embodiment.
6 is a block diagram illustrating an example of a processor according to an embodiment.
7 is a diagram for explaining an example in which a first electronic circuit according to an embodiment generates a second monochrome image.
8 is a diagram for explaining an example in which a second electronic circuit according to an embodiment operates.
9 is a configuration diagram showing another example of a processor according to an embodiment.
10 is a flowchart showing an example of a method of generating an image according to an embodiment.
11 is a flowchart illustrating another example of a method of generating an image according to an embodiment.

이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명의 하기 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하지 않는다. 또한, 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The following examples of the present invention are intended only to illustrate the present invention and do not limit or limit the scope of the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, without departing from the spirit or scope of the present invention. Also, as used herein, the term "part " refers to a hardware component such as software, FPGA or ASIC, and" part " However, "part" is not meant to be limited to software or hardware. "Part" may be configured to reside on an addressable storage medium and may be configured to play back one or more processors. Thus, by way of example, and not limitation, "part (s) " refers to components such as software components, object oriented software components, class components and task components, and processes, Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and "parts " may be combined into a smaller number of components and" parts " or further separated into additional components and "parts ".

도 1은 일 실시예에 따른 영상을 생성하는 방법의 일 예를 설명하기 위한 도면이다.1 is a view for explaining an example of a method of generating an image according to an embodiment.

도 1에는 사용자(10)가 디바이스(100)를 이용하여 영상을 생성하는 일 예가 도시되어 있다.FIG. 1 shows an example in which the user 10 generates an image using the device 100. FIG.

디바이스(100)는 복수 개의 카메라들(또는 카메라 모듈들)을 포함할 수 있다. 예를 들어, 디바이스(100)는 흑백 영상을 생성하는 제 1 카메라 및 컬러 영상을 생성하는 제 2 카메라를 포함할 수 있다. 여기에서, 컬러 영상은 피사체가 다양한 컬러들을 통하여 표현된 영상을 의미하고, 흑백 영상은 피사체가 검은색과 흰색 사이의 명도(brightness) 차이를 통하여 표현된 영상을 의미한다.The device 100 may include a plurality of cameras (or camera modules). For example, the device 100 may include a first camera for generating a monochrome image and a second camera for generating a color image. Here, a color image means an image in which a subject is represented through various colors, and a monochrome image means an image in which a subject is expressed through a difference in brightness between black and white.

사용자(10)에 의하여 촬영 신호가 입력되는 경우, 디바이스(100)는 피사체를 나타내는 제 1 컬러 영상(20) 및 제 1 흑백 영상(30)을 생성한다. 그 후에, 디바이스(100)는 제 1 컬러 영상(20) 및 제 1 흑백 영상(30)을 이용하여 제 2 컬러 영상(40)을 생성한다. 예를 들어, 디바이스(100)는 제 1 컬러 영상(20)을 이용하여 제 2 흑백 영상을 생성할 수 있다. 그리고, 디바이스(100)는 제 1 흑백 영상(30)과 제 2 흑백 영상을 정합하여 제 1 흑백 영상(30)에 포함된 픽셀들과 제 2 흑백 영상에 포함된 픽셀들 사이의 위치 관계를 나타내는 정보를 획득할 수 있다. 그리고, 디바이스(100)는 제 1 흑백 영상(30), 제 2 흑백 영상 및 획득된 정보에 기초하여 제 3 흑백 영상을 생성할 수 있다. 그리고, 디바이스(100)는 제 1 컬러 영상(20)과 제 3 흑백 영상을 이용하여 제 2 컬러 영상(40)을 생성할 수 있다.When a photographing signal is input by the user 10, the device 100 generates the first color image 20 and the first black and white image 30 representing the subject. Thereafter, the device 100 generates the second color image 40 using the first color image 20 and the first monochrome image 30. For example, the device 100 may generate a second monochrome image using the first color image 20. Then, the device 100 compares the first black-and-white image 30 with the second black-and-white image, and displays the positional relationship between the pixels included in the first black-and-white image 30 and the pixels included in the second black- Information can be obtained. Then, the device 100 may generate the third monochrome image based on the first monochrome image 30, the second monochrome image, and the obtained information. Then, the device 100 may generate the second color image 40 using the first color image 20 and the third black and white image.

일반적으로, 컬러 카메라(즉, 컬러 영상 센서를 포함하는 카메라)에 의하여 생성된 컬러 영상은 흑백 카메라(즉, 흑백 영상 센서를 포함하는 카메라)에 의하여 생성된 흑백 영상에 비하여 품질이 낮을 수 있다. 다시 말해, 컬러 영상에 나타난 피사체는 흑백 영상에 나타난 피사체에 비하여 선명도가 낮을 수 있다. 또한, 일반적으로, 컬러 영상은 흑백 영상에 비하여 노이즈에 민감한 문제점도 존재한다.Generally, a color image produced by a color camera (i.e., a camera including a color image sensor) may have a lower quality than a monochrome image produced by a monochrome camera (i.e., a camera including a monochrome image sensor). In other words, the subject displayed on the color image may be less sharp than the subject displayed on the black and white image. Generally, color images are more sensitive to noise than black and white images.

디바이스(100)가 제 1 카메라를 통하여 생성된 제 1 컬러 영상(20) 및 제 2 카메라를 통하여 생성된 제 1 흑백 영상(30)을 이용하여 제 2 컬러 영상(40)을 생성한다. 따라서, 디바이스(100)는 제 1 컬러 영상(20)보다 고품질인 제 2 컬러 영상(40)을 생성할 수 있다.The device 100 generates the second color image 40 using the first color image 20 generated through the first camera and the first black and white image 30 generated through the second camera. Thus, the device 100 can generate a second color image 40 of higher quality than the first color image 20.

이하, 도 2 내지 도 3을 참조하여, 디바이스(100)의 예들을 구체적으로 설명한다.Hereinafter, with reference to Figs. 2 to 3, examples of the device 100 will be described in detail.

도 2는 일 실시예에 따른 디바이스의 일 예를 도시한 구성도이다.2 is a configuration diagram showing an example of a device according to an embodiment.

디바이스(100a)는 촬영부(110), 아날로그 신호 처리부(120), 메모리(130), 저장/판독 제어부(140), 데이터 저장부(142), 프로그램 저장부(150), 표시 구동부(162), 표시부(164), CPU/DSP(170) 및 조작부(180)를 포함할 수 있다. The device 100a includes a photographing unit 110, an analog signal processing unit 120, a memory 130, a storage / reading control unit 140, a data storage unit 142, a program storage unit 150, a display driving unit 162, A display unit 164, a CPU / DSP 170, and an operation unit 180. [

디바이스(100a)의 전체 동작은 CPU/DSP(170)에 의해 통괄된다. 도 4 내지 도 11에서는 CPU/DSP(170)를 프로세서로 지칭한다. CPU/DSP(170)는 렌즈 구동부(112), 조리개 구동부(115), 촬상 소자 제어부(119), 표시 구동부(162), 조작부(180) 등 디바이스(100a)에 포함된 각 구성 요소의 동작을 위한 제어 신호를 제공한다.The overall operation of the device 100a is governed by the CPU / DSP 170. 4 to 11, the CPU / DSP 170 is referred to as a processor. The CPU / DSP 170 controls the operation of each component included in the device 100a such as the lens driving unit 112, the diaphragm driving unit 115, the imaging device control unit 119, the display driving unit 162, the operation unit 180, Lt; / RTI >

촬영부(110)는 입사광으로부터 전기적인 신호의 영상을 생성하는 구성요소로서, 렌즈(111), 렌즈 구동부(112), 조리개(113), 조리개 구동부(115), 촬상 소자(118), 및 촬상 소자 제어부(119)를 포함한다.The photographing unit 110 is a component for generating an image of an electrical signal from incident light and includes a lens 111, a lens driving unit 112, a diaphragm 113, a diaphragm driving unit 115, an image pickup device 118, And a device control unit 119.

렌즈(111)는 복수 군, 복수 매의 렌즈들을 구비할 수 있다. 디바이스(100a)가 복수의 렌즈들을 구비하는 경우, 각각의 렌즈는 서로 다른 화각을 갖는 렌즈들일 수도 있고, 동일한 화각을 갖는 렌즈들일 수도 있다. 렌즈(111)는 렌즈 구동부(112)에 의해 그 위치가 조절된다. 렌즈 구동부(112)는 CPU/DSP(170)에서 제공된 제어 신호에 따라 렌즈(111)의 위치를 조절한다. The lens 111 may include a plurality of lenses and a plurality of lenses. When the device 100a includes a plurality of lenses, each lens may be a lens having a different angle of view or a lens having the same angle of view. The position of the lens 111 is adjusted by the lens driving unit 112. The lens driver 112 adjusts the position of the lens 111 according to a control signal provided from the CPU / DSP 170.

조리개(113)는 조리개 구동부(115)에 의해 그 개폐 정도가 조절되며, 촬상 소자(118)로 입사되는 광량을 조절한다. The diaphragm 113 is controlled by the diaphragm driver 115 to adjust the amount of light incident on the image sensor 118.

렌즈(111) 및 조리개(113)를 투과한 광학 신호는 촬상 소자(118)의 수광면에 이르러 피사체의 상을 결상한다. 촬상 소자(118)는 광학 신호를 전기 신호로 변환하는 CCD(Charge Coupled Device) 이미지센서 또는 CIS(Complementary Metal Oxide Semiconductor Image Sensor)일 수 있다. 촬상 소자(118)는 촬상 소자 제어부(119)에 의해 감도 등이 조절될 수 있다. 촬상 소자 제어부(119)는 실시간으로 입력되는 영상 신호에 의해 자동으로 생성되는 제어 신호 또는 사용자의 조작에 의해 수동으로 입력되는 제어 신호에 따라 촬상 소자(118)를 제어할 수 있다.The optical signal transmitted through the lens 111 and the diaphragm 113 reaches the light-receiving surface of the image pickup element 118 and forms an image of the object. The image pickup device 118 may be a CCD (Charge Coupled Device) image sensor or a CIS (Complementary Metal Oxide Semiconductor Image Sensor) for converting an optical signal into an electric signal. The sensitivity of the image pickup element 118 can be adjusted by the image pickup element controller 119. The image pickup element control section 119 can control the image pickup element 118 in accordance with a control signal automatically generated by the video signal inputted in real time or a control signal manually inputted by the user's operation.

촬상 소자(118)의 노광 시간은 셔터(미도시)로 조절된다. 셔터(미도시)는 가리개를 이동시켜 빛의 입사를 조절하는 기계식 셔터와, 촬상 소자(118)에 전기 신호를 공급하여 노광을 제어하는 전자식 셔터가 있다.The exposure time of the imaging element 118 is adjusted by a shutter (not shown). A shutter (not shown) has a mechanical shutter for moving the screen to adjust the incidence of light, and an electronic shutter for controlling exposure by supplying an electric signal to the imaging element 118.

아날로그 신호 처리부(120)는 촬상 소자(118)로부터 공급된 아날로그 신호에 대하여, 노이즈 저감 처리, 게인 조정, 파형 정형화, 아날로그-디지털 변환 처리 등을 수행한다.The analog signal processing unit 120 performs noise reduction processing, gain adjustment, waveform shaping, analog-to-digital conversion processing, and the like on the analog signal supplied from the image pickup element 118.

아날로그 신호 처리부(120)에 의해 처리된 신호는 메모리(130)를 거쳐 CPU/DSP(170)에 입력될 수도 있고, 메모리(130)를 거치지 않고 CPU/DSP(170)에 입력될 수도 있다. 여기서 메모리(130)는 디바이스(100a)의 메인 메모리로서 동작하고, CPU/DSP(170)가 동작 중에 필요한 정보를 임시로 저장한다. 프로그램 저장부(130)는 디바이스(100a)를 구동하는 운영 시스템, 응용 시스템 등의 프로그램을 저장한다.The signal processed by the analog signal processing unit 120 may be input to the CPU / DSP 170 via the memory 130 or may be input to the CPU / DSP 170 without going through the memory 130. [ Here, the memory 130 operates as the main memory of the device 100a, and temporarily stores information necessary for the CPU / DSP 170 during operation. The program storage unit 130 stores programs such as an operating system and an application system for driving the device 100a.

아울러, 디바이스(100a)는 이의 동작 상태 또는 디바이스(100a)에서 촬영한 영상 정보를 표시하도록 표시부(164)를 포함한다. 표시부(164)는 시각적인 정보 및/또는 청각적인 정보를 사용자에게 제공할 수 있다. 시각적인 정보를 제공하기 위해 표시부(164)는 예를 들면, 액정 디스플레이 패널(LCD), 유기 발광 디스플레이 패널 등으로 이루어질 수 있다. In addition, the device 100a includes a display unit 164 for displaying its operation state or image information photographed by the device 100a. The display unit 164 can provide visual and / or auditory information to the user. In order to provide visual information, the display unit 164 may be composed of, for example, a liquid crystal display panel (LCD), an organic light emitting display panel, or the like.

또한, 디바이스(100a)는 표시부(164)를 2개 이상 포함할 수도 있고, 터치 입력을 인식할 수 있는 터치 스크린일 수 있다. 예를 들어, 디바이스(100a)에는 촬영될 대상을 나타내는 라이브 뷰 영상을 표시하는 표시부와 디바이스(100a)의 상태를 나타내는 영상을 표시하는 표시부를 포함할 수 있다.In addition, the device 100a may include two or more display units 164, or may be a touch screen capable of recognizing a touch input. For example, the device 100a may include a display unit for displaying a live view image representing an object to be photographed and a display unit for displaying an image representing the state of the device 100a.

표시 구동부(162)는 표시부(164)에 구동 신호를 제공한다.The display driver 162 provides a driving signal to the display unit 164.

CPU/DSP(170)는 입력되는 영상 신호를 처리하고, 이에 따라 또는 외부 입력 신호에 따라 각 구성부들을 제어한다. CPU/DSP(170)는 입력된 영상 데이터에 대해 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 또한, 화질 개선을 위한 영상 신호 처리를 하여 생성한 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 상기 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축형식은 가역 형식 또는 비가역 형식이어도 된다. 적절한 형식의 예로서, 정지 영상에 경우, JPEG(Joint Photographic Experts Group)형식이나 JPEG 2000 형식 등으로 변환도 가능하다. 또한, 동영상을 기록하는 경우, MPEG(Moving Picture Experts Group) 표준에 따라 복수의 프레임들을 압축하여 동영상 파일을 생성할 수 있다. 영상 파일은 예를 들면 Exif(Exchangeable image file format) 표준에 따라 생성될 수 있다.The CPU / DSP 170 processes the input video signal and controls the components according to the input video signal or the external input signal. The CPU / DSP 170 reduces noise on the input image data and performs a gamma correction, a color filter array interpolation, a color matrix, a color correction, And image signal processing for improving image quality such as color enhancement can be performed. Also, the image data generated by the image signal processing for image quality improvement may be compressed to generate an image file, or the image data may be recovered from the image file. The compression format of the image may be reversible or irreversible. As an example of a proper format, the still image can be converted into a JPEG (Joint Photographic Experts Group) format or a JPEG 2000 format. In addition, when recording a moving image, a moving image file can be generated by compressing a plurality of frames according to the MPEG (Moving Picture Experts Group) standard. The image file can be created according to the Exif (Exchangeable image file format) standard, for example.

CPU/DSP(170)로부터 출력된 이미지 데이터는 메모리(130)를 통하여 또는 직접 저장/판독 제어부(140)에 입력되는데, 저장/판독 제어부(140)는 사용자로부터의 신호에 따라 또는 자동으로 영상 데이터를 데이터 저장부(142)에 저장한다. 또한 저장/판독 제어부(140)는 데이터 저장부(142)에 저장된 영상 파일로부터 영상에 관한 데이터를 판독하고, 이를 메모리(130)를 통해 또는 다른 경로를 통해 표시 구동부에 입력하여 표시부(164)에 이미지가 표시되도록 할 수도 있다. 데이터 저장부(142)는 탈착 가능한 것일 수도 있고 디바이스(100a)에 영구 장착된 것일 수 있다.The image data output from the CPU / DSP 170 is input to the memory 130 or directly to the storage / read control unit 140. The storage / In the data storage unit 142. The storage / read control unit 140 also reads data relating to an image from the image file stored in the data storage unit 142 and inputs it to the display driver through the memory 130 or another path, Images may be displayed. The data storage unit 142 may be removable or permanently mounted to the device 100a.

또한, CPU/DSP(170)에서는 불선명 처리, 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 행할 수 있다. 영상 인식 처리로 얼굴 인식, 장면 인식 처리 등을 행할 수 있다. 아울러, CPU/DSP(170)에서는 표시부(164)에 디스플레이하기 위한 표시 영상 신호 처리를 행할 수 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등 생성 및 영상의 합성 처리 등을 행할 수 있다. CPU/DSP(170)는 외부 모니터와 연결되어, 외부 모니터에 디스플레이 되도록 소정의 영상 신호 처리를 행할 수 있으며, 이렇게 처리된 영상 데이터를 전송하여 상기 외부 모니터에서 해당 영상이 디스플레이 되도록 할 수 있다.In addition, the CPU / DSP 170 can perform blurring processing, color processing, blur processing, edge emphasis processing, image analysis processing, image recognition processing, image effect processing, and the like. The face recognizing process, the scene recognizing process, and the like can be performed by the image recognizing process. In addition, the CPU / DSP 170 can perform display video signal processing for display on the display unit 164. For example, brightness level adjustment, color correction, contrast adjustment, contour enhancement adjustment, screen division processing, character image generation, and image synthesis processing can be performed. The CPU / DSP 170 may be connected to an external monitor to process a predetermined image signal to be displayed on the external monitor, and transmit the processed image data to display the corresponding image on the external monitor.

또한, CPU/DSP(170)는 프로그램 저장부(130)에 저장된 프로그램을 실행하거나, 별도의 모듈을 구비하여, 오토 포커싱, 줌 변경, 초점 변경, 자동 노출 보정 등을 제어하기 위한 제어 신호를 생성하여, 조리개 구동부(115), 렌즈 구동부(112), 및 촬상 소자 제어부(119)에 제공하고, 셔터, 스트로보 등 디바이스(100a)에 구비된 구성 요소들의 동작을 총괄적으로 제어할 수 있다.The CPU / DSP 170 may execute a program stored in the program storage unit 130 or may include a separate module to generate a control signal for controlling autofocus, zoom change, focus change, automatic exposure correction, To the diaphragm driving unit 115, the lens driving unit 112 and the imaging device control unit 119 so that the operations of the components provided in the device 100a such as the shutter and the strobe can be collectively controlled.

조작부(180)는 사용자가 제어 신호를 입력할 수 있는 구성이다. 조작부(180)는 정해진 시간 동안 촬상 소자(118)를 빛에 노출하여 사진을 촬영하도록 하는 셔터-릴리즈 신호를 입력하는 셔터-릴리즈 버튼, 전원의 온-오프를 제어하기 위한 제어 신호를 입력하는 전원 버튼, 입력에 따라 화각을 넓어지게 하거나 화각을 좁아지게 줌 버튼, 모드 선택 버튼, 기타 촬영 설정값 조절 버튼 등 다양한 기능 버튼들을 포함할 수 있다. 조작부(180)는 버튼, 키보드, 터치 패드, 터치스크린, 원격 제어기 등과 같이 사용자가 제어 신호를 입력할 수 있는 어떠한 형태로 구현되어도 무방하다.The operation unit 180 is a configuration in which a user can input a control signal. The operation unit 180 includes a shutter-release button for inputting a shutter-release signal for exposing the image pickup device 118 to light for a predetermined period of time to take a picture, a power source for inputting a control signal for controlling on- Button, a zoom button for widening the angle of view according to the input or narrowing the angle of view, a mode selection button, and other shooting setting value adjustment buttons. The operation unit 180 may be implemented in any form in which a user can input a control signal, such as a button, a keyboard, a touch pad, a touch screen, a remote controller, or the like.

센서(190)는 물리량을 계측하거나 디바이스(100a)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 디바이스(100a)에 포함될 수 있는 센서(190)의 일 예는 도 3을 참조하여 후술한다. 센서(190)는 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 디바이스(100a)는 CPU/DSP(170)의 일부로서 또는 별도로, 센서(190)를 제어하도록 구성된 프로세서를 더 포함하여, CPU/DSP(170)가 슬립(sleep) 상태에 있는 동안, 센서(190)를 제어할 수 있다.The sensor 190 may measure the physical quantity or sense the operating state of the device 100a and convert the measured or sensed information into an electrical signal. One example of a sensor 190 that may be included in the device 100a will be described below with reference to FIG. The sensor 190 may further include a control circuit for controlling at least one or more sensors belonging thereto. In some embodiments, the device 100a further includes a processor configured to control the sensor 190, either as part of or separate from the CPU / DSP 170, such that the CPU / DSP 170 is in a sleep state The sensor 190 can be controlled.

도 2에 도시된 디바이스(100a)는 촬영이 수행되는데 필요한 구성들을 도시한 일 예이며, 일부 실시예에 따른 디바이스(100a)는 도 2에 도시된 디바이스(100a)에 한정되지 않음은 물론이다.It is needless to say that the device 100a shown in Fig. 2 is an example showing the configurations necessary for the photographing to be performed, and the device 100a according to some embodiments is not limited to the device 100a shown in Fig.

이하, 도 3을 참조하여, 디바이스(100)의 다른 예를 구체적으로 설명한다.Hereinafter, another example of the device 100 will be described in detail with reference to FIG.

도 3은 일 실시예에 따른 디바이스의 다른 예를 도시한 구성도이다.3 is a configuration diagram showing another example of a device according to an embodiment.

예를 들면, 디바이스(100b)는, 도 1에 도시된 디바이스(100) 또는 도 2에 도시된 디바이스(100a)의 전체 또는 일부를 포함할 수 있다. 디바이스(100b)는 하나 이상의 프로세서(예를 들어, CPU/DSP 또는 AP(application processor))(210), 통신 모듈(220), 가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다.For example, the device 100b may include all or part of the device 100 shown in Fig. 1 or the device 100a shown in Fig. The device 100b may include one or more processors (e.g., a CPU / DSP or AP (application processor) 210), a communication module 220, a subscriber identification module 224, a memory 230, a sensor module 240, An input device 250, a display 260, an interface 270, an audio module 280, a camera module 291, a power management module 295, a battery 296, an indicator 297, and a motor 298 ).

프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 일 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서(2010)는 도 3에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.The processor 210 may control a plurality of hardware or software components connected to the processor 210, for example, by driving an operating system or an application program, and may perform various data processing and calculations. The processor 210 may be implemented with, for example, a system on chip (SoC). According to one embodiment, the processor 210 may further include a graphics processing unit (GPU) and / or an image signal processor. Processor 2010 may include at least some of the components shown in FIG. 3 (e.g., cellular module 221). Processor 210 may load or process instructions or data received from at least one of the other components (e.g., non-volatile memory) into volatile memory and store the various data in non-volatile memory have.

통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(228) 및 RF(radio frequency) 모듈(229)를 포함할 수 있다.The communication module 220 includes a cellular module 221, a WiFi module 223, a Bluetooth module 225, a GNSS module 227 (e.g., a GPS module, a Glonass module, a Beidou module, or a Galileo module) An NFC module 228, and a radio frequency (RF) module 229.

셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 일 예로서, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 디바이스(100b)의 구별 및 인증을 수행할 수 있다. 다른 예로서, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 또 다른 예로서, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.The cellular module 221 can provide voice calls, video calls, text services, or Internet services, for example, over a communication network. As an example, the cellular module 221 may utilize a subscriber identity module (e.g., a SIM card) 224 to perform the identification and authentication of the device 100b within the communication network. As another example, the cellular module 221 may perform at least some of the functions that the processor 210 may provide. As another example, the cellular module 221 may include a communication processor (CP).

WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. Each of the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may include a processor for processing data transmitted and received through the corresponding module, for example. At least some (e.g., two or more) of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may be integrated into one integrated chip Lt; / RTI >

RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 일 예로서, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 예로서, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. The RF module 229 can, for example, send and receive communication signals (e.g., RF signals). The RF module 229 may include, for example, a transceiver, a power amplifier module (PAM), a frequency filter, a low noise amplifier (LNA), or an antenna. As another example, at least one of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may transmit and receive RF signals through separate RF modules .

가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다. The subscriber identity module 224 may include, for example, a card containing a subscriber identity module and / or an embedded SIM and may include unique identification information (e.g., an integrated circuit card identifier (ICCID) Subscriber information (e.g., international mobile subscriber identity (IMSI)).

메모리(230)는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다. The memory 230 may include, for example, an internal memory 232 or an external memory 234. The built-in memory 232 may be implemented as, for example, a volatile memory (e.g., dynamic RAM, SRAM, or synchronous dynamic RAM), a non-volatile memory Programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (e.g., NAND flash or NOR flash) A hard drive, or a solid state drive (SSD).

외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 디바이스(100b)와 기능적으로 및/또는 물리적으로 연결될 수 있다.The external memory 234 may be a flash drive such as a compact flash (CF), a secure digital (SD), a micro secure digital (SD), a mini secure digital (SD) digital, a multi-media card (MMC), a memory stick, and the like. The external memory 234 may be functionally and / or physically connected to the device 100b via various interfaces.

센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 디바이스(100b)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈(240)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 예를 들어, 디바이스(100b)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.The sensor module 240 may, for example, measure a physical quantity or sense the operating state of the device 100b to convert the measured or sensed information into an electrical signal. The sensor module 240 includes a gesture sensor 240A, a gyro sensor 240B, an air pressure sensor 240C, a magnetic sensor 240D, an acceleration sensor 240E, a grip sensor 240F, A temperature sensor 240G, a UV sensor 240G, a color sensor 240H (e.g., an RGB (red, green, blue) sensor), a living body sensor 240I, And a sensor 240M. Additionally or alternatively, the sensor module 240 may include, for example, an E-nose sensor, an electromyography sensor, an electroencephalogram sensor, an electrocardiogram sensor, , An infrared (IR) sensor, an iris sensor, and / or a fingerprint sensor. The sensor module 240 may further include a control circuit for controlling at least one or more sensors belonging to the sensor module 240. For example, the device 100b may further include a processor configured to control the sensor module 240, either as part of the processor 210 or separately, so that while the processor 210 is in a sleep state, (240).

입력 장치(250)는, 예를 들면, 터치 패널(touch panel)(252), (디지털) 펜 센서(pen sensor)(254), 키(key)(256), 또는 초음파(ultrasonic) 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. The input device 250 may include a touch panel 252, a (digital) pen sensor 254, a key 256, or an ultrasonic input device 258). As the touch panel 252, for example, at least one of an electrostatic type, a pressure sensitive type, an infrared type, and an ultrasonic type can be used. Further, the touch panel 252 may further include a control circuit. The touch panel 252 may further include a tactile layer to provide a tactile response to the user.

(디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.(Digital) pen sensor 254 may be part of, for example, a touch panel or may include a separate recognition sheet. Key 256 may include, for example, a physical button, an optical key, or a keypad. The ultrasonic input device 258 can sense the ultrasonic wave generated by the input tool through the microphone (e.g., the microphone 288) and confirm the data corresponding to the ultrasonic wave detected.

디스플레이(260)(예: 표시부(164))는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 디바이스(100b)의 내부 또는 외부에 위치할 수 있다. 일 실시예에 따르면, 디스플레이(260)는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 제어하기 위한 제어 회로를 더 포함할 수 있다. The display 260 (e.g., display portion 164) may include a panel 262, a hologram device 264, or a projector 266. The panel 262 may be embodied, for example, flexible, transparent, or wearable. The panel 262 may be composed of one module with the touch panel 252. [ The hologram device 264 can display a stereoscopic image in the air using interference of light. The projector 266 can display an image by projecting light onto a screen. The screen may be located, for example, inside or outside the device 100b. According to one embodiment, the display 260 may further comprise control circuitry for controlling the panel 262, the hologram device 264, or the projector 266.

인터페이스(270)는, 예를 들면, HDMI(high-definition multimedia interface)(272), USB(universal serial bus)(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다. The interface 270 may be implemented using a variety of interfaces including, for example, a high-definition multimedia interface (HDMI) 272, a universal serial bus (USB) 274, an optical interface 276, or a D- ) ≪ / RTI > Additionally or alternatively, the interface 270 may be, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card / multi-media card (MMC) data association standard interface.

오디오 모듈(280)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. The audio module 280 can, for example, convert sound and electrical signals in both directions. The audio module 280 may process sound information input or output through, for example, a speaker 282, a receiver 284, an earphone 286, a microphone 288, or the like.

카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 일 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다. 카메라 모듈(291)이 복수의 렌즈들을 구비하는 경우, 각각의 렌즈는 서로 다른 화각을 갖는 렌즈들일 수도 있고, 동일한 화각을 갖는 렌즈들일 수도 있다.The camera module 291 is, for example, a device capable of capturing a still image and a moving image. According to an embodiment, the camera module 291 may include at least one image sensor (e.g., a front sensor or a rear sensor) , Or a flash (e.g., an LED or xenon lamp, etc.). When the camera module 291 includes a plurality of lenses, each lens may be a lens having a different angle of view or a lens having the same angle of view.

전력 관리 모듈(295)은, 예를 들면, 디바이스(100b)의 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다. The power management module 295 can, for example, manage the power of the device 100b. According to one embodiment, the power management module 295 may include a power management integrated circuit (PMIC), a charger integrated circuit (PWM), or a battery or fuel gauge. The PMIC may have a wired and / or wireless charging scheme. The wireless charging scheme may include, for example, a magnetic resonance scheme, a magnetic induction scheme, or an electromagnetic wave scheme, and may further include an additional circuit for wireless charging, for example, a coil loop, a resonant circuit, have. The battery gauge can measure, for example, the remaining amount of the battery 296, the voltage during charging, the current, or the temperature. The battery 296 may include, for example, a rechargeable battery and / or a solar battery.

인디케이터(297)는 디바이스(100b) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도 3에는 도시되지는 않았으나, 디바이스(100b)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다. Indicator 297 may indicate a particular state of device 100b or a portion thereof (e.g., processor 210), such as a boot state, a message state, or a state of charge. The motor 298 can convert electrical signals to mechanical vibration and can generate vibration, haptic effects, and the like. Although not shown in FIG. 3, the device 100b may include a processing unit (e.g., a GPU) for mobile TV support. The processing unit for supporting the mobile TV can process media data conforming to standards such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or media flow ( TM ).

본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 디바이스의 종류에 따라서 달라질 수 있다. 다양일 실시예에서, 디바이스는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양일 실시예에 따른 디바이스의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.Each of the components described in this document may be composed of one or more components, and the name of the component may be changed according to the type of the device. In various embodiments, the device may comprise at least one of the components described herein, and some components may be omitted or further include additional components. In addition, some of the components of the device according to various embodiments may be combined to form an entity, so that the functions of the corresponding components before being combined can be performed in the same manner.

도 1 내지 도 3을 참조하여 상술한 바와 같이, 디바이스(100, 100a, 100b)는 복수 개의 카메라들을 구비할 수 있다. 이하, 도 4a 내지 도 5b를 참조하여, 디바이스(100, 100a, 100b)가 복수 개의 카메라들을 포함하는 예를 설명한다.As described above with reference to Figs. 1 to 3, the devices 100, 100a, and 100b may include a plurality of cameras. Hereinafter, an example in which the device 100, 100a, 100b includes a plurality of cameras will be described with reference to Figs. 4A to 5B.

도 4a 내지 도 4b는 일 실시예에 따른 디바이스가 복수 개의 카메라들을 포함하는 일 예를 설명하기 위한 도면들이다.4A and 4B are views for explaining an example in which a device according to an embodiment includes a plurality of cameras.

도 4a에는 제 1 카메라(1010) 및 제 2 카메라(1020)를 포함하는 디바이스(1000)의 일 예가 도시되어 있다. 디바이스(1000)는 도 2 내지 도 3을 참조하여 상술한 디바이스들(100a, 100b) 중 어느 하나에 해당될 수 있다. 예를 들어, 디바이스(1000)는 카메라, 스마트 폰, 태블릿 PC 또는 웨어러블 디바이스 등이 해당될 수 있다.4A shows an example of a device 1000 including a first camera 1010 and a second camera 1020. In FIG. The device 1000 may correspond to any one of the devices 100a and 100b described above with reference to FIGS. For example, the device 1000 may be a camera, a smart phone, a tablet PC, or a wearable device.

제 1 카메라(1010) 및 제 2 카메라(1020)는 각각 피사체를 나타내는 영상을 생성한다. 예를 들어, 제 1 카메라(1010)는 흑백 영상을 생성하는 카메라이고, 제 2 카메라(1020)는 컬러 영상을 생성하는 카메라일 수 있다.The first camera 1010 and the second camera 1020 respectively generate an image representing a subject. For example, the first camera 1010 may be a camera that generates a monochrome image, and the second camera 1020 may be a camera that generates a color image.

제 1 카메라(1010)와 제 2 카메라(1020)는 피사체를 나타내는 유사한 영상을 생성하기 위하여 디바이스(1000)의 동일한 면에 배치될 수 있다. 다시 말해, 제 1 카메라(1010)와 제 2 카메라(1020)는 디바이스(1000) 상에서 동일한 방향을 향하도록 배치될 수 있다. 또한, 제 1 카메라(1010) 및 제 2 카메라(1020)가 디바이스(1000)에서 인접한 위치에 배치될 수 있고, 이에 따라 제 1 카메라(1010)가 생성한 영상과 제 2 카메라(1020)가 생성한 영상은 동일한 피사체를 나타낼 수 있다.The first camera 1010 and the second camera 1020 may be disposed on the same side of the device 1000 to produce a similar image representing the subject. In other words, the first camera 1010 and the second camera 1020 may be arranged to face the same direction on the device 1000. [ In addition, the first camera 1010 and the second camera 1020 can be disposed at adjacent positions in the device 1000, and thus the image generated by the first camera 1010 and the image generated by the second camera 1020 One image can represent the same subject.

디바이스(1000)에는 제 1 카메라(1010) 및 제 2 카메라(1020)의 사양뿐 만 아니라 제 1 카메라(1010)와 제 2 카메라(1020) 사이의 위치 관계가 미리 저장되어 있을 수 있다. 다시 말해, 디바이스(1000)에는 제 1 카메라(1010)와 제 2 카메라(1020) 사이의 상대적인 위치, 카메라들(1010, 1020) 각각에 포함된 렌즈의 초점 거리, 카메라들(1010, 1020) 각각에 포함된 영상 센서의 크기 등에 대한 정보가 미리 저장되어 있을 수 있다. 또한, 제 1 카메라(1010)와 제 2 카메라(1020)는 서로간에 수평 축 또는 수직 축이 동일하도록 배치될 수 있다.The device 1000 may have previously stored the positional relationship between the first camera 1010 and the second camera 1020 in addition to the specifications of the first camera 1010 and the second camera 1020. In other words, the device 1000 is provided with a relative position between the first camera 1010 and the second camera 1020, a focal length of the lens included in each of the cameras 1010 and 1020, The size of the image sensor included in the image sensor may be stored in advance. In addition, the first camera 1010 and the second camera 1020 may be arranged such that the horizontal axis or the vertical axis is the same.

도 4b에는 카메라(1030)에 포함된 구성들의 예가 도시되어 있다. 도 4b에 도시된 카메라(1030)는 도 4a의 제 1 카메라(1010) 또는 제 2 카메라(1020)에 해당될 수 있다. 한편, 도 4b에는 카메라(1030)에 포함되는 주요 구성들에 대해서만 도시되어 있다. 따라서, 카메라(1030)에는 영상을 생성하는데 필요한 다른 구성들이 더 포함될 수 있음은 당해 기술분야에서의 통상의 지식을 가진 자라면 이해할 수 있다.FIG. 4B shows an example of the configurations included in the camera 1030. FIG. The camera 1030 shown in FIG. 4B may correspond to the first camera 1010 or the second camera 1020 in FIG. 4A. Meanwhile, only the main components included in the camera 1030 are shown in FIG. 4B. Accordingly, it is understood by those skilled in the art that the camera 1030 may further include other configurations necessary for generating an image.

카메라(1030)는 기판(1035) 상에 영상 센서(1034)가 적층되고, 영상 센서(1034) 상에 광학 필터(1033)가 위치할 수 있다. 예를 들어, 영상 센서(1034)는 CMOS(Complementary Metal-Oxide Semiconductor) 또는 CCD(Charge Coupled Device)를 포함할 수 있다. 그리고, 광학 필터(1033) 상에 렌즈(1031)가 위치하고, 영상 센서(1034) 및 렌즈(1031)의 위치는 커버(1032)에 의하여 고정될 수 있다.The camera 1030 may be stacked with the image sensor 1034 on the substrate 1035 and the optical filter 1033 may be located on the image sensor 1034. [ For example, the image sensor 1034 may include a complementary metal-oxide semiconductor (CMOS) or a charge coupled device (CCD). The lens 1031 is positioned on the optical filter 1033 and the positions of the image sensor 1034 and the lens 1031 can be fixed by the cover 1032. [

일반적으로, 카메라(1030)의 두께(T)는 상술된 구성들(1031, 1032, 1033, 1034, 1035)의 두께 및 위치에 따라 결정된다. 특히, 렌즈(1031) 및 영상 센서(1034)의 크기 및 두께에 따라 카메라(1030)의 두께(T)가 결정된다. 따라서, 디바이스(1000)의 두께가 얇아지기 위해서는 렌즈(1031) 및 영상 센서(1034)의 크기가 작아지고 두께도 얇아져야 한다. 그러나, 렌즈(1031) 및 영상 센서(1034)의 크기가 작아지고 두께도 얇아질수록, 카메라(1030)에 의하여 생성된 영상의 품질도 낮아진다. Generally, the thickness T of the camera 1030 is determined by the thickness and position of the configurations 1031, 1032, 1033, 1034, and 1035 described above. In particular, the thickness T of the camera 1030 is determined according to the size and thickness of the lens 1031 and the image sensor 1034. Therefore, in order to reduce the thickness of the device 1000, the size of the lens 1031 and the image sensor 1034 must be reduced and the thickness thereof must be reduced. However, the smaller the size of the lens 1031 and the image sensor 1034 and the thinner the thickness, the lower the quality of the image generated by the camera 1030. [

디바이스(1000)는 제 1 카메라(1010)가 피사체를 생성한 제 1 영상과 제 2 카메라(1020)가 피사체를 생성한 제 2 영상을 이용하여 피사체를 나타내는 새로운 영상을 생성한다. 이때, 새롭게 생성된 영상은 제 1 영상 및 제 2 영상에 비하여 높은 품질을 갖는 영상일 수 있다. 따라서, 디바이스(1000)에 포함된 렌즈(1031) 및 영상 센서(1034)의 크기가 작고 두께도 얇다고 하더라도, 디바이스(1000)는 고품질의 영상을 생성하여 디스플레이할 수 있다.The device 1000 generates a new image representing a subject using the first image generated by the first camera 1010 and the second image generated by the second camera 1020. [ At this time, the newly generated image may be a higher quality image than the first image and the second image. Therefore, even if the lens 1031 and the image sensor 1034 included in the device 1000 are small in size and thin in thickness, the device 1000 can generate and display a high-quality image.

한편, 카메라(1030)는 라이트 필드(light field) 카메라일 수 있다. 라이트 필드 카메라는 영상 센서(1034)에 포함된 복수의 마이크로 렌즈(microlens)들 각각에 복수의 포토 다이오드들이 연결된 카메라를 의미한다. 일반적으로, 카메라(1030)에 포함된 영상 센서(1034)는 복수의 마이크로 렌즈들을 포함하고, 각각의 마이크로 렌즈에는 하나의 포토 다이오드가 연결된다. 그러나, 라이트 필드 카메라의 경우 하나의 마이크로 렌즈에 복수의 포토 다이오드들이 연결되는바, 피사체를 촬영한 복수의 영상들이 생성되며, 각각의 영상의 시점이 각기 다를 수 있다.Meanwhile, the camera 1030 may be a light field camera. The light field camera refers to a camera to which a plurality of photodiodes are connected to each of a plurality of microlenses included in the image sensor 1034. Generally, the image sensor 1034 included in the camera 1030 includes a plurality of microlenses, and one photodiode is connected to each microlens. However, in the case of a light field camera, a plurality of photodiodes are connected to one microlens, so that a plurality of images of a subject are generated, and the viewpoints of the respective images may be different.

한편, 제 1 카메라(1010)가 흑백 영상을 생성하는 카메라라고 가정하면, 제 1 카메라(1010)에 포함된 영상 센서는 흑백 영상 센서일 수 있다. 또한, 제 2 카메라(1020)가 컬러 영상을 생성하는 카메라라고 가정하면, 제 2 카메라(1020)에 포함된 영상 센서는 컬러 영상 센서일 수 있다. 이때, 제 1 카메라(1010)에 포함된 영상 센서는 제 2 카메라(1020)에 포함된 영상 센서보다 더 높은 화소 수를 갖는 센서일 수 있다. 이 경우, 제 1 카메라(1010)에 의하여 촬영된 흑백 영상은 제 2 카메라(1020)에 의하여 촬영된 컬러 영상보다 많은 수의 픽셀들을 포함할 수 있다. 한편, 제 1 카메라(1010)에 포함된 영상 센서와 제 2 카메라(1020)에 포함된 영상 센서가 동일한 수의 화소들을 갖을 수도 있다. 이 경우, 제 1 카메라(1010)에 의하여 촬영된 흑백 영상과 제 2 카메라(1020)에 의하여 촬영된 컬러 영상은 동일한 수의 픽셀들을 포함할 수 있다. 이하, 도 5a 내지 도 5b를 참조하여, 제 1 카메라(1010) 및 제 2 카메라(1020)에 포함된 영상 센서의 예를 설명한다.On the other hand, assuming that the first camera 1010 generates a monochrome image, the image sensor included in the first camera 1010 may be a monochrome image sensor. Also, assuming that the second camera 1020 is a camera that generates a color image, the image sensor included in the second camera 1020 may be a color image sensor. In this case, the image sensor included in the first camera 1010 may be a sensor having a higher pixel count than the image sensor included in the second camera 1020. In this case, the monochrome image photographed by the first camera 1010 may include a larger number of pixels than the color image photographed by the second camera 1020. [ Meanwhile, the image sensor included in the first camera 1010 and the image sensor included in the second camera 1020 may have the same number of pixels. In this case, the monochrome image photographed by the first camera 1010 and the color image photographed by the second camera 1020 may include the same number of pixels. Hereinafter, an example of the image sensor included in the first camera 1010 and the second camera 1020 will be described with reference to FIGS. 5A to 5B. FIG.

도 5a 내지 도 5b는 일 실시예에 따른 카메라들에 포함된 영상 센서의 일 예를 설명하기 위한 도면들이다.5A and 5B are views for explaining an example of an image sensor included in cameras according to an embodiment.

도 5a에는 흑백 영상 센서(1110)의 일 예가 도시되어 있고, 도 5b에는 컬러 영상 센서(1120)의 일 예가 도시되어 있다. 흑백 영상 센서(1110)에 포함된 픽셀(1111)은 입사된 빛의 크기에 기초한 흰색의 명도가 결정되는데 이용된다. 한편, 컬러 영상 센서(1120)에 포함된 픽셀(1121)은 R(red), G(green) 또는 B(blue) 중 어느 하나의 컬러를 나타내도록 미리 결정될 수 있다. 따라서, 픽셀(1121)은 입사된 빛의 크기에 기초한 미리 결정된 컬러(예를 들어, 녹색)의 명도가 결정되는데 결정하는데 이용된다.FIG. 5A shows an example of a monochrome image sensor 1110, and FIG. 5B shows an example of a color image sensor 1120. FIG. The pixel 1111 included in the monochrome image sensor 1110 is used to determine the brightness of white based on the magnitude of the incident light. On the other hand, the pixel 1121 included in the color image sensor 1120 can be predetermined to represent any color of R (red), G (green), or B (blue). Thus, the pixel 1121 is used to determine that the brightness of a predetermined color (e.g., green) based on the magnitude of the incident light is determined.

이하, 도 6 내지 도 11을 참조하여, 디바이스(1000)가 제 1 카메라(1010)를 통하여 생성된 제 1 영상 및 제 2 카메라(1020)를 통하여 생성된 제 2 영상을 이용하여 새로운 영상을 생성하는 예를 구체적으로 설명한다.6 to 11, the device 1000 generates a new image using the first image generated through the first camera 1010 and the second image generated through the second camera 1020, The following description will be given.

도 6은 일 실시예에 따른 프로세서의 일 예를 도시한 구성도이다.6 is a block diagram illustrating an example of a processor according to an embodiment.

도 6을 참조하면, 프로세서(1200)는 제 1 전자 회로(1210), 제 2 전자 회로(1220) 및 제 3 전자 회로(1230)을 포함한다. 프로세서(1200)는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.Referring to FIG. 6, the processor 1200 includes a first electronic circuit 1210, a second electronic circuit 1220, and a third electronic circuit 1230. The processor 1200 may be implemented as an array of a plurality of logic gates, or may be implemented as a combination of a general purpose microprocessor and a memory in which a program executable in the microprocessor is stored. It will be appreciated by those skilled in the art that the present invention may be implemented in other forms of hardware.

또한, 도 6에서는, 설명의 편의를 위하여, 프로세서(1200)가 복수의 전자 회로들(1210, 1220, 1230)로 구분되는 것으로 도시되어 있으나, 단일 전자 회로가 후술될 전자 회로들(1210, 1220, 1230)의 기능을 수행할 수도 있다.6, the processor 1200 is shown as being divided into a plurality of electronic circuits 1210, 1220, and 1230, but a single electronic circuit may be included in the electronic circuits 1210 and 1220 , 1230).

제 1 전자 회로(1210)는 제 1 컬러 영상을 이용하여 제 2 흑백 영상을 생성한다. 제 1 컬러 영상은 디바이스(1000)에 포함된 카메라(1010, 1020)에 의하여 생성된 컬러 영상을 의미한다. 예를 들어, 디바이스(1000)에 포함된 제 2 카메라(1020)가 컬러 영상을 촬영하는 카메라라고 가정하면, 제 1 컬러 영상은 제 2 카메라(1020)에 의하여 촬영된 영상을 의미한다. 제 2 흑백 영상은 카메라(1010, 1020)에 의하여 촬영된 영상이 아닌, 제 1 전자 회로(1210)가 제 1 컬러 영상을 이용하여 생성한 영상을 의미한다. 예를 들어, 디바이스(1000)에 포함된 제 1 카메라(1010)가 흑백 영상을 촬영하는 카메라라고 가정하면, 제 1 흑백 영상은 제 1 카메라(1010)에 의하여 촬영된 영상이고, 제 2 흑백 영상은 제 2 카메라(1020)에 의하여 촬영된 영상에 기초하여 새롭게 생성된 영상을 의미한다.The first electronic circuit 1210 generates a second monochrome image using the first color image. The first color image refers to a color image generated by the cameras 1010 and 1020 included in the device 1000. For example, assuming that the second camera 1020 included in the device 1000 is a camera for capturing a color image, the first color image refers to an image captured by the second camera 1020. The second monochrome image is not an image captured by the cameras 1010 and 1020 but an image generated by the first electronic circuit 1210 using the first color image. For example, assuming that the first camera 1010 included in the device 1000 is a camera that captures a monochrome image, the first monochrome image is an image photographed by the first camera 1010, and the second monochrome image Means an image newly generated based on the image photographed by the second camera 1020.

제 1 전자 회로(1210)에 의하여 생성된 제 2 흑백 영상은 제 1 컬러 영상과 같은 수의 픽셀들을 갖을 수도 있고, 제 1 흑백 영상과 같은 수의 픽셀들을 가질 수도 있다. 제 1 전자 회로(1210)는 제 1 컬러 영상에 포함된 특정 픽셀의 컬러 값을 이용하여 제 2 흑백 영상을 생성할 수도 있고, 제 1 컬러 영상에 포함된 특정 픽셀 및 그와 인접한 픽셀들의 컬러 값을 이용하여 제 2 흑백 영상을 생성할 수도 있다. 여기에서, 픽셀의 컬러 값은 픽셀의 채도(chroma)에 대응하는 값을 의미한다. 이하, 도 7을 참조하여, 제 1 전자 회로(1210)가 제 2 흑백 영상을 생성하는 예를 설명한다.The second monochrome image generated by the first electronic circuit 1210 may have the same number of pixels as the first color image and may have the same number of pixels as the first monochrome image. The first electronic circuit 1210 may generate a second monochrome image using a color value of a specific pixel included in the first color image, and may generate a color value of a specific pixel included in the first color image and adjacent pixels May be used to generate the second monochrome image. Here, the color value of the pixel means a value corresponding to the chroma of the pixel. Hereinafter, an example in which the first electronic circuit 1210 generates the second monochrome image will be described with reference to Fig.

도 7은 일 실시예에 따른 제 1 전자 회로가 제 2 흑백 영상을 생성하는 일 예를 설명하기 위한 도면이다.7 is a diagram for explaining an example in which a first electronic circuit according to an embodiment generates a second monochrome image.

도 7을 참조하면, 제 1 전자 회로(1210)는 제 1 컬러 영상(1310)에 포함된 픽셀(1311)의 픽셀 값을 이용하여 제 2 흑백 영상(1320)에 포함된 픽셀(1321)의 픽셀 값을 연산할 수 있다. 여기에서, 픽셀(1311)의 픽셀 값은 픽셀(1311)의 컬러 값을 의미한다. 또한, 픽셀(1321)은 제 2 흑백 영상(1320)에 포함된 픽셀들 중에서 제 1 컬러 영상(1310)의 픽셀(1311)에 대응하는 픽셀을 의미한다. 예를 들어, 픽셀(1321)은 픽셀(1311)에 나타난 피사체의 부분과 동일한 부분을 나타내는 픽셀일 수 있다.7, the first electronic circuit 1210 converts the pixel value of the pixel 1321 included in the second monochrome image 1320 to the pixel value of the pixel 1321 included in the second monochrome image 1320 using the pixel value of the pixel 1311 included in the first color image 1310. [ Value can be calculated. Here, the pixel value of the pixel 1311 means the color value of the pixel 1311. [ In addition, the pixel 1321 refers to a pixel corresponding to the pixel 1311 of the first color image 1310 among the pixels included in the second monochrome image 1320. For example, the pixel 1321 may be a pixel representing the same portion as the portion of the subject shown in the pixel 1311. [

제 1 전자 회로(1210)는, 픽셀(1311)의 컬러 값을 이용하여, 픽셀(1311)의 컬러에 대한 정보와 명도 값을 획득한다. 예를 들어, 제 1 전자 회로(1210)는 픽셀(1311)의 컬러가 빨간 색이고, 명도 값이 얼마인지를 획득할 수 있다. 제 1 전자 회로(1210)는 픽셀(1311)의 명도 값을 이용하여 픽셀(1321)의 픽셀 값을 결정한다. 예를 들어, 제 1 전자 회로(1210)는 픽셀(1311)의 명도와 동일한 정도를 픽셀(1321)의 픽셀 값으로 결정할 수 있다.The first electronic circuit 1210 uses the color value of the pixel 1311 to obtain information on the color of the pixel 1311 and the brightness value. For example, the first electronic circuit 1210 can obtain the color of the pixel 1311 and the brightness value. The first electronic circuit 1210 uses the brightness value of the pixel 1311 to determine the pixel value of the pixel 1321. [ For example, the first electronic circuit 1210 may determine the pixel value of the pixel 1321 to the same degree as the brightness of the pixel 1311.

한편, 제 1 전자 회로(1210)는 픽셀(1311)의 픽셀 값 뿐 만 아니라, 픽셀(1311)과 인접한 픽셀들(1312) 각각의 픽셀 값을 더 고려하여 픽셀(1321)의 픽셀 값을 연산할 수 있다. 이때, 제 1 전자 회로(1210)는 픽셀들(1312) 각각과 픽셀(1311) 사이의 거리에 따라 소정의 가중치를 적용하여 픽셀(1321)의 픽셀 값을 연산할 수 있다. 예를 들어, 제 1 전자 회로(1210)는 픽셀(1311)로부터의 거리가 멀어질수록 가중치를 작게 적용하여 픽셀(1321)의 픽셀 값을 연산할 수 있다.On the other hand, the first electronic circuit 1210 calculates the pixel value of the pixel 1321 by taking into consideration not only the pixel value of the pixel 1311 but also the pixel value of each of the pixels 1312 adjacent to the pixel 1311 . The first electronic circuit 1210 may calculate a pixel value of the pixel 1321 by applying a predetermined weight according to the distance between each of the pixels 1312 and the pixel 1311. For example, the first electronic circuit 1210 may calculate the pixel value of the pixel 1321 by applying a smaller weight to the pixel 1321 as the distance from the pixel 1311 increases.

도 7에는 픽셀(1311)과 인접한 픽셀들(1321)이 8개 인 것으로 도시하였으나, 이에 한정되지 않는다. 다시 말해, 픽셀(1321)의 픽셀 값을 연산하는데 이용되는 인접한 픽셀들(1321)은 픽셀(1311)과 맞닿은 8개의 픽셀들 뿐 만 아니라 더 많은 픽셀들이 해당될 수도 있다. 또한, 픽셀(1321)의 픽셀 값을 연산하는데 이용되는 인접한 픽셀들(1321)은 픽셀(1311)과 맞닿은 8개의 픽셀들 중 일부가 해당될 수도 있다.Although FIG. 7 shows eight pixels 1321 adjacent to the pixel 1311, the present invention is not limited thereto. In other words, the adjacent pixels 1321 used to compute the pixel value of the pixel 1321 may correspond not only to the eight pixels that are in contact with the pixel 1311, but also to more pixels. In addition, adjacent pixels 1321 used to calculate the pixel value of the pixel 1321 may correspond to some of the eight pixels that are in contact with the pixel 1311.

다시 도 6을 참조하면, 제 2 전자 회로(1220)는 제 1 흑백 영상에 포함된 픽셀들과 제 2 흑백 영상에 포함된 픽셀들 사이의 위치 관계를 나타내는 정보를 획득한다. 예를 들어, 제 2 전자 회로(1220)는 제 2 흑백 영상에 포함된 각 픽셀과 대응하는 제 1 흑백 영상의 픽셀을 식별할 수 있다. 이하, 도 8을 참조하여, 제 2 전자 회로(1220)가 동작하는 예를 설명한다.Referring again to FIG. 6, the second electronic circuit 1220 obtains information indicating a positional relationship between the pixels included in the first monochrome image and the pixels included in the second monochrome image. For example, the second electronic circuit 1220 may identify a pixel of the first monochrome image corresponding to each pixel included in the second monochrome image. Hereinafter, an example in which the second electronic circuit 1220 operates will be described with reference to FIG.

도 8은 일 실시예에 따른 제 2 전자 회로가 동작하는 일 예를 설명하기 위한 도면이다.8 is a diagram for explaining an example in which a second electronic circuit according to an embodiment operates.

도 8을 참조하면, 제 2 전자 회로(1220)는 제 1 흑백 영상(1410)에 포함된 픽셀들과 제 2 흑백 영상(1420)에 포함된 픽셀들 사이의 위치 관계를 나타내는 정보를 획득한다. 다시 말해, 제 2 전자 회로(1220)는 제 1 흑백 영상(1410)에 포함된 픽셀(1411)과 대응하는 픽셀(1421)을 제 2 흑백 영상(1420)에서 식별한다.Referring to FIG. 8, the second electronic circuit 1220 obtains information indicating the positional relationship between the pixels included in the first black and white image 1410 and the pixels included in the second black and white image 1420. In other words, the second electronic circuit 1220 identifies the pixel 1421 included in the first monochrome image 1410 and the corresponding pixel 1421 in the second monochrome image 1420.

일 예로서, 제 2 전자 회로(1220)는 제 1 카메라(1010)의 사양, 제 2 카메라(1020)의 사양 및 제 1 카메라(1010)와 제 2 카메라(1020) 사이의 위치 관계를 이용하여 제 2 흑백 영상(1420)에서 픽셀(1421)을 식별할 수 있다. 구체적으로, 제 2 전자 회로(1220)는 제 1 카메라(1010)와 제 2 카메라(120) 사이의 거리, 제 1 카메라(1010)의 렌즈의 초점 거리, 제 2 카메라(1020)의 렌즈의 초점 거리, 제 1 카메라(1010)의 영상 센서의 크기, 제 2 카메라(1020)의 영상 센서의 크기 등을 고려하여, 제 1 흑백 영상(1410)에서 픽셀(1411)이 나타내는 정보와 동일한 정보를 나타내는 픽셀(1421)을 제 2 흑백 영상(1420)에서 식별할 수 있다.As an example, the second electronic circuit 1220 may use the specifications of the first camera 1010, the specifications of the second camera 1020, and the positional relationship between the first camera 1010 and the second camera 1020 It is possible to identify the pixel 1421 in the second monochrome image 1420. Specifically, the second electronic circuit 1220 includes a distance between the first camera 1010 and the second camera 120, a focal length of the lens of the first camera 1010, a focus of the lens of the second camera 1020, The same information as the information represented by the pixel 1411 in the first black and white image 1410 is displayed in consideration of the distance, the size of the image sensor of the first camera 1010, the size of the image sensor of the second camera 1020, Pixels 1421 may be identified in the second monochrome image 1420.

다른 예로서, 제 2 전자 회로(1220)는 제 1 흑백 영상(1410)에 포함된 픽셀들의 픽셀 값과 제 2 흑백 영상(1420)에 포함된 픽셀들의 픽셀 값의 상관 관계(correlation)에 기초하여 제 2 흑백 영상(1420)에서 픽셀(1421)을 식별할 수 있다. 구체적으로, 제 2 전자 회로(1220)는 픽셀(1411)의 픽셀 값과 제 2 흑백 영상(1420)에 포함된 픽셀들 각각의 픽셀 값의 상관 관계를 연산할 수 있다. 그리고, 제 2 전자 회로(1220)는 제 2 흑백 영상(1420)에 포함된 픽셀들 중에서 가장 높은 상관 관계를 갖는 픽셀(1421)을 식별할 수 있다.As another example, the second electronic circuit 1220 may generate a second black image 1420 based on a correlation between pixel values of pixels included in the first monochrome image 1410 and pixel values of pixels included in the second monochrome image 1420 It is possible to identify the pixel 1421 in the second monochrome image 1420. Specifically, the second electronic circuit 1220 can calculate the correlation between the pixel value of the pixel 1411 and the pixel value of each of the pixels included in the second monochrome image 1420. Then, the second electronic circuit 1220 can identify the pixel 1421 having the highest correlation among the pixels included in the second monochrome image 1420.

또 다른 예로서, 제 2 전자 회로(1220)는 제 1 흑백 영상(1410) 및 제 2 흑백 영상(1420)에서 특징점들을 추출하고, 특징점들의 매칭 결과를 이용하여 픽셀(1421)을 식별할 수 있다. 영상들에서 특징점을 추출하고, 특징점들을 매칭함으로써 영상들의 대응 관계를 확인하는 기술은 당해 기술분야에서 통상의 지식을 가진 자라면 쉽게 이해할 수 있다.As another example, the second electronic circuit 1220 may extract the feature points from the first black and white image 1410 and the second black and white image 1420, and may use the matching results of the feature points to identify the pixel 1421 . A technique of extracting a feature point from images and matching the corresponding points by matching the feature points can be easily understood by a person skilled in the art.

한편, 제 2 전자 회로(1220)는 상술한 예들 중 2 이상을 조합하여 픽셀(1411)에 대응하는 픽셀(1421)을 식별할 수도 있다. 예를 들어, 제 2 전자 회로(1220)는 제 1 카메라(1010)의 사양, 제 2 카메라(1020)의 사양 및 제 1 카메라(1010)와 제 2 카메라(1020) 사이의 위치 관계를 이용하여 제 2 흑백 영상(1420)에서 후보 영역(1422)을 선정하고, 후보 영역(1422)에 포함된 픽셀들 각각의 픽셀 값과 픽셀(1411)의 픽셀 값 사이의 상관 관계를 연산함으로써 픽셀(1421)을 식별할 수도 있다.Alternatively, the second electronic circuit 1220 may identify pixels 1421 corresponding to pixels 1411 by combining two or more of the above examples. For example, the second electronic circuit 1220 may use the specifications of the first camera 1010, the specifications of the second camera 1020, and the positional relationship between the first camera 1010 and the second camera 1020 By selecting the candidate region 1422 in the second black and white image 1420 and calculating the correlation between the pixel value of each of the pixels included in the candidate region 1422 and the pixel value of the pixel 1411, . ≪ / RTI >

다시 도 6을 참조하면, 제 3 전자 회로(1230)는 제 1 흑백 영상, 제 2 흑백 영상 및 제 2 전자 회로(1220)가 획득한 정보에 기초하여 제 3 흑백 영상을 생성한다. 이때, 제 3 흑백 영상은 제 1 흑백 영상과 동일한 픽셀 수를 갖거나, 또는 제 1 흑백 영상보다 많은 픽셀 수를 가질 수 있다.Referring again to FIG. 6, the third electronic circuit 1230 generates a third monochrome image based on the first monochrome image, the second monochrome image, and the information obtained by the second electronic circuit 1220. At this time, the third monochrome image may have the same number of pixels as the first monochrome image, or may have more pixels than the first monochrome image.

예를 들어, 제 3 전자 회로(1230)는 제 2 전자 회로(1220)가 획득한 정보를 이용하여 제 1 흑백 영상에 포함된 픽셀(이하, '제 1 픽셀'이라고 함)과 대응하는 픽셀(이하, '제 2 픽셀'이라고 함)을 제 2 흑백 영상에서 검색한다. 그리고, 제 3 전자 회로(1230)는 제 1 픽셀의 픽셀 값 및 제 2 픽셀의 픽셀 값을 이용하여 제 3 흑백 영상에 포함된 픽셀(이하, '제 3 픽셀'이라고 함)의 픽셀 값을 연산한다. For example, the third electronic circuit 1230 may use the information obtained by the second electronic circuit 1220 to generate a pixel (hereinafter, referred to as a 'first pixel') included in the first monochrome image Quot; second pixel ") is searched from the second monochrome image. The third electronic circuit 1230 calculates a pixel value of a pixel included in the third monochrome image (hereinafter, referred to as a 'third pixel') using the pixel value of the first pixel and the pixel value of the second pixel do.

또한, 제 3 전자 회로(1230)는 제 1 픽셀의 픽셀 값 및 제 2 픽셀의 픽셀 값 뿐 만 아니라 제 1 픽셀과 인접한 픽셀들의 픽셀 값 및 제 2 픽셀과 인접한 픽셀들의 픽셀 값을 더 고려하여 제 3 픽셀의 픽셀 값을 연산할 수 있다. 예를 들어, 제 3 전자 회로(1230)는 제 1 픽셀의 픽셀 값, 제 2 픽셀의 픽셀 값, 제 1 픽셀 및 제 2 픽셀과 인접한 픽셀들의 픽셀 값에 소정의 가중치를 적용하여 제 3 픽셀의 픽셀 값을 연산할 수 있다.In addition, the third electronic circuit 1230 may further include not only the pixel value of the first pixel and the pixel value of the second pixel but also the pixel value of the pixels adjacent to the first pixel and the pixel value of the pixels adjacent to the second pixel, The pixel value of 3 pixels can be calculated. For example, the third electronic circuit 1230 applies a predetermined weight to the pixel values of the first pixel, the pixel values of the second pixel, and the pixel values of the pixels adjacent to the first pixel and the second pixel, The pixel value can be calculated.

제 1 흑백 영상과 제 2 흑백 영상은 평균 명도(brightness), 콘트라스트(contrast), 블러(blur)의 정도, 노이즈(noise)의 정도 등에서 차이가 있을 수 있다. The first and second monochrome images may differ in terms of average brightness, contrast, blur, and degree of noise.

일 예로서, 제 1 흑백 영상과 제 2 흑백 영상이 노이즈(noise)의 정도에서만 차이가 있는 경우, 제 3 전자 회로(1230)는 수학식 1에 따라 제 5 픽셀이 포함된 패치(pi)를 연산할 수 있다.If the first and second monochrome images differ only in the degree of noise, the third electronic circuit 1230 may calculate a patch pi containing the fifth pixel according to Equation (1) .

Figure pat00001
Figure pat00001

수학식 1에서, pi'는 제 1 픽셀 및 제 1 픽셀과 인접한 픽셀들이 조합된 패치를 의미하고, pi''는 제 2 픽셀 및 제 2 픽셀과 인접한 픽셀들이 조합된 패치를 의미한다. 제 1 흑백 영상과 제 2 흑백 영상의 픽셀들의 수가 서로 다르거나, 제 3 흑백 영상의 픽셀들의 수가 제 1 흑백 영상 또는 제 2 흑백 영상의 픽셀들의 수와 다른 경우, 패치 pi' 및 패치 pi''는 픽셀 값들에 보간법을 적용하여 정의될 수 있다.In Equation 1, pi 'denotes a patch in which pixels adjacent to the first pixel and the first pixel are combined, and pi' 'denotes a patch in which pixels adjacent to the second pixel and the second pixel are combined. If the number of pixels of the first monochrome image and the second monochrome image is different from each other or the number of pixels of the third monochrome image is different from the number of pixels of the first monochrome image or the second monochrome image, May be defined by applying interpolation to pixel values.

또한, w1는 제 1 영상(또는 패치 pi')의 노이즈에 따라 결정된 가중치를 의미하고, w2는 제 2 영상(또는 패치 pi'')의 노이즈에 따라 결정된 가중치를 의미한다. 또한, w1 와 w2 간에는 w1 + w2 = 1의 관계가 성립된다. 만약, 제 1 카메라(1010) 및 제 2 카메라(1020)와 피사체 사이의 시차에 의하여 패치 pi'와 패치 pi''가 일치하지 않는 경우, 제 3 전자 회로(1230)는 w1에 0 또는 0에 가까운 값을 적용한다. 따라서, pi가 연산됨에 있어서, pi'의 비중이 없어지거나 또는 pi''에 비하여 비중이 작아질 수 있다.In addition, w1 denotes a weight determined according to noise of the first image (or patch pi '), and w2 denotes a weight determined according to noise of the second image (or patch pi' '). Further, a relationship of w1 + w2 = 1 is established between w1 and w2. If the patch pi 'and the patch pi' 'do not match due to the parallax between the first camera 1010 and the second camera 1020 and the subject, the third electronic circuit 1230 sets w1 to 0 or 0 Apply close values. Therefore, when pi is computed, the specific gravity of pi 'may be lost or its specific gravity may be smaller than pi' '.

다른 예로서, 제 1 흑백 영상과 제 2 흑백 영상이 노이즈(noise)의 정도 뿐 만 아니라 평균 명도(brightness) 및 콘트라스트(contrast)에도 차이가 있는 경우, 제 3 전자 회로(1230)는 수학식 2에 따라 제 5 픽셀이 포함된 패치(pi)를 연산할 수 있다.As another example, when the first and second monochrome images and the second monochrome image differ in not only the degree of noise but also the average brightness and contrast, the third electronic circuit 1230 may calculate the following equation (2) The pixel pi can be computed according to the following equation.

Figure pat00002
Figure pat00002

수학식 2에서, ai 및 bi는 패치 pi''의 평균 명도와 콘트라스트를 패치 pi'와 동일하게 하기 위하여 정의되는 변수로서, 스칼라(scalar) 값이 될 수 있다. 예를 들어, 제 3 전자 회로(1230)는 ai 및 bi를 아래의 수학식 3 및 수학식 4에 의하여 연산할 수 있다.In equation (2), ai and bi may be scalar values, which are variables defined to make the average brightness and contrast of patch pi " equal to patch pi '. For example, the third electronic circuit 1230 may calculate ai and bi according to the following equations (3) and (4).

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

수학식 3 및 4에서,

Figure pat00005
는 패치 pi'에 포함된 픽셀들의 픽셀 값들의 평균을 의미하고,
Figure pat00006
는 패치 pi'에 포함된 픽셀들의 픽셀 값들의 표준 편차를 의미한다. 또한,
Figure pat00007
는 패치 pi''에 포함된 픽셀들의 픽셀 값들의 평균을 의미하고,
Figure pat00008
는 패치 pi''에 포함된 픽셀들의 픽셀 값들의 표준 편차를 의미한다.In Equations (3) and (4)
Figure pat00005
Means an average of pixel values of pixels included in patch pi '
Figure pat00006
Denotes the standard deviation of the pixel values of the pixels included in the patch pi '. Also,
Figure pat00007
Quot; means an average of pixel values of pixels included in the patch pi ", and "
Figure pat00008
Denotes the standard deviation of the pixel values of the pixels included in the patch pi ".

상술한 바에 따르면, 제 3 전자 회로(1230)는 제 1 흑백 영상보다 고품질인 제 3 흑백 영상을 생성할 수 있다.According to the above description, the third electronic circuit 1230 can generate a third monochrome image of higher quality than the first monochrome image.

도 9는 일 실시예에 따른 프로세서의 다른 예를 도시한 구성도이다.9 is a configuration diagram showing another example of a processor according to an embodiment.

도 9를 참조하면, 프로세서(1201)는 제 1 전자 회로(1210), 제 2 전자 회로(1220), 제 3 전자 회로(1230) 및 제 4 전자 회로(1240)를 포함한다. 프로세서(1201)는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.9, the processor 1201 includes a first electronic circuit 1210, a second electronic circuit 1220, a third electronic circuit 1230, and a fourth electronic circuit 1240. The processor 1201 may be implemented as an array of a plurality of logic gates, or may be implemented as a combination of a general purpose microprocessor and a memory in which a program executable in the microprocessor is stored. It will be appreciated by those skilled in the art that the present invention may be implemented in other forms of hardware.

또한, 도 9에서는, 설명의 편의를 위하여, 프로세서(1201)가 복수의 전자 회로들(1210, 1220, 1230, 1240)로 구분되는 것으로 도시되어 있으나, 단일 전자 회로가 후술될 전자 회로들(1210, 1220, 1230, 1240)의 기능을 수행할 수도 있다. 또한, 제 1 전자 회로(1210), 제 2 전자 회로(1220) 및 제 3 전자 회로(1230)의 기능은 도 6 내지 도 8을 참조하여 상술한 바와 같다. 따라서, 이하에서는 제 1 전자 회로(1210), 제 2 전자 회로(1220) 및 제 3 전자 회로(1230)에 대한 구체적인 설명은 생략한다.9, the processor 1201 is shown as being divided into a plurality of electronic circuits 1210, 1220, 1230, and 1240, but a single electronic circuit may be used as the electronic circuits 1210 , 1220, 1230, 1240). The functions of the first electronic circuit 1210, the second electronic circuit 1220, and the third electronic circuit 1230 are as described above with reference to FIGS. Therefore, the detailed description of the first electronic circuit 1210, the second electronic circuit 1220, and the third electronic circuit 1230 will be omitted below.

제 4 전자 회로(1240)는 제 1 컬러 영상 및 제 3 흑백 영상을 이용하여 제 2 컬러 영상을 생성한다. 여기에서, 제 2 컬러 영상에 포함된 픽셀들의 수는 제 3 흑백 영상에 포함된 픽셀들의 수와 동일할 수 있다.The fourth electronic circuit 1240 generates the second color image using the first color image and the third monochrome image. Here, the number of pixels included in the second color image may be equal to the number of pixels included in the third monochrome image.

제 4 전자 회로(1240)는 제 1 컬러 영상에 포함된 픽셀들의 컬러 값을 이용하여 제 3 흑백 영상에 포함된 픽셀들 각각의 컬러 값을 연산할 수 있다. 예를 들어, 제 4 전자 회로(1240)는, 제 1 컬러 영상에 포함된 픽셀(이하, '제 4 픽셀'이라고 함)의 컬러 값과 적어도 하나의 가중치를 조합하여, 제 2 컬러 영상에 포함된 픽셀(이하, '제 5 픽셀'이라고 함)의 컬러 값을 연산할 수 있다. 여기에서, 적어도 하나의 가중치는 제 1 컬러 영상 또는 제 3 흑백 영상에 기초하여 결정될 수 있다. 또한, 제 5 픽셀은 제 2 컬러 영상에 포함된 픽셀들 중에서 제 4 픽셀에 대응하는 픽셀을 의미한다.The fourth electronic circuit 1240 may calculate the color value of each of the pixels included in the third monochrome image using the color values of the pixels included in the first color image. For example, the fourth electronic circuit 1240 may combine at least one weight value with a color value of a pixel included in the first color image (hereinafter, referred to as a 'fourth pixel') to be included in the second color image (Hereinafter, referred to as " fifth pixel "). Here, at least one weight value may be determined based on the first color image or the third monochrome image. Further, the fifth pixel means a pixel corresponding to the fourth pixel among the pixels included in the second color image.

예를 들어, 제 4 전자 회로(1240)는 아래의 수학식 5에 기초하여 제 5 픽셀의 컬러 값을 연산할 수 있다.For example, the fourth electronic circuit 1240 may calculate the color value of the fifth pixel based on Equation (5) below.

Figure pat00009
Figure pat00009

수학식 5에서, ci'는 제 5 픽셀(즉, 제 2 컬러 영상에 포함된 픽셀들 중 i번째 픽셀)의 채도 성분을 의미한다. 예를 들어, ci'는 R(red), G(green) 및 B(blue) 중 어느 하나의 채도 성분을 의미할 수 있다. 또한, N(i)는 제 5 픽셀과 인접한 픽셀들의 집합을 의미한다. N(i)에 포함되는 픽셀들의 수는 미리 결정되어 있을 수 있다. 또한, wi는 정규화 항을 의미하며,

Figure pat00010
로 정의될 수 있다.In Equation (5), ci 'denotes a chrominance component of the fifth pixel (i.e., the i-th pixel among the pixels included in the second color image). For example, ci 'may mean a saturation component of any one of R (red), G (green), and B (blue). Also, N (i) means a set of pixels adjacent to the fifth pixel. The number of pixels included in N (i) may be predetermined. Further, wi means a normalization term,
Figure pat00010
. ≪ / RTI >

또한, cj는 제 4 픽셀(즉, 제 1 컬러 영상에 포함된 픽셀들 중 j번째 픽셀)의 채도 성분을 의미한다. 제 1 컬러 영상과 제 2 컬러 영상의 크기 또는 영상에 포함된 픽셀들의 수가 다른 경우, cj는 제 1 컬러 영상의 j번째 픽셀이 아닌, 제 2 컬러 영상의 j번째 픽셀에 대응하는 제 1 컬러 영상의 다른 픽셀이 될 수 있다.Further, cj means a chrominance component of the fourth pixel (i.e., the jth pixel among the pixels included in the first color image). If the size of the first color image and the size of the second color image or the number of pixels included in the image are different, cj is not the jth pixel of the first color image but the first color image corresponding to the jth pixel of the second color image Lt; RTI ID = 0.0 >

Figure pat00011
는 픽셀들 사이의 거리에 대한 가중치를 의미하고, 예를 들어 아래의 수학식 6에 의하여 연산될 수 있다.
Figure pat00011
Is a weight for a distance between pixels, and can be calculated, for example, by the following equation (6).

Figure pat00012
Figure pat00012

수학식 6에서, d(i, j)는 영상의 i번째 픽셀과 j번째 픽셀 사이의 거리를 의미하고, 예를 들어, i번째 픽셀과 j번째 픽셀 사이의 유클리드 거리(Euclidean distance)가 될 수 있다. 또한,

Figure pat00013
는 영상의 픽셀들 사이의 거리에 따른 가중치의 변화를 조절하는 파라미터이며, 픽셀들 사이의 거리에 따라 미리 결정되어 있을 수 있다.In Equation (6), d (i, j) denotes the distance between the i-th pixel and the j-th pixel of the image and may be, for example, an Euclidean distance between the i- have. Also,
Figure pat00013
Is a parameter for adjusting the change in the weight according to the distance between the pixels of the image, and may be predetermined according to the distance between the pixels.

Figure pat00014
는 제 3 흑백 영상에 기초한 가중치를 의미하고, 예를 들어 아래의 수학식 7에 의하여 연산될 수 있다.
Figure pat00014
Means a weight based on the third monochrome image, and can be calculated by Equation (7), for example.

Figure pat00015
Figure pat00015

수학식 7에서, mi는 제 3 흑백 영상의 i번째 픽셀의 픽셀 값을 의미하고, mj는 제 3 흑백 영상의 j번째 픽셀의 픽셀 값을 의미한다. 또한,

Figure pat00016
는 제 3 흑백 영상에 포함된 픽셀들의 픽셀 값의 차이에 따른 가중치의 변화를 조절하는 파라미터이며, 픽셀 값의 차이에 따라 미리 결정되어 있을 수 있다.
Figure pat00017
는, 제 3 흑백 영상의 i번째 픽셀의 픽셀 값과 j번째 픽셀의 픽셀 값의 차이가 작을 경우, i번째 픽셀 및 j번째 픽셀이 포함된 평면은 색 변화가 작은 평면으로 간주되어 i번째 픽셀의 컬러 값과 및 j번째 픽셀의 컬러 값을 비슷하게 하는 역할을 한다. 한편,
Figure pat00018
는, 제 3 흑백 영상의 i번째 픽셀의 픽셀 값과 j번째 픽셀의 픽셀 값의 차이가 클 경우, i번째 픽셀과 j번째 픽셀의 컬러 차이를 유지하게 하는 역할을 한다.In Equation (7), mi denotes the pixel value of the i-th pixel of the third monochrome image, and mj denotes the pixel value of the j-th pixel of the third monochrome image. Also,
Figure pat00016
Is a parameter for adjusting a change in weight according to a difference between pixel values of pixels included in the third monochrome image, and may be predetermined according to a difference between pixel values.
Figure pat00017
When the difference between the pixel value of the i-th pixel of the third monochrome image and the pixel value of the j-th pixel is small, the plane containing the i-th pixel and the j- The color value and the color value of the j-th pixel are similar to each other. Meanwhile,
Figure pat00018
Th pixel and the jth pixel when the difference between the pixel value of the i-th pixel and the pixel value of the j-th pixel is large, the color difference between the i-th pixel and the j-th pixel is maintained.

Figure pat00019
는 제 1 컬러 영상에 기초한 가중치를 의미하고, 예를 들어 아래의 수학식 8 또는 수학식 9에 의하여 연산될 수 있다.
Figure pat00019
Means a weight based on the first color image, and can be calculated, for example, by the following equation (8) or (9).

Figure pat00020
Figure pat00020

수학식 8은 ci와 cj가 모두 존재하는 경우에서의

Figure pat00021
를 의미한다. 또한,
Figure pat00022
는 제 1 컬러 영상에 포함된 픽셀들의 픽셀 값의 차이에 따른 가중치의 변화를 조절하는 파라미터이며, 픽셀 값의 차이에 따라 미리 결정되어 있을 수 있다.Equation (8) represents the case where both ci and cj exist
Figure pat00021
. Also,
Figure pat00022
Is a parameter for adjusting a change in weight according to a difference between pixel values of pixels included in the first color image, and may be predetermined according to a difference in pixel values.

Figure pat00023
Figure pat00023

수학식 9는 ci와 cj 중 어느 하나라도 존재하지 않는 경우에서의

Figure pat00024
를 의미한다. 도 4b를 참조하여 상술한 바와 같이, 카메라(1030)의 영상 센서(1034)의 상부에는 광학 필터(1033)가 위치한다. 만약, 카메라(1030)가 컬러 카메라인 경우, 광학 필터(1033)는 컬러 필터에 해당되고, 영상 센서(1034)는 컬러 영상 센서에 해당된다. 따라서, 영상 센서(1034)에 포함된 픽셀들 각각에는 특정한 컬러 성분이 존재할 수도 있으나, 존재하지 않을 수도 있다. 예를 들어, 영상 센서(1034)의 특정 픽셀이 R(red)을 나타내는 픽셀이라고 가정하면, 그 픽셀에 대응하는 컬러 성분에는 R(red)이 존재할 수도 있으나, 그렇지 않을 수도 있다. 따라서, ci와 cj 중 어느 하나라도 존재하지 않는 경우, 수학식 8에 따른 연산은 불가능하며,
Figure pat00025
는 미리 정해진 상수인 C로 결정될 수 있다.Equation (9) represents the case where neither ci nor cj exists
Figure pat00024
. As described above with reference to Fig. 4B, an optical filter 1033 is positioned above the image sensor 1034 of the camera 1030. Fig. If the camera 1030 is a color camera, the optical filter 1033 corresponds to a color filter, and the image sensor 1034 corresponds to a color image sensor. Thus, each of the pixels included in the image sensor 1034 may have a specific color component, but may not exist. For example, assuming that a particular pixel of the image sensor 1034 is a pixel representing R (red), R (red) may be present in the color component corresponding to that pixel, but it may not. Therefore, when either ci or cj is not present, the calculation according to Equation (8) is impossible,
Figure pat00025
Can be determined to be a predetermined constant C.

상술한 바에 따르면, 제 4 전자 회로(1240)는 제 1 컬러 영상 및 제 3 흑백 영상을 이용하여, 제 1 컬러 영상보다 고품질인 제 2 컬러 영상을 생성할 수 있다.According to the above description, the fourth electronic circuit 1240 can generate the second color image of higher quality than the first color image by using the first color image and the third monochrome image.

도 10은 일 실시예에 따른 영상을 생성하는 방법의 일 예를 나타내는 흐름도이다.10 is a flowchart showing an example of a method of generating an image according to an embodiment.

도 10을 참조하면, 영상을 생성하는 방법은 도 1 내지 도 4, 도 6 및 도 9에 도시된 디바이스(100, 100a, 100b, 1000) 또는 프로세서(1200, 1201)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 내지 도 4, 도 6 및 도 9에 도시된 디바이스(100, 100a, 100b, 1000) 또는 프로세서(1200, 1201)에 관하여 이상에서 기술된 내용은 도 10의 영상을 생성하는 방법에도 적용됨을 알 수 있다.Referring to FIG. 10, a method of generating an image is performed in a time-series manner in the devices 100, 100a, 100b, and 1000 or the processors 1200 and 1201 shown in FIGS. 1 to 4, 6 and 9 . Therefore, the contents described above with respect to the devices 100, 100a, 100b, and 1000 or the processors 1200 and 1201 shown in Figs. 1 to 4, 6 and 9, The method of generating the image of FIG.

2110 단계에서, 디바이스(100, 100a, 100b, 1000)는 제 1 흑백 영상 및 제 1 컬러 영상을 촬영한다. 예를 들어, 디바이스(100)는 제 1 흑백 영상을 생성하는 제 1 카메라 및 제 1 컬러 영상을 생성하는 제 2 카메라를 포함할 수 있다. 또한, 제 1 카메라 및 제 2 카메라는 라이트 필드(light field) 카메라일 수 있다. 라이트 필드 카메라는 영상 센서에 포함된 복수의 마이크로 렌즈(microlens)들 각각에 복수의 포토 다이오드들이 연결된 카메라를 의미한다.In step 2110, the devices 100, 100a, 100b, and 1000 capture the first black-and-white image and the first color image. For example, the device 100 may include a first camera for generating a first monochrome image and a second camera for generating a first color image. Also, the first camera and the second camera may be light field cameras. A light field camera means a camera in which a plurality of photodiodes are connected to each of a plurality of microlens included in an image sensor.

2120 단계에서, 제 1 전자 회로(1210)는 제 1 컬러 영상을 이용하여 제 2 흑백 영상을 생성한다. 제 1 전자 회로(1210)에 의하여 생성된 제 2 흑백 영상은 제 1 컬러 영상과 같은 수의 픽셀들을 갖을 수도 있고, 제 1 흑백 영상과 같은 수의 픽셀들을 가질 수도 있다.In step 2120, the first electronic circuit 1210 generates a second monochrome image using the first color image. The second monochrome image generated by the first electronic circuit 1210 may have the same number of pixels as the first color image and may have the same number of pixels as the first monochrome image.

2130 단계에서, 제 2 전자 회로(1220)는 제 1 흑백 영상에 포함된 픽셀들과 제 2 흑백 영상에 포함된 픽셀들 사이의 위치 관계를 나타내는 정보를 획득한다. 다시 말해, 제 2 전자 회로(1220)는 제 1 흑백 영상에 포함된 픽셀들 각각에 대응하는 픽셀(1421)을 제 2 흑백 영상에서 식별한다.In step 2130, the second electronic circuit 1220 obtains information indicating a positional relationship between the pixels included in the first monochrome image and the pixels included in the second monochrome image. In other words, the second electronic circuit 1220 identifies, in the second monochrome image, the pixel 1421 corresponding to each of the pixels included in the first monochrome image.

2140 단계에서, 제 3 전자 회로(1230)는 제 1 흑백 영상, 제 2 흑백 영상 및 제 2 전자 회로(1220)가 획득한 정보에 기초하여 제 3 흑백 영상을 생성한다. 이때, 제 3 흑백 영상은 제 1 흑백 영상과 동일한 픽셀 수를 갖거나, 또는 제 1 흑백 영상보다 많은 픽셀 수를 가질 수 있다.In step 2140, the third electronic circuit 1230 generates a third monochrome image based on the first monochrome image, the second monochrome image, and the information obtained by the second electronic circuit 1220. At this time, the third monochrome image may have the same number of pixels as the first monochrome image, or may have more pixels than the first monochrome image.

도 11은 일 실시예에 따른 영상을 생성하는 방법의 다른 예를 나타내는 흐름도이다.11 is a flowchart illustrating another example of a method of generating an image according to an embodiment.

도 11을 참조하면, 영상을 생성하는 방법은 도 1 내지 도 4, 도 6 및 도 9에 도시된 디바이스(100, 100a, 100b, 1000) 또는 프로세서(1200, 1201)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 내지 도 4, 도 6 및 도 9에 도시된 디바이스(100, 100a, 100b, 1000) 또는 프로세서(1200, 1201)에 관하여 이상에서 기술된 내용은 도 11의 영상을 생성하는 방법에도 적용됨을 알 수 있다.Referring to FIG. 11, a method of generating an image is performed in a time-series manner in the devices 100, 100a, 100b, and 1000 or the processors 1200 and 1201 shown in FIGS. 1 to 4, 6 and 9 . Therefore, the contents described above with respect to the devices 100, 100a, 100b, and 1000 or the processors 1200 and 1201 shown in Figs. 1 to 4, 6 and 9, The method of generating the image of FIG.

또한, 도 11의 2210 단계 내지 2240 단계는 도 10의 2110 단계 내지 2140 단계와 동일하다. 따라서, 이하에서는 2210 단계 내지 2240 단계에 대한 구체적인 설명은 생략한다.In addition, steps 2210 to 2240 of FIG. 11 are the same as steps 2110 to 2140 of FIG. Therefore, detailed description of steps 2210 to 2240 will be omitted.

2250 단계에서, 제 4 전자 회로(1240)는 제 1 컬러 영상 및 제 3 흑백 영상을 이용하여 제 2 컬러 영상을 생성한다. 여기에서, 제 2 컬러 영상에 포함된 픽셀들의 수는 제 3 흑백 영상에 포함된 픽셀들의 수와 동일할 수 있다.In step 2250, the fourth electronic circuit 1240 generates the second color image using the first color image and the third monochrome image. Here, the number of pixels included in the second color image may be equal to the number of pixels included in the third monochrome image.

상술한 바에 따르면, 디바이스는 컬러 카메라와 흑백 카메라를 동시에 사용하여, 밝기 노이즈 및 컬러 노이즈를 모두 제거한 고화질의 영상을 생성할 수 있다.As described above, the device can simultaneously use a color camera and a monochrome camera to generate a high-quality image by removing both brightness noise and color noise.

한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described method can be implemented in a general-purpose digital computer that can be created as a program that can be executed by a computer and operates the program using a computer-readable recording medium. In addition, the structure of the data used in the above-described method can be recorded on a computer-readable recording medium through various means. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (e.g., ROM, RAM, USB, floppy disk, hard disk, etc.), optical reading medium (e.g. CD ROM, do.

또한, 상술한 방법은 컴퓨터로 읽을 수 있는 기록매체에 유지되는 프로그램들 중 적어도 하나의 프로그램에 포함된 명령어(instructions)의 실행을 통하여 수행될 수 있다. 상기 명령어가 컴퓨터에 의해 실행될 경우, 상기 적어도 하나의 컴퓨터는 상기 명령어에 해당하는 기능을 수행할 수 있다. 여기서, 명령어는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 본 개시에서, 컴퓨터의 일 예는, 프로세서가 될 수 있으며, 기록매체의 일 예는 메모리가 될 수 있다.Further, the above-described method may be performed through execution of instructions contained in at least one of programs stored in a computer-readable recording medium. When the instruction is executed by a computer, the at least one computer may perform a function corresponding to the instruction. Here, the instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. In the present disclosure, an example of a computer may be a processor, and an example of a recording medium may be a memory.

상술일 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes may be made and equivalents may be substituted for elements thereof without departing from the essential characteristics thereof. Therefore, the disclosed methods should be considered from an illustrative point of view, not from a restrictive point of view. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

10: 사용자
20: 제 1 컬러 영상
30: 제 1 흑백 영상
40: 제 2 컬러 영상
100: 사용자
10: User
20: First color image
30: First black and white image
40: Second color image
100: User

Claims (19)

제 1 흑백 영상을 생성하는 제 1 카메라;
제 1 컬러 영상을 생성하는 제 2 카메라;
상기 제 1 컬러 영상을 이용하여 제 2 흑백 영상을 생성하는 제 1 전자 회로;
상기 제 1 흑백 영상에 포함된 픽셀들과 상기 제 2 흑백 영상에 포함된 픽셀들 사이의 위치 관계를 나타내는 정보를 획득하는 제 2 전자 회로; 및
상기 제 1 흑백 영상, 상기 제 2 흑백 영상 및 상기 획득된 정보에 기초하여 제 3 흑백 영상을 생성하는 제 3 전자 회로;를 포함하는 디바이스.
A first camera for generating a first monochrome image;
A second camera for generating a first color image;
A first electronic circuit for generating a second monochrome image using the first color image;
A second electronic circuit for obtaining information indicating a positional relationship between the pixels included in the first monochrome image and the pixels included in the second monochrome image; And
A third monochrome image, a second monochrome image, and a third electronic circuit for generating a third monochrome image based on the obtained information.
제 1 항에 있어서,
상기 제 1 카메라에 포함된 센서의 픽셀들의 수는 상기 제 2 카메라에 포함된 센서의 픽셀들의 수보다 많거나 같은 디바이스.
The method according to claim 1,
Wherein the number of pixels of the sensor included in the first camera is greater than or equal to the number of pixels of the sensor included in the second camera.
제 1 항에 있어서,
상기 제 1 전자 회로는
상기 제 1 컬러 영상에 포함된 제 1 픽셀의 픽셀 값을 이용하여 상기 제 2 흑백 영상에 포함된 제 2 픽셀의 픽셀 값을 연산하고,
상기 제 2 픽셀은 상기 제 2 흑백 영상에 포함된 픽셀들 중에서 상기 제 1 픽셀에 대응하는 픽셀인 디바이스.
The method according to claim 1,
The first electronic circuit
Calculating a pixel value of a second pixel included in the second monochrome image using the pixel value of the first pixel included in the first color image,
Wherein the second pixel is a pixel corresponding to the first pixel among the pixels included in the second monochrome image.
제 3 항에 있어서,
상기 제 1 전자 회로는
상기 제 1 픽셀에 인접한 픽셀들 각각의 픽셀 값을 더 고려하여 상기 제 2 픽셀의 픽셀 값을 연산하는 디바이스.
The method of claim 3,
The first electronic circuit
And calculating a pixel value of the second pixel by further considering the pixel value of each of the pixels adjacent to the first pixel.
제 1 항에 있어서,
상기 제 3 전자 회로는
상기 획득된 정보를 이용하여 상기 제 1 흑백 영상에 포함된 제 3 픽셀과 대응하는 제 2 흑백 영상에 포함된 제 4 픽셀을 검색하고,
상기 제 3 픽셀의 픽셀 값 및 상기 제 4 픽셀의 픽셀 값을 이용하여 상기 제 3 흑백 영상에 포함된 제 5 픽셀의 픽셀 값을 연산하는 디바이스.
The method according to claim 1,
The third electronic circuit
Searching the fourth pixel included in the second monochrome image corresponding to the third pixel included in the first monochrome image using the obtained information,
And calculates a pixel value of a fifth pixel included in the third monochrome image using the pixel value of the third pixel and the pixel value of the fourth pixel.
제 5 항에 있어서,
상기 제 3 전자 회로는
상기 제 3 픽셀과 인접한 픽셀들 각각의 픽셀 값 및 상기 제 4 픽셀과 인접한 픽셀들 각각의 픽셀 값을 더 고려하여 상기 제 5 픽셀의 픽셀 값을 연산하는 디바이스.
6. The method of claim 5,
The third electronic circuit
The pixel value of each of the pixels adjacent to the third pixel and the pixel value of each of the pixels adjacent to the fourth pixel.
제 1 항에 있어서,
상기 제 1 컬러 영상 및 상기 제 3 흑백 영상을 이용하여 제 2 컬러 영상을 생성하는 제 4 전자 회로;를 더 포함하는 디바이스.
The method according to claim 1,
And a fourth electronic circuit for generating a second color image using the first color image and the third black and white image.
제 7 항에 있어서,
상기 제 4 전자 회로는
상기 제 1 컬러 영상에 포함된 제 6 픽셀의 컬러 값 및 상기 제 1 컬러 영상 또는 상기 제 3 흑백 영상에 기초한 적어도 하나의 가중치를 조합하여 상기 제 2 컬러 영상에 포함된 제 7 픽셀의 컬러 값을 연산하고,
상기 제 7 픽셀은 상기 제 2 컬러 영상에 포함된 픽셀들 중에서 상기 제 6 픽셀에 대응하는 픽셀인 디바이스.
8. The method of claim 7,
The fourth electronic circuit
Combining the color value of the sixth pixel included in the first color image and at least one weight value based on the first color image or the third monochrome image to obtain a color value of the seventh pixel included in the second color image And,
Wherein the seventh pixel is a pixel corresponding to the sixth pixel among the pixels included in the second color image.
제 1 항에 있어서,
상기 제 1 카메라 및 상기 제 2 카메라는 라이트 필드(light field) 카메라를 포함하는 디바이스.
The method according to claim 1,
Wherein the first camera and the second camera comprise a light field camera.
제 1 흑백 영상 및 제 1 컬러 영상을 생성하는 단계;
상기 제 1 컬러 영상을 이용하여 제 2 흑백 영상을 생성하는 단계;
상기 제 1 흑백 영상에 포함된 픽셀들과 상기 제 2 흑백 영상에 포함된 픽셀들 사이의 위치 관계를 나타내는 정보를 획득하는 단계; 및
상기 제 1 흑백 영상, 상기 제 2 흑백 영상 및 상기 획득된 정보에 기초하여 제 3 흑백 영상을 생성하는 단계;를 포함하는 영상을 생성하는 방법.
Generating a first monochrome image and a first color image;
Generating a second monochrome image using the first color image;
Obtaining information indicating a positional relationship between the pixels included in the first monochrome image and the pixels included in the second monochrome image; And
And generating a third monochrome image based on the first monochrome image, the second monochrome image, and the obtained information.
제 10 항에 있어서,
상기 제 1 흑백 영상에 포함된 픽셀들의 수는 상기 제 1 컬러 영상에 포함된 픽셀들의 수보다 많거나 같은 방법.
11. The method of claim 10,
Wherein the number of pixels included in the first monochrome image is greater than or equal to the number of pixels included in the first color image.
제 10 항에 있어서,
상기 제 2 흑백 영상을 생성하는 단계는
상기 제 1 컬러 영상에 포함된 제 1 픽셀의 픽셀 값을 이용하여 상기 제 2 흑백 영상에 포함된 제 2 픽셀의 픽셀 값을 연산하고,
상기 제 2 픽셀은 상기 제 2 흑백 영상에 포함된 픽셀들 중에서 상기 제 1 픽셀에 대응하는 픽셀인 방법.
11. The method of claim 10,
The step of generating the second monochrome image
Calculating a pixel value of a second pixel included in the second monochrome image using the pixel value of the first pixel included in the first color image,
Wherein the second pixel is a pixel corresponding to the first pixel among the pixels included in the second monochrome image.
제 12 항에 있어서,
상기 제 2 흑백 영상을 생성하는 단계는
상기 제 1 픽셀에 인접한 픽셀들 각각의 픽셀 값을 더 고려하여 상기 제 2 픽셀의 픽셀 값을 연산하는 방법.
13. The method of claim 12,
The step of generating the second monochrome image
And calculating a pixel value of the second pixel by further considering the pixel value of each of the pixels adjacent to the first pixel.
제 10 항에 있어서,
상기 제 3 흑백 영상을 생성하는 단계는
상기 획득된 정보를 이용하여 상기 제 1 흑백 영상에 포함된 제 3 픽셀과 대응하는 제 2 흑백 영상에 포함된 제 4 픽셀을 검색하는 단계; 및
상기 제 3 픽셀의 픽셀 값 및 상기 제 4 픽셀의 픽셀 값을 이용하여 상기 제 3 흑백 영상에 포함된 제 5 픽셀의 픽셀 값을 연산하는 단계;를 포함하는 방법.
11. The method of claim 10,
The step of generating the third monochrome image
Searching for a fourth pixel included in a second monochrome image corresponding to a third pixel included in the first monochrome image using the obtained information; And
Computing a pixel value of a fifth pixel included in the third monochrome image using the pixel value of the third pixel and the pixel value of the fourth pixel.
제 14 항에 있어서,
상기 제 5 픽셀의 픽셀 값을 연산하는 단계는
상기 제 3 픽셀과 인접한 픽셀들 각각의 픽셀 값 및 상기 제 4 픽셀과 인접한 픽셀들 각각의 픽셀 값을 더 고려하여 상기 제 5 픽셀의 픽셀 값을 연산하는 방법.
15. The method of claim 14,
The step of calculating the pixel value of the fifth pixel
Calculating a pixel value of the fifth pixel by considering the pixel value of each of the pixels adjacent to the third pixel and the pixel value of each of the pixels adjacent to the fourth pixel.
제 10 항에 있어서,
상기 제 1 컬러 영상 및 상기 제 3 흑백 영상을 이용하여 제 2 컬러 영상을 생성하는 단계;를 더 포함하는 방법.
11. The method of claim 10,
And generating a second color image using the first color image and the third black and white image.
제 16 항에 있어서,
상기 제 2 컬러 영상을 생성하는 단계는
상기 제 1 컬러 영상에 포함된 제 6 픽셀의 컬러 값 및 상기 제 1 컬러 영상 또는 상기 제 3 흑백 영상에 기초한 적어도 하나의 가중치를 조합하여 상기 제 2 컬러 영상에 포함된 제 7 픽셀의 컬러 값을 연산하고,
상기 제 7 픽셀은 상기 제 2 컬러 영상에 포함된 픽셀들 중에서 상기 제 6 픽셀에 대응하는 픽셀인 방법.
17. The method of claim 16,
The step of generating the second color image
Combining the color value of the sixth pixel included in the first color image and at least one weight value based on the first color image or the third monochrome image to obtain a color value of the seventh pixel included in the second color image And,
Wherein the seventh pixel is a pixel corresponding to the sixth pixel among the pixels included in the second color image.
제 10 항에 있어서,
상기 제 1 흑백 영상을 생성하는 제 1 카메라 및 상기 제 1 컬러 영상을 생성하는 제 2 카메라는 라이트 필드(light field) 카메라를 포함하는 디바이스.
11. The method of claim 10,
A first camera for generating the first monochrome image and a second camera for generating the first color image comprise a light field camera.
제 10 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program for causing a computer to execute the method of claim 10.
KR1020160030949A 2015-10-22 2016-03-15 Method and device for generating an image KR102494696B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/244,242 US9948857B2 (en) 2015-10-22 2016-08-23 Method and device for generating images
US15/914,591 US10187566B2 (en) 2015-10-22 2018-03-07 Method and device for generating images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562244887P 2015-10-22 2015-10-22
US62/244,887 2015-10-22

Publications (2)

Publication Number Publication Date
KR20170047150A true KR20170047150A (en) 2017-05-04
KR102494696B1 KR102494696B1 (en) 2023-02-02

Family

ID=58743232

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160030949A KR102494696B1 (en) 2015-10-22 2016-03-15 Method and device for generating an image

Country Status (1)

Country Link
KR (1) KR102494696B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2982163B2 (en) * 1988-12-21 1999-11-22 株式会社デンソー Image recognition device
JP2000152260A (en) * 1998-11-09 2000-05-30 Nikon Corp Drive method for image pickup element and image pickup device
US20130016251A1 (en) * 2011-07-15 2013-01-17 Kabushiki Kaisha Toshiba Solid-state imaging device, image processing apparatus, and camera module

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2982163B2 (en) * 1988-12-21 1999-11-22 株式会社デンソー Image recognition device
JP2000152260A (en) * 1998-11-09 2000-05-30 Nikon Corp Drive method for image pickup element and image pickup device
US20130016251A1 (en) * 2011-07-15 2013-01-17 Kabushiki Kaisha Toshiba Solid-state imaging device, image processing apparatus, and camera module

Also Published As

Publication number Publication date
KR102494696B1 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
US10511758B2 (en) Image capturing apparatus with autofocus and method of operating the same
WO2020238741A1 (en) Image processing method, related device and computer storage medium
US10353574B2 (en) Photographic apparatus, control method thereof, and non-transitory computer-readable recording medium
JP7185434B2 (en) Electronic device for capturing images using multiple cameras and image processing method using the same
US10404922B2 (en) Image capturing apparatus with flicker compensation and method of operating the same
US10187566B2 (en) Method and device for generating images
US9854161B2 (en) Photographing device and method of controlling the same
KR102386385B1 (en) Electronic device and method for compressing image thereof
KR20170059704A (en) Image capturing apparatus and method for the same
KR102318013B1 (en) Electronic device composing a plurality of images and method
EP3316568B1 (en) Digital photographing device and operation method therefor
KR102400998B1 (en) Method and photographing device for controlling a function based on a gesture of a user
EP3609175B1 (en) Apparatus and method for generating moving image data including multiple section images in electronic device
WO2022001806A1 (en) Image transformation method and apparatus
US10009545B2 (en) Image processing apparatus and method of operating the same
KR20170014556A (en) Method and photographing device for photographing a moving object
US9986163B2 (en) Digital photographing apparatus and digital photographing method
CN112637481B (en) Image scaling method and device
CN112188094B (en) Image processing method and device, computer readable medium and terminal equipment
CN113850709A (en) Image transformation method and device
JP2023059952A (en) Image processing device, imaging device, image processing method, image processing program, and recording medium
KR102494696B1 (en) Method and device for generating an image
CN117528265A (en) Video shooting method and electronic equipment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right