KR20230105295A - Image acquisition apparatus and electronic apparatus including the same - Google Patents

Image acquisition apparatus and electronic apparatus including the same Download PDF

Info

Publication number
KR20230105295A
KR20230105295A KR1020220053063A KR20220053063A KR20230105295A KR 20230105295 A KR20230105295 A KR 20230105295A KR 1020220053063 A KR1020220053063 A KR 1020220053063A KR 20220053063 A KR20220053063 A KR 20220053063A KR 20230105295 A KR20230105295 A KR 20230105295A
Authority
KR
South Korea
Prior art keywords
image
images
lighting
channels
deep learning
Prior art date
Application number
KR1020220053063A
Other languages
Korean (ko)
Inventor
김우식
강제원
김지원
박영경
오혜진
이병욱
Original Assignee
삼성전자주식회사
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 이화여자대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to US18/091,054 priority Critical patent/US20230217088A1/en
Priority to CN202211716196.5A priority patent/CN116419042A/en
Priority to EP22217364.3A priority patent/EP4207099A1/en
Publication of KR20230105295A publication Critical patent/KR20230105295A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging

Abstract

실시예에 따른 영상 획득 장치는 10nm 내지 1000nm의 제2 파장 대역 기반의 적어도 4개 채널의 영상들을 획득하는 멀티스펙트럴 이미지 센서 및 적어도 4개 채널의 영상들을 미리 학습된 딥러닝 네트워크에 입력하여 조명 정보를 추정하고, 추정된 조명 정보를 이용하여 획득된 영상들에 대해 색변환을 수행하는 프로세서를 포함한다. The image acquisition device according to the embodiment includes a multispectral image sensor that acquires images of at least four channels based on a second wavelength band of 10 nm to 1000 nm and inputs the images of at least four channels to a pretrained deep learning network to illuminate the image. and a processor for estimating information and performing color conversion on images acquired using the estimated lighting information.

Description

영상 획득 장치 및 이를 포함하는 전자 장치{Image acquisition apparatus and electronic apparatus including the same}Image acquisition apparatus and electronic apparatus including the same {Image acquisition apparatus and electronic apparatus including the same}

개시된 실시 예들은 영상 획득 장치 및 이를 포함하는 전자 장치에 대한 것이다.The disclosed embodiments relate to an image acquisition device and an electronic device including the same.

영상 센서는 피사체로부터 입사되는 빛을 수광하고, 수광된 빛을 광전 변환하여 전기적 신호를 생성하는 장치이다. An image sensor is a device that receives light incident from a subject and photoelectrically converts the received light to generate an electrical signal.

영상 센서는 컬러 표현을 위해, 통상, 적색광, 녹색광, 청색광을 선택적으로 투과시키는 필터 요소들의 어레이로 이루어진 컬러 필터를 사용하며, 각 필터 요소를 투과한 빛의 양을 센싱한 후, 영상 처리를 통해 피사체에 대한 컬러 영상을 형성한다. For color expression, the image sensor usually uses a color filter consisting of an array of filter elements that selectively transmits red light, green light, and blue light, and after sensing the amount of light transmitted through each filter element, image processing is performed. A color image of the subject is formed.

영상 센서를 통해 센싱된 값은 조명에 의해 영향을 받기 때문에, 카메라로 촬영된 영상의 컬러도 조명에 의해 영향을 받게 된다. 이러한 영향을 없애고 최대한 물체 고유의 색을 촬영할 수 있도록 하는 기술을 화이트밸런스라고 한다.Since the value sensed by the image sensor is affected by lighting, the color of an image photographed by a camera is also affected by lighting. White balance is a technology that eliminates this effect and allows you to capture the color of an object as much as possible.

종래의 화이트밸런스 기술은 RGB 영상을 촬영한 후 그 영상 내 정보를 분석하여 화이트밸런스를 수행한다. 이러한 방법은 Gray World Assumption, 즉 영상의 R, G, B 채널별 평균값이 동일하다는 가정 또는 다른 제약 사항이 있기 때문에, 그러한 제약 사항을 만족시키지 못하는 상황에서는 올바로 동작하지 않을 수 있다. In the conventional white balance technology, white balance is performed by taking an RGB image and then analyzing information in the image. Since this method has Gray World Assumption, that is, an assumption that the average value of each R, G, and B channel of the image is the same, or other restrictions, it may not operate properly in situations where such restrictions are not satisfied.

영상 획득 장치 및 이를 포함하는 전자 장치에 대한 것이다.It relates to an image acquisition device and an electronic device including the same.

실시 예에 따른 영상 획득 장치는 10nm 내지 1000nm의 제2 파장 대역 기반의 적어도 4개 채널의 영상들을 획득하는 멀티스펙트럴 이미지 센서; 및 상기 적어도 4개 채널의 영상들을 미리 학습된 딥러닝 네트워크에 입력하여 조명 정보를 추정하고, 상기 추정된 조명 정보를 이용하여 상기 획득된 영상들에 대해 색변환을 수행하는 프로세서를 포함한다.An image acquisition device according to an embodiment includes a multispectral image sensor that acquires images of at least four channels based on a second wavelength band of 10 nm to 1000 nm; and a processor for estimating lighting information by inputting the images of the at least four channels to a pretrained deep learning network, and performing color conversion on the acquired images using the estimated lighting information.

다른 실시 예에 따른 전자 장치는 상기 영상 획득 장치를 포함한다.An electronic device according to another embodiment includes the image capture device.

또 다른 실시 예에 따른 영상 획득 장치의 제어 방법은 10nm 내지 1000nm의 제2 파장 대역 기반의 적어도 4개 채널의 영상들을 획득하는 단계; 상기 적어도 4개 채널의 영상들을 미리 학습된 딥러닝 네트워크에 입력하여 조명 정보를 추정하는 단계; 및 상기 추정된 조명 정보를 이용하여 상기 획득된 영상들에 대해 색변환을 수행하는 단계를 포함한다.A control method of an image acquisition device according to another embodiment includes acquiring images of at least four channels based on a second wavelength band of 10 nm to 1000 nm; estimating lighting information by inputting the images of the at least four channels to a pre-learned deep learning network; and performing color conversion on the acquired images using the estimated illumination information.

실시 예에 따른 영상 획득 장치는 멀티스펙트럴 이미지 센서를 이용하여, 파장 간의 중첩 효과를 최소화하여 RGB 컬러 영상을 사용하는 것보다 효과적인 AWB를 수행할 수 있다.The image capturing device according to the embodiment may perform AWB more effective than using an RGB color image by using a multispectral image sensor to minimize an overlapping effect between wavelengths.

또한, 인간의 시각(visual) 특성만 아니라 인지(perception) 특성까지 반영한 AWB 알고리즘을 도출할 수 있다.In addition, an AWB algorithm that reflects not only human visual characteristics but also perception characteristics can be derived.

상술한 영상 획득 장치는 다양한 전자 장치에 채용될 수 있다.The above-described image capture device may be employed in various electronic devices.

도 1a 및 1b는 실시 예에 따른 영상 획득 장치의 개략적인 구조를 보이는 블록도들이다.
도 2는 도 1a에 도시된 영상 획득 장치의 상세 블록도이다.
도 3a 및 3b는 일 실시 예에 따른 멀티스펙트럴 이미지 센서로 획득한 영상들의 예시 도들이다.
도 4는 다른 실시 예에 따른 조명 추정을 위한 딥러닝 네트워크의 개략 도이다.
도 5는 또 다른 실시 예에 따른 조명 반사도 추정을 위한 딥러닝 네트워크의 개략 도이다.
도 6은 도 1b에 도시된 영상 획득 장치의 개략적인 구조를 보이는 개념도이다.
도 7은 도 1b에 도시된 영상 획득 장치에 구비되는 멀티스펙트럴 이미지 센서, 이미지 센서의 회로 구성을 도시한 도면이다.
도 8은 실시 예에 따른 영상 획득 장치에 구비되는 이미지 센서에 의한 파장 스펙트럼을 도시한 도면이다.
도 9 내지 도 11은 실시 예에 따른 영상 획득 장치에 구비되는 이미지 센서의 예시적인 화소 배열들을 도시한 도면이다.
도 12는 실시 예에 따른 영상 획득 장치에 구비되는 멀티스펙트럴 이미지 센서에 의한 파장 스펙트럼을 도시한 도면이다.
도 13 내지 도 15는 실시 예에 다른 영상 획득 장치에 구비되는 멀티스펙트럴 이미지 센서의 예시적인 화소 배열을 도시한 도면이다.
도 16은 다른 실시 예에 따른 영상 획득 장치의 제어 방법을 개략적으로 설명하는 흐름 도이다.
도 17은 실시 예에 따른 전자 장치의 개략적인 구조를 보이는 블록도이다.
도 18은 도 15의 전자 장치에 구비되는 카메라 모듈을 개략적으로 도시한 블록도이다.
도 19 내지 도 28은 실시 예에 따른 영상 획득 장치가 적용된 전자장치의 다양한 예시들을 보인다.
1A and 1B are block diagrams showing a schematic structure of an image capture device according to an embodiment.
2 is a detailed block diagram of the image capture device shown in FIG. 1A.
3A and 3B are exemplary diagrams of images acquired by a multispectral image sensor according to an exemplary embodiment.
4 is a schematic diagram of a deep learning network for lighting estimation according to another embodiment.
5 is a schematic diagram of a deep learning network for estimating light reflectivity according to another embodiment.
6 is a conceptual diagram showing a schematic structure of the image capture device shown in FIG. 1B.
FIG. 7 is a diagram showing circuit configurations of a multispectral image sensor and an image sensor included in the image capture device shown in FIG. 1B.
8 is a diagram illustrating a wavelength spectrum by an image sensor included in an image capture device according to an embodiment.
9 to 11 are views illustrating exemplary pixel arrangements of an image sensor included in an image capture device according to an embodiment.
12 is a diagram illustrating a wavelength spectrum by a multispectral image sensor included in an image capture device according to an embodiment.
13 to 15 are diagrams illustrating exemplary pixel arrangements of a multispectral image sensor included in an image capture device according to an embodiment.
16 is a flowchart schematically illustrating a control method of an image capture device according to another embodiment.
17 is a block diagram showing a schematic structure of an electronic device according to an embodiment.
FIG. 18 is a block diagram schematically illustrating a camera module included in the electronic device of FIG. 15 .
19 to 28 show various examples of an electronic device to which an image capture device according to an embodiment is applied.

이하, 첨부된 도면을 참조하여 실시 예를 상세히 설명하기로 한다. 설명되는 실시 예는 단지 예시적인 것에 불과하며, 이러한 실시 예들로부터 다양한 변형이 가능하다. 이하의 도면들에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 도면상에서 각 구성요소의 크기는 설명의 명료성과 편의상 과장되어 있을 수 있다. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The described embodiments are merely illustrative, and various modifications are possible from these embodiments. In the following drawings, the same reference numerals denote the same components, and the size of each component in the drawings may be exaggerated for clarity and convenience of description.

이하에서, "상부" 나 "상"이라고 기재된 것은 접촉하여 바로 위에 있는 것뿐만 아니라 비접촉으로 위에 있는 것도 포함할 수 있다.Hereinafter, what is described as "above" or "above" may include not only what is directly on top of contact but also what is on top of non-contact.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 이러한 용어들은 구성 요소들의 물질 또는 구조가 다름을 한정하는 것이 아니다.The terms first, second, etc. may be used to describe various components, but are used only for the purpose of distinguishing one component from another. These terms are not intended to limit the difference in material or structure of the components.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

또한, 명세서에 기재된 “...부”, “모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .

“상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다.The use of the term “above” and similar denoting terms may correspond to both singular and plural.

방법을 구성하는 단계들은 설명된 순서대로 행하여야 한다는 명백한 언급이 없다면, 적당한 순서로 행해질 수 있다. 또한, 모든 예시적인 용어(예를 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 청구항에 의해 한정되지 않는 이상 이러한 용어로 인해 권리 범위가 한정되는 것은 아니다.Steps comprising a method may be performed in any suitable order, unless expressly stated that they must be performed in the order described. In addition, the use of all exemplary terms (for example, etc.) is simply for explaining technical ideas in detail, and the scope of rights is not limited due to these terms unless limited by claims.

일반적으로 카메라에서 센싱되는 값은 다음 수학식 1과 같이 조명, 물체의 색상, 그리고 카메라 반응의 곱으로 나타낼 수 있다.In general, a value sensed by a camera can be expressed as a product of illumination, color of an object, and camera response as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서

Figure pat00002
는 센싱된 값,
Figure pat00003
,
Figure pat00004
,
Figure pat00005
은 각각 조명, 물체의 표면반사(surface reflectance) 및 카메라 반응에 대한 스펙트럼
Figure pat00006
의 함수이다. 센싱된 값은 조명에 의해 영향을 받기 때문에 카메라로 촬영된 영상의 컬러도 조명에 의해 영향을 받게 된다. 이러한 영향을 없애고 최대한 물체 고유의 색을 촬영할 수 있도록 하는 것이 화이트밸런스이다.here
Figure pat00002
is the sensed value,
Figure pat00003
,
Figure pat00004
,
Figure pat00005
is the spectrum for illumination, object surface reflectance, and camera response, respectively.
Figure pat00006
is a function of Since the sensed value is affected by lighting, the color of an image photographed by a camera is also affected by lighting. White balance is to eliminate this effect and to capture the color of an object as much as possible.

AWB는 대부분의 카메라 이미지에 전처리 적용되어 영상에서 물체 고유 색상을 렌더링하여 photographic 관점에서 유용할 뿐 아니라 물체 인식, 장면 이해, 색상 증강과 같은 영상 처리 및 컴퓨터 비젼 연구에 응용이 가능하다. 최근 연구에서는 잘못된 WB 설정이 심층신경망에 대한 적대적 공격 모델로 동작한다는 연구도 있기 때문에, 효과적인 AWB는 딥러닝을 이용하는 후처리 및 응용프로그램에서 안정적인 인식 성능에 중요하다. 사람의 피부 색과 같이 사람이 쉽게 인지하면서 전체 영상의 선호도에 상당히 큰 효과를 주는 색상 조정 및 심미적 영상 처리(aesthetic image processing)에도 적용된다.AWB is applied to most camera images for preprocessing and renders object-specific colors in images, which is useful from a photographic point of view and can be applied to image processing such as object recognition, scene understanding, color enhancement, and computer vision research. In a recent study, an incorrect WB setting works as an adversarial attack model for deep neural networks, so effective AWB is important for stable recognition performance in post-processing and applications using deep learning. It is also applied to color adjustment and aesthetic image processing, which are easily recognized by humans, such as human skin color, and have a considerably large effect on the preference of the entire image.

디지털 영상의 AWB를 구현하는 방법의 기본 원리는, 조명 성분 추정 후 카메라의 RGB 컬러 공간에서 3×3 조명 보정 행렬을 이용한 선형 변환을 적용하여 조명의 영향을 제거하는 것이다. 그러나 RGB 센서에서 중첩되는 파장 정보로 인해 RGB 3 차원 컬러 공간에서 반사도와 조명 성분을 분해하는 것은 어려운 문제로 대각 행렬을 이용하여 조명을 보정하는 경우 무채색 이외의 색상에 관하여 온전한 색상 보정을 하지 못하는 한계가 있다.The basic principle of the method for realizing AWB of digital images is to remove the effect of lighting by applying a linear transformation using a 3x3 lighting correction matrix in the camera's RGB color space after estimating lighting components. However, it is difficult to decompose the reflectance and illumination components in the RGB 3-dimensional color space due to overlapping wavelength information in the RGB sensor, and when the illumination is corrected using a diagonal matrix, there is a limit to perfect color correction for colors other than achromatic colors. there is

실시 예에 따른 영상 획득 장치는 다중분광영상(multispectral image)을 사용함으로써, 파장 간의 중첩 효과를 최소화하여 조명 성분을 대각 행렬로 나타낼 수 있으며 그에 따라 AWB의 계산량을 줄이며 물체의 고유색을 보다 정확하게 표현할 수 있다. 특히, 기존 모델 기반 조명 보상 기법에서 효과적으로 수행하지 못하였던 저차원 행렬식 기반의 기저 공간 모델링을 딥 러닝을 통해 모델링하고 학습하는 방법을 제공한다.The image acquisition device according to the embodiment can minimize the overlapping effect between wavelengths by using a multispectral image to represent lighting components in a diagonal matrix, thereby reducing the amount of AWB calculation and more accurately expressing the unique color of an object. there is. In particular, a method for modeling and learning base space modeling based on a low-dimensional determinant, which was not effectively performed in the existing model-based lighting compensation technique, is provided through deep learning.

도 1a는 실시 예에 따른 영상 획득 장치의 개략적인 구조를 보이는 블록도이다.1A is a block diagram showing a schematic structure of an image capture device according to an embodiment.

도 1a를 참조하면, 영상 획득 장치는 멀티스펙트럴 이미지 센서(100) 및 프로세서(500)를 포함한다.Referring to FIG. 1A , an image capture device includes a multispectral image sensor 100 and a processor 500 .

멀티스펙트럴 이미지 센서(100)는 10nm 내지 1000nm의 파장 대역 기반의 적어도 4개 채널의 영상들을 획득한다. 또한, 멀티스펙트럴 이미지 센서(100)는 10nm 내지 1000nm 파장 범위내에서 16개 채널의 영상들을 생성하거나, 16개 채널의 영상들을 보간하여 31개 채널의 영상들을 생성할 수도 있다. 다만, 멀티스펙트럴 이미지 센서(100)가 획득하거나 생성할 수 있는 채널의 숫자는 4, 16, 또는 31에 한정되지 않음은 물론이다.The multispectral image sensor 100 acquires images of at least four channels based on a wavelength band of 10 nm to 1000 nm. Also, the multispectral image sensor 100 may generate images of 16 channels within a wavelength range of 10 nm to 1000 nm, or may generate images of 31 channels by interpolating images of 16 channels. However, the number of channels that can be acquired or generated by the multispectral image sensor 100 is not limited to 4, 16, or 31, of course.

프로세서(500)는 멀티스펙트럴 이미지 센서(100)로부터 획득된 적어도 4개 채널의 영상들을 미리 학습된 딥러닝 네트워크에 입력하여 조명 정보를 추정하고, 추정된 조명 정보를 이용하여 획득된 영상들에 대해 색변환을 수행한다. 딥러닝 네트워크에 입력하는 입력 영상, 딥러닝 네트워크의 학습, 출력, 영상 복원과 관련하여서는 후술한다.The processor 500 estimates lighting information by inputting images of at least four channels obtained from the multispectral image sensor 100 to a pre-learned deep learning network, and uses the estimated lighting information to output the obtained images. color conversion is performed. The input image input to the deep learning network, learning, output, and image restoration of the deep learning network will be described later.

도 1b는 실시 예에 따른 영상 획득 장치의 개략적인 구조를 보이는 블록도이다. Figure 1b is a block diagram showing a schematic structure of an image capture device according to an embodiment.

도 1b를 참조하면, 영상 획득 장치는 멀티스펙트럴 이미지 센서(100), 이미지 센서(200), 및 프로세서(500)를 포함한다. 실시 예에 따른 영상 획득 장치는 복수의 이미지 센서를 이용하여 촬영되는 영상에 대해 화이트밸런스를 수행한다. 이미지 센서(200)는 제1 파장 대역의 제1 영상을 획득한다. 제 2 파장 대역은 제1 파장 대역을 포함하고 그보다 더 넓을 수 있다. 멀티스펙트럴 이미지 센서(100)는 제2 파장 대역의 제2 영상을 획득한다. 여기서, 이미지 센서(200)는 RGB 이미지 센서이고, 멀티스펙트럴 이미지 센서(100)는 멀티스펙트럴이미지(Multispectral image, 이하 MSI라 한다) 센서일 수 있다. RGB 이미지 센서는 R 채널, G 채널 및 B 채널을 가진다. MSI 센서는 RGB 센서보다 더 많은 수의 채널을 가짐으로써 더 많은 파장 대역의 빛을 센싱한다. 실시 예에서, 멀티스펙트럴 이미지 센서(100)는 10nm 내지 1000nm의 제2 파장 대역 기반의 4개 채널 이상의 영상들을 획득할 수 있다. 또한, 멀티스펙트럴 이미지 센서(100)는 10nm 내지 1000nm 파장 범위내에서 16개 채널을 영상들을 생성하거나, 16개 채널의 영상들을 보간하여 31개 채널의 영상들을 생성할 수도 있다.Referring to FIG. 1B , the image capture device includes a multispectral image sensor 100 , an image sensor 200 , and a processor 500 . An image capture device according to an embodiment performs white balance on an image captured using a plurality of image sensors. The image sensor 200 acquires a first image of a first wavelength band. The second wavelength band may include and be wider than the first wavelength band. The multispectral image sensor 100 acquires a second image of a second wavelength band. Here, the image sensor 200 may be an RGB image sensor, and the multispectral image sensor 100 may be a multispectral image (MSI) sensor. An RGB image sensor has an R channel, a G channel and a B channel. The MSI sensor has a larger number of channels than the RGB sensor, so it senses light in more wavelength bands. In an embodiment, the multispectral image sensor 100 may obtain images of four or more channels based on the second wavelength band of 10 nm to 1000 nm. Also, the multispectral image sensor 100 may generate images of 16 channels within a wavelength range of 10 nm to 1000 nm, or may generate images of 31 channels by interpolating images of 16 channels.

이미지 센서(200)는 일반적인 RGB 카메라에 채용되는 센서로서, 베이어 컬러 필터 어레이를 사용하는 CMOS 이미지센서일 수 있다. 이미지 센서(200)가 획득하는 제1 영상(IM1)은 적색, 녹색, 청색 기반의 RGB 영상일 수 있다. The image sensor 200 is a sensor employed in a general RGB camera, and may be a CMOS image sensor using a Bayer color filter array. The first image IM1 acquired by the image sensor 200 may be an RGB image based on red, green, and blue.

멀티스펙트럴 이미지 센서(100)는 이미지 센서(200)보다 더 많은 종류의 파장의 광을 센싱하는 센서이다. 멀티스펙트럴 이미지 센서(100)는 예를 들어, 16개의 채널을 사용할 수 있고, 또는 31개의 채널, 또는 기타, 다른 개수의 채널을 사용할 수 있다. 각 채널의 대역폭은 R, G, B 대역보다 더 좁게 설정되며, 모든 채널의 대역폭을 합한 전체 대역폭은 RGB 대역폭, 즉, 가시광선 대역폭을 포함하며 이보다 넓을 수 있다. 예를 들어, 10nm 내지 1000nm의 대역폭을 가질 수 있다. 멀티스펙트럴 이미지 센서(100)가 획득하는 제2 영상(IM2)은 멀티스펙트럴(multispectral) 또는 초분광(hyperspectral) 영상일 수 있으며, RGB 파장 대역보다 넓은 파장 대역, 예를 들어, 가시광선 대역을 포함하며 이보다 넓은 파장 대역인 자외선 내지 적외선 파장 대역을 16개 이상의 채널로 분할한 파장 기반의 영상일 수 있다. 제2 영상(IM2)은 멀티스펙트럴 이미지 센서(100)의 가용한 모든 수의 채널을 활용하여 취득한 영상일 수 있고, 또는, 특정 채널을 선별하여 취득한 영상일 수도 있다. 제2 영상(IM2)의 공간 해상도는 제1 영상(IM1)의 공간 해상도보다 낮을 수 있으며, 다만, 이에 한정되지는 않는다. The multispectral image sensor 100 is a sensor that senses light of more types of wavelengths than the image sensor 200 . The multispectral image sensor 100 may use, for example, 16 channels, or may use 31 channels, or any other number of channels. The bandwidth of each channel is set to be narrower than the R, G, and B bands, and the total bandwidth of the sum of the bandwidths of all channels includes the RGB bandwidth, that is, the visible light bandwidth, and may be wider than this. For example, it may have a bandwidth of 10 nm to 1000 nm. The second image IM2 obtained by the multispectral image sensor 100 may be a multispectral or hyperspectral image, and may be a wavelength band wider than the RGB wavelength band, for example, the visible ray band. It may be a wavelength-based image obtained by dividing an ultraviolet or infrared wavelength band, which is a wider wavelength band, into 16 or more channels. The second image IM2 may be an image obtained by utilizing all available channels of the multispectral image sensor 100 or may be an image obtained by selecting a specific channel. The spatial resolution of the second image IM2 may be lower than that of the first image IM1, but is not limited thereto.

실시 예에서, 이미지 센서(200)는 RGB 센서일 수 있다. 이때 RGB 센서는 CMOS 이미지센서일 수 있다. RGB센서는 베이어 컬러 필터 어레이(Bayer color filter array)를 사용하여 R, G, B를 나타내는 스펙트럼을 각각 센싱한 세 가지 채널의 영상을 생성할 수 있다. 또한, 다른 종류의 컬러 필터 어레이를 사용할 수 있음은 물론이다. MSI 센서는 RGB 센서와는 다른 파장의 빛을 센싱하여 나타낸다. MSI 센서는 채널의 수를 더 많이 가짐으로써 더 많은 종류의 파장의 빛을 센싱하는 것을 특징으로 한다. 특정 예에서 채널의 수는 16개의 채널을 사용할 수 있다. 다른 예에서 31개의 채널을 사용할 수 있다. 각 채널은 원하는 대역의 빛을 센싱하도록 빛이 투과하는 대역 및 투과량, 그리고 대역폭을 조정할 수 있다. 모든 채널의 대역폭을 합하여 구성되는 전체 대역폭은 기존의 RGB 센서의 대역폭을 포함하고 그보다 더 넓을 수 있다. RGB센서와 MSI센서의 센싱 스펙트럼 또는 파장 대역은 도 8 및 12를 참조하여 후술한다.In an embodiment, the image sensor 200 may be an RGB sensor. In this case, the RGB sensor may be a CMOS image sensor. The RGB sensor may generate images of three channels by sensing spectrums representing R, G, and B using a Bayer color filter array. Also, it goes without saying that other types of color filter arrays may be used. The MSI sensor senses and displays light of a different wavelength than the RGB sensor. The MSI sensor is characterized by sensing light of more types of wavelengths by having a larger number of channels. In a specific example, the number of channels may use 16 channels. In another example, 31 channels may be used. Each channel can adjust a band through which light passes, a transmission amount, and a bandwidth so as to sense light of a desired band. A total bandwidth formed by summing the bandwidths of all channels includes the bandwidth of a conventional RGB sensor and may be wider than that. Sensing spectrums or wavelength bands of the RGB sensor and the MSI sensor will be described later with reference to FIGS. 8 and 12 .

프로세서(500)는 멀티스펙트럴 이미지 센서(100)로부터 획득된 4개 채널 이상의 영상들을 미리 학습된 딥러닝 네트워크에 입력하여 조명 정보를 추정한다. 프로세서(500)는 딥러닝 네트워크를 통해 출력된 조명 정보를 이용하여 영상에 대해 색변환을 수행한다. 여기서, 조명 정보는 조명의 스펙트럼의 세기에 상응하는 조명 벡터, 조명의 색상을 나타내는 XYZ 벡터, 조명의 색상을 나타내는 RGB 벡터, 조명의 색온도, 또는 미리 저장된 조명 정보를 나타내는 인덱스 값일 수 있다. The processor 500 estimates lighting information by inputting images of four or more channels obtained from the multispectral image sensor 100 to a pre-trained deep learning network. The processor 500 performs color conversion on an image using lighting information output through a deep learning network. Here, the lighting information may be a lighting vector corresponding to the intensity of a light spectrum, an XYZ vector representing a color of lighting, an RGB vector representing a color of lighting, a color temperature of lighting, or an index value representing previously stored lighting information.

또한, 프로세서(500)는 멀티스펙트럴 이미지 센서(100)로부터 획득한 16개 채널의 영상들 또는 31개 채널의 영상들을 딥러닝 네트워크에 입력할 수 있다. Also, the processor 500 may input images of 16 channels or images of 31 channels obtained from the multispectral image sensor 100 to the deep learning network.

도 3a 및 3b를 참조하면, 멀티스펙트럴 이미지 센서로 획득한 RAW 영상과 디모자이싱(demosaic) 후의 영상을 나타낸다. 도 3a에 도시된 RAW 영상에서 하나의 작은 사각형은 하나의 화소를 나타낸다. 사각형 내의 숫자는 채널 번호를 나타낸다. 도시된 것처럼, RAW 영상에서는 서로 다른 채널, 예를 들면 16개 채널에 해당하는 화소들이 섞여있다. 도 3b에 도시된 것처럼, 디모자이싱을 통해, 같은 채널의 화소들을 모아서 각 채널의 영상을 생성한다. 프로세서(500)는 도 3a 및 3b에 도시된 것과 같이, 생성된 영상들은 딥러닝 네트워크에 입력하여 조명 정보를 추정할 수 있다. Referring to FIGS. 3A and 3B , a RAW image acquired by a multispectral image sensor and an image after demosaicing are shown. In the RAW image shown in FIG. 3A, one small square represents one pixel. Numbers in squares represent channel numbers. As shown, in the RAW image, pixels corresponding to different channels, for example, 16 channels are mixed. As shown in FIG. 3B , an image of each channel is generated by collecting pixels of the same channel through demosaicing. As shown in FIGS. 3A and 3B , the processor 500 may estimate lighting information by inputting the generated images to a deep learning network.

프로세서(500)는 추정된 조명을 사용하여 색변환, AWB 또는 색상 보정을 수행할 수 있다. 이때, AWB 또는 색상 보정의 대상은 이미지 센서(200)로부터 획득한 영상일 수 있다. 이미지 센서(200)와 멀티스펙트럴 이미지 센서(100)는 동일한 장면을 촬영하여, 멀티스펙트럴 이미지 센서(100)로부터 추정한 조명 정보를 이용하여, 이미지 센서(200)로 촬영된 영상을 보정할 수 있다. 또한, 도 1a에 도시된 것처럼, 멀티스펙트럴 이미지 센서(100)로부터 촬영된 영상을 보정할 수도 있다. 예를 들면, 멀티스펙트럴 이미지 센서(100)로부터 촬영된 영상들 중 R채널, G채널, B채널에 상응하는 영상들을 원본영상으로 하고, 4개 채널 이상, 16개 채널 또는 31 채널의 영상들을 이용하여 조명 정보를 추정하고, 추정된 조명 정보를 원본영상에 반영할 수도 있다. The processor 500 may perform color conversion, AWB, or color correction using the estimated illumination. In this case, an object of AWB or color correction may be an image obtained from the image sensor 200 . The image sensor 200 and the multispectral image sensor 100 capture the same scene and correct the image captured by the image sensor 200 using lighting information estimated from the multispectral image sensor 100. can Also, as shown in FIG. 1A , an image captured by the multispectral image sensor 100 may be corrected. For example, among images captured by the multispectral image sensor 100, images corresponding to channels R, G, and B are set as original images, and images of 4 or more channels, 16 channels, or 31 channels are used as original images. Lighting information may be estimated using the image, and the estimated lighting information may be reflected in the original image.

도 2는 도 1a에 도시된 영상 획득 장치의 상세 블록도이다. 도 2를 참조하면, 조명 정보를 추정하는 기능을 설명하기 위한 것으로, 멀티스펙트럴 이미지 센서(100)와 조명정보 추정장치(500)를 포함한다. 조명정보 추정장치(500)는 도 1a 및 도 1b에 도시된 프로세서(500)의 일부 기능 모듈일 수 있다. 도 1a 및 도 1b와 동일한 부분에 대해서는 설명을 생략하고, 조명정보 추정장치(500)를 중심으로 설명한다.2 is a detailed block diagram of the image capture device shown in FIG. 1A. Referring to FIG. 2 , for explaining a function of estimating lighting information, a multispectral image sensor 100 and an lighting information estimating device 500 are included. The lighting information estimator 500 may be some functional modules of the processor 500 shown in FIGS. 1A and 1B. Descriptions of the same parts as those of FIGS. 1A and 1B will be omitted, and the lighting information estimating device 500 will be mainly described.

조명정보 추정장치(500)는 입력부(510), 딥러닝 네트워크(520) 및 출력부(530)를 포함한다. 조명정보 추정장치(500)는 멀티스펙트럴 이미지 센서(100)로부터 10nm 내지 1000nm 파장 범위의 4개 채널 이상의 영상들을 입력받아, 각 채널 별 조명 스펙트럼을 출력할 수 있다. The lighting information estimator 500 includes an input unit 510, a deep learning network 520, and an output unit 530. The illumination information estimator 500 may receive images of four or more channels in a wavelength range of 10 nm to 1000 nm from the multispectral image sensor 100 and output an illumination spectrum for each channel.

입력부(510)는 4개 채널 이상의 영상들을 딥러닝 네트워크에 입력한다. 여기서, 입력은 다음 중 하나 또는 그 이상의 조합으로 구성할 수 있다. 입력은 멀티스펙트럴 이미지 센서(100)에서 취득한 다채널 영상일 수 있다. 예를 들어, 16개의 채널을 취득하면, 16개의 채널 모두 또는 그 부분 채널을 입력으로 할 수 있다. 또 다른 방식으로, 16개의 채널을 이용하여 보다 많은 숫자의 채널 정보를 보간하여 생성한 뒤 입력할 수 있다. 예를 들면, 멀티스펙트럴 이미지 센서(100)로부터 획득한 16개 채널 영상들을 인터폴레이션하여 31개 채널을 생성하여, 31개 채널의 영상들을 입력할 수 있다. The input unit 510 inputs images of 4 or more channels to the deep learning network. Here, the input may consist of one or more combinations of the following. The input may be a multi-channel image acquired by the multispectral image sensor 100 . For example, if 16 channels are acquired, all of the 16 channels or a partial channel of the 16 channels can be input. Alternatively, a larger number of channel information may be interpolated and generated using 16 channels, and then input. For example, 31 channels may be generated by interpolating 16 channel images obtained from the multispectral image sensor 100, and images of the 31 channels may be input.

입력부(510)는 채널 영상을 입력할 때 그 파장 대역을 특정 간격으로 샘플링하여 입력할 수 있다. 여기서, 간격은 균일하거나 일정(uniform)한 간격일 수 있다. 또한, 입력부(510)는 채널 영상을 입력할 때 정규화(normalize)하여 입력할 수도 있다.When inputting a channel image, the input unit 510 may sample and input the wavelength band at a specific interval. Here, the interval may be a uniform or uniform interval. Also, when inputting a channel image, the input unit 510 may normalize and input the channel image.

입력 영상은 촬영 영상의 일부 혹은 전체를 사용할 수 있다. 또한, 입력 영상을 스케일링을 할 수도 있다. 또는 스케일링을 하지 않은 영상과 스케일링을 한 영상을 모두 사용할 수 있다. 또한 기타 다른 변환을 거친 영상을 사용할 수 있음은 물론이다. The input image may use part or all of the captured image. Also, the input image may be scaled. Alternatively, both an image without scaling and an image with scaling may be used. In addition, it goes without saying that images undergoing other conversions may be used.

딥러닝 네트워크(520)는 입력 영상에서 조명 정보를 추정한다. 딥러닝 네트워크는 컨볼루션 레이어와, 활성화함수인 렐루(ReLU) 레이어, 맥스풀링 레이어 및 fully-connected 레이어를 포함할 수 있다. 딥러닝 네트워크는 입력 영상들 각각에 대해 추정된 조명 정보와, 정답(ground truth) 조명의 각 오류(angular error) 값 등을 비교하여 학습할 수 있다. 딥러닝 네트워크(520)에 대해서는 도 4를 참조하여 후술한다.The deep learning network 520 estimates lighting information from an input image. The deep learning network may include a convolution layer, a ReLU layer as an activation function, a maxpooling layer, and a fully-connected layer. The deep learning network can learn by comparing lighting information estimated for each of the input images with angular error values of ground truth lighting. The deep learning network 520 will be described later with reference to FIG. 4 .

출력부(530)는 딥러닝 네트워크(520)로부터 추정된 조명 정보를 각 채널의 조명 스펙트럼의 세기 값을 가지는 벡터로 출력할 수 있다. 예를 들면, 31차원의 벡터를 출력할 수 있다. 이때 벡터의 요소 값은 각 채널에 대응되는 세기 값을 기록할 수 있다. 네트워크의 출력은 이미 저장된 조명 정보를 나타내는 인덱스 값일 수 있다. 네트워크의 출력은 조명 벡터일 수 있다. 이때 조명 벡터는 다차원 벡터일 수 있다. 예를 들면, 16채널 멀티스펙트럴 이미지 센서의 경우 16차원의 벡터를 출력할 수 있다. 또는, XYZ 색좌표 상에서 XYZ 값을 나타내는 3차원 벡터일 수 있다. 또는, RGB 색좌표 상에서 RGB 값을 나타내는 3차원 벡터일 수 있다. 또는, 조명의 색온도를 나타내는 색온도 값 혹은 인덱스 값일 수 있다.The output unit 530 may output the lighting information estimated from the deep learning network 520 as a vector having an intensity value of the lighting spectrum of each channel. For example, a 31-dimensional vector can be output. In this case, the element value of the vector may record the intensity value corresponding to each channel. The output of the network may be an index value representing already stored lighting information. The output of the network may be an illumination vector. In this case, the lighting vector may be a multi-dimensional vector. For example, in the case of a 16-channel multispectral image sensor, a 16-dimensional vector can be output. Alternatively, it may be a 3D vector representing XYZ values on the XYZ color coordinates. Alternatively, it may be a 3D vector representing RGB values on RGB color coordinates. Alternatively, it may be a color temperature value or an index value representing the color temperature of lighting.

출력부(530)는 전술한 출력 대신에 영상을 출력할 수도 있다. 이때, 영상의 (x, y) 위치는 각 픽셀 위치에서의 조명 정보를 기록할 수 있다. The output unit 530 may output an image instead of the above-described output. In this case, the (x, y) position of the image may record lighting information at each pixel position.

실시 예에서, 조명정보 추정장치(500) 또는 프로세서(500)는 딥러닝 네트워크 또는 신경망을 생성적 네트워크(generative network)를 사용하여 조명 정보를 반영하여 보정한 영상을 출력할 수도 있다. 이때, 보정 대상 영상은 멀티스펙트럴 이미지 센서(100)를 이용하여 촬영된 영상일 수 있다. 또한, 선택적으로 이미지 센서(200)를 이용하여 촬영된 영상일 수도 있다. 딥러닝 네트워크의 출력이 조명의 스펙트럼일 경우 이 정보를 사용하여 보정하고자 하는 영상의 색공간 상의 조명 벡터를 산출하고, 그 벡터의 각 엘리먼트 값으로 영상의 각 색상 화소 값을 나누어 AWB를 할 수 있다. 예를 들면, RGB 영상을 대상으로 AWB를 할 경우, 조명의 스펙트럼으로부터 RGB 벡터 [r, g, b]를 산출하고, 영상의 각 화소 값 [Ri, Gi, Bi]를 [Ri/r, Gi/g, Bi/b]와 같이 보정할 수 있다. 또는 크로스채널(cross-channel) 변환을 고려한 변환식을 사용하여 [Ri', Gi', Bi']' = M [Ri, Gi, Bi]', M은 3x3 변환 행렬을 사용하는 방법으로 영상을 보정할 수 있다. 또한, 입력이 정규화하여 입력되는 경우, 스케일 값을 곱하여 복원할 수도 있다. 입력 신호를 구성하는 채널과 출력 신호의 채널의 파장 대역이 상이한 경우는 출력 신호의 채널로부터 보간하여 복원할 수도 있다. In an embodiment, the lighting information estimator 500 or the processor 500 may output a corrected image by reflecting lighting information using a deep learning network or a generative network. In this case, the image to be corrected may be an image captured using the multispectral image sensor 100 . Also, it may be an image selectively photographed using the image sensor 200 . If the output of the deep learning network is the light spectrum, this information is used to calculate the light vector in the color space of the image to be corrected, and AWB can be performed by dividing the value of each color pixel of the image by the value of each element of the vector. . For example, when AWB is performed on an RGB image, an RGB vector [r, g, b] is calculated from the light spectrum, and each pixel value [Ri, Gi, Bi] of the image is calculated as [Ri/r, Gi /g, Bi/b]. Alternatively, [Ri', Gi', Bi']' = M [Ri, Gi, Bi]', M corrects the image by using a 3x3 transformation matrix using a conversion equation considering cross-channel transformation can do. In addition, when the input is normalized, it may be restored by multiplying the scale value. When the wavelength bands of the channel constituting the input signal and the channel of the output signal are different, interpolation may be performed from the channel of the output signal to restore the signal.

도 4는 다른 실시 예에 따른 조명 추정을 위한 딥러닝 네트워크의 개략 도이다.4 is a schematic diagram of a deep learning network for lighting estimation according to another embodiment.

도 4를 참조하면, 딥러닝 네트워크(410)는 멀티스펙트럴 영상들(400)을 입력받아, Fully connected 레이어(420)를 거쳐, 조명 정보(430, Lestimation)를 출력한다. 도 4를 참조하면, 입력 31개의 채널에 대하여, 31차원의 출력 벡터를 산출하는 과정이다. Referring to FIG. 4 , the deep learning network 410 receives multispectral images 400 and outputs illumination information 430 (Lestimation) through a fully connected layer 420. Referring to FIG. 4, this is a process of calculating a 31-dimensional output vector for 31 input channels.

도 4에 도시된 딥러닝 네트워크(410, 이하 CCNet)는 3개의 컨볼루션 레이어와 뒤따르는 활성화 함수인 렐루 함수(Rectified Linear Unit function, 이하 ReLU)와 맥스 풀링(Max pooling)으로 이루어질 수 있다. AWB 영상의 출력은 다음 수학식 2에서와 같이 CCNet에서 추정

Figure pat00007
을 구한 뒤에 관측 영상으로부터
Figure pat00008
을 구한다. 그리고
Figure pat00009
에 표준광원스펙트럼을 곱하여 AWB 영상을 복원할 수 있다. The deep learning network 410 (hereinafter referred to as CCNet) shown in FIG. 4 may be composed of three convolution layers followed by a Rectified Linear Unit function (hereinafter ReLU) as an activation function and Max pooling. The output of the AWB image is estimated from CCNet as shown in Equation 2 below.
Figure pat00007
After obtaining , from the observation image
Figure pat00008
save and
Figure pat00009
The AWB image can be restored by multiplying by the standard light source spectrum.

[수학식 2][Equation 2]

Figure pat00010
Figure pat00010

Figure pat00011
Figure pat00011

Figure pat00012
Figure pat00012

딥러닝 네트워크의 지도 학습(Supervised Learning)방식을 이용하며, 입력되는 다중 분광 영상에 대한 정답 조명 스펙트럼 벡터와 네트워크에서 출력되는 예측된 조명 스펙트럼 벡터 간의 평가를 통해 네트워크의 파라미터를 최적화할 수 있다. 이때, 네트워크는 실제 값과 네트워크의 예측 값의 차이(error)를 최소화하는 것을 목표로 한다. 조명 스펙트럼 벡터를 유추하는 회귀분석(Regression)을 이용할 수 있다.Using the supervised learning method of the deep learning network, the parameters of the network can be optimized through evaluation between the correct lighting spectrum vector for the input multi-spectral image and the predicted lighting spectrum vector output from the network. At this time, the network aims to minimize the difference (error) between the actual value and the predicted value of the network. Regression can be used to infer the lighting spectrum vector.

학습 평가에 사용하는 손실 함수는 각 손실(Angular Loss), L1 손실(MAE Loss), L2 손실(MSE Loss)의 하나 또는 그 이상을 이용할 수 있다.The loss function used for learning evaluation may use one or more of Angular Loss, L1 Loss (MAE Loss), and L2 Loss (MSE Loss).

각 손실(Angular Loss, Cosine Similarity Loss(π))을 사용하여 네트워크가 조명 스펙트럼의 개형(schematic shape)을 더 잘 학습하는 것을 목표로 한다. 조명 추정에 있어서 조명의 크기는 상대적 밝기(intensity)를 나타내는 것이므로 조명의 절대적 크기가 아닌 각 채널에 대한 조명 값 사이의 상대적인 차이를 학습하는 것이 중요하다. 각 손실은 벡터의 크기 자체가 아닌 벡터 간의 상대적인 방향(orientation)의 차이만을 고려하므로 전술한 조명의 특성을 고려하는 데에 적합하다. 따라서, 벡터의 크기가 아닌 방향에 대해서만 고려하는 각 손실을 역전파에 사용함으로써, 딥러닝 네트워크의 학습 효율을 높일 수 있다.Using the angular loss (Angular Loss, Cosine Similarity Loss(π)), we aim to make the network better learn the schematic shape of the lighting spectrum. In light estimation, since the size of light indicates relative intensity, it is important to learn the relative difference between the light values for each channel rather than the absolute size of light. Since each loss considers only a difference in relative orientation between vectors, not the magnitude of the vectors themselves, it is suitable for considering the above-described characteristics of lighting. Therefore, the learning efficiency of the deep learning network can be increased by using each loss, which considers only the direction rather than the size of the vector, for backpropagation.

실시 예에서, 딥러닝 네트워크는 전술한 각도 손실(Angular error), L1 손실 및 L2 손실을 포함하는 손실함수을 이용한다. 각도 손실외에, 일반적으로 회귀 모델에서 많이 사용되는 손실 함수 중 하나인 L1 Loss (MAE)와 L2 Loss (MSE)를 같이 사용할 수 있다. In an embodiment, the deep learning network uses a loss function including the aforementioned angular error, L1 loss, and L2 loss. In addition to angular loss, L1 Loss (MAE) and L2 Loss (MSE), which are generally one of the loss functions commonly used in regression models, can be used together.

각도 손실은 다음 수학식 3과 같이 정의할 수 있다. The angular loss can be defined as in Equation 3 below.

[수학식 3][Equation 3]

Figure pat00013
Figure pat00013

L1 손실은 다음 수학식 4과 같이 정의할 수 있다. The L1 loss can be defined as in Equation 4 below.

[수학식 4][Equation 4]

Figure pat00014
Figure pat00014

L2 손실은 다음 수학식 5과 같이 정의할 수 있다. The L2 loss can be defined as in Equation 5 below.

[수학식 5][Equation 5]

Figure pat00015
Figure pat00015

여기서,

Figure pat00016
는 입력 영상의 Ground Truth인 조명 정보이고,
Figure pat00017
은 출력 영상의 조명 정보이다. here,
Figure pat00016
is the lighting information that is the ground truth of the input image,
Figure pat00017
is the illumination information of the output image.

실시 예에서, 학습을 위한 데이터세트의 크기를 늘리기 위하여 합성 데이터 샘플을 이용할 수 있다. 합성 데이터 샘플은 아래와 같이 구성한다. In an embodiment, synthetic data samples may be used to increase the size of a dataset for training. The synthetic data sample is configured as follows.

반사도 맵(R)을 다음과 같은 방법 중의 하나 또는 이상으로 취득할 수 있다. Ground-truth 값을 취득한다. 제어된 환경의 조명 또는 주간 환경에서의 태양광 아래에서 취득한 영상에서 반사도 맵(R)을 추정하여 구한다.The reflectivity map R can be obtained by one or more of the following methods. Get the ground-truth value. A reflectivity map (R) is obtained by estimating from an image acquired under controlled lighting or sunlight in a daytime environment.

합성 조명은 랜덤 조명 스펙트럼이고, 다음 수학식 6과 같이 계산할 수 있다. The synthetic light is a random light spectrum, and can be calculated as shown in Equation 6 below.

[수학식 6][Equation 6]

Figure pat00018
Figure pat00018

여기서, a1,a2,a3,a4는 랜덤하게 생성한 가중치 값이고,

Figure pat00019
,
Figure pat00020
,
Figure pat00021
,
Figure pat00022
는 각각 백열조명, 주간조명, LED조명, 형광조명의 조명 스페트럼이다. 또한, 일정 랜덤 노이즈를 추가할 수 있다. Here, a1, a2, a3, a4 are randomly generated weight values,
Figure pat00019
,
Figure pat00020
,
Figure pat00021
,
Figure pat00022
is the lighting spectrum of incandescent lighting, daytime lighting, LED lighting, and fluorescent lighting, respectively. In addition, a certain random noise can be added.

합성 영상은 상기 수학식 6을 이용하여 계산한 합성 조명과 반사도 맵(R)을 곱하여 얻을 수 있다.A composite image may be obtained by multiplying the composite illumination calculated using Equation 6 and the reflectivity map R.

도 4에 도시된 CCNet에 입력 영상을 넣어 컨벌루션 연산 후에 출력 조명 벡터를 구할 수 있다. 이러한 경우 하나의 네트워크는 전체 입력 영상을 모두 보고 조명을 추정하므로 이러한 경우는 글로벌 조명 추정이라고 할 수 있다. 글로벌 조명 추정 이외에 다음과 같이 로컬 조명 추정 방식을 사용할 수도 있다. An output illumination vector can be obtained after convolution operation by inputting an input image to CCNet shown in FIG. 4 . In this case, one network estimates the lighting by looking at all the input images, so this case can be referred to as global lighting estimation. In addition to global illumination estimation, a local illumination estimation method can also be used as follows.

로컬 조명 추정 방식은 먼저 입력 영상을 패치 단위로 자르고 입력한다. 패치 단위로 자르고 입력할 때 패치를 선별적으로 입력한다. 예를 들어 특정 물체, 색상 히스토그램이 패치에 들어가는 경우에만 조명 추정 네트워크에 입력할 수 있다. 로컬에서 얻은 조명 스펙트럼을 모두 더하여 최종 결과 조명을 구성한다. 또는, 로컬에서 얻은 조명 스펙트럼을 선별적으로 합하여 최종 결과 조명을 구성할 수도 있다. 또는 로컬에서 얻은 조명 스펙트럼을 가중합하여 최종 결과 조명을 구성할 수도 있다. 또는, 로컬에서 얻은 조명 스펙트럼에서 일부 스펙트럼만 남도록 밴드 패스 필터링을 하고 나서, 남은 조명 스펙트럼을 합하여 최종 결과 조명을 구성할 수도 있다.The local illumination estimation method first cuts and inputs the input image in patch units. Selectively input patches when cutting and inputting in patch units. For example, a specific object, color histogram, can only be input into a lighting estimation network if it falls into a patch. All of the locally obtained light spectra are added together to form the final resultant light. Alternatively, the resulting illumination can be constructed by selectively summing locally obtained illumination spectra. Alternatively, a weighted sum of locally obtained light spectra can be used to construct the final resultant light. Alternatively, band-pass filtering may be performed so that only a part of the locally obtained light spectrum remains, and then the final resultant light may be configured by summing the remaining light spectra.

또한, 선택적으로, 글로벌 조명 추정 결과와 로컬 조명 추정 결과를 같이 사용할 수도 있다. Also, optionally, the global illumination estimation result and the local illumination estimation result may be used together.

글로벌 조명 추정 결과를 로컬에서 얻은 조명 스펙트럼과 모두 더하여 최종 결과 조명을 구성한다. 또는 글로벌 조명 추정 결과를 로컬에서 얻은 조명 스펙트럼과 선별적으로 합하여 최종 결과 조명을 구성할 수도 있다. 또는 글로벌 조명 추정 결과를 로컬에서 얻은 조명 스펙트럼과 가중합하여 최종 결과 조명을 구성할 수도 있다. 또는 글로벌 조명 추정 결과를 로컬에서 얻은 조명 스펙트럼과 일부 스펙트럼만 남도록 밴드 패스 필터링을 한다. 그리고 합하여 최종 결과 조명을 구성할 수도 있다. The global lighting estimation result is added together with the locally obtained lighting spectrum to form the final lighting result. Alternatively, the final lighting can be constructed by selectively summing the global lighting estimation result with the locally obtained lighting spectrum. Alternatively, the final result lighting can be constructed by weighting the global lighting estimation result with the lighting spectrum obtained locally. Alternatively, the global lighting estimation result is band-pass filtered so that only the locally acquired lighting spectrum and a partial spectrum remain. And it can also be combined to configure the final result lighting.

또한, 다수의 네트워크의 커널 사이즈와 입력 영상의 다운스케일 팩터를 이용하여 영상의 글로벌 영역과 로컬 영역을 모두 볼 수 있도록 하고 최종 조명 추정 결과를 산출하도록 할 수 있다.In addition, both the global area and the local area of the image can be viewed using the kernel size of multiple networks and the downscaling factor of the input image, and the final lighting estimation result can be calculated.

도 5는 또 다른 실시 예에 따른 조명 반사도 추정을 위한 딥러닝 네트워크의 개략 도이다. 실시 예에서, 영상의 관측 스펙트럼은 조명 스펙트럼과 반사도 맵의 합성으로 모델링할 수 있으므로, 반사도 맵을 같이 추정하여 AWB를 수행할 수도 있다. 5 is a schematic diagram of a deep learning network for estimating light reflectivity according to another embodiment. In an embodiment, since the observed spectrum of an image can be modeled as a combination of an illumination spectrum and a reflectivity map, AWB may be performed by estimating the reflectivity map together.

도 5를 참조하면, 도 4에 도시된 CCNET에 하단의 반사도 맵을 추정하는 별도의 딥러닝 네트워크를 추가하여, 반사도 맵 성분을 같이 추정할 수 있다.Referring to FIG. 5 , by adding a separate deep learning network for estimating the lower albedo map to the CCNET shown in FIG. 4 , the albedo map component can be estimated together.

이때 반사도 맵(R)을 추정하도록 네트워크를 구성할 수 있지만, 그 대신 사전에 구하여 얻은 변환 행렬(B)를 이용하여 R=BC의 관계로부터 계수(C)를 네트워크 출력에서 산출한 뒤에 추정 반사도 맵(BC")를 구하고 추정 조명 벡터(L")을 곱해 영상(D")을 출력한다. 도 5를 참조하면, B는 주성분 분석으로부터 구하거나, 별도의 네트워크로부터 학습하여 구할 수 있다.At this time, the network can be configured to estimate the reflectivity map (R), but instead, the coefficient (C) is calculated from the network output from the relationship of R = BC using the transformation matrix (B) obtained in advance, and then the estimated reflectivity map (BC") is obtained and the estimated illumination vector (L") is multiplied to output an image (D"). Referring to FIG. 5, B can be obtained from principal component analysis or learned from a separate network.

도 5에 도시된 딥러닝 네트워크는 원본 영상(D)와 추정 영상(D")의 차이를 최소화 하도록 역전파로 학습시킬 수 있다. 도 4 및 5에 도시된 바와 같이, 조명 성분과 반사도 성분은 두 개의 서로 다른 가지(branch)로 구성된 신경망을 이용하지만 추정 과정에서 서로 간의 정보를 이용할 수 있도록 계층 별로 피처 정보를 교환하거나 이용하여 최종 출력 영상을 구할 수도 있다.The deep learning network shown in FIG. 5 can be trained by backpropagation to minimize the difference between the original image (D) and the estimated image (D"). As shown in FIGS. 4 and 5, the illumination component and the reflectance component are two Although a neural network composed of different branches is used, the final output image may be obtained by exchanging or using feature information for each layer so that mutual information can be used in the estimation process.

도 5에 도시된 반사도 성분은 연속하는 컨볼루션 레이어를 통해 최종 값을 출력하지만 이때 영상의 분할 또는 의미론적 분할이나 객체 탐지, 히스토그램 등 같은 부가 정보를 사용하여 결과를 출력할 수도 있다.The reflectivity component shown in FIG. 5 outputs a final value through successive convolution layers, but at this time, the result may be output using additional information such as image segmentation or semantic segmentation, object detection, or a histogram.

도 6 및 7은 도 1b에 도시된 영상 획득 장치에 구체적인 구성에 관한 것으로, 도 6은 실시예에 따른 영상 획득 장치의 개략적인 구조를 보이는 개념도이고, 도 7은 실시예에 따른 영상 획득 장치에 구비되는 이미지 센서, 멀티스펙트럴 이미지 센서의 회로 구성을 보인다.6 and 7 relate to a specific configuration of the image capture device shown in FIG. 1B, FIG. 6 is a conceptual diagram showing a schematic structure of the image capture device according to an embodiment, and FIG. 7 is a view of the image capture device according to the embodiment. The image sensor and the circuit configuration of the multispectral image sensor are shown.

영상 획득 장치(1000)는 10nm 내지 1000nm의 제1 파장 대역 기반의 제1 영상(IM1)을 획득하는 멀티스펙트럴 이미지 센서(100), 제2 파장 대역 기반의 제2 영상(IM2)을 획득하는 이미지 센서(200) 및 제1 영상(IM1) 및 제2 영상(IM2)을 신호 처리하여, 제3 영상을 생성하는 프로세서(500)를 포함한다. 영상 획득 장치(1000)는 또한, 제1 영상(IM1)에 관한 데이터가 저장되는 제1 메모리(300)와, 제2 영상(IM2)에 관한 데이터가 저장되는 제2 메모리(310)를 더 포함할 수 있고, 영상을 출력하는 영상 출력부(700)를 더 포함할 수 있다. The image acquisition device 1000 includes a multispectral image sensor 100 that acquires a first image IM1 based on a first wavelength band of 10 nm to 1000 nm, and a multispectral image sensor 100 that acquires a second image IM2 based on a second wavelength band. The processor 500 generates a third image by signal processing the image sensor 200 and the first image IM1 and the second image IM2. The image capture device 1000 further includes a first memory 300 storing data related to the first image IM1 and a second memory 310 storing data related to the second image IM2. and may further include an image output unit 700 that outputs an image.

영상 획득 장치(1000)는 또한, 멀티스펙트럴 이미지 센서(100)에 피사체(OBJ)의 광학 상(optical image)을 형성하는 제1 이미징 광학계(190), 이미지 센서(200)에 피사체(OBJ)의 광학 상을 형성하는 제2 이미징 광학계(290)를 포함할 수 있다. 제1 이미징 광학계(190)과 제2 이미징 광학계(290)는 각각 하나의 렌즈를 포함하는 것으로 도시되어 있으나, 이는 예시적인 것이며 이에 한정되지 않는다. 제1 이미징 광학계(190)와 제2 이미징 광학계(290)는 같은 초점 거리와 같은 화각을 가지도록 구성될 수 있고 이 경우, 제 3 영상(IM3)을 형성하기 위해 제1 영상(IM1)과 제2 영상(IM2)을 정합하는 과정이 보다 용이할 수 있다. 다만, 이에 한정되는 것은 아니다.The image acquisition device 1000 also includes a first imaging optical system 190 that forms an optical image of the object OBJ in the multispectral image sensor 100 and the object OBJ in the image sensor 200. It may include a second imaging optical system 290 forming an optical image of. The first imaging optical system 190 and the second imaging optical system 290 are illustrated as including one lens, but this is exemplary and not limited thereto. The first imaging optical system 190 and the second imaging optical system 290 may be configured to have the same focal length and the same angle of view. In this case, the first image IM1 and the second imaging optical system 290 are formed to form the third image IM3. A process of matching the two images IM2 may be easier. However, it is not limited thereto.

멀티스펙트럴 이미지 센서(100)는 제1 화소 어레이(PA1)를 포함하며, 제1 화소 어레이(PA1)는 복수의 제1 센싱 요소가 어레이된 제1 센서층(110)과, 제1 센서층(110) 상에 배치된 분광 필터(120)를 포함한다. 분광 필터(120)는 복수의 필터 그룹을 포함하며, 복수의 필터 그룹 각각은 투과 파장 대역이 다른 복수의 유닛 필터로 이루어질 수 있다. 분광 필터(120)는 컬러 필터(220)보다 넓은 파장 대역, 예를 들어, 자외선 내지 적외선 파장 범위의 파장 대역을 컬러 필터(220)보다 세분하여 필터링하도록 구성될 수 있다. 제1 화소 어레이(PA1) 상에는 제1 마이크로 렌즈 어레이(130)가 배치될 수 있다. 제1 화소 어레이(PA1)에 적용되는 화소 배열의 예시는 도 13-15를 참조하여 후술한다. The multispectral image sensor 100 includes a first pixel array PA1 , wherein the first pixel array PA1 includes a first sensor layer 110 in which a plurality of first sensing elements are arrayed, and the first sensor layer and a spectroscopic filter 120 disposed on 110. The spectral filter 120 includes a plurality of filter groups, and each of the plurality of filter groups may include a plurality of unit filters having different transmission wavelength bands. The spectral filter 120 may be configured to subdivide and filter a wavelength band wider than the color filter 220 , eg, a wavelength range of ultraviolet to infrared wavelengths than the color filter 220 . A first micro-lens array 130 may be disposed on the first pixel array PA1. An example of a pixel arrangement applied to the first pixel array PA1 will be described later with reference to FIGS. 13 to 15 .

이미지 센서(200)는 제2 화소 어레이(PA2)를 포함하며, 제2 화소 어레이(PA2)는 복수의 제2 센싱 요소가 어레이된 제2 센서층(210)과, 제2 센서층(210) 상에 배치된 컬러 필터(220)를 포함한다. 컬러 필터(220)는 교번 배열된 적색 필터들, 녹색 필터들, 청색 필터들을 포함할 수 있다. 제2 화소 어레이(PA2) 상에는 제2 마이크로 렌즈 어레이(230)가 배치될 수 있다. 제2 화소 어레이(PA2)에 적용되는 화소 배열의 다양한 예시는 도 8-11을 참조하여 후술한다.The image sensor 200 includes a second pixel array PA2 , and the second pixel array PA2 includes a second sensor layer 210 in which a plurality of second sensing elements are arrayed, and the second sensor layer 210 and a color filter 220 disposed thereon. The color filter 220 may include red filters, green filters, and blue filters that are alternately arranged. A second micro lens array 230 may be disposed on the second pixel array PA2 . Various examples of pixel arrangements applied to the second pixel array PA2 will be described later with reference to FIGS. 8-11 .

제1 센서층(110), 제2 센서층(210)은 CCD(charge coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 포함할 수 있으며, 이에 한정되지는 않는다.The first sensor layer 110 and the second sensor layer 210 may include, but are not limited to, a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor.

제1 화소 어레이(PA1)와 제2 화소 어레이(PA2)는 같은 회로 기판(SU) 상에 수평적으로, 예를 들어, X 방향으로 이격되게 배치될 수 있다.The first pixel array PA1 and the second pixel array PA2 may be disposed horizontally, eg, spaced apart from each other in the X direction, on the same circuit board SU.

회로 기판(SU)에는 제1 센서층(110)으로부터의 신호를 처리하는 제1 회로 요소들과, 제2 센서층(210)으로부터의 신호를 처리하는 제2 회로 요소들이 구비될 수 있다. 다만, 이에 한정되지 않으며, 제1 회로 요소들과 제2 회로 요소들은 각각 별도의 기판에 구비되는 것도 가능하다. The circuit board SU may include first circuit elements that process signals from the first sensor layer 110 and second circuit elements that process signals from the second sensor layer 210 . However, it is not limited thereto, and the first circuit elements and the second circuit elements may be provided on separate substrates.

제1 영상(IM1)과 제2 영상(IM2)에 대한 데이터가 저장되는 메모리(300)는 회로 기판(SU)과 별개로 도시되었으나, 이는 예시적이며, 회로 기판(SU) 내에, 회로 요소들과 같은 층으로, 또는 별도의 층으로 구분되어 배치될 수도 있다. 메모리(300)는 영상을 라인 단위로 저장하는 라인 메모리일 수 있고, 영상 전체를 저장하는 프레임 버퍼일수도 있다. 메모리(300)에는 SRAM(static random access memory), 또는 DRAM(dynamic random access memory)가 사용될 수 있다.The memory 300 in which data for the first image IM1 and the second image IM2 are stored is shown separately from the circuit board SU, but this is exemplary, and circuit elements are included in the circuit board SU. It may be arranged in the same layer or divided into separate layers. The memory 300 may be a line memory that stores an image in units of lines, or may be a frame buffer that stores an entire image. A static random access memory (SRAM) or a dynamic random access memory (DRAM) may be used for the memory 300 .

회로 기판(SU)에 영상 획득 장치(1000)에 필요한 다양한 회로 요소들이 집적 배치될 수 있다. 예를 들어, 다양한 아날로그 회로, 디지털 회로 들을 포함하는 로직 레이어가 구비될 수 있고, 데이터가 저장되는 메모리 레이어가 구비될 수 있다. 로직 레이어와 메모리 레이어는 다른 층으로 구성되거나 또는 같은 층으로 구성될 수 있다.Various circuit elements necessary for the image capture device 1000 may be integrated and disposed on the circuit board SU. For example, a logic layer including various analog circuits and digital circuits may be provided, and a memory layer storing data may be provided. The logic layer and the memory layer may be composed of different layers or the same layer.

도 7을 참조하면, 제1 화소 어레이(PA1)에 로우 디코더(102), 출력 회로(103), 타이밍 컨트롤러(TC)(101)가 연결된다. 로우 디코더(102)는 타이밍 컨트롤러(101)로부터 출력된 로우 어드레스 신호에 응답하여 제1 화소 어레이(PA1)의 로우들 하나를 선택한다. 출력 회로(103)는 선택된 로우를 따라 배열된 복수의 화소로부터 컬럼 단위로 광감지 신호를 출력한다. 이를 위하여, 출력 회로(103)는 컬럼 디코더와 아날로그-디지털 변환기(ADC; analog to digital converter)를 포함할 수 있다. 예를 들어, 출력 회로(103)는 컬럼 디코더와 제1 화소 어레이(PA1) 사이에서 컬럼 별로 각각 배치된 복수의 ADC, 또는, 컬럼 디코더의 출력단에 배치된 하나의 ADC를 포함할 수 있다. 타이밍 컨트롤러(101), 로우 디코더(102), 및 출력 회로(103)는 하나의 칩 또는 각각 별개의 칩으로 구현될 수 있다. 출력 회로(103)를 통해 출력된 제1 영상(IM1)을 처리하기 위한 프로세서가 타이밍 컨트롤러(101), 로우 디코더(102), 및 출력 회로(103)와 함께 하나의 칩으로 구현될 수도 있다. Referring to FIG. 7 , a row decoder 102 , an output circuit 103 , and a timing controller (TC) 101 are connected to the first pixel array PA1 . The row decoder 102 selects one row of the first pixel array PA1 in response to the row address signal output from the timing controller 101 . The output circuit 103 outputs a photo-sensing signal in units of columns from a plurality of pixels arranged along the selected row. To this end, the output circuit 103 may include a column decoder and an analog to digital converter (ADC). For example, the output circuit 103 may include a plurality of ADCs respectively disposed for each column between the column decoder and the first pixel array PA1, or one ADC disposed at an output terminal of the column decoder. The timing controller 101, the row decoder 102, and the output circuit 103 may be implemented as one chip or separate chips. A processor for processing the first image IM1 output through the output circuit 103 may be implemented as a single chip together with the timing controller 101 , the row decoder 102 , and the output circuit 103 .

제2 화소 어레이(PA2)에도 로우 디코더(202), 출력 회로(203), 타이밍 컨트롤러(TC)(201)가 연결되고, 상술한 바와 유사하게, 제2 화소 어레이(PA2)로부터의 신호가 처리될 수 있다. 또한, 출력 회로(203)를 통해 출력된 제2 영상(IM2)을 처리하기 위한 프로세서가 타이밍 컨트롤러(201), 로우 디코더(202), 및 출력 회로(203)와 함께 하나의 칩으로 구현될 수도 있다. The row decoder 202, the output circuit 203, and the timing controller (TC) 201 are also connected to the second pixel array PA2, and signals from the second pixel array PA2 are processed similarly to the above. It can be. In addition, a processor for processing the second image IM2 output through the output circuit 203 may be implemented as a single chip together with the timing controller 201, the row decoder 202, and the output circuit 203. there is.

제1 화소 어레이(PA1)와 제2 화소 어레이(PA2)는 화소 크기, 개수가 같게 도시되었으나, 이는 편의상의 예시이며 이에 한정되는 것은 아니다.Although the first pixel array PA1 and the second pixel array PA2 have the same size and number of pixels, this is an example for convenience and is not limited thereto.

서로 다른 종류의 두 센서를 동작시킴에 있어서, 서로 다른 해상도 및 출력 속도, 그리고 영상 정합에 필요한 영역의 크기에 따라 타이밍 제어(timing control)가 필요할 수 있다. 예를 들어, 이미지 센서(200)를 기준으로 하나의 영상 열을 읽어 들일 때 그 영역에 해당하는 멀티스펙트럴 이미지 센서(100)의 영상 열은 이미 버퍼에 저장되어 있을 수도 있고 새로 읽어 들여야 할 수도 있다. 또는 이미지 센서(200), 멀티스펙트럴 이미지 센서(100)의 동작은 같은 동기(synchronization) 신호를 사용하여 동기화될 수 있다. 예를 들어, 타이밍 컨트롤러(400)가 더 구비되어, 이미지 센서(200), 멀티스펙트럴 이미지 센서(100)에 동기 신호(sync.)를 전송할 수도 있다. In operating two different types of sensors, timing control may be required according to different resolutions and output speeds, and the size of a region required for image matching. For example, when reading one image column based on the image sensor 200, the image column of the multispectral image sensor 100 corresponding to that area may be already stored in a buffer or may need to be newly read. there is. Alternatively, operations of the image sensor 200 and the multispectral image sensor 100 may be synchronized using the same synchronization signal. For example, the timing controller 400 may be further provided to transmit a sync signal (sync.) to the image sensor 200 and the multispectral image sensor 100 .

도 8은 실시예에 따른 영상 획득 장치에 구비되는 이미지 센서에 의한 파장 스펙트럼을 보이며, 도 9 내지 도 11은 실시예에 따른 영상 획득 장치에 구비되는 이미지 센서의 예시적인 화소 배열들을 보인다. 8 shows a wavelength spectrum by an image sensor included in an image capture device according to an embodiment, and FIGS. 9 to 11 show exemplary pixel arrangements of an image sensor included in an image capture device according to an embodiment.

도 9를 참조하면, 제2 화소 어레이(PA2)에 구비되는 컬러 필터(220)에는 적색(R), 녹색(G), 청색(B) 파장 대역을 필터링 하는 필터들이 베이어 패턴(Bayer pattern)으로 배열되어 있다. 즉, 하나의 단위 화소는 2ס¿2 어레이로 배열된 서브 화소를 포함하며, 복수의 단위 화소가 2차원적으로 반복 배열된다. 단위 화소의 1행에 적색 필터, 녹색 필터가 배치되고, 2행에 녹색 필터, 청색 필터가 배치된다. 화소 배열은 베이어 패턴 외에 다른 방식으로도 가능하다.Referring to FIG. 9 , the color filter 220 provided in the second pixel array PA2 includes filters filtering red (R), green (G), and blue (B) wavelength bands in a Bayer pattern. are arranged That is, one unit pixel includes sub-pixels arranged in a 2x2 array, and a plurality of unit pixels are repeatedly arranged two-dimensionally. A red filter and a green filter are disposed on one row of unit pixels, and a green filter and a blue filter are disposed on a second row of unit pixels. The pixel array may be arranged in a manner other than the Bayer pattern.

예를 들어, 도 10을 참조하면, 마젠타(Magenta) 화소(M), 사이안(Cyan) 화소(C), 옐로우(Yellow) 화소(Y), 및 녹색 화소(G)가 하나의 단위 화소를 구성하는 CYGM 방식의 배열도 가능하다. 또한, 도 11을 참조하면, 녹색 화소(G), 적색 화소(R), 청색 화소(B), 및 백색 화소(W)가 하나의 단위 화소를 구성하는 RGBW 방식의 배열도 가능하다. 또한, 도시되지는 않았지만 단위 화소가 3ס¿2 어레이 형태를 가질 수도 있다. 그 밖에도 제2 화소 어레이(PA2)의 화소들은 이미지 센서(200)의 색 특성에 따라 다양한 방식으로 배열될 수 있다. For example, referring to FIG. 10 , a magenta pixel (M), a cyan pixel (C), a yellow pixel (Y), and a green pixel (G) constitute one unit pixel. Arrangements of the CYGM method of construction are also possible. Also, referring to FIG. 11 , an RGBW method arrangement in which a green pixel (G), a red pixel (R), a blue pixel (B), and a white pixel (W) constitute one unit pixel is also possible. Also, although not shown, unit pixels may have a 3x2 array shape. In addition, pixels of the second pixel array PA2 may be arranged in various ways according to color characteristics of the image sensor 200 .

도 12는 실시예에 따른 영상 획득 장치에 구비되는 멀티스펙트럴 이미지 센서에 의한 파장 스펙트럼을 보이며, 도 13 내지 도 15는 실시예에 다른 영상 획득 장치의 멀티스펙트럴 이미지 센서의 예시적인 화소 배열을 보인다.12 shows a wavelength spectrum by a multispectral image sensor provided in an image capture device according to an embodiment, and FIGS. 13 to 15 show exemplary pixel arrangements of a multispectral image sensor of an image capture device according to another embodiment. see.

도 13을 참조하면, 제1 화소 어레이(PA1)에 구비되는 분광 필터(120)는 2차원 형태로 배열되는 복수의 필터 그룹(121)을 포함할 수 있다. 여기서, 각 필터 그룹(121)은 4ס¿4 어레이 형태로 배열되는 16개의 유닛 필터들(F1~F16)을 포함할 수 있다.Referring to FIG. 13 , the spectral filter 120 provided in the first pixel array PA1 may include a plurality of filter groups 121 arranged in a two-dimensional form. Here, each filter group 121 may include 16 unit filters F1 to F16 arranged in a 4×4 array form.

제1 및 제2 유닛 필터(F1, F2)는 자외선 영역의 중심 파장들(UV1, UV2)을 가질 수 있으며, 제3 내지 제5 유닛 필터(F3~F5)는 청색광 영역의 중심 파장들(B1~B3)을 가질 수 있다. 제6 내지 제11 유닛 필터(F6~F11)는 녹색광 영역의 중심 파장들(G1~G6)을 가질 수 있으며, 제12 내지 제14 유닛 필터(F12~F14)는 적색광 영역의 중심 파장들(R1~R3)을 가질 수 있다. 그리고 제15 및 제16 유닛 필터(F15, F16)는 근적외선 영역의 중심 파장들(NIR1, NIR2)을 가질 수 있다.The first and second unit filters F1 and F2 may have central wavelengths UV1 and UV2 in the ultraviolet region, and the third to fifth unit filters F3 to F5 may have central wavelengths B1 in the blue light region. ~B3). The sixth to eleventh unit filters F6 to F11 may have center wavelengths G1 to G6 of the green light region, and the twelfth to fourteenth unit filters F12 to F14 may have center wavelengths R1 of the red light region. ~R3). Also, the fifteenth and sixteenth unit filters F15 and F16 may have center wavelengths NIR1 and NIR2 in the near infrared region.

도 14는 분광 필터(120)에 구비되는 다른 예의 필터 그룹(122) 하나에 대한 평면도를 도시하고 있다. 도 14를 참조하면, 필터 그룹(122)은 3ס¿3 어레이 형태로 배열되는 9개의 유닛 필터들(F1~F9)을 포함할 수 있다. 여기서, 제1 및 제2 유닛 필터(F1, F2)는 자외선 영역의 중심 파장들(UV1, UV2)을 가질 수 있으며, 제4, 제5 및 제7 유닛 필터(F4, F5, F7)는 청색광 영역의 중심 파장들(B1~B3)을 가질 수 있다. 제3 및 제6 유닛 필터(F3, F6)는 녹색광 영역의 중심 파장들(G1, G2)을 가질 수 있으며, 제8 및 제9 유닛 필터(F8, F9)는 적색광 영역의 중심 파장들(R1, R2)을 가질 수 있다.14 is a plan view of one filter group 122 provided in the spectral filter 120 according to another example. Referring to FIG. 14 , the filter group 122 may include nine unit filters F1 to F9 arranged in a 3x3 array form. Here, the first and second unit filters F1 and F2 may have central wavelengths UV1 and UV2 of the ultraviolet region, and the fourth, fifth and seventh unit filters F4, F5 and F7 may have blue light. It may have center wavelengths B1 to B3 of the region. The third and sixth unit filters F3 and F6 may have center wavelengths G1 and G2 of the green light region, and the eighth and ninth unit filters F8 and F9 may have center wavelengths R1 of the red light region. , R2).

도 15는 분광 필터(120)에 구비되는 다른 예의 필터 그룹(123) 하나에 대한 평면도를 도시하고 있다. 도 15를 참조하면, 필터 그룹(123)은 5ס¿5 어레이 형태로 배열되는 25개의 유닛 필터들(F1~F25)을 포함할 수 있다. 여기서, 제1 내지 제3 유닛 필터(F1~F3)는 자외선 영역의 중심 파장들(UV1~UV3)을 가질 수 있으며, 제6, 제7, 제8, 제11 및 제12 유닛 필터(F6, F7, F8, F11, F12)는 청색광 영역의 중심 파장들(B1~B5)을 가질 수 있다. 제4, 제5 및 제9 유닛 필터(F4, F5, F9)는 녹색광 영역의 중심 파장들(G1~G3)을 가질 수 있으며, 제10, 제13, 제14, 제15, 제18 및 제19 유닛 필터(F10, F13, F14, F15, F18, F19)는 적색광 영역의 중심 파장들(R1~R6)을 가질 수 있다. 그리고 제20, 제23, 제24 및 제25 유닛 필터(F20, F23, F24, F25)는 근적외선 영역의 중심 파장들(NIR1~NIR4)을 가질 수 있다.15 is a plan view of one filter group 123 provided in the spectral filter 120 according to another example. Referring to FIG. 15 , the filter group 123 may include 25 unit filters F1 to F25 arranged in a 5×5 array form. Here, the first to third unit filters F1 to F3 may have central wavelengths UV1 to UV3 in the ultraviolet region, and the sixth, seventh, eighth, eleventh, and twelfth unit filters F6, F7, F8, F11, and F12) may have center wavelengths B1 to B5 of the blue light region. The fourth, fifth, and ninth unit filters F4, F5, and F9 may have center wavelengths G1 to G3 of the green light region, and may have tenth, thirteenth, fourteenth, fifteenth, 18th, and 18th unit filters. The 19 unit filters F10, F13, F14, F15, F18, and F19 may have central wavelengths R1 to R6 of the red light region. The 20th, 23rd, 24th, and 25th unit filters F20 , F23 , F24 , and F25 may have center wavelengths NIR1 to NIR4 in the near infrared region.

분광 필터(120)에 구비되는 상술한 유닛 필터들은 두 개의 반사판을 가지는 공진 구조를 가질 수 있으며 공진 구조의 특성에 따라 투과되는 파장 대역이 결정될 수 있다. 반사판의 재질 및 캐비티 내 유전 물질의 재질, 캐비티 두께에 따라 투과 파장 대역이 조절될 수 있다. 이 외에도, 그레이팅을 활용한 구조, DBR(distributed bragg reflector)을 활용한 구조 등이 유닛 필터에 적용될 수 있다.The above-described unit filters provided in the spectral filter 120 may have a resonance structure having two reflectors, and a transmitted wavelength band may be determined according to characteristics of the resonance structure. The transmission wavelength band may be adjusted according to the material of the reflector, the material of the dielectric material in the cavity, and the thickness of the cavity. In addition to this, a structure using a grating, a structure using a DBR (distributed bragg reflector), and the like may be applied to the unit filter.

이 외에도 제1 화소 어레이(PA1)의 화소들은 멀티스펙트럴 이미지 센서(100)의 색 특성에 따라 다양한 방식으로 배열될 수 있다.In addition to this, the pixels of the first pixel array PA1 may be arranged in various ways according to color characteristics of the multispectral image sensor 100 .

도 16은 다른 실시예에 따른 영상 획득 장치의 제어 방법을 개략적으로 설명하는 흐름 도이다.16 is a flowchart schematically illustrating a control method of an image capture device according to another embodiment.

도 16을 참조하면, 단계 1600에서, 10nm 내지 1000nm의 제2 파장 대역 기반의 적어도 4개 채널의 영상들을 획득한다. 여기서, 4개의 채널 영상은 MSI 센서로부터 획득한 영상이다.Referring to FIG. 16 , in step 1600, images of at least four channels based on a second wavelength band of 10 nm to 1000 nm are acquired. Here, the 4 channel images are images obtained from the MSI sensor.

단계 1602에서, 적어도 4개 채널의 영상들을 미리 학습된 딥러닝 네트워크에 입력한다. 여기서, 4개의 채널 영상들, 또는 16개 채널 영상들, 또는 31개 채널 영상들이 딥러닝 네트워트에 입력될 수 있다. In step 1602, images of at least four channels are input to a pretrained deep learning network. Here, 4 channel images, 16 channel images, or 31 channel images may be input to the deep learning network.

단계 1604에서, 조명 정보를 추정한다. 여기서, 조명 정보는, 조명의 스펙트럼의 세기에 상응하는 조명 벡터, 조명의 색상을 나타내는 XYZ 벡터, 조명의 색상을 나타내는 RGB 벡터, 조명의 색온도, 미리 저장된 조명 정보를 나타내는 인덱스 값 중 하나일 수 있다.In step 1604, lighting information is estimated. Here, the lighting information may be one of a lighting vector corresponding to the intensity of the lighting spectrum, an XYZ vector representing the color of the lighting, an RGB vector representing the color of the lighting, a color temperature of the lighting, and an index value representing previously stored lighting information. .

단계 1606에서, 추정된 조명 정보를 이용하여 획득된 영상에 대해 색변환을 수행한다. 여기서, 획득된 영상은 MSI센서로부터 생성된 4개 채널 영상이다. 또한, 획득된 영상은 추가 이미지 센서로부터 획득된 영상, 예를 들면 RGB이미지센서로부터 획득된 RGB영상일 수도 있다. In step 1606, color conversion is performed on the obtained image using the estimated lighting information. Here, the obtained image is a 4-channel image generated from the MSI sensor. Also, the obtained image may be an image obtained from an additional image sensor, for example, an RGB image obtained from an RGB image sensor.

실시 예에 따른 영상획득장치의 제어 방법은 다중 분광 영상을 사용함으로써, 파장 간의 중첩 효과를 최소화하여 RGB 컬러 영상을 사용하는 것보다 효과적인 AWB를 수행할 수 있다. 또한, 인간의 시각(visual)특성만 아니라 인지(perception) 특성까지 반영한 AWB 알고리즘을 도출할 수 있다. 또한, 영상 샘플을 취득하기 어려운 경우에 신경망을 학습하는 학습 기법을 적용할 수 있다. 또한, 화질의 객관적 평가만 아니라 AWB을 평가하는 주관적 특성과의 관계성 도출하여 선호하는 이미지 특성을 확인할 수 있다. 또한, 복잡한 광원하의 입력된 이미지의 실제 반사체 특성을 알아냄으로써 정밀한 측정 도구로 활용할 수도 있다. 또한, 영상에서 인간의 시각에 민감한 색상, 예를 들면 피부색 또는 자연색 등에서 심미적 특성을 보다 잘 드러낼 수 있다. The control method of the image capture device according to the embodiment can perform AWB more effectively than using an RGB color image by minimizing an overlapping effect between wavelengths by using a multi-spectral image. In addition, an AWB algorithm that reflects not only human visual characteristics but also perception characteristics can be derived. In addition, when it is difficult to acquire image samples, a learning technique for learning a neural network can be applied. In addition, it is possible to identify preferred image characteristics by deriving a relationship with subjective characteristics that evaluate AWB as well as objective evaluation of image quality. In addition, it can be used as a precise measurement tool by finding out the actual reflector characteristics of an input image under a complex light source. In addition, aesthetic characteristics can be better revealed in colors that are sensitive to human vision in an image, for example, skin color or natural color.

상술한 영상 획득 장치(1000)는 다양한 고성능 광학 장치 또는 고성능 전자 장치에 채용될 수 있다. 이러한 전자 장치는, 예컨대, 스마트 폰(smart phone), 휴대폰, 핸드폰, PDA(personal digital assistant), 랩톱(laptop), PC, 다양한 휴대용 기기, 가전 제품, 보안 카메라, 의료용 카메라, 자동차, 사물인터넷(IoT;Internet of Things) 기기, 기타 모바일 또는 비모바일 컴퓨팅 장치 일 수 있고, 이에 제한되지 않는다. The above-described image capture device 1000 may be employed in various high-performance optical devices or high-performance electronic devices. Such electronic devices include, for example, smart phones, mobile phones, cell phones, personal digital assistants (PDAs), laptops, PCs, various portable devices, home appliances, security cameras, medical cameras, automobiles, and the Internet of Things (IoT). It may be an Internet of Things (IoT) device or other mobile or non-mobile computing device, but is not limited thereto.

전자 장치는 영상 획득 장치(1000)외에도, 이에 구비된 이미지 센서들을 제어하는 프로세서, 예를 들면, 어플리케이션 프로세서(AP: Application Processor)를 더 포함할 수 있으며, 프로세서를 통해 운영 체제 또는 응용 프로그램을 구동하여 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서는 GPU (Graphic Processing Unit) 및/또는 이미지 신호 프로세서(Image Signal Processor)를 더 포함할 수 있다. 프로세서에 이미지 신호 프로세서가 포함되는 경우, 이미지센서에 의해 획득된 이미지(또는 영상)를 프로세서를 이용하여 저장 및/또는 출력할 수 있다.In addition to the image capture device 1000, the electronic device may further include a processor that controls image sensors included therein, for example, an application processor (AP), and drives an operating system or an application program through the processor. Thus, a plurality of hardware or software components can be controlled, and various data processing and calculations can be performed. The processor may further include a graphic processing unit (GPU) and/or an image signal processor. When the processor includes an image signal processor, the image (or video) obtained by the image sensor may be stored and/or output using the processor.

도 17은 실시예에 따른 전자 장치의 개략적인 구조를 보이는 블록도이다. 도 17을 참조하면, 네트워크 환경(ED00)에서 전자 장치(ED01)는 제1 네트워크(ED98)(근거리 무선 통신 네트워크 등)를 통하여 다른 전자 장치(ED02)와 통신하거나, 또는 제2 네트워크(ED99)(원거리 무선 통신 네트워크 등)를 통하여 또 다른 전자 장치(ED04) 및/또는 서버(ED08)와 통신할 수 있다. 전자 장치(ED01)는 서버(ED08)를 통하여 전자 장치(ED04)와 통신할 수 있다. 전자 장치(ED01)는 프로세서(ED20), 메모리(ED30), 입력 장치(ED50), 음향 출력 장치(ED55), 표시 장치(ED60), 오디오 모듈(ED70), 센서 모듈(ED76), 인터페이스(ED77), 햅틱 모듈(ED79), 카메라 모듈(ED80), 전력 관리 모듈(ED88), 배터리(ED89), 통신 모듈(ED90), 가입자 식별 모듈(ED96), 및/또는 안테나 모듈(ED97)을 포함할 수 있다. 전자 장치(ED01)에는, 이 구성요소들 중 일부(표시 장치(ED60) 등)가 생략되거나, 다른 구성요소가 추가될 수 있다. 이 구성요소들 중 일부는 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(ED76)(지문 센서, 홍채 센서, 조도 센서 등)은 표시 장치(ED60)(디스플레이 등)에 임베디드되어 구현될 수 있다. 또한, 이미지센서(1000)에 분광 기능이 포함될 경우, 센서 모듈의 일부 기능(컬러 센서, 조도 센서)이 별도의 센서 모듈이 아닌 이미지센서(1000) 자체에서 구현될 수 있다.17 is a block diagram showing a schematic structure of an electronic device according to an embodiment. Referring to FIG. 17 , in a network environment ED00, an electronic device ED01 communicates with another electronic device ED02 through a first network ED98 (such as a short-distance wireless communication network) or a second network ED99. It is possible to communicate with another electronic device ED04 and/or server ED08 via (a long-distance wireless communication network, etc.). The electronic device ED01 may communicate with the electronic device ED04 through the server ED08. The electronic device (ED01) includes a processor (ED20), a memory (ED30), an input device (ED50), an audio output device (ED55), a display device (ED60), an audio module (ED70), a sensor module (ED76), and an interface (ED77). ), haptic module (ED79), camera module (ED80), power management module (ED88), battery (ED89), communication module (ED90), subscriber identification module (ED96), and/or antenna module (ED97). can In the electronic device ED01, some of these components (such as the display device ED60) may be omitted or other components may be added. Some of these components can be implemented as a single integrated circuit. For example, the sensor module ED76 (fingerprint sensor, iris sensor, illuminance sensor, etc.) may be implemented by being embedded in the display device ED60 (display, etc.). In addition, when the image sensor 1000 includes a spectral function, some functions (color sensor, illuminance sensor) of the sensor module may be implemented in the image sensor 1000 itself instead of a separate sensor module.

프로세서(ED20)는, 소프트웨어(프로그램(ED40) 등)를 실행하여 프로세서(ED20)에 연결된 전자 장치(ED01) 중 하나 또는 복수개의 다른 구성요소들(하드웨어, 소프트웨어 구성요소 등)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 데이터 처리 또는 연산의 일부로, 프로세서(ED20)는 다른 구성요소(센서 모듈(ED76), 통신 모듈(ED90) 등)로부터 수신된 명령 및/또는 데이터를 휘발성 메모리(ED32)에 로드하고, 휘발성 메모리(ED32)에 저장된 명령 및/또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(ED34)에 저장할 수 있다. 프로세서(ED20)는 메인 프로세서(ED21)(중앙 처리 장치, 어플리케이션 프로세서 등) 및 이와 독립적으로 또는 함께 운영 가능한 보조 프로세서(ED23)(그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 커뮤니케이션 프로세서 등)를 포함할 수 있다. 보조 프로세서(ED23)는 메인 프로세서(ED21)보다 전력을 작게 사용하고, 특화된 기능을 수행할 수 있다. The processor ED20 may execute software (program ED40, etc.) to control one or a plurality of other components (hardware, software components, etc.) of the electronic device ED01 connected to the processor ED20, and , various data processing or calculations can be performed. As part of data processing or calculation, processor ED20 loads commands and/or data received from other components (sensor module ED76, communication module ED90, etc.) into volatile memory ED32 and The command and/or data stored in ED32) may be processed, and the resulting data may be stored in non-volatile memory ED34. The processor (ED20) includes a main processor (ED21) (central processing unit, application processor, etc.) and a co-processor (ED23) (graphics processing unit, image signal processor, sensor hub processor, communication processor, etc.) that can operate independently or together with it. can include The auxiliary processor ED23 may use less power than the main processor ED21 and perform specialized functions.

보조 프로세서(ED23)는, 메인 프로세서(ED21)가 인액티브 상태(슬립 상태)에 있는 동안 메인 프로세서(ED21)를 대신하여, 또는 메인 프로세서(ED21)가 액티브 상태(어플리케이션 실행 상태)에 있는 동안 메인 프로세서(ED21)와 함께, 전자 장치(ED01)의 구성요소들 중 일부 구성요소(표시 장치(ED60), 센서 모듈(ED76), 통신 모듈(ED90) 등)와 관련된 기능 및/또는 상태를 제어할 수 있다. 보조 프로세서(ED23)(이미지 시그널 프로세서, 커뮤니케이션 프로세서 등)는 기능적으로 관련 있는 다른 구성 요소(카메라 모듈(ED80), 통신 모듈(ED90) 등)의 일부로서 구현될 수도 있다. The auxiliary processor ED23 takes the place of the main processor ED21 while the main processor ED21 is inactive (sleep state), or the main processor ED21 is active (application execution state). Together with the processor ED21, functions and/or states related to some of the components of the electronic device ED01 (display device ED60, sensor module ED76, communication module ED90, etc.) may be controlled. can The auxiliary processor ED23 (image signal processor, communication processor, etc.) may be implemented as part of other functionally related components (camera module ED80, communication module ED90, etc.).

메모리(ED30)는, 전자 장치(ED01)의 구성요소(프로세서(ED20), 센서모듈(ED76) 등)가 필요로 하는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(프로그램(ED40) 등) 및, 이와 관련된 명령에 대한 입력 데이터 및/또는 출력 데이터를 포함할 수 있다. 메모리(ED30)는, 휘발성 메모리(ED32) 및/또는 비휘발성 메모리(ED34)를 포함할 수 있다. 비휘발성 메모리(ED32)는 전자 장치(ED01) 내에 고정 장착된 내장 메모리(ED36)과 탈착 가능한 외장 메모리(ED38)를 포함할 수 있다.The memory ED30 may store various data required by components (processor ED20, sensor module ED76, etc.) of the electronic device ED01. The data may include, for example, input data and/or output data for software (such as the program ED40) and commands related thereto. The memory ED30 may include a volatile memory ED32 and/or a non-volatile memory ED34. The non-volatile memory ED32 may include a built-in memory ED36 fixedly mounted in the electronic device ED01 and a removable external memory ED38.

프로그램(ED40)은 메모리(ED30)에 소프트웨어로 저장될 수 있으며, 운영 체제(ED42), 미들 웨어(ED44) 및/또는 어플리케이션(ED46)을 포함할 수 있다. The program ED40 may be stored as software in the memory ED30 and may include an operating system ED42, middleware ED44, and/or an application ED46.

입력 장치(ED50)는, 전자 장치(ED01)의 구성요소(프로세서(ED20) 등)에 사용될 명령 및/또는 데이터를 전자 장치(ED01)의 외부(사용자 등)로부터 수신할 수 있다. 입력 장치(ED50)는, 마이크, 마우스, 키보드, 및/또는 디지털 펜(스타일러스 펜 등)을 포함할 수 있다. The input device ED50 may receive a command and/or data to be used by a component (such as the processor ED20) of the electronic device ED01 from an external device (such as a user) of the electronic device ED01. The input device ED50 may include a microphone, mouse, keyboard, and/or a digital pen (stylus pen, etc.).

음향 출력 장치(ED55)는 음향 신호를 전자 장치(ED01)의 외부로 출력할 수 있다. 음향 출력 장치(ED55)는, 스피커 및/또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 리시버는 스피커의 일부로 결합되어 있거나 또는 독립된 별도의 장치로 구현될 수 있다.The sound output device ED55 may output sound signals to the outside of the electronic device ED01. The audio output device ED55 may include a speaker and/or a receiver. The speaker can be used for general purposes, such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call. The receiver may be incorporated as a part of the speaker or implemented as an independent separate device.

표시 장치(ED60)는 전자 장치(ED01)의 외부로 정보를 시각적으로 제공할 수 있다. 표시 장치(ED60)는, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 표시 장치(ED60)는 터치를 감지하도록 설정된 터치 회로(Touch Circuitry), 및/또는 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(압력 센서 등)를 포함할 수 있다. The display device ED60 may visually provide information to the outside of the electronic device ED01. The display device ED60 may include a display, a hologram device, or a projector and a control circuit for controlling the device. The display device ED60 may include a touch circuitry set to detect a touch and/or a sensor circuit (such as a pressure sensor) set to measure the intensity of force generated by the touch.

오디오 모듈(ED70)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 오디오 모듈(ED70)은, 입력 장치(ED50)를 통해 소리를 획득하거나, 음향 출력 장치(ED55), 및/또는 전자 장치(ED01)와 직접 또는 무선으로 연결된 다른 전자 장치(전자 장치(ED02) 등)의 스피커 및/또는 헤드폰을 통해 소리를 출력할 수 있다.The audio module ED70 may convert sound into an electrical signal or vice versa. The audio module ED70 acquires sound through the input device ED50, the sound output device ED55, and/or other electronic devices directly or wirelessly connected to the electronic device ED01 (such as the electronic device ED02). ) may output sound through a speaker and/or a headphone.

센서 모듈(ED76)은 전자 장치(ED01)의 작동 상태(전력, 온도 등), 또는 외부의 환경 상태(사용자 상태 등)를 감지하고, 감지된 상태에 대응하는 전기 신호 및/또는 데이터 값을 생성할 수 있다. 센서 모듈(ED76)은, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(Infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 및/또는 조도 센서를 포함할 수 있다. The sensor module ED76 detects the operating state (power, temperature, etc.) of the electronic device ED01 or the external environmental state (user state, etc.), and generates electrical signals and/or data values corresponding to the detected state. can do. The sensor module ED76 includes a gesture sensor, a gyro sensor, a pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (Infrared) sensor, a biosensor, a temperature sensor, a humidity sensor, and/or an illuminance sensor. May contain sensors.

인터페이스(ED77)는 전자 장치(ED01)가 다른 전자 장치(전자 장치(ED02) 등)와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 또는 복수의 지정된 프로토콜들을 지원할 수 있다. 인터페이스(ED77)는, HDMI(High Definition Multimedia Interface), USB(Universal Serial Bus) 인터페이스, SD카드 인터페이스, 및/또는 오디오 인터페이스를 포함할 수 있다.The interface ED77 may support one or a plurality of specified protocols that may be used to directly or wirelessly connect the electronic device ED01 to another electronic device (such as the electronic device ED02). The interface ED77 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, and/or an audio interface.

연결 단자(ED78)는, 전자 장치(ED01)가 다른 전자 장치(전자 장치(ED02) 등)와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 연결 단자(ED78)는, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 및/또는 오디오 커넥터(헤드폰 커넥터 등)를 포함할 수 있The connection terminal ED78 may include a connector through which the electronic device ED01 may be physically connected to another electronic device (such as the electronic device ED02). The connection terminal ED78 may include an HDMI connector, a USB connector, an SD card connector, and/or an audio connector (such as a headphone connector).

햅틱 모듈(ED79)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(진동, 움직임 등) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(ED79)은, 모터, 압전 소자, 및/또는 전기 자극 장치를 포함할 수 있다.The haptic module ED79 can convert electrical signals into mechanical stimuli (vibration, movement, etc.) or electrical stimuli that the user can perceive through tactile or kinesthetic senses. The haptic module ED79 may include a motor, a piezoelectric element, and/or an electrical stimulation device.

카메라 모듈(ED80)은 정지 영상 및 동영상을 촬영할 수 있다. 카메라 모듈(ED80)은 상술한 영상 획득 장치(1000)를 포함할 수 있고, 추가적인 렌즈 어렘블리 이미지 시그널 프로세서들, 및/또는 플래시들을 포함할 수 있다. 카메라 모듈(ED80)에 포함된 렌즈 어셈블리는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다.The camera module ED80 may capture still images and moving images. The camera module ED80 may include the image capture device 1000 described above, and may include additional lens assembly image signal processors and/or flashes. A lens assembly included in the camera module ED80 may collect light emitted from a subject that is an image capture target.

전력 관리 모듈(ED88)은 전자 장치(ED01)에 공급되는 전력을 관리할 수 있다. 전력 관리 모듈(ED88)은, PMIC(Power Management Integrated Circuit)의 일부로서 구현될 수 있다.The power management module ED88 may manage power supplied to the electronic device ED01. The power management module ED88 may be implemented as part of a Power Management Integrated Circuit (PMIC).

배터리(ED89)는 전자 장치(ED01)의 구성 요소에 전력을 공급할 수 있다. 배터리(ED89)는, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 및/또는 연료 전지를 포함할 수 있다.The battery ED89 may supply power to components of the electronic device ED01. The battery ED89 may include a non-rechargeable primary cell, a rechargeable secondary cell, and/or a fuel cell.

통신 모듈(ED90)은 전자 장치(ED01)와 다른 전자 장치(전자 장치(ED02), 전자 장치(ED04), 서버(ED08) 등)간의 직접(유선) 통신 채널 및/또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(ED90)은 프로세서(ED20)(어플리케이션 프로세서 등)와 독립적으로 운영되고, 직접 통신 및/또는 무선 통신을 지원하는 하나 또는 복수의 커뮤니케이션 프로세서들을 포함할 수 있다. 통신 모듈(ED90)은 무선 통신 모듈(ED92)(셀룰러 통신 모듈, 근거리 무선 통신 모듈, GNSS(Global Navigation Satellite System 등) 통신 모듈) 및/또는 유선 통신 모듈(ED94)(LAN(Local Area Network) 통신 모듈, 전력선 통신 모듈 등)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(ED98)(블루투스, WiFi Direct 또는 IrDA(Infrared Data Association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(ED99)(셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(LAN, WAN 등)와 같은 원거리 통신 네트워크)를 통하여 다른 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(단일 칩 등)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(복수 칩들)로 구현될 수 있다. 무선 통신 모듈(ED92)은 가입자 식별 모듈(ED96)에 저장된 가입자 정보(국제 모바일 가입자 식별자(IMSI) 등)를 이용하여 제1 네트워크(ED98) 및/또는 제2 네트워크(ED99)와 같은 통신 네트워크 내에서 전자 장치(ED01)를 확인 및 인증할 수 있다. The communication module ED90 establishes a direct (wired) communication channel and/or a wireless communication channel between the electronic device ED01 and other electronic devices (electronic device ED02, electronic device ED04, server ED08, etc.); And it can support communication through the established communication channel. The communication module ED90 may include one or a plurality of communication processors that operate independently of the processor ED20 (application processor, etc.) and support direct communication and/or wireless communication. The communication module (ED90) includes a wireless communication module (ED92) (cellular communication module, short-range wireless communication module, GNSS (Global Navigation Satellite System, etc.) communication module) and/or a wired communication module (ED94) (LAN (Local Area Network) communication). module, power line communication module, etc.). Among these communication modules, the corresponding communication module is a first network (ED98) (a local area communication network such as Bluetooth, WiFi Direct, or IrDA (Infrared Data Association)) or a second network (ED99) (cellular network, Internet, or computer network (LAN). , WAN, etc.) to communicate with other electronic devices. These various types of communication modules may be integrated into one component (single chip, etc.) or implemented as a plurality of separate components (multiple chips). The wireless communication module ED92 uses the subscriber information (International Mobile Subscriber Identifier (IMSI), etc.) stored in the subscriber identification module ED96 within a communication network such as the first network ED98 and/or the second network ED99. The electronic device (ED01) can be identified and authenticated in .

안테나 모듈(ED97)은 신호 및/또는 전력을 외부(다른 전자 장치 등)로 송신하거나 외부로부터 수신할 수 있다. 안테나는 기판(PCB 등) 위에 형성된 도전성 패턴으로 이루어진 방사체를 포함할 수 있다. 안테나 모듈(ED97)은 하나 또는 복수의 안테나들을 포함할 수 있다. 복수의 안테나가 포함된 경우, 통신 모듈(ED90)에 의해 복수의 안테나들 중에서 제1 네트워크(ED98) 및/또는 제2 네트워크(ED99)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 안테나가 선택될 수 있다. 선택된 안테나를 통하여 통신 모듈(ED90)과 다른 전자 장치 간에 신호 및/또는 전력이 송신되거나 수신될 수 있다. 안테나 외에 다른 부품(RFIC 등)이 안테나 모듈(ED97)의 일부로 포함될 수 있다.The antenna module ED97 can transmit or receive signals and/or power to the outside (other electronic devices, etc.). The antenna may include a radiator made of a conductive pattern formed on a substrate (PCB, etc.). The antenna module ED97 may include one or a plurality of antennas. When a plurality of antennas are included, an antenna suitable for a communication method used in a communication network such as the first network ED98 and/or the second network ED99 is selected from among the plurality of antennas by the communication module ED90. can Signals and/or power may be transmitted or received between the communication module ED90 and other electronic devices through the selected antenna. In addition to the antenna, other parts (RFIC, etc.) may be included as part of the antenna module (ED97).

구성요소들 중 일부는 주변 기기들간 통신 방식(버스, GPIO(General Purpose Input and Output), SPI(Serial Peripheral Interface), MIPI(Mobile Industry Processor Interface) 등)을 통해 서로 연결되고 신호(명령, 데이터 등)를 상호 교환할 수 있다.Some of the components are connected to each other through communication methods (bus, GPIO (General Purpose Input and Output), SPI (Serial Peripheral Interface), MIPI (Mobile Industry Processor Interface), etc.) and signal (command, data, etc.) ) are interchangeable.

명령 또는 데이터는 제2 네트워크(ED99)에 연결된 서버(ED08)를 통해서 전자 장치(ED01)와 외부의 전자 장치(ED04)간에 송신 또는 수신될 수 있다. 다른 전자 장치들(ED02, ED04)은 전자 장치(ED01)와 동일한 또는 다른 종류의 장치일 수 있다. 전자 장치(ED01)에서 실행되는 동작들의 전부 또는 일부는 다른 전자 장치들(ED02, ED04, ED08) 중 하나 또는 복수의 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(ED01)가 어떤 기능이나 서비스를 수행해야 할 때, 기능 또는 서비스를 자체적으로 실행시키는 대신에 하나 또는 복수의 다른 전자 장치들에게 그 기능 또는 그 서비스의 일부 또는 전체를 수행하라고 요청할 수 있다. 요청을 수신한 하나 또는 복수의 다른 전자 장치들은 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(ED01)로 전달할 수 있다. 이를 위하여, 클라우드 컴퓨팅, 분산 컴퓨팅, 및/또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.Commands or data may be transmitted or received between the electronic device ED01 and the external electronic device ED04 through the server ED08 connected to the second network ED99. The other electronic devices ED02 and ED04 may be of the same or different type as the electronic device ED01. All or part of the operations executed in the electronic device ED01 may be executed in one or a plurality of other electronic devices ED02 , ED04 , and ED08 . For example, when the electronic device ED01 needs to perform a certain function or service, instead of executing the function or service itself, one or more other electronic devices perform some or all of the function or service. You can ask to do it. One or a plurality of other electronic devices receiving the request may execute additional functions or services related to the request and deliver the result of the execution to the electronic device ED01. To this end, cloud computing, distributed computing, and/or client-server computing technologies may be used.

도 18은 도 17의 전자 장치에 구비되는 카메라 모듈(ED80)을 개략적으로 예시한 블록도이다. 카메라 모듈(ED80)은 전술한 영상 획득 장치(1000)를 포함할 수 있고, 또는 이로부터 변형된 구조를 가질 수 있다. 도 18을 참조하면, 카메라 모듈(ED80)은 렌즈 어셈블리(CM10), 플래시(CM20), 이미지 센서(CM30), 이미지 스태빌라이저(CM40), 메모리(CM50)(버퍼 메모리 등), 및/또는 이미지 시그널 프로세서(CM60)를 포함할 수 있다. FIG. 18 is a block diagram schematically illustrating a camera module ED80 included in the electronic device of FIG. 17 . The camera module ED80 may include the above-described image capture device 1000 or may have a structure modified therefrom. Referring to FIG. 18, the camera module ED80 includes a lens assembly CM10, a flash CM20, an image sensor CM30, an image stabilizer CM40, a memory CM50 (buffer memory, etc.), and/or an image signal. A processor CM60 may be included.

이미지 센서(CM30)은 전술한 영상 획득 장치(1000)에 구비되는 멀티스펙트럴 이미지 센서(100) 및 이미지 센서(200)를 포함할 수 있다. 멀티스펙트럴 이미지 센서(100), 이미지 센서(200)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(CM10)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 피사체에 대응하는 이미지를 획득할 수 있다. 이미지 센서(200)는 RGB 영상을 획득하고, 멀티스펙트럴 이미지 센서(100)는 자외선 내지 적외선 파장 범위의 초분광(hyperspectral) 영상을 획득할 수 있다.The image sensor CM30 may include the multispectral image sensor 100 and the image sensor 200 provided in the image capture device 1000 described above. The multispectral image sensor 100 and the image sensor 200 may obtain an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly CM10 into an electrical signal. The image sensor 200 may obtain an RGB image, and the multispectral image sensor 100 may acquire a hyperspectral image in a wavelength range of ultraviolet to infrared.

이미지 센서(CM30)는 전술한 이미지 센서(200), 멀티스펙트럴 이미지 센서(100) 외에도, 다른 RGB 센서, BW(Black and White) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나 또는 복수의 센서들을 더 포함할 수도 있다. 이미지 센서(CM30)에 포함된 각각의 센서들은, CCD(Charged Coupled Device) 센서 및/또는 CMOS(Complementary Metal Oxide Semiconductor) 센서로 구현될 수 있다.In addition to the image sensor 200 and the multispectral image sensor 100 described above, the image sensor CM30 may include image sensors having different properties, such as other RGB sensors, black and white (BW) sensors, IR sensors, or UV sensors. It may further include one or a plurality of sensors selected from among. Each of the sensors included in the image sensor CM30 may be implemented as a CCD (Charged Coupled Device) sensor and/or a CMOS (Complementary Metal Oxide Semiconductor) sensor.

렌즈 어셈블리(CM10)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 카메라 모듈(ED80)은 복수의 렌즈 어셈블리(CM10)들을 포함할 수도 있으며, 이런 경우, 카메라 모듈(ED80)은, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(Spherical Camera)가 될 수 있다. 복수의 렌즈 어셈블리(CM10)들 중 일부는 동일한 렌즈 속성(화각, 초점 거리, 자동 초점, F 넘버(F Number), 광학 줌 등)을 갖거나, 또는 다른 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(CM10)는, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. The lens assembly CM10 may collect light emitted from a subject, which is an image capturing target. The camera module ED80 may include a plurality of lens assemblies CM10. In this case, the camera module ED80 may be a dual camera, a 360-degree camera, or a spherical camera. Some of the plurality of lens assemblies CM10 may have the same lens properties (angle of view, focal length, auto focus, F number, optical zoom, etc.) or different lens properties. The lens assembly CM10 may include a wide-angle lens or a telephoto lens.

렌즈 어셈블리(CM10)는 이미지 센서(CM30)에 구비되는 두 이미지 센서가 같은 위치의 피사체의 광학 상을 형성할 수 있도록 구성될 수 있고 및/또는 포커스 제어될 수 있다. The lens assembly CM10 may be configured so that two image sensors included in the image sensor CM30 may form an optical image of a subject at the same position and/or focus may be controlled.

플래시(CM20)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 플래시(CM20)는 하나 또는 복수의 발광 다이오드들(RGB(Red-Green-Blue) LED, White LED, Infrared LED, Ultraviolet LED 등), 및/또는 Xenon Lamp를 포함할 수 있다.The flash CM20 may emit light used to enhance light emitted or reflected from a subject. The flash CM20 may include one or a plurality of light emitting diodes (Red-Green-Blue (RGB) LED, White LED, Infrared LED, Ultraviolet LED, etc.), and/or a Xenon Lamp.

이미지 스태빌라이저(CM40)는 카메라 모듈(ED80) 또는 이를 포함하는 전자 장치(CM01)의 움직임에 반응하여, 렌즈 어셈블리(CM10)에 포함된 하나 또는 복수개의 렌즈 또는 이미지센서(1000)를 특정한 방향으로 움직이거나 이미지센서(1000)의 동작 특성을 제어(리드 아웃(Read-Out) 타이밍의 조정 등)하여 움직임에 의한 부정적인 영향이 보상되도록 할 수 있다. 이미지 스태빌라이저(CM40)는 카메라 모듈(ED80)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(ED80) 또는 전자 장치(ED01)의 움직임을 감지할 수 있다. 이미지 스태빌라이저(CM40)는, 광학식으로 구현될 수도 있다. The image stabilizer CM40 moves one or a plurality of lenses or the image sensor 1000 included in the lens assembly CM10 in a specific direction in response to the movement of the camera module ED80 or the electronic device CM01 including the same. Alternatively, the operation characteristics of the image sensor 1000 may be controlled (adjustment of read-out timing, etc.) so that negative effects caused by motion may be compensated for. The image stabilizer CM40 detects the movement of the camera module ED80 or the electronic device ED01 by using a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module ED80. can The image stabilizer CM40 may be implemented optically.

메모리(CM50)는 이미지센서(1000)를 통하여 획득된 이미지의 일부 또는 전체 데이터가 다음 이미지 처리 작업을 위하여 저장할 수 있다. 예를 들어, 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 데이터(Bayer-Patterned 데이터, 고해상도 데이터 등)는 메모리(CM50)에 저장하고, 저해상도 이미지만을 디스플레이 해준 후, 선택된(사용자 선택 등) 이미지의 원본 데이터가 이미지 시그널 프로세서(CM60)로 전달되도록 하는데 사용될 수 있다. 메모리(CM50)는 전자 장치(ED01)의 메모리(ED30)로 통합되어 있거나, 또는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The memory CM50 may store some or all data of an image acquired through the image sensor 1000 for a next image processing task. For example, when a plurality of images are acquired at high speed, the acquired original data (Bayer-patterned data, high-resolution data, etc.) is stored in the memory (CM50), only low-resolution images are displayed, and then selected (user selection, etc.) It can be used to cause the original data of the image to be passed to the Image Signal Processor (CM60). The memory CM50 may be integrated into the memory ED30 of the electronic device ED01 or configured as a separate memory operated independently.

이미지 시그널 프로세서(CM60)는 이미지 센서(CM30)을 통하여 획득된 이미지 또는 메모리(CM50)에 저장된 이미지 데이터에 대하여 이미지 처리들을 수행할 수 있다. 도 1 내지 도 17에서 설명한 바와 같이, 이미지 센서(CM30)에 포함되는 두 이미지 센서가 획득한 제1 영상(예를 들어, RGB 영상), 제2 영상(예를 들어, MSI 영상)을 처리하여, 화이트밸런스가 수행된 제3 영상을 생성할 수 있다. 이를 위한 프로세서(500)의 구성이 이미지 시그널 프로세서(CM60)에 포함될 수 있다. The image signal processor CM60 may perform image processing on images acquired through the image sensor CM30 or image data stored in the memory CM50. 1 to 17, by processing a first image (eg, an RGB image) and a second image (eg, an MSI image) obtained by two image sensors included in the image sensor CM30. , a third image on which white balance has been performed may be generated. The configuration of the processor 500 for this may be included in the image signal processor CM60.

이미지 처리들은, 이외에도, 깊이 지도(Depth Map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 및/또는 이미지 보상(노이즈 감소, 해상도 조정, 밝기 조정, 블러링(Blurring), 샤프닝(Sharpening), 소프트닝(Softening) 등)을 포함할 수 있다. 이미지 시그널 프로세서(CM60)는 카메라 모듈(ED80)에 포함된 구성 요소들(이미지 센서(CM30) 등)에 대한 제어(노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(CM60)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(CM50)에 다시 저장 되거나 카메라 모듈(ED80)의 외부 구성 요소(메모리(ED30), 표시 장치(ED60), 전자 장치(ED02), 전자 장치(ED04), 서버(ED08) 등)로 제공될 수 있다. 이미지 시그널 프로세서(CM60)는 프로세서(ED20)에 통합되거나, 프로세서(ED20)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(CM60)가 프로세서(ED20)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(CM60)에 의해 처리된 이미지는 프로세서(ED20)에 의하여 추가의 이미지 처리를 거친 후 표시 장치(ED60)를 통해 표시될 수 있다.Image processing, in addition, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, and/or image compensation (noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening ( sharpening, softening, etc.). The image signal processor CM60 may perform control (exposure time control, read-out timing control, etc.) for components included in the camera module ED80 (image sensor CM30, etc.). The images processed by the image signal processor (CM60) are stored back in the memory (CM50) for further processing or the external components of the camera module (ED80) (memory (ED30), display unit (ED60), electronic unit (ED02)) , the electronic device ED04, the server ED08, etc.). The image signal processor CM60 may be integrated into the processor ED20 or configured as a separate processor that operates independently of the processor ED20. When the image signal processor CM60 is configured as a separate processor from the processor ED20, the image processed by the image signal processor CM60 undergoes additional image processing by the processor ED20 and then displays the display device ED60. can be displayed through

전자 장치(ED01)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(ED80)들을 포함할 수 있다. 이런 경우, 복수의 카메라 모듈(ED80)들 중 하나는 광각 카메라이고, 다른 하나는 망원 카메라일 수 있다. 유사하게, 복수의 카메라 모듈(ED80)들 중 하나는 전면 카메라이고, 다른 하나는 후면 카메라일 수 있다.The electronic device ED01 may include a plurality of camera modules ED80 each having a different property or function. In this case, one of the plurality of camera modules ED80 may be a wide-angle camera and the other may be a telephoto camera. Similarly, one of the plurality of camera modules ED80 may be a front camera and the other may be a rear camera.

도 19 내지 도 28은 실시예에 따른 영상 획득 장치가 적용된 전자 장치의 다양한 예를 보인다.19 to 28 show various examples of electronic devices to which an image capture device according to an embodiment is applied.

실시예들에 따른 영상 획득 장치는 도 19에 도시된 모바일 폰 또는 스마트 폰(5100m), 도 20에 도시된 태블릿 또는 스마트 태블릿(5200), 도 21에 도시된 디지털 카메라 또는 캠코더(5300), 도 22에 도시된 노트북 컴퓨터(5400)에 또는 도 23에 도시된 텔레비전 또는 스마트 텔레비전(5500) 등에 적용될 수 있다. 예를 들어, 스마트폰(5100m) 또는 스마트 태블릿(5200)은 고해상 이미지센서가 각각 탑재된 복수의 고해상 카메라를 포함할 수 있다. 고해상 카메라들을 이용하여 영상 내 피사체들의 깊이 정보를 추출하거나, 영상의 아웃포커싱을 조절하거나, 영상 내 피사체들을 자동으로 식별할 수 있다.An image acquisition device according to embodiments may include a mobile phone or smart phone 5100m shown in FIG. 19, a tablet or smart tablet 5200 shown in FIG. 20, a digital camera or camcorder 5300 shown in FIG. 21, It can be applied to the notebook computer 5400 shown in FIG. 22 or the television or smart TV 5500 shown in FIG. 23 . For example, the smart phone 5100m or the smart tablet 5200 may include a plurality of high resolution cameras each having a high resolution image sensor. Depth information of subjects in an image may be extracted using high-resolution cameras, out-focusing of the image may be adjusted, or subjects in the image may be automatically identified.

또한, 영상 획득 장치(1000)는 도 24에 도시된 스마트 냉장고(5600), 도 25에 도시된 보안 카메라(5700), 도 26에 도시된 로봇(5800), 도 27에 도시된 의료용 카메라(5900) 등에 적용될 수 있다. 예를 들어, 스마트 냉장고(5600)는 영상 획득 장치(1000)를 이용하여 냉장고 내에 있는 음식을 자동으로 인식하고, 특정 음식의 존재 여부, 입고 또는 출고된 음식의 종류 등을 스마트폰을 통해 사용자에게 알려줄 수 있다. 보안 카메라(5700)는 초고해상도 영상을 제공할 수 있으며 높은 감도를 이용하여 어두운 환경에서도 영상 내의 사물 또는 사람을 인식 가능하게 할 수 있다. 로봇(5800)은 사람이 직접 접근할 수 없는 재해 또는 산업 현장에서 투입되어 고해상도 영상을 제공할 수 있다. 의료용 카메라(5900)는 진단 또는 수술을 위한 고해상도 영상을 제공할 수 있으며 시야를 동적으로 조절할 수 있다.In addition, the image capture device 1000 includes a smart refrigerator 5600 shown in FIG. 24, a security camera 5700 shown in FIG. 25, a robot 5800 shown in FIG. 26, and a medical camera 5900 shown in FIG. ), etc. can be applied. For example, the smart refrigerator 5600 automatically recognizes food in the refrigerator using the image acquisition device 1000, and informs the user of the presence or absence of specific food, the type of food that has been stored or shipped out, etc. through a smartphone. can tell you The security camera 5700 can provide ultra-high resolution images and can recognize objects or people in the images even in a dark environment by using high sensitivity. The robot 5800 may provide a high-resolution image when deployed at a disaster or industrial site to which a person cannot directly approach. The medical camera 5900 can provide high resolution images for diagnosis or surgery and can dynamically adjust the field of view.

또한, 영상 획득 장치(1000)는 도 28에 도시된 바와 같이 차량(6000)에 적용될 수 있다. 차량(6000)은 다양한 위치에 배치된 복수의 차량용 카메라(6010, 6020, 6030, 6040)를 포함할 수 있으며. 각각의 차량용 카메라(6010, 6020, 6030, 6040)는 실시예에 따른 영상 획득 장치를 포함할 수 있다. 차량(6000)은 복수의 차량용 카메라(6010, 6020, 6030, 6040)를 이용하여 차량(6000) 내부 또는 주변에 대한 다양한 정보를 운전자에게 제공할 수 있으며, 영상 내의 사물 또는 사람을 자동으로 인식하여 자율 주행에 필요한 정보를 제공할 수 있다.Also, the image capture device 1000 may be applied to the vehicle 6000 as shown in FIG. 28 . The vehicle 6000 may include a plurality of vehicle cameras 6010, 6020, 6030, and 6040 disposed in various locations. Each of the vehicle cameras 6010, 6020, 6030, and 6040 may include an image capture device according to an embodiment. The vehicle 6000 may use a plurality of vehicle cameras 6010, 6020, 6030, and 6040 to provide the driver with various information about the interior or surroundings of the vehicle 6000, and automatically recognize objects or people in the image to Information necessary for autonomous driving can be provided.

상술한 영상 획득 장치 및 이를 포함하는 전자 장치가 비록 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 권리범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 권리범위에 포함된 것으로 해석되어야 할 것이다.Although the above-described image capture device and electronic device including the same have been described with reference to the embodiment shown in the drawings, this is only an example, and those skilled in the art can make various modifications and equivalent other implementations therefrom. It will be appreciated that examples are possible. Therefore, the disclosed embodiments should be considered from an illustrative rather than a limiting point of view. The scope of rights is shown in the claims rather than the foregoing description, and all differences within an equivalent scope should be construed as being included in the scope of rights.

1000: 영상 획득 장치
100: 멀티스펙트럴 이미지 센서
110: 제1 센서층
120: 분광 필터
130: 제1 마이크로 렌즈 어레이
190: 제1 이미징 광학계
200: 이미지 센서
210: 제2 센서층
220: 컬러 필터
230; 제2마이크로 렌즈 어레이
290: 제2 이미징 광학계
1000: image acquisition device
100: multispectral image sensor
110: first sensor layer
120: spectral filter
130: first micro lens array
190: first imaging optical system
200: image sensor
210: second sensor layer
220: color filter
230; 2nd Micro Lens Array
290: second imaging optical system

Claims (20)

10nm 내지 1000nm의 파장 대역 기반의 적어도 4개 채널의 영상들을 획득하는 멀티스펙트럴 이미지 센서; 및
상기 적어도 4개 채널의 영상들을 미리 학습된 딥러닝 네트워크에 입력하여 조명 정보를 추정하고, 상기 추정된 조명 정보를 이용하여 상기 획득된 영상들에 대해 색변환을 수행하는 프로세서를 포함하는, 영상 획득 장치.
a multispectral image sensor that acquires images of at least four channels based on a wavelength band of 10 nm to 1000 nm; and
Image acquisition including a processor for estimating illumination information by inputting the images of the at least four channels to a pre-trained deep learning network, and performing color conversion on the obtained images using the estimated illumination information Device.
제 1 항에 있어서
상기 멀티스펙트럴 이미지 센서는,
16개 채널의 영상들을 획득하고,
상기 프로세서는,
상기 멀티스펙트럴 이미지 센서로부터 획득된 16개 채널의 영상들을 상기 딥러닝 네트워크에 입력하는, 영상 획득 장치.
According to claim 1
The multispectral image sensor,
Acquiring images of 16 channels,
the processor,
An image acquisition device for inputting images of 16 channels obtained from the multispectral image sensor to the deep learning network.
제 2 항에 있어서,
상기 프로세서는,
상기 획득된 16개 채널의 영상들을 보간하여 31개 채널의 영상들을 생성하고, 상기 생성된 31개 채널의 영상들을 상기 딥러닝 네트워크에 입력하는, 영상 획득 장치.
According to claim 2,
the processor,
Interpolating the acquired images of 16 channels to generate images of 31 channels, and inputting the generated images of 31 channels to the deep learning network.
제 1 항에 있어서,
상기 조명 정보는,
조명의 스펙트럼의 세기에 상응하는 조명 벡터, 조명의 색상을 나타내는 XYZ 벡터, 조명의 색상을 나타내는 RGB 벡터, 조명의 색온도, 미리 저장된 조명 정보를 나타내는 인덱스 값 중 하나인, 영상 획득 장치.
According to claim 1,
The lighting information,
An image acquisition device that is one of a light vector corresponding to the intensity of a light spectrum, an XYZ vector indicating a color of light, an RGB vector indicating a color of light, a color temperature of light, and an index value indicating previously stored light information.
제 1 항에 있어서,
상기 프로세서는,
상기 적어도 4개 채널의 영상들에 상응하는 파장 대역을 소정의 간격으로 샘플링한 영상들 또는 상기 적어도 4개의 채널의 영상들을 정규화한 영상들을 상기 딥러닝 네트워크에 입력하는, 영상 획득 장치.
According to claim 1,
the processor,
Images obtained by sampling wavelength bands corresponding to the images of the at least four channels at predetermined intervals or images obtained by normalizing the images of the at least four channels are input to the deep learning network.
제 1 항에 있어서,
상기 딥러닝 네트워크는,
적어도 3개의 컨볼루션 레이어, 활성화 함수인 렐루 함수(Rectified Linear Unit function), 및 맥스 풀링(Max pooling) 레이어를 포함하는, 영상 획득 장치.
According to claim 1,
The deep learning network,
An image acquisition device comprising at least three convolutional layers, a rectified linear unit function as an activation function, and a max pooling layer.
제 1 항에 있어서,
상기 딥러닝 네트워크는,
각도 손실(Angular error), L1 손실 및 L2 손실을 포함하는 손실함수을 이용하여 미리 학습된, 영상 획득 장치.
According to claim 1,
The deep learning network,
A pre-learned, image acquisition device using a loss function including angular error, L1 loss and L2 loss.
제 7 항에 있어서,
상기 각도 손실은 다음 수학식 3에 따라 계산되고,
[수학식 3]
Figure pat00023

상기 L1 손실은 다음 수학식 4에 따라 계산되고,
[수학식 4]
Figure pat00024

상기 L2 손실은 다음 수학식 5에 따라 계산되는, 영상 획득 장치.
[수학식 5]
Figure pat00025

(여기서,
Figure pat00026
는 입력 영상의 Ground Truth인 조명 정보이고,
Figure pat00027
은 출력 영상의 조명 정보임)
According to claim 7,
The angular loss is calculated according to Equation 3 below,
[Equation 3]
Figure pat00023

The L1 loss is calculated according to Equation 4 below,
[Equation 4]
Figure pat00024

The L2 loss is calculated according to Equation 5 below.
[Equation 5]
Figure pat00025

(here,
Figure pat00026
is the lighting information that is the ground truth of the input image,
Figure pat00027
is the lighting information of the output image)
제 1 항에 있어서,
상기 프로세서는,
상기 딥러닝 네트워크의 학습 영상의 수를 증가시키 위해, 미리 계산된 합성 조명과 반사도 맵을 곱인 합성 영상을 생성하는, 영상 획득 장치.
According to claim 1,
the processor,
In order to increase the number of training images of the deep learning network, an image acquisition device for generating a synthesized image obtained by multiplying a pre-calculated composite lighting and a reflectance map.
제 9 항에 있어서,
상기 합성 조명은 램덤 조명 스펙트럼이고, 다음 수학식 6에 따라 계산되는, 영상 획득 장치.
[수학식 6]
Figure pat00028

(여기서, a1,a2,a3,a4는 랜덤하게 생성한 가중치 값이고,
Figure pat00029
,
Figure pat00030
,
Figure pat00031
,
Figure pat00032
는 각각 백열조명, 주간조명, LED조명, 형광조명의 조명 스페트럼임)
According to claim 9,
The composite illumination is a random illumination spectrum, and is calculated according to Equation 6 below.
[Equation 6]
Figure pat00028

(Where a1, a2, a3, a4 are randomly generated weight values,
Figure pat00029
,
Figure pat00030
,
Figure pat00031
,
Figure pat00032
is the lighting spectrum of incandescent lighting, daytime lighting, LED lighting, and fluorescent lighting, respectively)
제 9 항에 있어서,
상기 반사도 맵은,
제어된 환경의 조명 정보 또는 주간 환경에서의 태양광하에서 획득된 영상에서의 조명 정보를 기초로 계산되는, 영상 획득 장치.
According to claim 9,
The reflectivity map,
An image acquisition device that is calculated based on illumination information in a controlled environment or illumination information in an image acquired under sunlight in a daytime environment.
제 1 항에 있어서,
제1 파장 대역 기반의 영상을 획득하는 이미지 센서를 더 포함하고,
상기 프로세서는,
상기 추정된 조명 정보를 이용하여, 상기 이미지 센서로부터 획득된 영상에 대해 색변환을 수행하는, 영상 획득 장치.
According to claim 1,
Further comprising an image sensor for obtaining an image based on the first wavelength band,
the processor,
Using the estimated lighting information, color conversion is performed on the image obtained from the image sensor.
제 1 항에 있어서,
상기 추정된 조명 정보는,
상기 딥러닝 네트워크에 입력된 영상 전체를 기초로 조명 정보를 추정하는 글로벌 조명 추정인, 영상 획득 장치.
According to claim 1,
The estimated lighting information,
A global lighting estimation device for estimating lighting information based on the entire image input to the deep learning network.
제 1 항에 있어서,
상기 추정된 조명 정보는,
상기 딥러닝 네트워크에 입력될 영상을 패치 단위로 자르고, 입력된 패치를 기초로 조명 정보를 추정하는 로컬 조명 추정인, 영상 획득 장치.
According to claim 1,
The estimated lighting information,
Local illumination estimation for cutting an image to be input to the deep learning network in patch units and estimating illumination information based on the input patch.
제 14 항에 있어서,
복수의 패치 중 물체, 색상 히스토그램을 기준으로 선별적으로 상기 딥러닝 네트워크에 입력하는, 영상 획득 장치.
15. The method of claim 14,
An image acquisition device that selectively inputs an object to the deep learning network based on an object and a color histogram among a plurality of patches.
제 1 항에 있어서,
상기 추정된 조명 정보는,
글로벌 조명 추정의 결과값 및 로컬 조명 추정의 결과값을 모두 합한 최종 결과값, 선별적으로 합한 최종 결과값, 가중합한 최종 결과값, 밴드패스 필터링한 결과값 중 하나인, 영상 획득 장치.
According to claim 1,
The estimated lighting information,
An image acquisition device that is one of a final result value obtained by summing the global illumination estimation result value and the local illumination estimation result value, a final result value obtained by selectively summing the final result value, a final result value obtained by weighted summing, and a result value obtained by performing band pass filtering.
제 1 항에 있어서,
반사도 맵을 추정하는 별도의 딥러닝 네트워크를 더 포함하는, 영상 획득 장치.
According to claim 1,
Further comprising a separate deep learning network for estimating the reflectivity map, the image acquisition device.
제 17 항에 있어서,
상기 추정된 조명 정보와 상기 추정된 반사도 맵을 이용하여 상기 색변환된 결과 영상을 획득하는, 영상 획득 장치.
18. The method of claim 17,
Acquiring the color-converted resultant image using the estimated lighting information and the estimated reflectivity map.
제 1 항 내지 제 18 항 중 어느 하나의 영상 획득 장치를 포함하는 전자 장치. An electronic device comprising the image acquisition device of any one of claims 1 to 18. 영상 획득 장치의 제어 방법에 있어서,
10nm 내지 1000nm의 제2 파장 대역 기반의 적어도 4개 채널의 영상들을 획득하는 단계;
상기 적어도 4개 채널의 영상들을 미리 학습된 딥러닝 네트워크에 입력하여 조명 정보를 추정하는 단계; 및
상기 추정된 조명 정보를 이용하여 상기 획득된 영상들에 대해 색변환을 수행하는 단계를 포함하는 영상 획득 장치의 제어 방법.
In the control method of the image acquisition device,
obtaining images of at least four channels based on a second wavelength band of 10 nm to 1000 nm;
estimating lighting information by inputting the images of the at least four channels to a pre-learned deep learning network; and
and performing color conversion on the obtained images using the estimated illumination information.
KR1020220053063A 2022-01-03 2022-04-28 Image acquisition apparatus and electronic apparatus including the same KR20230105295A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/091,054 US20230217088A1 (en) 2022-01-03 2022-12-29 Image acquisition apparatus and electronic apparatus including the same
CN202211716196.5A CN116419042A (en) 2022-01-03 2022-12-29 Image acquisition device and electronic device comprising same
EP22217364.3A EP4207099A1 (en) 2022-01-03 2022-12-30 Image acquisition apparatus and electronic apparatus including the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220000512 2022-01-03
KR20220000512 2022-01-03

Publications (1)

Publication Number Publication Date
KR20230105295A true KR20230105295A (en) 2023-07-11

Family

ID=87159740

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220053063A KR20230105295A (en) 2022-01-03 2022-04-28 Image acquisition apparatus and electronic apparatus including the same

Country Status (1)

Country Link
KR (1) KR20230105295A (en)

Similar Documents

Publication Publication Date Title
US20220028909A1 (en) Image sensor and image processing method, and electronic device including the image sensor
EP4207099A1 (en) Image acquisition apparatus and electronic apparatus including the same
US11558587B2 (en) Camera module comprising complementary color filter array and electronic device comprising same
EP4156675A1 (en) Image acquisition apparatus providing white balance function and electronic apparatus including the same
US11893771B2 (en) Image acquisition apparatus, image acquisition method, and electronic device including the same
US11494885B2 (en) Method for synthesizing image on reflective object on basis of attribute of reflective object included in different image, and electronic device
EP4152397A1 (en) Image sensor and electronic apparatus including the image sensor
US20220342129A1 (en) Spectral filter, and image sensor and electronic device including spectral filter
US11848343B2 (en) Spectral filter, and image sensor and electronic device including the spectral filter
US20220128407A1 (en) Spectral filter, and image sensor and electronic device including the spectral filter
KR20230105295A (en) Image acquisition apparatus and electronic apparatus including the same
EP4142300A1 (en) Image acquisition apparatus including a plurality of image sensors, and electronic apparatus including the image acquisition apparatus
US11070751B2 (en) Electronic device and image up-sampling method for electronic device
US11924528B2 (en) Image acquisition apparatus providing wide color gamut image and electronic apparatus including the same
US20230093853A1 (en) Spectral filter, and image sensor and electronic device including the spectral filter
US20230139533A1 (en) Optical sensor including nanophotonic microlens array and electronic device including the same
US20230325995A1 (en) Method and apparatus for acquiring image using multispectral sensor
US20230217122A1 (en) Spectral filter, and image sensor and electronic device including the spectral filter
US20230185005A1 (en) Optical filter, and image sensor and electronic device including optical filter
US20230251408A1 (en) Optical filter, and image sensor and electronic device including optical filter
KR20240054134A (en) Learning-based image quality improvement method using image of image sensor and electronic deviec supporting the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right