KR102210940B1 - Electronic apparatus and image processing method thereof - Google Patents

Electronic apparatus and image processing method thereof Download PDF

Info

Publication number
KR102210940B1
KR102210940B1 KR1020190078248A KR20190078248A KR102210940B1 KR 102210940 B1 KR102210940 B1 KR 102210940B1 KR 1020190078248 A KR1020190078248 A KR 1020190078248A KR 20190078248 A KR20190078248 A KR 20190078248A KR 102210940 B1 KR102210940 B1 KR 102210940B1
Authority
KR
South Korea
Prior art keywords
image
noise map
network model
layers
layer
Prior art date
Application number
KR1020190078248A
Other languages
Korean (ko)
Other versions
KR20200127809A (en
Inventor
박승호
문영수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to CN201911042783.9A priority Critical patent/CN111881927B/en
Priority to PCT/KR2019/014896 priority patent/WO2020222382A1/en
Priority to EP19210761.3A priority patent/EP3734546A1/en
Priority to JP2019237838A priority patent/JP6857712B2/en
Priority to US16/734,001 priority patent/US11257189B2/en
Publication of KR20200127809A publication Critical patent/KR20200127809A/en
Application granted granted Critical
Publication of KR102210940B1 publication Critical patent/KR102210940B1/en
Priority to US17/565,938 priority patent/US11861809B2/en

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Abstract

전자 장치가 개시된다. 본 전자 장치는 적어도 하나의 명령어를 저장하는 메모리 및 메모리와 전기적으로 연결되고, 명령어를 실행함으로써, 입력 이미지로부터 입력 이미지의 퀄리티를 나타내는 노이즈 맵을 획득하며, 입력 이미지 및 노이즈 맵을 복수의 레이어를 포함하는 학습 네트워크 모델에 적용하여 입력 이미지의 품질이 개선된 출력 이미지를 획득하는 프로세서를 포함하고, 프로세서는 복수의 레이어 중 적어도 하나의 중간 레이어로 노이즈 맵을 제공하며, 학습 네트워크 모델은 복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 각 샘플 이미지에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.An electronic device is disclosed. The electronic device is electrically connected to a memory storing at least one command and a memory, and by executing the command, obtains a noise map representing the quality of the input image from the input image, and generates a plurality of layers of the input image and the noise map. And a processor for obtaining an output image with improved quality of the input image by applying it to the included training network model, the processor providing a noise map to at least one intermediate layer among a plurality of layers, and the training network model is a plurality of samples It may be an artificial intelligence model obtained by learning a relationship between an image, a noise map for each sample image, and an original image corresponding to each sample image through an artificial intelligence algorithm.

Description

전자 장치 및 그 영상 처리 방법 { ELECTRONIC APPARATUS AND IMAGE PROCESSING METHOD THEREOF }Electronic device and its image processing method {ELECTRONIC APPARATUS AND IMAGE PROCESSING METHOD THEREOF}

본 개시는 전자 장치 및 그 영상 처리 방법에 대한 것으로, 더욱 상세하게는 입력 데이터의 품질이 개선된 출력 이미지를 획득하는 전자 장치 및 그 영상 처리 방법에 대한 것이다.The present disclosure relates to an electronic device and an image processing method thereof, and more particularly, to an electronic device that acquires an output image with improved quality of input data, and an image processing method thereof.

또한, 본 개시는 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 인공 지능(Artificial Intelligence, AI) 시스템 및 그 응용에 관한 것이다.In addition, the present disclosure relates to an artificial intelligence (AI) system that simulates functions such as cognition and judgment of the human brain by using a machine learning algorithm, and its application.

근래에는 인간 수준의 지능을 구현하는 인공 지능 시스템이 다양한 분야에서 이용되고 있다. 인공 지능 시스템은 기존의 룰(rule) 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공 지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 룰 기반 스마트 시스템은 점차 딥러닝 기반 인공 지능 시스템으로 대체되고 있다.In recent years, artificial intelligence systems that implement human-level intelligence have been used in various fields. Unlike existing rule-based smart systems, artificial intelligence systems are systems in which machines learn, judge, and become smarter. As the artificial intelligence system is used, the recognition rate improves and the user's taste can be understood more accurately, and the existing rule-based smart system is gradually being replaced by a deep learning-based artificial intelligence system.

인공 지능 기술은 기계학습(예로, 딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.Artificial intelligence technology consists of machine learning (for example, deep learning) and component technologies using machine learning.

기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Machine learning is an algorithm technology that classifies/learns the features of input data by itself, and element technology is a technology that simulates functions such as cognition and judgment of the human brain using machine learning algorithms such as deep learning. It consists of technical fields such as understanding, reasoning/prediction, knowledge expression, and motion control.

이러한 인공 지능 기술은 다양하고 복잡한 유형의 이미지 노이즈 제거에 이용될 수 있다. 특히, 비디오를 스트리밍하는 경우, 낮은 비트 전송률로의 압축 과정에서 블록 에지 및 링잉 잡음과 같이 시각적으로 불쾌한 잡음이 유발되므로, 압축 잡음 감소(CAR)가 중요하다.These artificial intelligence technologies can be used to remove various and complex types of image noise. In particular, in the case of streaming video, since visually unpleasant noise such as block edge and ringing noise is caused in a compression process at a low bit rate, compression noise reduction (CAR) is important.

노이즈 제거를 위해, 일반적으로 이미지 열화 모델 y = x + e이 사용된다. 여기서, y는 깨끗한 이미지 x와 노이즈 e로 구성된 노이즈가 있는 관찰된 이미지이다. 다수의 이미지 노이즈 제거 연구는 비 로컬 자기 유사성(NSS) 모델과 sparse 모델을 포함하여 이미지 추정 모델을 사용하여 x를 추정한다. NSS 모델을 사용하는 대표적인 방법으로는 BM3D 또는 WNN가 있으나, 높은 노이즈 제거 성능을 달성하는 데는 한계가 있다.For noise removal, generally an image degradation model y = x + e is used. Here, y is an observed image with noise consisting of a clean image x and noise e. A number of image noise reduction studies estimate x using image estimation models, including non-local self-similarity (NSS) models and sparse models. BM3D or WNN is a representative method of using the NSS model, but there is a limit to achieving high noise reduction performance.

최근에는 이러한 한계를 극복하기 위해 discriminative 학습 방법이 개발되었다. BM3D와 같은 NSS 모델에 비해 더 나은 성능을 제공하는 훈련 가능한 비선형 반응 확산(TNRD)이 제안되었으나, 특정 잡음 모델에 대해서만 학습된 점은 단점일 수 있다.Recently, discriminative learning methods have been developed to overcome these limitations. A trainable nonlinear response diffusion (TNRD) has been proposed that provides better performance compared to an NSS model such as BM3D, but the fact that it is learned only for a specific noise model may be a disadvantage.

그리고, residual 학습 전략 및 batch normalization를 채택한 DnCNN이 제안되었으나, 이미지 품질 평가를 위한 별도의 CNN이 없다는 단점이 있다.In addition, a DnCNN employing a residual learning strategy and batch normalization has been proposed, but has a disadvantage in that there is no separate CNN for image quality evaluation.

또한, 불균일한 노이즈 레벨 맵을 입력으로 사용하여 공간적으로 변하는 노이즈를 제거하는 FFDNet이 제안되었으나, 노이즈 맵이 주어진 것으로 가정하는 점 및 노이즈 맵이 첫 번째 레이어에 대해 한 번만 사용되므로 FFDNet의 다른 레이어가 노이즈 맵을 완전히 활용하지 못한다는 한계가 있다.In addition, FFDNet, which removes spatially varying noise by using a non-uniform noise level map as an input, was proposed, but the point and noise map assumed to be given a noise map are used only once for the first layer, so other layers of FFDNet are There is a limitation that the noise map cannot be fully utilized.

그리고, Single Image Super-Resolution(SISR)을 위한 잔여 고밀도 네트워크(residual dense network, RDN)의 경우에는 잔여 고밀도 블록을 가진 모든 계층적 특징들을 완전히 사용할 수 있다는 장점이 있으나, 각 잡음 레벨에 맞는 특정 모델만을 학습했다는 한계가 있다.And, in the case of a residual dense network (RDN) for Single Image Super-Resolution (SISR), there is an advantage that all hierarchical features with residual high density blocks can be fully used, but a specific model suitable for each noise level There is a limit to learning only.

그에 따라, 입력 이미지 내의 공간적으로 변화하는 잡음을 적응적으로 제거하기 위한 방법이 개발될 필요가 있다.Accordingly, there is a need to develop a method for adaptively removing spatially changing noise in an input image.

본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 입력 이미지에 따라 적응적으로 품질을 개선하는 전자 장치 및 그 영상 처리 방법을 제공함에 있다.The present disclosure is in accordance with the above-described necessity, and an object of the present disclosure is to provide an electronic device and an image processing method for adaptively improving quality according to an input image.

이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치는 적어도 하나의 명령어를 저장하는 메모리 및 상기 메모리와 전기적으로 연결되고, 상기 명령어를 실행함으로써, 입력 이미지로부터 상기 입력 이미지의 퀄리티를 나타내는 노이즈 맵을 획득하며, 상기 입력 이미지 및 상기 노이즈 맵을 복수의 레이어를 포함하는 학습 네트워크 모델에 적용하여 상기 입력 이미지의 품질이 개선된 출력 이미지를 획득하는 프로세서를 포함하고, 상기 프로세서는 상기 복수의 레이어 중 적어도 하나의 중간 레이어로 상기 노이즈 맵을 제공하며, 상기 학습 네트워크 모델은 복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 상기 각 샘플 이미지에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.An electronic device according to an embodiment of the present disclosure for achieving the above object is a memory storing at least one command and a quality of the input image from the input image by being electrically connected to the memory and executing the command. And a processor for obtaining an output image with improved quality of the input image by applying the input image and the noise map to a learning network model including a plurality of layers, and the processor The noise map is provided to at least one intermediate layer among a plurality of layers, and the learning network model uses an artificial intelligence algorithm to determine the relationship between a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image. It may be an artificial intelligence model obtained by learning through.

또한, 상기 학습 네트워크 모델은 적어도 하나의 서브 레이어를 더 포함하며, 상기 프로세서는 상기 적어도 하나의 서브 레이어를 이용하여 상기 노이즈 맵을 처리하고, 상기 적어도 하나의 중간 레이어로 상기 처리된 노이즈 맵을 제공할 수 있다.In addition, the learning network model further includes at least one sub-layer, and the processor processes the noise map using the at least one sub-layer, and provides the processed noise map to the at least one intermediate layer. can do.

여기서, 상기 프로세서는 상기 적어도 하나의 중간 레이어 각각의 이전 레이어에서 출력되는 출력 데이터에 대응되는 복수의 채널 및 추가 채널을 상기 적어도 하나의 중간 레이어 각각에 제공하며, 상기 추가 채널은 상기 적어도 하나의 중간 레이어 각각에 대응되는 서브 레이어에서 출력되는 상기 처리된 노이즈 맵일 수 있다.Here, the processor provides a plurality of channels and additional channels corresponding to output data output from a previous layer of each of the at least one intermediate layer to each of the at least one intermediate layer, and the additional channel is the at least one intermediate layer. It may be the processed noise map output from a sub-layer corresponding to each layer.

한편, 상기 프로세서는 상기 복수의 레이어 중 출력 레이어의 출력 데이터 및 상기 입력 이미지를 믹싱하여 상기 출력 이미지를 획득할 수 있다.Meanwhile, the processor may obtain the output image by mixing output data of an output layer among the plurality of layers and the input image.

그리고, 상기 프로세서는 상기 입력 이미지를 복수의 레이어를 포함하는 노이즈 맵 생성 모델에 적용하여 상기 노이즈 맵을 획득하며, 상기 노이즈 맵 생성 모델은 상기 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.In addition, the processor obtains the noise map by applying the input image to a noise map generation model including a plurality of layers, and the noise map generation model is a relationship between the plurality of sample images and noise maps for each sample image. It may be an artificial intelligence model obtained by learning through an artificial intelligence algorithm.

한편, 상기 프로세서는 상기 복수의 레이어 각각에 상기 노이즈 맵을 제공하거나, 상기 복수의 레이어 중 입력 레이어를 제외한 나머지 레이어 각각에 상기 노이즈 맵을 제공할 수 있다.Meanwhile, the processor may provide the noise map to each of the plurality of layers, or may provide the noise map to each of the plurality of layers except for the input layer.

그리고, 상기 학습 네트워크 모델은 상기 복수의 레이어 중 입력 레이어로 제공된 상기 복수의 샘플 이미지 각각과 상기 적어도 하나의 중간 레이어로 제공된 상기 복수의 샘플 이미지 각각의 노이즈 맵이, 상기 복수의 레이어에 의해 순차적으로 처리되어 획득된 출력 이미지, 및 상기 복수의 샘플 이미지 각각에 대응되는 원본 이미지의 관계를 상기 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.In the learning network model, each of the plurality of sample images provided as an input layer among the plurality of layers and a noise map of each of the plurality of sample images provided as the at least one intermediate layer are sequentially obtained by the plurality of layers. It may be an artificial intelligence model obtained by learning a relationship between an output image obtained by processing and an original image corresponding to each of the plurality of sample images through the artificial intelligence algorithm.

한편, 상기 복수의 샘플 이미지 각각은 원본 이미지가 압축된 압축 이미지이고, 상기 각 샘플 이미지에 대한 노이즈 맵은 상기 각 샘플 이미지 및 상기 각 샘플 이미지에 대응되는 원본 이미지로부터 획득된 노이즈 맵일 수 있다.Meanwhile, each of the plurality of sample images may be a compressed image obtained by compressing an original image, and a noise map for each sample image may be a noise map obtained from each sample image and an original image corresponding to each sample image.

그리고, 상기 프로세서는 동영상에 포함된 복수의 프레임 각각을 상기 입력 이미지로서 상기 학습 네트워크 모델에 적용하여 상기 동영상의 품질이 개선된 출력 동영상을 획득할 수 있다.In addition, the processor may obtain an output video with improved quality of the video by applying each of the plurality of frames included in the video to the learning network model as the input image.

한편, 전자 장치는 디스플레이를 더 포함하며, 상기 프로세서는 상기 디스플레이의 해상도에 기초하여 상기 출력 이미지의 해상도를 변환하고, 상기 해상도가 변환된 이미지를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 해상도가 변환된 이미지는 4K UHD(Ultra High Definition) 이미지 또는 8K UHD 이미지일 수 있다.Meanwhile, the electronic device further includes a display, and the processor converts the resolution of the output image based on the resolution of the display, controls the display to display the image having the converted resolution, and the resolution is converted. The image may be a 4K UHD (Ultra High Definition) image or an 8K UHD image.

그리고, 프로세서는 상기 입력 이미지를 객체 영역 및 배경 영역으로 구분하고, 상기 입력 이미지, 상기 노이즈 맵 및 상기 배경 영역에 대한 정보를 상기 학습 네트워크 모델에 적용하여 상기 배경 영역의 품질을 개선하며, 상기 입력 이미지, 상기 노이즈 맵 및 상기 객체 영역에 대한 정보를 타 학습 네트워크 모델에 적용하여 상기 객체 영역의 품질을 개선하고, 상기 품질이 개선된 객체 영역 및 상기 품질이 개선된 배경 영역에 기초하여 상기 출력 이미지를 획득할 수 있다.And, the processor divides the input image into an object area and a background area, and applies the input image, the noise map, and information on the background area to the learning network model to improve the quality of the background area, and the input The quality of the object region is improved by applying an image, the noise map, and information on the object region to another learning network model, and the output image is based on the object region with improved quality and the background region with improved quality Can be obtained.

여기서, 상기 학습 네트워크 모델은 노이즈를 제거하기 위한 학습 네트워크 모델이고, 상기 타 학습 네트워크 모델은 이미지의 해상도를 업스케일링하기 위한 학습 네트워크 모델일 수 있다.Here, the learning network model may be a learning network model for removing noise, and the other learning network model may be a learning network model for upscaling the resolution of an image.

한편, 상기 프로세서는 상기 입력 이미지를 객체 영역 및 배경 영역으로 구분하고, 상기 객체 영역에 대한 정보 또는 배경 영역에 대한 정보 중 적어도 하나를 상기 학습 네트워크 모델에 적용하여 상기 입력 이미지의 품질이 개선된 출력 이미지를 획득할 수 있다.Meanwhile, the processor divides the input image into an object area and a background area, and applies at least one of information on the object area or information on the background area to the learning network model to improve the quality of the input image. Images can be acquired.

한편, 본 개시의 일 실시 예에 따른 전자 장치의 영상 처리 방법은 입력 이미지로부터 상기 입력 이미지의 퀄리티를 나타내는 노이즈 맵을 획득하는 단계, 학습 네트워크 모델에 포함된 복수의 레이어 중 입력 레이어로 입력 이미지를 제공하고, 상기 복수의 레이어 중 적어도 하나의 중간 레이어로 상기 노이즈 맵을 제공하는 단계 및 상기 입력 이미지 및 상기 노이즈 맵을 상기 학습 네트워크 모델에 적용하여 상기 입력 이미지의 품질이 개선된 출력 이미지를 획득하는 단계를 포함하고, 상기 학습 네트워크 모델은 복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 상기 각 샘플 이미지에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.Meanwhile, in the image processing method of an electronic device according to an embodiment of the present disclosure, the step of obtaining a noise map representing the quality of the input image from the input image, the input image as an input layer among a plurality of layers included in the learning network model And providing the noise map to at least one intermediate layer among the plurality of layers, and applying the input image and the noise map to the learning network model to obtain an output image with improved quality of the input image. Including the step, wherein the learning network model may be an artificial intelligence model obtained by learning a relationship between a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image through an artificial intelligence algorithm. .

또한, 상기 학습 네트워크 모델은 적어도 하나의 서브 레이어를 더 포함하며, 상기 제공하는 단계는 상기 적어도 하나의 서브 레이어를 이용하여 상기 노이즈 맵을 처리하고, 상기 적어도 하나의 중간 레이어로 상기 처리된 노이즈 맵을 제공할 수 있다.In addition, the learning network model further includes at least one sub-layer, and the providing step is to process the noise map using the at least one sub-layer, and the processed noise map with the at least one intermediate layer. Can provide.

여기서, 상기 제공하는 단계는 상기 적어도 하나의 중간 레이어 각각의 이전 레이어에서 출력되는 출력 데이터에 대응되는 복수의 채널 및 추가 채널을 상기 적어도 하나의 중간 레이어 각각에 제공하며, 상기 추가 채널은 상기 적어도 하나의 중간 레이어 각각에 대응되는 서브 레이어에서 출력되는 상기 처리된 노이즈 맵일 수 있다.Here, in the providing step, a plurality of channels and additional channels corresponding to output data output from a previous layer of each of the at least one intermediate layer are provided to each of the at least one intermediate layer, and the additional channel is the at least one It may be the processed noise map output from sub-layers corresponding to each of the intermediate layers of.

한편, 상기 출력 이미지를 획득하는 단계는 상기 복수의 레이어 중 출력 레이어의 출력 데이터 및 상기 입력 이미지를 믹싱하여 상기 출력 이미지를 획득할 수 있다.Meanwhile, in the obtaining of the output image, the output image may be obtained by mixing output data of an output layer among the plurality of layers and the input image.

그리고, 상기 노이즈 맵을 획득하는 단계는 상기 입력 이미지를 복수의 레이어를 포함하는 노이즈 맵 생성 모델에 적용하여 상기 노이즈 맵을 획득하며, 상기 노이즈 맵 생성 모델은 상기 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.And, in the obtaining of the noise map, the noise map is obtained by applying the input image to a noise map generation model including a plurality of layers, and the noise map generation model is applied to the plurality of sample images and each sample image. It may be an artificial intelligence model obtained by learning the relationship of the noise map to Korea through an artificial intelligence algorithm.

한편, 상기 제공하는 단계는 상기 복수의 레이어 각각에 상기 노이즈 맵을 제공하거나, 상기 복수의 레이어 중 입력 레이어를 제외한 나머지 레이어 각각에 상기 노이즈 맵을 제공할 수 있다.Meanwhile, in the providing step, the noise map may be provided to each of the plurality of layers, or the noise map may be provided to each of the plurality of layers except for an input layer.

그리고, 상기 학습 네트워크 모델은 상기 복수의 레이어 중 입력 레이어로 제공된 상기 복수의 샘플 이미지 각각과 상기 적어도 하나의 중간 레이어로 제공된 상기 복수의 샘플 이미지 각각의 노이즈 맵이, 상기 복수의 레이어에 의해 순차적으로 처리되어 획득된 출력 이미지, 및 상기 복수의 샘플 이미지 각각에 대응되는 원본 이미지의 관계를 상기 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.In the learning network model, each of the plurality of sample images provided as an input layer among the plurality of layers and a noise map of each of the plurality of sample images provided as the at least one intermediate layer are sequentially obtained by the plurality of layers. It may be an artificial intelligence model obtained by learning a relationship between an output image obtained by processing and an original image corresponding to each of the plurality of sample images through the artificial intelligence algorithm.

한편, 상기 복수의 샘플 이미지 각각은 원본 이미지가 압축된 압축 이미지이고, 상기 각 샘플 이미지에 대한 노이즈 맵은 상기 각 샘플 이미지 및 상기 각 샘플 이미지에 대응되는 원본 이미지로부터 획득된 노이즈 맵일 수 있다.Meanwhile, each of the plurality of sample images may be a compressed image obtained by compressing an original image, and a noise map for each sample image may be a noise map obtained from each sample image and an original image corresponding to each sample image.

그리고, 상기 출력 이미지를 획득하는 단계는 동영상에 포함된 복수의 프레임 각각을 상기 입력 이미지로서 상기 학습 네트워크 모델에 적용하여 상기 동영상의 품질이 개선된 출력 동영상을 획득할 수 있다.In the acquiring of the output image, each of a plurality of frames included in the video may be applied as the input image to the learning network model to obtain an output video with improved quality of the video.

한편, 상기 전자 장치의 디스플레이의 해상도에 기초하여 상기 출력 이미지의 해상도를 변환하는 단계 및 상기 해상도가 변환된 이미지를 디스플레이하는 단계를 더 포함하며, 상기 해상도가 변환된 이미지는 4K UHD(Ultra High Definition) 이미지 또는 8K UHD 이미지일 수 있다.On the other hand, the step of converting the resolution of the output image based on the resolution of the display of the electronic device, and further comprising the step of displaying the image of which the resolution has been converted, the converted image is 4K Ultra High Definition (UHD) ) Images or 8K UHD images.

이상과 같은 본 개시의 다양한 실시 예에 따르면, 전자 장치는 입력 이미지로부터 노이즈 맵을 획득하여 입력 이미지의 퀄리티를 좀더 정확하게 식별하고, 노이즈 맵에 기초하여 적응적으로 동작하는 학습 네트워크 모델을 이용함에 따라 입력 이미지의 품질을 개선할 수 있다.According to various embodiments of the present disclosure as described above, the electronic device obtains a noise map from the input image to more accurately identify the quality of the input image, and uses a learning network model that adaptively operates based on the noise map. The quality of the input image can be improved.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구현 예를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3a 및 도 3b는 본 개시의 다양한 실시 예에 따른 학습 네트워크 모델 및 노이즈 맵 생성 모델을 설명하기 위한 도면들이다.
도 4는 본 개시의 일 실시 예에 따른 노이즈 맵 생성 모델의 학습 방법을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 이미지의 품질을 개선하는 학습 네트워크 모델의 학습 방법을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블록도이다.
도 7는 본 개시의 일 실시 예에 따른 학습 네트워크 모델을 학습하고 이용하기 위한 구성을 나타내는 블록도이다.
도 8a 및 도 8b는 본 개시의 다양한 실시 예에 따른 노이즈 맵 생성 모델의 성능을 설명하기 위한 도면들이다.
도 9a 및 도 9b는 본 개시의 다양한 실시 예에 따른 입력 이미지의 품질을 개선하는 학습 네트워크 모델의 성능을 설명하기 위한 도면들이다.
도 10a 내지 도 10d는 본 개시의 다양한 확장 실시 예를 설명하기 위한 도면들이다.
도 11은 본 개시의 일 실시 예에 따른 전자 장치의 영상 처리 방법을 설명하기 위한 흐름도이다.
1 is a diagram for describing an example implementation of an electronic device according to an embodiment of the present disclosure.
2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
3A and 3B are diagrams for describing a learning network model and a noise map generation model according to various embodiments of the present disclosure.
4 is a diagram illustrating a method of learning a noise map generation model according to an embodiment of the present disclosure.
5 is a diagram for describing a learning method of a learning network model that improves image quality according to an embodiment of the present disclosure.
6 is a block diagram illustrating a detailed configuration of an electronic device according to an embodiment of the present disclosure.
7 is a block diagram illustrating a configuration for learning and using a learning network model according to an embodiment of the present disclosure.
8A and 8B are diagrams for describing performance of a noise map generation model according to various embodiments of the present disclosure.
9A and 9B are diagrams for describing performance of a learning network model that improves the quality of an input image according to various embodiments of the present disclosure.
10A to 10D are diagrams for describing various extended embodiments of the present disclosure.
11 is a flowchart illustrating an image processing method of an electronic device according to an embodiment of the present disclosure.

본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in the embodiments of the present disclosure have selected general terms that are currently widely used as possible while taking functions of the present disclosure into consideration, but this may vary according to the intention or precedent of a technician working in the field, the emergence of new technologies, etc. . In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding disclosure. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, not the name of a simple term.

본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present specification, expressions such as "have," "may have," "include," or "may include" are the presence of corresponding features (eg, elements such as numbers, functions, actions, or parts). And does not exclude the presence of additional features.

A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.The expression A or/and at least one of B is to be understood as representing either “A” or “B” or “A and B”.

본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.Expressions such as "first," "second," "first," or "second," as used herein may modify various elements regardless of their order and/or importance, and one element It is used to distinguish it from other components and does not limit the components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.Some component (eg, a first component) is "(functionally or communicatively) coupled with/to)" to another component (eg, a second component) or " When referred to as "connected to", it should be understood that a component may be directly connected to another component or may be connected through another component (eg, a third component).

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "comprise" are intended to designate the existence of features, numbers, steps, actions, components, parts, or a combination thereof described in the specification, but one or more other It is to be understood that the presence or addition of features, numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance the possibility of being excluded.

본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a "module" or "unit" performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of "modules" or a plurality of "units" are integrated into at least one module except for the "module" or "unit" that needs to be implemented with specific hardware and implemented as at least one processor (not shown). Can be.

본 명세서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.In the present specification, the term user may refer to a person using an electronic device or a device (eg, an artificial intelligence electronic device) using an electronic device.

이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다.Hereinafter, an exemplary embodiment of the present disclosure will be described in more detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시 예에 따른 전자 장치(100)의 구현 예를 설명하기 위한 도면이다.1 is a diagram for describing an example implementation of an electronic device 100 according to an embodiment of the present disclosure.

전자 장치(100)는 도 1에 도시된 바와 같이, TV, 모니터, 스마트 폰, 태블릿 PC, 노트북 PC, HMD(Head mounted Display), NED(Near Eye Display), LFD(large format display), Digital Signage(디지털 간판), DID(Digital Information Display), 비디오 월(video wall), 프로젝터 디스플레이 등과 같이 디스플레이를 구비한 장치로서 구현될 수 있다.As shown in FIG. 1, the electronic device 100 includes a TV, a monitor, a smart phone, a tablet PC, a notebook PC, a head mounted display (HMD), a near eye display (NED), a large format display (LFD), and a digital signage. It may be implemented as a device having a display such as a (digital signage), a digital information display (DID), a video wall, and a projector display.

또는, 전자 장치(100)는 서버, BD 플레이어, 디스크 플레이어, 스트리밍 Box 등과 같이 외부의 디스플레이가 구비된 장치로 이미지를 제공하는 장치일 수 있다.Alternatively, the electronic device 100 may be a device that provides an image to a device equipped with an external display, such as a server, a BD player, a disk player, or a streaming box.

다만, 이에 한정되는 것은 아니며, 전자 장치(100)는 이미지를 영상 처리할 수 있는 장치라면 어떠한 장치라도 무방하다.However, the present invention is not limited thereto, and the electronic device 100 may be any device as long as it can process an image.

전자 장치(100)는 다양한 타입의 이미지를 수신할 수 있다. 구체적으로, 전자 장치(100)는 SD(Standard Definition), HD(High Definition), Full HD, Ultra HD 이미지 중 어느 하나의 이미지를 수신할 수 있다. 또는, 전자 장치(100)는 MPEG(예를 들어, MP2, MP4, MP7 등), AVC, H.264, HEVC 등으로 압축된 형태의 이미지를 수신할 수도 있다.The electronic device 100 may receive various types of images. Specifically, the electronic device 100 may receive any one of SD (Standard Definition), HD (High Definition), Full HD, and Ultra HD images. Alternatively, the electronic device 100 may receive an image compressed by MPEG (eg, MP2, MP4, MP7, etc.), AVC, H.264, HEVC, or the like.

예를 들어, 전자 장치(100)는 도 1에 도시된 바와 같이, 전자 장치(100)의 디스플레이와 해상도가 동일하고, 압축되지 않은 이미지(10-1)를 수신할 수 있다. 이 경우, 전자 장치(100)는 수신된 이미지(10-1)에 대한 영상 처리 없이 이미지(10-1)를 디스플레이할 수 있으나, 항상 이미지(10-1)와 같이 퀄리티가 보장된 이미지가 수신되는 것은 아니다.For example, as illustrated in FIG. 1, the electronic device 100 may receive an uncompressed image 10-1 having the same resolution as the display of the electronic device 100. In this case, the electronic device 100 may display the image 10-1 without image processing on the received image 10-1, but always receive an image with guaranteed quality, such as the image 10-1. It does not become.

예를 들어, 전자 장치(100)는 전자 장치(100)의 디스플레이와 해상도가 동일하나, 압축에 의해 열화된 이미지(10-2)를 수신할 수도 있다. 이 경우, 전자 장치(100)는 열화된 이미지(10-2)의 품질을 개선할 필요가 있다.For example, the electronic device 100 has the same resolution as the display of the electronic device 100, but may receive the image 10-2 deteriorated by compression. In this case, the electronic device 100 needs to improve the quality of the deteriorated image 10-2.

또는, 전자 장치(100)는 전자 장치(100)의 디스플레이보다 해상도가 낮은 이미지(10-3)를 수신할 수도 있다. 이 경우, 이미지(10-3)에 대한 업스케일링이 수행될 수 있으나, 품질은 낮아질 수 있다. 따라서, 전자 장치(100)는 업스케일링되기 전 이미지(10-3)의 품질을 개선한 후 품질이 개선된 이미지를 업스케일링하거나 업스케일링된 이미지의 품질을 개선할 필요가 있다.Alternatively, the electronic device 100 may receive an image 10-3 having a lower resolution than the display of the electronic device 100. In this case, upscaling may be performed on the image 10-3, but the quality may be lowered. Accordingly, the electronic device 100 needs to improve the quality of the image 10-3 before being upscaled, and then upscale the image with improved quality or improve the quality of the upscaled image.

이외에도, 전자 장치(100)는 다양한 유형의 이미지를 수신할 수 있으며, 각 이미지의 특성을 고려한 품질 개선을 수행할 필요가 있다. 이하에서는 전자 장치(100)의 이미지 품질 개선 방법 및 다양한 실시 예에 대하여 설명하도록 한다.In addition, the electronic device 100 may receive various types of images, and it is necessary to improve quality in consideration of characteristics of each image. Hereinafter, a method of improving image quality of the electronic device 100 and various embodiments will be described.

도 2는 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 나타내는 블럭도이다. 도 2에 도시된 바와 같이, 전자 장치(100)는 메모리(110) 및 프로세서(120)를 포함한다.2 is a block diagram illustrating a configuration of an electronic device 100 according to an embodiment of the present disclosure. As shown in FIG. 2, the electronic device 100 includes a memory 110 and a processor 120.

메모리(110)는 프로세서(120)와 전기적으로 연결되며, 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 예를 들어, 메모리(110)는 프로세서(120)에 포함된 롬(ROM)(예를 들어, EEPROM(electrically erasable programmable read-only memory)), 램(RAM) 등의 내부 메모리로 구현되거나, 프로세서(120)와 별도의 메모리로 구현될 수도 있다. 이 경우, 메모리(110)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 전자 장치(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현되고, 전자 장치(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.The memory 110 is electrically connected to the processor 120 and may store data necessary for various embodiments of the present disclosure. For example, the memory 110 may be implemented as an internal memory such as ROM (eg, electrically erasable programmable read-only memory (EEPROM)) or RAM included in the processor 120, or It may be implemented as a separate memory from 120. In this case, the memory 110 may be implemented in the form of a memory embedded in the electronic device 100 according to the purpose of data storage, or may be implemented in a form of a memory that is detachable to the electronic device 100. For example, in the case of data for driving the electronic device 100, it is stored in a memory embedded in the electronic device 100, and in the case of data for an extended function of the electronic device 100, the electronic device 100 is detachable. It can be stored in memory whenever possible. Meanwhile, in the case of a memory embedded in the electronic device 100, a volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.)), a non-volatile memory ( Examples: OTPROM (one time programmable ROM), PROM (programmable ROM), EPROM (erasable and programmable ROM), EEPROM (electrically erasable and programmable ROM), mask ROM, flash ROM, flash memory (e.g. NAND flash or NOR flash, etc.) ), a hard drive, or a solid state drive (SSD), and in the case of a memory that is detachable to the electronic device 100, a memory card (for example, compact flash (CF), SD ( secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), MMC (multi-media card), etc.), external memory that can be connected to a USB port (e.g., USB memory) or the like.

메모리(110)는 입력 이미지의 품질을 개선하기 위해 이용되는 학습 네트워크 모델을 저장할 수 있다. 여기서, 학습 네트워크 모델은 복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 각 샘플 이미지에 대응되는 원본 이미지에 기초하여 기계 학습(Machine Learning)된 모델일 수 있다. 예를 들어, 학습 네트워크 모델은 복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 각 샘플 이미지에 대응되는 원본 이미지에 CNN(Convolution Neural Network, 컨벌루션 신경망) 학습된 모델일 수 있다. 여기서, CNN은 음성 처리, 이미지 처리 등을 위해 고안된 특수한 연결 구조를 가진 다층신경망이다.The memory 110 may store a learning network model used to improve the quality of the input image. Here, the learning network model may be a machine learning model based on a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image. For example, the training network model may be a model trained on a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image (Convolution Neural Network). Here, the CNN is a multilayer neural network with a special connection structure designed for voice processing and image processing.

다만, 이는 일 실시 예에 불과하고, 학습 네트워크 모델은 RNN(Recurrent Neural Network), DNN(Deep Neural Network) 등 다양한 신경망(Neural Network)에 기반한 학습 네트워크 모델일 수도 있다.However, this is only an embodiment, and the learning network model may be a learning network model based on various neural networks such as a recurrent neural network (RNN) and a deep neural network (DNN).

한편, 노이즈 맵은 입력 이미지의 퀄리티를 나타낼 수 있다. 예를 들어, 노이즈 맵은 입력 이미지에 포함된 각 픽셀의 퀄리티를 나타내는 정보를 포함하며, 이 경우 노이즈 맵의 크기는 입력 이미지의 크기와 동일할 수 있다. 가령, 입력 이미지가 4 × 4의 크기이면, 노이즈 맵도 4 × 4의 크기일 수 있다. 다만, 이에 한정되는 것은 아니며, 노이즈 맵이 입력 이미지의 퀄리티를 나타낸다면, 그 형태, 정보의 표시 방법 등은 얼마든지 다양한 방법이 이용될 수 있다. 가령, 노이즈 맵의 단위 정보는 입력 이미지의 각 픽셀 값에 대응되는 것이 아니라 입력 이미지의 기설정된 크기의 영역 별 평균 값에 대응될 수도 있다.Meanwhile, the noise map may represent the quality of the input image. For example, the noise map includes information indicating the quality of each pixel included in the input image, and in this case, the size of the noise map may be the same as the size of the input image. For example, if the input image has a size of 4 × 4, the noise map may also have a size of 4 × 4. However, the present invention is not limited thereto, and if the noise map indicates the quality of the input image, various methods may be used for the shape and information display method. For example, the unit information of the noise map may not correspond to each pixel value of the input image, but may correspond to an average value for each area of a preset size of the input image.

메모리(110)는 입력 이미지의 노이즈 맵을 획득하기 위한 노이즈 맵 생성 모델을 더 저장할 수 있다. 여기서, 노이즈 맵 생성 모델은 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵에 기초하여 기계 학습(Machine Learning)된 모델일 수 있다.The memory 110 may further store a noise map generation model for obtaining a noise map of the input image. Here, the noise map generation model may be a machine learning model based on a plurality of sample images and a noise map for each sample image.

입력 이미지의 품질을 개선하기 위해 이용되는 학습 네트워크 모델 및 노이즈 맵 생성 모델에 대한 구체적인 설명은 도면을 통해 후술한다.A detailed description of the learning network model and the noise map generation model used to improve the quality of the input image will be described later with reference to the drawings.

프로세서(120)는 메모리(110)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작을 제어한다.The processor 120 is electrically connected to the memory 110 and controls the overall operation of the electronic device 100.

일 실시 예에 따라 프로세서(120)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), T-CON(Timing controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(120)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.According to an embodiment, the processor 120 may be implemented as a digital signal processor (DSP), a microprocessor, or a timing controller (T-CON) that processes digital image signals, but is limited thereto. It is not a central processing unit (CPU), a microcontroller unit (MCU), a micro processing unit (MPU), a controller, an application processor (AP), or a communication processor. processor (CP)), or one or more of an ARM processor, or may be defined in a corresponding term In addition, the processor 120 includes a system on chip (SoC) with a built-in processing algorithm, and a large scale integration (LSI). It may be implemented in the form of a field programmable gate array (FPGA).

프로세서(120)는 입력 이미지를 영상 처리하여 입력 이미지의 품질이 개선된 출력 이미지를 획득할 수 있다.The processor 120 may image-process the input image to obtain an output image with improved quality of the input image.

특히, 프로세서(120)는 입력 이미지로부터 입력 이미지의 퀄리티를 나타내는 노이즈 맵을 획득하며, 입력 이미지 및 노이즈 맵을 복수의 레이어를 포함하는 학습 네트워크 모델에 적용하여 입력 이미지의 품질이 개선된 출력 이미지를 획득할 수 있다. 입력 이미지의 품질 개선 과정에서 입력 이미지로부터 획득된 노이즈 맵이 이용됨에 따라, 입력 이미지의 타입에 따라 적응적으로 품질 개선이 이루어지며, 품질 개선 효과가 향상될 수 있다.In particular, the processor 120 obtains a noise map representing the quality of the input image from the input image, and applies the input image and the noise map to a learning network model including a plurality of layers to produce an output image with improved quality of the input image. Can be obtained. As the noise map obtained from the input image is used in the process of improving the quality of the input image, quality improvement is adaptively performed according to the type of the input image, and the quality improvement effect may be improved.

여기서, 학습 네트워크 모델은 복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 각 샘플 이미지에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다. 또한, 학습 네트워크 모델의 복수의 레이어는 입력 레이어, 중간 레이어 및 출력 레이어를 포함할 수 있다. 입력 레이어는 복수의 레이어 중 가장 먼저 연산이 이루어지는 레이어이고, 출력 레이어는 복수의 레이어 중 가장 마지막에 연산이 이루어지는 레이어이며, 중간 레이어는 입력 레이어 및 출력 레이어 사이에 배치된 레이어일 수 있다.Here, the learning network model may be an artificial intelligence model obtained by learning a relationship between a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image through an artificial intelligence algorithm. In addition, the plurality of layers of the learning network model may include an input layer, an intermediate layer, and an output layer. The input layer is a layer in which an operation is performed first among a plurality of layers, an output layer is a layer in which an operation is performed last among a plurality of layers, and an intermediate layer may be a layer disposed between the input layer and the output layer.

그리고, 프로세서(120)는 복수의 레이어 중 적어도 하나의 중간 레이어로 노이즈 맵을 제공할 수 있다. 특히, 프로세서(120)는 복수의 레이어 각각에 노이즈 맵을 제공하거나, 복수의 레이어 중 입력 레이어를 제외한 나머지 레이어 각각에 노이즈 맵을 제공할 수 있다. 이러한 동작을 통해 입력 이미지의 품질 개선 과정에서 이미지의 퀄리티가 지속적으로 반영되어 품질 개선 성능이 향상될 수 있다.In addition, the processor 120 may provide a noise map to at least one intermediate layer among the plurality of layers. In particular, the processor 120 may provide a noise map to each of a plurality of layers, or may provide a noise map to each of the plurality of layers except for an input layer. Through this operation, the quality of the image is continuously reflected in the process of improving the quality of the input image, so that the quality improvement performance may be improved.

가령, 복수의 레이어 중 입력 레이어로만 노이즈 맵이 제공된다면, 복수의 레이어를 거치는 동안, 노이즈 맵의 특성이 희석되어 품질 개선 성능이 저하될 수 있다.For example, if a noise map is provided only as an input layer among a plurality of layers, a characteristic of the noise map may be diluted while passing through the plurality of layers, resulting in a decrease in quality improvement performance.

또는, 복수의 레이어 중 출력 레이어로만 노이즈 맵이 제공된다면, 복수의 레이어를 거치는 동안 노이즈 맵이 반영되지 않으며, 결국 출력 레이어에서만 노이즈 맵이 반영된 상태로 품질 개선이 이루어지게 된다. 일반적으로, 학습 네트워크 모델의 레이어가 많을수록 성능이 향상되는 점을 고려했을 때, 출력 레이어 하나에서만 노이즈 맵이 반영된다면 성능이 저하될 수 있다.Alternatively, if the noise map is provided only to the output layer among the plurality of layers, the noise map is not reflected while passing through the plurality of layers, and as a result, quality improvement is achieved with the noise map reflected only in the output layer. In general, considering that the more layers of the learning network model, the better the performance, and if the noise map is reflected in only one output layer, the performance may be degraded.

따라서, 프로세서(120)가 적어도 하나의 중간 레이어로 노이즈 맵을 제공하게 되면, 입력 레이어 또는 출력 레이어로만 노이즈 맵을 제공하는 경우보다 품질 개선 성능이 향상될 수 있다.Therefore, when the processor 120 provides the noise map to at least one intermediate layer, quality improvement performance may be improved compared to the case of providing the noise map to only the input layer or the output layer.

한편, 학습 네트워크 모델은 적어도 하나의 서브 레이어를 더 포함하며, 프로세서(120)는 적어도 하나의 서브 레이어를 이용하여 노이즈 맵을 처리하고, 적어도 하나의 중간 레이어로 처리된 노이즈 맵을 제공할 수 있다.Meanwhile, the learning network model further includes at least one sub-layer, and the processor 120 may process a noise map using at least one sub-layer and provide a noise map processed with at least one intermediate layer. .

프로세서(120)는 적어도 하나의 중간 레이어 각각의 이전 레이어에서 출력되는 출력 데이터에 대응되는 복수의 채널 및 추가 채널을 적어도 하나의 중간 레이어 각각에 제공할 수 있다. 여기서, 추가 채널은 적어도 하나의 중간 레이어 각각에 대응되는 서브 레이어에서 출력되는 처리된 노이즈 맵일 수 있다. 즉, 프로세서(120)는 적어도 하나의 중간 레이어 각각의 이전 레이어에서 출력되는 출력 데이터와 적어도 하나의 중간 레이어 각각에 대응되는 서브 레이어에서 출력되는 처리된 노이즈 맵을 믹싱하지 않고, 병렬적으로 연결하여 적어도 하나의 중간 레이어 각각에 제공할 수 있다.The processor 120 may provide a plurality of channels and additional channels corresponding to output data output from a previous layer of each of the at least one intermediate layer to each of the at least one intermediate layer. Here, the additional channel may be a processed noise map output from a sub-layer corresponding to each of the at least one intermediate layer. That is, the processor 120 does not mix the output data output from the previous layer of each of the at least one intermediate layer and the processed noise map output from the sub-layer corresponding to each of the at least one intermediate layer, but connects it in parallel. It may be provided on each of at least one intermediate layer.

한편, 프로세서(120)는 학습 네트워크 모델에 포함된 복수의 레이어 중 입력 레이어로 입력 이미지를 제공할 수 있다. 이 경우, 학습 네트워크 모델은 복수의 레이어 중 입력 레이어로 제공된 복수의 샘플 이미지 각각과 적어도 하나의 중간 레이어로 제공된 복수의 샘플 이미지 각각의 노이즈 맵이, 복수의 레이어에 의해 순차적으로 처리되어 획득된 출력 이미지, 및 복수의 샘플 이미지 각각에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.Meanwhile, the processor 120 may provide an input image as an input layer among a plurality of layers included in the learning network model. In this case, the training network model is an output obtained by sequentially processing a noise map of each of the plurality of sample images provided as an input layer among the plurality of layers and each of the plurality of sample images provided as at least one intermediate layer. It may be an artificial intelligence model obtained by learning a relationship between an image and an original image corresponding to each of the plurality of sample images through an artificial intelligence algorithm.

또는, 프로세서(120)는 입력 레이어로 입력 이미지를 제공하고, 출력 레이어의 출력 데이터 및 입력 이미지를 믹싱하여 출력 이미지를 획득할 수도 있다. 즉, 프로세서(120)는 입력 레이어 뿐만 아니라 출력 레이어 후단으로도 입력 레이어를 제공할 수도 있다. 이 경우, 학습 네트워크 모델은 복수의 레이어 중 입력 레이어로 제공된 복수의 샘플 이미지 각각과 적어도 하나의 중간 레이어로 제공된 복수의 샘플 이미지 각각의 노이즈 맵이, 복수의 레이어에 의해 순차적으로 처리되어 획득된 출력 데이터와 복수의 샘플 이미지 각각이 믹싱된 출력 이미지, 및 복수의 샘플 이미지 각각에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.Alternatively, the processor 120 may provide an input image to an input layer and obtain an output image by mixing the output data and the input image of the output layer. That is, the processor 120 may provide an input layer not only to the input layer but also to the rear end of the output layer. In this case, the training network model is an output obtained by sequentially processing a noise map of each of the plurality of sample images provided as an input layer among the plurality of layers and each of the plurality of sample images provided as at least one intermediate layer. It may be an artificial intelligence model obtained by learning a relationship between an output image obtained by mixing data and each of the plurality of sample images, and an original image corresponding to each of the plurality of sample images through an artificial intelligence algorithm.

여기서, 복수의 샘플 이미지 각각은 원본 이미지가 압축된 압축 이미지이고, 각 샘플 이미지에 대한 노이즈 맵은 각 샘플 이미지 및 각 샘플 이미지에 대응되는 원본 이미지로부터 획득된 노이즈 맵일 수 있다.Here, each of the plurality of sample images is a compressed image obtained by compressing an original image, and a noise map for each sample image may be a noise map obtained from each sample image and an original image corresponding to each sample image.

한편, 프로세서(120)는 입력 이미지를 복수의 레이어를 포함하는 노이즈 맵 생성 모델에 적용하여 노이즈 맵을 획득할 수 있다. 여기서, 노이즈 맵 생성 모델은 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.Meanwhile, the processor 120 may obtain a noise map by applying the input image to a noise map generation model including a plurality of layers. Here, the noise map generation model may be an artificial intelligence model obtained by learning a relationship between a plurality of sample images and a noise map for each sample image through an artificial intelligence algorithm.

한편, 이미지의 품질 개선을 위한 학습 네트워크 모델을 학습하는 경우 및 노이즈 맵 생성 모델을 학습하는 경우 모두 동일한 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵을 이용할 수 있다. 다만, 이에 한정되는 것은 아니며, 이미지의 품질 개선을 위한 학습 네트워크 모델을 학습하는 경우의 학습 데이터와 노이즈 맵 생성 모델을 학습하는 경우의 학습 데이터는 서로 다를 수도 있다.Meanwhile, when a training network model for improving image quality is trained and when a noise map generation model is trained, the same plurality of sample images and noise maps for each sample image may be used. However, the present invention is not limited thereto, and training data when training a training network model for improving image quality and training data when training a noise map generation model may be different from each other.

한편, 전자 장치(100)는 디스플레이(미도시)를 더 포함하고, 프로세서(120)는 디스플레이의 해상도에 기초하여 출력 이미지의 해상도를 변환하고, 해상도가 변환된 이미지를 디스플레이하도록 디스플레이를 제어할 수 있다. 여기서, 해상도가 변환된 이미지는 4K UHD(Ultra High Definition) 이미지 또는 8K UHD 이미지일 수 있다.Meanwhile, the electronic device 100 further includes a display (not shown), and the processor 120 converts the resolution of the output image based on the resolution of the display, and controls the display to display the converted image. have. Here, the image whose resolution is converted may be a 4K UHD (Ultra High Definition) image or an 8K UHD image.

또는, 프로세서(120)는 동영상에 포함된 복수의 프레임 각각을 입력 이미지로서 학습 네트워크 모델에 적용하여 동영상의 품질이 개선된 출력 동영상을 획득할 수도 있다. 예를 들어, 프로세서(120)는 동영상을 디코딩하고, 디코딩된 동영상의 각 프레임을 입력 이미지로서 학습 네트워크 모델에 적용하여 품질을 개선하며, 복수의 품질이 개선된 프레임을 결합하여 품질이 개선된 출력 동영상을 획득할 수도 있다. 여기서, 프로세서(120)는 각 프레임의 노이즈 맵을 획득하고, 각 프레임의 품질 개선에 획득된 노이즈 맵을 이용할 수 있다.Alternatively, the processor 120 may obtain an output video with improved quality of the video by applying each of a plurality of frames included in the video to the learning network model as an input image. For example, the processor 120 decodes a video, applies each frame of the decoded video as an input image to a learning network model to improve quality, and combines a plurality of frames with improved quality to output an improved quality. You can also get a video. Here, the processor 120 may obtain a noise map of each frame and use the obtained noise map to improve the quality of each frame.

이상과 같이 프로세서(120)는 노이즈 맵을 입력 이미지로부터 획득함에 따라 적응적으로 입력 이미지의 품질을 개선할 수 있다. 또한, 프로세서(120)는 학습 네트워크 모델에 포함된 복수의 레이어 중 적어도 하나의 중간 레이어로 노이즈 맵을 제공함에 따라, 입력 이미지의 퀄리티를 지속적으로 반영한 상태로 영상 처리를 수행할 수 있다. 그에 따라, 입력 이미지의 품질 개선 성능이 향상될 수 있다.As described above, the processor 120 may adaptively improve the quality of the input image as the noise map is obtained from the input image. Also, as the processor 120 provides a noise map to at least one intermediate layer among a plurality of layers included in the learning network model, the processor 120 may perform image processing while continuously reflecting the quality of the input image. Accordingly, the quality improvement performance of the input image can be improved.

이하에서는 도면을 통해 프로세서(120)의 동작을 좀더 구체적으로 설명한다.Hereinafter, the operation of the processor 120 will be described in more detail through the drawings.

도 3a 및 도 3b는 본 개시의 다양한 실시 예에 따른 학습 네트워크 모델 및 노이즈 맵 생성 모델을 설명하기 위한 도면들이다.3A and 3B are diagrams for describing a learning network model and a noise map generation model according to various embodiments of the present disclosure.

먼저, 프로세서(120)는 도 3a에 도시된 바와 같이, 입력 이미지를 노이즈 맵 생성 모델(Quality Estimation Convolution Neural Network, QECNN, 310)에 적용하여 노이즈 맵을 획득할 수 있다.First, the processor 120 may obtain a noise map by applying an input image to a noise map generation model (Quality Estimation Convolution Neural Network, QECNN, 310), as shown in FIG. 3A.

노이즈 맵 생성 모델(310)은 복수의 컨볼루션 레이어를 포함할 수 있다. 예를 들어, 복수의 컨볼루션 레이어 각각은 5 × 5의 커널을 이용하여 입력 데이터에 대한 컨볼루션을 수행할 수 있다. 다만, 이에 한정되는 것은 아니며, 얼마든지 다른 형태의 커널이 이용될 수 있다. 또한, 하나의 컨볼루션 레이어는 복수의 커널을 각각 이용하여 입력 데이터에 대한 컨볼루션을 수행할 수도 있다.The noise map generation model 310 may include a plurality of convolutional layers. For example, each of the plurality of convolution layers may perform convolution on input data using a 5×5 kernel. However, the present invention is not limited thereto, and any number of different types of kernels may be used. In addition, one convolution layer may perform convolution on input data using each of a plurality of kernels.

복수의 컨볼루션 레이어 중 일부는 컨볼루션의 수행 후, Relu(Rectified Linear Unit) 함수를 이용하여 입력 데이터를 처리할 수도 있다. Relu 함수는 입력 값이 0보다 작으면 0으로 변환하고, 입력 값이 0보다 크면 입력 값을 그대로 출력하는 함수이다. 다만, 이에 한정되는 것은 아니며, 복수의 컨볼루션 레이어 중 일부는 sigmoid 함수를 이용하여 입력 데이터를 처리할 수도 있다.Some of the plurality of convolutional layers may process input data using a Relu (Rectified Linear Unit) function after performing convolution. The Relu function is a function that converts to 0 if the input value is less than 0, and outputs the input value as it is if the input value is greater than 0. However, the present invention is not limited thereto, and some of the plurality of convolutional layers may process input data using a sigmoid function.

프로세서(120)는 입력 이미지를 학습 네트워크 모델(Compression Artifact Reduction Convolution Neural Network, CARCNN, 320-1)에 적용하여 입력 이미지의 품질이 개선된 출력 이미지를 획득할 수 있다. 이때, 프로세서(120)는 복수의 레이어 중 적어도 하나의 중간 레이어로 노이즈 맵을 제공할 수 있다. 예를 들어, 프로세서(120)는 도 3a에 도시된 바와 같이, 복수의 레이어 중 입력 레이어를 제외한 나머지 레이어 각각에 노이즈 맵을 제공할 수 있다.The processor 120 may apply the input image to a training network model (Compression Artifact Reduction Convolution Neural Network, CARCNN, 320-1) to obtain an output image with improved quality of the input image. In this case, the processor 120 may provide a noise map to at least one intermediate layer among the plurality of layers. For example, as illustrated in FIG. 3A, the processor 120 may provide a noise map to each of the remaining layers except for the input layer among the plurality of layers.

학습 네트워크 모델(320-1)은 복수의 컨볼루션 레이어 및 복수의 서브 컨볼루션 레이어(330)를 포함할 수 있다. 예를 들어, 복수의 컨볼루션 레이어 각각은 3 × 3의 커널을 이용하여 입력 데이터에 대한 컨볼루션을 수행하고, 복수의 서브 컨볼루션 레이어(330)는 1 × 1의 커널을 이용하여 노이즈 맵에 대한 컨볼루션을 수행할 수 있다. 할 수 있다. 다만, 이에 한정되는 것은 아니며, 얼마든지 다른 형태의 커널이 이용될 수 있다. 또한, 하나의 컨볼루션 레이어는 복수의 커널을 각각 이용하여 입력 데이터에 대한 컨볼루션을 수행할 수도 있다.The learning network model 320-1 may include a plurality of convolutional layers and a plurality of sub-convolutional layers 330. For example, each of the plurality of convolution layers performs convolution on the input data using a 3 × 3 kernel, and the plurality of sub-convolution layers 330 uses a 1 × 1 kernel to map the noise map. Convolution can be performed. can do. However, the present invention is not limited thereto, and any number of different types of kernels may be used. In addition, one convolution layer may perform convolution on input data using each of a plurality of kernels.

복수의 컨볼루션 레이어 중 일부는 컨볼루션의 수행 후, Relu 함수를 이용하여 입력 데이터를 처리할 수도 있다. 복수의 컨볼루션 레이어 중 다른 일부는 컨볼루션의 수행 후, 배치 정규화(Batch Normalization) 및 Relu 함수를 이용하여 입력 데이터를 처리할 수도 있다. 배치 정규화는 빠른 학습 속도 확보를 위해 각 레이어의 분포를 동일하게 하는 작업이다.Some of the plurality of convolutional layers may process input data using a Relu function after performing convolution. Other parts of the plurality of convolutional layers may process input data using a batch normalization and a Relu function after performing convolution. Batch normalization is the task of making the distribution of each layer the same to secure a fast learning speed.

복수의 컨볼루션 레이어 중 입력 레이어에서 출력되는 출력 데이터는 입력 레이어에 포함된 커널의 개수에 대응되는 채널로 구분될 수 있다. 그리고, 복수의 서브 컨볼루션 레이어(330) 중 입력 레이어에 대응되는 서브 컨볼루션 레이어(330)로부터 출력되는 출력 데이터는 입력 레이어에서 출력되는 출력 데이터에 연결(concatenation)되어, 입력 레이어의 다음 레이어로 입력될 수 있다. 예를 들어, 입력 레이어에서 36개의 채널로 구성된 출력 데이터가 출력되고, 입력 레이어에 대응되는 서브 컨볼루션 레이어(330)로부터 1개의 채널로 구성된 출력 데이터가 출력되며, 총 37개의 채널로 구성된 출력 데이터가 입력 레이어의 다음 레이어로 입력될 수 있다. 채널의 개수는 복수의 컨볼루션 레이어 각각의 특성에 따라 달라질 수 있으며, 나머지 컨볼루션 레이어에서도 유사한 동작을 수행하게 된다.Output data output from the input layer among the plurality of convolutional layers may be divided into channels corresponding to the number of kernels included in the input layer. In addition, the output data output from the sub-convolution layer 330 corresponding to the input layer among the plurality of sub-convolution layers 330 is concatenated with the output data output from the input layer, so that the next layer of the input layer is performed. Can be entered. For example, output data consisting of 36 channels is output from the input layer, output data consisting of one channel is output from the sub-convolution layer 330 corresponding to the input layer, and output data consisting of a total of 37 channels. May be input as a next layer of the input layer. The number of channels may vary according to the characteristics of each of the plurality of convolutional layers, and similar operations are performed in the remaining convolutional layers.

프로세서(120)는 복수의 컨볼루션 레이어 중 출력 레이어의 출력 데이터 및 입력 이미지를 믹싱하여 입력 이미지의 품질이 개선된 출력 이미지를 획득할 수 있다.The processor 120 may obtain an output image with improved quality of the input image by mixing the output data and the input image of the output layer among the plurality of convolution layers.

이상과 같이 프로세서(120)는 입력 이미지에 대응되는 노이즈 맵을 획득하고, 입력 이미지의 품질 개선 과정에서 노이즈 맵을 지속적으로 반영함에 따라 품질 개선 성능이 향상될 수 있다.As described above, the processor 120 acquires a noise map corresponding to the input image, and continuously reflects the noise map in the process of improving the quality of the input image, thereby improving quality improvement performance.

한편, 도 3a의 학습 네트워크 모델(320-1)은 DnCNN(Denoise Convolution Neural Network) 형태에 노이즈 맵을 지속적으로 반영하기 위한 복수의 서브 컨볼루션 레이어(330)가 추가된 형태를 도시하였으나, 도 3b와 같이 학습 네트워크 모델(320-2)은 RDN(Residual Dense Network) 형태에 노이즈 맵을 지속적으로 반영하기 위한 복수의 서브 컨볼루션 레이어(330)가 추가된 형태로 구현될 수도 있다. 도 3b의 RDB(Residual Dense Block) 레이어는 Residual 블록과 Dense 블록이 결합된 형태로 복수의 컨볼루션 레이어를 포함하며, 복수의 컨볼루션 레이어 각각의 출력이 순차적으로 다음 컨볼루션 레이어로 입력되고 추가적으로 다른 위치에 배치된 컨볼루션 레이어로도 입력될 수 있다. 그리고, RDB 레이어의 최초 입력 데이터와 마지막 레이어를 거친 데이터가 믹싱된 출력 데이터가 RDB 레이어로부터 출력될 수 있다. 도 3b의 경우에도 도 3a와 동일한 노이즈 맵 생성 모델(310)이 이용될 수 있다.Meanwhile, the learning network model 320-1 of FIG. 3A shows a form in which a plurality of sub-convolution layers 330 are added to continuously reflect a noise map in the form of a DnCNN (Denoise Convolution Neural Network), but FIG. 3B As described above, the learning network model 320-2 may be implemented in a form in which a plurality of sub-convolution layers 330 for continuously reflecting a noise map are added to a RDN (Residual Dense Network) form. The RDB (Residual Dense Block) layer of FIG. 3B includes a plurality of convolution layers in a form in which a residual block and a Dense block are combined, and outputs of each of the plurality of convolution layers are sequentially input to the next convolution layer, and additionally It can also be input as a convolutional layer placed at the location. In addition, output data obtained by mixing first input data of the RDB layer and data passing through the last layer may be output from the RDB layer. In the case of FIG. 3B as well, the same noise map generation model 310 as in FIG. 3A may be used.

다만, 이에 한정되는 것은 아니며, 학습 네트워크 모델(320-1)은 노이즈 맵을 지속적으로 반영할 수 있는 형태라면 어떠한 기본 모델을 이용하여도 무방하다.However, the present invention is not limited thereto, and any basic model may be used as long as the learning network model 320-1 can continuously reflect the noise map.

한편, 도 3a 및 도 3b의 모델은 소프트웨어로 구현되어 메모리(110)에 저장된 상태이며, 프로세서(120)는 메모리(110)로부터 각 레이어의 동작을 수행하기 위한 데이터를 독출하여 입력 이미지에 대한 처리를 수행할 수 있다.Meanwhile, the models of FIGS. 3A and 3B are implemented as software and stored in the memory 110, and the processor 120 reads data for performing the operation of each layer from the memory 110 and processes the input image. You can do it.

도 4는 본 개시의 일 실시 예에 따른 노이즈 맵 생성 모델의 학습 방법을 설명하기 위한 도면이다.4 is a diagram illustrating a method of learning a noise map generation model according to an embodiment of the present disclosure.

노이즈 맵 생성 모델은 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 노이즈 맵 생성 모델은 제1 샘플 이미지(410-1)의 입력에 따른 출력 데이터와 제1 샘플 이미지(410-1)의 제1 노이즈 맵(420-1)의 관계를 인공지능 알고리즘을 통해 학습할 수 있다. 그리고, 나머지 데이터 쌍((410-2, 420-2), (410-3, 420-3), (410-4, 420-4), ...)의 관계에 대하여도 동일한 학습 과정을 반복하여 노이즈 맵 생성 모델이 획득될 수 있다. 여기서, 각 샘플 이미지에 대한 노이즈 맵은 룰 베이스의 기설정된 알고리즘을 통해 획득된 노이즈 맵일 수 있다. 예를 들어, 제1 샘플 이미지(410-1) 내지 제4 샘플 이미지(410-4)는 각각 JPEG 품질 10, 30, 50, 90의 이미지이고, 제1 노이즈 맵(420-1) 내지 제4 노이즈 맵(420-4)은 각각 제1 샘플 이미지(410-1) 내지 제4 샘플 이미지(410-4)에 대한 노이즈 맵일 수 있다.The noise map generation model may be an artificial intelligence model obtained by learning a relationship between a plurality of sample images and a noise map for each sample image through an artificial intelligence algorithm. For example, as shown in FIG. 4, the noise map generation model includes output data according to the input of the first sample image 410-1 and the first noise map 420-of the first sample image 410-1. The relationship of 1) can be learned through artificial intelligence algorithms. And, the same learning process is repeated for the relationship of the remaining data pairs ((410-2, 420-2), (410-3, 420-3), (410-4, 420-4), ...) Thus, a noise map generation model can be obtained. Here, the noise map for each sample image may be a noise map obtained through a rule-based preset algorithm. For example, the first sample image 410-1 to the fourth sample image 410-4 are images of JPEG quality 10, 30, 50, and 90, respectively, and the first noise maps 420-1 to 4 The noise maps 420-4 may be noise maps for the first to fourth sample images 410-1 to 410-4, respectively.

한편, 노이즈 맵 생성 모델은 전자 장치(100)가 아닌 다른 장치에서 학습된 모델일 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)의 프로세서(120)가 노이즈 맵 생성 모델을 학습할 수도 있다.Meanwhile, the noise map generation model may be a model learned by a device other than the electronic device 100. However, the present invention is not limited thereto, and the processor 120 of the electronic device 100 may learn the noise map generation model.

도 5는 본 개시의 일 실시 예에 따른 이미지의 품질을 개선하는 학습 네트워크 모델의 학습 방법을 설명하기 위한 도면이다.5 is a diagram for describing a learning method of a learning network model that improves image quality according to an embodiment of the present disclosure.

학습 네트워크 모델의 학습 방법은 복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 각 샘플 이미지에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 학습 네트워크 모델은 제1 샘플 이미지(520-1)의 입력 및 제1 샘플 이미지(520-1)에 대한 제1 노이즈 맵(530-1)의 입력에 따른 출력 데이터와 제1 샘플 이미지(520-1)에 대응되는 원본 이미지(510)의 관계를 인공지능 알고리즘을 통해 학습할 수 있다. 그리고, 나머지 데이터 그룹((520-2, 530-2, 510), (520-3, 530-3, 510)의 관계에 대하여도 동일한 학습 과정을 반복하여 학습 네트워크 모델이 획득될 수 있다. 여기서, 각 샘플 이미지에 대한 노이즈 맵은 룰 베이스의 기설정된 알고리즘을 통해 획득된 노이즈 맵일 수 있다.The learning method of the learning network model may be an artificial intelligence model obtained by learning a relationship between a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image through an artificial intelligence algorithm. For example, as shown in FIG. 5, the training network model inputs a first sample image 520-1 and an input of a first noise map 530-1 for the first sample image 520-1. The relationship between the output data according to and the original image 510 corresponding to the first sample image 520-1 may be learned through an artificial intelligence algorithm. In addition, a learning network model may be obtained by repeating the same learning process for the relationship between the remaining data groups (520-2, 530-2, 510), (520-3, 530-3, 510). , The noise map for each sample image may be a noise map obtained through a rule-based preset algorithm.

한편, 도 5에서는 원본 이미지(510)가 한 종류인 것으로 도시되었으나, 실제 학습 과정에서는 복수의 원본 이미지가 이용될 수 있다. 즉, 도 5의 원본 이미지(510) 외에 추가 원본 이미지 및 추가 원본 이미지를 다양한 압축률로 압축한 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵이 학습 과정에서 이용될 수 있다.Meanwhile, in FIG. 5, although the original image 510 is illustrated as being of one type, a plurality of original images may be used in the actual learning process. That is, in addition to the original image 510 of FIG. 5, a plurality of sample images obtained by compressing the additional original image and the additional original image at various compression rates, and a noise map for each sample image may be used in the learning process.

한편, 학습 네트워크 모델은 전자 장치(100)가 아닌 다른 장치에서 학습된 모델일 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)의 프로세서(120)가 학습 네트워크 모델을 학습할 수도 있다.Meanwhile, the learning network model may be a model learned by a device other than the electronic device 100. However, the present invention is not limited thereto, and the processor 120 of the electronic device 100 may learn the learning network model.

도 6은 본 개시의 일 실시 예에 따른 전자 장치(100)의 세부 구성을 나타내는 블록도이다.6 is a block diagram illustrating a detailed configuration of an electronic device 100 according to an embodiment of the present disclosure.

도 6에 따르면, 전자 장치(100)는 메모리(110), 프로세서(120), 입력부(130), 디스플레이(140) 및 사용자 인터페이스(150)를 포함할 수 있다.Referring to FIG. 6, the electronic device 100 may include a memory 110, a processor 120, an input unit 130, a display 140, and a user interface 150.

메모리(110)에는 적어도 하나의 명령어가 저장될 수 있다. 프로세서(120)는 메모리(110)에 저장된 명령어를 실행하여, 상술한 바와 같은 입력 이미지의 노이즈 맵 획득 동작, 입력 이미지의 품질 개선 동작, 각 인공지능 모델의 학습 동작 등을 수행할 수 있다. 도 6에 도시된 구성 중 도 2에 도시된 구성과 중복되는 구성에 대하여는 자세한 설명을 생략하도록 한다.At least one command may be stored in the memory 110. The processor 120 may execute a command stored in the memory 110 to perform an operation of obtaining a noise map of an input image, an operation of improving the quality of an input image, and a learning operation of each artificial intelligence model as described above. A detailed description of the configuration shown in FIG. 6 that overlaps the configuration shown in FIG. 2 will be omitted.

입력부(130)는 다양한 타입의 컨텐츠, 예를 들어 입력 이미지를 수신한다. 예를 들어, 입력부(130)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN, 이더넷, IEEE 1394, HDMI(High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP(Display Port), 썬더볼트(Thunderbolt), VGA(Video Graphics Array)포트, RGB 포트, D-SUB(D-subminiature), DVI(Digital Visual Interface) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB), 외부 서버(예를 들어 웹 하드) 등으로부터 스트리밍 또는 다운로드 방식으로 영상 신호를 입력받을 수 있다. 여기서, 입력 이미지는 디지털 신호가 될 수 있으나, 이에 한정되는 것은 아니다. 또한, 입력부(130)를 통해 동영상이 수신될 수도 있다.The input unit 130 receives various types of content, for example, an input image. For example, the input unit 130 is AP-based Wi-Fi (Wi-Fi, Wireless LAN network), Bluetooth, Zigbee, wired/wireless LAN (Local Area Network), WAN, Ethernet, IEEE 1394, HDMI (High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP (Display Port), Thunderbolt, VGA (Video Graphics Array) port, RGB port, D-SUB (D-subminiature), external device (e.g., source device), external storage medium (e.g., USB), external server (e.g., web hard), etc. through communication methods such as DVI (Digital Visual Interface), etc. A video signal may be input from a streaming or download method. Here, the input image may be a digital signal, but is not limited thereto. Also, a video may be received through the input unit 130.

디스플레이(140)는 LCD(liquid crystal display), OLED(organic light-emitting diode), ED(Light-Emitting Diode), micro LED, LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing), QD(quantum dot) 디스플레이 패널 등과 같은 다양한 형태로 구현될 수 있다.The display 140 includes a liquid crystal display (LCD), an organic light-emitting diode (OLED), a light-emitting diode (ED), a micro LED, a liquid crystal on silicon (LCoS), a digital light processing (DLP), and a quantum dot) It can be implemented in various forms such as a display panel.

프로세서(120)는 입력 이미지의 품질이 개선된 출력 이미지를 디스플레이하도록 디스플레이(140)를 제어할 수 있다.The processor 120 may control the display 140 to display an output image with improved quality of the input image.

사용자 인터페이스(150)는 버튼, 터치 패드, 마우스 및 키보드와 같은 장치로 구현되거나, 상술한 디스플레이 기능 및 조작 입력 기능도 함께 수행 가능한 터치 스크린, 리모콘 수신부 등으로 구현될 수 있다. 여기서, 버튼은 전자 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.The user interface 150 may be implemented as a device such as a button, a touch pad, a mouse, and a keyboard, or may be implemented as a touch screen or a remote control receiver capable of performing the above-described display function and manipulation input function. Here, the button may be various types of buttons such as a mechanical button, a touch pad, a wheel, etc. formed in an arbitrary area such as a front portion, a side portion, or a rear portion of the external body of the electronic device 100.

프로세서(120)는 사용자 인터페이스(150)를 통해 입력된 사용자 명령에 따라 입력 이미지의 품질 개선 동작을 수행할 수도 있다.The processor 120 may perform an operation to improve the quality of an input image according to a user command input through the user interface 150.

도 7는 본 개시의 일 실시 예에 따른 학습 네트워크 모델을 학습하고 이용하기 위한 구성을 나타내는 블록도이다. 학습과 영상 처리가 별개의 장치에서 이루어질 수도 있으나, 도 7에서는 설명의 편의를 위해 전자 장치(100)가 학습 네트워크 모델을 학습하는 것으로 설명한다.7 is a block diagram illustrating a configuration for learning and using a learning network model according to an embodiment of the present disclosure. Although learning and image processing may be performed in separate devices, in FIG. 7, for convenience of description, it will be described that the electronic device 100 learns a learning network model.

도 7를 참조하면, 프로세서(120)는 학습부(710) 또는 영상 처리부(720) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 7, the processor 120 may include at least one of a learning unit 710 and an image processing unit 720.

학습부(710)는 입력 이미지로부터 노이즈 맵을 획득하는 모델 및 입력 이미지의 품질을 개선하는 모델을 생성 또는 학습시킬 수 있다. 학습부(710)는 수집된 학습 데이터를 이용하여 판단 기준을 갖는 인식 모델을 생성할 수 있다. The learning unit 710 may generate or train a model that obtains a noise map from an input image and a model that improves the quality of the input image. The learning unit 710 may generate a recognition model having a determination criterion by using the collected training data.

일 예로, 학습부(710)는 입력 이미지 및 입력 이미지에 대한 노이즈 맵을 학습 데이터로서 이용하여 입력 이미지로부터 노이즈 맵을 획득하기 위한 모델을 생성, 학습 또는 갱신시킬 수 있다. 또한, 학습부(710)는 입력 이미지, 입력 이미지에 대한 노이즈 맵 및 입력 이미지에 대응되는 원본 이미지를 학습 데이터로서 이용하여 입력 이미지 및 노이즈 맵으로부터 원본 이미지를 획득하기 위한 모델을 생성, 학습 또는 갱신시킬 수 있다. For example, the learning unit 710 may generate, learn, or update a model for obtaining a noise map from the input image by using the input image and the noise map of the input image as training data. In addition, the learning unit 710 generates, trains, or updates a model for acquiring the original image from the input image and the noise map by using the input image, the noise map for the input image, and the original image corresponding to the input image as training data. I can make it.

영상 처리부(720)는 소정의 데이터(예를 들어, 입력 이미지)를 학습 네트워크 모델의 입력 데이터로 사용하여, 소정의 데이터의 품질이 개선된 출력 데이터를 획득할 수 있다.The image processing unit 720 may use predetermined data (eg, an input image) as input data of the learning network model to obtain output data with improved quality of the predetermined data.

일 예로, 영상 처리부(720)는 입력 이미지의 노이즈 맵을 획득하고, 노이즈 맵에 기초하여 입력 이미지의 품질이 개선된 출력 이미지를 획득할 수 있다.As an example, the image processing unit 720 may obtain a noise map of the input image and obtain an output image with improved quality of the input image based on the noise map.

학습부(710)의 적어도 일부 및 영상 처리부(720)의 적어도 일부는, 소프트웨어 모듈로 구현되거나 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치(100)에 탑재될 수 있다. 예를 들어, 학습부(710) 및 영상 처리부(720) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치 또는 객체 인식 장치에 탑재될 수도 있다. 이때, 인공 지능을 위한 전용 하드웨어 칩은 확률 연산에 특화된 전용 프로세서로서, 기존의 범용 프로세서보다 병렬처리 성능이 높아 기계 학습과 같은 인공 지능 분야의 연산 작업을 빠르게 처리할 수 있다. 학습부(710) 및 영상 처리부(720)가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.At least a portion of the learning unit 710 and at least a portion of the image processing unit 720 may be implemented as a software module or manufactured in the form of at least one hardware chip and mounted on the electronic device 100. For example, at least one of the learning unit 710 and the image processing unit 720 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or an existing general-purpose processor (eg, CPU or application). processor) or a graphics dedicated processor (for example, a GPU), and mounted on various electronic devices or object recognition devices described above. At this time, the dedicated hardware chip for artificial intelligence is a dedicated processor specialized in probability calculation, and has higher parallel processing performance than conventional general-purpose processors, so it can quickly process computation tasks in artificial intelligence fields such as machine learning. When the learning unit 710 and the image processing unit 720 are implemented as a software module (or a program module including an instruction), the software module is a computer-readable non-transitory readable recording medium (non-transitory). transitory computer readable media). In this case, the software module may be provided by an OS (Operating System) or a predetermined application. Alternatively, some of the software modules may be provided by an operating system (OS), and some of the software modules may be provided by a predetermined application.

이 경우, 학습부(710) 및 영상 처리부(720)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 학습부(710) 및 영상 처리부(720) 중 하나는 전자 장치(100)에 포함되고, 나머지 하나는 외부의 서버에 포함될 수 있다. 또한, 학습부(710) 및 영상 처리부(720)는 유선 또는 무선으로 통하여, 학습부(710)가 구축한 모델 정보를 영상 처리부(720)로 제공할 수도 있고, 학습부(1120)로 입력된 데이터가 추가 학습 데이터로서 학습부(710)로 제공될 수도 있다. In this case, the learning unit 710 and the image processing unit 720 may be mounted on one electronic device, or may be mounted on separate electronic devices, respectively. For example, one of the learning unit 710 and the image processing unit 720 may be included in the electronic device 100, and the other may be included in an external server. In addition, the learning unit 710 and the image processing unit 720 may provide model information built by the learning unit 710 to the image processing unit 720 or input to the learning unit 1120 through wired or wireless. Data may be provided to the learning unit 710 as additional learning data.

도 8a 및 도 8b는 본 개시의 다양한 실시 예에 따른 노이즈 맵 생성 모델의 성능을 설명하기 위한 도면들이다.8A and 8B are diagrams for describing performance of a noise map generation model according to various embodiments of the present disclosure.

먼저, 도 8a에는 이미지의 품질에 따른 제1 노이즈 맵과 노이즈 맵 생성 모델로부터 출력된 제2 노이즈 맵의 평균 제곱 오차(Mean Square Error)를 도시하였으며, LIVE1 영상 데이터 세트가 이용되었다. 예를 들어, 원본 이미지를 압축하는 경우, 압축된 이미지로부터 룰 베이스의 기설정된 알고리즘을 통해 제1 노이즈 맵을 획득할 수 있고, 압축된 이미지를 노이즈 맵 생성 모델에 적용하여 제2 노이즈 맵을 획득할 수 있으며, 제1 노이즈 맵 및 제2 노이즈 맵의 평균 제곱 오차를 획득할 수 있다.First, FIG. 8A shows a mean square error of a first noise map according to image quality and a second noise map output from a noise map generation model, and a LIVE1 image data set was used. For example, when compressing the original image, a first noise map may be obtained from the compressed image through a rule-based preset algorithm, and a second noise map may be obtained by applying the compressed image to a noise map generation model. In addition, the mean square error of the first noise map and the second noise map may be obtained.

도 8a의 Q(압축 인자)는 압축에 따른 퀄리티를 나타내며, 10에서 90으로 갈수록 원본 이미지에 가까워진다. 또한, 레이어가 8개인 경우, 12개인 경우 및 16개인 경우를 구분하였으며, 레이어가 많을수록 평균 제곱 오차가 낮아질 수 있다. 이는 도 8b에 좀더 명확하게 도시되어 있다.Q (compression factor) in FIG. 8A represents the quality according to compression, and the closer to the original image from 10 to 90. In addition, when there are 8 layers, when there are 12 layers, and when there are 16 layers, the average squared error may decrease as the number of layers increases. This is more clearly illustrated in FIG. 8B.

그리고, 레이어가 일정 개수 이상인 경우, Q와는 크게 상관 없이 제1 노이즈 맵과 매우 유사한 제2 노이즈 맵이 획득됨을 알 수 있다.In addition, when the number of layers is more than a certain number, it can be seen that a second noise map very similar to the first noise map is obtained regardless of Q.

도 9a 및 도 9b는 본 개시의 다양한 실시 예에 따른 입력 이미지의 품질을 개선하는 학습 네트워크 모델의 성능을 설명하기 위한 도면들이다.9A and 9B are diagrams for describing performance of a learning network model that improves the quality of an input image according to various embodiments of the present disclosure.

도 9a는 classic5 또는 LIVE1 영상 데이터 세트에서 Q가 10부터 90까지인 압축 이미지를 다양한 방법으로 압축 잠음을 감소시킨 후 산출한 평균 PSNR/SSIM 결과를 나타낸다. PSNR(Peak Signal-to-noise ratio)은 최대 신호 대 잡음비로서 신호가 가질 수 있는 최대 전력에 대한 잡음의 전력을 나타내며, SSIM(Structural Similarity Index)은 구조적 유사 지수로서 압축 및 변환에 의해 발생하는 왜곡에 대하여 원본 영상에 대한 유사도를 나타낸다.9A shows the average PSNR/SSIM result calculated after reducing compression lockdown by various methods for compressed images having a Q of 10 to 90 in a classic5 or LIVE1 video data set. Peak Signal-to-noise Ratio (PSNR) is the maximum signal-to-noise ratio, representing the power of noise to the maximum power that a signal can have, and SSIM (Structural Similarity Index) is a structural similarity index, which is a distortion caused by compression and transformation. Represents the similarity to the original image.

도 9a에 도시된 바와 같이, Q가 높을수록 품질 개선 성능이 좋으며, 종래의 DnCNN보다 QEDnCNN의 성능이 개선되었고, 종래의 RDN보다 QERDN의 성능이 개선되었음을 확인할 수 있다.As shown in FIG. 9A, it can be seen that the higher Q is, the better the quality improvement performance, the better the QEDnCNN performance than the conventional DnCNN, and the QERDN performance is improved than the conventional RDN.

도 9b는 QEDnCNN과 QERDN를 비교한 도면으로, 일반적으로 QEDnCNN이 QERDN보다 성능이 좋음을 알 수 있다.9B is a view comparing QEDnCNN and QERDN, and it can be seen that in general, QEDnCNN has better performance than QERDN.

도 10a 내지 도 10d는 본 개시의 다양한 확장 실시 예를 설명하기 위한 도면들이다.10A to 10D are diagrams for describing various extended embodiments of the present disclosure.

프로세서(120)는 입력 이미지 내의 객체 영역 및 배경 영역을 구분하여 입력 이미지의 품질을 개선할 수도 있다. 예를 들어, 프로세서(120)는 도 10a에 도시된 바와 같이, 원본 이미지를 객체만을 포함하는 객체 이미지 및 객체를 제외한 나머지 영역만을 포함하는 배경 이미지로 구분하고, 객체 이미지 및 배경 이미지 각각의 품질을 개선하고, 품질이 개선된 객체 이미지 및 품질이 개선된 배경 이미지를 합성하여 품질이 개선된 출력 이미지를 획득할 수도 있다.The processor 120 may improve the quality of the input image by classifying the object area and the background area in the input image. For example, as shown in FIG. 10A, the processor 120 divides the original image into an object image including only an object and a background image including only the remaining areas excluding the object, and determines the quality of each of the object image and the background image. It is also possible to obtain an output image with improved quality by synthesizing an object image with improved quality and a background image with improved quality.

프로세서(120)는 다양한 방법으로 입력 이미지의 객체 영역 및 배경 영역을 식별할 수 있다. 예를 들어, 프로세서(120)는 픽셀 값에 기초하여 입력 이미지 내에서 기설정된 형상의 객체를 식별하고, 객체가 식별된 영역을 제외한 나머지 영역을 배경 영역으로 식별할 수 있다.The processor 120 may identify the object area and the background area of the input image in various ways. For example, the processor 120 may identify an object having a predetermined shape in the input image based on the pixel value, and identify the remaining area except the area where the object is identified as the background area.

또는, 프로세서(120)는 객체 인식을 위한 인공지능 모델을 이용하여 입력 이미지 내에서 기설정된 형상의 객체를 식별하고, 객체가 식별된 영역을 제외한 나머지 영역을 배경 영역으로 식별할 수도 있다.Alternatively, the processor 120 may identify an object having a predetermined shape in the input image by using an artificial intelligence model for object recognition, and identify the remaining area except the area where the object is identified as a background area.

이상의 예는 일 실시 예에 불과하고, 프로세서(120)는 얼마든지 다양한 방법으로 입력 이미지 내의 객체 영역 및 배경 영역을 식별할 수 있다.The above example is only an embodiment, and the processor 120 may identify the object area and the background area in the input image in any number of ways.

프로세서(120)는 복수의 이미지 품질 개선 모델을 이용하여 객체 영역 및 배경 영역을 구분하여 이미지 처리할 수 있다. 예를 들어, 프로세서(120)는 도 10b에 도시된 바와 같이, 입력 이미지 및 입력 이미지 내의 객체 영역 정보를 제1 이미지 품질 개선 모델(1010)에 적용하여 입력 이미지 내의 객체 영역의 품질을 개선하고, 입력 이미지 및 입력 이미지 내의 배경 영역 정보를 제2 이미지 품질 개선 모델(1020)에 적용하여 입력 이미지 내의 배경 영역의 품질을 개선할 수 있다. 그리고, 프로세서(120)는 품질이 개선된 객체 영역 및 품질이 개선된 배경 영역을 합성하여 입력 이미지의 품질이 개선된 출력 이미지를 획득할 수 있다.The processor 120 may process an image by classifying an object area and a background area using a plurality of image quality improvement models. For example, the processor 120 improves the quality of the object area in the input image by applying the input image and the object area information in the input image to the first image quality improvement model 1010, as shown in FIG. 10B, The quality of the background area in the input image may be improved by applying the input image and the background area information in the input image to the second image quality improvement model 1020. In addition, the processor 120 may obtain an output image with improved quality of the input image by synthesizing the object region with improved quality and the background region with improved quality.

여기서, 객체 영역 정보는 도 10a의 좌측 하단과 같은 도면이고, 배경 영역 정보는 도 10a의 우측 하단과 같은 도면일 수 있다. 또는, 객체 영역 정보는 및 배경 영역 정보는 픽셀 값을 포함하지 않고, 객체 영역과 배경 영역을 구분하기 위한 영역 정보만을 포함할 수도 있다. 예를 들어, 객체 영역 정보는 객체 영역을 1로 표시하고, 배경 영역을 0으로 표시하는 이미지이고, 배경 영역 정보는 배경 영역을 1로 표시하고, 객체 영역을 0으로 표시하는 이미지일 수도 있다.Here, the object region information may be the same as the lower left of FIG. 10A, and the background region information may be the same as the lower right of FIG. 10A. Alternatively, the object region information and the background region information may not include pixel values, but may include only region information for distinguishing the object region from the background region. For example, the object region information may be an image indicating an object region as 1 and a background region as 0, and the background region information may be an image indicating a background region as 1 and an object region as 0.

제1 이미지 품질 개선 모델(1010)은 입력 이미지로부터 노이즈 맵을 획득하기 위한 제1 노이즈 맵 생성 모델 및 입력 이미지의 객체 영역의 품질을 개선하기 위한 제1 학습 네트워크 모델을 포함할 수 있다. 그리고, 제2 이미지 품질 개선 모델(1020)은 입력 이미지로부터 노이즈 맵을 획득하기 위한 제2 노이즈 맵 생성 모델 및 입력 이미지의 배경 영역의 품질을 개선하기 위한 제2 학습 네트워크 모델을 포함할 수 있다.The first image quality improvement model 1010 may include a first noise map generation model for obtaining a noise map from an input image and a first learning network model for improving quality of an object region of the input image. In addition, the second image quality improvement model 1020 may include a second noise map generation model for obtaining a noise map from the input image and a second learning network model for improving the quality of a background region of the input image.

제1 노이즈 맵 생성 모델은 객체 영역의 노이즈 맵을 생성하기 위한 모델이고, 제2 노이즈 맵 생성 모델은 배경 영역의 노이즈 맵을 생성하기 위한 모델일 수 있다.The first noise map generation model may be a model for generating a noise map of an object area, and the second noise map generation model may be a model for generating a noise map of a background area.

제1 학습 네트워크 모델은 객체 영역의 이미지 품질을 개선하기 위한 모델이고, 제2 학습 네트워크 모델은 배경 영역의 이미지 품질을 개선하기 위한 모델일 수 있다. 이를 위해, 제1 학습 네트워크 모델 및 제2 학습 네트워크 모델은 학습 과정에서 서로 다른 샘플 이미지가 이용될 수 있다. 예를 들어, 제1 학습 네트워크 모델은 원본 이미지와 원본 이미지의 해상도를 낮춘 후 업스케일링한 이미지를 학습시켜 생성되고, 제2 학습 네트워크 모델은 원본 이미지와 원본 이미지에 노이즈를 추가한 이미지를 학습시켜 생성될 수 있다. 이 경우, 프로세서(120)는 제1 학습 네트워크 모델을 이용하여 객체 영역의 해상도가 확대된 것과 같은 선명한 결과물을 획득하고, 제2 학습 네트워크 모델을 이용하여 배경 영역의 노이즈가 제거된 결과물을 획득할 수 있다. 프로세서(120)는 이상과 같은 방식을 통해 객체 영역 및 배경 영역에 대해 상이한 이미지 처리를 수행할 수 있다.The first learning network model may be a model for improving the image quality of the object region, and the second learning network model may be a model for improving the image quality of the background region. To this end, different sample images may be used for the first training network model and the second training network model during a training process. For example, the first training network model is created by lowering the resolution of the original image and the original image and then training the up-scaled image, and the second training network model trains the original image and an image with noise added to the original image. Can be created. In this case, the processor 120 obtains a clear result such as that the resolution of the object region is enlarged using the first learning network model, and obtains a result from which noise of the background region is removed using the second learning network model. I can. The processor 120 may perform different image processing on the object area and the background area through the above method.

도 10b에서는 입력 이미지 만이 제1 노이즈 맵 생성 모델 및 제2 노이즈 생성 모델에 적용되는 것으로 도시하였으나, 이에 한정되는 것은 아니다. 예를 들어, 입력 이미지 뿐만 아니라 객체 영역 정보를 제1 노이즈 맵 생성 모델에 추가로 적용하고, 입력 이미지 뿐만 아니라 배경 영역 정보를 제2 노이즈 맵 생성 모델에 추가로 적용할 수도 있다.10B illustrates that only the input image is applied to the first noise map generation model and the second noise generation model, but is not limited thereto. For example, object region information as well as the input image may be additionally applied to the first noise map generation model, and background region information as well as the input image may be additionally applied to the second noise map generation model.

또는, 프로세서(120)는 하나의 이미지 품질 개선 모델을 이용하여 객체 영역 및 배경 영역을 구분하여 이미지 처리할 수 있다. 예를 들어, 프로세서(120)는 도 10c에 도시된 바와 같이, 입력 이미지 및 노이즈 맵 뿐만 아니라 객체 영역 정보 또는 배경 영역 정보 중 적어도 하나를 학습 네트워크 모델(CARCNN)에 추가로 적용하여 입력 이미지의 품질이 개선된 출력 이미지를 획득할 수도 있다.Alternatively, the processor 120 may process an image by classifying an object region and a background region using one image quality improvement model. For example, as shown in FIG. 10C, the processor 120 additionally applies at least one of object region information or background region information as well as input image and noise map to the learning network model (CARCNN) to determine the quality of the input image. It is also possible to obtain this improved output image.

여기서, 객체 영역 정보 및 배경 영역 정보는 도 10b와 동일할 수 있다. 또는, 객체 영역 정보 및 배경 영역 정보로서 객체 영역을 1로 표현하고, 배경 영역을 0으로 표현하는 하나의 이미지가 이용될 수도 있다. 다만, 이에 한정되는 것은 아니며, 객체 영역 및 배경 영역을 구분할 수 있다면 어떠한 방법이라도 무방하다.Here, the object region information and the background region information may be the same as in FIG. 10B. Alternatively, as object region information and background region information, one image representing the object region as 1 and the background region as 0 may be used. However, the present invention is not limited thereto, and any method may be used as long as the object area and the background area can be distinguished.

학습 네트워크 모델은 객체 영역 정보 및 배경 영역 정보의 타입에 대응되도록 학습된 모델일 수 있다. 가령, 객체 영역을 1로 표현하고, 배경 영역을 0으로 표현한 하나의 이미지를 이용하는 경우, 학습 과정에서도 동일한 타입의 이미지가 이용될 수 있다.The learning network model may be a model trained to correspond to types of object region information and background region information. For example, when one image in which the object area is expressed as 1 and the background area is expressed as 0 is used, the same type of image may be used in the learning process.

또한, 학습 네트워크 모델의 학습 과정에서 이용되는 복수의 샘플 이미지 역시 객체 영역 및 배경 영역의 품질 개선 방식이 서로 다른 샘플 이미지일 수 있다. 가령, 복수의 샘플 이미지의 객체 영역은 배경 영역보다 높은 수준으로 품질이 개선된 영역일 수 있다. 여기서, 복수의 샘플 이미지는 원본 이미지의 열화를 통해 획득될 수 있다. 즉, 복수의 샘플 이미지는 원본 이미지의 객체 영역과 배경 영역이 서로 다른 수준으로 열화되는 방법을 통해 획득될 수 있다. 또는, 복수의 샘플 이미지 각각은 대응되는 원본 이미지의 객체 영역 및 배경 영역이 상이한 방식으로 압축된 압축 이미지일 수도 있다.In addition, the plurality of sample images used in the learning process of the learning network model may also be sample images having different quality improvement methods of the object region and the background region. For example, the object area of the plurality of sample images may be an area whose quality is improved to a higher level than the background area. Here, the plurality of sample images may be obtained through deterioration of the original image. That is, the plurality of sample images may be obtained through a method in which the object area and the background area of the original image are deteriorated to different levels. Alternatively, each of the plurality of sample images may be a compressed image in which the object area and the background area of the corresponding original image are compressed in different ways.

즉, 도 10c의 학습 네트워크 모델은 입력 이미지의 객체 영역 및 배경 영역을 식별하고, 객체 영역 및 배경 영역을 구분하여 품질 개선을 수행할 수 있다.That is, the learning network model of FIG. 10C may perform quality improvement by identifying the object region and the background region of the input image, and classifying the object region and the background region.

도 10c에서 이미지 품질 개선 모델은 노이즈 맵 생성 모델(QECNN) 및 학습 네트워크 모델을 포함하고, 입력 이미지 만이 노이즈 맵 생성 모델에 적용되는 것으로 도시하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(120)는 입력 이미지 뿐만 아니라 객체 영역 정보 또는 배경 영역 정보 중 적어도 하나를 노이즈 맵 생성 모델에 추가로 적용하여 입력 이미지에 대한 노이즈 맵을 획득할 수도 있다.In FIG. 10C, the image quality improvement model includes a noise map generation model (QECNN) and a training network model, and it is illustrated that only the input image is applied to the noise map generation model, but is not limited thereto. For example, the processor 120 may obtain a noise map for the input image by additionally applying at least one of object region information or background region information as well as the input image to the noise map generation model.

또는, 프로세서(120)는 입력 이미지를 복수의 블록으로 구분하고, 각 블록을 객체 영역 및 배경 영역으로 구분하며, 객체 영역 및 배경 영역을 별도의 인공지능 모델을 통해 처리할 수도 있다. 예를 들어, 프로세서(120)는 도 10d에 도시된 바와 같이, 입력 이미지를 기설정된 크기의 블록으로 순차적으로 구분하고, 각 블록이 객체 영역인지 배경 영역인지 식별할 수 있다. 그리고, 프로세서(120)는 객체 영역으로 식별된 블록을 제1 이미지 품질 개선 모델(1030)에 적용하여 제1 출력 블록(1050-1)을 획득하고, 배경 영역으로 식별된 블록을 제2 이미지 품질 개선 모델(1040)에 적용하여 제2 출력 블록(1050-2)을 획득하며, 제1 출력 블록(1050-1) 및 제2 출력 블록(1050-2)을 병합하여 출력 이미지를 획득할 수 있다.Alternatively, the processor 120 may divide the input image into a plurality of blocks, divide each block into an object area and a background area, and process the object area and the background area through a separate artificial intelligence model. For example, as shown in FIG. 10D, the processor 120 may sequentially divide the input image into blocks of a preset size and identify whether each block is an object area or a background area. Further, the processor 120 applies the block identified as the object area to the first image quality improvement model 1030 to obtain the first output block 1050-1, and converts the block identified as the background area to the second image quality. The second output block 1050-2 is obtained by applying to the improved model 1040, and an output image may be obtained by merging the first output block 1050-1 and the second output block 1050-2. .

여기서, 제1 이미지 품질 개선 모델(1030)의 학습 과정에서는 객체 영역을 나타내는 복수의 샘플 블록이 이용될 수 있으며, 제2 이미지 품질 개선 모델(1040)의 학습 과정에서는 배경 영역을 나타내는 복수의 샘플 블록이 이용될 수 있다.Here, in the learning process of the first image quality improvement model 1030, a plurality of sample blocks representing object regions may be used, and in the learning process of the second image quality improvement model 1040, a plurality of sample blocks representing background regions Can be used.

이상과 같이 프로세서(120)는 입력 이미지 내의 객체 영역과 배경 영역을 구분하여, 입력 이미지의 품질을 개선할 수도 있다.As described above, the processor 120 may improve the quality of the input image by dividing the object area and the background area in the input image.

도 11은 본 개시의 일 실시 예에 따른 전자 장치의 영상 처리 방법을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an image processing method of an electronic device according to an embodiment of the present disclosure.

먼저, 입력 이미지로부터 입력 이미지의 퀄리티를 나타내는 노이즈 맵을 획득한다(S1110). 그리고, 학습 네트워크 모델에 포함된 복수의 레이어 중 입력 레이어로 입력 이미지를 제공하고, 복수의 레이어 중 적어도 하나의 중간 레이어로 노이즈 맵을 제공한다(S1120). 그리고, 입력 이미지 및 노이즈 맵을 학습 네트워크 모델에 적용하여 입력 이미지의 품질이 개선된 출력 이미지를 획득한다(S1130). 여기서, 학습 네트워크 모델은 복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 각 샘플 이미지에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.First, a noise map indicating the quality of the input image is obtained from the input image (S1110). In addition, an input image is provided as an input layer among a plurality of layers included in the learning network model, and a noise map is provided to at least one intermediate layer among the plurality of layers (S1120). Then, an output image with improved quality of the input image is obtained by applying the input image and the noise map to the learning network model (S1130). Here, the learning network model may be an artificial intelligence model obtained by learning a relationship between a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image through an artificial intelligence algorithm.

여기서, 학습 네트워크 모델은 적어도 하나의 서브 레이어를 더 포함하며, 제공하는 단계(S1120)는 적어도 하나의 서브 레이어를 이용하여 노이즈 맵을 처리하고, 적어도 하나의 중간 레이어로 처리된 노이즈 맵을 제공할 수 있다.Here, the learning network model further includes at least one sub-layer, and in the providing step (S1120), a noise map is processed using at least one sub-layer, and a noise map processed with at least one intermediate layer is provided. I can.

그리고, 제공하는 단계(S1120)는 적어도 하나의 중간 레이어 각각의 이전 레이어에서 출력되는 출력 데이터에 대응되는 복수의 채널 및 추가 채널을 적어도 하나의 중간 레이어 각각에 제공하며, 추가 채널은 적어도 하나의 중간 레이어 각각에 대응되는 서브 레이어에서 출력되는 처리된 노이즈 맵일 수 있다.In the providing step (S1120), a plurality of channels and an additional channel corresponding to output data output from a previous layer of each of the at least one intermediate layer are provided to each of the at least one intermediate layer, and the additional channel is at least one intermediate layer. It may be a processed noise map output from a sub-layer corresponding to each layer.

한편, 출력 이미지를 획득하는 단계(S1130)는 복수의 레이어 중 출력 레이어의 출력 데이터 및 입력 이미지를 믹싱하여 출력 이미지를 획득할 수 있다.Meanwhile, in the step of obtaining the output image (S1130), the output image may be obtained by mixing the output data and the input image of the output layer among a plurality of layers.

그리고, 노이즈 맵을 획득하는 단계(S1110)는 입력 이미지를 복수의 레이어를 포함하는 노이즈 맵 생성 모델에 적용하여 노이즈 맵을 획득하며, 노이즈 맵 생성 모델은 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.And, in the step of obtaining the noise map (S1110), the noise map is obtained by applying the input image to a noise map generation model including a plurality of layers, and the noise map generation model includes a plurality of sample images and noise for each sample image. It may be an artificial intelligence model obtained by learning the relationship of the map through an artificial intelligence algorithm.

한편, 제공하는 단계(S1120)는 복수의 레이어 각각에 노이즈 맵을 제공하거나, 복수의 레이어 중 입력 레이어를 제외한 나머지 레이어 각각에 노이즈 맵을 제공할 수 있다.Meanwhile, in the providing operation S1120, a noise map may be provided to each of the plurality of layers, or a noise map may be provided to each of the plurality of layers except for the input layer.

그리고, 학습 네트워크 모델은 복수의 레이어 중 입력 레이어로 제공된 복수의 샘플 이미지 각각과 적어도 하나의 중간 레이어로 제공된 복수의 샘플 이미지 각각의 노이즈 맵이, 복수의 레이어에 의해 순차적으로 처리되어 획득된 출력 이미지, 및 복수의 샘플 이미지 각각에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델일 수 있다.In addition, the training network model is an output image obtained by sequentially processing a noise map of each of a plurality of sample images provided as an input layer among a plurality of layers and each of a plurality of sample images provided as at least one intermediate layer. , And an artificial intelligence model obtained by learning a relationship between an original image corresponding to each of the plurality of sample images through an artificial intelligence algorithm.

한편, 복수의 샘플 이미지 각각은 원본 이미지가 압축된 압축 이미지이고, 각 샘플 이미지에 대한 노이즈 맵은 각 샘플 이미지 및 각 샘플 이미지에 대응되는 원본 이미지로부터 획득된 노이즈 맵일 수 있다.Meanwhile, each of the plurality of sample images is a compressed image in which an original image is compressed, and a noise map for each sample image may be a noise map obtained from each sample image and an original image corresponding to each sample image.

그리고, 출력 이미지를 획득하는 단계(S1130)는 동영상에 포함된 복수의 프레임 각각을 입력 이미지로서 학습 네트워크 모델에 적용하여 동영상의 품질이 개선된 출력 동영상을 획득할 수 있다.In the step of acquiring the output image (S1130 ), each of a plurality of frames included in the video may be applied as an input image to a learning network model to obtain an output video with improved quality of the video.

한편, 전자 장치의 디스플레이의 해상도에 기초하여 출력 이미지의 해상도를 변환하는 단계 및 해상도가 변환된 이미지를 디스플레이하는 단계를 더 포함하며, 해상도가 변환된 이미지는 4K UHD(Ultra High Definition) 이미지 또는 8K UHD 이미지일 수 있다.On the other hand, the step of converting the resolution of the output image based on the resolution of the display of the electronic device and the step of displaying the converted image, the resolution converted image is a 4K UHD (Ultra High Definition) image or 8K It can be a UHD image.

이상과 같은 본 개시의 다양한 실시 예에 따르면, 전자 장치는 입력 이미지로부터 노이즈 맵을 획득하여 입력 이미지의 퀄리티를 좀더 정확하게 식별하고, 노이즈 맵에 기초하여 적응적으로 동작하는 학습 네트워크 모델을 이용함에 따라 입력 이미지의 품질을 개선할 수 있다. 즉, 전자 장치는 입력 이미지로부터 노이즈 맵을 획득하여 잡음 제거에 이용하기 때문에 공간적으로 변화하는 이미지의 잡음 제거 효과가 뛰어나며, 압축 아티팩트를 감소시킬 수 있다.According to various embodiments of the present disclosure as described above, the electronic device obtains a noise map from the input image to more accurately identify the quality of the input image, and uses a learning network model that adaptively operates based on the noise map. The quality of the input image can be improved. That is, since the electronic device obtains a noise map from an input image and uses it to remove noise, a noise removal effect of a spatially changing image is excellent, and compression artifacts can be reduced.

한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(A))를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Meanwhile, according to an example of the present disclosure, the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage media. I can. The device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include an electronic device (eg, electronic device A) according to the disclosed embodiments. When an instruction is executed by a processor, the processor may perform a function corresponding to the instruction directly or by using other components under the control of the processor. Instructions may include code generated or executed by a compiler or interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here,'non-transient' means that the storage medium does not contain a signal and is tangible, but does not distinguish between semi-permanent or temporary storage of data in the storage medium.

또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.In addition, according to an embodiment of the present disclosure, the method according to various embodiments described above may be included in a computer program product and provided. Computer program products can be traded between sellers and buyers as commodities. The computer program product may be distributed online in the form of a device-readable storage medium (eg, compact disc read only memory (CD-ROM)) or through an application store (eg, Play StoreTM). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a storage medium such as a server of a manufacturer, a server of an application store, or a memory of a relay server.

또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.In addition, according to an embodiment of the present disclosure, various embodiments described above are in a recording medium that can be read by a computer or a similar device using software, hardware, or a combination thereof. Can be implemented in In some cases, the embodiments described herein may be implemented by the processor itself. According to software implementation, embodiments such as procedures and functions described in the present specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.

한편, 상술한 다양한 실시 예들에 따른 기기의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 기기에서의 처리 동작을 특정 기기가 수행하도록 한다. 비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.Meanwhile, computer instructions for performing a processing operation of a device according to the various embodiments described above may be stored in a non-transitory computer-readable medium. When a computer instruction stored in such a non-transitory computer-readable medium is executed by a processor of a specific device, a specific device causes a specific device to perform a processing operation in the device according to the various embodiments described above. The non-transitory computer-readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short moment, such as registers, caches, and memory. Specific examples of non-transitory computer-readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.In addition, each of the constituent elements (eg, modules or programs) according to the various embodiments described above may be composed of a singular or plural entity, and some sub-elements of the above-described sub-elements are omitted, or other sub-elements are omitted. Components may be further included in various embodiments. Alternatively or additionally, some constituent elements (eg, a module or a program) may be integrated into one entity, and functions performed by each corresponding constituent element prior to the consolidation may be performed identically or similarly. Operations performed by modules, programs, or other components according to various embodiments are sequentially, parallel, repetitively or heuristically executed, or at least some operations are executed in a different order, omitted, or other operations are added. Can be.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and is generally in the technical field belonging to the disclosure without departing from the gist of the disclosure claimed in the claims. Of course, various modifications may be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present disclosure.

100 : 전자 장치 110 : 메모리
120 : 프로세서 130 : 입력부
140 : 디스플레이 150 : 사용자 인터페이스
100: electronic device 110: memory
120: processor 130: input unit
140: display 150: user interface

Claims (20)

적어도 하나의 명령어를 저장하는 메모리; 및
상기 메모리와 전기적으로 연결되고,
상기 명령어를 실행함으로써, 입력 이미지로부터 상기 입력 이미지의 퀄리티를 나타내는 노이즈 맵을 획득하며, 상기 입력 이미지 및 상기 노이즈 맵을 복수의 레이어를 포함하는 학습 네트워크 모델에 적용하여 품질이 개선된 출력 이미지를 획득하는 프로세서;를 포함하고,
상기 프로세서는,
상기 복수의 레이어 중 적어도 하나의 중간 레이어로 상기 노이즈 맵을 제공하며,
상기 학습 네트워크 모델은,
복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 상기 각 샘플 이미지에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델이고,
상기 각 샘플 이미지는, 상기 대응되는 원본 이미지가 압축된 압축 이미지이고,
상기 각 샘플 이미지에 대한 노이즈 맵은, 상기 각 샘플 이미지 및 상기 각 샘플 이미지에 대응되는 원본 이미지로부터 획득된, 전자 장치.
A memory storing at least one instruction; And
Electrically connected to the memory,
By executing the command, a noise map representing the quality of the input image is obtained from an input image, and an output image with improved quality is obtained by applying the input image and the noise map to a learning network model including a plurality of layers. Including;
The processor,
Providing the noise map to at least one intermediate layer among the plurality of layers,
The learning network model,
An artificial intelligence model obtained by learning a relationship between a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image through an artificial intelligence algorithm,
Each of the sample images is a compressed image in which the corresponding original image is compressed,
The noise map for each of the sample images is obtained from each of the sample images and an original image corresponding to each of the sample images.
제1항에 있어서,
상기 학습 네트워크 모델은,
적어도 하나의 서브 레이어를 더 포함하며,
상기 프로세서는,
상기 적어도 하나의 서브 레이어를 이용하여 상기 노이즈 맵을 처리하고, 상기 적어도 하나의 중간 레이어로 상기 처리된 노이즈 맵을 제공하는, 전자 장치.
The method of claim 1,
The learning network model,
It further includes at least one sub-layer,
The processor,
The electronic device comprising: processing the noise map using the at least one sub-layer and providing the processed noise map with the at least one intermediate layer.
제2항에 있어서,
상기 프로세서는,
상기 적어도 하나의 중간 레이어 각각의 이전 레이어에서 출력되는 출력 데이터에 대응되는 복수의 채널 및 추가 채널을 상기 적어도 하나의 중간 레이어 각각에 제공하며,
상기 추가 채널은, 상기 적어도 하나의 중간 레이어 각각에 대응되는 서브 레이어에서 출력되는 상기 처리된 노이즈 맵인, 전자 장치.
The method of claim 2,
The processor,
A plurality of channels and additional channels corresponding to output data output from a previous layer of each of the at least one intermediate layer are provided to each of the at least one intermediate layer,
The additional channel is the processed noise map output from a sub-layer corresponding to each of the at least one intermediate layer.
제1항에 있어서,
상기 프로세서는,
상기 복수의 레이어 중 출력 레이어의 출력 데이터 및 상기 입력 이미지를 믹싱하여 상기 출력 이미지를 획득하는, 전자 장치.
The method of claim 1,
The processor,
The electronic device, wherein the output image is obtained by mixing output data of an output layer among the plurality of layers and the input image.
제1항에 있어서,
상기 프로세서는,
상기 입력 이미지를 복수의 레이어를 포함하는 노이즈 맵 생성 모델에 적용하여 상기 노이즈 맵을 획득하며,
상기 노이즈 맵 생성 모델은,
상기 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델인, 전자 장치.
The method of claim 1,
The processor,
Applying the input image to a noise map generation model including a plurality of layers to obtain the noise map,
The noise map generation model,
The electronic device, which is an artificial intelligence model obtained by learning a relationship between the plurality of sample images and a noise map for each sample image through an artificial intelligence algorithm.
제1항에 있어서,
상기 프로세서는,
상기 복수의 레이어 각각에 상기 노이즈 맵을 제공하거나, 상기 복수의 레이어 중 입력 레이어를 제외한 나머지 레이어 각각에 상기 노이즈 맵을 제공하는, 전자 장치.
The method of claim 1,
The processor,
The electronic device comprising: providing the noise map to each of the plurality of layers, or providing the noise map to each of the plurality of layers except for an input layer.
제1항에 있어서,
상기 학습 네트워크 모델은,
상기 복수의 레이어 중 입력 레이어로 제공된 상기 복수의 샘플 이미지 각각과 상기 적어도 하나의 중간 레이어로 제공된 상기 복수의 샘플 이미지 각각의 노이즈 맵이, 상기 복수의 레이어에 의해 순차적으로 처리되어 획득된 출력 이미지, 및 상기 복수의 샘플 이미지 각각에 대응되는 원본 이미지의 관계를 상기 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델인, 전자 장치.
The method of claim 1,
The learning network model,
An output image obtained by sequentially processing each of the plurality of sample images provided as an input layer among the plurality of layers and a noise map of each of the plurality of sample images provided as the at least one intermediate layer by the plurality of layers, And an artificial intelligence model obtained by learning a relationship between an original image corresponding to each of the plurality of sample images through the artificial intelligence algorithm.
제1항에 있어서,
상기 복수의 샘플 이미지 각각은,
원본 이미지가 압축된 압축 이미지이고,
상기 각 샘플 이미지에 대한 노이즈 맵은,
상기 각 샘플 이미지 및 상기 각 샘플 이미지에 대응되는 원본 이미지로부터 획득된 노이즈 맵인, 전자 장치.
The method of claim 1,
Each of the plurality of sample images,
The original image is a compressed compressed image,
The noise map for each of the sample images is,
The electronic device, which is a noise map obtained from each of the sample images and an original image corresponding to each of the sample images.
제1항에 있어서,
상기 프로세서는,
동영상에 포함된 복수의 프레임 각각을 상기 입력 이미지로서 상기 학습 네트워크 모델에 적용하여 상기 동영상의 품질이 개선된 출력 동영상을 획득하는, 전자 장치.
The method of claim 1,
The processor,
An electronic device for obtaining an output video with improved quality of the video by applying each of a plurality of frames included in the video to the learning network model as the input image.
제1항에 있어서,
디스플레이;를 더 포함하며,
상기 프로세서는,
상기 디스플레이의 해상도에 기초하여 상기 출력 이미지의 해상도를 변환하고, 상기 해상도가 변환된 이미지를 디스플레이하도록 상기 디스플레이를 제어하고,
상기 해상도가 변환된 이미지는,
4K UHD(Ultra High Definition) 이미지 또는 8K UHD 이미지인, 전자 장치.
The method of claim 1,
It further includes a display;
The processor,
Converting the resolution of the output image based on the resolution of the display, and controlling the display to display the converted image,
The image in which the resolution is converted,
An electronic device that is a 4K Ultra High Definition (UHD) image or an 8K UHD image.
제1항에 있어서,
상기 프로세서는,
상기 입력 이미지를 객체 영역 및 배경 영역으로 구분하고,
상기 입력 이미지, 상기 노이즈 맵 및 상기 배경 영역에 대한 정보를 상기 학습 네트워크 모델에 적용하여 상기 배경 영역의 품질을 개선하며,
상기 입력 이미지, 상기 노이즈 맵 및 상기 객체 영역에 대한 정보를 타 학습 네트워크 모델에 적용하여 상기 객체 영역의 품질을 개선하고,
상기 품질이 개선된 객체 영역 및 상기 품질이 개선된 배경 영역에 기초하여 상기 출력 이미지를 획득하는, 전자 장치.
The method of claim 1,
The processor,
Divide the input image into an object area and a background area,
Applying the input image, the noise map, and information on the background region to the learning network model to improve the quality of the background region,
Improving the quality of the object region by applying the input image, the noise map, and information on the object region to another learning network model,
The electronic device of claim 1, wherein the output image is obtained based on the object region with improved quality and the background region with improved quality.
제11항에 있어서,
상기 학습 네트워크 모델은, 노이즈를 제거하기 위한 학습 네트워크 모델이고,
상기 타 학습 네트워크 모델은, 이미지의 해상도를 업스케일링하기 위한 학습 네트워크 모델인, 전자 장치.
The method of claim 11,
The learning network model is a learning network model for removing noise,
The electronic device, wherein the other learning network model is a learning network model for upscaling the resolution of an image.
제1항에 있어서,
상기 프로세서는,
상기 입력 이미지를 객체 영역 및 배경 영역으로 구분하고,
상기 객체 영역에 대한 정보 또는 배경 영역에 대한 정보 중 적어도 하나를 상기 학습 네트워크 모델에 적용하여 상기 품질이 개선된 출력 이미지를 획득하는, 전자 장치.
The method of claim 1,
The processor,
Divide the input image into an object area and a background area,
The electronic device, wherein at least one of information on the object area or information on the background area is applied to the learning network model to obtain an output image with improved quality.
전자 장치의 영상 처리 방법에 있어서,
입력 이미지로부터 상기 입력 이미지의 퀄리티를 나타내는 노이즈 맵을 획득하는 단계;
학습 네트워크 모델에 포함된 복수의 레이어 중 입력 레이어로 입력 이미지를 제공하고, 상기 복수의 레이어 중 적어도 하나의 중간 레이어로 상기 노이즈 맵을 제공하는 단계; 및
상기 입력 이미지 및 상기 노이즈 맵을 상기 학습 네트워크 모델에 적용하여 품질이 개선된 출력 이미지를 획득하는 단계;를 포함하고,
상기 학습 네트워크 모델은,
복수의 샘플 이미지, 각 샘플 이미지에 대한 노이즈 맵 및 상기 각 샘플 이미지에 대응되는 원본 이미지의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델이고,
상기 각 샘플 이미지는, 상기 대응되는 원본 이미지가 압축된 압축 이미지이고,
상기 각 샘플 이미지에 대한 노이즈 맵은, 상기 각 샘플 이미지 및 상기 각 샘플 이미지에 대응되는 원본 이미지로부터 획득된, 영상 처리 방법.
In the image processing method of an electronic device,
Obtaining a noise map representing the quality of the input image from the input image;
Providing an input image to an input layer among a plurality of layers included in the learning network model, and providing the noise map to at least one intermediate layer of the plurality of layers; And
Comprising: applying the input image and the noise map to the learning network model to obtain an output image with improved quality; Including,
The learning network model,
An artificial intelligence model obtained by learning a relationship between a plurality of sample images, a noise map for each sample image, and an original image corresponding to each sample image through an artificial intelligence algorithm,
Each of the sample images is a compressed image in which the corresponding original image is compressed,
The noise map for each sample image is obtained from each sample image and an original image corresponding to each sample image.
제14항에 있어서,
상기 학습 네트워크 모델은,
적어도 하나의 서브 레이어를 더 포함하며,
상기 제공하는 단계는,
상기 적어도 하나의 서브 레이어를 이용하여 상기 노이즈 맵을 처리하고, 상기 적어도 하나의 중간 레이어로 상기 처리된 노이즈 맵을 제공하는, 영상 처리 방법.
The method of claim 14,
The learning network model,
It further includes at least one sub-layer,
The providing step,
Processing the noise map using the at least one sub-layer and providing the processed noise map with the at least one intermediate layer.
제15항에 있어서,
상기 제공하는 단계는,
상기 적어도 하나의 중간 레이어 각각의 이전 레이어에서 출력되는 출력 데이터에 대응되는 복수의 채널 및 추가 채널을 상기 적어도 하나의 중간 레이어 각각에 제공하며,
상기 추가 채널은, 상기 적어도 하나의 중간 레이어 각각에 대응되는 서브 레이어에서 출력되는 상기 처리된 노이즈 맵인, 영상 처리 방법.
The method of claim 15,
The providing step,
A plurality of channels and additional channels corresponding to output data output from a previous layer of each of the at least one intermediate layer are provided to each of the at least one intermediate layer,
The additional channel is the processed noise map output from a sub-layer corresponding to each of the at least one intermediate layer.
제14항에 있어서,
상기 출력 이미지를 획득하는 단계는,
상기 복수의 레이어 중 출력 레이어의 출력 데이터 및 상기 입력 이미지를 믹싱하여 상기 출력 이미지를 획득하는, 영상 처리 방법.
The method of claim 14,
The step of obtaining the output image,
The image processing method of obtaining the output image by mixing output data of an output layer among the plurality of layers and the input image.
제14항에 있어서,
상기 노이즈 맵을 획득하는 단계는,
상기 입력 이미지를 복수의 레이어를 포함하는 노이즈 맵 생성 모델에 적용하여 상기 노이즈 맵을 획득하며,
상기 노이즈 맵 생성 모델은,
상기 복수의 샘플 이미지 및 각 샘플 이미지에 대한 노이즈 맵의 관계를 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델인, 영상 처리 방법.
The method of claim 14,
Obtaining the noise map,
Applying the input image to a noise map generation model including a plurality of layers to obtain the noise map,
The noise map generation model,
An image processing method that is an artificial intelligence model obtained by learning a relationship between the plurality of sample images and a noise map for each sample image through an artificial intelligence algorithm.
제14항에 있어서,
상기 제공하는 단계는,
상기 복수의 레이어 각각에 상기 노이즈 맵을 제공하거나, 상기 복수의 레이어 중 입력 레이어를 제외한 나머지 레이어 각각에 상기 노이즈 맵을 제공하는, 영상 처리 방법.
The method of claim 14,
The providing step,
Providing the noise map to each of the plurality of layers, or providing the noise map to each of the plurality of layers except for an input layer.
제14항에 있어서,
상기 학습 네트워크 모델은,
상기 복수의 레이어 중 입력 레이어로 제공된 상기 복수의 샘플 이미지 각각과 상기 적어도 하나의 중간 레이어로 제공된 상기 복수의 샘플 이미지 각각의 노이즈 맵이, 상기 복수의 레이어에 의해 순차적으로 처리되어 획득된 출력 이미지, 및 상기 복수의 샘플 이미지 각각에 대응되는 원본 이미지의 관계를 상기 인공지능 알고리즘을 통해 학습하여 획득된 인공지능 모델인, 영상 처리 방법.
The method of claim 14,
The learning network model,
An output image obtained by sequentially processing each of the plurality of sample images provided as an input layer among the plurality of layers and a noise map of each of the plurality of sample images provided as the at least one intermediate layer by the plurality of layers, And an artificial intelligence model obtained by learning a relationship between an original image corresponding to each of the plurality of sample images through the artificial intelligence algorithm.
KR1020190078248A 2019-05-02 2019-06-28 Electronic apparatus and image processing method thereof KR102210940B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201911042783.9A CN111881927B (en) 2019-05-02 2019-10-29 Electronic device and image processing method thereof
PCT/KR2019/014896 WO2020222382A1 (en) 2019-05-02 2019-11-05 Electronic apparatus and image processing method thereof
EP19210761.3A EP3734546A1 (en) 2019-05-02 2019-11-21 Electronic apparatus and image processing method thereof
JP2019237838A JP6857712B2 (en) 2019-05-02 2019-12-27 Electronic device and its video processing method
US16/734,001 US11257189B2 (en) 2019-05-02 2020-01-03 Electronic apparatus and image processing method thereof
US17/565,938 US11861809B2 (en) 2019-05-02 2021-12-30 Electronic apparatus and image processing method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190051386 2019-05-02
KR1020190051386 2019-05-02

Publications (2)

Publication Number Publication Date
KR20200127809A KR20200127809A (en) 2020-11-11
KR102210940B1 true KR102210940B1 (en) 2021-02-03

Family

ID=73451850

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190078248A KR102210940B1 (en) 2019-05-02 2019-06-28 Electronic apparatus and image processing method thereof

Country Status (1)

Country Link
KR (1) KR102210940B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11315227B2 (en) 2019-11-29 2022-04-26 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102647968B1 (en) * 2021-10-25 2024-03-15 송방원 Electrostatic discharge test system
KR102452881B1 (en) * 2021-11-23 2022-10-11 (주)코코믹스 Apparatus of processing image and method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180300850A1 (en) 2017-04-14 2018-10-18 Facebook, Inc. Artifact reduction for image style transfer
US20190114742A1 (en) 2017-10-13 2019-04-18 Adobe Inc. Image upscaling with controllable noise reduction using a neural network

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7169094B2 (en) * 2017-06-01 2022-11-10 株式会社東芝 Image processing system and medical information processing system
US10726525B2 (en) * 2017-09-26 2020-07-28 Samsung Electronics Co., Ltd. Image denoising neural network architecture and method of training the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180300850A1 (en) 2017-04-14 2018-10-18 Facebook, Inc. Artifact reduction for image style transfer
US20190114742A1 (en) 2017-10-13 2019-04-18 Adobe Inc. Image upscaling with controllable noise reduction using a neural network

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11315227B2 (en) 2019-11-29 2022-04-26 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US20220230296A1 (en) 2019-11-29 2022-07-21 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11763440B2 (en) 2019-11-29 2023-09-19 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Also Published As

Publication number Publication date
KR20200127809A (en) 2020-11-11

Similar Documents

Publication Publication Date Title
JP6857712B2 (en) Electronic device and its video processing method
US11315222B2 (en) Image processing apparatus and image processing method thereof
KR102210940B1 (en) Electronic apparatus and image processing method thereof
KR102410907B1 (en) Image processing apparatus and image processing method thereof
US11295412B2 (en) Image processing apparatus and image processing method thereof
JP6978542B2 (en) Electronic device and its control method
US11893748B2 (en) Apparatus and method for image region detection of object based on seed regions and region growing
EP3825955A1 (en) Electronic apparatus and controlling method thereof
KR102246110B1 (en) Display apparatus and image processing method thereof
US20220164923A1 (en) Electronic apparatus and controlling method thereof
US10909700B2 (en) Display apparatus and image processing method thereof
KR20210114315A (en) Electronic apparatus and control method thereof
KR20210108027A (en) Electronic apparatus and control method thereof
CN111814818B (en) Display device and image processing method thereof
KR20220067463A (en) Electronic apparatus and controlling method thereof
KR20240009108A (en) Electronic apparatus for training neural network model performing image quality improvement and control method thereof
KR20230126621A (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant