KR20200110255A - Method and apparatus for assessing feature of image - Google Patents

Method and apparatus for assessing feature of image Download PDF

Info

Publication number
KR20200110255A
KR20200110255A KR1020200031898A KR20200031898A KR20200110255A KR 20200110255 A KR20200110255 A KR 20200110255A KR 1020200031898 A KR1020200031898 A KR 1020200031898A KR 20200031898 A KR20200031898 A KR 20200031898A KR 20200110255 A KR20200110255 A KR 20200110255A
Authority
KR
South Korea
Prior art keywords
image
feature information
distortion
values
quality
Prior art date
Application number
KR1020200031898A
Other languages
Korean (ko)
Inventor
고현석
이대열
조승현
김연희
김종호
석진욱
이주영
임웅
정세윤
김휘용
최진수
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20200110255A publication Critical patent/KR20200110255A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Abstract

Disclosed are a method for measuring a feature of an image as a score, and an apparatus therefor. The measurement method comprises the steps of: calculating and extracting a plurality of pieces of feature information from a reference image and a comparison image; calculating distortion values between corresponding pieces of feature information from the extracted plurality of pieces of feature information; extracting a plurality of prediction models of correlations between the distortion values and subjective image quality and/or naturalness measurement values by using the calculated distortion values as an input; constructing a system by using the plurality of prediction models, and determining weights for the plurality of prediction models, respectively; and predicting the subjective image quality/neutrality measurement values by using the plurality of prediction models to which the weights are assigned. According to the present invention, accuracy of an image quality indicator can be improved.

Description

영상의 특징을 측정하는 방법 및 장치{METHOD AND APPARATUS FOR ASSESSING FEATURE OF IMAGE}Method and apparatus for measuring the characteristics of an image {METHOD AND APPARATUS FOR ASSESSING FEATURE OF IMAGE}

아래의 실시예들은 영상에 대한 정보를 처리하는 방법 및 장치에 관한 것으로 보다 상세히는 영상의 특징을 측정하는 방법 및 장치가 개시된다.The following embodiments relate to a method and apparatus for processing information on an image, and in more detail, a method and apparatus for measuring a characteristic of an image are disclosed.

영상 처리 또는, 이미지/비디오 압축 분야에 있어서, 개발된 기술의 성능에 대한 검증을 위해, 또는 개발된 기술의 최적화를 위해 화질을 측정하는 지표가 요구된다. 이러한 지표가 주관적 화질 성능을 잘 반영할 수록 개발된 기술이 우수한 주관적 화질 성능을 제공할 수 있게 된다.In the field of image processing or image/video compression, an index for measuring image quality is required for verification of the performance of a developed technology or optimization of a developed technology. The better this indicator reflects the subjective quality performance, the more the developed technology can provide superior subjective quality performance.

최근 심층 신경망(Deep Neural Network; DNN)의 산출물인 생성 영상(generative images)을 활용하는 다양한 영상 처리에 있어서, 비교 영상의 화질의 측정 외에도 자연도(naturalness)의 측정을 위한 지표가 개발되고, 개발된 기술에 활용될 수 있다.Recently, in various image processing using the generated images, which are the output of Deep Neural Network (DNN), in addition to measuring the quality of the comparative image, an index for measuring naturalness has been developed and developed. It can be used for technology that has been developed.

영상의 주관적 화질/자연도의 측정은, 다수의 평가자들이 참여하는 주관적 평가 실험을 통해 획득된 개별적인 평가 값들을 통계적으로 처리함으로써 화질 및/또는 자연도 측정 값을 구하는 방법이다. 이러한 주관적 화질/자연도의 측정은 영상의 화질 및/또는 자연도를 측정함에 있어서 가장 정확한 방법으로 간주된다. 그러나, 이러한 주관적 화질/자연도의 측정은 높은 시간적 및/또는 경제적 비용을 요구한다는 단점을 갖는다.The measurement of subjective quality/naturality of an image is a method of statistically processing individual evaluation values obtained through a subjective evaluation experiment involving a plurality of evaluators to obtain a measurement value of image quality and/or naturalness. This subjective measurement of quality/naturality is considered to be the most accurate method in measuring the quality and/or nature of an image. However, such subjective measurement of image quality/naturality has a disadvantage in that it requires high temporal and/or economical cost.

이때, 주관적 화질/자연도 측정에서는, 각 평가자가 기준 영상 및 비교 영상의 화질/자연도를 각각 값들로서 평가하고, 평가한 값들의 차이들의 평균 값인 화질/자연도 측정 값이 획득될 수 있다. 여기에서, 화질/자연도 측정 값은 평균 의견 점수(Mean Opinion Score; MOS) 또는 차이 평균 의견 점수(Difference Mean Opinion Score; DMOS)일 수 있다.In this case, in the subjective quality/naturality measurement, each evaluator evaluates the quality/naturality of the reference image and the comparison image as values, and a quality/naturality measurement value that is an average value of differences between the evaluated values may be obtained. Here, the quality/naturality measurement value may be a Mean Opinion Score (MOS) or a Difference Mean Opinion Score (DMOS).

영상 화질/자연도 자동 측정 지표의 개발의 목적은 상대적으로 적은 경제적 비용을 사용하여 화질/자연도를 측정하고, 주관적 평가를 대체하는 것이다.The purpose of the development of the automatic image quality/natural level measurement index is to measure the quality/natural level using relatively low economic costs, and to replace subjective evaluation.

이러한 목적을 달성하기 위해서는 위해서는 영상 화질/자연도 자동 측정 방법이 높은 측정 신뢰도를 제공해야 한다. 통상, 측정 신뢰도는 피어슨 상관 계수(Pearson's Correlation Coefficient; PCC) 또는 스피어만 상관 계수(Spearman's Rank Correlation Coefficient; SRCC)를 통해 평가된다.In order to achieve this purpose, the automatic image quality/naturality measurement method must provide high measurement reliability. Typically, measurement reliability is evaluated through Pearson's Correlation Coefficient (PCC) or Spearman's Rank Correlation Coefficient (SRCC).

일 실시예는, 자연 영상(natural image)의 인지 화질 또는 DNN 생성 영상(generative image)의 자연도를 자동 측정하는 지표를 제공할 수 있다.An embodiment may provide an index for automatically measuring the perceived quality of a natural image or a natural degree of a DNN-generated image.

일 실시예는, 높은 측정 신뢰도를 제공하기 위해, 원본 영상 및 비교 영상 간의 구조적/통계적 유사성을 측정하는 다양한 특징 정보(feature) 및 다층 예측 모델(multi-stage machine learning system) 구조에 기반하여 비교 영상에 대한 화질/자연도 측정 방법을 제공할 수 있다.In one embodiment, in order to provide high measurement reliability, a comparison image based on various feature information and a multi-stage machine learning system structure for measuring structural/statistical similarity between an original image and a comparison image It can provide a method for measuring the quality/naturality of

일 측면에 있어서, 기준 영상 및 비교 영상에서 복수의 특징 정보들을 계산 및 추출하는 단계; 상기 추출된 복수의 특징 정보들에서, 대응하는 특징 정보들 간의 왜곡 값들을 계산하는 단계; 상기 계산된 왜곡 값들을 입력으로서 사용하여, 상기 왜곡 값들 및 주관적 화질 및/또는 자연도 측정 값들 간의 상관 관계의 복수의 예측 모델들을 추출하는 단계; 및 상기 복수의 예측 모델들을 사용하여 시스템을 구성하고, 상기 복수의 예측 모델들에 대한 가중치들을 각각 결정하는 단계를 포함하는 측정 방법이 제공된다.In one aspect, calculating and extracting a plurality of feature information from a reference image and a comparison image; Calculating distortion values between corresponding feature information from the extracted plurality of feature information; Extracting a plurality of predictive models of correlations between the distortion values and subjective image quality and/or naturalness measurement values by using the calculated distortion values as inputs; And configuring a system using the plurality of prediction models, and determining weights for each of the plurality of prediction models.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 장치, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition to this, another method, apparatus, and system for implementing the present invention, and a computer-readable recording medium for recording a computer program for executing the method are further provided.

다양한 특징 정보들이 화질/자연도의 예측에 활용될 수 있다.Various feature information can be used for prediction of image quality/naturality.

특징 정보들 중 구조적 유사성(structural similarity) 특징 정보를 이용하여, 원본 영상에 비해 비교 영상의 픽셀 단위의 정확도 및 구조적 차이점을 측정함으로써 화질 지표의 정확도가 향상될 수 있다.The accuracy of the quality index may be improved by measuring the accuracy and structural difference of the comparison image in pixel units compared to the original image by using structural similarity feature information among the feature information.

특징 정보들 중 통계적 유사성(statistical similarity) 특징 정보를 이용하여, 구조적 유사성에 의해서는 측정되지 않는 화질 열화가 정량화될 수 있다. 또한, DNN 생성 영상의 자연도를 판단함에 있어서, 기존의 화질 지표에 비해 예측 정확도가 향상될 수 있다. Image quality degradation that is not measured by structural similarity may be quantified by using statistical similarity feature information among the feature information. In addition, in determining the naturalness of the DNN-generated image, prediction accuracy may be improved compared to a conventional quality index.

다층 예측 모델(multi-stage machine learning system)을 이용한 예측 모델 시스템을 구성함으로써, 입력 영상의 특성에 따라 구조적 유사성 및 통계적 유사성에 대한 가중치를 적응적으로 할당함으로써 예측의 정확도가 향상될 수 있다. By configuring a prediction model system using a multi-stage machine learning system, the accuracy of prediction can be improved by adaptively allocating weights for structural similarity and statistical similarity according to characteristics of an input image.

도 1은 일 실시예에 따른 측정 장치의 구조도이다.
도 2는 일 실시예에 따른 측정 방법의 흐름도이다.
도 3은 일 예에 따른 SVD 변환을 이용하여 생성된 서브 밴드 영상의 특징 정보의 이용을 나타낸다.
도 4은 일 예에 따른 프레임-기반 특징 계산을 나타낸다.
도 5는 일 예에 따른 블록-기반 특징 계산을 나타낸다.
도 6은 일 예에 따른 선형 또는 비선형 모델을 사용하는 주관적 화질/자연도 값의 생성을 나타낸다.
도 7는 일 예에 따른 2 단의 예측 모델들을 나타낸다.
도 8은 일 예에 따른 n 단의 예측 모델들을 나타낸다.
도 9는 일 실시예에 따른 측정 장치를 구현하는 전자 장치의 구조를 나타낸다.
1 is a structural diagram of a measuring device according to an exemplary embodiment.
2 is a flowchart of a measurement method according to an embodiment.
3 illustrates use of feature information of a subband image generated using SVD transformation according to an example.
4 illustrates frame-based feature calculation according to an example.
5 illustrates block-based feature calculation according to an example.
6 illustrates generation of subjective quality/naturality values using a linear or nonlinear model according to an example.
7 shows two-stage prediction models according to an example.
8 shows n-stage prediction models according to an example.
9 illustrates a structure of an electronic device implementing a measuring device according to an exemplary embodiment.

후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.For a detailed description of exemplary embodiments described below, reference is made to the accompanying drawings, which illustrate specific embodiments as examples. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the embodiments. It should be understood that the various embodiments are different from each other but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the embodiment. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of exemplary embodiments, if properly described, is limited only by the appended claims, along with all scope equivalents to those claimed by the claims.

도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Like reference numerals in the drawings refer to the same or similar functions over several aspects. The shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.

실시예에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 실시예에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않으며, 추가적인 구성이 예시적 실시예들의 실시 또는 예시적 실시예들의 기술적 사상의 범위에 포함될 수 있음을 의미한다. 어떤 구성요소(component)가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기의 2개의 구성요소들이 서로 간에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 상기의 2개의 구성요소들의 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.The terms used in the examples are for describing the examples and are not intended to limit the present invention. In embodiments, the singular also includes the plural unless specifically stated in the text. As used in the specification, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements, and/or elements, steps, actions and/or elements mentioned. Or, it does not exclude addition, it means that the additional configuration may be included in the scope of the technical idea of the exemplary embodiments or implementation of the exemplary embodiments. When a component is referred to as being "connected" or "connected" to another component, the two components may be directly connected to each other or may be connected, but the above 2 It should be understood that other components may exist in the middle of the components.

제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기의 구성요소들은 상기의 용어들에 의해 한정되어서는 안 된다. 상기의 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하여 지칭하기 위해서 사용된다. 예를 들어, 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the above components should not be limited by the above terms. The above terms are used to distinguish one component from another component. For example, without departing from the scope of the rights, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

또한, 실시예들에 나타나는 구성요소들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성요소가 분리된 하드웨어나 하나의 소프트웨어 구성 단위로만 이루어짐을 의미하지 않는다. 즉, 각 구성요소는 설명의 편의상 각각의 구성요소로 나열된 것이다. 예를 들면, 구성요소들 중 적어도 두 개의 구성요소들이 하나의 구성요소로 합쳐질 수 있다. 또한, 하나의 구성요소가 복수의 구성요소들로 나뉠 수 있다. 이러한 각 구성요소의 통합된 실시예 및 분리된 실시예 또한 본질에서 벗어나지 않는 한 권리범위에 포함된다.In addition, components shown in the embodiments are shown independently to represent different characteristic functions, and it does not mean that each component is composed of only separate hardware or one software component unit. That is, each component is listed as each component for convenience of description. For example, at least two of the components may be combined into one component. Also, one component may be divided into a plurality of components. An integrated embodiment and a separate embodiment of each of these components are also included in the scope of the rights unless departing from the essence.

또한, 일부의 구성요소는 본질적인 기능을 수행하는 필수적인 구성요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성요소일 수 있다. 실시예들은 실시예의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 예를 들면, 단지 성능 향상을 위해 사용되는 구성요소와 같은, 선택적 구성요소가 제외된 구조 또한 권리 범위에 포함된다.In addition, some of the components are not essential components that perform essential functions, but may be optional components only for improving performance. The embodiments may be implemented including only components essential to implement the essence of the embodiments, and structures excluding optional components, such as components used only for improving performance, are also included in the scope of the rights.

이하에서는, 기술분야에서 통상의 지식을 가진 자가 실시예들을 용이하게 실시할 수 있도록 하기 위하여, 첨부된 도면을 참조하여 실시예들을 상세히 설명하기로 한다. 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings in order to enable those of ordinary skill in the art to easily implement the embodiments. In describing the embodiments, when it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present specification, a detailed description thereof will be omitted.

명세서의 설명에서, 기호 "/"는 "및/또는'의 약자로서 사용될 수 있다. 말하자면, "A/B"는 "A 및/또는 B"나 "A 및 B 중 적어도 하나"를 의미할 수 있다.In the description of the specification, the symbol "/" may be used as an abbreviation of "and/or". That is, "A/B" may mean "A and/or B" or "at least one of A and B". have.

기존의 평균 제곱 오차(Mean Squared Error; MSE), 최대 신호 대 잡음 비(Peak Signal-to-Noise Ratio; PSNR) 또는 구조적 유사도 SSIM(Structural SIMilarity; SSIM) 등의 전체 참조(Full Reference; FR) 화질 지표들은 기준 영상 및 비교 영상의 간의 차이를 측정하는 방법으로서 직관적이라는 장점을 가질 수 있다.Full reference (FR) quality such as conventional mean squared error (MSE), peak signal-to-noise ratio (PSNR), or structural similarity SSIM (Structural SIMilarity; SSIM) The indicators are a method of measuring a difference between the reference image and the comparison image, and may have an advantage of being intuitive.

반면, 이러한 FR 화질 지표들은 측정 값의 경향이 인지 화질에 비해 차이가 많은 경우가 존재할 수 있으며, 서로 다른 특성의 영상들 간의 비교에 있어서 낮은 측정 신뢰도를 가질 수 있다.On the other hand, these FR quality indicators may have a large difference in the trend of the measured value compared to the perceived quality, and may have low measurement reliability in comparison between images of different characteristics.

이러한 FR 화질 지표들을 측정하는 방법은, 영상의 픽셀(pixel) 단위에 대한 신뢰도(fidelity)의 유지를 중점으로 설계되어 있어, 영상의 구조적 또는 통계적 왜곡에 대해서는 낮은 정확도를 보일 수 있으며, 특히 생성 영상의 자연도의 측정에 있어서는 더욱 낮은 정확도를 보일 수 있다.The method of measuring these FR quality indicators is designed with a focus on maintaining fidelity in the pixel unit of the image, so it can show low accuracy for structural or statistical distortion of the image. In the measurement of the natural degree of, it can show a lower accuracy.

아래의 실시예에서는, 영상의 화질 또는 자연스러움을 측정하는 방법이 설명되며, 참조(reference) 영상에 비하여, 비교 (comparison) 영상의 화질 또는 자연스러움을 측정하는 지표에 관하여 설명된다.In the following embodiments, a method of measuring the quality or naturalness of an image is described, and an index for measuring the quality or naturalness of a comparison image is described as compared to a reference image.

도 1은 일 실시예에 따른 측정 장치의 구조도이다.1 is a structural diagram of a measuring device according to an exemplary embodiment.

측정 장치(100)로는 기준(reference) 영상 및 비교 영상이 입력될 수 있다.A reference image and a comparison image may be input to the measurement device 100.

기준 영상은 원본 입력 영상(original input image)일 수 있다. 비교 영상은 비교 입력 영상(comparison input image) 또는 검사(test) 영상일 수 있다.The reference image may be an original input image. The comparison image may be a comparison input image or a test image.

측정 장치(100)는 기준 영상 및 비교 영상으로부터 추출된 복수의 추출 정보 값들 간의 비교를 통해, 기준 영상에 비한 비교 영상의 예측 화질/자연도 측정 값을 계산할 수 있다. 여기에서, 측정 값은 점수를 의미할 수 있다. 화질은 인지적 화질(perceptual quality)를 의미할 수 있다.The measuring apparatus 100 may calculate a predicted quality/natural degree measurement value of the comparison image compared to the reference image by comparing the reference image and a plurality of extracted information values extracted from the comparison image. Here, the measured value may mean a score. Picture quality can mean perceptual quality.

여기에서, 복수의 추출 정보 값들은 특징 정보(feature)들일 수 있다.Here, the plurality of extracted information values may be feature information.

예를 들면, 측정 장치(100)는 기준 영상 및 비교 영상 간의 구조적 유사성(structural similarity)을 측정하기 위해 다양한 특이 값 분해(Singular Value Decomposition; SVD)에 관련된 특징 정보들을 활용할 수 있다. 여기에서, 특이 값 분해에 관련된 특징 정보들은 하나의 특징 정보 그룹 군을 이룰 수 있다.For example, the measuring apparatus 100 may utilize feature information related to various Singular Value Decomposition (SVD) to measure structural similarity between the reference image and the comparison image. Here, the feature information related to singular value decomposition may form one feature information group.

예를 들면, 측정 장치(100)는, 기준 영상 및 비교 영상 간의 통계적 유사성(statistical similarity)을 측정하기 위해 히스토그램 분포 간 거리(histogram distance)에 관련된 특징 정보들을 활용할 수 있다. 여기에서, 히스토그램 분포 간 거리에 관련된 특징 정보들은 하나의 특징 정보 그룹 군을 이룰 수 있다.For example, the measuring apparatus 100 may utilize feature information related to a histogram distance in order to measure statistical similarity between the reference image and the comparison image. Here, feature information related to a distance between histogram distributions may form one feature information group.

예를 들면, 측정 장치(100)는, 2 개의 특징 정보 그룹 군을 결합할 수 있고, 결합된 2 개의 특징 정보 그룹 군을 사용하여 최종의 화질/자연도 측정 값을 계산할 수 있다. 2 개의 특징 정보 그룹 군들은 특이 값 분해에 관련된 특징 정보들에 의해 생성된 특징 정보 그룹 군 및 히스토그램 분포 간 거리에 관련된 특징 정보들에 의해 생성된 특징 정보 그룹 군을 의미할 수 있다.For example, the measurement apparatus 100 may combine two feature information group groups, and calculate a final quality/natural degree measurement value using the combined two feature information group groups. The two feature information group groups may mean a feature information group group generated by feature information related to singular value decomposition and a feature information group group generated by feature information related to a distance between the histogram distribution.

측정 장치(100)는 최종의 화질/자연도 측정 값을 계산함에 있어서 다층 예측 모델(multi-stage machine learning system)을 이용할 수 있다.The measuring apparatus 100 may use a multi-stage machine learning system to calculate a final image quality/natural degree measurement value.

영상의 화질/자연도 측정 모델을 제공하는 측정 장치(100)는 특징 정보 추출부(110), 왜곡 계산부(120), 예측 모델 생성부(130), 모델 최적화부(140) 및 예측부(150)를 포함할 수 있다.The measuring apparatus 100 for providing a model for measuring image quality/natural degree includes a feature information extraction unit 110, a distortion calculation unit 120, a prediction model generation unit 130, a model optimization unit 140, and a prediction unit ( 150) may be included.

특징 정보 추출부(110)는 기준 영상 및 비교 영상에서 복수의 특징 정보들을 계산 및 추출할 수 있다.The feature information extraction unit 110 may calculate and extract a plurality of feature information from the reference image and the comparison image.

왜곡 계산부(120)는 원본 영상 및 비교 영상에서 추출된 복수의 특징 정보들에서, 대응하는 특징 정보들 간의 차이 값들 또는 왜곡 값들을 비교 및 계산할 수 있다.The distortion calculator 120 may compare and calculate difference values or distortion values between corresponding feature information from the plurality of feature information extracted from the original image and the comparison image.

예측 모델 생성부(130)는 복수의 특징 정보들 및/또는 계산된 왜곡 값들을 입력으로서 사용하여, 왜곡 값들 및 주관적 화질/자연도 측정 값들 간의 상관 관계의 복수의 예측 모델들을 추출할 수 있다.The prediction model generator 130 may extract a plurality of prediction models of correlations between distortion values and subjective quality/naturality measurement values by using a plurality of feature information and/or calculated distortion values as inputs.

예측 모델 생성부(130)는 복수의 특징 정보들의 각 특징 정보에 대하여, 각 특징 정보의 왜곡 값 및 주관적 화질/자연도 측정 값 간의 예측 모델에 대한 학습을 수행할 수 있다.The prediction model generation unit 130 may learn a prediction model between a distortion value of each feature information and a subjective quality/natural degree measurement value for each feature information of a plurality of feature information.

모델 최적화부(140)는 학습에 따른 복수의 예측 모델들을 사용하여 시스템을 구성하고, 복수의 예측 모델들에 대한 가중치들을 각각 결정할 수 있다.The model optimizer 140 may configure a system using a plurality of prediction models according to learning, and may determine weights for each of the plurality of prediction models.

예측부(140)는 가중치들이 부여된 복수의 예측 모델들을 사용하여 주관적 화질/자연도 측정 값을 예측할 수 있다.The predictor 140 may predict a subjective quality/naturality measurement value using a plurality of prediction models to which weights are assigned.

도 2는 일 실시예에 따른 측정 방법의 흐름도이다.2 is a flowchart of a measurement method according to an embodiment.

단계(210)에서, 특징 정보 추출부(110)는 기준 영상 및 비교 영상에서 복수의 특징 정보들을 계산 및 추출할 수 있다.In step 210, the feature information extractor 110 may calculate and extract a plurality of feature information from the reference image and the comparison image.

단계(220)에서, 왜곡 계산부(120)는 기준 영상 및 비교 영상에서 추출된 복수의 특징 정보들에서, 대응하는 특징 정보들 간의 차이 값들 또는 왜곡 값들을 비교 및 계산할 수 있다.In step 220, the distortion calculator 120 may compare and calculate difference values or distortion values between corresponding feature information from the plurality of feature information extracted from the reference image and the comparison image.

단계(230)에서, 예측 모델 생성부(130)는 복수의 특징 정보들 및/또는 계산된 왜곡 값들을 입력으로서 사용하여, 왜곡 값들 및 주관적 화질/자연도 측정 값들 간의 상관 관계의 복수의 예측 모델들을 추출할 수 있다.In step 230, the prediction model generation unit 130 uses a plurality of feature information and/or calculated distortion values as inputs, and a plurality of prediction models of correlations between distortion values and subjective quality/naturality measurement values Can be extracted.

예측 모델 생성부(130)는 복수의 특징 정보들의 각 특징 정보에 대하여, 각 특징 정보의 왜곡 값 및 주관적 화질/자연도 측정 값 간의 예측 모델에 대한 학습을 수행할 수 있다.The prediction model generation unit 130 may learn a prediction model between a distortion value of each feature information and a subjective quality/natural degree measurement value for each feature information of a plurality of feature information.

단계(240)에서, 모델 최적화부(140)는 학습에 따른 복수의 예측 모델들을 사용하여 시스템을 구성하고, 복수의 예측 모델들에 대한 가중치들을 각각 결정할 수 있다.In step 240, the model optimizer 140 may configure a system using a plurality of prediction models according to training, and determine weights for the plurality of prediction models, respectively.

단계(250)에서, 예측부(140)는 가중치들이 부여된 복수의 예측 모델들을 사용하여 주관적 화질/자연도 측정 값을 예측할 수 있다.In step 250, the prediction unit 140 may predict a subjective quality/naturality measurement value using a plurality of prediction models to which weights are assigned.

측정 값은 점수일 수 있다.The measured value can be a score.

아래에서는 전술된 단계들의 동작이 더 상세하게 설명된다.In the following, the operation of the above-described steps will be described in more detail.

특징 정보들의 추출Extraction of feature information

다시 도 2를 참조한다.Refer back to FIG. 2.

단계(210)에서, 특징 정보 추출부(110)는 기준 영상 및/또는 비교 영상에서 복수의 특징 정보들을 계산 및 추출할 수 있다.In step 210, the feature information extraction unit 110 may calculate and extract a plurality of feature information from the reference image and/or the comparison image.

특징 정보 추출부(110)는, 비교 영상의 화질 및/또는 자연도를 측정하기 위해, 기준 영상 및/또는 비교 영상으로부터 아래에서 설명될 것과 같이 하나 이상의 특징 정보들을 추출 할 수 있다.The feature information extraction unit 110 may extract one or more feature information from the reference image and/or the comparison image as described below in order to measure the quality and/or the natural degree of the comparison image.

이하에서, 영상은 기준 영상 또는 비교 영상일 수 있다.Hereinafter, the image may be a reference image or a comparison image.

영상의 크기 또는 해상도는 WxH 일 수 있다. W는 영상의 넓기, 즉 가로 축 화소의 개수를 의미할 수 있다. H는 영상의 높이, 즉 세로 축 화소의 개수를 의미할 수 있다. The image size or resolution may be WxH. W may mean the width of an image, that is, the number of pixels on the horizontal axis. H may mean the height of the image, that is, the number of pixels on the vertical axis.

예를 들면, 특징 정보 추출부(110)는 영상의 픽셀 값(말하자면, 강도(intensity))을 영상의 특징 정보로 이용할 수 있다. 말하자면, 영상의 특징 정보들은 영상의 픽셀 값을 포함할 수 있다.For example, the feature information extracting unit 110 may use a pixel value (ie, intensity) of an image as feature information of an image. In other words, the feature information of the image may include a pixel value of the image.

예를 들면, 특징 정보 추출부(110)는 영상에 대한 2차 변환(2D transformation)을 수행함으로써 생성된 계수(coefficient) 값을 영상의 특징 정보로 이용할 수 있다. 말하자면, 영상의 특징 정보들은 영상의 계수 값을 포함할 수 있다.For example, the feature information extraction unit 110 may use a coefficient value generated by performing a 2D transformation on an image as feature information of an image. In other words, the feature information of the image may include a coefficient value of the image.

2차 변환은 이산 코사인 변환(Discrete Cosine Transform; DCT), 이산 사인 변환(Discrete Sine Transform; DST), 이산 퓨리에 변환(Discrete Fourier Transform; DFT), 이산 웨이브렛(Discrete Wavelet Transform; DWT) 및 특이 값 분해(Singular Value Decomposition; SVD) 등 중에서 하나일 수 있다. 또한, 2차 변환을 위해 이 외의 변환식이 사용될 수 있다.The second-order transform is Discrete Cosine Transform (DCT), Discrete Sine Transform (DST), Discrete Fourier Transform (DFT), Discrete Wavelet Transform (DWT) and singular values. It may be one of Singular Value Decomposition (SVD) and the like. In addition, other conversion equations may be used for the second-order conversion.

도 3은 일 예에 따른 SVD 변환을 이용하여 생성된 서브 밴드 영상의 특징 정보의 이용을 나타낸다.3 illustrates use of feature information of a subband image generated using SVD transformation according to an example.

특징 정보 추출부(110)는 영상을 N 개의 서브 밴듣(sub band)로 분할하여 서브 밴드 영상들을 생성할 수 있고, 서브 밴드 영상들을 특징 정보로서 이용할 수 있다. N은 2 이상의 양의 정수일 수 있다.The feature information extractor 110 may generate sub-band images by dividing the image into N sub-bands, and may use the sub-band images as feature information. N may be a positive integer of 2 or more.

분할은 변환 전의(또는, 변환이 적용되지 않은) 영상에 대해서 적용될 수 있다. 또는, 분할은 원래의 영상을 전술된 변환들 중 하나를 이용하여 변환함으로써 생성된 변환된 영상에 적용될 수 있다. 변환은 2차 변환 방법 중 하나일 수 있다.Segmentation can be applied to an image before (or to which no transformation has been applied). Alternatively, the segmentation may be applied to a transformed image generated by transforming the original image using one of the aforementioned transforms. Transformation may be one of the quadratic transformation methods.

도 3에서는, SVD 변환을 이용하여 서브 밴드 영상을 생성하고, 서브 밴드 영상을 특징 정보로서 이용하는 일 예가 도시되었다.In FIG. 3, an example of generating a sub-band image using SVD transformation and using the sub-band image as feature information is illustrated.

r × c의 크기를 갖는 영상 X에 대한 SVD 변환은 아래의 수식 1과 같이 정의될 수 있다.SVD transformation for an image X having a size of r × c can be defined as in Equation 1 below.

[수식 1][Equation 1]

Figure pat00001
Figure pat00001

Ur × r의 크기의 좌 특이 행렬(left singular matrix)일 수 있다. U may be a left singular matrix of size r × r .

u i (i = 1, 2, ..., r)는 U를 구성하는 컬럼 벡터(column vector)이며, X*X T 의 고유 벡터(eigen vector)일 수 있다. u i ( i = 1, 2, ..., r ) is a column vector constituting U , and may be an eigen vector of X * X T.

Vc × c의 크기의 좌 특이 행렬(right singular matrix)일 수 있다. V may be a right singular matrix of size c × c .

v i (i = 1, 2, ..., c)는 V를 구성하는 컬럼 벡터(column vector)이며, X T *X의 고유 벡터(eigen vector)일 수 있다. v i (i = 1, 2, ..., c ) is a column vector constituting V , and may be an eigen vector of X T * X.

σ는 특이 값들로 구성된 대각 행렬 (diagonal matrix)일 수 있다. σ may be a diagonal matrix composed of singular values.

trc 중 더 작은 값(t = min{r, c})일 수 있다. t may be a smaller value of r and c ( t = min{ r , c }).

앙상블 영상(ensemble image 또는 EsbImg)는 아래의 수식 2와 같이 정의할 수 있다. 여기에서, k < t일 수 있다.The ensemble image or EsbImg can be defined as in Equation 2 below. Here, it can be k < t .

[수식 2][Equation 2]

Figure pat00002
Figure pat00002

또한, 고유 영상(eigen image)는 아래의 수식 3과 같이 정의될 수 있다. 여기에서, k < t일 수 있다. Also, an eigen image may be defined as in Equation 3 below. Here, it can be k < t .

[수식 3][Equation 3]

Figure pat00003
Figure pat00003

도 3에서는, 기준 영상 및/또는 비교 영상을 앙상블 영상을 이용하여 3개의 서브-밴드 영상들로 구분하는 일 예가 도시되었다.In FIG. 3, an example of dividing a reference image and/or a comparison image into three sub-band images using an ensemble image is illustrated.

구분에 있어서, 서브 밴드들은 로우 밴드(Low Band; LB), 미드 밴드(Mid band; MB) 및 하이 밴드(High Band; HB)일 수 있다.In classification, the subbands may be a low band (LB), a mid band (MB), and a high band (HB).

각 서브 밴드 영상을 생성하기 위한 u i 및/또는 v i 의 개수는 아래의 방법들 중 하나의 방법에 의해 결정될 수 있다. 단, 모든 서브 밴드들의 u i 및/또는 v i 의 개수의 합 trc 중 더 작은 값일 수 있다.The number of u i and/or v i for generating each sub-band image may be determined by one of the following methods. However, the sum t of the number of u i and/or v i of all subbands may be a smaller value among r and c .

- u i 및/또는 v i 의 개수는 floor(t/N)개 일 수 있다. 여기에서, floor(x)는 x 이하의 가장 큰 정수일 수 있다. 예를 들면, 도 3에서, N은 3일 수 있다,-The number of u i and/or v i may be floor ( t / N ). Here, floor( x ) may be the largest integer less than or equal to x . For example, in FIG. 3, N may be 3,

- u i 및/또는 v i 의 개수는, LB 영상에 대해 floor{(1/6)*t}이고, MB 영상에 대해 floor{(2/6)*t}이고, HB 영상에 대해 floor{(3/6)*t}일 수 있다. -The number of u i and/or v i is floor{(1/6)* t } for the LB image, floor{(2/6)* t } for the MB image, and floor{ for the HB image It can be (3/6)* t }.

- u i 및/또는 v i 의 개수는, LB 영상에 대해 floor{(w1*t}이고, MB 영상에 대해 floor{(w2*t}이고, HB 영상에 대해 floor{w3*t}일 수 있다. 이 때, w1 + w2 + w3 = 1일 수 있다.- u i and / or v i number is, floor {(w 1 * t } and, floor {(w 2 * t } for MB image on LB image and, HB for the image floor {w 3 * t of } In this case, w 1 + w 2 + w 3 = 1.

다시 도 2를 참조한다.Refer back to FIG. 2.

특징 정보 추출부(110)는 영상으로부터 생성되는 히스토그램(histogram)을 특징 정보로 이용할 수 있다. 말하자면, 영상의 특징 정보들은 히스토그램을 포함할 수 있다.The feature information extraction unit 110 may use a histogram generated from an image as feature information. In other words, the feature information of the image may include a histogram.

히스토그램은 변환 전의(또는, 변환이 적용되지 않은) 영상으로부터 생성될 수 있다. 또는, 히스토그램은 원래의 영상을 전술된 변환들 중 하나를 이용하여 변환함으로써 생성된 변환된 영상으로부터 생성될 수 있다. 변환은 2차 변환 방법 중 하나일 수 있다.The histogram may be generated from an image before (or to which no transformation has been applied). Alternatively, the histogram may be generated from a transformed image generated by transforming the original image using one of the aforementioned transforms. Transformation may be one of the quadratic transformation methods.

히스토그램은 영상에 대한 통계 지표 중 하나를 기준으로 생성될 수 있다. 이때, 통계 지표는 영상에 대한 평균(mean), 최대 값(max), 최소 값(min), 중간 값, 및 그 외의 통계 값이 이용될 수 있다.The histogram may be generated based on one of the statistical indicators for the image. At this time, as the statistical index, a mean, a maximum value (max), a minimum value (min), a median value, and other statistical values for the image may be used.

특징 정보 추출부(110)는 영상의 로우(Rho) 값을 이용하여 히스토그램을 생성할 수 있다. 로우 값(Rho)은 아래의 수식 4와 같이 정의될 수 있다.The feature information extracting unit 110 may generate a histogram using a row value of an image. The row value Rho may be defined as in Equation 4 below.

[수식 4] [Equation 4]

Figure pat00004
Figure pat00004

히스토그램 생성을 위해 이용되는 영상의 통계 지표는 영상을 N × M 크기의 복수의 단위 블록들로 분할한 후, 모든 단위 블록들에 대하여 계산된 통계 값들을 이용하여 생성될 수 있다. NMN < H, M < W인 양의 정수일 수 있다.The statistical index of an image used to generate the histogram may be generated by dividing the image into a plurality of unit blocks having a size of N × M and then using statistical values calculated for all the unit blocks. N and M may be positive integers in which N < H and M < W .

특징 정보들 간의 왜곡의 계산Calculation of distortion between feature information

단계(220)에서, 왜곡 계산부(120)는 기준 영상 및 비교 영상에서 추출된 복수의 특징 정보들에서, 대응하는 특징 정보들 간의 차이 값들 또는 왜곡 값들을 비교 및 계산할 수 있다.In step 220, the distortion calculator 120 may compare and calculate difference values or distortion values between corresponding feature information from the plurality of feature information extracted from the reference image and the comparison image.

왜곡 계산부(120)는 기준 영상으로부터 특징 정보들을 추출할 수 있다. 왜곡 계산부(120)는 비교 영상으로부터 특징 정보들을 추출할 수 있다.The distortion calculator 120 may extract feature information from the reference image. The distortion calculator 120 may extract feature information from the comparison image.

기준 영상으로부터 추출된 특징 정보들 및 비교 영상으로부터 추출된 특징 정보들은 서로 대응할 수 있다. 말하자면, 기준 영상으로부터 추출된 특징 정보들 중 특정한 종류의 특징 정보와, 비교 영상으로부터 추출된 특징 정보들 중 상기의 특정한 종류의 특징 정보는 서로 대응할 수 있다. 이러한 같은 종류의 대응하는 특징 정보들을 특징 정보들 내의 동일 특징 정보들로 명명할 수 있다.Feature information extracted from the reference image and feature information extracted from the comparison image may correspond to each other. In other words, a specific type of characteristic information among the characteristic information extracted from the reference image and the specific type of characteristic information among the characteristic information extracted from the comparison image may correspond to each other. Corresponding feature information of the same type may be referred to as the same feature information in the feature information.

왜곡 계산부(120)는 기준 영상 및 비교 영상으로부터 특징 정보들을 추출한 후, 추출된 특징 정보들 내의 동일 특징 정보들 간의 왜곡을 계산할 수 있다. 왜곡은 동일 특징 정보들의 값들 간의 유사성의 반대 경향성을 나타내는 지표일 수 있다. The distortion calculation unit 120 may extract feature information from the reference image and the comparison image, and then calculate distortion between the same feature information in the extracted feature information. Distortion may be an index indicating an opposite tendency of similarity between values of the same feature information.

왜곡 계산부(120)는 특징 정보들을 추출한 후, 아래의 수식 5와 같이 기준 영상 및 비교 영상의 동일 특징 정보들 간의 왜곡을 계산할 수 있다.After extracting the feature information, the distortion calculator 120 may calculate distortion between the same feature information of the reference image and the comparison image as shown in Equation 5 below.

[수식 5][Equation 5]

Figure pat00005
Figure pat00005

R은 기준 영상을 나타낼 수 있다. T는 비교 영상을 나타낼 수 있다. R may represent a reference image. T may represent a comparison image.

함수 F(R, T)는 화소 단위의 차분, 절대 차분, 차분의 N차 제곱(N은 2이상의 정수)값 중 하나일 수 있다.The function F ( R , T ) may be one of a pixel-based difference, an absolute difference, and an N-th square of the difference (N is an integer greater than or equal to 2).

전술된 단계(210)에서의 분할을 통해, N 개의 서브 밴드 영상들이 기준 영상 및 비교 영상으로부터 특징 정보로서 추출된 경우, 왜곡 값은 아래의 수식 6 내지 수식 10의 방법들 중 하나 이상의 방법으로 계산될 수 있다.When N subband images are extracted as feature information from the reference image and the comparison image through the division in step 210 described above, the distortion value is calculated by one or more of the methods of Equations 6 to 10 below. Can be.

[수식 6][Equation 6]

Figure pat00006
Figure pat00006

- EsbRef B EsbTest B 는 각각 기준 영상 및 비교 영상의 B 번째 서브 밴드의 앙상블 영상(EsbImg)을 나타낼 수 있다. -EsbRef B and EsbTest B may represent the ensemble image EsbImg of the B- th subband of the reference image and the comparison image, respectively.

[수식 7][Equation 7]

Figure pat00007
Figure pat00007

- EigRef B EigTest B 는 각각 기준 영상 및 비교 영상의 B 번째 서브 밴드의 고유(eigen) 영상을 나타낼 수 있다. -EigRef B and EigTest B may represent eigen images of the B- th subband of the reference image and the comparison image, respectively.

[수식 8][Equation 8]

Figure pat00008
Figure pat00008

[수식 9][Equation 9]

Figure pat00009
Figure pat00009

- XvecRef B XvecTest B 는 각각 기준 영상 및 비교 영상의 B 번째 서브 밴드의 특이 벡터 행렬(singular vector matrix)일 수 있다. XU 또는 V일 수 있다. -XvecRef B and XvecTest B may be singular vector matrices of the B- th subband of the reference image and the comparison image, respectively. X can be U or V.

- U B V B 는 해당하는 서브 밴드의 특이 행렬(singular matrix)이 포함하는 특이 벡터(singular vector)의 개수를 나타낼 수 있다. -U B and V B may represent the number of singular vectors included in the singular matrix of the corresponding subband.

- 연산자 ○는 행렬의 내적을 나타낼 수 있다. 연산자 Θ는 행렬의 요소-별(element-wise) 차분을 나타낼 수 있다. 함수 abs(.)는 절대 차분을 의미할 수 있다.-Operator ○ can represent the dot product of a matrix. Operator Θ may represent an element-wise difference of a matrix. The function abs (.) can mean absolute difference.

[수식 10][Equation 10]

Figure pat00010
Figure pat00010

- DiagRef B DiagTest B 는 각각 기준 영상 및 비교 영상의 B 번째 서브 밴드의 대각 행렬(diagonal matrix) 일 수 있고, N B 및 서브 밴드 B 내의 특이 값(singular value)의 개수를 나타낼 수 있다. -DiagRef B and DiagTest B may be a diagonal matrix of the B- th subband of the reference image and the comparison image, respectively, and may represent the number of singular values in N B and subband B.

단계(210)에서 기준 영상 및 비교 영상으로부터 각각 히스토그램이 특징 정보로서 생성된 경우, 왜곡 계산부(120)는 2 개의 히스토그램들 간의 왜곡을 계산하기 위하여 2 개의 히스토그램들의 분포 거리(distribution distance)를 이용할 수 있다.In step 210, when each histogram is generated as feature information from the reference image and the comparison image, the distortion calculator 120 uses the distribution distance of the two histograms to calculate the distortion between the two histograms. I can.

분포 거리의 계산에 있어서, 아래의 수식 11의 쿨백-라이블러(Kullback Leibler; KL) 거리(distance) 또는 수식 12의 카이제곱(Chi-square) 거리(distance)가 이용될 수 있다.In the calculation of the distribution distance, a Kullback Leibler (KL) distance of Equation 11 below or a Chi-square distance of Equation 12 may be used.

[수식 11][Equation 11]

Figure pat00011
Figure pat00011

n은 빈(bin)들의 개수를 나타낼 수 있다. n can represent the number of bins.

P(i)는 제1 확률 거리 상의 i번째 빈(bin) 값을 나타낼 수 있다. P (i) may represent an i- th bin value on the first probability distance.

Q(i)는 제2 확률 거리 상의 i번째 빈(bin) 값을 나타낼 수 있다. Q (i) may represent an i- th bin value on the second probability distance.

[수식 12][Equation 12]

Figure pat00012
Figure pat00012

n은 빈(bin)들의 개수를 나타낼 수 있다. n can represent the number of bins.

x i 는 제1 히스토그램의 i번째 빈(bin) 값을 나타낼 수 있다. x i may represent an i- th bin value of the first histogram.

y i 는 제2 히스토그램의 i번째 빈(bin) 값을 나타낼 수 있다. y i may represent an i- th bin value of the second histogram.

[수식 13] [Equation 13]

Figure pat00013
Figure pat00013

Hist int Ref Hist int Test 는 각각 기준 영상 및 비교 영상의 변환 전의(또는, 변환이 적용되지 않은) 강도 도메인(intensity domain)에서의 히스토그램을 나타낼 수 있다. Hist int Ref and Hist int Test may represent histograms in an intensity domain before (or to which transformation is not applied) the reference image and the comparison image, respectively.

KL은 2 개의 히스토그램들 사이의 KL 거리(distance)를 왜곡 값으로 사용할 수 있다. KL can use the KL distance between two histograms as a distortion value.

[수식 14] [Equation 14]

Figure pat00014
Figure pat00014

Hist freq Ref Hist freq Test 는 각각 기준 영상 및 비교 영상이 변환된 후, 변환된 기준 영상 및 변환된 비교 영상의 변환된 도메인(transformed domain)에서의 히스토그램을 나타낼 수 있다. Hist freq Ref and Hist freq Test may represent histograms in a transformed domain of the transformed reference image and the transformed comparison image after the reference image and the comparison image are transformed, respectively.

KL은 2 개의 히스토그램들 사이의 KL 거리(distance)를 왜곡 값으로 사용할 수 있다. KL can use the KL distance between two histograms as a distortion value.

전술된 수식 13 및 수식 14에서, KL 거리(distance) 외에도 카이제곱(Chi-square) 거리(distance) 및 다른 분포 거리 지표가 왜곡 값의 계산에 이용될 수 있다.In Equations 13 and 14 described above, in addition to the KL distance, a Chi-square distance and other distribution distance indicators may be used to calculate the distortion value.

[수식 15] [Equation 15]

Figure pat00015
Figure pat00015

Hist int EsbRefB Hist int EsbTestB 는 각각 기준 영상 및 비교 영상의 변환 전의(또는, 변환이 적용되지 않은) 강도 도메인(intensity domain)에서의 B 번째 서브 밴드 앙상블 영상들의 히스토그램을 나타낼 수 있다. Hist int EsbRefB and Hist int EsbTestB may represent histograms of B- th subband ensemble images in the intensity domain before (or to which transformation is not applied) the reference image and the comparison image, respectively.

KL은 2 개의 히스토그램들 사이의 KL 거리(distance)를 왜곡 값으로 사용할 수 있다. KL can use the KL distance between two histograms as a distortion value.

[수식 16][Equation 16]

Figure pat00016
Figure pat00016

Hist freq EsbRefB Hist freq EsbTestB 는 각각 기준 영상 및 비교 영상이 변환된 후, 변환된 기준 영상 및 변환된 비교 영상의 변환된 도메인(transformed domain)에서의 B 번째 서브 밴드 앙상블 영상들의 히스토그램을 나타낼 수 있다. Hist freq EsbRefB and Hist freq EsbTestB may represent histograms of B- th subband ensemble images in a transformed domain of the transformed reference image and the transformed comparison image after the base image and the comparison image are transformed, respectively. .

KL은 2 개의 히스토그램들 사이의 KL 거리(distance)를 왜곡 값으로 사용할 수 있다. KL can use the KL distance between two histograms as a distortion value.

도 4은 일 예에 따른 프레임-기반 특징 계산을 나타낸다.4 illustrates frame-based feature calculation according to an example.

도 5는 일 예에 따른 블록-기반 특징 계산을 나타낸다.5 illustrates block-based feature calculation according to an example.

단계(220)에서, 왜곡 계산부(120)는 원본 영상 및 비교 영상의 동일 특징 정보들 간의 왜곡을 계산함에 있어서, 영상의 전체 크기 또는 단위 블록 크기를 계산의 단위로서 사용할 수 있다. 말하자면, 왜곡 계산부(120)는 원본 영상 및 비교 영상의 동일 특징 정보들 간의 왜곡을 계산함에 있어서, 영상의 전체 또는 영상의 블록에 대하여 동일 특징 정보들 간의 왜곡을 계산할 수 있다.In step 220, the distortion calculator 120 may use the total size of the image or the unit block size as a unit of calculation in calculating the distortion between the same feature information of the original image and the comparison image. In other words, in calculating the distortion between the same feature information of the original image and the comparison image, the distortion calculation unit 120 may calculate the distortion between the same feature information for the entire image or a block of the image.

도 4에서 도시된 것과 같이, 왜곡 계산부(120)는 전체의 영상에 대하여 동일 특징 정보들 간의 왜곡을 계산할 수 있다.As shown in FIG. 4, the distortion calculator 120 may calculate distortion between the same feature information for the entire image.

도 5에서 도시된 것과 같이, 왜곡 계산부(120)는 영상의 단위 블록들의 각각에 대하여 특징 정보들 간의 왜곡을 계산할 수 있다.As illustrated in FIG. 5, the distortion calculator 120 may calculate distortion between feature information for each of the unit blocks of an image.

영상의 크기가 H × W일 때, 단위 블록의 크기는 N × M일 수 있다. N < H이고, M < W일 수 있으며, N, H, MW는 양의 정수일 수 있다.When the size of the image is H × W , the size of the unit block may be N × M. N < H and M < W , and N , H , M and W may be positive integers.

왜곡 계산부(120)는 전체의 영상을 복수의 단위 블록들로 분할할 수 있고, 복수의 분할된 단위 블록들의 각 단위 블록에 대하여 왜곡 값을 계산할 수 있다.The distortion calculator 120 may divide the entire image into a plurality of unit blocks, and may calculate a distortion value for each unit block of the plurality of divided unit blocks.

왜곡 계산부(120)는 모든 단위 블록들에 대한 왜곡 값들을 계산하고, (영상에 대한) 최종의 왜곡 값으로서 복수의 단위 블록들의 왜곡 값들의 통계 값을 사용할 수 있다.The distortion calculator 120 may calculate distortion values for all unit blocks, and use statistical values of distortion values of a plurality of unit blocks as a final distortion value (for an image).

통계 값은 평균, 최대 값, 최소 값 및 중간 값 중 하나 이상을 이용하여 계산될 수 있다.The statistical value may be calculated using one or more of an average, a maximum value, a minimum value, and a median value.

왜곡 계산부(120)는 단위 블록들에 대하여 왜곡 값들을 계산함에 있어서, 영상의 가로 축으로는 M 픽셀마다, 세로 축으로는 N 픽셀마다 왜곡 값을 계산할 수 있다. MN은 양의 정수일 수 있다.In calculating the distortion values for the unit blocks, the distortion calculator 120 may calculate the distortion value for every M pixels on the horizontal axis and every N pixels on the vertical axis of the image. M and N can be positive integers.

각 특징 정보의 왜곡 값 및 주관적 화질/자연도 측정 값 간의 예측 모델에 대한 학습Learning about the predictive model between the distortion value of each feature information and the measured value of subjective quality/naturality

다시 도 2를 참조하면, 전술된 것과 같은 방법들에 따라 모든 특징 정보들에 대하여 왜곡 값들이 계산될 수 있다.Referring back to FIG. 2, distortion values may be calculated for all feature information according to methods as described above.

주관적 평가 실험을 통해 모든 비교 영상에 대한 화질/자연도에 대한 주관적 평가(Mean Opinion Score; MOS) 값이 확보될 수 있다.Through the subjective evaluation experiment, a subjective evaluation (Mean Opinion Score; MOS) value for the quality/naturality of all comparative images can be obtained.

도 6은 일 예에 따른 선형 또는 비선형 모델을 사용하는 주관적 화질/자연도 값의 생성을 나타낸다.6 illustrates generation of subjective quality/naturality values using a linear or nonlinear model according to an example.

도 6에서 도시된 것과 같이, 단계(230)에서, 예측 모델 생성부(130)는 하나의 특징 정보로부터 N 개의 왜곡 값들을 생성할 수 있고, N 개의 왜곡 값들 및 MOS 값 간의 선형 또는 비선형 관계 모델을 아래의 방법들 중 하나 이상의 방법을 사용하여 생성할 수 있다. N은 양의 정수일 수 있다. As shown in FIG. 6, in step 230, the prediction model generator 130 may generate N distortion values from one feature information, and a linear or nonlinear relationship model between N distortion values and MOS values Can be created using one or more of the following methods. N can be a positive integer.

예측 모델 생성부(130)는 아래의 수식 17과 같이 복수의 왜곡 값들의 가중치 값들을 결정함으로써 관계 모델을 생성할 수 있다.The prediction model generator 130 may generate a relationship model by determining weight values of a plurality of distortion values as shown in Equation 17 below.

[수식 17][Equation 17]

Figure pat00017
Figure pat00017

여기에서, w 1 + w 2 + ... + w N = 1일 수 있다.Here, w 1 + w 2 + ... + w N May be = 1.

예측 모델 생성부(130)는 머신 러닝(machine learning) 기법을 통하여 왜곡 값들 및 MOS 값 사이의 비선형 관계식을 생성할 수 있다.The predictive model generator 130 may generate a nonlinear relationship between distortion values and MOS values through a machine learning technique.

머신 러닝 기법으로는, 서포트 벡터 회귀(Support Vector Regression; SVR), 랜덤 포레스트(random forest), 경사 하강법(gradient descent), 나이브 베이스 분류(naive bayes classifier), 은익 마코프 모델(hidden markov model) 및 K-최근접 이웃(K-nearest neighbor) 중 하나 이상의 기법이 사용될 수 있다. Machine learning techniques include Support Vector Regression (SVR), random forest, gradient descent, naive bayes classifier, hidden markov model, and One or more of the K-nearest neighbors may be used.

예측 모델 생성부(130)는 신경망(deep neural network) 또는 딥 러닝(deep learning) 기법을 통하여 왜곡 값들 및 MOS 값 사이의 비선형 관계식을 생성할 수 있다.The prediction model generator 130 may generate a nonlinear relationship between distortion values and MOS values through a deep neural network or deep learning technique.

복수의 예측 모델들을 사용하는 시스템의 구성 및 예측 모델의 가중치의 결정Configuration of a system using multiple prediction models and determination of weights of prediction models

도 7는 일 예에 따른 2 단의 예측 모델들을 나타낸다.7 shows two-stage prediction models according to an example.

모든 특징 정보들에 대하여 왜곡 값과 영상의 화질/자연도를 나타내는 MOS 간의 관계 모델들이 확보된 후, 모델 최적화부(140)는 최종의 화질/자연도 예측 값을 계산하는 다중 예측 시스템을 구축할 수 있다.After the relationship models between the distortion value and the MOS representing the image quality/naturality for all feature information are secured, the model optimizer 140 builds a multi-prediction system that calculates the final image quality/naturality prediction value. I can.

기준 영상 및/또는 비교 영상에 대하여, N 개의 특징 정보들을 이용하고, 각 특징 정보로부터 계산될 수 있는 왜곡 값이 M N 개일 경우, 모델 최적화부(140)는 아래의 방법들 중 하나 이상의 방법을 사용하여 다중 예측 시스템을 구성할 수 있다. For the reference image and/or the comparison image, when N pieces of feature information are used and the distortion values that can be calculated from each feature information are M N pieces, the model optimizer 140 uses one or more of the following methods. Can be used to construct multiple prediction systems.

모델 최적화부(140)는, 도 7에서 도시된 것과 같이, 복수의 예측 모델들을 2 단으로 구성할 수 있다.The model optimization unit 140 may configure a plurality of prediction models in two stages, as illustrated in FIG. 7.

2 번째 단의 최종 예측 모델은 1 번째 단의 모든 예측 모델들로부터 예측된 화질/자연도 점수들을 입력으로서 수신하고, 1 번째 단의 모든 예측 모델들로부터 예측된 화질/자연도 점수들을 사용하여 최종의 화질/자연도 예측 점수를 출력하는 선형 또는 비선형 모델일 수 있다.The final prediction model of the second stage receives as input the predicted quality/naturality scores from all the prediction models in the first stage, and uses the predicted quality/naturality scores from all the prediction models in the first stage to be final. It may be a linear or nonlinear model that outputs a predicted score for the quality/naturality of.

도 8은 일 예에 따른 n 단의 예측 모델들을 나타낸다.8 shows n-stage prediction models according to an example.

모델 최적화부(140)는, 도 8에서 도시된 것과 같이, 복수의 예측 모델들을 3 단으로 구성할 수 있다.As illustrated in FIG. 8, the model optimization unit 140 may configure a plurality of prediction models in three stages.

2 번째 단의 K 개의 중간 예측 모델들은 1 번째 단의 L 1, L 2, ..., L K 개의 예측 모델들로부터 예측된 화질/자연도 점수들을 각각 입력으로서 수신하고, 1 번째 단의 예측 모델들로부터 예측된 화질/자연도 점수들을 사용하여 중간의 화질/자연도 예측 점수를 출력하는 선형 또는 비선형 모델일 수 있다. L 1 + L 1 + ... + L 1 = N일 수 있다.The K intermediate prediction models of the second stage receive as inputs the predicted quality/naturality scores from the L 1 , L 2 , ..., L K prediction models of the first stage, and the prediction of the first stage It may be a linear or nonlinear model that outputs an intermediate picture quality/natural degree prediction score using the picture quality/natural degree scores predicted from the models. It can be L 1 + L 1 + ... + L 1 = N.

3 번째 단의 최종 예측 모델은 2 번째 단의 모든 예측 모델들로부터 예측된 중간의 화질/자연도 점수들을 입력으로서 수신하고, 2 번째 단의 예측 모델들로부터 예측된 중간의 화질/자연도 점수들을 사용하여 최종의 화질/자연도 예측 점수를 출력하는 선형 또는 비선형 모델일 수 있다.The final prediction model of the third stage receives as input the intermediate quality/naturality scores predicted from all the prediction models of the second stage, and the intermediate quality/naturality scores predicted from the prediction models of the second stage. It may be a linear or nonlinear model that outputs the final picture quality/naturality prediction score by using.

도 8을 참조하여 설명된 방법과 유사한 방법으로, 복수의 예측 모델들은 N 단으로 구성될 수 있다.In a method similar to the method described with reference to FIG. 8, a plurality of prediction models may be configured in N stages.

실시예들에서 설명된 비교 영상에 대한 화질/자연도 측정 방법은 동영상으로 확장될 수 있다. 동영상의 화질/자연도 점수는, 동영상을 구성하는 모든 이미지들의 화질/자연도 점수들의 통계 값들 중 하나 이상의 통계 값을 사용하여 결정될 수 있다. 통계 값은 평균(mean), 최대 값(max), 최소 값(min) 및 중간 값 중 하나 이상일 수 있다.The method of measuring quality/naturality of the comparison image described in the embodiments may be extended to a video. The quality/naturality score of the video may be determined using one or more of the statistic values of quality/naturality scores of all images constituting the video. The statistical value may be one or more of a mean (mean), a maximum value (max), a minimum value (min), and a median value.

도 9는 일 실시예에 따른 측정 장치를 구현하는 전자 장치의 구조를 나타낸다.9 illustrates a structure of an electronic device implementing a measuring device according to an exemplary embodiment.

측정 장치(100)는 도 8에서 도시된 전자 장치(900)로서 구현될 수 있다. 전자 장치(900)는 측정 장치(100)로서 동작하는 범용의 컴퓨터 시스템일 수 있다.The measuring device 100 may be implemented as the electronic device 900 illustrated in FIG. 8. The electronic device 900 may be a general-purpose computer system operating as the measuring device 100.

도 9에서 도시된 바와 같이, 전자 장치(900)는 처리부(910), 통신부(920), 메모리(930), 저장소(940) 및 버스(990) 중 적어도 일부를 포함할 수 있다. 처리부(910), 통신부(920), 메모리(930) 및 저장소(940) 등과 같은 전자 장치(900)의 구성요소들은 버스(990)를 통해 서로 간에 통신할 수 있다.As shown in FIG. 9, the electronic device 900 may include at least some of a processing unit 910, a communication unit 920, a memory 930, a storage 940, and a bus 990. Components of the electronic device 900 such as the processing unit 910, the communication unit 920, the memory 930, and the storage 940 may communicate with each other through the bus 990.

처리부(910)는 메모리(930) 또는 저장소(940)에 저장된 프로세싱(processing) 명령어(instruction)들을 실행하는 반도체 장치일 수 있다. 예를 들면, 처리부(910)는 적어도 하나의 하드웨어 프로세서(processor)일 수 있다.The processing unit 910 may be a semiconductor device that executes processing instructions stored in the memory 930 or the storage 940. For example, the processing unit 910 may be at least one hardware processor.

처리부(910)는 전자 장치(900)의 동작을 위해 요구되는 작업을 처리할 수 있다. 처리부(910)는 실시예들에서 설명된 처리부(910)의 동작 또는 단계의 코드를 실행(execute)할 수 있다.The processing unit 910 may process a task required for the operation of the electronic device 900. The processing unit 910 may execute a code of an operation or step of the processing unit 910 described in the embodiments.

처리부(910)는 후술될 실시예에서 설명될 정보의 생성, 저장 및 출력을 수행할 수 있으며, 기타 전자 장치(900)에서 이루어지는 단계의 동작을 수행할 수 있다.The processing unit 910 may generate, store, and output information to be described in embodiments to be described later, and may perform operations of steps performed in other electronic devices 900.

통신부(920)는 네트워크(999)에 연결될 수 있다. 전자 장치(900)의 동작을 위해 요구되는 데이터 또는 정보를 수신할 수 있으며, 전자 장치(900)의 동작을 위해 요구되는 데이터 또는 정보를 전송할 수 있다. 통신부(920)는 네트워크(999)를 통해 다른 장치로 데이터를 전송할 수 있고, 다른 장치로부터 데이터를 수신할 수 있다. 예를 들면, 통신부(920)는 네트워크 칩(chip) 또는 포트(port)일 수 있다.The communication unit 920 may be connected to the network 999. Data or information required for the operation of the electronic device 900 may be received, and data or information required for the operation of the electronic device 900 may be transmitted. The communication unit 920 may transmit data to another device through the network 999 and may receive data from the other device. For example, the communication unit 920 may be a network chip or a port.

메모리(930) 및 저장소(940)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리(930)는 롬(ROM)(931) 및 램(RAM)(932) 중 적어도 하나를 포함할 수 있다. 저장소(940)는 램, 플레시(flash) 메모리 및 하드 디스크(hard disk) 등과 같은 내장형의 저장 매체를 포함할 수 있고, 메모리 카드 등과 같은 탈착 가능한 저장 매체를 포함할 수 있다.The memory 930 and the storage 940 may be various types of volatile or nonvolatile storage media. For example, the memory 930 may include at least one of a ROM 931 and a RAM 932. The storage 940 may include an internal storage medium such as RAM, a flash memory, and a hard disk, and may include a removable storage medium such as a memory card.

전자 장치(900)의 기능 또는 동작은 처리부(910)가 적어도 하나의 프로그램 모듈을 실행함에 따라 수행될 수 있다. 메모리(930) 및/또는 저장소(940)는 적어도 하나의 프로그램 모듈을 저장할 수 있다. 적어도 하나의 프로그램 모듈은 처리부(910)에 의해 실행되도록 구성될 수 있다.A function or operation of the electronic device 900 may be performed as the processing unit 910 executes at least one program module. The memory 930 and/or the storage 940 may store at least one program module. At least one program module may be configured to be executed by the processing unit 910.

전술된 측정 장치(100)의 중 적어도 일부는 적어도 하나의 프로그램 모듈일 수 있다.At least some of the above-described measurement devices 100 may be at least one program module.

프로그램 모듈들은 운영 체제(Operating System), 어플리케이션 모듈, 라이브러리(library) 및 기타 프로그램 모듈의 형태로 전자 장치(900)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈 중 적어도 일부는 전자 장치(900)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 실시예에 따른 특정 동작 또는 특정 테스크(task)를 수행하거나 특정 추상 데이터 타입(abstract data type)을 실행하는 루틴(routine), 서브루틴(subroutine), 프로그램(program), 오브젝트(object), 컴포넌트(component) 및 데이터 구조(data structure) 등을 포괄할 수 있고, 이러한 것들에 제한되지는 않을 수 있다.Program modules may be included in the electronic device 900 in the form of an operating system, an application module, a library, and other program modules, and may be physically stored on various known storage devices. Also, at least some of these program modules may be stored in a remote storage device capable of communicating with the electronic device 900. Meanwhile, these program modules are routines, subroutines, programs, objects that perform specific operations or specific tasks or execute specific abstract data types according to the embodiment. (object), component (component) and data structure (data structure) may be included, and may not be limited to these.

전자 장치(900)는 사용자 인터페이스(User Interface; UI) 입력 디바이스(950) 및 UI 출력 디바이스(960)를 더 포함할 수 있다. UI 입력 디바이스(950)는 전자 장치(900)의 동작을 위해 요구되는 사용자의 입력을 수신할 수 있다. UI 출력 디바이스(960)는 전자 장치(900)의 동작에 따른 정보 또는 데이터를 출력할 수 있다.The electronic device 900 may further include a user interface (UI) input device 950 and a UI output device 960. The UI input device 950 may receive a user input required for the operation of the electronic device 900. The UI output device 960 may output information or data according to an operation of the electronic device 900.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.

컴퓨터 판독 가능한 기록 매체는 본 발명에 따른 실시예들에서 사용되는 정보를 포함할 수 있다. 예를 들면, 컴퓨터 판독 가능한 기록 매체는 비트스트림을 포함할 수 있고, 비트스트림은 본 발명에 따른 실시예들에서 설명된 정보를 포함할 수 있다.The computer-readable recording medium may contain information used in embodiments according to the present invention. For example, a computer-readable recording medium may include a bitstream, and the bitstream may include information described in embodiments according to the present invention.

컴퓨터 판독 가능한 기록 매체는 비-일시적 컴퓨터 판독 가능한 매체(non-transitory computer-readable medium)를 포함할 수 있다.The computer-readable recording medium may include a non-transitory computer-readable medium.

상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

실시예에서 설명된 장치는 하나 이상의 프로세서들을 포함할 수 있고, 메모리를 포함할 수 있다. 메모리는 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장할 수 있다. 하나 이상의 프로그램들은 실시예에서 설명된 장치의 동작을 수행할 수 있다. 예를 들면, 장치의 하나 이상의 프로그램들은 전술된 단계들 중 장치와 관련된 단계에서 설명된 동작을 수행할 수 있다. 말하자면, 실시예에서 설명된 장치의 동작은 하나 이상의 프로그램들에 의해 실행될 수 있다. 하나 이상의 프로그램들은 실시예에서 전술된 장치의 프로그램, 어플리케이션 및 앱 등을 포함할 수 있다. 예를 들면, 하나 이상의 프로그램들 중 하나의 프로그램은 실시예에서 전술된 장치의 프로그램, 어플리케이션 및 앱에 대응할 수 있다.The apparatus described in the embodiments may include one or more processors and may include a memory. The memory may store one or more programs executed by one or more processors. One or more programs may perform the operation of the device described in the embodiments. For example, one or more programs of the device may perform the operations described in the steps associated with the device among the aforementioned steps. That is to say, the operation of the device described in the embodiment may be executed by one or more programs. One or more programs may include a program, an application, and an app of the device described above in the embodiment. For example, one of the one or more programs may correspond to a program, an application, and an app of the device described above in the embodiment.

100: 측정 장치
110: 특징 정보 추출부
120: 왜곡 계산부
130: 예측 모델 생성부
140: 모델 최적화부
150: 예측부
100: measuring device
110: feature information extraction unit
120: distortion calculation unit
130: prediction model generation unit
140: model optimizer
150: prediction unit

Claims (1)

기준 영상 및 비교 영상에서 복수의 특징 정보들을 계산 및 추출하는 단계;
상기 추출된 복수의 특징 정보들에서, 대응하는 특징 정보들 간의 왜곡 값들을 계산하는 단계;
상기 계산된 왜곡 값들을 입력으로서 사용하여, 상기 왜곡 값들 및 주관적 화질 및/또는 자연도 측정 값들 간의 상관 관계의 복수의 예측 모델들을 추출하는 단계; 및
상기 복수의 예측 모델들을 사용하여 시스템을 구성하고, 상기 복수의 예측 모델들에 대한 가중치들을 각각 결정하는 단계
를 포함하는 측정 방법.
Calculating and extracting a plurality of feature information from the reference image and the comparison image;
Calculating distortion values between corresponding feature information from the extracted plurality of feature information;
Extracting a plurality of predictive models of correlations between the distortion values and subjective image quality and/or naturalness measurement values by using the calculated distortion values as inputs; And
Configuring a system using the plurality of prediction models, and determining weights for the plurality of prediction models, respectively
Measurement method comprising a.
KR1020200031898A 2019-03-15 2020-03-16 Method and apparatus for assessing feature of image KR20200110255A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190030063 2019-03-15
KR1020190030063 2019-03-15

Publications (1)

Publication Number Publication Date
KR20200110255A true KR20200110255A (en) 2020-09-23

Family

ID=72708368

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200031898A KR20200110255A (en) 2019-03-15 2020-03-16 Method and apparatus for assessing feature of image

Country Status (1)

Country Link
KR (1) KR20200110255A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022071647A1 (en) * 2020-09-29 2022-04-07 Samsung Electronics Co., Ltd. Video quality assessment method and apparatus
KR102417133B1 (en) * 2021-01-26 2022-07-05 광운대학교 산학협력단 Apparatus and method for assessing video quality via temporal and spatial context information
US11960996B2 (en) 2020-09-29 2024-04-16 Samsung Electronics Co., Ltd. Video quality assessment method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022071647A1 (en) * 2020-09-29 2022-04-07 Samsung Electronics Co., Ltd. Video quality assessment method and apparatus
US11960996B2 (en) 2020-09-29 2024-04-16 Samsung Electronics Co., Ltd. Video quality assessment method and apparatus
KR102417133B1 (en) * 2021-01-26 2022-07-05 광운대학교 산학협력단 Apparatus and method for assessing video quality via temporal and spatial context information

Similar Documents

Publication Publication Date Title
US10296813B2 (en) Training method and apparatus for neural network for image recognition
Zhang et al. No-reference image quality assessment based on log-derivative statistics of natural scenes
JP5510688B2 (en) Method and system for determining image quality measurements using multi-level decomposition of images
Liu et al. No-reference image quality assessment based on spatial and spectral entropies
US8660372B2 (en) Determining quality of an image or video using a distortion classifier
US8660360B1 (en) System and method for reduced incremental spectral clustering
US9152888B2 (en) System and method for automated object detection in an image
US9563822B2 (en) Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system
CN110533046B (en) Image instance segmentation method and device, computer readable storage medium and electronic equipment
US20100254573A1 (en) Method for measuring the dissimilarity between a first and a second images and a first and second video sequences
KR20200110255A (en) Method and apparatus for assessing feature of image
Chetouani et al. On the use of a scanpath predictor and convolutional neural network for blind image quality assessment
Rezaie et al. No-reference image quality assessment using local binary pattern in the wavelet domain
Mahmoudpour et al. No-reference image quality assessment in complex-shearlet domain
Wang et al. A posterior evaluation algorithm of steganalysis accuracy inspired by residual co-occurrence probability
CN110633735A (en) Progressive depth convolution network image identification method and device based on wavelet transformation
KR101556603B1 (en) Apparatus and Method for Image Seperation using Rank Prior
Xie et al. Reduced-reference image quality metric based on statistic model in complex wavelet transform domain
Heydari et al. A low complexity wavelet-based blind image quality evaluator
Al-Bandawi et al. Classification of image distortion based on the generalized Benford’s law
KR102452313B1 (en) Method and apparatus for measuring image quality base on perceptual sensitivity
KR101514551B1 (en) Multimodal user recognition robust to environment variation
CN111327946A (en) Video quality evaluation and feature dictionary training method, device and medium
Bach et al. Analyzing classifiers: Fisher vectors and deep neural networks
Torkamani-Azar et al. Image quality assessment using block-based weighted SVD