KR100893609B1 - Apparatus and Method by Using Human Visual Characteristics - Google Patents

Apparatus and Method by Using Human Visual Characteristics Download PDF

Info

Publication number
KR100893609B1
KR100893609B1 KR1020070054833A KR20070054833A KR100893609B1 KR 100893609 B1 KR100893609 B1 KR 100893609B1 KR 1020070054833 A KR1020070054833 A KR 1020070054833A KR 20070054833 A KR20070054833 A KR 20070054833A KR 100893609 B1 KR100893609 B1 KR 100893609B1
Authority
KR
South Korea
Prior art keywords
weight
luminance
signal
image signal
received
Prior art date
Application number
KR1020070054833A
Other languages
Korean (ko)
Other versions
KR20080107042A (en
Inventor
장성환
이상훈
박희철
김정준
서창렬
이주용
Original Assignee
주식회사 케이티
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티, 연세대학교 산학협력단 filed Critical 주식회사 케이티
Priority to KR1020070054833A priority Critical patent/KR100893609B1/en
Publication of KR20080107042A publication Critical patent/KR20080107042A/en
Application granted granted Critical
Publication of KR100893609B1 publication Critical patent/KR100893609B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/02Diagnosis, testing or measuring for television systems or their details for colour television signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 인간 시각 특성을 이용한 영상 품질 측정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for measuring image quality using human visual characteristics.

본 발명의 실시예에 따른 영상 품질 측정 장치는 원영상 신호와 수신 영상 신호를 수신하고, 수신한 원영상 신호와 수신 영상 신호가 어느 정도 유사한지 구조적 유사 지표를 수치화하여 계산하는 구조적 유사 지표 계산부; 인간의 시각적 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영하여 하나 이상의 시각적 가중치를 계산하는 시각적 가중치 계산부; 및 계산한 하나 이상의 시각적 가중치를 서로 곱하여 최종 가중치 정보를 생성하고, 생성한 최종 가중치 정보에 상기 계산한 구조적 유사 지표를 곱해져서 최종 영상 품질 정보를 계산하는 영상 품질 측정부를 제공한다.An image quality measuring apparatus according to an exemplary embodiment of the present invention receives a structural image indicator and a structural similarity indicator calculation unit configured to receive a raw image signal and a received image signal, and calculate a numerical value of the structural similarity indicator to determine how similar the received original image signal and the received image signal are. ; A visual weight calculator configured to calculate one or more visual weights by reflecting factors affecting human visual characteristics—information of any one or more of luminance, region of interest, motion, and space-time frequency; And generating final weight information by multiplying the calculated one or more visual weights, and multiplying the calculated structural similarity index by the calculated final weight information to calculate final image quality information.

본 발명은 멀티미디어의 영상 품질 측정에 있어 인간 시각 특성을 반영하여 실제로 사람이 직접 점수를 매기는 평가 점수와 유사한 결과를 얻을 수 있는 효과를 기대할 수 있다.The present invention can be expected to have an effect of obtaining a result similar to an evaluation score, which is actually directly scored by a person by reflecting human visual characteristics in measuring image quality of multimedia.

인간 시각, 가중치, 영상 품질, 주관적, 객관적 Human vision, weights, image quality, subjective, objective

Description

인간 시각 특성을 이용한 영상 품질 측정 장치 및 방법{Apparatus and Method by Using Human Visual Characteristics}Apparatus and Method by Using Human Visual Characteristics}

도 1은 본 발명의 실시예에 따른 영상 품질 측정 장치의 내부 구성을 간략하게 나타낸 블록 구성도이다.1 is a block diagram schematically illustrating an internal configuration of an image quality measuring apparatus according to an exemplary embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 관심 영역에 의한 가중치를 계산하는 알고리즘에서 변수들을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating variables in an algorithm for calculating a weight based on a region of interest according to an exemplary embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 관심 영역을 설명하기 위해 눈의 구조를 나타낸 도면이다.3 is a view showing the structure of the eye to explain a region of interest according to an embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 인간 시각에서의 관심 영역을 설명하기 위한 도면이다.4 is a view for explaining a region of interest in human vision according to an embodiment of the present invention.

도 5는 본 발명의 실시예에 따른 관심영역에 의한 가중치를 계산하는 알고리즘에서 변수를 설명하는 도 2를 수학식을 포함한 다른 방식으로 나타낸 도면이다.FIG. 5 is a diagram illustrating another example of a variable including an equation in FIG. 2 illustrating a variable in an algorithm for calculating a weight according to an ROI according to an exemplary embodiment of the present invention.

도 6은 본 발명의 실시예에 따른 시공간 주파수에 따라 인간 시각의 민감한 정도를 설명하기 위한 도면이다.6 is a view for explaining the degree of sensitivity of human vision according to the space-time frequency according to an embodiment of the present invention.

도 7은 본 발명의 실시예에 따른 영상 품질 측정 방법을 설명하기 위한 도면이다.7 is a view for explaining a method for measuring image quality according to an embodiment of the present invention.

본 발명은 인간 시각 특성을 이용한 영상 품질 측정 장치 및 방법에 관한 것으로서, 특히 인간 시각 특성에 따른 시각 가중치를 이용한 영상 품질 측정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for measuring image quality using human visual characteristics, and more particularly, to an apparatus and method for measuring image quality using visual weights according to human visual characteristics.

최근의 유무선 영상 단말은 영상 서비스의 성공을 위하여 영상 품질의 중요성이 대두하고 있다. 영상의 품질을 평가하는 방법은 크게 주관적 방법과 객관적 방법으로 구분할 수 있다. 주관적 영상 품질 평가는 다수 평가자의 투표를 통해 품질 수준을 결정하는 방법으로서, 평가 대상이 같더라도 평가 조건이 달라지면 결과가 변할 수 있으므로 다수의 실험 결과의 통계 값을 사용하며 측정을 위한 시간적 재정적 부담이 크다.In recent years, the importance of video quality is emerging for the success of video services. The method of evaluating the quality of an image can be largely divided into a subjective method and an objective method. Subjective image quality evaluation is a method of determining the quality level by voting by multiple evaluators. Even if the evaluation targets are the same, the results may change when the evaluation conditions are different. Therefore, the statistical values of the multiple experimental results are used, and the time and financial burden for measurement is reduced. Big.

또한, 주관적 영상 품질 평가는 인간 시각을 잘 반영하다고 볼 수 있으나 평가자에 따라 값이 달라지며 평가 때마다 값이 달라질 수 있는 문제점이 있다. 가장 대표적인 주관적 품질 평가 방법은 MOS(Mean Opinion Score)가 있다.In addition, subjective image quality evaluation may be considered to reflect human vision well, but there is a problem that the value varies according to the evaluator, and the value may change every time. The most representative subjective quality assessment method is MOS (Mean Opinion Score).

객관적 영상 품질 평가는 수학적 계산에 의해 품질 수준을 도출해내는 방식으로서, 정확한 계산 방식이 있기 때문에 평가 대상이 같다면 평가자나 평가 조건에 관계없이 일정한 결과를 기대할 수 있다. 가장 대표적 객관적 품질 평가 방법은 PSNR(Peak Signal to Noise Ratio), MSE(Mean Square Error)가 있으며, 원영상과 열화된 영상의 각 화소값의 차이를 직접 비교하는 방법이다. Objective image quality evaluation is a method of deriving the quality level by mathematical calculation. Since there is an accurate calculation method, it is possible to expect a certain result regardless of the evaluator or the evaluation condition if the evaluation target is the same. The most representative objective quality evaluation methods are PSNR (Peak Signal to Noise Ratio) and MSE (Mean Square Error), which are methods for directly comparing the difference between each pixel value of the original image and the degraded image.

그러나 객관적 영상 품질 평가는 인간의 시각 특성을 제대로 반영하지 못하 며 더 낮은 PSNR 값을 갖는 영상이 인간 눈에 더 좋게 보일 수 있는 문제점이 있다. 인간 시각 특성을 반영한 영상 품질 측정 기술은 국제적으로 미개척 분야이며, 현재 표준화가 진행 중이므로 관련 기술 개발과 표준화 참여가 시급한 실정이다.However, objective image quality evaluation does not reflect human visual characteristics properly, and images with lower PSNR values may look better to the human eye. Image quality measurement technology reflecting human visual characteristics is an internationally unexplored field, and since standardization is currently in progress, it is urgent to develop related technologies and participate in standardization.

현재 영상 품질 측정 방법은 인간이 느끼는 영상 품질을 정확히 반영하여 평가할 수 있는 기술과 장비가 부족한 실정이며, 특히 영상 전화기, PDA, PC 소프트폰 등 다양한 형태의 영상 단말의 영상 품질을 측정하기 매우 어려운 실정이다.Current video quality measurement methods lack the technology and equipment to accurately reflect the image quality felt by humans, and in particular, it is very difficult to measure the video quality of various types of video terminals such as video phones, PDAs, and PC soft phones. to be.

이와 같은 문제점을 해결하기 위하여, 본 발명은 인간 시각 특성에 따른 시각 가중치를 이용한 영상 품질 측정 장치 및 방법을 제공하기 위한 것이다.In order to solve such a problem, the present invention is to provide an apparatus and method for measuring image quality using visual weights according to human visual characteristics.

이러한 기술적 과제를 달성하기 위한 본 발명의 특징에 따른 영상 품질 측정 장치는 원영상 신호와 수신 영상 신호를 수신하고, 상기 수신한 원영상 신호와 상기 수신 영상 신호가 어느 정도 유사한지 구조적 유사 지표를 수치화하여 계산하는 구조적 유사 지표 계산부; 인간의 시각적 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영하여 하나 이상의 시각적 가중치를 계산하는 시각적 가중치 계산부; 및 상기 계산한 하나 이상의 시각적 가중치를 서로 곱하여 최종 가중치 정보를 생성하고, 상기 생성한 최종 가중치 정보에 상기 계산한 구조적 유사 지표를 곱해져서 최종 영상 품질 정보를 계산하는 영상 품질 측정부를 포함한다.According to an aspect of the present invention, an image quality measuring apparatus receives an original image signal and a received image signal, and digitizes structural similarity indicators of how similar the original image signal and the received image signal are. Structural similarity index calculation unit to calculate; A visual weight calculator configured to calculate one or more visual weights by reflecting factors affecting human visual characteristics—information of any one or more of luminance, region of interest, motion, and space-time frequency; And an image quality measuring unit configured to generate final weight information by multiplying the calculated one or more visual weights by each other, and multiplying the generated final weight information by the calculated structural similarity index to calculate final image quality information.

본 발명의 특징에 따른 영상 품질 측정 방법은 (a) 외부 메모리로부터 원영 상 신호와 수신 영상 신호를 수신하여 어느 정도 유사한지 구조적 유사 지표를 계산하고, 상기 수신한 원영상 신호를 기초로 인간의 시각 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영한 복수의 시각적 가중치 정보를 계산하는 단계; 및 (b) 상기 계산한 복수의 시각적 가중치 정보를 서로 곱하여 최종 가중치 정보를 생성하고, 상기 계산한 구조적 유사 지표에 상기 생성한 최종 가중치 정보를 곱하여 최종 영상 품질 정보를 계산하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for measuring image quality (a) receiving an original image signal and a received image signal from an external memory, calculating a structural similarity index, and calculating a human visual image based on the received original image signal. Calculating a plurality of visual weight information reflecting factors influencing the characteristic—information of any one or more of luminance, region of interest, motion, and space-time frequency; And (b) generating final weight information by multiplying the calculated plurality of visual weight information with each other, and calculating final image quality information by multiplying the calculated structural similarity index by the generated final weight information.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. In addition, the terms “… unit”, “… unit”, “module”, “block”, etc. described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. It can be implemented as.

이제 본 발명의 실시예에 따른 인간 시각 특성을 이용한 영상 품질 측정 장 치 및 방법에 대하여 도면을 참고로 하여 상세하게 설명한다.Now, an apparatus and method for measuring image quality using human visual characteristics according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 영상 품질 측정 장치(100)의 내부 구성을 간략하게 나타낸 블록 구성도이다.1 is a block diagram schematically illustrating an internal configuration of an image quality measuring apparatus 100 according to an exemplary embodiment of the present invention.

본 발명의 실시예에 따른 영상 품질 측정 장치(100)는 원영상과 수신 영상의 유사한 정도를 계산한 후, 인간 시각 특성을 반영하여 다시 가중치를 주게 된다. 즉, 영상 품질 측정 장치(100)는 원영상과 수신 영상의 화소값들이 유사하더라도 사람의 눈이 느끼는 영상 품질, 화면 내에서 관심을 가지는 대상, 명암의 정도, 주파수, 움직임 등에 따라 영상 품질의 느낌이 달라지기 때문이다.The image quality measuring apparatus 100 according to an exemplary embodiment of the present invention calculates a similar degree between the original image and the received image, and then weights the image to reflect the human visual characteristics. That is, even if the pixel values of the original image and the received image are similar, the image quality measuring apparatus 100 may feel the image quality according to the image quality that the human eye feels, the object of interest in the screen, the degree of contrast, frequency, and motion. Because it is different.

본 발명의 실시예에 따른 영상 품질 측정 장치(100)는 구조적 유사 지표 계산부(200), 시각적 가중치 계산부(300) 및 영상 품질 측정부(400)를 포함한다. 이외에 원영상과 수신 영상을 저장하고 있는 외부 메모리(500)를 포함한다.The image quality measuring apparatus 100 according to the exemplary embodiment of the present invention includes a structural similarity index calculator 200, a visual weight calculator 300, and an image quality measurer 400. In addition, it includes an external memory 500 for storing the original image and the received image.

구조적 유사 지표 계산부(200)는 외부 메모리(500)로부터 원영상과 디코딩된(Decoded) 수신 영상을 수신하고, 원영상의 블록과 수신 영상의 블록이 어느 정도 유사한지 유사한 정도를 계산한다. 여기서, 유사한 정도는 구조적 유사 지표(Structural Similarity Index Measure: SSIM)를 정의하여 계산함으로써 구할 수 있다.The structural similarity index calculator 200 receives the original image and the decoded received image from the external memory 500, and calculates a degree of similarity between how similar the block of the original image and the block of the received image are. Here, the degree of similarity can be obtained by defining and calculating a structural similarity index measure (SSIM).

구조적 유사 지표를 구하기 위한 구성요소로 휘도의 유사 정도, 분산의 유사 정도, 공분산 비율 정도를 다음의 [수학식 1]를 이용하여 계산한다.The similarity of luminance, the similarity of variance, and the degree of covariance are calculated by using the following [Equation 1] as a component for obtaining structural similarity index.

Figure 112007040934708-pat00001
Figure 112007040934708-pat00001

여기서, X는 원영상에 있는 블록의 화소, Y는 수신 영상에 있는 블록의 화소,

Figure 112007040934708-pat00002
는 원영상의 평균,
Figure 112007040934708-pat00003
는 수신 영상의 평균,
Figure 112007040934708-pat00004
는 원영상과 수신 영상의 분산(Variance),
Figure 112007040934708-pat00005
는 원영상의 표준 편차,
Figure 112007040934708-pat00006
는 수신 영상의 표준 편차,
Figure 112007040934708-pat00007
는 공분산(Covariance)를 의미한다. 여기서, 평균은 화소값의 평균을 의미한다.Where X is the pixel of the block in the original image, Y is the pixel of the block in the received image,
Figure 112007040934708-pat00002
Is the average of the original image,
Figure 112007040934708-pat00003
Is the average of the received image,
Figure 112007040934708-pat00004
Variance of the original image and the received image,
Figure 112007040934708-pat00005
Is the standard deviation of the original image,
Figure 112007040934708-pat00006
Is the standard deviation of the incoming image,
Figure 112007040934708-pat00007
Means covariance. Here, the mean means an average of pixel values.

각각의 유사 정도는 0과 1 사이의 값을 가지며, 가장 유사한 경우, 즉 원영상 블록과 수신 영상 블록의 모든 화소가 동일한 값일 때 1이 된다.Each degree of similarity has a value between 0 and 1, and is 1 in the most similar case, that is, when all pixels of the original image block and the received image block have the same value.

구조적 유사 지표는 휘도의 유사 정도

Figure 112007040934708-pat00008
, 분산의 유사 정도
Figure 112007040934708-pat00009
, 공분산 비율 정도
Figure 112007040934708-pat00010
를 곱하여 계산한다. 따라서, 구조적 유사 지표는 다음의 [수학식 2]와 같다.The structural similarity index shows the similarity of luminance
Figure 112007040934708-pat00008
, Similarity of variance
Figure 112007040934708-pat00009
Covariance ratio
Figure 112007040934708-pat00010
Calculate by multiplying by. Therefore, the structural similarity index is shown in Equation 2 below.

Figure 112007040934708-pat00011
Figure 112007040934708-pat00011

이때,

Figure 112007040934708-pat00012
라는 조건이 반드시 필요하다. 만일 모든 화소가 0이면
Figure 112007040934708-pat00013
가 성립할 수 있으므로 이를 방지하기 위하여 [수학식 2]에 상수를 더하면 최종 구하고자 하는 구조적 유사 지표는 다음의 [수학식 3]과 같다.At this time,
Figure 112007040934708-pat00012
Condition is necessary. If all pixels are zero
Figure 112007040934708-pat00013
In order to prevent this problem, if you add a constant to [Equation 2], the structural similarity index to be obtained is as shown in [Equation 3].

Figure 112007040934708-pat00014
Figure 112007040934708-pat00014

여기서, C1, C2는 상수이다.Where C 1 and C 2 are constants.

시각적 가중치 계산부(300)는 인간의 시각적 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영하여 하나 이상의 시각적 가중치를 계산한다.The visual weight calculator 300 calculates one or more visual weights by reflecting factors affecting human visual characteristics—information of any one or more of luminance, ROI, motion, and space-time frequency.

시각적 가중치 계산부(300)는 영상 색신호 변환부(YCbCr Coordinate Transform)(301), 휘도 가중치 계산부(Luminance Weight)(302), 관심 영역 거리 측정부(Foveation Point Detection)(303), 관심 영역 가중치 계산부(Foveal Weight)(304), 움직임 측정부(Motion Estimation)(305), 움직임 가중치 계산부(Motion Weight)(306), 공간 주파수 변환부(Channel Decomposition)(307) 및 시공간 주파수 가중치 계산부(Spatiotemporal CSF Weight)(308)를 포함한다.The visual weight calculator 300 may include an image color signal transform unit (YCbCr Coordinate Transform) 301, a luminance weight calculator 302, a region of interest distance measurement unit 303, and a region of interest weight. Foveal Weight 304, Motion Estimation 305, Motion Weight 306, Channel Decomposition 307 and Space-Time Frequency Weight Calculator (Spatiotemporal CSF Weight) 308.

영상 색신호 변환부(YCbCr Coordinate Transform)(301)는 외부 메모리(500) 로부터 원영상 신호를 수신하고, 원영상 신호가 RGB 신호인 경우, YCbCr 신호로 변환하며, 원영상 신호가 YCbCr 신호인 경우 그대로 원영상 신호를 출력한다.The image color signal converting unit (YCbCr Coordinate Transform) 301 receives the original image signal from the external memory 500, converts the original image signal into a YCbCr signal when the original image signal is an RGB signal, and if the original image signal is a YCbCr signal, Output the original video signal.

휘도 가중치 계산부(Luminance Weight)(302)는 영상 색신호 변환부(301)로부터 YCbCr 신호(즉 휘도 신호 + 색 신호)를 수신하고, 수신한 YCbCr 신호 중 휘도 신호만을 추출하고, 추출한 휘도 신호를 기초로 휘도 가중치 알고리즘(이하, [수학식 4], [수학식 5])을 이용하여 휘도에 의한 가중치(WL)를 계산한다. The luminance weight calculator 302 receives a YCbCr signal (ie, a luminance signal + color signal) from the image color signal converter 301, extracts only a luminance signal among the received YCbCr signals, and based on the extracted luminance signal. By using the luminance weighting algorithm (hereinafter, [Equation 4], [Equation 5]) to calculate the weight (W L ) by the luminance.

인간 시각의 특성은 밝은 화소 근처에서의 변화가 낮은 화소 근처에서의 변화보다 상대적으로 작게 느껴진다. 따라서, 인간 시각이 느끼는 화소값의 변화는 동일한 화소값의 변화에도 배경 화소의 명암에 따라 달라진다. 인간 시각이 느끼는 민감도는 아주 어두운 배경에서 급격히 낮아진다는 것이다.The characteristics of human vision seem to be relatively small than changes near bright pixels. Therefore, the change in the pixel value felt by human vision varies depending on the contrast of the background pixel even when the same pixel value is changed. Sensitivity to human vision is sharply lowered on very dark backgrounds.

따라서, 휘도에 의한 가중치는 다음의 [수학식 4]와 같이 파워 로우(Power Law)로 모델링하였다.Therefore, the weight by the luminance was modeled as a power low as shown in Equation 4 below.

Figure 112007040934708-pat00015
Figure 112007040934708-pat00015

여기서, Y는 제1 휘도값이고, c와 r은 함수의 모양을 결정하는 양의 상수이다.Where Y is the first luminance value and c and r are positive constants that determine the shape of the function.

전술한 [수학식 4]를 이용하여 K 번째 블록의 휘도에 의한 가중치는 다음의 [수학식 5]를 이용하여 계산한다.Using the above Equation 4, the weight by the luminance of the K-th block is calculated using the following Equation 5.

Figure 112007040934708-pat00016
Figure 112007040934708-pat00016

여기서, L은 제2 휘도값이고, Lt는 쓰레스 홀드(Threshold)값이다. 멀티미디어 응용을 위한 파라미터 값들은 c=1, r=1/2.2, Lt=50이다. Where L is the second luminance value and Lt is the threshold value. Parameter values for multimedia applications are c = 1, r = 1 / 2.2 and Lt = 50.

다시 말해, 영상 품질 측정이 멀티미디어 용도인 경우, [수학식 5]의 L/Lt를 [수학식 4]의 Y에 대입하고, c=1, r=1/2.2를 [수학식 4]에 대입하여 휘도에 의한 가중치를 계산한다.In other words, when the image quality measurement is for multimedia use, substitute L / Lt of [Equation 5] into Y of [Equation 4], and substitute c = 1 and r = 1 / 2.2 into [Equation 4]. To calculate the weight by luminance.

관심 영역 거리 측정부(Foveation Point Detection)(303)는 외부 메모리(500)로부터 원영상 신호를 수신하고, 수신된 원영상 신호에서 공지되어 있는 얼굴 검출(Face Detection) 알고리즘을 통해 블록마다 포비에이션 포인트(Foveation Point)를 정하고, 블록마다 포비에이션 포인트로부터 각 블록의 중간(X, Y)까지의 거리 dx를 생성한다. 여기서, 포비에이션 포인트는 전술한 얼굴 검출 알고리즘을 통해 정하고 있으나, 수신측에서 마우스나 아이 트랙커(Eye Tracker) 등을 사용하여 정할 수도 있다.The region of interest distance measurement unit 303 receives an original image signal from the external memory 500 and performs a perforation point for each block through a face detection algorithm known from the received original image signal. (Foveation Point) is determined, and the distance dx from the foviation point to the middle (X, Y) of each block is generated for each block. Here, the foviation point is determined through the face detection algorithm described above, but may be determined using a mouse, an eye tracker, or the like at the reception side.

관찰자가 하나의 영상을 바라보는 경우, 영상의 모든 공간적 위치에 있는 화소들을 동일하게 인지하지 않는다. 관심 있게 응시하고 있는 지점을 가장 정확하게 인지하게 되고, 그 지점으로부터 거리가 멀어질수록 사람의 눈에 정확하게 인지되지 않는다. 이때, 도 2 및 도 3에 도시된 바와 같이, 관심 있게 응시하고 있는 지 점은 포비에이션 포인트가 되고, 포비에이션 포인트의 상이 망막의 포비아(Fovea)라고 부르는 시신경이 가장 많이 분포되어 있는 지점에 맺히게 된다. 따라서, 시신경의 밀도는 포비아에서 멀어질수록 급격하게 감소한다.When an observer looks at an image, the pixels at all spatial positions of the image are not equally recognized. The point of interest is most accurately perceived, and the further away from the point, the less accurately perceived by the human eye. At this time, as shown in Figs. 2 and 3, the point gazes with interest becomes a poavation point, and the image of the poavation point forms a point where the optic nerve called the fovea of the retina is most distributed. do. Thus, the density of the optic nerve decreases rapidly away from the fovea.

영상 내에서 응시하고 있는 지점으로부터 멀어지게 되면, 사람의 인지 능력은 급격히 감소하게 되고 이를 고려하여 영상에서의 공간적 중요도를 구할 수 있게 된다.When you move away from the point of staring in the image, the cognitive ability of the person is drastically reduced, and the spatial importance in the image can be obtained by considering this.

화소마다 시각의 공간적 특성을 이용한 중요도는 포비에이션 포인트가 정해지면 사람의 눈과 영상과의 거리, 포비에이션 포인트로부터 각 화소들 사이의 거리를 고려하여 계산할 수 있다.The importance of using the spatial characteristics of vision for each pixel can be calculated by considering the distance between the human eye and the image and the distance between the pixels from the foviation point when the posi- tion point is determined.

예를 들어, 화상 통화를 하는 경우, 도 4에 도시된 바와 같이, 사람의 얼굴 부분이 관심 영역이 될 것이다. 즉 인간 시각의 초점이 맞추어진 관심 영역에서 가장 해상도가 높고, 초점에서 멀어질수록 점점 해상도가 떨어진다.For example, when making a video call, as shown in FIG. 4, the face portion of the person will be the region of interest. In other words, the highest resolution is in the region of interest to which human vision is focused, and the further the resolution is, the lower the resolution becomes.

관심 영역 가중치 계산부(Foveal Weight)(304)는 관심 영역 거리 측정부(303)에서 포비에이션 포인트가 정해지면, 이 지점으로부터 거리가 멀어짐에 따른 가중치를 부여하여 공간적인 특성을 이용한 중요도를 구할 수 있게 된다.When the focal point is determined by the ROI distance measurer 303, the ROI weight calculator 304 obtains the importance using the spatial characteristics by assigning a weight according to the distance from this point. Will be.

관심 영역 가중치 계산부(304)는 관심 영역 거리 측정부(303)로부터 각 블록마다 포비에이션 포인트에서 각 블록의 중간(X, Y)까지의 거리 dx를 수신하고, 최대로 감지할 수 있는 주파수

Figure 112007040934708-pat00017
를 계산한다.The region of interest weight calculation unit 304 receives a distance dx from the region of interest distance measurement unit 303 to the middle (X, Y) of each block at each posi- tion point and detects the maximum frequency.
Figure 112007040934708-pat00017
Calculate

Figure 112007040934708-pat00018
각도에서의 최대로 감지할 수 있는 주파수
Figure 112007040934708-pat00019
는 다음의 [수학식 6] 및 [수학식 7]를 이용하여 계산한다.
Figure 112007040934708-pat00018
Maximum detectable frequency in degrees
Figure 112007040934708-pat00019
Is calculated using the following [Equation 6] and [Equation 7].

Figure 112007040934708-pat00020
Figure 112007040934708-pat00020

여기서, ip(화소)와 id(거리 단위)는 영상의 크기에 해당하고, vd(거리 단위)는 관찰자와 영상까지의 거리, dx(화소)는 포비에이션 포인트에서 블록의 중간(X, Y)까지의 거리를 나타낸다.Where i p (pixel) and i d (unit of distance) correspond to the size of the image, v d (unit of distance) is the distance between the observer and the image, and d x (pixel) is the middle of the block at the focal point ( The distance to X and Y) is shown.

Figure 112007040934708-pat00021
Figure 112007040934708-pat00021

여기서,

Figure 112007040934708-pat00022
는 포비에이션 포인트로부터의 거리에 따른 공간 주파수의 감쇄를 조절하는 파라미터이다. 멀티미디어 응용에서의 각 상수의 값들은
Figure 112007040934708-pat00023
이다.here,
Figure 112007040934708-pat00022
Is a parameter for adjusting the attenuation of the spatial frequency according to the distance from the fob point. The values of each constant in multimedia applications
Figure 112007040934708-pat00023
to be.

Figure 112007040934708-pat00024
는 변환 인수
Figure 112007040934708-pat00025
(Cycle/Pixel)를 이용하여
Figure 112007040934708-pat00026
(Cycle/Pixel)으로 변환된다. 여기서,
Figure 112007040934708-pat00027
는 도 5에 도시된 바와 같이, 블록당 인간 시각에 들어오는 각도이다. 즉,
Figure 112007040934708-pat00028
(Cycles/Degree)에
Figure 112007040934708-pat00029
(Degree/Blocks)를 곱함으로써
Figure 112007040934708-pat00030
(Cycles/Blocks)로 단위를 바뀌준다.
Figure 112007040934708-pat00024
Is a conversion argument
Figure 112007040934708-pat00025
Using (Cycle / Pixel)
Figure 112007040934708-pat00026
Converted to (Cycle / Pixel). here,
Figure 112007040934708-pat00027
Is the angle entering the human vision per block, as shown in FIG. In other words,
Figure 112007040934708-pat00028
To (Cycles / Degree)
Figure 112007040934708-pat00029
By multiplying (Degree / Blocks)
Figure 112007040934708-pat00030
Change units to (Cycles / Blocks).

여기서,

Figure 112007040934708-pat00031
는 도 5에 도시된 바와 같이, 다음의 [수학식 8]과 같다.here,
Figure 112007040934708-pat00031
5 is shown in Equation 8 below.

Figure 112007040934708-pat00032
Figure 112007040934708-pat00032

이후,

Figure 112007040934708-pat00033
는 최소 주파수
Figure 112007040934708-pat00034
와 최대 정규 주파수 0.5 사이의 값을 갖도록 다음의 [수학식 9]과 [수학식 10]에 의해서 제한된다.after,
Figure 112007040934708-pat00033
Is the minimum frequency
Figure 112007040934708-pat00034
It is limited by the following Equations 9 and 10 to have a value between and the maximum normal frequency 0.5.

Figure 112007040934708-pat00035
Figure 112007040934708-pat00035

Figure 112007040934708-pat00036
Figure 112007040934708-pat00036

여기서, 최소 주파수

Figure 112007040934708-pat00037
는 0.07로 설정한다. Where minimum frequency
Figure 112007040934708-pat00037
Is set to 0.07.

전술한 [수학식 9]에서 생성한

Figure 112007040934708-pat00038
는 0.5보다 크면 0.5로 정하고, 다시 [수학식 9]의 파라미터로 대입하여
Figure 112007040934708-pat00039
을 0.07보다 작으면 0.07로 정함으로써 0.07 ~ 0.5 사이의 값으로 제한한다.Generated by Equation 9 above.
Figure 112007040934708-pat00038
Is greater than 0.5, it is set to 0.5, and is substituted by the parameter of Equation 9 again.
Figure 112007040934708-pat00039
If less than 0.07, set 0.07 to limit the value between 0.07 and 0.5.

이러한 인지 가능 공간 주파수 모델에 의해서 관심 영역과의 거리에 따른 해상도가 떨어지는 정도를 나타낼 수 있다.Such a perceptible spatial frequency model may indicate a degree of resolution drop according to a distance from the ROI.

관심 영역 가중치 계산부(304)는 관심 영역 거리 측정부(303)로부터 수신한 dx를 수신하고, 수신한 dx를 기초로 관심 영역 가중치 알고리즘([수학식 6], [수학식 7], [수학식 8], [수학식 9], [수학식 10], [수학식 11])을 통해 관심 영역에 의한 가중치를 계산한다.The ROI weight calculator 304 receives the dx received from the ROI distance measurer 303, and based on the received dx, the ROI weighting algorithm (Equation 6, Equation 7, Equation 8], [Equation 9], [Equation 10], [Equation 11]) to calculate the weight by the region of interest.

즉, 관심 영역 가중치 계산부(304)는 수신한 dx를 [수학식 6]에 대입하여

Figure 112007040934708-pat00040
를 계산하고, 계산된
Figure 112007040934708-pat00041
를 [수학식 7]에 대입하여
Figure 112007040934708-pat00042
를 계산한다. 이어서, 관심 영역 가중치 계산부(304)는 계산된
Figure 112007040934708-pat00043
를 [수학식 9]에 대입하여
Figure 112007040934708-pat00044
를 계산하고, 계산된
Figure 112007040934708-pat00045
를 [수학식 10]에 대입하여 최종
Figure 112007040934708-pat00046
을 계산한다.That is, the ROI weight calculation unit 304 substitutes the received dx into Equation 6
Figure 112007040934708-pat00040
Is calculated,
Figure 112007040934708-pat00041
Into Equation 7
Figure 112007040934708-pat00042
Calculate Subsequently, the ROI weight calculator 304 calculates the calculated
Figure 112007040934708-pat00043
By substituting in Equation 9
Figure 112007040934708-pat00044
Is calculated,
Figure 112007040934708-pat00045
Is substituted into [Equation 10]
Figure 112007040934708-pat00046
Calculate

관심 영역에 의한 가중치는 다음의 [수학식 11]과 같다.The weight by the ROI is expressed by Equation 11 below.

Figure 112007040934708-pat00047
Figure 112007040934708-pat00047

여기서,

Figure 112007040934708-pat00048
의 파라미터가 0인 경우, 포비에이션 포인트와 일치하는 곳을 의미한다.here,
Figure 112007040934708-pat00048
If the parameter of 0 is equal to the position of the fovi point.

움직임 측정부(Motion Estimation)(305)는 외부 메모리(500)로부터 원영상 신호를 수신하고, 수신한 원영상 신호와 메모리(미도시)에 기저장된 이전 영상 신호를 비교하여 각 매크로 블록마다 움직임 벡터를 계산한다.The motion estimator 305 receives the original video signal from the external memory 500, compares the received original video signal with a previous video signal previously stored in the memory (not shown), and calculates a motion vector for each macro block. Calculate

움직임 가중치 계산부(Motion Weight)(306)는 움직임 측정부(305)로부터 계산된 각 매크로 블록의 움직임 벡터를 기초로 움직임 가중치 알고리즘([수학식 12])을 이용하여 각 매크로 블록의 움직임에 의한 가중치(Wm)를 계산한다.The motion weight calculation unit 306 may use the motion weighting algorithm 306 based on the motion vector of each macro block calculated from the motion measuring unit 305. Calculate the weight Wm.

대부분의 코덱(Codec)에서는 각 프레임을 매크로 블록(16×16) 단위로 나누고 이전의 프레임과의 움직임 평가(Motion Estimation)을 통해 각 매크로 블록의 움직임 벡터(어느 방향으로 얼마나 이동하는지)를 얻는다. 따라서, 본 발명의 실시예에 따른 움직임에 의한 가중치는 각 프레임의 영역마다 빠르게 변화하는 부분을 쉽게 찾을 수 있기 때문에 움직임 평가(Motion Estimation)에 의해 얻은 움직임 벡터의 크기를 활용하여 정의한다.In most codecs, each frame is divided into macroblocks (16 × 16), and a motion vector of each macroblock (in which direction) moves through motion estimation with a previous frame. Therefore, since the weight by motion according to the embodiment of the present invention can easily find a rapidly changing part for each region of the frame, it is defined by using the magnitude of the motion vector obtained by motion estimation.

움직임에 의한 가중치는 다음의 [수학식 12]를 이용하여 계산한다.The weight by motion is calculated using the following [Equation 12].

Figure 112007040934708-pat00049
Figure 112007040934708-pat00049

여기서,

Figure 112007040934708-pat00050
는 k번째 블록의 움직임에 의한 가중치이고, K는 쓰레스홀드(Threshold)이며,
Figure 112007040934708-pat00051
는 최대 움직임 벡터값이다.here,
Figure 112007040934708-pat00050
Is the weight by the movement of the k-th block, K is the threshold,
Figure 112007040934708-pat00051
Is the maximum motion vector value.

멀티미디어 응용에서 K와

Figure 112007040934708-pat00052
는 각각 16과 34이다. 예를 들어, 움직임 벡터는 (24, 24)이면, 크기는 34(
Figure 112007040934708-pat00053
)이다.K in multimedia applications
Figure 112007040934708-pat00052
Are 16 and 34 respectively. For example, if the motion vector is (24, 24), the magnitude is 34 (
Figure 112007040934708-pat00053
)to be.

공간 주파수 변환부(Channel Decomposition)(307)는 시공간 주파수에 따른 가중치를 주기 위한 주파수 성분을 추출한다. 공간 주파수 변환부(307)는 원영상 신호를 수신하여 각 블록(8×8 화소)마다 이산 코사인 변환(Discrete Cosine Transform, 이하 'DCT'라 칭함) 계수(Coefficient)를 생성한다.The spatial frequency converter 307 extracts a frequency component for giving a weight according to the space-time frequency. The spatial frequency converter 307 receives the original image signal and generates a discrete cosine transform (DCT) coefficient for each block (8x8 pixels).

시공간 주파수 가중치 계산부(Spatiotemporal CSF Weight)(308)는 공간 주파수 변환부(307)로부터 생성한 각 블록의 DCT 계수를 수신하고 시공간 주파수 변환 알고리즘([수학식 13], [수학식 14], [수학식 15])을 이용하여 시공간 주파수에 따른 가중치(Wc)를 계산한다.The spatial temporal frequency weight calculation unit 308 receives the DCT coefficients of each block generated by the spatial frequency transform unit 307 and performs the space-time frequency conversion algorithm ([Equation 13], [Equation 14], [ Equation 15]) to calculate the weight (Wc) according to the space-time frequency.

도 6에 도시된 바와 같이, 인간 시각은 공간 주파수가 낮을수록 민감해지고 어느 지점에서 최정점에 이르며, 다시 낮아진다. 마찬가지로 인간 시각은 시간 주파수도 높을수록 둔감해지고 낮을수록 민감해지나 어느 지점에서 최정점에 이른다.As shown in FIG. 6, the human vision becomes more sensitive as the spatial frequency is lower, reaches a peak at some point, and becomes lower again. Similarly, human vision becomes insensitive as higher and higher frequency, but peaks at some point.

이하, [수학식 13]은 인간 시각의 민감한 정도를 시간 주파수와 공간 주파수의 함수로 나타낸 것이다.Equation 13 below shows the sensitivity of human vision as a function of time and space frequency.

시공간 주파수에 의한 시각의 반응도(Contrast Sensitivity Function: CSF)는 다음의 [수학식 13]과 같다.Contrast Sensitivity Function (CSF) based on space-time frequency is expressed by Equation 13 below.

Figure 112007040934708-pat00054
Figure 112007040934708-pat00054

여기서, fs는 시간주파수이며, ft는 공간 주파수를 의미한다.Here, f s is a time frequency, f t is a spatial frequency.

시공간 주파수에 따른 가중치는 다음의 [수학식 5]를 이용하여 계산한다.The weight according to the space-time frequency is calculated using Equation 5 below.

Figure 112007040934708-pat00055
Figure 112007040934708-pat00055

여기서,

Figure 112007040934708-pat00056
는 최정점의 공간 주파수와 시간 주파수를 나타내며, 멀티미디어 용도에서 각각 8cycle/degree와 10 Hz이다.here,
Figure 112007040934708-pat00056
Represents the highest spatial and temporal frequencies and is 8cycle / degree and 10 Hz respectively for multimedia applications.

여기서,

Figure 112007040934708-pat00057
는 정규화시킨 이산 코사인 변환(Discrete Cosine Transform, 이하 'DCT'라 칭함) 계수이고, P는 DCT 계수를 공간 주파수로 변환하는 변환 지수이다. 여기서, 공간 픽셀의 X, Y와 공간 주파수의 코피션트(Coefficient)의 U, V는 대응된다.here,
Figure 112007040934708-pat00057
Is a normalized Discrete Cosine Transform (DCT) coefficient, and P is a transform index for transforming DCT coefficients into spatial frequency. Here, X and Y of the spatial pixel and U and V of the coefficient of the spatial frequency correspond.

전술한 P는 다음의 [수학식 15]를 이용하여 계산한다.P described above is calculated using Equation 15 below.

Figure 112007040934708-pat00058
(Pixels/Degree)
Figure 112007040934708-pat00058
(Pixels / Degree)

여기서, r는 해상도(Display Resolution)(Pixels/Unit of Length)이고,

Figure 112007040934708-pat00059
는 뷰잉 디스턴스(Viewing Distance)(Unit of Length)이다.Where r is Display Resolution (Pixels / Unit of Length),
Figure 112007040934708-pat00059
Is the Viewing Distance (Unit of Length).

예를 들어, r=72(Pixels/Inch),

Figure 112007040934708-pat00060
=12(Inches)라고 하면 p=15.1(Pixels/Degree)이다.For example, r = 72 (Pixels / Inch),
Figure 112007040934708-pat00060
= 12 (Inches), p = 15.1 (Pixels / Degree).

이때,

Figure 112007040934708-pat00061
라고 표현할 수 있다.At this time,
Figure 112007040934708-pat00061
Can be expressed.

각 DCT 주파수(u&v)는 8×8 블록에서 정의되기 때문에 16으로 나누어주면 0.5의 최대 표준 주파수(Maximum Normalized Frequency)(Cycles/Pixels)가 된다.Since each DCT frequency (u & v) is defined in an 8x8 block, dividing by 16 yields a Maximum Normalized Frequency (Cycles / Pixels) of 0.5.

영상 품질 측정부(400)는 휘도 가중치 계산부(302), 관심 영역 가중치 계산부(304), 움직임 가중치 계산부(306) 및 시공간 주파수 가중치 계산부(308)로부터 각각 휘도 가중치, 관심 영역 가중치, 움직임 가중치, 시공간 주파수 가중치를 수신한다. 이어서, 영상 품질 측정부(400)는 휘도 가중치, 관심 영역 가중치, 움직임 가중치, 시공간 주파수 가중치를 곱하여 최종 가중치 정보를 계산한다.The image quality measuring unit 400 is a luminance weighting unit, an ROI weighting unit, from the luminance weighting unit 302, the ROI weighting unit 304, the motion weighting unit 306, and the space-time frequency weighting unit 308, respectively. Receive motion weights, space-time frequency weights. Subsequently, the image quality measuring unit 400 calculates final weight information by multiplying the luminance weight, the ROI weight, the motion weight, and the space-time frequency weight.

최종 가중치 정보는 다음의 [수학식 16]과 같다.Final weight information is given by Equation 16 below.

Figure 112007040934708-pat00062
Figure 112007040934708-pat00062

최종 가중치 정보는 4가지의 각 가중치의 곱으로 이루어짐을 알 수 있으며, 첨자 k는 k번째 블록을 나타낸다.It can be seen that the final weight information consists of the product of each of the four weights, and the subscript k represents the k-th block.

Figure 112007040934708-pat00063
는 각각 시공간 주파수, 휘도, 관심 영역, 움직임에 의한 가중치를 나타낸 것이다. 이때, i, j, l, n는 각각 최적의 가중치를 위한 변수이며, 멀티미디어 용도를 위한 디폴트값은 각각 1이다.bracket
Figure 112007040934708-pat00063
Are weights by space-time frequency, luminance, region of interest, and motion, respectively. In this case, i, j, l, n are variables for the optimal weight, respectively, the default value for the multimedia use is 1 respectively.

영상 품질 측정부(400)는 구조적 유사 지표 계산부(200)로부터 영상 블록마다 생성된 구조적 유사 지표를 수신하고, 수신한 구조적 유사 지표에 최종 가중치 정보를 곱해져서 최종 영상 품질 정보를 계산한다.The image quality measuring unit 400 receives a structural similarity index generated for each image block from the structural similarity index calculator 200, and multiplies the received structural similarity index by the final weight information to calculate final image quality information.

더욱 구체적으로 설명하면, 최종 영상 품질 정보는 다음의 [수학식 17]을 이용하여 계산한다.More specifically, the final image quality information is calculated using Equation 17 below.

Figure 112007040934708-pat00064
Figure 112007040934708-pat00064

여기서, B는 블록의 총 개수,

Figure 112007040934708-pat00065
는 [수학식 17]에 의한 최종 가중치 정보,
Figure 112007040934708-pat00066
는 각각 b번째 블록의 원영상 신호와 수신 영상 신호이다.Where B is the total number of blocks,
Figure 112007040934708-pat00065
Is the final weight information according to [Equation 17],
Figure 112007040934708-pat00066
Are respectively the original video signal and the received video signal of the b-th block.

다음, 도 7를 참조하여 영상 품질 측정 방법을 설명한다.Next, an image quality measuring method will be described with reference to FIG. 7.

도 7은 본 발명의 실시예에 따른 인간 시각 특성을 이용한 영상 품질 측정 방법을 설명하기 위한 도면이다.7 is a view for explaining a method for measuring image quality using human visual characteristics according to an embodiment of the present invention.

이하, 구조적 유사 지표 계산, 휘도 가중치 알고리즘, 관심 영역 가중치 알고리즘, 움직임 가중치 알고리즘 및 시공간 주파수 변환 알고리즘은 도 1에서 설명한 바, 동일한 설명을 생략한다.Hereinafter, the structural similarity index calculation, the luminance weighting algorithm, the ROI weighting algorithm, the motion weighting algorithm, and the space-time frequency conversion algorithm are described in FIG.

구조적 유사 지표 계산부(200)는 외부 메모리(500)로부터 원영상 신호와 수 신 영상 신호를 수신하여 어느 정도 유사한지 구조적 유사 지표를 계산하여 영상 품질 측정부(400)로 전송한다(S100).The structural similarity index calculator 200 receives the original image signal and the received image signal from the external memory 500, calculates the structural similarity index, and transmits the structural similarity index to the image quality measuring unit 400 (S100).

영상 색신호 변환부(301)는 외부 메모리(500)로부터 수신한 원영상 신호가 RGB 신호인 경우, 휘도 신호와 색 신호를 포함한 영상 신호(YCbCr 신호)로 변환하며, 수신한 원영상 신호가 YCbCr 신호인 경우, 원영상 신호를 그대로 휘도 가중치 계산부(302)로 전송한다.When the original image signal received from the external memory 500 is an RGB signal, the image color signal converter 301 converts the image signal into a video signal (YCbCr signal) including a luminance signal and a color signal, and the received original image signal is a YCbCr signal. In this case, the original video signal is transmitted to the luminance weight calculator 302 as it is.

휘도 가중치 계산부(302)는 영상 색신호 변환부(301)로부터 수신한 원영상 신호에서 휘도 신호를 추출하고, 추출한 휘도 신호를 기초로 휘도 가중치 알고리즘을 통해 휘도에 의한 가중치를 계산하여 영상 품질 측정부(400)로 전송한다(S102).The luminance weight calculator 302 extracts a luminance signal from the original image signal received from the image color signal converter 301, and calculates a weight by luminance through a luminance weighting algorithm based on the extracted luminance signal, thereby measuring the image quality. The transmission to 400 (S102).

관심 영역 거리 측정부(303)는 외부 메모리(500)로부터 수신한 원영상 신호를 얼굴 검출 알고리즘을 통해 포비에이션 포인트(Foveation Point)를 정하고, 영상 블록마다 포비에이션 포인트로부터 일정 지점까지의 거리를 생성하여 관심 영역 가중치 계산부(304)로 전송한다.The ROI distance measurer 303 determines a foveation point from the original image signal received from the external memory 500 through a face detection algorithm, and generates a distance from the foviation point to a predetermined point for each image block. To the region of interest weight calculation unit 304.

관심 영역 가중치 계산부(304)는 생성한 거리를 파라미터로 하여 포비에이션 포인트로부터 거리가 멀어짐에 따라 가중치를 다르게 부여하도록 관심 영역 가중치 알고리즘을 통해 관심 영역에 의한 가중치를 계산하여 영상 품질 측정부(400)로 전송한다(S104).The region of interest weight calculation unit 304 calculates the weight of the region of interest through the region of interest weighting algorithm to assign the weight differently as the distance from the posi- tion point becomes greater by using the generated distance as a parameter. (S104).

움직임 측정부(305)는 외부 메모리(500)로부터 원영상 신호를 수신하고, 수신한 원영상 신호와 메모리(미도시)에 기저장된 이전 영상 신호를 비교한 후, 각 매크로 블록마다 움직임 벡터를 계산하여 움직임 가중치 계산부(306)로 전송한다.The motion measuring unit 305 receives the original video signal from the external memory 500, compares the received original video signal with a previous video signal previously stored in a memory (not shown), and then calculates a motion vector for each macro block. To the motion weight calculator 306.

움직임 가중치 계산부(306)는 움직임 측정부(305)로부터 계산한 움직임 벡터를 기초로 움직임 가중치 알고리즘을 통해 각 매크로 블록의 움직임에 의한 가중치를 계산하여 영상 품질 측정부(400)로 전송한다(S106).The motion weight calculator 306 calculates the weights of the motions of the macroblocks through the motion weighting algorithm based on the motion vectors calculated by the motion measurer 305 and transmits the weights to the image quality measurer 400 (S106). ).

공간 주파수 변환부(307)는 외부 메모리(500)로부터 원영상 신호를 수신하여 각 블록마다 DCT 계수를 생성하여 시공간 주파수 가중치 계산부(308)로 전송한다.The spatial frequency converter 307 receives the original image signal from the external memory 500, generates a DCT coefficient for each block, and transmits the DCT coefficient to the space-time frequency weight calculator 308.

시공간 주파수 가중치 계산부(308)는 공간 주파수 변환부(307)로부터 생성한 각 블록의 DCT 계수를 수신하고, 시공간 주파수 변환 알고리즘을 통해 시공간 주파수에 따른 가중치를 계산하여 영상 품질 측정부(400)로 전송한다(S108).The space-time frequency weight calculator 308 receives the DCT coefficients of each block generated by the space-frequency converter 307, calculates the weights according to the space-time frequency through the space-time frequency conversion algorithm, and transmits the weight to the image quality measurer 400. It transmits (S108).

영상 품질 측정부(400)는 휘도 가중치 계산부(302)로부터 수신한 휘도에 의한 가중치, 관심 영역 가중치 계산부(304)로부터 수신한 관심 영역에 의한 가중치, 움직임 가중치 계산부(306)로부터 수신한 움직임에 의한 가중치, 시공간 주파수 가중치 계산부(308)로부터 수신한 시공간 주파수에 의한 가중치를 각각 곱하여 최종 가중치 정보를 생성한다(S110).The image quality measuring unit 400 receives the weight by the luminance received from the luminance weight calculator 302, the weight by the ROI received from the ROI weight calculator 304, and the motion weight calculator 306. The final weight information is generated by multiplying the weight by the motion and the weight by the space-time frequency received from the space-time frequency weight calculator 308 (S110).

영상 품질 측정부(400)는 구조적 유사 지표 계산부(200)로부터 수신한 구조적 유사 지표에 최종 가중치 정보를 곱하여 최종 영상 품질 정보를 생성한다(S112).The image quality measuring unit 400 generates final image quality information by multiplying the final weight information by the structural similarity index received from the structural similarity index calculator 200 (S112).

본 발명의 실시예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.Embodiments of the present invention are not implemented only through the above-described apparatus and / or method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiments of the present invention, a recording medium on which the program is recorded, and the like. Such implementations may be readily implemented by those skilled in the art from the description of the above-described embodiments.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

전술한 구성에 의하여, 본 발명은 멀티미디어의 영상 품질 측정에 있어 인간 시각 특성을 반영하여 실제로 사람이 직접 점수를 매기는 평가 점수와 유사한 결과를 얻을 수 있는 효과를 기대할 수 있다.According to the above-described configuration, the present invention can be expected to obtain an effect that can achieve a result similar to an evaluation score that is actually directly scored by a person by reflecting human visual characteristics in measuring image quality of multimedia.

본 발명은 영상 품질을 주관적으로 평가하는 점수와 유사한 결과를 내면서도 수식에 의해 자동으로 계산되므로 주관적 평가에서 발생하였던 평가의 복잡성과 평가자나 평가 시간에 따라 결과가 변하는 문제를 해결할 수 있는 효과를 기대할 수 있다.According to the present invention, the results are similar to the scores for subjective evaluation of the image quality, and are automatically calculated by the equations. Can be.

본 발명은 단말의 인터페이스(외부 메모리 등)를 사용하여 데이터 획득 과정에서 발생할 수 있는 추가 왜곡없이 풀 래퍼런스(Full Reference) 형을 손쉽게 구현하는 효과를 기대할 수 있다.The present invention can be expected to use the interface (external memory, etc.) of the terminal to easily implement a full reference (Full Reference) type without additional distortion that may occur in the data acquisition process.

본 발명은 외부 메모리를 사용하여 복잡한 장비없이 단말기를 사용하는 현장에서 즉석에서 테스트할 수 있으며 휴대가 간편한 영상 품질 측정기로의 응용이 가능한 효과를 기대할 수 있다.The present invention can be immediately tested in the field using a terminal without complicated equipment using an external memory, and can be expected to be effective as a portable image quality measuring device.

본 발명은 외부 메모리 인터페이스를 사용하여 원영상과 수신 영상을 제공함 으로써 데이터 변환 과정에서 발생하는 추가 왜곡을 없애고 손쉽게 영상 데이터를 획득할 수 있는 효과를 기대할 수 있다.According to the present invention, by providing an original image and a received image using an external memory interface, it is possible to expect an effect that can easily obtain image data while eliminating additional distortion generated during data conversion.

Claims (13)

원영상 신호와 수신 영상 신호를 수신하고, 상기 원영상 신호와 상기 수신 영상 신호 간 유사 정도를 나타내는 구조적 유사 지표를 휘도의 유사 정도, 분산의 유사 정도, 공분산의 비율 정도 중 어느 하나 이상의 정보를 이용하여 계산하는 구조적 유사 지표 계산부;Receives an original video signal and a received video signal, and uses a structural similarity index indicating a degree of similarity between the original video signal and the received video signal using any one or more information among similarities of luminance, similarity of variance, and degree of covariance. Structural similarity index calculation unit to calculate; 인간의 시각적 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영하여 하나 이상의 시각적 가중치를 계산하는 시각적 가중치 계산부; 및A visual weight calculator configured to calculate one or more visual weights by reflecting factors affecting human visual characteristics—information of any one or more of luminance, region of interest, motion, and space-time frequency; And 상기 계산한 하나 이상의 시각적 가중치를 서로 곱하여 최종 가중치 정보를 생성하고, 상기 생성한 최종 가중치 정보에 상기 계산한 구조적 유사 지표를 곱해져서 최종 영상 품질 정보를 계산하는 영상 품질 측정부An image quality measuring unit configured to generate final weight information by multiplying the calculated one or more visual weights, and multiplying the calculated structural similarity index by the calculated final weight information to calculate final image quality information 를 포함하는 영상 품질 측정 장치.Image quality measuring apparatus comprising a. 제1 항에 있어서,According to claim 1, 상기 구조적 유사 지표는 상기 휘도의 유사 정도, 상기 분산의 유사 정도, 상기 공분산의 비율 정도를 각각 곱하여 계산되는 것을 특징으로 하는 영상 품질 측정 장치.The structural similarity index is calculated by multiplying the degree of similarity of the luminance, the degree of similarity of the variance, and the degree of the ratio of the covariance, respectively. 제1 항에 있어서,According to claim 1, 상기 시각적 가중치 계산부는,The visual weight calculation unit, 휘도 신호와 색 신호를 포함한 상기 원영상 신호를 수신하고, 상기 수신한 원영상 신호 중 상기 휘도 신호를 추출하며, 상기 추출한 휘도 신호를 기초로 휘도 가중치 알고리즘을 이용하여 휘도 가중치를 계산하는 휘도 가중치 계산부;A luminance weight calculation for receiving the original image signal including a luminance signal and a color signal, extracting the luminance signal from the received original image signal, and calculating a luminance weight using a luminance weighting algorithm based on the extracted luminance signal part; 영상 블록마다 관심 영역을 나타내는 포비에이션 포인트(Foveation Point)를 정하고, 상기 포비에이션 포인트로부터 거리가 멀어짐에 가중치를 다르게 부여하도록 관심 영역 가중치 알고리즘을 통해 관심 영역 가중치를 계산하는 관심 영역 가중치 계산부;A region of interest weight calculation unit configured to determine a foveation point representing a region of interest for each image block and calculate a region of interest weight through a region of interest weighting algorithm to assign a weight to a distance away from the posi- tion point; 각 매크로 블록마다 움직임 벡터를 계산하는 움직임 측정부로부터 상기 계산된 움직임 벡터를 수신하여 움직임 가중치 알고리즘을 통해 각 매크로 블록에 의한 움직임 가중치를 계산하는 움직임 가중치 계산부; 및A motion weight calculation unit configured to receive the calculated motion vector from a motion measuring unit for calculating a motion vector for each macro block and calculate a motion weight of each macro block through a motion weighting algorithm; And 상기 원영상 신호를 수신하여 각 영상 블록마다 이산 코사인 변환(Discrete Cosine Transform) 계수(Coefficient)를 생성하는 공간 주파수 변환부로부터 상기 이산 코사인 변환 계수를 수신하고, 시공간 주파수 변환 알고리즘을 통해 시공간 주파수 가중치를 계산하는 시공간 주파수 가중치 계산부The discrete cosine transform coefficient is received from a spatial frequency transform unit that receives the original image signal and generates discrete cosine transform coefficients for each image block, and receives a space-time frequency weighting factor through a space-time frequency transform algorithm. Space-time frequency weight calculation unit to calculate 를 포함하는 영상 품질 측정 장치.Image quality measuring apparatus comprising a. 제1 항 또는 제2 항에 있어서,The method according to claim 1 or 2, 상기 구조적 유사 지표는
Figure 112007040934708-pat00067
를 이용하여 계산하되, X는 원영상에 있는 블록의 화소, Y는 수신 영상에 있는 블록의 화 소,
Figure 112007040934708-pat00068
는 공분산,
Figure 112007040934708-pat00069
는 원영상의 화소값 평균,
Figure 112007040934708-pat00070
는 수신 영상의 화소값 평균,
Figure 112007040934708-pat00071
는 원영상과 수신 영상의 분산, C1, C2는 상수를 의미하는 것을 특징으로 하는 영상 품질 측정 장치.
The structural similarity index is
Figure 112007040934708-pat00067
Using X, where X is the pixel of the block in the original image, Y is the pixel of the block in the received image,
Figure 112007040934708-pat00068
Is covariance,
Figure 112007040934708-pat00069
Is the average pixel value of the original image,
Figure 112007040934708-pat00070
Is the average pixel value of the received image,
Figure 112007040934708-pat00071
Is a variance of the original image and the received image, C1, C2 means a constant.
제3 항에 있어서,The method of claim 3, wherein 상기 휘도 가중치는
Figure 112007040934708-pat00072
를 이용하여 계산하되, Y는 휘도값(L)을 기설정된 한계치(Threshold)(Lt)로 나눈 값이고, c와 r은 함수의 모양을 결정짓는 양의 상수로, 멀티미디어 응용을 위한 파라미터에 있어서, c=1, r=1/2.2, 한계치=50을 의미하는 것을 특징으로 하는 영상 품질 측정 장치.
The luminance weight is
Figure 112007040934708-pat00072
Where Y is the luminance value (L) divided by a predetermined threshold (Lt), and c and r are positive constants that determine the shape of the function. , c = 1, r = 1 / 2.2, threshold value = 50.
제3 항에 있어서,The method of claim 3, wherein 상기 관심 영역 가중치는 상기 관심 영역과의 거리에 따른 해상도가 떨어지는 정도를 나타내는 것을 특징으로 하는 영상 품질 측정 장치.And the ROI weight indicates an extent of resolution drop according to the distance from the ROI. 제3 항에 있어서,The method of claim 3, wherein 상기 움직임 가중치는 움직임 평가(Motion Estimation)에 의해 얻은 움직임 벡터의 크기를 이용하여 구하는 것을 특징으로 하는 영상 품질 측정 장치.And the motion weight is calculated using the magnitude of a motion vector obtained by motion estimation. 제3 항에 있어서,The method of claim 3, wherein 상기 시공간 주파수 가중치는 시간 주파수와 공간 주파수의 함수로 나타낸
Figure 112007040934708-pat00073
Figure 112007040934708-pat00074
을 이용하여 계산하되,
Figure 112007040934708-pat00075
는 최정점의 공간 주파수와 시간 주파수,
Figure 112007040934708-pat00076
는 정규화시킨 이산 코사인 변환 계수, P는 이산 코사인 변환 계수를 공간 주파수로 변환하는 변환 지수, u, v는 공간 주파수의 코피션트(Coefficient)를 의미하는 것을 특징으로 하는 영상 품질 측정 장치.
The space-time frequency weights are expressed as a function of time and space frequency.
Figure 112007040934708-pat00073
and
Figure 112007040934708-pat00074
Calculate using
Figure 112007040934708-pat00075
Is the highest spatial and temporal frequency,
Figure 112007040934708-pat00076
Is a normalized discrete cosine transform coefficient, P is a transform exponent for converting the discrete cosine transform coefficients into spatial frequencies, and u and v are coefficients of spatial frequencies.
(a) 외부 메모리로부터 원영상 신호와 수신 영상 신호를 수신하여 상기 원영상 신호와 상기 수신 영상 신호 간 유사 정도를 나타내는 구조적 유사 지표를 휘도의 유사 정도, 분산의 유사 정도, 공분산의 비율 정도 중 어느 하나 이상의 정보를 이용하여 계산하고, 상기 원영상 신호를 기초로 인간의 시각 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영한 복수의 시각적 가중치 정보를 계산하는 단계; 및(a) A structural similarity index indicating the degree of similarity between the original image signal and the received image signal by receiving the original image signal and the received image signal from an external memory, and any one of the degree of similarity of luminance, similarity of variance and degree of covariance. Calculate a plurality of visual weight information by using one or more pieces of information and reflecting factors affecting human visual characteristics based on the original image signal—information of any one or more of luminance, region of interest, motion, and space-time frequency. Making; And (b) 상기 계산한 복수의 시각적 가중치 정보를 서로 곱하여 최종 가중치 정보를 생성하고, 상기 계산한 구조적 유사 지표에 상기 생성한 최종 가중치 정보를 곱하여 최종 영상 품질 정보를 계산하는 단계(b) multiplying the calculated plurality of visual weight information with each other to generate final weight information, and calculating final image quality information by multiplying the calculated structural similarity index with the generated final weight information. 를 포함하는 영상 품질 측정 방법.Image quality measurement method comprising a. 제9 항에 있어서,The method of claim 9, 상기 (a)단계에서,In step (a), 상기 외부 메모리로부터 상기 원영상 신호를 수신하고, 상기 수신한 원영상 신호가 RGB 신호인 경우, 휘도 신호와 색 신호를 포함한 영상 신호로 변환하여 출력하며, 상기 수신한 원영상 신호가 상기 영상 신호인 경우 그대로 출력하는 단계; 및The original image signal is received from the external memory, and when the received original image signal is an RGB signal, the original image signal is converted into an image signal including a luminance signal and a color signal and output. The received original image signal is the image signal. Outputting as is; And 상기 영상 신호 중 상기 휘도 신호를 추출하고, 상기 추출한 휘도 신호를 기초로 휘도 가중치 알고리즘을 이용하여 휘도에 의한 가중치를 계산하는 단계Extracting the luminance signal from the image signal, and calculating a weight by luminance using a luminance weighting algorithm based on the extracted luminance signal; 를 포함하는 영상 품질 측정 방법.Image quality measurement method comprising a. 제9 항에 있어서,The method of claim 9, 상기 (a)단계에서,In step (a), 상기 외부 메모리로부터 상기 원영상 신호를 수신하고, 상기 수신한 원영상 신호에서 얼굴 검출 알고리즘을 통해 포비에이션 포인트(Foveation Point)를 정하고, 영상 블록마다 상기 포비에이션 포인트로부터 일정 지점까지의 거리를 생성하여 관심 영역이 지정되는 단계; 및Receiving the original video signal from the external memory, a focal point (Foveation Point) is determined through a face detection algorithm from the received original video signal, and generates a distance from the poavation point to a predetermined point for each image block Designating a region of interest; And 상기 지정된 관심 영역을 바탕으로 상기 포비에이션 포인트로부터 거리가 멀어짐에 따라 가중치를 다르게 부여하도록 관심 영역 가중치 알고리즘을 통해 관심 영역에 의한 가중치를 계산하는 단계Calculating weights by the region of interest through the region of interest weighting algorithm to assign weights differently as the distance from the pore point based on the designated region of interest; 를 포함하는 영상 품질 측정 방법.Image quality measurement method comprising a. 제9 항에 있어서,The method of claim 9, 상기 (a)단계에서,In step (a), 상기 외부 메모리로부터 상기 원영상 신호를 수신하고, 상기 수신한 원영상 신호와 메모리에 기저장된 이전 영상 신호를 비교하여 각 매크로 블록마다 움직임 벡터를 계산하는 단계; 및Receiving the original image signal from the external memory, and comparing the received original image signal with a previous image signal previously stored in the memory to calculate a motion vector for each macro block; And 상기 계산한 움직임 벡터를 기초로 움직임 가중치 알고리즘을 이용하여 각 매크로 블록의 움직임에 의한 가중치를 계산하는 단계Calculating a weight due to the motion of each macro block using a motion weighting algorithm based on the calculated motion vector 를 포함하는 영상 품질 측정 방법.Image quality measurement method comprising a. 제9 항에 있어서,The method of claim 9, 상기 (a)단계에서,In step (a), 상기 외부 메모리로부터 상기 원영상 신호를 수신하여 각 블록마다 이산 코사인 변환 계수를 생성하는 단계; 및Receiving the original image signal from the external memory and generating discrete cosine transform coefficients for each block; And 상기 생성한 각 블록의 이산 코사인 변환 계수를 시공간 주파수 변환 알고리즘을 이용하여 시공간 주파수에 따른 가중치를 계산하는 단계Calculating weights according to space-time frequency using the discrete cosine transform coefficient of each generated block using a space-time frequency conversion algorithm 를 포함하는 영상 품질 측정 방법.Image quality measurement method comprising a.
KR1020070054833A 2007-06-05 2007-06-05 Apparatus and Method by Using Human Visual Characteristics KR100893609B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070054833A KR100893609B1 (en) 2007-06-05 2007-06-05 Apparatus and Method by Using Human Visual Characteristics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070054833A KR100893609B1 (en) 2007-06-05 2007-06-05 Apparatus and Method by Using Human Visual Characteristics

Publications (2)

Publication Number Publication Date
KR20080107042A KR20080107042A (en) 2008-12-10
KR100893609B1 true KR100893609B1 (en) 2009-04-20

Family

ID=40367483

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070054833A KR100893609B1 (en) 2007-06-05 2007-06-05 Apparatus and Method by Using Human Visual Characteristics

Country Status (1)

Country Link
KR (1) KR100893609B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101327709B1 (en) * 2012-03-23 2013-11-11 한국전자통신연구원 Apparatus for monitoring video quality and method thereof
KR102192017B1 (en) * 2019-07-16 2020-12-16 연세대학교 산학협력단 Method and Apparatus for Assessing Visual Quality of Video Based on Human Visual System

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020084172A (en) * 2001-01-10 2002-11-04 코닌클리케 필립스 일렉트로닉스 엔.브이. Scalable objective metric for automatic video quality evaluation
JP2003333629A (en) 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> Method, device, and program for supporting evaluation of video quality
KR20060033717A (en) * 2003-08-22 2006-04-19 니뽄 덴신 덴와 가부시키가이샤 Video quality evaluation device, video quality evaluation method, video quality evaluation program, video matching device, video matching method, and video matching program
WO2006043500A1 (en) 2004-10-18 2006-04-27 Nippon Telegraph And Telephone Corporation Video quality objective evaluation device, evaluation method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020084172A (en) * 2001-01-10 2002-11-04 코닌클리케 필립스 일렉트로닉스 엔.브이. Scalable objective metric for automatic video quality evaluation
JP2003333629A (en) 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> Method, device, and program for supporting evaluation of video quality
KR20060033717A (en) * 2003-08-22 2006-04-19 니뽄 덴신 덴와 가부시키가이샤 Video quality evaluation device, video quality evaluation method, video quality evaluation program, video matching device, video matching method, and video matching program
WO2006043500A1 (en) 2004-10-18 2006-04-27 Nippon Telegraph And Telephone Corporation Video quality objective evaluation device, evaluation method, and program

Also Published As

Publication number Publication date
KR20080107042A (en) 2008-12-10

Similar Documents

Publication Publication Date Title
Wang et al. Structural similarity based image quality assessment
Yang et al. Perceptual quality assessment of screen content images
CA2958720C (en) Method and system for objective perceptual video quality assessment
Lu et al. Modeling visual attention's modulatory aftereffects on visual sensitivity and quality evaluation
Wei et al. Spatio-temporal just noticeable distortion profile for grey scale image/video in DCT domain
EP1225769B1 (en) Spatial temporal visual attention model for a video frame sequence
Tang Spatiotemporal visual considerations for video coding
US6239834B1 (en) Apparatus for evaluating digital picture quality
Kumar et al. Development of improved SSIM quality index for compressed medical images
Feng et al. Saliency inspired full-reference quality metrics for packet-loss-impaired video
Dimauro A new image quality metric based on human visual system
Uzair et al. Estimating just‐noticeable distortion for images/videos in pixel domain
KR101007381B1 (en) apparatus for video encoding considering region of interest
KR100893609B1 (en) Apparatus and Method by Using Human Visual Characteristics
Gao et al. A content-based image quality metric
Li et al. Gradient-weighted structural similarity for image quality assessments
Gao et al. Spatio-temporal salience based video quality assessment
Chen et al. Perception-oriented video coding based on foveated JND model
JP2006201983A (en) Picture quality evaluating device and picture quality evaluating method
Shang et al. Perceptual multiview video coding based on foveated just noticeable distortion profile in DCT domain
Yang et al. Perceptual sharpness metric (PSM) for compressed video
Wang et al. A human visual system-based objective video distortion measurement system
Wu et al. Image quality assessment based on improved structural similarity
Bhola et al. Image Quality Assessment Techniques
Yang et al. A new objective quality metric for frame interpolation used in video compression

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
LAPS Lapse due to unpaid annual fee