KR100893609B1 - Apparatus and Method by Using Human Visual Characteristics - Google Patents
Apparatus and Method by Using Human Visual Characteristics Download PDFInfo
- Publication number
- KR100893609B1 KR100893609B1 KR1020070054833A KR20070054833A KR100893609B1 KR 100893609 B1 KR100893609 B1 KR 100893609B1 KR 1020070054833 A KR1020070054833 A KR 1020070054833A KR 20070054833 A KR20070054833 A KR 20070054833A KR 100893609 B1 KR100893609 B1 KR 100893609B1
- Authority
- KR
- South Korea
- Prior art keywords
- weight
- luminance
- signal
- image signal
- received
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/02—Diagnosis, testing or measuring for television systems or their details for colour television signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
본 발명은 인간 시각 특성을 이용한 영상 품질 측정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for measuring image quality using human visual characteristics.
본 발명의 실시예에 따른 영상 품질 측정 장치는 원영상 신호와 수신 영상 신호를 수신하고, 수신한 원영상 신호와 수신 영상 신호가 어느 정도 유사한지 구조적 유사 지표를 수치화하여 계산하는 구조적 유사 지표 계산부; 인간의 시각적 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영하여 하나 이상의 시각적 가중치를 계산하는 시각적 가중치 계산부; 및 계산한 하나 이상의 시각적 가중치를 서로 곱하여 최종 가중치 정보를 생성하고, 생성한 최종 가중치 정보에 상기 계산한 구조적 유사 지표를 곱해져서 최종 영상 품질 정보를 계산하는 영상 품질 측정부를 제공한다.An image quality measuring apparatus according to an exemplary embodiment of the present invention receives a structural image indicator and a structural similarity indicator calculation unit configured to receive a raw image signal and a received image signal, and calculate a numerical value of the structural similarity indicator to determine how similar the received original image signal and the received image signal are. ; A visual weight calculator configured to calculate one or more visual weights by reflecting factors affecting human visual characteristics—information of any one or more of luminance, region of interest, motion, and space-time frequency; And generating final weight information by multiplying the calculated one or more visual weights, and multiplying the calculated structural similarity index by the calculated final weight information to calculate final image quality information.
본 발명은 멀티미디어의 영상 품질 측정에 있어 인간 시각 특성을 반영하여 실제로 사람이 직접 점수를 매기는 평가 점수와 유사한 결과를 얻을 수 있는 효과를 기대할 수 있다.The present invention can be expected to have an effect of obtaining a result similar to an evaluation score, which is actually directly scored by a person by reflecting human visual characteristics in measuring image quality of multimedia.
인간 시각, 가중치, 영상 품질, 주관적, 객관적 Human vision, weights, image quality, subjective, objective
Description
도 1은 본 발명의 실시예에 따른 영상 품질 측정 장치의 내부 구성을 간략하게 나타낸 블록 구성도이다.1 is a block diagram schematically illustrating an internal configuration of an image quality measuring apparatus according to an exemplary embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 관심 영역에 의한 가중치를 계산하는 알고리즘에서 변수들을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating variables in an algorithm for calculating a weight based on a region of interest according to an exemplary embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 관심 영역을 설명하기 위해 눈의 구조를 나타낸 도면이다.3 is a view showing the structure of the eye to explain a region of interest according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 인간 시각에서의 관심 영역을 설명하기 위한 도면이다.4 is a view for explaining a region of interest in human vision according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 관심영역에 의한 가중치를 계산하는 알고리즘에서 변수를 설명하는 도 2를 수학식을 포함한 다른 방식으로 나타낸 도면이다.FIG. 5 is a diagram illustrating another example of a variable including an equation in FIG. 2 illustrating a variable in an algorithm for calculating a weight according to an ROI according to an exemplary embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 시공간 주파수에 따라 인간 시각의 민감한 정도를 설명하기 위한 도면이다.6 is a view for explaining the degree of sensitivity of human vision according to the space-time frequency according to an embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 영상 품질 측정 방법을 설명하기 위한 도면이다.7 is a view for explaining a method for measuring image quality according to an embodiment of the present invention.
본 발명은 인간 시각 특성을 이용한 영상 품질 측정 장치 및 방법에 관한 것으로서, 특히 인간 시각 특성에 따른 시각 가중치를 이용한 영상 품질 측정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for measuring image quality using human visual characteristics, and more particularly, to an apparatus and method for measuring image quality using visual weights according to human visual characteristics.
최근의 유무선 영상 단말은 영상 서비스의 성공을 위하여 영상 품질의 중요성이 대두하고 있다. 영상의 품질을 평가하는 방법은 크게 주관적 방법과 객관적 방법으로 구분할 수 있다. 주관적 영상 품질 평가는 다수 평가자의 투표를 통해 품질 수준을 결정하는 방법으로서, 평가 대상이 같더라도 평가 조건이 달라지면 결과가 변할 수 있으므로 다수의 실험 결과의 통계 값을 사용하며 측정을 위한 시간적 재정적 부담이 크다.In recent years, the importance of video quality is emerging for the success of video services. The method of evaluating the quality of an image can be largely divided into a subjective method and an objective method. Subjective image quality evaluation is a method of determining the quality level by voting by multiple evaluators. Even if the evaluation targets are the same, the results may change when the evaluation conditions are different. Therefore, the statistical values of the multiple experimental results are used, and the time and financial burden for measurement is reduced. Big.
또한, 주관적 영상 품질 평가는 인간 시각을 잘 반영하다고 볼 수 있으나 평가자에 따라 값이 달라지며 평가 때마다 값이 달라질 수 있는 문제점이 있다. 가장 대표적인 주관적 품질 평가 방법은 MOS(Mean Opinion Score)가 있다.In addition, subjective image quality evaluation may be considered to reflect human vision well, but there is a problem that the value varies according to the evaluator, and the value may change every time. The most representative subjective quality assessment method is MOS (Mean Opinion Score).
객관적 영상 품질 평가는 수학적 계산에 의해 품질 수준을 도출해내는 방식으로서, 정확한 계산 방식이 있기 때문에 평가 대상이 같다면 평가자나 평가 조건에 관계없이 일정한 결과를 기대할 수 있다. 가장 대표적 객관적 품질 평가 방법은 PSNR(Peak Signal to Noise Ratio), MSE(Mean Square Error)가 있으며, 원영상과 열화된 영상의 각 화소값의 차이를 직접 비교하는 방법이다. Objective image quality evaluation is a method of deriving the quality level by mathematical calculation. Since there is an accurate calculation method, it is possible to expect a certain result regardless of the evaluator or the evaluation condition if the evaluation target is the same. The most representative objective quality evaluation methods are PSNR (Peak Signal to Noise Ratio) and MSE (Mean Square Error), which are methods for directly comparing the difference between each pixel value of the original image and the degraded image.
그러나 객관적 영상 품질 평가는 인간의 시각 특성을 제대로 반영하지 못하 며 더 낮은 PSNR 값을 갖는 영상이 인간 눈에 더 좋게 보일 수 있는 문제점이 있다. 인간 시각 특성을 반영한 영상 품질 측정 기술은 국제적으로 미개척 분야이며, 현재 표준화가 진행 중이므로 관련 기술 개발과 표준화 참여가 시급한 실정이다.However, objective image quality evaluation does not reflect human visual characteristics properly, and images with lower PSNR values may look better to the human eye. Image quality measurement technology reflecting human visual characteristics is an internationally unexplored field, and since standardization is currently in progress, it is urgent to develop related technologies and participate in standardization.
현재 영상 품질 측정 방법은 인간이 느끼는 영상 품질을 정확히 반영하여 평가할 수 있는 기술과 장비가 부족한 실정이며, 특히 영상 전화기, PDA, PC 소프트폰 등 다양한 형태의 영상 단말의 영상 품질을 측정하기 매우 어려운 실정이다.Current video quality measurement methods lack the technology and equipment to accurately reflect the image quality felt by humans, and in particular, it is very difficult to measure the video quality of various types of video terminals such as video phones, PDAs, and PC soft phones. to be.
이와 같은 문제점을 해결하기 위하여, 본 발명은 인간 시각 특성에 따른 시각 가중치를 이용한 영상 품질 측정 장치 및 방법을 제공하기 위한 것이다.In order to solve such a problem, the present invention is to provide an apparatus and method for measuring image quality using visual weights according to human visual characteristics.
이러한 기술적 과제를 달성하기 위한 본 발명의 특징에 따른 영상 품질 측정 장치는 원영상 신호와 수신 영상 신호를 수신하고, 상기 수신한 원영상 신호와 상기 수신 영상 신호가 어느 정도 유사한지 구조적 유사 지표를 수치화하여 계산하는 구조적 유사 지표 계산부; 인간의 시각적 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영하여 하나 이상의 시각적 가중치를 계산하는 시각적 가중치 계산부; 및 상기 계산한 하나 이상의 시각적 가중치를 서로 곱하여 최종 가중치 정보를 생성하고, 상기 생성한 최종 가중치 정보에 상기 계산한 구조적 유사 지표를 곱해져서 최종 영상 품질 정보를 계산하는 영상 품질 측정부를 포함한다.According to an aspect of the present invention, an image quality measuring apparatus receives an original image signal and a received image signal, and digitizes structural similarity indicators of how similar the original image signal and the received image signal are. Structural similarity index calculation unit to calculate; A visual weight calculator configured to calculate one or more visual weights by reflecting factors affecting human visual characteristics—information of any one or more of luminance, region of interest, motion, and space-time frequency; And an image quality measuring unit configured to generate final weight information by multiplying the calculated one or more visual weights by each other, and multiplying the generated final weight information by the calculated structural similarity index to calculate final image quality information.
본 발명의 특징에 따른 영상 품질 측정 방법은 (a) 외부 메모리로부터 원영 상 신호와 수신 영상 신호를 수신하여 어느 정도 유사한지 구조적 유사 지표를 계산하고, 상기 수신한 원영상 신호를 기초로 인간의 시각 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영한 복수의 시각적 가중치 정보를 계산하는 단계; 및 (b) 상기 계산한 복수의 시각적 가중치 정보를 서로 곱하여 최종 가중치 정보를 생성하고, 상기 계산한 구조적 유사 지표에 상기 생성한 최종 가중치 정보를 곱하여 최종 영상 품질 정보를 계산하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for measuring image quality (a) receiving an original image signal and a received image signal from an external memory, calculating a structural similarity index, and calculating a human visual image based on the received original image signal. Calculating a plurality of visual weight information reflecting factors influencing the characteristic—information of any one or more of luminance, region of interest, motion, and space-time frequency; And (b) generating final weight information by multiplying the calculated plurality of visual weight information with each other, and calculating final image quality information by multiplying the calculated structural similarity index by the generated final weight information.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. In addition, the terms “… unit”, “… unit”, “module”, “block”, etc. described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. It can be implemented as.
이제 본 발명의 실시예에 따른 인간 시각 특성을 이용한 영상 품질 측정 장 치 및 방법에 대하여 도면을 참고로 하여 상세하게 설명한다.Now, an apparatus and method for measuring image quality using human visual characteristics according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 영상 품질 측정 장치(100)의 내부 구성을 간략하게 나타낸 블록 구성도이다.1 is a block diagram schematically illustrating an internal configuration of an image
본 발명의 실시예에 따른 영상 품질 측정 장치(100)는 원영상과 수신 영상의 유사한 정도를 계산한 후, 인간 시각 특성을 반영하여 다시 가중치를 주게 된다. 즉, 영상 품질 측정 장치(100)는 원영상과 수신 영상의 화소값들이 유사하더라도 사람의 눈이 느끼는 영상 품질, 화면 내에서 관심을 가지는 대상, 명암의 정도, 주파수, 움직임 등에 따라 영상 품질의 느낌이 달라지기 때문이다.The image
본 발명의 실시예에 따른 영상 품질 측정 장치(100)는 구조적 유사 지표 계산부(200), 시각적 가중치 계산부(300) 및 영상 품질 측정부(400)를 포함한다. 이외에 원영상과 수신 영상을 저장하고 있는 외부 메모리(500)를 포함한다.The image
구조적 유사 지표 계산부(200)는 외부 메모리(500)로부터 원영상과 디코딩된(Decoded) 수신 영상을 수신하고, 원영상의 블록과 수신 영상의 블록이 어느 정도 유사한지 유사한 정도를 계산한다. 여기서, 유사한 정도는 구조적 유사 지표(Structural Similarity Index Measure: SSIM)를 정의하여 계산함으로써 구할 수 있다.The structural
구조적 유사 지표를 구하기 위한 구성요소로 휘도의 유사 정도, 분산의 유사 정도, 공분산 비율 정도를 다음의 [수학식 1]를 이용하여 계산한다.The similarity of luminance, the similarity of variance, and the degree of covariance are calculated by using the following [Equation 1] as a component for obtaining structural similarity index.
여기서, X는 원영상에 있는 블록의 화소, Y는 수신 영상에 있는 블록의 화소, 는 원영상의 평균, 는 수신 영상의 평균, 는 원영상과 수신 영상의 분산(Variance), 는 원영상의 표준 편차, 는 수신 영상의 표준 편차, 는 공분산(Covariance)를 의미한다. 여기서, 평균은 화소값의 평균을 의미한다.Where X is the pixel of the block in the original image, Y is the pixel of the block in the received image, Is the average of the original image, Is the average of the received image, Variance of the original image and the received image, Is the standard deviation of the original image, Is the standard deviation of the incoming image, Means covariance. Here, the mean means an average of pixel values.
각각의 유사 정도는 0과 1 사이의 값을 가지며, 가장 유사한 경우, 즉 원영상 블록과 수신 영상 블록의 모든 화소가 동일한 값일 때 1이 된다.Each degree of similarity has a value between 0 and 1, and is 1 in the most similar case, that is, when all pixels of the original image block and the received image block have the same value.
구조적 유사 지표는 휘도의 유사 정도, 분산의 유사 정도, 공분산 비율 정도를 곱하여 계산한다. 따라서, 구조적 유사 지표는 다음의 [수학식 2]와 같다.The structural similarity index shows the similarity of luminance , Similarity of variance Covariance ratio Calculate by multiplying by. Therefore, the structural similarity index is shown in
이때, 라는 조건이 반드시 필요하다. 만일 모든 화소가 0이면 가 성립할 수 있으므로 이를 방지하기 위하여 [수학식 2]에 상수를 더하면 최종 구하고자 하는 구조적 유사 지표는 다음의 [수학식 3]과 같다.At this time, Condition is necessary. If all pixels are zero In order to prevent this problem, if you add a constant to [Equation 2], the structural similarity index to be obtained is as shown in [Equation 3].
여기서, C1, C2는 상수이다.Where C 1 and C 2 are constants.
시각적 가중치 계산부(300)는 인간의 시각적 특성에 영향을 주는 인자―휘도, 관심 영역, 움직임, 시공간 주파수 중 어느 하나 이상의 정보―를 반영하여 하나 이상의 시각적 가중치를 계산한다.The
시각적 가중치 계산부(300)는 영상 색신호 변환부(YCbCr Coordinate Transform)(301), 휘도 가중치 계산부(Luminance Weight)(302), 관심 영역 거리 측정부(Foveation Point Detection)(303), 관심 영역 가중치 계산부(Foveal Weight)(304), 움직임 측정부(Motion Estimation)(305), 움직임 가중치 계산부(Motion Weight)(306), 공간 주파수 변환부(Channel Decomposition)(307) 및 시공간 주파수 가중치 계산부(Spatiotemporal CSF Weight)(308)를 포함한다.The
영상 색신호 변환부(YCbCr Coordinate Transform)(301)는 외부 메모리(500) 로부터 원영상 신호를 수신하고, 원영상 신호가 RGB 신호인 경우, YCbCr 신호로 변환하며, 원영상 신호가 YCbCr 신호인 경우 그대로 원영상 신호를 출력한다.The image color signal converting unit (YCbCr Coordinate Transform) 301 receives the original image signal from the
휘도 가중치 계산부(Luminance Weight)(302)는 영상 색신호 변환부(301)로부터 YCbCr 신호(즉 휘도 신호 + 색 신호)를 수신하고, 수신한 YCbCr 신호 중 휘도 신호만을 추출하고, 추출한 휘도 신호를 기초로 휘도 가중치 알고리즘(이하, [수학식 4], [수학식 5])을 이용하여 휘도에 의한 가중치(WL)를 계산한다. The
인간 시각의 특성은 밝은 화소 근처에서의 변화가 낮은 화소 근처에서의 변화보다 상대적으로 작게 느껴진다. 따라서, 인간 시각이 느끼는 화소값의 변화는 동일한 화소값의 변화에도 배경 화소의 명암에 따라 달라진다. 인간 시각이 느끼는 민감도는 아주 어두운 배경에서 급격히 낮아진다는 것이다.The characteristics of human vision seem to be relatively small than changes near bright pixels. Therefore, the change in the pixel value felt by human vision varies depending on the contrast of the background pixel even when the same pixel value is changed. Sensitivity to human vision is sharply lowered on very dark backgrounds.
따라서, 휘도에 의한 가중치는 다음의 [수학식 4]와 같이 파워 로우(Power Law)로 모델링하였다.Therefore, the weight by the luminance was modeled as a power low as shown in
여기서, Y는 제1 휘도값이고, c와 r은 함수의 모양을 결정하는 양의 상수이다.Where Y is the first luminance value and c and r are positive constants that determine the shape of the function.
전술한 [수학식 4]를 이용하여 K 번째 블록의 휘도에 의한 가중치는 다음의 [수학식 5]를 이용하여 계산한다.Using the
여기서, L은 제2 휘도값이고, Lt는 쓰레스 홀드(Threshold)값이다. 멀티미디어 응용을 위한 파라미터 값들은 c=1, r=1/2.2, Lt=50이다. Where L is the second luminance value and Lt is the threshold value. Parameter values for multimedia applications are c = 1, r = 1 / 2.2 and Lt = 50.
다시 말해, 영상 품질 측정이 멀티미디어 용도인 경우, [수학식 5]의 L/Lt를 [수학식 4]의 Y에 대입하고, c=1, r=1/2.2를 [수학식 4]에 대입하여 휘도에 의한 가중치를 계산한다.In other words, when the image quality measurement is for multimedia use, substitute L / Lt of [Equation 5] into Y of [Equation 4], and substitute c = 1 and r = 1 / 2.2 into [Equation 4]. To calculate the weight by luminance.
관심 영역 거리 측정부(Foveation Point Detection)(303)는 외부 메모리(500)로부터 원영상 신호를 수신하고, 수신된 원영상 신호에서 공지되어 있는 얼굴 검출(Face Detection) 알고리즘을 통해 블록마다 포비에이션 포인트(Foveation Point)를 정하고, 블록마다 포비에이션 포인트로부터 각 블록의 중간(X, Y)까지의 거리 dx를 생성한다. 여기서, 포비에이션 포인트는 전술한 얼굴 검출 알고리즘을 통해 정하고 있으나, 수신측에서 마우스나 아이 트랙커(Eye Tracker) 등을 사용하여 정할 수도 있다.The region of interest
관찰자가 하나의 영상을 바라보는 경우, 영상의 모든 공간적 위치에 있는 화소들을 동일하게 인지하지 않는다. 관심 있게 응시하고 있는 지점을 가장 정확하게 인지하게 되고, 그 지점으로부터 거리가 멀어질수록 사람의 눈에 정확하게 인지되지 않는다. 이때, 도 2 및 도 3에 도시된 바와 같이, 관심 있게 응시하고 있는 지 점은 포비에이션 포인트가 되고, 포비에이션 포인트의 상이 망막의 포비아(Fovea)라고 부르는 시신경이 가장 많이 분포되어 있는 지점에 맺히게 된다. 따라서, 시신경의 밀도는 포비아에서 멀어질수록 급격하게 감소한다.When an observer looks at an image, the pixels at all spatial positions of the image are not equally recognized. The point of interest is most accurately perceived, and the further away from the point, the less accurately perceived by the human eye. At this time, as shown in Figs. 2 and 3, the point gazes with interest becomes a poavation point, and the image of the poavation point forms a point where the optic nerve called the fovea of the retina is most distributed. do. Thus, the density of the optic nerve decreases rapidly away from the fovea.
영상 내에서 응시하고 있는 지점으로부터 멀어지게 되면, 사람의 인지 능력은 급격히 감소하게 되고 이를 고려하여 영상에서의 공간적 중요도를 구할 수 있게 된다.When you move away from the point of staring in the image, the cognitive ability of the person is drastically reduced, and the spatial importance in the image can be obtained by considering this.
화소마다 시각의 공간적 특성을 이용한 중요도는 포비에이션 포인트가 정해지면 사람의 눈과 영상과의 거리, 포비에이션 포인트로부터 각 화소들 사이의 거리를 고려하여 계산할 수 있다.The importance of using the spatial characteristics of vision for each pixel can be calculated by considering the distance between the human eye and the image and the distance between the pixels from the foviation point when the posi- tion point is determined.
예를 들어, 화상 통화를 하는 경우, 도 4에 도시된 바와 같이, 사람의 얼굴 부분이 관심 영역이 될 것이다. 즉 인간 시각의 초점이 맞추어진 관심 영역에서 가장 해상도가 높고, 초점에서 멀어질수록 점점 해상도가 떨어진다.For example, when making a video call, as shown in FIG. 4, the face portion of the person will be the region of interest. In other words, the highest resolution is in the region of interest to which human vision is focused, and the further the resolution is, the lower the resolution becomes.
관심 영역 가중치 계산부(Foveal Weight)(304)는 관심 영역 거리 측정부(303)에서 포비에이션 포인트가 정해지면, 이 지점으로부터 거리가 멀어짐에 따른 가중치를 부여하여 공간적인 특성을 이용한 중요도를 구할 수 있게 된다.When the focal point is determined by the
관심 영역 가중치 계산부(304)는 관심 영역 거리 측정부(303)로부터 각 블록마다 포비에이션 포인트에서 각 블록의 중간(X, Y)까지의 거리 dx를 수신하고, 최대로 감지할 수 있는 주파수 를 계산한다.The region of interest
각도에서의 최대로 감지할 수 있는 주파수 는 다음의 [수학식 6] 및 [수학식 7]를 이용하여 계산한다. Maximum detectable frequency in degrees Is calculated using the following [Equation 6] and [Equation 7].
여기서, ip(화소)와 id(거리 단위)는 영상의 크기에 해당하고, vd(거리 단위)는 관찰자와 영상까지의 거리, dx(화소)는 포비에이션 포인트에서 블록의 중간(X, Y)까지의 거리를 나타낸다.Where i p (pixel) and i d (unit of distance) correspond to the size of the image, v d (unit of distance) is the distance between the observer and the image, and d x (pixel) is the middle of the block at the focal point ( The distance to X and Y) is shown.
여기서, 는 포비에이션 포인트로부터의 거리에 따른 공간 주파수의 감쇄를 조절하는 파라미터이다. 멀티미디어 응용에서의 각 상수의 값들은 이다.here, Is a parameter for adjusting the attenuation of the spatial frequency according to the distance from the fob point. The values of each constant in multimedia applications to be.
는 변환 인수 (Cycle/Pixel)를 이용하여 (Cycle/Pixel)으로 변환된다. 여기서, 는 도 5에 도시된 바와 같이, 블록당 인간 시각에 들어오는 각도이다. 즉, (Cycles/Degree)에 (Degree/Blocks)를 곱함으로써 (Cycles/Blocks)로 단위를 바뀌준다. Is a conversion argument Using (Cycle / Pixel) Converted to (Cycle / Pixel). here, Is the angle entering the human vision per block, as shown in FIG. In other words, To (Cycles / Degree) By multiplying (Degree / Blocks) Change units to (Cycles / Blocks).
여기서, 는 도 5에 도시된 바와 같이, 다음의 [수학식 8]과 같다.here, 5 is shown in Equation 8 below.
이후, 는 최소 주파수 와 최대 정규 주파수 0.5 사이의 값을 갖도록 다음의 [수학식 9]과 [수학식 10]에 의해서 제한된다.after, Is the minimum frequency It is limited by the following
여기서, 최소 주파수 는 0.07로 설정한다. Where minimum frequency Is set to 0.07.
전술한 [수학식 9]에서 생성한 는 0.5보다 크면 0.5로 정하고, 다시 [수학식 9]의 파라미터로 대입하여 을 0.07보다 작으면 0.07로 정함으로써 0.07 ~ 0.5 사이의 값으로 제한한다.Generated by Equation 9 above. Is greater than 0.5, it is set to 0.5, and is substituted by the parameter of Equation 9 again. If less than 0.07, set 0.07 to limit the value between 0.07 and 0.5.
이러한 인지 가능 공간 주파수 모델에 의해서 관심 영역과의 거리에 따른 해상도가 떨어지는 정도를 나타낼 수 있다.Such a perceptible spatial frequency model may indicate a degree of resolution drop according to a distance from the ROI.
관심 영역 가중치 계산부(304)는 관심 영역 거리 측정부(303)로부터 수신한 dx를 수신하고, 수신한 dx를 기초로 관심 영역 가중치 알고리즘([수학식 6], [수학식 7], [수학식 8], [수학식 9], [수학식 10], [수학식 11])을 통해 관심 영역에 의한 가중치를 계산한다.The
즉, 관심 영역 가중치 계산부(304)는 수신한 dx를 [수학식 6]에 대입하여 를 계산하고, 계산된 를 [수학식 7]에 대입하여 를 계산한다. 이어서, 관심 영역 가중치 계산부(304)는 계산된 를 [수학식 9]에 대입하여 를 계산하고, 계산된 를 [수학식 10]에 대입하여 최종 을 계산한다.That is, the ROI
관심 영역에 의한 가중치는 다음의 [수학식 11]과 같다.The weight by the ROI is expressed by Equation 11 below.
여기서, 의 파라미터가 0인 경우, 포비에이션 포인트와 일치하는 곳을 의미한다.here, If the parameter of 0 is equal to the position of the fovi point.
움직임 측정부(Motion Estimation)(305)는 외부 메모리(500)로부터 원영상 신호를 수신하고, 수신한 원영상 신호와 메모리(미도시)에 기저장된 이전 영상 신호를 비교하여 각 매크로 블록마다 움직임 벡터를 계산한다.The
움직임 가중치 계산부(Motion Weight)(306)는 움직임 측정부(305)로부터 계산된 각 매크로 블록의 움직임 벡터를 기초로 움직임 가중치 알고리즘([수학식 12])을 이용하여 각 매크로 블록의 움직임에 의한 가중치(Wm)를 계산한다.The motion
대부분의 코덱(Codec)에서는 각 프레임을 매크로 블록(16×16) 단위로 나누고 이전의 프레임과의 움직임 평가(Motion Estimation)을 통해 각 매크로 블록의 움직임 벡터(어느 방향으로 얼마나 이동하는지)를 얻는다. 따라서, 본 발명의 실시예에 따른 움직임에 의한 가중치는 각 프레임의 영역마다 빠르게 변화하는 부분을 쉽게 찾을 수 있기 때문에 움직임 평가(Motion Estimation)에 의해 얻은 움직임 벡터의 크기를 활용하여 정의한다.In most codecs, each frame is divided into macroblocks (16 × 16), and a motion vector of each macroblock (in which direction) moves through motion estimation with a previous frame. Therefore, since the weight by motion according to the embodiment of the present invention can easily find a rapidly changing part for each region of the frame, it is defined by using the magnitude of the motion vector obtained by motion estimation.
움직임에 의한 가중치는 다음의 [수학식 12]를 이용하여 계산한다.The weight by motion is calculated using the following [Equation 12].
여기서, 는 k번째 블록의 움직임에 의한 가중치이고, K는 쓰레스홀드(Threshold)이며, 는 최대 움직임 벡터값이다.here, Is the weight by the movement of the k-th block, K is the threshold, Is the maximum motion vector value.
멀티미디어 응용에서 K와 는 각각 16과 34이다. 예를 들어, 움직임 벡터는 (24, 24)이면, 크기는 34()이다.K in multimedia applications Are 16 and 34 respectively. For example, if the motion vector is (24, 24), the magnitude is 34 ( )to be.
공간 주파수 변환부(Channel Decomposition)(307)는 시공간 주파수에 따른 가중치를 주기 위한 주파수 성분을 추출한다. 공간 주파수 변환부(307)는 원영상 신호를 수신하여 각 블록(8×8 화소)마다 이산 코사인 변환(Discrete Cosine Transform, 이하 'DCT'라 칭함) 계수(Coefficient)를 생성한다.The
시공간 주파수 가중치 계산부(Spatiotemporal CSF Weight)(308)는 공간 주파수 변환부(307)로부터 생성한 각 블록의 DCT 계수를 수신하고 시공간 주파수 변환 알고리즘([수학식 13], [수학식 14], [수학식 15])을 이용하여 시공간 주파수에 따른 가중치(Wc)를 계산한다.The spatial temporal frequency
도 6에 도시된 바와 같이, 인간 시각은 공간 주파수가 낮을수록 민감해지고 어느 지점에서 최정점에 이르며, 다시 낮아진다. 마찬가지로 인간 시각은 시간 주파수도 높을수록 둔감해지고 낮을수록 민감해지나 어느 지점에서 최정점에 이른다.As shown in FIG. 6, the human vision becomes more sensitive as the spatial frequency is lower, reaches a peak at some point, and becomes lower again. Similarly, human vision becomes insensitive as higher and higher frequency, but peaks at some point.
이하, [수학식 13]은 인간 시각의 민감한 정도를 시간 주파수와 공간 주파수의 함수로 나타낸 것이다.Equation 13 below shows the sensitivity of human vision as a function of time and space frequency.
시공간 주파수에 의한 시각의 반응도(Contrast Sensitivity Function: CSF)는 다음의 [수학식 13]과 같다.Contrast Sensitivity Function (CSF) based on space-time frequency is expressed by Equation 13 below.
여기서, fs는 시간주파수이며, ft는 공간 주파수를 의미한다.Here, f s is a time frequency, f t is a spatial frequency.
시공간 주파수에 따른 가중치는 다음의 [수학식 5]를 이용하여 계산한다.The weight according to the space-time frequency is calculated using Equation 5 below.
여기서, 는 최정점의 공간 주파수와 시간 주파수를 나타내며, 멀티미디어 용도에서 각각 8cycle/degree와 10 Hz이다.here, Represents the highest spatial and temporal frequencies and is 8cycle / degree and 10 Hz respectively for multimedia applications.
여기서, 는 정규화시킨 이산 코사인 변환(Discrete Cosine Transform, 이하 'DCT'라 칭함) 계수이고, P는 DCT 계수를 공간 주파수로 변환하는 변환 지수이다. 여기서, 공간 픽셀의 X, Y와 공간 주파수의 코피션트(Coefficient)의 U, V는 대응된다.here, Is a normalized Discrete Cosine Transform (DCT) coefficient, and P is a transform index for transforming DCT coefficients into spatial frequency. Here, X and Y of the spatial pixel and U and V of the coefficient of the spatial frequency correspond.
전술한 P는 다음의 [수학식 15]를 이용하여 계산한다.P described above is calculated using Equation 15 below.
여기서, r는 해상도(Display Resolution)(Pixels/Unit of Length)이고, 는 뷰잉 디스턴스(Viewing Distance)(Unit of Length)이다.Where r is Display Resolution (Pixels / Unit of Length), Is the Viewing Distance (Unit of Length).
예를 들어, r=72(Pixels/Inch), =12(Inches)라고 하면 p=15.1(Pixels/Degree)이다.For example, r = 72 (Pixels / Inch), = 12 (Inches), p = 15.1 (Pixels / Degree).
이때, 라고 표현할 수 있다.At this time, Can be expressed.
각 DCT 주파수(u&v)는 8×8 블록에서 정의되기 때문에 16으로 나누어주면 0.5의 최대 표준 주파수(Maximum Normalized Frequency)(Cycles/Pixels)가 된다.Since each DCT frequency (u & v) is defined in an 8x8 block, dividing by 16 yields a Maximum Normalized Frequency (Cycles / Pixels) of 0.5.
영상 품질 측정부(400)는 휘도 가중치 계산부(302), 관심 영역 가중치 계산부(304), 움직임 가중치 계산부(306) 및 시공간 주파수 가중치 계산부(308)로부터 각각 휘도 가중치, 관심 영역 가중치, 움직임 가중치, 시공간 주파수 가중치를 수신한다. 이어서, 영상 품질 측정부(400)는 휘도 가중치, 관심 영역 가중치, 움직임 가중치, 시공간 주파수 가중치를 곱하여 최종 가중치 정보를 계산한다.The image
최종 가중치 정보는 다음의 [수학식 16]과 같다.Final weight information is given by Equation 16 below.
최종 가중치 정보는 4가지의 각 가중치의 곱으로 이루어짐을 알 수 있으며, 첨자 k는 k번째 블록을 나타낸다.It can be seen that the final weight information consists of the product of each of the four weights, and the subscript k represents the k-th block.
각 는 각각 시공간 주파수, 휘도, 관심 영역, 움직임에 의한 가중치를 나타낸 것이다. 이때, i, j, l, n는 각각 최적의 가중치를 위한 변수이며, 멀티미디어 용도를 위한 디폴트값은 각각 1이다.bracket Are weights by space-time frequency, luminance, region of interest, and motion, respectively. In this case, i, j, l, n are variables for the optimal weight, respectively, the default value for the multimedia use is 1 respectively.
영상 품질 측정부(400)는 구조적 유사 지표 계산부(200)로부터 영상 블록마다 생성된 구조적 유사 지표를 수신하고, 수신한 구조적 유사 지표에 최종 가중치 정보를 곱해져서 최종 영상 품질 정보를 계산한다.The image
더욱 구체적으로 설명하면, 최종 영상 품질 정보는 다음의 [수학식 17]을 이용하여 계산한다.More specifically, the final image quality information is calculated using Equation 17 below.
여기서, B는 블록의 총 개수, 는 [수학식 17]에 의한 최종 가중치 정보, 는 각각 b번째 블록의 원영상 신호와 수신 영상 신호이다.Where B is the total number of blocks, Is the final weight information according to [Equation 17], Are respectively the original video signal and the received video signal of the b-th block.
다음, 도 7를 참조하여 영상 품질 측정 방법을 설명한다.Next, an image quality measuring method will be described with reference to FIG. 7.
도 7은 본 발명의 실시예에 따른 인간 시각 특성을 이용한 영상 품질 측정 방법을 설명하기 위한 도면이다.7 is a view for explaining a method for measuring image quality using human visual characteristics according to an embodiment of the present invention.
이하, 구조적 유사 지표 계산, 휘도 가중치 알고리즘, 관심 영역 가중치 알고리즘, 움직임 가중치 알고리즘 및 시공간 주파수 변환 알고리즘은 도 1에서 설명한 바, 동일한 설명을 생략한다.Hereinafter, the structural similarity index calculation, the luminance weighting algorithm, the ROI weighting algorithm, the motion weighting algorithm, and the space-time frequency conversion algorithm are described in FIG.
구조적 유사 지표 계산부(200)는 외부 메모리(500)로부터 원영상 신호와 수 신 영상 신호를 수신하여 어느 정도 유사한지 구조적 유사 지표를 계산하여 영상 품질 측정부(400)로 전송한다(S100).The structural
영상 색신호 변환부(301)는 외부 메모리(500)로부터 수신한 원영상 신호가 RGB 신호인 경우, 휘도 신호와 색 신호를 포함한 영상 신호(YCbCr 신호)로 변환하며, 수신한 원영상 신호가 YCbCr 신호인 경우, 원영상 신호를 그대로 휘도 가중치 계산부(302)로 전송한다.When the original image signal received from the
휘도 가중치 계산부(302)는 영상 색신호 변환부(301)로부터 수신한 원영상 신호에서 휘도 신호를 추출하고, 추출한 휘도 신호를 기초로 휘도 가중치 알고리즘을 통해 휘도에 의한 가중치를 계산하여 영상 품질 측정부(400)로 전송한다(S102).The
관심 영역 거리 측정부(303)는 외부 메모리(500)로부터 수신한 원영상 신호를 얼굴 검출 알고리즘을 통해 포비에이션 포인트(Foveation Point)를 정하고, 영상 블록마다 포비에이션 포인트로부터 일정 지점까지의 거리를 생성하여 관심 영역 가중치 계산부(304)로 전송한다.The
관심 영역 가중치 계산부(304)는 생성한 거리를 파라미터로 하여 포비에이션 포인트로부터 거리가 멀어짐에 따라 가중치를 다르게 부여하도록 관심 영역 가중치 알고리즘을 통해 관심 영역에 의한 가중치를 계산하여 영상 품질 측정부(400)로 전송한다(S104).The region of interest
움직임 측정부(305)는 외부 메모리(500)로부터 원영상 신호를 수신하고, 수신한 원영상 신호와 메모리(미도시)에 기저장된 이전 영상 신호를 비교한 후, 각 매크로 블록마다 움직임 벡터를 계산하여 움직임 가중치 계산부(306)로 전송한다.The
움직임 가중치 계산부(306)는 움직임 측정부(305)로부터 계산한 움직임 벡터를 기초로 움직임 가중치 알고리즘을 통해 각 매크로 블록의 움직임에 의한 가중치를 계산하여 영상 품질 측정부(400)로 전송한다(S106).The
공간 주파수 변환부(307)는 외부 메모리(500)로부터 원영상 신호를 수신하여 각 블록마다 DCT 계수를 생성하여 시공간 주파수 가중치 계산부(308)로 전송한다.The
시공간 주파수 가중치 계산부(308)는 공간 주파수 변환부(307)로부터 생성한 각 블록의 DCT 계수를 수신하고, 시공간 주파수 변환 알고리즘을 통해 시공간 주파수에 따른 가중치를 계산하여 영상 품질 측정부(400)로 전송한다(S108).The space-time
영상 품질 측정부(400)는 휘도 가중치 계산부(302)로부터 수신한 휘도에 의한 가중치, 관심 영역 가중치 계산부(304)로부터 수신한 관심 영역에 의한 가중치, 움직임 가중치 계산부(306)로부터 수신한 움직임에 의한 가중치, 시공간 주파수 가중치 계산부(308)로부터 수신한 시공간 주파수에 의한 가중치를 각각 곱하여 최종 가중치 정보를 생성한다(S110).The image
영상 품질 측정부(400)는 구조적 유사 지표 계산부(200)로부터 수신한 구조적 유사 지표에 최종 가중치 정보를 곱하여 최종 영상 품질 정보를 생성한다(S112).The image
본 발명의 실시예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.Embodiments of the present invention are not implemented only through the above-described apparatus and / or method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiments of the present invention, a recording medium on which the program is recorded, and the like. Such implementations may be readily implemented by those skilled in the art from the description of the above-described embodiments.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
전술한 구성에 의하여, 본 발명은 멀티미디어의 영상 품질 측정에 있어 인간 시각 특성을 반영하여 실제로 사람이 직접 점수를 매기는 평가 점수와 유사한 결과를 얻을 수 있는 효과를 기대할 수 있다.According to the above-described configuration, the present invention can be expected to obtain an effect that can achieve a result similar to an evaluation score that is actually directly scored by a person by reflecting human visual characteristics in measuring image quality of multimedia.
본 발명은 영상 품질을 주관적으로 평가하는 점수와 유사한 결과를 내면서도 수식에 의해 자동으로 계산되므로 주관적 평가에서 발생하였던 평가의 복잡성과 평가자나 평가 시간에 따라 결과가 변하는 문제를 해결할 수 있는 효과를 기대할 수 있다.According to the present invention, the results are similar to the scores for subjective evaluation of the image quality, and are automatically calculated by the equations. Can be.
본 발명은 단말의 인터페이스(외부 메모리 등)를 사용하여 데이터 획득 과정에서 발생할 수 있는 추가 왜곡없이 풀 래퍼런스(Full Reference) 형을 손쉽게 구현하는 효과를 기대할 수 있다.The present invention can be expected to use the interface (external memory, etc.) of the terminal to easily implement a full reference (Full Reference) type without additional distortion that may occur in the data acquisition process.
본 발명은 외부 메모리를 사용하여 복잡한 장비없이 단말기를 사용하는 현장에서 즉석에서 테스트할 수 있으며 휴대가 간편한 영상 품질 측정기로의 응용이 가능한 효과를 기대할 수 있다.The present invention can be immediately tested in the field using a terminal without complicated equipment using an external memory, and can be expected to be effective as a portable image quality measuring device.
본 발명은 외부 메모리 인터페이스를 사용하여 원영상과 수신 영상을 제공함 으로써 데이터 변환 과정에서 발생하는 추가 왜곡을 없애고 손쉽게 영상 데이터를 획득할 수 있는 효과를 기대할 수 있다.According to the present invention, by providing an original image and a received image using an external memory interface, it is possible to expect an effect that can easily obtain image data while eliminating additional distortion generated during data conversion.
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070054833A KR100893609B1 (en) | 2007-06-05 | 2007-06-05 | Apparatus and Method by Using Human Visual Characteristics |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070054833A KR100893609B1 (en) | 2007-06-05 | 2007-06-05 | Apparatus and Method by Using Human Visual Characteristics |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080107042A KR20080107042A (en) | 2008-12-10 |
KR100893609B1 true KR100893609B1 (en) | 2009-04-20 |
Family
ID=40367483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070054833A KR100893609B1 (en) | 2007-06-05 | 2007-06-05 | Apparatus and Method by Using Human Visual Characteristics |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100893609B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101327709B1 (en) * | 2012-03-23 | 2013-11-11 | 한국전자통신연구원 | Apparatus for monitoring video quality and method thereof |
KR102192017B1 (en) * | 2019-07-16 | 2020-12-16 | 연세대학교 산학협력단 | Method and Apparatus for Assessing Visual Quality of Video Based on Human Visual System |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020084172A (en) * | 2001-01-10 | 2002-11-04 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Scalable objective metric for automatic video quality evaluation |
JP2003333629A (en) | 2002-05-08 | 2003-11-21 | Nippon Hoso Kyokai <Nhk> | Method, device, and program for supporting evaluation of video quality |
KR20060033717A (en) * | 2003-08-22 | 2006-04-19 | 니뽄 덴신 덴와 가부시키가이샤 | Video quality evaluation device, video quality evaluation method, video quality evaluation program, video matching device, video matching method, and video matching program |
WO2006043500A1 (en) | 2004-10-18 | 2006-04-27 | Nippon Telegraph And Telephone Corporation | Video quality objective evaluation device, evaluation method, and program |
-
2007
- 2007-06-05 KR KR1020070054833A patent/KR100893609B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020084172A (en) * | 2001-01-10 | 2002-11-04 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Scalable objective metric for automatic video quality evaluation |
JP2003333629A (en) | 2002-05-08 | 2003-11-21 | Nippon Hoso Kyokai <Nhk> | Method, device, and program for supporting evaluation of video quality |
KR20060033717A (en) * | 2003-08-22 | 2006-04-19 | 니뽄 덴신 덴와 가부시키가이샤 | Video quality evaluation device, video quality evaluation method, video quality evaluation program, video matching device, video matching method, and video matching program |
WO2006043500A1 (en) | 2004-10-18 | 2006-04-27 | Nippon Telegraph And Telephone Corporation | Video quality objective evaluation device, evaluation method, and program |
Also Published As
Publication number | Publication date |
---|---|
KR20080107042A (en) | 2008-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Structural similarity based image quality assessment | |
Yang et al. | Perceptual quality assessment of screen content images | |
CA2958720C (en) | Method and system for objective perceptual video quality assessment | |
Lu et al. | Modeling visual attention's modulatory aftereffects on visual sensitivity and quality evaluation | |
Wei et al. | Spatio-temporal just noticeable distortion profile for grey scale image/video in DCT domain | |
EP1225769B1 (en) | Spatial temporal visual attention model for a video frame sequence | |
Tang | Spatiotemporal visual considerations for video coding | |
US6239834B1 (en) | Apparatus for evaluating digital picture quality | |
Kumar et al. | Development of improved SSIM quality index for compressed medical images | |
Feng et al. | Saliency inspired full-reference quality metrics for packet-loss-impaired video | |
Dimauro | A new image quality metric based on human visual system | |
Uzair et al. | Estimating just‐noticeable distortion for images/videos in pixel domain | |
KR101007381B1 (en) | apparatus for video encoding considering region of interest | |
KR100893609B1 (en) | Apparatus and Method by Using Human Visual Characteristics | |
Gao et al. | A content-based image quality metric | |
Li et al. | Gradient-weighted structural similarity for image quality assessments | |
Gao et al. | Spatio-temporal salience based video quality assessment | |
Chen et al. | Perception-oriented video coding based on foveated JND model | |
JP2006201983A (en) | Picture quality evaluating device and picture quality evaluating method | |
Shang et al. | Perceptual multiview video coding based on foveated just noticeable distortion profile in DCT domain | |
Yang et al. | Perceptual sharpness metric (PSM) for compressed video | |
Wang et al. | A human visual system-based objective video distortion measurement system | |
Wu et al. | Image quality assessment based on improved structural similarity | |
Bhola et al. | Image Quality Assessment Techniques | |
Yang et al. | A new objective quality metric for frame interpolation used in video compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment | ||
FPAY | Annual fee payment | ||
LAPS | Lapse due to unpaid annual fee |