KR101327709B1 - Apparatus for monitoring video quality and method thereof - Google Patents

Apparatus for monitoring video quality and method thereof Download PDF

Info

Publication number
KR101327709B1
KR101327709B1 KR1020120029658A KR20120029658A KR101327709B1 KR 101327709 B1 KR101327709 B1 KR 101327709B1 KR 1020120029658 A KR1020120029658 A KR 1020120029658A KR 20120029658 A KR20120029658 A KR 20120029658A KR 101327709 B1 KR101327709 B1 KR 101327709B1
Authority
KR
South Korea
Prior art keywords
frame
structural similarity
damaged
video
slice
Prior art date
Application number
KR1020120029658A
Other languages
Korean (ko)
Other versions
KR20130107687A (en
Inventor
홍원기
최태상
김도연
이재기
라우프 보우타바
이태호
권아름
진 샤오
서신석
Original Assignee
한국전자통신연구원
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 포항공과대학교 산학협력단 filed Critical 한국전자통신연구원
Priority to KR1020120029658A priority Critical patent/KR101327709B1/en
Publication of KR20130107687A publication Critical patent/KR20130107687A/en
Application granted granted Critical
Publication of KR101327709B1 publication Critical patent/KR101327709B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

사용자 인지에 기반한 비디오 품질의 측정 장치 및 방법이 개시된다. 비디오 품질 측정 장치는, 손상된 프레임에 대한 프레임 정보를 수집하여 손상된 프레임과 손상된 프레임의 원본 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출하는 구조 유사도 추정부와, 구조 유사도 지표에 주관적 요소를 반영하는 가중치를 적용하여 비디오 결함 지표를 산출하는 사용자 인지 품질 추정부를 포함한다. 이를 통하여, 객관적인 화질 측정 지표인 구조 유사도 지표에 사용자의 인지에 따른 주관적 요소를 반영할 수 있다.An apparatus and method for measuring video quality based on user perception are disclosed. The apparatus for measuring video quality collects frame information about a damaged frame and calculates a structural similarity index indicating structural similarity between the damaged frame and the original frame of the damaged frame, and reflects the subjective factors in the structural similarity index. And a user cognitive quality estimator for calculating a video defect index by applying weights. Through this, the subjective factor according to the user's cognition may be reflected in the structural similarity index which is an objective image quality measurement index.

Description

비디오 품질 측정 장치 및 그 방법{APPARATUS FOR MONITORING VIDEO QUALITY AND METHOD THEREOF}Apparatus and method for measuring video quality {APPARATUS FOR MONITORING VIDEO QUALITY AND METHOD THEREOF}

본 발명은 비디오 품질의 측정에 관한 것으로, 더욱 상세하게는 사용자 인지에 기반한 비디오 품질의 측정 장치 및 방법에 관한 것이다.The present invention relates to measurement of video quality, and more particularly, to an apparatus and method for measuring video quality based on user perception.

비디오 품질 측정 방법은 비디오 코덱의 성능 검증, 새로운 압축 코딩 기술의 개발 또는 전송품질평가 등에 필요한 핵심적인 기술로서 디지털 방송의 전송 품질 평가 및 캠코더, 비디오 플레이어, 디지털 카메라 등 관련 장비의 개발과 성능 평가에 활용되고 있다. The video quality measurement method is a core technology necessary for verifying the performance of video codec, developing new compression coding technology, or evaluating transmission quality. It is utilized.

일반적으로 객관적인 화질의 측정 방법은 비디오 영상 원본의 사용 정도에 따라 Full-Reference(FR), Reduced-Reference(RR), No-Reference(NR)로 구별될 수 있다. FR은 비디오 품질의 정밀한 측정을 위하여 송신측의 완전한 비디오 원본과 수신측의 손상된 비디오 전체를 이용한다. RR은 송신측의 비디오 원본의 전부가 아니라 특정값으로 표현된 영상을 가지고 화질을 측정한다. NR은 비디오 원본 없이 수신측의 손상된 비디오만을 가지고 화질을 측정한다. In general, objective image quality measurement methods can be classified into full-reference (FR), reduced-reference (RR), and no-reference (NR) according to the degree of use of the video image source. The FR uses the complete video source on the sender and the entire corrupted video on the receiver for precise measurement of video quality. The RR measures the image quality with the image represented by a specific value, not all of the video source of the sender. The NR measures the picture quality with only the corrupted video at the receiving end without a video source.

SSIM(Structural Similarity)은 두 이미지의 구조적 유사성을 비교하는 지표로 비디오의 객관적인 품질을 측정하는 지표로 활용되고 있고, PSNR(Peak Signal-to-Noise Ratio)과 MSE(Mean Squared Error)도 비디오의 객관적인 품질을 측정하는 지표로 널리 활용되고 있다.SSIM (Structural Similarity) is an indicator that compares the structural similarity of two images and is used as an indicator to measure the objective quality of the video.Peak Signal-to-Noise Ratio (PSNR) and Mean Squared Error (MSE) are also objective It is widely used as an indicator for measuring quality.

또한, Video Quality Model(VQM)은 7개의 파라미터 값의 선형적인 결합으로 계산되고, 0에서 1사이의 값으로 결정되는 VQM값은 0에 가까울수록 좋은 화질을 나타낼 수 있다. 다만, VQM은 높은 계산의 복잡도로 인하여 실시간 비디오의 품질을 측정하는데 적합하지 않다.In addition, the Video Quality Model (VQM) is calculated by linear combination of seven parameter values, and the VQM value determined as a value between 0 and 1 may show better image quality as it approaches zero. However, VQM is not suitable for measuring the quality of real-time video due to the high computational complexity.

또한, 객관적인 화질의 측정 방법은 주관적인 요소를 반영하지 못하므로 사용자가 인지하는 비디오 품질을 정확히 측정하는데 한계가 있는 실정이다. In addition, since the method of measuring the objective image quality does not reflect the subjective factor, there is a limit in accurately measuring the video quality perceived by the user.

Mean Opinion Score(MOS)는 비디오에 대한 사용자의 경험적 품질을 측정하는 지표로 활용된다. 사용자가 체감하여 느끼는 품질의 척도를 나타내는 QoE(Quality of Experience)를 이용하여 사용자가 체감하는 품질인 MOS를 정량화하여 나타낼 수 있다. 또한, MOS값을 추정하기 위한 다양한 방법들이 제안되어 왔으며, 특히, 다양한 네트워크 환경과 응용 환경에서 사용자의 설문을 통하여 MOS값을 얻을 수 있다. 하지만, MOS는 다수의 사용자에 대한 설문을 통하여 측정되므로 많은 비용과 시간이 소모되는 문제점이 있다.Mean Opinion Score (MOS) is used as an indicator to measure user's empirical quality of video. The quality of experience (QoE), which represents a measure of the quality felt by the user, may be used to quantify and display the MOS, which is the quality of the user. In addition, various methods for estimating the MOS value have been proposed, and in particular, the MOS value can be obtained through a user questionnaire in various network environments and application environments. However, since MOS is measured through a questionnaire for a plurality of users, there is a problem that a lot of cost and time are consumed.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 객관적인 화질 측정 방법에 사용자가 인지하는 비디오의 품질을 반영할 수 있는 비디오 품질 측정 장치를 제공하는데 있다.An object of the present invention for solving the above problems is to provide a video quality measuring apparatus that can reflect the quality of the video perceived by the user in the objective quality measurement method.

또한, 본 발명의 다른 목적은, 원본 프레임과 그에 대한 손상된 프레임의 구조적인 유사도의 계산에 있어서, 계산의 복잡도를 줄인 비디오 품질 측정 방법을 제공하는데 있다.Another object of the present invention is to provide a video quality measurement method which reduces the complexity of the calculation in calculating the structural similarity between the original frame and the damaged frame.

상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 비디오 품질 측정 장치는, 손상된 프레임에 대한 프레임 정보를 수집하여 손상된 프레임과 손상된 프레임의 원본 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출하는 구조 유사도 추정부와, 구조 유사도 지표에 주관적 요소를 반영하는 가중치를 적용하여 비디오 결함 지표를 산출하는 사용자 인지 품질 추정부 포함한다. In order to achieve the above object, a video quality measurement apparatus according to an aspect of the present invention collects frame information about a damaged frame and calculates a structural similarity index indicating structural similarity between the damaged frame and the original frame of the damaged frame. The estimator includes a user perceived quality estimator that calculates a video defect index by applying a weight reflecting a subjective element to the structural similarity index.

여기에서, 구조 유사도 추정부는, 프레임 정보를 이용하여 오류 연관 트리를 생성하며, 오류 연관 트리에 기반하여 손상된 프레임을 구성하는 손상된 슬라이스와 손상된 슬라이스가 참조하는 참조 슬라이스간의 구조적인 유사도를 이용하여 손상된 프레임과 손상된 프레임의 원본 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출할 수 있다. Here, the structural similarity estimator generates an error association tree using frame information, and the damaged frame using the structural similarity between the damaged slice constituting the damaged frame and the reference slice referenced by the damaged slice based on the error association tree. And structural similarity index indicating structural similarity between the original frame and the damaged frame can be calculated.

여기에서, 구조 유사도 추정부는, 프레임 식별자, 슬라이스 식별자, 프레임의 종류, 손상 정도, 손상 위치 중 적어도 하나를 포함하는 프레임 정보를 수집하여 손상된 슬라이스가 속하는 프레임의 종류에 기반하여 오류 연관 트리를 생성하는 성능 지표 수집부와, 오류 연관 트리를 기반으로 손상된 슬라이스가 참조하는 참조 슬라이스를 선별하여 구조 유사도 지표를 산출하는 구조 분석부를 포함할 수 있다. Here, the structure similarity estimator collects frame information including at least one of a frame identifier, a slice identifier, a type of frame, a degree of damage, and a damage position to generate an error association tree based on the type of a frame to which the damaged slice belongs. The performance indicator collection unit may include a structure analysis unit configured to select a reference slice referenced by the damaged slice based on an error association tree and calculate a structure similarity index.

여기에서, 주관적 요소는 영상의 휘도, 프레임의 복잡도, 장면의 전환이 비디오 품질에 미치는 영향을 반영할 수 있다. In this case, the subjective factor may reflect the influence of the brightness of the image, the complexity of the frame, and the transition of the scene on the video quality.

여기에서, 상기 사용자 인지 품질 추정부는, 주관적 요소를 반영하기 위한 가중치를 산출하여 구조 유사도 지표에 적용하는 필터부와, 가중치를 적용한 구조 유사도 지표에 로지스틱 회귀 함수(logistic regression function)를 적용하여 손상의 형태를 반영하는 비디오 결함 지표를 산출하는 지표 변환부를 포함할 수 있다. Here, the user cognitive quality estimating unit may calculate a weight to reflect a subjective factor and apply the filter unit to the structural similarity index, and apply a logistic regression function to the structural similarity index to which the weight is applied. It may include an indicator converter for calculating a video defect indicator reflecting the shape.

여기에서, 필터부는, 대상 프레임의 휘도가 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 루마 가중치를 산출하는 루마 조절 필터부와, 대상 프레임의 복잡도가 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 복잡도 가중치를 산출하는 프레임 복잡도 필터부 및 대상 프레임의 전환이 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 전환 가중치를 산출하는 장면 전환 필터부를 포함할 수 있다. Here, the filter unit may include a luma adjustment filter unit that calculates a luma weight that reflects an effect of the luminance of the target frame on the video quality perceived by the user, and the effect of the complexity of the target frame on the video quality perceived by the user. It may include a frame complexity filter unit for calculating the complexity weight reflecting the, and a scene transition filter unit for calculating the conversion weight reflecting the effect of the conversion of the target frame on the video quality perceived by the user.

여기에서, 지표 변환부는, 구조 유사도 지표를 이용하여 손상이 발생한 비디오의 구간을 탐지하고, 구조 유사도 지표가 변화하는 형태에 기반하여 손상의 형태를 반영하는 비디오 결함 지표를 산출할 수 있다. Here, the index converter may detect a section of the video where the damage occurs using the structural similarity index, and calculate a video defect index reflecting the shape of the damage based on the change in the structural similarity index.

상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 비디오 품질 측정 방법은, 손상된 프레임에 대한 프레임 정보를 수집하고 프레임 정보를 이용하여 오류 연관 트리를 생성하는 단계와, 오류 연관 트리에 기반하여 손상된 프레임을 구성하는 손상된 슬라이스와 손상된 슬라이스가 참조하는 참조 슬라이스간의 구조적인 유사도를 이용하여 손상된 프레임과 손상된 프레임의 원본 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출하는 단계와, 구조 유사도 지표에 주관적 요소를 반영한 가중치를 적용하여 비디오 결함 지표를 산출하는 사용자 인지 품질 추정 단계를 포함한다.According to an aspect of the present invention, there is provided a method for measuring video quality, the method comprising: collecting frame information about a corrupted frame and generating an error association tree using the frame information; Calculating a structural similarity index indicating structural similarity between the damaged frame and the original frame of the damaged frame by using the structural similarity between the damaged slice constituting the damaged slice and the reference slice referenced by the damaged slice. And a user perceived quality estimation step of calculating a video defect index by applying the reflected weight.

상기와 같은 본 발명에 따른 비디오 품질 측정 장치 및 방법에 따르면, 객관적인 화질 측정 지표인 구조 유사도 지표에 사용자의 인지에 따른 주관적 요소를 반영할 수 있다.According to the video quality measuring apparatus and method according to the present invention as described above, the subjective factor according to the user's recognition may be reflected in the structural similarity index which is an objective quality measurement index.

또한, 손상된 슬라이스와 그에 대한 참조 슬라이스간의 구조적인 유사도를 이용하여 원본 프레임과 그에 대한 손상된 프레임의 구조적인 유사도를 계산할 수 있는 장점이 있다.In addition, there is an advantage that the structural similarity between the original frame and the damaged frame can be calculated using the structural similarity between the damaged slice and the reference slice thereof.

도 1은 본 발명의 일 실시예에 따른 비디오 품질 측정 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 오류 연관 트리를 나타내는 개념도이다.
도 3는 도 1에 도시된 구조 유사도 추정부와 사용자 인지 품질 추정부의 구성을 더욱 상세하게 도시하는 블록도이다.
도 4는 본 발명의 실시예에 따른 비디오 품질 측정 방법의 절차를 나타내는 흐름도이다.
1 is a block diagram showing a configuration of a video quality measuring apparatus according to an embodiment of the present invention.
2 is a conceptual diagram illustrating an error association tree according to an embodiment of the present invention.
FIG. 3 is a block diagram illustrating in more detail the configuration of the structural similarity estimator and the user cognitive quality estimator shown in FIG. 1.
4 is a flowchart illustrating a procedure of a method for measuring video quality according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

본 출원에서 사용되는 "프레임(frame)"이라는 용어는 영상(image), 픽쳐(picture) 등과 같은 동등한 의미를 갖는 다른 용어로 대체되어 사용될 수 있다. 또한, 동영상 또는 비디오는 일련의 픽쳐로 구성될 수 있으며, 각 픽쳐들은 슬라이스(Slice) 또는 블록(block)과 같은 소정의 영역으로 분할될 수 있다. As used herein, the term "frame" may be replaced with another term having an equivalent meaning such as an image, a picture, and the like. Also, a moving picture or a video may be composed of a series of pictures, and each picture may be divided into predetermined regions such as a slice or a block.

또한, 국제 표준화 기구 중 MPEG 표준에서는 화면내 부호화(intra coded frame: I프레임), 예측부호화(predictive coded frame: P프레임), 양방향 예측부호화(bi-directionally-predicitve coded frame: B프레임)의 세가지 형태의 예측 부호화 방식을 사용하고 있다.In the MPEG standard among the international standards organizations, there are three types of intra coded frames (I frames), predictive coded frames (P frames), and bi-directionally-predicitve coded frames (B frames). A predictive coding method is used.

이하에 기재된, I프레임은 다른 프레임의 참조없이 화면 내부의 이웃하는 픽셀값을 이용하여 부호화될 수 있다. P프레임은 과거의 I프레임이나 P프레임을 참조하여 부호화될 수 있다. 또한, B프레임은 과거의 I프레임과 P프레임 뿐만 아니라, 미래의 I프레임과 P프레임도 참조하여 예측을 수행할 수 있다.
I-frames, described below, can be encoded using neighboring pixel values within the screen without reference to other frames. The P frame may be encoded with reference to past I frames or P frames. In addition, the B frame may perform prediction by referring to not only I frames and P frames in the past but also future I frames and P frames.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 비디오 품질 측정 장치의 구성을 나타내는 블록도이다. 1 is a block diagram showing a configuration of a video quality measuring apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 비디오 품질 측정 장치는 구조 유사도 추정부(100), 사용자 인지 품질 추정부(200), 주관적 화질 추정부(300)를 포함한다. Referring to FIG. 1, an apparatus for measuring video quality according to an embodiment of the present invention includes a structure similarity estimator 100, a user perceived quality estimator 200, and a subjective image quality estimator 300.

이하 본 발명의 설명에서 구조 유사도 추정부(100), 사용자 인지 품질 추정부(200) 및 주관적 화질 추정부(300)는 서로 독립된 부분으로서 개시되지만, 구조 유사도 추정부(100), 사용자 인지 품질 추정부(200) 및 주관적 화질 추정부(300)는 하나의 단일한 형태, 하나의 물리적인 장치 또는 하나의 모듈로 구현될 수 있다. 이뿐만 아니라, 구조 유사도 추정부(100), 사용자 인지 품질 추정부(200) 및 주관적 화질 추정부(300)는 각각 하나의 물리적인 장치 또는 집단이 아닌 복수의 물리적 장치 또는 집단으로 구현될 수 있다.Hereinafter, in the description of the present invention, the structural similarity estimator 100, the user cognitive quality estimator 200, and the subjective image quality estimator 300 are disclosed as independent parts, but the structural similarity estimator 100 and the user cognitive quality estimator are described. The government 200 and the subjective image quality estimation unit 300 may be implemented in one single form, one physical device, or one module. In addition, the structural similarity estimator 100, the user cognitive quality estimator 200, and the subjective image quality estimator 300 may be implemented as a plurality of physical devices or groups instead of one physical device or group. .

구조 유사도 추정부(100)는 손상된 프레임에 대한 프레임 정보를 수집하고 프레임 정보를 이용하여 오류 연관 트리를 생성할 수 있다. 또한, 구조 유사도 추정부(100)는 오류 연관 트리에 기반하여 손상된 프레임을 구성하는 손상된 슬라이스와 손상된 슬라이스가 참조하는 참조 슬라이스간의 구조적인 유사도를 이용하여 손상된 프레임과 손상된 프레임의 원본 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출할 수 있다. The structural similarity estimator 100 may collect frame information about a damaged frame and generate an error association tree using the frame information. In addition, the structural similarity estimator 100 uses the structural similarity between the damaged slice constituting the damaged frame and the reference slice referenced by the damaged slice, based on the error association tree. A structural similarity index indicating a can be calculated.

프레임 정보는 프레임 식별자, 슬라이스 식별자, 프레임의 종류, 프레임의 상태(손상 정도, 손상 위치)에 대한 정보를 포함하며, 구조 유사도 추정부(100)에 의해 수집될 수 있다. The frame information includes information on a frame identifier, a slice identifier, a type of a frame, and a state (damage degree, damage position) of the frame, and may be collected by the structure similarity estimator 100.

오류 연관 트리는 손상된 슬라이스와 그에 대한 참조 슬라이스간의 연관 관계를 나타내는 것으로 손상된 슬라이스가 포함되는 프레임의 종류에 따라 생성될 수 있다. 여기서, 프레임의 종류는 I프레임, P프레임, B프레임으로 구별될 수 있으며, 프레임의 종류에 따라 프레임이 참조하는 참조 프레임이 결정될 수 있다. The error association tree indicates an association relationship between a damaged slice and a reference slice thereof, and may be generated according to the type of a frame including the damaged slice. Here, the type of frame may be classified into an I frame, a P frame, and a B frame, and a reference frame referenced by the frame may be determined according to the type of the frame.

따라서, 구조 유사도 추정부(100)는 오류 연관 트리를 기반으로 하여 손상된 슬라이스가 참조하는 참조 슬라이스를 선별할 수 있으며, 선별된 참조 슬라이스를 이용하여 구조 유사도 지표를 산출할 수 있다. 여기서, 구조 유사도 지표(또는 "SSIM(Structural Similarity) 추정값")는 손상된 프레임과 그에 대한 원본 프레임 사이의 유사한 정도를 나타내는 지표를 의미하는 것으로 0 부터 1의 값으로 표현될 수 있다. 또한, 구조 유사도 지표가 1에 가까울수록 손상된 프레임과 그에 대한 원본 프레임간에 유사도가 높음을 의미한다. Accordingly, the structure similarity estimator 100 may select a reference slice referenced by a damaged slice based on an error association tree, and calculate a structure similarity index using the selected reference slice. Here, the structural similarity index (or “SSIM (Structural Similarity) estimated value”) refers to an index indicating a degree of similarity between a damaged frame and an original frame thereof and may be expressed as a value of 0 to 1. In addition, the closer the structural similarity index is to 1, the higher the similarity between the damaged frame and the original frame thereof.

구조 유사도 추정부(100)에 의해 산출되는 손상된 프레임과 손상된 프레임의 원본 프레임간의 구조 유사도 지표는 비디오의 품질을 나타내는 객관적인 지표로 활용될 수 있다. 다만, 구조 유사도 지표는 사용자가 인지하는 비디오의 주관적인 품질을 반영하는 것에는 한계가 있으므로, 구조 유사도 지표에 주관적 요소를 반영시키는 것이 필요하다. The structural similarity index between the damaged frame and the original frame of the damaged frame calculated by the structural similarity estimator 100 may be used as an objective index indicating the quality of the video. However, since the structural similarity index has a limitation in reflecting the subjective quality of the video perceived by the user, it is necessary to reflect the subjective element in the structural similarity index.

사용자 인지 품질 추정부(200)는 구조 유사도 지표에 주관적 요소를 반영하여 비디오 결함 지표를 산출한다. 비디오의 품질은 영상의 휘도(밝기), 프레임의 복잡도, 장면의 전환 등과 같은 주관적 요소에 의하여 영향을 받을 수 있다. The user cognitive quality estimation unit 200 calculates a video defect index by reflecting a subjective element in the structural similarity index. The quality of the video may be influenced by subjective factors such as image brightness (brightness), frame complexity, scene transitions, and the like.

사용자 인지 품질 추정부(200)는 구조 유사도 지표에 주관적 요소를 반영하기 위하여 가중치를 산출하여 적용할 수 있다. 가중치는 대상 프레임의 휘도에 따른 영향, 복잡도에 따른 영향, 프레임의 전환에 따른 영향 등을 반영할 수 있다. 즉, 사용자 인지 품질 추정부(200)는 구조 유사도 지표에 가중치를 적용할 수 있다. The user cognitive quality estimator 200 may calculate and apply a weight to reflect the subjective element in the structural similarity index. The weight may reflect the effect of the luminance of the target frame, the effect of complexity, the effect of switching frames, and the like. That is, the user cognitive quality estimation unit 200 may apply a weight to the structural similarity index.

또한, 사용자 인지 품질 추정부(200)는 가중치가 적용된 구조 유사도 지표에 로지스틱 회귀 함수(logistic regression function)를 적용하여 비디오의 손상의 정도 및 손상의 형태에 대한 정보를 포함하는 비디오 결함 지표를 산출할 수 있다. In addition, the user cognitive quality estimation unit 200 may apply a logistic regression function to the weighted structural similarity index to calculate a video defect index including information about the degree of damage and the type of damage of the video. Can be.

주관적 화질 추정부(300)는 비디오 결함 지표에 사용자 별로 지정될 수 있는 매개 변수를 이용하여 Mean Opinion Score(MOS)로 표현될 수 있는 주관적 화질 지표를 산출할 수 있다. 사용자 별로 지정될 수 있는 매개 변수는 사용자의 인내심, 서비스에 대한 기대도 등에 대한 정보를 포함할 수 있다.
The subjective image quality estimator 300 may calculate a subjective quality index which may be expressed as a Mean Opinion Score (MOS) using a parameter that may be designated for each user in the video defect index. Parameters that can be specified for each user may include information about user patience, service expectations, and the like.

도 2는 본 발명의 일 실시예에 따른 오류 연관 트리를 나타내는 개념도이다. 2 is a conceptual diagram illustrating an error association tree according to an embodiment of the present invention.

도 2를 참조하면, 동영상은 프레임의 연속으로 이루어지며, 프레임은 적어도 하나의 슬라이스로 구성될 수 있다. 각각의 프레임에 부여된 숫자는 연속된 프레임의 순서를 예시적으로 나타낸다. 예컨대, 62번째의 I프레임은 63번째의 P프레임보다 앞서는 프레임을 나타낸다. Referring to FIG. 2, the video is composed of a series of frames, and the frame may be composed of at least one slice. The numbers given to each frame exemplarily indicate the order of successive frames. For example, the 62nd I frame represents a frame preceding the 63rd P frame.

또한, 방향성이 있는 연결선이 연결되는 각각의 노드는 슬라이스를 나타내는 것으로 프레임 식별자, 슬라이스 식별자, 프레임의 종류, 프레임의 상태에 대한 정보를 포함할 수 있다. 여기서, 검은색의 노드는 손상된 슬라이스를 나타내며, 방향성이 있는 연결선은 슬라이스간의 연관 관계(참조 관계)를 나타낼 수 있다. In addition, each node to which the directional connection line is connected represents a slice and may include information on a frame identifier, a slice identifier, a type of frame, and a state of a frame. Here, the black node represents a damaged slice, and the directional connecting line may represent an association relationship (reference relationship) between the slices.

프레임의 종류는 I프레임, P프레임, B프레임으로 나타낼 수 있으며, 프레임의 복원 또는 복호화를 위하여 참조하는 참조 프레임은 프레임의 종류에 따라 결정될 수 있다. 예컨대, I프레임(62)에 속하는 슬라이스(2)는 다른 프레임의 참조 없이 인접한 슬라이스들(1, 3)을 참조할 수 있다. P프레임(63)에 속하는 슬라이스는 P프레임(63)보다 과거의 프레임인 I프레임(62)을 활용하여 복원될 수 있다. 또한, B프레임(65)은 과거와 미래의 프레임인 P프레임(63), P프레임(66)을 참조 프레임으로 할 수 있다. 다만, B프레임의 경우 다른 프레임을 위한 참조 프레임이 되지 않을 수 있다. The type of frame may be represented as an I frame, a P frame, or a B frame, and a reference frame referred to for restoring or decoding the frame may be determined according to the type of the frame. For example, a slice 2 belonging to I frame 62 may refer to adjacent slices 1 and 3 without reference to another frame. A slice belonging to the P frame 63 may be restored by utilizing an I frame 62 which is a frame older than the P frame 63. In addition, the B frame 65 may use the P frame 63 and the P frame 66, which are frames of the past and the future, as reference frames. However, the B frame may not be a reference frame for another frame.

따라서, 손상된 P프레임 또는 B프레임에 속하는 슬라이스들은 그들의 참조 슬라이스를 활용하여 복원되고, 손상된 I프레임에 속하는 슬라이스는 동일한 프레임의 인접한 슬라이스를 활용하여 복원될 수 있다.
Therefore, slices belonging to a damaged P frame or B frame can be restored using their reference slices, and slices belonging to a damaged I frame can be restored using adjacent slices of the same frame.

도 3는 도 1에 도시된 구조 유사도 추정부와 사용자 인지 품질 추정부의 구성을 더욱 상세하게 도시하는 블록도이다. FIG. 3 is a block diagram illustrating in more detail the configuration of the structural similarity estimator and the user cognitive quality estimator shown in FIG. 1.

도 3을 참조하면, 구조 유사도 추정부(100)는 성능 지표 수집부(110)와 구조 분석부(120)를 포함한다. 또한, 사용자 인지 품질 추정부(200)는 필터부(210)와 지표 변환부(220)를 포함한다. Referring to FIG. 3, the structure similarity estimator 100 includes a performance index collector 110 and a structure analyzer 120. In addition, the user cognitive quality estimation unit 200 may include a filter unit 210 and an indicator transformation unit 220.

성능 지표 수집부(110)는 프레임 정보를 수집하고, 이 정보를 기반으로 하여 오류 연관 트리를 생성하여 구조 분석부(120)로 전달할 수 있다. 특히, 본 발명의 실시예에 따른 성능 지표 수집부(110)는 모든 프레임 중에서 손상된 프레임에 대한 프레임 정보를 선별적으로 수집하고, 이를 이용하여 오류 연관 트리를 생성할 수 있다. The performance indicator collecting unit 110 may collect frame information, generate an error association tree based on the information, and transmit the generated frame information to the structure analyzing unit 120. In particular, the performance indicator collection unit 110 according to an embodiment of the present invention may selectively collect frame information on a damaged frame among all the frames, and generate an error association tree using the frame information.

구조 분석부(120)는 오류 연관 트리에 기반하여 손상된 프레임과 그에 대한 원본 프레임간의 구조 유사도 지표를 산출할 수 있다. 즉, 구조 분석부(120)는 프레임의 종류에 기반하여 구조 유사도 지표를 산출할 수 있다.The structure analyzer 120 may calculate a structural similarity index between the damaged frame and the original frame thereof based on the error association tree. That is, the structure analyzer 120 may calculate a structure similarity index based on the type of the frame.

비디오의 품질은 슬라이스의 재구성(slice reconstruction)과 오류의 전파(error propagation)에 영향을 받는다. 손상된 슬라이스는 참조 슬라이스를 활용하여 재구성되기 때문에, 손상된 슬라이스와 그에 대한 참조 슬라이스의 구조적인 유사도에 따라 복구된 프레임의 품질이 결정될 수 있다. 따라서, 구조 분석부(120)는 손상된 슬라이스와 참조 슬라이스간의 구조적인 유사도를 활용하여 손상된 프레임과 그에 대한 원본 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 추정할 수 있다.The quality of the video is influenced by the slice reconstruction and error propagation. Since the damaged slice is reconstructed using the reference slice, the quality of the recovered frame may be determined according to the structural similarity of the damaged slice and the reference slice thereto. Therefore, the structure analyzer 120 may estimate a structural similarity index indicating structural similarity between the damaged frame and the original frame using the structural similarity between the damaged slice and the reference slice.

먼저, 원본의 I프레임과 그에 대한 손상된 프레임인 I'프레임간의 구조 유사도 지표는 다음의 수학식 1을 이용하여 계산할 수 있다. First, the structural similarity index between the original I frame and the damaged frame I 'frame may be calculated using Equation 1 below.

Figure 112012023419758-pat00001
Figure 112012023419758-pat00001

수학식 1에 있어서, In Equation 1,

eSSIM(I, I')는 원본의 I 프레임과 그에 대한 손상된 프레임인 I'프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 나타낸다. 여기서, eSSIM(I, I')=1 이면 I프레임에 손상이 없음을 나타낸다. Q3는 디코딩 알고리즘에서 재구성에 대한 에러를 반영하기 위한 상수로, 실험에 의해 1.55로 정해질 수 있다. Sn은 프레임을 구성하는 슬라이스의 개수를 나타내고, ms(missing slice)는 손상된 슬라이스의 개수를 나타낸다. eSSIM (I, I ') represents a structural similarity index indicating structural similarity between the original I frame and the damaged I' frame. Here, if eSSIM (I, I ') = 1, there is no damage to the I frame. Q 3 is a constant for reflecting an error on the reconstruction in the decoding algorithm, and may be set to 1.55 by experiment. S n represents the number of slices constituting the frame, and ms (missing slice) represents the number of damaged slices.

또한, SSIMms(I, Ir)는 손상된 I프레임에 속하는 손상된 I슬라이스와 그에 대한 참조 슬라이스인 Ir슬라이스간의 구조적인 유사도를 나타내고, eSSIM(Ir, Ir')은 원본의 참조 프레임인 Ir프레임과 그에 대한 손상된 참조 프레임인 Ir'프레임간의 구조적인 유사도를 나타낸다. 여기서, eSSIM(Ir, Ir')=1 이면, Ir프레임에 손상이 없음을 나타낸다. In addition, SSIM ms (I, I r ) represents the structural similarity between the damaged I slice belonging to the damaged I frame and the reference slice I r slice, and eSSIM (I r , I r ') is the original reference frame. It shows the structural similarity between an I r frame and an I r 'frame, which is a corrupted reference frame. Here, when eSSIM (I r , I r ') = 1, there is no damage to the I r frame.

따라서, 본 발명의 실시예에 따른 구조 분석부(120)는 손상된 I슬라이스와 그에 대한 참조 슬라이스인 Ir슬라이스간의 구조적인 유사도를 이용하여 원본의 I 프레임과 그에 대한 손상된 프레임인 I'프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출할 수 있다.
Therefore, the structure analysis unit 120 according to an embodiment of the present invention uses the structural similarity between the damaged I slice and the reference slice I r slice to determine the structure between the original I frame and the damaged I frame. The structural similarity index indicating the similarity can be calculated.

다음으로, 원본의 P프레임과 그에 대한 손상된 프레임인 P'프레임간의 구조 유사도 지표는 다음의 수학식 2를 이용하여 계산할 수 있다. Next, the structural similarity index between the original P frame and the damaged P 'frame may be calculated using Equation 2 below.

Figure 112012023419758-pat00002
Figure 112012023419758-pat00002

수학식 2에 있어서, In Equation 2,

eSSIM(P, P')는 원본의 P 프레임과 그에 대한 손상된 프레임인 P'프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 나타낸다. 여기서, eSSIM(P, P')=1 이면 P프레임에 손상이 없음을 나타낸다. Q2는 디코딩 알고리즘에서 재구성에 대한 에러를 반영하기 위한 상수로, 실험에 의해 1.1로 정해질 수 있다. φ는 손상되지 않은 슬라이스의 개수를 나타내는 것으로, φ= Sn- ms로 구할 수 있다. eSSIM (P, P ') indicates a structural similarity index indicating structural similarity between the original P frame and the damaged P' frame. Here, when eSSIM (P, P ') = 1, there is no damage to the P frame. Q 2 is a constant for reflecting an error on reconstruction in the decoding algorithm, and may be set to 1.1 by experiment. φ represents the number of intact slices, φ = S n Can be found in ms.

SSIMms(P, Pr)는 손상된 P프레임에 속하는 손상된 P슬라이스와 그에 대한 참조 슬라이스인 Pr슬라이스간의 구조적인 유사도를 나타내고, eSSIM(Pr, Pr')은 원본의 참조 프레임인 Pr프레임과 그에 대한 손상된 참조 프레임인 Pr'프레임간의 구조적인 유사도를 나타낸다. 여기서, eSSIM(Pr, Pr')=1 이면, Pr프레임에 손상이 없음을 나타낸다. SSIM ms (P, P r ) represents the structural similarity between the damaged P slice belonging to the damaged P frame and the reference slice P r slice, and eSSIM (P r , P r ') denotes the original reference frame P r. The structural similarity between the frame and the corrupted reference frame P r 'frame. Here, when eSSIM (P r , P r ') = 1, there is no damage to the P r frame.

또한, [SSIM(P, Pr)]은 P프레임과 그에 대한 참조 프레임인 Pr 프레임이 장거리 의존(long-range dependent)관계에 있는 경우에 적용한다. 장거리 의존 관계는 참조 프레임이 소실되어 소실된 참조 프레임이 참조하는 프레임을 참조 프레임으로 하는 것을 의미한다. 예컨대, 도 2를 참조하면, 66번째의 P프레임(66)이 소실되어 69번째의 P프레임(69)이 63번째의 P프레임(63)을 참조하는 경우, 장거리 의존 관계에 있다고 할 수 있다. 즉, [SSIM(P, Pr)]은 P프레임과 그에 대한 참조 프레임인 Pr 프레임이 장거리 의존(long-range dependent) 관계에 있는 경우에 있어서, P프레임에 속하는 손상된 P슬라이스와 그에 대한 참조 슬라이스인 Pr슬라이스간의 구조적인 유사도를 나타낸다. In addition, [SSIM (P, P r )] is applied to a case where a P frame and a P r frame which is a reference frame thereof have a long-range dependent relationship. The long-distance dependency relationship means that the frame referred to by the lost reference frame is lost because the reference frame is lost. For example, referring to FIG. 2, when the 66th P frame 66 is lost and the 69th P frame 69 refers to the 63rd P frame 63, it may be regarded as having a long distance dependency relationship. That is, [SSIM (P, P r)] is a reference in a case where a P frame and a reference frame is a P r frames thereof in the long-distance-dependent (long-range dependent) relationships, damaged P slices and for it belongs to the P-frame The structural similarity between slices of P r slices is shown.

따라서, 본 발명의 실시예에 따른 구조 분석부(120)는 손상된 P슬라이스와 그에 대한 참조 프레임인 Pr슬라이스간의 구조적인 유사도를 이용하여 원본의 P 프레임과 그에 대한 손상된 프레임인 P'프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출할 수 있다.
Therefore, the structure analysis unit 120 according to an embodiment of the present invention uses the structural similarity between the damaged P slice and the reference frame P r slice thereof to determine the structure between the original P frame and the damaged P 'frame. The structural similarity index indicating the similarity can be calculated.

다음으로, 원본의 B프레임과 그에 대한 손상된 프레임인 B'프레임간의 구조 유사도 지표는 다음의 수학식 3을 이용하여 계산할 수 있다. Next, the structural similarity index between the original B frame and the damaged B 'frame may be calculated using Equation 3 below.

Figure 112012023419758-pat00003
Figure 112012023419758-pat00003

수학식 3에 있어서, In Equation 3,

eSSIM(B, B')는 원본의 B 프레임과 그에 대한 손상된 프레임인 B'프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 나타낸다. 여기서, eSSIM(B, B')=1 이면 B프레임에 손상이 없음을 나타낸다. eSSIM (B, B ') represents a structural similarity index indicating structural similarity between the original B frame and the damaged frame B'. Here, if eSSIM (B, B ') = 1, there is no damage to the B frame.

SSIMms(B, Br)는 손상된 B프레임에 속하는 손상된 B슬라이스와 그에 대한 참조 슬라이스인 Br슬라이스간의 구조적인 유사도를 나타내고, eSSIM(Br, Br')은 원본의 참조 프레임인 Br프레임과 그에 대한 손상된 참조 프레임인 Br'프레임간의 구조적인 유사도를 나타낸다. 여기서, eSSIM(Br, Br')=1 이면, Br프레임에 손상이 없음을 나타낸다. 또한, B프레임의 경우에는 과거뿐만 아니라 미래의 프레임을 참조할 수 있으며, Br1프레임(슬라이스)는 과거의 참조 프레임(슬라이스)이고 Br2프레임(슬라이스)는 미래의 참조 프레임(슬라이스)를 의미할 수 있다. 다만, B프레임이 하나의 참조 프레임만을 활용하는 경우에는 P프레임과 같이 수학식 2를 적용하여 원본의 B 프레임과 그에 대한 손상된 프레임인 B'프레임간 구조 유사도 지표를 산출할 수 있다. SSIM ms (B, B r ) represents the structural similarity between the damaged B slice belonging to the damaged B frame and the reference slice B r slice, and eSSIM (B r , B r ') denotes the original reference frame B r. The structural similarity between the frame and the damaged reference frame B r 'frame. Here, when eSSIM (B r , B r ') = 1, it indicates that there is no damage to the B r frame. In addition, in the case of the B frame, it is possible to refer to the frame of the future as well as the past, where B r1 frame (slice) is a past reference frame (slice) and B r2 frame (slice) means a future reference frame (slice). can do. However, when the B frame utilizes only one reference frame, the structural similarity index between the original B frame and the damaged B 'frame, which is a damaged frame, may be calculated by applying Equation 2 as in the P frame.

따라서, 본 발명의 실시예에 따른 구조 분석부(120)는 손상된 B슬라이스와 그에 대한 참조 슬라이스인 Br슬라이스간의 구조적인 유사도를 이용하여 원본의 B 프레임과 그에 대한 손상된 프레임인 B'프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출할 수 있다.
Therefore, the structure analysis unit 120 according to the embodiment of the present invention uses the structural similarity between the damaged B slice and the reference slice B r slice thereof, and the structure between the original B frame and the damaged frame B ′ frame thereof. The structural similarity index indicating the similarity can be calculated.

또한, 도 3을 참조하면, 사용자 인지 품질 추정부(200)는 필터부(210)와 지표 변환부(220)를 포함한다. In addition, referring to FIG. 3, the user cognitive quality estimator 200 includes a filter 210 and an index converter 220.

필터부(210)는 사용자가 비디오의 품질을 인지하는데 있어서 영향을 미치는 주관적 요소를 반영하기 위한 가중치를 산출하여 구조 유사도 지표에 적용할 수 있다. 사용자는 영상의 휘도(luminance 또는 luma), 프레임의 복잡도, 장면의 전환 등과 같은 요소에 따라 비디오의 품질을 다르게 인지할 수 있다. 예컨대, 사용자(관람자)는 어두운 장면에서 사소한 비디오 품질의 저하를 인지하기 어려우며, 빠르게 전환되는 장면에서 사소한 비디오 품질의 저하를 인지하기 어렵다. 또한, 사용자는 복잡한 영상에서 사소한 비디오 품질의 저하를 인지하기 어려울 수 있다. The filter unit 210 may calculate a weight to reflect a subjective factor that affects the user's perception of the quality of the video and apply it to the structural similarity index. The user may perceive the quality of the video differently according to factors such as luminance (lumina or luma) of the image, complexity of the frame, transition of the scene, and the like. For example, it is difficult for a user (a viewer) to notice a slight degradation of video quality in dark scenes and a minor degradation of video quality in fast transition scenes. In addition, it may be difficult for a user to notice minor degradation of video quality in a complex image.

필터부(210)는 루마 조절 필터부(luma adjust filter)(211), 프레임 복잡도 필터부(frame complexity filter)(212), 장면 전환 필터부(scene change filter)(213)를 포함할 수 있다.The filter unit 210 may include a luma adjust filter 211, a frame complexity filter 212, and a scene change filter 213.

루마 조절 필터부(211)는 인간의 비디오 품질에 대한 인지는 대상의 휘도에 영향을 받는다는 사실에 근거한다. 즉, 밝은 장면에서의 비디오 품질의 저하가 어두운 장면에서의 비디오 품질의 저하보다 사용자에게 더 큰 영향을 미칠 수 있다. 구조 유사도 지표는 일련의 프레임들을 대상으로 산출될 수 있고, 루마 조절 필터부(211)는 영상의 휘도가 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 가중치를 구조 유사도 지표에 적용할 수 있다. 즉, 대상 프레임의 휘도가 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 가중치를 루마 가중치라고 할 수 있다. The luma adjustment filter unit 211 is based on the fact that the perception of human video quality is affected by the luminance of the object. That is, the degradation of video quality in bright scenes may have a greater impact on the user than the degradation of video quality in dark scenes. The structural similarity index may be calculated for a series of frames, and the luma adjustment filter 211 may apply a weight to the structural similarity index that reflects the effect of the brightness of the image on the video quality perceived by the user. . That is, the weight that reflects the effect of the luminance of the target frame on the video quality perceived by the user may be referred to as luma weight.

루마 가중치는 다음의 수학식 4를 이용하여 계산할 수 있다. The luma weight may be calculated using Equation 4 below.

Figure 112012023419758-pat00004
Figure 112012023419758-pat00004

수학식 4에 있어서,In Equation 4,

x와 y는 비교할 두 개의 프레임을 나타내고,

Figure 112012023419758-pat00005
는 x프레임의 휘도를
Figure 112012023419758-pat00006
는 y프레임의 휘도를 나타낸다.
Figure 112012023419758-pat00007
는 휘도에 따라 정해지는 루마 가중치이다. x and y represent the two frames to compare,
Figure 112012023419758-pat00005
Is the luminance of the x frame
Figure 112012023419758-pat00006
Denotes the luminance of the y frame.
Figure 112012023419758-pat00007
Is a luma weight determined by luminance.

x프레임과 y프레임의 휘도 중에서 어느 하나라도 50보다 큰 경우에 루마 가중치는 1로 정해진다. 또한, x프레임과 y프레임의 휘도가 모두 50보다 작고, x프레임과 y프레임의 휘도의 평균이 40보다 작은 경우에 루마 가중치는 0으로 정해질 수 있다. 또한, x프레임과 y프레임의 휘도가 모두 50보다 작고, x프레임과 y프레임의 휘도의 평균이 40보다 크고 50과 같거나 작은 경우에는 x프레임과 y프레임의 휘도의 평균에서 40을 뺀 값을 10으로 나눈값을 루마 가중치로 한다. 즉, 프레임의 휘도가 커질수록 루마 가중치의 값이 커짐을 알 수 있다. 루마 조절 필터부(211)에서 산출된 루마 가중치는 구조 분석부(120)로 전달될 수 있고, 루마 가중치를 전달받은 구조 분석부(120)는 구조 유사도 지표에 루마 가중치를 적용하여 출력할 수 있다.
If any one of the luminance of the x frame and the y frame is greater than 50, the luma weight is set to one. In addition, when the luminance of both the x frame and the y frame is less than 50, and the average of the luminance of the x frame and the y frame is less than 40, the luma weight may be set to zero. Also, if the luminance of both x and y frames is less than 50 and the average of the luminance of x and y frames is greater than 40 and is equal to or less than 50, subtract 40 from the average of the luminance of x and y frames. The value divided by 10 is used as luma weight. That is, it can be seen that as the luminance of the frame increases, the value of the luma weight increases. The luma weights calculated by the luma control filter unit 211 may be transmitted to the structure analyzer 120, and the structure analyzer 120 receiving the luma weights may be output by applying luma weights to the structural similarity index. .

프레임 복잡도 필터부(212)는 인간의 비디오 품질에 대한 인지는 대상의 복잡도에 영향을 받는다는 사실에 근거한다. 즉, 프레임의 복잡도에 따라 비디오 품질의 저하가 사용자에게 미치는 영향이 다를 수 있다. The frame complexity filter unit 212 is based on the fact that human perception of video quality is affected by the complexity of the object. That is, the effect of the degradation of video quality on the user may vary depending on the complexity of the frame.

프레임 복잡도 필터부(212)는 이러한 특성을 반영하기 위하여 복잡도 가중치를 산출하여 구조 유사도 지표에 적용함으로써 사용자가 실제 인지하는 비디오 품질을 반영하는 보다 정확한 구조 유사도 지표를 얻을 수 있도록 한다. 즉, 대상 프레임의 복잡도가 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 가중치를 복잡도 가중치라고 할 수 있다. The frame complexity filter unit 212 calculates the complexity weights to reflect these characteristics and applies them to the structural similarity index so as to obtain a more accurate structural similarity index reflecting the video quality actually recognized by the user. That is, the weight reflecting the influence of the complexity of the target frame on the video quality perceived by the user may be referred to as the complexity weight.

먼저, 프레임의 복잡도를 나타내는 지표(FC: Frame Complexity)를 산출하기 위한 방법으로 Mean Absolute Difference(MAD)가 사용될 수 있으나, 본 발명의 실시예에 따른 프레임 복잡도 필터부(212)는 MAD를 변형한 수학식 5를 이용하여 FC 를 계산할 수 있다.First, Mean Absolute Difference (MAD) may be used as a method for calculating a frame complexity (FC) indicating the complexity of a frame. However, the frame complexity filter 212 according to an embodiment of the present invention may modify the MAD. FC can be calculated using Equation 5.

Figure 112012023419758-pat00008
Figure 112012023419758-pat00008

수학식 5에 있어서,In Equation 5,

R은 하나의 프레임 내의 샘플의 개수를 의미하고, 하나의 샘플은 m×n개의 픽셀(pixel)로 구성된다. 또한,

Figure 112012023419758-pat00009
은 샘플 프레임 r내의 픽셀k의 휘도를 나타내고,
Figure 112012023419758-pat00010
은 샘플 프레임 r내의 모든 픽셀의 휘도의 평균값을 나타낸다. R means the number of samples in one frame, and one sample is composed of m × n pixels. Also,
Figure 112012023419758-pat00009
Denotes the luminance of pixel k in sample frame r,
Figure 112012023419758-pat00010
Denotes an average value of luminance of all pixels in the sample frame r.

복잡도 가중치(

Figure 112012023419758-pat00011
)는 다음의 수학식 6를 이용하여 구조 유사도 지표에 적용될 수 있다. Complexity weights (
Figure 112012023419758-pat00011
) May be applied to the structural similarity index using Equation 6 below.

수학식 6에 있어서, In Equation 6,

프레임의 복잡도를 나타내는 지표(FC)에 기반하여 복잡도 가중치(

Figure 112012023419758-pat00013
)가 결정되고, 결정된 복잡도 가중치(
Figure 112012023419758-pat00014
)는 구조 유사도 지표가 0.60보다 큰 경우에만 적용될 수 있다. Based on the complexity (FC) indicator of the complexity of the frame, the complexity weight (
Figure 112012023419758-pat00013
) Is determined, and the determined complexity weight (
Figure 112012023419758-pat00014
) Can be applied only if the structural similarity index is greater than 0.60.

예컨대,

Figure 112012023419758-pat00015
는 FC가 25보다 작거나 같은 경우에 1이 되고, FC가 30보다 크거나 같은 경우에는 0이 될 수 있다. 또한, FC가 25와 30사이에 있는 경우,
Figure 112012023419758-pat00016
는 0과 1사이의 값을 가질 수 있다. 즉, 프레임의 복잡도가 낮을수록 복잡도 가중치의 값이 커질 수 있다.
for example,
Figure 112012023419758-pat00015
May be 1 if the FC is less than or equal to 25, and may be 0 if the FC is greater than or equal to 30. Also, if the FC is between 25 and 30,
Figure 112012023419758-pat00016
May have a value between 0 and 1. That is, the lower the complexity of the frame, the larger the value of the complexity weight.

장면 전환 필터부(213)는 인간의 비디오 품질에 대한 인지는 대상의 전환에 영향을 받는다는 사실에 근거한다. 즉, 인간은 장면이 바뀌는 순간의 비디오 품질의 저하를 잘 느끼지 못할 수 있으며, 장면 전환에 따른 이러한 효과는 1/3초 정도 지속되는 것으로 알려져 있다. 장면 전환에 대한 탐지는 연속되는 두 개의 프레임의 색상 변화를 통하여 이루어질 수 있다. 또한, 장면 전환에 대한 탐지를 위하여 블록(block)기반의 색상 히스토그램(Histogram)을 이용한 방법을 사용할 수 있다. The scene change filter unit 213 is based on the fact that the perception of the video quality of the human being is affected by the conversion of the object. In other words, humans may not feel the deterioration of video quality at the moment when the scene changes, and this effect of scene change is known to last about 1/3 second. Detection of scene transitions can be achieved through color changes in two consecutive frames. In addition, a method using a block-based color histogram may be used to detect a scene change.

장면 전환에 대한 탐지를 위한 장면 전환 탐지 지표(SC: Scene Change)는 다음의 수학식 7을 이용하여 계산할 수 있다. A scene change detection index (SC) for detecting a scene change may be calculated using Equation 7 below.

Figure 112012023419758-pat00017
Figure 112012023419758-pat00017

수학식 7에 있어서, In Equation 7,

fi는 i번째 프레임을 나타내고, fi -1은 fi의 이전 프레임을 나타낼 수 있다. b는 프레임을 16개의 블록으로 나누었을 때 하나의 블록을 의미할 수 있으며, c는 R, G, B 컴포넌트 중 하나를 의미할 수 있다. 또한, k는 각각의 R, G, B 컴포넌트가 가질 수 있는 값을 의미하는 것으로 최대값을 LC로 할 수 있다. 여기서, LC는 각각의 R, G, B 컴포넌트의 최대값을 의미하며, mn은 프레임의 사이즈를 나타낼 수 있다. f i may represent the i-th frame, and f i -1 may represent a previous frame of f i . b may mean one block when the frame is divided into 16 blocks, and c may mean one of R, G, and B components. In addition, k means a value that each of the R, G, and B components can have, the maximum value can be L C. Here, L C means the maximum value of each R, G, B component, and mn may represent the size of the frame.

또한, H는 히스토그램 함수를 나타내며, H(fi, c, b, k)-H(fi -1, c, b, k)은 각 c, b, k값에 대하여 연속되는 프레임간의 차이를 나타낼 수 있다. 예컨대, c=R, b=1, k=10인 경우, 연속되는 프레임에서 1번 블록 내의 픽셀 중에서 R값을 10으로 가지는 픽셀 수의 차이가 계산된다. In addition, H represents a histogram function, and H (f i , c, b, k)-H (f i -1 , c, b, k) indicates the difference between successive frames for each c, b, k value. Can be represented. For example, when c = R, b = 1, and k = 10, the difference in the number of pixels having an R value of 10 among the pixels in block 1 in a subsequent frame is calculated.

따라서, 하나의 프레임을 16개의 블록으로 분할한 후, 각 블록에 대하여 색상 히스토그램을 R, G, B 색상 요소에 대하여 생성할 수 있다. 이를 통하여 연속된 두 프레임에 속하는 각 블록들의 색상 히스토그램의 차이들의 합을 이용하여 장면 전환 탐지 지표(SC)를 산출할 수 있다.Therefore, after dividing a frame into 16 blocks, color histograms for each block may be generated for R, G, and B color elements. Through this, the scene change detection index SC may be calculated using the sum of the differences in the color histograms of the blocks belonging to two consecutive frames.

전환 가중치(

Figure 112012023419758-pat00018
)는 다음의 수학식 8을 이용하여 구조 유사도 지표에 적용될 수 있다. Conversion weight (
Figure 112012023419758-pat00018
) May be applied to the structural similarity index using Equation 8 below.

Figure 112012023419758-pat00019
Figure 112012023419758-pat00019

수학식 8에 있어서,In Equation 8,

장면 전환 탐지 지표(SC)에 기반하여 전환 가중치(

Figure 112012023419758-pat00020
)가 결정되고, 결정된 전환 가중치(
Figure 112012023419758-pat00021
)는 구조 유사도 지표에 가중치로 적용될 수 있다. Based on cutaway detection metrics (SC)
Figure 112012023419758-pat00020
) Is determined, and the determined conversion weight (
Figure 112012023419758-pat00021
) Can be applied as a weight to the structural similarity index.

먼저, 조건A(condition A)는 프레임의 전환이 1/6초 이내에 발생하는 경우를 의미하고, 조건B(condition B)는 프레임의 전환이 1/6초 이후에 발생하는 경우를 의미한다. First, condition A refers to a case in which the switching of the frame occurs within 1/6 second, and condition B refers to a case in which the switching of the frame occurs after 1/6 second.

예컨대, SC가 3.0보다 크거나 같고 조건A에 해당하는 경우

Figure 112012023419758-pat00022
는 0이 되고, SC가 1.7보다 크거나 같고 3.0보다 작으며 조건B에 해당하는 경우에
Figure 112012023419758-pat00023
는 0이 될 수 있으며, 그 외의 경우에 있어서
Figure 112012023419758-pat00024
는 1이 될 수 있다.
For example, if SC is greater than or equal to 3.0 and corresponds to condition A
Figure 112012023419758-pat00022
Is 0 and SC is greater than or equal to 1.7, less than 3.0, and corresponds to condition B.
Figure 112012023419758-pat00023
Can be 0, in other cases
Figure 112012023419758-pat00024
Can be 1.

지표 변환부(220)는 가중치가 적용된 구조 유사도 지표에 로지스틱 회귀 함수(logistic regression function)를 적용하여 비디오 결함 지표를 산출할 수 있다. 지표 변환부(220)는 구조 유사도 지표를 이용하여 손상이 발생한 비디오의 구간을 탐지하고, 구조 유사도 지표가 변화하는 형태에 기반하여 손상의 형태를 반영하는 비디오 결함 지표를 산출할 수 있다. The index transformation unit 220 may calculate a video defect index by applying a logistic regression function to the weighted structural similarity index. The indicator converter 220 may detect a section of the video in which the damage occurs by using the structural similarity index, and calculate a video defect index that reflects the shape of the damage based on the change in the structural similarity index.

비디오 결함 지표는 디스토어션(Distortion), 프리징(Freezing), 디스칸터누어티 (Discontinuity), 스터터(Stutter), 글리치(Glitch)로 나타나는 손상의 형태를 반영할 수 있다. The video defect indicator may reflect the type of damage represented by distortion, freezing, discontinuity, stutter, and glitch.

구조 유사도 지표는 각 프레임 별로 산출될 수 있고, 비디오는 일련의 구조 유사도 지표를 가질 수 있다. 구조 유사도 지표가 1인 경우 손상이 없음을 나타내므로, 구조 유사도 지표가 연속된 1이 나오지 않는 구간을 끊어서 손상 이벤트를 분류할 수 있다. 여기서, 손상 이벤트는 손상이 발생한 비디오의 구간을 의미하는 것으로, 손상 이벤트의 형태는 구조 유사도 지표가 변화하는 형태에 기반하여 디스토어션, 프리징, 디스칸터누어티, 스터터, 글리치 등으로 분류될 수 있다. The structural similarity index may be calculated for each frame, and the video may have a series of structural similarity indexes. When the structural similarity index is 1, there is no damage. Therefore, the structural similarity index may be classified by breaking the section in which the continuous similarity index does not appear. Here, the damage event refers to the section of the video where the damage occurs, and the damage event is classified into distortion, freezing, discounter, stirrer, and glitch based on the change in the structural similarity index. Can be.

디스토어션(Distortion)은 손상 이벤트 내의 프레임에 사용자가 인지 가능한 왜곡이 발생한 경우를 의미하고, 프리징(Freezing)은 동일한 프레임의 일련이 연속되는 것을 의미한다. 또한, 디스칸터누어티 (Discontinuity)는 원래는 연속으로 재생되지 않아야 할 프레임들이 연속되어 나타남을 의미하고, 스터터(Stutter)는 프리징이 일정한 시간(0.5초)이하로 발생하는 경우를 의미하며, 글리치(Glitch)는 디스토어션이 일정한 시간(0.5초)이하로 발생하는 경우를 의미할 수 있다.
Distortion refers to a case in which a user perceptible distortion occurs in a frame in a damage event, and freezing refers to a series of identical frames. In addition, the discontinuity means that frames that are not supposed to be played back are displayed in succession, and stutter means that freezing occurs less than a predetermined time (0.5 seconds). , Glitch may mean a case in which the distortion occurs for less than a predetermined time (0.5 seconds).

도 4는 본 발명의 실시예에 따른 비디오 품질 측정 방법의 절차를 나타내는 흐름도이다. 4 is a flowchart illustrating a procedure of a method for measuring video quality according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 비디오 품질 측정 방법은 오류 연관 트리를 생성하는 단계, 구조 유사도 지표를 산출하는 단계, 사용자 인지 품질 추정 단계를 포함한다. Referring to FIG. 4, a video quality measurement method according to an embodiment of the present invention includes generating an error association tree, calculating a structural similarity index, and estimating user perceived quality.

본 발명의 실시예에 따른 비디오 품질 측정 방법은 하나의 물리적 장치 또는 집단이 아닌 복수의 물리적 장치 또는 집단으로 구현될 수 있으며, 본 발명의 실시예에 따른 비디오 품질 측정 방법에 포함된 각각의 단계는 하나의 물리적 장치,하나의 모듈 또는 소프트웨어에 의해 구현될 수 있다. The video quality measurement method according to an embodiment of the present invention may be implemented as a plurality of physical devices or groups instead of one physical device or group, and each step included in the video quality measurement method according to the embodiment of the present invention It can be implemented by one physical device, one module or software.

예컨대, 도 3을 참조하면, 오류 연관 트리를 생성하는 단계(S200)는 성능 지표 수집부(110)에 의해 수행될 수 있고, 구조 유사도 지표를 산출하는 단계(S300)는 구조 분석부(120)에 의해 수행될 수 있으며, 사용자 인지 품질 추정 단계(S500)는 사용자 인지 품질 추정부(200)에 의해 수행될 수 있다. For example, referring to FIG. 3, the generating of the error association tree (S200) may be performed by the performance indicator collecting unit 110, and calculating the structural similarity index (S300) may be performed by the structure analyzing unit 120. The user cognitive quality estimating step S500 may be performed by the user cognitive quality estimating unit 200.

오류 연관 트리를 생성하는 단계(S200)는 손상된 프레임에 대한 프레임 정보를 수집하고(S100), 수집된 프레임 정보를 이용하여 오류 연관 트리를 생성할 수 있다. 여기서, 오류 연관 트리는 손상된 슬라이스와 그에 대한 참조 슬라이스 간의 연관 관계를 나타낼 수 있다. 즉, 오류 연관 트리는 프레임 식별자, 슬라이스 식별자, 프레임의 종류, 손상 정도, 손상 위치 중 적어도 하나를 포함하는 프레임 정보를 수집하여 손상된 슬라이스가 속하는 프레임의 종류에 기반하여 생성될 수 있다. Generating an error association tree (S200) may collect frame information on the corrupted frame (S100), and generate an error association tree using the collected frame information. Here, the error association tree may indicate an association relationship between a damaged slice and a reference slice thereof. That is, the error association tree may be generated based on the type of the frame to which the damaged slice belongs by collecting frame information including at least one of a frame identifier, a slice identifier, a type of frame, a degree of damage, and a location of damage.

구조 유사도 지표를 산출하는 단계(S300)는 오류 연관 트리에 기반하여 손상된 프레임을 구성하는 손상된 슬라이스와 손상된 슬라이스가 참조하는 참조 슬라이스간의 구조 유사도를 이용하여 손상된 프레임과 손상된 프레임이 참조하는 참조 프레임간의 구조 유사도 지표를 산출할 수 있다. Computing the structural similarity index (S300) is a structure between the damaged frame and the reference frame referenced by the damaged frame using the structural similarity between the damaged slice constituting the damaged frame and the reference slice referenced by the damaged slice based on the error association tree. Similarity indicators can be calculated.

사용자 인지 품질 추정 단계(S500)는 구조 유사도 지표에 주관적 요소를 반영하는 가중치를 적용(S400)하여 비디오 결함 지표를 산출할 수 있다. In the user perceived quality estimation step S500, a video defect index may be calculated by applying a weight reflecting a subjective element to the structural similarity index S400.

따라서, 사용자 인지 품질 추정 단계는, 영상의 휘도, 프레임 복잡도, 장면의 전환에 대한 정보를 포함하는 주관적 요소를 반영하기 위한 가중치를 산출하여 구조 유사도 지표에 적용할 수 있다. Therefore, the user perception quality estimation step may be applied to the structural similarity index by calculating a weight for reflecting a subjective element including information about the brightness of the image, the frame complexity, and the change of the scene.

또한, 사용자 인지 품질 추정 단계는, 가중치를 적용한 구조 유사도 지표에 로지스틱 회귀 함수(logistic regression function)를 적용하여 손상의 형태를 반영하는 비디오 결함 지표를 산출할 수 있다. 즉, 구조 유사도 지표를 이용하여 손상이 발생한 비디오의 구간을 탐지하고, 구조 유사도 지표가 변화하는 형태에 기반하여 손상의 형태를 반영하는 비디오 결함 지표를 산출할 수 있다. 여기서, 손상의 형태는 디스토어션, 프리징, 디스칸터누어티, 스터터, 글리치로 나타낼 수 있다.
In addition, in the user cognition quality estimation step, a logistic regression function may be applied to the structural similarity index to which the weight is applied to calculate a video defect index reflecting the shape of the damage. That is, by using the structural similarity index, the section of the video where the damage occurs can be detected, and the video defect index reflecting the shape of the damage can be calculated based on the change in the structural similarity index. Here, the form of damage may be represented by distortion, freezing, discontinuity, stutter, and glitch.

상술한 본 발명에 따른 비디오 품질 측정 장치 및 방법을 이용할 경우에는 손상된 슬라이스와 그에 대한 참조 슬라이스간의 구조적인 유사도를 활용하여 원본의 프레임과 그에 대한 손상된 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출할 수 있다. 또한, 구조 유사도 지표에 주관적 요소를 반영하는 가중치를 적용함으로써, 사용자가 인지하는 비디오 품질을 측정할 수 있도록 한다.
When using the apparatus and method for measuring video quality according to the present invention described above, a structural similarity index indicating structural similarity between an original frame and a damaged frame may be calculated using structural similarity between a damaged slice and a reference slice thereof. Can be. In addition, by applying a weight reflecting the subjective factor to the structural similarity index, it is possible to measure the video quality perceived by the user.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

100: 구조 유사도 추정부 110: 성능 지표 수집부
120: 구조 분석부
200: 사용자 인지 품질 추정부 210: 필터부
211: 루마 조절 필터부 212: 프레임 복잡도 필터부
213: 장면 전환 필터부 220: 지표 변환부
300: 주관적 화질 추정부
100: structural similarity estimation unit 110: performance indicator collection unit
120: structural analysis unit
200: user cognitive quality estimation unit 210: filter unit
211: luma adjustment filter unit 212: frame complexity filter unit
213: Scene transition filter unit 220: Indicator conversion unit
300: subjective image quality estimation unit

Claims (13)

손상된 프레임에 대한 프레임 정보를 수집하고 상기 프레임 정보를 이용하여 오류 연관 트리를 생성하며, 상기 오류 연관 트리에 기반하여 상기 손상된 프레임을 구성하는 손상된 슬라이스와 상기 손상된 슬라이스가 참조하는 참조 슬라이스간의 구조적인 유사도를 이용하여 상기 손상된 프레임과 상기 손상된 프레임의 원본 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출하는 구조 유사도 추정부; 및
상기 구조 유사도 지표에 주관적 요소를 반영하는 가중치를 적용하여 비디오 결함 지표를 산출하는 사용자 인지 품질 추정부를 포함하는 비디오 품질 측정 장치.
Collect frame information about the corrupted frame and generate an error association tree using the frame information, and structural similarity between the damaged slice constituting the damaged frame and the reference slice referenced by the damaged slice based on the error association tree A structural similarity estimator for calculating a structural similarity index indicating structural similarity between the damaged frame and the original frame of the damaged frame by using a? And
And a user cognitive quality estimator for calculating a video defect index by applying a weight reflecting a subjective element to the structural similarity index.
삭제delete 청구항 1에 있어서, 상기 구조 유사도 추정부는,
프레임 식별자, 슬라이스 식별자, 프레임의 종류, 손상 정도, 손상 위치 중 적어도 하나를 포함하는 상기 프레임 정보를 수집하여 상기 손상된 슬라이스가 속하는 상기 프레임의 종류에 기반하여 상기 오류 연관 트리를 생성하는 성능 지표 수집부; 및
상기 오류 연관 트리를 기반으로 상기 손상된 슬라이스가 참조하는 참조 슬라이스를 선별하여 상기 구조 유사도 지표를 산출하는 구조 분석부를 포함하는 비디오 품질 측정 장치.
The method of claim 1, wherein the structural similarity estimator,
A performance indicator collection unit configured to collect the frame information including at least one of a frame identifier, a slice identifier, a type of frame, a degree of damage, and a damage location to generate the error association tree based on the type of the frame to which the damaged slice belongs; ; And
And a structure analyzer configured to calculate the structure similarity index by selecting a reference slice referenced by the damaged slice based on the error association tree.
청구항 3에 있어서,
상기 프레임의 종류는 I프레임, P프레임, B프레임을 포함하며,
상기 오류 연관 트리는 상기 프레임의 종류에 따라 상기 손상된 슬라이스와 상기 참조 슬라이스간의 연관 관계를 나타내는 것을 특징으로 하는 비디오 품질 측정 장치.
The method according to claim 3,
The type of frame includes I frame, P frame, B frame,
And the error association tree indicates an association relationship between the damaged slice and the reference slice according to the type of the frame.
청구항 1에 있어서,
상기 주관적 요소는 영상의 휘도, 프레임의 복잡도, 장면의 전환이 비디오 품질에 미치는 영향을 반영하는 것을 특징으로 하는 비디오 품질 측정 장치.
The method according to claim 1,
The subjective element is a video quality measuring apparatus, characterized in that reflects the effect of the brightness of the image, the complexity of the frame, the scene change on the video quality.
청구항 1에 있어서, 상기 사용자 인지 품질 추정부는,
상기 주관적 요소를 반영하기 위한 가중치를 산출하여 상기 구조 유사도 지표에 적용하는 필터부; 및
상기 가중치를 적용한 상기 구조 유사도 지표에 로지스틱 회귀 함수(logistic regression function)를 적용하여 손상의 형태를 반영하는 비디오 결함 지표를 산출하는 지표 변환부를 포함하는 것을 특징으로 하는 비디오 품질 측정 장치.
The method of claim 1, wherein the user cognitive quality estimation unit,
A filter unit calculating a weight for reflecting the subjective element and applying the same to the structural similarity index; And
And an index converter configured to apply a logistic regression function to the structural similarity index to which the weight is applied, to calculate a video defect index reflecting the shape of the damage.
청구항 6에 있어서, 상기 필터부는,
대상 프레임의 휘도가 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 루마 가중치를 산출하는 루마 조절 필터;
상기 대상 프레임의 복잡도가 상기 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 복잡도 가중치를 산출하는 프레임 복잡도 필터부; 및
상기 대상 프레임의 전환이 상기 사용자에 의해 인지되는 비디오 품질에 미치는 영향을 반영하는 전환 가중치를 산출하는 장면 전환 필터부를 포함하는 것을 특징으로 하는 비디오 품질 측정 장치.
The method according to claim 6, The filter unit,
A luma adjustment filter for calculating a luma weight reflecting an effect of the luminance of the target frame on the video quality perceived by the user;
A frame complexity filter unit for calculating a complexity weight that reflects an effect of the complexity of the target frame on the video quality perceived by the user; And
And a scene change filter configured to calculate a conversion weight that reflects the effect of the conversion of the target frame on the video quality perceived by the user.
청구항 6에 있어서, 상기 지표 변환부는,
상기 구조 유사도 지표를 이용하여 손상이 발생한 비디오의 구간을 탐지하고, 상기 구조 유사도 지표가 변화하는 형태에 기반하여 상기 손상의 형태를 반영하는 비디오 결함 지표를 산출하는 것을 특징으로 하는 비디오 품질 측정 장치.
The method according to claim 6, wherein the indicator conversion unit,
And detecting a section of a video in which damage occurs using the structural similarity index, and calculating a video defect index reflecting the shape of the damage based on a change in the structural similarity index.
청구항 6에 있어서, 상기 비디오 결함 지표는,
디스토어션(Distortion), 프리징(Freezing), 디스칸터누어티 (Discontinuity), 스터터(Stutter), 글리치(Glitch)로 나타나는 상기 손상의 형태를 반영하는 것을 특징으로 하는 비디오 품질 측정 장치.
The method of claim 6, wherein the video defect indicator,
A device for measuring video quality that reflects the type of damage represented by distortion, freezing, discontinuity, stutter, and glitch.
비디오 품질의 측정에 있어서,
손상된 프레임에 대한 프레임 정보를 수집하고 상기 프레임 정보를 이용하여 오류 연관 트리를 생성하는 단계;
상기 오류 연관 트리에 기반하여 상기 손상된 프레임을 구성하는 손상된 슬라이스와 상기 손상된 슬라이스가 참조하는 참조 슬라이스간의 구조적인 유사도를 이용하여 상기 손상된 프레임과 상기 손상된 프레임의 원본 프레임간의 구조적인 유사도를 나타내는 구조 유사도 지표를 산출하는 단계; 및
상기 구조 유사도 지표에 주관적 요소를 반영한 가중치를 적용하여 비디오 결함 지표를 산출하는 사용자 인지 품질 추정 단계를 포함하는 비디오 품질 측정 방법.
In measuring video quality,
Collecting frame information on the corrupted frame and generating an error association tree using the frame information;
A structural similarity index indicating structural similarity between the damaged frame and the original frame of the damaged frame using the structural similarity between the damaged slice constituting the damaged frame and the reference slice referenced by the damaged slice based on the error association tree. Calculating; And
And a user perceived quality estimation step of calculating a video defect index by applying a weight reflecting a subjective element to the structural similarity index.
청구항 10에 있어서, 상기 오류 연관 트리를 생성하는 단계는,
프레임 식별자, 슬라이스 식별자, 프레임의 종류, 손상 정도, 손상 위치 중 적어도 하나를 포함하는 상기 프레임 정보를 수집하여 상기 손상된 슬라이스가 속하는 상기 프레임의 종류에 기반하여 상기 오류 연관 트리를 생성하는 것을 특징으로 하는 비디오 품질 측정 방법.
The method of claim 10, wherein generating the error association tree,
Generating the error association tree based on the type of the frame to which the damaged slice belongs by collecting the frame information including at least one of a frame identifier, a slice identifier, a type of frame, a degree of damage, and a damage location. How to measure video quality.
청구항 10에 있어서, 상기 사용자 인지 품질 추정 단계는,
영상의 휘도, 프레임 복잡도, 장면의 전환에 대한 정보를 포함하는 주관적 요소를 반영하기 위한 가중치를 산출하여 상기 구조 유사도 지표에 적용하는 단계; 및
상기 가중치를 적용한 상기 구조 유사도 지표에 로지스틱 회귀 함수(logistic regression function)를 적용하여 손상의 형태를 반영하는 비디오 결함 지표를 산출하는 단계를 포함하는 비디오 품질 측정 방법.
The method of claim 10, wherein the user perceived quality estimation step,
Calculating weights for reflecting subjective elements including information on brightness, frame complexity, and transition of an image, and applying the same to the structural similarity index; And
And applying a logistic regression function to the structural similarity index to which the weight is applied, to calculate a video defect index reflecting the shape of the damage.
청구항 12에 있어서, 상기 비디오 결함 지표를 산출하는 단계는,
상기 구조 유사도 지표를 이용하여 손상이 발생한 비디오의 구간을 탐지하고, 상기 구조 유사도 지표가 변화하는 형태에 기반하여 상기 손상의 형태를 반영하는 비디오 결함 지표를 산출하는 것을 특징으로 하는 비디오 품질 측정 방법.
The method of claim 12, wherein calculating the video defect indicator comprises:
And detecting a section of a video in which damage occurs using the structural similarity index, and calculating a video defect index reflecting the shape of the damage based on a change in the structural similarity index.
KR1020120029658A 2012-03-23 2012-03-23 Apparatus for monitoring video quality and method thereof KR101327709B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120029658A KR101327709B1 (en) 2012-03-23 2012-03-23 Apparatus for monitoring video quality and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120029658A KR101327709B1 (en) 2012-03-23 2012-03-23 Apparatus for monitoring video quality and method thereof

Publications (2)

Publication Number Publication Date
KR20130107687A KR20130107687A (en) 2013-10-02
KR101327709B1 true KR101327709B1 (en) 2013-11-11

Family

ID=49630940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120029658A KR101327709B1 (en) 2012-03-23 2012-03-23 Apparatus for monitoring video quality and method thereof

Country Status (1)

Country Link
KR (1) KR101327709B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9838713B1 (en) 2017-01-25 2017-12-05 Kwangwoon University-Academic Collaboration Foundation Method for fast transform coding based on perceptual quality and apparatus for the same
KR102192017B1 (en) * 2019-07-16 2020-12-16 연세대학교 산학협력단 Method and Apparatus for Assessing Visual Quality of Video Based on Human Visual System
US11205257B2 (en) 2018-11-29 2021-12-21 Electronics And Telecommunications Research Institute Method and apparatus for measuring video quality based on detection of change in perceptually sensitive region

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102548425B1 (en) * 2016-10-26 2023-06-26 에스케이텔레콤 주식회사 Video Quality Measurement Apparatus and Method
KR102548427B1 (en) * 2016-10-26 2023-06-26 에스케이텔레콤 주식회사 Video Quality Measurement Apparatus and Method
KR102548422B1 (en) * 2016-10-26 2023-06-26 에스케이텔레콤 주식회사 Video Quality Measurement Apparatus and Method
KR102560215B1 (en) * 2016-10-26 2023-07-26 에스케이텔레콤 주식회사 Video Quality Measurement Apparatus and Method
KR102352077B1 (en) * 2020-08-31 2022-01-18 주식회사 핀그램 Method and system for high speed video encoding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020084172A (en) * 2001-01-10 2002-11-04 코닌클리케 필립스 일렉트로닉스 엔.브이. Scalable objective metric for automatic video quality evaluation
JP2003333629A (en) 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> Method, device, and program for supporting evaluation of video quality
KR20060033717A (en) * 2003-08-22 2006-04-19 니뽄 덴신 덴와 가부시키가이샤 Video quality evaluation device, video quality evaluation method, video quality evaluation program, video matching device, video matching method, and video matching program
KR20080107042A (en) * 2007-06-05 2008-12-10 주식회사 케이티 Apparatus and method by using human visual characteristics

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020084172A (en) * 2001-01-10 2002-11-04 코닌클리케 필립스 일렉트로닉스 엔.브이. Scalable objective metric for automatic video quality evaluation
JP2003333629A (en) 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> Method, device, and program for supporting evaluation of video quality
KR20060033717A (en) * 2003-08-22 2006-04-19 니뽄 덴신 덴와 가부시키가이샤 Video quality evaluation device, video quality evaluation method, video quality evaluation program, video matching device, video matching method, and video matching program
KR20080107042A (en) * 2007-06-05 2008-12-10 주식회사 케이티 Apparatus and method by using human visual characteristics

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9838713B1 (en) 2017-01-25 2017-12-05 Kwangwoon University-Academic Collaboration Foundation Method for fast transform coding based on perceptual quality and apparatus for the same
US11205257B2 (en) 2018-11-29 2021-12-21 Electronics And Telecommunications Research Institute Method and apparatus for measuring video quality based on detection of change in perceptually sensitive region
KR102192017B1 (en) * 2019-07-16 2020-12-16 연세대학교 산학협력단 Method and Apparatus for Assessing Visual Quality of Video Based on Human Visual System

Also Published As

Publication number Publication date
KR20130107687A (en) 2013-10-02

Similar Documents

Publication Publication Date Title
KR101327709B1 (en) Apparatus for monitoring video quality and method thereof
US8488915B2 (en) Automatic video quality measurement system and method based on spatial-temporal coherence metrics
Ma et al. Reduced-reference video quality assessment of compressed video sequences
US8184164B2 (en) Method for measuring multimedia video communication quality
KR101857842B1 (en) Method and apparatus for objective video quality assessment based on continuous estimates of packet loss visibility
Søgaard et al. Applicability of existing objective metrics of perceptual quality for adaptive video streaming
US20140286441A1 (en) Video quality measurement
EP2413604B1 (en) Assessing the quality of a video signal during encoding or compressing of the video signal
Konuk et al. A spatiotemporal no-reference video quality assessment model
WO2010103112A1 (en) Method and apparatus for video quality measurement without reference
JP4514155B2 (en) Video quality evaluation apparatus, method and program
Ma et al. Reduced reference video quality assessment based on spatial HVS mutual masking and temporal motion estimation
Vega et al. Accuracy of no-reference quality metrics in network-impaired video streams
Alvarez et al. A flexible QoE framework for video streaming services
Uzair et al. An efficient no-reference blockiness metric for intra-coded video frames
Cerqueira et al. Video artifacts assessment for live mobile streaming applications
Ong et al. Video quality monitoring of streamed videos
KR100612667B1 (en) Apparatus and Methods for Objective Assessment of Video Quality
Vu et al. ViMSSIM: from image to video quality assessment
Shi et al. A user-perceived video quality assessment metric using inter-frame redundancy
Liu et al. Perceptual quality measurement of video frames affected by both packet losses and coding artifacts
EP2786566A1 (en) Distortion/quality measurement
Kumar et al. Video quality assessment methods: A bird’s-eye view
Ramancha Performance Analysis Of No-reference Video Quality Assessment Methods For Frame Freeze and Frame Drop Detection
EP2798846B1 (en) Assessing packet loss visibility in video

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161027

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee