KR20130090881A - 비디오 품질을 측정하기 위한 방법 및 장치 - Google Patents

비디오 품질을 측정하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20130090881A
KR20130090881A KR1020137002489A KR20137002489A KR20130090881A KR 20130090881 A KR20130090881 A KR 20130090881A KR 1020137002489 A KR1020137002489 A KR 1020137002489A KR 20137002489 A KR20137002489 A KR 20137002489A KR 20130090881 A KR20130090881 A KR 20130090881A
Authority
KR
South Korea
Prior art keywords
video sequence
parameter
frame
quality
immediately preceding
Prior art date
Application number
KR1020137002489A
Other languages
English (en)
Inventor
시아오동 구
데빙 리우
지보 첸
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20130090881A publication Critical patent/KR20130090881A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

본 발명은 비디오 시퀀스의 품질을 측정하기 위한 방법 및 대응 장치를 제공한다. 비디오 시퀀스는 복수의 프레임들로 구성되며, 상기 프레임들 중에서 하나의 또는 그 이상의 연속 프레임들이 손실된다. 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 비디오 시퀀스의 상기 바로 이전 프레임으로 대체된다. 본 방법은 상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터, 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터, 및 비디오 시퀀스의 코히런트 모션들(coherent motions)과 관련된 제3 파라미터의 함수로서 비디오 시퀀스의 품질을 측정하는 단계를 포함한다.

Description

비디오 품질을 측정하기 위한 방법 및 장치{METHOD AND APPARATUS FOR MEASURING VIDEO QUALITY}
본 발명은 일반적으로 비디오 품질에 관한 것으로, 특히, 프레임 손실에 의해 왜곡된 비디오 시퀀스의 품질을 측정하기 위한 방법 및 장치에 관한 것이다.
본 섹션은, 후술 및/또는 이하에 청구된 본 발명의 각종 양상들과 관련될 수 있는, 본 기술의 각종 양상들을 독자에게 소개하려고 의도된 것임을 주지해야만 한다. 본 설명은 본 발명의 각종 양상들의 더 나은 이해를 용이하게 하기 위해 배경 정보를 독자에게 제공하는데 도움이 된다고 생각된다. 따라서, 이러한 진술들은 종래 기술의 인용으로서가 아니라, 이러한 견지에서 읽혀질 것임을 알아야만 한다.
무선 통신 기술의 신속한 발달로 인해, 비디오 폰, 비디오 스트리밍 및 비디오 브로드캐스팅을 사용하는 비디오 통신이 더욱더 인기가 있어지고 있다. 이러한 종류의 통신 프로세스에서, 압축된 미디어 데이터의 패킷들은 불안정한 네트워크들을 통해 송신될 수 있으며, 이 기간 중에, 공간적 및 시간적 왜곡들이 압축시의 데이터 손실 또는 송신시의 패킷 손실에 의해 야기될 수 있다. 네트워크의 비트 레이트 적응 기술들 및 패킷 손실은 인지된 비디오 품질 저하의 근원일 수 있다. 소스 코딩 스테이지에서, 시간적인 다운-샘플링은 비트 레이트 적응에 사용된 기술들 중 하나이며, 여기서, 시퀀스들은 비디오의 모션 연속성에 영향을 주는 프레임 드롭 오퍼레이션(a frame dropping operation)을 겪는다.
지각적 지터(a perceptual jitter)는 프레임 손실에 의해 야기된 흔한 비디오 품질 저하이다. 일반적으로 말해서, 지각적 지터는 비디오 프레임 시퀀스의 하나의 또는 그 이상의 연속 프레임들이 비디오 스트리밍 중에 손실되고, 그 후, 다음 디스플레이 스테이지에서 정확하게 수신된 최종 프레임으로 대체되는 경우에 인식된 일종의 일시적인 아티팩트이다. 도 1은 프레임 드롭 또는 폐기 등의 프레임 손실에 의해 야기된 지각적 지터를 도시한 일례의 도면이다. 프레임 손실 프로세스 및 비디오 품질에 대한 그 영향은 도 1에 도시되어 있다. 도 1의 라인은 한 객체의 이동 궤적(moving trajectory)을 나타내고, X-축은 시간이며 Y-축은 객체 위치이다. 시간 B0 및 시간 B 사이의 프레임들이 드롭된다. 이러한 경우에, 시간 B0에서 정확하게 수신된 최종 프레임이 시간 B에서 새로운 프레임이 정확하게 수신될 때까지 디스플레이될 것이기 때문에, 디스플레이된 객체는 이러한 기간 중에 정지 상태로 유지될 것이며, 그 후 새로운 위치로 즉시 점프할 것이다. 이러한 기간이 비교적 짧고 객체 이동이 경미하면, 시청자는 객체가 무엇을 할 것인지를 추측할 수 있으며, 모션 불연속성을 인지하지 않을 것이다. 그렇지 않으면, 시청자의 인간의 뇌는 "모션 불연속성(motion discontinuty)" 현상을 감추는 데 실패할 것이고, 이는 시청자가 이러한 일시적인 아티팩트를 인식하게 한 것이다.
지각적 지터들에 의해 야기된 일시적인 저하들의 지각적인 영향을 평가하기 위해 약간의 연구들이 실행되었다. 종래 기술1에 기술된 특정 주관적인 테스트들에 기초하여, 드롭된 프레임들의 수의 증가로 지각적 품질이 감소된다고 결론이 났다. 상기 결론은 지각적인 영향이 매우 콘텐츠 종속적이라는 결론으로 종래 기술2에 의해 수행된 연구에 의해 확장되었다. 종래 기술3의 결론은 상술된 2개의 종래 기술들과 유사하지만, 모션 액티비티(motion activity)가 될 종속된 콘텐츠 요인 - 낮은 모션 액티비티를 가진 비디오는 높은 모션 액티비티 비디오만큼 많이 지터들의 존재로 지각적 품질로부터 고통을 받지 않음을 명시한다. 양적인 모델이 또한 상술된 가정들에 기초하여 제안된다.
그러나, 아직 지각적 지터에 대해 유용한 체계적인 평가 기법이 없다.
본 발명인들의 연구는, 복수의 프레임들로 구성된 비디오 시퀀스의 하나의 또는 그 이상의 연속 프레임들이 손실되고, 다음 디스플레이 스테이지에서, 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 비디오 시퀀스의 상기 바로 이전 프레임으로 대체될 때, 왜곡된 비디오 시퀀스의 품질은 이하의 3개의 파라미터들: 상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 파라미터, 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 파라미터, 및 비디오 시퀀스의 코히런트 모션들(coherent motions)과 관련된 파라미터에 의해 주로 영향을 받을 것임을 보여준다.
상술된 견지에서, 본 발명은 상기 3개의 파라미터들의 함수로서 프레임 손실에 의해 왜곡된 비디오 시퀀스의 비디오 품질을 측정하기 위한 방법 및 장치를 제공한다.
본 발명의 일 양상은 복수의 프레임들로 구성된 비디오 시퀀스의 품질을 측정하기 위한 방법을 제공하는데, 상기 프레임들 중에서 하나의 또는 그 이상의 연속 프레임들이 손실되고, 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 비디오 시퀀스의 상기 바로 이전 프레임으로 대체된다. 본 방법은 상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터, 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터, 및 비디오 시퀀스의 코히런트 모션들과 관련된 제3 파라미터의 함수로서 비디오 시퀀스의 품질을 측정하는 단계를 포함한다.
본 발명의 다른 양상은 복수의 프레임들로 구성된 비디오 시퀀스의 품질을 측정하기 위한 장치를 제공하는데, 상기 프레임들 중에서 하나의 또는 그 이상의 연속 프레임들이 손실되고, 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 비디오 시퀀스의 상기 바로 이전 프레임으로 대체된다. 본 장치는 상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터를 획득하도록 적응된 제1 측정 유닛; 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터를 획득하도록 적응된 제2 측정 유닛; 비디오 시퀀스의 코히런트 모션들과 관련된 제3 파라미터를 획득하도록 적응된 제3 측정 유닛; 및 제1 파라미터, 제2 파라미터 및 제3 파라미터의 함수로서 비디오 시퀀스의 품질의 결과를 획득하도록 적응된 결합 유닛을 포함한다.
본 발명의 유익한 실시예들은 종속항들, 이하의 설명 및 도면들에 기술된다.
본 발명의 일례의 실시예들이 첨부 도면들을 참조해서 기술된다.
도 1은 프레임 드롭 또는 폐기에 의해 야기된 지각적 지터(a perceptual jitter)를 도시한 일례의 도면이다.
도 2는 본 발명의 일 실시예에 따른 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 방법의 작업 흐름을 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 장치의 하이-레벨 블록도이다.
도 4는 비디오 품질의 주관적 테스트를 받도록 설계된 소프트웨어 도구의 인터페이스를 도시한 도면이다.
본 발명의 일 실시예는 비디오 스트리밍 시스템을 참조해서 기술될 것이다. 일 실시예에 따라, 비디오 시퀀스의 하나의 또는 그 이상의 연속 프레임들이 스트리밍 중에 손실되고, 비디오 시퀀스의 다음 프레임이 정확하게 수신되기 전에 디스플레이에서 정확하게 수신된 최종 프레임으로 대체될 때, 비디오 시퀀스의 지각적 지터는 이하의 3개의 양상들에 의해 영향을 받을 것이다:
1) 프레임 프리즈(Frame Freeze): 하나의 또는 그 이상의 연속 프레임들이 손실될 때 정확하게 수신된 최종 프레임의 디스플레이로부터 다음 프레임의 디스플레이까지의 기간 중에 정적/프리즈 상태를 유지하는 정확하게 수신된 최종 프레임에 의해 야기된 효과.
2) 모션 불연속성, 상술된 기간 중에 정확하게 수신된 최종 프레임 및 다음 프레임 간의 불연속성으로 인해 객체 이동이 불연속성이 되는 효과. 예를 들어, 시청자가 비디오의 농구공에 집중할 때, 모션 불연속성은, 농구공이 짧은 기간 동안 사라지고 후에 다른 장소에서 갑자기 나타남을 의미한다.
3) 심리적 저크(psychological jerk), 코히런트 모션들, 특히 카메라 모션들에 의해 야기된 효과. 구체적으로 말해서, 하나의 또는 그 이상의 연속 프레임들이 최종 팬 시나리오에서 손실될 때, 발생된 매우 많은 양의 심리적 활동들로 두 눈과 뇌가 빨리 피곤하게 되기에, 시청자 지각은 매우 감소될 것이다.
상술된 견지에서, 본 발명의 실시예는 상기 3개의 효과들과 각각 관련된 3개의 파라미터들의 함수로서 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기를 제안한다.
본 발명의 실시예의 일 양상은 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 방법을 제공한다.
도 2는 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 방법의 작업 흐름을 도시한 흐름도이다.
도 2에 도시된 바와 같이, 본 방법은 이하의 단계들:
S201 : 프레임 손실에 의해 왜곡된 비디오 시퀀스의 프레임 프리즈를 평가하는 단계
S202 : 프레임 손실에 의해 왜곡된 비디오 시퀀스의 모션 불연속성을 평가하는 단계
S203 : 프레임 손실에 의해 왜곡된 비디오 시퀀스의 심리적 저크를 평가하는 단계
S204 : 3개의 앞선 단계들의 결과들의 결합에 의해 비디오 시퀀스의 지각적 지터를 측정하는 단계
를 포함한다.
한 변형에 따라, 단계 S204는 전부가 아니라 상기 3개의 결과들로부터 선택된 2개의 결과들을 결합한다.
본 발명의 실시예의 다른 양상은 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 장치를 제공한다.
본 발명의 실시예에 따라, 먼저 상기 3개의 효과들 각각은 장치에 의해 따로따로 평가될 것이고, 그 후, 전체 지각적 지터 측정 결과가 3개의 개별 결과들의 결합에 의해 획득될 것이다.
도 3은 비디오 시퀀스의 지각적 지터를 측정하기 위한 장치(300)의 하이-레벨 블록도이다. 도 3에 도시된 바와 같이, 장치(300)의 입력은 하나의 또는 그 이상의 연속 프레임 손실을 가진 왜곡된 비디오 시퀀스이고, 그 출력은 왜곡된 비디오 시퀀스의 하나의 또는 그 이상의 연속 프레임 손실에 의해 야기된 품질 저하 레벨을 나타내는 값이며, 이 경우에는 지각적 지터이다.
장치(300)는: 왜곡된 비디오 시퀀스를 수신하고 프레임 프리즈에 의해 야기된 비디오 시퀀스의 지각적 지터를 평가하기 위한 프레임 프리즈 평가 모듈(301); 왜곡된 비디오 시퀀스를 수신하고 모션 불연속성에 의해 야기된 비디오 시퀀스의 지각적 지터를 평가하기 위한 모션 불연속성 평가 모듈(302); 왜곡된 비디오 시퀀스를 수신하고 심리적 저크에 의해 야기된 비디오 시퀀스의 지각적 지터를 평가하기 위한 심리적 저크 평가 모듈(303); 및 모듈들(301, 302 및 303)로부터의 출력들을 수신하고 상기 출력들을 프레임 손실에 의해 야기된 전체 지각적 지터 측정 결과로 결합하기 위한 결합 모듈(304)을 포함한다.
다음으로, 장치(300)의 동작이 상세히 설명될 것이다.
먼저, 일부 통지 사항들이 후술될 것이다:
실시예의 이하의 설명에서, 원래의 비디오 시퀀스를 V = {f1,f2,...,fN} 라고 표기한다. 프레임들 fk +1,fk +2,...,fm -1이 송신 중에 손실된다고 가정하고, 스트리밍된 비디오 시퀀스/왜곡된 비디오 시퀀스를 V' = {f'1,f'2,...,f'N} 라고 표기한다.
여기서,
Figure pct00001
요컨대, 장치(300)는 원래의 시퀀스의 m-k-1 프레임들이 손실될 때 왜곡된 비디오 시퀀스의 프레임들 fk' 및 fm' 간의 일시적인 품질 저하의 레벨을 평가하는데 사용된다.
이하의 설명에서, FPS를 프레임 레이트라고 표기하고, T = (m-k)/FPS를 디스플레이 콘텐츠가 정적인 상태를 유지하는 fk' 및 fm' 간의 시간 기간이라고 표기한다. MVi ,x,y를 비디오 시퀀스 V의 i번째 프레임에서 (x,y)로 인덱싱된 매크로-블록의 모션 벡터라고 표기한다.
1. 프레임 프리즈 평가 모듈(301)
본 발명의 일 실시예에 따라, 프레임 프리즈 평가 모듈(301)은 이하의 수학식 1에 의해 프레임 프리즈에 의해 야기된 비디오의 지각적 지터를 측정할 수 있다:
Figure pct00002
시청자는 매우 낮은 모션을 가진 극히 정적인 비디오 시퀀스의 프레임 프리즈를 인식하지 않을 것임을 알 수 있다. 상기 수학식 1에서, g1(MVk)는 MVk가 비디오 시퀀스 V의 k번째 프레임의 모션 벡터들의 측정인 경우를 식별하는데 사용된다.
Figure pct00003
수학식 1에서, g2(T)는 프레임 프리즈에 의해 야기된 지각 효과(perceptual effect)의 평가의 중요한 인자인 프레임 프리즈 T의 시간 기간을 식별하는데 사용된다.
Figure pct00004
위에 도시된 바와 같이, 시간 기간이 상수 (T < c2)보다 더 작으면, 인간 뇌는 프레임 프리즈 전 후의 이미지들을 연결하려고 노력할 것이고, 이는 이 기간을 연속 동작(a continuous movement)으로 설명할 것이다. 이 경우에, 시청자는 프레임 프리즈 자체를 인식하지 않을 것이다.
2. 모션 불연속성 평가 모듈(302)
비디오 브라우징에서, 시청자의 눈 움직임들은 3개의 타입들: 단속적 운동(saccade), 고정(fixation) 및 평활 추적(smooth pursuit)으로 주로 분해될 수 있다. 단속적 운동은 시청자가 시계를 탐험할 수 있게 하는 매우 신속한 눈 움직임이다. 고정은 시계의 특정 영역에 시선이 고정될 때의 눈의 잔류 움직임이다. 추적 움직임(a pursuit movement)은 이동하는 객체의 이미지를 평활하게 추적하는 눈의 기능이다.
시청자는 고정/평활 추적 스테이지로부터 주로 정보를 학습한다. 이러한 스테이지들에서, 인간의 눈은 관심 있는 객체의 작은 영역에 집중된다. 프레임 손실이 발생할 때, 인간의 눈은 새로운 프레임이 정확하게 송신될 때까지 정지 상태를 유지한다. 그 후, 현재 집중된 영역의 픽셀 값들이 차이가 클수록, 모션 불연속성을 알아채기가 더 쉬워짐을 알 것이다.
상술된 설명에 따라, 모션 불연속성 평가 모듈(302)은 이하의 수학식 2에 의해 모션 불연속성에 의해 야기된 지각적 지터를 평가할 수 있다.
Figure pct00005
여기서, N은 픽셀들의 수이고, pi ,j는 프레임 f'j의 i번째 픽셀의 픽셀 값을 나타낸다.
3. 심리적 저크 평가 모듈(303)
객체 움직임에 의해 야기되는 모션 불연속성의 효과와 달리, 심리적 저크의 효과는 전반적인 카메라 모션에 의해 야기된다.
도 1을 참조해서 상술된 바와 같이, 시간 B0 및 B 사이의 프레임들이 손실될 때, 시간 B0의 프레임은 시간 B에서 새로운 프레임이 송신될 때까지 정지 상태를 유지할 것이다. 그러나, 시청자가 인식하는 것은 정확히 이와 같지 않다. 비디오 콘텐츠가 갑자기 시간 B0에서 정지 상태가 될 때, 시청자 뇌는 시간 B0 전과 동일한 속도로 객체 움직임을 설명하고 당연히 시간 B0 및 B의 콘텐츠를 연결하려고 시도할 것이다. B0 및 B 사이의 시간 기간이 짧을 때, 뇌는 "가현운동 이론(apparent movement theory)"에 따라 성공한다. 그렇지 않으면, 실패한다. 인간 뇌가 본 설명에서 성공하든지 실패하든 지와 무관하게, 많은 심리적 활동들이 발생한다.
전반적인 카메라 모션에 따라 비디오 시퀀스에서 프레임 손실이 발생할 때, 비디오 시퀀스의 각각의 픽셀은 이러한 종류의 심리적 활동들을 요청한다. 그 결과로서, 시청자는 이러한 종류의 아티팩트를 대할 때 더 쉽게 피로감과 불만을 느낀다. 이러한 종류의 효과는 본 발명에서 "심리적 저크"라고 하며, 카메라 모션의 레벨로 평가될 것이다.
종래 기술4는 상술된 전반적인 모션 추정에서 사용될 수 있는 소위 8-파라미터 관점 모션 모델을 기술한다.
Figure pct00006
여기서, (a0,...,a7)은 전반적인 모션 파라미터들이고, (xi,yi)는 현재 프레임의 i번째 픽셀의 공간적 좌표들을 나타내며, (x'i,y'i)는 이전 프레임의 대응 픽셀의 좌표들을 나타낸다. 모션 모델 파라미터들 및 심볼-레벨 해석 간의 관계는 다음과 같이 설정된다:
Figure pct00007
상기 알고리즘들의 도움으로, 심리적 저크 평가 모듈(303)은 이하의 수학식 3에 의해 프레임 프리즈에 의해 야기된 비디오의 지각적 지터를 평가할 수 있다:
Figure pct00008
여기서, c4는 값을 범위 [0, 1]로 정규화하는 계수이다.
카메라 동작들이 상이한 종류들의 영향을 지각적 지터에 끼치기 때문에, 상이한 가중치 계수가 상이한 카메라 동작들(팬(pan), 틸트(tilt) 및 줌(zoom))에 적용될 수 있다.
4. 결합 모듈(304)
모듈들(301, 302 및 303)로부터의 평가 출력들은 전체 지각적 지터 측정 결과를 획득하기 위해 결합 모듈(304)에 의해 결합될 것이다.
일례로서, 선형 결합(a linear combination)이 전체 지각적 지터 측정 결과를 획득하기 위해 결합 모듈(304)에 의해 사용될 수 있다. 선형 결합은 이하의 수학식 4에 의해 기술될 수 있다:
Figure pct00009
여기서, 3개의 계수들 k1, k2 및 k3은 실험에 의해 결정된다.
데이터세트 DS = {si|i = 1,2,...,M}은 주관적인 테스트 기술에 의해 수집된다. 데이터세트의 각각의 샘플 si는 프레임 손실을 가진 송신된 비디오 샷이다. DF(i), DD(i), DP(i)는 각각 si의 프레임 프리즈, 모션 불연속성 및 심리적 저크의 지각적 감정 평가를 나타낸다.
J1(i)는 수학식 4에 따른 샘플 si에 대한 지각적 지터의 객관적인 평가를 나타내고, JS(i)는 샘플 si에 대한 지각적 지터의 주관적인 스코어를 나타낸다고 가정하라. 그 후, 계수들 k1, k2 및 k3은 이하의 수학식에 의해 결정될 수 있다:
Figure pct00010
대안으로, 기계 학습(a machine learning)이 또한 전체 지각적 지터 측정 결과를 획득하도록 적용될 수 있다. 즉, DF, DD 및 DP는 추출된 피처들이고, 그 다음 지각적 지터의 전체 평가는 기계 출력이라고 가정한다. 이러한 경우에, ANN(Artificial Neural Network)가 도 3에 도시된 학습 기계(a training machine)(305)로서 채택될 수 있으며, 이는 다음과 같이 표현될 수 있다:
Figure pct00011
결합 모듈(304)에서, 일부 계수들은 프레임 프리즈, 모션 불연속성 및 심리적 저크에 대한 시청자의 상이한 민감도(sensitivity)를 나타내는 가중된 값으로서 요구된다. 이러한 계수들의 값들의 디폴트 집합이 데이터세트에서 학습에 의해 제공된다. 그러나, 상이한 사람들, 상이한 애플리케이션 시나리오들에 대해, 이러한 값들은 변경될 수 있다.
도 4는 비디오 시퀀스의 품질의 주관적 테스트를 받도록 설계된 소프트웨어 도구의 인터페이스를 도시한 도면이다. 도 3에 도시된 바와 같이, 비디오 시퀀스로부터의 랜덤 클립이 시퀀스의 랜덤 위치에서 랜덤 길이로 연속 프레임 손실을 가진 채로 디스플레이된다.
시청자는 다음과 같이 지터의 인식을 표시할 필요가 있다:
0 - 인식된 품질 저하가 없음;
1 - 품질 저하가 인식될 수 있지만, 매우 성가시지는 않음;
2 - 명백한 품질 저하, 매우 성가심.
주관적인 스코어는 JS로 표기된다. 표시된 스코어를 가진 모든 시퀀스는 데이터세트 DS를 구성한다.
다음으로, 주관적인 테스트를 위한 파라미터 세팅이 기술될 것이다.
테스트에서, 상수들은 경험상으로 결정된다. β1 = β2 = 1, β3 = 2; c1 = 1; c2 = 1/15(s), c3 = 1/3(s).
디폴트 값은 주관적인 테스트에 따라 J1의 평가의 k1, k2 및 k3 및 J2의 평가의 학습 기계 파라미터들 각각에 할당된다. 그러나, 프레임 프리즈, 모션 불연속성 및 심리적 저크의 지각적 감정들은 매우 상이하며 독립적일 수 있다. 즉, 몇몇 사람들은 심리적 저크에 매우 민감할 수 있으나, 일부 다른 사람들은 자신이 집중한 객체의 모션 불연속성을 싫어할 수 있다. 따라서, 지각적 지터의 전체 평가에 대한 프레임 프리즈, 모션 불연속성 및 심리적 저크의 지각적 감정의 기여도(contribution)는 상이한 애플리케이션 시나리오 및 상이한 사람에 대해 꽤 상이할 수 있다.
유연성의 경우, 한 구성 집합이 평균 방식으로 이 파라미터들에 제공된다. 그러나, 이러한 값 세팅들은 변경될 수 있다.
상술된 바와 같이, 선형 결합 또는 기계 학습이 전체 지각적 지터 측정 결과를 획득하기 위해 결합 모듈(304)에 의해 사용될 수 있다. 상기 2개의 옵션들의 예측 정확성들이 객관적인 평가 결과 (J1/J2)를 주관적인 스코어 Js와 비교함으로써 측정된다. 피어슨 상관 관계(Pearson Correlation)가 이러한 예측 정확성 측정에 사용될 수 있다.
이하의 표는 본 발명 및 종래 기술 3에서 제안된 방법의 피어슨 상관 관계(예측 정확성)를 제공한다. 예측 정확성들은 200개의 샘플들(2 명의 시청자들)로 테스트되었다.
Figure pct00012
"스킵을 갖는 일시정지(pausing with skipping)"는, 비디오가 일부 시간 기간 동안 일시정지한 후 비디오 정보의 일부 손실을 가지고 재시작하는 이벤트들로서 정의된, 불안정한 네트워크 상태에서의 정상 플레이 모드이다. 스킵을 갖는 일시정지의 일례는 한 쌍의 IP 비디오폰들이며, 이때에, 과중한 네트워크 트래픽은 IP 비디오폰 디스플레이가 잠시 프리즈하게 야기하고; IP 비디오폰 디스플레이가 계속될 때 일부 콘텐츠가 손실되었다. 다른 일례는 일정한 프레임 스킵 또는 가변 프레임 스킵을 실행하는 화상 회의 시스템이다. 스킵을 갖는 일시정지를 포함하는 처리된 비디오 시퀀스는 연관된 원래의 비디오 시퀀스와 거의 동일한 지속 기간일 것이다. [- VQEG MM 테스트 플랜으로부터 참조됨]
제안된 지각적 지터 측정 방법 및 장치는 임의의 "스킵을 갖는 일시정지"에서 도입된 품질 저하의 수를 매기는데 직접 적용될 수 있다.
또한, 제안된 알고리즘의 도움으로 도입된 품질 저하를 최소화하면서 대역폭 제한 조건들에서 드롭될 프레임들을 적응하여 선택할 수 있다. 비디오 시퀀스의 각각의 프레임의 일시적인 중요성이 손실된 프레임들의 수를 상수로 설정함으로써 측정될 수 있다.
상술된 바는 단지 본 발명의 실시예를 설명할 것이며, 따라서, 본 명세서에 명백히 기술되지 않더라도, 당업자가 본 발명의 원리들을 구현하고 그 사상 및 범위 내에 속한 다수의 대안적인 구성들을 창안할 수 있음을 알 것이다.
본 설명 및 (적절한 경우에) 청구항들 및 도면들에 기술된 각각의 특징은 독립적으로 또는 임의의 적합한 조합으로 제공될 수 있다. 특징들은, 적합한 경우에, 하드웨어, 소프트웨어, 또는 그 둘의 조합으로 구현될 수 있다. 청구항들에 나타나는 참조 부호들은 오직 일례이며 청구항들의 범위에 제한적인 영향을 주지 않는다.
1 Y.N.Qi, M.Y.Dai, "The Effect of Frame Freezing and Frame Skipping on Video Quality", 2006 International Conference on Intelligent Information Hiding and Multimedia, pp423-426.
2 M.Ghanbari, Q.Huynh-Thu, "Impact of Jitter and Jerkiness on Perceived Video Quality", 2nd International Workshop on Video Processing and Quality Metrics for Consumer Electronics, Scottsdale, USA, 22-24, Jan.2006
3 K.C.Yang, C.C.Guest, K.El-Maleh, P.K.Das, "Perceptual Temporal Quality Metric for Compressed Video", IEEE Transaction on Multimedia, Vol.9, No.7, Nov.2007, pp.1528-1535.
4 L.Y.Duan, J.Q.Wang 외 다수, "Shot-Level Camera Motion Estimation based on a Parametric Model"

Claims (10)

  1. 하나의 또는 그 이상의 연속 프레임들이 손실된 복수의 프레임들로 구성된 비디오 시퀀스의 품질을 측정하기 위한 방법으로서,
    상기 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 상기 비디오 시퀀스의 바로 이전 프레임으로 대체되며,
    상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터 (DF), 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터 (DD), 및 상기 비디오 시퀀스의 코히런트 모션들(coherent motions)과 관련된 제3 파라미터 (DP)의 함수로서 상기 비디오 시퀀스의 품질을 측정하는 단계를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 비디오 시퀀스의 품질은 상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)의 선형 결합(a linear combination)(K1×DF + K2×DD + K3×DP)으로서 측정되고,
    상기 선형 결합의 계수들(K1, K2 및 K3)은 실험에 의해 결정되는 방법.
  3. 제1항에 있어서,
    상기 비디오 시퀀스의 품질은 상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)의 기계 학습에 의해 측정되는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 파라미터 (DF)는 상기 바로 이전 프레임의 모션 벡터 및 상기 기간의 길이의 함수로서 결정되는 방법.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제2 파라미터 (DD)는 상기 바로 이전 프레임 및 상기 바로 다음 프레임의 픽셀 값들 및 픽셀 번호들의 함수로서 결정되는 방법.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 코히런트 모션은 카메라에 의한 상기 비디오 시퀀스의 생성 중의 카메라 모션인 방법.
  7. 제6항에 있어서,
    상기 카메라 모션은 상기 비디오 시퀀스의 생성 중의 상기 카메라의 팬(pan), 틸트(tilt) 및 줌(zoom) 동작들을 포함하는 방법.
  8. 하나의 또는 그 이상의 연속 프레임들이 손실된 복수의 프레임들로 구성된 비디오 시퀀스의 품질을 측정하기 위한 장치(300)로서,
    상기 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 상기 비디오 시퀀스의 바로 이전 프레임으로 대체되며,
    상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터 (DF)를 획득하도록 적응된 제1 측정 유닛(301);
    상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터 (DD)를 획득하도록 적응된 제2 측정 유닛(302);
    상기 비디오 시퀀스의 코히런트 모션들과 관련된 제3 파라미터 (DP)를 획득하도록 적응된 제3 측정 유닛(303); 및
    상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)의 함수로서 상기 비디오 시퀀스의 품질의 결과를 획득하도록 적응된 결합 유닛(304)
    을 포함하는 것을 특징으로 하는 장치(300).
  9. 제8항에 있어서,
    상기 결합 유닛(304)은 상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)의 선형 결합(K1×DF + K2×DD + K3×DP)에 의해 상기 비디오 시퀀스의 품질의 결과를 획득하고, 상기 선형 결합의 계수들(K1, K2 및 K3)은 실험에 의해 결정되는 장치(300).
  10. 제8항에 있어서,
    상기 결합 유닛(304)은 상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)에 대한 학습 기계(a training machine)(305)의 기계 학습에 의해 상기 비디오 시퀀스의 품질의 결과를 획득하는 장치(300).
KR1020137002489A 2010-07-30 2010-07-30 비디오 품질을 측정하기 위한 방법 및 장치 KR20130090881A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2010/001150 WO2012012914A1 (en) 2010-07-30 2010-07-30 Method and apparatus for measuring video quality

Publications (1)

Publication Number Publication Date
KR20130090881A true KR20130090881A (ko) 2013-08-14

Family

ID=45529342

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137002489A KR20130090881A (ko) 2010-07-30 2010-07-30 비디오 품질을 측정하기 위한 방법 및 장치

Country Status (8)

Country Link
US (1) US8675075B2 (ko)
EP (1) EP2599310B1 (ko)
JP (1) JP5751648B2 (ko)
KR (1) KR20130090881A (ko)
CN (1) CN103385000A (ko)
AU (1) AU2010358309B2 (ko)
BR (1) BR112013002361A2 (ko)
WO (1) WO2012012914A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6010625B2 (ja) * 2011-11-28 2016-10-19 トムソン ライセンシングThomson Licensing 歪み/品質測定
US10489389B2 (en) 2012-06-07 2019-11-26 Wormhole Labs, Inc. Experience analytic objects, systems and methods
US10649613B2 (en) 2012-06-07 2020-05-12 Wormhole Labs, Inc. Remote experience interfaces, systems and methods
KR20150052049A (ko) * 2012-08-27 2015-05-13 톰슨 라이센싱 비디오 품질 평가를 위해 모션 균일성을 추정하기 위한 방법 및 장치
FR2996978B1 (fr) * 2012-10-11 2015-10-16 Tdf Detection de gel d'image
CN103747238B (zh) * 2013-02-20 2015-07-08 华为技术有限公司 视频静止失真程度评估方法和装置
CN105049915B (zh) * 2015-06-30 2019-01-22 株洲南车时代电气股份有限公司 一种机车视频数据完整性自动检测方法
CN108632666B (zh) * 2017-03-15 2021-03-05 华为技术有限公司 一种视频检测方法及视频检测设备
WO2020158095A1 (ja) * 2019-02-01 2020-08-06 株式会社Nttドコモ 評価装置
CN115706835A (zh) * 2021-08-06 2023-02-17 腾讯科技(深圳)有限公司 一种数据传输方法及相关装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10150665A (ja) * 1996-09-20 1998-06-02 Hitachi Ltd 予測画像の作成方法及び画像符号化方法及び画像符号化装置
US6804294B1 (en) * 1998-08-11 2004-10-12 Lucent Technologies Inc. Method and apparatus for video frame selection for improved coding quality at low bit-rates
CN100477789C (zh) * 2003-06-20 2009-04-08 松下电器产业株式会社 一种基于运动联合图像专家组2000的图像帧间增强方法
US9025673B2 (en) * 2006-04-05 2015-05-05 Qualcomm Incorporated Temporal quality metric for video coding
US8494052B2 (en) * 2006-04-07 2013-07-23 Microsoft Corporation Dynamic selection of motion estimation search ranges and extended motion vector ranges
CN100559880C (zh) * 2007-08-10 2009-11-11 中国传媒大学 一种基于自适应st区的高清视频图像质量评价方法及装置
JP4802183B2 (ja) * 2007-12-28 2011-10-26 日本電信電話株式会社 マルチメディア総合品質推定方法および装置
CN100559881C (zh) * 2008-05-09 2009-11-11 中国传媒大学 一种基于人工神经网络的视频质量评价方法

Also Published As

Publication number Publication date
US20130120587A1 (en) 2013-05-16
AU2010358309B2 (en) 2014-12-04
BR112013002361A2 (pt) 2016-05-24
EP2599310A4 (en) 2015-12-02
EP2599310B1 (en) 2018-04-04
JP5751648B2 (ja) 2015-07-22
AU2010358309A1 (en) 2013-02-14
CN103385000A (zh) 2013-11-06
EP2599310A1 (en) 2013-06-05
WO2012012914A1 (en) 2012-02-02
US8675075B2 (en) 2014-03-18
JP2013537748A (ja) 2013-10-03

Similar Documents

Publication Publication Date Title
KR20130090881A (ko) 비디오 품질을 측정하기 위한 방법 및 장치
Duanmu et al. A quality-of-experience index for streaming video
CN111193923B (zh) 视频质量评估方法、装置、电子设备及计算机存储介质
Li et al. Visual attention guided bit allocation in video compression
KR100977694B1 (ko) 비디오 코딩용 순간 품질 메트릭
Lin et al. A versatile model for packet loss visibility and its application to packet prioritization
Ou et al. Modeling the impact of frame rate on perceptual quality of video
EP2439953A1 (en) Method and device for obtaining video quality parameter and electronic equipment
KR101602032B1 (ko) 프레임 유사성들 및 시각적 품질 및 관심들에 기초한 프레임 인코딩 선택
CN107454446A (zh) 基于体验质量分析的视频帧管理方法及其装置
Feng et al. Saliency inspired full-reference quality metrics for packet-loss-impaired video
Liotta et al. Instantaneous video quality assessment for lightweight devices
Huang et al. Perceptual quality driven frame-rate selection (PQD-FRS) for high-frame-rate video
Nemethova et al. PSNR-based estimation of subjective time-variant video quality for mobiles
Leszczuk Assessing task-based video quality—a journey from subjective psycho-physical experiments to objective quality models
Ghadiyaram et al. Subjective and objective quality assessment of mobile videos with in-capture distortions
Salas et al. Subjective quality evaluations using crowdsourcing
Ickin et al. Studying the challenges in assessing the perceived quality of mobile-phone based video
Grbić et al. Real-time video freezing detection for 4K UHD videos
Zach et al. On use of crowdsourcing for H. 264/AVC and H. 265/HEVC video quality evaluation
Mittag et al. LSTM-Based Video Quality Prediction Accounting for Temporal Distortions in Videoconferencing Calls
Shi et al. A user-perceived video quality assessment metric using inter-frame redundancy
Yang et al. A new objective quality metric for frame interpolation used in video compression
Narapareddy QoE Performance Evaluation by Introducing Video Freeze on Mobile Multimedia
Kumar et al. Video quality assessment methods: A bird’s-eye view

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right