KR20130090881A - 비디오 품질을 측정하기 위한 방법 및 장치 - Google Patents
비디오 품질을 측정하기 위한 방법 및 장치 Download PDFInfo
- Publication number
- KR20130090881A KR20130090881A KR1020137002489A KR20137002489A KR20130090881A KR 20130090881 A KR20130090881 A KR 20130090881A KR 1020137002489 A KR1020137002489 A KR 1020137002489A KR 20137002489 A KR20137002489 A KR 20137002489A KR 20130090881 A KR20130090881 A KR 20130090881A
- Authority
- KR
- South Korea
- Prior art keywords
- video sequence
- parameter
- frame
- quality
- immediately preceding
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000033001 locomotion Effects 0.000 claims abstract description 52
- 230000001427 coherent effect Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 17
- 238000011156 evaluation Methods 0.000 description 17
- 230000036461 convulsion Effects 0.000 description 13
- 238000006731 degradation reaction Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 230000015556 catabolic process Effects 0.000 description 7
- 210000004556 brain Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006854 communication Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000013442 quality metrics Methods 0.000 description 2
- 208000012661 Dyskinesia Diseases 0.000 description 1
- 206010016338 Feeling jittery Diseases 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009017 pursuit movement Effects 0.000 description 1
- 230000004461 rapid eye movement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/04—Diagnosis, testing or measuring for television systems or their details for receivers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/89—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
본 발명은 비디오 시퀀스의 품질을 측정하기 위한 방법 및 대응 장치를 제공한다. 비디오 시퀀스는 복수의 프레임들로 구성되며, 상기 프레임들 중에서 하나의 또는 그 이상의 연속 프레임들이 손실된다. 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 비디오 시퀀스의 상기 바로 이전 프레임으로 대체된다. 본 방법은 상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터, 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터, 및 비디오 시퀀스의 코히런트 모션들(coherent motions)과 관련된 제3 파라미터의 함수로서 비디오 시퀀스의 품질을 측정하는 단계를 포함한다.
Description
본 발명은 일반적으로 비디오 품질에 관한 것으로, 특히, 프레임 손실에 의해 왜곡된 비디오 시퀀스의 품질을 측정하기 위한 방법 및 장치에 관한 것이다.
본 섹션은, 후술 및/또는 이하에 청구된 본 발명의 각종 양상들과 관련될 수 있는, 본 기술의 각종 양상들을 독자에게 소개하려고 의도된 것임을 주지해야만 한다. 본 설명은 본 발명의 각종 양상들의 더 나은 이해를 용이하게 하기 위해 배경 정보를 독자에게 제공하는데 도움이 된다고 생각된다. 따라서, 이러한 진술들은 종래 기술의 인용으로서가 아니라, 이러한 견지에서 읽혀질 것임을 알아야만 한다.
무선 통신 기술의 신속한 발달로 인해, 비디오 폰, 비디오 스트리밍 및 비디오 브로드캐스팅을 사용하는 비디오 통신이 더욱더 인기가 있어지고 있다. 이러한 종류의 통신 프로세스에서, 압축된 미디어 데이터의 패킷들은 불안정한 네트워크들을 통해 송신될 수 있으며, 이 기간 중에, 공간적 및 시간적 왜곡들이 압축시의 데이터 손실 또는 송신시의 패킷 손실에 의해 야기될 수 있다. 네트워크의 비트 레이트 적응 기술들 및 패킷 손실은 인지된 비디오 품질 저하의 근원일 수 있다. 소스 코딩 스테이지에서, 시간적인 다운-샘플링은 비트 레이트 적응에 사용된 기술들 중 하나이며, 여기서, 시퀀스들은 비디오의 모션 연속성에 영향을 주는 프레임 드롭 오퍼레이션(a frame dropping operation)을 겪는다.
지각적 지터(a perceptual jitter)는 프레임 손실에 의해 야기된 흔한 비디오 품질 저하이다. 일반적으로 말해서, 지각적 지터는 비디오 프레임 시퀀스의 하나의 또는 그 이상의 연속 프레임들이 비디오 스트리밍 중에 손실되고, 그 후, 다음 디스플레이 스테이지에서 정확하게 수신된 최종 프레임으로 대체되는 경우에 인식된 일종의 일시적인 아티팩트이다. 도 1은 프레임 드롭 또는 폐기 등의 프레임 손실에 의해 야기된 지각적 지터를 도시한 일례의 도면이다. 프레임 손실 프로세스 및 비디오 품질에 대한 그 영향은 도 1에 도시되어 있다. 도 1의 라인은 한 객체의 이동 궤적(moving trajectory)을 나타내고, X-축은 시간이며 Y-축은 객체 위치이다. 시간 B0 및 시간 B 사이의 프레임들이 드롭된다. 이러한 경우에, 시간 B0에서 정확하게 수신된 최종 프레임이 시간 B에서 새로운 프레임이 정확하게 수신될 때까지 디스플레이될 것이기 때문에, 디스플레이된 객체는 이러한 기간 중에 정지 상태로 유지될 것이며, 그 후 새로운 위치로 즉시 점프할 것이다. 이러한 기간이 비교적 짧고 객체 이동이 경미하면, 시청자는 객체가 무엇을 할 것인지를 추측할 수 있으며, 모션 불연속성을 인지하지 않을 것이다. 그렇지 않으면, 시청자의 인간의 뇌는 "모션 불연속성(motion discontinuty)" 현상을 감추는 데 실패할 것이고, 이는 시청자가 이러한 일시적인 아티팩트를 인식하게 한 것이다.
지각적 지터들에 의해 야기된 일시적인 저하들의 지각적인 영향을 평가하기 위해 약간의 연구들이 실행되었다. 종래 기술1에 기술된 특정 주관적인 테스트들에 기초하여, 드롭된 프레임들의 수의 증가로 지각적 품질이 감소된다고 결론이 났다. 상기 결론은 지각적인 영향이 매우 콘텐츠 종속적이라는 결론으로 종래 기술2에 의해 수행된 연구에 의해 확장되었다. 종래 기술3의 결론은 상술된 2개의 종래 기술들과 유사하지만, 모션 액티비티(motion activity)가 될 종속된 콘텐츠 요인 - 낮은 모션 액티비티를 가진 비디오는 높은 모션 액티비티 비디오만큼 많이 지터들의 존재로 지각적 품질로부터 고통을 받지 않음을 명시한다. 양적인 모델이 또한 상술된 가정들에 기초하여 제안된다.
그러나, 아직 지각적 지터에 대해 유용한 체계적인 평가 기법이 없다.
본 발명인들의 연구는, 복수의 프레임들로 구성된 비디오 시퀀스의 하나의 또는 그 이상의 연속 프레임들이 손실되고, 다음 디스플레이 스테이지에서, 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 비디오 시퀀스의 상기 바로 이전 프레임으로 대체될 때, 왜곡된 비디오 시퀀스의 품질은 이하의 3개의 파라미터들: 상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 파라미터, 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 파라미터, 및 비디오 시퀀스의 코히런트 모션들(coherent motions)과 관련된 파라미터에 의해 주로 영향을 받을 것임을 보여준다.
상술된 견지에서, 본 발명은 상기 3개의 파라미터들의 함수로서 프레임 손실에 의해 왜곡된 비디오 시퀀스의 비디오 품질을 측정하기 위한 방법 및 장치를 제공한다.
본 발명의 일 양상은 복수의 프레임들로 구성된 비디오 시퀀스의 품질을 측정하기 위한 방법을 제공하는데, 상기 프레임들 중에서 하나의 또는 그 이상의 연속 프레임들이 손실되고, 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 비디오 시퀀스의 상기 바로 이전 프레임으로 대체된다. 본 방법은 상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터, 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터, 및 비디오 시퀀스의 코히런트 모션들과 관련된 제3 파라미터의 함수로서 비디오 시퀀스의 품질을 측정하는 단계를 포함한다.
본 발명의 다른 양상은 복수의 프레임들로 구성된 비디오 시퀀스의 품질을 측정하기 위한 장치를 제공하는데, 상기 프레임들 중에서 하나의 또는 그 이상의 연속 프레임들이 손실되고, 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 비디오 시퀀스의 상기 바로 이전 프레임으로 대체된다. 본 장치는 상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터를 획득하도록 적응된 제1 측정 유닛; 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터를 획득하도록 적응된 제2 측정 유닛; 비디오 시퀀스의 코히런트 모션들과 관련된 제3 파라미터를 획득하도록 적응된 제3 측정 유닛; 및 제1 파라미터, 제2 파라미터 및 제3 파라미터의 함수로서 비디오 시퀀스의 품질의 결과를 획득하도록 적응된 결합 유닛을 포함한다.
본 발명의 유익한 실시예들은 종속항들, 이하의 설명 및 도면들에 기술된다.
본 발명의 일례의 실시예들이 첨부 도면들을 참조해서 기술된다.
도 1은 프레임 드롭 또는 폐기에 의해 야기된 지각적 지터(a perceptual jitter)를 도시한 일례의 도면이다.
도 2는 본 발명의 일 실시예에 따른 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 방법의 작업 흐름을 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 장치의 하이-레벨 블록도이다.
도 4는 비디오 품질의 주관적 테스트를 받도록 설계된 소프트웨어 도구의 인터페이스를 도시한 도면이다.
도 1은 프레임 드롭 또는 폐기에 의해 야기된 지각적 지터(a perceptual jitter)를 도시한 일례의 도면이다.
도 2는 본 발명의 일 실시예에 따른 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 방법의 작업 흐름을 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 장치의 하이-레벨 블록도이다.
도 4는 비디오 품질의 주관적 테스트를 받도록 설계된 소프트웨어 도구의 인터페이스를 도시한 도면이다.
본 발명의 일 실시예는 비디오 스트리밍 시스템을 참조해서 기술될 것이다. 일 실시예에 따라, 비디오 시퀀스의 하나의 또는 그 이상의 연속 프레임들이 스트리밍 중에 손실되고, 비디오 시퀀스의 다음 프레임이 정확하게 수신되기 전에 디스플레이에서 정확하게 수신된 최종 프레임으로 대체될 때, 비디오 시퀀스의 지각적 지터는 이하의 3개의 양상들에 의해 영향을 받을 것이다:
1) 프레임 프리즈(Frame Freeze): 하나의 또는 그 이상의 연속 프레임들이 손실될 때 정확하게 수신된 최종 프레임의 디스플레이로부터 다음 프레임의 디스플레이까지의 기간 중에 정적/프리즈 상태를 유지하는 정확하게 수신된 최종 프레임에 의해 야기된 효과.
2) 모션 불연속성, 상술된 기간 중에 정확하게 수신된 최종 프레임 및 다음 프레임 간의 불연속성으로 인해 객체 이동이 불연속성이 되는 효과. 예를 들어, 시청자가 비디오의 농구공에 집중할 때, 모션 불연속성은, 농구공이 짧은 기간 동안 사라지고 후에 다른 장소에서 갑자기 나타남을 의미한다.
3) 심리적 저크(psychological jerk), 코히런트 모션들, 특히 카메라 모션들에 의해 야기된 효과. 구체적으로 말해서, 하나의 또는 그 이상의 연속 프레임들이 최종 팬 시나리오에서 손실될 때, 발생된 매우 많은 양의 심리적 활동들로 두 눈과 뇌가 빨리 피곤하게 되기에, 시청자 지각은 매우 감소될 것이다.
상술된 견지에서, 본 발명의 실시예는 상기 3개의 효과들과 각각 관련된 3개의 파라미터들의 함수로서 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기를 제안한다.
본 발명의 실시예의 일 양상은 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 방법을 제공한다.
도 2는 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 방법의 작업 흐름을 도시한 흐름도이다.
도 2에 도시된 바와 같이, 본 방법은 이하의 단계들:
S201 : 프레임 손실에 의해 왜곡된 비디오 시퀀스의 프레임 프리즈를 평가하는 단계
S202 : 프레임 손실에 의해 왜곡된 비디오 시퀀스의 모션 불연속성을 평가하는 단계
S203 : 프레임 손실에 의해 왜곡된 비디오 시퀀스의 심리적 저크를 평가하는 단계
S204 : 3개의 앞선 단계들의 결과들의 결합에 의해 비디오 시퀀스의 지각적 지터를 측정하는 단계
를 포함한다.
한 변형에 따라, 단계 S204는 전부가 아니라 상기 3개의 결과들로부터 선택된 2개의 결과들을 결합한다.
본 발명의 실시예의 다른 양상은 프레임 손실에 의해 왜곡된 비디오 시퀀스의 지각적 지터를 측정하기 위한 장치를 제공한다.
본 발명의 실시예에 따라, 먼저 상기 3개의 효과들 각각은 장치에 의해 따로따로 평가될 것이고, 그 후, 전체 지각적 지터 측정 결과가 3개의 개별 결과들의 결합에 의해 획득될 것이다.
도 3은 비디오 시퀀스의 지각적 지터를 측정하기 위한 장치(300)의 하이-레벨 블록도이다. 도 3에 도시된 바와 같이, 장치(300)의 입력은 하나의 또는 그 이상의 연속 프레임 손실을 가진 왜곡된 비디오 시퀀스이고, 그 출력은 왜곡된 비디오 시퀀스의 하나의 또는 그 이상의 연속 프레임 손실에 의해 야기된 품질 저하 레벨을 나타내는 값이며, 이 경우에는 지각적 지터이다.
장치(300)는: 왜곡된 비디오 시퀀스를 수신하고 프레임 프리즈에 의해 야기된 비디오 시퀀스의 지각적 지터를 평가하기 위한 프레임 프리즈 평가 모듈(301); 왜곡된 비디오 시퀀스를 수신하고 모션 불연속성에 의해 야기된 비디오 시퀀스의 지각적 지터를 평가하기 위한 모션 불연속성 평가 모듈(302); 왜곡된 비디오 시퀀스를 수신하고 심리적 저크에 의해 야기된 비디오 시퀀스의 지각적 지터를 평가하기 위한 심리적 저크 평가 모듈(303); 및 모듈들(301, 302 및 303)로부터의 출력들을 수신하고 상기 출력들을 프레임 손실에 의해 야기된 전체 지각적 지터 측정 결과로 결합하기 위한 결합 모듈(304)을 포함한다.
다음으로, 장치(300)의 동작이 상세히 설명될 것이다.
먼저, 일부 통지 사항들이 후술될 것이다:
실시예의 이하의 설명에서, 원래의 비디오 시퀀스를 V = {f1,f2,...,fN} 라고 표기한다. 프레임들 fk +1,fk +2,...,fm -1이 송신 중에 손실된다고 가정하고, 스트리밍된 비디오 시퀀스/왜곡된 비디오 시퀀스를 V' = {f'1,f'2,...,f'N} 라고 표기한다.
여기서,
요컨대, 장치(300)는 원래의 시퀀스의 m-k-1 프레임들이 손실될 때 왜곡된 비디오 시퀀스의 프레임들 fk' 및 fm' 간의 일시적인 품질 저하의 레벨을 평가하는데 사용된다.
이하의 설명에서, FPS를 프레임 레이트라고 표기하고, T = (m-k)/FPS를 디스플레이 콘텐츠가 정적인 상태를 유지하는 fk' 및 fm' 간의 시간 기간이라고 표기한다. MVi ,x,y를 비디오 시퀀스 V의 i번째 프레임에서 (x,y)로 인덱싱된 매크로-블록의 모션 벡터라고 표기한다.
1. 프레임 프리즈 평가 모듈(301)
본 발명의 일 실시예에 따라, 프레임 프리즈 평가 모듈(301)은 이하의 수학식 1에 의해 프레임 프리즈에 의해 야기된 비디오의 지각적 지터를 측정할 수 있다:
시청자는 매우 낮은 모션을 가진 극히 정적인 비디오 시퀀스의 프레임 프리즈를 인식하지 않을 것임을 알 수 있다. 상기 수학식 1에서, g1(MVk)는 MVk가 비디오 시퀀스 V의 k번째 프레임의 모션 벡터들의 측정인 경우를 식별하는데 사용된다.
수학식 1에서, g2(T)는 프레임 프리즈에 의해 야기된 지각 효과(perceptual effect)의 평가의 중요한 인자인 프레임 프리즈 T의 시간 기간을 식별하는데 사용된다.
위에 도시된 바와 같이, 시간 기간이 상수 (T < c2)보다 더 작으면, 인간 뇌는 프레임 프리즈 전 후의 이미지들을 연결하려고 노력할 것이고, 이는 이 기간을 연속 동작(a continuous movement)으로 설명할 것이다. 이 경우에, 시청자는 프레임 프리즈 자체를 인식하지 않을 것이다.
2. 모션 불연속성 평가 모듈(302)
비디오 브라우징에서, 시청자의 눈 움직임들은 3개의 타입들: 단속적 운동(saccade), 고정(fixation) 및 평활 추적(smooth pursuit)으로 주로 분해될 수 있다. 단속적 운동은 시청자가 시계를 탐험할 수 있게 하는 매우 신속한 눈 움직임이다. 고정은 시계의 특정 영역에 시선이 고정될 때의 눈의 잔류 움직임이다. 추적 움직임(a pursuit movement)은 이동하는 객체의 이미지를 평활하게 추적하는 눈의 기능이다.
시청자는 고정/평활 추적 스테이지로부터 주로 정보를 학습한다. 이러한 스테이지들에서, 인간의 눈은 관심 있는 객체의 작은 영역에 집중된다. 프레임 손실이 발생할 때, 인간의 눈은 새로운 프레임이 정확하게 송신될 때까지 정지 상태를 유지한다. 그 후, 현재 집중된 영역의 픽셀 값들이 차이가 클수록, 모션 불연속성을 알아채기가 더 쉬워짐을 알 것이다.
상술된 설명에 따라, 모션 불연속성 평가 모듈(302)은 이하의 수학식 2에 의해 모션 불연속성에 의해 야기된 지각적 지터를 평가할 수 있다.
여기서, N은 픽셀들의 수이고, pi ,j는 프레임 f'j의 i번째 픽셀의 픽셀 값을 나타낸다.
3. 심리적 저크 평가 모듈(303)
객체 움직임에 의해 야기되는 모션 불연속성의 효과와 달리, 심리적 저크의 효과는 전반적인 카메라 모션에 의해 야기된다.
도 1을 참조해서 상술된 바와 같이, 시간 B0 및 B 사이의 프레임들이 손실될 때, 시간 B0의 프레임은 시간 B에서 새로운 프레임이 송신될 때까지 정지 상태를 유지할 것이다. 그러나, 시청자가 인식하는 것은 정확히 이와 같지 않다. 비디오 콘텐츠가 갑자기 시간 B0에서 정지 상태가 될 때, 시청자 뇌는 시간 B0 전과 동일한 속도로 객체 움직임을 설명하고 당연히 시간 B0 및 B의 콘텐츠를 연결하려고 시도할 것이다. B0 및 B 사이의 시간 기간이 짧을 때, 뇌는 "가현운동 이론(apparent movement theory)"에 따라 성공한다. 그렇지 않으면, 실패한다. 인간 뇌가 본 설명에서 성공하든지 실패하든 지와 무관하게, 많은 심리적 활동들이 발생한다.
전반적인 카메라 모션에 따라 비디오 시퀀스에서 프레임 손실이 발생할 때, 비디오 시퀀스의 각각의 픽셀은 이러한 종류의 심리적 활동들을 요청한다. 그 결과로서, 시청자는 이러한 종류의 아티팩트를 대할 때 더 쉽게 피로감과 불만을 느낀다. 이러한 종류의 효과는 본 발명에서 "심리적 저크"라고 하며, 카메라 모션의 레벨로 평가될 것이다.
종래 기술4는 상술된 전반적인 모션 추정에서 사용될 수 있는 소위 8-파라미터 관점 모션 모델을 기술한다.
여기서, (a0,...,a7)은 전반적인 모션 파라미터들이고, (xi,yi)는 현재 프레임의 i번째 픽셀의 공간적 좌표들을 나타내며, (x'i,y'i)는 이전 프레임의 대응 픽셀의 좌표들을 나타낸다. 모션 모델 파라미터들 및 심볼-레벨 해석 간의 관계는 다음과 같이 설정된다:
상기 알고리즘들의 도움으로, 심리적 저크 평가 모듈(303)은 이하의 수학식 3에 의해 프레임 프리즈에 의해 야기된 비디오의 지각적 지터를 평가할 수 있다:
여기서, c4는 값을 범위 [0, 1]로 정규화하는 계수이다.
카메라 동작들이 상이한 종류들의 영향을 지각적 지터에 끼치기 때문에, 상이한 가중치 계수가 상이한 카메라 동작들(팬(pan), 틸트(tilt) 및 줌(zoom))에 적용될 수 있다.
4. 결합 모듈(304)
모듈들(301, 302 및 303)로부터의 평가 출력들은 전체 지각적 지터 측정 결과를 획득하기 위해 결합 모듈(304)에 의해 결합될 것이다.
일례로서, 선형 결합(a linear combination)이 전체 지각적 지터 측정 결과를 획득하기 위해 결합 모듈(304)에 의해 사용될 수 있다. 선형 결합은 이하의 수학식 4에 의해 기술될 수 있다:
여기서, 3개의 계수들 k1, k2 및 k3은 실험에 의해 결정된다.
데이터세트 DS = {si|i = 1,2,...,M}은 주관적인 테스트 기술에 의해 수집된다. 데이터세트의 각각의 샘플 si는 프레임 손실을 가진 송신된 비디오 샷이다. DF(i), DD(i), DP(i)는 각각 si의 프레임 프리즈, 모션 불연속성 및 심리적 저크의 지각적 감정 평가를 나타낸다.
J1(i)는 수학식 4에 따른 샘플 si에 대한 지각적 지터의 객관적인 평가를 나타내고, JS(i)는 샘플 si에 대한 지각적 지터의 주관적인 스코어를 나타낸다고 가정하라. 그 후, 계수들 k1, k2 및 k3은 이하의 수학식에 의해 결정될 수 있다:
대안으로, 기계 학습(a machine learning)이 또한 전체 지각적 지터 측정 결과를 획득하도록 적용될 수 있다. 즉, DF, DD 및 DP는 추출된 피처들이고, 그 다음 지각적 지터의 전체 평가는 기계 출력이라고 가정한다. 이러한 경우에, ANN(Artificial Neural Network)가 도 3에 도시된 학습 기계(a training machine)(305)로서 채택될 수 있으며, 이는 다음과 같이 표현될 수 있다:
결합 모듈(304)에서, 일부 계수들은 프레임 프리즈, 모션 불연속성 및 심리적 저크에 대한 시청자의 상이한 민감도(sensitivity)를 나타내는 가중된 값으로서 요구된다. 이러한 계수들의 값들의 디폴트 집합이 데이터세트에서 학습에 의해 제공된다. 그러나, 상이한 사람들, 상이한 애플리케이션 시나리오들에 대해, 이러한 값들은 변경될 수 있다.
도 4는 비디오 시퀀스의 품질의 주관적 테스트를 받도록 설계된 소프트웨어 도구의 인터페이스를 도시한 도면이다. 도 3에 도시된 바와 같이, 비디오 시퀀스로부터의 랜덤 클립이 시퀀스의 랜덤 위치에서 랜덤 길이로 연속 프레임 손실을 가진 채로 디스플레이된다.
시청자는 다음과 같이 지터의 인식을 표시할 필요가 있다:
0 - 인식된 품질 저하가 없음;
1 - 품질 저하가 인식될 수 있지만, 매우 성가시지는 않음;
2 - 명백한 품질 저하, 매우 성가심.
주관적인 스코어는 JS로 표기된다. 표시된 스코어를 가진 모든 시퀀스는 데이터세트 DS를 구성한다.
다음으로, 주관적인 테스트를 위한 파라미터 세팅이 기술될 것이다.
테스트에서, 상수들은 경험상으로 결정된다. β1 = β2 = 1, β3 = 2; c1 = 1; c2 = 1/15(s), c3 = 1/3(s).
디폴트 값은 주관적인 테스트에 따라 J1의 평가의 k1, k2 및 k3 및 J2의 평가의 학습 기계 파라미터들 각각에 할당된다. 그러나, 프레임 프리즈, 모션 불연속성 및 심리적 저크의 지각적 감정들은 매우 상이하며 독립적일 수 있다. 즉, 몇몇 사람들은 심리적 저크에 매우 민감할 수 있으나, 일부 다른 사람들은 자신이 집중한 객체의 모션 불연속성을 싫어할 수 있다. 따라서, 지각적 지터의 전체 평가에 대한 프레임 프리즈, 모션 불연속성 및 심리적 저크의 지각적 감정의 기여도(contribution)는 상이한 애플리케이션 시나리오 및 상이한 사람에 대해 꽤 상이할 수 있다.
유연성의 경우, 한 구성 집합이 평균 방식으로 이 파라미터들에 제공된다. 그러나, 이러한 값 세팅들은 변경될 수 있다.
상술된 바와 같이, 선형 결합 또는 기계 학습이 전체 지각적 지터 측정 결과를 획득하기 위해 결합 모듈(304)에 의해 사용될 수 있다. 상기 2개의 옵션들의 예측 정확성들이 객관적인 평가 결과 (J1/J2)를 주관적인 스코어 Js와 비교함으로써 측정된다. 피어슨 상관 관계(Pearson Correlation)가 이러한 예측 정확성 측정에 사용될 수 있다.
이하의 표는 본 발명 및 종래 기술 3에서 제안된 방법의 피어슨 상관 관계(예측 정확성)를 제공한다. 예측 정확성들은 200개의 샘플들(2 명의 시청자들)로 테스트되었다.
"스킵을 갖는 일시정지(pausing with skipping)"는, 비디오가 일부 시간 기간 동안 일시정지한 후 비디오 정보의 일부 손실을 가지고 재시작하는 이벤트들로서 정의된, 불안정한 네트워크 상태에서의 정상 플레이 모드이다. 스킵을 갖는 일시정지의 일례는 한 쌍의 IP 비디오폰들이며, 이때에, 과중한 네트워크 트래픽은 IP 비디오폰 디스플레이가 잠시 프리즈하게 야기하고; IP 비디오폰 디스플레이가 계속될 때 일부 콘텐츠가 손실되었다. 다른 일례는 일정한 프레임 스킵 또는 가변 프레임 스킵을 실행하는 화상 회의 시스템이다. 스킵을 갖는 일시정지를 포함하는 처리된 비디오 시퀀스는 연관된 원래의 비디오 시퀀스와 거의 동일한 지속 기간일 것이다. [- VQEG MM 테스트 플랜으로부터 참조됨]
제안된 지각적 지터 측정 방법 및 장치는 임의의 "스킵을 갖는 일시정지"에서 도입된 품질 저하의 수를 매기는데 직접 적용될 수 있다.
또한, 제안된 알고리즘의 도움으로 도입된 품질 저하를 최소화하면서 대역폭 제한 조건들에서 드롭될 프레임들을 적응하여 선택할 수 있다. 비디오 시퀀스의 각각의 프레임의 일시적인 중요성이 손실된 프레임들의 수를 상수로 설정함으로써 측정될 수 있다.
상술된 바는 단지 본 발명의 실시예를 설명할 것이며, 따라서, 본 명세서에 명백히 기술되지 않더라도, 당업자가 본 발명의 원리들을 구현하고 그 사상 및 범위 내에 속한 다수의 대안적인 구성들을 창안할 수 있음을 알 것이다.
본 설명 및 (적절한 경우에) 청구항들 및 도면들에 기술된 각각의 특징은 독립적으로 또는 임의의 적합한 조합으로 제공될 수 있다. 특징들은, 적합한 경우에, 하드웨어, 소프트웨어, 또는 그 둘의 조합으로 구현될 수 있다. 청구항들에 나타나는 참조 부호들은 오직 일례이며 청구항들의 범위에 제한적인 영향을 주지 않는다.
주
1 Y.N.Qi, M.Y.Dai, "The Effect of Frame Freezing and Frame Skipping on Video Quality", 2006 International Conference on Intelligent Information Hiding and Multimedia, pp423-426.
2 M.Ghanbari, Q.Huynh-Thu, "Impact of Jitter and Jerkiness on Perceived Video Quality", 2nd International Workshop on Video Processing and Quality Metrics for Consumer Electronics, Scottsdale, USA, 22-24, Jan.2006
3 K.C.Yang, C.C.Guest, K.El-Maleh, P.K.Das, "Perceptual Temporal Quality Metric for Compressed Video", IEEE Transaction on Multimedia, Vol.9, No.7, Nov.2007, pp.1528-1535.
4 L.Y.Duan, J.Q.Wang 외 다수, "Shot-Level Camera Motion Estimation based on a Parametric Model"
Claims (10)
- 하나의 또는 그 이상의 연속 프레임들이 손실된 복수의 프레임들로 구성된 비디오 시퀀스의 품질을 측정하기 위한 방법으로서,
상기 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 상기 비디오 시퀀스의 바로 이전 프레임으로 대체되며,
상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터 (DF), 상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터 (DD), 및 상기 비디오 시퀀스의 코히런트 모션들(coherent motions)과 관련된 제3 파라미터 (DP)의 함수로서 상기 비디오 시퀀스의 품질을 측정하는 단계를 포함하는 것을 특징으로 하는 방법. - 제1항에 있어서,
상기 비디오 시퀀스의 품질은 상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)의 선형 결합(a linear combination)(K1×DF + K2×DD + K3×DP)으로서 측정되고,
상기 선형 결합의 계수들(K1, K2 및 K3)은 실험에 의해 결정되는 방법. - 제1항에 있어서,
상기 비디오 시퀀스의 품질은 상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)의 기계 학습에 의해 측정되는 방법. - 제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제1 파라미터 (DF)는 상기 바로 이전 프레임의 모션 벡터 및 상기 기간의 길이의 함수로서 결정되는 방법. - 제1항 내지 제3항 중 어느 한 항에 있어서,
상기 제2 파라미터 (DD)는 상기 바로 이전 프레임 및 상기 바로 다음 프레임의 픽셀 값들 및 픽셀 번호들의 함수로서 결정되는 방법. - 제1항 내지 제3항 중 어느 한 항에 있어서,
상기 코히런트 모션은 카메라에 의한 상기 비디오 시퀀스의 생성 중의 카메라 모션인 방법. - 제6항에 있어서,
상기 카메라 모션은 상기 비디오 시퀀스의 생성 중의 상기 카메라의 팬(pan), 틸트(tilt) 및 줌(zoom) 동작들을 포함하는 방법. - 하나의 또는 그 이상의 연속 프레임들이 손실된 복수의 프레임들로 구성된 비디오 시퀀스의 품질을 측정하기 위한 장치(300)로서,
상기 비디오 시퀀스의 디스플레이 중에, 상기 하나의 또는 그 이상의 손실된 프레임들은 상기 하나의 또는 그 이상의 손실된 프레임들의 바로 이전 프레임의 디스플레이로부터 바로 다음 프레임의 디스플레이까지의 기간 중에 상기 비디오 시퀀스의 바로 이전 프레임으로 대체되며,
상기 기간 중의 상기 바로 이전 프레임의 안전성과 관련된 제1 파라미터 (DF)를 획득하도록 적응된 제1 측정 유닛(301);
상기 바로 이전 프레임 및 상기 바로 다음 프레임 간의 연속성과 관련된 제2 파라미터 (DD)를 획득하도록 적응된 제2 측정 유닛(302);
상기 비디오 시퀀스의 코히런트 모션들과 관련된 제3 파라미터 (DP)를 획득하도록 적응된 제3 측정 유닛(303); 및
상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)의 함수로서 상기 비디오 시퀀스의 품질의 결과를 획득하도록 적응된 결합 유닛(304)
을 포함하는 것을 특징으로 하는 장치(300). - 제8항에 있어서,
상기 결합 유닛(304)은 상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)의 선형 결합(K1×DF + K2×DD + K3×DP)에 의해 상기 비디오 시퀀스의 품질의 결과를 획득하고, 상기 선형 결합의 계수들(K1, K2 및 K3)은 실험에 의해 결정되는 장치(300). - 제8항에 있어서,
상기 결합 유닛(304)은 상기 제1 파라미터 (DF), 상기 제2 파라미터 (DD) 및 상기 제3 파라미터 (DP)에 대한 학습 기계(a training machine)(305)의 기계 학습에 의해 상기 비디오 시퀀스의 품질의 결과를 획득하는 장치(300).
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2010/001150 WO2012012914A1 (en) | 2010-07-30 | 2010-07-30 | Method and apparatus for measuring video quality |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130090881A true KR20130090881A (ko) | 2013-08-14 |
Family
ID=45529342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137002489A KR20130090881A (ko) | 2010-07-30 | 2010-07-30 | 비디오 품질을 측정하기 위한 방법 및 장치 |
Country Status (8)
Country | Link |
---|---|
US (1) | US8675075B2 (ko) |
EP (1) | EP2599310B1 (ko) |
JP (1) | JP5751648B2 (ko) |
KR (1) | KR20130090881A (ko) |
CN (1) | CN103385000A (ko) |
AU (1) | AU2010358309B2 (ko) |
BR (1) | BR112013002361A2 (ko) |
WO (1) | WO2012012914A1 (ko) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6010625B2 (ja) * | 2011-11-28 | 2016-10-19 | トムソン ライセンシングThomson Licensing | 歪み/品質測定 |
US10489389B2 (en) | 2012-06-07 | 2019-11-26 | Wormhole Labs, Inc. | Experience analytic objects, systems and methods |
US10649613B2 (en) | 2012-06-07 | 2020-05-12 | Wormhole Labs, Inc. | Remote experience interfaces, systems and methods |
KR20150052049A (ko) * | 2012-08-27 | 2015-05-13 | 톰슨 라이센싱 | 비디오 품질 평가를 위해 모션 균일성을 추정하기 위한 방법 및 장치 |
FR2996978B1 (fr) * | 2012-10-11 | 2015-10-16 | Tdf | Detection de gel d'image |
CN103747238B (zh) * | 2013-02-20 | 2015-07-08 | 华为技术有限公司 | 视频静止失真程度评估方法和装置 |
CN105049915B (zh) * | 2015-06-30 | 2019-01-22 | 株洲南车时代电气股份有限公司 | 一种机车视频数据完整性自动检测方法 |
CN108632666B (zh) * | 2017-03-15 | 2021-03-05 | 华为技术有限公司 | 一种视频检测方法及视频检测设备 |
WO2020158095A1 (ja) * | 2019-02-01 | 2020-08-06 | 株式会社Nttドコモ | 評価装置 |
CN115706835A (zh) * | 2021-08-06 | 2023-02-17 | 腾讯科技(深圳)有限公司 | 一种数据传输方法及相关装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10150665A (ja) * | 1996-09-20 | 1998-06-02 | Hitachi Ltd | 予測画像の作成方法及び画像符号化方法及び画像符号化装置 |
US6804294B1 (en) * | 1998-08-11 | 2004-10-12 | Lucent Technologies Inc. | Method and apparatus for video frame selection for improved coding quality at low bit-rates |
CN100477789C (zh) * | 2003-06-20 | 2009-04-08 | 松下电器产业株式会社 | 一种基于运动联合图像专家组2000的图像帧间增强方法 |
US9025673B2 (en) * | 2006-04-05 | 2015-05-05 | Qualcomm Incorporated | Temporal quality metric for video coding |
US8494052B2 (en) * | 2006-04-07 | 2013-07-23 | Microsoft Corporation | Dynamic selection of motion estimation search ranges and extended motion vector ranges |
CN100559880C (zh) * | 2007-08-10 | 2009-11-11 | 中国传媒大学 | 一种基于自适应st区的高清视频图像质量评价方法及装置 |
JP4802183B2 (ja) * | 2007-12-28 | 2011-10-26 | 日本電信電話株式会社 | マルチメディア総合品質推定方法および装置 |
CN100559881C (zh) * | 2008-05-09 | 2009-11-11 | 中国传媒大学 | 一种基于人工神经网络的视频质量评价方法 |
-
2010
- 2010-07-30 CN CN2010800683107A patent/CN103385000A/zh active Pending
- 2010-07-30 BR BR112013002361A patent/BR112013002361A2/pt not_active IP Right Cessation
- 2010-07-30 KR KR1020137002489A patent/KR20130090881A/ko active IP Right Grant
- 2010-07-30 EP EP10855142.5A patent/EP2599310B1/en active Active
- 2010-07-30 JP JP2013520938A patent/JP5751648B2/ja not_active Expired - Fee Related
- 2010-07-30 US US13/811,657 patent/US8675075B2/en active Active
- 2010-07-30 AU AU2010358309A patent/AU2010358309B2/en not_active Ceased
- 2010-07-30 WO PCT/CN2010/001150 patent/WO2012012914A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20130120587A1 (en) | 2013-05-16 |
AU2010358309B2 (en) | 2014-12-04 |
BR112013002361A2 (pt) | 2016-05-24 |
EP2599310A4 (en) | 2015-12-02 |
EP2599310B1 (en) | 2018-04-04 |
JP5751648B2 (ja) | 2015-07-22 |
AU2010358309A1 (en) | 2013-02-14 |
CN103385000A (zh) | 2013-11-06 |
EP2599310A1 (en) | 2013-06-05 |
WO2012012914A1 (en) | 2012-02-02 |
US8675075B2 (en) | 2014-03-18 |
JP2013537748A (ja) | 2013-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20130090881A (ko) | 비디오 품질을 측정하기 위한 방법 및 장치 | |
Duanmu et al. | A quality-of-experience index for streaming video | |
CN111193923B (zh) | 视频质量评估方法、装置、电子设备及计算机存储介质 | |
Li et al. | Visual attention guided bit allocation in video compression | |
KR100977694B1 (ko) | 비디오 코딩용 순간 품질 메트릭 | |
Lin et al. | A versatile model for packet loss visibility and its application to packet prioritization | |
Ou et al. | Modeling the impact of frame rate on perceptual quality of video | |
EP2439953A1 (en) | Method and device for obtaining video quality parameter and electronic equipment | |
KR101602032B1 (ko) | 프레임 유사성들 및 시각적 품질 및 관심들에 기초한 프레임 인코딩 선택 | |
CN107454446A (zh) | 基于体验质量分析的视频帧管理方法及其装置 | |
Feng et al. | Saliency inspired full-reference quality metrics for packet-loss-impaired video | |
Liotta et al. | Instantaneous video quality assessment for lightweight devices | |
Huang et al. | Perceptual quality driven frame-rate selection (PQD-FRS) for high-frame-rate video | |
Nemethova et al. | PSNR-based estimation of subjective time-variant video quality for mobiles | |
Leszczuk | Assessing task-based video quality—a journey from subjective psycho-physical experiments to objective quality models | |
Ghadiyaram et al. | Subjective and objective quality assessment of mobile videos with in-capture distortions | |
Salas et al. | Subjective quality evaluations using crowdsourcing | |
Ickin et al. | Studying the challenges in assessing the perceived quality of mobile-phone based video | |
Grbić et al. | Real-time video freezing detection for 4K UHD videos | |
Zach et al. | On use of crowdsourcing for H. 264/AVC and H. 265/HEVC video quality evaluation | |
Mittag et al. | LSTM-Based Video Quality Prediction Accounting for Temporal Distortions in Videoconferencing Calls | |
Shi et al. | A user-perceived video quality assessment metric using inter-frame redundancy | |
Yang et al. | A new objective quality metric for frame interpolation used in video compression | |
Narapareddy | QoE Performance Evaluation by Introducing Video Freeze on Mobile Multimedia | |
Kumar et al. | Video quality assessment methods: A bird’s-eye view |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |