JP2015502713A - シーンカットアーチファクトを考慮するビデオ品質評価 - Google Patents

シーンカットアーチファクトを考慮するビデオ品質評価 Download PDF

Info

Publication number
JP2015502713A
JP2015502713A JP2014542666A JP2014542666A JP2015502713A JP 2015502713 A JP2015502713 A JP 2015502713A JP 2014542666 A JP2014542666 A JP 2014542666A JP 2014542666 A JP2014542666 A JP 2014542666A JP 2015502713 A JP2015502713 A JP 2015502713A
Authority
JP
Japan
Prior art keywords
picture
scene cut
candidate
artifact
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014542666A
Other languages
English (en)
Other versions
JP5981561B2 (ja
Inventor
ニン リアオ
ニン リアオ
ジーボー チェン
ジーボー チェン
ファン ジャン
ファン ジャン
カイ シエ
カイ シエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2015502713A publication Critical patent/JP2015502713A/ja
Application granted granted Critical
Publication of JP5981561B2 publication Critical patent/JP5981561B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

特定の実装が、ビデオを再構築することなしにビットストリーム内のシーンカットアーチファクトを検出する。シーンカットアーチファクトは、通常、(1)元のビデオ内のシーンカットピクチャが部分的に受信されたとき、または(2)ピクチャが元のビデオ内の失われたシーンカットピクチャを参照するとき、復号されたビデオ内で観察される。シーンカットアーチファクトを検出するために、まずシーンカットピクチャ候補が選択され、次いでそのピクチャ候補に対してシーンカットアーチファクト検出が実施される。ブロックがシーンカットアーチファクトを有すると決定されたとき、最も低い品質レベルがそのブロックに割り当てられる。

Description

本発明は、ビデオ品質測定に関し、より詳細には、客観ビデオ品質メトリックを決定するための方法および装置に関する。
IPネットワークの開発に伴って、有線および無線IPネットワーク(たとえば、IPTVサービス)を介したビデオ通信が普及している。ケーブルネットワークを介した従来のビデオ送信とは異なり、IPネットワークを介したビデオ送達は、あまり信頼性が高くない。したがって、ビデオ圧縮からの品質損失に加えて、ビデオ品質は、ビデオがIPネットワークを通じて送信されたとき、さらに劣化する。成功するビデオ品質モデリングツールは、ビデオ圧縮によって引き起こされる品質劣化に加えて、ネットワーク送信の悪化(たとえば、パケット損失、送信遅延、および送信ジッター)によって引き起こされる品質劣化を評価する必要がある。
一般的な態様によれば、符号化されたピクチャを含むビットストリームがアクセスされ、ピクセル情報を導出するためにビットストリームを復号することなしにビットストリームからの情報を使用してビットストリーム内のシーンカットピクチャが決定される。
別の一般的な態様によれば、符号化されたピクチャを含むビットストリームがアクセスされ、フレームサイズ、予測残さ、および動きベクトルのうちの少なくとも1つに応答して、ビットストリームからの一組のピクチャ間で、それぞれの差測度(difference measures)が決定され、その一組のピクチャは、シーンカットピクチャ候補、シーンカットピクチャ候補に先立つピクチャ、およびシーンカットピクチャ候補に続くピクチャのうちの少なくとも1つを含む。シーンカットピクチャ候補は、差測度の1または複数がそれらのそれぞれの所定の閾値を超えた場合、シーンカットピクチャになると決定される。
別の一般的な態様によれば、符号化されたピクチャを含むビットストリームがアクセスされる。イントラピクチャ内の少なくとも1つのブロックについて圧縮されたデータが失われた場合、イントラピクチャがシーンカットピクチャ候補として選択され、または失われたピクチャを参照するピクチャがシーンカットピクチャ候補として選択される。フレームサイズ、予測残さ、およびビットストリームからの一組のピクチャ間の動きベクトルのうちの少なくとも1つに応答して、それぞれの差測度が決定され、その一組のピクチャは、シーンカットピクチャ候補、シーンカットピクチャ候補に先立つピクチャ、およびシーンカットピクチャ候補に続くピクチャのうちの少なくとも1つを含む。シーンカットピクチャ候補は、差測度の1または複数がそれらのそれぞれの所定の閾値を超えた場合、シーンカットピクチャになると決定される。
1または複数の実装の詳細が、添付の図面および下記の説明に記載されている。1つの特定の方法で示されている場合でさえ、様々な方法で実装を構成または実施することができることは明らかなはずである。たとえば、実装は、方法として実施することも、たとえば一組の動作を実施するように構成された装置、または一組の動作を実施するための命令を記憶する装置など、装置として実施することも、信号として実施することもできる。他の態様および特徴は、添付の図面および特許請求の範囲と共に考察して、以下の詳細な説明から明らかになろう。
シーンカットフレームにおいてシーンカットアーチファクトを有するピクチャを示す図例である。 シーンカットアーチファクトがないピクチャを示す図例である。 シーンカットフレームでないフレームにおいてシーンカットアーチファクトを有するピクチャを示す図例である。 本原理の一実施形態による、シーンカットアーチファクトがどのようにシーンカットに関連するかを示す図例である。 本原理の一実施形態による、シーンカットアーチファクトがどのようにシーンカットに関連するかを示す図例である。 本原理の一実施形態による、ビデオ品質モデリングの例を示す流れ図である。 本原理の一実施形態による、シーンカットアーチファクト検出の例を示す流れ図である。 変数nlossを計算する方法を示す図例である。 本原理の一実施形態による、変数pk_numがどのようにフレームインデックスと共に変わるかを示す図例である。 本原理の一実施形態による、変数bytes_numがどのようにフレームインデックスと共に変わるかを示す図例である。 本原理の一実施形態による、変数pk_numがどのようにフレームインデックスと共に変わるかを示す図例である。 本原理の一実施形態による、変数bytes_numがどのようにフレームインデックスと共に変わるかを示す図例である。 本原理の一実施形態による、シーンカットアーチファクト場所候補を決定する例を示す流れ図である。 99個のマクロブロックを有するピクチャを示す図例である。 本原理の一実施形態による、隣接するフレームがどのようにシーンカットアーチファクト検出に使用されるかを示す図例である。 本原理の一実施形態による、隣接するフレームがどのようにシーンカットアーチファクト検出に使用されるかを示す図例である。 本原理の一実施形態による、シーンカット検出の例を示す流れ図である。 本原理の一実施形態による、隣接するIフレームがどのようにアーチファクト検出に使用されるかを示す図例である。 本原理の一実施形態による、隣接するIフレームがどのようにアーチファクト検出に使用されるかを示す図例である。 本原理の一実施形態による、ビデオ品質モニターの例を示すブロック図である。 1または複数の実装と共に使用することができるビデオ処理システムの例を示すブロック図である。
ビデオ品質測定ツールが、異なるレベルで動作することができる。一実施形態では、このツールは、受信されたビットストリームを取り、ビデオを再構築することなしにビデオ品質を測定することができる。そのような方法は、通常、ビットストリームレベルビデオ品質測定と呼ばれる。計算複雑さに余裕があるとき、ビデオ品質測定は、ビットストリームから一部またはすべての画像を再構築し、再構築された画像を使用しビデオ品質をより正確に推定してもよい。
本実施形態は、(1)ビデオを再構築することなしに、また(2)部分的に再構築されたビデオを用いてビデオ品質を評価する客観ビデオ品質モデルに関する。具体的には、本原理は、シーンカットアーチファクトとして示される、シーンカット周りで観察される特定のタイプのアーチファクトについて考慮する。
大抵の既存のビデオ圧縮標準、たとえばH.264およびMPEG−2は、マクロブロック(MB)を基本符号化単位として使用する。したがって、以下の実施形態は、マクロブロックを基本処理単位として使用する。しかし、本原理は、異なるサイズのブロック、たとえば8×8ブロック、16×8ブロック、32×32ブロック、および64×64ブロックを使用するように適合されてもよい。
符号化ビデオビットストリームの一部分がネットワーク送信中に失われたとき、復号器は、誤り隠蔽(error concealment)技法を採用し、失われた部分に対応するマクロブロックを隠蔽することができる。誤り隠蔽の目標は、知覚品質劣化を最小限に抑えるために、欠けているマクロブロックを推定することである。送信誤差によって生成されるアーチファクトの知覚強度は、使用される誤り隠蔽技法に大きく依存する。
空間的方法または時間的方法を誤り隠蔽に使用することができる。空間的方法では、ピクセル間の空間的相関が利用され、欠けているマクロブロックが、隣接するピクセルからの補間技法によって回復される。時間的方法では、動きフィールドのコヒーレンスとピクセルの空間的滑らかさが共に利用され、失われたマクロブロックの動きベクトル(MV)または各失われたピクセルのMVを推定し、次いで、推定された動きベクトルに従って前フレーム内の基準ピクセルを使用して、失われたピクセルが隠蔽される。
誤り隠蔽後、視覚的アーチファクトが依然として知覚される可能性がある。図1A〜図1Cは、例示的な復号されたピクチャを示し、符号化ビットストリームのいくつかのパケットが送信中に失われている。これらの例では、復号器において、時間的誤り隠蔽法を使用し、失われたマクロブロックを隠蔽する。具体的には、前フレーム内の共通位置の(collocated)マクロブロックが、失われたマクロブロックにコピーされる。
図1Aでは、たとえば送信誤差によるパケット損失がシーンカットフレーム(すなわち、新しいシーンにおける最初のフレーム)で発生する。現在のフレームと(別のシーンからの)前フレームとの間における劇的なコンテンツ変化により、隠蔽されたピクチャは、隠蔽されたピクチャ内で目立つ領域を含む。すなわち、この領域は、その隣接するマクロブロックとは非常に異なるテクスチャを有する。したがって、この領域は、視覚的アーチファクトとして容易に知覚されることになる。表記を簡単にするために、シーンカットピクチャ周りのこのタイプのアーチファクトは、シーンカットアーチファクトとして示される。
対照的に、図1Bは、シーン内に位置する別のピクチャを示す。現在のフレーム内の失われたコンテンツが、現在のフレームを隠蔽するために使用される、前フレーム内の共通位置のマクロブロック内のものと同様であるため、時間的誤り隠蔽は適正に機能し、図1Bでは視覚的アーチファクトをほとんど知覚することができない。
シーンカットアーチファクトは、必ずしもシーンの最初のフレームで発生するとは限らない可能性があることに留意されたい。それどころか、図2Aおよび図2Bにおける例によって示されているように、シーンカットフレームで、または失われたシーンカットフレーム後に見られることがあり得る。
図2Aの例では、ピクチャ210とピクチャ220は、異なるシーンに属する。ピクチャ210は正しく受信され、ピクチャ220は、部分的に受信されたシーンカットフレームである。ピクチャ220の受信された部分は適正に復号され、失われた部分は、ピクチャ210からの共通位置のマクロブロックで隠蔽される。ピクチャ210とピクチャ220の間に著しい変化があるとき、隠蔽されたピクチャ220は、シーンカットアーチファクトを有することになる。したがって、この例では、シーンカットアーチファクトがシーンカットフレームで発生する。
図2Bの例では、ピクチャ250、260は1つのシーンに属し、ピクチャ270、280は別のシーンに属する。圧縮中、ピクチャ270は、動き補償のためにピクチャ280用の基準として使用される。送信中、ピクチャ260、270に対応する圧縮されたデータが失われる。失われたピクチャを復号器で隠蔽するために、復号されたピクチャ250をピクチャ260、270にコピーすることができる。
ピクチャ280のための圧縮されたデータが正しく受信される。しかし、今や別のシーンからの復号されたピクチャ250のコピーであるピクチャ270を参照するので、復号されたピクチャ280もまた、シーンカットアーチファクトを有することがあり得る。したがって、シーンカットアーチファクトは、失われたシーンカットフレーム(270)後、この例ではシーンの第2のフレームで発生する可能性がある。シーンカットアーチファクトはシーンの他の場所でも発生し得ることに留意されたい。シーンカットフレーム後に発生するシーンカットアーチファクトを有する例示的なピクチャが図1Cに示されている。
実際、元のビデオではシーンがピクチャ270で変化するが、復号されたビデオでは、シーンは、シーンカットアーチファクトをピクチャ280で変化するように見える可能性がある。明示的に述べない限り、本願におけるシーンカットは、元のビデオ内のものを指す。
図1Aに示されている例では、前フレーム内の共通位置のブロック(すなわち、MV=0)を使用し、現在のフレーム内の失われたブロックを隠蔽する。他の時間的誤り隠蔽法は、他の動きベクトルを有するブロックを使用することができ、異なる処理単位、たとえばピクチャレベルまたはピクセルレベルで処理することができる。シーンカットアーチファクトは、どの時間的誤り隠蔽法についてもシーンカット周りで発生する可能性があることに留意されたい。
図1Aおよび図1Cに示されている例から、シーンカットアーチファクトは知覚ビデオ品質に対して強い悪影響を有することがわかる。したがって、客観ビデオ品質を正確に予測するために、ビデオ品質をモデリングするときシーンカットアーチファクトの作用を測定することが重要である。
シーンカットアーチファクトを検出するためには、最初に、シーンカットフレームが正しく受信されていないかどうか、またはシーンカットピクチャが失われたかどうか検出することが必要となり得る。これは、アーチファクトを検出するとき(ピクチャを再構築することなしに)ビットストリームをパースすることしかできないことを考えると、困難な問題である。これは、シーンカットフレームに対応する圧縮データが失われているとき、より困難になる。
明らかに、ビデオ品質モデリングに関するシーンカットアーチファクト検出問題は、通常ピクセル領域で機能し、ピクチャにアクセスする従来のシーンカットフレーム検出問題とは異なる。
シーンカットアーチファクトを考慮する例示的なビデオ品質モデリング方法300が図3に示されている。初期の可視アーチファクトとして、失われたデータ、たとえば図1Aおよび図2Aに示されているものに由来するアーチファクトを示す。さらに、初期の可視アーチファクトとして、シーン内の最初に受信されたピクチャ、たとえば図1Cおよび図2Bに示されているものからのタイプのアーチファクトをも分類する。
初期の可視アーチファクトを有するブロックがたとえばイントラ予測またはインター予測のための基準として使用される場合、初期の可視アーチファクトは、予測を介して同じ、または他のピクチャ内の他のマクロブロックに空間的または時間的に伝播する可能性がある。そのような伝播されたアーチファクトは、伝播可視アーチファクトとして示される。
方法300では、ステップ310でビデオビットストリームが入力され、そのビットストリームに対応するビデオの客観品質が推定されることになる。ステップ320では、初期の可視アーチファクトのレベルが計算される。初期の可視アーチファクトは、シーンカットアーチファクトおよび他のアーチファクトを含む可能性がある。初期の可視アーチファクトレベルは、アーチファクトタイプ、フレームタイプ、およびビットストリームから得られる他のフレームレベルまたはMBレベルの特徴から推定されてもよい。一実施形態では、シーンカットアーチファクトがマクロブロックで検出された場合、そのマクロブロックについての初期の可視アーチファクトレベルが、最も高いアーチファクトレベル(すなわち、より低い品質レベル)に設定される。
ステップ330では、伝播アーチファクトレベルが計算される。たとえば、シーンカットアーチファクトを有するとしてマクロブロックがマークされた場合、このマクロブロックを参照する他のピクセルすべての伝播アーチファクトレベルもまた、最も高いアーチファクトレベルに設定されることになる。ステップ340では、時空間的アーチファクトプーリング(spatio−temporal artifact pooling)アルゴリズムを使用し、異なるタイプのアーチファクトを1つの客観MOS(平均オピニオン評点)に変換することができ、この客観MOSは、入力ビットストリームに対応するビデオの視覚的品質全体を推定する。ステップ350では、推定されたMOSが出力される。
図4は、シーンカットアーチファクト検出のための例示的な方法400を示す。ステップ410では、ビットストリームを走査し、シーンカットアーチファクトについて場所候補を決定する。場所候補が決定された後、ステップ420で、シーンカットアーチファクトが場所候補に存在するかどうか判定する。
たとえばパケット損失がない場合、ステップ420だけをビットストリームレベルのシーンカットフレーム検出に使用してもよいことに留意されたい。これは、シーンレベルの特徴を決定するべきとき必要とされるシーン境界を得るために使用することができる。ステップ420が別々に使用されるとき、各フレームをシーンカットピクチャ候補とみなしてもよく、またはどのフレームを場所候補とみなすべきかを指定することができる。
以下では、シーンカットアーチファクト場所候補を決定し、シーンカットアーチファクト場所を検出するステップについてさらに詳細に論じる。
シーンカットアーチファクト場所候補を決定する
図2Aおよび図2Bにおいて論じたように、シーンカットアーチファクトは、部分的に受信されたシーンカットフレーム、または失われたシーンカットフレームを参照するフレームで発生する。したがって、パケット損失を有するフレームまたはパケット損失を囲んでいるフレームは、潜在的なシーンカットアーチファクト場所とみなすことができる。
一実施形態では、ビットストリームをパースするとき、受信されたパケットの数、失われたパケットの数、および各フレームごとの受信されたバイトの数が、タイムスタンプ、たとえばRTPタイムスタンプおよびMPEG−2 PESタイムスタンプに基づいて得られ、または圧縮されたビットストリーム内のシンタックス要素「frame_num」および復号されたフレームのフレームタイプもまた、記録される。得られたパケットの数、バイトの数、およびフレームタイプは、アーチファクト場所候補決定を洗練するために使用することができる。
以下では、RTPを介したH.264のためのRFC3984を例示的なトランスポートプロトコルとして使用して、シーンカットアーチファクト場所候補を決定する方法を示す。
各受信されたRTPパケットについて、どのビデオフレームに属するかを、タイムスタンプに基づいて決定することができる。すなわち、同じタイムスタンプを有するビデオパケットは、同じビデオフレームに属するとみなされる。部分的または完全に受信されているビデオフレームiについて、以下の変数が記録される。すなわち、
(1).sn(i)として示される、フレームiに属する最初に受信されたRTPパケットのシーケンス番号
(2).sn(i)として示される、フレームiについての最後に受信されたRTPパケットのシーケンス番号
(3).nloss(i)として示される、フレームiについての最初に受信されたRTPパケットと最後に受信されたRTPパケットとの間の失われたRTPパケットの数。
シーケンス番号はRTPプロトコルヘッダ内に定義され、RTPパケット当たり1だけ増分される。したがって、nloss(i)は、そのシーケンス番号がsn(i)とsn(i)の間にある失われたRTPパケットの数を、シーケンス番号の不連続性に基づいて計数することによって計算される。nloss(i)を計算する例が図5に示されている。この例では、sn(i)=105およびsn(i)=110である。フレームiについての開始パケット(シーケンス番号105を有する)と終了パケット(シーケンス番号110を有する)との間で、シーケンス番号107、109を有するパケットが失われている。したがって、この例では、nloss(i)=2である。
フレームiについて送信されたパケットの数を推定するために、パラメタpk_num(i)が定義され、
pk_num(i)=[sn(i)−sn(i−k)]/k (1)
として計算することができ、式中、フレームi−kは、フレームiの直前のフレームである(すなわち、フレームiとフレームi−kの間の他のフレームが失われている)。パケット損失を有する、または直前の(1または複数の)フレームが失われているフレームiについて、前(iでない)フレームのpk_numを長さN(たとえば、N=6)のスライディングウィンドウ内で平均することによってパラメタpk_num_avg(i)を計算する。すなわち、pk_num_avg(i)は、現在のフレームに先立つ送信されたパケットの平均(推定)数として定義される。すなわち
さらに、パケット当たりのバイトの平均数(bytes_numpacket(i))を、N個のフレームのスライディングウィンドウ内で直前フレームの受信されたパケット内のバイトの数を平均することによって計算することができる。フレームiについて送信されたバイトの数を推定するために、パラメタbytes_num(i)が定義され、
bytes_num(i)=bytesrecvd(i)+[nloss(i)+sn(i)−sn(i−k)−1]*bytes_numpacket(i)/k (3)
として計算することができ、式中、bytesrecvd(i)は、フレームiについて受信されたバイトの数であり、[nloss(i)+sn(i)−sn(i−k)−1]*bytes_numpacket(i)/kは、フレームiについての失われたバイトの推定数である。式(3)は、RTPプロトコルのために特に設計されていることに留意されたい。他のトランスポートプロトコルが使用されるとき、式(3)は、たとえば失われたパケットの推定数を調整することによって調整されるべきである。
パラメタbytes_num_avg(i)が、現在のフレームに先立つ送信されたバイトの平均(推定)数として定義され、スライディングウィンドウ内で前(iでない)フレームのbytes_numを平均することによって計算することができる。すなわち、
上記で論じたように、スライディングウィンドウを使用し、pk_num_avg、bytes_numpacket、およびbytes_num_avgを計算することができる。スライディングウィンドウ内に含まれるピクチャは、完全または部分的に受信される(すなわち、完全に失われてはいない)ことに留意されたい。ビデオシーケンス内のピクチャが一般に同じ空間分解能を有するとき、フレームについてのpk_numは、ピクチャコンテンツ、および圧縮に使用されたフレームタイプに大きく依存する。たとえば、図6Aに示されているように、QCIFビデオのPフレームは1つのパケットに対応し、Iフレームは、より多くのビットを必要とする可能性があり、したがってより多くのパケットに対応する。
図2Aに示されているように、シーンカットアーチファクトは、部分的に受信されたシーンカットフレームで発生する可能性がある。シーンカットフレームは、通常、Iフレームとして符号化されるので、部分的に受信されたIフレームは、シーンカットアーチファクトについての場所候補としてマークされる可能性があり、そのフレームインデックスがidx(k)として記録され、ここでkは、そのフレームがk番目の場所候補であることを示す。
シーンカットフレームは、イントラでないもの(たとえば、Pフレーム)として符号化されることもある。シーンカットアーチファクトは、そのようなフレームにおいても、部分的に受信されたとき発生し得る。また、フレームは、図2Bで論じたように、失われたシーンカットフレームを参照する場合、シーンカットアーチファクトを含む可能性がある。これらのシナリオでは、上記で論じたパラメタを使用し、フレームを場所候補にするべきかどうか、より正確に判定することができる。
図6A〜図6Dは、例として、上記で論じたパラメタを使用しシーンカットアーチファクト場所候補を識別する方法を示す。これらのフレームは、復号順序で順序付けられても表示順序でもよい。図6A〜図6Dの例すべてにおいて、フレーム60、120は、元のビデオにおけるシーンカットフレームである。
図6Aおよび図6Bの例では、フレーム47、109、137、235および271が完全に失われており、フレーム120および210は、部分的に受信されている。フレーム49、110、138、236、272、120および210については、pk_num(i)をpk_num_avg(i)と比較することができる。pk_num(i)がpk_num_avg(i)よりはるかに大きい、たとえば3であるとき、フレームiを、復号されたビデオにおけるシーンカットフレーム候補として識別することができる。図6Aの例では、フレーム120がシーンカットアーチファクト場所候補として識別される。
また、bytes_num(i)とbytes_num_avg(i)の間で比較を行うことができる。bytes_num(i)がbytes_num_avg(i)よりはるかに大きい場合、フレームiを、復号されたビデオにおけるシーンカットフレーム候補として識別することができる。図6Bの例では、この場合もフレーム120が場所候補として識別される。
図6Cおよび図6Dの例では、シーンカットフレーム120が完全に失われている。その次のフレーム121について、pk_num(i)をpk_num_avg(i)と比較することができる。図6Cの例では、3である。したがって、フレーム120は、シーンカットアーチファクト場所候補として識別されない。対照的に、bytes_num(i)をbytes_num_avg(i)と比較するとき、3およびフレーム120は、場所候補として識別される。
一般に、送信されたバイトの推定数を使用する方法は、送信されたパケットの推定数を使用する方法より良好な性能を有することがわかる。
図7は、{idx(k)}によって示されるデータセット内で記録されることになるシーンカットアーチファクト場所候補を決定するための例示的な方法700を示す。ステップ710では、k=0を設定することによってプロセスを初期化する。次いで、ステップ720で入力ビットストリームがパースされ、現在のフレームについてフレームタイプ、ならびに変数sn、sn、bytes_numpacket、およびbytesrecvdを得る。
ステップ730で、パケット損失があるかどうか判定される。フレームが完全に失われているとき、完全に失われてはいないその最も近い次のフレームが調べられ、それがシーンカットアーチファクト場所候補であるかどうか判定する。フレームが部分的に受信されている(すなわち、すべてではないがフレームの一部のパケットが失われている)とき、このフレームが調べられ、それがシーンカットアーチファクト場所候補であるかどうか判定する。
パケット損失がある場合、現在のフレームがINTRAフレームであるかどうか検査する。現在のフレームがINTRAフレームである場合、現在のフレームがシーンカット場所候補とみなされ、制御がステップ780に渡される。そうでない場合には、ステップ740で、たとえば式(1)および式(2)で述べたように、pk_numおよびpk_num_avgを計算する。ステップ750で、pk_num>T*pk_num_avgであるかどうか検査される。この不等式が成り立つ場合、現在のフレームが、シーンカットアーチファクトについてのフレーム候補とみなされ、制御はステップ780に渡される。
そうでない場合には、ステップ760で、たとえば式(3)および式(4)で述べたように、bytes_numおよびbytes_num_avgを計算する。ステップ770で、bytes_num>T*bytes_num_avgであるかどうか検査される。この不等式が成り立つ場合、現在のフレームが、シーンカットアーチファクトについてのフレーム候補とみなされ、ステップ780で、現在のフレームインデックスがidx(k)として記録され、kが1だけ増分される。そうでない場合には、ステップ790に制御を渡し、ステップ790は、ビットストリームが完全にパースされたかどうか検査する。パースが完了している場合、制御が最終ステップ799に渡される。そうでない場合には、制御がステップ720に戻る。
図7では、送信されたパケットの推定数と送信されたバイトの推定数を共に使用し、場所候補を決定する。他の実装では、これらの2つの方法を、別の順序で調べることができ、または別々に適用することもできる。
シーンカットアーチファクト場所を決定する
シーンカットアーチファクトは、場所候補セット{idx(k)}が決定された後で検出することができる。本実施形態は、シーンカットアーチファクト検出時に、パケットレイヤ情報(フレームサイズなど)およびビットストリーム情報(予測残さおよび動きベクトルなど)を使用する。シーンカットアーチファクト検出は、ビデオを再構築することなしに、すなわちビデオのピクセル情報を再構築することなしに実施することができる。ビットストリームは、ビデオに関する情報、たとえば予測残さおよび動きベクトルを得るために、部分的に復号されてもよいことに留意されたい。
フレームサイズを使用しシーンカットアーチファクト場所を検出するとき、シーンカット位置候補前後の(部分的または完全に)受信されたPフレームのバイトの数間の差が計算される。その差が閾値を超えた、たとえば3倍または3分の1である場合、そのシーンカットフレーム候補がシーンカットフレームとして決定される。
一方、予測残さエネルギー変化は、シーン変化があるとき、しばしば大きくなることに気付く。一般に、PフレームとBフレームの予測残さエネルギーは、桁が同じでなく、Bフレームの予測残さエネルギーは、Pフレームの予測残さエネルギーほどビデオコンテンツ情報を示すのに確実でない。したがって、Pフレームの残さエネルギーの方を使用したい。
図8を参照すると、11*9=99個のマクロブロックを含む例示的なピクチャ800が示されている。その場所(m,n)によって示された各マクロブロックについて、残さエネルギー係数が、逆量子化変換係数(de−quantized transform coefficient)から計算される。一実施形態では、残さエネルギー係数は、
として計算され、式中、Xp,q(m,n)は、マクロブロック(m,n)内の場所(p,q)での逆量子化変換係数である。別の実施形態では、AC係数だけを使用し、残さエネルギー係数を計算する。すなわち、
別の実施形態では、4×4変換が使用されるとき、残さエネルギー係数は、
として計算することができ、式中、Xu,1(m,n)はDC係数を表し、Xu,v(m,n)(v=2,...,16)は、u番目の4×4ブロックについてのAC係数を表し、αは、DC係数のための重み付け係数である。16×16マクロブロック内に16個の4×4ブロックがあり、各4×4ブロック内に16個の変換係数があることに留意されたい。次いで、ピクチャについての予測残さエネルギー係数は、マトリックスによって表すことができる。すなわち
マクロブロックではなく他の符号化単位が使用されるとき、予測残さエネルギーの計算を容易に適合させることができる。
k番目のフレーム場所候補についての差測度マトリックスは、
によって表すことができ、式中、Δem,n,kは、マクロブロック(m,n)におけるk番目の場所候補について計算された差測度である。フレーム内のマクロブロックすべてにわたって差を合計して、フレーム場所候補について差測度は、
として計算することができる。
また、Dを計算するためにマクロブロックのサブセットを使用し、計算を速めることができる。たとえば、マクロブロックの1つ置きの行、またはマクロブロックの1つ置きの列を計算に使用することができる。
一実施形態では、Δem,n,kは、場所候補に最も近い2つのPフレーム、すなわち場所候補直前の一方と直後の他方との差として計算されてもよい。図9Aおよび図9Bを参照すると、ピクチャ910、920、またはピクチャ950、960を使用し、両ピクチャにおけるマクロブロック(m,n)での予測残さエネルギー係数間で減算を適用することによって、Δem,n,kを計算することができる。
また、パラメタΔem,n,kは、ガウス関数の差(DoG)フィルターをより多くのピクチャに適用することによって計算することもできる。たとえば、10点DoGフィルターを、フィルターの中心がシーンカットアーチファクト場所候補に位置する状態で使用してもよい。図9Aおよび図9Bに戻ると、図9Aにおけるピクチャ910〜915、920〜925、または図9Bにおけるピクチャ950〜955、960〜965が使用されてもよい。各マクロブロック場所(m,n)について、ガウス関数の差フィルタリング機能をフレームのウィンドウのem,nに適用し、パラメタΔem,n,kを得る。
予測残さエネルギーを使用して計算された差が閾値を超えたとき、そのフレーム候補を、シーンカットアーチファクトを有するものとして検出することができる。
また、動きベクトルをシーンカットアーチファクト検出に使用することができる。たとえば、フレームのウィンドウ内の動きベクトルの平均の大きさ、動きベクトルの分散、および動きベクトルのヒストグラムを計算し、動きのレベルを示すことができる。Pフレームの動きベクトルがシーンカットアーチファクト検出に好ましい。動きレベルの差が閾値を超えた場合、そのシーンカット位置候補をシーンカットフレームとして決定することができる。
フレームサイズ、予測残さエネルギー、および動きベクトルなどの特徴を使用して、シーンカットフレームを、復号されたビデオにおいて場所候補で検出することができる。復号されたビデオでシーン変化が検出された場合、その場所候補が、シーンカットアーチファクトを有するものとして検出される。より具体的には、場所候補が部分的に失われたシーンカットフレームに対応する場合、検出されたシーンカットフレームの失われたマクロブロックがシーンカットアーチファクトを有するものとしてマークされ、場所候補が失われたシーンカットフレームを参照するPフレームまたはBフレームに対応する場合、失われたシーンカットフレームを参照するマクロブロックがシーンカットアーチファクトを有するものとしてマークされる。
元のビデオにおけるシーンカットは、復号されたビデオに見られるものと重なり合っても重なり合わなくてもよいことに留意されたい。先に論じ、たとえば図2Bに示されているように、シーン変化は、復号されたビデオではピクチャ280で観察され、一方、シーン変化は、元のビデオではピクチャ270で観察される。
図9Aおよび図9Bの例に示されているように、場所候補にあり、またその周りのフレームを使用し、フレームサイズ変化、予測残さエネルギー変化、および動き変化を計算することができる。場所候補が部分的に受信されたシーンカットフレーム905に対応するとき、その場所候補を囲んでいるPフレーム(910...915、920...925)を使用することができる。場所候補が失われたシーンカットフレーム940を参照するフレームに対応するとき、失われたフレームを囲んでいるPフレーム(950...955、960...965)を使用することができる。場所候補がPフレームに対応するとき、場所候補それ自体(960)を、予測残さエネルギー差を計算するために使用することができる。フレームサイズ、予測残さ、および動きレベルの変化を計算するために、異なる数のピクチャが使用されてもよいことに留意されたい。
図10は、場所候補からシーンカットフレームを検出するための例示的な方法1000を示す。ステップ1005では、y=0を設定することによってプロセスを初期化する。ステップ1010で、場所候補周りのPフレームが選択され、予測残さ、フレームサイズ、および動きベクトルがパースされる。
ステップ1020では、フレーム場所候補についてフレームサイズの差測度を計算する。ステップ1025では、閾値と比較することによってなど、大きなフレームサイズ変化が場所候補においてあるかどうか検査する。差が閾値よりも小さいである場合、制御をステップ1030に渡す。
そうでない場合には、ステップ1010で選択されたPフレームについて、ステップ1030で、予測残さエネルギーが個々のマクロブロックについて計算される。次いでステップ1040で、個々のマクロブロック場所について差測度を計算し、予測残さエネルギーの変化を示し、ステップ1050で、フレーム場所候補について、予測残さエネルギーの差測度を計算することができる。ステップ1060では、場所候補において大きな予測残さエネルギー変化があるかどうか検査する。一実施形態では、Dが大きい、たとえばD>Tであり、Tが閾値である場合には、その場所候補は、復号されたビデオ内のシーンカットフレームとして検出され、制御をステップ1080に渡す。
そうでない場合には、ステップ1065で、場所候補について動きの差測度を計算する。ステップ1070では、場所候補において大きな動き変化があるかどうか検査する。大きな差がある場合、制御をステップ1080に渡す。
ステップ1080では、対応するフレームインデックスが{idx’(y)}として記録され、yが1だけ増分され、ここでyは、そのフレームが復号されたビデオ内のy番目の検出されたシーンカットフレームであることを示す。1090で、場所候補すべてが処理されたかどうか判定する。場所候補すべてが処理されている場合、制御が最終ステップ1099に渡される。そうでない場合には、制御がステップ1010に戻る。
別の実施形態では、シーンカットフレーム候補がIフレームであるとき(735)、ピクチャと前のIフレームとの間の予測残さエネルギー差が計算される。予測残さエネルギー差は、ピクチャ内の正しく受信されたMBのエネルギーと、前のIフレーム内の共通位置のMBとを使用して計算される。エネルギー係数間の差が、大きい方のエネルギー係数よりT倍大きい場合(たとえば、T=1/3)、そのIフレーム候補は、復号されたビデオ内のシーンカットフレームとして検出される。これは、復号器が次のピクチャの復号に進む前にシーンカットフレーム候補のシーンカットアーチファクトを決定することが必要である、すなわち、次のピクチャの情報がアーチファクト検出時にまだ使用可能でないとき有用である。
これらの特徴は異なる順序で考慮することができることに留意されたい。たとえば、ビデオシーケンスの大規模なセットを様々な符号化/送信条件でトレーニングすることを介して、各特徴の有効性を学習することができる。トレーニング結果に基づいて、特徴の順序を、ビデオコンテンツおよび符号化/送信条件に基づいて選択することができる。また、シーンカットアーチファクト検出を速めるために、1つ、または2つの最も効果的な特徴をテストしようとだけ決めることができる。
様々な閾値、たとえばT、T、T、Tが方法900および方法1000で使用される。これらの閾値は、たとえばピクチャプロパティまたは他の条件に適応可能なものとすることができる。
別の実施形態では、計算複雑さに余裕があるとき、いくつかのIピクチャが再構築されることになる。一般に、ピクセル情報は、ビットストリームからパースされるパラメタ(たとえば、予測残さ、および動きベクトル)よりよくテクスチャコンテンツを反映することができ、したがって、再構築されたIピクチャをシーンカット検出に使用することにより、検出精度を改善することができる。Iフレームを復号することはPフレームまたはBフレームを復号することほど計算コストがかからないので、この検出精度の改善は、少しの計算オーバーヘッドという代価を払ってもたらされる。
図11は、例として、隣接するIフレームをどのようにシーンカット検出に使用することができるかを示す。図11Aに示されている例の場合、シーンカットフレーム候補(1120)が部分的に受信されたIフレームであるとき、そのフレームの受信された部分は、他のフレームを参照しないので、ピクセル領域に適正に復号することができる。同様に、隣接するIフレーム(1110、1130)もまた、甚だしい復号の複雑さを招くことなしに、ピクセル領域に復号することができる(すなわち、ピクチャが再構築される)。Iフレームが再構築された後で、従来のシーンカット検出方法を、たとえばフレーム(1120)の部分的に復号されたピクセルと、隣接するIフレーム(1110、1130)の共通位置のピクセルとの間で輝度のヒストグラムの差を比較することによって適用することができる。
図11Bに示されている例の場合、シーンカットフレーム候補(1160)が完全に失われている可能性がある。この場合、隣接するIフレーム(1150、1170)間の画像特徴差(たとえば、ヒストグラム差)が小さい場合、場所候補を、シーンカット場所ではないものとして識別することができる。これは、GOP長が通常0.5秒または1秒であり、その間に複数のシーン変化が発生しそうもないIPTVシナリオに特に当てはまる。
再構築されたIフレームをシーンカットアーチファクト検出に使用することは、Iフレーム間の距離が大きいとき使用が制限される。たとえば、モバイルビデオストリームのシナリオでは、GOP長が5秒に上昇する可能性があり、フレームレートは、15fpsと同程度の低いものになり得る。したがって、シーンカット場所候補と前のIフレームとの間の距離が大きすぎ、ロバストな検出性能が得られない。
いくつかのIピクチャを復号する実施形態を、ビットストリームレベルの実施形態(たとえば、方法1000)と組み合わせて使用し、互いに補い合うことができる。一実施形態では、いつそれらを共に展開するべきかは、符号化構成(たとえば、解像度、フレームレート)から判断されてもよい。
本原理をビデオ品質モニターで使用し、ビデオ品質を測定することができる。たとえば、ビデオ品質モニターは、シーンカットアーチファクト、および他のタイプのアーチファクトを検出および測定することができ、また伝播によって引き起こされるアーチファクトを考慮し、全体的な品質メトリックを提供することができる。
図12は、例示的なビデオ品質モニター1200のブロック図を示す。装置1200の入力は、ビットストリームを含むトランスポートストリームを含むことができる。この入力は、ビットストリームを含む他のフォーマットであってもよい。
デマルチプレクサ1205は、パケットレイヤ情報、たとえばパケットの数、バイトの数、フレームサイズをビットストリームから得る。復号器1210は、入力ストリームをパースし、より多くの情報、たとえばフレームタイプ、予測残さ、および動きベクトルを得る。復号器1210は、ピクチャを再構築してもしなくてもよい。他の実施形態では、復号器は、デマルチプレクサの機能を実施してもよい。
復号された情報を使用して、シーンカットアーチファクト場所候補がシーンカットアーチファクト候補検出器1220内で検出され、シーンカットアーチファクト候補検出器1220では、方法700を使用することができる。検出された場所候補について、シーンカットアーチファクト検出器1230は、復号されたビデオ内にシーンカットがあるかどうか判定し、したがって場所候補がシーンカットアーチファクトを含むかどうか判定する。たとえば、検出されたシーンカットフレームが部分的に失われたIフレームであるとき、そのフレーム内の失われたマクロブロックが、シーンカットアーチファクトを有するものとして検出される。別の例では、検出されたシーンカットフレームが失われたシーンカットフレームを参照するとき、その失われたシーンカットフレームを参照するマクロブロックが、シーンカットアーチファクトを有するものとして検出される。方法1000がシーンカット検出器1230によって使用されてもよい。
シーンカットアーチファクトがマクロブロックレベルで検出された後、品質予測器1240がアーチファクトを品質ストア内にマップする。品質予測器1240は、他のタイプのアーチファクトを考慮してもよく、また誤り伝播によって引き起こされるアーチファクトを考慮してもよい。
図13を参照すると、上述の特徴および原理を適用することができるビデオ送信システムまたは装置1300が示されている。プロセッサー1305はビデオを処理し、符号化器1310はビデオを符号化する。符号化器から生成されたビットストリームは、分散ネットワーク1320を介して復号器1330に送信される。ビデオ品質モニターは、異なる段階で使用されてもよい。
一実施形態では、ビデオ品質モニター1340がコンテンツクリエータによって使用されてもよい。たとえば、モード判断またはビットレート割振りなど符号化パラメタを決める際に、推定されたビデオ品質が符号化器によって使用されてもよい。別の例では、ビデオが符号化された後で、コンテンツクリエータは、ビデオ品質モニターを使用し、符号化されたビデオの品質をモニターする。品質メトリックが予め定義された品質レベルを満たさない場合、コンテンツクリエータは、ビデオ品質を改善するために、ビデオを再符号化することを選択してもよい。また、コンテンツクリエータは、品質に基づいて符号化されたビデオをランク付けしてもよく、それに応じてコンテンツをチャージする。
別の実施形態では、ビデオ品質モニター1350がコンテンツディストリビュータによって使用されてもよい。ビデオ品質モニターは、分散ネットワーク内に配置されてもよい。ビデオ品質モニターは、品質メトリックを計算し、それらをコンテンツディストリビュータにレポートする。コンテンツディストリビュータは、ビデオ品質モニターからのフィードバックに基づいて、帯域幅割振りおよびアクセス制御を調整することによってそのサービスを改善することができる。
また、コンテンツディストリビュータは、符号化を調整するために、フィードバックをコンテンツクリエータに送ることができる。高品質で符号化されたビデオは、通常、より多くの帯域幅を必要とし、送信保護のためにあまり多くの帯域幅を残さないので、符号化品質を符号化器で改善することは、必ずしも復号器側での品質を改善しない可能性があることに留意されたい。したがって、復号器において最適な品質に達するために、符号化ビットレートとチャネル保護のための帯域幅との間のバランスを考慮するべきである。
別の実施形態では、ビデオ品質モニター1360がユーザデバイスによって使用されてもよい。たとえば、ユーザデバイスがインターネット内で検索するとき、検索結果は、要求されたビデオコンテンツに対応する多数のビデオまたはビデオに対する多数のリンクを返す可能性がある。検索結果内のビデオは、異なる品質レベルを有する可能性がある。ビデオ品質モニターは、これらのビデオについて品質メトリックを計算し、どのビデオを記憶するために選択するか判断することができる。別の例では、ユーザは、いくつかの誤り隠蔽技法にアクセスすることができてもよい。ビデオ品質モニターは、異なる誤り隠蔽技法について品質メトリックを計算し、計算された品質メトリックに基づいてどの隠蔽技法を使用するか自動的に選択することができる。
本明細書に記載の実装は、たとえば方法もしくはプロセス、装置、ソフトウェアプログラム、データストリーム、または信号で実現することができる。単一の形態の実装の状況でのみ論じられている(たとえば、方法としてのみ論じられている)場合でさえ、論じられている特徴の実装は、他の形態(たとえば、装置またはプログラム)で実現されてもよい。装置は、たとえば適切なハードウェア、ソフトウェア、およびファームウェアで実現することができる。方法は、たとえばプロセッサーなど、たとえば装置で実現することができ、プロセッサーは、たとえばコンピュータ、マイクロプロセッサ、集積回路、またはプログラム可能な論理デバイスを含めて、一般的な処理デバイスを指す。また、プロセッサーは、たとえばコンピュータ、携帯電話、ポータブル/携帯情報端末(「PDA」)、およびエンドユーザ間での情報の通信を容易にする他のデバイスなど、通信デバイスを含む。
本明細書に記載の様々なプロセスおよび特徴の実装は、様々な異なる機器またはアプリケーション、特に、たとえばデータ符号化、データ復号、シーンカットアーチファクト検出、品質測定、および品質モニタリングに関連する機器またはアプリケーションで実施することができる。そのような機器の例は、符号化器、復号器、復号器からの出力を処理するポストプロセッサー、符号化器に入力を提供するプリプロセッサ、ビデオコーダ、ビデオ復号器、ビデオコーデック、ウェブサーバー、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA、ゲームコンソール、および他の通信デバイスを含む。明らかであるように、機器はモバイルとすることができ、さらに移動車両に設置されてもよい。
さらに、方法は、プロセッサーによって実施される命令によって実現されてもよく、そのような命令(および/または実装によって生成されるデータ値)は、たとえば集積回路、ソフトウェア担持体、または、たとえばハードディスク、コンパクトディスク(「CD」)、光ディスク(たとえば、しばしばディジタル多用途ディスクまたはディジタルビデオディスクと呼ばれるDVDなど)、ランダムアクセスメモリ(「RAM」)、もしくは読出し専用メモリ(「ROM」)など他の記憶デバイスなど、プロセッサー可読媒体上に記憶されてもよい。命令は、プロセッサー可読媒体上で有形に実施されるアプリケーションプログラムを形成することができる。命令は、たとえばハードウェア、ファームウェア、ソフトウェア、または組合せ内にあってもよい。命令は、たとえばオペレーティングシステム、別個のアプリケーション、またはそれら2つの組合せ内に見出されてもよい。したがって、プロセッサーは、たとえば、プロセスを実施するように構成されたデバイスとしても、プロセスを実施するための命令を有するプロセッサー可読媒体(記憶デバイスなど)を含むデバイスとしても特徴付けることができる。さらに、プロセッサー可読媒体は、命令に加えて、または命令の代わりに、実装によって生成されるデータ値を記憶してもよい。
当業者には明らかであるように、実装は、たとえば記憶または送信することができる情報を担持するようにフォーマット化された様々な信号を生成することができる。この情報は、たとえば、方法を実施するための命令、または記載の実装の1つによって生成されるデータを含むことができる。たとえば、信号は、記載の実施形態のシンタックスを書き込む、または読み出すための規則をデータとして担持するようにフォーマット化されても、記載の実施形態によって書き込まれた実際のシンタックス値をデータとして担持するようにフォーマット化されてもよい。そのような信号は、たとえば、(たとえばスペクトルの無線周波数部分を使用して)電磁波として、またはベースバンド信号としてフォーマット化されてもよい。フォーマット化することは、たとえば、データストリームを符号化すること、および搬送波を符号化されたデータストリームで変調することを含むことができる。信号が担持する情報は、たとえばアナログ情報でもディジタル情報でもよい。信号は、知られているように、様々な異なる有線リンクまたは無線リンクを介して送信されてもよい。信号は、プロセッサー可読媒体上に記憶されてもよい。
いくつかの実装について述べた。しかし、様々な修正を加えることができることを理解されたい。たとえば、異なる実装の要素を組み合わせ、補足し、修正し、または除去し、他の実装を作り出すことができる。さらに、他の構造またはプロセスを、開示されているものの代わりにすることができ、得られる実装は、少なくとも実質的に同じ(1または複数の)機能を、少なくとも実質的に同じ(1または複数の)方法で実施し、開示されている実装と実質的に同じ(1または複数の)結果を達成することになることを当業者なら理解するであろう。したがって、これらの、および他の実装は、本願によって企図されている。
いくつかの実装について述べた。しかし、様々な修正を加えることができることを理解されたい。たとえば、異なる実装の要素を組み合わせ、補足し、修正し、または除去し、他の実装を作り出すことができる。さらに、他の構造またはプロセスを、開示されているものの代わりにすることができ、得られる実装は、少なくとも実質的に同じ(1または複数の)機能を、少なくとも実質的に同じ(1または複数の)方法で実施し、開示されている実装と実質的に同じ(1または複数の)結果を達成することになることを当業者なら理解するであろう。したがって、これらの、および他の実装は、本願によって企図されている。
(付記1)
符号化されたピクチャを含むビットストリームにアクセスするステップと、
ピクセル情報を導出するために前記ビットストリームを復号することなしに前記ビットストリームからの情報を使用して前記ビットストリーム内のシーンカットピクチャを決定するステップ(1080)と、
を含む方法。
(付記2)
前記決定するステップは、
フレームサイズ、予測残さ、および動きベクトルのうちの少なくとも1つに応答して、前記ビットストリームからの一組のピクチャ間で、それぞれの差測度を決定するステップ(1020、1050、1065)であって、前記一組のピクチャは、シーンカットピクチャ候補、前記シーンカットピクチャ候補に先立つピクチャ、および前記シーンカットピクチャ候補に続くピクチャのうちの少なくとも1つを含む、ステップと、
前記差測度の1または複数がそれらのそれぞれの所定の閾値を超えた場合(1025、1060、1070)、前記シーンカットピクチャ候補が前記シーンカットピクチャであると決定するステップ(1080)と、
を含む、付記1に記載の方法。
(付記3)
前記それぞれの差測度を決定するステップは、
前記一組のピクチャのピクチャについてのブロック場所に対応する予測残さエネルギー係数を計算するステップ(1030)と、
前記予測残さエネルギー係数を使用して、前記ブロック場所についての差測度を計算するステップ(1040)であって、前記ブロック場所についての前記差測度は、前記シーンカットピクチャ候補についての前記差測度を計算するために使用される、ステップと、
をさらに含む、付記2に記載の方法。
(付記4)
イントラピクチャ内の少なくとも1つのブロックについて圧縮されたデータが失われた場合(730)、前記イントラピクチャを前記シーンカットピクチャ候補として選択するステップ(735、780)をさらに含む、付記2に記載の方法。
(付記5)
前記シーンカットピクチャ内の前記少なくとも1つのブロックがシーンカットアーチファクトを有すると決定するステップをさらに含む、付記4に記載の方法。
(付記6)
前記シーンカットアーチファクトを有すると決定された前記少なくとも1つのブロックに、最も低い品質レベルを割り当てるステップをさらに含む、付記5に記載の方法。
(付記7)
失われたピクチャを参照するピクチャを前記シーンカットピクチャ候補として選択するステップをさらに含む、付記2に記載の方法。
(付記8)
ピクチャの送信されたパケットの推定数、および前記ピクチャに先立つピクチャの送信されたパケットの平均数を決定するステップ(740)をさらに含み、前記ピクチャの送信されたパケットの前記推定数と前記ピクチャに先立つピクチャの送信されたパケットの前記平均数との比が所定の閾値を超えたとき、前記ピクチャが前記シーンカットピクチャ候補として選択される(750、780)、付記7に記載の方法。
(付記9)
ピクチャの送信されたバイトの推定数、および前記ピクチャに先立つピクチャの送信されたバイトの平均数を決定するステップ(760)をさらに含み、前記ピクチャの送信されたバイトの前記推定数と前記ピクチャに先立つピクチャの送信されたバイトの前記平均数との比が所定の閾値を超えたとき、前記ピクチャが前記シーンカットピクチャ候補として選択される(770、780)、付記7に記載の方法。
(付記10)
前記ピクチャの送信されたバイトの前記推定数は、前記ピクチャの受信されたバイトの数、および失われたバイトの推定数に応答して決定される、付記9に記載の方法。
(付記11)
前記シーンカットピクチャ内のブロックが前記失われたピクチャを参照するとき、前記ブロックがシーンカットアーチファクトを有すると決定するステップをさらに含む、付記7に記載の方法。
(付記12)
前記ブロックに最も低い品質レベルを割り当てるステップをさらに含み、前記ブロックは、前記シーンカットアーチファクトを有すると決定される、付記11に記載の方法。
(付記13)
前記一組のピクチャ内のピクチャは、Pピクチャである(1010)、付記2に記載の方法。
(付記14)
符号化されたピクチャを含むビットストリームにアクセスする復号器(1210)と、
ピクセル情報を導出するために前記ビットストリームを復号することなしに前記ビットストリームからの情報を使用して前記ビットストリーム内のシーンカットピクチャを決定するシーンカットアーチファクト検出器(1230)と、
を備える装置。
(付記15)
前記復号器(1210)は、前記ビットストリームからの一組のピクチャについて、フレームサイズ、予測残さ、および動きベクトルのうちの少なくとも1つを復号し、前記一組のピクチャは、シーンカットピクチャ候補、前記シーンカットピクチャ候補に先立つピクチャ、および前記シーンカットピクチャ候補に続くピクチャのうちの少なくとも1つを含み、前記シーンカットアーチファクト検出器(1230)は、前記シーンカットピクチャ候補について、前記フレームサイズ、前記予測残さ、および前記動きベクトルのうちの前記少なくとも1つに応答して、それぞれの差測度を決定し、前記差測度の1または複数がそれらのそれぞれの所定の閾値を超えた場合、前記シーンカットピクチャ候補が前記シーンカットピクチャであると決定する、付記14に記載の装置。
(付記16)
イントラピクチャ内の少なくとも1つのブロックについて圧縮されたデータが失われた場合(730)、前記イントラピクチャを前記シーンカットピクチャ候補として選択するシーンカットアーチファクト候補検出器(1220)をさらに備える、付記15に記載の装置。
(付記17)
前記シーンカットアーチファクト検出器(1230)は、前記シーンカットピクチャ内の前記少なくとも1つのブロックがシーンカットアーチファクトを有すると決定する、付記16に記載の装置。
(付記18)
前記シーンカットアーチファクトを有すると決定された前記少なくとも1つのブロックに、最も低い品質レベルを割り当てる品質予測器(1240)をさらに備える、付記17に記載の装置。
(付記19)
失われたピクチャを参照するピクチャを前記シーンカットピクチャ候補として選択するシーンカットアーチファクト候補検出器(1220)をさらに備える、付記15に記載の装置。
(付記20)
前記シーンカットアーチファクト候補検出器(1220)は、ピクチャの送信されたパケットの推定数、および前記ピクチャに先立つピクチャの送信されたパケットの平均数を決定し、前記ピクチャの送信されたパケットの前記推定数と前記ピクチャに先立つ前記ピクチャの送信されたパケットの前記平均数との比が所定の閾値を超えたとき、前記ピクチャを前記シーンカットピクチャ候補として選択する、付記19に記載の装置。
(付記21)
前記シーンカットアーチファクト候補検出器(1220)は、ピクチャの送信されたバイトの推定数、および前記ピクチャに先立つピクチャの送信されたバイトの平均数を決定し、前記ピクチャの送信されたバイトの前記推定数と前記ピクチャに先立つ前記ピクチャの送信されたバイトの前記平均数との比が所定の閾値を超えたとき、前記ピクチャを前記シーンカットピクチャ候補として選択する、付記19に記載の装置。
(付記22)
前記シーンカットアーチファクト候補検出器(1220)は、前記ピクチャの送信されたバイトの前記推定数を、前記ピクチャの受信されたバイトの数、および失われたバイトの推定数に応答して決定する、付記21に記載の装置。
(付記23)
前記シーンカットアーチファクト検出器(1230)は、前記シーンカットピクチャ内のブロックが前記失われたピクチャを参照するとき、前記ブロックがシーンカットアーチファクトを有すると決定する、付記19に記載の装置。
(付記24)
前記ブロックに最も低い品質レベルを割り当てる品質予測器(1240)であって、前記ブロックは、前記シーンカットアーチファクトを有すると決定される、品質予測器をさらに備える、付記23に記載の装置。
(付記25)
1または複数のプロセッサーに、
符号化されたピクチャを含むビットストリームにアクセスすることと、
ピクセル情報を導出するために前記ビットストリームを復号することなしに前記ビットストリームからの情報を使用して前記ビットストリーム内のシーンカットピクチャを決定すること(1080)と、
を共同で実施させるための命令を記憶しているプロセッサー可読媒体。

Claims (25)

  1. 符号化されたピクチャを含むビットストリームにアクセスするステップと、
    ピクセル情報を導出するために前記ビットストリームを復号することなしに前記ビットストリームからの情報を使用して前記ビットストリーム内のシーンカットピクチャを決定するステップ(1080)と、
    を含む方法。
  2. 前記決定するステップは、
    フレームサイズ、予測残さ、および動きベクトルのうちの少なくとも1つに応答して、前記ビットストリームからの一組のピクチャ間で、それぞれの差測度を決定するステップ(1020、1050、1065)であって、前記一組のピクチャは、シーンカットピクチャ候補、前記シーンカットピクチャ候補に先立つピクチャ、および前記シーンカットピクチャ候補に続くピクチャのうちの少なくとも1つを含む、ステップと、
    前記差測度の1または複数がそれらのそれぞれの所定の閾値を超えた場合(1025、1060、1070)、前記シーンカットピクチャ候補が前記シーンカットピクチャであると決定するステップ(1080)と、
    を含む、請求項1に記載の方法。
  3. 前記それぞれの差測度を決定するステップは、
    前記一組のピクチャのピクチャについてのブロック場所に対応する予測残さエネルギー係数を計算するステップ(1030)と、
    前記予測残さエネルギー係数を使用して、前記ブロック場所についての差測度を計算するステップ(1040)であって、前記ブロック場所についての前記差測度は、前記シーンカットピクチャ候補についての前記差測度を計算するために使用される、ステップと、
    をさらに含む、請求項2に記載の方法。
  4. イントラピクチャ内の少なくとも1つのブロックについて圧縮されたデータが失われた場合(730)、前記イントラピクチャを前記シーンカットピクチャ候補として選択するステップ(735、780)をさらに含む、請求項2に記載の方法。
  5. 前記シーンカットピクチャ内の前記少なくとも1つのブロックがシーンカットアーチファクトを有すると決定するステップをさらに含む、請求項4に記載の方法。
  6. 前記シーンカットアーチファクトを有すると決定された前記少なくとも1つのブロックに、最も低い品質レベルを割り当てるステップをさらに含む、請求項5に記載の方法。
  7. 失われたピクチャを参照するピクチャを前記シーンカットピクチャ候補として選択するステップをさらに含む、請求項2に記載の方法。
  8. ピクチャの送信されたパケットの推定数、および前記ピクチャに先立つピクチャの送信されたパケットの平均数を決定するステップ(740)をさらに含み、前記ピクチャの送信されたパケットの前記推定数と前記ピクチャに先立つピクチャの送信されたパケットの前記平均数との比が所定の閾値を超えたとき、前記ピクチャが前記シーンカットピクチャ候補として選択される(750、780)、請求項7に記載の方法。
  9. ピクチャの送信されたバイトの推定数、および前記ピクチャに先立つピクチャの送信されたバイトの平均数を決定するステップ(760)をさらに含み、前記ピクチャの送信されたバイトの前記推定数と前記ピクチャに先立つピクチャの送信されたバイトの前記平均数との比が所定の閾値を超えたとき、前記ピクチャが前記シーンカットピクチャ候補として選択される(770、780)、請求項7に記載の方法。
  10. 前記ピクチャの送信されたバイトの前記推定数は、前記ピクチャの受信されたバイトの数、および失われたバイトの推定数に応答して決定される、請求項9に記載の方法。
  11. 前記シーンカットピクチャ内のブロックが前記失われたピクチャを参照するとき、前記ブロックがシーンカットアーチファクトを有すると決定するステップをさらに含む、請求項7に記載の方法。
  12. 前記ブロックに最も低い品質レベルを割り当てるステップをさらに含み、前記ブロックは、前記シーンカットアーチファクトを有すると決定される、請求項11に記載の方法。
  13. 前記一組のピクチャ内のピクチャは、Pピクチャである(1010)、請求項2に記載の方法。
  14. 符号化されたピクチャを含むビットストリームにアクセスする復号器(1210)と、
    ピクセル情報を導出するために前記ビットストリームを復号することなしに前記ビットストリームからの情報を使用して前記ビットストリーム内のシーンカットピクチャを決定するシーンカットアーチファクト検出器(1230)と、
    を備える装置。
  15. 前記復号器(1210)は、前記ビットストリームからの一組のピクチャについて、フレームサイズ、予測残さ、および動きベクトルのうちの少なくとも1つを復号し、前記一組のピクチャは、シーンカットピクチャ候補、前記シーンカットピクチャ候補に先立つピクチャ、および前記シーンカットピクチャ候補に続くピクチャのうちの少なくとも1つを含み、前記シーンカットアーチファクト検出器(1230)は、前記シーンカットピクチャ候補について、前記フレームサイズ、前記予測残さ、および前記動きベクトルのうちの前記少なくとも1つに応答して、それぞれの差測度を決定し、前記差測度の1または複数がそれらのそれぞれの所定の閾値を超えた場合、前記シーンカットピクチャ候補が前記シーンカットピクチャであると決定する、請求項14に記載の装置。
  16. イントラピクチャ内の少なくとも1つのブロックについて圧縮されたデータが失われた場合(730)、前記イントラピクチャを前記シーンカットピクチャ候補として選択するシーンカットアーチファクト候補検出器(1220)をさらに備える、請求項15に記載の装置。
  17. 前記シーンカットアーチファクト検出器(1230)は、前記シーンカットピクチャ内の前記少なくとも1つのブロックがシーンカットアーチファクトを有すると決定する、請求項16に記載の装置。
  18. 前記シーンカットアーチファクトを有すると決定された前記少なくとも1つのブロックに、最も低い品質レベルを割り当てる品質予測器(1240)をさらに備える、請求項17に記載の装置。
  19. 失われたピクチャを参照するピクチャを前記シーンカットピクチャ候補として選択するシーンカットアーチファクト候補検出器(1220)をさらに備える、請求項15に記載の装置。
  20. 前記シーンカットアーチファクト候補検出器(1220)は、ピクチャの送信されたパケットの推定数、および前記ピクチャに先立つピクチャの送信されたパケットの平均数を決定し、前記ピクチャの送信されたパケットの前記推定数と前記ピクチャに先立つ前記ピクチャの送信されたパケットの前記平均数との比が所定の閾値を超えたとき、前記ピクチャを前記シーンカットピクチャ候補として選択する、請求項19に記載の装置。
  21. 前記シーンカットアーチファクト候補検出器(1220)は、ピクチャの送信されたバイトの推定数、および前記ピクチャに先立つピクチャの送信されたバイトの平均数を決定し、前記ピクチャの送信されたバイトの前記推定数と前記ピクチャに先立つ前記ピクチャの送信されたバイトの前記平均数との比が所定の閾値を超えたとき、前記ピクチャを前記シーンカットピクチャ候補として選択する、請求項19に記載の装置。
  22. 前記シーンカットアーチファクト候補検出器(1220)は、前記ピクチャの送信されたバイトの前記推定数を、前記ピクチャの受信されたバイトの数、および失われたバイトの推定数に応答して決定する、請求項21に記載の装置。
  23. 前記シーンカットアーチファクト検出器(1230)は、前記シーンカットピクチャ内のブロックが前記失われたピクチャを参照するとき、前記ブロックがシーンカットアーチファクトを有すると決定する、請求項19に記載の装置。
  24. 前記ブロックに最も低い品質レベルを割り当てる品質予測器(1240)であって、前記ブロックは、前記シーンカットアーチファクトを有すると決定される、品質予測器をさらに備える、請求項23に記載の装置。
  25. 1または複数のプロセッサーに、
    符号化されたピクチャを含むビットストリームにアクセスすることと、
    ピクセル情報を導出するために前記ビットストリームを復号することなしに前記ビットストリームからの情報を使用して前記ビットストリーム内のシーンカットピクチャを決定すること(1080)と、
    を共同で実施させるための命令を記憶しているプロセッサー可読媒体。
JP2014542666A 2011-11-25 2011-11-25 シーンカットアーチファクトを考慮するビデオ品質評価 Expired - Fee Related JP5981561B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/082955 WO2013075335A1 (en) 2011-11-25 2011-11-25 Video quality assessment considering scene cut artifacts

Publications (2)

Publication Number Publication Date
JP2015502713A true JP2015502713A (ja) 2015-01-22
JP5981561B2 JP5981561B2 (ja) 2016-08-31

Family

ID=48469029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014542666A Expired - Fee Related JP5981561B2 (ja) 2011-11-25 2011-11-25 シーンカットアーチファクトを考慮するビデオ品質評価

Country Status (10)

Country Link
US (1) US20140301486A1 (ja)
EP (1) EP2783513A4 (ja)
JP (1) JP5981561B2 (ja)
KR (1) KR20140110881A (ja)
CN (1) CN103988501A (ja)
CA (1) CA2855177A1 (ja)
HK (1) HK1202739A1 (ja)
MX (1) MX339675B (ja)
RU (1) RU2597493C2 (ja)
WO (1) WO2013075335A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012098078A2 (en) * 2011-01-21 2012-07-26 Siemens Aktiengesellschaft Method for processing a compressed video stream
US9565404B2 (en) * 2012-07-30 2017-02-07 Apple Inc. Encoding techniques for banding reduction
AU2012388049A1 (en) 2012-08-23 2015-02-26 Thomson Licensing Method and apparatus for detecting gradual transition picture in video bitstream
CN107005704B (zh) * 2014-10-16 2020-07-24 三星电子株式会社 处理编码视频数据的方法和装置及生成编码视频数据的方法和装置
CN106713901B (zh) * 2015-11-18 2018-10-19 华为技术有限公司 一种视频质量评价方法及装置
US10834406B2 (en) * 2016-12-12 2020-11-10 Netflix, Inc. Device-consistent techniques for predicting absolute perceptual video quality
RU2651206C1 (ru) * 2016-12-21 2018-04-18 Общество с ограниченной ответственностью "СТРИМ Лабс" (ООО "СТРИМ Лабс") Способ и система выявления искажений в системах цифрового телевидения
KR20180093441A (ko) 2017-02-13 2018-08-22 주식회사 마크애니 영상 구조 변경을 통한 워터마크 삽입 장치 및 방법
US10609440B1 (en) * 2018-06-08 2020-03-31 Amazon Technologies, Inc. Timing data anomaly detection and correction
US10970555B2 (en) 2019-08-27 2021-04-06 At&T Intellectual Property I, L.P. Data-driven event detection for compressed video
US12075061B2 (en) 2022-09-29 2024-08-27 Nvidia Corporation Frame selection for streaming applications
US12047595B2 (en) 2022-09-29 2024-07-23 Nvidia Corporation Frame selection for streaming applications
CN115866347B (zh) * 2023-02-22 2023-08-01 北京百度网讯科技有限公司 视频处理方法、装置、电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133305A (ja) * 1992-09-07 1994-05-13 Fujitsu Ltd 画像データ符号化方法、その方法を用いた画像データ符号化装置、画像データ復元方法、その方法を用いた画像データ復元装置、シーン変化検出方法、その方法を用いたシーン変化検出装置、シーン変化記録装置、及び画像データのシーン変化記録・再生装置
JPH09322174A (ja) * 1996-05-30 1997-12-12 Hitachi Ltd 動画データの再生方法
JP2005505165A (ja) * 2001-09-26 2005-02-17 トムソン ライセンシング ソシエテ アノニム ビデオ・ビットストリーム内でのシーンカット検出
EP1571594A2 (en) * 2004-03-02 2005-09-07 Siemens Corporate Research, Inc. Illumination invariant change detection
JP2007013973A (ja) * 2005-06-30 2007-01-18 Samsung Electronics Co Ltd エラー隠匿方法及び装置
WO2008093714A1 (ja) * 2007-01-31 2008-08-07 Nec Corporation 画質評価方法、画質評価装置および画質評価プログラム
GB2475739A (en) * 2009-11-30 2011-06-01 Nokia Corp Video decoding with error concealment dependent upon video scene change.
JP2013516870A (ja) * 2010-01-11 2013-05-13 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 映像品質推定技術
JP2015501568A (ja) * 2011-10-11 2015-01-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) ビデオシーケンスにおける知覚品質評価のためのシーン変化検出

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2366464A (en) * 2000-08-14 2002-03-06 Nokia Mobile Phones Ltd Video coding using intra and inter coding on the same data
GB0228556D0 (en) * 2002-12-06 2003-01-15 British Telecomm Video quality measurement
KR100736041B1 (ko) * 2005-06-30 2007-07-06 삼성전자주식회사 에러 은닉 방법 및 장치
CN101072342B (zh) * 2006-07-01 2010-08-11 腾讯科技(深圳)有限公司 一种场景切换的检测方法及其检测系统
WO2008019525A1 (en) * 2006-07-17 2008-02-21 Thomson Licensing Method and apparatus for adapting a default encoding of a digital video signal during a scene change period
RU2420022C2 (ru) * 2006-10-19 2011-05-27 Телефонактиеболагет Лм Эрикссон (Пабл) Способ определения качества видео
US8379734B2 (en) * 2007-03-23 2013-02-19 Qualcomm Incorporated Methods of performing error concealment for digital video
CN101355708B (zh) * 2007-07-25 2011-03-16 中兴通讯股份有限公司 一种自适应误码掩盖方法
JP5191240B2 (ja) * 2008-01-09 2013-05-08 オリンパス株式会社 シーン変化検出装置およびシーン変化検出プログラム
US8973029B2 (en) * 2009-03-31 2015-03-03 Disney Enterprises, Inc. Backpropagating a virtual camera to prevent delayed virtual insertion
US8830339B2 (en) * 2009-04-15 2014-09-09 Qualcomm Incorporated Auto-triggered fast frame rate digital video recording
US20100309976A1 (en) * 2009-06-04 2010-12-09 Texas Instruments Incorporated Method and apparatus for enhancing reference frame selection
JP2011029987A (ja) * 2009-07-27 2011-02-10 Toshiba Corp 圧縮歪除去装置
JP5484140B2 (ja) * 2010-03-17 2014-05-07 Kddi株式会社 映像品質の客観画質評価装置
WO2012089678A1 (en) * 2010-12-30 2012-07-05 Skype Concealment of data loss for video decoding
US8675989B2 (en) * 2011-04-13 2014-03-18 Raytheon Company Optimized orthonormal system and method for reducing dimensionality of hyperspectral images

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133305A (ja) * 1992-09-07 1994-05-13 Fujitsu Ltd 画像データ符号化方法、その方法を用いた画像データ符号化装置、画像データ復元方法、その方法を用いた画像データ復元装置、シーン変化検出方法、その方法を用いたシーン変化検出装置、シーン変化記録装置、及び画像データのシーン変化記録・再生装置
JPH09322174A (ja) * 1996-05-30 1997-12-12 Hitachi Ltd 動画データの再生方法
JP2005505165A (ja) * 2001-09-26 2005-02-17 トムソン ライセンシング ソシエテ アノニム ビデオ・ビットストリーム内でのシーンカット検出
EP1571594A2 (en) * 2004-03-02 2005-09-07 Siemens Corporate Research, Inc. Illumination invariant change detection
JP2007013973A (ja) * 2005-06-30 2007-01-18 Samsung Electronics Co Ltd エラー隠匿方法及び装置
WO2008093714A1 (ja) * 2007-01-31 2008-08-07 Nec Corporation 画質評価方法、画質評価装置および画質評価プログラム
GB2475739A (en) * 2009-11-30 2011-06-01 Nokia Corp Video decoding with error concealment dependent upon video scene change.
JP2013516870A (ja) * 2010-01-11 2013-05-13 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 映像品質推定技術
JP2015501568A (ja) * 2011-10-11 2015-01-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) ビデオシーケンスにおける知覚品質評価のためのシーン変化検出

Also Published As

Publication number Publication date
CN103988501A (zh) 2014-08-13
RU2014125557A (ru) 2015-12-27
MX339675B (es) 2016-06-01
KR20140110881A (ko) 2014-09-17
EP2783513A1 (en) 2014-10-01
MX2014006269A (es) 2014-07-09
RU2597493C2 (ru) 2016-09-10
EP2783513A4 (en) 2015-08-05
CA2855177A1 (en) 2013-05-30
US20140301486A1 (en) 2014-10-09
JP5981561B2 (ja) 2016-08-31
HK1202739A1 (en) 2015-10-02
WO2013075335A1 (en) 2013-05-30

Similar Documents

Publication Publication Date Title
JP5981561B2 (ja) シーンカットアーチファクトを考慮するビデオ品質評価
KR101414435B1 (ko) 비디오 스트림 품질 평가 방법 및 장치
JP5758405B2 (ja) 映像品質推定技術
US10075710B2 (en) Video quality measurement
EP2936804A1 (en) Video quality model, method for training a video quality model, and method for determining video quality using a video quality model
AU2012385919B2 (en) Video quality assessment at a bitstream level
JP5911563B2 (ja) ビットストリームレベルで動画品質を推定する方法及び装置
US9723301B2 (en) Method and apparatus for context-based video quality assessment
US9716881B2 (en) Method and apparatus for context-based video quality assessment
Wang et al. Network-based model for video packet importance considering both compression artifacts and packet losses
Wang et al. Packet dropping for H. 264 videos considering both coding and packet-loss artifacts
WO2014198062A1 (en) Method and apparatus for video quality measurement
CN104969548A (zh) 用于基于上下文的视频质量评估的方法和装置
CN104995914A (zh) 用于基于上下文的视频质量评估的方法和装置
MX2015002287A (es) Metodo y aparato para estimar la homogeneidad de movimiento para evaluacion de calidad de video.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151229

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151229

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160418

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160603

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160728

R150 Certificate of patent or registration of utility model

Ref document number: 5981561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees