JP4482031B2 - 映像整合装置、方法、およびプログラム - Google Patents

映像整合装置、方法、およびプログラム Download PDF

Info

Publication number
JP4482031B2
JP4482031B2 JP2007524656A JP2007524656A JP4482031B2 JP 4482031 B2 JP4482031 B2 JP 4482031B2 JP 2007524656 A JP2007524656 A JP 2007524656A JP 2007524656 A JP2007524656 A JP 2007524656A JP 4482031 B2 JP4482031 B2 JP 4482031B2
Authority
JP
Japan
Prior art keywords
video
matching
frame
image
degraded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007524656A
Other languages
English (en)
Other versions
JPWO2007007750A1 (ja
Inventor
淳 岡本
孝昭 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2007007750A1 publication Critical patent/JPWO2007007750A1/ja
Application granted granted Critical
Publication of JP4482031B2 publication Critical patent/JP4482031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Picture Signal Circuits (AREA)

Description

本発明は、映像処理技術に関し、特に映像の主観品質評価に用いる基準映像と劣化映像を時間的および空間的に整合させる映像整合技術に関する。
時間軸に沿って並べられた複数の映像フレーム(静止画)からなる映像信号の物理的な特徴量を用いて主観品質を推定する客観品質評価法には、基準映像と劣化映像とを用いて、所望の評価対象に対する主観品質評価値を推定する技術がある。劣化映像とは、基準映像に対する符号化やネットワーク伝送などの信号処理すなわち評価対象での損失によって劣化した映像をいう。
このような技術では、基準映像と劣化映像の間に時間方向や空間方向のずれがある場合、精度良く主観品質評価値を推定できないため、基準映像と劣化映像を適切に整合させることが重要となる。
従来より提案されている、基準映像と劣化映像を用いて主観品質評価値を推定する技術(例えば、特開2004−080177号公報、USP5,446,492、USP6,704,451など参照)は、TV放送を想定しており、厳密に同期している信号あるいは同一の映像サイズ・フレームレートの信号については適切に主観品質評価値を推定することができる。したがって、これら技術は、予め整合している基準映像と劣化映像を用いること、あるいは映像の開始時点で簡易的に整合させた基準映像と劣化映像を用いることを前提とするものである。
しかし、近年普及し始めている、インターネットなどのIPネットワークを用いた映像配信サービスや映像コミュニケーションサービスでは、パーソナルコンピュータ(PC)端末で映像を受信するため、基準映像と劣化映像のサイズやアスペクト比が異なっていたり、ネットワーク性能に起因した映像品質の劣化が大きく、基準映像と劣化映像の空間的や時間的な位置の整合は取れていない。したがって、上記技術では適切に主観品質評価値を推定することはできない。
これに対して、発明者らは、基準映像と劣化映像の信号フォーマットを揃えるとともに、これら映像信号に対するマクロ的やよびミクロ的な整合処理をフレームごとに行うことにより、基準映像と劣化映像の時間方向や空間方向の整合をとって客観評価結果を得る技術を提案した(例えば、WO2005/020592A1など参照)。
しかしながら、この従来技術では、基準映像と劣化映像が、例えば画素数について整数倍に伸縮・変形している場合には適切に整合をとることができるものの、単に数画素だけ伸縮・変形している場合、完全には対応できていない。
特に、評価対象となる映像符号化や伝送システムなどの信号処理によっては、映像自体を数画素だけ伸縮・変形していたり、基準映像自体が元々ぼやけていたり、劣化の程度が大きいこともある。このような映像信号については、部分的には整合が取れるが、それ以外の多くの領域では整合が取れなくなり、基準映像と劣化映像の整合を最適化できない場合がある。
このため、客観品質評価値を得る際には映像整合が適切かどうかについて専門知識を持つ評価者が経験的に判断する必要がある。したがって、専門知識を持つ評価者がいない場合には、客観品質評価を得る際の映像整合が適切かどうかを判断できず、結果として適切な主観品質評価値を推定することはできないという問題点があった。
本発明はこのような課題を解決するためのものであり、専門知識を持つ評価者が経験的に判断することなく、客観品質評価を得る際の映像整合が適切かどうかを判断できる映像整合装置、方法、およびプログラムを提供することを目的としている。
このような目的を達成するために、本発明にかかる映像整合装置は、時間軸に沿って並べられた複数の基準映像フレームからなる任意の基準映像とこれら基準映像フレームが任意の評価対象により劣化した劣化映像フレームからなる劣化映像とを入力とし、劣化映像フレームごとに当該劣化映像フレームと所定フレーム数以内の時間的ずれを有する複数の基準映像フレームのうちから当該劣化映像フレームと空間的および時間的に整合した整合状態にある基準映像フレームを検出する整合状態検出手段と、整合状態にある基準映像フレームと劣化映像フレームの間の整合度合いを示す整合度を導出する整合度導出手段と、整合状態に基づき整合された基準映像および劣化映像と整合度とを出力する整合情報出力手段と、任意の2つの映像フレームの間の劣化度合いを示す劣化量を導出する劣化量導出部とを備え、整合度導出手段により、劣化量導出部を制御して、整合状態にある基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、整合状態から所定画素数だけずれた状態の基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量とを取得し、これら第1の劣化量と第2の劣化量の比に基づき整合度を算出するようにしたものである。
また、本発明にかかる映像整合方法は、 整合状態検出手段により、時間軸に沿って並べられた複数の基準映像フレームからなる任意の基準映像とこれら基準映像フレームが任意の評価対象により劣化した劣化映像フレームからなる劣化映像とを入力とし、劣化映像フレームごとに当該劣化映像フレームと所定フレーム数以内の時間的ずれを有する複数の基準映像フレームのうちから当該劣化映像フレームと空間的および時間的に整合した整合状態にある基準映像フレームを検出する整合状態検出ステップと、整合度導出手段により、整合状態にある基準映像フレームと劣化映像フレームの間の整合度合いを示す整合度を導出する整合度導出ステップと、整合情報出力手段により、整合状態に基づき整合された基準映像および劣化映像と整合度とを出力する整合情報出力ステップと、劣化量導出部により、任意の2つの映像フレームの間の劣化度合いを示す劣化量を導出する劣化量導出ステップとを備え、整合度導出ステップは、劣化量導出ステップを用いて、整合状態にある基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、整合状態から所定画素数だけずれた状態の基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量とを取得するステップと、これら第1の劣化量と第2の劣化量の比に基づき整合度を算出するステップとからなる。
また、本発明にかかるプログラムは、 時間軸に沿って並べられた複数の基準映像フレームからなる任意の基準映像とこれら基準映像フレームが任意の評価対象により劣化した劣化映像フレームからなる劣化映像とを入力とし、これら基準映像と劣化映像を空間的および時間的に整合させて出力する映像整合装置のコンピュータに、整合状態検出手段により、時間軸に沿って並べられた複数の基準映像フレームからなる任意の基準映像とこれら基準映像フレームが任意の評価対象により劣化した劣化映像フレームからなる劣化映像とを入力とし、劣化映像フレームごとに当該劣化映像フレームと所定フレーム数以内の時間的ずれを有する複数の基準映像フレームのうちから当該劣化映像フレームと空間的および時間的に整合した整合状態にある基準映像フレームを検出する整合状態検出ステップと、整合度導出手段により、整合状態にある基準映像フレームと劣化映像フレームの間の整合度合いを示す整合度を導出する整合度導出ステップと、整合情報出力手段により、整合状態に基づき整合された基準映像および劣化映像と整合度とを出力する整合情報出力ステップと、劣化量導出部により、任意の2つの映像フレームの間の劣化度合いを示す劣化量を導出する劣化量導出ステップとを実行させ、整合度導出ステップとして、劣化量導出ステップを用いて、整合状態にある基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、整合状態から所定画素数だけずれた状態の基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量とを取得するステップと、これら第1の劣化量と第2の劣化量の比に基づき整合度を算出するステップとを実行させる。
本発明によれば、基準映像と劣化映像が空間的および時間的に最も整合した整合状態にあるときの、基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、整合状態から所定画素数だけずれた状態の、基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量との比に基づき、整合の度合いを示す整合度が算出されるため、映像整合の最適化具合を示す指標として整合度を算出できる。
したがって、専門知識を持つ評価者が経験的に判断することなく、客観品質評価値を得る際の映像整合が適切かどうかを判断することが可能となる。これにより、適切な主観品質評価値を容易に推定することができ、最終的には、映像サービスにおいて品質を考慮した開発やサービス提供を実現することができる。
図1は、本発明の一実施の形態にかかる映像整合装置の構成を示すブロック図である。 図2は、本実施の形態にかかる映像整合装置の映像整合処理を示すフローチャートである。 図3は、フォーマット変換確認用の基準テスト映像例を示す説明図である。 図4は、位置整合・整合範囲確認用の基準テスト映像例を示す説明図である。 図5は、局所変形処理可能範囲確認用の基準テスト映像例を示す説明図である。 図6は、輝度・色出現分布確認用の基準テスト映像例を示す説明図である。 図7は、表示タイミングの整合例を示す説明図である。 図8は、表示タイミングの他の整合例を示す説明図である。 図9は、表示タイミングの他の整合例を示す説明図である。 図10は、時間方向のマクロ同期処理例を示す説明図である。 図11は、時間方向のミクロ同期処理例を示す説明図である。 図12は、整合状態検出処理における劣化量とフレーム間差分値の算出例を示す説明図である。 図13は、整合状態による整合特性の変化を示す説明図である。 図14は、基準映像の精細度による整合特性の変化を示す説明図である。 図15は、画素ずれを示す説明図である。 図16は、本発明の他の実施の形態にかかる映像整合装置の構成を示すブロック図である。
次に、本発明の実施の形態について図面を参照して説明する。
[映像整合装置]
まず、図1を参照して、本発明の一実施の形態にかかる映像整合装置について説明する。図1は、本発明の一実施の形態にかかる映像整合装置の構成を示すブロック図である。
映像整合装置100は、入力信号に対して任意の演算処理を行って所望の出力信号を得る信号処理装置からなり、時間軸に沿って並べられた複数の映像フレーム(静止画)からなる任意の基準映像1と、この基準映像1が符号化信号処理やネットワーク伝送などの任意の評価対象により劣化した劣化映像2とを入力とし、基準映像1に対して劣化映像2を空間的および時間的に整合させた映像および整合処理に関する各種整合処理情報を出力する装置である。
本実施の形態は、基準映像と劣化映像が空間的および時間的に最も整合した整合状態にあるときの、基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、整合状態から所定画素数だけずれた状態の、基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量との比に基づき、整合の度合いを示す整合度を算出出力するようにしたものである。
この映像整合装置100には、フォーマット変換部10、表示タイミング整合部20、映像整合部30、劣化量導出部40、および整合パラメータ導出部50が設けられている。
これら機能部は、信号処理回路部や演算処理部、さらには記憶部により実現される。このうち、演算処理部はCPUやDSPなどのマイクロプロセッサとその周辺回路を有し、マイクロプロセッサ内部や周辺回路のメモリあるいは記憶部からプログラムを読み込んで実行することにより各種機能部を実現する。また、記憶部はハードディスクやメモリなどの記憶装置からなり、信号処理回路部や演算処理部で用いる各種処理情報、基準映像や劣化映像の映像データ、さらにはプログラムを記憶する。
フォーマット変換部10は、信号処理回路や演算処理部からなり、劣化映像2の信号フォーマットを基準映像1の信号フォーマットに変換する機能と、このフォーマット変換により得られたフォーマット変換後の劣化映像2Aを出力する機能とを有している。
表示タイミング整合部20は、信号処理回路や演算処理部からなり、フォーマット変換後の劣化映像2Aの映像フレーム数とその表示タイミングを基準映像1に整合させる機能と、この整合により得られたタイミング整合後の劣化映像2Bを出力する機能とを有している。
映像整合部30は、信号処理回路や演算処理部からなり、入力された基準映像1と劣化映像2Bとをそれぞれの映像フレームについて整合処理を行い、整合後の基準映像や劣化映像さらにはその整合度など、映像整合処理に関する各種整合情報を出力する機能を有している。
この映像整合部30には、具体的な機能手段として、マクロ同期手段31、ミクロ同期手段32、整合状態検出手段33、整合度導出手段34、および整合情報出力手段35が設けられている。
マクロ同期手段31は、入力された基準映像1と劣化映像2Bからそれぞれ抽出した所定の映像特徴量の推移を比較することにより、基準映像1と劣化映像2Bのマクロフレーム差を導出する機能を有している。
ミクロ同期手段32は、マクロ同期手段31によりマクロ同期させた基準映像1と劣化映像2Bから任意の劣化映像フレームと当該劣化映像フレームに対し所定フレーム数以内の時間的ずれを有する複数の基準映像フレームとのフレームペアを選択し、劣化量導出部40を制御してこれらフレームペアの劣化量を取得する機能と、これらフレームペアのうち劣化量が最小となるフレームペアに基づき基準映像1と劣化映像2Bとのミクロフレーム差を導出する機能とを有している。
整合状態検出手段33は、マクロフレーム差およびミクロフレーム差により同期させた基準映像1と劣化映像2Bについて、劣化映像フレームごとに当該劣化映像フレームと所定フレーム数以内の時間的ずれを有する複数の基準映像フレームのうちから当該劣化映像フレームと空間的および時間的に整合した整合状態にある基準映像フレームを検出する機能を有している。
整合度導出手段34は、整合状態にある基準映像フレームと劣化映像フレームの間の整合度合いを示す整合度を導出する機能を有している。より具体的には、劣化量導出部40を制御して、整合状態にある基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、整合状態から所定画素数だけずれた状態の基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量とを取得し、これら第1の劣化量と第2の劣化量の比に基づき整合度を算出する。この際、ITU-T P.910の規定に基づき算出した基準映像の空間的特徴量(SI)を上記比に乗算して整合度を算出してもよい。
整合情報出力手段35は、劣化映像フレームごとの整合度を含む、これら映像整合処理に関する整合情報を出力する機能を有している。
劣化量導出部40は、信号処理回路や演算処理部からなり、任意の2つの映像フレームの間の信号対雑音比を劣化量として導出する機能と、任意の2つの映像フレームの間の各画素値差分の平均値をフレーム間差分値として導出する機能と、これら劣化量およびフレーム間差分値を映像整合部30へ出力する機能とを有している。
具体的には、劣化量導出部40は、整合度導出手段34からの指示に応じて、基準映像映像フレームと劣化映像フレームとの間の信号対雑音比を第1の劣化量として算出する。また、整合度導出手段34からの指示に応じて、整合状態にある基準映像フレームと、整合状態から所定画素数だけ横方向、縦方向、および縦横両方向にそれぞれずれた状態にある複数の劣化映像フレームとの間の平均信号対雑音比を第2の劣化量として算出する。また、整合状態検出手段33からの指示に応じて、基準映像映像フレームと劣化映像フレームとの間の信号対雑音比を劣化量として算出する。
整合パラメータ導出部50は、信号処理回路や演算処理部からなり、所定の基準テスト映像3とこの基準テスト映像3が評価対象により劣化した劣化テスト映像4とを比較する機能と、映像整合処理に用いる各種整合パラメータを導出する機能とを有している。
[映像整合装置の動作]
次に、図2を参照して、本実施の形態にかかる映像整合装置の動作について説明する。図2は、本実施の形態にかかる映像整合装置の映像整合処理を示すフローチャートである。なお、ここでは、基準映像1および劣化映像2にはフレームレート情報あるいはフレーム表示時刻/取込時刻情報が含まれているものとし、基準映像および劣化映像は処理対象となるフレーム前後の複数フレーム分を記憶部に蓄積しながら非リアルタイムに処理を進めるものとする。
映像整合装置100は、基準映像1と劣化映像2の整合に先だって、整合パラメータ導出部50により、基準テスト映像3および劣化テスト映像4とを比較して各種整合パラメータを導出する(ステップ100)。
この際、映像整合装置100に予め格納されている基準テスト映像3を評価対象に入力しその出力である劣化テスト映像4を受け取るようにしてもよい。これら基準テスト映像3および劣化テスト映像4は、実際の信号であってもよく信号値を示すデータ列からなるデータファイルであってもよい。
ただし、劣化テスト映像4の信号形式やサイズが基準テスト映像3と異なることが入力データファイルのヘッダ情報などで事前に認識できる場合、フォーマット変換部10と同様の処理方法を用いて劣化テスト映像4を基準テスト映像3と同等の形式にしてから整合パラメータを導出するものとする。
整合パラメータ導出部50では、ステップ100で整合パラメータを導出する際、図3〜図6に示すような基準テスト映像を用いて、各種整合パラメータを導出する。
図3は、フォーマット変換確認用の基準テスト映像例である。この基準テスト映像3Aは、市松模様など、同じ形状の模様の輝度(色も含む)を最大と最小にしたテスト映像である。
このような基準テスト映像3Aを用いれば、模様位置関係やサイズの違いから、整合パラメータとして基準テスト映像3と劣化テスト映像4の映像拡大縮小率5Aを導出できる。また基準テスト映像3Aを用いれば、基準映像と劣化映像の最大・最小の輝度値(色も含む)から、整合パラメータとして基準テスト映像3と劣化テスト映像4における輝度出現範囲5Bを導出できる。
図4は、位置整合・整合範囲確認用の基準テスト映像例である。この基準テスト映像3Bは、映像のうち広い範囲に点在する複数地点にピンポイントでその位置を示すマーカーの入ったテスト映像であり、特定のポイントが劣化して分かりにくくなっても周りの模様からそのポイントを推定可能な映像である。
このような基準テスト映像3Bを用いれば、基準映像と劣化映像における空間方向のずれ量5Cと、映像フレーム内で対応が取れている空間方向のずれ対応範囲5Dとを整合パラメータとして導出できる。
図5は、局所変形処理可能範囲確認用の基準テスト映像例である。この基準テスト映像3Cは、例えば1画素ごとなどの一定画素数ごとに白黒の枠を交互に入れたテスト画像である。
このような基準テスト映像3Cを用いれば、基準テスト映像3Cに対する劣化テスト映像の部分的な映像変形領域範囲5Eや、評価映像として有効に使える有効領域範囲5Fを整合パラメータとして導出できる。
図6は、輝度・色出現分布確認用の基準テスト映像例である。この基準テスト映像3Dは、画面内の輝度を最小値(例えば0)から最大値(例えば255)まで段階的な変化を繰り返す画像(グレー画像)や、同様に色を変化させる基準色ごとの画像(赤画像、緑画像、青画像)からなるテスト画像である。
このような基準テスト映像3Dを用いれば、劣化テスト映像4における輝度や色の出現分布5G(平均値や分散、階調数)を整合パラメータとして導出できる。
次に、フォーマット変換部10は、基準映像1と劣化映像2について、信号形式、サイズ、アスペクト比、信号の出現範囲が異なる場合、整合パラメータ導出部50で導出された映像拡大縮小率5Aや輝度出現範囲5Bからなる整合パラメータ51に基づき劣化映像2の信号形式の変換を行い、フォーマット変換後の劣化映像2Aを出力する(ステップ101)。
この際、基準映像1が非圧縮のYUV形式であり、劣化映像のデータ形式が非圧縮のRGB形式であれば、例えばRec. ITU-R BT.601 "STUDIO ENCODING PARAMETERS OF DIGITAL TELEVISION FOR STANDARD 4:3 AND WIDE-SCREEN 16:9 ASPECT RATIOS"の変換式を用いて劣化映像2を変換する。
なお、劣化映像2が圧縮形式の場合は事前に非圧縮形式に変換しておく。また、サイズやアスペクト比が異なる場合は、それが同一となるように変換する。例えば単純に整数倍として計算できる場合があるが、それで済まない場合は任意のサイズに変換する必要があり、例えば「よくわかるディジタル画像処理」CQ出版の第7章「画像の解像度変換」のように、任意のサイズへの変換を行う。その上で基準映像と変換した劣化映像2Aを表示タイミング整合部20に渡す。
特に、事前に映像フォーマットを正確に把握していない場合、あるいはヘッダなどに映像フォーマットの情報が存在していない場合には、整合パラメータ導出部50で導出された映像拡大縮小率5Aに基づき映像の拡大縮小の変換を行う。また、輝度出現範囲5Bに基づいて画素の出現範囲が規格の違いによるものである場合、輝度値の線形変換を用いて出現範囲を合わせる変換を行うものとする。
続いて、表示タイミング整合部20は、フォーマット変換部10でフォーマット変換された劣化映像2Aを基準映像1の表示タイミングに合わせるため、フレーム補間などの処理を行い、タイミング整合後の劣化映像2Bを出力する(ステップ102)。図7〜図9は、表示タイミングの整合例である。
具体的には、図7のように、基準映像1の表示間隔よりフォーマット変換後の劣化映像2Aの表示間隔が定常的に長い場合、劣化映像2Aについて直前フレームを補間することにより映像を補う。
また、図8のように、劣化映像の表示間隔が揺らぐ場合、基準映像1の表示タイミングに表示している映像あるいは時間的に基準映像1の表示タイミングに近い映像を用いて劣化映像2Aを補間する。
さらに、図9のように、基準映像1自体が一定のフレームレートでない場合、基準映像1と劣化映像2Aを、これらとは別の正確な時間間隔で表示されるように補間する。
次に、映像整合部30は、整合パラメータ導出部50で得られた、映像拡大縮小率5A、輝度出現範囲5B、空間方向のずれ量5C、対応範囲5D、映像変形領域範囲5E、あるいは出現分布5Gなどの整合パラメータ52を用いて、3つの動作の状態、すなわち評価開始状態、同期状態、およびフリーズ状態を遷移しながら、基準映像1とタイミング整合後の劣化映像2Bの映像整合処理を行う(ステップ110〜135)。
まず、評価開始状態において、映像整合部30は、時間方向の大まかな同期をとるために、マクロ同期手段31により、マクロ同期処理を行う(ステップ110)。このマクロ同期処理において、マクロ同期手段31は、一定時間の基準映像1と劣化映像2Bに関する、1フレームごとや特定領域の信号の輝度/色差/RGB値の平均値のような、映像特徴量の推移を比較し、両者間の整合性が最も高くなったときのフレーム差を、マクロな時間方向のずれ、すなわちマクロフレーム差として導出する。
図10は、時間方向のマクロ同期処理例である。具体的には、図10に示すように、平均輝度値などの特徴量を時間方向にずらして各時系列値の差分が最小になる条件、あるいは相互相関係数が最大になる条件から時間方向のずれ、すなわちマクロフレーム差を導出する。
続いて、映像整合部30は、ミクロ同期手段32により得たマクロフレーム差でマクロ同期をとった後の基準映像1と劣化映像2Bについて、さらに時間方向と空間方向における詳細な同期をとるため、ミクロ同期処理を行う(ステップ111)。図11は、ミクロ同期処理例を示す説明図である。
このミクロ同期処理において、ミクロ同期手段32は、マクロ同期後の基準映像1と劣化映像2Bの任意のフレームペア、例えば劣化映像2Bの先頭フレームと、これに対応する基準映像1のフレームおよび当該フレームから所定フレーム数以内の時間ずれを有するフレームからなる検索対象フレームと、からなる各フレームペアについて、図11で示すように、整合パラメータ導出部50で得られた空間方向のずれ量5C(上下左右の位置)だけ両者間の画素位置を補正したときの劣化量の算出を劣化量導出部40に指示する。これに応じて、劣化量導出部40は、これら両フレーム間の劣化量として後述の式1を利用して信号対雑音比PSNR(Peak Signal to Noise Ratio)をそれぞれ算出する。
ミクロ同期手段32は、劣化量導出部40で算出されたこれら信号対雑音比PSNRが最大である、すなわち劣化量が最小であるフレームペアを選択することにより、基準映像1と劣化映像2Bの最も整合がとれたフレーム対応関係を求め、このフレーム差をミクロフレーム差として導出する。これにより時間方向のミクロな整合をとることが可能となる。以下では、このような基準映像1と劣化映像2Bのフレーム対応関係を同期状態という。
また、このような基準映像1と劣化映像2Bのフレーム対応関係にあるフレームペアが、その劣化量が最小となる空間的な位置関係、具体的には信号雑音比PSNRが最大となる位置関係にある状態を、基準映像1と劣化映像2Bが時間的および空間的に最も整合している整合状態という。
次に、映像整合部30は、基準映像1およびタイミング整合後の劣化映像2Bのいずれかが最後の映像フレームとなるまで、同期状態のフレーム対応関係にある基準映像1と劣化映像2Bから、基準映像対象フレームと劣化映像対象フレームを順次選択し、これら基準映像対象フレームと劣化映像対象フレームについて、以下のような同期状態およびフリーズ状態での処理ループを開始する(ステップ112,114)。
なお、図2において、変数i,jはそれぞれ基準映像対象フレーム番号および劣化映像対象フレーム番号を示し、変数N,Mはそれぞれ基準映像最終フレーム番号および劣化映像最終フレーム番号を示す。また、フラグF1は空間方向における両映像の同期状態(0),非同期状態(1)を示し、フラグF2は時間方向における両映像の同期(0),コマ飛び(1),その他(2:コマ戻状態)を示す。変数Countは劣化映像のフリーズ回数である。
まず、フラグF1が0を示す同期状態の場合(ステップ113:NO)、映像整合部30は、整合状態検出手段33により、整合パラメータ導出部50で得られた時間空間方向のずれ量5Cや輝度および色情報5B,5Gに基づき劣化映像2Bを補正した整合劣化映像を生成し、後述する整合状態検出処理により、基準映像との間の劣化量およびフレーム間差分値を算出する(ステップ120)。
この際、整合状態検出手段33は、劣化量導出部40に対して、これら劣化映像と基準映像の処理対象フレームをそれぞれ渡すことにより、劣化量導出部40からこれらフレームに関する劣化量およびフレーム間差分値を取得する。
図12は、整合状態検出処理における劣化量とフレーム間差分値の算出例を示す説明図である。劣化量導出部40は、図12に示すように、整合状態検出手段33から受け取った、劣化映像2Bの劣化映像対象フレーム(j)と、これに対応する基準映像1の基準映像対象フレーム(i)および当該基準映像対象フレーム(i)から所定フレーム数以内の時間ずれを有する基準映像フレームからなる検索対象フレームと、からなる各フレームペア間について劣化量をそれぞれ導出する。そして、これらフレームペアのうち劣化量が最小で整合状態にあるフレームペアを選択し、その基準映像フレームのフレーム番号を導出する。
また、劣化量導出部40は、上記フレームペアの基準映像フレームと劣化映像フレームについて、後述の式2を用いて、それぞれの直前フレームとのフレーム間差分値を導出する。この際、劣化量導出部40は、両映像フレームの画素ごとに画素値の差分値を算出し、当該映像フレーム全体の画素の平均差分値をフレーム間差分値として算出する。
映像整合部30は、整合状態検出手段33により、劣化量導出部40により導出された各対象フレームのフレーム間差分値に基づいて劣化映像のフリーズ有無を判断する(ステップ121)。すなわち、基準映像についての差分値がある値を示しているのに対し、劣化映像のそれがほとんど0を示していれば、劣化映像に変化がないフリーズ状態であると判断する。
ここで、劣化映像がフリーズ状態の場合(ステップ121:YES)、映像整合部30は、フラグF1を非同期状態(1)に設定するとともに、フリーズ数Countを1に設定して(ステップ128)、処理ループのステップ114へ移行する。
一方、劣化映像がフリーズ状態ではない場合(ステップ121:NO)、整合状態検出手段33は、ステップ120の整合状態検出処理により得られた、劣化映像対象フレームと基準映像フレームとの間の劣化量が、最小か否か判断し(ステップ122)、最小の場合は(ステップ122:YES)、同期状態(F2=0)と設定する(ステップ124)。
最小でない場合は(ステップ122:NO)、フレームずれ状態(コマ飛び状態,コマ戻り状態など)であると判定し、検索対象フレームのうち劣化量が最小で整合状態にある基準映像フレームの番号をiに設定し、コマ飛びならフラグF2=1に設定し、それ以外ならフラグF2=2と設定し、そのときのコマ(フレーム)のずれ数をCountに設定する(ステップ123)。
続いて、映像整合部30は、整合度導出手段34により、後述する整合度算出処理を実行して、整合状態にある基準映像フレームと劣化映像フレームの整合の度合いを示す整合度の計算を行う(ステップ125)。続いて、整合情報出力手段35により、上記整合状態に基づき整合された基準映像や劣化映像からなる整合基準映像や整合劣化映像、整合度、整合パラメータ(5A〜5G)、同期情報(F2)、およびフリーズ数(Count)などの整合情報を出力する(ステップ126)。そして、Countを0にリセットした後(ステップ127)、ステップ114へ移行する。
また、フラグF1が1を示す非同期状態の場合(ステップ113:YES)、映像整合部30は、ステップ120と同様にして整合状態検出手段33で整合状態検出処理を実行し(ステップ130)、ステップ121と同様の劣化映像のフリーズ有無を判断する(ステップ131)。
ここで、劣化映像がフリーズ状態の場合(ステップ131:YES)、整合状態検出手段33は、フリーズ数Countをインクリメント(+1)して(ステップ135)、処理ループのステップ114へ移行する。
一方、劣化映像がフリーズ状態ではない場合(ステップ131:NO)、映像整合部30は、ステップ110と同様のマクロ同期処理を行い(ステップ132)、整合情報出力手段35により、フリーズ数Countを出力する(ステップ133)。そして、フラグF1およびCountを0にリセットし(ステップ134)、処理ループのステップ114へ移行する。
ステップ114では、基準映像対象フレーム番号iおよび劣化映像対象フレーム番号jをそれぞれインクリメントし、i<Nまたはj<Mが成立する場合は、ステップ112との間のループ処理を繰り返す。また、i,jがともにN,Mに達した時点で、一連の映像整合処理を終了する。
なお、上記映像整合処理では、常に基準映像と劣化映像について、1フレーム全体または特定領域の信号の輝度/色差/RGB値の平均値のような特徴量を蓄積しているものとする。また、何らかの事情で同期が取れなくなったとき、例えば対象となるフレームにおける特徴量が一定期間の平均値からある閾値(3σのように標準偏差の定数倍)以上に開きが生じた場合には、評価初期状態に入ることとし、ステップ110からの処理が再開される。
[整合度算出動作]
次に、図13〜図15を参照して、本実施の形態にかかる整合度算出動作について説明する。図13は、整合状態による整合特性の変化を示す説明図である。図14は、基準映像の精細度による整合特性の変化を示す説明図である。図15は、画素ずれを示す説明図である。
整合度は、次の2つの特徴を利用して導出する。第1の特徴は、図13に示すように、整合が最適化されている場合には、その整合状態における基準映像と劣化映像のフレーム間の信号対雑音比と、整合状態から1画素だけでもずれた状態の信号対雑音比の差が大きく、整合が最適化されていない場合には、整合状態から1画素でもずれた状態の信号対雑音比の差が小さいこと、である。第2の特徴は、整合が最適化されている場合の特性は、図14に示すように基準映像の絵柄が細かく、精細度が高い映像ほど顕著な傾向があること、である。
整合度導出手段34による具体的な整合度の算出処理については、まず、基準映像と劣化映像の間で時間・空間的に最も整合していると判断された整合状態での劣化量(第1の劣化量)として、式1の信号対雑音比PSNR(Peak Signal to Noise Ratio)に示すように、ピーク輝度(255)に対して基準映像と劣化映像の画素差分値、すなわち式2に示すMSEとの対数比を計算する。
ただし、式2において、Yin,Youtは基準映像/劣化映像であり、Nは画素数、Y(x,y,i)は第iフレーム目の位置(x,y)における画素値を示す。
Figure 0004482031
Figure 0004482031
次に、その整合状態から所定画素数だけずれた状態(整合近傍状態)についても同様にその信号対雑音比PSNRを計算し、その平均値を劣化量(第2の劣化量)として導出する。ここでは、図15に示すように、整合状態から1画素隣りにずれた8つの状態または2画素隣りにずれた18個の状態を用いることとする。
そして、基準映像の空間的特徴量として、ITU-T P.910("Subjective video quality assessment methods for multimedia applications," Aug.1996.)に規定される空間的特徴量であるSI値(Spatial Information)を計算し、これら値を利用して式3により整合度を導出する。ただし、αは整合度を正規化するための係数である。
整合度=α×基準映像のSI値×(整合状態のPSNR/整合近傍状態のPSNRの平均値)…(3)
このように、本実施の形態では、基準映像と劣化映像が空間的および時間的に最も整合した整合状態にあるときの、基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、整合状態から所定画素数だけずれた状態の、基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量との比に基づき、整合の度合いを示す整合度を算出出力するようにしたので、映像整合の最適化具合を示す指標として整合度を算出できる。
したがって、専門知識を持つ評価者が経験的に判断することなく、客観品質評価を得る際の映像整合が適切かどうかを判断することが可能となる。これにより最終的には、映像サービスにおいて品質を考慮した開発やサービス提供を実現することができる。
また、ITU-T P.910の規定に基づき算出した基準映像の空間的特徴量(SI)を劣化量の比に乗算して整合度を算出するようにしたので、基準映像の特徴量で重み付けを行うことができる。
また、劣化量として、劣化量算出対象となる画素から算出した基準映像と劣化映像の信号対雑音比を用いるようにしたので、安定的かつ汎用的に整合度を算出できる。なお、本実施の形態では、劣化量として信号対雑音比PSNRを用いた場合を例として説明したが、これに限定されるものではなく、画素値の平均差分値を用いてもよい。また、信号雑音比を用いる場合でもPSNR以外の公知の信号対雑音比を用いてもよい。
[実施の形態の拡張]
本実施の形態では、図1に示すように、映像整合部30と劣化量導出部40とを別個の機能部により実現した場合を例として説明したが、これら両機能部は、ともに信号処理回路部や演算処理部で実現される。したがって、図16に示すように、劣化量導出部40を映像整合部30と同一機能部で実現してもよい。これにより、映像整合部30の各機能手段と劣化量導出部40との間で、各種データを極めて容易にやり取りすることができ、処理所要時間の短縮やハードウェア資源の削減を実現できる。また、このことはフォーマット変換部10、表示タイミング整合部20、あるいは整合パラメータ導出部50と映像整合部30との関係についても同様に適応できる。
また、本実施の形態では、ステップ111のミクロ同期処理において、劣化映像フレームを固定して、複数の基準映像フレームとフレームペアを構成する場合を例として説明したが、これに限定されるものではない。例えば、基準映像フレームを固定し、これに対応する劣化映像フレームおよび当該劣化映像フレームと所定フレーム数以内の時間ずれを有する複数の劣化映像フレームとフレームペアを構成してもよく、前述と同様のミクロ同期処理を実行できる。
また、本実施の形態では、ミクロ同期手段32と整合状態検出手段33が別個の機能手段から実現されている場合を例として説明したが、これに限定されるものではない。前述したように、これらミクロ同期手段32と整合状態検出手段33は、ともに劣化量導出部40を制御して、複数のフレームペアの劣化量を取得し、最も劣化量の小さいフレームペアを選択する機能を有している。したがって、これらを同一の機能手段で実現してもよい。
また、本実施の形態において、整合情報出力手段35により、整合後の映像を出力する際、整合度算出に用いた基準映像フレームや劣化映像フレームを、それぞれ整合基準映像や整合劣化映像として出力してもよい。
また、本実施の形態では、外部から入力された基準映像1を映像整合部30での映像整合処理に用いる場合を例として説明したが、これに限定されるものではない。例えば図9に示したように、表示タイミング整合部20により基準映像1のフレームレートを補間した場合は、この補間後の基準映像1を用いて映像整合処理を行ってもよい。
また、本実施の形態では、整合パラメータ導出部50を設けた場合を例として説明したが、整合パラメータ導出部50を設けず、図2の処理内で必要なパラメータを導出するようにしてもよい。
例えば、ステップ111のミクロ同期処理において、劣化映像2Bの劣化映像対象フレームとこれに対応する基準映像1側の各基準処理対象フレームとについて、それぞれのフレームペア間で劣化量を算出する際、フレームペア間の空間方向の画素位置すなわちずれ量を変えていくつかの信号対雑音比PSNRを劣化量導出部40により算出しておき、その信号対雑音比PSNRが最大となったときのずれ量を空間方向のずれ量5Cとして導出すればよい。
また、ミクロ同期がとれた時点のフレームペアに基づき、その基準映像フレームと劣化映像フレームの最大・最小の輝度値(色も含む)から、整合パラメータとして輝度出現範囲5Bを導出してもよく、輝度や色の出現分布5G(平均値や分散、階調数)を導出してもよい。
また、本実施の形態では、整合パラメータ導出部50を設けて、所定のテスト用基準映像と評価対象によりテスト用基準映像から得られたテスト用劣化映像とを比較して、基準映像と劣化映像を整合するのに用いる各種整合パラメータを導出するようにしたので、前述のように通常の基準映像や劣化映像を用いた場合と比較して、評価対象の劣化特性を顕著に表す整合パラメータを導出できる。さらに、この整合パラメータに基づき整合処理を行うようにしたので、基準映像や劣化映像がぼやけている場合や、評価対象で生じている劣化が大きい場合でも、適切な映像整合を行うことができる。
なお、前述した映像整合方法においては、映像整合部30から基準映像と整合映像とその整合情報(時間方向の状態)を出力したものを客観評価装置に入力することを想定しているが、ミクロ同期処理において劣化量導出部40から劣化量ではなく客観評価値を受け取り、映像整合部30よりその結果を出力すれば、映像整合装置100を客観評価装置として利用することもできる。
本発明にかかる映像整合装置は、インターネットなどのIPネットワークを用いた映像配信サービスや映像コミュニケーションサービスの品質管理において、受信側端末で再生される映像の品質を客観評価する際、その基準映像と劣化映像を時間的および空間的に整合させる装置として有用である。

Claims (12)

  1. 時間軸に沿って並べられた複数の基準映像フレームからなる任意の基準映像とこれら基準映像フレームが任意の評価対象により劣化した劣化映像フレームからなる劣化映像とを入力とし、前記劣化映像フレームごとに当該劣化映像フレームと所定フレーム数以内の時間的ずれを有する複数の基準映像フレームのうちから当該劣化映像フレームと空間的および時間的に整合した整合状態にある基準映像フレームを検出する整合状態検出手段と、
    前記整合状態にある基準映像フレームと劣化映像フレームの間の整合度合いを示す整合度を導出する整合度導出手段と、
    前記整合状態に基づき整合された基準映像および劣化映像と前記整合度とを出力する整合情報出力手段と、
    任意の2つの映像フレームの間の劣化度合いを示す劣化量を導出する劣化量導出部と
    を備え、
    前記整合度導出手段は、前記劣化量導出部を制御して、前記整合状態にある基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、前記整合状態から所定画素数だけずれた状態の基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量とを取得し、これら第1の劣化量と第2の劣化量の比に基づき前記整合度を算出する
    ことを特徴とする映像整合装置。
  2. 請求項1に記載の映像整合装置において、
    前記劣化量導出部は、前記整合度導出手段の制御に応じて、前記基準映像フレームと前記劣化映像フレームとの間の信号対雑音比を前記第1の劣化量として算出することを特徴とする映像整合装置。
  3. 請求項1に記載の映像整合装置において、
    前記劣化量導出部は、前記整合度導出手段の制御に応じて、前記整合状態にある前記基準映像フレームと、前記整合状態から所定画素数だけ横方向、縦方向、および縦横方向にそれぞれずれた状態にある前記劣化映像の各映像フレームとの間の平均信号対雑音比を前記第2の劣化量として算出することを特徴とする映像整合装置。
  4. 請求項1に記載の映像整合装置において、
    前記整合度導出手段は、ITU-T P.910の規定に基づき算出した前記基準映像の空間的特徴量(SI)を前記比に乗算して前記整合度を算出することを特徴とする映像整合装置。
  5. 請求項1に記載の映像整合装置において、
    前記劣化映像の信号フォーマットを前記基準映像の信号フォーマットに変換して出力するフォーマット変換部と、前記基準映像および前記フォーマット変換後の劣化映像に含まれる映像フレーム数とその表示タイミングを整合させて出力する表示タイミング整合部とをさらに備え、
    前記整合状態検出手段は、前記表示タイミング整合部により表示タイミングを整合させた基準映像と劣化映像を入力とする
    ことを特徴とする映像整合装置。
  6. 請求項5に記載の映像整合装置において、
    所定の基準テスト映像とこの基準テスト映像が前記評価対象により劣化した劣化テスト映像とを比較して、前記基準テスト映像の映像フレームと前記劣化テスト映像の映像フレームの大きさに関する拡大縮小率と、前記基準テスト映像と前記劣化テスト映像で用いられる輝度範囲とを、整合パラメータとして導出する整合パラメータ導出部をさらに備え、
    前記フォーマット変換部は、前記拡大縮小率と前記輝度範囲に基づき前記フォーマット変換を行う
    ことを特徴とする映像整合装置。
  7. 請求項1に記載の映像整合装置において、
    前記整合状態検出手段は、前記劣化量導出部を制御して、当該劣化映像フレームについて検索対象となる各基準映像フレームとのフレームペアごとに劣化量を取得し、これらフレームペアのうち劣化量が最小となるフレームペアを整合状態にあると判断することを特徴とする映像整合装置。
  8. 請求項7に記載の映像整合装置において、
    前記劣化量導出部は、前記整合状態検出手段からの指示に応じて、前記基準映像映像フレームと前記劣化映像フレームとの間の信号対雑音比を前記劣化量として算出することを特徴とする映像整合装置。
  9. 請求項1に記載の映像整合装置において、
    入力された前記基準映像の各基準映像フレームと入力された前記劣化映像の各劣化映像フレームからそれぞれ抽出した所定の映像特徴量の推移を比較することにより、前記基準映像と前記劣化映像のマクロフレーム差を導出するマクロ同期手段をさらに備え、
    前記整合状態検出手段は、前記マクロフレーム差に基づき時間的に同期させた基準映像と劣化映像を入力とする
    ことを特徴とする映像整合装置。
  10. 請求項9に記載の映像整合装置において、
    前記マクロフレーム差によりマクロ同期させた基準映像と劣化映像から任意の劣化映像フレームと当該劣化映像フレームに対し所定フレーム数以内の時間的ずれを有する複数の基準映像フレームとのフレームペアを選択し、前記劣化量導出部を制御してこれらフレームペアごとに劣化量を取得し、これらフレームペアのうち劣化量が最小となるフレームペアに基づき前記基準映像と前記劣化映像のミクロフレーム差を導出するミクロ同期手段をさらに備え、
    前記整合状態検出手段は、前記マクロフレーム差および前記ミクロフレーム差に基づき時間的に同期させた基準映像と劣化映像を入力とする
    ことを特徴とする映像整合装置。
  11. 整合状態検出手段により、時間軸に沿って並べられた複数の基準映像フレームからなる任意の基準映像とこれら基準映像フレームが任意の評価対象により劣化した劣化映像フレームからなる劣化映像とを入力とし、前記劣化映像フレームごとに当該劣化映像フレームと所定フレーム数以内の時間的ずれを有する複数の基準映像フレームのうちから当該劣化映像フレームと空間的および時間的に整合した整合状態にある基準映像フレームを検出する整合状態検出ステップと、
    整合度導出手段により、前記整合状態にある基準映像フレームと劣化映像フレームの間の整合度合いを示す整合度を導出する整合度導出ステップと、
    整合情報出力手段により、前記整合状態に基づき整合された基準映像および劣化映像と前記整合度とを出力する整合情報出力ステップと、
    劣化量導出部により、任意の2つの映像フレームの間の劣化度合いを示す劣化量を導出する劣化量導出ステップと
    を備え、
    前記整合度導出ステップは、前記劣化量導出ステップを用いて、前記整合状態にある基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、前記整合状態から所定画素数だけずれた状態の基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量とを取得するステップと、これら第1の劣化量と第2の劣化量の比に基づき前記整合度を算出するステップとからなる
    ことを特徴とする映像整合方法。
  12. 時間軸に沿って並べられた複数の基準映像フレームからなる任意の基準映像とこれら基準映像フレームが任意の評価対象により劣化した劣化映像フレームからなる劣化映像とを入力とし、これら基準映像と劣化映像を空間的および時間的に整合させて出力する映像整合装置のコンピュータに、
    整合状態検出手段により、時間軸に沿って並べられた複数の基準映像フレームからなる任意の基準映像とこれら基準映像フレームが任意の評価対象により劣化した劣化映像フレームからなる劣化映像とを入力とし、前記劣化映像フレームごとに当該劣化映像フレームと所定フレーム数以内の時間的ずれを有する複数の基準映像フレームのうちから当該劣化映像フレームと空間的および時間的に整合した整合状態にある基準映像フレームを検出する整合状態検出ステップと、
    整合度導出手段により、前記整合状態にある基準映像フレームと劣化映像フレームの間の整合度合いを示す整合度を導出する整合度導出ステップと、
    整合情報出力手段により、前記整合状態に基づき整合された基準映像および劣化映像と前記整合度とを出力する整合情報出力ステップと、
    劣化量導出部により、任意の2つの映像フレームの間の劣化度合いを示す劣化量を導出する劣化量導出ステップと
    を実行させ、
    前記整合度導出ステップとして、前記劣化量導出ステップを用いて、前記整合状態にある基準映像フレームと劣化映像フレームとの間の劣化量を示す第1の劣化量と、前記整合状態から所定画素数だけずれた状態の基準映像フレームと劣化映像フレームとの間の劣化量を示す第2の劣化量とを取得するステップと、これら第1の劣化量と第2の劣化量の比に基づき前記整合度を算出するステップと
    を実行させるプログラム。
JP2007524656A 2005-07-11 2006-07-11 映像整合装置、方法、およびプログラム Active JP4482031B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005201910 2005-07-11
JP2005201910 2005-07-11
PCT/JP2006/313765 WO2007007750A1 (ja) 2005-07-11 2006-07-11 映像整合装置、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2007007750A1 JPWO2007007750A1 (ja) 2009-01-29
JP4482031B2 true JP4482031B2 (ja) 2010-06-16

Family

ID=37637141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007524656A Active JP4482031B2 (ja) 2005-07-11 2006-07-11 映像整合装置、方法、およびプログラム

Country Status (7)

Country Link
US (1) US8094196B2 (ja)
EP (1) EP1903809B1 (ja)
JP (1) JP4482031B2 (ja)
KR (1) KR100963614B1 (ja)
CN (1) CN101199211B (ja)
CA (1) CA2611397C (ja)
WO (1) WO2007007750A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5172440B2 (ja) * 2008-01-08 2013-03-27 日本電信電話株式会社 映像品質推定装置、方法およびプログラム
JP2009260941A (ja) * 2008-03-21 2009-11-05 Nippon Telegr & Teleph Corp <Ntt> 映像品質客観評価方法、映像品質客観評価装置、及びプログラム
US9087125B2 (en) * 2009-08-10 2015-07-21 Pixel Forensics, Inc. Robust video retrieval utilizing video data
JP2011254240A (ja) * 2010-06-01 2011-12-15 Sony Corp 画像処理装置、画像処理方法およびプログラム
KR20120029690A (ko) * 2010-09-17 2012-03-27 삼성전자주식회사 디스플레이 장치 및 그 영상 처리 방법
US8873642B2 (en) * 2010-12-22 2014-10-28 Verizon Patent And Licensing Inc. Video content analysis methods and systems
US9055279B2 (en) * 2011-04-15 2015-06-09 Tektronix, Inc. System for natural language assessment of relative color quality
CN102879660B (zh) * 2011-07-11 2016-08-31 富泰华工业(深圳)有限公司 电子产品测试装置及方法
KR20130015179A (ko) * 2011-08-02 2013-02-13 삼성디스플레이 주식회사 표시 장치 및 표시 장치 구동 방법
CN103843356B (zh) * 2011-09-30 2018-06-08 英特尔公司 用于多流音频/视频同步的系统、方法和计算机可读存储介质
US8730328B2 (en) 2011-10-06 2014-05-20 Qualcomm Incorporated Frame buffer format detection
US9672688B2 (en) 2011-10-14 2017-06-06 Bally Gaming, Inc. System and method for cross platform persistent gaming sessions using a mobile device
US9659437B2 (en) 2012-09-28 2017-05-23 Bally Gaming, Inc. System and method for cross platform persistent gaming sessions using a mobile device
US9767642B2 (en) * 2011-10-14 2017-09-19 Bally Gaming, Inc. System and method for cross platform persistent gaming sessions using a mobile device
US9626567B2 (en) * 2013-03-13 2017-04-18 Visible Measures Corp. Automated video campaign building
WO2015025704A1 (ja) * 2013-08-23 2015-02-26 日本電気株式会社 映像処理装置、映像処理方法および映像処理プログラム
KR102236561B1 (ko) * 2014-12-31 2021-04-07 삼성디스플레이 주식회사 열화 보상 장치, 이를 포함하는 표시 장치 및 열화 보상 방법
US10674180B2 (en) 2015-02-13 2020-06-02 Netflix, Inc. Techniques for identifying errors introduced during encoding
WO2017187842A1 (ja) * 2016-04-27 2017-11-02 ソニー株式会社 画像投影装置、投影撮像システムおよび補正方法
CN107465940B (zh) * 2017-08-30 2019-10-25 苏州科达科技股份有限公司 视频对准方法、电子设备及存储介质
CN109996062B (zh) * 2019-04-04 2020-08-11 广东省安心加科技有限公司 视频图像质量检测方法、装置、计算机设备和存储介质
KR102680344B1 (ko) 2022-11-25 2024-07-02 주식회사 와이즈오토모티브 영상 시험 장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1056656A (ja) * 1996-05-24 1998-02-24 Matsushita Electric Ind Co Ltd 信号中のノイズに対応するノイズ値の決定方法及び決定回路
JP2000078618A (ja) * 1998-07-25 2000-03-14 Tektronix Inc ビデオ画像品質の評価方法
JP2001326869A (ja) * 2000-05-15 2001-11-22 Kdd Media Will Corp 映像信号・映像信号解析結果同時表示装置
JP2003047029A (ja) * 2001-07-31 2003-02-14 Shibasoku:Kk 動きベクトルを用いる画像評価方法及び装置
JP2004080177A (ja) * 2002-08-13 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> 映像品質評価装置、映像品質評価方法、映像品質評価プログラム及びそのプログラムを記録した記録媒体
WO2005020592A1 (ja) * 2003-08-22 2005-03-03 Nippon Telegraph And Telephone Corporation 映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プログラム
JP2005064679A (ja) * 2003-08-08 2005-03-10 Kddi Corp 画像特徴量抽出方式および画質評価方式

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5446492A (en) * 1993-01-19 1995-08-29 Wolf; Stephen Perception-based video quality measurement system
DE69803830T2 (de) * 1998-03-02 2002-09-12 Koninklijke Kpn N.V., Groningen Verfahren, Vorrichtung, ASIC und deren Benutzung zur objektiven Videoqualitätbewertung
US6826294B1 (en) * 1999-03-05 2004-11-30 Koninklijke Philips Electronics N.V. Block matching motion estimation using reduced precision clustered predictions
US6532264B1 (en) 2000-03-27 2003-03-11 Teranex, Inc. Processing sequential video images to detect image motion among interlaced video fields or progressive video images
AU4262601A (en) * 2000-03-31 2001-10-15 British Telecommunications Public Limited Company Image processing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1056656A (ja) * 1996-05-24 1998-02-24 Matsushita Electric Ind Co Ltd 信号中のノイズに対応するノイズ値の決定方法及び決定回路
JP2000078618A (ja) * 1998-07-25 2000-03-14 Tektronix Inc ビデオ画像品質の評価方法
JP2001326869A (ja) * 2000-05-15 2001-11-22 Kdd Media Will Corp 映像信号・映像信号解析結果同時表示装置
JP2003047029A (ja) * 2001-07-31 2003-02-14 Shibasoku:Kk 動きベクトルを用いる画像評価方法及び装置
JP2004080177A (ja) * 2002-08-13 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> 映像品質評価装置、映像品質評価方法、映像品質評価プログラム及びそのプログラムを記録した記録媒体
JP2005064679A (ja) * 2003-08-08 2005-03-10 Kddi Corp 画像特徴量抽出方式および画質評価方式
WO2005020592A1 (ja) * 2003-08-22 2005-03-03 Nippon Telegraph And Telephone Corporation 映像品質評価装置、映像品質評価方法及び映像品質評価プログラム、並びに映像整合装置、映像整合方法及び映像整合プログラム

Also Published As

Publication number Publication date
KR100963614B1 (ko) 2010-06-15
EP1903809A4 (en) 2011-10-12
EP1903809A1 (en) 2008-03-26
JPWO2007007750A1 (ja) 2009-01-29
CA2611397A1 (en) 2007-01-18
WO2007007750A1 (ja) 2007-01-18
EP1903809B1 (en) 2014-03-19
US8094196B2 (en) 2012-01-10
KR20080012354A (ko) 2008-02-11
CN101199211A (zh) 2008-06-11
US20090040311A1 (en) 2009-02-12
CN101199211B (zh) 2010-05-26
CA2611397C (en) 2010-12-21

Similar Documents

Publication Publication Date Title
JP4482031B2 (ja) 映像整合装置、方法、およびプログラム
JP5347012B2 (ja) 映像整合装置、映像整合方法及び映像整合プログラム
US20100271515A1 (en) Image generation apparatus and image generation method
US8305489B2 (en) Video conversion apparatus and method, and program
US8036479B2 (en) Image processing apparatus and method, and storage medium for controlling gradation of moving images
KR20130107687A (ko) 비디오 품질 측정 장치 및 그 방법
Konuk et al. A spatiotemporal no-reference video quality assessment model
US20140022338A1 (en) Method for Producing a Panoramic Image on the Basis of a Video Sequence and Implementation Apparatus
US20050094007A1 (en) Image processing apparatus, image processing method, and program
KR101140442B1 (ko) 이미지 상태 정보의 정정 방법, 움직임 보상 이미지 처리방법, 및 이미지 상태 정보 정정기
US20120274845A1 (en) Image processing device and method, and program
JP4449696B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
Shang et al. A new combined PSNR for objective video quality assessment
Ndjiki-Nya et al. Efficient full-reference assessment of image and video quality
JP2008005183A (ja) 映画素材に適した映像符号化方法および符号化装置
WO2009007133A2 (en) Method and apparatus for determining the visual quality of processed visual information
KR100587263B1 (ko) 비디오 신호의 프레임 율 변환 방법
KR101513395B1 (ko) 모션 적응적 디인터레이싱 시스템
US8565313B2 (en) Determining a vector field for an intermediate image
KR101519787B1 (ko) 테일러 급수 확장을 이용한 디인터레이싱 방법 및 그 장치
Morais et al. A Correlation-Based No-Reference Packet-Loss Metric
WO2022263922A1 (en) Method and system for assessing audio and video quality of a multimedia content
KR20060089091A (ko) 디인터레이서의 대각선 보간 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4482031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350