JP4519323B2 - ビデオ信号品質の解析 - Google Patents

ビデオ信号品質の解析 Download PDF

Info

Publication number
JP4519323B2
JP4519323B2 JP2000599218A JP2000599218A JP4519323B2 JP 4519323 B2 JP4519323 B2 JP 4519323B2 JP 2000599218 A JP2000599218 A JP 2000599218A JP 2000599218 A JP2000599218 A JP 2000599218A JP 4519323 B2 JP4519323 B2 JP 4519323B2
Authority
JP
Japan
Prior art keywords
image
signal
boundaries
boundary
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000599218A
Other languages
English (en)
Other versions
JP2003536281A (ja
Inventor
ホリアー、マイケル・ピーター
ブーレ、アレクサンドル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Telecommunications PLC
Original Assignee
British Telecommunications PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB9903107.2A external-priority patent/GB9903107D0/en
Priority claimed from GBGB9903293.0A external-priority patent/GB9903293D0/en
Application filed by British Telecommunications PLC filed Critical British Telecommunications PLC
Publication of JP2003536281A publication Critical patent/JP2003536281A/ja
Application granted granted Critical
Publication of JP4519323B2 publication Critical patent/JP4519323B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

【0001】
発明の属する技術分野
本発明は、ビデオ信号品質の解析に関する。本発明は開発中、製造中、または稼働中にビデオ伝送装置の振舞い、性能を監視する多数の応用がある。
【0002】
従来の技術
通信システムが複雑さを増すにしたがって、その振舞い、性能を客観的に計測することが益々困難になってきている。現代の通信リンクは、データ圧縮技術を頻繁に使用して、伝送に必要な帯域幅を低減している。より効果的な伝送のために信号が圧縮されるとき、従来の工学測度、例えば信号対雑音比またはビットエラーレートは、最終的に信号を受取る人間によって体験される性能についての信頼できる指標ではない。例えば、ビットエラーレートがほぼ同じ2つのシステムは、どのディジタルビットが失われたかに依存して、エンドユーザに送られるデータ(サウンドまたは映像)品質に著しく異なった効果をもたらす。エコーキャンセルのような他の非線形プロセスも益々一般的になってきている。現在の通信システムが複雑であるために、従来の信号処理技術を使用する解析はこれらの他の非線形プロセスには不適切になってきた。ネットワーク品質についての2点間評価は、顧客が聞いり、見たりしたもの、あるいは聞いたり見たりしてきたものに依存しなければならない。
【0003】
観察者の意見の主要な基準は国際電気通信連合(ITU)規格に対して実行された主観的試験である(文献(“Methods for subjective determination of transmission quality”, P.800, 1996)および(“Subjective audiovisual quality assessment methods for multimedia applications”, P.911, 1998)参照)。これらは、何人かの人間の被験者が各被験者信号を聞かされるといった制御された主観的実験において、知覚された品質を測定する。これは、ネットワークの継続的な実験において使用するのには非実際的であり、さらに呼が監視されることで当事者のプライバシーを損ってしまう。これらの問題を解決するために、聴覚の知覚モデル、例えば本発明の発明者の国際特許明細書第WO 94/00922号、第WO 95/01011号、第WO 95/15035号、第WO 97/05730号、第WO 97/32428号、第WO 98/53589号、および第WO 98/53590号は、電話ネットワーク品質を測定するために開発された。これらは、客観的な性能の測度であるが、人間の被験者によって報告された品質評点とほぼ同じものを生成することによって、知覚された信号品質に対して直接に関係するように設計されている。
【0004】
上述の従来技術のシステムは、サウンド(オーディオ)信号の品質を測定する。本発明は、類似した原理のビデオ信号への応用に関する。人間の知覚システム(この場合は、耳/脳システムではなく、目/脳システム)をエミュレートする基本的な原理は依然として使用されるが、ビデオ信号および人間の視覚知覚システムは両者とも相当により複雑であり、新しい問題を提起する。
【0005】
ヒアリングに関して、人間の視覚の知覚システムは、視覚的刺激の中にあるいくつかの特徴(フィーチャ)の存在を知覚するのを非常に困難にするか不可能にする生理学的性質を有する。例えば、JPEG(Joint Pictures Expert Group)およびMPEG(Motion Pictures Expert Group)によって確立された圧縮プロセスは、ビデオ信号(動画または静止画)で送られる情報量を低減するためにこれらの性質に依存している。2つの圧縮方式は、同じ様に情報を失うが、与えられた圧縮形画像の知覚される品質は、何れの方式が使用されるかによって非常に異なっている。したがって生成された画像品質は元の信号と最後の信号の簡単な比較によって評価できない。人間の視覚の特性は、知覚された品質の評価に含まれなくてはならない。
【0006】
画素値の数学的処理によって画像からの情報について試行をし、およびそれを位置付けることには問題がある。画素の強度レベルは、人間という主体による対称物および形状の視覚的知識によって処理されるときのみ重要で意味をもつものになる。本発明では、数学的解法を使用して、耳−脳システムによって使用される情報に可能な限り近い類似の情報を抽出する。
【0007】
視覚的モデリング(モデル形成)についての多数の異なるアプローチ(やり方)が報告されている。これらは個々のアプリケーション(応用)、または個々のタイプのビデオの歪に対して特定されている。例えば、MPEG圧縮システムでは、連続するフレーム間の差をコード化しようとする。オーバーロードの期間で、連続するフレーム間に多くの差があるときには、このプロセスは画素の分解能を低減し、均一のカラー(色彩)およびルミナンス(輝度)のブロックを生じさせる。Karunasekera,A.S.およびKingsbury,N.G.は文献(“A distortion measure for blocking artifacts in images based on human visual sensitivity”, IEEE Transactions on Image Processing, Vol.4, No.6, pages 713-724, June 1995)において、この種の“blockiness(ブロックがある状態の度合い)”を検出するようにとくに設計されたモデルを提案している。しかしながらこのようなblockinessは、常にエラーを示す訳ではなく、例えばその効果は画像の作成者によって意図的にわざと導入されてよく、視覚効果を与えたり、または身元を隠すことが望まれている人の顔の特徴(フィーチャ)のような細部を消すことの何れかにあてられる。(訳者注:blockiness:ピクセル分解能と低減された画像の視覚上の現われ方を指し、ピクセル分解能の低減度を表わす。画素を方形ブロックとして画像を画定することに関係している)。
【0008】
幅広い範囲の、すなわち高解像度(高鮮明度)のテレビジョンからビデオ会議までの応用についての要求が満たされると、より複雑なアーキテクチャ(構造)を使用しなければならない。
【0009】
ある種の既存の視覚モデルは、ここでは“知覚ステージ(perceptual stage)”と呼ばれている知覚の特徴についての基本的なエミュレーションを備えている。既に記載したKarunasekeraの参考文献、およびLukas,X.J.とBudrikis,Z.L.とによる文献(“Picture Quality Prediction Based on a Visual Model”, IEEE Transactions on Communications, vol. com-30, No.7, pp.1679-1692, July 1982)にはその例が記載されており、簡単な知覚ステージは、大きいエラーが主観性を支配するという基本的な原理で設計されている。他の手法も検討されており、例えばTan,K.T.、 Ghanbari,M.、およびPearson,D.E.による文献( “A video distortion meter”, Informationstechnische Gesellschaft, Picture Coding Symposium, Berlin, September 1997)には時間的な広がりをもつエラーの集合モデルが記載されている。しかしながらこれらのアプローチ(手法)の何れも、画像内に存在する全てのエラーの相対的な重要度に対処していない。
【0010】
本明細書の目的の上では、画素の“色彩(カラー)”は、画素における原色(赤、緑、および青、すなわちR、G、B)の割合として規定される。“輝度(ルミナンス)”は3原色の全体的な強度である。とくに、グレースケールにおける種々の影は輝度の変化によって生じる。
【0011】
発明が解決しようとする課題
本発明の第1の態様にしたがって、第1のビデオ信号と第2のビデオ信号との間の差を測定する方法であって:
各ビデオ信号の情報内容を解析して、その中に示されているビデオ画像の知覚上関連する境界を識別する段階と;
第1の信号の画定された境界と第2の信号の画定された境界とを比較し;この比較には、第1の画像において画定された境界の特性が第2の画像内に保存される範囲を判断することを含んでいるものとする比較する段階と;
第1の信号と第2の信号との間の知覚の差を示す出力を生成する段階とを含む方法を提供する。
【0012】
本発明の第2の態様にしたがって、第1のビデオ信号と第2のビデオ信号との間の差を測定する装置であって:
各ビデオ信号の情報内容について、その中に示されたビデオ画像の知覚上関連する境界を識別するようにされている解析手段と;
第1の信号の画定された境界と第2の信号の画定された境界とを比較し;この比較に、元の画像において画定された境界の特性が第2の画像内に保存される範囲を判断することを含む比較手段と;
第1と第2の信号間の知覚の差を示す出力を生成する手段とを含む装置を提供する。
【0013】
画像の主要な要素間の境界は、人間の知覚システムによって使用されて、このような要素を区別する測定可能な特性によって識別することができる。これらの要素には色彩、輝度、いわゆる“ハード”エッジ(色彩または輝度にコントラストを付け、輪郭または他の境界を画定する細い線であり、このような線は高空間周波数の領域として画像解析において識別可能である)、およびその他の後で記載するものを含むが、これらに制限されない。
【0014】
比較のもととなっている境界の特性は、このような境界を画定している特徴を含む。とくに、境界が所定の特徴によって画定され、その特徴が劣化した画像内で失われているときは、その画像要素の知覚される劣化度は、元の境界が知覚上どの程度重要であったかに依存する。この境界によって画定された要素が別の特徴によって画定された境界によって、劣化された画像内でやはり識別できるとすると、比較はこのような置換境界が知覚上どの程度重大で意味あるものか、およびその位置が元の失われた境界にどの程度近いかをも検討する。
【0015】
本発明は、画像内に存在する要素の重要度が等しくないことに基いている。エラーが画像の本質的な特徴の1つの形状を乱すとき、このエラーはより知覚可能なものとなる。例えばテクスチャード(テクスチャー状態とされた)領域の真ん中のエッジ上に存在する歪みは、独立のエッジ上の同じエラーよりも知覚され難い。その理由は、テクスチャの一部を形成しているエッジは独立のエッジよりも少ない情報を保持しているからであり、これはRan, X.およびFavardin, N.による文献(“A Perceptually Motivated Three-Component Image Model-Part II: Application to Image Compression”, IEEE Transactions on Image Processing, Vol.4, No.4, pp.713-724, April 1995)に記載されている。しかしながら、テクスチャード区域が境界を画定するときは、このテクスチャード区域全体でテクスチャの特性を変えるエラーは、このエラーによってこの区域のテクスチャード特徴が失われるときは、独立のエッジ上のエラーと同じくらい重要になる。本発明は、各境界の知覚のレレバンス(関連性、検索能力)、およびこのレレバンスが保存される程度を調べる。
【0016】
このプロセスは、画像の主要な要素間の境界である最大の知覚上のレレバンスの要素を識別する。境界によって画定される領域内の性質についての小さい変化は、境界がその形状を変えることになるエラーよりもレレバンスが小さい。(訳者注:知覚のレレバンス(cognitive relevance)は画像間の差を認識する際の特徴の相対的な重要度を指す。図3の参照番号36で識別されるプロセスはある特徴の識別に依存して、重み付けファクタWを適用している)。
【0017】
さらに、このプロセスでは、画像の主要な要素がどのように識別されるかについて独立して個々にこの情報を比較することができる。人間の知覚システムは、多くの異なる様式で画像の異なる領域を識別することができる。例えば“ハードエッジ(hard edge)”がないことは、このエッジによって分割される領域がほぼ同じ色をもつときに、対比色(コントラストのある色彩)であるときよりも、知覚の劣化をより大きくする。色彩のコントラストはそれでもなお境界の知覚を可能にするからである。変化がより急峻になると、境界の知覚の重要度はより大きくなる。
【0018】
画像内で画定される境界を解析することによって、さらに進んだ別の開発が数多く可能になる。
【0019】
境界は、各画像内の主要な要素および相対的な位置における差を識別することによって、基準のフレームとして使用することができる。絶対的な位置とは対照的に、相対的な位置における差を使用することによって、画像内の知覚上重要でない差は、観察者によって知覚される結果的に生成された画像の品質に影響を与えないので、これを無視することができる。とくに、一方の画像が他方の画像に対してオフセットしているとき、一方の画像の個々の画素と他方の画像の対応する画素との間には多くの差があるが、境界が同じ相対的な位置にあるときは、これらの差は知覚的にレレバントではない。絶対的な(画素の座標の)基準フレームではなく、画像の主要な境界を参照することによって、オフセットを補償することができる。
【0020】
解析はまた、これらの境界をどのように画定するかではなく、識別される境界の形状によって再び識別される、知覚上の重大な意味のある画像の特徴の識別を含んでもよい。第1と第2の信号間の知覚の差を示す出力は、このような画像の特徴の知覚の重大度にしたがって重み付けされることができる。重大な特徴は、人間の顔をメイクアップする種々の特徴を含み、この特徴は、とくに視覚言語のキュー(ビジュアルスピーチキュー)を用意する際に重要である。このような特徴は人間の認知システムにとってとくに重大な意味のあるものであり、したがってスプリアスの要素が、歪むこと、存在しないこと、存在すること、または相対的位置の変化といったエラーは、フィーチャ(特徴)における知覚上のレレバンスが他におけるよりも大きいものである。
【0021】
テキストを含む画像では、書体(タイプフェース)の1つの特徴を他と区別するフィーチャ(例えば、文字“G”はセリフによって“C”と区別される)は知覚において重要な意味をもつものである。
【0022】
ここで本発明の実施形態を、例示的に添付の図面を参照して記載することにする。
【0023】
発明の実施の形態
この実施形態では、測定プロセスは2つのステージを含んでおり、それぞれ図1および3に示した。第1の感覚(sensory)エミュレーションステージでは、所定の刺激に対する人間の視覚システムの物理的感度を説明している。第2の知覚(perceptual)ステージでは、残っている可視エラーによって生じる主観的な侵入(subjective intrusion)を評価する。図1および3に示した種々の機能要素は、汎用コンピュータ上で実行されるソフトウエアとして実現することができる。
【0024】
感覚ステージ(図1参照)は感覚機構の全体的な精神物理学、すなわち:
(i)人間の視覚フィルタとして知られている時空的感度と、
(ii)空間周波数、方向および時間周波数によるマスキングとを再生する。
【0025】
図1は、人間の視覚システムの物理的な特性をエミュレートする感覚ステージの表示を与える。同じプロセスは元の信号と劣化した信号の両者に適用される:これらは並列処理ユニットによって同時に実行されるか、または同じ処理ユニットを使用して各信号毎に順に実行される。
感覚ステージは、細部が物理的に知覚可能であるか否かを識別し、視覚システムが細部を感知する程度を識別する。このために、感覚ステージでは、視覚的刺激の物理的な知覚可能度(physical perceptibility)に影響を与える視覚システムの2つの主要な特徴:すなわち、
・目/脳システムの感度
・マスキング効果−すなわち、1つの刺激の知覚の重要度の変化。他の刺激の存在にしたがって変化する。
【0026】
これらの特徴の各々は、これから記載するように、時間と空間の次元の両者を有する。
【0027】
各信号は、最初にフィルタ12によって時間および空間周波数においてフィルタ処理されて、フィルタ処理されたシーケンスを生成する。フィルタ12において使用される値は、図2に関係して既に記載したように、人間の視覚応答をエミュレートするように選択される。このフィルタは、人間の視覚(目/脳)システムには、見えない細部を取除くことができ、したがってエラーとして計数されず、その一方で他の空間および時間周波数における細部の知覚可能度はこれらの周波数における人間の感覚システムのより高い感度によって増大される。これは、視覚の鋭敏さ(visual acuity)にしたがい信号が含む情報に重み付けをする効果がある。
【0028】
人間の視覚システムでは、一部の空間および時間周波数が他よりもより高感度である。日々の経験から、我々は一定の大きさよりも小さい細部を見ることができないことが分かる。空間分解能は、空間周波数という項目を基準としており、これは目で範囲を定められた角度について存在するシヌソイドパターンのサイクル数を計数することによって規定される。間隔が密接している線(微細部)は高い空間周波数に対応し、一方で大きいパターンは低い空間周波数に対応する。この概念が取入れられると、人間の視覚(ビジョン)は、約8サイクル/度の空間周波数のピーク(中域)感度および高周波数(60サイクル/度以上)の不感度について、フィルタと比較される。類似のフィルタの特性は時間の領域に応用できるが、目は約50ヘルツより速いちらつきを知覚できない。空間および時間の両周波数についての全体的なフィルタ特徴は、図2に示したように表面として表わすことができ、なお図2において軸は(サイクル/度およびヘルツでそれぞれ測定された)空間および時間周波数である。垂直方向の軸は感度であり、単位は最大感度が1に等しくなるように正規化されている。
【0029】
感覚ステージによってモデル化されている視覚の第2の態様は、“マスキング”として知られており、より大きい空間的な活動(アクティビティ)が行われる画像領域内におけるエラー知覚度は低減し、この効果の時間的な対応部分は、動きのレートが増加するにしたがって細部の可視度が低減する。マスキングは、主要な皮質(primary cortex)の組織を考慮することによって、視覚的処理を担当している脳の第1のステージを理解することができる。皮質の各部分は網膜(レチナ)の一定の領域に対して感度がよい。到来する画像流は空間周波数、時間周波数、および方向の(チャンネルとして知られている)グループに分割される。脳の“次のステージ”は画像流を1組のチャンネルとして処理し、各チャンネルは網膜の対応する領域における空間/時間周波数および方向の組合せを考慮し、説明している。所定のチャンネルが励起されると、このチャンネルは隣りのチャンネルを抑止して、近接している空間または時間周波数あるいは方向の他の細部を検出するのをより困難にする傾向がある。
【0030】
マスキングは、チャンネルが隣接するチャンネルに対して行う抑止量の測度である。この情報は、チャンネルの代表的なサンプルによって生成されるマスキングを調べることによって、空間/時間周波数および方向の特性という項目について得られる。活動のマスキング(アクティビティマスキング)をシミュレートするための感知ステージでは、画像内の空間周波数と方向との各組み合わせの中に存在する活動量を知ることが必要である。この計算は、ガボール関数(Gabor function)、すなわちバンドパスフィルタのフレキシブルな形態を使用して実行でき、各信号の内容が空間周波数および方向によって分けられている各出力14を生成する。一般的に、各出力信号において、4つの空間的方向(垂直、水平、および2つの対角線方向)および4つの空間的周波数とを含む16の出力チャンネルが使用される。結果的に生成されたチャンネルはマスキング計算器15によって解析される。この計算器は、他のチャンネルのマスキング効果に合わせて各チャンネルを変更し;例えば、低空間周波数の事象の知覚重要度は、より高い周波数の空間的事象と共に存在するときには低減される。マスキングは時間的な感覚においても発生し−他の効果が短い時間内で発生するときには、あるフィーチャは人間の観察者にとってより知覚し難い。
【0031】
このマスキングモデルの校正には、所定の方向の空間/時間周波数が別の刺激の可視度をどのように低減するかを記載したデータが必要である。この情報は、組み合わせの数が非常に大きいときは、完全な記述として得ることができない。したがって、各パラメータの別々の影響が測定される。最初に刺激に対する背景のマスキング効果が、2つの間の相対的方向にしたがって測定される。次にマスカー(masker、マスクがけをするもの)と刺激との間の空間および時間周波数の効果が測定される。(訳者注:この文章は画像の第1の特徴(刺激)が第2の特徴(masker)によって抑制されているかを示しておる。「次に、空間周波数の差の効果と、時間周波数の差の効果とが測定される。」と置き換えて表現できる。)最後に2つの特性が共通の測定された点を内挿することによって組み合される。
【0032】
元のフレームと劣化されたフレームとの間の簡単な比較では、水平方向/垂直方向のシフト(移動)のような一定のタイプのエラーは全フレーム上に多くの量のエラーを生成するが、ユーザには気付かれることはない。この問題は、文献(ITU-T “Draft new recommendation on multimedia communication delay, synchronisation, and frame rate measurement”, COM 12-29-E, December 1997)に特定されているように、フレームの再整列を採用することによって対処することができる。しかしながら、この簡単な方法は、圧縮されたシーケンスにおける要素の劣化のような、他の普通の欠点については許されていないので、エラーの主観性について完全に説明責任を果たしていない。
【0033】
感知ステージの次には、画像内の構造に関してエラーの重要度にしたがって、画像は知覚ステージによってエラーの主観性の計算を可能にするように分解される(図3参照)。可視エラーがエッジのような画像の肝要なフィーチャと一致するときは、もっと主観的に邪魔なものである。人間の観察者が画像の内容を知覚できるようにする基本的な画像の要素は、1組の抽象化された境界として考えることができる。これらの境界は、色彩および輝度の差、テクスチャの変化と動き、およびエッジによって形成することができ、分解された画像内で識別される。実際に何も存在していないところで境界を知覚するようにさせるいくつかの“Gestalt”効果(訳者注:ドイツ語起源の語)でさえも、アルゴリズムで測定されて適切な重み付けを可能にする。
【0034】
これらの境界は、画像の内容を知覚するために要求されるのであり、これこそが、例えばその形状を不明確にするかまたは変更することによって、これらの境界を劣化する可視エラーは、そのようにされていないものよりも大きな主観的に重大な意味をもっている理由である。知覚ステージからの出力は、種々の意見の基準をマップするために異なって重み付けすることができる1組の情況感知エラー(context-sensitive error)の記述子である。
【0035】
いくつかの例では、例えば“ゴースト”画像がマルチパス反射によって形成されるときに、境界は全く存在しないか、またはスプリアスの境界が存在する。この場合に、境界自体が存在しても、またはしなくてもエラーである。
【0036】
図3は、画像のシーケンス内に存在するエラーの主観的な重大度を測定する知覚ステージを表わしている。元の信号16および劣化した信号16dは、各々が図1を参照して記載したようにフィルタ処理およびマスク処理をされていて、最初に成分抽出プロセス31において各々が(並列または直列に)解析されて、各画像の主要な成分のエッジまたは境界の特性を識別する。これらの特性は入力32、32dとして比較プロセス33へ供給され、比較プロセス33は元の画像に対して劣化された画像の全体的な知覚の劣化を示す出力38を生成する。
【0037】
抽出プロセス31によって識別される成分は、次に記載するものによって区別することができる:
・輝度(図4参照)および色彩、
・強いエッジ(図5参照)、
・エンクロージャエフェクト(閉鎖効果)(図6参照)、
・テクスチャ(図7参照)、
・移動(動き)、
・(立体)双眼視の不同(Binocular (Stereoscopic) Disparities)。
【0038】
これらの最後の2つの効果は、印刷されたページ上に容易に示されない移動および立体視に関係する事象に依存する。同様の理由で、色彩の差ではなく、輝度の差のみを図4に示した。
【0039】
図4ないし7には全て、円と正方形が示されており、正方形は円の一部を隠蔽している。各場合とも、2つの要素間の境界は容易に知覚されるが、2つの要素は異なる様式で表わされている。図4において、円および正方形は異なる輝度を有し−円は黒で、正方形は白である。境界は、この特性が変化する位置において知覚される。図5、6、および7にも、輝度が変化する位置(例えば、図7における各個々のストライプ間の境界)があるが、これらは画像の主要な境界として知覚されないことに注意すべきである。
【0040】
図5は、エッジによって画定される境界を示している。“強いエッジ(ストロングエッジ)”、もしくは輪郭(アウトライン)は、色彩または輝度の狭い線形のフィーチャであり、その何れかの側部上の領域とコントラストを付けている。観察者は、この線形のフィーチャを1つの本来的な成分として主として知覚するのではなく、その成分の何れかの側部の成分を分けている境界として知覚する。この画像の解析においては、このようなエッジは、フィルタ処理された信号における局所的な高周波数要素によって識別することができる。エッジを識別する適切なプロセスが生成され、例えばS M SmithおよびJ M Bradyによる文献(“SUSAN-A new approach to low-level image processing”, Technical Report TR95SMC1c, Oxford Centre for Functional magnetic Resonance Imaging of the Brain, 1995)に記載されているエッジ抽出プロセスがある。
【0041】
多くの環境において、観察者は、連続する実線が存在しないエッジを知覚することができる。例示的に、図6には線が不連続の点線であるものを示した。人間の知覚システムは、“閉鎖(closure)”として知られているプロセスを実行し、これは、このような部分的なエッジを完成する傾向がある。(図4ないし7の何れも実際には完全な円を示していないために、別の例を示す観察者は、各図に実際に示した4つのレンズ形領域から円の存在を推測する)。人間の知覚システムによって実行される閉鎖プロセスをエミュレートするために種々のプロセスが展開される。1つのこのようなプロセスは、Kass M.、Witkin A.、およびTerzopoulos D.によって文献(“Snakes: Active Boundary Models”, the Proceedings of First International Conference on Computer Vision 1987, pages 259-269)に記載されている。
【0042】
“テクスチャ”は、既に記載した性質が一定していない多くの領域において識別することができる。例えば、背景に対してコントラストをつけている色彩または輝度の平行線によって占有されている領域では、各線の個々の位置は大きい知覚の重要度をもたない。しかしながら、線が領域の異なる部分において異なる方向をもつときには、観察者は、方向が変わる境界を知覚する。この性質は、例えばペンキ塗装の刷毛使いの方向において見出される。図7に示した例では、円および正方形は、2つの一連の並行するバーを直交させることによって画定されている。画像が拡大され、角度のついた縞の分かれ目は図2に示したピークにより近付き、正方形および円の寸法がこのピーク値から離れるとすると、個々のストライプは、正方形および円の代わりに、支配的なフィーチャになることに注意すべきである。バーの方向が異なるときは、正方形と円との間の境界は曖昧になることが明らかになる。画像の領域のテクスチャの内容を識別するために、ガボールフィルタ13から出力された各チャンネル内のエネルギー内容が使用される。各チャンネルは、所定の空間周波数および方向を表わしている。所定のチャンネルが高いエネルギー内容をもつときに領域を識別することによって、同様のテクスチャの領域を識別することができる。
【0043】
添付の図面に示されていない他の様式では、人間の知覚システムによって形状を認識することができる。とくに、関係する画像間の不同、例えば立体視において使用される画像フレームの対、または映画における連続する画像フレームは、単一フレームの検査では明らかでない画像要素を識別することができる。例えば、2つの別々の類似の画像があって、個々の画像内に認識可能な構造をもたないとし、一方の画像内で変位されている領域を他方の画像内の位置との間で含むとすると、その領域の境界は、2つの画像が同時に観察されるときには、各々の目によって1つを認識することができる。同様に、明らかにランダムな画素の領域が動く画像内の別のこのような領域をコヒーレントに移動するとき、シーケンスから取った個々のフレーム内に認識できる形状がなくても、観察者はこの領域を認識できる。この現象は自然界で確認でき−すなわち、カレイ類のような生物は環境とほぼ同じ色をしていて、移動するときのみ気付いて認めることができる。
【0044】
構成要素(成分)抽出プロセスは、元の信号と劣化された信号の両方の主要な要素の境界を識別する。各境界の知覚の重要度は多数の要素、例えばその性質(エッジ、色彩の変化、テクスチャ、など)、関係するコントラストの度合い、およびそのコンテキスト(情況)のような多数の要因に依存する。この最後のカテゴリでは、フィルタ処理され、マスク処理された信号の高周波数の構成要素は、画像のその領域内に存在する多数の個々のエッジがあることを知らせる。これは−このようなエッジを数個もつ図5、およびこのようなエッジを多数もつ図7と比較してみれば−各個々のエッジの重大度である意味付けを減している。
【0045】
構成要素分割段階31において実行される各個々の抽出プロセスは、それ自体では、一般に、比較的貧弱に振舞い、それらの全てが偽の境界を生成して、他を検出するのに失敗することが原因となっている。しかしながら異なるプロセスの組み合わせは、結果の品質を高めて、視覚の対象物はしばしば多くの知覚境界によって画定され、これはScassellati B.M.による文献(“High-level perceptual contours from a variety of low-level physical features”, (Master Thesis, Massachusetts Institute of Technology, May 1995)に記載されている。したがって比較プロセス33は、単一の集合した出力38を生成するために、全ての境界を一緒に比較し、これが知覚の重大度に影響を与えてきたかを除けば、全ての境界がどのように画定されているかには関わらないようにしている。
【0046】
比較解析31の結果32、32dは比較プロセス33へ送られ、比較プロセス33では各信号内で識別された構成要素の境界が比較される。画像内の全ての境界のタイプの知覚のレレバンスを比較することによって、信号の劣化の全体的な知覚の重大度の測度が判断でき、出力38として与えることができる。劣化した信号におけるエラーの知覚の重大度は、それらが発生するコンテキストに依存する。例えば、図7における斜線(エッジ)の利得の損失は、観察者の画像の知覚にほとんど影響を与えないが、同じエラーは、図5に適用されるとき、相当に大きい重大度(意味付け)をもっている。同様に、ランダムな濃い斑点は読取り易さ(legibility)について図4よりも図6に相当に大きい影響を与える。
【0047】
より詳しく述べると、比較プロセス33は多数の個々の構成要素から構成されている。第1の要素は、2つの画像34内の境界の配置間の密接な整合を識別し(34)、これを使用して、これらの境界が対応するように、一方の画像を他方の画像にバルク変換する(35)。
【0048】
次のプロセス36は、人間の認識システムの感度が最も高いフィーチャ(特徴)を識別し、このような特徴について重み付けファクタWを生成する。一定の顔の特徴は主として視覚言語のキューに責務を負うことが分かっているので、例えば、目視可能な(ビジュアル)言語キューについて責務を負っているような、肝要な画像要素の認識に基いた検索能力(cognitive relevance)に重み付けすることができる。例えば、Rosenblum, L.D.およびSaldana,H.M.による文献(“An audiovisual test of kinematic primitives for visual speech perception”, Journal of Experimental Psychology: Human Perception and Performance”, vol.22, pages 318-331, 1996)、並びにJordan,T.R.およびThomas,S.M.による文献(“Anatomically guided construction of point-light facial images”, Technical report, Human Perception and Communication Research Group, University of Nottingham, Nottingham, U.K, 1998)を参照されたい。
【0049】
したがって顔は、パターン認識を使用するか、または画像配信サービスの性質によって存在すると推測することができる。
【0050】
1つの画像における各境界の知覚の重大度は、(もしあれば)他の画像内の対応する境界として比較され(37)、出力はこのような知覚の重要度および既に判断した重み付けWにおける差の度合いにしたがって生成される(38)。境界がどのように画定されているか(ハードエッジ、色彩の差、など)における相違は、境界の知覚の重大度に必ずしも影響を与えないが、全ての境界は画定され、一緒に比較されることに注意すべきである。さらに、スプリアスの境界の存在は、真の境界が存在しないときに知覚において重大な意味をもつものであるので、判断される知覚可能性は絶対的な差がある。
【0051】
信号の劣化は、例えばエッジによって画定される境界を消すが、境界は、他の差、例えば色彩、輝度、またはテクスチャのために依然として認識可能であることに注意すべきである。確立されたモデル(フィルタ処理され、マスク処理されたノイズ)によって生成されたエラー画像は画像の目に見える劣化の指標を与える。比較プロセス37は、本質的な内容が維持されている範囲の測度を含み、画像了解度の向上した測度を与える。境界の比較(段階37)において、所定の境界の知覚の重大な意味付けはその本質に依存する。異なるテクスチャ間の境界は、エッジによって画定された境界ほど適切に画定されておらず、このような低減した境界の知覚可能性は出力を生成する際に検討される。
【0052】
このプロセスは、大部分のビデオ品質評価応用に適しており、知覚境界の識別および比較が必要である。良好な例は非常に低いバンド幅システムによって与えられ、顔はアルゴリズムによって再構成される。したがって既に知られている視覚モデルの多くは適切にアクセスすることができない。知覚境界の比較はさらに、アニメーション化された話をしている顔のような画像の合成表示の評価も可能にし、ここでは顔として次の認知の解釈を容易にする画像のフィーチャ(特徴)が最も重要である。
【図面の簡単な説明】
【図1】 システムの第1の感覚エミュレーションステージを模式的に示す図。
【図2】 感覚エミュレーションステージにおいて使用されるフィルタパラメータを示す図。
【図3】 システムの第2の知覚ステージを模式的に示す図。
【図4】 境界を知覚する4つの様式を示す図。
【図5】 境界を知覚する4つの様式を示す図。
【図6】 境界を知覚する4つの様式を示す図。
【図7】 境界を知覚する4つの様式を示す図。

Claims (20)

  1. 第1のビデオ信号(16)と第2のビデオ信号(16d)との間の差を測定する方法であって:
    各ビデオ信号の情報内容を解析して、その中に示されているビデオ画像の知覚上関連する境界を識別する段階(31)と;
    第1の信号の画定された境界と第2の信号の画定された境界とを比較し;この比較には、第1の画像において画定された境界の特性が第2の画像内に保存される範囲を判断することを含む比較する段階(33)と;
    第1の信号と第2の信号との間の知覚の差を示す出力を生成する段階(38)とを含む方法。
  2. 境界を識別する複数の特徴(32,32d)について情報内容を解析し、比較(37)の基礎となっている境界の特性が、各信号中にこのような境界を画定している特徴を含む請求項1記載の方法。
  3. 特徴がエッジの存在を含む請求項2記載の方法。
  4. 特徴が、同じ信号のフレーム間の不同の存在を含む請求項2または3記載の方法。
  5. 特徴が、輝度、色彩、またはテクスチャのような特性の少なくとも1つにおける変化を含む請求項2ないし4の何れか1項記載の方法。
  6. 比較が、第1および第2の信号において識別された対応する境界の知覚可能性の比較を含む請求項1ないし5の何れか1項記載の方法。
  7. 画像の比較が、
    各画像内の主要な要素の識別段階(34)と、
    前記主要な要素の相対的な位置における差についての補償段階(35)とを含む請求項1ないし6の何れか1項記載の方法。
  8. 解析が知覚上、意味のある画像の特徴の識別を含み、また、第1と第2の信号間の知覚上の差を示す出力(38)がこのような画像の特徴の認識に基いたレレバンスしたがって重み付けされる(36)請求項1ないし7の何れか1項記載の方法。
  9. 知覚上、意味のある画像の特徴が、人間の顔の特徴である請求項8記載の方法。
  10. 重み付けが、目視可能なキューを言語に与える際の特徴をもつ重大度にしたがって出力される請求項9記載の方法。
  11. 知覚上意味のある画像の特徴が、個々のテキストの特徴を識別するものである請求項8記載の方法。
  12. 第1のビデオ信号(16)と第2のビデオ信号(16d)との間の差を測定する装置であって:
    各ビデオ信号の情報内容について、その中に示されたビデオ画像の知覚上関連する境界を識別する解析手段(31)と;
    第1の信号(16)の画定された境界と第2の信号(16d)の画定された境界とを比較し;この比較に、第1の画像において画定された境界の特性が第2の画像内に保存される範囲を判断することを含む比較手段(33)と;
    第1と第2の信号(16,16d)間の知覚の差を示す出力を生成する手段(38)とを含む装置。
  13. 解析手段(31)が、境界を識別する複数の特徴(32,32d)について信号(16,16d)内の情報内容を解析するようにされており、比較手段(33)が、各信号においてこのような境界を画定する特徴を比較するようにされている請求項12記載の装置。
  14. 解析手段(31)が、エッジの存在を識別する手段を含む請求項13記載の装置。
  15. 解析手段(33)が、同じ信号のフレーム間の不同の存在を識別する手段を含む請求項13または14記載の装置。
  16. 解析手段(33)が、特性、すなわち輝度、色彩、テクスチャの少なくとも1つにおける差を識別する手段を含む請求項13ないし15の何れか1項記載の装置。
  17. 比較手段(33)が、第1および第2の信号において識別された境界の知覚可能性を判断する手段を含む請求項12ないし16の何れか1項記載の装置。
  18. 比較手段(33)が、各画像および並進手段(35)内の主要な要素を識別するための画像整合手段(34)と、第1および第2の画像内のこのような要素の相対的な位置についての差を補償するために1つの画像(16d)の並進を実行するための並進手段(35)とを含む請求項12ないし17の何れか1項記載の装置。
  19. 比較手段(33)が、比較(32,32d)において知覚上意味のある画像の特徴を識別し、このような画像の特徴の認識に基いたレレバンスにしたがって出力(38)を重み付けするための重み付け手段(36)を含む請求項12ないし18の何れか1項記載の装置。
  20. 元の入力信号(11)を処理して、人間の視覚システムの応答をエミュレートして、解析手段(31)へ入力するための変更された入力信号(16,16d)を生成する請求項12ないし19の何れか1項記載の装置。
JP2000599218A 1999-02-11 2000-01-24 ビデオ信号品質の解析 Expired - Lifetime JP4519323B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
GBGB9903107.2A GB9903107D0 (en) 1999-02-11 1999-02-11 Analysis of video signal quality
GB9903107.2 1999-02-11
GB9903293.0 1999-02-12
GBGB9903293.0A GB9903293D0 (en) 1999-02-12 1999-02-12 Analysis of video signal quality
EP99304824.8 1999-06-18
EP99304824 1999-06-18
PCT/GB2000/000171 WO2000048407A1 (en) 1999-02-11 2000-01-24 Analysis of video signal quality

Publications (2)

Publication Number Publication Date
JP2003536281A JP2003536281A (ja) 2003-12-02
JP4519323B2 true JP4519323B2 (ja) 2010-08-04

Family

ID=27240190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000599218A Expired - Lifetime JP4519323B2 (ja) 1999-02-11 2000-01-24 ビデオ信号品質の解析

Country Status (7)

Country Link
US (1) US7715592B1 (ja)
EP (1) EP1151618B1 (ja)
JP (1) JP4519323B2 (ja)
AT (1) ATE251830T1 (ja)
CA (1) CA2371998C (ja)
DE (1) DE60005798T2 (ja)
WO (1) WO2000048407A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1244312A1 (en) 2001-03-23 2002-09-25 BRITISH TELECOMMUNICATIONS public limited company Multimodal quality assessment
US6577764B2 (en) * 2001-08-01 2003-06-10 Teranex, Inc. Method for measuring and analyzing digital video quality
US20030035581A1 (en) * 2001-08-13 2003-02-20 Nokia Mobile Phones, Ltd. Method and system for measuring perceptual distortion in images
GB0314161D0 (en) * 2003-06-18 2003-07-23 British Telecomm Edge analysis in video quality assessment
GB0314162D0 (en) * 2003-06-18 2003-07-23 British Telecomm Edge analysis in video quality assessment
EP1700491A4 (en) * 2003-12-16 2009-01-21 Agency Science Tech & Res MEASURE THE IMAGE AND VIDEO QUALITY
KR101058673B1 (ko) 2004-02-10 2011-08-22 삼성전자주식회사 이동단말기의 텍스트 영상 전송방법
WO2006103323A1 (fr) * 2005-03-29 2006-10-05 France Telecom Procédé et dispositif d'évaluation d'une qualité d'un signal représentatif d'au moins un stimulus, telle que perçue par un destinataire dudit stimulus
EP1860885B1 (en) * 2006-05-23 2011-11-02 Tektronix International Sales GmbH Video transport stream analyser
WO2010093745A1 (en) 2009-02-12 2010-08-19 Dolby Laboratories Licensing Corporation Quality evaluation of sequences of images
US8284259B2 (en) * 2009-09-23 2012-10-09 Avaya Inc. Policy-based video quality assessment
KR101092650B1 (ko) * 2010-01-12 2011-12-13 서강대학교산학협력단 양자화 코드를 이용한 화질 평가 방법 및 장치
TWI497981B (zh) * 2012-12-03 2015-08-21 Arcadyan Technology Corp 影像訊號測試方法與裝置
US9794554B1 (en) * 2016-03-31 2017-10-17 Centre National de la Recherche Scientifique—CNRS Method for determining a visual quality index of a high dynamic range video sequence
US10085015B1 (en) * 2017-02-14 2018-09-25 Zpeg, Inc. Method and system for measuring visual quality of a video sequence
US11205257B2 (en) * 2018-11-29 2021-12-21 Electronics And Telecommunications Research Institute Method and apparatus for measuring video quality based on detection of change in perceptually sensitive region
CN111199538B (zh) * 2019-12-25 2022-11-25 杭州中威电子股份有限公司 一种针对多层压缩感知图像的隐私保护度评价方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5812018B2 (ja) * 1973-09-10 1983-03-05 日本放送協会 フリツカ−トクセイケンサソウチ
JPH02166983A (ja) * 1988-12-21 1990-06-27 Nippon Hoso Kyokai <Nhk> 映像信号の帯域圧縮伝送方式
JPH03210679A (ja) * 1990-01-12 1991-09-13 Hiyuutec:Kk パターンマッチング方法および装置
JP3193458B2 (ja) * 1992-06-19 2001-07-30 日本放送協会 画像符号化方法および装置
US5446492A (en) * 1993-01-19 1995-08-29 Wolf; Stephen Perception-based video quality measurement system
US5589884A (en) 1993-10-01 1996-12-31 Toko Kabushiki Kaisha Adaptive quantization controlled by scene change detection
US5790717A (en) * 1993-10-26 1998-08-04 Bell Communications Research Inc. Apparatus and method for predicting subjective quality of compressed images
JP2795147B2 (ja) * 1993-12-24 1998-09-10 日本電気株式会社 画質評価装置
US5512939A (en) * 1994-04-06 1996-04-30 At&T Corp. Low bit rate audio-visual communication system having integrated perceptual speech and video coding
JP3025415B2 (ja) * 1995-01-20 2000-03-27 ケイディディ株式会社 ディジタル圧縮・再生画像の画質評価装置
JPH08223610A (ja) * 1995-02-17 1996-08-30 Nippon Telegr & Teleph Corp <Ntt> 画像転送評価装置
US5734744A (en) * 1995-06-07 1998-03-31 Pixar Method and apparatus for compression and decompression of color data
DE19521408C1 (de) 1995-06-13 1996-12-12 Inst Rundfunktechnik Gmbh Verfahren zum objektiven Bewerten der Bildqualität zwei- oder dreidimensionaler Bilder
JP3600372B2 (ja) * 1995-06-27 2004-12-15 株式会社リコー 色再現域補正装置および方法
GB9604315D0 (en) 1996-02-29 1996-05-01 British Telecomm Training process
US6119083A (en) 1996-02-29 2000-09-12 British Telecommunications Public Limited Company Training process for the classification of a perceptual signal
US5694491A (en) * 1996-03-29 1997-12-02 David Sarnoff Research Center, Inc. Methods and apparatus for assessing the visibility of differences between two image sequences
US5974159A (en) * 1996-03-29 1999-10-26 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two image sequences
US6075884A (en) * 1996-03-29 2000-06-13 Sarnoff Corporation Method and apparatus for training a neural network to learn and use fidelity metric as a control mechanism
JPH1063859A (ja) * 1996-08-22 1998-03-06 Fuji Xerox Co Ltd 画質評価方法および装置
JP3116994B2 (ja) * 1996-08-29 2000-12-11 富士ゼロックス株式会社 画質予測装置および方法ならびに画質制御装置および方法
US6057882A (en) * 1996-10-29 2000-05-02 Hewlett-Packard Company Testing architecture for digital video transmission system
FR2755526B1 (fr) * 1996-11-05 1999-01-22 Thomson Csf Systeme de lecture d'empreintes digitales avec resistances de chauffage integrees
JPH10164281A (ja) * 1996-11-26 1998-06-19 Fuji Xerox Co Ltd 画質評価方法および装置
US6137904A (en) 1997-04-04 2000-10-24 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two signal sequences
US6363116B1 (en) 1997-04-04 2002-03-26 Tektronix, Inc. Picture quality assessment using spatial location with or without subsampling
US6360022B1 (en) 1997-04-04 2002-03-19 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two signal sequences
US5940124A (en) * 1997-07-18 1999-08-17 Tektronix, Inc. Attentional maps in objective measurement of video quality degradation
US6014183A (en) 1997-08-06 2000-01-11 Imagine Products, Inc. Method and apparatus for detecting scene changes in a digital video stream
US6075561A (en) 1998-02-20 2000-06-13 Tektronix, Inc. Low duty-cycle transport of video reference images
DE69803830T2 (de) 1998-03-02 2002-09-12 Koninklijke Kpn N.V., Groningen Verfahren, Vorrichtung, ASIC und deren Benutzung zur objektiven Videoqualitätbewertung
US6493023B1 (en) 1999-03-12 2002-12-10 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for evaluating the visual quality of processed digital video sequences
US6690839B1 (en) 2000-01-17 2004-02-10 Tektronix, Inc. Efficient predictor of subjective video quality rating measures
US6633654B2 (en) * 2000-06-19 2003-10-14 Digimarc Corporation Perceptual modeling of media signals based on local contrast and directional edges
US6943827B2 (en) 2001-04-16 2005-09-13 Kddi Corporation Apparatus for monitoring quality of picture in transmission
US7035439B2 (en) 2003-07-30 2006-04-25 Xerox Corporation System and method for measuring and quantizing document quality
EP2106154A1 (en) 2008-03-28 2009-09-30 Deutsche Telekom AG Audio-visual quality estimation

Also Published As

Publication number Publication date
DE60005798T2 (de) 2004-08-12
US7715592B1 (en) 2010-05-11
WO2000048407A1 (en) 2000-08-17
EP1151618A1 (en) 2001-11-07
CA2371998C (en) 2006-01-24
JP2003536281A (ja) 2003-12-02
ATE251830T1 (de) 2003-10-15
DE60005798D1 (de) 2003-11-13
EP1151618B1 (en) 2003-10-08
CA2371998A1 (en) 2000-08-17

Similar Documents

Publication Publication Date Title
JP4519323B2 (ja) ビデオ信号品質の解析
Mantiuk et al. Fovvideovdp: A visible difference predictor for wide field-of-view video
Liu et al. Visual attention in objective image quality assessment: Based on eye-tracking data
EP0940996B1 (en) A method, an arrangement, an ASIC and their use for objective assessment of video quality
Wang Survey of objective video quality measurements
Almohammad et al. Stego image quality and the reliability of PSNR
van den Branden Lambrecht et al. Perceptual quality metric for digitally coded color images
Seshadrinathan et al. Automatic prediction of perceptual quality of multimedia signals—a survey
Ginesu et al. A multi-factors approach for image quality assessment based on a human visual system model
Osberger Perceptual vision models for picture quality assessmnet and compression applications
Feng et al. Saliency inspired full-reference quality metrics for packet-loss-impaired video
Rix et al. Models of human perception
Yang et al. New metric for stereo image quality assessment based on HVS
Mozhaeva et al. Video quality assessment considering the features of the human visual system
Voran The development of objective video quality measures that emulate human perception
Zhu et al. Perceptual distortion metric for stereo video quality evaluation
Kim et al. Quality assessment of perceptual crosstalk on two-view auto-stereoscopic displays
Wolf Measuring the end-to-end performance of digital video systems
Gelasca Full-reference objective quality metrics for video watermarking, video segmentation and 3D model watermarking
Lu et al. PQSM-based RR and NR video quality metrics
US20050105802A1 (en) Method and an arrangement for objective assessment of video quality
Wang et al. A human visual system-based objective video distortion measurement system
Thirumalai et al. P‐23: A Subjective Method for Evaluating Foveated Image Quality in HMDs
Li et al. Visual quality evaluation for images and videos
Liu Color Video JND Model Using Compound Spatial Masking and Structure-Based Temporal Masking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100519

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4519323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term