JP2008263604A - ビデオ位置予測方法 - Google Patents

ビデオ位置予測方法 Download PDF

Info

Publication number
JP2008263604A
JP2008263604A JP2008100588A JP2008100588A JP2008263604A JP 2008263604 A JP2008263604 A JP 2008263604A JP 2008100588 A JP2008100588 A JP 2008100588A JP 2008100588 A JP2008100588 A JP 2008100588A JP 2008263604 A JP2008263604 A JP 2008263604A
Authority
JP
Japan
Prior art keywords
map
gaze
probability
focus
scattering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008100588A
Other languages
English (en)
Other versions
JP4940452B2 (ja
Inventor
Kevin Ferguson
ケビン・ファーガソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tektronix Inc
Original Assignee
Tektronix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tektronix Inc filed Critical Tektronix Inc
Publication of JP2008263604A publication Critical patent/JP2008263604A/ja
Application granted granted Critical
Publication of JP4940452B2 publication Critical patent/JP4940452B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】散乱による注視点フォーカス確率軌跡のビデオ位置を予測する。
【解決手段】テスト・ビデオ入力に基づいて公称測定マップを作成し、テスト・ビデオ入力に基づいて注視点確率マップを作成する。公称測定マップ及び注視点確率マップに基づいて周辺感度確率マップを作成する。公称測定マップ、注視点確率マップ、周辺感度マップ及び散乱制御に基づいて散乱を有する注視点確率マップのフォーカスを作成する。散乱を有する注視点確率マップのフォーカス及び公称測定マップに基づいて注視点重み付け測定マップを供給する。
【選択図】図6

Description

本発明は、一般に、ビデオの試験及び測定に関し、特に、因果視聴者(causal viewer)用の主観的ビデオ品質予測の如きコア・ビデオ画像品質(PQ)測定を改良するビデオ位置予測方法に関する。
MPEG−2及びH.264プロセス・ビデオの如きビデオ圧縮方法は、損失のある圧縮方法を用い、観念的には人間の目が見えないエラーを導入する。圧縮方法の損失により生じる任意の見えるエラーは、それ自体が、一般的に観察者に散乱できる欠陥アーティファクトとして、明瞭になる。さらに、ビデオ・イメージの他の外観は、観察者の注意を引く。これら他の非散乱注視点(attention)の引きつけにより空間及び時間にわたって注視点のフォーカスの確率密度を予測するのに用いるアルゴリズムが開発され、しばしば「注視点モデル」と呼ばれている。用語「散乱(distraction)」は、ここでは、ビデオ欠陥のことを言い、より一般的には、ビデオ内の意図した内容ではなくビデオ基準からの偏差を言う。この偏差は、「散乱」の独特な形式を有する。
知覚差予測モデルなどの他のビデオ測定に関係して用いる際に、注視点モデルが今まで開発されてきた。散乱を有するビデオを測定する際、注視点モデルを削除する場合以上の主観的評価の知覚を一般的には改善しない。多くの研究は、散乱が存在しないときに、注視点のフォーカスの確率の予測は非常に良い。また、ビデオ表示がどの程度の視野を占めるかに応じて、人間の周辺視野は、「中心窩」即ち、中心視覚よりも、空間的散乱に対して実質的に敏感ではないことが知られている。よって、視覚ビデオがどの程度劣化しているかを示す知覚できない基本的な断片は、人々が上述の散乱を何時何処で見ているかに応じて決まる。
特開2003−199127号公報
そこで、従来技術でのように注視点の観察者のフォーカスを予想するが、散乱による注視点を新たに追加した自動化方法が望まれている。
本発明は、散乱による注視点フォーカス確率軌跡のビデオ位置を予測する方法であって;テスト・ビデオ入力に基づいて公称測定マップを作成するステップと;テスト・ビデオ入力に基づいて注視点確率マップを作成するステップと;公称測定マップ及び注視点確率マップに基づいて周辺感度確率マップを作成するステップと;公称測定マップ、注視点確率マップ、周辺感度マップ及び散乱制御に基づいて散乱を有する注視点確率マップのフォーカスを作成するステップと;散乱を有する注視点確率マップのフォーカス及び公称測定マップに基づいて注視点重み付け測定マップを供給するステップとを具えている。
本発明の方法は、既存のビデオ測定、特に、品質測定及び主観的品質評価予測に組み込まれる手段、例えば、これらの測定のオーバーモールドも付け手段を具える必要がある。また、散乱性の制御は、人口統計などに反映する特定のアプリケーションにとって重要である。最後に、散乱に応答した注視点の行動を含む方法には、コンピュータにより効率化でき、所定精度の処理が比較的低レベルであることがましい。
よって、本発明の種々の実施例は、ビデオ品質評価用の注視点モデルにて散乱を表現するものを発生するメカニズムを含む。このメカニズムを含むことにより、周辺視野にて(ある大きさ以上の対象物の動きのような場合を除く)、低減した知覚感度(しきい値及びしきい値以上の両方)をシミュレーションする。よって、観察すべき散乱の可能性を良好に予測する。散乱として観察されるだろう適度な程度のビデオ・アーティファクトを認識するメカニズムを含んでおり、注視点の散乱の確率の予測において、各アーティファクトの程度を選択的に重み付けできるようにする。別の実施例では、所望のメカニズムに対応する主観的類似物を含んでいる。
本発明の実施例を図6に示す。テスト・ビデオ入力620と、テスト・ビデオ620に対応するがテスト・ビデオ入力内に欠陥が存在しないオプションとしての基準ビデオ入力630とに基づいて、ブロック610に示すように、公称ビデオ測定を行い、散乱ソース・マップを作成する。テスト・ビデオ・フレームの例は、図1に示す対応基準ビデオ・フレームと共に、テスト・ビデオ・フレームの例を図2に示す。本発明の一実施例において、テスト・ビデオ入力620と共に基準ビデオ入力630を用いて、完全(フル)基準測定として、公称ビデオ測定を行い、散乱ソース・マップを作成する。別の実施例においては、基準ビデオ入力630を使用しないことを意味する非基準測定として、公称ビデオ測定を行うと共に、散乱ソース・マップを作成する。完全基準又は非基準のいずれかを用いて、本発明の実施例は、主観的、客観的、又は客観的な重み付け主観的な測定のいずれでもよい。主観的測定に適用する実施例においては、2005年12月13日に発行されたケビン・ファーガソンによる米国特許第6975776号「ヒューマン・ビジョン知覚及び知覚差」に開示された手段及び方法論を用いている。客観的測定に適用する実施例においては、PSNR測定を実行する。客観的測定に適用する他の実施例においては、2008年3月28日出願のケビン・ファーガソンによる米国特許出願第12/058474号「ビデオ・コーデック・ブロックにおける細部の損失を測定するシステム及び方法」に記載のように、アーティファクトの検出を行う。さらに他の実施例においては、2006年9月5日に発行されたケビン・ファーガソンによる米国特許第7102667号「知覚できる欠陥の明らかな原因に対するピクチャ品質分析」に開示された客観的重み付け主観的な測定を提供する。注視点で重み付けされておらず、「公称マップ」と呼ぶ公称ビデオ測定マップの例を図3に示す。図4は、「注視点マップ」という注視点確率マップのフォーカスの例を示す。これらは、610に示すように、公称ビデオ測定により提供される出力の例である。
テスト・ビデオ入力620を用いて、注視点確率マップのフォーカス640を作成する。非基準測定の場合、テスト・ビデオは、それ自体による入力である。完全基準実施例において、基準ビデオ入力630も提供する。公称ビデオ測定ブロック及び注視点モデルの間の点線は、直接ビデオ入力の代わりの注視点モデルへの入力として用いる中間知覚モデル出力(知覚コントラスト)を含むオプションとしての実施例を示すことに留意されたい。本発明の実施例において、2003年12月30日に発行したウィルフレイド・オスバーガーによる米国特許第6670963号「仮想注視点モデル」に記載のように、注視点確率マップのフォーカスを提供する。
散乱ソース・マップ及び公称ビデオ測定610と注視点確率マップのフォーカス640の出力を、散乱性制御(distractibility control)652と共に、散乱を含む注視点予測650に供給する。散乱性制御は、例えば、0及び100%の間の値を出力する。散乱を含む注視点予測650の出力は、公称マップと共に、散乱重み付け測定マップ660を含む注視点への入力として供給される。マップ660は、散乱650を有する注視点予測からの入力マップにより、公称マップをマスクする。この結果は、夫々100%、50%及び10%の散乱性制御設定に対応した図7〜9の例に示すようになる。
散乱を含み、測定マップを重み付けした注視点の出力をマップ・フォーマット及びプール・ブロック670に供給する。これは、測定マップと共に、エンド・ユーザに表示するための測定概要データを提供する。ブロック670からの結果出力は、散乱、重み付けした測定マップを含む注視点の表示である。いくつかの実施例では、散乱、重み付けした測定を含む注視点も表示してもよい。
散乱を含む注視点予測ブロック650は、ある操作を実行するために2つの他のブロックを提供する。公称マップ及び注視点確率マップに基づいて、周辺感度確率マップ654を作成する。第2ブロック658は、公称マップ、注視点確率マップ、周辺感度マップ、散乱性制御からの入力に基づいて、散乱マップを有する注視点散乱のフォーカスを生成する。散乱ブロックを含む注視点確率内のこれら2つのブロックの動作は、以下に詳述する。
本発明の実施例において、返信マップに対する感度を注視点感度マップにより畳み込むことにより、周辺感度確率マップを作成する。返信を有する周辺感度の変化が、マーク・キャノンの研究などに示された実験的データ結果により、視覚科学に示されている。次のように、所定周波数に対して、コントラスト感度しきい値の上昇を図10に示すように近似してもよい(この場合、最大感度に略対応する)。
perifSensRawModel(Eccentricity)=1.165Eccentricity
極座標において、2次元に渡るこの感度を表すヒューマン・ビジョン・ポイント・スプレッド関数(PSF)は、偏心を代用するrを伴う円掃引として近似できる。
perifSensModelPSFpolar(Θ,r)=perifSensModel(-r)
ポイント・スプレッド(点広がり)関数は感度上昇の逆数なので、―rをrの代わりに用いる点に留意されたい。最後に、直交座標では次のようになる。
perifSensModelPSF(x,y)=perifSensModel(-√(x2+y2))
注視点マップによりポイント・スプレッド関数を畳み込んで、PSFFマップを作成する。このPSFFマップは、注視点マップ確率に応じてイメージ内の注視点誘引(attention attracters)を探す際に、周辺視野によるしきい値上昇の確率の逆数を表す。SPFFマップの各サンプルを0.1%知覚コントラスト(キャノン当たり)の公称(中心窩)しきい値に分割して、上昇しきい値を発生する。
この方法は、高レベルの確度を達成する。しかし、これは、幾分計算的には効果である。特定の見える距離において、ポイント・スプレッド関数がどの程度変化するかを評価することにより、より簡単な別の方法により良好な近似ができる。ここでは、平均イメージ偏心による平均周辺感度上昇を用いる。例えば、次のように、見える距離(viewingDist:スクリーンの高さを単位とする)の関数として、最大偏心(MaxEccentricity)レンジを考慮する。
MaxEccentricity(viewingDist, aspecRatio)=tan-1(1/(2*viewingDist*aspectRatio))*180/π
図11において、16/9の高分解能テレビジョン表示のアスペクト比(aspectRatio)用に、この関数を見える距離(viewingDist)に対してプロットする。このプロットは、多くの実際のビデオ視聴の場合にPSFのダイナミック・レンジが非常に低いことを示す。平均偏心に対応する一定の上昇を用いると、結果がほぼ最小の全体エラー(RMSなど)となる。所定最大偏心及び表示アスペクトの平均偏心は、次のようになる。
なお、totalViewingAngle=2*MaxEccentricity(viewingDist, aspectRatio)となる。
見える距離及び表示アスペクト比から得たperifSensModelPSFpolar(0, MeanEccentricity)を計算することにより、近似平均コントラスト感度しきい値上昇を計算できる。一般的に、注視点マップは、スクリーンの中央に向かって分布する高い確率を有するので、平均において、イメージを横切る上昇したしきい値に大きな変動がない。3スクリーン分の高さに対する略2からの上昇係数レンジの値は、10スクリーン分の高さに対して約1.25に落ちる。これら値を、図6のブロック654からの全周辺感度マップ出力として用いる。
この方法は、ほとんどのアプリケーション用に良好な近似の速度(計算的には低い費用)を生じる。
同様に、しきい値を超えた(suprathreshold)応答は、周辺視野で変化するが、一層少ない。しきい値の上昇が一定で表される場合には、しきい値を超えた感度も一定で表される。
図6において、658で示す散乱マップによる注視点確率のフォーカスを作成する方法を提供する。通常低い注視点の領域を充分な散乱により上昇させる。この方法は、多くのアプリケーションに対して良好な近似の速度(計算的には低い費用)を生じる。次のピクセル様式の動作を用いて、周辺感度(上昇したしきい値、即ちET)確率マップ(オプションとしては上述の如き一定値と置換する)を注視点マップ及び散乱性制御と組合せる。
attentionProb(pcDiff, att, ET, EG, maxAttn, wt) = if(pcDiff > ET((maxAttn-attn)/maxAttn), EG, 0) (maxAttn-attn)*wt + attn
なお、pcDiffは、公称マップの行y及び列xにおけるピクセルを表す。attnは、注視点マップの対応ピクセルである。ETは、周辺感度(上昇したしきい値又はET)確率マップのピクセルである。EGは、しきい値を超えた感度確率マップである。maxAttnは、注視点マップ内の最大値である。wtは、散乱性制御である。if(boolean, x, y)は、booleanが真ならばx、偽ならばyである。この例では、便宜上、maxAttnは1に正規化されており、一般的には、この値は確率分布に応じて決まる点に留意されたい。
図12〜15は、種々のレベルの公称マップ、注視点マップ及び散乱性制御によるattentionProbの動きを示す。
実際には、注視点の低い確率を有するイメージ領域は、同様に、公称マップ(例えば、知覚コントラスト)用の上昇したしきい値を有し、低い値が全体にマスクされる。一方、高い注視点確率の領域は、散乱により影響されない。ここでは、注視点確率が変化せずに残り、最終注視点重み付け出力も同様に変化しない。注視点マップ値におけるこれら2つの極端な間では、応答が連続的であり、散乱性制御により総てが略重み付けされる。
完全な基準測定に用いる基準ビデオ・シーケンスの無欠陥の基準ビデオ・フレームの例を示す図である。 完全な基準又は非基準測定のいずれかにより用いるテスト・ビデオ・シーケンスの欠陥テスト・ビデオ・フレームの例を示す図である。 図1の基準ビデオ・フレーム及び図2のテスト・ビデオ・フレーム用に計算した予測知覚コントラスト差マップの例を示す図である。 図1に示すビデオ用に計算した注視点確率マップの予測フォーカスの例を示す図である。 図3の注視点マップ及び図4の知覚差を用いて、図1に示すビデオ用に 本発明の実施例のブロック図である。 100%に設定された散乱性制御を伴う散乱を有する注視点確率マップのフォーカスの例を示す図である。 50%に設定された散乱性制御を伴う散乱を有する注視点確率マップのフォーカスの例を示す図である。 10%に設定された散乱性制御を伴う散乱を有する注視点確率マップのフォーカスの例を示す図である。 簡単なモデルperifSensModel(角度)に対する偏心データに関する周辺しきい値評価のグラフを示す図である。 16:9の表示アスペクト比の例用の見える距離に応じたイメージ内の最大しきい値評価係数のグラフを示す図である。 本発明の実施例による動きを示すのに用いる合成公称マップ・ラインを示す図である。 本発明の実施例による動きを示すのに用いる合成注視点マップ・ラインを示す図である。 夫々0%、25%、50%、75%及び100%の散乱制御にて設定された散乱を有する復号注視点マップ及び高めたしきい値(ET)マップにおける縮尺及び重ね合わさった図12及び図13の入力を示す図である。 夫々0%、25%、50%、75%及び100%の散乱制御にて設定された散乱を有する復号注視点マップに対応するETマップ上で重ね合わさった重み付け測定、散乱を含む結果としての注視点を示す図である。
符号の説明
610 散乱ソース・マップ及び公称ビデオ測定
620 テスト・ビデオ入力
630 基準ビデオ入力
640 注視点確率マップのフォーカス
650 散乱を含む注視点予測
652 散乱性制御
654 周辺感度確率マップ
658 散乱マップによる注視点確率のフォーカス
660 散乱重み付け測定マップ
670 マップ・フォーマット及びプール

Claims (8)

  1. 散乱による注視点フォーカス確率軌跡のビデオ位置を予測する方法であって、
    テスト・ビデオ入力に基づいて公称測定マップを作成するステップと、
    テスト・ビデオ入力に基づいて注視点確率マップを作成するステップと、
    上記公称測定マップ及び上記注視点確率マップに基づいて周辺感度確率マップを作成するステップと、
    上記公称測定マップ、上記注視点確率マップ、上記周辺感度マップ及び散乱制御に基づいて散乱を有する注視点確率マップのフォーカスを作成するステップと、
    上記散乱を有する注視点確率マップのフォーカス及び上記公称測定マップに基づいて注視点重み付け測定マップを供給するステップと
    を具えたビデオ位置予測方法。
  2. 上記注視点重み付けマップをフォーマットすると共に上記注視点重み付け測定マップを表示するステップを更に具えた請求項1のビデオ位置予測方法。
  3. 注視点重み付け測定をプールし、散乱、重み付けされた測定を含んで注視点を表示するステップを更に具えた請求項1のビデオ位置予測方法。
  4. 上記公称測定マップを作成するステップは、上記テスト・ビデオ入力及び基準ビデオ入力に基づくことを特徴とする請求項1のビデオ位置予測方法。
  5. 上記注視点確率マップは、上記テスト・ビデオ入力及び基準ビデオ入力に基づくことを特徴とする請求項1のビデオ位置予測方法。
  6. 上記周辺感度確率マップを作成するステップは、上記注視点確率マップと一緒に上記公称測定マップに基づいて偏心マップに対する感度マップを畳み込むことを特徴とする請求項1のビデオ位置予測方法。
  7. 散乱マップを有する注視点確率のフォーカスを作成するステップは、散乱のレベルに基づいて公称的に低い注視点の領域を持ち上げることを特徴とする請求項1のビデオ位置予測方法。
  8. 上記注視点重み付け測定マップを提供するステップは、上記公称測定マップのマスクとして、上記注視点に関連したマップを用いることを特徴とする請求項1のビデオ位置予測方法。
JP2008100588A 2007-04-09 2008-04-08 ビデオ位置予測方法 Expired - Fee Related JP4940452B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US91081807P 2007-04-09 2007-04-09
US60/910,818 2007-04-09
US12/058,517 US8229229B2 (en) 2007-04-09 2008-03-28 Systems and methods for predicting video location of attention focus probability trajectories due to distractions
US12/058,517 2008-03-28

Publications (2)

Publication Number Publication Date
JP2008263604A true JP2008263604A (ja) 2008-10-30
JP4940452B2 JP4940452B2 (ja) 2012-05-30

Family

ID=39632445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008100588A Expired - Fee Related JP4940452B2 (ja) 2007-04-09 2008-04-08 ビデオ位置予測方法

Country Status (5)

Country Link
US (1) US8229229B2 (ja)
EP (1) EP2137984A2 (ja)
JP (1) JP4940452B2 (ja)
CN (1) CN101743757B (ja)
WO (1) WO2008124742A2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229229B2 (en) * 2007-04-09 2012-07-24 Tektronix, Inc. Systems and methods for predicting video location of attention focus probability trajectories due to distractions
US8374436B2 (en) * 2008-06-30 2013-02-12 Thomson Licensing Method for detecting layout areas in a video image and method for generating an image of reduced size using the detection method
US8355567B2 (en) 2008-12-12 2013-01-15 Tektronix, Inc. Method and apparatus for implementing moving image color appearance model for video quality ratings prediction
US8917932B2 (en) 2011-12-29 2014-12-23 Tektronix, Inc. Method of predicting perceptual differences between memory and directly viewed colors in video
US9584859B2 (en) * 2013-11-05 2017-02-28 Lee S. Weinblatt Testing effectiveness of TV commercials to account for second screen distractions
US11350059B1 (en) 2021-01-26 2022-05-31 Dell Products, Lp System and method for intelligent appearance monitoring management system for videoconferencing applications
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247574A (ja) * 2001-01-17 2002-08-30 Tektronix Inc 視覚注意力のモデル化方法
JP2003199127A (ja) * 2001-11-21 2003-07-11 Tektronix Inc ビデオ・シーケンスの主観的品質評価の予測方法
US20030152284A1 (en) * 2002-02-14 2003-08-14 Ferguson Kevin M. Predicting human vision perception and perceptual difference

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06113147A (ja) * 1992-09-29 1994-04-22 Canon Inc ノイズ除去装置
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US20020073007A1 (en) * 1999-08-11 2002-06-13 Elie Ayache System, method, and computer program product for use of lattices in valuating options
US6822675B2 (en) * 2001-07-03 2004-11-23 Koninklijke Philips Electronics N.V. Method of measuring digital video quality
US7102667B2 (en) * 2002-03-18 2006-09-05 Tektronix, Inc. Picture quality diagnostics for revealing cause of perceptible impairments
US7117108B2 (en) * 2003-05-28 2006-10-03 Paul Ernest Rapp System and method for categorical analysis of time dependent dynamic processes
CN1813268A (zh) * 2003-06-27 2006-08-02 皇家飞利浦电子股份有限公司 用于非对称增强图像和视频的锐度度量
US20050100235A1 (en) * 2003-11-07 2005-05-12 Hao-Song Kong System and method for classifying and filtering pixels
JP4194479B2 (ja) * 2003-11-20 2008-12-10 キヤノン株式会社 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
US20080159592A1 (en) * 2006-12-28 2008-07-03 Lang Lin Video processing method and system
US8036485B2 (en) * 2007-04-09 2011-10-11 Tektronix, Inc. Systems and methods for measuring loss of detail in a video codec block
US8229229B2 (en) * 2007-04-09 2012-07-24 Tektronix, Inc. Systems and methods for predicting video location of attention focus probability trajectories due to distractions
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
US8280153B2 (en) * 2009-08-18 2012-10-02 Behavioral Recognition Systems Visualizing and updating learned trajectories in video surveillance systems
US8280112B2 (en) * 2010-03-31 2012-10-02 Disney Enterprises, Inc. System and method for predicting object location

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002247574A (ja) * 2001-01-17 2002-08-30 Tektronix Inc 視覚注意力のモデル化方法
JP2003199127A (ja) * 2001-11-21 2003-07-11 Tektronix Inc ビデオ・シーケンスの主観的品質評価の予測方法
US20030152284A1 (en) * 2002-02-14 2003-08-14 Ferguson Kevin M. Predicting human vision perception and perceptual difference

Also Published As

Publication number Publication date
CN101743757A (zh) 2010-06-16
JP4940452B2 (ja) 2012-05-30
US8229229B2 (en) 2012-07-24
WO2008124742A2 (en) 2008-10-16
CN101743757B (zh) 2012-11-14
EP2137984A2 (en) 2009-12-30
US20080267442A1 (en) 2008-10-30

Similar Documents

Publication Publication Date Title
JP4940452B2 (ja) ビデオ位置予測方法
US10984756B2 (en) Adaptive parameters in image regions based on eye tracking information
Osberger et al. An automatic image quality assessment technique incorporating higher level perceptual factors
Liu et al. Studying the added value of visual attention in objective image quality metrics based on eye movement data
WO2010070882A1 (ja) 情報表示装置及び情報表示方法
US10176555B2 (en) Method and device for simulating a wide field of view
JP2007310454A (ja) 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム
CN107515474B (zh) 自动立体显示方法、装置及立体显示设备
WO2016158001A1 (ja) 情報処理装置、情報処理方法、プログラム及び記録媒体
US7835544B2 (en) Method and system for far field image absolute navigation sensing
JP2019102828A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN112055247B (zh) 一种视频播放方法、装置、系统及存储介质
KR101829580B1 (ko) 콘텐츠 시청 시 시각적 현실감을 정량화하는 방법 및 장치
JP2017029401A (ja) 光刺激に対する瞳孔径の変化の判定装置、判定方法及びプログラム
KR20200099923A (ko) 영상 왜곡 측정 방법, 영상 왜곡 측정 방법에 의해 측정된 영상 왜곡을 사용한 인지적 화질 평가 방법, 및 상기 방법을 수행하는 장치
US11270475B2 (en) Variable rendering system and method
JP7447262B2 (ja) パラメトリックレベルモデルおよび画素レベルモデルを使用したビデオ品質評価方法
Coltekin Space-variant image coding for stereoscopic media
Lee et al. Experimental investigation of discomfort combination: toward visual discomfort prediction for stereoscopic videos
Coudoux et al. Picture quality measurement based on block visibility in discrete cosine transform coded video sequences
Cho et al. Tone-mapping requirements in real-time videos for studying the dynamism of views-out in virtual reality
US20210312699A1 (en) Information processing device, information processing method, and program
JP2017076178A (ja) 部屋用途評価装置及び部屋用途評価方法
CN118096588A (zh) 基于ar的虚拟现实缝补方法和装置、存储介质、ar眼镜
al Piastów Gaze-Dependent Screen Space Ambient Occlusion

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20100126

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120207

R150 Certificate of patent or registration of utility model

Ref document number: 4940452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees