JP2002247574A - 視覚注意力のモデル化方法 - Google Patents

視覚注意力のモデル化方法

Info

Publication number
JP2002247574A
JP2002247574A JP2002003558A JP2002003558A JP2002247574A JP 2002247574 A JP2002247574 A JP 2002247574A JP 2002003558 A JP2002003558 A JP 2002003558A JP 2002003558 A JP2002003558 A JP 2002003558A JP 2002247574 A JP2002247574 A JP 2002247574A
Authority
JP
Japan
Prior art keywords
spatial
importance
temporal
importance map
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002003558A
Other languages
English (en)
Other versions
JP3851171B2 (ja
Inventor
Wilfried M Osberger
ウィルフリード・エム・オスバーガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tektronix Inc
Original Assignee
Tektronix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tektronix Inc filed Critical Tektronix Inc
Publication of JP2002247574A publication Critical patent/JP2002247574A/ja
Application granted granted Critical
Publication of JP3851171B2 publication Critical patent/JP3851171B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

(57)【要約】 【課題】 人間の注意力の特性と目の動きとを用いて、
典型的な娯楽ビデオの自然な場面において、どこに関心
領域があるかを自動的に予測する。 【解決手段】 ルミナンス及びカラーに応じて現在のフ
レームを複数の領域に適応的にセグメント化し(30)、
複数の空間的特徴(11〜17)によりセグメント化領域を
処理して、複数の空間的インポータンス・マップを生成
する。以前のフレーム及び現在のフレームを処理して
(22)、カメラの動きを補償した時間的インポータンス
・マップを生成する(24)。目の動きの考察から得た重
み付けに応じて空間的インポータンス・マップ及び時間
的インポータンス・マップを組み合わせて(40)、現在
のフレーム用の総合インポータンス・マップを生成す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、一般に、ビデオ品
質の分析方法に関し、特に、ビデオ信号のイメージ内の
関心領域を自動的に判断する視覚注意力のモデル化方法
に関する。
【0002】
【従来の技術】適切に同調された初期のビジュアル(視
覚)システムのモデルでは、圧縮された自然なイメージ
における可視歪の場所を正確に予測する。忠実なマップ
から主観的な品質を評価するには、現在の最先端技術の
品質測定により、総ての視覚エラーの単純な加重を求め
る。これは、画像品質の主観的評価の最中に生じるとし
て知られている任意の高レベル係数又は認知係数を考慮
できない。
【0003】全体的な画像品質に対する歪の影響は、そ
の場面の内容において、その場所により強い影響を受け
るとして知られている。人間の視覚系(Human Visual S
ystem: HVS)の可変分解能特性では、高い鋭敏さ(acui
ty)が網膜の中心窩(視軸上にある網膜の小さい桿状体
のない陥凹で、明瞭な視覚を与える部分)においてのみ
有用であることを示している。なお、この中心窩の直径
は、約2度である。通常の目の動きにより場面の知識を
得て、中心窩の視覚内にある領域を再配置する。初期の
視覚モデルでは、「無限大の中心窩」を仮定しており、
即ち、高い鋭敏な中心窩が総ての領域を観察するとの仮
定の下に場面を処理していた。しかし、目の動きを考察
すると、観察者は、場面の総ての領域を均一に注視して
いないことが判った。その代わり、いくつかの領域は、
人間の視覚注意処理により関心領域(regions of inter
est: ROI)として識別され、観察者は、まだ注視してい
ない他の領域よりはこれらROIに繰り返し戻る傾向が
ある。これらROI内の画像忠実度は、画像全体の品質
に強い影響を与えるとして知られている。
【0004】自然な場面を観察する際、選択的に且つ相
関的に対象物の目の動きのパターンに人間の注意が向け
られ、目の動きが追従するという知識が、人間の視覚的
注意の計算モデルを開発するための骨組みとなる。かか
る考察により、場面内の画像の動き、ルミナンスのコン
トラスト、カラーのコントラスト、対象物のサイズ、対
象物の形状、人間及び顔、場所に存在する多くの異なる
特徴や、対象物が前景の一部か又は背景の一部かによ
り、人間の注意が影響されることが判った。いくつかの
簡単な視覚注意モデルが文献にて提案されている。これ
らモデルでは、管理されない方法で、場面内のROIを
検出しようとしている。これらは、一般的に、複雑でな
い静止イメージに用いるように設計されている。これら
モデルは、典型的な娯楽ビデオで注意力を引きつけるモ
デルとして用いるには適さず、多くの欠陥が明らかにな
っている。これら欠点には、注意力を引きつける特徴の
数が限られている点、異なる特徴に異なる重み付けを適
用できない点、セグメント化技術における頑強性が欠如
する点、時間的モデルが存在しない点、注意を引きつけ
る特徴を引き出すのに用いるアルゴリズムが簡単すぎる
点などがある。広範囲の画像内容と深く関連した動作を
検証するモデルが提案されておらず、また、人間の目の
動きとの相関も報告されていなかった。
【0005】例えば、1998年1月26〜29日にア
メリカ合衆国合衆国サンホゼで開催されたSPIE学会
の論文3299の「ヒューマン・ビジョン・アンド・エ
レクトロニック・イメージングIII」におけるウィル
フレッド・オスバーガ、アンソニー・ジェイ・マエダー
及びネイル・バーグマン著「知覚に基づいたMPEGエ
ンコード用量子化技術(A Perceptually Based Quantiz
ation Technique forMPEG Encoding)」に記載されてい
る如く、場面において視覚的に重要な領域をインポータ
ンス・マップ(Importance Map: IM)として自動的に判
断する技術が開示されている。これらインポータンス・
マップは、例えば上述の論文に記載のように、人間の視
覚的な注意力(visual attention:視覚注意力)と、目
の動きとに影響を与えるとして知られている係数(要
因)を組み合わせて生成したマップである。エンコード
する際に、視覚的に重要な領域に対しては細かく量子化
し、視覚的に重要ではない領域に対しては荒く量子化し
ている。その結果、画像品質において、主観的な改善が
なされている。
【0006】従来技術において、伝統的な再帰分割併合
セグメント化方法を用いて、セグメント化を行ってい
る。セグメント化の後、その結果を5個の空間特徴によ
り処理して、コントラスト、サイズ、形状、場所及び背
景に関する個別の空間インポータンス・マップを生成す
る。また、動きも考慮して、時間的インポータンス・マ
ップを生成する。これら個別のインポータンス・マップ
の各々を二乗して、重要度の高い領域を強調し、等しく
重み付けして、最終的なインポータンス・マップIMを
生成する。しかし、この技術では、充分ではなかった。
【0007】
【発明が解決しようとする課題】人間の注意力の特性と
目の動きとを用いて、典型的な娯楽ビデオの自然な場面
において、どこにROI(関心領域)があるかを予測
し、従来技術よりもより一層強力な関心領域自動判断方
法が望まれている。
【0008】したがって、本発明は、人間の注意力の特
性と目の動きとを用いて、典型的な娯楽ビデオの自然な
場面において、どこにROIがあるかを自動的に予測で
きる視覚注意力をモデル化(模式化)する方法の提供に
ある。
【0009】
【課題を解決するための手段】本発明は、複数の空間的
特徴に応じた処理のために、ビデオ・シーケンスの単一
フレーム(現在のフレーム)を複数の領域にセグメント
化して、対応する複数の空間的インポータンス・マップ
を生成し、上記単一フレームを以前のフレームと比較し
て時間的インポータンス・マップを生成し、上記空間的
インポータンス・マップ及び上記時間的インポータンス
・マップを組み合わせて上記単一フレームの総合インポ
ータンス・マップを生成する視覚的注意力のモデル化方
法であって;ルミナンス及びカラーを用いて、上記単一
フレームを複数の領域に適応的にセグメント化する第1
ステップ(30)と;複数の空間的特徴により上記領域
を処理して、複数の上記空間的インポータンス・マップ
を生成する第2ステップ(11〜17)と;上記以前の
フレームに応じて上記単一フレームを処理して、カメラ
の動きを補償した上記時間的インポータンス・マップを
生成する第3ステップ(22、24)と;目の動きの考
察から得た重み付けに応じて上記空間的インポータンス
・マップ及び上記時間的インポータンス・マップを組み
合わせて、上記単一フレーム用の上記総合インポータン
ス・マップを生成する第4ステップ(40)とを具えて
いる。
【0010】本発明は、視覚注意力のモデルを用いて、
ビデオ画像内の関心のある領域を自動的に識別する方法
を提供するものである。カラー及びルミナンスに基づい
て、現在のフレームを複数領域に適応的にセグメント化
する。カラー及びスキンを含む複数の空間的特徴のアル
ゴリズムにより、各領域を並列処理して、各空間的イン
ポータンス・マップを生成する。複数の空間的インポー
タンス・マップを組み合わせて、全体的空間的インポー
タンス・マップを生成するが、この組み合わせは、目の
動きの考察から得た重み付けに基づいている。現在のフ
レーム及び以前のフレームも処理して、現在のフレーム
用のモーション・ベクトル(motion vector:運動ベク
トル)を生成する。その後、時間的インポータンス・マ
ップに変換する前に、これらモーション・ベクトルをカ
メラの動きに対して補正(修正)する。全体的空間的イ
ンポータンス・マップと、時間的インポータンス・マッ
プとを線形重み付けにより組み合わせて、現在のフレー
ム用の総合インポータンス・マップを生成する。なお、
線形重み付け定数は、目の動きの考察から得たものであ
る。また、インポータンス・マップとは、上述のよう
に、人間の視覚的な注意力と目の動きとに影響を与える
要因を組み合わせて生成したマップである。
【0011】本発明の目的、利点及び新規な特徴は、添
付図を参照した以下の詳細説明から更に明らかになろ
う。
【0012】
【発明の実施の形態】本発明で用いるインポータンス・
マップ(IM)は、領域ベースの(領域を基にした)注
意力モデルに基づいている。注意力に影響を与える多く
の特徴が、サイズ及び形状のようにその領域に固有の性
質であったり、又は、動き、色、コントラスト及びテキ
スチャ(質感)などように場面における全体の対象物に
自然に関連するので、領域ベースの注意力モデルは、多
数の特徴を含むことが容易である。図1は、本発明によ
る視覚注意力のモデル化方法の好適実施例を説明するブ
ロック図である。この視覚注意力のモデル化方法では、
空間的注意力に関してモデル化を行う手段10と、時間
的注意力に関してモデル化を行う手段20とを具えてい
る。空間的注意力モデル化手段10は、ビデオの現在の
フレームを入力として受ける。このイメージは、セグメ
ント化アルゴリズム手段30により、ルミナンス情報及
びカラー情報の両方を用いて、先ず、複数の均質な領域
にセグメント化される。カラー、コントラスト、サイ
ズ、形状、場所(位置)、背景及びスキンを含む7つの
特徴に対する各領域のインポータンスが、視覚注意力に
影響を与えることが知られている。これら特徴によるイ
メージ処理手段11〜17の柔軟な特性により、付加的
な特徴を容易に取り込むことができる。なお、処理手段
11は、セグメント化された領域をカラーに応じて処理
して、カラーによるインポータンス・マップを生成す
る。また、処理手段12は、セグメント化された領域を
コントラストに応じて処理して、コントラストによるイ
ンポータンス・マップを生成する。処理手段13は、セ
グメント化された領域をサイズに応じて処理して、サイ
ズによるインポータンス・マップを生成する。処理手段
14は、セグメント化された領域を形状に応じて処理し
て、形状によるインポータンス・マップを生成する。処
理手段15は、セグメント化された領域を場所に応じて
処理して、場所によるインポータンス・マップを生成す
る。処理手段16は、セグメント化された領域を背景に
応じて処理して、背景によるインポータンス・マップを
生成する。処理手段17は、セグメント化された領域を
スキンに応じて処理して、スキンによるインポータンス
・マップを生成する。これら特徴は、人間の目の動きに
よる校正に基づいて重み付けされる。なお、人間の目の
動きは、人間の目の動きの実験データを集めて求めてい
る。各特徴の重みを結合アルゴリズム40に与えて、7
つの特徴に基づいた処理手段11〜17の処理結果のイ
ンポータンス・マップを重み付けにより組み合わせて、
現在のフレームの場面用の空間的インポータンス・マッ
プ(IM)を生成する。
【0013】空間的注意力のモデル化手段10と並列に
あり、時間的注意力をモデル化する手段(モーション・
モデル化手段)20は、現在のフレーム及び以前のフレ
ームをモーション・ベクトル(運動ベクトル)アルゴリ
ズム手段22に入力する。モーション・ベクトル・アル
ゴリズム手段22によりモーション・ベクトルを計算す
る。このモーション・ベクトルは、各動きの大きさに基
づいた場面内の各対象物に対するモーション・インポー
タンスのアルゴリズム手段24により重み付けされる。
結合手段40は、目の追跡実験から集めたデータを用い
て、手段20からの運動重み(時間的インポータンス)
を手段10における空間重み(空間的インポータンス)
と組み合わせて、現在のフレーム用の全体インポータン
ス・マップを生成する。
【0014】現在のフレームを図2に示し、これに対応
するインポータンス・マップ(IM)を図3に示す。高
いインポータンスとして識別されたIM範囲は、明るい
色調である。一方、暗い色調の範囲は、注意力を引きつ
けない場面部分である。
【0015】上述した従来技術に対する改良点は、セグ
メント化の改良、空間コンテキスト(前後関係)特徴の
拡張、空間的及び時間的特徴処理アルゴリズムの改良、
校正アルゴリズム及び組み合わせアルゴリズムの改良で
ある。
【0016】セグメント化処理30において、ビデオ・
フレームのクリッピングしたバージョン(クリッピング
したビデオ・フレーム)を入力として用いて、イメージ
の境界が、このモデル化の後での外観に与える影響を避
ける。すなわち、24個のオーダのピクセルにおいて、
クリッピングによる境界が良好に作用する。関数スプリ
ット(Split)は、カラー情報と共にルミナンス情報を
用いて、分割/併合が生じる時点を決める。例として、
***カラー空間を用いることができる。分割の条
件は、次の通りである。 ((variancelum(Ri)>thsplitlum)&(variancecol(Ri)>th
splitcol)&(size(Ri)>ths ize)) ならば、即ち、領域Riにおけるルミナンスの分散がしき
い値thsplitlumよりも大きく、且つ、領域Riにおけるカ
ラーの分散がしきい値thsplitcolよりも大きく、且つ、
領域Riのサイズがしきい値thsizeよりも大きければ、4
象限に分割する。すなわち、仮領域を想定し、この仮領
域を階層的に分割している。なお、variancecol(Ri) =
SQRT(variance(Ri(u*))2 + variance(Ri(v*))2)であ
る。SQRTは、平方根を意味し、variance(Ri(u*)は、領
域Riにおけるu*の分散であり、variance(Ri(v*)は、領
域Riにおけるv*の分散である。また、しきい値thの
値は、thsplitlum=250であり、thsplitcol=120
である。
【0017】付加的な変化が関数マージ(Merge)に対
しても行われる。セグメント化により、ブロック状の形
状を有する大きな領域が生じるという問題を避けるため
に、組み合わせ(マージ)用のしきい値thmergelumnew
は、パラメータscalefactorme rgeを用いてブロック・サ
イズに応じて適応(適宜変化)する。このパラメータsc
alefactormergeは、大きな領域を組み合わせる(併合す
る)とき、特に、併合すべき2個の領域が同様なサイズ
のときに、増加する。 thmergelumnew=scalefactormerge*thmergelumold なお、thmergelumnewは、新たなマージ用しきい値であ
り、thmergelumoldは、それまでのマージ用しきい値で
ある。*は、乗算を意味する。また、 scalefactormerge = (kmerge*sizemerge + kreduc +
1)/(sizemerge + kmerge+ kreduc) sizemerge = max(kmin*(1/n)ROOT(size(R1)n + size(R
2)n)/size(frame) である。定数パラメータの値は、kmin=256、n=
0.25、kmerge=3、kreduc=10及びth
mergelumold=500である。size(R1)は、領域R1のサ
イズであり、size(R2)は、領域R2のサイズであり、ROOT
は、平方根を意味し、max()は、()内の最大値を指
す。以下のパラメータを用いる点を除いて、同じ技術を
用い、カラー組み合わせしきい値thmergecolも変調す
る。 kmincol=256、ncol=0.5、kmergecol=1.5、
kreduccol=0及びthmer gecolold=120。
【0018】従来の組み合わせ関数は、低いテキスチャ
の領域を高いテキスチャの領域に比較して簡単に組み合
わせていた。したがって、2つの領域を組み合わせるか
否かを判断するとき、その領域の平均ルミナンス及びカ
ラーを考慮する。平均カラー及び平均ルミナンスのしき
い値の両方が互いに依存するので、この領域の平均カラ
ー及びルミナンスに応じて適応的に組み合わせしきい値
thmeanmergelumnewを次のように計算する。 もし、((Δcol < thΔcol) &(colmax > thBW))ならば、
即ち、カラーの差(色差)Δcol がしきい値 thΔcol
りも小さく、且つ、カラーの最大値colmaxがしきい値th
BWよりも大きければ、 thmeanmergelumnew=thmeanmergelumold+((thΔcol-Δco
l)/thΔcol)*(thΔlum_ max-thmeanmergelumold) である。thmeanmergelumoldは、以前の組み合わせしき
い値であり、thΔlum_maxは、ルミナンスの差の最大値
に対するしきい値である。なお、 Δlum = |gl(R1) - gl(R2)| Δcol = SQRT((u* R1 - u* R2)2 + (v* R1 - v* R2)2) colmax = max(u* R1, u* R2, v* R1, v* R2) であり、Δlumは、ルミナンスの差であり、gl(Ri
は、領域Riの平均グレイ・レベルである。u* Riは、領
域Riのu*の値であり、v* Riは、領域Riのv*の値であ
る。定数の値は、thΔcol=14.0、thBW=7.
0及びthΔlum_m ax=70.0である。
【0019】ルミナンスが低い範囲では、カラーがしば
しば非常に高い値を取るので、低いルミナンスの領域に
対する組み合わせしきい値が増加する。これは、図4に
示すように実現される。これら定数の値は、次の通りで
ある。thlolum1=10、thlowlum2=25、thcol
=14、及びthcol_lowlum=40。
【0020】したがって、変調された組み合わせ条件
は、次のようになる。もし、 ((var(glR12)<thmergelumnew)且つ(var(colR12)<th
mergecolnew)且つ(Δlum<thm eanmergelumnew) 且つ (Δ
col<thmeanmergecolnew)) 又は((Δlum<thlumlow) 且つ
(Δcol<thcollow)ならば、2つの領域を1つに組み合
わせる。そうでなければ、領域を分離させる。なお、va
r(glR12)は、領域R1及びR2の平均グレイ・レベルの分散
であり、var(colR12)は、領域R1及びR2のカラーの分散
である。これら定数の値は、thlumlow=12及びth
collow=5である。小さな領域の除去手順を変化させ
て、この手順をイメージ分解能から独立させ、小さな領
域を最も適切な隣接領域と組み合わせる。これは、次の
ようになる。もし、 size(Ri) < (1/ksmall)*size(frame) ならば、Riを最も近いL*値を有する隣接領域と組み合
わせる。なお、ksmallは、4096に設定できる。siz
e(frame)は、フレームのサイズである。この方法におい
て、セグメント化は、適応であり、より粗となる。
【0021】インポータンス・マップIMのサイズの特
徴は、簡単な2個のしきい値による処理から、4個のし
きい値による処理に変化するので、小さ過ぎる又は大き
過ぎる領域が、小さ過ぎる領域の代わりに、最小化され
る。同様に、他の領域と4カ所で接触する境界を共有す
る領域における最小数のピクセル、又は、尖端エッジと
境界を接する領域内の最小数のピクセルを用いて、フレ
ームのエッジを除去するので、背景(による)特徴が変
化する。また、場所(による)特徴を変化させて、フレ
ームの中央の4分の1を全く考慮せずに、ゾーン(領
域)に応じ、小さな重みを有する中心の周囲における種
々のゾーンを考慮して、この中央から縮小する。
【0022】元のコントラストにおけるインポータンス
(コントラスト・インポータンス)I'cont(Ri)は、領域
iと4カ所で接した境界を共有する領域における平均
グレーレベルと、このレベルよりも小さい領域Riにお
ける平均グレーレベルとの間の差として定義できる。ま
ず、領域Riの平均グレーレベルと、その隣接領域との
比較は、各隣接領域の絶対値に基づいているので、領域
iよりも高い又は低い平均グレーレベルを有する隣接
領域が互いにうち消されることがない。隣接領域がコン
トラストに影響を及ぼす地域は、2個の領域が有する4
個の接した隣接ピクセルの数と乗算された定数に限定さ
れる。これにより、大きな隣接領域と、わずかな隣接ピ
クセルを有する領域とが、コントラスト・インポータン
スに過度の影響を及ぼすことを防ぐ。また、サイズの換
算係数を用いて、大きな領域に対して、コントラスト・
インポータンスI"cont(Ri)が減らされる。さらに、ウェ
ーバー(Weber)及びドフリース・ローズ(deVries-Ros
e)効果を考慮するために、高いグレースケールの定数
を低いグレースケールの定数に対して減らす。最後に、
そのフレーム内のコントラストの強さに応じて、コント
ラストを適応的な方法により0〜1の範囲に正規化す
る。これを行うことにより、あるコントラストを有する
領域のコントラスト・インポータンスI"'cont(Ri)は、
非常に高いコントラストの領域を有するフレームにおい
て減され、最高のコントラストが小さいフレームにおい
ては増やされる。
【0023】上述は、次のようになる。 I'cont(Ri)=(Σj=1-J|gl(Ri)-gl(Rj)|*min(kborder
Bij,size(Ri)))/Σj=1- Jmin(kborder*Bij,size(Ri)) なお、jは、Riと4カ所で接する境界を共にする領域
1−Jである。kborderは、隣接領域の影響範囲を制限
する定数(例えば、10に設定される)である。B
ijは、Riと4カ所で接する境界を共有するRjにおける
ピクセルの数である。また、 I"cont(Ri) = ksizescale*I'cont(Ri) である。なお、ksizescaleが領域のサイズに応じて変化
し、小さな領域では大きくなり、大きな領域では小さく
なる。さらに、 I"'cont(Ri) = I"cont(Ri)/max(gl(Ri),thdevries)
powweber となる。なお、thdevriesは、ドフリース・ローズ領域
のほぼスタートにおけるグレーレベル(50に設定され
る)であり、powweberは、非線形ウェバーのべき乗
(0.3に設定)である。I”’に対する正規化のしき
い値を次のように計算する。 thcont1 = thbase1weber+(min(I"cont)-thbase1weber)*thweight thcont2 = thbase2weber+(max(I"cont)-thbase2weber)*thweight2high, max(I" cont >thbase2) 又は = thbase2weber+(max(I"cont)-thbase2weber)*thweight2low, max(I"cont=thba se2 ) なお、 thbase1weber = thbase1/128powweber thbase2weber = thbase2/128powweber thbase1 = 20 thbase2 = 120 thweight1 = 0.5 thweight2high = 0.25 thweight2low = 0.75 である。
【0024】多くの隣接領域を有する領域において形状
インポータンスを低下させるように形状特徴を変化させ
て、高すぎる形状インポータンスをかかる領域に割り当
てない。また、適応正規化処理を用いて、この形状イン
ポータンスを0〜1の範囲に正規化する。
【0025】本発明は、カラー特徴を視覚注意力モデル
に付加する。RGBファイルが入力として受け入れら
れ、L***カラー空間に変換される。コントラスト
・インポータンスを計算した方法と類似の方法でカラー
・インポータンスを計算する。これは、実際には、これ
ら2つの特徴が類似した動作を果たすためである。すな
わち、一方が、その背景に対する領域のルミナンス・コ
ントラストを計算し、他方が、その背景に対するカラー
・コントラストを計算する。カラー・インポータンスの
計算は、u*のカラー・コントラストのインポータンスI
u*(Ri)及びv*のカラー・コントラストのインポータン
スIv*(Ri)を別々に計算することが始まる。 Iu*(Ri) =Σj=1-J |u*(Ri)-u*(Ri)|*min(kborder
Bij,size(Rj)) / Σj=1-J min(kborder*Bij,size(Rj)) Iv*(Ri) = Σj=1-J |v*(Ri)-v*(Ri)|*min(kborder
Bij,size(Rj)) / Σj=1 -J min(kborder * Bij,size(R
j)) 次に、これら2つのカラー・インポータンスの計算結果
を二乗和の平方根として組み合わせ、換算係数を用いて
大きな領域用に減らす。フレーム内のカラー・インポー
タンスの強さに応じて、適応的な方法にて、カラー・イ
ンポータンスを0〜1の範囲で正規化する。この操作を
行うことにより、あるカラー・インポータンスを有する
領域のカラー・インポータンスは、カラー・コントラス
トが非常に高いフレームにおいては減少され、最高カラ
ー・コントラストが小さいフレームにおいては増加され
る。
【0026】最後に、スキン特徴を追加して、スキンの
範囲をそのカラーにより検出する。異なる人種において
も、人間のスキン(皮膚)の色は、狭い範囲の値なの
で、この検出が可能となる。他のカラー空間を用いる際
には、色相−飽和−輝度(HSV)カラー空間を選択す
る。これは、人間のスキンの色が、HSV値の狭い範囲
内に集中的に集まるからである。各ピクセルを個別にテ
ストして、その色がスキンの色とマッチングするかを判
断する。HSV値(hij、sij、vij)が次の範囲内に
入るならば、ピクセルxijをスキンにクラス分けする。
すなわち、もし、((Hmin=hij=Hmax)且つ(Smin=sij=
Smax)且つ(Vmin=vij=Vmax))ならば、xijは、スキンであ
る。テスト・イメージの大型データベースから、クラス
分けしきい値の最良値が求まる。しきい値の4つは、次
のようになる。[定数]−Hmin=350度、Hmax=4
0度、Smin=0.2、Vmin=0.35。他の2つのし
きい値であるSmax及びVmaxは、図5に示すグラフか
ら、Hの変化に応じて求まる。
【0027】前もって組み合わせるために、空間的特徴
のインポータンス・マップを二乗し、等しく重み付けし
て、最終的な空間的インポータンス・マップIMを生成
する。次に、この最終的なインポータンス・マップを換
算して、最高のインポータンスの領域の値を1.0にす
る。高いインポータンスの領域と低いインポータンスの
領域との突然の変化を和らげるために、ブロック処理を
行う。これは、n×nブロック内の最大インポータンス
をそのブロック内の各ピクセルに割り当てることを含
む。しかし、異なる特徴の相対的な影響を理解するため
に、目の追跡を考察した。人間が、約5秒間にわたって
多くの異なる静止画を観察し、また、ビデオを数分間に
わたって観察しているとして、一群の人間の目の動きを
記録する。どの特徴が人間の目の動きに最も影響を与え
るかを判断するために、人間の固定行動(fixation)と
各個別の特徴IMとの相関を計算する。これは、最も重
要な特徴に応じて分類された領域における固定行動の割
合を計算することにより行う。この結果により、空間的
特徴の内の3つの特徴である場所(位置)、スキン及び
前景/背景が、固定行動との非常に高い相関を有するこ
とを示す。他の3つの空間的特徴である形状、カラー及
びコントラストは、固定行動に対して低いが依然顕著な
影響を有しており、サイズによる影響は、他の特徴によ
る影響よりも非常に小さい。
【0028】この実験から得た固定行動の相関を用い
て、本発明においては、次の新たな特徴重み付けI
spatial(Ri)を行う。 Ispatial(Ri) = Σf=1-7(wf poww*If(Rf)powf) なお、wfは、目の追跡実験からの特徴重み付けであ
る、即ち、場所、前景/背景、スキン、形状、コントラ
スト、カラー、サイズの各々の重み付けは、0.19
3、0.176、0.172、0.130、0.12
1、0.114、0.094である。powwは、特徴
重み付けの指数であり、wfの相対的影響力を制御す
る。例としては、3.0である。powfは、インポー
タンス・マップ(IM)重み付け指数であり、例とし
て、総ての特徴に対して2.0である。次に、前のよう
にブロック処理をした後で、空間IMを換算(スケーリ
ング)して、最高のインポータンスの領域を1.0とす
る。
【0029】この結果の空間IMは、フレームからフレ
ームにノイズを有するかもしれず、このノイズを減ら
し、IMの時間的整合性を改善するために、時間的平滑
化動作をピクセル・レベルで実施する。(t−m、・・
・t+n)フレームの時間的ウィンドウを用いることに
より、この時間的ウィンドウから、場所(x、y)にお
ける出力IMにより、場所(x、y)をk番目に高いI
Mとする。k>1に設定することにより、高いインポー
タンスのスプリアス領域を除去する。例として、n=m
=5フレームで、k=2である。
【0030】従来は、時間的インポータンス・マップ用
に階層的ブロック・マッチング技法を用いて、各ブロッ
クの運動ベクトルを計算していた。この結果のベクトル
を直接用いて、時間的インポータンスを計算していた。
非常に低い動きと非常に高い動きの領域には低いインポ
ータンスを与える一方、中位の動きの領域に最高のイン
ポータンスを割り当てた。この従来技術には、次のよう
な2つの大きな問題があった。(i)真の対象物の動き
からカメラの動きを区別する方法がなかったので、ビデ
オが撮影されている間に、任意のカメラの動き(パン、
傾き、ズーム、回転)があると、このモデルはうまく機
能しなかった。(ii)インポータンスを特定の動きに割
り当てるときに固定しきい値を用いるが、動きの量が異
なるビデオ場面にわたって大きく変化するので、これら
しきい値は、ビデオ内の動きに適応させる必要がある。
【0031】図6は、時間的注意力のモデル化手段のブ
ロック図を示す。従来の時間的処理と同様に、階層的ブ
ロック・マッチング処理にて現在及び前のフレームを用
いてモーション・ベクトルを計算する(ブロック6
0)。カメラのモーション(動き)予測アルゴリズム
(ブロック62)にて、これらモーション・ベクトルを
用いて、カメラのモーションに関する4つのパラメー
タ、即ち、パン、ティルティング(傾き)、ズーム及び
回転を判断する。次に、これらパラメータを用いて、モ
ーション・ベクトルを修正(補償)して、場面における
真の対象物の動きを捕らえる(ブロック64)。テキス
チャ的に平坦な領域におけるモーション・ベクトルに確
実性がないため、これら領域内における補償されたモー
ション・ベクトルがゼロに設定される。8×8ブロック
内の最小及び最大グレイレベルの差が、45の如きしき
い値thflatよりも小さければ、この8×8ブロックを
「平坦(flat)」とみなす。最後に、平滑化(スムージ
ング)や、後述の適応しきい値(適応的に変化するしき
い値)による処理などのいくつかのステップ(ブロック
66)により、補償したモーション・ベクトルを時間的
インポータンス(時間的イメージ)の尺度に変換する。
【0032】カメラの動きを予測するアルゴリズム(ブ
ロック62)は、場面のカットや、3:2のプルダウン
(縦横比3:2への変換)や、時間的なサブサンプリン
グによるフレーム落ちなどを原因として生じた時間的動
きにおけるいくつかのジャーキネス(jerkiness:ぎくし
ゃくとした動き)を検出する。これら時間的な不連続性
が生じると、時間的に不連続なフレームからのモーショ
ン(動き)情報よりも、むしろ確実なモーション情報を
利用できる以前のフレームからのモーション情報を用い
る。現在のフレームに時間的な不連続性が検出されれ
ば、10フレーム以上前に戻ったモーション情報を用い
てもよい。上述の如く、空間的IMに対して実行したの
と同様な方法で、時間的なスムージングを行う。場面カ
ットの一部や、異なるショットの一部であるフレーム
は、時間的ウィンドウ内に含めない。これら領域からの
モーション・ベクトルは確実でないので、低いテキスチ
ャの次の領域に、ゼロの時間的インポータンスを割り当
てる。+/−1フレームの時間的ウィンドウに対して計
算を行った場合を除いて、「平坦」であるとの判断は、
上述と同じである。最後に、適応しきい値による処理を
行う、即ち、場面における対象物の動きの量に適応させ
て、しきい値を計算する。人間の感受性は、多くの高速
に移動する対象物により邪魔されないので、少ない移動
対象物を有する場面や、遅い動きの対象物を有する場面
は、多くの高速に移動する対象物を有する場面よりも、
しきい値が小さい。カメラの動きを補償したモーション
・ベクトル・マップの98番目のパーセント点(percen
tile)の如きm番目のパーセント点を用いることによ
り、場面における動きの量の予測が得られる。動きは、
度/秒により測定するので、動きの分解能、即ち、ピク
セルの間隔及び視野の距離を知る必要がある。典型的に
は、ピクセル間隔は、0.25mmであり、視野の距離
は、SDTV視野で画像高さの5倍である。高速移動対
象物が高速パン又はティルティング移動により追跡され
る場面において、対象物の動きは、所定しきい値よりも
大きいので、その時間的インポータンスは、1.0未満
の値に低下するかもしれない。これら生じるのを防止す
るために、特別な場合を作る。最終的なブロック処理
は、空間的IM用に行ったのと同様に、16×16ピク
セル・レベルで行う。時間的IMは、既に8×8ピクセ
ル分解能なので、各2×2ブロック用の最大値を取っ
て、全体として16×16ブロック・サイズを得る。
【0033】空間的インポータンス・マップ(IM)及
び時間的IMを組み合わせる線形重み付けは、次のよう
になる。 Itotal = Kcombspat + (1-Kcomb)Itemp 空間的IM及び時間的IMの両方に対して観察者を固定
して比較すると、時間的のみのIMの相関に比較して、
空間的のみのIMの相関がわずかに高い。したがって、
0.5よりもわずかに大きいkcombの値は、0.6の如
き値となる。
【0034】上述は、空間的IM及び時間的IMの基本
的な統合に対して行える総てである。しかし、目の追跡
の考察によると、ズーミング、回転又は非常に早い動き
のビデオ場面において、観察者は、注意力を場面の中心
に非常に強く絞る傾向がある。これら場面の中心領域に
更にインポータンスを割り当てるために、次の計算を行
う。 motzoomrot = kz1*motionm + kz2*zoom + kz3*rotat
e + kz4*errorcamera なお、motionmは、カメラの動きの補償されたモーショ
ン・ベクトル・マップのm番目のパーセント点であり、
zoom及びrotateは、フレームのズームのパラメータ及び
回転パラメータであり、errorcameraは、カメラの動き
の予測アルゴリズムによる出力であり、kziは、換算
(スケーリング)定数である。中央のスケーリング定数
kcentralは、1対のしきい値の間のmotzoomrotの量に応
じて、2つの値の間で調整される。そして、新たなイン
ポータンス・マップI'totalは、次のようになる。 I'total = kcentralIcenter + (1-kcentral)Itotal 変数errorcameraが高いと、インポータンス・マップ
(IM)の精度が低下して、これらの場合における時間
的IMの影響が低下するのに有用かもしれない。これ
は、エラーが増加するに従ってkcombの値を増やすこと
により行える。
【0035】最後に、目の追跡を考察すると、人間及び
顔は、注意力を非常に強く引きつけることが判った。人
間は、一般的には、少なくとも長時間にわたって、完全
に静止していないので、特別な場合を作って、動いてい
るスキン領域でのインポータンスを増加させる。これに
は、次の2つの利点がある。(i)スキンの特性により
スキンであると誤って分類した対象物は、移動しない背
景対象物(砂、乾燥牧草、煉瓦の壁)であることがしば
しばあるので、モーション情報が含まれていても、これ
ら偽の判断を除去できる。(ii)顔は、低いテキスチャ
のいくつかの領域をしばしば含んでおり、これら低いテ
キスチャの領域が低いインポータンスに設定されるの
で、顔の低いテキスチャ範囲を時々見逃すが、しかし、
スキン領域に対する低いテキスチャの拘束を緩めること
により、これら範囲を最早見逃すことがなく、インポー
タンスが高くなる。よって、各ピクセルに対して、 もし、(Iskin>thskinmot1) 且つ(MVcomp>thskinmot2) ならば、 Itotal = 1.0 となる。
【0036】
【発明の効果】よって、本発明により改良された視覚注
意力モデル化方法によれば、空間的特徴により空間的イ
ンポータンス・マップを生成し、この時間的インポータ
ンス・マップを空間的インポータンス・マップと組み合
わせて、フレームの全体的なインポータンス・マップを
生成する。したがって、適合セグメント化アルゴリズム
を改善できると共に、空間的特徴及び付加的な空間的特
徴に対する適合アルゴリズムも改善できる。さらに、目
の動きの考察に基づいて組み合わせアルゴリズムも改善
でき、より確実で改良された全体的なインポータンス・
マップを生成できる。
【図面の簡単な説明】
【図1】本発明による視覚注意力モデル化方法の好適実
施例を説明するブロック図である。
【図2】現在のフレームのイメージ画像を示す図であ
る。
【図3】本発明により得たイメージ画像に対する総合イ
ンポータンス・マップを示す図である。
【図4】本発明による空間特徴の1つに対するルミナン
スによるしきい値の変化を示すグラフ図である。
【図5】本発明によるスキン空間特徴に対する色相によ
るパラメータ値の変化を示すグラフ図である。
【図6】本発明により時間的インポータンス・マップを
生成するブロック図である。
【符号の説明】
10 空間的注意力モデル化手段 11 カラー処理手段 12 コントラスト処理手段 13 サイズ処理手段 14 形状処理手段 15 位置処理手段 16 背景処理手段 17 スキン処理手段 20 時間的注意力モデル化手段 22 モーション・ベクトル・アルゴリズム 24 モーション・インポータンス・アルゴリズム 30 セグメント化アルゴリズム 40 結合アルゴリズム 60 モーション・ベクトルの計算ブロック 62 カメラのモーションの予測ブロック 64 カメラのモーションの修正ブロック 66 平滑化及び適応しきい値ブロック

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 複数の空間的特徴に応じた処理のため
    に、ビデオ・シーケンスの単一フレームを複数の領域に
    セグメント化して、対応する複数の空間的インポータン
    ス・マップを生成し、上記単一フレームを以前のフレー
    ムと比較して時間的インポータンス・マップを生成し、
    上記空間的インポータンス・マップ及び上記時間的イン
    ポータンス・マップを組み合わせて上記単一フレームの
    総合インポータンス・マップを生成する視覚的注意力の
    モデル化方法であって、 ルミナンス及びカラーを用いて、上記単一フレームを複
    数の領域に適応的にセグメント化する第1ステップと、 複数の空間的特徴により上記領域を処理して、複数の上
    記空間的インポータンス・マップを生成する第2ステッ
    プと、上記以前のフレームに応じて上記単一フレームを
    処理して、カメラの動きを補償した上記時間的インポー
    タンス・マップを生成する第3ステップと、目の動きの
    考察から得た重み付けに応じて上記空間的インポータン
    ス・マップ及び上記時間的インポータンス・マップを組
    み合わせて、上記単一フレーム用の上記総合インポータ
    ンス・マップを生成する第4ステップとを具えることを
    特徴とする視覚注意力のモデル化方法。
  2. 【請求項2】 上記第1ステップは、 仮領域のルミナンス分散、カラー分散及びサイズに基づ
    いて上記フレームを複数領域に階層的に分割し、 上記仮領域内の平均ルミナンス及びカラー分散が各適応
    しきい値よりも小さく且つ上記仮領域内のルミナンス変
    化及びカラー変化が各しきい値よりも小さいか、又は上
    記仮領域内のルミナンス及びカラーの変化が各しきい値
    よりも小さい場合に、複数の仮領域を組み合わせて上記
    領域を形成することを特徴とする請求項1の視覚注意力
    のモデル化方法。
  3. 【請求項3】 上記空間的特徴には、サイズ、背景、場
    所、コントラスト、形状及びスキンの1組から選択され
    た少なくとも2つを有することを特徴とする請求項1の
    視覚注意力のモデル化方法。
  4. 【請求項4】 上記第4ステップは、 目の動きの考察から経験的に求めた重み付けに応じて、
    各空間的インポータンス・マップを重み付けして、その
    結果の空間的インポータンス・マップを生成し、 時間的スムージング・アルゴリズムを用いて、上記結果
    の空間的インポータンス・マップをフレームからフレー
    ムにわたってスムージングしてノイズを減らすと共に、
    時間的整合性を改善して、空間的インポータンス・マッ
    プを生成し、 上記空間的インポータンス・マップを上記時間的インポ
    ータンス・マップと組み合わせて、上記総合インポータ
    ンス・マップを生成することを特徴とする請求項1の視
    覚注意力のモデル化方法。
  5. 【請求項5】上記第3ステップは、 階層的ブロック・マッチング・アルゴリズムを用いて、
    現在のフレームの各ブロックに対して、モーション・ベ
    クトルを計算し、 上記モーション・ベクトルからカメラの動きのパラメー
    タを判断し、 上記カメラの動きのパラメータに基づいて上記モーショ
    ン・ベクトルを補償し、 上記補償されたモーション・ベクトルを時間的インポー
    タンス・マップに変換することを特徴とする請求項1の
    視覚注意力のモデル化方法。
JP2002003558A 2001-01-17 2002-01-10 視覚的注意のモデル化方法 Expired - Fee Related JP3851171B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/764,726 US6670963B2 (en) 2001-01-17 2001-01-17 Visual attention model
US09/764,726 2001-01-17

Publications (2)

Publication Number Publication Date
JP2002247574A true JP2002247574A (ja) 2002-08-30
JP3851171B2 JP3851171B2 (ja) 2006-11-29

Family

ID=25071588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002003558A Expired - Fee Related JP3851171B2 (ja) 2001-01-17 2002-01-10 視覚的注意のモデル化方法

Country Status (5)

Country Link
US (1) US6670963B2 (ja)
EP (1) EP1225769B1 (ja)
JP (1) JP3851171B2 (ja)
CN (1) CN1203677C (ja)
DE (1) DE60203056T2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032250A (ja) * 2003-07-08 2005-02-03 Thomson Licensing Sa 顔を検出する処理方法及び画像中の顔の検出装置
JP2008263604A (ja) * 2007-04-09 2008-10-30 Tektronix Inc ビデオ位置予測方法

Families Citing this family (124)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020154833A1 (en) * 2001-03-08 2002-10-24 Christof Koch Computation of intrinsic perceptual saliency in visual environments, and applications
US6870956B2 (en) * 2001-06-14 2005-03-22 Microsoft Corporation Method and apparatus for shot detection
KR100474760B1 (ko) * 2001-10-08 2005-03-08 엘지전자 주식회사 영상내의 오브젝트 영역 추출방법
US7054483B2 (en) * 2002-03-15 2006-05-30 Ncr Corporation Methods for selecting high visual contrast colors in user-interface design
TWI281126B (en) * 2002-03-19 2007-05-11 Intervideo Digital Technology Image detection method based on region
JP4202271B2 (ja) * 2002-03-22 2008-12-24 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー パターンの比較
WO2003081577A1 (en) * 2002-03-22 2003-10-02 British Telecommunications Public Limited Company Anomaly recognition method for data streams
US7010169B2 (en) * 2002-04-15 2006-03-07 Sbc Technology Resources, Inc. Multi-point predictive foveation for bandwidth reduction of moving images
US7499594B2 (en) * 2002-04-15 2009-03-03 At&T Intellectual Property 1, L.P. Multi-resolution predictive foveation for bandwidth reduction of moving images
US7136073B2 (en) * 2002-10-17 2006-11-14 Canon Kabushiki Kaisha Automatic tone mapping for images
US7274741B2 (en) * 2002-11-01 2007-09-25 Microsoft Corporation Systems and methods for generating a comprehensive user attention model
US7116716B2 (en) * 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
MXPA05004956A (es) * 2002-11-06 2005-09-20 Agency Science Tech & Res Un metodo para generar un mapa de significancia orientado a la calidad, para valorar la calidad de una imagen o video.
GB0229625D0 (en) * 2002-12-19 2003-01-22 British Telecomm Searching images
US7164798B2 (en) * 2003-02-18 2007-01-16 Microsoft Corporation Learning-based automatic commercial content detection
US7260261B2 (en) * 2003-02-20 2007-08-21 Microsoft Corporation Systems and methods for enhanced image adaptation
US20040207643A1 (en) * 2003-04-18 2004-10-21 Bozidar Janko Attention model enhanced video waveform monitor
US7872635B2 (en) 2003-05-15 2011-01-18 Optimetrics, Inc. Foveated display eye-tracking system and method
US7274740B2 (en) * 2003-06-25 2007-09-25 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7646437B1 (en) * 2003-09-03 2010-01-12 Apple Inc. Look-ahead system and method for pan and zoom detection in video sequences
US9325998B2 (en) * 2003-09-30 2016-04-26 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7400761B2 (en) * 2003-09-30 2008-07-15 Microsoft Corporation Contrast-based image attention analysis framework
US7471827B2 (en) * 2003-10-16 2008-12-30 Microsoft Corporation Automatic browsing path generation to present image areas with high attention value as a function of space and time
US20050123886A1 (en) * 2003-11-26 2005-06-09 Xian-Sheng Hua Systems and methods for personalized karaoke
GB0328326D0 (en) 2003-12-05 2004-01-07 British Telecomm Image processing
US8018850B2 (en) 2004-02-23 2011-09-13 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7826664B2 (en) * 2004-05-24 2010-11-02 Xerox Corporation Systems and methods for efficient manual windowing operation
US7916173B2 (en) * 2004-06-22 2011-03-29 Canon Kabushiki Kaisha Method for detecting and selecting good quality image frames from video
US9053754B2 (en) 2004-07-28 2015-06-09 Microsoft Technology Licensing, Llc Thumbnail generation and presentation for recorded TV programs
US7986372B2 (en) 2004-08-02 2011-07-26 Microsoft Corporation Systems and methods for smart media content thumbnail extraction
US8624980B2 (en) * 2004-08-10 2014-01-07 Thomson Licensing Apparatus and method for indicating the detected degree of motion in video
DE602005008993D1 (de) 2004-09-17 2008-09-25 British Telecomm Public Ltd Co Analyse von mustern
US7562056B2 (en) * 2004-10-12 2009-07-14 Microsoft Corporation Method and system for learning an attention model for an image
US7784076B2 (en) * 2004-10-30 2010-08-24 Sharp Laboratories Of America, Inc. Sender-side bandwidth estimation for video transmission with receiver packet buffer
US7797723B2 (en) * 2004-10-30 2010-09-14 Sharp Laboratories Of America, Inc. Packet scheduling for video transmission with sender queue control
US8356327B2 (en) * 2004-10-30 2013-01-15 Sharp Laboratories Of America, Inc. Wireless video transmission system
JP4234089B2 (ja) * 2004-11-16 2009-03-04 株式会社ソニー・コンピュータエンタテインメント エンタテインメント装置、オブジェクト表示装置、オブジェクト表示方法、プログラム、およびキャラクタ表示方法
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
EP1732030A1 (en) * 2005-06-10 2006-12-13 BRITISH TELECOMMUNICATIONS public limited company Comparison of patterns
US7676081B2 (en) * 2005-06-17 2010-03-09 Microsoft Corporation Image segmentation of foreground from background layers
WO2007012798A1 (en) * 2005-07-28 2007-02-01 British Telecommunications Public Limited Company Image analysis
US7574069B2 (en) * 2005-08-01 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Retargeting images for small displays
US20070067480A1 (en) * 2005-09-19 2007-03-22 Sharp Laboratories Of America, Inc. Adaptive media playout by server media processing for robust streaming
US7773813B2 (en) * 2005-10-31 2010-08-10 Microsoft Corporation Capture-intention detection for video content analysis
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
US8196032B2 (en) 2005-11-01 2012-06-05 Microsoft Corporation Template-based multimedia authoring and sharing
GB2432068B (en) 2005-11-02 2010-10-06 Imagination Tech Ltd Motion estimation
EP1793344A1 (en) 2005-11-30 2007-06-06 THOMSON Licensing Method of emendation for attention trajectory in video content analysis
EP1798961A1 (en) * 2005-12-19 2007-06-20 BRITISH TELECOMMUNICATIONS public limited company Method for focus control
US7692696B2 (en) 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
US7599918B2 (en) 2005-12-29 2009-10-06 Microsoft Corporation Dynamic search with implicit user intention mining
US9544602B2 (en) * 2005-12-30 2017-01-10 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7869043B2 (en) * 2006-01-06 2011-01-11 Sparta, Inc. Automated passive skin detection system through spectral measurement
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8265349B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US7469071B2 (en) 2006-02-14 2008-12-23 Fotonation Vision Limited Image blurring
US7634108B2 (en) * 2006-02-14 2009-12-15 Microsoft Corp. Automated face enhancement
IES20060558A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Image blurring
GB2435360B (en) 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
US7683931B2 (en) * 2006-03-06 2010-03-23 Dell Products L.P. Image artifact detection in video quality benchmarks
KR101225062B1 (ko) * 2006-03-10 2013-01-23 삼성전자주식회사 이미지 프레임의 선택적 출력 장치 및 방법
US7652994B2 (en) * 2006-03-31 2010-01-26 Sharp Laboratories Of America, Inc. Accelerated media coding for robust low-delay video streaming over time-varying and bandwidth limited channels
IES20060564A2 (en) * 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
CN101461248B (zh) 2006-06-09 2011-04-06 汤姆森许可贸易公司 自适应地确定用于视频图像编码的比特预算的方法和设备
US8861597B2 (en) * 2006-09-18 2014-10-14 Sharp Laboratories Of America, Inc. Distributed channel time allocation for video streaming over wireless networks
DE102006044114A1 (de) * 2006-09-20 2008-03-27 Forschungszentrum Karlsruhe Gmbh Verfahren zur Charakterisierung der Abgasausbrandqualität in Verbrennungsanlagen
GB0619817D0 (en) * 2006-10-06 2006-11-15 Imp Innovations Ltd A method of identifying a measure of feature saliency in a sequence of images
US8699767B1 (en) 2006-10-06 2014-04-15 Hrl Laboratories, Llc System for optimal rapid serial visual presentation (RSVP) from user-specific neural brain signals
US8165407B1 (en) 2006-10-06 2012-04-24 Hrl Laboratories, Llc Visual attention and object recognition system
US8214309B1 (en) 2008-12-16 2012-07-03 Hrl Laboratories, Llc Cognitive-neural method for image analysis
US8285052B1 (en) 2009-12-15 2012-10-09 Hrl Laboratories, Llc Image ordering system optimized via user feedback
US8363939B1 (en) 2006-10-06 2013-01-29 Hrl Laboratories, Llc Visual attention and segmentation system
US7652993B2 (en) * 2006-11-03 2010-01-26 Sharp Laboratories Of America, Inc. Multi-stream pro-active rate adaptation for robust video transmission
US8300890B1 (en) * 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
DE102007012458A1 (de) * 2007-03-15 2008-09-18 Robert Bosch Gmbh Verfahren zur Objektbildung
USRE47534E1 (en) 2007-04-23 2019-07-23 Ramot At Tel Aviv University Ltd. System, method and a computer readable medium for providing an output image
US8774517B1 (en) 2007-06-14 2014-07-08 Hrl Laboratories, Llc System for identifying regions of interest in visual imagery
US9740949B1 (en) 2007-06-14 2017-08-22 Hrl Laboratories, Llc System and method for detection of objects of interest in imagery
US9196053B1 (en) 2007-10-04 2015-11-24 Hrl Laboratories, Llc Motion-seeded object based attention for dynamic visual imagery
US9177228B1 (en) 2007-10-04 2015-11-03 Hrl Laboratories, Llc Method and system for fusion of fast surprise and motion-based saliency for finding objects of interest in dynamic scenes
US9778351B1 (en) 2007-10-04 2017-10-03 Hrl Laboratories, Llc System for surveillance by integrating radar with a panoramic staring sensor
US8369652B1 (en) 2008-06-16 2013-02-05 Hrl Laboratories, Llc Visual attention system for salient regions in imagery
US8542916B2 (en) * 2008-07-09 2013-09-24 Florida Atlantic University System and method for analysis of spatio-temporal data
US8134578B2 (en) * 2008-07-17 2012-03-13 Xerox Corporation Hybrid importance maps for content aware digital image resizing
KR20110082018A (ko) * 2008-10-03 2011-07-15 쓰리엠 이노베이티브 프로퍼티즈 컴파니 강건성을 평가하기 위한 시스템 및 방법
US8274533B2 (en) * 2009-02-12 2012-09-25 Xerox Corporation Resizing a digital document image via background content removal
WO2010098760A1 (en) * 2009-02-26 2010-09-02 Hewlett-Packard Development Company, L.P. Void pantographs and methods for generating the same
JP5229575B2 (ja) * 2009-05-08 2013-07-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102088597B (zh) * 2009-12-04 2013-10-30 成都信息工程学院 动静结合估计视频视觉显著度的方法
WO2011152893A1 (en) * 2010-02-10 2011-12-08 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
GB2480422B (en) * 2010-02-25 2014-07-09 Imagination Tech Ltd Object tracking using graphics engine derived vectors in a motion estimation system
JP5589527B2 (ja) * 2010-04-23 2014-09-17 株式会社リコー 撮像装置および追尾被写体検出方法
US20130158963A1 (en) * 2010-07-07 2013-06-20 3M Innovative Properties Company Systems and methods for improving visual attention models
CN101950362B (zh) * 2010-09-14 2013-01-09 武汉大学 一种视频信号的关注度分析系统
JP5627439B2 (ja) * 2010-12-15 2014-11-19 キヤノン株式会社 特徴検出装置、特徴検出方法、およびそのプログラム
US9489732B1 (en) 2010-12-21 2016-11-08 Hrl Laboratories, Llc Visual attention distractor insertion for improved EEG RSVP target stimuli detection
US9489596B1 (en) 2010-12-21 2016-11-08 Hrl Laboratories, Llc Optimal rapid serial visual presentation (RSVP) spacing and fusion for electroencephalography (EEG)-based brain computer interface (BCI)
US8463037B2 (en) * 2011-03-31 2013-06-11 Sony Corporation Detection of low contrast for image processing
AU2011254040B2 (en) * 2011-12-14 2015-03-12 Canon Kabushiki Kaisha Method, apparatus and system for determining a saliency map for an input image
WO2013165565A1 (en) * 2012-04-30 2013-11-07 Nikon Corporation Method of detecting a main subject in an image
US9483109B2 (en) * 2012-07-12 2016-11-01 Spritz Technology, Inc. Methods and systems for displaying text using RSVP
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
NZ709258A (en) 2012-12-11 2020-05-29 Ami Klin Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9661328B2 (en) 2013-03-15 2017-05-23 Arris Enterprises, Inc. Method of bit allocation for image and video compression using perceptual guidance
US9311338B2 (en) * 2013-08-26 2016-04-12 Adobe Systems Incorporated Method and apparatus for analyzing and associating behaviors to image content
KR20160106552A (ko) 2013-10-17 2016-09-12 칠드런스 헬스케어 오브 애틀란타, 인크. 눈 추적을 통해 유아와 아이의 성장을 평가하는 방법
JP2015106271A (ja) * 2013-11-29 2015-06-08 株式会社東芝 方法、画像処理装置およびプログラム
US9195903B2 (en) 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
US9373058B2 (en) 2014-05-29 2016-06-21 International Business Machines Corporation Scene understanding using a neurosynaptic system
US10115054B2 (en) 2014-07-02 2018-10-30 International Business Machines Corporation Classifying features using a neurosynaptic system
US9798972B2 (en) 2014-07-02 2017-10-24 International Business Machines Corporation Feature extraction using a neurosynaptic system for object classification
KR101673879B1 (ko) * 2015-06-30 2016-11-08 주식회사 아이디스 영상 분석 기반의 인코딩 장치 및 방법
US9659371B2 (en) * 2015-10-08 2017-05-23 Christie Digital Systems Usa, Inc. System and method for online projector-camera calibration from one or more images
US10200572B1 (en) * 2016-03-03 2019-02-05 Amazon Technologies, Inc Motion detection
US10799219B2 (en) 2017-04-28 2020-10-13 General Electric Company Ultrasound imaging system and method for displaying an acquisition quality level
CN107330362B (zh) * 2017-05-25 2020-10-09 北京大学 一种基于时空注意力的视频分类方法
US11067448B2 (en) 2018-10-05 2021-07-20 Parsons Corporation Spectral object detection
CN109523562A (zh) * 2018-12-14 2019-03-26 哈尔滨理工大学 一种基于人眼视觉特性的红外图像分割方法
CN111784694A (zh) * 2020-08-20 2020-10-16 中国传媒大学 一种基于视觉注意力机制的无参考视频质量评价方法
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974159A (en) * 1996-03-29 1999-10-26 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two image sequences
WO1998033315A2 (en) * 1997-01-06 1998-07-30 Geisler Wilson S Foveated image coding system and method for image bandwidth reduction
US6535644B1 (en) * 1999-07-01 2003-03-18 Koninklijke Philips Electronics N.V. Hierarchical foveation based on wavelets
US6442203B1 (en) * 1999-11-05 2002-08-27 Demografx System and method for motion compensation and frame rate conversion

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032250A (ja) * 2003-07-08 2005-02-03 Thomson Licensing Sa 顔を検出する処理方法及び画像中の顔の検出装置
JP4658532B2 (ja) * 2003-07-08 2011-03-23 トムソン ライセンシング 顔を検出する処理方法及び画像中の顔の検出装置
JP2008263604A (ja) * 2007-04-09 2008-10-30 Tektronix Inc ビデオ位置予測方法

Also Published As

Publication number Publication date
JP3851171B2 (ja) 2006-11-29
DE60203056T2 (de) 2005-07-21
EP1225769A2 (en) 2002-07-24
CN1203677C (zh) 2005-05-25
EP1225769B1 (en) 2005-03-02
US20020126891A1 (en) 2002-09-12
CN1366422A (zh) 2002-08-28
US6670963B2 (en) 2003-12-30
EP1225769A3 (en) 2003-10-15
DE60203056D1 (de) 2005-04-07

Similar Documents

Publication Publication Date Title
JP3851171B2 (ja) 視覚的注意のモデル化方法
Min et al. Unified blind quality assessment of compressed natural, graphic, and screen content images
Agrawal et al. A novel joint histogram equalization based image contrast enhancement
US6285797B1 (en) Method and apparatus for estimating digital video quality without using a reference video
Rivera et al. Content-aware dark image enhancement through channel division
Tang Spatiotemporal visual considerations for video coding
Jacobson et al. A novel approach to FRUC using discriminant saliency and frame segmentation
JP2008282416A (ja) コード化する前に画像をセグメントに分割するための方法および装置
KR19990077203A (ko) 이미지 세그멘테이션
CN106210448B (zh) 一种视频图像抖动消除处理方法
CN108965879B (zh) 一种空时域自适应恰可察觉失真的度量方法
CN113327234A (zh) 基于空时显著性分类和融合的视频重定向质量评价方法
Mi et al. Multi-purpose oriented real-world underwater image enhancement
CN113298763B (zh) 一种基于显著性窗口策略的图像质量评估方法
Jacobson et al. Scale-aware saliency for application to frame rate upconversion
Xu et al. Features based spatial and temporal blotch detection for archive video restoration
Liu et al. A Novel Method to Compensate Variety of Illumination in Face Detection.
CN112634278B (zh) 基于超像素的恰可察觉失真方法
JP2010509652A (ja) 画像信号のノイズ低減
JP2005517257A (ja) セグメント化装置及び方法
Wang et al. A human visual system-based objective video distortion measurement system
JPH06343140A (ja) 画像処理装置
Zheng et al. H. 264 ROI coding based on visual perception
CN112911262B (zh) 一种视频序列的处理方法及电子设备
CN116977228B (zh) 图像降噪方法、电子设备及存储介质

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20040702

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060831

R150 Certificate of patent or registration of utility model

Ref document number: 3851171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130908

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees