JP2002247574A - 視覚注意力のモデル化方法 - Google Patents
視覚注意力のモデル化方法Info
- Publication number
- JP2002247574A JP2002247574A JP2002003558A JP2002003558A JP2002247574A JP 2002247574 A JP2002247574 A JP 2002247574A JP 2002003558 A JP2002003558 A JP 2002003558A JP 2002003558 A JP2002003558 A JP 2002003558A JP 2002247574 A JP2002247574 A JP 2002247574A
- Authority
- JP
- Japan
- Prior art keywords
- spatial
- importance
- temporal
- importance map
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/533—Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
Abstract
典型的な娯楽ビデオの自然な場面において、どこに関心
領域があるかを自動的に予測する。 【解決手段】 ルミナンス及びカラーに応じて現在のフ
レームを複数の領域に適応的にセグメント化し(30)、
複数の空間的特徴(11〜17)によりセグメント化領域を
処理して、複数の空間的インポータンス・マップを生成
する。以前のフレーム及び現在のフレームを処理して
(22)、カメラの動きを補償した時間的インポータンス
・マップを生成する(24)。目の動きの考察から得た重
み付けに応じて空間的インポータンス・マップ及び時間
的インポータンス・マップを組み合わせて(40)、現在
のフレーム用の総合インポータンス・マップを生成す
る。
Description
質の分析方法に関し、特に、ビデオ信号のイメージ内の
関心領域を自動的に判断する視覚注意力のモデル化方法
に関する。
覚)システムのモデルでは、圧縮された自然なイメージ
における可視歪の場所を正確に予測する。忠実なマップ
から主観的な品質を評価するには、現在の最先端技術の
品質測定により、総ての視覚エラーの単純な加重を求め
る。これは、画像品質の主観的評価の最中に生じるとし
て知られている任意の高レベル係数又は認知係数を考慮
できない。
の場面の内容において、その場所により強い影響を受け
るとして知られている。人間の視覚系(Human Visual S
ystem: HVS)の可変分解能特性では、高い鋭敏さ(acui
ty)が網膜の中心窩(視軸上にある網膜の小さい桿状体
のない陥凹で、明瞭な視覚を与える部分)においてのみ
有用であることを示している。なお、この中心窩の直径
は、約2度である。通常の目の動きにより場面の知識を
得て、中心窩の視覚内にある領域を再配置する。初期の
視覚モデルでは、「無限大の中心窩」を仮定しており、
即ち、高い鋭敏な中心窩が総ての領域を観察するとの仮
定の下に場面を処理していた。しかし、目の動きを考察
すると、観察者は、場面の総ての領域を均一に注視して
いないことが判った。その代わり、いくつかの領域は、
人間の視覚注意処理により関心領域(regions of inter
est: ROI)として識別され、観察者は、まだ注視してい
ない他の領域よりはこれらROIに繰り返し戻る傾向が
ある。これらROI内の画像忠実度は、画像全体の品質
に強い影響を与えるとして知られている。
関的に対象物の目の動きのパターンに人間の注意が向け
られ、目の動きが追従するという知識が、人間の視覚的
注意の計算モデルを開発するための骨組みとなる。かか
る考察により、場面内の画像の動き、ルミナンスのコン
トラスト、カラーのコントラスト、対象物のサイズ、対
象物の形状、人間及び顔、場所に存在する多くの異なる
特徴や、対象物が前景の一部か又は背景の一部かによ
り、人間の注意が影響されることが判った。いくつかの
簡単な視覚注意モデルが文献にて提案されている。これ
らモデルでは、管理されない方法で、場面内のROIを
検出しようとしている。これらは、一般的に、複雑でな
い静止イメージに用いるように設計されている。これら
モデルは、典型的な娯楽ビデオで注意力を引きつけるモ
デルとして用いるには適さず、多くの欠陥が明らかにな
っている。これら欠点には、注意力を引きつける特徴の
数が限られている点、異なる特徴に異なる重み付けを適
用できない点、セグメント化技術における頑強性が欠如
する点、時間的モデルが存在しない点、注意を引きつけ
る特徴を引き出すのに用いるアルゴリズムが簡単すぎる
点などがある。広範囲の画像内容と深く関連した動作を
検証するモデルが提案されておらず、また、人間の目の
動きとの相関も報告されていなかった。
メリカ合衆国合衆国サンホゼで開催されたSPIE学会
の論文3299の「ヒューマン・ビジョン・アンド・エ
レクトロニック・イメージングIII」におけるウィル
フレッド・オスバーガ、アンソニー・ジェイ・マエダー
及びネイル・バーグマン著「知覚に基づいたMPEGエ
ンコード用量子化技術(A Perceptually Based Quantiz
ation Technique forMPEG Encoding)」に記載されてい
る如く、場面において視覚的に重要な領域をインポータ
ンス・マップ(Importance Map: IM)として自動的に判
断する技術が開示されている。これらインポータンス・
マップは、例えば上述の論文に記載のように、人間の視
覚的な注意力(visual attention:視覚注意力)と、目
の動きとに影響を与えるとして知られている係数(要
因)を組み合わせて生成したマップである。エンコード
する際に、視覚的に重要な領域に対しては細かく量子化
し、視覚的に重要ではない領域に対しては荒く量子化し
ている。その結果、画像品質において、主観的な改善が
なされている。
セグメント化方法を用いて、セグメント化を行ってい
る。セグメント化の後、その結果を5個の空間特徴によ
り処理して、コントラスト、サイズ、形状、場所及び背
景に関する個別の空間インポータンス・マップを生成す
る。また、動きも考慮して、時間的インポータンス・マ
ップを生成する。これら個別のインポータンス・マップ
の各々を二乗して、重要度の高い領域を強調し、等しく
重み付けして、最終的なインポータンス・マップIMを
生成する。しかし、この技術では、充分ではなかった。
目の動きとを用いて、典型的な娯楽ビデオの自然な場面
において、どこにROI(関心領域)があるかを予測
し、従来技術よりもより一層強力な関心領域自動判断方
法が望まれている。
性と目の動きとを用いて、典型的な娯楽ビデオの自然な
場面において、どこにROIがあるかを自動的に予測で
きる視覚注意力をモデル化(模式化)する方法の提供に
ある。
特徴に応じた処理のために、ビデオ・シーケンスの単一
フレーム(現在のフレーム)を複数の領域にセグメント
化して、対応する複数の空間的インポータンス・マップ
を生成し、上記単一フレームを以前のフレームと比較し
て時間的インポータンス・マップを生成し、上記空間的
インポータンス・マップ及び上記時間的インポータンス
・マップを組み合わせて上記単一フレームの総合インポ
ータンス・マップを生成する視覚的注意力のモデル化方
法であって;ルミナンス及びカラーを用いて、上記単一
フレームを複数の領域に適応的にセグメント化する第1
ステップ(30)と;複数の空間的特徴により上記領域
を処理して、複数の上記空間的インポータンス・マップ
を生成する第2ステップ(11〜17)と;上記以前の
フレームに応じて上記単一フレームを処理して、カメラ
の動きを補償した上記時間的インポータンス・マップを
生成する第3ステップ(22、24)と;目の動きの考
察から得た重み付けに応じて上記空間的インポータンス
・マップ及び上記時間的インポータンス・マップを組み
合わせて、上記単一フレーム用の上記総合インポータン
ス・マップを生成する第4ステップ(40)とを具えて
いる。
ビデオ画像内の関心のある領域を自動的に識別する方法
を提供するものである。カラー及びルミナンスに基づい
て、現在のフレームを複数領域に適応的にセグメント化
する。カラー及びスキンを含む複数の空間的特徴のアル
ゴリズムにより、各領域を並列処理して、各空間的イン
ポータンス・マップを生成する。複数の空間的インポー
タンス・マップを組み合わせて、全体的空間的インポー
タンス・マップを生成するが、この組み合わせは、目の
動きの考察から得た重み付けに基づいている。現在のフ
レーム及び以前のフレームも処理して、現在のフレーム
用のモーション・ベクトル(motion vector:運動ベク
トル)を生成する。その後、時間的インポータンス・マ
ップに変換する前に、これらモーション・ベクトルをカ
メラの動きに対して補正(修正)する。全体的空間的イ
ンポータンス・マップと、時間的インポータンス・マッ
プとを線形重み付けにより組み合わせて、現在のフレー
ム用の総合インポータンス・マップを生成する。なお、
線形重み付け定数は、目の動きの考察から得たものであ
る。また、インポータンス・マップとは、上述のよう
に、人間の視覚的な注意力と目の動きとに影響を与える
要因を組み合わせて生成したマップである。
付図を参照した以下の詳細説明から更に明らかになろ
う。
マップ(IM)は、領域ベースの(領域を基にした)注
意力モデルに基づいている。注意力に影響を与える多く
の特徴が、サイズ及び形状のようにその領域に固有の性
質であったり、又は、動き、色、コントラスト及びテキ
スチャ(質感)などように場面における全体の対象物に
自然に関連するので、領域ベースの注意力モデルは、多
数の特徴を含むことが容易である。図1は、本発明によ
る視覚注意力のモデル化方法の好適実施例を説明するブ
ロック図である。この視覚注意力のモデル化方法では、
空間的注意力に関してモデル化を行う手段10と、時間
的注意力に関してモデル化を行う手段20とを具えてい
る。空間的注意力モデル化手段10は、ビデオの現在の
フレームを入力として受ける。このイメージは、セグメ
ント化アルゴリズム手段30により、ルミナンス情報及
びカラー情報の両方を用いて、先ず、複数の均質な領域
にセグメント化される。カラー、コントラスト、サイ
ズ、形状、場所(位置)、背景及びスキンを含む7つの
特徴に対する各領域のインポータンスが、視覚注意力に
影響を与えることが知られている。これら特徴によるイ
メージ処理手段11〜17の柔軟な特性により、付加的
な特徴を容易に取り込むことができる。なお、処理手段
11は、セグメント化された領域をカラーに応じて処理
して、カラーによるインポータンス・マップを生成す
る。また、処理手段12は、セグメント化された領域を
コントラストに応じて処理して、コントラストによるイ
ンポータンス・マップを生成する。処理手段13は、セ
グメント化された領域をサイズに応じて処理して、サイ
ズによるインポータンス・マップを生成する。処理手段
14は、セグメント化された領域を形状に応じて処理し
て、形状によるインポータンス・マップを生成する。処
理手段15は、セグメント化された領域を場所に応じて
処理して、場所によるインポータンス・マップを生成す
る。処理手段16は、セグメント化された領域を背景に
応じて処理して、背景によるインポータンス・マップを
生成する。処理手段17は、セグメント化された領域を
スキンに応じて処理して、スキンによるインポータンス
・マップを生成する。これら特徴は、人間の目の動きに
よる校正に基づいて重み付けされる。なお、人間の目の
動きは、人間の目の動きの実験データを集めて求めてい
る。各特徴の重みを結合アルゴリズム40に与えて、7
つの特徴に基づいた処理手段11〜17の処理結果のイ
ンポータンス・マップを重み付けにより組み合わせて、
現在のフレームの場面用の空間的インポータンス・マッ
プ(IM)を生成する。
あり、時間的注意力をモデル化する手段(モーション・
モデル化手段)20は、現在のフレーム及び以前のフレ
ームをモーション・ベクトル(運動ベクトル)アルゴリ
ズム手段22に入力する。モーション・ベクトル・アル
ゴリズム手段22によりモーション・ベクトルを計算す
る。このモーション・ベクトルは、各動きの大きさに基
づいた場面内の各対象物に対するモーション・インポー
タンスのアルゴリズム手段24により重み付けされる。
結合手段40は、目の追跡実験から集めたデータを用い
て、手段20からの運動重み(時間的インポータンス)
を手段10における空間重み(空間的インポータンス)
と組み合わせて、現在のフレーム用の全体インポータン
ス・マップを生成する。
するインポータンス・マップ(IM)を図3に示す。高
いインポータンスとして識別されたIM範囲は、明るい
色調である。一方、暗い色調の範囲は、注意力を引きつ
けない場面部分である。
メント化の改良、空間コンテキスト(前後関係)特徴の
拡張、空間的及び時間的特徴処理アルゴリズムの改良、
校正アルゴリズム及び組み合わせアルゴリズムの改良で
ある。
フレームのクリッピングしたバージョン(クリッピング
したビデオ・フレーム)を入力として用いて、イメージ
の境界が、このモデル化の後での外観に与える影響を避
ける。すなわち、24個のオーダのピクセルにおいて、
クリッピングによる境界が良好に作用する。関数スプリ
ット(Split)は、カラー情報と共にルミナンス情報を
用いて、分割/併合が生じる時点を決める。例として、
L*u*v*カラー空間を用いることができる。分割の条
件は、次の通りである。 ((variancelum(Ri)>thsplitlum)&(variancecol(Ri)>th
splitcol)&(size(Ri)>ths ize)) ならば、即ち、領域Riにおけるルミナンスの分散がしき
い値thsplitlumよりも大きく、且つ、領域Riにおけるカ
ラーの分散がしきい値thsplitcolよりも大きく、且つ、
領域Riのサイズがしきい値thsizeよりも大きければ、4
象限に分割する。すなわち、仮領域を想定し、この仮領
域を階層的に分割している。なお、variancecol(Ri) =
SQRT(variance(Ri(u*))2 + variance(Ri(v*))2)であ
る。SQRTは、平方根を意味し、variance(Ri(u*)は、領
域Riにおけるu*の分散であり、variance(Ri(v*)は、領
域Riにおけるv*の分散である。また、しきい値thの
値は、thsplitlum=250であり、thsplitcol=120
である。
しても行われる。セグメント化により、ブロック状の形
状を有する大きな領域が生じるという問題を避けるため
に、組み合わせ(マージ)用のしきい値thmergelumnew
は、パラメータscalefactorme rgeを用いてブロック・サ
イズに応じて適応(適宜変化)する。このパラメータsc
alefactormergeは、大きな領域を組み合わせる(併合す
る)とき、特に、併合すべき2個の領域が同様なサイズ
のときに、増加する。 thmergelumnew=scalefactormerge*thmergelumold なお、thmergelumnewは、新たなマージ用しきい値であ
り、thmergelumoldは、それまでのマージ用しきい値で
ある。*は、乗算を意味する。また、 scalefactormerge = (kmerge*sizemerge + kreduc +
1)/(sizemerge + kmerge+ kreduc) sizemerge = max(kmin*(1/n)ROOT(size(R1)n + size(R
2)n)/size(frame) である。定数パラメータの値は、kmin=256、n=
0.25、kmerge=3、kreduc=10及びth
mergelumold=500である。size(R1)は、領域R1のサ
イズであり、size(R2)は、領域R2のサイズであり、ROOT
は、平方根を意味し、max()は、()内の最大値を指
す。以下のパラメータを用いる点を除いて、同じ技術を
用い、カラー組み合わせしきい値thmergecolも変調す
る。 kmincol=256、ncol=0.5、kmergecol=1.5、
kreduccol=0及びthmer gecolold=120。
の領域を高いテキスチャの領域に比較して簡単に組み合
わせていた。したがって、2つの領域を組み合わせるか
否かを判断するとき、その領域の平均ルミナンス及びカ
ラーを考慮する。平均カラー及び平均ルミナンスのしき
い値の両方が互いに依存するので、この領域の平均カラ
ー及びルミナンスに応じて適応的に組み合わせしきい値
thmeanmergelumnewを次のように計算する。 もし、((Δcol < thΔcol) &(colmax > thBW))ならば、
即ち、カラーの差(色差)Δcol がしきい値 thΔcolよ
りも小さく、且つ、カラーの最大値colmaxがしきい値th
BWよりも大きければ、 thmeanmergelumnew=thmeanmergelumold+((thΔcol-Δco
l)/thΔcol)*(thΔlum_ max-thmeanmergelumold) である。thmeanmergelumoldは、以前の組み合わせしき
い値であり、thΔlum_maxは、ルミナンスの差の最大値
に対するしきい値である。なお、 Δlum = |gl(R1) - gl(R2)| Δcol = SQRT((u* R1 - u* R2)2 + (v* R1 - v* R2)2) colmax = max(u* R1, u* R2, v* R1, v* R2) であり、Δlumは、ルミナンスの差であり、gl(Ri)
は、領域Riの平均グレイ・レベルである。u* Riは、領
域Riのu*の値であり、v* Riは、領域Riのv*の値であ
る。定数の値は、thΔcol=14.0、thBW=7.
0及びthΔlum_m ax=70.0である。
しば非常に高い値を取るので、低いルミナンスの領域に
対する組み合わせしきい値が増加する。これは、図4に
示すように実現される。これら定数の値は、次の通りで
ある。thlolum1=10、thlowlum2=25、thcol
=14、及びthcol_lowlum=40。
は、次のようになる。もし、 ((var(glR12)<thmergelumnew)且つ(var(colR12)<th
mergecolnew)且つ(Δlum<thm eanmergelumnew) 且つ (Δ
col<thmeanmergecolnew)) 又は((Δlum<thlumlow) 且つ
(Δcol<thcollow)ならば、2つの領域を1つに組み合
わせる。そうでなければ、領域を分離させる。なお、va
r(glR12)は、領域R1及びR2の平均グレイ・レベルの分散
であり、var(colR12)は、領域R1及びR2のカラーの分散
である。これら定数の値は、thlumlow=12及びth
collow=5である。小さな領域の除去手順を変化させ
て、この手順をイメージ分解能から独立させ、小さな領
域を最も適切な隣接領域と組み合わせる。これは、次の
ようになる。もし、 size(Ri) < (1/ksmall)*size(frame) ならば、Riを最も近いL*値を有する隣接領域と組み合
わせる。なお、ksmallは、4096に設定できる。siz
e(frame)は、フレームのサイズである。この方法におい
て、セグメント化は、適応であり、より粗となる。
徴は、簡単な2個のしきい値による処理から、4個のし
きい値による処理に変化するので、小さ過ぎる又は大き
過ぎる領域が、小さ過ぎる領域の代わりに、最小化され
る。同様に、他の領域と4カ所で接触する境界を共有す
る領域における最小数のピクセル、又は、尖端エッジと
境界を接する領域内の最小数のピクセルを用いて、フレ
ームのエッジを除去するので、背景(による)特徴が変
化する。また、場所(による)特徴を変化させて、フレ
ームの中央の4分の1を全く考慮せずに、ゾーン(領
域)に応じ、小さな重みを有する中心の周囲における種
々のゾーンを考慮して、この中央から縮小する。
(コントラスト・インポータンス)I'cont(Ri)は、領域
Riと4カ所で接した境界を共有する領域における平均
グレーレベルと、このレベルよりも小さい領域Riにお
ける平均グレーレベルとの間の差として定義できる。ま
ず、領域Riの平均グレーレベルと、その隣接領域との
比較は、各隣接領域の絶対値に基づいているので、領域
Riよりも高い又は低い平均グレーレベルを有する隣接
領域が互いにうち消されることがない。隣接領域がコン
トラストに影響を及ぼす地域は、2個の領域が有する4
個の接した隣接ピクセルの数と乗算された定数に限定さ
れる。これにより、大きな隣接領域と、わずかな隣接ピ
クセルを有する領域とが、コントラスト・インポータン
スに過度の影響を及ぼすことを防ぐ。また、サイズの換
算係数を用いて、大きな領域に対して、コントラスト・
インポータンスI"cont(Ri)が減らされる。さらに、ウェ
ーバー(Weber)及びドフリース・ローズ(deVries-Ros
e)効果を考慮するために、高いグレースケールの定数
を低いグレースケールの定数に対して減らす。最後に、
そのフレーム内のコントラストの強さに応じて、コント
ラストを適応的な方法により0〜1の範囲に正規化す
る。これを行うことにより、あるコントラストを有する
領域のコントラスト・インポータンスI"'cont(Ri)は、
非常に高いコントラストの領域を有するフレームにおい
て減され、最高のコントラストが小さいフレームにおい
ては増やされる。
Bij,size(Ri)))/Σj=1- Jmin(kborder*Bij,size(Ri)) なお、jは、Riと4カ所で接する境界を共にする領域
1−Jである。kborderは、隣接領域の影響範囲を制限
する定数(例えば、10に設定される)である。B
ijは、Riと4カ所で接する境界を共有するRjにおける
ピクセルの数である。また、 I"cont(Ri) = ksizescale*I'cont(Ri) である。なお、ksizescaleが領域のサイズに応じて変化
し、小さな領域では大きくなり、大きな領域では小さく
なる。さらに、 I"'cont(Ri) = I"cont(Ri)/max(gl(Ri),thdevries)
powweber となる。なお、thdevriesは、ドフリース・ローズ領域
のほぼスタートにおけるグレーレベル(50に設定され
る)であり、powweberは、非線形ウェバーのべき乗
(0.3に設定)である。I”’に対する正規化のしき
い値を次のように計算する。 thcont1 = thbase1weber+(min(I"cont)-thbase1weber)*thweight thcont2 = thbase2weber+(max(I"cont)-thbase2weber)*thweight2high, max(I" cont >thbase2) 又は = thbase2weber+(max(I"cont)-thbase2weber)*thweight2low, max(I"cont=thba se2 ) なお、 thbase1weber = thbase1/128powweber thbase2weber = thbase2/128powweber thbase1 = 20 thbase2 = 120 thweight1 = 0.5 thweight2high = 0.25 thweight2low = 0.75 である。
インポータンスを低下させるように形状特徴を変化させ
て、高すぎる形状インポータンスをかかる領域に割り当
てない。また、適応正規化処理を用いて、この形状イン
ポータンスを0〜1の範囲に正規化する。
に付加する。RGBファイルが入力として受け入れら
れ、L*u*v*カラー空間に変換される。コントラスト
・インポータンスを計算した方法と類似の方法でカラー
・インポータンスを計算する。これは、実際には、これ
ら2つの特徴が類似した動作を果たすためである。すな
わち、一方が、その背景に対する領域のルミナンス・コ
ントラストを計算し、他方が、その背景に対するカラー
・コントラストを計算する。カラー・インポータンスの
計算は、u*のカラー・コントラストのインポータンスI
u*(Ri)及びv*のカラー・コントラストのインポータン
スIv*(Ri)を別々に計算することが始まる。 Iu*(Ri) =Σj=1-J |u*(Ri)-u*(Ri)|*min(kborder*
Bij,size(Rj)) / Σj=1-J min(kborder*Bij,size(Rj)) Iv*(Ri) = Σj=1-J |v*(Ri)-v*(Ri)|*min(kborder *
Bij,size(Rj)) / Σj=1 -J min(kborder * Bij,size(R
j)) 次に、これら2つのカラー・インポータンスの計算結果
を二乗和の平方根として組み合わせ、換算係数を用いて
大きな領域用に減らす。フレーム内のカラー・インポー
タンスの強さに応じて、適応的な方法にて、カラー・イ
ンポータンスを0〜1の範囲で正規化する。この操作を
行うことにより、あるカラー・インポータンスを有する
領域のカラー・インポータンスは、カラー・コントラス
トが非常に高いフレームにおいては減少され、最高カラ
ー・コントラストが小さいフレームにおいては増加され
る。
範囲をそのカラーにより検出する。異なる人種において
も、人間のスキン(皮膚)の色は、狭い範囲の値なの
で、この検出が可能となる。他のカラー空間を用いる際
には、色相−飽和−輝度(HSV)カラー空間を選択す
る。これは、人間のスキンの色が、HSV値の狭い範囲
内に集中的に集まるからである。各ピクセルを個別にテ
ストして、その色がスキンの色とマッチングするかを判
断する。HSV値(hij、sij、vij)が次の範囲内に
入るならば、ピクセルxijをスキンにクラス分けする。
すなわち、もし、((Hmin=hij=Hmax)且つ(Smin=sij=
Smax)且つ(Vmin=vij=Vmax))ならば、xijは、スキンであ
る。テスト・イメージの大型データベースから、クラス
分けしきい値の最良値が求まる。しきい値の4つは、次
のようになる。[定数]−Hmin=350度、Hmax=4
0度、Smin=0.2、Vmin=0.35。他の2つのし
きい値であるSmax及びVmaxは、図5に示すグラフか
ら、Hの変化に応じて求まる。
のインポータンス・マップを二乗し、等しく重み付けし
て、最終的な空間的インポータンス・マップIMを生成
する。次に、この最終的なインポータンス・マップを換
算して、最高のインポータンスの領域の値を1.0にす
る。高いインポータンスの領域と低いインポータンスの
領域との突然の変化を和らげるために、ブロック処理を
行う。これは、n×nブロック内の最大インポータンス
をそのブロック内の各ピクセルに割り当てることを含
む。しかし、異なる特徴の相対的な影響を理解するため
に、目の追跡を考察した。人間が、約5秒間にわたって
多くの異なる静止画を観察し、また、ビデオを数分間に
わたって観察しているとして、一群の人間の目の動きを
記録する。どの特徴が人間の目の動きに最も影響を与え
るかを判断するために、人間の固定行動(fixation)と
各個別の特徴IMとの相関を計算する。これは、最も重
要な特徴に応じて分類された領域における固定行動の割
合を計算することにより行う。この結果により、空間的
特徴の内の3つの特徴である場所(位置)、スキン及び
前景/背景が、固定行動との非常に高い相関を有するこ
とを示す。他の3つの空間的特徴である形状、カラー及
びコントラストは、固定行動に対して低いが依然顕著な
影響を有しており、サイズによる影響は、他の特徴によ
る影響よりも非常に小さい。
て、本発明においては、次の新たな特徴重み付けI
spatial(Ri)を行う。 Ispatial(Ri) = Σf=1-7(wf poww*If(Rf)powf) なお、wfは、目の追跡実験からの特徴重み付けであ
る、即ち、場所、前景/背景、スキン、形状、コントラ
スト、カラー、サイズの各々の重み付けは、0.19
3、0.176、0.172、0.130、0.12
1、0.114、0.094である。powwは、特徴
重み付けの指数であり、wfの相対的影響力を制御す
る。例としては、3.0である。powfは、インポー
タンス・マップ(IM)重み付け指数であり、例とし
て、総ての特徴に対して2.0である。次に、前のよう
にブロック処理をした後で、空間IMを換算(スケーリ
ング)して、最高のインポータンスの領域を1.0とす
る。
ームにノイズを有するかもしれず、このノイズを減ら
し、IMの時間的整合性を改善するために、時間的平滑
化動作をピクセル・レベルで実施する。(t−m、・・
・t+n)フレームの時間的ウィンドウを用いることに
より、この時間的ウィンドウから、場所(x、y)にお
ける出力IMにより、場所(x、y)をk番目に高いI
Mとする。k>1に設定することにより、高いインポー
タンスのスプリアス領域を除去する。例として、n=m
=5フレームで、k=2である。
に階層的ブロック・マッチング技法を用いて、各ブロッ
クの運動ベクトルを計算していた。この結果のベクトル
を直接用いて、時間的インポータンスを計算していた。
非常に低い動きと非常に高い動きの領域には低いインポ
ータンスを与える一方、中位の動きの領域に最高のイン
ポータンスを割り当てた。この従来技術には、次のよう
な2つの大きな問題があった。(i)真の対象物の動き
からカメラの動きを区別する方法がなかったので、ビデ
オが撮影されている間に、任意のカメラの動き(パン、
傾き、ズーム、回転)があると、このモデルはうまく機
能しなかった。(ii)インポータンスを特定の動きに割
り当てるときに固定しきい値を用いるが、動きの量が異
なるビデオ場面にわたって大きく変化するので、これら
しきい値は、ビデオ内の動きに適応させる必要がある。
ロック図を示す。従来の時間的処理と同様に、階層的ブ
ロック・マッチング処理にて現在及び前のフレームを用
いてモーション・ベクトルを計算する(ブロック6
0)。カメラのモーション(動き)予測アルゴリズム
(ブロック62)にて、これらモーション・ベクトルを
用いて、カメラのモーションに関する4つのパラメー
タ、即ち、パン、ティルティング(傾き)、ズーム及び
回転を判断する。次に、これらパラメータを用いて、モ
ーション・ベクトルを修正(補償)して、場面における
真の対象物の動きを捕らえる(ブロック64)。テキス
チャ的に平坦な領域におけるモーション・ベクトルに確
実性がないため、これら領域内における補償されたモー
ション・ベクトルがゼロに設定される。8×8ブロック
内の最小及び最大グレイレベルの差が、45の如きしき
い値thflatよりも小さければ、この8×8ブロックを
「平坦(flat)」とみなす。最後に、平滑化(スムージ
ング)や、後述の適応しきい値(適応的に変化するしき
い値)による処理などのいくつかのステップ(ブロック
66)により、補償したモーション・ベクトルを時間的
インポータンス(時間的イメージ)の尺度に変換する。
ロック62)は、場面のカットや、3:2のプルダウン
(縦横比3:2への変換)や、時間的なサブサンプリン
グによるフレーム落ちなどを原因として生じた時間的動
きにおけるいくつかのジャーキネス(jerkiness:ぎくし
ゃくとした動き)を検出する。これら時間的な不連続性
が生じると、時間的に不連続なフレームからのモーショ
ン(動き)情報よりも、むしろ確実なモーション情報を
利用できる以前のフレームからのモーション情報を用い
る。現在のフレームに時間的な不連続性が検出されれ
ば、10フレーム以上前に戻ったモーション情報を用い
てもよい。上述の如く、空間的IMに対して実行したの
と同様な方法で、時間的なスムージングを行う。場面カ
ットの一部や、異なるショットの一部であるフレーム
は、時間的ウィンドウ内に含めない。これら領域からの
モーション・ベクトルは確実でないので、低いテキスチ
ャの次の領域に、ゼロの時間的インポータンスを割り当
てる。+/−1フレームの時間的ウィンドウに対して計
算を行った場合を除いて、「平坦」であるとの判断は、
上述と同じである。最後に、適応しきい値による処理を
行う、即ち、場面における対象物の動きの量に適応させ
て、しきい値を計算する。人間の感受性は、多くの高速
に移動する対象物により邪魔されないので、少ない移動
対象物を有する場面や、遅い動きの対象物を有する場面
は、多くの高速に移動する対象物を有する場面よりも、
しきい値が小さい。カメラの動きを補償したモーション
・ベクトル・マップの98番目のパーセント点(percen
tile)の如きm番目のパーセント点を用いることによ
り、場面における動きの量の予測が得られる。動きは、
度/秒により測定するので、動きの分解能、即ち、ピク
セルの間隔及び視野の距離を知る必要がある。典型的に
は、ピクセル間隔は、0.25mmであり、視野の距離
は、SDTV視野で画像高さの5倍である。高速移動対
象物が高速パン又はティルティング移動により追跡され
る場面において、対象物の動きは、所定しきい値よりも
大きいので、その時間的インポータンスは、1.0未満
の値に低下するかもしれない。これら生じるのを防止す
るために、特別な場合を作る。最終的なブロック処理
は、空間的IM用に行ったのと同様に、16×16ピク
セル・レベルで行う。時間的IMは、既に8×8ピクセ
ル分解能なので、各2×2ブロック用の最大値を取っ
て、全体として16×16ブロック・サイズを得る。
び時間的IMを組み合わせる線形重み付けは、次のよう
になる。 Itotal = KcombIspat + (1-Kcomb)Itemp 空間的IM及び時間的IMの両方に対して観察者を固定
して比較すると、時間的のみのIMの相関に比較して、
空間的のみのIMの相関がわずかに高い。したがって、
0.5よりもわずかに大きいkcombの値は、0.6の如
き値となる。
的な統合に対して行える総てである。しかし、目の追跡
の考察によると、ズーミング、回転又は非常に早い動き
のビデオ場面において、観察者は、注意力を場面の中心
に非常に強く絞る傾向がある。これら場面の中心領域に
更にインポータンスを割り当てるために、次の計算を行
う。 motzoomrot = kz1*motionm + kz2*zoom + kz3*rotat
e + kz4*errorcamera なお、motionmは、カメラの動きの補償されたモーショ
ン・ベクトル・マップのm番目のパーセント点であり、
zoom及びrotateは、フレームのズームのパラメータ及び
回転パラメータであり、errorcameraは、カメラの動き
の予測アルゴリズムによる出力であり、kziは、換算
(スケーリング)定数である。中央のスケーリング定数
kcentralは、1対のしきい値の間のmotzoomrotの量に応
じて、2つの値の間で調整される。そして、新たなイン
ポータンス・マップI'totalは、次のようになる。 I'total = kcentralIcenter + (1-kcentral)Itotal 変数errorcameraが高いと、インポータンス・マップ
(IM)の精度が低下して、これらの場合における時間
的IMの影響が低下するのに有用かもしれない。これ
は、エラーが増加するに従ってkcombの値を増やすこと
により行える。
顔は、注意力を非常に強く引きつけることが判った。人
間は、一般的には、少なくとも長時間にわたって、完全
に静止していないので、特別な場合を作って、動いてい
るスキン領域でのインポータンスを増加させる。これに
は、次の2つの利点がある。(i)スキンの特性により
スキンであると誤って分類した対象物は、移動しない背
景対象物(砂、乾燥牧草、煉瓦の壁)であることがしば
しばあるので、モーション情報が含まれていても、これ
ら偽の判断を除去できる。(ii)顔は、低いテキスチャ
のいくつかの領域をしばしば含んでおり、これら低いテ
キスチャの領域が低いインポータンスに設定されるの
で、顔の低いテキスチャ範囲を時々見逃すが、しかし、
スキン領域に対する低いテキスチャの拘束を緩めること
により、これら範囲を最早見逃すことがなく、インポー
タンスが高くなる。よって、各ピクセルに対して、 もし、(Iskin>thskinmot1) 且つ(MVcomp>thskinmot2) ならば、 Itotal = 1.0 となる。
意力モデル化方法によれば、空間的特徴により空間的イ
ンポータンス・マップを生成し、この時間的インポータ
ンス・マップを空間的インポータンス・マップと組み合
わせて、フレームの全体的なインポータンス・マップを
生成する。したがって、適合セグメント化アルゴリズム
を改善できると共に、空間的特徴及び付加的な空間的特
徴に対する適合アルゴリズムも改善できる。さらに、目
の動きの考察に基づいて組み合わせアルゴリズムも改善
でき、より確実で改良された全体的なインポータンス・
マップを生成できる。
施例を説明するブロック図である。
る。
ンポータンス・マップを示す図である。
スによるしきい値の変化を示すグラフ図である。
るパラメータ値の変化を示すグラフ図である。
生成するブロック図である。
Claims (5)
- 【請求項1】 複数の空間的特徴に応じた処理のため
に、ビデオ・シーケンスの単一フレームを複数の領域に
セグメント化して、対応する複数の空間的インポータン
ス・マップを生成し、上記単一フレームを以前のフレー
ムと比較して時間的インポータンス・マップを生成し、
上記空間的インポータンス・マップ及び上記時間的イン
ポータンス・マップを組み合わせて上記単一フレームの
総合インポータンス・マップを生成する視覚的注意力の
モデル化方法であって、 ルミナンス及びカラーを用いて、上記単一フレームを複
数の領域に適応的にセグメント化する第1ステップと、 複数の空間的特徴により上記領域を処理して、複数の上
記空間的インポータンス・マップを生成する第2ステッ
プと、上記以前のフレームに応じて上記単一フレームを
処理して、カメラの動きを補償した上記時間的インポー
タンス・マップを生成する第3ステップと、目の動きの
考察から得た重み付けに応じて上記空間的インポータン
ス・マップ及び上記時間的インポータンス・マップを組
み合わせて、上記単一フレーム用の上記総合インポータ
ンス・マップを生成する第4ステップとを具えることを
特徴とする視覚注意力のモデル化方法。 - 【請求項2】 上記第1ステップは、 仮領域のルミナンス分散、カラー分散及びサイズに基づ
いて上記フレームを複数領域に階層的に分割し、 上記仮領域内の平均ルミナンス及びカラー分散が各適応
しきい値よりも小さく且つ上記仮領域内のルミナンス変
化及びカラー変化が各しきい値よりも小さいか、又は上
記仮領域内のルミナンス及びカラーの変化が各しきい値
よりも小さい場合に、複数の仮領域を組み合わせて上記
領域を形成することを特徴とする請求項1の視覚注意力
のモデル化方法。 - 【請求項3】 上記空間的特徴には、サイズ、背景、場
所、コントラスト、形状及びスキンの1組から選択され
た少なくとも2つを有することを特徴とする請求項1の
視覚注意力のモデル化方法。 - 【請求項4】 上記第4ステップは、 目の動きの考察から経験的に求めた重み付けに応じて、
各空間的インポータンス・マップを重み付けして、その
結果の空間的インポータンス・マップを生成し、 時間的スムージング・アルゴリズムを用いて、上記結果
の空間的インポータンス・マップをフレームからフレー
ムにわたってスムージングしてノイズを減らすと共に、
時間的整合性を改善して、空間的インポータンス・マッ
プを生成し、 上記空間的インポータンス・マップを上記時間的インポ
ータンス・マップと組み合わせて、上記総合インポータ
ンス・マップを生成することを特徴とする請求項1の視
覚注意力のモデル化方法。 - 【請求項5】上記第3ステップは、 階層的ブロック・マッチング・アルゴリズムを用いて、
現在のフレームの各ブロックに対して、モーション・ベ
クトルを計算し、 上記モーション・ベクトルからカメラの動きのパラメー
タを判断し、 上記カメラの動きのパラメータに基づいて上記モーショ
ン・ベクトルを補償し、 上記補償されたモーション・ベクトルを時間的インポー
タンス・マップに変換することを特徴とする請求項1の
視覚注意力のモデル化方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/764,726 US6670963B2 (en) | 2001-01-17 | 2001-01-17 | Visual attention model |
US09/764,726 | 2001-01-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002247574A true JP2002247574A (ja) | 2002-08-30 |
JP3851171B2 JP3851171B2 (ja) | 2006-11-29 |
Family
ID=25071588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002003558A Expired - Fee Related JP3851171B2 (ja) | 2001-01-17 | 2002-01-10 | 視覚的注意のモデル化方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6670963B2 (ja) |
EP (1) | EP1225769B1 (ja) |
JP (1) | JP3851171B2 (ja) |
CN (1) | CN1203677C (ja) |
DE (1) | DE60203056T2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005032250A (ja) * | 2003-07-08 | 2005-02-03 | Thomson Licensing Sa | 顔を検出する処理方法及び画像中の顔の検出装置 |
JP2008263604A (ja) * | 2007-04-09 | 2008-10-30 | Tektronix Inc | ビデオ位置予測方法 |
Families Citing this family (124)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020154833A1 (en) * | 2001-03-08 | 2002-10-24 | Christof Koch | Computation of intrinsic perceptual saliency in visual environments, and applications |
US6870956B2 (en) * | 2001-06-14 | 2005-03-22 | Microsoft Corporation | Method and apparatus for shot detection |
KR100474760B1 (ko) * | 2001-10-08 | 2005-03-08 | 엘지전자 주식회사 | 영상내의 오브젝트 영역 추출방법 |
US7054483B2 (en) * | 2002-03-15 | 2006-05-30 | Ncr Corporation | Methods for selecting high visual contrast colors in user-interface design |
TWI281126B (en) * | 2002-03-19 | 2007-05-11 | Intervideo Digital Technology | Image detection method based on region |
JP4202271B2 (ja) * | 2002-03-22 | 2008-12-24 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | パターンの比較 |
WO2003081577A1 (en) * | 2002-03-22 | 2003-10-02 | British Telecommunications Public Limited Company | Anomaly recognition method for data streams |
US7010169B2 (en) * | 2002-04-15 | 2006-03-07 | Sbc Technology Resources, Inc. | Multi-point predictive foveation for bandwidth reduction of moving images |
US7499594B2 (en) * | 2002-04-15 | 2009-03-03 | At&T Intellectual Property 1, L.P. | Multi-resolution predictive foveation for bandwidth reduction of moving images |
US7136073B2 (en) * | 2002-10-17 | 2006-11-14 | Canon Kabushiki Kaisha | Automatic tone mapping for images |
US7274741B2 (en) * | 2002-11-01 | 2007-09-25 | Microsoft Corporation | Systems and methods for generating a comprehensive user attention model |
US7116716B2 (en) * | 2002-11-01 | 2006-10-03 | Microsoft Corporation | Systems and methods for generating a motion attention model |
MXPA05004956A (es) * | 2002-11-06 | 2005-09-20 | Agency Science Tech & Res | Un metodo para generar un mapa de significancia orientado a la calidad, para valorar la calidad de una imagen o video. |
GB0229625D0 (en) * | 2002-12-19 | 2003-01-22 | British Telecomm | Searching images |
US7164798B2 (en) * | 2003-02-18 | 2007-01-16 | Microsoft Corporation | Learning-based automatic commercial content detection |
US7260261B2 (en) * | 2003-02-20 | 2007-08-21 | Microsoft Corporation | Systems and methods for enhanced image adaptation |
US20040207643A1 (en) * | 2003-04-18 | 2004-10-21 | Bozidar Janko | Attention model enhanced video waveform monitor |
US7872635B2 (en) | 2003-05-15 | 2011-01-18 | Optimetrics, Inc. | Foveated display eye-tracking system and method |
US7274740B2 (en) * | 2003-06-25 | 2007-09-25 | Sharp Laboratories Of America, Inc. | Wireless video transmission system |
US7680342B2 (en) | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
US7646437B1 (en) * | 2003-09-03 | 2010-01-12 | Apple Inc. | Look-ahead system and method for pan and zoom detection in video sequences |
US9325998B2 (en) * | 2003-09-30 | 2016-04-26 | Sharp Laboratories Of America, Inc. | Wireless video transmission system |
US7400761B2 (en) * | 2003-09-30 | 2008-07-15 | Microsoft Corporation | Contrast-based image attention analysis framework |
US7471827B2 (en) * | 2003-10-16 | 2008-12-30 | Microsoft Corporation | Automatic browsing path generation to present image areas with high attention value as a function of space and time |
US20050123886A1 (en) * | 2003-11-26 | 2005-06-09 | Xian-Sheng Hua | Systems and methods for personalized karaoke |
GB0328326D0 (en) | 2003-12-05 | 2004-01-07 | British Telecomm | Image processing |
US8018850B2 (en) | 2004-02-23 | 2011-09-13 | Sharp Laboratories Of America, Inc. | Wireless video transmission system |
US7826664B2 (en) * | 2004-05-24 | 2010-11-02 | Xerox Corporation | Systems and methods for efficient manual windowing operation |
US7916173B2 (en) * | 2004-06-22 | 2011-03-29 | Canon Kabushiki Kaisha | Method for detecting and selecting good quality image frames from video |
US9053754B2 (en) | 2004-07-28 | 2015-06-09 | Microsoft Technology Licensing, Llc | Thumbnail generation and presentation for recorded TV programs |
US7986372B2 (en) | 2004-08-02 | 2011-07-26 | Microsoft Corporation | Systems and methods for smart media content thumbnail extraction |
US8624980B2 (en) * | 2004-08-10 | 2014-01-07 | Thomson Licensing | Apparatus and method for indicating the detected degree of motion in video |
DE602005008993D1 (de) | 2004-09-17 | 2008-09-25 | British Telecomm Public Ltd Co | Analyse von mustern |
US7562056B2 (en) * | 2004-10-12 | 2009-07-14 | Microsoft Corporation | Method and system for learning an attention model for an image |
US7784076B2 (en) * | 2004-10-30 | 2010-08-24 | Sharp Laboratories Of America, Inc. | Sender-side bandwidth estimation for video transmission with receiver packet buffer |
US7797723B2 (en) * | 2004-10-30 | 2010-09-14 | Sharp Laboratories Of America, Inc. | Packet scheduling for video transmission with sender queue control |
US8356327B2 (en) * | 2004-10-30 | 2013-01-15 | Sharp Laboratories Of America, Inc. | Wireless video transmission system |
JP4234089B2 (ja) * | 2004-11-16 | 2009-03-04 | 株式会社ソニー・コンピュータエンタテインメント | エンタテインメント装置、オブジェクト表示装置、オブジェクト表示方法、プログラム、およびキャラクタ表示方法 |
US7922670B2 (en) * | 2005-02-24 | 2011-04-12 | Warren Jones | System and method for quantifying and mapping visual salience |
EP1732030A1 (en) * | 2005-06-10 | 2006-12-13 | BRITISH TELECOMMUNICATIONS public limited company | Comparison of patterns |
US7676081B2 (en) * | 2005-06-17 | 2010-03-09 | Microsoft Corporation | Image segmentation of foreground from background layers |
WO2007012798A1 (en) * | 2005-07-28 | 2007-02-01 | British Telecommunications Public Limited Company | Image analysis |
US7574069B2 (en) * | 2005-08-01 | 2009-08-11 | Mitsubishi Electric Research Laboratories, Inc. | Retargeting images for small displays |
US20070067480A1 (en) * | 2005-09-19 | 2007-03-22 | Sharp Laboratories Of America, Inc. | Adaptive media playout by server media processing for robust streaming |
US7773813B2 (en) * | 2005-10-31 | 2010-08-10 | Microsoft Corporation | Capture-intention detection for video content analysis |
US8180826B2 (en) * | 2005-10-31 | 2012-05-15 | Microsoft Corporation | Media sharing and authoring on the web |
US8196032B2 (en) | 2005-11-01 | 2012-06-05 | Microsoft Corporation | Template-based multimedia authoring and sharing |
GB2432068B (en) | 2005-11-02 | 2010-10-06 | Imagination Tech Ltd | Motion estimation |
EP1793344A1 (en) | 2005-11-30 | 2007-06-06 | THOMSON Licensing | Method of emendation for attention trajectory in video content analysis |
EP1798961A1 (en) * | 2005-12-19 | 2007-06-20 | BRITISH TELECOMMUNICATIONS public limited company | Method for focus control |
US7692696B2 (en) | 2005-12-27 | 2010-04-06 | Fotonation Vision Limited | Digital image acquisition system with portrait mode |
US7599918B2 (en) | 2005-12-29 | 2009-10-06 | Microsoft Corporation | Dynamic search with implicit user intention mining |
US9544602B2 (en) * | 2005-12-30 | 2017-01-10 | Sharp Laboratories Of America, Inc. | Wireless video transmission system |
US7869043B2 (en) * | 2006-01-06 | 2011-01-11 | Sparta, Inc. | Automated passive skin detection system through spectral measurement |
US8150155B2 (en) | 2006-02-07 | 2012-04-03 | Qualcomm Incorporated | Multi-mode region-of-interest video object segmentation |
US8265392B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Inter-mode region-of-interest video object segmentation |
US8265349B2 (en) | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Intra-mode region-of-interest video object segmentation |
US7469071B2 (en) | 2006-02-14 | 2008-12-23 | Fotonation Vision Limited | Image blurring |
US7634108B2 (en) * | 2006-02-14 | 2009-12-15 | Microsoft Corp. | Automated face enhancement |
IES20060558A2 (en) * | 2006-02-14 | 2006-11-01 | Fotonation Vision Ltd | Image blurring |
GB2435360B (en) | 2006-02-16 | 2009-09-23 | Imagination Tech Ltd | Method and apparatus for determining motion between video images |
US7683931B2 (en) * | 2006-03-06 | 2010-03-23 | Dell Products L.P. | Image artifact detection in video quality benchmarks |
KR101225062B1 (ko) * | 2006-03-10 | 2013-01-23 | 삼성전자주식회사 | 이미지 프레임의 선택적 출력 장치 및 방법 |
US7652994B2 (en) * | 2006-03-31 | 2010-01-26 | Sharp Laboratories Of America, Inc. | Accelerated media coding for robust low-delay video streaming over time-varying and bandwidth limited channels |
IES20060564A2 (en) * | 2006-05-03 | 2006-11-01 | Fotonation Vision Ltd | Improved foreground / background separation |
CN101461248B (zh) | 2006-06-09 | 2011-04-06 | 汤姆森许可贸易公司 | 自适应地确定用于视频图像编码的比特预算的方法和设备 |
US8861597B2 (en) * | 2006-09-18 | 2014-10-14 | Sharp Laboratories Of America, Inc. | Distributed channel time allocation for video streaming over wireless networks |
DE102006044114A1 (de) * | 2006-09-20 | 2008-03-27 | Forschungszentrum Karlsruhe Gmbh | Verfahren zur Charakterisierung der Abgasausbrandqualität in Verbrennungsanlagen |
GB0619817D0 (en) * | 2006-10-06 | 2006-11-15 | Imp Innovations Ltd | A method of identifying a measure of feature saliency in a sequence of images |
US8699767B1 (en) | 2006-10-06 | 2014-04-15 | Hrl Laboratories, Llc | System for optimal rapid serial visual presentation (RSVP) from user-specific neural brain signals |
US8165407B1 (en) | 2006-10-06 | 2012-04-24 | Hrl Laboratories, Llc | Visual attention and object recognition system |
US8214309B1 (en) | 2008-12-16 | 2012-07-03 | Hrl Laboratories, Llc | Cognitive-neural method for image analysis |
US8285052B1 (en) | 2009-12-15 | 2012-10-09 | Hrl Laboratories, Llc | Image ordering system optimized via user feedback |
US8363939B1 (en) | 2006-10-06 | 2013-01-29 | Hrl Laboratories, Llc | Visual attention and segmentation system |
US7652993B2 (en) * | 2006-11-03 | 2010-01-26 | Sharp Laboratories Of America, Inc. | Multi-stream pro-active rate adaptation for robust video transmission |
US8300890B1 (en) * | 2007-01-29 | 2012-10-30 | Intellivision Technologies Corporation | Person/object image and screening |
DE102007012458A1 (de) * | 2007-03-15 | 2008-09-18 | Robert Bosch Gmbh | Verfahren zur Objektbildung |
USRE47534E1 (en) | 2007-04-23 | 2019-07-23 | Ramot At Tel Aviv University Ltd. | System, method and a computer readable medium for providing an output image |
US8774517B1 (en) | 2007-06-14 | 2014-07-08 | Hrl Laboratories, Llc | System for identifying regions of interest in visual imagery |
US9740949B1 (en) | 2007-06-14 | 2017-08-22 | Hrl Laboratories, Llc | System and method for detection of objects of interest in imagery |
US9196053B1 (en) | 2007-10-04 | 2015-11-24 | Hrl Laboratories, Llc | Motion-seeded object based attention for dynamic visual imagery |
US9177228B1 (en) | 2007-10-04 | 2015-11-03 | Hrl Laboratories, Llc | Method and system for fusion of fast surprise and motion-based saliency for finding objects of interest in dynamic scenes |
US9778351B1 (en) | 2007-10-04 | 2017-10-03 | Hrl Laboratories, Llc | System for surveillance by integrating radar with a panoramic staring sensor |
US8369652B1 (en) | 2008-06-16 | 2013-02-05 | Hrl Laboratories, Llc | Visual attention system for salient regions in imagery |
US8542916B2 (en) * | 2008-07-09 | 2013-09-24 | Florida Atlantic University | System and method for analysis of spatio-temporal data |
US8134578B2 (en) * | 2008-07-17 | 2012-03-13 | Xerox Corporation | Hybrid importance maps for content aware digital image resizing |
KR20110082018A (ko) * | 2008-10-03 | 2011-07-15 | 쓰리엠 이노베이티브 프로퍼티즈 컴파니 | 강건성을 평가하기 위한 시스템 및 방법 |
US8274533B2 (en) * | 2009-02-12 | 2012-09-25 | Xerox Corporation | Resizing a digital document image via background content removal |
WO2010098760A1 (en) * | 2009-02-26 | 2010-09-02 | Hewlett-Packard Development Company, L.P. | Void pantographs and methods for generating the same |
JP5229575B2 (ja) * | 2009-05-08 | 2013-07-03 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
CN102088597B (zh) * | 2009-12-04 | 2013-10-30 | 成都信息工程学院 | 动静结合估计视频视觉显著度的方法 |
WO2011152893A1 (en) * | 2010-02-10 | 2011-12-08 | California Institute Of Technology | Methods and systems for generating saliency models through linear and/or nonlinear integration |
GB2480422B (en) * | 2010-02-25 | 2014-07-09 | Imagination Tech Ltd | Object tracking using graphics engine derived vectors in a motion estimation system |
JP5589527B2 (ja) * | 2010-04-23 | 2014-09-17 | 株式会社リコー | 撮像装置および追尾被写体検出方法 |
US20130158963A1 (en) * | 2010-07-07 | 2013-06-20 | 3M Innovative Properties Company | Systems and methods for improving visual attention models |
CN101950362B (zh) * | 2010-09-14 | 2013-01-09 | 武汉大学 | 一种视频信号的关注度分析系统 |
JP5627439B2 (ja) * | 2010-12-15 | 2014-11-19 | キヤノン株式会社 | 特徴検出装置、特徴検出方法、およびそのプログラム |
US9489732B1 (en) | 2010-12-21 | 2016-11-08 | Hrl Laboratories, Llc | Visual attention distractor insertion for improved EEG RSVP target stimuli detection |
US9489596B1 (en) | 2010-12-21 | 2016-11-08 | Hrl Laboratories, Llc | Optimal rapid serial visual presentation (RSVP) spacing and fusion for electroencephalography (EEG)-based brain computer interface (BCI) |
US8463037B2 (en) * | 2011-03-31 | 2013-06-11 | Sony Corporation | Detection of low contrast for image processing |
AU2011254040B2 (en) * | 2011-12-14 | 2015-03-12 | Canon Kabushiki Kaisha | Method, apparatus and system for determining a saliency map for an input image |
WO2013165565A1 (en) * | 2012-04-30 | 2013-11-07 | Nikon Corporation | Method of detecting a main subject in an image |
US9483109B2 (en) * | 2012-07-12 | 2016-11-01 | Spritz Technology, Inc. | Methods and systems for displaying text using RSVP |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
NZ709258A (en) | 2012-12-11 | 2020-05-29 | Ami Klin | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9661328B2 (en) | 2013-03-15 | 2017-05-23 | Arris Enterprises, Inc. | Method of bit allocation for image and video compression using perceptual guidance |
US9311338B2 (en) * | 2013-08-26 | 2016-04-12 | Adobe Systems Incorporated | Method and apparatus for analyzing and associating behaviors to image content |
KR20160106552A (ko) | 2013-10-17 | 2016-09-12 | 칠드런스 헬스케어 오브 애틀란타, 인크. | 눈 추적을 통해 유아와 아이의 성장을 평가하는 방법 |
JP2015106271A (ja) * | 2013-11-29 | 2015-06-08 | 株式会社東芝 | 方法、画像処理装置およびプログラム |
US9195903B2 (en) | 2014-04-29 | 2015-11-24 | International Business Machines Corporation | Extracting salient features from video using a neurosynaptic system |
US9373058B2 (en) | 2014-05-29 | 2016-06-21 | International Business Machines Corporation | Scene understanding using a neurosynaptic system |
US10115054B2 (en) | 2014-07-02 | 2018-10-30 | International Business Machines Corporation | Classifying features using a neurosynaptic system |
US9798972B2 (en) | 2014-07-02 | 2017-10-24 | International Business Machines Corporation | Feature extraction using a neurosynaptic system for object classification |
KR101673879B1 (ko) * | 2015-06-30 | 2016-11-08 | 주식회사 아이디스 | 영상 분석 기반의 인코딩 장치 및 방법 |
US9659371B2 (en) * | 2015-10-08 | 2017-05-23 | Christie Digital Systems Usa, Inc. | System and method for online projector-camera calibration from one or more images |
US10200572B1 (en) * | 2016-03-03 | 2019-02-05 | Amazon Technologies, Inc | Motion detection |
US10799219B2 (en) | 2017-04-28 | 2020-10-13 | General Electric Company | Ultrasound imaging system and method for displaying an acquisition quality level |
CN107330362B (zh) * | 2017-05-25 | 2020-10-09 | 北京大学 | 一种基于时空注意力的视频分类方法 |
US11067448B2 (en) | 2018-10-05 | 2021-07-20 | Parsons Corporation | Spectral object detection |
CN109523562A (zh) * | 2018-12-14 | 2019-03-26 | 哈尔滨理工大学 | 一种基于人眼视觉特性的红外图像分割方法 |
CN111784694A (zh) * | 2020-08-20 | 2020-10-16 | 中国传媒大学 | 一种基于视觉注意力机制的无参考视频质量评价方法 |
US11903711B2 (en) | 2022-06-09 | 2024-02-20 | EarliTec Diagnostics, Inc. | Assessing developmental disorders via eye tracking |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5974159A (en) * | 1996-03-29 | 1999-10-26 | Sarnoff Corporation | Method and apparatus for assessing the visibility of differences between two image sequences |
WO1998033315A2 (en) * | 1997-01-06 | 1998-07-30 | Geisler Wilson S | Foveated image coding system and method for image bandwidth reduction |
US6535644B1 (en) * | 1999-07-01 | 2003-03-18 | Koninklijke Philips Electronics N.V. | Hierarchical foveation based on wavelets |
US6442203B1 (en) * | 1999-11-05 | 2002-08-27 | Demografx | System and method for motion compensation and frame rate conversion |
-
2001
- 2001-01-17 US US09/764,726 patent/US6670963B2/en not_active Expired - Lifetime
-
2002
- 2002-01-10 JP JP2002003558A patent/JP3851171B2/ja not_active Expired - Fee Related
- 2002-01-10 EP EP02250180A patent/EP1225769B1/en not_active Expired - Lifetime
- 2002-01-10 DE DE60203056T patent/DE60203056T2/de not_active Expired - Lifetime
- 2002-01-17 CN CNB021016976A patent/CN1203677C/zh not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005032250A (ja) * | 2003-07-08 | 2005-02-03 | Thomson Licensing Sa | 顔を検出する処理方法及び画像中の顔の検出装置 |
JP4658532B2 (ja) * | 2003-07-08 | 2011-03-23 | トムソン ライセンシング | 顔を検出する処理方法及び画像中の顔の検出装置 |
JP2008263604A (ja) * | 2007-04-09 | 2008-10-30 | Tektronix Inc | ビデオ位置予測方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3851171B2 (ja) | 2006-11-29 |
DE60203056T2 (de) | 2005-07-21 |
EP1225769A2 (en) | 2002-07-24 |
CN1203677C (zh) | 2005-05-25 |
EP1225769B1 (en) | 2005-03-02 |
US20020126891A1 (en) | 2002-09-12 |
CN1366422A (zh) | 2002-08-28 |
US6670963B2 (en) | 2003-12-30 |
EP1225769A3 (en) | 2003-10-15 |
DE60203056D1 (de) | 2005-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3851171B2 (ja) | 視覚的注意のモデル化方法 | |
Min et al. | Unified blind quality assessment of compressed natural, graphic, and screen content images | |
Agrawal et al. | A novel joint histogram equalization based image contrast enhancement | |
US6285797B1 (en) | Method and apparatus for estimating digital video quality without using a reference video | |
Rivera et al. | Content-aware dark image enhancement through channel division | |
Tang | Spatiotemporal visual considerations for video coding | |
Jacobson et al. | A novel approach to FRUC using discriminant saliency and frame segmentation | |
JP2008282416A (ja) | コード化する前に画像をセグメントに分割するための方法および装置 | |
KR19990077203A (ko) | 이미지 세그멘테이션 | |
CN106210448B (zh) | 一种视频图像抖动消除处理方法 | |
CN108965879B (zh) | 一种空时域自适应恰可察觉失真的度量方法 | |
CN113327234A (zh) | 基于空时显著性分类和融合的视频重定向质量评价方法 | |
Mi et al. | Multi-purpose oriented real-world underwater image enhancement | |
CN113298763B (zh) | 一种基于显著性窗口策略的图像质量评估方法 | |
Jacobson et al. | Scale-aware saliency for application to frame rate upconversion | |
Xu et al. | Features based spatial and temporal blotch detection for archive video restoration | |
Liu et al. | A Novel Method to Compensate Variety of Illumination in Face Detection. | |
CN112634278B (zh) | 基于超像素的恰可察觉失真方法 | |
JP2010509652A (ja) | 画像信号のノイズ低減 | |
JP2005517257A (ja) | セグメント化装置及び方法 | |
Wang et al. | A human visual system-based objective video distortion measurement system | |
JPH06343140A (ja) | 画像処理装置 | |
Zheng et al. | H. 264 ROI coding based on visual perception | |
CN112911262B (zh) | 一种视频序列的处理方法及电子设备 | |
CN116977228B (zh) | 图像降噪方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20040702 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3851171 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100908 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100908 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110908 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120908 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130908 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |