JP3851171B2 - 視覚的注意のモデル化方法 - Google Patents

視覚的注意のモデル化方法 Download PDF

Info

Publication number
JP3851171B2
JP3851171B2 JP2002003558A JP2002003558A JP3851171B2 JP 3851171 B2 JP3851171 B2 JP 3851171B2 JP 2002003558 A JP2002003558 A JP 2002003558A JP 2002003558 A JP2002003558 A JP 2002003558A JP 3851171 B2 JP3851171 B2 JP 3851171B2
Authority
JP
Japan
Prior art keywords
spatial
importance map
importance
temporal
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002003558A
Other languages
English (en)
Other versions
JP2002247574A (ja
Inventor
ウィルフリード・エム・オスバーガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tektronix Inc
Original Assignee
Tektronix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tektronix Inc filed Critical Tektronix Inc
Publication of JP2002247574A publication Critical patent/JP2002247574A/ja
Application granted granted Critical
Publication of JP3851171B2 publication Critical patent/JP3851171B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Description

【0001】
【発明の属する技術分野】
本発明は、一般に、ビデオ品質の分析方法に関し、特に、ビデオ信号のイメージ内の関心領域を自動的に判断する視覚的注意(以下、単に「視覚注意」ということもある)のモデル化方法に関する。
【0002】
【従来の技術】
適切に同調された初期のビジュアル(視覚)システムのモデルでは、圧縮された自然なイメージにおける可視歪の場所を正確に予測する。忠実なマップから主観的な品質を評価するには、現在の最先端技術の品質測定により、総ての視覚エラーの単純な加重を求める。これは、画像品質の主観的評価の最中に生じるとして知られている任意の高レベル係数又は認知係数を考慮できない。
【0003】
全体的な画像品質に対する歪の影響は、その場面の内容において、その場所により強い影響を受けるとして知られている。人間の視覚系(Human Visual System: HVS)の可変分解能特性では、高い鋭敏さ(acuity)が網膜の中心窩(視軸上にある網膜の小さい桿状体のない陥凹で、明瞭な視覚を与える部分)においてのみ有用であることを示している。なお、この中心窩の直径は、約2度である。通常の目の動きにより場面の知識を得て、中心窩の視覚内にある領域を再配置する。初期の視覚モデルでは、「無限大の中心窩」を仮定しており、即ち、高い鋭敏な中心窩が総ての領域を観察するとの仮定の下に場面を処理していた。しかし、目の動きを考察すると、観察者は、場面の総ての領域を均一に注視していないことが判った。その代わり、いくつかの領域は、人間の視覚注意処理により関心領域(regions of interest: ROI)として識別され、観察者は、まだ注視していない他の領域よりはこれらROIに繰り返し戻る傾向がある。これらROI内の画像忠実度は、画像全体の品質に強い影響を与えるとして知られている。
【0004】
自然な場面を観察する際、選択的に且つ相関的に対象物の目の動きのパターンに人間の注意が向けられ、目の動きが追従するという知識が、人間の視覚的注意の計算モデルを開発するための骨組みとなる。かかる考察により、場面内の画像の動き、ルミナンスのコントラスト、カラーのコントラスト、対象物のサイズ、対象物の形状、人間及び顔、場所に存在する多くの異なる特徴や、対象物が前景の一部か又は背景の一部かにより、人間の注意が影響されることが判った。いくつかの簡単な視覚注意モデルが文献にて提案されている。これらモデルでは、管理されない方法で、場面内のROIを検出しようとしている。これらは、一般的に、複雑でない静止イメージに用いるように設計されている。これらモデルは、典型的な娯楽ビデオで注を引きつけるモデルとして用いるには適さず、多くの欠陥が明らかになっている。これら欠点には、注を引きつける特徴の数が限られている点、異なる特徴に異なる重み付けを適用できない点、セグメント化技術における頑強性が欠如する点、時間的モデルが存在しない点、注意を引きつける特徴を引き出すのに用いるアルゴリズムが簡単すぎる点などがある。広範囲の画像内容と深く関連した動作を検証するモデルが提案されておらず、また、人間の目の動きとの相関も報告されていなかった。
【0005】
例えば、1998年1月26〜29日にアメリカ合衆国合衆国サンホゼで開催されたSPIE学会の論文3299の「ヒューマン・ビジョン・アンド・エレクトロニック・イメージングIII」におけるウィルフレッド・オスバーガ、アンソニー・ジェイ・マエダー及びネイル・バーグマン著「知覚に基づいたMPEGエンコード用量子化技術(A Perceptually Based Quantization Technique for MPEG Encoding)」に記載されている如く、場面において視覚的に重要な領域をインポータンス・マップ(Importance Map: IM)として自動的に判断する技術が開示されている。これらインポータンス・マップは、例えば上述の論文に記載のように、人間の視覚的注意(visual attentionと、目の動きとに影響を与えるとして知られている係数(要因)を組み合わせて生成したマップである。エンコードする際に、視覚的に重要な領域に対しては細かく量子化し、視覚的に重要ではない領域に対しては荒く量子化している。その結果、画像品質において、主観的な改善がなされている。
【0006】
従来技術において、伝統的な再帰分割併合セグメント化方法を用いて、セグメント化を行っている。セグメント化の後、その結果を5個の空間特徴により処理して、コントラスト、サイズ、形状、場所及び背景に関する個別の空間インポータンス・マップを生成する。また、動きも考慮して、時間的インポータンス・マップを生成する。これら個別のインポータンス・マップの各々を二乗して、重要度の高い領域を強調し、等しく重み付けして、最終的なインポータンス・マップIMを生成する。しかし、この技術では、充分ではなかった。
【0007】
【発明が解決しようとする課題】
人間の注意力の特性と目の動きとを用いて、典型的な娯楽ビデオの自然な場面において、どこにROI(関心領域)があるかを予測し、従来技術よりもより一層強力な関心領域自動判断方法が望まれている。
【0008】
したがって、本発明は、人間の注意力の特性と目の動きとを用いて、典型的な娯楽ビデオの自然な場面において、どこにROIがあるかを自動的に予測できる視覚的注意をモデル化(模式化)する方法の提供にある。
【0009】
【課題を解決するための手段】
本発明は、複数の空間的特徴に応じた処理のために、ビデオ・シーケンスの単一フレーム(現在のフレーム)を複数の領域にセグメント化して、対応する複数の空間的インポータンス・マップを生成し、上記単一フレームを以前のフレームと比較して時間的インポータンス・マップを生成し、上記空間的インポータンス・マップ及び上記時間的インポータンス・マップを組み合わせて上記単一フレームの総合インポータンス・マップを生成する視覚的注のモデル化方法であって;ルミナンス及びカラーを用いて、上記単一フレームを複数の領域に適応的にセグメント化する第1ステップ(30)と;複数の空間的特徴により上記領域を処理して、複数の上記空間的インポータンス・マップを生成する第2ステップ(11〜17)と;上記以前のフレームに応じて上記単一フレームを処理して、カメラの動きを補償した上記時間的インポータンス・マップを生成する第3ステップ(22、24)と;目の動きの考察から得た重み付けに応じて上記空間的インポータンス・マップ及び上記時間的インポータンス・マップを組み合わせて、上記単一フレーム用の上記総合インポータンス・マップを生成する第4ステップ(40)とを具えている。
【0010】
本発明は、視覚的注意のモデルを用いて、ビデオ画像内の関心のある領域を自動的に識別する方法を提供するものである。カラー及びルミナンスに基づいて、現在のフレームを複数領域に適応的にセグメント化する。カラー及びスキンを含む複数の空間的特徴のアルゴリズムにより、各領域を並列処理して、各空間的インポータンス・マップを生成する。複数の空間的インポータンス・マップを組み合わせて、全体的空間的インポータンス・マップを生成するが、この組み合わせは、目の動きの考察から得た重み付けに基づいている。現在のフレーム及び以前のフレームも処理して、現在のフレーム用のモーション・ベクトル(motion vector:運動ベクトル)を生成する。その後、時間的インポータンス・マップに変換する前に、これらモーション・ベクトルをカメラの動きに対して補正(修正)する。全体的空間的インポータンス・マップと、時間的インポータンス・マップとを線形重み付けにより組み合わせて、現在のフレーム用の総合インポータンス・マップを生成する。なお、線形重み付け定数は、目の動きの考察から得たものである。また、インポータンス・マップとは、上述のように、人間の視覚的注意と目の動きとに影響を与える要因を組み合わせて生成したマップである。
【0011】
本発明の目的、利点及び新規な特徴は、添付図を参照した以下の詳細説明から更に明らかになろう。
【0012】
【発明の実施の形態】
本発明で用いるインポータンス・マップ(IM)は、領域ベースの(領域を基にした)注モデルに基づいている。注意力に影響を与える多くの特徴が、サイズ及び形状のようにその領域に固有の性質であったり、又は、動き、色、コントラスト及びテキスチャ(質感)などように場面における全体の対象物に自然に関連するので、領域ベースの注モデルは、多数の特徴を含むことが容易である。図1は、本発明による視覚的注意のモデル化方法の好適実施例を説明するブロック図である。この視覚的注意のモデル化方法では、空間的注に関してモデル化を行う手段10と、時間的注に関してモデル化を行う手段20とを具えている。空間的注モデル化手段10は、ビデオの現在のフレームを入力として受ける。このイメージは、セグメント化アルゴリズム手段30により、ルミナンス情報及びカラー情報の両方を用いて、先ず、複数の均質な領域にセグメント化される。カラー、コントラスト、サイズ、形状、場所(位置)、背景及びスキンを含む7つの特徴に対する各領域のインポータンスが、視覚的注意に影響を与えることが知られている。これら特徴によるイメージ処理手段11〜17の柔軟な特性により、付加的な特徴を容易に取り込むことができる。なお、処理手段11は、セグメント化された領域をカラーに応じて処理して、カラーによるインポータンス・マップを生成する。また、処理手段12は、セグメント化された領域をコントラストに応じて処理して、コントラストによるインポータンス・マップを生成する。処理手段13は、セグメント化された領域をサイズに応じて処理して、サイズによるインポータンス・マップを生成する。処理手段14は、セグメント化された領域を形状に応じて処理して、形状によるインポータンス・マップを生成する。処理手段15は、セグメント化された領域を場所に応じて処理して、場所によるインポータンス・マップを生成する。処理手段16は、セグメント化された領域を背景に応じて処理して、背景によるインポータンス・マップを生成する。処理手段17は、セグメント化された領域をスキンに応じて処理して、スキンによるインポータンス・マップを生成する。これら特徴は、人間の目の動きによる校正に基づいて重み付けされる。なお、人間の目の動きは、人間の目の動きの実験データを集めて求めている。各特徴の重みを結合アルゴリズム40に与えて、7つの特徴に基づいた処理手段11〜17の処理結果のインポータンス・マップを重み付けにより組み合わせて、現在のフレームの場面用の空間的インポータンス・マップ(IM)を生成する。
【0013】
空間的注意のモデル化手段10と並列にあり、時間的注をモデル化する手段(モーション・モデル化手段)20は、現在のフレーム及び以前のフレームをモーション・ベクトル(運動ベクトル)アルゴリズム手段22に入力する。モーション・ベクトル・アルゴリズム手段22によりモーション・ベクトルを計算する。このモーション・ベクトルは、各動きの大きさに基づいた場面内の各対象物に対するモーション・インポータンスのアルゴリズム手段24により重み付けされる。結合手段40は、目の追跡実験から集めたデータを用いて、手段20からの運動重み(時間的インポータンス)を手段10における空間重み(空間的インポータンス)と組み合わせて、現在のフレーム用の全体インポータンス・マップを生成する。
【0014】
現在のフレームを図2に示し、これに対応するインポータンス・マップ(IM)を図3に示す。高いインポータンスとして識別されたIM範囲は、明るい色調である。一方、暗い色調の範囲は、注を引きつけない場面部分である。
【0015】
上述した従来技術に対する改良点は、セグメント化の改良、空間コンテキスト(前後関係)特徴の拡張、空間的及び時間的特徴処理アルゴリズムの改良、校正アルゴリズム及び組み合わせアルゴリズムの改良である。
【0016】
セグメント化処理30において、ビデオ・フレームのクリッピングしたバージョン(クリッピングしたビデオ・フレーム)を入力として用いて、イメージの境界が、このモデル化の後での外観に与える影響を避ける。すなわち、24個のオーダのピクセルにおいて、クリッピングによる境界が良好に作用する。関数スプリット(Split)は、カラー情報と共にルミナンス情報を用いて、分割/併合が生じる時点を決める。例として、L***カラー空間を用いることができる。分割の条件は、次の通りである。
((variancelum(Ri)>thsplitlum)&(variancecol(Ri)>thsplitcol)&(size(Ri)>thsize))
ならば、即ち、領域Riにおけるルミナンスの分散がしきい値thsplitlumよりも大きく、且つ、領域Riにおけるカラーの分散がしきい値thsplitcolよりも大きく、且つ、領域Riのサイズがしきい値thsizeよりも大きければ、4象限に分割する。すなわち、仮領域を想定し、この仮領域を階層的に分割している。
なお、variancecol(Ri) = SQRT(variance(Ri(u*))2 + variance(Ri(v*))2)である。SQRTは、平方根を意味し、variance(Ri(u*)は、領域Riにおけるu*の分散であり、variance(Ri(v*)は、領域Riにおけるv*の分散である。また、しきい値thの値は、thsplitlum=250であり、thsplitcol=120である。
【0017】
付加的な変化が関数マージ(Merge)に対しても行われる。セグメント化により、ブロック状の形状を有する大きな領域が生じるという問題を避けるために、組み合わせ(マージ)用のしきい値thmergelumnewは、パラメータscalefactormergeを用いてブロック・サイズに応じて適応(適宜変化)する。このパラメータscalefactormergeは、大きな領域を組み合わせる(併合する)とき、特に、併合すべき2個の領域が同様なサイズのときに、増加する。
thmergelumnew=scalefactormerge*thmergelumold
なお、thmergelumnewは、新たなマージ用しきい値であり、thmergelumoldは、それまでのマージ用しきい値である。*は、乗算を意味する。また、
scalefactormerge = (kmerge*sizemerge + kreduc + 1)/(sizemerge + kmerge + kreduc)
sizemerge = max(kmin*(1/n)ROOT(size(R1)n + size(R2)n)/size(frame)
である。定数パラメータの値は、kmin=256、n=0.25、kmerge=3、kreduc=10及びthmergelumold=500である。size(R1)は、領域R1のサイズであり、size(R2)は、領域R2のサイズであり、ROOTは、平方根を意味し、max()は、()内の最大値を指す。以下のパラメータを用いる点を除いて、同じ技術を用い、カラー組み合わせしきい値thmergecolも変調する。
kmincol=256、ncol=0.5、kmergecol=1.5、kreduccol=0及びthmergecolold=120。
【0018】
従来の組み合わせ関数は、低いテキスチャの領域を高いテキスチャの領域に比較して簡単に組み合わせていた。したがって、2つの領域を組み合わせるか否かを判断するとき、その領域の平均ルミナンス及びカラーを考慮する。平均カラー及び平均ルミナンスのしきい値の両方が互いに依存するので、この領域の平均カラー及びルミナンスに応じて適応的に組み合わせしきい値thmeanmergelumnewを次のように計算する。
もし、((Δcol < thΔ col) &(colmax > thBW))
ならば、即ち、カラーの差(色差)Δcol がしきい値 thΔ colよりも小さく、且つ、カラーの最大値colmaxがしきい値thBWよりも大きければ、
thmeanmergelumnew=thmeanmergelumold+((thΔ col-Δcol)/thΔ col)*(thΔ lum_max-thmeanmergelumold)
である。thmeanmergelumoldは、以前の組み合わせしきい値であり、thΔ lum_maxは、ルミナンスの差の最大値に対するしきい値である。
なお、
Δlum = |gl(R1) - gl(R2)|
Δcol = SQRT((u* R1 - u* R2)2 + (v* R1 - v* R2)2)
colmax = max(u* R1, u* R2, v* R1, v* R2)
であり、Δlumは、ルミナンスの差であり、gl(Ri)は、領域Riの平均グレイ・レベルである。u* Riは、領域Riのu*の値であり、v* Riは、領域Riのv*の値である。定数の値は、thΔ col=14.0、thBW=7.0及びthΔ lum_max=70.0である。
【0019】
ルミナンスが低い範囲では、カラーがしばしば非常に高い値を取るので、低いルミナンスの領域に対する組み合わせしきい値が増加する。これは、図4に示すように実現される。これら定数の値は、次の通りである。
thlolum1=10、thlowlum2=25、thcol=14、及びthcol_lowlum=40。
【0020】
したがって、変調された組み合わせ条件は、次のようになる。
もし、
((var(glR12)<thmergelumnew)且つ(var(colR12)<thmergecolnew)且つ(Δlum<thmeanmergelumnew) 且つ (Δcol<thmeanmergecolnew)) 又は((Δlum<thlumlow) 且つ (Δcol<thcollow)ならば、2つの領域を1つに組み合わせる。そうでなければ、領域を分離させる。なお、var(glR12)は、領域R1及びR2の平均グレイ・レベルの分散であり、var(colR12)は、領域R1及びR2のカラーの分散である。これら定数の値は、thlumlow=12及びthcollow=5である。
小さな領域の除去手順を変化させて、この手順をイメージ分解能から独立させ、小さな領域を最も適切な隣接領域と組み合わせる。これは、次のようになる。
もし、
size(Ri) < (1/ksmall)*size(frame)
ならば、Riを最も近いL*値を有する隣接領域と組み合わせる。
なお、ksmallは、4096に設定できる。size(frame)は、フレームのサイズである。この方法において、セグメント化は、適応であり、より粗となる。
【0021】
インポータンス・マップIMのサイズの特徴は、簡単な2個のしきい値による処理から、4個のしきい値による処理に変化するので、小さ過ぎる又は大き過ぎる領域が、小さ過ぎる領域の代わりに、最小化される。同様に、他の領域と4カ所で接触する境界を共有する領域における最小数のピクセル、又は、尖端エッジと境界を接する領域内の最小数のピクセルを用いて、フレームのエッジを除去するので、背景(による)特徴が変化する。また、場所(による)特徴を変化させて、フレームの中央の4分の1を全く考慮せずに、ゾーン(領域)に応じ、小さな重みを有する中心の周囲における種々のゾーンを考慮して、この中央から縮小する。
【0022】
元のコントラストにおけるインポータンス(コントラスト・インポータンス)I'cont(Ri)は、領域Riと4カ所で接した境界を共有する領域における平均グレーレベルと、このレベルよりも小さい領域Riにおける平均グレーレベルとの間の差として定義できる。まず、領域Riの平均グレーレベルと、その隣接領域との比較は、各隣接領域の絶対値に基づいているので、領域Riよりも高い又は低い平均グレーレベルを有する隣接領域が互いにうち消されることがない。隣接領域がコントラストに影響を及ぼす地域は、2個の領域が有する4個の接した隣接ピクセルの数と乗算された定数に限定される。これにより、大きな隣接領域と、わずかな隣接ピクセルを有する領域とが、コントラスト・インポータンスに過度の影響を及ぼすことを防ぐ。また、サイズの換算係数を用いて、大きな領域に対して、コントラスト・インポータンスI"cont(Ri)が減らされる。さらに、ウェーバー(Weber)及びドフリース・ローズ(deVries-Rose)効果を考慮するために、高いグレースケールの定数を低いグレースケールの定数に対して減らす。最後に、そのフレーム内のコントラストの強さに応じて、コントラストを適応的な方法により0〜1の範囲に正規化する。これを行うことにより、あるコントラストを有する領域のコントラスト・インポータンスI"'cont(Ri)は、非常に高いコントラストの領域を有するフレームにおいて減され、最高のコントラストが小さいフレームにおいては増やされる。
【0023】
上述は、次のようになる。
I'cont(Ri)=(Σj=1-J|gl(Ri)-gl(Rj)|*min(kborder*Bij,size(Ri)))/Σj=1-Jmin(kborder*Bij,size(Ri))
なお、jは、Riと4カ所で接する境界を共にする領域1−Jである。kborderは、隣接領域の影響範囲を制限する定数(例えば、10に設定される)である。Bijは、Riと4カ所で接する境界を共有するRjにおけるピクセルの数である。また、
I"cont(Ri) = ksizescale*I'cont(Ri)
である。なお、ksizescaleが領域のサイズに応じて変化し、小さな領域では大きくなり、大きな領域では小さくなる。さらに、
I"'cont(Ri) = I"cont(Ri)/max(gl(Ri),thdevries)powweber
となる。なお、thdevriesは、ドフリース・ローズ領域のほぼスタートにおけるグレーレベル(50に設定される)であり、powweberは、非線形ウェバーのべき乗(0.3に設定)である。
I”’に対する正規化のしきい値を次のように計算する。
thcont1 = thbase1weber+(min(I"cont)-thbase1weber)*thweight
thcont2 = thbase2weber+(max(I"cont)-thbase2weber)*thweight2high, max(I"cont>thbase2)
又は
= thbase2weber+(max(I"cont)-thbase2weber)*thweight2low, max(I"cont=thbase2)
なお、
thbase1weber = thbase1/128powweber
thbase2weber = thbase2/128powweber
thbase1 = 20
thbase2 = 120
thweight1 = 0.5
thweight2high = 0.25
thweight2low = 0.75
である。
【0024】
多くの隣接領域を有する領域において形状インポータンスを低下させるように形状特徴を変化させて、高すぎる形状インポータンスをかかる領域に割り当てない。また、適応正規化処理を用いて、この形状インポータンスを0〜1の範囲に正規化する。
【0025】
本発明は、カラー特徴を視覚的注意モデルに付加する。RGBファイルが入力として受け入れられ、L***カラー空間に変換される。コントラスト・インポータンスを計算した方法と類似の方法でカラー・インポータンスを計算する。これは、実際には、これら2つの特徴が類似した動作を果たすためである。すなわち、一方が、その背景に対する領域のルミナンス・コントラストを計算し、他方が、その背景に対するカラー・コントラストを計算する。カラー・インポータンスの計算は、u*のカラー・コントラストのインポータンスIu*(Ri)及びv*のカラー・コントラストのインポータンスIv*(Ri)を別々に計算することが始まる。
Iu*(Ri) =Σj=1-J |u*(Ri)-u*(Ri)|*min(kborder*Bij,size(Rj)) / Σj=1-J min(kborder*Bij,size(Rj))
Iv*(Ri) = Σj=1-J |v*(Ri)-v*(Ri)|*min(kborder * Bij,size(Rj)) / Σj=1-J min(kborder * Bij,size(Rj))
次に、これら2つのカラー・インポータンスの計算結果を二乗和の平方根として組み合わせ、換算係数を用いて大きな領域用に減らす。フレーム内のカラー・インポータンスの強さに応じて、適応的な方法にて、カラー・インポータンスを0〜1の範囲で正規化する。この操作を行うことにより、あるカラー・インポータンスを有する領域のカラー・インポータンスは、カラー・コントラストが非常に高いフレームにおいては減少され、最高カラー・コントラストが小さいフレームにおいては増加される。
【0026】
最後に、スキン特徴を追加して、スキンの範囲をそのカラーにより検出する。異なる人種においても、人間のスキン(皮膚)の色は、狭い範囲の値なので、この検出が可能となる。他のカラー空間を用いる際には、色相−飽和−輝度(HSV)カラー空間を選択する。これは、人間のスキンの色が、HSV値の狭い範囲内に集中的に集まるからである。各ピクセルを個別にテストして、その色がスキンの色とマッチングするかを判断する。HSV値(hij、sij、vij)が次の範囲内に入るならば、ピクセルxijをスキンにクラス分けする。すなわち、
もし、((Hmin=hij=Hmax)且つ(Smin=sij=Smax)且つ(Vmin=vij=Vmax))ならば、xijは、スキンである。
テスト・イメージの大型データベースから、クラス分けしきい値の最良値が求まる。しきい値の4つは、次のようになる。[定数]−Hmin=350度、Hmax=40度、Smin=0.2、Vmin=0.35。他の2つのしきい値であるSmax及びVmaxは、図5に示すグラフから、Hの変化に応じて求まる。
【0027】
前もって組み合わせるために、空間的特徴のインポータンス・マップを二乗し、等しく重み付けして、最終的な空間的インポータンス・マップIMを生成する。次に、この最終的なインポータンス・マップを換算して、最高のインポータンスの領域の値を1.0にする。高いインポータンスの領域と低いインポータンスの領域との突然の変化を和らげるために、ブロック処理を行う。これは、n×nブロック内の最大インポータンスをそのブロック内の各ピクセルに割り当てることを含む。しかし、異なる特徴の相対的な影響を理解するために、目の追跡を考察した。人間が、約5秒間にわたって多くの異なる静止画を観察し、また、ビデオを数分間にわたって観察しているとして、一群の人間の目の動きを記録する。どの特徴が人間の目の動きに最も影響を与えるかを判断するために、人間の固定行動(fixation)と各個別の特徴IMとの相関を計算する。これは、最も重要な特徴に応じて分類された領域における固定行動の割合を計算することにより行う。この結果により、空間的特徴の内の3つの特徴である場所(位置)、スキン及び前景/背景が、固定行動との非常に高い相関を有することを示す。他の3つの空間的特徴である形状、カラー及びコントラストは、固定行動に対して低いが依然顕著な影響を有しており、サイズによる影響は、他の特徴による影響よりも非常に小さい。
【0028】
この実験から得た固定行動の相関を用いて、本発明においては、次の新たな特徴重み付けIspatial(Ri)を行う。
Ispatial(Ri) = Σf=1-7(wf poww*If(Rf)powf)
なお、wfは、目の追跡実験からの特徴重み付けである、即ち、場所、前景/背景、スキン、形状、コントラスト、カラー、サイズの各々の重み付けは、0.193、0.176、0.172、0.130、0.121、0.114、0.094である。powwは、特徴重み付けの指数であり、wfの相対的影響力を制御する。例としては、3.0である。powfは、インポータンス・マップ(IM)重み付け指数であり、例として、総ての特徴に対して2.0である。次に、前のようにブロック処理をした後で、空間IMを換算(スケーリング)して、最高のインポータンスの領域を1.0とする。
【0029】
この結果の空間IMは、フレームからフレームにノイズを有するかもしれず、このノイズを減らし、IMの時間的整合性を改善するために、時間的平滑化動作をピクセル・レベルで実施する。(t−m、・・・t+n)フレームの時間的ウィンドウを用いることにより、この時間的ウィンドウから、場所(x、y)における出力IMにより、場所(x、y)をk番目に高いIMとする。k>1に設定することにより、高いインポータンスのスプリアス領域を除去する。例として、n=m=5フレームで、k=2である。
【0030】
従来は、時間的インポータンス・マップ用に階層的ブロック・マッチング技法を用いて、各ブロックの運動ベクトルを計算していた。この結果のベクトルを直接用いて、時間的インポータンスを計算していた。非常に低い動きと非常に高い動きの領域には低いインポータンスを与える一方、中位の動きの領域に最高のインポータンスを割り当てた。この従来技術には、次のような2つの大きな問題があった。(i)真の対象物の動きからカメラの動きを区別する方法がなかったので、ビデオが撮影されている間に、任意のカメラの動き(パン、傾き、ズーム、回転)があると、このモデルはうまく機能しなかった。(ii)インポータンスを特定の動きに割り当てるときに固定しきい値を用いるが、動きの量が異なるビデオ場面にわたって大きく変化するので、これらしきい値は、ビデオ内の動きに適応させる必要がある。
【0031】
図6は、時間的注のモデル化手段のブロック図を示す。従来の時間的処理と同様に、階層的ブロック・マッチング処理にて現在及び前のフレームを用いてモーション・ベクトルを計算する(ブロック60)。カメラのモーション(動き)予測アルゴリズム(ブロック62)にて、これらモーション・ベクトルを用いて、カメラのモーションに関する4つのパラメータ、即ち、パン、ティルティング(傾き)、ズーム及び回転を判断する。次に、これらパラメータを用いて、モーション・ベクトルを修正(補償)して、場面における真の対象物の動きを捕らえる(ブロック64)。テキスチャ的に平坦な領域におけるモーション・ベクトルに確実性がないため、これら領域内における補償されたモーション・ベクトルがゼロに設定される。8×8ブロック内の最小及び最大グレイレベルの差が、45の如きしきい値thflatよりも小さければ、この8×8ブロックを「平坦(flat)」とみなす。最後に、平滑化(スムージング)や、後述の適応しきい値(適応的に変化するしきい値)による処理などのいくつかのステップ(ブロック66)により、補償したモーション・ベクトルを時間的インポータンス(時間的イメージ)の尺度に変換する。
【0032】
カメラの動きを予測するアルゴリズム(ブロック62)は、場面のカットや、3:2のプルダウン(縦横比3:2への変換)や、時間的なサブサンプリングによるフレーム落ちなどを原因として生じた時間的動きにおけるいくつかのジャーキネス(jerkiness:ぎくしゃくとした動き)を検出する。これら時間的な不連続性が生じると、時間的に不連続なフレームからのモーション(動き)情報よりも、むしろ確実なモーション情報を利用できる以前のフレームからのモーション情報を用いる。現在のフレームに時間的な不連続性が検出されれば、10フレーム以上前に戻ったモーション情報を用いてもよい。上述の如く、空間的IMに対して実行したのと同様な方法で、時間的なスムージングを行う。場面カットの一部や、異なるショットの一部であるフレームは、時間的ウィンドウ内に含めない。これら領域からのモーション・ベクトルは確実でないので、低いテキスチャの次の領域に、ゼロの時間的インポータンスを割り当てる。+/−1フレームの時間的ウィンドウに対して計算を行った場合を除いて、「平坦」であるとの判断は、上述と同じである。最後に、適応しきい値による処理を行う、即ち、場面における対象物の動きの量に適応させて、しきい値を計算する。人間の感受性は、多くの高速に移動する対象物により邪魔されないので、少ない移動対象物を有する場面や、遅い動きの対象物を有する場面は、多くの高速に移動する対象物を有する場面よりも、しきい値が小さい。カメラの動きを補償したモーション・ベクトル・マップの98番目のパーセント点(percentile)の如きm番目のパーセント点を用いることにより、場面における動きの量の予測が得られる。動きは、度/秒により測定するので、動きの分解能、即ち、ピクセルの間隔及び視野の距離を知る必要がある。典型的には、ピクセル間隔は、0.25mmであり、視野の距離は、SDTV視野で画像高さの5倍である。高速移動対象物が高速パン又はティルティング移動により追跡される場面において、対象物の動きは、所定しきい値よりも大きいので、その時間的インポータンスは、1.0未満の値に低下するかもしれない。これら生じるのを防止するために、特別な場合を作る。最終的なブロック処理は、空間的IM用に行ったのと同様に、16×16ピクセル・レベルで行う。時間的IMは、既に8×8ピクセル分解能なので、各2×2ブロック用の最大値を取って、全体として16×16ブロック・サイズを得る。
【0033】
空間的インポータンス・マップ(IM)及び時間的IMを組み合わせる線形重み付けは、次のようになる。
total = Kcombspat + (1-Kcomb)Itemp
空間的IM及び時間的IMの両方に対して観察者を固定して比較すると、時間的のみのIMの相関に比較して、空間的のみのIMの相関がわずかに高い。したがって、0.5よりもわずかに大きいkcombの値は、0.6の如き値となる。
【0034】
上述は、空間的IM及び時間的IMの基本的な統合に対して行える総てである。しかし、目の追跡の考察によると、ズーミング、回転又は非常に早い動きのビデオ場面において、観察者は、注意力を場面の中心に非常に強く絞る傾向がある。これら場面の中心領域に更にインポータンスを割り当てるために、次の計算を行う。
motzoomrot = kz1*motionm + kz2*zoom + kz3*rotate + kz4*errorcamera
なお、motionmは、カメラの動きの補償されたモーション・ベクトル・マップのm番目のパーセント点であり、zoom及びrotateは、フレームのズームのパラメータ及び回転パラメータであり、errorcameraは、カメラの動きの予測アルゴリズムによる出力であり、kziは、換算(スケーリング)定数である。中央のスケーリング定数kcentralは、1対のしきい値の間のmotzoomrotの量に応じて、2つの値の間で調整される。そして、新たなインポータンス・マップI'totalは、次のようになる。
I'total = kcentralIcenter + (1-kcentral)Itotal
変数errorcameraが高いと、インポータンス・マップ(IM)の精度が低下して、これらの場合における時間的IMの影響が低下するのに有用かもしれない。これは、エラーが増加するに従ってkcombの値を増やすことにより行える。
【0035】
最後に、目の追跡を考察すると、人間及び顔は、注を非常に強く引きつけることが判った。人間は、一般的には、少なくとも長時間にわたって、完全に静止していないので、特別な場合を作って、動いているスキン領域でのインポータンスを増加させる。これには、次の2つの利点がある。(i)スキンの特性によりスキンであると誤って分類した対象物は、移動しない背景対象物(砂、乾燥牧草、煉瓦の壁)であることがしばしばあるので、モーション情報が含まれていても、これら偽の判断を除去できる。(ii)顔は、低いテキスチャのいくつかの領域をしばしば含んでおり、これら低いテキスチャの領域が低いインポータンスに設定されるので、顔の低いテキスチャ範囲を時々見逃すが、しかし、スキン領域に対する低いテキスチャの拘束を緩めることにより、これら範囲を最早見逃すことがなく、インポータンスが高くなる。よって、各ピクセルに対して、
もし、(Iskin>thskinmot1) 且つ(MVcomp>thskinmot2)
ならば、
Itotal = 1.0
となる。
【0036】
【発明の効果】
よって、本発明により改良された視覚的注意モデル化方法によれば、空間的特徴により空間的インポータンス・マップを生成し、この時間的インポータンス・マップを空間的インポータンス・マップと組み合わせて、フレームの全体的なインポータンス・マップを生成する。したがって、適合セグメント化アルゴリズムを改善できると共に、空間的特徴及び付加的な空間的特徴に対する適合アルゴリズムも改善できる。さらに、目の動きの考察に基づいて組み合わせアルゴリズムも改善でき、より確実で改良された全体的なインポータンス・マップを生成できる。
【図面の簡単な説明】
【図1】本発明による視覚注意力モデル化方法の好適実施例を説明するブロック図である。
【図2】現在のフレームのイメージ画像を示す図である。
【図3】本発明により得たイメージ画像に対する総合インポータンス・マップを示す図である。
【図4】本発明による空間特徴の1つに対するルミナンスによるしきい値の変化を示すグラフ図である。
【図5】本発明によるスキン空間特徴に対する色相によるパラメータ値の変化を示すグラフ図である。
【図6】本発明により時間的インポータンス・マップを生成するブロック図である。
【符号の説明】
10 空間的注意力モデル化手段
11 カラー処理手段
12 コントラスト処理手段
13 サイズ処理手段
14 形状処理手段
15 位置処理手段
16 背景処理手段
17 スキン処理手段
20 時間的注意力モデル化手段
22 モーション・ベクトル・アルゴリズム
24 モーション・インポータンス・アルゴリズム
30 セグメント化アルゴリズム
40 結合アルゴリズム
60 モーション・ベクトルの計算ブロック
62 カメラのモーションの予測ブロック
64 カメラのモーションの修正ブロック
66 平滑化及び適応しきい値ブロック

Claims (5)

  1. 複数の空間的特徴に応じた処理のために、ビデオ・シーケンスの単一フレームを複数の領域にセグメント化して、対応する複数の空間的インポータンス・マップを生成し、上記単一フレームを以前のフレームと比較して時間的インポータンス・マップを生成し、上記空間的インポータンス・マップ及び上記時間的インポータンス・マップを組み合わせて上記単一フレームの総合インポータンス・マップを生成する視覚的注のモデル化方法であって、
    ルミナンス及びカラーを用いて、上記単一フレームを複数の領域に適応的にセグメント化する第1ステップと、
    複数の空間的特徴により上記領域を処理して、複数の上記空間的インポータンス・マップを生成する第2ステップと、
    上記以前のフレームに応じて上記単一フレームを処理して、カメラの動きを補償した上記時間的インポータンス・マップを生成する第3ステップと、
    目の動きの考察から得た重み付けに応じて上記空間的インポータンス・マップ及び上記時間的インポータンス・マップを組み合わせて、上記単一フレーム用の上記総合インポータンス・マップを生成する第4ステップと
    を具えることを特徴とする視覚的注意のモデル化方法。
  2. 上記第1ステップは、
    仮領域のルミナンス分散、カラー分散及びサイズに基づいて上記フレームを複数領域に階層的に分割し、
    上記仮領域内の平均ルミナンス及びカラー分散が各適応しきい値よりも小さく且つ上記仮領域内のルミナンス変化及びカラー変化が各しきい値よりも小さいか、又は上記仮領域内のルミナンス及びカラーの変化が各しきい値よりも小さい場合に、複数の仮領域を組み合わせて上記領域を形成する
    ことを特徴とする請求項1の視覚的注意のモデル化方法。
  3. 上記空間的特徴には、サイズ、背景、場所、コントラスト、形状及びスキンの1組から選択された少なくとも2つを有することを特徴とする請求項1の視覚的注意のモデル化方法。
  4. 上記第4ステップは、
    目の動きの考察から経験的に求めた重み付けに応じて、各空間的インポータンス・マップを重み付けして、その結果の空間的インポータンス・マップを生成し、
    時間的スムージング・アルゴリズムを用いて、上記結果の空間的インポータンス・マップをフレームからフレームにわたってスムージングしてノイズを減らすと共に、時間的整合性を改善して、空間的インポータンス・マップを生成し、
    上記空間的インポータンス・マップを上記時間的インポータンス・マップと組み合わせて、上記総合インポータンス・マップを生成する
    ことを特徴とする請求項1の視覚的注意のモデル化方法。
  5. 上記第3ステップは、
    階層的ブロック・マッチング・アルゴリズムを用いて、現在のフレームの各ブロックに対して、モーション・ベクトルを計算し、
    上記モーション・ベクトルからカメラの動きのパラメータを判断し、
    上記カメラの動きのパラメータに基づいて上記モーション・ベクトルを補償し、
    上記補償されたモーション・ベクトルを時間的インポータンス・マップに変換する
    ことを特徴とする請求項1の視覚的注意のモデル化方法。
JP2002003558A 2001-01-17 2002-01-10 視覚的注意のモデル化方法 Expired - Fee Related JP3851171B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/764,726 US6670963B2 (en) 2001-01-17 2001-01-17 Visual attention model
US09/764,726 2001-01-17

Publications (2)

Publication Number Publication Date
JP2002247574A JP2002247574A (ja) 2002-08-30
JP3851171B2 true JP3851171B2 (ja) 2006-11-29

Family

ID=25071588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002003558A Expired - Fee Related JP3851171B2 (ja) 2001-01-17 2002-01-10 視覚的注意のモデル化方法

Country Status (5)

Country Link
US (1) US6670963B2 (ja)
EP (1) EP1225769B1 (ja)
JP (1) JP3851171B2 (ja)
CN (1) CN1203677C (ja)
DE (1) DE60203056T2 (ja)

Families Citing this family (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020154833A1 (en) * 2001-03-08 2002-10-24 Christof Koch Computation of intrinsic perceptual saliency in visual environments, and applications
US6870956B2 (en) * 2001-06-14 2005-03-22 Microsoft Corporation Method and apparatus for shot detection
KR100474760B1 (ko) * 2001-10-08 2005-03-08 엘지전자 주식회사 영상내의 오브젝트 영역 추출방법
US7054483B2 (en) * 2002-03-15 2006-05-30 Ncr Corporation Methods for selecting high visual contrast colors in user-interface design
TWI281126B (en) * 2002-03-19 2007-05-11 Intervideo Digital Technology Image detection method based on region
WO2003081577A1 (en) * 2002-03-22 2003-10-02 British Telecommunications Public Limited Company Anomaly recognition method for data streams
AU2003215755A1 (en) * 2002-03-22 2003-10-08 British Telecommunications Public Limited Company Comparing patterns
US7010169B2 (en) * 2002-04-15 2006-03-07 Sbc Technology Resources, Inc. Multi-point predictive foveation for bandwidth reduction of moving images
US7499594B2 (en) * 2002-04-15 2009-03-03 At&T Intellectual Property 1, L.P. Multi-resolution predictive foveation for bandwidth reduction of moving images
US7136073B2 (en) * 2002-10-17 2006-11-14 Canon Kabushiki Kaisha Automatic tone mapping for images
US7274741B2 (en) * 2002-11-01 2007-09-25 Microsoft Corporation Systems and methods for generating a comprehensive user attention model
US7116716B2 (en) * 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
BR0215934A (pt) * 2002-11-06 2005-08-16 Agency Science Tech & Res Método para gerar um mapa de significância orientado em qualidade para avaliar a qualidade de uma imagem ou vìdeo
GB0229625D0 (en) * 2002-12-19 2003-01-22 British Telecomm Searching images
US7164798B2 (en) * 2003-02-18 2007-01-16 Microsoft Corporation Learning-based automatic commercial content detection
US7260261B2 (en) * 2003-02-20 2007-08-21 Microsoft Corporation Systems and methods for enhanced image adaptation
US20040207643A1 (en) * 2003-04-18 2004-10-21 Bozidar Janko Attention model enhanced video waveform monitor
US7872635B2 (en) 2003-05-15 2011-01-18 Optimetrics, Inc. Foveated display eye-tracking system and method
US7274740B2 (en) * 2003-06-25 2007-09-25 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
FR2857481A1 (fr) * 2003-07-08 2005-01-14 Thomson Licensing Sa Procede et dispositif de detection de visages dans une image couleur
US7646437B1 (en) * 2003-09-03 2010-01-12 Apple Inc. Look-ahead system and method for pan and zoom detection in video sequences
US7400761B2 (en) * 2003-09-30 2008-07-15 Microsoft Corporation Contrast-based image attention analysis framework
US9325998B2 (en) * 2003-09-30 2016-04-26 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7471827B2 (en) * 2003-10-16 2008-12-30 Microsoft Corporation Automatic browsing path generation to present image areas with high attention value as a function of space and time
US20050123886A1 (en) * 2003-11-26 2005-06-09 Xian-Sheng Hua Systems and methods for personalized karaoke
GB0328326D0 (en) 2003-12-05 2004-01-07 British Telecomm Image processing
US8018850B2 (en) 2004-02-23 2011-09-13 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7826664B2 (en) * 2004-05-24 2010-11-02 Xerox Corporation Systems and methods for efficient manual windowing operation
US7916173B2 (en) * 2004-06-22 2011-03-29 Canon Kabushiki Kaisha Method for detecting and selecting good quality image frames from video
US9053754B2 (en) 2004-07-28 2015-06-09 Microsoft Technology Licensing, Llc Thumbnail generation and presentation for recorded TV programs
US7986372B2 (en) 2004-08-02 2011-07-26 Microsoft Corporation Systems and methods for smart media content thumbnail extraction
KR101016629B1 (ko) * 2004-08-10 2011-02-23 톰슨 라이센싱 비디오에서 움직임의 검출된 정도를 지시하기 위한 장치 및방법
ATE404938T1 (de) 2004-09-17 2008-08-15 British Telecomm Analyse von mustern
US7562056B2 (en) * 2004-10-12 2009-07-14 Microsoft Corporation Method and system for learning an attention model for an image
US7797723B2 (en) * 2004-10-30 2010-09-14 Sharp Laboratories Of America, Inc. Packet scheduling for video transmission with sender queue control
US8356327B2 (en) * 2004-10-30 2013-01-15 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7784076B2 (en) * 2004-10-30 2010-08-24 Sharp Laboratories Of America, Inc. Sender-side bandwidth estimation for video transmission with receiver packet buffer
JP4234089B2 (ja) * 2004-11-16 2009-03-04 株式会社ソニー・コンピュータエンタテインメント エンタテインメント装置、オブジェクト表示装置、オブジェクト表示方法、プログラム、およびキャラクタ表示方法
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
EP1732030A1 (en) * 2005-06-10 2006-12-13 BRITISH TELECOMMUNICATIONS public limited company Comparison of patterns
US7676081B2 (en) * 2005-06-17 2010-03-09 Microsoft Corporation Image segmentation of foreground from background layers
EP1908013B1 (en) * 2005-07-28 2014-04-23 BRITISH TELECOMMUNICATIONS public limited company Image analysis
US7574069B2 (en) * 2005-08-01 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Retargeting images for small displays
US20070067480A1 (en) * 2005-09-19 2007-03-22 Sharp Laboratories Of America, Inc. Adaptive media playout by server media processing for robust streaming
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
US7773813B2 (en) * 2005-10-31 2010-08-10 Microsoft Corporation Capture-intention detection for video content analysis
US8196032B2 (en) 2005-11-01 2012-06-05 Microsoft Corporation Template-based multimedia authoring and sharing
GB2432068B (en) 2005-11-02 2010-10-06 Imagination Tech Ltd Motion estimation
EP1793344A1 (en) 2005-11-30 2007-06-06 THOMSON Licensing Method of emendation for attention trajectory in video content analysis
EP1798961A1 (en) * 2005-12-19 2007-06-20 BRITISH TELECOMMUNICATIONS public limited company Method for focus control
US7692696B2 (en) 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
US7599918B2 (en) 2005-12-29 2009-10-06 Microsoft Corporation Dynamic search with implicit user intention mining
US9544602B2 (en) * 2005-12-30 2017-01-10 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7869043B2 (en) * 2006-01-06 2011-01-11 Sparta, Inc. Automated passive skin detection system through spectral measurement
US8265349B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
WO2007095477A2 (en) 2006-02-14 2007-08-23 Fotonation Vision Limited Image blurring
US7634108B2 (en) * 2006-02-14 2009-12-15 Microsoft Corp. Automated face enhancement
IES20060558A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Image blurring
GB2435360B (en) 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
US7683931B2 (en) * 2006-03-06 2010-03-23 Dell Products L.P. Image artifact detection in video quality benchmarks
KR101225062B1 (ko) * 2006-03-10 2013-01-23 삼성전자주식회사 이미지 프레임의 선택적 출력 장치 및 방법
US7652994B2 (en) * 2006-03-31 2010-01-26 Sharp Laboratories Of America, Inc. Accelerated media coding for robust low-delay video streaming over time-varying and bandwidth limited channels
IES20060564A2 (en) 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
JP2009540636A (ja) * 2006-06-09 2009-11-19 トムソン ライセンシング ビデオ・ピクチャを符号化するためにビット・バジェットを適応的に求める方法及び装置
US8861597B2 (en) * 2006-09-18 2014-10-14 Sharp Laboratories Of America, Inc. Distributed channel time allocation for video streaming over wireless networks
DE102006044114A1 (de) * 2006-09-20 2008-03-27 Forschungszentrum Karlsruhe Gmbh Verfahren zur Charakterisierung der Abgasausbrandqualität in Verbrennungsanlagen
US8285052B1 (en) 2009-12-15 2012-10-09 Hrl Laboratories, Llc Image ordering system optimized via user feedback
US8699767B1 (en) 2006-10-06 2014-04-15 Hrl Laboratories, Llc System for optimal rapid serial visual presentation (RSVP) from user-specific neural brain signals
US8165407B1 (en) 2006-10-06 2012-04-24 Hrl Laboratories, Llc Visual attention and object recognition system
US8214309B1 (en) 2008-12-16 2012-07-03 Hrl Laboratories, Llc Cognitive-neural method for image analysis
GB0619817D0 (en) * 2006-10-06 2006-11-15 Imp Innovations Ltd A method of identifying a measure of feature saliency in a sequence of images
US8363939B1 (en) 2006-10-06 2013-01-29 Hrl Laboratories, Llc Visual attention and segmentation system
US7652993B2 (en) * 2006-11-03 2010-01-26 Sharp Laboratories Of America, Inc. Multi-stream pro-active rate adaptation for robust video transmission
US8300890B1 (en) * 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
DE102007012458A1 (de) * 2007-03-15 2008-09-18 Robert Bosch Gmbh Verfahren zur Objektbildung
US8229229B2 (en) * 2007-04-09 2012-07-24 Tektronix, Inc. Systems and methods for predicting video location of attention focus probability trajectories due to distractions
WO2008129542A2 (en) * 2007-04-23 2008-10-30 Ramot At Tel-Aviv University Ltd System, method and a computer readible medium for providing an output image
US9740949B1 (en) 2007-06-14 2017-08-22 Hrl Laboratories, Llc System and method for detection of objects of interest in imagery
US8774517B1 (en) 2007-06-14 2014-07-08 Hrl Laboratories, Llc System for identifying regions of interest in visual imagery
US9196053B1 (en) 2007-10-04 2015-11-24 Hrl Laboratories, Llc Motion-seeded object based attention for dynamic visual imagery
US9177228B1 (en) 2007-10-04 2015-11-03 Hrl Laboratories, Llc Method and system for fusion of fast surprise and motion-based saliency for finding objects of interest in dynamic scenes
US9778351B1 (en) 2007-10-04 2017-10-03 Hrl Laboratories, Llc System for surveillance by integrating radar with a panoramic staring sensor
US8369652B1 (en) 2008-06-16 2013-02-05 Hrl Laboratories, Llc Visual attention system for salient regions in imagery
WO2010016992A2 (en) * 2008-07-09 2010-02-11 Florida Atlantic University System and method for analysis of spatio-temporal data
US8134578B2 (en) * 2008-07-17 2012-03-13 Xerox Corporation Hybrid importance maps for content aware digital image resizing
CA2739260C (en) * 2008-10-03 2020-07-07 3M Innovative Properties Company Systems and methods for evaluating robustness
US8274533B2 (en) * 2009-02-12 2012-09-25 Xerox Corporation Resizing a digital document image via background content removal
EP2401157A4 (en) * 2009-02-26 2012-08-15 Hewlett Packard Development Co NULL PANTOGRAPHS AND METHODS OF GENERATING THEM
JP5229575B2 (ja) * 2009-05-08 2013-07-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102088597B (zh) * 2009-12-04 2013-10-30 成都信息工程学院 动静结合估计视频视觉显著度的方法
US8649606B2 (en) * 2010-02-10 2014-02-11 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
GB2480422B (en) * 2010-02-25 2014-07-09 Imagination Tech Ltd Object tracking using graphics engine derived vectors in a motion estimation system
JP5589527B2 (ja) 2010-04-23 2014-09-17 株式会社リコー 撮像装置および追尾被写体検出方法
WO2012006007A2 (en) * 2010-07-07 2012-01-12 3M Innovative Properties Company Systems and methods for improving visual attention models
CN101950362B (zh) * 2010-09-14 2013-01-09 武汉大学 一种视频信号的关注度分析系统
JP5627439B2 (ja) * 2010-12-15 2014-11-19 キヤノン株式会社 特徴検出装置、特徴検出方法、およびそのプログラム
US9489732B1 (en) 2010-12-21 2016-11-08 Hrl Laboratories, Llc Visual attention distractor insertion for improved EEG RSVP target stimuli detection
US9489596B1 (en) 2010-12-21 2016-11-08 Hrl Laboratories, Llc Optimal rapid serial visual presentation (RSVP) spacing and fusion for electroencephalography (EEG)-based brain computer interface (BCI)
US8463037B2 (en) * 2011-03-31 2013-06-11 Sony Corporation Detection of low contrast for image processing
AU2011254040B2 (en) * 2011-12-14 2015-03-12 Canon Kabushiki Kaisha Method, apparatus and system for determining a saliency map for an input image
WO2013165565A1 (en) * 2012-04-30 2013-11-07 Nikon Corporation Method of detecting a main subject in an image
US9483109B2 (en) * 2012-07-12 2016-11-01 Spritz Technology, Inc. Methods and systems for displaying text using RSVP
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
MX359676B (es) 2012-12-11 2018-10-05 Shultz Sarah Sistemas y metodos para detectar inhibicion del parpadeo como un marcador de trascendencia de estimulo percibido e implicado.
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9661328B2 (en) 2013-03-15 2017-05-23 Arris Enterprises, Inc. Method of bit allocation for image and video compression using perceptual guidance
US9311338B2 (en) * 2013-08-26 2016-04-12 Adobe Systems Incorporated Method and apparatus for analyzing and associating behaviors to image content
EP3057508B1 (en) 2013-10-17 2020-11-04 Children's Healthcare Of Atlanta, Inc. Methods for assessing infant and child development via eye tracking
JP2015106271A (ja) * 2013-11-29 2015-06-08 株式会社東芝 方法、画像処理装置およびプログラム
US9195903B2 (en) 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
US9373058B2 (en) 2014-05-29 2016-06-21 International Business Machines Corporation Scene understanding using a neurosynaptic system
US9798972B2 (en) 2014-07-02 2017-10-24 International Business Machines Corporation Feature extraction using a neurosynaptic system for object classification
US10115054B2 (en) * 2014-07-02 2018-10-30 International Business Machines Corporation Classifying features using a neurosynaptic system
KR101673879B1 (ko) * 2015-06-30 2016-11-08 주식회사 아이디스 영상 분석 기반의 인코딩 장치 및 방법
US9659371B2 (en) * 2015-10-08 2017-05-23 Christie Digital Systems Usa, Inc. System and method for online projector-camera calibration from one or more images
US10200572B1 (en) * 2016-03-03 2019-02-05 Amazon Technologies, Inc Motion detection
US10799219B2 (en) 2017-04-28 2020-10-13 General Electric Company Ultrasound imaging system and method for displaying an acquisition quality level
CN107330362B (zh) * 2017-05-25 2020-10-09 北京大学 一种基于时空注意力的视频分类方法
US11067448B2 (en) 2018-10-05 2021-07-20 Parsons Corporation Spectral object detection
CN109523562A (zh) * 2018-12-14 2019-03-26 哈尔滨理工大学 一种基于人眼视觉特性的红外图像分割方法
CN111784694A (zh) * 2020-08-20 2020-10-16 中国传媒大学 一种基于视觉注意力机制的无参考视频质量评价方法
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974159A (en) * 1996-03-29 1999-10-26 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two image sequences
AU5901898A (en) * 1997-01-06 1998-08-18 Wilson S. Geisler Foveated image coding system and method for image bandwidth reduction
US6535644B1 (en) * 1999-07-01 2003-03-18 Koninklijke Philips Electronics N.V. Hierarchical foveation based on wavelets
US6442203B1 (en) * 1999-11-05 2002-08-27 Demografx System and method for motion compensation and frame rate conversion

Also Published As

Publication number Publication date
US20020126891A1 (en) 2002-09-12
DE60203056D1 (de) 2005-04-07
EP1225769B1 (en) 2005-03-02
JP2002247574A (ja) 2002-08-30
CN1366422A (zh) 2002-08-28
EP1225769A2 (en) 2002-07-24
US6670963B2 (en) 2003-12-30
EP1225769A3 (en) 2003-10-15
CN1203677C (zh) 2005-05-25
DE60203056T2 (de) 2005-07-21

Similar Documents

Publication Publication Date Title
JP3851171B2 (ja) 視覚的注意のモデル化方法
Tan et al. Exposure based multi-histogram equalization contrast enhancement for non-uniform illumination images
Rivera et al. Content-aware dark image enhancement through channel division
Rao et al. A Survey of Video Enhancement Techniques.
JP5389903B2 (ja) 最適映像選択
JP3862140B2 (ja) ピクセル化されたイメージをセグメント化する方法および装置、並びに記録媒体、プログラム、イメージキャプチャデバイス
EP1400924B1 (en) Pseudo three dimensional image generating apparatus
US20110235905A1 (en) Image processing apparatus and method, and program
JP2008282416A (ja) コード化する前に画像をセグメントに分割するための方法および装置
WO2008153702A1 (en) Face and skin sensitive image enhancement
JP2001118062A (ja) ダイナミックレンジ自動圧縮方法
JP5107342B2 (ja) 精度平滑特性を増大させる画像改善
CN111225162B (zh) 图像曝光的控制方法、系统、可读存储介质及摄像设备
CN109478316B (zh) 实时自适应阴影和高光增强
Hasikin et al. Adaptive fuzzy intensity measure enhancement technique for non-uniform illumination and low-contrast images
Zhang et al. Non-uniform illumination video enhancement based on zone system and fusion
CN113298763B (zh) 一种基于显著性窗口策略的图像质量评估方法
US20100061656A1 (en) Noise reduction of an image signal
JP3731741B2 (ja) カラー動画像処理方法および処理装置
Arora et al. Enhancement of overexposed color images
JP4080276B2 (ja) オブジェクト抽出方法および装置ならびにプログラム
Mu et al. Color image enhancement method based on weighted image guided filtering
JP2005039457A (ja) 画像処理装置および方法
Hillman et al. Semi-automatic foreground/background segmentation of motion picture images and image sequences
Yadav et al. Fusion-based backlit image enhancement and analysis of results using contrast measure and SSIM

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20040702

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060831

R150 Certificate of patent or registration of utility model

Ref document number: 3851171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130908

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees