JP2007515009A - 画像の顕著性マップを生成する装置および方法 - Google Patents

画像の顕著性マップを生成する装置および方法 Download PDF

Info

Publication number
JP2007515009A
JP2007515009A JP2006544432A JP2006544432A JP2007515009A JP 2007515009 A JP2007515009 A JP 2007515009A JP 2006544432 A JP2006544432 A JP 2006544432A JP 2006544432 A JP2006544432 A JP 2006544432A JP 2007515009 A JP2007515009 A JP 2007515009A
Authority
JP
Japan
Prior art keywords
subband
image
luminance component
color
saliency map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006544432A
Other languages
English (en)
Other versions
JP4598778B2 (ja
Inventor
ル ムル オリヴィエ
ソロー ドミニク
フランソワ エドゥワール
ル カレ パトリック
バルバ ドミニク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2007515009A publication Critical patent/JP2007515009A/ja
Application granted granted Critical
Publication of JP4598778B2 publication Critical patent/JP4598778B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Abstract

本発明は、画像の顕著性マップを作成する装置および方法に関する。この方法は、
− 輝度成分(A)にしたがって画像を投影し、またこの画像がカラー画像の場合には、輝度成分(A)および色成分(Cr1,Cr2)にしたがって画像を投影するステップ(E1)と、
− 人間の眼の視感度閾値にしたがって上記成分(A,Cr1,Cr2)の知覚的サブバンド分解を行うステップ(E3,T2,T'2,T''2)と、
− 上記の輝度成分(A)に関連したサブバンドの顕著要素を抽出するステップ(E7)と、
− 上記の輝度成分(A)に関連したサブバンド毎にこの顕著要素の輪郭強調を行うステップ(E8,T7)と、
− 上記の輝度成分(A)に関連したサブバンド毎にこの輪郭強調から顕著性マップを計算するステップ(T7)と、
− サブバンド毎に得たこれらの顕著性マップの関数として上記記顕著性マップを作成するステップ(T8)とを有する。

Description

本発明は、画像の顕著性マップ(saliency map)を生成する装置および方法に関する。
人間情報処理系(human information processing system)は、本質的に制限された系であり、殊に視覚系ついては限られた系である。人間の認識の供給源は限られているが、この系は、その視環境に含まれている大量の情報に立ち向かわなければならないのである。それにも拘わらずまた逆説的であるが、人間はこの問題の解決に成功していると考えられる。それは人間はその視環境を理解できることからである。
視覚系にとって極めて簡単であり、そのために注意資源(attentional resource)を知覚しなくてよいほどの視覚的特徴(visual feature)があると広く考えられている。これらの視覚的特徴は、前注意特徴(pre-attentive feature)と称されている。
視覚研究のこのような考え方によれば、人間注意行動(human attentive behavior)は、前注意処理(pre-attentive processing)と注意処理(attentive processing)との間で共有される。上述のように前注意処理、いわゆるボトムアップ処理は、無意識の注意(involuntary attention)と結びついている。人間の注意は、特に努力することなく、その視野の顕著な部分に向けられる。注意処理、いわゆるトップダウン処理を考察する場合、証明されているのは、人間の注意と、意図している特定のタスクとが結びついていることである。注意のこの第2の形態はより一層意図的かつ強力な注意であり、この形態の注意より、特定の方向を注視しようとする努力が要求されるのである。
画像の顕著点(salient point)を検出することによって可能になるのは、符号化または画像のインデクシング、透かし、ビデオ品質推定など後続のステップを改善することである。
公知のアプローチは多かれ少なかれ、非サイコビジュアル特徴(non-psycho visual feature)に基づいている。このような手法とは異なり、ここで提案される方法がよりどころとしているのは、モデルが、人間視覚系HVS(human visual system)に完全に基づいているということであり、これには例えば初期の視覚的特徴の計算などがある。
第1の様相において本発明により提案されるのは、画像の顕著性マップを生成する方法であり、ここでこれは以下のステップを含む。すなわち、
− 輝度成分にしたがって上記の画像を投影し、またこの画像がカラー画像の場合には輝度成分および色成分にしたがって投影するステップと、
− 人間の眼の視感度閾値(visibility threshold)にしたがって上記成分の知覚的サブバンド分解を行うステップと、
− 輝度成分に関連したサブバンドの顕著要素(salient element)を抽出するステップと、
− 輝度成分に関連したサブバンド毎にこれらの顕著要素の輪郭強調を行うステップと、
− 輝度成分に関連したサブバンド毎にこの輪郭強調から顕著性マップを計算するステップと、
− サブバンド毎に得た顕著性マップの関数として顕著性マップを生成するステップとを含むのである。
第2の様相において本発明により提案されるのは、画像の顕著性マップを生成する装置であり、この装置はつぎのような手段、すなわち、
− 輝度成分にしたがって上記の画像を投影し、また画像がカラー画像の場合は輝度成分および色成分にしたがって画像を投影する手段と、
− 上記の輝度および色信号を周波数領域に変換する手段と、
− 人間の眼の視感度閾値にしたがって、周波数領域の上記成分の知覚的サブバンド分解を行う手段と、
− 輝度成分に関連するサブバンドの顕著要素を抽出する手段と、
− 輝度成分に関連するサブバンド毎に顕著性要素の輪郭強調を行う手段と、
− 輝度成分に関連するサブバンド毎にこの輪郭強調から顕著性マップを計算する手段と、
− サブバンド毎に得られた顕著性マップの関数として顕著性マップを生成する手段とを含むことを特徴する、画像の顕著性マップを生成する装置が提案されるのである。
本発明のその他の特徴および利点は、制限を意図しない本発明の実施形態の説明に記載されている。以下では本発明を添付の図面に基づいて説明する。ここで
− 図1は、白黒画像に適用される本発明の有利な実施形態の一般的なフローチャートを示しており、
− 図2は、カラー画像に適用される本発明の有利な実施形態の一般的なフローチャートを示しており、
− 図3は、無彩色成分(achromatic component)に対するサイコビジュアル空間周波数分割(psycho visual spatial frequency partitioning)を示しており、
− 図4は、有彩色成分(chromatic component)に対するサイコビジュアル空間周波数分割を示しており、
− 図5は、Dallyコントラスト感度関数を示しており、
− 図6aおよび6bは視覚マスキングおよびマスキングの非線形モデルをそれぞれ示しており、
− 図7は、有利な実施形態による正規化ステップのフローチャートを示しており、
− 図8は、抑制/興奮ステップを示しており、
− 図9は、θ=0に対する促進相互作用(facilitative interaction)をモデル化するフィルタのグラフを示しており、
− 図10は、演算子D(z)の図を示しており、
− 図11は、有彩色強化(chromatic reinforcement)ステップを示しており、
− 図12は、CRF側面の隣接エリアによって発生した非CRF抑制を示しており、
− 図13は、所定の方位および半径方向の周波数に対する、正規化された重み付け関数のグラフの例を示している。
図1は、白黒画像に適用される本発明の有利な実施形態の一般的なフローチャートを示している。
このアルゴリズムは、3つの主要部に分かれている。
視感度と称される最初の主要部は、HVS(human visual system)の感度が限られているという事実に基づいている。例えば、HVSは、実際の環境において良好な精度ですべての信号を知覚することなはできず、また小さな刺激を感知することができない。この最初のステップの目標は、知覚的分解、コントラスト感度関数CSF(contrast sensitivity function)およびマスキング関数を使用して、これらの本来的な制限を考慮することである。
第2の部分は、知覚コンセプト専用である。ここでの知覚とは、観察者にとって有益でありかつ無関係な情報によって混乱させられていない記述を、外部世界の複数の画像から生成する処理のことである。関係のある情報を選択するため、生物学的な明証にしたがって殊に中心周辺メカニズム(center surround mechanism)が使用される。
最後のステップは、知覚的群化(perceptual grouping)の領域のいくつかの様相に関連する。知覚的群化とは、画像コンテンツに対する如何なる知識もなしに低レベルでプリミティブな画像特徴から、画像の重要な関係を抽出し、これらを群化して意味のある、より一層高レベルの構造を得ることのできる人間の視覚能力のことである。ここ提案される方法は、輪郭統合(contour integration)およびエッジリンキング(edge linking)だけを対象とする。
ステップE3,E4は、周波数領域の信号に対して実行される。
ステップE1,E6およびE9は空間領域で行われる。
ステップE7およびE8は、周波数または空間領域で行われる。これらが周波数領域で行われる場合、ステップE7の前にフーリエ変換を実行し、またステップE9の前に逆フーリエ変換を実行しなければならない。
ステップE1では、考察している画像から輝度成分を抽出する。
ステップE2では、フーリエ変換のような既知の変換を使用することによって輝度成分が周波数領域に変換され、これによってステップE3において画像に知覚的サブバンド分解が行えるようにする。
ステップE3では、知覚的分解を輝度成分に適用する。この分解は、皮質変換(cortex transform)からヒントを得たものであり、また刊行物"The computation of visual bandwidths and their impact in image decomposition and coding", International Conference and Signal Processing Applications and Technology, Santa-Clara, California, pp. 776-770, 1993に提案された分解に基づくものである。この分解は、人間の目の視感度閾値にしたがって行われる。
精神物理学のさまざまな実験に基づき、上記の分解は、半径方向空間周波数(spatial radial frequency)および方位の両方で周波数領域を切り分けることによって得られる。成分Aの知覚的分解により、図3に示したように4つの冠部(crown)に分配された17個のサイコビジュアルサブバンドが得られる。
図3の斜線部は、第3の冠部に所属するサブバンドのスペクトルサポート(spectral support)を示しており、また15〜45度の30度の角度選択性(angular selectivity)を有する。
空間周波数の4つの領域(冠部)にはI〜IVがラベル付けされている。すなわち、
I:1度当たり0〜1.5サイクルの空間周波数、
II:1度当たり1.5〜5.7サイクルの空間周波数、
III:1度当たり5.7〜14.2サイクルの空間周波数、
IV:1度当たり5.7〜28.2サイクルの空間周波数
である。
上記の角度選択性は、考察する周波数領域に依存する。低い周波数に対して角度選択性は存在しない。
上記の分解の主要な特性および皮質変換との主な違いは、非ダイアディックな半径方向選択性(non-dyadic radial selectivity)と、半径方向周波数(radial frequency)に伴って増大する方位選択性(orientation selectivity)とである。
結果的に得られる各サブバンドは、空間周波数の1範囲および所定の方位に調整された視細胞の集団(population)に相応する神経画像(neural image)と見なすことができる。実際にこれらの細胞は、一次視覚皮質(視覚野1に対する有線領またはV1とも称される)に所属する。これは全部で約20億のニューロンからなり、外側膝状核からその入力を受け取る。約80%の細胞が視覚刺激の空間周波数および方位に対して選択的である。
画像空間スペクトルに対して、HVSのよく知られた特性が適用される。これはCSF(contrast sensitivity function)として知られている。適用されるCSFは、主に空間周波数、方位および視距離(viewing distance)に依存する多変量関数である。
生物学的な明証によって示されているのは、所定のコントラストを上回る刺激に視細胞が応答することである。視細胞が応答するコントラスト値は、視感度閾値(この閾値を上回ると、この刺激が見えるようになる)。この閾値は、刺激の空間周波数、刺激の方位、および視距離などの数多くのパラメタに伴って変化する。このような多様性によって辿り着いたのが、人間の眼の感度(この感度は、コントラスト閾値の逆数に等しい)を多変量関数として表すというCSFの考え方である。その結果、このCSFにより、与えられた刺激に対する人間の目の感度を推定することができる。
ステップE4では、Dallyによって設計された2D非等方性CSFが適用される。このようなCSFは、1992年のproceedings of SPIE Human vision, visual processing and digital display III, volume 1666の刊行物"the visible different predictor: an algorithm for the assessment of image fidelity"の第2〜15頁に記載されている。
上記のCSFによって可能になるのは、眼の重要な特性のモデリングを行うことである。それはSVH細胞は空間周波数に対して極めて感度がよいからである。
このDally CSFは図5に記載されている。
Dally関数を適用した後、ステップE5で逆フーリエ変化を信号に適用して、つぎのステップ6が適用できるようにする。
自然画に対して、別の刺激が存在するによって感度が変わる(視感度閾値を増大または減少させる)ことがある。人間の眼の感度をこのように変わることは、視覚マスキングと称され、ステップE6で行われる。
マスキング効果の説明は図6aおよび6bに示されている。ここでは2つのキュー(cue)、すなわちターゲットキューおよびマスカキュー(masker cue)が考察される。ここでCおよびCはそれぞれ、マスカが存在する場合のターゲットのコントラスト閾値およびマスカのコントラストである。さらにCT0は(マスキング効果なしに)CSFによって測定したコントラスト閾値である。
が変化する場合、3つの領域を定めることができる。すなわち、
・ Cの値が小さい場合、検出閾値は一定のままである。ターゲットの視感度は、マスカによって変更されない。
・ CがCT0の方に進む場合、マスカにより、視感度閾値が低減されることによってターゲットの検出が容易になる。この現象を促進またはペデスタル効果(facilitative or pedestal effect)と称する。
・ Cが増大する場合、ターゲットはマスカによってマスクされる。そのコントラスト閾値は大きくなる。
視覚マスキング法は、正弦波パターンである単純な信号を検出することに基づいている。
精神物理学の実験に基づく視覚マスキングモデリングを得るためには別のいくつかの手法があり、例えば、最善の方法は、量子化ノイズの検出といわれている。
有利な手法が、自然画の本来的な複雑さについて大きく単純化することであることは明らかである。それにもかかわらず、このような原理を中心として数多くのアプリケーション(透かし、ビデオ品質推定)などが作成されており、複雑さに比較して興味深い結果が得られている。
サブバンド分解との関連では、マスキングは集中的に研究されて、イントラチャネルマスキング(intra-channel masking)、インターチャネルマスキング(inter-channel masking)およびインターコンポーネントマスキング(inter-component masking)の3種類のマスキングが定められている。
イントラチャネルマスキングは、同じ特徴(周波数および方位)を有する信号間で発生し、結果的に同じチャネルに所属する。これは最も重要なマスキング効果である。
インターチャネルマスキングは、同じ成分の別のチャネルに所属する信号間で発生する。
インターコンポーネントマスキングは、別の成分(例えば、成分Aおよび1つ色成分)のチャネル間で発生する。これらの最後の2つの視覚マスキングを合わせて、以下では単にインターマスキングと称する。
無彩色成分に対し、ここでは1994年のIEEE international conference on image processingの第16〜20頁に"A visual model for Optimizing the Design of Image Processing Algorithms"という名称の刊行物に記載され、Dallyによって設計されたマスキング関数を使用する。しかしながらこのモデルは、上記のペデスタル効果を考慮していないという事実がある。このモデルの強みは、大量の実験結果によって最適化されている事実である。
視感度閾値の変化は、
Figure 2007515009
によって与えられ、ここでRi,jは、知覚的チャネル分解から得られるサイコビジュアルチャネルである(例えば、図2.1の斜線領域によりチャネルRIII,2)。値k,k,s,bはつぎのようになる。すなわち、
k1 = 0.0153
k2 = 392.5
である。
つぎの表によって示されているのは、考察するサブバンドにしたがったsおよびbの値である。
Figure 2007515009
上記のマスキングステップの出力側において信号R'i,j(x,j)
R'i,j(x,y) =Ri,j(x,y)/Ti,j(x,y)
が得られる。
つぎにステップE7において、正規化のステップにより、サブバンドから重要で主要な情報を抽出することができる。ステップE7は図7に詳しく示されている。
ステップS1では、最初のサブバンドR'i,j(x,y)を選択する。ステップS2〜S4およびS8は、17個のサブバンドの各サブバンドR'i,j(x,j)に対して実行される。
ステップS5〜S7は、第2の冠部(II)に対して行われる。
Iは半径方向空間周波数バンドを表し、Iは{I,II,III,IV}に属する。
Jは方位を表し、jは{1,2,3,4,5,6}に属する。
(x,y)は空間座標を表す。
別の実施形態では、すべてのサブバンドに対して別のステップを実行することが可能である。
ステップS2およびS3は、古典的受容野(CRF classical receptive field)の特性をモデリングすることを目標としている。
CRFのコンセプトによって可能になるのは、網膜画像と、シーンの大域的な知覚との間のリンクを形成することである。CRFは、視野の特定領域として定められ、この特的領域内では(有利な方位および周波数を有する)適切な刺激により、関連した応答が引き起こされ、ここでこれは視細胞から生じたものである。結果として、定義により、外側の領域(周辺部と称される)における刺激は細胞を直接活性化することはできない。
ステップS2およびS3における抑制および興奮は、ガボールフィルタ(Gabor filter)によって得られ、ここでこのフィルタは、方位および周波数を感知することができる。
ガボールフィルタはつぎのように表すことができる。すなわち、
Figure 2007515009
である。ここでfは1度当たりのサイクル数(cy/°)で表したコサイン変調の空間周波数である。
(xθ,yθ)は、元々の座標を(x,y)だけ平行移動し、θだけ回転することによって得られ、
Figure 2007515009
である。ただしAは振幅、σおよびσはそれぞれ、xおよびy軸に沿ったガウス包絡の幅を表す。
Figure 2007515009
楕円の形状を得るために、異なる偏差σ<σとする。
最終的に出力
Figure 2007515009
が得られる。
ステップS3では、抑制が式
Figure 2007515009
によって計算される。
最終的に
Figure 2007515009
になる。
ステップS4において興奮と抑制との間の差分が形成される。正の成分は保持され、負の成分は「0」に設定される。これは演算
Figure 2007515009
である。
ステップS5では方位毎に、第2の領域の各サブバンドに対して2つの合成積が計算される。すなわち
i,j (x,y)=R''i,j(x,y)*B i,j(x,y)
i,j (x,y)=R''i,j(x,y)*B i,j(x,y)
である。B i,j(x,y)およびB i,j(x,y)は2つのハーフバタフライフィルタである。これらのフィルタのグラフによって可能になるのは、図9に示したθ=0に対する促進相互作用のモデリングである。これらのフィルタは、バイポール/バタフライフィルタを使用することによって定められる。
これは方向についての項Dθ(x,y)と、ガウスフィルタGσx,σy(x,y)によってぼやかされた円Cによって生成される近似項とを含む。
Figure 2007515009
であり、φ=arctan(y'/x')、また(x',y')はθi,jだけ回転したベクトル(x,y)である。パラメタαはバイポールフィルタの開き角(opening angle)を定める。これは、考察するサブバンドの角度選択性γに依存する。ここではα=0.4×γとする。バイポールフィルタのサイズは、視細胞のCRFのサイズの約2倍である。
ステップS6では促進係数(facilitative coefficient)
Figure 2007515009
を計算する。
演算子D(z)の説明は図9に示されている。
促進係数の適用を容易にするため、演算子D(z)によって保証するのは、図9に示したようにこの促進係数が区分的に一定であることである。
ステップS7では、促進係数が、ステップS4で得られた正規化の結果に適用される。
R'''i,j(x,y)=R''i,j(x,y)×(1+fiso i,j(x,y))
図1のステップE8に戻ると、図7のステップS7の後、領域IIに対して得た4つの顕著性マップが結合されて、つぎの式による全体的な顕著性マップが得られる。
fixation(x,y)=α×R'''II,0(x,y)+β×R'''II,1(x,y)
+χ×R'''II,2(x,y)+δ×R'''II,3(x,y)
ここでα,β,χ,δは、アプリケーション(透かし、符号化…)に依存する重み付け係数を表す。
別の実施形態では、顕著性マップは、領域IIのサブバンドだけなく17個のすべてのサブバンドを使用して計算することによって得ることができる。
図2は、カラー画像に適用される本発明による方法の有利な実施形態の一般的なフローチャートを示している。
ステップT1,T4,T'4,T''4,T5およびT8は、空間領域において行われる。
ステップT2,T'2,T''2,T3,T'3,T''3は、周波数領域において行われる。
ステップT1と、ステップT2,T'2,T''2との間で3つの成分にフーリエ変換が適用される。
T3とT4,T'3とT'4,T''3とT''4との間でそれぞれ逆フーリエ変換が適用される。
ステップT6およびT7は周波数または空間領域において行うことができる。これらが周波数領域において行われる場合、フーリエ変換が、ステップT5とT6との間で信号に対して行われ、また逆フーリエ変換がステップT7とT8との間で行われる。
ステップT1ではRGB輝度が、基本方向(cardinal direction)A,Cr1およびCr2によって構成されるKrauskopfの反対色空間(opponent color space)に変換される。
反対色空間へのこの変換は、色情報をデコリレート(decorrelate)する1手法である。実際に脳は情報を符号化するために相異なる3つの経路を使用すると考えられており、最初の経路は輝度信号(A)を、第2の経路は赤および緑の成分(Cr1)を、また第3の経路は青および黄色の成分(Cr2)を伝達すると考えられている。
これらの基本方向は、3タイプの錐体(L,M,S)から得られる信号に密接に対応している。
これらの3つの成分RGBの各々は、まずxγ(ただしγ≒2.4)の形のべき法則の非線形性(power-law non linearity)(gamma lawと称される)を受ける。このステップは、ディスプレイシステムの伝達関数を考慮するために必要である。つぎにHVS色空間への変換に対するベースを形成するCIE(フランス語の"commission internationale de l'eclairage"の頭字語)XYZ3刺激値が以下の式によって計算される。
Figure 2007515009
(L,M,S)錐体の応答はつぎのように計算される。
Figure 2007515009
このLMS空間から反対色空間が得られるはずである。ここではさまざまな反対色空間があり、これらは相異なる錐体応答の組み合わせ方が異なる。複数の実験から、Krauskopfによって設計された色空間は、有効性が確認されており、またつぎの変換によって得られる。
Figure 2007515009
つぎにステップT2では知覚的分解が輝度成分に適用される。T2の前、さらにさかのぼってT1の前に、輝度成分は、フーリエ変換などの既知の変換が使用されて周波数領域に変換されている。これにより、ステップT2において知覚的サブバンド分解を画像に適用することができる。
ステップT2の知覚的サブバンド分解は、図1のステップE3と同じであり、ここでは前のようには説明しない。
ステップT'2およびT''2の有彩色成分Cr2およびCr1の分解に関していえば、図4に示したようにこの分解によって、2つの冠部に分配されたこれらのコンポーネント毎に5つのサイコビジュアルサブバンドが得られる。ステップT'2,T''2の前、さらにさかのぼってステップT1の前に色成分は、フーリエ変換などの既知の変換が使用されて周波数領域に変換されている。これにより、ステップT'2,T''2において知覚的サブバンド分解を画像に適用することができる。
空間周波数の2つの領域にはI〜IIのラベルが付与される。すなわち、
I:1度当たりに0〜1.5サイクルの空間周波数
II:1度当たりに1.5〜5.7サイクルの空間周波数
である。
ステップT3,T'3,T''3においてコントラスト感度関数(CSF)が適用される。
ステップT3では図1のステップE4と同じコントラスト感度が輝度成分に実行される。そのためここでは説明しない。
ステップT'3,T''3において、同じCSFが2つの色成分Cr1およびCr2に適用される。これらの2つの有彩色成分には、Le Calletによって設計された2次元の非等方性CSFが適用される。これはLe Calletの刊行物"criteres objectifs avec references de qualite visuelle des images couleurs", University of Nantes, 2001に記載されている。
このCSFは、Cr1およびCr2成分に対してそれぞれ1度当たり約5.5サイクルおよび1度当たり4.1サイクルのカットオフ周波数を有する2つのローパスフィルタを使用する。
異なる視覚モダリティ(無彩色および有彩色成分)から得られる早期の視覚特徴間で直接比較できるようにするため、視感度に関連するサブバンドを重み付けする。上記の視感度閾値は、刺激がまさに見えるようになる特定の点における刺激のコントラストとして定められる。
つぎに逆フーリエ変換を(図2に示されていない)異なる成分に適用して、空間領域においてマスキングが適用できるようにする。
つぎにステップT'4およびT''4中に有彩色成分Cr1およびCr2に対するサブバンドに、またステップT4において無彩色成分に対するサブバンドにイントラマスキングが適用される。この最後のステップについては図1のステップE6の説明ですでに述べた。したがってここでは繰り返して説明しない。
イントラチャネルマスキングは、CSF関数の出力を重み付けするものとして組み込まれている。マスキングは知覚において極めて重要な現象である。それはこれが刺激間の相互作用を表すからである。実際に刺激の視感度閾値は、別の刺激が存在することによって影響され得るのである。
マスキングは、同じ知覚的チャネルまたは同じサブバンドに位置している刺激間で最大である。ここでは、図1のステップE1で説明したDallyによって設計されたイントラマスキング関数を無彩色成分に適用し、また色成分には、P. Le CalletおよびD. Barbaによる刊行物"Frequency and spatial pooling of visual differences for still image quality assesment", in Proc. SPIE Human Vision and Electronic Imaging Conference, San Jose, CA, Vol. 3959, January 2000に記載されているイントラマスキング関数を適用する。
これらのマスキング関数は、LeggeおよびFoleyの刊行物"Contrast Masking in Human Vision", Journal of the Optical Society of America, Vol.70, N12, pp.1458-1471, December 1980に記載された非線形トランスデューサから構成される。
視覚マスキングは、同じ知覚チャネル内に位置する刺激間で最大である(イントラチャネルマスキング)。それにも拘わらず、数多くの研究において示されたように、マスキングまたはペデスタル効果を与え、インターコンポーネントマスキングと称されるいくつかの相互作用が存在する。ここでは精神物理学の実験から、有彩色成分を含む重要な成分間相互作用が選択されている。その結果、無彩色成分の感度は、Cr1成分によって増大または減少することがある。Cr2が無彩色成分に与える影響は、重要でないと考えられる。最終的にCr1により、Cr2成分の感度を変えること(またその逆)も可能である。
つぎにステップT5において有彩色強化が行われる。
色は、最も強く注意を引きつけるものの1つであり、本発明では、つぎの性質を前面に押し出すことによってこの引きつける強さの利点を活用したい。すなわち、鮮やかな色を示し、かつ全く別の色を有するエリアによって完全に包囲されている領域が存在することは、この領域の境界への特に注意が行くことを意味する。
無彩色および有彩色成分から得られる測定値を集計するという困難な問題を回避するため、色促進化(color facilitation)では、有彩色成分の低い周波数について計算した促進係数を使用することによって無彩色構造の顕著性が増強される。
有利な実施形態では、無彩色チャネルからなる集合の1部分集合だけ増強される。この部分集合は、π/4に等しい角度選択性と、[1.5,5.7]に所属する半径方向空間周波数(cyc/degで表される)とを含む。これらのチャンネルはRi,jと記され、ここでiは半径方向空間周波数を表し、またjは方位に関係する。ここの例では、jは{0,π/4,π/2,3π/4}に等しい。促進係数を計算するため、Cr1およびCr2の低周波数のピクセル毎に、隣接エリアのコンテンツおよび増強された無彩色チャネルの目下の方位に関連したコントラスト値を決定する。これは図11に示されているとおりである。図11においてコントラスト値は、集合Aの平均値と集合Bの平均値との間の差の絶対値を計算することによって得られる。集合AおよびBは、Cr1およびCr2の低周波に所属し、また考察する無彩色チャネルの有利な方位を向いている。
有彩色強化は、無彩色(輝度)チャネルRi,j(x,y)についてのつぎの式によって得られる。
(1) i,j=Ri,j(x,y)×(1+|A−B|Cr1+|A−B|Cr2)|i=II
ここで
(1) i,jは強化された無彩色サブバンドを表し、
i,j(x,y)は無彩色サブバンドを表す。
|A−B|は、サブバンドRi,j(x,y)の有利な方位における有彩色成分kについて、目下の点の周りで計算したコントラスト値を表す。これは図7に示したとおりである。この実施形態では集合AおよびBは、π/4に等しい方位を有する有彩色成分kの第1冠部(低周波のサブバンド)のサブバンドに所属する。
別の実施形態ではすべてのサブバンドを考慮することができる。
ステップT6において中心/周辺抑圧相互作用(center/surround suppresive interaction)が行われる。
この処理では最初に抑制/興奮のステップが行われる。
2次元のガウシアンの差分(DoG difference-of-Gaussian)が使用されて、細胞の非CRF抑制特性がモデリングされる。
Figure 2007515009
はつぎ式によって与えられる。すなわち
Figure 2007515009
である。
パラメタ(σ ex,σ ex)および(σ inh,σ inh)は、中心ガウシアン(CRF中心)および抑制ガウシアン(inhibitory Gaussian)(周囲)のxおよびy軸に沿ったガウス包絡の空間的な広がりにそれぞれ相応する。これらのパラメタは、第2冠部の半径方向周波数にしたがって実験的に決定されている(半径方向周波数f∈[1.5,5.7]はサイクル/度で表される)。最後につぎの式
Figure 2007515009
で与えられる正規化された重み付け関数
Figure 2007515009
によって非古典的周囲抑制(non-classical surround inhibition)をモデリングすることができる。
(x',y')は、元々の座標系を(x,y)だけ平行移動し、ラジアンで表されるθi,jだけ回転することによって得られる。
Figure 2007515009
‖・‖はLノルム、すなわち絶対値を表す。
図12は非CRF抑制の構造を示している。
図13は、正規化された重み付け関数
Figure 2007515009
のグラフの例を示している。
特定のサブバンドRi,j (1)(x,y)に対する皮質細胞の応答Ri,j (2)(x,y)は、サブバンドRi,j (1)(x,y)と、重み付け関数
Figure 2007515009
との畳込みによって計算される。すなわち、
Figure 2007515009
であり、H(z)は上記のように定められる。
ステップT7では促進相互作用が行われる。
この促進相互作用はふつう、輪郭強化(contour enhancement)または輪郭統合と称される。
促進相互作用は、CRFの外部において有利な方位軸に沿って発生する。このタイプの相互作用は、中心および周囲の刺激がアイソオリエンテッド(iso-oriented)かつコアラインド(co-aligned)になっている場合に最大になる。言い換えると、いくつかの生理学的な観察によって示されているように、細胞の活動は、CRF内の刺激と、周辺部内の刺激とがリンクされて輪郭を形成する場合に増強されるのである。
前に行われた視覚前処理における輪郭統合は、2つのハーフバタフライフィルタBi,j およびBi,j を使用してシミュレートされる。これらのフィルタのグラフは図9に示されており、これらバイポール/バタフライフィルタによって定められる。これは、方向についての項Dθ(x,y)と、ガウスフィルタGσx,σy(x,y)によってぼかされた円Cによって生成される近似項とからなる。
Figure 2007515009
であり、φ=arctan(y'/x')、また(x',y')はθi,jだけ回転したベクトル(x,y)である。パラメタαはバイポールフィルタの開き角2αを定める。これは、考察するサブバンドの角度選択性γに依存する。ここではα=0.4×γとする。バイポールフィルタのサイズは、視細胞のCRFのサイズの約2倍である。
上記の2つのハーフバタフライフィルタBi,j およびBi,j は、有利なウィンドウを使用することによって上記のバタフライフィルタから後で導き出される。
方位、サブバンドおよび位置毎につぎの促進係数
Figure 2007515009
を計算する。
演算子D(z)の説明は図9に示されている。
上記の促進相互作用から得られるサブバンドR (3) i,jは最終的に、促進係数fiso i,j (x,y)の局所的な最大値と、同じ空間周波数範囲に所属するすべてのサブバンドについて計算した促進係数の大域的な最大値との比に依存するファクタによってサブバンドR (2) i,jを重み付けすることによって得られる。すなわち
Figure 2007515009
である。
標準のバタフライ形から、上記の促進ファクタにより、分離された直線の顕著性を改善することできる。ηisoにより、この促進相互作用の強さを制御することができる。
ステップE8ではステップE7で結果的に得られたすべての足し合わせることによって顕著性マップが得られる。
Figure 2007515009
本発明の別の実施形態では、第2の冠部のサブバンドだけでなく、すべてのサブバンドを使用することが可能である。
水平および垂直方向の方位に調整された皮質細胞は、別の方位に調整された細胞と同様に多数であるが、重み付けは行わない。HVSのこの特徴は、2D非等方性CSFのアプリケーションによる暗黙的な模倣である。
白黒画像に適用される本発明の有利な実施形態の一般的なフローチャートである。 カラー画像に適用される本発明の有利な実施形態の一般的なフローチャートである。 無彩色成分に対するサイコビジュアル空間周波数分割を示す図である。 有彩色成分に対するサイコビジュアル空間周波数分割を示す図である。 Dallyコントラスト感度関数を示す図である。 視覚マスキングおよびマスキングの非線形モデルを示す図である。 有利な実施形態による正規化ステップのフローチャートである。 抑制/興奮ステップを示す図である。 θ=0に対する促進相互作用(facilitative interaction)をモデル化するフィルタのグラフである。 演算子D(z)を示す図である。 有彩色強化ステップを示す図である。 CRF側面の隣接エリアによって発生したCRF抑制を示す図である。 所定の方位および半径方向の周波数に対する、正規化された重み付け関数のグラフの例である。

Claims (9)

  1. 画像の顕著性マップを作成する方法において、
    該方法は、
    − 輝度成分(A)にしたがって画像を投影し、また前記画像がカラー画像の場合には、輝度成分(A)および色成分(Cr1,Cr2)にしたがって画像を投影するステップ(E1)と、
    − 人間の眼の視感度閾値にしたがって前記成分(A,Cr1,Cr2)の知覚的サブバンド分解を行うステップ(E3,T2,T'2,T''2)と、
    − 前記の輝度成分(A)に関連したサブバンドの顕著要素を抽出するステップ(E7)と、
    − 前記の輝度成分(A)に関連したサブバンド毎に当該顕著要素の輪郭強調を行うステップ(E8,T7)と、
    − 前記の輝度成分(A)に関連したサブバンド毎に当該輪郭強調から顕著性マップを計算するステップ(T7)と、
    − サブバンド毎に得た当該顕著性マップの関数として前記顕著性マップを作成するステップ(T8)とを有することを特徴とする、
    画像の顕著性マップを作成する方法。
  2. 前記の知覚的サブバンド分解にさらに、
    − 前記の輝度成分(A)に対して無彩色コントラスト感度関数(CSF)を適用するステップと、前記画像がカラー画像の場合に
    − 有彩色成分(Cr1,Cr2)に対して色感度関数を適用するステップとを有する、
    請求項1に記載の方法。
  3. 前記の輝度成分(A)および色成分(Cr1,Cr2)のサブバンド毎にコントラスト感度関数を適用するステップにさらに視覚マスキングを行うステップ(E6,T4,T'4,T''4)を含む、
    請求項2に記載の方法。
  4. 前記画像がカラー画像の場合、輝度(A)サブバンドを有彩色強化するステップ(T5)を含む、
    請求項3に記載の方法。
  5. 半径方向空間周波数および方位の両方で周波数領域を切り分けることによって前記の知覚のサブバンド分解を得る、
    請求項1から4までのいずれか1項に記載の方法。
  6. 前記の輝度成分(A)の知覚的分解により、4つの冠部に分配された17個のサイコビジュアルサブバンドを得る、
    請求項5に記載の方法。
  7. 前記の色成分(Cr1,Cr2)の知覚的分解により、色成分(Cr1,Cr2)毎に2つの冠部に分配された5つのサイコビジュアルサブバンドを得る、
    請求項5または6に記載の方法。
  8. 前記の第2の冠部のサブバンドに対し、また色成分(Cr1,Cr2)の第1の冠部のサブバンドに基づいて前記の輝度成分(A)の有彩色強化を行う、
    請求項4から7までのいずれか1項に記載の方法。
  9. 画像の顕著性マップを作成する装置において、
    − 輝度成分(A)にしたがって画像を投影し、また前記画像がカラー画像の場合は輝度成分(A)および色成分(Cr1,Cr2)にしたがって画像を投影する手段と、
    − 前記の輝度および色信号を周波数領域に変換する手段と、
    − 人間の眼の視感度閾値にしたがって、当該周波数領域の前記成分の知覚的サブバンド分解を行う手段と、
    − 前記の輝度成分に関連したサブバンドの顕著要素を抽出する手段と、
    − 前記の輝度成分に関連したサブバンド毎に当該顕著性要素の輪郭強調を行う手段と、
    − 前記の輝度成分に関連したサブバンド毎に当該輪郭強調から顕著性マップを計算する手段と、
    − サブバンド毎に得た当該顕著性マップの関数として前記顕著性マップを作成する手段とを有することを特徴とする、
    画像の顕著性マップを作成する装置。
JP2006544432A 2003-12-18 2004-12-14 画像の顕著性マップを生成する装置および方法 Expired - Fee Related JP4598778B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP03293216A EP1544792A1 (en) 2003-12-18 2003-12-18 Device and method for creating a saliency map of an image
PCT/EP2004/053471 WO2005059832A1 (en) 2003-12-18 2004-12-14 Device and method for creating a saliency map of an image

Publications (2)

Publication Number Publication Date
JP2007515009A true JP2007515009A (ja) 2007-06-07
JP4598778B2 JP4598778B2 (ja) 2010-12-15

Family

ID=34486488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006544432A Expired - Fee Related JP4598778B2 (ja) 2003-12-18 2004-12-14 画像の顕著性マップを生成する装置および方法

Country Status (7)

Country Link
US (1) US7853076B2 (ja)
EP (2) EP1544792A1 (ja)
JP (1) JP4598778B2 (ja)
CN (1) CN100478991C (ja)
BR (1) BRPI0417594B1 (ja)
DE (1) DE602004006306T2 (ja)
WO (1) WO2005059832A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009500736A (ja) * 2005-07-06 2009-01-08 トムソン ライセンシング 視覚量から生成された複数の顕著性マップから一つの顕著性マップを得る方法
CN110545412A (zh) * 2018-05-28 2019-12-06 多方科技(广州)有限公司 影像强化方法及计算机系统

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1744279A1 (en) * 2005-07-11 2007-01-17 Thomson Licensing Method and device for filtering an image using side information
EP1764736A1 (en) 2005-09-19 2007-03-21 Thomson Licensing Method and device for image cropping
FR2890517A1 (fr) * 2005-09-08 2007-03-09 Thomson Licensing Sas Procede et dispositif d'affichage d'images
FR2912237A1 (fr) 2007-02-07 2008-08-08 Thomson Licensing Sas Procede de traitement d'image
US7576755B2 (en) 2007-02-13 2009-08-18 Microsoft Corporation Picture collage systems and methods
FR2916931A1 (fr) * 2007-05-29 2008-12-05 Thomson Licensing Sas Procede de selection d'une donnee de codage et dispositif de codage implementant ledit procede
US8330768B2 (en) * 2007-07-27 2012-12-11 Sharp Laboratories Of America, Inc. Apparatus and method for rendering high dynamic range images for standard dynamic range display
EP2071511A1 (en) 2007-12-13 2009-06-17 Thomson Licensing Method and device for generating a sequence of images of reduced size
FR2925705A1 (fr) * 2007-12-20 2009-06-26 Thomson Licensing Sas Dispositif d'aide a la capture d'images
TWI455064B (zh) 2007-12-20 2014-10-01 Thomson Licensing 聲影文件突起映圖之決定方法和裝置
US8285076B2 (en) * 2008-03-27 2012-10-09 The Trustees Of Tufts College Methods and apparatus for visual sub-band decomposition of signals
TWI535267B (zh) * 2008-04-25 2016-05-21 湯姆生特許公司 影像序列的圖像之圖像部位寫碼方法及所用寫碼器和解碼器
US8374436B2 (en) * 2008-06-30 2013-02-12 Thomson Licensing Method for detecting layout areas in a video image and method for generating an image of reduced size using the detection method
EP2173090B1 (en) 2008-10-02 2014-11-05 Thomson Licensing Method for insertion of a layout in a source image
FR2936924A1 (fr) 2008-10-02 2010-04-09 Thomson Licensing Procede de conversion de format d'image avec insertion de bandeau d'information.
JP5334771B2 (ja) 2008-10-07 2013-11-06 トムソン ライセンシング 広告クリップをビデオ系列に挿入する方法、及び対応する装置
KR20100040236A (ko) * 2008-10-09 2010-04-19 삼성전자주식회사 시각적 관심에 기반한 2차원 영상의 3차원 영상 변환기 및 변환 방법
EP2200277A1 (en) 2008-12-22 2010-06-23 Thomson Licensing Method and device to capture images by emulating a mechanical shutter
KR20110106401A (ko) * 2008-12-23 2011-09-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 이미지 스케일링 곡선 생성
EP2247114A1 (en) * 2009-04-29 2010-11-03 Thomson Licensing Method and a device for generating and processing depth data
EP2249307B1 (en) 2009-05-05 2019-07-03 InterDigital Madison Patent Holdings Method for image reframing
JP2010278724A (ja) * 2009-05-28 2010-12-09 Olympus Corp 画像処理装置、画像処理方法及び画像処理プログラム
FR2947979A1 (fr) 2009-07-09 2011-01-14 Thomson Licensing Dispositif de composition video
CN102779338B (zh) * 2011-05-13 2017-05-17 欧姆龙株式会社 图像处理方法和图像处理装置
EP2530642A1 (en) 2011-05-31 2012-12-05 Thomson Licensing Method of cropping a 3D content
AU2011254040B2 (en) * 2011-12-14 2015-03-12 Canon Kabushiki Kaisha Method, apparatus and system for determining a saliency map for an input image
WO2013165565A1 (en) * 2012-04-30 2013-11-07 Nikon Corporation Method of detecting a main subject in an image
CN103424727A (zh) * 2012-05-23 2013-12-04 深圳市贝斯达医疗器械有限公司 一种磁共振图像亮度不均匀修正算法
EP2862346A1 (en) 2012-06-18 2015-04-22 Thomson Licensing A device and a method for color harmonization of an image
EP2709038A1 (en) 2012-09-17 2014-03-19 Thomson Licensing Device and method for detecting the presence of a logo in a picture
WO2014154755A2 (en) 2013-03-28 2014-10-02 Thomson Licensing Method and apparatus for retouching the colors of an image
JP2016519366A (ja) 2013-03-28 2016-06-30 トムソン ライセンシングThomson Licensing 知覚調和マップを作成する方法および装置
EP2849425A1 (en) 2013-09-16 2015-03-18 Thomson Licensing Color video processing system and method, and corresponding computer program
US9070023B2 (en) 2013-09-23 2015-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. System and method of alerting a driver that visual perception of pedestrian may be difficult
CN103700100B (zh) * 2013-12-19 2016-08-31 华中科技大学 一种基于图论的高光谱图像显著度计算方法
WO2015128308A1 (en) * 2014-02-27 2015-09-03 Thomson Licensing Method and apparatus for generating a rotated image of modified size from a source image
EP2916325A1 (en) 2014-03-06 2015-09-09 Thomson Licensing Method and device for processing a picture
EP2947865B1 (en) 2014-05-19 2017-03-22 Thomson Licensing Method for harmonizing colors, corresponding computer program and device
EP2988485A1 (en) 2014-08-20 2016-02-24 Thomson Licensing Methods and apparatus for mapping input image
EP2993668A1 (en) 2014-09-08 2016-03-09 Thomson Licensing Method for editing an audiovisual segment and corresponding device and computer program product
EP3026671A1 (en) 2014-11-26 2016-06-01 Thomson Licensing Method and apparatus for detecting emotional key frame
EP3238213B1 (en) 2014-12-22 2023-06-21 InterDigital CE Patent Holdings Method and apparatus for generating an extrapolated image based on object detection
CN106485247B (zh) * 2016-09-30 2019-04-26 广西师范大学 基于神经元感受野空间结构的显著性检测方法
US11381849B2 (en) * 2018-03-15 2022-07-05 Comcast Cable Communications, Llc Systems, methods, and apparatuses for processing video
US10931977B2 (en) 2018-03-15 2021-02-23 Comcast Cable Communications, Llc Systems, methods, and apparatuses for processing video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207564A (ja) * 1998-12-31 2000-07-28 Eastman Kodak Co 画像の被写体の検出方法
JP2001126070A (ja) * 1999-10-28 2001-05-11 Atr Media Integration & Communications Res Lab 注目領域抽出装置およびそれを用いた自動構図決定装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1433495A (en) * 1993-12-12 1995-06-27 Asp Solutions Usa, Inc. Apparatus and method for signal processing
US6320976B1 (en) * 1999-04-01 2001-11-20 Siemens Corporate Research, Inc. Computer-assisted diagnosis method and system for automatically determining diagnostic saliency of digital images
US6553131B1 (en) * 1999-09-15 2003-04-22 Siemens Corporate Research, Inc. License plate recognition with an intelligent camera
US6421132B1 (en) * 1999-10-15 2002-07-16 Vladimir M. Brajovic Method and apparatus for rapid range imaging
US7123745B1 (en) * 1999-11-24 2006-10-17 Koninklijke Philips Electronics N.V. Method and apparatus for detecting moving objects in video conferencing and other applications
US6473522B1 (en) * 2000-03-14 2002-10-29 Intel Corporation Estimating text color and segmentation of images
WO2002052839A2 (en) * 2000-12-22 2002-07-04 Hewlett-Packard Company Image composition evaluation
US7274741B2 (en) * 2002-11-01 2007-09-25 Microsoft Corporation Systems and methods for generating a comprehensive user attention model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207564A (ja) * 1998-12-31 2000-07-28 Eastman Kodak Co 画像の被写体の検出方法
JP2001126070A (ja) * 1999-10-28 2001-05-11 Atr Media Integration & Communications Res Lab 注目領域抽出装置およびそれを用いた自動構図決定装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009500736A (ja) * 2005-07-06 2009-01-08 トムソン ライセンシング 視覚量から生成された複数の顕著性マップから一つの顕著性マップを得る方法
CN110545412A (zh) * 2018-05-28 2019-12-06 多方科技(广州)有限公司 影像强化方法及计算机系统

Also Published As

Publication number Publication date
EP1544792A1 (en) 2005-06-22
DE602004006306D1 (de) 2007-06-14
US20070116361A1 (en) 2007-05-24
CN100478991C (zh) 2009-04-15
CN1894721A (zh) 2007-01-10
EP1695288A1 (en) 2006-08-30
BRPI0417594A (pt) 2007-03-20
BRPI0417594B1 (pt) 2016-11-22
US7853076B2 (en) 2010-12-14
JP4598778B2 (ja) 2010-12-15
DE602004006306T2 (de) 2008-01-10
EP1695288B1 (en) 2007-05-02
WO2005059832A1 (en) 2005-06-30

Similar Documents

Publication Publication Date Title
JP4598778B2 (ja) 画像の顕著性マップを生成する装置および方法
US8416992B2 (en) Device and method for creating a saliency map of an image
Zhang et al. Underwater image enhancement via extended multi-scale Retinex
Petrovic et al. Gradient-based multiresolution image fusion
US6807300B1 (en) Noise reduction method utilizing color information, apparatus, and program for digital image processing
Johnson et al. Darwinism of color image difference models
WO2013172471A1 (ja) 画像処理装置、画像処理方法、プログラム、印刷媒体、および、記録媒体
CN110120028A (zh) 一种仿生响尾蛇红外和微光图像彩色融合方法及装置
Fukiage et al. Visibility-based blending for real-time applications
Zhang et al. Video salient region detection model based on wavelet transform and feature comparison
Mahmood et al. Human visual enhancement using multi scale retinex
Pouli et al. A survey of image statistics relevant to computer graphics
CN108509830A (zh) 一种视频数据处理方法及设备
EP2902965B1 (en) Heteroptics analysis device, heteroptically-altered image generating device for generating heteroptics to create perception approximating original image, heteroptics analysis method, method for generating heteroptically-altered image to create perception approximating original image, and program
To et al. Perception of suprathreshold naturalistic changes in colored natural images
CN106408565A (zh) 一种弹载图像质量评价方法
Ulucan et al. BIO-CC: Biologically inspired color constancy.
Vanrell et al. Induction operators for a computational colour–texture representation
Lovell et al. Evaluation of a multiscale color model for visual difference prediction
Gao et al. Application of Multimedia Semantic Extraction Method in Fast Image Enhancement Control
Lamicchane et al. Geometric feature based approach for 360 image saliency estimation
CN109446976A (zh) 一种基于子波变换和特征对比的视频大数据信息提取方法
Shohara et al. Measurement of color noise perception
Cho et al. Visible distortion predictors based on visual attention in color images
Pedersen et al. Simulation of image detail visibility using contrast sensitivity functions and wavelets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100729

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100803

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100924

R150 Certificate of patent or registration of utility model

Ref document number: 4598778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees