JP6100300B2 - 階層グラフに基づく画像マッティングおよび前景推定の方法およびシステム - Google Patents

階層グラフに基づく画像マッティングおよび前景推定の方法およびシステム Download PDF

Info

Publication number
JP6100300B2
JP6100300B2 JP2015079069A JP2015079069A JP6100300B2 JP 6100300 B2 JP6100300 B2 JP 6100300B2 JP 2015079069 A JP2015079069 A JP 2015079069A JP 2015079069 A JP2015079069 A JP 2015079069A JP 6100300 B2 JP6100300 B2 JP 6100300B2
Authority
JP
Japan
Prior art keywords
matting
image
graph
cell
affinity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015079069A
Other languages
English (en)
Other versions
JP2016062588A (ja
Inventor
王聖智
曾▲禎▼宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Winbond Electronics Corp
Original Assignee
Winbond Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Winbond Electronics Corp filed Critical Winbond Electronics Corp
Publication of JP2016062588A publication Critical patent/JP2016062588A/ja
Application granted granted Critical
Publication of JP6100300B2 publication Critical patent/JP6100300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像マッティング(image matting)に関するものであり、特に、階層(hierarchical)グラフに基づく画像マッティングおよび前景推定に関するものである。
画像マッティングは、アルファマットと称されるパラメータとともに画像から前景物体を抽出するプロセスである。このプロセスは、例えば、画像や映像の編集、画像レイヤー分解、シーン解析等の有益な応用につながる。画像マッティングにおいて、ピクセルiのピクセル値Iiは、以下のように、前景色値Fiと背景色値Biの線形結合をモデルとすることができる。
式中、αiは、前景色の不透明度(opacity)に対応するアルファマット値を示す。
従来の画像マッティング技術は、一般的に、教師あり(supervised)マッティングと教師なし(unsupervised)マッティングの2種類に分けることができる。教師ありマッティングは、ユーザーの指示により、いくつかのピクセルを「前景」または「背景」のいずれかに標記する。教師ありマッティング法は、これらの標記されたピクセルに基づいて、残りの標記されていないピクセルのアルファマット値を推定する。反対に、教師なしマッティングは、ユーザーの指示なしに入力画像から自動的にアルファマットを推定するのが目的である。
従来の画像マッティング技術には、いくつかの欠点がある。まず、従来の教師なしマッティング技術は、計算集約型である。必要とされる計算を減らすための画像処理スキームは既に提案されているが、これらの既存のスキームは、画像品質を低下させる可能性がある。
第2に、従来の画像マッティング技術により作り出される結果は、常に一致しているとは限らない。マッティング過程中に全体的な(global)情報が欠乏すると、乱雑な情景を有する画像を取り扱う時に、一致した結果を作り出すのが難しくなる。
第3に、従来の教師なしマッティング技術は、画像内容の2分割(binary partitioning)に焦点を当てている。画像は、1つ以上の前景物体を含むことができるため、これらの従来の教師なしマッティング技術により作り出される結果は、あまり実用的なものではない。
本発明の1つの実施形態において、階層グラフモデルに基づく画像マッティング方法は、複数の画像要素(element)を含む入力画像を受信することと;入力画像に基づいて、それぞれ1組の画像要素を含む複数のマッティングセルを生成することと;入力画像に基づいて、複数のマッティングセルのアフィニティ値を計算することと;複数のマッティングセルおよびアフィニティ値に基づいて、マッティングセルを示す複数のノードおよびマッティングセルのアフィニティ値と関連する複数のエッジを含むグラフを形成することと;グラフに基づいて、入力画像の複数のマッティングコンポーネントを生成することを含む。
本発明の別の実施形態において、階層グラフに基づく画像マッティング方法は、複数の画像要素を含む入力画像を受信することと;入力画像に基づいて、画像要素を表示する複数の第1ノードおよび画像要素間のアフィニティ関係を表示する複数の第1エッジを含む第1グラフを形成することと;画像要素を複数のセルにグループ化して、セルを表示する複数の第2ノードおよびセル間のアフィニティ関係を表示する複数の第2エッジを含む第2グラフを形成することと;第2グラフを複数のマッティングコンポーネントに分解して、マッティングコンポーネントを表示する複数の第3ノードおよびマッティングコンポーネント間のアフィニティ関係を表示する複数のエッジを含む第3グラフを形成することと;第3グラフに基づいて、マッティングコンポーネントが入力画像の前景領域に属する確率を確定することを含む。
本発明の別の実施形態において、非一時的なコンピュータ可読記憶媒体は、プロセッサで実行する時に、階層グラフに基づく画像マッティング方法をプロセッサに実行させる指令を記憶する。前記方法は、複数の画像要素を含む入力画像を受信することと;入力画像に基づいて、それぞれ1組の画像要素を含む複数のマッティングセルを生成することと;入力画像に基づいて、複数のマッティングセルのアフィニティ値を計算することと;複数のマッティングセルおよびアフィニティ値に基づいて、マッティングセルを表示する複数のノードおよびマッティングセルのアフィニティ情報を表示する複数のエッジを含むグラフを形成することと;グラフに基づいて、入力画像の複数のマッティングコンポーネントを生成することを含む。
本発明の他の特徴および利点が以下の説明において部分的に述べられ、これらの特徴および利点は、説明から部分的に明らかになり、あるいは、本発明の実施例によって習得されるであろう。これらの特徴および利点は、添付の特許請求の範囲において特別に指摘した要素および組み合わせによって実現および達成されるであろう。
上記の一般的な記載および以下の詳細な説明は、例示的および解釈的なものであり、本発明を限定するものではないことを理解されたい。
本明細書に含まれ、且つ本明細書の一部を構成する添付の図面は、いくつかの実施形態を示すものであり、その記述と共に本発明の原理を説明するために用いられる。
以上のように、本発明は、必要な計算を減らすことができ、且つ画像品質を低下させない。さらに、乱雑な情景を有する画像を取り扱う時に、一致した結果を作り出すことができる。
(a)は、本発明の1つの実施形態に係る階層グラフに基づく画像マッティングの例示的システムのブロック図である。(b)は、本発明の1つの実施形態に係る図1(a)のシステムを実施するコンピュータシステムの概略図である。 本発明の1つの実施形態に係るピクセルレベルグラフに基づく例示的収縮プロセスを示したものである。 本発明の1つの実施形態に係る収縮プロセスを例示的入力画像に応用した時の結果を示したものである。 本発明の1つの実施形態に係る特徴空間に基づくピクセルからセルへのマッピングプロセスを示したものである。 (a)〜(d)は、セルレベルグラフモデルの固定解像度スキームおよび多重解像度スキームの例示的実施形態を示したものである。 本発明の1つの実施形態に係る多重解像度画像パッチに基づくセルレベル処理を示したものである。 本発明の1つの実施形態に係るセルからコンポーネントへのマッピングを示したものである。 入力画像、マッティングセグメントおよびマッティングコンポーネントの例示的実施形態を示したものである。 コンポーネントレベルグラフの1つの例示的実施形態を示したものである。 本発明の1つの実施形態に係るコンポーネントからレイヤーへのマッピングを示したものである。 (a)は、本発明の1つの実施形態に係るセルからレイヤーへの直接マッピングに基づくマッティング結果を示したものである。(b)は、本発明の1つの実施形態に係るセルからコンポーネントへ、それからレイヤーへの多重解像度マッピングに基づくマッティング結果を示したものである。 マッティングレイヤーの例示的実施形態および入力画像の前景領域の可能性図を示したものである。 本発明の1つの実施形態に係る階層グラフに基づく画像マッティングおよび前景推定のプロセスを示したものである。 本発明の別の実施形態に係る階層グラフに基づく画像マッティングおよび前景推定のプロセスを示したものである。
以下、添付の図面を例として、本発明の実施形態を詳細に説明する。各図面および関連説明において、同一または類似する構成要素には、同一の参照番号を使用する。
本発明のいくつかの実施形態に基づき、教師ありマッティングおよび教師なしマッティングを含む画像マッティングを実行する階層フレームワークを開示する。ボトムアップ(bottom-up)のメカニズムに基づき、階層フレームワークは、ピクセル(pixel)からセル(cell)へ、セルからコンポーネント(component)へ、最後はコンポーネントからマッティングレイヤー(matting layer)へと画像データを段階的に圧縮する。さらに具体的に説明すると、階層フレームワークの第1レベル(すなわち、ピクセルレベル)において、まず、画像ピクセルをピクセルからセルへのマッピングによりセルに圧縮する。このマッピングは、特徴空間における隣接データは類似するマッティング値を共有する傾向にあるという仮説に基づいて行われる。この圧縮プロセスは、明らかな品質低下を生じさせずに、スペクトル解析に必要とされる計算を大幅に減らすことができる。
第2レベル(すなわち、セルレベル)において、セルベースの構造は、セルレベルグラスに基づいて、多重スケール(multi-scale)アフィニティ学習(affinity learning)を提供する。乱雑な情景の画像を扱う時、多重スケールアフィニティ学習は、スペクトル解析の性能を効果的に改善することができる。グラフ分割の問題を解決することによって、マッティングコンポーネントは、セルレベルのグラフから自動的に抽出される。
第3レベル(すなわち、コンポーネントレベル)において、コンポーネントレベルグラフを生成し、複数のマッティングレイヤーの推定を行う。さらなる実施形態において、前景確率分布モデルを応用して、可能な前景マットのリストを確率的に生成し、マッティングレイヤーの前景可能性を推定する。
図1(a)は、本発明の1つの実施形態に係る階層グラフに基づく画像マッティングのシステム100を示したものである。システム100は、ピクセル処理モジュール102と、セル処理モジュール104と、コンポーネント処理モジュール106と、レイヤー処理モジュール108と、前景推定モジュール110とを含む。モジュール102〜110は直列に配置され、ピクセル処理モジュール102は、入力データ112を受信し、前景推定モジュール110は、出力データ114を生成する。セル処理モジュール104、コンポーネント処理モジュール106およびレイヤー処理モジュール108は、図1(a)に示した順番に基づいて、中間処理ステップを実行する。モジュール102〜110のうちの1つまたは複数は、システム100から省略してもよい。例えば、レイヤー処理モジュール108を省略し、前景推定モジュール110がコンポーネント処理モジュール106から提供されたデータに基づいて出力データを生成してもよい。
1つの実施形態において、図1(a)に示したモジュール102〜110は、図1(b)に示したプロセッサ122および非一時的なコンピュータ可読媒体124を含むコンピュータシステム120により実施してもよい。プロセッサ122は、例えば、インテル(INTEL)プロセッサ、AMD(Advanced Micro Devices)プロセッサまたは本分野において周知の他のプロセッサ等の中央処理装置(central processing unit, CPU)であってもよい。コンピュータ可読媒体124は、ハードディスク、フラッシュドライブ、CD(compact disc)、DVD(digital Versatile Disc)、RAM(random access memory)、ROM(read-only memory)等を含んでもよく、上述したコンピュータ可読媒体124を配置することにより、ここで開示した画像マッティング技術に関連する指令およびデータを記憶する。上述した指令は、C、C++、BASIC、FORTRAN、JAVA、または本分野において周知の他のプログラミング言語で書かれてもよい。プロセッサ122は、コンピュータ可読媒体124からの指令およびデータを受信して、ここで開示したモジュール102〜110の機能を実行する。
別の実施形態において、モジュール102〜110は、例えば、プログラマブルロジックアレイ、フィールドプログラマブルゲートアレイ、特定用途向け集積回路(ASIC)等のプログラマブル集積回路により実施することができる。
システム100は、さらに、例えば、ディスプレイ128、キーボード126、マウス、タッチパッド、タッチスクリーン等のユーザー入力/出力(input/output, I/O)装置126および128を含んでもよい。例えば、システム100は、キーボード126によりユーザー入力を受信し、ユーザー入力に基づいて、画像マッティング技術を入力データに応用する。システム100は、ディスプレイ128により出力データをユーザーに提供する。
入力データ112はユーザーまたは外部システムにより提供された、または、例えば、ハードディスク、フラッシュドライブ、CD、DVD、RAM、ROM等の記憶媒体から受信した画像データまたは映像データを含んでもよい。入力データ112は、撮像システム(例えば、カメラまたはビデオカメラ)によって取り込まれた任意の自然情景の画像または映像フレームを表示することができる。入力データ112は、コンピュータにより生成された合成または人工情景の画像または映像フレームを表示してもよい。入力データ112により表示される情景は、画像または映像フレームを取り込む撮像システムに比較的近い1つまたは複数の前景物体を含む。上述した情景は、画像または映像フレームを取り込む撮像システムから比較的遠く離れた1つまたは複数の背景物体を含んでもよい。
入力データ112における画像または映像フレームは、例えば、ピクセル等の行と列を含む1つまたは複数の規則的配列構造に配列された画像要素により表示される。各画像要素は、例えば、RGB(Red Green Blue)色空間、CMYK(Cyan Magenta Yellow Key (Black))色空間、または本分野において周知の他の色空間等の色空間に基づいて定義された1つまたは複数の値を含む。1つの実施形態において、各画像要素は、前景物体の中の1つまたは背景物体の中の1つのいずれかと関連するため、画像要素は、一部の前景物体または背景物体を表示する。別の実施形態において、各画像要素は、前景物体の中の1つおよび背景物体の中の1つの組み合わせと関連するため、画像要素は、前景物体と背景物体の間の画像境界に存在する。
出力データ114は、入力データにおける前景物体および/または背景物体と関連する画像要素を識別することができる。1つの実施形態において、出力データ114は、複数の要素を有するマスク(mask)を含む。上述したマスクの各要素は、入力データ112の画像要素と関連し、例えば、アルファマット値等の1つの値を含み、上述したアルファマット値は、前景物体の中の1つの不透明度に対応する。例えば、値が0のマスクの要素は、完全に透明な前景物体または欠乏した前景物体として識別されるため、関連する画像要素は、背景物体と関連する。値が1のマスクの要素は、完全に不透明な前景物体に対応するため、関連する画像要素は、前景物体と関連する。分数値を有するマスクの要素は、前景物体と背景物体の組み合わせに対応することができる。これは、前景物体が部分的に透明である、または画像要素が前景物体と背景物体の間の画像境界に存在する時に発生する。分数値は、関連する画像要素に対する前景物体の貢献を示す。
本発明の本実施形態において、システム100は、階層グラフモデルに基づいて、画像マッティングプロセスを入力データ112に適用する。階層グラフモデルは、例えば、ピクセルレベル、セルレベルおよびコンポーネントレベル等の複数のレベルを含む。したがって、本発明において開示するプロセスは、対応するモジュール102〜110により実行される複数の段階を含む。これらの段階は、例えば、ピクセルレベル処理段階、セルレベル処理段階およびコンポーネントレベル処理段階を含む。コンポーネント処理モジュール106により生成されたデータは、さらに、レイヤー処理モジュール108および前掲推定モジュール110により処理され、出力データ114を生成することができる。これらの段階によりプロセスを進行するに従って、処理されたデータにおける要素の数は、次第に減少するため、前景および入力データ112のアルファマットの有効且つ正確な推定を提供することができる。以下、モジュール102〜110の詳細について、図2〜図10を参照しながらさらに説明を行う。
収縮(contraction)プロセス
1つの実施形態において、ピクセルレベル処理段階は、階層グラフモデルに基づいて、画像マッティングプロセスの第1段階を形成する。ピクセルレベル処理段階は、ピクセル処理モジュール102により実行される。ピクセル処理モジュール102は、入力データ112の中の画像要素(例えば、ピクセル)を密集したセルに圧縮して、後の段階において必要とされる計算を減らすよう構成される。ここで使用する単語「圧縮」は、類似する画像ピクセルを空間的に一つにまとめるプロセスを指す。
ピクセルを圧縮するため、ピクセル処理モジュール102は、グラフベースのエネルギー関数の最小化に基づいて、局所収縮プロセスを応用する。以下、局所収縮プロセスの詳細について説明する。
局所収縮プロセスにおいて、入力データ112(例えば、入力画像)は、まず、グラフを表示する。グラフの頂点(vertex)は、ピクセルごと(pixel-wise)の強度データを表示し、1対の頂点間の各エッジは、対応するピクセルペアの間の関連を表示する。ここで、2つのピクセルiとjの間のアフィニティ値Aq(i,j)は、以下のように定義される。
上記の等式(2)において、IiおよびIjは、ピクセルiとjにおける入力画像Iの色値を示し、μqは、ピクセルのウィンドウωqにおける3×1平均(mean)色ベクトルを示し、Σqは、3×3共分散行列(covariance matrix)を示し、|ωq|は、局所ウィンドウωqにおけるピクセルの数を示し、Uは、3×3単位行列(identity matrix)を示し、εは、平滑領域における過剰適合を防ぐための正則化項(regularization term)を示す。例えば、平滑領域において、Σqにおけるエントリー(entry)は、相対的に小さい値を有するため、ノイズによって生じた比較的小さな偏差がアフィニティ値を大きく変化させる可能性がある。比較的小さな値のεを適切に追加することによって、平滑領域におけるアフィニティ値の変動を効果的に抑制することができる。等式(2)に基づいて、2つのピクセルが類似する色外観を有する場合、これら2者間のアフィニティ値は相対的に大きい。局所ウィンドウωqは、画像全体をスキャンすることによって入力画像における各エッジのいくつかのアフィニティ値を生成する。各エッジのこれらのアフィニティ値から平均値を求めて、ピクセルレベルグラフモデルを生成する。
関数(3)、(4)のそれぞれにおいて、右手側の第1項は、ピクセルを空間的により近くに引く傾向にあるペアワイズ凝集力(pair-wise cohesion force)に対応し、右手側の第2項は、オリジナル画像構造を維持しようとする偏差コスト(deviation cost)に対応する。パラメータλxおよびλyは、収縮の強度を制御するために使用される。
最適な解決方法は、方程式(7)、(8)の上記の線形システムに基づいて解決される。
図2は、本発明の1つの実施形態に係る例示的局所収縮プロセスを示したものである。図2において、入力データ112における入力画像は、初期グラフ202により表示される。各頂点206は、その色値を有する画像ピクセルを示し、各エッジ208は、1対の隣接する画素間のアフィニティ関係を示す。初期グラフ202に収縮プログラムを応用して収縮グラフ204を生成する。このグラフにおいて、相対的に高いアフィニティ値を有するピクセルは、互いに収縮する。
図3は、例示的な入力画像302および局所収縮プロセス後の収縮画像304である。収縮プロセスの後、類似する外観を有するピクセルは互いに収集するが、類似しない外観を有するピクセルは互いに離れる傾向にあることがわかる。
収縮画像全体のピクセルからセルへのマッピングは、N×P二値行列Mに記録され、NおよびPは、それぞれ画像ピクセルおよびセルの総数を示す。ここで、第iピクセルが第jセルにマッピングされた場合、全てのk≠jに対し、M(i,j)=1であり、且つM(i,k)=0である。
1つの実施形態において、パラメータbsおよびbcは、15に設定されるため、セルPの数は、10,000〜20,000である。別の実施形態において、パラメータbsおよびbcは、10〜20の間の任意の値に設定してもよい。さらに別の実施形態において、パラメータbsおよびbcは、状況に応じて、その他の任意の値に設定してもよい。
多重スケールアフィニティおよびセルレベルグラフ
ピクセル処理モジュール102が画像ピクセルをセルに併合した後、セルをセル処理モジュール104に出力し、セル処理モジュール104により各対のセル間のセルのアフィニティ値を確定して、セルレベルグラフモデルを構築する。1つの実施形態において、セル処理モジュール104は、多重スケール(multi-scale)または多重解像度(multi-resolution)方法を応用して、画像ピラミッド(pyramid)からアフィニティ情報を確定する。以下、多重スケールのセルレベルグラフモデルについて、さらに詳しく説明する。
図5(a)〜図5(d)は、固定解像度スキームおよび多重解像度スキームのセルレベルグラフモデルの例示的実施形態を示したものである。このスキームは、異なる空間範囲にあるセル間のアフィニティ値を確定することができる。図5(a)の左側の画像は、正方形の孔を有する円形物体502および小三角形物体504を含む人工情景の画像を示したものである。図5(a)の中間および右側の画像は、それぞれ、ピクセルレベルおよびセルレベルにおける対応する特徴分布を示したものである。ここで、球体は、個々のピクセルを示し、立方体は、個々のセルを示す。
図5(b)および図5(c)は、異なる局所ウィンドウを使用した異なる実施形態を示したものである。局所ウィンドウは、それぞれ3×3のサンプリングピクセルを含み、画像ピクセル周辺のアフィニティ情報を調べる。ここで、各「」の符号は、サンプリングピクセルを示す。図5(b)の左側の図面における局所ウィンドウは、直接隣接するピクセルのみを含む相対的に小さい空間領域を覆い、図5(c)の左側の画像における局所ウィンドウは、より遠くのピクセルを含む相対的に大きな空間領域を覆う。
等式(2)に基づいて、9個のサンプリングピクセルの中の各対のアフィニティ値を決定することができる。図5(b)の中間画像は、特徴空間におけるピクセルペアの被覆率を示したものである。この状況では、隣接するサンプリングピクセルのアフィニティ値しか確定できず、遠範囲のアフィニティ、例えば、孔内のピクセルと円形物体502の外側のピクセルの間のアフィニティは、計算されない。反対に、図2(c)の実施形態では、遠いサンプリングピクセル間のアフィニティを計算するが、例えば、三角形物体504と円形物体502の間の関係のように、細部が失われる可能性もある。
図5(b)および図5(c)の右側の画像は、画像ピクセル併合後のセル間のアフィニティを示したものである。同様にして、スケールの小さいサンプリングウィンドウは、セル間の近範囲のアフィニティを提供し、スケールの大きいサンプリングウィンドウは、セル間の遠範囲のアフィニティを提供する。
近範囲と遠範囲の両方のアフィニティを調べるため、図5(d)の実施形態は、多重スケール方法を使用し、スケールの小さいウィンドウとスケールの大きいウィンドウの両者を使用して、入力画像に対してサンプリングを行う。図5(d)の右側の画像からわかるように、セル間の近範囲および遠範囲のアフィニティ情報は、多重スケールサンプリングスキームに基づいて同時に決定することができる。また、ピクセルレベルのアフィニティ推定と比較して、セルレベルでは、多くの不必要なアフィニティ計算を省略することができる。
別の実施形態に基づくと、多重スケールアフィニティ推定は、1組の多重解像度画像パッチ(patch)におけるアフィニティを計算して実施される。図6は、1つの実施形態の多重解像度画像パッチに基づくセルレベル処理を示したものである。例えば、ガウス(Gaussian)画像ピラミッド604から多重解像度画像パッチ602をサンプリングする。ここで、画像ピラミッド604は、セル処理モジュール104がx軸およびy軸に沿ってダウンサンプリング(down-sampling)プロセスをサンプリング率dsで再帰的に行うことによって、入力画像302から生成される。得られた画像ピラミッド604は、最粗画像604A、1つまたは複数の中間解像度画像604Bおよび最精細画像604Cを含み、最精細画像は、例えば、入力画像302である。スライディングウィンドウ(sliding window)を使用して、画像ピラミッド604における画像604A〜604Cのそれぞれから画像パッチを抽出する。
画像パッチ(例えば、画像パッチ602)に対し、セル処理モジュール104は、局所アフィニティ学習プロセスを応用して、セル間のアフィニティ値を推定する。最粗レイヤー(すなわち、画像604A)において、アフィニティ情報の推定は、図5(c)に示した遠範囲状況と類似しており、アフィニティ情報のいくつかの細部が失われる可能性がある。しかしながら、モジュール104が上述した画像を低解像度画像から高解像度画像に徐々にスキャンするに従って、アフィニティ情報のより多くの細部が得られる。一般的に、大部分のアフィニティ情報は、低解像度画像から抽出することができ、僅かな細部アフィニティ情報のみが高解像度画像から抽出される。そのため、1つの実施形態において、スライディングウィンドウは、最低解像度画像(すなわち、最粗画像604A)からの画像パッチを完全にスキャンし、比較的高い解像度画像(すなわち、画像604Bおよび604C)からの画像パッチのサブセット(subset)のみをスキャンして、セルレベルアフィニティ情報を確定する。
比較的高い解像度画像(すなわち、画像604Bおよび604C)における画像パッチのサンプリングに対し、セル処理モジュール104は、残留ベース(residual-based)のスキームに基づいて、ダウンサンプリングプロセスによる欠損した細部を補償することができる。さらに詳しく説明すると、モジュール104は、個々の低解像度ピクセルおよび高解像度ピクセルをグリッドセルにマッピングして、2組のセルを形成する。この2組のセル間の差は、ダウンサンプリングプロセス後の欠損情報を示す。残留セルに基づいて、セル処理モジュール104は、対応するピクセルを識別し、これらのピクセル周辺にサンプリングパッチを置く。さらに具体的に説明すると、残留セルへマッピングしたピクセルに対し、各ピクセルの中心にある1組のr×rウィンドウを高解像度画像に置いて、高解像度サンプリングパッチを得る。また、1組のスライディングウィンドウを低解像度画像に置いて、低解像度サンプリングパッチを得る。その後、サンプリングパッチからセルレベルアフィニティ情報を計算する。
等式(10)は、Qにおける全てのセルのアルファマット値を対応する画像特徴と関連させる。αqとΦqの両者を与えると仮定すると、最適なβおよびβ0は、下記の二次コスト関数E(β,β0)を最小化することによって導かれる。
等式(14)において、Iqは、Nq×Nq単位行列である。Ωqにおけるセルの局所ラプラシアン行列は、Nq×Nq行列であり、以下のように定義される。
グラフΓqを定義すると仮定すると、頂点は、Ωqにおけるセルを示し、1対の頂点間のエッジは、対応するセルペア間のアフィニティ関係を示す。Γqに対し、対応するグラフラプラシアン行列は、以下のように定義される。
qは、次数行列であり、Aqは、アフィニティ行列である。エントリーAq(i,j)は、セルiとjの間のアフィニティ値を示し、次数行列Dqは、対角行列である。その対角エントリーは、以下のように定義される。
1つの実施形態に基づくと、セルレベルグラフのアフィニティ行列は、明確に定義されない。代りに、上述したアフィニティ情報は、等式(14)に示した局所学習スキームに基づいて導かれる。また、等式(14)におけるコスト関数Jqは、以下のように解釈してもよい。
単一の画像パッチωq内の等式(14)で定義したコスト関数Jqに基づいて局所ラプラシアン行列を確定した後、セル処理モジュール104は、パッチセットSpatch全体における局所コスト関数を積分して、さらに全体的なコスト関数を確定する。ここで、等式(14)のコスト関数Jqは、以下のように書き換えてもよい。
また、等式(20)は、より簡潔な形で書き換えることができる。
等式(24)において、対角行列Dは、CMLのP×P次数行列を表示する。
コンポーネントレベルグラフ
図7は、1つの実施形態に係るセルからコンポーネントへのマッピングを示したものである。セル処理モジュール104が図6に示したセルレベルグラフ606を取得した後、セルレベルグラフ606は、コンポーネント処理モジュール106に出力される。このコンポーネント処理モジュール106は、図7に示すように、上述したセルレベルグラフ606を1組のマッティングコンポーネント702に分解し、コンポーネントレベルグラフを形成して、前景マットの推定に用いる。コンポーネントレベルグラフを構築している間、前景モデルに関するいくつかの先行情報を中に含ませることができる。
セルレベルグラフ606を図7に示したマッティングコンポーネント702に分解するため、コンポーネント処理モジュール106は、スペクトラルクラスタリングを行って、硬判定(hard-decision)マッティングセグメントを生成した後、最適化プロセスを応用して、硬判定マッティングセグメントを軟判定(soft-decision)マッティングコンポーネントに変換または精緻化(refining)する。図8は、入力画像802、マッティングセグメント804およびコンポーネント処理モジュール106により生成されたマッティングコンポーネント806の例示的実施例を示したものである。
式中、Icは、P×P単位行列を示す。図8からわかるように、より詳細なマッティング値は、初期マッティングセグメント804よりもマッティングコンポーネント806において得られる。
マッティングコンポーネントが確定した後、コンポーネント処理モジュール106は、コンポーネントレベルグラフを生成する。コンポーネント処理モジュール106は、セルレベルグラフを圧縮することにより、またはダイバージェンスベース(divergence-based)のプロセスにより、コンポーネントレベルグラフを生成する。1つの実施形態において、コンポーネント処理モジュール106は、セルレベルマッティングラプラシアン行列をコンポーネントレベルマッティングラプラシアンLcondensedに圧縮することにより、コンポーネントレベルグラフを生成する。ここで、T=[α1,...,αK]がK個のマッティングコンポーネントのアルファマットベクトルにより形成されたP×K個の行列を示すと仮定し、以下のように、この行列をコンポーネントレベルマッティングラプラシアンLcondensedの計算に用いる。
式中、DKLは、対角次数行列であり、以下のように定義される。
任意のコンポーネントペアに対し、高ダイバージェンス値は、低アフィニティ値に対応する。したがって、コンポーネント処理モジュール106は、シグモイド(sigmoid)関数を使用して、コンポーネントmとnのアフィニティAKL(m、n)を以下のように定義する。
最後に、ダイバージェンスベースのラプラシアン行列LKLは、以下のように計算される。
コンポーネント処理モジュール106は、その後、ダイバージェンスベースのラプラシアンLKLを圧縮したマッティングラプラシアンLcondensedと併合することによって、コンポーネントレベルグラフラプラシアンLcompを計算する。
等式(33)において、λKLは、LcondensedとLKLの間の貢献を平衡させるためのパラメータである。コンポーネント処理モジュール106は、圧縮したマッティングアフィニティ度の合計とKLアフィニティ度の合計の間の比率に基づいて、以下のようにλKLを計算する。
図9は、図7のマッティングコンポーネント702に基づいてコンポーネント処理モジュール106により生成された例示的コンポーネントレベルグラフ902を示したものである。
コンポーネントからレイヤーへのマッピング
1つの実施形態に基づき、コンポーネント処理モジュール106は、上述したコンポーネントレベルグラフラプラシアンLcompを計算した後、レイヤー処理モジュール108は、データを受信し、コンポーネントレベルのスペクトラルクラスタリングに基づいて、コンポーネントからレイヤーへのマッピングプロセスを応用する。図10は、コンポーネントからレイヤーへのマッピングプロセスの例示的実施形態を示したものであり、図7に示したマッティングコンポーネントは、コンポーネントレベルグラフ902に基づいて、複数のレイヤー1002にマッピングされる。
システム100は、セルからマッティングレイヤーに直接クラスタリングを行わず、セルからコンポーネントへのマッピングとコンポーネントからレイヤーへのマッピングにより、画像データに対してスペクトラルクラスタリングを2回行う。具体的に説明すると、システム100は、まず、セルをコンポーネントにクラスタリングしてから、コンポーネントをレイヤーにクラスタリングする。例えば、図6のグラフ606等のセルレベルグラフに基づいて、システム100は、多重解像度の局所アフィニティ学習スキームに基づいて、グラフ頂点のアフィニティ値を局所的に計算し、より短範囲のアフィニティ情報を調べる。また、例えば、図9のグラフ902等のコンポーネントレベルグラフに基づいて、システム100は、各対のコンポーネント間のアフィニティ値を計算し、近範囲と遠範囲アフィニティ情報の両方を含む完全結合グラフ(fully connected graph)を生成する。この完全結合グラフに基づいて、システム100は、セルレベル分析のみを行う場合と比較して、より全体的なスケールにおいてアフィニティ情報を調べることができる。図11(a)は、1つの実施形態に係るセルからレイヤーへのマッピングに基づくマッティング結果を示したものである。図11(a)において、セルは、直接2レイヤー、3レイヤー、4レイヤーおよび5レイヤーにクラスタリングされる。これと比較して、図11(b)は、1つの実施形態に係るセルからコンポーネント、レイヤーへの多重解像度マッピングに基づくマッティング結果を示したものである。図11(b)において、まず、セルをコンポーネントに分解してからコンポーネントをレイヤーにクラスタリングすることによって、セルに対して2段階のクラスタリングを応用する。まず、画像をより多くのコンポーネントに分解した後、コンポーネントからレイヤーへのマッピングを行うことにより、システム100は、より合理的な結果を得る。
前景推定
レイヤー処理モジュール108においてマッティングレイヤーを生成した後、前景推定モジュール110は、マッティングレイヤーを受信し、マッティングレイヤーに対して確率推定プログラムを応用して、前景情報を推定する。ここで、前景推定モジュール110は、関連するマッティングコンポーネントに基づいて各マッティングレイヤーを処理するとともに、各マッティングコンポーネントに対して確率スキーム(probabilistic scheme)を応用して、前景物体の一部の確立を推定する。
さらに具体的に説明すると、前景推定モジュール110は、確率分布モデルp(b)=p(b1,...,bK)を生成する(式中、1≦k≦Kに対し,bk∈[0,1])。マッティングコンポーネントkに対し、このコンポーネントが前景コンポーネントであると識別された時、前景推定モジュール110は、bk=1に設定する;そうでない時は、bk=0に設定する。上述した定義に基づいて、各ベクトルbは、前景マット仮定を示し、マッティングコンポーネントの集合に対応する。前景推定モジュール110が全ての可能なb’s確立分布モデルp(b)を導き出すと、前景推定モジュール110は、前景マットを示す可能性がより高いb’sのサブセットを選択する。
1つの実施形態に基づき、分布モデルp(b)は、相対的に高アフィニティを有する1対のコンポーネントは同じ前景インデックスを共有するという一致性の仮定に基づく。したがって、これら2つのコンポーネントは、いずれも前景であるか、いずれも背景である傾向にある。図3の入力画像302を1つの実例として使用し、正面の2つの花を2つのマッティングコンポーネントに分けると仮定する。上述した2つのマッティングコンポーネントのうちの1つが前景コンポーネントに分類されると、同時にもう1つも前景コンポーネントであるという確率が比較的高い。
この一致性の仮定に基づき、前景推定モジュール110は、コンポーネントレベルラプラシアン行列Lcompに基づいて与えられたベクトルを評価し、以下のように定義される「不一致性(inconsistency)」の測度を確定する。
等式(38)の定義に基づき、不一致性値dfb(b)が比較的低いベクトルbは、対応するマッティングコンポーネントの集合が前景マットの一部である確率が比較的高い。しかしながら、これは、この測定のみにより適切な前景ベクトルが簡単に見つかるという意味ではない。1つの実例において、エントリーが全て1(または全て0)のbベクトルは、ゼロ不一致性に対応し、望ましい結果ではない可能性がある。
別の実施形態に基づくと、上述した問題を回避するため、前景推定モジュール110は、さらに、前景領域と背景領域の間の比率は過度に不均衡になるべきではないという仮定に基づいて、バランシングウェイト(balancing weight)を応用する。バランシングウェイトη(b)は、以下のように定義される。
この加重された不一致性測度を利用して、確率分布モデルは、以下のように定義される。
1つの実施形態に基づくと、システム100は、入力画像の相対的に小さい数(通常、10〜20)のマッティングコンポーネントを生成する。したがって、前景推定モジュール110は、全ての可能なb’sを生成することができ、各ベクトルbに対して対応するdfb(b)をチェックする。別の実施形態に基づくと、前景推定モジュール110は、相対的に大きなdfb(b)値を有するb’sを無視して、相対的に小さなdfb(b)値を有するb’sのみに焦点を合わせることにより、計算効率を向上させることができる。
等式(40)および(41)に基づいて、前景推定モジュール110は、マッティングコンポーネントの組み合わせがコンポーネントラプラシアン行列Lcompと一致し、残りのコンポーネントと平衡を保っている場合、対応するpf(b)は、相対的に大きな値を有する。しかしながら、任意のbおよびその補集合(1-b)に対して、pf(b)とpf(1-b)の値は、実際には等しい。そのため、前景および背景マッティングは、等式(40)における不一致性測度に基づいて簡単に互いを区別することができない。別の実施形態に基づくと、前景推定モジュール110は、さらに、マットの凸性(convexity)およびその補集合(complement)の凸性を評価する。前景推定モジュール110は、その後、前景マットは通常凸状になる傾向があるという仮定に基づいて、前景マットを識別する。ここで、凸性は、マットとその対応する凸包(convex hull)の間の面積比に基づいて測定される。任意のbと1-bの間の凸性を比較することによって、前景推定モジュール110は、凸性が相対的に低いマッティングコンポーネントを除去する。
図12は、マッティングレイヤー1202〜1220の例示的実施形態および入力画像302の前景領域の可能性図1222を示したものである。入力画像302のマッティングコンポーネント1202〜1218は、最大pf(b)値を有する10個のb’s(すなわち、ランク1〜ランク10)に対応する。これらのマットは、通常、前景領域(つまり、花の領域)と大きく重複する。したがって、ξが最大pf(b)値を有する主要な前景ベクトルセットを示す場合、前景推定モジュール110は、以下のように、前景ベクトルbFGをξにおけるbベクトルの期待値として定義される。
等式(42)に基づいて、前景推定モジュール110は、以下のように、前景マットの前景可能性図をコンポーネントレベルアルファマット値の加重和として計算する。
図12に示すように、例示的可能性図1222は、画像ピクセルが入力画像302の前景領域に属する可能性を反映する。
式中、1Pは、P×1個の全ての1ベクトルを示す。図11(b)は、各マッティングレイヤーの前景因子の値を示す。一般的に、相対的に大きな前景因子を有するマッティングレイヤーは、前景領域の一部である可能性がさらに高い。
図13は、1つの実施形態に係る階層グラフに基づく画像マッティングおよび前景推定のプロセス1300のフローチャートである。プロセス1300は、上述した技術に基づいて、システム100において実施される。具体的に説明すると、プロセス1300に基づき、ステップS1302において、入力画像を受信する。入力画像は、例えば、ピクセル等の複数の画像要素を含む。各ピクセルは、例えば、色空間に基づいて定義された色値を含む。ステップ1304において、入力画像に基づいて、複数のマッティングセルを生成する。各マッティングセルは、1組の画像要素を含む。マッティングセルは、まず、入力画像に対して収縮プロセスを応用した後、画像要素の中のアフィニティ関係に基づいて、収縮画像要素をマッティングセルにマッピングすることにより生成される。
ステップ1306において、入力画像に基づいて複数のマッティングセルにアフィニティ値を計算する。アフィニティ値は、各対のマッティングセル間の類似性を示す。セルのアフィニティ値は、図5および図6で説明した多重解析度局所アフィニティ学習スキームに基づいて計算される。
ステップ1308において、複数のマッティングセルおよびアフィニティ値に基づいて、例えば、上述したセルレベルグラフ等の第1グラフを形成する。第1グラフは、マッティングセルを示す複数の第1ノードまたは頂点、およびマッティングセルのアフィニティ値と関連する複数の第1エッジを含む。ステップ1310において、第1グラフに基づいて入力画像の複数のマッティングコンポーネントを生成する。マッティングコンポーネントは、マッティングセルのアフィニティ値に基づいて第1グラフを分解することによって生成される。マッティングコンポーネントの中の1つまたは複数は、その後、入力画像の前景領域に属するものと識別される。
図14は、別の実施形態に係る階層グラフに基づく画像マッティングおよび前景推定のプロセス1400のフローチャートである。プロセス1400は、上述した技術に基づいて、システム100において実施される。具体的に説明すると、プロセス1400に基づき、ステップS1302において、入力画像を受信する。入力画像は、例えば、ピクセル等の複数の画像要素を含む。
ステップ1404において、入力画像に基づいて、例えば、上述したピクセルレベルグラフ等の第1グラフを形成する。第1グラフは、画像要素を示す複数の第1ノードまたは頂点、および画像要素の中のアフィニティ関係を示す複数の第1エッジを含む。ステップ1406において、第1グラフに基づいて画像要素を複数のセルにグループ化することによって、例えば、上述したセルレベルグラフ等の第2グラフを形成する。第2グラフは、セルを示す複数の第2ノードまたは頂点、およびセルの中のアフィニティ関係を示す複数の第2エッジを含む。
ステップ1408において、第2グラフを複数のマッティングコンポーネントに分解することによって、例えば、上述したコンポーネントレベルグラフ等の第3グラフを形成する。第3グラフは、マッティングコンポーネントを示す複数の第3ノードまたは頂点、およびマッティングコンポーネントの中のアフィニティ関係を示す複数のエッジを含む。ステップ1410において、第3グラフに基づいて確率値を確定する。確率値は、マッティングコンポーネントが入力画像の前景領域に属する確率を示す。
本発明の他の実施形態は、ここに開示された本発明の明細書および実施に対する考察から当業者には明かであろう。本明細書は単に例示のためであり、本発明の真の範囲および精神は、以下の特許請求の範囲に示される。
以上のごとく、この発明を実施形態により開示したが、もとより、この発明を限定するためのものではなく、当業者であれば容易に理解できるように、この発明の技術思想の範囲内において、適当な変更ならびに修正が当然なされうるものであるから、その特許権保護の範囲は、特許請求の範囲および、それと均等な領域を基準として定めなければならない。
本発明は、例えば、画像や映像の編集、画像レイヤー分解、シーン解析等の応用に、画像マッティングおよび前景推定を提供することができる。
100 システム
102 ピクセル処理モジュール
104 セル処理モジュール
106 コンポーネント処理モジュール
108 レイヤー処理モジュール
110 前景推定モジュール
112 入力データ
114 出力データ
120 コンピュータシステム
122 プロセッサ
124 コンピュータ可読媒体
202 初期グラフ
204 収縮グラフ
206 頂点
208 エッジ
302、802 入力画像
304 収縮画像
402 特徴空間
502 円形物体
504 小三角形物体
506、508 サンプリングピクセル
602 多重解像度画像パッチ
604 ピクセルピラミッド
604A 最粗画像
604B 中間解像度画像
604C 最精細画像
606 セルレベルグラフ
702、806 マッティングコンポーネント
804 マッティングセグメント
902 コンポーネントレベルグラフ
1002、1202〜1220 レイヤー
1222 可能性図
1300、1400 プロセス
1302〜1310、1402〜1410 ステップ

Claims (20)

  1. 複数の画像要素を含む入力画像を受信することと、
    前記入力画像に基づいて、それぞれ1組の前記画像要素を含む複数のマッティングセルを生成することと、
    アフィニティ学習に基づき前記各マッティングセル中の二つの前記画像要素間のアフィニティ値を計算し、前記アフィニティ値は前記二つの画像要素間の類似性を示すことと、
    前記マッティングセルおよび前記アフィニティ値に基づいて、前記マッティングセルを示す複数のノードおよび前記マッティングセルの前記アフィニティ値と関連する複数のエッジを含むグラフを形成することと、
    前記グラフに対してスペクトラルクラスタリングを行い、複数のマッティングコンポーネントを得ることと、
    を含む階層グラフモデルに基づく画像マッティングおよび前景推定の方法。
  2. 前記入力画像の前景領域に属する前記マッティングコンポーネントの中の少なくとも1つを識別することをさらに含む請求項1に記載の方法。
  3. 前記グラフが、第1グラフであり、前記マッティングセルの生成において、さらに、
    前記入力画像に基づいて、前記画像要素を示す複数の第2ノードおよび複数の第2エッジを含む第2グラフを形成することと、
    つの前記第2ノード間の前記第2エッジは前記二つの画像要素間のアフィニティ関係であることと、
    前記第2グラフに基づいて、前記入力画像から収縮画像を生成することと、
    を含む請求項1に記載の方法。
  4. 前記画像要素の正規座標を定義することと、
    前記画像要素の前記正規座標および前記アフィニティ関係に基づいて、前記画像要素の収縮座標を計算することと、
    をさらに含む請求項3に記載の方法。
  5. 前記画像要素の前記収縮座標に部分的に基づいて、前記マッティングセルを生成することをさらに含む請求項4に記載の方法。
  6. 前記画像要素の前記収縮座標および色値に基づいて、座標システムを定義することと、
    前記座標システムに基づいて、前記画像要素を前記マッティングセルにマッピングして、前記マッティングセルを生成することと、
    をさらに含む請求項5に記載の方法。
  7. 前記マッティングセルの前記アフィニティ値の計算において、さらに、
    前記入力画像から複数のダウンサンプリング画像を生成することと、
    前記ダウンサンプリング画像および前記入力画像から複数の画像パッチを抽出することと、
    前記画像パッチに基づいて、前記マッティングセルの前記アフィニティ値を確定することと、
    を含む請求項1に記載の方法。
  8. 前記マッティングセル内の画像要素に基づいて、前記各マッティングセルの特徴ベクトルを確定することと、
    前記特徴ベクトルにアフィン変換を応用して、前記マッティングセルの前記アフィニティ値を計算することと、
    をさらに含む請求項7に記載の方法。
  9. 前記グラフが、第1グラフであり、前記方法が、さらに、
    前記マッティングセルの前記アフィニティ値に基づいて、全体的誤差関数を定義することと、
    前記マッティングセルに基づいて、第2グラフを形成することと、
    前記全体的誤差関数に基づいて、前記第2グラフのラプラシアン行列を確定することと、
    を含む請求項8に記載の方法。
  10. 前記全体的誤差関数の定義において、さらに、
    前記各画像パッチの誤差関数を定義することと、
    前記画像パッチの前記誤差関数の加重和を計算することにより、前記全的誤差関数を定義することと、
    を含み、前記全的誤差関数が、前記画像パッチの相対的重要性を示す前記各画像パッチのウェイトを含む請求項9に記載の方法。
  11. 次数行列を用いて前記ラプラシアン行列を正規化することをさらに含む請求項9に記載の方法。
  12. 前記マッティングセルの生成において、さらに、
    前記正規化されたラプラシアン行列に基づいて、前記グラフに対してスペクトラルクラスタリングを行い、前記グラフから複数のセグメントを生成することと、
    前記セグメントを精緻化することによって、前記セグメントから前記マッティングコンポーネントを生成することと、
    を含む請求項11に記載の方法。
  13. 前記マッティングコンポーネント間のアフィニティ値に基づいて、前記マッティングコンポーネントをグループ化し、複数のレイヤーを生成することをさらに含む請求項12に記載の方法。
  14. 前記マッティングコンポーネントが前記入力画像の前記前景領域に属する確率を確定することをさらに含む請求項2に記載の方法。
  15. 前記グラフが、第1グラフであり、前記方法が、さらに、
    前記マッティングコンポーネントに基づいて、前記マッティングコンポーネントを示す複数の第2ノードおよび複数の第2エッジを含む第2グラフを形成することと、
    つの前記第2ノード間の前記第2エッジは二つの前記マッティングコンポーネント間のアフィニティ関係であることと、
    前記第2グラフに基づいて、ラプラシアン行列を計算することと、
    前記ラプラシアン行列に基づいて、前記確率を確定することと、
    を含む請求項14に記載の方法。
  16. 前記ラプラシアン行列に基づいて、不一致性測度を定義することと、
    前記不一致性測度に基づいて、前記確率を確定することと、
    を含む請求項15に記載の方法。
  17. 複数の画像要素を含む入力画像を受信することと、
    前記入力画像に基づいて、前記画像要素を示す複数の第1ノードおよび複数の第1エッジを含む第1グラフを形成することと、
    つの前記第1ノード間の前記第1エッジは二つの前記画像要素間のアフィニティ関係であることと、
    前記画像要素を複数のセルにグループ化して、前記セルを示す複数の第2ノードおよび複数の第2エッジを含む第2グラフを形成することと、
    つの前記第2ノード間の前記第2エッジは二つの前記セル間のアフィニティ関係を示すことと、
    前記第2グラフに対してスペクトラルクラスタリングを行い、複数のマッティングコンポーネントに分解して、前記マッティングコンポーネントを示す複数の第3ノードおよび前記マッティングコンポーネント間のアフィニティ関係を示す複数のエッジを含む第3グラフを形成することと、
    前記第3グラフに基づいて、前記マッティングコンポーネントが前記入力画像の前景領域に属する確率を確定することと、
    を含む階層グラフモデルに基づく画像マッティングおよび前景推定の方法。
  18. 前記第2グラフの形成において、さらに、
    前記入力画像に収縮プロセスを応用することと、
    前記収縮した入力画像および前記第1グラフに基づいて、前記画像要素を前記セルにマッピングすることと、
    を含む請求項17に記載の方法。
  19. 前記第2グラフの形成において、さらに、
    前記入力画像に対してダウンサンプリングを再帰的に行うことによって、画像ピラミッドを生成することと、
    前記画像ピラミッドから複数の画像パッチを抽出することと、
    前記画像パッチに基づいて、前記セル間の前記アフィニティ関係を確定することと、
    を含む請求項17に記載の方法。
  20. プロセッサで実行する時に、階層グラフに基づく画像マッティングおよび前景推定の方法を前記プロセッサに実行させる指令を記憶する非一時的なコンピュータ可読記憶媒体であって、前記方法が、
    複数の画像要素を含む入力画像を受信することと、
    前記入力画像に基づいて、それぞれ1組の画像要素を含む複数のマッティングセルを生成することと、
    アフィニティ学習に基づき前記各マッティングセル中の二つの前記画像要素間のアフィニティ値を計算し、前記アフィニティ値は前記二つの画像要素間の類似性を示すことと、
    前記マッティングセルおよび前記アフィニティ値に基づいて、前記マッティングセルを示す複数のノードおよび複数のエッジを含むグラフを形成することと、
    前記グラフに対してスペクトラルクラスタリングを行い、複数のマッティングコンポーネントを得ることと、
    二つの前記ノード間の前記エッジは二つの前記マッティングコンポーネント間のアフィニティ関係であることと、
    を含む非一時的なコンピュータ可読記憶媒体。
JP2015079069A 2014-09-15 2015-04-08 階層グラフに基づく画像マッティングおよび前景推定の方法およびシステム Active JP6100300B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/486,158 2014-09-15
US14/486,158 US9449395B2 (en) 2014-09-15 2014-09-15 Methods and systems for image matting and foreground estimation based on hierarchical graphs

Publications (2)

Publication Number Publication Date
JP2016062588A JP2016062588A (ja) 2016-04-25
JP6100300B2 true JP6100300B2 (ja) 2017-03-22

Family

ID=55455215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015079069A Active JP6100300B2 (ja) 2014-09-15 2015-04-08 階層グラフに基づく画像マッティングおよび前景推定の方法およびシステム

Country Status (3)

Country Link
US (1) US9449395B2 (ja)
JP (1) JP6100300B2 (ja)
CN (1) CN105701493B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
US9552626B1 (en) 2015-10-07 2017-01-24 Adobe Systems Incorporated Digital image blemish removal
CN106952220A (zh) * 2017-03-14 2017-07-14 长沙全度影像科技有限公司 一种基于深度学习的全景图像融合方法
CN106934765A (zh) * 2017-03-14 2017-07-07 长沙全度影像科技有限公司 基于深度卷积神经网络与深度信息的全景图像融合方法
US20210312607A1 (en) * 2018-11-02 2021-10-07 Hewlett-Packard Development Company, L.P. Print quality assessments
US20220058801A1 (en) * 2018-12-17 2022-02-24 Georgia State University Research Foundation, Inc. Predicting DCIS Recurrence Risk Using a Machine Learning-Based High-Content Image Analysis Approach
CN110675327B (zh) * 2019-08-02 2022-05-06 杭州电子科技大学 基于核范数与图模型的图像去噪方法
US11308628B2 (en) * 2020-04-14 2022-04-19 Adobe Inc. Patch-based image matting using deep learning
CN113602017B (zh) * 2021-08-05 2023-05-16 航天信息股份有限公司 一种彩色证卡及其制作方法和制作装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08167028A (ja) * 1994-12-13 1996-06-25 Toppan Printing Co Ltd 画像処理方法
CN1914645A (zh) * 2004-01-27 2007-02-14 松下电器产业株式会社 图像制作装置以及图像制作方法
US7430339B2 (en) 2004-08-09 2008-09-30 Microsoft Corporation Border matting by dynamic programming
US20070165966A1 (en) 2005-07-15 2007-07-19 Yissum Research Development Co. Closed form method and system for matting a foreground object in an image having a background
US7636128B2 (en) * 2005-07-15 2009-12-22 Microsoft Corporation Poisson matting for images
WO2007050707A2 (en) 2005-10-27 2007-05-03 Nec Laboratories America, Inc. Video foreground segmentation method
JP2007206920A (ja) * 2006-02-01 2007-08-16 Sony Corp 画像処理装置および方法、検索装置および方法、プログラム、並びに記録媒体
AU2007345938B2 (en) 2007-02-01 2011-11-10 Briefcam, Ltd. Method and system for video indexing and video synopsis
US8175384B1 (en) * 2008-03-17 2012-05-08 Adobe Systems Incorporated Method and apparatus for discriminative alpha matting
US8520972B2 (en) 2008-09-12 2013-08-27 Adobe Systems Incorporated Image decomposition
US8611728B2 (en) 2009-02-10 2013-12-17 Thomson Licensing Video matting based on foreground-background constraint propagation
US8477149B2 (en) 2009-04-01 2013-07-02 University Of Central Florida Research Foundation, Inc. Real-time chromakey matting using image statistics
US8625896B2 (en) 2009-04-03 2014-01-07 Hewlett-Packard Development Comapany, L.P. Image matting
CA2771018C (en) 2009-08-14 2017-06-13 Genesis Group Inc. Real-time image and video matting
US8306333B2 (en) 2009-12-17 2012-11-06 National Tsing Hua University Method and system for automatic figure segmentation
US8625888B2 (en) 2010-07-21 2014-01-07 Microsoft Corporation Variable kernel size image matting
US8386964B2 (en) 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
US8879835B2 (en) * 2011-08-26 2014-11-04 Adobe Systems Incorporated Fast adaptive edge-aware matting
US9305357B2 (en) 2011-11-07 2016-04-05 General Electric Company Automatic surveillance video matting using a shape prior
CN103207879B (zh) 2012-01-17 2016-03-30 阿里巴巴集团控股有限公司 图像索引的生成方法及设备
JP6102122B2 (ja) * 2012-08-24 2017-03-29 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN103177446B (zh) 2013-03-13 2016-03-30 北京航空航天大学 基于邻域和非邻域平滑先验的图像前景精准提取方法

Also Published As

Publication number Publication date
CN105701493A (zh) 2016-06-22
US9449395B2 (en) 2016-09-20
CN105701493B (zh) 2019-04-23
US20160078634A1 (en) 2016-03-17
JP2016062588A (ja) 2016-04-25

Similar Documents

Publication Publication Date Title
JP6100300B2 (ja) 階層グラフに基づく画像マッティングおよび前景推定の方法およびシステム
CN110443842B (zh) 基于视角融合的深度图预测方法
Jiao et al. Local stereo matching with improved matching cost and disparity refinement
Ding et al. Efficient dark channel based image dehazing using quadtrees
CN111291826B (zh) 基于相关性融合网络的多源遥感图像的逐像素分类方法
US8855411B2 (en) Opacity measurement using a global pixel set
CN108764244B (zh) 基于卷积神经网络和条件随机场的潜在目标区域检测方法
US20130342559A1 (en) Temporally consistent superpixels
CN112581370A (zh) 人脸图像的超分辨率重建模型的训练及重建方法
Tseng et al. Shape-from-focus depth reconstruction with a spatial consistency model
CN111046868A (zh) 基于矩阵低秩稀疏分解的目标显著性检测方法
CN112906813A (zh) 一种基于密度聚类和胶囊神经网络的浮选工况识别方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN109064444B (zh) 基于显著性分析的轨道板病害检测方法
Li et al. 3DCentripetalNet: Building height retrieval from monocular remote sensing imagery
CN114663880A (zh) 基于多层级跨模态自注意力机制的三维目标检测方法
Ren et al. A lightweight object detection network in low-light conditions based on depthwise separable pyramid network and attention mechanism on embedded platforms
CN116563103A (zh) 一种基于自适应神经网络的遥感图像时空融合方法
CN116310832A (zh) 遥感图像处理方法、装置、设备、介质及产品
Amirkolaee et al. Convolutional neural network architecture for digital surface model estimation from single remote sensing image
CN111461139B (zh) 一种复杂场景下的多目标视觉显著性分层检测方法
Zhu et al. HDRD-Net: High-resolution detail-recovering image deraining network
TWI537879B (zh) 基於階層圖形的圖像提取以及前景估測的方法和系統
Nair et al. Benchmarking single image dehazing methods
Tseng et al. Learning-based hierarchical graph for unsupervised matting and foreground estimation

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170222

R150 Certificate of patent or registration of utility model

Ref document number: 6100300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250