JP5645842B2 - スケールスペースを使用した画像処理装置及び方法 - Google Patents
スケールスペースを使用した画像処理装置及び方法 Download PDFInfo
- Publication number
- JP5645842B2 JP5645842B2 JP2011540232A JP2011540232A JP5645842B2 JP 5645842 B2 JP5645842 B2 JP 5645842B2 JP 2011540232 A JP2011540232 A JP 2011540232A JP 2011540232 A JP2011540232 A JP 2011540232A JP 5645842 B2 JP5645842 B2 JP 5645842B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- scale space
- code
- label
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 79
- 238000012545 processing Methods 0.000 title claims description 43
- 230000008569 process Effects 0.000 claims description 23
- 230000000877 morphologic effect Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000000354 decomposition reaction Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 3
- 238000004422 calculation algorithm Methods 0.000 description 13
- 239000003086 colorant Substances 0.000 description 7
- 238000005295 random walk Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 230000036961 partial effect Effects 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 235000014443 Pyrus communis Nutrition 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013476 bayesian approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 235000019506 cigar Nutrition 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本願は、2008年12月11日に出願された「ロトスコープのためのスケールスペースランダムウォーク」という名称の米国仮特許出願第61/201,531号の優先権を主張する。このすべての内容が本明細書に参照として組み込まれる。
図1は、所定実施例に係る一システムを示す。当該システムは、当該画像から生成された複数のスケールスペース画像を使用して一のポテンシャルマップを決定することができ、かつ、当該画像を処理するべく当該ポテンシャルマップを使用することができる。複数の他実施例も利用される。当該システムは、プロセッサ104を有する計算装置102を含む。プロセッサ104は、メモリ106のようなコンピュータ可読媒体に格納されたコードを実行する。当該実行により、計算装置102は、当該画像から生成されたスケールスペース画像を使用してポテンシャルマップを決定する。計算装置102は、データを処理することができ、及び、複数のアクションを行う一組の命令であるコードを実行することができる任意の装置である。計算装置102の例は、デスクトップパーソナルコンピュータ、ラップトップパーソナルコンピュータ、サーバ装置、ハンドヘルド計算装置、及びモバイル装置を含む。
複数の画像を処理すべく使用される複数のポテンシャルマップを、本発明の様々な実施例に係る様々な方法を使用して生成することができる。図2は、複数のスケールスペース画像から一のポテンシャルマップを生成する方法の一実施例を示す。図2に示す方法は、図1のシステム設定を参照して記載される。しかしながら、他の複数のシステム実装も可能である。
本発明に係るいくつかの実施例による複数のラベルを、当該画像から生成することができる。例えば、スケールスペースエンジン120は、当該画像のための一のオブジェクトマスクを受け取り、当該オブジェクトマスクを使用して一のラベルを決定する。一のオブジェクトマスクは、一のオブジェクトの境界に関連付けられた複数画素を推定することによる一のオブジェクトの一概算であり得る。これは、境界画素のような曖昧な画素指示を含み得る。スケールスペースエンジン120は一のオブジェクトマスクを受け取ることができる。図5及び6は、ブロック310において一のラベルを、当該ラベルを生成することによって受け取る方法の実施例を示す。一のラベルを生成する実施例は、図1のシステムを参照して記載される。しかしながら、他のシステム実装も可能である。
本発明に係る様々な実施例に係る複数のポテンシャルマップは、当該画像の処理を向上させて所望の品質及び処理効率を生じさせるべく使用することができる。いくつかの実施例では、複数のポテンシャルマップを使用して複数画像を生成することができる。熟練したユーザのための複数のユーザインターフェイスを必要とする複数の方法で複数画像を処理することができる。例えば、一の方法は、複数画像を処理する一のユーザから受け取った複数入力を有する複数のポテンシャルマップを使用するインタラクティブな方法である。
具体的な実施例を参照して本発明を詳細に記載してきたが、当業者であれば上述したことを理解すれば、かかる実施形態の代替、変更、及び均等を容易に作り出すことは明らかである。したがって、本開示は限定ではなく説明を目的として提示されていることを理解すべきであって、一の当業者にとって容易に明らかなように、本発明に対するかかる修正、変形、及び/又は付加を含めることを排除するものではない。
Claims (28)
- 一の画像を処理する方法であって、
実行コードが格納された一の計算装置によって、少なくとも一のオブジェクトを有する一の画像を受け取ることと、
前記画像から少なくとも2のスケールスペース画像を生成することであって、前記画像は、少なくとも一のオブジェクトを有し、かつ、複数の境界画素の候補となる複数の画素を特定する一のラベルと関連付けられ、前記計算装置は、前記計算装置に前記少なくとも2のスケールスペース画像を生成させるべく構成された一のプロセッサを含み、前記少なくとも2のスケールスペース画像は異なる詳細レベルを有し、かつ、同じサイズであることと、
前記計算装置が前記少なくとも2のスケールスペース画像を使用して、前記画像の各画素に対し、前記画素に隣接する画素との複数のリンクを有する3次元グラフを決定することと、
前記計算装置が前記3次元グラフの前記複数のリンクに対して複数の重みを決定することと、
前記計算装置が前記複数の重みを使用して前記複数の境界画素の候補となる複数の画素の複数のポテンシャル値を決定することであって、各ポテンシャル値は、前記複数の境界画素の候補となる複数の画素の一の関連画素が前記少なくとも一のオブジェクトの境界内に存在するか又は前記少なくとも一のオブジェクトの境界外に存在するかの尤度を表すことと、
前記計算装置が前記ポテンシャル値を使用して一のポテンシャルマップを決定することと、
前記計算装置が前記ポテンシャルマップを使用して前記画像を処理することと
を含む方法。 - 前記画像を一のカラーモデルに変換することをさらに含み、
前記カラーモデルは、CIE L*a*b*カラースペースにある前記画像を含む、請求項1に記載の方法。 - 前記画像から前記少なくとも2のスケールスペース画像を生成することは、少なくとも2のローパスフィルタを使用して前記画像をスケールスペース変換することを含む、請求項1に記載の方法。
- 前記少なくとも2のローパスフィルタはガウシアンカーネルを含み、
前記異なる詳細レベルは異なるぼかし度を含む、請求項3に記載の方法。 - 前記画像から前記少なくとも2のスケールスペース画像を生成することは、少なくとも2のウェーブレットフィルタを使用して前記画像をスケールスペース変換することを含む、請求項1に記載の方法。
- 前記画像から前記少なくとも2のスケールスペース画像を生成することは、一のエッジ保存分解処理を使用して前記画像をスケールスペース変換することを含む、請求項1に記載の方法。
- 前記3次元グラフの前記複数のリンクに対して前記複数の重みを決定することは、
一画素に関連付けられた複数のリンクを決定することと、
前記画素に関連付けられた前記複数のリンクの各リンクに対して一の重みを決定することと、
前記複数のリンクの各リンクに対する前記重みを集めて前記複数の重みを形成することと
を含む、請求項1に記載の方法。 - 前記ポテンシャル値から前記ポテンシャルマップを決定することは、前記ポテンシャル値に対して一の幾何平均を決定することを含み、
前記ポテンシャルマップは、前記ポテンシャル値に対する前記幾何平均を含む、請求項1に記載の方法。 - 前記少なくとも一のオブジェクトに対し、前記少なくとも一のオブジェクトの複数の境界画素を含む一のラベルを受け取ることをさらに含み、
前記複数の重みから複数のポテンシャル値を決定することは、前記ラベルを使用して前記ポテンシャル値を決定することを含む、請求項1に記載の方法。 - 前記ラベルを生成することをさらに含み、
前記ラベルを生成することは、
前記画像のための一のオブジェクトマスクを受け取ることと、
前記画像のための前記オブジェクトマスクから一の反転オブジェクトマスクを計算することと、
前記反転オブジェクトマスクから第1距離変換を決定することと、
前記オブジェクトマスクから第2距離変換を決定することと、
前記第1距離変換を使用して前記画像における複数の前景画素を特定することと、
前記第2距離変換を使用して前記画像における複数の背景画素を特定することと、
前記特定された前景画素と前記特定された背景画素とに基づいて前記ラベルを生成することと
を含む、請求項1に記載の方法。 - 前記ラベルを生成することをさらに含み、
前記ラベルを生成することは、
前記画像のための一のオブジェクトマスクを受け取ることと、
前記画像のための前記オブジェクトマスクから一の反転オブジェクトマスクを計算することと、
前記反転オブジェクトマスクを収縮することと、
前記画像のための前記オブジェクトマスクを収縮することと、
前記収縮された反転オブジェクトマスクに基づいて、かつ、前記画像のための前記収縮されたオブジェクトマスクに基づいて一の初期ラベルを生成することと、
前記初期ラベルを使用して前記画像のための一の初期ポテンシャルマップを決定することと、
前記初期ポテンシャルマップ、前記収縮された反転オブジェクトマスク、及び前記収縮されたオブジェクトマスクを使用して前記ラベルを生成することと
を含む、請求項9に記載の方法。 - 前記反転オブジェクトマスクを収縮することは、前記反転オブジェクトマスクにおいてモルフォロジ細線化処理を使用することを含み、
前記画像のための前記オブジェクトマスクを収縮することは、前記画像のための前記オブジェクトマスクにおいて前記モルフォロジ細線化処理を使用することを含む、請求項11に記載の方法。 - 前記ポテンシャルマップを使用して前記画像を処理することは、前記ポテンシャルマップを使用して一の画像マスクを生成することを含む、請求項1に記載の方法。
- 前記ポテンシャルマップを使用して前記画像マスクを生成することは、
前記少なくとも一のオブジェクトの一の推定境界を特定する少なくとも2のキーポイントを受け取ることと、
前記少なくとも2のキーポイントに基づいて一のラベルを計算することと、
前記ラベルに基づいて一の画像セグメントをクロップすることと、
前記画像セグメントから一のポテンシャルマップを決定することと、
前記ポテンシャルマップから複数の境界ポイントを生成することと、
前記境界ポイントが許容不可能であることを特定する一のコマンドを受け取ることに応じて複数の新たなキーポイントを使用して第2ポテンシャルマップを計算することと、
前記境界ポイントが許容可能であることを特定する一のコマンドを受け取ることに応じて前記境界ポイントを出力することと、
前記境界ポイントを使用して前記画像マスクを生成することと
を含む、請求項13に記載の方法。 - 前記新たなキーポイントの数は、前記少なくとも2のキーポイントの数よりも大きい、請求項14に記載の方法。
- 一の画像を処理する計算装置において使用されるプログラムであって、
前記計算装置は、
一のプロセッサと、
前記計算装置に一のスケールスペースエンジンを実装させる前記プログラムを格納する一のコンピュータ可読媒体と、
前記計算装置内部のコンポーネント間のデータ送受信を可能にする一のバスと、
前記計算装置と外部コンポーネントとのデータ送受信を可能にする一の入出力インターフェイスと、
を含み、
前記スケールスペースエンジンは、前記プロセッサが前記バスを介して前記コンピュータ可読媒体にアクセスして前記プログラムを実行することにより、
前記入出力インターフェイスを介して少なくとも一のオブジェクトを有する一の画像を受け取ることと、
前記画像から少なくとも2のスケールスペース画像を生成することであって、前記少なくとも2のスケールスペース画像は異なる詳細レベルを有し、かつ、同じサイズであることと、
前記少なくとも2のスケールスペース画像を使用して、前記画像の各画素に対して複数の重みを決定することであって、前記複数の重みの各重みは一のリンクに関連付けられることと、
前記少なくとも一のオブジェクトに対し、前記少なくとも一のオブジェクトの複数の境界画素の候補となる画像の画素を特定する一のラベルを受け取ることと、
前記複数の重み及び前記ラベルを使用して複数のポテンシャル値を決定することであって、各ポテンシャル値は、前記複数の境界画素の候補の一の関連画素が前記少なくとも一のオブジェクトの境界内に存在するか又は前記少なくとも一のオブジェクトの境界外に存在するかの尤度を表すことと、
前記ポテンシャル値を使用して一のポテンシャルマップを決定することと、
前記ポテンシャルマップを使用して前記画像を処理する一の画像マスクを生成することと
を行うべく機能するプログラム。 - 前記スケールスペースエンジンは、前記計算装置に前記画像を一のカラーモデルに変換させるべく構成され、
前記カラーモデルは、CIE L*a*b*カラースペースにある画像を含む、請求項16に記載のプログラム。 - 前記スケールスペースエンジンは、(i)少なくとも2のウェーブレットフィルタ、(ii)一のエッジ保存分解処理、又は(iii)少なくとも2のローパスフィルタの一を使用して前記画像をスケールスペース変換することによって、前記画像から前記少なくとも2のスケールスペース画像を生成することを前記計算装置にさせるべく構成される、請求項16に記載のプログラム。
- 前記スケールスペースエンジンは、前記ポテンシャル値に対する一の幾何平均を決定することによって前記ポテンシャル値から前記ポテンシャルマップを決定することを前記計算装置にさせるべく構成され、
前記ポテンシャルマップは、前記ポテンシャル値に対する前記幾何平均を含む、請求項16に記載のプログラム。 - 前記スケールスペースエンジンは、
前記画像のための一のオブジェクトマスクを受け取ることと、
前記画像のための前記オブジェクトマスクから一の反転オブジェクトマスクを計算することと、
前記反転オブジェクトマスクから第1距離変換を決定することと、
前記オブジェクトマスクから第2距離変換を決定することと、
前記第1距離変換を使用して前記画像における複数の前景画素を特定することと、
前記第2距離変換を使用して前記画像における複数の背景画素を特定することと、
前記特定された前景画素と前記特定された背景画素とに基づいて前記ラベルを生成することと
によって前記ラベルを生成することを前記計算装置にさせるべく構成される、請求項16に記載のプログラム。 - 前記スケールスペースエンジンは、前記ラベルを生成することによって前記画像のための前記ラベルを受け取ることを前記計算装置にさせるべく構成され、
前記スケールスペースエンジンは、
前記画像のための一のオブジェクトマスクを受け取ることと、
前記画像のための前記オブジェクトマスクから一の反転オブジェクトマスクを計算することと、
前記反転オブジェクトマスクを収縮することと、
前記画像のための前記オブジェクトマスクを収縮することと、
前記収縮された反転オブジェクトマスクに基づいて、かつ、前記画像のための前記収縮されたオブジェクトマスクに基づいて一の初期ラベルを生成することと、
前記初期ラベルを使用して前記画像のための一の初期ポテンシャルマップを決定することと、
前記初期ポテンシャルマップ、前記収縮された反転オブジェクトマスク、及び前記収縮されたオブジェクトマスクを使用して前記ラベルを生成することと
によって前記ラベルを生成することを前記計算装置にさせるべく構成される、請求項16に記載のプログラム。 - コンピュータを、少なくとも一のオブジェクトを有する一の画像を、前記少なくとも一のオブジェクトの境界を特定するべく処理する一のスケールスペースエンジンとして機能させるプログラムコードが格納されたコンピュータ可読媒体であって、
前記プログラムコードは、
少なくとも一のオブジェクトを有する一の画像を受け取るコードと、
(i)少なくとも2のウェーブレットフィルタ又は(ii)一のエッジ保存分解処理の一を使用して前記画像をスケールスペース変換することにより前記画像から少なくとも2のスケールスペース画像を生成するコードであって、前記少なくとも2のスケールスペース画像は異なる詳細レベルを有し、かつ、同じサイズであるコードと、
前記少なくとも2のスケールスペース画像を使用して一のポテンシャルマップを決定するコードと、
前記ポテンシャルマップを使用して前記少なくとも一のオブジェクトの前記境界を特定するコードと
を含み、
前記ポテンシャルマップは、複数の画素間のリンクに関連付けられた複数の重みに基づいて、複数の境界画素の候補として一のラベルにより特定される複数の画素のポテンシャル値を表し、
一のポテンシャル値は、前記複数の境界画素の候補の一画素が前記少なくとも一のオブジェクトの一境界内に存在するか又は前記少なくとも一のオブジェクトの前記境界外に存在するかの尤度を表すコンピュータ可読媒体。 - 前記画像を一のカラーモデルに変換するコードをさらに含み、
前記カラーモデルは、CIE L*a*b*カラースペースにある前記画像を含む、請求項22に記載のコンピュータ可読媒体。 - 前記少なくとも2のスケールスペース画像を使用して前記ポテンシャルマップを決定するコードは、
前記少なくとも2のスケールスペース画像を使用して、前記画像の各画素に対して複数の重みを決定するコードであって、前記複数の重みの各重みは一のリンクに関連付けられるコードと、
前記少なくとも一のオブジェクトに対し、前記少なくとも一のオブジェクトの複数の境界画素を含む一のラベルを受け取るコードと、
前記複数の重み及び前記ラベルを使用して複数のポテンシャル値を決定するコードであって、各ポテンシャル値は、一の関連画素が前記少なくとも一のオブジェクトの境界内に存在するか又は前記少なくとも一のオブジェクトの境界外に存在するかの尤度を表すコードと、
前記ポテンシャル値から前記ポテンシャルマップを決定するコードと
を含み、
前記少なくとも2のスケールスペース画像を使用して、前記画像の各画素に対して複数の重みを決定するコードは、
一画素に関連付けられた複数のリンクを決定するコードと、
前記画素に関連付けられた前記複数のリンクの各リンクに対して一の重みを決定するコードと、
前記複数のリンクの各リンクに対する前記重みを集めて前記複数の重みを形成するコードと
を含み、
前記ポテンシャル値を使用して前記ポテンシャルマップを決定するコードは、
前記ポテンシャル値に対して一の幾何平均を決定するコードを含み、
前記ポテンシャルマップは、前記ポテンシャル値に対する前記幾何平均を含む、請求項22に記載のコンピュータ可読媒体。 - 前記ラベルを生成するコードをさらに含み、
前記ラベルを生成する前記コードは、
前記画像のための一のオブジェクトマスクを受け取るコードと、
前記画像のための前記オブジェクトマスクから一の反転オブジェクトマスクを計算するコードと、
前記反転オブジェクトマスクから第1距離変換を決定するコードと、
前記オブジェクトマスクから第2距離変換を決定するコードと、
前記第1距離変換を使用して前記画像における複数の前景画素を特定するコードと、
前記第2距離変換を使用して前記画像における複数の背景画素を特定するコードと、
前記特定された前景画素と前記特定された背景画素とに基づいて前記ラベルを生成するコードと
を含む、請求項22に記載のコンピュータ可読媒体。 - 前記ポテンシャルマップを決定するべく使用される一のラベルを生成するコードをさらに含み、
前記ラベルを生成する前記コードは、
前記画像のための一のオブジェクトマスクを受け取るコードと、
前記画像のための前記オブジェクトマスクから一の反転オブジェクトマスクを計算するコードと、
一のモルフォロジ細線化処理を使用して前記反転オブジェクトマスクを収縮するコードと、
前記モルフォロジ細線化処理を使用して前記画像のための前記オブジェクトマスクを収縮するコードと、
前記収縮された反転オブジェクトマスクに基づいて、かつ、前記画像のための前記収縮されたオブジェクトマスクに基づいて一の初期ラベルを生成するコードと、
前記初期ラベルを使用して前記画像のための一の初期ポテンシャルマップを決定するコードと、
前記初期ポテンシャルマップ、前記収縮された反転オブジェクトマスク、及び前記収縮されたオブジェクトマスクを使用して前記ラベルを生成することと
を含む、請求項22に記載のコンピュータ可読媒体。 - 前記ポテンシャルマップを使用して前記少なくとも一のオブジェクトの前記境界を特定するコードは前記ポテンシャルマップを使用して一の画像マスクを生成するコードを含み、
前記ポテンシャルマップを使用して前記画像マスクを生成する前記コードは、
前記少なくとも一のオブジェクトの一の推定境界を特定する少なくとも2のキーポイントを受け取るプログラムコードと、
前記少なくとも2のキーポイントに基づいて一のラベルを計算するプログラムコードと、
前記ラベルに基づいて一の画像セグメントをクロップするプログラムコードと、
前記画像セグメントから一のポテンシャルマップを決定するプログラムコードと、
前記ポテンシャルマップから複数の境界ポイントを生成するプログラムコードと、
前記境界ポイントが許容不可能であることを特定する一のコマンドを受け取ることに応じて複数の新たなキーポイントを使用して第2ポテンシャルマップを計算するプログラムコードと、
前記境界ポイントが許容可能であることを特定する一のコマンドを受け取ることに応じて前記境界ポイントを出力するプログラムコードと、
前記境界ポイントから前記画像マスクを生成するプログラムコードと
を含み、
前記新たなキーポイントの数は、前記少なくとも2のキーポイントの数よりも大きい、請求項22に記載のコンピュータ可読媒体。 - 一の画像を処理する方法であって、
実行コードが格納された一の計算装置によって、少なくとも一のオブジェクトを有する一の画像を受け取ることと、
前記計算装置が前記画像から少なくとも2のスケールスペース画像を生成することであって、前記計算装置は、前記計算装置に前記少なくとも2のスケールスペース画像を生成させるべく構成された一のプロセッサを含み、前記少なくとも2のスケールスペース画像は異なる詳細レベルを有し、かつ、同じサイズであることと、
前記計算装置が前記少なくとも2のスケールスペース画像と、一のラベルにより特定される複数の境界画素の候補の複数のポテンシャル値とを使用して、前記ポテンシャル値の幾何平均を決定することにより一のポテンシャルマップを決定することと、
前記計算装置が前記ポテンシャルマップを使用して前記少なくとも一のオブジェクトの前記境界を特定することと
を含み、
前記ポテンシャルマップは、前記ポテンシャル値の前記幾何平均を含み、
前記ポテンシャル値は、複数の画素間のリンクに関連付けられた複数の重みに基づき、
前記ポテンシャル値は、前記画像の前記複数の境界画素の候補が前記少なくとも一のオブジェクトの境界内に存在するか又は前記少なくとも一のオブジェクトの境界外に存在するかの尤度を表す方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US20153108P | 2008-12-11 | 2008-12-11 | |
US61/201,531 | 2008-12-11 | ||
PCT/IB2009/007723 WO2010067191A1 (en) | 2008-12-11 | 2009-12-11 | Devices and methods for processing images using scale space |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012511760A JP2012511760A (ja) | 2012-05-24 |
JP5645842B2 true JP5645842B2 (ja) | 2014-12-24 |
Family
ID=42242394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011540232A Expired - Fee Related JP5645842B2 (ja) | 2008-12-11 | 2009-12-11 | スケールスペースを使用した画像処理装置及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8705867B2 (ja) |
EP (1) | EP2374107B1 (ja) |
JP (1) | JP5645842B2 (ja) |
CN (1) | CN102246204B (ja) |
CA (1) | CA2745380C (ja) |
WO (1) | WO2010067191A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8391594B1 (en) * | 2009-05-28 | 2013-03-05 | Adobe Systems Incorporated | Method and apparatus for generating variable-width border masks |
KR20120004203A (ko) * | 2010-07-06 | 2012-01-12 | 삼성전자주식회사 | 디스플레이 방법 및 장치 |
WO2014102798A1 (en) * | 2012-12-31 | 2014-07-03 | Given Imaging Ltd. | System and method for displaying an image stream |
CN103177446B (zh) * | 2013-03-13 | 2016-03-30 | 北京航空航天大学 | 基于邻域和非邻域平滑先验的图像前景精准提取方法 |
KR20140137738A (ko) * | 2013-05-23 | 2014-12-03 | 삼성전자주식회사 | 이미지 디스플레이 방법, 이미지 디스플레이 장치 및 기록 매체 |
US9934555B1 (en) * | 2014-03-20 | 2018-04-03 | Amazon Technologies, Inc. | Processing an image to reduce rendering artifacts |
KR101624801B1 (ko) * | 2014-10-15 | 2016-05-26 | 포항공과대학교 산학협력단 | 전경 물체 추출을 위한 매팅 방법 및 이를 수행하는 장치 |
US10356420B2 (en) | 2014-11-16 | 2019-07-16 | Lg Electronics Inc. | Video signal processing method using graph based transform and device therefor |
US9547907B2 (en) | 2014-12-15 | 2017-01-17 | Intel Corporation | Image segmentation using color and depth information |
US9569667B1 (en) * | 2015-05-04 | 2017-02-14 | Exelis Inc | Cloud resilient algorithm for coastline registration |
WO2016179830A1 (en) * | 2015-05-14 | 2016-11-17 | Intel Corporation | Fast mrf energy optimization for solving scene labeling problems |
KR101724338B1 (ko) * | 2015-09-15 | 2017-04-07 | 전자부품연구원 | 강인한 영역 분리 방법 및 이를 적용한 시스템 |
ITUB20153724A1 (it) * | 2015-09-18 | 2017-03-18 | Sisvel Tech S R L | Metodi e apparati per codificare e decodificare immagini o flussi video digitali |
US10152780B2 (en) | 2015-11-02 | 2018-12-11 | Cognex Corporation | System and method for finding lines in an image with a vision system |
US10937168B2 (en) | 2015-11-02 | 2021-03-02 | Cognex Corporation | System and method for finding and classifying lines in an image with a vision system |
KR20180042733A (ko) * | 2016-10-18 | 2018-04-26 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US10026014B2 (en) * | 2016-10-26 | 2018-07-17 | Nxp Usa, Inc. | Method and apparatus for data set classification based on generator features |
US10249044B2 (en) * | 2016-12-30 | 2019-04-02 | Facebook, Inc. | Image segmentation with touch interaction |
US11004207B2 (en) * | 2017-12-06 | 2021-05-11 | Blueprint Reality Inc. | Multi-modal data fusion for scene segmentation |
US11195283B2 (en) * | 2019-07-15 | 2021-12-07 | Google Llc | Video background substraction using depth |
CN110503704B (zh) * | 2019-08-27 | 2023-07-21 | 北京迈格威科技有限公司 | 三分图的构造方法、装置和电子设备 |
CN111724441A (zh) * | 2020-05-28 | 2020-09-29 | 上海商汤智能科技有限公司 | 图像标注方法及装置、电子设备及存储介质 |
CN112085726B (zh) * | 2020-09-16 | 2024-03-22 | 杭州爱科科技股份有限公司 | 皮料识别方法、装置、系统及计算机可读存储介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0692772A1 (fr) * | 1994-07-12 | 1996-01-17 | Laboratoires D'electronique Philips S.A.S. | Procédé et dispositif pour détecter des points clés situés sur le contour d'un objet |
US6005978A (en) | 1996-02-07 | 1999-12-21 | Cognex Corporation | Robust search for image features across image sequences exhibiting non-uniform changes in brightness |
AU1099899A (en) * | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
US6366692B1 (en) * | 1998-03-30 | 2002-04-02 | Intel Corporation | Median computation-based integrated color interpolation and color space conversion methodology from 8-bit bayer pattern RGB color space to 24-bit CIE XYZ color space |
US6400831B2 (en) * | 1998-04-02 | 2002-06-04 | Microsoft Corporation | Semantic video object segmentation and tracking |
US6717698B1 (en) * | 2000-02-02 | 2004-04-06 | Eastman Kodak Company | Tone scale processing based on image modulation activity |
US7349922B2 (en) * | 2001-11-14 | 2008-03-25 | Yeda Research And Development Co. Ltd. | Method and apparatus for data clustering including segmentation and boundary detection |
US7856136B2 (en) * | 2004-04-14 | 2010-12-21 | Drvision Technologies Llc | Analysis of patterns among objects of a plurality of classes |
US7831094B2 (en) * | 2004-04-27 | 2010-11-09 | Honda Motor Co., Ltd. | Simultaneous localization and mapping using multiple view feature descriptors |
JP5352942B2 (ja) * | 2005-03-31 | 2013-11-27 | 株式会社ニコン | 画像処理方法、画像処理プログラム、および画像処理装置 |
EP1865460B1 (en) * | 2005-03-31 | 2011-05-04 | Nikon Corporation | Image processing method |
EP1748389A1 (en) * | 2005-07-28 | 2007-01-31 | Microsoft Corporation | Image blending |
EP2003612A4 (en) * | 2006-03-31 | 2010-10-13 | Nikon Corp | IMAGE PROCESSING |
JP5256582B2 (ja) | 2006-03-31 | 2013-08-07 | 株式会社ニコン | 画像処理方法、画像処理プログラム、および画像処理装置 |
JP4999163B2 (ja) * | 2006-04-17 | 2012-08-15 | 富士フイルム株式会社 | 画像処理方法および装置ならびにプログラム |
US8260048B2 (en) * | 2007-11-14 | 2012-09-04 | Exelis Inc. | Segmentation-based image processing system |
US8233716B2 (en) * | 2008-06-27 | 2012-07-31 | Palo Alto Research Center Incorporated | System and method for finding stable keypoints in a picture image using localized scale space properties |
-
2009
- 2009-12-11 US US13/129,864 patent/US8705867B2/en active Active
- 2009-12-11 JP JP2011540232A patent/JP5645842B2/ja not_active Expired - Fee Related
- 2009-12-11 WO PCT/IB2009/007723 patent/WO2010067191A1/en active Application Filing
- 2009-12-11 CA CA2745380A patent/CA2745380C/en not_active Expired - Fee Related
- 2009-12-11 EP EP09831535.1A patent/EP2374107B1/en active Active
- 2009-12-11 CN CN200980149967.3A patent/CN102246204B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP2374107B1 (en) | 2020-07-08 |
WO2010067191A1 (en) | 2010-06-17 |
JP2012511760A (ja) | 2012-05-24 |
CN102246204B (zh) | 2015-04-29 |
US20110229024A1 (en) | 2011-09-22 |
CA2745380A1 (en) | 2010-06-17 |
CA2745380C (en) | 2018-07-17 |
EP2374107A4 (en) | 2016-11-16 |
CN102246204A (zh) | 2011-11-16 |
EP2374107A1 (en) | 2011-10-12 |
US8705867B2 (en) | 2014-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5645842B2 (ja) | スケールスペースを使用した画像処理装置及び方法 | |
Wu et al. | Fast end-to-end trainable guided filter | |
Niklaus et al. | Video frame interpolation via adaptive convolution | |
Li et al. | Fast guided global interpolation for depth and motion | |
Guo et al. | LIME: Low-light image enhancement via illumination map estimation | |
Yin et al. | A novel image-dehazing network with a parallel attention block | |
Qi et al. | Geonet++: Iterative geometric neural network with edge-aware refinement for joint depth and surface normal estimation | |
Min et al. | Fast global image smoothing based on weighted least squares | |
Lu et al. | Deep texture and structure aware filtering network for image smoothing | |
Zhang et al. | Video dehazing with spatial and temporal coherence | |
Guo et al. | Single image dehazing based on fusion strategy | |
KR102311796B1 (ko) | 지역적 신체영역 정보를 이용한 휴먼 모션 디블러링 방법 및 장치 | |
Weiss et al. | Learning adaptive sampling and reconstruction for volume visualization | |
JP2012515982A (ja) | コンピュータグラフィックスのためのスムージングされたローカルヒストグラムフィルタ | |
Wang et al. | Super-resolution of multi-observed RGB-D images based on nonlocal regression and total variation | |
Luvizon et al. | Adaptive multiplane image generation from a single internet picture | |
CN116051593A (zh) | 服装图像提取方法及其装置、设备、介质、产品 | |
Wang et al. | Perception-guided multi-channel visual feature fusion for image retargeting | |
Wei et al. | Joint contour filtering | |
Tsuji et al. | Non-guided depth completion with adversarial networks | |
Yoon et al. | GAN-based shadow removal using context information | |
Shaharabany et al. | End-to-end segmentation of medical images via patch-wise polygons prediction | |
Jung et al. | Intensity-guided edge-preserving depth upsampling through weighted L0 gradient minimization | |
Xu et al. | An edge guided coarse-to-fine generative network for image outpainting | |
Amirkolaee et al. | Monocular depth estimation with geometrical guidance using a multi-level convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121010 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140805 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140819 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5645842 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |