JP2010511215A - 画像内のオブジェクトを指示する方法 - Google Patents

画像内のオブジェクトを指示する方法 Download PDF

Info

Publication number
JP2010511215A
JP2010511215A JP2009537659A JP2009537659A JP2010511215A JP 2010511215 A JP2010511215 A JP 2010511215A JP 2009537659 A JP2009537659 A JP 2009537659A JP 2009537659 A JP2009537659 A JP 2009537659A JP 2010511215 A JP2010511215 A JP 2010511215A
Authority
JP
Japan
Prior art keywords
region
image
membership function
regions
merging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009537659A
Other languages
English (en)
Inventor
トゥシュ、アンヌ−マリ
ルルー、クリストフ
エド、パトリク
Original Assignee
コミシリア ア レネルジ アトミック
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コミシリア ア レネルジ アトミック filed Critical コミシリア ア レネルジ アトミック
Publication of JP2010511215A publication Critical patent/JP2010511215A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/248Aligning, centring, orientation detection or correction of the image by interactive preprocessing or interactive shape modelling, e.g. feature points assigned by a user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本発明は画像内のオブジェクトを指示する方法に関する。
本方法は:
−画像内のオブジェクト内部の点Pを指示するステップと、
−画像を基本領域へ分割するステップ(31)と、
−点Pが属する元の領域Rを識別するステップと、
−領域間の関連性のグラフを構築するステップ(32)と、
−様々な帰属の基準を組み合わせることにより、元の領域Rに接続された領域に対して、オブジェクトにおけるメンバーシップ関数を計算するステップと、
−そのメンバーシップ関数の値が所与のしきい値よりも大きい場合に併合される、その接続された領域と、元の領域Rを併合するステップ(33)と、
−接続された領域のメンバーシップ関数と、併合のメンバーシップ関数とを計算するステップが、併合が行なわれなくなるまで、各々の新たな併合された領域に対して繰り返されるステップとを含む。本発明はとりわけ、ユーザーにとって簡単な操作によって、オブジェクトのグラフィカルな指示を行なうための画像処理に関して適用される。
【選択図】 図3

Description

本発明は画像内のオブジェクトを指示する方法に関する。本発明はとりわけ、ユーザーにとって簡単な操作によって、オブジェクトのグラフィカルな指示を行なうための画像処理に関して適用される。
オペレータはオブジェクトに属する画素の全体領域を特定する必要なしに、あるいはオブジェクトを包含する輪郭線又は四角形を描く必要なしに、ビデオ画像上において、例えば1回のマウスのクリックのように簡単なデータ収集操作により、事前に指示されたオブジェクトの範囲を定めるために、自動機能を利用することを特に望み得る。そのような機能性は、1回のクリック又はそれに同等なオブジェクト指示しか行なえず、選択されるべきオブジェクトを囲むためのマウスの動きのような追加操作を行なえない、障害者にとってとりわけ有益である。この機能性はまた、画像が選択されるべき大量のオブジェクトを示すときに有益である。オペレータは従って、例えば単純なクリックを通じてビデオ画像上でオブジェクトを指示すること、及び例えば包含するボックス又は色付け部分を通じて、指示されたオブジェクトの画面表示を自動的に得ることを希望する。
1つの技術的な問題は、ユーザーによるオブジェクトの画像内の点の選択を通じ、画像内において、オブジェクトの画像の範囲を定めるための自動処理の微調整である。
様々な画像処理技術が開発されているが、いずれもオブジェクトの明るさ、形状又はテクスチャにおける多様さに直面して、十分に信頼性がありロバストな結果を示さない。
オブジェクトが、例えば円板状又は長方形タイプの基本的な幾何学的形状、あるいは固有の一様な色、又は十分に鋭い輪郭を有するとき、画像内でオブジェクトを特定することを可能にする処理アルゴリズムが存在する。これらのアルゴリズムは、それらの画像の複雑さ、オブジェクトと背景との間の色の類似性、又はとりわけコントラスト不足のために、もはや任意のオブジェクトの画像に対し一般的に効果的ではない。
画像処理の第1のカテゴリーは、オブジェクトの輪郭の自動検知に基づく。それにもかかわらず、この方法は、この方法によりオブジェクトの輪郭として誤って解釈された、画像の明るさの大きな変化、影の作用又はテクスチャの変化に起因する誤差を生じる。
1台のカメラが例えば固定され、もう1台が可動式であり、ロボットアームの動きをガイドする、例えば2台のカメラからの画像を含む別のオブジェクト指示方法が存在する。しかしながら、追加のカメラを何ら必要とせず、何ら捕捉されるべきオブジェクトの準備も、とりわけ何ら目標点を用いたオブジェクトの事前マーキングも必要としない手順に対する要求がある。
一般的にオブジェクトの識別に対する画像の処理において、画像内に存在する全てのオブジェクトに関して探索する目的で、画像の全体的な分割に対する多くの研究がある。画像分割において一般的に求められる目標は、画像全体を複数のオブジェクトへと分割することである。それにもかかわらず、この目標の大部分は測光特性、特に色の使用を招き、それら自体ではオブジェクトの再構築を可能としない。その結果、オブジェクトと結び付けられた意味論は、人間がそれらと結び付け得る意味論から離れたままに留まる。
本発明の1つの目的は、とりわけ、或る画像に対する1回の相互作用を通じて、それを残りの画像から識別するオブジェクトの指示を可能にすることである。このため、本発明の主題は画像内のオブジェクトを指示する方法であり、この方法は:
−画像内のオブジェクト内部の点Pを指示するステップと、
−画像を基本領域へ分割するステップと、
−点Pが属する元の領域Rを識別するステップと、
−領域間の関連性のグラフを構築するステップと、
−様々な帰属特性を組み合わせることにより、元の領域Rに接続された領域に対して、オブジェクトにおけるメンバーシップ関数を計算するステップと、
−そのメンバーシップ関数の値が所与のしきい値よりも大きい場合に併合される、その接続された領域と、元の領域Rを併合するステップとを含み、
接続された領域のメンバーシップ関数と、併合のメンバーシップ関数とを計算するステップは、併合が行なわれなくなるまで、各々の新たな併合された領域に対して繰り返される。
併合のステップは、例えば次のステップ:
−元の領域Rに接続された領域に対して、オブジェクト内のメンバーシップ関数を計算するステップと、
−そのメンバーシップ関数の値が所与のしきい値よりも大きい、最も近傍の接続された領域と、元の領域Rとを併合するステップと、
−新たな併合された領域の関数として、関連性のグラフを更新するステップと
を含み、
併合ステップは、それに続いて次の反復のステップ:
−新たな併合された領域Rに接続された領域に対して、オブジェクト内のメンバーシップ関数を計算するステップ(71、72)と、
−そのメンバーシップ関数の値が所与のしきい値よりも大きい、最も近傍の接続された領域Rと、併合された領域Rとを併合するステップ(73)と、
−新たな併合された領域の関数として、関連性のグラフを更新するステップと
を含む。
オブジェクト内の領域のメンバーシップ関数の計算は、例えば接続された領域Rと併合された領域Rとの相違を特徴付ける、幾つかの特性を組み合わせるファジー演算μを通じて行なわれることが有利である。
例えば次の特性を含む、幾つかのタイプの特性が用いられ得る:
−指示点Pからの領域Rの隔たりと、
−画像の縁から領域Rの重心までの距離と、
−領域Rの面積とそれを包含するボックスの面積との比率として定義される、領域Rの密度と、
−その周囲長さの2乗とその面積との比率として定義される、領域Rのコンパクトさと、
−オブジェクトに属する領域に対称な領域が、このオブジェクトに属する傾向のある、画像の軸に関する対称性。
有利なことに、本方法は例えばオブジェクトを認識するステップを含み、前記方法は基準を用いてオブジェクトと総語彙の要素との比較を可能にする。
点Pは例えばマウス・タイプのデータ収集インターフェースを用いて指示される。
本発明のその他の利点及び特徴は、添付図面に関連して与えられる、以下に続く説明により明らかになるであろう。
先行技術による、元の画像からの例示的分割である。 先行技術による、元の画像からの例示的分割である。 先行技術による、元の画像からの例示的分割である。 例示的な望ましい分割結果である。 本発明による方法の可能なステップの説明である。 画像の可能な分割の説明である。 画像の可能な分割の説明である。 本発明による方法において用いられる関連性のグラフの説明である。 関連性リンクの説明である。 本発明による方法の領域を併合するステップにおいて適用される、反復プロセスの可能なステップの説明である。
図1a、1b、1cは、例として、先行技術による画像の全体的な分割手順の結果を説明し、図1aは元の画像を、図1bは目標物の分割、そして図1cは最終的に得られた分割を表わす。
図1aは元の画像Aを示す。従来の自動全体分割の目的は、図1bに示されている画像H(A)を得ることである。この画像H(A)において、前景2又は背景3の各オブジェクトが個々に分離されている意味領域1へと、画像全体の分割を行なうことが探求される。図1cは理想的な画像H(A)に関する過度の分割がそこで観察される、最終的に得られた分割図S(A)を示し、部分的セグメント4はオブジェクトの内側に作られている。
自動分割により得られる部分的セグメント4は、人の手による分割で得られた図1bの意味領域とは対照的な基本領域を形成する。
より一般的には、従来の自動分割の主な限界は次の通りである:
−同じオブジェクトの部分を形成する、同色であるが遠く離れた領域は必ずしも同一のセグメントに含まれず、
−オブジェクトの部分及び背景の部分をそれぞれ形成する、同色で近い領域は同一のセグメントに含まれる可能性があり、
−同じオブジェクトの部分を形成する、非常に異なった色の隣接する領域は、同様に必ずしも同一のセグメントに含まれず、
−最後に、オブジェクトの部分及び背景の部分を形成する、非常に異なった色の隣接する領域は、同一のセグメント内に一緒にグループ化され得る。
領域間の距離のパラメータ及び色のパラメータは、従って或る領域がオブジェクトに属するか、又は背景に属するかを決定するためには単独では不十分である。そこで、それらを様々なオブジェクトに対応する領域内へグループ化するために、領域を自動的に併合することは困難である。
従って従来の全体的な分割は、それが:
−各オブジェクトが、一緒にグループ化することの難しい領域へ分割される、図1cによって示されるような画像の過度の分割か、
−又はオブジェクトを背景から切り離すことを可能にしない、画像の部分的セグメント
に帰着するため、画像を動作オブジェクトへと確実に分割することを可能にしない。
図2は本発明による方法を通じて得ることができる、例示的な望まれる結果の説明である。画像の一部分にあるオブジェクト21は、例えば簡単なマウスのクリックを通じてオペレータにより指示され、このように指示されたオブジェクトに対応する画像の領域は、画像の残りの全てから区別される。
図2において、十字22はオペレータにより、例えばマウスのクリックを用いて行なわれた例示的指示点である。所望の分割D(A)は2進の分割であり、指示されたオブジェクト21に対応する領域は、画像の残り又は背景から分離されている。図2の例において、画像の背景に対応する全てのものは、とりわけファジーにされ得る。この背景は従来の分割の意味で、幾つものオブジェクトを含む。
図3は本発明による方法を実施するための可能なステップを説明している。
本方法は画像上のオブジェクトにおける点を指示する、準備段階30を含む。グラフィカル・インターフェースにおいて表示された画像の中で、オペレータはデータ収集インターフェース、例えばマウス、「トラックボール」、又はユーザーの構成に適合する任意の別の装置を用いて、彼が指示したいと望むオブジェクトの部分を形成する点を指示する。図2の例において、オブジェクト21は十字22によって表わされる点で指示される。この画像は例えば低レベル・フィルタリングの追加的な、オプションのステップを経ることができる。このステップにおいて、画像は例えば減らされた色の数のごとく、そのサイズを低減するためにフィルタリングされる。
第1ステップ31において、本方法は複数の領域への画像Aの分割を行なう。指示がそれに対して行なわれる画像は、画像分割手順、例えば分水界線技術又は異方性拡散技術の使用を通じた、画像分割手順を用いて複数の領域へ分割される。
本方法は、領域の関連性グラフを構築する第2ステップ32を含む。このステップにおいて、領域の関連性グラフはこの分割に基づいて決定される。
第3ステップ33において、本方法は指示されたオブジェクトを最も良くカバーするように、その領域をグループ化する。画像上のクリック位置は、例えばオブジェクトに属すると想定される領域を集めるための、基準マーカーとして用いられる。併合されるべき領域は、クリックの位置に依存する、又は依存しない構造的基準により決定される。これらの基準は包括的又は専用であり得る。
図4a及び4bは、前述の第1ステップ31の間に実行された画像分割の2つの例を説明している。この第1ステップは、その目的が画像を均質の領域へと分割することである、生の又は当初の画像の分割である。分割の目的は、画像内に存在するオブジェクトに最も良く対応する複数の領域を持つこと、及び可能ならばそれらの間に規則正しい境界を持つことである。この分割は当初の画像の画素数よりも少ない、多数の要素を提供する。この段階で、様々な領域が同一のオブジェクトに属するかどうかを知ることは不可能である。
図4a及び4bは、既知の手順又はアルゴリズムに従って得られる、図1aの元の画像Aを分割する2つの例を説明している。
図4aは異方性拡散により達成される第1の分割手順を例示し、分割された図41は輪郭に基づく手順を通じて得られる。マー,W.Y.(Ma,W.Y.)及びB.S.マンジュナス(B.S.Manjunath)の文献資料:「エッジ・フロー:境界の検出及び分割用の技術(Edge Flow:A technique for boundary detection and segmentation)」、画像処理に関するIEEE議事録(IEEE Transactions on Images Processing)、2000年8月、1375〜1388頁は輪郭に基づく分割手順を説明している。画像41はさらに、例えば異方性拡散により得られる。異方性拡散は、均質の領域を滑らかにし、コントラストを輪郭レベルで増加させるように全体の画像を変える。
図4bはいわゆる分水界線の方法により得られる、分割された図42を示す。分水界線は数学的形態論の方法による画像分割を特徴とするモデルである。その基本原理は画像をトポグラフ面として描くことにある。G.マトゥロン(G.Matheron)及びJ.セラ(J.Serra)の著書「数学的形態論の誕生(The Birth of Mathematical Morphology)」、1998年6月は、この方法を説明している。
一般的に、複数の領域へ分割する幾つかの方法が使用され得る。とりわけ、次の基準が用いられ得る:
−図4aにより例示されているような、輪郭に基づく基準と、
−図4bにより例示されているような、均質な結ばれた画素の集合に基づく基準。
得られた分割は距離についての情報に何ら関係しない。重要な結果は、とりわけ分割が、オブジェクトにできる限り近い、特にそれらの構造にできる限り近い領域を生成することである。分割はオブジェクトの様々な部分に正確に、又は殆ど対応する領域を持つことを可能にする。或る領域はとりわけ、その平均的な色、その重心、それを包含するボックス、及びその面積により特徴付けられることができる。均質な領域への画像の分割は、これらのパラメータに依存する。他のパラメータは場合によっては考慮され得る。
プラスチック製の緑色のミネラルウォーター・ボトルの例において、分割は可能ならば栓、ラベル、及び緑のプラスチックのそれぞれに対応する領域を得ることを可能にすべきである。
図5は前述の第2ステップ32が完了した際に得られる、関連性のグラフの例示である。関連性のグラフは、領域の併合のため画像分割において用いられる従来の構造である。より具体的に、図5は例として、図4aの分割された画像41から得られた関連性のグラフ51を例示する。入力画像は、その画素{p}の集合により表わされる。P={R1≦k≦Mは、例えば分水界線法又は可能な輪郭法による分割によって得られる、画像の仕切りをM領域内へ形成する領域の集合である。この仕切りは領域の近接グラフ、又は関連性グラフ、G=(N,a)により表わされ、ここで:
−N={1、2、....M}はノードの集合、
−a={RとRが隣接するような(i,j,δi,j)}はエッジの集合である。
エッジは実際に領域間のリンクを表わす。各エッジは、領域間の併合基準に対応する相違の尺度δi,jにより特徴付けられる。
ベネルクス域内の情報理論に関する第22回シンポジウム(22nd Symposium on Information Theory in the Benelux)における、ブロックス(Brox)、トーマス(Thomas)、ディルク・ファリン(Dirk Farin)、及びピーター・H.N(Peter H.N)による文献資料:「画像分割のための多段階領域併合(Multi−Stage Region Merging for Image Segmentation)」、189〜196頁、2001年5月、オランダEnschede社刊において特に示されるように、最終的な分割の品質が依存するのは、とりわけこの基準である。
図5において、破線52は領域53と54の間の関連性リンクの存在をペアとして示す。グラフG=(N,a)において、各ノード55は領域を表わし、各リンク52は相違の尺度δi,jにより重み付けされる。
図6は2つの領域R、Rの間の関連性リンクを例示する。リンク52は相違の尺度δ1,iにより特徴付けられる。十字22により象徴される点P1は、画像内のオブジェクト21の内側領域Rの中に指示される。点P1が属する領域Rに隣接する領域Rの中で、本方法は関連性グラフを用いて、そしてより具体的には、領域間のリンクを特徴付ける相違の尺度を用いて、領域Rと併合され得る領域を探す。さらに具体的には、領域Rは相違の尺度δ1,iの値の関数として、領域Rと併合される。この相違の尺度はとりわけ、例えばクリック点の隔たり、背景内での帰属、コンパクトさ、対称な様相、包絡線の規則性、テクスチャ、あるいは色のような、幾つかの基準又は特性に依存し得る。
図7は領域をグループ化、又は併合するステップ33において実行されるステップを例示する。このステップにおいて、オブジェクトを囲んでいるウィンドウを決定するために、領域の集合体を得ることが追求される。図7は新たな相違の尺度に頼る領域を併合するプロセスを例示する。併合はクリックにより指示された元の領域Rから出発する。領域Rは指示されたオブジェクトに属すると仮定される。図7により例示されるプロセスは、画像上のオブジェクトの縁まで、他の領域との連続的な併合を通じて、領域Rを拡げることを可能にする。
プロセスの準備段階70において、領域Rは例えば1回のクリックにより、例えば指示される。領域Rは連続的に併合される。プロセスのステップ71、72、73の反復的な進行は、各反復において或る領域の併合を可能にする。所与の反復の間に、プロセスは近接する領域Rを、領域Rの周りの初期化された集合体の中へ既に併合された領域Rに併合しようと努める。
第1ステップ71において、プロセスは隣接する領域Aの中で、領域Rに最も近い隣接領域Rを識別する。隣接領域とは、領域Rとの関連性リンク52を有する領域として定義される。領域Rに最も近い隣接領域は、その領域Rとのリンクが最も低い相違の尺度δminを示す領域Rである。
第2ステップ72において、プロセスはこの隣接領域Rがオブジェクトに属するかどうかを確かめようとする。このために、プロセスは相違の尺度を特徴付ける様々な基準の使用に基づいて、例えばオブジェクトの帰属のファジーな方策を実行する。これらの基準は例えば、前に示されたように、クリック点の隔たり、背景内での帰属、コンパクトさ又は密度、対称な様相、包絡線の規則性、テクスチャ、あるいは色である。
第3ステップ73において、領域Rはそれがオブジェクトに属する場合、すなわち帰属の程度がしきい値よりも小さい場合に、領域Rと併合される。
関連性のグラフはその結果として更新され、特に領域RとRとの間の関連性リンクは、これら2つの領域の併合に従って削除される。プロセスは次にその第1ステップ71のレベルを再開する。
併合がもはや起きないとき、又は隣接領域が選ばれない場合、プロセスはステップ74において停止する。
本発明によれば、オブジェクト21内の領域Rの帰属は、前述されたものの中から、様々な基準の尺度に対してファジー演算を用いる関数により決定される。例として、4つの基準が以下に説明される。これらの基準は、併合プロセスの第2ステップ72のしきい値と比較されるであろう全体的な尺度を得るために、ファジー論理演算によって組み合わされる。
従って、双方共に下記に依存する指示点22、又は関数μによるクリックに関する領域Rの位置を表わすことが可能である:
−領域Rの中心に対する、考慮される隣接領域Rの中心の垂直及び水平の偏差と、
−指示点22の領域Rと、考慮される隣接領域Rとの併合に対応する領域の重心の、依然として指示点22に対する偏差。
各領域に関して、画像の縁からの距離に応じて、背景内における帰属の基準を定義することもまた可能である。画像の縁から重心までの距離は、そのときμと称される。
さらに密度又はコンパクトさの尺度を用いることが可能である。或る領域の面積はA(R)と称され、この領域の周囲長はp(R)と称され、そして例えば長方形であり得るその包含ボックスの面積はBB(R)と称される。そのとき密度の尺度は関数:
Figure 2010511215
により定義されることができ、そしてコンパクトさの尺度は関数:
Figure 2010511215
により定義されることができる。
様々な基準の組合せはファジー論理演算を通じて行なわれる。
上記の4つの関数は、例えば次の関係に従って定義される帰属の基準μを得るために組み合わされ得る:
Figure 2010511215
記号∧及び∨は論理関数「and」及び「or」を表わし、これは特に関係式(1)において2つの基準が∧によって結ばれた場合、双方の基準が考慮されることを示す。2つの基準が∨によって結ばれた場合、一方又は他方の基準が考慮されるか、あるいは双方が一度に考慮される。
所与の領域Rに関して、基準μは当初のクリックの領域Rを含むオブジェクト内における帰属の基準である。
その他の関数μ、μ、μ、μと同様に、μは考慮される隣接領域Rとのリンクを特徴付ける領域Rの関数である。μ(R)は領域Rと領域Rとの間の相違の尺度δminを形成する。μ(R)が大きいほど、相違は小さい。第2ステップ72の比較は次にμ(R)をしきい値と比較することに帰着し、併合はμ(R)がこのしきい値よりも大きい場合に生じる。
オブジェクト内における追加的な帰属の基準は、2つの基本領域R、Rの併合からもたらされる、領域における対称性の検出であり得る。本プロセスは次に、探求されるオブジェクトは水平及び垂直の対称軸を示すという仮定を行なう。多くの適用例において、指示されるオブジェクトは主として加工されたオブジェクトであり、実際に大部分は垂直の対称軸を示す。画像の勾配を拠りどころとする対称軸を求めるための方法は、D.ライスフェルド(D.Reisfeld)、H.ウォルフソン(H.Wolfson)、及びY.イェシュロン(Y.Yeshurun)による文献資料:「コンピュータビジョンにおける離散的対称変換(The discrete Symmetry Transform in Computer Vision)」、コンピュータビジョンの国際ジャーナル(Int.J.of Computer Vision)、定性的視覚に関する特集号(Special Issue on Qualitative Vision)、第14号:119〜130頁、1995年に記述されている。本プロセスは画素を選択し、同一の行、それぞれ同一の列の上で勾配の画像、すなわち分割段階の間に輪郭を検出するステップによって生じる画像において、類似性を示す画素を探す。本プロセスはその後、行の上で、次に列の上で対称性を探す。類似性を示す点は、オブジェクトの対称中心を決定するため、その後に集積表の中へ格納され、対称の中心はこれら全ての集積された点から等距離の点である。中心の対称点の検出を可能にする方法は、特にG.ロイ(G.Loy)及びA.ゼリンスキー(A.Zelinsky)の文献資料:「肝心な点を検出するための高速放射対称(Fast Radial Symmetry for Detecting Points of Interest)」、パターン解析及び機械知能に関するIEEE議事録(IEEE Transactions on Pattern Analysis and Machine Intelligence)、25(8):959〜973頁、2003年、ISSN 0162−8828に記述されている。
対称の基準は次に併合に対して用いることができ、具体的にはオブジェクトに属する領域に対称な領域もまた、この同じオブジェクトに属し得る。
1つの変形の実施において、本発明による方法は追加的な認識ステップを含む。そこで、オブジェクトの位置及び捕捉を、その認識を用いて補完することが可能である。この場合、本発明による方法は、オブジェクトを総語彙の要素と比較することを可能にする基準を導入する。これは特に、最終領域に含まれるオブジェクトを認識することを伴う。日常の生活からできるだけ多くのオブジェクトを寄せ集める画像のベースにおいて、或るインデックスが定義され、ベースの画像によって表わされる様々なオブジェクトの識別を可能にする。領域の併合の完了の際に、本発明による方法はオブジェクトを多かれ少なかれ表わす画像を得ることを可能にする。この画像はベースの各オブジェクトまでの距離を計算するインデクサーに与えられ、例えば増加する距離のオーダーによって区分されたオブジェクトのリストを戻す。そこから最も指示される可能性が高いオブジェクトを推定することが、そのとき可能である。
オブジェクトの捕捉を改善するため、又はその使用を予想するための可能なアプリケーションに加えて、この認識はとりわけ、それと共に新たな領域を併合することにより、オブジェクトに対応する最終領域を強化するか、又は認識された範囲の或る領域又は画素を削除するように、併合を再検討することを可能にする。例えばボトルの形状が認識された場合、ボトルの形状に対応しない、或る突起物を形成する領域は削除され得る。同様に、或る領域が認識された形状を補うために追加され得る。認識された形状は、人間に対してより自然な分割に対応する意味領域に相当し、様々な把握できるオブジェクトの識別を可能にする。前述の基本領域Rは自動画像分割技術により得られる。使用されるファジーな方策は、意味領域内の基本領域の帰属度合いを測定することを可能にする。ファジーな方策の使用は、オブジェクト内の領域の帰属における、この不確かさに対して有利にも適しており、オブジェクト内の領域は意味領域に相当する。
従来の手順において、1つの画素が一定の度合いに応じて1つの領域に属する、ファジー領域へと分割を用いることが可能である。本発明の方法において、1つの画素がファジーなやり方で1つ以上の領域に属する従来の方法とは対照的に、1つの画素は2進法で同時に1つだけの領域に属する。ファジーなやり方で意味領域に属するのは基本領域である。有利なことに、本発明による方法はノイズに余り敏感ではない。別の利点はとりわけ、それが明確な形式主義を併合に与え、補完的な基準を加えることにより容易に強化され得る、帰属の基準を得ることを可能にすることである。
有利なことに、本発明は多くの用途を可能にする。とりわけ、それは例えば以下を可能にするように、マニピュレータのアームを用いてオブジェクトの自動捕捉を始動させることができる。
−ビデオ画像上における、ユーザーによる1回のクリックでのオブジェクト指示と、
−ユーザーによる選択の検証と、
−捕捉のためのロボットアームの作動。
このステップは場合により、例えば画像のライブラリーにおける画像のインデックス付けを介して、オブジェクトを認識又は識別する次のステップとつながれ得る。
本発明によるオブジェクトの指示方法はまた有利なことに、例えばロボットアームを用いて、オブジェクトの自動捕捉の別個の方法とつながれ得る。この場合、オブジェクトは例えばロボット内へ組み込まれたカメラにより検出される。
オペレータ、例えば障害者は、クリック又は他のあらゆる基本手段を用いて、カメラにより伝送された画像上でオブジェクトを指示する。ロボットアームはそれに続いて、例えば所定の命令に従って指示されたオブジェクトを操作する。

Claims (10)

  1. 画像内のオブジェクトを指示する方法であって、
    −画像内のオブジェクト(21)内部の点P(22)を指示するステップ(30)と、
    −画像(A)を基本領域(4、R)へ分割するステップ(31)と、
    −点Pが属する元の領域Rを識別するステップと、
    −領域間の関連性のグラフ(51)を構築するステップ(32)と、
    −様々な帰属特性を組み合わせることにより、元の領域Rに接続された領域に対して、オブジェクトにおけるメンバーシップ関数を計算するステップと、
    −そのメンバーシップ関数の値が所与のしきい値よりも大きい場合に併合される、その接続された領域と、元の領域Rを併合するステップ(33)とを含み、
    接続された領域のメンバーシップ関数と、併合のメンバーシップ関数とを計算するステップが、併合が行なわれなくなるまで、各々の新たな併合された領域に対して繰り返されることを特徴とする方法。
  2. 併合のステップ(33)が:
    −元の領域Rに接続された領域に対して、オブジェクト内のメンバーシップ関数を計算するステップ(71、72)と、
    −そのメンバーシップ関数の値が所与のしきい値よりも大きい、最も近傍の接続された領域と、元の領域Rとを併合するステップ(73)と、
    −新たな併合された領域の関数として、関連性のグラフを更新するステップと
    を含み、
    前記併合ステップ(33)が、それに続いて次の反復のステップ(71、72、73):
    −新たな併合された領域Rに接続された領域に対して、オブジェクト内のメンバーシップ関数を計算するステップ(71、72)と、
    −そのメンバーシップ関数の値が所与のしきい値よりも大きい、最も近傍の接続された領域Rと、併合された領域Rとを併合するステップ(73)と、
    −新たな併合された領域の関数として、関連性のグラフを更新するステップと
    を含むことを特徴とする、請求項1に記載の方法。
  3. オブジェクト(21)内の領域のメンバーシップ関数の計算が、接続された領域Rと併合された領域Rとの相違を特徴付ける、幾つかの特性を組み合わせるファジー演算(μ)により行なわれることを特徴とする、請求項1または2に記載の方法。
  4. ファジー演算の特性が、領域Rの、指示点P(22)からの隔たりであることを特徴とする、請求項3に記載の方法。
  5. ファジー演算の特性が、画像の縁から領域Rの重心への距離であることを特徴とする、請求項3または4に記載の方法。
  6. ファジー演算の特性が、面積(A(R))とそれを包含するボックス(BB(R))との比率として定義される、領域Rの密度であることを特徴とする、請求項3〜5のいずれか一項に記載の方法。
  7. ファジー演算の特性が、領域Rの周囲長さ(p(R))の2乗とその面積(A(R))との比率として定義される、領域Rのコンパクトさであることを特徴とする、請求項3〜6のいずれか一項に記載の方法。
  8. ファジー演算の特性が、画像の軸に対する対称性であり、オブジェクト(21)に属する領域に対称な領域が、このオブジェクトに属する傾向のあることを特徴とする、請求項3〜7のいずれか一項に記載の方法。
  9. その方法がオブジェクト(21)を認識するステップを含み、前記方法がそのオブジェクトの、総語彙の要素との比較を可能にする基準を用いることを特徴とする、請求項1〜8のいずれか一項に記載の方法。
  10. 点P(22)がマウス・タイプのデータ収集インターフェースを用いて指示されることを特徴とする、請求項1〜9のいずれか一項に記載の方法。
JP2009537659A 2006-11-28 2007-11-27 画像内のオブジェクトを指示する方法 Pending JP2010511215A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0610403A FR2909205B1 (fr) 2006-11-28 2006-11-28 Procede de designation d'un objet dans une image.
PCT/EP2007/062889 WO2008065113A1 (fr) 2006-11-28 2007-11-27 Procede de designation d'un objet dans une image

Publications (1)

Publication Number Publication Date
JP2010511215A true JP2010511215A (ja) 2010-04-08

Family

ID=38066458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009537659A Pending JP2010511215A (ja) 2006-11-28 2007-11-27 画像内のオブジェクトを指示する方法

Country Status (6)

Country Link
US (1) US20100066761A1 (ja)
EP (1) EP2095327A1 (ja)
JP (1) JP2010511215A (ja)
CA (1) CA2671037A1 (ja)
FR (1) FR2909205B1 (ja)
WO (1) WO2008065113A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014209327A (ja) * 2013-03-27 2014-11-06 パナソニック株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014209326A (ja) * 2013-03-27 2014-11-06 パナソニック株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8385632B2 (en) * 2010-06-01 2013-02-26 Mitsubishi Electric Research Laboratories, Inc. System and method for adapting generic classifiers for object detection in particular scenes using incremental training
FR2965921B1 (fr) 2010-10-11 2012-12-14 Commissariat Energie Atomique Procede de mesure de l'orientation et de la deformation elastique de grains dans des materiaux multicristallins
US9558575B2 (en) * 2012-02-28 2017-01-31 Blackberry Limited Methods and devices for selecting objects in images
FI20125278L (fi) 2012-03-14 2013-09-15 Mirasys Business Analytics Oy Menetelmä ja järjestely ja tietokoneohjelmatuote videoitujen kohteiden tunnistamiseksi
US9367733B2 (en) 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
US10009579B2 (en) 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
US9639747B2 (en) * 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
CN104346801B (zh) * 2013-08-02 2018-07-20 佳能株式会社 图像构图评估装置、信息处理装置及其方法
GB2519130A (en) * 2013-10-11 2015-04-15 Nokia Corp A method and apparatus for image segmentation
CN103577829B (zh) * 2013-11-08 2016-04-20 中安消技术有限公司 一种车标定位方法和装置
US9235903B2 (en) 2014-04-03 2016-01-12 Sony Corporation Image processing system with automatic segmentation and method of operation thereof
CN106097353B (zh) * 2016-06-15 2018-06-22 北京市商汤科技开发有限公司 基于多层次局部区域融合的物体分割方法及装置、计算设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006519635A (ja) * 2003-02-28 2006-08-31 セダラ ソフトウェア コーポレイション 画像領域セグメント化システムおよびその方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803920B2 (en) * 2000-08-04 2004-10-12 Pts Corporation Method and apparatus for digital image segmentation using an iterative method
US6763137B1 (en) * 2000-09-14 2004-07-13 Canon Kabushiki Kaisha Recognition and clustering of connected components in bi-level images
US6859554B2 (en) * 2001-04-04 2005-02-22 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting multi-resolution video objects
FR2825817B1 (fr) * 2001-06-07 2003-09-19 Commissariat Energie Atomique Procede de traitement d'images pour l'extraction automatique d'elements semantiques
US7388990B2 (en) * 2003-09-22 2008-06-17 Matrox Electronics Systems, Ltd. Local mass distribution partitioning for object recognition
US8233712B2 (en) * 2006-07-28 2012-07-31 University Of New Brunswick Methods of segmenting a digital image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006519635A (ja) * 2003-02-28 2006-08-31 セダラ ソフトウェア コーポレイション 画像領域セグメント化システムおよびその方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7012002961; Frank Nielsen: 'ClickRemoval: Interactive Pinpoint Image Object Removal' MULTIMEDIA '05 Proceedings of the 13th annual ACM international conference on Multimedia , 200511, pp.315-318, ACM *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014209327A (ja) * 2013-03-27 2014-11-06 パナソニック株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014209326A (ja) * 2013-03-27 2014-11-06 パナソニック株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9495757B2 (en) 2013-03-27 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting

Also Published As

Publication number Publication date
WO2008065113A1 (fr) 2008-06-05
EP2095327A1 (fr) 2009-09-02
US20100066761A1 (en) 2010-03-18
FR2909205B1 (fr) 2009-01-23
CA2671037A1 (en) 2008-06-05
FR2909205A1 (fr) 2008-05-30

Similar Documents

Publication Publication Date Title
JP2010511215A (ja) 画像内のオブジェクトを指示する方法
Anjna et al. Review of image segmentation technique
Preetha et al. Image segmentation using seeded region growing
US7437004B2 (en) Method for processing data structures with networked semantic units
CN108537239B (zh) 一种图像显著性目标检测的方法
US8385654B2 (en) Salience estimation for object-based visual attention model
Varnousfaderani et al. Weighted color and texture sample selection for image matting
CN107784663A (zh) 基于深度信息的相关滤波跟踪方法及装置
CN109886128A (zh) 一种低分辨率下的人脸检测方法
JP2021512446A (ja) 画像処理方法、電子機器および記憶媒体
CN105513066B (zh) 一种基于种子点选取与超像素融合的通用物体检测方法
CN107622280B (zh) 基于场景分类的模块化处方式图像显著性检测方法
CN107230188A (zh) 一种视频运动阴影消除的方法
CN108596920A (zh) 一种基于彩色图像的目标分割方法及装置
JP6448212B2 (ja) 認識装置及び認識方法
Vartak et al. Colour image segmentation-a survey
CN107832732B (zh) 基于三叉树遍历的车道线检测方法
Sun et al. Unsupervised object extraction by contour delineation and texture discrimination based on oriented edge features
Ghariba et al. Salient object detection using semantic segmentation technique
Sima et al. Texture superpixels merging by color-texture histograms for color image segmentation
Rosenfeld Pyramid algorithms for finding global structures in images
Zalizam et al. Adaptive Hybrid Blood Cell Image Segmentation
Weixing et al. Segmentation of fuzzy and touching cells based on modified minimum spanning tree and concave point detection
Usó A quadtree-based unsupervised segmentation algorithm for fruit visual inspection
Mirkazemi et al. Fast image segmentation based on adaptive histogram thresholding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130115