JP4567660B2 - 電子画像内で物体のセグメントを求める方法 - Google Patents

電子画像内で物体のセグメントを求める方法 Download PDF

Info

Publication number
JP4567660B2
JP4567660B2 JP2006343950A JP2006343950A JP4567660B2 JP 4567660 B2 JP4567660 B2 JP 4567660B2 JP 2006343950 A JP2006343950 A JP 2006343950A JP 2006343950 A JP2006343950 A JP 2006343950A JP 4567660 B2 JP4567660 B2 JP 4567660B2
Authority
JP
Japan
Prior art keywords
map
vector
binarized
segment
maps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006343950A
Other languages
English (en)
Other versions
JP2007172627A (ja
Inventor
ミヒャエル・ゲッティング
ハイコ・ヴェルジング
ヨッヒェン・ジェイ・スタイル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2007172627A publication Critical patent/JP2007172627A/ja
Application granted granted Critical
Publication of JP4567660B2 publication Critical patent/JP4567660B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、機械によるデジタル画像処理の分野に関する。特に、本発明は、実世界のシーンにおける機械による注意制御、シーンのセグメンテーション、および物体認識の問題に関する。
インテリジェントな人間−機械のインタラクションを実現するため、注意制御(attention control)および物体認識(object recognition)は重要な課題として広く認識されている。実世界のシーンにおいてシーンのセグメンテーション(segmentation、セグメント化、分割、区分)および物体認識が困難であるため、この領域の多くの作業は、たとえば整理された背景、前景物体の均質な配色、または定義済みの物体の種類などの明示的または黙示的に制約されるシナリオに専念してきた。しかし、下位レベルの先入観と物体表現の記号レベルとの間のギャップを埋めることは、依然として困難である。
物体学習の現在最も強力な手法は、確率論およびベイズの方法に基づくものである(非特許文献1)。J.WinnおよびN.Joijicは(非特許文献2)、学習規範型物体(learning prototypic object)のカテゴリを、本来の画像とは異なる形状で示す。しかし、彼らの方法は計算処理的に極めて要求が厳しく、オンラインおよびインタラクティブ学習には適していない。
ビジュアル処理を容易にし、検索スペースを軽減するため、多くの認知視覚システムでは視覚制御に基づく注意を使用して固視点(fixation)を生成する。下位レベルにおいて、注意制御は多くの場合、地形的に順序付けられたマップ(topographically ordered map)に基づいてある関心点にシステムリソースを集中させる(非特許文献3)。これらのマップでは大部分が、色、有向エッジ(oriented edge)、または輝度などの単純な刺激を使用するが、より上位レベルの情報を統合するためのメカニズムも提案された(非特許文献4)。意味論的レベルに到達するための1つの手法は、全体論的な物体分類体系により現在の固視点において既知の物体を検索することであり(非特許文献5)、認識された物体を記号メモリに格納することである(非特許文献6および非特許文献7)。さまざまな視点からの膨大量の訓練画像が必要になるため、物体分類自体はあらかじめオフラインで訓練しておく必要がある。
セグメンテーションと認識には密接な関係性があると一般に考えられており、一部の著者は両手法を同時に解決しようと試み(たとえば、非特許文献8を参照)、その結果オンライン機能によらないかなり複雑なアーキテクチャに至る。より伝統的な手法において、セグメンテーションは、認識に対して独立した前処理段階として扱われる。しかし、物体に関する先験的知識は使用できないため、そのような学習コンテキストにおいては、教師なしの(unsupervised)セグメンテーションを使用することが極めて重要である。
教師なしセグメンテーションを可能にするため、いくつかのクラスタ・ベースのセグメンテーションの手法(非特許文献9および非特許文献10)では、さまざまな色空間と、場合によってはピクセル座標を特徴空間として使用する。彼らは、K平均(K-means)または自己組織化マップ(self organizing map:SOM)のようなベクトル量子化法を適用して、この空間を分割し、コードブック・ベクトル(codebook vector)に関して画像を区分化する。同様に、一部の手法では、色にインデックスを付け、このインデックス空間を定量化して、この定量化をセグメントに背景映写する(非特許文献11および非特許文献12)。そのような定量化法は高速となる可能性を秘めているが、物体が均質的に彩色される必要があり、1つのセグメントによってカバーされうることを想定する。立体画像が使用可能である場合、視差情報はセグメンテーション・キューとして使用することができ(非特許文献13)、一部の手法では追加の色セグメンテーションによって信頼できない視差情報をサポートしようと試みる(非特許文献14)。これらの方式において、色セグメンテーションは学習されず、根底にある強い均質性の前提を使用する。黙示的には、これらの手法では区分化する物体が相互に分離されることも想定されるが、これは現実のシナリオにおいて、特に人間が学習対象の物体を操作して機械に提示する場合、あてはまらない。
一部の手法は、教師なしの色クラスタリング法を、他のソースから導出された物体に関するトップダウンの情報と組み合わせるためになされた(非特許文献15および非特許文献16)。この手法は、教師なしステップにおいて、より小さいセグメントが生成され、それが物体を過剰に区分化することができるという利点を備えている。したがって、均質性の前提は緩和できるが、トップダウンの情報は、結果として生じるあいまいさを解決するのに十分でなければならない。
したがって、前述の非特許文献15において、教師なしステップは、ツリーで順序付けられたセグメントの階層および連続的な最適化手順を生成して、トップレベル情報に基づくコスト関数に関して物体に属すことを示すラベルをセグメントに付けることからなる。
この方法の複雑さは、ピクセルの数では線形であるが、依然として、毎秒数フレームというリアルタイム・パフォーマンス処理を可能にするほど十分な高速さを備えてはいない。
Krishnapuram B., C. M. Bishop, and M. Szummer, "Generative models and Bayesian model comparison for shape recognition", Proceedings Ninth International Workshop on Frontiers in Handwriting Recognition, 2004 J. Winn and N. Joijic, "Locus: Learning object classes withunsupervised segmentation", Intl. Conf. on Computer Vision, 2005 Joseph A. Driscoll, Richard Alan Peters II and Kyle R. Cave, "A visual attention network for a humanoid robot", Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS-98), Victoria, B. C. , 1998年10月12〜16日 J.J.Steil、G.Heidemann、J.Jockusch、R.Rae、N.Jungclausand H.Ritter, "Guiding attention for grasping tasks by gestural instruction: The gravis-robot architecture", Proc.IROS 2001, pages 1570-1577, IEEE, 2001 J.J.Steil and H.Ritter, "Learning issues in a multi-modal robot-instruction scenario", IEEE Int. Conf. Robotics, Intelligent Systems and Signal Processing, 2003 G.Heidemann, "A multi-purpose visual classification system", In B.Reusch、Editor、Proc.7th Fuzzy Days、Dortmund、2001、pages 305-312、Springer-Verlag、2001 G.Heidemann and H.Ritter, "Combining multiple neural nets for visual feature selection and classification", Proceedings of ICANN 99、1999 Stella X. Yu, Ralph Gross, and Jianbo Shi, "Concurrent object recognition and segmentation by graph partitioning", Online proceedings of the Neural Information Processing Systems conference、2002 Guo Dong and Ming Xie, "Color clustering and learning for image Segmentation based on neural networks", IEEE Transactions on Neural Networks、16(14):925-936、2005 Y. Jiang and Z. -H. Zhou, "Some ensemble-based image Segmentation", Neural Processing Letters、20(3):171-178、2004 Jung Kim Robert Li, "Image compression using fast transformed vector quantization", Applied Imagery Pattern Recognition Workshop、page 141、2000 Dorin Comaniciu and Richard Grisel, "Image coding using transform vector quantization with training set synthesis", Signal Process.,82(11):1649-1663、2002 N. H. Kim and Jai Song Park, "Segmentation of object regions using depth information", ICIP、pages 231-234、2004 Hai Tao and Harpreet S. Sawhney, "Global matching criterion and Color Segmentation based stereo", Workshop on the application of Computer Vision、pages 246〜253、2000 E. Borenstein, E. Sharon, and S. Ullman, "Combining top-down and bottom-up Segmentation", 2004 Conference on Computer Vision and Pattern Recognition Workshop (CVPRW’04)、4:46、2004 M.J.Bravo and H.Farid, "Object Segmentation by top-down processes", Visual Cognition、10(4):471-491、2003
したがって、本発明の目的は、電子画像内で物体のセグメント(segment、部分、切片、区分)を決定するための高速な方法およびシステムを提供することである。方法またはシステムは、たとえば毎秒数フレームのリアルタイム処理を可能にする十分な速さであることが好ましい。
この問題は、請求項1に記載の方法、独立請求項21に記載のソフトウェア、および独立請求項22に記載のコンピュータ・プログラムによって解決される。有利な実施形態は、従属請求項において定義される。
電子画像内の物体のセグメントを決定する方法は、複数特徴の(multi-featured)セグメンテーションを教師なし学習するステップおよび関連性マップ(relevance map)を形成するステップを備えることができる。
方法はさらに、セグメントおよび関連性マップの重複によってセグメントが物体に属する確率を推定するステップを備えることができる。
方法において、複数特徴セグメンテーションを教師なし学習するステップはさらに、基本フィルタ・マップを使用して訓練データベクトルを形成するステップと、ベクトル定量化ネットワーク(vector quantization network:VQ)を使用して訓練データベクトルからコードブック・ベクトルを取得するステップと、訓練データベクトルおよびコードブック・ベクトルから適応トポグラフィック・アクチベーション・マップ(adaptive topographic activation map)を生成するステップと、適応トポグラフィック・アクチベーション・マップを2値化して2値化(binarised)適応トポグラフィック・アクチベーション・マップを取得するステップと、を備えることができる。
この方法において、アクチベーション・マップの生成は、固定数の訓練ステップを備える標準ベクトル定量化ネットワークを採用してもよい。適用されるベクトル量子化法はまた、K平均法(K-means method)、自己組織化マップ、あるいは成長ニューラル・ガス(growing neural gas)または瞬時トポロジカル・マップ(instantaneous topological map)のような成長ネットワーク(growing map)であってもよい。
さらに、訓練データベクトル
Figure 0004567660
は、ピクセル位置(x,y)を特徴として含むことができる。
訓練データベクトルの各成分は、その分散σ(mにより正規化することができる。訓練データベクトルの各成分はさらに、追加重み係数(additional weighting factor)により重み付けすることができる。追加重み係数は、発見的に決めることができる。
初期コードブック・ベクトル
Figure 0004567660
は、画像からランダムな(x,y)位置を抽出するステップ、この位置において特徴ベクトルを生成するステップ、現在のコードブックのすべてのコードブック・ベクトルまでのこのベクトルの最小距離を計算するステップ、および新たなコードブック・ベクトルを割り当てるステップによって取得される。新たなコードブック・ベクトルは、最小距離がしきい値よりも大きく、新たな特徴ベクトルが他の方法で抽出される場合、ランダムに抽出されたベクトルと等しくなりうる。その後の入力画像に対して、すでに既存のコードブック・ベクトルは、標準VQ学習ステップを使用して適合される。
さらに、シーン依存型(scene dependent)適応トポグラフィック・アクチベーション・マップ(V)は、
Figure 0004567660
として計算することができる。シーン依存型適応トポグラフィック・アクチベーション・マップ(V)は、すべてのjにわたる勝者決定競合(winner-take-all competition)によって2値化することができる。さらに、関連性マスク(relevance mask)は、中央マップおよび視差マップから付加的な重ね合わせとして計算することができる。
関連性マップは、どの適応シーン依存型フィルタ(Adaptive Scene Dependent Filter:ASDF)の組み合わせが選択されるべきかを明らかにするために使用することができる。方法はさらに、皮膚色マスクを形成/皮膚色を検出するステップを備えることができる。適応皮膚色セグメンテーションはさらに、最終マスク(final mask)から皮膚色領域を除外することができる。
関連マスクと2値化されたトポグラフィック・アクチベーション・マップとの間の交差領域のピクセル数、および関連マスクなしの2値化トポグラフィック・アクチベーション・マップのピクセル数は、適切なマスクを選択するために使用することができる。マスクが物体に属する確率は、関連マスクとトポグラフィック・アクチベーション・マップとの間の重複によって推定される。相対度数が所定のしきい値よりも大きい場合、マスクは最終セグメント・マスクに含めることができる。最終マスクは、選択されたアクチベーション・マップの付加的な重ね合わせとして計算することができ、皮膚色ピクセルはこのマスクから削除することができる。
本発明のさらなる態様および利点は、付属の図面と共に以下の詳細な説明を読めば明らかとなろう。
図1は、適応シーン依存型フィルタ(ASDF)110、関連性マップ120、および皮膚色検出130を、物体マップ決定モジュール140の入力として使用する、画像セグメンテーションおよび物体認識のための多段階およびマルチパスASDF処理スキームの概要を示している。物体マップ決定モジュール140は、セグメンテーション・マスクを求めるが、これはその後、物体認識モジュール150において使用される。
縦の点線は、処理体系が二重であることを示している。最初に、セグメンテーション・マスクが導出される。次に、取得されたセグメンテーション・マスクは、物体認識モジュールによって使用される。
本発明は主として、前述の3つの入力110、120、および130を取得して、そのようなセグメンテーション・マスクを導出するためにこれらの入力を組み合わせる第1のステップに関係している。
図2を参照して、適応シーン依存型フィルタ110を取得するプロセスが最初に説明される。
完全な視覚アーキテクチャの初期段階において、入力画像に対する低レベルのフィルタ操作または基本フィルタ・マップが提供されることが想定される。純色セグメンテーションスキームとは対照的に、結合特徴空間を形成するためのエッジ・マップ、輝度、差分画像、速度フィールド、視差、画像位置、またはさまざまな色空間のようなあらゆる種類のトポグラフィック特徴マップの組み合わせが許容される。本発明において、ピクセル位置(x,y)において特徴
Figure 0004567660
を持つM個のそのような基本フィルタ・マップFが、第1層に使用される:
Figure 0004567660
ここで、(x,y)はそれぞれのピクセル・インデックスであり、
Figure 0004567660
は特徴としてピクセル位置を含む。各成分は、その分散σ(mにより正規化される。ζは、追加の発見的に決められた重み係数(weighting factor)であるが、これは別のマップの相対的重要度に重み付けするために使用することができる。
第2層において、ベクトル定量化ネットワーク(vector quantization network:VQ)は、最も度数が高く顕著な特徴の組み合わせを表すN個の原型コードブック・ベクトル
Figure 0004567660
を取得するために採用される。適用されるベクトル量子化法は、K平均法、自己組織化マップの変種(flavor)、あるいは成長ニューラル・ガスまたは瞬時トポロジカル・マップのような成長ネットワークであってもよい。以下において、アクチベーション・マップの生成は、固定数の訓練ステップ(計算を加速するため)および訓練データ
Figure 0004567660
(上記の式1を参照)を備える標準VQを採用する。
各ステップにおいて、最小距離
Figure 0004567660
が計算され、最小距離を持つ勝者(winning)コードブック・ベクトルが標準VQ規則(standard VQ rule)を通じて適合される。
VQコードブックCの初期化では、空のコードブックから開始し、以下の手順により新たなコードブック・ベクトルを付加的に割り当てることができる。
画像からランダムな(x,y)位置を抽出し、この位置において特徴ベクトル
Figure 0004567660
を生成し、現在のコードブックのすべての
Figure 0004567660
までの
Figure 0004567660
の最小距離dminを計算する。新たなコードブック・ベクトル
Figure 0004567660
は、dminに応じて以下のように割り当てられる。
Figure 0004567660
ここで
Figure 0004567660
は、コードブック・ベクトルの良好な分散を確実にするためのしきい値である。この手順は、コードブック・ベクトルの最大数に達するまで、VQの各適合ステップの前に行われてもよい。
前述のステップは、以下のアルゴリズムにおいて実施することができる(擬似コードで記述)。
Figure 0004567660
アルゴリズムは、Qの反復ステップを実行する。各ステップ内で、標準VQ学習ステップが既存のコードブック・ベクトルに対して実行される。ランダムに抽出された
Figure 0004567660
がすでに既存のコードブック・ベクトルまで十分に離れた距離を有する場合、新たなコードブック・ベクトルが追加される。
第3層において、特徴空間の分割は、元の特徴ベクトルのコードブック・ベクトルまでの距離を各ピクセル位置に割り当てることにより、コードブック・ベクトルごとに新たな適応特徴マップを生成する。
第3層の入力は、適応コードブックCおよび基本フィルタ・マップFからなる。コードブックに基づいて、N個のシーン依存型アクチベーション・マップ(V)は、以下のように計算される。
Figure 0004567660
適応マップ間の更なる勝者決定競合は、互いに素なセグメントを取得するために使用される。これは、マップVを以下のように2値化することにより達成される。
Figure 0004567660
物体マップ決定ユニットの課題は、着目された物体を区分化するためのASDFの組み合わせを明らかにすることである。これは、適切な選択基準を使用して、再結合ステップにおいて行われる。
関連性マップは、適切な選択基準として使用することができる。関連性マップは、着目された物体周囲の粗い領域の予測マスクとしての役割を果たすことができる。この領域は、適応シーン依存型フィルタのセットから適切なフィルタを見つけ出すための手がかりとして使用することができる。
図3に示されているように、関連性マップは、参照番号310によって示される中央マップI、および参照番号320によって示される視差(disparity)マップIDispから付加的な重ね合わせとして計算することができる。関連性マップの出力は、参照番号330によって示される画像マスクIRelを備えている。
再結合ステップでは、関連性マップからの情報を使用して、どのセグメントが物体に属するかを決定する。E.Borenstein、E.SharonおよびS.Ullmanによる手法(前述の非特許文献15を参照)とは対照的に、この再結合のステップは、学習対象の物体に関する明示的な前提を使用せず、注意システムからの情報のみに依存して関心領域を定義するが、それは使用可能な場合に視差情報またはその他の手がかりによって改良することができる。処理を加速するために、関心領域にあると想定される、セグメントが物体に属する確率は、セグメントの関連性マップとの重複によって推定することができる。
関連性マップはさらに、領域をゼロの関連度に設定するセグメントを特に除外することができるようにする。これは、別個の特化された処理パスにおいて検出される皮膚および手の色を表す領域を減算するために使用することができる。常に、完全なセグメントまたはセグメントの連結コンポーネントが受け入れられるので、さらに初期の関心領域の外側になるピクセルは、最終マスクに含めることができる。
入力画面内にあっても関心領域の外側にある物体は、区分化されず、計算時間を節約することができる。アーキテクチャは、関連性マップによって定義された注意の焦点において物体を区分化するために、あらゆる種類の画像に適応することができ、特に、任意の背景の前面にいる人間のパートナーによって提示される「手持ちの物体(objects in hand)」のオンライン学習の状況において使用することができる。
この目的のために、IRelおよびB交差領域のピクセルの数inPix(inPix=#(B\IRel))および、IRelなしのBのピクセルの数outPix(outPix=#(B\IRel))が計算される。これらの2つのパラメータは、適切なマスクを選択するために使用することができる。マスクBが物体に属する確率は、相対度数outPix/inPixによって推定することができる。outPix/inPix<0.2である場合に、マスクは最終セグメント・マスクIFinalに含めることができる。
適応皮膚色セグメンテーションは、最終マスクから皮膚色領域を除外することができる。最終マスクIFinalは、選択されたBの付加的な重ね合わせとして計算することができ、皮膚色ピクセルはこのマスクから削除することができる:
(IFinal=Σ−ISkin
図4は、2値化ASDFセグメントBを示している。セグメント5、7、9、11、12、および13の組み合わせは、示されている物体の物体・マスクを構成している。マスク番号9は、輪郭の一部をもたらし、色特徴に特化されないことに留意されたい。
図5は、アーキテクチャのセグメンテーション結果(入力画像、視差マスク、および最終セグメンテーション)を示す。
適応フィルタ、関連性マップ、皮膚色検出および物体認識モジュールを使用する画像セグメンテーションおよび物体認識のためのマルチパスASDF処理スキームを示す図である。 多段ASDFアーキテクチャを示す図である。 関連性マップのコンポーネントを示す図である。 2値化ASDFセグメントBを示す図である。 アーキテクチャのセグメンテーション結果(入力画像、視差マスク、および最終セグメンテーション)を示す図である。
符号の説明
110 適応シーン依存型フィルタ(ASDF)
120 関連性マップ
130 皮膚色検出
140 物体マップ決定モジュール
150 物体認識モジュール
2値化適応トポグラフィック・アクチベーション・マップ
コードブック・ベクトル
基本フィルタ・マップ
中央マップ
DISP 視差マップ
REL 関連マスク
final 最終セグメント・マスク
適応トポグラフィック・アクチベーション・マップ
VQ ベクトル定量化ネットワーク

Claims (18)

  1. 電子画像内で物体のセグメントを求める方法であって、セグメントは画像の部分であり、
    教師なし学習によって複数の基本フィルタ・マップ(Fi)から得られた、複数の2値化マップ(Bi)を形成するステップと、
    関連性マップ(I REL )を形成するステップと、
    該関連性マップを選択基準として使用して、該複数の2値化マップ(Bi)からセグメントの選択を形成するステップと、
    該選択に基づいて、物体マップを形成するステップと、を含む物体のセグメントを求める方法。
  2. セグメントと前記関連性マップとの重複によって、該セグメントが物体に属する確率を推定するステップをさらに備える、請求項1に記載の方法。
  3. 複数の2値化マップ(Bi)を形成するステップが、
    基本フィルタ・マップ(F)を使用して訓練データベクトル
    Figure 0004567660
    を形成するステップと、
    ベクトル定量化ネットワーク(VQ)を使用して前記訓練データベクトル
    Figure 0004567660
    からコードブック・ベクトル
    Figure 0004567660
    を取得するステップと、
    前記訓練データベクトル
    Figure 0004567660
    および前記コードブック・ベクトル
    Figure 0004567660
    から適応トポグラフィック・アクチベーション・マップ(V)を生成するステップと、前記適応トポグラフィック・アクチベーション・マップ(V)を2値化して、2値化マップ(B)を取得するステップと、を備える、請求項1または2に記載の方法。
  4. 前記アクチベーション・マップの生成は、固定数の訓練ステップを備える標準ベクトル定量化ネットワークVQを採用する、請求項3に記載の方法。
  5. 前記訓練データベクトル
    Figure 0004567660
    が、ピクセル位置(x,y)を特徴として含む、請求項3に記載の方法。
  6. 前記訓練データベクトル
    Figure 0004567660
    の各成分が、その分散σ(mによりそれぞれ正規化される、請求項3に記載の方法。
  7. 前記訓練データベクトルの各成分が、追加重み係数(ζ)により重み付けされる、請求項3に記載の方法。
  8. 前記コードブック・ベクトルCが、
    画像からランダムな(x,y)位置を抽出するステップと、
    この位置においてベクトル
    Figure 0004567660
    を生成するステップと、
    現在のコードブックのすべてのCまでのm(x,y)の最小距離(dmin)を計算するステップと、
    新たなコードブック・ベクトル
    Figure 0004567660
    を割り当てるステップと、によって得られる、請求項3に記載の方法。
  9. minがしきい値(d’)よりも大きな場合、前記新たなコードブック・ベクトル
    Figure 0004567660
    が、
    Figure 0004567660
    と等しくなり、その他の場合に、新たなベクトル
    Figure 0004567660
    が抽出される、請求項に記載の方法。
  10. 前記シーン依存型適応トポグラフィック・アクチベーション・マップ(V)が、
    Figure 0004567660
    として計算される、請求項3に記載の方法。
  11. 前記シーン依存型適応トポグラフィック・アクチベーション・マップ(V)が、数式
    Figure 0004567660
    によって2値化される、請求項10に記載の方法。
  12. 関連性マップ(IREL)が、中央マップIおよび視差マップIDISPから付加的な重ね合わせとして計算される、請求項1に記載の方法。
  13. 物体マップを形成するステップが、皮膚色領域を除外する、請求項1に記載の方法。
  14. 2値化マップ(Bi)が物体に属する確率が、該関連性マップ(I REL )と該2値化マップとの交差領域のピクセルの数(inPix)を、該関連性マップを除いた該2値化マップのピクセル数(outPix)で割った値によって推定される請求項2に記載の方法。
  15. 推定された確率が所定のしきい値よりも大きい場合、該2値化マップ(Bi)は、該物体マップに含まれる、請求項14に記載の方法。
  16. 該物体マップ(I Final )は選択された2値化マップ(Bi)の付加的な重ね合わせとして計算され、皮膚色ピクセルはこのマップから削除される(I Final =Σ −I Skin )、請求項13に記載の方法。
  17. コンピュータにロードされて実行されるときに、請求項1乃至16のいずれかに記載の方法を実行するソフトウェア。
  18. 請求項17に記載のソフトウェアが格納されるコンピュータ読み取り可能媒体。
JP2006343950A 2005-12-22 2006-12-21 電子画像内で物体のセグメントを求める方法 Expired - Fee Related JP4567660B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP05028259A EP1801731B1 (en) 2005-12-22 2005-12-22 Adaptive scene dependent filters in online learning environments

Publications (2)

Publication Number Publication Date
JP2007172627A JP2007172627A (ja) 2007-07-05
JP4567660B2 true JP4567660B2 (ja) 2010-10-20

Family

ID=36602749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006343950A Expired - Fee Related JP4567660B2 (ja) 2005-12-22 2006-12-21 電子画像内で物体のセグメントを求める方法

Country Status (4)

Country Link
US (1) US8238650B2 (ja)
EP (1) EP1801731B1 (ja)
JP (1) JP4567660B2 (ja)
DE (1) DE602005007370D1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8452599B2 (en) * 2009-06-10 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for extracting messages
US8269616B2 (en) * 2009-07-16 2012-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for detecting gaps between objects
US8337160B2 (en) * 2009-10-19 2012-12-25 Toyota Motor Engineering & Manufacturing North America, Inc. High efficiency turbine system
US8237792B2 (en) * 2009-12-18 2012-08-07 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for describing and organizing image data
US8424621B2 (en) 2010-07-23 2013-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Omni traction wheel system and methods of operating the same
FI20106387A (fi) * 2010-12-30 2012-07-01 Zenrobotics Oy Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi
US10395138B2 (en) 2016-11-11 2019-08-27 Microsoft Technology Licensing, Llc Image segmentation using user input speed
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047647A1 (en) * 2003-06-10 2005-03-03 Ueli Rutishauser System and method for attentional selection

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6807286B1 (en) * 2000-04-13 2004-10-19 Microsoft Corporation Object recognition using binary image quantization and hough kernels
US6826316B2 (en) * 2001-01-24 2004-11-30 Eastman Kodak Company System and method for determining image similarity
GB2409030A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US7583831B2 (en) * 2005-02-10 2009-09-01 Siemens Medical Solutions Usa, Inc. System and method for using learned discriminative models to segment three dimensional colon image data
US7574069B2 (en) * 2005-08-01 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Retargeting images for small displays

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047647A1 (en) * 2003-06-10 2005-03-03 Ueli Rutishauser System and method for attentional selection

Also Published As

Publication number Publication date
EP1801731A1 (en) 2007-06-27
JP2007172627A (ja) 2007-07-05
EP1801731B1 (en) 2008-06-04
US20070147678A1 (en) 2007-06-28
DE602005007370D1 (de) 2008-07-17
US8238650B2 (en) 2012-08-07

Similar Documents

Publication Publication Date Title
Kim et al. Unsupervised learning of image segmentation based on differentiable feature clustering
Dvornik et al. On the importance of visual context for data augmentation in scene understanding
Wang et al. Joint object and part segmentation using deep learned potentials
JP4567660B2 (ja) 電子画像内で物体のセグメントを求める方法
CN106203423B (zh) 一种融合上下文探测的弱结构感知视觉目标跟踪方法
Lu et al. A nonparametric treatment for location/segmentation based visual tracking
US9443137B2 (en) Apparatus and method for detecting body parts
KR102305230B1 (ko) 객체 경계정보의 정확도 개선방법 및 장치
Bescos et al. Empty cities: A dynamic-object-invariant space for visual SLAM
Zeng et al. Reference-based defect detection network
Liu et al. Hand gesture recognition based on single-shot multibox detector deep learning
Zohourian et al. Superpixel-based Road Segmentation for Real-time Systems using CNN.
EP3872761A2 (en) Analysing objects in a set of frames
Lin et al. Temporally coherent 3D point cloud video segmentation in generic scenes
CN112241757A (zh) 用于操作神经网络的设备和方法
Pham et al. Pencilnet: Zero-shot sim-to-real transfer learning for robust gate perception in autonomous drone racing
Lee et al. Background subtraction using the factored 3-way restricted Boltzmann machines
Cai et al. Vehicle detection based on visual saliency and deep sparse convolution hierarchical model
Xia et al. Lazy texture selection based on active learning
Kumar et al. Indian classical dance action identification using adaptive graph matching from unconstrained videos
Porikli et al. An unsupervised multi-resolution object extraction algorithm using video-cube
CN107563284B (zh) 行人追踪方法及装置
Qiang A Survey of Face Image Inpainting Based on Deep Learning
Vasam et al. Instance Segmentation on Real time Object Detection using Mask R-CNN
Ahmed Image Based Object Detection and Tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100805

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130813

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees