JP2007172627A - 電子画像内で物体のセグメントを求める方法 - Google Patents
電子画像内で物体のセグメントを求める方法 Download PDFInfo
- Publication number
- JP2007172627A JP2007172627A JP2006343950A JP2006343950A JP2007172627A JP 2007172627 A JP2007172627 A JP 2007172627A JP 2006343950 A JP2006343950 A JP 2006343950A JP 2006343950 A JP2006343950 A JP 2006343950A JP 2007172627 A JP2007172627 A JP 2007172627A
- Authority
- JP
- Japan
- Prior art keywords
- map
- mask
- vector
- topographic
- adaptive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】複数特徴セグメンテーションを教師なし学習するステップおよび関連性マップを形成するステップを備える。教師なし学習するステップは、基本フィルタ・マップ(Fi)を使用して訓練データベクトルを形成するステップと、ベクトル定量化ネットワーク(VQ)を使用して訓練データベクトルからコードブック・ベクトルを取得するステップと、訓練データベクトルおよびコードブック・ベクトルから適応トポグラフィック・アクチベーション・マップ(VJ)を生成するステップと、適応トポグラフィック・アクチベーション・マップ(VJ)を2値化して2値適応トポグラフィック・アクチベーション・マップ(Bi)を取得するステップと、を備える。
【選択図】図2
Description
Krishnapuram B., C. M. Bishop, and M. Szummer, "Generative models and Bayesian model comparison for shape recognition", Proceedings Ninth International Workshop on Frontiers in Handwriting Recognition, 2004 J. Winn and N. Joijic, "Locus: Learning object classes withunsupervised segmentation", Intl. Conf. on Computer Vision, 2005 Joseph A. Driscoll, Richard Alan Peters II and Kyle R. Cave, "A visual attention network for a humanoid robot", Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS-98), Victoria, B. C. , 1998年10月12〜16日 J.J.Steil、G.Heidemann、J.Jockusch、R.Rae、N.Jungclausand H.Ritter, "Guiding attention for grasping tasks by gestural instruction: The gravis-robot architecture", Proc.IROS 2001, pages 1570-1577, IEEE, 2001 J.J.Steil and H.Ritter, "Learning issues in a multi-modal robot-instruction scenario", IEEE Int. Conf. Robotics, Intelligent Systems and Signal Processing, 2003 G.Heidemann, "A multi-purpose visual classification system", In B.Reusch、Editor、Proc.7th Fuzzy Days、Dortmund、2001、pages 305-312、Springer-Verlag、2001 G.Heidemann and H.Ritter, "Combining multiple neural nets for visual feature selection and classification", Proceedings of ICANN 99、1999 Stella X. Yu, Ralph Gross, and Jianbo Shi, "Concurrent object recognition and segmentation by graph partitioning", Online proceedings of the Neural Information Processing Systems conference、2002 Guo Dong and Ming Xie, "Color clustering and learning for image Segmentation based on neural networks", IEEE Transactions on Neural Networks、16(14):925-936、2005 Y. Jiang and Z. -H. Zhou, "Some ensemble-based image Segmentation", Neural Processing Letters、20(3):171-178、2004 Jung Kim Robert Li, "Image compression using fast transformed vector quantization", Applied Imagery Pattern Recognition Workshop、page 141、2000 Dorin Comaniciu and Richard Grisel, "Image coding using transform vector quantization with training set synthesis", Signal Process.,82(11):1649-1663、2002 N. H. Kim and Jai Song Park, "Segmentation of object regions using depth information", ICIP、pages 231-234、2004 Hai Tao and Harpreet S. Sawhney, "Global matching criterion and Color Segmentation based stereo", Workshop on the application of Computer Vision、pages 246〜253、2000 E. Borenstein, E. Sharon, and S. Ullman, "Combining top-down and bottom-up Segmentation", 2004 Conference on Computer Vision and Pattern Recognition Workshop (CVPRW’04)、4:46、2004 M.J.Bravo and H.Farid, "Object Segmentation by top-down processes", Visual Cognition、10(4):471-491、2003
(IFinal=ΣiBi−ISkin)
図4は、2値化ASDFセグメントBiを示している。セグメント5、7、9、11、12、および13の組み合わせは、示されている物体の物体・マスクを構成している。マスク番号9は、輪郭の一部をもたらし、色特徴に特化されないことに留意されたい。
120 関連性マップ
130 皮膚色検出
140 物体マップ決定モジュール
150 物体認識モジュール
Bi 2値化適応トポグラフィック・アクチベーション・マップ
CJ コードブック・ベクトル
Fi 基本フィルタ・マップ
IC 中央マップ
IDISP 視差マップ
IREL 関連マスク
Ifinal 最終セグメント・マスク
VJ 適応トポグラフィック・アクチベーション・マップ
VQ ベクトル定量化ネットワーク
Claims (22)
- 電子画像内で物体のセグメントを求める方法であって、
複数特徴セグメンテーションを教師なし学習するステップと、
関連性マップを形成するステップと、
を備える方法。 - セグメントと前記関連性マップとの重複によって、該セグメントが物体に属する確率を推定するステップをさらに備える、請求項1に記載の方法。
- 複数特徴セグメンテーションを教師なし学習する前記ステップが、
基本フィルタ・マップ(Fi)を使用して訓練データベクトル
ベクトル定量化ネットワーク(VQ)を使用して前記訓練データベクトル
前記訓練データベクトル
前記適応トポグラフィック・アクチベーション・マップ(VJ)を2値化して、2値化適応トポグラフィック・アクチベーション・マップ(Bi)を取得するステップと、
を備える、請求項1または2に記載の方法。 - 前記アクチベーション・マップの生成は、固定数の訓練ステップを備える標準ベクトル定量化ネットワークVQを採用する、請求項3に記載の方法。
- 前記訓練データベクトルの各成分が、追加重み係数(ζi)により重み付けされる、請求項3に記載の方法。
- 前記追加重み係数(ζi)が、発見的に求められる、請求項3に記載の方法。
- 前記関連性マスク(IREL)が、中央マップICおよび視差マップIDISPから付加的な重ね合わせとして計算される、請求項1に記載の方法。
- 前記関連性マップが、どのASDFの組み合わせが選択されるべきかを明らかにするために使用される、請求項1に記載の方法。
- 皮膚色マスクを形成し、皮膚色を検出するステップをさらに備える、請求項1に記載の方法。
- 適応皮膚色セグメンテーションが、さらに前記最終マスクから皮膚色領域を除外する、請求項2に記載の方法。
- 前記関連性マスクと前記2値化されたトポグラフィック・アクチベーション・マップ(Bi)との間の交点のピクセル数(inPix)および前記関連性マスク(IRel)なしの前記2値化トポグラフィック・アクチベーション・マップ(Bi)のピクセル数(outPix)が、適切なマスクを選択するために使用される、請求項1に記載の方法。
- マスク(Bi)が物体に属する確率は相対度数outPix/inPixによって推定される、請求項2に記載の方法。
- 前記相対度数が所定のしきい値よりも大きい場合、前記マスクは前記最終セグメント・マスク(Ifinal)に含まれる、請求項1に記載の方法。
- 前記最終マスクIFinalは選択されたBiの付加的な重ね合わせとして計算され、前記皮膚色ピクセルはこのマスクから削除される(IFinal=ΣiBi−ISkin)、請求項1に記載の方法。
- コンピュータにロードされて実行されるときに、請求項1乃至20のいずれかに記載の方法を実行するソフトウェア。
- 請求項21に記載のソフトウェアが格納されるコンピュータ読み取り可能媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05028259A EP1801731B1 (en) | 2005-12-22 | 2005-12-22 | Adaptive scene dependent filters in online learning environments |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007172627A true JP2007172627A (ja) | 2007-07-05 |
JP4567660B2 JP4567660B2 (ja) | 2010-10-20 |
Family
ID=36602749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006343950A Expired - Fee Related JP4567660B2 (ja) | 2005-12-22 | 2006-12-21 | 電子画像内で物体のセグメントを求める方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8238650B2 (ja) |
EP (1) | EP1801731B1 (ja) |
JP (1) | JP4567660B2 (ja) |
DE (1) | DE602005007370D1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8452599B2 (en) * | 2009-06-10 | 2013-05-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for extracting messages |
US8269616B2 (en) * | 2009-07-16 | 2012-09-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for detecting gaps between objects |
US8337160B2 (en) * | 2009-10-19 | 2012-12-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | High efficiency turbine system |
US8237792B2 (en) | 2009-12-18 | 2012-08-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for describing and organizing image data |
US8424621B2 (en) | 2010-07-23 | 2013-04-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Omni traction wheel system and methods of operating the same |
FI20106387A (fi) * | 2010-12-30 | 2012-07-01 | Zenrobotics Oy | Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi |
US10395138B2 (en) | 2016-11-11 | 2019-08-27 | Microsoft Technology Licensing, Llc | Image segmentation using user input speed |
US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050047647A1 (en) * | 2003-06-10 | 2005-03-03 | Ueli Rutishauser | System and method for attentional selection |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6807286B1 (en) * | 2000-04-13 | 2004-10-19 | Microsoft Corporation | Object recognition using binary image quantization and hough kernels |
US6826316B2 (en) * | 2001-01-24 | 2004-11-30 | Eastman Kodak Company | System and method for determining image similarity |
GB2409030A (en) * | 2003-12-11 | 2005-06-15 | Sony Uk Ltd | Face detection |
US7583831B2 (en) * | 2005-02-10 | 2009-09-01 | Siemens Medical Solutions Usa, Inc. | System and method for using learned discriminative models to segment three dimensional colon image data |
US7574069B2 (en) * | 2005-08-01 | 2009-08-11 | Mitsubishi Electric Research Laboratories, Inc. | Retargeting images for small displays |
-
2005
- 2005-12-22 EP EP05028259A patent/EP1801731B1/en not_active Expired - Fee Related
- 2005-12-22 DE DE602005007370T patent/DE602005007370D1/de active Active
-
2006
- 2006-12-13 US US11/610,261 patent/US8238650B2/en not_active Expired - Fee Related
- 2006-12-21 JP JP2006343950A patent/JP4567660B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050047647A1 (en) * | 2003-06-10 | 2005-03-03 | Ueli Rutishauser | System and method for attentional selection |
Also Published As
Publication number | Publication date |
---|---|
EP1801731A1 (en) | 2007-06-27 |
DE602005007370D1 (de) | 2008-07-17 |
US8238650B2 (en) | 2012-08-07 |
EP1801731B1 (en) | 2008-06-04 |
US20070147678A1 (en) | 2007-06-28 |
JP4567660B2 (ja) | 2010-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dvornik et al. | On the importance of visual context for data augmentation in scene understanding | |
Wang et al. | Joint object and part segmentation using deep learned potentials | |
JP4567660B2 (ja) | 電子画像内で物体のセグメントを求める方法 | |
US9865042B2 (en) | Image semantic segmentation | |
Stergiopoulou et al. | Real time hand detection in a complex background | |
CN106203423B (zh) | 一种融合上下文探测的弱结构感知视觉目标跟踪方法 | |
JP2006209755A (ja) | シーンから取得されたフレームシーケンス中の移動オブジェクトを追跡する方法 | |
US9443137B2 (en) | Apparatus and method for detecting body parts | |
Lu et al. | A nonparametric treatment for location/segmentation based visual tracking | |
Bescos et al. | Empty cities: A dynamic-object-invariant space for visual SLAM | |
Zeng et al. | Reference-based defect detection network | |
Lin et al. | Temporally coherent 3D point cloud video segmentation in generic scenes | |
Lee et al. | Background subtraction using the factored 3-way restricted Boltzmann machines | |
Xia et al. | Lazy texture selection based on active learning | |
He et al. | Reducing noise pixels and metric bias in semantic inpainting on segmentation map | |
Pourjam et al. | Segmentation of Human Instances Using Grab-cut and Active Shape Model Feedback. | |
Kumar et al. | Indian classical dance action identification using adaptive graph matching from unconstrained videos | |
Chen et al. | Fast 6dof pose estimation with synthetic textureless cad model for mobile applications | |
Porikli et al. | An unsupervised multi-resolution object extraction algorithm using video-cube | |
CN117197249B (zh) | 目标位置确定方法、装置、电子设备及存储介质 | |
Qiang | A Survey of Face Image Inpainting Based on Deep Learning | |
CN107563284B (zh) | 行人追踪方法及装置 | |
Vasam et al. | Instance Segmentation on Real time Object Detection using Mask R-CNN | |
Narwal et al. | Image Systems and Visualizations | |
Kobayashi et al. | Robust 2d-3d matching for 3d object pose detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100713 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100805 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130813 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |