JP4979033B2 - オブジェクト・ベース視覚的注意モデルの顕著性推定 - Google Patents
オブジェクト・ベース視覚的注意モデルの顕著性推定 Download PDFInfo
- Publication number
- JP4979033B2 JP4979033B2 JP2009507098A JP2009507098A JP4979033B2 JP 4979033 B2 JP4979033 B2 JP 4979033B2 JP 2009507098 A JP2009507098 A JP 2009507098A JP 2009507098 A JP2009507098 A JP 2009507098A JP 4979033 B2 JP4979033 B2 JP 4979033B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- saliency
- objects
- image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000000007 visual effect Effects 0.000 title description 36
- 238000000034 method Methods 0.000 claims description 36
- 230000008859 change Effects 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 101100366942 Mus musculus Ston1 gene Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Description
1)注意領域が自然オブジェクト境界を破壊する。
2)各マクロブロックが、多数の自然オブジェクトをカバーすることがある。
1.オブジェクトとその周囲との間の差が大きくなるほど、そのオブジェクトは顕著になる。
2.オブジェクトと特徴の異なる周囲とが接近するほど、そのオブジェクトは顕著になる。すなわち、人間の視覚は、距離に応じて違いを見分ける能力が低下する。その減衰係数は、この視覚生理学のテーマと整合するdgaussで測定される。
入力:幅wおよび高さhを有する画像I={pi|i=1・・・w*h}。
出力:顕著性マップsal[1・・・w*h]。sal[i]は、画像内のピクセルpiの顕著度。
画像Iは、最初にこのステップで、1組のオブジェクトI={o1、o2、・・・、on}に分解される。画像ベースのセグメント化およびグループ化は、人間の視覚的認識において大きな役割を果たし、この領域の研究は数多くなされている。本発明では、発明者等は、画像の色変化の測定に基づく、P.F.Felzenszwalb他による「Image Segmentation Using Local Variation」、IEEE Computer Society on Computer Vision and Pattern Recognition、1998年6月、に提案されているオブジェクト・セグメント化方式を採用する。以下、この方式について簡単に説明する。
yi、ri、giおよびbiがそれぞれピクセルpiの輝度チャネル、赤チャネル、緑チャネル、青チャネルを表すものとして、次に、ステップ1でセグメント化した各オブジェクトの特徴を抽出する。
(1)数式max−min+1≦d1を満たす範囲[min、max]があり、その値が特徴マップF={f(v1)、f(v2)、・・・、f(vt)}全体にわたって範囲[min、max]内に収まる特徴の比率がη以上である場合には、Major(f、o)を、範囲[min、max]内に収まる値を有するそれらの特徴の平均値として定義する。
(2)そうでない場合で、オブジェクトの大きさが定数d2超である場合には、ステップ1と同じプロセスでそのオブジェクトを2つのサブオブジェクトに分割し、次いで、上記ステップを各サブオブジェクトに対して繰り返し実行する。そうでない場合で、オブジェクトが小さすぎる場合には、Major(f、o)を全ての特徴の平均値として定義する。
上記の2つのステップの後で、画像IをオブジェクトI={o1、o2、・・・on}にセグメント化し、3つの特徴マップIi、RGiおよびBYi(i=1・・・n)を抽出する。残る問題は、SalF(oi)で表される各特徴マップF(F∈{I、RG、BY})の顕著性マップをどのように推定するかである。
(2)集合S内の各オブジェクトouについて、F’u=abs(Fu−Fi)を定義する。
(a)画像の各オブジェクトoiについて、同心円Cj(j=1・・・t)の集合を定義する。
(b)上記のSalCFの定義に従ってSalCF(oi、Cj)を計算する。
(c)数式(3−2)に従って全てのCjについて顕著性推定を積分して、総合的推定顕著性を得る。
1.本発明は、オブジェクト・ベース視覚注意モデルを構築するための効率的なフレームワークを提供する。その計算の複雑さは低い。
2.提供されるフレームワークは、人間の視覚とはるかに連絡しやすい。従来の方式で考慮されていなかった人間の視覚の特性(オブジェクトのサイズ、局所効果、およびビデオ・テクスチャなど)がよく考慮されている。
3.このフレームワークは拡張可能である。
Claims (10)
- (1)画像を複数の別個のオブジェクトにセグメント化するステップと、
各オブジェクトについて、
(2)前記オブジェクトのフィーチャ値を前記オブジェクトのピクセルの関数として抽出するステップであって、該フィーチャ値が輝度強度及び色の少なくともいずれか一方である、該ステップと、を含む、画像の顕著性を推定する方法であって、該顕著性は顕著なオブジェクトが背景オブジェクトとどのくらい異なるかの尺度である、該方法は、
(3)前記オブジェクトの近傍領域を選択するステップであって、該近傍領域が円形である該ステップと、
(4)前記オブジェクトのフィーチャ値と前記近傍領域内のその他の各オブジェクトのフィーチャ値との間の平均差に、該その他の各オブジェクトのサイズを用いて重み付けし、前記オブジェクトの重み付け平均フィーチャ差を得るステップと、
(5)前記複数のオブジェクトの前記重み付け平均フィーチャ差の関数として前記画像の顕著性を推定するステップと、をさらに含むことを特徴とする、前記方法。 - オブジェクトのフィーチャ値を抽出するときに、ある範囲内に入るフィーチャ値を有する前記オブジェクトの複数のピクセルの数が、前記オブジェクト内のピクセルの総数と比較して所定の閾値を超える場合に、前記複数のピクセルのフィーチャ値の平均を、前記オブジェクトのフィーチャ値として抽出する、請求項1に記載の方法。
- 前記オブジェクトについて、ステップ(3)において複数の近傍領域を選択することができ、ステップ(4)を各近傍領域で実行し、各近傍領域内のオブジェクトの重み付け平均フィーチャ差の線形和をとることによって総重み付け平均フィーチャ差を得る、請求項1または2に記載の方法。
- 複数の近傍領域がある場合には、これらの複数の近傍領域が同心円状である、請求項3に記載の方法。
- オブジェクトの各近傍領域が、前記オブジェクトの中心ピクセルを中心とする、請求項4に記載の方法。
- 前記重み付けステップにおいて、オブジェクトの各ピクセルが該オブジェクトの前記中心ピクセルと同等であるとされる、請求項1に記載の方法。
- 前記フィーチャ値は、前記オブジェクトの前記ピクセルの、値、色の変量、または強度である、請求項1に記載の方法。
- その他のオブジェクトそれぞれのサイズが、その中のピクセル数である、請求項1に記載の方法。
- 追加フィーチャ値が動きである、請求項1に記載の方法。
- 前記円形領域が水平半径および異なる垂直半径を有する楕円である、請求項1に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06300418.8 | 2006-04-28 | ||
EP06300418 | 2006-04-28 | ||
EP06300538A EP1862966A1 (en) | 2006-05-31 | 2006-05-31 | Salience estimation for object-based visual attention model |
EP06300538.3 | 2006-05-31 | ||
PCT/EP2007/054195 WO2007125115A1 (en) | 2006-04-28 | 2007-04-27 | Salience estimation for object-based visual attention model |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009535683A JP2009535683A (ja) | 2009-10-01 |
JP2009535683A5 JP2009535683A5 (ja) | 2010-06-17 |
JP4979033B2 true JP4979033B2 (ja) | 2012-07-18 |
Family
ID=38169248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009507098A Expired - Fee Related JP4979033B2 (ja) | 2006-04-28 | 2007-04-27 | オブジェクト・ベース視覚的注意モデルの顕著性推定 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8385654B2 (ja) |
EP (1) | EP2013850B1 (ja) |
JP (1) | JP4979033B2 (ja) |
WO (1) | WO2007125115A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102227753B (zh) * | 2008-10-03 | 2018-01-19 | 3M创新有限公司 | 用于评估稳健性的系统和方法 |
JP5306940B2 (ja) * | 2009-08-11 | 2013-10-02 | 日本放送協会 | 動画像コンテンツ評価装置およびコンピュータプログラム |
WO2011074198A1 (ja) * | 2009-12-14 | 2011-06-23 | パナソニック株式会社 | ユーザインタフェース装置および入力方法 |
CN101894371B (zh) * | 2010-07-19 | 2011-11-30 | 华中科技大学 | 一种生物激励的自顶向下的视觉注意方法 |
AU2011254040B2 (en) * | 2011-12-14 | 2015-03-12 | Canon Kabushiki Kaisha | Method, apparatus and system for determining a saliency map for an input image |
US9946795B2 (en) | 2014-01-27 | 2018-04-17 | Fujitsu Limited | User modeling with salience |
US9195903B2 (en) | 2014-04-29 | 2015-11-24 | International Business Machines Corporation | Extracting salient features from video using a neurosynaptic system |
US9373058B2 (en) | 2014-05-29 | 2016-06-21 | International Business Machines Corporation | Scene understanding using a neurosynaptic system |
US9798972B2 (en) | 2014-07-02 | 2017-10-24 | International Business Machines Corporation | Feature extraction using a neurosynaptic system for object classification |
US10115054B2 (en) | 2014-07-02 | 2018-10-30 | International Business Machines Corporation | Classifying features using a neurosynaptic system |
US10055850B2 (en) * | 2014-09-19 | 2018-08-21 | Brain Corporation | Salient features tracking apparatus and methods using visual initialization |
US9830529B2 (en) * | 2016-04-26 | 2017-11-28 | Xerox Corporation | End-to-end saliency mapping via probability distribution prediction |
CN110781846B (zh) * | 2019-10-30 | 2021-02-09 | 江苏开放大学(江苏城市职业学院) | 一种融合视觉广度特点的视觉注意计算方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6282317B1 (en) * | 1998-12-31 | 2001-08-28 | Eastman Kodak Company | Method for automatic determination of main subjects in photographic images |
JP2003248825A (ja) * | 2002-02-22 | 2003-09-05 | Fuji Xerox Co Ltd | 画像処理装置及び画像処理方法、画像処理プログラム、記憶媒体 |
US7471827B2 (en) * | 2003-10-16 | 2008-12-30 | Microsoft Corporation | Automatic browsing path generation to present image areas with high attention value as a function of space and time |
US7940985B2 (en) * | 2007-06-06 | 2011-05-10 | Microsoft Corporation | Salient object detection |
-
2007
- 2007-04-27 JP JP2009507098A patent/JP4979033B2/ja not_active Expired - Fee Related
- 2007-04-27 EP EP07728649.0A patent/EP2013850B1/en not_active Ceased
- 2007-04-27 WO PCT/EP2007/054195 patent/WO2007125115A1/en active Application Filing
- 2007-04-27 US US12/226,386 patent/US8385654B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20090060267A1 (en) | 2009-03-05 |
JP2009535683A (ja) | 2009-10-01 |
EP2013850B1 (en) | 2018-07-25 |
US8385654B2 (en) | 2013-02-26 |
EP2013850A1 (en) | 2009-01-14 |
WO2007125115A1 (en) | 2007-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4979033B2 (ja) | オブジェクト・ベース視覚的注意モデルの顕著性推定 | |
US20200286239A1 (en) | Iterative method for salient foreground detection and multi-object segmentation | |
Lalonde et al. | Detecting ground shadows in outdoor consumer photographs | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
TW200834459A (en) | Video object segmentation method applied for rainy situations | |
JP4098021B2 (ja) | シーン識別方法および装置ならびにプログラム | |
US9401027B2 (en) | Method and apparatus for scene segmentation from focal stack images | |
CN108510500A (zh) | 一种基于人脸肤色检测的虚拟人物形象的头发图层处理方法及系统 | |
CN103093470A (zh) | 一种具有尺度无关特性的快速多模态图像协同分割方法 | |
US11348338B2 (en) | Methods and systems for crowd motion summarization via tracklet based human localization | |
Palou et al. | Occlusion-based depth ordering on monocular images with binary partition tree | |
CN108320281A (zh) | 一种基于多特征扩散的图像显著性检测方法及终端 | |
Geetha et al. | An improved method for segmentation of point cloud using minimum spanning tree | |
Szeliski et al. | Segmentation | |
Ranganatha et al. | Development of Robust Multiple Face Tracking Algorithm and Novel Performance Evaluation Metrics for Different Background Video Sequences | |
Kim et al. | Automated hedcut illustration using isophotes | |
CN109522813B (zh) | 一种基于行人显著特征的改进随机游走算法 | |
Shinde et al. | Image object saliency detection using center surround contrast | |
EP1862966A1 (en) | Salience estimation for object-based visual attention model | |
Li et al. | Multi-foreground objects segmentation based on RGB-D image | |
Sefidpour et al. | Spatial finite non-gaussian mixture for color image segmentation | |
Ke et al. | Automatic Streaming Segmentation of Stereo Video Using Bilateral Space | |
Yan et al. | Salient region detection via color spatial distribution determined global contrasts | |
Wang et al. | Real-time visual saliency detection using Gaussian distribution | |
Pavlovska et al. | Content-Based Annotation of User Generated Videos on a Mobile Platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100420 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110810 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20111102 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120411 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120412 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150427 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4979033 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |