JP4985993B2 - オブジェクト領域抽出装置 - Google Patents

オブジェクト領域抽出装置 Download PDF

Info

Publication number
JP4985993B2
JP4985993B2 JP2008528804A JP2008528804A JP4985993B2 JP 4985993 B2 JP4985993 B2 JP 4985993B2 JP 2008528804 A JP2008528804 A JP 2008528804A JP 2008528804 A JP2008528804 A JP 2008528804A JP 4985993 B2 JP4985993 B2 JP 4985993B2
Authority
JP
Japan
Prior art keywords
region
area
visual
feature amount
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008528804A
Other languages
English (en)
Other versions
JPWO2008018398A1 (ja
Inventor
祐介 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008528804A priority Critical patent/JP4985993B2/ja
Publication of JPWO2008018398A1 publication Critical patent/JPWO2008018398A1/ja
Application granted granted Critical
Publication of JP4985993B2 publication Critical patent/JP4985993B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、入力された画像の中から特定のオブジェクトに類似する領域を抽出するオブジェクト領域抽出装置、オブジェクト領域抽出方法およびオブジェクト領域抽出プログラムに関する。
画像に含まれるオブジェクトの種類を自動的に識別するオブジェクト識別装置が提案されている。特許文献1には、入力された検索キー画像と類似している画像を検索する画像検索装置が記載されている。特許文献1に記載された画像検索装置は、色、模様等のパラメータに基づいて画像を複数の領域に分割し、分割した各画像領域の特徴量と検索キー画像の特徴量とを比較して、検索キー画像と類似している画像領域を特定する。また、特許文献1には、オブジェクト領域を含む矩形領域の特徴量と、オブジェクト領域の特徴量とをデータベースに登録することが記載されている。
特許文献2には、入力された画像データに対して、エッジ検出等を行って部分領域を抽出して記憶する画像認識装置が記載されている。特許文献2には、特定の物体についてのモデルの部分領域毎(例えば、目、鼻、口等の部分領域毎)にその形状、大きさ、位置等の特徴にかかるデータを記憶することや、これらの間の結合関係等の特徴にかかるデータを記憶することが記載されている。また、入力画像の部分領域とモデルの部分領域との類似度を算出し、認識対象をモデルと対象付けることが記載されている。
特許文献3には、容器やキャップなどの色の違いや、文字の汚れや欠けや印刷ずれなどを検査する外観検査装置が記載されている。特許文献3に記載された外観検査装置は、対象とする連結パターンを面積の大きさの順に並べ、参照パターンの面積と順次に比較する。特許文献3には、パターンの面積はパターンが回転したりパターンの位置がずれたりしても変化しないため、対象パターンが参照パターンと一致するかどうかの判定を正確に行うことができることが記載されている。
また、非特許文献1には、空のオブジェクト辞書として青色空領域と雲領域をパーツとして登録し、画像を視覚的特徴に基づいて分割し、複数の分割領域の組み合わせとマッチングする空領域抽出方式が記載されている。非特許文献1には、オブジェクトを視覚的な特徴が同一な領域単位に分割したパーツの視覚的特徴量とオブジェクト全体の視覚的特徴量とを登録した辞書を用いることが記載されている。非特許文献1には、入力画像の分割領域から登録パーツと類似するものを抽出し、組み合わせることにより候補領域を作成し、候補領域とオブジェクト全体の視覚特徴量とのマッチングを行うことでオブジェクト領域の抽出を行うことが記載されている。
また、非特許文献2には、領域分割の方法が記載されている。また、非特許文献3には、色や模様の特徴量の求め方が記載されている。非特許文献4には、形状の特徴量の求め方が記載されている。
特開2002−245048号公報(段落0024,0031) 特開2005−4612号公報(段落0115−0124) 特開平09−231362号公報(段落0023) 高橋祐介,平田恭二,「オブジェクト構成辞書に基づく空領域検出」,電子情報通信学会大会講演論文集,2006,VOL.2006,情報・システム 2,p.163 Kyoji Hirata,Eiji Kasutani ,Yoshinori Hara,"On ImageSegmentation for Object-based Image Retrieval","Pattern Recognition, 2002. Proceedings.16th International Conferenceon, Volume3",2002年,p.1031−1034 B.S.Manjunath,Jens-Rainer Ohm,Vinod V.Vasudevan,Akio Yamada,"Color and Texture Descriptor","IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY,VOL11, No.6",2001年6月,p.703−715 S.Manjunath,Philippe Salembier,Thomas Sikora,"Introduction to MPEG-7 Multimedia ContentDescription Interface",John Wiley& Sons , LTD.,p.138−141
しかし、特許文献1に記載されている方式では、オブジェクトが構成要素(パーツ)の集合体として登録されていない。したがって、入力画像内の複数の分割領域の組み合わせに基づいてオブジェクト領域を抽出することはできない。
また、特許文献2に記載されている方式では、マッチングした部分領域の相互位置関係により、オブジェクト全体を認識している。すなわち、部分領域同士の相互位置関係の類似度を算出し、その算出結果に基づいて、モデルの表記する物体と入力画像とが一致するか否かを認識する。したがって、人物の顔のように、部分領域同士の相互位置関係に大きな差がない場合にしか適用できない。
また、特許文献1,2および非特許文献1に記載されている方法を組み合わせると、入力画像を複数の分割領域に分割し、各分割領域の特徴量と辞書に登録された各パーツの特徴量との類似度を判定し、さらに、類似する分割領域(候補領域と記す。)を組み合わせた結合領域の特徴量とオブジェクト全体の特徴量との類似度を判定することにより、オブジェクト領域を抽出することが可能である。
しかし、各分割領域の特徴量と各パーツの特徴量との類似度を判定する処理と、結合領域の特徴量とオブジェクト全体の特徴量との類似度を判定する処理は、それぞれ繰り返し処理であって、処理量が大きい。また、結合領域の特徴量とオブジェクト全体の特徴量との類似度を判定する処理の処理回数は、候補領域を組み合わせる際の組み合わせ数の増加に伴って処理量が増大することになる。さらに、辞書の入力は、人手による領域登録作業であるため、入力作業の効率化が課題となる。
また、特許文献3に記載されている方式では、連結パターンと参照パターンとを面積の大きさ順に並べた後、連結パターンと参照パターンとの類似度判定を、回転やノイズに対して不変な特徴量として面積の特徴量を用いて行う。したがって、参照パターンと連結パターンとの面積が類似していない場合には、非類似のパターンであると認識されてしまう。例えば、あるパターンとその拡大図とは、非類似のパターンであると認識されてしまう。
そこで、本発明は、静止画や動画等の映像中から、特定のオブジェクトに類似する領域を抽出することができるとともに、領域の抽出処理を効率的に行うことができるオブジェクト領域抽出装置、オブジェクト領域抽出方法およびオブジェクト領域抽出プログラムを提供することを目的とする。
本発明によるオブジェクト領域抽出装置は、特定のオブジェクトの全体領域の視覚的特徴量と、当該オブジェクトを視覚的特徴が類似する領域毎に分割した各部分領域の視覚的特徴量とを記憶する記憶手段と、入力された画像を視覚的特徴が類似する領域に分割する領域分割手段と、分割された分割領域の視覚的特徴量を抽出する部分特徴量抽出手段と、部分領域の視覚的特徴量と分割領域の視覚的特徴量との類似度を算出し、算出した類似度と第1の閾値とが所定の関係にあるか否かを判定する部分照合処理を実行し、所定の関係にある場合に該分割領域を特定のオブジェクトの部分となる候補領域とする部分照合手段と、各候補領域を結合することによって構成される結合領域を生成し、生成した結合領域の視覚的特徴量を抽出する全体特徴量抽出手段と、全体領域の視覚的特徴量と結合領域の視覚的特徴量との類似度を算出し、算出した類似度と第2の閾値とが所定の関係を満たしているときに、結合領域が特定のオブジェクトに類似する領域であると判定する全体照合手段とを備え、部分照合手段は、視覚的特徴量とともに取得する部分領域および分割領域の面積の大きい順に各々の領域の視覚的特徴量を選択し、候補領域が検出されたときに次に面積の小さい部分領域の視覚的特徴量を選択し、候補領域が検出されなかったときに次に面積の小さい分割領域の視覚的特徴量を選択して、部分照合処理を実行することを特徴とする。
部分照合手段は、色に関する特徴量、模様に関する特徴量、大きさに関する特徴量および位置に関する特徴量のうちの少なくとも一つを用いて、記憶手段に記憶されている部分領域の視覚的特徴量と、部分特徴量抽出手段によって抽出された視覚的特徴量との類似度を算出してもよい。
全体照合手段は、色に関する特徴量、模様に関する特徴量、形状に関する特徴量、大きさに関する特徴量および位置に関する特徴量のうちの少なくとも一つを用いて、記憶手段に記憶されている全体領域の視覚的特徴量と、全体特徴量抽出手段によって抽出された視覚的特徴量との類似度を算出してもよい。
全体特徴量抽出手段によって抽出された結合領域の視覚的特徴量をオブジェクトの全体領域の視覚的特徴量として記憶手段に登録し、部分照合手段によって照合された候補領域の視覚的特徴量を各部分領域の視覚的特徴量として記憶手段に登録する登録手段を備えてもよい。そのような構成によれば、オブジェクトの全体領域の視覚的特徴量と部分領域の視覚的特徴量とを効率よく登録することができる。
本発明によるオブジェクト領域抽出方法は、記憶手段に記憶されている、特定のオブジェクトの全体領域の視覚的特徴量と、当該オブジェクトを視覚的特徴が類似する領域毎に分割した各部分領域の視覚的特徴量とを用いて、入力された画像から特定のオブジェクトに類似する領域を抽出するオブジェクト領域抽出方法であって、入力された画像を視覚的特徴が類似する領域に分割し、分割された分割領域の視覚的特徴量を抽出し、視覚的特徴量とともに取得する部分領域および分割領域の面積の大きい順に各々の領域の視覚的特徴量を選択し、候補領域が検出されたときに次に面積の小さい部分領域の視覚的特徴量を選択し、候補領域が検出されなかったときに次に面積の小さい分割領域の視覚的特徴量を選択して、部分領域の視覚的特徴量と分割領域の視覚的特徴量との類似度を算出し、算出した類似度と第1の閾値とが所定の関係にあるか否かを判定し、所定の関係にある場合に該分割領域を特定のオブジェクトの部分となる候補領域とし、各候補領域を結合することによって構成される結合領域を生成し、生成した結合領域の視覚的特徴量を抽出し、全体領域の視覚的特徴量と結合領域の視覚的特徴量との類似度を算出し、算出した類似度と第2の閾値とが所定の関係を満たしているときに、結合領域が特定のオブジェクトに類似する領域であると判定することを特徴とする。
色に関する特徴量、模様に関する特徴量、大きさに関する特徴量および位置に関する特徴量のうちの少なくとも一つを用いて、部分領域の視覚的特徴量と、抽出された視覚的特徴量との類似度を算出してもよい。
色に関する特徴量、模様に関する特徴量、形状に関する特徴量、大きさに関する特徴量および位置に関する特徴量のうちの少なくとも一つを用いて、全体領域の視覚的特徴量と、抽出された視覚的特徴量との類似度を算出してもよい。
抽出された結合領域の視覚的特徴量をオブジェクトの全体領域の視覚的特徴量として記憶手段に登録し、照合された候補領域の視覚的特徴量を各部分領域の視覚的特徴量として記憶手段に登録するようにしてもよい。そのような構成によれば、オブジェクトの全体領域の視覚的特徴量と部分領域の視覚的特徴量とを効率よく登録することができる。
本発明によるオブジェクト領域抽出プログラムは、特定のオブジェクトの全体領域の視覚的特徴量と、当該オブジェクトを視覚的特徴が類似する領域毎に分割した各部分領域の視覚的特徴量とを用いて、入力された画像から特定のオブジェクトに類似する領域を抽出するためのオブジェクト領域抽出プログラムであって、コンピュータに、入力された画像を視覚的特徴が類似する領域に分割し、分割された分割領域の視覚的特徴量を抽出する部分特徴量抽出処理と、視覚的特徴量とともに取得する部分領域および分割領域の面積の大きい順に各々の領域の視覚的特徴量を選択し、候補領域が検出されたときに次に面積の小さい部分領域の視覚的特徴量を選択し、候補領域が検出されなかったときに次に面積の小さい分割領域の視覚的特徴量を選択して、部分領域の視覚的特徴量と分割領域の視覚的特徴量との類似度を算出し、算出した類似度と第1の閾値とが所定の関係にあるか否かを判定し、所定の関係にある場合に該分割領域を特定のオブジェクトの部分となる候補領域とする部分照合処理と、各候補領域を結合することによって構成される結合領域を生成し、生成した結合領域の視覚的特徴量を抽出する全体特徴量抽出処理と、全体領域の視覚的特徴量と結合領域の視覚的特徴量との類似度を算出し、算出した類似度と第2の閾値とが所定の関係を満たしているときに、結合領域が特定のオブジェクトに類似する領域であると判定する全体照合処理とを実行させることを特徴とする。
本発明によるオブジェクト領域抽出装置の好ましい一態様は、例えば、認識対象とするオブジェクトの全体像および部分領域の視覚的特徴量の組を辞書データとして記憶する記憶手段と、入力映像を一つまたは複数に分割する領域分割手段と、分割された領域の視覚的特徴量を抽出する特徴量抽出手段と、領域分割手段で分割された領域および記憶手段に登録されている部分領域の面積順に特徴量を並び替える面積ソート手段と、面積ソート手段で得られた、記憶手段に記憶されている部分領域の視覚的特徴量および特徴量抽出手段の視覚的特徴量との類似度を面積順に算出し、算出した類似度と第1の閾値とが所定の関係にあるときに、特徴量抽出手段によって抽出された視覚的特徴量に対応する領域をオブジェクトの部分となる候補領域とする部分照合手段と、特徴量と記憶手段に記憶されている全体の特徴量との類似度を算出する全体照合手段と、類似度を用いて組み合わせ領域が対象オブジェクトかの判定を行う判定手段とを備えることを特徴とする。
本発明によれば、類似度を算出する処理の回数を削減することができ、領域抽出の対象となるオブジェクトを分割した部分領域の数が増加しても、オブジェクトに類似する領域の抽出処理を効率よく行うことができる。
本発明によるオブジェクト領域抽出装置の実施の形態を示すブロック図である。 全体オブジェクトと、全体オブジェクトを構成する各パーツを示す説明図である。 本発明によるオブジェクト領域抽出装置の動作の例を示すフローチャートである。 本発明によるオブジェクト領域抽出装置の動作の例を示すフローチャートである。 本発明によるオブジェクト領域抽出装置の動作の例を示すフローチャートである。 領域分割の例を示す説明図である。 面積順にパーツの領域の候補となる分割領域を探索する処理の例を示す説明図である。 パーツの領域の候補とされた分割領域の例を示す説明図である。
符号の説明
1 画像取得手段
2 記憶手段
3 領域分割手段
4 特徴量抽出手段
5,6 面積ソート手段
7 部分照合手段
8 全体特徴量抽出手段
9 全体照合手段
10 判定手段
11 登録手段
以下、本発明の実施の形態を図面を参照して説明する。図1は、本発明によるオブジェクト領域抽出装置の実施の形態を示すブロック図である。本発明によるオブジェクト領域抽出装置は、画像取得手段1と、記憶手段2と、領域分割手段3と、部分特徴量抽出手段4と、面積ソート手段5と、面積ソート手段6と、部分照合手段7と、全体特徴量抽出手段8と、全体照合手段9と、判定手段10と、登録手段11とを備える。
画像取得手段1は、画像を撮影し、撮影した画像を領域分割手段3に出力する。画像取得手段1は、例えば、CCDカメラによって実現される。また、画像取得手段1は、画像を撮影するのではなく、予め撮影された画像が入力される入力デバイスであってもよい。
本発明によるオブジェクト領域抽出装置は、画像の中に特定のオブジェクトに類似する領域が存在しているならば、画像の中から、そのオブジェクトに類似する領域を抽出する。画像取得手段1によって撮影される画像は、特定のオブジェクトに類似する領域が存在するか否かが判定される判定対象となる画像である。また、画像取得手段1によって撮影される画像は、静止画であっても動画であってもよい。なお、オブジェクトとは、画像に含まれる被写体である。
領域分割手段3は、画像取得手段1から入力された画像が表す全体の領域を、視覚的特徴に基づいて(例えば、色やエッジによって)複数の領域に分割する。このように、映像を複数の領域に分割することを領域分割(セグメンテーション)と記す。また、分割された各領域を分割領域と記す。
部分特徴量抽出手段4は、分割領域における視覚的特徴量を抽出する。視覚的特徴量として、例えば、色の特徴量、模様の特徴量、形状の特徴量、大きさ(サイズ)の特徴量等が挙げられる。部分特徴量抽出手段4は、分割領域におけるこれらの特徴量の一部または全部を抽出してもよい。また、他の特徴量を抽出してもよい。
記憶手段2は、情報を記憶する記憶装置である。記憶手段2は、オブジェクトの全体像の視覚的特徴量(全体特徴量)31と、オブジェクトを構成する各部分の視覚的特徴量(部分特徴量)32とを記憶する。オブジェクト全体を構成する各部分となる領域をパーツと呼ぶ。パーツは、オブジェクト全体を、視覚的特徴が類似する領域毎に分割した領域であり、オブジェクトである物体の具体的な構成に対応しているわけではない。視覚的特徴が類似する領域は、オブジェクト全体を色やエッジにより分割することによって得られる。すなわち、色分けされた領域の境界でオブジェクト全体を分割したり、オブジェクト内におけるエッジを境界として画像を分割したりすることにより得られる。また、撮影される物体が部品A,Bを備えていても、撮影により得られたオブジェクトの全体像において、部品A,Bの境界となるエッジがなく、部品A,Bの色が同一ならば、部品A,Bに相当する領域は一つのパーツとなる。記憶手段2には、画像中に特定のオブジェクトに類似する領域が存在するか否かを判定する前に、事前に全体特徴量31および部分特徴量32を記憶する。記憶手段2に全体特徴量31および部分特徴量32を記憶させる動作については、後述する。
また、記憶手段2は、画像中に類似する領域が存在するか否かを判定される特定のオブジェクトに関して全体特徴量31および部分特徴量32を記憶していればよい。例えば、本発明によるオブジェクト領域抽出装置が、画像の中に家に類似する領域が存在している場合に、画像の中からその領域を抽出するものとする。すなわち、家に類似する領域が抽出対象となる領域であるとする。この場合、記憶手段2は、家オブジェクト全体の視覚的特徴量31と、家オブジェクトを構成する各部分(各パーツ)の部分特徴量32とを記憶する。
図2は、全体を示すオブジェクト(全体オブジェクト)と、全体オブジェクトを構成する各パーツを示す説明図である。図2(a)では、全体オブジェクトとして家全体を示すオブジェクトを例示している。また、図2(b)に示す4つのパーツは、図2(a)に示す全体オブジェクトを視覚的特徴により分割して得られる各部分である(本例では、境界を示すエッジで分割した場合を示す。)。家に類似する領域が抽出対象となる領域である場合、記憶手段2は、図2(a)に例示する家の全体オブジェクトの視覚的特徴量(全体特徴量)31と、図2(b)に例示する各パーツの視覚的特徴量(部分特徴量)32とを記憶する。
また、オブジェクト領域抽出装置が特定のオブジェクトに類似する領域を抽出する場合、記憶手段2は、その特定のオブジェクトに関する一つの画像についての全体特徴量および部分特徴量だけを記憶するのではなく、その特定のオブジェクトに関する複数種類の画像についての全体特徴量および部分特徴量を記憶してもよい。例えば、家に類似する領域が抽出対象となる領域であるとする。このとき、記憶手段2は、家を一方向から撮影して得られる全体オブジェクトおよびそのパーツの視覚的特徴量だけを記憶するのではなく、その家を様々な方向から撮影して得られる各全体オブジェクトおよびそのパーツの視覚的特徴量を記憶してもよい。
例えば、記憶手段2に全体特徴量が記憶される全体オブジェクトのうち、j番目の全体オブジェクトをOjのように表す。また、各全体オブジェクトは、パーツに分割されている。j番目の全体オブジェクトのk番目のパーツを、例えば、Ojkのように表す。記憶手段2は、全体オブジェクト毎に全体特徴量と部分特徴量とを対応付けて記憶して、部分特徴量から全体特徴量を参照可能とし、また、全体特徴量から部分特徴量を参照可能とする。すなわち、記憶手段2は、全体オブジェクトの全体特徴量およびその全体オブジェクトのパーツの部分特徴量の組を記憶する。また、記憶手段2は、全体オブジェクトを構成するパーツ数(vとする。)も記憶しておいてもよい。
記憶手段2が記憶する全体オブジェクトの視覚的特徴量およびパーツの視覚的特徴量は、辞書データとして参照される。
面積ソート手段5は、部分特徴量抽出手段4から各分割領域の特徴量を取得し、領域の面積の大きい順に特徴量をソートする。すなわち、分割領域の特徴量(例えば、色の特徴量)は、分割領域の面積を示す情報(例えば、面積の特徴量)に対応付けて取得され、分割領域の面積を示す情報(例えば、面積の特徴量)をキーとしてソートされる。分割領域の面積として、分割領域に含まれる画素(ピクセル)数を用いるとよい。
面積は予め領域の特徴量として抽出しておく。もしくは、抽出時に領域分割手段3の出力を用いて抽出してもよい。分割領域の面積として、例えば、予め抽出されたサイズの特徴量(例えば、分割領域に含まれる画素数)を用いる場合、面積ソート手段5は、各分割領域の特徴量(例えば、色の特徴量)を、サイズの特徴量と対応付けて取得し、サイズの特徴量の大きい順にソートする。
面積ソート手段は6は、記憶手段2から部分特徴量32を読み込み、読み込んだ部分特徴量32を、領域の面積の大きい順に特徴量をソートする。すなわち、部分特徴量32(例えば、色の特徴量)は、対応するパーツの面積を示す情報(例えば、面積の特徴量)に対応付けて取得され、パーツの面積を示す情報(例えば、面積の特徴量)をキーとしてソートされる。パーツの面積として、領域に含まれる画素(ピクセル)数を用いるとよい。面積は予め領域の特徴量として記憶されている。パーツの面積として、例えば、予め抽出されたサイズの特徴量(例えば、パーツに含まれる画素数)を用いる場合、面積ソート手段6は、各パーツの特徴量(例えば、色の特徴量)を、サイズの特徴量と対応付けて取得し、サイズの特徴量の大きい順にソートする。また、あらかじめ部分特徴量32を面積の大きい順に記憶手段2に登録しておき、記憶手段2から部分特徴量32を面積の大きい順に読みこんでもよい。
部分照合手段7は、面積ソート手段6から面積の大きい順に部分特徴量32を読み込むとともに、面積ソート手段5から部分特徴量抽出手段4によって抽出された分割領域の視覚的特徴量を面積の大きい順に読み込み、これらの特徴量の類似性を判定する。
部分照合手段7は、面積が最大である部分特徴量32を読み込むと、類似性が基準より高いと判定されるまで、面積ソート手段5から部分特徴量抽出手段4によって抽出された分割領域の視覚的特徴量を面積の大きい順に読み込み、類似性判定を繰り返す。
類似性が基準より高いと判定された場合、部分照合手段7は、面積ソート手段6から次に面積の大きい部分特徴量32を読み込む。続いて、部分照合手段7は、面積ソート手段5から、まだ類似度の算出がされていない視覚的特徴量の中から、面積が最大である分割領域の視覚的特徴量を読み込み、類似性判定を繰り返す。この類似度判定を全ての部分特徴量32に対して行うまで繰り返す。
部分照合手段7は、類似性が高いと判定された分割領域(候補領域と記す。)を表す情報を、全体特徴量抽出手段8に出力する。類似の度合いを数値化して表した値を類似度と記す。本実施の形態では、類似度の値が小さいほど類似性が高いことになる。よって、類似度が閾値以下である場合に、類似性が基準より高いことになる。類似度の計算方法については、後述する。
全体特徴量抽出手段8は、部分照合手段7から入力される候補領域を表す情報に基づいて、候補領域を領域分割手段3の抽出結果を用いて組み合わせ、この組み合わせによって得られる領域(結合領域と記す。)における視覚的特徴量を抽出する。すなわち、全体特徴量抽出手段8は、結合領域として、全ての候補領域によって構成される分割前の画像を生成する。
全体照合手段9は、記憶手段2から全体特徴量31を読み込み、その全体特徴量31と、全体特徴量抽出手段7によって抽出された結合領域の視覚的特徴量との類似性を算出する。
判定手段10は、全体照合手段9で算出された類似性の高さが基準より高ければ(類似の度合いを数値化した類似度が閾値以下であるならば)、その結合領域を画像から抽出された領域とする。なお、本実施の形態では、類似の度合いを数値化した類似度が小さいほど類似性が高いことになるので、類似度が閾値以下である場合に、類似性が基準より高いことになる。
登録手段11は、判定手段10によって出力された全体特徴量抽出手段8によって抽出された結合領域の視覚的特徴量と部分照合手段7によって照合された候補領域の視覚的特徴量とを、それぞれ全体特徴量31および部分特徴量32として記憶手段2に登録する。
領域分割手段3、部分特徴量抽出手段4、面積ソート手段5、面積ソート手段6、部分照合手段7、全体特徴量抽出手段8、全体照合手段9、判定手段10、登録手段11は、プログラムにしたがって動作するコンピュータであってもよい。また、領域分割手段3、部分特徴量抽出手段4、面積ソート手段5、面積ソート手段6、部分照合手段7、全体特徴量抽出手段8、全体照合手段9、判定手段10、登録手段11が、プログラムにしたがって動作する1台のコンピュータによって実現されてもよい。プログラムは、コンピュータが備える記憶装置に記憶され、コンピュータは、そのプログラムを読み込んで動作する。
次に、動作について説明する。以下の説明では、オブジェクト領域抽出装置が、画像の中に家に類似する領域が存在している場合に、画像の中からその領域を抽出するものとする。すなわち、家に類似する領域が抽出対象となる領域であるとする。そして、記憶装置2には、複数の家のオブジェクトに関する情報(例えば、同一の家を異なる角度から撮影することによって得られたオブジェクトの全体特徴量および部分特徴量)を記憶しているものとする。記憶手段2は、各家オブジェクト全体の全体特徴量と、各家オブジェクトの各パーツの部分特徴量とを記憶する。
視覚的特徴量が全体特徴量31として記憶手段2に記憶されている家オブジェクトをTOjとする。ここで、jは、j番目の家オブジェクトであることを表す添え字である。また、一つの家オブジェクトTOj全体の全体特徴量をTOPjと表すことにする。家オブジェクトの種類がK種類である場合、記憶手段2には、各全体特徴量TOPj(j=1〜K)が記憶される。また、パーツの総数がNであり、各パーツをTPj(j=1〜N)と表すこととする。そして、パーツTPjの視覚的特徴量をFTPjと表すことにする。記憶手段2には、各部分特徴量FTPj(j=1〜N)が記憶される。
図3、図4および図5は、本発明によるオブジェクト領域抽出装置の動作の例を示すフローチャートである。
まず、画像取得手段1は、画像を撮影し、撮影した画像を領域分割手段3に出力する(ステップS1)。
続いて、領域分割手段3は、画像取得手段1から入力された画像に対して色やエッジによって領域分割(セグメンテーション)を行う(ステップS2)。例えば、領域分割手段3は、色分けされた領域の境界で画像を分割したり、画像内におけるエッジを境界として画像を分割する。このように分割するということは、領域分割手段3が、入力された画像を、視覚的特徴が類似する領域毎に分割することを意味する。領域分割手段3は、非特許文献2に記載された方法(色、エッジ、境界の複雑度を利用して行うセグメンテーション方法)で領域分割を行ってもよい。
画像がp個の分割領域に分割された場合、各分割領域をRi(i=1〜p)とする。
図6は、領域分割の例を示す説明図である。画像取得手段1が図6(a)に例示する画像を撮影し、画像取得手段1から領域分割手段3に、図6(a)に示す画像が入力されたとする。領域分割手段3は、色分けされた領域の境界で画像を分割したり、画像内におけるエッジを境界として画像を分割したりする。図6(b)は、この結果得られた各分割領域Ri(i=1〜9)を表している。領域分割手段3は、領域分割によって得た各分割領域を部分特徴量抽出手段4および全体特徴量抽出手段8に送る。
部分特徴量抽出手段4は、一つの分割領域を選択して、その分割領域の視覚的特徴量を抽出する(ステップS3)。既に説明したように、視覚的特徴量として、例えば、色の特徴量、模様の特徴量、形状の特徴量、サイズ(面積)の特徴量、位置の特徴量等が挙げられる。
色の特徴として、例えば、MPEG−7/Visualで定義されているビジュアル記述子の色の特徴(ドミナント・カラーやカラー・レイアウト)がある。部分特徴量抽出手段4は、非特許文献3に記載された方法で、色の特徴量を求めればよい。例えば、選択した分割領域における最も支配的な色のRGB値(0〜225の範囲の値)を抽出し、その値を色の特徴量とすればよい。
模様の特徴として、例えば、MPEG−7/Visualで定義されているビジュアル記述子の模様の特徴(エッジ・ヒストグラム)がある。部分特徴量抽出手段4は、非特許文献3に記載された方法で、模様の特徴量を求めればよい。例えば、選択した分割領域で、縦、横、斜め、その他の成分がどの程度含まれているかを数値化し、その数値を模様の特徴量とすればよい。
形状の特徴として、例えば、MPEG−7/Visualで定義されているビジュアル記述子の形状の特徴(リージョン・ベースド形状記述子)がある。部分特徴量抽出手段4は、非特許文献4に記載された方法で、形状の特徴量を求めればよい。例えば、以下に示すように、形状の特徴量を求めればよい。部分特徴量抽出手段4は、選択した領域の横方向の幅を、分割領域上部から分割領域下部にかけて算出する。すなわち、分割領域上部における横方向の幅を求め、さらに少し縦方向に下がった位置での横方向の幅を求めることを繰り返す。同様に、部分特徴量抽出手段4は、選択した領域の縦方向の高さを、分割領域左側から分割領域右側にかけて算出する。すなわち、分割領域の左側における縦方向の高さを求め、さらに少し右方向にずらした位置での縦方向の高さを求めることを繰り返す。
サイズの特徴として、例えば、選択した領域に含まれる画素(ピクセル)の数がある。部分特徴量抽出手段4は、選択した領域に含まれる画素(ピクセル)の数をサイズの特徴量として抽出すればよい。
位置の特徴として、例えば、選択した領域の外接矩形の左上頂点および右下頂点の座標値がある。部分特徴量抽出手段4は、選択した領域の外接矩形の左上頂点および右下頂点の座標値を位置の特徴量として抽出すればよい。
部分特徴量抽出手段4は、分割領域における色、模様、形状、サイズ、位置の特徴量の一部または全部を抽出してもよいし、他の要素の特徴量を抽出してもよい。また、ステップS3において、部分特徴量抽出手段4は、色、模様、形状、サイズ、位置の特徴量の一部または全部をベクトルの要素として、視覚的特徴量をベクトルとして求める。ベクトルの要素として、色、模様、形状以外の要素の特徴量が含まれていてもよい。分割領域Riにおける視覚的特徴量をFRiとすると、部分特徴量抽出手段4は、分割領域Riの視覚的特徴量を、例えば、FRi=(ドミナント・カラー,カラー・レイアウト,エッジ・ヒストグラム,リージョン・ベースド形状記述子,・・・)等のベクトルとして求めればよい。
部分特徴量抽出手段4は、色の特徴量、模様の特徴量、形状の特徴量、サイズの特徴量、位置の特徴量のうち少なくとも一つ(あるいは、色の特徴量、模様の特徴量、サイズの特徴量、位置の特徴量のうち少なくとも一つ)を含むベクトルとして視覚的特徴量FRiを求める。
なお、記憶手段2も、視覚的特徴量(全体特徴量31,部分特徴量32)も上述のようなベクトルとして記憶する。
ステップS3の後、面積ソート手段5は、分割領域Riにおける視覚的特徴量FRiを部分特徴量抽出手段4から読み込み、視覚的特徴量FRiを面積の大きい順に並び替え(ソート)を行い、その結果を記録する(ステップS4)。
ステップS4の後、面積ソート手段6は、一つのオブジェクトを構成するパーツの視覚的特徴量(部分特徴量32)を記憶手段2から読み込む(ステップS5)。
面積ソート手段6は、例えば、一つのオブジェクトを構成する複数のパーツの面積に関する特徴量や、色に関する特徴量や模様に関する特徴量を読み込み、そのうちの面積に関する特徴量を用いて面積の大きい順にソートを行い、その結果を記録しておく(ステップS6)。
部分照合手段7は、ステップS6で面積順にソートした結果から、最も面積の大きいパーツ(Piとする。)の視覚的特徴量FPiを取得する(ステップS7)。
次に、部分照合手段7は、ステップS4で面積順にソートした結果から、最も面積の大きい分割領域(Rjとする。)の視覚的特徴量FRjを取得する(ステップS8)。
図7は、面積順にパーツの領域の候補となる分割領域を探索する動作の例を示す説明図である。図7には、ステップS6で、パーツP2,P1,P4,P3の順にソートされ、ステップS4で、分割領域R1,R5,R9,R3,R4,R2,R7,R8,R6の順にソートされた場合を例示する。図7に示す例では、最も面積の大きいパーツはP2であり、最も面積の大きい分割領域はR1である。この場合、部分照合手段7は、ステップS7において、最も面積の大きいパーツはP2の視覚的特徴量FP2を取得し、ステップS8において、最も面積の大きい分割領域R1の視覚的特徴量FR1を取得する。
部分照合手段7は、ステップS7で取得した視覚的特徴量FPjと、ステップS8で取得した視覚的特徴量FRjとの類似度を算出する(ステップS9)。なお、パーツPiの視覚的特徴量FPiと分割領域Rjの視覚的特徴量FRjとの類似度をSijと表す。
類似度Sijは、視覚的特徴間の距離として表すことができる。すなわち、各特徴を表す数値の差分の二乗和の平方根を類似度(特徴間の距離)として表すことができる。例えば、色の特徴に関して、ある色の特徴Aが(R=1,G=4,B=2)と表され、他の色の特徴Bが(R=5,G=2,B=0)と表されているとする。この場合、視覚的特徴の類似度(本例では色の特徴の類似度)は、各RGB値の差分の二乗和の平方根を計算することにより得られる。すなわち、以下のように類似度を計算することができる。
√((1−5)^2+(4−2)^2+(2−0)^2)=√(24)=4.9
尚、演算子の“^”は、べき乗を表す。
ここでは、視覚的特徴が色の特徴である場合を示したが、他の場合に関しても、同様に、各特徴を表す数値の差分の二乗和の平方根を類似度として計算することができる。
ステップS9において、部分照合手段7は、各特徴を表す数値の差分の二乗和の平方根を計算することによって、Sijを求めればよい。このように求めた類似度Sijでは、値が小さいほど、類似性が高いことを表す。
続いて、部分照合手段7は、ステップS9で求めた類似度Sijが予め定められた閾値(Th1と記す。)以下であるか否かを判定する(ステップS10)。Sijが、閾値Th1以下であれば、類似性を求めた二つの視覚的特徴量の類似性が基準より高いことになる。また、Sijが、閾値Th1より大きな値であれば、類似性が基準より低いことになる。
閾値Th1は、例えば、以下のように定めればよい。記憶手段2に記憶されている各パーツの視覚的特徴量の全ての組み合わせについて視覚的特徴量の類似度を算出し、その類似度の平均値または最大値を閾値として定めればよい。記憶手段2に記憶されている各パーツの視覚的特徴量の全ての組み合わせについて視覚的特徴量の類似度を算出し、その最大値を閾値Th1と定める場合には、類似性の高さの判定基準が低くなる。
類似度Sijが閾値Th1以下であれば(ステップS10のY)、部分照合手段7は、ステップS8で選択された領域がパーツの領域の候補であると判定し、ステップS11に移行する。
類似度Sijが閾値Th1よりも大きい場合は(ステップS10のN)、パーツに対応する分割領域の候補を探すため、ステップS8に移行し、次に面積の大きい分割領域の特徴量の抽出を繰り返す。
ステップ11では、部分照合手段7は、ステップS5で取得された全てのパーツの視覚的特徴量について、ステップS8で選択された分割領域の視覚的特徴量との照合(類似度の算出)を行ったか否かを判定する。ステップS5で取得された全てのパーツの視覚的特徴量について照合が完了していなければ(ステップS11のN)、ステップS7に移行して、ステップS7以降の処理を繰り返す。ステップS5で取得された全てのパーツの視覚的特徴量について照合が完了しているならば(ステップS11のY)、ステップS12に移行する。
例えば、ステップS9において、パーツP2の視覚的特徴量FP2と分割領域R1の視覚的特徴量FR1との類似度S21が算出された場合について説明する。類似度S21が閾値Th1よりも大きい場合には(ステップS10のN)、ステップS8に移行し、R1の次に面積の大きい分割領域R5の視覚的特徴量FR5が抽出される。
続いて、ステップS9において、パーツP2の視覚的特徴量FP2と分割領域R5の視覚的特徴量FR5との類似度S25が算出される。つまり、P2とR5の照合を行う。例えば、ステップS10において、類似度S25が閾値Th1以下となる場合(ステップS10のY)、ステップS11に移行する。
ステップ11において、全パーツについて処理が終了していない場合には、ステップS7に移行し、パーツP2の次に面積の大きいP1が選択され、視覚的特徴量FP1が取得される。また、ステップS8において、分割領域R5の次に面積の大きい分割領域R9の視覚的特徴量FR9が抽出される。部分照合手段7は、ステップS9において、視覚的特徴量FP1と視覚的特徴量FR9との類似度判定を行う。パーツP3と類似する分割領域を抽出するまで、ステップS7からステップS11までの処理が繰り返される。部分照合手段5は、全てのパーツに対して候補となる分割領域の組を抽出し、その結果を全体特徴量抽出手段8に送る。
あるオブジェクトを抽出する際、面積順にソートを行って特徴量の照合を行うことにより、分割領域数をmとした場合、ステップS9における照合処理回数はm回となる。面積順にソートを行わない場合は、辞書に登録されているパーツ数をvとすると、照合処理回数はvm回となる。したがって、パーツの視覚的特徴量と分割領域の視覚的特徴量との類似度を判定する処理を軽減することができる。
また、全てのパーツを用いずに、選択されたパーツの総面積が一定の割合以上になるまで照合を繰り返すようにしてもよい。パーツの選択は面積の大きい順に行われるため、選択されたパーツの総領域がオブジェクト全体の一定の割合(例えば80%)以上になったら照合処理を終了しても良い。残りのパーツは面積が小さく、全体照合において影響力は少ないと考えられるため、処理を省略することで計算コストを低く抑えることができる。
図8は、パーツの領域の候補とされた候補領域の例を示す説明図である。以下、ステップS12に移行した時点で、その以前に実行されたステップS10の処理で、図8に例示するR5,R4,R8,R6がパーツの領域の候補として判定され、その各候補領域の情報が部分照合手段7から全体特徴量抽出手段8に送られていたものとして説明する。
全体特徴量抽出手段8は、パーツの領域の候補として判定された候補領域を組み合わせ、結合領域を生成する(ステップS12)。全体特徴量抽出手段8には、領域分割手段3から各分割領域が入力されている。また、パーツの領域の候補とされた候補領域を示す情報(本例では、各領域R5,R4,R8,R6を示す情報)が部分照合手段7から入力されている。従って、全体特徴量抽出手段8は、領域分割手段3から入力された情報が示す分割領域を組み合わせて結合領域を生成することができる。すなわち、全体特徴量抽出手段8は、結合領域として、全候補領域によって構成される分割前の画像を生成する。
ステップS12において、分割領域を組み合わせる組み合わせ数は1通りであるため、ステップS15における結合領域の特徴量とオブジェクト全体の特徴量との類似度を判定する処理の処理回数は1回となる。
全体特徴量抽出手段8は、ステップS12において生成された結合領域の視覚的特徴量を抽出する(ステップ13)。ステップS13での視覚的特徴量の抽出は、ステップS3において部分特徴量抽出手段4が行う視覚的特徴量の抽出と同様に行えばよい。ステップS13では、色に関する特徴量、模様に関する特徴量、形状に関する特徴量を算出して、それらの特徴量を用いて、ステップS15における類似度算出処理を行うとよい。このとき、色に関する特徴量、模様に関する特徴量、形状に関する特徴量のうち少なくとも一つを算出して、その特徴量を用いてステップS15での類似度算出を行うとよい。色に関する特徴量、模様に関する特徴量、形状に関する特徴量のうち少なくとも一つを算出して、その特徴量を用いて類似度算出を行うというのは、好ましい一例であり、類似度算出の態様はそのような態様に限定されるわけではない。全体特徴量抽出手段8は、結合領域の視覚的特徴量を算出したならば、その視覚的特徴量を全体照合手段9に出力する。
ステップS14では、全体照合手段9は、一つの家オブジェクト全体の視覚的特徴量(全体特徴量)を記憶手段2から読み込む(ステップS14)。ステップS14で全体照合手段9が読み込んだ一つの家オブジェクト全体の視覚的特徴量をTOPjとする。
全体照合手段9は、全体特徴量抽出手段8から入力された結合領域の視覚的特徴量と、ステップS14で記憶手段2から読み込んだ一つの家オブジェクト全体の視覚的特徴量との類似度を算出する(ステップS15)。ステップS15での類似度の算出は、ステップS9での類似度算出と同様に行えばよい。すなわち、結合領域の視覚的特徴量および記憶手段2から読み込んだ一つの家オブジェクト全体の視覚的特徴量において、各特徴を表す数値の差分の二乗和の平方根を算出すればよい。そして、全体照合手段9は、算出した類似度を判定手段10に出力する。
ここで、非特許文献1における照合処理回数を考える。非特許文献1において、候補領域数をdとし、辞書に登録されているパーツ数をvとする。入力画像中にオブジェクトが存在すると仮定すると、入力画像内には、オブジェクトのパーツと、パーツに類似する領域とが存在するため、候補領域数dは、パーツ数vよりも大きくなる。
d>v
入力画像中の分割領域のすべてが候補領域とならないため、以下の式が成り立つ。
m>d
このとき、非特許文献1における照合処理回数は、候補領域dを組み合わせる際の組み合わせ数であるため、dCvである。
通常の画像において、分割領域数mは50程度である。また、オブジェクトのパーツ数vは4以上であり、候補領域数dはパーツ数vの約2倍以上であると考えられる。このため、
d=αv(α≧2)
とおくと、dCvは以下のように計算され、パーツ数vに関する単調増加係数となる。
Figure 0004985993
例えば、v=4である場合、dCv=70となる。mは50程度であるため、v≧4の場合には、dCv>>mとなる。
したがって、非特許文献1に記載された方式では、パーツ数の増加に伴って、結合領域の特徴量とオブジェクト全体の特徴量との類似度を判定する処理の処理回数が増大するが、本実施の形態によれば、ステップS15における照合処理回数が1回となるため、処理量を軽減することができる。
判定手段10は、全体照合手段9から入力された類似度が、予め定められている閾値以下であるか否かを判定する(ステップS16)。ステップS16で用いられる閾値をTh2とする。
ステップS16で用いられる閾値Th2は、記憶手段2に記憶されている各全体オブジェクトの視覚的特徴量(全体特徴量)同士の各組み合わせにおける類似度の平均および類似度の分散を用いて定めればよい。例えば、以下のように閾値Th2を定めればよい。ただし、各全体オブジェクトの視覚的特徴量(全体特徴量)同士の各組み合わせにおける類似度の平均をLとし、その類似度の分散をDとする。
Th2=係数A×L+係数B×√(D)
すなわち、類似度の平均、分散の平方根のうち正の値それぞれに係数を乗じた値の和を閾値Th2と定めればよい。分散の平方根のうち正の値である「√(D)」は、類似度の標準偏差である。従って、閾値Th2は、類似度の平均および標準偏差を用いて定めているということもできる。全体オブジェクト同士の類似性は、パーツ同士の類似性と比較して、統計的に偏りがあると考えられる。従って、上記のように、類似度の平均および分散(または標準偏差)を用いて閾値を定めることにより、適切な基準として閾値を定めることができる。
全体照合手段9から入力された類似度が閾値Th2以下であるならば(ステップS16のY)、例えば、全体照合手段9は、ステップS12で特定された組み合わせ(結合領域)が、特定のオブジェクトに類似する領域であるものとして、その結合領域をディスプレイ装置等の出力手段(図1において図示せず。)に出力(表示)させる(ステップS17)。このとき、そのオブジェクトの名称も出力手段に出力させてもよい。本例では、家に類似する領域を抽出することが予め定められているので、「家」という名称を予め記憶手段2に記憶させておき、その名称を領域とともに出力手段に出力(表示)させてもよい。
全体照合手段9から入力された類似度が閾値Th2より大きい値であるならば(ステップS16のN)、特定のオブジェクトに類似する領域は、入力画像にふくまれていないものとして、処理を終了する。
なお、ここでは、オブジェクト領域抽出装置が、画像の中に家に類似する領域が存在している場合に、画像の中からその領域を判定する場合について説明した。家以外のオブジェクトに関しても同様の処理を行う場合、そのオブジェクトについて、ステップS5以降の処理を同様に行えばよい。このように複数種類のオブジェクトの認識を行う場合には、オブジェクト毎に、記憶手段2に全体特徴量31および部分特徴量32を記憶しておき、記憶手段2に記憶された個々の全体特徴量や部分特徴量がどのオブジェクトの特徴量であるのか識別できるようにしておけばよい。例えば、家に関する全体特徴量および部分特徴量には、家に関する特徴量であることを示す識別情報を付し、「木」に関する全体特徴量および部分特徴量には、「木」に関する特徴量であることを示す識別情報を付しておけばよい。
本発明は、1つのオブジェクトを構成する分割領域のソート順が、オブジェクトに応じた一般的な順列に決定されることを利用している。例えば、家のオブジェクトに着目すると、一般的に、壁の領域は、屋根、ドア、窓等よりも大きいはずである。そのため、原則として、壁、屋根、ドア、窓等の領域の順列は、オブジェクトによって決定される。また、記憶手段2に記憶される各パーツの面積も入力画像における各分割領域の面積も、一般的な面積順にソートされる場合が多いと考えられる。したがって、上述したように、パーツの視覚的特徴量と分割領域の視覚的特徴量とを簡易な方式によって照合しても、ほぼ正確に候補領域を抽出することができる。また、パーツおよび分割領域の面積自体は類似しない場合(例えば、分割領域が、パーツの拡大図である場合)であっても、オブジェクトにおけるパーツおよび分割領域のソート順が同じであれば、候補領域を抽出することができる。
なお、例外的に、同じ家オブジェクトであっても、ドアが窓よりも大きかったり、窓がドアより大きかったりすることがある。その場合には、ドアまたは窓の領域が抽出されない可能性がある。しかし、面積の大きい順にソートすることから、オブジェクトのうち大きな面積を占める部分、例えば、壁や屋根の領域が抽出され、抽出したいオブジェクトに近い領域を検出することができる。
また、同じオブジェクトを含む異なる2つの入力画像において、背景や他のオブジェクトの面積が異なれば、ソート結果は異なる。しかし、他のオブジェクトの面積によらず、1つのオブジェクトを構成する分割領域のソート順は一定に保たれる。例えば、背景の月オブジェクト(分割領域)R2の面積が、分割領域R6の面積よりも小さい入力画像の場合、ステップS4におけるソート結果は、R1,R5,R9,R3,R4,R7,R8,R6,R2の順となる。しかし、例えば、家オブジェクトを構成する分割領域R4,R5,R6,R8のみに着目すると、分割領域R4,R5,R6,R8の面積ソート順は、分割領域R2の面積によらず、R5,R4,R8,R6の順となり、一定である。したがって、入力画像によって背景や他のオブジェクトが異なる場合であっても、ほぼ正確に候補領域を抽出することができる。
次に、記憶手段2に全体特徴量31および部分特徴量32を記憶させる動作について説明する。記憶手段2に全体特徴量31および部分特徴量32を記憶させる場合、まず、画像取得手段1に、全体オブジェクトの画像が入力される。例えば、画像中に家に類似する領域が存在している場合に、画像の中からその領域を抽出するのであれば、「家」全体の画像が画像取得手段1に入力される。
全体特徴量抽出手段8は、画像取得手段1に入力された画像(全体オブジェクト)の視覚的特徴量を抽出する。この処理は、ステップS14と同様に行えばよい。そして、全体特徴量抽出手段8は、抽出した視覚的特徴量を全体オブジェクトの全体特徴量として記憶手段2に記憶させる。
また、領域分割手段3は、画像取得手段1に入力された画像における全体オブジェクトを分割領域に分割する。この処理は、ステップS2と同様に行えばよい。すなわち、領域分割手段3は、色やエッジにより全体オブジェクトを複数の領域に分割する。
部分特徴量抽出手段4は、分割された各領域(パーツ)毎に、視覚的特徴量を抽出する。この処理は、ステップS3と同様に行えばよい。そして、部分特徴量抽出手段4は、各分割領域の視覚的特徴量を部分特徴量として記憶手段2に記憶させる。
また、入力された画像を分割領域に分割し、その中から全体オブジェクトを構成するパーツ(分割領域)の選択をオペレータに促してもよい。この場合、全体オブジェクトを含んだ画像が画像取得手段1に入力される(または、全体オブジェクトを含む画像を画像取得手段1が撮影する。)。画像分割手段3には、画像取得手段3からその画像が入力される。そして、画像分割手段3は、入力された画像に対して、ステップS2と同様に領域分割を行う。さらに、画像分割手段3は、ディスプレイ装置等の出力手段(図示せず。)に各分割領域を表示して、オペレータに、全体オブジェクトを構成する分割領域の選択を促す。
オペレータによって全体オブジェクトを構成する分割領域が選択されると、全体特徴量抽出手段8は、選択された各分割領域からなる結合領域を生成し、その結合領域における視覚的特徴量をステップS13と同様に抽出する。そして、全体特徴量抽出手段8は、その視覚的特徴量を全体特徴量として記憶手段2に記憶させる。
また、部分特徴量抽出手段4は、オペレータによって選択された個々の分割領域における視覚的特徴量をそれぞれステップS3と同様に抽出し、抽出したそれぞれの視覚的特徴量を部分特徴量として記憶手段2に記憶させる。
上記の説明では、全体特徴量抽出手段8および部分特徴量抽出手段4が、それぞれ記憶手段2に全体特徴量31および部分特徴量32を記憶させる場合を例示したが、例えば、登録手段11が記憶手段2に全体特徴量31および部分特徴量32を記憶させてもよい。
記憶手段2には、全体特徴量31および部分特徴量32が予め記憶されているとする。オブジェクト領域抽出装置は、一部に家オブジェクトを含んでいる画像を画像取得手段1に入力し、家オブジェクト領域の抽出を行う。判定手段10は、全体特徴量抽出手段8によって抽出された結合領域の視覚的特徴量と、部分照合手段7によって照合された候補領域の視覚的特徴量とを、それぞれ全体特徴量31および部分特徴量32として登録手段11に出力する。登録手段11は、出力された全体特徴量31および部分特徴量32を記憶手段2に登録することができる。
以上に説明したように、上記の実施の形態によれば、記憶手段が、オブジェクト全体の視覚的特徴量と、そのオブジェクトを視覚的特徴が類似する領域毎に分割したパーツの視覚的特徴とを記憶する。そして、入力された画像を色やエッジにより分割し、分割した領域の特徴量を抽出する。そして、その分割領域の組み合わせにおける視覚的特徴量と、記憶されているオブジェクト全体の視覚的特徴量とが類似するならば、その組み合わせの領域をオブジェクトに類似する領域とする。したがって、特定のオブジェクトの有無が未知である画像であっても、画像の中にオブジェクトに類似する領域が存在していれば、そのオブジェクトに類似する領域を抽出することができる。
また、上記の実施の形態によれば、記憶されているオブジェクトのパーツの視覚的特徴量と分割領域の視覚的特徴量とをそれぞれ面積順にソートし、面積の大きい順に特徴量の照合を行い、パーツと類似する領域の候補を抽出する。したがって、パーツの視覚的特徴量と分割領域の視覚的特徴量との類似度を判定する処理の処理回数を削減することができる。そして、抽出した領域候補を結合して1つの結合領域を生成し、結合領域の特徴量とオブジェクト全体の特徴量との類似度を算出することから、結合領域の特徴量とオブジェクト全体の特徴量との類似度を判定する処理の処理回数を削減することができる。
本発明は、入力された画像の中から特定のオブジェクトに類似する領域を抽出するために効果的に適用できる。
尚、本出願は、2006年7月7日に出願された日本出願特願2006−187821号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (9)

  1. 特定のオブジェクトの全体領域の視覚的特徴量と、視覚的特徴が類似する領域毎に当該オブジェクトを分割した各部分領域の視覚的特徴量とが記憶されている記憶手段と、
    入力された画像を視覚的特徴が類似する領域に分割する領域分割手段と、
    前記分割された分割領域の視覚的特徴量を抽出する部分特徴量抽出手段と、
    前記部分領域の視覚的特徴量と前記分割領域の視覚的特徴量との類似度を算出し、算出した類似度と第1の閾値とが所定の関係にあるか否かを判定する部分照合処理を実行し、所定の関係にある場合に該分割領域を特定のオブジェクトの部分となる候補領域とする部分照合手段と、
    各候補領域を結合することによって構成される結合領域を生成し、生成した結合領域の視覚的特徴量を抽出する全体特徴量抽出手段と、
    前記全体領域の視覚的特徴量と前記結合領域の視覚的特徴量との類似度を算出し、算出した類似度と第2の閾値とが所定の関係を満たしているときに、前記結合領域が特定のオブジェクトに類似する領域であると判定する全体照合手段とを備え、
    前記部分照合手段は、視覚的特徴量とともに取得する前記部分領域および前記分割領域の面積の大きい順に各々の領域の視覚的特徴量を選択し、前記候補領域が検出されたときに次に面積の小さい部分領域の視覚的特徴量と次に面積の小さい分割領域の視覚的特徴量を選択して、前記部分照合処理を実行する
    ことを特徴とするオブジェクト領域抽出装置。
  2. 部分照合手段は、色に関する特徴量、模様に関する特徴量、大きさに関する特徴量および位置に関する特徴量のうちの少なくとも一つを用いて、記憶手段に記憶されている部分領域の視覚的特徴量と、部分特徴量抽出手段によって抽出された視覚的特徴量との類似度を算出することを特徴とする請求項1に記載のオブジェクト領域抽出装置。
  3. 全体照合手段は、色に関する特徴量、模様に関する特徴量、形状に関する特徴量、大きさに関する特徴量および位置に関する特徴量のうちの少なくとも一つを用いて、記憶手段に記憶されている全体領域の視覚的特徴量と、全体特徴量抽出手段によって抽出された視覚的特徴量との類似度を算出することを特徴とする請求項1または請求項2に記載のオブジェクト領域抽出装置。
  4. 全体特徴量抽出手段によって抽出された結合領域の視覚的特徴量をオブジェクトの全体領域の視覚的特徴量として記憶手段に登録し、部分照合手段によって照合された候補領域の視覚的特徴量を各部分領域の視覚的特徴量として記憶手段に登録する登録手段を備えたことを特徴とする請求項1から請求項3のいずれかに記載のオブジェクト領域抽出装置。
  5. 記憶手段に記憶されている、特定のオブジェクトの全体領域の視覚的特徴量と、視覚的特徴が類似する領域毎に当該オブジェクトを分割した各部分領域の視覚的特徴量とを用いて、入力された画像から特定のオブジェクトに類似する領域を抽出するオブジェクト領域抽出方法であって、
    入力された画像を視覚的特徴が類似する領域に分割し、
    分割された分割領域の視覚的特徴量を抽出し、
    視覚的特徴量とともに取得する前記部分領域および前記分割領域の面積の大きい順に各々の領域の視覚的特徴量を選択し、前記候補領域が検出されたときに次に面積の小さい部分領域の視覚的特徴量と次に面積の小さい分割領域の視覚的特徴量を選択して、前記部分領域の視覚的特徴量と前記分割領域の視覚的特徴量との類似度を算出し、
    算出した類似度と第1の閾値とが所定の関係にあるか否かを判定し、所定の関係にある場合に該分割領域を特定のオブジェクトの部分となる候補領域とし、
    各候補領域を結合することによって構成される結合領域を生成し、生成した結合領域の視覚的特徴量を抽出し、
    前記全体領域の視覚的特徴量と前記結合領域の視覚的特徴量との類似度を算出し、算出した類似度と第2の閾値とが所定の関係を満たしているときに、前記結合領域が特定のオブジェクトに類似する領域であると判定する
    ことを特徴とするオブジェクト領域抽出方法。
  6. 色に関する特徴量、模様に関する特徴量、大きさに関する特徴量および位置に関する特徴量のうちの少なくとも一つを用いて、部分領域の視覚的特徴量と、抽出された視覚的特徴量との類似度を算出することを特徴とする請求項5に記載のオブジェクト領域抽出方法。
  7. 色に関する特徴量、模様に関する特徴量、形状に関する特徴量、大きさに関する特徴量および位置に関する特徴量のうちの少なくとも一つを用いて、全体領域の視覚的特徴量と抽出された視覚的特徴量との類似度を算出することを特徴とする請求項5または請求項6に記載のオブジェクト領域抽出方法。
  8. 抽出された結合領域の視覚的特徴量をオブジェクトの全体領域の視覚的特徴量として記憶手段に登録し、照合された候補領域の視覚的特徴量を各部分領域の視覚的特徴量として記憶手段に登録することを特徴とする請求項5から請求項7のいずれかに記載のオブジェクト領域抽出方法。
  9. 特定のオブジェクトの全体領域の視覚的特徴量と、視覚的特徴が類似する領域毎に当該オブジェクトを分割した各部分領域の視覚的特徴量とを用いて、入力された画像から特定のオブジェクトに類似する領域を抽出するためのオブジェクト領域抽出プログラムであって、
    前記オブジェクト領域抽出プログラムはコンピュータに、
    入力された画像を視覚的特徴が類似する領域に分割する領域分割処理と、
    分割された分割領域の視覚的特徴量を抽出する部分特徴量抽出処理と、
    視覚的特徴量とともに取得する前記部分領域および前記分割領域の面積の大きい順に各々の領域の視覚的特徴量を選択し、前記候補領域が検出されたときに次に面積の小さい部分領域の視覚的特徴量と次に面積の小さい分割領域の視覚的特徴量を選択して、前記部分領域の視覚的特徴量と前記分割領域の視覚的特徴量との類似度を算出し、算出した類似度と第1の閾値とが所定の関係にあるか否かを判定し、所定の関係にある場合に該分割領域を特定のオブジェクトの部分となる候補領域とする部分照合処理と、
    各候補領域を結合することによって構成される結合領域を生成し、生成した結合領域の視覚的特徴量を抽出する全体特徴量抽出処理と、
    前記全体領域の視覚的特徴量と前記結合領域の視覚的特徴量との類似度を算出し、算出した類似度と第2の閾値とが所定の関係を満たしているときに、前記結合領域が特定のオブジェクトに類似する領域であると判定する全体照合処理と
    を実行させることを特徴とするオブジェクト領域抽出プログラム。
JP2008528804A 2006-08-10 2007-08-06 オブジェクト領域抽出装置 Active JP4985993B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008528804A JP4985993B2 (ja) 2006-08-10 2007-08-06 オブジェクト領域抽出装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006218535 2006-08-10
JP2006218535 2006-08-10
JP2008528804A JP4985993B2 (ja) 2006-08-10 2007-08-06 オブジェクト領域抽出装置
PCT/JP2007/065336 WO2008018398A1 (fr) 2006-08-10 2007-08-06 dispositif d'extraction de région d'objet

Publications (2)

Publication Number Publication Date
JPWO2008018398A1 JPWO2008018398A1 (ja) 2009-12-24
JP4985993B2 true JP4985993B2 (ja) 2012-07-25

Family

ID=39032928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008528804A Active JP4985993B2 (ja) 2006-08-10 2007-08-06 オブジェクト領域抽出装置

Country Status (3)

Country Link
US (1) US8355569B2 (ja)
JP (1) JP4985993B2 (ja)
WO (1) WO2008018398A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5350148B2 (ja) * 2008-11-28 2013-11-27 キヤノン株式会社 情報処理装置、情報処理方法
EP2434416B1 (en) * 2009-01-23 2018-08-15 Nec Corporation Device for generating video descriptor
US9560350B2 (en) 2009-03-31 2017-01-31 Texas Instruments Incorporated Intra/inter mode decision for predictive frame encoding
JP5213183B2 (ja) * 2009-07-14 2013-06-19 独立行政法人科学技術振興機構 ロボット制御システム及びロボット制御プログラム
JP5939705B2 (ja) * 2012-02-08 2016-06-22 カシオ計算機株式会社 被写体判定装置、被写体判定方法及びプログラム
TW201421423A (zh) * 2012-11-26 2014-06-01 Pixart Imaging Inc 影像感測器及其運作方法
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2015150976A1 (en) * 2014-04-03 2015-10-08 Strato Scale Ltd. Cluster-wide memory management using similarity-preserving signatures
CN104217225B (zh) * 2014-09-02 2018-04-24 中国科学院自动化研究所 一种视觉目标检测与标注方法
US9912748B2 (en) 2015-01-12 2018-03-06 Strato Scale Ltd. Synchronization of snapshots in a distributed storage system
KR102312334B1 (ko) * 2015-02-17 2021-10-13 삼성전자주식회사 프린팅 정보를 생성하는 디바이스 및 프린팅 정보를 생성하는 방법
EP3126987A4 (en) 2015-02-26 2017-11-22 Strato Scale Ltd. Using access-frequency hierarchy for selection of eviction destination
US9977998B2 (en) * 2015-04-27 2018-05-22 Sony Corporation Method and system for processing one or more multi-channel images
JP6674094B2 (ja) * 2016-03-31 2020-04-01 富士通株式会社 領域抽出プログラム、領域抽出方法、および領域抽出装置
CN108876791B (zh) * 2017-10-23 2021-04-09 北京旷视科技有限公司 图像处理方法、装置和系统及存储介质
CN109190674B (zh) * 2018-08-03 2021-07-20 百度在线网络技术(北京)有限公司 训练数据的生成方法及装置
US11120297B2 (en) * 2018-11-30 2021-09-14 International Business Machines Corporation Segmentation of target areas in images
JP7365122B2 (ja) 2019-02-01 2023-10-19 株式会社小松製作所 画像処理システムおよび画像処理方法
JP6918382B1 (ja) * 2020-09-15 2021-08-11 クリスタルメソッド株式会社 情報処理装置及び情報処理方法
JP2023042935A (ja) * 2021-09-15 2023-03-28 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076302A (ja) * 1998-08-27 2000-03-14 Casio Comput Co Ltd 画像検索方法,画像検索装置および電子スチルカメラ
JP2005149323A (ja) * 2003-11-18 2005-06-09 Canon Inc 画像処理システム及び画像処理装置並びに画像処理方法
JP2006338313A (ja) * 2005-06-01 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 類似画像検索方法,類似画像検索システム,類似画像検索プログラム及び記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04291472A (ja) 1991-03-20 1992-10-15 N T T Data Tsushin Kk カラー画像同一性判定方法及びその実施装置
EP0567059B1 (en) * 1992-04-24 1998-12-02 Hitachi, Ltd. Object recognition system using image processing
JPH09231362A (ja) 1996-02-27 1997-09-05 Fuji Electric Co Ltd 外観検査装置及びその方法
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
US20020030359A1 (en) * 1998-04-02 2002-03-14 Jerker Bergenek Fingerprint system
JP4291472B2 (ja) 1999-09-30 2009-07-08 パナソニック コミュニケーションズ株式会社 デジタル複合機とネットワークサーバとから構成される文書管理システム
JP2002245048A (ja) 2001-02-20 2002-08-30 Mitsubishi Electric Corp 画像検索方法および画像検索装置
US6944331B2 (en) * 2001-10-26 2005-09-13 National Instruments Corporation Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching
US7203346B2 (en) * 2002-04-27 2007-04-10 Samsung Electronics Co., Ltd. Face recognition method and apparatus using component-based face descriptor
JP2005004612A (ja) 2003-06-13 2005-01-06 Denso Corp 画像認識装置
JP2006149323A (ja) * 2004-11-30 2006-06-15 Iseki & Co Ltd 固形培地の溝孔形成装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076302A (ja) * 1998-08-27 2000-03-14 Casio Comput Co Ltd 画像検索方法,画像検索装置および電子スチルカメラ
JP2005149323A (ja) * 2003-11-18 2005-06-09 Canon Inc 画像処理システム及び画像処理装置並びに画像処理方法
JP2006338313A (ja) * 2005-06-01 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 類似画像検索方法,類似画像検索システム,類似画像検索プログラム及び記録媒体

Also Published As

Publication number Publication date
JPWO2008018398A1 (ja) 2009-12-24
US20090304271A1 (en) 2009-12-10
WO2008018398A1 (fr) 2008-02-14
US8355569B2 (en) 2013-01-15

Similar Documents

Publication Publication Date Title
JP4985993B2 (ja) オブジェクト領域抽出装置
US11682197B2 (en) Computer vision systems and methods for geospatial property feature detection and extraction from digital images
US9898686B2 (en) Object re-identification using self-dissimilarity
Yi et al. Text string detection from natural scenes by structure-based partition and grouping
US7415165B2 (en) Red-eye detection device, red-eye detection method, and red-eye detection program
Park et al. Multi-task template matching for object detection, segmentation and pose estimation using depth images
CN106991370B (zh) 基于颜色和深度的行人检索方法
JP2004265407A (ja) デジタル画像におけるカラーオブジェクトの検出方法
Alvarez et al. Road geometry classification by adaptive shape models
Fan et al. Automatic model-based semantic object extraction algorithm
CN104951440B (zh) 一种图像处理方法及电子设备
JP2008035301A (ja) 移動体追跡装置
JP3577908B2 (ja) 顔画像認識システム
JP5791751B2 (ja) 画像認識方法及び画像認識装置
JP4683238B2 (ja) オブジェクト認識装置、オブジェクト認識方法、およびオブジェクト認識プログラム
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
JP5755516B2 (ja) 物体形状推定装置
JP2002183732A (ja) パターン認識方法及びパターン認識を行わせるプログラムを記憶したコンピュータ読み取り可能な記憶媒体
JP3859347B2 (ja) 物体認識装置及びその方法
JP6795469B2 (ja) 注視領域推定装置及びプログラム
CN104484324A (zh) 一种多模型和模糊颜色的行人检索方法
JP6460332B2 (ja) 特徴量生成ユニット、照合装置、特徴量生成方法、および特徴量生成プログラム
Cheng et al. Efficient detection and extraction of color objects from complex scenes
Ganesh et al. Extraction of Text from Images of Big Data
CN114565750A (zh) 一种纸质试题的处理方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120404

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120417

R150 Certificate of patent or registration of utility model

Ref document number: 4985993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3