JP4285644B2 - オブジェクト識別方法および装置ならびにプログラム - Google Patents

オブジェクト識別方法および装置ならびにプログラム Download PDF

Info

Publication number
JP4285644B2
JP4285644B2 JP2003295360A JP2003295360A JP4285644B2 JP 4285644 B2 JP4285644 B2 JP 4285644B2 JP 2003295360 A JP2003295360 A JP 2003295360A JP 2003295360 A JP2003295360 A JP 2003295360A JP 4285644 B2 JP4285644 B2 JP 4285644B2
Authority
JP
Japan
Prior art keywords
type
vector
feature
representative vector
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003295360A
Other languages
English (en)
Other versions
JP2005063309A (ja
Inventor
貞登 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2003295360A priority Critical patent/JP4285644B2/ja
Publication of JP2005063309A publication Critical patent/JP2005063309A/ja
Application granted granted Critical
Publication of JP4285644B2 publication Critical patent/JP4285644B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像を構成するオブジェクトの種類を自動的に識別するオブジェクト識別方法および装置ならびにプログラムに関するものである。
デジタルカメラ等で撮像した画像情報において、画像情報にどのような画像が撮像されているかが識別することができれば、たとえば画像に含まれるオブジェクトの種類毎に分類、検索もしくは画像処理などをすることができる。
たとえば画像の分類・検索をする場合、画像に含まれる物理的特徴量を用いて類似度を判断する画像検索システムが提案されている。すなわち、入力画像の局所領域を抽出して、その局所領域が位置と大きさを変化させながら参照画像と照合されて、画像の分類・検索を行う手法がある。また上記手法において、局所領域の色ヒストグラムを利用してヒストグラムを参照画像の色ヒストグラムと照合することにより物体の位置を検出して、画像の分類・検索を効率よく行う手法がある(たとえば非特許文献1参照)。しかし、上述したいずれの方法においても、画像の物理的特徴量で類似度を識別しているため、種類的には似ていないものが物理量の類似性により似ていると判断されてしまう場合があり、検索の精度が悪いという問題がある。
また、画像処理を行う場合、高画質化処理の一例として特定色領域を識別して異なる処理をする方法が知られている(たとえば特許文献1参照)。これは、雑音成分が目立ちやすい領域を色で識別して雑音除去を行うものである。しかし、色のみに基づいて識別しているため、たとえば肌と砂等を混同してしまう場合がある。そして、砂の領域を肌の領域と誤って認識して、砂の領域に雑音除去を行ってしまうと、テクスチャが失われて不自然な画像になるおそれがある。
特公平5−62879号 電子情報通信学会誌、vol.j81−DII,no.9,pp.2035−2042,1998
上述のように、画像から直接得られる情報に基づいて画像の分類、検索もしくは画像処理を行う場合、ユーザーに適切な情報を提供することができない。これを解決する手法の1つとして、オブジェクトの種類を識別した上で、画像の分類、検索もしくは画像処理を行うことが考えられる。すると、画像の分類・検索においては、識別した種類に応じて分類・検索を行うことができるため、画像の分類・検索を容易に精度よく行うことができる。また、画像処理をする場合においても、そのオブジェクトにあった画像処理条件を用いて画像処理を行うことができる。
上述した画像に含まれるオブジェクトの種類の識別は、画像に含まれるオブジェクト領域を抽出して、各オブジェクト領域毎に種類を識別する必要がある。このとき、たとえばユーザーが画面を見ながら画像内のオブジェクト領域を抽出して、各オブジェクト毎に種類を入力することも考えられる。しかし、ユーザーによるオブジェクト領域の種類の付与は作業に手間がかかるという問題がある。
そこで、本発明は、画像に含まれるオブジェクトの種類を自動的に識別することができるオブジェクト識別方法および装置ならびにプログラムを提供することを目的とする。
本発明のオブジェクト識別方法は、画像に含まれるオブジェクトの種類を識別するオブジェクト識別方法において、画像をオブジェクト毎に領域分割した複数のオブジェクト領域と、画像を設定画素数からなる、オブジェクト領域より小さい多数の領域に分割して複数のブロック領域とを生成し、生成した各ブロック領域から複数の特徴量を抽出し、抽出した複数の特徴量をベクトル成分とする特徴ベクトルを生成し、前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、代表ベクトルデータベースの中から特徴ベクトルに最も類似する代表ベクトルを検出し、検出した前記代表ベクトルが属する種類を前記ブロック領域の種類として出力し、識別したブロック領域の種類をオブジェクト領域毎に集計して、オブジェクトの種類を識別することを特徴とするものである。
本発明のオブジェクト識別装置は、画像に含まれるオブジェクトの種類を識別するオブジェクト識別装置において、画像をオブジェクト毎に領域分割して複数のオブジェクト領域を生成するオブジェクト領域生成手段と、画像を設定画素数からなる、オブジェクト領域より小さい多数の領域に分割して複数のブロック領域を生成するブロック領域生成手段と、ブロック領域生成手段により生成された各ブロック領域から複数の特徴量を抽出する特徴量抽出手段と、特徴量抽出手段により抽出された複数の特徴量をベクトル成分とする特徴ベクトルを生成する特徴ベクトル生成手段と、ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、代表ベクトルデータベースの中から特徴ベクトルに最も類似する代表ベクトルを検索する代表ベクトル検索手段と、検索した前記代表ベクトルが属する種類を前記ブロック領域の種類として出力する種類出力手段と、各ブロック領域毎に出力されたブロック領域の種類をオブジェクト領域毎に集計し、集計した結果を用いてオブジェクトの種類を識別するオブジェクト識別手段とを有することを特徴とするものである。
本発明のオブジェクト識別プログラムは、コンピュータに、画像をオブジェクト毎に領域分割した複数のオブジェクト領域と、画像を設定画素数からなる、オブジェクト領域より小さい多数の領域に分割して複数のブロック領域とを生成し、生成した各ブロック領域から複数の特徴量を抽出し、抽出した複数の特徴量をベクトル成分とする特徴ベクトルを生成し、前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、代表ベクトルデータベースの中から特徴ベクトルに最も類似する代表ベクトルを検索し、検索した代表ベクトルが属する種類をブロック領域の種類であると識別し、識別したブロック領域の種類をオブジェクト領域毎に集計して、オブジェクトの種類を識別することを実行させることを特徴とするものである。
ここで、「オブジェクト」はたとえば人物、空、海、木、建物等の画像に含まれる被写体を意味し、「オブジェクト領域」は被写体が画像内に占める領域を意味する。
「オブジェクトの種類を識別する」とは、画像内のオブジェクトについてたとえば「山」、「海」、「花」、「空」等の種類であることを特定することを意味し、さらにオブジェクトの種類がわからない場合に「不明」であることを特定することも含む。
さらに、「特徴量抽出手段」は、画像の特徴を示す複数の特徴量を抽出するものであればよく、たとえば画像の各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出する相関特徴量抽出手段の他に、画像のエッジの特徴を示すエッジ特徴量を抽出するエッジ特徴量抽出手段や画像の色の特徴を示す色特徴量を抽出する色特徴量抽出手段を含むものであってもよい。
なお、「相関特徴量抽出手段」は、たとえば画像の縦方向に沿った相関特徴量、画像の横方向に沿った相関特徴量、もしくは画像の斜め方向に沿った相関特徴量を抽出する等の画像の少なくとも1方向の相関特徴量を抽出するものであればよい。
さらに、「相関特徴量抽出手段」は、画像において同一方向に形成された2つの画素ラインを構成する複数の画素の成分信号値から、2つの画素ラインの相関関係を示す相関値を出力する所定の相互相関関数を有し、2つの画素ラインのいずれか一方を1画素ずつ画素ラインの形成方向にずらしながら画素の成分信号値を相互相関関数に入力することにより複数の相関値を取得し、取得した複数の相関値から最も大きい最大相関値を算出するものであり、画像の同一方向に形成された画素ラインのすべての組み合わせについて最大相関値を算出し、算出されたすべての最大相関値の平均値および標準偏差を相関特徴量として抽出するものであってもよい。
また、「ブロック領域生成手段」は、たとえば画像をメッシュ状に区切った複数の第1ブロック領域と、複数の第1ブロック領域とメッシュ状に区切る位相をずらした第2ブロック領域とを生成するものや、オブジェクト領域内に設定画素数からなる切取枠を走査させて、切取枠により囲まれた画像をブロック領域として生成するもののような、設定画素数からなるブロック領域を生成するものであればよい。
さらに、ブロック領域生成手段は、画像から解像度の異なる複数の解像度変換画像を生成する機能を有し、生成した複数の解像度変換画像からそれぞれブロック領域を生成するものであってもよい。
さらに、代表ベクトルは、予め種類のわかっている特徴ベクトルを用いて勝者代表ベクトルを検索し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが異なるときに、勝者代表ベクトルと特徴ベクトルとの距離が遠くなるように学習し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが同じになるときに、勝者代表ベクトルと特徴ベクトルとの距離が近くなるように学習して得られたものであってもよい。
また、代表ベクトルデータベースは、代表ベクトルを2次元空間に配列した構造を有し、勝者代表ベクトルの近傍領域にある代表ベクトルが勝者代表ベクトルと同じように学習されたものであってもよい。
さらに、代表ベクトルデータベースは、ブロック領域のカテゴリーを分類するための複数の分類用代表ベクトルと、分類されたカテゴリーの中から種類を識別するための複数の識別用代表ベクトルとを有していてもよい。
なお、代表ベクトル検索手段は、特徴ベクトルに最も類似する分類用勝者代表ベクトルを検索し、検索された分類用勝者代表ベクトルの示すカテゴリー内にある種類の識別用代表ベクトルの中から、特徴ベクトルに最も類似する識別用勝者代表ベクトルを検索するものであってもよい。
また、「種類出力手段」は、検索された分類用勝者代表ベクトルの示すカテゴリーと識別用勝者代表ベクトルの示す種類とを出力するものであってもよい。
さらに、「ベクトル検索手段」は、特徴ベクトルと勝者代表ベクトルとの距離を検出し、検出された距離が設定しきい値よりも小さいときには勝者代表ベクトルがないと判断するものであり、種類出力手段が、勝者代表ベクトルがないと判断されたには種類が不明である旨の出力を行うものであってもよい。
また、「設定しきい値」は、一定の値であってもよいし、勝者代表ベクトルの近傍領域内にある複数の代表ベクトルのうち勝者代表ベクトルとの距離が最も大きい代表ベクトルと勝者代表ベクトルとの距離であってもよい。
本発明のオブジェクト識別方法および装置ならびにプログラムによれば、オブジェクト領域の種類の識別にブロック領域を使用することにより、各画素毎に種類を識別する場合に比べて、像構造的特徴をオブジェクト領域の種類の判断に加えることができるため、オブジェクトの種類を正確に識別することができる。
また、各ブロック領域毎にそれぞれ種類を識別し、ブロック領域の種類を各オブジェクト領域毎に集計してオブジェクト領域の種類を識別することにより、オブジェクト領域の一部のブロック領域に本来の種類に識別されなかったものがあったとしても、その誤った認識を吸収してオブジェクトの種類を正確かつ自動的に識別することができる。
なお、ブロック領域生成手段が、画像をメッシュ状に区切った複数の第1ブロック領域と、複数の第1ブロック領域とメッシュ状に区切る位相をずらした第2ブロック領域とを生成するようにすれば、オブジェクト領域の種類を識別するのに用いられるブロック領域の数を増やすことができるため、ブロック領域の種類の識別からオブジェクト領域の種類の識別を行う際の精度を向上させることができる。
また、ブロック領域生成手段が、オブジェクト領域内に設定画素数からなる切取枠を走査させて、切取枠により囲まれた画像をブロック領域として生成するようにすると、オブジェクト領域の種類を識別するのに用いられるブロック領域の数を増やすことができるため、ブロック領域の種類の識別からオブジェクト領域の種類の識別を行う際の精度を向上させることができる。
さらに、ブロック領域生成手段が、画像から解像度の異なる複数の解像度変換画像を生成する機能を有し、生成した複数の解像度変換画像からそれぞれブロック領域を生成するようにすれば、被写体との距離によりオブジェクトの写り方が画像によって違う場合であっても、精度よくオブジェクトの種類を識別することができる。
また、特徴量抽出手段が、画像の各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出する相関特徴量抽出手段を含む構成にすれば、相関特徴量により人工物に多く見られる規則的なパターンを有する画像と、自然物に多く見られるランダムなパターンを有する画像とを区別する指標となる特徴量を抽出することができるため、適切な種類の識別を行うことができる。
さらに、相関特徴量抽出手段が、画像の縦方向に沿った相関特徴量と、画像の横方向に沿った相関特徴量とを抽出するようにすれば、縦方向および横方向に向かって規則的なパターンが形成されたものと、縦方向もしくは横方向のいずれか一方に向かって規則的なパターンが形成されたものとを区別することができる。
また、相関特徴量抽出手段が、2つの画素ラインのいずれか一方を1画素ずつ画素ラインの形成方向にずらしながら画素の成分信号値を所定の相互相関関数に入力することにより算出される複数の相関値のうち最も大きい最大相関値を用いて相関特徴量を算出するようにすれば、画像の縦方向もしくは横方向に向かって形成された規則的なパターンのみならず、画像の斜め方向に向かって形成されている規則的なパターンについても相関特徴量として抽出することができるため、画像の縦方向、横方向および斜め方向に向かって形成される規則的なパターンを相関特徴量として抽出することができる。
さらに、エッジ特徴量抽出手段が、画像の縦方向および横方向のエッジ成分の平均値および標準偏差をそれぞれ算出するようにすれば、たとえば「水(波)」のように縦方向と横方向によってエッジが異なるものと、「植物(花畑等)」の縦方向と横方向とで比較的均質なエッジのものとがエッジ特徴量によって区別することができる。
さらに、代表ベクトルが、予め種類のわかっている特徴ベクトルを用いて勝者代表ベクトルを検索し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが異なるときに、勝者代表ベクトルと特徴ベクトルとの距離が遠くなるように学習し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが同じになるときに、勝者代表ベクトルと特徴ベクトルとの距離が近くなるように学習して得られたものであるときには、精度のよい代表ベクトルを用いて種類の識別を行うことができる。
また、代表ベクトルデータベースが、代表ベクトルを2次元空間に配列した構造を有し、勝者代表ベクトルの近傍領域にある代表ベクトルが勝者代表ベクトルと同じように学習されたものであれば、同じオブジェクト領域に含まれる様々なバリエーションの特徴ベクトルに対応できるような代表ベクトルを生成することができるため、種類の識別の精度を向上させることができる。
さらに、代表ベクトルデータベースが、ブロック領域のカテゴリーを分類するための複数の分類用代表ベクトルと、分類されたカテゴリーの中から種類を識別するための複数の識別用代表ベクトルとを有し、代表ベクトル検索手段が、特徴ベクトルに最も類似する分類用勝者代表ベクトルを検索し、検索された分類用勝者代表ベクトルの示すカテゴリー内にある種類の識別用代表ベクトルの中から、特徴ベクトルに最も類似する識別用勝者代表ベクトルを検索するようにすれば、カテゴリーの分類および種類の識別に用いる特徴ベクトルを低次元に抑えることができ、種類の識別の精度を向上させることができる。
また、種類出力手段が、検索された分類用勝者代表ベクトルの示すカテゴリーと識別用勝者代表ベクトルの示す種類とを出力するようにすれば、オブジェクト領域の識別の際に、ブロック領域の種類とともにカテゴリーをも加味した識別を行うことができるとともに、ユーザにオブジェクト領域のカテゴリーに関する情報も提供することができる。
さらに、ベクトル検索手段が、特徴ベクトルと勝者代表ベクトルとの距離を検出し、検出された距離が設定しきい値よりも小さいときには勝者代表ベクトルがないと判断するものであり、種類出力手段が、勝者代表ベクトルがないと判断されたには種類が不明である旨の出力を行うようにすれば、最大成分が低い種類の識別の信頼度が低いものは、種類の識別を行わずに不明とすることができるため、種類識別の信頼性を高めることができる。
また、設定しきい値が、勝者代表ベクトルの近傍領域内にある複数の代表ベクトルのうち勝者代表ベクトルとの距離が最も大きい代表ベクトルと勝者代表ベクトルとの距離にすると、学習内容の偏りや各種類の画像の多様性の違いによって生じる勝者代表ベクトルの各位置における種類識別の信頼性の相違を設定しきい値に反映させることができる。
以下、本発明のオブジェクト識別装置の実施の形態について図面を参照しながら説明する。図1は本発明のオブジェクト識別装置の好ましい実施の形態を示すブロック図である。なお、図1のようなオブジェクト識別装置1の構成は、補助記憶装置に読み込まれたオブジェクト識別プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、このオブジェクト識別プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。
図1のオブジェクト識別装置1は画像に含まれるオブジェクト毎の種類を識別するものであって、ブロック領域生成手段10、オブジェクト領域生成手段20、ブロック領域識別手段30、オブジェクト識別手段70等を有する。図1のブロック領域生成手段10は、画像を設定画素数からなる、オブジェクト領域より小さい多数の領域に分割して複数のブロック領域を生成するものである。具体的には、図2(a)に示すように、ブロック領域生成手段10は、設定画素数が32画素×32画素に設定されている場合、画像を32×32画素からなる複数のブロック領域BRに分割するようになっている。
オブジェクト領域生成手段20は、画像をオブジェクト毎に領域分割して複数のオブジェクト領域を生成する機能を有する。たとえば、図2(b)に示すような複数のオブジェクトを含む画像の場合、画像Pを各オブジェクト毎に領域分割してオブジェクト領域ORを生成するようになっている。ここで、オブジェクトとはたとえば人物、空、海、木、建物等の画像に含まれる被写体を意味し、オブジェクト領域は被写体が画像内に占める領域を意味する。
ブロック領域識別手段30は生成された各ブロック領域BR毎に種類を識別するものであって、たとえばブロック領域BRは「山」、「海」、「花」、「空」の種類であることを特定するものである。
オブジェクト識別手段70は、ブロック領域識別手段30により識別されたブロック領域BRの種類を、オブジェクト領域生成手段20により生成されたオブジェクト領域OR毎に集計し、オブジェクトの種類を識別するものである。
具体的には、オブジェクト識別手段70は、オブジェクト領域OR内の各ブロック領域BRの種類の数を集計する。このとき、オブジェクト識別手段70は、複数のオブジェクト領域ORにまたがっているブロック領域BRは、カウントしないようになっている。このように、2つのオブジェクト領域にまたがっているブロック領域は2つの種類を含むブロック領域BRを集計から外すことにより、種類識別の信頼性が低くなるのを防止することができる。
そして、オブジェクト識別手段70は、あるオブジェクト領域ORにおいて集計されたブロック領域BRの種類のうち、最も多いブロック領域BRの種類をオブジェクトの種類であると識別する。すると、図2(c)に示すように、各オブジェクト領域ORに種類が識別される。
なお、図1のオブジェクト識別手段70において、オブジェクトの種類を多数決により決定するようにしているが、集計された種類のうち最も多い最大の種類の割合(最大の種類の数/オブジェクトを構成する全ブロック領域数)が種類情報しきい値より小さい場合、オブジェクト識別手段70がオブジェクトの種類として「不明」を出力する機能を有していてもよい。あるいは、最大の種類の割合と2番目に多い種類の割合との差が小さい場合、オブジェクト識別手段70がオブジェクトの種類として「不明」を出力するようにしてもよい。これは、オブジェクトの種類を誤って識別するよりも、「不明」と判断された方がユーザーにとって好ましい場合があるためである。
図3はオブジェクト領域生成手段20の一例を示すブロック図であり、図3を参照してオブジェクト領域生成手段20について説明する。なお、以下に示すオブジェクト領域生成手段20は一例であり、たとえばエッジ検出により各オブジェクト領域ORを生成する手法等により行うようにしてもよい。
オブジェクト領域生成手段20は、画像を構成する各画素から複数の特徴量を抽出し、類似した画素特徴量毎に画素を分類する画像の特徴量分類手段100と、画素の分類毎に領域分割して複数のクラスタリング領域を生成する領域分割手段101と、生成されたクラスタリング領域のうち最も画素数の少ない最小クラスタリング領域を抽出する最小クラスタ領域抽出手段112と、抽出された最小クラスタリング領域と隣接する隣接クラスタリング領域を抽出する統合領域判断手段113と、生成されたクラスタリング領域を統合してオブジェクト領域を抽出する領域統合手段110とを有する。
ここで、図4と図5は画像を各オブジェクト領域毎に分割する過程を示す模式図であり、図4を参照してオブジェクト領域生成手段20の動作例について説明する。まず、図4(a)に示すように、類似した特徴を有する画素が並んだ画像があると仮定する。このとき、特徴量分類手段100において、各画素から複数の特徴量が抽出されて、各特徴量を要素とした複数の特徴ベクトルが生成される。その後、図4(b)に示すように、複数の特徴ベクトルが類似する特徴ベクトル毎に分類される(クラスタリング)。
その後、領域分割手段101により、特徴量分類手段100によりクラスタリングされた結果が実際の画像に写像される。すると、図5(a)に示すように、類似した画素からなる複数のクラスタリング領域が形成されて、ラベルを付したラベル画像としてデータベース111に記憶される。
次に、領域統合の一例について説明する。まず、最小クラスタ領域抽出手段112により、データベースに記憶されたクラスタリング領域の中から最も小さい最小クラスタリング領域が抽出される。また、統合領域判断手段113において抽出された最小クラスタリング領域と隣接する隣接クラスタリング領域が抽出する。
ここで、最小クラスタリング領域が所定の微小画素しきい値以下の画素数(たとえば全画素数の1/100)の場合、領域統合手段110において、最小クラスタリング領域が境界画素数(周囲長)の最も多い隣接クラスタリング領域と統合される。具体的には、図5(a)のクラスタリング領域Aが所定の微小画素しきい値以下の画素数を有する最小クラスタリング領域であるとする。クラスタリング領域Aは、クラスタリング領域C、Dと隣接しているため、クラスタリング領域C、Dが隣接クラスタリング領域となる。
そこで、領域統合手段110において、最小クラスタリング領域Aとクラスタリング領域C、Dとが接している隣接画素数がそれぞれ算出される。図5(a)においては隣接クラスタリング領域Dとの境界画素数の方が隣接クラスタリング領域Cとの境界画素数よりも多い。このためクラスタリング領域Aは図5(b)のようにクラスタリング領域Dと統合する。
一方、最小クラスタリング領域が所定の小画素しきい値以下の画素数(たとえば全画素数の1/10)の場合、領域統合手段110において、最小クラスタリング領域が特徴空間での距離が近い隣接クラスタリング領域と統合される。具体的には、図5(b)において、クラスタリング領域Bが所定の小画素しきい値以下の最小クラスタリング領域であるとする。すると、クラスタリング領域Bの隣接クラスタリング領域はクラスタリング領域C、Dである。そこで、たとえばテクスチャ情報を距離を基準とした場合、どちらのクラスタリング領域C、Dのテクスチャがクラスタリング領域Bのテクスチャに近いかが判断される。そして、図5(c)のように、クラスタリング領域Bが特徴空間での最も近い距離であるクラスタリング領域Dと統合される。
領域統合手段110において、上述した作業がたとえば最小クラスタ領域抽出手段112により抽出される最小クラスタリング領域が所定の小画素しきい値よりも大きい画素数になるまで行われて、画像が各オブジェクト領域OR毎に領域分割される(図2(c)参照)。
図6は特徴量抽出手段40および特徴ベクトル生成手段46の一例を示すブロック図であり、図6を参照して特徴量抽出手段40について説明する。特徴量抽出手段40は、画像変換手段41、エッジ画像生成手段42、相関特徴量抽出手段43、エッジ特徴量抽出手段44、色特徴量抽出手段45等を有する。
画像変換手段41は、RGB表色系により表現されているブロック領域をYCC表色系に変換するものである。このとき、画像変換手段41は、画像を構成する複数のブロック領域BRのうち、1つのオブジェクト領域ORに含まれるブロック領域を識別する。なお、画像を構成する複数のブロック領域BRのうち、オブジェクト領域OR間の境界にまたがるブロック領域BRは、オブジェクト領域ORの種類の判断には使用しないため、特徴量の抽出を行わないようになっている。
エッジ画像生成手段42は、画像変換手段41から送られたY成分を用いてエッジ画像を生成し、生成したエッジ画像を相関特徴量抽出手段43およびエッジ特徴量抽出手段44に送る機能を有する。ここで、エッジ画像生成手段42は、図7(a)に示す縦エッジ検出用フィルターを用いて縦エッジ画像を生成するとともに、図7(b)に示す横エッジ検出用フィルターを用いて横エッジ画像を生成するようになっている。
なお、エッジ画像生成手段42は、図7に示すようなエッジ検出用フィルター(prewittフィルター)を用いているが、たとえば上下左右の画素には対角線上のものより大きな重みを与えたエッジ検出用フィルター(Sobelフィルター)を用いたエッジ検出方法やその他の公知のエッジ検出方法を用いることができる。
図6の相関特徴量抽出手段43は、ブロック領域BRの各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出するものである。ここで、図8は相関特徴量抽出手段43における相関特徴量の算出方法の一例を示すフローチャートを示しており、図8を参照して相関特徴量の算出方法について説明する。
なお、図8において横方向に沿った変化に関する相関特徴量の抽出について説明するが、同様の手法により縦方向に沿った変化に対する相関特徴量も抽出される。また、以下に示すF(x)は、第i行における第x画素(i=0〜31、x=0〜31)の成分信号値を示し、F(x)は第j行における第x画素(i=0〜31、x=0〜31)の成分信号値を示すものとする。
最初に、エッジ特徴量抽出手段44において算出された縦エッジ画像を用いて、縦エッジ画像の各行に沿った成分信号値F(x)、F(x)の変化を規格化する(ステップST1)。具体的には、成分信号値F(x)と平均値Fとの差分を標準偏差δで割り、規格化された成分信号値F’(x)が求められる。
’(x)=(F(x)−F)/δ
同様に、j行の成分信号値F(x)と平均値Fとの差分を標準偏差δで割り、規格化された成分信号値F’(x)が求められる。
’(x)=(F(x)−F)/δ
このように、成分信号値を規格化して相関特徴量を求めるのは、各行間における変動幅や平均値の違いを排除して、変動パターン自体の相互相関性を示す相関特徴量を導出するためである。なお、F(x)、F(x)が一定値であり標準偏差が0の場合は、F’(x)=0(一定)、F’(x)=0(一定)とする。
そして、異なる2行(第i行と第j行)の組合せについて、これら2行に関する規格化された成分信号値F’(x)およびF’(x)を用いて、相互相関関数
Figure 0004285644
が導出される(ステップST2)。この相互相関関数は、概念的に言えば、図9の(a)に示すように、2行の規格化された成分信号値F’(x)およびF’(x)をd画素分だけずらして掛け合わせ、その総和を取るものである。すると、図9の(b)に示すような、dの関数としての相互相関関数Gij(d)が得られる。
次に、算出した相互相関関数Gij(d)にd=0〜31に代入したときの相関値の中から最大相関値が算出される(ステップST3)。
Figure 0004285644
この作業を全ての2行の組み合わせについて最大相関値が算出される(ステップST1〜ステップST4)。ここでは、32画素×32画素のブロック領域においては、0行〜31行の全ての組み合わせの最大相関値が算出される。そして、算出された全ての最大相関値の平均値および標準偏差が算出されて、この平均値および標準偏差が相関特徴量とされる(ステップST5)。
同様に、縦方向に沿った変化に関する最大相関値の平均値および標準偏差が相関特徴量として算出される(ステップST1〜ステップST5)。
上述したように算出された相関特徴量は、オブジェクトを構成するブロック領域BRに規則的なパターンがあるかどうかを示すものであり、最大相関値の平均値が大きく標準偏差の小さくなればなるほど、規則的なパターンが形成されていることを意味する。一般的に撮影された画像に含まれる自然物は規則的なパターン、連続的なパターン、周期的なパターンは少なく、ランダムなパターンにより構成されていることが多い。一方、ビルや石畳等の人工物は規則的なパターン等により構成されていることが多い。そこで、オブジェクトを構成するブロック領域BRが規則的なパターンを構成しているか否かを示す相関特徴量を抽出することにより、ブロック領域BRが人工的に作られた建造物等の画像の一部であるのか、自然物の画像の一部であるのかを判断することができる。
なお、相関特徴量抽出手段43は、単に規格化された成分信号値F’(x)、F’(x)の積の総和の平均値および標準偏差を相関特徴量として抽出してもよいが、上述のように、相互相関関数の最大値の平均値および標準偏差を相関特徴量として用いれば、たとえば斜め方向に規則的な模様や波紋が撮影されたブロック領域BRについても、そのパターンの規則性を示す適当な相関特徴量を導出できるようになり、ブロック領域の相関に関する特徴量を正確に表した相関特徴量の抽出を行うことができる。ここで、1画素ずつ画素ライン画素ラインをずらした場合(d=0,1,2,・・・31)について言及しているが、2画素分ずらす等の複数画素ずらしながら最大相関値を算出するようにしてもよい。
エッジ特徴量抽出手段44は、ブロック領域BRのエッジ成分の特徴量を抽出するものである。具体的には、エッジ特徴量抽出手段44は、エッジ検出フィルター(図7参照)を用いて生成された縦エッジ画像および横エッジ画像について、それぞれの成分信号値の平均値および標準偏差を算出し、4個のエッジ特徴量を出力するものである。
このように、エッジ成分の特徴量としてエッジ成分の平均値を用いることにより、自然物の中でもエッジの少ない「空」と自然物の中でもエッジの多い「水」や「植物」とを分類することができる。また、エッジ特徴量としてブロック領域BRの縦方向のエッジ成分と横方向のエッジ成分とを抽出することにより、たとえば「水」のように方向によってエッジ成分の特徴が異なるオブジェクトと、「植物」「花畑」等の縦方向および横方向において比較的均一なエッジを形成するオブジェクトとを分類することができる。
色特徴量抽出手段45は、ブロック領域BRの色特徴を示す色特徴量を抽出するものである。具体的には、色特徴量抽出手段45は、YCC表色系で表されたブロック領域BRを構成する32×32画素分の輝度成分(Y成分)および2つの色差成分(Cr、Cb)の各成分信号値の平均値および標準偏差を算出し、1のブロック領域から6個の色特徴量を抽出するものである。
なお、色特徴量抽出手段45は、RGB表色系からYCC表色系に変換された後に色特徴量が抽出するようにしているが、たとえばRGB表色系のまま各成分(RGB)について色特徴量を抽出するようにしてもよいし、画像変換手段41において、RGB表色系のブロック領域BRをLab表色系に変換して、Labの各成分について色特徴量を抽出するようにしてもよい。また、色特徴量抽出手段45は、各成分信号値の平均値と標準偏差とを色特徴量として抽出しているが、たとえば最大値や最小値、分位点等その他の代表値を色特徴量として用いてもよい。
したがって、特徴量抽出手段40は、ブロック領域BRから14個の特徴量を抽出するものであり、特徴ベクトル生成手段46は、抽出された14個の特徴量をベクトル成分とする14次元の特徴ベクトルを生成するようになっている。
次に、図1を参照してブロック領域識別手段30について説明する。ブロック領域識別手段30は、特徴ベクトルを用いて各ブロック領域BRの種類を識別するものである。具体的には、ブロック領域識別手段30は、種類毎に設けられた代表ベクトルを有する代表ベクトルデータベースDBと、代表ベクトルデータベースDBから特徴ベクトルに最も類似する勝者代表ベクトルを検索するベクトル検索手段50と、検索された勝者代表ベクトルの示す種類を出力する種類出力手段60とを有する。
ここで、代表ベクトルデータベースDBは、図10に示すように、複数の代表ベクトルを2次元空間上に配列した構造を有し、各代表ベクトルの位置によって各種類が定められている。この代表ベクトルは、特徴ベクトルと同様に14次元のベクトルからなっている。そして、ベクトル検索手段50が、たとえば特徴ベクトルとのユーグリット距離が最も近い代表ベクトル(勝者代表ベクトル)検索し、種類出力手段60が検索された勝者代表ベクトルの属する種類をブロック領域BRの種類として出力するようになっている。
なお、図10において代表ベクトルデータベースDBの代表ベクトルは2次元空間上に図示しているが複数の代表ベクトルを有していればよく、この場合には、各種類(各クラス)に対して代表ベクトルの箱を適当な数だけ用意しておき、複数の箱にある代表ベクトルから勝者代表ベクトルを検索することとなる。
図10に示すような代表ベクトルは、以下に示す学習ベクトル量子化アルゴリズム(Learning Vector Quantization:LVQ)(参考文献:谷萩、萩原、山口「ニューラルネットワークとファジィ信号処理」コロナ社、1998)を用いて学習されたものである。具体的には、最初に各種類毎に初期値がランダムに設定された複数の代表ベクトルがマトリックス状に配列されている。この状態で、予め種類のわかっている特徴ベクトルがベクトル検索手段50に入力されると、代表ベクトルデータベースDBから勝者代表ベクトルが検索される。
このとき、特徴ベクトルの種類と勝者代表ベクトルの種類が同じものである場合、勝者代表ベクトルが特徴ベクトルからの距離が近づくように修正される。一方、特徴ベクトルの種類と勝者代表ベクトルの種類が異なるものである場合、勝者代表ベクトルが特徴ベクトルから距離が遠くなるように修正される。ここで修正される代表ベクトルは勝者代表ベクトルのみである。この学習工程を繰り返すことにより、各種類毎の代表ベクトルについて学習されていくことになる。
なお、図10において、LVQ1のアルゴリズムの場合について例示しているがLVQ2のアルゴリズムを用いてもよい。LVQ2はLVQ1を改良したものであって、上述したLVQ1において各種類の境界を線で表したものが、LVQ2においてはこの線がある線幅を持った領域(窓領域)で表される。そして、代表ベクトル検索手段50が勝者代表ベクトルを検索する際には、最も類似する代表ベクトルと2番目に特徴ベクトルに類似する代表ベクトルとの2つの勝者代表ベクトルが抽出される。そして、抽出された2つの代表ベクトルのうち、いずれか一方の種類(クラス)が特徴ベクトルと同じ種類であり、他方の種類(クラス)が特徴ベクトルの種類と異なるとき、同じ種類の代表ベクトルは特徴ベクトルに近づくように修正されるとともに、異なる代表ベクトルは特徴ベクトルから遠ざかるように修正される。これにより、LVQ1の学習工程において誤認識が生じたとき、すなわち勝つはずのない勝者代表ベクトルがわずかな差で勝者代表ベクトルになってしまった場合に対して、正しい学習を行うことができるようになり、より精度の高い分類を可能として代表ベクトルの学習を行うことができる。
さらに、LVQ2のアルゴリズムを改良したLVQ3のアルゴリズムを用いるようにしてもよい。このLVQ3は、LVQ2において学習が進んだときに正しい種類(クラス)に対して代表ベクトルが遠ざかるという問題点を解決したものであり、窓領域内の代表ベクトルが勝者代表ベクトルとなった場合であって、LVQ2における学習工程に加えて、2つの勝者代表ベクトルの種類(クラス)と特徴ベクトルの種類(クラス)とがすべて同じである場合には、2つの勝者代表ベクトルを特徴ベクトルに近づけるように修正するものである。これにより、代表ベクトルの学習が進んだ際にもより精度の高い分類を可能として代表ベクトルの学習を行うことができる。
さらに、代表ベクトル検索手段50は、勝者代表ベクトルと特徴ベクトルとの距離を比較し、距離が設定しきい値よりも大きいときには、種類出力手段60がブロック領域BRの種類は不明である旨の出力を行うようになっている。具体的には、図11は特徴ベクトルの種類を出力する際の一例を示すフローチャートである。まず、学習済の複数の代表ベクトルと特徴ベクトルとが比較されて、特徴ベクトルとのユークリッド距離が最も小さい代表ベクトルが勝者代表ベクトルとして特定される(ステップST10)。
次に、勝者代表ベクトルと特徴ベクトルとのユークリッド距離が算出されて(ステップST11)、算出された距離が所定のしきい値と比較される(ステップST12)。その結果、このユークリッド距離がしきい値以下である場合には勝者代表ベクトルの属する種類が現在のブロック領域の種類として特定される(ステップST13)。
一方、勝者代表ベクトルと特徴ベクトルとのユークリッド距離がしきい値より大きい場合には、ブロック領域BRの種類は不明であると判断されて、不明である旨が出力される(ステップST14)。このように、設定しきい値を用いることにより、2次元空間が予め学習していないような画像が入力された場合にもいわばむりやりに種類を識別する事態を回避できるので、種類の候補の識別結果に対する信頼性を高めることができる。つまり、種類が不明ではなく所定の種類として識別されたことは、一定の確実性をもって識別されたことを意味するため、種類の識別の信頼性を高める結果となる。
ここで、設定しきい値には、一定の設定しきい値を定めてもよいが、好ましくは勝者代表ベクトルの近傍領域内にある複数の代表ベクトルのうち勝者代表ベクトルとの距離が最も大きい代表ベクトルと勝者代表ベクトルとの距離が用いられる。これは、学習内容の偏りや各種類の画像の多様性の違いによって生じる各代表ベクトルの「守備範囲」の相違をしきい値に反映させるためである。
なお、上述した最大値に代えて平均値等をしきい値として用いてもよいし、近傍領域の大きさも3×3に限られず、たとえば5×5の近傍領域からしきい値を算出するようにしてもよい。あるいは、近傍領域内にある代表ベクトルのベクトル長の標準偏差等を基準にしてもよい。
図12は本発明のオブジェクト識別方法の好ましい実施の形態を示すフローチャート図であり、図1から図12を参照してオブジェクト識別方法(ステップST20〜ステップST27)について説明する。
まず、オブジェクト領域生成手段20により入力された画像をオブジェクト毎に領域分割したオブジェクト領域ORが生成される(図2〜図5参照)。一方、ブロック領域生成手段10により入力された画像を設定画素数(たとえば32×32画素)からなる、オブジェクト領域ORより小さい複数のブロック領域BRが生成される(ステップST20)。次に、特徴量抽出手段40により、ブロック領域BRから複数の特徴量が抽出されて(図6〜図9参照)(ステップST21)、特徴ベクトル生成手段46により14次元の特徴ベクトルが生成される(ステップST22)。
その後、ブロック領域識別手段30において、生成した特徴ベクトルを用いてブロック領域BRの種類が識別される(図10参照)。具体的には、代表ベクトル検索手段50により、代表ベクトルデータベースDBの中から勝者代表ベクトルが検索される(ステップST23)。そして、勝者代表ベクトルの属する種類がブロック領域BRの種類であると判断されて(図11参照)、種類出力手段60から出力される(ステップST24)。この作業がすべてのブロック領域BRについて行われる(ステップST21〜ステップST25)。
その後、オブジェクト識別手段70において、各オブジェクト領域OR毎に付与された種類を集計する(ステップST26)。そして、最も多い種類がそのオブジェクト領域ORの種類として出力される(ステップST27)。
上記実施の形態によれば、オブジェクト領域ORの種類の識別にブロック領域BRを使用することにより、各画素毎に種類を識別する場合に比べて、像構造的特徴をオブジェクト領域ORの種類の判断に加えることができるため、オブジェクトの種類を正確に識別することができる。
また、各ブロック領域BR毎にそれぞれ種類を識別し、ブロック領域BRの種類を各オブジェクト領域OR毎に集計してオブジェクト領域ORの種類を識別することにより、オブジェクト領域ORの一部のブロック領域BRに本来の種類に識別されなかったものがあったとしても、その誤った認識を吸収してオブジェクトの種類を正確かつ自動的に識別することができる。
また、特徴量抽出手段40が、画像の各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出する相関特徴量抽出手段43を含む構成にすれば、相関特徴量により人工物に多く見られる規則的なパターンを有する画像と、自然物に多く見られるランダムなパターンを有する画像とを区別する指標となる特徴量を抽出することができるため、適切な種類の識別を行うことができる。
さらに、相関特徴量抽出手段が、画像の縦方向に沿った相関特徴量と、画像の横方向に沿った相関特徴量とを抽出するようにすれば、縦方向および横方向に向かって規則的なパターンが形成されたものと、縦方向もしくは横方向のいずれか一方に向かって規則的なパターンが形成されたものとを区別することができる。
また、相関特徴量抽出手段が、2つの画素ラインのいずれか一方を1画素ずつ画素ラインの形成方向にずらしながら画素の成分信号値を所定の相互相関関数に入力することにより算出される複数の相関値のうち最も大きい最大相関値を用いて相関特徴量を算出するようにすれば、画像の縦方向もしくは横方向に向かって形成された規則的なパターンのみならず、画像の斜め方向に向かって形成されている規則的なパターンについても相関特徴量として抽出することができるため、画像の縦方向、横方向および斜め方向に向かって形成される規則的なパターンを相関特徴量として抽出することができる。
さらに、エッジ特徴量抽出手段44が、画像の縦方向および横方向のエッジ成分の平均値および標準偏差をそれぞれ算出するようにすれば、たとえば「水(波)」のように縦方向と横方向によってエッジが異なるものと、「植物(花畑等)」の縦方向と横方向とで比較的均質なエッジのものとがエッジ特徴量によって区別することができる。
また、ブロック領域識別手段30が、ブロック領域BRの種類毎に生成された複数の代表ベクトルを記憶した代表ベクトルデータベースDBと、代表ベクトルデータベースDBの複数の代表ベクトルのうち、特徴ベクトルに最も類似する勝者代表ベクトルを検索する代表ベクトル検索手段と、代表ベクトル検索手段50により検索された勝者代表ベクトルが示す種類を出力する種類出力手段とを備えた構成にすれば、精度よく種類の識別を行うことができる。
さらに、代表ベクトルが、予め種類のわかっている特徴ベクトルを用いて勝者代表ベクトルを検索し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが異なるときに、勝者代表ベクトルと特徴ベクトルとの距離が遠くなるように学習し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが同じになるときに、勝者代表ベクトルと特徴ベクトルとの距離が近くなるように学習して得られたものであるときには、精度のよい代表ベクトルを用いて種類の識別を行うことができる。
また、代表ベクトルデータベースDBが、代表ベクトルを2次元空間に配列した構造を有し、勝者代表ベクトルの近傍領域にある代表ベクトルが勝者代表ベクトルと同じように学習されたものであれば、同じオブジェクト領域ORに含まれる様々なバリエーションの特徴ベクトルに対応できるような代表ベクトルを生成することができるため、種類の識別の精度を向上させることができる。
さらに、ベクトル検索手段50が、特徴ベクトルと勝者代表ベクトルとの距離を検出し、検出された距離が設定しきい値よりも小さいときには勝者代表ベクトルがないと判断するものであり、種類出力手段が、勝者代表ベクトルがないと判断されたときには種類が不明である旨の出力を行うようにすれば、最大成分が低い種類の識別の信頼度が低いものは、種類の識別を行わずに不明とすることができるため、種類識別の信頼性を高めることができる。
また、設定しきい値が、勝者代表ベクトルの近傍領域内にある複数の代表ベクトルのうち勝者代表ベクトルとの距離が最も大きい代表ベクトルと勝者代表ベクトルとの距離にすると、学習内容の偏りや各種類の画像の多様性の違いによって生じる勝者代表ベクトルの各位置における種類識別の信頼性の相違を設定しきい値に反映させることができる。
なお、本発明の実施の形態は、上記実施の形態に限定されない。たとえば以下に示すような種々の変更が可能である。たとえば図1において、ブロック領域生成手段10により生成されたブロック領域BRをそのままブロック領域識別手段30に送るようにしているが、ブロック領域BR毎の判定結果に対してたとえばモフォロジー処理やClosing演算等の平滑化処理を行った後にブロック領域識別手段30に送るようにしてもよい。これにより、ブロック領域BR内に含まれる孤立したノイズ的な要素が切り捨てられて、種類識別の精度の向上を図ることができる。
さらに、図13は本発明のオブジェクト識別装置の別の実施の形態を示す模式図である。上述した図10に示す代表ベクトルの学習工程において、勝者代表ベクトルのみが修正されているが、図13においては、勝者代表ベクトルのみならずその近傍の代表ベクトルも修正するようになっている。つまり、通常のLVQアルゴリズムにおいては、近傍関数は使用されず、また代表ベクトルの数を少なくするのが一般的である。一方、画像の種類を識別する場合、同じオブジェクトでも様々なバリエーションがあり、このバリエーションに合わせたあらゆるものを学習サンプルとして用意するのは困難である。よって、あるオブジェクトの種類については学習しているが、そのオブジェクトの学習サンプルとして用いていない特徴ベクトルが入力されたときであっても、種類の識別を行うことができることが望ましい。
そこで、勝者代表ベクトルとともにたとえばその3×3の近傍領域の代表ベクトルを更新するように、LVQの更新量に自己組織化マップに用いられる近傍関数が掛け合わせる。具体的には、勝者代表ベクトルが正しい種類(クラス)に属するものであれば、勝者代表ベクトルの近傍領域の代表ベクトルが特徴ベクトルに近づける方向に修正される。一方、勝者代表ベクトルが誤った種類(クラス)に属するものであれば、勝者代表ベクトルの近傍領域の代表ベクトルが特徴ベクトルから遠ざかる方向に修正される。これにより、学習したサンプルに類似したブロック領域BRの識別のみならず、学習サンプルの種類の様々なバリエーションに対応した種類の識別を行うことができる。
図14は本発明のオブジェクト識別装置におけるブロック領域識別手段を示す第3の実施の形態を示す模式図である。図14において、代表ベクトルデータベースDBには、代表ベクトルを配置した2次元空間が階層構造を有している。具体的には、代表ベクトルデータベースDBは、ブロック領域BRのカテゴリーを分類するためのカテゴリーマップCMと、ブロック領域BRの種類を識別するための種類マップKMとを有する。
カテゴリーマップCMは、2次元空間上の各領域毎にそれぞれカテゴリーCA1〜CA4が定められた構造を有し、各カテゴリーCA1〜CA4には複数の分類用代表ベクトルが配置されている。また、カテゴリーCA1は種類マップKM1、カテゴリーCA2は種類マップKM2、カテゴリーCA3は種類マップKM3、カテゴリーCA4は種類マップKM4とそれぞれ関連づけされている。また、各種類マップKM1〜KM4は、それぞれ2次元空間上の各領域毎にそれぞれ種類KI11〜KI44が定められた構造を有し、各種類KI11〜KI44には複数の識別用代表ベクトルが配置されている。
具体的には、たとえばカテゴリーマップCMのカテゴリーCA1が「空」、カテゴリーCA2が「植物」、カテゴリーCA3が「水」、カテゴリーCA4「地面」に設定されているとする。すると、カテゴリーCA1に関連付けされた種類マップKM1の種類は、種類KI11が「青空」、種類KI12が「曇り空」、種類KI13が「夕空」、種類KI14が「夜空」というように、カテゴリーCA1に属する種類が割り当てられている。
ここで、代表ベクトル検索手段50は、カテゴリーマップCMにおいては、相関特徴量およびエッジ特徴量を用いてカテゴリーの分類を行い、種類マップKMにおいては、色特徴量を用いて種類の識別を行うようになっている。したがって、特徴ベクトル生成手段46においては、相関特徴量およびエッジ特徴量をベクトル成分とする第1特徴ベクトルCB1と、色特徴量を特徴ベクトルとする第2特徴ベクトルCB2とが生成されることになる。また、種類出力手段60は、勝者代表ベクトルの属する種類を出力するとともに、分類されたカテゴリーをも出力するようになっている。
このように、異なる特徴量を利用して階層的にブロック領域BRの種類を識別することにより、LVQにおいて用いられる代表ベクトルを低次元に抑えることができるため、効率的に精度よく種類の識別を行うことができる。また、種類出力手段60が、検索された分類用勝者代表ベクトルの示すカテゴリーと識別用勝者代表ベクトルの示す種類とを出力するようにすれば、オブジェクト領域ORの識別の際に、ブロック領域の種類とともにカテゴリーをも加味した識別を行うことができるとともに、ユーザにオブジェクト領域ORのカテゴリーに関する情報も提供することができる。
図15は本発明のオブジェクト識別装置におけるブロック領域生成手段を示す第4の実施の形態を示すブロック図である。図15におけるブロック領域生成手段が、画像をメッシュ状に区切った複数の第1ブロック領域と、複数の第1ブロック領域とメッシュ状に区切る位相をずらした第2ブロック領域とを生成する機能を有するものである。
具体的には、上述したブロック領域生成手段はたとえば32画素×32画素からなる設定画素数のブロック領域BRをメッシュ状に機械的に区切って生成するものであるが(図15(a)参照)、さらに、図15(b)に示すような横方向および横方向に対して半ブロック分(16画素分)ずらしたメッシュ状のブロック領域BRを生成する機能を有している。そして、生成された図15(a)と図15(b)のブロック領域BRのうち、オブジェクト領域ORの境界を含まないブロック領域BRを用いて種類の識別が行われることとなる。
このように、オブジェクト領域ORの種類の識別に用いられるブロック領域BRの数を増やすことにより、識別の精度を向上させることができる。すなわち、上述したように、オブジェクト領域ORの境界を含むブロック領域は、複数の領域の特徴が混在しているとともに境界のエッジも含まれることによる識別精度の低下を防止するために、オブジェクト領域ORの種類の集計に含まれていない。したがって、オブジェクト領域ORが小さい場合には生成されるブロック領域BRの数は少なくなり、複雑な形状のオブジェクト領域ORの場合には、他のオブジェクト領域ORとの境界が多くなるため、識別に用いられるブロック領域BRの数は少なくなる。このため、識別された種類は精度が低くなってしまい、特に、少し複雑な画像になると識別ができず多くのオブジェクト領域ORが不明であると判断されてしまう。
このとき、図15(a)、(b)に示すようなそれぞれ位相のずれたブロック領域BRを生成することにより、ブロック領域BRの形成位置を半ブロックずらせば、オブジェクト領域ORの境界を含まないブロック領域BRの生成を促進させることができる。このため、種類の識別に用いるブロック領域BRの数を増やすことができ、より正確な種類の識別を行うことができる。
なお、図15(b)においては、横方向および縦方向に対して半ブロック分ずらしたブロック領域BRを生成するようにしているが、図15(c)に示すような横方向にのみ半ブロック分(16画素分)ずらしたブロック領域BRを生成してもよいし、図15(d)に示すように縦方向にのみ半ブロック分ずらしたブロック領域BRを生成するようにしてもよい。また、ブロック領域識別手段30において、図15(a)〜図15(d)のブロック領域BRのすべてを用いてもよいし、ブロック領域BRのいずれかを組み合わせて用いるようにしてもよい。さらに、図15(a)〜図15(d)において、ブロック領域生成手段10は、半ブロック分ずらした場合について例示しているが、半ブロック分ずらす場合に限定されず、たとえば1/4ブロック分(8画素分)ずらす等の処理を行うようにしてもよい。
図16は本発明のオブジェクト識別装置におけるブロック領域生成手段10を示す第5の実施の形態を示すブロック図である。図16のブロック領域生成手段10は、画像から解像度の異なる複数の解像度変換画像を生成する機能を有し、生成した複数の解像度変換画像から設定画素数からなるブロック領域を生成する機能を有するものである。具体的には、ブロック領域生成手段10は、全体画像に対してたとえばガウシアンピラミッドもしくはウェーブレット変換等の公知の解像度変換技術を施し、複数の解像度変換画像を生成する。そして、ブロック領域生成手段10は、生成した複数の解像度変換画像についてそれぞれ設定画素数毎にメッシュ状に区切ることにより、ブロック領域BRを生成していく。
よって、ブロック領域BRは、図2(a)に示すように全体画像から生成されるとともに、図16(a)、(b)に示すように解像度の異なる全体画像から生成されることになる。そして、複数の解像度変換画像から生成されたブロック領域BR毎に種類の識別が行われるようになる。このとき、ブロック領域生成手段10は、設定画素数(たとえば32画素×32画素)の変更は行わない。これは、ブロック領域識別手段30において、特徴量に基づいて種類の識別を行う際に、学習した際のブロック領域BRの大きさと、識別する際のブロック領域の大きさが異なるのを防止するためである。
このように、解像度の異なる解像度変換画像を用いてブロック領域BRを生成することにより、ブロック領域BRの種類の識別の精度を向上させることができる。すなわち、通常の全体画像において、同じ被写体を近くから撮影した画像と遠くから撮影した画像とでは被写体の写り方が異なる。近くから撮影した場合には被写体の種類が識別できなくても遠くから撮影した場合には被写体の種類が識別できる場合やその逆の場合がある。そこで、解像度変換画像を用いることにより、この写り方の違いによる精度の低下を防止してブロック領域BRの種類識別の精度を向上させることができる。
なお、図16において、ブロック領域BRは、全体画像を機械的にメッシュ状に区切ることにより生成しているが、図15に示すように半ブロック分ずらして機械的に生成するようにしてもよい。
図17は本発明のオブジェクト識別装置の第6の実施の形態を示すブロック図である。なお、図17のオブジェクト識別装置300において、図1のオブジェクト識別装置1と同一の構成を有する部位には同一の符号を付してその説明を省略する。図17のオブジェクト識別装置300が、図1のオブジェクト識別装置1と異なる点は、ブロック領域生成手段310が、図18に示すように、オブジェクト領域OR内に設定画素数からなる切取枠を走査させて、切取枠により囲まれた画像をブロック領域として生成する機能を有することである。
図19は図17のブロック領域生成手段310の動作例を示すフローチャートであり、図17から図19を参照してブロック領域BRの生成方法の一例について説明する。まず、オブジェクト領域生成手段20により、全体画像から複数のオブジェクト領域が生成される(ステップST30)。その後、生成された各オブジェクト領域ORに対して領域IDが付与される(ステップST31)。
そして、生成された複数のオブジェクト領域ORの中から、ブロック領域BRを生成するオブジェクト領域ORが決定されて(ステップST32)、ブロック領域BRが生成されていく(ステップST33)。このブロック領域生成工程(ステップST33)が、全体画像に含まれるすべてのオブジェクト領域ORについて行われる(ステップST32〜ステップST34)。その後、生成された複数のブロック領域BRの種類がブロック領域識別手段30により識別される。
図20はブロック領域生成工程(ステップST33)の一例を示すフローチャートであり、図20を参照してブロック領域BRの生成工程について説明する。まず、ブロック領域BRを生成するオブジェクト領域ORが決定されて(ステップST33−1)、オブジェクト領域OR内の始点に切取枠が設置される(ステップST33−2)。具体的には、図18に示すようにオブジェクト領域ORの左上端に切取枠の左上角が位置するように切取枠が位置決めされる。そして、切取枠内のすべての領域IDが一致するか否かが判断されて(ステップST33−2)、切取枠内の領域IDがすべて一致する場合には、切取枠に囲まれた領域がブロック領域BRとして生成される(ステップST33−4)。
その後、切取枠が水平方向(右方向)にたとえば8画素だけ向かってずらされる(ステップST33−5)。ここで、切取枠がオブジェクト領域ORの最右端まで走査したか否かが判断され(ステップST33−6)、走査していない場合には続けてブロック領域の生成が行われる(ステップST33−2〜ステップST33−5)。一方、切取枠が、オブジェクト領域ORの最右端まで走査した場合には、切取枠が垂直方向(下方向)にたとえば8画素だけずらされるとともに、水平方向にも移動してオブジェクト領域ORの左端に位置決めされる(ステップST33−7)。その後、水平方向に対してブロック領域BRが生成されていく(ステップST33−2〜ステップST33−6)。そして、切取枠がオブジェクト領域ORの最下端まで走査した場合には(ステップST33−8)、1つのオブジェクト領域ORについてブロック領域BRの生成が完了する。
このように、切取枠をオブジェクト領域OR内において走査させながらブロック領域BRを生成することにより、オブジェクト領域ORの種類を識別するためのブロック領域BRの数を増やすことができるため、オブジェクト領域ORの識別の精度を向上させることができる。
なお、切取枠は水平方向および垂直方向に対して8画素ずらす場合について例示しているが、2画素や4画素といった切取枠よりも小さい画素に設定されていればよい。さらに、領域IDを変更することにより切取枠により切り取られるブロック領域BRを決定するようにしているが、機械的に切取枠をたとえば2画素等の切取枠よりも小さい画素ピッチで、縦方向および横方向に走査するようにしてもよい。このとき、切取枠内に2つの領域IDが含まれているブロック領域BRについては、種類の識別を行わないようにしてもよい。
切取枠内の8画素×8画素の領域IDが書き換えられる場合について例示しているが、たとえば2画素×2画素や4画素×4画素等の切取枠よりも小さい画素に設定されていればよい。さらに、領域IDを変更することにより切取枠により切り取られるブロック領域BRを決定するようにしているが、機械的に切取枠をたとえば2画素等の切取枠よりも小さい画素ピッチで、縦方向および横方向に走査するようにしてもよい。このとき、切取枠内に2つの領域IDが含まれているブロック領域BRについては、種類の識別を行わないようにしてもよい。
図21は本発明のオブジェクト識別装置の第7の実施の形態を示すブロック図であり、図21を参照してオブジェクト識別装置500について説明する。なお、図21のオブジェクト識別装置500において、図1のオブジェクト識別装置1と同一の構成を有する部位には同一の符号を付してその説明を省略する。
図21のオブジェクト識別装置500において、最初にオブジェクト領域生成手段20がオブジェクト領域ORを生成するようになっている。そして、特徴量抽出手段540が、生成されたオブジェクト領域ORからオブジェクト特徴量を抽出するようになっている。その後、抽出したオブジェクト特徴量を用いて写像手段50および種類出力手段60により、オブジェクト領域ORの種類が識別されるようになっている。
さらに、この特徴量抽出手段540は、画像変換手段510により所定の画像変換処理が施された全体画像と生成されたオブジェクト領域ORとを用いてオブジェクト特徴量を抽出するようになっている。具体的には、画像変換手段510は、RGB表色系からなる全体画像をYCC表色系に変換し、YCC表色系の各成分毎の3つの画像を生成する機能を有する。さらに、画像変換手段510は、Y成分から生成した縦エッジ画像と横エッジ画像とを生成するようになっている。そして特徴量抽出手段40は、YCC各成分毎の3つの画像、縦エッジ画像、横エッジ画像の5つの画像からそれぞれオブジェクト特徴量を抽出するようになっている。
ここで、特徴量抽出手段540は、各画像の領域分割結果を組み合わせて、各オブジェクト領域OR毎の画素値の分布(ヒストグラム)を生成する。そして、特徴量抽出手段40は、ヒストグラムから平均値および標準偏差を算出し、オブジェクト特徴量を生成する。なお、特徴量としてヒストグラムの代表点(たとえば最大値、最小値、中央値、分位点等)を用いてもよい。また、自己組織化マップSOMの学習用サンプルは、ブロック領域BRに上述した画像変換を施し、上述したヒストグラムから抽出した特徴量を用いて行われることになる。
なお、上述した特徴量抽出手段540において、図6に示すような特徴量をオブジェクト領域ORから抽出し、オブジェクト特徴量としてもよい。なお、上述した特徴量抽出手段540において、図6や図19に示すような特徴量をオブジェクト領域ORから抽出し、オブジェクト特徴量としてもよい。さらに、上述した画像変換手段510において、全体画像に多重解像度変換を施し解像度の異なる複数の解像度変換画像、全体画像をRGB表色系からLab表色系に変換した画像、モフォロジーフィルタ等を用いて特定形状の構造を抽出したフィルタリング画像等を生成するようにし、特徴量抽出手段540は、各画像から特徴量を抽出するようにしてもよい。
これにより、オブジェクト領域ORの領域形状が複雑な場合や小さい場合においてもオブジェクト領域ORの種類を確実に識別することができるようになる。すなわち、全体画像をブロック領域BRに分けたときには、オブジェクト領域ORが複雑な場合にはオブジェクト領域ORが複数のブロック領域BRに分かれてしまい、オブジェクト領域ORが小さい場合には種類識別に用いるブロック領域BRの数が少なくなってしまう。
これに対し、ブロック領域識別手段30による識別結果をブロック領域BRに含まれるすべての画素に割り当てるようにし、オブジェクト領域ORを構成する画素に割り当てられた種類のうち、最も画素の多い種類をオブジェクト領域ORの種類であると識別することも考えられる。しかし、オブジェクト領域ORの境界を含むブロック領域BRについても種類の識別を行う必要があり、その結果、種類の識別の精度が低下してしまうという問題がある。そこで、オブジェクト領域OR自体から特徴量を抽出して種類の識別を行うことにより、複雑な形状のオブジェクト領域ORや形状の小さいオブジェクト領域ORについても精度よく種類の識別を行うことができる。
図22は本発明のオブジェクト識別装置の第8の実施の形態を示すブロック図であり、図22を参照してオブジェクト識別装置600について説明する。なお、図22のオブジェクト識別装置600において図1のオブジェクト識別装置1および図21のオブジェクト識別装置500と同一の構成を有する部位には同一の符号を付してその説明を省略する。図22のオブジェクト識別装置600が、図21のオブジェクト識別装置500と異なる点は、オブジェクト領域の外接矩形画像を規格化した規格化オブジェクト領域を生成する規格化手段630をさらに備えることである。そして、特徴量抽出手段40は、規格化オブジェクト領域からオブジェクト特徴量を抽出することとなる。したがって、オブジェクト特徴量を抽出する際のオブジェクト領域ORの大きさは、いずれの画像のいずれのオブジェクト領域ORであっても同一の大きさとなる。
このように、オブジェクト領域ORを規格化してからオブジェクト特徴量を抽出することにより、全体画像に含まれるオブジェクト領域の大きさに種類の識別精度が依存されることなく、正確な識別を行うことができる。つまり、全体画像に含まれるオブジェクトの大きさは、撮影時の状況により多種多様なものとなる。そこで、各オブジェクト領域ORを規格化した後にオブジェクト特徴量を抽出し種類の識別を行うことにより、精度の高い種類の識別を行うことが可能となる。このように、オブジェクト領域ORを規格化してからオブジェクト特徴量を抽出することによりサイズの変動に対してロバスト性を持たせ、全体画像に含まれるオブジェクト領域の大きさに種類の識別精度が依存されることなく、正確な識別を行うことができる。
本発明のオブジェクト識別装置の第1の実施の形態を示すブロック図 本発明のオブジェクト識別装置において、画像に含まれるオブジェクト毎に種類が識別される様子を示す図 本発明のオブジェクト識別装置におけるオブジェクト領域生成手段の一例を示すブロック図 図2のオブジェクト領域生成手段により画像が領域分割される様子を示す図 図2のオブジェクト領域生成手段によりクラスタリング領域が統合されてオブジェクト領域が形成される様子を示す図 本発明のオブジェクト識別装置における特徴量抽出手段の一例を示すブロック図 図6のエッジ画像生成手段において使用されるエッジフィルターの一例を示す図 図6の相関特徴量抽出手段の動作例を示すフローチャート 図6の相関特徴量抽出手段における相互相関関数の一例を示すグラフ図 図1の代表ベクトルデータベースの構造を示す模式 図1のブロック領域識別手段の動作例を示すフローチャート 本発明のオブジェクト識別方法の好ましい実施の形態を示すフローチャート図 本発明のオブジェクト識別装置の第2の実施の形態を示すブロック図 本発明のオブジェクト識別装置の第3の実施の形態を示すブロック図 本発明のオブジェクト識別装置の第4の実施の形態を示すブロック図 本発明のオブジェクト識別装置の第5の実施の形態を示すブロック図 本発明のオブジェクト識別装置の第6の実施の形態を示すブロック図 図17のオブジェクト識別装置において操作される切取枠の様子を示す模式図 図17のオブジェクト識別装置の動作例を示すフローチャート 図17のオブジェクト識別装置の動作例を示すフローチャート 本発明のオブジェクト識別装置の第7の実施の形態を示すブロック図 本発明のオブジェクト識別装置の第8の実施の形態を示すブロック図
符号の説明
1、300、500、600 オブジェクト識別装置
10、310 ブロック領域生成手段
20 オブジェクト領域生成手段
30 ブロック領域識別手段
40 特徴量抽出手段
41 画像変換手段
42 エッジ画像生成手段
43 相関特徴量抽出手段
44 エッジ特徴量抽出手段
45 色特徴量抽出手段
46 特徴ベクトル生成手段
50 代表ベクトル検索手段
60 種類出力手段
70 オブジェクト識別手段
BR ブロック領域
CM カテゴリーマップ
DB 代表ベクトルデータベース
KM 種類マップ
OR オブジェクト領域
P 画像

Claims (17)

  1. 画像に含まれるオブジェクトの種類を識別するオブジェクト識別方法において、
    前記画像を前記オブジェクト毎に領域分割した複数のオブジェクト領域と、前記画像を設定画素数からなる、前記オブジェクト領域より小さい多数の領域に分割して複数のブロック領域とを生成し、
    生成した前記各ブロック領域から複数の特徴量を抽出し、
    抽出した前記複数の特徴量をベクトル成分とする特徴ベクトルを生成し、
    前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、該代表ベクトルデータベースの中から前記特徴ベクトルに最も類似する前記代表ベクトルを検索し、
    検索した前記代表ベクトルが属する種類を前記ブロック領域の種類として出力し、
    出力した前記ブロック領域の種類を前記オブジェクト領域毎に集計して、前記オブジェクトの種類を識別する
    ことを特徴とするオブジェクト識別方法。
  2. 画像に含まれるオブジェクトの種類を識別するオブジェクト識別装置において、
    前記画像を前記オブジェクト毎に領域分割して複数のオブジェクト領域を生成するオブジェクト領域生成手段と、
    前記画像を設定画素数からなる、前記オブジェクト領域より小さい多数の領域に分割して複数のブロック領域を生成するブロック領域生成手段と、
    該ブロック領域生成手段により生成された前記各ブロック領域から複数の特徴量を抽出する特徴量抽出手段と、
    該特徴量抽出手段により抽出された前記複数の特徴量をベクトル成分とする特徴ベクトルを生成する特徴ベクトル生成手段と、
    前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、該代表ベクトルデータベースの中から前記特徴ベクトルに最も類似する前記代表ベクトルを検索する代表ベクトル検索手段と、
    該代表ベクトル検索手段により検索された前記代表ベクトルが属する種類を前記ブロック領域の種類として出力する種類出力手段と、
    前記各ブロック領域毎に出力された前記ブロック領域の種類を前記オブジェクト領域毎に集計し、集計した結果を用いて前記オブジェクトの種類を識別するオブジェクト識別手段と
    を有することを特徴とするオブジェクト識別装置。
  3. 前記ブロック領域生成手段が、前記画像をメッシュ状に区切った複数の第1ブロック領域と、該複数の第1ブロック領域に対してメッシュ状に区切る位相をずらした第2ブロック領域とを生成する機能を有するものであることを特徴とする請求項2に記載のオブジェクト識別装置。
  4. 前記ブロック領域生成手段が、前記オブジェクト領域内に前記設定画素数からなる切取枠を走査させて、前記切取枠により囲まれた画像から前記ブロック領域を生成する機能を有するものであることを特徴とする請求項2または請求項3に記載のオブジェクト識別装置。
  5. 前記ブロック領域生成手段が、前記画像から解像度の異なる複数の解像度変換画像を生成する機能を有し、生成した前記複数の解像度変換画像からそれぞれ前記ブロック領域を生成する機能を有するものであることを特徴とする請求項2から請求項4のいずれか1項に記載のオブジェクト識別装置。
  6. 前記特徴量抽出手段が、前記画素の縦方向もしくは横方向の信号値の変動パターンが前記ブロック領域内の各画素ライン間同士に相関関係があるか否かを相関特徴量として抽出する相関特徴量抽出手段を含むものであることを特徴とする請求項2から請求項5のいずれか1項に記載のオブジェクト識別装置。
  7. 前記相関特徴量抽出手段が、前記ブロック領域の縦方向に沿った前記相関特徴量と、前記ブロック領域の横方向に沿った前記相関特徴量とを抽出するものであることを特徴とする請求項6に記載のオブジェクト識別装置。
  8. 前記相関特徴量抽出手段が、前記ブロック領域において同一方向に形成された2つの画素ラインを構成する複数の画素の成分信号値から、前記2つの画素ラインの相関関係を示す相関値を出力する所定の相互相関関数を有し、
    前記2つの画素ラインのいずれか一方を1画素ずつ前記画素ラインの形成方向にずらしながら前記画素の成分信号値を前記相互相関関数に入力することにより複数の前記相関値を取得し、取得した前記複数の相関値から最も大きい最大相関値を算出するものであり、
    前記ブロック領域の同一方向に形成された前記画素ラインのすべての組み合わせについて前記最大相関値を算出し、算出されたすべての前記代債相関値の平均値および標準偏差を相関特徴量として抽出するものであることを特徴とする請求項6または請求項7に記載のオブジェクト識別装置。
  9. 前記特徴量抽出手段が、前記ブロック領域の縦方向および横方向のエッジ成分の特徴を示すエッジ特徴量を抽出するエッジ特徴量抽出手段を含むものであることを特徴とする請求項2から請求項8のいずれか1項に記載のオブジェクト識別装置。
  10. 前記特徴量抽出手段が、前記ブロック領域の色成分の特徴を示す色特徴量を抽出する色特徴量抽出手段を含むものであることを特徴とする請求項2から請求項9のいずれか1項に記載のオブジェクト識別装置。
  11. 前記代表ベクトルが、予め種類のわかっている前記特徴ベクトルを用いて前記勝者代表ベクトルを検索し、前記特徴ベクトルの種類と前記勝者代表ベクトルの示す種類とが異なるときに、前記勝者代表ベクトルと前記特徴ベクトルとの距離が遠くなるように学習し、前記特徴ベクトルの種類と前記勝者代表ベクトルの示す種類とが同じになるときに、前記勝者代表ベクトルと前記特徴ベクトルとの距離が近くなるように学習して得られたものであることを特徴とする請求項2から9のいずれか1項に記載のオブジェクト識別装置。
    ことを実行させるためのオブジェクト識別プログラム。
  12. 前記代表ベクトルデータベースが、前記代表ベクトルが2次元空間に配列された構造を有し、前記勝者代表ベクトルの近傍領域にある前記代表ベクトルが前記勝者代表ベクトルと同じように学習されたものであることを特徴とする請求項11に記載のオブジェクト識別装置。
  13. 前記代表ベクトルデータベースが、前記ブロック領域のカテゴリーを分類するための複数の分類用代表ベクトルと、分類された前記カテゴリーの中から種類を識別するための複数の識別用代表ベクトルとを有し、
    前記代表ベクトル検索手段が、前記特徴ベクトルに最も類似する分類用勝者代表ベクトルを検索し、検索された前記分類用勝者代表ベクトルの示すカテゴリー内にある種類の前記識別用代表ベクトルの中から、前記特徴ベクトルに最も類似する識別用勝者代表ベクトルを検索するものであることを特徴とする請求項11または請求項12に記載のオブジェクト識別装置。
  14. 前記種類出力手段が、検索された前記分類用勝者代表ベクトルの示すカテゴリーと前記識別用勝者代表ベクトルの種類とを出力するものであることを特徴とする請求項13に記載のオブジェクト識別装置。
  15. 前記代表ベクトル検索手段が、前記特徴ベクトルと前記勝者代表ベクトルとの距離を検出し、検出された距離が設定しきい値よりも小さいときには前記勝者代表ベクトルがないと判断するものであり、前記種類出力手段が、前記勝者代表ベクトルがないと判断されたときには前記種類が不明である旨の出力を行うものであることを特徴とする請求項11から請求項14のいずれか1項に記載のオブジェクト識別装置。
  16. 前記設定しきい値が、前記勝者代表ベクトルの近傍領域内にある複数の前記代表ベクトルのうち前記勝者代表ベクトルとの距離が最も大きい前記代表ベクトルと前記勝者代表ベクトルとの距離であることを特徴とする請求項15に記載のオブジェクト識別装置。
  17. コンピュータに、
    画像をオブジェクト毎に領域分割した複数のオブジェクト領域と、前記画像を設定画素数からなる、前記オブジェクト領域より小さい多数の領域に分割して複数のブロック領域とを生成し、
    生成した前記各ブロック領域から複数の特徴量を抽出し、
    抽出した前記複数の特徴量をベクトル成分とする特徴ベクトルを生成し、
    前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、該代表ベクトルデータベースの中から前記特徴ベクトルに最も類似する前記代表ベクトルを検出し、
    検出した前記代表ベクトルが属する種類を前記ブロック領域の種類であると識別し、
    識別した前記ブロック領域の種類を前記オブジェクト領域毎に集計して、前記オブジェクトの種類を識別する
    ことを実行させるためのオブジェクト識別プログラム。
JP2003295360A 2003-08-19 2003-08-19 オブジェクト識別方法および装置ならびにプログラム Expired - Lifetime JP4285644B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003295360A JP4285644B2 (ja) 2003-08-19 2003-08-19 オブジェクト識別方法および装置ならびにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003295360A JP4285644B2 (ja) 2003-08-19 2003-08-19 オブジェクト識別方法および装置ならびにプログラム

Publications (2)

Publication Number Publication Date
JP2005063309A JP2005063309A (ja) 2005-03-10
JP4285644B2 true JP4285644B2 (ja) 2009-06-24

Family

ID=34371640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003295360A Expired - Lifetime JP4285644B2 (ja) 2003-08-19 2003-08-19 オブジェクト識別方法および装置ならびにプログラム

Country Status (1)

Country Link
JP (1) JP4285644B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4744401B2 (ja) * 2006-09-05 2011-08-10 トヨタ自動車株式会社 画像処理装置
KR101582142B1 (ko) * 2008-06-06 2016-01-05 톰슨 라이센싱 이미지들의 유사성 검색을 위한 시스템 및 방법
KR101380777B1 (ko) 2008-08-22 2014-04-02 정태우 영상에 포함된 객체를 색인하는 방법
JP6028972B2 (ja) * 2012-10-03 2016-11-24 国立研究開発法人産業技術総合研究所 画像処理装置、画像処理方法および画像処理プログラム
JP6319785B2 (ja) * 2013-09-26 2018-05-09 日本電気株式会社 異常潮位変動検知装置、異常潮位変動検知方法、及び異常潮位変動検知プログラム
JP6395481B2 (ja) 2014-07-11 2018-09-26 キヤノン株式会社 画像認識装置、方法及びプログラム
CN104602030B (zh) * 2014-12-26 2018-03-23 北京奇艺世纪科技有限公司 一种编码方法、编码装置及服务器

Also Published As

Publication number Publication date
JP2005063309A (ja) 2005-03-10

Similar Documents

Publication Publication Date Title
CN110309781B (zh) 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法
US7983486B2 (en) Method and apparatus for automatic image categorization using image texture
US8655070B1 (en) Tree detection form aerial imagery
US8345974B2 (en) Hierarchical recursive image segmentation
WO2018107939A1 (zh) 一种基于边缘完备度的图像分割最优识别方法
Sirmacek et al. Urban-area and building detection using SIFT keypoints and graph theory
US8233712B2 (en) Methods of segmenting a digital image
Lee et al. Fusion of lidar and imagery for reliable building extraction
Doucette et al. Automated road extraction from high resolution multispectral imagery
JP2008097607A (ja) 入力イメージを自動的に分類する方法
Varnousfaderani et al. Weighted color and texture sample selection for image matting
CN111027446B (zh) 一种高分辨率影像的海岸线自动提取方法
Scarpa et al. Hierarchical multiple Markov chain model for unsupervised texture segmentation
Gueguen et al. Toward a generalizable image representation for large-scale change detection: Application to generic damage analysis
JP4098021B2 (ja) シーン識別方法および装置ならびにプログラム
CN109902618A (zh) 一种海面船只识别方法和装置
CN109063754A (zh) 一种基于OpenStreetMap的遥感影像多特征联合分类方法
Touati et al. A reliable mixed-norm-based multiresolution change detector in heterogeneous remote sensing images
Ye et al. An unsupervised urban change detection procedure by using luminance and saturation for multispectral remotely sensed images
Ouma et al. Urban features recognition and extraction from very-high resolution multi-spectral satellite imagery: a micro–macro texture determination and integration framework
JP2009123234A (ja) オブジェクト識別方法および装置ならびにプログラム
JP4285644B2 (ja) オブジェクト識別方法および装置ならびにプログラム
Chehata et al. Object-based forest change detection using high resolution satellite images
JP4285640B2 (ja) オブジェクト識別方法および装置ならびにプログラム
CN113536946B (zh) 一种基于摄像头关系的自监督行人重识别方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060303

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090317

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4285644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250