JP2005063309A - Object identification method and device, and program - Google Patents

Object identification method and device, and program Download PDF

Info

Publication number
JP2005063309A
JP2005063309A JP2003295360A JP2003295360A JP2005063309A JP 2005063309 A JP2005063309 A JP 2005063309A JP 2003295360 A JP2003295360 A JP 2003295360A JP 2003295360 A JP2003295360 A JP 2003295360A JP 2005063309 A JP2005063309 A JP 2005063309A
Authority
JP
Japan
Prior art keywords
type
vector
representative vector
feature
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003295360A
Other languages
Japanese (ja)
Other versions
JP4285644B2 (en
Inventor
Sadataka Akahori
貞登 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003295360A priority Critical patent/JP4285644B2/en
Publication of JP2005063309A publication Critical patent/JP2005063309A/en
Application granted granted Critical
Publication of JP4285644B2 publication Critical patent/JP4285644B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To automatically identify the kind of an object included in an image. <P>SOLUTION: An object region OR obtained by region-dividing the image P in each the object, and a plurality of block regions BR obtained by dividing the image P into a large number of regions each smaller than the object region OR, each having the set number of pixels are generated. Each type of the plurality of block regions BR is identified by use of a representative vector database DB, and the identified type of the block region BR is totaled by the object regions OR. Thereafter, the type of the object region OR is identified by use of a totaled result. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像を構成するオブジェクトの種類を自動的に識別するオブジェクト識別方法および装置ならびにプログラムに関するものである。   The present invention relates to an object identification method, apparatus, and program for automatically identifying the types of objects constituting an image.

デジタルカメラ等で撮像した画像情報において、画像情報にどのような画像が撮像されているかが識別することができれば、たとえば画像に含まれるオブジェクトの種類毎に分類、検索もしくは画像処理などをすることができる。   If image information captured by a digital camera or the like can identify what image is captured in the image information, for example, classification, search, or image processing may be performed for each type of object included in the image. it can.

たとえば画像の分類・検索をする場合、画像に含まれる物理的特徴量を用いて類似度を判断する画像検索システムが提案されている。すなわち、入力画像の局所領域を抽出して、その局所領域が位置と大きさを変化させながら参照画像と照合されて、画像の分類・検索を行う手法がある。また上記手法において、局所領域の色ヒストグラムを利用してヒストグラムを参照画像の色ヒストグラムと照合することにより物体の位置を検出して、画像の分類・検索を効率よく行う手法がある(たとえば非特許文献1参照)。しかし、上述したいずれの方法においても、画像の物理的特徴量で類似度を識別しているため、種類的には似ていないものが物理量の類似性により似ていると判断されてしまう場合があり、検索の精度が悪いという問題がある。   For example, when classifying and searching for images, an image search system has been proposed in which similarity is determined using physical feature amounts included in images. That is, there is a technique of extracting and localizing an input image, collating the reference region with a reference image while changing the position and size of the local region, and classifying and searching for the image. Further, in the above method, there is a method for efficiently classifying and searching images by detecting the position of an object by using a color histogram of a local region and comparing the histogram with a color histogram of a reference image (for example, non-patent) Reference 1). However, in any of the above-described methods, since the similarity is identified by the physical feature amount of the image, it may be determined that what is not similar in kind is similar due to the similarity of the physical amount. There is a problem that the accuracy of the search is poor.

また、画像処理を行う場合、高画質化処理の一例として特定色領域を識別して異なる処理をする方法が知られている(たとえば特許文献1参照)。これは、雑音成分が目立ちやすい領域を色で識別して雑音除去を行うものである。しかし、色のみに基づいて識別しているため、たとえば肌と砂等を混同してしまう場合がある。そして、砂の領域を肌の領域と誤って認識して、砂の領域に雑音除去を行ってしまうと、テクスチャが失われて不自然な画像になるおそれがある。
特公平5−62879号 電子情報通信学会誌、vol.j81−DII,no.9,pp.2035−2042,1998
When performing image processing, a method of identifying a specific color region and performing different processing is known as an example of high image quality processing (see, for example, Patent Document 1). In this method, noise is removed by identifying an area where a noise component is conspicuous by color. However, since the identification is based only on the color, for example, skin and sand may be confused. If the sand area is mistakenly recognized as a skin area and noise is removed from the sand area, the texture may be lost, resulting in an unnatural image.
JP-B-5-62879 The Institute of Electronics, Information and Communication Engineers, vol. j81-DII, no. 9, pp. 2035-2042, 1998

上述のように、画像から直接得られる情報に基づいて画像の分類、検索もしくは画像処理を行う場合、ユーザーに適切な情報を提供することができない。これを解決する手法の1つとして、オブジェクトの種類を識別した上で、画像の分類、検索もしくは画像処理を行うことが考えられる。すると、画像の分類・検索においては、識別した種類に応じて分類・検索を行うことができるため、画像の分類・検索を容易に精度よく行うことができる。また、画像処理をする場合においても、そのオブジェクトにあった画像処理条件を用いて画像処理を行うことができる。   As described above, when image classification, retrieval, or image processing is performed based on information obtained directly from an image, appropriate information cannot be provided to the user. As one method for solving this, it is conceivable to classify, search or perform image processing after identifying the type of object. Then, in the image classification / search, the image can be classified / searched according to the identified type. Therefore, the image classification / search can be easily and accurately performed. Even when image processing is performed, image processing can be performed using image processing conditions suitable for the object.

上述した画像に含まれるオブジェクトの種類の識別は、画像に含まれるオブジェクト領域を抽出して、各オブジェクト領域毎に種類を識別する必要がある。このとき、たとえばユーザーが画面を見ながら画像内のオブジェクト領域を抽出して、各オブジェクト毎に種類を入力することも考えられる。しかし、ユーザーによるオブジェクト領域の種類の付与は作業に手間がかかるという問題がある。   To identify the type of object included in the image described above, it is necessary to extract the object area included in the image and identify the type for each object area. At this time, for example, the user may extract the object area in the image while looking at the screen and input the type for each object. However, there is a problem that it takes time and effort to assign the object area type by the user.

そこで、本発明は、画像に含まれるオブジェクトの種類を自動的に識別することができるオブジェクト識別方法および装置ならびにプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide an object identification method, apparatus, and program that can automatically identify the type of an object included in an image.

本発明のオブジェクト識別方法は、画像に含まれるオブジェクトの種類を識別するオブジェクト識別方法において、画像をオブジェクト毎に領域分割した複数のオブジェクト領域と、画像を設定画素数からなる、オブジェクト領域より小さい多数の領域に分割して複数のブロック領域とを生成し、生成した各ブロック領域から複数の特徴量を抽出し、抽出した複数の特徴量をベクトル成分とする特徴ベクトルを生成し、前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、代表ベクトルデータベースの中から特徴ベクトルに最も類似する代表ベクトルを検出し、検出した前記代表ベクトルが属する種類を前記ブロック領域の種類として出力し、識別したブロック領域の種類をオブジェクト領域毎に集計して、オブジェクトの種類を識別することを特徴とするものである。   An object identification method according to the present invention is an object identification method for identifying the type of an object included in an image. To generate a plurality of block regions, extract a plurality of feature amounts from each of the generated block regions, generate a feature vector having the extracted feature amounts as vector components, Using a representative vector database in which a plurality of representative vectors indicating representative vector values for each type are stored for each type, the representative vector most similar to the feature vector is detected from the representative vector database, and the detected representative vector Is output as the block area type and the identified block The type of click region by summing for each object region, and is characterized in that identifying the type of object.

本発明のオブジェクト識別装置は、画像に含まれるオブジェクトの種類を識別するオブジェクト識別装置において、画像をオブジェクト毎に領域分割して複数のオブジェクト領域を生成するオブジェクト領域生成手段と、画像を設定画素数からなる、オブジェクト領域より小さい多数の領域に分割して複数のブロック領域を生成するブロック領域生成手段と、ブロック領域生成手段により生成された各ブロック領域から複数の特徴量を抽出する特徴量抽出手段と、特徴量抽出手段により抽出された複数の特徴量をベクトル成分とする特徴ベクトルを生成する特徴ベクトル生成手段と、ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、代表ベクトルデータベースの中から特徴ベクトルに最も類似する代表ベクトルを検索する代表ベクトル検索手段と、検索した前記代表ベクトルが属する種類を前記ブロック領域の種類として出力する種類出力手段と、各ブロック領域毎に出力されたブロック領域の種類をオブジェクト領域毎に集計し、集計した結果を用いてオブジェクトの種類を識別するオブジェクト識別手段とを有することを特徴とするものである。   The object identification device of the present invention is an object identification device for identifying the type of an object included in an image, an object region generation means for dividing the image into regions for each object to generate a plurality of object regions, and an image with a set number of pixels. A block area generating means for generating a plurality of block areas by dividing into a plurality of areas smaller than the object area, and a feature amount extracting means for extracting a plurality of feature quantities from each block area generated by the block area generating means And feature vector generation means for generating a feature vector having a plurality of feature amounts extracted by the feature amount extraction means as vector components, and a plurality of representative vectors indicating representative vector values in block area types for each type. Using the stored representative vector database, the representative vector database A representative vector search means for searching for a representative vector most similar to a feature vector from a class, a type output means for outputting the type to which the searched representative vector belongs as a type of the block area, and output for each block area And an object identification unit that aggregates the types of the block areas for each object area and identifies the type of the object using the aggregated result.

本発明のオブジェクト識別プログラムは、コンピュータに、画像をオブジェクト毎に領域分割した複数のオブジェクト領域と、画像を設定画素数からなる、オブジェクト領域より小さい多数の領域に分割して複数のブロック領域とを生成し、生成した各ブロック領域から複数の特徴量を抽出し、抽出した複数の特徴量をベクトル成分とする特徴ベクトルを生成し、前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、代表ベクトルデータベースの中から特徴ベクトルに最も類似する代表ベクトルを検索し、検索した代表ベクトルが属する種類をブロック領域の種類であると識別し、識別したブロック領域の種類をオブジェクト領域毎に集計して、オブジェクトの種類を識別することを実行させることを特徴とするものである。   The object identification program of the present invention causes a computer to divide an image into a plurality of object areas divided into areas for each object, and divide the image into a plurality of areas smaller than the object area, each having a set number of pixels. Generating and extracting a plurality of feature amounts from each of the generated block regions, generating a feature vector having the extracted plurality of feature amounts as vector components, and a plurality of representatives indicating representative vector values in the types of the block regions Using a representative vector database in which vectors are stored for each type, a representative vector that is most similar to a feature vector is searched from the representative vector database, and the type to which the searched representative vector belongs is identified as the block region type. The types of identified block areas are aggregated for each object area, and the object It is characterized in that to perform the identifying of Type.

ここで、「オブジェクト」はたとえば人物、空、海、木、建物等の画像に含まれる被写体を意味し、「オブジェクト領域」は被写体が画像内に占める領域を意味する。   Here, “object” means a subject included in an image such as a person, sky, sea, tree, building, etc., and “object region” means a region occupied by the subject in the image.

「オブジェクトの種類を識別する」とは、画像内のオブジェクトについてたとえば「山」、「海」、「花」、「空」等の種類であることを特定することを意味し、さらにオブジェクトの種類がわからない場合に「不明」であることを特定することも含む。   “Identify the type of object” means that the object in the image is identified as a type such as “mountain”, “sea”, “flower”, “sky”, etc. It also includes specifying “unknown” when not sure.

さらに、「特徴量抽出手段」は、画像の特徴を示す複数の特徴量を抽出するものであればよく、たとえば画像の各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出する相関特徴量抽出手段の他に、画像のエッジの特徴を示すエッジ特徴量を抽出するエッジ特徴量抽出手段や画像の色の特徴を示す色特徴量を抽出する色特徴量抽出手段を含むものであってもよい。   Furthermore, the “feature amount extraction means” may be any means that extracts a plurality of feature amounts indicating the features of the image. For example, the regularity of change along one direction of the component signal value assigned to each pixel of the image In addition to the correlation feature quantity extraction means for extracting the correlation feature quantity indicating the degree of the image, the edge feature quantity extraction means for extracting the edge feature quantity indicating the edge feature of the image and the color feature quantity indicating the color feature of the image are extracted. It may include color feature amount extraction means.

なお、「相関特徴量抽出手段」は、たとえば画像の縦方向に沿った相関特徴量、画像の横方向に沿った相関特徴量、もしくは画像の斜め方向に沿った相関特徴量を抽出する等の画像の少なくとも1方向の相関特徴量を抽出するものであればよい。   The “correlation feature extraction means” extracts, for example, a correlation feature along the vertical direction of the image, a correlation feature along the horizontal direction of the image, or a correlation feature along the diagonal direction of the image. What is necessary is just to extract the correlation feature quantity of at least one direction of the image.

さらに、「相関特徴量抽出手段」は、画像において同一方向に形成された2つの画素ラインを構成する複数の画素の成分信号値から、2つの画素ラインの相関関係を示す相関値を出力する所定の相互相関関数を有し、2つの画素ラインのいずれか一方を1画素ずつ画素ラインの形成方向にずらしながら画素の成分信号値を相互相関関数に入力することにより複数の相関値を取得し、取得した複数の相関値から最も大きい最大相関値を算出するものであり、画像の同一方向に形成された画素ラインのすべての組み合わせについて最大相関値を算出し、算出されたすべての最大相関値の平均値および標準偏差を相関特徴量として抽出するものであってもよい。   Further, the “correlation feature amount extraction unit” outputs a correlation value indicating a correlation between two pixel lines from component signal values of a plurality of pixels constituting two pixel lines formed in the same direction in the image. A plurality of correlation values are obtained by inputting the component signal value of the pixel into the cross-correlation function while shifting one of the two pixel lines in the pixel line forming direction one pixel at a time. The largest maximum correlation value is calculated from a plurality of acquired correlation values, the maximum correlation value is calculated for all combinations of pixel lines formed in the same direction of the image, and all the calculated maximum correlation values are calculated. The average value and the standard deviation may be extracted as the correlation feature amount.

また、「ブロック領域生成手段」は、たとえば画像をメッシュ状に区切った複数の第1ブロック領域と、複数の第1ブロック領域とメッシュ状に区切る位相をずらした第2ブロック領域とを生成するものや、オブジェクト領域内に設定画素数からなる切取枠を走査させて、切取枠により囲まれた画像をブロック領域として生成するもののような、設定画素数からなるブロック領域を生成するものであればよい。   Further, the “block area generating means” generates, for example, a plurality of first block areas obtained by dividing an image into a mesh shape, and a second block area having a phase shifted from the plurality of first block areas divided into a mesh shape. Alternatively, any object that generates a block area having a set number of pixels, such as scanning a cut frame having a set number of pixels in the object area and generating an image surrounded by the cut frame as a block area, may be used. .

さらに、ブロック領域生成手段は、画像から解像度の異なる複数の解像度変換画像を生成する機能を有し、生成した複数の解像度変換画像からそれぞれブロック領域を生成するものであってもよい。   Further, the block area generation means may have a function of generating a plurality of resolution conversion images having different resolutions from the image, and may generate a block area from each of the generated resolution conversion images.

さらに、代表ベクトルは、予め種類のわかっている特徴ベクトルを用いて勝者代表ベクトルを検索し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが異なるときに、勝者代表ベクトルと特徴ベクトルとの距離が遠くなるように学習し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが同じになるときに、勝者代表ベクトルと特徴ベクトルとの距離が近くなるように学習して得られたものであってもよい。   Further, the representative vector is a distance between the winner representative vector and the feature vector when the winner representative vector is searched using a feature vector whose type is known in advance and the type of the feature vector is different from the type indicated by the winner representative vector. When the feature vector and the type indicated by the winner representative vector are the same, the distance between the winner representative vector and the feature vector is learned to be close. May be.

また、代表ベクトルデータベースは、代表ベクトルを2次元空間に配列した構造を有し、勝者代表ベクトルの近傍領域にある代表ベクトルが勝者代表ベクトルと同じように学習されたものであってもよい。   The representative vector database may have a structure in which representative vectors are arranged in a two-dimensional space, and a representative vector in a region near the winner representative vector may be learned in the same manner as the winner representative vector.

さらに、代表ベクトルデータベースは、ブロック領域のカテゴリーを分類するための複数の分類用代表ベクトルと、分類されたカテゴリーの中から種類を識別するための複数の識別用代表ベクトルとを有していてもよい。   Further, the representative vector database may include a plurality of classification representative vectors for classifying the block region categories and a plurality of identification representative vectors for identifying types from the classified categories. Good.

なお、代表ベクトル検索手段は、特徴ベクトルに最も類似する分類用勝者代表ベクトルを検索し、検索された分類用勝者代表ベクトルの示すカテゴリー内にある種類の識別用代表ベクトルの中から、特徴ベクトルに最も類似する識別用勝者代表ベクトルを検索するものであってもよい。   The representative vector search means searches for a classification winner representative vector that is most similar to the feature vector, and selects a feature vector from among the types of identification representative vectors in the category indicated by the searched classification winner representative vector. The most similar identification winner representative vector may be searched.

また、「種類出力手段」は、検索された分類用勝者代表ベクトルの示すカテゴリーと識別用勝者代表ベクトルの示す種類とを出力するものであってもよい。   The “type output unit” may output a category indicated by the searched classification representative representative vector and a type indicated by the identification winner representative vector.

さらに、「ベクトル検索手段」は、特徴ベクトルと勝者代表ベクトルとの距離を検出し、検出された距離が設定しきい値よりも小さいときには勝者代表ベクトルがないと判断するものであり、種類出力手段が、勝者代表ベクトルがないと判断されたには種類が不明である旨の出力を行うものであってもよい。   Further, the “vector search means” detects the distance between the feature vector and the winner representative vector, and determines that there is no winner representative vector when the detected distance is smaller than the set threshold value. However, it may be output that the type is unknown when it is determined that there is no winner representative vector.

また、「設定しきい値」は、一定の値であってもよいし、勝者代表ベクトルの近傍領域内にある複数の代表ベクトルのうち勝者代表ベクトルとの距離が最も大きい代表ベクトルと勝者代表ベクトルとの距離であってもよい。   In addition, the “set threshold value” may be a fixed value, or the representative vector and the winner representative vector having the largest distance from the winner representative vector among a plurality of representative vectors in the vicinity region of the winner representative vector. It may be a distance.

本発明のオブジェクト識別方法および装置ならびにプログラムによれば、オブジェクト領域の種類の識別にブロック領域を使用することにより、各画素毎に種類を識別する場合に比べて、像構造的特徴をオブジェクト領域の種類の判断に加えることができるため、オブジェクトの種類を正確に識別することができる。   According to the object identification method, apparatus, and program of the present invention, by using the block area for identifying the type of the object area, the image structural features are compared with those in the object area as compared with the case of identifying the type for each pixel. Since it can be added to the type determination, the type of the object can be accurately identified.

また、各ブロック領域毎にそれぞれ種類を識別し、ブロック領域の種類を各オブジェクト領域毎に集計してオブジェクト領域の種類を識別することにより、オブジェクト領域の一部のブロック領域に本来の種類に識別されなかったものがあったとしても、その誤った認識を吸収してオブジェクトの種類を正確かつ自動的に識別することができる。   In addition, by identifying the type for each block area, the block area type is aggregated for each object area and the object area type is identified to identify the original type for some block areas of the object area Even if there is something that has not been done, the erroneous recognition can be absorbed and the type of object can be accurately and automatically identified.

なお、ブロック領域生成手段が、画像をメッシュ状に区切った複数の第1ブロック領域と、複数の第1ブロック領域とメッシュ状に区切る位相をずらした第2ブロック領域とを生成するようにすれば、オブジェクト領域の種類を識別するのに用いられるブロック領域の数を増やすことができるため、ブロック領域の種類の識別からオブジェクト領域の種類の識別を行う際の精度を向上させることができる。   If the block area generating means generates a plurality of first block areas obtained by dividing the image into a mesh shape and a second block area having a phase shifted from the plurality of first block areas and the mesh shape. Since the number of block areas used to identify the type of object area can be increased, the accuracy in identifying the type of object area from the identification of the type of block area can be improved.

また、ブロック領域生成手段が、オブジェクト領域内に設定画素数からなる切取枠を走査させて、切取枠により囲まれた画像をブロック領域として生成するようにすると、オブジェクト領域の種類を識別するのに用いられるブロック領域の数を増やすことができるため、ブロック領域の種類の識別からオブジェクト領域の種類の識別を行う際の精度を向上させることができる。   In addition, when the block area generation unit scans a cut frame having a set number of pixels in the object area and generates an image surrounded by the cut frame as a block area, the type of the object area is identified. Since the number of block areas to be used can be increased, it is possible to improve accuracy when identifying the type of object area from identifying the type of block area.

さらに、ブロック領域生成手段が、画像から解像度の異なる複数の解像度変換画像を生成する機能を有し、生成した複数の解像度変換画像からそれぞれブロック領域を生成するようにすれば、被写体との距離によりオブジェクトの写り方が画像によって違う場合であっても、精度よくオブジェクトの種類を識別することができる。   Furthermore, if the block area generation unit has a function of generating a plurality of resolution conversion images having different resolutions from the image, and each block area is generated from the generated plurality of resolution conversion images, the block area generation unit depends on the distance from the subject. Even when the way the object is captured differs depending on the image, the type of the object can be accurately identified.

また、特徴量抽出手段が、画像の各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出する相関特徴量抽出手段を含む構成にすれば、相関特徴量により人工物に多く見られる規則的なパターンを有する画像と、自然物に多く見られるランダムなパターンを有する画像とを区別する指標となる特徴量を抽出することができるため、適切な種類の識別を行うことができる。   In addition, if the feature amount extraction unit includes a correlation feature amount extraction unit that extracts a correlation feature amount indicating the degree of regularity of change along one direction of the component signal value assigned to each pixel of the image. Since the feature quantity can be extracted as an index for distinguishing between an image having a regular pattern often found in artifacts and an image having a random pattern often found in natural objects, the correlation feature quantity is appropriate. Type identification can be performed.

さらに、相関特徴量抽出手段が、画像の縦方向に沿った相関特徴量と、画像の横方向に沿った相関特徴量とを抽出するようにすれば、縦方向および横方向に向かって規則的なパターンが形成されたものと、縦方向もしくは横方向のいずれか一方に向かって規則的なパターンが形成されたものとを区別することができる。   Further, if the correlation feature quantity extraction means extracts the correlation feature quantity along the vertical direction of the image and the correlation feature quantity along the horizontal direction of the image, the correlation feature quantity extraction means regularly in the vertical direction and the horizontal direction. Can be distinguished from those in which a regular pattern is formed and those in which a regular pattern is formed in either the vertical direction or the horizontal direction.

また、相関特徴量抽出手段が、2つの画素ラインのいずれか一方を1画素ずつ画素ラインの形成方向にずらしながら画素の成分信号値を所定の相互相関関数に入力することにより算出される複数の相関値のうち最も大きい最大相関値を用いて相関特徴量を算出するようにすれば、画像の縦方向もしくは横方向に向かって形成された規則的なパターンのみならず、画像の斜め方向に向かって形成されている規則的なパターンについても相関特徴量として抽出することができるため、画像の縦方向、横方向および斜め方向に向かって形成される規則的なパターンを相関特徴量として抽出することができる。   Further, the correlation feature amount extraction means calculates a plurality of values calculated by inputting the component signal value of the pixel to a predetermined cross-correlation function while shifting one of the two pixel lines one pixel at a time in the pixel line formation direction. If the correlation feature value is calculated using the largest correlation value among the correlation values, not only the regular pattern formed in the vertical or horizontal direction of the image but also the diagonal direction of the image. Therefore, regular patterns formed in the vertical, horizontal, and diagonal directions of images can be extracted as correlation features. Can do.

さらに、エッジ特徴量抽出手段が、画像の縦方向および横方向のエッジ成分の平均値および標準偏差をそれぞれ算出するようにすれば、たとえば「水(波)」のように縦方向と横方向によってエッジが異なるものと、「植物(花畑等)」の縦方向と横方向とで比較的均質なエッジのものとがエッジ特徴量によって区別することができる。   Furthermore, if the edge feature quantity extraction means calculates the average value and standard deviation of the edge components in the vertical and horizontal directions of the image, respectively, for example, “water (wave)” depending on the vertical and horizontal directions. Different edges can be distinguished from those having relatively uniform edges in the vertical and horizontal directions of “plants (flower garden, etc.)” by the edge feature amount.

さらに、代表ベクトルが、予め種類のわかっている特徴ベクトルを用いて勝者代表ベクトルを検索し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが異なるときに、勝者代表ベクトルと特徴ベクトルとの距離が遠くなるように学習し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが同じになるときに、勝者代表ベクトルと特徴ベクトルとの距離が近くなるように学習して得られたものであるときには、精度のよい代表ベクトルを用いて種類の識別を行うことができる。   Furthermore, when the representative vector searches for the winner representative vector using a feature vector whose type is known in advance, and the type of the feature vector is different from the type indicated by the winner representative vector, the distance between the winner representative vector and the feature vector Is obtained by learning so that the distance between the winner representative vector and the feature vector is close when the type of the feature vector and the type indicated by the winner representative vector are the same. Sometimes it is possible to identify the type using a representative vector with high accuracy.

また、代表ベクトルデータベースが、代表ベクトルを2次元空間に配列した構造を有し、勝者代表ベクトルの近傍領域にある代表ベクトルが勝者代表ベクトルと同じように学習されたものであれば、同じオブジェクト領域に含まれる様々なバリエーションの特徴ベクトルに対応できるような代表ベクトルを生成することができるため、種類の識別の精度を向上させることができる。   In addition, if the representative vector database has a structure in which representative vectors are arranged in a two-dimensional space, and the representative vector in the vicinity area of the winner representative vector is learned in the same manner as the winner representative vector, the same object region Therefore, it is possible to generate a representative vector that can correspond to various variations of feature vectors included in the information, and thus it is possible to improve the accuracy of type identification.

さらに、代表ベクトルデータベースが、ブロック領域のカテゴリーを分類するための複数の分類用代表ベクトルと、分類されたカテゴリーの中から種類を識別するための複数の識別用代表ベクトルとを有し、代表ベクトル検索手段が、特徴ベクトルに最も類似する分類用勝者代表ベクトルを検索し、検索された分類用勝者代表ベクトルの示すカテゴリー内にある種類の識別用代表ベクトルの中から、特徴ベクトルに最も類似する識別用勝者代表ベクトルを検索するようにすれば、カテゴリーの分類および種類の識別に用いる特徴ベクトルを低次元に抑えることができ、種類の識別の精度を向上させることができる。   Further, the representative vector database has a plurality of classification representative vectors for classifying the category of the block region and a plurality of identification representative vectors for identifying the type from the classified categories. The search means searches for the classification winner representative vector that is most similar to the feature vector, and the identification that is most similar to the feature vector from among the types of identification representative vectors in the category indicated by the searched classification winner representative vector. If the winner representative vector is searched, the feature vector used for category classification and type identification can be suppressed to a low dimension, and the type identification accuracy can be improved.

また、種類出力手段が、検索された分類用勝者代表ベクトルの示すカテゴリーと識別用勝者代表ベクトルの示す種類とを出力するようにすれば、オブジェクト領域の識別の際に、ブロック領域の種類とともにカテゴリーをも加味した識別を行うことができるとともに、ユーザにオブジェクト領域のカテゴリーに関する情報も提供することができる。   In addition, if the type output means outputs the category indicated by the searched category representative representative vector and the type indicated by the identification winner representative vector, the category and the category of the block area can be used when identifying the object area. Can be identified, and information related to the category of the object area can be provided to the user.

さらに、ベクトル検索手段が、特徴ベクトルと勝者代表ベクトルとの距離を検出し、検出された距離が設定しきい値よりも小さいときには勝者代表ベクトルがないと判断するものであり、種類出力手段が、勝者代表ベクトルがないと判断されたには種類が不明である旨の出力を行うようにすれば、最大成分が低い種類の識別の信頼度が低いものは、種類の識別を行わずに不明とすることができるため、種類識別の信頼性を高めることができる。   Further, the vector search means detects the distance between the feature vector and the winner representative vector, and determines that there is no winner representative vector when the detected distance is smaller than the set threshold value. If it is determined that the type is unknown when it is determined that there is no winner representative vector, the type with a low maximum component having a low reliability of classification is considered to be unknown without identifying the type. Therefore, the reliability of type identification can be improved.

また、設定しきい値が、勝者代表ベクトルの近傍領域内にある複数の代表ベクトルのうち勝者代表ベクトルとの距離が最も大きい代表ベクトルと勝者代表ベクトルとの距離にすると、学習内容の偏りや各種類の画像の多様性の違いによって生じる勝者代表ベクトルの各位置における種類識別の信頼性の相違を設定しきい値に反映させることができる。   In addition, when the set threshold is the distance between the representative vector having the largest distance from the winner representative vector among the plurality of representative vectors in the neighborhood area of the winner representative vector and the winner representative vector, It is possible to reflect the difference in the reliability of type identification at each position of the winner representative vector caused by the difference in variety of types of images in the set threshold value.

以下、本発明のオブジェクト識別装置の実施の形態について図面を参照しながら説明する。図1は本発明のオブジェクト識別装置の好ましい実施の形態を示すブロック図である。なお、図1のようなオブジェクト識別装置1の構成は、補助記憶装置に読み込まれたオブジェクト識別プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、このオブジェクト識別プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。   Hereinafter, embodiments of an object identification device of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a preferred embodiment of the object identification device of the present invention. The configuration of the object identification device 1 as shown in FIG. 1 is realized by executing an object identification program read into the auxiliary storage device on a computer (for example, a personal computer). The object identification program is stored in an information storage medium such as a CD-ROM or distributed via a network such as the Internet and installed in a computer.

図1のオブジェクト識別装置1は画像に含まれるオブジェクト毎の種類を識別するものであって、ブロック領域生成手段10、オブジェクト領域生成手段20、ブロック領域識別手段30、オブジェクト識別手段70等を有する。図1のブロック領域生成手段10は、画像を設定画素数からなる、オブジェクト領域より小さい多数の領域に分割して複数のブロック領域を生成するものである。具体的には、図2(a)に示すように、ブロック領域生成手段10は、設定画素数が32画素×32画素に設定されている場合、画像を32×32画素からなる複数のブロック領域BRに分割するようになっている。   The object identification apparatus 1 in FIG. 1 identifies the type of each object included in an image, and includes a block area generation unit 10, an object area generation unit 20, a block area identification unit 30, an object identification unit 70, and the like. The block area generation means 10 in FIG. 1 generates a plurality of block areas by dividing an image into a large number of areas having a set number of pixels and smaller than the object area. Specifically, as shown in FIG. 2A, the block area generation unit 10, when the set number of pixels is set to 32 pixels × 32 pixels, has a plurality of block areas composed of 32 × 32 pixels. It is designed to be divided into BR.

オブジェクト領域生成手段20は、画像をオブジェクト毎に領域分割して複数のオブジェクト領域を生成する機能を有する。たとえば、図2(b)に示すような複数のオブジェクトを含む画像の場合、画像Pを各オブジェクト毎に領域分割してオブジェクト領域ORを生成するようになっている。ここで、オブジェクトとはたとえば人物、空、海、木、建物等の画像に含まれる被写体を意味し、オブジェクト領域は被写体が画像内に占める領域を意味する。   The object area generation means 20 has a function of generating a plurality of object areas by dividing an image into areas for each object. For example, in the case of an image including a plurality of objects as shown in FIG. 2B, the image area P is divided into areas for each object to generate an object area OR. Here, the object means a subject included in an image such as a person, the sky, the sea, a tree, and a building, and the object area means an area occupied by the subject in the image.

ブロック領域識別手段30は生成された各ブロック領域BR毎に種類を識別するものであって、たとえばブロック領域BRは「山」、「海」、「花」、「空」の種類であることを特定するものである。   The block area identifying means 30 identifies the type for each generated block area BR. For example, the block area BR is of the type of “mountain”, “sea”, “flower”, “sky”. It is something to identify.

オブジェクト識別手段70は、ブロック領域識別手段30により識別されたブロック領域BRの種類を、オブジェクト領域生成手段20により生成されたオブジェクト領域OR毎に集計し、オブジェクトの種類を識別するものである。   The object identification unit 70 aggregates the types of the block regions BR identified by the block region identification unit 30 for each object region OR generated by the object region generation unit 20, and identifies the type of object.

具体的には、オブジェクト識別手段70は、オブジェクト領域OR内の各ブロック領域BRの種類の数を集計する。このとき、オブジェクト識別手段70は、複数のオブジェクト領域ORにまたがっているブロック領域BRは、カウントしないようになっている。このように、2つのオブジェクト領域にまたがっているブロック領域は2つの種類を含むブロック領域BRを集計から外すことにより、種類識別の信頼性が低くなるのを防止することができる。   Specifically, the object identification means 70 totals the number of types of each block area BR in the object area OR. At this time, the object identification means 70 does not count the block area BR that extends over the plurality of object areas OR. As described above, it is possible to prevent the reliability of the type identification from being lowered by removing the block region BR including two types from the total for the block region extending over the two object regions.

そして、オブジェクト識別手段70は、あるオブジェクト領域ORにおいて集計されたブロック領域BRの種類のうち、最も多いブロック領域BRの種類をオブジェクトの種類であると識別する。すると、図2(c)に示すように、各オブジェクト領域ORに種類が識別される。   Then, the object identification unit 70 identifies the largest type of block area BR among the types of block areas BR counted in a certain object area OR as the type of object. Then, as shown in FIG. 2C, the type is identified in each object area OR.

なお、図1のオブジェクト識別手段70において、オブジェクトの種類を多数決により決定するようにしているが、集計された種類のうち最も多い最大の種類の割合(最大の種類の数/オブジェクトを構成する全ブロック領域数)が種類情報しきい値より小さい場合、オブジェクト識別手段70がオブジェクトの種類として「不明」を出力する機能を有していてもよい。あるいは、最大の種類の割合と2番目に多い種類の割合との差が小さい場合、オブジェクト識別手段70がオブジェクトの種類として「不明」を出力するようにしてもよい。これは、オブジェクトの種類を誤って識別するよりも、「不明」と判断された方がユーザーにとって好ましい場合があるためである。   In the object identification means 70 of FIG. 1, the type of object is determined by majority vote. However, the ratio of the largest type among the aggregated types (the maximum number of types / all the objects constituting the object). When the number of block areas) is smaller than the type information threshold, the object identification unit 70 may have a function of outputting “unknown” as the type of object. Alternatively, when the difference between the ratio of the largest type and the ratio of the second most common type is small, the object identification unit 70 may output “unknown” as the type of the object. This is because it may be preferable for the user to be determined as “unknown” rather than erroneously identifying the type of object.

図3はオブジェクト領域生成手段20の一例を示すブロック図であり、図3を参照してオブジェクト領域生成手段20について説明する。なお、以下に示すオブジェクト領域生成手段20は一例であり、たとえばエッジ検出により各オブジェクト領域ORを生成する手法等により行うようにしてもよい。   FIG. 3 is a block diagram showing an example of the object area generating means 20, and the object area generating means 20 will be described with reference to FIG. The object area generation means 20 shown below is an example, and may be performed by a method of generating each object area OR by edge detection, for example.

オブジェクト領域生成手段20は、画像を構成する各画素から複数の特徴量を抽出し、類似した画素特徴量毎に画素を分類する画像の特徴量分類手段100と、画素の分類毎に領域分割して複数のクラスタリング領域を生成する領域分割手段101と、生成されたクラスタリング領域のうち最も画素数の少ない最小クラスタリング領域を抽出する最小クラスタ領域抽出手段112と、抽出された最小クラスタリング領域と隣接する隣接クラスタリング領域を抽出する統合領域判断手段113と、生成されたクラスタリング領域を統合してオブジェクト領域を抽出する領域統合手段110とを有する。   The object region generation unit 20 extracts a plurality of feature amounts from each pixel constituting the image, classifies the pixels for each similar pixel feature amount, and divides the region for each pixel classification. Area dividing means 101 for generating a plurality of clustering areas, a minimum cluster area extracting means 112 for extracting a minimum clustering area having the smallest number of pixels among the generated clustering areas, and an adjacent adjacent to the extracted minimum clustering area The integrated region determination unit 113 extracts clustering regions and the region integration unit 110 extracts object regions by integrating the generated clustering regions.

ここで、図4と図5は画像を各オブジェクト領域毎に分割する過程を示す模式図であり、図4を参照してオブジェクト領域生成手段20の動作例について説明する。まず、図4(a)に示すように、類似した特徴を有する画素が並んだ画像があると仮定する。このとき、特徴量分類手段100において、各画素から複数の特徴量が抽出されて、各特徴量を要素とした複数の特徴ベクトルが生成される。その後、図4(b)に示すように、複数の特徴ベクトルが類似する特徴ベクトル毎に分類される(クラスタリング)。   Here, FIGS. 4 and 5 are schematic diagrams showing a process of dividing an image for each object area, and an operation example of the object area generating means 20 will be described with reference to FIG. First, as shown in FIG. 4A, it is assumed that there is an image in which pixels having similar characteristics are arranged. At this time, the feature quantity classifying unit 100 extracts a plurality of feature quantities from each pixel and generates a plurality of feature vectors having each feature quantity as an element. Thereafter, as shown in FIG. 4B, a plurality of feature vectors are classified into similar feature vectors (clustering).

その後、領域分割手段101により、特徴量分類手段100によりクラスタリングされた結果が実際の画像に写像される。すると、図5(a)に示すように、類似した画素からなる複数のクラスタリング領域が形成されて、ラベルを付したラベル画像としてデータベース111に記憶される。   Thereafter, the result of clustering by the feature amount classifying unit 100 is mapped to an actual image by the region dividing unit 101. Then, as shown in FIG. 5A, a plurality of clustering regions composed of similar pixels are formed and stored in the database 111 as label images with labels.

次に、領域統合の一例について説明する。まず、最小クラスタ領域抽出手段112により、データベースに記憶されたクラスタリング領域の中から最も小さい最小クラスタリング領域が抽出される。また、統合領域判断手段113において抽出された最小クラスタリング領域と隣接する隣接クラスタリング領域が抽出する。   Next, an example of region integration will be described. First, the smallest cluster area extraction unit 112 extracts the smallest minimum clustering area from the clustering areas stored in the database. In addition, adjacent clustering regions adjacent to the minimum clustering region extracted by the integrated region determination unit 113 are extracted.

ここで、最小クラスタリング領域が所定の微小画素しきい値以下の画素数(たとえば全画素数の1/100)の場合、領域統合手段110において、最小クラスタリング領域が境界画素数(周囲長)の最も多い隣接クラスタリング領域と統合される。具体的には、図5(a)のクラスタリング領域Aが所定の微小画素しきい値以下の画素数を有する最小クラスタリング領域であるとする。クラスタリング領域Aは、クラスタリング領域C、Dと隣接しているため、クラスタリング領域C、Dが隣接クラスタリング領域となる。   Here, when the minimum clustering area has a number of pixels equal to or smaller than a predetermined minute pixel threshold (for example, 1/100 of the total number of pixels), in the area integration unit 110, the minimum clustering area has the largest number of boundary pixels (peripheral length). It is integrated with many adjacent clustering regions. Specifically, it is assumed that the clustering area A in FIG. 5A is the minimum clustering area having the number of pixels equal to or smaller than a predetermined minute pixel threshold. Since the clustering area A is adjacent to the clustering areas C and D, the clustering areas C and D are adjacent clustering areas.

そこで、領域統合手段110において、最小クラスタリング領域Aとクラスタリング領域C、Dとが接している隣接画素数がそれぞれ算出される。図5(a)においては隣接クラスタリング領域Dとの境界画素数の方が隣接クラスタリング領域Cとの境界画素数よりも多い。このためクラスタリング領域Aは図5(b)のようにクラスタリング領域Dと統合する。   Therefore, the region integration unit 110 calculates the number of adjacent pixels where the minimum clustering region A and the clustering regions C and D are in contact with each other. In FIG. 5A, the number of boundary pixels with the adjacent clustering region D is larger than the number of boundary pixels with the adjacent clustering region C. Therefore, the clustering area A is integrated with the clustering area D as shown in FIG.

一方、最小クラスタリング領域が所定の小画素しきい値以下の画素数(たとえば全画素数の1/10)の場合、領域統合手段110において、最小クラスタリング領域が特徴空間での距離が近い隣接クラスタリング領域と統合される。具体的には、図5(b)において、クラスタリング領域Bが所定の小画素しきい値以下の最小クラスタリング領域であるとする。すると、クラスタリング領域Bの隣接クラスタリング領域はクラスタリング領域C、Dである。そこで、たとえばテクスチャ情報を距離を基準とした場合、どちらのクラスタリング領域C、Dのテクスチャがクラスタリング領域Bのテクスチャに近いかが判断される。そして、図5(c)のように、クラスタリング領域Bが特徴空間での最も近い距離であるクラスタリング領域Dと統合される。   On the other hand, when the minimum clustering area has a number of pixels equal to or smaller than a predetermined small pixel threshold (for example, 1/10 of the total number of pixels), in the area integration unit 110, the adjacent clustering area where the minimum clustering area is close in the feature space Integrated with. Specifically, in FIG. 5B, it is assumed that the clustering region B is a minimum clustering region that is equal to or smaller than a predetermined small pixel threshold value. Then, the adjacent clustering regions of the clustering region B are the clustering regions C and D. Therefore, for example, when the texture information is based on the distance, it is determined which of the clustering regions C and D is close to the texture of the clustering region B. Then, as shown in FIG. 5C, the clustering region B is integrated with the clustering region D which is the closest distance in the feature space.

領域統合手段110において、上述した作業がたとえば最小クラスタ領域抽出手段112により抽出される最小クラスタリング領域が所定の小画素しきい値よりも大きい画素数になるまで行われて、画像が各オブジェクト領域OR毎に領域分割される(図2(c)参照)。   In the region integration unit 110, the above-described operation is performed until, for example, the minimum clustering region extracted by the minimum cluster region extraction unit 112 has a number of pixels larger than a predetermined small pixel threshold, and the image is displayed in each object region OR. Each area is divided (see FIG. 2C).

図6は特徴量抽出手段40および特徴ベクトル生成手段46の一例を示すブロック図であり、図6を参照して特徴量抽出手段40について説明する。特徴量抽出手段40は、画像変換手段41、エッジ画像生成手段42、相関特徴量抽出手段43、エッジ特徴量抽出手段44、色特徴量抽出手段45等を有する。   FIG. 6 is a block diagram showing an example of the feature quantity extraction means 40 and the feature vector generation means 46. The feature quantity extraction means 40 will be described with reference to FIG. The feature quantity extraction means 40 includes an image conversion means 41, an edge image generation means 42, a correlation feature quantity extraction means 43, an edge feature quantity extraction means 44, a color feature quantity extraction means 45, and the like.

画像変換手段41は、RGB表色系により表現されているブロック領域をYCC表色系に変換するものである。このとき、画像変換手段41は、画像を構成する複数のブロック領域BRのうち、1つのオブジェクト領域ORに含まれるブロック領域を識別する。なお、画像を構成する複数のブロック領域BRのうち、オブジェクト領域OR間の境界にまたがるブロック領域BRは、オブジェクト領域ORの種類の判断には使用しないため、特徴量の抽出を行わないようになっている。   The image conversion means 41 converts the block area expressed by the RGB color system into the YCC color system. At this time, the image conversion means 41 identifies a block area included in one object area OR among a plurality of block areas BR constituting the image. Note that, among the plurality of block areas BR constituting the image, the block area BR that straddles the boundary between the object areas OR is not used for determining the type of the object area OR, so that the feature amount is not extracted. ing.

エッジ画像生成手段42は、画像変換手段41から送られたY成分を用いてエッジ画像を生成し、生成したエッジ画像を相関特徴量抽出手段43およびエッジ特徴量抽出手段44に送る機能を有する。ここで、エッジ画像生成手段42は、図7(a)に示す縦エッジ検出用フィルターを用いて縦エッジ画像を生成するとともに、図7(b)に示す横エッジ検出用フィルターを用いて横エッジ画像を生成するようになっている。   The edge image generation means 42 has a function of generating an edge image using the Y component sent from the image conversion means 41 and sending the generated edge image to the correlation feature quantity extraction means 43 and the edge feature quantity extraction means 44. Here, the edge image generation means 42 generates a vertical edge image using the vertical edge detection filter shown in FIG. 7A and uses the horizontal edge detection filter shown in FIG. An image is generated.

なお、エッジ画像生成手段42は、図7に示すようなエッジ検出用フィルター(prewittフィルター)を用いているが、たとえば上下左右の画素には対角線上のものより大きな重みを与えたエッジ検出用フィルター(Sobelフィルター)を用いたエッジ検出方法やその他の公知のエッジ検出方法を用いることができる。   Note that the edge image generation means 42 uses an edge detection filter (prewitt filter) as shown in FIG. 7, for example, an edge detection filter in which a larger weight is given to the upper, lower, left, and right pixels than on the diagonal line. An edge detection method using (Sobel filter) or other known edge detection methods can be used.

図6の相関特徴量抽出手段43は、ブロック領域BRの各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出するものである。ここで、図8は相関特徴量抽出手段43における相関特徴量の算出方法の一例を示すフローチャートを示しており、図8を参照して相関特徴量の算出方法について説明する。   The correlation feature amount extraction unit 43 in FIG. 6 extracts a correlation feature amount indicating the degree of regularity of change along one direction of the component signal value assigned to each pixel of the block region BR. Here, FIG. 8 shows a flowchart showing an example of the calculation method of the correlation feature quantity in the correlation feature quantity extraction unit 43, and the calculation method of the correlation feature quantity will be described with reference to FIG.

なお、図8において横方向に沿った変化に関する相関特徴量の抽出について説明するが、同様の手法により縦方向に沿った変化に対する相関特徴量も抽出される。また、以下に示すF(x)は、第i行における第x画素(i=0〜31、x=0〜31)の成分信号値を示し、F(x)は第j行における第x画素(i=0〜31、x=0〜31)の成分信号値を示すものとする。 In addition, although extraction of the correlation feature-value regarding the change along a horizontal direction is demonstrated in FIG. 8, the correlation feature-value with respect to the change along a vertical direction is also extracted by the same method. Further, F i (x) shown below indicates the component signal value of the x-th pixel (i = 0 to 31, x = 0 to 31) in the i-th row, and F j (x) indicates the component signal value in the j-th row. The component signal value of x pixel (i = 0-31, x = 0-31) shall be shown.

最初に、エッジ特徴量抽出手段44において算出された縦エッジ画像を用いて、縦エッジ画像の各行に沿った成分信号値F(x)、F(x)の変化を規格化する(ステップST1)。具体的には、成分信号値F(x)と平均値Fとの差分を標準偏差δで割り、規格化された成分信号値F’(x)が求められる。 First, using the vertical edge image calculated by the edge feature quantity extraction means 44, the change of the component signal values F i (x) and F j (x) along each row of the vertical edge image is normalized (step ST1). Specifically, the difference between the component signal value F i (x) and the average value F i is divided by the standard deviation δ i to obtain a normalized component signal value F i ′ (x).

’(x)=(F(x)−F)/δ
同様に、j行の成分信号値F(x)と平均値Fとの差分を標準偏差δで割り、規格化された成分信号値F’(x)が求められる。
F i ′ (x) = (F i (x) −F i ) / δ i
Similarly, the difference between the component signal value F j (x) of j rows and the average value F j is divided by the standard deviation δ i to obtain a normalized component signal value F i ′ (x).

’(x)=(F(x)−F)/δ
このように、成分信号値を規格化して相関特徴量を求めるのは、各行間における変動幅や平均値の違いを排除して、変動パターン自体の相互相関性を示す相関特徴量を導出するためである。なお、F(x)、F(x)が一定値であり標準偏差が0の場合は、F’(x)=0(一定)、F’(x)=0(一定)とする。
F j ′ (x) = (F j (x) −F j ) / δ j
As described above, the correlation feature value is obtained by normalizing the component signal value in order to derive the correlation feature value indicating the cross-correlation of the variation pattern itself by eliminating the difference in the fluctuation range and the average value between the rows. It is. When F i (x) and F j (x) are constant values and the standard deviation is 0, F i ′ (x) = 0 (constant) and F j ′ (x) = 0 (constant). To do.

そして、異なる2行(第i行と第j行)の組合せについて、これら2行に関する規格化された成分信号値F’(x)およびF’(x)を用いて、相互相関関数

Figure 2005063309
Then, with respect to the combination of two different rows (i-th row and j-th row), the cross-correlation function is obtained using the normalized component signal values F i ′ (x) and F j ′ (x) regarding these two rows
Figure 2005063309

が導出される(ステップST2)。この相互相関関数は、概念的に言えば、図9の(a)に示すように、2行の規格化された成分信号値F’(x)およびF’(x)をd画素分だけずらして掛け合わせ、その総和を取るものである。すると、図9の(b)に示すような、dの関数としての相互相関関数Gij(d)が得られる。 Is derived (step ST2). Conceptually, the cross-correlation function is obtained by dividing the two component normalized component signal values F i ′ (x) and F j ′ (x) by d pixels as shown in FIG. Multiply them by shifting and take the sum. Then, a cross-correlation function G ij (d) as a function of d as shown in FIG. 9B is obtained.

次に、算出した相互相関関数Gij(d)にd=0〜31に代入したときの相関値の中から最大相関値が算出される(ステップST3)。

Figure 2005063309
Next, the maximum correlation value is calculated from the correlation values obtained when d = 0 to 31 is substituted into the calculated cross-correlation function G ij (d) (step ST3).
Figure 2005063309

この作業を全ての2行の組み合わせについて最大相関値が算出される(ステップST1〜ステップST4)。ここでは、32画素×32画素のブロック領域においては、0行〜31行の全ての組み合わせの最大相関値が算出される。そして、算出された全ての最大相関値の平均値および標準偏差が算出されて、この平均値および標準偏差が相関特徴量とされる(ステップST5)。   In this operation, the maximum correlation value is calculated for all combinations of two rows (step ST1 to step ST4). Here, in the block region of 32 pixels × 32 pixels, the maximum correlation value of all combinations of the 0th to 31st rows is calculated. Then, an average value and a standard deviation of all the calculated maximum correlation values are calculated, and the average value and the standard deviation are set as correlation feature amounts (step ST5).

同様に、縦方向に沿った変化に関する最大相関値の平均値および標準偏差が相関特徴量として算出される(ステップST1〜ステップST5)。   Similarly, the average value and the standard deviation of the maximum correlation values related to changes along the vertical direction are calculated as correlation feature amounts (steps ST1 to ST5).

上述したように算出された相関特徴量は、オブジェクトを構成するブロック領域BRに規則的なパターンがあるかどうかを示すものであり、最大相関値の平均値が大きく標準偏差の小さくなればなるほど、規則的なパターンが形成されていることを意味する。一般的に撮影された画像に含まれる自然物は規則的なパターン、連続的なパターン、周期的なパターンは少なく、ランダムなパターンにより構成されていることが多い。一方、ビルや石畳等の人工物は規則的なパターン等により構成されていることが多い。そこで、オブジェクトを構成するブロック領域BRが規則的なパターンを構成しているか否かを示す相関特徴量を抽出することにより、ブロック領域BRが人工的に作られた建造物等の画像の一部であるのか、自然物の画像の一部であるのかを判断することができる。   The correlation feature amount calculated as described above indicates whether or not there is a regular pattern in the block region BR constituting the object. The larger the average value of the maximum correlation values is and the smaller the standard deviation is, It means that a regular pattern is formed. In general, natural objects included in captured images have few regular patterns, continuous patterns, and periodic patterns, and are often composed of random patterns. On the other hand, artifacts such as buildings and cobblestones are often composed of regular patterns. Therefore, a part of an image of a building or the like in which the block region BR is artificially created by extracting a correlation feature amount indicating whether or not the block region BR constituting the object forms a regular pattern. Or a part of an image of a natural object.

なお、相関特徴量抽出手段43は、単に規格化された成分信号値F’(x)、F’(x)の積の総和の平均値および標準偏差を相関特徴量として抽出してもよいが、上述のように、相互相関関数の最大値の平均値および標準偏差を相関特徴量として用いれば、たとえば斜め方向に規則的な模様や波紋が撮影されたブロック領域BRについても、そのパターンの規則性を示す適当な相関特徴量を導出できるようになり、ブロック領域の相関に関する特徴量を正確に表した相関特徴量の抽出を行うことができる。ここで、1画素ずつ画素ライン画素ラインをずらした場合(d=0,1,2,・・・31)について言及しているが、2画素分ずらす等の複数画素ずらしながら最大相関値を算出するようにしてもよい。 Note that the correlation feature quantity extraction unit 43 may simply extract the average value and the standard deviation of the sum of the normalized component signal values F i ′ (x) and F j ′ (x) as the correlation feature quantity. However, as described above, if the average value and the standard deviation of the maximum value of the cross-correlation function are used as the correlation feature amount, for example, the pattern of the block region BR in which a regular pattern or ripple is photographed in an oblique direction Accordingly, it is possible to derive an appropriate correlation feature amount indicating regularity of the block, and it is possible to extract a correlation feature amount that accurately represents the feature amount related to the correlation of the block region. Here, the case where the pixel line is shifted pixel by pixel (d = 0, 1, 2,... 31) is mentioned, but the maximum correlation value is calculated while shifting a plurality of pixels, such as shifting by two pixels. You may make it do.

エッジ特徴量抽出手段44は、ブロック領域BRのエッジ成分の特徴量を抽出するものである。具体的には、エッジ特徴量抽出手段44は、エッジ検出フィルター(図7参照)を用いて生成された縦エッジ画像および横エッジ画像について、それぞれの成分信号値の平均値および標準偏差を算出し、4個のエッジ特徴量を出力するものである。   The edge feature quantity extraction means 44 extracts the feature quantity of the edge component of the block area BR. Specifically, the edge feature quantity extraction unit 44 calculates an average value and a standard deviation of each component signal value for the vertical edge image and the horizontal edge image generated using the edge detection filter (see FIG. 7). Four edge feature values are output.

このように、エッジ成分の特徴量としてエッジ成分の平均値を用いることにより、自然物の中でもエッジの少ない「空」と自然物の中でもエッジの多い「水」や「植物」とを分類することができる。また、エッジ特徴量としてブロック領域BRの縦方向のエッジ成分と横方向のエッジ成分とを抽出することにより、たとえば「水」のように方向によってエッジ成分の特徴が異なるオブジェクトと、「植物」「花畑」等の縦方向および横方向において比較的均一なエッジを形成するオブジェクトとを分類することができる。   In this way, by using the average value of the edge component as the feature value of the edge component, it is possible to classify “sky” with few edges among natural objects and “water” and “plants” with many edges among natural objects. . Further, by extracting the vertical edge component and the horizontal edge component of the block region BR as edge feature amounts, for example, “water”, an object having different edge component characteristics depending on the direction, “plant”, “ Objects that form relatively uniform edges in the vertical and horizontal directions such as “flower garden” can be classified.

色特徴量抽出手段45は、ブロック領域BRの色特徴を示す色特徴量を抽出するものである。具体的には、色特徴量抽出手段45は、YCC表色系で表されたブロック領域BRを構成する32×32画素分の輝度成分(Y成分)および2つの色差成分(Cr、Cb)の各成分信号値の平均値および標準偏差を算出し、1のブロック領域から6個の色特徴量を抽出するものである。   The color feature amount extraction unit 45 extracts a color feature amount indicating the color feature of the block region BR. Specifically, the color feature amount extraction unit 45 includes a luminance component (Y component) for 32 × 32 pixels and two color difference components (Cr, Cb) constituting the block region BR expressed in the YCC color system. An average value and a standard deviation of each component signal value are calculated, and six color feature amounts are extracted from one block area.

なお、色特徴量抽出手段45は、RGB表色系からYCC表色系に変換された後に色特徴量が抽出するようにしているが、たとえばRGB表色系のまま各成分(RGB)について色特徴量を抽出するようにしてもよいし、画像変換手段41において、RGB表色系のブロック領域BRをLab表色系に変換して、Labの各成分について色特徴量を抽出するようにしてもよい。また、色特徴量抽出手段45は、各成分信号値の平均値と標準偏差とを色特徴量として抽出しているが、たとえば最大値や最小値、分位点等その他の代表値を色特徴量として用いてもよい。   Note that the color feature quantity extraction unit 45 extracts the color feature quantity after conversion from the RGB color system to the YCC color system. For example, the color feature quantity extraction unit 45 maintains the color for each component (RGB) in the RGB color system. The feature amount may be extracted, or the image conversion unit 41 may convert the RGB color system block area BR into the Lab color system and extract the color feature amount for each component of Lab. Also good. Further, the color feature quantity extraction means 45 extracts the average value and standard deviation of each component signal value as the color feature quantity. For example, other representative values such as the maximum value, the minimum value, and the quantile are used as the color feature. It may be used as a quantity.

したがって、特徴量抽出手段40は、ブロック領域BRから14個の特徴量を抽出するものであり、特徴ベクトル生成手段46は、抽出された14個の特徴量をベクトル成分とする14次元の特徴ベクトルを生成するようになっている。   Therefore, the feature quantity extraction unit 40 extracts 14 feature quantities from the block region BR, and the feature vector generation unit 46 uses a 14-dimensional feature vector having the extracted 14 feature quantities as vector components. Is supposed to generate.

次に、図1を参照してブロック領域識別手段30について説明する。ブロック領域識別手段30は、特徴ベクトルを用いて各ブロック領域BRの種類を識別するものである。具体的には、ブロック領域識別手段30は、種類毎に設けられた代表ベクトルを有する代表ベクトルデータベースDBと、代表ベクトルデータベースDBから特徴ベクトルに最も類似する勝者代表ベクトルを検索するベクトル検索手段50と、検索された勝者代表ベクトルの示す種類を出力する種類出力手段60とを有する。   Next, the block area identifying means 30 will be described with reference to FIG. The block area identification means 30 identifies the type of each block area BR using the feature vector. Specifically, the block area identification unit 30 includes a representative vector database DB having representative vectors provided for each type, and a vector search unit 50 for searching for a winner representative vector most similar to a feature vector from the representative vector database DB; And a type output means 60 for outputting the type indicated by the searched winner representative vector.

ここで、代表ベクトルデータベースDBは、図10に示すように、複数の代表ベクトルを2次元空間上に配列した構造を有し、各代表ベクトルの位置によって各種類が定められている。この代表ベクトルは、特徴ベクトルと同様に14次元のベクトルからなっている。そして、ベクトル検索手段50が、たとえば特徴ベクトルとのユーグリット距離が最も近い代表ベクトル(勝者代表ベクトル)検索し、種類出力手段60が検索された勝者代表ベクトルの属する種類をブロック領域BRの種類として出力するようになっている。   Here, as shown in FIG. 10, the representative vector database DB has a structure in which a plurality of representative vectors are arranged in a two-dimensional space, and each type is determined by the position of each representative vector. This representative vector is a 14-dimensional vector, similar to the feature vector. Then, for example, the vector search means 50 searches for a representative vector (winner representative vector) having the closest Eugrid distance to the feature vector, and the kind output means 60 sets the kind to which the searched winner representative vector belongs as the kind of the block area BR. It is designed to output.

なお、図10において代表ベクトルデータベースDBの代表ベクトルは2次元空間上に図示しているが複数の代表ベクトルを有していればよく、この場合には、各種類(各クラス)に対して代表ベクトルの箱を適当な数だけ用意しておき、複数の箱にある代表ベクトルから勝者代表ベクトルを検索することとなる。   In FIG. 10, the representative vector of the representative vector database DB is shown in a two-dimensional space, but it is sufficient that the representative vector has a plurality of representative vectors. In this case, the representative vector is represented for each type (each class). An appropriate number of vector boxes are prepared, and a winner representative vector is searched from representative vectors in a plurality of boxes.

図10に示すような代表ベクトルは、以下に示す学習ベクトル量子化アルゴリズム(Learning Vector Quantization:LVQ)(参考文献:谷萩、萩原、山口「ニューラルネットワークとファジィ信号処理」コロナ社、1998)を用いて学習されたものである。具体的には、最初に各種類毎に初期値がランダムに設定された複数の代表ベクトルがマトリックス状に配列されている。この状態で、予め種類のわかっている特徴ベクトルがベクトル検索手段50に入力されると、代表ベクトルデータベースDBから勝者代表ベクトルが検索される。   The representative vector as shown in FIG. 10 uses a learning vector quantization algorithm (LVQ) (reference documents: Tanibe, Sugawara, Yamaguchi “Neural network and fuzzy signal processing” Corona, 1998). Learned. Specifically, first, a plurality of representative vectors whose initial values are set at random for each type are arranged in a matrix. In this state, when a feature vector whose type is known in advance is input to the vector search means 50, a winner representative vector is searched from the representative vector database DB.

このとき、特徴ベクトルの種類と勝者代表ベクトルの種類が同じものである場合、勝者代表ベクトルが特徴ベクトルからの距離が近づくように修正される。一方、特徴ベクトルの種類と勝者代表ベクトルの種類が異なるものである場合、勝者代表ベクトルが特徴ベクトルから距離が遠くなるように修正される。ここで修正される代表ベクトルは勝者代表ベクトルのみである。この学習工程を繰り返すことにより、各種類毎の代表ベクトルについて学習されていくことになる。   At this time, when the type of the feature vector and the type of the winner representative vector are the same, the winner representative vector is corrected so that the distance from the feature vector is closer. On the other hand, when the type of the feature vector and the type of the winner representative vector are different, the winner representative vector is corrected so that the distance from the feature vector is longer. The representative vector modified here is only the winner representative vector. By repeating this learning process, the representative vector for each type is learned.

なお、図10において、LVQ1のアルゴリズムの場合について例示しているがLVQ2のアルゴリズムを用いてもよい。LVQ2はLVQ1を改良したものであって、上述したLVQ1において各種類の境界を線で表したものが、LVQ2においてはこの線がある線幅を持った領域(窓領域)で表される。そして、代表ベクトル検索手段50が勝者代表ベクトルを検索する際には、最も類似する代表ベクトルと2番目に特徴ベクトルに類似する代表ベクトルとの2つの勝者代表ベクトルが抽出される。そして、抽出された2つの代表ベクトルのうち、いずれか一方の種類(クラス)が特徴ベクトルと同じ種類であり、他方の種類(クラス)が特徴ベクトルの種類と異なるとき、同じ種類の代表ベクトルは特徴ベクトルに近づくように修正されるとともに、異なる代表ベクトルは特徴ベクトルから遠ざかるように修正される。これにより、LVQ1の学習工程において誤認識が生じたとき、すなわち勝つはずのない勝者代表ベクトルがわずかな差で勝者代表ベクトルになってしまった場合に対して、正しい学習を行うことができるようになり、より精度の高い分類を可能として代表ベクトルの学習を行うことができる。   10 illustrates the case of the LVQ1 algorithm, the LVQ2 algorithm may be used. LVQ2 is an improved version of LVQ1. In LVQ1, the boundary of each type is represented by a line. In LVQ2, this line is represented by an area having a certain line width (window area). When the representative vector search means 50 searches for a winner representative vector, two winner representative vectors, ie, the most similar representative vector and the second most similar representative vector, are extracted. Of the two extracted representative vectors, when one of the types (classes) is the same type as the feature vector and the other type (class) is different from the type of the feature vector, the same type of representative vector is The feature vector is modified so as to approach the feature vector, and the different representative vector is modified to move away from the feature vector. Thereby, when erroneous recognition occurs in the learning process of LVQ1, that is, when the winner representative vector that should not win becomes a winner representative vector with a slight difference, correct learning can be performed. Thus, it is possible to learn representative vectors by enabling classification with higher accuracy.

さらに、LVQ2のアルゴリズムを改良したLVQ3のアルゴリズムを用いるようにしてもよい。このLVQ3は、LVQ2において学習が進んだときに正しい種類(クラス)に対して代表ベクトルが遠ざかるという問題点を解決したものであり、窓領域内の代表ベクトルが勝者代表ベクトルとなった場合であって、LVQ2における学習工程に加えて、2つの勝者代表ベクトルの種類(クラス)と特徴ベクトルの種類(クラス)とがすべて同じである場合には、2つの勝者代表ベクトルを特徴ベクトルに近づけるように修正するものである。これにより、代表ベクトルの学習が進んだ際にもより精度の高い分類を可能として代表ベクトルの学習を行うことができる。   Furthermore, an LVQ3 algorithm obtained by improving the LVQ2 algorithm may be used. This LVQ3 solves the problem that the representative vector moves away from the correct type (class) when learning progresses in LVQ2, and this is the case where the representative vector in the window area becomes the winner representative vector. In addition to the learning process in LVQ2, when the two winner representative vector types (class) and the feature vector type (class) are all the same, the two winner representative vectors are brought closer to the feature vector. It is to be corrected. Thereby, even when the learning of the representative vector advances, the classification can be performed with higher accuracy, and the learning of the representative vector can be performed.

さらに、代表ベクトル検索手段50は、勝者代表ベクトルと特徴ベクトルとの距離を比較し、距離が設定しきい値よりも大きいときには、種類出力手段60がブロック領域BRの種類は不明である旨の出力を行うようになっている。具体的には、図11は特徴ベクトルの種類を出力する際の一例を示すフローチャートである。まず、学習済の複数の代表ベクトルと特徴ベクトルとが比較されて、特徴ベクトルとのユークリッド距離が最も小さい代表ベクトルが勝者代表ベクトルとして特定される(ステップST10)。   Further, the representative vector search means 50 compares the distance between the winner representative vector and the feature vector, and when the distance is larger than the set threshold value, the type output means 60 outputs that the type of the block region BR is unknown. Is supposed to do. Specifically, FIG. 11 is a flowchart illustrating an example when outputting the types of feature vectors. First, the plurality of learned representative vectors are compared with the feature vector, and the representative vector having the smallest Euclidean distance from the feature vector is specified as the winner representative vector (step ST10).

次に、勝者代表ベクトルと特徴ベクトルとのユークリッド距離が算出されて(ステップST11)、算出された距離が所定のしきい値と比較される(ステップST12)。その結果、このユークリッド距離がしきい値以下である場合には勝者代表ベクトルの属する種類が現在のブロック領域の種類として特定される(ステップST13)。   Next, the Euclidean distance between the winner representative vector and the feature vector is calculated (step ST11), and the calculated distance is compared with a predetermined threshold (step ST12). As a result, when the Euclidean distance is equal to or smaller than the threshold value, the type to which the winner representative vector belongs is specified as the type of the current block area (step ST13).

一方、勝者代表ベクトルと特徴ベクトルとのユークリッド距離がしきい値より大きい場合には、ブロック領域BRの種類は不明であると判断されて、不明である旨が出力される(ステップST14)。このように、設定しきい値を用いることにより、2次元空間が予め学習していないような画像が入力された場合にもいわばむりやりに種類を識別する事態を回避できるので、種類の候補の識別結果に対する信頼性を高めることができる。つまり、種類が不明ではなく所定の種類として識別されたことは、一定の確実性をもって識別されたことを意味するため、種類の識別の信頼性を高める結果となる。   On the other hand, when the Euclidean distance between the winner representative vector and the feature vector is larger than the threshold value, it is determined that the type of the block area BR is unknown, and the fact that it is unknown is output (step ST14). In this way, by using the set threshold value, it is possible to avoid a situation where the type is identified with difficulty even when an image is input in which the two-dimensional space has not been learned in advance. Reliability of the results can be increased. That is, the fact that the type is not unknown but has been identified as a predetermined type means that the type has been identified with a certain degree of certainty, resulting in an increase in the reliability of type identification.

ここで、設定しきい値には、一定の設定しきい値を定めてもよいが、好ましくは勝者代表ベクトルの近傍領域内にある複数の代表ベクトルのうち勝者代表ベクトルとの距離が最も大きい代表ベクトルと勝者代表ベクトルとの距離が用いられる。これは、学習内容の偏りや各種類の画像の多様性の違いによって生じる各代表ベクトルの「守備範囲」の相違をしきい値に反映させるためである。   Here, a fixed threshold value may be set as the set threshold value, but preferably the representative having the largest distance from the winner representative vector among a plurality of representative vectors in the vicinity region of the winner representative vector. The distance between the vector and the winner representative vector is used. This is to reflect the difference in the “defense range” of each representative vector caused by the deviation of the learning contents and the difference in the diversity of each type of image in the threshold value.

なお、上述した最大値に代えて平均値等をしきい値として用いてもよいし、近傍領域の大きさも3×3に限られず、たとえば5×5の近傍領域からしきい値を算出するようにしてもよい。あるいは、近傍領域内にある代表ベクトルのベクトル長の標準偏差等を基準にしてもよい。   Note that an average value or the like may be used as the threshold value instead of the maximum value described above, and the size of the neighborhood region is not limited to 3 × 3, and for example, the threshold value is calculated from the neighborhood region of 5 × 5. It may be. Alternatively, the standard deviation or the like of the vector length of the representative vector in the vicinity region may be used as a reference.

図12は本発明のオブジェクト識別方法の好ましい実施の形態を示すフローチャート図であり、図1から図12を参照してオブジェクト識別方法(ステップST20〜ステップST27)について説明する。   FIG. 12 is a flowchart showing a preferred embodiment of the object identification method of the present invention. The object identification method (step ST20 to step ST27) will be described with reference to FIGS.

まず、オブジェクト領域生成手段20により入力された画像をオブジェクト毎に領域分割したオブジェクト領域ORが生成される(図2〜図5参照)。一方、ブロック領域生成手段10により入力された画像を設定画素数(たとえば32×32画素)からなる、オブジェクト領域ORより小さい複数のブロック領域BRが生成される(ステップST20)。次に、特徴量抽出手段40により、ブロック領域BRから複数の特徴量が抽出されて(図6〜図9参照)(ステップST21)、特徴ベクトル生成手段46により14次元の特徴ベクトルが生成される(ステップST22)。   First, an object area OR is generated by dividing the image input by the object area generation means 20 into areas for each object (see FIGS. 2 to 5). On the other hand, a plurality of block regions BR having an image input by the block region generating means 10 and having a set number of pixels (for example, 32 × 32 pixels) and smaller than the object region OR are generated (step ST20). Next, a plurality of feature amounts are extracted from the block region BR by the feature amount extraction unit 40 (see FIGS. 6 to 9) (step ST21), and a 14-dimensional feature vector is generated by the feature vector generation unit 46. (Step ST22).

その後、ブロック領域識別手段30において、生成した特徴ベクトルを用いてブロック領域BRの種類が識別される(図10参照)。具体的には、代表ベクトル検索手段50により、代表ベクトルデータベースDBの中から勝者代表ベクトルが検索される(ステップST23)。そして、勝者代表ベクトルの属する種類がブロック領域BRの種類であると判断されて(図11参照)、種類出力手段60から出力される(ステップST24)。この作業がすべてのブロック領域BRについて行われる(ステップST21〜ステップST25)。   Thereafter, the block area identification means 30 identifies the type of the block area BR using the generated feature vector (see FIG. 10). Specifically, the representative vector search means 50 searches for the winner representative vector from the representative vector database DB (step ST23). Then, it is determined that the type to which the winner representative vector belongs is the type of the block area BR (see FIG. 11), and is output from the type output means 60 (step ST24). This operation is performed for all the block areas BR (step ST21 to step ST25).

その後、オブジェクト識別手段70において、各オブジェクト領域OR毎に付与された種類を集計する(ステップST26)。そして、最も多い種類がそのオブジェクト領域ORの種類として出力される(ステップST27)。   Thereafter, in the object identification means 70, the types assigned to each object area OR are totaled (step ST26). The most common type is output as the type of the object area OR (step ST27).

上記実施の形態によれば、オブジェクト領域ORの種類の識別にブロック領域BRを使用することにより、各画素毎に種類を識別する場合に比べて、像構造的特徴をオブジェクト領域ORの種類の判断に加えることができるため、オブジェクトの種類を正確に識別することができる。   According to the above-described embodiment, by using the block region BR for identifying the type of the object region OR, it is possible to determine the image structural feature by determining the type of the object region OR compared to the case of identifying the type for each pixel. Therefore, the object type can be accurately identified.

また、各ブロック領域BR毎にそれぞれ種類を識別し、ブロック領域BRの種類を各オブジェクト領域OR毎に集計してオブジェクト領域ORの種類を識別することにより、オブジェクト領域ORの一部のブロック領域BRに本来の種類に識別されなかったものがあったとしても、その誤った認識を吸収してオブジェクトの種類を正確かつ自動的に識別することができる。   Further, by identifying the type for each block area BR, the types of the block area BR are aggregated for each object area OR, and the type of the object area OR is identified to thereby identify a part of the block area BR of the object area OR. Even if there is something that was not identified as the original type, it is possible to absorb the erroneous recognition and identify the type of the object accurately and automatically.

また、特徴量抽出手段40が、画像の各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出する相関特徴量抽出手段43を含む構成にすれば、相関特徴量により人工物に多く見られる規則的なパターンを有する画像と、自然物に多く見られるランダムなパターンを有する画像とを区別する指標となる特徴量を抽出することができるため、適切な種類の識別を行うことができる。   In addition, the feature amount extraction unit 40 includes a correlation feature amount extraction unit 43 that extracts a correlation feature amount indicating the degree of regularity of change along one direction of the component signal value assigned to each pixel of the image. By doing so, it is possible to extract a feature value that serves as an index for distinguishing between an image having a regular pattern often found in artifacts and an image having a random pattern often found in natural objects due to the correlation feature value. Appropriate types of identification can be made.

さらに、相関特徴量抽出手段が、画像の縦方向に沿った相関特徴量と、画像の横方向に沿った相関特徴量とを抽出するようにすれば、縦方向および横方向に向かって規則的なパターンが形成されたものと、縦方向もしくは横方向のいずれか一方に向かって規則的なパターンが形成されたものとを区別することができる。   Further, if the correlation feature quantity extraction means extracts the correlation feature quantity along the vertical direction of the image and the correlation feature quantity along the horizontal direction of the image, the correlation feature quantity extraction means regularly in the vertical direction and the horizontal direction. Can be distinguished from those in which a regular pattern is formed and those in which a regular pattern is formed in either the vertical direction or the horizontal direction.

また、相関特徴量抽出手段が、2つの画素ラインのいずれか一方を1画素ずつ画素ラインの形成方向にずらしながら画素の成分信号値を所定の相互相関関数に入力することにより算出される複数の相関値のうち最も大きい最大相関値を用いて相関特徴量を算出するようにすれば、画像の縦方向もしくは横方向に向かって形成された規則的なパターンのみならず、画像の斜め方向に向かって形成されている規則的なパターンについても相関特徴量として抽出することができるため、画像の縦方向、横方向および斜め方向に向かって形成される規則的なパターンを相関特徴量として抽出することができる。   Further, the correlation feature amount extraction means calculates a plurality of values calculated by inputting the component signal value of the pixel to a predetermined cross-correlation function while shifting one of the two pixel lines one pixel at a time in the pixel line formation direction. If the correlation feature value is calculated using the largest correlation value among the correlation values, not only the regular pattern formed in the vertical or horizontal direction of the image but also the diagonal direction of the image. Therefore, regular patterns formed in the vertical, horizontal, and diagonal directions of images can be extracted as correlation features. Can do.

さらに、エッジ特徴量抽出手段44が、画像の縦方向および横方向のエッジ成分の平均値および標準偏差をそれぞれ算出するようにすれば、たとえば「水(波)」のように縦方向と横方向によってエッジが異なるものと、「植物(花畑等)」の縦方向と横方向とで比較的均質なエッジのものとがエッジ特徴量によって区別することができる。   Further, if the edge feature quantity extraction unit 44 calculates the average value and standard deviation of the edge components in the vertical and horizontal directions of the image, respectively, the vertical and horizontal directions such as “water (wave)”, for example. Depending on the edge feature, it is possible to distinguish between those having different edges and those having relatively uniform edges in the vertical and horizontal directions of “plants (flower gardens, etc.)”.

また、ブロック領域識別手段30が、ブロック領域BRの種類毎に生成された複数の代表ベクトルを記憶した代表ベクトルデータベースDBと、代表ベクトルデータベースDBの複数の代表ベクトルのうち、特徴ベクトルに最も類似する勝者代表ベクトルを検索する代表ベクトル検索手段と、代表ベクトル検索手段50により検索された勝者代表ベクトルが示す種類を出力する種類出力手段とを備えた構成にすれば、精度よく種類の識別を行うことができる。   Further, the block area identification unit 30 is most similar to the feature vector among the representative vector database DB storing a plurality of representative vectors generated for each type of the block area BR and the plurality of representative vectors of the representative vector database DB. If the configuration includes a representative vector search means for searching for the winner representative vector and a type output means for outputting the type indicated by the winner representative vector searched by the representative vector search means 50, the type can be identified with high accuracy. Can do.

さらに、代表ベクトルが、予め種類のわかっている特徴ベクトルを用いて勝者代表ベクトルを検索し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが異なるときに、勝者代表ベクトルと特徴ベクトルとの距離が遠くなるように学習し、特徴ベクトルの種類と勝者代表ベクトルの示す種類とが同じになるときに、勝者代表ベクトルと特徴ベクトルとの距離が近くなるように学習して得られたものであるときには、精度のよい代表ベクトルを用いて種類の識別を行うことができる。   Furthermore, when the representative vector searches for the winner representative vector using a feature vector whose type is known in advance, and the type of the feature vector is different from the type indicated by the winner representative vector, the distance between the winner representative vector and the feature vector Is obtained by learning so that the distance between the winner representative vector and the feature vector is close when the type of the feature vector and the type indicated by the winner representative vector are the same. Sometimes it is possible to identify the type using a representative vector with high accuracy.

また、代表ベクトルデータベースDBが、代表ベクトルを2次元空間に配列した構造を有し、勝者代表ベクトルの近傍領域にある代表ベクトルが勝者代表ベクトルと同じように学習されたものであれば、同じオブジェクト領域ORに含まれる様々なバリエーションの特徴ベクトルに対応できるような代表ベクトルを生成することができるため、種類の識別の精度を向上させることができる。   In addition, if the representative vector database DB has a structure in which representative vectors are arranged in a two-dimensional space and the representative vectors in the vicinity area of the winner representative vector are learned in the same manner as the winner representative vector, the same object Since a representative vector that can correspond to various variation feature vectors included in the region OR can be generated, the accuracy of type identification can be improved.

さらに、ベクトル検索手段50が、特徴ベクトルと勝者代表ベクトルとの距離を検出し、検出された距離が設定しきい値よりも小さいときには勝者代表ベクトルがないと判断するものであり、種類出力手段が、勝者代表ベクトルがないと判断されたときには種類が不明である旨の出力を行うようにすれば、最大成分が低い種類の識別の信頼度が低いものは、種類の識別を行わずに不明とすることができるため、種類識別の信頼性を高めることができる。   Further, the vector search means 50 detects the distance between the feature vector and the winner representative vector, and determines that there is no winner representative vector when the detected distance is smaller than the set threshold value. If it is determined that the type is unknown when it is determined that there is no winner representative vector, if the reliability of identification of the type having a low maximum component is low, the type is not identified without identifying the type. Therefore, the reliability of type identification can be improved.

また、設定しきい値が、勝者代表ベクトルの近傍領域内にある複数の代表ベクトルのうち勝者代表ベクトルとの距離が最も大きい代表ベクトルと勝者代表ベクトルとの距離にすると、学習内容の偏りや各種類の画像の多様性の違いによって生じる勝者代表ベクトルの各位置における種類識別の信頼性の相違を設定しきい値に反映させることができる。   In addition, when the set threshold is the distance between the representative vector having the largest distance from the winner representative vector among the plurality of representative vectors in the neighborhood area of the winner representative vector and the winner representative vector, It is possible to reflect the difference in the reliability of type identification at each position of the winner representative vector caused by the difference in variety of types of images in the set threshold value.

なお、本発明の実施の形態は、上記実施の形態に限定されない。たとえば以下に示すような種々の変更が可能である。たとえば図1において、ブロック領域生成手段10により生成されたブロック領域BRをそのままブロック領域識別手段30に送るようにしているが、ブロック領域BR毎の判定結果に対してたとえばモフォロジー処理やClosing演算等の平滑化処理を行った後にブロック領域識別手段30に送るようにしてもよい。これにより、ブロック領域BR内に含まれる孤立したノイズ的な要素が切り捨てられて、種類識別の精度の向上を図ることができる。   The embodiment of the present invention is not limited to the above embodiment. For example, various modifications as shown below are possible. For example, in FIG. 1, the block area BR generated by the block area generation means 10 is sent as it is to the block area identification means 30. For the determination result for each block area BR, for example, morphological processing, closing operation, etc. You may make it send to the block area | region identification means 30 after performing a smoothing process. As a result, the isolated noisy elements included in the block region BR are discarded, and the accuracy of type identification can be improved.

さらに、図13は本発明のオブジェクト識別装置の別の実施の形態を示す模式図である。上述した図10に示す代表ベクトルの学習工程において、勝者代表ベクトルのみが修正されているが、図13においては、勝者代表ベクトルのみならずその近傍の代表ベクトルも修正するようになっている。つまり、通常のLVQアルゴリズムにおいては、近傍関数は使用されず、また代表ベクトルの数を少なくするのが一般的である。一方、画像の種類を識別する場合、同じオブジェクトでも様々なバリエーションがあり、このバリエーションに合わせたあらゆるものを学習サンプルとして用意するのは困難である。よって、あるオブジェクトの種類については学習しているが、そのオブジェクトの学習サンプルとして用いていない特徴ベクトルが入力されたときであっても、種類の識別を行うことができることが望ましい。   Further, FIG. 13 is a schematic diagram showing another embodiment of the object identification device of the present invention. In the representative vector learning step shown in FIG. 10 described above, only the winner representative vector is corrected. However, in FIG. 13, not only the winner representative vector but also a representative vector in the vicinity thereof is corrected. That is, in the normal LVQ algorithm, the neighborhood function is not used, and the number of representative vectors is generally reduced. On the other hand, when identifying the type of an image, there are various variations even for the same object, and it is difficult to prepare everything according to these variations as a learning sample. Therefore, it is desirable that the type of an object is learned, but the type can be identified even when a feature vector that is not used as a learning sample for the object is input.

そこで、勝者代表ベクトルとともにたとえばその3×3の近傍領域の代表ベクトルを更新するように、LVQの更新量に自己組織化マップに用いられる近傍関数が掛け合わせる。具体的には、勝者代表ベクトルが正しい種類(クラス)に属するものであれば、勝者代表ベクトルの近傍領域の代表ベクトルが特徴ベクトルに近づける方向に修正される。一方、勝者代表ベクトルが誤った種類(クラス)に属するものであれば、勝者代表ベクトルの近傍領域の代表ベクトルが特徴ベクトルから遠ざかる方向に修正される。これにより、学習したサンプルに類似したブロック領域BRの識別のみならず、学習サンプルの種類の様々なバリエーションに対応した種類の識別を行うことができる。   Therefore, the LVQ update amount is multiplied by the neighborhood function used for the self-organizing map so that the representative vector of the 3 × 3 neighborhood region is updated together with the winner representative vector. Specifically, if the winner representative vector belongs to the correct type (class), the representative vector in the vicinity region of the winner representative vector is corrected so as to approach the feature vector. On the other hand, if the winner representative vector belongs to the wrong type (class), the representative vector in the vicinity region of the winner representative vector is corrected in a direction away from the feature vector. Thereby, not only identification of the block region BR similar to the learned sample but also identification of types corresponding to various variations of the types of learning samples can be performed.

図14は本発明のオブジェクト識別装置におけるブロック領域識別手段を示す第3の実施の形態を示す模式図である。図14において、代表ベクトルデータベースDBには、代表ベクトルを配置した2次元空間が階層構造を有している。具体的には、代表ベクトルデータベースDBは、ブロック領域BRのカテゴリーを分類するためのカテゴリーマップCMと、ブロック領域BRの種類を識別するための種類マップKMとを有する。   FIG. 14 is a schematic diagram showing a third embodiment showing a block area identifying means in the object identifying apparatus of the present invention. In FIG. 14, in the representative vector database DB, a two-dimensional space in which representative vectors are arranged has a hierarchical structure. Specifically, the representative vector database DB includes a category map CM for classifying the category of the block region BR and a type map KM for identifying the type of the block region BR.

カテゴリーマップCMは、2次元空間上の各領域毎にそれぞれカテゴリーCA1〜CA4が定められた構造を有し、各カテゴリーCA1〜CA4には複数の分類用代表ベクトルが配置されている。また、カテゴリーCA1は種類マップKM1、カテゴリーCA2は種類マップKM2、カテゴリーCA3は種類マップKM3、カテゴリーCA4は種類マップKM4とそれぞれ関連づけされている。また、各種類マップKM1〜KM4は、それぞれ2次元空間上の各領域毎にそれぞれ種類KI11〜KI44が定められた構造を有し、各種類KI11〜KI44には複数の識別用代表ベクトルが配置されている。   The category map CM has a structure in which categories CA1 to CA4 are defined for each region in the two-dimensional space, and a plurality of classification representative vectors are arranged in each category CA1 to CA4. The category CA1 is associated with the type map KM1, the category CA2 is associated with the type map KM2, the category CA3 is associated with the type map KM3, and the category CA4 is associated with the type map KM4. Each type map KM1 to KM4 has a structure in which types KI11 to KI44 are defined for each region in the two-dimensional space, and a plurality of identification representative vectors are arranged in each type KI11 to KI44. ing.

具体的には、たとえばカテゴリーマップCMのカテゴリーCA1が「空」、カテゴリーCA2が「植物」、カテゴリーCA3が「水」、カテゴリーCA4「地面」に設定されているとする。すると、カテゴリーCA1に関連付けされた種類マップKM1の種類は、種類KI11が「青空」、種類KI12が「曇り空」、種類KI13が「夕空」、種類KI14が「夜空」というように、カテゴリーCA1に属する種類が割り当てられている。   Specifically, for example, it is assumed that the category CA1 of the category map CM is set to “sky”, the category CA2 is “plant”, the category CA3 is “water”, and the category CA4 is “ground”. Then, the type map KM1 associated with the category CA1 belongs to the category CA1 such that the type KI11 is “blue sky”, the type KI12 is “cloudy sky”, the type KI13 is “evening sky”, and the type KI14 is “night sky”. A type is assigned.

ここで、代表ベクトル検索手段50は、カテゴリーマップCMにおいては、相関特徴量およびエッジ特徴量を用いてカテゴリーの分類を行い、種類マップKMにおいては、色特徴量を用いて種類の識別を行うようになっている。したがって、特徴ベクトル生成手段46においては、相関特徴量およびエッジ特徴量をベクトル成分とする第1特徴ベクトルCB1と、色特徴量を特徴ベクトルとする第2特徴ベクトルCB2とが生成されることになる。また、種類出力手段60は、勝者代表ベクトルの属する種類を出力するとともに、分類されたカテゴリーをも出力するようになっている。   Here, the representative vector search means 50 classifies the category using the correlation feature quantity and the edge feature quantity in the category map CM, and identifies the type using the color feature quantity in the type map KM. It has become. Therefore, the feature vector generation means 46 generates the first feature vector CB1 having the correlation feature quantity and the edge feature quantity as vector components, and the second feature vector CB2 having the color feature quantity as the feature vector. . The type output means 60 outputs the type to which the winner representative vector belongs and also outputs the classified category.

このように、異なる特徴量を利用して階層的にブロック領域BRの種類を識別することにより、LVQにおいて用いられる代表ベクトルを低次元に抑えることができるため、効率的に精度よく種類の識別を行うことができる。また、種類出力手段60が、検索された分類用勝者代表ベクトルの示すカテゴリーと識別用勝者代表ベクトルの示す種類とを出力するようにすれば、オブジェクト領域ORの識別の際に、ブロック領域の種類とともにカテゴリーをも加味した識別を行うことができるとともに、ユーザにオブジェクト領域ORのカテゴリーに関する情報も提供することができる。   In this way, the representative vectors used in the LVQ can be suppressed to a low dimension by hierarchically identifying the types of the block regions BR using different feature amounts, so that the types can be identified efficiently and accurately. It can be carried out. Further, if the type output means 60 outputs the category indicated by the searched classification representative representative vector and the type indicated by the identification winner representative vector, the type of block area is identified when identifying the object area OR. At the same time, it is possible to identify the category in consideration of the category, and to provide the user with information related to the category of the object area OR.

図15は本発明のオブジェクト識別装置におけるブロック領域生成手段を示す第4の実施の形態を示すブロック図である。図15におけるブロック領域生成手段が、画像をメッシュ状に区切った複数の第1ブロック領域と、複数の第1ブロック領域とメッシュ状に区切る位相をずらした第2ブロック領域とを生成する機能を有するものである。   FIG. 15 is a block diagram showing a fourth embodiment showing a block area generating means in the object identification device of the present invention. The block area generation means in FIG. 15 has a function of generating a plurality of first block areas obtained by dividing an image into a mesh shape and a plurality of first block areas and a second block area having a phase shifted in a mesh form. Is.

具体的には、上述したブロック領域生成手段はたとえば32画素×32画素からなる設定画素数のブロック領域BRをメッシュ状に機械的に区切って生成するものであるが(図15(a)参照)、さらに、図15(b)に示すような横方向および横方向に対して半ブロック分(16画素分)ずらしたメッシュ状のブロック領域BRを生成する機能を有している。そして、生成された図15(a)と図15(b)のブロック領域BRのうち、オブジェクト領域ORの境界を含まないブロック領域BRを用いて種類の識別が行われることとなる。   Specifically, the block area generating means described above generates, for example, a block area BR having a set number of pixels of 32 pixels × 32 pixels by mechanically dividing it into a mesh shape (see FIG. 15A). Furthermore, it has a function of generating a mesh-like block region BR shifted by a half block (16 pixels) with respect to the horizontal direction and the horizontal direction as shown in FIG. Then, among the generated block areas BR of FIGS. 15A and 15B, the type identification is performed using the block area BR that does not include the boundary of the object area OR.

このように、オブジェクト領域ORの種類の識別に用いられるブロック領域BRの数を増やすことにより、識別の精度を向上させることができる。すなわち、上述したように、オブジェクト領域ORの境界を含むブロック領域は、複数の領域の特徴が混在しているとともに境界のエッジも含まれることによる識別精度の低下を防止するために、オブジェクト領域ORの種類の集計に含まれていない。したがって、オブジェクト領域ORが小さい場合には生成されるブロック領域BRの数は少なくなり、複雑な形状のオブジェクト領域ORの場合には、他のオブジェクト領域ORとの境界が多くなるため、識別に用いられるブロック領域BRの数は少なくなる。このため、識別された種類は精度が低くなってしまい、特に、少し複雑な画像になると識別ができず多くのオブジェクト領域ORが不明であると判断されてしまう。   Thus, the accuracy of identification can be improved by increasing the number of block areas BR used for identifying the type of object area OR. In other words, as described above, the block area including the boundary of the object area OR has the object area OR in order to prevent a reduction in identification accuracy due to a mixture of features of a plurality of areas and an edge of the boundary. Not included in the type of aggregation. Therefore, when the object area OR is small, the number of block areas BR to be generated is small, and in the case of an object area OR having a complicated shape, the boundary with other object areas OR is increased. The number of block areas BR to be reduced is reduced. For this reason, the accuracy of the identified type is lowered, and in particular, if the image is a little complicated, it cannot be identified and it is determined that many object regions OR are unknown.

このとき、図15(a)、(b)に示すようなそれぞれ位相のずれたブロック領域BRを生成することにより、ブロック領域BRの形成位置を半ブロックずらせば、オブジェクト領域ORの境界を含まないブロック領域BRの生成を促進させることができる。このため、種類の識別に用いるブロック領域BRの数を増やすことができ、より正確な種類の識別を行うことができる。   At this time, if the block region BR is shifted by a half block by generating the block regions BR that are out of phase as shown in FIGS. 15A and 15B, the boundary of the object region OR is not included. The generation of the block region BR can be promoted. For this reason, the number of block regions BR used for type identification can be increased, and more accurate type identification can be performed.

なお、図15(b)においては、横方向および縦方向に対して半ブロック分ずらしたブロック領域BRを生成するようにしているが、図15(c)に示すような横方向にのみ半ブロック分(16画素分)ずらしたブロック領域BRを生成してもよいし、図15(d)に示すように縦方向にのみ半ブロック分ずらしたブロック領域BRを生成するようにしてもよい。また、ブロック領域識別手段30において、図15(a)〜図15(d)のブロック領域BRのすべてを用いてもよいし、ブロック領域BRのいずれかを組み合わせて用いるようにしてもよい。さらに、図15(a)〜図15(d)において、ブロック領域生成手段10は、半ブロック分ずらした場合について例示しているが、半ブロック分ずらす場合に限定されず、たとえば1/4ブロック分(8画素分)ずらす等の処理を行うようにしてもよい。   In FIG. 15B, the block region BR shifted by a half block with respect to the horizontal direction and the vertical direction is generated, but the half block only in the horizontal direction as shown in FIG. 15C. The block region BR shifted by the amount (16 pixels) may be generated, or the block region BR shifted by half a block only in the vertical direction may be generated as shown in FIG. Further, in the block area identification means 30, all of the block areas BR shown in FIGS. 15A to 15D may be used, or any one of the block areas BR may be used in combination. Further, in FIGS. 15A to 15D, the block region generation means 10 is illustrated as being shifted by a half block, but is not limited to shifting by a half block, for example, 1/4 block Processing such as shifting by a minute (8 pixels) may be performed.

図16は本発明のオブジェクト識別装置におけるブロック領域生成手段10を示す第5の実施の形態を示すブロック図である。図16のブロック領域生成手段10は、画像から解像度の異なる複数の解像度変換画像を生成する機能を有し、生成した複数の解像度変換画像から設定画素数からなるブロック領域を生成する機能を有するものである。具体的には、ブロック領域生成手段10は、全体画像に対してたとえばガウシアンピラミッドもしくはウェーブレット変換等の公知の解像度変換技術を施し、複数の解像度変換画像を生成する。そして、ブロック領域生成手段10は、生成した複数の解像度変換画像についてそれぞれ設定画素数毎にメッシュ状に区切ることにより、ブロック領域BRを生成していく。   FIG. 16 is a block diagram showing a fifth embodiment showing the block area generation means 10 in the object identification device of the present invention. 16 has a function of generating a plurality of resolution-converted images having different resolutions from an image, and a function of generating a block area having a set number of pixels from the generated resolution-converted images. It is. Specifically, the block area generation unit 10 performs a known resolution conversion technique such as a Gaussian pyramid or a wavelet transform on the entire image to generate a plurality of resolution conversion images. Then, the block area generation unit 10 generates the block area BR by dividing the generated plurality of resolution conversion images into meshes for each set number of pixels.

よって、ブロック領域BRは、図2(a)に示すように全体画像から生成されるとともに、図16(a)、(b)に示すように解像度の異なる全体画像から生成されることになる。そして、複数の解像度変換画像から生成されたブロック領域BR毎に種類の識別が行われるようになる。このとき、ブロック領域生成手段10は、設定画素数(たとえば32画素×32画素)の変更は行わない。これは、ブロック領域識別手段30において、特徴量に基づいて種類の識別を行う際に、学習した際のブロック領域BRの大きさと、識別する際のブロック領域の大きさが異なるのを防止するためである。   Therefore, the block region BR is generated from the entire image as shown in FIG. 2A, and is generated from the entire image having different resolutions as shown in FIGS. 16A and 16B. Then, type identification is performed for each block region BR generated from a plurality of resolution-converted images. At this time, the block area generation unit 10 does not change the number of set pixels (for example, 32 pixels × 32 pixels). This is to prevent the size of the block area BR at the time of learning from being different from the size of the block area at the time of identification when the block area identifying means 30 identifies the type based on the feature amount. It is.

このように、解像度の異なる解像度変換画像を用いてブロック領域BRを生成することにより、ブロック領域BRの種類の識別の精度を向上させることができる。すなわち、通常の全体画像において、同じ被写体を近くから撮影した画像と遠くから撮影した画像とでは被写体の写り方が異なる。近くから撮影した場合には被写体の種類が識別できなくても遠くから撮影した場合には被写体の種類が識別できる場合やその逆の場合がある。そこで、解像度変換画像を用いることにより、この写り方の違いによる精度の低下を防止してブロック領域BRの種類識別の精度を向上させることができる。   Thus, by generating the block area BR using resolution-converted images having different resolutions, it is possible to improve the accuracy of identifying the type of the block area BR. That is, in a normal whole image, the way the subject is captured differs between an image obtained by photographing the same subject from near and an image obtained from far away. Even if the subject type cannot be identified when shooting from near, the subject type can be identified when shooting from a distance, or vice versa. Therefore, by using a resolution-converted image, it is possible to prevent a decrease in accuracy due to the difference in the way of capturing and improve the accuracy of identifying the type of the block region BR.

なお、図16において、ブロック領域BRは、全体画像を機械的にメッシュ状に区切ることにより生成しているが、図15に示すように半ブロック分ずらして機械的に生成するようにしてもよい。   In FIG. 16, the block area BR is generated by mechanically dividing the entire image into a mesh shape. However, the block area BR may be generated by shifting by half a block as shown in FIG. .

図17は本発明のオブジェクト識別装置の第6の実施の形態を示すブロック図である。なお、図17のオブジェクト識別装置300において、図1のオブジェクト識別装置1と同一の構成を有する部位には同一の符号を付してその説明を省略する。図17のオブジェクト識別装置300が、図1のオブジェクト識別装置1と異なる点は、ブロック領域生成手段310が、図18に示すように、オブジェクト領域OR内に設定画素数からなる切取枠を走査させて、切取枠により囲まれた画像をブロック領域として生成する機能を有することである。   FIG. 17 is a block diagram showing a sixth embodiment of the object identification device of the present invention. In the object identification device 300 of FIG. 17, parts having the same configuration as the object identification device 1 of FIG. The object identification device 300 in FIG. 17 is different from the object identification device 1 in FIG. 1 in that the block area generation unit 310 scans a cut frame having a set number of pixels in the object area OR as shown in FIG. Thus, it has a function of generating an image surrounded by a cutting frame as a block area.

図19は図17のブロック領域生成手段310の動作例を示すフローチャートであり、図17から図19を参照してブロック領域BRの生成方法の一例について説明する。まず、オブジェクト領域生成手段20により、全体画像から複数のオブジェクト領域が生成される(ステップST30)。その後、生成された各オブジェクト領域ORに対して領域IDが付与される(ステップST31)。   FIG. 19 is a flowchart showing an example of the operation of the block area generating unit 310 of FIG. 17, and an example of a method for generating the block area BR will be described with reference to FIGS. First, the object area generation means 20 generates a plurality of object areas from the entire image (step ST30). Thereafter, an area ID is assigned to each generated object area OR (step ST31).

そして、生成された複数のオブジェクト領域ORの中から、ブロック領域BRを生成するオブジェクト領域ORが決定されて(ステップST32)、ブロック領域BRが生成されていく(ステップST33)。このブロック領域生成工程(ステップST33)が、全体画像に含まれるすべてのオブジェクト領域ORについて行われる(ステップST32〜ステップST34)。その後、生成された複数のブロック領域BRの種類がブロック領域識別手段30により識別される。   Then, the object area OR for generating the block area BR is determined from the generated object areas OR (step ST32), and the block area BR is generated (step ST33). This block area generation step (step ST33) is performed for all object areas OR included in the entire image (step ST32 to step ST34). Thereafter, the types of the plurality of generated block areas BR are identified by the block area identifying means 30.

図20はブロック領域生成工程(ステップST33)の一例を示すフローチャートであり、図20を参照してブロック領域BRの生成工程について説明する。まず、ブロック領域BRを生成するオブジェクト領域ORが決定されて(ステップST33−1)、オブジェクト領域OR内の始点に切取枠が設置される(ステップST33−2)。具体的には、図18に示すようにオブジェクト領域ORの左上端に切取枠の左上角が位置するように切取枠が位置決めされる。そして、切取枠内のすべての領域IDが一致するか否かが判断されて(ステップST33−2)、切取枠内の領域IDがすべて一致する場合には、切取枠に囲まれた領域がブロック領域BRとして生成される(ステップST33−4)。   FIG. 20 is a flowchart showing an example of the block region generation step (step ST33). The step of generating the block region BR will be described with reference to FIG. First, the object area OR for generating the block area BR is determined (step ST33-1), and a cut frame is set at the start point in the object area OR (step ST33-2). Specifically, as shown in FIG. 18, the cut frame is positioned so that the upper left corner of the cut frame is positioned at the upper left corner of the object area OR. Then, it is determined whether or not all the area IDs in the cutting frame match (step ST33-2). If all the area IDs in the cutting frame match, the area surrounded by the cutting frame is blocked. The area BR is generated (step ST33-4).

その後、切取枠が水平方向(右方向)にたとえば8画素だけ向かってずらされる(ステップST33−5)。ここで、切取枠がオブジェクト領域ORの最右端まで走査したか否かが判断され(ステップST33−6)、走査していない場合には続けてブロック領域の生成が行われる(ステップST33−2〜ステップST33−5)。一方、切取枠が、オブジェクト領域ORの最右端まで走査した場合には、切取枠が垂直方向(下方向)にたとえば8画素だけずらされるとともに、水平方向にも移動してオブジェクト領域ORの左端に位置決めされる(ステップST33−7)。その後、水平方向に対してブロック領域BRが生成されていく(ステップST33−2〜ステップST33−6)。そして、切取枠がオブジェクト領域ORの最下端まで走査した場合には(ステップST33−8)、1つのオブジェクト領域ORについてブロック領域BRの生成が完了する。   Thereafter, the cut frame is shifted in the horizontal direction (right direction) by, for example, 8 pixels (step ST33-5). Here, it is determined whether or not the cutting frame has been scanned to the rightmost end of the object area OR (step ST33-6). If the cutting frame has not been scanned, generation of a block area is subsequently performed (steps ST33-2 to ST33-2). Step ST33-5). On the other hand, when the cutting frame is scanned to the rightmost end of the object area OR, the cutting frame is shifted by, for example, 8 pixels in the vertical direction (downward), and also moved in the horizontal direction to the left end of the object area OR. Positioning is performed (step ST33-7). Thereafter, the block region BR is generated in the horizontal direction (step ST33-2 to step ST33-6). When the cut frame is scanned to the lowest end of the object area OR (step ST33-8), the generation of the block area BR for one object area OR is completed.

このように、切取枠をオブジェクト領域OR内において走査させながらブロック領域BRを生成することにより、オブジェクト領域ORの種類を識別するためのブロック領域BRの数を増やすことができるため、オブジェクト領域ORの識別の精度を向上させることができる。   In this way, by generating the block area BR while scanning the cut frame within the object area OR, the number of block areas BR for identifying the type of the object area OR can be increased. The accuracy of identification can be improved.

なお、切取枠は水平方向および垂直方向に対して8画素ずらす場合について例示しているが、2画素や4画素といった切取枠よりも小さい画素に設定されていればよい。さらに、領域IDを変更することにより切取枠により切り取られるブロック領域BRを決定するようにしているが、機械的に切取枠をたとえば2画素等の切取枠よりも小さい画素ピッチで、縦方向および横方向に走査するようにしてもよい。このとき、切取枠内に2つの領域IDが含まれているブロック領域BRについては、種類の識別を行わないようにしてもよい。   Note that the cut frame is illustrated as being shifted by 8 pixels with respect to the horizontal direction and the vertical direction, but may be set to a pixel smaller than the cut frame, such as 2 pixels or 4 pixels. Further, the block area BR to be cut out by the cut frame is determined by changing the area ID. However, the cut frame is mechanically arranged at a pixel pitch smaller than the cut frame, such as 2 pixels, in the vertical direction and the horizontal direction. You may make it scan in a direction. At this time, the type identification may not be performed for the block region BR in which two region IDs are included in the cut frame.

切取枠内の8画素×8画素の領域IDが書き換えられる場合について例示しているが、たとえば2画素×2画素や4画素×4画素等の切取枠よりも小さい画素に設定されていればよい。さらに、領域IDを変更することにより切取枠により切り取られるブロック領域BRを決定するようにしているが、機械的に切取枠をたとえば2画素等の切取枠よりも小さい画素ピッチで、縦方向および横方向に走査するようにしてもよい。このとき、切取枠内に2つの領域IDが含まれているブロック領域BRについては、種類の識別を行わないようにしてもよい。   Although an example in which the area ID of 8 pixels × 8 pixels in the cut frame is rewritten is illustrated, it is only necessary to set a pixel smaller than the cut frame, such as 2 pixels × 2 pixels or 4 pixels × 4 pixels, for example. . Further, the block area BR to be cut out by the cut frame is determined by changing the area ID. However, the cut frame is mechanically arranged at a pixel pitch smaller than the cut frame, such as 2 pixels, in the vertical direction and the horizontal direction. You may make it scan in a direction. At this time, the type identification may not be performed for the block region BR in which two region IDs are included in the cut frame.

図21は本発明のオブジェクト識別装置の第7の実施の形態を示すブロック図であり、図21を参照してオブジェクト識別装置500について説明する。なお、図21のオブジェクト識別装置500において、図1のオブジェクト識別装置1と同一の構成を有する部位には同一の符号を付してその説明を省略する。   FIG. 21 is a block diagram showing a seventh embodiment of the object identification device of the present invention. The object identification device 500 will be described with reference to FIG. In the object identification device 500 of FIG. 21, parts having the same configuration as the object identification device 1 of FIG.

図21のオブジェクト識別装置500において、最初にオブジェクト領域生成手段20がオブジェクト領域ORを生成するようになっている。そして、特徴量抽出手段540が、生成されたオブジェクト領域ORからオブジェクト特徴量を抽出するようになっている。その後、抽出したオブジェクト特徴量を用いて写像手段50および種類出力手段60により、オブジェクト領域ORの種類が識別されるようになっている。   In the object identification device 500 of FIG. 21, the object area generation means 20 first generates an object area OR. Then, the feature quantity extraction means 540 extracts the object feature quantity from the generated object area OR. After that, the type of the object area OR is identified by the mapping unit 50 and the type output unit 60 using the extracted object feature amount.

さらに、この特徴量抽出手段540は、画像変換手段510により所定の画像変換処理が施された全体画像と生成されたオブジェクト領域ORとを用いてオブジェクト特徴量を抽出するようになっている。具体的には、画像変換手段510は、RGB表色系からなる全体画像をYCC表色系に変換し、YCC表色系の各成分毎の3つの画像を生成する機能を有する。さらに、画像変換手段510は、Y成分から生成した縦エッジ画像と横エッジ画像とを生成するようになっている。そして特徴量抽出手段40は、YCC各成分毎の3つの画像、縦エッジ画像、横エッジ画像の5つの画像からそれぞれオブジェクト特徴量を抽出するようになっている。   Further, the feature amount extraction unit 540 extracts an object feature amount using the entire image that has been subjected to the predetermined image conversion process by the image conversion unit 510 and the generated object region OR. Specifically, the image conversion unit 510 has a function of converting the entire image composed of the RGB color system into the YCC color system and generating three images for each component of the YCC color system. Furthermore, the image conversion means 510 generates a vertical edge image and a horizontal edge image generated from the Y component. The feature quantity extraction means 40 extracts object feature quantities from five images, that is, three images for each YCC component, a vertical edge image, and a horizontal edge image.

ここで、特徴量抽出手段540は、各画像の領域分割結果を組み合わせて、各オブジェクト領域OR毎の画素値の分布(ヒストグラム)を生成する。そして、特徴量抽出手段40は、ヒストグラムから平均値および標準偏差を算出し、オブジェクト特徴量を生成する。なお、特徴量としてヒストグラムの代表点(たとえば最大値、最小値、中央値、分位点等)を用いてもよい。また、自己組織化マップSOMの学習用サンプルは、ブロック領域BRに上述した画像変換を施し、上述したヒストグラムから抽出した特徴量を用いて行われることになる。   Here, the feature amount extraction unit 540 generates a distribution (histogram) of pixel values for each object region OR by combining the region division results of the images. Then, the feature amount extraction unit 40 calculates an average value and a standard deviation from the histogram, and generates an object feature amount. Note that a representative point of the histogram (for example, maximum value, minimum value, median value, quantile, etc.) may be used as the feature quantity. In addition, the learning sample of the self-organizing map SOM is performed using the above-described image conversion on the block region BR and using the feature amount extracted from the above-described histogram.

なお、上述した特徴量抽出手段540において、図6に示すような特徴量をオブジェクト領域ORから抽出し、オブジェクト特徴量としてもよい。なお、上述した特徴量抽出手段540において、図6や図19に示すような特徴量をオブジェクト領域ORから抽出し、オブジェクト特徴量としてもよい。さらに、上述した画像変換手段510において、全体画像に多重解像度変換を施し解像度の異なる複数の解像度変換画像、全体画像をRGB表色系からLab表色系に変換した画像、モフォロジーフィルタ等を用いて特定形状の構造を抽出したフィルタリング画像等を生成するようにし、特徴量抽出手段540は、各画像から特徴量を抽出するようにしてもよい。   Note that the feature quantity extraction unit 540 described above may extract a feature quantity as shown in FIG. 6 from the object region OR and use it as the object feature quantity. Note that the feature quantity extraction means 540 described above may extract feature quantities as shown in FIGS. 6 and 19 from the object region OR and use them as object feature quantities. Further, the above-described image conversion unit 510 uses a plurality of resolution conversion images having different resolutions by performing multi-resolution conversion on the entire image, an image obtained by converting the entire image from the RGB color system to the Lab color system, a morphology filter, and the like. A filtering image or the like obtained by extracting a structure having a specific shape may be generated, and the feature amount extraction unit 540 may extract a feature amount from each image.

これにより、オブジェクト領域ORの領域形状が複雑な場合や小さい場合においてもオブジェクト領域ORの種類を確実に識別することができるようになる。すなわち、全体画像をブロック領域BRに分けたときには、オブジェクト領域ORが複雑な場合にはオブジェクト領域ORが複数のブロック領域BRに分かれてしまい、オブジェクト領域ORが小さい場合には種類識別に用いるブロック領域BRの数が少なくなってしまう。   As a result, even when the area shape of the object area OR is complex or small, the type of the object area OR can be reliably identified. That is, when the entire image is divided into block areas BR, the object area OR is divided into a plurality of block areas BR when the object area OR is complicated, and the block area used for type identification when the object area OR is small. The number of BR will decrease.

これに対し、ブロック領域識別手段30による識別結果をブロック領域BRに含まれるすべての画素に割り当てるようにし、オブジェクト領域ORを構成する画素に割り当てられた種類のうち、最も画素の多い種類をオブジェクト領域ORの種類であると識別することも考えられる。しかし、オブジェクト領域ORの境界を含むブロック領域BRについても種類の識別を行う必要があり、その結果、種類の識別の精度が低下してしまうという問題がある。そこで、オブジェクト領域OR自体から特徴量を抽出して種類の識別を行うことにより、複雑な形状のオブジェクト領域ORや形状の小さいオブジェクト領域ORについても精度よく種類の識別を行うことができる。   On the other hand, the result of identification by the block area identifying means 30 is assigned to all the pixels included in the block area BR, and the type having the largest number of pixels among the types assigned to the pixels constituting the object area OR is assigned to the object area. It may be possible to identify the type of OR. However, it is necessary to identify the type of the block region BR including the boundary of the object region OR. As a result, there is a problem that the accuracy of identifying the type is lowered. Therefore, by extracting the feature amount from the object area OR itself and identifying the type, it is possible to accurately identify the type of the object area OR having a complicated shape or the object area OR having a small shape.

図22は本発明のオブジェクト識別装置の第8の実施の形態を示すブロック図であり、図22を参照してオブジェクト識別装置600について説明する。なお、図22のオブジェクト識別装置600において図1のオブジェクト識別装置1および図21のオブジェクト識別装置500と同一の構成を有する部位には同一の符号を付してその説明を省略する。図22のオブジェクト識別装置600が、図21のオブジェクト識別装置500と異なる点は、オブジェクト領域の外接矩形画像を規格化した規格化オブジェクト領域を生成する規格化手段630をさらに備えることである。そして、特徴量抽出手段40は、規格化オブジェクト領域からオブジェクト特徴量を抽出することとなる。したがって、オブジェクト特徴量を抽出する際のオブジェクト領域ORの大きさは、いずれの画像のいずれのオブジェクト領域ORであっても同一の大きさとなる。   FIG. 22 is a block diagram showing an eighth embodiment of the object identification device of the present invention. The object identification device 600 will be described with reference to FIG. In the object identification device 600 of FIG. 22, parts having the same configurations as those of the object identification device 1 of FIG. 1 and the object identification device 500 of FIG. The object identification device 600 of FIG. 22 differs from the object identification device 500 of FIG. 21 in that the object identification device 600 further includes a normalization unit 630 that generates a standardized object region obtained by standardizing a circumscribed rectangular image of the object region. Then, the feature quantity extraction unit 40 extracts the object feature quantity from the standardized object area. Therefore, the size of the object area OR when extracting the object feature amount is the same regardless of the object area OR of any image.

このように、オブジェクト領域ORを規格化してからオブジェクト特徴量を抽出することにより、全体画像に含まれるオブジェクト領域の大きさに種類の識別精度が依存されることなく、正確な識別を行うことができる。つまり、全体画像に含まれるオブジェクトの大きさは、撮影時の状況により多種多様なものとなる。そこで、各オブジェクト領域ORを規格化した後にオブジェクト特徴量を抽出し種類の識別を行うことにより、精度の高い種類の識別を行うことが可能となる。このように、オブジェクト領域ORを規格化してからオブジェクト特徴量を抽出することによりサイズの変動に対してロバスト性を持たせ、全体画像に含まれるオブジェクト領域の大きさに種類の識別精度が依存されることなく、正確な識別を行うことができる。   As described above, by extracting the object feature amount after normalizing the object area OR, accurate identification can be performed without depending on the size of the object area included in the entire image and the type identification accuracy. it can. That is, the size of the object included in the entire image varies depending on the situation at the time of shooting. Therefore, it is possible to identify types with high accuracy by extracting object feature amounts and identifying types after standardizing each object region OR. In this way, the object region OR is normalized and then the object feature amount is extracted to provide robustness against the size variation, and the type identification accuracy depends on the size of the object region included in the entire image. And accurate identification can be performed.

本発明のオブジェクト識別装置の第1の実施の形態を示すブロック図The block diagram which shows 1st Embodiment of the object identification device of this invention 本発明のオブジェクト識別装置において、画像に含まれるオブジェクト毎に種類が識別される様子を示す図The figure which shows a mode that a kind is identified for every object contained in an image in the object identification device of this invention. 本発明のオブジェクト識別装置におけるオブジェクト領域生成手段の一例を示すブロック図The block diagram which shows an example of the object area | region production | generation means in the object identification apparatus of this invention 図2のオブジェクト領域生成手段により画像が領域分割される様子を示す図The figure which shows a mode that an image is divided | segmented into an area | region by the object area | region production | generation means of FIG. 図2のオブジェクト領域生成手段によりクラスタリング領域が統合されてオブジェクト領域が形成される様子を示す図The figure which shows a mode that a clustering area | region is integrated by the object area | region production | generation means of FIG. 2, and an object area | region is formed. 本発明のオブジェクト識別装置における特徴量抽出手段の一例を示すブロック図The block diagram which shows an example of the feature-value extraction means in the object identification device of this invention 図6のエッジ画像生成手段において使用されるエッジフィルターの一例を示す図The figure which shows an example of the edge filter used in the edge image generation means of FIG. 図6の相関特徴量抽出手段の動作例を示すフローチャートFIG. 6 is a flowchart showing an example of the operation of the correlation feature amount extraction unit of FIG. 図6の相関特徴量抽出手段における相互相関関数の一例を示すグラフ図The graph which shows an example of the cross correlation function in the correlation feature-value extraction means of FIG. 図1の代表ベクトルデータベースの構造を示す模式Schematic showing the structure of the representative vector database in FIG. 図1のブロック領域識別手段の動作例を示すフローチャートThe flowchart which shows the operation example of the block area identification means of FIG. 本発明のオブジェクト識別方法の好ましい実施の形態を示すフローチャート図The flowchart figure which shows preferable embodiment of the object identification method of this invention 本発明のオブジェクト識別装置の第2の実施の形態を示すブロック図The block diagram which shows 2nd Embodiment of the object identification device of this invention 本発明のオブジェクト識別装置の第3の実施の形態を示すブロック図The block diagram which shows 3rd Embodiment of the object identification device of this invention 本発明のオブジェクト識別装置の第4の実施の形態を示すブロック図The block diagram which shows 4th Embodiment of the object identification device of this invention 本発明のオブジェクト識別装置の第5の実施の形態を示すブロック図The block diagram which shows 5th Embodiment of the object identification device of this invention 本発明のオブジェクト識別装置の第6の実施の形態を示すブロック図The block diagram which shows 6th Embodiment of the object identification device of this invention 図17のオブジェクト識別装置において操作される切取枠の様子を示す模式図FIG. 17 is a schematic diagram showing a state of a cutting frame operated in the object identification device of FIG. 図17のオブジェクト識別装置の動作例を示すフローチャートFIG. 17 is a flowchart showing an operation example of the object identification device of FIG. 図17のオブジェクト識別装置の動作例を示すフローチャートFIG. 17 is a flowchart showing an operation example of the object identification device of FIG. 本発明のオブジェクト識別装置の第7の実施の形態を示すブロック図The block diagram which shows 7th Embodiment of the object identification device of this invention 本発明のオブジェクト識別装置の第8の実施の形態を示すブロック図The block diagram which shows 8th Embodiment of the object identification device of this invention.

符号の説明Explanation of symbols

1、300、500、600 オブジェクト識別装置
10、310 ブロック領域生成手段
20 オブジェクト領域生成手段
30 ブロック領域識別手段
40 特徴量抽出手段
41 画像変換手段
42 エッジ画像生成手段
43 相関特徴量抽出手段
44 エッジ特徴量抽出手段
45 色特徴量抽出手段
46 特徴ベクトル生成手段
50 代表ベクトル検索手段
60 種類出力手段
70 オブジェクト識別手段
BR ブロック領域
CM カテゴリーマップ
DB 代表ベクトルデータベース
KM 種類マップ
OR オブジェクト領域
P 画像
1, 300, 500, 600 Object identification device 10, 310 Block area generation means 20 Object area generation means 30 Block area identification means 40 Feature quantity extraction means 41 Image conversion means 42 Edge image generation means 43 Correlated feature quantity extraction means 44 Edge features Quantity extraction means 45 Color feature quantity extraction means 46 Feature vector generation means 50 Representative vector search means 60 Type output means 70 Object identification means BR Block area CM Category map DB Representative vector database KM Type map OR Object area P Image

Claims (17)

画像に含まれるオブジェクトの種類を識別するオブジェクト識別方法において、
前記画像を前記オブジェクト毎に領域分割した複数のオブジェクト領域と、前記画像を設定画素数からなる、前記オブジェクト領域より小さい多数の領域に分割して複数のブロック領域とを生成し、
生成した前記各ブロック領域から複数の特徴量を抽出し、
抽出した前記複数の特徴量をベクトル成分とする特徴ベクトルを生成し、
前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、該代表ベクトルデータベースの中から前記特徴ベクトルに最も類似する前記代表ベクトルを検索し、
検索した前記代表ベクトルが属する種類を前記ブロック領域の種類として出力し、
出力した前記ブロック領域の種類を前記オブジェクト領域毎に集計して、前記オブジェクトの種類を識別する
ことを特徴とするオブジェクト識別方法。
In an object identification method for identifying the type of object included in an image,
A plurality of object areas obtained by dividing the image for each object, and a plurality of block areas obtained by dividing the image into a plurality of areas smaller than the object area, each having a set number of pixels;
A plurality of feature amounts are extracted from each generated block area,
Generating a feature vector having the extracted feature quantities as vector components;
Using the representative vector database in which a plurality of representative vectors indicating representative vector values in the block area type are stored for each type, the representative vector that is most similar to the feature vector is searched from the representative vector database. And
The type to which the retrieved representative vector belongs is output as the type of the block area,
The object identification method characterized in that the type of the block area that has been output is aggregated for each object area to identify the type of the object.
画像に含まれるオブジェクトの種類を識別するオブジェクト識別装置において、
前記画像を前記オブジェクト毎に領域分割して複数のオブジェクト領域を生成するオブジェクト領域生成手段と、
前記画像を設定画素数からなる、前記オブジェクト領域より小さい多数の領域に分割して複数のブロック領域を生成するブロック領域生成手段と、
該ブロック領域生成手段により生成された前記各ブロック領域から複数の特徴量を抽出する特徴量抽出手段と、
該特徴量抽出手段により抽出された前記複数の特徴量をベクトル成分とする特徴ベクトルを生成する特徴ベクトル生成手段と、
前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、該代表ベクトルデータベースの中から前記特徴ベクトルに最も類似する前記代表ベクトルを検索する代表ベクトル検索手段と、
該代表ベクトル検索手段により検索された前記代表ベクトルが属する種類を前記ブロック領域の種類として出力する種類出力手段と、
前記各ブロック領域毎に出力された前記ブロック領域の種類を前記オブジェクト領域毎に集計し、集計した結果を用いて前記オブジェクトの種類を識別するオブジェクト識別手段と
を有することを特徴とするオブジェクト識別装置。
In an object identification device for identifying the type of object included in an image,
Object region generation means for dividing the image into regions for each object to generate a plurality of object regions;
A block area generating unit configured to divide the image into a plurality of areas smaller than the object area, each having a set number of pixels, and generating a plurality of block areas;
Feature quantity extraction means for extracting a plurality of feature quantities from each block area generated by the block area generation means;
Feature vector generation means for generating a feature vector having the plurality of feature quantities extracted by the feature quantity extraction means as vector components;
Using the representative vector database in which a plurality of representative vectors indicating representative vector values in the block area type are stored for each type, the representative vector that is most similar to the feature vector is searched from the representative vector database. Representative vector search means to perform,
Type output means for outputting the type to which the representative vector searched by the representative vector search means belongs as the type of the block area;
An object identification device comprising: object identification means that aggregates the types of block areas output for each block area for each object area, and identifies the types of the objects using the aggregated results .
前記ブロック領域生成手段が、前記画像をメッシュ状に区切った複数の第1ブロック領域と、該複数の第1ブロック領域に対してメッシュ状に区切る位相をずらした第2ブロック領域とを生成する機能を有するものであることを特徴とする請求項2に記載のオブジェクト識別装置。 The block area generating means generates a plurality of first block areas obtained by dividing the image into a mesh shape, and a second block area having a phase shifted from the plurality of first block areas in a mesh shape. The object identification device according to claim 2, comprising: 前記ブロック領域生成手段が、前記オブジェクト領域内に前記設定画素数からなる切取枠を走査させて、前記切取枠により囲まれた画像から前記ブロック領域を生成する機能を有するものであることを特徴とする請求項2または請求項3に記載のオブジェクト識別装置。 The block area generation unit has a function of causing the object area to scan a cutting frame having the set number of pixels and generating the block area from an image surrounded by the cutting frame. The object identification device according to claim 2 or 3. 前記ブロック領域生成手段が、前記画像から解像度の異なる複数の解像度変換画像を生成する機能を有し、生成した前記複数の解像度変換画像からそれぞれ前記ブロック領域を生成する機能を有するものであることを特徴とする請求項2から請求項4のいずれか1項に記載のオブジェクト識別装置。 The block area generating means has a function of generating a plurality of resolution conversion images having different resolutions from the image, and has a function of generating the block area from the generated plurality of resolution conversion images, respectively. The object identification device according to any one of claims 2 to 4, wherein the object identification device is characterized. 前記特徴量抽出手段が、前記ブロック領域の各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量を抽出する相関特徴量抽出手段を含むものであることを特徴とする請求項2から請求項5のいずれか1項に記載のオブジェクト識別装置。 The feature quantity extraction means includes a correlation feature quantity extraction means for extracting a correlation feature quantity indicating the degree of regularity of change along one direction of the component signal value assigned to each pixel of the block region. The object identification device according to any one of claims 2 to 5, wherein the object identification device is characterized in that: 前記相関特徴量抽出手段が、前記ブロック領域の縦方向に沿った前記相関特徴量と、前記ブロック領域の横方向に沿った前記相関特徴量とを抽出するものであることを特徴とする請求項6に記載のオブジェクト識別装置。 The correlation feature quantity extraction unit is configured to extract the correlation feature quantity along a vertical direction of the block area and the correlation feature quantity along a horizontal direction of the block area. 6. The object identification device according to 6. 前記相関特徴量抽出手段が、前記ブロック領域において同一方向に形成された2つの画素ラインを構成する複数の画素の成分信号値から、前記2つの画素ラインの相関関係を示す相関値を出力する所定の相互相関関数を有し、
前記2つの画素ラインのいずれか一方を1画素ずつ前記画素ラインの形成方向にずらしながら前記画素の成分信号値を前記相互相関関数に入力することにより複数の前記相関値を取得し、取得した前記複数の相関値から最も大きい最大相関値を算出するものであり、
前記ブロック領域の同一方向に形成された前記画素ラインのすべての組み合わせについて前記最大相関値を算出し、算出されたすべての前記代債相関値の平均値および標準偏差を相関特徴量として抽出するものであることを特徴とする請求項6または請求項7に記載のオブジェクト識別装置。
The correlation feature quantity extraction unit outputs a correlation value indicating a correlation between the two pixel lines from component signal values of a plurality of pixels constituting the two pixel lines formed in the same direction in the block region. Having a cross-correlation function of
The plurality of correlation values are acquired by inputting the component signal value of the pixel to the cross-correlation function while shifting one of the two pixel lines pixel by pixel in the formation direction of the pixel line. The largest maximum correlation value is calculated from a plurality of correlation values,
The maximum correlation value is calculated for all combinations of the pixel lines formed in the same direction of the block area, and the average value and standard deviation of all the calculated bond correlation values are extracted as correlation feature amounts. The object identification device according to claim 6, wherein the object identification device is an object identification device.
前記特徴量抽出手段が、前記ブロック領域の縦方向および横方向のエッジ成分の特徴を示すエッジ特徴量を抽出するエッジ特徴量抽出手段を含むものであることを特徴とする請求項2から請求項8のいずれか1項に記載のオブジェクト識別装置。 9. The feature amount extraction unit includes an edge feature amount extraction unit that extracts an edge feature amount indicating a feature of an edge component in a vertical direction and a horizontal direction of the block region. The object identification device according to any one of the above. 前記特徴量抽出手段が、前記ブロック領域の色成分の特徴を示す色特徴量を抽出する色特徴量抽出手段を含むものであることを特徴とする請求項2から請求項9のいずれか1項に記載のオブジェクト識別装置。 10. The feature quantity extracting unit includes a color feature quantity extracting unit that extracts a color feature quantity indicating a feature of a color component of the block region. Object identification device. 前記代表ベクトルが、予め種類のわかっている前記特徴ベクトルを用いて前記勝者代表ベクトルを検索し、前記特徴ベクトルの種類と前記勝者代表ベクトルの示す種類とが異なるときに、前記勝者代表ベクトルと前記特徴ベクトルとの距離が遠くなるように学習し、前記特徴ベクトルの種類と前記勝者代表ベクトルの示す種類とが同じになるときに、前記勝者代表ベクトルと前記特徴ベクトルとの距離が近くなるように学習して得られたものであることを特徴とする請求項11に記載のオブジェクト識別装置。 The representative vector is searched for the winner representative vector using the feature vector whose type is known in advance, and when the type of the feature vector is different from the type indicated by the winner representative vector, the winner representative vector and the Learning so that the distance from the feature vector is long, and when the type of the feature vector and the type indicated by the winner representative vector are the same, the distance between the winner representative vector and the feature vector is reduced The object identification device according to claim 11, wherein the object identification device is obtained by learning. 前記代表ベクトルデータベースが、前記代表ベクトルが2次元空間に配列された構造を有し、前記勝者代表ベクトルの近傍領域にある前記代表ベクトルが前記勝者代表ベクトルと同じように学習されたものであることを特徴とする請求項11に記載のオブジェクト識別装置。 The representative vector database has a structure in which the representative vectors are arranged in a two-dimensional space, and the representative vector in the vicinity region of the winner representative vector is learned in the same manner as the winner representative vector. The object identification device according to claim 11. 前記代表ベクトルデータベースが、前記ブロック領域のカテゴリーを分類するための複数の分類用代表ベクトルと、分類された前記カテゴリーの中から種類を識別するための複数の識別用代表ベクトルとを有し、
前記代表ベクトル検索手段が、前記特徴ベクトルに最も類似する分類用勝者代表ベクトルを検索し、検索された前記分類用勝者代表ベクトルの示すカテゴリー内にある種類の前記識別用代表ベクトルの中から、前記特徴ベクトルに最も類似する識別用勝者代表ベクトルを検索するものであることを特徴とする請求項11または請求項12に記載のオブジェクト識別装置。
The representative vector database has a plurality of classification representative vectors for classifying the category of the block region, and a plurality of identification representative vectors for identifying a type from the classified categories;
The representative vector search means searches for a classification winner representative vector that is most similar to the feature vector, and from among the identification representative vectors of the type within the category indicated by the searched classification winner representative vector, 13. The object identification device according to claim 11, wherein the identification winner representative vector most similar to the feature vector is searched.
前記種類出力手段が、検索された前記分類用勝者代表ベクトルの示すカテゴリーと前記識別用勝者代表ベクトルの種類とを出力するものであることを特徴とする請求項13に記載のオブジェクト識別装置。 14. The object identification device according to claim 13, wherein the type output means outputs a category indicated by the searched winner representative vector for classification and a type of the identification winner representative vector. 前記代表ベクトル検索手段が、前記特徴ベクトルと前記勝者代表ベクトルとの距離を検出し、検出された距離が設定しきい値よりも小さいときには前記勝者代表ベクトルがないと判断するものであり、前記種類出力手段が、前記勝者代表ベクトルがないと判断されたときには前記種類が不明である旨の出力を行うものであることを特徴とする請求項11から請求項14のいずれか1項に記載のオブジェクト識別装置。 The representative vector search means detects a distance between the feature vector and the winner representative vector, and determines that there is no winner representative vector when the detected distance is smaller than a set threshold value. The object according to any one of claims 11 to 14, wherein the output means outputs that the type is unknown when it is determined that there is no winner representative vector. Identification device. 前記設定しきい値が、前記勝者代表ベクトルの近傍領域内にある複数の前記代表ベクトルのうち前記勝者代表ベクトルとの距離が最も大きい前記代表ベクトルと前記勝者代表ベクトルとの距離であることを特徴とする請求項15に記載のオブジェクト識別装置。 The set threshold is a distance between the representative vector having the largest distance from the winner representative vector and the winner representative vector among a plurality of the representative vectors in the vicinity region of the winner representative vector. The object identification device according to claim 15. コンピュータに、
画像をオブジェクト毎に領域分割した複数のオブジェクト領域と、前記画像を設定画素数からなる、前記オブジェクト領域より小さい多数の領域に分割して複数のブロック領域とを生成し、
生成した前記各ブロック領域から複数の特徴量を抽出し、
抽出した前記複数の特徴量をベクトル成分とする特徴ベクトルを生成し、
前記ブロック領域の種類における代表的なベクトル値を示す複数の代表ベクトルが種類毎に記憶された代表ベクトルデータベースを用いて、該代表ベクトルデータベースの中から前記特徴ベクトルに最も類似する前記代表ベクトルを検出し、
検出した前記代表ベクトルが属する種類を前記ブロック領域の種類であると識別し、
識別した前記ブロック領域の種類を前記オブジェクト領域毎に集計して、前記オブジェクトの種類を識別する
ことを実行させるためのオブジェクト識別プログラム。
On the computer,
A plurality of object areas obtained by dividing an image for each object, and a plurality of block areas obtained by dividing the image into a plurality of areas smaller than the object area, each having a set number of pixels;
A plurality of feature amounts are extracted from each generated block area,
Generating a feature vector having the extracted feature quantities as vector components;
Using the representative vector database in which a plurality of representative vectors indicating representative vector values in the block area type are stored for each type, the representative vector that is most similar to the feature vector is detected from the representative vector database. And
Identifying the type to which the detected representative vector belongs as the type of the block region;
An object identification program for causing the identified block area types to be aggregated for each object area to identify the object type.
JP2003295360A 2003-08-19 2003-08-19 Object identification method, apparatus and program Expired - Lifetime JP4285644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003295360A JP4285644B2 (en) 2003-08-19 2003-08-19 Object identification method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003295360A JP4285644B2 (en) 2003-08-19 2003-08-19 Object identification method, apparatus and program

Publications (2)

Publication Number Publication Date
JP2005063309A true JP2005063309A (en) 2005-03-10
JP4285644B2 JP4285644B2 (en) 2009-06-24

Family

ID=34371640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003295360A Expired - Lifetime JP4285644B2 (en) 2003-08-19 2003-08-19 Object identification method, apparatus and program

Country Status (1)

Country Link
JP (1) JP4285644B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065464A (en) * 2006-09-05 2008-03-21 Toyota Motor Corp Image processor
JP2011523137A (en) * 2008-06-06 2011-08-04 トムソン ライセンシング Image similarity search system and method
KR101336736B1 (en) 2008-08-22 2013-12-04 정태우 Method for identifing object in video
JP2014074977A (en) * 2012-10-03 2014-04-24 National Institute Of Advanced Industrial & Technology Image processing apparatus, image processing method, and image processing program
WO2015045717A1 (en) * 2013-09-26 2015-04-02 日本電気株式会社 Anomalous tide level fluctuation sensing device, anomalous tide level fluctuation sensing method, and anomalous tide level fluctuation sensing program
CN104602030A (en) * 2014-12-26 2015-05-06 北京奇艺世纪科技有限公司 Encoding method and device and server
US10204283B2 (en) 2014-07-11 2019-02-12 Canon Kabushiki Kaisha Image recognizing apparatus, image recognizing method, and storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065464A (en) * 2006-09-05 2008-03-21 Toyota Motor Corp Image processor
JP4744401B2 (en) * 2006-09-05 2011-08-10 トヨタ自動車株式会社 Image processing device
JP2011523137A (en) * 2008-06-06 2011-08-04 トムソン ライセンシング Image similarity search system and method
KR101336736B1 (en) 2008-08-22 2013-12-04 정태우 Method for identifing object in video
JP2014074977A (en) * 2012-10-03 2014-04-24 National Institute Of Advanced Industrial & Technology Image processing apparatus, image processing method, and image processing program
WO2015045717A1 (en) * 2013-09-26 2015-04-02 日本電気株式会社 Anomalous tide level fluctuation sensing device, anomalous tide level fluctuation sensing method, and anomalous tide level fluctuation sensing program
US9989361B2 (en) 2013-09-26 2018-06-05 Nec Corporation Anomalous tide level fluctuation sensing device, anomalous tide level fluctuation sensing method, and anomalous tide level fluctuation sensing program
US10204283B2 (en) 2014-07-11 2019-02-12 Canon Kabushiki Kaisha Image recognizing apparatus, image recognizing method, and storage medium
CN104602030A (en) * 2014-12-26 2015-05-06 北京奇艺世纪科技有限公司 Encoding method and device and server
CN104602030B (en) * 2014-12-26 2018-03-23 北京奇艺世纪科技有限公司 A kind of coding method, code device and server

Also Published As

Publication number Publication date
JP4285644B2 (en) 2009-06-24

Similar Documents

Publication Publication Date Title
US7983486B2 (en) Method and apparatus for automatic image categorization using image texture
US8655070B1 (en) Tree detection form aerial imagery
CN110309781B (en) House damage remote sensing identification method based on multi-scale spectrum texture self-adaptive fusion
WO2018107939A1 (en) Edge completeness-based optimal identification method for image segmentation
US8345974B2 (en) Hierarchical recursive image segmentation
Sirmacek et al. Urban-area and building detection using SIFT keypoints and graph theory
Blaschke et al. Image segmentation methods for object-based analysis and classification
JP4234378B2 (en) How to detect material areas in an image
US20100272357A1 (en) Method of image segmentation
JP2008097607A (en) Method to automatically classify input image
Varnousfaderani et al. Weighted color and texture sample selection for image matting
Scarpa et al. Hierarchical multiple Markov chain model for unsupervised texture segmentation
CN111027446B (en) Coastline automatic extraction method of high-resolution image
CN109063754A (en) A kind of remote sensing image multiple features combining classification method based on OpenStreetMap
CN109902618A (en) A kind of sea ship recognition methods and device
Gueguen et al. Toward a generalizable image representation for large-scale change detection: Application to generic damage analysis
JP4098021B2 (en) Scene identification method, apparatus, and program
Touati et al. A reliable mixed-norm-based multiresolution change detector in heterogeneous remote sensing images
Ouma et al. Urban features recognition and extraction from very-high resolution multi-spectral satellite imagery: a micro–macro texture determination and integration framework
Ye et al. An unsupervised urban change detection procedure by using luminance and saturation for multispectral remotely sensed images
JP4926266B2 (en) Learning data creation device, learning data creation method and program
JP4285644B2 (en) Object identification method, apparatus and program
JP4285640B2 (en) Object identification method, apparatus and program
Chehata et al. Object-based forest change detection using high resolution satellite images
JP2009123234A (en) Object identification method, apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060303

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090317

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4285644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250