JP3053512B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3053512B2
JP3053512B2 JP5236902A JP23690293A JP3053512B2 JP 3053512 B2 JP3053512 B2 JP 3053512B2 JP 5236902 A JP5236902 A JP 5236902A JP 23690293 A JP23690293 A JP 23690293A JP 3053512 B2 JP3053512 B2 JP 3053512B2
Authority
JP
Japan
Prior art keywords
image
feature
local
feature vector
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5236902A
Other languages
Japanese (ja)
Other versions
JPH0793545A (en
Inventor
和彦 鷲見
橋本  学
美和子 広岡
良夫 泉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP5236902A priority Critical patent/JP3053512B2/en
Publication of JPH0793545A publication Critical patent/JPH0793545A/en
Application granted granted Critical
Publication of JP3053512B2 publication Critical patent/JP3053512B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、テレビカメラなどの
2次元撮像装置から入力される画像をディジタル化し、
撮影された情景の中に存在する対象物の個数,種別,正
常/異常などの判別を認識して出力する画像処理装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention digitizes an image input from a two-dimensional imaging device such as a television camera,
The present invention relates to an image processing apparatus for recognizing and outputting the number, type, normality / abnormality, and the like of an object existing in a captured scene.

【0002】[0002]

【従来の技術】テレビカメラなどから入力される画像を
ディジタル化し、撮影された情景の中に存在する対象物
の個数,種別,正常/異常などの判別を認識して出力す
る画像処理装置は、生産ラインでのワークの種別判別や
検査、さらにはプラントなどの遠隔監視の自動化などに
用いられている。
2. Description of the Related Art An image processing apparatus that digitizes an image input from a television camera or the like, recognizes the number, type, normality / abnormality, and the like of an object present in a captured scene and outputs the image is provided by: It is used for discriminating and inspecting the type of work on a production line, and also for automating remote monitoring of a plant or the like.

【0003】図40は、空間的バンドパスフィルタと2
つの閾値により3値画像を生成し、撮影された情景の中
に存在する対象物の判別を認識して出力する画像処理装
置の構成を示すブロック図である。図において10はテ
レビカメラなどから入力される画像をディジタル化する
画像ディジタル化手段、11はディジタル化された原画
像を示している。12はディジタル化された原画像を縮
小する画像縮小手段、13はディジタル化された原画像
あるいは画像縮小手段12により縮小された原画像のい
ずれかに切り替え、フィルタリング手段20に出力する
切替手段である。
FIG. 40 shows a spatial band-pass filter and 2
FIG. 3 is a block diagram illustrating a configuration of an image processing apparatus that generates a ternary image based on three thresholds, recognizes a target existing in a captured scene, and outputs the recognition. In the figure, reference numeral 10 denotes image digitizing means for digitizing an image input from a television camera or the like, and 11 denotes a digitized original image. Numeral 12 is an image reducing means for reducing the digitized original image, and 13 is a switching means for switching to either the digitized original image or the original image reduced by the image reducing means 12 and outputting to the filtering means 20. .

【0004】フィルタリング手段20は切替手段13か
ら出力された原画像に対しフィルタリング処理を行な
う。21は最適な閾値を決定する最適閾値決定手段、3
0は2つの閾値によりフィルタリング手段20の出力を
3値化したデータに変換する3値化処理手段、31は3
値表現された多重解像度のシーン表現データである3値
画像、32は切り出し位置走査手段およびその制御手段
33により指定される切り出しアドレスを基に、前記3
値表現された多重解像度のシーン表現データから部分画
像を切り出す部分画像切り出し手段、56はあらかじめ
作成され登録された3値の標準パターン、58は部分画
像切り出し手段32により切り出した部分画像と標準パ
ターン56との2次元パターン一致度を計数する2次元
パターン一致度計数手段、59は2次元パターン一致度
計数手段58で計数された一致度を基に作成された類似
度に関するマップにより最良の一致結果を得る位置とそ
の位置における類似度を認識結果として出力するピーク
評価手段である。
The filtering means 20 performs a filtering process on the original image output from the switching means 13. 21 is an optimum threshold value determining means for determining an optimum threshold value, 3
0 is a ternary processing means for converting the output of the filtering means 20 into ternary data by two thresholds, and 31 is a ternary processing means.
A ternary image 32, which is a multi-resolution scene representation data represented by a value, represents a 3D image based on the cutout address specified by the cutout position scanning means and its control means 33.
A partial image cutout means for cutting out a partial image from the multi-resolution scene expression data expressed by a value; 56, a ternary standard pattern created and registered in advance; 58, a partial image and a standard pattern 56 cut out by the partial image cutout means 32; The two-dimensional pattern coincidence counting means 59 for counting the two-dimensional pattern coincidence with the above-described two-dimensional pattern coincidence counting means 59 calculates the best coincidence result by using a similarity map created based on the coincidence counted by the two-dimensional pattern coincidence counting means 58. This is a peak evaluation unit that outputs the obtained position and the similarity at that position as a recognition result.

【0005】次に、この画像処理装置の動作を簡単に説
明する。画像ディジタル化手段10によりディジタル化
された2次元画像は、フィルタリング手段20によりあ
る空間周波数成分のみが取り出され、その後3値化処理
手段30により3値画像31に変換される。そしてこの
3値画像31と同様にしてあらかじめ作成され登録され
た類似度に関するマップがピーク評価手段59に送られ
最良の一致度を得る位置とその位置における類似度が判
別結果として出力される。
Next, the operation of the image processing apparatus will be briefly described. From the two-dimensional image digitized by the image digitizing means 10, only a certain spatial frequency component is extracted by the filtering means 20, and then converted to a ternary image 31 by the ternary processing means 30. Then, in the same manner as the ternary image 31, a map relating to the similarity created and registered in advance is sent to the peak evaluation means 59, and the position at which the best matching degree is obtained and the similarity at that position are output as a determination result.

【0006】以上説明した画像処理装置は3値画像を用
いるような構成であるが、このような3値画像を用いな
い画像の判別技術もある。このような従来技術として
は、たとえば雑誌映画情報(大津展之,適応学習型汎用
画像計測認識システム,映画情報vol.121,p
p.41―46,1989)に掲載された局所パターン
の出現頻度に基づく画像判別技術がある。
The above-described image processing apparatus is configured to use a ternary image, but there is also an image discriminating technique that does not use such a ternary image. Examples of such prior art include magazine movie information (Nobuyuki Otsu, adaptive learning type general-purpose image measurement and recognition system, movie information vol. 121, p.
p. 41-46, 1989), there is an image discrimination technique based on the appearance frequency of a local pattern.

【0007】この画像判別技術を図41に基づいて説明
する。図41において図40と同一または相当の部分に
ついては同一の符号を付し説明を省略する。図において
入力画像であるディジタル化された原画像11は2値化
処理手段35で2値化され、特徴ベクトル抽出手段40
の25個の並列的に動作する局所特徴検出手段41―
1,41―2,・・・41―25に入力される。局所特
徴検出手段41―1から局所特徴検出手段41―25で
は図42に示すような白画素が生じたときに出力を発生
し、この出力は局所特徴計数手段42―1,42―2,
・・・42―25が備えているカウンタで計数される。
この結果、ある特定の画面に特有の25次元の特徴ベク
トル49を生ずる。
The image discrimination technique will be described with reference to FIG. 41, the same or corresponding parts as those in FIG. 40 are denoted by the same reference numerals, and description thereof will be omitted. In the figure, a digitized original image 11 as an input image is binarized by a binarization processing unit 35 and a feature vector extraction unit 40
25 local feature detecting means 41 operating in parallel
1, 41-2, ..., 41-25. The local feature detecting means 41-1 to 41-25 generate an output when a white pixel as shown in FIG. 42 is generated, and this output is output from the local feature counting means 42-1 and 42-2.
.. Are counted by a counter provided in 42-25.
This results in a 25-dimensional feature vector 49 specific to a particular screen.

【0008】そして、標準パターン登録時には特徴ベク
トル49と共に判定結果の教師信号が特徴ベクトル判別
手段50に入力され、特徴ベクトル判別手段50ではこ
れらの学習ベクトル(すなわち局所特徴検出手段41と
局所特徴計数手段42の合成ベクトル)を重回帰分析に
より統計処理し、任意の特徴入力に対して望ましい判定
出力が得られるような重回帰係数を生成する。認識実行
時には特徴ベクトル49と前記生成した重回帰係数から
判別結果が求められる。
At the time of standard pattern registration, a teacher signal as a judgment result is input to the feature vector discriminating means 50 together with the feature vector 49. The feature vector discriminating means 50 uses these learning vectors (that is, the local feature detecting means 41 and the local feature counting means). 42 are subjected to statistical processing by multiple regression analysis to generate multiple regression coefficients that can provide a desired determination output with respect to an arbitrary feature input. At the time of performing the recognition, a discrimination result is obtained from the feature vector 49 and the generated multiple regression coefficient.

【0009】[0009]

【発明が解決しようとする課題】従来の画像処理装置は
以上のように構成されているので、従来技術1では、あ
らかじめ登録された標準パターンと類似したパターンを
有した対象物を画像中から抽出するのには適している
が、抽出された対象物が参照パターンと局部的に異なる
パターンを有していたときには、その違いが大まかなパ
ターンの違いと区別できないなど分類や検査に適したア
ルゴリズムが提供されていないため、生産ラインでの製
品検査やプラントの異常監視などの応用には適さない問
題点があった。
Since the conventional image processing apparatus is configured as described above, in the prior art 1, an object having a pattern similar to a standard pattern registered in advance is extracted from an image. However, when the extracted object has a pattern that is locally different from the reference pattern, an algorithm that is suitable for classification and inspection, such that the difference cannot be distinguished from the rough pattern difference, is used. Since it is not provided, there is a problem that it is not suitable for applications such as product inspection on a production line and abnormal monitoring of a plant.

【0010】また従来技術2では、手続的なプログラミ
ングなどを必要としないで判別関数を自動決定できる特
徴を有しているのに対し、特徴入力を2値画像の局所特
徴に頼っていることから、単一の閾値で2値化した場合
に特徴的なパターンが現われず、あるいは判別するのに
必要なパターンが2値化により失われてしまう結果とな
る。すなわち、図43の(a)に示されているような複
数の階調を有した画像を単純に1つの閾値で処理する場
合には、いかに工夫して閾値を選定しても同図(b)に
示すように右側の物体の内部の黒い円状の領域と左側の
物体の白い円状の領域を同時に抽出することは困難であ
る。このように現実の一般的な情景においては処理能力
が低く実用的でないなどの問題点があった。
In the prior art 2, the discriminant function can be automatically determined without requiring procedural programming or the like. On the other hand, since the feature input relies on local features of the binary image, When binarizing with a single threshold, a characteristic pattern does not appear, or a pattern necessary for discrimination is lost by binarization. That is, when an image having a plurality of gradations as shown in FIG. 43 (a) is simply processed with one threshold value, the threshold value may be selected no matter how it is devised. ), It is difficult to simultaneously extract a black circular area inside the right object and a white circular area inside the left object. As described above, there is a problem that the processing ability is low and not practical in a general general scene.

【0011】この発明は上記のような問題点を解消する
ためになされたもので、ディジタル化された原画像をフ
ィルタリング処理し、3値で表現された画像の局所特徴
を記述できるようにすることで、対象物の局部的な違い
を確実に判別し認識できると共に、複数の階調を有した
一般的な情景の画像中における対象物に対する判別や認
識処理能力を向上させた画像処理装置を得ることを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to filter a digitized original image so as to be able to describe local features of a ternary image. Thus, it is possible to obtain an image processing apparatus capable of reliably determining and recognizing a local difference of an object, and improving the ability to perform processing for identifying and recognizing the object in an image of a general scene having a plurality of gradations. The purpose is to:

【0012】[0012]

【課題を解決するための手段】請求項1の発明に係る画
像処理装置は、ディジタル化された入力画像に一種類ま
たは複数種類の空間的バンドパスフィルタを作用させる
フィルタリング手段と、そのフィルタリング手段の出力
を2つの閾値で処理し3値画像を得る3値化処理手段
と、上記3値画像と局所パターンとの類似度を検出する
局所特徴検出手段,上記類似度が一定値以上であったと
きに出力を発生する閾値手段,画像中において上記閾値
手段の出力が何点において発生したかを計数する複数の
局所特徴計数手段を有する特徴ベクトル抽出手段と、そ
の特徴ベクトル抽出手段の出力とあらかじめ記憶されて
いる1つまたは複数の標準ベクトルとの類似度を求め、
最終的な判別結果として出力する特徴ベクトル判別手段
とを備えたものである。
According to a first aspect of the present invention, there is provided an image processing apparatus comprising: a filtering means for applying one or more kinds of spatial bandpass filters to a digitized input image; Ternary processing means for processing the output with two threshold values to obtain a ternary image; local feature detecting means for detecting the similarity between the ternary image and the local pattern; when the similarity is equal to or greater than a certain value Feature vector extracting means having a plurality of local feature counting means for counting the number of points at which the output of the threshold means occurs in an image, and storing the output of the feature vector extracting means in advance. The degree of similarity to one or more standard vectors that have been
Feature vector discriminating means for outputting as a final discrimination result.

【0013】請求項2の発明に係る画像処理装置は、3
値画像と局所パターンとの類似度を検出する局所特徴検
出手段および上記局所パターンとの類似度を画像中で累
積する複数の特徴累積手段から構成された特徴ベクトル
抽出手段を備えたものである。
[0013] The image processing apparatus according to the second aspect of the present invention comprises:
The feature vector extracting means includes local feature detecting means for detecting the similarity between the value image and the local pattern, and a plurality of feature accumulating means for accumulating the similarity between the local pattern and the image in the image.

【0014】請求項3の発明に係る画像処理装置は、特
徴ベクトルが線形分離可能な場合において特徴ベクトル
の線形和で表現される線形判別関数を用い、その線形判
別関数を生成するためにあらかじめ判定結果が既知であ
る複数の学習画像データと判別結果を用いて重回帰分析
を行ないその重回帰分析の結果を線形判別関数の重み係
数とする回帰分析手段と、上記重み係数および特徴ベク
トルから判別結果を出力する判別部とを備えたものであ
る。
An image processing apparatus according to a third aspect of the present invention uses a linear discriminant function represented by a linear sum of the feature vectors when the feature vectors can be linearly separated, and determines in advance to generate the linear discriminant function. A regression analysis means for performing a multiple regression analysis using a plurality of learning image data whose results are known and the discrimination result, and using the result of the multiple regression analysis as a weighting coefficient of a linear discriminant function, and a discrimination result from the weighting coefficient and the feature vector And a determination unit that outputs

【0015】請求項4の発明に係る画像処理装置は、判
別すべき集団をいくつかの集団の和集合として表現し、
個々の集団をあらかじめ判別結果が既知である複数の学
習画像データと判別結果とを用いて、個々の集団を逐次
的に更新しながら形成する超集団形成手段を備えたもの
である。
According to a fourth aspect of the present invention, a group to be determined is expressed as a union of several groups,
A super-group forming means for forming an individual group while sequentially updating the individual group by using a plurality of pieces of learning image data whose discrimination results are known in advance and the discrimination result is provided.

【0016】請求項5の発明に係る画像処理装置は、認
識処理中に監視者がその判別結果が誤っていると判断し
た場合、望ましい判別結果を入力することにより標準パ
ターンを再計算し、運用しながら判定の信頼性の向上を
計る判定信頼性向上手段を備えたものである。
In the image processing apparatus according to the present invention, when the monitor determines that the discrimination result is incorrect during the recognition processing, the standard pattern is recalculated by inputting a desired discrimination result, and the operation is performed. While improving the reliability of the judgment.

【0017】請求項6の発明に係る画像処理装置は、標
準パターン学習時に多次元の特徴ベクトルの各次元にお
いてデータの正規化を行ない、集団を表現する中心ベク
トルの分散がどの次元に対しても同じ値になるようにす
る正規化処理手段を備えたものである。
In the image processing apparatus according to the present invention, the data is normalized in each dimension of the multidimensional feature vector at the time of learning the standard pattern, and the variance of the center vector representing the group is set to any dimension. It is provided with a normalization processing means for obtaining the same value.

【0018】請求項7の発明に係る画像処理装置は、入
力画像の局所特徴から得られる特徴ベクトル以外に他の
センサ情報から得られる特徴あるいは画像の大局的特徴
を併用して学習を行ない多次元特徴空間を構成して判別
を行なうものである。
An image processing apparatus according to a seventh aspect of the present invention performs learning by using a feature vector obtained from other sensor information or a global feature of an image in addition to a feature vector obtained from a local feature of an input image. The determination is performed by configuring a feature space.

【0019】請求項8の発明に係る画像処理装置は、学
習時に入力画像の局所特徴から得られる特徴ベクトル以
外に他のセンサ情報から得られる特徴あるいは画像の大
局的特徴を複数のクラスに分類する大分類クラス生成手
段を有し、認識処理時には同一の特徴を用いて学習デー
タから該当するクラスを選択し、選択したクラスに記憶
された学習データのみを用いて認識を行なうものであ
る。
An image processing apparatus according to an eighth aspect of the present invention classifies features obtained from other sensor information or global features of an image into a plurality of classes in addition to feature vectors obtained from local features of an input image during learning. It has a large classification class generating means, selects the corresponding class from the learning data using the same features at the time of recognition processing, and performs recognition using only the learning data stored in the selected class.

【0020】請求項9の発明に係る画像処理装置は、画
像をあらかじめ複数の区画に分割する部分画像分割走査
手段を有し、特徴ベクトル判別手段は分割された上記区
画毎に学習データを用意し、上記区画毎に学習と認識を
行なうようにしたものである。
An image processing apparatus according to a ninth aspect of the present invention has partial image division scanning means for dividing an image into a plurality of sections in advance, and the feature vector determination means prepares learning data for each of the divided sections. , Learning and recognition are performed for each section.

【0021】請求項10の発明に係る画像処理装置は、
複数の区画に分割した画像区画の周辺部においては区画
中心部よりも低い重み係数を設定する重み係数発生手段
と、局所特徴検出手段の出力に上記重み係数を加算した
出力を計数する局所特徴計数手段と、その局所特徴計数
手段の出力が特徴ベクトルとして供給される特徴ベクト
ル判定手段とを備えたものである。
According to a tenth aspect of the present invention, there is provided an image processing apparatus comprising:
Weighting factor generating means for setting a lower weighting factor than the center of the image area at the periphery of the image area divided into a plurality of areas; and a local feature counter for counting the output obtained by adding the weighting factor to the output of the local feature detecting means. Means and a feature vector determining means to which the output of the local feature counting means is supplied as a feature vector.

【0022】請求項11の発明に係る画像処理装置は、
画像上の複数の計測点において標準的な画像との位置合
わせを行なう位置検出手段と、その位置検出手段の出力
から画像を標準的な画像にもっとも近づけるための幾何
変換パラメータを求める変換パラメータ生成手段と、そ
の変換パラメータ生成手段により生成した幾何変換パラ
メータを基に上記画像を幾何変換し幾何変換後の画像を
入力画像とする幾何変換部とを備えたものである。
An image processing apparatus according to an eleventh aspect of the present invention
Position detection means for performing registration with a standard image at a plurality of measurement points on the image, and transformation parameter generation means for obtaining a geometric transformation parameter for bringing the image closest to the standard image from the output of the position detection means And a geometric transformation unit that geometrically transforms the image based on the geometric transformation parameter generated by the transformation parameter generation unit and uses the image after the geometric transformation as an input image.

【0023】請求項12の発明に係る画像処理装置は、
入力画像から得られた3値画像とあらかじめ登録された
複数の局所パターンとの類似度を検出する局所特徴検出
手段と、その出力を計数する局所特徴計数手段と、上記
3値画像の領域を画像上で限定し、その限定した領域の
位置を画面内で走査する部分画像切り出し走査手段と、
上記局所特徴計数手段の出力を入力特徴ベクトルとし、
あらかじめ記憶された標準パターンとの間で類似度の評
価を行ない上記入力特徴ベクトルが属するクラスとその
クラスに属する入力特徴ベクトルの画像上の位置とを出
力する特徴ベクトル判別手段と、特徴マップを出力する
特徴選択手段と、対応付けが矛盾なくできる上記特徴マ
ップと標準局所特徴マップ間の組み合わせとその際に必
要な変形パラメータを求める特徴マップ対応検索手段
と、上記変形パラメータから選択された標準物体パター
ンと画像上の物体パターン間の幾何的変換パラメータを
生成し出力する幾何変換パラメータ生成手段とを備えた
ものである。
According to a twelfth aspect of the present invention, there is provided an image processing apparatus comprising:
A local feature detecting means for detecting a similarity between a ternary image obtained from an input image and a plurality of local patterns registered in advance, a local feature counting means for counting the output thereof, and A partial image cutout scanning means for limiting the position of the limited area on the screen,
The output of the local feature counting means is an input feature vector,
A feature vector discriminating means for evaluating a similarity between a pre-stored standard pattern and outputting a class to which the input feature vector belongs and a position on the image of the input feature vector belonging to the class; and outputting a feature map. Feature selection means, a combination between the feature map and the standard local feature map that can be associated with each other, and a feature map correspondence search means for obtaining a deformation parameter required at that time, and a standard object pattern selected from the deformation parameters. And a geometric conversion parameter generating means for generating and outputting a geometric conversion parameter between object patterns on an image.

【0024】[0024]

【作用】請求項1の発明における画像処理装置は、3値
画像と局所パターンとの類似度が検出され、一定値以上
の類似度を示す箇所の発生数の計数結果を基に抽出され
た特徴ベクトルとあらかじめ記憶されている標準ベクト
ルとの類似度を基に最終的な判別結果を求めるように作
用する。
According to the first aspect of the present invention, the image processing apparatus detects the similarity between the ternary image and the local pattern and extracts the similarity based on the result of counting the number of occurrences of portions having a similarity equal to or greater than a certain value. It works so as to obtain the final discrimination result based on the similarity between the vector and the previously stored standard vector.

【0025】請求項2の発明における画像処理装置は、
画像中の局所特徴についての類似度やその累積結果を基
に抽出された特徴ベクトルとあらかじめ記憶されている
標準ベクトルとの類似度を基に対象物の判別結果を求め
るように作用する。
The image processing apparatus according to the second aspect of the present invention
It works so as to obtain the object discrimination result based on the similarity between a feature vector extracted based on the similarity of the local feature in the image or the accumulation result thereof and a standard vector stored in advance.

【0026】請求項3の発明における画像処理装置は、
線形判別関数を生成するためあらかじめ判定結果が既知
である複数の学習画像データと判別結果を用いて重回帰
分析が行なわれ、その重回帰分析の結果を上記線形判別
関数の重み係数とする重回帰分析が行なわれ、上記重み
係数と特徴ベクトルから判別結果を求めるように作用す
る。
According to a third aspect of the present invention, there is provided an image processing apparatus comprising:
In order to generate a linear discriminant function, a multiple regression analysis is performed using a plurality of learning image data whose judgment results are known in advance and the discrimination result, and the result of the multiple regression analysis is used as a weight coefficient of the linear discriminant function. The analysis is performed, and acts so as to obtain a discrimination result from the weight coefficient and the feature vector.

【0027】請求項4の発明における超集団形成手段
は、特徴ベクトル空間に領域を複数個形成し、それらの
領域の和集合を1つの集団として判断するので、判別の
ための特徴ベクトルが線形分離可能でない場合において
も、手続的な条件分岐を行なうことなく統一的な判別基
準で判別結果が得られることになり対象物に対する判別
や認識処理能力が向上する。
According to the fourth aspect of the present invention, the super group forming means forms a plurality of regions in the feature vector space and determines the union of the regions as one group. Even when it is not possible, the result of the determination can be obtained by the unified determination criterion without performing a procedural conditional branch, and the ability to perform the determination and the recognition of the object is improved.

【0028】請求項5の発明における画像処理装置は、
判別の認識処理中に判別結果が誤っていると判断された
場合、学習した全てのデータを再度読み込ませることな
く望ましい判別結果を入力することにより標準パターン
が再計算され、上記標準パターンの修正が可能となるこ
とから、判別の際の信頼性を向上させるように作用す
る。
According to a fifth aspect of the present invention, there is provided an image processing apparatus comprising:
If it is determined that the discrimination result is incorrect during the discrimination recognition process, the standard pattern is recalculated by inputting a desired discrimination result without re-reading all the learned data, and the correction of the standard pattern is performed. Since it becomes possible, it acts to improve the reliability at the time of discrimination.

【0029】請求項6の発明における画像処理装置は、
標準パターン学習時に多次元の特徴ベクトルの各次元に
おいてデータの正規化が行なわれ、集団を表現する中心
ベクトルの分散がどの次元に対しても同じ値になること
から演算が簡略化され、画像中における対象物に対する
認識処理能力が向上する。
According to a sixth aspect of the present invention, there is provided an image processing apparatus comprising:
During standard pattern learning, data is normalized in each dimension of the multidimensional feature vector, and the variance of the central vector representing the group becomes the same value in any dimension, which simplifies the calculation, , The recognition processing ability for the object is improved.

【0030】請求項7の発明における画像処理装置の総
合的特徴ベクトル生成手段は、局所的な画像の特徴だけ
でなく他のセンサ情報から同時に得られる特徴や大局的
な画像特徴を用いて学習が行なわれ、これら特徴を用い
て多次元特徴空間が構成され判別が行なわれ、より複雑
な状況に適応して画像中における対象物に対する信頼性
の高い判別が行なわれ認識処理能力が向上する。
According to the seventh aspect of the present invention, the comprehensive feature vector generating means of the image processing apparatus performs learning using not only local image features but also features obtained simultaneously from other sensor information and global image features. Then, a multidimensional feature space is constructed using these features and discrimination is performed, and a highly reliable discrimination of the object in the image is performed in accordance with a more complicated situation, thereby improving the recognition processing capability.

【0031】請求項8の発明における画像処理装置は、
学習時に入力画像の局所特徴以外の他のセンサ情報から
得られる特徴あるいは画像の大局的特徴が複数のクラス
に分類され学習データが得られ、同一の特徴を用いて学
習データから該当する上記クラスが選択され、選択した
クラスに記憶された学習データを用いて認識処理が行な
われることから、より複雑な状況に適応して画像中にお
ける対象物に対する信頼性の高い判別が行なわれ認識処
理能力が向上することになる。
An image processing apparatus according to the invention of claim 8 is:
At the time of learning, features obtained from other sensor information other than local features of the input image or global features of the image are classified into a plurality of classes and learning data is obtained. Since the recognition process is performed using the selected and the learning data stored in the selected class, highly reliable determination of the object in the image is performed to adapt to more complicated situations, and the recognition processing capability is improved. Will do.

【0032】請求項9の発明における画像処理装置は、
画像が複数の区画毎に分割され、この分割された区画毎
に学習と認識が行なわれることから、画像中の一部の領
域に着目することでその周囲の物体像の局所特徴が判別
結果に影響を及ぼすことがなくなり、結果として画像中
における対象物に対する信頼性の高い判別が可能にな
る。
According to a ninth aspect of the present invention, there is provided an image processing apparatus comprising:
The image is divided into a plurality of sections, and learning and recognition are performed for each of the divided sections. By focusing on a partial area in the image, the local features of the surrounding object image are included in the determination result. This has no effect, and as a result, a highly reliable determination of the object in the image can be made.

【0033】請求項10の発明における画像処理装置
は、部分領域の周辺部に付与される重み計数を中心部に
付与される重み計数よりも低くすることで、物体の形状
が多少変化したり位置合わせがずれて、該当する特徴が
学習時と認識時で領域内に含まれあるいは含まれないこ
とになり、認識の信頼性が低下するのを防止するように
作用する。
In the image processing apparatus according to the tenth aspect of the present invention, the weight count given to the peripheral portion of the partial area is made lower than the weight count given to the central portion, so that the shape of the object is slightly changed or the position is changed. The misalignment causes the corresponding feature to be included or not included in the region at the time of learning and at the time of recognition, and acts to prevent a reduction in recognition reliability.

【0034】請求項11の発明における画像処理装置
は、学習時の画像と認識時の画像間の物体の位置ずれ量
が複数の計測点で計測され、標準的な画像に最も近づけ
るためのたとえば平行移動,回転移動,拡大/縮小など
の幾何変換パラメータを用いて画像が幾何変換され判別
が行なわれることから、画像の重ね合わせ誤差による特
徴ベクトルの変動が抑制され、信頼性の高い判別が可能
になる。
In the image processing apparatus according to the eleventh aspect of the present invention, the displacement of the object between the image at the time of learning and the image at the time of recognition is measured at a plurality of measurement points. Since the image is geometrically transformed and determined using geometric transformation parameters such as movement, rotation, and enlargement / reduction, fluctuations in the feature vector due to image overlay errors are suppressed, and highly reliable determination is possible. Become.

【0035】請求項12の発明における画像処理装置
は、標準パターンと撮像された画像中の物体との対応関
係を3値画像の局所特徴レベルで行ない、部分画像中の
物体が判別された後に、特徴マップと標準局所特徴マッ
プ間での対応付けが矛盾なくできる特徴マップと標準局
所特徴マップ間の組み合わせが求められ、この際の幾何
変換パラメータと上記判別結果とが画像処理の認識結果
として出力されことから、上記部分画像中の周辺の物体
による影響が排除された状態で局部的な特徴パターンの
照合が可能になり、信頼性の高い判別結果を得ることを
可能にする。
The image processing apparatus according to the twelfth aspect performs the correspondence between the standard pattern and the object in the picked-up image at the local feature level of the ternary image, and after the object in the partial image is determined, A combination between the feature map and the standard local feature map that can be associated with the feature map and the standard local feature map without any inconsistency is obtained, and the geometric transformation parameters and the above determination result are output as image processing recognition results. Thus, local feature pattern collation can be performed in a state in which the influence of peripheral objects in the partial image is eliminated, and a highly reliable determination result can be obtained.

【0036】[0036]

【実施例】【Example】

実施例1.以下、請求項1の発明の一実施例を図につい
て説明する。図1は本実施例の画像処理装置の構成を示
すブロック図である。図1において図40または図41
と同一または相当の部分については同一の符号を付し説
明を省略する。
Embodiment 1 FIG. An embodiment of the first aspect of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of the image processing apparatus according to the present embodiment. 40 or 41 in FIG.
The same or corresponding parts are denoted by the same reference numerals and description thereof is omitted.

【0037】本実施例の画像処理装置は図1のブロック
図により示されるが、図40および図41と比較対照す
ることで明らかなように、図40における画像ディジタ
ル化手段10から3値表現された多重解像度のシーン表
現データである3値画像31までの構成と、図40に示
す特徴ベクトル抽出手段40から判別結果59までの構
成からなっている。本実施例の画像処理装置は従来の画
像処理装置の欠点を補い、対象物の局部的な違いを確実
に判別し認識すると共に、複数の階調を有した一般的な
情景の画像中における対象物に対する判別や認識処理能
力を向上させようとするものである。
The image processing apparatus of this embodiment is shown by the block diagram of FIG. 1. As is apparent from comparison with FIGS. 40 and 41, the image digitizing means 10 in FIG. It has a configuration up to the ternary image 31, which is the multi-resolution scene expression data, and a configuration from the feature vector extracting means 40 to the determination result 59 shown in FIG. The image processing apparatus of the present embodiment compensates for the drawbacks of the conventional image processing apparatus, reliably discriminates and recognizes a local difference of an object, and detects an object in an image of a general scene having a plurality of gradations. An object of the present invention is to improve the discrimination and recognition processing ability for an object.

【0038】次に、動作について説明する。図示してい
ないテレビカメラなどの画像撮像手段で撮像された画像
は、画像ディジタル化手段10によりディジタル化され
た原画像11に変換される。原画像11は、フィルタリ
ング手段20により空間的な低域成分と高域成分が取り
除かれる。次いで3値化処理手段30により―1/0/
1で表現される3値画像31に変換される。
Next, the operation will be described. An image captured by an image capturing unit such as a television camera (not shown) is converted into an original image 11 digitized by the image digitizing unit 10. The original low-frequency component and high-frequency component of the original image 11 are removed by the filtering unit 20. Next, -1 / 0 /
It is converted into a ternary image 31 represented by 1.

【0039】この3値画像31の生成の様子は図2に示
されている。図2では簡単のために画像の空間方向距離
はX軸方向についてのみ示されている。2次元の原画像
11のあるX軸方向の切断面が図2の(a)に示すよう
な4つの段階状エッジを含む画像である場合に、フィル
タリング手段20の出力は同図(b)に示すような波形
となる。次に、このこの波形を2つの閾値+δと閾値−
δで閾値処理を行なうと同図(c)に示すような3値の
幅の広いエッジ表現である3値化出力を得ることができ
る。
FIG. 2 shows how the ternary image 31 is generated. In FIG. 2, for the sake of simplicity, the spatial distance of the image is shown only in the X-axis direction. If a certain X-axis section of the two-dimensional original image 11 is an image including four stepwise edges as shown in FIG. 2A, the output of the filtering means 20 is shown in FIG. The waveform becomes as shown. Next, this waveform is divided into two thresholds + δ and −
By performing the threshold processing with δ, it is possible to obtain a ternary output as an edge expression having a wide ternary width as shown in FIG.

【0040】これに対し、図2の(d)は従来の画像処
理装置における原画像、同図(e)は前記原画像を1つ
の閾値δにより閾値処理を行なったときの2値化画像で
あり、このような2値化手法による画像処理では、図2
の(e)に示すように画像中の輝度変化のうちの特定の
部分のみが取り出されるにすぎない。
On the other hand, FIG. 2D shows an original image in a conventional image processing apparatus, and FIG. 2E shows a binarized image obtained by subjecting the original image to threshold processing with one threshold value δ. In image processing using such a binarization method, FIG.
(E), only a specific part of the luminance change in the image is extracted.

【0041】再び図1に戻り、3値画像31の処理につ
いて説明する。この3値画像31は特徴ベクトル抽出手
段40に入力される。特徴ベクトル抽出手段40は局所
画像切り出し位置走査手段39と特徴ベクトルの要素の
個数Nに対応して並列的に動作する局所特徴検出手段4
1−iと局所特徴計数手段42−iとが組み合わされて
機能している。この並列化は、実際にはハードウェーア
として複数個の回路を並列動作させて構成してもよく、
また局所特徴検出手段が検出する特徴を順次切り替えな
がら時系列的に処理してもよい。もちろん処理内容が同
一であればフィルタリング手段20や3値化処理手段3
0の部分を含めて計算機によるプログラム処理で実現し
てもよい。
Returning to FIG. 1, the processing of the ternary image 31 will be described. This ternary image 31 is input to the feature vector extracting means 40. The feature vector extracting unit 40 includes a local image cutout position scanning unit 39 and a local feature detecting unit 4 that operates in parallel according to the number N of elements of the feature vector.
1-i and the local feature counting means 42-i function in combination. This parallelization may actually be configured by operating a plurality of circuits in parallel as hardware,
The processing may be performed in time series while sequentially switching the features detected by the local feature detection unit. Of course, if the processing contents are the same, the filtering means 20 and the ternary processing means 3
It may be realized by computer program processing including the zero part.

【0042】次に、局所特徴検出手段41−iと局所特
徴計数手段42−iとの組み合わせ動作について説明す
る。局所特徴検出手段41−iは、画像中の着目画素を
中心としてその周囲の3値のパターンが固有の組み合わ
せになったときにだけ出力を発生する。そして、局所画
像切り出し位置走査手段39の出力を基に着目画素につ
いて画像全体にわたって走査することによりある特徴を
有したパターンがどのような頻度で発生したかを局所特
徴計数手段42−iのカウンタで計数する。局所特徴検
出手段41−iが反応する3値の局所パターンを変化さ
せることで局所パターンの個数Nに対応したN次元の特
徴ベクトル49が特徴ベクトル抽出手段40の出力とし
て得られる。
Next, the combined operation of the local feature detecting means 41-i and the local feature counting means 42-i will be described. The local feature detecting means 41-i generates an output only when the ternary pattern around the pixel of interest in the image becomes a unique combination. Then, based on the output of the local image cutout position scanning means 39, the frequency of a pattern having a certain characteristic generated by scanning the target pixel over the entire image is determined by the counter of the local characteristic counting means 42-i. Count. By changing the ternary local pattern to which the local feature detecting unit 41-i reacts, an N-dimensional feature vector 49 corresponding to the number N of local patterns is obtained as an output of the feature vector extracting unit 40.

【0043】次に、図7および図8に基づいて局所特徴
検出手段41について説明する。図7に示すように登録
された局所パターンg(x,y)と、3値表現された中
間画像f(x,y)の着目画素(i,j)の周囲から切
り出された部分画像f(i+δi,j+δj)との重ね
合わせを行ない、次に示す式(1)に基づいてパターン
検出出力を決定する。
Next, the local feature detecting means 41 will be described with reference to FIGS. As shown in FIG. 7, the registered local pattern g (x, y) and the partial image f (x, y) cut out from the periphery of the pixel of interest (i, j) of the ternary intermediate image f (x, y) i + δi, j + δj), and a pattern detection output is determined based on the following equation (1).

【0044】[0044]

【数1】 (Equation 1)

【0045】但し演算○は、図8に示すように入力画素
値である3値表現された中間画像fと局所パターンgの
画素値が一致したときには「+1」、差が1でれば
「0」、差が2でれば「−1」、局所パターンgの画素
値が不定であれば中間画像fの画素値に係わらず「0」
を出力するような一致度判定演算を意味している。この
一致度判定演算に関しては図8に示されるような演算だ
けでなく、図9に示すような演算であっても類似した結
果を得ることが出来る。また、前記(1)式におけるt
hresholdは局所パターン検出の閾値を意味し、
例えば局所パターンの面積から局所パターンに含まれる
不定値を示す画素の面積を差し引いた残りの値に一定比
率以上一致すれば局所パターンありと看做すようにす
る。但し、局所パターンが小さいときにはこの比率は
『100』、局所パターンが大きいときには『50』な
どと適当な値を選択することが望ましい。
However, as shown in FIG. 8, the operation ○ is “+1” when the pixel value of the intermediate image f represented by the ternary value as the input pixel value matches the pixel value of the local pattern g, and “0” when the difference is 1 "-1" if the difference is 2, and "0" regardless of the pixel value of the intermediate image f if the pixel value of the local pattern g is undefined.
Is output. Regarding the coincidence determination operation, not only the operation as shown in FIG. 8 but also the operation as shown in FIG. 9 can obtain similar results. Also, t in the above equation (1)
threshold means a threshold for local pattern detection,
For example, if a value equal to or more than a certain ratio is obtained by subtracting the area of the pixel having an indefinite value included in the local pattern from the area of the local pattern, the local pattern is determined to be present. However, it is desirable to select an appropriate value such as “100” when the local pattern is small and “50” when the local pattern is large.

【0046】次に局所パターンの具体的な実施例として
図3について説明を行なう。図において局所パターンg
1は着目画素が〔白〕であり「+1」、それ以外の画素
は〔灰〕であり「不定」であることを示している。従っ
て、局所パターンg1の検出結果を図7のカウンタ44
でカウントした結果得られる出力は全画面中の「+1」
の値を有した画素の数、すなわち面積に等しい。
Next, FIG. 3 will be described as a specific embodiment of the local pattern. In the figure, the local pattern g
1 indicates that the target pixel is [white] and is "+1", and the other pixels are [gray] and is "undefined". Accordingly, the detection result of the local pattern g1 is stored in the counter 44 of FIG.
The output obtained as a result of counting is "+1" in the entire screen.
Is equal to the number of pixels having a value of

【0047】同様にして局所パターンg2のカウント結
果は全画面中の「−1」の値を有した画素の数である。
局所パターンg3から局所パターンg18は、夫々隣接
画素の+1/−1の組み合わせを調べる局所パターンで
あり、これらは方向別のエッッジの点数を計測している
ことと等価である。
Similarly, the count result of the local pattern g2 is the number of pixels having a value of "-1" in the entire screen.
The local patterns g3 to g18 are local patterns for examining + 1 / -1 combinations of adjacent pixels, respectively, and are equivalent to measuring the number of edges for each direction.

【0048】次に局所パターンの別の実施例として図4
を基に説明する。図において局所パターンg101は、
縦に連続する「+1」画素と「−1」画素のペアが存在
することを意味し、縦方向の連続した輪郭を検出したこ
とに相当する。同様にして、局所パターンg102から
局所パターンg104は局所パターンg101の変形で
あり、これら局所パターンg101から局所パターン1
04の4つの局所パターンと+1/−1を入れ替えた類
似する4つの局所パターンを用いれば方向別の連続する
輪郭の長さを計測していることと等価である。
FIG. 4 shows another example of the local pattern.
This will be described based on FIG. In the figure, the local pattern g101 is
This means that there is a pair of vertically consecutive “+1” pixels and “−1” pixels, which corresponds to detecting a vertically continuous contour. Similarly, local patterns g102 to g104 are modifications of local pattern g101, and local patterns g101 to local pattern 1
Using the four local patterns of 04 and the similar four local patterns obtained by exchanging + 1 / -1 is equivalent to measuring the length of a continuous contour in each direction.

【0049】次に、局所パターンのさらに別の実施例と
して図5を基に説明する。図において、局所パターンg
201は中心が明るく周辺が暗い孤立点を検出すること
が出来る。逆に局所パターンg202は中心が暗く周辺
が明るい孤立点を検出することが出来る。
Next, still another embodiment of the local pattern will be described with reference to FIG. In the figure, the local pattern g
Reference numeral 201 can detect an isolated point whose center is bright and whose periphery is dark. Conversely, the local pattern g202 can detect an isolated point whose center is dark and whose periphery is bright.

【0050】さらに次に、局所パターンの他の実施例と
して図6を基に説明する。図において、局所パターンg
301は中心が明るく周辺が暗い幅「3」の縦線要素を
検出することができ、逆に局所パターンg302は中心
が暗く周辺が明るい縦線要素を検出する。同様に局所パ
ターンg303は中心が明るく周辺が暗い幅「3」の横
線要素を検出することができ、逆に局所パターンg30
4は中心が暗く周辺が明るい幅「3」の横線要素を検出
する。
Next, another embodiment of the local pattern will be described with reference to FIG. In the figure, the local pattern g
Reference numeral 301 can detect a vertical line element having a width “3” whose center is bright and its periphery is dark, and conversely, the local pattern g302 detects a vertical line element whose center is dark and its periphery is bright. Similarly, the local pattern g303 can detect a horizontal line element having a width of “3” whose center is bright and whose periphery is dark, and conversely, the local pattern g30
Reference numeral 4 denotes a horizontal line element having a width "3" in which the center is dark and the periphery is bright.

【0051】このように図3,図4,図5,図6などの
局所パターンを用いて画像の数々の特徴を3値で記述す
ることができる。
As described above, various features of an image can be described in three values using the local patterns shown in FIG. 3, FIG. 4, FIG. 5, FIG.

【0052】ここで再度図1に戻り、このようにして生
成された画像中の局所特徴の累計である特徴ベクトル4
9は、特徴ベクトル判別手段50に入力される。特徴ベ
クトル判別手段50では、特徴ベクトル49と標準パタ
ーン56とのマッチングを行なう。たとえば、パターン
学習時にはm個の学習データすなわち学習時の特徴ベク
トルciに対してそれらが判別後のクラスkに属するな
らば次に示す式(2)に示す平均ベクトルc*kを作成
し、経路58よりk個の標準パターン56として記憶す
る。
Here, returning to FIG. 1 again, the feature vector 4 which is the total of the local features in the image generated in this way is shown.
9 is input to the feature vector determining means 50. The feature vector determining means 50 performs matching between the feature vector 49 and the standard pattern 56. For example, at the time of pattern learning, if m learning data, that is, the feature vectors ci at the time of learning belong to the class k after discrimination, an average vector c * k shown in the following equation (2) is created, and 58 are stored as k standard patterns 56.

【0053】[0053]

【数2】 (Equation 2)

【0054】認識時には、新たに入力された特徴ベクト
ルcに対してこの標準パターンを経路57により夫々読
み出し、次に示す演算式(3)によりk個の標準パター
ン夫々について特徴ベクトル間の距離を測定し、これら
の内でもっとも近いベクトルのクラスkを最終的な判断
結果59として出力する。
At the time of recognition, this standard pattern is read out from the newly input feature vector c by the path 57, and the distance between the feature vectors is measured for each of the k standard patterns by the following equation (3). Then, the class k of the closest vector is output as the final judgment result 59.

【0055】[0055]

【数3】 (Equation 3)

【0056】なお、図3,図4,図5,図6に示される
ようにまとまった画像の構造を検出するには、ある程度
の大きなサイズを有した局所特徴を用いて局所パターン
の検出を行なう必要がある。しかし、大きなサイズの局
所特徴との比較は前記式(1)における繰り返し演算回
数が大きくなり、大規模なハードウェーアを用いること
になり、またソフトウェアにより実行する場合には検出
時間が長くなるなどの問題点がある。
As shown in FIGS. 3, 4, 5, and 6, a local pattern is detected by using a local feature having a certain large size. There is a need. However, the comparison with a local feature having a large size requires a large number of repetitive operations in the above equation (1), uses a large-scale hardware, and requires a long detection time when executed by software. There is a problem.

【0057】このため本実施例では、画像縮小手段12
を用いることで小さなサイズの局所特徴検出手段しか有
していない場合でも、大きなまとまりの局所パターンの
検出を可能にしている。たとえば、原画像11を画像縮
小手段12を用いて1/2に平均化再サンプリングした
後に特徴ベクトル抽出手段40に入力する。ここで局所
パターンが図3に示すように3×3のパターンであった
ようなときに、原画像に戻したときの解像度で表現すれ
ば6×6の局所パターンに相当することになる。従って
小さなサイズの局所特徴検出手段により大きなサイズの
局所特徴を検出することができ、画像縮小する場合とし
ない場合の中間画像を切り替えて複合的な画像特徴ベク
トルを作成することで、より複雑なパターンの検出や信
頼性の高い判別結果を得ることができる。また、3値の
閾値δはフィルタリング手段20の出力ヒストグラムか
ら例えば最大値の定数分の1に設定するなど自動的に決
定することができ、画像全体の明るさ変化に対してより
柔軟に追従できることになる。
For this reason, in this embodiment, the image reducing means 12
Is used, it is possible to detect a large coherent local pattern even when only a small-sized local feature detecting means is provided. For example, the original image 11 is input to the feature vector extracting unit 40 after averaging and resampling the original image 11 by 1/2 using the image reducing unit 12. Here, when the local pattern is a 3 × 3 pattern as shown in FIG. 3, it is equivalent to a 6 × 6 local pattern when represented by the resolution at the time of returning to the original image. Accordingly, a local feature having a large size can be detected by a local feature detecting means having a small size, and a complex image feature vector is created by switching an intermediate image when the image is reduced or not, thereby creating a more complex pattern. And a highly reliable determination result can be obtained. Further, the ternary threshold value δ can be automatically determined from the output histogram of the filtering means 20 by, for example, setting it to a constant value of the maximum value, and can more flexibly follow the brightness change of the entire image. become.

【0058】実施例2.以下、請求項2の発明の一実施
例を図について説明する。図10は本実施例の画像処理
装置の構成を示すブロック図であり、図10において図
1と同一または相当の部分については同一の符号を付し
説明を省略する。図において43―1,43―2,43
―3・・・43―Nは局所特徴累積手段である。この局
所特徴累積手段は、局所特徴検出手段41−iにより検
出された3値画像と局所パターンとの類似度を画像中で
累積する手段である。
Embodiment 2 FIG. Hereinafter, an embodiment of the second aspect of the present invention will be described with reference to the drawings. FIG. 10 is a block diagram showing the configuration of the image processing apparatus according to the present embodiment. In FIG. 10, the same or corresponding parts as those in FIG. In the figure, 43-1, 43-2, 43
43 ... 43-N is local feature accumulation means. The local feature accumulating means accumulates the similarity between the ternary image detected by the local feature detecting means 41-i and the local pattern in the image.

【0059】次に図11を基に特徴ベクトル抽出手段4
0について説明を行なう。図に示すように、登録された
局所パターンg(x,y)と3値表現された中間画像f
(x,y)の着目画素(i,j)の周囲から切り出され
た部分画像f(i+δi,j+δj)との重ね合わせを
行ない、次に示す式(4)に基づいてパターン検出出力
E(i,j)を決定する。
Next, based on FIG.
0 will be described. As shown in the figure, the registered local pattern g (x, y) and the intermediate image f expressed in three values
(X, y) is overlapped with a partial image f (i + δi, j + δj) cut out from the periphery of the pixel of interest (i, j), and the pattern detection output E (i , J).

【0060】[0060]

【数4】 (Equation 4)

【0061】但し、演算○は図8あるいは図9に示すよ
うな一致度判定演算である。このようにして画像中の局
所特徴が加算器45において累計され特徴ベクトル49
として生成される。生成された画像中の局所特徴の累計
である特徴ベクトル49は、特徴ベクトル判別手段50
に入力される。特徴ベクトル判別手段50では、特徴ベ
クトル49と標準パターンとのマッチングを行ない、k
個の標準パターン夫々について特徴ベクトル間の距離を
測定し、測定した特徴ベクトル間の距離を基にもっとも
近いベクトルのクラスkを最終的な判断結果59として
出力する。
However, the operation ○ is a coincidence degree judgment operation as shown in FIG. 8 or FIG. In this way, the local features in the image are accumulated in the adder 45 and the feature vector 49
Is generated as The feature vector 49, which is the sum of the local features in the generated image, is calculated by a feature vector determination unit 50.
Is input to The feature vector discriminating means 50 performs matching between the feature vector 49 and the standard pattern, and calculates k
The distance between the feature vectors is measured for each of the standard patterns, and the class k of the closest vector is output as the final determination result 59 based on the measured distance between the feature vectors.

【0062】実施例3.以下、請求項3の発明の一実施
例を図について説明する。図12,図13は本実施例の
画像処理装置の構成を示すブロック図であり、図12,
図13において図1および図10と同一または相当の部
分については同一の符号を付し説明を省略する。この実
施例では、特徴ベクトル判別手段50は回帰分析手段
(判定信頼性向上手段)55と標準パターン56と判別
部54を備えている。
Embodiment 3 FIG. Hereinafter, one embodiment of the third aspect of the present invention will be described with reference to the drawings. FIGS. 12 and 13 are block diagrams showing the configuration of the image processing apparatus according to the present embodiment.
13, the same or corresponding parts as those in FIGS. 1 and 10 are denoted by the same reference numerals, and description thereof will be omitted. In this embodiment, the feature vector determination means 50 includes a regression analysis means (determination reliability improving means) 55, a standard pattern 56, and a determination unit 54.

【0063】特徴ベクトル判別手段50は、図41に示
す従来の画像処理装置における重回帰分析に基づいた統
計的判別特徴抽出と同様な動作を行なうものであり、学
習時に全部でL個の例題について学習するとして、第i
番目の例題に関してN次元の特徴ベクトル49の入力が
ベクトルxi=(xi,0,xi,1・・・,xi,N
−1)であり、それに対する望ましい判別結果の出力が
ベクトルzi=(zi,0,・・・,zi,M−1)で
あったときに次に示す式(5)で表わされる重回帰係数
行列Aを求めこれを標準パターン56として登録してお
く。
The feature vector discriminating means 50 performs the same operation as the statistical discriminating feature extraction based on the multiple regression analysis in the conventional image processing apparatus shown in FIG. 41. To learn, i
For the second example, the input of the N-dimensional feature vector 49 is the vector xi = (xi, 0, xi, 1,..., Xi, N
-1), and when the output of the desired discrimination result is vector zi = (zi, 0,..., Zi, M-1), a multiple regression coefficient represented by the following equation (5): A matrix A is obtained and registered as a standard pattern 56.

【0064】[0064]

【数5】 (Equation 5)

【0065】そして、認識実行時には新たに入力された
特徴ベクトル49に対して次式(6)による演算を判別
部54において行ない、その結果ベクトルyを判別結果
59として出力する。
Then, at the time of executing the recognition, the discrimination unit 54 performs an operation on the newly input feature vector 49 by the following equation (6), and outputs the result vector y as the discrimination result 59.

【0066】[0066]

【数6】 (Equation 6)

【0067】但し、AT は重回帰係数行列Aの転置行列
を示し、またA-1は重回帰係数行列Aの逆行列を示す。
Here, AT indicates a transposed matrix of the multiple regression coefficient matrix A, and A -1 indicates an inverse matrix of the multiple regression coefficient matrix A.

【0068】実施例4.以下、請求項4の発明の一実施
例を図について説明する。図14,図15は本実施例の
画像処理装置の構成を示すブロック図であり、図14,
図15において図1および図10と同一または相当の部
分については同一の符号を付し説明を省略する。この実
施例では、特徴ベクトル判別手段50は超集団形成手段
60と超集団の標準パターン56と多次元空間クラス判
別手段61を備えている。
Embodiment 4 FIG. An embodiment of the invention according to claim 4 will be described below with reference to the drawings. FIGS. 14 and 15 are block diagrams showing the configuration of the image processing apparatus according to the present embodiment.
In FIG. 15, the same or corresponding parts as those in FIGS. 1 and 10 are denoted by the same reference numerals and description thereof is omitted. In this embodiment, the feature vector discriminating means 50 includes a super-population forming means 60, a super-population standard pattern 56, and a multidimensional space class discriminating means 61.

【0069】超集団形成手段60では、学習時に全部で
L個の例題について学習するとして、第i番目の例題に
関してN次元の特徴ベクトル49の入力がベクトルxi
=(xi,0,xi,1・・・,xi,N−1)であ
り、それに対する望ましい判別結果の出力がベクトルz
i=(zi,0,・・・zi,M−1)であったとき
に、ベクトルziの1つの要素zi,j(j=0,・・
・,M―1)に対して超集団Cj,k=(cj,k0
U,cj,k1U・・・Ug,ks)を更新する。但
し、cj,kg(g=0,・・・,s―1)は超集団C
j,kを構成する個々の集団であり、超集団Cj,kは
個々の集団の和集合として表現されている。また、1つ
の集団cj,kgはその集団の中心ベクトルγj,kg
とその集団に含まれる学習済の特徴ベクトルのバラツキ
を示す分散ベクトルσj,kgの2つのパラメータで表
現される。
The supergroup forming means 60 learns a total of L examples at the time of learning, and inputs the N-dimensional feature vector 49 to the vector xi for the i-th example.
= (Xi, 0, xi, 1,..., Xi, N−1), and the output of the desired discrimination result is the vector z
When i = (zi, 0,... zi, M−1), one element zi, j (j = 0,.
, M−1), the supergroup Cj, k = (cj, k0)
U, cj, k1U... Ug, ks). Here, cj, kg (g = 0,..., S−1) is the super-group C
j, k are individual groups, and the super-group Cj, k is expressed as a union of the individual groups. Further, one group cj, kg is the center vector γj, kg of the group.
And a variance vector σj, kg indicating a variation of learned feature vectors included in the group.

【0070】超集団の更新は次のような手順で行なわれ
る。すなわち、図16に示すように新たな入力が超集団
を構成する集団のいずれかに含まれる(ベクトルの距離
が前記σの定数倍よりも小さい)ときには、その新しい
入力を用いて既存の集団の中心と分散を修正する。一
方、ベクトルの距離が前記σの定数倍よりも大きいと
き、すなわちどの集団からも離れているならば、新たに
集団を形成させる。このようにして1つの判別結果に属
するすべての特徴ベクトルがいくつかの集団の和集合内
に含まれるような集団を形成させる。
Updating of the super group is performed in the following procedure. That is, as shown in FIG. 16, when the new input is included in any of the groups constituting the super-group (the distance of the vector is smaller than the constant multiple of σ), the new input is used to change the existing group. Modify center and variance. On the other hand, when the distance of the vector is larger than the constant times σ, that is, when the vector is far from any group, a new group is formed. In this way, a group is formed such that all feature vectors belonging to one determination result are included in the union of several groups.

【0071】図17,図18は、以上説明した超集団の
更新の手順を示すフローチャートであり、このフローチ
ャートを基に超集団が更新される際の動作について説明
する。まずステップST1では、学習時の第i番目の特
徴ベクトルxiとそれに対応した望ましい判別結果の出
力(すなわち教師入力)ベクトルziを入力する。続く
ステップST2では、望ましい判別結果の出力ベクトル
ziに基づいてk=zi,jなる超集団Cj,kを選択
する。ステップST3では、選択した超集団Cj,kが
空集合であるか否かを判断し、空集合であるとき(すな
わち初めて判別出力がkとなるべき特徴を学習すると
き)には続くステップST4に進み、またこれ以外のと
きにはステップST5を実行する。
FIGS. 17 and 18 are flowcharts showing the procedure for updating the supergroup described above. The operation when the supergroup is updated will be described based on the flowchart. First, in step ST1, an i-th feature vector xi at the time of learning and an output (ie, teacher input) vector zi of a desired determination result corresponding thereto are input. In the following step ST2, a supergroup Cj, k of k = zi, j is selected based on the output vector zi of the desired determination result. In step ST3, it is determined whether or not the selected super-group Cj, k is an empty set. If the selected super-group Cj, k is an empty set (ie, when a feature whose discrimination output is to be k for the first time is learned), the process proceeds to step ST4. Proceed, and otherwise, execute step ST5.

【0072】ステップST4では、新たな超集団Cj,
k=(Cj,k0)を生成し、Cj,k0の特徴ベクト
ル中心をベクトルγj,ks=ベクトルxiとし、C
j,k0の特徴ベクトル分散をσj,k0=σ0とす
る。但しσ0は定数である。
In step ST4, a new supergroup Cj,
k = (Cj, k0) is generated, and the feature vector center of Cj, k0 is set to vector γj, ks = vector xi, and C
Let the feature vector variance of j, k0 be σj, k0 = σ0. Here, σ0 is a constant.

【0073】またステップST5では、超集団Cj,k
の各要素集団cj,kg(g=0,・・・,s―1)の
中心ベクトルrj,kgとの距離の絶対値dを測定す
る。そして、ステップST6において、d<Aσj,k
g(但し、Aは定数)を満足する上記gが存在するか否
かを判断し、存在すれば次のステップST7を実行し、
また存在しなければステップST8に進む。
In step ST5, the super group Cj, k
The absolute value d of the distance from the center vector rj, kg of each of the element groups cj, kg (g = 0,..., S-1) is measured. Then, in step ST6, d <Aσj, k
It is determined whether or not the above g that satisfies g (where A is a constant) exists, and if so, the next step ST7 is executed,
If not, the process proceeds to step ST8.

【0074】ステップST7では、d<Aσj,kgを
満足するgで差し示された集団cj,kgについて次に
示す式(7),式(8)により中心ベクトルrj,kg
と中心ベクトルの分散δj,kgを更新する。
In step ST7, for the groups cj, kg indicated by g satisfying d <Aσj, kg, the central vectors rj, kg are calculated by the following equations (7) and (8).
And the variance δj, kg of the center vector is updated.

【0075】[0075]

【数7】 (Equation 7)

【0076】[0076]

【数8】 (Equation 8)

【0077】ステップST8では、新たな集団cj,k
sを生成し、超集団Cj,kに追加し、集団cj,ks
の特徴ベクトル中心をベクトルγj,ks=ベクトルx
iとすると共に、特徴ベクトル分散をσj,ks=σ0
する。
In step ST8, a new group cj, k
s is generated and added to the super-group Cj, k, and the group cj, ks
Γj, ks = vector x
i, and the variance of the feature vector is σj, ks = σ0
I do.

【0078】そして、認識実行時には、多次元空間クラ
ス判別手段61により、超集団の識別番号を指定せずに
全ての超集団Cj(j=0,・・・,M)に関してステ
ップST5のテストを行ない、もっとも近い集団が属す
る超集団の識別番号を判別結果として出力する。
Then, at the time of recognition execution, the multi-dimensional space class discriminating means 61 performs the test of step ST5 on all super-groups Cj (j = 0,..., M) without specifying the identification number of the super-group. Then, the identification number of the supergroup to which the closest group belongs is output as the determination result.

【0079】実施例5.以下、請求項5の発明の一実施
例を図について説明する。図19,図20は本実施例の
画像処理装置の構成を示すブロック図であり、図19,
図20において図12,図13と同一または相当の部分
については同一の符号を付し説明を省略する。図におい
て70は結果表示手段であり、操作者72に判定結果を
表示する手段である。71は修正入力手段であり、操作
者72が手動により修正データを入力する。この画像処
理装置では、認識実行時に判別出力59を操作者72が
監視しており、判別出力が望ましくないと判断したとき
には修正入力手段71により望ましい出力(修正教師入
力)を入力する。この修正教師入力は回帰分析手段55
に送られて前記式(5)に従い重回帰係数Aが再計算さ
れる。重回帰係数Aを再計算するために回帰分析手段5
5では中間データとして下記式(9),(10)とを保
存しておきこれを基に再計算を行なう。従って過去の学
習データをすべて記憶しておく必要はない。
Embodiment 5 FIG. An embodiment of the invention will be described below with reference to the drawings. 19 and 20 are block diagrams showing the configuration of the image processing apparatus according to the present embodiment.
20, parts that are the same as or correspond to those in FIGS. 12 and 13 are given the same reference numerals, and descriptions thereof will be omitted. In the figure, reference numeral 70 denotes a result display means, which is a means for displaying a determination result to the operator 72. Reference numeral 71 denotes correction input means, and an operator 72 manually inputs correction data. In this image processing apparatus, the operator 72 monitors the discrimination output 59 at the time of performing the recognition, and when the discrimination output is determined to be undesirable, the correction input means 71 inputs a desired output (correction teacher input). This corrected teacher input is sent to the regression analysis means 55.
And the multiple regression coefficient A is recalculated according to the equation (5). Regression analysis means 5 to recalculate multiple regression coefficient A
In step 5, the following equations (9) and (10) are stored as intermediate data, and recalculation is performed based on this. Therefore, it is not necessary to store all past learning data.

【0080】[0080]

【数9】 (Equation 9)

【0081】なお、以上説明した実施例では、操作者7
2が手動で修正入力を行なうものとして説明したが、判
別出力の矛盾を監視する監視手段を設け、さらにこの監
視手段の監視結果を基に自動的に修正を行なうようにし
てもよい。また、修正入力がない場合には判別出力が正
しいと判断されるので、この場合にも回帰分析を行なっ
て回帰係数Aを修正することにより多くの学習を可能に
し、認識の精度を向上させることが出来る。
In the embodiment described above, the operator 7
Although the description has been made assuming that the correction input is manually performed, the monitoring means for monitoring the inconsistency of the discrimination output may be provided, and the correction may be automatically performed based on the monitoring result of the monitoring means. Also, when there is no correction input, it is determined that the discrimination output is correct. In this case, too, a large amount of learning can be performed by correcting the regression coefficient A by performing regression analysis, thereby improving the recognition accuracy. Can be done.

【0082】また、以上説明した実施例では図12,図
13を前提として説明を行なったが、図14,図15に
示す画像処理装置を前提にしたものであってもよく、同
様な効果を奏するものである。すなわち、図14,図1
5に示す画像処理装置の集団形成型の分類手法に適用す
るには、再計算のための計算式を図17,図18のステ
ップST2からステップST8に基づいた手順に従って
実行すればよい。
Although the above-described embodiment has been described with reference to FIGS. 12 and 13, the image processing apparatus shown in FIGS. 14 and 15 may be used. To play. That is, FIG. 14, FIG.
In order to apply to the group formation type classification method of the image processing apparatus shown in FIG. 5, a calculation formula for recalculation may be executed according to the procedure based on steps ST2 to ST8 in FIGS.

【0083】実施例6.以下、請求項6の発明の一実施
例を図について説明する。図21,図22は本実施例の
画像処理装置の構成を示すブロック図であり、図21,
図22において図14,図15と同一または相当の部分
については同一の符号を付し説明を省略する。図におい
て81は正規化パラメータ抽出手段であり、特徴ベクト
ル49を解析する。82は正規化演算を行なうための正
規化処理手段である。
Embodiment 6 FIG. An embodiment of the invention according to claim 6 will be described below with reference to the drawings. FIGS. 21 and 22 are block diagrams showing the configuration of the image processing apparatus of the present embodiment.
In FIG. 22, the same or corresponding parts as those in FIGS. 14 and 15 are denoted by the same reference numerals and description thereof is omitted. In the figure, reference numeral 81 denotes a normalization parameter extracting means for analyzing the feature vector 49. Reference numeral 82 denotes a normalization processing unit for performing a normalization operation.

【0084】この実施例では、学習は第1のステップと
第2のステップの2つのステップに従って行なわれる。
第1のステップでは、特徴ベクトル49のみが評価され
教師入力は無視される。そして、特徴ベクトル入力が正
規化パラメータ抽出手段81により解析され、特徴ベク
トルの各次元毎に平均値xjと標準偏差sjが算出され
る。
In this embodiment, learning is performed according to two steps, a first step and a second step.
In the first step, only the feature vector 49 is evaluated and the teacher input is ignored. Then, the input of the feature vector is analyzed by the normalization parameter extracting means 81, and an average value xj and a standard deviation sj are calculated for each dimension of the feature vector.

【0085】また、第2のスッテップでは、前記実施例
4で説明したように超集団の形成が行なわれるが、超集
団形成手段55に送られる前に次に示す式(11)に従
って正規化演算が正規化処理手段82において行なわれ
る。
In the second step, a supergroup is formed as described in the fourth embodiment. Before the supergroup is sent to the supergroup forming means 55, a normalization operation is performed in accordance with the following equation (11). Is performed in the normalization processing means 82.

【0086】[0086]

【数10】 (Equation 10)

【0087】このため、どの次元の特徴ベクトル要素j
に対してもデータの分散が一定となり、超集団を構成す
る集団の分散値がどの次元の方向に対しても同じである
と近似することができ、前記式(8)において中心ベク
トルの分散σj,kgは1つのgに対してすべて同じ値
となり計算が簡略化されることになる。
Therefore, the feature vector element j of any dimension
, The variance of the data is constant, and it can be approximated that the variance value of the group constituting the super-group is the same in any dimension direction. , Kg are all the same value for one g, and the calculation is simplified.

【0088】実施例7.以下、請求項7の発明の一実施
例を図について説明する。図23,図24は本実施例の
画像処理装置の構成を示すブロック図であり、図23,
図24において図14,図15と同一または相当の部分
については同一の符号を付し説明を省略する。図におい
て90は対象物の色彩を計測するための色彩計測光学
系、91はディジタル化された原画像11の局所平均輝
度を検出する局所平均輝度検出手段、92は色彩計測光
学系90の出力から対象物の色彩を計測し、たとえば
R,G,Bの原色信号などからなる色彩情報を検出する
色彩計測手段である。
Embodiment 7 FIG. An embodiment of the present invention will be described below with reference to the drawings. FIGS. 23 and 24 are block diagrams showing the configuration of the image processing apparatus of the present embodiment.
In FIG. 24, the same or corresponding parts as in FIGS. 14 and 15 are denoted by the same reference numerals, and description thereof is omitted. In the figure, reference numeral 90 denotes a color measurement optical system for measuring the color of an object, reference numeral 91 denotes a local average luminance detecting means for detecting the local average luminance of the digitized original image 11, and reference numeral 92 denotes an output of the color measurement optical system 90. This is a color measuring unit that measures the color of an object and detects color information including, for example, R, G, and B primary color signals.

【0089】この実施例の画像処理装置は画像の局所特
徴だけでなく、画像上のある点の輝度により撮影された
対象物の状況が大きく変化したり、あるいはモノクロの
画像からでは判断できないような場合に、前記色彩情報
などの他のセンサ情報を併用して総合的な判別を行なう
ことが出来る。
The image processing apparatus of this embodiment is not limited to the local features of the image, but the luminance of a point on the image may significantly change the situation of the photographed object, or the image processing apparatus may not be able to determine from the monochrome image. In such a case, comprehensive discrimination can be performed using other sensor information such as the color information.

【0090】局所平均輝度検出手段91と色彩計測手段
92の出力は特徴ベクトル49の段階で合成され、総合
的特徴ベクトル判別手段51で総合的に判別されること
になる。従って、たとえば“全体に白みを帯びた塗装製
品と黒みを帯びた塗装製品を別のものとして判別した
い”あるいは“赤い塗装の三角の形状の部品と緑の塗装
の丸い部品とを判別したい”などの複雑な条件の基での
判別作業を高い信頼性で行なうことができる。
The outputs of the local average luminance detecting means 91 and the color measuring means 92 are combined at the stage of the feature vector 49, and are comprehensively determined by the comprehensive feature vector determining means 51. Therefore, for example, "I want to distinguish between a painted product that is entirely whitish and a painted product that is darkish" or "I want to distinguish between a triangular red painted part and a green painted part." Discrimination work under complicated conditions such as the above can be performed with high reliability.

【0091】また、屋外など天候,季節,時間帯により
光源や背景が大きく変化する状況では外部情報として天
候の状態等を検出するセンサの出力や時刻情報などを用
いることで複雑に変化する環境下でも高い信頼性で判別
を行なうことが可能となる。
In a situation where the light source or the background greatly changes depending on the weather, season, or time zone, such as outdoors, in an environment where the output changes from a sensor for detecting the weather condition or the like or time information is used as external information, the environment changes complicatedly. However, it is possible to perform the determination with high reliability.

【0092】実施例8.以下、請求項8の発明の一実施
例を図について説明する。図25,図26は本実施例の
画像処理装置の構成を示すブロック図であり、図25,
26において図23,24と同一または相当の部分につ
いては同一の符号を付し説明を省略する。図において5
6は標準パターンであり複数設けられている。93は局
所平均輝度検出手段91と対象物の色彩を計測する色彩
計測手段92の出力を複数のクラスに分類し、判別を行
なう際に使用する標準パターンを切り替える際に使用さ
れる大分類クラス生成手段である。
Embodiment 8 FIG. An embodiment of the invention according to claim 8 will be described below with reference to the drawings. FIGS. 25 and 26 are block diagrams showing the configuration of the image processing apparatus of this embodiment.
In FIG. 26, the same or corresponding parts as those in FIGS. 5 in the figure
Reference numeral 6 denotes a standard pattern, which is provided in plurality. 93 classifies the outputs of the local average luminance detecting means 91 and the color measuring means 92 for measuring the color of the object into a plurality of classes, and generates a large classification class used when switching a standard pattern used for discrimination. Means.

【0093】この実施例の画像処理装置でも前記実施例
7と同様に、画像の局所特徴だけでなく、画像上のある
点の輝度により撮影された対象物の状況が大きく変化し
たり、あるいはモノクロの画像からでは判断できないよ
うな場合に他のセンサ情報を併用して総合的な判別を行
なうことが出来る。そして、局所平均輝度検出手段91
と対象物の色彩計測手段92の出力は、特徴ベクトル4
9の段階で合成されることなく大分類クラス生成手段9
3により独自に複数のクラスに分類され、これにより分
類された標準パターン56を総合的特徴ベクトル判別手
段51は認識の際に切り替えて使用する。
In the image processing apparatus of this embodiment, as in the case of the seventh embodiment, not only the local features of the image but also the brightness of a certain point on the image greatly changes the situation of the photographed object, or In the case where it cannot be determined from the image of the above, a comprehensive determination can be made by using other sensor information together. Then, the local average luminance detecting means 91
The output of the object color measuring means 92 is the feature vector 4
Large classification class generating means 9 without being synthesized at the stage of 9
3, the integrated feature vector discriminating means 51 switches and uses the standard pattern 56 thus classified at the time of recognition.

【0094】従って、たとえば“全体に白みを帯びた塗
装製品と黒みを帯びた塗装製品では検査の際の判断基準
が異なる”あるいは“赤い塗装の三角の形状の部品では
孔の数を計測し、緑の塗装の丸い部品では面積を計測し
たい”などの複雑な条件の基での作業を高い信頼性で行
なうことができる。
Therefore, for example, “the judgment criteria for the inspection differ between a painted product that is entirely whitish and a painted product that is blackish” or “the number of holes is measured for a red painted triangular part. I want to measure the area of a green painted round part. "

【0095】また、屋外など天候,季節,時間帯により
光源や背景が大きく変化する状況下では外部情報として
天候の状態などを検出するセンサの出力や時刻情報、さ
らに温度や重さなどの情報を必要に応じて組み合わせる
ことで、高い信頼性で判別を行なうことが可能となる。
In a situation where the light source and the background greatly change depending on the weather, season, and time zone, such as outdoors, the output and time information of a sensor for detecting the weather state and the like, and information such as temperature and weight are used as external information. By combining them as needed, it is possible to perform the determination with high reliability.

【0096】実施例9.以下、請求項9の発明の一実施
例を図について説明する。図27,28は本実施例の画
像処理装置の構成を示すブロック図であり、図27,2
8において図1と同一または相当の部分については同一
の符号を付し説明を省略する。図において101は3値
表現された3値画像31を図29の(b)に示すような
矩形上の部分領域に分割し、その内部を操作する部分画
像分割操作手段である。
Embodiment 9 FIG. An embodiment of the ninth aspect of the present invention will be described below with reference to the drawings. FIGS. 27 and 28 are block diagrams showing the configuration of the image processing apparatus of this embodiment.
In FIG. 8, the same or corresponding parts as those in FIG. In the figure, reference numeral 101 denotes a partial image dividing operation unit that divides a ternary image 31 represented by ternary into rectangular partial areas as shown in FIG. 29B and operates the inside thereof.

【0097】この実施例の画像処理装置では、部分画像
分割操作手段101により走査と同時に分割された部分
画像の識別番号を用いて複数の標準パターン56から対
応する標準パターンを選択し、選択された標準パターン
番号について学習と認識を実行する。図29では、画像
は30個の部分領域a0〜a29に分割され、図29の
(c)は領域番号a7の部分領域が選択された状態を示
している。このような選択を領域番号a0からa29ま
ですべての部分領域について繰り返し全体の走査を終了
する。
In the image processing apparatus of this embodiment, the corresponding standard pattern is selected from the plurality of standard patterns 56 by using the identification numbers of the partial images divided at the same time as the scanning by the partial image dividing operation means 101. Perform learning and recognition for standard pattern numbers. In FIG. 29, the image is divided into 30 partial areas a0 to a29, and FIG. 29C shows a state where the partial area with the area number a7 is selected. Such selection is repeated for all the partial areas from the area numbers a0 to a29, and the entire scanning is completed.

【0098】この結果、本実施例の画像処理装置では、
ある標準パターンには着目している領域内部の局所特徴
のみしか影響を及ぼすことがなく、他の領域の特徴を加
算しないようにしたので、周辺の領域の特徴ベクトルと
選択された領域の特徴ベクトルのパターンが異なってい
ても判別が困難にならず、判別の信頼性が向上する。
As a result, in the image processing apparatus of this embodiment,
Since only a local feature in the area of interest has an effect on a certain standard pattern and features of other areas are not added, the feature vector of the peripheral area and the feature vector of the selected area are not added. Even if the patterns are different, the determination does not become difficult, and the reliability of the determination is improved.

【0099】なお、以上説明した実施例では、矩形上の
部分画像に分割するものとして説明したが、対象物の画
面上に占める形状を自由に定義し、その内部を部分画像
とするようにしてもよい。
In the embodiment described above, the image is divided into rectangular partial images. However, the shape of the object occupying the screen is freely defined, and the inside is defined as the partial image. Is also good.

【0100】実施例10.以下、請求項10の発明の一
実施例を図について説明する。図30,31は本実施例
の画像処理装置の構成を示すブロック図であり、図3
0,31において図27,28と同一または相当の部分
については同一の符号を付し説明を省略する。図におい
て104は重み係数発生手段であり、3値表現された3
値画像31を図29の(b)に示されるような矩形状の
部分領域に分割しその内部を走査する際に、部分領域の
周辺部分を走査している場合は中央部分を走査している
場合に比べて低い重み係数を発生する。この重み係数
は、局所特徴計数手段42−1から局所特徴計数手段4
2−Nに入力され、この重みに応じた値がカウントされ
る。
Embodiment 10 FIG. An embodiment of the invention will be described below with reference to the drawings. FIGS. 30 and 31 are block diagrams showing the configuration of the image processing apparatus of the present embodiment.
In FIGS. 27 and 28, the same or corresponding parts in FIGS. 27 and 28 are denoted by the same reference numerals and description thereof is omitted. In the figure, reference numeral 104 denotes a weight coefficient generating means,
When the value image 31 is divided into rectangular partial areas as shown in FIG. 29B and the inside is scanned, when the peripheral area of the partial area is scanned, the central area is scanned. A lower weighting factor is generated as compared to the case. This weighting factor is calculated from the local feature counting unit 42-1 to the local feature counting unit 4
2-N, and a value corresponding to the weight is counted.

【0101】以上説明したように本実施例では、前記部
分領域の周辺部において局所特徴の重みが低くなるの
で、物体の形状が多少変化したり位置合わせがずれてい
ることで、領域内の該当する特徴が学習時と認識時で含
まれたり含まれなかったりして認識の信頼性が低下する
などの現象を防止することができる。
As described above, in the present embodiment, the weight of the local feature is low in the peripheral portion of the partial region. It is possible to prevent phenomena such as the fact that the feature to be performed is included or not included during learning and during recognition and the reliability of recognition is reduced.

【0102】実施例11.以下、請求項11の発明の一
実施例を図について説明する。図32,33は本実施例
の画像処理装置の構成を示すブロック図であり、図3
2,33において図27,28と同一または相当の部分
については同一の符号を付し説明を省略する。図におい
て106はたとえば従来技術1の2次元パターン一致度
計数手段58やピーク評価手段59などによる3値画像
の位置合わせ技術で説明したのと同様に位置合わせを行
ない、その位置合わせを実行した夫々の箇所の座標デー
タを出力する位置検出手段、107は位置検出手段10
6から出力される座標データから画像をどのように幾何
変換すれば標準画像にもっとよく重ね合わすことが出来
るかを計算する幾何変換パラメータ生成手段である。1
01aは幾何変換パラメータ生成手段による計算結果を
基に幾何変換を行なう幾何変換部である。
Embodiment 11 FIG. An embodiment of the present invention will be described below with reference to the drawings. FIGS. 32 and 33 are block diagrams showing the configuration of the image processing apparatus of this embodiment.
In FIGS. 2 and 33, the same or corresponding parts as those in FIGS. 27 and 28 are denoted by the same reference numerals and description thereof is omitted. In the figure, reference numeral 106 designates the position alignment performed in the same manner as described in the three-dimensional image alignment technique by the two-dimensional pattern coincidence counting means 58 and the peak evaluation means 59 of the prior art 1 and executes the alignment. Position detecting means for outputting the coordinate data of the position, 107 is the position detecting means 10
This is a geometric transformation parameter generating means for calculating how to geometrically transform the image from the coordinate data output from 6 so that the image can be superimposed on the standard image better. 1
Reference numeral 01a denotes a geometric transformation unit that performs geometric transformation based on the calculation result by the geometric transformation parameter generation unit.

【0103】この実施例の画像処理装置では、3値表現
された3値画像31を作成した後に、まず位置検出手段
106を用いて画像中の数箇所で第1番目に学習された
画像(標準画像)と現在入力された画像との間で位置合
わせを行なう。
In the image processing apparatus of this embodiment, after the ternary image 31 represented by the ternary image is created, the image first learned at several points in the image using the position detecting means 106 (standard Image) and the currently input image.

【0104】位置検出手段106からは、位置合わせを
実行した箇所夫々の座標データが幾何変換パラメータ生
成手段107に送られる。幾何変換パラメータ生成手段
107ではこれら複数の座標データから画像をどのよう
に幾何変換すれば標準画像にもっともよく重ね合わすこ
とが出来るかを計算する。
From the position detecting means 106, the coordinate data of each of the positions where the positioning has been performed is sent to the geometric transformation parameter generating means 107. The geometric transformation parameter generation means 107 calculates how to geometrically transform the image from the plurality of coordinate data so that the image can be superimposed best on the standard image.

【0105】もっとも単純な重ね合わすための幾何変換
としては平行移動であり、この変換は(xd,yd)の
2つのパラメータで表現される。たとえば、画面上のM
個の箇所において位置合わせを行ない、それらの結果が
(xi,yi),i=0,・・・M―1であり、最初に
記憶された画像上の該当する位置が(xi0,yi
0),i=0,・・・M―1であったときに次に示す式
(12),(13)による演算を行ない、位置合わせパ
ラメータ(xd,yd)を決定することが出来る。
The simplest geometric transformation for superposition is translation, and this transformation is represented by two parameters (xd, yd). For example, M on the screen
, And the result is (xi, yi), i = 0,..., M−1, and the corresponding position on the image stored first is (xi0, yi).
0), i = 0,..., M−1, the following equations (12) and (13) are operated to determine the alignment parameters (xd, yd).

【0106】[0106]

【数11】 [Equation 11]

【0107】[0107]

【数12】 (Equation 12)

【0108】同様に幾何変換を平行移動(x,y)と回
転移動θの3つのパラメータで表現することも可能であ
り、あるいは平行移動(x,y)と回転移動θと拡大/
縮小sのパラメータで表現することも可能である。ある
いは一般的アフィン変換を仮定して次の式(14),
(15)に示すようにa,b,c,d,e,fの6つの
パラメータで表わすことも可能であり、これらは画像の
移動や歪がどのような原因で生じているかを推測するこ
とにより最適な値を選択することができる。
Similarly, the geometric transformation can be expressed by three parameters of translation (x, y) and rotation θ, or the translation (x, y), rotation θ and enlargement /
It is also possible to express by the parameter of reduction s. Alternatively, assuming a general affine transformation, the following equation (14),
As shown in (15), it is also possible to represent by six parameters a, b, c, d, e, and f, and to estimate what causes the movement or distortion of the image. , An optimal value can be selected.

【0109】[0109]

【数13】 (Equation 13)

【0110】[0110]

【数14】 [Equation 14]

【0111】このようにして求められた幾何変換パラメ
ータを考慮して期間変換部101aで幾何変換を行ない
ながら、部分画像分割走査手段101において部分画像
を取り出すことにより、第1回目に学習した標準パター
ンと重なりの良い部分領域を取り出し、特徴をベクトル
化することが可能となる。
By taking out the partial image by the partial image division scanning means 101 while performing the geometric conversion by the period conversion unit 101a in consideration of the geometric conversion parameter thus obtained, the standard pattern learned at the first time is obtained. Then, it is possible to extract a partial region having good overlap with and vectorize the feature.

【0112】この結果、本実施例では常に位置ずれのな
い画像での学習と認識が可能となり、特徴ベクトルの信
号対雑音比が向上し信頼性の高い認識が可能となる。
As a result, in the present embodiment, learning and recognition can be always performed with an image having no positional deviation, the signal-to-noise ratio of the feature vector is improved, and highly reliable recognition is possible.

【0113】実施例12.以下、請求項12の発明の一
実施例を図について説明する。図34,35は本実施例
の画像処理装置の構成を示すブロック図であり、図3
4,35において図1と同一または相当の部分について
は同一の符号を付し説明を省略する。図において130
は全ての局所特徴検出手段41−iの出力が与えられる
特徴選択手段、111は指定される部分画像を切り出
し、切り出した部分画像全体に渡って走査を行なう部分
画像切り出し走査手段、112は局所特徴マップ(特徴
マップ)113と特徴ベクトル判別手段50の出力によ
り選択された標準局所特徴マップ114との間で特徴の
対応付けを探索する特徴マップ対応探索手段、115は
幾何変換パラメータを生成する幾何変換パラメータ生成
手段である。
Embodiment 12 FIG. An embodiment of the invention will be described below with reference to the drawings. FIGS. 34 and 35 are block diagrams showing the configuration of the image processing apparatus of this embodiment.
4 and 35, the same or corresponding parts as those in FIG. In the figure, 130
Is a feature selection unit to which the outputs of all the local feature detection units 41-i are given, 111 is a partial image cutout scanning unit that cuts out a specified partial image and scans the entire cutout partial image, and 112 is a local feature. A feature map correspondence search unit 115 for searching for a correspondence between features between the map (feature map) 113 and the standard local feature map 114 selected by the output of the feature vector determination unit 50. A geometric transformation 115 for generating geometric transformation parameters It is a parameter generation means.

【0114】次に動作について説明する。ディジタル化
された原画像は3値化された3値画像に変換され、特徴
ベクトル抽出手段40に出力される。局所特徴検出手段
41は画像中の着目画素を中心としてその周囲の3値の
パターンが特有の組み合わせになったときに大きな出力
を発生する。着目画素を部分画像切り出し走査手段11
1で指定される部分画像全体にわたって走査することに
より、ある特徴がどのような頻度で発生したかを局所特
徴計数手段42−iによりカウントする。局所特徴検出
手段41−iが反応する3値の局所パターンは、図3,
図4,図5,図6に示した局所パターンを適当に組み合
わせ、探索したい物体の各部分を区別して表現できるよ
うに設定する。
Next, the operation will be described. The digitized original image is converted into a ternary ternary image and output to the feature vector extracting means 40. The local feature detecting means 41 generates a large output when the ternary pattern around the pixel of interest in the image becomes a unique combination. Scanning means 11 for extracting partial image from target pixel
By scanning over the entire partial image designated by 1, the frequency at which a certain feature occurs is counted by the local feature counting unit 42-i. The ternary local pattern to which the local feature detecting means 41-i reacts is shown in FIG.
The local patterns shown in FIG. 4, FIG. 5, and FIG. 6 are appropriately combined and set so that each part of the object to be searched can be distinguished and expressed.

【0115】このようにして生成された部分画像中の局
所特徴の累計である特徴ベクトル49は、特徴ベクトル
判別手段50に入力される。特徴ベクトル判別手段50
では、特徴ベクトルと標準パターンとのマッチングを行
なう。この特徴ベクトル判別手段における動作は、実施
例1から実施例4に記載されたどのような手法を用いて
もよい。標準特徴ベクトルに記憶されたk個の標準パタ
ーン56について入力された特徴ベクトル49と比較を
行ない、これらのうちで最も近いベクトルのクラスkを
クラス判別結果として出力すると共に、その出力を用い
て標準局所特徴マップ114を該当するクラスに切り替
える。
The feature vector 49 which is the sum of the local features in the partial image generated in this way is input to the feature vector discriminating means 50. Feature vector discriminating means 50
Then, matching between the feature vector and the standard pattern is performed. The operation of the feature vector determining means may use any of the methods described in the first to fourth embodiments. The k standard patterns 56 stored in the standard feature vector are compared with the input feature vector 49, and the class k of the closest vector among them is output as the result of class discrimination. The local feature map 114 is switched to the corresponding class.

【0116】特徴マップ対応検索手段112では、局所
特徴を局所特徴検出手段41に用いて生成された入力画
像の局所特徴マップ113と、特徴ベクトル判別手段5
0の出力により選択された標準局所マップ114との間
で局所特徴の対応付けを探索する。図38は特徴マップ
の一例を示す説明図であり、同図(イ),(ロ)に示さ
れるように局所パターンが異なっていても回転すれば照
合可能な局所特徴(参照図39)をグループにして対応
付けを行ない、マップ上で隣接する局所特徴のラベル付
けの矛盾が少ない可能な組み合わせを探索していく。
In the feature map correspondence search means 112, the local feature map 113 of the input image generated by using the local features in the local feature detection means 41, and the feature vector discrimination means 5
A local feature association is searched for with the standard local map 114 selected by the output of 0. FIG. 38 is an explanatory view showing an example of the feature map. As shown in FIGS. 38A and 38B, even if the local patterns are different, the local features (refer to FIG. 39) that can be collated by rotation can be grouped. Then, a possible combination with less inconsistency in labeling of adjacent local features on the map is searched.

【0117】すなわち図38に示す特徴マップにおい
て、同図(イ)の局所特徴m8,m32,m12,m3
6,m0という組み合わせと、同図(ロ)の局所特徴m
11,m35,m15,m39,m3という組み合わせ
は、右回りに60゜回転させれば照合できる組み合わせ
であると判断する。
That is, in the feature map shown in FIG. 38, the local features m8, m32, m12, m3 shown in FIG.
6, m0 and the local feature m in FIG.
The combination of 11, m35, m15, m39, and m3 is determined to be a combination that can be collated by rotating clockwise by 60 °.

【0118】特徴マップ対応探索手段112ではこのよ
うな可能な組み合わせを探索し、最終的に最も矛盾なく
重ね合わせることのできた結果を出力する。すなわち図
38に示す例では、同図(イ)に示す標準パターン上の
座標(x1,y1)にある局所特徴m32は入力パター
ン上の座標(x1’,y1’)にある局所特徴m35と
マッチした(すなわち、右回りに60゜回転してマッチ
した)結果の並びに関する情報が特徴マップ対応検索手
段112から出力され、これが幾何変換パラメータ生成
手段115に入力される。
The feature map correspondence search means 112 searches for such a possible combination, and finally outputs a result which can be superimposed most consistently. That is, in the example shown in FIG. 38, the local feature m32 at the coordinates (x1, y1) on the standard pattern shown in FIG. 38A matches the local feature m35 at the coordinates (x1 ′, y1 ′) on the input pattern. Information on the result sequence that has been matched (ie, rotated by 60 ° clockwise and matched) is output from the feature map correspondence search unit 112, and is input to the geometric transformation parameter generation unit 115.

【0119】幾何変換パラメータ生成手段115では、
これらの座標毎の(x,y,θ)の変換の組み合わせか
ら、式(15)で表現される座標変換パラメータ(a,
b,c,d,e,f)を求めて出力する。この際、部分
画像切り出し走査手段111から出力されている、部分
画像領域を生成するために用いられた切り出し位置情報
が前記座標変換パラメータの(a,e)に加算されて出
力される。そして、特徴ベクトル判別手段50の出力で
あるクラス(すなわち、部分領域に含まれる物体の種
類)と幾何変換パラメータ生成手段115の出力とが画
像処理の認識結果として出力される。
In the geometric transformation parameter generation means 115,
From the combination of these (x, y, θ) conversions for each coordinate, the coordinate conversion parameters (a,
b, c, d, e, f). At this time, the cutout position information output from the partial image cutout scanning unit 111 and used to generate the partial image area is added to the coordinate conversion parameters (a, e) and output. Then, the class (that is, the type of the object included in the partial area) that is the output of the feature vector determination unit 50 and the output of the geometric conversion parameter generation unit 115 are output as the recognition result of the image processing.

【0120】実施例13.次に、請求項12の発明の他
の実施例について説明する。図36,37は本実施例の
画像処理装置の構成を示すブロック図であり、図36,
37において図34,35と同一または相当の部分につ
いては同一の符号を付し説明を省略する。この実施例で
は、局所特徴ベクトル抽出手段40が局所特徴検出手段
41と特徴選択手段130とに置き換えられ、局所特徴
マップ113の一部分を切り出してその中に含まれる局
所特徴の識別子(特徴番号)のヒストグラムを特徴ベク
トルとして用いることになる。このため、特徴マップヒ
ストグラム化手段121が新たに付加され、部分画像切
り出し走査手段111により切り出された部分局所特徴
マップを入力とし、出力を特徴ベクトル判別手段50に
供給する。それ以後の動作は図34,35に示したもの
と同様である。
Embodiment 13 FIG. Next, another embodiment of the present invention will be described. FIGS. 36 and 37 are block diagrams showing the configuration of the image processing apparatus of this embodiment.
In FIG. 37, the same or corresponding parts as those in FIGS. 34 and 35 are denoted by the same reference numerals and description thereof is omitted. In this embodiment, the local feature vector extracting unit 40 is replaced with a local feature detecting unit 41 and a feature selecting unit 130, and a part of the local feature map 113 is cut out and an identifier (feature number) of a local feature included therein is extracted. The histogram will be used as the feature vector. For this reason, the feature map histogram forming means 121 is newly added, and the partial local feature map cut out by the partial image cut-out scanning means 111 is input and the output is supplied to the feature vector determining means 50. Subsequent operations are the same as those shown in FIGS.

【0121】なお、以上説明した実施例12と実施例1
3の画像処理装置では、特徴ベクトル判別手段50は実
施例1の図1に示す特徴ベクトル判別手段としての機能
を有しているものとして説明したが、実施例3における
回帰分析手段を有した特徴ベクトル判別手段、あるいは
実施例4における超集団形成手段を有した特徴ベクトル
判別手段としてもよい。
The twelfth embodiment and the first embodiment described above are used.
In the image processing apparatus of the third embodiment, the feature vector discriminating means 50 has been described as having the function as the feature vector discriminating means shown in FIG. 1 of the first embodiment. It may be a vector discriminating means or a feature vector discriminating means having the super-population forming means in the fourth embodiment.

【0122】以上説明してきたようにこの実施例は、撮
像された物体が学習や登録のときに比べその姿勢や距離
が変化しており、大まかな画像では変化ないが完全には
重ね合わせができないないような状況下においても、局
所特徴ベクトルを用いてまず概略の位置と物体の種類を
同定し、次の段階で局所的な特徴パターンの精密な照合
を行ない、最終的に矛盾のない識別結果と姿勢変化を含
む位置合わせを実現するものである。
As described above, in this embodiment, the posture and the distance of the imaged object are different from those at the time of learning or registration, and they are not changed in the rough image but cannot be completely overlapped. Even in such a situation, the approximate position and the type of object are first identified using the local feature vector, and then the local feature pattern is precisely matched in the next stage, and finally the consistent identification results are obtained. And position adjustment including a change in posture.

【0123】さらに別の実施例として、特徴マップ対応
検索手段112において対応検索に矛盾が多く良好な対
応付けの結果が得られない場合には、不成功情報を特徴
ベクトル判別手段50にフィードバックし、特徴ベクト
ル判別手段50は今回採用した特徴ベクトルのクラスを
破棄し、次に最も近い候補を再度選択するようにしても
よく、このような構成にしたときには、特徴マップのヒ
ストグラムは似ているがパターンの配列が異なるような
複数の標準パターンを有するような事例に対し誤った判
別結果を与えてしまうようなことが防止できる。
As still another embodiment, when the feature map correspondence search means 112 has a large number of inconsistencies in the correspondence search and cannot obtain a good correspondence result, the unsuccessful information is fed back to the feature vector discrimination means 50. The feature vector discriminating means 50 may discard the class of the feature vector adopted this time and select the next closest candidate again. In such a configuration, the histogram of the feature map is similar but the pattern is similar. Can be prevented from giving an erroneous determination result to a case where a plurality of standard patterns having different arrangements are provided.

【0124】また、同様に幾何変換パラメータ生成手段
107の出力を用いて、選択された標準局所特徴マップ
114に対応して記憶されている標準画像あるいは3値
化標準画像を実際に変換し、画像平面について入力画像
と標準画像との重ね合わせの状態を計算することで、認
識結果の良否を再評価し、認識の信頼性の程度を示すデ
ータを出力することも可能である。
Similarly, using the output of the geometric transformation parameter generation means 107, the standard image or the ternary standard image stored corresponding to the selected standard local feature map 114 is actually converted, and By calculating the state of superposition of the input image and the standard image on the plane, it is possible to re-evaluate the quality of the recognition result and output data indicating the degree of reliability of recognition.

【0125】[0125]

【発明の効果】以上のように、請求項1の発明によれば
入力画像から3値画像を得て、この3値画像と局所的特
徴パターンとの類似度を、閾値処理されて局所特徴計数
手段で計数された計数値を基に特徴ベクトルとして求
め、その特徴ベクトルとあらかじめ記憶されている1つ
または複数の標準パターンとから判別結果を得るように
構成したので、複数の階調を有した一般的な情景の画像
中における対象物に対する判別や認識処理能力を向上で
きる効果がある。
As described above, according to the first aspect of the present invention, a ternary image is obtained from an input image, and the similarity between the ternary image and the local feature pattern is subjected to threshold processing to obtain a local feature count. As a feature vector is obtained based on the count value counted by the means, and the discrimination result is obtained from the feature vector and one or a plurality of standard patterns stored in advance. There is an effect that the ability to determine and recognize a target object in an image of a general scene can be improved.

【0126】請求項2の発明によれば、3値画像と局所
パターンとの類似度を画像中で累積するように構成した
ので複数の階調を有した一般的な情景の画像中における
対象物に対する判別や認識処理能力を向上できる効果が
ある。
According to the second aspect of the present invention, since the similarity between the ternary image and the local pattern is configured to be accumulated in the image, the object in the image of a general scene having a plurality of gradations is obtained. This has the effect of improving the discrimination and recognition processing ability for.

【0127】請求項3の発明によれば、重回帰分析に基
づいた特徴ベクトルの判別により判別結果を得るように
構成したので、複数の階調を有した一般的な情景の画像
中における対象物に対する判別処理能力が向上するだけ
でなく信頼性の高い判別結果が得られ、認識処理能力を
向上させることができる効果がある。
According to the third aspect of the present invention, since the discrimination result is obtained by discriminating the feature vectors based on the multiple regression analysis, the object in the image of the general scene having a plurality of gradations is obtained. In addition to the improved discrimination processing capability, a highly reliable discrimination result is obtained, and the recognition processing capability can be improved.

【0128】請求項4の発明によれば、判別すべき集団
をいくつかの集団の和集合として表現し、個々の集団を
あらかじめ判定結果が既知である複数の学習画像データ
と多次元空間クラス判別手段により判別した結果とを用
いて、個々の集団を逐次的に更新しながら形成し、上記
集団の和集合である超集団を基に判別結果を出力するよ
うに構成したので、複数の階調を有した一般的な情景の
画像中における対象物に対する判別処理能力が向上する
だけでなく認識処理能力を向上させることができる効果
がある。
According to the fourth aspect of the present invention, a group to be determined is expressed as a union of several groups, and each group is divided into a plurality of learning image data whose determination results are known in advance and a multidimensional space class determination. By using the results determined by the means, the individual groups are formed while being sequentially updated, and the determination results are output based on the super-group which is the union of the groups. This has the effect of improving not only the discrimination processing capability for the target in an image of a general scene having the above, but also the recognition processing capability.

【0129】請求項5の発明によれば、判別の認識処理
中に監視者がその判別結果が誤っていると判断した場
合、望ましい判別結果を入力することにより標準パター
ンを再計算し、運用しながら判定の信頼性の向上を計る
ことができるように構成したので、複数の階調を有した
一般的な情景の画像中における対象物に対する判別処理
能力が向上するだけでなく認識処理能力を向上させるこ
とができる効果がある。
According to the fifth aspect of the present invention, when the monitor determines that the discrimination result is incorrect during the discrimination recognition processing, the standard pattern is recalculated by inputting a desired discrimination result, and the operation is performed. In addition, it is possible to improve the reliability of the judgment while improving not only the discrimination processing ability for the object in the image of the general scene having multiple gradations but also the recognition processing ability There is an effect that can be made.

【0130】請求項6の発明によれば、標準パターン学
習時に多次元の特徴ベクトルの各次元においてデータの
正規化を行ない、集団を表現する中心ベクトルの分散が
どの次元に対しても同じ値になるように構成したので、
複数の階調を有した一般的な情景の画像中における対象
物に対する判別処理能力が向上するだけでなく認識処理
能力を向上させることができる効果がある。
According to the invention of claim 6, data is normalized in each dimension of the multidimensional feature vector at the time of learning the standard pattern, so that the variance of the center vector representing the group becomes the same value in any dimension. Because it was configured to be
There is an effect that not only the discrimination processing capability for the target in the image of a general scene having a plurality of gradations but also the recognition processing capability can be improved.

【0131】請求項7の発明によれば、総合的特徴ベク
トル判別手段において学習時に入力画像の局所特徴から
得られる特徴ベクトル以外に他のセンサ情報から得られ
る特徴あるいは画像の大局的特徴を併用して学習を行な
い多次元特徴空間を構成して判別を行なうように構成し
たので、複数の階調を有した一般的な情景の画像中にお
ける対象物に対する判別処理能力が向上するだけでなく
認識処理能力を向上させることができる効果がある。
According to the seventh aspect of the present invention, the comprehensive feature vector discriminating means combines features obtained from other sensor information or global features of the image in addition to the feature vectors obtained from the local features of the input image during learning. The multi-dimensional feature space is configured to perform discrimination and perform discrimination, so that not only the discrimination processing capability for an object in an image of a general scene having a plurality of gradations is improved, but also recognition processing is performed. There is an effect that the ability can be improved.

【0132】請求項8の発明によれば、学習時に入力画
像の局所特徴から得られる特徴ベクトル以外に他のセン
サ情報から得られ、複数のクラスに分類される特徴ある
いは画像の大局的特徴を用いて学習データから該当する
クラスを選択し、選択したクラスに記憶された学習デー
タのみを用いて認識を行なうように構成したので、複数
の階調を有した一般的な情景の画像中における対象物に
対する判別処理能力が向上するだけでなく認識処理能力
を向上させることができる効果がある。
According to the eighth aspect of the present invention, in addition to the feature vector obtained from the local feature of the input image at the time of learning, a feature obtained from other sensor information and classified into a plurality of classes or a global feature of the image is used. A corresponding class is selected from the learning data, and the recognition is performed using only the learning data stored in the selected class. Therefore, the object in the image of the general scene having a plurality of gradations is selected. This has the effect of improving not only the discrimination processing capability but also the recognition processing capability.

【0133】請求項9の発明によれば、画像をあらかじ
め複数の区画に分割し、分割された上記区画毎に学習デ
ータを用意し、上記区画毎に学習と認識を行なうように
構成したので、複数の階調を有した一般的な情景の画像
中における対象物に対する判別処理能力が向上するだけ
でなく、信頼性などの認識処理能力が向上する効果があ
る。
According to the ninth aspect of the present invention, the image is divided into a plurality of sections in advance, learning data is prepared for each of the divided sections, and learning and recognition are performed for each section. This has the effect of improving not only the discrimination processing capability for an object in an image of a general scene having a plurality of gradations but also the recognition processing capability such as reliability.

【0134】請求項10の発明によれば、複数の区画に
分割した画像区画の周辺部においては区画中心部よりも
低い重み係数を設定し、この重み係数を加算した出力が
特徴ベクトルとして特徴ベクトル判別手段に供給される
ように構成したので、物体の形状が多少変化したり位置
合わせのずれなどにより認識における信頼性が低下する
などの現象を防止し、複数の階調を有した一般的な情景
の画像中における対象物に対する判別処理能力が向上す
るだけでなく、信頼性などの認識処理能力が向上する効
果がある。
According to the tenth aspect, a lower weighting factor is set at the periphery of the image section divided into a plurality of sections than at the center of the section, and the output obtained by adding the weighting factor is used as a feature vector as a feature vector. Since it is configured to be supplied to the discriminating means, it is possible to prevent phenomena such as a change in the shape of the object or a decrease in the reliability in recognition due to misalignment or the like, and a general method having a plurality of gradations. This has the effect of improving not only the discrimination processing capability for the object in the scene image but also the recognition processing capability such as reliability.

【0135】請求項11の発明によれば、画像上の複数
の計測点において標準的な画像との位置合わせを行な
い、上記画像を上記標準的な画像にもっとも近づけるた
めの幾何変換パラメータを求める、その変換パラメータ
を基に幾何変換した画像を入力画像とするように構成し
たので、複数の階調を有した一般的な情景の画像中にお
ける対象物に対する判別処理能力が向上するだけでな
く、信頼性などの認識処理能力が向上する効果がある。
According to the eleventh aspect of the present invention, registration with a standard image is performed at a plurality of measurement points on the image, and a geometric transformation parameter for making the image closest to the standard image is obtained. Since the image geometrically transformed based on the transformation parameters is configured as the input image, not only the discrimination processing capability for the object in the image of the general scene having a plurality of gradations is improved, but also the reliability is improved. This has the effect of improving recognition processing ability such as sex.

【0136】請求項12の発明によれば、部分画像中の
物体が判定された後に、局所特徴マップと標準局所特徴
マップ間での対応付けが矛盾なくできる特徴マップと標
準局所特徴マップ間の組み合わせが求められ、この際の
幾何変換パラメータと上記判定の結果とが画像処理の認
識結果として出力されるように構成したので、認識対象
の姿勢が微小に変化した場合に対しても対応することが
出来、複数の階調を有した一般的な情景の画像中におけ
る対象物に対する判別処理能力が向上するだけでなく、
信頼性などの認識処理能力が向上する効果がある。
According to the twelfth aspect of the present invention, after the object in the partial image is determined, the combination between the feature map and the standard local feature map can be consistently associated with the local feature map and the standard local feature map. Is obtained, and the geometric transformation parameter and the result of the above determination are output as a recognition result of the image processing. Therefore, it is possible to cope with a case where the posture of the recognition target is slightly changed. As a result, not only is the discrimination processing capability for an object in an image of a general scene having a plurality of gradations improved,
This has the effect of improving recognition processing capability such as reliability.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1の発明の一実施例による画像処理装置
の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention;

【図2】請求項1の発明の一実施例による画像処理装置
における画像の3値化処理の過程を示す説明図である。
FIG. 2 is an explanatory diagram showing a process of ternarizing an image in the image processing apparatus according to one embodiment of the present invention;

【図3】請求項1の発明の一実施例による画像処理装置
における局所パターンの一例を示す説明図である。
FIG. 3 is an explanatory diagram showing an example of a local pattern in the image processing apparatus according to one embodiment of the present invention;

【図4】請求項1の発明の一実施例による画像処理装置
における局所パターンの一例を示す説明図である。
FIG. 4 is an explanatory diagram showing an example of a local pattern in the image processing apparatus according to one embodiment of the present invention;

【図5】請求項1の発明の一実施例による画像処理装置
における局所パターンの一例を示す説明図である。
FIG. 5 is an explanatory diagram showing an example of a local pattern in the image processing apparatus according to one embodiment of the present invention;

【図6】請求項1の発明の一実施例による画像処理装置
における局所パターンの一例を示す説明図である。
FIG. 6 is an explanatory diagram showing an example of a local pattern in the image processing apparatus according to one embodiment of the present invention;

【図7】請求項1の発明の一実施例による画像処理装置
における局所特徴検出手段の構成を示す概念図である。
FIG. 7 is a conceptual diagram showing a configuration of a local feature detecting means in the image processing apparatus according to one embodiment of the present invention.

【図8】請求項1の発明の一実施例による画像処理装置
における局所特徴検出手段の一致度判定演算を示す出力
計算図である。
FIG. 8 is an output calculation diagram showing a coincidence determination operation of the local feature detection means in the image processing apparatus according to the first embodiment of the present invention;

【図9】請求項1の発明の一実施例による画像処理装置
における局所特徴検出手段の一致度判定演算を示す出力
計算図である。
FIG. 9 is an output calculation diagram showing a matching degree determination operation of the local feature detection means in the image processing apparatus according to one embodiment of the present invention;

【図10】請求項2の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 10 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention;

【図11】請求項2の発明の一実施例による画像処理装
置の特徴ベクトル抽出手段の構成を示す概念図である。
FIG. 11 is a conceptual diagram showing a configuration of a feature vector extracting means of the image processing apparatus according to one embodiment of the present invention.

【図12】請求項3の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 12 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention;

【図13】請求項3の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 13 is a block diagram showing a configuration of an image processing apparatus according to one embodiment of the third invention.

【図14】請求項4の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図15】請求項4の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 15 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図16】請求項4の発明の一実施例による画像処理装
置における超集団の形成方法での多次元特徴空間を示す
説明図である。
FIG. 16 is an explanatory diagram showing a multidimensional feature space in a method for forming a super-population in the image processing apparatus according to an embodiment of the present invention;

【図17】請求項4の発明の一実施例による画像処理装
置における超集団の更新手順を説明するためのフローチ
ャートである。
FIG. 17 is a flowchart for explaining a super-population update procedure in the image processing apparatus according to an embodiment of the present invention;

【図18】請求項4の発明の一実施例による画像処理装
置における超集団の更新手順を説明するためのフローチ
ャートである。
FIG. 18 is a flowchart for explaining a super-population update procedure in the image processing apparatus according to one embodiment of the fourth invention;

【図19】請求項5の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 19 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図20】請求項5の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 20 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention;

【図21】請求項6の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 21 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図22】請求項6の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 22 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

【図23】請求項7の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 23 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention;

【図24】請求項7の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 24 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention;

【図25】請求項8の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 25 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図26】請求項8の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 26 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention;

【図27】請求項9の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 27 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図28】請求項9の発明の一実施例による画像処理装
置の構成を示すブロック図である。
FIG. 28 is a block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention.

【図29】請求項9の発明の一実施例による画像処理装
置の部分画像分割走査手段の動作を説明するための説明
図である。
FIG. 29 is an explanatory diagram for explaining the operation of the partial image division scanning means of the image processing apparatus according to one embodiment of the ninth invention;

【図30】請求項10の発明の一実施例による画像処理
装置の構成を示すブロック図である。
FIG. 30 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図31】請求項10の発明の一実施例による画像処理
装置の構成を示すブロック図である。
FIG. 31 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図32】請求項11の発明の一実施例による画像処理
装置の構成を示すブロック図である。
FIG. 32 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図33】請求項11の発明の一実施例による画像処理
装置の構成を示すブロック図である。
FIG. 33 is a block diagram showing a configuration of an image processing apparatus according to one embodiment of the present invention.

【図34】請求項12の発明の一実施例による画像処理
装置の構成を示すブロック図である。
FIG. 34 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図35】請求項12の発明の一実施例による画像処理
装置の構成を示すブロック図である。
FIG. 35 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図36】請求項12の発明の他の実施例による画像処
理装置の構成を示すブロック図である。
FIG. 36 is a block diagram showing a configuration of an image processing apparatus according to another embodiment of the present invention.

【図37】請求項12の発明の他の実施例による画像処
理装置の構成を示すブロック図である。
FIG. 37 is a block diagram showing a configuration of an image processing apparatus according to another embodiment of the present invention.

【図38】請求項12の発明の実施例による画像処理装
置における特徴マップを示す説明図である。
FIG. 38 is an explanatory diagram showing a feature map in the image processing apparatus according to the embodiment of the twelfth aspect of the present invention.

【図39】図38の特徴マップにおける局所特徴を示す
説明図である。
FIG. 39 is an explanatory diagram showing local features in the feature map of FIG. 38;

【図40】従来の画像処理装置の構成を示すブロック図
である。
FIG. 40 is a block diagram illustrating a configuration of a conventional image processing apparatus.

【図41】従来の画像処理装置の構成を示すブロック図
である。
FIG. 41 is a block diagram illustrating a configuration of a conventional image processing apparatus.

【図42】従来の画像処理装置における局所パターンを
示す説明図である。
FIG. 42 is an explanatory diagram showing a local pattern in a conventional image processing apparatus.

【図43】従来の画像処理装置における問題点を示す説
明図である。
FIG. 43 is an explanatory diagram showing a problem in a conventional image processing apparatus.

【符号の説明】[Explanation of symbols]

20 フィルタリング手段 30 3値化処理手段 40 特徴ベクトル抽出手段 41―1〜41―N 局所特徴検出手段 42―1〜42―N 局所特徴計数手段 43―1〜43―N 局所特徴累積手段 46 閾値手段 50 特徴ベクトル判別手段 51 総合的特徴ベクトル判別手段 54 判別部 55 回帰分析手段 60 超集団形成手段 61多次元空間クラス判別手段 55 回帰分析手段 70 結果表示手段 71 修正入力手段(判定信頼性向上手段) 82 正規化処理手段 93 大分類クラス生成手段 101 部分画像分割走査手段 101a 幾何変換部 104 重み係数発生手段 106 位置検出手段 107,115 幾何変換パラメータ生成手段 111 部分画像切り出し走査手段 112 特徴マップ対応検索手段 113 局所特徴マップ(特徴マップ) 114 標準局所特徴マップ 130 特徴選択手段 g1〜g18,g101〜g104,g201,g20
2,g301〜g304 局所パターン
Reference Signs List 20 filtering means 30 ternarization processing means 40 feature vector extraction means 41-1 to 41-N local feature detection means 42-1 to 42-N local feature counting means 43-1 to 43-N local feature accumulation means 46 threshold means Reference Signs List 50 feature vector discriminating means 51 comprehensive feature vector discriminating means 54 discriminating unit 55 regression analyzing means 60 super-population forming means 61 multidimensional space class discriminating means 55 regression analyzing means 70 result display means 71 correction input means (decision reliability improving means) 82 Normalization processing means 93 Large classification class generation means 101 Partial image division scanning means 101a Geometric conversion unit 104 Weight coefficient generation means 106 Position detection means 107, 115 Geometric conversion parameter generation means 111 Partial image cutout scanning means 112 Feature map correspondence search means 113 Local feature map (feature map) 14 standard local feature maps 130, wherein selection means g1~g18, g101~g104, g201, g20
2, g301-g304 local pattern

───────────────────────────────────────────────────── フロントページの続き (72)発明者 泉井 良夫 尼崎市塚口本町8丁目1番1号 三菱電 機株式会社 産業システム研究所内 (56)参考文献 特開 平4−128976(JP,A) 特開 昭58−130030(JP,A) 特開 平6−36034(JP,A) 特開 平6−76062(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 G01B 11/24 G06T 5/20 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Yoshio Izui 8-1-1 Tsukaguchi Honcho, Amagasaki City Mitsubishi Electric Corporation Industrial Systems Research Institute (56) References JP-A-4-128976 (JP, A) 58-130030 (JP, A) JP-A-6-36034 (JP, A) JP-A-6-76062 (JP, A) (58) Fields studied (Int. Cl. 7 , DB name) G06T 7 / 00 G01B 11/24 G06T 5/20

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 テレビカメラなどの撮像装置から入力さ
れた2次元の画像を処理して画像中に存在する物体の品
種・個数・分類・正常/異常の判別などを行なう画像処
理装置において、入力画像に一種類または複数種類の空
間的バンドパスフィルタを作用させるフィルタリング手
段と、上記空間的バンドパスフィルタの出力を2つの閾
値で処理し3値画像を得る3値化処理手段と、上記3値
画像と局所パターンとの類似度を検出する局所特徴検出
手段,上記局所パターンとの類似度が一定値以上であっ
たときに出力を発生する閾値手段,画像中において上記
閾値手段の出力が何点で発生したかを計数する複数の局
所特徴計数手段を有する特徴ベクトル抽出手段と、その
特徴ベクトル抽出手段の出力とあらかじめ記憶されてい
る1つまたは複数の標準ベクトルとの類似度を求め、最
終的な判別結果を出力する特徴ベクトル判別手段とを備
えたことを特徴とする画像処理装置。
An image processing apparatus for processing a two-dimensional image input from an imaging device such as a television camera to determine the type, number, classification, normality / abnormality, etc. of an object present in the image. Filtering means for applying one or more kinds of spatial bandpass filters to the image, ternary processing means for processing the output of the spatial bandpass filter with two threshold values to obtain a ternary image, Local feature detection means for detecting the similarity between an image and a local pattern, threshold means for generating an output when the similarity with the local pattern is equal to or more than a certain value, and the number of outputs of the threshold means in the image Feature vector extraction means having a plurality of local feature counting means for counting whether or not occurrence has occurred in one of a plurality of local feature counting means; An image processing apparatus comprising: a feature vector determining unit that obtains a similarity with a standard vector and outputs a final determination result.
【請求項2】 テレビカメラなどの撮像装置から入力さ
れた2次元の画像を処理して画像中に存在する物体の品
種・個数・分類・正常/異常の判別などを行なう画像処
理装置において、入力画像に一種類または複数種類の空
間的バンドパスフィルタを作用させるフィルタリング手
段と、上記空間的バンドパスフィルタの出力を2つの閾
値で処理し3値画像を得る3値化処理手段と、上記3値
画像と局所パターンとの類似度を検出する局所特徴検出
手段および上記局所パターンとの類似度を画像中で累積
する複数の局所特徴累積手段から構成された特徴ベクト
ル抽出手段と、その特徴ベクトル抽出手段の出力とあら
かじめ記憶されている1つまたは複数の標準ベクトルと
の類似度を求め、最終的な判別結果として出力する特徴
ベクトル判別手段とを備えたことを特徴とする画像処理
装置。
2. An image processing apparatus for processing a two-dimensional image input from an imaging device such as a television camera to determine the type, number, classification, normality / abnormality, etc. of an object present in the image. Filtering means for applying one or more kinds of spatial band-pass filters to the image; ternary processing means for processing the output of the spatial band-pass filter with two threshold values to obtain a ternary image; A feature vector extracting means comprising a local feature detecting means for detecting the similarity between an image and a local pattern, and a plurality of local feature accumulating means for accumulating the similarity between the local pattern in the image; And a feature vector discriminating means for obtaining a similarity between the output of the above and one or more standard vectors stored in advance and outputting the similarity as a final discrimination result. An image processing apparatus comprising:
【請求項3】 特徴ベクトル判別手段は、特徴ベクトル
の線形和で表現される線形判別関数を用い、その線形判
別関数を生成するためあらかじめ判定結果が既知である
複数の学習画像データと判別結果を用いて重回帰分析を
行ないその結果を上記線形判別関数の重み係数とする回
帰分析手段と、その回帰分析手段で求めた重み係数と特
徴ベクトルとから判別結果を出力する判別部とを備えて
いることを特徴とする請求項1または請求項2記載の画
像処理装置。
3. The feature vector discriminating means uses a linear discriminant function represented by a linear sum of feature vectors, and generates a linear discriminant function by combining a plurality of learning image data whose discrimination results are known in advance with discrimination results. A regression analysis unit that performs a multiple regression analysis using the results and uses the result as a weight coefficient of the linear discriminant function; and a discrimination unit that outputs a discrimination result from the weight coefficient and the feature vector obtained by the regression analysis unit. The image processing apparatus according to claim 1, wherein:
【請求項4】 特徴ベクトル判別手段は、特徴ベクトル
の次元で規定される多次元空間における標準パターン超
集団に含まれる集団の中心ベクトルと該当する集団の中
心ベクトルからの分散を表わすパラメータとを記憶して
おき、入力Dされた特徴ベクトルと標準パターン超集団
に属するいずれかの集団の中心ベクトルとの距離が該当
する標準パターン分散の定数倍以内のときに上記入力さ
れた特徴ベクトルは上記標準パターンの超集団に属する
と判定する多次元空間クラス判別手段と、標準パターン
ベクトルと標準パターン分散を決定するためにあらかじ
め判別結果が既知である複数の学習画像データと判別結
果を用いて多次元空間での集団化を行ない、同一の集団
に属する学習画像データが学習中の暫定的な標準パター
ン集団の中心ベクトルから標準集団パターンの分散の定
数倍よりも離れた位置に出現したときには新たな標準パ
ターン集団を形成して中心ベクトルと分散値とを設定し
これらの集団の集合を1つの超集団として解釈し、また
いずれかの集団の中心ベクトルから上記標準集団パター
ンの分散の定数倍よりも近い位置に出現したときには該
当する集団パターンの中心ベクトルと分散とを新規学習
パターンを考慮して更新することにより逐次的に更新さ
れる標準パターンの超集団を形成する超集団形成手段と
を備えたことを特徴とする請求項1または請求項2記載
の画像処理装置。
4. The feature vector discriminating means stores a center vector of a group included in a standard pattern super-group in a multidimensional space defined by a dimension of the feature vector and a parameter representing a variance from the center vector of the corresponding group. In addition, when the distance between the input feature vector and the center vector of any of the groups belonging to the standard pattern supergroup is within a constant multiple of the corresponding standard pattern variance, the input feature vector is the standard pattern variance. Multi-dimensional space class discriminating means for judging to belong to a super-group of a plurality of learning image data and a discrimination result to determine a standard pattern vector and a standard pattern variance, and a discrimination result in multi-dimensional space. And the training vector data belonging to the same group is the central vector of the provisional standard pattern group being trained. When it appears at a position that is more than a constant multiple of the variance of the standard group pattern, a new standard pattern group is formed, the center vector and the variance are set, and the set of these groups is interpreted as one supergroup. And, when appearing at a position closer than a constant multiple of the variance of the standard group pattern from the center vector of one of the groups, the center vector and the variance of the corresponding group pattern are sequentially updated by considering the new learning pattern. The image processing apparatus according to claim 1, further comprising: a supergroup forming unit configured to form a supergroup of a standard pattern that is periodically updated.
【請求項5】 認識処理中に監視者がその判別結果が誤
っていると判断した場合に、望ましい判別結果を入力す
ることにより標準パターンを再計算し、運用しながら判
別の信頼性の向上を計る判定信頼性向上手段を備えたこ
とを特徴とする請求項3または請求項4記載の画像処理
装置。
5. When the monitor determines that the discrimination result is incorrect during the recognition processing, the standard pattern is recalculated by inputting a desired discrimination result, and the reliability of the discrimination is improved while operating. The image processing apparatus according to claim 3, further comprising a determination reliability improving unit for measuring.
【請求項6】 標準パターン学習時に多次元の特徴ベク
トルの各次元に対してデータの正規化を行ない、集団を
表現する中心ベクトルの分散がどの次元に対しても同じ
値になるようにする正規化処理手段を備えたことを特徴
とする請求項4記載の画像処理装置。
6. A normalization method for normalizing data for each dimension of a multidimensional feature vector at the time of learning a standard pattern so that the variance of a center vector representing a group has the same value for any dimension. The image processing apparatus according to claim 4, further comprising a conversion processing unit.
【請求項7】 特徴ベクトル判別手段は、学習時に入力
画像の局所特徴から得られる特徴ベクトル以外の他のセ
ンサ情報から同時に得られる特徴あるいは画像の大局的
特徴を併用して学習を行ない、認識処理時には同一の特
徴を用いて多次元特徴空間を構成して判別を行なう総合
的特徴ベクトル判別手段であることを特徴とする請求項
1または請求項2記載の画像処理装置。
7. A feature vector discriminating means performs learning by simultaneously using features obtained from other sensor information other than feature vectors obtained from local features of an input image or global features of an image at the time of learning, and performing recognition processing. 3. The image processing apparatus according to claim 1, wherein the image processing apparatus is a comprehensive feature vector discriminating unit that occasionally configures a multidimensional feature space using the same feature to perform discrimination.
【請求項8】 特徴ベクトル判別手段は、学習時に入力
画像の局所特徴から得られる特徴ベクトル以外に他のセ
ンサ情報から得られる特徴あるいは画像の大局的特徴を
複数のクラスに分類し学習データを該当するクラスにつ
いてのみ更新する大分類クラス生成手段を有し、認識処
理時には同一の特徴を用いて学習データから該当するク
ラスを選択し、選択したクラスに記憶された学習データ
のみを用いて認識を行なう総合的特徴ベクトル判別手段
であることを特徴とする請求項1または請求項2記載の
画像処理装置。
8. A feature vector discriminating means classifies a feature obtained from other sensor information or a global feature of an image into a plurality of classes in addition to a feature vector obtained from a local feature of an input image during learning and classifies the learning data. Classifying means for updating only the class to be performed, and at the time of recognition processing, a corresponding class is selected from learning data using the same feature, and recognition is performed using only learning data stored in the selected class. 3. The image processing apparatus according to claim 1, wherein the image processing apparatus is a comprehensive feature vector determination unit.
【請求項9】 画像をあらかじめ複数の区画に分割する
部分画像分割走査手段を有し、特徴ベクトル判別手段は
分割された上記区画毎に学習データを用意し、上記区画
毎に学習と認識を行なう特徴ベクトル判別手段であるこ
とを特徴とする請求項1または請求項2記載の画像処理
装置。
9. A partial image division scanning unit for dividing an image into a plurality of sections in advance, wherein the feature vector determination unit prepares learning data for each of the divided sections, and performs learning and recognition for each of the sections. 3. The image processing device according to claim 1, wherein the image processing device is a feature vector determining unit.
【請求項10】 画像をあらかじめ複数の区画に分割す
る部分画像分割走査手段と、分割した区画の周辺部にお
いては区画中心部よりも低い重み係数を設定する重み係
数発生手段と、局所特徴検出手段の出力に上記重み係数
発生手段において発生した重み係数を加算した出力を計
数する局所特徴計数手段と、その局所特徴計数手段の出
力が特徴ベクトルとして供給される特徴ベクトル判別手
段とを備えたことを特徴とする請求項9記載の画像処理
装置。
10. A partial image division scanning unit that divides an image into a plurality of sections in advance, a weighting factor generating unit that sets a lower weighting factor in the periphery of the divided section than in the center of the section, and a local feature detecting unit. Local feature counting means for counting an output obtained by adding the weighting factor generated by the weighting factor generating means to the output of the above, and feature vector discriminating means for supplying the output of the local feature counting means as a feature vector. The image processing device according to claim 9, wherein:
【請求項11】 画像上の複数の計測点において標準的
な画像との位置合わせを行なう位置検出手段と、その位
置検出手段の出力から画像を標準的な画像にもっとも近
づけるための幾何変換パラメータを求める幾何変換パラ
メータ生成手段と、その幾何変換パラメータ生成手段に
より生成した幾何変換パラメータを基に上記画像を幾何
変換し幾何変換後の画像を入力画像とする幾何変換部と
を備えたことを特徴とする請求項1または請求項2記載
の画像処理装置。
11. A position detecting means for performing registration with a standard image at a plurality of measurement points on the image, and a geometric conversion parameter for making the image closest to the standard image from an output of the position detecting means. A geometric transformation parameter generation unit to be obtained, and a geometric transformation unit that geometrically transforms the image based on the geometric transformation parameter generated by the geometric transformation parameter generation unit and uses the image after the geometric transformation as an input image. The image processing device according to claim 1 or 2, wherein
【請求項12】 テレビカメラなどの撮像装置から入力
された2次元の画像を処理して画像中に存在する物体の
品種・位置・姿勢などの判別を行なう画像処理装置にお
いて、入力画像に一種類または複数種類の空間的バンド
パスフィルタを作用させるフィルタリング手段と、上記
空間的バンドパスフィルタの出力を2つの閾値で処理し
3値画像を得る3値化処理手段と、上記3値画像とあら
かじめ登録された複数の局所パターンとの類似度を検出
する局所特徴検出手段,その局所特徴検出手段がある一
定の大きさの部分領域内で一定値以上の類似度を検出し
た回数を計数する局所特徴計数手段と、その局所特徴計
数手段が計数する部分領域の位置を画面内で走査する部
分画像切り出し走査手段と、上記局所特徴計数手段の出
力を入力特徴ベクトルとし、あらかじめ記憶された標準
特徴ベクトルとの間で類似度の評価を行ない上記入力特
徴ベクトルが属するクラス(すなわち上記3値化された
部分画像に含まれる物体の有無あるいは種類)を決定し
上記クラスに属する入力特徴ベクトルの画像上の位置と
そのクラスを出力する特徴ベクトル判別手段と、上記局
所特徴検出手段の出力からもっとも強く検出された局所
特徴についての局所特徴番号などの識別子とその強さを
求め、この識別子あるいは識別子と強さが2次元状に記
述された特徴マップを出力する特徴選択手段と、上記特
徴ベクトル判別手段における判別結果に基づいて上記特
徴マップとあらかじめ登録された標準局所特徴マップと
の照合を行ない、上記入力画像と登録された画像との変
形を考慮した対応付けをテストし、対応付けが矛盾無く
できる上記特徴マップと標準局所特徴マップ間の組み合
わせとその際に必要な変形パラメータを求める特徴マッ
プ対応検索手段と、上記求められた変形パラメータから
選択された標準物体パターンと画像上の物体パターン間
の幾何的変換パラメータを生成し出力する幾何変換パラ
メータ生成手段とを備えたことを特徴とする画像処理装
置。
12. An image processing apparatus for processing a two-dimensional image input from an imaging device such as a television camera to determine the type, position, orientation, and the like of an object present in the image. A filtering means for applying a plurality of types of spatial band-pass filters; a ternary processing means for processing the output of the spatial band-pass filter with two threshold values to obtain a ternary image; Local feature detection means for detecting the similarity with a plurality of detected local patterns, and local feature counting for counting the number of times that the local feature detection means detects a similarity of a certain value or more within a certain area of a certain size Means, a partial image cut-out scanning means for scanning the position of the partial area counted by the local feature counting means on the screen, and an output of the local feature counting means as an input feature vector. The class to which the input feature vector belongs (that is, the presence or absence or type of an object included in the ternary partial image) is determined by evaluating the similarity between the standard feature vector stored in advance and the above. A feature vector discriminating means for outputting the position of the input feature vector belonging to the class on the image and the class, an identifier such as a local feature number of the local feature detected most strongly from the output of the local feature detecting means, and its strength And a feature selection means for outputting a feature map in which the identifier or the strength of the identifier and the strength are described in a two-dimensional manner, and the feature map and a standard local feature registered in advance based on the determination result by the feature vector determination means. The map is compared with the map, and the correspondence between the input image and the registered image is tested in consideration of the deformation. A feature map correspondence search means for obtaining a combination between the feature map and the standard local feature map, which can be attached without contradiction, and a deformation parameter required at that time; and a standard object pattern selected from the obtained deformation parameter and An image processing apparatus comprising: a geometric conversion parameter generation unit that generates and outputs a geometric conversion parameter between object patterns.
JP5236902A 1993-09-22 1993-09-22 Image processing device Expired - Fee Related JP3053512B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5236902A JP3053512B2 (en) 1993-09-22 1993-09-22 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5236902A JP3053512B2 (en) 1993-09-22 1993-09-22 Image processing device

Publications (2)

Publication Number Publication Date
JPH0793545A JPH0793545A (en) 1995-04-07
JP3053512B2 true JP3053512B2 (en) 2000-06-19

Family

ID=17007452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5236902A Expired - Fee Related JP3053512B2 (en) 1993-09-22 1993-09-22 Image processing device

Country Status (1)

Country Link
JP (1) JP3053512B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010050334A1 (en) * 2008-10-30 2012-03-29 コニカミノルタエムジー株式会社 Information processing device
US10572812B2 (en) 2015-03-19 2020-02-25 Kabushiki Kaisha Toshiba Detection apparatus, detection method, and computer program product

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3797499B2 (en) * 1996-08-08 2006-07-19 東京電力株式会社 Canal runoff monitoring device
JP2002259889A (en) * 2001-03-01 2002-09-13 Toshiba Corp Direct-mailing support system
JP4733857B2 (en) * 2001-05-15 2011-07-27 エルエスアイ コーポレーション Scanning system and method for measuring reticle CD in integrated circuit manufacturing
JP4517633B2 (en) * 2003-11-25 2010-08-04 ソニー株式会社 Object detection apparatus and method
JP4553044B2 (en) * 2008-09-26 2010-09-29 ソニー株式会社 Group learning apparatus and method
JP5725276B2 (en) * 2010-08-03 2015-05-27 富士ゼロックス株式会社 Binarization processing apparatus, image processing apparatus, binarization processing program, image processing program
JP6324264B2 (en) * 2014-08-22 2018-05-16 ルネサスエレクトロニクス株式会社 Ternary inner product arithmetic circuit, ternary inner product arithmetic processing program, and arithmetic processing method using ternary inner product arithmetic circuit
DE102018215538A1 (en) 2018-09-12 2020-03-12 Trumpf Werkzeugmaschinen Gmbh + Co. Kg Method and device for identifying an object
CN111222551A (en) * 2019-12-30 2020-06-02 成都云尚物联环境科技有限公司 Sewage pipeline defect image identification method and device, storage medium and electronic equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010050334A1 (en) * 2008-10-30 2012-03-29 コニカミノルタエムジー株式会社 Information processing device
JP5533662B2 (en) * 2008-10-30 2014-06-25 コニカミノルタ株式会社 Information processing device
US10572812B2 (en) 2015-03-19 2020-02-25 Kabushiki Kaisha Toshiba Detection apparatus, detection method, and computer program product

Also Published As

Publication number Publication date
JPH0793545A (en) 1995-04-07

Similar Documents

Publication Publication Date Title
US6961466B2 (en) Method and apparatus for object recognition
JP3053512B2 (en) Image processing device
CN102704215B (en) Automatic cutting method of embroidery cloth based on combination of DST file parsing and machine vision
CN117095005B (en) Plastic master batch quality inspection method and system based on machine vision
JP2007508633A (en) Method and image processing device for analyzing object contour image, method and image processing device for detecting object, industrial visual device, smart camera, image display, security system, and computer program product
CN113793337B (en) Locomotive accessory surface abnormal degree evaluation method based on artificial intelligence
CN111667475B (en) Machine vision-based Chinese date grading detection method
CN110108712A (en) Multifunctional visual sense defect detecting system
CN108154496B (en) Electric equipment appearance change identification method suitable for electric power robot
JP4003465B2 (en) Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus
CN116486287A (en) Target detection method and system based on environment self-adaptive robot vision system
CN115830359A (en) Workpiece identification and counting method based on target detection and template matching in complex scene
CN112288682A (en) Electric power equipment defect positioning method based on image registration
CN116110006B (en) Scenic spot tourist abnormal behavior identification method for intelligent tourism system
CN113145473A (en) Intelligent fruit sorting system and method
JP4267103B2 (en) Appearance image classification apparatus and method
CN107886530A (en) A kind of improved image registration algorithm based on SIFT feature
CN114012722B (en) Mechanical arm target grabbing method based on deep learning and edge detection
Singh et al. Vidaq: A framework for monitoring human machine interfaces
CN114820707A (en) Calculation method for camera target automatic tracking
CN113947563A (en) Cable process quality dynamic defect detection method based on deep learning
CN114792300A (en) Multi-scale attention X-ray broken needle detection method
Olszewski et al. Digital method of automated non-destructive diagnostics for high-power magnetron resonator blocks
CN114155235B (en) Image anomaly detection method based on characterization transformation perception
CN117152083B (en) Ground penetrating radar road disease image prediction visualization method based on category activation mapping

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080407

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees