JP3496530B2 - Pattern identification device - Google Patents

Pattern identification device

Info

Publication number
JP3496530B2
JP3496530B2 JP21552598A JP21552598A JP3496530B2 JP 3496530 B2 JP3496530 B2 JP 3496530B2 JP 21552598 A JP21552598 A JP 21552598A JP 21552598 A JP21552598 A JP 21552598A JP 3496530 B2 JP3496530 B2 JP 3496530B2
Authority
JP
Japan
Prior art keywords
image
candidate
feature
characteristic
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21552598A
Other languages
Japanese (ja)
Other versions
JP2000048199A (en
Inventor
芳樹 二宮
充彦 太田
新 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP21552598A priority Critical patent/JP3496530B2/en
Publication of JP2000048199A publication Critical patent/JP2000048199A/en
Application granted granted Critical
Publication of JP3496530B2 publication Critical patent/JP3496530B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、パターン特定装置
に係り、より詳しくは、画像内に存在するパターンに対
応する特徴画像を特定することより、パターンを特定す
るパターン特定装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern specifying device, and more particularly to a pattern specifying device for specifying a pattern by specifying a characteristic image corresponding to a pattern existing in the image.

【0002】[0002]

【従来の技術】テレビカメラなどで撮像した画像中から
多様なパターンを検出し、その存在、位置、大きさ、姿
勢などを推定するパターン認識技術は画像認識の基本技
術として幅広い分野で応用されている。パターン認識の
方法の1つに一般化Hough変換がある。この方法は
以下の特徴を持つ。 ・任意の形状の図形に対して適用可能である。
2. Description of the Related Art A pattern recognition technique for detecting various patterns in an image picked up by a television camera or the like and estimating their existence, position, size, posture, etc. is applied in a wide range of fields as a basic technique of image recognition. There is. One of the methods of pattern recognition is generalized Hough transform. This method has the following features. -Applicable to figures of arbitrary shape.

【0003】・画像を一回走査するだけで認識が可能で
ある。
Recognition is possible only by scanning the image once.

【0004】・投票式のため雑音による偽の特徴点や特
徴点の欠落の影響を受けにくい。
Since it is a voting system, it is unlikely to be affected by false feature points and missing feature points due to noise.

【0005】一般化Hough変換を用いて、パターン
の位置を求める場合の計算手順を説明する。
A calculation procedure for obtaining the position of the pattern using the generalized Hough transform will be described.

【0006】即ち、予め定めた基準画像(基準エッジ画
像)のエッジ部(輪郭部)の特徴値(濃度値)及び基準
画像の各画素位置を格納した参照テーブルを用意する。
この参照テーブルに格納された各画素の位置を用いて、
入力したパターンに対応する未知画像(未知エッジ画
像)のエッジ部の各点をアドレス変換して複数の基準エ
ッジ画像を、2次元パラメータ空間に作成することによ
り、未知画像の位置(重心位置)を投票し、最も投票の
あったピーク位置を未知画像の位置として決定する。な
お、未知入力画像の姿勢(回転角)が未知であれば、更
にパラメータが1つ増え、3次元パラメータ空間に上記
投票を行うことにより、回転角を求める。
That is, a reference table storing the characteristic value (density value) of an edge portion (outline portion) of a predetermined reference image (reference edge image) and each pixel position of the reference image is prepared.
Using the position of each pixel stored in this lookup table,
The position (barycentric position) of the unknown image is determined by address-converting each point of the edge portion of the unknown image (unknown edge image) corresponding to the input pattern and creating a plurality of reference edge images in the two-dimensional parameter space. Vote and decide the peak position with the most votes as the position of the unknown image. If the posture (rotation angle) of the unknown input image is unknown, the rotation angle is obtained by further increasing the parameter by one and voting in the three-dimensional parameter space.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記一
般化Hough変換は以下の問題がある。
However, the above generalized Hough transform has the following problems.

【0008】即ち、一回の走査で1つのパターン(同一
輪郭形状を持つパターン)しか認識できない。具体的に
は、入力した未知画像のエッジ部の各点をアドレス変換
して複数の基準エッジ画像を2次元パラメータ空間に作
成しなければ、未知画像の位置を決定することができな
い。
That is, only one pattern (pattern having the same contour shape) can be recognized by one scanning. Specifically, the position of the unknown image cannot be determined unless address conversion is performed on each point of the input unknown image edge portion to create a plurality of reference edge images in the two-dimensional parameter space.

【0009】また、位置の他に上記のように回転等のパ
ラメータが増えると、パラメータ空間の次元が増加し、
これにより、投票する空間がべき乗に比例して増加す
る。このため、計算時間と必要なメモリ容量がそれだけ
必要になるとともにピーク位置の探索にも時間がかか
る。
Further, if the parameters such as rotation increase in addition to the position as described above, the dimension of the parameter space increases,
This increases the voting space in proportion to the power. Therefore, the calculation time and the required memory capacity are required, and it takes time to search the peak position.

【0010】更に、認識するパターンの集合として、あ
る形状パターンのその平行移動、回転、拡大といったア
フィン変換で生成できる集合が扱えるのみである。
Further, as a set of patterns to be recognized, only a set that can be generated by affine transformation such as parallel movement, rotation and enlargement of a certain shape pattern can be handled.

【0011】なお、上記問題の生ずる理由は、一般化H
ough変換が、位置、回転などのパラメータで表され
るパターンの多様性をアナログ的に表現していること
と、1つのパターンの形状に対してその位置、回転とい
う多次元のパラメータ空間で表していることによる。
The reason why the above problems occur is that the generalized H
The ohugh transform represents the diversity of patterns represented by parameters such as position and rotation in an analog manner, and the shape of one pattern is represented by a multidimensional parameter space of position and rotation. It depends.

【0012】本発明は、上記事実に鑑み成されたもの
で、種々のパターンを短時間に特定することの可能なパ
ターン特定装置を提案することを目的とする。
The present invention has been made in view of the above facts, and it is an object of the present invention to propose a pattern specifying device capable of specifying various patterns in a short time.

【0013】[0013]

【課題を解決するための手段】次に本発明を図1を参照
して説明する。即ち、上記目的を達成するため本発明
は、画像を入力する入力手段11と、前記入力された画
像から、該画像内に存在するパターンに対応しかつ該パ
ターンの特徴を表す第1の特徴が複数の部分毎に定めら
れた特徴画像を抽出する抽出手段12と、前記特徴画像
として予想される複数の候補画像各々が前記複数の部分
に対応する複数の部分毎に該候補画像の特徴を表す第2
の特徴と共に定められ、前記抽出された特徴画像の前記
部分毎に、前記特徴画像の各部分の第1の特徴と該部分
に対応する部分を含む候補画像の該部分に対応する部分
の第2の特徴とを比較すると共に、該比較の結果に基づ
いて、前記特徴画像の各部分毎に、第1の特徴に近い第
2の特徴に対応する候補画像に対して、該候補画像が前
記特徴画像である確からしさを表す寄与度を投票する投
票手段14と、前記投票手段14により候補画像に対し
て投票された寄与度に基づいて前記特徴画像に対応する
候補画像を特定することより、前記パターンを特定する
特定手段15と、を備えている。
The present invention will be described below with reference to FIG. That is, in order to achieve the above-mentioned object, the present invention provides an input means 11 for inputting an image and a first feature that corresponds to a pattern existing in the image and represents the feature of the pattern from the input image. Extraction means 12 for extracting a characteristic image defined for each of a plurality of portions, and a plurality of candidate images expected as the characteristic images represent the characteristics of the candidate image for each of a plurality of portions corresponding to the plurality of portions. Second
For each of the portions of the extracted feature image that is determined with the features of the first feature and the second feature of the portion of the candidate image that includes the first feature of each of the portions of the feature image. Of the candidate image, and based on the result of the comparison, for each part of the feature image, the candidate image is compared with the candidate image corresponding to the second feature close to the first feature. By voting means 14 for voting the degree of contribution that represents the probability of being an image, and by identifying the candidate image corresponding to the characteristic image based on the degree of contribution voted by the voting means 14 for the candidate image, The specifying means 15 for specifying the pattern is provided.

【0014】即ち、入力手段11は画像を入力し、抽出
手段12は、入力された画像から特徴画像を抽出する。
That is, the input means 11 inputs an image, and the extraction means 12 extracts a characteristic image from the input image.

【0015】ここで、特徴画像とは、入力手段11によ
り入力された画像内に存在しかつ特定しようとするパタ
ーンに対応するものであり、かつ、該パターンの特徴を
表す第1の特徴が複数の部分毎に定められたものであ
る。
Here, the characteristic image corresponds to a pattern existing in the image input by the input means 11 and to be specified, and a plurality of first characteristics representing the characteristic of the pattern. Is defined for each part of.

【0016】ここにいう「部分」には、特徴画像の各画
素、特徴画像のとびとびの画素、複数の画素を1ブロッ
クとした各ブロック、及び幾何学的な部分(例えば、角
部や曲線部等)がある。
The "portion" referred to here is each pixel of the characteristic image, each pixel of the characteristic image, each block including a plurality of pixels as one block, and a geometric portion (for example, a corner portion or a curved portion). Etc.)

【0017】そして、本発明では、特徴画像として予想
される複数の候補画像各々が定められている。各候補画
像は、上記特徴画像として予想されるものであるので、
上記特徴画像の上記複数の部分に対応する複数の部分毎
に該候補画像の特徴を表す第2の特徴と共に定められて
いる。なお、第2の特徴は第1の特徴に対応するもので
ある。
Further, in the present invention, each of a plurality of candidate images expected as characteristic images is defined. Since each candidate image is expected as the characteristic image,
It is set together with the second feature representing the feature of the candidate image for each of the plurality of portions corresponding to the plurality of portions of the feature image. The second feature corresponds to the first feature.

【0018】ここで、特徴画像を入力された画像内に存
在するパターンの輪郭画像とし、第1の特徴及び第2の
特徴は、該輪郭画像の輪郭部の濃度の変化量及び濃度の
変化方向(濃度が濃くなる方向か薄くなる方向か)を含
むようにしてもよい。即ち、第1の特徴及び第2の特徴
には、上記画素の濃度の変化量や濃度の変化方向、上記
各ブロックの濃度の変化量の平均値や最も多い濃度の変
化方向としてもよい。なお、幾何学的な特徴(例えば、
角や曲線等)としてもよい。
Here, the characteristic image is a contour image of a pattern existing in the input image, and the first feature and the second feature are the amount of change in density and the direction of change in density of the contour portion of the contour image. (Whether the density increases or decreases) may be included. That is, the first feature and the second feature may be the amount of change in the density of the pixel and the changing direction of the density, the average value of the amount of change in the density of each block, and the changing direction of the maximum density. Note that geometric features (for example,
Corners, curves, etc.).

【0019】ところで、候補画像は予め定めておき記憶
手段に記憶するようにしてもよく、抽出手段12により
特徴画像を抽出する毎に作成するようにしてもよい。
By the way, the candidate image may be determined in advance and stored in the storage means, or may be created each time the characteristic image is extracted by the extraction means 12.

【0020】投票手段14は、抽出された特徴画像の部
分毎に、特徴画像の各部分の第1の特徴と該部分に対応
する部分を含む候補画像の該部分に対応する部分の第2
の特徴とを比較すると共に、該比較の結果に基づいて、
特徴画像の各部分毎に、第1の特徴に近い第2の特徴に
対応する候補画像に対して、該候補画像が特徴画像であ
る確からしさを表す寄与度を投票する。
The voting unit 14 includes, for each part of the extracted feature image, the first feature of each part of the feature image and the second part of the candidate image including the part corresponding to the first feature.
And the characteristics of, and based on the result of the comparison,
For each part of the characteristic image, the contribution degree representing the probability that the candidate image is the characteristic image is voted for the candidate image corresponding to the second characteristic close to the first characteristic.

【0021】ここで、寄与度は、特徴画像の全ての部分
において投票されたときの寄与度の累積値が全てのパタ
ーンで一定値となるように正規化された値としてもよ
い。
Here, the contribution may be a value normalized such that the cumulative value of the contribution when voting is made in all parts of the characteristic image is a constant value in all patterns.

【0022】そして、特定手段15は、投票手段14に
より候補画像に対して投票された寄与度に基づいて特徴
画像に対応する候補画像を特定することより、上記パタ
ーンを特定する。
Then, the specifying means 15 specifies the pattern by specifying the candidate image corresponding to the characteristic image based on the contribution degree voted by the voting means 14 to the candidate image.

【0023】このように、特徴画像として予想される複
数の候補画像各々を、特徴画像の複数の部分に対応する
複数の部分毎に該候補画像の特徴を表す第2の特徴と共
に定め、抽出された特徴画像の部分毎に、特徴画像の各
部分の第1の特徴に近い第2の特徴に対応する候補画像
に対して、該候補画像が特徴画像である確からしさを表
す寄与度を投票し、投票された寄与度に基づいて特徴画
像に対応する候補画像を特定することより、上記パター
ンを特定するので、一回の処理で種々の候補画像から上
記パターンを特定することができ、種々のパターンを短
時間に特定することの可能となる。
In this way, each of the plurality of candidate images expected as the characteristic image is determined and extracted for each of the plurality of portions corresponding to the plurality of portions of the characteristic image together with the second characteristic representing the characteristic of the candidate image. For each part of the feature image, the contribution degree representing the probability that the candidate image is the feature image is voted for the candidate image corresponding to the second feature close to the first feature of each part of the feature image. , The pattern is specified by specifying the candidate image corresponding to the characteristic image based on the voted contribution degree, so that the pattern can be specified from various candidate images in one processing, and various patterns can be specified. It is possible to specify the pattern in a short time.

【0024】ここで、特定手段15により特定された候
補画像を、必要な形式に変換する変換手段を更に備える
ようにしてもよい。
Here, a conversion means for converting the candidate image specified by the specifying means 15 into a required format may be further provided.

【0025】また、上記のように複数のパターン各々の
各部分の特徴を第2の特徴として記憶する記憶手段を更
に備え、投票手段14は、第1の特徴と記憶手段に記憶
された第2の特徴とを比較するようにしてもよい。
Further, as described above, it further comprises storage means for storing the characteristic of each portion of each of the plurality of patterns as the second characteristic, and the voting means 14 has the second characteristic stored in the first characteristic and the storage means. You may make it compare with the characteristic of.

【0026】更に、投票手段14により候補画像に対し
て投票された寄与度を、候補画像を識別する候補画像識
別情報に対応して累積記憶する累積記憶手段を更に備
え、特定手段15は、累積記憶手段に候補画像識別情報
に対応して累積記憶された最も大きな累積値に対応する
候補画像識別情報に基づいて、特徴画像である候補画像
を特定するようにしてもよい。
Further, there is further provided cumulative storage means for cumulatively storing the contribution degrees voted by the voting means 14 for the candidate images in correspondence with the candidate image identification information for identifying the candidate images. The candidate image that is the characteristic image may be specified based on the candidate image identification information corresponding to the largest cumulative value that is cumulatively stored in the storage unit corresponding to the candidate image identification information.

【0027】[0027]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳細に説明する。なお、以下では、従来の一
般化Hough変換では困難な異なった形状を持つ複数
の物体の認識例を示す。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example of recognizing a plurality of objects having different shapes, which is difficult by the conventional generalized Hough transform, will be shown.

【0028】図1に示すように本実施の形態に係るパタ
ーン特定装置は、画像を入力する入力手段11を備えて
いる。入力手段11としては、例えば、モノクロTVカ
メラで構成することができる。なお、この入力手段11
は、撮像側を図3に示すように、地表からある高さに水
平方向に光軸を向けて設置されている。そして、入力手
段11の前を横切る乗用車B1と歩行者B2の認識を実
例にして説明する(図3参照)。なお、2つの物体(B
1、B2)の入力手段11からの距離はXmからYmの
範囲(X<Y)とし、乗用車B1と歩行者B2の進行方
向はすべてカメラの光軸に直角な方向とすると、画像上
では大きさと位置の異なる2つの形状を認識する問題に
帰着させることができる。
As shown in FIG. 1, the pattern specifying apparatus according to this embodiment includes an input means 11 for inputting an image. The input unit 11 can be composed of, for example, a monochrome TV camera. Incidentally, this input means 11
Is installed with the optical axis oriented horizontally at a certain height from the surface of the earth, as shown in FIG. Then, the recognition of the passenger car B1 and the pedestrian B2 crossing in front of the input means 11 will be described as an example (see FIG. 3). Two objects (B
1, B2) from the input means 11 is in the range of Xm to Ym (X <Y), and the traveling directions of the passenger car B1 and the pedestrian B2 are all perpendicular to the optical axis of the camera. Can be reduced to the problem of recognizing two shapes with different positions.

【0029】入力手段11には、入力手段11により入
力した画像(モノクロ濃淡画像)から、濃淡が急激に変
化している輪郭部分(図4も参照)を抽出する輪郭抽出
手段21を備えた抽出手段12が接続されている。輪郭
部分の抽出は画像処理の一般的な手法であるSobel
フィルタによって実現できる。
The input means 11 is provided with a contour extracting means 21 for extracting a contour portion (see also FIG. 4) in which the grayscale changes drastically from the image (monochrome grayscale image) input by the inputting means 11. Means 12 are connected. Sobel, which is a general method of image processing, is used to extract the contour portion.
It can be realized by a filter.

【0030】抽出手段12には、候補画像照合装置10
0が接続されている。候補画像照合装置100は、前述
した輪郭画像(特徴画像)として予想される複数の候補
画像が該輪郭画像である確からしさを表す寄与度を記憶
する寄与度記憶手段13を備えている。なお、寄与度記
憶手段13は、パラメータ化手段31、寄与度算出手段
32、及び寄与度メモリ33を備えている。
The extraction means 12 includes a candidate image collation device 10
0 is connected. The candidate image matching device 100 includes a contribution degree storage unit 13 that stores a contribution degree that indicates the likelihood that a plurality of candidate images expected as the contour images (feature images) are the contour images. The contribution degree storage means 13 includes a parameterization means 31, a contribution degree calculation means 32, and a contribution degree memory 33.

【0031】候補画像照合装置100は、上記抽出手段
12及び寄与度記憶手段13に接続された投票手段1
4、及び投票手段14に接続された特定手段15を更に
備えている。なお、特定手段15は、投票結果メモリ5
1、ピーク探索手段52、及びパターン化手段53を備
えている。
The candidate image collation apparatus 100 comprises a voting means 1 connected to the extraction means 12 and contribution degree storage means 13.
4 and the specifying means 15 connected to the voting means 14 are further provided. In addition, the identification unit 15 is the voting result memory 5
1, a peak search means 52, and a patterning means 53.

【0032】次に、本実施の形態の作用を説明する。Next, the operation of this embodiment will be described.

【0033】最初に、寄与度記憶手段13において予め
行われる上記複数の候補画像における上記寄与度を記憶
する処理を説明する。
First, the process of storing the contributions of the plurality of candidate images in advance in the contribution storage unit 13 will be described.

【0034】即ち、パラメータ化手段31により、入力
手段11により入力される画像内に存在するパターンに
対応する特徴画像として予想される複数の候補画像を、
仮想平面に生成し、各候補画像各々にパラメータ値を対
応させることによりパラメータ化する。なお、複数の候
補画像の生成は、基本となる各々の輪郭パターンをCA
Dで生成するか、実際の画像を特徴抽出手段に入力して
出力された輪郭画像を用いて、それを基本に物体までの
距離と物体の進行方向位置の起こりうる値の範囲から、
輪郭を平行移動、拡大することにより、特徴画像上に現
れる全てのパターンに対応する候補画像を生成する。
That is, a plurality of candidate images predicted by the parameterizing means 31 as feature images corresponding to the patterns existing in the image input by the input means 11 are
It is parameterized by generating it on a virtual plane and making each candidate image correspond to a parameter value. It should be noted that when generating a plurality of candidate images, each of the basic contour patterns is CA
Using a contour image generated by D or inputting and outputting an actual image to the feature extraction means, based on that, from the range of possible values of the distance to the object and the position in the traveling direction of the object,
By moving and enlarging the contour in parallel, candidate images corresponding to all patterns appearing on the characteristic image are generated.

【0035】平行移動、拡大の変化率は最終的に認識に
必要な分解能と計算規模の制約から決まるパラメータの
個数から決定する。また、パラメータ化は生成した候補
画像に例えば、1,2,3,4・・・と番号を振ること
により行なう。なお、候補画像に振られた1,2,3,
4・・・等の番号を、以下パラメータ値という。図5に
は乗用車B1の場合の進行方向位置の違いにより生成さ
れる複数の候補画像の例を、図6には物体までの距離の
違いにより生成される複数の候補画像の例を示してい
る。以上の候補画像の生成は自動的に行なう方法である
が、全ての候補画像生成を人手にて行なうことも可能で
ある。
The rate of change in parallel movement and enlargement is finally determined from the number of parameters that are determined by the resolution required for recognition and the constraints of the calculation scale. Further, the parameterization is performed by assigning numbers to the generated candidate images, for example, 1, 2, 3, 4 ... In addition, 1, 2, 3, assigned to the candidate image
The numbers such as 4 ... are hereinafter referred to as parameter values. FIG. 5 shows an example of a plurality of candidate images generated by the difference in the traveling direction position in the case of the passenger car B1, and FIG. 6 shows an example of a plurality of candidate images generated by the difference in the distance to the object. . Although the above-mentioned method of generating candidate images is an automatic method, it is also possible to manually generate all candidate images.

【0036】また、一般的にはひとつのパラメータで表
される候補画像は距離や進行方向位置がある値の範囲を
もっているので画像上で輪郭線が重なった候補画像とな
る。パラメータ化の方法は以上の1次元のパラメータに
よる方法以外に、複数のパラメータにより、複数次元的
にパラメータ化する方法でもよい。
Further, in general, the candidate image represented by one parameter has a range of a certain value in the distance and the position in the traveling direction, so that the contour image is a candidate image with overlapping contour lines. The parameterization method may be a multidimensional parameterization method using a plurality of parameters other than the one-dimensional parameter method described above.

【0037】寄与度算出手段32は、パラメータ化手段
31で生成した候補画像に基づき、後述するように投票
手段4が投票に使用する寄与度を予め算出し、寄与度メ
モリ33に書き込む。即ち、寄与度算出手段32は、パ
ラメータ化手段31により複数の候補画像が生成された
とき図7に示す寄与度記憶処理ルーチンを実行する。
The contribution degree calculation means 32 previously calculates the contribution degree used by the voting means 4 for voting based on the candidate image generated by the parameterization means 31, and writes it in the contribution degree memory 33. That is, the contribution degree calculation means 32 executes the contribution degree storage processing routine shown in FIG. 7 when the parameterization means 31 generates a plurality of candidate images.

【0038】図7のステップ62で、候補画像の存在す
る仮想平面上の画素を識別する変数Gを初期化(G←
0)する。ステップ64で、変数Gを1インクリメント
し、ステップ66で、画素Gを含む候補画像を全て取り
込む。
In step 62 of FIG. 7, a variable G for identifying a pixel on a virtual plane where a candidate image exists is initialized (G ←
0) In step 64, the variable G is incremented by 1, and in step 66, all candidate images including the pixel G are captured.

【0039】ステップ68で、取り込んだ全ての候補画
像を識別する変数Pを初期化(P←0)する。ステップ
70で、変数Pを1インクリメントし、ステップ72
で、候補画像Pの画素Gにおける寄与度を設定する。
In step 68, a variable P for identifying all the captured candidate images is initialized (P ← 0). In step 70, the variable P is incremented by 1, and in step 72
Then, the contribution degree in the pixel G of the candidate image P is set.

【0040】ここで、寄与度は、候補画像が特徴画像で
ある確からしさを表すものである。また、寄与度は、特
徴画像の全ての画素において、後述するように投票され
たときの寄与度の累積値が全ての候補画像で一定値とな
るように正規化された値である。例えば、一定値を1と
し、ある候補画像の総画素数が1500である場合に
は、この候補画像の各画素の寄与度は、1/1500で
ある。即ち、この候補画像の全ての画素において、寄与
度1/1500が投票されると、寄与度の累積値は一定
値=1となる。
Here, the degree of contribution represents the probability that the candidate image is a characteristic image. In addition, the contribution degree is a value that is normalized such that the cumulative value of the contribution degree when voting is performed in all pixels of the characteristic image is a constant value in all candidate images, as will be described later. For example, when the fixed value is 1, and the total number of pixels of a certain candidate image is 1500, the contribution of each pixel of this candidate image is 1/1500. That is, when the contribution degree 1/1500 is voted for all the pixels of this candidate image, the cumulative value of the contribution degree becomes a constant value = 1.

【0041】ステップ74で、候補画像Pの画素Gにお
ける特徴値(第2の特徴)、パラメータ値、及び寄与度
を、画素Gに対応して寄与度メモリ33に記憶する。な
お、特徴値は、輪郭部(エッジ部)の強度(濃度の変化
量及び勾配の方向(濃→淡、濃←淡)である。
In step 74, the characteristic value (second characteristic), the parameter value, and the contribution degree of the pixel G of the candidate image P are stored in the contribution degree memory 33 corresponding to the pixel G. The feature value is the intensity of the contour portion (edge portion) (the amount of change in density and the direction of the gradient (dark → light, dark ← light).

【0042】ステップ76で、取り込んだ候補画像を識
別する変数Pが取り込んだ候補画像の総数P0 に等しい
か否かを判断する。画素Gを一部の含む候補画像が複数
あれば、総数P0 は画素Gを一部の含む候補画像の総数
である。
In step 76, it is determined whether the variable P for identifying the captured candidate image is equal to the total number P 0 of captured candidate images. If there are a plurality of candidate images partially including the pixel G, the total number P 0 is the total number of candidate images partially including the pixel G.

【0043】変数Pが総数P0 に等しくない場合には、
ステップ70に戻って以上の処理(ステップ70〜7
6)を実行する。変数Pが総数P0 に等しい場合には、
ステップ78で、候補画像の存在する仮想平面上の画素
を識別する変数Gが候補画像の存在する仮想平面上の総
画素数G0 に等しいか否かを判断する。変数Gが総画素
数G0 に等しくない場合には、ステップ64に戻って以
上の処理(ステップ64〜ステップ78)を実行し、変
数Gが総画素数G0 に等しい場合には、本ルーチンを終
了する。
If the variable P is not equal to the total number P 0 , then
Returning to step 70, the above processing (steps 70 to 7)
Perform 6). If the variable P is equal to the total number P 0 , then
In step 78, it is determined whether the variable G for identifying the pixel on the virtual plane where the candidate image exists is equal to the total number of pixels G 0 on the virtual plane where the candidate image exists. If the variable G is not equal to the total number of pixels G 0 , the process returns to step 64 to execute the above processing (steps 64 to 78). If the variable G is equal to the total number of pixels G 0 , this routine is executed. To finish.

【0044】ここで、寄与度メモリ33は、各画素(候
補画像が存在する各画素)に対応して、上記特徴値(第
2の特徴)、投票される候補画像のパラメータ値、及び
寄与度を複数組記憶できる構造である。そして、以上の
処理により、図9に示すように候補画像3に引き続き候
補画像10に対する寄与度を設定し、寄与度メモリ33
に記憶させると、候補画像10の輪郭部分の画素に相当
する寄与度メモリに同様にしてデータ組が記憶され、候
補画像3と候補画像10の交点A、Bの画素には候補画
像3と候補画像10の両方の投票用データ組が記憶され
る。更に詳細に説明すると、例えば、図10に示すよう
に画素G1 (x,y)=(2,2)には、候補画像2
(パラメータ値2)の一部のみが存在するので、画素G
1 に対応して特徴値、パラメータ値(2)、及び寄与度
を記憶する。画素G2 (x,y)=(5,6)には、候
補画像2(パラメータ値2)の一部と候補画像3(パラ
メータ値3)の一部とが存在するので、画素G2 に対応
して(特徴値、パラメータ値(2)、及び寄与度)、
(特徴値、パラメータ値(3)、及び寄与度)を記憶す
る。 例えば、次のように記憶する。
Here, the contribution memory 33 corresponds to each pixel (each pixel in which the candidate image exists), the characteristic value (second characteristic), the parameter value of the candidate image to be voted, and the contribution degree. This is a structure capable of storing a plurality of sets. Then, as a result of the above processing, as shown in FIG. 9, the contribution degree to the candidate image 10 is set successively for the candidate image 3 and the contribution degree memory 33 is set.
When the data is stored in the candidate image 10, the data set is similarly stored in the contribution degree memory corresponding to the pixel of the contour portion of the candidate image 10. Both voting data sets of image 10 are stored. More specifically, for example, as shown in FIG. 10, the pixel G 1 (x, y) = (2, 2) has the candidate image 2
Since only part of (parameter value 2) exists, pixel G
The feature value, the parameter value (2), and the contribution degree are stored corresponding to 1 . Since a part of the candidate image 2 (parameter value 2) and a part of the candidate image 3 (parameter value 3) exist in the pixel G 2 (x, y) = (5, 6), the pixel G 2 is in the pixel G 2 . Correspondingly (feature value, parameter value (2), and contribution),
(Feature value, parameter value (3), and contribution degree) are stored. For example, it is stored as follows.

【0045】 (x,y)=(2,2):(特徴値、パラメータ値(2)、及び寄与度) ─────────────────────────── ─────────────────────────── =(5,6):(特徴値、パラメータ値(2)、及び寄与度)、 (特徴値、パラメータ値(3)、及び寄与度) ─────────────────────────── 次に、入力された画像内に存在するパターンを特定する
処理を説明する。
(X, y) = (2, 2): (feature value, parameter value (2), and contribution degree) ────────────────────── ───────────────────────────────── = (5,6): (feature value, parameter value (2), And contribution), (feature value, parameter value (3), and contribution) ─────────────────────────── A process of identifying a pattern existing in the generated image will be described.

【0046】入力手段11により、例えば、撮影されて
得られた画像は、抽出手段12に入力される。抽出手段
12の輪郭抽出手段21は、Sobelフィルタで算出
されるエッジ強度と勾配の方向から、エッジ強度が空間
的にピークとなる点を輪郭点として選択する。これによ
り図3の入力画像から図4に示す輪郭画像(特徴画像)
を候補画像照合装置100に出力する。なお、輪郭のエ
ッジ強度と勾配方向を用いて輪郭画像が定められる。ま
た、輪郭のない部分のエッジ強度は0となる。輪郭抽出
手段21により輪郭画像が入力されると投票手段14
は、図11に示した投票処理ルーチンを実行する。
The image obtained by photographing, for example, by the input means 11 is inputted to the extracting means 12. The contour extracting means 21 of the extracting means 12 selects a point having a spatial peak of the edge strength as a contour point from the edge strength and the gradient direction calculated by the Sobel filter. Thereby, the contour image (feature image) shown in FIG. 4 from the input image of FIG.
Is output to the candidate image matching device 100. The contour image is defined using the edge strength of the contour and the gradient direction. Further, the edge strength of the part without the contour is zero. When the contour image is input by the contour extracting means 21, the voting means 14
Executes the voting processing routine shown in FIG.

【0047】即ち、図11のステップ80で、入力され
た輪郭画像の各画素を識別する変数C(C←0)を初期
化し、ステップ82で、変数Cを1インクリメントし、
ステップ84で、画素C位置に対応して寄与度メモリに
記憶されたエッジの強度、勾配の方向、パラメータ値、
及び寄与度からなるセットを候補画像毎に取り込む。
That is, in step 80 of FIG. 11, a variable C (C ← 0) for identifying each pixel of the input contour image is initialized, and in step 82, the variable C is incremented by 1,
In step 84, the edge strength, the gradient direction, the parameter value, which are stored in the contribution memory corresponding to the pixel C position,
And a set of contributions are captured for each candidate image.

【0048】ステップ86で、取り込んだセットにおけ
る各候補画像を識別する変数Pを初期化し、ステップ8
8で、変数Pを1インクリメントする。
In step 86, a variable P for identifying each candidate image in the captured set is initialized, and in step 8
At 8, the variable P is incremented by 1.

【0049】ステップ90で、輪郭画像及び候補画像の
画素Cにおけるエッジの強度及び勾配の方向が同じか否
かを判断する。同じでない場合には、ステップ94に進
み、同じ場合には、ステップ92で、特定手段15に、
パラメータ値及び寄与度を出力して、ステップ94に進
む。
At step 90, it is judged whether or not the edge strength and the gradient direction at the pixel C of the contour image and the candidate image are the same. If they are not the same, the process proceeds to step 94. If they are the same, in step 92, the specifying means 15
The parameter value and the contribution degree are output, and the process proceeds to step 94.

【0050】ステップ94では、変数Pが取り込んだセ
ットにおける候補画像の総数P0 に等しいか否かを判断
する。変数Pが総数P0 に等しくない場合には、ステッ
プ88に戻って、以上の処理(ステップ88〜ステップ
94)を実行する。変数Pが総数P0 に等しい場合に
は、ステップ96で、変数Cが、輪郭画像の総画素数C
0 に等しいか否かを判断する。変数Cが総画素数C0
等しくない場合には、ステップ82に戻って、以上の処
理(ステップ82〜ステップ96)を実行し、変数Cが
総画素数C0 に等しい場合には、本ルーチンを終了す
る。
In step 94, the session in which the variable P is fetched
Total number of candidate images in0Determine if equal to
To do. The variable P is the total number P0If not equal to
Return to step 88 to perform the above processing (step 88 to step
94) is executed. The variable P is the total number P0Is equal to
In step 96, the variable C is the total number of pixels C of the contour image.
0To determine whether or not. Variable C is the total number of pixels C0To
If they are not equal, the process returns to step 82 and the above process is performed.
(Step 82 to step 96) is executed and the variable C is
Total number of pixels C0If this is equal to
It

【0051】即ち、以上の処理により、輪郭抽出抽出手
段21で算出した輪郭画像を入力し、輪郭が存在する場
合、寄与度メモリ33の対応する画素位置に記憶したデ
ータセットを読み出し、輪郭画像の実際のエッジ強度、
勾配方向と記憶されたエッジ強度、勾配方向の値とを比
較し、等しい場合は対応する候補画像のパラメータ値に
対応する投票結果メモリ51に寄与度を投票する。これ
により、特定手段15では、図12に示すように、投票
結果メモリ51においてパラメータ値に対応して寄与度
を累積加算する。
That is, by the above processing, the contour image calculated by the contour extracting / extracting means 21 is input, and when the contour exists, the data set stored in the corresponding pixel position of the contribution degree memory 33 is read out to extract the contour image. The actual edge strength,
The gradient direction is compared with the stored edge strength and gradient direction values, and if they are equal, the contribution degree is voted in the voting result memory 51 corresponding to the parameter value of the corresponding candidate image. As a result, the identifying unit 15 cumulatively adds the contribution degrees corresponding to the parameter values in the voting result memory 51, as shown in FIG.

【0052】なお、エッジ強度や勾配方向の値を2値な
どの離散値で表し、比較の演算を単純化することも可能
である。また、投票結果メモリ51は、候補画像のパラ
メータ数分の累積加算値を記憶するもので、認識する前
にすべて0に初期化する。
The edge strength and the value in the gradient direction may be represented by discrete values such as binary values to simplify the comparison operation. The voting result memory 51 stores the cumulative addition value for the number of parameters of the candidate image, and is initialized to 0 before recognition.

【0053】図13のように2つの候補画像15、16
を予め寄与度メモリに設定した場合に、図14の入力画
像が与えられた例で投票手段14と投票結果メモリ51
の動作を説明する。図14の入力画像から特徴抽出手段
2で出力される輪郭画像は図15のようになる。そし
て、投票手段14では輪郭画像の輪郭が存在する候補画
像に投票する。この場合は候補画像15の輪郭部分B1
と水平線Hの輪郭が存在するので、候補画像15に対応
する投票結果メモリは候補画像が欠けることなく存在し
ているときに得られるのにほぼ等しい大きな累積結果が
得られ、累積記憶値は略上記一定値となる。候補画像1
6については水平線Hの輪郭と16の候補画像が重なる
部分で投票値を得るが、結果的には小さな累積値しか得
られないことになる、即ち、累積記憶値が上記一定値は
大きく異なる値となる。ピーク探索手段52は、投票結
果メモリ51に累積されたパラメータごとの累積値を入
力し、大きな累積値をもつ1つまたは複数個のパラメー
タを出力する。上記図13〜図15の例では大きな累積
値をもつ候補画像15が出力される。
Two candidate images 15 and 16 as shown in FIG.
14 is set in advance in the contribution degree memory, the voting means 14 and the voting result memory 51 in the example in which the input image of FIG. 14 is given.
The operation of will be described. A contour image output from the input image of FIG. 14 by the feature extraction means 2 is as shown in FIG. Then, the voting unit 14 votes for a candidate image in which the contour of the contour image exists. In this case, the outline portion B1 of the candidate image 15
And the contour of the horizontal line H exists, the voting result memory corresponding to the candidate image 15 has a large cumulative result almost equal to that obtained when the candidate image is present without being missing, and the cumulative stored value is substantially the same. It becomes the above constant value. Candidate image 1
For 6, the voting value is obtained at the portion where the contour of the horizontal line H and the 16 candidate images overlap, but as a result, only a small cumulative value is obtained, that is, the cumulative storage value is a value that is significantly different from the above-mentioned fixed value. Becomes The peak searching means 52 inputs the cumulative value for each parameter accumulated in the voting result memory 51, and outputs one or a plurality of parameters having a large cumulative value. In the examples of FIGS. 13 to 15, the candidate image 15 having a large cumulative value is output.

【0054】パターン化手段53は、ピーク探索手段5
2の出力した大きな累積値をもつパラメータ値に基づ
き、システムのアプリケーションで必要となる情報への
変換を行なう。実施例の場合には物体の種類、距離、進
行方向位置が必要であればその形式で、画像上の輪郭と
しての出力が必要であれば、その形式に変換する。変換
に必要な情報は、パラメータ化手段で候補画像を発生
し、パラメータを対応させたときに、そのパラメータに
対応する候補画像の情報を記憶することなどにより得ら
れる。
The patterning means 53 is the peak searching means 5
Based on the parameter value having a large cumulative value output from No. 2, conversion to information necessary for the system application is performed. In the case of the embodiment, the type, distance, and position in the traveling direction of the object are converted into that format if necessary, and if output as an outline on the image is required, conversion is performed into that format. The information necessary for the conversion is obtained by generating candidate images by the parameterization means and storing the information of the candidate images corresponding to the parameters when the parameters are associated.

【0055】なお、ピーク探索手段52が複数個のパラ
メータを出力する場合は、システムのアプリケーション
で必要となる情報に変換する際に、それら複数のパラメ
ータ値に対応する寄与度の累積値で情報を重み付けした
中間値を用いたり、あるいは、不確定な情報を除いた一
部の情報のみを出力してもよい。また、候補画像の輪郭
として出力する場合は、中間的な候補画像を生成して出
力したり、共通する画像の一部を生成して出力したり、
してもよい。
When the peak searching means 52 outputs a plurality of parameters, when converting the information into information required by the system application, the information is expressed as the cumulative value of the contributions corresponding to the plurality of parameter values. A weighted intermediate value may be used, or only a part of information excluding uncertain information may be output. When outputting as the outline of a candidate image, an intermediate candidate image is generated and output, or a part of a common image is generated and output,
You may.

【0056】例えば、同じ程度の累積値をもったパラメ
ータのパターンが得られたとき、システムのアプリケー
ションで必要な情報がパターンの位置であり、各々のパ
ラメータで代表されるパターンが(0,1)、(0,
2)であった時は、重み付けは同じ重みなので、各々の
位置の平均値である(0,1.5)として情報しとて出
力する。
For example, when a parameter pattern having a similar cumulative value is obtained, the information required by the system application is the pattern position, and the pattern represented by each parameter is (0, 1). , (0,
If it is 2), the weights are the same, so the information is output as (0, 1.5) which is the average value of each position.

【0057】以上により、特徴画像に対する候補画像を
特定する。
As described above, the candidate image for the characteristic image is specified.

【0058】以上説明したように、本実施の形態では、
寄与度算出手段32により、画像上に出現する候補画像
を予め生成し、記憶することにより扱える問題の自由度
が拡大できるため、一般化Hough変換では扱えない
異なる形状を持つ複数の物体の認識や透視変換などのア
フィン変換以外の変換を受ける認識対象も応用できる。
As described above, in the present embodiment,
Since the degree of freedom of the problem that can be dealt with can be expanded by previously generating and storing the candidate image that appears on the image by the contribution degree calculation unit 32, recognition of a plurality of objects having different shapes that cannot be handled by the generalized Hough transform and A recognition target that undergoes transformations other than affine transformations such as perspective transformation can also be applied.

【0059】ここで、一般化Hough変換と本実施の
形態とを比較すると、表1の通りである。
Table 1 shows a comparison between the generalized Hough transform and the present embodiment.

【0060】[0060]

【表1】 表1に示すように、1回の走査で認識可能な対象は、一
般化Hough変換では、同一形状の候補画像であるの
に対し、本実施の形態では、複数種類の候補画像である
点で相違する。
[Table 1] As shown in Table 1, the object that can be recognized by one scanning is a candidate image having the same shape in the generalized Hough transform, but in the present embodiment, it is a plurality of types of candidate images. Be different.

【0061】また、候補画像の集合については、一般化
Hough変換では、ある形状を平面上でアフィン変換
してできる集合であるであるのに対し、本実施の形態で
は、全ての変換である点で相違する。
Further, with respect to the set of candidate images, the generalized Hough transform is a set formed by affine transforming a certain shape on a plane, whereas in the present embodiment, all the transforms are included. Is different.

【0062】更に、一般化Hough変換では、1つの
形状を記憶するのに対し、本実施の形態では、候補画像
の集合を生成し、各候補画像をパラメータ化し、各候補
画像の各画素での寄与度を算出しかつ記憶する点で相違
する。
Further, in the generalized Hough transform, one shape is stored, whereas in the present embodiment, a set of candidate images is generated, each candidate image is parameterized, and each pixel of each candidate image is converted. The difference is that the degree of contribution is calculated and stored.

【0063】また、一般化Hough変換では、寄与度
の計算のために複雑な演算を実行し、パターンの特定時
に計算量が多いのに対し、本実施の形態では、寄与度を
読み出し、パターンの特定時に計算量が少ない点で相違
する。
Further, in the generalized Hough transform, a complicated operation is executed to calculate the contribution, and a large amount of calculation is required when the pattern is specified. In contrast, in the present embodiment, the contribution is read and the pattern is calculated. The difference is that the calculation amount is small at the time of identification.

【0064】また、前述した実施の形態では、寄与度メ
モリ33に認識時に必要な情報を予め計算して蓄えられ
る点と、投票結果メモリ51の構成するパラメータ空間
を1次元などの低次元にでき、ピーク探索手段52が低
次元のピーク探索として実現できる点により、認識処理
を高速に実行できる。
Further, in the above-described embodiment, the point that the information required for recognition is stored in advance in the contribution degree memory 33 and the parameter space formed by the voting result memory 51 can be made into a low dimension such as one dimension. Since the peak search means 52 can be realized as a low-dimensional peak search, the recognition process can be executed at high speed.

【0065】更に、投票形式の認識手法なので、投票形
式の認識手法のもつ一般的な利点であるノイズや一部の
パターンの欠けなどに対する頑健性を持つ。
Further, since it is a voting-type recognition method, it has robustness against noise and some pattern missing which are general advantages of the voting-type recognition method.

【0066】以上説明した実施の形態では、特徴画像の
各画素毎に特徴画像の特徴と候補画像の特徴とを比較す
るようにしているが、本発明はこれに限定されず、特徴
画像のとびとびの画素、複数の画素を1ブロックとした
各ブロック、幾何学的な部分(例えば、角部や曲線部
等)毎に、特徴画像の特徴と候補画像の特徴とを比較す
るようにしてもい。なお、幾何学的な部分毎に、特徴画
像と候補画像とを比較する特徴としては、例えば、角や
曲線等としてもよい。
In the above-described embodiment, the feature image feature and the candidate image feature are compared for each pixel of the feature image. However, the present invention is not limited to this, and the feature image is scattered. The feature image of the feature image and the feature of the candidate image may be compared for each pixel, each block including a plurality of pixels as one block, and each geometric portion (for example, a corner portion or a curved portion). Note that the feature for comparing the feature image and the candidate image for each geometric portion may be, for example, a corner or a curve.

【0067】また、前述した実施の形態では、乗用車B
1と歩行者B2との認識を実例にして説明したが、本発
明はこれに限定されず、種々の予め予想される種々の物
体の認識に同様に適用してもよい。なお、物体の入力手
段11からの距離や移動方向は上記例に限定されるもの
ではない。
In the above-described embodiment, the passenger car B
Although the recognition of 1 and the pedestrian B2 has been described as an example, the present invention is not limited to this, and may be similarly applied to recognition of various kinds of objects expected in advance. The distance and the moving direction of the object from the input means 11 are not limited to the above example.

【0068】[0068]

【発明の効果】以上説明したように本発明は、特徴画像
として予想される複数の候補画像各々を、特徴画像の複
数の部分に対応する複数の部分毎に該候補画像の特徴を
表す第2の特徴と共に定め、抽出された特徴画像の部分
毎に、特徴画像の各部分の第1の特徴に近い第2の特徴
に対応する候補画像に対して、該候補画像が特徴画像で
ある確からしさを表す寄与度を投票し、投票された寄与
度に基づいて特徴画像に対応する候補画像を特定するこ
とより、上記パターンを特定するので、一回の処理で種
々の候補画像から上記パターンを特定することができ、
種々のパターンを短時間に特定することの可能となる、
という効果を有する。
As described above, according to the present invention, each of a plurality of candidate images expected as a characteristic image represents the characteristic of the candidate image for each of a plurality of portions corresponding to a plurality of portions of the characteristic image. For each part of the extracted feature image, the probability that the candidate image is the feature image for the candidate image corresponding to the second feature close to the first feature of each part of the feature image. Since the pattern is specified by voting the contribution degree that represents, and specifying the candidate image corresponding to the feature image based on the voted contribution degree, the pattern is specified from various candidate images in one processing. You can
It is possible to identify various patterns in a short time,
Has the effect.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の構成要件を示す図である。FIG. 1 is a diagram showing constituent features of the present invention.

【図2】本実施の形態に係るパターン特定装置のブロッ
ク図である。
FIG. 2 is a block diagram of a pattern specifying device according to the present embodiment.

【図3】入力された画像を示した図である。FIG. 3 is a diagram showing an input image.

【図4】抽出された特徴画像を示した図である。FIG. 4 is a diagram showing extracted feature images.

【図5】基本となるパターンを平行移動させて種々作成
したパターンを示した図である。
FIG. 5 is a diagram showing various patterns created by moving a basic pattern in parallel.

【図6】基本となるパターンを拡大させて種々作成した
パターンを示した図である。
FIG. 6 is a diagram showing various patterns created by enlarging a basic pattern.

【図7】寄与度記憶処理ルーチンを示したフローチャー
トである。
FIG. 7 is a flowchart showing a contribution degree storage processing routine.

【図8】寄与度を設定することを説明する説明図であ
る。
FIG. 8 is an explanatory diagram illustrating setting a contribution degree.

【図9】寄与度を設定することを説明する他の説明図で
ある。
FIG. 9 is another explanatory diagram for explaining setting the contribution degree.

【図10】寄与度を設定することを説明する更に他の説
明図である。
FIG. 10 is still another explanatory diagram illustrating setting the contribution degree.

【図11】投票手段が実行する制御ルーチンを示したフ
ローチャートである。
FIG. 11 is a flowchart showing a control routine executed by a voting unit.

【図12】投票された寄与度を累積記憶するテーブルを
示した図である。
FIG. 12 is a diagram showing a table for cumulatively storing voted contributions.

【図13】記憶したパターンを示した図である。FIG. 13 is a diagram showing stored patterns.

【図14】本実施の形態の特定対象を示した図である。FIG. 14 is a diagram showing a specific target according to the present embodiment.

【図15】図14の入力画像から抽出した特徴画像を示
した図である。
FIG. 15 is a diagram showing a characteristic image extracted from the input image of FIG.

【符号の説明】[Explanation of symbols]

11 入力手段 12 抽出手段 14 投票手段 15 特定手段 11 Input means 12 Extraction means 14 voting means 15 Identification means

フロントページの続き (56)参考文献 特開 平5−165968(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 JICSTファイル(JOIS)Continuation of front page (56) Reference JP-A-5-165968 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 7 /00-7/60 G06T 1/00 JISST file (JOIS)

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像を入力する入力手段と、 前記入力された画像から、該画像内に存在するパターン
に対応し、かつ、該パターンの特徴を表す第1の特徴が
複数の部分ごとに定められた特徴画像を抽出する抽出手
段と、 前記特徴画像として予想される複数の候補画像各々が前
記複数の部分に対応する複数の部分ごとに該候補画像の
特徴を表し、前記第1の特徴と対応する第2の特徴と共
に定められ、前記抽出された特徴画像の前記部分ごと
に、前記特徴画像の各部分の第1の特徴と該部分に対応
する部分を含む候補画像の該部分に対応する部分の第2
の特徴とを比較すると共に、該比較の結果に基づいて、
前記特徴画像の各部分毎に、第1の特徴に近い第2の特
徴に対応する候補画像に対して、該候補画像が前記特徴
画像である確からしさを表す寄与度を投票する投票手段
と、 前記投票手段により候補画像に対して投票された寄与度
の累積値に基づいて、前記特徴画像に対応する候補画像
を特定し、特定された該候補画像を識別する候補画像識
別情報を出力する特定手段と、 を備え、 前記特定手段は、複数の候補画像識別情報を出力する場
合、該候補画像識別情報を所定の情報に変換し、複数の
候補画像識別情報に対応する寄与度の累積値で該情報を
重み付けした中間値を出力し、前記候補画像は、前記抽出手段により抽出される特徴画
像に対応するパターンを平行移動又は拡大することによ
り生成され、 前記部分は前記特徴画像の複数の画素を1ブロックとし
た各ブロック、該特徴画像の各画素、該特徴画像のとび
とびの画素、又は、該特徴画像の幾何学的な部分の何れ
かであり、 前記第1及び第2の特徴値は輪郭部の強度である、 パターン特定装置。
1. Input means for inputting an image, and a first feature corresponding to a pattern existing in the image and representing the feature of the pattern is determined for each of a plurality of parts from the input image. Extracting means for extracting the identified feature image, each of the plurality of candidate images expected as the feature image represents a feature of the candidate image for each of a plurality of portions corresponding to the plurality of portions, and the first feature For each part of the extracted feature image that is defined with a corresponding second feature, corresponds to that part of the candidate image that includes the first feature of each part of the feature image and the part corresponding to that part. Second part
And the characteristics of, and based on the result of the comparison,
For each part of the characteristic image, with respect to a candidate image corresponding to a second characteristic close to the first characteristic, a voting means for voting a contribution degree indicating the likelihood that the candidate image is the characteristic image, Specification for identifying a candidate image corresponding to the characteristic image based on the cumulative value of contributions voted to the candidate image by the voting means, and outputting candidate image identification information for identifying the identified candidate image When outputting a plurality of candidate image identification information, the specifying means converts the candidate image identification information into predetermined information, and uses the cumulative value of contribution rates corresponding to the plurality of candidate image identification information. An intermediate value obtained by weighting the information is output, and the candidate image is a feature image extracted by the extracting means.
By translating or enlarging the pattern corresponding to the image
Is generated by a plurality of pixels of the characteristic image as one block
Each block, each pixel of the characteristic image, and the jump of the characteristic image
Any of the skipped pixels or the geometric part of the characteristic image
The pattern specifying device , wherein the first and second characteristic values are the strength of the contour portion .
【請求項2】 画像を入力する入力手段と、 前記入力された画像から、該画像内に存在するパターン
に対応し、かつ、該パターンの特徴を表す第1の特徴が
複数の部分毎に定められた特徴画像を抽出する抽出手段
と、 前記特徴画像として予想される複数の候補画像各々が前
記複数の部分に対応する複数の部分毎に該候補画像の特
徴を表し、前記第1の特徴と対応する第2の特徴と共に
定められ、前記抽出された特徴画像の前記部分毎に、前
記特徴画像の各部分の第1の特徴と該部分に対応する部
分を含む候補画像の該部分に対応する部分の第2の特徴
とを比較すると共に、該比較の結果に基づいて、前記特
徴画像の各部分毎に、第1の特徴に近い第2の特徴に対
応する候補画像に対して、該候補画像が前記特徴画像で
ある確からしさを表す寄与度を投票する投票手段と、 前記投票手段により候補画像に対して投票された寄与度
の累積値に基づいて、前記特徴画像に対応する候補画像
を特定する特定手段と、 を備え、 前記特定手段は、複数の候補画像を特定する場合、該候
補画像の共通する画像部分を出力する、前記候補画像は、前記抽出手段により抽出される特徴画
像に対応するパターンを平行移動又は拡大することによ
り生成され、 前記部分は前記特徴画像の複数の画素を1ブロックとし
た各ブロック、該特徴画像の各画素、該特徴画像のとび
とびの画素、又は、該特徴画像の幾何学的な部分の何れ
かであり、 前記第1及び第2の特徴値は輪郭部の強度である、 パタ
ーン特定装置。
2. Input means for inputting an image, and a first feature corresponding to a pattern existing in the image and representing the feature of the image is determined for each of a plurality of parts from the input image. Extracting means for extracting the identified feature image, each of the plurality of candidate images expected as the feature image represents a feature of the candidate image for each of a plurality of portions corresponding to the plurality of portions, and the first feature Corresponding to the portion of the candidate image including the first characteristic of each portion of the characteristic image and the portion corresponding to the portion, which is defined together with the corresponding second characteristic. The second feature of the part is compared, and based on the result of the comparison, for each part of the feature image, the candidate image is compared with the candidate image corresponding to the second feature close to the first feature. The image that represents the certainty that the image is the characteristic image. And a specifying unit that specifies a candidate image corresponding to the characteristic image based on a cumulative value of contribution degrees voted by the voting unit for candidate images, the specifying unit Outputs a common image portion of the candidate images when specifying a plurality of candidate images. The candidate images are characteristic images extracted by the extracting means.
By translating or enlarging the pattern corresponding to the image
Is generated by a plurality of pixels of the characteristic image as one block
Each block, each pixel of the characteristic image, and the jump of the characteristic image
Any of the skipped pixels or the geometric part of the characteristic image
The pattern specifying device , wherein the first and second characteristic values are the strength of the contour portion .
【請求項3】 前記特定手段により特定された候補画像
を、必要な形式に変換する変換手段を更に備えた請求項
1または請求項2に記載のパターン特定装置。
3. The pattern specifying device according to claim 1, further comprising a conversion unit that converts the candidate image specified by the specifying unit into a required format.
【請求項4】 前記特徴画像は、前記入力された画像内
に存在するパターンの輪郭画像であり、前記第1の特徴
及び前記第2の特徴は、該輪郭画像の輪郭部の濃度の変
化量及び濃度の変化方向を含む請求項1乃至請求項3の
何れか1項に記載のパターン特定装置。
4. The feature image is a contour image of a pattern existing in the input image, and the first feature and the second feature are variation amounts of density of a contour portion of the contour image. The pattern specifying device according to claim 1, further comprising:
【請求項5】 前記寄与度は、前記特徴画像の全ての部
分において前記投票されたときの寄与度の累積値が全て
の候補画像で一定値となるように予め正規化された値で
ある、請求項1乃至請求項4の何れか1項に記載のパタ
ーン特定装置。
5. The contribution is a value normalized in advance so that the cumulative value of the contribution when voting is made in all parts of the characteristic image becomes a constant value in all candidate images. The pattern identification device according to any one of claims 1 to 4.
【請求項6】 前記複数の候補画像各々の各部分の特徴
を前記第2の特徴として記憶する記憶手段をさらに備
え、 前記投票手段は、前記第1の特徴と前記記憶手段に記憶
された前記第2の特徴とを比較することを特徴とする請
求項1乃至請求項5の何れか1項に記載のパターン特定
装置。
6. The storage device further includes a storage unit that stores a characteristic of each portion of each of the plurality of candidate images as the second characteristic, and the voting unit stores the first characteristic and the storage unit. The pattern specifying device according to claim 1, wherein the pattern specifying device compares the second characteristic.
【請求項7】 前記投票手段により候補画像に対して投
票された寄与度を、候補画像識別情報に対応して累積記
憶する累積記憶手段をさらに備え、 前記特定手段は、前記累積記憶手段に候補画像識別情報
に対応して累積記憶された最も大きな累積値に対応する
候補画像識別情報に基づいて、前記特徴画像である候補
画像を特定する請求項1乃至請求項6の何れか1項に記
載のパターン特定装置。
7. A cumulative storage unit that cumulatively stores the contribution degrees voted by the voting unit for the candidate images in correspondence with the candidate image identification information, wherein the specifying unit is a candidate in the cumulative storage unit. 7. The candidate image that is the characteristic image is specified based on the candidate image identification information corresponding to the largest cumulative value that is cumulatively stored corresponding to the image identification information. Pattern identification device.
JP21552598A 1998-07-30 1998-07-30 Pattern identification device Expired - Fee Related JP3496530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21552598A JP3496530B2 (en) 1998-07-30 1998-07-30 Pattern identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21552598A JP3496530B2 (en) 1998-07-30 1998-07-30 Pattern identification device

Publications (2)

Publication Number Publication Date
JP2000048199A JP2000048199A (en) 2000-02-18
JP3496530B2 true JP3496530B2 (en) 2004-02-16

Family

ID=16673874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21552598A Expired - Fee Related JP3496530B2 (en) 1998-07-30 1998-07-30 Pattern identification device

Country Status (1)

Country Link
JP (1) JP3496530B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0502844D0 (en) * 2005-02-11 2005-03-16 Univ Edinburgh Storing digital content for access using a captured image

Also Published As

Publication number Publication date
JP2000048199A (en) 2000-02-18

Similar Documents

Publication Publication Date Title
JP4284288B2 (en) Pattern recognition apparatus and method
US6961466B2 (en) Method and apparatus for object recognition
EP1693783B1 (en) Fast method of object detection by statistical template matching
Khoshelham Extending generalized hough transform to detect 3d objects in laser range data
US7340089B2 (en) Geometric pattern matching using dynamic feature combinations
JP4479478B2 (en) Pattern recognition method and apparatus
US20110091113A1 (en) Image processing apparatus and method, and computer-readable storage medium
JP5950441B2 (en) Image recognition apparatus, image recognition method, and image recognition program
JP5984327B2 (en) Information processing method and apparatus, and program
JP2003323622A (en) Image recognition system and method and its program
CN110378837B (en) Target detection method and device based on fish-eye camera and storage medium
JPH0676062A (en) Picture processor
JP5574033B2 (en) Image recognition system, recognition method thereof, and program
JP3914864B2 (en) Pattern recognition apparatus and method
CN114972968A (en) Tray identification and pose estimation method based on multiple neural networks
CN111507908A (en) Image correction processing method, device, storage medium and computer equipment
JP2002230549A (en) Image processing method and device
US8731326B2 (en) Object recognition system and method
JP2010262576A (en) Subject detecting apparatus and program
CN113436251B (en) Pose estimation system and method based on improved YOLO6D algorithm
JP3252941B2 (en) Image segmentation recognition device
JP2002133413A (en) Method and device for identifying three-dimensional object using image processing
JP3496530B2 (en) Pattern identification device
WO2000049569A1 (en) Method for extracting feature of binary image
JP2002536709A (en) Method and apparatus for calculating a similarity between a first structure and at least one preset second structure

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081128

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091128

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101128

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees