JPH06274636A - System and method for identification and three dimensional identification system - Google Patents
System and method for identification and three dimensional identification systemInfo
- Publication number
- JPH06274636A JPH06274636A JP5118474A JP11847493A JPH06274636A JP H06274636 A JPH06274636 A JP H06274636A JP 5118474 A JP5118474 A JP 5118474A JP 11847493 A JP11847493 A JP 11847493A JP H06274636 A JPH06274636 A JP H06274636A
- Authority
- JP
- Japan
- Prior art keywords
- identification
- learning
- pattern
- output
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】Detailed Description of the Invention
【0001】[0001]
【産業上の利用分野】本発明は、識別システムおよびそ
の方法並びに立体識別システムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an identification system and method, and a stereo identification system.
【0002】[0002]
【従来の技術】識別システムは、識別対象を複数の識別
種のうちの1種に同定するものである。識別対象として
は、例えば紙幣のように平面的なものと、部品のように
立体的なものとがある。まず、平面的なものを識別する
システムとして、紙幣識別システムを例にとり説明す
る。2. Description of the Related Art An identification system identifies an identification target as one of a plurality of identification species. The identification target includes, for example, a planar object such as a bill and a three-dimensional object such as a component. First, a bill identifying system will be described as an example of a system for identifying a planar object.
【0003】近年では識別システムにニューラルネット
ワーク(以下NNと記す)を利用しようとする試みがあ
る。NNは、ある教師パターンを学習し、他のパターン
が入力されたときに教師パターンへの近似度を出力する
ことができるので、様々な認識システムへの応用が試行
されている。In recent years, there have been attempts to use a neural network (hereinafter referred to as NN) for an identification system. Since the NN can learn a certain teacher pattern and output the degree of approximation to the teacher pattern when another pattern is input, its application to various recognition systems has been tried.
【0004】従来のNNを用いた識別システムの一例
が、「1992年、電気学会論文誌C第112巻4号2
49〜258頁」に記載されている。この論文に記載さ
れた紙幣識別システムは、紙幣の濃度特徴により紙幣種
および表裏、左右の姿勢すなわち12種類を識別するも
のである。固定配置された複数箇所(4箇所)のセンサ
と、センサで得た紙幣の濃度変化などの特徴から紙幣種
を識別するNNとにより構成されている。基本となる紙
幣を用いて、濃度パターンなどをNNの入力層に与えて
学習しておき、識別対象となる紙幣のデータを入力し
て、NNの出力層から識別結果を出力する。濃度変化を
読み取る位置と、その濃度変化の例を図13に示す。An example of a conventional identification system using an NN is described in "1992, IEEJ Transactions, Vol. 112, No. 2, 2".
49-258 ". The banknote discrimination system described in this paper discriminates banknote types, front and back, left and right postures, that is, 12 types, based on the density characteristics of the banknotes. It is composed of a plurality of sensors (four locations) fixedly arranged, and an NN for identifying a banknote type from characteristics such as a change in the density of the banknote obtained by the sensor. Using a basic banknote, a density pattern or the like is given to the NN input layer for learning, data of the banknote to be identified is input, and the identification result is output from the NN output layer. FIG. 13 shows a position where the density change is read and an example of the density change.
【0005】センシング位置が4箇所S1,S2,S3
およびS4に設定されている。紙幣全域の濃度データを
検出しないのは、入力すべきデータ数が多すぎて、メモ
リ使用量や識別処理時間が膨大になり過ぎて実用に適さ
ないためである。例えば、紙幣全域を1mmメッシュで区
切って濃度データとした場合でも、150×75=1
1,250個程度の入力データを必要とし、これではN
Nを用いた現在のデータ処理技術では実用化が不可能で
ある。また、従来のNNを使用しない識別装置でも、経
験的にセンシング位置が4箇所程度となっていることも
理由の一つと考えられる。There are four sensing positions S1, S2, S3
And S4. The density data of the entire banknote is not detected because the number of data to be input is too large and the memory usage amount and the identification processing time become too large to be suitable for practical use. For example, even if the whole banknote is divided into 1 mm meshes and used as density data, 150 × 75 = 1
It requires about 1,250 input data, which is N
Practical application is impossible with the current data processing technology using N. It is also considered that one of the reasons is that the sensing device is empirically set to about four places even in the conventional identification device that does not use the NN.
【0006】紙幣識別システムに要求される事項として
は、 (1) 紙幣ごとの特徴をよく抽出する手段を有すること。
すなわち12種類各々の濃度などの変化が明確な「個
性」として抽出できること。 (2) センサの取り付け位置ずれ、紙幣の位置ずれ、汚れ
などに強いこと。 (3) 識別精度を確保しながらも、必要最小限の処理時間
で識別が可能であること。などが挙げられる。Items required for the bill identifying system are: (1) It has a means for extracting features of each bill.
In other words, it should be possible to extract the "individuality" in which changes in the concentration of each of the 12 types are clear. (2) Resistant to sensor mounting misalignment, banknote misalignment and dirt. (3) It is possible to identify in a minimum required processing time while ensuring identification accuracy. And so on.
【0007】これらの事項は、紙幣識別に限らず他の平
面的なものを識別するシステムにも同様に要求される。[0007] These matters are similarly required not only for bill recognition but also for other planar recognition systems.
【0008】しかし、従来の識別システムでは、センシ
ング位置の決定は熟練者の経験則に基づいており、NN
にとっての最適センシング位置およびその数を定量的に
決定することはできなかった。However, in the conventional identification system, the determination of the sensing position is based on the empirical rule of the skilled person.
It was not possible to quantitatively determine the optimal sensing position and its number for.
【0009】さらに、熟練者により決定されたセンシン
グ位置および数は、NNとは異なる識別システムのため
のものであって、識別手段としてNNを利用する場合に
最適なものを定量的に決定する手段は存在しなかった。Further, the sensing position and the number determined by the expert are for an identification system different from the NN, and are means for quantitatively determining the optimum one when the NN is used as the identification means. Did not exist.
【0010】次に、立体的なものを識別するシステムに
ついて述べる。Next, a system for identifying a three-dimensional object will be described.
【0011】立体識別を行う場合、主に次のような2通
りの立場が考えられる。一つは、識別対象がどのような
立体形状であるかの情報が全く与えられておらず、距離
センサーによる計測値や画像データなどに基づいてコン
ピータ内部に立体モデルを構成する立場、もう一つは、
識別対象の候補が予め分かっており、候補の中から1種
に同定する立場である。When stereoscopic identification is performed, there are mainly the following two positions. One is the position to construct a three-dimensional model inside the computer based on the measurement value of the distance sensor and the image data, etc. Is
The candidate for identification is known in advance and is in a position to identify one candidate from the candidates.
【0012】生産ラインにおける部品識別などにおいて
は、識別対象の種類は予め分かっており、識別システム
は被識別部品の種類を1つに特定するのが一般的であ
る。In parts identification on a production line, the type of identification target is known in advance, and the identification system generally identifies only one type of identification target part.
【0013】本特許は複数種類の立体形状候補の中か
ら、被識別立体の種類を1種に同定する識別システムに
関する。This patent relates to an identification system for identifying one type of identified solid from a plurality of types of three-dimensional shape candidates.
【0014】立体識別システムの識別手順としては、 (i) 立体の特徴量データを獲得する。たとえば、立体
表面の凹凸データをセンサーによって獲得したり、立体
の稜線や曲面データを画像処理装置により獲得する、な
どを行う。As the identification procedure of the stereoscopic identification system, (i) the stereoscopic feature amount data is acquired. For example, the unevenness data of the three-dimensional surface is acquired by a sensor, the ridge line or curved surface data of the three-dimensional is acquired by an image processing device, and the like.
【0015】(ii) 特徴量に基づいて、被識別立体を候
補の中から1種に同定する。(Ii) Based on the characteristic amount, the identified solid is identified as one of the candidates.
【0016】の2つの手順に分けることができる。It can be divided into two procedures.
【0017】従来の立体識別システムの一例が、「19
91年、日本機械学会論文集(C編)第57巻535号
172〜179ページ」に記載されている。この論文に
記載された立体識別システムでは、立体の特徴量データ
として、立体の二値画像重心を中心としてレーザ距離計
を円形にスキャンニングすることで獲得した立体の凹凸
データを用い、同定方法としてファジー理論を用いてい
る。An example of a conventional stereoscopic identification system is "19.
1991, Japan Society of Mechanical Engineers, Vol. 57, No. 535, pp. 172-179. In the stereoscopic identification system described in this paper, as the stereoscopic feature amount data, the stereoscopic unevenness data obtained by scanning the laser rangefinder in a circle around the binary image centroid of the stereoscopic image is used as an identification method. It uses fuzzy theory.
【0018】また、画像処理により立体特徴量を獲得す
る方法などは、従来よく知られている。Further, a method of acquiring a stereoscopic feature amount by image processing is well known in the art.
【0019】しかし、従来の立体識別システムでは、特
徴量データの獲得処理、たとえばレーザ距離計による計
測処理、画像データから稜線を摘出する計算処理などに
多くの時間を必要としていた。また、特徴量に基づく同
定処理にも多くの時間を必要としていた。However, in the conventional stereoscopic identification system, much time is required for the acquisition process of the feature amount data, for example, the measurement process by the laser range finder, the calculation process for extracting the ridge line from the image data, and the like. Moreover, much time is required for the identification processing based on the feature amount.
【0020】また、識別対象は場合により類似性の高い
立体が多い場合や、逆に類似性が低く、識別に多くの処
理を必要としない場合も考えられるが、従来の方法では
識別対象の類似性の大小にかかわらず識別のための処理
が一様であるため、処理の過剰や不足(識別不能)の問
題があった。In some cases, the objects to be identified may have many solids with a high degree of similarity, or conversely, the degree of similarity may be low and a lot of processing is not required for the identification. Since the process for identification is uniform regardless of the sex, there was a problem of excessive or insufficient processing (indiscernibility).
【0021】[0021]
【発明が解決しようとする課題】上述のように、従来の
平面的なものを識別するシステムでは、最適なセンシグ
位置とその数を定量的に決定することができず、また立
体的なものを識別するシステムでは、識別対象の類似性
にかかわらず処理に多くの時間を費やさなければならな
いという問題があった。As described above, in the conventional system for identifying a planar object, the optimum sensing positions and the number thereof cannot be quantitatively determined, and a stereoscopic object is not detected. In the identification system, there is a problem that a lot of time must be spent for processing regardless of the similarity of the identification target.
【0022】本発明は上記事情に鑑みてなされたもの
で、高い識別精度と必要最小限の処理時間とを実現する
最適センシング位置を定量的に決定することのできる識
別システムおよびその方法と、最少の立体特徴量獲得処
理、高い識別精度、及び必要最少限の処理時間を実現す
る立体識別システムを提供することを目的とする。The present invention has been made in view of the above circumstances, and an identification system and a method therefor capable of quantitatively determining an optimum sensing position for realizing a high identification accuracy and a minimum required processing time, and a minimum. It is an object of the present invention to provide a stereoscopic identification system that realizes the stereoscopic feature amount acquisition processing, high identification accuracy, and minimum necessary processing time.
【0023】[0023]
【課題を解決するための手段】本発明の識別システム
は、識別対象を複数の識別種のうちの1種に同定するシ
ステムであって、複数の単位領域に区分された識別対象
の第1の識別パターンを与えられて対応識別種に同定す
る出力を行い、この出力が所望の値に近付くように学習
する第1のパターン学習/識別手段と、学習後の前記第
1のパターン学習/識別手段に、前記第1の識別パター
ンにノイズを含ませた第1のノイズデータを与える第1
のノイズデータ発生手段と、前記第1のノイズデータを
与えられた前記第1のパターン学習/識別手段の出力か
ら、単位領域ごとに第1の識別特性を求める第1の識別
特性演算手段と、単位領域毎の前記第1の識別特性を記
憶する単位領域識別特性記憶手段と、前記単位領域識別
特性記憶手段に記憶された前記第1の識別特性のなかか
ら、識別特性の優れた1つ以上の単位領域を選定し、こ
の選定された単位領域の識別特性を合成する合成領域構
成手段と、前記合成領域構成手段により合成された合成
単位領域ごとに識別対象の第2の識別パターンを与えら
れて対応識別種に同定する出力を行い、この出力が所望
の値に近付くように学習する第2のパターン学習/識別
手段と、学習後の前記第2のパターン学習/識別手段
に、前記第2の識別パターンにノイズを含ませた第2の
ノイズデータを与える第2のノイズデータ発生手段と、
前記第2のノイズデータを与えられた前記第2のパター
ン学習/識別手段の出力から、合成単位領域ごとの第2
の識別特性を求める第2の識別特性演算手段と、前記第
2の識別特性演算手段が求めた前記第2の識別特性が所
望の条件を満たしているか否かを判定する識別特性評価
手段と、前記識別特性評価手段が、前記第2の識別特性
は所望の条件を満たしていると判断した時点において、
前記合成領域構成手段が選定し合成した合成単位領域に
関する前記第2のパターン学習/識別手段の出力を与え
られて外部へ出力する出力手段とを備えている。The identification system of the present invention is a system for identifying an identification target as one of a plurality of identification species, and is a first identification target divided into a plurality of unit areas. First pattern learning / identifying means for performing an output for identifying a corresponding identifying species given an identification pattern, and learning so that the output approaches a desired value, and the first pattern learning / identifying means after learning. A first noise data in which noise is included in the first identification pattern,
Noise data generating means, and first discriminating characteristic calculating means for obtaining a first discriminating characteristic for each unit area from the output of the first pattern learning / discriminating means given the first noise data. One or more of excellent identification characteristics among the unit area identification characteristic storage means for storing the first identification characteristic for each unit area and the first identification characteristics stored in the unit area identification characteristic storage means Unit area is selected, and a second identification pattern as an identification target is given to each of the combined unit areas combined by the combined area forming unit that combines the identification characteristics of the selected unit area and the combined area forming unit. The second pattern learning / identifying means for performing an output for identifying the corresponding identifying species and learning so that the output approaches a desired value, and the second pattern learning / identifying means after learning for the second pattern learning / identifying means. Identification of A second noise data generating means for providing a second noise data moistened with noise turn,
From the output of the second pattern learning / discriminating means given the second noise data, the
Second discrimination characteristic calculating means for obtaining the discrimination characteristic of, and discrimination characteristic evaluating means for judging whether or not the second discrimination characteristic obtained by the second discrimination characteristic calculating means satisfies a desired condition, At the time when the identification characteristic evaluation means determines that the second identification characteristic satisfies a desired condition,
And an output unit for outputting the output of the second pattern learning / identification unit related to the combined unit region selected and combined by the combined region forming unit to the outside.
【0024】また本発明の識別方法は、識別対象を複数
の識別種のうちの1種に同程する方法であって、複数の
単位領域に区分された識別対象の第1の識別パターンを
第1のパターン学習/識別手段に与えて対応する識別種
に同定する出力を行わせ、この出力が所望の値に近付く
ように学習させるステップと、学習後の前記第1のパタ
ーン学習/識別手段に、前記第1の識別パターンにノイ
ズを含ませた第1のノイズデータを与えるステップと、
前記第1のノイズデータを与えられた前記第1のパター
ン学習/識別手段の出力から、単位領域ごとに第1の識
別特性を求めるステップと、求められた単位領域毎の前
記第1の識別特性のなかから、識別特性の優れた少なく
とも2つの単位領域を選定し、この選定された単位領域
の識別特性を合成するステップと、合成された合成単位
領域ごとに識別対象の第2の識別パターンを第1のパタ
ーン学習/識別手段に与えて対応する識別種に同定する
出力を行わせ、この出力が所望の値に近付くように学習
させるステップと、学習後の前記第2のパターン学習/
識別手段に、前記第2の識別パターンにノイズを含ませ
た第2のノイズデータを与えるステップと、前記第2の
ノイズデータを与えられた前記第2のパターン学習/識
別手段の出力から、合成単位領域ごとの第2の識別特性
を求めるステップと、求められた前記第2の識別特性が
所望の条件を満たしているか否かを判定するステップ
と、前記第2の識別特性は所望の条件を満たしている判
定した時点における合成単位領域に関する前記第2のパ
ターン学習/識別手段の出力を外部へ出力するステップ
とを備えている。Further, the identification method of the present invention is a method of making the identification target similar to one of a plurality of identification species, and the first identification pattern of the identification object divided into a plurality of unit areas is A step of giving an output for identifying the corresponding discriminant species to the pattern learning / identifying means No. 1 and learning so that this output approaches a desired value; and the first pattern learning / identifying means after learning. , Providing first noise data including noise in the first identification pattern,
Determining a first discriminating characteristic for each unit area from the output of the first pattern learning / discriminating means given the first noise data; and the first discriminating characteristic for each of the obtained unit areas. Among them, a step of selecting at least two unit areas having excellent identification characteristics and synthesizing the identification characteristics of the selected unit areas, and a second identification pattern to be identified for each synthesized composite unit area A step of giving the first pattern learning / discriminating means an output for identifying the corresponding discriminant species, and learning so that the output approaches a desired value; and the second pattern learning / learning after learning.
A step of giving the identification means second noise data in which the second identification pattern includes noise; and a synthesis from the output of the second pattern learning / identification means provided with the second noise data. The step of obtaining the second identification characteristic for each unit area, the step of determining whether or not the obtained second identification characteristic satisfies a desired condition, and the second identification characteristic satisfies the desired condition. The step of outputting the output of the second pattern learning / identifying means relating to the composition unit area at the time when it is determined that the condition is satisfied to the outside.
【0025】さらに、本発明の立体識別システムは、立
体を複数の識別種のうちの1種に同定する立体識別シス
テムであって、立体を所定方向から撮影する画像撮影装
置と、前記画像撮影装置を中心とした円周上に1個また
は複数配置された照明手段と、前記照明手段を立体に対
して所定方向に配置制御する手段と、前記照明手段を同
時または1個づつ点灯する手段と、前記画像撮影装置に
より得た画像データを記憶する画像データ記憶手段と、
前記画像データから所要の立体特徴量を生成する立体特
徴量構成手段と、を有する立体特徴量獲得手段と、前記
立体特徴量獲得手段により獲得した立体特徴量を単位領
域に分割し、単位領域の識別パターンを与えられて、対
応する識別種に同定する出力を行い、この出力が所望の
値に近づくように学習する第1のパターン学習/識別手
段と、単位領域毎の識別特性を求める手段と、前記単位
領域のうち、識別特性の良好な複数の単位領域を選択し
て合成する合成領域構成手段と、前記合成領域構成手段
により合成された合成領域に識別対象の第2の識別パタ
ーンを与えられて、対応する識別種に同定する出力を行
い、この出力が所望の値に近づくように学習する第2の
パターン学習/識別手段と、合成領域の識別特性を求め
る手段と、求められたこの合成領域の識別特性が、所定
の条件を満たしているか否かを判定する識別特性評価手
段と、前記識別特性評価手段が所定の条件を満たしてい
ると判定した時点において、前記合成領域構成手段が選
定し合成した合成単位領域に関する前記第2のパターン
学習/識別手段の出力を与えられて外部へ出力する出力
手段と、を備えたことを特徴としている。Furthermore, the stereoscopic identification system of the present invention is a stereoscopic identification system for identifying a solid as one of a plurality of identification species, and an image capturing device for capturing a solid from a predetermined direction, and the image capturing device. One or a plurality of illuminating means arranged on the circumference around the center, means for arranging and controlling the illuminating means in a predetermined direction with respect to the solid, and means for illuminating the illuminating means simultaneously or one by one. Image data storage means for storing image data obtained by the image capturing device;
A stereoscopic feature amount acquiring unit having a stereoscopic feature amount configuring unit that generates a required stereoscopic feature amount from the image data, and a stereoscopic feature amount acquired by the stereoscopic feature amount acquiring unit are divided into unit areas. A first pattern learning / identifying means for giving an identification pattern, performing an output for identifying a corresponding identification species, and learning so that the output approaches a desired value; and a means for obtaining an identification characteristic for each unit area Of the unit areas, a combination area forming unit for selecting and combining a plurality of unit areas having good identification characteristics, and a second identification pattern to be identified to the combination area combined by the combination area forming unit. Then, a second pattern learning / discriminating means for performing an output for identifying the corresponding discriminating species and learning so that the output approaches a desired value, a means for obtaining the discriminating characteristic of the combined area, and The discriminant characteristic evaluation unit that determines whether or not the discriminant characteristic of the synthetic region satisfies a predetermined condition, and the synthetic region configuration at the time when the discriminant characteristic evaluation unit determines that the discriminant characteristic evaluation unit satisfies the predetermined condition. Output means for receiving the output of the second pattern learning / identifying means relating to the combined unit area selected and combined by the means and outputting the output to the outside.
【0026】[0026]
【作用】第1のパターン学習/識別手段が、識別対象の
単位領域ごとの第1の識別パターンを与えられて対応す
る識別種に同定する出力を行い、この出力が所望の値に
近付くように学習し、学習後の第1のパターン学習/識
別手段に第1のノイズデータ発生手段が第1のノイズデ
ータを与える。この第1のノイズデータを与えられた前
記第1のパターン学習/識別手段の出力から、第1の識
別特性演算手段が単位領域ごとの第1の識別特性を求
め、単位領域識別特性記憶手段が記憶する。合成領域構
成手段がこの第1の識別特性のうち特性の優れた少なく
とも2つの単位領域を選定し、この選定された単位領域
を第2のパターン学習/識別手段として合成する。第2
のパターン学習/識別手段が、合成領域に関する識別パ
ターンを与えられて対応する識別種に同定する出力を行
い、この出力が所望の値に近付くように学習する。学習
後の第2のパターン学習/識別手段に、第2のノイズデ
ータ発生手段が第2のノイズデータを与え、この第2の
ノイズデータを与えられた第2のパターン学習/識別手
段の出力から、第2の識別特性演算手段が合成領域の第
2の識別特性を求める。この第2の識別特性が所望の条
件を満たしているか否かを識別特性評価手段が判定し、
所望の条件を満たしていると判断した時点において合成
領域構成手段が選定し合成した合成領域に関する第2の
パターン学習/識別手段の出力を出力手段が与えられ
て、外部へ出力する。これにより、複数の単位領域のな
かから識別特性の優れた領域が定量的に選定される。The first pattern learning / identifying means outputs the first identifying pattern for each unit area to be identified and identifies the corresponding identifying species, so that the output approaches the desired value. After learning, the first noise data generating means gives the first noise data to the first pattern learning / identifying means after learning. From the output of the first pattern learning / discrimination means given the first noise data, the first discrimination characteristic computing means obtains the first discrimination characteristic for each unit area, and the unit area discrimination characteristic storage means Remember. The combination area forming means selects at least two unit areas having excellent characteristics among the first identification characteristics, and combines the selected unit areas as second pattern learning / identification means. Second
The pattern learning / identification means of (1) gives an output for identifying the corresponding identification species given the identification pattern regarding the composite area, and learns so that this output approaches a desired value. The second noise data generating means gives the second noise data to the second pattern learning / identifying means after learning, and the second noise learning data is outputted from the output of the second pattern learning / identifying means. , The second identification characteristic calculation means obtains the second identification characteristic of the combined area. The discriminating characteristic evaluating means judges whether or not the second discriminating characteristic satisfies a desired condition,
When it is determined that the desired condition is satisfied, the output of the second pattern learning / identifying means relating to the combined area selected and combined by the combined area forming means is provided to the output means and output to the outside. As a result, a region having excellent identification characteristics is quantitatively selected from the plurality of unit regions.
【0027】また、このような識別システムを用いて、
本発明の識別方法を実施することができる。Further, by using such an identification system,
The identification method of the present invention can be implemented.
【0028】さらに、本発明の立体識別システムによれ
ば、照明手段が同時または1個づつ点灯し、画像撮影装
置が立体を所定方向から撮影し、得られた画像データを
画像データ記憶手段が記憶し、この画像データから立体
特徴量構成手段が所要の画像特徴量を構成する。次に、
第1のパターン学習/識別手段がこのようにして得られ
た立体特徴量を単位領域に分割し、単位領域の識別パタ
ーンを与えられて対応する識別種に同定する出力を行
い、この出力が所定の値に近付くように学習する。さら
に、単位領域毎の識別特性を求める手段が単位領域毎の
識別特性を求め、合成領域構成手段が識別特性の良い複
数の単位領域を合成する。第2のパターン学習/識別手
段が、この合成された合成領域に識別対象の第2の識別
パターンを与えられて対応する識別種に同定する出力を
行い、この出力が所望の値に近付くように学習する。合
成領域の識別特性を求める手段がこの合成領域の識別特
性を求め、識別特性を求める手段がこの識別特性を求
め、識別特性評価手段がこの識別特性が所望の所定の条
件を満たしているか否かを判定し、満たしていると判定
した時点で、出力手段が第2のパターン学習/識別手段
の出力を与えられて外部へ出力を行う。これにより、立
体の識別に必要な最小限の領域が定量的に求まり、最小
の処理量及び処理時間で確実な識別が可能であるFurther, according to the three-dimensional identification system of the present invention, the illumination means is turned on simultaneously or one by one, the image photographing device photographs the three-dimensional object from a predetermined direction, and the obtained image data is stored in the image data storage means. Then, the stereoscopic feature quantity constructing means constructs a required image feature quantity from this image data. next,
The first pattern learning / identifying means divides the stereoscopic feature amount thus obtained into unit areas, and outputs an identification pattern of the unit area to identify the corresponding identification species, and this output is predetermined. Learn to approach the value of. Further, the means for obtaining the identification characteristic for each unit area obtains the identification characteristic for each unit area, and the combining area composing means combines a plurality of unit areas having good identification characteristics. The second pattern learning / discriminating means outputs the discriminant corresponding to the discriminant species to which the second discriminant pattern to be discriminated is given to the synthesized region so that the output approaches a desired value. learn. The means for obtaining the identification characteristic of the combined area obtains the identification characteristic of the combined area, the means for obtaining the identification characteristic obtains this identification characteristic, and the identification characteristic evaluation means determines whether or not the identification characteristic satisfies a desired predetermined condition. When it is determined that the above condition is satisfied, the output means is given the output of the second pattern learning / identification means and outputs it to the outside. As a result, the minimum area required for three-dimensional identification is quantitatively obtained, and reliable identification is possible with the minimum processing amount and processing time.
【0029】[0029]
【実施例】次に、本発明の一実施例について図面を参照
して説明する。An embodiment of the present invention will be described with reference to the drawings.
【0030】図1に、本発明の第1の実施例による平面
的な識別対象を識別するシステムの構成を示す。本実施
例は、イメージセンサ等の画像データ入力装置3と、プ
ログラム制御により動作する単位領域データ処理装置1
および合成領域データ処理装置2と、情報を記憶する記
憶装置4と、ディスプレイや識別結果を次の処理に伝達
するための出力装置5とから構成される。FIG. 1 shows the configuration of a system for identifying a planar identification target according to the first embodiment of the present invention. In this embodiment, an image data input device 3 such as an image sensor and a unit area data processing device 1 that operates under program control.
And a composite area data processing device 2, a storage device 4 for storing information, and an output device 5 for transmitting a display and an identification result to the next process.
【0031】単位領域データ処理装置1は、第1のパタ
ーン学習/識別手段11と、学習後の第1のパターン学
習/識別手段11にノイズを含んだ紙幣データを与える
ノイズデータ発生手段12と、第1のパターン学習/識
別手段11の出力を用いて、そのときの単位領域の識別
特性を演算する識別特性演算手段13とを備える。The unit area data processing device 1 includes a first pattern learning / identifying means 11 and a noise data generating means 12 for giving banknote data including noise to the first pattern learning / identifying means 11 after learning. The discrimination characteristic calculating means 13 for calculating the discrimination characteristic of the unit area at that time by using the output of the first pattern learning / identifying means 11 is provided.
【0032】記憶装置4は、識別特性演算手段13の演
算した単位領域の識別特性を記憶する単位領域識別特性
記憶部41を含んでいる。The storage device 4 includes a unit area identification characteristic storage unit 41 for storing the identification characteristics of the unit area calculated by the identification characteristic calculation means 13.
【0033】第1のパターン学習/識別手段11は、例
えば図4に示すような3層のバックプロパゲーションN
Nシステムで構成してもよい。The first pattern learning / identifying means 11 has a three-layer back propagation N as shown in FIG. 4, for example.
You may comprise N system.
【0034】合成領域データ処理装置2は、単位領域識
別特性記憶部41に記憶されたデータに基づいて新たな
NN識別手段を構成する合成領域構成手段20と、合成
領域に関する第2のパターン学習/識別手段21と、第
2のパターン学習/識別手段21の出力を用いて、その
ときの合成領域の識別特性を演算する識別特性演算手段
23と、この識別特性が所要の精度を満足するか否かを
判断する識別特性評価手段24とを備える。The composite area data processing device 2 comprises a composite area composing means 20 for forming a new NN identification means based on the data stored in the unit area identification characteristic storage unit 41, and a second pattern learning / combining area for the composite area. Discrimination means 21 and discrimination characteristic calculation means 23 that computes the discrimination characteristics of the combined area at that time using the outputs of the second pattern learning / identification means 21 and whether or not the discrimination characteristics satisfy the required accuracy. And a discrimination characteristic evaluation means 24 for judging whether or not.
【0035】また、記憶装置4には第2のパターン学習
/識別手段21の演算した合成領域の識別特性および学
習の結果得られたNNのパラメータを記憶する合成領域
識別用データ記憶部42も含む。The storage device 4 also includes a synthetic area identifying data storage section 42 for storing the identification characteristics of the synthetic area calculated by the second pattern learning / identifying means 21 and the NN parameters obtained as a result of learning. .
【0036】第2のパターン学習/識別手段21は、例
えば図5に示すような3層のバックプロパゲーションN
Nシステムで構成してもよい。第1および第2のパター
ン学習/識別手段11,21は、パターン学習手段とし
てパターン学習が終了した後、そのまま識別手段として
機能する。ここで、NNの入力層にデータを与えたとき
の出力と、誤差の例を以下の表1に示す。The second pattern learning / identifying means 21 has a three-layer back propagation N as shown in FIG. 5, for example.
You may comprise N system. The first and second pattern learning / identifying means 11 and 21 function as pattern learning means as they are after the pattern learning is completed. Here, the output when data is given to the NN input layer and an example of the error are shown in Table 1 below.
【0037】[0037]
【表1】 この表1は、学習済みのNNに中古の千円表右のデータ
を与えたときの出力例を示すものである。「出力層1」
が千円表右に対応しており、この「出力層1」からの出
力が“1”に近い値となっており、他の出力層は、
“0”に近い出力となっている。NNの出力は一般的に
このように完全に“1”や“0”にはならず、ある程度
の誤差を残したものとなる。中古紙幣にしわや汚れがあ
ったり、あるいは識別システムの特性が悪いと、この誤
差が大きくなる。識別すべき3金種×4姿勢=12種の
紙幣のどの紙幣についても、安定した識別を行うことが
要求される。[Table 1] This table 1 shows an output example when the data of the used thousand yen table right is given to the learned NN. "Output layer 1"
Corresponds to the right side of the thousand yen table, the output from this "output layer 1" is a value close to "1", and the other output layers are
The output is close to "0". In general, the output of the NN is not completely "1" or "0", but some error is left. If the used bills have wrinkles or stains, or if the identification system has poor characteristics, this error will increase. Stable identification is required for any of the three types of banknotes to be identified × 4 attitudes = 12 types of banknotes.
【0038】NNからの出力結果を用いて求めるべき識
別特性の定義としてはいくつか考えられるが、ここでは
1/(誤差の総和)を用いることとする。すなわち、学
習済みのNNに12種の中古紙幣などノイズを含んだ紙
幣データを与え、その時の誤差の総和の逆数を用いる。
したがって、識別特性が大きいほど識別誤差が小さいこ
とになる。There are several possible definitions of the discrimination characteristic to be obtained by using the output result from the NN, but here, 1 / (sum of errors) is used. That is, banknote data including noise such as 12 kinds of used banknotes is given to the learned NN, and the reciprocal of the sum of the errors at that time is used.
Therefore, the larger the discrimination characteristic, the smaller the discrimination error.
【0039】次に、図1に示された第1の実施例による
識別システムを用いて図3に示された手順にて識別を行
う本発明の第2の実施例による識別方法について説明す
る。Next, an identification method according to the second embodiment of the present invention will be described in which identification is performed according to the procedure shown in FIG. 3 using the identification system according to the first embodiment shown in FIG.
【0040】まず、単位領域データ処理について説明す
る。First, the unit area data processing will be described.
【0041】画像データ入力装置3から与えられたデー
タは、紙幣の全領域または広範囲の画像データである。
いま、説明のためにこのデータが横128×縦32のデ
ータであるとし、単位領域は縦32のラインデータであ
るとする。すなわち、128個の単位領域が存在するこ
とになる。この128個の単位領域にI=1〜128の
符号を付ける。The data given from the image data input device 3 is the image data of the entire area or wide range of the bill.
For the sake of explanation, it is assumed that this data is horizontal 128 × vertical 32 data, and the unit area is vertical 32 line data. That is, there are 128 unit areas. Codes of I = 1 to 128 are attached to these 128 unit areas.
【0042】まずI=2ライン目を選択し(ステップ1
01)、NNで構成された第1のパターン学習/識別手
段11により、このラインにおけるNN学習を行う(ス
テップ102)。すなわち、3金種×4姿勢=12種類
の紙幣に関するI=2ライン目の32個の画像データを
入力層(例えば、図4におけるp1〜p32)に与え、
学習を行う。この際に使用する入力データは、基準とな
る紙幣データなので、例えば未使用の新紙幣のデータと
する。次に、学習が完了したNNにノイズデータ発生手
段12により次の3種類のノイズデータを入力層に与え
る(ステップ103)。First, I = 2nd line is selected (step 1
01), the first pattern learning / identifying means 11 composed of NNs performs NN learning on this line (step 102). That is, 32 pieces of image data of I = 2nd line regarding 3 denominations × 4 attitudes = 12 kinds of banknotes are given to the input layer (for example, p1 to p32 in FIG. 4),
Learn. Since the input data used at this time is the reference banknote data, it is, for example, data of an unused new banknote. Next, the noise data generating means 12 gives the following three types of noise data to the input layer to the NN for which learning has been completed (step 103).
【0043】I=I−1,I,I+1(=1,2,3)
ライン目の画像データこれによる識別出力誤差をe1、
e2、e3とすると、当然ながら通常はe2は小さく、
e1、e3は大きくなる。また、識別特性演算手段13
においては、例えばE=(e1+e2+e3)を計算す
るものとする(ステップ104)。I = I-1, I, I + 1 (= 1, 2, 3)
The image data of the line The discrimination output error due to this is e1,
Assuming e2 and e3, of course, e2 is usually small,
e1 and e3 become large. In addition, the identification characteristic calculation means
In, for example, E = (e1 + e2 + e3) is calculated (step 104).
【0044】I=2ライン目についての以上の処理が終
了すると、誤差Eを単位領域識別特性記憶部41に記憶
する。そして、I=3ライン目以降について同様の処理
を行い、I=127ライン目で単位領域データ処理は終
了する。When the above processing for the I = 2nd line is completed, the error E is stored in the unit area identification characteristic storage unit 41. Then, the same processing is performed for the I = third line and thereafter, and the unit area data processing is completed at the I = 127th line.
【0045】以上の処理により得られた、I=2〜12
7ラインに関する識別特性の一例を図6に示す。このグ
ラフは、横軸に2〜127のライン位置を、縦軸に各ラ
インにおける誤差の逆数1/Eをとっており、縦軸の値
1/Eが大きいほど識別特性が良いことを示す。I = 2 to 12 obtained by the above processing
FIG. 6 shows an example of the discrimination characteristic for 7 lines. In this graph, the horizontal axis represents the line positions 2 to 127, and the vertical axis represents the reciprocal 1 / E of the error in each line. The larger the value 1 / E on the vertical axis, the better the discrimination characteristic.
【0046】次に、合成領域データ処理について説明す
る。Next, the composite area data processing will be described.
【0047】合成領域構成手段20では、単位領域識別
特性記憶部41に記憶されたデータに基づき、単位領域
識別特性の優れたラインから複数個を選択し、新たなN
Nを構成する(ステップ202)。例えば、図6より特
性のよいラインL1〜L4の4本のラインを選択し、4
本分の入力層すなわち入力層数32×4=128個を有
するNNを図5に示されるように構成する。そして、第
2のパターン学習/識別手段21により学習を行い(ス
テップ203)、学習の完了したNNにノイズデータ発
生手段22からノイズを含んだデータを入力する(ステ
ップ204)。このときのノイズデータは、単位領域デ
ータ処理のように隣接するラインのデータでもよいし、
用意した中古紙幣のデータでもよい。ノイズデータを入
力されたNNの出力を用いて、識別誤差を総合した識別
特性を識別特性演算手段23により演算する(ステップ
205)。The composite area forming means 20 selects a plurality of lines from the lines having excellent unit area identification characteristics based on the data stored in the unit area identification characteristic storage unit 41, and newly selects N lines.
Configure N (step 202). For example, by selecting four lines L1 to L4 having better characteristics from FIG.
An NN having input layers corresponding to the number of input layers, that is, 32 × 4 = 128 input layers, is configured as shown in FIG. Then, the second pattern learning / identifying means 21 performs learning (step 203), and noise-containing data is input from the noise data generating means 22 to the learned NN (step 204). The noise data at this time may be data of adjacent lines as in unit area data processing,
The data of used banknotes prepared may be used. Using the output of the NN to which the noise data has been input, the discrimination characteristic computing means 23 computes the discrimination characteristic in which the discrimination errors are integrated (step 205).
【0048】この識別特性が所要の特性を満足している
か否かを、識別特性評価手段24により評価し(ステッ
プ206)、満足していれば終了し、満足していなけれ
ば単位領域の使用数を増加し(ステップ207)、さら
に大規模のNNを構成して同様の処理を行う。なお、以
上の説明では、合成領域データ処理での合成ライン数N
は、N=4から始めたが、一般的にはN=1から処理を
開始し(ステップ201)、所要の識別特性を満足した
時点で終了する。Whether or not this discriminating characteristic satisfies the required characteristic is evaluated by the discriminating characteristic evaluating means 24 (step 206). If it is satisfied, the processing is ended, and if it is not satisfied, the number of unit areas used. Is increased (step 207), a large-scale NN is configured, and the same processing is performed. In the above description, the number N of combined lines in the combined area data processing is N.
Starts from N = 4, but generally starts the process from N = 1 (step 201) and ends when the required discrimination characteristic is satisfied.
【0049】ところで、単位領域データ処理装置1にお
いて、ノイズデータ発生手段12から隣接領域を含めた
画像データ、すなわちI=I−1、I、I+1ライン目
の画像データを第1のパターン学習/識別手段11に与
えたが、その意味について説明する。By the way, in the unit area data processing device 1, the image data including the adjacent areas from the noise data generating means 12, that is, the image data of I = I-1, I, I + 1 line is subjected to the first pattern learning / identification. Given to the means 11, its meaning will be described.
【0050】I=1ライン目の画像データとI=I−
1、I+1ライン目の画像データが近似している場合
は、識別誤差の和Eは小さくなり、これらの画像データ
が異なっている場合はEは大きくなる。このことは、セ
ンサと紙幣との相対的な位置誤差に対する安定性が誤差
Eの大きさにより評価可能なことを意味し、Eが小さけ
れば、ラインIをセンシング位置とすることが隣接領域
方向への位置誤差、たとえば紙幣セット時の誤差やセン
サの組立誤差に対して強いことになる。Image data of I = 1st line and I = I-
When the image data of the 1st and I + 1th lines are close to each other, the sum E of identification errors is small, and when these image data are different, E is large. This means that the stability with respect to the relative position error between the sensor and the bill can be evaluated by the size of the error E. If E is small, it is determined that the line I is the sensing position in the direction of the adjacent area. Position error, such as a bill setting error and a sensor assembly error.
【0051】ただし、単に隣接領域間の画像データが近
似しているだけでは、識別誤差の和Eが必ずしも小さく
なるとは限らない。例えば単なる白地など何の濃度変化
もないパターンでは、隣接領域の画像データが近似して
いるとはいえるが、識別性も劣ることになり、表1に示
した出力においても、該当紙幣以外の出力層の誤差が大
きくなる。However, if the image data between the adjacent areas are simply approximated, the sum E of the identification errors does not necessarily become small. For example, in a pattern in which there is no change in density such as a simple white background, it can be said that the image data of the adjacent areas are close to each other, but the distinguishability is also poor. The layer error increases.
【0052】これらの理由から、上に述べた誤差Eが小
さいということは、センサと紙幣との位置誤差に対する
強さと、紙幣ごとの濃度変化を明確な個性として抽出す
る識別特性との両方を意味することになる。さらに、ノ
イズデータは、隣接領域のデータに限らず、識別システ
ム固有の誤差を考慮したデータであればよい。従って、
例えばセンサと紙幣との相対位置を適切な量だけ変化さ
せて得られたデータをノイズデータとしてもよい。For these reasons, the fact that the above-mentioned error E is small means both the strength against the positional error between the sensor and the bill and the discrimination characteristic for extracting the density change of each bill as a clear individual. Will be done. Furthermore, the noise data is not limited to the data in the adjacent area, and may be any data that takes into account the error unique to the identification system. Therefore,
For example, the data obtained by changing the relative position between the sensor and the bill by an appropriate amount may be used as noise data.
【0053】ここで、合成領域構成手段20により単位
領域識別特性のよいライン(L1〜L4)を選択した
が、単位領域識別特性の良否が合成後の識別特性の良否
と正の相関関係を持つことが実験的に確認されている。
例えば、図6において単位領域識別特性の悪いラインL
5〜L8の合成を行うと、識別誤差はL1〜L4による
合成の場合の2倍以上となる。Here, the lines (L1 to L4) having a good unit area identification characteristic are selected by the composition area composing means 20. The quality of the unit area identification characteristic has a positive correlation with the quality of the identification characteristic after composition. It has been confirmed experimentally.
For example, in FIG. 6, a line L having a poor unit area identification characteristic
When the combination of 5 to L8 is performed, the identification error becomes more than twice as large as that of the combination of L1 to L4.
【0054】また、合成するライン数の増加と識別特性
との関係を実験的に求めた結果を図7に示す。横軸に合
成ライン数、縦軸に1/Eを示し、実線L12は隣接ラ
インのノイズデータを与えた場合を示し、破線L11は
実際の紙幣識別の場合を示す。図のように、合成ライン
数の増加とともに識別特性が向上することがわかる。但
し、ここで例示した紙幣識別システムにおいては、合成
ライン数が4以上になると、識別特性が飽和状態にな
る。よって、処理時間を必要最小限にするには、合成ラ
イン数を4とするのが適当と考えられる。FIG. 7 shows the experimentally obtained result of the relationship between the increase in the number of lines to be synthesized and the discrimination characteristic. The horizontal axis indicates the number of combined lines, the vertical axis indicates 1 / E, the solid line L12 indicates the case where noise data of adjacent lines is given, and the broken line L11 indicates the case of actual banknote identification. As shown in the figure, it can be seen that the identification characteristic improves as the number of combined lines increases. However, in the bill identifying system illustrated here, when the number of combined lines is 4 or more, the identifying characteristic is saturated. Therefore, in order to minimize the processing time, it is considered appropriate to set the number of combined lines to four.
【0055】以上により識別システムのパラメータが決
定し、一般紙幣の識別を行うことになるが、パラメータ
決定後の紙幣識別システムとしては、図2に示すように
識別に必要な最小限の要素のみで構成する。すなわち、
必要なセンシング位置数ケ所に配置されたライン状のイ
メージセンサを有する画像データ入力装置3と、最終的
な第2のパターン識別手段21および合成領域識別用デ
ータ記憶部42を有するデータ処理装置51と、これに
表示あるいは識別後の処理へのデータ転送を行う出力装
置5とより構成される。この新たな構成は紙幣識別のよ
うに、新デザイン紙幣発行時以外は識別対象の種類が変
わらないような場合に有効である。As described above, the parameters of the identification system are decided and the ordinary bills are discriminated. However, as shown in FIG. 2, the bill discriminating system after the parameters are decided is only the minimum elements necessary for the discrimination. Constitute. That is,
An image data input device 3 having line-shaped image sensors arranged at several required sensing positions, and a data processing device 51 having a final second pattern identification means 21 and a composite area identification data storage section 42. , And an output device 5 for transferring data to a process after display or identification. This new configuration is effective in the case where the type of identification target does not change except when issuing a newly designed bill, such as bill identification.
【0056】本発明の識別システムは、紙幣識別に限ら
ず広く他の識別にも適用が可能である。たとえば、魚種
の識別システムや製造ラインにおける部品の識別システ
ムなどにも適用することができ、識別対象に関する濃度
データなどを利用して同様の識別システムを構成するこ
とが可能である。これらの場合には、識別対象の種類が
頻繁に変化するので、図2のような最小限の要素で識別
システムを構成するのでなく、図1に示された構成によ
り識別処理を行う方が対応が容易であると考えられる。
さらに、単位領域の形態は本実施例に示したライン状の
他にも円弧状、同心円状、放射線状あるいは散布状など
識別システムの目的に応じて様々の形態が考えられる。The identification system of the present invention is not limited to bill identification but can be widely applied to other identifications. For example, the invention can be applied to a fish species identification system, a component identification system in a manufacturing line, and the like, and a similar identification system can be configured by using concentration data regarding an identification target. In these cases, since the type of the identification target changes frequently, it is more appropriate to perform the identification processing with the configuration shown in FIG. 1 rather than configuring the identification system with the minimum elements as shown in FIG. Is considered to be easy.
Further, in addition to the line shape shown in the present embodiment, various shapes of the unit area are possible, such as an arc shape, a concentric shape, a radial shape, or a scatter shape, depending on the purpose of the identification system.
【0057】次に、本発明の第3の実施例による立体識
別システムについて図面を参照して説明する。まず、同
システムが有する立体特徴量獲得手段について説明す
る。Next, a stereo identification system according to a third embodiment of the present invention will be described with reference to the drawings. First, the stereoscopic feature amount acquiring means included in the system will be described.
【0058】図8に、この立体特徴量獲得手段の構成を
示す。FIG. 8 shows the configuration of the stereoscopic feature amount acquisition means.
【0059】本実施例における立体特徴量獲得手段は、
CCDカメラ等の画像撮影装置61と、4個の照明装置
65a〜65dとより構成されている。画像撮影装置6
1は、被識別立体64のほぼ中央部(重心)を画像中心
として撮影可能なように配置されている。また、照明装
置65a〜65dは、画像撮影装置61を中心とした円
周上に等間隔すなわち90度感覚で配置され、被識別立
体64を照射する。また、照明装置65a〜65dは1
個づつまたは同時に点灯が可能である。また、画像撮影
装置61により獲得した画像データは、画像データ記憶
装置手段62により記憶され、立体特徴量構成手段63
により、識別処理に的した形に構成される。The three-dimensional feature amount acquisition means in this embodiment is
It is composed of an image capturing device 61 such as a CCD camera and four illumination devices 65a to 65d. Image capturing device 6
No. 1 is arranged so that it can be photographed with the substantially central portion (center of gravity) of the identified solid 64 as the image center. Further, the illumination devices 65a to 65d are arranged at equal intervals, that is, at a 90-degree sense on the circumference of the image capturing device 61, and illuminate the identified solid 64. Further, the number of lighting devices 65a to 65d is 1.
It can be lit individually or simultaneously. Further, the image data acquired by the image capturing device 61 is stored by the image data storage device means 62, and the stereoscopic feature amount forming means 63 is stored.
By this, a configuration suitable for the identification process is formed.
【0060】次に立体特徴量獲得手段による被識別立体
64の立体特徴量獲得方法について説明する。Next, a method for acquiring the stereoscopic feature amount of the identified solid 64 by the stereoscopic feature amount acquisition means will be described.
【0061】いま、図9に示す6種類の立体識別を例と
する。この6種類の立体は、平面形状すなわち上方から
とらえた外形形状が正方形であって、外形形状のみから
は立体の種類を同定することができず、また立体の方向
も特定できない。一般に立体識別と言っても、外形形状
から1種に同定が可能であれば、特に立体特徴量を求め
る必要はなく、従来の画像二値化などの技術によって識
別が可能である。外形形状以外の特徴量が必要であっ
て、特徴量を求めて同定することが立体識別システムの
課題である。Now, six types of three-dimensional identification shown in FIG. 9 will be taken as an example. The six types of solids have a square planar shape, that is, an outer shape captured from above, and the type of the solid cannot be identified only from the outer shape, and the direction of the solid cannot be specified. Generally speaking, even if it is called stereoscopic identification, if it is possible to identify one type from the external shape, it is not particularly necessary to obtain the stereoscopic feature amount, and the identification can be performed by a conventional technique such as image binarization. A feature amount other than the outer shape is required, and the problem of the stereoscopic identification system is to obtain and identify the feature amount.
【0062】そして、図9の6種の立体識別では、立体
の同定と伴に方向の特定も必要である。したがって、本
例では6種×4方向=24の識別種の中から1種を同定
することになる。Then, in the six types of three-dimensional identification shown in FIG. 9, it is necessary to identify the direction as well as the three-dimensional identification. Therefore, in this example, one kind is identified from among the 6 kinds × 4 directions = 24 identification kinds.
【0063】図9の6種の立体の中から、たとえば図9
(c)に示す立体の特徴量獲得を行う方法について説明
する。From the six types of solids shown in FIG. 9, for example, FIG.
A method of acquiring the stereoscopic feature amount shown in (c) will be described.
【0064】まず、照明65aが点灯すると、画像撮影
装置6には図10(a)のような陰影画像が得られる。
同様に照明65b、65c、65dが点灯すると、それ
ぞれ図10(b)、(c)、(d)のような陰影画像が
得られる。なお、立体の外側にも陰影が発生するが、こ
の例では考慮しないものとする。First, when the illumination 65a is turned on, a shadow image as shown in FIG. 10A is obtained on the image capturing device 6.
Similarly, when the illuminations 65b, 65c, and 65d are turned on, shaded images as shown in FIGS. 10B, 10C, and 10D are obtained, respectively. It should be noted that although shadows also occur outside the solid, this is not taken into consideration in this example.
【0065】画像データは、各画素における濃度データ
であるので、得られた陰影画像は正方形内における濃度
分布の形となる。Since the image data is the density data in each pixel, the obtained shadow image has the shape of the density distribution in the square.
【0066】また、ここでは図9(c)に示す立体の陰
影画像(a)、(b)、(c)、(d)を求めたが、こ
の画像の組を図9(c)−(a)、(b)、(c)、
(d)と表記することとする。Further, here, the three-dimensional shaded images (a), (b), (c) and (d) shown in FIG. 9 (c) were obtained, and a set of these images is shown in FIG. 9 (c)-( a), (b), (c),
It will be referred to as (d).
【0067】しかし、ここに示した立体は平面外形が正
方形であるので、その方向も4方向のうちどの方向かを
指定する。平面的な置き方を90度間隔で変えたときの
陰影画像の組として図9(c)−(b)、(c)、
(d)、(a)、図9(c)−(c)、(d)、
(a)、(b)、図9(c)−(d)、(a)、
(b)、(c)が得られる。However, since the three-dimensional shape shown here has a square outer shape, the direction is also designated as one of the four directions. 9 (c)-(b), (c) as a set of shadow images when the planar placement is changed at 90 degree intervals,
(D), (a), FIG. 9 (c)-(c), (d),
(A), (b), FIG. 9 (c)-(d), (a),
(B) and (c) are obtained.
【0068】これらを6種の立体すべてについて行う
と、全部で24組の陰影画像データが得られる。When these operations are performed for all six types of solids, a total of 24 sets of shadow image data can be obtained.
【0069】次に、立体特徴量構成手段Dにより、各組
の4個の陰影画像データをまとめる。例えば図4−
(a)に示すように、図9(c)−(a)、(b)、
(c)、(d)の画像データを縦に合成して、これを1
個の画像データとする。すなわち図9(c)の立体の方
向(a)、(b)、(c)、(d)には、図11に示す
画像データが対応する関係にある。全部で24組の各々
について同様の処理を行うので、24枚の画像データが
得られることになる。Then, the three-dimensional feature amount constructing means D collects the four pieces of shadow image data of each set. For example, Fig. 4-
As shown in (a), FIG. 9 (c)-(a), (b),
The image data of (c) and (d) are vertically combined, and this is 1
Each image data. That is, the image data shown in FIG. 11 has a corresponding relationship with the three-dimensional directions (a), (b), (c), and (d) of FIG. 9C. Since the same processing is performed for each of the 24 sets in total, 24 pieces of image data can be obtained.
【0070】立体識別処理としては、以上の手順により
24枚の画像データを獲得し、被識別立体について得た
画像濃度データを、24枚の画像データのうちの1種に
同定する処理となる。The stereoscopic identification process is a process of acquiring 24 pieces of image data by the above procedure and identifying the image density data obtained for the identified solid as one of the 24 pieces of image data.
【0071】なお、ここで示した立体特徴量獲得に要す
る時間は、1個の被識別立体当り照明装置を4回点灯
し、画像撮影装置で4画面分の撮影を行い、画像データ
をメモリに格納し、合成するだけの時間で済むので、き
わめて短時間でよい。It should be noted that the time required for acquiring the stereoscopic feature amount shown here is such that one illuminating device per identified stereoscopic object is turned on four times, four screens are photographed by the image photographing device, and the image data is stored in the memory. It takes a very short time because it only needs to store and synthesize.
【0072】以上のようにして立体特徴量を獲得するこ
とができる。The three-dimensional feature amount can be obtained as described above.
【0073】次に、獲得した立体特徴量を用いる本実施
例による立体識別システムについて説明する。図12に
同識別システムの構成を示す。Next, the stereoscopic identification system according to this embodiment using the acquired stereoscopic feature amount will be described. FIG. 12 shows the configuration of the identification system.
【0074】上述した第1、第2の実施例では、紙幣識
別を例として平面上の濃度分布などの特徴量分布を用い
たが、本実施例においては立体識別を画像の濃度データ
の識別問題に変換しているので、全く同様の識別方法が
適用可能である。In the first and second embodiments described above, the feature amount distribution such as the density distribution on the plane is used as an example of bill identification, but in the present embodiment, the stereo identification is used to identify the density data of the image. Since it is converted into, the completely same identification method can be applied.
【0075】すなわち、例えば図11(a)に示された
ような画像データについて、これをライン状の複数の単
位領域に分割し、各ライン状領域の濃度変化パターンを
得る。図11(b)に図11(a)における矢印Aの位
置のライン状領域の濃度変化パターンを示す。これらの
パターンを用いて、第1のパターン学習/識別手段によ
り単位領域全ての識別パターンの学習を行い、以下第
1、第2の実施例において説明したものと同様の処理を
行う。That is, for example, with respect to the image data as shown in FIG. 11A, this is divided into a plurality of linear unit areas, and a density change pattern of each linear area is obtained. FIG. 11B shows the density change pattern of the linear region at the position of arrow A in FIG. Using these patterns, the first pattern learning / identifying means learns the identification patterns of all the unit areas, and the same processing as that described in the first and second embodiments is performed.
【0076】次に本発明の第4の実施例による立体識別
システムにおける立体特徴量獲得手段について説明す
る。この手段は、立体の適切領域との距離パターンを一
定方向から計測し、計測された距離パターンを立体特徴
量とする点に特徴がある。Next, a stereoscopic feature amount acquisition means in the stereoscopic identification system according to the fourth embodiment of the present invention will be described. This means is characterized in that the distance pattern to the appropriate area of the solid is measured from a fixed direction, and the measured distance pattern is used as the solid feature amount.
【0077】システムの構成としては、上述した図8に
示された構成においてCCDカメラ等から成る画像撮影
装置61の代わりにレーザ距離計を用いたものに相当す
る。この第4の実施例における立体特徴量獲得手段は、
レーザ距離計などの距離計測手段と、距離データ記憶手
段と、立体特徴量構成手段を備えている。距離計測手段
が被識別立体64のほぼ中央部を中心としてスキャンニ
ングすることにより、一定領域における被識別立体64
の凹凸情報を獲得することができる。The system configuration corresponds to the configuration shown in FIG. 8 in which a laser rangefinder is used instead of the image pickup device 61 including a CCD camera and the like. The three-dimensional feature amount acquisition means in the fourth embodiment is
A distance measuring unit such as a laser range finder, a distance data storage unit, and a stereoscopic feature amount forming unit are provided. The distance measuring means scans about the central portion of the identified solid 64, so that the identified solid 64 in a certain area is scanned.
It is possible to acquire the unevenness information of.
【0078】ところで、ここで獲得した凹凸情報は、デ
ータ形式は画像データ形式と全く同一である。すなわ
ち、画像データは画素またはピクセルと呼ばれる碁盤目
状に区分された座標系における濃度データの集合であ
り、凹凸データも一般的に碁盤目状の有限個に区分した
座標系における距離データの集合である。もちろん、碁
盤目状でなく他の区分形体でもよいが、二次元に細かく
区分された位置における濃度あるいは距離データ集合と
いう意味において、同一データ形式と考えることができ
る。By the way, the data format of the unevenness information acquired here is exactly the same as the image data format. That is, image data is a set of density data in a grid-shaped coordinate system called pixels or pixels, and uneven data is also a set of distance data in a grid-shaped finite number of coordinate systems. is there. Of course, it may be not a grid pattern but another segmented form, but it can be considered as the same data format in the sense of a concentration or distance data set at positions that are finely segmented in two dimensions.
【0079】したがって、距離計測手段により獲得した
距離データを立体特徴量として用いることで、上述の第
3の実施例と同一の手順で立体識別を行うことができ
る。Therefore, by using the distance data acquired by the distance measuring means as the stereoscopic feature amount, the stereoscopic identification can be performed in the same procedure as that of the third embodiment.
【0080】以上のように、第3、第4の実施例による
立体識別システムでは、濃度や距離データ等の立体特徴
量を獲得することで、識別に必要な最少限の注目領域を
定量的に求めることができ、最少の処理量・処理時間で
確実な識別を行うことが可能である。立体特徴量として
は、他にもさまざまな形態や方法、あるいは前処理とし
てのデータ変換等が考えられる。As described above, in the stereoscopic identification systems according to the third and fourth embodiments, the stereoscopic feature quantities such as density and distance data are acquired to quantitatively determine the minimum attention area required for identification. It can be obtained, and reliable identification can be performed with the minimum processing amount and processing time. As the three-dimensional feature amount, various forms and methods, or data conversion as preprocessing can be considered.
【0081】ところで、上述のシステムによって図9に
示した6種形状×4方向=24種の識別実験を行った
が、形状が急激に変化する箇所を含む単位領域では識別
特性が悪く、形状変化が比較的なだらかで、かつ形状相
違が明確な単位領域が識別特性がよいという結果が得ら
れた。By the way, an identification experiment of 6 types of shapes × 4 directions = 24 types shown in FIG. 9 was carried out by the above-mentioned system. The result shows that the unit area, which is comparatively gentle and has a distinct shape difference, has good discrimination characteristics.
【0082】[0082]
【発明の効果】以上説明したように本発明の識別システ
ムおよびその方法によれば、識別対象データの単位領域
の中から最も識別特性のよい領域を定量的に選定するこ
とができるので、最小のデータ処理時間で高い精度での
識別が可能となる。As described above, according to the identification system and the method of the present invention, it is possible to quantitatively select the area having the best identification characteristic from the unit areas of the identification target data, and therefore the minimum It is possible to identify with high accuracy in the data processing time.
【0083】また、本発明の立体識別システムおよびそ
の方法によれば、立体特徴量獲得手段により例えば濃
度、距離データといった立体特徴量を獲得することで、
識別に必要な最少限の領域を定量的に求めることがで
き、最少の処理量及び処理時間で確実に識別することが
可能である。According to the three-dimensional identification system and method of the present invention, the three-dimensional characteristic amount acquisition means acquires the three-dimensional characteristic amount such as density and distance data.
It is possible to quantitatively determine the minimum area required for identification, and it is possible to reliably identify with the minimum processing amount and processing time.
【図1】本発明の第1の実施例による識別システムの構
成を示したブロック図。FIG. 1 is a block diagram showing a configuration of an identification system according to a first exemplary embodiment of the present invention.
【図2】同識別システムにおいてパラメータ決定後の構
成を示したブロック図。FIG. 2 is a block diagram showing a configuration after parameters are determined in the identification system.
【図3】本発明の第2の実施例による識別方法の手順を
示したフローチャート。FIG. 3 is a flowchart showing a procedure of an identification method according to a second embodiment of the present invention.
【図4】本発明の第1の実施例による識別システムにお
ける第1の識別パターン学習/識別手段の具体例として
示したニューラルネットワークシステムの構成を示した
ブロック図。FIG. 4 is a block diagram showing a configuration of a neural network system shown as a specific example of a first identification pattern learning / identifying means in the identification system according to the first exemplary embodiment of the present invention.
【図5】同識別システムにおける第2の識別パターン学
習/識別手段の具体例として示したニューラルネットワ
ークシステムの構成を示したブロック図。FIG. 5 is a block diagram showing a configuration of a neural network system shown as a specific example of a second identification pattern learning / identifying means in the same identification system.
【図6】同識別システムを用いて紙幣を識別した場合に
おけるライン位置に対する識別特性の一例を示した説明
図。FIG. 6 is an explanatory diagram showing an example of identification characteristics with respect to a line position when a banknote is identified using the identification system.
【図7】同識別システムを用いて紙幣を識別した場合に
おけるライン数に対する識別特性の一例を示した説明
図。FIG. 7 is an explanatory diagram showing an example of identification characteristics with respect to the number of lines when a bill is identified using the identification system.
【図8】本発明の第3の実施例による立体識別システム
における立体特徴量獲得手段の構成を示した斜視図。FIG. 8 is a perspective view showing a configuration of a stereoscopic feature amount acquisition means in a stereoscopic identification system according to a third embodiment of the present invention.
【図9】同システムを用いて識別することが可能な6種
類の立体を示した斜視図。FIG. 9 is a perspective view showing six types of solids that can be identified using the system.
【図10】図9(c)に示された立体に照明が当てられ
て形成される陰影画像を示した説明図。FIG. 10 is an explanatory diagram showing a shadow image formed by illuminating the solid body shown in FIG. 9C.
【図11】図10に示された陰影画像を縦に合成したも
のと、矢印Aで示されたライン上の濃度変化を示した説
明図。FIG. 11 is an explanatory diagram showing a combination of the shadow images shown in FIG. 10 in the vertical direction and a change in density on the line indicated by arrow A.
【図12】本発明の第3の実施例による立体識別システ
ムの構成を示したブロック図。FIG. 12 is a block diagram showing a configuration of a stereoscopic identification system according to a third embodiment of the present invention.
【図13】本発明の一実施例による識別システムを用い
て識別することが可能な紙幣に設定された識別ラインの
例と識別ライン上の濃度変化を示した説明図。FIG. 13 is an explanatory diagram showing an example of an identification line set on a bill that can be identified by using the identification system according to the embodiment of the present invention, and a density change on the identification line.
1 単位領域データ処理装置 2 合成領域データ処理装置 3 画像データ入力装置 4 記憶装置 5 出力装置 11 第1のパターン学習/識別手段 12 ノイズデータ発生手段 13 識別特性演算手段 20 合成領域構成手段 21 第2のパターン学習/識別手段 22 ノイズデータ発生手段 23 識別特性演算手段 24 識別特性評価手段 41 単位領域識別特性記憶部 42 合成領域識別用データ記憶部 51 データ処理装置 61 画像撮影装置 62 画像データ記憶手段 63 立体特徴量構成手段 64 被識別立体 65a〜65d 照明 71 立体特徴量獲得手段 DESCRIPTION OF SYMBOLS 1 unit area | region data processing apparatus 2 synthetic | combination area | region data processing apparatus 3 image data input apparatus 4 memory | storage device 5 output apparatus 11 1st pattern learning / discrimination means 12 noise data generation means 13 discrimination | determination characteristic calculation means 20 synthetic | combination area | region composition means 21 2nd Pattern learning / identification means 22 noise data generation means 23 identification characteristic calculation means 24 identification characteristic evaluation means 41 unit area identification characteristic storage section 42 synthetic area identification data storage section 51 data processing apparatus 61 image photographing apparatus 62 image data storage section 63 Stereoscopic feature amount configuration means 64 Identification solids 65a to 65d Illumination 71 Stereoscopic feature amount acquisition means
Claims (8)
定する識別システムにおいて、 複数の単位領域に区分された識別対象の第1の識別パタ
ーンを与えられて対応する識別種に同定する出力を行
い、この出力が所望の値に近付くように学習する第1の
パターン学習/識別手段と、 学習後の前記第1のパターン学習/識別手段に、前記第
1の識別パターンにノイズを含ませた第1のノイズデー
タを与える第1のノイズデータ発生手段と、 前記第1のノイズデータを与えられた前記第1のパター
ン学習/識別手段の出力から、単位領域ごとに第1の識
別特性を求める第1の識別特性演算手段と、 単位領域毎の前記第1の識別特性を記憶する単位領域識
別特性記憶手段と、 前記単位領域識別特性記憶手段に記憶された前記第1の
識別特性のなかから、識別特性の優れた1つ以上の単位
領域を選定し、この選定された単位領域の識別特性を合
成する合成領域構成手段と、 前記合成領域構成手段により合成された合成領域に識別
対象の第2の識別パターンを与えられて対応する識別種
に同定する出力を行い、この出力が所望の値に近付くよ
うに学習する第2のパターン学習/識別手段と、 学習後の前記第2のパターン学習/識別手段に、前記第
2の識別パターンにノイズを含ませた第2のノイズデー
タを与える第2のノイズデータ発生手段と、 前記第2のノイズデータを与えられた前記第2のパター
ン学習/識別手段の出力から、合成単位領域ごとの第2
の識別特性を求める第2の識別特性演算手段と、 前記第2の識別特性演算手段が求めた前記第2の識別特
性が所望の条件を満たしているか否かを判定する識別特
性評価手段と、 前記識別特性評価手段が、前記第2の識別特性は所望の
条件を満たしていると判断した時点において、前記合成
領域構成手段が選定し合成した合成単位領域に関する前
記第2のパターン学習/識別手段の出力を与えられて外
部へ出力する出力手段と、 を備えたことを特徴とする識別システム。1. An identification system for identifying an identification target as one of a plurality of identification species, wherein a first identification pattern of the identification target divided into a plurality of unit areas is given and identified to a corresponding identification species. And a first pattern learning / identifying means for learning such that the output approaches a desired value, and the first pattern learning / identifying means after learning is provided with noise in the first identification pattern. From the output of the first noise data generation means for giving the included first noise data and the output of the first pattern learning / identification means given the first noise data, the first identification is made for each unit area. First identification characteristic calculation means for obtaining characteristics, unit area identification characteristic storage means for storing the first identification characteristics for each unit area, and the first identification characteristic stored in the unit area identification characteristic storage means No From the above, one or more unit areas having excellent identification characteristics are selected, and the combination area forming means for combining the identification characteristics of the selected unit areas, and the combination area combined by the combination area forming means Second pattern learning / discriminating means for performing an output for identifying a corresponding discriminative species given a second discriminating pattern, and learning so that this output approaches a desired value; and the second pattern after learning. Second noise data generation means for giving learning / identification means second noise data in which noise is included in the second identification pattern, and second pattern learning given the second noise data / From the output of the identification means, the second for each synthesis unit area
Second discrimination characteristic calculating means for obtaining the discrimination characteristic of, and discrimination characteristic evaluating means for judging whether or not the second discrimination characteristic obtained by the second discrimination characteristic calculating means satisfies a desired condition, The second pattern learning / identification means relating to the composition unit area selected and composed by the composition area composition means at the time point when the identification characteristic evaluation means determines that the second identification characteristic satisfies a desired condition. And an output means for outputting the output of the output to the outside, and an identification system.
領域毎の識別パターンを学習するときの単位領域に隣接
する単位領域の特性データの少なくとも一部を含んだも
のを前記第1のノイズデータとして発生することを特徴
とする請求項1記載の識別システム。2. The first noise data generating means includes one including at least a part of characteristic data of a unit area adjacent to a unit area when learning an identification pattern for each unit area. The identification system according to claim 1, wherein the identification system is generated as data.
領域毎の識別パターンを学習するときの単位領域近傍の
特性データの少なくとも一部を含んだものを前記第1の
ノイズデータとして発生することを特徴とする請求項1
記載の識別システム。3. The first noise data generating means generates, as the first noise data, data including at least a part of characteristic data in the vicinity of a unit area when learning an identification pattern for each unit area. Claim 1 characterized by the above.
Identification system described.
定する識別方法において、 複数の単位領域に区分された識別対象の第1の識別パタ
ーンを第1のパターン学習/識別手段に与えて対応する
識別種に同定する出力を行わせ、この出力が所望の値に
近付くように学習させるステップと、 学習後の前記第1のパターン学習/識別手段に、前記第
1の識別パターンにノイズを含ませた第1のノイズデー
タを与えるステップと、 前記第1のノイズデータを与えられた前記第1のパター
ン学習/識別手段の出力から、単位領域ごとに第1の識
別特性を求めるステップと、 求められた単位領域毎の前記第1の識別特性のなかか
ら、識別特性の優れた少なくとも2つの単位領域を選定
し、この選定された単位領域の識別特性を合成するステ
ップと、 合成された合成単位領域ごとに識別対象の第2の識別パ
ターンを第1のパターン学習/識別手段に与えて対応す
る識別種に同定する出力を行わせ、この出力が所望の値
に近付くように学習させるステップと、 学習後の前記第2のパターン学習/識別手段に、前記第
2の識別パターンにノイズを含ませた第2のノイズデー
タを与えるステップと、 前記第2のノイズデータを与えられた前記第2のパター
ン学習/識別手段の出力から、合成単位領域ごとの第2
の識別特性を求めるステップと、 求められた前記第2の識別特性が所望の条件を満たして
いるか否かを判定するステップと、 前記第2の識別特性は所望の条件を満たしていると判定
した時点における合成単位領域に関する前記第2のパタ
ーン学習/識別手段の出力を外部へ出力するステップ
と、 を備えたことを特徴とする識別方法。4. An identification method for identifying an identification target as one of a plurality of identification species, wherein the first identification pattern of the identification target divided into a plurality of unit areas is used as first pattern learning / identification means. A step of giving an output to identify the corresponding discriminant species, and learning so that this output approaches a desired value; and Providing first noise data containing noise, and obtaining a first identification characteristic for each unit area from the output of the first pattern learning / identifying means provided with the first noise data. A step of selecting at least two unit areas having excellent identification characteristics from the first identification characteristics obtained for each unit area and synthesizing the identification characteristics of the selected unit areas; The second discrimination pattern to be discriminated is given to the first pattern learning / discrimination means for each of the synthesized unit areas thus generated, and the output for discriminating the corresponding discriminant species is performed, so that this output approaches the desired value. A step of learning; a step of giving the second pattern learning / identifying means after learning second noise data in which the second identification pattern includes noise; and a step of giving the second noise data. From the output of the second pattern learning / identifying means, the second
Determining the discriminating characteristic, determining whether the obtained second discriminating characteristic satisfies a desired condition, and determining that the second discriminating characteristic satisfies the desired condition. A step of outputting the output of the second pattern learning / identification means regarding the composition unit area at the time point to the outside.
識別パターンを学習するときの単位領域に隣接する単位
領域の特性データの少なくとも一部を含んでいることを
特徴とする請求項4記載の識別方法。5. The first noise data includes at least a part of characteristic data of a unit area adjacent to the unit area when learning an identification pattern for each unit area. Identification method described.
識別パターンを学習するときの単位領域近傍の特性デー
タの少なくとも一部を含んでいることを特徴とする請求
項4記載の識別方法。6. The identification method according to claim 4, wherein the first noise data includes at least a part of characteristic data in the vicinity of a unit area when learning an identification pattern for each unit area. .
る立体識別システムにおいて、 立体を所定方向から撮影する画像撮影装置と、 前記画像撮影装置を中心とした円周上に1個または複数
配置された照明手段と、 前記照明手段を立体に対して所定方向に配置制御する手
段と、 前記照明手段を同時または1個づつ点灯する手段と、 前記画像撮影装置により得た画像データを記憶する画像
データ記憶手段と、 前記画像データから所要の立体特徴量を生成する立体特
徴量構成手段と、 を有する立体特徴量獲得手段と、 前記立体特徴量獲得手段により獲得した立体特徴量を単
位領域に分割し、単位領域の識別パターンを与えられ
て、対応する識別種に同定する出力を行い、この出力が
所望の値に近づくように学習する第1のパターン学習/
識別手段と、 単位領域毎の識別特性を求める手段と、 前記単位領域のうち、識別特性の良好な複数の単位領域
を選択して合成する合成領域構成手段と、 前記合成領域構成手段により合成された合成領域に識別
対象の第2の識別パターンを与えられて、対応する識別
種に同定する出力を行い、この出力が所望の値に近づく
ように学習する第2のパターン学習/識別手段と、 合成領域の識別特性を求める手段と、 求められたこの合成領域の識別特性が、所定の条件を満
たしているか否かを判定する識別特性評価手段と、 前記識別特性評価手段が所定の条件を満たしていると判
定した時点において、前記合成領域構成手段が選定し合
成した合成単位領域に関する前記第2のパターン学習/
識別手段の出力を与えられて外部へ出力する出力手段
と、 を備えたことを特徴とする立体識別システム。7. A stereoscopic identification system for identifying a solid as one of a plurality of identification species, an image capturing device for capturing a solid from a predetermined direction, and one image capturing device on the circumference of the image capturing device. Alternatively, a plurality of illuminating means, a means for arranging and controlling the illuminating means in a predetermined direction with respect to a solid body, a means for lighting the illuminating means simultaneously or one by one, and image data obtained by the image capturing device Image data storage means for storing, and three-dimensional feature amount constructing means for generating a required three-dimensional feature amount from the image data, and three-dimensional feature amount obtained by the three-dimensional feature amount acquiring means as a unit The first pattern learning / learning is performed by dividing into regions and given an identification pattern of a unit region, and performing an output for identifying to a corresponding identification species, and learning so that this output approaches a desired value.
Identification means, means for obtaining identification characteristics for each unit area, combination area composition means for selecting and combining a plurality of unit areas having good identification characteristics from the unit areas, and composition area composition means for composition. A second pattern learning / identifying means that is provided with a second identification pattern to be identified in the combined area, performs an output for identifying a corresponding identification species, and learns so that this output approaches a desired value; A means for obtaining a discrimination characteristic of the composite area, a discrimination characteristic evaluation means for judging whether or not the obtained discrimination characteristic of the composite area satisfies a predetermined condition, and the discrimination characteristic evaluation means satisfies a predetermined condition. When it is determined that the combination unit area is selected, the second pattern learning / related to the combination unit area selected and combined by the combination area forming unit is performed.
A stereoscopic identification system, comprising: an output unit that receives the output of the identification unit and outputs the output to the outside.
る立体識別システムにおいて、 所定方向から立体の任意に領域を走査し、この領域まで
の距離を検出することで得られた距離パターンを立体特
徴量とする立体特徴量獲得手段と、 前記立体特徴量獲得手段により獲得した立体特徴量を単
位領域に分割し、単位領域の識別パターンを与えられ
て、対応する識別種に同定する出力を行い、この出力が
所望の値に近づくように学習する第1のパターン学習/
識別手段と、 単位領域毎の識別特性を求める手段と、 前記単位領域のうち、識別特性の良好な複数の単位領域
を選択して合成する合成領域構成手段と、 前記合成領域構成手段により合成された合成領域に識別
対象の第2の識別パターンを与えられて、対応する識別
種に同定する出力を行い、この出力が所望の値に近づく
ように学習する第2のパターン学習/識別手段と、 合成領域の識別特性を求める手段と、 求められたこの合成領域の識別特性が、所定の条件を満
たしているか否かを判定する識別特性評価手段と、 前記識別特性評価手段が所定の条件を満たしていると判
定した時点において、前記合成領域構成手段が選定し合
成した合成単位領域に関する前記第2のパターン学習/
識別手段の出力を与えられて外部へ出力する出力手段
と、 を備えたことを特徴とする立体識別システム。8. A stereo identification system for identifying a solid as one of a plurality of identification species, the distance obtained by scanning an arbitrary area of the solid from a predetermined direction and detecting the distance to this area. A stereoscopic feature amount acquisition unit that uses a pattern as a stereoscopic feature amount, and a stereoscopic feature amount acquired by the stereoscopic feature amount acquisition unit is divided into unit areas, and an identification pattern of the unit area is given to identify the corresponding identification species Output the first pattern learning / learning so that the output approaches the desired value
Identification means, means for obtaining identification characteristics for each unit area, combination area composition means for selecting and combining a plurality of unit areas having good identification characteristics from the unit areas, and composition area composition means for composition. A second pattern learning / identifying means that is provided with a second identification pattern to be identified in the combined area, performs an output for identifying a corresponding identification species, and learns so that this output approaches a desired value; A means for obtaining a discrimination characteristic of the composite area, a discrimination characteristic evaluation means for judging whether or not the obtained discrimination characteristic of the composite area satisfies a predetermined condition, and the discrimination characteristic evaluation means satisfies a predetermined condition. When it is determined that the combination unit area is selected, the second pattern learning / related to the combination unit area selected and combined by the combination area forming unit is performed.
A stereoscopic identification system, comprising: an output unit that receives the output of the identification unit and outputs the output to the outside.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11847493A JP3311422B2 (en) | 1993-01-19 | 1993-05-20 | Identification system and method, and three-dimensional identification system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5-6848 | 1993-01-19 | ||
JP684893 | 1993-01-19 | ||
JP11847493A JP3311422B2 (en) | 1993-01-19 | 1993-05-20 | Identification system and method, and three-dimensional identification system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06274636A true JPH06274636A (en) | 1994-09-30 |
JP3311422B2 JP3311422B2 (en) | 2002-08-05 |
Family
ID=26341050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11847493A Expired - Fee Related JP3311422B2 (en) | 1993-01-19 | 1993-05-20 | Identification system and method, and three-dimensional identification system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3311422B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019198233A1 (en) * | 2018-04-13 | 2019-10-17 | 日本電気株式会社 | Action recognition device, action recognition method, and computer-readable recording medium |
CN113554179A (en) * | 2020-04-23 | 2021-10-26 | 丰田自动车株式会社 | Information processing system |
-
1993
- 1993-05-20 JP JP11847493A patent/JP3311422B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019198233A1 (en) * | 2018-04-13 | 2019-10-17 | 日本電気株式会社 | Action recognition device, action recognition method, and computer-readable recording medium |
JPWO2019198233A1 (en) * | 2018-04-13 | 2021-03-11 | 日本電気株式会社 | Motion recognition device, motion recognition method, and program |
US11809997B2 (en) | 2018-04-13 | 2023-11-07 | Nec Corporation | Action recognition apparatus, action recognition method, and computer-readable recording medium |
CN113554179A (en) * | 2020-04-23 | 2021-10-26 | 丰田自动车株式会社 | Information processing system |
JP2021174199A (en) * | 2020-04-23 | 2021-11-01 | トヨタ自動車株式会社 | Information processing system |
CN113554179B (en) * | 2020-04-23 | 2024-02-09 | 丰田自动车株式会社 | Information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP3311422B2 (en) | 2002-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2919284B2 (en) | Object recognition method | |
US7218773B2 (en) | Pose estimation method and apparatus | |
Fechteler et al. | Adaptive colour classification for structured light systems | |
US5432712A (en) | Machine vision stereo matching | |
US6463176B1 (en) | Image recognition/reproduction method and apparatus | |
US7013040B2 (en) | 3D image acquisition apparatus and 3D image acquisition method | |
JP3813343B2 (en) | 3D modeling equipment | |
CN103959307B (en) | The method of detection and Expressive Features from gray level image | |
EP1814083A1 (en) | Photometric measurements using at least three light sources | |
KR101218613B1 (en) | Image processing apparatus and verification system | |
US20050133339A1 (en) | Device, method and program for paper discrimination | |
JP2003244521A (en) | Information processing method and apparatus, and recording medium | |
US20240013437A1 (en) | Method for providing calibration data for calibrating a camera, method for calibrating a camera, method for producing at least one predefined point-symmetric region, and device | |
JPH06274736A (en) | Coin recognition device | |
CN105261061B (en) | A kind of method and device of identification redundant data | |
CN110929782B (en) | River channel abnormity detection method based on orthophoto map comparison | |
JP3608106B2 (en) | Degradation evaluation system for steel surface using image processing | |
JP2009236811A (en) | Image processing device, image processing method, and program | |
JP3311422B2 (en) | Identification system and method, and three-dimensional identification system | |
JPS63191281A (en) | Spatial pattern coding method | |
JP4018092B2 (en) | A device that automatically determines the cause of a given surface condition of an inspection object | |
CN111566438B (en) | Image acquisition method and system | |
JP4298283B2 (en) | Pattern recognition apparatus, pattern recognition method, and program | |
JPH085348A (en) | Three-dimensional shape inspection method | |
JP2961140B2 (en) | Image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |