JPH07239939A - Image recognition device - Google Patents

Image recognition device

Info

Publication number
JPH07239939A
JPH07239939A JP6034012A JP3401294A JPH07239939A JP H07239939 A JPH07239939 A JP H07239939A JP 6034012 A JP6034012 A JP 6034012A JP 3401294 A JP3401294 A JP 3401294A JP H07239939 A JPH07239939 A JP H07239939A
Authority
JP
Japan
Prior art keywords
image
image information
information
determination
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6034012A
Other languages
Japanese (ja)
Other versions
JP3470375B2 (en
Inventor
Makoto Niwakawa
誠 庭川
Masakatsu Nomura
昌克 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP03401294A priority Critical patent/JP3470375B2/en
Publication of JPH07239939A publication Critical patent/JPH07239939A/en
Application granted granted Critical
Publication of JP3470375B2 publication Critical patent/JP3470375B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To recognize an image even when the size of an image to be recognized is largely different from that of a teacher image and much noise is included while increasing the discrimination processing speed. CONSTITUTION:A characteristic part is extracted from teacher image information in the learning mode and given to a cerebellum modeled computer (CMAC), in which the characteristic part is learned, discrimination use image information is extracted in the discrimination mode and given to the CMAC, in which the image information most similar to the learned teacher information is discriminated and outputted. In the learning mode, image data 11 are given to a fast speed Fourier transformation (FFT) section 12, in which a prescribed frequency component is obtained, a filter 13 is used to extract a specific component and it is give to a CMAC unit 15, where the component is learned and an image code number is provided to the component. On the other hand, in the discrimination mode, the image data are given to a FFT section 17, from which a prescribed frequency component is obtained and given to the CMAC unit 15 via an expansion section 18 expanding the image and a discrimination section 19 makes discrimination. A code number of an image most similar among images learned in the learning mode is extracted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は小脳モデルコンピュー
タ(CMAC)による画像認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition device using a cerebellum model computer (CMAC).

【0002】[0002]

【従来の技術】近年、ニューラルネットワーク(以下N
Nと称す)を用いて画像認識を行う手段がある。このN
Nを用いた画像認識装置は学習時間が多大になることが
知られているため、通常画像の前処理として2値画像を
用いたりあるいは特に高速なCPUを用いるなどして処
理を行っている。
2. Description of the Related Art In recent years, neural networks (hereinafter referred to as N
There is a means for performing image recognition by using (N). This N
Since it is known that the image recognition apparatus using N requires a long learning time, the binary image is used as the preprocessing of the normal image, or the processing is performed by using a particularly high-speed CPU.

【0003】[0003]

【発明が解決しようとする課題】上述したNNによる画
像認識装置は既知の画像を未知として学習し始めるため
に、学習時間が極めて膨大になり、認識処理を高速に行
うことができなかった。
The image recognition apparatus based on the above-mentioned NN starts learning with a known image as unknown, so that the learning time becomes extremely large and the recognition processing cannot be performed at high speed.

【0004】この発明は上記の事情に鑑みてなされたも
ので、判定処理の高速化を図るとともに教師画像より認
識画像が大きく外れたり、雑音が多くても認識できるよ
うにした画像認識装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and provides an image recognizing device capable of recognizing even if the recognition image is greatly deviated from the teacher image or there is a lot of noise while speeding up the determination process. The purpose is to do.

【0005】[0005]

【課題を解決するための手段】この発明は上記の目的を
達成するために、第1発明は教師画像情報が入力され、
この教師画像情報を学習する学習モードと、この学習モ
ードで学習された画像情報と比較判定される判定用画像
情報が入力される判定モードを有し、前記学習モードで
は教師画像情報から画像の特徴部分を抽出して画像に任
意なコード番号を付し、このコード番号と抽出された画
像とを小脳モデルコンピュータに入力して教師画像情報
を学習させ、前記判定モードでは入力された判定用画像
情報を抽出して前記小脳モデルコンピュータに入力し、
前記学習された教師画像情報と最も似た画像情報を判定
して出力するようにしたものである。
According to the first aspect of the present invention, teacher image information is input,
The learning mode for learning the teacher image information and the determination mode for inputting the determination image information to be compared and determined with the image information learned in the learning mode are provided. Extract a part and attach an arbitrary code number to the image, input this code number and the extracted image into the cerebellum model computer to learn the teacher image information, and input the determination image information in the determination mode. And input to the cerebellum model computer,
The image information most similar to the learned teacher image information is determined and output.

【0006】第2発明は教師画像情報および判定用画像
情報を高速フーリエ変換を用いて出力に直交座標および
極座標情報を得るようにしたことを特徴とするものであ
る。
A second aspect of the present invention is characterized in that the teacher image information and the determination image information are subjected to fast Fourier transform to obtain Cartesian coordinate and polar coordinate information at the output.

【0007】第3発明は判定用画像情報から得た直交座
標情報を画像伸縮部を介して小脳モデルコンピュータに
入力したことを特徴とするものである。
A third aspect of the invention is characterized in that the orthogonal coordinate information obtained from the determination image information is input to the cerebellum model computer via the image expansion / contraction unit.

【0008】第4発明は教師画像情報の他に少しずつ回
転させた教師画像情報を抽出してコード番号とともに小
脳モデルコンピュータに入力して教師画像情報を学習さ
せるようにしたものである。
In the fourth aspect of the invention, in addition to the teacher image information, the teacher image information that is rotated little by little is extracted and input to the cerebellum model computer together with the code number so that the teacher image information is learned.

【0009】第5発明は判定モードにおいて、判定用画
像情報を画像回転部を介して小脳モデルコンピュータに
入力したことを特徴とするものである。
A fifth aspect of the invention is characterized in that in the determination mode, the determination image information is input to the cerebellum model computer via the image rotation unit.

【0010】第6発明は第4発明の判定モードに画像伸
縮部を設けたものである。
A sixth aspect of the invention provides an image expanding / contracting portion in the determination mode of the fourth aspect of the invention.

【0011】第7発明は判定用画像情報を高速フーリエ
変換してから画像回転部に入力したことを特徴とするも
のである。
A seventh aspect of the invention is characterized in that the image information for determination is subjected to fast Fourier transform and then input to the image rotating section.

【0012】第8発明は教師画像情報を高速フーリエ変
換し、変換された情報からパワースペクトルを得、この
パワースペクトルの最大となる周波数を規格化部で規格
化し、規格化した情報から画像の特徴部分を抽出したこ
とを特徴とするものである。
In the eighth invention, the teacher image information is subjected to fast Fourier transform, a power spectrum is obtained from the converted information, the maximum frequency of this power spectrum is standardized by a normalizing section, and the characteristic of the image is calculated from the standardized information. It is characterized by extracting a part.

【0013】第9発明は判定用画像情報を高速フーリエ
変換し、変換された情報からパワースペクトルを得、こ
のパワースペクトルの最大となる周波数を規格化部で規
格化して抽出したことを特徴とするものである。
A ninth aspect of the present invention is characterized in that the determination image information is subjected to fast Fourier transform, a power spectrum is obtained from the transformed information, and the maximum frequency of the power spectrum is standardized and extracted by the normalizing section. It is a thing.

【0014】[0014]

【作用】予め学習モードで教師画像情報から画像の特徴
部分を抽出する。抽出された画像にはコード番号が付さ
れて、このコード番号と抽出された画像が小脳モデルコ
ンピュータに入力されて教師画像情報が学習される。そ
して判定モードで判定する画像情報が学習された画像情
報とどのくらい似ているかが判定される。第2発明では
画像が回転していることもあるので極座標情報を得るよ
うにする。第3発明では画像を大きくしたり、小さくし
たりする。第4発明では予め教師画像情報として少しず
つ回転する画像を学習させることによって極座標情報を
用いない画像の回転状態を検出する。第5、第6発明お
よび第7発明では判定モードにおいて、画像回転部で判
定用画像情報を±90°と180°の回転を行う。第8
発明および第9発明では情報を規格化することにより、
対象のカメラからの位置がずれしても、また、照明が変
化しても認識できるようになる。
In the learning mode, the characteristic portion of the image is extracted from the teacher image information in advance. A code number is attached to the extracted image, and the code number and the extracted image are input to the cerebellum model computer to learn the teacher image information. Then, it is determined how similar the image information determined in the determination mode is to the learned image information. In the second invention, since the image may be rotated, polar coordinate information is obtained. In the third invention, the image is enlarged or reduced. In the fourth aspect of the present invention, the rotating state of the image that does not use the polar coordinate information is detected by learning the image that rotates little by little as the teacher image information in advance. In the fifth, sixth, and seventh inventions, in the determination mode, the image rotation unit rotates the determination image information by ± 90 ° and 180 °. 8th
In the invention and the ninth invention, by standardizing information,
Even if the position of the target from the camera is deviated or the illumination is changed, it can be recognized.

【0015】[0015]

【実施例】以下この発明の実施例を図面に基づいて説明
するに、まず、小脳モデルコンピュータ(以下CMAC
と称す)について述べる。CMACはCerebell
er Model Arithmetic Compu
terの略で小脳皮質内の多数のニューロンの情報処理
機構の数学モデルを定式化したものである。CMACは
次のように一連の写像関係により定義される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The embodiments of the present invention will be described below with reference to the drawings.
Will be described). CMAC is Cerebell
er Model Arithmetic Compu
Abbreviated ter, it is a formalization of a mathematical model of the information processing mechanism of many neurons in the cerebellar cortex. CMAC is defined by a series of mapping relationships as follows.

【0016】S→M→A→P ここで、Sは入力ベクトル、MはSをコード化するのに
用いられる苔状線維の集合、AはMが接続される顆粒細
胞の集合、Pは出力値である。
S → M → A → P where S is an input vector, M is a set of mossy fibers used to code S, A is a set of granule cells to which M is connected, and P is an output. It is a value.

【0017】図9はCMACの概念図を示すもので、1
は入力信号の集合を示し、この入力信号の集合1には制
御目標値やフィードバック信号が入力される。入力信号
の集合1からは荷重の選択信号が送出され、この信号は
荷重の表2の所定の位置に入力される。荷重の表2の出
力は総和計算部3で計算されて出力される。計算部3の
出力は教師信号である出力の目標値と偏差検出器4で偏
差がとられ、その偏差に応じて計算部3で荷重の調整が
なされる。なお、図9には写像関係の位置も示してあ
る。
FIG. 9 is a conceptual diagram of CMAC.
Indicates a set of input signals, and a control target value and a feedback signal are input to the set 1 of input signals. A load selection signal is transmitted from the input signal set 1, and this signal is input to a predetermined position in the load table 2. The output of Table 2 of the load is calculated and output by the total sum calculation unit 3. The output of the calculation unit 3 is deviated by the deviation detector 4 from the target value of the output which is the teacher signal, and the calculation unit 3 adjusts the load according to the deviation. Note that FIG. 9 also shows mapping-related positions.

【0018】CMACは、高次のベクトルは一般により
低次の空間への写像として表現することができるという
性質を利用したものである。言い替えば、低次のベクト
ルを複数用いることにより高次のベクトルを表現するこ
とが出来、その低次のベクトルに要求される機能は、低
レベルで良いという事である。一般に、関数は独立変数
により定義される状態の集合から、従属変数の状態の集
合への写像であると考えられ、f:C→Eと表現され
る。この表現は「fは集合Cを集合Eへ写像する関係」
と読む。図10にこの概念図を示す。図10からも分か
るように、集合Cのどの状態に対しても集合E内の一つ
の状態を関係fにより求めることができる。また、集合
C内の複数の点が集合E内の一つの点に写像されること
もある。
CMAC takes advantage of the property that higher-order vectors can be generally expressed as a mapping to a lower-order space. In other words, a high-order vector can be expressed by using a plurality of low-order vectors, and the function required for the low-order vector is good at a low level. In general, a function is considered to be a mapping from a set of states defined by independent variables to a set of states of dependent variables and is expressed as f: C → E. This expression is "f is a relation that maps set C to set E"
And read. FIG. 10 shows this conceptual diagram. As can be seen from FIG. 10, for any state of the set C, one state in the set E can be obtained by the relation f. Also, multiple points in set C may be mapped to one point in set E.

【0019】いま、入力S=(s1,s2,s3…s
n)を出力Pへ写像する関数としての作用素をhとする
と、hは次のように表現することができる。
Now, the input S = (s1, s2, s3 ... s
Let h be the operator as a function that maps n) to the output P, and h can be expressed as follows.

【0020】 P=h(S)またはP=h(s1,s2,s3…sn) これを図式化すると、図11のようになる。また出力を
ベクトルPとすると作用素または作用素hの集合として
図12のように表現される。
P = h (S) or P = h (s1, s2, s3 ... sn) This is illustrated in FIG. When the output is a vector P, it is expressed as an operator or a set of operators h as shown in FIG.

【0021】以上述べたように作用素は、入力を出力に
ある関数により写像するために、一つのニューロンやニ
ューロン群の働きも記述することができる。たとえば、
一つのニューロンの働きを記述する場合には、ニューロ
ンに対する入力をベクトル、出力をスカラーとして考え
ると、P=h(S)と記述することができる。また、ニ
ューロン群を考える場合には、入力をベクトルと考えれ
ば、P=H(S)と記述することができる。
As described above, the operator can describe the action of one neuron or a group of neurons because the input is mapped by the function at the output. For example,
When describing the function of one neuron, considering the input to the neuron as a vector and the output as a scalar, it can be described as P = h (S). When considering a neuron group, if the input is considered as a vector, it can be described as P = H (S).

【0022】上述したCMACを画像認識装置に適用し
た第1実施例を図1に示す。図1において、11は画像
データで、この画像データ11は学習モードと判定モー
ドの2つのモードから成る画像認識装置に導入し、まず
学習モードで画像を学習させる。学習モードは高速フー
リエ変換部(FFT部)12とフィルタ13で画像デー
タの前処理を行う。FFT部12とフィルタ13で前処
理された画像データはコントローラ14を構成するCM
ACユニット15に導入される。CMACユニット15
の出力と画像に付された任意のコード番号とを偏差検出
器16で検出して画像をCMACユニット15に学習さ
せる。
FIG. 1 shows a first embodiment in which the above-mentioned CMAC is applied to an image recognition apparatus. In FIG. 1, 11 is image data, and this image data 11 is introduced into an image recognition apparatus having two modes, a learning mode and a determination mode, and an image is first learned in the learning mode. In the learning mode, the fast Fourier transform unit (FFT unit) 12 and the filter 13 perform preprocessing of image data. The image data preprocessed by the FFT unit 12 and the filter 13 is a CM that constitutes the controller 14.
It is introduced into the AC unit 15. CMAC unit 15
Output and the arbitrary code number attached to the image are detected by the deviation detector 16 and the image is learned by the CMAC unit 15.

【0023】次に判定モードで判定する画像が学習した
画像とどのくらい似ているかを判断する。判定モードは
FFT部17と伸縮部18からなる前処理で処理した
後、CMACユニット15に導入する。図1において学
習モードと判定モードでCMACユニットを別々に描い
てあるが、説明の便宜上別々にしたもので、実際には同
じCMACユニットを示している。CMACユニット1
5で学習させた画像と判定する画像がどのくらい似てい
るかを処理し、その処理結果を判定部19で判定して最
も似た画像のコード番号を出力する。
Next, it is determined how similar the image determined in the determination mode is to the learned image. The determination mode is introduced into the CMAC unit 15 after being processed by the pre-processing including the FFT unit 17 and the expansion / contraction unit 18. In FIG. 1, the CMAC unit is drawn separately in the learning mode and the determination mode, but they are shown separately for convenience of description, and actually show the same CMAC unit. CMAC unit 1
The similarity between the image learned as the image learned in 5 and the image to be determined is processed, the determination result is determined by the determination unit 19, and the code number of the most similar image is output.

【0024】上記のように構成した実施例の動作を述べ
る。まず、学習モードについて述べる。例えばビデオに
撮った教師画像からFFT部12によりパワースペクト
ル(以下PSと称す)を求める。求めたPSをフィルタ
13により画像の特徴的なPSのみ通過させる。ここ
で、画像に任意なコード番号を付し、PSとコード番号
を用いてCMACユニット15で画像を学習させる。
The operation of the embodiment configured as described above will be described. First, the learning mode will be described. For example, the power spectrum (hereinafter referred to as PS) is obtained by the FFT unit 12 from a teacher image taken on a video. Only the characteristic PS of the image passes through the obtained PS by the filter 13. Here, an arbitrary code number is given to the image, and the image is learned by the CMAC unit 15 using PS and the code number.

【0025】次に判定モードにおいて判定画像からFF
T部17によりPSを求める。画像の伸縮を行う場合に
は伸縮部18にてPSを伸縮させてCMACユニット1
5に導入し、この出力を判定部19で学習させた画像と
最も似た画像を選び出してその画像のコード番号を出力
する。コントローラ14は学習モード、判定モードの切
り替えを行うとともに教師画像の種類によって、CMA
Cユニット15のユニット数を増減させる。
Next, in the determination mode, the FF is changed from the determination image.
PS is calculated by the T unit 17. When the image is expanded / contracted, the expansion / contraction part 18 expands / contracts PS to expand the CMAC unit 1.
The image which is most similar to the image learned by the determination unit 19 is selected and the code number of the image is output. The controller 14 switches the learning mode and the determination mode, and depending on the type of the teacher image, the CMA
The number of C units 15 is increased or decreased.

【0026】次に図2によりFFT部12a,12bお
よび17a,17b、フィルタ13a,13b、伸縮部
18、CMACユニット15および判定部19の詳細に
ついて述べる。図2において、FFT部12a,12b
および17a,17bは画像のPS成分である直交座標
成分P(ωx,ωy)と極座標成分P(ωr,ωθ)を
求める。フィルタ13a,13bは(i=1,2…,z
−1、j=i+1…z(│Pi(ωx,ωy)−Pj
(ωx,ωy)│>量子化間隔))をみたすPSを通過
させる。ただし、教師画像数=z、画像1〜zのスペク
トルP1(ωx,ωy)〜Pz(ωx,ωy)、量子間
隔=CMACのパラメータである。
Next, the details of the FFT units 12a, 12b and 17a, 17b, the filters 13a, 13b, the expansion / contraction unit 18, the CMAC unit 15 and the determination unit 19 will be described with reference to FIG. In FIG. 2, the FFT units 12a and 12b
And 17a and 17b determine the orthogonal coordinate component P (ωx, ωy) and the polar coordinate component P (ωr, ωθ) that are PS components of the image. The filters 13a and 13b have (i = 1, 2, ..., Z
-1, j = i + 1 ... z (│Pi (ωx, ωy) -Pj
Pass PS satisfying (ωx, ωy) │> quantization interval)). However, the number of teacher images = z, the spectra P1 (ωx, ωy) to Pz (ωx, ωy) of images 1 to z, and the quantum interval = CMAC are parameters.

【0027】伸縮部18は次式のようにP(ωx,ω
y)をP(ωa,ωb)に伸縮し、P(ωa,ωb)を
CMACへ入力する。なお、ωa=t・ωx、ωb=t
・ωy、t=伸縮係数、P(ωa,ωb)=P(ωx,
ωy)である。
The expansion / contraction part 18 is represented by P (ωx, ω)
y) is expanded / contracted to P (ωa, ωb), and P (ωa, ωb) is input to CMAC. Ωa = t · ωx, ωb = t
Ωy, t = expansion coefficient, P (ωa, ωb) = P (ωx,
ωy).

【0028】学習モードにおけるCMACユニットにお
いて、1個のCMACユニットは3次元構成で3入力1
出力とする。そして処理の流れは次のようになる。フィ
ルタ13a,13bで求めたP(ωx,ωy)、P(ω
r,ωθ)をCMACユニットの1番からn番へ入力
し、出力O1(x,y)〜On(x,y)、O1(r,
θ)〜On(r,θ)を得る。この出力とコード番号の
差の絶対値を学習させる。
In the CMAC unit in the learning mode, one CMAC unit has a three-dimensional structure and three inputs and one input.
Output. The flow of processing is as follows. P (ωx, ωy) and P (ω determined by the filters 13a and 13b
r, and input to n number of Omegashita) from number 1 CMAC units, the output O 1 (x, y) ~O n (x, y), O 1 (r,
obtain θ) ~O n (r, θ ). The absolute value of the difference between this output and the code number is learned.

【0029】次に判定モードにおけるCMACユニット
において、FFT部17a,17bで求めたP(ωx,
ωy)とP(ωr,ωθ)、伸縮部18で求めたP(ω
a,ωb)を入力し、出力On(x,y)、On(r,
θ)、On(a,b)を得る。
Next, in the CMAC unit in the determination mode, P (ωx, obtained by the FFT units 17a and 17b)
ωy) and P (ωr, ωθ), P (ω determined by the expansion / contraction unit 18
a, ωb) and outputs O n (x, y) and O n (r,
theta), obtaining a O n (a, b).

【0030】判定部19は出力On(x,y)、O
n(r,θ)、On(a,b)から最も学習画像に近いコ
ード番号を求める。具体的には次のようになる。これに
は図2の図示下側のCMACユニットの出力O1(x,
y)について度数分布を求め、最頻値O1maxと、O1max
についての標準偏差σ1を求める。同様に残りのO
2(x,y)〜On(x,y)について、O2max(x,
y)〜Onmax(x,y)、σ2(x,y)〜σn(x,
y)を求める。
The judging section 19 outputs outputs O n (x, y), O
The code number closest to the learning image is obtained from n (r, θ) and O n (a, b). Specifically, it is as follows. For this, the output O 1 (x,
y), the frequency distribution is calculated, and the mode values O 1max and O 1max
For the standard deviation σ 1 . Similarly, the remaining O
2 (x, y) ~O n (x, y) for, O 2max (x,
y) ~O nmax (x, y ), σ 2 (x, y) ~σ n (x,
y) is calculated.

【0031】以上までと同様にOn(r,θ)、O
n(a,b)について、O1max(r,θ)〜O
nmax(r,θ)とσ1(r,θ)〜σn(r,θ)、O
1max(a,b)〜Onmax(a,b)とσ1(a,b)〜
σn(a,b)を求める。最後に、(i=1,2…n│
σn(x,y)、σn(r,θ)、σn(a,b))の中
で最小値σ1の最頻値Oiを認識結果にする。
Similarly to the above, O n (r, θ), O
For n (a, b), O 1max (r, θ) to O
nmax (r, θ) and σ 1 (r, θ) to σ n (r, θ), O
1max (a, b) ~O nmax (a, b) and σ 1 (a, b) ~
Find σ n (a, b). Finally, (i = 1,2 ... n│
Among σ n (x, y), σ n (r, θ) and σ n (a, b)), the mode O i of the minimum value σ 1 is set as the recognition result.

【0032】上記実施例を用いて図3Aに示す手袋の画
像を認識させた場合について述べる。
A case in which the image of the glove shown in FIG. 3A is recognized using the above embodiment will be described.

【0033】(1)学習モード 図3Aの手袋の教師画像をそれぞれコード番号60,1
20でCMACユニットに学習させる。
(1) Learning Mode Codes 60 and 1 are assigned to the gloved teacher images shown in FIG. 3A, respectively.
At 20 the CMAC unit is trained.

【0034】(2)判定モード 図3Bの手袋の判定画像をCMACユニットに導入して
その時の出力を度数分布にしたものが図4に示す実線で
ある。図4の点線は学習させていない画像を同様に度数
分布にしたもので、両分布から実線の場合、学習時のコ
ード番号60にピークが生じ、点線のものは実線のもの
よりピークが生じない。従って、実線の最頻値60の標
準偏差から画像判定は容易にでき、認識の結果60のコ
ード番号を得る。
(2) Judgment Mode The judgment image of the glove of FIG. 3B is introduced into the CMAC unit and the output at that time is made into a frequency distribution, which is the solid line shown in FIG. Similarly, the dotted line in FIG. 4 is a frequency distribution of unlearned images. When both distributions are solid lines, a peak occurs in the code number 60 at the time of learning, and a dotted line has less peaks than the solid line. . Therefore, the image determination can be easily performed from the standard deviation of the mode 60 of the solid line, and the code number of the recognition result 60 is obtained.

【0035】図5はこの発明の第2実施例を示す構成図
で、図1、図2と同一部分は同一符号を付して示す。図
5の第2実施例では極座標成分を得る手段を省いて、こ
れに代えて学習モードでは1つの画像を少しずつ回転さ
せてコード番号と共に学習させたことに特徴がある。画
像データ11の学習手段は前記実施例と同様にCMAC
ユニット15aにて行うが、画像データ21は画像デー
タ11をθ度回転させたもので、この画像データ21も
FFT部12aとフィルタ13aによりPSを求める。
このPSとコード番号(例えば70)をCMACユニッ
ト15bにて学習させる。この処理をθ度ずつ順次回転
させた画像データ21毎にPSを求めてCMACユニッ
ト15c〜15nにて学習する。例えば、上記処理を9
0度/θ=n回行う。いま、回転角=10度とすると、
1つの画像データにつき90/10=9回回転させた画
像の学習を行い、それぞれ9個のCMACユニットで学
習する。
FIG. 5 is a block diagram showing a second embodiment of the present invention. The same parts as those in FIGS. 1 and 2 are designated by the same reference numerals. The second embodiment of FIG. 5 is characterized in that the means for obtaining the polar coordinate component is omitted, and instead of this, in the learning mode, one image is rotated little by little to learn with the code number. The learning means for the image data 11 is the CMAC as in the above embodiment.
The image data 21 is obtained by rotating the image data 11 by θ degrees, which is performed by the unit 15a, and the PS of the image data 21 is also obtained by the FFT unit 12a and the filter 13a.
The PS and the code number (for example, 70) are learned by the CMAC unit 15b. This process is learned by the CMAC units 15c to 15n by obtaining PS for each image data 21 that is sequentially rotated by θ degrees. For example, the above process
0 degree / θ = n times. Now, assuming that the rotation angle is 10 degrees,
An image rotated by 90/10 = 9 times is learned for each image data, and each image is learned by 9 CMAC units.

【0036】上述のようにして1種の画像データ11,
21について学習したものを、順次θ度回転させた画像
データ21と新たなコード番号をCMACユニットにて
学習させる。なお、フィルタ13aは画像の種類、どの
回転について同じ特性である。
As described above, one type of image data 11,
The CMAC unit is made to learn the image data 21 and new code number which are sequentially rotated by θ degrees after learning about 21. The filter 13a has the same characteristics for the type of image and any rotation.

【0037】判定モードは前記実施例から極座標成分を
得るのを除いて画像データ11のPSを伸縮部18で伸
縮させてCMACユニットに入力し、得られる出力
(nz)から画像を判定する。まず、学習モードと同様
に、画像をFFTし、PSを求める。CMACユニット
15a〜15nに、全て同じPSを入力し、出力O(1
1)〜O(n1)を求める。これは次のマトリックスの式の
下線部を求めることになる。
In the judgment mode, PS of the image data 11 is expanded / contracted by the expansion / contraction unit 18 and input to the CMAC unit except that the polar coordinate component is obtained from the above embodiment, and the image is judged from the obtained output O (n , z). To do. First, as in the learning mode, FFT is performed on the image to obtain PS. The same PS is input to the CMAC units 15a to 15n, and the output O (1 ,
1) to O (n , 1) are calculated. This will find the underlined part of the following matrix equation.

【0038】[0038]

【数1】 [Equation 1]

【0039】次に(1)式の下線部以外を求めるには上
述と同様にZ倍伸縮させたPSをCMACユニット15
a〜15nに入力することで求めることができる。
Next, in order to obtain the parts other than the underlined part of the equation (1), the PS expanded / contracted by Z times is used in the CMAC unit 15 as described above.
It can be obtained by inputting a to 15n.

【0040】伸縮部18では図6に示す如く、PからP
zへ、伸縮率zで伸縮させるときの説明図で、このとき
の関係を式で示すと次のようになる。
In the expansion / contraction section 18, as shown in FIG.
In the explanatory view when expanding and contracting to z at the expansion and contraction rate z, the relationship at this time is expressed by the following equation.

【0041】Pz(z・ωx,z・ωy)=P(ωx,
ωy) 但し、伸縮率は0.5〜2とする。
P z (z · ωx, z · ωy) = P (ωx,
ωy) However, the expansion / contraction rate is 0.5 to 2.

【0042】判定部19は前記(1)式のマトリックス
からもっとも信頼できるコード番号を出力し、信頼でき
ない場合はゼロを出力する。
The determination section 19 outputs the most reliable code number from the matrix of the above equation (1), and outputs zero if it is not reliable.

【0043】まず、出力O(11)からヒストグラムの最
頻値m(11)(以下支持コードと称す)と危険値σ(1
1)を求める。これは出力O(11)から図5の判定部19
に示す出力O(11)のヒストグラムを作成し、ヒストグ
ラムの支持コードm(11)を求める。そしてm(11)
ついて危険値σ(11)を次式から求める。
First, from the output O (1 , 1) , the most frequent value m (1 , 1) of the histogram (hereinafter referred to as a support code) and the dangerous value σ (1 ,
Ask for 1) . This is based on the output O (1 , 1) from the decision unit 19 of FIG.
A histogram of the output O (1 , 1) shown in is created, and the supporting code m (1 , 1) of the histogram is obtained. Then, the dangerous value σ (1 , 1) for m (1 , 1) is calculated from the following equation.

【0044】[0044]

【数2】 [Equation 2]

【0045】上記のようにして出力O(n1)から、支持
コードm(n1)と危険値σ(11)を求めた後、同様にし
て出力O(nz)から支持コードm(nz)と危険値σ(n
z)を求める。次に危険値σ(mz)のマトリックスを次式
から求め、最も危険値の小さいσminを求める。
After the support code m (n , 1) and the dangerous value σ (1 , 1) are obtained from the output O (n , 1) as described above, the output O (n , z) is similarly obtained. Support code m (n , z) and dangerous value σ (n ,
z) is calculated. Next, the matrix of dangerous values σ (m , z) is obtained from the following equation, and σ min with the smallest dangerous value is obtained.

【0046】[0046]

【数3】 [Equation 3]

【0047】最も危険値の小さいσminより、判定結果
の支持コードm(nz)がゼロを出力する。
The supporting code m (n , z) of the judgment result outputs zero from σ min having the smallest dangerous value.

【0048】σmin≦Sは危険値小、判定結果はそのと
きの支持コードm(nz)である。
Σ min ≤S is a small dangerous value, and the determination result is the support code m (n , z) at that time.

【0049】σmin>Sは危険値大、このときは判定結
果はゼロとなる。なお、Sは判定できる、できないかを
判断するしきい値で実験的に求める。
When σ min > S, the dangerous value is large, and the determination result is zero at this time. Note that S is experimentally determined by a threshold value for determining whether or not it can be determined.

【0050】上記のように構成した実施例を用いて図7
A,B,Cの空き缶の画像を学習後、図7A,B,Cに
似た画像で判定させた各危険値σminのヒストグラムを
図8に示す。図8において、缶A(図7A)の危険値σ
min=30.5、缶B(図7B)の危険値σmin=31.
0、缶C(図7C)の危険値σmin=28.7で缶Bと
缶Cのヒストグラムは缶Bから順に階級を+10ずつず
らせている。
Using the embodiment configured as described above, FIG.
After learning the images of the empty cans A, B, and C, the histogram of each dangerous value σ min determined by the images similar to FIGS. 7A, 7B, and 7C is shown in FIG. In FIG. 8, the dangerous value σ of can A (FIG. 7A)
min = 30.5, the dangerous value σ min of can B (FIG. 7B) = 31.
0 and the dangerous value σ min of can C (FIG. 7C) = 28.7, the histograms of can B and can C are shifted from can B by +10 in order.

【0051】上記実施例では極座標成分を得るFFTが
必要ないので画像判定処理が高速になるとともに信頼性
の低い判定結果を判定不能とするので、誤判定の可能性
が低くなる。また、判定結果の信頼性が数値で表現でき
るので、処理が容易となる。
In the above embodiment, since the FFT for obtaining the polar coordinate component is not required, the image judgment processing becomes fast and the judgment result with low reliability cannot be judged, so that the possibility of erroneous judgment becomes low. Further, the reliability of the determination result can be expressed by a numerical value, which facilitates the processing.

【0052】図13はこの発明の第3実施例を示す全体
構成のブロック図で、図14は第3実施例の詳細な構成
を示す構成説明図で、図1、図2および図5と同一部分
は同一符号を付して示す。図13および図14に示す実
施例においては、判定モードに画像回転部21を設けた
ものである。この第3実施例でも前記実施例と同様に学
習モードと判定モードの2つのモードからなり、予め学
習モードで画像を学習させ、判定モードで、判定する画
像が学習した画像と、どのくらい似ているかを判断す
る。
FIG. 13 is a block diagram of the overall construction showing the third embodiment of the present invention, and FIG. 14 is a construction explanatory view showing the detailed construction of the third embodiment, which is the same as FIG. 1, FIG. 2 and FIG. The parts are denoted by the same reference numerals. In the embodiment shown in FIGS. 13 and 14, the image rotation unit 21 is provided in the determination mode. This third embodiment also has two modes, that is, a learning mode and a determination mode, similar to the above-described embodiments, and an image is learned in the learning mode in advance, and how similar the image to be determined in the determination mode is to the learned image. To judge.

【0053】学習モードは前記実施例と同様にビデオに
撮った教師画像をFFTし、PSを求める。次にフィル
タで画像の特徴的なPSのみ通過させる。ここで、画像
に任意なコード番号をつけ、PSとこのコード番号でC
MACユニット15に学習させる。
In the learning mode, as in the above-described embodiment, FFT is performed on the teacher image taken on the video to obtain PS. Next, a filter passes only the characteristic PS of the image. Here, attach an arbitrary code number to the image, and C with PS and this code number
The MAC unit 15 is made to learn.

【0054】判定モードでは判定画像をFFTし、PS
を求める。次に、PSを回転させてCMACユニット1
5に入れ、この出力を判定部19で判定させる。判定結
果は、学習させた画像の中で最も似た画像のコード番号
になる。ここで、PSの回転は±90°と180°とす
る。
In the judgment mode, the judgment image is FFTed and PS
Ask for. Next, rotate the PS to rotate the CMAC unit 1
Then, the judgment section 19 judges this output. The determination result is the code number of the most similar image among the learned images. Here, the rotation of PS is ± 90 ° and 180 °.

【0055】各機能ブロックでは前記実施例と同様にコ
ントローラ14においては、学習モード、判定モードの
切り替えを行うとともに教師画像の種類によって、CM
ACユニット数nを増減させる。FFT部12a,12
b,17aの動作は図2の実施例と同様に行う。
In each functional block, as in the above-described embodiment, the controller 14 switches the learning mode and the judgment mode and the CM depending on the type of the teacher image.
Increase or decrease the number of AC units n. FFT section 12a, 12
The operations of b and 17a are performed in the same manner as the embodiment of FIG.

【0056】画像回転部22では0°、90°、−90
°、180°回転のPSを次のように求める。
In the image rotating unit 22, 0 °, 90 °, -90
The PS of 180 ° and 180 ° rotation is calculated as follows.

【0057】P0(ωx,ωy)=P(ωx,ωy) P90(ωx,ωy)=P(−ωx,ωy) P-90(ωx,ωy)=P(ωx,ωy) P180(ωx,ωy)=P(ωx,−ωy) 上記4種類のPSをCMACユニット15a,15b…
の入力として用いる。
P 0 (ωx, ωy) = P (ωx, ωy) P 90 (ωx, ωy) = P (−ωx, ωy) P −90 (ωx, ωy) = P (ωx, ωy) P 180 ( ωx, ωy) = P (ωx, −ωy) The above four types of PS are CMAC units 15a, 15b ...
Used as input.

【0058】学習モードにおける1個のCMACユニッ
トは3次元構成で3入力1出力とする。そして、処理の
流れはフィルタ13a,13bで求めたP(ωx,ω
y)を順次CMACユニットの1番からn番へ入力し、
出力O1(x,y)〜On(x,y)を得る。その後、こ
の出力とコード番号の差の絶対値を学習させる。
In the learning mode, one CMAC unit has a three-dimensional structure and three inputs and one output. The flow of processing is P (ωx, ω) obtained by the filters 13a and 13b.
y) sequentially input from CMAC unit No. 1 to No.
Output O 1 (x, y) ~O n (x, y) obtained. Then, the absolute value of the difference between this output and the code number is learned.

【0059】判定モードにおけるCMACユニットにお
いては、P(ωx,ωy)[P0、P90、P-90
180]を順次CMACユニットに入力し、出力O0n
90n,O-90n,O180を得る。(ただし、n=CMAC
ユニット数) 判定部19は出力O0n,O90n,O-90n,O180から最も
学習画像に近いコード番号を求める。図14に示すよう
にCMACの出力O01について度数分布を判定部19で
求めると、最頻値O1maxと、この最頻値O1maxについて
の標準偏差σ1を求める。同様に、残りの出力O02〜O
0nについて、最頻値O2max(x,y)〜Onmax(x,
y)と、標準偏差σ1(x,y)〜σn(x,y)を求め
る。以下同様に、出力O90n,O-90n、O180について
最頻値と標準偏差を求める。最後に標準偏差の最小値と
なる最頻値Oiを認識結果とする。
In the CMAC unit in the judgment mode, P (ωx, ωy) [P 0 , P 90 , P -90 ,
P 180 ] are sequentially input to the CMAC unit and output O 0n ,
O 90n , O −90n , and O 180 are obtained. (However, n = CMAC
Number of Units) The determination unit 19 obtains the code number closest to the learning image from the outputs O 0n , O 90n , O −90n , and O 180 . As shown in FIG. 14, when the frequency distribution of the output O 01 of the CMAC is obtained by the determination unit 19, the mode value O 1max and the standard deviation σ 1 for this mode value O 1max are obtained. Similarly, the remaining outputs O 02 to O
For 0n, the mode O 2max (x, y) ~O nmax (x,
y) and standard deviation σ 1 (x, y) to σ n (x, y). Similarly, the mode and the standard deviation of the outputs O 90n , O −90 n, and O 180 are obtained. Finally, the mode value O i that is the minimum value of the standard deviation is set as the recognition result.

【0060】図13、図14の実施例を用いると、図5
の第2実施例とは次のように異なる。図5に示した第2
実施例では、画像中の物体回転は、画像の極座標FFT
によって決められるため、1画像につき2回FFTする
必要がある。また、図5の第2実施例ではどの様な回転
に対しても対応できるようにしているが、実際には、対
象とする物体の姿勢の変化として、対象が横になる(9
0°回転)か逆になる(180°回転)場合のみに限定
しても場合のものが図13、図14に示した実施例であ
る。この実施例では、従って、極座標によるFFTや回
転した教師画像で何回か学習しなくても1回の学習と1
回のFFTで認識できるようにした。これにより、極座
標が必要ないため、画像判定処理が高速になる利点があ
る。
Using the embodiment of FIGS. 13 and 14, FIG.
The second embodiment is different from the second embodiment as follows. Second shown in FIG.
In an embodiment, the object rotation in the image is the polar FFT of the image.
It is necessary to perform FFT twice for each image, as determined by In addition, in the second embodiment of FIG. 5, any rotation can be dealt with, but in reality, the target lies sideways as a change in the posture of the target object (9
The examples shown in FIGS. 13 and 14 are limited to cases in which the rotation is 0 ° or the opposite (180 ° rotation). In this embodiment, therefore, one learning and one learning is performed without using the FFT in polar coordinates or the rotated teacher image several times.
It was made to be able to be recognized by FFT times. As a result, polar coordinates are not required, which has the advantage of speeding up the image determination processing.

【0061】図15はこの発明の第4実施例を示す全体
構成のブロック図であり、図16は第4実施例の詳細な
構成を示す構成説明図で、図1、図2および図5と同一
部分は同一符号を付して示す。図15および図16に示
す実施例においては、FFT部12、17および12
a,12b,17aで教師画像および判定用画像情報を
FFTした後、その出力を規格化処理するために規格化
部23、23a、23b、24を設けたものである。こ
の第4実施例でも前記実施例と同様に学習モードと判定
モードの2つのモードからなり、予め学習モードで画像
を学習させ、判定モードで、判定する画像が学習した画
像と、どのくらい似ているかを判断する。
FIG. 15 is a block diagram of the overall construction showing the fourth embodiment of the present invention, and FIG. 16 is a construction explanatory view showing the detailed construction of the fourth embodiment, and is shown in FIG. 1, FIG. 2, and FIG. The same parts are designated by the same reference numerals. In the embodiment shown in FIGS. 15 and 16, the FFT units 12, 17 and 12 are used.
Standardization units 23, 23a, 23b and 24 are provided to standardize the output of the FFT of the teacher image and the determination image information at a, 12b and 17a. This fourth embodiment also has two modes, that is, a learning mode and a determination mode, similar to the above-described embodiments, and the image is learned in the learning mode in advance, and how similar the image determined in the determination mode is to the learned image. To judge.

【0062】学習モードは前記実施例と同様にビデオに
撮った教師画像情報をFFTし、パワースペクトルPS
を求める。次にこのPSの最大となる周波数を規格化部
23、23a、23bにより規格化して出力する。この
出力を、次にフィルタ13、13a、13bで画像の特
徴的なPSのみ通過させる。ここで、画像に任意なコー
ド番号を付け、PSとこのコード番号で、CMACユニ
ット15に学習させる。 判定モードでは判定用画像を
FFTし、PSを求める。次に、前述と同様にPSの最
大となる周波数を規格化部24により規格化して出力す
る。この出力したPSをCMACユニット15に入力
し、その出力を判定部19で判定させる。判定結果は、
学習させた画像の中で最も似た画像のコード番号にな
る。
In the learning mode, as in the above-described embodiment, the FFT is performed on the teacher image information captured in the video, and the power spectrum PS
Ask for. Next, the maximum frequency of the PS is standardized by the standardization units 23, 23a, 23b and output. This output is then passed through only the characteristic PS of the image by filters 13, 13a and 13b. Here, an arbitrary code number is given to the image, and the CMAC unit 15 is made to learn with PS and this code number. In the determination mode, the image for determination is subjected to FFT to obtain PS. Next, the frequency having the maximum PS is standardized by the normalizing unit 24 and output as in the above. The output PS is input to the CMAC unit 15, and the output of the PS is determined by the determination unit 19. The judgment result is
It is the code number of the most similar image among the learned images.

【0063】各機能ブロックでは前記実施例と同様にコ
ントローラ14においては、学習モード、判定モードの
切り替えを行うとともに教師画像の種類によって、CM
ACユニット数nを増減させる。なお、FFT部12、
17および12a,12b,17aでは画像のPS成分
であるP(ωx,ωy)を求めた後、規格化部23、2
3a、23b、24では最大のPSとなる周波数(ωx
max,ωymax)を次のように規格化する。
In each functional block, as in the above-described embodiment, the controller 14 switches the learning mode and the judgment mode, and the CM depending on the type of the teacher image.
Increase or decrease the number of AC units n. The FFT unit 12,
17 and 12a, 12b, 17a, after obtaining P (ωx, ωy), which is the PS component of the image, the normalization units 23, 2
In 3a, 23b, and 24, the maximum PS frequency (ωx
max, ωymax) is standardized as follows.

【0064】Ωx=ωx/ωxmax Ωy=ωy/ωymax Pn(Ωx,Ωy)=P(ωx,ωy)/P(ωxma
x,ωymax) 規格化部で規格化された出力はフィルタ13、13a、
13bに入力され、ここで次式を満たすPSを通過させ
る。通過したPSはCMACユニット15a,15b…
に入力される。
Ωx = ωx / ωxmax Ωy = ωy / ωymax Pn (Ωx, Ωy) = P (ωx, ωy) / P (ωxma
x, ωymax) The outputs standardized by the normalization unit are filters 13, 13a,
13b, and the PS that satisfies the following equation is passed here. The PS that has passed through is the CMAC unit 15a, 15b ...
Entered in.

【0065】│Pni(Ωx,Ωy)−Pnj(Ωx,
Ωy)│>量子化間隔 (i=1,2…z−1、j=i+1,…z) ただし、教師画像数=z、画像1〜zのスペクトルPn
1(Ωx,Ωy)〜Pnz(Ωx,Ωy)、量子化間隔
=CMACのパラメータである。
| Pni (Ωx, Ωy) -Pnj (Ωx,
Ωy) │> quantization interval (i = 1, 2 ... z-1, j = i + 1, ... z) where the number of teacher images = z and the spectrum Pn of images 1 to z
1 (Ωx, Ωy) to Pnz (Ωx, Ωy), quantization interval = CMAC parameter.

【0066】上述したCMACユニットは前記実施例と
同様な構成で、図16に示すように学習モードおよび判
定モードとも3次元構成で3入力1出力である。図16
に示す学習モードでは、フィルタ13a,13bで求め
たPn(Ωx,Ωy)を順次CMACユニットの1番か
らn番へ入力し、出力O1(x,y)〜On(x,y)を
得る。その後、この出力とコード番号の差の絶対値を学
習させる。判定モードではPn(Ωx,Ωy)を順次C
MACユニット入力し、出力Ono(n=CMACユニッ
ト数)を得る。
The above-mentioned CMAC unit has the same structure as that of the above-described embodiment, and as shown in FIG. 16, both the learning mode and the judgment mode have a three-dimensional structure and three inputs and one output. FIG.
In the learning mode shown, the filter 13a, 13b in the obtained Pn (Ωx, Ωy) type to n-th from 1st sequential CMAC units, output O 1 (x, y) ~O n (x, y) and obtain. Then, the absolute value of the difference between this output and the code number is learned. In judgment mode, Pn (Ωx, Ωy) is sequentially C
The MAC unit is input and the output O no (n = number of CMAC units) is obtained.

【0067】判定部19は、前記第3実施例と同様に、
出力Onから最も学習画像に近いコード番号を求める。
具体的には次のようにして行う。図16の判定モードの
CMACユニット15a、15b……の出力O01につい
て度数分布を求め、最頻値O1max(x,y)と、この最
頻値O1maxについての標準偏差σ1を求める。同様に、
残りの出力O02〜O0nについて、最頻値O2max(x,
y)〜Onmax(x,y)と、標準偏差σ1(x,y)〜
σn(x,y)を求める。最後に標準偏差の最小値とな
る最頻値Oiを認識結果とする。
The judging section 19 is similar to the third embodiment in that
Request code number closest to the learning image from the output O n.
Specifically, it is performed as follows. The frequency distribution is obtained for the output O 01 of the CMAC units 15a, 15b, ... In the determination mode of FIG. 16, and the mode O 1max (x, y) and the standard deviation σ 1 for this mode O 1max are obtained. Similarly,
For the remaining outputs O 02 to O 0n , the mode value O 2max (x,
y) to Onmax (x, y) and standard deviation σ 1 (x, y) to
Find σ n (x, y). Finally, the mode value O i that is the minimum value of the standard deviation is set as the recognition result.

【0068】上記のように第4実施例では規格化部を設
けることにより、対象のカメラからの位置がずれても認
識でき、かつ、照明が変化しても認識できる利点があ
る。
As described above, the provision of the standardization section in the fourth embodiment has the advantage that it can be recognized even if the position from the target camera is displaced and that it can be recognized even if the illumination changes.

【0069】[0069]

【発明の効果】以上述べたように、この発明によれば、
第1発明から第3発明では、画像判定処理がNNの場合
に比較して学習させる分、高速処理ができ、かつ簡単に
判定でき、また、教師画像より認識する画像が大きくズ
レたり、ノイズが多くても認識できるようになる。第4
発明から第7発明では極座標成分を用いないので、画像
判定処理がより高速に処理できるとともに誤判定処理の
可能性も低くできる等の利点がある。第8発明および第
9発明では情報を規格化することにより、対象のカメラ
からの位置がずれしても、また、照明が変化しても認識
できるようになる。
As described above, according to the present invention,
In the first invention to the third invention, as compared with the case where the image determination process is NN, learning is performed, so that high-speed processing can be performed and determination can be performed easily, and the recognized image is significantly different from the teacher image, and noise is generated. You will be able to recognize at most. Fourth
Since the invention to the seventh invention do not use polar coordinate components, there are advantages that the image determination processing can be performed at a higher speed and the possibility of erroneous determination processing can be reduced. In the eighth invention and the ninth invention, by normalizing the information, it becomes possible to recognize even if the position of the target from the camera is displaced or the illumination is changed.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の第1実施例を示すブロック図であ
る。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】第1実施例の詳細な構成を示す構成説明図であ
る。
FIG. 2 is a configuration explanatory view showing a detailed configuration of the first embodiment.

【図3】Aは教師画像を示す説明図、Bは判定画像を示
す説明図である。
3A is an explanatory diagram showing a teacher image, and FIG. 3B is an explanatory diagram showing a determination image.

【図4】出力O1(xy)の度数分布特性図である。FIG. 4 is a frequency distribution characteristic diagram of an output O 1 (x , y) .

【図5】この発明の第2実施例を示す構成説明図であ
る。
FIG. 5 is a structural explanatory view showing a second embodiment of the present invention.

【図6】伸縮部を説明するための図である。FIG. 6 is a diagram for explaining a stretchable portion.

【図7】A,B,Cは空き缶の画像を示す説明図であ
る。
7A, 7B and 7C are explanatory views showing images of empty cans.

【図8】図7A,B,Cの空き缶による度数分布図であ
る。
FIG. 8 is a frequency distribution chart of empty cans shown in FIGS. 7A, 7B and 7C.

【図9】CMACの概念図である。FIG. 9 is a conceptual diagram of CMAC.

【図10】写像関係を示す概念図である。FIG. 10 is a conceptual diagram showing a mapping relationship.

【図11】スカラー出力Pへ写像する作用素を示す説明
図である。
11 is an explanatory diagram showing an operator that maps to a scalar output P. FIG.

【図12】ベクトル出力Pへ写像する作用素を示す説明
図である。
FIG. 12 is an explanatory diagram showing an operator that maps to a vector output P.

【図13】この発明の第3実施例を示すブロック図であ
る。
FIG. 13 is a block diagram showing a third embodiment of the present invention.

【図14】第3実施例の詳細な構成を示す構成説明図で
ある。
FIG. 14 is a structural explanatory view showing a detailed structure of a third embodiment.

【図15】この発明の第4実施例を示すブロック図。FIG. 15 is a block diagram showing a fourth embodiment of the present invention.

【図16】第4実施例の詳細な構成を示す構成説明図。FIG. 16 is a structural explanatory view showing a detailed structure of a fourth embodiment.

【符号の説明】[Explanation of symbols]

11,21…画像データ 12,12a,12b,17,17a,17b…高速フ
ーリエ変換部 13,13a,13b…フィルタ 14…コントローラ 15,15a〜15n…CMACユニット 16…偏差検出部 18…伸縮部 19…判定部 22…画像回転部 23,23a,23b,24…規格化部
11, 21 ... Image data 12, 12a, 12b, 17, 17a, 17b ... Fast Fourier transform section 13, 13a, 13b ... Filter 14 ... Controller 15, 15a-15n ... CMAC unit 16 ... Deviation detection section 18 ... Expansion / contraction section 19 ... Judgment part 22 ... Image rotation part 23, 23a, 23b, 24 ... Normalization part

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 教師画像情報が入力され、この教師画像
情報を学習する学習モードと、この学習モードで学習さ
れた画像情報と比較判定される判定用画像情報が入力さ
れる判定モードを有し、前記学習モードでは教師画像情
報から画像の特徴部分を抽出して画像に任意なコード番
号を付し、このコード番号と抽出された画像とを小脳モ
デルコンピュータに入力して、教師画像情報を学習さ
せ、前記判定モードでは入力された判定用画像情報を抽
出して前記小脳モデルコンピュータに入力し、前記学習
された教師画像情報と最も似た画像情報を判定して出力
するようにしたことを特徴とする画像認識装置。
1. A learning mode in which teacher image information is input and learning is performed on the teacher image information, and a determination mode is input in which determination image information to be compared with image information learned in this learning mode is input. In the learning mode, the characteristic portion of the image is extracted from the teacher image information, an arbitrary code number is given to the image, and the code number and the extracted image are input to the cerebellum model computer to learn the teacher image information. In the determination mode, the input determination image information is extracted and input to the cerebellar model computer, and the image information most similar to the learned teacher image information is determined and output. Image recognition device.
【請求項2】 教師画像情報および判定用画像情報を高
速フーリエ変換を用いて出力に直交座標および極座標情
報を得るようにしたことを特徴とする請求項1記載の画
像認識装置。
2. The image recognition apparatus according to claim 1, wherein the orthogonal coordinate and polar coordinate information is obtained as an output from the teacher image information and the determination image information by using a fast Fourier transform.
【請求項3】 判定用画像情報から得た直交座標情報を
画像伸縮部を介して小脳モデルコンピュータに入力した
ことを特徴とする請求項1記載の画像認識装置。
3. The image recognition apparatus according to claim 1, wherein Cartesian coordinate information obtained from the determination image information is input to the cerebellum model computer via the image expansion / contraction unit.
【請求項4】 学習モードにおいて、教師画像情報の他
に少しずつ回転させた教師画像情報を抽出してコード番
号とともに小脳モデルコンピュータに入力して教師画像
情報を学習させるようにしたことを特徴とする請求項1
記載の画像認識装置。
4. In the learning mode, in addition to the teacher image information, the teacher image information that is rotated little by little is extracted and input to a cerebellum model computer together with a code number so that the teacher image information is learned. Claim 1
The image recognition device described.
【請求項5】 判定モードにおいて、判定用画像情報を
画像回転部を介して小脳モデルコンピュータに入力した
ことを特徴とする請求項1記載の画像認識装置。
5. The image recognition apparatus according to claim 1, wherein in the determination mode, the determination image information is input to the cerebellum model computer via the image rotation unit.
【請求項6】 判定用画像情報を画像伸縮部を介して小
脳モデルコンピュータに入力したことを特徴とする請求
項4記載の画像認識装置。
6. The image recognition apparatus according to claim 4, wherein the determination image information is input to the cerebellum model computer via the image expansion / contraction unit.
【請求項7】 判定用画像情報を高速フーリエ変換して
から画像回転部に入力したことを特徴とする請求項5記
載の画像認識装置。
7. The image recognition apparatus according to claim 5, wherein the image information for judgment is subjected to fast Fourier transform and then inputted to the image rotation unit.
【請求項8】 教師画像情報を高速フーリエ変換し、変
換された情報からパワースペクトルを得、このパワース
ペクトルの最大となる周波数を規格化部で規格化し、規
格化した情報から画像の特徴部分を抽出したことを特徴
とする請求項1、2および4記載の画像認識装置。
8. The fast image Fourier transform of the teacher image information is performed, a power spectrum is obtained from the transformed information, the maximum frequency of this power spectrum is standardized by a normalizing section, and the characteristic part of the image is extracted from the standardized information. The image recognition device according to claim 1, 2 or 4, wherein the image recognition device is extracted.
【請求項9】 判定用画像情報を高速フーリエ変換し、
変換された情報からパワースペクトルを得、このパワー
スペクトルの最大となる周波数を規格化部で規格化して
抽出したことを特徴とする請求項1、3、5および6記
載の画像認識装置。
9. The image information for judgment is subjected to fast Fourier transform,
7. The image recognition apparatus according to claim 1, wherein the power spectrum is obtained from the converted information, and the maximum frequency of the power spectrum is standardized and extracted by the standardization unit.
JP03401294A 1993-03-09 1994-03-04 Image recognition device Expired - Fee Related JP3470375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03401294A JP3470375B2 (en) 1993-03-09 1994-03-04 Image recognition device

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP4764493 1993-03-09
JP5-47644 1993-12-24
JP5-325666 1993-12-24
JP32566693 1993-12-24
JP03401294A JP3470375B2 (en) 1993-03-09 1994-03-04 Image recognition device

Publications (2)

Publication Number Publication Date
JPH07239939A true JPH07239939A (en) 1995-09-12
JP3470375B2 JP3470375B2 (en) 2003-11-25

Family

ID=27288290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03401294A Expired - Fee Related JP3470375B2 (en) 1993-03-09 1994-03-04 Image recognition device

Country Status (1)

Country Link
JP (1) JP3470375B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190142856A (en) * 2018-06-19 2019-12-30 전자부품연구원 Data Augmentation based Robust Object Recognition Method and System
JP2020109579A (en) * 2019-01-07 2020-07-16 株式会社デンソーテン Adhering matter detection device and adhering matter detection method
US11361249B2 (en) 2017-03-14 2022-06-14 Nec Corporation Image processing device for machine learning and setting of a teaching signal in accordance with detection and target regions, image processing method for machine learning and setting of a teaching signal, and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11361249B2 (en) 2017-03-14 2022-06-14 Nec Corporation Image processing device for machine learning and setting of a teaching signal in accordance with detection and target regions, image processing method for machine learning and setting of a teaching signal, and storage medium
KR20190142856A (en) * 2018-06-19 2019-12-30 전자부품연구원 Data Augmentation based Robust Object Recognition Method and System
JP2020109579A (en) * 2019-01-07 2020-07-16 株式会社デンソーテン Adhering matter detection device and adhering matter detection method

Also Published As

Publication number Publication date
JP3470375B2 (en) 2003-11-25

Similar Documents

Publication Publication Date Title
Abu-Jassar et al. Some Features of Classifiers Implementation for Object Recognition in Specialized Computer systems.
Zhang et al. Hybrid machine learning for human action recognition and prediction in assembly
CN111465940A (en) Machine vision system
CN109159113B (en) Robot operation method based on visual reasoning
EP1807793B1 (en) Object detection utilizing a rotated version of an image
CN110602120B (en) Network-oriented intrusion data detection method
CN108256454B (en) Training method based on CNN model, and face posture estimation method and device
JPH0285975A (en) Pattern data processor, process measuring information processor, image processor and image recognition device
EP4350575A1 (en) Image classification method and related device thereof
JP3470375B2 (en) Image recognition device
CN117372877A (en) Star map identification method and device based on neural network and related medium
Harkat et al. Nonlinear PCA combining principal curves and RBF-networks for process monitoring
CN115937970A (en) Hand key point identification method, device, equipment and storage medium
CN111800312B (en) Message content analysis-based industrial control system anomaly detection method and system
JP3678388B2 (en) Pen-type input device and pattern recognition method for pen-type input device
CN114462526A (en) Classification model training method and device, computer equipment and storage medium
CN115116096A (en) Text pedestrian re-recognition algorithm based on cross-modal correlation diagram inference method
JPH07121713A (en) Pattern recognition method
JP2003168113A (en) System, method and program of image recognition
Choi et al. Data Preprocessing Method in Motor Fault Diagnosis Using Unsupervised Learning
KR20210111417A (en) Robust Multi-Object Detection Apparatus and Method Using Siamese Network
CN111652102A (en) Power transmission channel target object identification method and system
US20210086352A1 (en) Method, apparatus and system for controlling a robot, and storage medium
Teraoka et al. Detecting adversarial examples for time series classification and its performance evaluation
CN113033807B (en) Online data collection method, neural network training method, related device and storage medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080912

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080912

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090912

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090912

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100912

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees