JPH0478974A - Visual recognizing device - Google Patents

Visual recognizing device

Info

Publication number
JPH0478974A
JPH0478974A JP2194201A JP19420190A JPH0478974A JP H0478974 A JPH0478974 A JP H0478974A JP 2194201 A JP2194201 A JP 2194201A JP 19420190 A JP19420190 A JP 19420190A JP H0478974 A JPH0478974 A JP H0478974A
Authority
JP
Japan
Prior art keywords
signal
neural network
output
input
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2194201A
Other languages
Japanese (ja)
Inventor
Atsuro Nakamura
淳良 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2194201A priority Critical patent/JPH0478974A/en
Publication of JPH0478974A publication Critical patent/JPH0478974A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To recognize an object while considering a condition for decision by adjusting a neural network in one part of plural deciding means by a data corresponding to the first mode of a control signal and inputting picture element signals to the adjusted neural network corresponding to the second mode. CONSTITUTION:An input means 21 extracts the picture element values of respective color components separated from a color video signal in an objective area, and plural deciding means 23 input data for identifying the picture element signals to the neural network and output a code signal from the neural network. A control means 22 adjusts the neural network in one part of the plural deciding means 23 by the data corresponding to the first mode of the control signal, and controls the plural deciding means 23 so as to input the picture element values to the adjusted neural network corresponding to the second mode of the control signal, and an output means 24 outputs a recognized result according to the code signal outputted from the deciding means 23. Thus, the device itself is made optimum while considering the condition for decision corresponding to the object.

Description

【発明の詳細な説明】 [産業上の利用分野コ 本発明は、対象物を分類、判別及び計測することができ
る多層型ニューラルネットワークを用いた視覚認識装置
に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a visual recognition device using a multilayer neural network that can classify, discriminate, and measure objects.

[従来の技術] 近年、画像処理技術が各産業に対して応用されつつあり
、工業製品及び農水産物等の対象物を撮像した画像を入
力してコンピュータシステムにより処理し、対象物を分
類、判別及び計測する視覚認識装置が急速に普及してい
る。
[Prior art] In recent years, image processing technology has been applied to various industries, and images of objects such as industrial products and agricultural and marine products are input and processed by a computer system to classify and distinguish the objects. Visual recognition devices that measure and measure information are rapidly becoming popular.

画像処理技術分野における視覚認識装置は、主として対
象物に関するモノクロの映像信号を2値化し、2値化さ
れた情報量により対象物を分類、判別している。また、
近年、高精度な認識を行うために情報量が多いカラー画
像を用いている。
Visual recognition devices in the field of image processing technology mainly binarize monochrome video signals related to objects, and classify and discriminate objects based on the amount of binarized information. Also,
In recent years, color images with a large amount of information have been used to perform highly accurate recognition.

従来の視覚認識装置は、カラーカメラにより撮像された
カラー画像の赤(R)、緑(G)、青(B)の値により
対象領域を抽出したり対象物の反射特性などの特有な条
件、画像状態に応じたアルゴリズム及びコンピュータプ
ログラム等により複数の対象領域を識別するように構成
されている。
Conventional visual recognition devices extract a target area based on the red (R), green (G), and blue (B) values of a color image captured by a color camera, or extract specific conditions such as the reflection characteristics of the target. It is configured to identify a plurality of target areas using algorithms, computer programs, etc. according to image conditions.

[発明が解決しようとする課題] しかしながら、上述の従来の視覚認識装置には、対象物
に特有な条件、画像状態に応じたアルゴリズム及びコン
ピュータプログラム等により画像を判定するので、対象
物毎にアルゴリズム及びコンピュータプログラムを作成
しなければならず、また、対象物を分類、判別等するた
めの判別条件か多くなると、アルゴリズム及びコンピュ
ータプログラムの作成が困難であり、判定条件を最適化
するために、アルゴリズム及びコンピュータプログラム
中の未定数の値を試行錯誤により決定しなければならな
いという問題点がある。
[Problems to be Solved by the Invention] However, the above-mentioned conventional visual recognition device judges an image using an algorithm and a computer program depending on the conditions specific to the object and the image state. In addition, as the number of discrimination conditions for classifying and distinguishing objects increases, it becomes difficult to create algorithms and computer programs. Another problem is that the values of undefined values in the computer program must be determined by trial and error.

本発明の目的は、対象物に応じて判定条件を考慮し自ら
を最適化することができるニューラルネットワークを用
いた視覚認識装置を提供することにある。
An object of the present invention is to provide a visual recognition device using a neural network that can optimize itself by considering judgment conditions depending on the object.

[課題を解決するための手段] 本発明の上述の目的は、対象領域のカラー映像信号から
色分解した各色成分の画素値を抽出する入力手段と、画
素値を識別するためのデータをニューラルネットワーク
に入力してニューラルネットワークからコード信号を出
力する複数の判定手段と、制御信号及び画素値により複
数の判定手段を制御する制御手段と、判定手段から出力
されたコード信号により認識結果を出力する出力手段と
を備えており、制御手段は、制御信号を複数の判定手段
に出力して制御信号の第1のモードに応じて複数の判定
手段の一部のニューラルネットワークをデータにより調
整し、制御信号の第2のモードに応じて調整されたニュ
ーラルネットワークに画素値を入力するよう構成されて
いることを特徴とする視覚認識装置によって達成される
[Means for Solving the Problem] The above-mentioned object of the present invention is to provide an input means for extracting pixel values of each color component separated from a color video signal of a target area, and a neural network for inputting data for identifying pixel values. a plurality of determination means that input code signals from the neural network and output them from the neural network; a control means that controls the plurality of determination means using control signals and pixel values; and an output that outputs recognition results based on the code signals output from the determination means. The control means outputs the control signal to the plurality of determination means, adjusts some neural networks of the plurality of determination means with the data according to the first mode of the control signal, and outputs the control signal to the plurality of determination means. This is achieved by a visual recognition device, characterized in that it is configured to input pixel values into a neural network that is adjusted according to a second mode of the invention.

[作用] 入力手段は対象領域のカラー映像信号から色分解した各
色成分の画素値を抽出し、複数の判定手段は画素値を識
別するためのデータをニューラルネットワークに入力し
てニューラルネットワークからコード信号を出力し、制
御手段は制御信号の第1のモードに応じて複数の判定手
段の一部のニューラルネットワークをデータにより調整
し、制御信号の第2のモードに応じて調整されたニュー
ラルネットワークに画素値を入力するように複数の判定
手段を制御し、出力手段は判定手段から出力されたコー
ド信号により認識結果を出力する。
[Operation] The input means extracts pixel values of each color component separated from the color video signal of the target area, and the plurality of determination means inputs data for identifying pixel values to a neural network and outputs a code signal from the neural network. The control means adjusts some of the neural networks of the plurality of determination means using data according to the first mode of the control signal, and outputs pixels to the neural network adjusted according to the second mode of the control signal. A plurality of determination means are controlled to input values, and the output means outputs a recognition result based on the code signal output from the determination means.

[実施例] 以下、本発明の視覚認識装置の一実施例を図面を参照し
て説明する。
[Example] Hereinafter, an example of the visual recognition device of the present invention will be described with reference to the drawings.

第1図は、本実施例における視覚認識装置の構成を示す
ブロック図である。
FIG. 1 is a block diagram showing the configuration of a visual recognition device in this embodiment.

第1図に示す視覚認識装置は、入力手段としての画像入
力部21、制御手段としての判定モジュール制御部22
、複数の判定手段としての複数の判定モジュール23及
び出力手段としての認識結果コード出力制御部24によ
り構成されている。
The visual recognition device shown in FIG. 1 includes an image input section 21 as an input means, and a determination module control section 22 as a control means.
, a plurality of determination modules 23 as a plurality of determination means, and a recognition result code output control section 24 as an output means.

次に上記の視覚認識装置の動作を説明する。Next, the operation of the above visual recognition device will be explained.

画像入力部21は、カラーカメラ(図示せず)から出力
された対象物の映像信号を入力して色分解した各色成分
としての色彩情報である赤(R)。
The image input unit 21 inputs a video signal of an object output from a color camera (not shown) and separates it into red (R), which is color information as each color component.

緑(G)、青(B)の各画素値を作成する。Create each pixel value of green (G) and blue (B).

判定モジュール制御部22は、色彩情報である赤(R)
、緑(G)、青(B)の値及び制御信号としての動作モ
ード信号Sにより各判定モジュール23を制御する。
The determination module control unit 22 selects red (R), which is color information.
, green (G), and blue (B) and an operation mode signal S as a control signal.

認識結果コード出力制御部24は、色彩情報である赤(
R)、緑(G)、青(B)の値より認識結果コードを出
力する各判定モジュール23からの認識結果コードを受
は取り、判定モジュール制御部22により選択された判
定モジュール23からの認識結果コードを出力する。
The recognition result code output control unit 24 outputs red (
Receives the recognition result code from each determination module 23 that outputs a recognition result code based on the values of R), green (G), and blue (B), and performs recognition from the determination module 23 selected by the determination module control unit 22. Output the result code.

第2図は、色彩情報である赤(R)、緑(G)。Figure 2 shows color information of red (R) and green (G).

青(B)の値を表すR,G、 Bを3軸にそれぞれ配分
して、各軸についてNR7NG、NBに分割した様子を
示したものである(ここで、NRlNG、NBは、それ
ぞれ正の整数を表す)。なお、色彩情報R,G、  B
値は、0.0〜1.0に正規化されている。
This shows how R, G, and B, which represent the values of blue (B), are distributed to three axes, and each axis is divided into NR7NG and NB (here, NR1NG and NB are positive values, respectively). represents an integer). In addition, color information R, G, B
Values are normalized from 0.0 to 1.0.

第1図に示す判定モジュール制御部22は、第2図の分
割された小さな各長方体領域に対して1っの判定モジュ
ール23をそれぞれ選択する。即ち、色彩情報R,G、
  B値に対応する判定モジュール23への制御信号を
オンに、それ以外、即ち色彩情報R,G、  B値に対
応していない判定モジュール23への制御信号をオフに
する。
The determination module control unit 22 shown in FIG. 1 selects one determination module 23 for each of the divided small rectangular regions shown in FIG. 2. That is, color information R, G,
The control signal to the determination module 23 corresponding to the B value is turned on, and the control signal to the determination module 23 that does not correspond to the color information R, G, B value is turned off.

従って、第1図のように色彩情報R,G、  B値を分
割した場合には、N XN xNB個の判定G モジュール23が必要である。
Therefore, when the color information R, G, and B values are divided as shown in FIG. 1, N×N×NB determination modules 23 are required.

第3図に上述の判定モジュール23の構成を示す。FIG. 3 shows the configuration of the above-mentioned determination module 23.

判定モジュール23は、認識処理部25、サンプルデー
タ格納部26、サンプルデータ作成部27及び認識結果
コード出力部28によって構成されている。
The determination module 23 includes a recognition processing section 25, a sample data storage section 26, a sample data creation section 27, and a recognition result code output section 28.

上記の認識処理部25は、多層ニューラルネットにより
構成されている(詳細は後述する)。
The recognition processing unit 25 described above is configured by a multilayer neural network (details will be described later).

サンプルデータ格納部26は、サンプルデータ作成部2
7によって作成されたデータとしてのサンプルデータを
格納するように構成されている(詳細は後述する)。
The sample data storage unit 26 includes the sample data creation unit 2
7 (details will be described later).

サンプルデータ作成部27は、上述の判定モジュール制
御部22から動作モード信号、制御信号及び色彩情報R
,G、  B値を入力して、サンプル画像により対象物
の代表的な1つ又は複数の部分的な対象領域を指定し、
指定された対象領域内の色彩情報R,G、  Hの各画
素値及び指定された対象領域に対する認識結果教師信号
、即ちサンプルデータを作成する。
The sample data creation unit 27 receives an operation mode signal, a control signal, and color information R from the above-described determination module control unit 22.
, G, and B values to specify one or more representative partial regions of interest of the object by the sample image;
Each pixel value of color information R, G, and H within the designated target area and a recognition result teacher signal for the designated target area, that is, sample data are created.

また、対象領域を複数の領域に分割する場合、各領域毎
に異なる認識結果教師信号を与えて同様なデータを作成
する。
Furthermore, when dividing the target region into a plurality of regions, a different recognition result teacher signal is given to each region to create similar data.

第4図はサンプルデータ作成部27によって作成された
データフォーマットを示す。
FIG. 4 shows the data format created by the sample data creation section 27.

第4図に示すように、色彩情報R,G、  Bの各画素
値は領域Aに格納され、その認識結果を識別するための
認識結果教師信号値は領域Bにそれぞれ格納されている
As shown in FIG. 4, pixel values of color information R, G, and B are stored in area A, and recognition result teacher signal values for identifying the recognition results are stored in area B, respectively.

認識結果教師信号値は、「0」又は「1」の2値で表現
され、異なる領域として認識する場合には異なる2値パ
ターンを与える。従って、認識結果教師信号値の2値パ
ターンの要素数は、分類される領域数に応じて変化させ
ることができる。
The recognition result teacher signal value is expressed as a binary value of "0" or "1", and when recognizing different areas, a different binary pattern is given. Therefore, the number of elements of the binary pattern of the recognition result teacher signal value can be changed depending on the number of regions to be classified.

判定モジュール23への制御信号として動作モード信号
の動作モードが第1のモードとしての学習モードである
時、サンプルデータ格納部26に格納されたサンプルデ
ータの各画素値R,G、  Bを認識処理部25に入力
し、教師信号として認識結果教師信号値を認識処理部2
5に与えて認識結果教師信号値を出力するように認識処
理部25内の多層ニューラルネット内の可塑性の重み結
合を変更する。
When the operation mode of the operation mode signal as a control signal to the determination module 23 is the learning mode as the first mode, each pixel value R, G, B of the sample data stored in the sample data storage section 26 is recognized. The recognition result teacher signal value is input to the recognition processing unit 25 as a teacher signal.
5 and outputs the recognition result teacher signal value.

また、動作モード信号の動作モードが第2のモトとして
の認識処理モードである時、判定モジュール23に入力
される色彩情報R,G、  B値を認識処理部25に入
力し、上述の学習モードにおいて適応された認識処理部
25内の多層型ニューラルネットにより認識結果信号を
認識結果コード出力部28に出力する。認識結果コード
出力部28は、この認識結果信号を認識結果コードに変
換して出力する。
Further, when the operation mode of the operation mode signal is the recognition processing mode as the second moto, the color information R, G, and B values input to the determination module 23 are input to the recognition processing section 25, and the above-mentioned learning mode is input. A recognition result signal is output to the recognition result code output unit 28 by the multilayer neural network in the recognition processing unit 25 adapted in the above. The recognition result code output unit 28 converts this recognition result signal into a recognition result code and outputs it.

判定モジュール23は、上記の認識結果コード及び制御
信号を出力信号として出力する。
The determination module 23 outputs the above recognition result code and control signal as an output signal.

第5図は上述の認識処理部25の構成を示す。FIG. 5 shows the configuration of the recognition processing section 25 described above.

第5図に示すように認識処理部25は、生体の神経回路
網を模した多層型ニューラルネットワークとしての多層
パーセプトロン型ニューラルネットワークで構成されて
いる。
As shown in FIG. 5, the recognition processing section 25 is composed of a multilayer perceptron type neural network, which is a multilayer neural network imitating a biological neural network.

次に認識処理部25の構成及び動作を説明する。Next, the configuration and operation of the recognition processing section 25 will be explained.

認識処理部25を構成しているニューラルネットワーク
は、判定モジュール制御部22及びサンプルデータ格納
部26からの入力信号をそれぞれ入力する入力層29、
認識結果信号を出力する出力層31、入力層29と出力
層31との中間に位置する中間層30、そして出力層3
1の出力信号及び教師信号の両方の信号によって誤差信
号を算出する誤差信号算出部32を備えている。
The neural network constituting the recognition processing unit 25 includes an input layer 29 that receives input signals from the determination module control unit 22 and the sample data storage unit 26, respectively;
An output layer 31 that outputs a recognition result signal, an intermediate layer 30 located between the input layer 29 and the output layer 31, and an output layer 3.
The error signal calculating section 32 calculates an error signal based on both the output signal of No. 1 and the teacher signal.

上記の入力層29、中間層30及び出力層31の各層は
、ニューロンと呼ばれる素子33(詳細は後述する)を
それぞれ複数有している。
Each of the input layer 29, intermediate layer 30, and output layer 31 described above each has a plurality of elements 33 called neurons (details will be described later).

入力層29の各素子33と中間層30の各素子33との
間及び中間層30の各素子33と出力層31の各素子3
3との間は、可塑的な重み、即ち、強弱の変化ができる
結合34により結ばれている。
Between each element 33 of the input layer 29 and each element 33 of the intermediate layer 30, and between each element 33 of the intermediate layer 30 and each element 3 of the output layer 31
3 is connected by a connection 34 that has a plastic weight, that is, the strength can be changed.

しかし、入力層29、中間層30及び出力層31の各層
内では、各素子33は互いに独立しており、結合されて
いない。
However, within each of the input layer 29, intermediate layer 30, and output layer 31, the elements 33 are independent from each other and are not coupled.

第5図では、中間層30は1つの層により構成されてい
るが、中間層30を複数の層で構成することもできる。
In FIG. 5, the intermediate layer 30 is composed of one layer, but the intermediate layer 30 can also be composed of a plurality of layers.

なお、中間層30を複数の層で構成する場合にも、層間
の結合、素子の構成及び機能は1つの層で構成する場合
と同様である。
Note that even when the intermediate layer 30 is composed of a plurality of layers, the coupling between the layers, the structure and function of the element are the same as when it is composed of one layer.

第6図に上述の素子33を示す。FIG. 6 shows the above-mentioned element 33.

素子33は、複数の入力に対して単一の信号を出力する
ように構成されている多入力−1出力の素子である。
The element 33 is a multi-input-one-output element configured to output a single signal in response to a plurality of inputs.

jを正の整数として第j番目の素子を素子33で表し、
素子33□の入力信号をy、、入力信号yに対する重み
をw 、 1、しきい値をθ5、特性関数をf1出出力
値をy、とすると、出力信号y。
The jth element is represented by element 33, where j is a positive integer,
Assuming that the input signal of the element 33□ is y, the weight for the input signal y is w, 1, the threshold value is θ5, and the characteristic function is f1, the output value is y, then the output signal is y.

は次式■、特性関数f (z) は次式■によりそれぞ
れ表される。
is expressed by the following equation (■), and the characteristic function f (z) is expressed by the following equation (■).

y、=(Σ y、w+4−θ1)    ・・・■f 
(x)= 1/ (1+exp  (−I))    
 −■第5図に示す認識処理部25は、動作モード信号
Sが学習モードの場合、入力信号y1に対して適切な出
力信号y、を出力するようにニューラルネットワークを
適応させる。
y, = (Σ y, w+4-θ1)...■f
(x)=1/ (1+exp (-I))
-■ The recognition processing unit 25 shown in FIG. 5 adapts the neural network to output an appropriate output signal y in response to the input signal y1 when the operation mode signal S is the learning mode.

以下、ニューラルネットワークを適応させるために必要
な、重みw 、 Hの値の設定及び変更に関して誤差逆
伝播学習法を用いて説明する。
Setting and changing the values of weights w and H, which are necessary to adapt the neural network, will be explained below using the error backpropagation learning method.

サンプルデータ格納部26からの各画素値(R)、(G
)、(B)が入力層29の入力信号として与えられ、認
識結果教師信号の2値パターンが誤差信号算出部32に
与えられると、上記の式■、■に従って入力層29、中
間層30及び出力層31の各素子33が順次出力値を演
算し、誤差信号算出部32が出力層31の各素子33の
出力信号と認識結果教師信号とによる誤差信号を算出す
る。
Each pixel value (R), (G
), (B) are given as input signals to the input layer 29, and the binary pattern of the recognition result teacher signal is given to the error signal calculation unit 32, the input layer 29, intermediate layer 30 and Each element 33 of the output layer 31 sequentially calculates an output value, and the error signal calculation unit 32 calculates an error signal based on the output signal of each element 33 of the output layer 31 and the recognition result teacher signal.

誤差信号としては、次式■、■によって算出される値を
考えることかできる。
As the error signal, values calculated by the following equations (1) and (2) can be considered.

ε。=    Σ (y’  L、  −t、、、) 
2  ・・・■ε=Σ ε。
ε. = Σ (y' L, -t,,,)
2...■ε=Σε.

・・・■ ここで、選択したサンプルデータ番号Cの教師信号であ
る2値パターンの第i番目の素子33.の値をjl、c
1選択したサンプルデータ番号Cの入力信号に対する出
力層31の第i番目の素子33.の出力信号値をyol
、。とすると、式■に示すε。は、選択した入力信号及
び出力信号のサンプルデータ番号Cに対する誤差信号値
を表す。
...■ Here, the i-th element 33. of the binary pattern which is the teaching signal of the selected sample data number C. jl, c
1. The i-th element 33 of the output layer 31 for the input signal of the selected sample data number C. The output signal value of yol
,. Then, ε shown in equation (■). represents the error signal value for sample data number C of the selected input signal and output signal.

また、式■に示すεはサンプルデータ格納部26に格納
された全サンプルデータに対する誤差信号の総和を表す
Further, ε shown in equation (2) represents the sum of error signals for all sample data stored in the sample data storage section 26.

上記の式■で表される誤差信号の総和(以後、誤差と称
する)εを最小にするために、最急傾斜法を用いて各結
合34と各素子33のしきい値に対する誤差εの偏微分
を求めて誤差εを最小化する。
In order to minimize the sum of error signals (hereinafter referred to as error) ε expressed by the above formula Find the differential and minimize the error ε.

次に、入力層29、中間層30、出力層31の合計が、
mを正の整数としてm層、即ち中間層30が(m −2
)層の場合について説明する。
Next, the total of the input layer 29, intermediate layer 30, and output layer 31 is
m layers, that is, the intermediate layer 30, where m is a positive integer, are (m −2
) layer will be explained.

まず、入力層29、中間層30及び出力層31に順次番
号を付し、最後の層31を第m層とすると、層31とそ
の前の第(m−1)層の層30との間の結合34の修正
量は、次式■で表される。
First, if the input layer 29, intermediate layer 30, and output layer 31 are sequentially numbered, and the last layer 31 is the m-th layer, then between the layer 31 and the previous (m-1)th layer 30, The amount of modification of the connection 34 is expressed by the following formula (■).

ΔW″−’ z(1)=  aδm 、 y m −1
+bΔw” t、 l (1−1)・・・■δ1 (y’ +、    t i、e )  y”+、  
 (1y“i、c)・・・■ ここで、6w” 、、(t)は時刻tにおける第m層の
第i番目の素子33.と第(m−1)層の第j番目の素
子33.との間の結合34の修正値、y″は選択したサ
ンプルデータ番号Cの入力信号に対する第m層の第i番
目の素子33.の出力信号値、V m 1 、 、eは
選択したサンプルデータ番号Cの入力信号に対する第(
m−1)層の第j番目の素子33、の出力信号値、aは
学習速度定数(傾斜率)、bは最急傾斜法における収束
時の振動を押さえる定数をそれぞれ示す。
ΔW″−′ z(1)= aδm , y m −1
+bΔw" t, l (1-1)...■δ1 (y' +, ti, e) y"+,
(1y"i,c)...■ Here, 6w", , (t) is the i-th element 33. of the m-th layer at time t. and the jth element 33 of the (m-1)th layer. , y'' is the output signal value of the i-th element 33 of the m-th layer for the input signal of the selected sample data number C, V m 1, , e is the selected sample data The first (
In the output signal value of the j-th element 33 of the m-1) layer, a represents a learning rate constant (slope rate), and b represents a constant for suppressing vibration at the time of convergence in the steepest slope method.

第m層の出力層31の各素子33のしきい値θの修正量
は次式で表される。
The amount of modification of the threshold value θ of each element 33 of the output layer 31 of the m-th layer is expressed by the following equation.

Δθ’ 、(1) = −aδ’  +bΔθ1t  (+−1)  ・・・■
ここでΔθ” i (1) は時刻tにおける第m層の
第1番目の素子331のしきい値θ1の修正値を示す。
Δθ', (1) = -aδ' +bΔθ1t (+-1)...■
Here, Δθ” i (1) represents a modified value of the threshold value θ1 of the first element 331 of the m-th layer at time t.

また、第(m−1)層と第(m−2)層との間の結合3
4の修正量は次式■で表される。
In addition, the coupling 3 between the (m-1)th layer and the (m-2)th layer
The correction amount of 4 is expressed by the following formula (■).

△W″′−2() (1) − −aδ”−’ + V−2*・ +bΔW”−2h、 H(+−1)     ・・・0
6m−1゜ y″−1□。(1y”−’ L。)× Σδ″′I Wm−’ 1. +  (1)     
 ”’■ここで、Δw″−2*、 、  (0は時刻t
における第(m−1)層の第3番目の素子33.と第(
m−2)層の第に番目の素子33にとの間の結合34の
修正値、w” 、、、 (+)は時刻tにおける第m層
の第1番目の素子33、と第(m−1)層の第j番目の
素子33、との間の結合34の修正値、y″〜23.は
選択したサンプルデータ番号Cの入力信号に対する第(
m−2)層の第に番目の素子33.の出力信号値をそれ
ぞれ表す。
△W″'-2() (1) − -aδ”-' + V-2*・ +bΔW”-2h, H(+-1) ・・・0
6m-1゜y"-1□. (1y"-' L.) x Σδ"'I Wm-' 1. + (1)
"'■Here, Δw"-2*, , (0 is time t
The third element 33 of the (m-1)th layer in . and number (
(+) is the correction value of the coupling 34 between the first element 33 of the m-th layer and the (m-th -1) Modified value of the coupling 34 between the jth element 33 of the layer, y''~23. is the first (
m-2) the th element 33 of the layer. represents the output signal value of

また、第(m−1)層の各素子33のしきい値θ1の修
正量は次式0で表される。
Further, the amount of modification of the threshold value θ1 of each element 33 of the (m-1)th layer is expressed by the following equation 0.

Δθ”−’ +  (1)  = −aδ”−’ 、 十bΔθffi’1l−1)   
・@1ここでΔθ″′−’ I (1)は、時刻tにお
ける第(m−1)層の第j番目の素子33.のしきい値
θ、の修正値を示す。
Δθ"-' + (1) = -aδ"-', 10bΔθffi'1l-1)
-@1 Here, Δθ'''-' I (1) represents the modified value of the threshold value θ of the j-th element 33 of the (m-1)th layer at time t.

更に、第(m−2)層と第(m−3)との結合34から
第2層と第1層との結合34までについては、上記の式
■、■及び■を同様に適用して再帰的に順次演算する。
Furthermore, from the connection 34 between the (m-2)th layer and the (m-3)th layer to the connection 34 between the second layer and the first layer, the above formulas ■, ■, and ■ are similarly applied. Operates recursively and sequentially.

このように、認識処理部25内の階層ネットワークの全
結合34の修正を、サンプルデータ格納部26に格納さ
れた全サンプルデータについて行い、更にこの処理を上
記の式■の誤差信号の値が収束するまで繰り返し行うこ
とにより、全サンプルデータに適合した認識処理、即ち
、全サンプルデータに適合した素子33間の結合状態を
得る。
In this way, all the connections 34 of the hierarchical network in the recognition processing unit 25 are corrected for all the sample data stored in the sample data storage unit 26, and this process is further performed until the value of the error signal in the above formula (■) converges. By repeating the process until the recognition process is performed until the recognition process is performed, a recognition process that is compatible with all the sample data, that is, a connection state between the elements 33 that is compatible with all the sample data is obtained.

次に動作モード信号Sが認識処理モードである場合の動
作を説明する。
Next, the operation when the operation mode signal S is the recognition processing mode will be explained.

動作モード信号Sが認識処理モードである場合、画像入
力部21により作成された各画素値(R)(G)(B)
が、判定モジュール制御部22を通して認識処理部25
の入力層29に入力される。
When the operation mode signal S is the recognition processing mode, each pixel value (R) (G) (B) created by the image input unit 21
is processed by the recognition processing unit 25 through the determination module control unit 22.
is input to the input layer 29 of.

認識処理部25の入力層29の各素子33は、上記の式
■、■に従って出力信号値を演算する。
Each element 33 of the input layer 29 of the recognition processing section 25 calculates an output signal value according to the above equations (2) and (2).

同様に、中間層30、出力層31の各素子33は、式■
、■に従って入力層29、中間層30の出力信号値と結
合34の値とにより出力信号値を演算する。
Similarly, each element 33 of the intermediate layer 30 and output layer 31 is expressed by the formula
, (2), the output signal value is calculated based on the output signal value of the input layer 29 and the intermediate layer 30 and the value of the coupling 34.

認識結果コード出力部28は、出力層31の出力信号値
(出力信号ベクトル)により、サンプルデータ格納部2
6に格納された2値パターンの認識結果教師信号ベクト
ルの中で最も近いものを選択し、その2値パターンに対
するコード信号としての認識結果コード信号を出力する
The recognition result code output section 28 outputs the sample data storage section 2 based on the output signal value (output signal vector) of the output layer 31.
The closest one among the recognition result teacher signal vectors of the binary patterns stored in 6 is selected, and a recognition result code signal as a code signal for the binary pattern is output.

上述のように、各判定モジュール23は、判定モジュー
ル制御部22からの動作モード信号、(選択信号からな
る)制御信号及び色彩情報R,G、  B値を入力し、
制御信号に従って動作し、認識結果コード信号と入力さ
れた制御信号を出力する。
As described above, each determination module 23 receives the operation mode signal, control signal (consisting of a selection signal), and color information R, G, and B values from the determination module control unit 22, and
It operates according to the control signal and outputs the recognition result code signal and the input control signal.

各判定モジュール23から出力される上記の出力信号は
認識結果コード出力制御部24に入力される。
The above output signals output from each determination module 23 are input to the recognition result code output control section 24.

認識結果コード出力制御部24は、各判定モジュール2
3より出力される制御信号のうち、選択信号がオンの判
定モジュール23からの認識結果コード信号を認識結果
コードとして出力し、他の判定モジュールからの認識結
果コード信号を無視する。
The recognition result code output control unit 24 controls each determination module 2.
3, the recognition result code signal from the determination module 23 whose selection signal is on is output as the recognition result code, and the recognition result code signals from other determination modules are ignored.

上述のように、色彩情報R,G、B値に対して、判定モ
ジュール制御部22は、1つの判定モジュール23を選
択する。また、学習モードにおいて、判定モジュール2
3を構成する多層ニューラルネットは、サンプルデータ
格納部26のサンプルデータに適合する。
As described above, the determination module control unit 22 selects one determination module 23 for the color information R, G, and B values. Also, in the learning mode, the judgment module 2
The multi-layer neural network configuring 3 is adapted to the sample data in the sample data storage section 26.

上記の操作を全対象領域内での色彩情報R,G。The above operation is performed on color information R and G within the entire target area.

B値に対して行えば、各判定モジュール23にそれぞれ
対応するサンプルデータが、全ての判定モジュール23
に対して作成され、対応する各サンプルデータにそれぞ
れの判定モジュール23を適合させて、全ての判定モジ
ュール23を適合させることかできる。全ての判定モジ
ュール23を適合させた後は、色彩情報R,G、  B
値を与えて、判定モジュール制御部22により対応する
判定モジュール23が選択される。そして、選択された
判定モジュール23を構成している多層ニューラルネッ
トが、適切な認識結果コード信号を出力し、判定モジュ
ール23から適切な認識結果コードを得る。また色彩情
報R,G、  B値の空間を小空間に分割し、それぞれ
に1つの判定モジュール23が与えられているので分割
せずに1つの判定モジュールで認識を行う場合に比べて
1つの判定モジュール当りの学習データが少なくなる。
If this is done for the B value, the sample data corresponding to each determination module 23 will be applied to all determination modules 23.
It is possible to adapt all the determination modules 23 by adapting each determination module 23 to each corresponding sample data created for and corresponding to the sample data. After all the judgment modules 23 are adapted, the color information R, G, B
The corresponding determination module 23 is selected by the determination module control unit 22 by giving the value. Then, the multilayer neural network constituting the selected determination module 23 outputs an appropriate recognition result code signal, and obtains an appropriate recognition result code from the determination module 23. In addition, since the space of color information R, G, and B values is divided into small spaces and one judgment module 23 is given to each small space, one judgment is required compared to the case where recognition is performed with one judgment module without dividing. The amount of learning data per module is reduced.

また、学習モードでは各判定モジュールが並列に動作す
ることができる。
Further, in the learning mode, each determination module can operate in parallel.

[発明の効果] 対象領域のカラー映像信号から色分解した各色成分の画
素値を抽出する入力手段と、画素値を識別するためのデ
ータをニューラルネットワークに入力してニューラルネ
ットワークからコード信号を出力する複数の判定手段と
、画素値及び制御信号により複数の判定手段を制御する
制御手段と、判定手段から出力されたコード信号により
認識結果を出力する出力手段とを備えており、制御手段
は、制御信号を複数の判定手段に出力して制御信号の第
1のモードに応じて複数の判定手段の一部のニューラル
ネットワークをデータにより調整し、制御信号の第2の
モードに応じて調整されたニューラルネットワークに画
素値を入力するように構成されているので、未知の画像
についても、その画像について予めアルゴリズム及びコ
ンピュータプログラムを作成することなく対象領域を抽
出して複数の領域を識別することができると共に高速化
で学習させることができ、その結果、判定条件を考慮し
て対象物を認識することができる。
[Effects of the Invention] An input means for extracting pixel values of each color component separated from a color video signal of a target area, inputting data for identifying pixel values to a neural network, and outputting a code signal from the neural network. It is equipped with a plurality of determination means, a control means for controlling the plurality of determination means using pixel values and a control signal, and an output means for outputting a recognition result using a code signal output from the determination means, and the control means is configured to control Outputting a signal to a plurality of determination means, adjusting some neural networks of the plurality of determination means according to the first mode of the control signal using data, and adjusting the neural network according to the second mode of the control signal. Since it is configured to input pixel values into the network, it is possible to extract target regions and identify multiple regions even for unknown images without creating algorithms and computer programs in advance for that image. It is possible to perform learning at high speed, and as a result, it is possible to recognize the target object by considering the determination conditions.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の視覚認識装置における一実施例の構成
を示すブロック図、第2図は色彩情報空間の分割方法を
説明するための図、第3図は第1図に示す視覚認識装置
の判定モジュールの一構成例を示すブロック図、第4図
は色彩情報RGBの各画素値及び認識結果教師信号値の
格納領域の一構成例を示す図、第5図は第3図に示す判
定モジュールの認識処理部の一構成例を示す図、第6図
は第5図に示す認識処理部の各層におけるの素子を示す
図である。 21・・・画像入力部、22・・・判定モジュール制御
部、23・・・判定モジュール、24・・・認識結果コ
ード出力制御部、25・・・認識処理部、26・・・サ
ンプルデータ格納部、27・・・サンプルデータ作成部
、28・・・認識結果コード出力部、29・・・入力層
、30・・・中間層、31・・・出力層、32・・・誤
差信号算出部、33・・・素子、34・・・結合。 第1図 第5図
FIG. 1 is a block diagram showing the configuration of one embodiment of the visual recognition device of the present invention, FIG. 2 is a diagram for explaining a method of dividing color information space, and FIG. 3 is the visual recognition device shown in FIG. 1. FIG. 4 is a block diagram showing an example of the configuration of the determination module of FIG. FIG. 6 is a diagram showing an example of the structure of the recognition processing section of the module. FIG. 6 is a diagram showing elements in each layer of the recognition processing section shown in FIG. 21... Image input unit, 22... Judgment module control unit, 23... Judgment module, 24... Recognition result code output control unit, 25... Recognition processing unit, 26... Sample data storage 27... Sample data creation unit, 28... Recognition result code output unit, 29... Input layer, 30... Intermediate layer, 31... Output layer, 32... Error signal calculation unit , 33...element, 34...coupling. Figure 1 Figure 5

Claims (1)

【特許請求の範囲】[Claims] 対象領域のカラー映像信号から色分解した各色成分の画
素値を抽出する入力手段と、前記画素値を識別するため
のデータをニューラルネットワークに入力して当該ニュ
ーラルネットワークからコード信号を出力する複数の判
定手段と、制御信号及び前記画素値により前記複数の判
定手段を制御する制御手段と、前記判定手段から出力さ
れた前記コード信号により認識結果を出力する出力手段
とを備えており、前記制御手段は、前記制御信号を前記
複数の判定手段に出力して該制御信号の第1のモードに
応じて該複数の判定手段の一部のニューラルネットワー
クを前記データにより調整し、前記制御信号の第2のモ
ードに応じて前記調整されたニューラルネットワークに
前記画素値を入力するように構成されていることを特徴
とする視覚認識装置。
an input means for extracting pixel values of each color component color-separated from a color video signal of a target area; and a plurality of determinations for inputting data for identifying the pixel values into a neural network and outputting a code signal from the neural network. means, a control means for controlling the plurality of determination means using a control signal and the pixel value, and an output means for outputting a recognition result using the code signal output from the determination means, the control means comprising: , outputting the control signal to the plurality of determination means, adjusting a neural network of some of the plurality of determination means according to the first mode of the control signal, and adjusting a neural network of a part of the plurality of determination means according to the first mode of the control signal; A visual recognition device, characterized in that it is configured to input the pixel value to the adjusted neural network according to a mode.
JP2194201A 1990-07-23 1990-07-23 Visual recognizing device Pending JPH0478974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2194201A JPH0478974A (en) 1990-07-23 1990-07-23 Visual recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2194201A JPH0478974A (en) 1990-07-23 1990-07-23 Visual recognizing device

Publications (1)

Publication Number Publication Date
JPH0478974A true JPH0478974A (en) 1992-03-12

Family

ID=16320637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2194201A Pending JPH0478974A (en) 1990-07-23 1990-07-23 Visual recognizing device

Country Status (1)

Country Link
JP (1) JPH0478974A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072954A (en) * 1996-12-20 2000-06-06 Fuji Photo Optical Co., Ltd. Interlocking mechanism for camera
JP2019139479A (en) * 2018-02-09 2019-08-22 Kddi株式会社 Program, device, and method for estimating context using a plurality of recognition engines

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072954A (en) * 1996-12-20 2000-06-06 Fuji Photo Optical Co., Ltd. Interlocking mechanism for camera
JP2019139479A (en) * 2018-02-09 2019-08-22 Kddi株式会社 Program, device, and method for estimating context using a plurality of recognition engines

Similar Documents

Publication Publication Date Title
US7697765B2 (en) Learning method and device for pattern recognition
KR100442835B1 (en) Face recognition method using artificial neural network, and the apparatus using thereof
US5247584A (en) Signal processing unit for classifying objects on the basis of signals from sensors
KR101607224B1 (en) Dynamic object classification
EP1168247A2 (en) Method for varying an image processing path based on image emphasis and appeal
US8295637B2 (en) Method of classifying red-eye objects using feature extraction and classifiers
EP0596412A1 (en) Image clustering apparatus
JPH0737087A (en) Picture processor
WO2005119589A1 (en) Information processing method and apparatus, and image pickup device
CN111242046B (en) Ground traffic sign recognition method based on image retrieval
USRE42255E1 (en) Color sensor
US6735579B1 (en) Static memory processor
US6694049B1 (en) Multimode invariant processor
CN110891172B (en) Dead pixel detection and correction device
JPH0478974A (en) Visual recognizing device
Fadzil et al. Human face recognition using neural networks
JP3344731B2 (en) Chestnut shape identification method
Terrillon et al. Invariant neural-network based face detection with orthogonal Fourier-Mellin moments
JP3731672B2 (en) Pattern extraction device
JPH08305855A (en) Method and device for pattern recognition of image
JPH0535710A (en) Learning method/device for neural network
JPH05101187A (en) Image recognition device and its learning method
JP2021018754A (en) Object identification method, information processing device, information processing program, optical filter and lighting device
JPH03265981A (en) Visual recognizing device
JPH08138025A (en) Method for determining picture discrimination parameter and picture recognition method