JPH09134433A - Image recognition system - Google Patents

Image recognition system

Info

Publication number
JPH09134433A
JPH09134433A JP8230787A JP23078796A JPH09134433A JP H09134433 A JPH09134433 A JP H09134433A JP 8230787 A JP8230787 A JP 8230787A JP 23078796 A JP23078796 A JP 23078796A JP H09134433 A JPH09134433 A JP H09134433A
Authority
JP
Japan
Prior art keywords
unit
input
layer
intermediate layer
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8230787A
Other languages
Japanese (ja)
Other versions
JP3324726B2 (en
Inventor
Toru Nakagawa
徹 中川
Hajime Kitagawa
一 北川
Yasuhiro Tamai
康弘 玉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP23078796A priority Critical patent/JP3324726B2/en
Publication of JPH09134433A publication Critical patent/JPH09134433A/en
Application granted granted Critical
Publication of JP3324726B2 publication Critical patent/JP3324726B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a system capable of performing an image recognition with high recognition accuracy and in real time and low in cost by providing a single density detection unit for correcting the fluctuation of the illumination at the time of inputting image information between an input layer and an intermediate layer. SOLUTION: A multilayered type neural network composed by hierarchizing an input layer 22, an intermediate layer 23 and an output layer 24 is used as an image recognition means 20. A single density detection unit 25 for correcting the fluctuation of the illumination at the time of inputting image information is provided between the input layer 22 and the intermediate layer 23. The single density detection unit 25 is composed by being coupled with each unit of the intermediate layer 23 by the weight which is preliminarily learned for each unit composing the intermediate layer 23 and by being coupled with each unit of the input layer 22 by the weight which is preliminarily learned in each unit composing the input layer 22. Thus, the extraction accuracy of the feature necessary for the discrimination of an image can be secured, regardless of the fluctuation of the illumination.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明の画像認識装置は、入
力層、中間層、および出力層が階層化されて成る多層型
ニューラルネットワークを用いて、入力された画像情報
の認識を実行する画像認識装置に関し、特に、照明変動
を補正するための濃度検出ユニットを備えた画像認識装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The image recognition apparatus of the present invention uses a multi-layered neural network in which an input layer, an intermediate layer, and an output layer are layered to perform image recognition for input image information. The present invention relates to an apparatus, and more particularly, to an image recognition apparatus including a density detection unit for correcting illumination fluctuation.

【0002】[0002]

【従来の技術】従来この種の画像認識装置9として、例
えば、図4に示すようなものがある。光学的に照明され
た対象物体1からの光学画像情報は、入力手段2に装置
された画像入力部2bによって画像情報として電気信号
に変換された後、画像処理を行う画素数を低減するため
に12×12画素程度のモザイク処理が行われていた。
2. Description of the Related Art As a conventional image recognition device 9 of this type, there is one shown in FIG. 4, for example. In order to reduce the number of pixels for which image processing is performed after the optical image information from the optically illuminated target object 1 is converted into an electric signal as image information by the image input unit 2b provided in the input means 2. Mosaic processing of about 12 × 12 pixels has been performed.

【0003】さらに識別に必要な特徴の抽出精度を確保
するために、入力手段2に装置された前処理部2cが、
光学的に入力された原画像情報に対していくつかの前処
理を予め実行していた。前処理として、具体的には、白
黒256階調程度の、所謂、階調の正規化を予め実行し
ていた。
Further, in order to ensure the extraction accuracy of the features required for identification, the preprocessing unit 2c installed in the input means 2
Some pre-processing was previously performed on the optically input original image information. As preprocessing, specifically, so-called gradation normalization of about 256 gradations in black and white has been executed in advance.

【0004】前処理をされた画像情報は、入力手段2に
装置されたディレイライン2dを介して画像認識手段
(則ち、ニューラルネットワーク)3に入力されてい
た。画像認識手段(則ち、ニューラルネットワーク)3
においては、入力層3aを構成する各ユニットは、中間
層3bを構成する全ユニットについて予め学習された重
みによって当該全ユニットの各々と結合されており、さ
らに、中間層3bを構成する各ユニットは、出力層3c
を構成する全ユニットについて予め学習された重みによ
って当該全ユニットの各々と結合されていた。
The preprocessed image information has been input to the image recognition means (that is, a neural network) 3 via the delay line 2d provided in the input means 2. Image recognition means (that is, neural network) 3
In, each unit forming the input layer 3a is connected to each of all the units forming the intermediate layer 3b by a weight learned in advance for all units forming the intermediate layer 3b, and each unit forming the intermediate layer 3b is , Output layer 3c
Were combined with each of all the units by pre-learned weights.

【0005】このような構成の画像認識手段(則ち、ニ
ューラルネットワーク)3は、バックプロパゲーション
等の学習規則を用いて予め教示学習されている各層間の
重みと、所定の演算とに従って、入力されたモザイク化
画像情報の認識を実行していた。
The image recognizing means (that is, a neural network) 3 having such a configuration inputs according to a predetermined calculation and weights between layers which are taught and learned in advance by using a learning rule such as backpropagation. The recognition of the mosaicked image information was performed.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の画像認識手段3では、識別に必要な特徴の抽
出精度を確保するために、原画像情報に対して階調の正
規化等の前処理を予め実行する必要があるため処理時間
がかかり、実時間で高精度の画像識別を行うためには、
高速な画像認識手段や高速・高精度な撮像装置が要求さ
れるという問題点があった。
However, in the conventional image recognition means 3 as described above, in order to secure the extraction accuracy of the features necessary for the identification, the original image information is not subjected to the gradation normalization or the like. Since it is necessary to execute the processing in advance, it takes a long processing time. In order to perform highly accurate image identification in real time,
There is a problem that a high-speed image recognition means and a high-speed and high-accuracy imaging device are required.

【0007】また、階調処理等の前処理をされた画像情
報やモザイク化画像情報のような濃淡画像情報から特徴
を抽出する手法は、対象物体の照明条件に強く依存する
ため、照明変動に弱いという問題点があった。本発明
は、このような従来の問題点に着目してなされたもの
で、階調処理等の前処理をされた画像情報に代えてビデ
オ信号情報を入力層に入力される入力画像情報として用
いる方式を採用するとともに、画像入力時の照明の変動
を補正するための単一の濃度検出ユニットを入力層と中
間層との間に設けることによって、画像識別に必要な特
徴の抽出精度を照明変動にかかわらず確保できるととも
に、高い認識精度でかつ実時間で画像識別が可能な、装
置コストの低い画像認識装置を提供することを目的とし
ている。
Further, the method of extracting a feature from grayscale image information such as image information and mosaiced image information that has been preprocessed such as gradation processing strongly depends on the illumination condition of the target object, and is therefore dependent on the illumination variation. There was a problem that it was weak. The present invention has been made in view of such a conventional problem, and uses video signal information as input image information to be input to the input layer instead of image information that has been preprocessed such as gradation processing. In addition to adopting the method, a single density detection unit for correcting the fluctuation of illumination when inputting an image is provided between the input layer and the intermediate layer, and the extraction accuracy of the features required for image identification is adjusted to the illumination fluctuation. It is an object of the present invention to provide an image recognition device that can be secured regardless of the above, and that can perform image recognition with high recognition accuracy and in real time and that has a low device cost.

【0008】[0008]

【課題を解決するための手段】かかる目的を達成するた
めの要旨とするところは、以下の各項に存する。 [1]項 入力層22、中間層23、および出力層24が階層化さ
れて成る多層型ニューラルネットワークを画像認識手段
20として用いて、入力された画像情報の認識を実行す
る画像認識装置10において、前記入力層22と前記中
間層23との間に、画像情報入力時の照明の変動を補正
するための単一の濃度検出ユニット25を設けた、こと
を特徴とする画像認識装置10。
Means for achieving the object are as follows. [1] Item In the image recognition apparatus 10 that recognizes input image information by using a multilayer neural network in which an input layer 22, an intermediate layer 23, and an output layer 24 are layered as the image recognition means 20. The image recognition device 10 is characterized in that a single density detection unit 25 is provided between the input layer 22 and the intermediate layer 23 to correct a variation in illumination when inputting image information.

【0009】[2]項 前記単一の濃度検出ユニット25は、前記中間層23を
構成する各ユニットについて予め学習された重みによっ
て当該各ユニットと各々結合されるとともに、前記入力
層22を構成する各ユニットについて予め学習された重
みによって当該各ユニットと各々結合されて成る、こと
を特徴とする[1]項に記載の画像認識装置10。
[2] Item The single concentration detecting unit 25 is connected to each unit constituting the intermediate layer 23 by a weight learned in advance for each unit, and also constitutes the input layer 22. The image recognition device 10 according to the item [1], which is formed by combining each unit with a weight learned in advance for each unit.

【0010】[3]項 前記入力層22を構成する各ユニットは、前記中間層2
3を構成する全ユニットについて予め学習された重みに
よって当該全ユニットの各々と結合されて成り、さら
に、前記中間層23を構成する各ユニットは、前記出力
層24を構成する全ユニットについて予め学習された重
みによって当該全ユニットの各々と結合されて成る、こ
とを特徴とする[1]項、または[2]項に記載の画像
認識装置10。
[3] Item Each unit constituting the input layer 22 is composed of the intermediate layer 2
3 is combined with each of all the units by the weights learned in advance for all the units forming 3, and each unit forming the intermediate layer 23 is learned in advance about all the units forming the output layer 24. The image recognition device 10 according to item [1] or [2], wherein the image recognition device 10 is combined with each of the units by different weights.

【0011】[4]項 前記単一の濃度検出ユニット25の入出力関数は、シグ
モイド関数25Aである、ことを特徴とする[1]項〜
[3]項に記載の画像認識装置10。
[4] Item [1] to [1], wherein the input / output function of the single concentration detecting unit 25 is a sigmoid function 25A.
The image recognition device 10 according to the item [3].

【0012】[5]項 前記単一の濃度検出ユニット25と前記中間層23を構
成する各ユニット間の重み、または、前記単一の濃度検
出ユニット25と前記入力層22を構成する各ユニット
間の重みは、前記シグモイド関数25Aへの入力値が所
定の範囲内に収まるように予め学習される、ことを特徴
とする[1]項〜[4]項に記載の画像認識装置10。
[5] Item Weight between the single concentration detecting unit 25 and each unit forming the intermediate layer 23, or between the single concentration detecting unit 25 and each unit forming the input layer 22. The image recognition device 10 according to the items [1] to [4], wherein the weights are learned in advance so that the input value to the sigmoid function 25A falls within a predetermined range.

【0013】[6]項 前記中間層23は、前記単一の濃度検出ユニット25か
らの出力の変化に応じて、自己の増幅率を可変すること
により、前記照明変動を補正することができる、ことを
特徴とする[1]項〜[5]項に記載の画像認識装置1
0。
[6] Item The intermediate layer 23 can correct the illumination variation by changing its own amplification factor in accordance with a change in the output from the single concentration detection unit 25. The image recognition device 1 according to items [1] to [5].
0.

【0014】[0014]

【発明の実施の形態】以下、図面に基づき本発明の実施
の形態を説明する。図1は本発明の実施の形態にかかる
画像認識装置10を示す機能ブロック図である。図2は
本発明の実施の形態にかかる単一の濃度検出ユニット2
5の入出力関数(シグモイド関数25A)の特性を示す
グラフである。図3は本発明の実施の形態にかかる単一
の濃度検出ユニット25の出力値と画像階調値との関係
を示すグラフである。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a functional block diagram showing an image recognition device 10 according to an embodiment of the present invention. FIG. 2 shows a single concentration detection unit 2 according to the embodiment of the present invention.
5 is a graph showing characteristics of an input / output function (sigmoid function 25A) of No. 5; FIG. 3 is a graph showing the relationship between the output value and the image gradation value of the single density detection unit 25 according to the embodiment of the present invention.

【0015】始めに、発明の実施の形態の画像認識装置
10の構成を説明する。本発明の実施の形態の画像認識
装置10は、入力層22、中間層23、および出力層2
4が階層化されて成る多層型ニューラルネットワークを
画像認識手段20として用いて、入力された画像情報の
認識を実行する装置において、図1に示すように、対象
物体11の光学的な画像情報を読み取って電気的な入力
画像情報に変換するための入力手段30と、入力画像情
報に対して画像情報の認識を実行して対象物体11の識
別を実行することができる画像認識手段20とを備えて
成る。
First, the configuration of the image recognition apparatus 10 according to the embodiment of the invention will be described. The image recognition device 10 according to the embodiment of the present invention includes an input layer 22, an intermediate layer 23, and an output layer 2.
In a device that recognizes input image information by using a multilayer neural network in which 4 is hierarchized as the image recognition unit 20, as shown in FIG. An input means 30 for reading and converting the input image information into an electrical input image, and an image recognition means 20 capable of performing recognition of the image information on the input image information and identifying the target object 11 are provided. Consists of

【0016】対象物体11は光学的な照明手段(図示せ
ず)によって、照明が施されている。入力手段30に装
置された光学レンズ系31は、照明された対象物体11
の光学画像情報を次段の画像入力部34上にフォーカシ
ングするためのものである。
The target object 11 is illuminated by an optical illumination means (not shown). The optical lens system 31 mounted on the input means 30 is used for illuminating the target object 11
This is for focusing the optical image information on the image input unit 34 of the next stage.

【0017】光学レンズ系31の後段に装置された画像
入力部34は、対象物体11の光学画像情報を電気的な
入力画像情報に変換するものである。具体的には、12
×12=144画素を有するCCDエリアセンサのよう
な光電変換デバイスを用いている。
An image input section 34 provided downstream of the optical lens system 31 converts optical image information of the target object 11 into electrical input image information. Specifically, 12
A photoelectric conversion device such as a CCD area sensor having × 12 = 144 pixels is used.

【0018】画像入力部34の後段に装置された信号増
幅処理部(具体的には、ビデオアンプ)32は、画像入
力部34が生成した画像情報を電気的に増幅するビデオ
信号増幅処理を実行してビデオ信号情報を生成するもの
である。本発明の実施の形態の画像入力部34は、具体
的には、ビデオアンプ等の画像入力用の電子回路および
入力された画像情報の画像処理を実行するためのコンピ
ュータハードウェア等でその主要部を実現することがで
きる。
A signal amplification processing unit (specifically, a video amplifier) 32 provided in a stage subsequent to the image input unit 34 executes a video signal amplification process for electrically amplifying the image information generated by the image input unit 34. Then, the video signal information is generated. The image input unit 34 according to the embodiment of the present invention is specifically an electronic circuit for image input such as a video amplifier and computer hardware for executing image processing of input image information. Can be realized.

【0019】ディレイライン33は、シリアル伝送され
てきたビデオ信号情報をパラレル変換して、画像認識手
段(多層型ニューラルネットワーク)20の入力層22
の各ユニットに伝送するものである。本発明の実施の形
態のディレイライン33は、具体的には、半導体ICで
実現することができる。
The delay line 33 converts the serially transmitted video signal information into a parallel signal and inputs it to the input layer 22 of the image recognition means (multilayer neural network) 20.
Is transmitted to each unit. The delay line 33 according to the embodiment of the present invention can be specifically realized by a semiconductor IC.

【0020】次に、発明の実施の形態の画像認識手段
(多層型ニューラルネットワーク)20の構成を説明す
る。本発明の実施の形態の画像認識手段(多層型ニュー
ラルネットワーク)20は、バックプロパゲーション等
の学習規則を用いて予め教示学習されている各層間の重
みと、所定の演算(則ち、ニューロ演算)とに従って、
入力された画像情報の認識を実行するものにおいて、図
1に示すように、入力層22と単一の濃度検出ユニット
25と中間層23と出力層24とから構成されている。
Next, the configuration of the image recognition means (multilayer neural network) 20 according to the embodiment of the invention will be described. The image recognizing means (multilayer neural network) 20 according to the embodiment of the present invention uses a predetermined calculation (that is, a neuro calculation) between the weights between the layers that are taught and learned in advance by using a learning rule such as backpropagation. ) And
As shown in FIG. 1, the input image information recognition unit includes an input layer 22, a single density detection unit 25, an intermediate layer 23, and an output layer 24.

【0021】本発明の実施の形態の画像認識手段(多層
型ニューラルネットワーク)20は、具体的には、コン
ピュータ上でのプログラムによって達成することができ
る。入力層22を構成する各ユニットは、中間層23を
構成する全ユニットについて予め学習された重みによっ
て当該中間層23の全ユニットの各々と結合されて成
る。
The image recognition means (multilayer neural network) 20 according to the embodiment of the present invention can be specifically realized by a program on a computer. Each unit forming the input layer 22 is combined with each of all the units of the intermediate layer 23 by weights learned in advance for all the units forming the intermediate layer 23.

【0022】入力層22を構成するユニット数は、画像
入力部34の画素数(則ち、12×12=144)と同
数だけ設けられている。本発明の実施の形態では、14
4ユニットに設定している。入力層22に入力される入
力画像情報は、所定の画素数(具体的には、12×12
=144)を用いたビデオ信号情報である。
The number of units forming the input layer 22 is the same as the number of pixels of the image input unit 34 (that is, 12 × 12 = 144). In the embodiment of the present invention, 14
It is set to 4 units. The input image information input to the input layer 22 has a predetermined number of pixels (specifically, 12 × 12).
= 144).

【0023】中間層23を構成する各ユニットは、出力
層24を構成する全ユニットについて予め学習された重
みによって当該全ユニットの各々と結合されて成る。中
間層23を構成するユニット数は、可変とすることがで
きるが、本発明の実施の形態では、35ユニットに設定
している。
Each unit forming the intermediate layer 23 is connected to each of all the units forming the output layer 24 by a weight learned in advance for all the units forming the output layer 24. The number of units forming the intermediate layer 23 can be variable, but is set to 35 units in the embodiment of the present invention.

【0024】出力層24を構成する各ユニットは、中間
層23を構成する全ユニットについて予め学習された重
みによって当該全ユニットの各々と結合されて成る。出
力層24を構成するユニット数は、識別したい対象物体
11の種類数だけ設けられている。本発明の実施の形態
では、硬貨の判定等に応用可能なように、12ユニット
程度に設定している。
Each unit forming the output layer 24 is combined with each of all the units forming the intermediate layer 23 according to the weight learned in advance. The number of units forming the output layer 24 is equal to the number of types of the target object 11 to be identified. In the embodiment of the present invention, about 12 units are set so that it can be applied to the determination of coins and the like.

【0025】画像情報入力時の照明の変動を補正するた
めの単一の濃度検出ユニット25は、入力層22と中間
層23との間に設けられて成る。単一の濃度検出ユニッ
ト25は、中間層23を構成する各ユニットについて予
め学習された重みによって当該中間層23の各ユニット
と各々結合されるとともに、入力層22を構成する各ユ
ニットについて予め学習された重みによって当該入力層
22の各ユニットと各々結合されて成る。
A single density detecting unit 25 for correcting the fluctuation of the illumination when the image information is input is provided between the input layer 22 and the intermediate layer 23. The single concentration detection unit 25 is coupled to each unit of the intermediate layer 23 by a weight previously learned for each unit of the intermediate layer 23, and is also pre-learned for each unit of the input layer 22. Each unit of the input layer 22 is connected to each unit by the weight.

【0026】具体的には、単一の濃度検出ユニット25
が、中間層23を構成する各ユニットについて予め学習
された重みによって当該中間層23の各ユニットと各々
結合されるとともに、入力層22を構成する各ユニット
について予め学習された重みによって当該入力層22の
各ユニットと各々結合されて成る。
Specifically, a single concentration detection unit 25
Is coupled to each unit of the intermediate layer 23 by the weight learned in advance for each unit forming the intermediate layer 23, and the input layer 22 is connected by each weight learned in advance for each unit forming the input layer 22. Each unit is connected to each unit.

【0027】また、単一の濃度検出ユニット25の入出
力関数として、図2に示すようなシグモイド関数25A
を用いている。次に、発明の実施の形態の動作を説明す
る。初めに、発明の実施の形態の画像認識装置10の動
作を説明する。
As an input / output function of the single concentration detecting unit 25, a sigmoid function 25A as shown in FIG.
Is used. Next, the operation of the embodiment of the invention will be described. First, the operation of the image recognition apparatus 10 according to the embodiment of the invention will be described.

【0028】本発明の実施の形態の画像認識装置10
は、入力層22、中間層23、および出力層24が階層
化されて成る多層型ニューラルネットワークを画像認識
手段20として用いて、入力された画像情報の認識を実
行することができる。多層型ニューラルネットワーク
は、高等な動物の神経回路網の仕組みを模倣し、情報処
理を行うことができる。多層型ニューラルネットワーク
20を利用したアプリケーションの特徴として、学習済
みのネットワークは、複雑な計算なしで、出力を得るこ
とができる。
Image recognition apparatus 10 according to the embodiment of the present invention
Can use the multi-layered neural network in which the input layer 22, the intermediate layer 23, and the output layer 24 are hierarchized as the image recognition means 20 to execute the recognition of the input image information. The multi-layered neural network can perform information processing by imitating the mechanism of a neural network of higher animals. As a feature of the application using the multi-layered neural network 20, the learned network can obtain the output without complicated calculation.

【0029】画像情報の認識とは、与えられた入力され
た画像情報から識別に必要な特徴を抽出し、その特徴か
ら物体を与えられたカテゴリーに割り当てることであ
る。各カテゴリーは、出力層24の各ユニットに対応し
ている。通常、カテゴリーの数と同数のユニットが出力
層24に設定されている。カテゴリーの割り当て結果
は、出力層24のどのユニットが興奮状態になっている
かを検出することによって、知ることができる。
The recognition of image information is to extract a feature required for identification from given input image information and assign an object to a given category from the feature. Each category corresponds to each unit of the output layer 24. Normally, the same number of units as the number of categories are set in the output layer 24. The category assignment result can be known by detecting which unit in the output layer 24 is excited.

【0030】また、本発明の実施の形態の画像認識装置
10は、階調処理等の前処理をされた画像情報に代えて
ビデオ信号情報を入力層に入力される入力画像情報とし
て用いることによって、画像識別に必要な特徴の抽出精
度を照明変動にかかわらず確保できる。
Further, the image recognition apparatus 10 according to the embodiment of the present invention uses the video signal information as the input image information input to the input layer in place of the image information which has been subjected to the preprocessing such as gradation processing. , It is possible to secure the extraction accuracy of the features necessary for image identification regardless of the illumination fluctuation.

【0031】本発明の実施の形態では、画素数を12×
12=144としている。そこで、分割数は対象物体1
1の複雑さ(具体的には、細かさ)に依存するが、計算
の簡略化、および実用化される画像認識装置10を安価
で簡単なものにするために、最低限の分割数を用いてい
る。
In the embodiment of the present invention, the number of pixels is 12 ×.
12 = 144. Therefore, the number of divisions is the target object 1
Although depending on the complexity (specifically, the fineness) of 1, the minimum number of divisions is used in order to simplify the calculation and make the image recognition apparatus 10 to be put into practical use inexpensive and simple. ing.

【0032】これにより、高い認識精度でかつ実時間で
画像識別が可能な、装置コストの低い画像認識装置を実
現できる。さらに、画像情報入力時の照明の変動を補正
するための単一の濃度検出ユニット25を入力層22と
中間層23との間に設けることによって、画像識別に必
要な特徴の抽出精度を照明変動にかかわらず確保できる
画像認識装置10を実現できる。
As a result, it is possible to realize an image recognizing device which has a high recognizing accuracy and can identify an image in real time and which has a low device cost. Further, by providing a single density detection unit 25 for correcting the fluctuation of the illumination at the time of inputting the image information between the input layer 22 and the intermediate layer 23, the extraction accuracy of the features necessary for the image identification is improved. It is possible to realize the image recognition device 10 that can be secured regardless of the above.

【0033】次に、発明の実施の形態の入力手段30の
動作を説明する。対象物体11は、光学的な照明手段
(図示せず)によって照明が施されている。入力手段3
0に装置された光学レンズ系31は、照明された対象物
体11の光学画像情報を次段の画像入力部34上にフォ
ーカシングすることができる。
Next, the operation of the input means 30 according to the embodiment of the invention will be described. The target object 11 is illuminated by an optical illumination means (not shown). Input means 3
The optical lens system 31 installed at 0 can focus the optical image information of the illuminated target object 11 on the image input unit 34 of the next stage.

【0034】光学レンズ系31の後段に装置された画像
入力部(具体的には、12×12=144画素を有する
CCDエリアセンサ)34は、対象物体11の光学画像
情報を電気的な入力画像情報に変換することができる。
画像入力部34の後段に装置された信号増幅処理部32
は、画像入力部34が生成した画像情報を電気的に増幅
するビデオ信号増幅処理を実行してビデオ信号情報を生
成することができる。
An image input unit (specifically, a CCD area sensor having 12 × 12 = 144 pixels) 34 provided in the subsequent stage of the optical lens system 31 receives the optical image information of the target object 11 as an electrical input image. It can be converted into information.
The signal amplification processing unit 32 installed in the latter stage of the image input unit 34
Can generate video signal information by executing a video signal amplification process for electrically amplifying the image information generated by the image input unit 34.

【0035】ディレイライン33は、シリアル伝送され
てきたビデオ信号情報をパラレル変換して、画像認識手
段(多層型ニューラルネットワーク)20の入力層22
の各ユニットに伝送することができる。次に、発明の実
施の形態の画像認識手段(多層型ニューラルネットワー
ク)20の動作を説明する。
The delay line 33 converts the serially transmitted video signal information into a parallel signal and inputs it to the input layer 22 of the image recognition means (multilayer neural network) 20.
Can be transmitted to each unit. Next, the operation of the image recognition means (multilayer neural network) 20 according to the embodiment of the invention will be described.

【0036】本発明の実施の形態の画像認識手段(多層
型ニューラルネットワーク)20は、バックプロパゲー
ション等の学習規則を用いて予め教示学習されている各
層間の重みと、所定の演算(則ち、ニューロ演算)とに
従って、入力された画像情報の認識を実行することがで
きる。
The image recognition means (multilayer neural network) 20 according to the embodiment of the present invention uses the weights between the layers, which are preliminarily taught and learned by using a learning rule such as backpropagation, and a predetermined calculation (that is, a rule). , Neuro operation) and recognition of the input image information can be performed.

【0037】識別の判定は、画像情報を提示したときの
出力層24の出力値を調べ、該当するユニットが最大値
を示しているかどうかを調べることによって実行され
る。また判定基準として、従来技術を用い、正解、誤
り、および該当なしの三つの基準を設けている。該当な
しとは、最大の出力をmax1、第2位の出力をmax
2とした時、max1<0.4あるいは(max2−m
ax1)/max1<0.2の場合である。
The determination of the identification is performed by checking the output value of the output layer 24 when the image information is presented and checking whether or not the corresponding unit shows the maximum value. In addition, as a criterion, the conventional technique is used, and three criteria are set: correct answer, error, and not applicable. Not applicable means the maximum output is max1 and the second output is max.
2, when max1 <0.4 or (max2-m
This is the case where ax1) / max1 <0.2.

【0038】本発明の実施の形態の画像認識手段(多層
型ニューラルネットワーク)20は、具体的には、コン
ピュータ上でのプログラムによって実現されている。単
一の濃度検出ユニット25と中間層23を構成する各ユ
ニット間の重み、または、単一の濃度検出ユニット25
と入力層22を構成する各ユニット間の重みは、シグモ
イド関数25Aへの入力値が所定の範囲内(則ち、図2
の非線形部分を囲んだ破線部分)に収まるように予め学
習される。
The image recognition means (multilayer neural network) 20 of the embodiment of the present invention is specifically realized by a program on a computer. The weight between the single concentration detection unit 25 and each unit constituting the intermediate layer 23, or the single concentration detection unit 25
As for the weight between each unit constituting the input layer 22 and the input layer 22, the input value to the sigmoid function 25A is within a predetermined range (that is, FIG.
Is pre-learned so that it fits within the non-linear portion of the broken line).

【0039】シグモイド関数25Aにおいては、図2に
示すように、シグモイド関数25Aの入力を負にして、
その非線形な出力部分を用いている。また、図3に示す
ように、単一の濃度検出ユニット25の出力は、全体の
階調が増加するにつれ、指数関数的に減少するものであ
る。
In the sigmoid function 25A, the input of the sigmoid function 25A is made negative as shown in FIG.
The non-linear output part is used. Further, as shown in FIG. 3, the output of the single density detection unit 25 decreases exponentially as the overall gradation increases.

【0040】中間層23は、単一の濃度検出ユニット2
5からの出力の変化に応じて、自己の増幅率を可変する
ことにより、照明変動を補正することができる。次に、
発明の実施の形態の学習動作を説明する。出力層24
は、識別すべき対象物体11の数分のユニットを設け、
各々に対応させる。ビデオ信号情報に対応する個別の識
別信号を教師とし、対象出力ユニットに0.9、その他
のユニットに0.1を与え、これを繰り返すことによ
り、バックプロパゲーション学習を行う。
The intermediate layer 23 is a single concentration detection unit 2
Illumination fluctuation can be corrected by changing the amplification factor of itself according to the change of the output from 5. next,
The learning operation of the embodiment of the invention will be described. Output layer 24
Is provided with units for the number of target objects 11 to be identified,
Correspond to each. Back-propagation learning is performed by using the individual identification signal corresponding to the video signal information as a teacher, giving 0.9 to the target output unit and 0.1 to the other units, and repeating this.

【0041】以下にその学習のプロセスを示す。 [プロセス1]:提示パターンに対応する教師信号Tk
と出力層24の出力Okとの差から、出力層24とつな
がる重みと中間層23のしきい値に対する誤差δkを求
める。
The learning process is shown below. [Process 1]: Teacher signal Tk corresponding to presentation pattern
And the output Ok of the output layer 24, the error δk with respect to the weight connected to the output layer 24 and the threshold of the intermediate layer 23 is obtained.

【0042】[プロセス2]:重みおよびしきい値の初
期値として、−0.3から0.3までの乱数値を与え
る。また、バックプロパゲーション学習時の係数α、β
の値は1.0としている。
[Process 2]: As the initial values of the weight and the threshold value, a random number value from -0.3 to 0.3 is given. Also, the coefficients α and β during the back propagation learning
Is set to 1.0.

【0043】[プロセス3]:全対象物体11に対し、
出力層24の出力ユニットにおける出力値と正解値との
平均2乗誤差が一定値内となったとき(則ち、学習が収
束したとき)、学習を終了する。
[Process 3]: For all target objects 11,
When the mean square error between the output value and the correct value in the output unit of the output layer 24 is within a certain value (that is, when the learning has converged), the learning ends.

【0044】なお、重みとしきい値を修正する際、振動
を減らし、学習の収束を早めるために慣性項を与えても
よい。この様なアルゴリズムに従い学習された多層型ニ
ューラルネットワーク20は、ネットワークの重みとし
きい値を修正し、識別に必要な特徴抽出能力をそのネッ
トワーク内に構築する。
When the weights and thresholds are modified, an inertial term may be given in order to reduce vibration and accelerate learning convergence. The multi-layered neural network 20 learned according to such an algorithm corrects the weight and threshold value of the network, and constructs the feature extraction capability required for identification in the network.

【0045】以上のプロセスによって、学習済み多層型
ニューラルネットワーク20は、抽出された特徴から、
その物体が何であるか、カテゴリーに結びつける能力を
持つようになる。この様な画像認識手段(多層型ニュー
ラルネットワーク)20においては、中間層23におい
て識別に必要な特徴が抽出され、出力層24はその特徴
から出力を決定する。
Through the above process, the learned multilayer neural network 20 is
You have the ability to associate what the object is with the category. In such an image recognition means (multilayer neural network) 20, a feature required for identification is extracted in the intermediate layer 23, and the output layer 24 determines an output from the feature.

【0046】以上説明したように本発明の実施の形態に
よれば、画像情報入力時の照明の変動を補正するための
単一の濃度検出ユニット25を入力層22と中間層23
との間に設けることによって、画像識別に必要な特徴の
抽出精度を照明変動にかかわらず確保できる高い認識精
度でかつ実時間で画像識別が可能な、装置コストの低い
画像認識装置10を実現できる。
As described above, according to the embodiment of the present invention, the single density detecting unit 25 for correcting the fluctuation of the illumination when the image information is input is provided with the input layer 22 and the intermediate layer 23.
By providing the image recognition apparatus 10 between and, it is possible to realize the image recognition apparatus 10 at a low apparatus cost, which is capable of ensuring the extraction accuracy of the features required for the image recognition regardless of the illumination variation and capable of performing the image recognition in real time. .

【0047】具体的には、工場の製品検査等の実時間で
の識別処理が要求される現場において、高速なパソコン
程度の余り装置コストのかからない画像認識装置10を
用いて、実時間で画像情報を識別することができるよう
になる。
More specifically, in a field where real-time identification processing such as product inspection in a factory is required, image information can be obtained in real time by using an image recognition device 10 that does not require much device cost such as a high-speed personal computer. Will be able to identify.

【0048】[0048]

【発明の効果】本発明によれば、画像情報入力時の照明
の変動を補正するための単一の濃度検出ユニットを入力
層と中間層との間に設けることによって、画像識別に必
要な特徴の抽出精度を照明変動にかかわらず確保でき、
さらに高い認識精度でかつ実時間で画像識別が可能な、
装置コストの低い画像認識装置を実現できる。
According to the present invention, by providing a single density detection unit for correcting the fluctuation of illumination when inputting image information between the input layer and the intermediate layer, the characteristics required for image identification are provided. The extraction accuracy can be secured regardless of lighting fluctuations,
Image recognition is possible with higher recognition accuracy and in real time.
An image recognition device with low device cost can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態にかかる画像認識装置を示
す機能ブロック図である。
FIG. 1 is a functional block diagram showing an image recognition device according to an embodiment of the present invention.

【図2】本発明の実施の形態にかかる単一の濃度検出ユ
ニットの入出力関数(シグモイド関数)の特性を示すグ
ラフである。
FIG. 2 is a graph showing characteristics of an input / output function (sigmoid function) of a single concentration detection unit according to the embodiment of the present invention.

【図3】本発明の実施の形態にかかる単一の濃度検出ユ
ニットの出力値と画像階調値との関係を示すグラフであ
る。
FIG. 3 is a graph showing the relationship between the output value and the image gradation value of a single density detection unit according to the embodiment of the present invention.

【図4】従来の画像認識装置を示す機能ブロック図であ
る。
FIG. 4 is a functional block diagram showing a conventional image recognition device.

【符号の説明】[Explanation of symbols]

10 画像認識装置 11 対象物体 20 画像認識手段(多層型ニューラルネットワー
ク) 22 入力層 23 中間層 24 出力層 25 単一の濃度検出ユニット 25A シグモイド関数 30 入力手段 31 光学レンズ系 32 ビデオ信号増幅処理部 33 ディレイライン 34 画像入力部
10 image recognition device 11 target object 20 image recognition means (multilayer neural network) 22 input layer 23 intermediate layer 24 output layer 25 single density detection unit 25A sigmoid function 30 input means 31 optical lens system 32 video signal amplification processing section 33 Delay line 34 Image input section

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力層、中間層、および出力層が階層化
されて成る多層型ニューラルネットワークを画像認識手
段として用いて、入力された画像情報の認識を実行する
画像認識装置において、 前記入力層と前記中間層との間に、画像情報入力時の照
明の変動を補正するための単一の濃度検出ユニットを設
けた、 ことを特徴とする画像認識装置。
1. An image recognition apparatus for recognizing input image information by using a multilayer neural network, which comprises an input layer, an intermediate layer, and an output layer, as a layer, as image recognition means. An image recognition device, characterized in that a single density detection unit is provided between the intermediate layer and the intermediate layer to correct a variation in illumination when image information is input.
【請求項2】 前記単一の濃度検出ユニットは、前記中
間層を構成する各ユニットについて予め学習された重み
によって当該各ユニットと各々結合されるとともに、前
記入力層を構成する各ユニットについて予め学習された
重みによって当該各ユニットと各々結合されて成る、こ
とを特徴とする請求項1に記載の画像認識装置。
2. The single concentration detecting unit is respectively coupled to each unit constituting the intermediate layer by a weight learned in advance for each unit constituting the intermediate layer, and is learned in advance for each unit constituting the input layer. The image recognition apparatus according to claim 1, wherein the image recognition apparatus is configured to be coupled to each of the units according to the weighted weight.
【請求項3】 前記入力層を構成する各ユニットは、前
記中間層を構成する全ユニットについて予め学習された
重みによって当該全ユニットの各々と結合されて成り、 さらに、前記中間層を構成する各ユニットは、前記出力
層を構成する全ユニットについて予め学習された重みに
よって当該全ユニットの各々と結合されて成る、 ことを特徴とする請求項1、または2に記載の画像認識
装置。
3. Each unit forming the input layer is connected to each of all the units forming the intermediate layer by a weight learned in advance for all the units forming the intermediate layer, and each unit forming the intermediate layer is formed. The image recognition device according to claim 1 or 2, wherein the unit is connected to each of all the units that constitute the output layer by weights learned in advance.
【請求項4】 前記単一の濃度検出ユニットの入出力関
数は、シグモイド関数である、 ことを特徴とする請求項1〜3に記載の画像認識装置。
4. The image recognition apparatus according to claim 1, wherein the input / output function of the single density detection unit is a sigmoid function.
【請求項5】 前記単一の濃度検出ユニットと前記中間
層を構成する各ユニット間の重み、または、前記単一の
濃度検出ユニットと前記入力層を構成する各ユニット間
の重みは、前記シグモイド関数への入力値が所定の範囲
内に収まるように予め学習される、 ことを特徴とする請求項1〜4に記載の画像認識装置。
5. The weight between the single concentration detection unit and each unit forming the intermediate layer, or the weight between the single concentration detection unit and each unit forming the input layer is the sigmoid. The image recognition apparatus according to claim 1, wherein the input value to the function is learned in advance so that it falls within a predetermined range.
【請求項6】 前記中間層は、前記単一の濃度検出ユニ
ットからの出力の変化に応じて、自己の増幅率を可変す
ることにより、前記照明変動を補正することができる、 ことを特徴とする請求項1〜5に記載の画像認識装置。
6. The intermediate layer can correct the illumination variation by changing its own amplification factor in accordance with a change in the output from the single concentration detection unit. The image recognition device according to claim 1.
JP23078796A 1995-09-04 1996-08-30 Image recognition device Expired - Fee Related JP3324726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23078796A JP3324726B2 (en) 1995-09-04 1996-08-30 Image recognition device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7-226500 1995-09-04
JP22650095 1995-09-04
JP23078796A JP3324726B2 (en) 1995-09-04 1996-08-30 Image recognition device

Publications (2)

Publication Number Publication Date
JPH09134433A true JPH09134433A (en) 1997-05-20
JP3324726B2 JP3324726B2 (en) 2002-09-17

Family

ID=26527193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23078796A Expired - Fee Related JP3324726B2 (en) 1995-09-04 1996-08-30 Image recognition device

Country Status (1)

Country Link
JP (1) JP3324726B2 (en)

Also Published As

Publication number Publication date
JP3324726B2 (en) 2002-09-17

Similar Documents

Publication Publication Date Title
US5692065A (en) Apparatus and method for determining image quality
JPH0737087A (en) Picture processor
KR20060119968A (en) Apparatus and method for feature recognition
US11170475B2 (en) Image noise reduction using stacked denoising auto-encoder
Cho et al. A comparison of rule-based, k-nearest neighbor, and neural net classifiers for automated industrial inspection
Metzner et al. Automated optical inspection of soldering connections in power electronics production using convolutional neural networks
JPH09134433A (en) Image recognition system
WO2020093732A1 (en) Method and device for authenticating paper product, and storage medium
CN116257816A (en) Accompanying robot emotion recognition method, device, storage medium and equipment
JPH08327559A (en) Device and method for inspecting pattern
US11599981B2 (en) Image processing system
KR100338473B1 (en) Face detection method using multi-dimensional neural network and device for the same
JP2973016B2 (en) Digital radiation image recognition system
KR20210112992A (en) System and method of quality adjustment of object detection based on polyggon
JPH06273346A (en) Soldered state inspection equipment
JPH10340349A (en) Image processor
JP3225179B2 (en) Pattern defect inspection equipment
JPH08138025A (en) Method for determining picture discrimination parameter and picture recognition method
CN112329497A (en) Target identification method, device and equipment
JPH0538334A (en) Method of recognizing field of view of collimation of radiation
WO2004008380A1 (en) Recognition of banknote denominations in automatic money processing
JPH05303627A (en) Soldering state checking device
JP3173690B2 (en) Visual inspection device by neural network
JPH11339089A (en) Quality decision device
CN117372375A (en) Welding defect detection method and device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020528

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080705

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080705

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090705

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090705

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100705

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110705

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees