JPH08315141A - Image recognition device - Google Patents

Image recognition device

Info

Publication number
JPH08315141A
JPH08315141A JP7115756A JP11575695A JPH08315141A JP H08315141 A JPH08315141 A JP H08315141A JP 7115756 A JP7115756 A JP 7115756A JP 11575695 A JP11575695 A JP 11575695A JP H08315141 A JPH08315141 A JP H08315141A
Authority
JP
Japan
Prior art keywords
image
neuron
output
input
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7115756A
Other languages
Japanese (ja)
Inventor
Yuichi Ishizuka
裕一 石塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP7115756A priority Critical patent/JPH08315141A/en
Publication of JPH08315141A publication Critical patent/JPH08315141A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE: To obtain an image recognition device which recognizes an image or confirms a frequency by feeding back and correcting the weight and threshold, and making multi-stage connections and processing and compressing two-dimensional input information at a time. CONSTITUTION: This device is equipped with neuron type threshold elements having weight coefficients for plural inputs respectively and a storage part which is constituted by hierarchically connecting the neuron type threshold elements in a pyramid shape so that the output of the top layer neuron is regarded as a final output and also variably sets the values of the weight coefficients and the threshold. In addition to the basic constitution, compressed information obtained in an intermediate layer of the hierachy is also utilized. In the basic constitution, plural inputs are regarded as two inputs and 2-input 1-output neuro type threshold elements 21 are used.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は主に画像の認識に係わ
り、画像を特殊な構造および性質を持ったニューロン型
素子を利用して、圧縮・周波数変換等の画像処理を行
い、認識率および処理速度を改善した画像の認識装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention mainly relates to image recognition, in which an image is subjected to image processing such as compression and frequency conversion by using a neuron-type element having a special structure and property, and the recognition rate and The present invention relates to an image recognition device with improved processing speed.

【0002】[0002]

【従来の技術】画像を認識する際、冗長な情報をできる
だけ省いて必要最小限の(圧縮)画像情報だけで認識が
行えれば、処理時間の観点から見てその方が望ましい。
従来より画像の圧縮方式は様々提案されてきたが、それ
らの多くは主に通信に用いるための圧縮技術であった。
例えば図18は、特開昭62−219766で示された
従来の画像圧縮装置の回路図である。図に示されたよう
に、走査するライン上で類似した情報をカウントしてま
とめあげてゆくランレングス符号化方式を改良してい
る。具体的に言うと、圧縮するデータの開始点にマーク
を付け、類似情報がある限り、その長さがランレングス
カウンタにインクリメンタルに加算され、最後に終了点
のマークをつけて圧縮コードとする方式である。しかし
この方法はある特定の方向に向かって走査した情報を、
1次元の路線を通じて高効率で伝達する場合には有効で
あるが、2次元には異なる情報を持つので、2次元の画
像全体を一定の解像度、すなわち同じ圧縮率で変換し、
解析/認識したい目的にはかえって扱いにくい方法、装
置である。
2. Description of the Related Art When recognizing an image, it is desirable from the viewpoint of processing time if redundant information can be eliminated as much as possible and recognition can be performed using only the minimum necessary (compressed) image information.
Conventionally, various image compression methods have been proposed, but most of them have been compression techniques mainly used for communication.
For example, FIG. 18 is a circuit diagram of a conventional image compression apparatus shown in Japanese Patent Laid-Open No. 62-219766. As shown in the figure, the run-length coding method is improved in which similar information is counted and summarized on the scanning line. Specifically, the start point of the data to be compressed is marked, and as long as there is similar information, its length is incrementally added to the run length counter, and the end point is marked at the end to make a compressed code. Is. However, this method uses the information scanned in a certain direction,
It is effective for high-efficiency transmission through a one-dimensional route, but since two-dimensional information has different information, the entire two-dimensional image is converted with a constant resolution, that is, the same compression ratio,
It is a method and device that is rather cumbersome for the purpose of analysis / recognition.

【0003】このような問題点を解決する1つの手法と
して、認識処理用に画像の全点で解像度のレベルを合わ
せた圧縮方式がある。例えばこれまでに、画像をいくつ
かのブロックに分け、ブロック毎に平均値を取って圧縮
データとする一般的な処理方法があった。これに対して
図19は、特開平5−61976で示された他の従来の
画像処理方法である。図の方法では、画像の輝度の分散
率を算出し補正することで圧縮の精度を高め、これによ
り認識率の向上を目指している。しかしこの方法も画像
をある決まった割合で圧縮する場合は有効であるかもし
れないが、そうでない場合、つまり中途半端な縮尺倍率
による圧縮や、複数解像度で表現された画像を何枚か用
いて、統合処理したい場合には、その都度ブロック分割
の方法から始まって各解像度表現を導かなければならな
い。このためかなり複雑な手順と時間が必要である。
As one method for solving such a problem, there is a compression method in which the resolution level is matched at all points of the image for recognition processing. For example, heretofore, there has been a general processing method in which an image is divided into several blocks and an average value is taken for each block to obtain compressed data. On the other hand, FIG. 19 shows another conventional image processing method shown in JP-A-5-61976. In the method shown in the figure, the accuracy of compression is improved by calculating and correcting the dispersion ratio of the luminance of the image, and thereby the recognition rate is improved. However, this method may be effective when compressing the image at a certain ratio, but if it is not, that is, compression with a halfway scale factor or using several images expressed in multiple resolutions. Whenever it is desired to perform integrated processing, each resolution expression must be derived starting from the block division method. This requires a fairly complicated procedure and time.

【0004】また画像をニューラルネットワークを使っ
て認識するものとしては、図20に示された特開平2−
300868の方法がある。これは画像データを直接ニ
ューラルネットワークに入力するのではなくて、あらか
じめ画像処理内容を解析し、その処理に特化した最適な
ニューラルネットワークの構造を構築し処理するもので
ある。図では論理演算((A and B) and (C
and D))を実行する(a)(b)2種類のニュー
ラルネットワークを示している。記号 and は排他的論
理和を示し、またA,B,C,Dは『1』または『0』
のデジタル値とする。例えばA,B,C,Dとして『0
001』が入力されると、両方のネットワークとも最左
翼にある入力層において上から3番目のニューロンだけ
が出力を出す。各ニューロンの上に記した『xx01』
という数字は下位2ビットが01であれば出力を出せる
ことを表している。ここで『x』は0、1どちらでもよ
い。以下同様にネットワークをたどっていくと、この2
つのニューラルネットワークは、結局上述した論理演算
を行える2種類の異なる構造のニューラルネットワーク
であることが判る。(b)がこの公開特許公報における
手法を使い最適化処理が施されたニューラルネットワー
クであり、(a)に比べてニューロン数は同数である
が、リンクの本数で6本少なく、その分だけ計算量を減
らすことができる。この構成は、まず入力と期待される
出力が判っている時に最適なニューラルネットワークの
構造を求めるのもである。しかし、ここで示されている
方法はニューロン数をいかに減らすかを目的としたもの
であり、認識処理用にその構造が工夫されたものではな
い。また中間層の出力に対しても、“認識のためのデー
タ”として用いることを考慮したシステムではなく、中
間層の出力に以降の処理に有効な情報が現れるとは考え
られない。
A technique for recognizing an image using a neural network is shown in FIG.
There are 300868 methods. This is not to directly input image data to a neural network, but to analyze the image processing contents in advance and construct and process an optimal neural network structure specialized for the processing. In the figure, logical operations ((A and B) and (C
(a) and (b) two types of neural networks that perform (and D)). The symbol and indicates exclusive OR, and A, B, C, D are "1" or "0".
The digital value of. For example, if A, B, C, D is "0
When "001" is input, only the third neuron from the top in the leftmost input layer of both networks outputs. "Xx01" written above each neuron
The number indicates that if the lower 2 bits are 01, an output can be output. Here, "x" may be 0 or 1. If you follow the network in the same way,
It can be seen that the two neural networks are two types of neural networks having different structures that can perform the above-described logical operation. (B) is a neural network that has been subjected to an optimization process using the method disclosed in this patent, and the number of neurons is the same as that in (a), but the number of links is 6 less, and only that much is calculated. The amount can be reduced. With this configuration, first, when the input and expected output are known, the optimum neural network structure is obtained. However, the method shown here is aimed at reducing the number of neurons, and its structure is not devised for recognition processing. Further, even for the output of the intermediate layer, it is not a system considering the use as "data for recognition", and it is unlikely that effective information will appear in the output of the intermediate layer for the subsequent processing.

【0005】[0005]

【発明が解決しようとする課題】従来の画像認識システ
ムは上記のように構成されており、バランスがとれた実
用的な全体システムが得られない。対象の性質の正確な
把握と同様に、分析側の特性とそれが対象に及ぼす影響
も熟知されていなければならず、情報統合の方式が判っ
ていない今の段階ではこれは難しい。現在、ある程度の
大きさを持った空間フィルター並びにコンボリューショ
ンなどの処理を高速に実行するマイクロプロセッサも登
場してきてはいるが、このような確定的な処理では対象
の多目的な特徴抽出はできないことが多い。
Since the conventional image recognition system is constructed as described above, a balanced and practical whole system cannot be obtained. As well as accurate understanding of the nature of the object, the characteristics of the analysis side and its effect on the object must be well known, which is difficult at this stage when the method of information integration is unknown. At present, a spatial filter with a certain size and a microprocessor that executes processing such as convolution at high speed have been introduced, but it is not possible to extract the target multipurpose features by such deterministic processing. Many.

【0006】本発明は上記の課題を解決するためになさ
れたもので、ニュートラルネットワークを用いて2次元
の入力情報の加工・圧縮周波数解析から認識までを一度
に帰還修正し、最適な認識システムを実現することを目
的としている。
The present invention has been made in order to solve the above-mentioned problems, and an optimum recognition system is provided by performing feedback correction at once in processing and compression frequency analysis of two-dimensional input information using a neutral network to recognition. It is intended to be realized.

【0007】[0007]

【課題を解決するための手段】本発明に係る画像認識装
置は、複数の入力に対してそれぞれ重み係数を持ったニ
ューロン型閾値素子と、このニューロン型閾値素子をピ
ラミッド型に階層接続してその最上層ニューロンの出力
を最終出力とする構成とし、かつ上記重み係数の値と閾
値を可変設定する記憶部を備えた。
An image recognition apparatus according to the present invention comprises a neuron type threshold element having weighting coefficients for a plurality of inputs, and a pyramid type hierarchical connection of the neuron type threshold elements. The configuration is such that the output of the uppermost layer neuron is the final output, and a storage unit for variably setting the value of the weighting factor and the threshold value is provided.

【0008】また更に基本構成に加えて、切り換えて階
層の任意の中間層の、任意の座標位置の中間層出力を最
終出力として出力するようにした。
Further, in addition to the basic structure, the output of the intermediate layer at any coordinate position of any intermediate layer of the hierarchy is switched and output as the final output.

【0009】また更に基本構成において、複数入力は2
入力とし、2入力1出力のニューロ型閾値素子を用いる
ようにした。
Further, in the basic structure, the number of inputs is 2
A neuro-type threshold element having two inputs and one output is used as an input.

【0010】また更に基本構成において、重み係数の値
と閾値は他のニューロン型閾値素子の階層接続の一部の
認識結果に基づいて変更するようにした。
Furthermore, in the basic configuration, the value of the weighting factor and the threshold value are changed based on the recognition result of a part of the hierarchical connection of other neuron type threshold value elements.

【0011】また更に、重み係数の値または閾値は他の
ニューロン型閾値素子の階層接続の一部の距離情報の認
識結果に基づいて変更するようにした。
Furthermore, the value of the weighting factor or the threshold value is changed based on the recognition result of the distance information of a part of the hierarchical connection of other neuron type threshold value elements.

【0012】[0012]

【作用】この発明による画像認識装置は、複数の入力に
対してそれぞれ重み係数と閾値で定まる出力がピラミッ
ド型に階層伝達され、最終出力は最下層の情報が圧縮さ
れた情報となって得られる。各ニューロンの出力は、そ
の入力の重みと閾値関数により入力が強調、平滑、また
はフィルタリングされて得られる。この作用は重み係数
と閾値とを必要により変えて何度でも繰り返されて、例
えば標準パターンと比較されて画像認識される。
In the image recognition apparatus according to the present invention, the outputs determined by the weighting factor and the threshold value are hierarchically transmitted to a plurality of inputs in a pyramid type, and the final output is obtained by compressing the information of the lowermost layer. . The output of each neuron is obtained by emphasizing, smoothing, or filtering the input by the weight of the input and a threshold function. This action is repeated as many times as necessary by changing the weighting factor and the threshold value, and image recognition is performed by comparing with a standard pattern, for example.

【0013】また更に、任意の階層の中間層の認識結果
が最終出力とされて、少ない標準パターンと比較されて
画像認識される。
Furthermore, the recognition result of the intermediate layer of an arbitrary hierarchy is used as the final output and compared with a small number of standard patterns for image recognition.

【0014】また更に、各ニューロンの入力は2入力で
あり、各入力が加算、差分演算されて出力される。
Furthermore, each neuron has two inputs, and each input is subjected to addition and difference calculation and output.

【0015】また更に、重み係数の値と閾値が変更さ
れ、画像認識結果に基づいて強調、フィルタリングされ
て得られる。
Furthermore, the value of the weighting factor and the threshold value are changed, and the image is obtained by being emphasized and filtered based on the image recognition result.

【0016】また更に、重み係数の値または閾値が階層
接続の一部の距離情報の認識結果に基づいて変更され、
周波数特性が変更される。
Furthermore, the value of the weighting factor or the threshold value is changed based on the recognition result of the distance information of a part of the hierarchical connection,
The frequency characteristic is changed.

【0017】[0017]

【実施例】【Example】

実施例1.本発明の実施例を説明する前に、まず一般的
な画像を取り込む入力部分から説明する。通常画像情報
は膨大な情報量を含んでいる。例えば512x512画
素で各画素8ビットの濃淡画像なら、約210万ビット
になる。さらに各画素R,G,Bそれぞれ8ビットで表
されているとするなら、その64倍の情報量が1枚の画
像に含まれることになる。この膨大な情報量を持つ画像
を高速に分析し、認識を行うためにもこうしたデータ量
の多さはボトルネックとなっている。しかし当然のこと
ながら、認識においては全ての画像情報が必要なわけで
はない。対象によっては部分的な情報だけで、十分認識
が行えることも多い。またその方が扱うデータ量も少な
く、処理時間も短縮できるので好都合である。別の言葉
で言えば認識にあまり関係のない余計な情報がたくさん
含まれているとも言える。主に画像データの伝送分野で
情報削減方法が多く研究されてきた。しかしその方法は
伝送上の効率を追求したもので、例えば一次元データの
圧縮が必ずしも2次元データの情報を正しく与えず、圧
縮した画像を加工・処理する認識用途には逆に不便にな
ることが多い。また画像をいくつかのブロックに分け、
そのブロックの中の平均値及び分散などを算出し圧縮す
る別の画像圧縮方法があるが、これは結局のところ画像
認識よりは圧縮の方を強く考慮したシステムであり、柔
軟性や拡張性に欠ける。
Example 1. Before describing an embodiment of the present invention, first, an input portion for capturing a general image will be described. Usually, the image information contains a huge amount of information. For example, a grayscale image of 512 × 512 pixels and 8 bits for each pixel has approximately 2.1 million bits. Further, if each pixel R, G, and B is represented by 8 bits, the amount of information that is 64 times that is included in one image. Such a large amount of data is a bottleneck in order to analyze and recognize images with this enormous amount of information at high speed. However, it goes without saying that not all image information is necessary for recognition. Depending on the object, it is often possible to fully recognize it with only partial information. Further, it is convenient because the amount of data handled by that person is small and the processing time can be shortened. In other words, it can be said that it contains a lot of extra information that is not related to recognition. A lot of researches have been conducted on information reduction methods mainly in the field of image data transmission. However, this method pursues transmission efficiency. For example, the compression of one-dimensional data does not always give the information of two-dimensional data correctly, which makes it inconvenient for the recognition application to process and process the compressed image. There are many. Also divide the image into several blocks,
There is another image compression method that calculates the average value and variance etc. in the block and compresses it, but in the end, this is a system that strongly considers compression rather than image recognition, and it has flexibility and expandability. Lack.

【0018】以下、本発明の概念を説明する。図1はそ
の構成概念を示す図であり、対称形の特殊なニューラル
ネットワークを利用している。図において、11は入力
の対象画像、1は本発明のニューラルネットワーク、2
1はその最下層のニューロン、31は最上層のニューロ
ンを表す。また図2は本発明のニューラルネットワーク
の出力を利用してパターン解析を行い総合判断する画像
認識システムを示した図である。図において、2は後に
説明する各ニューロンのシナプスの重み、3は同じくニ
ューロンの閾値である。4はニューラルネットワークの
出力の圧縮画像情報、8は内部にプロセッサ7と、特徴
抽出部5と、パターンマッチング部6を含む総合判断部
である。図3は、図2に示す画像認識システムの動作を
示す動作フローチャート図である。本発明はニューラル
ネットワークに関する部分であるので、この総合判断部
の動作は以下に簡単に説明をしておく。即ち、総合判断
部8は、ステップS3でシナプス重み2と、ニューロン
閾値3の値を設定し、ステップS4で圧縮画像4を得
る。ステップS5で必要な周波数間隔が得られれば、ス
テップS6で特徴を抽出する。ステップS7でフィルタ
処理をし、ステップS8で所定の記憶している基準の画
像と比較して、ステップS9で目標を定める。ステップ
S11で確かであれば、画像認識動作は終了する。
The concept of the present invention will be described below. FIG. 1 is a diagram showing the configuration concept, and uses a special symmetric neural network. In the figure, 11 is an input target image, 1 is a neural network of the present invention, 2
Reference numeral 1 denotes a lowermost neuron, and 31 denotes a topmost neuron. FIG. 2 is a diagram showing an image recognition system for making a comprehensive judgment by performing pattern analysis using the output of the neural network of the present invention. In the figure, 2 is a synapse weight of each neuron, which will be described later, and 3 is a threshold value of the neuron. Reference numeral 4 is a compressed image information output from the neural network, and reference numeral 8 is a comprehensive determination unit including a processor 7, a feature extraction unit 5, and a pattern matching unit 6 therein. FIG. 3 is an operation flowchart showing the operation of the image recognition system shown in FIG. Since the present invention relates to a neural network, the operation of this comprehensive judgment unit will be briefly described below. That is, the comprehensive judgment unit 8 sets the values of the synapse weight 2 and the neuron threshold value 3 in step S3, and obtains the compressed image 4 in step S4. If the required frequency interval is obtained in step S5, the feature is extracted in step S6. Filtering is performed in step S7, comparison is made with a predetermined stored reference image in step S8, and a target is set in step S9. If the result is correct in step S11, the image recognition operation ends.

【0019】さてニューラルネットワークの部分に戻っ
て説明をする。圧縮という意味において最も簡単な2入
力1出力のニューロンを使ったネットワークを考える
と、図4のような2分木の構造となる。入力画像に一番
近い又は低いレベルのニューロンへは単純に、入力画像
上である方向に1〜数画素離れた画像の輝度値が入力さ
れるものとする。ここで、わかりやすくするために、入
力はカラー画像ではなく、濃淡画像、それも0〜255
階調であるとして説明する。更に、輝度レベルは0が最
も暗く、255が最も明るいものとする。1つ1つのニ
ューロンとその閾値は具体的には図5の(a)、
(c)、(d)のようなものとする。
Now, returning to the neural network portion, description will be made. Considering the simplest 2-input 1-output neuron network in terms of compression, a binary tree structure as shown in FIG. 4 is obtained. It is assumed that the brightness value of an image that is one to several pixels apart in a certain direction on the input image is simply input to the neuron closest to or lower than the input image. Here, for the sake of clarity, the input is not a color image, but a grayscale image, which is also 0-255.
It will be described as gradation. Further, regarding the brightness level, 0 is the darkest and 255 is the brightest. Each neuron and its threshold value are specifically shown in FIG.
(C) and (d).

【0020】ニューロンを使った画像処理の詳細を画像
の強調処理を示す図6を用いて説明する。図において、
ニューロンは入力に重みを掛けて画像を処理する。2本
の入力線の末端にはシナプス結合重みがあり、図では
今、仮に上側がα(0.5)下側がβ(2)であるもの
とする。このような場合、ニューロンは入力線の上側の
データを縮小し、下側のデータを拡大する役割を持つ。
The details of the image processing using neurons will be described with reference to FIG. 6 showing the image enhancement processing. In the figure,
The neuron processes the image by weighting the input. There are synaptic connection weights at the ends of the two input lines, and in the figure, it is assumed that the upper side is α (0.5) and the lower side is β (2). In such a case, the neuron has a role of reducing the data on the upper side of the input line and expanding the data of the lower side.

【0021】また図7の(c)のように入力に正負対象
の重みを掛けた場合、閾値関数が(a)の形状である
と、画素の差分情報がそのまま出力される。また(b)
の閾値関数を用いると、(d)のように差分情報が強調
されて出力されることになる。この場合、画像を上の方
から順に見た時、その輝度が暗から明に変わるところと
その逆に明から暗に変化するところが強調され検出され
ることになる。また強調の反対の“ぼかし”または平滑
化は閾値関数の傾きを緩やかにすることで実現できる。
図8は、ニューロンの入力画像に対する重みを変えて設
定した、他の回路を表す図である。図8(c)の接続
は、入力画像の平均値を得る回路となり、図8(d)
は、入力の平均値を強調する回路となる。ところで閾値
関数を図7(b)に示すような非線形にするのは、強調
以外に耐ノイズ性を向上することも重要な目的である。
図4において、11は画像、21はニューロンであり、
22はニューロン間を結ぶネットワークである。また図
5は、図4に示す構成中の各ニューロンの入出力の関係
と閾値関数を示す図である。図において、41は入力線
路、42はシナプス、43はニューロンの軸索、つまり
出力線路である。44は線形出力関数であり、45が強
調処理、46が平滑化用の出力関数である。47は非線
形出力関数であり、この場合はノイズ除去能力がある。
Further, when the input is multiplied by the weight of positive / negative object as shown in FIG. 7C, if the threshold function has the shape of FIG. 7A, the pixel difference information is output as it is. (B)
When the threshold function of is used, the difference information is emphasized and output as in (d). In this case, when the images are viewed in order from the top, the place where the brightness changes from dark to bright and the place where the brightness changes from light to dark are emphasized and detected. Also, "blur" or smoothing, which is the opposite of emphasis, can be realized by making the slope of the threshold function gentle.
FIG. 8 is a diagram showing another circuit set by changing the weight of the input image of the neuron. The connection shown in FIG. 8C is a circuit for obtaining the average value of the input image, and the connection shown in FIG.
Is a circuit that emphasizes the average value of the input. By the way, making the threshold function non-linear as shown in FIG. 7B is also an important purpose to improve noise resistance in addition to enhancement.
In FIG. 4, 11 is an image, 21 is a neuron,
22 is a network connecting the neurons. Further, FIG. 5 is a diagram showing the input / output relationship and the threshold function of each neuron in the configuration shown in FIG. In the figure, 41 is an input line, 42 is a synapse, and 43 is an axon of a neuron, that is, an output line. 44 is a linear output function, 45 is an enhancement process, and 46 is an output function for smoothing. 47 is a non-linear output function, and in this case, it has a noise removing capability.

【0022】次に上記構成のニューラルネットワークの
動作を説明する。図9は、図4の基本構成でニューロン
を7層構成とし、入力画像の濃淡度を図示の階調とした
場合のシステム説明図である。図において、画像に最も
近いニューロンの層は縦方向最左翼の第「1」層であ
り、最も遠い層のニューロンは第「7」層であるとす
る。また第1層のニューロンへの入力は画像の輝度値に
対応しているものと仮定する。図9(a)では、2画素
離れた情報を第3層で検出しようとするものであり、ま
た図9(b)では、4画素分離れた画像情報を第5層で
検出しようとするものである。図ではこれからの説明に
関連するニューロンにパターンを付加して区別してあ
る。また各ニューロンは図のように(7、4)などとい
った斜交した座標系を使っても表現できるものとする。
Next, the operation of the neural network having the above configuration will be described. FIG. 9 is a system explanatory diagram in the case where the neuron has a seven-layered structure in the basic structure of FIG. 4 and the input image has the gradation level shown in the drawing. In the figure, it is assumed that the neuron layer closest to the image is the "1" layer of the leftmost wing in the vertical direction, and the neuron of the farthest layer is the "7" layer. It is also assumed that the input to the neurons in the first layer corresponds to the brightness value of the image. In FIG. 9 (a), information of two pixels apart is detected in the third layer, and in FIG. 9 (b), image information of four pixels separated is detected in the fifth layer. Is. In the figure, patterns are added to the neurons relevant to the following description to distinguish them. Each neuron can also be expressed by using a diagonal coordinate system such as (7, 4) as shown in the figure.

【0023】まず、上記座標系の記号を使って、本構成
によるニューラルネットワークが周波数解析を行えるこ
とを説明する。例えば図9(a)において、ニューロン
(3、3)の出力はニューロン(1、1)とニューロン
(3、1)のデータから決まるようにするためにはま
ず、ニューロン(2、2)の入力の下側の重みをゼロと
おき、さらにニューロン(3、2)の上側の重みをゼロ
と置くことにより求めることができる。これ以外にニュ
ーロン(2、1)の出力が常にゼロとおいても、このよ
うな1画素おきのデータをアクセスすることができる。
このようにネットワークの構造そのものを、その都度変
更して必要なデータにアクセスすることができる。次は
データの加工である。ニューロン(3、3)の2本の入
力の重みとして、正負対の絶対値が1以上の実数を与え
ると、既にアクセス済みのニューロン(1、1)と
(3、1)のデータの差分を増幅することができる。こ
こに図9の各ニューロンが図10のような閾値関数を取
るとすると、ある一定距離離れた2点間、又はフィルタ
ーが2次元なら2線分間の輝度が同じなら、強く出力さ
れ、輝度が違うと出力は小さくなることになる。つまり
ある一定距離離れた画素に周期性があれば、その近傍は
強く出力されるし、周期性がなければ弱く出力されるこ
とになる。このようにして画像の周波数分解を行うこと
ができる。
First, it will be described that the neural network according to this configuration can perform frequency analysis by using the symbols of the coordinate system. For example, in FIG. 9A, in order to determine the output of the neuron (3, 3) from the data of the neuron (1, 1) and the data of the neuron (3, 1), first, the input of the neuron (2, 2) is input. It can be determined by setting the lower weight to zero and further setting the upper weight of the neuron (3, 2) to zero. Besides this, even if the output of the neuron (2, 1) is always zero, such data every other pixel can be accessed.
In this way, it is possible to access the necessary data by changing the network structure itself each time. Next is data processing. When a real number whose absolute value of positive / negative pair is 1 or more is given as the weight of two inputs of the neuron (3, 3), the difference between the data of the already accessed neurons (1, 1) and (3, 1) is calculated. Can be amplified. If each neuron of FIG. 9 takes a threshold function as shown in FIG. 10, if two points separated by a certain distance, or if the brightness of two lines is the same if the filter is two-dimensional, it is strongly output and the brightness is If it is different, the output will be smaller. That is, if the pixels separated by a certain distance have periodicity, the vicinity thereof is output strongly, and if there is no periodicity, it is output weakly. In this way, frequency decomposition of the image can be performed.

【0024】上述の説明では中間ニューロンの各入力に
対する重みを0又は1にしてデータがそのまま上位の層
のニューロンに伝達するように説明したが、これにも様
々な値を持たせることにより、もう少し木目の細かな分
析も可能である。たとえばウェーブレット変換基底やガ
ボール関数のような複雑な関数との畳み込み積分も、こ
の単純な2分木構造のネットワークの重みと閾値関数を
変更することにより計算することができる。上記では2
入力1出力素子の例を説明したが図1に示す基本構成に
おいても同様な効果が得られる。
In the above description, the weight for each input of the intermediate neuron is set to 0 or 1, and the data is transmitted as it is to the neurons in the upper layer. However, by giving various values to this as well, a little more can be obtained. A detailed analysis of the grain is also possible. For example, a convolution integral with a complex function such as a wavelet transform basis or a Gabor function can also be calculated by changing the weight and threshold function of this simple binary tree structure network. 2 in the above
Although the example of the input / output device has been described, the same effect can be obtained in the basic configuration shown in FIG.

【0025】実施例2.本実施例では、多重解像度を利
用した画像認識装置を説明する。実施例1での図7や図
8を用いた装置で説明したように、各ニューロンに適当
な重みと閾値関数を選ぶことにより、入力画像の強調、
ぼかし、エッジ検出等が行える。このような平均値また
はそれに準じる値を取りながら2画素を1画素にまとめ
てゆく手法を述べる。この方法では入力画像上の目標物
の対照的な位置情報は、入力画像から遠い階層のニュー
ロンでも階層内での位置関係はそのまま相似的に保つよ
うにすることができる。図11はこのことを示す各層の
ニューロンの出力信号図である。図から判るように、画
像から遠い階層のニューロンの出力が、画像の圧縮情報
そのものとして得られる。更に、画像の絶対輝度値と、
重み係数や閾値関数の非線形部の傾斜を指定して精度を
向上することができる。次に上述したニューラルネット
ワークを使って得られた情報の利用法について言及す
る。説明の都合上、次の言葉を定義しておく。図中画像
に近い方をニューラルネットワークの階層では『低い』
あるいは『下位』の層であるとする。逆にネットワーク
が先細りしてゆく方を『高い』、『上位』の層であると
する。このように画像から遠い階層のニューロンの出力
は画像の圧縮情報そのものにすることができる。勿論正
確には、画像の絶対輝度値と、増幅を行う重み係数や、
非線形関数の傾き等を細かく指定する必要があるが、こ
れにより圧縮画像を使い、認識処理を効率良く行うこと
ができる。
Example 2. In this embodiment, an image recognition device using multi-resolution will be described. As described in the apparatus using FIG. 7 and FIG. 8 in the first embodiment, by emphasizing the input image by selecting appropriate weights and threshold functions for each neuron,
Blurring, edge detection, etc. can be performed. A method of collecting two pixels into one pixel while taking such an average value or a value similar thereto will be described. With this method, the positional information of the target on the input image, which is in contrast to the target image, can be kept similar to the positional relationship in the hierarchy even for neurons in the hierarchy far from the input image. FIG. 11 is an output signal diagram of neurons of each layer showing this. As can be seen from the figure, the output of the neurons in the hierarchy far from the image is obtained as the compressed information itself of the image. Furthermore, the absolute brightness value of the image,
The accuracy can be improved by specifying the weighting coefficient or the slope of the non-linear portion of the threshold function. Next, a method of using the information obtained by using the above-mentioned neural network will be mentioned. For convenience of explanation, the following words are defined. The one closer to the image in the figure is "low" in the hierarchy of the neural network
Alternatively, it is assumed to be the “lower” layer. Conversely, the direction in which the network tapers is considered to be the “high” or “upper” layer. In this way, the output of the neuron in the layer far from the image can be the compressed information itself of the image. Of course, to be exact, the absolute brightness value of the image, the weighting coefficient for amplification,
Although it is necessary to specify the slope of the non-linear function in detail, this makes it possible to use the compressed image and efficiently perform the recognition process.

【0026】図12は、本実施例の解像度を切換える装
置の概念を説明するための認識ニューラルネットと画像
圧縮部を示す図である。本装置では、入力画像の認識を
以下の順序で行う。即ち、最初粗い解像度で画面全体を
見渡し、画面内の状況、つまりテクスチャーならびに注
目箇所を抽出する。次に注目箇所に対してより解像度の
高い、つまり情報量の多いデータを用いて、注目箇所の
細部の認識を行う。図の右側Aで示すように、低解像度
でしかもデータ量の少ない側で、物体の大まかな見当を
つける。このとき、微調整のための閾値とシナプスの重
みの変更要求をCで示すようにフィードバックする。こ
れにより物体の解像度の微調整を行い、確度を上げる。
なお、位置や方向や大きさの大きな変更は図のBで示す
ように認識用ニューラルネットワークそのものをシフト
させる必要がある。
FIG. 12 is a diagram showing a recognition neural network and an image compression unit for explaining the concept of the resolution switching apparatus of this embodiment. This apparatus recognizes the input image in the following order. That is, first, the entire screen is viewed with a coarse resolution, and the situation in the screen, that is, the texture and the point of interest are extracted. Next, the details of the point of interest are recognized using the data with higher resolution, that is, the amount of information for the point of interest. As shown on the right side A of the figure, a rough estimation of the object is made on the side having a low resolution and a small amount of data. At this time, a threshold change request for fine adjustment and a synapse weight change request are fed back as indicated by C. This fine-tunes the resolution of the object and increases the accuracy.
It should be noted that when the position, direction, or size is greatly changed, it is necessary to shift the recognition neural network itself as shown by B in the figure.

【0027】図13は、このことを判り易く説明する図
である。図13(b)は図13(a)で各層が平面的に
構成されているものを、1次元で等価的に表現した構成
である。この画像認識は、画像中にある大きさで描かれ
た識別目標を検出するためのものとする。例えば入力
層、中間層、出力層の3層構成で、入力層が16×16
=256個のニューロンからなるとする。出力層は入力
パターンを分類しようとする数だけ必要となり、仮に今
入力パターンを3つに分類するとし、どれか一つの出力
ニューロンの発火がその選択されたパターンを表すとす
れば出力ニューロンは3個になる。もし、従来のように
出力層が固定であると、方向や大きさの変化も含めて比
較のための標準パターン数は極端に多い数が必要とな
る。認識開始時は、対象が画像全体の中にどの位の大き
さで描かれているか、あるいはどこに描かれているかさ
え判らない状態である。両方とも一度に決定することは
難しいので、今の場合、簡単のために大きさは判ってい
るとする。このような場合にまず画像中の目標物の位置
ずれ、つまりどこかに描かれているか判らない場合、図
13(c)のように、この認識ネットワークをある解像
度の画像中にシフトさせながら、順に調べて行けば見つ
かる。即ち、図12のBの座標位置を切り換えていって
順に走査することを意味する。
FIG. 13 is a diagram for explaining this easily. FIG. 13B shows a one-dimensional equivalent representation of the planar structure of each layer in FIG. 13A. This image recognition is for detecting an identification target drawn in a certain size in the image. For example, the input layer has a three-layer structure including an input layer, an intermediate layer, and an output layer, and the input layer is 16 × 16
= 256 neurons. As many output layers as necessary to classify the input patterns are needed, and if the input patterns are classified into three now, and the firing of any one of the output neurons represents the selected pattern, the output neurons will be three. Become individual. If the output layer is fixed as in the conventional case, an extremely large number of standard patterns is required for comparison, including changes in direction and size. At the start of recognition, the size of the object in the entire image, or even where it is drawn, is unknown. Since it is difficult to determine both at once, it is assumed that the size is known for simplicity in this case. In such a case, if the position of the target in the image is misaligned, that is, if it is not known where it is drawn, while shifting the recognition network into the image of a certain resolution as shown in FIG. You can find out by examining them in order. That is, it means that the coordinate position of B in FIG. 12 is switched and scanning is performed in order.

【0028】次に大きさが判らない場合を考える。但し
やはり簡単のため画像中のどこにそれが描かれているか
は判っているものとする。この場合は図13(d)で示
す点線の矢印方向のシフトは、図12のA方向に中間層
出力の選択を切り換えて行くことを意味する。即ち、遠
くから眺めることで画像全体中では小さく示されている
認識対象を容易に見つけ出すことができる。こうして各
種の大きさの標準パターンを用意しなくてもよく、同様
に図12のBの座標位置を回転させれば、回転した標準
パターンを省くこともできる。このような多段階の処理
が、ニューロンの重み、閾値、閾値関数を変更するだけ
で簡単に行える。またこのような注目する局所情報の抽
出、あるいは特微抽出により、画像全体に渡り高解像度
で処理する必要がなく、これ以降の処理の高速化にもつ
ながる。さらに認識の際、大局的に画面全体から得られ
た情報を、局所的な処理を行う空間フィルターの大きさ
や傾きなどにフィードバックし、逆に局所的な情報を全
体にフィードバックさせることにより、背景と注目箇所
の分離等に大きな効果が期待できる。
Next, consider the case where the size is unknown. However, for simplicity, it is assumed that it is known where it is drawn in the image. In this case, shifting in the direction of the dotted arrow shown in FIG. 13D means switching the selection of the intermediate layer output in the direction A of FIG. That is, by observing from a distance, it is possible to easily find a small recognition target in the entire image. Thus, it is not necessary to prepare standard patterns of various sizes, and similarly, if the coordinate position of B in FIG. 12 is rotated, the rotated standard pattern can be omitted. Such multi-step processing can be easily performed only by changing the weight of the neuron, the threshold value, and the threshold function. Further, by extracting the local information of interest or the feature extraction, it is not necessary to process the entire image with high resolution, which leads to speeding up of the subsequent processes. In addition, when recognizing, the information obtained from the entire screen is fed back to the size and inclination of the spatial filter that performs local processing, and conversely, the local information is fed back to the entire background, A great effect can be expected in separating the points of interest.

【0029】実施例3.上記実施例では、入力画面の取
り組みに関しては図4のように縦方向の画素に対して処
理を行うニューラルネットワークを、横方向に並べる例
を説明した。これに対し、図14に示すように90度回
転した入力接続としてもよい。また図15に示すよう
に、従来の平面状のブロックの平均を取る方法と同じ構
成のネットワーク構成を用いることもできる。これらの
ニューラルネットワークのシナプスの重みと出力関数を
適宜変化させることにより、画像の回転に強いネットワ
ークの構成や、エッジ検出など多くの空間フィルターを
構成することができる。
Example 3. In the above embodiment, regarding the approach of the input screen, the example in which the neural networks for processing the pixels in the vertical direction are arranged in the horizontal direction as shown in FIG. 4 has been described. On the other hand, the input connection may be rotated by 90 degrees as shown in FIG. Further, as shown in FIG. 15, it is also possible to use a network configuration having the same configuration as the conventional method of averaging planar blocks. By appropriately changing the synaptic weights and output functions of these neural networks, it is possible to configure a network that is resistant to image rotation and many spatial filters such as edge detection.

【0030】実施例4.認識学習結果の丸め込みについ
て説明する。差分情報がまとめ上げられてゆく結果、ネ
ットワークが先細りしてゆく上位の層になればなるほ
ど、画像情報は圧縮されて保持されることになる。この
ことは実施例2での図11の説明でも述べた。また、図
10のシナプス重みの形状を左右に伸縮させて用いるこ
とにより、高帯域から低帯域までの各周波数情報も、全
く同じ構成のネットワークで得られるが、こちらの方は
上位の層になればなるほど、低周波数の情報が得られる
ことになる。さらに図10のシナプス重みの形状を上下
方向に変化させることにより、局所的な周波数解析であ
る、ウェーブレット変換も実現できる。更に詳しくは、
例えば図14(a)のような8個のシナプスを持つニュ
ーロンがあれば、そのシナプスの値を図14(b)のよ
うに取ると、1番と8番の入力線に仮に値が入ってきた
場合それはこのシナプスの形状から、両方の入力が強調
されることになる。つまり入力中にある間隔離れて入っ
てくる入力を強調する作用がある。これはそうした間隔
(波長)でパターンを持つ画像データを拾うことになる
ので、結局周波数情報を拾うフィルターになる。
Example 4. The rounding of the recognition learning result will be described. As a result of the difference information being collected, the higher the layer in the network becomes, the more the image information is compressed and held. This is also described in the description of FIG. 11 in the second embodiment. Further, by expanding and contracting the shape of the synapse weight in FIG. 10 to the left and right, the frequency information from the high band to the low band can be obtained with the network of the same configuration, but this one should be a higher layer. The higher the frequency, the lower frequency information will be obtained. Furthermore, by changing the shape of the synapse weight in FIG. 10 in the vertical direction, it is possible to realize a wavelet transform, which is a local frequency analysis. For more details,
For example, if there is a neuron with 8 synapses as shown in FIG. 14 (a), if the values of the synapses are taken as shown in FIG. 14 (b), values will be tentatively input to the 1st and 8th input lines. If this is the case, both inputs will be emphasized due to the shape of this synapse. In other words, it has the effect of emphasizing the input coming in at a certain interval during the input. Since this picks up image data having a pattern at such intervals (wavelengths), it eventually becomes a filter that picks up frequency information.

【0031】これに対して、同様な周波数を拾う処理が
2入力のニューロンでも構造が動的に変えられれば実現
することができ、図15のようにニューロンの閾値、シ
ナプスをいじれば、同様な処理を行わせることができ
る。この場合はニューロンの選択、閾値、シナプスをす
べて変更することになる。実施例2では画像の輝度(強
度)情報を入力して様々な解像度で処理していたものに
対して、図16、図17の構成と方法によれば、閾値関
数を距離に応じて変更することにより、輝度情報の処理
と全く同じ構造を用いて、様々な周波数レベルで処理で
きる。従って構造上の変化はなくて、閾値関数の変更の
みでよく、この変更で階層の上方ではより間隔の広い画
素の濃淡を監視することになり、2、4、8、16と波
長が倍々に増え、周波数が半分半分に変化する。従来の
方法では小さいサイズから大きなサイズまで別々の空間
周波数フィルターを使って畳み込み積分を行わなくては
得られなかった情報が、ニューラルネットワークの構造
の中に、高周波から低周波成分まで、自動的に抽出でき
るようになり、計算量の大幅な削減が期待できる。
On the other hand, a process of picking up a similar frequency can be realized even in a 2-input neuron if the structure is dynamically changed. If the threshold value of the neuron and the synapse are tampered with as shown in FIG. Processing can be performed. In this case, selection of neurons, threshold values, and synapses are all changed. In the second embodiment, the luminance (intensity) information of the image is input and processed at various resolutions, but according to the configurations and methods of FIGS. 16 and 17, the threshold function is changed according to the distance. This allows processing at various frequency levels, using exactly the same structure as the processing of luminance information. Therefore, there is no structural change and only the threshold function needs to be changed. With this change, the shades of pixels with wider intervals are monitored above the hierarchy, and the wavelength is doubled as 2, 4, 8, and 16. It increases and the frequency changes by half. Information that could not be obtained by convolution integration using separate spatial frequency filters from small size to large size in the conventional method is automatically detected in the structure of the neural network from high frequency to low frequency components. It will be possible to extract, and it is expected that the calculation amount will be greatly reduced.

【0032】図12は、また以下のことをも意味してい
る。即ち、通常の画像の圧縮として用いる場合でも、最
初、粗い解像度で画面全体を見渡し、そのものの描かれ
ている状況、つまりテクスチャー及び注目箇所を少ない
計算量で抽出することができる。この処理は中間層に現
れる低解像度の画像情報を、別の認識用のニューラルネ
ットワークに入力し、まず大まかな見当をつけることに
よる。この認識用のニューラルネットワークを予め、あ
る大きさの物体を識別するように学習してあるとする
と、同じ認識ネットワークを低解像度から高解像度まで
並べるか、もしくはその認識ネットワークを低解像度か
ら高解像度へとシフトしながらパターンマッチングを行
うことにより、大きさの変化した物体でも見つけること
ができる。これにいち早く低解像度の情報により注目箇
所を抽出し、次に解像度を上げ、相対的に同じ位置にあ
る注目箇所の情報を取り出し、それをさらに高解像度用
のニューラルネットワークに入力し、認識する。このよ
うな操作により、徐々に細部の認識を行うといった段階
的な処理が行え、認識ハードウェアシステムの開発、計
算コストの面から優れたシステムとなりえる。
FIG. 12 also means the following: That is, even when it is used as a normal image compression, it is possible to first look over the entire screen at a coarse resolution and extract the situation in which the image is drawn, that is, the texture and the point of interest with a small amount of calculation. This processing is performed by inputting the low-resolution image information appearing in the intermediate layer to another neural network for recognition, and first making a rough estimate. If this recognition neural network is learned in advance to identify an object of a certain size, the same recognition networks are arranged from low resolution to high resolution, or the recognition network is changed from low resolution to high resolution. By performing pattern matching while shifting, it is possible to find an object with a changed size. The attention point is first extracted by the low resolution information, then the resolution is increased, the information of the attention point at the same relative position is taken out, and the information is input to the higher resolution neural network for recognition. By such an operation, stepwise processing such as gradually recognizing details can be performed, and the system can be an excellent system in terms of development of a recognition hardware system and calculation cost.

【0033】[0033]

【発明の効果】以上のようにこの発明によれば、その値
を可変にできる重み係数を持つニューロン型閾値素子を
階層接続したので、同構造の素子を接続して画像の圧
縮、強調、平滑処理ができる効果がある。
As described above, according to the present invention, since the neuron type threshold value element having the weighting coefficient whose value can be changed is hierarchically connected, the elements having the same structure are connected to compress, emphasize and smooth the image. There is an effect that can be processed.

【0034】また更に、中間層の認識結果を有効に利用
できる効果もある。
Furthermore, there is an effect that the recognition result of the intermediate layer can be effectively used.

【0035】また更に、2入力としたので、接続が更に
簡単であり直前の入力の加算、差分により結果が強調さ
れる効果がある。
Furthermore, since there are two inputs, the connection is simpler and there is the effect that the result is emphasized by the addition and difference of the immediately preceding inputs.

【0036】また更に、重み係数と閾値を一部の結果に
より変更するようにしたので、場合により画像全体の精
密処理が省けて高速化できる効果がある。
Furthermore, since the weighting factor and the threshold value are changed according to a part of the results, there is an effect that precision processing of the entire image can be omitted and the speed can be increased.

【0037】また更に、重み係数または閾値を一部の認
識結果により変更するようにしたので、画像認識の周波
数特性を変更できる効果がある。
Furthermore, since the weighting coefficient or the threshold value is changed according to a part of the recognition result, there is an effect that the frequency characteristic of the image recognition can be changed.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の画像圧縮部の一般的な構成図であ
る。
FIG. 1 is a general configuration diagram of an image compression unit of the present invention.

【図2】 本発明のニューロネットワークを使用した画
像認識システムの構成図である。
FIG. 2 is a configuration diagram of an image recognition system using a neuro network of the present invention.

【図3】 画像認識システム全体の動作フローチャート
図である。
FIG. 3 is an operation flowchart of the entire image recognition system.

【図4】 本発明の画像圧縮部の2入力1出力要素によ
る構成図である。
FIG. 4 is a configuration diagram of a 2-input 1-output element of the image compression unit of the present invention.

【図5】 本発明における基本構成要素であるニューロ
ンの入出力と閾値関数を示す図である。
FIG. 5 is a diagram showing an input / output and a threshold function of a neuron which is a basic constituent element in the present invention.

【図6】 方向性のある差分情報の強調処理を説明する
図である。
FIG. 6 is a diagram illustrating an emphasis process of directional difference information.

【図7】 対称な重みと2種類の閾値関数を用いた方向
差分情報の強調処理を説明する図である。
FIG. 7 is a diagram illustrating an emphasis process of direction difference information using symmetric weights and two types of threshold functions.

【図8】 入力画像の強調処理を説明する図である。FIG. 8 is a diagram illustrating an emphasis process of an input image.

【図9】 方向を持った差分情報の強調処理を説明する
図である。
FIG. 9 is a diagram illustrating a process of emphasizing difference information having directions.

【図10】 周波数解析用閾値関数を示す図である。FIG. 10 is a diagram showing a frequency analysis threshold function.

【図11】 多重解像度表現の例を示す図である。FIG. 11 is a diagram showing an example of multi-resolution representation.

【図12】 認識ニューラルネットと画像圧縮部の組合
せを示す図である。
FIG. 12 is a diagram showing a combination of a recognition neural network and an image compression unit.

【図13】 本発明の中間層出力を画像認識に利用する
ことの説明図である。
FIG. 13 is an explanatory diagram of using the intermediate layer output of the present invention for image recognition.

【図14】 本発明の水平方向圧縮用画像圧縮部の構成
図である。
FIG. 14 is a block diagram of an image compression unit for horizontal compression of the present invention.

【図15】 本発明の平面圧縮用画像圧縮部の構成図で
ある。
FIG. 15 is a configuration diagram of an image compression unit for plane compression of the present invention.

【図16】 周波数解析用のニューロンとシナプスを示
す図である。
FIG. 16 is a diagram showing neurons and synapses for frequency analysis.

【図17】 周波数解析用の閾値の変化とニューロン出
力の変化を示す図である。
FIG. 17 is a diagram showing changes in the threshold for frequency analysis and changes in neuron output.

【図18】 従来の第1の画像圧縮方法を示す図であ
る。
FIG. 18 is a diagram showing a first conventional image compression method.

【図19】 従来の第2の画像処理方法を示す図であ
る。
FIG. 19 is a diagram showing a second conventional image processing method.

【図20】 従来の第3の画像処理方法を示す図であ
る。
FIG. 20 is a diagram showing a third conventional image processing method.

【符号の説明】[Explanation of symbols]

11 画像、21 ニューロン、22 ニューロン間の
接続、41 入力線路、42 シナプス(重み)、43
出力線路、44 ニューロンの入出力特性f(x)=
x、45 ニューロンの入出力特性 利得>1、46
ニューロンの入出力特性 利得<1、47 ニューロン
の入出力特性 f(x)が非線形。
11 images, 21 neurons, 22 connections between neurons, 41 input lines, 42 synapses (weights), 43
Output line, input / output characteristics of 44 neurons f (x) =
Input / output characteristics of x, 45 neurons Gain> 1,46
Input / output characteristics of neuron Gain <1,47 Input / output characteristics of neuron f (x) is non-linear.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 複数の入力に対してそれぞれ重み係数を
持ったニューロン型閾値素子と、 上記ニューロン型閾値素子をピラミッド型に階層接続
し、その最上層ニューロンの出力を最終出力とする構成
とし、 かつ上記重み係数の値と閾値を可変設定する記憶部を備
えた画像認識装置。
1. A structure in which a neuron-type threshold value element having a weighting coefficient for each of a plurality of inputs and the neuron-type threshold value element are hierarchically connected in a pyramid type, and the output of the uppermost neuron is the final output, An image recognition apparatus including a storage unit that variably sets the value of the weighting factor and the threshold value.
【請求項2】 画像認識は、切り換えて階層の任意の中
間層の、任意の座標位置の中間層出力を最終出力とする
ことを特徴とする請求項1記載の画像認識装置。
2. The image recognition apparatus according to claim 1, wherein in image recognition, the final output is the output of the intermediate layer at an arbitrary coordinate position of an arbitrary intermediate layer of the hierarchy.
【請求項3】 複数入力は2入力とし、2入力1出力の
ニューロ型閾値素子を用いることを特徴とする請求項1
または請求項2記載の画像認識装置。
3. A neuro-type threshold element having two inputs and two inputs and one output is used as a plurality of inputs.
Alternatively, the image recognition device according to claim 2.
【請求項4】 重み係数の値と閾値は他のニューロン型
閾値素子の階層接続の一部の認識結果に基づいて変更す
ることを特徴とする請求項1記載の画像認識装置。
4. The image recognition apparatus according to claim 1, wherein the value of the weighting factor and the threshold value are changed based on the recognition result of a part of the hierarchical connection of other neuron type threshold value elements.
【請求項5】 重み係数の値または閾値は他のニューロ
ン型閾値素子の階層接続の一部の距離情報の認識結果に
基づいて変更することを特徴とする請求項4記載の画像
認識装置。
5. The image recognition apparatus according to claim 4, wherein the value of the weighting factor or the threshold value is changed based on the recognition result of the distance information of a part of the hierarchical connection of other neuron type threshold value elements.
JP7115756A 1995-05-15 1995-05-15 Image recognition device Pending JPH08315141A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7115756A JPH08315141A (en) 1995-05-15 1995-05-15 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7115756A JPH08315141A (en) 1995-05-15 1995-05-15 Image recognition device

Publications (1)

Publication Number Publication Date
JPH08315141A true JPH08315141A (en) 1996-11-29

Family

ID=14670277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7115756A Pending JPH08315141A (en) 1995-05-15 1995-05-15 Image recognition device

Country Status (1)

Country Link
JP (1) JPH08315141A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7054850B2 (en) 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
JP2014209794A (en) * 2009-07-28 2014-11-06 エコール・ポリテクニーク・フェデラル・ドゥ・ローザンヌ (ウ・ペ・エフ・エル)Ecole Polytechnique Federalede Lausanne (Epfl) Encoding and decoding of information
US10373048B2 (en) 2010-02-05 2019-08-06 Ecole Polytechnique Federale De Lausanne (Epfl) Organizing neural networks
KR20200067916A (en) * 2016-06-14 2020-06-12 더 가버닝 카운슬 오브 더 유니버시티 오브 토론토 Accelerator for deep neural networks

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7054850B2 (en) 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
JP2014209794A (en) * 2009-07-28 2014-11-06 エコール・ポリテクニーク・フェデラル・ドゥ・ローザンヌ (ウ・ペ・エフ・エル)Ecole Polytechnique Federalede Lausanne (Epfl) Encoding and decoding of information
US10373048B2 (en) 2010-02-05 2019-08-06 Ecole Polytechnique Federale De Lausanne (Epfl) Organizing neural networks
US10387767B2 (en) 2010-02-05 2019-08-20 Ecole Polytechnique Federale De Lausanne (Epfl) Organizing neural networks
US11126911B2 (en) 2010-02-05 2021-09-21 Ecole Polytechnique Federale De Lausanne (Epfl) Organizing neural networks
US11900237B2 (en) 2010-02-05 2024-02-13 Ecole Polytechnique Federale De Lausanne (Epfl) Organizing neural networks
KR20200067916A (en) * 2016-06-14 2020-06-12 더 가버닝 카운슬 오브 더 유니버시티 오브 토론토 Accelerator for deep neural networks
US11423289B2 (en) 2016-06-14 2022-08-23 Samsung Electronics Co., Ltd. Accelerator for deep neural networks

Similar Documents

Publication Publication Date Title
CN112287940A (en) Semantic segmentation method of attention mechanism based on deep learning
US7174044B2 (en) Method for character recognition based on gabor filters
JP3353968B2 (en) Image processing device
JP6192271B2 (en) Image processing apparatus, image processing method, and program
US7528991B2 (en) Method of generating a mask image of membership of single pixels to certain chromaticity classes and of adaptive improvement of a color image
CN109859091B (en) Image steganography detection method based on Gabor filtering and convolutional neural network
JP6341650B2 (en) Image processing apparatus, image processing method, and program
CN104834933A (en) Method and device for detecting salient region of image
JPH07121656A (en) Image area separating device
CN112883824A (en) Finger vein feature recognition device for intelligent blood sampling and recognition method thereof
US7187785B2 (en) Image processing method and apparatus
CN112418087A (en) Underwater video fish identification method based on neural network
Rana et al. MSRD-CNN: Multi-scale residual deep CNN for general-purpose image manipulation detection
CN113628143A (en) Weighted fusion image defogging method and device based on multi-scale convolution
KR20080079443A (en) Method and apparatus for extracting object from image
JPH08315141A (en) Image recognition device
JP4285640B2 (en) Object identification method, apparatus and program
JP2009123234A (en) Object identification method, apparatus and program
US5887078A (en) Apparatus and method for classifying and recognizing image patterns using neural network
Hernandez et al. Classification of color textures with random field models and neural networks
CN115512226A (en) LiDAR point cloud filtering method integrated with attention machine system multi-scale CNN
Paunwala et al. An improved license plate extraction technique based on gradient and prolonged Haar wavelet analysis
CN113159015A (en) Seal identification method based on transfer learning
CN117893413B (en) Vehicle-mounted terminal man-machine interaction method based on image enhancement
Greenspan Non-parametric texture learning