JP2002230552A - Pattern recognition process device and method and pattern recognition program - Google Patents

Pattern recognition process device and method and pattern recognition program

Info

Publication number
JP2002230552A
JP2002230552A JP2001020843A JP2001020843A JP2002230552A JP 2002230552 A JP2002230552 A JP 2002230552A JP 2001020843 A JP2001020843 A JP 2001020843A JP 2001020843 A JP2001020843 A JP 2001020843A JP 2002230552 A JP2002230552 A JP 2002230552A
Authority
JP
Japan
Prior art keywords
image
pattern recognition
regions
averaging
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001020843A
Other languages
Japanese (ja)
Inventor
Koutarou Satou
皇太郎 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2001020843A priority Critical patent/JP2002230552A/en
Publication of JP2002230552A publication Critical patent/JP2002230552A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a pattern recognition process device and method and a pattern recognition program capable of causing an overall atmosphere to reflect on the result of recognition while making the burden of a process relatively light. SOLUTION: An averaging process part 14 divides an original image into a plurality of regions and averages a gradation value for each region. A two-dimensional FFT process part 16 performs a two-dimensional FFT process on the original image and another averaging process part 18 divides the result into a plurality of regions and performs averaging for each of the regions. A plurality of average values obtained by the two averaging process parts 14 and 18 are input to a neural network process part 20, and of learning results the one closest to the real pattern is extracted as the result of recognition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラを用いて人
体や風景や小物等の各種の被写体を撮像してそれらに対
してパターン認識を行うパターン認識処理装置、方法お
よびパターン認識プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern recognition processing apparatus, a method, and a pattern recognition program for photographing various subjects such as a human body, a landscape, and small objects using a camera and performing pattern recognition on the subjects.

【0002】[0002]

【従来の技術】従来から、FA(Factory Automation)
などの分野では、カメラで撮像した画像に基づいて特定
の対象物に対応する部分画像の抽出や内容の認識を行う
パターン認識技術が用いられている。例えば、多品種少
量の製品の仕分け作業を無人で行う際に、前工程から移
送されてくる製品の種類を識別するためにパターン認識
技術が用いられる。
2. Description of the Related Art Conventionally, FA (Factory Automation)
In such a field, a pattern recognition technique for extracting a partial image corresponding to a specific target object and recognizing the content based on an image captured by a camera is used. For example, when an operation of sorting a large variety of small products is performed unattended, a pattern recognition technology is used to identify the types of products transferred from a previous process.

【0003】[0003]

【発明が解決しようとする課題】ところで、従来のパタ
ーン認識技術では、撮像した画像の中から認識対象とな
る画像を切り出した後に、この切り出した画像に対して
パターン比較を行っている。したがって、パターン認識
を行う際に必ず画像の切り出し処理も行う必要があり、
処理の負担が重いという問題があった。また、切り出し
た部分のみがパターン認識の処理対象となるため、撮像
範囲全体の雰囲気をパターン認識に反映させることがで
きないという問題があった。
In the conventional pattern recognition technique, an image to be recognized is cut out of a picked-up image, and pattern comparison is performed on the cut out image. Therefore, when performing pattern recognition, it is also necessary to always perform image cutout processing,
There was a problem that the processing load was heavy. In addition, since only the cut-out portion is subjected to pattern recognition, there is a problem that the atmosphere of the entire imaging range cannot be reflected on pattern recognition.

【0004】本発明は、このような点に鑑みて創作され
たものであり、その目的は、比較的処理の負担が軽く、
全体的な雰囲気を認識結果に反映させることができるパ
ターン認識処理装置、方法およびパターン認識プログラ
ムを提供することにある。
[0004] The present invention has been made in view of the above points, and its object is to relatively lightly burden the processing.
An object of the present invention is to provide a pattern recognition processing device, a method, and a pattern recognition program that can reflect the overall atmosphere in a recognition result.

【0005】[0005]

【課題を解決するための手段】上述した課題を解決する
ために、本発明のパターン認識処理装置は、第1および
第2の平均化処理手段、周波数解析手段、ニューラルネ
ットワーク処理手段、出力手段を備えている。第1の平
均化処理手段は、認識対象物が撮像された第1の画像を
複数の領域に分割し、各分割領域毎に階調値を平均化す
る。周波数解析手段は、第1の画像を構成する各画素の
値を用いて周波数解析を行う。第2の平均化処理手段
は、周波数解析手段によって得られた解析結果の二次元
分布を複数の領域に分割し、各分割領域毎に解析結果を
平均化する。ニューラルネットワーク処理手段は、第1
および第2の平均化処理手段によって得られた各平均値
を、入力層に含まれる複数セルに対応させて入力する。
出力手段は、ニューラルネットワーク処理手段の出力層
に含まれる複数セルの出力値の中で目標に近いものを抽
出することにより認識結果を得る。認識対象物が撮像さ
れた第1の画像と、この画像を周波数分析した結果の二
次元分布のそれぞれを複数の領域に分割して、各分割領
域毎に平均値を求めた結果をニューラルネットワークに
入力することにより、パターン認識を行っており、特定
の認識対象画像を切り出す処理が不要になるため、処理
の負担を軽減することができる。また、撮像範囲全体を
用いてパターン認識を行っているため、全体的な雰囲気
を認識結果に反映させることができる。さらに、撮像さ
れた画像だけでなく、これを周波数解析した結果も用い
てパターン認識を行っているため、認識精度を高めるこ
とができる。
In order to solve the above-mentioned problems, a pattern recognition processing apparatus according to the present invention comprises first and second averaging processing means, frequency analysis means, neural network processing means, and output means. Have. The first averaging unit divides the first image of the object to be recognized into a plurality of regions, and averages the gradation values for each of the divided regions. The frequency analysis means performs a frequency analysis using the values of each pixel constituting the first image. The second averaging unit divides the two-dimensional distribution of the analysis result obtained by the frequency analysis unit into a plurality of regions, and averages the analysis result for each divided region. The neural network processing means comprises:
And the respective average values obtained by the second averaging processing means are input in correspondence with a plurality of cells included in the input layer.
The output means obtains a recognition result by extracting an output value of a plurality of cells included in an output layer of the neural network processing means which is close to a target. The first image obtained by capturing the object to be recognized and the two-dimensional distribution obtained as a result of frequency analysis of the image are divided into a plurality of regions, and the result of calculating the average value for each divided region is stored in a neural network. By inputting, pattern recognition is performed, and a process of cutting out a specific recognition target image becomes unnecessary, so that the processing load can be reduced. In addition, since pattern recognition is performed using the entire imaging range, the overall atmosphere can be reflected in the recognition result. Furthermore, since pattern recognition is performed using not only a captured image but also a result of frequency analysis of the image, recognition accuracy can be improved.

【0006】また、上述した目標は、最大値あるいは最
小値であることが望ましい。特定の値(目標値)に近い
か否かを調べるよりも、最大値であるか否か、あるいは
最小値であるか否かを調べる処理の方が容易であり、処
理負担の軽減および処理の高速化が可能になる。
It is desirable that the above-mentioned target is a maximum value or a minimum value. It is easier to check whether the value is the maximum value or the minimum value than to check whether the value is close to a specific value (target value). Speeding up becomes possible.

【0007】また、上述した認識対象物を撮像する撮像
手段と、この撮像手段による撮像によって得られた原画
像に対して所定の処理を行って第1の画像を生成する前
処理手段とを備えることが望ましい。実際に撮像された
第1の画像に対して前処理が行われるため、それ以後の
処理に適した画像データ(例えばグレースケールの画像
データ)を得ることができ、処理の簡素化等が可能にな
る。
[0007] Further, there are provided an image pickup means for picking up an image of the object to be recognized, and a preprocessing means for performing a predetermined process on an original image obtained by the image pickup by the image pickup means to generate a first image. It is desirable. Since preprocessing is performed on the first image actually captured, image data (for example, grayscale image data) suitable for subsequent processing can be obtained, and processing can be simplified. Become.

【0008】また、上述した周波数解析手段によって行
われる周波数解析は、二次元高速フーリエ変換処理であ
ることが望ましい。二次元高速フーリエ変換処理によっ
て、平面的な広がりを持った解析結果が容易に得られる
ため、認識対象物の特徴をより正確に把握することがで
きるようになり、認識精度を向上させることができる。
It is desirable that the frequency analysis performed by the above-described frequency analysis means be a two-dimensional fast Fourier transform process. By the two-dimensional fast Fourier transform processing, an analysis result having a planar spread can be easily obtained, so that the characteristics of the recognition target can be grasped more accurately, and the recognition accuracy can be improved. .

【0009】また、本発明のパターン認識処理方法は、
認識対象物が撮像された第1の画像を複数の領域に分割
し、各分割領域毎に階調値を平均化する第1のステップ
と、第1の画像を構成する各画素の値を用いて周波数解
析を行う第2のステップと、第2のステップで得られた
解析結果の二次元分布を複数の領域に分割して各分割領
域毎に解析結果を平均化する第3のステップと、第1お
よび第3のステップにおいて得られた各平均値を、入力
層に含まれる複数のセルに対応させて入力して、ニュー
ラルネットワークの出力層に含まれる複数セルの出力値
を出力する第4のステップと、この第4のステップにお
いて出力された複数の出力値の中で目標に近いものを抽
出することにより認識結果を得る第5のステップとを有
している。また、本発明のパターン認識プログラムは、
認識対象物の内容を認識するために、コンピュータに、
認識対象物が撮像された第1の画像を複数の領域に分割
し、各分割領域毎に階調値を平均化する第1のステッ
プ、第1の画像を構成する各画素の値を用いて周波数解
析を行う第2のステップ、第2のステップで得られた解
析結果の二次元分布を複数の領域に分割し、各分割領域
毎に解析結果を平均化する第3のステップ、第1および
第3のステップにおいて得られた各平均値を、入力層に
含まれる複数のセルに対応させて入力して、ニューラル
ネットワークの出力層に含まれる複数セルの出力値を出
力する第4のステップ、第4のステップにおいて出力さ
れた複数の出力値の中で目標に近いものを抽出すること
により認識結果を得る第5のステップ、を実行させるた
めのものである。
Further, the pattern recognition processing method of the present invention comprises:
A first step of dividing the first image of the object to be recognized into a plurality of regions, averaging the gradation values for each of the divided regions, and using a value of each pixel constituting the first image. A second step of performing a frequency analysis by performing the above, a third step of dividing the two-dimensional distribution of the analysis result obtained in the second step into a plurality of regions, and averaging the analysis result for each divided region; A fourth step of inputting each of the average values obtained in the first and third steps in correspondence with a plurality of cells included in the input layer and outputting output values of the plurality of cells included in the output layer of the neural network; And a fifth step of obtaining a recognition result by extracting a value close to the target from among the plurality of output values output in the fourth step. Further, the pattern recognition program of the present invention comprises:
In order to recognize the contents of the recognition target, the computer
A first step of dividing the first image of the object to be recognized into a plurality of regions and averaging the gradation values for each of the divided regions, using a value of each pixel constituting the first image; A second step of performing a frequency analysis, a third step of dividing the two-dimensional distribution of the analysis result obtained in the second step into a plurality of regions, and averaging the analysis result for each of the divided regions; A fourth step of inputting each of the average values obtained in the third step in association with a plurality of cells included in the input layer and outputting output values of the plurality of cells included in the output layer of the neural network; The fifth step is to obtain a recognition result by extracting a plurality of output values output in the fourth step that are close to the target.

【0010】本発明のパターン認識処理方法を実施する
ことにより、あるいは本発明のパターン認識プログラム
をコンピュータで実行することにより、特定の認識対象
画像を切り出さずにパターン認識を行うことができるた
め、処理の負担を軽減することができる。また、撮像範
囲全体を用いてパターン認識を行うことにより、全体的
な雰囲気を認識結果に反映させることができる。さら
に、撮像された画像だけでなく、これを周波数解析した
結果も用いてパターン認識を行っているため、認識精度
を高めることができる。
By implementing the pattern recognition processing method of the present invention or executing the pattern recognition program of the present invention on a computer, pattern recognition can be performed without cutting out a specific image to be recognized. Burden can be reduced. Further, by performing pattern recognition using the entire imaging range, the overall atmosphere can be reflected in the recognition result. Furthermore, since pattern recognition is performed using not only a captured image but also a result of frequency analysis of the image, recognition accuracy can be improved.

【0011】[0011]

【発明の実施の形態】以下、本発明を適用した一実施形
態のパターン認識処理装置について、図面を参照しなが
ら詳細に説明する。図1は、本実施形態のパターン認識
処理装置の構成を示す図である。図1に示す本実施形態
のパターン認識処理装置は、カメラ10、パターン認識
処理部40、情報記憶媒体50を含んで構成されてい
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A pattern recognition processing apparatus according to an embodiment of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of a pattern recognition processing device according to the present embodiment. The pattern recognition processing device according to the present embodiment shown in FIG. 1 includes a camera 10, a pattern recognition processing unit 40, and an information storage medium 50.

【0012】カメラ10は、ステージ30上に配置され
た認識対象物100を撮像する。例えば、撮像素子とし
てCCD(電荷結合素子)が用いられている。パターン
認識処理部40は、カメラ10によって撮像された認識
対象物100の内容を所定のパターン認識処理を行うこ
とによって特定する。このために、パターン認識処理部
40は、前処理部12、平均化処理部14、18、二次
元FFT処理部16、ニューラルネットワーク処理部2
0、最大値抽出部22、学習入力部24を含んで構成さ
れている。
The camera 10 captures an image of a recognition target 100 placed on the stage 30. For example, a CCD (Charge Coupled Device) is used as an image sensor. The pattern recognition processing unit 40 specifies the content of the recognition target 100 captured by the camera 10 by performing a predetermined pattern recognition process. For this purpose, the pattern recognition processing unit 40 includes the preprocessing unit 12, the averaging processing units 14 and 18, the two-dimensional FFT processing unit 16, the neural network processing unit 2
0, a maximum value extracting unit 22, and a learning input unit 24.

【0013】前処理部12は、カメラ10から出力され
る3色の色データからなる撮像データを、グレースケー
ルの階調データからなる撮像データに変換するととも
に、この変換処理後の撮像データに対して所定の前処理
を行う。前処理には、ステージ30をカメラ10によっ
て撮像したときに生じる明るさの不均一さを補正する処
理が考えられるが、この処理は不均一の程度が小さい場
合には省略するようにしてもよい。
The pre-processing unit 12 converts image data consisting of three color data output from the camera 10 into image data consisting of grayscale gradation data, and converts the image data after the conversion process. To perform predetermined pre-processing. As the pre-processing, processing for correcting unevenness in brightness that occurs when the stage 30 is imaged by the camera 10 can be considered, but this processing may be omitted if the degree of unevenness is small. .

【0014】平均化処理部14は、前処理部12から撮
像範囲に含まれる各画素に対応してグレースケールの階
調値が入力されており、この撮像範囲を複数の領域に分
割して、それぞれの分割領域毎の階調値の平均を演算す
る。ここでは、グレースケールの原画像に対して、いわ
ゆるモザイク処理が施される。
The averaging processing unit 14 receives grayscale tone values corresponding to each pixel included in the imaging range from the preprocessing unit 12, and divides the imaging range into a plurality of regions. The average of the gradation values for each divided area is calculated. Here, a so-called mosaic process is performed on the grayscale original image.

【0015】二次元FFT(高速フーリエ変換)処理部
16は、前処理部12から出力されるグレースケールの
二次元画像に対して二次元のFFT処理を行う。また、
平均化処理部18は、二次元FFT処理部16による解
析結果の二次元分布を複数の領域に分割して、それぞれ
の分割領域毎の平均を演算する。解析結果の二次元分布
を二次元画像の形式で表した場合には、この平均化処理
部18による処理も、上述した平均化処理部14による
処理と同様に、いわゆるモザイク処理に相当する。
A two-dimensional FFT (fast Fourier transform) processing unit 16 performs a two-dimensional FFT process on a grayscale two-dimensional image output from the preprocessing unit 12. Also,
The averaging unit 18 divides the two-dimensional distribution of the analysis result by the two-dimensional FFT unit 16 into a plurality of regions, and calculates an average for each of the divided regions. When the two-dimensional distribution of the analysis result is represented in the form of a two-dimensional image, the processing by the averaging processing unit 18 also corresponds to a so-called mosaic processing, similar to the processing by the averaging processing unit 14 described above.

【0016】ニューラルネットワーク処理部20は、2
つの平均化処理部14、18による複数の平均値を入力
層の複数のセルに対応させて、ニューラルネットワーク
の出力層に含まれる複数のセルから出力値を出力する。
最大値抽出部22は、ニューラルネットワーク処理部2
0の複数の出力値の中から値が最大となるものを抽出
し、このときのセルを特定することにより、認識結果を
導出する。なお、この認識結果を導出する前提として、
ニューラルネットワークに対して認識対象物を学習させ
る必要がある。ニューラルネットワークの学習のアルゴ
リズムには種々の手法が知られている。例えば、BP法
(バックプロパゲーション法)等を用いて学習を行うも
のとする。
The neural network processing unit 20
Output values are output from a plurality of cells included in the output layer of the neural network by making a plurality of average values obtained by the two averaging processing units 14 and 18 correspond to a plurality of cells of the input layer.
The maximum value extraction unit 22 is a neural network processing unit 2
A value having the maximum value is extracted from a plurality of output values of 0, and a cell at this time is specified to derive a recognition result. As a premise to derive this recognition result,
It is necessary to make the neural network learn the object to be recognized. Various methods are known as algorithms for learning a neural network. For example, it is assumed that learning is performed using a BP method (back propagation method) or the like.

【0017】学習入力部24は、ニューラルネットワー
クの学習を行う際に、正しい認識結果を覚えさせるため
に、出力層の特定のセルを指定するために用いられる。
情報記憶媒体50は、パターン認識処理部40によって
行われるパターン認識処理の実施に必要なプログラムを
格納するためのものである。この情報記憶媒体50は、
CD(コンパクトディスク)等の光学式のディスク型記
憶媒体や、ROM、RAM等の半導体メモリ、あるいは
ハードディスク装置などを用いて構成されている。
The learning input unit 24 is used to designate a specific cell in the output layer in order to make a correct recognition result remembered when learning the neural network.
The information storage medium 50 stores a program necessary for performing the pattern recognition processing performed by the pattern recognition processing unit 40. This information storage medium 50
It is configured using an optical disk-type storage medium such as a CD (compact disk), a semiconductor memory such as a ROM or a RAM, or a hard disk device.

【0018】例えば、情報記憶媒体50として一連のパ
ターン認識処理用のプログラムを格納したROMやRA
Mを考えた場合に、パターン認識処理部40に含まれる
前処理部12、平均化処理部14、18、二次元FFT
処理部16、ニューラルネットワーク処理部20、最大
値抽出部22、学習入力部24は、このプログラムをC
PUによって実行することにより実現することができ
る。
For example, as the information storage medium 50, a ROM or RA storing a series of programs for pattern recognition processing is stored.
When M is considered, the preprocessing unit 12, the averaging units 14, 18 included in the pattern recognition processing unit 40, and the two-dimensional FFT
The processing unit 16, the neural network processing unit 20, the maximum value extracting unit 22, and the learning input unit 24
It can be realized by executing by a PU.

【0019】上述したカメラ10が撮像手段に、前処理
部12が前処理手段に、平均化処理部14が第1の平均
化処理手段に、二次元FFT処理部16が周波数解析手
段に、平均化処理部18が第2の平均化処理手段に、ニ
ューラルネットワーク処理部20がニューラルネットワ
ーク処理手段に、最大値抽出部22が出力手段にそれぞ
れ対応する。
The above-mentioned camera 10 serves as an image pickup means, the preprocessing section 12 serves as a preprocessing means, the averaging processing section 14 serves as a first averaging processing means, the two-dimensional FFT processing section 16 serves as a frequency analysis means, and The processing unit 18 corresponds to the second averaging processing unit, the neural network processing unit 20 corresponds to the neural network processing unit, and the maximum value extracting unit 22 corresponds to the output unit.

【0020】本実施形態のパターン認識処理装置はこの
ような構成を有しており、次にその処理手順を説明す
る。図2は、ステージ30上に配置された認識対象物1
00をカメラ10によって撮像し、その内容を認識する
までの一連のパターン認識手順を示す流れ図である。以
下、図2を参照しながら、一連のパターン認識動作につ
いて説明する。
The pattern recognition processing apparatus of the present embodiment has such a configuration, and the processing procedure will be described next. FIG. 2 shows the recognition target 1 placed on the stage 30.
9 is a flowchart showing a series of pattern recognition procedures from capturing an image of 00 by the camera 10 to recognizing the contents. Hereinafter, a series of pattern recognition operations will be described with reference to FIG.

【0021】まず、カメラ10によって、ステージ30
上に配置された認識対象物100を撮像する(ステップ
100)。カメラ100からは、撮像画像の各画素の色
データ(RGBデータ)が出力される。前処理部12
は、カメラ10から出力された色データに基づいて、グ
レースケールの階調データを計算する(ステップ10
1)。
First, the stage 30 is controlled by the camera 10.
An image of the recognition target 100 arranged above is taken (step 100). The camera 100 outputs color data (RGB data) of each pixel of the captured image. Preprocessing unit 12
Calculates grayscale gradation data based on the color data output from the camera 10 (step 10).
1).

【0022】次に、平均化処理部14は、グレースケー
ルに変換された原画像に対して、一般にモザイク処理と
称される所定の平均化処理を行う(ステップ102)。
また、この平均化処理と並行して、あるいは前後して、
二次元FFT処理部16は、グレースケールに変換され
た原画像に対して二次元FFT処理を行う(ステップ1
03)。その後、平均化処理部18は、この二次元FF
T処理の結果に対して、所定の平均化処理を行う(ステ
ップ104)。
Next, the averaging processing unit 14 performs a predetermined averaging process, which is generally called a mosaic process, on the original image converted into the gray scale (step 102).
In parallel with or before or after this averaging process,
The two-dimensional FFT processing unit 16 performs two-dimensional FFT processing on the original image converted to gray scale (step 1).
03). After that, the averaging processing unit 18 outputs the two-dimensional FF
A predetermined averaging process is performed on the result of the T process (step 104).

【0023】次に、ニューラルネットワーク処理部20
は、ニューラルネットワークを用いた所定の処理を、ス
テップ102および104のそれぞれにおいて求められ
た複数の平均値を入力層の各セルに対応させて実施する
(ステップ105)。このとき、最大値抽出部22は、
ニューラルネットワークの出力層に含まれる複数のセル
の中から値が最大となるものを抽出し(ステップ10
6)、このセルに対応する認識結果を出力する(ステッ
プ107)。
Next, the neural network processing unit 20
Performs a predetermined process using a neural network by associating a plurality of average values obtained in each of steps 102 and 104 with each cell of the input layer (step 105). At this time, the maximum value extracting unit 22
The cell having the maximum value is extracted from the plurality of cells included in the output layer of the neural network (step 10).
6) Output the recognition result corresponding to this cell (step 107).

【0024】図3は、上述したパターン認識処理の流れ
を概略的に示す図である。図3において、Aで示される
グレースケールの原画像に基づいて、Bで示される平均
化処理(図2のステップ102)と、Cで示される二次
元FFT処理が行われる(図2の103)。その後、こ
の二次元FFT処理の結果に基づいて、Dで示される平
均化処理(図2のステップ104)が行われる。
FIG. 3 is a diagram schematically showing the flow of the pattern recognition processing described above. 3, an averaging process indicated by B (Step 102 in FIG. 2) and a two-dimensional FFT process indicated by C are performed based on the grayscale original image indicated by A (103 in FIG. 2). . Then, based on the result of the two-dimensional FFT processing, an averaging processing indicated by D (Step 104 in FIG. 2) is performed.

【0025】このようにして、原画像そのものを平均化
処理した結果と、原画像を二次元FFT処理したものを
平均化処理した結果とが得られ、これら複数の結果が、
Eで示されるニューラルネットワークに入力されて、最
終的に最も該当する確率が高い一つの認識結果が得られ
る。
In this way, a result of averaging the original image itself and a result of averaging the two-dimensional FFT processed image of the original image are obtained.
The result is input to the neural network indicated by E, and one recognition result with the highest probability of being finally obtained is finally obtained.

【0026】図3では、例えば入力層96セル、中間層
30セル、出力層10セルのニューラルネットワークが
用いられているが、この層数および各層のセル数は任意
に変更可能である。このように、本実施形態のパターン
認識処理装置では、グレースケールの原画像と、この原
画像を二次元FFT処理した結果の二次元分布のそれぞ
れを複数の領域に分割して、各分割領域毎に平均値を求
めた結果をニューラルネットワークに入力することによ
り、パターン認識を行っており、特定の認識対象画像を
切り出す処理が不要になるため、処理の負担を軽減する
ことができる。また、撮像範囲全体を用いてパターン認
識を行っているため、認識対象物の周辺の雰囲気を認識
結果に反映させることができる。さらに、原画像を平均
化処理した結果のみならず、原画像に対して二次元FF
T処理した後に平均化処理した結果も用いることによ
り、パターン認識の精度を高めることができる。
In FIG. 3, for example, a neural network of 96 cells in the input layer, 30 cells in the intermediate layer, and 10 cells in the output layer is used, but the number of layers and the number of cells in each layer can be arbitrarily changed. As described above, the pattern recognition processing apparatus according to the present embodiment divides each of the grayscale original image and the two-dimensional distribution resulting from the two-dimensional FFT processing of the original image into a plurality of regions, and By inputting the result of calculating the average value into the neural network, pattern recognition is performed, and the processing of cutting out a specific recognition target image becomes unnecessary, so that the processing load can be reduced. Further, since pattern recognition is performed using the entire imaging range, the atmosphere around the recognition target can be reflected in the recognition result. Furthermore, not only the result of averaging the original image but also the two-dimensional FF
By using the result of the averaging process after the T process, the accuracy of pattern recognition can be improved.

【0027】なお、本発明は上記実施形態に限定される
ものではなく、本発明の要旨の範囲内で種々の変形実施
が可能である。例えば、図1では、ステージ30上に認
識対象物100を配置した場合を考えたが、図3におい
て原画像Aで示すように、任意の空間を撮像して得られ
た画像に基づいてパターン認識を行うようにしてもよ
い。また、必ずしも撮像範囲の全てを用いてパターン認
識を行う必要はなく、撮像範囲の一部の画像を抽出して
パターン認識を行うようにしてもよい。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the present invention. For example, in FIG. 1, the case where the recognition target object 100 is arranged on the stage 30 is considered. However, as shown by an original image A in FIG. 3, pattern recognition is performed based on an image obtained by capturing an arbitrary space. May be performed. Further, it is not always necessary to perform pattern recognition using the entire imaging range, and pattern recognition may be performed by extracting a part of the image of the imaging range.

【0028】また、上述した実施形態では、ニューラル
ネットワーク処理部20の複数の出力値の中から最大の
ものを抽出して認識結果を求めるようにしたが、一般に
は複数の出力値の中から目標に近いものを抽出して認識
結果を求めるようにしてもよい。但し、最大値あるいは
最小値を検出する処理の方が、中間の目標値に近いもの
を検出する処理よりも負担が軽いため、負担の軽減ある
いは処理の高速化を図る上では好ましい。
In the above-described embodiment, the maximum value is extracted from the plurality of output values of the neural network processing unit 20 to obtain the recognition result. Alternatively, a recognition result may be obtained by extracting a result similar to the above. However, the process of detecting the maximum value or the minimum value is lighter in load than the process of detecting a value close to the intermediate target value, and is therefore preferable in reducing the load or speeding up the process.

【0029】[0029]

【発明の効果】上述したように、本発明によれば、認識
対象物が撮像された第1の画像と、この画像を周波数分
析した結果の二次元分布のそれぞれを複数の領域に分割
して、各分割領域毎に平均値を求めた結果をニューラル
ネットワークに入力することにより、パターン認識を行
っており、特定の認識対象画像を切り出す処理が不要に
なるため、処理の負担を軽減することができる。また、
撮像範囲全体を用いてパターン認識を行っているため、
全体的な雰囲気を認識結果に反映させることができる。
さらに、撮像された画像だけでなく、これを周波数解析
した結果も用いてパターン認識を行っているため、認識
精度を高めることができる。
As described above, according to the present invention, each of the first image of the object to be recognized and the two-dimensional distribution resulting from the frequency analysis of this image is divided into a plurality of regions. By inputting the result of calculating the average value for each divided region to the neural network, pattern recognition is performed, and the process of cutting out a specific image to be recognized becomes unnecessary, so that the processing load can be reduced. it can. Also,
Since pattern recognition is performed using the entire imaging range,
The overall atmosphere can be reflected in the recognition result.
Furthermore, since pattern recognition is performed using not only a captured image but also a result of frequency analysis of the image, recognition accuracy can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】一実施形態のパターン認識処理装置の構成を示
す図である。
FIG. 1 is a diagram illustrating a configuration of a pattern recognition processing device according to an embodiment.

【図2】ステージ上に配置された認識対象物をカメラに
よって撮像し、その内容を認識するまでの一連のパター
ン認識手順を示す流れ図である。
FIG. 2 is a flowchart showing a series of pattern recognition procedures from capturing an image of a recognition target placed on a stage using a camera to recognizing the contents thereof.

【図3】パターン認識処理の流れを概略的に示す図であ
る。
FIG. 3 is a diagram schematically showing a flow of a pattern recognition process.

【符号の説明】[Explanation of symbols]

10 カメラ 12 前処理部 14、18 平均化処理部 16 二次元FFT処理部 20 ニューラルネットワーク処理部 22 最大値抽出部 24 学習入力部 40 パターン認識処理部 50 情報記憶媒体 DESCRIPTION OF SYMBOLS 10 Camera 12 Preprocessing part 14, 18 Averaging part 16 Two-dimensional FFT processing part 20 Neural network processing part 22 Maximum value extraction part 24 Learning input part 40 Pattern recognition processing part 50 Information storage medium

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 認識対象物が撮像された第1の画像を複
数の領域に分割し、各分割領域毎に階調値を平均化する
第1の平均化処理手段と、 前記第1の画像を構成する各画素の値を用いて周波数解
析を行う周波数解析手段と、 前記周波数解析手段によって得られた解析結果の二次元
分布を複数の領域に分割し、各分割領域毎に解析結果を
平均化する第2の平均化処理手段と、 前記第1および第2の平均化処理手段によって得られた
各平均値を、入力層に含まれる複数セルに対応させて入
力するニューラルネットワーク処理手段と、 前記ニューラルネットワーク処理手段の出力層に含まれ
る複数セルの出力値の中で目標に近いものを抽出するこ
とにより認識結果を得る出力手段と、 を備えることを特徴とするパターン認識処理装置。
A first averaging unit that divides a first image of the object to be recognized into a plurality of regions, and averages a gradation value for each divided region; and the first image. Frequency analysis means for performing frequency analysis using the value of each pixel constituting the, the two-dimensional distribution of the analysis result obtained by the frequency analysis means is divided into a plurality of regions, and the analysis results are averaged for each divided region A second averaging processing means for converting the average value obtained by the first and second averaging processing means into a plurality of cells included in the input layer, and a neural network processing means for inputting the average values. A pattern recognition processing apparatus comprising: an output unit that obtains a recognition result by extracting a value close to a target from output values of a plurality of cells included in an output layer of the neural network processing unit.
【請求項2】 請求項1または2において、 前記目標は、最大値あるいは最小値であることを特徴と
するパターン認識処理装置。
2. The pattern recognition processing device according to claim 1, wherein the target is a maximum value or a minimum value.
【請求項3】 請求項1または2において、 前記認識対象物を撮像する撮像手段と、 前記撮像手段による撮像によって得られた原画像に対し
て所定の処理を行って前記第1の画像を生成する前処理
手段と、 を備えることを特徴とするパターン認識処理装置。
3. The first image according to claim 1, wherein the first image is generated by performing predetermined processing on an original image obtained by imaging by the imaging unit. A pattern recognition processing device, comprising:
【請求項4】 請求項1または2において、 前記周波数解析手段によって行われる前記周波数解析
は、二次元高速フーリエ変換処理であることを特徴とす
るパターン認識処理装置。
4. The pattern recognition processing device according to claim 1, wherein the frequency analysis performed by the frequency analysis unit is a two-dimensional fast Fourier transform process.
【請求項5】 認識対象物が撮像された第1の画像を複
数の領域に分割し、各分割領域毎に階調値を平均化する
第1のステップと、 前記第1の画像を構成する各画素の値を用いて周波数解
析を行う第2のステップと、 前記第2のステップで得られた解析結果の二次元分布を
複数の領域に分割し、各分割領域毎に解析結果を平均化
する第3のステップと、 前記第1および第3のステップにおいて得られた各平均
値を、入力層に含まれる複数のセルに対応させて入力し
て、ニューラルネットワークの出力層に含まれる複数セ
ルの出力値を出力する第4のステップと、 前記第4のステップにおいて出力された複数の出力値の
中で目標に近いものを抽出することにより認識結果を得
る第5のステップと、 を有することを特徴とするパターン認識処理方法。
5. A first step of dividing a first image in which a recognition target object is imaged into a plurality of regions and averaging a gradation value for each of the divided regions; and forming the first image. A second step of performing frequency analysis using the value of each pixel; and dividing the two-dimensional distribution of the analysis result obtained in the second step into a plurality of regions, and averaging the analysis results for each of the divided regions. And inputting the average values obtained in the first and third steps in association with a plurality of cells included in an input layer, and a plurality of cells included in an output layer of the neural network. And a fifth step of obtaining a recognition result by extracting a plurality of output values near the target from among the plurality of output values output in the fourth step. Pattern recognition processing characterized by Law.
【請求項6】 認識対象物の内容を認識するために、コ
ンピュータに、 認識対象物が撮像された第1の画像を複数の領域に分割
し、各分割領域毎に階調値を平均化する第1のステッ
プ、 前記第1の画像を構成する各画素の値を用いて周波数解
析を行う第2のステップ、 前記第2のステップで得られた解析結果の二次元分布を
複数の領域に分割し、各分割領域毎に解析結果を平均化
する第3のステップ、 前記第1および第3のステップにおいて得られた各平均
値を、入力層に含まれる複数のセルに対応させて入力し
て、ニューラルネットワークの出力層に含まれる複数セ
ルの出力値を出力する第4のステップ、 前記第4のステップにおいて出力された複数の出力値の
中で目標に近いものを抽出することにより認識結果を得
る第5のステップ、 を実行させるためのパターン認識プログラム。
6. A computer divides a first image of the object to be recognized into a plurality of regions and averages a gradation value for each of the divided regions in order to recognize the contents of the object to be recognized. A first step, a second step of performing frequency analysis using values of each pixel constituting the first image, and dividing a two-dimensional distribution of an analysis result obtained in the second step into a plurality of regions A third step of averaging the analysis results for each of the divided areas; and inputting the respective average values obtained in the first and third steps in association with a plurality of cells included in the input layer. A fourth step of outputting output values of a plurality of cells included in the output layer of the neural network; and extracting a recognition result by extracting a plurality of output values close to a target among the plurality of output values output in the fourth step. The fifth step to get, Pattern recognition program for executing
JP2001020843A 2001-01-29 2001-01-29 Pattern recognition process device and method and pattern recognition program Pending JP2002230552A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001020843A JP2002230552A (en) 2001-01-29 2001-01-29 Pattern recognition process device and method and pattern recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001020843A JP2002230552A (en) 2001-01-29 2001-01-29 Pattern recognition process device and method and pattern recognition program

Publications (1)

Publication Number Publication Date
JP2002230552A true JP2002230552A (en) 2002-08-16

Family

ID=18886493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001020843A Pending JP2002230552A (en) 2001-01-29 2001-01-29 Pattern recognition process device and method and pattern recognition program

Country Status (1)

Country Link
JP (1) JP2002230552A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210407057A1 (en) * 2020-06-29 2021-12-30 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210407057A1 (en) * 2020-06-29 2021-12-30 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
US11928799B2 (en) * 2020-06-29 2024-03-12 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device

Similar Documents

Publication Publication Date Title
CN109800631B (en) Fluorescence coding microsphere image detection method based on mask region convolution neural network
CN111524137B (en) Cell identification counting method and device based on image identification and computer equipment
US8447114B2 (en) Method and apparatus for calculating pixel features of image data
JP5777367B2 (en) Pattern identification device, pattern identification method and program
CN102098410A (en) Information processing apparatus, information processing method, program, and imaging apparatus including optical microscope
JP3741672B2 (en) Image feature learning type defect detection method, defect detection apparatus, and defect detection program
CN110674759A (en) Monocular face in-vivo detection method, device and equipment based on depth map
CN112270404A (en) Detection structure and method for bulge defect of fastener product based on ResNet64 network
JP2002230552A (en) Pattern recognition process device and method and pattern recognition program
US7502524B2 (en) Method and apparatus of processing a skin print image
CN111488889B (en) Intelligent image processor for extracting image edges
JP4789526B2 (en) Image processing apparatus and image processing method
JP5076567B2 (en) Template matching device, camera equipped with template matching device, computer matching program for computer
CN111797921A (en) Image data comparison method and device
JP2004178272A (en) Image processing apparatus and image processing method
JPH0793549A (en) Physical information sorting device using inductive learning and physical information sorting rule generation method using inductive learning
CN113706429B (en) Image processing method, device, electronic equipment and storage medium
JPH0458943A (en) Image recognizing device for digital radiation image
JPH08138025A (en) Method for determining picture discrimination parameter and picture recognition method
CN112329606B (en) Living body detection method, living body detection device, electronic equipment and readable storage medium
CN112116580B (en) Detection method, system and equipment for camera support
CN111435544B (en) Picture processing method and device
US20220092357A1 (en) Information processing apparatus, information processing method, and storage medium
JP4829757B2 (en) Ruled line extraction apparatus and method
JP3297964B2 (en) Image processing method and apparatus