JP2003504765A - neural network - Google Patents
neural networkInfo
- Publication number
- JP2003504765A JP2003504765A JP2001510157A JP2001510157A JP2003504765A JP 2003504765 A JP2003504765 A JP 2003504765A JP 2001510157 A JP2001510157 A JP 2001510157A JP 2001510157 A JP2001510157 A JP 2001510157A JP 2003504765 A JP2003504765 A JP 2003504765A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- barcode
- image
- pcnn
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000001228 spectrum Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 8
- 230000002123 temporal effect Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 6
- 150000001875 compounds Chemical class 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 12
- 238000001069 Raman spectroscopy Methods 0.000 description 8
- 238000001237 Raman spectrum Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004611 spectroscopical analysis Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- ZPTVNYMJQHSSEA-UHFFFAOYSA-N 4-nitrotoluene Chemical compound CC1=CC=C([N+]([O-])=O)C=C1 ZPTVNYMJQHSSEA-UHFFFAOYSA-N 0.000 description 2
- TZRXHJWUDPFEEY-UHFFFAOYSA-N Pentaerythritol Tetranitrate Chemical compound [O-][N+](=O)OCC(CO[N+]([O-])=O)(CO[N+]([O-])=O)CO[N+]([O-])=O TZRXHJWUDPFEEY-UHFFFAOYSA-N 0.000 description 2
- 239000000026 Pentaerythritol tetranitrate Substances 0.000 description 2
- 230000000747 cardiac effect Effects 0.000 description 2
- ZPUCINDJVBIVPJ-LJISPDSOSA-N cocaine Chemical compound O([C@H]1C[C@@H]2CC[C@@H](N2C)[C@H]1C(=O)OC)C(=O)C1=CC=CC=C1 ZPUCINDJVBIVPJ-LJISPDSOSA-N 0.000 description 2
- DWCLXOREGBLXTD-UHFFFAOYSA-N dmdnb Chemical compound [O-][N+](=O)C(C)(C)C(C)(C)[N+]([O-])=O DWCLXOREGBLXTD-UHFFFAOYSA-N 0.000 description 2
- 239000002360 explosive Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 229960004321 pentaerithrityl tetranitrate Drugs 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000000015 trinitrotoluene Substances 0.000 description 2
- 210000000857 visual cortex Anatomy 0.000 description 2
- SPSSULHKWOKEEL-UHFFFAOYSA-N 2,4,6-trinitrotoluene Chemical compound CC1=C([N+]([O-])=O)C=C([N+]([O-])=O)C=C1[N+]([O-])=O SPSSULHKWOKEEL-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- GVGLGOZIDCSQPN-PVHGPHFFSA-N Heroin Chemical compound O([C@H]1[C@H](C=C[C@H]23)OC(C)=O)C4=C5[C@@]12CCN(C)[C@@H]3CC5=CC=C4OC(C)=O GVGLGOZIDCSQPN-PVHGPHFFSA-N 0.000 description 1
- 238000004566 IR spectroscopy Methods 0.000 description 1
- 101001062854 Rattus norvegicus Fatty acid-binding protein 5 Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 229940035674 anesthetics Drugs 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 229960003920 cocaine Drugs 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 210000001787 dendrite Anatomy 0.000 description 1
- 229960002069 diamorphine Drugs 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 239000003193 general anesthetic agent Substances 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 101150006061 neur gene Proteins 0.000 description 1
- 230000008904 neural response Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000003534 oscillatory effect Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000013074 reference sample Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】 パルス結合されたニューラルネットワーク(PCNN)を使用して、スペクトル、画像または他の入力データシーケンスを認識、識別または分類するための方法。PCNNは、入力と1対1で対応する、バイナリバーコードデータの時間シグナチャを出力する。次いでこれが他のニューラルネットワークなどの認識エンジンに取り込まれ、これがバーコードデータの所定の既知基準時間シグナチャに基づいて識別する。したがってこの認識プロセスは、認識エンジンが基準スペクトルまたは画像に基づいて直接動作するよりも、簡単かつ高速である。 Abstract: A method for recognizing, identifying or classifying a spectrum, image or other input data sequence using a pulse-coupled neural network (PCNN). The PCNN outputs a time signature of the binary barcode data, which has a one-to-one correspondence with the input. This is then captured by a recognition engine, such as another neural network, which identifies based on a predetermined known reference time signature of the barcode data. Thus, the recognition process is simpler and faster than the recognition engine operating directly on a reference spectrum or image.
Description
【0001】
本発明は、パターンの認識または識別に使用されるニューラルネットワークに
関する。とりわけ、本発明は、サンプルの分光分析によって生成されるスペクト
ルの認識または識別または分類に使用することができる。本発明はまた、多種多
様な画像処理およびパターン認識の適用例において使用することができる。The present invention relates to neural networks used for pattern recognition or identification. Among other things, the present invention can be used to recognize or identify or classify spectra produced by spectroscopic analysis of a sample. The present invention can also be used in a wide variety of image processing and pattern recognition applications.
【0002】
サンプルの分光分析によって生成されるスペクトルを研究することで、サンプ
ル内の分子種の識別を実行することが知られている。たとえばこの目的で、ラマ
ン分光法および赤外吸収分光法が使用されてきた。ラマン分光法装置の一例が、
欧州特許出願第0543578号に示されている。It is known to perform identification of molecular species within a sample by studying the spectra produced by spectroscopic analysis of the sample. For example, Raman spectroscopy and infrared absorption spectroscopy have been used for this purpose. An example of a Raman spectroscopy device is
It is shown in European Patent Application No. 0543578.
【0003】
ただし、存在する化合物の識別は、特に、トレース(trace)化合物およ
び/または混合物内に存在する化合物を識別することが望ましい場合に、本質的
に依然として専門の分光技師の仕事である。生成されたスペクトルは、既知の基
準スペクトルおよび識別された一般的な特徴と比較しなければならない。However, the identification of compounds present is still essentially the task of a professional spectrographer, especially where it is desirable to identify compounds present in trace compounds and / or mixtures. The generated spectrum has to be compared with a known reference spectrum and the identified general features.
【0004】
視覚皮質の最近の研究[1、2]では、物体を識別するための同期振動を使用
した時間的処理の役割を大きく取り上げている。画像処理に関する方式を使用し
て、いくつかの振動性ニューラルネットワークモデルが開発されている。ただし
これらの方法は、ほとんどが調和振動子モデルまたは位相振動子モデルのいずれ
かを使用し、それ自体は樹状処理を無視する。Recent studies of the visual cortex [1, 2] have largely highlighted the role of temporal processing using synchronous oscillations to identify objects. Several oscillatory neural network models have been developed using schemes for image processing. However, most of these methods use either the harmonic oscillator model or the phase oscillator model, and by themselves ignore the dendrite process.
【0005】
画像処理に使用されている既知のニューラルネットワークは、パルス結合され
た(pulse coupled)ニューラルネットワーク(PCNN)であっ
て、これはコンピュータモデル皮質(computer−modelled c
ortex)ニューラルネットワーク(C−MCNN)とも呼ばれる。典型的に
は、統合しかつ発火する(fire)ニューロンの、2次元の水平方向に接続さ
れた配列を含んでいる。これは、1つのニューロンが画像化デバイスの各ピクセ
ルに接続されている、電荷結合デバイスなどの画像化デバイスによって生成され
た入力を受け取ることができる。本発明の一実施形態では、Eckhorn[1
]のオリジナルニューラルネットワークモデルが、画像をセグメント化するため
のJohnsonその他[2]の提案に従って修正されている。A known neural network used for image processing is the pulse coupled neural network (PCNN), which is a computer model cortex.
ortex) Neural network (C-MCNN). It typically includes a two-dimensional, horizontally connected array of integrating and firing neurons. It can receive input generated by an imaging device, such as a charge coupled device, with one neuron connected to each pixel of the imaging device. In one embodiment of the present invention, Eckhorn [1
] 'S original neural network model has been modified according to the suggestions of Johnson et al. [2] for segmenting images.
【0006】
本発明の一態様は、スペクトル、画像または他の入力データシーケンスを認識
、識別または分類するための方法を提供し、この方法は、
パルス結合されたニューラルネットワークにおいてスペクトル、画像またはデ
ータシーケンスを表す入力データを事前処理し、それによって入力データに対応
する時間シグナチャ(signature)を生成するステップと、
その時間シグナチャを、既知の基準スペクトル、画像またはデータシーケンス
の所定の時間シグナチャに基づいて認識、識別または分類する認識エンジンに適
用するステップとを備える。One aspect of the invention provides a method for recognizing, identifying or classifying a spectrum, image or other input data sequence, the method comprising: a spectrum, image or data sequence in a pulse-coupled neural network. Pre-processing the input data that represents, thereby generating a time signature corresponding to the input data, and recognizing the time signature based on a predetermined time signature of a known reference spectrum, image or data sequence. Applying to a recognition engine for identifying or classifying.
【0007】
認識エンジンは、ルックアップテーブル形式の時間シグナチャのライブラリを
使用することができる。あるいは、認識エンジンは、それ自体が多層パーセプト
ロン(multi−layer perceptron)(MLP)などの別の
ニューラルネットワークであってもよい。そのような認識エンジンがオリジナル
のスペクトルデータ上で直接使用されることはもちろん知られているが、この認
識がPCNNによって生成される時間シグナチャで実行されれば、かなり迅速か
つ容易に処理されることがわかった。The recognition engine can use a library of temporal signatures in the form of look-up tables. Alternatively, the recognition engine may itself be another neural network such as a multi-layer perceptron (MLP). It is of course known that such a recognition engine is used directly on the original spectral data, but if this recognition is performed with the time signature generated by the PCNN, it will be processed fairly quickly and easily. I understood.
【0008】
本発明の第2の態様は、少なくとも第1のパルス結合されたニューラルネット
ワークにおいて、スペクトル、画像またはデータシーケンスを表す少なくとも1
つの入力データを処理し、それによって、入力データに対応する出力バーコード
、またはそのようなバーコードを表す出力データのいずれかを生成するステップ
を含んでいる、スペクトル、画像または他の入力データシーケンスを認識、識別
または分類するための方法を提供する。A second aspect of the present invention is to provide at least one spectral, image or data sequence representation in at least a first pulse coupled neural network.
A spectrum, image or other input data sequence comprising the steps of processing one input data and thereby producing either an output barcode corresponding to the input data or an output data representing such a barcode. Provide a method for recognizing, identifying or classifying.
【0009】
バーコードを表す出力データは、入力パターンまたはデータシーケンスに関す
る一意の識別子として使用することができる。あるいは前述のように、入力パタ
ーンまたはデータシーケンスの認識を実行するために認識エンジンに送ることが
できる。The output data representing the barcode can be used as a unique identifier for the input pattern or data sequence. Alternatively, it can be sent to a recognition engine for performing recognition of an input pattern or data sequence, as described above.
【0010】 添付の図面を参照しながら、1例として本発明の実施形態について説明する。[0010] Embodiments of the present invention will be described by way of example with reference to the accompanying drawings.
【0011】
添付の図面の図1は、以下の3つの部分からなるPCNNニューロンの一例を
示す図である。FIG. 1 of the accompanying drawings shows an example of a PCNN neuron consisting of the following three parts:
【0012】
(1)入力単位(樹状ツリー)は、画像ピクセル入力(実数値)ならびに周囲
のニューロンからのフィードバック(バイナリ)入力を含んでいる。(1) The input unit (tree tree) includes image pixel inputs (real values) as well as feedback (binary) inputs from surrounding neurons.
【0013】
(2)内部アクティベーション(activation)Uを計算するために
マージされたリンキング(linking)およびフィーディング(feedi
ng)ブランチ。リンキングシナプスから統合された信号にオフセット期間「1
」を加えたものが、フィーディングシナプスからの統合信号と掛け合わされて、
メンブレン(membrane)電圧Uを生成する。本発明の一部の実施形態で
はリンキングブランチを省略することができるが、好ましいことではない。(2) Linking and feeding merged to calculate internal activation U
ng) branch. Offset period "1" from the linking synapse to the integrated signal
Is added to the integrated signal from the feeding synapse,
Generate a membrane voltage U. Although linking branches may be omitted in some embodiments of the invention, it is not preferred.
【0014】
(3)しきい値ΘとUとを比較する、パルスまたはスパイク生成器。U>Θで
あれば、PCNN出力は1に等しくなり最大値VΘにリセットされ、そうでなけ
れば出力はゼロになり、Θは時間定数αΘによって指数関数的に減じられる。(3) A pulse or spike generator that compares the threshold Θ with U. If U> theta, PCNN output is reset to the maximum value V theta equals 1, output becomes zero, theta is reduced exponentially with time constant alpha theta otherwise.
【0015】 PCNNは以下の数式を反復することによって実施することができる。[0015] PCNN can be implemented by repeating the following equations.
【0016】[0016]
【数1】 [Equation 1]
【0017】[0017]
【数2】 [Equation 2]
【0018】[0018]
【数3】 [Equation 3]
【0019】[0019]
【数4】 [Equation 4]
【0020】[0020]
【数5】 [Equation 5]
【0021】
上式で、Sは刺激入力(ピクセル輝度)、FおよびLはニューロンへのフィー
ディング入力およびリンキング入力、Yは出力である。他のパラメータには、そ
れぞれF、L、およびΘに関連付けられた3つの電位Vおよび減衰定数αが含ま
れ、βはリンキング換算定数である。MとWでの相互接続はローカルガウスであ
る(ニューロン間の距離によって異なる)。Where S is the stimulus input (pixel intensity), F and L are the feeding and linking inputs to the neuron, and Y is the output. Other parameters include three potentials V and damping constants α, respectively associated with F, L, and Θ, where β is a linking conversion constant. The interconnections in M and W are local Gaussian (depending on the distance between neurons).
【0022】
デジタル画像が入力としてそのようなPCNNネットワークに適用されると、
ネットワークは、Kuntimad[3]のように、空間的近接および輝度の類
似性に基づいて画像ピクセルをグループ化する。たとえば時系列の場合、2次元
入力関数を1次元出力関数にマッピングすることができる。神経応答を空間的に
平均化することによって、コード化メカニズムとして有効なように示される時間
的出力信号が与えられる。時間信号G[n]は、数式(6)で計算されるように
、各反復での「ピクセル上の」数である。When a digital image is applied as input to such a PCNN network,
The network groups image pixels based on spatial proximity and intensity similarity, such as Kuntimad [3]. For example, in the case of time series, a two-dimensional input function can be mapped to a one-dimensional output function. Spatial averaging of the neural response gives a temporal output signal that is shown to be effective as a coding mechanism. The time signal G [n] is the number "on pixel" at each iteration, as calculated in equation (6).
【0023】[0023]
【数6】 [Equation 6]
【0024】
これは、反復が進行すると時間と共に変化し、「時間シグナチャ」または「ア
イコン」と呼ばれることがある。PCNNは、入力画像とその時間シグナチャ(
アイコン)とを1対1で対応させる。This changes over time as the iteration progresses, and is sometimes referred to as the “time signature” or “icon”. PCNN is the input image and its time signature (
1) to correspond to the icon).
【0025】
図4を参照すると、本発明の簡単な例は、複数の輝度(またはグレイレベル)
入力10を受け取る。これらは、欧州特許出願第0543578号に従った、ラ
マンまたは他の分光装置での検出器出力を表していてもよい。そのような装置で
は、分析されるスペクトルは検出器を通って分散することが可能であり、分散さ
れたスペクトル内の各ピクセル(またはピクセルグループ)について出力(すな
わち入力10)が生成される。欧州特許出願に記載されたように、これがコンピ
ュータ内に取り込まれ、以下のように処理される。Referring to FIG. 4, a simple example of the present invention is to use multiple luminance (or gray levels)
Receives input 10. These may represent the detector output on Raman or other spectroscopic devices according to European patent application 0543578. In such a device, the spectrum to be analyzed can be dispersed through a detector and an output (ie input 10) is produced for each pixel (or group of pixels) in the dispersed spectrum. This was captured in a computer and processed as follows, as described in the European patent application.
【0026】
図4の各入力10は、PCNN配列12の1つのニューロン11に対して1つ
の入力を供給する。各ニューロン11は、図1に示されるようなものであり、入
力10は入力Sに対応する。図が見やすいように、ニューロン11の間の接続は
図4には示さない。Each input 10 in FIG. 4 supplies one input to one neuron 11 of the PCNN array 12. Each neuron 11 is as shown in FIG. 1, and the input 10 corresponds to the input S. The connections between the neurons 11 are not shown in FIG. 4 for the sake of clarity.
【0027】
各ニューロンは(図1の出力Yに対応する)出力13を有する。これらの出力
から、数式(6)に従って時間シグナチャTSが導出される。これが認識エンジ
ン20に取り込まれる。Each neuron has an output 13 (corresponding to output Y in FIG. 1). From these outputs, the time signature TS is derived according to equation (6). This is taken into the recognition engine 20.
【0028】
PCNNは画像とその時間シグナチャ(アイコン)とを1対1で対応させるの
で、この特性を活用して既知の化合物の基準ラマンスペクトルからデータベース
を作成することが好適である。Since the PCNN makes one-to-one correspondence between an image and its time signature (icon), it is preferable to utilize this characteristic to create a database from the reference Raman spectra of known compounds.
【0029】
前述のPCNNユニットは単なる前処理装置であり、認識エンジン20で何ら
かのタスク特有の後処理を行う必要がある。単純な場合では、認識エンジンは既
知の化合物のスペクトルから生成される時間シグナチャのライブラリ(たとえば
ルックアップテーブル形式)を含んでいてもよい。未知の化合物が識別される場
合、そのスペクトルから同様の時間シグナチャが生成され、ライブラリ内で最も
近似的に合致するものが決定される。The above-mentioned PCNN unit is merely a pre-processing device, and it is necessary for the recognition engine 20 to perform some task-specific post-processing. In the simple case, the recognition engine may include a library of time signatures (eg, look-up table format) generated from spectra of known compounds. If an unknown compound is identified, a similar time signature is generated from its spectrum to determine the closest match in the library.
【0030】
あるいは、認識エンジン20での後処理を、多層パーセプトロン(MLP)分
級器によって実行することができる。これがフィードフォワード/バックプロパ
ゲーションニューラルネットワークである。Alternatively, post-processing in recognition engine 20 can be performed by a multi-layer perceptron (MLP) classifier. This is a feedforward / backpropagation neural network.
【0031】
既知の化合物のアイコンのデータベースが、MLPニューラルネットワーク分
級器のトレーニング/テストに使用される。PCNNを使用してデータベース内
の任意の材料のラマンスペクトルから生成されたアイコンは、次いでMLP分級
器によって、識別用の大規模データベース内にある対応するシグナチャと突き合
わせることができる。A database of known compound icons is used for training / testing the MLP neural network classifier. The icon generated from the Raman spectrum of any material in the database using PCNN can then be matched by the MLP classifier with the corresponding signature in the large database for identification.
【0032】
前述の方法は、いくつかのトレース化合物、すなわちペンタエリトリトールテ
トラニトラート(PETN)、ジメチルジニトロブタン(DMNB)、2,4,
6−トリニトロトルエン(TNT)、4モノニトロトルエン(4MNT)、3,
4−ジニトロトルエン(34DNT)、ヘロイン、およびコカインの識別に使用
されている[6、7]。これら材料の典型的なラマンスペクトルは、約244n
mおよび633nmで励起された。The method described above uses several trace compounds, namely pentaerythritol tetranitrate (PETN), dimethyldinitrobutane (DMNB), 2,4.
6-trinitrotoluene (TNT), 4 mononitrotoluene (4MNT), 3,
It has been used to distinguish 4-dinitrotoluene (34DNT), heroin, and cocaine [6,7]. Typical Raman spectra for these materials are about 244n
Excited at m and 633 nm.
【0033】
時間シグナチャで周期パターンが認められるまでには、各ラマン画像をかなり
の回数反復する必要がある。したがって、サイクルの代表部分をカバーする、サ
ンプリングまたはゲート制御された時間シグナチャが使用される(100反復)
。16の異なるPCNNパラメータセット(a、β、およびV)の各ラマン画像
について、異なる時間シグナチャが得られた。Each Raman image needs to be repeated a significant number of times before a periodic pattern is observed in the time signature. Therefore, a sampled or gated time signature is used that covers a representative part of the cycle (100 iterations).
. Different temporal signatures were obtained for each Raman image of 16 different PCNN parameter sets (a, β, and V).
【0034】
244nmおよび633nmで励起するために、それぞれ80または55のシ
グナチャを使用し、30の入力ニューロン、10の隠れニューロン、および3の
出力ニューロンというアーキテクチャの、フィードフォワードニューラルネット
ワークをトレーニングした。各トレーニングデータは、ゲート制御されたPCN
N時間シグナチャ振幅および出力データ(化合物に対応する必須の出力形式)か
らなる。残りのシグナチャ(それぞれ32または25)を使用してMLPがテス
トされた。For excitation at 244 nm and 633 nm, feedforward neural networks were trained using 80 or 55 signatures, respectively, and an architecture of 30 input neurons, 10 hidden neurons, and 3 output neurons. Each training data is a gated PCN
It consists of N-time signature amplitude and output data (required output format corresponding to compound). The remaining signatures (32 or 25 respectively) were used to test MLPs.
【0035】
このテストの結果は、識別に関して高い成功率(>98.3%)を示すもので
ある。The results of this test show a high success rate (> 98.3%) for identification.
【0036】
したがって、ニューラルネットワークを使用する識別プロセスは、ラマンバン
ド/ラマンピーク輝度を合わせた大量のリストのコンサルテーションを避け、時
間が節約される。さらに研究機関が、これら材料のラマン分光法に関する徹底的
なトレーニングをしなくてすむことにもなる。したがって、専門家でなくても識
別を実行することができる。本研究での本発明者等の予備試験結果により、ハイ
ブリッドニューラルネットワークの有効性、すなわち他の同様の領域での使用可
能性が実証されている。Therefore, the identification process using a neural network avoids the consultation of a large list of combined Raman band / Raman peak intensities and saves time. It also saves laboratories from extensive training on Raman spectroscopy of these materials. Therefore, identification can be performed even if not an expert. The results of our preliminary tests in this study demonstrate the effectiveness of the hybrid neural network, i.e. its applicability in other similar areas.
【0037】
時間シグナチャでMLP分級器を使用すると、MLP分級器が基準サンプルの
ラマンスペクトルから直接に構築された場合よりも、かなり簡単かつ高速に識別
を実行することができる。The use of the MLP classifier with the time signature allows the identification to be performed much easier and faster than if the MLP classifier was constructed directly from the Raman spectrum of the reference sample.
【0038】
ここで、分光分析によって生成されるスペクトルのような、(1)静止画像お
よび(2)データシーケンスからの、バーコードの生成に関する好適技法につい
て説明する。A preferred technique for the generation of barcodes from (1) still images and (2) data sequences, such as spectra generated by spectroscopic analysis, will now be described.
【0039】
以下に述べる静止画像のバイナリバーコードを生成するための技法(図2a)
は、2つのPCNN、すなわちPCNN#1およびPCNN#2を使用する必要
がある。PCNN#1は、静止画像から時間シグナチャを生成するのに使用され
る[5〜7]。次いでこの時間シグナチャが画像としてグレイコーディング(g
rey−coded)される。次いでPCNN#2が、グレイコーディングされ
た時間シグナチャからバイナリバーコードを生成するのに使用される[8]。あ
るいは、PCNN#2を使用して時間シグナチャ出力を取得し、次いでこれをフ
ィードバックして(図2aの点線)対応するグレイコーディングされた画像を取
得することができる。このフィードバックは何回でも反復可能であり、PCNN
#2のパラメータは反復するごとに変えることができる。Techniques for Generating Still Image Binary Bar Codes Described Below (FIG. 2a)
Needs to use two PCNNs, namely PCNN # 1 and PCNN # 2. PCNN # 1 is used to generate temporal signatures from still images [5-7]. This time signature is then gray-coded (g
rey-coded). PCNN # 2 is then used to generate a binary barcode from the Gray coded time signature [8]. Alternatively, PCNN # 2 can be used to obtain the time signature output and then feed it back (dotted line in Figure 2a) to obtain the corresponding gray coded image. This feedback can be repeated any number of times and the PCNN
The parameters of # 2 can be changed with each iteration.
【0040】
A.1 静止画像からの時間シグナチャの生成
ステップ1:PCNN#1のパラメータ(減衰パラメータ、しきい値、電位
)、反復回数を設定する。A. 1 Generation of time signature from still image Step 1: Set parameters (attenuation parameter, threshold value, potential) of PCNN # 1 and number of repetitions.
【0041】
ステップ2:時間シグナチャ(ICONとも呼ばれる)を生成するために、
画像(図2b)(直接または前処理済み)をPCNN#1に与える−図2c。P
CNN#1用の特定パラメータセットの場合、PCNN#1への入力と出力IC
ONとは1:1で対応している。Step 2: To generate a time signature (also called ICON),
Image (Fig. 2b) (directly or pre-processed) is applied to PCNN # 1-Fig. 2c. P
In the case of a specific parameter set for CNN # 1, input / output IC to PCNN # 1
There is a 1: 1 correspondence with ON.
【0042】
A.2 ICONからのグレイレベルバーコード(GBC)の生成
ステップ3:カラーレベル数を設定し、カラーレベルの順序を選択する。設
定された順序は最終用途の感度を決定する。ICONをグレイレベルバーコーデ
ィングされた画像に変換する(図2d)。A. 2 Generation of Gray Level Bar Code (GBC) from ICON Step 3: Set the number of color levels and select the order of color levels. The order set determines the end-use sensitivity. Convert the ICON to a gray level bar coded image (Fig. 2d).
【0043】
A.3 GBCからのバイナリバーコードの生成
ステップ4:PCNN#2のパラメータ(減衰パラメータ、しきい値、電位
)、反復回数N(N=1の場合は、ステップ3aへ進む。ほかの場合はステップ
3bに進む)を設定する。A. 3 Generation of Binary Bar Code from GBC Step 4: PCNN # 2 Parameters (Attenuation Parameter, Threshold, Potential), Number of Iterations N (if N = 1, proceed to step 3a; otherwise, step 3b Go to)).
【0044】
ステップ5a:第1の反復でバイナリバーコードを生成し、1D BBC(
図2e1)を取得するために、画像(図2d)をPCNN#2に与える。PCN
N#2用の特定パラメータセットの場合、PCNN#2への入力とこの出力バイ
ナリバーコードとは1:1で対応している。Step 5a: Generate a binary barcode in the first iteration and generate 1D BBC (
The image (Fig. 2d) is applied to PCNN # 2 to obtain Fig. 2e1). PCN
In the case of the specific parameter set for N # 2, there is a 1: 1 correspondence between the input to PCNN # 2 and this output binary barcode.
【0045】
ステップ5b:2D BBC(図2e2)用のバイナリバーコードを生成す
るために、画像(図2d)をPCNN#2に与える。PCNN#2用の特定パラ
メータセットの場合、PCNN#2への入力と出力バイナリバーコードセットと
は1:1で対応している。Step 5b: Present the image (FIG. 2d) to PCNN # 2 to generate a binary barcode for the 2D BBC (FIG. 2e2). In the case of the specific parameter set for PCNN # 2, the input to PCNN # 2 and the output binary barcode set correspond to each other in a 1: 1 relationship.
【0046】
注:ステップ4′:ステップ4の別法として、PCNN#2のパラメータを、図
2dの時間シグナチャを生成するように設定することができる。この時間シグナ
チャが、グレイコーディングのためにフィードバックされる(ステップ3に戻る
)。このプロセス(フィードバックオプション)は、何回でも反復することがで
きる。ただし、最終ステップはBBC生成の場合4〜5となる。Note: Step 4 ′: As an alternative to Step 4, the parameters of PCNN # 2 can be set to generate the time signature of FIG. 2d. This time signature is fed back for Gray coding (return to step 3). This process (feedback option) can be repeated any number of times. However, the final step is 4 to 5 in the case of BBC generation.
【0047】
下記で述べるデータのペア(x,y)(ここで(x,y)∈R)または複素数
(x+jy)∈Zのいずれかとして与えられる、所与のデータシーケンス(スペ
クトルなど)用のバイナリバーコードを生成するための技法(図3a)は、1つ
のPCNNを使用する必要がある。このPCNNは、グレイコーディングされた
データシーケンスから直接バイナリバーコードを生成するために使用される。あ
るいは、このPCNNを使用して時間シグナチャ出力を取得し、次いでこれをフ
ィードバックして(図3aの点線)対応するグレイコーディングされた画像を取
得することができる。このフィードバックは何回でも反復可能であり、PCNN
のパラメータは反復するごとに変えることができる。For a given data sequence (spectrum, etc.), given as either a pair of data (x, y) (where (x, y) εR) or a complex number (x + jy) εZ described below. The technique for generating a binary barcode (Fig. 3a) requires the use of one PCNN. This PCNN is used to generate a binary barcode directly from the Gray coded data sequence. Alternatively, this PCNN can be used to obtain the temporal signature output and then feed it back (dotted line in FIG. 3a) to obtain the corresponding gray coded image. This feedback can be repeated any number of times and the PCNN
The parameters of can be changed with each iteration.
【0048】
B.1 データシーケンスからのグレイレベルバーコード(GBC)の生成
ステップ1:カラーレベル数を設定し、カラーレベルの順序を選択する。設
定された順序が最終用途の感度を決定する。データペアシーケンス(図3b)を
グレイレベルバーコーディングされた画像に変換する(図3c)。B. 1 Generation of Gray Level Bar Code (GBC) from Data Sequence Step 1: Set the number of color levels and select the order of color levels. The order set determines the end-use sensitivity. Convert the data pair sequence (Fig. 3b) to a gray level bar coded image (Fig. 3c).
【0049】
B.2 GBCからのバイナリバーコードの生成
ステップ2:PCNNのパラメータ(減衰パラメータ、しきい値、電位)、
反復回数N(N=1の場合は、ステップ3aに進む。ほかの場合はステップ3b
に進む)を設定する。B. 2 Binary Bar Code Generation from GBC Step 2: PCNN Parameters (Attenuation Parameter, Threshold, Potential),
Number of iterations N (if N = 1, go to step 3a. Otherwise, go to step 3b
Go to)).
【0050】
ステップ3a:第1の反復でバイナリバーコードを生成し、1D BBC(
図3d1)を取得するために、GBC(図3c)をPCNNに与える。Step 3a: Generate a binary barcode in the first iteration and generate 1D BBC (
The GBC (Fig. 3c) is provided to the PCNN to obtain Fig. 3d1).
【0051】
ステップ3b:2D BBC(図3d2)用のバイナリバーコードを生成す
るために、GBC(図3c)をPCNNに与える。PCNN用の特定パラメータ
セットの場合、PCNN#2への入力と出力バイナリバーコードセットとは1:
1で対応している。Step 3b: Apply the GBC (FIG. 3c) to the PCNN to generate a binary barcode for the 2D BBC (FIG. 3d2). In the case of a specific parameter set for PCNN, the input and output binary bar code set to PCNN # 2 is 1:
1 corresponds.
【0052】
注:ステップ2′:ステップ2の別法として、PCNNのパラメータを、図3c
の時間シグナチャを生成するように設定することができる。この時間シグナチャ
が、グレイコーディングのためにフィードバックされる(ステップ1に戻る)。
このプロセス(フィードバックオプション)は、何回でも反復することができる
。ただし、最終ステップはBBC生成の場合2〜3となる。Note: Step 2 ': As an alternative to Step 2, the parameters of PCNN are
Can be configured to generate time signatures of This time signature is fed back for Gray coding (return to step 1).
This process (feedback option) can be repeated any number of times. However, the final step is 2-3 in the case of BBC generation.
【0053】
前述の技法(図2および3)は、それ自体が表示される実際のバーコードを生
成するのに使用することができる。別法として、バーコードに対応するデータ(
たとえばバイナリ文字列)を生成することができる。The techniques described above (FIGS. 2 and 3) can be used to generate the actual barcode that is itself displayed. Alternatively, the data ((
For example, a binary string) can be generated.
【0054】
本発明の一形式では、そのようなバイナリバーコード(または何らかの方法で
格納された対応するデータ)は、オリジナルの画像またはデータシーケンス用の
一意の識別子として簡単に使用される。あるいは、図4のように、未知の入力パ
ターンまたはデータシーケンスを認識および識別するために、バーコードに対応
するデータを認識エンジンに供給することができる。In one form of the invention, such a binary barcode (or corresponding data stored in some way) is simply used as a unique identifier for the original image or data sequence. Alternatively, as in FIG. 4, the data corresponding to the barcode can be provided to a recognition engine for recognizing and identifying unknown input patterns or data sequences.
【0055】
これまでにこの新規な方法は、(a)ラマンスペクトルからのトレース化合物
の識別、(b)心臓周期の監視(ECG記録)、および(c)伝達関数スペクト
ルからの電力変圧器の状態監視という、3つの異なる適用例で実証された。個々
の入力スペクトルはグレイレベル画像の形式でPCNNに与えられる。一例とし
ては、爆発性のラマンスペクトル(トレース化合物)、ジメチルジニトロブタン
(DMNB)を入力として使用し、反復1、2、7、および8の後にPCNNに
よって生成される、対応する8ビットのグレイレベル画像およびバイナリ画像を
生成した。バーコード状のPCNN出力と対応する入力画像とは1対1で対応し
ている。この特徴がスペクトル認識技法で活用される。これらのバーコードは、
以下で説明するように、単独で(反復1回のみ)または組み合わせて(複数回反
復)使用することができる。To date, this new method has been used to (a) identify trace compounds from Raman spectra, (b) monitor cardiac cycle (ECG recordings), and (c) condition power transformers from transfer function spectra. Surveillance has been demonstrated in three different applications. The individual input spectra are provided to the PCNN in the form of gray level images. An example is the explosive Raman spectrum (trace compound), dimethyldinitrobutane (DMNB), used as input, and the corresponding 8-bit gray level produced by PCNN after iterations 1, 2, 7, and 8. Images and binary images were generated. There is a one-to-one correspondence between the barcode-like PCNN output and the corresponding input image. This feature is exploited in spectral recognition techniques. These barcodes are
It can be used alone (one repeat only) or in combination (multiple repeats), as described below.
【0056】
第1の反復PCNN出力はバイナリコードワードに変換され、ルックアップテ
ーブル(LUT)に格納される。分光分析のため、対応するスペクトルからコー
ドワードが取得され、LUT内にあるすべてのコードワードからのそのハミング
距離が計算される。最小ハミング距離に対応するスペクトルが、入力のアイデン
ティティを与える。最小ハミング距離におけるタイ(tie)は、他のPCNN
反復から生成されたコードワードを使用してこの手順を繰り返すことによって解
決される。現在の研究でタイは発生しておらず、認識成功率は100%であった
。The first iterative PCNN output is converted to a binary codeword and stored in a look-up table (LUT). For spectroscopic analysis, the codeword is obtained from the corresponding spectrum and its Hamming distance from all codewords in the LUT is calculated. The spectrum corresponding to the minimum Hamming distance gives the identity of the input. The tie at the minimum Hamming distance is the other PCNN.
It is solved by repeating this procedure using the codeword generated from the iteration. Thailand did not occur in the current study, and the recognition success rate was 100%.
【0057】
あるいは、そのような研究では、MLP分級器を認識エンジン20のバーコー
ドで使用することができる。より高速な他の可能性は、既知のn組RAMベース
ニューラルネットワークを使用することである。RAMベースニューラルネット
ワークのメモリベースのアーキテクチャは、単発学習および高速再現時間を含ん
でいる多くの重要な特徴を提供する。アーキテクチャは基本的に、並列式のいく
つかのルックアップテーブル(LUT)であって、各LUTはフィードフォワー
ドニューラルネットワークの重みマトリックスに相当する。認識の速度および成
功率は非常に有望である。Alternatively, in such studies, the MLP classifier can be used in the barcode of the recognition engine 20. Another faster possibility is to use known n-set RAM-based neural networks. The memory-based architecture of RAM-based neural networks offers many important features, including single-shot learning and fast recall times. The architecture is basically several lookup tables (LUTs) in parallel, each LUT corresponding to a weight matrix in a feedforward neural network. The speed of recognition and success rate are very promising.
【0058】
ハイブリッドニューラルネットワーク(PCNN前処理装置およびn組RAM
ベースニューラルネットワーク)を含んでいる本技法は、認識、診断、および状
態監視タスクの目的に、首尾良く使用されている。他のどんな既存の技法よりも
認識が簡単であり、より良い性能を提供する。試験結果により、この方法が高速
かつ強固であるため、リアルタイムな適用例に好適であることが実証されている
。Hybrid Neural Network (PCNN preprocessor and n sets of RAM
This technique, including base neural networks), has been successfully used for purposes of cognitive, diagnostic, and condition monitoring tasks. It is easier to recognize and offers better performance than any other existing technique. Test results demonstrate that this method is fast and robust and therefore suitable for real-time applications.
【0059】 この新技法を、異なる適用例を含むいくつかの例で実証してきた。 (a)伝達関数スペクトルからの電力変圧器の状態監視、 (b)赤外線スペクトルからの化合物の識別、 (c)ラマンスペクトルからのトレース化合物(麻酔薬および爆薬)の識別、 (d)心臓周期の監視、および (e)パルサープロファイル(pulsar profile)の識別。[0059] This new technique has been demonstrated in several examples, including different applications. (A) Power transformer condition monitoring from transfer function spectrum, (B) identification of compounds from infrared spectra, (C) Identification of trace compounds (anesthetics and explosives) from Raman spectra, (D) monitoring the cardiac cycle, and (E) Identification of pulsar profile.
【0060】
上記で論じてきたように、様々なニューラルネットワーク(PCNN、MLP
、n組RAM)がコンピュータ内のソフトウェアとして実施されている。ただし
、PCNNは特に専用の集積回路として有利に実施できる。As discussed above, various neural networks (PCNN, MLP
, N sets of RAMs) are implemented as software within the computer. However, the PCNN can be particularly advantageously implemented as a dedicated integrated circuit.
【0061】
参照
本明細書には以下の参照が組み込まれている。
[1] R.Eckhorn、E.Reitboeck、M.Amdt、および
P.W.Dickeによる「Feature Linking via syn
chronisation among distributed assem
blies:Simulations of results from Ca
t Visual Cortex」Neural Comp.,Vol.2、2
93〜307、1990年。References The following references are incorporated herein. [1] R. Eckhorn, E.I. Reitboeck, M .; Amdt, and P.M. W. “Feature Linking Via Syn” by Dicke
Chronization amon distributed asssem
blies: Simulations of results from Ca
t Visual Cortex "Neural Comp. , Vol. Two, two
93-307, 1990.
【0062】
[2] J.L.Johnsonによる「Pulse−coupled neu
ral nets:translation, rotation, scal
e,distortion and intensity signal in
variance for images」App.Opt., Vol.33
、6239〜6253、1994年。[2] J. L. "Pulse-coupled neu" by Johnson
ral nets: translation, rotation, scal
e, distortion and intensity signal in
variance for images "App. Opt. , Vol. 33
, 6239-6253, 1994.
【0063】
[3] G.Kuntimadによる「Pulse−coupled neur
al network for image processing」PhD
d dissertation,University of Alabama
,USA,1995年。[3] G. "Pulse-coupled neural" by Kuntimad
al network for image processing "PhD
d dissertation, University of Arabama
, USA, 1995.
【0064】
[4] T.LindbladおよびJ.M.Kinserによる「Image
Processing using Pulse−Coupled Neur
al Networks」(Springer−Verlag,London
1998年)。[4] T. Lindblad and J. M. "Image by Kinser
Processing using Pulse-Coupled Neur
al Networks "(Springer-Verlag, London)
1998).
【0065】
[5] Linblad,T.、Pladgett M.L.、およびKins
er J.の編集による、「Proceedings of the Nint
h Workshop on Virtual Intelligence/D
ynamic Neural Networks」Proc.OF SPIE、
3728、328〜332(1999年)。[5] Linblad, T .; Pladgett M., et al. L. , And Kins
er J. Edited by "Proceedings of the Nint
h Workshop on Virtual Intelligence / D
dynamic Neural Networks "Proc. OF SPIE,
3728, 328-332 (1999).
【0066】
本出願が優先権を主張する、英国特許出願第9915788.5号(1999
年7月7日)および第9922008.9号(1999年9月20日)も、参照
により本明細書に組み込まれている。United Kingdom Patent Application No. 9915788.5 (1999), to which this application claims priority
July 7, 2000) and No. 9922008 (September 20, 1999) are also incorporated herein by reference.
【図面の簡単な説明】[Brief description of drawings]
【図1】 PCNNニューロンの概略図である。[Figure 1] FIG. 3 is a schematic diagram of PCNN neurons.
【図2a】 静止画像のバーコード化技法を示す構成図である。Figure 2a It is a block diagram which shows the barcode-coding technique of a still image.
【図2b】 静止画像の一例を示す図である。Figure 2b It is a figure which shows an example of a still image.
【図2c】 図2bの画像の時間シグナチャ(TS)またはアイコンを示す図である。[Fig. 2c] FIG. 3 shows a time signature (TS) or icon of the image of FIG. 2b.
【図2d】 図2cのグレイレベルバーコードを示す図である。[Fig. 2d] FIG. 3 shows the gray level barcode of FIG. 2c.
【図2e1】 対応する1次元バイナリバーコード(BBC−1D)を示す図である。[Fig. 2e1] It is a figure which shows the corresponding one-dimensional binary barcode (BBC-1D).
【図2e2】 対応する2次元バイナリバーコード(BBC−2D)を示す図である。[Fig. 2e2] It is a figure which shows the corresponding two-dimensional binary barcode (BBC-2D).
【図3a】 データシーケンスのバーコード化技法を示す構成図である。FIG. 3a It is a block diagram which shows the barcode-coding technique of a data sequence.
【図3b】 (x,y)プロットとしてのデータシーケンスの一例を示す図である。FIG. 3b It is a figure which shows an example of the data sequence as a (x, y) plot.
【図3c】 図3bのグレイレベルバーコードを示す図である。[Fig. 3c] FIG. 4 shows the gray level barcode of FIG. 3b.
【図3d1】 対応する1次元バイナリバーコード(BBC−1D)を示す図である。[Fig. 3d1] It is a figure which shows the corresponding one-dimensional binary barcode (BBC-1D).
【図3d2】 対応する2次元バイナリバーコード(BBC−2D)を示す図である。[Fig. 3d2] It is a figure which shows the corresponding two-dimensional binary barcode (BBC-2D).
【図4】 認識プロセスを示す構成図である。[Figure 4] It is a block diagram which shows a recognition process.
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),JP,US (72)発明者 ハリー クーマー シャムシャー ラグホ ープス モーリシャス レデュイ ユニバーシティ オブ モーリシャス デパートメント オブ エレクトリカル アンド エレクト ロニック エンジニアリング ファカルテ ィ オブ エンジニアリング (番地な し) Fターム(参考) 5B057 CH20 DA11 DC36 5L096 HA09 HA11 JA11 ─────────────────────────────────────────────────── ─── Continued front page (81) Designated countries EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, I T, LU, MC, NL, PT, SE), JP, US (72) Inventor Harry Coomer Shamshire Ragho Poops Mauritius Reduit University Of Mauritius Department Of Electrical and Elect Ronic Engineering Faculty Engineering of ) F-term (reference) 5B057 CH20 DA11 DC36 5L096 HA09 HA11 JA11
Claims (8)
識別または分類するための方法において、 パルス結合されたニューラルネットワーク内でスペクトル、画像またはデータ
シーケンスを表す入力データを事前処理し、該入力データに対応する時間シグナ
チャを生成するステップと、 時間シグナチャを、既知の基準スペクトル、画像またはデータシーケンスの所
定の時間シグナチャに基づいて認識、識別または分類する認識エンジンに、適用
するステップと を備えたことを特徴とする方法。1. Recognizing spectra, images or other input data sequences,
In a method for identifying or classifying, preprocessing input data representing a spectrum, image or data sequence in a pulse-coupled neural network and generating a time signature corresponding to the input data, the time signature comprising: Applying to a recognition engine for recognizing, identifying or classifying based on a known reference spectrum, a predetermined temporal signature of an image or a data sequence.
識別または分類するための方法において、少なくとも第1のパルス結合されたニ
ューラルネットワーク内で、スペクトル、画像またはデータシーケンスを表す入
力データを処理する少なくとも1つのステップを備え、それによって、入力デー
タに対応する出力バーコード、またはそのようなバーコードを表す出力データの
いずれかを生成することを特徴とする方法。2. Recognizing spectra, images or other input data sequences,
A method for identifying or classifying comprises at least one step of processing input data representing a spectrum, an image or a data sequence in at least a first pulse-coupled neural network, thereby responding to the input data. A method characterized by producing either an output barcode or output data representing such a barcode.
形式であることを特徴とする方法。3. The method of claim 2, wherein the output barcode is in binary format.
ス結合されたニューラルネットワークは、第2のパルス結合されたニューラルネ
ットワークによって、さらに処理されることを特徴とする方法。4. The method according to claim 2 or 3, characterized in that the first pulse-coupled neural network is further processed by a second pulse-coupled neural network. .
ューラルネットワークは時間シグナチャを生成し、第2のパルス結合されたニュ
ーラルネットワークは、前記出力バーコードまたは出力バーコードを表すデータ
を生成することを特徴とする方法。5. The method of claim 4, wherein the first pulse-coupled neural network produces a time signature and the second pulse-coupled neural network outputs the output barcode or output barcode. A method characterized by producing data representing.
ードはバイナリ形式であり、グレイレベルバーコード、またはグレイレベルバー
コードを表すデータを生成する中間ステップを含むことを特徴とする方法。6. The method of claim 4 or claim 5, wherein the output barcode is in binary format and includes an intermediate step of generating a gray level barcode or data representing a gray level barcode. And how to.
バーコードまたは出力バーコードを表すデータを、既知の基準スペクトル、画像
またはデータシーケンスのバーコードである、所定のバーコードまたは所定のバ
ーコードを表すデータに基づいて、認識、識別または分類する認識エンジンに適
用するステップを含むことを特徴とする方法。7. The method according to claim 2, wherein the output bar code or data representing the output bar code is a predetermined reference spectrum, an image or a bar code of a data sequence. A method comprising applying a recognition engine for recognizing, identifying or classifying based on a bar code or data representing a predetermined bar code.
ンは、既知の基準スペクトル、画像またはデータシーケンスによってトレーニン
グされた、さらなるニューラルネットワークであることを特徴とする方法。8. Method according to claim 1 or 7, characterized in that the recognition engine is a further neural network trained by a known reference spectrum, image or data sequence.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB9915788.5A GB9915788D0 (en) | 1999-07-07 | 1999-07-07 | Neural network |
GB9915788.5 | 1999-07-07 | ||
GBGB9922008.9A GB9922008D0 (en) | 1999-09-18 | 1999-09-18 | Processing images and data |
GB9922008.9 | 1999-09-18 | ||
PCT/GB2000/002424 WO2001004826A1 (en) | 1999-07-07 | 2000-07-06 | Neural networks |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003504765A true JP2003504765A (en) | 2003-02-04 |
Family
ID=26315733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001510157A Pending JP2003504765A (en) | 1999-07-07 | 2000-07-06 | neural network |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP1110168A1 (en) |
JP (1) | JP2003504765A (en) |
WO (1) | WO2001004826A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076411A (en) * | 2019-11-06 | 2021-05-20 | 株式会社島津製作所 | Method, device, and program for estimating component of sample, method for learning, and learning program |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003085592A1 (en) * | 2002-03-13 | 2003-10-16 | Mathematiques Appliquees S.A. | System and method for processing digital images for object recognition |
CN102708560B (en) * | 2012-02-29 | 2015-11-18 | 北京无线电计量测试研究所 | A kind of method for secret protection based on mm-wave imaging |
CN103679670B (en) * | 2012-09-25 | 2016-08-31 | 中国航天科工集团第二研究院二〇七所 | A kind of PCNN multisource image anastomosing method based on improved model |
CN103824291B (en) * | 2014-02-24 | 2017-01-11 | 哈尔滨工程大学 | Automatic image segmentation method of continuous quantum goose group algorithm evolution pulse coupling neural network system parameters |
CN105118045A (en) * | 2015-06-18 | 2015-12-02 | 江西师范大学 | Gray level image edge detection method based on pulse coupling neural network |
CN105335783B (en) * | 2015-10-20 | 2018-01-19 | 浪潮(北京)电子信息产业有限公司 | A kind of fusion method and device based on multichannel Pulse-coupled Neural Network Model |
CN110088797B (en) * | 2016-12-19 | 2023-04-21 | 株式会社安川电机 | Industrial equipment image recognition processor and controller |
CN106981059A (en) * | 2017-03-30 | 2017-07-25 | 中国矿业大学 | With reference to PCNN and the two-dimensional empirical mode decomposition image interfusion method of compressed sensing |
CN107154048A (en) * | 2017-05-09 | 2017-09-12 | 中国科学院遥感与数字地球研究所 | The remote sensing image segmentation method and device of a kind of Pulse-coupled Neural Network Model |
CN108460342B (en) * | 2018-02-05 | 2021-01-01 | 西安电子科技大学 | Hyperspectral image classification method based on convolutional neural network and cyclic neural network |
CN108985252B (en) * | 2018-07-27 | 2022-05-27 | 陕西师范大学 | Improved image classification method of pulse depth neural network |
CN112053378B (en) * | 2020-09-04 | 2023-01-13 | 中原工学院 | Improved image segmentation algorithm for PSO (particle swarm optimization) optimization PCNN (pulse coupled neural network) model |
CN112330637A (en) * | 2020-11-09 | 2021-02-05 | 哈尔滨理工大学 | Pulse coupling neural network skeletal muscle image processing method based on pixel values |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2069811C (en) * | 1991-10-03 | 1998-08-11 | John Stewart Denker | Projective training system for neural networks |
-
2000
- 2000-07-06 JP JP2001510157A patent/JP2003504765A/en active Pending
- 2000-07-06 WO PCT/GB2000/002424 patent/WO2001004826A1/en not_active Application Discontinuation
- 2000-07-06 EP EP00942212A patent/EP1110168A1/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076411A (en) * | 2019-11-06 | 2021-05-20 | 株式会社島津製作所 | Method, device, and program for estimating component of sample, method for learning, and learning program |
JP7342629B2 (en) | 2019-11-06 | 2023-09-12 | 株式会社島津製作所 | Sample component estimation method, sample component estimation device, sample component estimation program, learning method and learning program |
Also Published As
Publication number | Publication date |
---|---|
EP1110168A1 (en) | 2001-06-27 |
WO2001004826A1 (en) | 2001-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003504765A (en) | neural network | |
Wang et al. | A quantitative method for evaluating the performances of hyperspectral image fusion | |
Neri et al. | Unsupervised blind source separation with variational auto-encoders | |
Kasim et al. | Celebrity face recognition using deep learning | |
CN108320735A (en) | A kind of emotion identification method and system of multi-data fusion | |
Tan et al. | Visible-infrared image fusion based on early visual information processing mechanisms | |
CN112151071A (en) | Speech emotion recognition method based on mixed wavelet packet feature deep learning | |
CN117349741A (en) | Raman spectrum classification method, species blood semen and species classification method | |
Li et al. | Rapid classification of copper concentrate by portable laser-induced breakdown spectroscopy combined with transfer learning and deep convolutional neural network | |
Mehta et al. | Effect of different activation functions on EEG signal classification based on neural networks | |
CN117435955A (en) | Brain control mechanical arm brain electrical frequency detection method based on wavelet packet decomposition and FBCCA | |
Ulrichsen et al. | Operational neural networks for parameter-efficient hyperspectral single-image super-resolution | |
Schimidt et al. | Determination of some rare earth elements by EDXRF and artificial neural networks | |
Fan et al. | Improving gravitational wave detection with 2d convolutional neural networks | |
Rughooputh et al. | A novel hybrid neural network for identification of trace compounds | |
He et al. | Deep saliency: What is learnt by a deep network about saliency? | |
Efitorov et al. | Use of conditional variational autoencoders and partial least squares in solving an inverse problem of spectroscopy | |
Erbas et al. | Compressing recurrent neural networks for FPGA-accelerated implementation in fluorescence lifetime imaging | |
Rughooputh et al. | Hybrid neural network for the identification of narcotics and explosives | |
Groß et al. | Phas-maFOOD-A miniaturized multi-sensor solution for rapid, non-destructive food quality assessment | |
Rughooputh et al. | Forensic application of a novel hybrid neural network | |
Bruchmann et al. | Application of Hamming networks for IR spectral search | |
Wang et al. | An image fusion method based on wavelet and dual-channel pulse coupled neural network | |
Hamerlik et al. | Bi-Source Class Visualization: An Adversarial Neural Network-based Approach for Unbiased Class Visualization | |
Noumida et al. | Detecting Multiple Overlapping Birds in Audio Recordings using Self Attention-based Wavelet Convolutional Neural Network |