JPH0619868A - Waveform processor in neural net and its design method - Google Patents
Waveform processor in neural net and its design methodInfo
- Publication number
- JPH0619868A JPH0619868A JP4194969A JP19496992A JPH0619868A JP H0619868 A JPH0619868 A JP H0619868A JP 4194969 A JP4194969 A JP 4194969A JP 19496992 A JP19496992 A JP 19496992A JP H0619868 A JPH0619868 A JP H0619868A
- Authority
- JP
- Japan
- Prior art keywords
- recording
- neural network
- waveform
- waveform processing
- transmission system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、記録伝送する際に生じ
る信号劣化を除去するために、記録送信側に設ける波形
処理装置に係り、特にニューラルネットを利用し簡易な
構成で、かつ、高性能な波形処理装置及びその設計方法
を提供するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a waveform processing device provided on the recording and transmitting side in order to remove signal deterioration caused during recording and transmission, and particularly, it uses a neural network and has a simple structure and high performance. A high-performance waveform processing device and a design method thereof are provided.
【0002】[0002]
【従来の技術】従来より、高密度の光記録媒体・磁気記
録媒体による記録再生や、高情報量の通信路での送受信
など、非線形歪の影響の受けやすい(記録再生)伝送系
における信号処理に際しては、最適な変調方式の選択,
各種の波形等化装置(イコライゼーション・フィルタリ
ング),ノイズキャンセラー,エンファシス・デエンフ
ァシスなどの利用によって、信号の劣化を抑える努力が
なされている。例えば波形等化装置としては、トランス
バーサル形フィルタが用いられていた。トランスバーサ
ル形フィルタは、入力信号を遅延回路により遅延し、異
なる増幅係数を有するアンプで増幅して加算出力し、波
形等化するものである。2. Description of the Related Art Conventionally, signal processing in a transmission system (recording / reproducing) which is easily affected by non-linear distortion such as recording / reproducing by a high density optical recording medium / magnetic recording medium or transmission / reception in a communication path of a high information amount In that case, select the most suitable modulation method,
Efforts are being made to suppress signal deterioration by using various waveform equalizers (equalization / filtering), noise cancellers, emphasis / de-emphasis, and the like. For example, a transversal filter has been used as a waveform equalizer. The transversal type filter delays an input signal with a delay circuit, amplifies it with amplifiers having different amplification coefficients, adds and outputs it, and equalizes the waveform.
【0003】しかし、信号劣化の要因は多く存在し、ど
の要因にどれほど起因して信号劣化が発生したか定量的
には把握できないので、従来の波形等化装置では対応で
きないことも少なくなかった。すなわち、信号(符号)
の干渉程度(信号の劣化の程度)や劣化の原因によって
異なる係数値(例えば、前記したトランスバーサル形フ
ィルタにおけるアンプの増幅係数)が要求されるので、
これを一義的に決定することが困難であり、従来のよう
な線形な波形等化装置では十分に対応できなかった。However, there are many causes of signal deterioration and it is not possible to quantitatively grasp which factor and how much the signal deterioration has occurred. Therefore, it is often the case that the conventional waveform equalizer cannot deal with the problem. That is, the signal (code)
Since different coefficient values (for example, the amplification coefficient of the amplifier in the above-mentioned transversal filter) are required depending on the degree of interference (degree of signal deterioration) and the cause of deterioration,
It is difficult to uniquely determine this, and the conventional linear waveform equalizer cannot sufficiently cope with this.
【0004】このような状況の下で、非線形の変換系を
有するニューラルネットを利用して、上述した光・磁気
記録媒体による記録再生系や、高情報量の通信路系の特
性を学習させ、これらの伝送系からの劣化したデジタル
信号をリアルタイムで波形等化して出力させることが考
えられ、本出願人によりすでに特許出願されている(特
願平3−31952号 発明の名称「ニューラルネット
による波形等化装置及びその設計方法」)。Under such a circumstance, a neural network having a non-linear conversion system is used to learn the characteristics of the recording / reproducing system using the above-mentioned optical / magnetic recording medium and the high-information-volume communication path system. It is conceivable that the deteriorated digital signals from these transmission systems are waveform-equalized in real time and output, and a patent application has already been filed by the present applicant (Japanese Patent Application No. 3-31952, entitled "waveform by neural network"). Equalizer and its design method ").
【0005】このニューラルネットを利用した波形等化
装置は、入力信号(例えば、再生装置からの波形劣化し
た信号)を、直列に接続された遅延手段によって所定の
時間だけ遅延させ、時間的に前後する複数の入力信号
(値)をニューラルネットに入力して波形等化するよう
に構成されたものである。ニューラルネットは、例えば
バックプロパゲーション(back propagation)を学習アル
ゴリズムとする層状(例えば入力層,中間層[隠れ
層],出力層の3層)のニューラルネットであり、可変
の重みで結ばれた多数のユニットの結合(体)である。
ユニットは非線形の入出力特性を有する変換系であり、
ユニットには前層からの出力値に独立した重みが乗算し
て得られた前層からの総和が入力され、この総和が非線
形変換されて後層に出力されている。A waveform equalizer using this neural network delays an input signal (for example, a signal whose waveform has been deteriorated from a reproducing device) by a delay unit connected in series for a predetermined time, and the time is changed in time. A plurality of input signals (values) are input to the neural network and waveform equalization is performed. The neural network is, for example, a layered neural network (for example, three layers including an input layer, an intermediate layer [hidden layer], and an output layer) using a back propagation as a learning algorithm, and is connected with a large number of variable weights. It is a combination of units (body).
The unit is a conversion system with non-linear input / output characteristics,
The unit receives the sum from the front layer obtained by multiplying the output value from the front layer by an independent weight, and the sum is nonlinearly converted and output to the rear layer.
【0006】このニューラルネットを利用して、上述し
た記録再生系・通信路系の特性を予め学習させ、伝送系
からの劣化したデジタル信号を波形等化して出力させて
いる。すなわち、図7(A)に示すように、このシステ
ムはニューラルネットNNにより記録伝送系の特性に対
して予め学習された重みである変換手段、すなわち波形
処理装置203からなり、記録伝送媒体201などによ
り劣化した現信号を波形処理装置203に入力し波形処
理(波形等化)してから、出力するように構成されてい
る。なお、200は記録送信装置、202は再生受信装
置である。そして、学習は、同図(B)に示すように、
現信号を教師信号とし、ニューラルネットNNによる波
形処理装置203の出力を生徒信号として、バックプロ
パゲーションの学習アルゴリズムで実行される。Using this neural network, the characteristics of the recording / reproducing system and the communication path system described above are learned in advance, and the deteriorated digital signal from the transmission system is waveform-equalized and output. That is, as shown in FIG. 7 (A), this system is composed of a conversion means, ie, a waveform processing device 203, which is a weight learned in advance with respect to the characteristics of the recording and transmitting system by the neural network NN. The present signal deteriorated by is input to the waveform processing device 203, subjected to waveform processing (waveform equalization), and then output. Reference numeral 200 is a recording / transmission device, and 202 is a reproduction / reception device. Then, the learning is as shown in FIG.
The current signal is used as a teacher signal, and the output of the waveform processing device 203 by the neural network NN is used as a student signal, and the learning algorithm of back propagation is executed.
【0007】[0007]
【発明が解決しようとする課題】このようなニューラル
ネットによる波形等化装置は、デジタル信号の波形等化
に対しては、極めて高性能であった。しかし、このよう
な再生・受信装置側での対応では限界があり、学習の効
率が悪く極めて長い学習時間が必要で、装置の規模(ニ
ューラルネット)が大型となりやすかった。しかも、再
生・受信装置の数に応じた波形等化装置が必要であるの
で、大規模なものとすることは現実的でなかった。そこ
で、本発明は、特に記録・送信装置側でニューラルネッ
トによる波形処理を実施した新たなニューラルネットに
よる波形処理装置及びその設計方法を提供するものであ
る。The waveform equalizer using such a neural network has extremely high performance for waveform equalization of digital signals. However, there is a limit to the correspondence on the reproducing / receiving device side, the learning efficiency is poor, and an extremely long learning time is required, and the device scale (neural net) is likely to be large. Moreover, since it is necessary to have a waveform equalizer corresponding to the number of reproducing / receiving devices, it is not realistic to make it large-scale. Therefore, the present invention provides a waveform processing apparatus by a new neural network in which waveform processing by a neural network is performed especially on the recording / transmission apparatus side, and a design method thereof.
【0008】[0008]
【課題を解決するための手段】本発明は上記課題を解決
するために、非線形の変換系からなる複数の変換系が独
立した固定の重みで結ばれ、かつ、この固定の重みはニ
ューラルネットにより記録伝送系の特性に対して予め学
習された重みである変換手段からなり、記録伝送系によ
り劣化する現信号を前記変換手段に入力し、前記記録伝
送系による劣化を打ち消すように前記原信号を波形処理
して、記録伝送系に出力するようにしたことを特徴とす
るニューラルネットによる波形処理装置を提供するもの
である。In order to solve the above-mentioned problems, the present invention connects a plurality of conversion systems composed of nonlinear conversion systems with independent fixed weights, and these fixed weights are connected by a neural network. The conversion means is a weight that has been preliminarily learned with respect to the characteristics of the recording / transmission system, and the current signal deteriorated by the recording / transmission system is input to the conversion means to change the original signal so as to cancel the deterioration by the recording / transmission system. A waveform processing device using a neural network, which is characterized in that waveform processing is performed and output to a recording and transmission system.
【0009】さらに、非線形の変換系からなる複数の変
換系が独立した固定の重みで結ばれた変換手段からな
り、記録伝送系により劣化する現信号を前記記録伝送系
による劣化を打ち消すように波形処理して、記録伝送系
に出力する波形処理装置の設計方法であって、前記波形
処理装置と等価で、かつ、非線形の変換系からなる複数
の変換系が独立した可変の重みで結ばれたニューラルネ
ットにより、前記記録伝送系の特性に応じた前記重みを
可変学習させて、前記可変学習された重みをもとに前記
変換手段の固定の重みを設計決定するようにしたことを
特徴とするニューラルネットによる波形処理装置の設計
方法を提供するものである。Further, a plurality of conversion systems composed of non-linear conversion systems are composed of conversion means connected by independent fixed weights, and a current signal deteriorated by the recording transmission system is waveform so as to cancel the deterioration caused by the recording transmission system. A method of designing a waveform processing device for processing and outputting to a recording / transmission system, wherein a plurality of conversion systems which are equivalent to the waveform processing device and which are non-linear conversion systems are connected with independent variable weights. The weight is variably learned according to the characteristics of the recording and transmission system by a neural network, and a fixed weight of the conversion means is designed and determined based on the variably learned weight. A method of designing a waveform processing device using a neural network is provided.
【0010】また、記録伝送系により劣化する原信号を
遅延させる手段を有し、時間的に前後させた現信号を変
換手段に入力するようにしたことを特徴とする前記記載
のニューラルネットによる波形処理装置、または前記記
載のニューラルネットによる波形処理装置の設計方法を
提供するものである。Further, there is provided a means for delaying an original signal which is deteriorated by a recording and transmission system, and a current signal which is temporally moved forward and backward is inputted to the converting means. The present invention provides a designing method for a processing device or a waveform processing device using the neural network described above.
【0011】[0011]
【作用】上記したニューラルネットによる波形処理装置
及びその設計方法によれば、現信号は波形処理装置で波
形処理され、この波形処理された信号が記録送信され、
記録伝送系により劣化する。波形処理と劣化とで互い打
ち消しあい、元の現信号に近い信号として再生・受信さ
れる。According to the above-described neural network waveform processing apparatus and its design method, the current signal is subjected to waveform processing by the waveform processing apparatus, and the waveform-processed signal is recorded and transmitted.
It is deteriorated by the recording and transmission system. The waveform processing and the deterioration cancel each other and are reproduced and received as a signal close to the original current signal.
【0012】[0012]
【実施例】本発明になるニューラルネットによる波形処
理装置及びその設計方法の一実施例を以下図面と共に詳
細に説明する。図1はニューラルネットによる波形処理
装置の全体構成図で、同図(A)は設計学習後の実体的
な処理状態を示す図、同図(B)は設計学習中の処理状
態を示す図である。なお、本波形処理装置100は、図
2に示すようなニューラルネットによる波形処理装置で
あり、具体的には図4に示すように実体的な信号処理装
置として構成される。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a waveform processing apparatus using a neural network and a design method thereof according to the present invention will be described in detail below with reference to the drawings. FIG. 1 is an overall configuration diagram of a waveform processing device using a neural network. FIG. 1A is a diagram showing a substantial processing state after design learning, and FIG. 1B is a diagram showing a processing state during design learning. is there. The waveform processing apparatus 100 is a waveform processing apparatus using a neural network as shown in FIG. 2, and is specifically configured as a substantial signal processing apparatus as shown in FIG.
【0013】(ニューラルネットNによる波形処理処理
の基本概念)最初に、ニューラルネットによる波形処理
装置及びその設計方法の基本概念であるニューラルネッ
トNによる波形処理処理ついて説明する。図2はニュー
ラルネット(ニューラルネットワーク)による波形処理
処理(信号処理)の概念図である。同図に示すように、
ニューラルネットによる波形処理処理においては、入力
信号(後述する原信号)は、直列に接続された遅延手段
DLによって所定の遅延時間が与えられて、時間的に前
後する複数の入力信号(値)がニューラルネットNに入
力されるように構成されている。(Basic Concept of Waveform Processing Process by Neural Network N) First, the waveform processing process by the neural network N, which is the basic concept of the waveform processing device by the neural network and its designing method, will be described. FIG. 2 is a conceptual diagram of waveform processing (signal processing) by a neural network (neural network). As shown in the figure,
In a waveform processing process by a neural network, an input signal (original signal described later) is given a predetermined delay time by a delay unit DL connected in series, and a plurality of input signals (values) temporally before and after are given. It is configured to be input to the neural network N.
【0014】ニューラルネットNは、例えばバックプロ
パゲーション(back propagation)を学習アルゴリズムと
する層状(例えば入力層,中間層[隠れ層],出力層の
3層)のニューラルネットであり、可変の重みWで結ば
れた多数のユニット(ニューロン、シナップスとも称さ
れる)の結合(体)である。ユニットUは非線形の入出
力特性を有する変換系であり、ユニットUには前層から
の出力値に独立した重みWが乗算して得られた前層から
の総和が入力され、この総和が非線形変換されて後層に
出力されている。ニューラルネットNは、(既知の)入
力信号に対して出力された出力信号が教師信号と比較さ
れてユニット間の結合の強さを表わす可変の重みWが変
化・収束され、すなわち学習され、所望のニューラルネ
ットが構築されて波形処理機能を有するようになるもの
である。The neural network N is a layered neural network (for example, three layers of an input layer, an intermediate layer [hidden layer], and an output layer) using a back propagation as a learning algorithm, and a variable weight W. It is a connection (body) of a number of units (neurons, also called synapses) connected by. The unit U is a conversion system having a non-linear input / output characteristic, and the total sum from the front layer obtained by multiplying the output value from the front layer by an independent weight W is input to the unit U, and the sum is nonlinear. It is converted and output to the subsequent layer. In the neural network N, the output signal output with respect to the (known) input signal is compared with the teacher signal, and the variable weight W representing the strength of the coupling between the units is changed / converged, that is, learned and desired. This neural network is constructed to have a waveform processing function.
【0015】(ニューラルネットNとユニットUの構
成)次に、ニューラルネットNとユニットUについて詳
述する。図2に示したニューラルネットNは、前述した
ように、多数のユニット(U)によりなる入力層、中間
層、出力層などから構成した層状のニューラルネットで
ある。ユニットUは脳のニューロンを工学的にモデル化
した非線形な入出力特性を有する変換系であり、ニュー
ラルネットNは、基本的には可変の重みで結ばれた多数
のユニットの結合(体)である。図3は、図2に示した
ニューラルネットのユニット結合を示す図である。ユニ
ットUは非線形の入出力特性、例えば入力値Xに対して
出力値Y=F(X)を出力する非線形関数F(X)によ
り構成された変換系である。入力値としては、前層の出
力値(あるいはニューラルネットへの入力値)に、独立
した可変の重みWが乗算して得られた総和が入力されて
おり、この入力値が非線形変換されて後層に出力されて
いる。(Structure of Neural Net N and Unit U) Next, the neural net N and the unit U will be described in detail. As described above, the neural network N shown in FIG. 2 is a layered neural network composed of an input layer, an intermediate layer, an output layer, etc., which are composed of a large number of units (U). The unit U is a conversion system that has a nonlinear input / output characteristic that is an engineering model of a neuron in the brain, and the neural network N is basically a combination (body) of many units connected by variable weights. is there. FIG. 3 is a diagram showing a unit connection of the neural network shown in FIG. The unit U is a conversion system configured by a nonlinear function F (X) that outputs an output value Y = F (X) for an input value X, for example, a nonlinear input / output characteristic. As the input value, the sum obtained by multiplying the output value of the previous layer (or the input value to the neural network) by the independent variable weight W is input, and this input value is nonlinearly converted and It is output to the layer.
【0016】より詳述すれば、図3は、層状のニューラ
ルネットワークを構成する第n層のi番目のユニット結
合を示す図であり、第n層のi番目のユニットへの入力
値X(n,i)は、前層である第n−1層の各ユニット
の出力値に第n−1層のj番目と第n層のi番目のユニ
ットとの間の結合の強さを表わす重みW(n,i,j)
を掛けたものの総和となるように構成されている。そし
て、入力値X(n,i)は非線形関数F(X)に入力さ
れ、Y(n,i)=F{X(n,i)}と非線形変換さ
れて、次層のユニットに出力されるように構成されてい
る。More specifically, FIG. 3 is a diagram showing the i-th unit combination of the n-th layer constituting the layered neural network, and the input value X (n to the i-th unit of the n-th layer is shown. , I) is a weight W that represents the strength of the coupling between the j-th unit of the (n−1) -th layer and the i-th unit of the n-th layer in the output value of each unit of the (n−1) -th layer that is the previous layer. (N, i, j)
It is configured to be the sum of those multiplied by. The input value X (n, i) is input to the non-linear function F (X), non-linearly converted to Y (n, i) = F {X (n, i)}, and output to the unit in the next layer. Is configured to.
【0017】前記可変の重みW(n,i,j)はユニッ
ト(U)の結合の強さを表わすものであり、この重みW
(n,i,j)を変化・収束させて、すなわち、学習さ
せて所望のニューラルネットが構築される。ニューラル
ネット構築の学習アルゴリズムとしては公知のバックプ
ロパケーション(back propagation)がある。すなわち、
図2に示すニューラルネットNにおいて、入力値(入力
パターン)が入力層に入力されると、この入力値は入力
層→中間層→出力層へ伝達・処理され、出力層から出力
値(出力パターン)が出力される(フィードフォワード
処理)。この出力値は、それまでの学習によって得られ
た重みにもとづくものである。The variable weight W (n, i, j) represents the coupling strength of the unit (U).
A desired neural network is constructed by changing / converging (n, i, j), that is, learning. As a learning algorithm for constructing a neural network, there is known back propagation. That is,
In the neural network N shown in FIG. 2, when an input value (input pattern) is input to the input layer, this input value is transmitted / processed to the input layer → the intermediate layer → the output layer, and the output value (output pattern) is output from the output layer. ) Is output (feedforward processing). This output value is based on the weight obtained by the learning so far.
【0018】これに対して望ましい出力値(教師信号)
が与えられると、出力層→中間層→入力層の順で伝達・
処理され、重みの学習がなされる(フィードバック処
理)。重みの学習とは、実際の出力値と望ましい出力値
との差を減らすように、ユニット間の結合の強さ、すな
わち、重みW(n,i,j)を変化・収束させることで
ある。On the other hand, a desired output value (teacher signal)
Is given, output layer → middle layer → input layer
It is processed and the weight is learned (feedback process). The weight learning is to change and converge the coupling strength between units, that is, the weight W (n, i, j) so as to reduce the difference between the actual output value and the desired output value.
【0019】次に、上述したニューラルネットNによる
波形処理処理の基本概念をもとに、本発明であるニュー
ラルネットによる波形処理装置100の具体的構成(実
体的信号処理装置によるハードウェア的実行部分、すな
わち、固定の重みによる所望の信号処理システム)と、
ニューラルネットによる波形処理装置の具体的設計方法
(計算機によるソフトウェア的実行部分、すなわち、可
変の重みによる予めの学習処理方法)について詳述す
る。図1はニューラルネットによる波形処理装置の全体
構成図(ハードウェア的実行部分)で、同図(A)は設
計学習後の実体的な処理状態を示す図、同図(B)は設
計学習中の処理状態を示す図(ソフトウェア的実行部
分)である。Next, based on the basic concept of the waveform processing processing by the neural network N described above, a specific configuration of the waveform processing apparatus 100 by the neural network according to the present invention (a hardware-like execution portion by a substantial signal processing apparatus). , Ie, the desired signal processing system with fixed weights),
A specific method of designing a waveform processing device using a neural network (a software execution part by a computer, that is, a pre-learning processing method using variable weights) will be described in detail. FIG. 1 is an overall configuration diagram (a hardware-like execution portion) of a waveform processing device using a neural network. FIG. 1A shows a substantive processing state after design learning, and FIG. 1B shows design learning. 3 is a diagram (software-like execution portion) showing the processing state of FIG.
【0020】(ニューラルネットNによる波形処理装置
100の実体的な処理システム)最初に、図1(A)を
参照して、設計学習後の実体的な処理システムついて説
明する。図中、100は原信号が入力される波形処理装
置である。この処理システムは、非線形の変換系からな
る複数の変換系が独立した固定の重みで結ばれ、かつ、
この固定の重みはニューラルネットNにより記録伝送系
の特性に対して予め学習された重みである変換手段、す
なわち波形処理装置100からなる。そして、主として
記録伝送媒体102などから構成される記録伝送系によ
り劣化する現信号を前記波形処理装置100に入力し、
記録伝送系による劣化を打ち消すように原信号を予め波
形処理してから、記録送信装置101を介して記録伝送
媒体102に出力するように構成されている。記録伝送
媒体102からの信号は再生受信装置103で再生受信
されて、出力信号とされる。記録送信装置101及び再
生受信装置103は、記録伝送媒体102に応じたもの
で、記録伝送媒体102が磁気記録媒体や光記録媒体の
時では、磁気・光記録再生装置であり、記録伝送媒体1
02が伝送路の時では、送信・受信装置である。(Substantial Processing System of Waveform Processing Apparatus 100 by Neural Network N) First, with reference to FIG. 1A, a substantive processing system after design learning will be described. In the figure, 100 is a waveform processing device to which an original signal is input. In this processing system, a plurality of non-linear conversion systems are connected by independent fixed weights, and
The fixed weight is composed of the conversion means, that is, the waveform processing device 100, which is a weight previously learned by the neural network N with respect to the characteristics of the recording and transmission system. Then, the current signal which is deteriorated by the recording and transmitting system mainly composed of the recording and transmitting medium 102 is inputted to the waveform processing device 100,
The original signal is waveform-processed in advance so as to cancel the deterioration caused by the recording / transmission system, and then output to the recording / transmission medium 102 via the recording / transmission device 101. The signal from the recording / transmission medium 102 is reproduced and received by the reproduction / reception device 103 to be an output signal. The recording / transmission device 101 and the reproduction / reception device 103 correspond to the recording / transmission medium 102. When the recording / transmission medium 102 is a magnetic recording medium or an optical recording medium, the recording / transmission device 101 is a magnetic / optical recording / reproducing device.
When 02 is a transmission line, it is a transmission / reception device.
【0021】(ニューラルネットNによる波形処理装置
100の構成)次に、本発明であるニューラルネットN
による波形処理装置100の具体的構成(ハードウェア
的実行部分)について詳述する。図4は、オペアンプ,
ダイオード対,抵抗などにより具体的に構成した、図2
及び図3に示したニューラルネットNと等価な波形処理
装置の回路図である。この波形処理装置100は、固定
の重みを有する実体的な信号処理装置で、所望の信号処
理(フィードフォワード処理)のみを高速で実行するも
のであり、学習機能を有しない簡易な回路で構成された
ものである。(Structure of Waveform Processing Device 100 by Neural Net N) Next, the neural network N according to the present invention will be described.
A specific configuration (hardware execution part) of the waveform processing apparatus 100 according to the above will be described in detail. FIG. 4 shows an operational amplifier,
Figure 2 is a concrete configuration of a diode pair and a resistor.
4 is a circuit diagram of a waveform processing device equivalent to the neural network N shown in FIG. The waveform processing apparatus 100 is a substantial signal processing apparatus having a fixed weight, which executes only desired signal processing (feedforward processing) at high speed, and is composed of a simple circuit having no learning function. It is a thing.
【0022】図3に示すように、ユニット(U)は所定
の反転増幅特性を有する汎用の反転型オペアンプ1a・
1b,2a・2b,3a・3b,4a・4bと、所定の
増幅特性を有するバッファアンプ5,6,7,8,9
と、非線形の入出力特性(接合特性)を有するダイオー
ド対(10,12,13)からなる。ダイオード対は、
信号ラインと接地ラインとの間に逆方向に並列接続され
たもので、非線形な入出力特性(接合特性)を有するダ
イオード・クリップ回路である。As shown in FIG. 3, the unit (U) is a general-purpose inverting operational amplifier 1a having a predetermined inverting amplification characteristic.
1b, 2a · 2b, 3a · 3b, 4a · 4b and buffer amplifiers 5, 6, 7, 8, 9 having predetermined amplification characteristics
And a diode pair (10, 12, 13) having non-linear input / output characteristics (junction characteristics). The diode pair is
The diode clip circuit is connected in parallel in the opposite direction between the signal line and the ground line and has a nonlinear input / output characteristic (junction characteristic).
【0023】ユニット(U)間の抵抗Rji,Rj ( R1
1,R21,R31,R41,R51,R12,R22,R32,R42,R52,R13,R23,R33,
R43,R53,R1 ,R2 ,R3 )はユニット間の結合の強さを表
わす固定の重みとして機能するものである。つまり、重
みW(2,i,j)は抵抗Rjiに対応し、重みW(3,1,j)は抵抗R
j に対応する。固定の抵抗Rji,Rj の抵抗値は、後述
する設計方法により決定される値である。なお、ユニッ
ト間の結合の強さを表わす重み(係数)は、後述するよ
うに正負の値を有するが、負の重み対しては前記反転型
オペアンプを単独で使用して(例えば、抵抗R21 と反転
型オペアンプ1aによる構成)信号を反転させ、正の重
み対しては2つの反転型オペアンプを直列に使用して
(例えば、抵抗R31 と反転型オペアンプ1b及び反転型
オペアンプ1aによる構成)信号を再反転させて対応さ
せている。14,15,16,17は、所定の遅延時間
を有するディレイラインである。Resistances Rji, Rj (R1 between units (U)
1, R21, R31, R41, R51, R12, R22, R32, R42, R52, R13, R23, R33,
R43, R53, R1, R2, R3) function as a fixed weight that represents the strength of the bond between the units. That is, the weight W (2, i, j) corresponds to the resistance Rji, and the weight W (3,1, j) corresponds to the resistance Rji.
Corresponds to j. The resistance values of the fixed resistors Rji and Rj are values determined by the design method described later. The weight (coefficient) representing the strength of the coupling between the units has positive and negative values as described later, but for the negative weight, the inverting operational amplifier is used alone (for example, resistor R21 and The configuration of the inverting operational amplifier 1a) is inverted, and for positive weighting, two inverting operational amplifiers are used in series (for example, the configuration of the resistor R31, the inverting operational amplifier 1b, and the inverting operational amplifier 1a) to regenerate the signal. It corresponds by reversing. Reference numerals 14, 15, 16 and 17 are delay lines having a predetermined delay time.
【0024】入力信号(原信号)は遅延手段(ディレイ
ライン)14,15,16,17によって前記所定の遅
延時間が与えられて、(ニューラルネットの)入力層に
入力されている。時間的に前後した複数の入力波形
(値)は入力層のユニットU´(1,1) 〜U´(1,5) であ
る各バッファアンプ5,6,7,8,9で増幅された後
に分割されて、抵抗を介して中間層のユニットへ入力さ
れている。The input signal (original signal) is given the predetermined delay time by delay means (delay lines) 14, 15, 16 and 17 and input to the input layer (of the neural network). A plurality of input waveforms (values) temporally before and after were amplified by the respective buffer amplifiers 5, 6, 7, 8, 9 which are units U '(1,1) to U' (1,5) in the input layer. It is later divided and input to the unit of the intermediate layer via a resistor.
【0025】ユニットへの入力値としては、前層である
入力層の出力値が、独立した固定の重みとして機能する
抵抗Rji( R11,R21,R31,R41,R51,R12,R22,R32,R42,R5
2,R13,R23,R33,R43,R53)を介して重み付けされた後
に、中間層のユニットU(2,1),U'(2,2),U(2,3)を構成す
るオペアンプ1a・1b,2a・2b,3a・3bの反
転入力端子に入力され、加算合成されている。なお、オ
ペアンプの非反転入力端子は接地されている。オペアン
プより(反転または再反転)増幅された入力値は、ダイ
オード対10,12により非線形変換されて後層である
出力層に出力されている。ダイオード対は、非線形な入
出力特性を有するので、非線形変換がなされて出力され
ることとなる。As the input value to the unit, the output value of the input layer which is the front layer is the resistance Rji (R11, R21, R31, R41, R51, R12, R22, R32, R42 which functions as an independent fixed weight. , R5
2, R13, R23, R33, R43, R53), and is then weighted via the operational amplifier 1a constituting the units U (2,1), U '(2,2), U (2,3) in the intermediate layer. Input to the inverting input terminals of 1b, 2a, 2b, 3a, and 3b, and they are added and combined. The non-inverting input terminal of the operational amplifier is grounded. The input value amplified (inverted or re-inverted) by the operational amplifier is nonlinearly converted by the diode pair 10 and 12 and output to the output layer which is the rear layer. Since the diode pair has a non-linear input / output characteristic, the non-linear conversion is performed and the output is made.
【0026】出力層のユニットU(3,1)であるオペアンプ
4a(及び4b),ダイオード対13には、前記中間層
からの出力が抵抗Rj (R1 ,R2 ,R3)を介して入力さ
れ、前述した中間層のユニットと同様に、非線形変換さ
れて出力信号としてに出力される。The output from the intermediate layer is input to the operational amplifier 4a (and 4b), which is the unit U (3,1) of the output layer, and the diode pair 13 through the resistor Rj (R1, R2, R3), Similar to the above-mentioned unit of the intermediate layer, it is non-linearly converted and output as an output signal.
【0027】(ニューラルネットによる波形処理装置1
00の設計方法)次に、ニューラルネットによる波形処
理装置100の設計方法(ワークステーションによるソ
フトウェア的実行部分)を説明する。なお、この設計方
法が対象とする波形処理装置(100)は、前記図4で
説明した回路である。ニューラルネットによる波形処理
装置の設計方法とは、図1(B)に示す手法によって、
波形処理装置100の抵抗Rji,Rj ( R11,R21,R31,R
41,R51,R12,R22,R32,R42,R52,R13,R23,R33,R43,R53,R1
,R2 ,R3 )の値(固定の重み)を、この波形処理装置
100と等価なニューラルネット(図2に示したニュー
ラルネットN)の学習により得られた重みW(2,i,j),W
(3,1,j)により、すなわち、学習により変化・収束した
可変の重みにより具体的に決定することである。なお、
ユニット間の結合の強さを表わす重みは、前述したよう
に正負の値を有するが、負の重み対しては前記反転型オ
ペアンプを単独で使用して信号を反転させ、正の重み対
しては2つの反転型オペアンプを直列に使用して信号を
再反転させて対応させている。(Neural network waveform processing apparatus 1
00 design method) Next, a method of designing the waveform processing device 100 by a neural network (software-executed portion by a workstation) will be described. The waveform processing apparatus (100) targeted by this design method is the circuit described in FIG. The method of designing a waveform processing device using a neural network is based on the method shown in FIG.
Resistances Rji, Rj (R11, R21, R31, R of the waveform processing apparatus 100
41, R51, R12, R22, R32, R42, R52, R13, R23, R33, R43, R53, R1
, R2, R3) values (fixed weights) are obtained by learning a neural network (neural network N shown in FIG. 2) equivalent to the waveform processing apparatus 100, and weights W (2, i, j), W
It is specifically determined by (3,1, j), that is, by the variable weight that has changed / converged by learning. In addition,
The weight representing the strength of the coupling between the units has positive and negative values as described above, but for the negative weight, the inverting operational amplifier is used alone to invert the signal, and for the positive weight, Two inverting operational amplifiers are used in series to re-invert the signal to correspond.
【0028】図1(B)に示すように、再生受信装置1
03により再生された出力信号dは、A/D変換されて
デジタルメモリ(図示せず)に所定のサンプリング周期
で取り込まれる。この出力信号dは、(波形処理装置1
00と等価な)ニューラルネットN→記録送信装置10
1→記録伝送媒体102→再生受信装置103の経たも
ので、ニューラルネットNにより予め波形処理され、さ
らに記録伝送系(記録送信装置101・記録伝送媒体1
02・再生受信装置103など)により劣化したもので
ある。デジタルメモリに取り込まれたデータは、学習処
理用のワークステーション(図示せず)に転送され、後
述する学習演算処理がなされる。サンプリング周期は、
学習演算処理の間隔に等しいか、または学習演算処理の
間隔よりも短くしてある。As shown in FIG. 1B, the reproduction / reception device 1
The output signal d reproduced by 03 is A / D converted and taken into a digital memory (not shown) at a predetermined sampling period. This output signal d is (waveform processing device 1
Neural network N (equivalent to 00) → recording and transmitting device 10
1 → recording / transmission medium 102 → reproducing / receiving device 103, which has been subjected to waveform processing in advance by the neural network N, and further has a recording / transmission system (recording / transmission device 101 / recording / transmission medium 1).
02 / playback / reception device 103, etc.). The data taken in the digital memory is transferred to a work station (not shown) for learning processing, and learning calculation processing described later is performed. The sampling period is
It is equal to the learning calculation processing interval or shorter than the learning calculation processing interval.
【0029】次に、ワークステーションによって学習演
算処理がなされる。ワークステーション内には、公知の
バックプロパケーションによる学習アルゴリズムを有す
るニューラルネットのシミュレーションプログラムが準
備され、前記した図4に示す具体的な(ニューラルネッ
トによる)波形処理装置100と等価である図2に示す
ニューラルネットNに対して学習演算処理が実行され
る。Next, a learning calculation process is performed by the workstation. A neural network simulation program having a known back-propagation learning algorithm is prepared in the workstation, and is shown in FIG. 2 equivalent to the concrete (neural net) waveform processing apparatus 100 shown in FIG. Learning calculation processing is executed for the neural network N shown.
【0030】すなわち、デジタルメモリに取り込まれて
ワークステーションに転送された取り込みデータは、原
信号aを波形処理装置100と等価であるニューラルネ
ットNに入力し、この入力信号を入力層→中間層→出力
層で伝達・演算処理し、出力層から出力し、記録伝送系
により劣化した出力信号である。この出力信号は、それ
までの学習によって得られた重みにもとづくものであ
る。出力信号は、教師信号(予めワークステーションに
取り込まれた原信号aからなる教師データ)と比較さ
れ、出力層→中間層→入力層の順で伝達・演算処理さ
れ、学習がなされる。学習させる(学習される)記録伝
送系の劣化特性とは記録媒体の特性,伝送ラインの特
性,記録装置の特性,再生装置の特性,データ自体の特
性などがあり、ニューラルネットの大きさに応じて、適
宜選択される。That is, as for the captured data which is captured in the digital memory and transferred to the workstation, the original signal a is input to the neural network N equivalent to the waveform processing device 100, and this input signal is input layer → intermediate layer → This is an output signal that has been transmitted / arithmetically processed in the output layer, output from the output layer, and deteriorated by the recording and transmission system. This output signal is based on the weight obtained by the learning so far. The output signal is compared with the teacher signal (teacher data consisting of the original signal a that has been fetched into the workstation in advance), and is transmitted / arithmetically processed in the order of output layer → intermediate layer → input layer for learning. The deterioration characteristics of the recording / transmission system to be learned (learned) include the characteristics of the recording medium, the characteristics of the transmission line, the characteristics of the recording apparatus, the characteristics of the reproducing apparatus, the characteristics of the data itself, etc., depending on the size of the neural network. Is appropriately selected.
【0031】そして、伝送再生系の特性を学習して収束
したニューラルネットNの重みが、波形処理装置100
の抵抗Rji,Rj ( R11,R21,R31,R41,R51,R12,R22,R3
2,R42,R52,R13,R23,R33,R43,R53,R1 ,R2 ,R3 )の値と
して、決定される。最後に、図4に示すように、具体的
に決定された抵抗値及び反転型オペアンプの強さを表わ
す重みに基づいて、波形処理装置100が製作される。
そして、図1(A)に示すように、記録伝送媒体102
などにより劣化する現信号を前記波形処理装置100に
入力し、記録伝送系による劣化を打ち消すように原信号
を波形処理してから、記録送信装置101を介して記録
伝送媒体102に出力される。この結果、記録伝送系で
劣化が生じても打ち消され、再生受信装置103から原
信号に近い信号が得られることとなる。Then, the weight of the neural network N that has converged after learning the characteristics of the transmission / reproduction system is the waveform processing device 100.
Resistance of Rji, Rj (R11, R21, R31, R41, R51, R12, R22, R3
2, R42, R52, R13, R23, R33, R43, R53, R1, R2, R3). Finally, as shown in FIG. 4, the waveform processing device 100 is manufactured based on the specifically determined resistance value and the weight representing the strength of the inverting operational amplifier.
Then, as shown in FIG. 1A, the recording transmission medium 102
A current signal that deteriorates due to the above is input to the waveform processing device 100, and the original signal is subjected to waveform processing so as to cancel the deterioration due to the recording and transmission system, and then output to the recording transmission medium 102 through the recording and transmitting device 101. As a result, even if deterioration occurs in the recording and transmission system, it is canceled and a signal close to the original signal is obtained from the reproducing / receiving apparatus 103.
【0032】(具体例)記録伝送媒体102として、磁
気記録媒体を使用し、記録・再生装置101,103と
して磁気記録再生装置を使用し、学習設計した。図5に
学習前の各波形、図6に学習後の各波形を示す。波形a
は原信号、波形bは波形処理装置100と等価であるニ
ューラルネットNの出力、波形cは記録伝送媒体102
からの出力、波形dは記録伝送媒体102を経た記録再
生装置103の出力である。なお学習の初期段階では、
ニューラルネットNは入力された信号をほぼそのまま出
力するように初期設定されている。(Specific Example) A magnetic recording medium was used as the recording / transmission medium 102, and a magnetic recording / reproducing apparatus was used as the recording / reproducing apparatuses 101 and 103 for learning design. FIG. 5 shows each waveform before learning, and FIG. 6 shows each waveform after learning. Waveform a
Is the original signal, waveform b is the output of the neural network N equivalent to the waveform processing device 100, and waveform c is the recording and transmission medium 102.
, Waveform d is the output of the recording / reproducing apparatus 103 via the recording / transmission medium 102. At the beginning of learning,
The neural network N is initially set to output an input signal almost as it is.
【0033】図5に示すに学習前では、同図(C)に示
すように、符号間干渉により両ピークが広がる方向にシ
フトし、出力信号dが劣化している。これに対して、図
6に示す学習後では、同図(B)に示すように、波形処
理装置100と等価であるニューラルネットNの出力信
号bの間隔が狭くなるよう学習出力され、その結果、出
力信号dとしてはほぼ現信号に近い波形が得られた。Before learning as shown in FIG. 5, as shown in FIG. 5C, both peaks are shifted by the intersymbol interference so that the output signal d is deteriorated. On the other hand, after the learning shown in FIG. 6, as shown in FIG. 6B, learning output is performed so that the interval between the output signals b of the neural network N equivalent to the waveform processing apparatus 100 becomes narrower, and as a result, As the output signal d, a waveform close to the current signal was obtained.
【0034】なお、波形処理装置100(及びこれと等
価であるニューラルネットN)を、記録送信装置101
内(記録伝送媒体102との間)に設けても良い。The waveform processing apparatus 100 (and the neural network N equivalent thereto) is connected to the recording and transmitting apparatus 101.
It may be provided inside (between the recording transmission medium 102).
【0035】[0035]
【発明の効果】以上詳述したように、本発明は記録送信
装置側でニューラルネットによる波形処理を実施したニ
ューラルネットによる波形処理装置及びその設計方法で
あるから、従来のように再生受信装置の数に応じた波形
等化装置が必要でない。したがって大規模なニューラル
ネットを使用して高性能な装置とすることができる。ま
た、ニューラルネットにより実体的な波形処理装置を設
計するようにしたので、その設計も容易である。As described above in detail, since the present invention is a waveform processing apparatus by a neural network in which waveform processing by a neural network is performed on the recording / transmission apparatus side, and a designing method thereof, a reproducing / receiving apparatus as in the prior art is used. There is no need for a number of waveform equalizers. Therefore, a large-scale neural network can be used to provide a high-performance device. Moreover, since the substantial waveform processing device is designed by the neural network, the design is easy.
【図1】本発明になるニューラルネットによる波形処理
装置の一実施例を示すシステムの構成図であり、(A)
はハードウェア的実行をする実体的信号装置の一例を示
すもの、(B)はニューラルネットによる波形処理装置
の設計方法を示す図である。FIG. 1 is a system configuration diagram showing an embodiment of a waveform processing device using a neural network according to the present invention, (A)
FIG. 4 shows an example of a physical signal device that is executed by hardware, and (B) is a diagram showing a method for designing a waveform processing device by a neural network.
【図2】ニューラルネットによる波形処理装置の一実施
例を示す基本概念図である。FIG. 2 is a basic conceptual diagram showing an embodiment of a waveform processing device using a neural network.
【図3】図2に示したニューラルネットワークのユニッ
ト結合を示す図である。FIG. 3 is a diagram showing a unit connection of the neural network shown in FIG.
【図4】図2に示したニューラルネットによる波形処理
装置の具体的な回路図である。4 is a specific circuit diagram of the waveform processing device using the neural network shown in FIG.
【図5】ニューラルネットによる学習前の各信号を示す
図である。FIG. 5 is a diagram showing each signal before learning by a neural network.
【図6】ニューラルネットによる学習後の各信号を示す
図である。FIG. 6 is a diagram showing each signal after learning by a neural network.
【図7】従来のニューラルネットによる波形処理装置を
示す構成図である。FIG. 7 is a block diagram showing a waveform processing device using a conventional neural network.
DL 遅延手段、N ニューラルネット U ユニット(非線形の変換系)、W 可変の重み、 1a・1b,2a・2b,3a・3b,4a・4b 反
転型オペアンプ 10,12,13 ダイオード対 14,15,16,17 ディレイライン 20 デジタルメモリ、 21 ワークステーション 100 波形処理装置、101 記録送信装置、 102 記録伝送媒体、103 再生受信装置、 R11,R21,R31,R41,R51 中間層の第1ユニットへの抵抗
(固定の重み) R12,R22,R32,R42,R52 中間層の第2ユニットへの抵抗
(固定の重み) R13,R23,R33,R43,R53 中間層の第3ユニットへの抵抗
(固定の重み) R1 ,R2 ,R3 最終層(のユニット)への抵抗(固定の重
み) a 原信号、 b 波形処理装置100と等価なニューラルネットNの
出力、 c 記録伝送媒体102からの出力、 d 記録伝送媒体102を経た記録再生装置103の出
力。DL delay means, N neural network U unit (non-linear conversion system), W variable weight, 1a • 1b, 2a • 2b, 3a • 3b, 4a • 4b inverting operational amplifier 10, 12, 13 Diode pair 14, 15, 16, 17 Delay line 20 Digital memory, 21 Workstation 100 Waveform processing device, 101 Recording transmission device, 102 Recording transmission medium, 103 Playback receiving device, R11, R21, R31, R41, R51 Resistance to the first unit of the intermediate layer (Fixed weight) R12, R22, R32, R42, R52 Resistance to the second unit in the middle layer (Fixed weight) R13, R23, R33, R43, R53 Resistance to the third unit in the middle layer (Fixed weight) ) R1, R2, R3 Resistance to (the unit of) the final layer (fixed weight) a Original signal, b Output of neural network N equivalent to waveform processing apparatus 100, c Output from recording transmission medium 102, d Recording transmission The output of the recording and reproducing device 103 via the medium 102.
Claims (3)
立した固定の重みで結ばれ、かつ、この固定の重みはニ
ューラルネットにより記録伝送系の特性に対して予め学
習された重みである変換手段からなり、 記録伝送系により劣化する現信号を前記変換手段に入力
し、前記記録伝送系による劣化を打ち消すように前記原
信号を波形処理して、記録伝送系に出力するようにした
ことを特徴とするニューラルネットによる波形処理装
置。1. A plurality of conversion systems composed of non-linear conversion systems are connected by independent fixed weights, and these fixed weights are weights learned in advance for the characteristics of the recording transmission system by a neural network. The present invention comprises a conversion means, wherein a current signal deteriorated by the recording and transmission system is inputted to the conversion means, the original signal is subjected to waveform processing so as to cancel the deterioration by the recording and transmission system, and output to the recording and transmission system. A waveform processing device using a neural network.
立した固定の重みで結ばれた変換手段からなり、記録伝
送系により劣化する現信号を前記記録伝送系による劣化
を打ち消すように波形処理して、記録伝送系に出力する
波形処理装置の設計方法であって、 前記波形処理装置と等価で、かつ、非線形の変換系から
なる複数の変換系が独立した可変の重みで結ばれたニュ
ーラルネットにより、前記記録伝送系の特性に応じた前
記重みを可変学習させて、前記可変学習された重みをも
とに前記変換手段の固定の重みを設計決定するようにし
たことを特徴とするニューラルネットによる波形処理装
置の設計方法。2. A plurality of conversion systems, each of which is composed of a non-linear conversion system, is composed of independent conversion means connected by fixed weights, and has a waveform for canceling the deterioration of the current signal deteriorated by the recording transmission system. A method of designing a waveform processing device for processing and outputting to a recording / transmission system, wherein a plurality of conversion systems which are equivalent to the waveform processing device and which are non-linear conversion systems are connected with independent variable weights. The weight is variably learned according to the characteristics of the recording and transmission system by a neural network, and a fixed weight of the conversion means is designed and determined based on the variably learned weight. A method for designing a waveform processing device using a neural network.
せる手段を有し、時間的に前後させた現信号を変換手段
に入力するようにしたことを特徴とする請求項1に記載
のニューラルネットによる波形処理装置、または請求項
2に記載のニューラルネットによる波形処理装置の設計
方法。3. A neural system according to claim 1, further comprising means for delaying an original signal which is deteriorated by a recording and transmission system, and the current signal which is temporally moved forward and backward is inputted to the converting means. A method of designing a waveform processing apparatus using a net or a waveform processing apparatus using a neural network according to claim 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4194969A JPH0619868A (en) | 1992-06-29 | 1992-06-29 | Waveform processor in neural net and its design method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4194969A JPH0619868A (en) | 1992-06-29 | 1992-06-29 | Waveform processor in neural net and its design method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0619868A true JPH0619868A (en) | 1994-01-28 |
Family
ID=16333358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4194969A Pending JPH0619868A (en) | 1992-06-29 | 1992-06-29 | Waveform processor in neural net and its design method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0619868A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010170344A (en) * | 2009-01-22 | 2010-08-05 | Nagaoka Univ Of Technology | Apparatus for compensating dead time of inverter system |
US11216717B2 (en) | 2017-04-04 | 2022-01-04 | Hailo Technologies Ltd. | Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements |
US11221929B1 (en) | 2020-09-29 | 2022-01-11 | Hailo Technologies Ltd. | Data stream fault detection mechanism in an artificial neural network processor |
US11237894B1 (en) | 2020-09-29 | 2022-02-01 | Hailo Technologies Ltd. | Layer control unit instruction addressing safety mechanism in an artificial neural network processor |
US11263077B1 (en) | 2020-09-29 | 2022-03-01 | Hailo Technologies Ltd. | Neural network intermediate results safety mechanism in an artificial neural network processor |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
US11874900B2 (en) | 2020-09-29 | 2024-01-16 | Hailo Technologies Ltd. | Cluster interlayer safety mechanism in an artificial neural network processor |
-
1992
- 1992-06-29 JP JP4194969A patent/JPH0619868A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010170344A (en) * | 2009-01-22 | 2010-08-05 | Nagaoka Univ Of Technology | Apparatus for compensating dead time of inverter system |
US11216717B2 (en) | 2017-04-04 | 2022-01-04 | Hailo Technologies Ltd. | Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements |
US11461614B2 (en) | 2017-04-04 | 2022-10-04 | Hailo Technologies Ltd. | Data driven quantization optimization of weights and input data in an artificial neural network |
US11221929B1 (en) | 2020-09-29 | 2022-01-11 | Hailo Technologies Ltd. | Data stream fault detection mechanism in an artificial neural network processor |
US11237894B1 (en) | 2020-09-29 | 2022-02-01 | Hailo Technologies Ltd. | Layer control unit instruction addressing safety mechanism in an artificial neural network processor |
US11263077B1 (en) | 2020-09-29 | 2022-03-01 | Hailo Technologies Ltd. | Neural network intermediate results safety mechanism in an artificial neural network processor |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
US11874900B2 (en) | 2020-09-29 | 2024-01-16 | Hailo Technologies Ltd. | Cluster interlayer safety mechanism in an artificial neural network processor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2797035B2 (en) | Waveform processing device using neural network and design method thereof | |
US5978782A (en) | Neural network signal processor for magnetic storage channels | |
JPH10106158A (en) | Disk storage device and waveform equalizing circuit to be applied to the device | |
Chang et al. | Adaptive decision feedback equalization for digital satellite channels using multilayer neural networks | |
WO1999041839A1 (en) | A method and device for nonlinear likelihood sequence estimation | |
JPH02502777A (en) | Method for equalizing diffuse, linear or approximately linear channels, e.g. radio channels, and apparatus for implementing this method | |
Ong et al. | A decision feedback recurrent neural equalizer as an infinite impulse response filter | |
JPH0619868A (en) | Waveform processor in neural net and its design method | |
JPH05334278A (en) | Designing method for waveform processor by neural net | |
JPH09198799A (en) | Adaptive analog generalization transversal equalizer | |
JP3764269B2 (en) | Disk storage | |
JPH04362808A (en) | Equalization circuit | |
Li et al. | Complex-valued recurrent neural network with IIR neuron model: training and applications | |
JP2722941B2 (en) | Learning Design Method of Waveform Processor Using Neural Network | |
Ryan et al. | Viterbi detector for PR4-equalized magnetic recording channels with transition-shift and partial-erasure nonlinearities | |
Siu et al. | Decision feedback equalization using neural network structures | |
CN1085377C (en) | Procedure for equalizing distorted data signals | |
Nair et al. | Improved equalization for digital recording using nonlinear filtering and error confinement | |
Ong et al. | A decision feedback recurrent neural equalizer for digital communication | |
JPH04271510A (en) | Waveform equalizer | |
KR100335616B1 (en) | Signal detecting method and device of data storing system | |
Nanda et al. | Development of novel digital equalizers for noisy nonlinear channel using artificial immune system | |
Hsu et al. | Generalized MLP/BP-based MIMO DFEs for Overcoming ISI and ACI in Band-limited Channels | |
Uncini et al. | A class of fast complex domain neural networks for signal processing applications | |
CN113066469A (en) | Hybrid active noise reduction superposition method and device based on neural network |