JPH08101819A - 歪みデータ信号の等化方法および回路装置 - Google Patents

歪みデータ信号の等化方法および回路装置

Info

Publication number
JPH08101819A
JPH08101819A JP7109785A JP10978595A JPH08101819A JP H08101819 A JPH08101819 A JP H08101819A JP 7109785 A JP7109785 A JP 7109785A JP 10978595 A JP10978595 A JP 10978595A JP H08101819 A JPH08101819 A JP H08101819A
Authority
JP
Japan
Prior art keywords
data signal
neural network
weighting
equalizing
distortion data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7109785A
Other languages
English (en)
Inventor
Klaus Mager
マーガー クラウス
Edgar Wursthorn
ヴルストホルン エドガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Thomson Brandt GmbH
Original Assignee
Deutsche Thomson Brandt GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsche Thomson Brandt GmbH filed Critical Deutsche Thomson Brandt GmbH
Publication of JPH08101819A publication Critical patent/JPH08101819A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B5/00Recording by magnetisation or demagnetisation of a record carrier; Reproducing by magnetic means; Record carriers therefor
    • G11B5/02Recording, reproducing, or erasing methods; Read, write or erase circuits therefor
    • G11B5/027Analogue recording
    • G11B5/035Equalising
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10481Improvement or modification of read or write signals optimisation methods
    • G11B20/10518Improvement or modification of read or write signals optimisation methods using neural networks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/03Shaping networks in transmitter or receiver, e.g. adaptive shaping networks
    • H04L25/03006Arrangements for removing intersymbol interference
    • H04L25/03165Arrangements for removing intersymbol interference using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/03Shaping networks in transmitter or receiver, e.g. adaptive shaping networks
    • H04L25/03006Arrangements for removing intersymbol interference
    • H04L2025/03433Arrangements for removing intersymbol interference characterised by equaliser structure
    • H04L2025/03439Fixed structures
    • H04L2025/03445Time domain
    • H04L2025/03464Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Power Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Filters That Use Time-Delay Elements (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Image Analysis (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Digital Magnetic Recording (AREA)

Abstract

(57)【要約】 【目的】 線形フィルタを使用しないで、歪みを受けた
データ信号を透過する方法を提供する。 【構成】 歪みデータ信号を等化するためにニューラル
ネットワークを使用する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、歪みデータ信号の等化
方法および回路装置に関する。
【0002】
【従来の技術】線形フィルタを用いて歪みデータ信号を
等化することは周知である。
【0003】磁気テープに記録されたデータ信号が図1
に示されている。
【0004】図2には、磁気テープから読み取られた再
生信号が示されている。
【0005】エッジの急峻さが著しく歪みを受けている
ことが明らかにわかる。既述のように、データ信号を等
化するために線形フィルタが設けられている。しかし、
データ密度が高まるにつれてますます、磁気的に記録さ
れたデータ信号の、線形フィルタを用いた等化の実現は
一層困難になる。
【0006】
【発明が解決しようとする課題】それ故に、本発明の課
題は、歪みデータ信号、殊に磁気的に記録されたデータ
信号の等化を実質的に改善することである。
【0007】
【課題を解決するための手段】この課題は本発明によ
り、歪みデータ信号を等化するためのニューラルネット
ワークを設けることによって解決される。
【0008】次に、歪みデータ信号の等化において、線
形フィルタに代わって使用されるニューラルネットワー
クの利点を、磁気的に記録されたデータ信号の例を用い
て説明する。
【0009】本発明は、磁気テープチャネルの場合、線
形フィルタ設計に対して所望されるように、因果性の
(因果的)伝送系の方が非因果性の系よりも問題が少な
いことを認識することから出発している。
【0010】データの記録および後の再生は、2段階の
手続きを表している。点状でない磁化および、高い信号
周波数の波長を遥かに上回る可能性がある漂遊磁界のた
め、記録の時、まさに丁度現行の時点でのテープ位置に
おいてのみならず、時間的に先行して位置するイベント
の場合も、すなわち既に記録されているイベントの場合
にもある効果が発揮される。このことの結果は、再生期
間において、まさに丁度現行のイベントが、順次連続す
る“後続の”イベントによって影響されることであり、
その結果因果性の伝送系において真の意味で言及するこ
とはもはやできない。原因および効果(結果)の時間的
なシーケンスはもはや得られない。図2において、再生
信号が、記録信号において見られるエッジが生じる前に
明らかに既に生じていることが明らかにわかる。しかし
非因果性の系における線形フィルタの使用は制約されて
おりかつ歪みデータ信号の不満足な等化を来す。オール
パスフィルタの使用がしばしば要求されるが、このフィ
ルタは調整するのが困難である。
【0011】本発明は、再生信号を実際値として見做し
およびデジタル記録信号を目標値として見なすという思
想から出発している。ニューラルネットワークは、フィ
ルタリングを実施しないが、記録信号の信号パターンを
再生信号の信号パターンと比較する。線形フィルタを用
いたフィルタリング信号に代わって、本発明は信号パタ
ーンを比較する。
【0012】ニューラルネットワークの理論は、神経繊
維における観察からの生物学的および神経学的な研究に
おいて得られた所見ないし認識に基づいている。この種
の認識の、テクノロジーへの変換は、広範な分野におい
て、D. O. Hebb の著書に遡る。次の3つの特徴は基本
的にここにまとめられている:ニューロンは、所定の強
度の信号を、細胞体の中心に導く切換点と見なされる所
謂シナプスを介して相互に交信する。
【0013】到来する重み付けられたすべての信号は細
胞体において加算されかつ非線形の刺激関数が、ニュー
ロンの出力信号を発生するためにそれらに供給され、出
力信号はシナプスを介して別のニューロンに中継伝達さ
れる。脳内の神経細胞の重要な特徴は、それらの学習能
力である。学習プロセスは、ニューロン間の重み付けを
調整することによって実現されるものと想定される。
【0014】生物学的な神経網のこれら3つの引用され
た特徴は、デジタルおよびアナログ電気回路に適用する
ことができる。
【0015】
【実施例】次に本発明を図示の実施例につき図面を用い
て詳細に説明する。
【0016】図3には、本発明の実施例が示されてい
る。例えば磁気テープから読み取られた、等化すべきデ
ータ信号DSは、4つの時間遅延素子VZ1ないしVZ
4から成る直列回路に供給される。遅延されないデータ
信号DSは、重み付け係数w00,w01,w02,w
03およびw04を用いた重み付けのための第1のネッ
トワークの入力側に供給される。同様に、第1の遅延素
子の出力側において取り出すことができる遅延されたデ
ータ信号DS1は、重み付け係数w10,w11,w1
2,w13およびw14を用いた重み付けのための第2
のネットワークに供給される。第2の遅延素子VZ2の
出力側に供給された遅延されたデータ信号DS2は、重
み付け係数w20,w21,w22,w23およびw2
4を用いた重み付けのための第3のネットワークに供給
される。同様に、第3の遅延素子VZ3の出力側に現れ
た遅延されたデータ信号DS3は、重み付け係数w3
0,w31,w32,w33およびw34を用いた重み
付けのためのネットワークに供給される。さらに、第4
の遅延素子VZ4から供給された遅延されたデータ信号
DS4は、重み付け係数w40,w41,w42,w4
3およびw44を用いた重み付けのための別のネットワ
ークに供給される。
【0017】重み付けのための各ネットワークの第1の
出力側は、それぞれのニューロンN1ないしN5の1つ
の入力側に接続されている。同様に、重み付けのための
ネットワークの残りの出力側は、それぞれのニューロン
N1ないしN5の1つの入力側に接続されている。それ
ぞれのニューロンN1ないしN5の出力側はそれぞれ、
増幅器V1ないしV5の入力側に接続されている。増幅
器V1ないしV5は、ニューロンN1ないしN5の出力
信号を重み付けるために使用される。増幅器V1ないし
V5の出力側は、別のニューロンN6の入力側に接続さ
れており、このニューロンの出力側において等化された
データ信号DAを取り出すことができる。
【0018】1つのニューロンは、1つの加算器および
後置接続されている非線形の刺激関数ユニットから組み
合わされている。
【0019】ニューラルネットワークの使用は、学習フ
ェーズと作業フェーズとに分割されている。学習フェー
ズにおいて、重み付けは最適パターン識別に対するトレ
ーニングプロセスに委ねられる。それらはこの目的のた
めに可変に調整可能である。しかし、作業フェーズの期
間は、重み付けは持続的に調整された状態にとどまる。
【0020】トレーニングアルゴリズムの課題は、ネッ
トワークを制御することなく最適重み付け調整を迅速に
飽和または単に局所的な最小値に変換することである。
周知のアルゴリズムは例えば、しばしば誤差逆伝搬とも
称される、誤差逆計算である。
【0021】第1のステップにおいて、重み付けのため
のネットワークのすべての重み付けwijおよび増幅器V
1ないしVnの重み付けvjはランダムに小さな値によ
って初期化される。それから入力ベクトルuは、重み付
けられた和xjとしてそれぞれj番目のニューロンに供
給することができ、
【0022】
【数1】
【0023】または状態のベクトルとしてのx ̄および
重み付けマトリクスとしてのWを有する隠れ層のすべて
のニューロンに対してベクトルとして供給することがで
きる:
【0024】
【数2】
【0025】第1のステップは、信号伝送の非線形要素
としてニューロンを興奮させるための関数を形成するこ
とである。それは、生物学的なニューロンの動作点のタ
イプをモデル化するのに向けられる。この目的のために
通例、所謂シグモイド関数が使用される:
【0026】
【数3】
【0027】非常に大きなλを選択することによってシ
グモイド関数は、階段関数を近似する。そこで、ニュー
ラルネットワークの全体の応答特性を式によって記録す
ることができ、ただしyは出力変数でありかつν ̄は出
力重み付けのベクトルである:
【0028】
【数4】
【0029】重み付けのランダムな初期化の後、出力変
数yが入力パターンu ̄の使用に基づいた目標変数zか
ら著しくはずれることが直接的に明らかである。
【0030】誤差=z−y計算された誤差は、重み付け
調整を改善するために使用することができる。飽和を防
止するために、誤差は、出力ニューロンの入力和
【0031】
【数5】
【0032】の関数として変化するためのyの容易度を
表す係数を用いて付加的に重み付けられる。
【0033】形式的な数学的な項において、この係数
は、刺激関数の、式(3)からの導関数であり、それ
は、
【0034】
【数6】
【0035】として明確に表現することができる。その
結果は、フィードバックすることができる誤差である:
【0036】
【数7】
【0037】さらに、フィードバックの強度を決定する
学習レートη(ただし0<η<1)が考慮されるとき、
δを使用することによって、新しいwijおよびviを計
算することができる((n+1)番目の反復ステップに
対して示されている):
【0038】
【数8】
【0039】誤差逆伝搬
【0040】
【数9】
【0041】トレーニングフェーズにおいて、入力ベク
トルu ̄によって形成される時間ウィンドウは、図1か
ら全体の検査シーケンスを介して繰り返しガイドされ、
それぞれのパターンはそれ自体頻繁に反復される。
【0042】逆伝搬アルゴリズムの包括的なかつ容易に
包括可能な記述は、Philip D. Wassermann, Neural Com
puting, Theory and practice, Van Nostrand Reinhold
Book,1989年に記載されている。
【0043】課題の割り当てられた範囲におけるニュー
ラルネットワークの機能は、数多くのパラメータの関数
である。
【0044】学習すべきパターンがネットワークに対し
て表されかつトレーニングされる手法は非常に明確であ
る。系応答からの重要な断面は、パターンの選択によっ
てカバーすべきである。このことは、実際の操作からの
障害となる影響も含んでいる。トレーニングの目的は、
ネットワークを、学習レートηおよびパターン当たりの
反復数の適当な選択によって重み付けの多次元空間にわ
たって誤差関数の大域的な最小値に制御することであ
る。
【0045】ネットワークの構造は、すなわちいわば、
いくつの層から成りかつ層当たりいくつのニューロンか
ら成るかということが、学習しかつ区別することができ
るパターンの最大数を決定する。構造と容量との間の形
式的な関係は今日未だ周知でない。10nsの間隔にお
いて相次いで現れる5つの入力値に代わって、種々の時
間間隔における別の値も考えられる。
【0046】適当な刺激関数は、使用例に依存して選択
すべきである。正弦波状の処理関数は、例えばその入力
信号のフーリエ級数展開を保証することができるネット
ワークに対して、Christian M. Haffer, Worauf es bei
m Entwerfen neuronaler Netze ankommt[What is impo
rtant in designing neural networks], Elektronik
6、1992年に提案されている。シグモイド関数は、
この使用例には適しているものと思われ、推移のグラジ
ェントは生じる影響の別の重要なパラメータである。
【0047】それは、目標変数が実際の記録信号に相応
する、すなわちいわば目標変数が有限なエッジ急峻度を
有しているかどうか、または理想的なステップ形状のデ
ジタル信号が前以て決められているかどうか、学習フェ
ーズにおけるネットワークの収斂および作業過程におけ
る安定性に対して重要である。
【0048】小さなランダム値を用いた重み付けの初期
化は、2つのランダムなシーケンスが初期化において異
なっているとき、同じトレーニングが行われるとして異
なった最終状態が準備されているので、少なからずある
役割を演ずる。
【0049】ニューラルネットワークをトレーニングす
るとき、殊に学ぶべき材料が種々多様でありかつ高価で
あるとき、生物学的なネットワークにおいても周知であ
る効果が発揮される。特有の入力パターンが非常に多く
の反復を用いて学習されるならば、ネットワークは、そ
の前に既に学んだことを“忘れる”。しかし、反復数が
非常に小さければ、再び別のパターンを学習することに
よって置換される表面的な学習のみが行われる。ここで
の目的は、使用可能なネットワーク容量を最適に使用す
るために、ニューラルネットワークをシミュレートする
ことによる経験から有利なトレーニング方法を導出する
ことである。可能なストラテジーは次の4つのステップ
によって表される: 1.小さな値による重み付けのランダムな初期化、 2.小さな反復数および高い学習レートによる学習プロ
セス。このプロセスにおいて、ネットワークは、固有の
パターンに固定されることなく、存在するプロセッサの
ダイナミック特性を学習する。
【0050】3.低い学習レートにおける高い反復数を
有する正確なぱす。各パターンは、重み付けが既に構成
されているとき、それ自体に対する隠れ家を獲得する機
会を有している。
【0051】4.精密な調整を実現するために、小さな
反復数だが、非常に低い学習レートによる、第2のステ
ップに類似した手法における大域的な考察。
【0052】最後の3つのステップにおいて、使用可能
なパターンのすべて、すなわちいわば完全なテストデー
タシーケンスが順次に処理される。ノイズに関するネッ
トワークの感度を低減するために、データシーケンスの
パス数を、学習が付加されるノイズを以ておよび付加さ
れるノイズなしに実施される効果にまで拡張することが
できる。数多くのトレーニングパスにおいて、重み付け
はPCにおいて最適化されかつ最終的にハードウェアア
イテムを調整するために使用可能である。
【0053】ニューラルネットワークの成功裡の使用お
よび受容はしばしば、ネットワークにおけるプロセスに
関する明瞭さがないという事実に基づいて挫折する。ネ
ットワークの透明度は、刺激関数の前のニューロン加算
点を考察することによって高めることができる。
【0054】例えば、6つの高いビットのシーケンスの
場合、出力ニューロンの加算点における信号が零ライン
に近付くとすれば、この点において重畳されたノイズが
誤った決定を惹き起こすことが予測される。
【0055】ノイズ信号を加算することによって−PC
のランダム検査発生器からの−20dBのSN比を有す
るホワイトノイズ−ネットワークのSN比を著しく改善
することができる。というのは、その場合誤った決定は
学習フェーズにおいて既に生じかつしたがって補償する
ことができるからである。
【0056】内部層の5つの加算点のそれぞれは、FI
Rフィルタの出力を表している。その場合重み付けのラ
ンダムな初期化および後続の学習プロセスは、種々の応
答特性を有する5つのFIRフィルタを発生する。出力
レイヤの重み付けvjは、後者が刺激関数に基づいて決
定された後、5つのフィルタの評価を表している。さら
に、出力ニューロンの刺激関数は、それぞれの従来の等
化器の後、検出目的のためにも使用される弁別器に相応
している。
【0057】アナログ回路エンジニアリングにおけるネ
ットワークの設計は、要求される高い処理速度に関して
少なからず、発明を実施するための簡単な解決法であ
る。ポテンショメータは重み付けを設定するために使用
することができ、かつ重み付けられた信号は、加算器と
して接続されている演算増幅器において加算される。負
の重み付けを可能にするために、信号は、エミッタ回路
においてまたはコレクタ回路において作動するトランジ
スタにおいて取り出すことができる。考察が階段状の刺
激関数に制限されていれば、この特性はコンパレータの
使用によって写像される。シグモイド刺激関数を実現す
ることは難しいが、それは、トレーニングにおいても実
践においても有利であろう。
【0058】信号は、アナログ回路構成における並列分
岐において案内しかつ同時に処理することができる。こ
のことは、生物学的なネットワークにおける場合であ
る。それ故に速度および可能な信号大域幅の計算は非常
に高い。
【0059】非常に簡単な回路の測定結果が示すよう
に、歪みデジタル信号を検出するためのニューラルネッ
トワークの使用は、線形の等化器の使用に対して選択的
である興味深いかつ有望な構成要素を表している。これ
らとは異なって、原デジタルデータの完全な再構成は、
可能な範囲内にある。非常に急峻なエッジ、すなわちい
わば高い周波数は正確に回復され、かつ低周波数のシー
ケンスにおけるグリッチ、線形等化のウィークポイント
の1つは生じない。
【0060】−PCから直接、ハードウェアにおける重
み付けをプログラムすると有利である。その理由は、手
動によるポテンショメータの調整は、著しく手間がかか
りかつ不正確である。不都合にも、市販のデジタル調整
可能なポテンショメータは、著しく小さな伝送帯域幅し
か有していない(<1MHz)。
【0061】−多くの障害となる影響は、RFテクノロ
ジーにおいて通例であるように、微分信号制御によって
取り除くことができる。
【0062】−コンパレータを用いた刺激関数の実現は
確かに、最高の解決法を表していない。一方において、
弁別器の急峻なエッジはクロストークのための別の信号
を妨害し、一方他方において、興奮への柔らかい移行が
望まれる。
【0063】−しかし、信号ライン間のクロストーク
は、信号レベルを別のレベルに整合することによって低
減することができる。
【0064】ニューラルネットワークのトレーニング期
間に、学習プロセスの長い期間は急速な収斂が行われな
い点で厄介である。実現される調整状態はまだ最適なも
のではない。この関連において補正を行うスタート点
は、学習レートηである。それは、ネットワーク構造お
よびカレントパターンに対する誤差が第2の反復の後に
できるだけ早く非常に小さくなるように丁度計算された
誤差の関数として選択することができる。このような学
習レート制御は、自動制御エンジニアリングからの速示
設計を近似するものである。これにより一層迅速な収斂
が可能である。その理由は、誤差の検出およびフィード
バックの後に、ネットワークにおいて、例えば過度に大
きなηに基づくオーバシューティング、および逆の極性
の誤差を発生を防止することができる。むしろ局所的な
最小値に遭遇するリスクがどのくらい高いかはわかって
いない。
【0065】重み付けのランダムな初期化は確かに、ト
レーニングすべきネットワークに対する初期条件の最適
な選択を表していない。目的が重み付けベクトルをでき
るだけ種々異なってスタートできるようにすることであ
れば、これらベクトルは、例えば、シュミット直交法が
施されかつ標準化することができる。別の可能性は、重
み付けのスタート値として系特徴を特別に挿入すること
にある。したがって、FIRフィルタのように、その都
度の周波数からのみ成る時系列の擬次反転を用いてそれ
を計算することによって、各重み付けベクトルを可能な
信号範囲内の特別な周波数に対して初期化することが考
えられる。
【0066】作業フェーズにおけるネットワークに対す
る適合の可能性は、有利な周波数の分岐における自己組
織化に対する上述の能力から導き出すことができる。出
力重み付けvi、およびしたがって周波数重み付けは、
磁気テープチャネルの特性に依存して設定することがで
きる。
【0067】逆伝搬によってトレーニングされるネット
ワークを用いた等化に加えて、ニューラルネットワーク
を使用する別の可能性がある。
【0068】制限された数のコード語は、例えばそれぞ
れ10ビットを有している、デジタル磁気テープ系のチ
ャネルコードにおいて存在し、チャネルコードの方はそ
の都度、例えば1および6ビットの間の、制限された数
の許容ランレングスのみから成っている。そこで、ネッ
トワークを、入力重み付けベクトルがチャネルのコード
語の2進態様において構成されている連想メモリの形に
まとめることが考えられる。再生信号の可能な前フィル
タリングの後、最初に要求されることは、コード語のス
タートを発見することである。それから後者が連想メモ
リまで通過した場合、原デジタルコード語を表している
重み付けベクトルと最もよく相関付けられることを期待
することができる。最良の相関は、重み付けベクトルの
1つによって入力ベクトルが実現する最長のスカラー積
によって特定される。理想的な場合において、それは重
み付けベクトルの自乗に相応する。
【0069】例えば、再生信号の前フィルタリングとし
て、微分を行うことができる。第1の近似のために、微
分特性が既にチャネルにおいて得られているので、記録
信号と再生信号との間の−180゜の位相角を、更なる
微分、ひいては最大の負の相関によって実現することが
できる。
【0070】この問題に対する連想メモリの実際の実現
は非常に興味深く思われるが、“連想”が数多くの乗算
を用いて形成しなければならないので、要求される高い
処理速度に基づいて好ましくはない。これに対して、ア
ナログ設計において実現されかつ重み付けがPCにおけ
る逆伝搬アルゴリズムを使用して最適化されかつポテン
ショメータを使用して調整されているネットワークは、
非常に迅速でありかつ低コストですむ。
【図面の簡単な説明】
【図1】磁気テープ状に記録された記録信号を示す波形
図である。
【図2】磁気テープからの再生信号を示す波形図であ
る。
【図3】本発明の実施例を示す回路略図である。
【符号の説明】
DS 再生信号、 DA 等化された出力信号、 VZ
1〜VZ4 遅延素子、 NG1〜NG5 重み付けネ
ットワーク、 N1〜N6 ニューロン
───────────────────────────────────────────────────── フロントページの続き (72)発明者 クラウス マーガー ドイツ連邦共和国 バート デュルハイム シャーベルヴェーク 23 (72)発明者 エドガー ヴルストホルン ドイツ連邦共和国 バート デュルハイム フリードリッヒシュトラーセ 44

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 歪みデータ信号を等化するためにニュー
    ラルネットワークを使用することを特徴とする歪みデー
    タ信号の等化方法。
  2. 【請求項2】 ニューラルネットワークの応答特性を、
    前以て決めることができるデータシーケンスを用いて学
    習する請求項1記載の歪みデータ信号の等化方法。
  3. 【請求項3】 学習レートを、ニューラルネットワーク
    が学習するように変化する請求項2記載の歪みデータ信
    号の等化方法。
  4. 【請求項4】 反復数を、ニューラルネットワークが学
    習するように変化する請求項2または3記載の歪みデー
    タ信号の等化方法。
  5. 【請求項5】 ニューラルネットワークは、低い反復数
    を以て、ただし、高い学習レートで学習する請求項2記
    載の歪みデータ信号の等化方法。
  6. 【請求項6】 ニューラルネットワークの学習プロセス
    に対して、反復数を高く選択し、一方学習レートを低く
    選択する請求項2記載の歪みデータ信号の等化方法。
  7. 【請求項7】 ニューラルネットワークの学習プロセス
    に対して、反復数も、学習レートもともに低く選択する
    請求項2記載の歪みデータ信号の等化方法。
  8. 【請求項8】 ニューラルネットワークの学習プロセス
    の期間に、SN比を改善するために、ノイズ信号をニュ
    ーラルネットワークに供給する請求項1から7までのい
    ずれか1項記載の歪みデータ信号の等化方法。
  9. 【請求項9】 ニューラルネットワークを、入力重み付
    けベクトルがデータ信号のコード語から成る連想メモリ
    として構成し、かつ入力重み付けベクトルのスカラー積
    を、その都度受信されるコード語を使用して形成し、か
    つ最大のスカラー積が最大の相関を特定する請求項1記
    載の歪みデータ信号の等化方法。
  10. 【請求項10】 等化すべきデータ信号(DS)は、複
    数の時間遅延素子(VZ1,…,VZ5)から成る直列
    回路に供給され、かつ遅延されないデータ信号(DS)
    は重み付けのためのネットワーク(NG1)に供給され
    並びに各時間遅延素子(VZ1,…,VZ5)の出力側
    において取り出すことができかつ時間遅延素子の遅延に
    応じて遅延されたデータ信号(DS1,…,DS4)は
    それぞれ、重み付けのための別のネットワーク(NG
    2,…,NG5)に供給され、かつ前記重み付けのため
    のネットワーク(NG1,…,NG5)はそれぞれ、ニ
    ューロン(N1,…,N5)の1つの入力側に接続され
    ており、かつ各ニューロンの出力側はそれぞれ、重み付
    けのための増幅器(V1,…,V5)に接続されてお
    り、かつ該増幅器(V1,…,V5)の出力側は、別の
    ニューロン(N6)の入力側に接続されており、該ニュ
    ーロンの出力側で等化されたデータ信号(DA)を取り
    出すことができることを特徴とする歪みデータ信号の等
    化回路装置。
JP7109785A 1994-05-05 1995-05-08 歪みデータ信号の等化方法および回路装置 Pending JPH08101819A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4415811.4 1994-05-05
DE4415811A DE4415811A1 (de) 1994-05-05 1994-05-05 Verfahren zum Entzerren von verzerrten Datensignalen

Publications (1)

Publication Number Publication Date
JPH08101819A true JPH08101819A (ja) 1996-04-16

Family

ID=6517329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7109785A Pending JPH08101819A (ja) 1994-05-05 1995-05-08 歪みデータ信号の等化方法および回路装置

Country Status (6)

Country Link
US (1) US6134538A (ja)
EP (1) EP0681291A3 (ja)
JP (1) JPH08101819A (ja)
KR (1) KR100373428B1 (ja)
CN (1) CN1085377C (ja)
DE (1) DE4415811A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100442813B1 (ko) * 1998-02-16 2004-09-18 삼성전자주식회사 비선형 통신 채널 신호의 검출 방법 및 그 장치
US6724706B1 (en) * 1999-02-26 2004-04-20 Matsushita Electric Industrial Co., Ltd. Digital adaptive equalizer for different quality signals
US7287015B2 (en) * 2004-09-30 2007-10-23 International Business Machines Corporation Methods and apparatus for transmitting signals through network elements for classification
KR100618886B1 (ko) * 2005-02-04 2006-09-01 삼성전자주식회사 서보 제어 방법 및 이에 적합한 장치
US10084620B1 (en) 2017-03-01 2018-09-25 Intel Corporation Neural network-based systems for high speed data links
CN111033520B (zh) 2017-08-21 2024-03-19 诺基亚技术有限公司 用于模式识别的方法、系统及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69030078T2 (de) * 1990-02-22 1997-08-07 At & T Corp Fertigungsjustierung während Produktherstellung
DE69120594T2 (de) * 1990-04-26 1997-01-09 Fujitsu Ltd Wellenformentzerrer mit Neuronalnetzwerk
DE4020875A1 (de) * 1990-06-29 1992-01-02 Digital Equipment Int Verfahren und schaltungsanordnung zum umwandeln von analogen lesesignalen in digitale signale
US5272656A (en) * 1990-09-21 1993-12-21 Cambridge Signal Technologies, Inc. System and method of producing adaptive FIR digital filter with non-linear frequency resolution
CA2054909A1 (en) * 1990-12-06 1992-06-07 Maciej Radosz Supercritical mixed-solvent separation of polymer mixtures
JP2797035B2 (ja) * 1991-01-31 1998-09-17 日本ビクター株式会社 ニューラルネットによる波形処理装置及びその設計方法
US5467428A (en) * 1991-06-06 1995-11-14 Ulug; Mehmet E. Artificial neural network method and architecture adaptive signal filtering
US5274744A (en) * 1992-01-21 1993-12-28 Industrial Technology Research Institute Neural network for performing a relaxation process
US5524124A (en) * 1993-11-17 1996-06-04 Signal Science, Inc. Multiple-filter equalizer for structured digitally modulated signals

Also Published As

Publication number Publication date
EP0681291A2 (de) 1995-11-08
US6134538A (en) 2000-10-17
CN1118536A (zh) 1996-03-13
KR950034066A (ko) 1995-12-26
EP0681291A3 (de) 1996-05-01
KR100373428B1 (ko) 2003-04-26
DE4415811A1 (de) 1995-11-09
CN1085377C (zh) 2002-05-22

Similar Documents

Publication Publication Date Title
JP2797035B2 (ja) ニューラルネットによる波形処理装置及びその設計方法
Lee et al. Channel equalization using radial basis function network
EP0752702B1 (en) Artificial neural network read channel
Bhattacharya et al. Optimization of cascaded parametric peak and shelving filters with backpropagation algorithm
WO2017102972A1 (en) Reservoir computing device
Pepe et al. Evolutionary tuning of filters coefficients for binaural audio equalization
JPH08101819A (ja) 歪みデータ信号の等化方法および回路装置
CN112201276B (zh) 基于TC-ResNet网络的麦克风阵列语音分离方法
Siu et al. Decision feedback equalization using neural network structures
Oh et al. A new error function at hidden layers for fast training of multilayer perceptrons
Brooks et al. Multichannel adaptive blind deconvolution using the complex cepstrum of higher order cross-spectra
Nair et al. A theoretical study of linear and nonlinear equalization in nonlinear magnetic storage channels
JPH05334278A (ja) ニューラルネットによる波形処理装置の設計方法
JPH0619868A (ja) ニューラルネットによる波形処理装置及びその設計方法
Wei et al. Weak Signal Detection Based on WT-LSTM
Back et al. A comparison of discrete-time operator models for nonlinear system identification
Grant Artificial neural network and conventional approaches to filtering and pattern recognition
JP2722941B2 (ja) ニューラルネットによる波形処理装置の学習設計方法
Wongsathan et al. Performance of the hybrid MLPNN based VE (hMLPNN-VE) for the nonlinear PMR channels
KR102358151B1 (ko) 컨볼루션 순환신경망을 이용한 잡음 제거 방법
Abiyev Neuro-fuzzy system for equalization channel distortion
Mo et al. A decision feedback recurrent neural networks equalizer for digital communication
KR100335616B1 (ko) 데이타저장기기에 있어서신호검출방법및장치
Saidani et al. A new training strategy for DFE-MLP using Modified BP algorithm and application to channel equalization
Pepe Deep Optimization of Discrete Time Filters for Listening Experience Personalization

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20050830

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20050902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060511

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060602

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090126