JPH04242865A - 辞書に含まれたデータ語を選択するデータ処理デバイスと方法 - Google Patents
辞書に含まれたデータ語を選択するデータ処理デバイスと方法Info
- Publication number
- JPH04242865A JPH04242865A JP3080627A JP8062791A JPH04242865A JP H04242865 A JPH04242865 A JP H04242865A JP 3080627 A JP3080627 A JP 3080627A JP 8062791 A JP8062791 A JP 8062791A JP H04242865 A JPH04242865 A JP H04242865A
- Authority
- JP
- Japan
- Prior art keywords
- dictionary
- word
- words
- sub
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 title claims description 22
- 238000012360 testing method Methods 0.000 claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims description 49
- 210000002569 neuron Anatomy 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 8
- 210000004205 output neuron Anatomy 0.000 claims 2
- 238000000513 principal component analysis Methods 0.000 claims 1
- 230000011218 segmentation Effects 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 abstract description 7
- 230000015572 biosynthetic process Effects 0.000 abstract description 5
- 230000001537 neural effect Effects 0.000 abstract 2
- 230000006870 function Effects 0.000 description 8
- 230000000946 synaptic effect Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 2
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 2
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 2
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 244000292604 Salvia columbariae Species 0.000 description 1
- 235000012377 Salvia columbariae var. columbariae Nutrition 0.000 description 1
- 235000001498 Salvia hispanica Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 235000014167 chia Nutrition 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- KSNNEUZOAFRTDS-UHFFFAOYSA-N fominoben Chemical compound ClC=1C=CC=C(NC(=O)C=2C=CC=CC=2)C=1CN(C)CC(=O)N1CCOCC1 KSNNEUZOAFRTDS-UHFFFAOYSA-N 0.000 description 1
- 229960004594 fominoben Drugs 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- MYWUZJCMWCOHBA-VIFPVBQESA-N methamphetamine Chemical compound CN[C@@H](C)CC1=CC=CC=C1 MYWUZJCMWCOHBA-VIFPVBQESA-N 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【0001】
【技術分野】本発明は、多次元空間に配設された複数の
固定長の模範語(exemplary words )
DRを含み、かつ所定の対応規準(correspon
dence criterion)に従って上記のテス
ト語DOに最も近い1つ以上の対応語(corresp
onding words )MSをテスト語DOの存
在に基づいて辞書中に選択するような辞書をそれと共に
構成するデータ処理デバイスに関するものである。本発
明はまた辞書に含まれたデータ語の選択方法にも関連し
ている。この種のデバイスと方法は情報圧縮あるいはデ
ータ分類に使用される。
固定長の模範語(exemplary words )
DRを含み、かつ所定の対応規準(correspon
dence criterion)に従って上記のテス
ト語DOに最も近い1つ以上の対応語(corresp
onding words )MSをテスト語DOの存
在に基づいて辞書中に選択するような辞書をそれと共に
構成するデータ処理デバイスに関するものである。本発
明はまた辞書に含まれたデータ語の選択方法にも関連し
ている。この種のデバイスと方法は情報圧縮あるいはデ
ータ分類に使用される。
【0002】
【背景技術】一般に使用されているこの方法は処理すべ
きデータ語Xに最も近い語Am の探索に基づいている
。 語Am は辞書と呼ばれているM個の参照語(refe
rence words )の1群に属している。これ
らの語Am とXは一般にN個の成分Am i (ある
いはXi )を具え、ここでi=1,... ,Nであ
る。
きデータ語Xに最も近い語Am の探索に基づいている
。 語Am は辞書と呼ばれているM個の参照語(refe
rence words )の1群に属している。これ
らの語Am とXは一般にN個の成分Am i (ある
いはXi )を具え、ここでi=1,... ,Nであ
る。
【0003】近接度(proximity )は語Am
と語Xとの間の距離規準(distance cri
terion)d(Am ,X)に基づいてしばしば評
価されている。その成分に番号が付けられると、例えば
ユークリッド距離は数1
と語Xとの間の距離規準(distance cri
terion)d(Am ,X)に基づいてしばしば評
価されている。その成分に番号が付けられると、例えば
ユークリッド距離は数1
【数1】
のように取ることができる。
【0004】データ語Xからの距離が最小である語Am
を決定する必要がある。そこで、辞書の任意の語Am
に対して、 d(Am1,X)≦d(Am ,X) が必要である。
を決定する必要がある。そこで、辞書の任意の語Am
に対して、 d(Am1,X)≦d(Am ,X) が必要である。
【0005】最も近い1つの語Am1を決定できるのみ
ならず、所定の近接限界に対して最も近いK個の語Am
1,Am2,... ,AmKも決定できる。十分な数
の対応語が見いだされた場合、あるいは対応限界よりも
良く対応するかあるいは少なくとも対応限界に従うよう
なすべての対応語が見いだされた場合のいずれかで探索
は終了しよう。
ならず、所定の近接限界に対して最も近いK個の語Am
1,Am2,... ,AmKも決定できる。十分な数
の対応語が見いだされた場合、あるいは対応限界よりも
良く対応するかあるいは少なくとも対応限界に従うよう
なすべての対応語が見いだされた場合のいずれかで探索
は終了しよう。
【0006】最も近い語の決定に現在使用された方法は
、データ語と辞書のすべての各語との間のすべての距離
の完全な計算の実施からなり、それに比較演算による最
小距離の探索が続く。そのような演算はエラーフリーな
結果を得ることができる。しかし、計算時間の点で、す
なわち主として辞書が多数の語を含む場合のすべての距
離の計算のためにそれは非常に高価となる。
、データ語と辞書のすべての各語との間のすべての距離
の完全な計算の実施からなり、それに比較演算による最
小距離の探索が続く。そのような演算はエラーフリーな
結果を得ることができる。しかし、計算時間の点で、す
なわち主として辞書が多数の語を含む場合のすべての距
離の計算のためにそれは非常に高価となる。
【0007】この計算時間の低減に種々の提案がなされ
ているが、しかし一般にエラーを導入するかあるいは辞
書に関して制限を課すかのいずれかである。関連文献は
チィア・ルング・イェー(Chia Lung Yeh
)の「影像圧縮の遅延判定2進トリー探索ベクトル量子
化(Delayed−decision binary
tree−searched vector qua
ntizationfor image compre
ssion )」、エスピーアイイー(SPIE)、第
1989巻、頁154 −158 である。この文献は
同時に上記のトリーのいくつかの分枝の検査による辞書
の語のトリー探索の実施を提案している。この方法は検
査された分枝の数が大きい場合に殆どエラーのない符号
を決定するが、しかしそれには長い計算時間を必要とす
る。
ているが、しかし一般にエラーを導入するかあるいは辞
書に関して制限を課すかのいずれかである。関連文献は
チィア・ルング・イェー(Chia Lung Yeh
)の「影像圧縮の遅延判定2進トリー探索ベクトル量子
化(Delayed−decision binary
tree−searched vector qua
ntizationfor image compre
ssion )」、エスピーアイイー(SPIE)、第
1989巻、頁154 −158 である。この文献は
同時に上記のトリーのいくつかの分枝の検査による辞書
の語のトリー探索の実施を提案している。この方法は検
査された分枝の数が大きい場合に殆どエラーのない符号
を決定するが、しかしそれには長い計算時間を必要とす
る。
【0008】従って、解決すべき問題は、特に処理時間
を低減することにより、解析すべきデータ語に最も近い
辞書の語を選択することである。任意の低いエラー率で
この演算を遂行できなければならない。
を低減することにより、解析すべきデータ語に最も近い
辞書の語を選択することである。任意の低いエラー率で
この演算を遂行できなければならない。
【0009】
【発明の開示】その1つの態様によると、この目的は−
上記の多次元空間をメッシュにし、それにより各模
範語が1つのメッシュ内にあるかあるいは近傍のメッシ
ュ間の境界上にあるかのいずれかである第1手段(20
)、 − 上記の対応規準に従って、最後のメッシュに割り
当てられた基準的(fiduciary)あるいは模範
的な少なくとも1つの語に対応する上記の模範語の間に
任意の語を含む各副次辞書(sub−dictiona
ry)を各メッシュに割り当てる第2手段(24,25
)、 − 上記のテスト語DOをそれが属している任意の特
定メッシュに割り当て、それに基づいて上記の任意の特
定メッシュの副次辞書の模範語に上記の対応規準を排他
的に適用する第3手段、により実現されている。
上記の多次元空間をメッシュにし、それにより各模
範語が1つのメッシュ内にあるかあるいは近傍のメッシ
ュ間の境界上にあるかのいずれかである第1手段(20
)、 − 上記の対応規準に従って、最後のメッシュに割り
当てられた基準的(fiduciary)あるいは模範
的な少なくとも1つの語に対応する上記の模範語の間に
任意の語を含む各副次辞書(sub−dictiona
ry)を各メッシュに割り当てる第2手段(24,25
)、 − 上記のテスト語DOをそれが属している任意の特
定メッシュに割り当て、それに基づいて上記の任意の特
定メッシュの副次辞書の模範語に上記の対応規準を排他
的に適用する第3手段、により実現されている。
【0010】その解決法はまた例えばコンピューターの
ようなプログラムされたデバイスにより形成される。こ
の場合、デバイスが、 − 第1に、上記の多次元空間をメッシュにし(20
)、それにより各模範語が少なくとも1つのメッシュに
割り当てられ、 − 第2に、上記の対応規準に従って、最後のメッシ
ュに割り当てられた基準的あるいは模範的な少なくとも
1つの語に対応する上記の模範語の間に任意の語を含む
各副次辞書を各メッシュに割り当て(24,25)、−
第3に、上記のテスト語DOをそれが属している任
意の特定メッシュに割り当て、それに基づいて上記の任
意の特定メッシュの副次辞書の模範語に上記の対応規準
を排他的に適用すること、を連続的に行う予めプログラ
ムされた手段を具えるデバイスを特徴としている。
ようなプログラムされたデバイスにより形成される。こ
の場合、デバイスが、 − 第1に、上記の多次元空間をメッシュにし(20
)、それにより各模範語が少なくとも1つのメッシュに
割り当てられ、 − 第2に、上記の対応規準に従って、最後のメッシ
ュに割り当てられた基準的あるいは模範的な少なくとも
1つの語に対応する上記の模範語の間に任意の語を含む
各副次辞書を各メッシュに割り当て(24,25)、−
第3に、上記のテスト語DOをそれが属している任
意の特定メッシュに割り当て、それに基づいて上記の任
意の特定メッシュの副次辞書の模範語に上記の対応規準
を排他的に適用すること、を連続的に行う予めプログラ
ムされた手段を具えるデバイスを特徴としている。
【0011】メッシュの各迷路(maze)に関連した
1つ以上の副次辞書に辞書のすべての模範語を割り当て
ることは、処理すべき任意のデータ語の検査の間の計算
時間の実質的な低減を許容する。セグメントの大きさと
テストサンプルの数の選択により任意に小さいエラー率
が達成できる。
1つ以上の副次辞書に辞書のすべての模範語を割り当て
ることは、処理すべき任意のデータ語の検査の間の計算
時間の実質的な低減を許容する。セグメントの大きさと
テストサンプルの数の選択により任意に小さいエラー率
が達成できる。
【0012】辞書のデータ語はアセンブリを囲む空間の
セグメンテーションにより分割(partition)
されるアセンブリを構成する。このセグメンテーション
は分離子(separator )により実現される。 本発明によると、これらの分離子は神経回路網(neu
ral network)により発生されることが好ま
しい。それは層状(layered )神経回路網ある
いはトリー状神経回路網に関連しよう。しかし、代案と
してこれらの分離子をプログラムされた論理アレイ(P
AL :programmed logic arra
y)に基づくか、あるいは組合せ論理(combina
tory logic )に基づいて決定することがで
きる。
セグメンテーションにより分割(partition)
されるアセンブリを構成する。このセグメンテーション
は分離子(separator )により実現される。 本発明によると、これらの分離子は神経回路網(neu
ral network)により発生されることが好ま
しい。それは層状(layered )神経回路網ある
いはトリー状神経回路網に関連しよう。しかし、代案と
してこれらの分離子をプログラムされた論理アレイ(P
AL :programmed logic arra
y)に基づくか、あるいは組合せ論理(combina
tory logic )に基づいて決定することがで
きる。
【0013】神経回路網を含む好ましい場合には、分離
子を位置決めするフェーズ(すなわちセグメンテーショ
ンフェーズ)は学習フェーズ(learning ph
ase)の間に遂行される。これらの神経回路網はニュ
ーロンとして規定され、かつ入力空間の関数を実現する
要素により形成される。
子を位置決めするフェーズ(すなわちセグメンテーショ
ンフェーズ)は学習フェーズ(learning ph
ase)の間に遂行される。これらの神経回路網はニュ
ーロンとして規定され、かつ入力空間の関数を実現する
要素により形成される。
【0014】一般的に、そのような関数は数2
【数2】
により与えられ、ここでXj はデータ要素Xj の位
数Jの成分、Cj はシナプティックベクトル(syn
aptic vector )Cの位数jの成分、Nは
データXの空間の次元、fは一般に問題のニューロンに
適合している非線形関数である。
数Jの成分、Cj はシナプティックベクトル(syn
aptic vector )Cの位数jの成分、Nは
データXの空間の次元、fは一般に問題のニューロンに
適合している非線形関数である。
【0015】本発明によると、関数fは階段状タイプで
あることが好ましく、すなわちそれはai <u≦ai
+1 について例えばf(u)=iのように間隔に対し
て一定であり、ここでi=0,... ,L−1、かつ
a0 =−∞<a1 <a2 < ... <aL−
1 <aL =+∞である。
あることが好ましく、すなわちそれはai <u≦ai
+1 について例えばf(u)=iのように間隔に対し
て一定であり、ここでi=0,... ,L−1、かつ
a0 =−∞<a1 <a2 < ... <aL−
1 <aL =+∞である。
【0016】ニューロンは層状神経回路網、あるいはニ
ューロントリーに組織化できる。層状神経回路網では、
その各出力Vが次の層の入力を構成する所与の層のすべ
てのニューロンの連続計算が生じる。いくつかの連続層
がまた形成できる。
ューロントリーに組織化できる。層状神経回路網では、
その各出力Vが次の層の入力を構成する所与の層のすべ
てのニューロンの連続計算が生じる。いくつかの連続層
がまた形成できる。
【0017】神経回路網では学習フェーズがユーザーフ
ェーズから区別される。学習フェーズは分離子を位置決
めし、かつ意図されたタスクに必要なニューロンの数を
決定するためのすべてのニューロン状態の計算を意味し
ている。しかし、トリー状神経回路網では、すべてのニ
ューロン状態はユーザーフェーズに対してもはや計算さ
れないが、しかし先行ニューロンの出力の値に依存する
制限された数のみが計算される。
ェーズから区別される。学習フェーズは分離子を位置決
めし、かつ意図されたタスクに必要なニューロンの数を
決定するためのすべてのニューロン状態の計算を意味し
ている。しかし、トリー状神経回路網では、すべてのニ
ューロン状態はユーザーフェーズに対してもはや計算さ
れないが、しかし先行ニューロンの出力の値に依存する
制限された数のみが計算される。
【0018】層状神経回路網のすべての層が、計算され
たそのシナプティック係数(synaptic coe
fficients )を有する場合、あるいはそれが
もはやトリー状神経回路網の引き続くニューロンを計算
する必要がなくなった場合に学習フェーズの終了が生じ
る。出力状態Vj (j=1,... ,r)が値の限
られた群をとるから、副次群(すなわちセグメント)の
制限された数へのデータ空間の分布(セグメンテーショ
ン)が得られる。この分布はそのように発生されたシナ
プティック係数の形で神経回路網の1つにより学習され
よう。従って、学習フェーズの間にこの回路網は前以て
出力結果が知られている一連の見本(example
)を示している。選ばれたこの見本が辞書の語であるこ
とが好ましい。しかし、辞書の一部分を形成しないが、
しかし辞書の最も近い語が前以て知られているようなデ
ータの見本を選ぶことも可能である。 学習プロセスは最も近い辞書語に従ってデータの見本を
割り当てることからなっている。多数の学習アルゴリズ
ムが当業者に知られている。例えば、アール・ピー・リ
ップマン(R. P. Lippmann)の論文「神
経回路網による計算序論(An introducti
on to computing with neur
al nets )」、アイイーイーイー・エイエスエ
スピー雑誌(IEEE ASSP Magazine)
、1987年4月、頁4−22が参照される。
たそのシナプティック係数(synaptic coe
fficients )を有する場合、あるいはそれが
もはやトリー状神経回路網の引き続くニューロンを計算
する必要がなくなった場合に学習フェーズの終了が生じ
る。出力状態Vj (j=1,... ,r)が値の限
られた群をとるから、副次群(すなわちセグメント)の
制限された数へのデータ空間の分布(セグメンテーショ
ン)が得られる。この分布はそのように発生されたシナ
プティック係数の形で神経回路網の1つにより学習され
よう。従って、学習フェーズの間にこの回路網は前以て
出力結果が知られている一連の見本(example
)を示している。選ばれたこの見本が辞書の語であるこ
とが好ましい。しかし、辞書の一部分を形成しないが、
しかし辞書の最も近い語が前以て知られているようなデ
ータの見本を選ぶことも可能である。 学習プロセスは最も近い辞書語に従ってデータの見本を
割り当てることからなっている。多数の学習アルゴリズ
ムが当業者に知られている。例えば、アール・ピー・リ
ップマン(R. P. Lippmann)の論文「神
経回路網による計算序論(An introducti
on to computing with neur
al nets )」、アイイーイーイー・エイエスエ
スピー雑誌(IEEE ASSP Magazine)
、1987年4月、頁4−22が参照される。
【0019】神経回路網に導入されたデータは正準(c
anonical )(非準備[non−prepar
ed])語であるかあるいは準備語(prepared
words)のいずれかである。このように、例えば
影像処理において、データ語は画素の系列の特性:輝度
,コントラスト等を規定できる。音響信号の処理に対し
ては、データ語は時間特性,周波数特性等に関連するサ
ンプルの系列により形成できる。この状態はデータ語分
類問題に類似している。そのような正準データ語の正準
座標が神経回路網に直接導入できる。しかし、これらの
データ語により形成された(数学的意味での)分布を考
慮し、かつ取り扱うべき問題に関連するデータのアセン
ブリの上記の分布の特性の関数としてこれらのデータを
準備することもまた可能である。
anonical )(非準備[non−prepar
ed])語であるかあるいは準備語(prepared
words)のいずれかである。このように、例えば
影像処理において、データ語は画素の系列の特性:輝度
,コントラスト等を規定できる。音響信号の処理に対し
ては、データ語は時間特性,周波数特性等に関連するサ
ンプルの系列により形成できる。この状態はデータ語分
類問題に類似している。そのような正準データ語の正準
座標が神経回路網に直接導入できる。しかし、これらの
データ語により形成された(数学的意味での)分布を考
慮し、かつ取り扱うべき問題に関連するデータのアセン
ブリの上記の分布の特性の関数としてこれらのデータを
準備することもまた可能である。
【0020】このように、例えば全分布の主成分あるい
は辞書の語の分布の一部分に解析を実行し、かつデータ
語を準備するためにこの分布に適応された座標軸を選択
し、かつ分布の主座標を使用することは可能である。い
くつかのデータ準備演算はデータ分布の一部分の連続す
る主成分に解析を行うことにより実行でき、上記の部分
は学習プロセスの途中で得られる。
は辞書の語の分布の一部分に解析を実行し、かつデータ
語を準備するためにこの分布に適応された座標軸を選択
し、かつ分布の主座標を使用することは可能である。い
くつかのデータ準備演算はデータ分布の一部分の連続す
る主成分に解析を行うことにより実行でき、上記の部分
は学習プロセスの途中で得られる。
【0021】主成分への解析は数3
【数3】
により示されたようなN個のベクトル(d次元空間の点
)のアセンブリがd個の主方向(principal
direction )とd個の対応分散σ2 を持つ
数4
)のアセンブリがd個の主方向(principal
direction )とd個の対応分散σ2 を持つ
数4
【数4】
の平均ベクトルにより記述できる統計的方法である。こ
の方法はイー・ディデイ(E. Diday)、ジェー
・ルメール(J. Lemaire)、ジェー・プジェ
(J. Pouget )、イー・テステュ(E. T
estu)による「既知数の解析の要素(Elemen
t d’Analyse de Donnees)」、
編集者デュノー(Dunod )、1982年、頁16
7 に詳細に記載されている。
の方法はイー・ディデイ(E. Diday)、ジェー
・ルメール(J. Lemaire)、ジェー・プジェ
(J. Pouget )、イー・テステュ(E. T
estu)による「既知数の解析の要素(Elemen
t d’Analyse de Donnees)」、
編集者デュノー(Dunod )、1982年、頁16
7 に詳細に記載されている。
【0022】関数fは各ニューロンに固定されるか、あ
るいは辞書の語により決定されるように適応される。学
習フェーズはシナプティック係数の計算と関数fの決定
を可能とし、従って各分割、すなわち考慮されたニュー
ロンの出力により決定されたような辞書の各セグメント
は辞書の相対的に僅かな語に囲まれた。
るいは辞書の語により決定されるように適応される。学
習フェーズはシナプティック係数の計算と関数fの決定
を可能とし、従って各分割、すなわち考慮されたニュー
ロンの出力により決定されたような辞書の各セグメント
は辞書の相対的に僅かな語に囲まれた。
【0023】学習演算を実行するために、複数の層状回
路網が使用でき、かつ特定の中間層Hがセグメントの形
成のために検査できる。このことはセグメントの数が増
大することを許容する。というのは効率的に使用された
セグメントの数は第1層が接近するにつれて増大するか
らである。
路網が使用でき、かつ特定の中間層Hがセグメントの形
成のために検査できる。このことはセグメントの数が増
大することを許容する。というのは効率的に使用された
セグメントの数は第1層が接近するにつれて増大するか
らである。
【0024】セグメンテーションが実行される場合、各
セグメントに関連する副次辞書が決定され、すなわち神
経回路網の各出力状態に対して決定される。副次辞書は
各セグメントに対して見本Xp の系列の存在により得
られた結果を以下のように累積することにより形成され
る。すなわち − テストすべき見本Xp のアセンブリは解が既知
であるように選ばれ、換言すれば、辞書のK個の最も近
い語Am1(p) ,Am2(p) ,... ,Am
K(p) が既知であるように選ばれ、 − 特定のセグメントを特性化する回路網V1 (p
),V2 (p),... ,Vr (p)の出力状態
は各見本Xpに対して決定され、このようにして上記の
セグメントへの見本Xp の割り当てを規定し、 − 各セグメントの副次辞書は各セグメントに関連し
た語Am1(p) ,Am2(p) ,... ,Am
K(p) を累積することにより形成される。
セグメントに関連する副次辞書が決定され、すなわち神
経回路網の各出力状態に対して決定される。副次辞書は
各セグメントに対して見本Xp の系列の存在により得
られた結果を以下のように累積することにより形成され
る。すなわち − テストすべき見本Xp のアセンブリは解が既知
であるように選ばれ、換言すれば、辞書のK個の最も近
い語Am1(p) ,Am2(p) ,... ,Am
K(p) が既知であるように選ばれ、 − 特定のセグメントを特性化する回路網V1 (p
),V2 (p),... ,Vr (p)の出力状態
は各見本Xpに対して決定され、このようにして上記の
セグメントへの見本Xp の割り当てを規定し、 − 各セグメントの副次辞書は各セグメントに関連し
た語Am1(p) ,Am2(p) ,... ,Am
K(p) を累積することにより形成される。
【0025】これらの副次辞書は神経回路網の関連する
各出力状態によりアドレスされるメモリに蓄積できる。 テスト見本の数を増大することにより、引き続くユーザ
ーフェーズの間に起こるエラー率は減少する。このよう
にして、このエラー率は任意に低くすることができる。
各出力状態によりアドレスされるメモリに蓄積できる。 テスト見本の数を増大することにより、引き続くユーザ
ーフェーズの間に起こるエラー率は減少する。このよう
にして、このエラー率は任意に低くすることができる。
【0026】神経回路網が学習された後で、そのセグメ
ンテーションと各セグメントに関連した副次辞書が決定
され、神経回路網は処理すべきテストデータ語にユーザ
ーフェーズで作用できる。この目的で、処理すべきデー
タ語Xはその出力が出力段の構成V1 ,... ,V
r を伝える神経回路網に導入される。この構成はデー
タ語Xを処理する関連副次辞書の決定を可能にする。
ンテーションと各セグメントに関連した副次辞書が決定
され、神経回路網は処理すべきテストデータ語にユーザ
ーフェーズで作用できる。この目的で、処理すべきデー
タ語Xはその出力が出力段の構成V1 ,... ,V
r を伝える神経回路網に導入される。この構成はデー
タ語Xを処理する関連副次辞書の決定を可能にする。
【0027】対応規準は処理すべきデータ語Xと副次辞
書の各語の間で対応を計算するためにこの副次辞書Am
1,Am2,... ,AmKのすべての語をすっかり
決定する。この対応は距離あるいは類似度として特性化
できる。
書の各語の間で対応を計算するためにこの副次辞書Am
1,Am2,... ,AmKのすべての語をすっかり
決定する。この対応は距離あるいは類似度として特性化
できる。
【0028】処理すべきデータ語に対して、ユーザーフ
ェーズの間の対応の計算は関連する副次辞書の語の排他
的な考慮に制限されることは有利である。辞書に関して
どんな制限も課せられない。
ェーズの間の対応の計算は関連する副次辞書の語の排他
的な考慮に制限されることは有利である。辞書に関して
どんな制限も課せられない。
【0029】本発明はまた辞書に含まれたデータ語の選
択方法を特徴とし、該方法は適当にプログラムされたコ
ンピューターにより遂行できる。
択方法を特徴とし、該方法は適当にプログラムされたコ
ンピューターにより遂行できる。
【0030】この方法は、以下のステップ、− 辞書
のデータ語を囲む空間をセグメント化する第1ステップ
、 − 所定の対応規準に従って、辞書の所与の語と、各
セグメントに関連した副次辞書の語を形成するための各
セグメントとの間での対応の確立を含む副次辞書を発生
する第2ステップ、 − 処理すべき任意のデータ語に対して、セグメント
との関連を決定することにより、そして上記の対応規準
に従って、処理すべき上記の任意のデータ語に最良に対
応する上記のセグメントに関連した副次辞書の語の間で
語を引き続いて決定することにより副次辞書を使用する
第3ステップ、を特徴としている。
のデータ語を囲む空間をセグメント化する第1ステップ
、 − 所定の対応規準に従って、辞書の所与の語と、各
セグメントに関連した副次辞書の語を形成するための各
セグメントとの間での対応の確立を含む副次辞書を発生
する第2ステップ、 − 処理すべき任意のデータ語に対して、セグメント
との関連を決定することにより、そして上記の対応規準
に従って、処理すべき上記の任意のデータ語に最良に対
応する上記のセグメントに関連した副次辞書の語の間で
語を引き続いて決定することにより副次辞書を使用する
第3ステップ、を特徴としている。
【0031】本発明の変形によると、辞書の語が既に関
連されている予め確立された副次辞書の使用もまた可能
である。すると神経回路網は適当な副次辞書の選択を直
接実行することに役立つ。本発明によるデバイスはその
場合に、処理すべき各データ語により決定された副次辞
書をアドレスする神経回路網と、アドレスされたメモリ
の語の間で、処理すべき上記の任意のデータ語に最良に
対応する語を決定する手段とを具えている。この神経回
路網はトリー状の組織を有するか、あるいは層状の組織
を有するかのいずれかである。
連されている予め確立された副次辞書の使用もまた可能
である。すると神経回路網は適当な副次辞書の選択を直
接実行することに役立つ。本発明によるデバイスはその
場合に、処理すべき各データ語により決定された副次辞
書をアドレスする神経回路網と、アドレスされたメモリ
の語の間で、処理すべき上記の任意のデータ語に最良に
対応する語を決定する手段とを具えている。この神経回
路網はトリー状の組織を有するか、あるいは層状の組織
を有するかのいずれかである。
【0032】本発明によるデバイスの適用あるいは方法
は影像あるいは音響あるいは他の信号の処理のデータ圧
縮の分野、もしくはデータ分類の分野であり、処理時間
はかなり短縮される。関連ハードウエアもまた簡単化さ
れる。
は影像あるいは音響あるいは他の信号の処理のデータ圧
縮の分野、もしくはデータ分類の分野であり、処理時間
はかなり短縮される。関連ハードウエアもまた簡単化さ
れる。
【0033】添付図面を参照して本発明を今後詳細に説
明する。
明する。
【0034】
【実施例】図1は2次元表現したデータ空間のセグメン
テーションの一例を示している。学習フェーズの間に、
神経回路網は上記のセグメンテーションを形成する分割
子10から19を位置するためにそのシナプティック係
数を決定する。各セグメントは例えば語A,B,C,D
,E,Fのような辞書の1つ以上の語を囲むであろう。
テーションの一例を示している。学習フェーズの間に、
神経回路網は上記のセグメンテーションを形成する分割
子10から19を位置するためにそのシナプティック係
数を決定する。各セグメントは例えば語A,B,C,D
,E,Fのような辞書の1つ以上の語を囲むであろう。
【0035】図2A−図2Cは本発明を実現する装置の
線図である。図3A−図3Eは副次辞書の形成を例示し
ている。より明確にするために、まず後者の図面を詳細
に取り扱う。図3Aは全空間あるいはその一部分を表す
矩形30内にクロスにより表された辞書語を示しており
、ここで辞書が規定されている。明確にするために、2
次元空間が選ばれているが、しかし実際には次元の実際
の数はもっと高くてもよい。さて、第1演算ステップは
演算空間のメッシュ化あるいはネッティング(nett
ing )からなっている。これは多次元空間の複数の
超平面(hyperplane)の位置決めにより実行
され、各超平面は分離子を形成する。一般に、そのよう
な超平面の次元は空間の次元より1つ低い。2次元空間
ではそれはラインであり、3次元空間では平面である等
々である。分離子が図3Bに示され、メッシュにされた
多次元空間の辞書語のマッピングは図3Cに示されてい
る。各辞書語はメッシュの特定の迷路の内側に示されて
いる。代案として、そのような辞書語は正確に分離子の
1つ、あるいは1つ以上の交差分離子により位置決めで
きる。
線図である。図3A−図3Eは副次辞書の形成を例示し
ている。より明確にするために、まず後者の図面を詳細
に取り扱う。図3Aは全空間あるいはその一部分を表す
矩形30内にクロスにより表された辞書語を示しており
、ここで辞書が規定されている。明確にするために、2
次元空間が選ばれているが、しかし実際には次元の実際
の数はもっと高くてもよい。さて、第1演算ステップは
演算空間のメッシュ化あるいはネッティング(nett
ing )からなっている。これは多次元空間の複数の
超平面(hyperplane)の位置決めにより実行
され、各超平面は分離子を形成する。一般に、そのよう
な超平面の次元は空間の次元より1つ低い。2次元空間
ではそれはラインであり、3次元空間では平面である等
々である。分離子が図3Bに示され、メッシュにされた
多次元空間の辞書語のマッピングは図3Cに示されてい
る。各辞書語はメッシュの特定の迷路の内側に示されて
いる。代案として、そのような辞書語は正確に分離子の
1つ、あるいは1つ以上の交差分離子により位置決めで
きる。
【0036】このプロセスの第2ステップは一般に辞書
の語の一部分を各迷路(あるいはメッシュ)に割り当て
ることからなっている。特に、すべての語は一様な長さ
である。この割り当ては対応規準に基づいて実行される
。簡単化のために、まず対応規準として最も近い近傍間
の距離が取られている。さて、例えばメッシュmnpq
は辞書語C,Dを含んでいる。しかし、テスト語の処理
の間に、それはメッシュmnpqの内側のどこかに位置
している(あるいはその境界にさえ位置し、その境界は
1つ以上の辞書語の場合でもあり得るが、しかしそれは
簡単化のために示されていない)と見いだすことができ
る。このことは実際に、辞書語の間のそのようなテスト
語の最も近い近傍がメッシュmnpqの内側ならびに外
側にあり得ることを意味している。
の語の一部分を各迷路(あるいはメッシュ)に割り当て
ることからなっている。特に、すべての語は一様な長さ
である。この割り当ては対応規準に基づいて実行される
。簡単化のために、まず対応規準として最も近い近傍間
の距離が取られている。さて、例えばメッシュmnpq
は辞書語C,Dを含んでいる。しかし、テスト語の処理
の間に、それはメッシュmnpqの内側のどこかに位置
している(あるいはその境界にさえ位置し、その境界は
1つ以上の辞書語の場合でもあり得るが、しかしそれは
簡単化のために示されていない)と見いだすことができ
る。このことは実際に、辞書語の間のそのようなテスト
語の最も近い近傍がメッシュmnpqの内側ならびに外
側にあり得ることを意味している。
【0037】それ自身がメッシュmnpqに割り当てら
れた辞書語であり得るようにテスト語に最良に対応する
辞書語を見いだすために、メッシュmnpqの外側に位
置している辞書語を考慮することが必要である。この実
例では、このために語A,B,E,F,Gが取られ、こ
れらはメッシュmnpqの内側の1つ以上の語に最良に
対応する辞書語であるが、しかしそれは模範語として辞
書に含まれず、かつ基準語と呼ばれている。それ故、語
A,B,C,D,E,F,Gにより構成された副次辞書
がメッシュmnpqに割り当てられる。同じプロセスは
いくつかのメッシュの各々に実施される。そこで、問題
のテスト語に最良に従う1つの模範語を正しく決定する
ために、問題のメッシュの外側のすべての模範語は、も
しそれらがメッシュに属することのできる語に対する1
つの最も密に対応する語であるなら、メッシュの辞書に
割り当てられるべきである。
れた辞書語であり得るようにテスト語に最良に対応する
辞書語を見いだすために、メッシュmnpqの外側に位
置している辞書語を考慮することが必要である。この実
例では、このために語A,B,E,F,Gが取られ、こ
れらはメッシュmnpqの内側の1つ以上の語に最良に
対応する辞書語であるが、しかしそれは模範語として辞
書に含まれず、かつ基準語と呼ばれている。それ故、語
A,B,C,D,E,F,Gにより構成された副次辞書
がメッシュmnpqに割り当てられる。同じプロセスは
いくつかのメッシュの各々に実施される。そこで、問題
のテスト語に最良に従う1つの模範語を正しく決定する
ために、問題のメッシュの外側のすべての模範語は、も
しそれらがメッシュに属することのできる語に対する1
つの最も密に対応する語であるなら、メッシュの辞書に
割り当てられるべきである。
【0038】もし2つの最良に対応する辞書語を見いだ
すべきなら、常にメッシュ内部の実際の各語あるいは基
準語の2つの最良な対応辞書語は問題の副次辞書に割り
当てられなければならない。別のケースに対して、可変
数の辞書語がテスト語に割り当てられなければならない
場合のように、さらに多くの辞書語を割り当てることが
できる。上の場合に、最小副次辞書が特定された。それ
は常により多くの辞書語を具えるように拡張できる。さ
らに、対応規準はテスト語に対する最大許容距離として
表現できる。その場合に、特定のメッシュの副次辞書に
模範語を割り当てる対応規準はメッシュそれ自身に割り
当てできる任意の可能な語の同じ最大距離(あるいはよ
り大きいもの)でもあろう。
すべきなら、常にメッシュ内部の実際の各語あるいは基
準語の2つの最良な対応辞書語は問題の副次辞書に割り
当てられなければならない。別のケースに対して、可変
数の辞書語がテスト語に割り当てられなければならない
場合のように、さらに多くの辞書語を割り当てることが
できる。上の場合に、最小副次辞書が特定された。それ
は常により多くの辞書語を具えるように拡張できる。さ
らに、対応規準はテスト語に対する最大許容距離として
表現できる。その場合に、特定のメッシュの副次辞書に
模範語を割り当てる対応規準はメッシュそれ自身に割り
当てできる任意の可能な語の同じ最大距離(あるいはよ
り大きいもの)でもあろう。
【0039】上記の方法の特定の性質は、副次辞書が将
来のテスト語に無関係に創成されることである。図3D
はメッシュmnpqの副次辞書への語の割り当てを示し
ている。明確にするために、副次辞書のすべての模範語
のみを包含する任意の輪郭が示されている。輪郭の形状
は取るに足らないことである。
来のテスト語に無関係に創成されることである。図3D
はメッシュmnpqの副次辞書への語の割り当てを示し
ている。明確にするために、副次辞書のすべての模範語
のみを包含する任意の輪郭が示されている。輪郭の形状
は取るに足らないことである。
【0040】未知の語W(図3E)の処理の間に、まず
どのメッシュに(ここではメッシュmnpq)にそれが
属するかが決定される。次に、メッシュmnpqの副次
辞書の語のみが対応規準に対してチェックされる必要が
ある。明らかに1つの副次辞書の語のみをチェックする
ことはすべての辞書語のチェックよりもずっと容易およ
び/または早い。図3Fから、副次辞書内で、語Dが語
Wの最良な対応を有していることは明らかである。
どのメッシュに(ここではメッシュmnpq)にそれが
属するかが決定される。次に、メッシュmnpqの副次
辞書の語のみが対応規準に対してチェックされる必要が
ある。明らかに1つの副次辞書の語のみをチェックする
ことはすべての辞書語のチェックよりもずっと容易およ
び/または早い。図3Fから、副次辞書内で、語Dが語
Wの最良な対応を有していることは明らかである。
【0041】図2Aはその入力21が辞書の語DRを受
信する神経回路網20をブロック線図の形で示している
。その出力22は、その種々の構成が入力データ語空間
の1つのセグメントを識別する出力状態を供給する。神
経回路網は当業者に既知の学習方法に従って分離子を位
置するのに役立っている。このように、例えば層状神経
回路網の学習に対して、既知のエラー逆伝搬方法(er
ror back−propagation meth
od )の使用が可能あり、この方法は出力結果が前以
て既知である入力に対する見本の存在(最も近い辞書語
Am1)と、神経回路網のエラー逆伝搬からなっている
。すると学習は、前以て既知である結果が神経回路網の
出力で効率的に得られることを保証するための神経回路
網のシナプティック係数の計算からなっている。これに
関する情報は、アール・ピー・リップマン(R. P.
Lippmann)の論文、「神経網による計算序論
(An introductionto comput
ing with neural nets )」、ア
イイーイーイー・エイエスエスピー雑誌(IEEE A
SSP Magazine)、1987年4月、頁4−
22に与えられている。
信する神経回路網20をブロック線図の形で示している
。その出力22は、その種々の構成が入力データ語空間
の1つのセグメントを識別する出力状態を供給する。神
経回路網は当業者に既知の学習方法に従って分離子を位
置するのに役立っている。このように、例えば層状神経
回路網の学習に対して、既知のエラー逆伝搬方法(er
ror back−propagation meth
od )の使用が可能あり、この方法は出力結果が前以
て既知である入力に対する見本の存在(最も近い辞書語
Am1)と、神経回路網のエラー逆伝搬からなっている
。すると学習は、前以て既知である結果が神経回路網の
出力で効率的に得られることを保証するための神経回路
網のシナプティック係数の計算からなっている。これに
関する情報は、アール・ピー・リップマン(R. P.
Lippmann)の論文、「神経網による計算序論
(An introductionto comput
ing with neural nets )」、ア
イイーイーイー・エイエスエスピー雑誌(IEEE A
SSP Magazine)、1987年4月、頁4−
22に与えられている。
【0042】例えばアール・ピー・リップマン(R.
P. Lippmann)の論文、「神経回路網を使用
するパターン分類(Pattern classifi
cation using neural netwo
rks)」、アイイーイーイー・コム雑誌(IEEE
COM Magazine )、1989年11月、頁
47−64に記載された回路網のようなトリー状神経回
路網を使用することも可能である。 その場合に神経回路網が構成され、従ってニューロンの
数ならびにシナプティック係数は学習すべき関数に適応
される。トリー状の神経回路網を使用する利点は、使用
すべきニューロンの数が層状神経回路網のニューロンの
数より小さいのみならず、特にユーザーモードにおいて
すべてのニューロン状態が計算されないで、関連タスク
に含まれているトリーの分枝のニューロンの状態のみが
計算されるという事実に帰することである。
P. Lippmann)の論文、「神経回路網を使用
するパターン分類(Pattern classifi
cation using neural netwo
rks)」、アイイーイーイー・コム雑誌(IEEE
COM Magazine )、1989年11月、頁
47−64に記載された回路網のようなトリー状神経回
路網を使用することも可能である。 その場合に神経回路網が構成され、従ってニューロンの
数ならびにシナプティック係数は学習すべき関数に適応
される。トリー状の神経回路網を使用する利点は、使用
すべきニューロンの数が層状神経回路網のニューロンの
数より小さいのみならず、特にユーザーモードにおいて
すべてのニューロン状態が計算されないで、関連タスク
に含まれているトリーの分枝のニューロンの状態のみが
計算されるという事実に帰することである。
【0043】本発明によると、辞書の各セグメントが正
確に1つのデータ語を有することを保証するために学習
が実行されるのは好ましい。代案として、セグメントは
辞書のいくつかの語を囲むことができる。
確に1つのデータ語を有することを保証するために学習
が実行されるのは好ましい。代案として、セグメントは
辞書のいくつかの語を囲むことができる。
【0044】セグメンテーションが実行される場合、デ
バイスは副次辞書を発生しなければならない。図2Bの
線図はそのような発生の一例である。この目的で、辞書
のデータ語とは異なるデータ語の見本EXの見本が使用
される。これらの見本EXは入力空間の種々のセグメン
トにランダムに分布される。これらの見本EXは神経回
路網20に導入され、かつ例えばメモリ24にアドレス
するのに役立つ出力の出力状態構成(output s
tate configuration)を生成する。 これらの見本EXと辞書の語DRは対応規準をテストす
る要素25に導入される。この対応規準は2つのデータ
間の距離あるいは類似度を決定できる。これは例えばユ
ークリッド距離:d(DR,EX)=(DR−EX)2
である。
バイスは副次辞書を発生しなければならない。図2Bの
線図はそのような発生の一例である。この目的で、辞書
のデータ語とは異なるデータ語の見本EXの見本が使用
される。これらの見本EXは入力空間の種々のセグメン
トにランダムに分布される。これらの見本EXは神経回
路網20に導入され、かつ例えばメモリ24にアドレス
するのに役立つ出力の出力状態構成(output s
tate configuration)を生成する。 これらの見本EXと辞書の語DRは対応規準をテストす
る要素25に導入される。この対応規準は2つのデータ
間の距離あるいは類似度を決定できる。これは例えばユ
ークリッド距離:d(DR,EX)=(DR−EX)2
である。
【0045】所与の見本EXと辞書のすべての各語DR
との間の距離が計算される。所定の所望な対応に依存し
て、辞書の所与の語は処理された見本に関する出力状態
構成(すなわちセグメント)に割り当てられた副次辞書
を形成するよう以前に説明されたものとして選ばれる。 この副次辞書はメモリ24に蓄積される。
との間の距離が計算される。所定の所望な対応に依存し
て、辞書の所与の語は処理された見本に関する出力状態
構成(すなわちセグメント)に割り当てられた副次辞書
を形成するよう以前に説明されたものとして選ばれる。 この副次辞書はメモリ24に蓄積される。
【0046】この所定の対応は最良の類似あるいは別の
特性を示す最も近い近傍の選択であろう。
特性を示す最も近い近傍の選択であろう。
【0047】演算が多数の見本に起こるから、副次辞書
が得られ、それは各セグメントに関連し、かつ十分な数
であり、セグメントの数と見本EXの数のお陰でユーザ
ーモードでエラーの低減を可能にする。エラー率はこの
ようにして多数の見本EXの使用により任意の小さい値
に低減できる。どんな制限も辞書自身に関して課せられ
ていない。
が得られ、それは各セグメントに関連し、かつ十分な数
であり、セグメントの数と見本EXの数のお陰でユーザ
ーモードでエラーの低減を可能にする。エラー率はこの
ようにして多数の見本EXの使用により任意の小さい値
に低減できる。どんな制限も辞書自身に関して課せられ
ていない。
【0048】副次辞書が形成された場合、デバイスは処
理すべきデータ語DOにより演算するように使用できる
(図2C)。これらのデータ語DOは神経回路網20に
導入され、かつ出力22にメモリ24をアドレスする出
力状態構成を生成する。後者(メモリ24)はアドレス
されたセグメントに関連する副次辞書の語を伝える。既
にメンバ25として記述されたメンバ27はデータ語D
Oと、アドレスされた副次辞書の語との間の対応の状態
を決定する。 従って、この決定は副次辞書の非常に限られた数の語に
ついて実行され、処理時間に実質的な利得を提供する。
理すべきデータ語DOにより演算するように使用できる
(図2C)。これらのデータ語DOは神経回路網20に
導入され、かつ出力22にメモリ24をアドレスする出
力状態構成を生成する。後者(メモリ24)はアドレス
されたセグメントに関連する副次辞書の語を伝える。既
にメンバ25として記述されたメンバ27はデータ語D
Oと、アドレスされた副次辞書の語との間の対応の状態
を決定する。 従って、この決定は副次辞書の非常に限られた数の語に
ついて実行され、処理時間に実質的な利得を提供する。
【0049】図1のハッチされたセルに位置している処
理すべきデータ語Xを考察しよう。そのアドレスされた
副次辞書は例えば語A,B,C(図3D,図3EのA.
.. とは関係がない)を具え、語D,E,Fは具えな
い。というのはそれらは余りにもセルから離れているか
らである。対応の計算はこのようにして副次辞書のこれ
らの語に対して排他的に実現されよう。
理すべきデータ語Xを考察しよう。そのアドレスされた
副次辞書は例えば語A,B,C(図3D,図3EのA.
.. とは関係がない)を具え、語D,E,Fは具えな
い。というのはそれらは余りにもセルから離れているか
らである。対応の計算はこのようにして副次辞書のこれ
らの語に対して排他的に実現されよう。
【0050】記載された実施例によると、神経回路網は
副次辞書の発生ならびにユーザーモードのデータ語の処
理の適当な各副次辞書の選択に役立っている。辞書が既
に確立されてしまうと、それらは既に識別されたか、あ
るいはそれらが別のアプローチによって既に決定された
かのいずれかの理由で、本発明は図2Cに示された使用
に限定できる。神経回路網20はメモリ24をアドレス
し、メモリ24はアドレスされた辞書の上記の語と入力
データ語DOの間の対応のレベルを決定する対応比較メ
ンバ27に、アドレスされた辞書の語を伝える。メモリ
24はアドレスされた異なる辞書の読み取りを可能にす
るアドレス可能な任意のメンバにより形成できる。
副次辞書の発生ならびにユーザーモードのデータ語の処
理の適当な各副次辞書の選択に役立っている。辞書が既
に確立されてしまうと、それらは既に識別されたか、あ
るいはそれらが別のアプローチによって既に決定された
かのいずれかの理由で、本発明は図2Cに示された使用
に限定できる。神経回路網20はメモリ24をアドレス
し、メモリ24はアドレスされた辞書の上記の語と入力
データ語DOの間の対応のレベルを決定する対応比較メ
ンバ27に、アドレスされた辞書の語を伝える。メモリ
24はアドレスされた異なる辞書の読み取りを可能にす
るアドレス可能な任意のメンバにより形成できる。
【図1】図1は2次元表現したデータ空間のセグメンテ
ーションの一例を示している。
ーションの一例を示している。
【図2】図2Aは神経回路網によるセグメンテーション
を例示する線図を示している。図2Bは副次辞書の形成
を例示する線図を示している。図2Cは副次辞書の使用
を例示する線図を示している。
を例示する線図を示している。図2Bは副次辞書の形成
を例示する線図を示している。図2Cは副次辞書の使用
を例示する線図を示している。
【図3】図3A−図3Eは副次辞書の形成を例示してい
る。
る。
【符号の説明】
10 分離子
11 分離子
12 分離子
13 分離子
14 分離子
15 分離子
16 分離子
17 分離子
18 分離子
19 分離子
20 神経回路網
21 入力
22 出力
24 メモリ
25 要素あるいはメンバ
27 対応比較メンバ
30 矩形
Claims (13)
- 【請求項1】 多次元空間に配設された複数の固定長
の模範語DRを含み、かつ所定の対応規準に従って上記
のテスト語DOに最も近い1つ以上の対応語MSをテス
ト語DOの存在に基づいて辞書中に選択するような辞書
をそれと共に構成するデータ処理デバイスにおいて、上
記のデバイスが、− 上記の多次元空間をメッシュに
し、それにより各模範語が1つのメッシュ内にあるかあ
るいは近傍のメッシュ間の境界上にあるかのいずれかで
ある第1手段(20)、− 上記の対応規準に従って
、最後のメッシュに割り当てられた基準的あるいは模範
的な少なくとも1つの語に対応する上記の模範語の間に
任意の語を含む各副次辞書を各メッシュに割り当てる第
2手段(24,25)、− 上記のテスト語DOをそ
れが属している任意の特定メッシュに割り当て、それに
基づいて上記の任意の特定メッシュの副次辞書の模範語
に上記の対応規準を排他的に適用する第3手段、を具え
ることを特徴とするデータ処理デバイス。 - 【請求項2】 多次元空間に配設された複数の固定長
の模範語DRを含み、かつ所定の対応規準に従って上記
のテスト語DOに最も近い1つ以上の対応語MSをテス
ト語DOの存在に基づいて辞書中に選択するような辞書
をそれと共に構成するデータ処理デバイスにおいて、上
記のデバイスが、− 第1に、上記の多次元空間をメ
ッシュにし(20)、それにより各模範語が少なくとも
1つのメッシュに割り当てられ、− 第2に、上記の
対応規準に従って、最後のメッシュに割り当てられた基
準的あるいは模範的な少なくとも1つの語に対応する上
記の模範語の間に任意の語を含む各副次辞書を各メッシ
ュに割り当て(24,25)、− 第3に、上記のテ
スト語DOをそれが属している任意の特定メッシュに割
り当て、それに基づいて上記の任意の特定メッシュの副
次辞書の模範語に上記の対応規準を排他的に適用するこ
と、を連続的に行う予めプログラムされた手段を具える
ことを特徴とするデータ処理デバイス。 - 【請求項3】 メッシュにすることが、その入力端子
が辞書データ語DRを表す信号を受信し、かつその出力
ニューロンが各メッシュに特有な出力状態構成を有する
出力信号を伝える神経回路網により実現されることを特
徴とする請求項1あるいは2に記載のデバイス。 - 【請求項4】 神経回路網が層状神経回路網であるこ
とを特徴とする請求項3に記載のデバイス。 - 【請求項5】 神経回路網がトリー状神経回路網であ
ることを特徴とする請求項3に記載のデバイス。 - 【請求項6】 メッシュにすることが、プログラマブ
ル論理アレイによるか、あるいは組合せ論理回路による
かのいずれかで実現されることを特徴とする請求項1あ
るいは2に記載のデバイス。 - 【請求項7】 データ語が少なくとも1つのタイプの
予め処理されていない入力ベクトルに従って供給される
ことを特徴とする請求項1から6のいずれか1つに記載
のデバイス。 - 【請求項8】 データ語が、予め処理されていない入
力ベクトルの分布の主成分解析により予め処理された後
で決定される少なくとも1つのタイプの主座標に従って
供給された予め処理されたデータ語であることを特徴と
する請求項1から6のいずれか1つに記載のデバイス。 - 【請求項9】 2つの語の間の任意の対応規準が最後
の2つの語の間の距離あるいは類似度のいずれかにより
決定されることを特徴とする請求項1から8のいずれか
1つに記載のデバイス。 - 【請求項10】 上記の対応がテスト語DOと、その
割り当てられた副次辞書の副次辞書語SDRの間の最も
近傍の距離の決定により得られることを特徴とする請求
項9に記載のデバイス。 - 【請求項11】 多次元空間に配設された複数の固定
長の模範語DRの間で選択し、かつ所定の対応規準に従
って、存在するテスト語DOに最も近い1つ以上の対応
語MSを選択するように辞書をそれと共に構成する方法
において、上記の方法が、− 第1に上記の多次元空
間をメッシュにし、それにより各模範語が1つの関連メ
ッシュ内にあるか、あるいは近傍のメッシュ間の境界上
にあるかのいずれかであり、− 第2に上記の対応規
準に従って、最後のメッシュに割り当てられた基準的あ
るいは模範的な少なくとも1つの語にに対応する上記の
模範語間に任意の語を含む各副次辞書を各メッシュに割
り当て、− 上記のテスト語DOをそれが属している
任意の特定メッシュに割り当て、それに基づいて上記の
任意の特定メッシュの1つの副次辞書の模範語に上記の
対応規準を排他的に適用すること、の各ステップを具え
る方法。 - 【請求項12】 多次元空間に含まれた固定長模範語
SDRの間にあり、かつそれと共に辞書を構成するデー
タ処理デバイスであって、一方、各模範語は少なくとも
1つの副次辞書に割り当てられ、かつ任意の副次辞書の
すべての模範語が、所定の対応規準に従って、存在する
テスト語DOに最も近いもう1つの対応語MSを選択す
る各関連メモリデバイスに蓄積されるものにおいて、上
記のデバイスが、上記のテスト語DOを表す信号を受信
する第1の複数の入力を有し、かつその各々が独自の各
副次辞書に特有である各離散出力状態構成を出力する第
2の複数の出力を有する少なくとも1つの神経回路網を
具え、上記の模範語の間に任意の語を具える各副次辞書
は上記の所定の対応規準に従って、各副次辞書に関連し
た独自なメッシュに割り当てられた基準的あるいは模範
的な少なくとも1つの語に対応し、かつすべての副次辞
書を含むセットは上記の多次元空間を完全に包含し、そ
れにより、上記のテスト語の存在に基づいて生成された
そのような離散出力状態が特定の副次辞書メモリデバイ
スをアドレスし、上記のデータ処理デバイスは上記の1
つ以上の対応語から最後のメモリデバイスを排他的にア
クセスする対応決定手段をさらに具えること、を特徴と
するデータ処理デバイス。 - 【請求項13】 記憶デバイスに蓄積された辞書
に含まれているデータ語SDRの間でデータ語を選択す
るデータ処理デバイスであって、データ語MSが対応規
準に従って処理すべきデータ語DOに最も近いものにお
いて、該データ処理デバイスが、処理のためにその入力
がデータ語DOを表す信号を受信し、かつその出力ニュ
ーロンが各辞書に特有な出力状態構成を有する出力信号
を伝える少なくとも1つの神経回路網と、処理すべき各
データ語DOに従って辞書を蓄積する記憶デバイスをア
ドレスする上記の構成、および処理すべき上記の任意の
データ語DOに最良に対応するデータ語MSを、アドレ
スされた辞書のデータ語SDRの間で決定する手段、を
具えることを特徴とするデータ処理デバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9003539 | 1990-03-20 | ||
FR9003539A FR2660085A1 (fr) | 1990-03-20 | 1990-03-20 | Dispositif de traitement de donnees et procede pour selectionner des mots de donnees contenus dans un dictionnaire. |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04242865A true JPH04242865A (ja) | 1992-08-31 |
Family
ID=9394907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3080627A Pending JPH04242865A (ja) | 1990-03-20 | 1991-03-20 | 辞書に含まれたデータ語を選択するデータ処理デバイスと方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US5267165A (ja) |
EP (1) | EP0449353B1 (ja) |
JP (1) | JPH04242865A (ja) |
DE (1) | DE69130238T2 (ja) |
FR (1) | FR2660085A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0602296A1 (en) * | 1992-12-17 | 1994-06-22 | International Business Machines Corporation | Adaptive method for generating field dependant models for intelligent systems |
JP3234075B2 (ja) * | 1993-11-30 | 2001-12-04 | ローム株式会社 | 立体映像再生装置 |
JP2683870B2 (ja) * | 1994-05-23 | 1997-12-03 | 日本アイ・ビー・エム株式会社 | 文字列検索システム及び方法 |
US6438556B1 (en) * | 1998-12-11 | 2002-08-20 | International Business Machines Corporation | Method and system for compressing data which allows access to data without full uncompression |
EP1049030A1 (en) * | 1999-04-28 | 2000-11-02 | SER Systeme AG Produkte und Anwendungen der Datenverarbeitung | Classification method and apparatus |
EP1128278B1 (en) * | 2000-02-23 | 2003-09-17 | SER Solutions, Inc | Method and apparatus for processing electronic documents |
US9177828B2 (en) | 2011-02-10 | 2015-11-03 | Micron Technology, Inc. | External gettering method and device |
EP1182577A1 (en) | 2000-08-18 | 2002-02-27 | SER Systeme AG Produkte und Anwendungen der Datenverarbeitung | Associative memory |
EP1288792B1 (en) | 2001-08-27 | 2011-12-14 | BDGB Enterprise Software Sàrl | A method for automatically indexing documents |
EP1691572B8 (en) * | 2005-02-09 | 2019-09-11 | Oticon A/s | Method and system for training a hearing aid using a self-organising map |
US8321357B2 (en) * | 2009-09-30 | 2012-11-27 | Lapir Gennady | Method and system for extraction |
US9158833B2 (en) * | 2009-11-02 | 2015-10-13 | Harry Urbschat | System and method for obtaining document information |
US9152883B2 (en) * | 2009-11-02 | 2015-10-06 | Harry Urbschat | System and method for increasing the accuracy of optical character recognition (OCR) |
US9213756B2 (en) * | 2009-11-02 | 2015-12-15 | Harry Urbschat | System and method of using dynamic variance networks |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4104717A (en) * | 1964-03-11 | 1978-08-01 | Eiji Fujimura | Automatic system for providing telephone number information service |
JPS61105671A (ja) * | 1984-10-29 | 1986-05-23 | Hitachi Ltd | 自然言語処理装置 |
US4771385A (en) * | 1984-11-21 | 1988-09-13 | Nec Corporation | Word recognition processing time reduction system using word length and hash technique involving head letters |
JPS61217863A (ja) * | 1985-03-23 | 1986-09-27 | Brother Ind Ltd | 電子辞書 |
JPS63198154A (ja) * | 1987-02-05 | 1988-08-16 | インタ−ナショナル・ビジネス・マシ−ンズ・コ−ポレ−ション | つづり誤り訂正装置 |
US4862408A (en) * | 1987-03-20 | 1989-08-29 | International Business Machines Corporation | Paradigm-based morphological text analysis for natural languages |
US5113340A (en) * | 1988-05-25 | 1992-05-12 | Franklin Electronic Publishers, Incorporated | Search improvements for electronic spelling machine |
-
1990
- 1990-03-20 FR FR9003539A patent/FR2660085A1/fr not_active Withdrawn
-
1991
- 1991-03-14 US US07/669,155 patent/US5267165A/en not_active Expired - Fee Related
- 1991-03-15 EP EP91200565A patent/EP0449353B1/fr not_active Expired - Lifetime
- 1991-03-15 DE DE69130238T patent/DE69130238T2/de not_active Expired - Fee Related
- 1991-03-20 JP JP3080627A patent/JPH04242865A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP0449353B1 (fr) | 1998-09-23 |
FR2660085A1 (fr) | 1991-09-27 |
DE69130238D1 (de) | 1998-10-29 |
US5267165A (en) | 1993-11-30 |
DE69130238T2 (de) | 1999-05-20 |
EP0449353A1 (fr) | 1991-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sirat et al. | Neural trees: a new tool for classification | |
US5140530A (en) | Genetic algorithm synthesis of neural networks | |
JPH04242865A (ja) | 辞書に含まれたデータ語を選択するデータ処理デバイスと方法 | |
US6167390A (en) | Facet classification neural network | |
CN111352656B (zh) | 使用按位运算的神经网络设备和方法 | |
CN109978142A (zh) | 神经网络模型的压缩方法和装置 | |
NL8503304A (nl) | Werkwijze en inrichting voor het segmenteren van een uit een akoestisch signaal, bij voorbeeld een spraaksignaal, afgeleid elektrisch signaal. | |
CN109409504A (zh) | 一种数据处理方法、装置、计算机及存储介质 | |
CN113807412A (zh) | 一种多标签图像分类方法、装置、设备及存储介质 | |
US5265224A (en) | Recognition unit and recognizing and judging apparatus employing same | |
WO2001007991A1 (en) | Cortronic neural networks with distributed processing | |
CN111582094B (zh) | 并行选取超参数设计多分支卷积神经网络识别行人的方法 | |
Pichel et al. | A new approach for sparse matrix classification based on deep learning techniques | |
Hoya et al. | Heuristic pattern correction scheme using adaptively trained generalized regression neural networks | |
CN111371611A (zh) | 一种基于深度学习的加权网络社区发现方法及装置 | |
KR20210131894A (ko) | 훈련된 심층 신경망의 압축 장치 및 방법 | |
CN115266141B (zh) | 基于gru-c网络的点焊质量检测方法、装置及存储介质 | |
CN111177388A (zh) | 一种处理方法及计算机设备 | |
CN114548191B (zh) | 光声成像环形稀疏阵列信号预测方法与装置 | |
JPH06111038A (ja) | ニューラル・ネットワーク及びその操作方法 | |
Bortolotto et al. | Neural networks in experimental high-energy physics | |
CN115359281A (zh) | 基于深度子空间聚类顺序集成的图像聚类方法及系统 | |
Wennmyr | A convex hull algorithm for neural networks | |
Filho et al. | Architectures for goal-seeking neurons | |
Starzyk et al. | Software simulation of a self-organizing learning array system |