JPH01255966A - 文法規則適用順序学習方式 - Google Patents
文法規則適用順序学習方式Info
- Publication number
- JPH01255966A JPH01255966A JP63083193A JP8319388A JPH01255966A JP H01255966 A JPH01255966 A JP H01255966A JP 63083193 A JP63083193 A JP 63083193A JP 8319388 A JP8319388 A JP 8319388A JP H01255966 A JPH01255966 A JP H01255966A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- rule
- input
- natural language
- rules
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000003058 natural language processing Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 abstract description 8
- 230000001902 propagating effect Effects 0.000 abstract 2
- 230000007935 neutral effect Effects 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、文法規則適用順序学習方式に関するものであ
り、特に、自然言語処理システムにおいて文法規則の適
用順序を効率化するためのニューラルネットワークによ
る文法規則適用順序学習方式に関するものである。
り、特に、自然言語処理システムにおいて文法規則の適
用順序を効率化するためのニューラルネットワークによ
る文法規則適用順序学習方式に関するものである。
従来、文法規則適用順序学習には、その範囲を限定した
条件付き確率を用いたものがある。
条件付き確率を用いたものがある。
例えば、あるルールSl、S2の次に83が適用される
条件付き確率は次のように与えられる。
条件付き確率は次のように与えられる。
P=P (S31s1.S2) ・・・(1
)ここで31.32.S3はルールを特定するシンボル
である。
)ここで31.32.S3はルールを特定するシンボル
である。
一般に、n−1個のルールが適用された後にルールSk
が適用される条件付き確率は、次のように与えられる。
が適用される条件付き確率は、次のように与えられる。
P=P(Sk l R1,R2,−、Rn−1) ・
・(2)ここでRi (i=1. 2. =・、
n−1)はi番目に適用されたルールである。
・(2)ここでRi (i=1. 2. =・、
n−1)はi番目に適用されたルールである。
データとして適用ルールの時系列が与えられると、式2
を計算してテーブル化される。そのテーブルを参照する
ことにより、確率が最大となるSjをn番目に適用すべ
きルールとして得ることができる。
を計算してテーブル化される。そのテーブルを参照する
ことにより、確率が最大となるSjをn番目に適用すべ
きルールとして得ることができる。
しかしながら、従来方式によるものは、実行に要する記
憶容量として、ルールの種類、考慮するルールの個数に
応じて指数関数的に増加する膨大なものが要求される。
憶容量として、ルールの種類、考慮するルールの個数に
応じて指数関数的に増加する膨大なものが要求される。
すなわち、以上述べたような従来技術では、ルールの種
類をM個、考慮するルールの個数をL個とすると、条件
付き確率を記すテーブルのサイズは、 〜O(ML) となる。従って実装可能な学習データは限定され、文法
規則の適用順序に関して効率化を図ることができない。
類をM個、考慮するルールの個数をL個とすると、条件
付き確率を記すテーブルのサイズは、 〜O(ML) となる。従って実装可能な学習データは限定され、文法
規則の適用順序に関して効率化を図ることができない。
本発明の目的は、上記のように条件付き確率のテーブル
の記憶容量が膨大になり実現が困難になるのを回避し、
文法規則の適用順序を効率化するための学習方式を提供
することにある。
の記憶容量が膨大になり実現が困難になるのを回避し、
文法規則の適用順序を効率化するための学習方式を提供
することにある。
本発明の文法規則適用順序学習方式は、入力文を解析す
る機能と出力文を生成する機能を有する自然言語処理シ
ステムにおける文法規則適用順序学習方式であって、 適用規則系列が与えられたときに、その文法規則の適用
順序をニューラル・ネットワークによって学習させるこ
とを特徴としている。
る機能と出力文を生成する機能を有する自然言語処理シ
ステムにおける文法規則適用順序学習方式であって、 適用規則系列が与えられたときに、その文法規則の適用
順序をニューラル・ネットワークによって学習させるこ
とを特徴としている。
自然言語処理システムにおいて、自然言語文を解析・生
成する場合に適用される文法規則の適用順序をニューラ
ル・ネットワークによって学習させることにより、適用
効率の向上が図れる。実行に要する記憶容量は、従来方
式を用いるときよりも大幅に縮小される。
成する場合に適用される文法規則の適用順序をニューラ
ル・ネットワークによって学習させることにより、適用
効率の向上が図れる。実行に要する記憶容量は、従来方
式を用いるときよりも大幅に縮小される。
次に、本発明の実施例について図面を参照して説明する
。
。
第1図は本発明の一実施例に係る文法規則適用順序学習
方式を示すブロック図、 第2図は適用規則を学習し記憶する場合の手順を示すフ
ローチャートであり、また、第3図は本発明に適用し得
る逆伝播ネットワーク・モデルの一般的な構成を示して
いる。
方式を示すブロック図、 第2図は適用規則を学習し記憶する場合の手順を示すフ
ローチャートであり、また、第3図は本発明に適用し得
る逆伝播ネットワーク・モデルの一般的な構成を示して
いる。
まず、第3図を用いて、原理について説明する。
基本的な原理は、シンボルの時系列をあらかじめ教師付
きの学習を行なった逆伝播ネットワーク・モデルを用い
て学習しようとするところにある。
きの学習を行なった逆伝播ネットワーク・モデルを用い
て学習しようとするところにある。
以下、自然言語処理システムにおける本方式の原理を詳
細に説明する。
細に説明する。
自然言語入力文を解析・生成する場合に文法規則が適用
される。本方式では、その適用規則をシンボルの時系列
とし、その時系列が現れたときに次のシンボルをつまり
ルールを予測してルールの適用効率を向上させようとす
るものである。
される。本方式では、その適用規則をシンボルの時系列
とし、その時系列が現れたときに次のシンボルをつまり
ルールを予測してルールの適用効率を向上させようとす
るものである。
予測には、連想記憶やバクーン認識のモデルとして考案
された逆伝播ネットワーク・モデルを利用する。このモ
デルの詳細については、欧文誌「コンプレックス・シス
テムズ、1987年第1号145−168頁」(“Pa
rallel Networks thatLea
rn to Pronounce Englis
h Text″。
された逆伝播ネットワーク・モデルを利用する。このモ
デルの詳細については、欧文誌「コンプレックス・シス
テムズ、1987年第1号145−168頁」(“Pa
rallel Networks thatLea
rn to Pronounce Englis
h Text″。
T、J、Sejnowski & C,R,Ros
enberg、 ComplexSystems、
Vol、1(1987)145−168 )に詳しい。
enberg、 ComplexSystems、
Vol、1(1987)145−168 )に詳しい。
モデルは、一般に第3図のように3種類の層から階層的
に構成され、それぞれ入カニニット層、隠れユニット層
、出カニニット層と呼ばれている。
に構成され、それぞれ入カニニット層、隠れユニット層
、出カニニット層と呼ばれている。
各層にはユニットと呼ばれる処理単位が配置され、各ユ
ニットは入力層に近い側に隣接する層のユニットからの
入力を受けて、隣接する出力層に近い側の層のユニット
へ出力を出す。各ユニ7)の入・出力の応答関係は次の
ように与えられる。
ニットは入力層に近い側に隣接する層のユニットからの
入力を受けて、隣接する出力層に近い側の層のユニット
へ出力を出す。各ユニ7)の入・出力の応答関係は次の
ように与えられる。
x(n)、=Σωfn−1+ 、 y(Fl−11、−
〇[+11. − ・(3)y (nl 、 ===
f (x (++1 、 ) ・
・・(4)f (x)=□ ・・・
(5)1+e−” ここでXはユニットへの入力、yはユニットの出力、θ
はユニットの持つ闇値、上付き添え字は入力層からの階
層を表わしくn=1. ・・・、N)、下付き添え字
は層内のユニットを表わす番号である。ω(n−1+、
、4よ第(n−1)層のユニットiから第nNのユニッ
トiへの結合を表わす荷重、f (x)は式5に示すよ
うに各ユニットに共通の非線形飽和型の応答関数である
。結局、各ユニットは隣接する上位層のユニットの出力
の荷重和とあらかしめ定められた闇値との差を入力とし
て一種の闇値論理によってその出力を決定する。
〇[+11. − ・(3)y (nl 、 ===
f (x (++1 、 ) ・
・・(4)f (x)=□ ・・・
(5)1+e−” ここでXはユニットへの入力、yはユニットの出力、θ
はユニットの持つ闇値、上付き添え字は入力層からの階
層を表わしくn=1. ・・・、N)、下付き添え字
は層内のユニットを表わす番号である。ω(n−1+、
、4よ第(n−1)層のユニットiから第nNのユニッ
トiへの結合を表わす荷重、f (x)は式5に示すよ
うに各ユニットに共通の非線形飽和型の応答関数である
。結局、各ユニットは隣接する上位層のユニットの出力
の荷重和とあらかしめ定められた闇値との差を入力とし
て一種の闇値論理によってその出力を決定する。
このモデルの入力層にデータが与えられると、その情報
(データ)は隣接する下位層で順次処理されながら出力
層まで伝播して行(。そしてこの出力層のユニットの出
力が、与えられた入力データに対するモデルの推論結果
となるのである。
(データ)は隣接する下位層で順次処理されながら出力
層まで伝播して行(。そしてこの出力層のユニットの出
力が、与えられた入力データに対するモデルの推論結果
となるのである。
本方式では入力層に適用されたルールシンボル列を提示
したときに、出力層に次に適用されたルールの結果(推
論結果)が出力されるようなモデルを構成する。
したときに、出力層に次に適用されたルールの結果(推
論結果)が出力されるようなモデルを構成する。
次にモデルが望ましい推論動作を行なうようにユニツト
量の結合を定める学習法(逆伝播学習)について説明す
る。
量の結合を定める学習法(逆伝播学習)について説明す
る。
学習に用いるデータはさまざまな自然言語処理に対する
実際の適用ルールシンボル列である。これらのデータを
入力層に提示し、出力層には次に適用されたルールシン
ボルを提示して逆伝播学習を繰り返し行なう。例えば、
ある入力文の解析ルールシンボル列が、 LL、L3.L4.L6 である時、入力層と出力層のデータとして次表の6つを
得る。
実際の適用ルールシンボル列である。これらのデータを
入力層に提示し、出力層には次に適用されたルールシン
ボルを提示して逆伝播学習を繰り返し行なう。例えば、
ある入力文の解析ルールシンボル列が、 LL、L3.L4.L6 である時、入力層と出力層のデータとして次表の6つを
得る。
逆伝播法では、入力されたデータに対する望ましい推論
結果(出力データ)を教師信号として与えて、モデルの
推論結果と教師信号の差(誤差)を小さくする方向に繰
り返しユニット間結合を修正する。これは、実際には、
次式で定義される出力層(第N層)におけるモデルの出
力y (N) 、と与えられた入力に対する望ましい出
力(答え)y、とから定まる誤差関数を最小化するよう
なユニット間結合を見い出すことに対応する。
結果(出力データ)を教師信号として与えて、モデルの
推論結果と教師信号の差(誤差)を小さくする方向に繰
り返しユニット間結合を修正する。これは、実際には、
次式で定義される出力層(第N層)におけるモデルの出
力y (N) 、と与えられた入力に対する望ましい出
力(答え)y、とから定まる誤差関数を最小化するよう
なユニット間結合を見い出すことに対応する。
この関数は、y(N)、を通じてあらゆるユニット間結
合に依存しているので、最小化はEを評価関数として行
なえばよい。結果として得られる逆伝播学習のアルゴリ
ズムに関しては前記の文献に詳しい。
合に依存しているので、最小化はEを評価関数として行
なえばよい。結果として得られる逆伝播学習のアルゴリ
ズムに関しては前記の文献に詳しい。
本方式は、以上のような知見に基づ(ものであり、自然
言語処理システムにおいて、適用規則系列が与えられた
ときに、その文法規則の適用順序をニューラル・ネット
ワークによって学習させる。
言語処理システムにおいて、適用規則系列が与えられた
ときに、その文法規則の適用順序をニューラル・ネット
ワークによって学習させる。
更に、第1図を参照して説明するに、第1図には、上記
のモデルを学習装置として本発明を実施した自然言語処
理システムの一例が示されており、自然言語処理システ
ムは、入力文を解析する機能と出力文を生成する機能を
有している。
のモデルを学習装置として本発明を実施した自然言語処
理システムの一例が示されており、自然言語処理システ
ムは、入力文を解析する機能と出力文を生成する機能を
有している。
すなわち、入力文読み込み部1と、入力文解析部2と、
出力文生成部3と、出力文出力部4と、適用規則保持部
5と、学習装置6と、学習結果保持部7と辞書8とを備
えており、それぞれの各要素は通信線12.23.25
.28.34.35.38.56.67によって接続さ
れている。
出力文生成部3と、出力文出力部4と、適用規則保持部
5と、学習装置6と、学習結果保持部7と辞書8とを備
えており、それぞれの各要素は通信線12.23.25
.28.34.35.38.56.67によって接続さ
れている。
入力文読み込み部1には、通信線101が接続されてお
り、入力文はこれを介してシステムに与えられる。
り、入力文はこれを介してシステムに与えられる。
入力文解析部2、出力文生成部3と接続された適用規則
保持部5には、解析に適用された規則が送られるように
なっており、また、出方文生成部3で適用された規則に
ついても送られるようになっている。
保持部5には、解析に適用された規則が送られるように
なっており、また、出方文生成部3で適用された規則に
ついても送られるようになっている。
このような入力文を解析する機能と出力文を生成する機
能を有する自然言語処理システムにおいて、適用規則系
列が与えられたときに、その文法規則の適用順序をニュ
ーラル・ネットワークによって学習させる。
能を有する自然言語処理システムにおいて、適用規則系
列が与えられたときに、その文法規則の適用順序をニュ
ーラル・ネットワークによって学習させる。
入力文が通信線101に与えられると、通信線101を
介して入力文読み込み部1に読み込まれた自然言語文が
入力文解析部2で解析される。解析に適用されたすべて
の規則は、通信線25を介して適用規則保持部5へ送ら
れる。適用規則保持部5は、学習用のデータとして学習
装置6へ通信線56を介して伝達する。学習装置6を用
いて学習された結果は通信線67で学習結果保持部7へ
伝達され保持される。
介して入力文読み込み部1に読み込まれた自然言語文が
入力文解析部2で解析される。解析に適用されたすべて
の規則は、通信線25を介して適用規則保持部5へ送ら
れる。適用規則保持部5は、学習用のデータとして学習
装置6へ通信線56を介して伝達する。学習装置6を用
いて学習された結果は通信線67で学習結果保持部7へ
伝達され保持される。
適用規則を学習し学習結果を学習結果保持部7に記録す
る処理は、第2図に従って行われる。第2図において、
ステップ5201では、適用規則の読み込みを行う。次
に、ステップ5202で学習データ作成を実行し、ステ
ップ5203で学習データ作成終了か否かを判別し、そ
の判別結果がNOのときはステップ5202を実行し、
Yesの判別結果が得られたならば、次のステップS
204へ進む。
る処理は、第2図に従って行われる。第2図において、
ステップ5201では、適用規則の読み込みを行う。次
に、ステップ5202で学習データ作成を実行し、ステ
ップ5203で学習データ作成終了か否かを判別し、そ
の判別結果がNOのときはステップ5202を実行し、
Yesの判別結果が得られたならば、次のステップS
204へ進む。
ステップ5204では、学習データを入力し、そしてス
テップ5205で学習を実行する。すなわち、学習装置
6において、既述したようなモデルによって文法規則の
適用順序についての学習を行わせる。続くステップ52
06では学習終了か否かを判別し、その判別結果がNO
の場合はステップ5205を実行し、判別結果としてY
esが得られたときステップ5207に進んで学習結果
を学習結果保持部7へ記録する。
テップ5205で学習を実行する。すなわち、学習装置
6において、既述したようなモデルによって文法規則の
適用順序についての学習を行わせる。続くステップ52
06では学習終了か否かを判別し、その判別結果がNO
の場合はステップ5205を実行し、判別結果としてY
esが得られたときステップ5207に進んで学習結果
を学習結果保持部7へ記録する。
このようにして、学習装置6を用いて学習された結果は
学習結果保持部7に保持される。
学習結果保持部7に保持される。
また、第1図において、入力文解析部2の結果は通信線
23を介して出力文生成部3に送られる。
23を介して出力文生成部3に送られる。
出力文生成部3で適用された規則に関しても上と同様な
操作が行われ学習結果が保持される。
操作が行われ学習結果が保持される。
入力文の解析・出力文の生成機能を有する上記のような
自然言語処理システムにおいて、文法規則適用順序の学
習を行わせる場合、従来方式を用いるときは、既述した
ように、その条件付き確率のテーブルの記憶容量が膨大
となり、これに伴い実現が困難になるのに対し、ニュー
ラル・ネットワークによるこの方式によるものでは、実
行に要する記憶容量は、考慮に入れるルールの個数をし
、ルールの種類をM、1%れユニットの数をHとすると 〜O(L−M−H) となり、大幅に減少し、自然言語処理システムにおける
高効率の文法規則適用順序学習を実現することができる
。
自然言語処理システムにおいて、文法規則適用順序の学
習を行わせる場合、従来方式を用いるときは、既述した
ように、その条件付き確率のテーブルの記憶容量が膨大
となり、これに伴い実現が困難になるのに対し、ニュー
ラル・ネットワークによるこの方式によるものでは、実
行に要する記憶容量は、考慮に入れるルールの個数をし
、ルールの種類をM、1%れユニットの数をHとすると 〜O(L−M−H) となり、大幅に減少し、自然言語処理システムにおける
高効率の文法規則適用順序学習を実現することができる
。
以上説明したように、本発明によれば、ルールの適用順
序に関しての学習が可能である。また、その実行に要す
る記憶容量は、従来技術と比べて大幅に縮小することを
可能にする。
序に関しての学習が可能である。また、その実行に要す
る記憶容量は、従来技術と比べて大幅に縮小することを
可能にする。
第1図は本発明の一実施例を示すブロック図、第2図は
適用規則を学習し学習結果を学習結果保持部に記録する
場合の一例を示すフローチャート、 第3図は逆伝播ネットワーク・モデルの一般的な構成を
表す図である。 1・・・入力文読み込み部 2・・・入力文解析部 3・・・出力文生成部 4・・・出力文出力部 5・・・適用規則保持部 6・・・学習装置 7・・・学習結果保持部 8・・・辞書 第1図 第2図 第3図
適用規則を学習し学習結果を学習結果保持部に記録する
場合の一例を示すフローチャート、 第3図は逆伝播ネットワーク・モデルの一般的な構成を
表す図である。 1・・・入力文読み込み部 2・・・入力文解析部 3・・・出力文生成部 4・・・出力文出力部 5・・・適用規則保持部 6・・・学習装置 7・・・学習結果保持部 8・・・辞書 第1図 第2図 第3図
Claims (1)
- (1)入力文を解析する機能と出力文を生成する機能を
有する自然言語処理システムにおける文法規則適用順序
学習方式であって、 適用規則系列が与えられたときに、その文法規則の適用
順序をニューラル・ネットワークによって学習させるこ
とを特徴とする文法規則適用順序学習方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63083193A JPH01255966A (ja) | 1988-04-06 | 1988-04-06 | 文法規則適用順序学習方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63083193A JPH01255966A (ja) | 1988-04-06 | 1988-04-06 | 文法規則適用順序学習方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH01255966A true JPH01255966A (ja) | 1989-10-12 |
Family
ID=13795491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63083193A Pending JPH01255966A (ja) | 1988-04-06 | 1988-04-06 | 文法規則適用順序学習方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH01255966A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3370165A1 (en) * | 2017-03-02 | 2018-09-05 | Tokyo Metropolitan University | Sentence generation apparatus, sentence generation method, and sentence generation program |
JP2019021218A (ja) * | 2017-07-20 | 2019-02-07 | ヤフー株式会社 | 学習装置、プログラムパラメータ、学習方法およびモデル |
-
1988
- 1988-04-06 JP JP63083193A patent/JPH01255966A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3370165A1 (en) * | 2017-03-02 | 2018-09-05 | Tokyo Metropolitan University | Sentence generation apparatus, sentence generation method, and sentence generation program |
US10643032B2 (en) | 2017-03-02 | 2020-05-05 | Toyota Jidosha Kabushiki Kaisha | Output sentence generation apparatus, output sentence generation method, and output sentence generation program |
JP2019021218A (ja) * | 2017-07-20 | 2019-02-07 | ヤフー株式会社 | 学習装置、プログラムパラメータ、学習方法およびモデル |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11625540B2 (en) | Encoder, system and method for metaphor detection in natural language processing | |
CN110968660B (zh) | 基于联合训练模型的信息抽取方法和系统 | |
Terechshenko et al. | A comparison of methods in political science text classification: Transfer learning language models for politics | |
EP3893163A1 (en) | End-to-end graph convolution network | |
US20190318249A1 (en) | Interpretable general reasoning system using key value memory networks | |
CN113987179A (zh) | 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质 | |
Smith et al. | Learning sequential structure with the real-time recurrent learning algorithm | |
Abdel-Nabi et al. | Deep learning-based question answering: a survey | |
Shi et al. | Learning bounded context-free-grammar via LSTM and the transformer: difference and the explanations | |
KR20230106283A (ko) | 신경망을 이용한 수학 문제 풀이 시스템 및 수학 문제 풀이 방법 | |
CN114153942B (zh) | 一种基于动态注意力机制的事件时序关系抽取方法 | |
Giles et al. | Rule refinement with recurrent neural networks | |
Hashana et al. | Deep Learning in ChatGPT-A Survey | |
CN113569062A (zh) | 一种知识图谱补全方法与系统 | |
CN115691475A (zh) | 用于训练语音识别模型的方法以及语音识别方法 | |
Zhang et al. | LogPrompt: A Log-based Anomaly Detection Framework Using Prompts | |
JPH01255966A (ja) | 文法規則適用順序学習方式 | |
KR102610431B1 (ko) | 인공지능 분석 기반 프로그램 소스코드의 요약문 생성 장치 및 방법 | |
CN113010662B (zh) | 一种层次化会话式机器阅读理解系统和方法 | |
WO2023107207A1 (en) | Automated notebook completion using sequence-to-sequence transformer | |
Dou et al. | Universal recurrent event memories for streaming data | |
CN114818690A (zh) | 一种评论信息生成的方法、装置及存储介质 | |
Huber et al. | Recognizing the plans of screen reader users | |
JPH0580000B2 (ja) | ||
Sosík et al. | Grammatical inference of colonies |