JPH01255966A - 文法規則適用順序学習方式 - Google Patents

文法規則適用順序学習方式

Info

Publication number
JPH01255966A
JPH01255966A JP63083193A JP8319388A JPH01255966A JP H01255966 A JPH01255966 A JP H01255966A JP 63083193 A JP63083193 A JP 63083193A JP 8319388 A JP8319388 A JP 8319388A JP H01255966 A JPH01255966 A JP H01255966A
Authority
JP
Japan
Prior art keywords
learning
rule
input
natural language
rules
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63083193A
Other languages
English (en)
Inventor
Akitoshi Okumura
明俊 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP63083193A priority Critical patent/JPH01255966A/ja
Publication of JPH01255966A publication Critical patent/JPH01255966A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、文法規則適用順序学習方式に関するものであ
り、特に、自然言語処理システムにおいて文法規則の適
用順序を効率化するためのニューラルネットワークによ
る文法規則適用順序学習方式に関するものである。
〔従来の技術〕
従来、文法規則適用順序学習には、その範囲を限定した
条件付き確率を用いたものがある。
例えば、あるルールSl、S2の次に83が適用される
条件付き確率は次のように与えられる。
P=P (S31s1.S2)      ・・・(1
)ここで31.32.S3はルールを特定するシンボル
である。
一般に、n−1個のルールが適用された後にルールSk
が適用される条件付き確率は、次のように与えられる。
P=P(Sk l R1,R2,−、Rn−1)  ・
・(2)ここでRi  (i=1. 2. =・、  
n−1)はi番目に適用されたルールである。
データとして適用ルールの時系列が与えられると、式2
を計算してテーブル化される。そのテーブルを参照する
ことにより、確率が最大となるSjをn番目に適用すべ
きルールとして得ることができる。
〔発明が解決しようとする課題〕
しかしながら、従来方式によるものは、実行に要する記
憶容量として、ルールの種類、考慮するルールの個数に
応じて指数関数的に増加する膨大なものが要求される。
すなわち、以上述べたような従来技術では、ルールの種
類をM個、考慮するルールの個数をL個とすると、条件
付き確率を記すテーブルのサイズは、 〜O(ML) となる。従って実装可能な学習データは限定され、文法
規則の適用順序に関して効率化を図ることができない。
本発明の目的は、上記のように条件付き確率のテーブル
の記憶容量が膨大になり実現が困難になるのを回避し、
文法規則の適用順序を効率化するための学習方式を提供
することにある。
〔課題を達成するための手段〕
本発明の文法規則適用順序学習方式は、入力文を解析す
る機能と出力文を生成する機能を有する自然言語処理シ
ステムにおける文法規則適用順序学習方式であって、 適用規則系列が与えられたときに、その文法規則の適用
順序をニューラル・ネットワークによって学習させるこ
とを特徴としている。
〔作 用〕
自然言語処理システムにおいて、自然言語文を解析・生
成する場合に適用される文法規則の適用順序をニューラ
ル・ネットワークによって学習させることにより、適用
効率の向上が図れる。実行に要する記憶容量は、従来方
式を用いるときよりも大幅に縮小される。
〔実施例〕
次に、本発明の実施例について図面を参照して説明する
第1図は本発明の一実施例に係る文法規則適用順序学習
方式を示すブロック図、 第2図は適用規則を学習し記憶する場合の手順を示すフ
ローチャートであり、また、第3図は本発明に適用し得
る逆伝播ネットワーク・モデルの一般的な構成を示して
いる。
まず、第3図を用いて、原理について説明する。
基本的な原理は、シンボルの時系列をあらかじめ教師付
きの学習を行なった逆伝播ネットワーク・モデルを用い
て学習しようとするところにある。
以下、自然言語処理システムにおける本方式の原理を詳
細に説明する。
自然言語入力文を解析・生成する場合に文法規則が適用
される。本方式では、その適用規則をシンボルの時系列
とし、その時系列が現れたときに次のシンボルをつまり
ルールを予測してルールの適用効率を向上させようとす
るものである。
予測には、連想記憶やバクーン認識のモデルとして考案
された逆伝播ネットワーク・モデルを利用する。このモ
デルの詳細については、欧文誌「コンプレックス・シス
テムズ、1987年第1号145−168頁」(“Pa
rallel  Networks  thatLea
rn  to  Pronounce  Englis
h  Text″。
T、J、Sejnowski  &  C,R,Ros
enberg、  ComplexSystems、 
Vol、1(1987)145−168 )に詳しい。
モデルは、一般に第3図のように3種類の層から階層的
に構成され、それぞれ入カニニット層、隠れユニット層
、出カニニット層と呼ばれている。
各層にはユニットと呼ばれる処理単位が配置され、各ユ
ニットは入力層に近い側に隣接する層のユニットからの
入力を受けて、隣接する出力層に近い側の層のユニット
へ出力を出す。各ユニ7)の入・出力の応答関係は次の
ように与えられる。
x(n)、=Σωfn−1+ 、 y(Fl−11、−
〇[+11. − ・(3)y (nl 、 === 
f  (x (++1 、 )          ・
・・(4)f (x)=□          ・・・
(5)1+e−” ここでXはユニットへの入力、yはユニットの出力、θ
はユニットの持つ闇値、上付き添え字は入力層からの階
層を表わしくn=1.  ・・・、N)、下付き添え字
は層内のユニットを表わす番号である。ω(n−1+、
、4よ第(n−1)層のユニットiから第nNのユニッ
トiへの結合を表わす荷重、f (x)は式5に示すよ
うに各ユニットに共通の非線形飽和型の応答関数である
。結局、各ユニットは隣接する上位層のユニットの出力
の荷重和とあらかしめ定められた闇値との差を入力とし
て一種の闇値論理によってその出力を決定する。
このモデルの入力層にデータが与えられると、その情報
(データ)は隣接する下位層で順次処理されながら出力
層まで伝播して行(。そしてこの出力層のユニットの出
力が、与えられた入力データに対するモデルの推論結果
となるのである。
本方式では入力層に適用されたルールシンボル列を提示
したときに、出力層に次に適用されたルールの結果(推
論結果)が出力されるようなモデルを構成する。
次にモデルが望ましい推論動作を行なうようにユニツト
量の結合を定める学習法(逆伝播学習)について説明す
る。
学習に用いるデータはさまざまな自然言語処理に対する
実際の適用ルールシンボル列である。これらのデータを
入力層に提示し、出力層には次に適用されたルールシン
ボルを提示して逆伝播学習を繰り返し行なう。例えば、
ある入力文の解析ルールシンボル列が、 LL、L3.L4.L6 である時、入力層と出力層のデータとして次表の6つを
得る。
逆伝播法では、入力されたデータに対する望ましい推論
結果(出力データ)を教師信号として与えて、モデルの
推論結果と教師信号の差(誤差)を小さくする方向に繰
り返しユニット間結合を修正する。これは、実際には、
次式で定義される出力層(第N層)におけるモデルの出
力y (N) 、と与えられた入力に対する望ましい出
力(答え)y、とから定まる誤差関数を最小化するよう
なユニット間結合を見い出すことに対応する。
この関数は、y(N)、を通じてあらゆるユニット間結
合に依存しているので、最小化はEを評価関数として行
なえばよい。結果として得られる逆伝播学習のアルゴリ
ズムに関しては前記の文献に詳しい。
本方式は、以上のような知見に基づ(ものであり、自然
言語処理システムにおいて、適用規則系列が与えられた
ときに、その文法規則の適用順序をニューラル・ネット
ワークによって学習させる。
更に、第1図を参照して説明するに、第1図には、上記
のモデルを学習装置として本発明を実施した自然言語処
理システムの一例が示されており、自然言語処理システ
ムは、入力文を解析する機能と出力文を生成する機能を
有している。
すなわち、入力文読み込み部1と、入力文解析部2と、
出力文生成部3と、出力文出力部4と、適用規則保持部
5と、学習装置6と、学習結果保持部7と辞書8とを備
えており、それぞれの各要素は通信線12.23.25
.28.34.35.38.56.67によって接続さ
れている。
入力文読み込み部1には、通信線101が接続されてお
り、入力文はこれを介してシステムに与えられる。
入力文解析部2、出力文生成部3と接続された適用規則
保持部5には、解析に適用された規則が送られるように
なっており、また、出方文生成部3で適用された規則に
ついても送られるようになっている。
このような入力文を解析する機能と出力文を生成する機
能を有する自然言語処理システムにおいて、適用規則系
列が与えられたときに、その文法規則の適用順序をニュ
ーラル・ネットワークによって学習させる。
入力文が通信線101に与えられると、通信線101を
介して入力文読み込み部1に読み込まれた自然言語文が
入力文解析部2で解析される。解析に適用されたすべて
の規則は、通信線25を介して適用規則保持部5へ送ら
れる。適用規則保持部5は、学習用のデータとして学習
装置6へ通信線56を介して伝達する。学習装置6を用
いて学習された結果は通信線67で学習結果保持部7へ
伝達され保持される。
適用規則を学習し学習結果を学習結果保持部7に記録す
る処理は、第2図に従って行われる。第2図において、
ステップ5201では、適用規則の読み込みを行う。次
に、ステップ5202で学習データ作成を実行し、ステ
ップ5203で学習データ作成終了か否かを判別し、そ
の判別結果がNOのときはステップ5202を実行し、
Yesの判別結果が得られたならば、次のステップS 
204へ進む。
ステップ5204では、学習データを入力し、そしてス
テップ5205で学習を実行する。すなわち、学習装置
6において、既述したようなモデルによって文法規則の
適用順序についての学習を行わせる。続くステップ52
06では学習終了か否かを判別し、その判別結果がNO
の場合はステップ5205を実行し、判別結果としてY
esが得られたときステップ5207に進んで学習結果
を学習結果保持部7へ記録する。
このようにして、学習装置6を用いて学習された結果は
学習結果保持部7に保持される。
また、第1図において、入力文解析部2の結果は通信線
23を介して出力文生成部3に送られる。
出力文生成部3で適用された規則に関しても上と同様な
操作が行われ学習結果が保持される。
入力文の解析・出力文の生成機能を有する上記のような
自然言語処理システムにおいて、文法規則適用順序の学
習を行わせる場合、従来方式を用いるときは、既述した
ように、その条件付き確率のテーブルの記憶容量が膨大
となり、これに伴い実現が困難になるのに対し、ニュー
ラル・ネットワークによるこの方式によるものでは、実
行に要する記憶容量は、考慮に入れるルールの個数をし
、ルールの種類をM、1%れユニットの数をHとすると 〜O(L−M−H) となり、大幅に減少し、自然言語処理システムにおける
高効率の文法規則適用順序学習を実現することができる
〔発明の効果〕
以上説明したように、本発明によれば、ルールの適用順
序に関しての学習が可能である。また、その実行に要す
る記憶容量は、従来技術と比べて大幅に縮小することを
可能にする。
【図面の簡単な説明】
第1図は本発明の一実施例を示すブロック図、第2図は
適用規則を学習し学習結果を学習結果保持部に記録する
場合の一例を示すフローチャート、 第3図は逆伝播ネットワーク・モデルの一般的な構成を
表す図である。 1・・・入力文読み込み部 2・・・入力文解析部 3・・・出力文生成部 4・・・出力文出力部 5・・・適用規則保持部 6・・・学習装置 7・・・学習結果保持部 8・・・辞書 第1図 第2図 第3図

Claims (1)

    【特許請求の範囲】
  1. (1)入力文を解析する機能と出力文を生成する機能を
    有する自然言語処理システムにおける文法規則適用順序
    学習方式であって、 適用規則系列が与えられたときに、その文法規則の適用
    順序をニューラル・ネットワークによって学習させるこ
    とを特徴とする文法規則適用順序学習方式。
JP63083193A 1988-04-06 1988-04-06 文法規則適用順序学習方式 Pending JPH01255966A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63083193A JPH01255966A (ja) 1988-04-06 1988-04-06 文法規則適用順序学習方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63083193A JPH01255966A (ja) 1988-04-06 1988-04-06 文法規則適用順序学習方式

Publications (1)

Publication Number Publication Date
JPH01255966A true JPH01255966A (ja) 1989-10-12

Family

ID=13795491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63083193A Pending JPH01255966A (ja) 1988-04-06 1988-04-06 文法規則適用順序学習方式

Country Status (1)

Country Link
JP (1) JPH01255966A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3370165A1 (en) * 2017-03-02 2018-09-05 Tokyo Metropolitan University Sentence generation apparatus, sentence generation method, and sentence generation program
JP2019021218A (ja) * 2017-07-20 2019-02-07 ヤフー株式会社 学習装置、プログラムパラメータ、学習方法およびモデル

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3370165A1 (en) * 2017-03-02 2018-09-05 Tokyo Metropolitan University Sentence generation apparatus, sentence generation method, and sentence generation program
US10643032B2 (en) 2017-03-02 2020-05-05 Toyota Jidosha Kabushiki Kaisha Output sentence generation apparatus, output sentence generation method, and output sentence generation program
JP2019021218A (ja) * 2017-07-20 2019-02-07 ヤフー株式会社 学習装置、プログラムパラメータ、学習方法およびモデル

Similar Documents

Publication Publication Date Title
US11625540B2 (en) Encoder, system and method for metaphor detection in natural language processing
CN110968660B (zh) 基于联合训练模型的信息抽取方法和系统
Terechshenko et al. A comparison of methods in political science text classification: Transfer learning language models for politics
EP3893163A1 (en) End-to-end graph convolution network
US20190318249A1 (en) Interpretable general reasoning system using key value memory networks
CN113987179A (zh) 基于知识增强和回溯损失的对话情绪识别网络模型、构建方法、电子设备及存储介质
Smith et al. Learning sequential structure with the real-time recurrent learning algorithm
Abdel-Nabi et al. Deep learning-based question answering: a survey
Shi et al. Learning bounded context-free-grammar via LSTM and the transformer: difference and the explanations
KR20230106283A (ko) 신경망을 이용한 수학 문제 풀이 시스템 및 수학 문제 풀이 방법
CN114153942B (zh) 一种基于动态注意力机制的事件时序关系抽取方法
Giles et al. Rule refinement with recurrent neural networks
Hashana et al. Deep Learning in ChatGPT-A Survey
CN113569062A (zh) 一种知识图谱补全方法与系统
CN115691475A (zh) 用于训练语音识别模型的方法以及语音识别方法
Zhang et al. LogPrompt: A Log-based Anomaly Detection Framework Using Prompts
JPH01255966A (ja) 文法規則適用順序学習方式
KR102610431B1 (ko) 인공지능 분석 기반 프로그램 소스코드의 요약문 생성 장치 및 방법
CN113010662B (zh) 一种层次化会话式机器阅读理解系统和方法
WO2023107207A1 (en) Automated notebook completion using sequence-to-sequence transformer
Dou et al. Universal recurrent event memories for streaming data
CN114818690A (zh) 一种评论信息生成的方法、装置及存储介质
Huber et al. Recognizing the plans of screen reader users
JPH0580000B2 (ja)
Sosík et al. Grammatical inference of colonies