JPH03263266A - 未知語の品詞選択装置 - Google Patents
未知語の品詞選択装置Info
- Publication number
- JPH03263266A JPH03263266A JP2063577A JP6357790A JPH03263266A JP H03263266 A JPH03263266 A JP H03263266A JP 2063577 A JP2063577 A JP 2063577A JP 6357790 A JP6357790 A JP 6357790A JP H03263266 A JPH03263266 A JP H03263266A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- input
- unknown word
- information
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000009941 weaving Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000036632 reaction speed Effects 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔概要〕
ニューラル・ネットワークを用いた未知語の品詞選択装
置に関し、 ニューラル・ネットを使うことによって、どのような未
知単語の入力に対して何らかの適当な出力を学習した標
準パターンから類推して出力することを目的とし、 入力された未知語の綴りを格納するバッファと、上記の
未知語の綴りの情報をニューラル・ネットワークの入力
に適した形に変換する入力インターフェース部と、 入力された綴りの情報から品詞の推定をする逆伝播式ニ
ューラル・ネットワークと、 ニューラル・ネットワークの出力を品詞候補およびそれ
らの確率情報に変換する出力インターフェース部と を備えている。
置に関し、 ニューラル・ネットを使うことによって、どのような未
知単語の入力に対して何らかの適当な出力を学習した標
準パターンから類推して出力することを目的とし、 入力された未知語の綴りを格納するバッファと、上記の
未知語の綴りの情報をニューラル・ネットワークの入力
に適した形に変換する入力インターフェース部と、 入力された綴りの情報から品詞の推定をする逆伝播式ニ
ューラル・ネットワークと、 ニューラル・ネットワークの出力を品詞候補およびそれ
らの確率情報に変換する出力インターフェース部と を備えている。
本発明は、ニューラル・ネットワークを用いた未知語の
品詞選択装置に関する。
品詞選択装置に関する。
英語の解析などを行う際に、各単語の品詞を正しく選択
することが不可欠である。どのような入力文に対しても
一応の解析が出来るシステムを構築する際には、筆者が
その場で作った造語やシステムの辞書に登録されていな
いその他の単語等に対しても適切な品詞を与え、解析を
進めなければならない、このような予期しにくい入力の
解析は場合場合に応じた細かい規則を書き並べるよりは
、ニューラル・ネットのようなもっと融通性のあるシス
テムを使った方がより柔軟な解析ができる場合が多い、
ll近になって高速かつメモリ効率の良いネットワーク
・システムが手に入りやすくなり、これらを使って実用
にも充分に耐えられる自然言語処理システムの構築が可
能になってきた。
することが不可欠である。どのような入力文に対しても
一応の解析が出来るシステムを構築する際には、筆者が
その場で作った造語やシステムの辞書に登録されていな
いその他の単語等に対しても適切な品詞を与え、解析を
進めなければならない、このような予期しにくい入力の
解析は場合場合に応じた細かい規則を書き並べるよりは
、ニューラル・ネットのようなもっと融通性のあるシス
テムを使った方がより柔軟な解析ができる場合が多い、
ll近になって高速かつメモリ効率の良いネットワーク
・システムが手に入りやすくなり、これらを使って実用
にも充分に耐えられる自然言語処理システムの構築が可
能になってきた。
従来の自然言語処理システムの未登録語処理においては
、未登録語が出てくる度に、 ■ 一定の品詞を与えて解析を進める。
、未登録語が出てくる度に、 ■ 一定の品詞を与えて解析を進める。
■ 織りと単語の対応規則を規則表として作っておき、
その場に応じて規則を当て嵌めてゆき、もし規則にそぐ
わない入力があった場合は、適当に可能性の高い品詞を
与えてしまう。
その場に応じて規則を当て嵌めてゆき、もし規則にそぐ
わない入力があった場合は、適当に可能性の高い品詞を
与えてしまう。
■ その場では品詞を決めずに文法で必要と思われる品
詞を使用する。
詞を使用する。
などの処理を行っていた。
■で示した方法では融通性の高い処理は出来なかった。
■の方法では失敗する可能性が何時も一定の確率であり
、■では適用できる規則がない場合には■と同じになっ
てしまい、■では文法だけでは品詞選択が出来ない場合
があったり、抜けた品詞を推定する「虫食い算」的な文
法を書くことが難しい、と言う欠点があった。
、■では適用できる規則がない場合には■と同じになっ
てしまい、■では文法だけでは品詞選択が出来ない場合
があったり、抜けた品詞を推定する「虫食い算」的な文
法を書くことが難しい、と言う欠点があった。
本発明は、この点に鑑みて創作されたものであって、ニ
ューラル・ネットを使うことによって、どのような未知
単語の入力に対しても何らかの適当な出力を学習した標
準パターンから類推して出力することを目的としている
。
ューラル・ネットを使うことによって、どのような未知
単語の入力に対しても何らかの適当な出力を学習した標
準パターンから類推して出力することを目的としている
。
第1図は本発明の原理説明図である。同図において、1
は未知語の綴りが格納されるバッファ、2はニューラル
・ネットワーク3への入力インターフェース、3は逆伝
播式ニューラル・ネットワーク、4はニューラル・ネッ
トワークの出力インターフェース、5はニューラル・ネ
・ントワーク3からの出力である品詞候補および候補品
詞の確率、6は品詞並び情報、7は品詞選択部、8は最
終的に選択された品詞をそれぞれ示している。
は未知語の綴りが格納されるバッファ、2はニューラル
・ネットワーク3への入力インターフェース、3は逆伝
播式ニューラル・ネットワーク、4はニューラル・ネッ
トワークの出力インターフェース、5はニューラル・ネ
・ントワーク3からの出力である品詞候補および候補品
詞の確率、6は品詞並び情報、7は品詞選択部、8は最
終的に選択された品詞をそれぞれ示している。
バッファ1には、未知語の綴りが格納される。
入力インターフェース2は、バッファ1の未知語の織り
の情報を逆伝播式ニューラル・ネットワーク3の入力に
適した形に変換するものである。逆伝播式ニューラル・
ネットワーク3の入力層には例えば未知語の先頭が大文
字か否かを示す情報。
の情報を逆伝播式ニューラル・ネットワーク3の入力に
適した形に変換するものである。逆伝播式ニューラル・
ネットワーク3の入力層には例えば未知語の先頭が大文
字か否かを示す情報。
未知語の長さの情報および未知語の語尾3文字に対応す
る織りの情報が入力され、出力層からは未知語の品詞候
補が出力される。なお、予め逆伝播式ニューラル・ネッ
トワーク3に対しては適当な学習が施されている。
る織りの情報が入力され、出力層からは未知語の品詞候
補が出力される。なお、予め逆伝播式ニューラル・ネッ
トワーク3に対しては適当な学習が施されている。
出力インターフェース4は、逆伝播式ニューラル・ネッ
トワーク3からの出力を品詞候補および候補品詞の確率
情報に変換するものである。
トワーク3からの出力を品詞候補および候補品詞の確率
情報に変換するものである。
品詞選択部7は、品詞並び情報6を使用して、出力イン
ターフェース4から出力される品詞候補の中から最も適
当と思われ品詞を選択する。この品詞選択部は既知の技
術のものであり、また、本発明の要旨外であるので、こ
れについての詳細な説明は省略する。
ターフェース4から出力される品詞候補の中から最も適
当と思われ品詞を選択する。この品詞選択部は既知の技
術のものであり、また、本発明の要旨外であるので、こ
れについての詳細な説明は省略する。
入力インターフェース2は、バッファ1内の未知語の綴
りを取り出し、ニューラル・ネットワーク3の入力層に
未知語の先頭が大文字か否かを示す情報、未知語の長さ
を示す情報、未知語の語尾3文字が何であるかを示す情
報を入力する。出力インターフェース4は、逆伝播式ニ
ューラル・ネットワーク3の出カニニットの中から成る
閾値以上の値を出力しているものを取り出し、当該出カ
ニニットに対応する品詞と、当該出力値に対応した確率
値を出力する。
りを取り出し、ニューラル・ネットワーク3の入力層に
未知語の先頭が大文字か否かを示す情報、未知語の長さ
を示す情報、未知語の語尾3文字が何であるかを示す情
報を入力する。出力インターフェース4は、逆伝播式ニ
ューラル・ネットワーク3の出カニニットの中から成る
閾値以上の値を出力しているものを取り出し、当該出カ
ニニットに対応する品詞と、当該出力値に対応した確率
値を出力する。
第1図のような品詞選択装置を使用すれば、既に学習さ
せた綴りのパターンから未知語の品詞を推定することが
出来る。
せた綴りのパターンから未知語の品詞を推定することが
出来る。
第2図は本発明の1実施例のブロック図である。
同図において、1は未知語が格納されるバッファ、2は
入力インターフェース、3は逆伝播式ニューラル・ネッ
トワーク、4は出力インターフェースをそれぞれ示して
いる。
入力インターフェース、3は逆伝播式ニューラル・ネッ
トワーク、4は出力インターフェースをそれぞれ示して
いる。
バッファ1には未知語が格納される0図示の例ではrc
omfyJと言う文字列が格納されている。入力インタ
ーフェース2は、バッファ1に格納されている未知語の
織りを取り出し、先頭文字が大文字か否かを示す情報1
文字列長および語尾3文字をニューラル・ネットワーク
3の入力層に入力する。
omfyJと言う文字列が格納されている。入力インタ
ーフェース2は、バッファ1に格納されている未知語の
織りを取り出し、先頭文字が大文字か否かを示す情報1
文字列長および語尾3文字をニューラル・ネットワーク
3の入力層に入力する。
ニューラル・ネットワーク3は逆伝播式のものである。
ニューラル・ネットワーク3の入力層は複数の入カニニ
ットを有しており、最左端の入カニニットは先頭文字が
大文字か小文字かを示すために用いられる。図示の例で
は、バッファ1の文字列の先頭文字は小文字であるので
、この入カニニットには0が入力される。次のn個の入
カニニットは文字列長を示すために用いらる。図示の例
では、バッファ1の文字列の長さは5であるので、文字
列長に割り当てられたn個の入カニニットの中の5番目
の入カニニットに1が入力され、その他の入カニニット
には0が入力される。語尾3文字のそれぞれに対して、
26個の入カニニットが割り当てられている。26個の
入カニニットは、それぞれa、b、・・・、2に割り当
てられている。
ットを有しており、最左端の入カニニットは先頭文字が
大文字か小文字かを示すために用いられる。図示の例で
は、バッファ1の文字列の先頭文字は小文字であるので
、この入カニニットには0が入力される。次のn個の入
カニニットは文字列長を示すために用いらる。図示の例
では、バッファ1の文字列の長さは5であるので、文字
列長に割り当てられたn個の入カニニットの中の5番目
の入カニニットに1が入力され、その他の入カニニット
には0が入力される。語尾3文字のそれぞれに対して、
26個の入カニニットが割り当てられている。26個の
入カニニットは、それぞれa、b、・・・、2に割り当
てられている。
図示の例では、バッファ1の文字列の語尾3文字は“m
、 ”f″′、 y″であるので、第1tJl
目の26個の入カニニットのうちの“m”に対応する入
カニニットに1が入力され、その他の入カニニットには
0が入力され、第211目の26個の入カニニットのう
ちの“°r″に対応する入カニニットに1が入力され、
その他の入カニニットにはOが入力され、第3組目の2
6個の入カニニットのうちの“y”に対応する入カニニ
ットに1が入力され、その他の入カニニットには0が入
力される。
、 ”f″′、 y″であるので、第1tJl
目の26個の入カニニットのうちの“m”に対応する入
カニニットに1が入力され、その他の入カニニットには
0が入力され、第211目の26個の入カニニットのう
ちの“°r″に対応する入カニニットに1が入力され、
その他の入カニニットにはOが入力され、第3組目の2
6個の入カニニットのうちの“y”に対応する入カニニ
ットに1が入力され、その他の入カニニットには0が入
力される。
逆伝播式ニューラル・ネットワーク3は、使用に先立っ
て学習をさせなければならない。各ユニットはOと1の
間の任意の値を取り得るものとする。学習に際しては、
出来るだけ多くの単語を使い、入力インターフェース2
でニューラル・ネットワーク3に入力単語の綴りに関す
る情報を与え、教師信号としてはその入力単語に対応す
る品詞をニューラル・ネットワーク3の出力側に与える
。
て学習をさせなければならない。各ユニットはOと1の
間の任意の値を取り得るものとする。学習に際しては、
出来るだけ多くの単語を使い、入力インターフェース2
でニューラル・ネットワーク3に入力単語の綴りに関す
る情報を与え、教師信号としてはその入力単語に対応す
る品詞をニューラル・ネットワーク3の出力側に与える
。
例えば“useful”と言う単語が形容詞であること
を学習させるためには、先頭文字が小文字であると言う
情報、文字長が6であると言う情報および語尾3文字が
“ful”であると言う情報を逆伝播式ニューラル・ネ
ットワーク3の入力層に与えると共に、1の値を持つ教
師信号を形容詞に割り当てられた出カニニットに与える
。
を学習させるためには、先頭文字が小文字であると言う
情報、文字長が6であると言う情報および語尾3文字が
“ful”であると言う情報を逆伝播式ニューラル・ネ
ットワーク3の入力層に与えると共に、1の値を持つ教
師信号を形容詞に割り当てられた出カニニットに与える
。
逆伝播式ニューラル・ネットワーク3の中間層の数は学
習速度や反応の速さの面から1層を使用する。中間層の
ユニットの数は入力層と出力層のユニットの数の間ぐら
いを使う。出力層のユニット数は、使用する品詞の総数
と等しくする。各出カニニットに対しては品詞が割り当
てられている。
習速度や反応の速さの面から1層を使用する。中間層の
ユニットの数は入力層と出力層のユニットの数の間ぐら
いを使う。出力層のユニット数は、使用する品詞の総数
と等しくする。各出カニニットに対しては品詞が割り当
てられている。
例えば、第5番目の出カニニットに対しては形容詞を割
り当て、第13番目の出カニニットに対しては動詞を割
り当てる。
り当て、第13番目の出カニニットに対しては動詞を割
り当てる。
出力インタフェース4では、逆伝播式ニューラル・ネッ
トワーク3の出力層の中で成る闇値よりも大きい値を出
力する出カニニットのみを取り出し、それらに対応する
品詞を出力する。それぞれの品詞は、出カニニットの出
力値に対応した確率値と共に出力される。図示の例では
、「形容詞0.6」と言う情報と、「動詞 0.4 J
と言う情報が出力インターフェース4から出力されてい
る。
トワーク3の出力層の中で成る闇値よりも大きい値を出
力する出カニニットのみを取り出し、それらに対応する
品詞を出力する。それぞれの品詞は、出カニニットの出
力値に対応した確率値と共に出力される。図示の例では
、「形容詞0.6」と言う情報と、「動詞 0.4 J
と言う情報が出力インターフェース4から出力されてい
る。
出力インターフェース4の後段には、上記の情報に更に
品詞並び情報を使って品詞候補の中から適当な品詞を選
択する機構が接続されるが、この機構は既知の技術のも
のであり、本発明の要旨外であるので説明は省略する。
品詞並び情報を使って品詞候補の中から適当な品詞を選
択する機構が接続されるが、この機構は既知の技術のも
のであり、本発明の要旨外であるので説明は省略する。
以上に説明したように、本発明によれば、(a) 個
々の規則を書く必要なくして未知語の処理が出来る。
々の規則を書く必要なくして未知語の処理が出来る。
Φ)どんな入力に対してもそれなりの品詞選択精度が得
られる。
られる。
と言う顕著な効果を奏することが出来る。
第1図は本発明の原理説明図、第2図は本発明の1実施
例のブロック図である。 1・・・未知語の織りが格納されるバッファ、2・・・
ニューラル・ネットワーク3への入力インターフェース
、3・・・逆伝播式ニューラル・ネットワーク、4・・
・ニューラル・ネットワークの出力インターフェース、
5・・・ニューラル・ネットワーク3からの出力である
品詞候補および候補品詞の確率、6・・・品詞並び情報
、7・・・品詞選択部、8・・・最終的に選択された品
詞。
例のブロック図である。 1・・・未知語の織りが格納されるバッファ、2・・・
ニューラル・ネットワーク3への入力インターフェース
、3・・・逆伝播式ニューラル・ネットワーク、4・・
・ニューラル・ネットワークの出力インターフェース、
5・・・ニューラル・ネットワーク3からの出力である
品詞候補および候補品詞の確率、6・・・品詞並び情報
、7・・・品詞選択部、8・・・最終的に選択された品
詞。
Claims (1)
- 【特許請求の範囲】 入力された未知語の綴りを格納するバッファ(1)と、 上記の未知語の綴りの情報をニューラル・ネットワーク
(3)の入力に適した形に変換する入力インターフェー
ス部(2)と、 入力された綴りの情報から品詞の推定をする逆伝播式ニ
ューラル・ネットワーク(3)と、ニューラル・ネット
ワーク(3)の出力を品詞候補およびそれらの確率情報
に変換する出力インターフェース部(4)と を備えたことを特徴とする未知語の品詞選択装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2063577A JPH03263266A (ja) | 1990-03-14 | 1990-03-14 | 未知語の品詞選択装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2063577A JPH03263266A (ja) | 1990-03-14 | 1990-03-14 | 未知語の品詞選択装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03263266A true JPH03263266A (ja) | 1991-11-22 |
Family
ID=13233254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2063577A Pending JPH03263266A (ja) | 1990-03-14 | 1990-03-14 | 未知語の品詞選択装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03263266A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167938A (ja) * | 2016-03-17 | 2017-09-21 | 株式会社東芝 | 学習装置、学習方法及びプログラム |
US10878188B2 (en) | 2016-03-18 | 2020-12-29 | Google Llc | Generating dependency parses of text segments using neural networks |
-
1990
- 1990-03-14 JP JP2063577A patent/JPH03263266A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167938A (ja) * | 2016-03-17 | 2017-09-21 | 株式会社東芝 | 学習装置、学習方法及びプログラム |
US10878188B2 (en) | 2016-03-18 | 2020-12-29 | Google Llc | Generating dependency parses of text segments using neural networks |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11409945B2 (en) | Natural language processing using context-specific word vectors | |
US5479563A (en) | Boundary extracting system from a sentence | |
JPH0855122A (ja) | 文脈タガー | |
JP2019191900A (ja) | 言語特徴の抽出装置、固有表現の抽出装置、抽出方法、及びプログラム | |
Martin | Grammatical Structure: What do we mean? | |
KR20170108693A (ko) | 입출력 회로를 가지는 계층적 신경망 구조의 언어모델 장치 | |
KR102109858B1 (ko) | 자모 및 음절 임베딩 결합을 이용하는 한국어 형태소 분석을 위한 장치 및 방법 | |
Alashqar | A comparative study on Arabic POS tagging using Quran corpus | |
JPH03263266A (ja) | 未知語の品詞選択装置 | |
Garay-Vitoria et al. | A comparison of prediction techniques to enhance the communication rate | |
KR100202292B1 (ko) | 한문어 문서 음성 변환 시스템을 위한 문서 분석기 | |
CN115659958B (zh) | 一种中文拼写错误检查方法 | |
Teubert | The Zhuangzi, hermeneutics and (philological) corpus linguistics | |
Abd Alhadi et al. | Automatic Identification of Rhetorical Elements in classical Arabic Poetry. | |
Elenius | Comparing a connectionist and a rule based model for assigning parts-of-speech | |
CN115437511B (zh) | 一种拼音汉字转换方法、转换模型训练方法及存储介质 | |
US20240160839A1 (en) | Language correction system, method therefor, and language correction model learning method of system | |
Fahad et al. | An Approach towards Implementation of Active and Passive voice using LL (1) Parsing | |
CN105892713A (zh) | 汉语拼音字 | |
Bucciarelli et al. | Rhetorical analysis techniques in Dante Alighieri's Divine Comedy | |
Nakano | Using Neural Network Models for Diacritics Restoration in Māori | |
TW202407576A (zh) | 使用信艾普模型單元之自然語言處理系統以及方法 | |
Levelt | On learnability: a reply to Lasnik and Chomsky | |
Bilokon | Slides: Notation as a tool of thought? LLMs, cognitive biases, and logical fallacies | |
Meško et al. | Checking the writing of commas in Slovak |