JPH03263266A - 未知語の品詞選択装置 - Google Patents

未知語の品詞選択装置

Info

Publication number
JPH03263266A
JPH03263266A JP2063577A JP6357790A JPH03263266A JP H03263266 A JPH03263266 A JP H03263266A JP 2063577 A JP2063577 A JP 2063577A JP 6357790 A JP6357790 A JP 6357790A JP H03263266 A JPH03263266 A JP H03263266A
Authority
JP
Japan
Prior art keywords
speech
input
unknown word
information
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2063577A
Other languages
English (en)
Inventor
Hide Fuji
秀 富士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2063577A priority Critical patent/JPH03263266A/ja
Publication of JPH03263266A publication Critical patent/JPH03263266A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概要〕 ニューラル・ネットワークを用いた未知語の品詞選択装
置に関し、 ニューラル・ネットを使うことによって、どのような未
知単語の入力に対して何らかの適当な出力を学習した標
準パターンから類推して出力することを目的とし、 入力された未知語の綴りを格納するバッファと、上記の
未知語の綴りの情報をニューラル・ネットワークの入力
に適した形に変換する入力インターフェース部と、 入力された綴りの情報から品詞の推定をする逆伝播式ニ
ューラル・ネットワークと、 ニューラル・ネットワークの出力を品詞候補およびそれ
らの確率情報に変換する出力インターフェース部と を備えている。
〔産業上の利用分野〕
本発明は、ニューラル・ネットワークを用いた未知語の
品詞選択装置に関する。
英語の解析などを行う際に、各単語の品詞を正しく選択
することが不可欠である。どのような入力文に対しても
一応の解析が出来るシステムを構築する際には、筆者が
その場で作った造語やシステムの辞書に登録されていな
いその他の単語等に対しても適切な品詞を与え、解析を
進めなければならない、このような予期しにくい入力の
解析は場合場合に応じた細かい規則を書き並べるよりは
、ニューラル・ネットのようなもっと融通性のあるシス
テムを使った方がより柔軟な解析ができる場合が多い、
ll近になって高速かつメモリ効率の良いネットワーク
・システムが手に入りやすくなり、これらを使って実用
にも充分に耐えられる自然言語処理システムの構築が可
能になってきた。
〔従来の技術〕
従来の自然言語処理システムの未登録語処理においては
、未登録語が出てくる度に、 ■ 一定の品詞を与えて解析を進める。
■ 織りと単語の対応規則を規則表として作っておき、
その場に応じて規則を当て嵌めてゆき、もし規則にそぐ
わない入力があった場合は、適当に可能性の高い品詞を
与えてしまう。
■ その場では品詞を決めずに文法で必要と思われる品
詞を使用する。
などの処理を行っていた。
〔発明が解決しようとする課題〕
■で示した方法では融通性の高い処理は出来なかった。
■の方法では失敗する可能性が何時も一定の確率であり
、■では適用できる規則がない場合には■と同じになっ
てしまい、■では文法だけでは品詞選択が出来ない場合
があったり、抜けた品詞を推定する「虫食い算」的な文
法を書くことが難しい、と言う欠点があった。
本発明は、この点に鑑みて創作されたものであって、ニ
ューラル・ネットを使うことによって、どのような未知
単語の入力に対しても何らかの適当な出力を学習した標
準パターンから類推して出力することを目的としている
〔課題を解決するための手段〕
第1図は本発明の原理説明図である。同図において、1
は未知語の綴りが格納されるバッファ、2はニューラル
・ネットワーク3への入力インターフェース、3は逆伝
播式ニューラル・ネットワーク、4はニューラル・ネッ
トワークの出力インターフェース、5はニューラル・ネ
・ントワーク3からの出力である品詞候補および候補品
詞の確率、6は品詞並び情報、7は品詞選択部、8は最
終的に選択された品詞をそれぞれ示している。
バッファ1には、未知語の綴りが格納される。
入力インターフェース2は、バッファ1の未知語の織り
の情報を逆伝播式ニューラル・ネットワーク3の入力に
適した形に変換するものである。逆伝播式ニューラル・
ネットワーク3の入力層には例えば未知語の先頭が大文
字か否かを示す情報。
未知語の長さの情報および未知語の語尾3文字に対応す
る織りの情報が入力され、出力層からは未知語の品詞候
補が出力される。なお、予め逆伝播式ニューラル・ネッ
トワーク3に対しては適当な学習が施されている。
出力インターフェース4は、逆伝播式ニューラル・ネッ
トワーク3からの出力を品詞候補および候補品詞の確率
情報に変換するものである。
品詞選択部7は、品詞並び情報6を使用して、出力イン
ターフェース4から出力される品詞候補の中から最も適
当と思われ品詞を選択する。この品詞選択部は既知の技
術のものであり、また、本発明の要旨外であるので、こ
れについての詳細な説明は省略する。
〔作用〕
入力インターフェース2は、バッファ1内の未知語の綴
りを取り出し、ニューラル・ネットワーク3の入力層に
未知語の先頭が大文字か否かを示す情報、未知語の長さ
を示す情報、未知語の語尾3文字が何であるかを示す情
報を入力する。出力インターフェース4は、逆伝播式ニ
ューラル・ネットワーク3の出カニニットの中から成る
閾値以上の値を出力しているものを取り出し、当該出カ
ニニットに対応する品詞と、当該出力値に対応した確率
値を出力する。
第1図のような品詞選択装置を使用すれば、既に学習さ
せた綴りのパターンから未知語の品詞を推定することが
出来る。
〔実施例〕
第2図は本発明の1実施例のブロック図である。
同図において、1は未知語が格納されるバッファ、2は
入力インターフェース、3は逆伝播式ニューラル・ネッ
トワーク、4は出力インターフェースをそれぞれ示して
いる。
バッファ1には未知語が格納される0図示の例ではrc
omfyJと言う文字列が格納されている。入力インタ
ーフェース2は、バッファ1に格納されている未知語の
織りを取り出し、先頭文字が大文字か否かを示す情報1
文字列長および語尾3文字をニューラル・ネットワーク
3の入力層に入力する。
ニューラル・ネットワーク3は逆伝播式のものである。
ニューラル・ネットワーク3の入力層は複数の入カニニ
ットを有しており、最左端の入カニニットは先頭文字が
大文字か小文字かを示すために用いられる。図示の例で
は、バッファ1の文字列の先頭文字は小文字であるので
、この入カニニットには0が入力される。次のn個の入
カニニットは文字列長を示すために用いらる。図示の例
では、バッファ1の文字列の長さは5であるので、文字
列長に割り当てられたn個の入カニニットの中の5番目
の入カニニットに1が入力され、その他の入カニニット
には0が入力される。語尾3文字のそれぞれに対して、
26個の入カニニットが割り当てられている。26個の
入カニニットは、それぞれa、b、・・・、2に割り当
てられている。
図示の例では、バッファ1の文字列の語尾3文字は“m
  、  ”f″′、  y″であるので、第1tJl
目の26個の入カニニットのうちの“m”に対応する入
カニニットに1が入力され、その他の入カニニットには
0が入力され、第211目の26個の入カニニットのう
ちの“°r″に対応する入カニニットに1が入力され、
その他の入カニニットにはOが入力され、第3組目の2
6個の入カニニットのうちの“y”に対応する入カニニ
ットに1が入力され、その他の入カニニットには0が入
力される。
逆伝播式ニューラル・ネットワーク3は、使用に先立っ
て学習をさせなければならない。各ユニットはOと1の
間の任意の値を取り得るものとする。学習に際しては、
出来るだけ多くの単語を使い、入力インターフェース2
でニューラル・ネットワーク3に入力単語の綴りに関す
る情報を与え、教師信号としてはその入力単語に対応す
る品詞をニューラル・ネットワーク3の出力側に与える
例えば“useful”と言う単語が形容詞であること
を学習させるためには、先頭文字が小文字であると言う
情報、文字長が6であると言う情報および語尾3文字が
“ful”であると言う情報を逆伝播式ニューラル・ネ
ットワーク3の入力層に与えると共に、1の値を持つ教
師信号を形容詞に割り当てられた出カニニットに与える
逆伝播式ニューラル・ネットワーク3の中間層の数は学
習速度や反応の速さの面から1層を使用する。中間層の
ユニットの数は入力層と出力層のユニットの数の間ぐら
いを使う。出力層のユニット数は、使用する品詞の総数
と等しくする。各出カニニットに対しては品詞が割り当
てられている。
例えば、第5番目の出カニニットに対しては形容詞を割
り当て、第13番目の出カニニットに対しては動詞を割
り当てる。
出力インタフェース4では、逆伝播式ニューラル・ネッ
トワーク3の出力層の中で成る闇値よりも大きい値を出
力する出カニニットのみを取り出し、それらに対応する
品詞を出力する。それぞれの品詞は、出カニニットの出
力値に対応した確率値と共に出力される。図示の例では
、「形容詞0.6」と言う情報と、「動詞 0.4 J
と言う情報が出力インターフェース4から出力されてい
る。
出力インターフェース4の後段には、上記の情報に更に
品詞並び情報を使って品詞候補の中から適当な品詞を選
択する機構が接続されるが、この機構は既知の技術のも
のであり、本発明の要旨外であるので説明は省略する。
〔発明の効果〕
以上に説明したように、本発明によれば、(a)  個
々の規則を書く必要なくして未知語の処理が出来る。
Φ)どんな入力に対してもそれなりの品詞選択精度が得
られる。
と言う顕著な効果を奏することが出来る。
【図面の簡単な説明】
第1図は本発明の原理説明図、第2図は本発明の1実施
例のブロック図である。 1・・・未知語の織りが格納されるバッファ、2・・・
ニューラル・ネットワーク3への入力インターフェース
、3・・・逆伝播式ニューラル・ネットワーク、4・・
・ニューラル・ネットワークの出力インターフェース、
5・・・ニューラル・ネットワーク3からの出力である
品詞候補および候補品詞の確率、6・・・品詞並び情報
、7・・・品詞選択部、8・・・最終的に選択された品
詞。

Claims (1)

  1. 【特許請求の範囲】 入力された未知語の綴りを格納するバッファ(1)と、 上記の未知語の綴りの情報をニューラル・ネットワーク
    (3)の入力に適した形に変換する入力インターフェー
    ス部(2)と、 入力された綴りの情報から品詞の推定をする逆伝播式ニ
    ューラル・ネットワーク(3)と、ニューラル・ネット
    ワーク(3)の出力を品詞候補およびそれらの確率情報
    に変換する出力インターフェース部(4)と を備えたことを特徴とする未知語の品詞選択装置。
JP2063577A 1990-03-14 1990-03-14 未知語の品詞選択装置 Pending JPH03263266A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2063577A JPH03263266A (ja) 1990-03-14 1990-03-14 未知語の品詞選択装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2063577A JPH03263266A (ja) 1990-03-14 1990-03-14 未知語の品詞選択装置

Publications (1)

Publication Number Publication Date
JPH03263266A true JPH03263266A (ja) 1991-11-22

Family

ID=13233254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2063577A Pending JPH03263266A (ja) 1990-03-14 1990-03-14 未知語の品詞選択装置

Country Status (1)

Country Link
JP (1) JPH03263266A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167938A (ja) * 2016-03-17 2017-09-21 株式会社東芝 学習装置、学習方法及びプログラム
US10878188B2 (en) 2016-03-18 2020-12-29 Google Llc Generating dependency parses of text segments using neural networks

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167938A (ja) * 2016-03-17 2017-09-21 株式会社東芝 学習装置、学習方法及びプログラム
US10878188B2 (en) 2016-03-18 2020-12-29 Google Llc Generating dependency parses of text segments using neural networks

Similar Documents

Publication Publication Date Title
US11409945B2 (en) Natural language processing using context-specific word vectors
US5479563A (en) Boundary extracting system from a sentence
JPH0855122A (ja) 文脈タガー
JP2019191900A (ja) 言語特徴の抽出装置、固有表現の抽出装置、抽出方法、及びプログラム
Martin Grammatical Structure: What do we mean?
KR20170108693A (ko) 입출력 회로를 가지는 계층적 신경망 구조의 언어모델 장치
KR102109858B1 (ko) 자모 및 음절 임베딩 결합을 이용하는 한국어 형태소 분석을 위한 장치 및 방법
Alashqar A comparative study on Arabic POS tagging using Quran corpus
JPH03263266A (ja) 未知語の品詞選択装置
Garay-Vitoria et al. A comparison of prediction techniques to enhance the communication rate
KR100202292B1 (ko) 한문어 문서 음성 변환 시스템을 위한 문서 분석기
CN115659958B (zh) 一种中文拼写错误检查方法
Teubert The Zhuangzi, hermeneutics and (philological) corpus linguistics
Abd Alhadi et al. Automatic Identification of Rhetorical Elements in classical Arabic Poetry.
Elenius Comparing a connectionist and a rule based model for assigning parts-of-speech
CN115437511B (zh) 一种拼音汉字转换方法、转换模型训练方法及存储介质
US20240160839A1 (en) Language correction system, method therefor, and language correction model learning method of system
Fahad et al. An Approach towards Implementation of Active and Passive voice using LL (1) Parsing
CN105892713A (zh) 汉语拼音字
Bucciarelli et al. Rhetorical analysis techniques in Dante Alighieri's Divine Comedy
Nakano Using Neural Network Models for Diacritics Restoration in Māori
TW202407576A (zh) 使用信艾普模型單元之自然語言處理系統以及方法
Levelt On learnability: a reply to Lasnik and Chomsky
Bilokon Slides: Notation as a tool of thought? LLMs, cognitive biases, and logical fallacies
Meško et al. Checking the writing of commas in Slovak