JP3009636B2 - Spoken language analyzer - Google Patents

Spoken language analyzer

Info

Publication number
JP3009636B2
JP3009636B2 JP9125400A JP12540097A JP3009636B2 JP 3009636 B2 JP3009636 B2 JP 3009636B2 JP 9125400 A JP9125400 A JP 9125400A JP 12540097 A JP12540097 A JP 12540097A JP 3009636 B2 JP3009636 B2 JP 3009636B2
Authority
JP
Japan
Prior art keywords
partial
tree
dependency
likelihood
syntax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP9125400A
Other languages
Japanese (ja)
Other versions
JPH1097535A (en
Inventor
寿幸 竹澤
直哉 荒川
逞 森元
Original Assignee
株式会社エイ・ティ・アール音声翻訳通信研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール音声翻訳通信研究所 filed Critical 株式会社エイ・ティ・アール音声翻訳通信研究所
Priority to JP9125400A priority Critical patent/JP3009636B2/en
Publication of JPH1097535A publication Critical patent/JPH1097535A/en
Application granted granted Critical
Publication of JP3009636B2 publication Critical patent/JP3009636B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自動口述筆記装
置、人間とコンピュータが対話する対話システム、自動
翻訳システムなどに用いられる音声言語解析装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic dictation and writing device, a dialogue system in which humans interact with a computer, a speech language analyzer used in an automatic translation system, and the like.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】音声認
識部が音声認識結果を文単位の形態素列として言語解析
部に出力し、言語解析部が単一化文法で解析する音声言
語翻訳システム(以下、第1の従来例という。)が、文
献1「竹沢寿幸ほか,“ATR音声言語翻訳実験システ
ムASURA”,情報処理学会第46回全国大会,6B
−5,1993年3月」において開示されている。しか
しながら、この第1の従来例においては、音声認識部は
音声認識結果を文単位の形態素列として言語解析部に出
力しているために、音声認識部と言語解析部で構文解析
が二度行われ効率が悪い。さらに、言語解析部で統計的
な選好をとりいれていないこととあいまって、非文法的
な発話に対して頑健でないという問題点があった。
2. Description of the Related Art A speech language translation system in which a speech recognition unit outputs a speech recognition result to a language analysis unit as a morpheme sequence in sentence units, and the language analysis unit analyzes with a unified grammar ( Hereinafter, this will be referred to as a first conventional example.) Reference 1 “Toshizawa Toshiyuki et al.,“ ATR Speech Language Translation Experiment System ASURA ”, IPSJ 46th Annual Convention, 6B
-5, March 1993 ". However, in the first conventional example, since the speech recognition unit outputs the speech recognition result to the language analysis unit as a morpheme sequence in sentence units, syntax analysis is performed twice by the speech recognition unit and the language analysis unit. We are inefficient. Further, there is a problem that the language analysis unit is not robust against nongrammatical utterances, in combination with the fact that statistical preferences are not taken into account.

【0003】話し言葉の機械処理においては、非文法的
な表現、言いよどみなどの「非流暢性」(disfluency)
のために通常の句構造解析が失敗することがしばしばあ
る。こうした「流暢でない」発話でも、もしそれらが意
味的に解釈可能であれば、解析できるような頑健な構文
及び意味解析過程の実現が望まれる。ここで「非流暢
性」には、言い直し、「あのー」や「えーと」などの間
投詞の挿入、助詞などの省略といった現象がある。これ
らの現象の分析については、例えば、文献2「伝康晴,
“話し言葉における非文法的現象とその機械処理”,人
工知能学会研究会資料,SIG−SLUD−9503,
1996年」において開示されている。
[0003] In machine processing of spoken words, "disfluency" such as non-grammatical expression and slangness
Often causes normal phrase structure analysis to fail. It is desirable to realize a robust syntax and semantic analysis process that can analyze even such "non-fluent" utterances if they can be interpreted semantically. Here, "disfluency" has the phenomenon of rephrasing, inserting interjections such as "ano" and "erto", and omitting particles. For an analysis of these phenomena, see, for example, Reference 2, “Den Yasuharu,
"Ungrammatical phenomena in spoken language and its mechanical processing", SIG-SLUD-9503, SIG-SLUD-9503
1996 ".

【0004】近年、音声認識と句構造解析を統合して音
声認識率の向上を図ることが試みられているが、句構造
解析を音声入力に施す場合、発話の「非流暢性」や文末
の不明確さなどから発話を文よりも短い単位で句構造解
析することがよい場合がある。文献3「竹澤寿幸ほか,
“自然発話の言語現象と音声認識用日本語文法”,情報
処理学会音声言語情報処理研究会資料,6−5,199
5年」は、自然な発話中にあらわれる短いポーズで区切
られた区間が文脈自由文法で記述可能である場合が多い
ことを報告している。このような文より小さい発話単位
の句構造は文より小さい単位の木構造、すなわち部分構
文木(以下、部分木という。)となる。これらの部分木
を併合して文の解析結果を得ることができれば、音声認
識から文の解析まで統合した形の音声言語処理を実現で
き、また計算資源の経済という点からも有利である。
[0004] In recent years, attempts have been made to improve the speech recognition rate by integrating speech recognition and phrase structure analysis. In some cases, it is better to analyze the utterance in units shorter than the sentence due to uncertainty or the like. Literature 3 “Toshizawa Toshiyuki et al.
"Language Phenomena of Natural Utterances and Japanese Grammar for Speech Recognition", IPSJ Spoken Language Processing Research Group, 6-5, 199
"Five years" reports that sections separated by short pauses appearing in natural utterances can often be described using context-free grammar. Such a phrase structure of a speech unit smaller than a sentence becomes a tree structure of a unit smaller than a sentence, that is, a partial syntax tree (hereinafter, referred to as a partial tree). If the result of sentence analysis can be obtained by merging these subtrees, it is possible to realize integrated speech language processing from speech recognition to sentence analysis, and it is also advantageous from the viewpoint of economy of computational resources.

【0005】本発明の目的は以上の問題点を解決し、構
文的制約を満足していない発話の認識及び、構文及び意
味解析を、頑健に、かつ効率良く行う音声言語解析装置
を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above problems and to provide a speech and language analysis apparatus that performs robust and efficient speech recognition and syntax and semantic analysis that do not satisfy syntactic constraints. It is in.

【0006】[0006]

【課題を解決するための手段】本発明に係る請求項1記
載の音声言語解析装置は、入力された発話音声に基づい
て、部分発話毎に形態素解析及び所定の構文規則を参照
した構文解析を行うことにより、部分構文木を出力する
音声認識手段と、部分構文木の接続に関する制約と、所
定のコーパスから得られた各部分構文木が別の単語に係
るときの依存確率とに基づいて、上記音声認識手段から
出力される部分構文木を併合して、構文及び意味解析結
果を出力する部分木併合処理手段とを備えたことを特徴
とする。
According to a first aspect of the present invention, there is provided a speech language analyzing apparatus for performing a morphological analysis and a syntax analysis with reference to a predetermined syntax rule for each partial utterance based on an input utterance voice. By performing, based on the speech recognition means to output the partial syntax tree, the restrictions on the connection of the partial syntax tree, and the dependency probability when each partial syntax tree obtained from a predetermined corpus relates to another word, A partial tree merging processing unit that merges the partial syntax trees output from the speech recognition unit and outputs a syntax and a semantic analysis result.

【0007】また、請求項2記載の音声言語解析装置
は、請求項1記載の音声言語解析装置において、上記部
分木併合処理手段は、所定のコーパスから得られた、各
部分構文木が別の単語に係るときの依存確率に基づい
て、各部分構文木と後続する複数の部分構文木中のすべ
ての単語の組み合わせに対する依存尤度を計算する計算
手段と、上記計算手段によって計算されたすべての部分
構文木と単語の組み合わせに対する依存尤度を、記憶装
置上で依存尤度が大きい順序で並べ換えて上記記憶装置
に記憶する並べ換え手段と、上記並べ換え手段によって
並べ換えられた部分構文木と単語の組み合わせのうち、
最大の依存尤度を有する部分構文木と単語の組み合わせ
に対して、係り先の単語が用言である場合用言に用言に
係り得る格が予め決定されかつ同一の複数の格が同一の
用言に係り得ないという部分構文木の接続に関する制約
に基づいて、係り得るか否かの判定を行い、上記制約を
満たして係り得る部分構文木と単語の組み合わせを併合
する併合手段とを備えたことを特徴とする。
According to a second aspect of the present invention, in the speech language analyzing apparatus of the first aspect, the partial tree merging processing means is arranged such that each partial syntax tree obtained from a predetermined corpus has a different syntax. Calculating means for calculating the likelihood of dependence on all combinations of words in each partial syntax tree and a plurality of subsequent partial syntax trees based on the dependency probabilities when the words are involved; and A reordering unit that reorders the likelihood of the combination of the partial syntax tree and the word on the storage device in the order of the large likelihood of dependency and stores the reordered likelihood in the storage device; Of which
For the combination of the partial parse tree and the word having the maximum likelihood of dependency, if the target word is a declinable case, the case that can be related to the declinable word is determined in advance and the same plural cases are the same. Merging means for judging whether or not the partial syntax tree can be related based on the constraint on the connection of the partial syntax tree that cannot be related to the verb, and merging the combination of the partial syntax tree and the word which can be related while satisfying the above constraint. It is characterized by having.

【0008】さらに、請求項3記載の音声言語解析装置
は、請求項2記載の音声言語解析装置において、上記依
存確率は、上記コーパスに基づいて得られた、処理対象
の部分構文木が係り先の単語に係り得る統計的確率と、
上記コーパスに基づいて得られた、処理対象の部分構文
木と係り先の単語との相互の位置関係に依存した尤度
と、上記コーパスに基づいて得られた、処理対象の部分
構文木の後に文末が来る文末確率との積で表されること
を特徴とする。
Further, in the speech language analysis apparatus according to the third aspect, in the speech language analysis apparatus according to the second aspect, the dependency probability is obtained by modifying a partial syntax tree to be processed obtained based on the corpus. Statistical probabilities that can be associated with the word
After the likelihood depending on the mutual positional relationship between the partial syntax tree to be processed and the word of interest obtained based on the corpus, and the partial syntax tree to be processed obtained based on the corpus, It is characterized by being expressed as a product of the sentence end probability and the sentence end probability.

【0009】[0009]

【発明の実施の形態】以下、図面を参照して本発明に係
る実施形態について説明する。自然な話し言葉を対象に
通常の句構造解析を行なおうとすると、非文法的な表現
に対しては全体の構造が得られず、しばしば断片的な部
分木構造の集まりを得る。本発明に係る実施形態では、
これらの部分木構造を併合して、文全体の構造解析を与
える音声言語解析装置について説明する。ここで、頑健
な併合処理を実現するために統計的方法を用いた。その
ための統計データは旅行会話コーパスから得た。本実施
形態では、併合方法について詳細後述するとともに、文
節単位に分解された木構造データベースを本方法に基づ
いて再構成する実験結果について述べる。本実施形態で
は、併合方法について詳細を後述する。
Embodiments of the present invention will be described below with reference to the drawings. When trying to perform ordinary phrase structure analysis on natural spoken words, the entire structure cannot be obtained for non-grammatical expressions, and often a fragmentary group of subtrees is obtained. In the embodiment according to the present invention,
A speech language analysis apparatus that combines these subtree structures and analyzes the structure of the entire sentence will be described. Here, a statistical method was used to realize a robust merging process. The statistical data for this was obtained from the travel conversation corpus. In the present embodiment, the merging method will be described in detail later, and an experimental result of reconstructing a tree structure database decomposed in units of clauses based on the present method will be described. In the present embodiment, the details of the merging method will be described later.

【0010】本発明に係る実施形態は、通常の句構造解
析による処理が困難であるような話し言葉の言語現象を
統計的に解析する方法を用いた音声言語解析装置であ
る。例えば、自然な話し言葉を機械で処理しようとする
場合、非文法的な表現、言いよどみなどのために通常の
句構造解析は文全体の解析結果をもたらさないことがあ
る。このような場合でも、句構造解析の結果として、発
話入力中の形態素、文節、句、節などを要素とする木構
造を得ることができる。複数のこのような木構造が意味
上1つの文を構成する(あるいは1つの述語に支配され
る)と考えられる場合、それらを併合して処理できれ
ば、意味の解析あるいは翻訳処理に役立つ。この論文で
部分木とは、このような文より小さい単位の木構造を指
し、部分木併合とは部分木を併合して文に相当する構造
を作るようなプロセスを指す。このような文より小さい
発話単位の句構造は文より小さい単位の木構造、すなわ
ち部分木となり、これらの部分木を併合して文の解析結
果を得ることができれば、音声認識から文の解析まで統
合した形の音声言語処理を実現でき、また計算資源の経
済という点からも有利である。
An embodiment according to the present invention is a speech language analyzing apparatus using a method for statistically analyzing a language phenomenon of a spoken language that is difficult to process by ordinary phrase structure analysis. For example, when trying to process natural spoken language by a machine, ordinary phrase structure analysis may not give the result of analyzing the entire sentence due to non-grammatical expressions, slang, etc. Even in such a case, as a result of the phrase structure analysis, it is possible to obtain a tree structure including morphemes, phrases, phrases, clauses, and the like in the utterance input. When a plurality of such tree structures are considered to constitute one sentence (or are governed by one predicate) in terms of meaning, if they can be combined and processed, it is useful for semantic analysis or translation processing. In this paper, a subtree refers to a tree structure of such a unit smaller than a sentence, and merging subtrees refers to a process of merging subtrees to form a structure equivalent to a sentence. The phrase structure of an utterance unit smaller than a sentence becomes a tree structure of a unit smaller than the sentence, that is, a subtree. If the subtree can be merged to obtain a sentence analysis result, from speech recognition to sentence analysis. An integrated form of speech language processing can be realized, and it is also advantageous in terms of economy of computational resources.

【0011】ここで提案する方法においては、句構造解
析が出力する部分木を依存(係り受け)構造に変換した
ものを併合の対象とし、統計的に依存関係を持つ可能性
の高い部分木同士を併合する。各部分木と、それが依存
可能な他の部分木中の表現との間の依存確率を依存構造
解析を施したコーパスから抽出して、併合のための選好
情報として用いる。また、それらの部分木の相互位置
や、文末が想定される位置なども依存尤度を計算するた
めに用いる。
In the method proposed here, the partial tree output by the phrase structure analysis is converted into a dependent (dependency) structure, and the result is merged. Is merged. A dependency probability between each subtree and an expression in another subtree on which the subtree can depend is extracted from a corpus subjected to dependency structure analysis, and is used as preference information for merging. In addition, mutual positions of these subtrees, positions where sentence endings are assumed, and the like are also used to calculate the likelihood of dependence.

【0012】図1は、本発明に係る一実施形態である音
声言語解析装置の構成を示すブロック図である。図1に
おいて、発話音声はマイクロホン10に入力されて、音
声信号に変換された後、音声認識部1に入力される。音
声認識部1は、入力される音声信号に対して、例えばL
PC分析などの音声分析を実行して例えばケプストラム
係数や対数パワーなどの音響的特徴パラメータを抽出し
た後、当該音響的特徴パラメータに基づいて、例えば音
素HMM(音素隠れマルコフモデル)を用いて発話音声
に対応する音素列を音声認識する。さらに、音声認識部
1は、音声認識部1は、音声認識された音素列に基づい
て、部分発話毎に、形態素解析及び、例えば語彙と文法
規則を予め記憶する構文規則メモリ20内の構文規則を
参照した構文解析を行うことにより、部分発話毎に部分
構文木を出力する。
FIG. 1 is a block diagram showing a configuration of a speech language analyzer according to an embodiment of the present invention. In FIG. 1, an uttered voice is input to a microphone 10, converted into a voice signal, and then input to a voice recognition unit 1. The speech recognition unit 1 outputs, for example, L
After performing acoustic analysis such as PC analysis to extract acoustic feature parameters such as cepstrum coefficients and logarithmic power, based on the acoustic feature parameters, for example, an uttered speech using a phoneme HMM (phoneme hidden Markov model). To recognize the phoneme sequence corresponding to. Furthermore, the speech recognition unit 1 performs a morphological analysis and a syntax rule in a syntax rule memory 20 that stores, for example, vocabulary and grammatical rules in advance for each partial utterance based on the phoneme string recognized by the speech. , A partial parse tree is output for each partial utterance.

【0013】音声認識部1における部分木の出力は次の
ように行う。音素列のLRパージングにおいて還元(re
duce)処理を施した結果、受理(accept)に至らない候
補であっても、次の条件を満たすものは部分解リストに
つないで残しておく。 (条件1)シンボル系列すべてが還元処理されている。 (条件2)文法経歴が、同じシンボル系列が還元処理さ
れている別の部分解の文法経歴の部分集合ではない。 条件1は最低1つの単語(形態素)とならないかぎり部
分木として残さないことを意味する。条件2は、
The output of the subtree in the speech recognition unit 1 is performed as follows. Reduction in LR parsing of phoneme sequences (re
As a result of performing the duce) process, even if the candidate does not reach the acceptance, the candidate that satisfies the following conditions is left connected to the partial solution list. (Condition 1) All symbol sequences are subjected to reduction processing. (Condition 2) The grammar history is not a subset of the grammar history of another partial decomposition in which the same symbol series is subjected to reduction processing. Condition 1 means that a subtree is not left unless it is at least one word (morpheme). Condition 2 is

【数1】(<副詞句> −> <副詞>) のような構文規則により多くの似た候補が残ることを避
けるためのものである。部分解リストに登録された複数
の解(部分木)は、ビーム探索により枝刈り(prunin
g)されないがぎり、認識結果候補として出力される。
This is for avoiding that many similar candidates remain due to a syntax rule such as [Expression 1] (<adverb phrase>-><adverb>). A plurality of solutions (subtrees) registered in the partial solution list are pruned (prunin) by beam search.
g) Unless otherwise performed, it is output as a recognition result candidate.

【0014】次いで、部分木併合処理部2は、部分構文
木の接続に関する制約と、所定のコーパスから得られた
各部分木が別の単語に係るときの依存確率とに基づい
て、上記音声認識部1から出力される部分構文木を併合
して、構文及び意味解析結果を出力する。ここで、部分
木併合処理部2においては、所定のコーパスから得られ
た、各部分木が別の単語に係るときの依存確率に基づい
て、各部分木と後続する複数の部分木中のすべての単語
の組み合わせに対する依存尤度を計算し、上記計算され
たすべての部分木と単語の組み合わせに対する依存尤度
を、並べかえメモリ42上で依存尤度が大きい順序で並
べ換えて記憶し、並べ換えられた部分木と単語の組み合
わせのうち、最大の依存尤度を有する部分木と単語の組
み合わせに対して、係り先の単語が用言である場合用言
に用言に係り得る格が予め決定されかつ同一の複数の格
が同一の用言に係り得ないという部分木の接続に関する
制約に基づいて、係り得るか否かの判定を行い、上記制
約を満たして係り得る部分木と単語の組み合わせを併合
する。また、上記依存確率は、好ましくは、上記コーパ
スに基づいて得られた、処理対象の部分木が係り先の単
語に係り得る統計的確率と、上記コーパスに基づいて得
られた、処理対象の部分木と係り先の単語との相互の位
置関係に依存した尤度と、上記コーパスに基づいて得ら
れた、処理対象の部分木の後に文末が来る文末確率との
積で表される。
Next, the partial tree merging processing unit 2 performs the above-described speech recognition based on the restriction on the connection of the partial syntax tree and the dependency probability when each partial tree obtained from a predetermined corpus relates to another word. The partial syntax trees output from the unit 1 are merged to output a syntax and semantic analysis result. Here, in the subtree merging processing unit 2, all subtrees and a plurality of subsequent subtrees are obtained based on the dependency probability obtained when the subtrees relate to different words, obtained from a predetermined corpus. Is calculated, and the likelihoods for all the calculated subtrees and word combinations are rearranged in the order of the likelihood of dependence on the reordering memory 42 and stored. For the combination of the subtree and the word having the maximum likelihood of the combination of the subtree and the word, the case that can be related to the declinable word is determined in advance when the target word is a declinable word; Based on the restriction on the connection of subtrees that the same multiple cases cannot be related to the same declinable word, it is determined whether or not they can be related, and the combination of subtrees and words that can be related to satisfy the above restrictions is merged. Do In addition, the dependency probability is preferably a statistical probability obtained based on the corpus, in which a subtree to be processed can be related to a word of a destination, and a part to be processed obtained based on the corpus. It is expressed as the product of the likelihood depending on the mutual positional relationship between the tree and the word at the destination, and the sentence end probability obtained based on the corpus and which comes after the subtree to be processed.

【0015】図2に、図1の音声言語解析装置の動作例
を示す。図2に示すように、音声認識部1によって、入
力された発話音声は、部分構文木群((1)〜(3))
に変換された後、当該部分構文木群が部分木併合処理部
2によって、構文及び意味解析結果に変換される。この
図で、矢印で連結されている部分が1つの木(部分木)
であるが、部分構文木(1)及び(2)のように1単語
で1部分構文木を構成するものもあれば、部分構文木
(3)のように2文節で1部分構文木を構成するものも
ある。
FIG. 2 shows an example of the operation of the speech language analyzer of FIG. As shown in FIG. 2, the uttered speech input by the speech recognition unit 1 is a partial syntax tree group ((1) to (3)).
After that, the partial syntax tree group is converted by the partial tree merge processing unit 2 into a syntax and semantic analysis result. In this figure, the part connected by the arrow is one tree (partial tree)
In some cases, one partial syntax tree is composed of one word, such as partial syntax trees (1) and (2), and one partial syntax tree is composed of two clauses, such as partial syntax tree (3) Some do.

【0016】本実施形態の音声言語解析装置において、
音声認識部1と、部分木併合処理部2とは、例えばデジ
タル計算機によって構成され、構文規則メモリ20は、
例えばハードディスクメモリによって構成される。な
お、当該実施形態において、前終端記号バイグラムや句
構造規則のバイグラムや部分構文木間の依存尤度などを
表わす統計情報を選好情報として用いてもよい。ここ
で、「句構造規則のバイグラム」については、文献4
「K.Kita al.,“Continuously Spoken Sentence Recogn
ition by HMM-LR",ICSLP-92,pp.305-308,1992年」にお
いて開示されている。
In the speech language analyzer of the present embodiment,
The speech recognition unit 1 and the subtree merging processing unit 2 are configured by, for example, a digital computer.
For example, it is constituted by a hard disk memory. In this embodiment, statistical information indicating the preterminal symbol bigram, the bigram of the phrase structure rule, the dependency likelihood between partial syntax trees, and the like may be used as the preference information. Here, regarding “bigram of phrase structure rule”, reference 4
“K. Kita al.,“ Continuously Spoken Sentence Recogn
ICS by HMM-LR ", ICSLP-92, pp. 305-308, 1992".

【0017】次いで、音声認識部1の処理の実施形態に
ついて述べる。当該実施形態において、音声認識部1
は、部分木、言い換えれば部分解を出力するための構文
解析手法としてLR構文解析法を用いる。表1に、この
手法のための文法の記述例を示す。表1に示す文法は
「節」を単位として文法を記述している。
Next, an embodiment of the processing of the voice recognition unit 1 will be described. In this embodiment, the voice recognition unit 1
Uses LR parsing as a parsing method for outputting a subtree, in other words, a partial decomposition. Table 1 shows a description example of a grammar for this method. The grammar shown in Table 1 describes the grammar in units of “sections”.

【0018】[0018]

【表1】 文法の記述例 ─────────────────────────────────── (<start> <−−> (<節>)) (<節> <−−> (<述語>)) (<節> <−−> (<後置詞句>)) (<節> <−−> (<副詞句>)) (<節> <−−> (<連体修飾句>)) (<節> <−−> (<名詞>)) (<節> <−−> (<数詞>)) (<節> <−−> (<複合語>)) (<節> <−−> (<感動詞>)) (<節> <−−> (<間投詞>)) (<述語> <−−> (<動詞句>)) (<述語> <−−> (<動詞>)) (<動詞> <−−> (<サ変名詞> <補助動詞>)) (<動詞句> <−−> (<動詞> <助動詞>)) (<後置詞句> <−−> (<名詞> <助詞>)) (<副詞句> <−−> (<副詞>)) (<名詞> <−−> (<複合語>)) (<副詞> <−−> (i m a)) ;; 今 (<名詞> <−−> (ny uu y oo k u sh i t i h o t e r u)) ;; ニューヨークシティホテル (<複合語> <−−> (r o Q py a k u n i g oo sh i ts u)) ;; 六百二号室 (<助詞> <−−> (n i)) ;; に (<サ変名詞> <−−> (t a i z a i)) ;; 滞在 (<補助動詞> <−−> (sh i)) ;; し (<助動詞> <−−> (t e i m a s u)) ;; ています (<間投詞> <−−> (a n oo)) ;; あのー (<名詞> <−−> (w a t a sh i)) ;; わたし (<名詞> <−−> (s o ch i r a)) ;; そちら (<助詞> <−−> (n o)) ;; の (<名詞> <−−> (s e k i)) ;; せき (<サ変名詞> <−−> (y o y a k u)) ;; よやく (<助動詞> <−−> (t a i N d e s u g a)) ;; たいんですが (<助詞> <−−> (w a)) ;; は (<名詞> <−−> (s u z u k i)) ;; 鈴木 (<助詞> <−−> (t o)) ;; と (<動詞> <−−> (m oo sh i)) ;; 申し (<助動詞> <−−> (m a s u)) ;; ます (<名詞> <−−> (h a N b aa g u)) ;; ハンバーグ (<名詞> <−−> (h a N b aa g aa)) ;; ハンバーガー (<助詞> <−−> (o)) ;; を (<サ変名詞> <−−> (ch uu m o N)) ;; 注文 (<助動詞> <−−> (t a N d e s u)) ;; たんです ───────────────────────────────────[Table 1] Description example of grammar ─────────────────────────────────── (<start> <−− > (<Section>)) (<section> <−−> (<predicate>))) (<section> <−−> (<postposition phrase>))) (<section> <−−> (<adverb phrase> )) (<Clause> <−−> (<noun modifier>)) (<clause> <−−> (<noun>))) (<clause> <−−> (<numeric>)) (<clause> <−−> (<compound>)) (<section> <−−> (<inflection>))) (<section> <−−> (<interjection>))) (<predicate> <−−> (< (Verb phrase))) (<predicate> <−−> (<verb>))) (<verb> <−−> (<sa-variable noun> <auxiliary verb>))) (<verb phrase> <−−> (<verb > <Auxiliary verb>)) (<postposition phrase> <−−> (<noun> <particle>))) (<adverb phrase> <− −> (<Adverb>)) (<noun> <−−> (<compound>))) (<adverb> <−−> (ima));; now (<noun> <−−> (ny uu y oo ku sh itihoteru)) ;; New York City Hotel (<compound> <−−> (ro Q py akunig oo shi ts u)) ;; Room 602 (<particle> <−−> (ni)) , (<Sa-noun> <−−> (taizai)) ;; stay (<auxiliary verb> <−−> (sh i)) ;; shi (<auxiliary verb <−−> (teimasu)) ;; I (<interjection> <−−> (an oo)) ;; Ah (<noun> <−−> (wata sh i)) ;; ; There (<noun> <−−> (no)) ;; no (<noun> <−−> (seki)) ;; cough (<sa variable noun> <−−> (yoyaku)) ;; <Auxiliary verb> <−−> (tai N desuga)) ;; Mostly (<Particle> <−−> (wa)) ;; is (<noun> <−−> (suzuki)) ;; Suzuki ( <Particle> <−−> (to)) ;; and (<verb> <−−> (m oo sh i)) ;; Speaking (<auxiliary verb> <−−> (masu)) ;; Hamburger (<noun> <−−> (ha N b aa g aa)) ;; hamburger (<particle> <−−> (o)) ;; , (<Sa-noun> <−−> (ch uu mo N)) ;; Order (<auxiliary verb > < −− > (ta N desu)) ;; ───────────────────────

【0019】HMM音素認識とLR構文解析手法を組み
合わせたHMM−LR連続音声認識法では、還元処理を
施した結果、文として受理に至る候補のみを保存し、ビ
ーム探索を行なっていた。当該の実施形態では、部分
木、言い換えれば部分解を出力するために、受理に至ら
ない候補であっても、部分解セルリストにつなぐことに
より、処理過程で残しておく。もちろん従来通り受理さ
れた候補も残し、両者をまとめてビーム探索による枝刈
りを実施する。そして、スコアの高いものを認識結果と
して出力する。
In the HMM-LR continuous speech recognition method in which the HMM phoneme recognition and the LR syntax analysis method are combined, as a result of performing a reduction process, only candidates leading to acceptance are stored as sentences and a beam search is performed. In this embodiment, in order to output a partial tree, in other words, a partial solution, even a candidate that has not been accepted is left in the process by connecting it to the partial solution cell list. Of course, the accepted candidates are also left as before, and the two are combined to perform pruning by beam search. Then, the one with the higher score is output as the recognition result.

【0020】ここで、すべての部分解を部分解セルリス
トにつないでしまうと、例えば
Here, if all the partial solutions are linked to the partial solution cell list, for example,

【数2】(<副詞句> <−−> (<副詞>)) という構文規則により多くの似た候補が残ってしまう。
似た部分木の例を表2に示す。
Many similar candidates remain due to the syntax rule of [Expression 2] (<adverb phrase><−−>(<adverb>)).
Table 2 shows an example of a similar subtree.

【0021】[0021]

【表2】 似た部分木の例 ────── 節 │ 副詞句 │ 副詞 │ 今 ────── 副詞句 │ 副詞 │ 今 ────── 副詞 │ 今 ──────[Table 2] Examples of similar subtrees 節 clause │ adverb phrase │ adverb │ now ────── adverb phrase │ adverb │ now ────── adverb │ now ───── ─

【0022】「今」という副詞が副詞句まであがってい
るものとそうでないものがある。このような場合は一番
大きな部分木を保存し、それ以外はその部分部分木と表
現できる。そこで、あるセルの文法履歴が、同じシンボ
ル系列が還元処理されている別のセルの文法履歴の部分
部分木ではない場合に限って、部分解セルリストにつな
ぎ、処理の効率化を図っている。
The adverb "now" goes up to the adverb phrase, and the adverb not. In such a case, the largest partial tree is stored, and the other partial trees can be expressed as the partial tree. Therefore, only when the grammar history of a certain cell is not a partial subtree of the grammar history of another cell in which the same symbol series is subjected to the reduction processing, the grammar history is connected to the partial decomposition cell list to improve the processing efficiency. .

【0023】次いで、部分木併合処理部2の処理の実施
形態について説明する。この実施形態では、入力として
依存構造木(部分木)の列を用いる。従って、本実施形
態では、音声認識部1が構文解析で生成された句構造
(部分)木を依存構造(部分)木に変換する。句構造
(部分)木を依存構造(部分)木に変換するために、句
構造中の文法的なヘッドを決定する規則を利用する。依
存構造においては、部分木の併合は、部分木間の依存関
係を発見することと同値になる。
Next, an embodiment of the processing of the subtree merging processing unit 2 will be described. In this embodiment, a sequence of a dependency structure tree (subtree) is used as an input. Therefore, in the present embodiment, the speech recognition unit 1 converts the phrase structure (sub) tree generated by the syntax analysis into the dependency structure (sub) tree. In order to convert a phrase structure (sub) tree into a dependency structure (sub) tree, rules for determining a grammatical head in the phrase structure are used. In a dependency structure, merging subtrees is equivalent to finding a dependency between subtrees.

【0024】例文「今ニューヨークシティホテル▼六百
二号室に滞在しています」の依存構造を図2(下段)に
示す。依存関係は矢印で示されている。なお、<TLO
C>,<ADJUNCT>,<LOCT>は依存関係の
種類を示すラベルである。
The dependency structure of the example sentence "I am currently staying at Room 602 of New York City Hotel" is shown in FIG. Dependencies are indicated by arrows. Note that <TLO
C>, <ADJUNCT>, and <LOCT> are labels indicating the type of dependency.

【0025】例文「今ニューヨークシティホテル▼六百
二号室に滞在しています」に対応する3つの部分木の依
存構造を図2(上段)に示す。ポーズ区切り「▼」の存
在により、それ以降の部分が、それ以前の部分とは異な
る部分木となっている。また、副詞(「今」)と名詞
(「ニューヨークシティホテル」)を連接する文法規則
が存在しないために「今ニューヨークシティホテル」の
部分は2つの部分木になる。部分木併合により、図2
(上段)には見られない依存関係が作り出され、図2
(下段)に現われる。
FIG. 2 (upper row) shows a dependency structure of three partial trees corresponding to the example sentence "I am currently staying at Room 602 of New York City Hotel". Due to the presence of the pause delimiter “▼”, the subsequent part is a partial tree different from the previous part. Also, since there is no grammatical rule connecting the adverb (“now”) and the noun (“New York City Hotel”), the “now New York City Hotel” part becomes two subtrees. Fig. 2
Dependencies not found in (upper) are created, and Fig. 2
(Lower).

【0026】依存構造木を入力とする部分木併合のため
に、次のようなアルゴリズムを用いることができる。 <ステップSS1>各部分木と後続する部分木(複数)
中のすべての単語との組み合わせに対して依存尤度を計
算する。 <ステップSS2>ステップSS1で依存尤度を計算し
た組み合わせのうち、一定値以上の依存尤度をもつもの
を依存尤度順に並べ、それらを順に併合する。用言の係
り受け併合にあたっては、格フレームのチェックを行
う。
The following algorithm can be used for subtree merging using the dependency structure tree as an input. <Step SS1> Each subtree and subsequent subtrees (plural)
Calculate the dependency likelihood for all the words in the combination. <Step SS2> Among the combinations for which the dependency likelihoods have been calculated in step SS1, those having a dependency likelihood of a certain value or more are arranged in the order of the dependency likelihood, and they are merged in order. At the time of verbal modification and merging, case frames are checked.

【0027】上記のアルゴリズムの動作を以下の例によ
って説明する。このプロセスがどう動くかを例を用いて
見てみよう。 例:「私、ハンバーグを、ハンバーガーを、注文したん
です。」 この文を読点のところで分割したものから作った部分木
を併合することを考える。まず、代名詞の「私」及び
「を」で終わる2つの文節は用言「注文」へ依存すると
いう可能性に対し高い尤度が統計的に与えられる。この
例では言い直しが現われているが、「ハンバーガーを」
と「注文した」が距離的に近いために「ハンバーグを」
と「注文した」より強い依存尤度が与えられ、まず「ハ
ンバーガーを」と「注文した」の併合が行われる。この
併合により「注文した」の「を」格が消費されてしまう
ため「ハンバーグを」が「注文した」に係るという解釈
は格フレームチェックにより却下され「ハンバーグを」
は係り先なしのゴミと判定される。
The operation of the above algorithm will be described with reference to the following example. Let's look at an example of how this process works. Example: "I ordered a hamburger and a hamburger." Consider merging subtrees made from this sentence split at the punctuation mark. First, two clauses ending with the pronouns "I" and "wo" are statistically given a high likelihood of being likely to depend on the word "order". In this example, the restatement appears, but "Hamburgers"
And "ordered" are close in distance, so "hamburger"
, And a stronger likelihood of dependence than "ordered" are given. First, "hamburger" and "ordered" are merged. As a result of this merger, the case of “ordered” was consumed, so the interpretation that “hamburger” was “ordered” was rejected by the case frame check and “hamburger”
Is determined to be garbage without a destination.

【0028】次いで、依存尤度の計算について説明す
る。本実施形態においては、依存尤度は3つの尤度関数
(それぞれ0以上1以下の値を取る)の積とした。以
下、各関数について説明する。
Next, the calculation of the dependency likelihood will be described. In the present embodiment, the dependency likelihood is a product of three likelihood functions (each taking a value of 0 or more and 1 or less). Hereinafter, each function will be described.

【0029】(A)統語的構成による依存関係の統計的
整合性に関する関数 これは一種のバイグラム尤度関数であり、依存元候補の
トップにある文節(あるいは文節より小さな部分構造)
と依存先候補(通常は単語)のノードそれぞれの見出し
及び品詞パターンから、それらが依存関係にある尤度を
返す。ここで、依存先は係り先と同義語であり、依存元
は係り元と同義語である。尤度は、コーパス中で依存候
補対のパターンが依存元候補が先行する形で同一文中に
生起した場合に依存が成立する条件付き確率PRであ
る。この確率PRは依存候補対の依存元及び依存先パタ
ーンをPPとすると次式で表わされる。
(A) Statistical Dependency by Syntactic Structure
Function for consistency which is bigram likelihood function of a kind, clause at the top of the originating candidate (or smaller partial structure than clause)
And the likelihood that they are dependent on each other from the heading and part-of-speech pattern of each node of the dependency destination candidate (usually a word). Here, the dependency destination is a synonym of the dependency destination, and the dependency source is a synonym of the dependency source. The likelihood is a conditional probability PR that a dependency is established when a pattern of a pair of dependent candidates occurs in the same sentence in a corpus in a form in which a candidate of a dependent source precedes. This probability PR is expressed by the following equation, where PP is a source and destination pattern of a dependent candidate pair.

【0030】[0030]

【数3】PR=(PPが実際に依存関係にある回数)/
(PPが同じ文中で依存元パターンが先行する形で現れ
る回数)
[Mathematical formula-see original document] PR = (number of times PP is actually dependent) /
(The number of times the dependent pattern appears earlier in the same sentence)

【0031】この確率値PRは併合処理とは別に統計を
取り、あらかじめテーブルに格納しておいたものを用い
る(詳細後述)。見出し情報は意味情報を含んでいるか
ら、意味と依存の関係も、この方法によりコーパス中に
現われる組み合わせの範囲内であれば捉えることができ
る。尤度テーブル検索の際のパターンマッチングは一種
の最長一致法による。以下に図3の例を用いて説明を試
みる。
The probability value PR is obtained by collecting statistics separately from the merging process and using a value stored in advance in a table (details will be described later). Since the heading information includes semantic information, the relationship between the meaning and the dependency can be grasped within the range of the combination appearing in the corpus by this method. Pattern matching at the time of likelihood table search is based on a kind of longest match method. An explanation will be made below using the example of FIG.

【0032】例:「予約を」が「キャンセル」に依存す
る尤度を所定の尤度データベースから求める。図3の例
では依存候補対のパターンを上段が見出し、下段が品詞
という形で示す。各段階で、パターンが尤度データベー
ス中にあれば、当該尤度データベース中の尤度を用い、
見つからなければ次の段階へ進む。
Example: The likelihood that “reservation” depends on “cancel” is obtained from a predetermined likelihood database. In the example of FIG. 3, the upper row finds the pattern of the dependency candidate pair, and the lower row shows the part of speech. At each stage, if the pattern is in the likelihood database, use the likelihood in the likelihood database,
If not found, proceed to the next step.

【0033】上記確率値PRは、所定のコーパスから、
処理対象の部分木が依存先の単語に係り得る統計的確率
として計算される。
The above-mentioned probability value PR is calculated from a predetermined corpus.
It is calculated as a statistical probability that the subtree to be processed can be related to the dependent word.

【0034】(B)依存先候補の位置に依存した尤度の
関数 依存元候補の部分木及び依存先候補の単語との相互の位
置関係又は依存先候補の文末との位置関係から依存尤度
を計算する。このために学習用テキストデータを含むテ
キストデータベースであるコーパスから次に示すよう
に、依存関係の物理的な距離のヒストグラムを取り利用
する。
(B) of the likelihood depending on the position of the candidate
The dependency likelihood is calculated from the mutual positional relationship between the function dependent source candidate subtree and the dependent candidate word or the positional relationship between the dependent candidate candidate and the sentence end. For this purpose, as shown below, a histogram of the physical distance of the dependency relationship is obtained from a corpus, which is a text database containing the text data for learning, and is used.

【0035】(1)依存先トップノードと依存元の品詞
から、依存関係が常に隣接関係である(例えば助動詞と
動詞との直接依存関係)とヒストグラムにより判断でき
れば、隣接している依存関係候補には尤度1を与え、隣
接していない依存関係候補には尤度0を与える。 (2)上記ヒストグラムから依存関係が隣接しない依存
関係を持つと判断される場合、尤度として指数関数ex
p(−kλd)を用いる。ここで、λは上記ヒストグラ
ムから得られる依存関係の種類に関する平均依存距離の
逆数であり、dは依存関係候補間の距離であり、kは予
め決められた定数である。この尤度設定より近い部分木
同士が優先的に併合される。 (3)感動詞や接続詞など文全体に係る語は、依存構造
解析では文の最後の表現に依存することが多いため、本
実施形態では、接続詞、感動詞などを文末表現に係ると
想定した。よって、それらの語には依存先候補が文末表
現である確率(次項(C)参照。)を依存尤度として与
える。
(1) If it can be determined from the histogram of the dependency destination top node and the part of speech of the dependency source that the dependency relationship is always an adjacent relationship (for example, a direct dependency relationship between an auxiliary verb and a verb), the adjacent dependency candidate is determined. Gives likelihood 1 and gives likelihood 0 to non-adjacent dependency candidates. (2) When it is determined from the histogram that the dependency has a non-adjacent dependency, an exponential function ex is used as the likelihood.
p (−kλd) is used. Here, λ is the reciprocal of the average dependency distance for the type of dependency obtained from the histogram, d is the distance between dependency candidates, and k is a predetermined constant. Subtrees closer to this likelihood setting are preferentially merged. (3) Since words related to the entire sentence, such as inflections and conjunctions, often depend on the last expression of the sentence in dependency structure analysis, in the present embodiment, it is assumed that conjunctions, inflections, and the like are associated with the last sentence expression. . Therefore, the probabilities (see the following section (C)) that the dependence destination candidate is the end-of-sentence expression are given to those words as the dependence likelihood.

【0036】当該依存先候補の位置に依存した尤度は、
所定のコーパスから、処理対象の部分木と依存先の単語
との相互の位置関係に依存した尤度として計算される。
The likelihood depending on the position of the dependency destination candidate is
From a predetermined corpus, the likelihood is calculated as a likelihood depending on the mutual positional relationship between the subtree to be processed and the dependent word.

【0037】(C)文末確率の関数 音声言語処理においては、1人が続けて複数の文を発話
することもあり、文末は常に明確ではない。依存関係は
文末を超えて成り立たないから、文末が依存関係候補の
間にある確率が大きくなると、それらの候補の間の依存
関係尤度はその分小さくなる。従って、文末確率に応じ
た依存尤度は2つの部分木(依存候補対)の間に文末が
来ない確率として定義される。依存元候補と依存先候補
の間に部分木の切れ目がいくつかあるとすると、尤度は
それらの各々の切れ目に文末が来ない確率(1−文末が
来る確率)の積になる。各部分木間に文末が来る文末確
率は、先行する部分木の最後の語の品詞と次の部分木の
最初の語の品詞の関数とし、コーパスから抽出された統
計データを用いて計算する。
(C) Function of Sentence End Probability In speech language processing, one person may speak a plurality of sentences in succession, and the end of a sentence is not always clear. Since the dependency does not hold beyond the end of the sentence, if the probability that the end of the sentence is between the dependency candidates increases, the likelihood of dependency between those candidates decreases accordingly. Therefore, the dependency likelihood according to the sentence end probability is defined as the probability that the end of the sentence does not come between two subtrees (dependent candidate pairs). Assuming that there are some breaks in the subtree between the source candidate and the destination candidate, the likelihood is the product of the probabilities that the end of the sentence does not come at each of those breaks (1−the probability that the end of the sentence comes). The sentence end probability that a sentence end comes between each subtree is calculated as a function of the part of speech of the last word of the preceding subtree and the part of speech of the first word of the next subtree, and using statistical data extracted from the corpus.

【0038】上記文末確率は、所定のコーパスから、処
理対象の部分木の後に文末が来る文末確率として計算さ
れる。
The sentence end probability is calculated as a sentence end probability that a sentence end comes after a subtree to be processed from a predetermined corpus.

【0039】次いで、格フレームチェックについて説明
する。用言(動詞、形容詞)には、係り得る格が決まっ
ていて、さらに同じ格を複数係ることはできないという
制約がある。すなわち、当該制約は、係り先の単語が用
言である場合用言に用言に係り得る格が予め決定されか
つ同一の複数の格が同一の用言に係り得ないということ
である。部分木併合の際にもこれらの制約を考慮するこ
とが望ましい。今回の実験では、コーパス中に出現する
各用言について格助詞「が、を、に」に関する表層格パ
ターンを調査し、併合過程で各用言にそれらの格助詞に
支配される表現が係りうるかどうかをチェックするよう
にした。また、同じ表層格を持つ表現が同じ用言に複数
個係ることを禁止した(この際、係助詞の持つ格の多義
性も考慮した)。その他、受け身、使役、さらに助動詞
「たい」に支配される動詞の格パターンの変化にも考慮
して実験を行った。
Next, the case frame check will be described. The verb (adjective) has a limitation that a case that can be involved is determined, and that the same case cannot be used more than once. In other words, the constraint is that if the word to which the word is related is a declinable word, the case that can be related to the declinable word is determined in advance, and the same plurality of cases cannot be related to the same declinable word. It is desirable to consider these restrictions when merging subtrees. In this experiment, we investigated the surface case pattern of the case particle "ga, wo, ni" for each verb appearing in the corpus, and examined whether the expressions governed by those case particles could be related to each verb in the merging process. I checked it. In addition, it is prohibited that expressions having the same surface case are related to the same verb more than once (at this time, the polysemy of the case of the particle is also taken into consideration). In addition, the experiment was conducted in consideration of passive, causative, and changes in case patterns of verbs governed by the auxiliary verb "tai".

【0040】次いで、コーパスから抽出するデータにつ
いて説明する。上記の併合過程で利用するデータのう
ち、コーパスから抽出するものをまとめると次のように
なる。ここで使用するコーパスは、本出願人が所有する
音声言語データベース(例えば、文献5「T.Morimoto e
t al.,“A Speech and Language Database for SpeechT
ranslation Research",Proceeding of ICSLP '94 pp.17
91-1794,1994年」参照。)(旅行会話:375会話、1
3647文)に依存構造解析を行ったものであるこの依
存構造解析は、人手で検査修正を行った正解である。
Next, data extracted from the corpus will be described. The data extracted from the corpus among the data used in the merging process are summarized as follows. The corpus used here is a speech language database owned by the present applicant (for example, see Reference 5 “T. Morimoto e
t al., “A Speech and Language Database for SpeechT
ranslation Research ", Proceeding of ICSLP '94 pp.17
91-1794, 1994. " ) (Travel conversation: 375 conversations, 1
This dependent structure analysis, which is a result of performing the dependent structure analysis in (3647 sentences), is a correct answer that has been inspected and corrected manually.

【0041】そして、依存構造データベース中のすべて
の依存関係を調べ、依存元パターンと依存先パターンが
同じ文中で依存元パターンが先行する形で現れた場合
に。上記数2を用いて依存関係が成立する確率PRを求
める。依存先パターンは原則的に部分木のノード(=
語)の見出し及び品詞対である。依存元パターンは文節
あるいは文節内構造である。例えば、「私は行く」とい
う表現に対し、依存先パターンとしては(「行く」・動
詞)と(「は」・係助詞)の2つが得られ、依存元パタ
ーンとしては(「は」・係助詞(「私」・代名詞))及
び(「私」・代名詞)の2つが得られる。なお、スパー
スデータ問題を回避するために自立語の見出しをワイル
ドカード「*」で置き換えたものについても統計を取っ
た。
Then, when all the dependencies in the dependency structure database are examined, and the dependency source pattern and the dependency destination pattern appear in the same sentence, the dependency source pattern appears earlier. The probability PR that the dependency relationship is established is obtained using the above equation (2). Dependency pattern is basically a node of subtree (=
(Word) heading and part-of-speech pair. The dependency source pattern is a clause or a structure within a clause. For example, in response to the expression "I am going", two patterns ("go" / verb) and ("ha" / particle) are obtained as dependent patterns, and ("ha" / Particles ("I" / pronoun) and ("I" / pronoun) are obtained. In addition, in order to avoid the sparse data problem, statistics were also obtained for those in which the headword of the independent word was replaced with a wildcard “*”.

【0042】さらに、2つの品詞が互いに依存関係にあ
る場合の相互の距離のヒストグラムを求めた。多くの機
能語(例えば助詞)の場合、直前の語にのみ依存を受け
るが、動詞などは係り受けの形で遠距離の依存関係を持
つ。上で述べたように、コーパスから得られた依存距離
の情報は、依存尤度を計算するために用いられる。
Further, a histogram of the mutual distance when the two parts of speech are dependent on each other was obtained. In the case of many functional words (for example, particles), they depend only on the preceding word, but verbs and the like have long-distance dependencies in the form of dependency. As described above, the dependency distance information obtained from the corpus is used to calculate the dependency likelihood.

【0043】ここで、文末モデルは2つの品詞の間に文
末が来る確率をコーパスから求めた。また、コーパス中
に現われる用言が表層格「が」、「を」、「に」を取り
得るかどうかを調べ、併合の際の制約として利用した。
例えば、動詞「会う」は格助詞「が」「を」「に」を取
る。
Here, the sentence ending model obtained the probability that the end of a sentence comes between two parts of speech from the corpus. In addition, we examined whether the words appearing in the corpus could take on the surface cases "ga", "wo", and "ni", and used them as restrictions when merging.
For example, the verb "meet" takes the case particles "ga", "wo", and "ni".

【0044】図4は、図1の部分木併合処理部2の構成
の詳細を示すブロック図である。図4において、部分木
併合処理部2は、併合処理を実行するMPUなどのディ
ジタル計算機である演算制御装置である併合処理コント
ローラ30を備えるとともに、併合処理コントローラ3
0には、(a)併合処理を実行するときに用いる処理メ
モリ31と、(b)依存先候補の位置による尤度の計算
に用いられる距離減衰率テーブル32と、(c)格フレ
ームチェックに用いられる格フレームテーブル33と、
(d)文末確率を計算するために用いられる文末/文
頭、品詞統計ファイル34と、(e)統語的構成による
依存関係の統計的整合性を計算するために用いられる依
存確率テーブル35とが接続される。また、併合処理コ
ントローラ30には、(f)音声認識部1から出力され
る部分構文木の結果を記憶する入力ファイル21と、
(g)併合処理コントローラ30から出力される構文及
び意味解析結果を記憶する出力ファイル22とが接続さ
れる。さらに、処理メモリ31は、部分木メモリ41
と、並べかえメモリ42と、依存尤度メモリ43と、必
須格リストメモリ44とを備える。ここで、処理メモリ
31は例えばハードディスクメモリで構成され、21、
22、32乃至35で示されるこれらのファイル、テー
ブル及びファイルは例えばハードディスクメモリなどの
記憶装置に記憶される。
FIG. 4 is a block diagram showing details of the configuration of the subtree merging unit 2 of FIG. In FIG. 4, the subtree merge processing unit 2 includes a merge processing controller 30 which is an arithmetic and control unit which is a digital computer such as an MPU that executes the merge processing.
0, (a) a processing memory 31 used for executing the merging process, (b) a distance attenuation rate table 32 used for calculating likelihood based on the position of the dependence destination candidate, and (c) a case frame check. Case frame table 33 used;
(D) End-of-sentence / start-of-sentence and part-of-speech statistical file 34 used for calculating end-of-sentence probability and (e) Dependency probability table 35 used for calculating statistical consistency of dependency by syntactic composition Is done. In addition, the merge processing controller 30 includes (f) an input file 21 for storing the result of the partial syntax tree output from the speech recognition unit 1,
(G) An output file 22 that stores the syntax and semantic analysis results output from the merge processing controller 30 is connected. Further, the processing memory 31 includes a partial tree memory 41
, A rearrangement memory 42, a dependency likelihood memory 43, and a mandatory case list memory 44. Here, the processing memory 31 is composed of, for example, a hard disk memory,
These files, tables and files indicated by 22, 32 to 35 are stored in a storage device such as a hard disk memory.

【0045】さらに、図4の部分木併合処理部2内の各
テーブル及びファイルのレコード形式とレコード例を示
す。依存先候補の位置による尤度の計算に用いられる距
離減衰率テーブル32を表3に示し、格フレームチェッ
クに用いられる格フレームテーブル33を表4に示す。
また、文末確率を計算するために用いられる文末/文
頭、品詞統計ファイル34を表5に示し、統語的構成に
よる依存関係の統計的整合性を計算するために用いられ
る依存確率テーブル35を表6に示す。これらの各テー
ブル及びファイルは、本特許出願人が所有する旅行会話
のデータベースのコーパスに基づいて所定の文法的解析
を行うことにより得られたものであって、所定の依存関
係解析木の形式で記述された文法的解析データである。
Further, the record format and record example of each table and file in the subtree merge processing unit 2 of FIG. 4 are shown. Table 3 shows the distance attenuation rate table 32 used for calculating the likelihood based on the position of the dependence destination candidate, and Table 4 shows the case frame table 33 used for the case frame check.
Table 5 shows the sentence end / sentence head and part-of-speech statistical file 34 used for calculating the sentence end probability, and Table 6 shows a dependency probability table 35 used for calculating the statistical consistency of the dependency relationship based on the syntactic structure. Shown in These tables and files are obtained by performing a predetermined grammatical analysis based on a corpus of a database of travel conversations owned by the present applicant, and are in the form of a predetermined dependency analysis tree. This is the grammatical analysis data described.

【0046】[0046]

【表3】 距離減衰率テーブル ─────────────────────────── レコード形式 ::= (依存品詞 被依存品詞 平均依存距離) ─────────────────────────── レコード例: (<人名> <連体助詞> 0) (<副詞> <サ変名詞> 396/287) (<接続詞> <補助動詞語幹> 412/51) (<接続助詞> <本動詞> 657/260) (<係助詞> <本動詞> 1347/664) (<格助詞> <本動詞> 6028/7099) ───────────────────────────[Table 3] Distance attenuation table ─────────────────────────── Record format :: = (Dependent part of speech Dependent part of speech Average dependent distance) ─────────────────────────── Record example: (<person name> <adjunct particle> 0) (<adverb> <savari noun> 396 / 287) (<conjunction> <auxiliary verb stem> 412/51) (<conjunction particle> <main verb> 657/260) (<conjunction particle> <main verb> 1347/664) (<case particle> <main verb> (6028/7099) ───────────────────────────

【0047】[0047]

【表4】 格フレームテーブル ─────────────────────────────────── レコード形式 ::= (単語 格フレーム群) 単語 ::= (見出し 品詞) 格フレーム群 ::= ('格フレーム群 (格フレーム*)) 格フレーム ::= ('格フレーム (格スロット*)) 格スロット ::= (格助詞 {+, -}) ─────────────────────────────────── レコード例: ((放送 <サ変名詞>) (格フレーム群 ((格フレーム ((が -)))))) ((一泊 <サ変名詞>) (格フレーム群 ((格フレーム ((が -) (に -)))))) ((払 <本動詞>) (格フレーム群 ((格フレーム ((が -) (を -))) (格フレーム ((が -) (に -)))))) ((控え <本動詞>) (格フレーム群 ((格フレーム ((が -) (に -)))))) ((飾 <本動詞>) (格フレーム群 ((格フレーム ((が -) (を -)))))) ───────────────────────────────────[Table 4] Case frame table ─────────────────────────────────── Record format :: = (word case Frames) words :: = (headline part of speech) case frames :: = ('case frames (case frames *)) case frames :: = (' case frames (case slots *)) case slots :: = (case Particle {+,-}) ─────────────────────────────────── Record example: ((broadcast <sa-change Noun>) (case frame group ((case frame ((ga-))))))) ((overnight <sa inflection noun>) (case frame group ((case frame ((ga-) (ni-))))) ) ((Pay <Main verb>) (Case frame group ((Case frame ((GA-) (A--)))) (Case frame ((GA-) (NI-))))))))) Verb>) (case frame group ((case frame ((ga-) (ni-)))))))) ((decoration <main verb>) (case frame group ((case frame ((ga-) (wo-) ))))) ──────────────── ───────────────────

【0048】[0048]

【表5】 文末/文頭、品詞統計ファイル ────────────────────────────── レコード形式 ::= (文末品詞 文頭品詞 (文末頻度 全体頻度)) レコード例: (終助詞 本動詞 (71 100)) (普通名詞 間投詞 (3 48)) (人名 普通名詞 (3 23)) (接尾辞 接続詞 (17 53)) (普通名詞 人名 (7 27)) (接続詞 間投詞 (1 209)) (感動詞 住所名 (1 1)) ──────────────────────────────[Table 5] End-of-sentence / beginning-of-sentence, part-of-speech statistical file ────────────────────────────── Record format :: = (sentence-end-of-speech part-of-sentence Part-of-speech (end sentence frequency overall frequency)) Record example: (final particle main verb (71 100)) (common noun interjection (3 48)) (personal common noun (3 23)) (suffix connective (17 53)) (normal Noun Person (7 27)) (Conjunctive Interjection (1 209)) (Inflection Address (1 1)) ───────────────────────── ─────

【0049】[0049]

【表6】 依存確率テーブル ─────────────────────────────────── レコード形式 ::= [['係り受け出現回数 N] ['パターン出現回数 N] ['依存先 [['品詞 品詞] ['見出し 見出し]]] ['依存元 [['ヘッド [['品詞 品詞] ['見出し 見出し]]] ['引数 [['ヘッド [['品詞 品詞] ['見出し 見出し]]]]]]]] ─────────────────────────────────── レコード例: ─────────────────────────────────── [[係り受け出現回数 3] [パターン出現回数 3] [依存先 [[品詞 <補助動詞語幹>] [見出し ございま]]] [依存元 [[ヘッド [[品詞 <助動詞>] [見出し で]]] [引数 [[ヘッド [[品詞 <固有名詞>] [見出し ニューヨークシティホテル]]]]]]]] ─────────────────────────────────── [[係り受け出現回数 14] [パターン出現回数 25] [依存先 [[品詞 <終助詞>] [見出し が]]] [依存元 [[ヘッド [[品詞 <助動詞語幹>] [見出し で]]] [引数 [[ヘッド [[品詞 <準体助詞>] [見出し の]]]]]]]] ─────────────────────────────────── [[係り受け出現回数 10] [パターン出現回数 10] [依存先 [[品詞 <本動詞>] [見出し し]]] [依存元 [[ヘッド [[品詞 <格助詞>] [見出し を]]] [引数 [[ヘッド [[品詞 <サ変名詞>] [見出し 予約]]]]]]]] ───────────────────────────────────[Table 6] Dependency probability table ─────────────────────────────────── Record format :: = [[' Dependency Occurrence N] ['Pattern Occurrence N] [' Depend on [['Speech Part of Speech] [' Heading Heading]]] ' ] ['Argument [[' Head [['Part of speech Part of speech] [' Heading Heading]]]]]]] ──────────────────────── ─────────── Record example: ─────────────────────────────────── [ [Dependency Appearance 3] [Pattern Appearance 3] [Dependent [[part of speech <auxiliary verb stem>] [headline arima]]] [Dependence source [[head [[part of speech <auxiliary verb>]] [heading in]] ] [Argument [[head [[part of speech <proper noun>]] [headline New York City Hotel]]]]]]]] ────────────────── ──────────────── [[Dependent appearances 14] [Pattern appearances 25] [Depends on [[part of speech <final particle>] [heading is]]] [Dependent [[Head [[part of speech <auxiliary verb stem>] [heading in]]]] [argument [[head [[part of speech <quasi-body particle>]] [heading of]]]]]]]] ─────────────────────────── [[Dependency Appearance 10] [Pattern Appearance 10] [Dependency [[Part of speech <Main verb >] [Heading]]] [Dependent Source [[Head [[Part of speech <case particle>]] [Heading wo]]] [Argument [[Head [[Part of speech <Sa-noun>]] [Heading reserved]]]]] ]] ───────────────────────────────────

【0050】図5は、図4の部分木併合処理部によって
実行される1発話単位の併合処理を示すフローチャート
である。図5に示すように、まず、ステップS11にお
いて1発話分の部分木を、音声認識部1からの出力を格
納する入力ファイル21から処理メモリ31内の部分木
メモリ41に読み込む。次いで、ステップS12におい
て、処理対象の部分木に対して、文末/文頭、品詞統計
ファイル34を参照して、各部分木の後に文末が来る文
末確率を計算する。そして、ステップS13において、
各用言について、用言が常に要求する格である必須格の
リストを求めて必須格リストメモリ44に記憶する。さ
らに、ステップS14において、詳細上述したように、
上記のステップSS1のごとく、各部分木と後続する複
数の部分木中のすべての単語の組み合わせに対して依存
尤度を計算して依存尤度メモリ43に記憶し、ステップ
S15において、依存尤度を計算した組み合わせのう
ち、一定値以上の依存尤度を大きい順に並べて並べかえ
メモリ42に記憶する。
FIG. 5 is a flowchart showing the merging processing for one utterance unit executed by the subtree merging processing section of FIG. As shown in FIG. 5, first, in step S11, a partial tree for one utterance is read from the input file 21 storing the output from the speech recognition unit 1 to the partial tree memory 41 in the processing memory 31. Next, in step S12, the sentence end probability that the end of the sentence comes after each subtree is calculated with reference to the sentence end / head of sentence and the part of speech statistics file 34 for the processing target subtree. Then, in step S13,
For each declinable word, a list of mandatory cases that are always required by the declinable word is found and stored in the mandatory case list memory 44. Further, in step S14, as described in detail above,
As in the above step SS1, the dependency likelihood is calculated for the combination of each subtree and all the words in the plurality of succeeding subtrees and stored in the dependency likelihood memory 43. In step S15, the dependency likelihood is calculated. Of the calculated combinations are arranged in ascending order of the likelihood of a certain value or more and stored in the reordering memory 42.

【0051】次いで、ステップS16において、まだ併
合されていない単語の組み合わせがあるか否かが判断さ
れ、あるときはステップS17に進む一方、無いときは
ステップS22に進んで部分木の併合処理結果を出力フ
ァイル22に出力して、当該併合処理を終了する。
Next, in step S16, it is determined whether or not there is a combination of words that have not been merged. If there is, the process proceeds to step S17. The output is output to the output file 22, and the merging process ends.

【0052】ステップS17では、最大尤度を有する組
み合わせは格助詞の用言依存か否かが判断され、依存す
るときはステップS18に進む一方、依存しないときは
ステップS20に進む。ステップS18では、必須格リ
ストメモリ44内の必須格リストを参照して、最大尤度
を有する組み合わせの格フレームをチェックし、上述の
格フレームチェック時の制約を満たすか否かが判断され
る。制約を満たさないときはステップS21に進む一
方、制約を満たすときはステップS19で格助詞の格を
必須格リストメモリ44から削除した後、ステップS2
0に進む。ステップS20では、当該組み合わせを併合
する併合処理を実行して、ステップS16に戻る。ま
た、ステップS21では、当該組み合わせを並べかえメ
モリ42から取り除いた後、ステップS16に戻る。
In step S17, it is determined whether or not the combination having the maximum likelihood depends on the case particle depending on the word. If it depends, the process proceeds to step S18. If not, the process proceeds to step S20. In step S18, the case frame of the combination having the maximum likelihood is checked with reference to the essential case list in the essential case list memory 44, and it is determined whether or not the above-described case frame constraint is satisfied. If the constraint is not satisfied, the process proceeds to step S21. If the constraint is satisfied, the case of the case particle is deleted from the essential case list memory 44 in step S19.
Go to 0. In step S20, a merging process for merging the combinations is performed, and the process returns to step S16. In step S21, after the combination is rearranged and removed from the memory 42, the process returns to step S16.

【0053】以上説明したように、本発明に係る本実施
形態によれば、入力された発話音声に基づいて、部分発
話毎に形態素解析及び所定の構文規則を参照した構文解
析を行うことにより、部分構文木を出力し、次いで、部
分構文木の接続に関する制約と、所定のコーパスから得
られた各部分木が別の単語に係るときの依存確率とに基
づいて、上記出力される部分構文木を併合して、構文及
び意味解析結果を出力する。これにより、構文的制約を
満足していない発話の認識及び、構文及び意味解析を頑
健に行うことができる。また、音声認識手段から部分木
併合処理手段に対して、部分木で受け渡しをするため、
処理効率がよく、従来例に比較して高速で処理すること
ができる。
As described above, according to the present embodiment of the present invention, morphological analysis and syntactic analysis with reference to a predetermined syntactic rule are performed for each partial utterance based on the input utterance voice. Outputting the partial syntax tree, and then based on the constraints on the connection of the partial syntax tree and the dependence probability when each partial tree obtained from a predetermined corpus relates to another word, And outputs the syntax and semantic analysis results. As a result, it is possible to robustly perform the recognition of the utterance that does not satisfy the syntactic constraint and the syntax and semantic analysis. In addition, in order to transfer a partial tree from the speech recognition unit to the partial tree merging unit,
Processing efficiency is good, and processing can be performed at a higher speed than in the conventional example.

【0054】[0054]

【発明の効果】以上詳述したように本発明に係る請求項
1記載の音声言語解析装置においては、入力された発話
音声に基づいて、部分発話毎に形態素解析及び所定の構
文規則を参照した構文解析を行うことにより、部分構文
木を出力する音声認識手段と、部分構文木の接続に関す
る制約と、所定のコーパスから得られた各部分構文木が
別の単語に係るときの依存確率とに基づいて、上記音声
認識手段から出力される部分構文木を併合して、構文及
び意味解析結果を出力する部分木併合処理手段とを備え
る。従って、本発明によれば、構文的制約を満足してい
ない発話の認識及び、構文及び意味解析を頑健に行い、
かつ、音声認識手段から部分木併合処理手段に対して、
部分木で受け渡しをするため、処理効率がよい音声言語
解析装置を提供することができる。
As described in detail above, in the speech language analyzing apparatus according to the first aspect of the present invention, morphological analysis and predetermined syntax rules are referred to for each partial utterance based on the input utterance voice. By performing the syntax analysis, a speech recognition unit that outputs a partial syntax tree, constraints on connection of the partial syntax tree, and a dependency probability when each partial syntax tree obtained from a predetermined corpus relates to another word are obtained. A partial tree merging unit that merges the partial syntax trees output from the speech recognition unit and outputs a syntax and a semantic analysis result. Therefore, according to the present invention, the recognition of utterances that do not satisfy the syntactic constraints and the syntactic and semantic analysis are performed robustly,
And, from the speech recognition means to the subtree merging processing means,
Since the delivery is performed using the subtree, a speech language analysis device with high processing efficiency can be provided.

【0055】また、請求項2記載の音声言語解析装置に
おいては、請求項1記載の音声言語解析装置において、
上記部分木併合処理手段は、所定のコーパスから得られ
た、各部分構文木が別の単語に係るときの依存確率に基
づいて、各部分構文木と後続する複数の部分構文木中の
すべての単語の組み合わせに対する依存尤度を計算する
計算手段と、上記計算手段によって計算されたすべての
部分構文木と単語の組み合わせに対する依存尤度を、記
憶装置上で依存尤度が大きい順序で並べ換えて上記記憶
装置に記憶する並べ換え手段と、上記並べ換え手段によ
って並べ換えられた部分構文木と単語の組み合わせのう
ち、最大の依存尤度を有する部分構文木と単語の組み合
わせに対して、係り先の単語が用言である場合用言に用
言に係り得る格が予め決定されかつ同一の複数の格が同
一の用言に係り得ないという部分構文木の接続に関する
制約に基づいて、係り得るか否かの判定を行い、上記制
約を満たして係り得る部分構文木と単語の組み合わせを
併合する併合手段とを備える。従って、本発明によれ
ば、構文的制約を満足していない発話の認識及び、構文
及び意味解析を頑健に行い、かつ、音声認識手段から部
分木併合処理手段に対して、部分木で受け渡しをするた
め、処理効率がよい音声言語解析装置を提供することが
できる。また、上記部分木併合処理手段の処理を容易に
かつ自動的に効率良く行うことができる。
Further, in the speech language analysis device according to the second aspect, in the speech language analysis device according to the first aspect,
The subtree merging processing means, based on a dependency probability when each partial syntax tree relates to another word, obtained from a predetermined corpus, all the partial syntax trees and all the subsequent partial syntax trees in a plurality of partial syntax trees Calculating means for calculating a likelihood of dependence on a combination of words; and reordering the likelihoods of dependence on all combinations of partial syntax trees and words calculated by the calculating means in the order of the likelihood of dependence on the storage device. The reordering means stored in the storage device and the combination of the partial parse tree and the word having the maximum likelihood of the combination of the partial parse tree and the word rearranged by the reordering means are used by the word of the destination. If the case is a case, the case that can be related to the declinable is determined in advance, and based on the constraint on the connection of the partial parse tree that the same plural cases cannot be related to the same declinable, Ri obtained whether a judgment, and a merging unit for merging the partial parse tree and word combinations obtained relates satisfy the above constraints. Therefore, according to the present invention, recognition of an utterance that does not satisfy the syntactical constraints, robust syntax and semantic analysis, and transfer of the partial tree from the speech recognition unit to the partial tree merging unit are performed. Therefore, it is possible to provide a speech language analysis device with high processing efficiency. Further, the processing of the partial tree merging processing means can be easily and automatically performed efficiently.

【0056】さらに、請求項3記載の音声言語解析装置
においては、請求項1記載の音声言語解析装置におい
て、上記依存確率は、上記コーパスに基づいて得られ
た、処理対象の部分構文木が係り先の単語に係り得る統
計的確率と、上記コーパスに基づいて得られた、処理対
象の部分構文木と係り先の単語との相互の位置関係に依
存した尤度と、上記コーパスに基づいて得られた、処理
対象の部分構文木の後に文末が来る文末確率との積で表
される。従って、本発明によれば、構文的制約を満足し
ていない発話の認識及び、構文及び意味解析を頑健に行
い、かつ、音声認識手段から部分木併合処理手段に対し
て、部分木で受け渡しをするため、処理効率がよい音声
言語解析装置を提供することができる。また、上記部分
木併合処理手段の処理を容易にかつ自動的に効率良く行
うことができる。
Further, in the speech language analysis apparatus according to the third aspect, in the speech language analysis apparatus according to the first aspect, the dependency probability is based on a partial syntax tree to be processed obtained based on the corpus. The statistical probability that can be related to the preceding word, the likelihood that is obtained based on the corpus, and the likelihood that depends on the mutual positional relationship between the partial syntax tree to be processed and the related word, and the likelihood obtained based on the corpus. And the sentence end probability that the sentence end comes after the partial syntax tree to be processed. Therefore, according to the present invention, recognition of an utterance that does not satisfy the syntactical constraints, robust syntax and semantic analysis, and transfer of the partial tree from the speech recognition unit to the partial tree merging unit are performed. Therefore, it is possible to provide a speech language analysis device with high processing efficiency. Further, the processing of the partial tree merging processing means can be easily and automatically performed efficiently.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る一実施形態である音声言語解析
装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a speech language analysis device according to an embodiment of the invention.

【図2】 図1の音声言語解析装置の動作例を示す図で
ある。
FIG. 2 is a diagram illustrating an operation example of the speech language analysis device in FIG. 1;

【図3】 図1の部分木併合処理部における尤度テーブ
ル検索の際のパターンマッチングの処理例を示す図であ
る。
FIG. 3 is a diagram showing an example of pattern matching processing at the time of searching a likelihood table in a subtree merging processing unit in FIG. 1;

【図4】 図1の部分木併合処理部の構成の詳細を示す
ブロック図である。
FIG. 4 is a block diagram illustrating details of a configuration of a subtree merging processing unit in FIG. 1;

【図5】 図4の部分木併合処理部によって実行される
1発話単位の併合処理を示すフローチャートである。
FIG. 5 is a flowchart showing a merging process for one utterance performed by the subtree merging unit of FIG. 4;

【符号の説明】[Explanation of symbols]

1…音声認識部、 2…部分木併合処理部、 10…マイクロホン、 20…構文規則メモリ、 21…入力ファイル、 22…出力ファイル、 30…併合処理コントローラ、 31…処理メモリ、 32…距離減衰率テーブル、 33…格フレームテーブル、 34…文末/文頭、品詞統計ファイル、 35…依存確率テーブル、 41…部分木メモリ、 42…並べかえメモリ、 43…依存尤度メモリ、 44…必須格リストメモリ。 DESCRIPTION OF SYMBOLS 1 ... Speech recognition part, 2 ... Subtree merge processing part, 10 ... Microphone, 20 ... Syntax memory, 21 ... Input file, 22 ... Output file, 30 ... Merge processing controller, 31 ... Processing memory, 32 ... Distance attenuation rate Table, 33: case frame table, 34: sentence end / sentence, part of speech statistics file, 35: dependency probability table, 41: partial tree memory, 42: rearrangement memory, 43: dependency likelihood memory, 44: required case list memory.

フロントページの続き (72)発明者 森元 逞 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール音 声翻訳通信研究所内 (56)参考文献 特開 平1−214973(JP,A) 荒川、外、「統計的手法による部分木 併合」、電子情報通信学会技術研究報 告、1996年5月17日、NLC96−8、 p.47−54 竹澤、外、「部分木を単位とする構文 規則と前終端記号のバイグラムを利用し た連続音声認識」、電子情報通信学会技 術研究報告、1995年、NLC95−54(S P95−89)、p.55−62 田代、外、「音声言語処理のための部 分木併合手法」、情報処理学会研究報 告、1995年、第95巻、第89号(NL− 109)、p.27−32 竹澤、外、「部分木に基づく構文規則 と前終端記号バイグラムを併用する対話 音声認識手法」、電子情報通信学会論文 誌D−▲II▼、1996年12月、Vol. J79−D−▲II▼、No.12、p. 2078−2085 (58)調査した分野(Int.Cl.7,DB名) G06F 17/27 G06F 17/28 G10L 3/00 561 JICSTファイル(JOIS)Continuation of the front page (72) Inventor Tadashi Morimoto 5th Sanriya, Seiya-cho, Soraku-cho, Kyoto, Japan , A) Arakawa, T., "Aggregating Subtrees by Statistical Method," IEICE Technical Report, May 17, 1996, NLC96-8, p. 47-54 Takezawa, et al., "Continuous Speech Recognition Using Syntax Rules and Bigrams of Preterminal Symbols in Subtrees", IEICE Technical Report, 1995, NLC95-54 (SP95- 89), p. 55-62 Tashiro, et al., "A Method of Merging Subtrees for Spoken Language Processing", Information Processing Society of Japan, 1995, Vol. 95, No. 89 (NL-109), p. 27-32 Takezawa, G., "Dialogue Speech Recognition Method Using Syntactic Rules Based on Subtrees and Preterminal Bigram", IEICE Transactions D- ▲ II ▼, December 1996, Vol. J79-D. -▲ II ▼, No. 12, p. 2078-2085 (58) Fields investigated (Int. Cl. 7 , DB name) G06F 17/27 G06F 17/28 G10L 3/00 561 JICST file (JOIS)

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力された発話音声に基づいて、部分発
話毎に形態素解析及び所定の構文規則を参照した構文解
析を行うことにより、部分構文木を出力する音声認識手
段と、 部分構文木の接続に関する制約と、所定のコーパスから
得られた各部分構文木が別の単語に係るときの依存確率
とに基づいて、上記音声認識手段から出力される部分構
文木を併合して、構文及び意味解析結果を出力する部分
木併合処理手段とを備えたことを特徴とする音声言語解
析装置。
1. A speech recognition unit for outputting a partial syntax tree by performing a morphological analysis and a syntax analysis with reference to a predetermined syntax rule for each partial utterance based on an input uttered speech, Based on the connection-related constraints and the dependency probabilities when each partial syntax tree obtained from a predetermined corpus relates to another word, the partial syntax trees output from the speech recognition unit are merged, and the syntax and semantics are combined. A speech language analyzing apparatus, comprising: a subtree merging processing means for outputting an analysis result.
【請求項2】 上記部分木併合処理手段は、 所定のコーパスから得られた、各部分構文木が別の単語
に係るときの依存確率に基づいて、各部分構文木と後続
する複数の部分構文木中のすべての単語の組み合わせに
対する依存尤度を計算する計算手段と、 上記計算手段によって計算されたすべての部分構文木と
単語の組み合わせに対する依存尤度を、記憶装置上で依
存尤度が大きい順序で並べ換えて上記記憶装置に記憶す
る並べ換え手段と、 上記並べ換え手段によって並べ換えられた部分構文木と
単語の組み合わせのうち、最大の依存尤度を有する部分
構文木と単語の組み合わせに対して、係り先の単語が用
言である場合用言に用言に係り得る格が予め決定されか
つ同一の複数の格が同一の用言に係り得ないという部分
構文木の接続に関する制約に基づいて、係り得るか否か
の判定を行い、上記制約を満たして係り得る部分構文木
と単語の組み合わせを併合する併合手段とを備えたこと
を特徴とする請求項1記載の音声言語解析装置。
2. The partial tree merging processing means according to claim 1, wherein each partial syntax tree and a plurality of subsequent partial syntaxes are obtained based on a dependency probability obtained from a predetermined corpus when each partial syntax tree relates to another word. Calculating means for calculating the likelihood of dependence on all combinations of words in the tree; and determining the likelihood of dependence on all combinations of partial syntax trees and words calculated by the calculating means with a large likelihood of dependence on the storage device. A reordering means for reordering in the order and storing in the storage device; and a combination of the partial syntax tree and the word having the maximum dependency likelihood among the combinations of the partial syntax tree and the words reordered by the reordering means. When the preceding word is a verb, a case related to the sub-syntactic tree is determined in which cases that can relate to the verb are determined in advance and the same plural cases cannot relate to the same verb. 2. The speech language according to claim 1, further comprising: merging means for judging whether or not it can be related based on the approximation, and merging a combination of a partial parse tree and a word which can be related while satisfying the above constraint. Analysis device.
【請求項3】 上記依存確率は、上記コーパスに基づい
て得られた、処理対象の部分構文木が係り先の単語に係
り得る統計的確率と、 上記コーパスに基づいて得られた、処理対象の部分構文
木と係り先の単語との相互の位置関係に依存した尤度
と、 上記コーパスに基づいて得られた、処理対象の部分構文
木の後に文末が来る文末確率との積で表されることを特
徴とする請求項2記載の音声言語解析装置。
3. The above-mentioned dependency probability is a statistical probability that a partial parse tree to be processed can be related to a word of a destination obtained based on the corpus, and a statistical probability of the processing target obtained based on the corpus. It is expressed as the product of the likelihood depending on the mutual positional relationship between the partial parse tree and the word to be borrowed, and the sentence end probability obtained after the partial parse tree to be processed, obtained based on the corpus. 3. The speech language analyzer according to claim 2, wherein:
JP9125400A 1996-05-16 1997-05-15 Spoken language analyzer Expired - Lifetime JP3009636B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9125400A JP3009636B2 (en) 1996-05-16 1997-05-15 Spoken language analyzer

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP12144996 1996-05-16
JP8-121449 1996-05-16
JP9125400A JP3009636B2 (en) 1996-05-16 1997-05-15 Spoken language analyzer

Publications (2)

Publication Number Publication Date
JPH1097535A JPH1097535A (en) 1998-04-14
JP3009636B2 true JP3009636B2 (en) 2000-02-14

Family

ID=26458802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9125400A Expired - Lifetime JP3009636B2 (en) 1996-05-16 1997-05-15 Spoken language analyzer

Country Status (1)

Country Link
JP (1) JP3009636B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7031923B1 (en) 2000-03-06 2006-04-18 International Business Machines Corporation Verbal utterance rejection using a labeller with grammatical constraints
JP4105841B2 (en) * 2000-07-11 2008-06-25 インターナショナル・ビジネス・マシーンズ・コーポレーション Speech recognition method, speech recognition apparatus, computer system, and storage medium
US7603267B2 (en) * 2003-05-01 2009-10-13 Microsoft Corporation Rules-based grammar for slots and statistical model for preterminals in natural language understanding system
JP2004334193A (en) * 2003-05-01 2004-11-25 Microsoft Corp System with composite statistical and rule-based grammar model for speech recognition and natural language understanding
JPWO2012023450A1 (en) * 2010-08-19 2013-10-28 日本電気株式会社 Text processing system, text processing method, and text processing program
KR101627402B1 (en) * 2014-03-26 2016-06-03 포항공과대학교 산학협력단 Device for analyzing natural language incrementally, adaptive answering machine and method using the device
JP2017058804A (en) * 2015-09-15 2017-03-23 株式会社東芝 Detection device, method, and program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
田代、外、「音声言語処理のための部分木併合手法」、情報処理学会研究報告、1995年、第95巻、第89号(NL−109)、p.27−32
竹澤、外、「部分木に基づく構文規則と前終端記号バイグラムを併用する対話音声認識手法」、電子情報通信学会論文誌D−▲II▼、1996年12月、Vol.J79−D−▲II▼、No.12、p.2078−2085
竹澤、外、「部分木を単位とする構文規則と前終端記号のバイグラムを利用した連続音声認識」、電子情報通信学会技術研究報告、1995年、NLC95−54(SP95−89)、p.55−62
荒川、外、「統計的手法による部分木併合」、電子情報通信学会技術研究報告、1996年5月17日、NLC96−8、p.47−54

Also Published As

Publication number Publication date
JPH1097535A (en) 1998-04-14

Similar Documents

Publication Publication Date Title
US6442524B1 (en) Analyzing inflectional morphology in a spoken language translation system
US6374224B1 (en) Method and apparatus for style control in natural language generation
US5878390A (en) Speech recognition apparatus equipped with means for removing erroneous candidate of speech recognition
US6282507B1 (en) Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6278968B1 (en) Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system
US6243669B1 (en) Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
US6223150B1 (en) Method and apparatus for parsing in a spoken language translation system
US6266642B1 (en) Method and portable apparatus for performing spoken language translation
US6356865B1 (en) Method and apparatus for performing spoken language translation
US7321850B2 (en) Language transference rule producing apparatus, language transferring apparatus method, and program recording medium
US7379870B1 (en) Contextual filtering
US20080046229A1 (en) Disfluency detection for a speech-to-speech translation system using phrase-level machine translation with weighted finite state transducers
JP2003505778A (en) Phrase-based dialogue modeling with specific use in creating recognition grammars for voice control user interfaces
Kirchhoff et al. Novel speech recognition models for Arabic
Arısoy et al. A unified language model for large vocabulary continuous speech recognition of Turkish
JP2000200273A (en) Speaking intention recognizing device
JP2003515777A (en) Speech recognition using a complementary language model for typical errors in conversation
JP3009636B2 (en) Spoken language analyzer
JP3441400B2 (en) Language conversion rule creation device and program recording medium
JPS61285570A (en) Voice input device
Maskey et al. A phrase-level machine translation approach for disfluency detection using weighted finite state transducers
JP3059413B2 (en) Natural language understanding device and natural language understanding system
Lee Structural features of Chinese language–Why Chinese spoken language processing is special and where we are
KR20050101694A (en) A system for statistical speech recognition with grammatical constraints, and method thereof
Isotani et al. Speech-to-speech translation software on PDAs for travel conversation