JP2006343405A - Speech-understanding device, speech-understanding method, method for preparing word/semantic expression merge database, its program and storage medium - Google Patents

Speech-understanding device, speech-understanding method, method for preparing word/semantic expression merge database, its program and storage medium Download PDF

Info

Publication number
JP2006343405A
JP2006343405A JP2005166883A JP2005166883A JP2006343405A JP 2006343405 A JP2006343405 A JP 2006343405A JP 2005166883 A JP2005166883 A JP 2005166883A JP 2005166883 A JP2005166883 A JP 2005166883A JP 2006343405 A JP2006343405 A JP 2006343405A
Authority
JP
Japan
Prior art keywords
word
semantic expression
semantic
speech
string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005166883A
Other languages
Japanese (ja)
Other versions
JP4733436B2 (en
Inventor
Katsuto Sudo
克仁 須藤
Hajime Tsukada
元 塚田
Eisaku Maeda
英作 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005166883A priority Critical patent/JP4733436B2/en
Publication of JP2006343405A publication Critical patent/JP2006343405A/en
Application granted granted Critical
Publication of JP4733436B2 publication Critical patent/JP4733436B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a speech-understanding device, etc., which achieve speech understanding whose accuracy is higher. <P>SOLUTION: The speech-understanding device 100 is configured, such that a speech understanding result searching part 61 performs speech understanding by using a word/semantic expression merge N-gram model DB 20. Moreover, the speech-understanding device 100 is configured to be equipped with a word/semantic expression merge N-gram model preparing part 30, which prepares the word/semantic expression merge N-gram model DB 20 being the N-gram model of word/semantic expression merging from a language corpus 10 where clear correspondence relation among words and semantic expressions has not been carried out. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、音声理解装置、音声理解方法、単語・意味表現組データベースの作成方法、そのプログラムおよび記憶媒体に関する。   The present invention relates to a speech understanding device, a speech understanding method, a method for creating a word / semantic expression set database, a program thereof, and a storage medium.

音声理解の問題は、音声を単語列として認識する音声認識と、単語列を意味表現の集合に変換する言語理解という2つの処理に分けて考えることができる。   The problem of speech understanding can be divided into two processes: speech recognition that recognizes speech as a word string, and language understanding that converts a word string into a set of semantic expressions.

言語理解については、単語列のどの部分が、どの意味表現と対応するかを明示した言語コーパスにより、単語列を意味表現に変換する規則や確率モデルを学習し、言語理解を行う技術がある(非特許文献1〜3参照)。   For language understanding, there is a technology that learns rules and probabilistic models for converting word strings to semantic expressions by means of a language corpus that clearly indicates which part of the word string corresponds to which semantic expression. Non-patent documents 1 to 3).

また、最近では、単語と意味表現との明示的な対応関係のない言語コーパスからも言語理解を行う言語理解装置も開発されている。この言語理解装置と、従来からある音声認識装置とを直列に接続することで、音声理解を行うこともできる(非特許文献4,5参照)。   Recently, language understanding devices have also been developed that perform language understanding from a language corpus that does not have an explicit correspondence between words and semantic expressions. Speech understanding can be performed by connecting this language understanding device and a conventional speech recognition device in series (see Non-Patent Documents 4 and 5).

さらに、単語と意味表現との明示的な対応関係のない言語コーパスから学習できる、音声認識結果の単語列と、その単語の確信度とを入力として、これらの情報に基づき、音声理解を実現する技術も開発されている(非特許文献6,7参照)。   Furthermore, it can learn from a language corpus that has no explicit correspondence between words and semantic expressions, and it inputs speech recognition result word strings and the certainty of the words, and realizes speech understanding based on these information. Technology has also been developed (see Non-Patent Documents 6 and 7).

K.Hacioglu and Ward,"A word graph interface for a flexible concept based speech understanding network",in Proc.EUROSPEECH 2001,pp.1775-1778K. Hacioglu and Ward, "A word graph interface for a flexible concept based speech understanding network", in Proc. EUROSPEECH 2001, pp.1775-1778 H.Bonneau-Maynard and F.Lefevre, "Investigating stochastic speech understanding", in Proc.IEEE ASRU,2001H.Bonneau-Maynard and F.Lefevre, "Investigating stochastic speech understanding", in Proc.IEEE ASRU, 2001 Y.Esteve et al."Conceputual decording for spoken dialogue systems", in Proc.EUROSPEECH 2003,pp.617-620Y. Esteve et al. "Conceputual decording for spoken dialogue systems", in Proc. EUROSPEECH 2003, pp.617-620 M.Epstein et al."Statistical Natural Language Understanding using Hidden Clmpings",in Proc.ICASSP,vol.1,pp.176-179,1996M. Epstein et al. "Statistical Natural Language Understanding using Hidden Clmpings", in Proc.ICASSP, vol.1, pp.176-179, 1996 K.Macherey et al., "Naural Langage Understanding using Statistical Machine Translation", in Proc.EUROSPEECH 2001,pp.2205-2208K. Macherey et al., "Naural Langage Understanding using Statistical Machine Translation", in Proc. EUROSPEECH 2001, pp. 2205-2208 G.Tur et al."Improving Spoken Language Understanding using Word Confusion Networks" in Proc.ICSLP, pp.1137-1140,2002G. Tur et al. "Improving Spoken Language Understanding using Word Confusion Networks" in Proc.ICSLP, pp.1137-1140,2002 G.Tur et al."Extending Boostig for Call classification using world Confusion Networks",in Proc.ICASSP,vol1,pp.437-440,2004G. Tur et al. "Extending Boostig for Call classification using world Confusion Networks", in Proc.ICASSP, vol1, pp.437-440,2004

非特許文献1〜3に記載の技術において、単語列と意味表現との対応関係を明示した言語コーパスを作成するためには、言語に関する専門知識が必要になり、また作成にも時間がかかる。したがって、人的コストが高くなるという問題がある。   In the techniques described in Non-Patent Documents 1 to 3, in order to create a language corpus that clearly shows the correspondence between word strings and semantic expressions, language-related expertise is required, and it takes time to create the language corpus. Therefore, there is a problem that the human cost becomes high.

また、非特許文献4,5の技術を、音声対話システムで利用する場合、音声と関係のない言語理解装置は、入力される単語列に曖昧性があることを考慮した設計になっていない。このため、言語理解装置は、最尤の音声認識結果(単語列)をそのまま理解の対象とするか、認識の確信度の情報を使って確信度の低い単語を棄却してから理解の対象とするか、のどちらかになる。しかし、前者は音声認識の誤りが理解結果に残る危険性があり、後者は必要な単語が棄却される危険性があるという問題がある。   Further, when the technologies of Non-Patent Documents 4 and 5 are used in a spoken dialogue system, a language understanding device that is not related to speech is not designed in consideration of the ambiguity of an input word string. For this reason, the language understanding device uses the maximum likelihood speech recognition result (word string) as an object of understanding as it is, or rejects a word with low certainty by using information on the degree of certainty of recognition, Will be either. However, the former has a risk that a speech recognition error remains in the understanding result, and the latter has a problem that a necessary word may be rejected.

さらに、非特許文献6,7に記載の技術は、各意味表現は独立に生起することを前提としているため、ある意味表現Aが含まれる発話では意味表現Bも含まれやすい、といった共起の関係を把握することができない。つまり、入力された音声データが曖昧だったり、情報量が少なかったりした場合に、音声理解の精度が低下するおそれがある。   Furthermore, since the technologies described in Non-Patent Documents 6 and 7 are based on the premise that each semantic expression occurs independently, the utterance including a certain semantic expression A is likely to include the semantic expression B. I can't figure out the relationship. That is, if the input voice data is ambiguous or the amount of information is small, the accuracy of voice understanding may be reduced.

本発明は、前記した問題を解決し、より精度の高い音声理解を実現する音声理解装置等を提供することを課題とする。   An object of the present invention is to provide a speech understanding device that solves the above-described problems and realizes speech understanding with higher accuracy.

前記した課題を解決するため、本発明の音声理解装置は、単語と意味表現との組み合わせNグラムごとに、その組み合わせが生起する確率を示した単語・意味表現組データベースを作成する単語・意味表現組N−グラムモデル作成部を備える構成とした。また、この単語・意味表現組N−グラムモデルを用いて、入力された音声データが意味する単語列および意味表現列を認識するとともに、前記認識した単語列および意味表現列の確信度を計算する音声理解処理部を備える構成とした。その他の構成については、後記する実施の形態で述べる。   In order to solve the above-described problem, the speech understanding apparatus of the present invention creates a word / semantic expression database that creates a word / semantic expression set database indicating the probability of occurrence of a combination for each N-grams of combinations of words and semantic expressions. It was set as the structure provided with a set N-gram model preparation part. Further, by using this word / semantic expression set N-gram model, the word string and the semantic expression string that are input are recognized, and the certainty factor of the recognized word string and the semantic expression string is calculated. The voice understanding processing unit is provided. Other configurations will be described in the embodiments described later.

本発明によれば、
(1)使用する言語コーパスに、単語と意味表現との対応関係を明示的に与える必要がなくなるので、音声理解装置の作成コストを低くすることができる。
(2)音声認識と言語理解との処理を密に統合することにより、単語列と意味表現との組み合わせや、この組み合わせの並びや、共起の関係等、様々な仮説を考慮した音声理解をすることができる。また、このように様々な仮説を考慮した上で確信度を計算することにより、音声理解に関して、より正確な確信度を得ることができる。
(3)単語と意味表現との並びの同時確率を統計モデルとして利用することで、意味表現の共起の関係を表現できる。つまり、この意味表現の共起の関係を用いることで、入力された音声データが曖昧だったり、情報量が少なかったりした場合でも、精度の高い音声理解を行うことができる。
According to the present invention,
(1) Since it is not necessary to explicitly give the correspondence between words and semantic expressions to the language corpus to be used, the cost of creating a speech understanding device can be reduced.
(2) By tightly integrating the processing of speech recognition and language understanding, speech understanding that takes into account various hypotheses such as combinations of word strings and semantic expressions, arrangements of these combinations, and co-occurrence relationships can do. In addition, by calculating the certainty factor in consideration of various hypotheses as described above, it is possible to obtain a more accurate certainty factor for speech understanding.
(3) By using the simultaneous probability of the arrangement of words and semantic expressions as a statistical model, it is possible to express the co-occurrence relationship of semantic expressions. In other words, by using this semantic expression co-occurrence relationship, highly accurate speech understanding can be performed even when the input speech data is ambiguous or the amount of information is small.

以下に、本発明を実施するための最良の形態(以下、実施の形態とする)を説明する。   The best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described below.

ここでは、まず、本実施の形態の音声理解装置のハードウェア構成について説明する。
音声理解装置は、後記する言語コーパス10や、音声データ40の入力を受け付ける入力インターフェースと、音声理解部60の演算処理結果を外部に出力するための出力インターフェースとを備える。入力インターフェースは、例えば、ネットワークカード等であり、出力インターフェースは、例えば、ディスプレイ装置への出力インターフェース等である。
Here, first, the hardware configuration of the speech understanding apparatus according to the present embodiment will be described.
The speech understanding device includes a language corpus 10 to be described later, an input interface that receives input of speech data 40, and an output interface that outputs the calculation processing result of the speech understanding unit 60 to the outside. The input interface is, for example, a network card, and the output interface is, for example, an output interface to a display device.

また、音声理解装置は、RAM(Random Access Memory)等のメモリ、ROM(Read Only Memory)、ハードディスク装置等の記憶部、CPU(Central Processing Unit)等の演算処理部を備えるコンピュータにより実現される。この記憶部は、後記する単語・意味組N−グラムモデル作成部30を実現するための単語意味組N−グラムモデル作成プログラム(単語・意味表現組データベース作成プログラム)、音声理解部60を実現するための音声理解プログラム等を格納する。CPUは、記憶部に格納された各プログラムをメモリ上に展開し、実行することで、単語・意味組N−グラムモデル作成部30や音声理解部60の機能を実現する。また、音声理解装置は、この音声理解装置への指示入力等を行う入力装置や、音声理解装置の演算処理の結果を出力表示する表示装置が接続されていてもよい。これらの構成および装置は、図面での説明は省略する。   The speech understanding device is realized by a computer including a memory such as a RAM (Random Access Memory), a storage unit such as a ROM (Read Only Memory) and a hard disk device, and an arithmetic processing unit such as a CPU (Central Processing Unit). This storage unit implements a word semantic group N-gram model creation program (word / semantic expression group database creation program) and a speech understanding unit 60 for realizing a word / semantic group N-gram model creation unit 30 described later. A voice understanding program or the like is stored. The CPU implements the functions of the word / semantic pair N-gram model creation unit 30 and the speech understanding unit 60 by developing and executing each program stored in the storage unit on the memory. In addition, the voice understanding device may be connected to an input device that inputs an instruction to the voice understanding device and a display device that outputs and displays a result of arithmetic processing of the voice understanding device. These configurations and devices will not be described in the drawings.

図1は、本実施の形態の音声理解装置を機能展開して説明したブロック図である。
図1を用いて音声理解装置100の機能を説明する。
音声理解装置100は、言語コーパス10および音声データ40の入力を受け付けたり、音声理解結果や、音声認識結果を出力したりする入出力部70と、言語コーパス10に基づき単語・意味表現組N−グラムモデルDB(データベース)20を作成する単語・意味組N−グラムモデル作成部30とを備える。また、音声理解装置100は、単語・意味組N−グラムモデルDB20、音響モデルDB(データベース)50および変換辞書80を参照して、入力された音声データ40の音声理解結果等を出力する音声理解部60を備える。なお、単語・意味表現組N−グラムモデルDB20は、請求項における単語・意味表現組データベースに相当する。また、音響モデルDB50は、請求項における音響モデルに相当する。
FIG. 1 is a block diagram illustrating an expanded function of the voice understanding device according to the present embodiment.
The function of the speech understanding device 100 will be described with reference to FIG.
The speech understanding device 100 receives an input of the language corpus 10 and the speech data 40, outputs a speech understanding result and a speech recognition result, and a word / semantic expression set N− based on the language corpus 10. A word / semantic pair N-gram model creating unit 30 for creating a gram model DB (database) 20 is provided. Further, the speech understanding device 100 refers to the word / semantic set N-gram model DB 20, the acoustic model DB (database) 50, and the conversion dictionary 80, and outputs the speech understanding result of the input speech data 40. The unit 60 is provided. The word / semantic expression set N-gram model DB 20 corresponds to the word / meaning expression set database in the claims. The acoustic model DB 50 corresponds to the acoustic model in the claims.

入出力部70は、前記した入力インターフェースおよび出力インターフェースにより実現される。また、言語コーパス10、音響モデルDB50、変換辞書80、音声データ40および単語・意味組N−グラムモデルDB20は、音声理解装置100の記憶部(図示せず)に格納するものとして説明するが、外部の記憶装置に格納しておいて、入出力部70経由で読み出すようにしてもよい。   The input / output unit 70 is realized by the input interface and the output interface described above. The language corpus 10, the acoustic model DB 50, the conversion dictionary 80, the speech data 40, and the word / semantic set N-gram model DB 20 will be described as being stored in a storage unit (not shown) of the speech understanding device 100. It may be stored in an external storage device and read via the input / output unit 70.

(言語コーパス)
言語コーパス10は、人間の発話を書き起こした書き起こし文(単語列)と、その文の内容に対応する意味表現の集合とから成る。ここでの意味表現は、発話の意味を意味表現記号の集合で表現できるようなもの(記号間の関係や構造は未定義)とする。
この言語コーパス10に含まれる文は、例えば、
単語列「東京駅から京都駅まで」、
意味表現の集合[from=(station=(東京)),to=(station=(京都))]、
といったものである。
(Language corpus)
The language corpus 10 includes a transcription sentence (word string) that transcribes a human utterance and a set of semantic expressions corresponding to the contents of the sentence. The semantic expression here is such that the meaning of the utterance can be expressed by a set of semantic expression symbols (relationships and structures between symbols are undefined).
The sentence included in this language corpus 10 is, for example,
The word string “From Tokyo Station to Kyoto Station”,
Set of semantic expressions [from = (station = (Tokyo)), to = (station = (Kyoto))],
It is something like that.

しかし、この言語コーパス10は、従来技術とは異なり、単語列中の単語と意味表現との対応関係を与えられていない。つまり、前記の例において「東京駅から」がfrom=(station=(東京))に対応し、「京都駅まで」がto=(station=(京都))に対応するという対応関係は与えられていない。   However, unlike the prior art, this language corpus 10 is not given a correspondence between words in a word string and semantic expressions. In other words, in the above example, “from Tokyo Station” corresponds to from = (station = (Tokyo)), and “to Kyoto Station” corresponds to to = (station = (Kyoto)). Absent.

(単語・意味組N−グラムモデル作成部)
単語・意味組N−グラムモデル作成部30は、言語コーパス10に基づき、単語・意味組N−グラムモデルDB20を作成する。この単語・意味組N−グラムモデル作成部30の機能は、単語・意味表現関連度計算部31と、単語・意味表現対応付け部33と、N−グラムモデル作成部35とに分けられる。
(Word / semantic group N-gram model creation part)
The word / semantic set N-gram model creation unit 30 creates a word / semantic set N-gram model DB 20 based on the language corpus 10. The function of the word / semantic set N-gram model creating unit 30 is divided into a word / semantic expression relevance calculating unit 31, a word / semantic expression associating unit 33, and an N-gram model creating unit 35.

(単語・意味表現関連度計算部)
単語・意味表現関連度計算部31は、言語コーパス10内に現れる各単語および意味表現のそれぞれについて、単語と意味表現との関連度を計算し、単語・意味表現関連度DB(データベース)32を作成する。この単語・意味表現関連度DB32は、言語コーパス10の各単語が意味表現とどのくらいの関連度を持っているかを示したデータベースである。作成された単語・意味表現関連度DB32は、いったん記憶部の所定領域に格納され、単語・意味表現対応付け部33の演算処理に用いられる。
(Word / semantic expression relevance calculator)
The word / semantic expression relevance calculating unit 31 calculates the relevance between the word and the semantic expression for each word and semantic expression appearing in the language corpus 10 and stores the word / semantic expression relevance DB (database) 32. create. This word / semantic expression relevance DB 32 is a database showing how much each word in the language corpus 10 has a relevance to the semantic expression. The created word / semantic expression association degree DB 32 is once stored in a predetermined area of the storage unit and used for the arithmetic processing of the word / semantic expression association unit 33.

ここで、単語・意味表現関連度計算部31が計算する関連度は、例えば、以下の数式(1)で記述されるφ2という基準を用いる。このφ2は、2種類の記号(本実施の形態の単語wと意味表現c)の共起頻度を見ることで、両者の間の関連性の高低を測るための基準であり、詳細は以下の文献に記載されている。 Here, the relevance calculated by the word / meaning expression relevance calculation unit 31 uses, for example, a criterion of φ 2 described by the following formula (1). This φ 2 is a standard for measuring the co-occurrence frequency of two kinds of symbols (word w and semantic expression c in the present embodiment), and measures the level of relevance between them. In the literature.

W.A.Gale and K.W.Church,"Identifying word correspondences in parallel texts",in Proc.4th DARPA Workshop on Speech and Natural Language,1991   W.A.Gale and K.W.Church, "Identifying word correspondences in parallel texts", in Proc. 4th DARPA Workshop on Speech and Natural Language, 1991

Figure 2006343405
Figure 2006343405

数式(1)におけるfreq()は、言語コーパス10の中で、単語w、意味表現c、もしくはその両方が出現する文の数であり、Nは言語コーパス10内の全発話数である。   Freq () in Equation (1) is the number of sentences in which the word w, the semantic expression c, or both appear in the language corpus 10, and N is the total number of utterances in the language corpus 10.

この数式(1)を用いた関連度の計算により、ある単語に対して、各意味表現がどのくらいの関連度を持っているのかを示す単語・意味表現関連度DB32が作成される。   By calculating the relevance using this formula (1), a word / semantic expression relevance DB 32 indicating how much each semantic expression has for a certain word is created.

(単語・意味表現対応付け部)
単語・意味表現対応付け部33は、言語コーパス10内のそれぞれの文について、単語・意味表現関連度DB32を基に、単語列と意味表現との対応付けを行う。
(Word / semantic expression association unit)
The word / semantic expression associating unit 33 associates a word string and a semantic expression for each sentence in the language corpus 10 based on the word / meaning expression relevance DB 32.

具体的な方法は、単語列(w1,w2,…,wl)と、意味表現の列(c1,c2,…,cm)に対し、単語wiにaiで対応付けられる意味表現がc(ai)であるとき、最適な対応付け(a1,a2,…,al)は、各wi,c(ai)の組の関連度の、文中での積が最大になるものであると定義する(以下の数式(2)参照)。 Specific method, the word sequence (w 1, w 2, ... , w l) and the columns of the semantic representations (c 1, c 2, ... , c m) to, correspondence with a i word w i When the semantic expression to be given is c (a i ), the optimal correspondence (a 1 , a 2 ,..., A l ) is the relevance of each w i , c (a i ) pair in the sentence. It is defined that the product is the maximum (see the following formula (2)).

Figure 2006343405
Figure 2006343405

すなわち、最適なa^(a1,a2,…,al)の探索のためには、すべてのwiとaiとの組み合わせについて関連度の積を計算し、その値が最大となるものを探索し、対応付けを行う。そして、対応付けられた単語wと意味表現cとを「意味表現:単語」という形で組み合わせた記号(t1,t2,…,tl)の形に書き換えて、単語・意味表現の対応付きコーパス34を作成する。ここで、何も意味表現が対応付けられなかった単語に対しては、空の意味表現<eps>を対応づけることとする。また、<eps>と各単語との関連度は、常に1であるものとする。 That is, in order to search for the optimal a ^ (a 1 , a 2 ,..., A l ), the product of relevance is calculated for all combinations of w i and a i, and the value is maximized. Search for things and associate them. Then, the associated word w and semantic expression c are rewritten in the form of a symbol (t 1 , t 2 ,..., T l ) combined in the form of “semantic expression: word”, and the correspondence between the word and the semantic expression The attached corpus 34 is created. Here, an empty semantic expression <eps> is associated with a word to which no semantic expression is associated. In addition, it is assumed that the degree of association between <eps> and each word is always 1.

例えば、単語・意味表現対応付け部33は、前記した言語コーパス10の   For example, the word / semantic expression associating unit 33 includes the language corpus 10 described above.

単語列「東京駅から京都駅まで」
意味表現の集合[from=(station=(東京)),to=(station=(京都))]
Word string "From Tokyo Station to Kyoto Station"
Set of semantic expressions [from = (station = (Tokyo)), to = (station = (Kyoto))]

について、それぞれの関連度を算出し、この関連度が最大となる組み合わせとして As for the combination that calculates the degree of association for each

from=(station=(東京)):東京 <eps>:から to=(station=(京都):京都 <eps>:まで   from = (station = (Tokyo)): Tokyo <eps>: to to = (station = (Kyoto): Kyoto <eps>:

という単語・意味表現の対応付きコーパス34を作成する。この単語・意味表現の対応付きコーパス34は、記憶部の所定領域に格納しておく。この単語・意味表現の対応付きコーパス34は、N−グラムモデル作成部35が単語・意味表現組N−グラムモデルDB20を作成する際に用いられる。 A corpus 34 with correspondence of the word and meaning expression is created. The corpus 34 with the word / semantic expression correspondence is stored in a predetermined area of the storage unit. This corpus 34 with correspondence between words and meaning expressions is used when the N-gram model creation unit 35 creates the word-meaning expression set N-gram model DB 20.

なお、ここでは、最適な対応付けa^(a1,a2,…,al)は、各wi,c(ai)の組の関連度の積が最大になるものであるとしたが、以下の数式(3)のように関連度の和が最大になるものとしてもよい。 Here, the optimum association a ^ (a 1 , a 2 ,..., A l ) is assumed to have the maximum product of the relevance of each pair of w i and c (a i ). However, the sum of the relevances may be maximized as in the following formula (3).

Figure 2006343405
Figure 2006343405

(N−グラムモデル作成部)
このN−グラムモデル作成部35は、単語・意味表現の対応付きコーパス34の各(t1,t2,…,tl)に基づき、単語・意味表現組N−グラムモデルDB20を作成する。
この単語・意味表現組N−グラムモデルDB20は、音声認識技術で一般的に用いられる単語N−グラムモデルと同様に、単語・意味表現の組み合わせをN-グラムでモデル化したものである。つまり、単語と意味表現との組み合わせNグラムごとに、この組み合わせが生起する確率を示したものである。
(N-gram model creation part)
This N-gram model creation unit 35 creates a word / semantic expression set N-gram model DB 20 based on each (t 1 , t 2 ,..., T l ) of the corpus 34 with correspondence between words and semantic expressions.
This word / semantic expression set N-gram model DB 20 is obtained by modeling a combination of a word / semantic expression with an N-gram in the same manner as a word N-gram model generally used in speech recognition technology. That is, for each N-gram combination of words and semantic expressions, the probability of this combination occurring is shown.

なお、単語N−グラムモデルとは、ある単語が生起する確率を決める際に、その単語の前(N−1)個の単語の並びの条件付き確率で近似するモデルのことである。この単語N−グラムモデルを用いることによって、単語列W=(w1,w2,…,wl)の生起確率P(W)を以下の数式(4)の2行目のように近似することができる。 Note that the word N-gram model is a model that approximates the conditional probability of the arrangement of (N-1) words before the word when determining the probability that a certain word will occur. By using this word N-gram model, the occurrence probability P (W) of the word string W = (w 1 , w 2 ,..., W l ) is approximated as in the second row of the following formula (4). be able to.

Figure 2006343405
Figure 2006343405

従来技術において、単語N−グラムモデル内の記号が単語だったのに対し、本実施の形態の単語・意味表現組N−グラムモデル(単語・意味表現組N−グラムモデルDB20)は、単語とその単語に対応する意味表現とを結合した記号となっている点で異なる。すなわち、単語・意味表現組N−グラムモデル20は、ある単語と意味表現との組が生起する確率を決める際に、その組の前(N−1)個の単語と意味表現との組の並びを条件付き確率で近似するモデルである。ここで、(t1,t2,…,tl)の形に対応付けがなされている単語列Wと意味表現の列Cとの同時確率P(W,C)は、以下の数式(5)の2行目のように近似することができる。 In the prior art, the symbol in the word N-gram model is a word, whereas the word / semantic expression group N-gram model (word / semantic expression group N-gram model DB 20) of the present embodiment The difference is that the symbol is combined with a semantic expression corresponding to the word. That is, the word / semantic expression group N-gram model 20 determines the probability that a pair of a certain word and a semantic expression will occur. This model approximates a sequence with a conditional probability. Here, the joint probability P (W, C) between the word string W and the semantic expression string C, which are associated in the form of (t 1 , t 2 ,..., T l ), is expressed by the following formula (5 ) In the second line.

Figure 2006343405
Figure 2006343405

例えば、まず、単語・意味組N−グラムモデル作成部30は、単語・意味表現の対応付きコーパス34である   For example, first, the word / semantic set N-gram model creation unit 30 is a corpus 34 with correspondence between words / semantic expressions.

from=(station=(東京)):東京 <eps>:から to=(station=(京都)):京都 <eps>:まで   from = (station = (Tokyo)): Tokyo <eps>: to to = (station = (Kyoto)): Kyoto <eps>:

を以下のようにN=3(3グラム)で区切る。   Is divided by N = 3 (3 grams) as follows.

<文頭> from=(station=(東京)):東京 <eps>:から
from=(station=(東京)):東京 <eps>:から to=(station=(京都)):京都
<eps>:から to=(station=(京都):京都 <eps>:まで
to=(station=(京都):京都 <eps>:まで <文末>
<Beginning> from = (station = (Tokyo)): Tokyo <eps>: From
from = (station = (Tokyo)): Tokyo <eps>: from to = (station = (Kyoto)): Kyoto
<eps>: to to = (station = (Kyoto): Kyoto <eps>:
to = (station = (Kyoto): Kyoto <eps>: Until <end of sentence>

そして、前記した数式(5)により言語コーパス10全体における各組み合わせの生起確率を算出し、単語・意味表現組N−グラムモデルDB20を作成する。この後、単語・意味組N−グラムモデル作成部30は、作成した単語・意味表現組N−グラムモデルDB20を、記憶部の所定領域に格納する。   Then, the occurrence probability of each combination in the entire language corpus 10 is calculated by the above-described mathematical formula (5), and the word / semantic expression set N-gram model DB 20 is created. Thereafter, the word / semantic set N-gram model creation unit 30 stores the created word / semantic expression set N-gram model DB 20 in a predetermined area of the storage unit.

音響モデルDB50は、音声の特徴量と音素との対応を示したものである。また、変換辞書80は、各単語ごとに、その単語を音素の組み合わせで示したものである。この音響モデルDB50および変換辞書80は、後記する音声理解結果探索部61が音声データ40の音声認識や意味表現認識をするときに参照される。なお、この音響モデルDB50および変換辞書80は、従来技術である音声認識装置に用いられているものと同じものである。   The acoustic model DB 50 shows correspondence between voice feature values and phonemes. Moreover, the conversion dictionary 80 shows the word by the combination of phoneme for every word. The acoustic model DB 50 and the conversion dictionary 80 are referred to when a voice understanding result search unit 61 described later performs voice recognition or semantic expression recognition of the voice data 40. The acoustic model DB 50 and the conversion dictionary 80 are the same as those used in the conventional speech recognition device.

(音声理解部)
続いて、音声理解部60について説明する。音声理解部60は、入出力部70経由で音声データ40の入力を受けると、記憶部の音響モデルDB50、変換辞書80および単語・意味表現組N−グラムモデルDB20を参照して、音声理解結果(意味表現認識結果および音声認識結果)を出力する。この音声理解部60は、音声理解結果探索部61と、出力整形部63とに分けられる。
(Speech Understanding Department)
Next, the voice understanding unit 60 will be described. When the speech understanding unit 60 receives the input of the speech data 40 via the input / output unit 70, the speech understanding unit 60 refers to the acoustic model DB 50, the conversion dictionary 80, and the word / semantic expression set N-gram model DB 20 of the storage unit, and obtains the speech understanding result. (Semantic expression recognition result and speech recognition result) are output. The voice understanding unit 60 is divided into a voice understanding result search unit 61 and an output shaping unit 63.

(音声理解結果探索部)
音声理解結果探索部61では、音声データ40の入力を受けると、音響モデルDB50および単語・意味表現組N−グラムモデルDB20を参照して、入力された音声データに対応する単語と意味表現とを組にした記号の列を出力する。また、音声理解結果探索部61は、各記号の認識における確信度も併せて出力する。なお、この音声理解結果検索部61は請求項の音声理解処理部に相当する。
(Speech understanding result search part)
When the speech understanding result searching unit 61 receives the input of the speech data 40, the speech understanding result searching unit 61 refers to the acoustic model DB 50 and the word / semantic expression set N-gram model DB 20 to obtain a word and a semantic expression corresponding to the input speech data. Output a sequence of symbols in pairs. The speech understanding result search unit 61 also outputs a certainty factor in recognition of each symbol. The speech understanding result search unit 61 corresponds to the speech understanding processing unit in the claims.

この確信度とは、その単語(意味表現)に競合するような他の候補が見あたらなかったことの度合いを示す値である。つまり、確信度が1に近づくほど、その単語(意味表現)に競合するような他の候補が見あたらなかったことを示し、確信度が0に近づくほど音声理解の過程においてその単語(意味表現)の他にも似たスコアをもつ単語(意味表現)候補が多く競合していたことを示す。なお、この音声理解結果探索部61は、従来の音声認識技術における音声認識処理を応用することで実現可能である。   The certainty factor is a value indicating the degree to which no other candidate that could compete with the word (semantic expression) was found. That is, as the certainty factor approaches 1, it indicates that there is no other candidate that competes with the word (semantic expression), and as the certainty factor approaches zero, the word (semantic expression) in the speech understanding process. This indicates that many other words (semantic expressions) candidates having similar scores were competing. The speech understanding result search unit 61 can be realized by applying speech recognition processing in the conventional speech recognition technology.

音声理解結果探索部61における数学的な問題設定は以下の通りである。
Xは音声データから得られる時系列の特徴量、Wは単語列、Cは意味表現列を表す。P(X|W)は音響モデル、P(W)は言語モデルと呼ばれる。従来技術である音声認識装置では、以下の数式(6)の条件付き確率P(W|X)を最大化(あるいは前記特徴量の尤度を最大化)するような単語列W^を探索し、音声認識結果として出力する。
The mathematical problem setting in the speech understanding result search unit 61 is as follows.
X represents a time-series feature amount obtained from speech data, W represents a word string, and C represents a semantic expression string. P (X | W) is called an acoustic model, and P (W) is called a language model. In the speech recognition apparatus as the prior art, a word string W ^ that maximizes the conditional probability P (W | X) of the following formula (6) (or maximizes the likelihood of the feature amount) is searched. And output as a speech recognition result.

Figure 2006343405
Figure 2006343405

ここで、本実施の形態の音声理解結果探索部61が音声データ40から直接意味表現の列を出力する計算式は、数式(6)を応用して、以下の数式(7)のようになる。   Here, the calculation formula that the speech understanding result search unit 61 of the present embodiment outputs a sequence of semantic expressions directly from the voice data 40 is expressed by the following formula (7) by applying the formula (6). .

Figure 2006343405
Figure 2006343405

なお、数式(7)の3行目の近似は、
(1)XがCと独立であるという仮定から、P(X|W,C)のP(X|W)への置き換え、
(2)Viterbi近似により、ΣWP(X|W)P(W|C)P(C)の総和型の、最も尤
度の高いX,Wについての確率P(X|W)P(W|C)P(C)への置き換え、
を行っている。
In addition, the approximation of the 3rd line of Formula (7) is
(1) From the assumption that X is independent of C, P (X | W, C) is replaced with P (X | W);
(2) Probability P (X | W) P (W for the highest likelihood X, W of the summation type of Σ W P (X | W) P (W | C) P (C) by Viterbi approximation | C) Replacement with P (C),
It is carried out.

すなわち、本実施の形態では、数式(4)および数式(6)と、数式(5)および数式(7)とが同じ形であることを利用して、従来技術の音声認識装置で用いられていた単語N-グラムモデルを単語・意味表現組N−グラムモデル(単語・意味表現組N−グラムモデルDB20)に置き換える。これにより、モデルが置き換えられた音声認識装置からは、音声データ40の入力に対して、単語と意味表現が組になった記号が認識結果として得られる。   That is, in the present embodiment, Formula (4) and Formula (6) and Formula (5) and Formula (7) are used in the same form by using the same form. The word N-gram model is replaced with a word / semantic expression group N-gram model (word / semantic expression group N-gram model DB 20). Thereby, from the speech recognition apparatus in which the model is replaced, a symbol in which a word and a semantic expression are paired with respect to the input of the speech data 40 is obtained as a recognition result.

また、認識された記号の確信度はその記号が、認識結果に現れる事後確率として表現する。なお、音声認識における事後確率の計算方法については、以下の文献に記載されている。   The certainty factor of the recognized symbol is expressed as a posterior probability that the symbol appears in the recognition result. Note that a method for calculating the posterior probability in speech recognition is described in the following document.

Frank Wessel et al.,"Confidence measures for large vocabulary continuous speech recognition", IEEE Tansactionsons Speech and Audio Processing,Vol.9,no.3,pp.288-298   Frank Wessel et al., "Confidence measures for large vocabulary continuous speech recognition", IEEE Tansactionsons Speech and Audio Processing, Vol. 9, no. 3, pp. 288-298

また、事後確率の計算を、音声認識装置に組み込んだ技術は、以下の文献に記載されている。   Moreover, the technique which incorporated calculation of posterior probability in the speech recognition apparatus is described in the following documents.

李晃伸他,「2パス深索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法」,情報処理学会研究報告vol.2003,No・124,2003-SLP-9,pp.281-286 Lee Yong-sin, et al., “High-speed reliability calculation method based on word posterior probabilities in the 2-pass deep search algorithm”, Information Processing Society of Japan vol.2003, No. 124, 2003-SLP-9, pp.281-286

本実施の形態の音声理解結果探索部61は、これらの技術を用いて確信度を計算すると、この確信度を単語・意味表現組の記号列に付して確信度付き単語・意味表現組記号列62を作成する。そして、この確信度付き単語・意味表現組記号列62を記憶部の所定領域に格納しておく。この後、確信度付き単語・意味表現組記号列62は出力整形部63により所定のフォーマットに整形される。   When the speech understanding result searching unit 61 according to the present embodiment calculates the certainty factor using these techniques, the certainty factor is added to the symbol string of the word / semantic expression group and the word / semantic expression pair symbol with the certainty degree is attached. Column 62 is created. Then, this certain word / meaning expression combination symbol string 62 with certainty is stored in a predetermined area of the storage unit. Thereafter, the word / semantic expression combination symbol string 62 with certainty is shaped into a predetermined format by the output shaping unit 63.

(出力整形部)
出力整形部63は、確信度付き単語・意味表現組記号列62から、確信度がある水準(閾値)より高い記号を選択する。そして、この記号から単語と意味表現とを抽出し、入力された音声データ40に対応する単語列と意味表現との集合として整形して出力する。
(Output shaping section)
The output shaping unit 63 selects a symbol having a certainty level higher than a certain level (threshold) from the word / semantic expression pair symbol string 62 with certainty level. Then, a word and a semantic expression are extracted from the symbol, and are formatted and output as a set of a word string and a semantic expression corresponding to the input voice data 40.

このときの出力の記号列は、各記号が「意味表現:単語」の形で、単語と意味表現とが組になった記号を用いている。出力整形部63は、この「意味表現:単語」から意味表現の記号を切り出すことで、意味表現認識結果である意味表現列を得ることができ、「意味表現:単語」から単語の記号を切り出すことで、音声認識結果である単語列を得ることができる。   The symbol string of the output at this time uses a symbol in which each symbol is in the form of “semantic expression: word” and a pair of a word and a semantic expression. The output shaping unit 63 can obtain a semantic expression sequence that is a result of the semantic expression recognition by extracting the semantic expression symbol from the “semantic expression: word”, and can extract the symbol of the word from the “semantic expression: word”. Thus, a word string that is a voice recognition result can be obtained.

ここで、図1を用いて音声理解装置100の各構成要素の動作を簡単に説明する。   Here, operation | movement of each component of the speech understanding apparatus 100 is demonstrated easily using FIG.

まず、単語・意味表現関連度計算部31は、入出力部70経由で入力された言語コーパス10について、単語と意味表現との関連度を計算し、単語・意味表現関連度DB32を作成する(S1)。次に、単語・意味表現対応付け部33は、単語・意味表現関連度DB32を参照して、言語コーパス10の単語と意味表現との関連度が最大になる組み合わせを計算する。そして、単語・意味表現対応付け部33は、その組み合わせで単語・意味表現の対応付きコーパス34を作成する(S2)。次に、N−グラムモデル作成部35は、この単語・意味表現の対応付きコーパス34に基づき、単語・意味表現組N−グラムの生起確率を計算し、単語・意味表現組N−グラムモデルDB20を作成する(S3)。音声理解結果検索部61は、入出力部70経由で音声データ40の入力を受け付けると、記憶部の音響モデルDB50、変換辞書80およびS3で作成した単語・意味表現組N−グラムモデルDB20を参照して、入力された音声データ40に対応する確信度付き単語・意味表現組記号列62を作成する(S4)。そして、出力整形部63は、この確信度付き単語・意味表現組記号列62のうち、確信度がある水準(閾値)より高い記号を選択する。次に、出力整形部63は、選択した記号から単語と意味表現とを抽出し、入力された音声データ40に対応する単語列と意味表現との集合として整形して、入出力部70経由で出力する(S5)。
このようにして音声理解装置100は、音声理解結果(意味表現認識結果および音声認識結果)を演算出力する。
First, the word / semantic expression relevance calculating unit 31 calculates the relevance between a word and a semantic expression for the language corpus 10 input via the input / output unit 70 and creates a word / semantic expression relevance DB 32 ( S1). Next, the word / semantic expression associating unit 33 refers to the word / semantic expression association degree DB 32 and calculates a combination that maximizes the degree of association between the word of the language corpus 10 and the semantic expression. Then, the word / semantic expression association unit 33 creates a corpus 34 with word / semantic expression correspondence by the combination (S2). Next, the N-gram model creation unit 35 calculates the occurrence probability of the word / semantic expression group N-gram based on the corpus 34 with correspondence between the words / semantic expressions, and the word / semantic expression group N-gram model DB 20. Is created (S3). When the speech understanding result search unit 61 receives input of the speech data 40 via the input / output unit 70, the speech understanding result search unit 61 refers to the acoustic model DB 50 of the storage unit, the conversion dictionary 80, and the word / semantic expression set N-gram model DB 20 created in S3. Then, a word / semantic expression pair symbol string 62 with certainty corresponding to the input voice data 40 is created (S4). Then, the output shaping unit 63 selects a symbol having a certainty level higher than a certain level (threshold) from the word / semantic expression set symbol string 62 with certainty level. Next, the output shaping unit 63 extracts words and semantic expressions from the selected symbols, shapes them as a set of word strings and semantic expressions corresponding to the input voice data 40, and passes through the input / output unit 70. Output (S5).
In this way, the voice understanding device 100 calculates and outputs the voice understanding results (semantic expression recognition results and voice recognition results).

本実施の形態に係る音声理解装置100は、前記したような処理を実行させる音声理解プログラムおよび単語・意味表現組N−グラムモデル作成プログラムによって実現することができ、これらのプログラムをコンピュータによる読み取り可能な記憶媒体(CD−OM等)に記憶して提供することが可能である。また、そのプログラムを、ネットワークを通して提供することも可能である。   The voice understanding device 100 according to the present embodiment can be realized by a voice understanding program and a word / semantic expression set N-gram model creation program for executing the processing as described above, and these programs can be read by a computer. It can be stored in a simple storage medium (CD-OM or the like) and provided. It is also possible to provide the program through a network.

続いて、本発明の実施例を説明する。本実施例は、音声理解装置100に入力される言語コーパス10として、鉄道の経路案内のドメイン(分野)を対象とした音声対話システムにより収集された発話を用いている。   Next, examples of the present invention will be described. In the present embodiment, utterances collected by a spoken dialogue system for a railway route guidance domain (field) are used as the language corpus 10 input to the speech understanding device 100.

なお、前記した音声対話システムでは、yes(肯定)、no(否定)、backchannel(あいづち)、departtime(出発時間:timeの上位クラス)、arrivetime(到着時間:timeの上位クラス)、time(時間(出発・到着の指定なし))、from(出発駅:stationの上位クラス)、to(到着駅:stationの上位クラス)、station(駅名(出発・到着の指定なし))、no=(X)(Xの否定)等の意味表現が定義されている。   In the speech dialogue system described above, yes (affirmation), no (denial), backchannel (departure), departtime (departure time: upper class of time), arrivaltime (arrival time: upper class of time), time (time) (No departure / arrival designation)), from (departure station: upper class of station), to (arrival station: upper class of station), station (station name (no departure / arrival designation)), no = (X) Semantic expressions such as (Negation of X) are defined.

ここでの上位クラスの意味表現は、下位の意味表現を含むものとしている。例えば、単に「東京駅」を指す場合はstation=(東京)と表され、「出発駅としての東京駅」を指す場合はfrom=(station=(東京))と表される。   Here, the semantic expression of the upper class includes the lower semantic expression. For example, when simply referring to “Tokyo Station”, it is represented as station = (Tokyo), and when referring to “Tokyo Station as a departure station”, it is represented from from = (station = (Tokyo)).

本実施例で用いる言語コーパス10は、以下のように、音声ファイル名:書き起こされた文(単語列):対応する意味表現の列からなる(一部抜粋)。   The language corpus 10 used in the present embodiment is composed of a voice file name: a written sentence (word string): a corresponding semantic expression string (partially extracted) as follows.

(言語コーパス)
/norikae/20030807/000/20030807-000-000.wav:竹橋 から 高崎 まで :from
=(station=(竹橋)) to=(station=(高崎))
/norikae/20030807/000/20030807-000-001.wav:十八 時 二十 分 到着 :
arrivetime(hour=(18),minute=(20))
/norikae/20030807/000/20030807-000-002.wav:お願い し ます:yes
/norikae/20030807/000/20030807-000-003.wav:竹橋 から 高崎 まで
:from=(station=(竹橋)) to=(station=(高崎))
/norikae/20030807/000/20030807-000-006.wav:十八 時 二十 分 高崎 に 到着 :to=(station=(高崎)) arrivetime(hour=(18),minute=(20))
/norikae/20030807/000/20030807-000-007.wav:十八 時 二十 分 高崎 に 到着 :to=(station=(高崎)) arrivetime(hour=(18),minute=(20))
(Language corpus)
/norikae/20030807/000/20030807-000-000.wav:From Takebashi to Takasaki : from
= (station = (Takehashi)) to = (station = (Takasaki))
/norikae/20030807/000/20030807-000-001.wav:18:20 Arrival:
arrivetime (hour = (18), minute = (20))
/norikae/20030807/000/20030807-000-002.wav: Please, yes
/norikae/20030807/000/20030807-000-003.wav:From Takebashi to Takasaki : from = (station = (Takebashi)) to = (station = (Takasaki))
/norikae/20030807/000/20030807-000-006.wav:18:20, arrive at Takasaki : to = (station = (Takasaki)) arrivetime (hour = (18), minute = (20))
/norikae/20030807/000/20030807-000-007.wav: 18:20 Arrival at Takasaki: to = (station = (Takasaki)) arrivetime (hour = (18), minute = (20))

単語・意味組N−グラムモデル作成部30は、前記した言語コーパス10の各単語と意味表現との組に対して、前記した数式(1)の関連度(φ2)を計算し、単語・意味表現組N−グラムモデルDB20となる以下のようなファイルを作成する(一部抜粋)。ここでは、ファイルの各行に、言語コーパス10内の単語と、その単語に対する各意味表現の関連度を示している。ここでの書式は、「意味表現:関連度(φ2)」としている。 The word / semantic group N-gram model creation unit 30 calculates the relevance (φ 2 ) of the above-described mathematical formula (1) for each pair of the word and the semantic expression in the language corpus 10, The following file to be the semantic expression set N-gram model DB 20 is created (partially extracted). Here, each line of the file indicates a word in the language corpus 10 and the degree of association between each semantic expression for the word. The format here is “semantic expression: relevance (φ 2 )”.

(ファイル)
台場
to=(station=(台場)):(0.111038)
station=(台場):(0.110904)
arrivetime(hour=(9),minute=(40)):(0.002822)
from=(station=(赤羽)):(0.002662)
from=(station=(王子)):(0.000966)
backchannel:(0.000039)
まで
to=(station=(横浜)):(0.001614)
no:(0.01138)
to=(station=(蘇我)):(0.001059)
to=(station=(台場)):(0.000002)
(File)
Daiba
to = (station = (daiba)): (0.111038)
station = (Daiba): (0.110904)
arrivetime (hour = (9), minute = (40)): (0.002822)
from = (station = (Akabane)): (0.002662)
from = (station = (prince)): (0.000966)
backchannel: (0.000039)
Until
to = (station = (Yokohama)) :( 0.001614)
no: (0.01138)
to = (station = (Soga)): (0.00001059)
to = (station = (daiba)): (0.0002)

このファイルの2行目から7行目までは、「台場」という単語に対する各意味表現の関連度(φ2)を示している。例えば、「台場」という単語と、「to=(station=(台場))」(目的地としての「台場」)という意味表現とは、「0.111038」の関連度を持っていることを示している(2行目参照)。 The second to seventh lines of this file indicate the degree of association (φ 2 ) of each semantic expression with respect to the word “Daiba”. For example, the word “daiba” and the semantic expression “to = (station = (daiba))” (“daiba” as the destination) indicate that they have a relevance of “0.111038”. (See line 2).

また、9行目から12行目までは、「まで」という単語に対する各意味表現の関連度(φ2)を示している。例えば、「まで」という単語と、「to=(station=(台場))」という意味表現とは、「0.000002」の関連度を持っていることを示している(12行目参照)。 The ninth to twelfth lines show the degree of association (φ 2 ) of each semantic expression for the word “to”. For example, the word “to” and the semantic expression “to = (station = (daiba))” indicate that they have a degree of association of “0.000002” (see the 12th line).

続いて、単語・意味表現対応付け部33は、前記したファイルデータを用いて、言語コーパス10の単語列と意味表現列との最適な対応付けを検索する。ここでの探索は、前記した数式(2)のa^を最大にする対応付けの探索問題として解く。つまり、各文中ですべての対応付けの組み合わせに対する関連度の積をそれぞれ求め、それが最大となるものを最適な対応付けとして選択する。   Subsequently, the word / semantic expression association unit 33 searches for an optimum association between the word string and the semantic expression string of the language corpus 10 using the file data described above. The search here is solved as a search problem of association that maximizes a ^ in the above formula (2). That is, the product of the relevance levels for all combinations of associations is obtained in each sentence, and the product having the maximum value is selected as the optimum association.

例えば、言語コーパス10が、
単語列:台場まで、
意味表現列:to=(station=(台場))、
という発話からなるとき、可能な対応付けは、
(1)to=(station=(台場)):台場 <eps>:まで、
(2)<eps>:台場 to=(station=(台場)):まで、
の2種類である。
ここで(1)の関連度の積は「0.11038」であり、(2)の関連度の積は「0.000002」であるので、(1)が最適な対応付けとして選択されることになる。
For example, if the language corpus 10 is
Word string: to Daiba
Semantic expression sequence: to = (station = (daiba)),
The possible correspondences are as follows:
(1) to = (station = (Daiba)): up to Daiba <eps>:
(2) <eps>: Daiba to = (station = (Daiba)): Until
There are two types.
Here, the product of the relevance level of (1) is “0.11038”, and the product of the relevance level of (2) is “0.000002”, so (1) is selected as the optimum association.

このような処理の結果、最適な対応付けが行われた単語と意味表現とを組とした新しい記号を用い、言語コーパス10を以下のように書き換え、単語・意味表現の対応付きコーパス34を作成する(一部抜粋)。ここでは、単語と意味表現とを組とした記号を空白で区切って表記されている。
なお、<s>:<s>は文の開始を示す記号であり、</s>:</s>は文の終了を表す記号である。
As a result of such processing, the corpus 34 with the correspondence between the word and the semantic expression is created by rewriting the language corpus 10 as follows by using a new symbol in which the optimally matched word and the semantic expression are paired. Yes (partial excerpt). Here, a symbol that is a combination of a word and a semantic expression is shown separated by a space.
<S>: <s> is a symbol indicating the start of a sentence, and </ s>: </ s> is a symbol indicating the end of the sentence.

(単語・意味表現の対応付きコーパス)
<s>:<s> from=(station=(横浜)):横浜 <eps>:を <eps>:九 <eps>:時\\
departtime=(hour=(9),minute=(45)):四十五 <eps>:分 <eps>:に <eps>:出発\\
to=(station=(蘇我)):蘇我 <eps>:まで </s>:</s>
<s>:<s> departtime=(hour=(21),minute=(50)):二十一 <eps>:時 <eps>:五十\\
<eps>:分 <eps>:に <eps>:乗車 <eps>:し <eps>:ます </s>:</s>
<s>:<s> departtime=(hour=(14),minute=(30)):十四 <eps>:時 <eps>:三十 \\
<eps>:分 <eps>:に from=(station=(新宿)) <eps>:を <eps>:出発 <eps>:し\\ <eps>:ます </s>:</s>
(Corpus with word / semantic expressions)
<s>: <s> from = (station = (Yokohama)): Yokohama <eps>: <eps>: Nine <eps>: Time \\
departtime = (hour = (9), minute = (45)): forty-five <eps>: minute <eps>: to <eps>: departure \\
to = (station = (Soga)): Soga <eps>: Until </ s>: </ s>
<s>: <s> departtime = (hour = (21), minute = (50)): 21 <eps>: hour <eps>: fifty \\
<eps>: minutes <eps>: to <eps>: ride <eps>: then <eps>: mass </ s>: </ s>
<s>: <s> departtime = (hour = (14), minute = (30)): Fourteen <eps>: Time <eps>: Thirty \\
<eps>: Minutes <eps>: from = (station = (Shinjuku)) <eps>: <eps>: Departure <eps>: Shi \\ <eps>: Mas </ s>: </ s>

このようにして作成された単語・意味表現の対応付きコーパス34を、単語・意味組N−グラムモデル作成部30が単語・意味表現組N−グラムモデルDB20に変換する。
本実施例においては、単語・意味組N−グラムモデル作成部30としてフリーウェアとして公開されている技術であるCMU-cambridge SLM Toolkit(P.Clarkson and R.Rosenfeld,"Staistica1 1anguage modeling using the CMU-Cambridgetoolkit",in Proc.EUROSPEECH 1997,pp.2707-2710参照)というN−グラム言語モデル作成ソフトウェアを用いた。
The word / semantic expression N-gram model creation unit 30 converts the corpus 34 with the word / semantic expression correspondence thus created into a word / semantic expression group N-gram model DB 20.
In this embodiment, the CMU-cambridge SLM Toolkit (P. Clarkson and R. Rosenfeld, “Staistica1 1anguage modeling using the CMU-”, which is a technology released as freeware as the word / semantic pair N-gram model creation unit 30. N-gram language model creation software, “Cambridgetoolkit”, in Proc. EUROSPEECH 1997, pp. 2707-2710) was used.

このソフトウェアを用いて、単語・意味表現の対応付きコーパス34を、通常の単語列のみの言語コーパスの場合と同じように処理すると、以下のような形式(ARPA形式)のファイルが出力可能である(一部抜粋)。なお、本実施例では、N=3のトライグラムモデルおよびN=2のバイグラムモデルを作成した。以下に、本実施例で作成したN=3のトライグラムモデルの一部を示す。左側の値は、右側の記号の3つの組に対する尤度スコア(対数表記)である。   When this corpus 34 with word / semantic expression correspondence is processed in the same manner as in the case of a language corpus with only normal word strings, a file in the following format (ARPA format) can be output. (Excerpt). In this example, a trigram model with N = 3 and a bigram model with N = 2 were created. A part of the N = 3 trigram model created in this example is shown below. The value on the left is the likelihood score (logarithmic notation) for the three sets of symbols on the right.

例えば、以下の単語・意味表現組N−グラムモデルDB20において、言語コーパス10に対する「to=(station=(浅草)):浅草 <eps>:から from=(station=(新宿)):新宿」の3つの組の尤度スコアは、「-0.5661」であることを示す。   For example, in the following word / semantic expression group N-gram model DB 20, “to = (station = (Asakusa)): Asakusa <eps>: to from = (station = (Shinjuku)): Shinjuku” for the language corpus 10. The likelihood score of the three sets indicates “−0.5661”.

(単語・意味表現組N−グラムモデルDB)
-0.5146 to=(station=(川越)):川越 backchannel:や <s>
-1.1167 to=(station=(浅草)):浅草 <eps>:から <s>
-0.5661 to=(station=(浅草)):浅草 <eps>:から from=(station=(新宿)):新宿
-1.1167 to=(station=(浅草)):浅草 <eps>:から from=(station=(大久保)):大久保
-0.2651 to=(station=(浅草)):浅草 <eps>:て <eps>:し
-0.5146 to=(station=(浅草)):浅草 <eps>:発 <eps>:分
(Word / semantic expression group N-gram model DB)
-0.5146 to = (station = (Kawagoe)): Kawagoe backchannel: Ya <s>
-1.1167 to = (station = (Asakusa)): Asakusa <eps>: to <s>
-0.5661 to = (station = (Asakusa)): Asakusa <eps>: From = (station = (Shinjuku)): Shinjuku
-1.1167 to = (station = (Asakusa)): Asakusa <eps>: from = (station = (Okubo)): Okubo
-0.2651 to = (station = (Asakusa)): Asakusa <eps>: te <eps>:
-0.5146 to = (station = (Asakusa)): Asakusa <eps>: Departure <eps>: Minutes

このようにして作成された単語・意味表現組N−グラムモデルDB20を音声認識装置で利用する。本実施例では、音声理解結果探索部61として、フリーウェアとして公開されている技術であるJulius(A.Lee et al.,"Julius-an open source real-time large vocabllary recognition engine",in Proc.EUROROSPEECH 2001,p.1691-1694参照)という音声認識ソフトウェアを用いる。   The word / semantic expression set N-gram model DB 20 created in this way is used in the speech recognition apparatus. In this embodiment, as the speech understanding result search unit 61, Julius (A. Lee et al., “Julius-an open source real-time large vocabllary recognition engine”, in Proc. Speech recognition software called EUROROSPEECH 2001, p.1691-1694) is used.

なお、単語・意味表現組の記号は、前記した変換辞書80に、以下のような形式の語彙ファイルとして単語部分の読み(音素列)を持つ認識語彙として定義する。   The symbol of the word / semantic expression group is defined as a recognized vocabulary having a word part reading (phoneme string) in the conversion dictionary 80 as a vocabulary file having the following format.

from=(station=(竹橋)):竹橋 from=(station=(竹橋)) t a k e b a sh i
from=(station=(高崎)):高崎 from=(station=(高崎)) t a k a s a k i
from = (station = (Takebashi)) : Takebashi from = (station = (Takebashi)) takeba sh i
from = (station = (Takasaki)) : Takasaki from = (station = (Takasaki)) takasaki

空白で区切られた各行の1列目は単語・意味表現組の記号であり、2列目は音声認識ソフトウェアが当該記号に対して標準で出力する表記記号であり、3列目は認識語彙の音素列である。   The first column of each line separated by a space is a symbol of a word / semantic expression pair, the second column is a notation symbol that the speech recognition software outputs as a standard for the symbol, and the third column is a recognition vocabulary. It is a phoneme sequence.

ここで、音声データ40としてWAV形式で録音された音声ファイルを前記の認識語彙(変換辞書80)を持つ音声理解装置100(本実施例では、従来技術である音声認識装置を利用)に入力すると、この認識語彙と単語・意味表現組N−グラムモデルDB20とを参照して、音声理解結果探索部61は、以下のような認識結果を出力する。この認識結果は、本実施の形態の確信度付き単語・意味表現組記号列62に相当する。   Here, when a voice file recorded in the WAV format as voice data 40 is input to the voice understanding device 100 having the recognition vocabulary (conversion dictionary 80) (in this embodiment, a voice recognition device which is a conventional technology is used). The speech understanding result search unit 61 outputs the following recognition result with reference to the recognition vocabulary and the word / semantic expression set N-gram model DB 20. This recognition result corresponds to the word / semantic expression pair symbol string 62 with certainty in the present embodiment.

(確信度付き単語・意味表現組記号列)
sentencel:from=(station=(竹橋)) to=(station=(高崎))
wseq1:<s> from=(station=(竹橋)):竹橋 <eps>:から to=(station=(高崎)):高崎 <eps>:まで</s>
phseq1:silB|t a k e b a sh i|k a r a|t a k a s a ki|m a d e|silE
cmscore1:0.984 0.982 0.955 0.898 0.510 1.000
score1:-5849.820801
(Confirmed word / semantic expression set symbol string)
sentencel: from = (station = (Takehashi)) to = (station = (Takasaki))
wseq1: <s> from = (station = (Takebashi)): Takebashi <eps>: to to = (station = (Takasaki)): Takasaki <eps>: To </ s>
phseq1: silB | takeba sh i | kara | takasa ki | made | silE
cmscore1: 0.984 0.982 0.955 0.898 0.510 1.000
score1: -5849.820801

この中で、1行目(sentencel)は本実施例で得られる音声理解結果、2行目〜3行目(wseq1)は認識された単語・意味表現組の記号列、4行目(phseq1)は音素列、5行目(cmscore1)は確信度、6行目(score1)は認識スコアである。   Among these, the first line (sentencel) is the speech understanding result obtained in this embodiment, the second line to the third line (wseq1) are the symbol strings of the recognized word / semantic expression group, and the fourth line (phseq1). Is the phoneme string, the fifth line (cmscore1) is the certainty, and the sixth line (score1) is the recognition score.

次に、出力整形部63は、確信度付き単語・意味表現組記号列34の単語・意味表現組の記号列(wseq1)および確信度(cmscore1)を利用し、
(1)文の先頭および末尾を表す記号<s>,</s>を取り去る。
(2)あらかじめ設定した確信度の水準(閾値)以下の記号は出力しない(本実施の形態では、確信度の閾値を0.5としている)。
(3)意味表現と単語とを分ける記号「:」で、各記号を分割し、意味表現の記号列と単語列とを分けて出力する。
Next, the output shaping unit 63 uses the word / semantic expression pair symbol string 34 of the word / semantic expression pair symbol string 34 with the certainty factor and the certainty factor (cmscore1).
(1) Remove the symbols <s> and </ s> representing the beginning and end of the sentence.
(2) Symbols below the certainty level (threshold value) set in advance are not output (in this embodiment, the certainty threshold is set to 0.5).
(3) Each symbol is divided by a symbol “:” that separates the semantic expression and the word, and the symbol string of the semantic expression and the word string are output separately.

これにより、
意味表現認識結果として、
This
As a result of semantic expression recognition,

from=(station=(竹橋))(確信度0.982)to=(station=(竹橋))(確信度0.898)   from = (station = (Takehashi)) (confidence 0.982) to = (station = (Takehashi)) (confidence 0.898)

が出力され、
音声認識結果として、
Is output,
As a result of speech recognition,

竹橋(確信度0.982)から(確信度0.955)高崎(確信度0.898)まで(確信度0.510)   From Takebashi (confidence 0.982) to (confidence 0.955) Takasaki (confidence 0.898) (confidence 0.510)

といったデータが出力される。 Is output.

以上のようにして、音声理解装置100は、入力された音声データ40の音声理解を行うことができる。なお、ここでは、出力整形部63に設定した確信度の閾値は、前記した記憶部に格納されており、入出力部70経由で変更可能である。例えば、前記の音声理解結果に対して、確信度の閾値を0.6とすれば、確信度0.6以下の記号は出力しないので、音声認識結果の「まで(確信度0.510)」は出力しないことになる。
つまり、音声理解装置100の利用者が、より確信度の高い音声理解結果を得たいときには、閾値を高く設定し、確信度の低いものも含めた音声理解結果を得たいときには、閾値を低く設定すればよい。
As described above, the voice understanding device 100 can perform voice understanding of the input voice data 40. Here, the certainty threshold set in the output shaping unit 63 is stored in the storage unit and can be changed via the input / output unit 70. For example, if the certainty threshold is set to 0.6 for the speech understanding result, a symbol with confidence 0.6 or less is not output, so the speech recognition result “until (confidence 0.510)” is not output. .
That is, when the user of the voice understanding device 100 wants to obtain a voice understanding result with a higher certainty level, the threshold is set higher, and when the user wants to obtain a voice understanding result including a lower confidence level, the threshold is set lower. do it.

《実験結果》
本発明によって得られる効果を示すための実験として、同じ言語コーパス(約9000文から成る)を利用して作成した単語N−グラムモデル(単語N−グラムモデルDB)および単語・意味表現組N−グラムモデルDB20を利用して、約3000文の音声データ40に対して、以下の各方法を用いて音声理解を行った結果を示す(図2参照)。本実験では以下の(1)〜(4)の4つの方法により音声理解を行い、各方法の性能の比較を行った。ここでは、確信度により音声理解結果の棄却水準を0(一切棄却しない)から1(すべて棄却する)まで変化させて、性能の比較をしている。
(1)単語N-グラムを用いて音声認識を行い、得られた単語列に対して最も尤度の高い意味表現列を、単語・意味表現組N−グラムモデルDB20を用いて探索して出力する方法(baseline)。
(2)単語N-グラムを用いて音声認識を行い、得られた単語列の中で、確信度の高い単語を棄却して未知語を表す記号に置き換えた後、単語列に対して最も尤度の高い意味表現列を、単語・意味表現組N−グラムモデルDB20を用いて探索して出力する方法(単語の確信度を用いて不確かな単語を無視する方法)(WordReject)。
(3)本実施例の音声理解方法(Proposed)。
(4)(比較のため)音声認識がすべて正しく行われた場合を想定し、正しい単語列に対して最も尤度の高い意味表現列を、単語・意味表現組N−グラムモデルDB20を用いて探索して出力する方法(Transcription)。
図2の横軸(Precision)は、音声理解結果として出力された意味表現のうち、正解であったものの割合(適合率)を示す。縦軸(Recall)は、音声データ40に対して得られるべき正解のうち、音声理解結果として出力されたものの割合(再現率)を示す。いずれも単位は%である。
"Experimental result"
As an experiment for showing the effect obtained by the present invention, a word N-gram model (word N-gram model DB) and a word / semantic expression set N- created using the same language corpus (consisting of about 9000 sentences). FIG. 2 shows the result of speech understanding using the following methods for about 3000 sentences of speech data 40 using the gram model DB 20 (see FIG. 2). In this experiment, speech understanding was performed by the following four methods (1) to (4), and the performance of each method was compared. Here, the rejection level of the speech understanding result is changed from 0 (not rejected at all) to 1 (all rejected) according to the certainty level, and the performance is compared.
(1) Speech recognition is performed using a word N-gram, and a semantic expression string having the highest likelihood is searched for and obtained from the obtained word string using the word-semantic expression group N-gram model DB 20 and output. How to do (baseline).
(2) Speech recognition is performed using a word N-gram, and after the word with high certainty is rejected and replaced with a symbol representing an unknown word in the obtained word string, the maximum likelihood for the word string is obtained. A method of searching and outputting a high-level semantic expression sequence using the word / semantic expression group N-gram model DB 20 (a method of ignoring an uncertain word using a certainty factor of a word) (WordReject).
(3) The voice understanding method (Proposed) of this embodiment.
(4) (For comparison) Assuming that all speech recognition is performed correctly, the most likely semantic expression sequence for the correct word sequence is determined using the word / semantic expression set N-gram model DB 20. Search and output method (Transcription).
The horizontal axis (Precision) in FIG. 2 indicates the ratio (accuracy rate) of correct answers among the semantic expressions output as the speech understanding results. The vertical axis (Recall) indicates the ratio (recall rate) of correct answers to be obtained for the speech data 40 that are output as speech understanding results. In both cases, the unit is%.

図2に示すように、例えば、(1)〜(3)の方法による出力結果の適合率を、再現率80%あたりで比較すると、いずれも80%程度である。しかし、再現率70%あたりで比較すると、(3)Proposedの方法(本実施例)は、(1)baselineや(2)WordRejectの方法に比べて高い適合率の音声理解を行うことができることが分かる。   As shown in FIG. 2, for example, when the precision ratios of the output results obtained by the methods (1) to (3) are compared around the recall ratio of 80%, all are about 80%. However, when compared around 70% recall, (3) Proposed method (this example) can perform speech understanding with higher precision than (1) baseline and (2) WordReject methods. I understand.

また、例えば、(1)〜(3)の方法による出力結果の再現率を、適合率86%あたりで比較すると、(1)Precisionの方法は37%程度であり、(2)WordRejectの方法は37%〜70%程度であり、(3)Proposedの方法(実施例)は78%程度であることが分かる。つまり、(3)Proposedの方法(実施例)は、(1)baselineや(2)WordRejectの方法に比べて高い再現率の音声理解を行うことができることが分かる。   Further, for example, when the reproduction rate of the output result by the methods (1) to (3) is compared around the matching rate of 86%, the (1) Precision method is about 37%, and (2) the WordReject method is It is about 37% to 70%, and it can be seen that (3) Proposed method (Example) is about 78%. That is, it can be seen that (3) Proposed method (example) can perform speech understanding with a higher recall than (1) baseline and (2) WordReject methods.

この結果により、本発明は音声認識と言語理解との過程を統合した上で、確信度を算出し、この確信度の水準を下回る音声理解結果を棄却することにより、他の方法と同程度の再現率を得られるときの適合率を高くすることができることが示された。また、他の方法と同程度の適合率を得られるときの再現率を高くすることができることが示された。   Based on this result, the present invention integrates the processes of speech recognition and language understanding, calculates confidence, and rejects speech understanding results that are below this confidence level. It has been shown that the precision can be increased when the recall is obtained. In addition, it was shown that the reproducibility can be increased when the same precision as other methods can be obtained.

本実施の形態の音声理解装置を機能展開して説明したブロック図である。It is the block diagram which expanded and demonstrated the voice | voice understanding apparatus of this Embodiment. 確信度により音声理解結果の棄却水準を変化させたときの性能変化を示したグラフである。It is the graph which showed the performance change when changing the rejection level of a speech comprehension result with certainty.

符号の説明Explanation of symbols

10 言語コーパス
20 意味・表現組N−グラムモデルDB(単語・意味表現組データベース)
30 単語・意味組N−グラムモデル作成部
31 単語・意味表現関連度計算部
32 単語・意味表現関連度DB
33 単語・意味表現対応付け部
34 単語・意味表現の対応付きコーパス
35 N−グラムモデル作成部
40 音声データ
50 音響モデルDB(音響モデル)
60 音声理解部
61 音声理解結果探索部(音声理解処理部)
62 確信度付き単語・意味表現組記号列
63 出力整形部
70 入出力部
80 変換辞書
100 音声理解装置
10 Language Corpus 20 Semantic / Expression Group N-Gram Model DB (Word / Semantic Expression Group Database)
30 Word / Semantic Pair N-Gram Model Creation Unit 31 Word / Meaning Expression Relevance Calculation Unit 32 Word / Meaning Expression Relevance DB
33 Word / Semantic Expression Corresponding Unit 34 Corpus with Word / Semantic Expression Correspondence 35 N-gram Model Creation Unit 40 Audio Data 50 Acoustic Model DB (Acoustic Model)
60 Speech understanding unit 61 Speech understanding result search unit (speech understanding processing unit)
62 Word / semantic expression set symbol string with certainty factor 63 Output shaping unit 70 Input / output unit 80 Conversion dictionary 100 Speech understanding device

Claims (8)

各種データの入出力を行う入出力部と、
単語と意味表現との組み合わせNグラムごとに、前記組み合わせが生起する確率を示した単語・意味表現組データベースと、単語を構成する音素の音響特徴を示した音響モデルとを格納する記憶部と、
前記入出力部経由で入力された音声データを、前記音響モデルおよび前記単語・意味表現組データベースを参照して、前記音声データが表現する単語列および意味表現列を認識するとともに、前記認識した単語列および意味表現列の確信度を計算する音声理解処理部と、
を備えることを特徴とする音声理解装置。
An input / output unit for inputting / outputting various data;
A storage unit for storing a word / semantic expression group database indicating a probability of occurrence of the combination and an acoustic model indicating acoustic features of phonemes constituting the word for each N-grams of combinations of words and semantic expressions;
The speech data input via the input / output unit is recognized with reference to the acoustic model and the word / semantic expression set database to recognize a word string and a semantic expression string expressed by the speech data, and the recognized word A speech understanding processor that calculates the certainty of the sequence and the semantic representation sequence;
A speech understanding device comprising:
入力された音声データに基づき、前記音声データが意味する単語列および意味表現列の認識を行う音声理解装置を用いた音声理解方法であって、
前記音声理解装置が、
前記音声データの入力を受け付けるステップと、
単語と意味表現との組み合わせNグラムごとに、前記組み合わせが生起する確率を示した単語・意味表現組データベースと、単語を構成する音素の音響特徴を示した音響モデルとを参照して、前記音声データの認識結果である単語列および意味表現列と、前記単語列および意味表現列それぞれについて、この単語列および意味表現列に競合するような他の候補が見あたらなかった度合いである確信度とを出力する音声理解ステップと、
を実行することを特徴とする音声理解方法。
A speech understanding method using a speech understanding device for recognizing a word string and a semantic expression string that the voice data means based on input voice data,
The voice understanding device
Receiving the voice data input;
Refer to the word / semantic expression group database indicating the probability of occurrence of the combination and the acoustic model indicating the acoustic features of the phonemes constituting the word for each N-gram of the combination of the word and the semantic expression. A word string and a semantic expression string that are data recognition results, and a certainty factor that is a degree that no other candidate that competes with the word string and the semantic expression string is found for each of the word string and the semantic expression string. Speech understanding step to output,
A speech understanding method characterized by executing
前記音声理解ステップにおいて、認識結果である単語列および意味表現列は、入力された音声データの時系列の特徴量の尤度を最大化する単語列および意味表現列、あるいはその近似式により得られる単語列および意味表現列であることを特徴とする請求項2に記載の音声理解方法。   In the speech understanding step, the word string and the semantic expression string, which are the recognition results, are obtained from the word string and the semantic expression string that maximize the likelihood of the time-series feature amount of the input speech data, or an approximate expression thereof. The speech understanding method according to claim 2, wherein the speech understanding method is a word string and a semantic expression string. 前記音声理解装置は、
前記確信度が所定の閾値を超える単語列および意味表現列を出力することを特徴とする請求項2または請求項3に記載の音声理解方法。
The voice understanding device
The speech understanding method according to claim 2 or 3, wherein a word string and a semantic expression string with the certainty factor exceeding a predetermined threshold value are output.
請求項2に記載の音声理解方法に用いられる単語・意味表現組データベースの作成方法であって、
前記音声理解装置が、
文ごとに、その文を構成する単語列と意味表現の集合を示した言語コーパスの入力を受け付けるステップと、
前記言語コーパスに含まれる単語と意味表現との共起頻度をもとに、前記各単語と意味表現との関連度を計算し、単語・意味表現関連度DBを作成するステップと、
前記作成した単語・意味表現関連度DBを参照して、前記言語コーパスの各文において考えうるすべての単語と意味表現との組み合わせについて、前記関連度の和または積が最大となる組み合わせを計算するステップと、
前記計算した組み合わせにより、前記言語コーパスの単語と意味表現とを対応付けた単語・意味表現の対応付きコーパスを作成するステップと、
前記単語・意味表現の対応付きコーパスにおいて、前記単語と意味との組み合わせの同時確率を計算し、この同時確率を含む単語・意味表現組データベースを作成するステップと、
を実行することを特徴とする単語・意味表現組データベースの作成方法。
A method for creating a word / semantic expression set database used in the speech understanding method according to claim 2,
The voice understanding device
For each sentence, accepting an input of a language corpus indicating a set of word strings and semantic expressions constituting the sentence;
Calculating the degree of association between each word and the semantic expression based on the co-occurrence frequency of the word and the semantic expression included in the language corpus, and creating a word / semantic expression relation degree DB;
Referring to the created word / semantic expression relevance DB, for each possible combination of words and semantic expressions in each sentence of the language corpus, a combination that maximizes the sum or product of the relevance is calculated. Steps,
Creating a corpus with word / semantic expression correspondence that associates words and semantic expressions of the language corpus with the calculated combinations;
In the corpus with correspondence of the word / semantic expression, calculating a joint probability of the combination of the word and the meaning, and creating a word / semantic expression pair database including the joint probability;
A method of creating a word / semantic expression set database characterized by
前記単語と意味表現との組み合わせの同時確率は、前記単語と意味表現との組み合わせが生起する確率を、その組み合わせの前(N−1)個における単語と意味表現との組み合わせの並びの条件付き確率で近似したものであることを特徴とする請求項5に記載の単語・意味表現組データベースの作成方法。   The simultaneous probability of the combination of the word and the semantic expression indicates the probability that the combination of the word and the semantic expression occurs, with the condition of the arrangement of the combination of the word and the semantic expression before (N−1) pieces of the combination. 6. The method of creating a word / semantic expression set database according to claim 5, wherein the word / semantic expression set database is approximated by probability. コンピュータに、請求項2ないし請求項6のいずれか1項に記載の方法を実行させることを特徴とするプログラム。   A program for causing a computer to execute the method according to any one of claims 2 to 6. 請求項7に記載のプログラムを記憶したコンピュータに読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 7.
JP2005166883A 2005-06-07 2005-06-07 Word / semantic expression group database creation method, speech understanding method, word / semantic expression group database creation device, speech understanding device, program, and storage medium Expired - Fee Related JP4733436B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005166883A JP4733436B2 (en) 2005-06-07 2005-06-07 Word / semantic expression group database creation method, speech understanding method, word / semantic expression group database creation device, speech understanding device, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005166883A JP4733436B2 (en) 2005-06-07 2005-06-07 Word / semantic expression group database creation method, speech understanding method, word / semantic expression group database creation device, speech understanding device, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2006343405A true JP2006343405A (en) 2006-12-21
JP4733436B2 JP4733436B2 (en) 2011-07-27

Family

ID=37640429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005166883A Expired - Fee Related JP4733436B2 (en) 2005-06-07 2005-06-07 Word / semantic expression group database creation method, speech understanding method, word / semantic expression group database creation device, speech understanding device, program, and storage medium

Country Status (1)

Country Link
JP (1) JP4733436B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224194A (en) * 2009-03-23 2010-10-07 Sony Corp Speech recognition device and speech recognition method, language model generating device and language model generating method, and computer program
JP2017032738A (en) * 2015-07-31 2017-02-09 日本電信電話株式会社 Speech intention model learning device, speech intention extract device, speech intention model learning method, speech intention extract method and program
CN112183106A (en) * 2020-09-03 2021-01-05 广发证券股份有限公司 Semantic understanding method and device based on phoneme association and deep learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004101963A (en) * 2002-09-10 2004-04-02 Advanced Telecommunication Research Institute International Method for correcting speech recognition result and computer program for correcting speech recognition result
JP2004355630A (en) * 2003-05-29 2004-12-16 Microsoft Corp Semantic object synchronous understanding implemented with speech application language tag

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004101963A (en) * 2002-09-10 2004-04-02 Advanced Telecommunication Research Institute International Method for correcting speech recognition result and computer program for correcting speech recognition result
JP2004355630A (en) * 2003-05-29 2004-12-16 Microsoft Corp Semantic object synchronous understanding implemented with speech application language tag

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"2パス探索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法", 信学技報 SP2003-160, JPN6010024265, 12 December 2003 (2003-12-12), ISSN: 0001608644 *
熊本 忠彦: "コーパスに基づく発話意図タイプ決定ルールの自動生成", 情報処理学会論文誌, vol. 第40巻 第6号, JPN6011019834, June 1999 (1999-06-01), JP, pages 2699 - 2707, ISSN: 0001898624 *
黒橋 禎夫: "文脈共起ベクトルに基づく大域的言語モデル", 情報処理学会研究報告, vol. 第2000巻 No.86, JPN6011019836, 22 September 2000 (2000-09-22), JP, pages 77 - 83, ISSN: 0001898625 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010224194A (en) * 2009-03-23 2010-10-07 Sony Corp Speech recognition device and speech recognition method, language model generating device and language model generating method, and computer program
JP2017032738A (en) * 2015-07-31 2017-02-09 日本電信電話株式会社 Speech intention model learning device, speech intention extract device, speech intention model learning method, speech intention extract method and program
CN112183106A (en) * 2020-09-03 2021-01-05 广发证券股份有限公司 Semantic understanding method and device based on phoneme association and deep learning
CN112183106B (en) * 2020-09-03 2024-05-14 广发证券股份有限公司 Semantic understanding method and device based on phoneme association and deep learning

Also Published As

Publication number Publication date
JP4733436B2 (en) 2011-07-27

Similar Documents

Publication Publication Date Title
JP5040909B2 (en) Speech recognition dictionary creation support system, speech recognition dictionary creation support method, and speech recognition dictionary creation support program
JP5318230B2 (en) Recognition dictionary creation device and speech recognition device
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
KR100486733B1 (en) Method and apparatus for speech recognition using phone connection information
JP5480760B2 (en) Terminal device, voice recognition method and voice recognition program
US20180137109A1 (en) Methodology for automatic multilingual speech recognition
Karpov et al. Large vocabulary Russian speech recognition using syntactico-statistical language modeling
CN107705787A (en) A kind of audio recognition method and device
JPH08278794A (en) Speech recognition device and its method and phonetic translation device
Menacer et al. An enhanced automatic speech recognition system for Arabic
KR101424193B1 (en) System And Method of Pronunciation Variation Modeling Based on Indirect data-driven method for Foreign Speech Recognition
JP2008243080A (en) Device, method, and program for translating voice
Raval et al. Improving deep learning based automatic speech recognition for Gujarati
Larabi-Marie-Sainte et al. A new framework for Arabic recitation using speech recognition and the Jaro Winkler algorithm
JP4733436B2 (en) Word / semantic expression group database creation method, speech understanding method, word / semantic expression group database creation device, speech understanding device, program, and storage medium
JP4600706B2 (en) Voice recognition apparatus, voice recognition method, and recording medium
Azim et al. Large vocabulary Arabic continuous speech recognition using tied states acoustic models
KR20130126570A (en) Apparatus for discriminative training acoustic model considering error of phonemes in keyword and computer recordable medium storing the method thereof
Pellegrini et al. Automatic word decompounding for asr in a morphologically rich language: Application to amharic
JP4528540B2 (en) Voice recognition method and apparatus, voice recognition program, and storage medium storing voice recognition program
KR100511247B1 (en) Language Modeling Method of Speech Recognition System
KR20040018008A (en) Apparatus for tagging part of speech and method therefor
JP4674609B2 (en) Information processing apparatus and method, program, and recording medium
JP2004294542A (en) Speech recognition device and program therefor
JP2000099084A (en) Voice recognition method and device therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110422

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees