JP3581044B2 - 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 - Google Patents
音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 Download PDFInfo
- Publication number
- JP3581044B2 JP3581044B2 JP14077399A JP14077399A JP3581044B2 JP 3581044 B2 JP3581044 B2 JP 3581044B2 JP 14077399 A JP14077399 A JP 14077399A JP 14077399 A JP14077399 A JP 14077399A JP 3581044 B2 JP3581044 B2 JP 3581044B2
- Authority
- JP
- Japan
- Prior art keywords
- natural language
- speech
- sentence
- language sentence
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Machine Translation (AREA)
Description
【発明の属する技術分野】
本発明は、ユーザから発せられた音声情報を認識し、認識した情報から上記音声情報に対する応答文を生成する音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体に関する。
【0002】
【従来の技術】
高度化・多機能化された機械システムに対するヒューマンインタフェース性能を向上させるために、利用者(ユーザ)から発せられた音声情報に基づいて機械システムと対話する音声対話処理システムが研究・開発されている。
【0003】
このような音声対話処理システムにおいては、ユーザの発話した音声による自然語文を機械システムに搭載された計算機(コンピュータ)により認識してその意味(意図)を解釈し、解釈した意味情報に対応する応答情報(応答文)を作成して上記ユーザに出力することにより、ユーザと機械システムとの対話をおこなっている。
【0004】
コンピュータの音声認識処理においては、入力された自然言語文を構成する音声情報から当該自然言語文を構成する単語が検出され、コンピュータの構文解釈処理により、検出された単語集合から「文」として正しい候補が選択・抽出される。そして、コンピュータの意味解釈処理により、抽出された文候補に基づいて自然言語文の意味が解釈され、応答情報作成処理により、解釈された意味に対応する適切な応答文が作成・出力される。
【0005】
ところで、上述した音声対話処理システムにおいては、ユーザから発せられた自然言語文を構成する音声情報を自動的に認識してその意図を解釈する必要がある。
【0006】
従来では、助詞(例えば、「て」、「は」、「が」)等の付属語も自然言語文の意味解釈において重要な役割を果たす場合もあることを考慮して、助詞等の付属語を含む自然言語文をそのまま認識かつ解釈する方法があり、代表的な方法としてディクテーションが挙げられる。
【0007】
【発明が解決しようとする課題】
しかしながら、上述した自然言語文を構成する付属語を含む全ての単語を認識・解釈する方法では、「は」、「が」等の助詞を認識語彙に含めているが、これらの助詞を構成する語は、名詞、動詞等の自立語の一部としても認識されるため、上記助詞を入力音声情報中の誤った位置で認識してしまう、いわゆる「湧き出し誤り」が多発する。
【0008】
この多発した湧き出し誤りにより、構文解釈処理において選択抽出される文候補は爆発的に増大するため、音声対話処理システムの処理時間を非常に増大させ、音声対話処理システムの実用性を阻害している。
【0009】
また、上記自然言語文を構成する全ての単語(付属語を含む)を認識・解釈する方法では、非常に短い語である助詞を認識しなければならないため、例えば、上記音声対話処理システムを、周囲にノイズが存在する実環境下で適用した場合においては、上記ノイズの影響で助詞の認識を一層困難にしている。
【0010】
例えば、音声対話処理システムをカーナビゲーションシステムに適用した場合(以下、音声対話型カーナビゲーションシステムと記載する)では、車体の走行ノイズ、オーディオノイズおよび車外の風の音等の様々なノイズにより、ユーザ(ドライバ)から発せられた音声情報(自然言語文)から助詞を認識することは、非常に困難である。
【0011】
一方、助詞の認識に基づく文法的な制約条件を利用して、助詞を含む文の認識を高速化する手法も考え出されているが、実環境下(例えば、音声対話型カーナビゲーションシステムにおける車両運転中等)において、ユーザが文法的に正確な文を発声することを望むことは難しく、さらに、文法的な誤りに加えて、例えば、「えーと」等の不要語や言いよどみ、どもり、言い直し等も発生するため、上記文法的や制約条件に基づく方法でも、自然言語文を構成する全ての単語を正確に認識することは困難である。
【0012】
そこで、上述した自然言語文を構成する付属語を含む全ての単語を認識・解釈する方法において生じた問題点を解決するために、入力された自然言語文を構成する音声情報から、助詞等の付属語、不要語等を除く自立語等のキーワード(自由な発声を理解して意味表現を得るために必要な予め定めた特定の単語)のみを認識し、認識したキーワードの時系列(キーワード系列)のみから上記自然言語文の意味を解釈する方法も提案されている。
【0013】
しかしながら、このキーワードに基づく認識・解釈方法では、「コーラ2つ」、「チーズバーガーいらない」等の少数のキーワードから構成された単純な自然言語文には適しているが、例えば、「吹田サービスエリアの次の駐車場付きのレストランは?」等のように、単語数(キーワード数)が多い複雑な文に対して、このキーワードに基づく認識・解釈方法を適用した場合では、キーワード系列「吹田 サービスエリア 次 駐車場付き レストラン」となり、キーワード間の係り受け関係を特定することが難しくなる。
【0014】
すなわち、上記キーワード系列は、例えば「吹田サービスエリアは、次の駐車場付きのレストランですか?」という確認の意味と、「吹田サービスエリアの次にある駐車場付きのレストランは何ですか」という質問の意味との2通りに解釈できるため、コンピュータの意味解釈処理において一義的に解釈することができなかった。
【0015】
この結果、単語数の多い複雑な自然言語文を音声情報として、上述したキーワードに基づく認識・解釈方法を適用した音声対話処理システムに入力しても応答文を作成して出力することができない場合があり、音声対話処理システムの実用性を低下させる要因となっている。
【0016】
本発明は上述した事情に鑑みてなされたもので、助詞等の付属語の欠落や誤認識が多発する実環境下においても、入力された音声情報に係る自然言語文の意味を実時間で一義的に解釈処理して応答文を作成可能な音声対話処理システムおよび音声対話処理方法を提供することをその目的とする。
【0017】
【課題を解決するための手段】
上述した目的を達成するための請求項1に係る発明によれば、音声情報を認識処理して得られたデータを意味解釈して応答文を生成し、生成した応答文を出力する音声対話処理システムにおいて、前記音声情報を入力する音声情報入力手段と、入力された音声情報を認識処理して前記音声情報に含まれる自立語の候補を互いの順序関係を有する単語系列として抽出する抽出手段と、受理可能な文型を複数の品詞の系列パターンとして記憶する品詞系列パターン記憶手段と、抽出された単語系列を前記複数の品詞系列パターンと照合することにより、少なくとも1つの品詞系列パターンに対応する単語系列を前記音声情報に対応する文候補列として求める手段と、求められた文候補列に対して付属語を補完することにより前記意味解釈用の自然言語文構造のデータを生成する自然言語文構造データ生成手段とを備え、この自然言語文構造データ生成手段は、求められた文候補列に対して、互いに自然言語文構造が異なる複数の自然言語文構造データを生成する手段と、生成された複数の自然言語文構造データの中から意味的に尤らしい1つの自然言語文構造データを所定の判断情報に基づいて選択し、選択した自然言語文構造データの意味解釈を知識ベースを参照して選択意味解釈手段で行う意味解釈手段とを含むものである。
【0018】
請求項2に係る音声対話処理システムでは、前記意味解釈手段における所定の判断情報は、複数の自然言語文構造データの選択処理を行う直前に音声出力された応答音声情報、あるいは、カーナビゲーションシステムからの自車両の現在走行位置情報であることを特徴とするものである。
【0019】
請求項3に係る音声対話処理システムでは、前記自然言語文構造データ生成手段は、前記複数の品詞系列パターンそれぞれの少なくとも1つの品詞に係る付属語を予め記憶する付属語記憶手段と、前記文候補列の品詞系列パターンに対応する付属語を前記付属語記憶手段から読み出して前記少なくとも1つの品詞に補完して前記自然言語文構造データを生成する手段とを備えている。
【0020】
請求項4に係る音声対話処理システムでは、知識ベースを有し、この知識ベースを参照しながら前記自然言語文構造データの意味解釈を行う意味解釈手段と、意味解釈内容に基づいて前記音声情報に対する応答文データを生成する応答文データ生成手段と、生成された応答文データを音声情報として出力する音声情報出力手段とを備えている。
【0021】
請求項5に係る音声対話処理システムでは、前記応答文データ生成手段は、前記意味解釈内容に加えて、前記自然言語文構造データ生成手段により生成された自然言語文構造データを含む応答文データを生成する手段である。
【0023】
また、上述した目的を達成するための請求項6に係る発明によれば、音声情報を認識処理して得られたデータを意味解釈して応答文を生成し、生成した応答文を出力する音声対話処理方法において、前記音声情報を入力するステップと、この入力ステップにより入力された音声情報を認識処理して前記音声情報に含まれる自立語の候補を互いの順序関係を有する単語系列として抽出するステップと、受理可能な文型を複数の品詞の系列パターンとして記憶するステップと、前記抽出ステップにより抽出された単語系列を前記複数の品詞系列パターンと照合することにより、少なくとも1つの品詞系列パターンに対応する単語系列を前記音声情報に対応する文候補列として求めるステップと、このステップにより求められた文候補列に対して付属語を補完することにより前記意味解釈用の自然言語文構造のデータを生成するステップとを備え、この自然言語文構造データ生成ステップは、求められた文候補列に対して、互いに自然言語文構造が異なる複数の自然言語文構造データを生成するステップと、生成された複数の自然言語文構造データの中から意味的に尤らしい1つの自然言語文データを所定の判断情報に基づいて選択し、選択した自然言語文構造データの意味解釈を知識ベースを参照して選択意味解釈手段で選択意味解釈手段で行うステップとを有する方法である。
【0024】
そして、上述した目的を達成するための請求項7に係る発明によれば、入力された音声情報を認識処理して得られたデータを意味解釈して応答文を生成し、生成した応答文を出力するためのコンピュータが読取り可能なプログラムを記憶した記憶媒体において、前記プログラムは、前記入力された音声情報をコンピュータに認識処理させて前記音声情報に含まれる自立語の候補を互いの順序関係を有する単語系列として抽出させる手段と、受理可能な文型を複数の品詞の系列パターンとして前記コンピュータにメモリに記憶させる手段と、抽出された単語系列を前記コンピュータにより前記複数の品詞系列パターンと照合させることにより、少なくとも1つの品詞系列パターンに対応する単語系列を前記音声情報に対応する文候補列として前記コンピュータに求めさせる手段と、求めた文候補列に対して付属語を前記コンピュータに補完させることにより前記意味解釈用の自然言語文構造のデータを生成させる手段とを備え、この自然言語文構造データ生成手段は、求められた文候補列に対して、互いに自然言語文構造が異なる複数の自然言語文構造データをコンピュータに生成させる手段と、生成された複数の自然言語文構造データの中から意味的に尤らしい1つの自然言語文データを所定の判断情報に基づいて選択し、選択した自然言語文構造データの意味解釈を知識ベースを参照してコンピュータに行わせる手段とを有するものである。
【0025】
【発明の実施の形態】
本発明に係る音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体の実施形態について図面を参照して説明する。なお、本実施形態では、説明をより具体的にするため、本実施形態に係る音声対話システムを所定の車両に搭載されたカーナビゲーションシステムに適用した音声対話型カーナビゲーションシステムについて説明する。
【0026】
図1は、本実施の形態に係る音声対話処理システムの概略構成を示すブロック図である。
【0027】
図1によれば、音声対話処理システム1は、ユーザから発せられた自然言語文を構成する音声情報(音声波信号)をマイクロホン等を介して入力し、入力した音声信号をデジタルデータに変換する音声入力部2と、変換された音声データに基づいて音声対話処理を実行するCPU3とを備えている。
【0028】
CPU3は、上記音声対話処理として、音声データに基づいて入力音声情報の候補となる単語が格子状に組み合わされた単語ラティスを例えばワードスポッティング法を用いて生成し、生成した単語ラティスに基づいて所定のキーワード系列を上記音声情報(自然言語文)に対応する文候補として求め、求めたキーワード系列の意味を解釈して応答音声データを作成するようになっている。
【0029】
また、音声対話処理システム1は、CPU3の上記音声対話処理用のプログラムP、音声対話処理に必要なファイル群F1〜F8および知識ベースDを有するメモリ4と、CPU3により作成された応答音声データを応答音声情報(音声波形信号)に変換し、スピーカ等を介してユーザに出力する音声出力部5とを備えている。
【0030】
メモリ4に記憶されたファイルF1は、“品詞辞書”(データ)を格納するための品詞辞書ファイルF1であり、また、ファイルF2は、“文型辞書”(データ)を格納するための文型辞書ファイルF2である。
【0031】
図2は、本実施形態における品詞辞書ファイルF1に格納された“品詞辞書”の一例を示す図である。
【0032】
図2に示す“品詞辞書”によれば、“品詞”、すなわち、“入力要素カテゴリ”については角丸長方形枠で囲んで示し、“単語”、すなわち、“入力要素”については長方形枠で囲んで示す。例えば、“品詞「場所」”は“「現在地」、「施設」、「目的地」、「経由地」”といった“子品詞”から構成され、“品詞「経由地」”は子品詞「出口・入口」と共に単語「インター」及び「インターチェンジ」を要素として有している。
【0033】
本実施形態では、このような形で入力された単語ラティスに対する解釈の基盤となる単語とその品詞構造の辞書を有している。
【0034】
図3は、本実施形態で受理可能な単語系列(キーワード系列)である「文」の形を定義するために文型辞書ファイルF2に格納された“文型辞書”の一例を示す図である。
【0035】
【外1】
【0036】
これらの文型において、“(”と“)”とで括られた最も小さい固まり、例えば“(場所)”や“(経由地名)”等、が一つの単語に対応する品詞となる。そして、それらの系列の連接が“−(ハイフン)”で表され、「AかBかCのうちの何れかの選択」は“(A|Β|C|)”と記述される。また、“[”と“]”とで囲まれた区間は高々一回、すなわち、0回または1回だけ“[”と“]”で囲まれた区間が現れることを意味する。
【0037】
【外2】
【0038】
CPU3は、音声対話処理システム1の起動時において、メモリ4に記憶された文型辞書ファイルF2を展開することにより、図4に示す“品詞系列パターン辞書”を作成し、作成した“品詞系列パターン辞書”をメモリ4上の品詞系列パターン辞書ファイルF3に格納するようになっている。
【0039】
すなわち、図4によれば、図3の文型“g1”は、“sp01−g1”から“sp18−g1”までの18個の品詞系列パターンに展開することができ、文型“g2”は、“sp01−g2”から“sp04−g2”までの4個の品詞系列パターンに展開することができる。
【0040】
この“sp01−g1”から“sp18−g1”と“sp01−g2”から“sp04−g2”に示すような各品詞系列パターンに付与された記号を、当該各品詞系列パターンを識別するための識別番号を表す“品詞系列ID”と呼ぶ。
【0041】
【外3】
【0042】
また、CPU3は、生成した“品詞系列パターン辞書”を品詞系列パターン辞書ファイルF3に格納するとともに、生成した“品詞系列パターン辞書”の内容に基づいて、各品詞の各品詞系列パターンにおける出現箇所(出現順序)と当該品詞とを用いて“品詞系列ハッシュ辞書”を生成してメモリ4上の品詞系列ハッシュ辞書ファイルF4に格納するようになっている。
【0043】
図5は、品詞系列ハッシュ辞書ファイルF4に格納された“品詞系列ハッシュ辞書”の一例を示す図である。
【0044】
図5(a)〜図5(e)に示すように、“品詞系列ハッシュ辞書”は、単語出現番号“1”から、あり得る品詞系列パターンの最長“n”(本実施形態では“5”)までの各“出現順位の表”と、各単語系列パターンの末尾からの“ハッシュ表”とから構成される。
【0045】
例えば、図5(a)に示す“単語出現番号1”の“ハッシュ表”を見れば、本実施形態の文型辞書において品詞項目“品詞(地名)”が文頭に現れる単語系列のパターンとしては、“品詞系列ΙD”が“sp01−g2”と“sp02−g2”の2種類しかないことがわかる。
【0046】
一方、メモリ4上のノード要素データファイルF5は、単語ラティスを構成する各単語(以下、ノードとする)に対する複数のデータ要素を各ノード毎にそれぞれ格納するためのファイルである。
【0047】
ここで、ノード要素データファイルF5に格納される各ノードのノード要素データを具体的に説明するため、音声データからのワードスポッティング法を用いて得られた結果を図6に示す簡単なものとし、そのワードスポッティング結果に基づく単語ラティスが図7に示すものであるとする。
【0048】
このとき、ノード要素データファイルF5の各ノードに対応する格納領域には、図8に示すノード要素データが格納される。
【0049】
すなわち、図8に示すように、ノード要素データは、“ノード1D”、“所属品詞”、“前ノードリスト”、“次ノードリスト”、“未処理前ノードリスト”、“解析途中経過リスト”、“入力要素1d:単語表象”の7個である。
【0050】
ここで、単語ラティスのノードの第1の要素データは、ノードの識別子である“ノードID”であり、図7で各ノードに示されているように、「入力要素ΙD:単語表象」の形式で記述される。
【0051】
第2の要素データは、そのノード(単語)の“所属品詞”である。
【0052】
第3の要素データは、そのノードの前に接続する可能性のあるノードの集合を表す“前ノードリスト”である。
【0053】
第4の要素データは、そのノードの後ろに接続する可能性のあるノードの集合を表す“次ノードリスト”である。
【0054】
第5の要素データは、前ノードリストの要素中解析処理が終了していないノードの集合を表す“未処理前ノードリスト”であり、このリストの内容が空にならない限りそのノードの解析を行ってはならないことを示す。
【0055】
第6の要素データは、そのノードが表象する単語が受理される単語系列の要素であるならば、どの品詞系列パターンがその単語系列のテンプレートとしてあり得るかを要素として持つ“解析途中経過リスト”である。解析途中経過リストは、そのノードが受理可能単語系列の何番目に現れるかの数値と、その順序でそのノードが表象する単語が現れたときに考えられる品詞系列IDのリストとの組のリストで表現される。
【0056】
例えば、図7に示す単語ラティスを例にとると、当該単語ラティスのノード“「07:今」”については“(「今」…)”という具合に、単語系列の最初に現れる場合と、“(「道」、「今」、…)”という具合に、2番目に現れる場合とが考えられる。
【0057】
このような場合、“解析途中経過リスト”として、“[(1、1…1)、(2、−…]]”と云う具合に、この単語が1番目に現れた場合に取り得る品詞系列パターンのリストと2番目に現れた場合に取り得る品詞系列パターンのそれとがそれぞれ分けて格納される。
【0058】
また、ファイルF6は、現在処理対象とし得る単語ラティスの上のノードのリストを格納するファイル(処理中ノードリストファイル)であり、また、ファイルF7は、単語ラティスで受理可能な“品詞系列ID”を格納するためのファイル(品詞系列候補リストファイル)である。
【0059】
そして、本実施形態では、図4に示す各キーワード系列の意味を一義的に定めるために、当該キーワード系列毎に、そのキーワード系列に対して補完される助詞等の付属語およびその補完位置を表す情報(以下、付属語補完情報ともいう)が予めメモリ4に設置された付属語補完ファイルF8に格納されている。
【0060】
すなわち、図9に示すように、付属語補完ファイルF8には、品詞系列ID“sp08−g1”の品詞系列に対しては、キーワード「疑問詞:どれくらい」に係る付属語として、助動詞「ですか」が補完されることを表す情報が格納されている。
【0061】
なお、キーワード「経由地名」と「経由地」との間、キーワード「経由地」と「道程」との間、およびキーワード「疑問詞:どれくらい」との間には、「φ」という情報が格納されている。この「φ」は、キーワード間において付属語が必要ないことを表す情報である。
【0062】
そして、品詞系列ID“sp0x−gy”の品詞系列に対しては、キーワード(経由地)に係る付属語、キーワード(形容詞)に係る付属語、およびキーワード(条件)の付属語として、それぞれ助詞「の」が補完されることを表す情報が格納されており、また、キーワード「場所:施設」に係る付属語として、助詞「は」が補完されることを表す情報が格納されている。
【0063】
さらに、メモリ4に記憶された知識ベースDには、文候補となるキーワード系列が問題の解決を要求する意図(意味内容)であるとされた場合に、その問題の解決処理に必要な専門的知識(例えば、カーナビゲーションシステムでは、地図情報等)が体系化され、かつコンピュータ処理に適した形式で蓄積されている。
【0064】
続いて、本実施形態の全体処理動作について、特に、CPU3の音声対話処理を中心に詳細に説明する。
【0065】
今、図6に示すように、ユーザが「西宮インターチェンジまでどのくらいですか」という音声情報を発したとする。
【0066】
このとき、ユーザから発せられた音声情報は音声入力部2により音声データに変換されてCPU3に送られる。
【0067】
CPU3に対して音声入力部2から送信された音声データが入力されると、音声対話処理プログラムPを読み出し、読み出した音声対話処理プログラムPに従って、最初に公知のワードスポッティング法を用いた音声認識処理S1を実行して、上記音声情報の候補となる単語(キーワード)が格子状に組み合わされた単語ラティスを生成する。
【0068】
次いで、CPU13は、メモリ4上の品詞辞書ファイルF1、品詞系列パターン辞書ファイルF3、および品詞系列ハッシュ辞書ファイルF4およびノード要素データファイルF5を参照しながら構文解析処理S2を行うことにより、所定のキーワード系列を上記音声情報(自然言語文)に対応する文候補として求める。
【0069】
以下、この構文解析処理S2について詳細に説明する。
【0070】
すなわち、CPU3は、ノード要素データファイルF5を参照して、音声認識処理により生成された単語ラティスの全ノードについて、前ノードリストの内容を未処理前ノードリストにコピーし(図10;ステップS10)、単語ラティスの開始ノードに接続している、すなわちキーワード系列の先頭になり得る単語を表象するノードを処理中ノードリストファイルF6に格納する(ステップS11)。
【0071】
次いで、CPU3は、ステップS11の処理により処理中ノードリストファイルF6に格納した各ノードの解析途中経過リストの初期値を設定し(ステップS12)、処理中ノードリストファイルF6に格納した各ノードのノード要素データファイルF6における未処理前ノードリストから開始ノードを削除する(ステップS13)。
【0072】
【外4】
【0073】
ステップS10〜ステップS13の処理が終了すると、CPU3は、処理中ノードリストファイルF6が空、すなわち、単語ラティスにおける処理中ノードがなくなったか否か判断する(ステップS14)。
【0074】
今、図7に示すように処理中ノードファイルF6は空ではないため(ステップS14→NO)、CPU3は、処理中ノードリストファイルF6からノードを1つ(例えば、ノードM「07:今」)を取り出す(ステップS15)。
【0075】
次いでCPU3は、ノード要素データファイルF5を参照して、取り出したノード「07:今」の未処理前ノードリストは空であるか否か判断する(ステップS16)。
【0076】
今、ノード「07:今」の“未処理前ノードリスト”は空でないため、ステップS16の判断はNOとなり、ステップS14の処理に戻る。そして、再び、ステップS15で別のノード「01:道」が処理中ノードリストファイルF6から取り出される。
【0077】
このノード「01:道」のノード要素データファイルF5における“未処理前ノードリスト”は空のため(ステップS16→YES)、CPU3は、後続のノード「07:今」と「15:インターチェンジ」に対して、上記ノード「01:道」の“解析途中経過リスト”の内容を伝播する(ステップS17)。
【0078】
ただし、上述したように、ノード「01:道」の“解析途中経過リスト”は空であるため(ステップS18→YES)、ノード「07:今」とノード「l5:インターチェンジ」の“解析途中経過リスドの内容は変化しない。
【0079】
そして、CPU3は、ノード要素データファイルF5を参照して、ノード「07:今」およびノード「l5:インターチェンジ」の“未処理前ノードリスト”からそれぞれノード「01:道」を削除する(ステップS19)。
【0080】
【外5】
【0081】
次にステップS15で、再び、ノード「07:今」が処理中ノードリストファイルF6から取り出されるが、ノード「07:今」の“未処理前ノードリスト”は空となったため、今回は伝播が可能となる(ステップS16、S17参照)。
【0082】
しかしながら、このノード「07:今」の“解析途中経過リスト”も事実上、“空”、すなわち、このノードを経由して受理可能な品詞系列はないため(ステップS18→YES)、このノードの後ろに接続する各ノード「14:インター、18:今、20:まで、15:インターチェンジ」の“解析途中経過リスト”の内容は変化せず、これらのノードの“未処理前ノードリスト”からノード「07:今」が削除されるのみである(ステップS19参照)。
【0083】
【外6】
【0084】
次にステップS14の処理に移行するが、上述したように、処理中ノードリストF6は空ではないため、ステップS15において、CPU3により、処理中ノードリストファイルF6からノード「03:西宮」が取り出される。このノード「03:西宮」の“未処理前ノードリスト”は空のため(ステップS16→YES)、“解析途中経過リスト”の内容の伝播が可能である(ステップS17参照)。
【0085】
【外7】
【0086】
次いで、CPU3は、品詞系列辞書ファイルF4を参照して、生成したリストと、後続するノードの対応する“品詞系列ハッシュ”の内容との積集合をとる(ステップS21)。
【0087】
【外8】
【0088】
【外9】
【0089】
次に、ステップS14→NOであるため、ステップS15でノード「15:インターチェンジ」が処理中ノードリストファイルF6から取り出される。このノード「15:インターチェンジ」の“未処理前ノードリスト”は空のため、“解析途中経過リスト”の内容の伝播が可能である(ステップS16、S17参照)。
【0090】
【外10】
【0091】
そして、CPU3は、品詞系列辞書ファイルF4を参照して、生成したリストと、後続するノード「20:まで」の対応する“品詞系列ハッシュ辞書”の内容との積集合をとる(ステップS21参照)。
【0092】
【外11】
【0093】
同様のサイクルがノード「14:インター」からの伝播でも行われる。この伝播の際、ノード「14:インター」からはノード「18:今」に対しても接続可能ではあるが、ノード「18:今」の対応する“品詞ハッシュ辞書”の項目がないため、上記積集合をとってもノード「18:今」の“解析途中経過リスト”の内容は空のままである。
【0094】
【外12】
【0095】
次に、ステップS14→NOであるため、ステップS15の処理により、ノード「20:まで」が処理中ノードリストファイルF16から取り出される。このノード「20:まで」の“未処理前ノードリスト”は空のため、“解析途中経過リスド”の内容の伝播が可能である(ステップS16、ステップS17参照)。
【0096】
【外13】
【0097】
【外14】
【0098】
次に、「終了」ノードへの伝播に際しては、単語出現番号「end」の“ハッシュ辞書項目”が参照される。この場合、品詞「道程」で終了する文型は登録されていないため、辞書参照は失敗し、終了ノードの解析途中経過リストの内容は更新されない。
【0099】
【外15】
【0100】
次に、ステップS14→NOであるため、ステップS15で、ノード「24:どのくらい」が処理中ノードリストファイルF15から取り出される。このノード「24:どのくらい」の“未処理前ノードリスト”は空のため、“解析途中経過リスト”の内容の伝播が可能である(ステップS16、S17参照)。しかし、このノード「24:どのくらい」に接続可能なノードは「終了」ノードのみなので、終了ノードに伝播させる。
【0101】
【外16】
【0102】
また、処理中ノードリストファイルF6の内容が空になり(ステップS14→YES)、CPU3は、「終了」ノードの“解析途中経過リスト”の中の全ての品詞系列パターン(この場合、品詞系列ID“sp08−g1”)を、品詞系列候補リストファイルF7に格納する(ステップS22)。
【0103】
そして、CPU3は、上述したステップS10〜ステップS22の処理過程において単語ラティスの各ノードが所属し得る品詞系列(品詞系列ID)の集合がノード要素データファイルF5内の各ノードの“解析途中経過リスト”として残っているため、品詞系列候補リストファイルF7に格納された“品詞系列ID(sp08−g1)”を“解析途中経過リスト”のメンバとして有する単語系列を単語ラティスから探索することで、求める文候補としての“キーワード系列”を得ることができる(ステップS23)。
【0104】
【外17】
【0105】
同様に、例えば、ユーザから「吹田サービスエリアの次の、えーと、駐車場付きのレ、レストランは?」という音声情報が発せられた場合には、この音声情報が変換された音声データに基づいて、CPU3のステップS1の処理により単語ラティスが生成され、CPU3のステップS2(ステップS10〜ステップS23)の処理により、品詞系列パターン(品詞系列ID“sp0x−gy”)のキーワード系列(「吹田」、「サービスエリア」、「次」、「駐車場付き」、「レストラン」)が生成される。
【0106】
このようにして、構文解析処理(ステップS2:ステップS10〜ステップS23)により、入力音声情報に対応する文候補としてのキーワード系列(以下、キーワード系列:「吹田」、「サービスエリア」、「次」、「駐車場付き」、「レストラン」の場合について説明する)が生成されると、CPU3は、付属語補完ファイルF8を参照して付属語補完処理(ステップS3)を実行する。
【0107】
すなわち、CPU3は、付属語補完ファイルF8を参照し(図12;ステップS30)補完される助詞等の付属語およびその補完位置を表す情報、生成したキーワード系列の品詞系列ID(“sp0x−gy”)に対して補完される助詞等の付属語およびその補完位置を表す情報(付属語補完情報)を読み出し(ステップS31)、読み出した付属語補完情報に基づいて、生成したキーワード系列(「吹田」、「サービスエリア」、「次」、「駐車場付き」、「レストラン」)における補完位置に対して助詞等の付属語を補完する(ステップS32)。
【0108】
例えば、本実施形態では、「サービスエリア」と「次」との間、「次」と「駐車場付き」との間および「駐車場付き」と「レストラン」との間にそれぞれ付属語(助詞「の」)が補完され、「レストラン」の末尾に付属語(助詞「は」)が補完される。
【0109】
この結果、キーワード系列(「吹田」、「サービスエリア」、「次」、「駐車場付き」、「レストラン」)は、助詞等の付属語を有する自然言語文構造データ(「吹田サービスエリアの次の駐車場付きのレストランは?」という内容のテキストデータ)となる。
【0110】
このようにしてステップS3の付属語補完処理が終了すると、CPU3は、知識ベースDを参照してステップS4の意味解析・問題解決処理を実行する。
【0111】
すなわち、CPU3は、ステップS3(ステップS30〜ステップS32)で生成された自然言語文構造データ(「吹田サービスエリアの次の駐車場付きのレストランは?」)の意味を解釈する(図13;ステップS40)。
【0112】
このとき、CPU3は、解釈対象となるデータがキーワード系列ではなく、キーワード系列から生成された自然言語文構造データであるため、上記各キーワード(自立語)の格を用いた知的な意味解釈処理を行うことができ、上記自然文構造データ(「吹田サービスエリアの次の駐車場付きのレストランは?」の意味を容易、迅速かつ一義的に解釈することができる。
【0113】
すなわち、従来においては、上記キーワード系列(「吹田」、「サービスエリア」、「次」、「駐車場付き」、「レストラン」)だけでは、吹田サービスエリアは、次の駐車場付きのレストランですか?」という確認の意味と、「吹田サービスエリアの次にある駐車場付きのレストランは何ですか」という質問の意味とのどちらであるか一義的に解釈することができなかったが、本実施形態においては、CPU3は、上記キーワード系列(「吹田」、「サービスエリア」、「次」、「駐車場付き」、「レストラン」)を後者の質問の意味に迅速かつ一義的に解釈することができる。
【0114】
次いで、CPU3は、自然言語文構造データの意図を解釈した結果、この自然言語データの意図は問題解決要求、すなわち、「吹田サービスエリアの次の駐車場付きレストランに関する情報(名前、場所等)取得要求」であることを認識し、認識した問題解決要求を受けて、知識ベースDを参照し、上記問題解決要求に応答する意図を表す応答文(自然言語文)のテキストデータ(例えば、「吹田サービスエリアの次にある駐車場付きのレストランは、○○○○にある△△△△です」というテキストデータ)を生成する(ステップS41)。
【0115】
このようにしてステップS5(ステップS40、ステップS41)の応答文生成処理により応答文(テキストデータ)が生成されると、CPU3は、生成された応答文に基づいてステップS6に示す音声合成処理を実行する。
【0116】
すなわち、CPU3は、生成された応答文テキストデータを解析処理して発音記号列に変換し、この発音記号列に対して韻律制御処理を行って各音素の時間長およびイントネーション等の韻律制御情報を求め、発音記号列および韻律制御情報に基づいて音声合成処理を行うことにより、応答音声データを作成し、作成した応答文音声データを音声出力部5に送信する。
【0117】
音声出力部5では、送信されてきた応答音声データが応答音声情報(音声波形信号)に変換されスピーカ等を介してユーザに出力(システム発話)される。
【0118】
この結果、ユーザは、自ら発した音声情報(質問)に対応してシステム1から発話された応答音声情報を聞くことができる。すなわち、ユーザは、音声対話システム1と対話することができる。
【0119】
以上述べたように、本実施形態によれば、ユーザから発せられた音声情報の中から、「助詞」等の付属語、「えーと」等の不要語、言いよどみ、どもりおよび言い直し等の音声認識する上で困難な語を除く、自立語等のキーワードから構成されたキーワード系列を自動的に抽出し、抽出したキーワード系列に基づいて意味解釈処理を行って応答文を自動的に生成することができる。
【0120】
したがって、従来の音声対話処理システムにおいて必要であった、上記「助詞」等の付属語認識に伴う「湧き出し誤り」に起因した多数の単語ラティスを処理するための処理時間を大幅に削減することができ、音声対話処理システムの実用性を向上させることができる。
【0121】
また、上述したように、本実施形態の音声対話システムにおいては、助詞等の付属語や不要語等を認識することなくキーワード系列を抽出することができるため、実環境下でのノイズ等の影響を最小限度に抑制しながら上記応答情報に基づくキーワード系列を正確に認識することができる。
【0122】
特に、本実施形態では、キーワードの並び(キーワード系列)の状態において上記キーワード系列の意味解釈を行うのではなく、そのキーワード系列に対して助詞等の付属語を補完し、キーワード系列から構成された自然言語文として意味解釈処理を行うことができるため、従来において、キーワード系列だけではその意味が一義的に解釈できなかった場合でも、助詞等の付属語を補完して各キーワードの格、すなわち、各キーワードのキーワード系列中の他のキーワードに対する関係を定めることにより、キーワード系列の意味を迅速かつ一義的に解釈することができる。
【0123】
したがって、単語数の多い複雑な自然言語文を音声情報として音声対話処理システムに入力した場合でも、容易に応答文を作成して出力することができるため、音声対話処理システムの実用性をさらに向上させることができる。
【0124】
なお、本実施形態において、CPU3は、応答文生成処理(ステップS5)のステップS41の処理において、応答文として、上記付属語を補完した自然言語構造データ(テキストデータ)を含めることも可能である。この場合、CPU3の音声合成処理(ステップS6)により、付属語を補完して生成したユーザからの音声情報に対応する入力音声情報を含む応答音声情報が音声出力部5を介してユーザに出力される。
【0125】
この結果、ユーザは、出力された入力音声情報を含む応答音声情報により、自ら発した音声情報を音声対話処理システム1がどのように解釈したのかを容易に把握することができ、万一、音声対話システム1がユーザの音声情報を誤解して解釈していた場合には、速やかに修正した音声情報入力動作を行うことができる。
【0126】
ところで、上述した本実施形態の付属語補完ファイルF8において、各キーワード系列には、それぞれ一義的な自然言語文構造をその各キーワード系列に与えるための単一の付属語補完情報が格納されている。
【0127】
例えば、品詞系列ID“sp0x−gy”の品詞系列に対しては、一義的な自然言語文構造(吹田サービスエリアの次の駐車場付きのレストランは;以下、第1の自然文構造と記載する)を与えるための、キーワード(経由地)、キーワード(形容詞)およびキーワード(条件)それぞれの付属語として助詞「の」が、また、キーワード「場所:施設」に係る付属語として、助詞「は」がそれぞれ補完されることを表す単一の付属語補完情報が付属語補完ファイルF8に格納されている。
【0128】
しかしながら、本発明は上記構成に限定されるものではない。
【0129】
例えば、付属語補完ファイルF8に対して、複数の自然言語文構造を各キーワード系列にそれぞれ与えるための複数の付属語補完情報をキーワード系列毎に格納しておく。
【0130】
例えば、上述した品詞系列ID“sp0x−gy”の品詞系列に対しては、上述した第1の自然言語文構造を与えるための付属語補完情報(以下、第1の付属語補完情報と記載する)に加えて、第1の自然言語文構造とは異なる自然言語文構造(吹田サービスエリアは次の駐車場付きレストランですか)を与えるための、キーワード(経由地)とキーワード(形容詞)との間の付属語として助詞「は」が、キーワード(形容詞)とキーワード(条件)との間の付属語として助詞「の」が、およびキーワード「場所:施設」に係る付属語として、助動詞・助詞「です・か」がそれぞれ補完されることを表す第2の付属語補完情報が付属語補完ファイルF8にそれぞれ格納されている。
【0131】
このとき、CPU3は、上述したステップS31の処理として、キーワード系列の品詞系列ID(“sp0x−gy”)に対応する第1および第2の付属語補完情報をそれぞれ読み出し、ステップS32の処理として、読み出した第1および第2の付属語補完情報に基づいて、生成したキーワード系列(「吹田」、「サービスエリア」、「次」、「駐車場付き」、「レストラン」)における補完位置に対して助詞等の付属語をそれぞれ補完することにより、第1の自然言語文構造データ(質問の意味を表す「吹田サービスエリアの次の駐車場付きのレストランは?」という内容を表すテキストデータ)および第2の自然言語文構造データ(確認の意味を表す「吹田サービスエリアは次の駐車場付きのレストランですか?」という内容を表すテキストデータ)をそれぞれ生成する。
【0132】
そして、CPU3は、上述したステップS40の処理として、上述したステップS30〜ステップS32で生成された第1の自然言語文構造データ(「吹田サービスエリアの次の駐車場付きのレストランは?」)および第2の自然言語文構造データ(「吹田サービスエリアは次の駐車場付きのレストランですか?」)の中から意味的に尤らしい1つの自然言語文構造データ(第1あるいは第2の自然言語文構造データ)を選択し、選択した第1あるいは第2の自然言語文構造データの意味を解釈するようになっている。
【0133】
例えば、CPU3が上記自然言語文構造データ選択処理を行う直前に、上記意味解釈処理、応答文生成処理、音声合成処理および音声出力処理により音声出力部5を介して音声出力(システム発話)された応答音声情報が「次のレストランは吹田サービスエリアです」であった場合において、CPU3は、所定の判断情報に基づいて、上記応答音声情報に対応する応答文テキストデータの内容に基づいて何れか一方の自然言語文構造データを選択する。
【0134】
例えば、CPU3は、所定の判断情報として、自然言語文構造データ選択処理を行う直前に音声出力された応答音声情報の内容(応答文テキストデータの内容)を参照し、例えば、その応答音声情報として、第2の自然言語文構造データ(「吹田サービスエリアは次の駐車場付きのレストランですか?」)の解答となる応答音声情報「次のレストランは吹田サービスエリアです」が音声出力(システム発話)されている場合には、既にシステム発話されている応答音声情報に対応する自然言語文構造データに基づく音声情報をユーザが発話する可能性は低いと判断し、直前にシステム発話された応答音声情報に対応する第2の自然言語文構造データではなく、別のレストランの場所を質問するための第1の自然言語文構造データを選択し、選択した第1の自然言語文構造データの意味解釈処理を行うようになっている。
【0135】
また、例えば、CPU3は、自然言語文構造データ選択処理を行う際に、図示しないカーナビゲーションシステムからの自車両の現在走行位置情報を上記所定の判断情報として参照し、例えば、現在の自車両の走行位置が吹田サービスエリアを既に通過している場合には、既に通過している場所に関する確認情報をユーザが発話する可能性は低いと判断し、現在走行位置から過去に関する情報を表す第2の自然言語文構造データではなく、現在走行位置から将来に関する情報を表す第1の自然言語文構造データを選択し、選択した第1の自然言語文構造データの意味解釈処理を行うようになっている。
【0136】
すなわち、本変形例によれば、生成したキーワード系列に対して付属語補完処理により一義的な自然言語文構造データを生成するのではなく、予め用意した複数の付属語補完情報に基づいて生成したキーワード系列に対応する複数の自然言語文構造データを生成し、生成した複数の自然言語文構造データの中から、例えば直前のシステム発話内容や現在走行位置情報等の所定の判断情報を参照することにより、現在の状況に即した意味的に尤らしい1つの自然言語文構造データを選択して意味解釈することができる。
【0137】
この結果、音声対話システム1がユーザの音声情報を誤解して解釈する可能性を減少させることができ、音声対話処理システムの信頼性をさらに向上させることができる。
【0138】
なお、本実施形態およびその変形例では、ユーザから入力された音声情報に基づく応答文を応答音声情報としてユーザに出力したが、本発明はこれに限定されるものではなく、例えば、図示しない表示装置(モニタ)を介して視覚的にユーザに出力してもよい。
【0139】
また、本実施形態およびその変形例においては、本発明に係る音声対話処理システムをカーナビゲーションシステムに適用した例について説明したが、本発明はこれに限定されるものではなく、音声により動作させたいあらゆる機械システムに対して適用可能である。
【0140】
さらに、本実施形態およびその変形例では、構文解析処理として、“品詞系列ハッシュ辞書”を用いることにより、キーワード系列を求めたが、本発明はこれに限定されるものではなく、本システムで受理可能な文型を構成する複数の品詞系列パターンと音声情報から求められた単語系列とを照合することによりキーワード系列を求めるものであれば、何れの方法を用いてもよい。
【0141】
【発明の効果】
以上述べたように、本発明の音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体によれば、ユーザから発せられた付属語等を含む音声情報から、その音声情報に対応する複数の自立語の候補から、受理可能な文型を表す複数の品詞の系列パターンの内の少なくとも1つのパターンに対応する単語系列を前記音声情報に対応する文候補列として求め、求めた文候補列に基づいて意味解釈処理を行って応答文を自動的に生成することができる。
【0142】
すなわち、本発明では、実環境下においても、周囲のノイズ等に影響を受けることなく文候補列を求めることができ、かつ「助詞」等の付属語認識に伴う膨大な単語ラティスの処理時間を大幅に削減することができるため、音声対話処理システムの実用性を向上させることができる。
【0143】
さらに、本発明の音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体によれば、文候補列ではその意味が一義的に解釈できなかった場合でも、助詞等の付属語を補完して文候補列を構成する各自立語の文候補列中の他の自立語に対する関係を定めることができるため、文候補列の意味を迅速かつ一義的に解釈することができる。
【0144】
したがって、単語数の多い複雑な自然言語文を音声情報として音声対話処理システムに入力した場合でも、容易に応答文を作成して出力することができるため、音声対話処理システムの実用性をさらに向上させることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る音声対話処理システムの概略構成を示すブロック図。
【図2】本実施の形態に係る品詞辞書ファイルに格納された“品詞辞書”の一例を示す図。
【図3】本実施形態における文型辞書ファイルに格納された“文型辞書”の一例を示す図。
【図4】本実施形態における品詞系列パターン辞書ファイルに格納された“品詞系列パターン”の一例を示す図。
【図5】品詞系列ハッシュ辞書ファイルに格納された“品詞系列ハッシュ辞書”の一例を示す図。
【図6】本実施形態に係るワードスポッティング結果の一例を示す図。
【図7】図6に示すワードスポッティング結果に基づく単語ラティスを示す図。
【図8】本実施形態に係るノード要素データファイルに格納されるノード要素データを示す図。
【図9】本実施形態に係る付属語補完ファイルに格納される付属語補完情報を示す図。
【図10】本実施形態におけるCPU3の構文解析処理を説明するための概略フローチャート。
【図11】図10に示すステップS10〜ステップS13が終了した時点での単語ラティスのノードの各ノード要素データを示す図。
【図12】本実施形態におけるCPU3の付属語補完処理を説明するための概略フローチャート。
【図13】本実施形態におけるCPU3の意味解析・問題解決処理を説明するための概略フローチャート。
【符号の説明】
1 音声対話処理システム
2 音声入力部
3 CPU
4 メモリ
5 音声出力部
S1 音声認識処理
S2 構文解析処理
S3 付属語補完処理
S4 意味解析・問題解決処理
S5 応答文生成処理
S6 音声合成処理
F1 品詞辞書ファイル
F2 文型辞書ファイル
F3 品詞系列パターン辞書ファイル
F4 品詞系列ハッシュ辞書ファイル
F5 ノード要素データファイル
F6 処理中ノードリストファイル
F7 品詞系列候補リストファイル
F8 付属語補完ファイル
D 知識ベース
P 音声対話処理プログラム
Claims (7)
- 音声情報を認識処理して得られたデータを意味解釈して応答文を生成し、生成した応答文を出力する音声対話処理システムにおいて、前記音声情報を入力する音声情報入力手段と、入力された音声情報を認識処理して前記音声情報に含まれる自立語の候補を互いの順序関係を有する単語系列として抽出する抽出手段と、受理可能な文型を複数の品詞の系列パターンとして記憶する品詞系列パターン記憶手段と、抽出された単語系列を前記複数の品詞系列パターンと照合することにより、少なくとも1つの品詞系列パターンに対応する単語系列を前記音声情報に対応する文候補列として求める手段と、求められた文候補列に対して付属語を補完することにより前記意味解釈用の自然言語文構造のデータを生成する自然言語文構造データ生成手段とを備え、この自然言語文構造データ生成手段は、求められた文候補列に対して、互いに自然言語文構造が異なる複数の自然言語文構造データを生成する手段と、生成された複数の自然言語文構造データの中から意味的に尤らしい1つの自然言語文構造データを所定の判断情報に基づいて選択し、選択した自然言語文構造データの意味解釈を知識ベースを参照して選択意味解釈手段で行う意味解釈手段とを含むことを特徴とする音声対話処理システム。
- 前記意味解釈手段における所定の判断情報は、複数の自然言語文構造データの選択処理を行う直前に音声出力された応答音声情報、あるいは、カーナビゲーションシステムからの自車両の現在走行位置情報であることを特徴とする請求項1記載の音声対話処理システム。
- 前記自然言語文構造データ生成手段は、前記複数の品詞系列パターンそれぞれの少なくとも1つの品詞に係る付属語を予め記憶する付属語記憶手段と、前記文候補列の品詞系列パターンに対応する付属語を前記付属語記憶手段から読み出して前記少なくとも1つの品詞に補完して前記自然言語文構造データを生成する手段とを備えたことを特徴とする請求項1記載の音声対話処理システム。
- 知識ベースを有し、この知識ベースを参照しながら前記自然言語文構造データの意味解釈を行う意味解釈手段と、意味解釈内容に基づいて前記音声情報に対する応答文データを生成する応答文データ生成手段と、生成された応答文データを音声情報として出力する音声情報出力手段とを備えたことを特徴とする請求項1または3記載の音声対話処理システム。
- 前記応答文データ生成手段は、前記意味解釈内容に加えて、前記自然言語文構造データ生成手段により生成された自然言語文構造データを含む応答文データを生成する手段であることを特徴とする請求項4記載の音声対話処理システム。
- 音声情報を認識処理して得られたデータを意味解釈して応答文を生成し、生成した応答文を出力する音声対話処理方法において、前記音声情報を入力するステップと、この入力ステップにより入力された音声情報を認識処理して前記音声情報に含まれる自立語の候補を互いの順序関係を有する単語系列として抽出するステップと、受理可能な文型を複数の品詞の系列パターンとして記憶するステップと、前記抽出ステップにより抽出された単語系列を前記複数の品詞系列パターンと照合することにより、少なくとも1つの品詞系列パターンに対応する単語系列を前記音声情報に対応する文候補列として求めるステップと、このステップにより求められた文候補列に対して付属語を補完することにより前記意味解釈用の自然言語文構造のデータを生成するステップとを備え、この自然言語文構造データ生成ステップは、求められた文候補列に対して、互いに自然言語文構造が異なる複数の自然言語文構造データを生成するステップと、生成された複数の自然言語文構造データの中から意味的に尤らしい1つの自然言語文データを所定の判断情報に基づいて選択し、選択した自然言語文構造データの意味解釈を知識ベースを参照して選択意味解釈手段で行うステップとを有することを特徴とする音声対話処理方法。
- 入力された音声情報を認識処理して得られたデータを意味解釈して応答文を生成し、生成した応答文を出力するためのコンピュータが読取り可能なプログラムを記憶した記憶媒体において、前記プログラムは、前記入力された音声情報をコンピュータに認識処理させて前記音声情報に含まれる自立語の候補を互いの順序関係を有する単語系列として抽出させる手段と、受理可能な文型を複数の品詞の系列パターンとして前記コンピュータにメモリに記憶させる手段と、抽出された単語系列を前記コンピュータにより前記複数の品詞系列パターンと照合させることにより、少なくとも1つの品詞系列パターンに対応する単語系列を前記音声情報に対応する文候補列として前記コンピュータに求めさせる手段と、求めた文候補列に対して付属語を前記コンピュータに補完させることにより前記意味解釈用の自然言語文構造のデータを生成させる手段とを備え、この自然言語文構造データ生成手段は、求められた文候補列に対して、互いに自然言語文構造が異なる複数の自然言語文構造データをコンピュータに生成させる手段と、生成された複数の自然言語文構造データの中から意味的に尤らしい1つの自然言語文データを所定の判断情報に基づいて選択し、選択した自然言語文構造データの意味解釈を知識ベースを参照してコンピュータに行わせる手段とを有することを特徴とするプログラムを記憶した記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14077399A JP3581044B2 (ja) | 1999-05-20 | 1999-05-20 | 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14077399A JP3581044B2 (ja) | 1999-05-20 | 1999-05-20 | 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000330588A JP2000330588A (ja) | 2000-11-30 |
JP3581044B2 true JP3581044B2 (ja) | 2004-10-27 |
Family
ID=15276425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14077399A Expired - Fee Related JP3581044B2 (ja) | 1999-05-20 | 1999-05-20 | 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3581044B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4056298B2 (ja) * | 2002-05-28 | 2008-03-05 | 独立行政法人理化学研究所 | 言語コンピュータ、言語処理方法、ならびに、プログラム |
DE10229207B3 (de) * | 2002-06-28 | 2004-02-05 | T-Mobile Deutschland Gmbh | Verfahren zur natürlichen Spracherkennung auf Basis einer Generativen Transformations-/Phrasenstruktur-Grammatik |
EP1699042B1 (en) * | 2003-12-26 | 2010-02-17 | Kabushiki Kaisha Kenwood | Device control device, method and program |
JP5381211B2 (ja) * | 2009-03-23 | 2014-01-08 | トヨタ自動車株式会社 | 音声対話装置及びプログラム |
US11205052B2 (en) * | 2019-07-02 | 2021-12-21 | Servicenow, Inc. | Deriving multiple meaning representations for an utterance in a natural language understanding (NLU) framework |
-
1999
- 1999-05-20 JP JP14077399A patent/JP3581044B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000330588A (ja) | 2000-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9449599B2 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
JP5040909B2 (ja) | 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム | |
US6910012B2 (en) | Method and system for speech recognition using phonetically similar word alternatives | |
JP3930138B2 (ja) | 情報解析方法および情報解析プログラムを記憶した媒体 | |
US7072837B2 (en) | Method for processing initially recognized speech in a speech recognition session | |
US20080177541A1 (en) | Voice recognition device, voice recognition method, and voice recognition program | |
US20170199867A1 (en) | Dialogue control system and dialogue control method | |
KR101130351B1 (ko) | 영숫자 개념용 음성 인식 문법 생성 | |
US20020120451A1 (en) | Apparatus and method for providing information by speech | |
JP2001100781A (ja) | 音声処理装置および音声処理方法、並びに記録媒体 | |
US20030009335A1 (en) | Speech recognition with dynamic grammars | |
JP2007256836A (ja) | 音声認識装置、音声認識方法および音声認識プログラム | |
JP5703491B2 (ja) | 言語モデル・音声認識辞書作成装置及びそれらにより作成された言語モデル・音声認識辞書を用いた情報処理装置 | |
US20080154591A1 (en) | Audio Recognition System For Generating Response Audio by Using Audio Data Extracted | |
AU2022263497A1 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
JP5073024B2 (ja) | 音声対話装置 | |
JP2008243080A (ja) | 音声を翻訳する装置、方法およびプログラム | |
EP3005152B1 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
JP5160594B2 (ja) | 音声認識装置および音声認識方法 | |
JP3581044B2 (ja) | 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 | |
JP2000029492A (ja) | 音声翻訳装置、音声翻訳方法、音声認識装置 | |
JP4220151B2 (ja) | 音声対話装置 | |
JP3715470B2 (ja) | 応答生成装置、対話管理装置、応答生成方法および応答生成プログラムを格納するコンピュータ読み取り可能な記録媒体 | |
CN115545013A (zh) | 用于对话场景的音似纠错方法及装置 | |
JP2007004052A (ja) | 音声対話装置及び音声理解結果生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040506 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040721 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080730 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090730 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090730 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100730 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |