JP2000330588A - 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 - Google Patents

音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体

Info

Publication number
JP2000330588A
JP2000330588A JP11140773A JP14077399A JP2000330588A JP 2000330588 A JP2000330588 A JP 2000330588A JP 11140773 A JP11140773 A JP 11140773A JP 14077399 A JP14077399 A JP 14077399A JP 2000330588 A JP2000330588 A JP 2000330588A
Authority
JP
Japan
Prior art keywords
speech
sentence
natural language
word
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11140773A
Other languages
English (en)
Other versions
JP3581044B2 (ja
Inventor
Munehiko Sasajima
宗彦 笹島
Yasuyuki Kono
恭之 河野
Takehide Yano
武秀 屋野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP14077399A priority Critical patent/JP3581044B2/ja
Publication of JP2000330588A publication Critical patent/JP2000330588A/ja
Application granted granted Critical
Publication of JP3581044B2 publication Critical patent/JP3581044B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】入力された音声情報に係る自然言語文の意味を
実時間で一義的に解釈処理して応答文を作成する。 【解決手段】音声情報を認識処理して得られたデータを
意味解釈して応答文を生成し、生成した応答文を出力す
る音声対話処理システム1。音声情報を入力する音声情
報入力部2と、入力された音声情報を認識処理して音声
情報に含まれる自立語の候補を互いの順序関係を有する
単語系列として抽出するCPU3の音声認識処理S1
と、受理可能な文型を複数の品詞の系列パターンとして
記憶するメモリ4の品詞系列パターン辞書ファイルF3
および品詞系列ハッシュ辞書ファイルF4と、抽出され
た単語系列を複数の品詞系列パターンと照合することに
より、少なくとも1つの品詞系列パターンに対応する単
語系列を音声情報に対応する文候補列として求めるCP
U3の構文解析処理S2と、求められた文候補列に対し
て付属語を補完することにより意味解釈用の自然言語文
構造のデータを生成するCPU3の付属語補完処理S3
とを備えている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ユーザから発せら
れた音声情報を認識し、認識した情報から上記音声情報
に対する応答文を生成する音声対話処理方法、音声対話
処理システムおよびプログラムを記憶した記憶媒体に関
する。
【0002】
【従来の技術】高度化・多機能化された機械システムに
対するヒューマンインタフェース性能を向上させるため
に、利用者(ユーザ)から発せられた音声情報に基づい
て機械システムと対話する音声対話処理システムが研究
・開発されている。
【0003】このような音声対話処理システムにおいて
は、ユーザの発話した音声による自然語文を機械システ
ムに搭載された計算機(コンピュータ)により認識して
その意味(意図)を解釈し、解釈した意味情報に対応す
る応答情報(応答文)を作成して上記ユーザに出力する
ことにより、ユーザと機械システムとの対話をおこなっ
ている。
【0004】コンピュータの音声認識処理においては、
入力された自然言語文を構成する音声情報から当該自然
言語文を構成する単語が検出され、コンピュータの構文
解釈処理により、検出された単語集合から「文」として
正しい候補が選択・抽出される。そして、コンピュータ
の意味解釈処理により、抽出された文候補に基づいて自
然言語文の意味が解釈され、応答情報作成処理により、
解釈された意味に対応する適切な応答文が作成・出力さ
れる。
【0005】ところで、上述した音声対話処理システム
においては、ユーザから発せられた自然言語文を構成す
る音声情報を自動的に認識してその意図を解釈する必要
がある。
【0006】従来では、助詞(例えば、「て」、
「は」、「が」)等の付属語も自然言語文の意味解釈に
おいて重要な役割を果たす場合もあることを考慮して、
助詞等の付属語を含む自然言語文をそのまま認識かつ解
釈する方法があり、代表的な方法としてディクテーショ
ンが挙げられる。
【0007】
【発明が解決しようとする課題】しかしながら、上述し
た自然言語文を構成する付属語を含む全ての単語を認識
・解釈する方法では、「は」、「が」等の助詞を認識語
彙に含めているが、これらの助詞を構成する語は、名
詞、動詞等の自立語の一部としても認識されるため、上
記助詞を入力音声情報中の誤った位置で認識してしま
う、いわゆる「湧き出し誤り」が多発する。
【0008】この多発した湧き出し誤りにより、構文解
釈処理において選択抽出される文候補は爆発的に増大す
るため、音声対話処理システムの処理時間を非常に増大
させ、音声対話処理システムの実用性を阻害している。
【0009】また、上記自然言語文を構成する全ての単
語(付属語を含む)を認識・解釈する方法では、非常に
短い語である助詞を認識しなければならないため、例え
ば、上記音声対話処理システムを、周囲にノイズが存在
する実環境下で適用した場合においては、上記ノイズの
影響で助詞の認識を一層困難にしている。
【0010】例えば、音声対話処理システムをカーナビ
ゲーションシステムに適用した場合(以下、音声対話型
カーナビゲーションシステムと記載する)では、車体の
走行ノイズ、オーディオノイズおよび車外の風の音等の
様々なノイズにより、ユーザ(ドライバ)から発せられ
た音声情報(自然言語文)から助詞を認識することは、
非常に困難である。
【0011】一方、助詞の認識に基づく文法的な制約条
件を利用して、助詞を含む文の認識を高速化する手法も
考え出されているが、実環境下(例えば、音声対話型カ
ーナビゲーションシステムにおける車両運転中等)にお
いて、ユーザが文法的に正確な文を発声することを望む
ことは難しく、さらに、文法的な誤りに加えて、例え
ば、「えーと」等の不要語や言いよどみ、どもり、言い
直し等も発生するため、上記文法的や制約条件に基づく
方法でも、自然言語文を構成する全ての単語を正確に認
識することは困難である。
【0012】そこで、上述した自然言語文を構成する付
属語を含む全ての単語を認識・解釈する方法において生
じた問題点を解決するために、入力された自然言語文を
構成する音声情報から、助詞等の付属語、不要語等を除
く自立語等のキーワード(自由な発声を理解して意味表
現を得るために必要な予め定めた特定の単語)のみを認
識し、認識したキーワードの時系列(キーワード系列)
のみから上記自然言語文の意味を解釈する方法も提案さ
れている。
【0013】しかしながら、このキーワードに基づく認
識・解釈方法では、「コーラ2つ」、「チーズバーガー
いらない」等の少数のキーワードから構成された単純な
自然言語文には適しているが、例えば、「吹田サービス
エリアの次の駐車場付きのレストランは?」等のよう
に、単語数(キーワード数)が多い複雑な文に対して、
このキーワードに基づく認識・解釈方法を適用した場合
では、キーワード系列「吹田 サービスエリア 次 駐
車場付き レストラン」となり、キーワード間の係り受
け関係を特定することが難しくなる。
【0014】すなわち、上記キーワード系列は、例えば
「吹田サービスエリアは、次の駐車場付きのレストラン
ですか?」という確認の意味と、「吹田サービスエリア
の次にある駐車場付きのレストランは何ですか」という
質問の意味との2通りに解釈できるため、コンピュータ
の意味解釈処理において一義的に解釈することができな
かった。
【0015】この結果、単語数の多い複雑な自然言語文
を音声情報として、上述したキーワードに基づく認識・
解釈方法を適用した音声対話処理システムに入力しても
応答文を作成して出力することができない場合があり、
音声対話処理システムの実用性を低下させる要因となっ
ている。
【0016】本発明は上述した事情に鑑みてなされたも
ので、助詞等の付属語の欠落や誤認識が多発する実環境
下においても、入力された音声情報に係る自然言語文の
意味を実時間で一義的に解釈処理して応答文を作成可能
な音声対話処理システムおよび音声対話処理方法を提供
することをその目的とする。
【0017】
【課題を解決するための手段】上述した目的を達成する
ための請求項1に係る発明によれば、音声情報を認識処
理して得られたデータを意味解釈して応答文を生成し、
生成した応答文を出力する音声対話処理システムにおい
て、前記音声情報を入力する音声情報入力手段と、入力
された音声情報を認識処理して前記音声情報に含まれる
自立語の候補を互いの順序関係を有する単語系列として
抽出する抽出手段と、受理可能な文型を複数の品詞の系
列パターンとして記憶する品詞系列パターン記憶手段
と、抽出された単語系列を前記複数の品詞系列パターン
と照合することにより、少なくとも1つの品詞系列パタ
ーンに対応する単語系列を前記音声情報に対応する文候
補列として求める手段と、求められた文候補列に対して
付属語を補完することにより前記意味解釈用の自然言語
文構造のデータを生成する自然言語文構造データ生成手
段とを備えている。
【0018】請求項2に係る音声対話処理システムで
は、前記自然言語文構造データ生成手段は、前記複数の
品詞系列パターンそれぞれの少なくとも1つの品詞に係
る付属語を予め記憶する付属語記憶手段と、前記文候補
列の品詞系列パターンに対応する付属語を前記付属語記
憶手段から読み出して前記少なくとも1つの品詞に補完
して前記自然言語文構造データを生成する手段とを備え
ている。
【0019】請求項3に係る音声対話処理システムで
は、知識ベースを有し、この知識ベースを参照しながら
前記自然言語文構造データの意味解釈を行う意味解釈手
段と、意味解釈内容に基づいて前記音声情報に対する応
答文データを生成する応答文データ生成手段と、生成さ
れた応答文データを音声情報として出力する音声情報出
力手段とを備えている。
【0020】請求項4に係る音声対話処理システムで
は、前記応答文データ生成手段は、前記意味解釈内容に
加えて、前記自然言語文構造データ生成手段により生成
された自然言語文構造データを含む応答文データを生成
する手段である。
【0021】請求項5に係る音声対話処理システムで
は、前記自然言語文構造データ生成手段は、求められた
文候補列に対して、互いに自然言語文構造が異なる複数
の自然言語構造データを生成する手段を含んでいる。
【0022】請求項6に係る音声対話処理システムで
は、前記意味解釈手段は、生成された複数の自然言語構
造データの中から意味的に尤らしい1つの自然言語文構
造データを所定の判断情報に基づいて選択し、前記知識
ベースを参照して選択した自然言語文構造データの意味
解釈を行う選択意味解釈手段を含んでいる。
【0023】また、上述した目的を達成するための請求
項7に係る発明によれば、音声情報を認識処理して得ら
れたデータを意味解釈して応答文を生成し、生成した応
答文を出力する音声対話処理方法において、前記音声情
報を入力するステップと、この入力ステップにより入力
された音声情報を認識処理して前記音声情報に含まれる
自立語の候補を互いの順序関係を有する単語系列として
抽出するステップと、受理可能な文型を複数の品詞の系
列パターンとして記憶するステップと、前記抽出ステッ
プにより抽出された単語系列を前記複数の品詞系列パタ
ーンと照合することにより、少なくとも1つの品詞系列
パターンに対応する単語系列を前記音声情報に対応する
文候補列として求めるステップと、このステップにより
求められた文候補列に対して付属語を補完することによ
り前記意味解釈用の自然言語文構造のデータを生成する
ステップとを備えている。
【0024】そして、上述した目的を達成するための請
求項8に係る発明によれば、入力された音声情報を認識
処理して得られたデータを意味解釈して応答文を生成
し、生成した応答文を出力するためのコンピュータが読
取り可能なプログラムを記憶した記憶媒体において、前
記プログラムは、前記入力された音声情報をコンピュー
タに認識処理させて前記音声情報に含まれる自立語の候
補を互いの順序関係を有する単語系列として抽出させる
手段と、受理可能な文型を複数の品詞の系列パターンと
して前記コンピュータにメモリに記憶させる手段と、抽
出された単語系列を前記コンピュータにより前記複数の
品詞系列パターンと照合させることにより、少なくとも
1つの品詞系列パターンに対応する単語系列を前記音声
情報に対応する文候補列として前記コンピュータに求め
させる手段と、求めた文候補列に対して付属語を前記コ
ンピュータに補完させることにより前記意味解釈用の自
然言語文構造のデータを生成させる手段とを備えてい
る。
【0025】
【発明の実施の形態】本発明に係る音声対話処理方法、
音声対話処理システムおよびプログラムを記憶した記憶
媒体の実施形態について図面を参照して説明する。な
お、本実施形態では、説明をより具体的にするため、本
実施形態に係る音声対話システムを所定の車両に搭載さ
れたカーナビゲーションシステムに適用した音声対話型
カーナビゲーションシステムについて説明する。
【0026】図1は、本実施の形態に係る音声対話処理
システムの概略構成を示すブロック図である。
【0027】図1によれば、音声対話処理システム1
は、ユーザから発せられた自然言語文を構成する音声情
報(音声波信号)をマイクロホン等を介して入力し、入
力した音声信号をデジタルデータに変換する音声入力部
2と、変換された音声データに基づいて音声対話処理を
実行するCPU3とを備えている。
【0028】CPU3は、上記音声対話処理として、音
声データに基づいて入力音声情報の候補となる単語が格
子状に組み合わされた単語ラティスを例えばワードスポ
ッティング法を用いて生成し、生成した単語ラティスに
基づいて所定のキーワード系列を上記音声情報(自然言
語文)に対応する文候補として求め、求めたキーワード
系列の意味を解釈して応答音声データを作成するように
なっている。
【0029】また、音声対話処理システム1は、CPU
3の上記音声対話処理用のプログラムP、音声対話処理
に必要なファイル群F1〜F8および知識ベースDを有
するメモリ4と、CPU3により作成された応答音声デ
ータを応答音声情報(音声波形信号)に変換し、スピー
カ等を介してユーザに出力する音声出力部5とを備えて
いる。
【0030】メモリ4に記憶されたファイルF1は、
“品詞辞書"(データ)を格納するための品詞辞書ファ
イルF1であり、また、ファイルF2は、“文型辞書"
(データ)を格納するための文型辞書ファイルF2であ
る。
【0031】図2は、本実施形態における品詞辞書ファ
イルF1に格納された“品詞辞書"の一例を示す図であ
る。
【0032】図2に示す“品詞辞書"によれば、“品
詞"、すなわち、“入力要素カテゴリ"については角丸長
方形枠で囲んで示し、“単語"、すなわち、“入力要素"
については長方形枠で囲んで示す。例えば、“品詞「場
所」"は“「現在地」、「施設」、「目的地」、「経由
地」"といった“子品詞"から構成され、“品詞「経由
地」"は子品詞「出口・入口」と共に単語「インター」
及び「インターチェンジ」を要素として有している。
【0033】本実施形態では、このような形で入力され
た単語ラティスに対する解釈の基盤となる単語とその品
詞構造の辞書を有している。
【0034】図3は、本実施形態で受理可能な単語系列
(キーワード系列)である「文」の形を定義するために
文型辞書ファイルF2に格納された“文型辞書"の一例
を示す図である。
【0035】
【外1】
【0036】これらの文型において、“("と“)"とで
括られた最も小さい固まり、例えば“(場所)"や
“(経由地名)"等、が一つの単語に対応する品詞とな
る。そして、それらの系列の連接が“−(ハイフン)"
で表され、「AかBかCのうちの何れかの選択」は
“(A|Β|C|)"と記述される。また、“["と“]"と
で囲まれた区間は高々一回、すなわち、0回または1回
だけ“["と“]"で囲まれた区間が現れることを意味す
る。
【0037】
【外2】
【0038】CPU3は、音声対話処理システム1の起
動時において、メモリ4に記憶された文型辞書ファイル
F2を展開することにより、図4に示す“品詞系列パタ
ーン辞書"を作成し、作成した“品詞系列パターン辞書"
をメモリ4上の品詞系列パターン辞書ファイルF3に格
納するようになっている。
【0039】すなわち、図4によれば、図3の文型“g
1"は、“sp01−g1"から“sp18−g1"まで
の18個の品詞系列パターンに展開することができ、文
型“g2"は、“sp01−g2"から“sp04−g
2"までの4個の品詞系列パターンに展開することがで
きる。
【0040】この“sp01−g1"から“sp18−
g1"と“sp01−g2"から“sp04−g2"に示
すような各品詞系列パターンに付与された記号を、当該
各品詞系列パターンを識別するための識別番号を表す
“品詞系列ID"と呼ぶ。
【0041】
【外3】
【0042】また、CPU3は、生成した“品詞系列パ
ターン辞書"を品詞系列パターン辞書ファイルF3に格
納するとともに、生成した“品詞系列パターン辞書"の
内容に基づいて、各品詞の各品詞系列パターンにおける
出現箇所(出現順序)と当該品詞とを用いて“品詞系列
ハッシュ辞書"を生成してメモリ4上の品詞系列ハッシ
ュ辞書ファイルF4に格納するようになっている。
【0043】図5は、品詞系列ハッシュ辞書ファイルF
4に格納された“品詞系列ハッシュ辞書"の一例を示す
図である。
【0044】図5(a)〜図5(e)に示すように、
“品詞系列ハッシュ辞書"は、単語出現番号“1"から、
あり得る品詞系列パターンの最長“n"(本実施形態で
は“5")までの各“出現順位の表"と、各単語系列パタ
ーンの末尾からの“ハッシュ表"とから構成される。
【0045】例えば、図5(a)に示す“単語出現番号
1"の“ハッシュ表"を見れば、本実施形態の文型辞書に
おいて品詞項目“品詞(地名)"が文頭に現れる単語系
列のパターンとしては、“品詞系列ΙD"が“sp01
−g2"と“sp02−g2"の2種類しかないことがわ
かる。
【0046】一方、メモリ4上のノード要素データファ
イルF5は、単語ラティスを構成する各単語(以下、ノ
ードとする)に対する複数のデータ要素を各ノード毎に
それぞれ格納するためのファイルである。
【0047】ここで、ノード要素データファイルF5に
格納される各ノードのノード要素データを具体的に説明
するため、音声データからのワードスポッティング法を
用いて得られた結果を図6に示す簡単なものとし、その
ワードスポッティング結果に基づく単語ラティスが図7
に示すものであるとする。
【0048】このとき、ノード要素データファイルF5
の各ノードに対応する格納領域には、図8に示すノード
要素データが格納される。
【0049】すなわち、図8に示すように、ノード要素
データは、“ノード1D"、“所属品詞"、“前ノードリ
スト"、“次ノードリスト"、“未処理前ノードリス
ト"、“解析途中経過リスト"、“入力要素1d:単語表
象"の7個である。
【0050】ここで、単語ラティスのノードの第1の要
素データは、ノードの識別子である“ノードID"であ
り、図7で各ノードに示されているように、「入力要素
ΙD:単語表象」の形式で記述される。
【0051】第2の要素データは、そのノード(単語)
の“所属品詞"である。
【0052】第3の要素データは、そのノードの前に接
続する可能性のあるノードの集合を表す“前ノードリス
ト"である。
【0053】第4の要素データは、そのノードの後ろに
接続する可能性のあるノードの集合を表す“次ノードリ
スト"である。
【0054】第5の要素データは、前ノードリストの要
素中解析処理が終了していないノードの集合を表す“未
処理前ノードリスト"であり、このリストの内容が空に
ならない限りそのノードの解析を行ってはならないこと
を示す。
【0055】第6の要素データは、そのノードが表象す
る単語が受理される単語系列の要素であるならば、どの
品詞系列パターンがその単語系列のテンプレートとして
あり得るかを要素として持つ“解析途中経過リスト"で
ある。解析途中経過リストは、そのノードが受理可能単
語系列の何番目に現れるかの数値と、その順序でそのノ
ードが表象する単語が現れたときに考えられる品詞系列
IDのリストとの組のリストで表現される。
【0056】例えば、図7に示す単語ラティスを例にと
ると、当該単語ラティスのノード“「07:今」"につ
いては“(「今」…)"という具合に、単語系列の最初
に現れる場合と、“(「道」、「今」、…)"という具
合に、2番目に現れる場合とが考えられる。
【0057】このような場合、“解析途中経過リスト"
として、“[(1、1…1)、(2、−…]]"と云う
具合に、この単語が1番目に現れた場合に取り得る品詞
系列パターンのリストと2番目に現れた場合に取り得る
品詞系列パターンのそれとがそれぞれ分けて格納され
る。
【0058】また、ファイルF6は、現在処理対象とし
得る単語ラティスの上のノードのリストを格納するファ
イル(処理中ノードリストファイル)であり、また、フ
ァイルF7は、単語ラティスで受理可能な“品詞系列I
D"を格納するためのファイル(品詞系列候補リストフ
ァイル)である。
【0059】そして、本実施形態では、図4に示す各キ
ーワード系列の意味を一義的に定めるために、当該キー
ワード系列毎に、そのキーワード系列に対して補完され
る助詞等の付属語およびその補完位置を表す情報(以
下、付属語補完情報ともいう)が予めメモリ4に設置さ
れた付属語補完ファイルF8に格納されている。
【0060】すなわち、図9に示すように、付属語補完
ファイルF8には、品詞系列ID“sp08−g1"の
品詞系列に対しては、キーワード「疑問詞:どれくら
い」に係る付属語として、助動詞「ですか」が補完され
ることを表す情報が格納されている。
【0061】なお、キーワード「経由地名」と「経由
地」との間、キーワード「経由地」と「道程」との間、
およびキーワード「疑問詞:どれくらい」との間には、
「φ」という情報が格納されている。この「φ」は、キ
ーワード間において付属語が必要ないことを表す情報で
ある。
【0062】そして、品詞系列ID“sp0x−gy"
の品詞系列に対しては、キーワード(経由地)に係る付
属語、キーワード(形容詞)に係る付属語、およびキー
ワード(条件)の付属語として、それぞれ助詞「の」が
補完されることを表す情報が格納されており、また、キ
ーワード「場所:施設」に係る付属語として、助詞
「は」が補完されることを表す情報が格納されている。
【0063】さらに、メモリ4に記憶された知識ベース
Dには、文候補となるキーワード系列が問題の解決を要
求する意図(意味内容)であるとされた場合に、その問
題の解決処理に必要な専門的知識(例えば、カーナビゲ
ーションシステムでは、地図情報等)が体系化され、か
つコンピュータ処理に適した形式で蓄積されている。
【0064】続いて、本実施形態の全体処理動作につい
て、特に、CPU3の音声対話処理を中心に詳細に説明
する。
【0065】今、図6に示すように、ユーザが「西宮イ
ンターチェンジまでどのくらいですか」という音声情報
を発したとする。
【0066】このとき、ユーザから発せられた音声情報
は音声入力部2により音声データに変換されてCPU3
に送られる。
【0067】CPU3に対して音声入力部2から送信さ
れた音声データが入力されると、音声対話処理プログラ
ムPを読み出し、読み出した音声対話処理プログラムP
に従って、最初に公知のワードスポッティング法を用い
た音声認識処理S1を実行して、上記音声情報の候補と
なる単語(キーワード)が格子状に組み合わされた単語
ラティスを生成する。
【0068】次いで、CPU13は、メモリ4上の品詞
辞書ファイルF1、品詞系列パターン辞書ファイルF
3、および品詞系列ハッシュ辞書ファイルF4およびノ
ード要素データファイルF5を参照しながら構文解析処
理S2を行うことにより、所定のキーワード系列を上記
音声情報(自然言語文)に対応する文候補として求め
る。
【0069】以下、この構文解析処理S2について詳細
に説明する。
【0070】すなわち、CPU3は、ノード要素データ
ファイルF5を参照して、音声認識処理により生成され
た単語ラティスの全ノードについて、前ノードリストの
内容を未処理前ノードリストにコピーし(図10;ステ
ップS10)、単語ラティスの開始ノードに接続してい
る、すなわちキーワード系列の先頭になり得る単語を表
象するノードを処理中ノードリストファイルF6に格納
する(ステップS11)。
【0071】次いで、CPU3は、ステップS11の処
理により処理中ノードリストファイルF6に格納した各
ノードの解析途中経過リストの初期値を設定し(ステッ
プS12)、処理中ノードリストファイルF6に格納し
た各ノードのノード要素データファイルF6における未
処理前ノードリストから開始ノードを削除する(ステッ
プS13)。
【0072】
【外4】
【0073】ステップS10〜ステップS13の処理が
終了すると、CPU3は、処理中ノードリストファイル
F6が空、すなわち、単語ラティスにおける処理中ノー
ドがなくなったか否か判断する(ステップS14)。
【0074】今、図7に示すように処理中ノードファイ
ルF6は空ではないため(ステップS14→NO)、C
PU3は、処理中ノードリストファイルF6からノード
を1つ(例えば、ノードM「07:今」)を取り出す
(ステップS15)。
【0075】次いでCPU3は、ノード要素データファ
イルF5を参照して、取り出したノード「07:今」の
未処理前ノードリストは空であるか否か判断する(ステ
ップS16)。
【0076】今、ノード「07:今」の“未処理前ノー
ドリスト"は空でないため、ステップS16の判断はN
Oとなり、ステップS14の処理に戻る。そして、再
び、ステップS15で別のノード「01:道」が処理中
ノードリストファイルF6から取り出される。
【0077】このノード「01:道」のノード要素デー
タファイルF5における“未処理前ノードリスト"は空
のため(ステップS16→YES)、CPU3は、後続
のノード「07:今」と「15:インターチェンジ」に
対して、上記ノード「01:道」の“解析途中経過リス
ト"の内容を伝播する(ステップS17)。
【0078】ただし、上述したように、ノード「01:
道」の“解析途中経過リスト"は空であるため(ステッ
プS18→YES)、ノード「07:今」とノード「l
5:インターチェンジ」の“解析途中経過リスドの内容
は変化しない。
【0079】そして、CPU3は、ノード要素データフ
ァイルF5を参照して、ノード「07:今」およびノー
ド「l5:インターチェンジ」の“未処理前ノードリス
ト"からそれぞれノード「01:道」を削除する(ステ
ップS19)。
【0080】
【外5】
【0081】次にステップS15で、再び、ノード「0
7:今」が処理中ノードリストファイルF6から取り出
されるが、ノード「07:今」の“未処理前ノードリス
ト"は空となったため、今回は伝播が可能となる(ステ
ップS16、S17参照)。
【0082】しかしながら、このノード「07:今」の
“解析途中経過リスト"も事実上、“空"、すなわち、こ
のノードを経由して受理可能な品詞系列はないため(ス
テップS18→YES)、このノードの後ろに接続する
各ノード「14:インター、18:今、20:まで、1
5:インターチェンジ」の“解析途中経過リスト"の内
容は変化せず、これらのノードの“未処理前ノードリス
ト"からノード「07:今」が削除されるのみである
(ステップS19参照)。
【0083】
【外6】
【0084】次にステップS14の処理に移行するが、
上述したように、処理中ノードリストF6は空ではない
ため、ステップS15において、CPU3により、処理
中ノードリストファイルF6からノード「03:西宮」
が取り出される。このノード「03:西宮」の“未処理
前ノードリスト"は空のため(ステップS16→YE
S)、“解析途中経過リスト"の内容の伝播が可能であ
る(ステップS17参照)。
【0085】
【外7】
【0086】次いで、CPU3は、品詞系列辞書ファイ
ルF4を参照して、生成したリストと、後続するノード
の対応する“品詞系列ハッシュ"の内容との積集合をと
る(ステップS21)。
【0087】
【外8】
【0088】
【外9】
【0089】次に、ステップS14→NOであるため、
ステップS15でノード「15:インターチェンジ」が
処理中ノードリストファイルF6から取り出される。こ
のノード「15:インターチェンジ」の“未処理前ノー
ドリスト"は空のため、“解析途中経過リスト"の内容の
伝播が可能である(ステップS16、S17参照)。
【0090】
【外10】
【0091】そして、CPU3は、品詞系列辞書ファイ
ルF4を参照して、生成したリストと、後続するノード
「20:まで」の対応する“品詞系列ハッシュ辞書"の
内容との積集合をとる(ステップS21参照)。
【0092】
【外11】
【0093】同様のサイクルがノード「14:インタ
ー」からの伝播でも行われる。この伝播の際、ノード
「14:インター」からはノード「18:今」に対して
も接続可能ではあるが、ノード「18:今」の対応する
“品詞ハッシュ辞書"の項目がないため、上記積集合を
とってもノード「18:今」の“解析途中経過リスト"
の内容は空のままである。
【0094】
【外12】
【0095】次に、ステップS14→NOであるため、
ステップS15の処理により、ノード「20:まで」が
処理中ノードリストファイルF16から取り出される。
このノード「20:まで」の“未処理前ノードリスト"
は空のため、“解析途中経過リスド"の内容の伝播が可
能である(ステップS16、ステップS17参照)。
【0096】
【外13】
【0097】
【外14】
【0098】次に、「終了」ノードへの伝播に際して
は、単語出現番号「end」の“ハッシュ辞書項目"が
参照される。この場合、品詞「道程」で終了する文型は
登録されていないため、辞書参照は失敗し、終了ノード
の解析途中経過リストの内容は更新されない。
【0099】
【外15】
【0100】次に、ステップS14→NOであるため、
ステップS15で、ノード「24:どのくらい」が処理
中ノードリストファイルF15から取り出される。この
ノード「24:どのくらい」の“未処理前ノードリス
ト"は空のため、“解析途中経過リスト"の内容の伝播が
可能である(ステップS16、S17参照)。しかし、
このノード「24:どのくらい」に接続可能なノードは
「終了」ノードのみなので、終了ノードに伝播させる。
【0101】
【外16】
【0102】また、処理中ノードリストファイルF6の
内容が空になり(ステップS14→YES)、CPU3
は、「終了」ノードの“解析途中経過リスト"の中の全
ての品詞系列パターン(この場合、品詞系列ID“sp
08−g1")を、品詞系列候補リストファイルF7に
格納する(ステップS22)。
【0103】そして、CPU3は、上述したステップS
10〜ステップS22の処理過程において単語ラティス
の各ノードが所属し得る品詞系列(品詞系列ID)の集
合がノード要素データファイルF5内の各ノードの“解
析途中経過リスト"として残っているため、品詞系列候
補リストファイルF7に格納された“品詞系列ID(s
p08−g1)"を“解析途中経過リスト"のメンバとし
て有する単語系列を単語ラティスから探索することで、
求める文候補としての“キーワード系列"を得ることが
できる(ステップS23)。
【0104】
【外17】
【0105】同様に、例えば、ユーザから「吹田サービ
スエリアの次の、えーと、駐車場付きのレ、レストラン
は?」という音声情報が発せられた場合には、この音声
情報が変換された音声データに基づいて、CPU3のス
テップS1の処理により単語ラティスが生成され、CP
U3のステップS2(ステップS10〜ステップS2
3)の処理により、品詞系列パターン(品詞系列ID
“sp0x−gy")のキーワード系列(「吹田」、
「サービスエリア」、「次」、「駐車場付き」、「レス
トラン」)が生成される。
【0106】このようにして、構文解析処理(ステップ
S2:ステップS10〜ステップS23)により、入力
音声情報に対応する文候補としてのキーワード系列(以
下、キーワード系列:「吹田」、「サービスエリア」、
「次」、「駐車場付き」、「レストラン」の場合につい
て説明する)が生成されると、CPU3は、付属語補完
ファイルF8を参照して付属語補完処理(ステップS
3)を実行する。
【0107】すなわち、CPU3は、付属語補完ファイ
ルF8を参照し(図12;ステップS30)補完される
助詞等の付属語およびその補完位置を表す情報、生成し
たキーワード系列の品詞系列ID(“sp0x−g
y")に対して補完される助詞等の付属語およびその補
完位置を表す情報(付属語補完情報)を読み出し(ステ
ップS31)、読み出した付属語補完情報に基づいて、
生成したキーワード系列(「吹田」、「サービスエリ
ア」、「次」、「駐車場付き」、「レストラン」)にお
ける補完位置に対して助詞等の付属語を補完する(ステ
ップS32)。
【0108】例えば、本実施形態では、「サービスエリ
ア」と「次」との間、「次」と「駐車場付き」との間お
よび「駐車場付き」と「レストラン」との間にそれぞれ
付属語(助詞「の」)が補完され、「レストラン」の末
尾に付属語(助詞「は」)が補完される。
【0109】この結果、キーワード系列(「吹田」、
「サービスエリア」、「次」、「駐車場付き」、「レス
トラン」)は、助詞等の付属語を有する自然言語文構造
データ(「吹田サービスエリアの次の駐車場付きのレス
トランは?」という内容のテキストデータ)となる。
【0110】このようにしてステップS3の付属語補完
処理が終了すると、CPU3は、知識ベースDを参照し
てステップS4の意味解析・問題解決処理を実行する。
【0111】すなわち、CPU3は、ステップS3(ス
テップS30〜ステップS32)で生成された自然言語
文構造データ(「吹田サービスエリアの次の駐車場付き
のレストランは?」)の意味を解釈する(図13;ステ
ップS40)。
【0112】このとき、CPU3は、解釈対象となるデ
ータがキーワード系列ではなく、キーワード系列から生
成された自然言語文構造データであるため、上記各キー
ワード(自立語)の格を用いた知的な意味解釈処理を行
うことができ、上記自然文構造データ(「吹田サービス
エリアの次の駐車場付きのレストランは?」の意味を容
易、迅速かつ一義的に解釈することができる。
【0113】すなわち、従来においては、上記キーワー
ド系列(「吹田」、「サービスエリア」、「次」、「駐
車場付き」、「レストラン」)だけでは、吹田サービス
エリアは、次の駐車場付きのレストランですか?」とい
う確認の意味と、「吹田サービスエリアの次にある駐車
場付きのレストランは何ですか」という質問の意味との
どちらであるか一義的に解釈することができなかった
が、本実施形態においては、CPU3は、上記キーワー
ド系列(「吹田」、「サービスエリア」、「次」、「駐
車場付き」、「レストラン」)を後者の質問の意味に迅
速かつ一義的に解釈することができる。
【0114】次いで、CPU3は、自然言語文構造デー
タの意図を解釈した結果、この自然言語データの意図は
問題解決要求、すなわち、「吹田サービスエリアの次の
駐車場付きレストランに関する情報(名前、場所等)取
得要求」であることを認識し、認識した問題解決要求を
受けて、知識ベースDを参照し、上記問題解決要求に応
答する意図を表す応答文(自然言語文)のテキストデー
タ(例えば、「吹田サービスエリアの次にある駐車場付
きのレストランは、○○○○にある△△△△です」とい
うテキストデータ)を生成する(ステップS41)。
【0115】このようにしてステップS5(ステップS
40、ステップS41)の応答文生成処理により応答文
(テキストデータ)が生成されると、CPU3は、生成
された応答文に基づいてステップS6に示す音声合成処
理を実行する。
【0116】すなわち、CPU3は、生成された応答文
テキストデータを解析処理して発音記号列に変換し、こ
の発音記号列に対して韻律制御処理を行って各音素の時
間長およびイントネーション等の韻律制御情報を求め、
発音記号列および韻律制御情報に基づいて音声合成処理
を行うことにより、応答音声データを作成し、作成した
応答文音声データを音声出力部5に送信する。
【0117】音声出力部5では、送信されてきた応答音
声データが応答音声情報(音声波形信号)に変換されス
ピーカ等を介してユーザに出力(システム発話)され
る。
【0118】この結果、ユーザは、自ら発した音声情報
(質問)に対応してシステム1から発話された応答音声
情報を聞くことができる。すなわち、ユーザは、音声対
話システム1と対話することができる。
【0119】以上述べたように、本実施形態によれば、
ユーザから発せられた音声情報の中から、「助詞」等の
付属語、「えーと」等の不要語、言いよどみ、どもりお
よび言い直し等の音声認識する上で困難な語を除く、自
立語等のキーワードから構成されたキーワード系列を自
動的に抽出し、抽出したキーワード系列に基づいて意味
解釈処理を行って応答文を自動的に生成することができ
る。
【0120】したがって、従来の音声対話処理システム
において必要であった、上記「助詞」等の付属語認識に
伴う「湧き出し誤り」に起因した多数の単語ラティスを
処理するための処理時間を大幅に削減することができ、
音声対話処理システムの実用性を向上させることができ
る。
【0121】また、上述したように、本実施形態の音声
対話システムにおいては、助詞等の付属語や不要語等を
認識することなくキーワード系列を抽出することができ
るため、実環境下でのノイズ等の影響を最小限度に抑制
しながら上記応答情報に基づくキーワード系列を正確に
認識することができる。
【0122】特に、本実施形態では、キーワードの並び
(キーワード系列)の状態において上記キーワード系列
の意味解釈を行うのではなく、そのキーワード系列に対
して助詞等の付属語を補完し、キーワード系列から構成
された自然言語文として意味解釈処理を行うことができ
るため、従来において、キーワード系列だけではその意
味が一義的に解釈できなかった場合でも、助詞等の付属
語を補完して各キーワードの格、すなわち、各キーワー
ドのキーワード系列中の他のキーワードに対する関係を
定めることにより、キーワード系列の意味を迅速かつ一
義的に解釈することができる。
【0123】したがって、単語数の多い複雑な自然言語
文を音声情報として音声対話処理システムに入力した場
合でも、容易に応答文を作成して出力することができる
ため、音声対話処理システムの実用性をさらに向上させ
ることができる。
【0124】なお、本実施形態において、CPU3は、
応答文生成処理(ステップS5)のステップS41の処
理において、応答文として、上記付属語を補完した自然
言語構造データ(テキストデータ)を含めることも可能
である。この場合、CPU3の音声合成処理(ステップ
S6)により、付属語を補完して生成したユーザからの
音声情報に対応する入力音声情報を含む応答音声情報が
音声出力部5を介してユーザに出力される。
【0125】この結果、ユーザは、出力された入力音声
情報を含む応答音声情報により、自ら発した音声情報を
音声対話処理システム1がどのように解釈したのかを容
易に把握することができ、万一、音声対話システム1が
ユーザの音声情報を誤解して解釈していた場合には、速
やかに修正した音声情報入力動作を行うことができる。
【0126】ところで、上述した本実施形態の付属語補
完ファイルF8において、各キーワード系列には、それ
ぞれ一義的な自然言語文構造をその各キーワード系列に
与えるための単一の付属語補完情報が格納されている。
【0127】例えば、品詞系列ID“sp0x−gy"
の品詞系列に対しては、一義的な自然言語文構造(吹田
サービスエリアの次の駐車場付きのレストランは;以
下、第1の自然文構造と記載する)を与えるための、キ
ーワード(経由地)、キーワード(形容詞)およびキー
ワード(条件)それぞれの付属語として助詞「の」が、
また、キーワード「場所:施設」に係る付属語として、
助詞「は」がそれぞれ補完されることを表す単一の付属
語補完情報が付属語補完ファイルF8に格納されてい
る。
【0128】しかしながら、本発明は上記構成に限定さ
れるものではない。
【0129】例えば、付属語補完ファイルF8に対し
て、複数の自然言語文構造を各キーワード系列にそれぞ
れ与えるための複数の付属語補完情報をキーワード系列
毎に格納しておく。
【0130】例えば、上述した品詞系列ID“sp0x
−gy"の品詞系列に対しては、上述した第1の自然言
語文構造を与えるための付属語補完情報(以下、第1の
付属語補完情報と記載する)に加えて、第1の自然言語
文構造とは異なる自然言語文構造(吹田サービスエリア
は次の駐車場付きレストランですか)を与えるための、
キーワード(経由地)とキーワード(形容詞)との間の
付属語として助詞「は」が、キーワード(形容詞)とキ
ーワード(条件)との間の付属語として助詞「の」が、
およびキーワード「場所:施設」に係る付属語として、
助動詞・助詞「です・か」がそれぞれ補完されることを
表す第2の付属語補完情報が付属語補完ファイルF8に
それぞれ格納されている。
【0131】このとき、CPU3は、上述したステップ
S31の処理として、キーワード系列の品詞系列ID
(“sp0x−gy")に対応する第1および第2の付
属語補完情報をそれぞれ読み出し、ステップS32の処
理として、読み出した第1および第2の付属語補完情報
に基づいて、生成したキーワード系列(「吹田」、「サ
ービスエリア」、「次」、「駐車場付き」、「レストラ
ン」)における補完位置に対して助詞等の付属語をそれ
ぞれ補完することにより、第1の自然言語文構造データ
(質問の意味を表す「吹田サービスエリアの次の駐車場
付きのレストランは?」という内容を表すテキストデー
タ)および第2の自然言語文構造データ(確認の意味を
表す「吹田サービスエリアは次の駐車場付きのレストラ
ンですか?」という内容を表すテキストデータ)をそれ
ぞれ生成する。
【0132】そして、CPU3は、上述したステップS
40の処理として、上述したステップS30〜ステップ
S32で生成された第1の自然言語文構造データ(「吹
田サービスエリアの次の駐車場付きのレストランは
?」)および第2の自然言語文構造データ(「吹田サー
ビスエリアは次の駐車場付きのレストランですか?」)
の中から意味的に尤らしい1つの自然言語文構造データ
(第1あるいは第2の自然言語文構造データ)を選択
し、選択した第1あるいは第2の自然言語文構造データ
の意味を解釈するようになっている。
【0133】例えば、CPU3が上記自然言語文構造デ
ータ選択処理を行う直前に、上記意味解釈処理、応答文
生成処理、音声合成処理および音声出力処理により音声
出力部5を介して音声出力(システム発話)された応答
音声情報が「次のレストランは吹田サービスエリアで
す」であった場合において、CPU3は、所定の判断情
報に基づいて、上記応答音声情報に対応する応答文テキ
ストデータの内容に基づいて何れか一方の自然言語文構
造データを選択する。
【0134】例えば、CPU3は、所定の判断情報とし
て、自然言語文構造データ選択処理を行う直前に音声出
力された応答音声情報の内容(応答文テキストデータの
内容)を参照し、例えば、その応答音声情報として、第
2の自然言語文構造データ(「吹田サービスエリアは次
の駐車場付きのレストランですか?」)の解答となる応
答音声情報「次のレストランは吹田サービスエリアで
す」が音声出力(システム発話)されている場合には、
既にシステム発話されている応答音声情報に対応する自
然言語文構造データに基づく音声情報をユーザが発話す
る可能性は低いと判断し、直前にシステム発話された応
答音声情報に対応する第2の自然言語文構造データでは
なく、別のレストランの場所を質問するための第1の自
然言語文構造データを選択し、選択した第1の自然言語
文構造データの意味解釈処理を行うようになっている。
【0135】また、例えば、CPU3は、自然言語文構
造データ選択処理を行う際に、図示しないカーナビゲー
ションシステムからの自車両の現在走行位置情報を上記
所定の判断情報として参照し、例えば、現在の自車両の
走行位置が吹田サービスエリアを既に通過している場合
には、既に通過している場所に関する確認情報をユーザ
が発話する可能性は低いと判断し、現在走行位置から過
去に関する情報を表す第2の自然言語文構造データでは
なく、現在走行位置から将来に関する情報を表す第1の
自然言語文構造データを選択し、選択した第1の自然言
語文構造データの意味解釈処理を行うようになってい
る。
【0136】すなわち、本変形例によれば、生成したキ
ーワード系列に対して付属語補完処理により一義的な自
然言語文構造データを生成するのではなく、予め用意し
た複数の付属語補完情報に基づいて生成したキーワード
系列に対応する複数の自然言語文構造データを生成し、
生成した複数の自然言語文構造データの中から、例えば
直前のシステム発話内容や現在走行位置情報等の所定の
判断情報を参照することにより、現在の状況に即した意
味的に尤らしい1つの自然言語文構造データを選択して
意味解釈することができる。
【0137】この結果、音声対話システム1がユーザの
音声情報を誤解して解釈する可能性を減少させることが
でき、音声対話処理システムの信頼性をさらに向上させ
ることができる。
【0138】なお、本実施形態およびその変形例では、
ユーザから入力された音声情報に基づく応答文を応答音
声情報としてユーザに出力したが、本発明はこれに限定
されるものではなく、例えば、図示しない表示装置(モ
ニタ)を介して視覚的にユーザに出力してもよい。
【0139】また、本実施形態およびその変形例におい
ては、本発明に係る音声対話処理システムをカーナビゲ
ーションシステムに適用した例について説明したが、本
発明はこれに限定されるものではなく、音声により動作
させたいあらゆる機械システムに対して適用可能であ
る。
【0140】さらに、本実施形態およびその変形例で
は、構文解析処理として、“品詞系列ハッシュ辞書"を
用いることにより、キーワード系列を求めたが、本発明
はこれに限定されるものではなく、本システムで受理可
能な文型を構成する複数の品詞系列パターンと音声情報
から求められた単語系列とを照合することによりキーワ
ード系列を求めるものであれば、何れの方法を用いても
よい。
【0141】
【発明の効果】以上述べたように、本発明の音声対話処
理方法、音声対話処理システムおよびプログラムを記憶
した記憶媒体によれば、ユーザから発せられた付属語等
を含む音声情報から、その音声情報に対応する複数の自
立語の候補から、受理可能な文型を表す複数の品詞の系
列パターンの内の少なくとも1つのパターンに対応する
単語系列を前記音声情報に対応する文候補列として求
め、求めた文候補列に基づいて意味解釈処理を行って応
答文を自動的に生成することができる。
【0142】すなわち、本発明では、実環境下において
も、周囲のノイズ等に影響を受けることなく文候補列を
求めることができ、かつ「助詞」等の付属語認識に伴う
膨大な単語ラティスの処理時間を大幅に削減することが
できるため、音声対話処理システムの実用性を向上させ
ることができる。
【0143】さらに、本発明の音声対話処理方法、音声
対話処理システムおよびプログラムを記憶した記憶媒体
によれば、文候補列ではその意味が一義的に解釈できな
かった場合でも、助詞等の付属語を補完して文候補列を
構成する各自立語の文候補列中の他の自立語に対する関
係を定めることができるため、文候補列の意味を迅速か
つ一義的に解釈することができる。
【0144】したがって、単語数の多い複雑な自然言語
文を音声情報として音声対話処理システムに入力した場
合でも、容易に応答文を作成して出力することができる
ため、音声対話処理システムの実用性をさらに向上させ
ることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る音声対話処理システ
ムの概略構成を示すブロック図。
【図2】本実施の形態に係る品詞辞書ファイルに格納さ
れた“品詞辞書"の一例を示す図。
【図3】本実施形態における文型辞書ファイルに格納さ
れた“文型辞書"の一例を示す図。
【図4】本実施形態における品詞系列パターン辞書ファ
イルに格納された“品詞系列パターン"の一例を示す
図。
【図5】品詞系列ハッシュ辞書ファイルに格納された
“品詞系列ハッシュ辞書"の一例を示す図。
【図6】本実施形態に係るワードスポッティング結果の
一例を示す図。
【図7】図6に示すワードスポッティング結果に基づく
単語ラティスを示す図。
【図8】本実施形態に係るノード要素データファイルに
格納されるノード要素データを示す図。
【図9】本実施形態に係る付属語補完ファイルに格納さ
れる付属語補完情報を示す図。
【図10】本実施形態におけるCPU3の構文解析処理
を説明するための概略フローチャート。
【図11】図10に示すステップS10〜ステップS1
3が終了した時点での単語ラティスのノードの各ノード
要素データを示す図。
【図12】本実施形態におけるCPU3の付属語補完処
理を説明するための概略フローチャート。
【図13】本実施形態におけるCPU3の意味解析・問
題解決処理を説明するための概略フローチャート。
【符号の説明】
1 音声対話処理システム 2 音声入力部 3 CPU 4 メモリ 5 音声出力部 S1 音声認識処理 S2 構文解析処理 S3 付属語補完処理 S4 意味解析・問題解決処理 S5 応答文生成処理 S6 音声合成処理 F1 品詞辞書ファイル F2 文型辞書ファイル F3 品詞系列パターン辞書ファイル F4 品詞系列ハッシュ辞書ファイル F5 ノード要素データファイル F6 処理中ノードリストファイル F7 品詞系列候補リストファイル F8 付属語補完ファイル D 知識ベース P 音声対話処理プログラム
───────────────────────────────────────────────────── フロントページの続き (72)発明者 屋野 武秀 兵庫県神戸市東灘区本山南町8丁目6番26 号 株式会社東芝関西研究所内 Fターム(参考) 5B091 AA15 CA02 CA05 CA12 CB12 CC01 CC04 CD13 5D015 HH11 KK04 LL01 LL02 LL10 5D045 AB30 9A001 DD11 HH11 HH13 HH17 JZ78

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 音声情報を認識処理して得られたデータ
    を意味解釈して応答文を生成し、生成した応答文を出力
    する音声対話処理システムにおいて、 前記音声情報を入力する音声情報入力手段と、入力され
    た音声情報を認識処理して前記音声情報に含まれる自立
    語の候補を互いの順序関係を有する単語系列として抽出
    する抽出手段と、受理可能な文型を複数の品詞の系列パ
    ターンとして記憶する品詞系列パターン記憶手段と、抽
    出された単語系列を前記複数の品詞系列パターンと照合
    することにより、少なくとも1つの品詞系列パターンに
    対応する単語系列を前記音声情報に対応する文候補列と
    して求める手段と、求められた文候補列に対して付属語
    を補完することにより前記意味解釈用の自然言語文構造
    のデータを生成する自然言語文構造データ生成手段とを
    備えたことを特徴とする音声対話処理システム。
  2. 【請求項2】 前記自然言語文構造データ生成手段は、
    前記複数の品詞系列パターンそれぞれの少なくとも1つ
    の品詞に係る付属語を予め記憶する付属語記憶手段と、
    前記文候補列の品詞系列パターンに対応する付属語を前
    記付属語記憶手段から読み出して前記少なくとも1つの
    品詞に補完して前記自然言語文構造データを生成する手
    段とを備えたことを特徴とする請求項1記載の音声対話
    処理システム。
  3. 【請求項3】 知識ベースを有し、この知識ベースを参
    照しながら前記自然言語文構造データの意味解釈を行う
    意味解釈手段と、意味解釈内容に基づいて前記音声情報
    に対する応答文データを生成する応答文データ生成手段
    と、生成された応答文データを音声情報として出力する
    音声情報出力手段とを備えたことを特徴とする請求項1
    または2記載の音声対話処理システム。
  4. 【請求項4】 前記応答文データ生成手段は、前記意味
    解釈内容に加えて、前記自然言語文構造データ生成手段
    により生成された自然言語文構造データを含む応答文デ
    ータを生成する手段であることを特徴とする請求項3記
    載の音声対話処理システム。
  5. 【請求項5】 前記自然言語文構造データ生成手段は、
    求められた文候補列に対して、互いに自然言語文構造が
    異なる複数の自然言語構造データを生成する手段を含む
    ことを特徴とする請求項3又は4の内の何れか1項記載
    の音声対話処理システム。
  6. 【請求項6】 前記意味解釈手段は、生成された複数の
    自然言語構造データの中から意味的に尤らしい1つの自
    然言語文構造データを所定の判断情報に基づいて選択
    し、前記知識ベースを参照して選択した自然言語文構造
    データの意味解釈を行う選択意味解釈手段を含むことを
    特徴とする請求項5記載の音声対話処理システム。
  7. 【請求項7】 音声情報を認識処理して得られたデータ
    を意味解釈して応答文を生成し、生成した応答文を出力
    する音声対話処理方法において、 前記音声情報を入力するステップと、この入力ステップ
    により入力された音声情報を認識処理して前記音声情報
    に含まれる自立語の候補を互いの順序関係を有する単語
    系列として抽出するステップと、受理可能な文型を複数
    の品詞の系列パターンとして記憶するステップと、前記
    抽出ステップにより抽出された単語系列を前記複数の品
    詞系列パターンと照合することにより、少なくとも1つ
    の品詞系列パターンに対応する単語系列を前記音声情報
    に対応する文候補列として求めるステップと、このステ
    ップにより求められた文候補列に対して付属語を補完す
    ることにより前記意味解釈用の自然言語文構造のデータ
    を生成するステップとを備えたことを特徴とする音声対
    話処理方法。
  8. 【請求項8】 入力された音声情報を認識処理して得ら
    れたデータを意味解釈して応答文を生成し、生成した応
    答文を出力するためのコンピュータが読取り可能なプロ
    グラムを記憶した記憶媒体において、 前記プログラムは、前記入力された音声情報をコンピュ
    ータに認識処理させて前記音声情報に含まれる自立語の
    候補を互いの順序関係を有する単語系列として抽出させ
    る手段と、受理可能な文型を複数の品詞の系列パターン
    として前記コンピュータにメモリに記憶させる手段と、
    抽出された単語系列を前記コンピュータにより前記複数
    の品詞系列パターンと照合させることにより、少なくと
    も1つの品詞系列パターンに対応する単語系列を前記音
    声情報に対応する文候補列として前記コンピュータに求
    めさせる手段と、求めた文候補列に対して付属語を前記
    コンピュータに補完させることにより前記意味解釈用の
    自然言語文構造のデータを生成させる手段とを備えたこ
    とを特徴とするプログラムを記憶した記憶媒体。
JP14077399A 1999-05-20 1999-05-20 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体 Expired - Fee Related JP3581044B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14077399A JP3581044B2 (ja) 1999-05-20 1999-05-20 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14077399A JP3581044B2 (ja) 1999-05-20 1999-05-20 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体

Publications (2)

Publication Number Publication Date
JP2000330588A true JP2000330588A (ja) 2000-11-30
JP3581044B2 JP3581044B2 (ja) 2004-10-27

Family

ID=15276425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14077399A Expired - Fee Related JP3581044B2 (ja) 1999-05-20 1999-05-20 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体

Country Status (1)

Country Link
JP (1) JP3581044B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345604A (ja) * 2002-05-28 2003-12-05 Inst Of Physical & Chemical Res 言語コンピュータ、言語処理方法、ならびに、プログラム
WO2005064592A1 (ja) 2003-12-26 2005-07-14 Kabushikikaisha Kenwood 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム
JP2005539249A (ja) * 2002-06-28 2005-12-22 テー−モービレ ドイチェランド ゲーエムベーハー 生成変形句構造文法に基づいて自然言語認識をする方法
JP2010224152A (ja) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc 音声対話装置及びプログラム
JP2022540784A (ja) * 2019-07-02 2022-09-20 サービスナウ, インコーポレイテッド 自然言語理解フレームワークでの発言についての複数意味表現の導出

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345604A (ja) * 2002-05-28 2003-12-05 Inst Of Physical & Chemical Res 言語コンピュータ、言語処理方法、ならびに、プログラム
JP2005539249A (ja) * 2002-06-28 2005-12-22 テー−モービレ ドイチェランド ゲーエムベーハー 生成変形句構造文法に基づいて自然言語認識をする方法
JP4649207B2 (ja) * 2002-06-28 2011-03-09 テー−モービレ ドイチェランド ゲーエムベーハー 生成変形句構造文法に基づいて自然言語認識をする方法
WO2005064592A1 (ja) 2003-12-26 2005-07-14 Kabushikikaisha Kenwood 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム
EP1699042A1 (en) * 2003-12-26 2006-09-06 Kabushiki Kaisha Kenwood Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and prog
EP1699042A4 (en) * 2003-12-26 2007-08-08 Kenwood Corp DEVICE CONTROL DEVICE, SPEECH RECOGNITION DEVICE, AGENT DEVICE, DEVICE CONTROL DEVICE IN A VEHICLE NAVIGATION DEVICE, AUDIO DEVICE, DEVICE CONTROL METHOD, VOICE RECOGNITION METHOD, AGENT PROCESSING, EQUIPMENT CONTROL METHOD FOR VEHICLES, NAVGATIONSVERFAHREN AND AUDIO SETUP CONTROL METHOD AND PROGRAM
JPWO2005064592A1 (ja) * 2003-12-26 2007-12-20 株式会社ケンウッド 機器制御装置、音声認識装置、エージェント装置、車載機器制御装置、ナビゲーション装置、オーディオ装置、機器制御方法、音声認識方法、エージェント処理方法、車載機器制御方法、ナビゲーション方法、オーディオ装置制御方法及びプログラム
US8103510B2 (en) 2003-12-26 2012-01-24 Kabushikikaisha Kenwood Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and program
JP2010224152A (ja) * 2009-03-23 2010-10-07 Toyota Central R&D Labs Inc 音声対話装置及びプログラム
JP2022540784A (ja) * 2019-07-02 2022-09-20 サービスナウ, インコーポレイテッド 自然言語理解フレームワークでの発言についての複数意味表現の導出
US11720756B2 (en) 2019-07-02 2023-08-08 Servicenow, Inc. Deriving multiple meaning representations for an utterance in a natural language understanding (NLU) framework
JP7346610B2 (ja) 2019-07-02 2023-09-19 サービスナウ, インコーポレイテッド 自然言語理解フレームワークでの発言についての複数意味表現の導出

Also Published As

Publication number Publication date
JP3581044B2 (ja) 2004-10-27

Similar Documents

Publication Publication Date Title
US9449599B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
US9818401B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
US20230317074A1 (en) Contextual voice user interface
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US20170199867A1 (en) Dialogue control system and dialogue control method
US20080177541A1 (en) Voice recognition device, voice recognition method, and voice recognition program
JP2001100781A (ja) 音声処理装置および音声処理方法、並びに記録媒体
JPWO2007097176A1 (ja) 音声認識辞書作成支援システム、音声認識辞書作成支援方法及び音声認識辞書作成支援用プログラム
JP2001101187A (ja) 翻訳装置および翻訳方法、並びに記録媒体
JP5703491B2 (ja) 言語モデル・音声認識辞書作成装置及びそれらにより作成された言語モデル・音声認識辞書を用いた情報処理装置
AU2017326987B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP5073024B2 (ja) 音声対話装置
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
EP3005152B1 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP5335165B2 (ja) 発音情報生成装置、車載情報装置およびデータベース生成方法
JP3468572B2 (ja) 対話処理装置
JP3581044B2 (ja) 音声対話処理方法、音声対話処理システムおよびプログラムを記憶した記憶媒体
JP2004133003A (ja) 音声認識辞書作成方法及びその装置と音声認識装置
JP4639990B2 (ja) 音声対話装置及び音声理解結果生成方法
JP2003162524A (ja) 言語処理装置
KR20200101891A (ko) 복합 문장 분석 장치, 이를 위한 기록매체
JPH1195793A (ja) 音声入力解釈装置及び音声入力解釈方法
JP4930014B2 (ja) 音声認識装置、および音声認識方法
KR102147670B1 (ko) 복합 문장 분석 장치, 이를 위한 기록매체
JP2001188556A (ja) 音声認識方法及び装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040721

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080730

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090730

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090730

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100730

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees