JPH0981184A - 対話支援装置 - Google Patents

対話支援装置

Info

Publication number
JPH0981184A
JPH0981184A JP7233872A JP23387295A JPH0981184A JP H0981184 A JPH0981184 A JP H0981184A JP 7233872 A JP7233872 A JP 7233872A JP 23387295 A JP23387295 A JP 23387295A JP H0981184 A JPH0981184 A JP H0981184A
Authority
JP
Japan
Prior art keywords
word
recognition
words
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7233872A
Other languages
English (en)
Other versions
JP3499658B2 (ja
Inventor
Satoshi Kinoshita
聡 木下
Miwako Shimazu
美和子 島津
Hiroshi Kanazawa
博史 金澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP23387295A priority Critical patent/JP3499658B2/ja
Publication of JPH0981184A publication Critical patent/JPH0981184A/ja
Application granted granted Critical
Publication of JP3499658B2 publication Critical patent/JP3499658B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】対話相手の発話内容の理解、及び相手の発話に
対する応答の支援を可能にする。 【解決手段】マイクロフォン1から入力された音声に含
まれる単語を認識する認識部2と、認識部2によって認
識された単語から連想される単語を検索する制御部3
と、制御部3によって検索された単語を表示する表示部
4とを具備するので、会話で使用された単語に関連する
語を参照することができ、それらを適宜利用して会話を
行なうことができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、電子機算機を用い
て人間同士の会話を支援する対話支援装置に関する。
【0002】
【従来の技術】近年、ハードウェア技術、特に半導体の
集積化技術の進歩により、携帯型の対話支援装置が実用
化されている。これらの対話支援装置は、様々な状況、
例えばホテルや空港などで使用されると思われる表現を
その翻訳結果と共に記憶させておき、必要に応じて検
索、表示させ、会話に利用するものである。また、中に
は、音声出力機能を有し、記憶されている文を音声とし
て出力できるものも開発されている。
【0003】対話支援装置は、そのユーザが、その装置
で対応している言語(例えば英語)に関する知識が極め
て乏しく、自分の意図を表現することが全くできないよ
うな場合で、しかも、相手からの応答が不要な場合、つ
まり、自分の意図だけを相手に理解させればよい場合に
は有効である。
【0004】しかし、通常の対話では、発話者の意図を
確認したり、発話者が述べていないことがらに対して質
問するのが普通であり、そのような応答に適切に対応し
なければ、対話は成立しえない。しかしながら、上で述
べた対話支援装置では、相手の発話内容を翻訳して表示
したり、相手の発話と同内容の表現を検索して表示した
りする機能はない。また、相手の発話に応答する際に有
用な表現も、ユーザ自身が検索する必要があり、実際の
会話においての有効性は低いという問題があった。
【0005】このような対話支援装置以外にも、入力さ
れた音声を認識し、得られた言語表現を翻訳し、さらに
相手言語の音声で出力するという翻訳装置の研究も進め
られているが、翻訳速度や精度の問題があり、十分な対
話支援を行なうには至っていないのが現状である。
【0006】
【発明が解決しようとする課題】このように従来の対話
支援装置では、対話相手の発話を理解したり、その発話
に対してさらに応答するために必要な表現を検索すると
いう目的で使用するには機能が不十分であった。
【0007】本発明は前記のような事情を考慮してなさ
れたもので、対話相手の発話内容の理解、及び相手の発
話に対する応答を支援することが可能な対話支援装置を
提供することを目的とする。
【0008】
【課題を解決するための手段】本発明は、入力された音
声に含まれる単語を認識する認識手段と、前記認識手段
によって認識された単語から連想される単語を検索する
制御手段と、前記制御手段によって検索された単語を表
示する表示手段とを具備するので、会話で使用された単
語に関連する語を参照することができ、それらを適宜利
用して会話を行なうことができる。
【0009】また、前記表示手段は、前記制御手段によ
って検索された単語に対して、入力された音声と異なる
言語による見出しを付加して表示するので、会話で使用
されている言語に対する知識が乏しくても、単語の理解
が助けられ、会話が可能となる。
【0010】また、前記制御手段によって検索された単
語を表示する際に、既に表示されている単語の検索結果
に応じて表示内容を決定するので、会話で使用された単
語に関連する語を随時参照することができる。
【0011】また本発明は、入力された音声に含まれる
単語を認識する認識手段と、前記認識手段によって認識
された単語から連想される単語を検索する検索手段と、
前記制御手段により検索された単語の中で表示すべき単
語の種類を指定する入力手段と、前記入力手段により指
定された種類に基づき、前記制御手段により検索された
単語の選別を行なう選別手段と、前記選別手段によって
選別された単語を表示する表示手段とを具備するので、
ユーザが所望する会話支援に有効な内容を表示させるこ
とができる。
【0012】また本発明は、入力された音声に含まれる
各単語のそれぞれについて、少なくとも1つの認識候補
を求める認識手段と、前記認識手段によって求められた
各単語についての認識候補をもとに、単語間のそれぞれ
の認識候補の組み合わせについて、組み合わせた場合の
妥当性を評価値に基づいて評価し、この評価結果に基づ
き組み合わせの順位を決定する決定手段と、前記決定手
段によって決定された認識候補の各組み合わせについ
て、それぞれの認識候補から連想される単語を検索する
検索手段と、前記決定手段によって決定された組み合わ
せの認識候補と、前記検索手段によって検索された単語
を表示する表示手段とを具備するので、音声認識の結果
に曖昧性がある場合であっても、会話の支援に有効な内
容が表示される。
【0013】このような構成によれば、会話者が発話で
利用した単語だけでなく、それに関連する語(関連単
語)も併せて表示される。このような関連単語は、相手
の発話を理解する助けになるだけでなく、相手の発話に
対しての応答や、自分自身の発話に対してさらに補足説
明などを行なう際に利用することができるため、会話を
より円滑に進めることが可能になる。
【0014】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。図1は本実施形態に係わる
対話支援装置の概略的な構成を示すブロック図である。
なお、本実施形態では、日本語を母国語とするユーザが
英語で会話を行なう際の支援を目的としているものとし
て説明する。
【0015】はじめに、第1実施形態について説明す
る。図1に示すように、第1実施形態における対話支援
装置は、マイクロホン1、認識部2、制御部3、表示部
4、入力部5、及び辞書格納部6によって構成されてい
る。
【0016】マイクロフォン1は、会話の音声を入力す
るために用いる。マイクロフォン1は、入力した音声の
音声波形データを認識部2に出力する。認識部2は、マ
イクロフォン1からの音声波形データをもとに、音声を
認識するための音声認識処理を行なう。認識部2は、音
声認識処理によって、例えば発話者が発話した内容に含
まれる単語を認識する。
【0017】制御部3は、認識部2で認識された単語
(認識語)についての連想語を、辞書格納部6に格納さ
れた知識情報を用いて検索し、その中から表示部4に表
示すべき関連語を選択する。制御部3には、表示部4に
表示すべき情報(認識語、関連語)を格納するための結
果表示用のリストが設けられている。
【0018】表示部4は、制御部3で得られた検索結果
を表示するために用いる。一般的には、液晶ディスプレ
イが用いられ、その他にCRTなどで実現することもで
きる。
【0019】入力部5は、ユーザからの対話支援装置に
対する各種指示、例えば表示部4に表示すべき単語の種
類を特定する指示を入力するためのものである。辞書格
納部6は、磁気ディスク装置、光ディスク装置などで実
現されるもので、表示部4に表示する内容を決定するた
めの知識情報が格納されている。辞書格納部6に格納さ
れる知識情報としては、例えば連想辞書6a、対訳辞書
6bが含まれている。連想辞書6aは、例えば辞書格納
部6に格納された単語間の連想関係を表わすネットワー
クの情報が格納されている。対訳辞書6bは、装置が対
応可能な単語のそれぞれに対する訳語が格納されてい
る。
【0020】図2は、表示部4に表示される画面構成の
一例である。表示画面には、認識語表示領域10と関連
語表示領域12が設けられる。認識語表示領域10は、
認識部2で認識された単語のうち、例えば品詞によって
特定される検索対象となる語を表示するための領域であ
る。第1実施形態においては、認識部2における認識結
果として得られた単語の中で、品詞が名詞である単語の
みを対象とするものとして説明する。関連語表示領域1
2は、認識された単語、すなわち認識語表示領域10に
表示された単語に関連する語を表示するための領域であ
る。
【0021】また、図2に示す例では、認識語表示領域
10に表示された認識語、及び関連語表示領域12に表
示された関連語には、それぞれ訳語(日本語による見出
し)を併せて表示している。
【0022】なお、図2は“I have a pai
n in my stomach.”という発話がなさ
れた直後の表示例を示している。第1実施形態では、名
詞を表示対象としているため、“pain”と“sto
mach”、及びその訳語が認識語表示領域10に表示
されている。
【0023】また、関連語表示領域12には、認識語表
示領域10に表示された“pain”の関連語として
“sharp”と“dull”が表示され、“stom
ach”の関連語として“stomachache”と
“vomit”が表示されている。
【0024】従って、図2に示す表示内容を参照するこ
とにより、対話相手による発話内容の要旨、すなわち胃
が痛い(“pain”“stomach”)ということ
を把握することができ、さらに、どのような痛み(“s
harp”“dull”)であるとか、吐き気がする
(“vomit”)といった内容の応答を容易に行なう
ことができる。
【0025】図3は、辞書格納部6内の連想辞書6aに
格納されているネットワークの内容の一部を図示したも
のである。図3に示すネットワークは、単語間の連想関
係を表わすものである。
【0026】単語間の連想関係をネットワークとして表
わす方式は、例えば「神経回路網の連想機能を用いたか
な漢字変換方式」第40回情報処理学会全国大会(19
90)、などに記載されている。これは、単語間の連想
関係をネットワークとして表現し、カナ漢字変換に適用
して同音異義語の選訳精度を高める方式を開示したもの
である。
【0027】ネットワークは、それぞれが活性値を持つ
複数のノードと、それらの間を結ぶリンクによって構成
される。見出しレベルでネットワークを構成する場合、
各ノードは、単語(見出し)に対応し、ノード間のリン
クは、単語間の関連性を示す。ノード間のリンクは、重
みを持つ双方向性のリンクとすることにより、単語間の
結び付きの強さを表現することができる(図3中では数
値によって示している)。
【0028】連想に相当する処理(連想処理)は、ノー
ドが持つ活性値を変化させることにより行なうことがで
きる(詳細については後述する)。例えば、会話におい
て使用された単語のノードにある活性値を与え、その値
をリンクで結ばれた他のノードに、リンクの重みに応じ
て伝搬させていくことにより、他のノードの活性値が変
化していく。各ノードの活性値は、当然1つの単語だけ
で決まるものではなく、会話に出現した単語に対応する
ノードを順次活性化させていくと同時に、時間経過に従
って各ノードの活性値を下げる。これにより、会話の進
行に従って、すなわち発話内容に含まれる単語に応じて
連想処理を行なうことによって、文脈に応じた適切な関
連語を得ることができる。
【0029】なお、このような連想に相当する処理に関
しては、前述した文献を始め、種々提案されており、本
発明は連想処理自体に特徴があるわけではないので、詳
細な説明を省略する。
【0030】次に、第1実施形態における対話支援装置
の動作について、図4に示すフローチャートを参照しな
がら説明する。まず、処理の開始にあたって、制御部3
は、結果表示用リストと、連想辞書6aに格納されたネ
ットワークの全ノードの活性値をクリアする(ステップ
S1)。なお、結果表示用リストの構造については後述
する。
【0031】以下、会話による音声を入力して、対話支
援のための一連の処理を行なう。まず、マイクロフォン
1から発話者によって発声された音声が入力され、音声
データが認識部2に出力される(ステップS2)。認識
部2は、マイクロフォン1からの音声データに対して認
識処理を行ない、発話内容に含まれる単語を認識する
(ステップS3)。
【0032】認識部2は、認識処理によって得られた結
果、すなわち英単語を、図5に示すように、見出し(単
語)とその品詞の対を1要素として登録された、認識し
た単語の個数の要素を持つ配列として制御部3に渡す。
【0033】なお、図5は“I have a pai
n in my stomach.”という発話内容の
認識結果に対応する配列のデータを示している。以下、
制御部3は、認識部2による認識によって得られた複数
の単語について1つずつ処理する。そのために、認識部
2は、処理対象とする単語を管理するための変数iに1
をセットして、第1番目の単語から処理を開始する(ス
テップS4)。変数iの値は、一つの単語についての処
理が完了する毎に、ステップS12において順次更新さ
れる。
【0034】なお、制御部3は、ステップS5におい
て、変数iの値が認識された単語数以下であるか否かを
チェックする。もし変数iの値が認識した単語数より大
きければ、制御部3は、全ての単語の処理が終了したも
のと判別してステップS2に戻る。
【0035】制御部3は、変数iが示す単語が名詞であ
るか否かを、認識部2からの配列に登録された同単語
(見出し)に対応する品詞から判別する(ステップS
6)。もし、名詞でなければ次の単語の処理に移るため
に、ステップS12で変数iの値を1加算し、ステップ
S5に戻る。
【0036】一方、対象とする単語の品詞が名詞であっ
た場合、制御部3は、結果表示用リストの更新を行なう
(ステップS7)。図6は、制御部3に保持される結果
表示用リストのデータ構造の一例を示すもので、“I
have a pain in my stomac
h.”という発話に関しての処理を行なった場合に登録
されるデータの内容を示している。ただし、全ての単語
についての処理が終わった時点でのデータである。
【0037】この場合、発話中に認識した単語のうち名
詞は、“pain”と“stomach”であるので、
それらの認識語と、後述する連想処理によって得られる
各認識語に対応する関連語が格納されている。
【0038】表示部4において表示可能な単語数は認識
語表示領域10、関連語表示領域12の大きさに依存す
る。もし、画面の行数がN行であり、結果表示用リスト
に既にN個のデータが格納されている場合には、これ以
上表示できなくなってしまう。(ただし、ここでは、図
2に示すように、英語の単語を表示する行と、各単語の
下に表示される日本語訳の行を合わせて1行とする。) 従って、ステップS7における更新処理では、結果表示
用リストに格納されているデータ数を調べ、その数が表
示可能な最大数N個であるならば、現在処理中の単語
(認識語)と関連語を登録するための領域を確保するた
め、リストの先頭の要素を削除し、2番目からN番目の
要素を、それぞれ1番目からN−1番目に変更する処理
を行なう。
【0039】次に、制御部3は、現在処理対象としてい
る変数iが示す単語(認識語)について連想処理を行な
う。連想処理は、連想辞書6aに格納された、現在注目
しているi番目の単語に対応するネットワーク上のノー
ドに、ある一定の活性値を与え、その活性値をリンクで
接続されている他のノードに伝搬させることにより、他
のノードの活性値を変化させることによって行なうもの
である。
【0040】具体的には、各ノードの活性値Ojの計算
は以下のようにして行なう。 Oj←f(nj) nj←(1−δ)nj+δ(ΣwijOi+Ij) f:単調増加関数 δ:ネットワークの慣性を表す実数(0<δ<1) nj:ノードjへの入力値 Ij:ノードjへの外部入力 wij:ノードiからノードjへのリンクの重み(ただ
し、wij=wji、wii=0) 例えば、“pain”という単語に関して連想処理を行
なう場合は、“pain”のノードの活性値を計算する
際、Ijに0以上の値を与えて活性値を計算する。この
計算を、活性値の変化が一定値以下になるまで、ネット
ワーク上の全てのノードを対象として繰り返して行な
う。以上の連想処理は、発話内容に含まれた品詞が名詞
である単語“stomach”について処理する場合に
も同様にして行なわれる。
【0041】制御部3は、連想辞書6aに格納されたネ
ットワーク上で、ある値以上の活性値を持つノードに対
応する語を関連語の候補として取り出す(ステップS
9)。それらの候補には、認識された単語自身や、既に
結果表示用リストに含まれているものもあるが、それら
を候補から取り除く。
【0042】制御部3は、結果表示用リストに、認識語
とステップS9で得られた関連語とを格納する(ステッ
プS10)。そして、制御部3は、表示用リストに格納
されたデータの内容をもとに、認識語と関連語、及び認
識語と関連語のそれぞれに対応する訳語を対訳辞書6b
を用いて求めて、表示部4において図2に示すようにし
て表示させる(ステップS11)。
【0043】このようにして、対話相手の発話内容につ
いて音声認識して得た単語と、その単語から連想される
語(関連語)を、随時、表示部4の表示画面に表示して
いくため、認識語表示領域10に表示された内容を参照
することで、対話相手の発話内容を把握することがで
き、さらに関連語表示領域12に表示された内容を参照
することで、相手の発話内容に応じた応答を行なうこと
ができる。
【0044】また、対話相手が使っている言語(この場
合では英語)に関する知識が乏しくても、表示部4に表
示される認識語、関連語には、それぞれ日本語による訳
文が付加されているので、それらを適宜利用することに
より会話を行なうことが可能となる。
【0045】次に、第2実施形態の対話支援装置につい
て説明する。前述した第1実施形態では、認識部2によ
って正確に発話内容を認識できた場合を前提に説明して
いるが、発話者による発音や環境等の影響により、認識
部2によって常に正確な音声認識ができず、音声認識結
果に曖昧性を含んでいる場合がある。第2実施形態は、
このような音声認識結果に曖昧性を含んでいる場合に有
効な機能を持つものである。
【0046】第2実施形態における対話支援装置の構成
は第1実施形態とほぼ同一であるので説明を省略する。
第2実施形態では、さらに制御部3において以下のよう
な処理が実行される。
【0047】ここでは、第1実施形態と同様の発話内
容、“I have a painin my sto
mach.”という発話がなされたとし、認識部2での
認識結果として名詞句“pain”に対して、“pai
n”と“paint”が認識候補として出力され、“s
tomach”に対して“stomach”と“sto
re”が認識候補として出力されたとする。
【0048】この様な場合には、出力された認識候補と
その関連語を単純に羅列するだけでは、ユーザは相手が
何を話しているのかを十分理解できないため、対話を円
滑に進めることが困難になる。そこで、制御部3は、以
下の方法で曖昧性の削減を行なう。
【0049】まず、制御部3は、出力された名詞句の認
識候補(ここでは、“pain”,“paint”/
“stomach”,“store”)の関連性を調べ
るために、辞書格納部6内の連想辞書6aを用いて、先
に述べた連想処理により各名詞の組についての活性値を
計算する。
【0050】例えば、図7に示すように、ネットワーク
が構成されているとすると、認識候補の中から考え得る
組合せとしては“pain”と“stomach”、
“pain”と“store”、“paint”と“s
tore”の3種類が考えられ、活性値により、それぞ
れの組の関連性を表すことができる(“paint”と
“stomach”の組み合わせは関連性が低いものと
して対象外となる)。
【0051】制御部3は、例えば活性値の大きさと音声
認識の際の各単語の類似度を評価値として、各組み合わ
せの妥当性を評価する。すなわち、制御部3は、3種類
の単語の組み合わせについて、出力する際の優先度、す
なわち認識結果として正しいと予想される組み合わせの
順番を決める。ここでは、例えば、活性値と各単語の類
似度の積として優先度を決めたり、類似度に重みα、活
性値に重み(1−α)を掛けてその和で優先度を決める
などの処理が可能である。
【0052】また、制御部3は、関連語の選択方法とし
て、組を構成する相手の名詞句に関連する語がある場合
には、活性値を用いて、その語を優先して出力する旨の
処理を行なう。例えば、上述した例で同じ“stor
e”でも“pain”と組になっている場合には、“s
tore”の関連語としては、“drugstore”
や“medicine”が選択され、“paint”と
組になっている場合には“stationary”や
“department store”などが関連語と
して表示されるようにする。
【0053】図8は、第2実施形態における表示部4で
の表示例を示している。図8に示すように、3種類の単
語の組み合わせを優先度(妥当性についての評価結果)
に応じて、順に(1)(2)(3)として認識語表示領
域10に表示している。また、それぞれの単語の組み合
わせに応じて得られた関連語を関連語表示領域12に表
示している。
【0054】このようにして、認識部2による音声認識
結果に曖昧性があっても、音声認識候補の組み合わせに
ついての妥当性を評価値に基づいて評価し、評価結果に
基づき組み合わせの優先度(順位)を決定し、それぞれ
に対応する関連語と共に優先度に応じた順に表示するこ
とにより、相手がどのような内容の話をしているかを可
能性の高い順に知ることができる。従って、ユーザが次
にどのように応答するかを判断するのに極めて有効とな
る。例えば、どの話題について話しているのかを聞き返
すこともできるし、一番可能性のある話題についての返
事をすることも可能となり、ユーザの負担を大幅に軽減
することができる。
【0055】なお、本発明は前述した実施形態に限定さ
れるものではない。例えば実施形態においては、英語を
対象としていたが、これはいかなる言語であっても構わ
ない。また、英語の下に表示される訳も日本語である必
要はなく、また必ずしも表示しなくともよい。
【0056】また、本実施形態では、音声認識された単
語のみを入力としているが、認識した音声の発話者が誰
かによって連想処理を変えることも可能である。例えば
連想ネットワークのリンクにつけられた重みは、リンク
に付き1個のみであったが、これを話者に応じて異なる
重みを付け、連想処理では、誰が発話した単語かによっ
て、使用する重みを変えて連想処理を行なうことができ
る。これにより、自分の発話の場合には、類義語に対す
る連想性を強くするとか、相手の発話の場合には、上位
概念や下位概念にあたる語に対する連想性を大きくする
といった処理が可能となる。
【0057】また、本実施形態では、認識した語のう
ち、名詞のみを表示対象としていたが、他の品詞も同様
に表示させることも可能である。また、表示させたい語
の品詞を入力部5から指定することにより、利用者が適
宜それらの種類を変更できるように拡張することも容易
である。これにより、ユーザが所望する会話支援に有効
な内容を表示させることができる。また、表示すべき語
の種類を、品詞による単語毎にしているが、他の分類に
よって語の種類を指定するようにしても良い。その他本
発明は、その趣旨を逸脱しない範囲で適宜変形して実施
できる。
【0058】
【発明の効果】以上詳述したように本発明によれば、音
声認識した単語とその単語から連想される関連語を随時
表示画面に表示していくので、表示された認識語と関連
語とを参照することにより、対話相手の発話内容を把握
し、さらにそれらを適宜利用して応答することによって
会話を円滑に勧めることが可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態に係わる対話支援装置の概略
的な構成を示すブロック図。
【図2】図1中の表示部4に表示される画面構成の一例
を示す図。
【図3】図1中の連想辞書6aに格納されるネットワー
クの一例を示す図。
【図4】第1実施形態における対話支援装置の動作を説
明するためのフローチャート。
【図5】図1中の認識部2によって得られる音声認識結
果のデータの一例を示す図。
【図6】図1中の制御部3に保持される結果表示用リス
トのデータ構造の一例を示す図。
【図7】第2実施形態におけるネットワークの一例を示
す図。
【図8】第2実施形態における表示部4での表示例を示
す図。
【符号の説明】
1…マイクロフォン 2…認識部 3…制御部 4…表示部 5…入力部 6…辞書格納部 6a…連想辞書 6b…対訳辞書
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06F 17/28 G06F 15/38 C

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 入力された音声に含まれる単語を認識す
    る認識手段と、 前記認識手段によって認識された単語から連想される単
    語を検索する制御手段と、 前記制御手段によって検索された単語を表示する表示手
    段とを具備したことを特徴とする対話支援装置。
  2. 【請求項2】 前記表示手段は、前記制御手段によって
    検索された単語に対して、入力された音声と異なる言語
    による見出しを付加して表示することを特徴とする請求
    項1記載の対話支援装置。
  3. 【請求項3】 前記制御手段によって検索された単語を
    表示する際に、既に表示されている単語の検索結果に応
    じて表示内容を決定することを特徴とする請求項1記載
    の対話支援装置。
  4. 【請求項4】 入力された音声に含まれる単語を認識す
    る認識手段と、 前記認識手段によって認識された単語から連想される単
    語を検索する検索手段と、 前記制御手段により検索された単語の中で表示すべき単
    語の種類の指定を入力する入力手段と、 前記入力手段により入力された種類に基づき、前記制御
    手段により検索された単語の選別を行なう選別手段と、 前記選別手段によって選別された単語を表示する表示手
    段とを具備したことを特徴とする対話支援装置。
  5. 【請求項5】 入力された音声に含まれる各単語のそれ
    ぞれについて、少なくとも1つの認識候補を求める認識
    手段と、 前記認識手段によって求められた各単語についての認識
    候補をもとに、単語間のそれぞれの認識候補の組み合わ
    せについて、組み合わせた場合の妥当性を評価値に基づ
    いて評価し、この評価結果に基づき組み合わせの順位を
    決定する決定手段と、 前記決定手段によって決定された認識候補の各組み合わ
    せについて、それぞれの認識候補から連想される単語を
    検索する検索手段と、 前記決定手段によって決定された組み合わせの認識候補
    と、前記検索手段によって検索された単語を表示する表
    示手段とを具備したことを特徴とする対話支援装置。
JP23387295A 1995-09-12 1995-09-12 対話支援装置 Expired - Fee Related JP3499658B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23387295A JP3499658B2 (ja) 1995-09-12 1995-09-12 対話支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23387295A JP3499658B2 (ja) 1995-09-12 1995-09-12 対話支援装置

Publications (2)

Publication Number Publication Date
JPH0981184A true JPH0981184A (ja) 1997-03-28
JP3499658B2 JP3499658B2 (ja) 2004-02-23

Family

ID=16961899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23387295A Expired - Fee Related JP3499658B2 (ja) 1995-09-12 1995-09-12 対話支援装置

Country Status (1)

Country Link
JP (1) JP3499658B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034292A (ja) * 1999-07-26 2001-02-09 Denso Corp 単語列認識装置
US6470312B1 (en) 1999-04-19 2002-10-22 Fujitsu Limited Speech coding apparatus, speech processing apparatus, and speech processing method
WO2006028171A1 (ja) * 2004-09-09 2006-03-16 Pioneer Corporation データ提示装置、データ提示方法、データ提示プログラムおよびそのプログラムを記録した記録媒体
JP2006139133A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声情報生成装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、音声情報のデータ構造、音声情報を記録した記録媒体、音声出力制御装置、および、そのシステム
JP2010032763A (ja) * 2008-07-29 2010-02-12 Toshiba Corp 語学学習を支援する装置および方法
JP2011043716A (ja) * 2009-08-21 2011-03-03 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
WO2016103415A1 (ja) * 2014-12-25 2016-06-30 日立マクセル株式会社 ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイ装置の操作方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6470312B1 (en) 1999-04-19 2002-10-22 Fujitsu Limited Speech coding apparatus, speech processing apparatus, and speech processing method
JP2001034292A (ja) * 1999-07-26 2001-02-09 Denso Corp 単語列認識装置
WO2006028171A1 (ja) * 2004-09-09 2006-03-16 Pioneer Corporation データ提示装置、データ提示方法、データ提示プログラムおよびそのプログラムを記録した記録媒体
JP2006139133A (ja) * 2004-11-12 2006-06-01 Pioneer Electronic Corp 音声情報生成装置、その方法、そのプログラム、そのプログラムを記録した記録媒体、音声情報のデータ構造、音声情報を記録した記録媒体、音声出力制御装置、および、そのシステム
JP2010032763A (ja) * 2008-07-29 2010-02-12 Toshiba Corp 語学学習を支援する装置および方法
JP2011043716A (ja) * 2009-08-21 2011-03-03 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
CN101998107A (zh) * 2009-08-21 2011-03-30 夏普株式会社 信息处理装置、会议系统和信息处理方法
WO2016103415A1 (ja) * 2014-12-25 2016-06-30 日立マクセル株式会社 ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイ装置の操作方法
JPWO2016103415A1 (ja) * 2014-12-25 2017-11-09 日立マクセル株式会社 ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイ装置の操作方法
US10613826B2 (en) 2014-12-25 2020-04-07 Maxell, Ltd. Head-mounted display system and operating method for head-mounted display device

Also Published As

Publication number Publication date
JP3499658B2 (ja) 2004-02-23

Similar Documents

Publication Publication Date Title
US11593359B1 (en) System and method for context driven voice interface in handheld wireless mobile devices
US11302330B2 (en) Clarifying questions for rewriting ambiguous user utterance
US11256868B2 (en) Architecture for resolving ambiguous user utterance
JP2848458B2 (ja) 言語翻訳システム
JP3962763B2 (ja) 対話支援装置
CN111984851B (zh) 医学资料搜索方法、装置、电子装置及存储介质
CN110083681A (zh) 基于数据分析的搜索方法、装置及终端
CN112926308B (zh) 匹配正文的方法、装置、设备、存储介质以及程序产品
van Heuven et al. Analysis and synthesis of speech: strategic research towards high-quality text-to-speech generation
JP3024045B2 (ja) 自然言語に基づくデータ検索装置
JP3499658B2 (ja) 対話支援装置
US20220147719A1 (en) Dialogue management
JPH07219590A (ja) 音声情報検索装置及び方法
WO2001088662A2 (en) Answering natural language queries
JPH0454564A (ja) 重み学習型テキストベース検索装置
JPH0962684A (ja) 情報検索方法及び情報検索装置と、情報案内方法及び情報案内装置
JP4153843B2 (ja) 自然文検索装置、自然文検索方法、自然文検索プログラム及び自然文検索プログラム記憶媒体
JP3059504B2 (ja) 品詞選択システム
JP2019008476A (ja) 生成プログラム、生成装置及び生成方法
EP3822817A1 (en) Method, system and computer program for semantic triple-based knowledge extension
JP2022018724A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20210149900A1 (en) Method, system and computer program for semantic triple-based knowledge extension
JP3758241B2 (ja) 音声情報検索装置
JP2003186896A (ja) 対話処理装置
CN116991969B (zh) 可配置语法关系的检索方法、系统、电子设备及存储介质

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees