JP4292846B2 - Spoken dialogue device, spoken dialogue substitution device, and program thereof - Google Patents
Spoken dialogue device, spoken dialogue substitution device, and program thereof Download PDFInfo
- Publication number
- JP4292846B2 JP4292846B2 JP2003093194A JP2003093194A JP4292846B2 JP 4292846 B2 JP4292846 B2 JP 4292846B2 JP 2003093194 A JP2003093194 A JP 2003093194A JP 2003093194 A JP2003093194 A JP 2003093194A JP 4292846 B2 JP4292846 B2 JP 4292846B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- user
- operation instruction
- voice
- history
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
この発明は、ネットワーク経由で取得可能し対話操作により利用するコンテンツを音声により利用する音声対話装置及び音声対話代行装置並びにそれらのプログラムに係るものであり、特に操作回数を低減し、短時間で所望のコンテンツを得ることができる音声対話装置及び音声対話代行装置並びにそれらのプログラムに関する。
【0002】
【従来の技術】
近年、電話を介して音声によりインターネットサービスを利用できるようにしたボイスポータルが増えてきている。例えば、株式会社NTTコミュニケーションズの「Vポータル」(URL:http://www.ntt.com/v−portal/)や、株式会社電話放送局の「大阪ボイスポータル」(URL:http://www.vpsite.net/)などがある。
【0003】
これらは、もともと文字として表現されていたインターネット上のコンテンツを、音声合成により音声として利用者に提供するものである。ここで、これらのコンテンツが対話操作を含む場合には、対話操作を促す文字情報が音声ガイダンスに変換され、また本来キーボードやマウスによる操作指示の入力が必要な場面では、音声認識技術を利用して、利用者の発話を音声認識技術により操作指示に変換して利用できるようにしている。
【0004】
ところで、音声によるガイダンスと音声入力とを組み合わせた対話操作と、通常のインターネットコンテンツが前提としている画面での文字表示とキーボードあるいはマウスによる操作指示とを組み合わせた対話操作とでは、次のような点が異なっている。
【0005】
例えば、音声ガイダンスや発話は、言語として完結しなければ、意味が不明確となる。そこで、音声ガイダンスを再現したり、発話を最後まで行うために、数秒以上の時間を要する。このため、音声による対話処理は、画面に文字列を表示し、キーボードやマウスを通じて操作指示を行う対話処理よりも、所要時間が長い。音声を通じて何度も同じコンテンツを利用しようとする利用者は、毎回同じような操作を行うにもかかわらず、本来必要とする情報に辿りつくまでに長い間待たされることになる。
【0006】
音声による対話操作を通じて、情報機器を操作するインターフェースは、ITS(Intelligent Transport System:高度道路交通システム)の普及につれて、運転者が視線を逸らさずに情報を得る手段として有望視されている。特に今後DSRC(Dedicated Short Range Communication、専用狭域通信)技術によって、運転中に高度な情報を供給できるようになってくることが想定される。そこで、音声対話操作インターフェースを普及させるためにも、上記のような煩わしさを解決する必要がある。
【0007】
このような音声対話の操作性上の問題点を解決しようとした技術として、情報提供の順序を利用者に合わせて変更し、利用者が頻繁に利用する情報に辿りつくまでの操作を省略できるようにした方法が提案されている(例えば、特許文献1)。
【0008】
【特許文献1】
特開2000−270105「音声応答システム」(第1図、第7図、第3頁−第5頁)
【0009】
【発明が解決しようとする課題】
しかし上記の方法は、情報を利用者に供給するサーバの側で、情報提供の方法を利用者ごとに変更する手段を採用している。そのため、情報を利用者に供給するサーバが、利用者固有の情報提供順序を記憶しておかなければならない。例えば、現在のインターネットでは、おびただしい量のコンテンツが存在する。このような場合に、大量のコンテンツそれぞれについて情報提供の順序を利用者ごとに変更し、さらにその変更内容を記憶させることは現実的ではない。
【0010】
この発明は、上記のような問題を解決するために行われたもので、ネットワークを通じて取得したコンテンツを音声によって操作するインターフェースにおいて、定型の対話操作の回数を低減するものである。
【0011】
【課題を解決するための手段】
この発明に係る音声対話装置は、
コンテンツ取得手段と、履歴記憶手段と、コンテンツ解釈手段と、対話操作代行手段と、音声認識手段とを備えた音声対話装置であって、
前記コンテンツ取得手段は、利用者の操作指示を促すメッセージと操作指示毎に異なる動作とを定義した対話操作制御情報を有するコンテンツをネットワークを通じて取得し、 前記履歴記憶手段は、前記コンテンツ取得手段が取得したコンテンツについて前記利用者がこれまで行った操作指示を使用履歴として記憶し、
前記コンテンツ解釈手段は、前記履歴記憶手段の記憶している使用履歴が所定の条件を満たす場合には、前記対話操作代行手段の出力する操作指示に基づいて、前記コンテンツの有する対話操作制御情報に定義された動作を決定する一方で、前記使用履歴が前記所定の条件を満たさない場合には、前記コンテンツの有する対話操作制御情報のメッセージを前記利用者に提示するとともに、前記音声認識手段が出力する操作指示に基づいて前記動作を決定するものであって、前記履歴記憶手段が記憶する使用履歴から前記コンテンツを使用した回数を算出すると共に、ハードウェア環境情報に基づいて所定値を算出し、前記回数が前記所定値以上の場合に、前記対話操作代行手段の出力する操作指示に基づいて、前記動作を決定する一方で、前記回数が前記所定値未満の場合には、前記メッセージを前記利用者に提示するとともに、前記音声認識手段が出力する操作指示に基づいて前記動作を決定し、
前記対話操作代行手段は、前記履歴記憶手段が記憶している使用履歴の操作指示を出力し、
前記音声認識手段は、前記コンテンツ解釈手段が提示したメッセージに対して前記利用者が行った発話を音声認識し、前記コンテンツの有する対話操作制御情報に対する操作指示として出力するとともに、該操作指示を前記履歴記憶手段に記憶させることを特徴とするものである。
【0012】
またこの発明に係る音声対話代行装置は、利用者の操作指示により異なる動作を行い、かつ前記利用者の操作指示を促すメッセージを含むコンテンツをネットワークを通じて取得するコンテンツ取得手段と、
前記利用者の発話を音声認識により前記コンテンツ取得手段が取得するコンテンツに対する操作指示に変換し出力する音声認識手段と、
前記コンテンツ取得手段が取得するコンテンツの有する前記メッセージを前記利用者に報知する報知手段と、
前記音声認識手段が出力する操作指示に基づいて動作を決定するコンテンツ解釈手段とを備えた音声対話装置とともに使用する音声対話代行装置であって、
前記コンテンツ取得手段が取得したコンテンツと前記利用者の発話とを関連づけて使用履歴として記憶する履歴記憶手段と、
利用者情報を記憶する利用者情報記憶手段と、
前記利用者が使用するコンテンツについて、前記履歴記憶手段が前記利用者の発話を記憶している場合に、前記利用者の発話を再生して前記音声認識手段に出力するものであって、前記履歴記憶手段が記憶する使用履歴から前記コンテンツを使用した回数を算出すると共に、前記利用者情報記憶手段が記憶する前記利用者情報に基づいて所定値を算出し、前記回数が前記所定値以上の場合に、前記利用者の発話を再生して前記音声認識手段に出力する発話再生手段と、
を備えるものである。
【0013】
以下、この発明の実施の形態について説明する。
実施の形態1.
図1は、この発明の実施の形態1による音声対話装置の構成を表すブロック図である。図において、コンテンツ記憶部1は、コンテンツを記憶し、ネットワークを経由して利用者にそのコンテンツを供給する装置である。具体的には、コンテンツ記憶部1はコンピュータを用いて構成されたサーバ装置である。コンテンツ2は、コンテンツ記憶部1によって供給されるコンテンツである。ここで、コンテンツとは、利用者が利用する情報を総称するものであり、具体的には、HTML(Hyper Text Markup Language)、XML(eXtended Markup Language)などの構造化文書形式、その他のバイナリ形式で供給される情報を含む。ネットワーク3は、LANや電話通信回線を初めとする双方向でデジタルデータを送受信するための通信路である。ここでネットワーク3は、このような目的を達するものであればどのようなものでもよく、有線/無線の別を問わない。
【0014】
音声対話装置4は、実施の形態1による音声対話装置であって、コンテンツ2を取得して、利用者に提供する装置である。メッセージ5は、コンテンツ2に対する対話操作を促すためのメッセージであり、音声又は文字やアイコンによって利用者に提供されるものである。発話6は、メッセージ5に応答して、利用者がコンテンツ2に対する操作指示を行うために発声する音声である。音声対話装置4は、発話6を音声認識により解釈して、コンテンツ2の対話操作制御情報に適合した形式の操作指示に変換するものである。
【0015】
ここで対話操作制御情報とは、コンテンツ2に組み込まれた、あるいはコンテンツ2と関連づけられた対話操作処理を実行するためのプログラムコードである。コンテンツ2がHTMLやXMLであるならば、このような対話操作制御情報はジャバスクリプトやVoiceXML、あるいはHTMLとcgiプログラムとの組み合わせなどによって実現されることが多い。もっとも、実施の形態1におけるコンテンツ2は、必ずしも音声対話操作を前提として構成されている必要はない。
【0016】
次に音声対話装置4の構成について説明する。図2は、音声対話装置4の詳細な構成を示すブロック図である。図において、コンテンツ取得手段7は、ネットワーク3を経由してコンテンツ2を取得する部位であって、具体的にはネットワーク入出力を行ってコンテンツ2を取得するものである。
【0017】
制御ID取得手段8は、コンテンツ2の対話操作制御情報に割り振られた制御IDを取得する部位である。制御IDとは、対話操作制御情報に割り振られた識別子であって、対話操作制御情報を一意に識別する識別子である。このような識別子としては、例えば、コンテンツ2がHTMLデータであれば、特定のタグを用いてもよいし、そのようなタグがないデータの場合は、行番号やデータの先頭からのオフセット値(データの先頭を0番地とした場合のそのデータの開始アドレス)を用いてもよい。
【0018】
コンテンツ解釈手段9は、コンテンツ取得手段7が取得したコンテンツ2の内容を解析して、図示せぬディスプレイ装置やスピーカーなどによって、利用者に対話操作を促すメッセージ5を利用者に報知する。また利用者からの操作指示に従って、対話操作制御情報に予め定められているいずれかの動作を選択し、場合によってはその動作を実行する部位である。
【0019】
音声認識手段10は、利用者がメッセージ5に応答して操作指示を発話すると、この発話をマイクロホンで集音し、集音した発話を音声認識してコンテンツ2の対話操作制御情報に適合した操作指示に変換するものである。
【0020】
また履歴記憶手段11は、利用者がコンテンツ2にアクセスした履歴を使用履歴として記憶する部位である。具体的には、ハードディスク装置やフラッシュメモリなどの不揮発性記憶装置によって構成されており、音声認識手段10によって音声認識された操作指示を、制御ID取得手段8が取得した識別子に関連づけて、記憶するようになっている。
【0021】
対話操作代行手段12は、対話操作制御情報を通じてコンテンツ2が要求する対話操作を自動的に行うために、履歴記憶手段11によって記憶されている使用履歴を参照して、過去の利用者の操作指示を取得し、出力する部位である。
【0022】
次に、コンテンツ2の詳細について説明する。図3は、コンテンツ2の一例を示したものである。図3の矩形20内のリストはVoiceXML言語に準拠して記述されたコンテンツのリストである。また図の左端の数字とコロンの組み合わせは、説明のために付された行番号である。以下の説明において、<という文字と、>という文字とによって括られた文字列(トークン)をタグと呼ぶこととする。
【0023】
図において、<form id>タグで開始し、</form>タグで終了する行は、コンテンツ2を利用すると行われる対話操作処理を定義するものである。図3の例では、このような対話操作処理として、2行目から16行目までの対話操作制御情報(<form id=”説明文出力の確認”>で開始する対話操作制御情報、以後、単に対話操作制御情報21という)及び17行目から21行目までの対話操作制御情報(<form id=”説明文の出力”>で開始する対話操作制御情報、以後単に対話操作制御情報22という)が表されている。
【0024】
次に、音声対話装置4の動作について説明する。図4は音声対話装置4の処理を示すフローチャートである。図において、ステップS101はコンテンツ取得手段7によって処理されるもので、ネットワーク3を介してコンテンツ記憶部1からコンテンツ2を取得する。コンテンツ2の取得には、例えばftp(file transfer protocol)やhttp(hyper texttransfer protocol)などを使用する。
【0025】
次にステップS102において、制御ID取得手段8は、対話操作制御情報21の制御IDを取得する。図3の例でいえば、<form id>タグの値はコンテンツ2内で重複して用いられることがない情報であるから、この値を識別子とすることができる。音声対話装置4で複数のコンテンツを扱うことを考慮すると、さらにコンテンツ名またはコンテンツのURLと<form id>タグの値とを組み合わせたもの(例.http://www.コンテンツ2#説明文の出力 など)を識別子として用いてもよい。
【0026】
ステップS103において、コンテンツ解釈手段9は、利用者によるコンテンツ2の使用の条件が所定の条件に合致するかどうかを判定する。コンテンツ2の使用条件とは、現在の利用者のコンテンツ2へのアクセス状況を意味するものであって、例えばこの利用者がコンテンツ2にこれまでアクセスしたことがあるかどうか、そしてアクセスしている場合には、どの程度の頻度でアクセスしているか、などの情報を指す。この情報は、履歴記憶手段11の記憶する使用履歴を参照することによって得られる。また所定の条件とは、この場合では、「初回のアクセスかそれ以外か」又は「過去のアクセス回数が所定の回数以上か否か」などである。
【0027】
例えば「初回のアクセスかそれ以外か」ということを所定の条件とするのであれば、コンテンツ解釈手段3は使用履歴を検索し、コンテンツ2のアクセス履歴が取得できるかどうかを調べる。その結果、過去にコンテンツ2をアクセスしたことがあれば、ステップS103の結果はYESである。またアクセスしたことがないのであれば、NOがステップS103の結果となる。
【0028】
同様に「過去のアクセス回数が所定の回数以上か否か」を所定の条件とするのであれば、コンテンツ解釈手段3は使用履歴を検索し、コンテンツ2のアクセス回数を算出する。その結果、この回数が所定の回数以上であれば、ステップS103の結果はYESである。また所定の回数に達していないのであれば、NOがステップS103の結果となる。
【0029】
利用者が、初めてコンテンツ2にアクセスした場合には、上記の所定の条件を満たすことはないので、ステップS103の判定結果はNOとなる。そこで、まずステップS103の判定結果がNOとなる場合の処理について説明する。この場合、ステップS104に進む(ステップS103:NO)。
【0030】
ステップS104において、コンテンツ解釈手段12は、対話操作制御情報に含まれるメッセージをメッセージ5として出力し、利用者の対話操作を促す。対話操作制御情報に含まれるメッセージとは、対話操作制御情報21の例でいえば、<prompt>タグによって定義される「システムの説明が必要ですか?」などのメッセージをいう。なおこの例では、メッセージは文字列として表されているが、アイコンなどの画像データと組み合わせて、あるいは画像データのみで利用者に分かるように情報を提供してもよい。
【0031】
ステップS105において、音声認識手段10は、利用者の発話を音声認識し、操作指示に変換する。すなわち、利用者がこのメッセージや音声ガイダンスに対して操作指示を発話すると、音声認識手段10はこの発話を音声認識して、操作指示に変換する。この音声認識処理は、一般的な音声認識辞書を用いて実現してもよい。さらに、対話操作制御情報21の<filled>タグ(8行目から14行目まで)の内容を解析し、例えば9行目の”いいえ”という文字列を抽出して、この”いいえ”の音声データとの間でマッチングするような処理を行ってもよい。
【0032】
次にステップS106において、履歴記憶手段11は、音声認識手段10が変換した操作指示と、制御ID取得手段8が取得した制御IDとを関連づけて、使用履歴として記憶する。履歴記憶手段11は、すでにこの制御IDと関連づけられて使用履歴として記憶している操作指示がある場合には、新たな操作指示がすでに記憶している操作指示と同じかどうかを評価する。そして、異なる操作指示の場合のみ、すでに記憶している操作指示を消去して、新たな操作指示と制御IDを関連づけて記憶する。
【0033】
なお、音声対話装置4の記憶容量に余裕がある場合には、このように既存の操作指示を上書きするのではなく、常に新たな操作指示を追加していく処理を行うようにしてもよい。こうすると、一つの制御IDに対して複数の操作指示を記憶することとなる。したがってこの場合には、最新の操作指示(一番最後に使用履歴に追加した操作指示)を使用することとする。あるいは、ある制御IDについて履歴記憶手段11が記憶している操作指示が複数ある場合には、その操作指示の中から最も頻度の高い操作指示を選択するようにしてもよい。
【0034】
最後に、ステップS107において、コンテンツ解釈手段9は、音声認識手段10が変換した操作指示を取得し、この操作指示に従って対話操作制御情報に定義された動作を選択する。例えば、対話操作制御情報21の場合ならば、利用者が「いいえ」と発話すると、音声認識手段10はこれを認識し、操作指示として出力する。これに対してコンテンツ解釈手段9は、この操作指示を9行目の<if cond=”YN==’いいえ’”>という行に代入して評価する。この場合は、この評価値は「真」となって10行目の行が動作として選択される。この結果、コンテンツ解釈手段9は10行目の行(<goto next=”#次の処理”/>)を解釈実行し、22行目から始まる<form id>タグの処理を行う。
【0035】
一方、利用者が「いいえ」以外の発話を行うと、音声認識手段10はこれを認識し、コンテンツ解釈手段9に出力する。コンテンツ解釈手段9は、この操作指示を9行目に代入して評価し、その結果として評価値は「偽」となって12行目の行が動作として選択される。この結果、コンテンツ解釈手段9は12行目の行(<goto next=”#説明文の出力”/>)を解釈実行し、17行目から始まる対話操作制御情報22の処理を行う。
【0036】
以上が、所定の条件に合致しない場合の処理である。次に所定の条件に合致する場合の処理(ステップS103:YES)について説明する。この場合は、ステップS108に進む。この場合、対話操作代行手段12は、履歴記憶手段11が記憶する使用履歴から、対話操作制御情報の制御IDに関連づけて記憶されている操作指示を取得する。例えば、制御IDが”説明文出力の確認”であれば、過去に利用者は「いいえ」などの指示操作を行っている。したがって、履歴記憶手段11は制御ID”説明文出力の確認”と、「いいえ」などの操作指示とを関連づけて記憶している。この場合、対話操作代行手段12は、制御ID”説明文出力の確認”に関連づけられている指示操作「いいえ」を使用履歴から取得して出力する。
【0037】
次に再びステップS107において、コンテンツ解釈手段9は、対話操作代行手段12が出力した操作指示を取得し、この操作指示に従って対話操作制御情報に定義された動作を選択する。以後の処理は、所定の条件に合致しない場合の処理と同様である。
【0038】
以上より明らかなように、音声対話装置4は、対話操作代行手段12が過去に利用者が行った操作を代行入力するので、すでに利用者が音声による対話操作を行ったことがあるコンテンツの対話操作を省略する。このため、利用者は同じコンテンツを利用する場合に、音声による対話操作を何度も繰り返す必要がなくなり、使い勝手のよい音声対話インターフェースを提供することができる。
【0039】
また使用履歴をコンテンツ記憶部1などのサーバ側に記憶するのではなく、端末側である音声対話装置4側に記憶するようにしたので、利用者ごとに使用履歴を管理することができる。したがって利用者ごとのコンテンツの趣向や操作の手順に合わせて、定型的な音声による対話操作の省力化を行うことが可能となる。
【0040】
なお、実施の形態1ではVoiceXMLに準拠したコンテンツ2を例として説明したが、使用するコンテンツについてはこのような形式のものに限定されるわけではない。
【0041】
また、実施の形態1では、コンテンツ2は複数の対話操作制御情報を有しているので、制御ID取得手段8を用いてこれらを識別することとした。しかし対話操作制御情報が複数存在しないコンテンツを扱う場合にあっては、制御ID取得手段8を省略してもよい。この場合は、コンテンツ名あるいはコンテンツのURLなどと操作指示とを関連づけて、使用履歴として記憶させるようにすればよい。
【0042】
さらに、対話操作制御情報を複数有しているコンテンツ(対話操作が複数ステップからなるコンテンツ)の場合であっても、各ステップに対する利用者の操作指示の一連の流れ(シーケンス)を、一つの操作指示のかたまりとして記憶するようにすれば、やはり制御ID取得手段を省略することができる。
【0043】
またステップS103の判定の結果、所定の条件に合致する場合にも、コンテンツ解釈手段9は、メッセージ5に基づいて利用者に何らかの情報を提供するようにしてもよい。この場合には、対話操作代行手段12が代理応答を行うので、利用者に通知されるメッセージの内容は対話操作を促すものでなくてよく、例えば「代理応答がなされます」などの変更したメッセージであってもよい。
【0044】
さらに、音声対話装置4と同様の機能を、コンピュータに実行させるコンピュータプログラムとして構成することも当然に可能である。このようなコンピュータプログラムは、コンテンツ取得手段7に処理を実行するコンピュータプログラム、音声合成手段8による処理を実行するコンピュータプログラム、音声認識手段10による処理を実行するコンピュータプログラム、制御ID取得手段8による処理を実行するコンピュータプログラム、履歴記憶手段11による処理を実行するコンピュータプログラム、対話操作代行手段12による処理を実行するプログラム、コンテンツ解釈手段9による処理を実行するプログラムのそれぞれを逐次コンピュータに実行させるプログラムである。
【0045】
実施の形態2.
実施の形態1では、対話操作を省略するか否かの判断を、コンテンツの使用回数に基づいて行うようにしたものであった。実施の形態2では、さらにハードウェア環境情報を用いて、対話操作を省略するか否かの判断を行う。
【0046】
図5は、実施の形態2による音声対話装置の構成を示すブロック図である。実施の形態1の音声対話装置と同一の符号を付した構成要素については、同様の動作を行うものであるので、説明を省略する。本図の構成と図1の構成の異なる点は、コンテンツ解釈手段9がハードウェア環境情報を取得する点にある。
【0047】
ここで、ハードウェア環境情報とは、音声対話装置4が有する機器の諸元や音声対話処理を行う環境の諸元を示す情報を意味する。より具体的にいうと、利用者にとっての音声対話装置4におけるコンテンツの認識性や操作性に影響を与える要因をパラメータ化した情報であって、例えば、音声対話装置4が
(1)ディスプレイ装置やキーボード装置などを有するか否かなどの情報
(2)車載用機器として用いられているかどうか
(3)携帯電話として用いられているかどうか
などの情報である。その他、コンテンツの認識性や操作性に影響を与える要因をコンピュータなどにより情報処理できるようにしたものであれば、どのような情報であっても構わない。
【0048】
これらの情報は、ROM(Read Only Memory)に記録され、BIOS(Basic Input Output System)プログラムを用いて読み出す。またシステムコンフィギュレーション(システム構成)情報として、図示せぬ記憶装置にファイルなどの形式で記録しておき、それを読み出すようにしてもよい。
【0049】
次に、上記に示したハードウェア環境情報(1)〜(3)を例にして、音声対話装置4の動作を説明する。図6は音声対話装置4の処理を示すフローチャートである。なお本フローチャートにおいて実施の形態1のフローチャートと同じ符号を付した処理については、実施の形態1と同様であるので説明を省略する。また点線矩形で囲み、符号S103を付した部分は、実施の形態1のステップS103に相当する処理であることを示すもので、実施の形態2の説明のために、その内容を詳細化したものである。
【0050】
そこで以下の説明では、このステップS103の詳細についてのみ説明することとする。なおこれらの処理は、いずれもコンテンツ解釈手段9によって処理されるものであり、使用回数とその所定の値との大小関係を見るものである。ここでは、この所定の値を「閾値」と呼ぶこととし、この閾値の値が例えば3であるものとする。
【0051】
図6のフローチャートのステップS201において、履歴記憶手段11が記憶する使用履歴を参照して、コンテンツ2の使用回数を算出する。次にステップS202において、ハードウェア環境情報の取得を行う。さらにステップS203において、ハードウェア環境情報に基づいて閾値を変更する。
【0052】
ここで、上述した(1)〜(3)を例にとって、ハードウェア環境情報がコンテンツ2の認識性や操作性に与える影響と、この影響を考慮したステップS203における閾値の変更の方法とについて、具体的に説明する。
【0053】
(1)のディスプレイ装置やキーボード装置の有無は、コンテンツ2の操作性に影響を与える。例えば音声対話装置4がディスプレイ装置を有し、さらにキーボードやマウスなどの入力機器を有している場合、対話操作制御情報の操作指示を促すメッセージを画面に表示し、さらにキーボードやマウスなどの入力機器を用いて操作指示を行うことができる。このような場合、音声ガイダンスに加えて画面にメッセージが表示されるので、利用者はごく短時間に多くの情報を認識できる。したがってこのような機能のない装置を通じて同じコンテンツを利用する場合に比して、より少ない回数で操作に慣れることが予想されるし、音声による対話操作を煩わしく感じるようになると考えられる。
【0054】
そこでステップS203では、ディスプレイ装置やキーボード装置が音声対話装置4に装備されていないことを示すハードウェア環境情報を取得した場合には、閾値を3のままとする。一方、ディスプレイ装置やキーボード装置が音声対話装置4に装備されていることを示すハードウェア環境情報を取得した場合には、閾値を1あるいは2に変更する。
【0055】
(2)の車載用機器であるか否かという条件は、利用者に対するコンテンツ2の操作性に影響を与える。利用者が自動車のドライバであり、運転中にコンテンツ2を使用しようとする場合、音声による対話操作は有効なユーザーインターフェースとなりうる。しかし、音声による対話操作とはいえ、1つのコンテンツを利用するために何度も同じ対話操作を運転中に行うことは煩わしい。また、自動車車内では騒音レベルが高く、音声認識率が劣化するので、発話による操作指示を何度も試行することになる。そこでこのような場合には、過去に行った操作指示を利用して、より少ない回数で音声による対話操作を不要とするような処理が望まれる。
【0056】
そこでステップS203では、音声対話装置4が車載用機器でないというハードウェア環境情報を取得した場合には、閾値を3のままとする。一方、音声対話装置4が車載用機器であるというハードウェア環境情報を取得した場合には、閾値を1あるいは2に変更する。
【0057】
(3)の携帯電話であるか否かという条件も、利用者に対するコンテンツの操作性に影響を与える。携帯電話の使用環境を考えてみると、車載用機器の場合と同じように、騒音環境下で使用する場合が多く、音声認識率が劣化する。また携帯電話の場合は、ディスプレイ装置が付属しており、さらにテンキー操作という手段によって操作指示も可能である。
【0058】
そこでステップS203では、音声対話装置4が携帯電話でないというハードウェア環境情報を取得した場合には、閾値を3のままとする。一方、音声対話装置4が携帯電話であるというハードウェア環境情報を取得した場合には、閾値を1あるいは2に変更する。
【0059】
次にステップS204において、ステップS201で算出されたコンテンツ2の使用回数と、ステップS203で算出された閾値との比較を行う。そして使用回数が閾値以上であれば、ステップS108に進み(ステップS204:YES)、使用回数が閾値未満であれば、ステップS104に進む(ステップS204:NO)。以降の処理については、実施の形態1と同様であるので説明を省略する。
【0060】
以上より明らかなように、実施の形態2による音声対話装置4は、ハードウェア環境情報に応じて対話操作が省略されるようになるまでの使用度数を変更する。その結果、音声対話装置4の機器の諸元や使用環境に応じて音声対話操作を効率化し、使いやすい音声対話操作インターフェースを提供できる。
【0061】
なお、音声対話装置4に外部の騒音レベルを検出するような機能を設け、この騒音レベルをハードウェア環境情報に変換してコンテンツ解釈手段9に出力できるようにした上で、ハードウェア環境情報として与えられる騒音レベルに基づいて動的に閾値の値を変更するようにしても構わない。
【0062】
実施の形態3.
実施の形態2では、ハードウェア環境情報に応じて、対話操作が省略されるようになるまでの使用度数を変更することとした。これに対して、実施の形態3では、利用者固有の属性に基づいてこの使用度数を変更する例について説明する。
【0063】
図7は、実施の形態3による音声対話装置の構成を示すブロック図である。実施の形態1の音声対話装置と同一の符号を付した構成要素については、同様の動作を行うものであるので、説明を省略する。本図の構成と図1の構成の異なる点は、新たに利用者情報記憶手段13を設けた点にある。
【0064】
利用者情報記憶手段13は、利用者情報を記憶するものであって、具体的にはハードディスクやフラッシュメモリなどの不揮発性記憶装置により構成されている。なお、利用者情報記憶手段13は、音声対話装置4とは別体であってもよい。例えば磁気カードに利用者情報を記憶させておき、音声対話装置4にこの磁気カードに記憶された利用者情報を読みとらせるような構成としてもよい。また、携帯電話に利用者情報を記憶させておき、赤外線通信により音声対話装置4に利用者情報を転送するようにしても構わない。
【0065】
ここで利用者情報とは、たとえば利用者の年齢など、音声対話装置4を使用する利用者固有の情報をいう。また聴力や視力などの情報を含めるようにしてもよい。利用者の年齢が高い場合には、同じ音声対話操作であっても、慣れるまでに時間を要する。その一方で、例えば20代〜40代であれば、短期間に音声対話操作に慣れてしまい、すぐに何度も同じ音声対話操作を行うのが煩わしくなる。
【0066】
実施の形態3においても、コンテンツの使用度数と閾値の大小関係を判断して、対話操作を省略するかどうかを決定する。そこで例えば、利用者の年齢に基づいてこの閾値を決定するようにすれば、利用者に最適な音声対話操作を提供できる。
【0067】
同様に、視力や聴力が弱い場合と正常な場合では、同じ音声対話操作であっても、慣れるまでに要する時間は異なる。したがってこのような場合にも、異なる閾値を用いて、コンテンツの使用度数の大小を判断する。
【0068】
さらに、音声対話装置4を航空機や旅客船舶などで使用する場合、または空港などで使用する場合には、利用者全員が同じ言語を理解できるとは限らない。そこで、国籍や使用言語などを利用者情報として記憶させてもよい。例えば、英語による音声ガイダンスは日本人には聞き取りにくく、慣れるまで時間を要する。このような場合には、対話操作が省略されるようになるまでの使用度数を大きくするような処理が必要となる。利用者情報として、国籍や使用言語を記憶させておけば、このような場合に、利用者に適切な形で対話操作の省力化を行うことが可能となる。
【0069】
なお実施の形態3による音声対話装置4の処理は図3のフローチャートによるものであり、ステップS103のみ、上述の処理を行う点で相違する。したがって説明を省略する。
【0070】
以上より明らかなように、実施の形態3による音声対話装置4は、利用者固有の事情に合わせて音声対話処理を省略するので、適切な音声対話操作を提供することができる。
【0071】
実施の形態4.
実施の形態1から実施の形態3までにおいて説明した音声対話装置4は、いずれも履歴記憶手段11に記憶された操作指示に基づいて、コンテンツ解釈手段9が動作を選択するものであった。これに対して実施の形態4では、コンテンツ2に対する操作指示が記録された日時に基づいて、履歴記憶手段11に記録された操作指示の採否を決定することを特徴とするものである。
【0072】
利用者はコンテンツ2を頻繁に使用している期間においては、コンテンツ2の対話操作に慣れてしまい、何度も同じ操作を繰り返すことを負担に感じる。これに対して、過去の一時期にコンテンツ2を頻繁に使用していても、しばらく間を空けてコンテンツ2を使用することになった場合は、コンテンツ2の内容を記憶しているとは限らない。このような場合に、以前と同じように音声による自動応答を行ってしまうと、コンテンツ2の情報の遷移を理解できず、利用者が混乱することも考えられる。実施の形態4による音声対話装置4は、このような課題に対応するものである。
【0073】
実施の形態4による音声対話装置4の構成は図2に示すものであって、実施の形態1による音声対話装置と同様であるので、説明を省略する。
【0074】
次に、音声対話装置4の動作を説明する。図8は音声対話装置4の処理を示すフローチャートである。なお本フローチャートにおいて実施の形態1のフローチャートと同じ符号を付した処理については、実施の形態1と同様であるので説明を省略する。また点線矩形で囲み、符号S103を付した部分は、実施の形態1のステップS103に相当する処理であることを示すもので、実施の形態4の説明のために、その内容を詳細化したものである。さらに、図8のフローチャートにおいてはステップS106−2の処理が実施の形態1と異なる。ステップS106−2は、実施の形態1のステップS106の処理に相当するものである。そこで以下の説明では、ステップS103とステップS106−2についてのみ説明することとする。
【0075】
まずステップS103について説明する。ステップS103はステップS301〜S304よりなるものである。これらは、いずれもコンテンツ解釈手段9によって処理されるものであり、使用回数と所定の値(以降、閾値と呼ぶ)との大小関係および最終使用時から現在時までの経過時間と別の所定値(以降、単に所定値と呼ぶ)との大小関係を見るものである。
【0076】
図8のフローチャートのステップS301において、履歴記憶手段11が記憶する使用履歴を参照して、コンテンツ2の最終使用時刻を取得する。ここで、コンテンツ2の最終使用時刻は、後述するステップS105−2において履歴記憶手段11が記憶するものである。
【0077】
次にステップS302において現在時刻から最終使用時刻を減じて、最終使用時刻からの経過時間を求め、この経過時間が所定値以下かどうかを調べる。経過時間が所定値以下である場合には、ステップS303に進む(ステップS302:YES)。一方、経過時間が所定値を超える場合には、ステップS103の処理を抜けて、ステップS104に進む(ステップS302:NO)。これによって、利用者が最後に使用してから一定の時間以上経過している場合には、ステップS104以降の処理が行われ、利用者の発話を音声認識するようになる。
【0078】
次にステップS303において、履歴記憶手段11が記憶する使用履歴を参照して、コンテンツ2の使用回数を算出し、さらにステップS304において、この使用回数が閾値以上か否かを評価する。使用回数が閾値以上である場合には、ステップS108に進む(ステップS304:YES)。一方、使用回数が閾値未満である場合には、ステップS104に進む(ステップS304:NO)。以上が、ステップS103の詳細処理である。次に、ステップS106−2の処理について説明する。
【0079】
ステップS106−2において、履歴記憶手段11は、音声認識手段10が変換した操作指示と、制御ID取得手段8が取得した制御IDとを関連づけて記憶し、さらに利用者がその操作指示を行った時間も操作指示とともに記憶する。履歴記憶手段11が利用者の操作指示を記憶させる方法については、実施の形態1と同様であるので、詳細な説明については省略する。
【0080】
以上より明らかなように、実施の形態4による音声対話装置4は、コンテンツを最後に使用した所定の時間が経過している場合に、自動応答を行わないようにするので、適切な範囲で定型的な音声応答処理の省力化を行うことができる。
【0081】
実施の形態5.
実施の形態1乃至4では、音声対話装置自身に音声対話操作を省力化する機能を持たせる場合について説明した。これに対して、このような省力化機能を持たない音声対話装置に、音声対話操作を省力化するための機能を有する機器を組み合わせて使用する形態も考えられる。実施の形態8による音声対話代行装置はこのような機能を有する装置である。
【0082】
図9は、実施の形態5による音声対話代行装置と、この装置と組み合わせて用いられる音声対話装置の構成を示すブロック図である。図において、図1と同じ符号を付した構成要素については、実施の形態1と同様であるので、説明を省略する。図の音声対話装置14は、利用者の発話によってネットワークを介して取得したコンテンツを操作することができる装置である。また音声対話代行装置15は、音声対話装置14と組み合わせて使用するものであって、音声対話装置14による音声対話操作を省力化する装置である。
【0083】
図10は、音声対話装置14と音声対話代行装置15の詳細な構成を示したブロック図である。図において、図2と同じ符号を付した構成要素については、実施の形態1と同様であるので、説明を省略する。音声対話装置14において、報知手段31は、コンテンツ取得手段7がコンテンツ2を取得すると、利用者に対話操作を促すメッセージ5を利用者に知らせるものであって、具体的にはディスプレイ装置またはスピーカーなどによって構成されている。報知手段31がスピーカーによってメッセージ5を報知する場合には、メッセージ5を音声合成する。
【0084】
音声対話代行装置15は、音声対話装置14とRS232CやUSB(Universal Serial Bus)、あるいはその他のバスなどによって接続されているものである。この接続の方法は、音声対話装置14から電気信号あるいはデジタル信号、音声信号を送受信できるようになっているものであれば、どのようなものであってもよい。またマイクロホンを装備させて、音声対話装置の報知手段31が出力する音声を、音声のまま直接入力するような方法を採用してもよい。
【0085】
音声対話代行装置15において、履歴記憶手段32は、報知手段31の出力するメッセージ5と利用者の操作指示を記憶するものであって、具体的にはハードディスク装置やフラッシュメモリなどの不揮発性記憶装置によって構成されている。発話再生手段33は、利用者が発話した操作指示を取り込み、履歴記憶手段32に発話内容を記憶させるとともに、利用者の発話を音声対話装置14の音声認識手段10に出力するようになっている。さらに発話再生手段33は、利用者が発話を行わない場合に、履歴記憶手段32に記憶されている利用者の発話を再生して、音声対話装置14の音声認識手段10に出力することで、音声による対話操作を代行するものである。
【0086】
次に音声対話装置14と音声対話代行装置15の処理について説明する。図11は、音声対話装置14と音声対話代行装置15の処理を示すフローチャートである。図のステップS401において、音声対話装置14のコンテンツ取得手段7は、ネットワーク3を通してコンテンツ記憶部1よりコンテンツ2を取得する。この処理は実施の形態1におけるステップS101と同様であるので、説明を省略する。
【0087】
続いてステップS402において、音声対話装置14の報知手段31はコンテンツ2の内容を報知する。前述したとおり、報知手段31はメッセージ5を報知するために、メッセージ5を音声合成して図示せぬスピーカーから出力したり、ディスプレイ装置に表示したりする。またその一方で、RS232Cインターフェースやバス経由で、音声対話代行装置15にもメッセージ5を出力する。
【0088】
次にステップS403において、音声対話代行装置15の履歴記憶手段32は、メッセージ5に対する利用者の発話を記憶しているかどうかを調べる。そして、利用者の発話を記憶している場合には、発話再生手段33に利用者の発話を出力して、ステップS404に進む(ステップS403:YES)。記憶していない場合はステップS406に進む(ステップS403:NO)。ステップS406以降の処理については後述する。
【0089】
ステップS404において、発話再生手段33は履歴記憶手段32が出力した利用者の発話を音声データとして再生する。再生された音声データは、音声対話装置14と音声対話代行装置15とを接続するRS232Cインターフェースやバスを経由して電気信号として伝達する。または、発話再生手段33自身によってスピーカーから実際の音声として再生されて音声対話装置14のマイクロホンに出力するようにしてもよい。
【0090】
最後にステップS405において、音声認識手段10は利用者の発話を音声認識して、操作指示に変換する。この処理は、実施の形態1におけるステップS104の処理と同様であるので、説明を省略する。
【0091】
一方、ステップS403において、音声対話代行装置15の履歴記憶手段32が、メッセージ5に対する利用者の発話を記憶していない場合(ステップS403:NO)には、ステップS406が実行される。ステップS406において、履歴記憶手段32は、利用者の発話とメッセージ5とを関連づけ、図示せぬハードディスク装置又はフラッシュメモリなどの不揮発性記憶装置に記憶させる。
【0092】
またこの場合、履歴記憶手段32は何も出力せず、発話再生手段33もそれに伴って何も出力しない。その結果、音声対話装置14の音声認識手段10は入力待ちの状態となる。この状態で、利用者が操作指示のための発話を行うと、ステップS405において音声認識手段10は、この発話を音声認識して操作指示に変換する。
【0093】
以上より明らかなように、音声対話代行装置15によれば、音声による対話操作を省力化する手段を持たない音声対話装置14のような機器に、省力化機能を付加することができる。
【0094】
なおステップS403において、履歴記憶手段32はコンテンツ内容7に対する発話を記憶している場合に、無条件でその発話を再生する処理に移行するのではなく、例えば実施の形態1乃至実施の形態4で行ったような条件判定に基づいて発話再生処理への移行を判断するようにしてもよい。
【0095】
また音声対話装置14からコンテンツ2の有する対話操作制御情報を表す制御IDを出力し、音声対話代行装置15でこの制御IDと利用者の発話を関連づけて記憶させるようにしてもよい。
【0096】
さらに、履歴記憶手段32は、コンテンツ内容7に対する発話を記憶している場合にも、即座に発話再生処理を行うのではなく、一定時間待機し、その間に利用者が発話を行わない場合にのみ、発話再生処理を行うようにすればよい。こうすることで、普段は一度行った操作指示を再生させておき、どうしても特別な操作指示を行わなければならない場合にのみ利用者が発声すれば、操作指示を進めることができるようになる。
【0097】
【発明の効果】
この発明に係る音声対話装置は、コンテンツの使用時に利用者が行った操作指示を使用履歴として記憶する履歴記憶手段と、前記使用履歴として記憶された操作指示を、前記コンテンツの対話操作制御情報に則した操作指示として出力する対話操作代行手段と、前記コンテンツの使用回数がハードウェア環境情報に基づく所定値以上の場合に、対話操作代行手段が出力する操作指示に基づいて動作を決定するコンテンツ解釈手段とを備えたので、定型的な音声対話操作を自動化し、使いやすい音声対話操作インターフェースを提供することが可能となるという効果を奏する。
【0098】
またこの発明に係る音声対話代行装置は、音声対話操作を省力化する機能を持たない音声対話装置の出力するコンテンツと利用者の発話内容を関連づけて記憶する履歴記憶手段と、前記コンテンツの使用回数がハードウェア環境情報に基づく所定値以上の場合に、履歴記憶手段が記憶する利用者の発話内容を再生する発話再生手段を備えて、前記音声対話装置に利用者の発話内容を出力するようにしたので、音声対話操作を省力化する機能を持たない音声対話装置についても、定型的な音声対話操作を自動化し、使いやすい音声対話操作インターフェースを提供することが可能となるという効果を奏する。
【図面の簡単な説明】
【図1】 この発明の実施の形態1の構成を示すブロック図である。
【図2】 この発明の実施の形態1の構成の詳細を示すブロック図である。
【図3】 この発明の実施の形態1のコンテンツの内容の例を示すプログラムリストである。
【図4】 この発明の実施の形態1の処理のフローチャートである。
【図5】 この発明の実施の形態2の構成の詳細を示すブロック図である。
【図6】 この発明の実施の形態2の処理のフローチャートである。
【図7】 この発明の実施の形態3の構成の詳細を示すブロック図である。
【図8】 この発明の実施の形態4の処理のフローチャートである。
【図9】 この発明の実施の形態5の構成を示すブロック図である。
【図10】 この発明の実施の形態5の構成の詳細を示すブロック図である。
【図11】 この発明の実施の形態5の処理のフローチャートである。
【符号の説明】
1:コンテンツ記憶部、2:コンテンツ、3:ネットワーク、
4:音声対話装置、5:メッセージ、6:利用者の発話、
7:コンテンツ取得手段、8:制御ID取得手段、9:コンテンツ解釈手段、
10:音声認識手段、11:履歴記憶手段、12:対話操作代行手段、
13:利用者情報記憶手段、14:音声対話装置、15:音声対話代行装置、
31:報知手段、32:履歴記憶手段、33:発話再生手段、
34:利用者の発話[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice dialogue apparatus, a voice dialogue substitution apparatus and a program for using contents that can be acquired via a network and used by a dialogue operation. The present invention relates to a voice dialog device, a voice dialog proxy device and a program thereof that can obtain the contents of the program.
[0002]
[Prior art]
In recent years, an increasing number of voice portals have made it possible to use Internet services by voice via telephone. For example, NTT Communications Corporation's “V Portal” (URL: http://www.ntt.com/v-portal/) and the Telephone Broadcasting Corporation's “Osaka Voice Portal” (URL: http: // www) .Vpsite.net /).
[0003]
These provide contents on the Internet originally expressed as characters to the user as voice by voice synthesis. Here, when these contents include interactive operations, text information that prompts interactive operations is converted into voice guidance, and voice recognition technology is used in situations where input of operation instructions using a keyboard or mouse is essential. Thus, the user's utterance is converted into an operation instruction by voice recognition technology so that it can be used.
[0004]
By the way, there are the following points in interactive operation combining voice guidance and voice input, and interactive operation combining character display on the screen assumed by normal Internet contents and operation instructions by keyboard or mouse. Is different.
[0005]
For example, the meaning of voice guidance or utterance is unclear unless it is completed as a language. Therefore, it takes several seconds or more to reproduce the voice guidance or to complete the utterance. For this reason, the dialogue processing by voice takes a longer time than the dialogue processing in which a character string is displayed on the screen and an operation instruction is given through a keyboard or a mouse. A user who intends to use the same content over and over through the voice will have to wait for a long time before reaching the information he / she needs, despite performing the same operation every time.
[0006]
Interfaces for operating information devices through voice interactive operations are promising as a means for drivers to obtain information without changing their eyes as the ITS (Intelligent Transport System) spreads. In particular, it is expected that advanced information can be supplied during driving by the DSRC (Dedicated Short Range Communication) technology. Therefore, it is necessary to solve the above troublesomeness in order to spread the voice interaction operation interface.
[0007]
As a technology for solving such problems in the operability of voice dialogue, the order of information provision can be changed according to the user, and the operation until the user reaches the frequently used information can be omitted. Such a method has been proposed (for example, Patent Document 1).
[0008]
[Patent Document 1]
JP 2000-270105 “Voice Response System” (FIGS. 1, 7, and 3-5)
[0009]
[Problems to be solved by the invention]
However, the above method employs means for changing the information providing method for each user on the side of the server supplying the information to the user. Therefore, the server that supplies information to the user must store the information provision order unique to the user. For example, there is a tremendous amount of content on the current Internet. In such a case, it is not realistic to change the information provision order for each large amount of content for each user and to store the changed content.
[0010]
The present invention has been made to solve the above-described problems, and reduces the number of routine interactive operations in an interface for operating contents acquired through a network by voice.
[0011]
[Means for Solving the Problems]
The voice interaction device according to the present invention is:
A voice interaction device comprising content acquisition means, history storage means, content interpretation means, dialogue operation proxy means, and voice recognition means,
The content acquisition means acquires content having interactive operation control information defining a message prompting a user's operation instruction and a different operation for each operation instruction through the network, and the history storage means is acquired by the content acquisition means Store the operation instructions that the user has made so far as the usage history,
When the usage history stored in the history storage unit satisfies a predetermined condition, the content interpretation unit adds the interactive operation control information of the content based on an operation instruction output from the interactive operation proxy unit. While the defined operation is determined and the usage history does not satisfy the predetermined condition, a message of interactive operation control information possessed by the content is presented to the user, and the voice recognition means outputs Determine the action based on the operation instructionAnd calculating the number of times the content has been used from the usage history stored in the history storage means, calculating a predetermined value based on hardware environment information, and if the number is greater than or equal to the predetermined value The operation is determined based on an operation instruction output by the dialogue operation proxy unit, and when the number of times is less than the predetermined value, the message is presented to the user, and the voice recognition unit The operation is determined based on the operation instruction output byAnd
The dialogue operation proxy means outputs an operation instruction of a use history stored in the history storage means,
The speech recognition means recognizes speech uttered by the user in response to the message presented by the content interpretation means, outputs the speech as an operation instruction for the interactive operation control information of the content, and outputs the operation instruction to the message It is stored in the history storage means.
[0012]
In addition, the voice interaction agent device according to the present invention includes a content acquisition unit that performs different operations according to a user's operation instruction and acquires content including a message prompting the user's operation instruction through a network,
Voice recognition means for converting the user's utterance into an operation instruction for the content acquired by the content acquisition means by voice recognition;
Informing means for informing the user of the message of the content acquired by the content acquisition means;
A voice dialogue substitution device for use with a voice dialogue device comprising content interpretation means for determining an action based on an operation instruction output by the voice recognition means;
History storage means for storing the content acquired by the content acquisition means and the user's utterance in association with each other as a use history;
User information storage means for storing user information;
For the content used by the user, when the history storage means stores the user's utterance, the user's utterance is reproduced and output to the voice recognition means.The number of times the content has been used is calculated from the usage history stored in the history storage unit, and a predetermined value is calculated based on the user information stored in the user information storage unit. When the value is greater than or equal to the predetermined value, the user's utterance is reproduced and output to the voice recognition meansUtterance playback means;
Is provided.
[0013]
Embodiments of the present invention will be described below.
FIG. 1 is a block diagram showing the configuration of a voice interactive apparatus according to
[0014]
The
[0015]
Here, the interaction operation control information is a program code for executing an interaction operation process incorporated in the
[0016]
Next, the configuration of the
[0017]
The control
[0018]
The
[0019]
When the user utters an operation instruction in response to the message 5, the voice recognition means 10 collects the utterance with a microphone, recognizes the collected utterance as a voice, and operates in accordance with the interactive operation control information of the
[0020]
The
[0021]
The dialogue
[0022]
Next, details of the
[0023]
In the figure, a line starting with a <form id> tag and ending with a </ form> tag defines a dialogue operation process performed when the
[0024]
Next, the operation of the
[0025]
Next, in step S <b> 102, the control
[0026]
In step S103, the
[0027]
For example, if the predetermined condition is “first time access or not”, the
[0028]
Similarly, if “whether the number of past accesses is equal to or greater than a predetermined number” is a predetermined condition, the
[0029]
When the user accesses the
[0030]
In step S <b> 104, the
[0031]
In step S105, the voice recognition means 10 recognizes a user's utterance and converts it into an operation instruction. That is, when the user utters an operation instruction in response to this message or voice guidance, the voice recognition means 10 recognizes the utterance and converts it into an operation instruction. This voice recognition process may be realized using a general voice recognition dictionary. Further, the content of the <filled> tag (from the 8th line to the 14th line) of the dialogue
[0032]
Next, in step S106, the
[0033]
Note that when the storage capacity of the
[0034]
Finally, in step S107, the
[0035]
On the other hand, when the user speaks other than “No”, the
[0036]
The above is the processing when the predetermined condition is not met. Next, the process (step S103: YES) in the case where a predetermined condition is met will be described. In this case, the process proceeds to step S108. In this case, the dialogue
[0037]
Next, in step S107 again, the
[0038]
As is clear from the above, in the
[0039]
Further, since the use history is not stored on the server side such as the
[0040]
In the first embodiment, the
[0041]
In the first embodiment, since the
[0042]
Furthermore, even in the case of content having a plurality of interactive operation control information (contents in which the interactive operation consists of a plurality of steps), a series of flows (sequences) of user operation instructions for each step is handled as one operation. If it is stored as a group of instructions, the control ID acquisition means can also be omitted.
[0043]
Also, as a result of the determination in step S103, the
[0044]
Furthermore, it is naturally possible to configure a function similar to that of the
[0045]
In the first embodiment, it is determined whether to omit the interactive operation based on the number of times the content is used. In the second embodiment, it is further determined whether to omit the dialogue operation using the hardware environment information.
[0046]
FIG. 5 is a block diagram showing a configuration of the voice interactive apparatus according to the second embodiment. The same reference numerals as those in the voice interactive apparatus according to the first embodiment perform the same operation, and thus the description thereof is omitted. The difference between the configuration of this figure and the configuration of FIG. 1 is that the content interpretation means 9 acquires hardware environment information.
[0047]
Here, the hardware environment information means information indicating the specifications of the devices included in the
(1) Information on whether or not to have a display device or a keyboard device
(2) Whether it is used as an in-vehicle device
(3) Whether it is used as a mobile phone
It is information such as. In addition, any information may be used as long as the factor that affects the recognizability and operability of the content can be processed by a computer or the like.
[0048]
These pieces of information are recorded in a ROM (Read Only Memory) and read out using a BIOS (Basic Input Output System) program. Further, system configuration (system configuration) information may be recorded in a storage device (not shown) in the form of a file and read out.
[0049]
Next, the operation of the
[0050]
Therefore, in the following description, only the details of step S103 will be described. Note that these processes are all processed by the content interpretation means 9 and look at the magnitude relationship between the number of uses and the predetermined value. Here, the predetermined value is referred to as a “threshold value”, and the value of the threshold value is, for example, 3.
[0051]
In step S201 of the flowchart of FIG. 6, the usage count of the
[0052]
Here, taking (1) to (3) described above as an example, the influence of the hardware environment information on the recognizability and operability of the
[0053]
The presence or absence of the display device or keyboard device of (1) affects the operability of the
[0054]
Therefore, in step S203, when hardware environment information indicating that no display device or keyboard device is installed in the
[0055]
The condition (2) regarding whether or not the device is a vehicle-mounted device affects the operability of the
[0056]
Therefore, in step S203, when the hardware environment information indicating that the
[0057]
The condition of whether or not the mobile phone is (3) also affects the operability of the content for the user. Considering the usage environment of a mobile phone, it is often used in a noisy environment as in the case of a vehicle-mounted device, and the speech recognition rate deteriorates. In the case of a mobile phone, a display device is attached, and operation instructions can be given by means of numeric keypad operation.
[0058]
Therefore, in step S203, when the hardware environment information indicating that the
[0059]
In step S204, the number of uses of
[0060]
As is clear from the above, the
[0061]
The
[0062]
In the second embodiment, the usage frequency until the interactive operation is omitted is changed according to the hardware environment information. On the other hand, in the third embodiment, an example in which the usage number is changed based on user-specific attributes will be described.
[0063]
FIG. 7 is a block diagram showing the configuration of the voice interactive apparatus according to the third embodiment. The same reference numerals as those in the voice interactive apparatus according to the first embodiment perform the same operation, and thus the description thereof is omitted. The difference between the configuration of this figure and the configuration of FIG. 1 is that a user information storage means 13 is newly provided.
[0064]
The user information storage means 13 stores user information, and specifically comprises a nonvolatile storage device such as a hard disk or a flash memory. Note that the user
[0065]
Here, the user information refers to information specific to the user who uses the
[0066]
Also in the third embodiment, it is determined whether or not the dialogue operation is omitted by determining the magnitude relation between the content usage frequency and the threshold value. Therefore, for example, if this threshold value is determined based on the age of the user, an optimal voice interaction operation can be provided to the user.
[0067]
Similarly, the time required to get used to the case of the same voice interaction operation differs depending on whether the visual acuity or hearing ability is weak or normal. Therefore, also in such a case, the level of content usage is determined using different threshold values.
[0068]
Furthermore, when the
[0069]
Note that the processing of the
[0070]
As is clear from the above, the
[0071]
In all of the spoken
[0072]
During the period in which the
[0073]
The configuration of the
[0074]
Next, the operation of the
[0075]
First, step S103 will be described. Step S103 consists of steps S301 to S304. These are all processed by the
[0076]
In step S301 of the flowchart of FIG. 8, the last use time of the
[0077]
Next, in step S302, the last use time is subtracted from the current time to obtain an elapsed time from the last use time, and it is checked whether this elapsed time is equal to or less than a predetermined value. If the elapsed time is less than or equal to the predetermined value, the process proceeds to step S303 (step S302: YES). On the other hand, when the elapsed time exceeds the predetermined value, the process goes to step S103 and proceeds to step S104 (NO in step S302). As a result, when a predetermined time or more has elapsed since the last use by the user, the processing after step S104 is performed, and the user's speech is recognized as speech.
[0078]
Next, in step S303, the usage history stored in the
[0079]
In step S106-2, the
[0080]
As is clear from the above, the
[0081]
Embodiment 5 FIG.
In the first to fourth embodiments, the case has been described in which the voice interaction apparatus itself has a function for saving the voice interaction operation. On the other hand, a mode in which a device having a function for saving the voice interaction operation is used in combination with a voice interaction device without such a labor saving function is also conceivable. The spoken dialogue proxy device according to the eighth embodiment is a device having such a function.
[0082]
FIG. 9 is a block diagram showing the configuration of a voice interaction proxy device according to the fifth embodiment and a voice interaction device used in combination with this device. In the figure, the components denoted by the same reference numerals as those in FIG. 1 are the same as those in the first embodiment, and thus the description thereof is omitted. The spoken
[0083]
FIG. 10 is a block diagram showing the detailed configuration of the
[0084]
The voice
[0085]
In the spoken
[0086]
Next, processing of the
[0087]
Subsequently, in step S <b> 402, the
[0088]
Next, in step S403, the
[0089]
In step S404, the utterance reproduction unit 33 reproduces the user's utterance output from the
[0090]
Finally, in step S405, the voice recognition means 10 recognizes the user's utterance and converts it into an operation instruction. Since this process is the same as the process of step S104 in the first embodiment, a description thereof will be omitted.
[0091]
On the other hand, in step S403, when the
[0092]
In this case, the history storage means 32 outputs nothing, and the utterance reproduction means 33 does not output anything accordingly. As a result, the voice recognition means 10 of the
[0093]
As is clear from the above, according to the voice
[0094]
In step S403, when the
[0095]
Alternatively, a control ID representing the dialogue operation control information of the
[0096]
Further, even when the
[0097]
【The invention's effect】
The voice interaction device according to the present invention includes history storage means for storing an operation instruction given by a user during use of content as a use history, and the operation instruction stored as the use history as interactive operation control information of the content. A dialogue operation proxy means for outputting as a regular operation instruction; andThe number of uses exceeds a specified value based on hardware environment information.In this case, it is equipped with content interpretation means that decides the action based on the operation instruction output by the dialogue operation proxy means, so that routine voice interaction operations are automated.Provide an easy-to-use voice interaction interfaceThere is an effect that it becomes possible.
[0098]
In addition, the voice dialogue proxy device according to the present invention is a history storage means for storing the content outputted by the voice dialogue device not having the function of saving the voice dialogue operation and the utterance contents of the user in association with each other,When the number of times the content is used is a predetermined value or more based on hardware environment information,Since the utterance reproduction means for reproducing the user's utterance content stored in the history storage means is provided and the user's utterance content is output to the voice interaction device, it does not have a function for saving the voice interaction operation. Automating routine voice interaction operations for voice interaction devicesProvide an easy-to-use voice interaction interfaceThere is an effect that it becomes possible.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first embodiment of the present invention.
FIG. 2 is a block diagram showing details of the configuration of the first embodiment of the present invention.
FIG. 3 is a program list showing an example of content contents according to the first embodiment of the present invention.
FIG. 4 is a flowchart of processing according to the first embodiment of the present invention.
FIG. 5 is a block diagram showing details of the configuration of the second embodiment of the present invention.
FIG. 6 is a flowchart of processing according to
FIG. 7 is a block diagram showing details of the configuration of the third embodiment of the present invention.
FIG. 8 is a flowchart of processing according to
FIG. 9 is a block diagram showing a configuration of a fifth embodiment of the present invention.
FIG. 10 is a block diagram showing details of the configuration of the fifth embodiment of the present invention.
FIG. 11 is a flowchart of processing according to the fifth embodiment of the present invention.
[Explanation of symbols]
1: content storage unit, 2: content, 3: network,
4: Voice interaction device, 5: Message, 6: User utterance,
7: content acquisition means, 8: control ID acquisition means, 9: content interpretation means,
10: voice recognition means, 11: history storage means, 12: dialogue operation proxy means,
13: User information storage means, 14: Spoken dialogue device, 15: Spoken dialogue substitution device,
31: Notification means, 32: History storage means, 33: Speech reproduction means,
34: User utterance
Claims (13)
前記コンテンツ取得手段は、利用者の操作指示を促すメッセージと操作指示毎に異なる動作とを定義した対話操作制御情報を有するコンテンツをネットワークを通じて取得し、 前記履歴記憶手段は、前記コンテンツ取得手段が取得したコンテンツについて前記利用者がこれまで行った操作指示を使用履歴として記憶し、
前記コンテンツ解釈手段は、前記履歴記憶手段の記憶している使用履歴が所定の条件を満たす場合には、前記対話操作代行手段の出力する操作指示に基づいて、前記コンテンツの有する対話操作制御情報に定義された動作を決定する一方で、前記使用履歴が前記所定の条件を満たさない場合には、前記コンテンツの有する対話操作制御情報のメッセージを前記利用者に提示するとともに、前記音声認識手段が出力する操作指示に基づいて前記動作を決定するものであって、前記履歴記憶手段が記憶する使用履歴から前記コンテンツを使用した回数を算出すると共に、ハードウェア環境情報に基づいて所定値を算出し、前記回数が前記所定値以上の場合に、前記対話操作代行手段の出力する操作指示に基づいて、前記動作を決定する一方で、前記回数が前記所定値未満の場合には、前記メッセージを前記利用者に提示するとともに、前記音声認識手段が出力する操作指示に基づいて前記動作を決定し、
前記対話操作代行手段は、前記履歴記憶手段が記憶している使用履歴の操作指示を出力し、
前記音声認識手段は、前記コンテンツ解釈手段が提示したメッセージに対して前記利用者が行った発話を音声認識し、前記コンテンツの有する対話操作制御情報に対する操作指示として出力するとともに、該操作指示を前記履歴記憶手段に記憶させることを特徴とする音声対話装置。A voice interaction device comprising content acquisition means, history storage means, content interpretation means, dialogue operation proxy means, and voice recognition means,
The content acquisition means acquires content having interactive operation control information defining a message prompting a user's operation instruction and a different operation for each operation instruction through the network, and the history storage means is acquired by the content acquisition means Store the operation instructions that the user has made so far as the usage history,
When the usage history stored in the history storage unit satisfies a predetermined condition, the content interpretation unit adds the interactive operation control information of the content based on an operation instruction output from the interactive operation proxy unit. While the defined operation is determined and the usage history does not satisfy the predetermined condition, a message of interactive operation control information possessed by the content is presented to the user, and the voice recognition means outputs The operation is determined based on an operation instruction to calculate the number of times the content is used from a usage history stored in the history storage unit, and a predetermined value is calculated based on hardware environment information, When the number of times is equal to or greater than the predetermined value, the operation is determined based on an operation instruction output by the interactive operation proxy means, If the number is less than the predetermined value, while presenting the message to the user, the operation determined on the basis of the operation instruction, wherein the voice recognition means outputs,
The dialogue operation proxy means outputs an operation instruction of a use history stored in the history storage means,
The speech recognition means recognizes speech uttered by the user in response to the message presented by the content interpretation means, outputs the speech as an operation instruction for the interactive operation control information of the content, and outputs the operation instruction to the message A spoken dialogue apparatus characterized by being stored in a history storage means.
前記利用者情報記憶手段は、利用者情報を記憶し、
前記コンテンツ取得手段は、利用者の操作指示を促すメッセージと操作指示毎に異なる動作とを定義した対話操作制御情報を有するコンテンツをネットワークを通じて取得し、 前記履歴記憶手段は、前記コンテンツ取得手段が取得したコンテンツについて前記利用者がこれまで行った操作指示を使用履歴として記憶し、
前記コンテンツ解釈手段は、前記履歴記憶手段の記憶している使用履歴が所定の条件を満たす場合には、前記対話操作代行手段の出力する操作指示に基づいて、前記コンテンツの有する対話操作制御情報に定義された動作を決定する一方で、前記使用履歴が前記所定の条件を満たさない場合には、前記コンテンツの有する対話操作制御情報のメッセージを前記利用者に提示するとともに、前記音声認識手段が出力する操作指示に基づいて前記動作を決定するものであって、前記履歴記憶手段が記憶する使用履歴から前記コンテンツを使用した回数を算出すると共に、前記利用者情報記憶手段が記憶する前記利用者情報に基づいて所定値を算出し、前記回数が前記所定値以上の場合に、前記対話操作代行手段の出力する操作指示に基づいて、前記動作を決定する一方で、前記回数が前記所定値未満の場合には、前記メッセージを前記利用者に提示するとともに、前記音声認識手段が出力する操作指示に基づいて前記動作を決定し、
前記対話操作代行手段は、前記履歴記憶手段が記憶している使用履歴の操作指示を出力し、
前記音声認識手段は、前記コンテンツ解釈手段が提示したメッセージに対して前記利用者が行った発話を音声認識し、前記コンテンツの有する対話操作制御情報に対する操作指示として出力するとともに、該操作指示を前記履歴記憶手段に記憶させることを特徴とする音声対話装置。 A voice interaction device comprising content acquisition means, history storage means, content interpretation means, dialogue operation proxy means, voice recognition means, and user information storage means,
The user information storage means stores user information,
The content acquisition means acquires content having interactive operation control information defining a message prompting a user's operation instruction and a different operation for each operation instruction through the network, and the history storage means is acquired by the content acquisition means Store the operation instructions that the user has made so far as the usage history,
When the usage history stored in the history storage unit satisfies a predetermined condition, the content interpretation unit adds the interactive operation control information of the content based on an operation instruction output from the interactive operation proxy unit. While the defined operation is determined and the usage history does not satisfy the predetermined condition, a message of interactive operation control information possessed by the content is presented to the user, and the voice recognition means outputs The user information is determined based on an operation instruction to be performed, the number of times the content is used is calculated from a use history stored in the history storage unit, and the user information stored in the user information storage unit Based on an operation instruction output by the dialogue operation proxy means when the number of times is equal to or greater than the predetermined value. While determining the operation, if the count is less than the predetermined value, while presenting the message to the user, the operation determined on the basis of the operation instruction, wherein the voice recognition means outputs,
The dialogue operation proxy means outputs an operation instruction of a use history stored in the history storage means,
The speech recognition means recognizes speech uttered by the user in response to the message presented by the content interpretation means, outputs the speech as an operation instruction for the interactive operation control information of the content, and outputs the operation instruction to the message A spoken dialogue apparatus characterized by being stored in a history storage means .
前記コンテンツ解釈手段は、前記利用者情報記憶手段の記憶する利用者の年齢に基づいて前記所定値を算出することを特徴とする請求項2に記載した音声対話装置。 The user information storage means stores at least the age of the user as user information,
3. The spoken dialogue apparatus according to claim 2, wherein the content interpretation unit calculates the predetermined value based on a user's age stored in the user information storage unit .
前記コンテンツ取得手段は、利用者の操作指示を促すメッセージと操作指示毎に異なる動作とを定義した対話操作制御情報を有するコンテンツをネットワークを通じて取得し、 前記履歴記憶手段は、前記コンテンツ取得手段が取得したコンテンツについて前記利用者がこれまで行った操作指示と、前記利用者が前記コンテンツを最後に使用した時間とを使用履歴として記憶し、
前記コンテンツ解釈手段は、前記履歴記憶手段の記憶している使用履歴が所定の条件を満たす場合には、前記対話操作代行手段の出力する操作指示に基づいて、前記コンテンツの有する対話操作制御情報に定義された動作を決定する一方で、前記使用履歴が前記所定の条件を満たさない場合には、前記コンテンツの有する対話操作制御情報のメッセージを前記利用者に提示するとともに、前記音声認識手段が出力する操作指示に基づいて前記動作を決定するものであって、前記履歴記憶手段が記憶する使用履歴から前記コンテンツを使用した回数を算出すると共に、前記履歴記憶手段が記憶する前記コンテンツを最後に使用した時間と現在時から所定値を算出し、前記回数が前記所定値以上の場合に、前記対話操作代行手段の出力する操作指示に基づいて、前記動作を決定する一方で、前記回数が前記所定値未満の場合には、前記メッセージを前記利用者に提示するとともに、前記音声認識手段が出力する操作指示に基づいて前記動作を決定し、
前記対話操作代行手段は、前記履歴記憶手段が記憶している使用履歴の操作指示を出力し、
前記音声認識手段は、前記コンテンツ解釈手段が提示したメッセージに対して前記利用者が行った発話を音声認識し、前記コンテンツの有する対話操作制御情報に対する操作指示として出力するとともに、該操作指示を前記履歴記憶手段に記憶させることを特徴とする音声対話装置。 A voice interaction device comprising content acquisition means, history storage means, content interpretation means, dialogue operation proxy means, and voice recognition means,
The content acquisition means acquires content having interactive operation control information defining a message prompting a user's operation instruction and a different operation for each operation instruction through the network, and the history storage means is acquired by the content acquisition means The operation instruction that the user has performed so far on the content and the time when the user last used the content is stored as a usage history,
When the usage history stored in the history storage unit satisfies a predetermined condition, the content interpretation unit adds the interactive operation control information of the content based on an operation instruction output from the interactive operation proxy unit. While the defined operation is determined and the usage history does not satisfy the predetermined condition, a message of interactive operation control information possessed by the content is presented to the user, and the voice recognition means outputs And determining the number of times the content has been used from the usage history stored in the history storage unit, and finally using the content stored in the history storage unit. A predetermined value is calculated from the measured time and the current time, and when the number of times is equal to or greater than the predetermined value, The operation is determined on the basis of the number of times, and when the number of times is less than the predetermined value, the message is presented to the user, and the operation is performed based on an operation instruction output by the voice recognition unit. Decide
The dialogue operation proxy means outputs an operation instruction of a use history stored in the history storage means,
The speech recognition means recognizes speech uttered by the user in response to the message presented by the content interpretation means, outputs the speech as an operation instruction for the interactive operation control information of the content, and outputs the operation instruction to the message A spoken dialogue apparatus characterized by being stored in a history storage means .
前記履歴記憶手段は、前記制御ID取得手段が取得した前記制御IDを、前記利用者が行った操作指示に関連付けて記憶し、
前記対話操作省略化手段は、前記履歴記憶手段が、前記コンテンツの対話操作制御情報についての前記制御IDに関連づけて記憶している前記操作指示を前記コンテンツの対話操作制御情報に則した操作指示として出力することを特徴とする請求項1乃至請求項4のいずれか一に記載した音声対話装置。 A control ID acquisition means for acquiring a control ID for uniquely identifying the interactive operation control information of the content;
The history storage means stores the control ID acquired by the control ID acquisition means in association with an operation instruction made by the user,
The interaction operation abbreviation means is configured such that the operation instruction stored in the history storage means in association with the control ID for the content interaction operation control information is an operation instruction in accordance with the content interaction operation control information. 5. The voice interactive apparatus according to claim 1, wherein the voice interactive apparatus outputs the voice dialog.
前記利用者の発話を音声認識により前記コンテンツ取得手段が取得するコンテンツに対する操作指示に変換し出力する音声認識手段と、 Voice recognition means for converting the user's utterance into an operation instruction for the content acquired by the content acquisition means by voice recognition;
前記コンテンツ取得手段が取得するコンテンツの有する前記メッセージを前記利用者に報知する報知手段と、 Informing means for informing the user of the message of the content acquired by the content acquisition means;
前記音声認識手段が出力する操作指示に基づいて動作を決定するコンテンツ解釈手段とを備えた音声対話装置とともに使用する音声対話代行装置であって、 A voice dialogue substitution device for use with a voice dialogue device comprising content interpretation means for determining an action based on an operation instruction output by the voice recognition means;
前記コンテンツ取得手段が取得したコンテンツと前記利用者の発話とを関連づけて使用履歴として記憶する履歴記憶手段と、 History storage means for storing the content acquired by the content acquisition means and the user's utterance in association with each other as a use history;
前記利用者が使用するコンテンツについて、前記履歴記憶手段が前記利用者の発話を記憶している場合に、前記利用者の発話を再生して前記音声認識手段に出力するものであって、前記履歴記憶手段が記憶する使用履歴から前記コンテンツを使用した回数を算出すると共に、ハードウェア環境情報に基づいて所定値を算出し、前記回数が前記所定値以上の場合に、前記利用者の発話を再生して前記音声認識手段に出力する発話再生手段と、 For the content used by the user, when the history storage means stores the user's utterance, the user's utterance is reproduced and output to the voice recognition means, and the history The number of times the content has been used is calculated from the usage history stored in the storage means, and a predetermined value is calculated based on hardware environment information. When the number is greater than or equal to the predetermined value, the user's utterance is reproduced. Utterance reproduction means for outputting to the voice recognition means,
を備えたことを特徴とする音声対話代行装置。A voice dialogue proxy device characterized by comprising:
前記利用者の発話を音声認識により前記コンテンツ取得手段が取得するコンテンツに対する操作指示に変換し出力する音声認識手段と、 Voice recognition means for converting the user's utterance into an operation instruction for the content acquired by the content acquisition means by voice recognition;
前記コンテンツ取得手段が取得するコンテンツの有する前記メッセージを前記利用者に報知する報知手段と、 Informing means for informing the user of the message of the content acquired by the content acquisition means;
前記音声認識手段が出力する操作指示に基づいて動作を決定するコンテンツ解釈手段とを備えた音声対話装置とともに使用する音声対話代行装置であって、 A voice dialogue substitution device for use with a voice dialogue device comprising content interpretation means for determining an action based on an operation instruction output by the voice recognition means;
前記コンテンツ取得手段が取得したコンテンツと前記利用者の発話とを関連づけて使用履歴として記憶する履歴記憶手段と、 History storage means for storing the content acquired by the content acquisition means and the user's utterance in association with each other as a use history;
利用者情報を記憶する利用者情報記憶手段と、 User information storage means for storing user information;
前記利用者が使用するコンテンツについて、前記履歴記憶手段が前記利用者の発話を記憶している場合に、前記利用者の発話を再生して前記音声認識手段に出力するものであって、前記履歴記憶手段が記憶する使用履歴から前記コンテンツを使用した回数を算出すると共に、前記利用者情報記憶手段が記憶する前記利用者情報に基づいて所定値を算出し、前記回数が前記所定値以上の場合に、前記利用者の発話を再生して前記音声認識手段に出力する発話再生手段と、 For the content used by the user, when the history storage means stores the user's utterance, the user's utterance is reproduced and output to the voice recognition means, and the history When the number of times the content has been used is calculated from the usage history stored in the storage means, and a predetermined value is calculated based on the user information stored in the user information storage means, and the number of times is equal to or greater than the predetermined value Utterance reproduction means for reproducing the user's utterance and outputting it to the voice recognition means;
を備えたことを特徴とする音声対話代行装置。A voice dialogue proxy device characterized by comprising:
前記発話再生手段は、前記利用者情報記憶手段の記憶する利用者の年齢に基づいて前記所定値を算出することを特徴とする請求項8に記載した音声対話代行装置。 The user information storage means stores at least the age of the user as user information,
9. The spoken dialogue proxy device according to claim 8, wherein the utterance reproduction unit calculates the predetermined value based on a user's age stored in the user information storage unit .
前記利用者の発話を音声認識により前記コンテンツ取得手段が取得するコンテンツに対する操作指示に変換し出力する音声認識手段と、
前記コンテンツ取得手段が取得するコンテンツの有する前記メッセージを前記利用者に報知する報知手段と、
前記音声認識手段が出力する操作指示に基づいて動作を決定するコンテンツ解釈手段とを備えた音声対話装置とともに使用する音声対話代行装置であって、
前記コンテンツ取得手段が取得したコンテンツと前記利用者の発話とを関連づけて使用履歴として記憶すると共に、前記使用履歴として、前記利用者が前記コンテンツを最後に使用した時間を記憶する履歴記憶手段と、
前記利用者が使用するコンテンツについて、前記履歴記憶手段が前記利用者の発話を記憶している場合に、前記利用者の発話を再生して前記音声認識手段に出力するものであって、前記履歴記憶手段が記憶する使用履歴から前記コンテンツを使用した回数を算出すると共に、前記履歴記憶手段が記憶する前記コンテンツを最後に使用した時間と現在時から所定値を算出し、前記回数が前記所定値以上の場合に、前記利用者の発話を再生して前記音声認識手段に出力する発話再生手段と、
を備えたことを特徴とする音声対話代行装置。 Content acquisition means for performing different operations according to user operation instructions and acquiring content including a message prompting the user operation instructions through a network;
Voice recognition means for converting the user's utterance into an operation instruction for the content acquired by the content acquisition means by voice recognition, and outputting the instruction.
Informing means for informing the user of the message of the content acquired by the content acquisition means;
A voice dialogue substitution device for use with a voice dialogue device comprising content interpretation means for determining an action based on an operation instruction output by the voice recognition means;
A history storage unit that stores the content acquired by the content acquisition unit and the user's utterance in association with each other as a usage history, and stores the time when the user last used the content as the usage history;
For the content used by the user, when the history storage means stores the user's utterance, the user's utterance is reproduced and output to the voice recognition means, and the history The number of times the content has been used is calculated from the usage history stored in the storage means, and a predetermined value is calculated from the last time the content stored in the history storage means is used and the current time, and the number of times is the predetermined value. In the above case, utterance reproduction means for reproducing the user's utterance and outputting it to the voice recognition means;
A voice dialogue proxy device characterized by comprising:
前記コンテンツ取得手順は、利用者の操作指示を促すメッセージと操作指示毎に異なる動作とを定義した対話操作制御情報を有するコンテンツをネットワークを通じて取得し、 前記履歴記憶手順は、前記コンテンツ取得手順により取得されたコンテンツについて前記利用者がこれまで行った操作指示を使用履歴として記憶し、
前記コンテンツ解釈手順は、前記履歴記憶手順により記憶されている使用履歴が所定の条件を満たす場合には、前記対話操作代行手順により出力される操作指示に基づいて、前記コンテンツの有する対話操作制御情報に定義された動作を決定する一方で、前記使用履歴が前記所定の条件を満たさない場合には、前記コンテンツの有する対話操作制御情報のメッセージを前記利用者に提示するとともに、前記音声認識手順が出力する操作指示に基づいて前記動作を決定するものであって、前記履歴記憶手順により記憶される使用履歴から前記コンテンツを使用した回数を算出すると共に、ハードウェア環境情報に基づいて所定値を算出し、前記回数が前記所定値以上の場合に、前記対話操作代行手順により出力される操作指示に基づいて、前記動作を決定する一方で、前記回数が前記所定値未満の場合には、前記メッセージを前記利用者に提示するとともに、前記音声認識手順により出力される操作指示に基づいて前記動作を決定し、
前記対話操作代行手順は、前記履歴記憶手順により記憶されている使用履歴の操作指示を出力し、
前記音声認識手順は、前記コンテンツ解釈手順により提示されたメッセージに対して前記利用者が行った発話を音声認識し、前記コンテンツの有する対話操作制御情報に対する操作指示として出力するとともに、該操作指示を前記履歴記憶手順により記憶させることを特徴とする音声対話プログラム。A voice interaction program that causes a computer to execute a content acquisition procedure, a history storage procedure, a content interpretation procedure, a dialogue operation proxy procedure, and a voice recognition procedure,
The content acquisition procedure acquires a content having interactive operation control information defining a message for prompting a user's operation instruction and a different operation for each operation instruction through the network, and the history storage procedure is acquired by the content acquisition procedure. Storing the operation instructions that the user has made so far as the usage history,
In the content interpretation procedure, when the usage history stored in the history storage procedure satisfies a predetermined condition, the interactive operation control information included in the content is based on an operation instruction output by the interactive operation proxy procedure. If the usage history does not satisfy the predetermined condition, a message of interactive operation control information possessed by the content is presented to the user, and the voice recognition procedure includes The operation is determined based on an operation instruction to be output, and the number of times the content is used is calculated from the usage history stored in the history storage procedure , and a predetermined value is calculated based on hardware environment information and, when the number of the predetermined value or more, based on the outputted operation instruction by the interaction proxy procedure, the While determining the work, if the count is less than the predetermined value, while presenting the message to the user, the operation determined on the basis of the operation instruction output by the speech recognition procedure,
The interactive operation proxy procedure outputs a usage history operation instruction stored by the history storage procedure,
The speech recognition procedure recognizes speech uttered by the user with respect to the message presented by the content interpretation procedure, outputs the speech as an operation instruction for the interactive operation control information of the content, and outputs the operation instruction. A spoken dialogue program which is stored by the history storing procedure.
前記利用者の発話を音声認識により前記コンテンツ取得手段が取得するコンテンツに対する操作指示に変換し出力する音声認識手段と、 Voice recognition means for converting the user's utterance into an operation instruction for the content acquired by the content acquisition means by voice recognition;
前記コンテンツ取得手段が取得するコンテンツの有する前記メッセージを前記利用者に報知する報知手段と、 Informing means for informing the user of the message of the content acquired by the content acquisition means;
前記音声認識手段が出力する操作指示に基づいて動作を決定するコンテンツ解釈手段とを備えた音声対話装置とともに使用する音声対話代行プログラムであって、 A voice dialogue substitution program for use with a voice dialogue device comprising a content interpretation unit for determining an operation based on an operation instruction output by the voice recognition unit,
前記コンテンツ取得手段が取得したコンテンツと前記利用者の発話とを関連づけて使用履歴として記憶する履歴記憶手順と、 A history storage procedure for storing the content acquired by the content acquisition means and the user's utterance in association with each other as a usage history;
前記利用者が使用するコンテンツについて、前記履歴記憶手順により前記利用者の発話が記憶されている場合に、前記利用者の発話を再生して前記音声認識手段に出力するものであって、前記履歴記憶手順により記憶される使用履歴から前記コンテンツを使用した回数を算出すると共に、ハードウェア環境情報に基づいて所定値を算出し、前記回数が前記所定値以上の場合に、前記利用者の発話を再生して前記音声認識手段に出力する発話再生手順と、 For the content used by the user, when the user's utterance is stored by the history storing procedure, the user's utterance is reproduced and output to the voice recognition means, and the history The number of times the content has been used is calculated from the usage history stored in the storage procedure, and a predetermined value is calculated based on hardware environment information. When the number is equal to or greater than the predetermined value, the user's utterance is An utterance playback procedure to play back and output to the voice recognition means;
をコンピュータに実行させることを特徴とする音声対話代行プログラム。A speech dialogue substitution program characterized by causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003093194A JP4292846B2 (en) | 2003-03-31 | 2003-03-31 | Spoken dialogue device, spoken dialogue substitution device, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003093194A JP4292846B2 (en) | 2003-03-31 | 2003-03-31 | Spoken dialogue device, spoken dialogue substitution device, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004301980A JP2004301980A (en) | 2004-10-28 |
JP4292846B2 true JP4292846B2 (en) | 2009-07-08 |
Family
ID=33406048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003093194A Expired - Fee Related JP4292846B2 (en) | 2003-03-31 | 2003-03-31 | Spoken dialogue device, spoken dialogue substitution device, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4292846B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018022033A (en) * | 2016-08-03 | 2018-02-08 | 株式会社デンソーテン | Voice recognition device and method thereof |
US10652170B2 (en) | 2017-06-09 | 2020-05-12 | Google Llc | Modification of audio-based computer program output |
WO2018226247A1 (en) * | 2017-06-09 | 2018-12-13 | Google Llc | Modification of audio-based computer program output |
KR102695306B1 (en) * | 2018-06-27 | 2024-08-16 | 현대자동차주식회사 | Dialogue system, Vehicle and method for controlling the vehicle |
WO2021009962A1 (en) * | 2019-07-12 | 2021-01-21 | 株式会社Nttドコモ | Interaction device |
JP2021131472A (en) * | 2020-02-20 | 2021-09-09 | ソニーグループ株式会社 | Information processor, information processing method and program |
-
2003
- 2003-03-31 JP JP2003093194A patent/JP4292846B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004301980A (en) | 2004-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11854570B2 (en) | Electronic device providing response to voice input, and method and computer readable medium thereof | |
US8705705B2 (en) | Voice rendering of E-mail with tags for improved user experience | |
KR102108500B1 (en) | Supporting Method And System For communication Service, and Electronic Device supporting the same | |
US6775651B1 (en) | Method of transcribing text from computer voice mail | |
KR101109293B1 (en) | Sequential multimodal input | |
JP5967569B2 (en) | Speech processing system | |
CN100580769C (en) | Method and apparatus for selective speech recognition | |
EP2485212A1 (en) | Speech translation system, first terminal device, speech recognition server device, translation server device, and speech synthesis server device | |
US20070198272A1 (en) | Voice response system | |
US20130117021A1 (en) | Message and vehicle interface integration system and method | |
KR101820291B1 (en) | Apparatus and method for voice recognition device in vehicle | |
CN107710322A (en) | Information providing system, information providing method and computer readable recording medium storing program for performing | |
CN102148888A (en) | Mobile phone integration into driver information systems | |
JP2021140134A (en) | Method, device, electronic apparatus, computer readable storage medium, and computer program for recognizing speech | |
CN108062212A (en) | A kind of voice operating method and device based on scene | |
CN112017642B (en) | Speech recognition method, apparatus, device and computer readable storage medium | |
JP2013088477A (en) | Speech recognition system | |
JPH07222248A (en) | System for utilizing speech information for portable information terminal | |
JP4292846B2 (en) | Spoken dialogue device, spoken dialogue substitution device, and program thereof | |
CN117809641A (en) | Terminal equipment and voice interaction method based on query text rewriting | |
KR101968669B1 (en) | Method for providing call service and computer program for executing the method | |
JP2005037615A (en) | Client device, voice recognition server, distributed voice recognition system, voice recognition program, and computer-readable recording medium | |
US11810573B2 (en) | Assisted speech recognition | |
CN113271491B (en) | Electronic device and play control method | |
CN113079086A (en) | Message transmitting method, message transmitting device, electronic device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090317 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090330 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4292846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140417 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |