JP2003022092A - 対話システム - Google Patents
対話システムInfo
- Publication number
- JP2003022092A JP2003022092A JP2001208355A JP2001208355A JP2003022092A JP 2003022092 A JP2003022092 A JP 2003022092A JP 2001208355 A JP2001208355 A JP 2001208355A JP 2001208355 A JP2001208355 A JP 2001208355A JP 2003022092 A JP2003022092 A JP 2003022092A
- Authority
- JP
- Japan
- Prior art keywords
- character
- dialogue
- recognition
- display
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(57)【要約】
【課題】 一見してすぐにユーザがシステムの接続状態
あるいは内部状況を理解することができるキャラクタ表
示をディスプレイ上にて行う対話システムを提供する。 【解決手段】 音声認識処理部11と、対話の流れを指
示する対話エンジン部13と、応答をユーザに返す音声
合成部と、その対話に応じたキャラクタをディスプレイ
に出力するキャラクタ表示制御部17と、対話システム
の置かれている現在の状況を、ユーザに対して直感的に
イメージさせるキャラクタを格納しディスプレイに表示
させるイメージ提供手段20と、を備えて構成する。
あるいは内部状況を理解することができるキャラクタ表
示をディスプレイ上にて行う対話システムを提供する。 【解決手段】 音声認識処理部11と、対話の流れを指
示する対話エンジン部13と、応答をユーザに返す音声
合成部と、その対話に応じたキャラクタをディスプレイ
に出力するキャラクタ表示制御部17と、対話システム
の置かれている現在の状況を、ユーザに対して直感的に
イメージさせるキャラクタを格納しディスプレイに表示
させるイメージ提供手段20と、を備えて構成する。
Description
【0001】
【発明の属する技術分野】本発明は対話システム、例え
ば車載用のナビゲーションユニットやオーディオ(C
D)ユニット等とユーザとの間のヒューマン・マシン・
インタフェース(HMI)として機能し、音声による操
作を可能にする対話システムに関する。
ば車載用のナビゲーションユニットやオーディオ(C
D)ユニット等とユーザとの間のヒューマン・マシン・
インタフェース(HMI)として機能し、音声による操
作を可能にする対話システムに関する。
【0002】
【従来の技術】対話システムは、通常、ユーザからの発
声を取り込むマイクと、その発声内容を分析して次の発
声をユーザに促すための処理を行う対話処理部と、ユー
ザへの発声を行うスピーカと、ユーザへのガイダンスを
可視表示するディスプレイとを含んで構成される。
声を取り込むマイクと、その発声内容を分析して次の発
声をユーザに促すための処理を行う対話処理部と、ユー
ザへの発声を行うスピーカと、ユーザへのガイダンスを
可視表示するディスプレイとを含んで構成される。
【0003】これらの中で本発明に特に関係するのはデ
ィスプレイである。従前はこのディスプレイに表示され
るのは、上記ガイダンスに必要な情報を可視化したもの
だけであった。
ィスプレイである。従前はこのディスプレイに表示され
るのは、上記ガイダンスに必要な情報を可視化したもの
だけであった。
【0004】近年、HMIのさらなる高機能化という観
点から、そのディスプレイ内の一部にユーザによる操作
を一層容易にするため補助ガイダンスを表示することが
提案され、実用にも供され始めている。この場合、その
補助ガイダンスはキャラクタという形でディスプレイの
一部に表示される。その一例としては、特開2000−
193463号に開示されたキャラクタがある。
点から、そのディスプレイ内の一部にユーザによる操作
を一層容易にするため補助ガイダンスを表示することが
提案され、実用にも供され始めている。この場合、その
補助ガイダンスはキャラクタという形でディスプレイの
一部に表示される。その一例としては、特開2000−
193463号に開示されたキャラクタがある。
【0005】
【発明が解決しようとする課題】公知のキャラクタの一
例として上記の特開2000−193463号がある
が、例えば車載用の対話システムとしては、一層きめ細
かい補助ガイダンスが求められる。車を運転するユーザ
にとってはほぼリアルタイムに対話システムのあらゆる
状況を確認できることが望まれるからである。
例として上記の特開2000−193463号がある
が、例えば車載用の対話システムとしては、一層きめ細
かい補助ガイダンスが求められる。車を運転するユーザ
にとってはほぼリアルタイムに対話システムのあらゆる
状況を確認できることが望まれるからである。
【0006】例えば、現状ではユーザは、今対話システ
ムが処理中の認識モード等、対話システムの内部状況を
理解できない。
ムが処理中の認識モード等、対話システムの内部状況を
理解できない。
【0007】また対話システムと今どのユニット(上記
のナビゲーションユニットやオーディオユニット等)と
が接続状態にあるかをユーザが確認したいと思ったとき
には、メニューをディスプレイ上に表示させる必要があ
るが、この場合、そのメニューがどの位置に入っている
かユーザは覚えていなければならない。また覚えていな
ければその確認はできない。
のナビゲーションユニットやオーディオユニット等)と
が接続状態にあるかをユーザが確認したいと思ったとき
には、メニューをディスプレイ上に表示させる必要があ
るが、この場合、そのメニューがどの位置に入っている
かユーザは覚えていなければならない。また覚えていな
ければその確認はできない。
【0008】結局、現状の対話システムにおける補助ガ
イダンスとしてのキャラクタは、HMIの向上という点
からしてさらなる工夫を要する、という問題がある。
イダンスとしてのキャラクタは、HMIの向上という点
からしてさらなる工夫を要する、という問題がある。
【0009】したがって本発明は、上記問題点に鑑み、
HMIの一層の向上を図ることができるキャラクタを表
示することのできる対話システムを提供することを目的
とするものである。
HMIの一層の向上を図ることができるキャラクタを表
示することのできる対話システムを提供することを目的
とするものである。
【0010】
【課題を解決するための手段】図1は本発明に係る対話
システムの基本構成を示す図である。
システムの基本構成を示す図である。
【0011】本図に示すように、本発明に係る対話シス
テムは基本的には、ユーザが発声した音声を認識する音
声認識処理部11と、その認識結果に適合する対話の流
れを指示する対話エンジン部13と、その対話に応じた
応答を音声にてユーザに返す音声合成部16と、その対
話に応じたキャラクタをディスプレイ18に出力するキ
ャラクタ表示制御部17と、を少なくとも有する対話シ
ステムである。
テムは基本的には、ユーザが発声した音声を認識する音
声認識処理部11と、その認識結果に適合する対話の流
れを指示する対話エンジン部13と、その対話に応じた
応答を音声にてユーザに返す音声合成部16と、その対
話に応じたキャラクタをディスプレイ18に出力するキ
ャラクタ表示制御部17と、を少なくとも有する対話シ
ステムである。
【0012】より詳細には、ユーザが発声した音声はマ
イクMCに入力され、上記音声認識処理部11にてまず
そのアナログ入力がA/D変換される。このディジタル
入力をもとに、認識辞書12を参照しながら、入力され
た音声の意味を解析する。
イクMCに入力され、上記音声認識処理部11にてまず
そのアナログ入力がA/D変換される。このディジタル
入力をもとに、認識辞書12を参照しながら、入力され
た音声の意味を解析する。
【0013】上記対話エンジン部13は、上記の音声の
解析結果に応じて一連の対話を進める。この一連の対話
は全て対話データベース(DB)15に収容されてお
り、アプリケーション14に応じた所定の対話を、該D
B15より読み出して、一方では、上記音声合成部16
よりスピーカSPを通して当該対話音声をユーザに返
す。
解析結果に応じて一連の対話を進める。この一連の対話
は全て対話データベース(DB)15に収容されてお
り、アプリケーション14に応じた所定の対話を、該D
B15より読み出して、一方では、上記音声合成部16
よりスピーカSPを通して当該対話音声をユーザに返
す。
【0014】また他方では、上記キャラクタ表示制御部
17を介し、当該キャラクタをディスプレイ18に表示
する。なお本図ではそのキャラクタ表示制御部17を、
一般的なGUI(Graphical User Interface)制御部と
して示している。
17を介し、当該キャラクタをディスプレイ18に表示
する。なお本図ではそのキャラクタ表示制御部17を、
一般的なGUI(Graphical User Interface)制御部と
して示している。
【0015】このような対話システム10において本発
明は、図示するイメージ提供手段20を備えることを特
徴とするものである。該イメージ提供手段20は、対話
システム10の置かれている現在の状況を、その状況の
種別に応じてその状況毎にユーザに対して直感的にイメ
ージさせる複数種のキャラクタを格納しディスプレイ1
8の一部に表示させる手段である。
明は、図示するイメージ提供手段20を備えることを特
徴とするものである。該イメージ提供手段20は、対話
システム10の置かれている現在の状況を、その状況の
種別に応じてその状況毎にユーザに対して直感的にイメ
ージさせる複数種のキャラクタを格納しディスプレイ1
8の一部に表示させる手段である。
【0016】特にここに言う「直感的にイメージさせ
る」とは、キャラクタとしての人物の“仕草”、“格
好”、“身なり”、“季節感”、“朝、昼、晩、夜等の
時間帯感”、その他同様のものを意味する。
る」とは、キャラクタとしての人物の“仕草”、“格
好”、“身なり”、“季節感”、“朝、昼、晩、夜等の
時間帯感”、その他同様のものを意味する。
【0017】これによりユーザはほぼリアルタイムに、
対話システムの今置かれている状況を確認することがで
きる。
対話システムの今置かれている状況を確認することがで
きる。
【0018】なお上記のイメージ提供手段20は、本図
ではその存在を明確にするために独立した1つの構成要
素として表しているが、例えば対話エンジン部13の中
に組み込まれていてもよいし、あるいは、対話システム
10の対話DB15や対話エンジン部13の中に組み込
まれていてもよい。
ではその存在を明確にするために独立した1つの構成要
素として表しているが、例えば対話エンジン部13の中
に組み込まれていてもよいし、あるいは、対話システム
10の対話DB15や対話エンジン部13の中に組み込
まれていてもよい。
【0019】
【発明の実施の形態】図2は本発明に基づくキャラクタ
の第1の態様を示す図である。
の第1の態様を示す図である。
【0020】この第1の態様においては、対話システム
10の置かれている現在の状況が、この対話システム1
0が連係して動作すべき複数種のユニットのいずれかと
接続状態にあるとき、イメージ提供手段20は、当該ユ
ニットを直感的にイメージさせるキャラクタをディスプ
レイの一部に表示させることを特徴とするものである。
10の置かれている現在の状況が、この対話システム1
0が連係して動作すべき複数種のユニットのいずれかと
接続状態にあるとき、イメージ提供手段20は、当該ユ
ニットを直感的にイメージさせるキャラクタをディスプ
レイの一部に表示させることを特徴とするものである。
【0021】接続状態とは、対話システム10に、例え
ばナビゲーションユニットが連係したり、あるいはGP
SユニットやVICSユニットが連係したりする状態の
ことを意味する。またオーディオ関係ならば、CD(あ
るいはMD)チェンジャー等のオーディオユニットが対
話システム10に連係している状態をいう。
ばナビゲーションユニットが連係したり、あるいはGP
SユニットやVICSユニットが連係したりする状態の
ことを意味する。またオーディオ関係ならば、CD(あ
るいはMD)チェンジャー等のオーディオユニットが対
話システム10に連係している状態をいう。
【0022】図2においては、上記のCDチェンジャー
CD−CHとGPS(アンテナのマークで示す)とVI
CSとが仮に同時に対話システム10に連係した場合の
接続状態をキャラクタとして表示しているディスプレイ
18の様子を示している。
CD−CHとGPS(アンテナのマークで示す)とVI
CSとが仮に同時に対話システム10に連係した場合の
接続状態をキャラクタとして表示しているディスプレイ
18の様子を示している。
【0023】ここで仮にGPSが対話システム10に対
し非接続状態となったとすると、このようなときには、
キャラクタ“GPS”をディスプレイ18から消してし
まう。あるいは当該アンテナマークの上に重ねて×印を
表示してもよい。このことは、他のCD−CHやVIC
Sについても同じである。
し非接続状態となったとすると、このようなときには、
キャラクタ“GPS”をディスプレイ18から消してし
まう。あるいは当該アンテナマークの上に重ねて×印を
表示してもよい。このことは、他のCD−CHやVIC
Sについても同じである。
【0024】図3は第1の態様のもとでの動作を示すフ
ローチャートである。
ローチャートである。
【0025】ステップS11:イメージ提供手段20
は、上述したユニット(GPS,CD−CH,VICS
等)が対話システム10に新しく接続されたか否か判断
する。なおこの判断のもとになる入力情報を該手段20
がどのようにして得るかは問わないが、例えば既述のM
PUから与えられるようにすることが考えられる。
は、上述したユニット(GPS,CD−CH,VICS
等)が対話システム10に新しく接続されたか否か判断
する。なおこの判断のもとになる入力情報を該手段20
がどのようにして得るかは問わないが、例えば既述のM
PUから与えられるようにすることが考えられる。
【0026】ステップS12:上記の判断がYesであ
れば、その新しく接続されたユニット例えばVICSの
シンボルマークをキャラクタとして表示する。
れば、その新しく接続されたユニット例えばVICSの
シンボルマークをキャラクタとして表示する。
【0027】第1の態様は、対話システム10に対する
各種ユニットの接続状態を即座に知らせるという便宜を
ユーザに与えることのできるキャラクタであるが、この
キャラクタの役割としては他にも種々ある。これを第2
の態様として以下に説明する。
各種ユニットの接続状態を即座に知らせるという便宜を
ユーザに与えることのできるキャラクタであるが、この
キャラクタの役割としては他にも種々ある。これを第2
の態様として以下に説明する。
【0028】対話システム10が連係して動作すべき1
つのユニットが特定されたとき、音声認識処理部11が
そのユニットの操作に限定した音声の認識対象範囲に絞
って音声認識処理を行う場合、イメージ提供手段20
は、そのユニットを直感的にイメージさせるキャラクタ
をディスプレイ18の一部に表示させる。これが本発明
の第2の態様である。
つのユニットが特定されたとき、音声認識処理部11が
そのユニットの操作に限定した音声の認識対象範囲に絞
って音声認識処理を行う場合、イメージ提供手段20
は、そのユニットを直感的にイメージさせるキャラクタ
をディスプレイ18の一部に表示させる。これが本発明
の第2の態様である。
【0029】ユーザがどのユニット(ナビゲーション、
GPS,CD−CH,VICS等)についてもその操作
に関する発声をすれば、対話システム10がその発声に
即座に応えることができる、という訳ではない。このた
め、通常、ユーザが各種ユニットのうち例えばナビゲー
ションユニットを使用する場合には、まず初めに“ナビ
ゲーション”と発声する。これにより音声認識処理部1
1は、そのナビゲーションユニットの操作に限定した音
声の認識対象範囲に絞ってから、本来の音声認識処理を
開始するようにしている。このようにすれば音声の認識
率は飛躍的に高まる。
GPS,CD−CH,VICS等)についてもその操作
に関する発声をすれば、対話システム10がその発声に
即座に応えることができる、という訳ではない。このた
め、通常、ユーザが各種ユニットのうち例えばナビゲー
ションユニットを使用する場合には、まず初めに“ナビ
ゲーション”と発声する。これにより音声認識処理部1
1は、そのナビゲーションユニットの操作に限定した音
声の認識対象範囲に絞ってから、本来の音声認識処理を
開始するようにしている。このようにすれば音声の認識
率は飛躍的に高まる。
【0030】図4は本発明に基づくキャラクタの第2の
態様の一例を示す図である。
態様の一例を示す図である。
【0031】音声の認識対象範囲を絞るモードとして
は、上述したナビゲーションの操作に限定するナビモー
ドや、VICSの操作に限定するVICSモード等いろ
いろあるが、図4の例は、CDの操作に限定するCDモ
ードについて示している。つまりキャラクタの顔がCD
のように変化する。他にMDモードならばキャラクタの
顔を例えば正方形に変化させればよいし、ナビゲーショ
ンモードならばキャラクタの顔を車のイメージに変化さ
せればよい。
は、上述したナビゲーションの操作に限定するナビモー
ドや、VICSの操作に限定するVICSモード等いろ
いろあるが、図4の例は、CDの操作に限定するCDモ
ードについて示している。つまりキャラクタの顔がCD
のように変化する。他にMDモードならばキャラクタの
顔を例えば正方形に変化させればよいし、ナビゲーショ
ンモードならばキャラクタの顔を車のイメージに変化さ
せればよい。
【0032】この第2の態様は例えば次のような場合に
役立つ。ユーザが車で移動中にナビゲーションユニット
を使用しているものとする。ところが何らかの要因でナ
ビゲーションの操作を急に中止し、ナビゲーションとは
全く関係のない動作例えばかかってきた自動車電話に対
する応答をしなければならない、という事態が発生する
ことがある。
役立つ。ユーザが車で移動中にナビゲーションユニット
を使用しているものとする。ところが何らかの要因でナ
ビゲーションの操作を急に中止し、ナビゲーションとは
全く関係のない動作例えばかかってきた自動車電話に対
する応答をしなければならない、という事態が発生する
ことがある。
【0033】このような事態が発生し、所要の対応を済
ませると、そのあとユーザは元のモードに戻って対話シ
ステム10と元の対話を再開しようとする。ところが、
その所要の対応をしていたために今まで何のモードで対
話をしていたか忘れてしまう、ということがしばしば起
こる。
ませると、そのあとユーザは元のモードに戻って対話シ
ステム10と元の対話を再開しようとする。ところが、
その所要の対応をしていたために今まで何のモードで対
話をしていたか忘れてしまう、ということがしばしば起
こる。
【0034】このような場合、上記の例では、ディスプ
レイ18には車のシンボルマークがキャラクタとして表
示されたままであるから、ユーザはこのキャラクタを一
見するだけで元のモードで即座に誤りなく発声すること
ができる。
レイ18には車のシンボルマークがキャラクタとして表
示されたままであるから、ユーザはこのキャラクタを一
見するだけで元のモードで即座に誤りなく発声すること
ができる。
【0035】図5は第2の態様のもとでの動作を示すフ
ローチャートである。
ローチャートである。
【0036】ステップS21:上記の認識モードがCD
モードあるいはナビモード等に変更になったか否か、イ
メージ提供手段20が判断する。
モードあるいはナビモード等に変更になったか否か、イ
メージ提供手段20が判断する。
【0037】ステップS22:その判断結果に応じてキ
ャラクタの顔を変更する。CDモードへの変更ならば前
述の図4のようになる。
ャラクタの顔を変更する。CDモードへの変更ならば前
述の図4のようになる。
【0038】このような変更の方法として、次の
(i)、(ii)および(iii)が考えられる。
(i)、(ii)および(iii)が考えられる。
【0039】(i)認識モードに応じて、キャラクタを
変更するためのテーブルを予め例えばイメージ提供手段
20内に用意しておき、このテーブルを参照して上記の
変更を行う。
変更するためのテーブルを予め例えばイメージ提供手段
20内に用意しておき、このテーブルを参照して上記の
変更を行う。
【0040】(ii)プログラムに直接、当該モードを表
すコードを埋め込んでおく。認識モードが変更になる都
度そのコードを読み出して、上記の変更を行う。
すコードを埋め込んでおく。認識モードが変更になる都
度そのコードを読み出して、上記の変更を行う。
【0041】(iii)音声認識処理部11による認識結
果データに対して、キャラクタ変更情報を付加してお
く。
果データに対して、キャラクタ変更情報を付加してお
く。
【0042】前述の図4を参照して、限定した音声の認
識対象範囲に絞った認識モードの種別をシンボルマーク
で表すことについて述べたが、このシンボルマークをよ
り一層効果的に修飾するキャラクタについて以下にその
例を述べる。
識対象範囲に絞った認識モードの種別をシンボルマーク
で表すことについて述べたが、このシンボルマークをよ
り一層効果的に修飾するキャラクタについて以下にその
例を述べる。
【0043】イメージ提供手段20は、認識モードの種
別をキャラクタにより表すため、(1)キャラクタをな
す顔の表情によって表現し、(2)キャラクタをなす顔
の色によって表現し、(3)キャラクタをなす背景の色
によって表現し、(4)キャラクタをなす背景の画風に
よって表現し、(5)キャラクタをなす服装のスタイル
によって表現し、(6)キャラクタをなす服装の色によ
って表現し、(7)キャラクタをなす人物の上半身の表
情によって表現すること、のいずれか1つ、または、そ
れらの少なくとも2つの組み合わせをもって直感的にイ
メージさせるキャラクタをディスプレイ18の一部に表
示させるようにする。その例のいくつかを図6に示す。
別をキャラクタにより表すため、(1)キャラクタをな
す顔の表情によって表現し、(2)キャラクタをなす顔
の色によって表現し、(3)キャラクタをなす背景の色
によって表現し、(4)キャラクタをなす背景の画風に
よって表現し、(5)キャラクタをなす服装のスタイル
によって表現し、(6)キャラクタをなす服装の色によ
って表現し、(7)キャラクタをなす人物の上半身の表
情によって表現すること、のいずれか1つ、または、そ
れらの少なくとも2つの組み合わせをもって直感的にイ
メージさせるキャラクタをディスプレイ18の一部に表
示させるようにする。その例のいくつかを図6に示す。
【0044】図6はキャラクタの各種形態の例を表す図
である。
である。
【0045】図6の(a)は、認識モードに応じてキャ
ラクタの顔の色を変化させる形態である。例えば、ナビ
ゲーションモードなら青色、CDモードなら黄色であ
る。
ラクタの顔の色を変化させる形態である。例えば、ナビ
ゲーションモードなら青色、CDモードなら黄色であ
る。
【0046】図6の(b)は、認識モードに応じてキャ
ラクタの背景色を変化させる形態である。例えばナビゲ
ーションモードなら青色の背景、CDモードなら黄色の
背景である。
ラクタの背景色を変化させる形態である。例えばナビゲ
ーションモードなら青色の背景、CDモードなら黄色の
背景である。
【0047】図6の(c)は、認識モードに応じてキャ
ラクタの背景の画風を変化させる形態である。例えばG
PSモードなら山の絵を背景として表示する。
ラクタの背景の画風を変化させる形態である。例えばG
PSモードなら山の絵を背景として表示する。
【0048】図6の(d)は、認識モードに応じてキャ
ラクタの服装を変化させる形態である。例えばVICS
モードならドライブ中のカジュアルな服装で人物を表示
する。
ラクタの服装を変化させる形態である。例えばVICS
モードならドライブ中のカジュアルな服装で人物を表示
する。
【0049】図6の(e)は、認識モードに応じてキャ
ラクタの服装の色を変化させる形態である。例えばCD
モードなら落ちついた色のフォーマルウェアで人物を表
示する。
ラクタの服装の色を変化させる形態である。例えばCD
モードなら落ちついた色のフォーマルウェアで人物を表
示する。
【0050】上述した第2の態様をさらに発展させた第
1例が第3の態様である。
1例が第3の態様である。
【0051】この第3の態様は、認識モードが一連の認
識工程によって実行されるとき、対話システム10が今
いずれの認識工程にあるかを、各認識工程を直感的にイ
メージさせるキャラクタの動作によってディスプレイ1
8の一部に表示させることを特徴とするものである。
識工程によって実行されるとき、対話システム10が今
いずれの認識工程にあるかを、各認識工程を直感的にイ
メージさせるキャラクタの動作によってディスプレイ1
8の一部に表示させることを特徴とするものである。
【0052】図7は第3の態様でのキャラクタの形態の
例を表す図である。
例を表す図である。
【0053】対話システム10の上記の認識工程がマイ
クMCからの音声取込み中であれば、図7(a)のごと
く、耳を大きくして聞き取り中の雰囲気を表現する。
クMCからの音声取込み中であれば、図7(a)のごと
く、耳を大きくして聞き取り中の雰囲気を表現する。
【0054】またその認識工程がデータベース検索中な
らば、図7(b)のごとく、虫めがねでデータを探す雰
囲気を表現する。
らば、図7(b)のごとく、虫めがねでデータを探す雰
囲気を表現する。
【0055】さらにまた、音声認識処理中ならば、図示
を省略するが、“ロダンの考える人”を模した表現とす
ることもできる。
を省略するが、“ロダンの考える人”を模した表現とす
ることもできる。
【0056】図8は第3の態様のもとでの動作を示すフ
ローチャートである。
ローチャートである。
【0057】ステップS31:システム状態に関するイ
ベント例えば上記の“音声取込み中”が発生したか否か
判断する。
ベント例えば上記の“音声取込み中”が発生したか否か
判断する。
【0058】ステップS32:その判断結果に応じたシ
ステム状態(この例では音声取込み中)を表現した、上
記図7(a)のキャラクタをディスプレイ18に表示す
る。
ステム状態(この例では音声取込み中)を表現した、上
記図7(a)のキャラクタをディスプレイ18に表示す
る。
【0059】具体的には、上記イベントが発生したら、
例えばイメージ提供手段20内のキャラクタ表示テーブ
ルを参照して、対応するキャラクタ表示(図7)を行
う。
例えばイメージ提供手段20内のキャラクタ表示テーブ
ルを参照して、対応するキャラクタ表示(図7)を行
う。
【0060】あるいは、上記イベントが発生したら、当
該キャラクタ表示を行うように、対応するプログラムの
始めにそのためのコードを予め埋め込んでおいて、これ
をイベント発生時に読み出す。
該キャラクタ表示を行うように、対応するプログラムの
始めにそのためのコードを予め埋め込んでおいて、これ
をイベント発生時に読み出す。
【0061】既述した第2の態様をさらに発展させた第
2例が第4の態様である。
2例が第4の態様である。
【0062】この第4の態様は、認識モードにおける対
話システム10において認識異常が発生したとき、複数
の要因のうちその認識異常を引き起こしたのがいずれの
要因であるかを、各要因を直感的にイメージさせるキャ
ラクタの動作によってディスプレイ18の一部に表示さ
せることを特徴とするものである。
話システム10において認識異常が発生したとき、複数
の要因のうちその認識異常を引き起こしたのがいずれの
要因であるかを、各要因を直感的にイメージさせるキャ
ラクタの動作によってディスプレイ18の一部に表示さ
せることを特徴とするものである。
【0063】図9は第4の態様でのキャラクタの形態の
一例を表す図である。
一例を表す図である。
【0064】対話システム10における上記認識異常の
要因としてはいろいろある。例えば、ユーザの声が大き
い(または小さい)、周囲の騒音がうるさい、発声のタ
イミングが早過ぎる(または遅過ぎる)、発声した言葉
が長過ぎる(または短か過ぎる)、認識結果なし、等々
である。
要因としてはいろいろある。例えば、ユーザの声が大き
い(または小さい)、周囲の騒音がうるさい、発声のタ
イミングが早過ぎる(または遅過ぎる)、発声した言葉
が長過ぎる(または短か過ぎる)、認識結果なし、等々
である。
【0065】上記の種々の要因のうち、上記図9は、ユ
ーザの声が大きいことをキャラクタ表示したものであ
る。電話の受話器を耳から遠去ける雰囲気を表現する。
ーザの声が大きいことをキャラクタ表示したものであ
る。電話の受話器を耳から遠去ける雰囲気を表現する。
【0066】図10は第4の態様のもとでの動作を示す
フローチャートである。
フローチャートである。
【0067】ステップS41:上記の認識異常に関する
イベント(“騒音がうるさい”等)が発生したか否か判
断する。
イベント(“騒音がうるさい”等)が発生したか否か判
断する。
【0068】ステップS42:その判断結果に応じて対
応するキャラクタをディスプレイ18に表示する。
応するキャラクタをディスプレイ18に表示する。
【0069】既述した第2の態様をさらに発展させた第
3例が第5の態様である。
3例が第5の態様である。
【0070】この第5の態様は、認識モードにおいて対
話システム10の認識結果に誤認識があることをユーザ
から指摘されたとき、その誤認識を、誤認識であること
を直感的にイメージさせるキャラクタの動作によってデ
ィスプレイ18の一部に表示させることを特徴とするも
のである。
話システム10の認識結果に誤認識があることをユーザ
から指摘されたとき、その誤認識を、誤認識であること
を直感的にイメージさせるキャラクタの動作によってデ
ィスプレイ18の一部に表示させることを特徴とするも
のである。
【0071】図11は第5の態様でのキャラクタの形態
の一例を表す図である。
の一例を表す図である。
【0072】対話システム10側からユーザに、誤認識
してしまったことをお詫びする雰囲気を表現したもので
ある。
してしまったことをお詫びする雰囲気を表現したもので
ある。
【0073】図12は第5の態様のもとでの動作を示す
フローチャートである。
フローチャートである。
【0074】ステップS51:上記の誤認識というイベ
ントが発生したか判断する。
ントが発生したか判断する。
【0075】ステップS52:その判断結果に応じて、
例えば上記図11に示すキャラクタ表示に変更する。
例えば上記図11に示すキャラクタ表示に変更する。
【0076】再び上記ステップS51を参照すると、こ
のステップでの判断は、例えばイメージ提供手段20が
次の(i)および(ii)のような情報を例えば既述のM
PUから通知されたか否かにより行うことができる。
のステップでの判断は、例えばイメージ提供手段20が
次の(i)および(ii)のような情報を例えば既述のM
PUから通知されたか否かにより行うことができる。
【0077】(i)対話システム10に付属のスイッチ
類(図1のSW参照)の中の所定の1つが長押しまたは
短押しされた。
類(図1のSW参照)の中の所定の1つが長押しまたは
短押しされた。
【0078】(ii)ユーザからマイクMCを通して、
“間違い”、“違う”等の発声が入力された。
“間違い”、“違う”等の発声が入力された。
【0079】また上記ステップS52については、例え
ば次の(a),(b)および(c)によりその変更を行
うことができる。
ば次の(a),(b)および(c)によりその変更を行
うことができる。
【0080】(a)上記誤認識が発生したら、例えばイ
メージ提供手段20内のキャラクタ表示テーブルを参照
して、対応するキャラクタ表示(図11)を行う。
メージ提供手段20内のキャラクタ表示テーブルを参照
して、対応するキャラクタ表示(図11)を行う。
【0081】(b)上記誤認識が発生したら、当該キャ
ラクタ表示を行うように、対応するプログラムの始めに
そのためのコードを予め埋め込んでおいて、これをその
発生時に読み出す。
ラクタ表示を行うように、対応するプログラムの始めに
そのためのコードを予め埋め込んでおいて、これをその
発生時に読み出す。
【0082】(c)上記誤認識を通知する情報に、当該
キャラクタデータを付加しておく。
キャラクタデータを付加しておく。
【0083】既述した第2の態様をさらに発展させた第
4例が第6の態様である。
4例が第6の態様である。
【0084】この第6の態様は、認識モードにおいてユ
ーザが所期の応答を返すことができないことから対話シ
ステム10がユーザのさらなる発声を助けるアシスト対
話に入ったとき、該対話システム10がそのアシスト対
話に入ったことを、これを直感的にイメージさせるキャ
ラクタの動作によってディスプレイ18の一部に表示さ
せることを特徴とするものである。具体的には、ユーザ
から発声しなければならない場面でありながら、ユーザ
が発声できないとき等にそのアシスト対話に入る。ただ
しこのアシスト対話自体は公知である。
ーザが所期の応答を返すことができないことから対話シ
ステム10がユーザのさらなる発声を助けるアシスト対
話に入ったとき、該対話システム10がそのアシスト対
話に入ったことを、これを直感的にイメージさせるキャ
ラクタの動作によってディスプレイ18の一部に表示さ
せることを特徴とするものである。具体的には、ユーザ
から発声しなければならない場面でありながら、ユーザ
が発声できないとき等にそのアシスト対話に入る。ただ
しこのアシスト対話自体は公知である。
【0085】図13は第6の態様でのキャラクタの形態
の一例を表す図である。
の一例を表す図である。
【0086】対話システム10が、ユーザに対して、教
師になったような雰囲気を表現したものである。
師になったような雰囲気を表現したものである。
【0087】図14は第6の態様のもとでの動作を示す
フローチャートである。
フローチャートである。
【0088】ステップS61:上記のアシスト対話とい
うイベントが発生したか判断する。
うイベントが発生したか判断する。
【0089】ステップS62:その判断結果に応じて、
例えば上記図13に示すキャラクタ表示に変更する。
例えば上記図13に示すキャラクタ表示に変更する。
【0090】再び上記ステップS61を参照すると、こ
のステップでの判断は、例えばイメージ提供手段20が
次の(i),(ii),(iii)および(iv)のような情
報を例えば既述のMPUから通知されたか否かにより行
うことができる。
のステップでの判断は、例えばイメージ提供手段20が
次の(i),(ii),(iii)および(iv)のような情
報を例えば既述のMPUから通知されたか否かにより行
うことができる。
【0091】(i)前述したスイッチ類SWの中の所定
の1つが長押しまたは短押しされた。
の1つが長押しまたは短押しされた。
【0092】(ii)ユーザからマイクMCを通して、
“分からない”、“ヘルプ”、“教えて”等の発声が入
力された。
“分からない”、“ヘルプ”、“教えて”等の発声が入
力された。
【0093】(iii)音声認識処理部11が、マイクM
Cからの音声の切り出しに例えば5秒以上を要し、タイ
ムアウトになった。
Cからの音声の切り出しに例えば5秒以上を要し、タイ
ムアウトになった。
【0094】(iv)各対話に付与されている対話IDの
一部に、アシスト対話であることを表すコードが付与さ
れていて、このコードを読み出したとき。
一部に、アシスト対話であることを表すコードが付与さ
れていて、このコードを読み出したとき。
【0095】また上記ステップS62については、例え
ば次の(a),(b)および(c)によりその変更を行
うことができる。
ば次の(a),(b)および(c)によりその変更を行
うことができる。
【0096】(a)上記アシスト対話が発生したら、例
えばイメージ提供手段20内のキャラクタ表示テーブル
を参照して、対応するキャラクタ表示(図13)を行
う。
えばイメージ提供手段20内のキャラクタ表示テーブル
を参照して、対応するキャラクタ表示(図13)を行
う。
【0097】(b)上記アシスト対話が発生したら、当
該キャラクタ表示を行うように、対応するプログラムの
始めにそのためのコードを予め埋め込んでおいて、これ
をその発生時に読み出す。
該キャラクタ表示を行うように、対応するプログラムの
始めにそのためのコードを予め埋め込んでおいて、これ
をその発生時に読み出す。
【0098】(c)上記アシスト対話を通知する情報
に、当該キャラクタデータを付加しておく。
に、当該キャラクタデータを付加しておく。
【0099】次に第7の態様について説明する。この第
7の態様は、上述の第2〜第6の態様を実行するプログ
ラムのバージョンを更新する場合についてのものであ
る。
7の態様は、上述の第2〜第6の態様を実行するプログ
ラムのバージョンを更新する場合についてのものであ
る。
【0100】すなわち、対話システム10のシステム機
能がバージョンアップしたとき、イメージ提供手段20
は、そのバージョンアップを直感的にイメージさせるキ
ャラクタをディスプレイ18の一部に表示させる。
能がバージョンアップしたとき、イメージ提供手段20
は、そのバージョンアップを直感的にイメージさせるキ
ャラクタをディスプレイ18の一部に表示させる。
【0101】図15は第7の態様でのキャラクタの形態
の一例を表す図である。
の一例を表す図である。
【0102】本図の左はバージョン1、中央はバージョ
ン2、右はバージョン3であることを表現している。
ン2、右はバージョン3であることを表現している。
【0103】上述したバージョンアップは実際には、記
憶媒体を介在させて、または、伝送路を経由して外部か
らのダウンロードにより行うことができる。
憶媒体を介在させて、または、伝送路を経由して外部か
らのダウンロードにより行うことができる。
【0104】図16はバージョンアップの仕方を示す図
である。
である。
【0105】本図において、参照番号10はこれまで述
べてきた対話システムである。
べてきた対話システムである。
【0106】この対話システム10でのプログラムのバ
ージョンアップは、CD−ROMあるいはDVD等の記
憶媒体31からのインストールにより行うことができ
る。あるいは、外部の例えばソフトウェアセンター33
と、携帯電話32ならびに有線または無線の伝送路を介
して、交信することによって、バージョンアップしたプ
ログラムを対話システム10にダウンロードすることが
できる。
ージョンアップは、CD−ROMあるいはDVD等の記
憶媒体31からのインストールにより行うことができ
る。あるいは、外部の例えばソフトウェアセンター33
と、携帯電話32ならびに有線または無線の伝送路を介
して、交信することによって、バージョンアップしたプ
ログラムを対話システム10にダウンロードすることが
できる。
【0107】バージョンアップについて限定して説明し
たが、同様に春夏秋冬の季節感を表現したり(夏の水着
や冬のコート等の着衣)、朝昼晩の時間帯感を表現した
り(パジャマや普段着等の着衣、その他日の出、日の入
り、月や星および太陽のイメージ)することもできる。
たが、同様に春夏秋冬の季節感を表現したり(夏の水着
や冬のコート等の着衣)、朝昼晩の時間帯感を表現した
り(パジャマや普段着等の着衣、その他日の出、日の入
り、月や星および太陽のイメージ)することもできる。
【0108】
【発明の効果】以上説明したように本発明によれば、
・キャラクタ表示を見ることによって、一見してシステ
ムの接続状態を理解することができる。
ムの接続状態を理解することができる。
【0109】・キャラクタ表示を見ることによって、現
在の認識モードを把握することができ、ユーザは適切な
言葉を発声することが可能となる。
在の認識モードを把握することができ、ユーザは適切な
言葉を発声することが可能となる。
【0110】・キャラクタ表示を見ることによって、現
在のシステム状態を理解することができる。ユーザにと
ってシステムが何をやっているのか分からないといった
使い難い要素をなくすことができ、したがってユーザに
分かりやすいインタフェース(HMI)を提供すること
ができる。
在のシステム状態を理解することができる。ユーザにと
ってシステムが何をやっているのか分からないといった
使い難い要素をなくすことができ、したがってユーザに
分かりやすいインタフェース(HMI)を提供すること
ができる。
【0111】・ユーザが行った行動がシステムに受け付
けられたかを、キャラクタ表示にて確認することがで
き、したがって正しく受け付けられたかを、即座に判断
することが可能となる。
けられたかを、キャラクタ表示にて確認することがで
き、したがって正しく受け付けられたかを、即座に判断
することが可能となる。
【0112】・機能のみがバージョンアップされること
がなく、機能のバージョンアップと共に、キャラクタ表
示もバージョンアップされる。したがってキャラクタ表
示に対応すべき全ての機能に対して対応することが可能
となる。
がなく、機能のバージョンアップと共に、キャラクタ表
示もバージョンアップされる。したがってキャラクタ表
示に対応すべき全ての機能に対して対応することが可能
となる。
【0113】・季節あるいは、日時が経過した時に、最
新のキャラクタ表示に更新することができる。したがっ
て常に最新のキャラクタが表示され、ユーザにとって、
新鮮さがあり、快適性の向上につながる。
新のキャラクタ表示に更新することができる。したがっ
て常に最新のキャラクタが表示され、ユーザにとって、
新鮮さがあり、快適性の向上につながる。
【図1】本発明に係る対話システムの基本的構成を示す
図である。
図である。
【図2】本発明に基づくキャラクタの第1の態様を示す
図である。
図である。
【図3】第1の態様のもとでの動作を示すフローチャー
トである。
トである。
【図4】本発明に基づくキャラクタの第2の態様の一例
を示す図である。
を示す図である。
【図5】第2の態様のもとでの動作を示すフローチャー
トである。
トである。
【図6】キャラクタの各種形態の例を表す図である。
【図7】第3の態様でのキャラクタの形態の例を表す図
である。
である。
【図8】第3の態様のもとでの動作を示すフローチャー
トである。
トである。
【図9】第4の態様でのキャラクタの形態の一例を表す
図である。
図である。
【図10】第4の態様のもとでの動作を示すフローチャ
ートである。
ートである。
【図11】第5の態様でのキャラクタの形態の一例を表
す図である。
す図である。
【図12】第5の態様のもとでの動作を示すフローチャ
ートである。
ートである。
【図13】第6の態様でのキャラクタの形態の一例を表
す図である。
す図である。
【図14】第6の態様のもとでの動作を示すフローチャ
ートである。
ートである。
【図15】第7の態様でのキャラクタの形態の一例を表
す図である。
す図である。
【図16】バージョンアップの仕方を示す図である。
10…対話システム
11…音声認識処理部
12…認識辞書
13…対話エンジン
14…アプリケーション
15…対話データベース
16…音声合成部
17…キャラクタ表示制御部
18…ディスプレイ
20…イメージ提供手段
MC…マイク
SP…スピーカ
SW…スイッチ類
─────────────────────────────────────────────────────
フロントページの続き
(51)Int.Cl.7 識別記号 FI テーマコート゛(参考)
G10L 15/28 G10L 3/00 551G
// G01C 21/00 551Q
561C
561A
(72)発明者 神谷 昌宏
兵庫県神戸市兵庫区御所通1丁目2番28号
富士通テン株式会社内
(72)発明者 山田 みか
兵庫県神戸市兵庫区御所通1丁目2番28号
富士通テン株式会社内
Fターム(参考) 2F029 AA02 AB07 AC02 AC13 AC18
5D015 KK01 KK02 LL03 LL05 LL10
5E501 AA23 AC16 BA03 BA09 CA04
CB15 FA15 FA32 FA46 FB28
Claims (10)
- 【請求項1】 ユーザが発声した音声を認識する音声認
識処理部と、その認識結果に適合する対話の流れを指示
する対話エンジン部と、その対話に応じた応答を音声に
てユーザに返す音声合成部と、その対話に応じたキャラ
クタをディスプレイに出力するキャラクタ表示制御部
と、を少なくとも有する対話システムにおいて、 該対話システムの置かれている現在の状況を、その状況
の種別に応じてその状況毎にユーザに対して直感的にイ
メージさせる複数種のキャラクタを格納し前記ディスプ
レイの一部に表示させるイメージ提供手段を備えること
を特徴とする対話システム。 - 【請求項2】 前記対話システムの置かれている現在の
状況が、該対話システムが連係して動作すべき複数種の
ユニットのいずれかと接続状態にあるとき、前記イメー
ジ提供手段は、当該ユニットを直感的にイメージさせる
キャラクタを前記ディスプレイの一部に表示させること
を特徴とする請求項1に記載の対話システム。 - 【請求項3】 前記対話システムが連係して動作すべき
1つのユニットが特定されたとき、前記音声認識処理部
がそのユニットの操作に限定した音声の認識対象範囲に
絞って音声認識処理を行う場合、前記イメージ提供手段
は、そのユニットを直感的にイメージさせるキャラクタ
を前記ディスプレイの一部に表示させることを特徴とす
る請求項1に記載の対話システム。 - 【請求項4】 前記の限定した音声の認識対象範囲に絞
った認識モードの種別を、前記イメージ提供手段は、 (1)前記キャラクタをなす顔の表情によって表現し、 (2)前記キャラクタをなす顔の色によって表現し、 (3)前記キャラクタをなす背景の色によって表現し、 (4)前記キャラクタをなす背景の画風によって表現
し、 (5)前記キャラクタをなす服装のスタイルによって表
現し、 (6)前記キャラクタをなす服装の色によって表現し、 (7)前記キャラクタをなす人物の上半身の表情によっ
て表現すること、のいずれか1つ、または、それらの少
なくとも2つの組み合わせをもって直感的にイメージさ
せるキャラクタを前記ディスプレイの一部に表示させる
ことを特徴とする請求項3に記載の対話システム。 - 【請求項5】 前記認識モードが一連の認識工程によっ
て実行されるとき、前記対話システムが今いずれの認識
工程にあるかを、各該認識工程を直感的にイメージさせ
るキャラクタの動作によって前記ディスプレイの一部に
表示させることを特徴とする請求項4に記載の対話シス
テム。 - 【請求項6】 前記認識モードにおける前記対話システ
ムにおいて認識異常が発生したとき、複数の要因のうち
その認識異常を引き起こしたのがいずれの要因であるか
を、各該要因を直感的にイメージさせるキャラクタの動
作によって前記ディスプレイの一部に表示させることを
特徴とする請求項4に記載の対話システム。 - 【請求項7】 前記認識モードにおいて前記対話システ
ムの認識結果に誤認識があることを前記ユーザから指摘
されたとき、その誤認識を、誤認識であることを直感的
にイメージさせるキャラクタの動作によって前記ディス
プレイの一部に表示させることを特徴とする請求項4に
記載の対話システム。 - 【請求項8】 前記認識モードにおいて前記ユーザが所
期の応答を返すことができないことから前記対話システ
ムが該ユーザのさらなる発声を助けるアシスト対話に入
ったとき、該対話システムがそのアシスト対話に入った
ことを、これを直感的にイメージさせるキャラクタの動
作によって前記ディスプレイの一部に表示させることを
特徴とする請求項4に記載の対話システム。 - 【請求項9】 前記対話システムのシステム機能がバー
ジョンアップしたとき、前記イメージ提供手段は、その
バージョンアップを直感的にイメージさせるキャラクタ
を前記ディスプレイの一部に表示させることを特徴とす
る請求項1に記載の対話システム。 - 【請求項10】 前記バージョンアップを、記憶媒体を
介在させて、または、伝送路を経由して外部からのダウ
ンロードにより行うことを特徴とする請求項9に記載の
対話システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001208355A JP2003022092A (ja) | 2001-07-09 | 2001-07-09 | 対話システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001208355A JP2003022092A (ja) | 2001-07-09 | 2001-07-09 | 対話システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003022092A true JP2003022092A (ja) | 2003-01-24 |
Family
ID=19044195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001208355A Pending JP2003022092A (ja) | 2001-07-09 | 2001-07-09 | 対話システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003022092A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015196063A1 (en) * | 2014-06-19 | 2015-12-23 | Robert Bosch Gmbh | System and method for speech-enabled personalized operation of devices and services in multiple operating environments |
CN111667823A (zh) * | 2019-03-06 | 2020-09-15 | 本田技研工业株式会社 | 智能体装置、智能体装置的控制方法及存储介质 |
JP2020179844A (ja) * | 2020-06-23 | 2020-11-05 | 株式会社ユピテル | 運転支援システムおよび運転支援プログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0410030A (ja) * | 1990-04-27 | 1992-01-14 | Hitachi Ltd | プログラム作成方法 |
JPH05216618A (ja) * | 1991-11-18 | 1993-08-27 | Toshiba Corp | 音声対話システム |
JPH06214693A (ja) * | 1993-01-20 | 1994-08-05 | Victor Co Of Japan Ltd | 入力表示装置 |
JPH11352995A (ja) * | 1998-06-08 | 1999-12-24 | Toshiba Tec Corp | 音声認識装置 |
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
-
2001
- 2001-07-09 JP JP2001208355A patent/JP2003022092A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0410030A (ja) * | 1990-04-27 | 1992-01-14 | Hitachi Ltd | プログラム作成方法 |
JPH05216618A (ja) * | 1991-11-18 | 1993-08-27 | Toshiba Corp | 音声対話システム |
JPH06214693A (ja) * | 1993-01-20 | 1994-08-05 | Victor Co Of Japan Ltd | 入力表示装置 |
JPH11352995A (ja) * | 1998-06-08 | 1999-12-24 | Toshiba Tec Corp | 音声認識装置 |
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015196063A1 (en) * | 2014-06-19 | 2015-12-23 | Robert Bosch Gmbh | System and method for speech-enabled personalized operation of devices and services in multiple operating environments |
US10410630B2 (en) | 2014-06-19 | 2019-09-10 | Robert Bosch Gmbh | System and method for speech-enabled personalized operation of devices and services in multiple operating environments |
CN111667823A (zh) * | 2019-03-06 | 2020-09-15 | 本田技研工业株式会社 | 智能体装置、智能体装置的控制方法及存储介质 |
CN111667823B (zh) * | 2019-03-06 | 2023-10-20 | 本田技研工业株式会社 | 智能体装置、智能体装置的控制方法及存储介质 |
JP2020179844A (ja) * | 2020-06-23 | 2020-11-05 | 株式会社ユピテル | 運転支援システムおよび運転支援プログラム |
JP6998619B2 (ja) | 2020-06-23 | 2022-01-18 | 株式会社ユピテル | 運転支援システムおよび運転支援プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4292646B2 (ja) | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 | |
US8279171B2 (en) | Voice input device | |
JP4736982B2 (ja) | 作動制御装置、プログラム | |
JP5637131B2 (ja) | 音声認識装置 | |
US7434178B2 (en) | Multi-view vehicular navigation apparatus with communication device | |
JP4304952B2 (ja) | 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム | |
US20020069071A1 (en) | User interface for telematics systems | |
US20080215240A1 (en) | Integrating User Interfaces | |
US20140365068A1 (en) | Personalized Voice User Interface System and Method | |
WO2012147274A1 (ja) | 入力補助装置、入力補助方法及びプログラム | |
JP2006317722A (ja) | 音声処理装置 | |
US20100229116A1 (en) | Control aparatus | |
JPWO2006126649A1 (ja) | 音声編集装置、音声編集方法、および、音声編集プログラム | |
JP2000020888A (ja) | エージェント装置 | |
US20200320997A1 (en) | Agent apparatus, agent apparatus control method, and storage medium | |
JP2000222689A (ja) | 車両制御装置 | |
CN111667824A (zh) | 智能体装置、智能体装置的控制方法及存储介质 | |
JP5986468B2 (ja) | 表示制御装置、表示システム及び表示制御方法 | |
JP2015028566A (ja) | 応答制御システム、車載器、およびセンター | |
JP2003022092A (ja) | 対話システム | |
US20230196943A1 (en) | Narrative text and vocal computer game user interface | |
JP2002281145A (ja) | 電話番号入力装置 | |
JP2001027540A (ja) | 音声認識機能を用いたナビゲーション方法 | |
JPH06274190A (ja) | ナビゲーションシステムおよび音声認識装置 | |
JPH07319383A (ja) | 地図表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060626 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070123 |