JP4461047B2 - ナビゲーション装置、av装置、アシスタント表示方法、アシスタント表示用プログラム、および電子機器システム - Google Patents

ナビゲーション装置、av装置、アシスタント表示方法、アシスタント表示用プログラム、および電子機器システム Download PDF

Info

Publication number
JP4461047B2
JP4461047B2 JP2005101934A JP2005101934A JP4461047B2 JP 4461047 B2 JP4461047 B2 JP 4461047B2 JP 2005101934 A JP2005101934 A JP 2005101934A JP 2005101934 A JP2005101934 A JP 2005101934A JP 4461047 B2 JP4461047 B2 JP 4461047B2
Authority
JP
Japan
Prior art keywords
information
assistant
music
navigation device
data transfer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005101934A
Other languages
English (en)
Other versions
JP2006285416A (ja
Inventor
智広 真鍋
稔也 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2005101934A priority Critical patent/JP4461047B2/ja
Publication of JP2006285416A publication Critical patent/JP2006285416A/ja
Application granted granted Critical
Publication of JP4461047B2 publication Critical patent/JP4461047B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、ナビゲーション装置、AV装置、アシスタント表示方法、アシスタント表示用プログラム、および電子機器システムに関する。
近年、ユーザ一人ひとりの嗜好に合わせたアドバイスを行ったり、商品またはサービスを紹介したりする、いわゆるエージェント機能が種々提案されている。
このようなエージェント機能を有する装置では、例えば、擬人化したアシスタントとしてのキャラクタを表示させ、ユーザからの質問等に当該キャラクタが応答したり、AV(Audio Visual)機器を当該キャラクタを介して操作したりするように構成されているものがある(特許文献1参照)。
特開 2002−41276号公報(特許請求の範囲、要約書)
ところで、特許文献1に示す技術は複数の電子機器が存在する場合、それぞれの電子機器がエージェント機能を個別に有することになるので、ユーザはそれぞれの電子機器のエージェントを個別に設定したり、操作に習熟したりする必要があり、煩雑であるという問題点がある。
また、ある電子機器を使用した後に、他の電子機器を使用する場合、例えば、お気に入りの曲が重複して再生されたりする場合があり、複数の電子機器間で継続性が保てないという問題点もある。
本発明は、上記の事情に基づきなされたもので、その目的とするところは、複数の電子機器を使用する場合であっても操作性が高く、利便性が高いナビゲーション装置、AV装置、アシスタント表示方法、アシスタント表示用プログラム、および、電子機器システムを提供することを目的とする。
上述の目的を達成するため、本発明の擬人化したアシスタントを表示部に表示するナビゲーション装置は、アシスタントに関する情報と、アシスタントを介してユーザとの間で授受された情報と、音楽および音楽に関する情報を記憶する記憶手段と、記憶手段に記憶された情報を他の電子機器に送信する送信手段と、音楽を再生中にナビゲーション装置を搭載した車両が自宅または所定の駐車場近くに接近すると、有効なデータ転送先候補の検索を行い、検索した有効なデータ転送先を表示部に表示させ、有効なデータ転送先から選択されたデータ転送先にアシスタント、再生中の音楽および音楽に関する情報を、送信手段によって転送させる制御手段と、を有する。
また、他の発明のナビゲーション装置は、上述の発明に加えて、アシスタントに関する情報とアシスタントを介してユーザとの間で授受された情報とを他の電子機器から受信する受信手段と、をさらに有している。
また、他の発明のナビゲーション装置は、上述の発明に加えて、制御手段が、他の電子機器において実行されていた処理を継続して実行するようにしている。
他の発明のナビゲーション装置は、上述の発明に加えて、再生中の音楽に関する情報は、再生中の曲のファイル名と、再生位置に関する情報を含むものとしている。
他の発明のナビゲーション装置は、上述の発明に加えて、アシスタントに関する情報は、アシスタントの画像に関する情報、アシスタントの音声に関する情報、および、アシスタントの応答パターンに関する情報のいずれかまたはこれらの任意の組み合わせにしている。
他の発明のナビゲーション装置は、上述の各発明に加えて、制御手段が、送信手段によってアシスタントに関する情報と、アシスタントを介してユーザとの間で授受された情報と、音楽および音楽に関する情報とが他の電子機器に送信された場合には、表示部に対してアシスタントを非表示の状態としている。
他の発明の電子機器であるAV装置は、上述のナビゲーション装置から送信される情報を受信する受信手段と、受信手段によって受信された情報に基づいてアシスタントを表示部に表示する制御手段と、を備えるAV装置において、制御手段は、受信手段によって受信された情報を参照して、アシスタントを制御し、ナビゲーション装置において実行されていた処理を継続して実行するようにしている。
他の発明のAV装置は、上述の発明に加えて、制御手段が、受信手段によって受信された情報を参照して、アシスタントに関する情報と、アシスタントを介してユーザとの間で授受された情報と、音楽および音楽に関する情報とが他の電子機器に送信された場合には、表示部に対してアシスタントを非表示の状態とするようにしている。
本発明の記憶手段と、送信手段と、制御手段と、表示部とを有するナビゲーション装置で擬人化したアシスタントを表示部に表示するアシスタント表示方法において、記憶手段にアシスタントを介してユーザとの間で授受された情報と、音楽および音楽に関する情報を記憶し、制御手段は、音楽を再生中にナビゲーション装置を搭載した車両が自宅または所定の駐車場近くに接近すると、有効なデータ転送先候補の検索を行い、有効なデータ転送先を表示部に表示させ、有効なデータ転送先から選択されたデータ転送先にアシスタント、再生中の音楽及び再生中の音楽に関する情報を、送信手段によって転送させる、ようにしている。
本発明の擬人化したアシスタントを表示部に表示する処理をコンピュータに機能させるコンピュータ読み取り可能なアシスタント表示用プログラムは、コンピュータを、アシスタントを介してユーザとの間で授受された情報と、音楽および音楽に関する情報を記憶する記憶手段、記憶手段に記憶された情報を他の電子機器に送信する送信手段、音楽を再生中にコンピュータを搭載した車両が自宅または所定の駐車場近くに接近すると、有効なデータ転送先候補の検索を行い、有効なデータ転送先を表示部に表示させ、有効なデータ転送先から選択されたデータ転送先にアシスタント、再生中の音楽及び再生中の音楽に関する情報を、送信手段によって転送させる制御手段、として機能させるようにしている。
本発明の擬人化したアシスタントを表示部に表示するナビゲーション装置とAV装置を有する電子機器システムにおいて、ナビゲーション装置は、アシスタントを介してユーザとの間で授受された情報と、音楽および音楽に関する情報を記憶する記憶手段と、記憶手段に記憶された情報を他の電子機器に送信する送信手段と、ナビゲーション装置において音楽を再生中にナビゲーション装置を搭載した車両が自宅近くに接近すると、有効なデータ転送先候補となるAV装置の検索を行い、有効なデータ転送先として検索されたAV装置を示す情報を表示部に表示させ、有効なデータ転送先として選択されたAV装置へアシスタント、再生中の音楽及び再生中の音楽に関する情報を、送信手段によって転送させる制御手段と、を有し、AV装置は、ナビゲーション装置から送信される情報を受信する受信手段と、受信手段によって受信された情報に基づいてアシスタントを表示部に表示する制御手段と、を備え、AV装置の制御手段は、受信手段によって受信された情報を参照して、アシスタントを制御し、ナビゲーション装置において実行されていた処理を継続して実行するようにしている。
本発明は、複数の電子機器を使用する場合であっても操作性が高く、利便性が高い電子機器、アシスタント表示方法、アシスタント表示用プログラム、および、電子機器システムを提供することができる。
以下、本発明の一実施の形態について図に基づいて説明する。
図1は、本発明の実施の形態に係る電子機器システムの構成例を示すブロック図である。この図に示すように、本発明の実施の形態に係る電子機器システムは、ナビゲーション装置10、AV装置20、携帯電話30、および、ネットワーク40を有している。
ここで、ナビゲーション装置10は、例えば、車載のナビゲーション装置であり、複数のGPS(Global Positioning System)衛星からの情報を受信して自車の位置を検出し、記憶装置に記憶されている地図情報を参照して、目的地まで案内(ナビゲーション)を行う。
AV装置20は、例えば、家庭内に設置された情報装置であり、例えば、オーディオ装置、DVD(Digital Versatile Disk)再生装置、または、パーソナルコンピュータ等によって構成され、所定のメディアに記録された情報を再生するとともに、所定のメディアに情報を記録する。
携帯電話30は、図示せぬ基地局を介して他の携帯電話との間で通信を確立して、通話を行うことができるとともに、例えば、内蔵されている記録媒体に対して音楽を録音したり、内蔵されているディジタルカメラによって画像を記録したりすることができる。
ネットワーク40は、例えば、インターネットまたは家庭内LAN(Local Area Network)によって構成されてり、ナビゲーション装置10、AV装置20、および、携帯電話30の間で情報の授受を可能にする。
図2は、図1に示す電子機器システムを構成するナビゲーション装置10の詳細な構成例を示す図である。この図に示すように、ナビゲーション装置10は、CPU(Central Processing Unit)10a、ROM(Read Only Memory)10b、RAM(Random Access Memory)10c、HDD(Hard Disk Drive)10d、ビデオ回路10e、I/F(Interface)10f、バス10g、表示装置10h、GPS装置10i、音声入力装置10j、および、音声出力装置10kを有している。
ここで、制御手段、音声認識手段、および、音声合成手段としてのCPU10aは、HDD10dに格納されているプログラムに応じて、各種演算処理を実行するとともに、装置の各部を制御する中央処理装置である。
ROM10bは、CPU10aが実行するプログラムを格納した半導体記憶装置である。RAM10cは、HDD10dに格納されているプログラムを実行する際に当該プログラムを一時的に記憶したり、プログラムを実行する際に必要な変数等のデータを記憶したりする半導体記憶装置である。
記憶手段としてのHDD10dは、CPU10aが実行するプログラムおよびデータを格納している。具体的には、HDD10dは、音声処理プログラム10d1、エージェント処理プログラム10d2、キャラクタ情報DB(Data Base)10d3、および、履歴情報DB10d4を有している。ここで、音声処理プログラム10d1は、図5を参照して後述するように、音声の入出力および音声認識に関する処理を実行するためのプログラムである。エージェント処理プログラム10d2は、同じく、図5を参照して後述するように、音声処理プログラム10d1の処理に基づいて入力された音声に対応した所定の応答情報を取得し、音声として出力するためのプログラムである。キャラクタ情報DB10d3は、キャラクタに関する情報を格納するデータベースである。履歴情報DB10d4は、ユーザの操作履歴等に関する履歴情報を格納したデータベースである。
ビデオ回路10eは、CPU10aから供給された描画コマンドに応じた描画処理を実行するとともに、描画処理の結果として得られた画像を映像信号に変換して表示装置10hへ出力する。
受信手段および送信手段としてのI/F10fは、GPS装置10i、音声入力装置10j、および、ネットワーク40から出力される信号の表現形式を変換して入力するとともに、音声出力装置10kおよびネットワーク40に対して出力する信号の表現形式を変換する。バス10gは、CPU10a、ROM10b、RAM10c、HDD10d、ビデオ回路10e、および、I/F10fを相互に接続し、これらの間で情報の授受を可能とするための信号線群である。
表示装置10hは、ビデオ回路10eから出力される映像信号を表示するための装置であり、LCD(Liquid Crystal Display)等によって構成される。GSP装置10iは、複数のGSP衛星から送信されてくる信号を受信して、自車の位置を検出する装置である。
音声入力装置10jは、ユーザの音声を電気信号に変換した後に、ディジタルデータに変換して出力する装置であり、例えば、マイクロフォンおよびA/D(Analog to Digital)変換器等によって構成される。音声出力装置10kは、ディジタル信号をアナログ信号に変換した後に、音声として出力する装置であり、例えば、D/A(Digital to Analog)変換器およびスピーカ等によって構成される。
図3は、図1に示すAV装置20の詳細な構成例を示す図である。この図に示すように、AV装置20は、制御手段、音声認識手段、音声合成手段としてのCPU20a、ROM20b、RAM20c、記憶手段としてのHDD20d、ビデオ回路20e、受信手段および送信手段としてのI/F20f、バス20g、表示装置20h、映像音声処理装置20i、音声入力装置20j、および、音声出力装置20kを有している。なお、映像音声処理装置20i以外の構成は、図2の場合と略同一であるので、その説明は省略する。映像音声処理装置20iは、映像または音声を処理する装置であり、例えば、DVD記録再生装置、CD再生装置、MD(Mini Disc)記録再生装置等によって構成される。
図4は、図1に示す携帯電話30の詳細な構成例を示す図である。この図に示すように、携帯電話30は、制御手段、音声認識手段、および、音声合成手段としてのCPU30a、ROM30b、RAM30c、記憶手段としてのEEPROM(Electronically Erasable and Programmable ROM)30d、ビデオ回路30e、受信手段および送信手段としてのI/F30f、バス30g、表示装置30h、送受信装置30i、音声入力装置30j、および、音声出力装置30kを有している。なお、EEPROM30dおよび送受信装置30i以外の構成は、図2の場合と略同一であるので、その説明は省略する。EEPROM30dは、図2に示すHDD10dと略同様の情報を有しており、CPU30aが実行するプログラムおよびデータ等を格納している。送受信装置30iは、音声信号またはその他の情報を変調して図示せぬ基地局へ送信するとともに、基地局から送信されてきた信号を復調して音声信号等を得る装置である。
図5は、図2〜4に示す、ナビゲーション装置10、AV装置20、および、携帯電話30のHDDまたはEEPROMに記憶されている音声処理プログラム10d1,20d1,30d1およびエージェント処理プログラム10d2,20d2,30d2によって実現される機能のブロックを説明するための図である。なお、以下では、ナビゲーション装置10を例に挙げて説明を行う。
この図において、音声認識部50は、音声入力装置10jを介して入力された音声データに含まれている雑音を除去する処理等を実行した後、エージェント処理部52の単語データベース52cを参照して、音声データに対する認識処理を施し、この音声データに対応する単語の候補と、それぞれの候補の尤度(スコア)とを出力する。
具体的には、音声認識部50は、例えば、入力された音声データと、単語データベース52cに登録されているすべての単語とのマッチング処理を行ってスコアを算出し、どの単語のスコアが最も高いかを検討する。例えば、ユーザの発話が「え〜と、???が減ったよ。」である場合に、???の部分が「お腹」とも「お墓」とも認識され得るときは、音声認識部50は、「???」の部分については単語「お腹」に対するスコアが80%で、単語「お墓」に対するスコアが65%のようにスコアを計算する。そして、最も高いスコアを有する単語「お腹」を発話「???」に対する単語であるとして選択する。そして、音声認識部50は、「え〜と、お腹が減ったよ。」というテキスト文字列(または単語ID(Identifier))を生成して、自然言語解析部51に供給する。
なお、音声認識部50が行う音声認識の手法は任意である。また、スコアの値が所定値を下回る単語については、候補として選択しないようにしてもよい。また、1つの音声入力に対して複数の単語の候補が選択されるようにしてもよい。具体的には、上述のように「お腹」を1つ選択するのではなく、「お腹」と「お墓」の双方を選択して、出力するようにすることも可能である。その場合には、特定した候補とそのスコアを示すデータ(以下、「単語データ」と称する)を生成して出力する。単語データは、単語情報そのものとスコアを含むものとしてもよいが、実際には単語IDとスコアを含むものとした方がデータの取り扱い上有利である。
自然言語解析部51は、音声認識部50から供給された単語データ(またはテキストデータ)に形態素解析処理を施すことにより、単語データを構成する単語を品詞毎に分類し、分類結果を示すデータを単語データに付して、エージェント処理部52に供給する。なお、自然言語解析部51が行う分類の手法は任意であり、例えば、奈良先端技術大学で開発された日本語形態素解析の手法である“Chasen”を用いることができる。具体的には、自然言語解析部51は、入力音声から所定の品詞(例えば、名詞、動詞のみ)を抽出して出力する。この結果、入力音声がユーザの自然な発話である場合(例えば、「あ〜お腹がすいたな。」)でも、処理に必要なキーワード(「お腹」および「すいた」)が抽出される。
エージェント処理部52は、I/F52a、カテゴリ辞書52b、単語データベース52c、処理項目データベース52d、および、ワイヤデータベース52eを有し、自然言語解析部51から供給された単語の品詞に基づいて、ユーザへの問いかけなどの処理を行う。例えば、ユーザが「お腹がすいたなあ」と発話した場合には、エージェント処理部52はこれに対する問いかけとして「食事に行きますか」を音声合成処理部53に出力する。
ここで、I/F52aは、図示せぬ他の処理部との間でデータを授受する場合に、データのフォーマット等を変換する。
カテゴリ辞書52bは、単語を示すデータと、当該単語が属するカテゴリを示すデータとを相互に関連付けて格納している。例えば、単語「減った」はカテゴリ「食事」に対応付けられている。なお、1個の単語が複数のカテゴリに属するようにしてもよい(例えば、単語「昼食」を、カテゴリ「腹具合」および「時間帯」の双方に対応付けしてもよい)。
単語データベース52cは、単語とその発音データとを関連付けして格納しており、音声認識部50が入力された音声データを認識処理する際に利用される。
処理項目データベース52dは、エージェント処理部52が実行するトリガ取得処理、判別処理、および、入出力処理の内容を処理項目(ポインタ)毎に記述するデータを格納している。ここで、トリガ取得処理の内容を記述するデータは、一連の処理を開始するきっかけとなるトリガを指定するデータと、後述する進行方向の確率係数とを有している。取得するデータは、任意のものでよく、例えば、自然言語解析部51から供給される単語データ、クロック54から供給される時刻を示すデータ、または、エージェント処理部52自身が実行する処理から引き渡されるデータ等がある。
判別処理の内容を記述するデータは、進行方向の確率係数を、とり得る判別結果毎に記述したデータを含んでおり、また、後述する戻り方向の確率係数を含んでいる。なお、エージェント処理部52は、後述するワイヤ(遷移定義データ)に基づいて処理の手順を決定するものであり、どのワイヤが示す遷移を実行するかは、直接的には上述の確率係数に従って決定するのではなく、後述する重み係数に従って決定する。
判別処理では、判別に用いるデータを、任意の取得源から取得することができる。例えば、取得源として、自然言語解析部51、エージェント処理部52が実行する他の処理等が考えられる。また、判別処理では、判別に先立って所定の出力先にデータを出力することもできる。例えば、所定の質問を示す音声データを、音声合成処理部53に出力する等である。
入出力処理の内容を記述するデータは、入力あるいは出力するデータの内容を指定するデータからなっている。入力または出力するデータは、任意の内容を有していてよく、例えば、出力するデータは、音声合成処理部53を介して音声出力装置10kから音声として出力する音声データであってもよいし、入力するデータは外部の機器から供給されるデータであってもよい。
ワイヤデータベース52eは、複数の処理間の遷移を記述するデータ、つまり、遷移定義データ(以下、定義遷移データを「ワイヤ」と称する)の集合からなっている。ワイヤは、例えば、図6に示すような書式で記述されたデータからなっており、図示するように、先行する処理から後続する処理への遷移について、当該先行する処理と、当該後続する処理と、当該遷移に対して与えられた重み係数と、を指定するデータである。ただし、先行の処理が判別処理である場合には、当該判別処理のどの判別結果からの遷移であるかまで記述される必要がある。
なお、上述した処理項目データが記述する確率係数を、接続されるワイヤが示す遷移が実行された実績に従ってエージェント処理部52等によって書き換えるようにしてもよい。例えば、特定のワイヤが示す遷移が実行される頻度が所定値よりも高い場合、このワイヤが示す遷移元の処理項目を示す処理項目データに記述されている確率係数の値を従前よりも大きな値にエージェント処理部52が書き換えることによって、このワイヤが示す遷移が起こりやすくする等である。そのような方法によれば、結果的にユーザの意図する応答がなされる確率が高くなる。
エージェント処理部52は、処理項目データベース52dおよびワイヤデータベース52eが全体として表しているフローを実行する。処理項目データベース52dおよびワイヤデータベース52eは、例えば、図7に示すフローチャートとして表すことができる。
ここで、エージェント処理部52の処理が、具体的にどのように行われるかについて、図7を参照して説明する。エージェント処理部52は、図示するように、先行する第1の処理P1を実行して後述の第2の処理P2に遷移するようにワイヤW01により定義されており、第2の処理P2を実行して後続の第3の処理P3に遷移するようにワイヤW03によって定義されているとき、以下の処理が実行される。
なお、処理P1は、単語「お腹」を表す単語データが供給されたか否かを判断する処理であるとし、処理P2は、単語「減った」を表す単語データが供給されたか否かを判断する処理であるとし、処理P3は、「食事に行く」か否かを判定する処理である。なお、図示するように、処理P1〜P3の進行方向の確率係数はいずれも0.5であるものとする。また、エージェント処理部52は、音声認識部50が自然言語と分類された単語データのうち、自然言語解析部51において名詞または動詞に分類された単語データのみを取得するものとする。
まず、エージェント処理部52が第1の処理P1に達したとき、エージェント処理部52は、ワイヤW01,W03,W05のそれぞれの重み係数を計算し、計算結果をワイヤW01,W03,W05に書き込む。これらの値は、各処理に予め設定されている進行方向の確率係数によって決定される。
具体的には、処理P1に処理が到達したとき、ワイヤW01の重み係数は、処理P1のワイヤに係る確率係数の値すなわち0.5となる。処理P2のワイヤW03の重み係数は、処理P1のワイヤW01に係る重み係数0.5に処理P2のワイヤW03に係る確率係数0.5を乗じた結果すなわち0.25となる。ワイヤW05の重み係数は、処理P1のワイヤW01に係る確率係数0.5に処理P2のワイヤW03に係る確率係数0.5を乗じた結果にさらに処理P3のワイヤW05に係る確率係数0.5を乗じた結果、すなわち、0.125となる。
このようにして、ある処理を基点としたときのそれぞれのワイヤの重み係数が計算される。よって、現在の状況が遷移すると、現在の処理を基点としてその都度重み係数が計算されることになる。
具体的には、現在の状態が処理P2に遷移すると、ワイヤW03の重み係数は、処理P2のワイヤW03に係る確率係数に等しい値0.5となり、ワイヤW05の重み係数は、処理P2のワイヤW03に係る確率係数0.5と、処理P3のワイヤW05に係る重み係数0.5との積すなわち0.25となる。また、このとき、エージェント処理部52は、逆方向、つまり処理P1に戻る方向に係るワイヤW01の重み係数も再度書き込む。処理P2に遷移した場合では、ワイヤW01に係る戻り方向の重み係数0.1がそのままワイヤW01の重み係数となる。処理P3に遷移した場合は、さらに、ワイヤW03に係る戻り方向の確率係数0.1がそのままワイヤW03の重み係数となる。そして、処理P3に遷移した状態におけるワイヤW01の重み係数は、処理P3に遷移した状態におけるワイヤW03の重み係数0.1に、処理P2の戻り方向の確率係数0.1を乗じた値すなわち0.01となる。
重み係数の計算は、関連するフローの処理のみではなく、すべてのフローのすべてのワイヤについて設定される。ここで、現在の処理に関連のないワイヤについては、予め定められた低い計数値を割り当てるようにすればよい。しかし、特に、トリガ取得処理を先行の処理とするワイヤについては、重み係数をある程度高く設定するようにする。そのようにすることで、直前までなされていた会話と著しく異なる内容の会話にもジャンプすることが可能になる。
エージェント処理部52は、判別条件に係る1個または複数個の単語データもしくは状態データが自然言語解析部51等から供給されると、以下の処理を実行する。なお、簡単のため、以下では、単語データが供給された場合を例に挙げて説明するが、状態データが供給された場合においても同様の処理がなされるものとする。
まず、前述の処理によって各ワイヤに対して設定された重み係数と、供給された単語データが示すスコアとの積を計算する。例えば、図7に示すフローの処理が実行されている場合において、単語「お腹」を示す単語データがスコア80%で供給され、単語「減った」を示す単語データがスコア50%で供給されたとし、また、単語「お腹」を条件とするワイヤW01の重み係数が0.5、単語「減った」を条件とするワイヤW03の重み係数が0.25であったとする。この場合、ワイヤW01およびW03について求められる判別結果は、以下の式(1)および式(2)のようになる。
〔数1〕
ワイヤW01についての判別結果:「お腹」に対するスコア80%×ワイヤW01の重み係数0.5=40 ・・・(式1)
〔数2〕
ワイヤW03についての判別結果:「減った」に対するスコア50%×ワイヤW03の重み係数0.25=12.5 ・・・(式2)
エージェント処理部52は、スコアと重み係数との積を求める上述の処理を、フローの処理が有するワイヤのうち、少なくともスコアが設定されたすべてのワイヤについて行う。その結果、例えば、ワイヤW01について求めた積(つまり、判別結果)が最も高い値を示した場合、入力された音声は単語「お腹」を示すものであったと認識して、ワイヤW01が後続の処理としている処理P2に遷移することになる。
図5に戻って、音声合成処理部53は、音片合成用データベース53a、音素合成用データベース53b、素片合成用データベース53cを有しており、エージェント処理部52から供給されたテキストデータに対応する音声を合成して出力する。
ここで、音片合成用データベース53aは、音片合成を実行する際に用いる音片データを格納している。ここで、音片とは、1つ以上の音素からなる音声の集合である。例えば、音片として「食事に」と「行きますか?」をそれぞれ格納しておき、これらをつなぎ合わせて合成することにより「食事に行きますか?」という自然な音声を得ることができる。
音素合成用データベース53bは、音素合成を実行する際に用いる音素データを格納している。ここで、音素とは、語と語の意味を区別する機能を有する音声の最小単位をいう。本実施の形態では、音片合成を優先して音声合成が実行されるが、音片データが存在しない場合には、音素を合成することにより、必要な音声データを生成する。
素片合成用データベース53cは、音片合成用データベース53aに格納されている音片と、音素合成用データベース53bに格納されている音素とを用いて音声を合成する場合に、これらを合成するためのデータを格納している。
音声出力装置10kは、音声合成処理部53から出力された音声データをD/A変換し、増幅器で増幅した後、スピーカから音声として出力する。
つぎに、本発明の実施の形態に係る電子機器システムの動作について説明する。なお、ナビゲーション装置10、AV装置20、および、携帯電話30では、同様の処理が実行されるので、以下では、ナビゲーション装置10を例に挙げて説明を行う。
図8は、本発明の実施の形態に係る電子機器システムの動作を説明するためのフローチャートである。この処理は、所定の電子機器において擬人化したアシスタントとしてのキャラクタ(以下、単に「キャラクタ」と称する)を転送する場合に実行される処理である。このフローチャートの処理が開始されると以下のステップが実行される。
ステップS10:CPU10aは、I/F10fおよびネットワーク20を介して通信を行い、有効な転送先(電源が投入されており通信可能な転送先またはユーザの近くに存在する転送先)を検索する。図1の例では、すべての装置に電源が投入されている場合、有効な転送先としてAV装置20および携帯電話30が得られる。
ステップS11:CPU10aは、ステップS10の処理により、有効な転送先が存在すると判断した場合にはステップS13に進み、それ以外の場合にはステップS12に進む。
ステップS12:CPU10aは、有効な転送先が存在しない旨をユーザに通知して、処理を終了する。なお、有効な転送先が存在しない場合であっても、所定の時間が経過した後に、再度、有効な転送先を検索し、存在することが確認できた場合には、当該転送先に情報を転送するようにしてもよい。
ステップS13:CPU10aは、有効な転送先が複数存在するか否かを判定し、複数存在する場合にはステップS14に進み、それ以外の場合にはステップS15に進む。例えば、転送先が2つ以上存在する場合にはステップS14に進む。
ステップS14:CPU10aは、有効な転送先の一覧表としての転送先リストを表示装置10hに表示する。例えば、図1の例では、有効な転送先として、AV装置20および携帯電話30が表示される。なお、リスト形式以外の形式(例えば、転送先を選択するためのボタン等)として表示することも可能である。
ステップS15:CPU10aは、ステップS14において表示された転送先リストから所定の転送先が決定されたか否かを判定し、決定された場合にはステップS16に進み、それ以外の場合には同様の処理を繰り返す。
ステップS16:CPU10aは、キャラクタを表示するための必要なデータおよび履歴情報等を、転送先に対して送信する。
図9は、ステップS16の処理において転送される情報の一例を示す図である。この例では、転送される情報100として、キャラクタ画像データ101、キャラクタ音声データ102、シナリオデータ103、および、履歴情報104を有している。ここで、キャラクタに関する情報としてのキャラクタ画像データ101は、キャラクタを表示するための静止画または動画データである。音声情報としてのキャラクタ音声データ102は、キャラクタの音声および発話内容に関するデータであり、声色、口調、方言、使用する専門用語に関するデータである。応答情報としてのシナリオデータ103は、キャラクタのユーザに対する応答パターンを示すデータである。履歴情報104は、後述するように、主に、ユーザとの間でやり取りされた情報またはそれに関連する情報の履歴である。
図10は、履歴情報104の詳細を説明する図である。この図の例では、履歴情報104は、操作履歴104a、発声履歴104b、応答履歴104c、処理履歴104d、および、情報履歴104eを有している。ここで、操作履歴104aは、ユーザの電子機器に対する操作の履歴を示す情報である。発声履歴104bは、ユーザの発声内容を示す情報(例えば、テキスト情報)である。応答履歴104cは、ユーザの操作または発声に対する電子機器の応答内容を示す情報である。処理履歴104dは、ユーザの操作または発声に対する電子機器の処理内容を示す情報である。情報履歴104eは、ユーザから与えられた情報であり、例えば、携帯電話30の場合には、図示せぬカメラ機能を利用して撮影された画像データである。
ステップS17:CPU10aは、キャラクタを非表示状態とし、処理を終了する。この結果、キャラクタの転送が終了した電子機器の表示装置の画面上からはキャラクタが消滅する。
つぎに、以上のキャラクタ転送処理に関する具体的な動作を説明する。
まず、図11および図12を参照して、ユーザが車内でナビゲーション装置10のHDD10dに記憶されている音楽を再生中に、運転終了後に自宅で当該音楽を継続して聞く場合の動作について説明する。
ユーザが車を運転中に、表示装置10hに表示されるアシスタントとしてのキャラクタに対して、例えば、HDD10dに格納されている所定の音楽ファイル(例えば、MP3ファイル)を再生するように音声により「○○○を再生して。」と要請すると、ナビゲーション装置10の音声認識部50がこれを認識し、エージェント処理部52がユーザにより要求された処理である「○○○の再生」を実行する。このとき、CPU10aは、ユーザからの要求である「○○○を再生して。」と、それに対応する処理の内容とを履歴情報としてHDD10dに格納する。
このような状態において、車両がユーザの自宅近くに接近すると、GPS装置10iがこれを検出し、CPU10aに通知する。CPU10aは、自宅近くに車が位置していることを認識し、キャラクタを転送する処理を開始する。すなわち、CPU10aは、I/F10fを介して有効な転送先を検索する。例えば、検索結果として、AV装置20と携帯電話30を得る。
つづいて、CPU10aは、検索結果に基づいて、表示装置10hに対して図11に示すような画像を表示する。この表示例では、枠110が表示され、枠110内の中央上部にはメッセージ111として「○○○の再生途中ですが、まもなく自宅に到着します。転送しますか?」が表示されている。また、メッセージ111の右隣には、キャラクタ112が表示され、その左隣には、ボタン113〜115が表示されている。ここで、ボタン113は、キャラクタ112を転送しない場合に操作されるボタンである。ボタン114は、キャラクタ112をAV装置20に転送する場合に操作されるボタンである。ボタン115は、キャラクタ112を携帯電話30に転送する場合に操作されるボタンである。なお、キャラクタ112は、ユーザによって予め選択されたものであり、また、キャラクタ112の音声(声色、口調、抑揚等)もユーザによって予め選択されたものである。
このような画面において、例えば、ボタン114が操作されると、CPU10aは、AV装置20が転送先に指定されたとして、AV装置20に対して図9および図10に示すキャラクタ画像データ101およびキャラクタ音声データ102(キャラクタに関する情報)と、履歴情報104とを送信する。なお、送信が完了すると、ナビゲーション装置10の表示装置10hからはキャラクタが消滅する。
これらの情報は、ネットワーク40を介してAV装置20に転送される。AV装置20のCPU20aは、I/F20fを介してこれらの情報を受信し、HDD20dに格納する。
つぎに、CPU20aは、図10に示す処理履歴104dを参照し、転送元のナビゲーション装置10で、音楽ファイル「○○○」が再生中であったことを認識し、図12に示すような画像を表示装置20hに表示する。この表示例では、枠120が表示され、枠120の中央上部にはメッセージ121として「お帰りなさい。車内で再生中だった○○○再生します。」が表示されている。また、メッセージ121の右隣には、図11に示すのと同様のキャラクタ122が表示され、その左隣には、ボタン123,124が表示されている。なお、図9に示す情報がナビゲーション装置10からAV装置20に転送されることから、ナビゲーション装置10の場合と同様の画像、音声、応答パターンを有するキャラクタが表示されるため、ユーザは、対象となる電子機器が変わったことを意識することなく、コミュニケーションを行うことができる。
ここで、ボタン123は、音楽ファイル「○○○」を続けて再生する場合に操作される。ボタン124は、音楽ファイル「○○○」を曲頭から再生する場合に操作される。例えば、ボタン123が操作された場合には、社内において再生中であった位置(「○○○」の途中)から再生が開始される。また、ボタン124が操作された場合には、「○○○」の曲頭から再度再生が開始される。なお、ボタン123が操作された場合には、CPU20aは、処理履歴104dに格納されている曲のファイル名と、再生位置に関する情報を参照して、ファイル名と再生位置を特定し、HDD20dに格納されている該当するファイルを検索し、当該ファイルの該当する位置から再生を開始する。
以上の処理によれば、車中で再生中であった音楽を、家庭内において自動的に継続して聞くことが可能になるので、従来のように、車中で再生中であった音楽の曲名と再生位置を記憶し、家庭内においてAV装置20を操作して、記憶した曲名と再生位置に基づいて再生を開始するという煩雑な操作を省略することが可能になる。
なお、以上の実施の形態では、処理履歴104dに再生中の音楽のファイル名と再生位置とを格納し、転送先の電子機器に記憶されているファイルを再生するようにしたが、情報履歴104eに再生中のファイルを格納し、これを併せて転送するようにしてもよい。このような実施の形態によれば、転送先に対象となるファイルが存在しない場合にも、継続して再生を行うことが可能になる。
また、以上の実施の形態では、ナビゲーション装置10からAV装置20にキャラクタを転送する場合を例に挙げて説明したが、AV装置20からナビゲーション装置10へキャラクタを転送したり、ナビゲーション装置10と携帯電話30の間で相互にキャラクタを転送したり、AV装置20と携帯電話30の間で相互にキャラクタを転送したりするようにしてもよい。これらの場合でも前述の場合と同様の効果を得ることができる。
つぎに、ナビゲーション装置10から携帯電話30にキャラクタを転送する場合の具体例について説明する。
ナビゲーション装置10に対して、ユーザが「○○付近の空いている駐車場まで案内して。」という発声を行ったとすると、この発声はナビゲーション装置10の音声入力装置10jを介して入力され、音声認識部50によって認識された後、自然言語解析部51を経てエージェント処理部52に供給される。エージェント処理部52は、ユーザの最終目的地が「○○」であることを認識するとともに、その付近の空いている駐車場へ向かうことを認識する。そして、エージェント処理部52は、HDD10dに格納されている地図情報を参照して、「○○」付近にある駐車場群(例えば、「○○」から半径50m以内にある駐車場群)を検索し、ネットワーク40(または、図示せぬVICS(Vehicle Information and Communication System)情報受信装置)を介してそれぞれの駐車場の空き状況に関する情報を取得する。空いている駐車場が複数存在する場合には、エージェント処理部52は、キャラクタと、空き状態の駐車場を表示装置10hに表示し、メッセージ「駐車場を選択してください。」を音声合成処理部53を介して出力する。
ユーザが音声等によって所定の駐車場を選択すると、CPU10aは、GPS装置10iから出力される情報を参照して、自車の現在位置を取得し、選択された駐車場までの経路をHDD10dに格納されている図示せぬ地図情報を参照して検索する。検索の結果、ルートが複数存在する場合には、CPU10aは、キャラクタと、経路群を表示装置10hに表示し、メッセージ「経路を選択してください。」を音声合成処理部53を介して出力する。
ユーザが音声等によって所定の経路を選択すると、CPU10aは、当該経路に基づいて、選択された駐車場までの道案内(ナビゲーション)を開始する。そして、駐車場に到着した場合には、CPU10aは、図13に示す情報を表示装置10hに表示させ、ユーザから入力を待つ。この表示例では、枠130が表示され、枠130内の中央上部には、メッセージ131として「まもなく目的地に到着します。転送しますか?」が表示され、その右隣にはキャラクタ132が表示されている。キャラクタ132の左隣には、ボタン133,134が表示されている。ここで、ボタン133は、キャラクタを転送しない場合に操作される。ボタン134は、携帯電話30にキャラクタを転送する場合に操作される。なお、この例では、自宅から離れた場所に居ることから、AV装置20は転送先の候補からは除外されている。すなわち、AV装置20は、有効な転送先とはなっていない。
このような表示画面において、ボタン134が操作されるか、または、ユーザから携帯電話30を選択する指示が音声によってなされると、CPU10aは、図9および図10に示すキャラクタ画像データ101およびキャラクタ音声データ102(キャラクタに関する情報)と、履歴情報104とを携帯電話30に転送する。このとき、履歴情報104としては、「○○」を最終目的地としてルート検索がなされたこと等を示す情報が含まれている。
携帯電話30は、キャラクタ画像データ101およびキャラクタ音声データ102と、履歴情報104とを受信し、「○○」を最終目的地としてルート検索がなされたことを認識する。そして、携帯電話30のCPU30aは、図14に示す画面を表示装置30hに表示させる。
図14に示す表示画面では、枠140が表示され、枠140内の中央上部には、メッセージ141として「最終目的地○○まで、案内を継続しますか?」が表示され、その右隣には図13の場合と同様のキャラクタ142が表示されている。キャラクタ142の左隣には、ボタン143,144が表示されている。ここで、ボタン143は、案内を継続する場合に操作される。ボタン144は、案内を終了する場合に操作される。なお、ボタン144が操作された場合には、案内に関する処理は終了し、キャラクタについては携帯電話30に転送するようにしてもよい。
このような表示画面において、ボタン143が操作されるか、または、音声によって案内の継続が指示された場合には、CPU30aは、複数の基地局(図示せず)からの電波の電波の到達時間の時間差によって自己の位置を検出するか、または、図示せぬGPS装置から出力を参照して自己の位置を検出し、EEPROM30dに格納されている地図情報または基地局等に格納されている地図情報を参照して、最終目的地「○○」までの経路を検索する。検索の結果、経路が複数存在する場合には、これら複数の経路を表示装置30hに表示し、ユーザに選択させる。
ユーザが所定の経路を選択した場合には、CPU30aは、現在地である駐車場から最終目的地である「○○」までの案内を開始する。
なお、以上の例では、携帯電話30により現在位置を検出するようにしたが、ナビゲーション装置10から転送される履歴情報に現在位置を含めて、当該検出処理を省略することができる。
また、以上の例では、経路案内の処理のみを転送するようにしたが、例えば、前述のように車中において音楽を再生中であった場合には、履歴情報を利用して再生中の音楽に関する情報も併せて転送し、携帯電話30により、案内処理とともに、音楽再生処理も継続することができる。
また、以上の例では、ナビゲーション装置10から携帯電話30へ転送する場合について説明したが、例えば、帰路の場合には携帯電話30からナビゲーション装置10へキャラクタに関する情報および履歴情報を転送することができる。あるいは、AV装置20において、例えば、インターネットを介して所定の情報(例えば、レストラン等に関する情報)を検索し、当該目的地まで車で移動する場合には、目的地を示す情報としての店名、電話番号、住所、電話番号等をナビゲーション装置10に転送し、転送された情報に基づいてルート検索を行うようにすることができる。また、当該目的地まで公共交通機関等を利用して移動する場合には、前述の情報を携帯電話30に転送し、転送された情報に基づいてルート検索を行うようにすることができる。
つぎに、携帯電話30からAV装置20へ情報を転送する場合の具体例について説明する。
ユーザが携帯電話30に対して、カメラ機能(図示せず)を利用して、所定の被写体の画像を撮影するように音声により要請すると、CPU30aは、カメラ機能を起動し、撮影可能の状態となる。そのような状態において、ユーザがレリーズボタンを操作して被写体を撮影すると、撮影された画像データは、EEPROM30dに格納され、また、画像の撮影が行われたことを示す履歴情報が生成されて履歴情報DB30d4に格納される。
このような状態において、ユーザが情報を転送する操作を行った場合には、CPU30aは、表示装置30hに対して、図15に示すような画面を表示させる。この表示画面では、枠150が表示され、枠150内の中央上部には、メッセージ151として「どちらに転送しますか?」が表示され、その右隣にはキャラクタ152が表示されている。キャラクタ152の左隣には、ボタン153,154が表示されている。ここで、ボタン153は、ナビゲーション装置10に情報を転送する場合に操作される。ボタン154は、AV装置20に情報を転送する場合に操作される。
このような表示画面において、ボタン154が操作された場合には、CPU30aは、図9に示すキャラクタ画像データ101およびキャラクタ音声データ102(キャラクタに関する情報)と、履歴情報104とをネットワーク40を介してAV装置20に対して転送する。なお、履歴情報104の情報履歴104eには、撮影された画像データが含まれているので、撮影された画像データも併せてAV装置20に対して転送される。
AV装置20では、携帯電話30から転送されてきた情報を受信して参照することにより、携帯電話30において写真が撮影されたことをCPU20aが認識する。そして、AV装置20のCPU20aは、図16に示すような画面を表示装置20hに表示させる。
この表示例では、枠160が表示され、枠160内の中央上部には、メッセージ161として「撮影された写真はどのようにしますか?」が表示されている。その右隣には、図15と同じキャラクタ162が表示され、その左隣にはボタン163,164が表示されている。ここで、ボタン163は、撮影された写真を印刷する場合に操作されるボタンである。また、ボタン164は、撮影された写真を所定の場所に保存する場合に操作されるボタンである。
このような表示画面において、例えば、ボタン163が選択されるか、または、音声により印刷が指示された場合には、CPU20aは、情報履歴104eとして格納されている画像データを図示せぬプリンタに送信して印刷処理を実行する。また、ボタン164が選択された場合には、保存先とファイル名を指定するための画面を表示装置20hに表示し、指定された情報に基づいて画像データを保存する処理を実行する。
以上の処理によれば、携帯電話30において撮影された写真の画像データをAV装置20に転送し、所望の処理を施すことが可能になる。このように、画像データをAV装置20に転送することにより、ユーザの要求に応じて、画像データを印刷用紙に印刷したり、所望の記憶媒体に記憶して保存したりすることが可能になる。
なお、以上の例では、携帯電話30で撮影した画像データをAV装置20に転送するようにしたが、例えば、ディジタルカメラ等で撮影した画像データをAV装置20から取り込んだり、所定の画像データを所定のwebサイトから入手したりして、ナビゲーション装置10または携帯電話30に転送し、例えば、壁紙として使用したりすることも可能である。
以上に説明したように、本発明の実施の形態によれば、複数の電子機器間で擬人化されたアシスタントとしてのキャラクタに関する情報および履歴情報を転送可能としたので、対象となる電子機器によらず一定の手順で当該電子機器を操作することが可能になる。
また、ユーザの移動等に伴って、対象となる電子機器が変化した場合であっても、エージェントとの会話または処理を継続して行うことが可能になる。
また、ユーザに関する情報(履歴情報等)をユーザが設定したひとつのエージェントによって管理するようにしているので、プライバシーの保護を強化することが可能になる。
また、ユーザにキャラクタを連れて歩いているような感じを抱かせることが可能になるので、キャラクタに対してより親近感を抱いてもらうことが可能になり、より人間らしいコミュニケーションを図ることが可能になる。
また、キャラクタが時間の経過とともに変化したり、ユーザとの会話時間に応じて成長したりするようにすれば、キャラクタを連れて歩くことにより、短い期間でユーザの嗜好にあったキャラクタに成長させることが可能になる。
また、エージェント機能は、ユーザの過去の行動を履歴情報として記憶し、これに基づいてユーザの嗜好に沿った情報を呈示することが可能であるが、本実施の形態のように各電子機器でこれらの履歴情報を共有化することにより、例えば、ある装置によってお勧めの曲として再生された音楽が、他の装置によって同日に繰り返して再生されることを防止することが可能になる。
なお、上述の実施の形態は、本発明の好適な例であるが、本発明は、これらに限定されるものではなく、本発明の要旨を逸脱しない範囲において、種々の変形、変更が可能である。
例えば、以上の実施の形態では、ネットワーク40を介して情報を転送するようにしたが、例えば、着脱可能な半導体メモリに情報を記憶し、当該半導体メモリを所望の電子機器に装着することにより、情報を移動してもよい。また、情報を転送しようとする電子機器をケーブルで直接接続して、情報を転送することも可能である。そのような実施の形態によれば、ネットワークで接続されていない電子機器の間でもキャラクタ等の情報を転送することができる。
また、以上の実施の形態では、異なる電子機器の間での情報の転送について説明したが、同種の電子機器(例えば、携帯電話同士)の間で情報を転送することも可能である。例えば、他人の携帯電話に対して情報を転送したり、家庭内に配置されている複数のAV装置の間で情報を転送したりすることも可能である。
また、以上の実施の形態では、キャラクタに関する情報および履歴情報をある電子機器から他の電子機器に転送するようにしたが、転送した後の情報については、当該ある電子機器に残しておき、所定の操作で転送前の状態に復元できるようにしてもよい。そのような実施の形態によれば、特定の電子機器が故障した場合でも、データが失われることを未然に防止できる。あるいは、システム全体として、記憶容量を節約するために、転送が行われた後は、データを削除するようにしてもよい。
また、転送先の電子機器において、他のキャラクタが動作している場合には、当該電子機器は有効ではないとして、転送先から除外するようにすることも可能である。あるいは、転送先で他のキャラクタが動作している場合には、当該キャラクタを非表示として、新たなキャラクタを表示したり、キャラクタに優先順位を付与し、当該優先順位が高い方を表示し、低い方を非表示としてもよい。
また、以上の各実施の形態では、音声の入力に対して音声で出力するようにしたが、例えば、音声とともにテキスト情報を併せて出力するようにしてもよい。
また、以上の各実施の形態では、電子機器の例として、ナビゲーション装置10、AV装置20、および、携帯電話30を例に挙げて説明したが、これ以外にも、例えば、PDA(Personal Digital Assistant)、パーソナルコンピュータ、可搬型AV装置に本発明を適用することが可能であることはいうまでもない。
なお、上記の処理機能は、例えば、コンピュータによって実現される。その場合、電子機器が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM、CD−R(Recordable)/RW(Rewritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
プログラムを流通させる場合には、たとえば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、たとえば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。
本発明は、擬人化したアシスタントを表示部に表示する電子機器に利用することができる。
本発明の実施の形態に係る電子機器システムの構成例を示す図である。 図1に示す電子機器システムを構成するナビゲーション装置の構成例を示すブロック図である。 図1に示す電子機器システムを構成するAV装置の構成例を示すブロック図である。 図1に示す電子機器システムを構成する携帯電話の構成例を示すブロック図である。 図1に示すナビゲーション装置、AV装置、および、携帯電話においてHDDまたはEEPROMに格納されたプログラムが実行された場合に実現される機能のブロックを説明する図である。 図5に示すワイヤデータベースに格納されているデータの構成例を示す図である。 図6に示すデータによって実現される処理の流れを説明する図である。 ある電子機器から他の電子機器にキャラクタを転送する場合の動作の流れを説明するためのフローチャートである。 図8に示すフローチャートが実行された場合に転送される情報の一例を示す図である。 図9に示す履歴情報の詳細を説明するための図である。 ナビゲーション装置において音楽を再生中に自宅に到着した際に、他の電子機器にキャラクタを転送するための表示画面の一例を示す図である。 図11の画面においてAV装置が転送先に選ばれた場合にAV装置に表示される表示画面の一例を示す図である。 ナビゲーション装置によってナビゲーション実行中に目的地付近の駐車場に到着した場合に、携帯電話にキャラクタを転送する場合に表示される表示画面の一例を示す図である。 図13に示す表示画面において携帯電話にキャラクタを転送することが選択された場合に携帯電話に表示される表示画面の一例を示す図である。 携帯電話のキャラクタを他の電子機器に転送する場合に表示される表示画面の一例を示す図である。 図15に示す表示画面においてAV装置が転送先に指定された場合にAV装置に表示される表示画面の一例を示す図である。
符号の説明
10 ナビゲーション装置(電子機器)
10a CPU(制御手段、音声認識手段、音声合成手段)
10d HDD(記憶手段)
10f I/F(受信手段、送信手段)
20 AV装置(電子機器)
20a CPU(制御手段、音声認識手段、音声合成手段)
20d HDD(記憶手段)
20f I/F(受信手段、送信手段)
30 携帯電話(電子機器)
30a CPU(制御手段、音声認識手段、音声合成手段)
30d EEPROM(記憶手段)
30f I/F(受信手段、送信手段)

Claims (11)

  1. 擬人化したアシスタントを表示部に表示するナビゲーション装置において、
    上記アシスタントに関する情報と、上記アシスタントを介してユーザとの間で授受された情報と、音楽および上記音楽に関する情報を記憶する記憶手段と、
    上記記憶手段に記憶された情報を他の電子機器に送信する送信手段と、
    上記音楽を再生中に上記ナビゲーション装置を搭載した車両が自宅または所定の駐車場近くに接近すると、有効なデータ転送先候補の検索を行い、検索した上記有効なデータ転送先を上記表示部に表示させ、上記有効なデータ転送先から選択されたデータ転送先に上記アシスタント、再生中の上記音楽および上記音楽に関する情報を、上記送信手段によって転送させる制御手段と、
    を有することを特徴とするナビゲーション装置。
  2. 前記アシスタントに関する情報と前記アシスタントを介してユーザとの間で授受された情報とを前記他の電子機器から受信する受信手段と、
    をさらに有することを特徴とする請求項1記載のナビゲーション装置。
  3. 前記制御手段は、他の電子機器において実行されていた処理を継続して実行することを特徴とする請求項2記載のナビゲーション装置。
  4. 前記再生中の音楽に関する情報は、再生中の曲のファイル名と、再生位置に関する情報を含むことを特徴とする請求項1から請求項3のいずれか1項記載のナビゲーション装置。
  5. 前記アシスタントに関する情報は、アシスタントの画像に関する情報、アシスタントの音声に関する情報、および、アシスタントの応答パターンに関する情報のいずれかまたはこれらの任意の組み合わせであることを特徴とする請求項1から請求項4のいずれか1項記載のナビゲーション装置。
  6. 前記制御手段は、前記送信手段によって前記アシスタントに関する情報と、前記アシスタントを介してユーザとの間で授受された情報と、前記音楽および前記音楽に関する情報とが他の電子機器に送信された場合には、前記表示部に対して前記アシスタントを非表示の状態とすることを特徴とする請求項1から請求項5のいずれか1項記載のナビゲーション装置。
  7. 請求項1から請求項6のいずれか1項記載のナビゲーション装置から送信される情報を受信する受信手段と、
    上記受信手段によって受信された情報に基づいてアシスタントを表示部に表示する制御手段と、
    を備えるAV装置において、
    上記制御手段は、上記受信手段によって受信された情報を参照して、上記アシスタントを制御し、上記ナビゲーション装置において実行されていた処理を継続して実行することを特徴とするAV装置。
  8. 前記制御手段は、前記受信手段によって受信された情報を参照して、前記アシスタントに関する情報と、前記アシスタントを介してユーザとの間で授受された情報と、前記音楽および前記音楽に関する情報とが他の電子機器に送信された場合には、前記表示部に対して前記アシスタントを非表示の状態とすることを特徴とする請求項7記載のAV装置。
  9. 記憶手段と、送信手段と、制御手段と、表示部とを有するナビゲーション装置で擬人化したアシスタントを表示部に表示するアシスタント表示方法において、
    上記記憶手段に上記アシスタントを介してユーザとの間で授受された情報と、音楽および上記音楽に関する情報を記憶し、
    上記制御手段は、上記音楽を再生中に上記ナビゲーション装置を搭載した車両が自宅または所定の駐車場近くに接近すると、有効なデータ転送先候補の検索を行い、有効なデータ転送先を上記表示部に表示させ、上記有効なデータ転送先から選択されたデータ転送先に上記アシスタント、再生中の上記音楽及び再生中の上記音楽に関する情報を、上記送信手段によって転送させる、
    ことを特徴とするアシスタント表示方法。
  10. 擬人化したアシスタントを表示部に表示する処理をコンピュータに機能させるコンピュータ読み取り可能なアシスタント表示用プログラムにおいて、
    コンピュータを、
    上記アシスタントを介してユーザとの間で授受された情報と、音楽および上記音楽に関する情報を記憶する記憶手段、
    上記記憶手段に記憶された情報を他の電子機器に送信する送信手段、
    上記音楽を再生中に上記コンピュータを搭載した車両が自宅または所定の駐車場近くに接近すると、有効なデータ転送先候補の検索を行い、上記有効なデータ転送先を上記表示部に表示させ、上記有効なデータ転送先から選択されたデータ転送先に上記アシスタント、再生中の上記音楽及び再生中の上記音楽に関する情報を、上記送信手段によって転送させる制御手段、
    として機能させることを特徴とするコンピュータ読み取り可能なアシスタント表示用プログラム。
  11. 擬人化したアシスタントを表示部に表示するナビゲーション装置とAV装置を有する電子機器システムにおいて、
    上記ナビゲーション装置は、
    上記アシスタントを介してユーザとの間で授受された情報と、音楽および上記音楽に関する情報を記憶する記憶手段と、
    上記記憶手段に記憶された情報を他の電子機器に送信する送信手段と、
    上記ナビゲーション装置において上記音楽を再生中に上記ナビゲーション装置を搭載した車両が自宅近くに接近すると、有効なデータ転送先候補となる上記AV装置の検索を行い、有効なデータ転送先として検索された上記AV装置を示す情報を上記表示部に表示させ、上記有効なデータ転送先として選択された上記AV装置へ上記アシスタント、再生中の上記音楽及び再生中の上記音楽に関する情報を、上記送信手段によって転送させる制御手段と、を有し、
    上記AV装置は、
    上記ナビゲーション装置から送信される情報を受信する受信手段と、
    上記受信手段によって受信された情報に基づいてアシスタントを表示部に表示する制御手段と、を備え、
    上記AV装置の制御手段は、上記受信手段によって受信された情報を参照して、上記アシスタントを制御し、上記ナビゲーション装置において実行されていた処理を継続して実行する、
    ことを特徴とする電子機器システム。
JP2005101934A 2005-03-31 2005-03-31 ナビゲーション装置、av装置、アシスタント表示方法、アシスタント表示用プログラム、および電子機器システム Active JP4461047B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005101934A JP4461047B2 (ja) 2005-03-31 2005-03-31 ナビゲーション装置、av装置、アシスタント表示方法、アシスタント表示用プログラム、および電子機器システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005101934A JP4461047B2 (ja) 2005-03-31 2005-03-31 ナビゲーション装置、av装置、アシスタント表示方法、アシスタント表示用プログラム、および電子機器システム

Publications (2)

Publication Number Publication Date
JP2006285416A JP2006285416A (ja) 2006-10-19
JP4461047B2 true JP4461047B2 (ja) 2010-05-12

Family

ID=37407310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005101934A Active JP4461047B2 (ja) 2005-03-31 2005-03-31 ナビゲーション装置、av装置、アシスタント表示方法、アシスタント表示用プログラム、および電子機器システム

Country Status (1)

Country Link
JP (1) JP4461047B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4895759B2 (ja) * 2006-10-25 2012-03-14 三洋電機株式会社 音声メッセージ出力装置
JP5380883B2 (ja) * 2008-04-03 2014-01-08 トヨタ自動車株式会社 車載機及び経路案内システム並びに経路案内方法
JP5061074B2 (ja) * 2008-09-26 2012-10-31 株式会社デンソーアイティーラボラトリ 車載機器制御装置および車載機器制御方法
WO2010073406A1 (ja) * 2008-12-26 2010-07-01 パイオニア株式会社 情報提供装置、通信端末、情報提供システム、情報提供方法、情報出力方法、情報提供プログラム、情報出力プログラムおよび記録媒体
JP2013164793A (ja) * 2012-02-13 2013-08-22 Future Tech Lab Co Ltd 現代の電子機器の操作に於いて、利用者毎に同期した操作システムを構成して、異種の電子機器間で利用者個々に同一操作を実現するエージェントシステム
EP3201913A4 (en) 2014-10-01 2018-06-06 Xbrain Inc. Voice and connection platform
JP6698600B2 (ja) * 2017-09-25 2020-05-27 Kddi株式会社 端末装置、プログラム及びシステム
JP2021144086A (ja) * 2020-03-10 2021-09-24 株式会社東海理化電機製作所 エージェントシステム、およびコンピュータプログラム
DE102022213191A1 (de) * 2022-12-07 2024-06-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Park- oder Manöverunterstützung eines Nutzers eines Fahrzeugs, Computerprogramm, Rechenvorrichtung und Fahrzeug
JP2024082829A (ja) 2022-12-09 2024-06-20 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11146426A (ja) * 1997-11-06 1999-05-28 Hitachi Ltd 電子機器および電子機器の制御方法および電子機器システム
JP2001297044A (ja) * 2000-04-13 2001-10-26 Sharp Corp デジタル情報機器ネットワーク装置
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
JP4622170B2 (ja) * 2001-06-26 2011-02-02 日本精機株式会社 アバータの表示方法
JP2003033577A (ja) * 2001-07-25 2003-02-04 Aruze Corp キャラクタ情報を提供するサーバ
JP3826840B2 (ja) * 2002-04-30 2006-09-27 株式会社デンソー ストリーミングデータ再生システム及び再生装置
JP2005269088A (ja) * 2004-03-17 2005-09-29 Sony Corp コンテンツ再生システムおよびコンテンツ再生方法
JP2006154926A (ja) * 2004-11-25 2006-06-15 Denso Corp キャラクタ表示を利用した電子機器操作システム及び電子機器

Also Published As

Publication number Publication date
JP2006285416A (ja) 2006-10-19

Similar Documents

Publication Publication Date Title
JP4461047B2 (ja) ナビゲーション装置、av装置、アシスタント表示方法、アシスタント表示用プログラム、および電子機器システム
EP1699042B1 (en) Device control device, method and program
US7529676B2 (en) Audio device control device, audio device control method, and program
JP4292646B2 (ja) ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体
JP4816494B2 (ja) ナビゲーション装置、ナビゲーションシステム、ナビゲーション方法、ならびに、プログラム
JP5928048B2 (ja) 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置
RU2425329C2 (ru) Навигационное устройство и способ для приема и воспроизведения звуковых образцов
JP6477822B2 (ja) 端末装置、端末装置の制御方法および制御プログラム
JP2004086189A (ja) 楽曲検索システム
JP4508917B2 (ja) 情報呈示装置、情報呈示方法、および、情報呈示用プログラム
JP2013088477A (ja) 音声認識システム
JP6226020B2 (ja) 車載装置、情報処理方法および情報処理システム
JP4497526B2 (ja) ナビゲーション装置、情報呈示方法、およびナビゲーション用プログラム
JP4158806B2 (ja) 再生装置および再生方法、記録媒体、並びにプログラム
JP5160653B2 (ja) 情報提供装置、通信端末、情報提供システム、情報提供方法、情報出力方法、情報提供プログラム、情報出力プログラムおよび記録媒体
JP5551985B2 (ja) 情報検索装置及び情報検索方法
JP2007094751A (ja) エージェントシステム、情報提供装置、及び端末装置
JP2006330442A (ja) 音声案内システム、キャラクタ人形、携帯端末装置、音声案内装置及びプログラム
JP4722787B2 (ja) データ呼出制御装置、データ呼出システム、データ呼出制御装置の音声認識語彙登録方法および車両
JP6908169B2 (ja) 端末装置
JP2009157065A (ja) 音声出力装置、音声出力方法、音声出力プログラムおよび記録媒体
WO2021192522A1 (ja) 情報提供装置、情報提供方法及び情報提供用プログラム
JP2021177636A (ja) 端末装置
JP2005043663A (ja) 学習支援装置
JP2006268941A (ja) 情報処理装置、情報処理装置の制御方法および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100215

R150 Certificate of patent or registration of utility model

Ref document number: 4461047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140219

Year of fee payment: 4