JP2006154926A - キャラクタ表示を利用した電子機器操作システム及び電子機器 - Google Patents
キャラクタ表示を利用した電子機器操作システム及び電子機器 Download PDFInfo
- Publication number
- JP2006154926A JP2006154926A JP2004340455A JP2004340455A JP2006154926A JP 2006154926 A JP2006154926 A JP 2006154926A JP 2004340455 A JP2004340455 A JP 2004340455A JP 2004340455 A JP2004340455 A JP 2004340455A JP 2006154926 A JP2006154926 A JP 2006154926A
- Authority
- JP
- Japan
- Prior art keywords
- electronic device
- agent software
- character display
- user
- script
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/75—Indicating network or usage conditions on the user display
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/485—Task life-cycle, e.g. stopping, restarting, resuming execution
- G06F9/4856—Task life-cycle, e.g. stopping, restarting, resuming execution resumption being on a different machine, e.g. task migration, virtual machine migration
- G06F9/4862—Task life-cycle, e.g. stopping, restarting, resuming execution resumption being on a different machine, e.g. task migration, virtual machine migration the task being a mobile agent, i.e. specifically designed to migrate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/60—Substation equipment, e.g. for use by subscribers including speech amplifiers
- H04M1/6033—Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
- H04M1/6041—Portable telephones adapted for handsfree use
- H04M1/6075—Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle
- H04M1/6083—Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system
- H04M1/6091—Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system including a wireless interface
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
Abstract
【課題】 同一のエージェントソフトウェアを複数の機器で共通して使用できるようにする。
【解決手段】 ナビゲーション装置3やオーディオ機器4は、携帯情報端末2からエージェントソフトウェア及び音声認識エンジンが転送されると、その転送されたエージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行う。
【選択図】 図1
【解決手段】 ナビゲーション装置3やオーディオ機器4は、携帯情報端末2からエージェントソフトウェア及び音声認識エンジンが転送されると、その転送されたエージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行う。
【選択図】 図1
Description
本発明は、擬人化されたキャラクタを表示させながらユーザと対話して対話内容が反映された所定処理を行うキャラクタ表示を利用した電子機器操作システム及び前記電子機器操作システム内で用いられる電子機器に関する。
例えばナビゲーション装置においては、エージェントと称される機能がある。このエージェントの機能は、擬人化されたキャラクタを表示させながらユーザと対話して対話内容が反映された所定処理を行うもので、例えばユーザが予め登録されている特定の命令文を発することにより、その特定の命令文に対応する処理が自動的に実行され、経路案内などの運転に関する情報が音や画像などによりユーザに提供されるようになっている(例えば特許文献1〜3参照)。
特開平9−102098号公報
特開平11−259271号公報
特開平11−259446号公報
ところで、これらのエージェントの機能は、ナビゲーション装置に限らず、ユーザが携帯可能な携帯情報端末や宅内に設置される家電機器などでも実現可能なものである。しかしながら、上記した特許文献1〜3に記載されているものでは、エージェントの機能が機器に限定されたものであり、つまり、エージェントソフトウェアを機器で転送することが困難であり、同一のエージェントソフトウェアを複数の機器で共通して使用することが困難である。
そのため、ユーザは、例えば外出先で携帯情報端末のエージェントの機能を使用していたとしても、車内へ戻ったときには携帯情報端末のエージェントの機能をナビゲーション装置に対して使用することができない。つまり、ユーザは、携帯情報端末とナビゲーション装置との双方に対して同一の処理を行わせたい場合であっても、携帯情報端末に対する特定の命令文とナビゲーション装置に対する特定の命令文とを区別する必要があり、利便性に劣るという問題があった。また、ユーザは、ナビゲーション装置を交換したような場合などでも、交換前のナビゲーション装置に対する特定の命令文と交換後のナビゲーション装置に対する特定の命令文とを区別する必要があり、このような場合にも利便性に劣るという問題があった。
本発明は、上記した事情に鑑みてなされたものであり、その目的は、同一のエージェントソフトウェアを複数の機器で共通して使用可能とすることにより、ヒューマンインタフェースを向上させることができ、利便性を高めることができるキャラクタ表示を利用した電子機器操作システム、前記電子機器操作システム内で用いられる電子機器を提供することにある。
請求項1に記載したキャラクタ表示を利用した電子機器操作システムによれば、第1の電子機器は、エージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うように構成されており、例えばユーザからのエージェントソフトウェアの転送指示が発生すると、エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを第2の電子機器へ転送する。
第2の電子機器は、エージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うように構成されており、第1の電子機器からエージェントソフトウェア及び音声認識エンジンが転送されると、その転送されたエージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行う。
したがって、エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンが第1の電子機器から第2の電子機器へ転送されると、エージェントソフトウェアの転送先である第2の電子機器では、第1の電子機器から転送されたエージェントソフトウェアを実行し、第1の電子機器から転送された音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うことになるので、第1の電子機器がエージェントソフトウェアを実行するのと同様にしてエージェントソフトウェアを実行することができる。
すなわち、ユーザは、第1の電子機器が携帯情報端末であると共に第2の電子機器がナビゲーション装置であれば、携帯情報端末とナビゲーション装置との間でエージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを転送させることにより、携帯情報端末に対する特定の命令文とナビゲーション装置に対する特定の命令文とを区別する必要はなく、同一の特定の命令文を発することにより、携帯情報端末とナビゲーション装置との双方に対して同一の処理を行わせることができる。つまり、ユーザは、携帯情報端末を操作する手順と同一の手順にしたがってナビゲーション装置を使用することができ、これにより、ヒューマンインタフェースを向上させることができ、利便性を高めることができる。
また、ユーザは、ナビゲーション装置を交換したような場合に、第1の電子機器が交換前のナビゲーション装置であると共に第2の電子機器が交換後のナビゲーション装置であれば、交換前のナビゲーション装置と交換後のナビゲーション装置との間でエージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを転送させることにより、交換前のナビゲーション装置に対する特定の命令文と交換後のナビゲーション装置に対する特定の命令文とを区別する必要はなく、同一の特定の命令文を発することにより、交換前のナビゲーション装置と交換後のナビゲーション装置との双方に対して同一の処理を行わせることができる。つまり、ユーザは、交換前のナビゲーション装置を操作する手順と同一の手順にしたがって交換後のナビゲーション装置を使用することができ、これにより、ヒューマンインタフェースを向上させることができ、利便性を高めることができる。
請求項2に記載したキャラクタ表示を利用した電子機器操作システムによれば、第1の電子機器は、音声認識エンジンにおける音声認識の精度を更新する機能を有する。これにより、ユーザとの対話における音声認識の精度を高めることができ、音声認識の精度の高いシステムを実現することができる。
請求項3に記載したキャラクタ表示を利用した電子機器操作システムによれば、第1の電子機器は、エージェントソフトウェアを第2の電子機器へ転送している途中で当該エージェントソフトウェアに対応するキャラクタの表示を変化させ、第2の電子機器は、第1の電子機器からエージェントソフトウェアが転送されている途中で当該エージェントソフトウェアに対応するキャラクタの表示を変化させる。これにより、第1の電子機器では、キャラクタの表示を変化させることにより、エージェントソフトウェアを第2の電子機器へ転送している途中である旨をユーザに知らせることができ、第2の電子機器では、キャラクタの表示を変化させることにより、エージェントソフトウェアが第1の電子機器から転送されている途中である旨をユーザに知らせることができる。
請求項4に記載したキャラクタ表示を利用した電子機器操作システムによれば、第1の電子機器は、エージェントソフトウェアに対応するキャラクタの表示をデータ転送量に基づいて変化させ、第2の電子機器は、エージェントソフトウェアに対応するキャラクタの表示をデータ転送量に基づいて変化させる。これにより、第1の電子機器では、第2の電子機器への転送を完了したデータ量の度合いをユーザに知らせることができ、第2の電子機器では、第1の電子機器からの転送を完了したデータ量の度合いをユーザに知らせることができる。
請求項5に記載したキャラクタ表示を利用した電子機器操作システムによれば、第1の電子機器または第2の電子機器は、所定処理の内容に応じてキャラクタの表示を変化させる。これにより、例えばキャラクタとして動物を表示しながら経路案内を行う場合であれば、動物の頭部が進行方向へ向くように動物の表示を変化させることにより、動物の頭部により進行方向をユーザに適切に知らせることができ、経路案内を適切に行うことができる。
請求項6に記載したキャラクタ表示を利用した電子機器操作システムによれば、第1の電子機器及び第2の電子機器は、同一時刻では両者のうちいずれか1つの機器のみが共通のエージェントソフトウェアを実行可能である。これにより、ユーザが同一のエージェントソフトウェアを第1の電子機器と第2の電子機器とで同時に使用しないように制限することができる。
請求項7に記載したキャラクタ表示を利用した電子機器操作システムによれば、第1の電子機器及び第2の電子機器は、同一時刻では両者の双方の機器が共通のエージェントソフトウェアを実行可能である。これにより、ユーザが同一のエージェントソフトウェアを第1の電子機器と第2の電子機器とで同時に使用することができる。
請求項8に記載したキャラクタ表示を利用した電子機器操作システムによれば、第1の電子機器は、ユーザが携帯可能な携帯端末から構成され、第2の電子機器は、車両に搭載されている車載装置や宅内に設置されている家電機器から構成されている。これにより、ユーザは、携帯情報端末と例えばナビゲーション装置などの車載装置や例えばオーディオ機器などの家電機器との間でエージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを転送させることにより、携帯情報端末を操作する手順と同一の手順にしたがってナビゲーション装置や家電機器を使用することができる。
請求項9に記載した電子機器によれば、エージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うように構成されており、エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを他の電子機器へ転送する。これにより、上記した請求項1に記載したシステム内の第1の電子機器として機能することにより、上記した請求項1に記載したものと同様の作用効果を得ることができ、同一のエージェントソフトウェアを複数の機器で共通して使用することができ、利便性を高めることができる。
請求項10に記載した電子機器によれば、エージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うように構成されており、他の電子機器からエージェントソフトウェア及び音声認識エンジンが転送されると、その転送されたエージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行う。これにより、上記した請求項1に記載したシステム内の第2の電子機器として機能することにより、上記した請求項1に記載したものと同様の作用効果を得ることができ、同一のエージェントソフトウェアを複数の機器で共通して使用することができ、利便性を高めることができる。
以下、本発明の一実施形態として、第1の電子機器として携帯情報端末を適用すると共に、第2の電子機器として車両に搭載されているナビゲーション装置及び宅内に設置されているオーディオ機器を適用したものについて、図面を参照して説明する。
まず、図1は、機器操作システムの全体構成を概略的に示している。機器操作システム1は、ユーザが携帯可能な携帯情報端末2と、車両に搭載されているナビゲーション装置3(本発明でいう車載装置)と、宅内に設置されているオーディオ機器4(本発明でいう家電機器)とを備えて構成されている。
図2は、携帯情報端末2の電気的な構成を機能ブロック図として示している。携帯情報端末2は、端末2の動作全般を制御する制御部5と、音声を入力するマイクロホン6と、音声を出力するスピーカ7と、ディスプレイ8と、カメラ9と、近距離無線通信を行う近距離無線通信部10と、ユーザが操作する幾つかのキーが配列されているキーボードからなる操作部11と、計時する時計部12と、位置を計測する位置計測部13とを備えて構成されている。
上記した構成において、制御部5は、エージェントソフトウェアをプラットフォーム上で実行することにより、擬人化されたキャラクタをディスプレイ8に表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識し、その対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うように構成されている。具体的に説明すると、制御部5は、図3に示すように、ユーザによりエージェントソフトウェアの起動指示が発生すると、人間の形状を表すキャラクタをディスプレイ8に表示させてユーザの指示を待機し、例えばユーザが「電話帳を見せてくれ」という音声を発した場合であれば、そのユーザが発した「電話帳を見せてくれ」という音声をマイクロホン6により入力すると、その入力された音声を音声認識エンジンにしたがって音声認識してユーザの指示を認識すると共に対話内容が反映されたスクリプトを作成して自身が行うべき処理を表すスクリプトを作成する。そして、制御部5は、その作成されたスクリプトを実行する。
つまり、制御部5は、この場合であれば、例えば「了解しました しばらくお待ち下さい」という音声をスピーカ7から出力させ、メモリに記憶されている電話帳を検索する。そして、制御部5は、電話帳の検索を完了すると、電話帳を読出してディスプレイ8に表示させ、例えば「電話帳を表示しました」という音声をスピーカ7から出力させる。このようにして、ユーザは、あたかもディスプレイ8に表示されているキャラクタと対話することにより、携帯情報端末2に所望の処理を行わせることができる。尚、本実施形態では、携帯情報端末2に電話帳を表示させる場合を説明したが、例えばユーザが「発信してくれ」という音声を発することにより、携帯情報端末2に発信動作を行わせてネットワークへ接続させても良いし、例えばユーザが「着信に応答してくれ」という音声を発することにより、携帯情報端末2にネットワークから着信した場合の着信に対する応答動作を行わせても良い。
ここで、図4は、制御部5がスクリプトを作成する手順の流れを概略的に示している。この場合、制御部5は、マイクロホン6により入力された音声とカメラ9により撮影された画像とを連携させてスクリプトを作成する。つまり、制御部5は、マイクロホン6により入力された音声がユーザから発せられた音声であるか否かを確実に判定するために、ユーザの口の動きや顔の表情や目線の変化などをカメラ9により撮影して画像解析し、マイクロホン6により入力された音声がユーザから発せられた音声であるか否かを判定し、マイクロホン6により入力された音声がユーザから発せられた音声である旨を確定したことを条件としてスクリプトを作成する。
音声インタフェース(IF)部21は、マイクロホン6により入力された音声をA/D変換部22へ出力し、A/D変換部22は、マイクロホン6から音声インタフェース部21を介して入力された音声をアナログ信号からデジタル信号へ変換する。画像インタフェース部23は、カメラ8により撮影された画像をA/D変換部24へ出力し、A/D変換部24は、カメラ9から画像インタフェース部23を介して入力された音声をアナログ信号からデジタル信号へ変換する。フィルタ25は、デジタル化された音声及びデジタル化された画像をフィルタリング処理し、マイクロホン6に入力された全ての音声のうちからユーザから発せられた音声のみを抽出して音声認識エンジン26へ出力する。
音声認識エンジン26は、単語認識モジュール27と、単語認識データベース28と、ユーザ特徴データベース29と、語彙相関チェッカ30と、文法チェッカ31と、コマンド認識モジュール32とから構成されている。単語認識モジュール27は、単語認識データベース28に格納されている単語認識データ及びユーザ特徴データベース29に格納されているユーザ特徴データ(口調、高低、速度、アクセント及びイントネーションなど)を参照してユーザから発せられた音声の単語の並び(単語列)を認識し、その認識された単語列を語彙相関チェッカ30及び文法チェッカ31へ出力する。
語彙相関チェッカ30は、語彙の相関について正当性を判定し、語彙の相関について誤っている点がある場合には、その誤っている点を修整する。文法チェッカ31は、文法について正当性を判定し、文法について誤っている点がある場合には、その誤っている点を修整する。コマンド認識モジュール32は、単語認識モジュール27から語彙相関チェッカ30及び文法チェッカ31を介して入力された単語に基づいてユーザの指示をコマンドとして認識し、その認識されたコマンドをスクリプト作成モジュール33へ出力する。スクリプト作成モジュール33は、コマンド認識モジュール32から入力されたコマンドに基づいてスクリプトデータベース34を参照してスクリプトを作成する。尚、制御部5は、学習機能として音声認識エンジン26における音声認識の精度を更新する機能を有している。
近距離無線通信部10は、携帯情報端末2の周囲に配置されている幾つかの装置や機器と近距離無線通信を行うことが可能に構成されている。尚、ここでいう近距離無線通信とは、Bluetooth(登録商標)や無線LANなどである。本実施形態では、携帯情報端末2は、例えばユーザが乗車したことに伴って車内へ移動した場合であれば、車両に搭載されているナビゲーション装置3と近距離無線通信を行うことが可能になり、例えばユーザが帰宅したことに伴って宅内へ移動した場合であれば、宅内に設置されているオーディオ機器4と近距離無線通信を行うことが可能になる。また、近距離無線通信部10は、多機能ペン41や多機能カード42や外付スピーカ43とも近距離無線通信を行うことが可能に構成されている。
多機能ペン41は、上記したマイクロホン6と略同等の機能を有するマイクロホン41a及び上記したカメラ9と略同等の機能を有するカメラ41bを備えて構成され、マイクロホン41aにより入力された音声及びカメラ41bにより撮影された画像を携帯情報端末2へ近距離無線通信により送信するように構成されている。この場合、カメラ41bは、例えばペン本体の頂部に配置されており、多機能ペン41が上着のポケットに収納された場合であっても、ユーザの顔を見上げるようにして撮影することが可能となっている。
多機能カード42も、上記したマイクロホン6と略同等の機能を有するマイクロホン42a及び上記したカメラ9と略同等の機能を有するカメラ42bを備えて構成され、マイクロホン42aにより入力された音声及びカメラ42bにより撮影された画像を携帯情報端末2へ近距離無線通信により送信するように構成されている。さらに、携帯情報端末2は、音声を外付スピーカ43へ近距離無線通信により送信するように構成されている。尚、外付スピーカ43は、例えば骨伝導型のイヤホンなどであっても良い。
このような構成では、携帯情報端末2が例えばカバンに収納されていてユーザから発せられた音声を集音し難くユーザを撮影し難い状況であったとしても、多機能ペン41や多機能カード42がユーザから発せられて音声を集音し易くユーザを撮影し易い位置に配置されていれば、ユーザは、それら多機能ペン41のマイクロホン41a及びカメラ41bや多機能カード42のマイクロホン42a及びカメラ42bを利用して対話することが可能となる。
また、上記した構成では、ナビゲーション装置3及びオーディオ機器4も、携帯情報端末2と同様にして、エージェントソフトウェアを実行するプラットフォームを有しており、エージェントソフトウェアをプラットフォーム上で実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うことが可能に構成されている。
次に、上記した構成の作用について、図5ないし図9を参照して説明する。尚、ここでは、
(1)ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ
転送させる場合
(2)ユーザがエージェントソフトウェアを携帯情報端末2からオーディオ機器4へ転送
させる場合
について順次説明する。
(1)ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ
転送させる場合
(2)ユーザがエージェントソフトウェアを携帯情報端末2からオーディオ機器4へ転送
させる場合
について順次説明する。
(1)ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ
転送させる場合
最初に、「ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ転送させる場合」について、図5ないし図8を参照して説明する。尚、本実施形態では、ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ直接転送させる場合を説明するが、ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ車載ゲートウェイを介して転送させることも可能である。
転送させる場合
最初に、「ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ転送させる場合」について、図5ないし図8を参照して説明する。尚、本実施形態では、ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ直接転送させる場合を説明するが、ユーザがエージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ車載ゲートウェイを介して転送させることも可能である。
この場合、ユーザは、携帯情報端末2においてエージェントソフトウェアを起動させる。携帯情報端末2は、ユーザからのエージェントソフトウェアの起動指示を受付けると、エージェントソフトウェアをプラットフォーム上で実行することにより、キャラクタをディスプレイ8に表示させながらユーザと対話する(ステップS1)。次いで、携帯情報端末2は、ユーザとの対話により得られた音声を音声認識エンジンにしたがって音声認識し
(ステップS2)、その対話内容が反映されたスクリプトを作成し(ステップS3)、その作成されたスクリプトを実行して所定処理を行う(ステップS4)。これにより、ユーザは、あたかも携帯情報端末2に表示されているキャラクタと対話することにより、携帯情報端末2に所望の処理を行わせることができる。
(ステップS2)、その対話内容が反映されたスクリプトを作成し(ステップS3)、その作成されたスクリプトを実行して所定処理を行う(ステップS4)。これにより、ユーザは、あたかも携帯情報端末2に表示されているキャラクタと対話することにより、携帯情報端末2に所望の処理を行わせることができる。
ここで、ユーザが携帯情報端末2を携帯しながら乗車して車内へ移動した場合を想定する。ユーザは、乗車して車内へ移動すると、キャラクタとの対話の中でエージェントソフトウェアのナビゲーション装置3への転送指示を行う。携帯情報端末2は、ユーザからのエージェントソフトウェアの転送指示を受付けると、転送先であるナビゲーション装置3を認証し(ステップS5)、転送先であるナビゲーション装置3は、転送元である携帯情報端末2から認証指示を受付けると、転送元である携帯情報端末2を認証する(ステップT1)。
そして、携帯情報端末2は、転送先であるナビゲーション装置3との認証結果が正であると、エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを近距離無線通信部10からナビゲーション装置3へ近距離無線通信により送信し、キャラクタの表示を送信データ量に基づいて制御する(ステップS6)。これに伴って、ナビゲーション装置3は、転送元である携帯情報端末2との認証結果が正であると、エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを携帯情報端末2から近距離無線通信により受信し、キャラクタの表示を受信データ量に基づいて制御する(ステップT2)。
具体的に説明すると、図6に示すように、転送元の携帯情報端末2では、ナビゲーション装置3へのデータの送信開始から時間が経過するにしたがって、つまり、ナビゲーション装置3への送信データ量の累積が大きくなるにしたがって、キャラクタが表示画面から消えていくように表示させ、一方、転送先のナビゲーション装置3では、携帯情報端末2からのデータの受信開始から時間が経過するにしたがって、つまり、携帯情報端末2からの受信データ量の累積が大きくなるにしたがって、キャラクタが表示画面に表れてくるように表示させる。
ナビゲーション装置3は、携帯情報端末2からのエージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンの転送が完了すると、その転送されたエージェントソフトウェアをプラットフォーム上で実行することにより、キャラクタをディスプレイに表示させながらユーザと対話する(ステップT3)。そして、ナビゲーション装置3は、ユーザとの対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識し(ステップT4)、その対話内容が反映されたスクリプトを作成し(ステップT5)、その作成されたスクリプトを実行して所定処理を行う(ステップT6)。これにより、ユーザは、あたかもナビゲーション装置3に表示されているキャラクタと対話することにより、ナビゲーション装置3に所望の処理を行わせることができる。
以上に説明した一連の処理により、ユーザは、携帯情報端末2を携帯しながら乗車した場合には、エージェントソフトウェアを携帯情報端末2からナビゲーション装置3へ転送させることにより、携帯情報端末2がエージェントソフトウェアを実行するのと同様にしてナビゲーション装置3にエージェントソフトウェアを実行させることができる。つまり、ユーザは、例えば「電話帳を見せてくれ」という命令文を携帯情報端末2に対して発すると、携帯情報端末2に記憶されている電話帳を見ることができ、同一の「電話帳を見せてくれ」という命令文をナビゲーション装置3に対して発すると、ナビゲーション装置3に記憶されている電話帳を見ることができる。
ところで、以上は、ナビゲーション装置3がキャラクタを例えばセンターコンソール付近に配置されている表示装置に表示させる場合を説明したが、図7に示すように、ナビゲーション装置3がキャラクタをフロントウィンドウに表示させても良く、その場合、ナビゲーション装置3が行う処理の内容に応じてキャラクタの表示を変化させても良い。具体的に説明すると、ナビゲーション装置3がユーザからの指示にしたがって経路案内を行う場合に、車両の案内方向が直進方向であれば、頭部が真上方向へ向くようにキャラクタの表示を変化させたり、車両の案内方向が右折方向であれば、頭部が右上方向へ向くようにキャラクタの表示を変化させたり、車両の案内方向が左折方向であれば、頭部が左上方向へ向くようにキャラクタの表示を変化させたりすることにより、車両の案内方向をユーザに意識させても良い。
(2)ユーザがエージェントソフトウェアを携帯情報端末2からオーディオ機器4へ転送
させる場合
次に、「ユーザがエージェントソフトウェアを携帯情報端末2からオーディオ機器4へ転送させる場合」について、図8及び図9を参照して説明する。
させる場合
次に、「ユーザがエージェントソフトウェアを携帯情報端末2からオーディオ機器4へ転送させる場合」について、図8及び図9を参照して説明する。
ここでは、ユーザが携帯情報端末2を携帯しながら帰宅して宅内へ移動した場合を想定する。ユーザは、帰宅して宅内へ移動すると、キャラクタとの対話の中でエージェントソフトウェアのオーディオ機器4への転送指示を行う。携帯情報端末2は、ユーザからのエージェントソフトウェアの転送指示を受付けると、転送先であるオーディオ機器4を認証し(ステップS11)、転送先であるオーディオ機器4は、転送元である携帯情報端末2から認証指示を受付けると、転送元である携帯情報端末2を認証する(ステップU1)。
そして、携帯情報端末2は、転送先であるオーディオ機器4との認証結果が正であると、エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを近距離無線通信部10からオーディオ機器4へ近距離無線通信により送信し、キャラクタの表示を送信データ量に基づいて制御する(ステップS6)。これに伴って、オーディオ機器4は、転送元である携帯情報端末2との認証結果が正であると、エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを携帯情報端末2から近距離無線通信により受信し、キャラクタの表示を受信データ量に基づいて制御する(ステップU2)。
オーディオ機器4は、携帯情報端末2からのエージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンの転送が完了すると、その転送されたエージェントソフトウェアをプラットフォーム上で実行することにより、キャラクタをディスプレイに表示させながらユーザと対話する(ステップU3)。そして、オーディオ機器4は、ユーザとの対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識し(ステップU4)、その対話内容が反映されたスクリプトを作成し(ステップU5)、その作成されたスクリプトを実行して所定処理を行う(ステップU6)。これにより、ユーザは、あたかもオーディオ機器4に表示されているキャラクタと対話することにより、オーディオ機器4に所望の処理を行わせることができる。
以上に説明した一連の処理により、ユーザは、携帯情報端末2を携帯しながら帰宅した場合には、エージェントソフトウェアを携帯情報端末2からオーディオ機器4へ転送させることにより、携帯情報端末2がエージェントソフトウェアを実行するのと同様にしてオーディオ機器4にエージェントソフトウェアを実行させることができる。つまり、ユーザは、例えば「時刻を教えてくれ」という命令文を携帯情報端末2に対して発すると、携帯情報端末2に表示される時刻情報から時刻を知ることができ、同一の「時刻を教えてくれ」という命令文をオーディオ機器4に対して発すると、オーディオ機器4に表示される時刻情報から時刻を知ることができる。
ところで、以上は、エージェントソフトウェアが携帯情報端末2からオーディオ機器4へ転送される場合を説明したが、図9に示すように、エージェントソフトウェアが携帯情報端末2からホームサーバ51へ転送され、エージェントソフトウェアがホームサーバ51を中心として冷蔵庫52や洗濯機52や電子レンジ53などの家電機器に転送される構成であっても良い。尚、この場合も、エージェントソフトウェアが転送されることに伴って、ホームサーバ51、冷蔵庫52、洗濯機52及び電子レンジ53のディスプレイにキャラクタが表示されることになる。
また、上記した(1)及び(2)の構成において、エージェントソフトウェアの転送の態様として、エージェントソフトウェアの転送元でエージェントソフトウェアが消失する態様であれば、ユーザは、エージェントソフトウェアの転送先の機器としか対話することができず、つまり、同一時刻でエージェントソフトウェアの転送元である携帯情報端末2との対話とエージェントソフトウェアの転送先であるナビゲーション装置3やオーディオ機器4との対話とを同時に行うことができない。
これに対して、エージェントソフトウェアの転送元でエージェントソフトウェアが消失しない(残留する)態様であれば、ユーザは、エージェントソフトウェアの転送先の機器のみならずエージェントソフトウェアの転送元の機器とも対話することができ、つまり、同一時刻でエージェントソフトウェアの転送元である携帯情報端末2との対話とエージェントソフトウェアの転送先であるナビゲーション装置3やオーディオ機器4との対話とを同時に行うことができる。
以上に説明したように本実施形態によれば、ナビゲーション装置3やオーディオ機器4において、携帯情報端末2からエージェントソフトウェア及び音声認識エンジンが転送されると、その転送されたエージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うように構成したので、同一のエージェントソフトウェアを携帯情報端末2やナビゲーション装置3やオーディオ機器4で共通して使用することができる。
すなわち、ユーザは、携帯情報端末2とナビゲーション装置3やオーディオ機器4との間でエージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを転送させることにより、携帯情報端末2に対する特定の命令文とナビゲーション装置3やオーディオ機器4に対する特定の命令文とを区別する必要はなく、同一の特定の命令文を発することにより、携帯情報端末2とナビゲーション装置3やオーディオ機器4との双方に対して同一の処理を行わせることができる。つまり、ユーザは、携帯情報端末2を操作する手順と同一の手順にしたがってナビゲーション装置3やオーディオ機器4を使用することができ、これにより、ヒューマンインタフェースを向上させることができ、利便性を高めることができる。
本発明は、上記した実施形態にのみ限定されるものではなく、以下のように変形または拡張することができる。
第1の電子機器として例えば携帯電話機などの他の機器を適用する構成であっても良いし、第2の電子機器として例えばハンズフリー装置などの他の車載装置や例えばエアコンなどの他の家電機器を適用する構成であっても良い。
キャラクタは、人間の形状を表すものに限らず、犬や猫などの動物の形状を表すものであっても良い。また、キャラクタは、装置や機器の種類に応じて異なる形状であっても良いし、ユーザが指定した形状であっても良い。
スクリプトを記憶しておくことにより、位置や時刻を判断基準としてスクリプトを再実行する、つまり、所定位置や所定時刻であるときに所定スクリプトを自動的に繰返して実行する構成であっても良い。
エージェントソフトウェアが転送された旨をキャラクタの表示によりユーザに視覚的に知らせる構成に限らず、音声情報によりユーザに聴覚的に知らせる構成であっても良い。
第1の電子機器として例えば携帯電話機などの他の機器を適用する構成であっても良いし、第2の電子機器として例えばハンズフリー装置などの他の車載装置や例えばエアコンなどの他の家電機器を適用する構成であっても良い。
キャラクタは、人間の形状を表すものに限らず、犬や猫などの動物の形状を表すものであっても良い。また、キャラクタは、装置や機器の種類に応じて異なる形状であっても良いし、ユーザが指定した形状であっても良い。
スクリプトを記憶しておくことにより、位置や時刻を判断基準としてスクリプトを再実行する、つまり、所定位置や所定時刻であるときに所定スクリプトを自動的に繰返して実行する構成であっても良い。
エージェントソフトウェアが転送された旨をキャラクタの表示によりユーザに視覚的に知らせる構成に限らず、音声情報によりユーザに聴覚的に知らせる構成であっても良い。
図面中、1は電子機器操作システム、2は携帯情報端末(第1の電子機器、携帯端末)、3はナビゲーション装置(第2の電子機器、車載装置)、4はオーディオ機器(第2の電子機器、家電機器)である。
Claims (10)
- エージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行う第1の電子機器と、
エージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行う第2の電子機器と、
を具備したキャラクタ表示を利用した電子機器操作システムであって、
前記第1の電子機器は、エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを前記第2の電子機器へ転送し、
前記第2の電子機器は、前記第1の電子機器からエージェントソフトウェア及び音声認識エンジンが転送されると、その転送されたエージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うことを特徴とするキャラクタ表示を利用した電子機器操作システム。 - 請求項1に記載したキャラクタ表示を利用した電子機器操作システムにおいて、
前記第1の電子機器は、音声認識エンジンにおける音声認識の精度を更新する機能を有することを特徴とするキャラクタ表示を利用した電子機器操作システム。 - 請求項1または2に記載したキャラクタ表示を利用した電子機器操作システムにおいて、
前記第1の電子機器は、エージェントソフトウェアを前記第2の電子機器へ転送している途中で当該エージェントソフトウェアに対応するキャラクタの表示を変化させ、
前記第2の電子機器は、前記第1の電子機器からエージェントソフトウェアが転送されている途中で当該エージェントソフトウェアに対応するキャラクタの表示を変化させることを特徴とするキャラクタ表示を利用した電子機器操作システム。 - 請求項3に記載したキャラクタ表示を利用した電子機器操作システムにおいて、
前記第1の電子機器は、エージェントソフトウェアに対応するキャラクタの表示をデータ転送量に基づいて変化させ、
前記第2の電子機器は、エージェントソフトウェアに対応するキャラクタの表示をデータ転送量に基づいて変化させることを特徴とするキャラクタ表示を利用した電子機器操作システム。 - 請求項1ないし4のいずれかに記載したキャラクタ表示を利用した電子機器操作システムにおいて、
前記第1の電子機器または前記第2の電子機器は、所定処理の内容に応じてキャラクタの表示を変化させることを特徴とするキャラクタ表示を利用した電子機器操作システム。 - 請求項1ないし5のいずれかに記載したキャラクタ表示を利用した電子機器操作システムにおいて、
前記第1の電子機器及び前記第2の電子機器は、同一時刻では両者のいずれか1つの機器のみが共通のエージェントソフトウェアを実行可能であることを特徴とするキャラクタ表示を利用した電子機器操作システム。 - 請求項1ないし5のいずれかに記載したキャラクタ表示を利用した電子機器操作システムにおいて、
前記第1の電子機器及び前記第2の電子機器は、同一時刻では両者の双方の機器が共通のエージェントソフトウェアを実行可能であることを特徴とするキャラクタ表示を利用した電子機器操作システム。 - 請求項1ないし7のいずれかに記載したキャラクタ表示を利用した電子機器操作システムにおいて、
前記第1の電子機器は、ユーザが携帯可能な携帯端末から構成され、
前記第2の電子機器は、車両に搭載されている車載装置や宅内に設置されている家電機器から構成されていることを特徴とするキャラクタ表示を利用した電子機器操作システム。 - エージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行う電子機器であって、
エージェントソフトウェア及び当該エージェントソフトウェアに対応する音声認識エンジンを他の電子機器へ転送することをする特徴とする電子機器。 - エージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行う電子機器であって、
他の電子機器からエージェントソフトウェア及び音声認識エンジンが転送されると、その転送されたエージェントソフトウェアを実行することにより、擬人化されたキャラクタを表示させながらユーザと対話し、その対話により得られた音声を当該転送された音声認識エンジンにしたがって音声認識して対話内容が反映されたスクリプトを作成し、その作成されたスクリプトを実行して所定処理を行うことを特徴とする電子機器。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004340455A JP2006154926A (ja) | 2004-11-25 | 2004-11-25 | キャラクタ表示を利用した電子機器操作システム及び電子機器 |
US11/283,909 US7539618B2 (en) | 2004-11-25 | 2005-11-22 | System for operating device using animated character display and such electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004340455A JP2006154926A (ja) | 2004-11-25 | 2004-11-25 | キャラクタ表示を利用した電子機器操作システム及び電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006154926A true JP2006154926A (ja) | 2006-06-15 |
Family
ID=36585343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004340455A Pending JP2006154926A (ja) | 2004-11-25 | 2004-11-25 | キャラクタ表示を利用した電子機器操作システム及び電子機器 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7539618B2 (ja) |
JP (1) | JP2006154926A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006285416A (ja) * | 2005-03-31 | 2006-10-19 | Kenwood Corp | 電子機器、アシスタント表示方法、アシスタント表示用プログラム、および、電子機器システム |
JP2010038590A (ja) * | 2008-07-31 | 2010-02-18 | Fujitsu Ten Ltd | 車載ナビゲーション装置、ナビゲーションシステム、及びその制御方法 |
JP2013088535A (ja) * | 2011-10-14 | 2013-05-13 | Vri Inc | 音声制御システム及びプログラム |
JP2013164793A (ja) * | 2012-02-13 | 2013-08-22 | Future Tech Lab Co Ltd | 現代の電子機器の操作に於いて、利用者毎に同期した操作システムを構成して、異種の電子機器間で利用者個々に同一操作を実現するエージェントシステム |
JP2014164325A (ja) * | 2013-02-21 | 2014-09-08 | Fujitsu Ten Ltd | 通信装置、通信システム、通信方法、及び、プログラム |
JP2015052945A (ja) * | 2013-09-06 | 2015-03-19 | 株式会社ユピテル | システム及びプログラム |
JP2015076038A (ja) * | 2013-10-11 | 2015-04-20 | Necパーソナルコンピュータ株式会社 | 情報処理方法、情報処理装置、及びプログラム |
JP2015115879A (ja) * | 2013-12-13 | 2015-06-22 | Kddi株式会社 | 遠隔操作システムならびにそのユーザ端末および視聴機器 |
JP2015194864A (ja) * | 2014-03-31 | 2015-11-05 | Kddi株式会社 | 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末 |
JP2018042254A (ja) * | 2017-10-12 | 2018-03-15 | ソニー株式会社 | 端末装置 |
JP2018152068A (ja) * | 2018-03-12 | 2018-09-27 | 株式会社ユピテル | システム及びプログラム |
JP2018185758A (ja) * | 2017-04-27 | 2018-11-22 | トヨタ自動車株式会社 | 音声対話システムおよび情報処理装置 |
JP2019061341A (ja) * | 2017-09-25 | 2019-04-18 | Kddi株式会社 | 端末装置、プログラム及びシステム |
JP2020008876A (ja) * | 2019-09-24 | 2020-01-16 | 株式会社ユピテル | システム及びプログラム |
JP2020027672A (ja) * | 2019-10-15 | 2020-02-20 | 株式会社ユピテル | 装置及びプログラム |
WO2020075403A1 (ja) * | 2018-10-12 | 2020-04-16 | 日立グローバルライフソリューションズ株式会社 | コミュニケーションシステム |
JP2020144663A (ja) * | 2019-03-07 | 2020-09-10 | 本田技研工業株式会社 | エージェント装置、エージェント装置の制御方法、およびプログラム |
JP2020160832A (ja) * | 2019-03-27 | 2020-10-01 | 本田技研工業株式会社 | エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム |
JP2021018480A (ja) * | 2019-07-17 | 2021-02-15 | 本田技研工業株式会社 | 画像表示装置、画像表示システムおよび画像表示方法 |
JP2022551779A (ja) * | 2020-06-24 | 2022-12-14 | シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド | 車両のインタラクション方法及び装置、電子機器、記憶媒体並びに車両 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4371057B2 (ja) * | 2005-01-11 | 2009-11-25 | トヨタ自動車株式会社 | 車両用エージェント装置、エージェントシステム及びエージェント制御方法 |
US9940626B2 (en) * | 2006-06-23 | 2018-04-10 | At&T Intellectual Property I, L.P. | Methods and apparatus to provide an electronic agent |
CN101669090A (zh) * | 2007-04-26 | 2010-03-10 | 福特全球技术公司 | 情绪提示系统和方法 |
US7983913B2 (en) * | 2007-07-31 | 2011-07-19 | Microsoft Corporation | Understanding spoken location information based on intersections |
JP5068202B2 (ja) * | 2008-03-14 | 2012-11-07 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ナビゲーションシステムおよびプログラム。 |
US8024596B2 (en) * | 2008-04-29 | 2011-09-20 | Bose Corporation | Personal wireless network power-based task distribution |
DE102008025531A1 (de) | 2008-05-28 | 2009-12-03 | Audi Ag | Kommunikationssystem und Verfahren zum Kommunizieren zwischen Kommunikationseinrichtungen und zumindest einem Nutzer eines Kommunikationssystems |
US7995964B2 (en) * | 2008-06-24 | 2011-08-09 | Bose Corporation | Personal wireless network capabilities-based task portion distribution |
US8090317B2 (en) * | 2008-08-01 | 2012-01-03 | Bose Corporation | Personal wireless network user behavior based topology |
US20100088096A1 (en) * | 2008-10-02 | 2010-04-08 | Stephen John Parsons | Hand held speech recognition device |
US20100217883A1 (en) * | 2009-02-20 | 2010-08-26 | Drew Goya | Intelligent software agents for multiple platforms |
US9524638B2 (en) | 2012-02-08 | 2016-12-20 | Qualcomm Incorporated | Controlling mobile device based on sound identification |
US10997226B2 (en) | 2015-05-21 | 2021-05-04 | Microsoft Technology Licensing, Llc | Crafting a response based on sentiment identification |
US11054272B2 (en) * | 2017-05-11 | 2021-07-06 | Disney Enterprises, Inc. | Physical navigation guided via story-based augmented and/or mixed reality experiences |
US10706086B1 (en) * | 2018-03-12 | 2020-07-07 | Amazon Technologies, Inc. | Collaborative-filtering based user simulation for dialog systems |
CN115604623B (zh) * | 2022-10-25 | 2024-03-15 | 苏州井利电子股份有限公司 | 一种智能化车载音响调节系统及方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07182174A (ja) * | 1993-07-08 | 1995-07-21 | General Magic Inc | リモートプログラミングの実施方法 |
JPH11351901A (ja) * | 1998-06-10 | 1999-12-24 | Denso Corp | 制御装置 |
JP2001103566A (ja) * | 1999-09-30 | 2001-04-13 | Toshiba Corp | 携帯型電話機、サーバ、情報処理方法及び情報処理用ソフトウェアを記録した記録媒体 |
JP2001325139A (ja) * | 2000-05-16 | 2001-11-22 | Canon Inc | 情報処理システム、情報処理装置、撮像システム、情報処理方法、記憶媒体 |
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2002163054A (ja) * | 2000-11-29 | 2002-06-07 | Sanyo Electric Co Ltd | ユーザ支援方法、装置およびシステム |
JP2002245014A (ja) * | 2001-02-16 | 2002-08-30 | Nec Corp | 携帯機器向け移動エージェント転送システム及びその方法並びにプログラム |
JP2003008767A (ja) * | 2001-06-26 | 2003-01-10 | Nippon Seiki Co Ltd | アバータ |
JP2003150621A (ja) * | 2001-11-12 | 2003-05-23 | Fujitsu Ltd | 対話ブラウジングシステム |
JP2004521424A (ja) * | 2001-03-30 | 2004-07-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 1対1の直接通信 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4817156A (en) * | 1987-08-10 | 1989-03-28 | International Business Machines Corporation | Rapidly training a speech recognizer to a subsequent speaker given training data of a reference speaker |
JPH09102098A (ja) | 1995-10-03 | 1997-04-15 | Honda Motor Co Ltd | 車両用情報表示装置 |
JPH11259271A (ja) | 1998-03-13 | 1999-09-24 | Aqueous Reserch:Kk | エージェント装置 |
US6249720B1 (en) * | 1997-07-22 | 2001-06-19 | Kabushikikaisha Equos Research | Device mounted in vehicle |
JPH11259446A (ja) | 1998-03-12 | 1999-09-24 | Aqueous Reserch:Kk | エージェント装置 |
JP4085500B2 (ja) * | 1999-01-29 | 2008-05-14 | 株式会社エクォス・リサーチ | 車両状況把握装置、エージェント装置、および、車両制御装置 |
JPWO2002027592A1 (ja) * | 2000-09-29 | 2004-02-05 | ソニー株式会社 | エージェントを用いた情報管理システム |
US20030167167A1 (en) * | 2002-02-26 | 2003-09-04 | Li Gong | Intelligent personal assistants |
-
2004
- 2004-11-25 JP JP2004340455A patent/JP2006154926A/ja active Pending
-
2005
- 2005-11-22 US US11/283,909 patent/US7539618B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07182174A (ja) * | 1993-07-08 | 1995-07-21 | General Magic Inc | リモートプログラミングの実施方法 |
JPH11351901A (ja) * | 1998-06-10 | 1999-12-24 | Denso Corp | 制御装置 |
JP2001103566A (ja) * | 1999-09-30 | 2001-04-13 | Toshiba Corp | 携帯型電話機、サーバ、情報処理方法及び情報処理用ソフトウェアを記録した記録媒体 |
JP2001325139A (ja) * | 2000-05-16 | 2001-11-22 | Canon Inc | 情報処理システム、情報処理装置、撮像システム、情報処理方法、記憶媒体 |
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2002163054A (ja) * | 2000-11-29 | 2002-06-07 | Sanyo Electric Co Ltd | ユーザ支援方法、装置およびシステム |
JP2002245014A (ja) * | 2001-02-16 | 2002-08-30 | Nec Corp | 携帯機器向け移動エージェント転送システム及びその方法並びにプログラム |
JP2004521424A (ja) * | 2001-03-30 | 2004-07-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 1対1の直接通信 |
JP2003008767A (ja) * | 2001-06-26 | 2003-01-10 | Nippon Seiki Co Ltd | アバータ |
JP2003150621A (ja) * | 2001-11-12 | 2003-05-23 | Fujitsu Ltd | 対話ブラウジングシステム |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006285416A (ja) * | 2005-03-31 | 2006-10-19 | Kenwood Corp | 電子機器、アシスタント表示方法、アシスタント表示用プログラム、および、電子機器システム |
JP2010038590A (ja) * | 2008-07-31 | 2010-02-18 | Fujitsu Ten Ltd | 車載ナビゲーション装置、ナビゲーションシステム、及びその制御方法 |
JP2013088535A (ja) * | 2011-10-14 | 2013-05-13 | Vri Inc | 音声制御システム及びプログラム |
JP2013164793A (ja) * | 2012-02-13 | 2013-08-22 | Future Tech Lab Co Ltd | 現代の電子機器の操作に於いて、利用者毎に同期した操作システムを構成して、異種の電子機器間で利用者個々に同一操作を実現するエージェントシステム |
JP2014164325A (ja) * | 2013-02-21 | 2014-09-08 | Fujitsu Ten Ltd | 通信装置、通信システム、通信方法、及び、プログラム |
US9262796B2 (en) | 2013-02-21 | 2016-02-16 | Fujitsu Ten Limited | Communication apparatus |
JP2015052945A (ja) * | 2013-09-06 | 2015-03-19 | 株式会社ユピテル | システム及びプログラム |
JP2015076038A (ja) * | 2013-10-11 | 2015-04-20 | Necパーソナルコンピュータ株式会社 | 情報処理方法、情報処理装置、及びプログラム |
JP2015115879A (ja) * | 2013-12-13 | 2015-06-22 | Kddi株式会社 | 遠隔操作システムならびにそのユーザ端末および視聴機器 |
JP2015194864A (ja) * | 2014-03-31 | 2015-11-05 | Kddi株式会社 | 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末 |
JP2018185758A (ja) * | 2017-04-27 | 2018-11-22 | トヨタ自動車株式会社 | 音声対話システムおよび情報処理装置 |
JP2019061341A (ja) * | 2017-09-25 | 2019-04-18 | Kddi株式会社 | 端末装置、プログラム及びシステム |
JP2018042254A (ja) * | 2017-10-12 | 2018-03-15 | ソニー株式会社 | 端末装置 |
JP2018152068A (ja) * | 2018-03-12 | 2018-09-27 | 株式会社ユピテル | システム及びプログラム |
JP7202836B2 (ja) | 2018-10-12 | 2023-01-12 | 日立グローバルライフソリューションズ株式会社 | コミュニケーションシステム |
WO2020075403A1 (ja) * | 2018-10-12 | 2020-04-16 | 日立グローバルライフソリューションズ株式会社 | コミュニケーションシステム |
JP2020061050A (ja) * | 2018-10-12 | 2020-04-16 | 日立グローバルライフソリューションズ株式会社 | コミュニケーションシステム |
JP2020144663A (ja) * | 2019-03-07 | 2020-09-10 | 本田技研工業株式会社 | エージェント装置、エージェント装置の制御方法、およびプログラム |
JP7169921B2 (ja) | 2019-03-27 | 2022-11-11 | 本田技研工業株式会社 | エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム |
US11518399B2 (en) | 2019-03-27 | 2022-12-06 | Honda Motor Co., Ltd. | Agent device, agent system, method for controlling agent device, and storage medium |
JP2020160832A (ja) * | 2019-03-27 | 2020-10-01 | 本田技研工業株式会社 | エージェント装置、エージェントシステム、エージェント装置の制御方法、およびプログラム |
JP2021018480A (ja) * | 2019-07-17 | 2021-02-15 | 本田技研工業株式会社 | 画像表示装置、画像表示システムおよび画像表示方法 |
JP2020008876A (ja) * | 2019-09-24 | 2020-01-16 | 株式会社ユピテル | システム及びプログラム |
JP2020027672A (ja) * | 2019-10-15 | 2020-02-20 | 株式会社ユピテル | 装置及びプログラム |
JP2022551779A (ja) * | 2020-06-24 | 2022-12-14 | シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド | 車両のインタラクション方法及び装置、電子機器、記憶媒体並びに車両 |
JP7302005B2 (ja) | 2020-06-24 | 2023-07-03 | シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド | 車両のインタラクション方法及び装置、電子機器、記憶媒体並びに車両 |
Also Published As
Publication number | Publication date |
---|---|
US7539618B2 (en) | 2009-05-26 |
US20060129637A1 (en) | 2006-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006154926A (ja) | キャラクタ表示を利用した電子機器操作システム及び電子機器 | |
CN110998720B (zh) | 话音数据处理方法及支持该方法的电子设备 | |
JP6447578B2 (ja) | 音声対話装置および音声対話方法 | |
JP5234160B2 (ja) | 車両用装置および情報表示システム | |
US7158871B1 (en) | Handwritten and voice control of vehicle components | |
CN105222797B (zh) | 利用口授和部分匹配搜索的导航系统的系统和方法 | |
US20120253823A1 (en) | Hybrid Dialog Speech Recognition for In-Vehicle Automated Interaction and In-Vehicle Interfaces Requiring Minimal Driver Processing | |
JP5613335B2 (ja) | 音声認識システム、認識辞書登録システム及び音響モデル識別子系列生成装置 | |
CN110308886B (zh) | 提供与个性化任务相关联的声音命令服务的系统和方法 | |
CN111919248A (zh) | 用于处理用户发声的系统及其控制方法 | |
CN104681025B (zh) | 利用语音识别的命令执行系统及其工作方法 | |
KR102629796B1 (ko) | 음성 인식의 향상을 지원하는 전자 장치 | |
JP2010130223A (ja) | 音声操作システムおよび音声操作方法 | |
JP2014106523A (ja) | 音声入力対応装置及び音声入力対応プログラム | |
JP2004214895A (ja) | 通信補助装置 | |
CN111667824A (zh) | 智能体装置、智能体装置的控制方法及存储介质 | |
JP2015028566A (ja) | 応答制御システム、車載器、およびセンター | |
JP4718246B2 (ja) | 業務支援システムおよび業務支援方法 | |
JP2014062944A (ja) | 情報処理装置 | |
CN108806675B (zh) | 语音输入输出装置、无线连接方法、语音对话系统 | |
WO2012174515A1 (en) | Hybrid dialog speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same | |
KR20190074344A (ko) | 대화 시스템 및 대화 처리 방법 | |
JP5610283B2 (ja) | 外部機器制御装置、その外部機器制御方法及びプログラム | |
CN114758651A (zh) | 语音信号处理方法及装置 | |
JP2006184103A (ja) | ナビゲーション装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090702 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090901 |