JP7077375B2 - 応答システム - Google Patents

応答システム Download PDF

Info

Publication number
JP7077375B2
JP7077375B2 JP2020156390A JP2020156390A JP7077375B2 JP 7077375 B2 JP7077375 B2 JP 7077375B2 JP 2020156390 A JP2020156390 A JP 2020156390A JP 2020156390 A JP2020156390 A JP 2020156390A JP 7077375 B2 JP7077375 B2 JP 7077375B2
Authority
JP
Japan
Prior art keywords
user
response
character
voice
selection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020156390A
Other languages
English (en)
Other versions
JP2021002062A (ja
Inventor
康 福田
優 西島
隆彦 吉田
敏一 吉村
英満 南田
佳代 福田
武史 河津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2020156390A priority Critical patent/JP7077375B2/ja
Publication of JP2021002062A publication Critical patent/JP2021002062A/ja
Application granted granted Critical
Publication of JP7077375B2 publication Critical patent/JP7077375B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザの所定の行為に対する応答動作を機器に実行させる応答システム等に関する。
ユーザの所定の行為に対する応答動作を機器に実行させる応答システムが従来から知られている。例えば、下記の特許文献1には、電子機器のコントロールにおいてユーザをサポートするエージェントシステムが開示されている。このシステムでは、音声で入力されたユーザの指示をサーバに送り、サーバが対応動作を導き出して、端末がサーバからの動作指示に基づいてキャラクタの動作を画面に表示する。
特開2013-164793号公報(2013年8月22日公開)
しかしながら、ユーザの所定の行為に対する応答動作を機器に実行させる応答システムには、改善の余地がある。本発明は、前記の問題点に鑑みてなされたものであり、その目的は、従来よりも改善された応答システム等を実現することにある。
上記の課題を解決するために、本発明に係る応答システムは、ユーザの行為に対する応答動作を実行可能な複数の機器と、該機器による応答動作を制御するサーバとを含む応答システムであって、上記サーバは、複数の上記機器の中から上記応答動作を実行させる応答機器を選択する機器選択部と、複数のキャラクタの中から上記機器選択部が選択した機器に上記応答動作を実行させるキャラクタを選択するキャラクタ選択部と、上記キャラクタ選択部が選択したキャラクタにて上記機器選択部が選択した応答機器に応答動作を実行させるキャラクタ制御部と、を含み、上記キャラクタ制御部は、上記キャラクタ選択部が選択したキャラクタにて上記機器選択部が選択した応答機器に応答動作を実行させている間は、上記キャラクタにて上記応答機器以外の機器の応答動作を実行させない、構成である。
本発明に係る他の応答システムは、ユーザの行為に対する応答動作を実行可能な複数の機器と、該機器による応答動作を制御するサーバとを含む応答システムであって、複数の上記機器は、表示部を備え、上記サーバは、複数の上記機器の中から上記応答動作を実行させる応答機器を選択する機器選択部と、複数のキャラクタの中から上記機器選択部が選択した機器に上記応答動作を実行させるキャラクタを選択するキャラクタ選択部と、上記キャラクタ選択部が選択したキャラクタにて上記機器選択部が選択した応答機器を実行させると共に、上記キャラクタ選択部が選択したキャラクタに対応したシンボルを、上記機器選択部が選択した応答機器の表示部に表示させるキャラクタ制御部と、を含み、上記キャラクタ制御部は、上記キャラクタ選択部が選択したキャラクタにて上記機器選択部が選択した応答機器の応答動作を実行させている間は、上記キャラクタに対応したシンボルを、上記応答機器の表示部に表示させ、当該応答機器以外の機器の表示部に表示させない、構成である。
また、上記の課題を解決するために、本発明に係る応答システムは、ユーザの所定の行為に対する応答動作を実行可能な複数の機器と、該機器による応答動作を制御するサーバとを含む応答システムであって、上記サーバは、複数の上記機器の中から上記応答動作を実行させる応答機器を選択し、上記サーバが選択した上記応答機器は、上記サーバの制御に従って、上記ユーザに応じた所定のキャラクタにて上記応答動作を実行し、上記サーバは、上記ユーザの所在に応じて、複数の上記機器の中から上記応答動作を実行させる応答機器を選択し、複数の上記機器には、携帯型の機器と据え置き型の機器とが含まれており、上記サーバは、上記ユーザが上記据え置き型の機器が設置されているエリアに居ることが検出された場合には、該据え置き型の機器を上記応答機器として選択する、構成である。
本発明の上記各態様によれば、従来よりも改善された応答システムや機器を実現することができるという効果を奏する。
本発明の実施形態1に係るサーバおよび機器の要部構成の一例を示すブロック図である。 上記サーバおよび上記機器を含む執事提供システムの概要を示す図である。 キャラクタ管理情報の一例を示す図である。 機器管理情報の一例を示す図である。 執事を呼び出すユーザの発話を、2つの機器が検出した場合に、サーバがユーザの発話に応答させる機器を選択した例を示す図である。 執事を呼び出すユーザの発話を複数の機器が検出し、検出した各発話における音声の音量に差異があった場合の処理の一例を示すフローチャートである。 執事を呼び出すユーザの発話を複数の機器が検出し、検出した各発話における音声の音量に差異がなかった場合の処理の一例を示すフローチャートである。 照明装置の稼働状態に応じて、発話させる機器を選択する例を示す図である。 執事の提供先の機器を変更した例を示す図である。 2人のユーザからの執事の呼び出しを検出したサーバが、一方のユーザの執事により機器に発話させる例を示す図である。 ユーザAおよびユーザBが執事を呼び出す発話を同時に検出し、検出した各発話における音声の音量に差異があった場合の処理の一例を示すフローチャートである。 ユーザAおよびユーザBが執事を呼び出す発話を同時に検出し、検出した各発話における音声の音量に差異がなかった場合の処理の一例を示すフローチャートである。 ユーザAに対応する執事aに、ユーザCへのお遣いを行わせた例を示す図である。 執事に人探しを行わせた例を示す図である。 ユーザの嗜好を学習する処理の一例を示すフローチャートである。
〔実施形態1〕
本発明の一実施形態について図1~図15に基づいて説明する。まず、図2に基づいて本実施形態に係る執事提供システム(応答システム)100の概要を説明する。執事提供システム100は、ユーザに応じたキャラクタを有する仮想的な執事(以下、単に執事と記載する)により、該ユーザに情報を提供したり、該ユーザによる機器の操作をサポートしたりするサービスを提供するシステムである。
〔システムの概要〕
図2に示す執事提供システム100は、機器2a~2eを含む。なお、機器2a~2eを区別する必要がない場合には、単に機器2と記載する。機器2は、ユーザの所定の行為に対する応答動作を実行可能な機器である。そして、執事提供システム100は、ユーザが所定の行為を行った場合に、クラウド上の各種サービスにより、該ユーザの執事に応じた応答動作を機器2に実行させる。これにより、ユーザは機器2を介して自身の執事と対話したり、執事によって機器2の動作制御を行ったりすることができる。
なお、以下では、上記所定の行為および上記応答動作が音声による発話である例を説明するが、上記所定の行為および上記応答動作は、音声による発話に限られない。上記所定の行為は、ユーザが実行可能な行為であり、かつ機器2またはクラウド上のサービスにより検出可能な行為であればよい。また、上記応答動作は、機器2が実行可能な動作であればよい。
機器2a~2eのうち、機器2aは、ユーザと執事とのインターフェースとしての機能を主機能とする装置である。一方、機器2b、2c、および2eは家庭内の電気機器、すなわち家電である。具体的には、機器2bは空気調和機(エアコン)、機器2cは冷蔵庫、機器2eは洗濯機である。また、機器2dは、携帯型の端末装置であり、具体的にはスマートフォンである。機器2b~2eはユーザと執事とのインターフェースとしての機能が副機能である。機器2a~2c、2eは、家庭内のネットワーク(例えば家庭内LAN:Local Area Network)に接続されており、機器2a~2c、2e間で相互に通信することが可能である。また、機器2a~2c、2eは、AP(アクセスポイント)を介して家庭外のネットワークに接続することが可能である。機器2dは、APを介して家庭内外のネットワークに接続することが可能であると共に、例えばBluetooth(登録商標)等を利用した近距離通信により、機器2a~2c、2eと直接に通信することも可能である。
クラウド上には、執事提供サービス、外部情報サービス、音声データ作成サービス、および音声認識サービスが存在している。これらのサービスは、インターネット等の通信ネットワークを介して利用することができると共に、携帯電話網の基地局を介して利用することもできる。執事提供サービスは、ユーザに執事を提供するサービスであり、執事提供システム100の中核となるサービスである。外部情報サービスは、外部情報を提供するサービスであり、執事によってユーザに外部情報を提供する際に利用される。音声データ作成サービスは、音声データを作成するサービスであり、執事の発話音声を作成する際に利用される。音声認識サービスは、ユーザの発した音声を音声認識して、その結果を出力するサービスであり、執事提供サービスにおいてユーザの発話内容に応じた処理を実行するために利用される。
執事提供システム100を利用するユーザは、執事を利用する際、機器2に向かって執事を呼び出すメッセージを発話すればよい。ユーザの発話した音声は、機器2を介して執事提供サービスに送られる。次に、執事提供サービスは、ユーザの音声の音声認識結果から、執事の呼び出しが行われたと判定し、ユーザに応じたキャラクタの執事の音声で機器2に発話させる。上記の通り、音声認識は音声認識サービスを利用して行うことができ、ユーザに応答するための音声は音声データ作成サービスを利用して作成することができる。
また、執事の応答に利用される機器(応答機器)2が表示部を備えている場合、執事提供システム100は、表示部に執事のシンボルとして予め設定された画像を表示してもよい。これにより、執事が応答していることをユーザに明示的に示すことができる。例えば、図2の例では、機器2aが表示部26を備えている。そして、この表示部26には、シンボル30aおよび30bが表示されている。シンボル30aおよび30bは形状が何れも環状であり同形状であるが、模様が相違している。また、機器2dの表示部にはシンボル30cが表示されている。シンボル30cは球状のシンボルである。これらシンボル30a~30cは、それぞれ別の執事に対応しており、色または形状の少なくとも何れかが相違している。なお、シンボル30a~30cを区別する必要がない場合には、単にシンボル30と記載する。
〔要部構成〕
次に、執事提供システム100に含まれるサーバ1および機器2の構成を図1に基づいて説明する。図1は、サーバ1、機器2a、および機器2bの要部構成の一例を示すブロック図である。なお、図2の機器2c、2e、後述する図8の機器2f、および後述する図15の機器2gは何れも機器2bと同様の構成である。また、図2の機器2dは、図1の機器2bと同様の構成を備えていると共に、表示部26と表示制御部203を備えている。
(サーバの構成)
サーバ1は、執事提供サービスを提供するサーバであり、サーバ1の各部を統括して制御する制御部10、サーバ1が使用する各種データを記憶する記憶部11、およびサーバ1が他の装置と通信するための通信部12を備えている。また、制御部10には、キャラクタ制御部101a、キャラクタ制御部101b、キャラクタ選択部102、機器選択部103、および音声解析部104が含まれている。なお、キャラクタ制御部101aとキャラクタ制御部101bを区別する必要のないときは、キャラクタ制御部101と記載する。そして、記憶部11には、キャラクタ管理情報111および機器管理情報112が格納されている。
キャラクタ制御部101は、ユーザに応じた所定のキャラクタにて機器2に応答動作を実行させるものであり、キャラクタ制御部101aと、キャラクタ制御部101bは、それぞれ異なるユーザに応じた異なるキャラクタにて機器2に応答動作を実行させる。具体的には、キャラクタ制御部101aは、執事aのキャラクタにて機器2に応答動作を実行させ、キャラクタ制御部101bは、執事bのキャラクタにて機器2に応答動作を実行させる。執事aおよび執事bのキャラクタがどのようなキャラクタであるかは、キャラクタ管理情報111にて規定されている。キャラクタ制御部101は、人工知能により実現することもできる。この場合、各キャラクタ制御部101は、各ユーザに専用の人工知能であるとも言える。なお、サーバ1は、キャラクタ制御部101を3つ以上備えていてもよい。
キャラクタ選択部102は、機器2に応答動作を実行させる際のキャラクタを何れの執事のキャラクタとするかを選択する。より詳細には、キャラクタ選択部102は、音声解析部104が取得した音声解析結果に従って発話したユーザを識別して、該ユーザに対応する執事のキャラクタを選択する。例えば、ユーザAと執事aが対応付けられている場合、キャラクタ選択部102は、上記音声解析結果から、発話したユーザがユーザAであると判定した場合には、執事aのキャラクタを選択する。そして、キャラクタ選択部102は、選択したキャラクタに対応するキャラクタ制御部101を有効化する。
機器選択部103は、複数の機器2の中から、応答動作を実行させる機器(応答機器)2を選択する。機器選択部103がどのような機器2を選択候補とし、その選択候補の中からどのような基準で機器2を選択するかについては後述する。
音声解析部104は、ユーザの発話した音声の音声解析結果を取得する。音声解析は、音声認識サービス(図2参照)に行わせてもよいし、音声解析部104が行ってもよい。音声解析結果には、発話された語句を示す語句情報や、発話者の声紋を示す声紋情報、音声の音量を示す音量情報等が含まれていてもよい。
キャラクタ管理情報111は、各キャラクタ制御部101が応答動作を実行させる際のキャラクタを管理するための情報であり、各キャラクタがどのようなキャラクタであるかを示す情報を含む。キャラクタ管理情報111の詳細は図3に基づいて後述する。
機器管理情報112は、機器2を管理するための情報である。機器管理情報112の詳細は図4に基づいて後述する。
(機器の構成)
機器2aは、機器2aの各部を統括して制御する制御部20a、機器2aが使用する各種データを記憶する記憶部21、および機器2aが他の装置と通信するための通信部22を備えている。また、ユーザの音声入力を受け付ける音声入力部23、音声を出力する音声出力部24、機器2aの周囲のユーザを検出するユーザ検出部25、および画像を表示する表示部26を備えている。そして、制御部20には、音声取得部(通知部)201、音声出力制御部(応答部)202、および表示制御部(応答部)203が含まれている。
音声取得部201は、音声入力部23を介してユーザの発話した音声(正確には音声入力部23がユーザの発話した音声を電気信号に変換することによって生成された音声データ)を取得する。そして、音声取得部201は、取得した音声データを、通信部22を介してサーバ1に送信する。つまり、音声取得部201は、ユーザの発話を検出して、ユーザの発話が行われたことをサーバ1に通知する。なお、音声取得部201は、ユーザ検出部25がユーザを検出している期間に、音声入力部23を動作させて音声を取得し、ユーザ検出部25がユーザを検出していない期間には音声入力部23を動作停止させてもよい。
音声出力制御部202は、サーバ1の制御に従って、ユーザに応じた所定のキャラクタにて、該ユーザの発話に応答する音声を音声出力部24に出力させる。つまり、音声出力制御部202は、ユーザの発話に対する応答動作を該ユーザに応じた所定のキャラクタにて実行する。出力させる音声(正確には音声データ)は、通信部22を介してサーバ1または音声データ作成サービス(図2参照)から取得することができる。なお、音声出力制御部202は、出力させる音声を生成してもよいし、出力させる音声を予め記憶部21に記憶しておき、記憶部21から読み出した音声を音声出力部24に出力させてもよい。
表示制御部203は、表示部26に画像を表示させる。例えば、表示制御部203は、サーバ1の指示に従って、シンボル30(図2参照)を表示部26に表示させる。シンボル30は、ユーザ毎の所定のキャラクタに固有の画像であるから、表示制御部203も、音声出力制御部202と同様に、ユーザの発話に対する応答動作を該ユーザに応じた所定のキャラクタにて実行していると言える。シンボル30の画像は、サーバ1から通信部22を介して取得することができる。なお、シンボル30の画像を予め記憶部21に記憶しておき、記憶部21から読み出したシンボル30の画像を表示部26に表示させてもよい。
一方、機器2bは、表示部26を備えておらず、機能部27を備えている点、ユーザ検出部25を備えていない点、および制御部20aの代わりに制御部20bを備えている点で機器2aと相違している。また、制御部20bは、表示制御部203を含まず、動作制御部(応答部)204を含む点が制御部20aとの相違点である。機能部27は、機器2bの主機能を実現するためのものである。例えば、図2の機器2bは、空気調和機(エアコン)であるから、機能部27は冷暖房等の機能を実現するためのハードウェアである。そして、動作制御部204は、機能部27の動作を制御するものである。動作制御部204も、音声出力制御部202と同様に、ユーザの発話に対する応答動作を該ユーザに応じた所定のキャラクタにて実行してもよい。例えば、機器2bが人型のロボットであり、機能部27に該ロボットの手足等を駆動する駆動部が含まれている場合、動作制御部204はキャラクタに応じて異なる動きで機能部27の駆動部を動作させてもよい。
なお、図2の機器2dのように、複数の通信手段を備えた機器2であれば、各通信手段に対応する通信部(ネットワークインターフェースコントローラ)をそれぞれ備えていてもよい。例えば、Wi-Fi(登録商標)により通信するための通信部と、Bluetooth(登録商標)により通信するための通信部とを備えていてもよい。また、図1の機器2aはユーザ検出部25を備えているが、ユーザ検出部25を備えていることは必須ではない。
〔キャラクタ管理情報〕
キャラクタ管理情報111は、例えば図3のような情報であってもよい。図3は、キャラクタ管理情報111の一例を示す図である。図3のキャラクタ管理情報111は、キャラクタの識別子であるキャラクタIDに対し、当該キャラクタのキャラクタ名、音声設定、表示設定、キャラクタ情報、ユーザ名、およびユーザ情報を対応付けた情報である。
キャラクタ制御部101は、これらの情報に従って機器2を動作させる。例えば、図示の例において、キャラクタIDがCHA0001のキャラクタにより機器2を発話させる場合、キャラクタ制御部101は、音声設定に規定されている「女声015」で特定される音声を音声データ作成サービス(図2参照)に作成させる。また、キャラクタ制御部101は、この音声で発話させるメッセージを、キャラクタ情報に規定されている「陽気」に対応するメッセージとする。なお、「陽気」、「クール」等のキャラクタに対応するメッセージは予め定めておけばよく、このメッセージは音声設定とキャラクタとの組み合わせに応じて予め定めておいてもよい。また、キャラクタ制御部101は、シンボル30を機器2に表示させるときには、表示設定に規定された色および形状のシンボル30を表示させる。
さらに、図3のキャラクタ管理情報111には、ユーザ名が含まれている。これにより、発話されたユーザ名から、該ユーザ名に対応するキャラクタを特定することや、機器2に発話させるメッセージにユーザ名を含めること等が可能になる。また、図3のキャラクタ管理情報111には、ユーザ情報が含まれている。ユーザ情報としては、該ユーザ情報に対応付けられているユーザ名のユーザに関連する情報が登録される。例えば、図示の例では、ユーザAのユーザ情報として、冷房設定温度を28℃とした場合に、ユーザAがまだ少し暑いと発話したことを示す情報が登録されている。このようなユーザ情報を参照することにより、ユーザに応じた設定で機器2を動作させたり、ユーザの嗜好に合った発話を機器2に行わせたりすることが可能になる。
〔機器管理情報〕
機器管理情報112は、例えば図4のような情報であってもよい。図4は、機器管理情報112の一例を示す図である。図4の機器管理情報112は、機器2の識別子である機器IDに対し、当該機器の機器名、設置場所、近隣機器、およびユーザ名を対応付けた情報である。設置場所は、機器2が設置されている場所を示し、例えば機器2が設置されている部屋を示す情報を設置場所として登録しておいてもよい。近隣機器は、機器2の近隣に設置されている機器を示している。近隣機器は、機器2であってもよいし、機器2以外の機器であってもよい。例えば、機器2の配置されている部屋に居るユーザが、機器2を見たときに、その視界に入る程度に機器2と近接した機器を近隣機器としてもよい。
これらの情報を参照することにより、機器選択部103は、適切な機器2を選択することができる。例えば、ユーザが機器名を指定して執事を呼び出した場合には、機器選択部103は、機器管理情報112の機器名を参照して、該機器名の機器2を選択することができる。また、詳細は後述するが、機器管理情報112を参照して、1つの部屋につき1つの機器2を選択することや、近隣機器の稼働状態に応じて機器2を選択することや、所定のユーザに対応付けられた機器2を選択すること等も可能である。
〔機器選択の例〕
サーバ1は、ユーザの所定の行為に対する応答動作を実行可能な機器2が複数ある場合、その中から応答動作を実行させる機器2を選択する。これについて、図5に基づいて説明する。図5は、執事を呼び出すユーザの発話を、機器2bおよび機器2cの両方が検出した場合に、サーバ1がユーザの発話に応答させる機器2として機器2bを選択した例を示す図である。
図示の例では、ユーザが、該ユーザの執事である執事aに頼みたいことがある旨の発話をしており、機器2bおよび機器2cの両方がこの発話の音声を検出してサーバ1に送信している。そして、サーバ1は、機器2bから受信した音声と、機器2cから受信した音声とをそれぞれ解析して、機器2bおよび機器2cのうち、ユーザの上記発話に応答させる機器2を選択する。なお、この選択における選択基準については後述する。
図示の例では、サーバ1は、機器2cを選択して、機器2cに発話指示を送信している。そして、機器2cは、この発話指示に従い、執事aのキャラクタにてユーザに応答している。このように、ユーザの声が複数の機器2に検出された場合であっても、そのうち1つによりユーザへの応答が行われるので、ユーザは応答音声を聞き取りやすく、また執事aが複数存在するかのような印象をユーザに与えずに済む。
これに対し、〔先行技術文献〕に記載した特許文献1の技術では、ユーザが音声入力した指示を、複数の端末が検出する場合などは想定されておらず、このような場合にどのような処理を行うべきかについても当然記載されていない。よって、仮に、特許文献1の技術において、ユーザが音声入力した指示を複数の端末が検出したとすれば、各端末において同じキャラクタの動作が表示されて、ユーザが混乱するおそれがある。
〔処理の流れ(複数の機器がユーザの発話を検出した場合)〕
続いて、執事を呼び出すユーザの発話を複数の機器2が検出した場合の処理の流れを図6および図7に基づいて説明する。図6は、執事を呼び出すユーザの発話を複数の機器2が検出し、検出した各発話における音声の音量に差異があった場合の処理の一例を示すフローチャートである。また、図7は、執事を呼び出すユーザの発話を複数の機器2が検出し、検出した各発話における音声の音量に差異がなかった場合の処理の一例を示すフローチャートである。
図6の例では、機器2aの音声取得部201がユーザの発話を検知し(S31)、該発話の音声である音声Aと機器2aの機器IDとをサーバ1に送信する(S32)。同様に、機器2bの音声取得部201がユーザの上記発話を検知し(S51)、該発話の音声である音声Bと機器2bの機器IDとをサーバ1に送信する(S52)。なお、音声Aの元になったユーザの発話と、音声Bの元になったユーザの発話とは、同じ発話である。つまり、ユーザの1つの発話を機器2aが検出して得た音声が音声Aであり、該発話を機器2bが検出して得た音声が音声Bである。
サーバ1は、機器2aが送信した音声Aおよび機器IDを受信する。そして、サーバ1の音声解析部104は、受信した音声Aを解析する(S11)。また、音声解析部104は、機器2bから受信した音声Bについても解析する(S12)。図2に基づいて説明したように、音声の解析は音声認識サービスを利用して行ってもよい。ここでは、音声の内容(音声に含まれる語句)の解析、声紋の解析、および音声の音量の解析を行うとする。
上述のように、音声Aの元になったユーザの発話と、音声Bの元になったユーザの発話とは、同じ発話であるから、S11とS12の解析結果は、音量の解析結果である音量情報を除いて基本的に同一となる。この場合、機器選択部103は、上記音量情報に基づいて音声Aの音量が音声Bの音量よりも大きいか否かを判定する(S13)。
機器選択部103は、音声Aの音量が音声Bの音量よりも大きいと判定した場合(S13でYES)、機器2aを選択する。また、キャラクタ選択部102は、S11の解析結果に基づいて執事を選択し、選択した執事に対応するキャラクタ制御部101を有効化する。例えば、キャラクタ選択部102は、S11における声紋の解析結果から、執事を呼び出したユーザがユーザAであると判定した場合、ユーザAに対応する執事aを制御するキャラクタ制御部101aを有効化する。そして、有効化されたキャラクタ制御部101aは、機器2aを介したユーザとの対話を開始する(S14)。
この後、機器2aの音声出力制御部202は、キャラクタ制御部101aの制御に従って、音声出力部24からユーザに対する発話の音声を出力する(S33)。また、図示していないが、キャラクタ制御部101aは、機器2aに執事aのシンボル30aを表示するように指示してもよく、この指示を受信した機器2aの表示制御部203は表示部26にシンボル30aを表示させてもよい。なお、以下で説明する各例においても、機器2にユーザへの応答を行わせる際にはシンボル30を表示させてもよい。
一方、機器選択部103は、音声Aの音量が音声Bの音量よりも大きくはないと判定した場合(S13でNO)、音声Bの音量が音声Aの音量よりも大きいか否かを判定する(S15)。この判定において、音声Bの音量が音声Aの音量よりも大きいと判定した場合(S15でYES)、機器選択部103は、機器2bを選択する。また、キャラクタ選択部102は、S12の解析結果に基づいてキャラクタを選択する。そして、キャラクタ選択部102が選択したキャラクタに対応するキャラクタ制御部101が、機器2bを介したユーザとの対話を開始する(S16)。この場合、機器2bの音声出力制御部202は、キャラクタ制御部101aの制御に従って、音声出力部24からユーザに対する発話の音声を出力する(S53)。この際にシンボル30aを表示させてもよいことはS33で説明した通りである。
一方、機器選択部103が音声Aの音量と音声Bの音量とに差異がないと判定した場合(S15でNO)、処理は図7のS17に進む。なお、音量の差が所定の下限値未満であれば、音量に差異がないと判定すればよい。図7のS17では、キャラクタ選択部102は、S11またはS12の解析結果に基づいてキャラクタを選択する。そして、キャラクタ選択部102が選択したキャラクタに対応するキャラクタ制御部101aが、機器2aに発話指示を送信する(S17)。この発話指示は、上記選択したキャラクタによる発話を指示するものであり、発話されるメッセージは、機器2aがユーザの意図した機器2であるか否かを問うものである。例えば、上記メッセージは、「機器2aから対応させて頂きますが、よろしいでしょうか?」のようなメッセージであってもよい。
次に、機器2aの音声出力制御部202は、キャラクタ制御部101aの制御に従って、音声出力部24から上記メッセージを音声出力する(S41)。そして、音声取得部201は、上記メッセージに対して回答したユーザの発話を検知し(S42)、この音声と機器2aの機器IDとをサーバ1に送信する(S43)。
サーバ1の音声解析部104は、機器2aから受信した上記音声を解析し(S18)、機器選択部103はこの解析結果に基づいて、選択した機器2aが正しかったか否か、つまり機器2aがユーザの意図した機器2であるか否かを判定する(S19)。例えば、機器選択部103は、ユーザの発話に肯定的な語句が含まれている場合には正しかったと判定し、否定的な語句や他の機器2を指定する語句が含まれている場合には誤りであったと判定してもよい。具体例を挙げれば、機器選択部103は、解析の結果に、「よい」、「正しい」等の語が含まれていた場合には、正しかったと判定してもよい。一方、「違う」、「空気調和機」等の語が含まれていた場合には、誤りであったと判定してもよい。
機器選択部103が、選択した機器2aが正しかったと判定した場合(S19でYES)、キャラクタ制御部101aは、機器2aを介したユーザとの対話を継続する(S20)。一方、機器選択部103は、選択した機器2aは誤りであったと判定した場合(S19でNO)、ユーザに応答させる機器2を機器2bに変更する。この際、キャラクタ制御部101aは、機器2aに執事aのシンボル30aを表示させていた場合には、該シンボル30aの表示を終了させる。この際、キャラクタ制御部101aは、シンボル30aをフェードアウトさせる演出を行ってもよい。これにより、執事aが機器2aから立ち去ったかのような感覚をユーザに与えることができる。また、キャラクタ制御部101aは、機器2bにシンボル30aの表示を指示してもよい。これにより、機器2bが表示部を備えている場合には、該表示部にシンボル30aを表示させることができる。またこの際、キャラクタ制御部101aは、機器2bが備えている表示部にシンボル30aをフェードインさせる演出を行ってもよい。これにより、執事aが機器2bに到来したかのような感覚をユーザに与えることができる。これらの演出は、以下の各例におけるシンボル30の表示開始、および表示終了時にも適用できる。なお、執事aが単体であるとユーザに認識させるため、複数の機器2に同時にシンボル30aが表示されないようにすることが好ましい。
また、機器選択部103は、複数の機器2によって音声が同時に認識された回数が所定回数(例えば5回)以上であるか否かを判定する(S21)。ここで機器選択部103が所定回数以上であると判定した場合(S21でYES)、キャラクタ制御部101aは、執事を呼び出す発話を行う際に、機器2を指定することを薦めるメッセージの発話指示を機器2bに送信する(S22)。そして、機器2bの音声出力制御部202は、キャラクタ制御部101aの制御に従って、音声出力部24から上記メッセージを音声出力する(S61)。
上記メッセージは、例えば「お呼び出しの際に機器名を仰って頂けると嬉しいです」のようなメッセージであってもよい。このようなメッセージを発話させることにより、複数の機器2がユーザの声を検出しやすいような状況(複数の機器2が近接して配置されている、ユーザの声が大きい等)においても、ユーザの意図する機器2を介したユーザとの対話を成立させやすくなる。ユーザが機器名を発話した場合、音声解析により、その機器名の機器2を特定し、該機器2に発話させることができるからである。
一方、機器選択部103が所定回数未満であると判定した場合(S21でNO)、キャラクタ制御部101aは、上記メッセージは発話させることなく、機器2bを介したユーザとの対話を開始する(S23)。なお、図6のS13でYESと判定された場合、およびS15においてYESと判定された場合においても、図7のS21の処理を実行してもよい。そして、所定回数以上であると判定した場合には、上記メッセージを機器2aまたは機器2bに発話させてもよい。
また、ユーザの発話を検出した機器2が3つ以上である場合には、機器選択部103は各機器2が検出した音声の音量情報を参照して、最も大きい音量を示す音量情報に対応する機器2を選択する。この場合、機器選択部103は、音量情報の示す音量が、複数の機器2間で差異がないと判定した場合には、当該複数の機器2の何れかを選択して、S17以降の処理を実行する。
また、上記ではメッセージを機器2に音声出力させる例を説明したが、メッセージをユーザに通知する態様はこの例に限られない。例えば、ユーザの発話した音声を検出した機器2以外の機器(他の機器2であってもよいし、それ以外の機器であってもよい)に上記メッセージを音声出力させてもよい。また、例えば、上記メッセージを機器2または他の機器に表示させることによってユーザに通知してもよい。
〔機器選択の他の例〕
機器選択部103は、機器2と関連する他の機器の稼働状態に応じて、発話させる機器2を選択してもよい。これについて、図8に基づいて説明する。図8は、照明装置の稼働状態に応じて、発話させる機器2を選択する例を示す図である。
図示の例では、室内に照明装置3aおよび照明装置3bが配置されている。そして、照明装置3aが照明するエリアにはテレビジョン受像機である機器2fが配置されており、照明装置3bが照明するエリアには機器2aが配置されている。そして、ユーザは、執事aを呼び出すための発話を行っており、この発話の音声が機器2fを介してサーバ1に送信されると共に、機器2aを介してサーバ1に送信されている。
この例においても、図5の例と同様に、ユーザの1つの発話を複数の機器2が検出しているから、機器選択部103は、何れかの機器2を選択する。具体的には、図8の例では、機器選択部103は、照明装置3aから、該照明装置3aの稼働状態を示す稼働情報を取得すると共に、照明装置3bから、該照明装置3bの稼働状態を示す稼働情報を取得している。図示の例では、照明装置3aは点灯しているから、照明装置3aから取得した稼働情報は点灯中であることを示す情報となる。一方、照明装置3bは点灯していないから、照明装置3bから取得した稼働情報は点灯していないことを示す情報となる。この場合、機器選択部103は、発話させる機器2として、点灯中の照明装置3aが照明するエリアに配置されている機器2fを選択する。これにより、キャラクタ制御部101aは、機器2fにシンボル30aを表示させると共に、ユーザに対して執事aによる発話を行わせる。
なお、機器2が何れの照明装置の照明するエリアに配置されているかは、例えば機器管理情報112に予め登録しておけばよい。また、複数の照明装置が点灯状態にある場合には、点灯した順序や点灯継続時間等に応じて、何れの照明装置の照明するエリアに配置された機器2を選択するかを決定してもよい。例えば、先に点灯した照明装置の照明するエリアに配置された機器2を選択してもよいし、点灯継続時間がより長い照明装置の照明するエリアに配置された機器2を選択してもよい。この他、予め機器2に優先順位を設定しておき、優先順位がより高い機器2を選択してもよい。
この他にも、例えば、テレビジョン受像機や、空気調和機(エアコン、加湿器、除湿器等)のように、稼働時にユーザが近くに居ることが多い機器(機器2であってもよいし他の機器であってもよい)が稼働している場合に、該機器の近隣機器に設定されている機器2を優先して選択してもよい。あるいは、上記のような稼働中の機器と設置場所(設置されている部屋)が同じである機器2を優先して選択してもよい。さらに、機器選択部103は、複数の機器2の稼働状態に応じて機器2を選択してもよい。これにより、稼働中の機器2や、稼働中の機器2の近く、あるいは稼働中の機器2と同じ部屋に配置された機器2を選択することができる。また、例えば充電中の機器2や、ユーザが使用中の機器2を選択対象から除外することもできる。これにより、機器2の充電や、ユーザによる機器2の使用(例えばテレビ番組などの視聴)が、執事による発話で妨げられることを防ぐことができる。
また、機器選択部103は、ユーザの発話内容に応じて機器2を選択してもよい。例えば、ユーザが特に意味のない発話(例えばつぶやき)を行った場合には、ユーザの近くにある機器2を選択してもよい。この場合、例えば、上述の例のように、検出した音声の音量が最も大きかった機器2をユーザの近くにある機器2として選択してもよい。また、ユーザが特に意味のない発話を行った場合には、キャラクタ制御部101は、ユーザに要件を尋ねるメッセージを機器2に発話させてもよいし、要件とは関係のない、ユーザとの対話のための発話を行わせてもよい。
なお、機器選択部103は、ユーザが発話した語句に、用事の依頼に関する所定の語句が含まれていない場合には、その発話を意味のない発話として扱えばよい。上記所定の語句としては、例えば、図13に基づいて後述する例における「伝言」や、図14に基づいて後述する例における「探して」等の他、空気調和機(エアコン、加湿器、除湿器等)を動作させるトリガとなる「暑い」、「寒い」、「乾燥」等が挙げられる。また、「テレビの電源をつけて」等のように、機器2を指定する語句をユーザが発話した場合には、機器選択部103は、その発話を機器2の動作制御を依頼する発話として扱ってもよい。
ユーザが執事に用事を依頼する発話を行った場合には、機器選択部103は、その用事に関連した機器2を選択してもよい。例えば、ユーザが依頼した用事が、家電である機器2に所定の動作を実行させることである場合、当該機器2を選択してもよい。例えば、空気調和機(エアコン)の設定温度の変更を依頼された場合には、空気調和機(エアコン)である機器2bを選択し、テレビジョン受像機の音量変更を依頼された場合には、テレビジョン受像機である機器2fを選択してもよい。依頼した用事に関連した機器2には、ユーザが注目している可能性が高いので、このような機器2を選択することにより、機器2を介したユーザとの対話が成立しやすくなる。なお、ユーザが執事に用事を依頼する発話を行った場合であっても、例えばその用事に関連した機器2を認識することができない等により、そのような機器2選択することができないときには、ユーザの近くにある機器2等を選択してもよい。そして、キャラクタ制御部101は、ユーザに要件を尋ねるメッセージを該機器2に発話させてもよい。
また、機器選択部103は、ユーザの発話を複数の機器2が検出した場合、それら複数の機器2のうち、電源に接続されている機器2を、バッテリで駆動する機器2よりも優先して選択してもよい。これにより、ユーザは、バッテリの消耗を気にすることなく機器2を介して執事と対話することができる。なお、バッテリで駆動する機器であるか、電源に接続して使用する機器であるかは、例えば機器管理情報112に予め記述しておいてもよい。
この他にも、機器選択部103は、例えば、各種センサの検出結果を取得し、該検出結果に基づいて機器2を選択してもよい。機器2の選択に利用可能なセンサとしては、例えば人感センサ、照度センサ、加速度センサ、ドアなどの開閉を検出するセンサ等が挙げられる。このようなセンサは、機器2が備えていてもよいし、他の機器が備えていてもよく、単体で配置されていてもよい。人感センサを利用する場合、該センサにて検出したユーザの近くの機器2を選択することができる。また、照度センサを利用する場合、周囲が明るく、周囲にユーザが居る可能性の高い機器2を選択したり、逆に周囲が暗く、周囲にユーザが居る可能性の低い機器2を選択対象から除外したりすることができる。加速度センサや、ドアなどの開閉を検出するセンサを利用する場合、ユーザが携帯している機器2や、ユーザが操作中である機器2を選択することができる。
また、機器選択部103は、複数種類の情報に基づいて機器2を選択してもよい。例えば、センサの検出結果と、ユーザの発話内容の解析結果との双方に基づいて機器2を選択してもよいし、さらに他の機器の稼働情報についても考慮して機器2を選択してもよい。様々な情報を考慮して選択することにより、より適切な機器2を選択することが可能になる。
なお、上記では、ユーザの発話した音声を検出した機器2を選択候補として、この選択候補の中から機器2を選択する例を説明したが、音声解析結果を用いずに機器2を選択する場合には、ユーザの発話した音声を検出していない機器2も選択候補に含めてもよい。例えば、ユーザの発話した音声を検出した機器2と同じ部屋に配置されている機器2や、ユーザの発話した音声を検出した機器2の近隣機器に設定されている機器2を選択候補に含めてもよい。
〔機器変更の例〕
サーバ1は、執事を提供する対象とする機器2を選択した後で変更することもできる。これについて、図9に基づいて説明する。図9は、執事cの提供先を機器2dから機器2aに変更した例を示す図である。
同図の(a)の例では、ユーザCが機器2dに対して、執事cに明日の天気を問う発話を行っている。そして、サーバ1はこの発話に応じて、機器2dに執事cのシンボル30cを表示させると共に、機器2dに執事cによるメッセージ、具体的には明日の天気をユーザCに通知するメッセージを発話させている。なお、サーバ1は、明日の天気等のように、サーバ1が保有していない情報については、図2に示した外部情報サービスから取得する。
この後、ユーザCが帰宅して家の中で発話すると、同図の(b)に示すように、機器2dは検出した音声をサーバ1に送信する。ここで、上記音声を受信したサーバ1では、機器選択部103が、ユーザCが帰宅したことを検出し、機器2dではなく、家の中に設置されている機器2aを執事cの提供先として選択する。これにより、機器2aが、シンボル30cを表示すると共に、執事cによるメッセージを発話している。つまり、図12の例では、機器選択部103は、ユーザが家の中、すなわち据え置き型の機器2aが設置されているエリアに居ることを検出したときには、執事cの提供先として、携帯型の機器2dよりも、据え置き型の機器2aを優先して選択している。これにより、機器2dのバッテリの消費を抑えることができる、また、ユーザは、機器2dを把持していなくとも執事cとの対話が可能となる。
なお、ユーザが家の中に居ることを判定する手法は特に限定されない。例えば、自宅の位置を予めユーザに登録させておくと共に、機器2dの位置情報をサーバ1に送信させ、該位置情報が示す位置が、予め登録された自宅位置である場合にユーザが家の中に居ると判定してもよい。また、例えば機器2dが家庭内LANに接続されていることを検出した場合や、機器2dが充電器に接続されていることを検出した場合に、ユーザが家の中に居ると判定してもよい。この他にも、機器2aまたは家の中に設置されている他の機器(機器2であってもそれ以外の機器であってもよい)が人感センサ等によりユーザの存在を検出した場合や、ユーザの発話を検出した場合に、ユーザが家の中に居ると判定してもよい。
さらに、機器2dとの無線通信の電波強度が大きい機器2は、機器2dの近くに配置されており、かつこれらの機器の間に電波を遮断する壁等が存在しないと考えられる。このため、家の中に配置されている機器2と機器2dとの無線通信の電波強度が所定値以上となったときに、ユーザが家の中に居ると判定してもよい。また、家の中に複数の機器2が配置されている場合、機器選択部103は、それらの機器2のうち、機器2dとの無線通信の電波強度の大きさが大きい機器2を優先して選択するようにしてもよい。
また、機器選択部103は、機器2を選択して、該機器2による発話が行われた後、該発話に対するユーザの応答が検出されない場合に、機器2を変更してもよい。そして、機器2を変更する場合、所定の優先順位に従って順次機器2を変更してもよい。例えば、機器選択部103は、ユーザが所持している可能性の高い携帯型の機器2を最初に選択し、所定時間が経過してもユーザの応答がなければ、稼働中の機器2を次に選択してもよい。稼働中の機器2が複数存在する場合、テレビジョン受像機等のユーザの注目を集めやすい機器2をまず選択し、次に空気調和機等の目立つ位置に配置されている機器2を選択してもよい。そして、所定数の機器2に発話させてもユーザの応答がなければ、再度携帯型の機器2を選択して、該機器2が再度発話するようにしてもよい。また、優先順位の他の例として、最優先の機器2を稼働中の機器2とし、以下、稼働中の機器2の近隣機器となっている機器2、稼働中の機器2と設置場所(部屋)が同じ機器2、稼働中ではないが目立つ機器2(例えば空気調和機等)といった順位が挙げられる。
〔執事選択の例〕
サーバ1は、複数のユーザからの執事の呼び出しを検出した場合、何れかのユーザの執事を選択して、その執事のキャラクタで機器2に応答させる。これについて、図10に基づいて説明する。図10は、2人のユーザからの執事の呼び出しを検出したサーバ1が、一方のユーザの執事により機器2bに発話させる例を示す図である。
図示の例では、ユーザAは、該ユーザの執事である執事aに冷房運転の開始を指示する発話をしている。一方、ユーザBは、該ユーザの執事である執事bに今日のスケジュールの通知を指示する発話をしている。これらの発話の音声は、何れも機器2bが検出してサーバ1に送信している。そして、サーバ1は、ユーザAの音声と、ユーザBの音声とをそれぞれ解析して、機器2bによる応答の際に適用するキャラクタ(応答キャラクタ)を選択する。なお、キャラクタの選択基準については後述する。
図示の例では、サーバ1は、執事aのキャラクタを選択して、機器2bに発話指示を送信している。そして、機器2bは、この発話指示に従い、執事aのキャラクタにてユーザに応答している。また、サーバ1は、選択しなかった執事bによる発話が、この後で行われることを示すメッセージも機器2bに発話させている。これにより、ユーザAと執事aとの対話の後で、機器2bを介して執事bとの対話を行うことができることをユーザにBに認識させることができる。
なお、ユーザBの声が届く範囲に他の機器2が存在する場合には、当該他の機器2を介してユーザBと執事bとを対話させてもよい。ただし、ユーザBが話し掛けた機器2bとは異なる機器2がユーザBに応答した場合、ユーザBが混乱したり、応答に気づかなかったりする可能性があるから、機器2bを介してユーザBと執事bとを対話させることが好ましい。
〔処理の流れ(複数のユーザが同時に執事を呼び出した場合)〕
続いて、複数のユーザが同時に執事を呼び出した場合の処理の流れを図11および図12に基づいて説明する。図11は、ユーザAおよびユーザBが執事を呼び出す発話を同時に検出し、検出した各発話における音声の音量に差異があった場合の処理の一例を示すフローチャートである。また、図12は、ユーザAおよびユーザBが執事を呼び出す発話を同時に検出し、検出した各発話における音声の音量に差異がなかった場合の処理の一例を示すフローチャートである。
図11の例では、機器2の音声取得部201がユーザAの発話を検知し(S91)、該発話の音声である音声Aと機器2の機器IDとをサーバ1に送信する(S92)。また、音声取得部201は、ユーザBの発話を検知し(S93)、該発話の音声である音声Bと機器2の機器IDとをサーバ1に送信する(S94)。
サーバ1の音声解析部104は、上記音声Aを解析する(S71)と共に、上記音声Bを解析する(S72)。そして、キャラクタ選択部102は、上記解析の結果から、音声Aが執事aの呼び出しを求めるものであり、音声Bが執事bの呼び出しを求めるものであることを特定する。そして、キャラクタ選択部102は、S71およびS72の解析結果に基づいて、音声Aの音量が音声Bの音量よりも大きいか否かを判定する(S73)。なお、音量の大小関係の判定処理は、図6と同様であるからここでは説明を省略する。
キャラクタ選択部102は、音声Aの音量が音声Bの音量よりも大きいと判定した場合(S73でYES)、音声Aに対応するユーザAに対応する執事aのキャラクタを選択する。そして、執事aに対応するキャラクタ制御部101aが、機器2を介したユーザとの対話を開始する(S74)。この場合、機器2の音声出力制御部202は、キャラクタ制御部101aの制御に従って、音声出力部24からユーザに対する発話の音声を出力する(S95)。
一方、キャラクタ選択部102は、音声Aの音量が音声Bの音量よりも大きくはないと判定した場合(S73でNO)、音声Bの音量が音声Aの音量よりも大きいか否かを判定する(S75)。この判定において、音声Bの音量が音声Aの音量よりも大きいと判定した場合(S75でYES)、キャラクタ選択部102は、ユーザBに対応する執事bのキャラクタを選択する。そして、執事bに対応するキャラクタ制御部101bが、機器2を介したユーザとの対話を開始する(S76)。この場合、機器2の音声出力制御部202は、キャラクタ制御部101bの制御に従って、音声出力部24からユーザに対する発話の音声を出力する(S95)。
一方、キャラクタ選択部102が音声Aの音量と音声Bの音量とに差異がないと判定した場合(S75でNO)、処理は図12のS77に進む。なお、音量の差が所定の下限値未満であれば、音量に差異がないと判定すればよい。図12のS77では、キャラクタ選択部102は、S71の解析結果に基づいて執事aのキャラクタを選択し、キャラクタ制御部101aが、機器2に発話指示を送信する(S77)。この発話指示は、執事aのキャラクタによる発話を指示するものであり、発話されるメッセージは、執事aがユーザの意図した執事であるか否か、すなわち選択したキャラクタの適否を問うものである。例えば、上記メッセージは、「Aさんの執事の執事aです。複数の方から執事の呼び出しがありましたが、私でよろしいでしょうか?」のようなメッセージであってもよい。
次に、機器2の音声出力制御部202は、キャラクタ制御部101aの制御に従って、音声出力部24から上記メッセージを音声出力する(S101)。そして、音声取得部201は、上記メッセージに対して回答したユーザの発話を検知し(S102)、この音声と機器2の機器IDとをサーバ1に送信する(S103)。
サーバ1の音声解析部104は、機器2から受信した上記音声を解析し(S78)、キャラクタ選択部102はこの解析結果に基づいて、選択した執事aが正しかったか否か、つまり執事aがユーザの意図した執事であるか否かを判定する(S79)。例えば、キャラクタ選択部102は、ユーザの発話に肯定的な語句が含まれている場合には正しかったと判定し、否定的な語句や他の執事を指定する語句が含まれている場合には誤りであったと判定してもよい。具体例を挙げれば、キャラクタ選択部102は、解析の結果に、「よい」、「正しい」等の語が含まれていた場合には、正しかったと判定してもよい。一方、「違う」、「執事b」、「ユーザB」等の語が含まれていた場合には、誤りであったと判定してもよい。
キャラクタ選択部102が執事aは正しかったと判定した場合(S79でYES)、キャラクタ制御部101aは、執事aのキャラクタによるユーザとの対話を継続する(S80)。一方、音声解析部104は、執事aが誤りであったと判定した場合(S79でNO)、S72の解析結果に基づいて執事bを選択し、執事bに対応するキャラクタ制御部101bを有効化し、執事aに対応するキャラクタ制御部101aは無効化する。キャラクタ制御部101aは、機器2に執事aのシンボル30aを表示させていた場合には、無効化される際に、該シンボル30aの表示を終了させる。
次に、キャラクタ選択部102は、複数のユーザが執事を呼び出す音声を同時に認識した回数が所定回数(例えば5回)以上であるか否かを判定する(S81)。キャラクタ選択部102は、所定回数以上であると判定した場合(S81でYES)、キャラクタ制御部101bは、執事を呼び出す発話を行う際に、執事すなわちユーザに応答するキャラクタを指定することを薦めるメッセージの発話指示を機器2に送信する(S82)。そして、機器2の音声出力制御部202は、キャラクタ制御部101bの制御に従って、音声出力部24から上記メッセージを音声出力する(S101)。
上記メッセージは、例えば「お呼び出しの際にユーザ名か執事名を仰って頂けると嬉しいです」のようなメッセージであってもよい。このようなメッセージを発話させることにより、機器2が複数のユーザの声を検出しやすいような状況(複数のユーザが集う場所に機器2が配置されている等)においても、適切な執事によりユーザへの応答を行うことが可能になる。ユーザがユーザ名や執事名を発話した場合、音声解析によってそのユーザ名または執事名に対応する執事を特定することができ、執事が特定できた場合には、その執事のキャラクタを優先して選択することができるからである。つまり、キャラクタ選択部102は、図11のS73の処理を行う前に、音声Aおよび音声Bの何れかに、執事を特定可能な情報(執事名やユーザ名)が含まれているか否かを判定してもよい。そして、含まれていると判定した場合には、当該情報で特定される執事のキャラクタを選択してもよい。なお、上記情報が何れの音声にも含まれていないと判定した場合や、上記情報が両方の音声に含まれており、かつ各情報が示す執事が異なっていると判定した場合には、S73の処理に進めばよい。
S81において、音声解析部104が所定回数未満であると判定した場合(S81でNO)、キャラクタ制御部101bは、執事を指定することを薦める上記メッセージは発話させることなく、機器2を介したユーザとの対話を開始する(S83)。なお、図11のS73でYESと判定された場合、およびS75においてYESと判定された場合においても、図12のS81の処理を実行してもよい。そして、所定回数以上であると判定した場合には、執事を指定することを薦める上記メッセージを機器2aまたは機器2bに発話させてもよい。
また、3人以上のユーザの発話を検出した場合には、キャラクタ選択部102は各ユーザの発話した音声の音量情報を参照して、最も大きい音量を示す音量情報に対応するユーザに対応するキャラクタを選択する。この場合、キャラクタ選択部102は、音量情報の示す音量が、複数のユーザ間で差異がないと判定した場合には、当該複数のユーザの何れかに対応するキャラクタを選択して、S77以降の処理を実行する。
また、上記ではメッセージを機器2に音声出力させる例を説明したが、メッセージをユーザに通知する態様はこの例に限られない。例えば、ユーザの発話した音声を検出した機器2以外の機器(他の機器2であってもよいし、それ以外の機器であってもよい)に上記メッセージを音声出力させてもよい。また、例えば、上記メッセージを機器2または他の機器に表示させることによってユーザに通知してもよい。
〔執事選択の他の例〕
キャラクタ選択部102は、ユーザの発話内容に応じてキャラクタを選択してもよい。例えば、ユーザAが執事に用事を依頼する発話を行い、一方ユーザBが特に意味のない発話を行った場合には、キャラクタ選択部102は、ユーザAに対応する執事aのキャラクタを選択してもよい。また、例えばユーザAの発話に「急ぎ」、「至急」、「すぐに」等の緊急性の高さを示す語句が含まれており、一方ユーザBの発話にはこのような語句が含まれていない場合には、キャラクタ選択部102は、ユーザAに対応する執事aのキャラクタを選択してもよい。
〔執事によるお遣い〕
執事提供システム100では、ユーザは、執事に他のユーザへのお遣いを行わせることもできる。これについて、図13に基づいて説明する。図13は、ユーザAに対応する執事aに、ユーザCへのお遣いを行わせた例を示す図である。なお、本例におけるお遣いは、ユーザCにユーザAからのメッセージを伝えることである。
同図の(a)の例では、ユーザA(第1のユーザ)が執事aに対し、ユーザCへの伝言を依頼する発話(所定の行為)を行っている。そして、機器2aを介してこの発話の音声を受信したサーバ1では、キャラクタ選択部102が、上記音声の音声認識結果に基づき、ユーザAの執事aに対応するキャラクタ制御部101aを有効化する。また、キャラクタ制御部101aは、上記音声認識結果に基づき、伝言を依頼する発話が行われたと判定する。なお、伝言を依頼する発話が行われたか否かは、発話内容に所定のキーワード(この例では「伝言」とユーザ名)が含まれているか否かで判定することができる。
伝言を依頼する発話が行われたと判定したキャラクタ制御部101aは、機器2aに執事aのシンボル30aを表示させると共に、依頼を受け付けた旨の発話を行わせ、また伝言するメッセージ(以下、伝言メッセージと記載)の入力を促す発話を行わせている。この後、図示していないが、ユーザは伝言メッセージを発話し、サーバ1はこの伝言メッセージを、機器2aを介して取得する。なお、ユーザの発話を複数の機器2が検出した場合、それらの機器2の中から機器選択部103が1つの機器2を選択し、キャラクタ制御部101aが該機器2に発話させる。
次に、伝言メッセージを取得したサーバ1では、執事aに対応するキャラクタ制御部101aが、機器2aに対し、シンボル30aの表示を終了するように指示する。これにより、同図の(b)に示すように、機器2aの表示制御部203はシンボル30aの表示を終了する。
続いて、機器選択部103は、伝言の通知先であるユーザC(第2のユーザ)に対応付けられた機器2dを、ユーザAからの伝言の依頼に対する応答動作を実行させる機器として選択する。なお、伝言の通知先は、ユーザAの発話した音声の音声認識結果から特定することが可能である。
そして、キャラクタ制御部101aは、機器2dに対し、執事aのシンボル30aの表示指示を送信すると共に、ユーザAからの伝言がある旨のメッセージの発話指示を送信する。この指示を受信した機器2dでは、表示制御部203がシンボル30aを表示させ、音声出力制御部202が上記メッセージを音声出力させる。この音声出力は、ユーザCに対応する執事cではなく、ユーザAに対応する執事aのキャラクタにて行われる。
この後、図示していないが、キャラクタ制御部101aは、ユーザAから受け付けた伝言メッセージを機器2dに発話させ、発話終了後、シンボル30aの表示を終了させる。また、図示していないが、伝言メッセージの発話を終了した後、キャラクタ制御部101aは、機器2aにシンボル30aを再度表示させると共に、ユーザCへの伝言が完了した旨のメッセージを発話させてもよい。
なお、伝言メッセージの通知先とする機器2は、ユーザCに関連する機器であればよく、ユーザCの携帯端末である機器2dに限られない。例えば、キャラクタ制御部101aは、図4に示すような機器管理情報112を参照して、ユーザCが対応付けられている機器2を特定し、該機器2を伝言メッセージの通知先としてもよい。また、ユーザCが対応付けられている機器2が複数ある場合には、キャラクタ制御部101aは所定の優先順位に従って、通知先の機器2を決定してもよい。優先順位は、ユーザCへの通知が成功する可能性が高い機器2が優先して通知先となるように設定しておくことが好ましい。例えば、ユーザCが個人で利用する部屋に設置されている機器2や、ユーザCが個人で利用する携帯端末である機器2dの優先順位を最も高く設定し、複数のユーザで共用する機器2の優先順位はそれよりも低く設定してもよい。
また、近くにユーザCまたは他のユーザが存在する可能性の高い機器2を通知先の機器2としてもよい。例えば、機能部27を動作させている機器2、または近隣の機器が動作中である機器2が配置されている部屋にはユーザが存在する可能性が高いので、このような部屋に配置されている機器2を通知先の機器2としてもよい。ただし、冷蔵庫や洗濯機等のような、動作中にユーザが近くに居る必要のない機器2は、動作中であっても通知先の機器2としないことが好ましい。このような機器2については、該機器2に対してユーザが操作(例えば冷蔵庫の扉を開く、洗濯機の備える操作ボタンを操作する等)を行っていることが検知されたときに通知先の機器2とすることが好ましい。また、このような機器2と同じ部屋に配置されている他の機器2を通知先の機器2としてもよい。
また、通知先の機器2に発話させたが、該発話に対するユーザからの応答が検出されない場合、機器選択部103は、他の機器2を通知先として決定し、キャラクタ制御部101aは該機器2からユーザへの通知を行ってもよい。そして、通知先の機器2を変更して該機器2から発話させる処理は、ユーザからの応答が検出されるまで繰り返してもよい。また、所定回数通知先の機器2を変更しても、ユーザからの応答が検出されない場合には、機器2aを介して、ユーザCが見つからなかった旨のメッセージをユーザAに通知してもよい。
この他にも、ユーザからの応答が検出されない場合には、機器選択部103は、例えばユーザCに対応付けられていない機器2を通知先に決定し、キャラクタ制御部101aは該機器2にユーザCの所在を問うメッセージを出力させてもよい。この場合、該機器2の周囲に居るユーザがユーザCの所在を知っていれば、その所在を示す発話が行われ、機器選択部103は、この発話の解析結果に基づいて、ユーザCの近くの機器2を通知先に決定することができる。
〔執事による人探し〕
執事提供システム100では、ユーザは、執事に人探しを行わせることもできる。これについて、図14に基づいて説明する。図14は、執事に人探しを行わせた例を示す図である。なお、同図では図示を省略しているが、機器2の発話はサーバ1により制御される。
図14の例において、部屋Aには機器2aが配置されており、部屋Bには機器2bと機器2fが配置されている。機器2fはテレビジョン受像機である。また、部屋Cには機器2eが配置されている。部屋Aに居るユーザはユーザAであり、部屋Cに居るユーザはユーザDである。
同図の(a)において、部屋Aに居るユーザA(第1のユーザ)は、機器2aに対して、ユーザD(第2のユーザ)を探すことを執事aに指示する発話を行っている。そして、機器2aを介してこの発話の音声を受信したサーバ1では、キャラクタ選択部102が、上記音声の音声認識結果に基づき、執事aに対応するキャラクタ制御部101aを有効化する。また、キャラクタ制御部101aは、上記音声認識結果に基づき、人探しを依頼する発話が行われたと判定する。なお、人探しを依頼する発話が行われたか否かは、発話内容に所定のキーワード(この例では「探して」とユーザ名)が含まれているか否かで判定することができる。
人探しを依頼する発話が行われたと判定したキャラクタ制御部101aは、機器2aに執事aのシンボル30aを表示させると共に、依頼を受け付けた旨の発話を行わせている。また、人探しの指示を受け付けた場合、機器選択部103は、機器管理情報112において、探す対象となっているユーザに対応付けられた機器2を、人探しの発話を行わせる機器2として選択する。
機器選択部103は、探す対象となっているユーザに対応付けられた全ての機器2を選択してもよいが、人探しの指示を受け付けた機器2aが配置されている部屋(本例では部屋A)に配置されている機器2は、選択対象から除外することが好ましい。人探しの指示を受け付けた機器2aのある部屋Aには、ユーザAが探しているユーザDは当然いないと考えられるためである。
また、機器選択部103は、探す対象となっているユーザに対応付けられた機器2が複数あり、当該複数の機器2に、配置されている部屋(エリア)が異なる機器2が含まれている場合には、配置されている部屋が異なる複数の機器2を選択することが好ましい。言い換えれば、機器選択部103は、複数の部屋に配置された機器2をそれぞれ選択することが好ましく、この場合、各部屋について選択する機器2は1つとすることが好ましい。これにより、各部屋におけるユーザDの存否を速やかに確認することが可能になる。また、異なる部屋に配置されている機器2に同時に人探しの発話を行わせたとしても、執事aが同時に複数出現したことはユーザAにもユーザDにも認識されないので、執事aが一人であるという各ユーザのイメージを壊さずに済む。
本例では、機器選択部103は、人探しの発話を行わせる機器2として、部屋Bの機器2fと、部屋Cの機器2eを選択したとする。なお、部屋Bにある機器2bと機器2fの何れを選択するかを決定する基準は特に限定されない。例えば、表示部を備えている機器2を優先して選択してもよいし、テレビジョン受像機のように、ユーザの注目しやすい位置に配置されている機器2を優先して選択してもよい。
そして、キャラクタ制御部101aは、機器2aにシンボル30aの表示を終了するように指示する。また、キャラクタ制御部101aは、選択された機器2fと機器2eのそれぞれに、ユーザAがユーザDを探していることを示すメッセージを発話するように指示する。さらに、キャラクタ制御部101aは、表示部を備えた機器2fにはシンボル30aを表示するように指示する。
これにより、同図の(b)に示すように、機器2aの表示制御部203はシンボル30aの表示を終了し、代わりに機器2fの表示制御部203がシンボル30aの表示を開始する。そして、機器2fおよび機器2eの音声出力制御部202が上記メッセージを音声出力させる。この音声出力は、何れもユーザAに対応する執事aのキャラクタにて行われる。このとき、キャラクタ制御部101aは、機器2fと機器2eのそれぞれから同時に上記メッセージを発話させてもよい。
本例では、同図の(b)に示すように、ユーザDは、機器2eの発話したメッセージを聞き、部屋Cに居る旨発話している。機器2eの音声取得部201はこの発話の音声をサーバ1に送信し、サーバ1の音声解析部104は、この発話の音声を解析する。そして、キャラクタ制御部101aは、この音声の解析結果から、ユーザDが部屋Cに居ると特定する。
この後、図示していないが、キャラクタ制御部101aは、機器2fにシンボル30aの表示を終了させると共に、機器2aに、シンボル30aを表示させると共に、ユーザDが部屋Cに居る旨のメッセージを発話させる。これにより、ユーザAにユーザDの所在を認識させることができる。
なお、上記では、部屋に配置されている据え置き型の機器2を選択する例を説明したが、携帯端末等のように、携帯型の機器2を選択してもよい。ただし、このような機器2は、個人が所持するものであるから、その機器2の所持者以外のユーザを探す場合には、この点を踏まえたメッセージを発話させることが好ましい。例えば、上記の例において、ユーザCの所持する機器2dに発話させる場合、そのメッセージは、ユーザAがユーザDを探していること、およびユーザDの所在を知っている場合には部屋Aに居るユーザAに連絡して欲しいこと等を示すものとしてもよい。また、各部屋の機器2に発話させたが、探しているユーザの応答がなかった場合に、部屋には配置されない機器2に人探しのメッセージを発話させてもよい。
〔学習〕
サーバ1のキャラクタ制御部101は、ユーザの嗜好を学習する。これにより、ユーザが執事を使い込んでいくうちに、該ユーザの嗜好に合った適切な応答を機器2に実行させることができるようになっていく。これについて、図15に基づいて説明する。図15は、ユーザの嗜好を学習する処理の一例を示すフローチャートである。なお、同図では、ユーザが空気調和機(エアコン)である機器2bに対して、「寒い」と発話し、この発話の音声がサーバ1に送信された場合の処理を示している。
サーバ1の音声解析部104は、この発話の音声を解析し、キャラクタ選択部102は、この解析の結果に応じたキャラクタ制御部101を有効化する。そして、有効化されたキャラクタ制御部101は、上記の解析結果に応じた機器2の運転を開始させる。具体的には、上述のように、ユーザは「寒い」と発話しているから、キャラクタ制御部101は、空気調和機(エアコン)である機器2b(応答機器)に暖房運転(応答動作)の開始を指示する。ユーザの嗜好を学習する前であれば、暖房の設定温度は標準的な暖房の設定温度とすればよい。
また、暖房運転を行うと室内が乾燥するため、キャラクタ制御部101は、加湿器である機器2g(共働機器)に加湿運転の開始を指示する(S111)。ユーザの嗜好を学習する前であれば、加湿の設定湿度は標準的な加湿の設定湿度とすればよい。さらに、キャラクタ制御部101は、運転を開始したことをユーザに通知するメッセージを機器2bに発話させてもよい。また、運転開始前に、運転の開始の可否をユーザに問うメッセージを機器2bに発話させ、この発話に対して肯定的なユーザの回答が検出された場合に、運転を開始してもよい。執事が一人であるというユーザのイメージを壊さないよう、メッセージを発話させる機器は、機器2bおよび機器2gの何れか一方とすることが望ましい。
なお、ユーザがどのような発話を行ったときに、どのような機器2にどのような運転を行わせるかは、予め定めておけばよい。例えば、ユーザの発話に「暑い」等の語が含まれている場合には機器2bに冷房運転を行わせ、「むしむしする」、「蒸し暑い」等の語句が含まれている場合には機器2bに除湿運転を行わせてもよい。この他にも、例えば「空気がカラカラ」、「空気が乾燥」等の語句が含まれている場合には機器2gに加湿運転を行わせてもよい。これにより、ユーザは運転内容や、運転の設定などを指定することなく、自身が感じていることをそのまま口に出すだけで、自身の感覚に応じた適切な運転を機器2に行わせることができる。
運転開始指示を受信した機器2bでは、動作制御部204が、該指示に従って機能部27に運転を開始させる(S131)。本例の機器2bにおける運転は暖房運転である。同様に、運転開始指示を受信した機器2gにおいても、動作制御部204が、該指示に従って機能部27に運転を開始させる(S151)。本例の機器2gにおける運転は加湿運転である。
キャラクタ制御部101は、運転開始指示を送信した後、所定時間が経過すると、運転内容の調整の要否を確認するメッセージを発話するように機器2bに指示する(S112)。このメッセージは、例えば「お部屋の温度および湿度はいかがしょうか」等のメッセージであってもよい。なお、運転開始指示を送信した後、所定時間が経過したときに上記のようなメッセージを発話させる代わりに、運転開始時に、運転内容の変更が必要な場合にはその旨の発話を行うように促すメッセージを発話させてもよい。例えば、運転開始時に「運転内容の変更が必要でしたら教えて下さい」と発話させておけば、ユーザは運転内容に関する要望を発話するので、この発話に基づいて運転内容を調整することができる。
発話指示を受信した機器2bでは、音声出力制御部202が、音声出力部24に上記メッセージを音声出力させる(S132)。そして、機器2bの音声取得部201は、音声入力部23を介して入力されるユーザの発話を検知し(S133)、該発話の音声と機器2bの機器IDとを、通信部22を介してサーバ1に送信する(S134)。この音声は、S131で開始させた暖房運転、およびS151で開始させた加湿運転の少なくとも何れかに対するユーザの反応の内容を示している。つまり、これらのステップでは、音声取得部201は、ユーザの反応の内容をサーバ1に通知している。
サーバ1は、機器2bが送信した音声および機器IDを受信し、音声解析部104は、受信した音声を解析する(S113)。そして、キャラクタ制御部101は、上記解析の結果に基づいて、発話者を特定する(S114)と共に、運転内容の調整が必要であるか否かを判定する(S115)。例えば、キャラクタ制御部101は、ユーザの発話に「ちょうどいい」、「快適」等の肯定的な語句が含まれている場合には調整不要と判定してもよい。一方、「まだちょっと寒い」、「まだかなり乾いている」等の改善を要求する語句が含まれている場合には調整要と判定してもよい。
キャラクタ制御部101は、運転内容の調整要と判定した場合(S115でYES)、機器2bおよび機器2gに運転内容の変更を指示する(S116)。例えば、「まだちょっと寒い」と発話された場合には、キャラクタ制御部101は、機器2bに暖房運転の設定温度を上げるように指示してもよい。また、例えば「まだかなり乾いている」と発話された場合には、キャラクタ制御部101は、機器2gに加湿運転の設定湿度を上げるように指示してもよい。さらに、「ちょっと」、「かなり」等の修飾語に応じて、調整の程度を変えてもよい。
そして、運転内容の変更指示を受信した機器2bでは、動作制御部204が、該指示に従って機能部27に運転内容を変更させる(S135)。同様に、上記指示を受信した機器2gにおいても、動作制御部204が、上記指示に従って機能部27に運転内容を変更させる(S152)。このように、ユーザの発話に基づいて運転内容を調整していくことにより、ユーザが好む設定で複数の機器2を同時に動作させることができる。なお、S113の解析結果に応じて、機器2bおよび機器2gの何れか一方の運転内容を変更してもよい。また、本例では、動作制御部204による運転内容を変更する例を説明するが、音声出力制御部202による音声出力の内容や、表示制御部203による表示出力の内容を変更させてもよい。
キャラクタ制御部101は、S116で運転内容の変更を指示した後、またはS115で運転内容の調整が不要であると判定した場合(S115でNO)、ユーザによって発話されたキーワードを、S114で特定した発話者と対応付けて記憶する(S117)。例えば、図3のキャラクタ管理情報111では、このようなキーワードおよび該キーワードを検出したときの運転内容を示す情報ユーザ情報として含んでいる。このように、キャラクタ制御部101は、上記キーワードをユーザおよび運転内容と対応付けてキャラクタ管理情報111に記憶してもよい。また、ユーザの周囲の環境情報(例えば室温や気温、季節、時刻等)についても併せて記憶してもよい。このようにして記憶した情報は、ユーザの嗜好を示す嗜好情報であると言える。この後処理はS112に戻る。なお、キーワードを記憶する代わりに、S115で運転内容の調整が不要と判定したときの運転内容を記憶してもよい。
〔学習内容に基づく制御〕
上記のような処理により、機器2に動作を実行させた際の、該動作に対するユーザの反応の内容を記憶しておくことにより、キャラクタ制御部101は、次回以降に機器2を動作させるときには、上記反応の内容に応じて上記動作の内容を変更することができる。これにより、各機器2の動作制御部204は、変更後の内容の動作を機能部27に実行させるので、上記のような調整を行うことなく、ユーザが好む動作を各機器2に実行させることができる。なお、ユーザの反応の内容に応じて、何れか一方の機器2の動作内容を変更してもよい。
例えば、過去に機器2bに設定温度25℃で暖房運転を行わせ、機器2gに設定湿度50%で加湿運転を行わせたときに、ユーザが寒いし乾燥していると発話していたとする。ここで、キャラクタ制御部101は、ユーザの「寒い」との発話に応じて、暖房運転と加湿運転を行わせる場合には、機器2bに暖房運転を行わせる際の設定温度を25℃よりも高くし、機器2gに加湿運転を行わせる際の設定湿度を50%よりも高くしてもよい。これにより、機器2bの被空調空間をユーザが快適に感じる温度および湿度とすることができる。
〔複数の執事による学習〕
上記の例において、ユーザが複数居る場合、各ユーザに対応する執事のそれぞれによって、各ユーザの嗜好が学習される。例えば、ユーザAとユーザBが1つの部屋にいて、各ユーザがそれぞれ「暑い」と発話した場合、各音声を機器2が検出してサーバ1に送信する。
サーバ1の音声解析部104は、各音声を解析し、ユーザAとユーザBが「暑い」と発話したことを特定する。そして、キャラクタ選択部102は、ユーザAに対応する執事aを制御するキャラクタ制御部101aと、ユーザBに対応する執事bを制御するキャラクタ制御部101bを有効化する。この場合、何れのユーザも、冷房運転開始のキーワードである「暑い」を発話しているから、キャラクタ制御部101aおよびキャラクタ制御部101bの何れも冷房運転を行うことを決定する。なお、空気調和機(エアコン)である機器2bへの冷房運転の開始指示の送信は、キャラクタ制御部101aおよびキャラクタ制御部101bの何れか一方が行えばよい。また、運転開始時には、運転内容の変更が必要な場合にはその旨の発話を行うように促すメッセージを機器2に発話させてもよい。このメッセージは、各執事のそれぞれによって発話させてもよいし、一方の執事のみに発話させてもよい。
運転開始後、ユーザAが運転内容の調整を求める発話を行った場合、キャラクタ制御部101aは、上述のようにして該発話内容に応じた運転内容の調整を行う。また、ユーザによって発話されたキーワードを、該ユーザおよび運転内容と対応付けて記憶する。一方、ユーザBが運転内容の調整を求める発話を行った場合、キャラクタ制御部101bが、該発話内容に応じた運転内容の調整を行う。また、ユーザによって発話されたキーワードを、該ユーザおよび運転内容と対応付けて記憶する。このような調整により、各ユーザの好みに応じた運転内容で機器2を動作させることができる。
なお、ユーザAとユーザBとで快適な温度が異なる場合等には、ユーザAとユーザBの双方の満足度が高くなるように運転内容を調整することが好ましい。例えば、ユーザAが「暑い」と発話し、ユーザBが「ちょうどいい」と発話した場合、冷房運転の設定温度は変えずに、風向がユーザAに向くように調整してもよい。なお、ユーザAの位置は、室内の機器(機器2であってもよいし他の機器であってもよい)が人感センサ等で検出してサーバ1に通知する、あるいはユーザが自身の位置を示す発話を行う等によって特定可能である。
また、ユーザAおよびユーザBのうちユーザAが「二人とも暑い」と発話した場合、キャラクタ制御部101aは、機器2にもう一人のユーザが誰であるかを問うメッセージを発話させてもよい。このメッセージに対し、ユーザAがもう一人のユーザがユーザBである旨の発話を行えば、キャラクタ選択部102はこの発話内容の解析結果に基づいてキャラクタ制御部101bも有効化することができる。
上記のような処理により、機器2に動作を実行させた際の、該動作に対するユーザの反応の内容を、ユーザ毎に記憶しておくことにより、キャラクタ制御部101は、次回以降に機器2を動作させるときには、ユーザ毎に上記動作の内容を変更することができる。つまり、キャラクタ制御部101は、ユーザが「暑い」等の機器2を動作させる契機となる発話を行った場合に、そのユーザが過去に上記動作に対する要望を発話していれば、その要望の内容に応じて上記動作の内容を変更してもよい。
〔ユーザ認識の学習〕
上記では、声紋に基づいてユーザ認識する例を説明したが、キャラクタ選択部102は、発話内容や声のトーン等に基づいてユーザ認識して、該判定結果に応じたキャラクタを選択してもよい。この場合、キャラクタ制御部101は、選択されたキャラクタにて機器2に応答させる際に、該キャラクタの正否を問うメッセージを出力させてもよい。これにより、ユーザ認識結果が正しかったか否かを判定することができる。
また、キャラクタ選択部102は、発話内容や声のトーンを示す音声解析結果と、ユーザ認識結果の正否を示す情報とを対応付けて記憶してもよい。キャラクタ選択部102は、このような情報を参照することにより、ユーザ認識に有効な発話内容や声のトーンを特定して、次回以降のユーザ認識精度を向上させることができる。
〔実施形態2〕
上記実施形態では、ユーザの音声による発話を検出して、該発話に対する応答を機器2に行わせる例を示したが、検出の対象となるユーザの行為は音声による発話に限られない。例えば、サーバ1は、ジェスチャ等のユーザの所作を検出して、該所作に対する応答動作を機器2に実行させてもよい。また、検出の対象となるユーザの行為は、タッチパネルやキーボード等の入力装置で検出してもよい。つまり、検出の対象となるユーザの行為は、入力装置に対する入力操作であってもよい。
また、ユーザの行為に対して機器2に実行させる応答動作は音声出力や機器2の機能部27の運転制御に限られない。例えば、機器2が表示部を備えている場合、上記応答動作は、上記表示部への文字や画像の表示であってもよい。また、例えば機器2がSNS(Social Networking Service)等にメッセージを投稿する機能を備えている場合には、上記応答動作はメッセージの投稿であってもよい。
〔実施形態3〕
上記各実施形態では、1つのサーバ1を用いる例を説明したが、サーバ1の有する各機能が、個別のサーバにて実現されていてもよい。そして、複数のサーバを適用する場合においては、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。
また、サーバ1の機能の一部を機器2に持たせてもよい。例えば、機器2に音声解析部を設けて、該音声解析部が得た音声解析結果をサーバ1に送信する構成としてもよい。また、この場合、機器2が上記音声解析結果に基づいて、ユーザに応答するキャラクタを選択してもよい。ただし、執事が一人であるとのユーザのイメージを壊さないようにするため、選択したキャラクタで応答することの可否を機器2がサーバ1に問い合せるようにし、サーバ1の制御により複数の機器2が同じキャラクタで発話しないように調整することが好ましい。
また、上記各実施形態では、サーバ1が執事による発話を行わせる機器2を変更しているが、複数の機器2間で通信することにより、執事による発話を行わせる機器2を変更してもよい。例えば、図9の(b)の例において、機器2dは、ユーザCの発話を検出したときに、機器2aとの無線通信の電波強度が所定値以上となっていれば、機器2aに執事cのキャラクタで応答するように指示してもよい。
〔ソフトウェアによる実現例〕
サーバ1および機器2の制御ブロック(特に制御部10および制御部20)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、サーバ1および機器2は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る応答システム(執事提供システム100)は、ユーザの所定の行為に対する応答動作を実行可能な複数の機器(2)と、該機器による応答動作を制御するサーバ(1)とを含む応答システムであって、上記サーバは、複数の上記機器の中から上記応答動作を実行させる応答機器を選択し、上記サーバが選択した上記応答機器は、上記サーバの制御に従って、上記ユーザに応じた所定のキャラクタにて上記応答動作を実行する。
上記の構成によれば、サーバは、複数の機器の中から応答動作を実行させる応答機器を選択し、該応答機器は、ユーザに応じた所定のキャラクタにて応答動作を実行する。よって、ユーザに応じたキャラクタによる応答動作が複数の機器で行われて、ユーザが応答動作の一部を認識できなかったり、ユーザが混乱したりすることを避けることができる。したがって、従来よりも改善された応答システムを実現することができるという効果を奏する。
本発明の態様2に係る応答システムは、上記態様1において、上記所定の行為は、音声による発話であり、上記サーバは、ユーザの音声による発話を複数の上記機器が検出した場合に、各機器が検出した発話の音声解析結果に応じて、上記発話を検出した上記機器の中から上記応答機器を選択してもよい。該構成によれば、ユーザがどのような発話を行ったか、あるいはどのように発話を行ったか等に応じた適切な機器を応答機器として選択することが可能である。
本発明の態様3に係る応答システムは、上記態様2において、上記音声解析結果は、上記機器が検出した上記音声の音量を示す音量情報を含み、上記サーバは、上記音量情報の示す音量が、複数の上記機器の間で差異があると判定した場合には、最も大きい音量を示す音量情報に対応する上記機器を上記応答機器として選択し、上記音量情報の示す音量が、複数の上記機器の間で差異がないと判定した場合には、当該複数の機器の何れかを上記応答機器として選択すると共に、該選択した応答機器がユーザの意図した機器であるか否かを問うメッセージを上記ユーザに通知してもよい。
ユーザがある機器に向かって発話した場合、その機器が検出する音声の音量は、他の機器が検出する音声の音量より大きくなる可能性が高い。このため、音量に応じて機器を選択する上記構成によれば、ユーザの意図に適合した機器を選択することができる。ただし、各機器が検出した音量に差異がないことも考えられる。そこで、上記の構成によれば、音量が複数の機器の間で差異がないと判定した場合には、当該複数の機器の何れかを応答機器として選択すると共に、該選択した応答機器がユーザの意図した機器であるか否かを問うメッセージをユーザに通知する。これにより、音量が複数の機器の間で差異がない場合にも応答機器を自動で選択することができると共に、選択した応答機器がユーザの意図した機器ではない場合に、機器を変更する機会をユーザに与えることができる。
本発明の態様4に係る応答システムは、上記態様2または3において、上記サーバは、ユーザの音声による発話を複数の上記機器が検出した回数が所定回数以上である場合には、上記所定の行為の実行時に応答機器を指定することを薦めるメッセージを上記ユーザに通知してもよい。
複数の機器が近接して配置されている場合等には、ユーザの発話を複数の機器が検出することが頻繁に生じる可能性がある。そこで、上記の構成によれば、ユーザの音声による発話を複数の機器が検出した回数が所定回数以上である場合には、所定の行為の実行時に応答機器を指定することを薦めるメッセージをユーザに通知する。これにより、複数の機器が近接して配置されている場合等においても、ユーザの指定した応答機器をスムーズに選択することが可能になる。
本発明の態様5に係る応答システムは、上記態様1から4の何れかにおいて、上記サーバは、複数の上記機器の少なくとも何れかの稼働状態、および複数の上記機器の少なくとも何れかと関連する他の機器の稼働状態、の少なくとも何れかに応じて上記応答機器を選択してもよい。
上記の構成によれば、ユーザの状態に応じた適切な応答機器を選択することが可能になる。機器の稼働状態からは、ユーザの状態が推測できるためである。例えば、テレビジョン受像機等が稼働しているときには、その周囲にユーザが存在すると推測できるため、該テレビジョン受像機やその周囲の機器を応答機器として選択することにより、ユーザに応答動作を認識させることができる。
本発明の態様6に係る応答システムは、上記態様1から5の何れかにおいて、上記サーバは、上記ユーザの所在に応じて、複数の上記機器の中から上記応答動作を実行させる応答機器を選択してもよい。該構成によれば、ユーザの所在に応じた適切な機器を選択することが可能になる。
本発明の態様7に係る応答システムは、上記態様6において、複数の上記機器には、携帯型の機器と据え置き型の機器とが含まれており、上記サーバは、上記ユーザが上記据え置き型の機器が設置されているエリアに居ることが検出された場合には、該据え置き型の機器を上記応答機器として選択してもよい。
上記の構成によれば、ユーザが据え置き型の機器が設置されているエリアに居ることが検出された場合には、該据え置き型の機器を応答機器として選択する。これにより、ユーザが据え置き型の機器が設置されているエリアに居るときには、携帯型の機器に応答動作を実行させないので、携帯型の機器のバッテリの消費を抑えつつ、据え置き型の機器に応答動作を実行させることができる。
本発明の態様8に係る機器(2)は、ユーザの所定の行為に対して応答動作を実行可能な複数の機器と、該機器による応答動作を制御するサーバ(1)とを含む応答システム(執事提供システム100)に含まれる機器であって、上記所定の行為を検出して、該所定の行為が行われたことを上記サーバに通知する通知部(音声取得部201)と、複数の上記機器の中から自機が上記サーバにより上記応答動作を実行する応答機器に選択された場合に、上記ユーザに応じた所定のキャラクタにて上記応答動作を実行する応答部(音声出力制御部202、表示制御部203、動作制御部204)と、を備えている。
上記の構成によれば、複数の機器の中から自機がサーバにより応答機器に選択された場合に、ユーザに応じた所定のキャラクタにて応答動作を実行する。よって、ユーザが応答動作の一部を認識できなかったり、ユーザが混乱したりすることを避けることができる。したがって、従来よりも改善された機器を実現することができるという効果を奏する。
本発明の態様9に係る応答システム(執事提供システム100)は、ユーザの所定の行為に対して応答動作を実行可能な機器(2)と、該機器による応答動作を制御するサーバ(1)とを含む応答システムであって、上記サーバは、複数のユーザが上記所定の行為を行ったことを検出した場合、複数のユーザのそれぞれに対応付けられた所定のキャラクタのうち、複数の上記ユーザの何れかに対応するキャラクタである応答キャラクタを選択し、上記機器は、上記サーバの制御に従って、上記応答キャラクタにて上記応答動作を実行してもよい。
上記の構成によれば、複数のユーザが所定の行為を行ったことを検出した場合、複数のユーザのそれぞれに対応付けられた所定のキャラクタのうち、複数の上記ユーザの何れかに対応する応答キャラクタを選択する。そして、機器は、この応答キャラクタにて応答動作を実行する。よって、複数の応答キャラクタによる応答動作が同時に行われて、ユーザが応答動作の一部を認識できなかったり、ユーザが混乱したりすることを避けることができる。したがって、従来よりも改善された応答システムを実現することができるという効果を奏する。
本発明の態様10に係る応答システムは、上記態様9において、上記所定の行為は、音声による発話であり、上記サーバは、複数のユーザの音声による発話を検出した場合に、検出した発話の音声解析結果に応じて上記応答キャラクタを選択してもよい。該構成によれば、ユーザがどのような発話を行ったか、あるいはどのように発話を行ったか等に応じた適切な応答キャラクタを選択することが可能になる。
本発明の態様11に係る応答システムは、上記態様10において、上記音声解析結果は、上記機器が検出した上記音声の音量を示す音量情報を含み、上記サーバは、上記音量情報の示す音量が、複数の上記発話の間で差異があると判定した場合には、最も大きい音量を示す音量情報に対応する上記ユーザに対応するキャラクタを上記応答キャラクタとして選択し、上記音量情報の示す音量が、複数の上記発話の間で差異がないと判定した場合には、複数の上記ユーザの何れかに対応するキャラクタを上記応答キャラクタとして選択すると共に、該選択した応答キャラクタがユーザの意図したキャラクタであるか否かを問うメッセージを上記ユーザに通知してもよい。
応答動作を機器に行わせる意図で発話するユーザは、その機器に向かって発話する可能性が高いと考えられる。このため、複数のユーザが発話した場合に、機器が検出する音声の音量は、上記のような意図を有するユーザの発話する音声の音量が、他のユーザの発話する音声の音量より大きくなる可能性が高い。このため、音量に応じて応答キャラクタを選択する上記構成によれば、ユーザの意図に適合した応答キャラクタを選択することができる。ただし、機器が検出した音量に差異がないことも考えられる。そこで、上記の構成によれば、音量に差異がないと判定した場合には、応答キャラクタを選択すると共に、該選択した応答キャラクタがユーザの意図したキャラクタであるか否かを問うメッセージをユーザに通知する。これにより、音量に差異がない場合にも応答キャラクタを自動で選択することができると共に、選択した応答キャラクタがユーザの意図したキャラクタではない場合に、キャラクタを変更する機会をユーザに与えることができる。
本発明の態様12に係る応答システムは、上記態様10または11において、上記サーバは、複数のユーザの音声による発話を検出した回数が所定回数以上である場合には、上記所定の行為の実行時に応答キャラクタを指定することを薦めるメッセージを上記ユーザに通知してもよい。
機器が複数のユーザが集う場所に配置されている場合等には、複数のユーザの発話を機器が検出することが頻繁に生じる可能性がある。そこで、上記の構成によれば、複数のユーザの音声による発話を機器が検出した回数が所定回数以上である場合には、所定の行為の実行時に応答キャラクタを指定することを薦めるメッセージをユーザに通知する。これにより、上記のような場合においても、ユーザの指定した応答キャラクタをスムーズに選択することが可能になる。
本発明の態様13に係る機器(2)は、ユーザの所定の行為に対して応答動作を実行可能な機器と、該機器による応答動作を制御するサーバとを含む応答システム(執事提供システム100)に含まれる機器であって、複数のユーザが上記所定の行為を行ったことを検出して、該所定の行為が行われたことを上記サーバに通知する通知部(音声取得部201)と、上記サーバの制御に従って、複数の上記ユーザのそれぞれに対応付けられた所定のキャラクタのうち、複数の上記ユーザの何れかに対応するキャラクタである応答キャラクタにて上記応答動作を実行する応答部(音声出力制御部202、表示制御部203、動作制御部204)と、を備えている。
上記の構成によれば、複数のユーザが所定の行為を行ったことを検出してサーバに通知する。そして、上記サーバの制御に従って、複数のユーザのそれぞれに対応付けられた所定のキャラクタのうち、複数のユーザの何れかに対応する応答キャラクタにて応答動作を実行する。よって、複数の応答キャラクタによる応答動作を同時に行うことで、ユーザが応答動作の一部を認識できなかったり、ユーザが混乱したりすることを避けることができる。したがって、従来よりも改善された機器を実現することができるという効果を奏する。
本発明の態様14に係る応答システム(執事提供システム100)は、ユーザの所定の行為に対する応答動作を実行可能な複数の機器(2)と、該機器による応答動作を制御するサーバ(1)とを含む応答システムであって、上記サーバは、第1のユーザが所定の行為を行ったことに応じて、複数の上記機器のうち第2のユーザに対応付けられた機器を、上記応答動作を実行させる応答機器として選択し、上記サーバが選択した上記応答機器は、上記サーバの制御に従って、上記第1のユーザに応じた所定のキャラクタにて上記応答動作を実行する。
上記の構成によれば、第1のユーザが所定の行為を行ったことに応じて、第1のユーザに応じた所定のキャラクタにて応答動作を機器が実行するが、この機器は第2のユーザに対応付けられた機器である。よって、応答動作を第2のユーザに対して行わせることが可能になると共に、その応答動作が、第1のユーザの所定の行為に起因していることを第2のユーザに認識させることが可能になる。したがって、従来よりも改善された応答システムを実現することができるという効果を奏する。
本発明の態様15に係る応答システムは、上記態様14において、上記所定の行為は、上記第2のユーザへの伝言を指示する行為であり、上記応答動作は、上記第1のユーザから上記第2のユーザへの伝言メッセージを出力する動作であってもよい。
上記の構成によれば、第1のユーザは、第2のユーザへの伝言を指示する行為を実行することにより、第1のユーザに応じた所定のキャラクタにて、第2のユーザへの伝言メッセージを機器に出力させることができる。よって、第1のユーザは、人に伝言を依頼するような感覚で第2のユーザに伝言することができ、第2のユーザは、人から伝言を受けるような感覚で機器から伝言を受けることができる。
本発明の態様16に係る応答システムは、上記態様14において、上記所定の行為は、上記第2のユーザを探すことを指示する行為であり、上記応答動作は、上記第2のユーザを探していることを示すメッセージを出力する動作であってもよい。
上記の構成によれば、第1のユーザは、第2のユーザを探すことを指示する行為を実行することにより、第1のユーザに応じた所定のキャラクタにて、第2のユーザを探していることを示すメッセージを機器に出力させることができる。よって、第1のユーザは、機器のある場所まで足を運ぶことなく、第2ユーザを探すことができる。また、第2のユーザを探していることを示すメッセージは、第1のユーザに応じた所定のキャラクタにて出力されるので、第2のユーザは、自分を探しているのが第1のユーザであることを認識することが可能である。
本発明の態様17に係る応答システムは、上記態様16において、上記サーバは、上記第2のユーザに対応付けられた機器が複数あり、当該複数の機器に、配置されているエリアが異なる機器が含まれている場合には、配置されているエリアが異なる複数の機器を上記応答機器として選択してもよい。
上記の構成によれば、配置されているエリアが異なる複数の機器を応答機器として選択するので、各エリアにおいて、第2のユーザを探していることを示すメッセージを機器に出力させることができる。これにより、第2のユーザを速やかに探し出すことが可能になる。また、1つのエリアからは1つの応答機器を選択するので、第1のユーザに応じた所定のキャラクタが、単体のキャラクタであるとの第2のユーザのイメージを壊すこともない。
本発明の態様18に係る機器は、第1のユーザの所定の行為に対する応答動作を実行可能な複数の機器(2)と、該機器による応答動作を制御するサーバ(1)とを含む応答システム(執事提供システム100)に含まれる、上記第1のユーザとは異なる第2のユーザに対応付けられた機器であって、自機が上記サーバにより、上記応答動作を実行する応答機器に選択された場合に、上記第1のユーザに応じた所定のキャラクタにて、上記第2のユーザに対して上記応答動作を実行する応答部(音声出力制御部202、表示制御部203、動作制御部204)を備えている。
上記の構成によれば、第2のユーザに対して応答動作を実行するが、この応答動作の際のキャラクタは第1のユーザに応じた所定のキャラクタである。よって、この応答動作が、第1のユーザの所定の行為に起因していることを第2のユーザに認識させることが可能になる。したがって、従来よりも改善された機器を実現することができるという効果を奏する。
本発明の態様19に係る応答システム(執事提供システム100)は、ユーザが所定の行為を行ったことに応じて、該所定の行為に対する応答動作を機器(2)に実行させるサーバ(1)と、上記ユーザに応じた所定のキャラクタにて上記応答動作を実行する上記機器とを含む応答システムであって、上記サーバは、過去に上記機器に上記応答動作を実行させた際の、該応答動作に対する上記ユーザの反応の内容に応じて上記応答動作の内容を変更し、上記機器は、上記サーバによる変更後の内容の上記応答動作を実行する。
上記の構成によれば、過去に応答動作を実行させた際のユーザの反応の内容に応じて応答動作の内容を変更するので、応答動作の内容をユーザの嗜好に応じたものとすることが可能になる。したがって、従来よりも改善された応答システムを実現することができるという効果を奏する。
本発明の態様20に係る応答システムは、上記態様19において、上記機器を複数含み、上記サーバは、複数の上記機器の中から、上記応答動作を実行させる応答機器と、上記応答機器と共に動作させる共働機器とを選択し、過去に上記応答機器に上記応答動作を実行させると共に、上記共働機器を動作させた際の、上記ユーザの反応の内容に応じて、上記応答動作および上記共働機器の動作の少なくとも何れかの内容を変更してもよい。
上記の構成によれば、応答機器と共働機器とを動作させることができる。これにより、応答機器による応答動作を補完するような動作を共働機器に実行させることも可能になる。例えば、応答動作として空気調和機(エアコン)に暖房運転を行わせると共に、該暖房運転にて乾燥する空気を共働機器として選択した加湿器で加湿することも可能になる。そして、応答機器の応答動作および共働機器の動作の少なくとも何れかの内容をユーザの嗜好に応じたものとすることが可能になる。
本発明の態様21に係る応答システムは、上記態様19において、上記サーバは、上記所定の行為を行ったユーザを識別し、該ユーザが過去に上記応答動作に反応したユーザである場合に、該反応の内容に応じて上記応答動作の内容を変更してもよい。該構成によれば、ユーザに応じて応答動作の内容を変更することができる。
本発明の態様22に係る機器(2)は、ユーザが所定の行為を行ったことに応じて、該所定の行為に対する応答動作を機器に実行させるサーバ(1)と、上記ユーザに応じた所定のキャラクタにて上記応答動作を実行する上記機器とを含む応答システム(執事提供システム100)に含まれる機器であって、上記応答動作を実行した際の、該応答動作に対する上記ユーザの反応の内容を上記サーバに通知する通知部(音声取得部201)と、上記サーバが、上記通知した反応の内容に応じて上記応答動作の内容を変更した場合に、変更後の内容の上記応答動作を実行する応答部(音声出力制御部202、表示制御部203、動作制御部204)と、を備えている。
上記の構成によれば、過去に応答動作を実行させた際のユーザの反応の内容に応じて応答動作の内容を変更するので、応答動作の内容をユーザの嗜好に応じたものとすることが可能になる。したがって、従来よりも改善された機器を実現することができるという効果を奏する。
本発明の各態様に係る上記機器は、コンピュータによって実現してもよく、この場合には、コンピュータを上記機器が備える各部(ソフトウェア要素)として動作させることにより上記機器をコンピュータにて実現させる機器の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 サーバ
2 機器
3 照明装置(他の機器)
100 執事提供システム(応答システム)
201 音声取得部(通知部)
202 音声出力制御部(応答部)
203 表示制御部(応答部)
204 動作制御部(応答部)

Claims (8)

  1. ユーザの行為に対する応答動作を実行可能な複数の機器と、該機器による応答動作を制御するサーバとを含む応答システムであって、
    上記サーバは
    数の上記機器の中から上記応答動作を実行させる応答機器を選択する機器選択部と、
    複数のキャラクタの中から上記機器選択部が選択した機器に上記応答動作を実行させるキャラクタを選択するキャラクタ選択部と、
    上記キャラクタ選択部が選択したキャラクタにて上記機器選択部が選択した応答機器に応答動作を実行させるキャラクタ制御部と、を含み、
    上記キャラクタ制御部は、
    上記キャラクタ選択部が選択したキャラクタにて上記機器選択部が選択した応答機器に応答動作を実行させている間は、上記キャラクタにて上記応答機器以外の機器の応答動作を実行させない、ことを特徴とする応答システム。
  2. ユーザの行為に対する応答動作を実行可能な複数の機器と、該機器による応答動作を制御するサーバとを含む応答システムであって、
    複数の上記機器は、表示部を備え、
    上記サーバは、
    複数の上記機器の中から上記応答動作を実行させる応答機器を選択する機器選択部と、
    複数のキャラクタの中から上記機器選択部が選択した機器に上記応答動作を実行させるキャラクタを選択するキャラクタ選択部と、
    上記キャラクタ選択部が選択したキャラクタにて上記機器選択部が選択した応答機器を実行させると共に、上記キャラクタ選択部が選択したキャラクタに対応したシンボルを、上記機器選択部が選択した応答機器の表示部に表示させるキャラクタ制御部と、を含み、
    上記キャラクタ制御部は、
    上記キャラクタ選択部が選択したキャラクタにて上記機器選択部が選択した応答機器の応答動作を実行させている間は、上記キャラクタに対応したシンボルを、上記応答機器の表示部に表示させ、当該応答機器以外の機器の表示部に表示させない、ことを特徴とする応答システム。
  3. 複数のユーザそれぞれに応じたキャラクタが設定されており、
    上記キャラクタ選択部は、
    所定の行為を行ったユーザを識別し、上記識別されたユーザに対して設定されたキャラクタを選択し、
    上記所定の行為は、音声による発話であり、
    上記機器選択部は、
    ユーザの音声による発話を複数の上記機器が検出した場合に、各機器が検出した発話の音声解析結果に応じて、上記発話を検出した上記機器の中から上記応答機器を選択する、ことを特徴とする請求項1または2に記載の応答システム。
  4. 上記音声解析結果は、上記機器が検出した上記音声の音量を示す音量情報を含み、
    上記機器選択部は、
    上記音量情報の示す音量が、複数の上記機器の間で差異があると判定した場合には、最も大きい音量を示す音量情報に対応する上記機器を上記応答機器として選択し、
    上記音量情報の示す音量が、複数の上記機器の間で差異がないと判定した場合には、当該複数の機器の何れかを上記応答機器として選択し、
    上記キャラクタ制御部は、
    上記機器選択部によって、上記音量情報の示す音量が複数の上記機器の間で差異がないと判定された場合に選択された応答機器がユーザの意図した機器であるか否かを問うメッセージを上記ユーザに通知する、ことを特徴とする請求項に記載の応答システム。
  5. 上記キャラクタ制御部は、
    ユーザの音声による発話を複数の上記機器が検出した回数が所定回数以上である場合には、上記所定の行為の実行時に応答機器を指定することを薦めるメッセージを上記ユーザに通知する、ことを特徴とする請求項またはに記載の応答システム。
  6. 上記機器選択部は、
    複数の上記機器の少なくとも何れかの稼働状態、および複数の上記機器の少なくとも何れかと関連する他の機器の稼働状態、の少なくとも何れかに応じて上記応答機器を選択する、ことを特徴とする請求項1からの何れか1項に記載の応答システム。
  7. 上記機器選択部は、
    上記ユーザの所在に応じて、複数の上記機器の中から上記応答動作を実行させる応答機器を選択する、ことを特徴とする請求項1からの何れか1項に記載の応答システム。
  8. 複数の上記機器には、据え置き型の機器が含まれており、
    上記機器選択部は、
    上記ユーザが上記据え置き型の機器が設置されているエリアに居ることが検出された場合には、該据え置き型の機器を上記応答機器として選択する、ことを特徴とする請求項に記載の応答システム。
JP2020156390A 2020-09-17 2020-09-17 応答システム Active JP7077375B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020156390A JP7077375B2 (ja) 2020-09-17 2020-09-17 応答システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020156390A JP7077375B2 (ja) 2020-09-17 2020-09-17 応答システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016168262A Division JP6767206B2 (ja) 2016-08-30 2016-08-30 応答システム

Publications (2)

Publication Number Publication Date
JP2021002062A JP2021002062A (ja) 2021-01-07
JP7077375B2 true JP7077375B2 (ja) 2022-05-30

Family

ID=73994064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020156390A Active JP7077375B2 (ja) 2020-09-17 2020-09-17 応答システム

Country Status (1)

Country Link
JP (1) JP7077375B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115461810A (zh) * 2021-04-09 2022-12-09 松下知识产权经营株式会社 对发话设备进行控制的方法、服务器、发话设备以及程序
CN117693789A (zh) * 2021-09-22 2024-03-12 株式会社富士 状况掌握系统、声音应答装置以及状况掌握方法
KR20230086500A (ko) * 2021-12-08 2023-06-15 엘지전자 주식회사 인공 지능 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182688A (ja) 2000-12-18 2002-06-26 Seiko Epson Corp 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
JP2003108362A (ja) 2001-07-23 2003-04-11 Matsushita Electric Works Ltd コミュニケーション支援装置およびコミュニケーション支援システム
JP2003223188A (ja) 2002-01-29 2003-08-08 Toshiba Corp 音声入力システム、音声入力方法及び音声入力プログラム
JP2015115879A (ja) 2013-12-13 2015-06-22 Kddi株式会社 遠隔操作システムならびにそのユーザ端末および視聴機器
WO2016063618A1 (ja) 2014-10-22 2016-04-28 シャープ株式会社 発話情報報知システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002351489A (ja) * 2001-05-29 2002-12-06 Namco Ltd ゲーム情報、情報記憶媒体、及びゲーム装置
JP2008065420A (ja) * 2006-09-05 2008-03-21 Matsushita Electric Ind Co Ltd 音声ガイドシステム
WO2015174172A1 (ja) * 2014-05-13 2015-11-19 シャープ株式会社 制御装置およびメッセージ出力制御システム
JP6767206B2 (ja) * 2016-08-30 2020-10-14 シャープ株式会社 応答システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182688A (ja) 2000-12-18 2002-06-26 Seiko Epson Corp 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
JP2003108362A (ja) 2001-07-23 2003-04-11 Matsushita Electric Works Ltd コミュニケーション支援装置およびコミュニケーション支援システム
JP2003223188A (ja) 2002-01-29 2003-08-08 Toshiba Corp 音声入力システム、音声入力方法及び音声入力プログラム
JP2015115879A (ja) 2013-12-13 2015-06-22 Kddi株式会社 遠隔操作システムならびにそのユーザ端末および視聴機器
WO2016063618A1 (ja) 2014-10-22 2016-04-28 シャープ株式会社 発話情報報知システム

Also Published As

Publication number Publication date
JP2021002062A (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
JP6767206B2 (ja) 応答システム
JP7077375B2 (ja) 応答システム
KR102543693B1 (ko) 전자 장치 및 그의 동작 방법
JP7198861B2 (ja) ホームオートメーションのためのインテリジェントアシスタント
CN106257355B (zh) 设备控制方法和控制器
CN106297781B (zh) 控制方法和控制器
US10755706B2 (en) Voice-based user interface with dynamically switchable endpoints
CN107910007B (zh) 语音接口设备上的多用户个性化
CN109791762B (zh) 语音接口设备的噪声降低
US10212040B2 (en) Troubleshooting voice-enabled home setup
US20170289582A1 (en) Device control method and electric device
US20210043189A1 (en) Method and system for performing voice command
US11031008B2 (en) Terminal device and method for controlling thereof
US10176807B2 (en) Voice setup instructions
JPWO2016157662A1 (ja) 情報処理装置、制御方法、およびプログラム
KR102421824B1 (ko) 외부 장치를 이용하여 음성 기반 서비스를 제공하기 위한 전자 장치, 외부 장치 및 그의 동작 방법
CN110415694A (zh) 一种多台智能音箱协同工作的方法
KR102629796B1 (ko) 음성 인식의 향상을 지원하는 전자 장치
KR20210116897A (ko) 외부 장치의 음성 기반 제어를 위한 방법 및 그 전자 장치
CN106571143A (zh) 智能设备的控制方法及装置
US11818820B2 (en) Adapting a lighting control interface based on an analysis of conversational input
JPWO2020149031A1 (ja) 応答処理装置及び応答処理方法
US20230085087A1 (en) Voice-Controlled Smart Device and Method of Use Thereof
WO2022044695A1 (ja) 環境制御システム、環境制御装置、環境制御方法及びプログラム
KR20190023334A (ko) 숙박업소에서 언어 치환을 수행하는 서비스 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220518

R150 Certificate of patent or registration of utility model

Ref document number: 7077375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150