JP2007061970A - Processing method in home robot and home robot - Google Patents
Processing method in home robot and home robot Download PDFInfo
- Publication number
- JP2007061970A JP2007061970A JP2005252384A JP2005252384A JP2007061970A JP 2007061970 A JP2007061970 A JP 2007061970A JP 2005252384 A JP2005252384 A JP 2005252384A JP 2005252384 A JP2005252384 A JP 2005252384A JP 2007061970 A JP2007061970 A JP 2007061970A
- Authority
- JP
- Japan
- Prior art keywords
- user
- home
- robot
- inquiry
- answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ホームネットワークを通して家電機器の制御などを行うホームロボットに関する。 The present invention relates to a home robot that controls home appliances through a home network.
近年、家庭内ロボット、いわゆるホームロボットの実用化が進み、家庭内を移動して掃除をしたり、留守番をしたりすることができるロボットが実現している。しかしながら、ロボットが自律的に行動するには家庭環境は複雑である。例えば、椅子が障害物となってロボットが通路を通ることができない時には人に椅子をどかしてもらう必要があったり、あるいは落ちている物をゴミと判断してよいのかわからない時には人に判断してもらう必要があったり、といった人に助けてもらわなければならない状況が発生する。 In recent years, domestic robots, so-called home robots, have been put into practical use, and robots that can be moved around the home for cleaning and answering machines have been realized. However, the home environment is complicated for robots to act autonomously. For example, if a chair becomes an obstacle and the robot cannot pass through the passage, it is necessary to have the person take the chair away, or if you do not know whether the falling object can be judged as garbage, There are situations where it is necessary to get help from a person who needs to be received.
特許文献1には、ロボットが人間に助けを求める際に状況の重要度に応じて助けを求めるかどうかを変更する技術が開示されている。
複雑な家庭環境で作業するロボットでは完全な自律動作は困難であり、前述のような人に作業あるいは判断を求める場面の発生を無くすことは難しい。この場合、ロボットが人に助けを求めた時に、人の手間をいかに削減するかが重要である。特許文献1には、このような観点からの工夫は開示されていない。 It is difficult for a robot working in a complex home environment to be completely autonomous, and it is difficult to eliminate the occurrence of scenes that require people to work or make decisions as described above. In this case, it is important how to reduce the labor of the person when the robot asks for help. Patent Document 1 does not disclose a device from such a viewpoint.
ロボットが人に助けを求める方法としては、音声でメッセージを出力するのが一般的である。助けを求める内容が、椅子をどけて欲しいといったような人の作業を伴うことであれば、ユーザはロボットの所に行って作業を行う必要があり、これは避けられない作業である。一方、落ちている物がゴミかどうかといった判断を求める問い合わせをロボットが行う場合、離れた場所にいるユーザに画像を送って見せることができれば、ユーザはわざわざロボットのいる場所まで出向かなくても済むはずである。一部のホームロボットでは、留守宅の異常を検出すると外出中のユーザが所持する携帯電話に撮影した画像をメールとして通知する機能を有するものがある。 As a method for a robot to ask for help from a person, it is common to output a message by voice. If the request for help involves a human task such as removing the chair, the user must go to the robot to perform the task, which is an unavoidable task. On the other hand, when a robot makes an inquiry requesting whether or not a fallen object is garbage, if the user can send an image to a user at a distant location, the user does not have to go to the location where the robot is located. Should be done. Some home robots have a function of notifying an image taken on a mobile phone possessed by a user who is out of the office as an e-mail when an abnormality in his / her home is detected.
家庭内においても、携帯電話や専用のコントローラなどの小型端末をユーザが常に所持していれば、ロボットは当該端末を介してユーザに問い合わせを行うことができる。作業を伴わないことであれば、ロボットが人に助けを求める場合の人の手間を削減することができる。しかし、家庭内ではユーザが常に携帯電話や端末を所持していることは考えにくい。また、高齢者におけるインターネット機能を有した携帯電話の所持率は低く、小型端末による操作も困難な場合が多い。 Even at home, if the user always has a small terminal such as a mobile phone or a dedicated controller, the robot can make an inquiry to the user via the terminal. If there is no work involved, it is possible to reduce the labor of the person when the robot asks for help from the person. However, it is unlikely that the user always has a mobile phone or terminal at home. In addition, the percentage of mobile phones with internet functions in the elderly is low, and operation with a small terminal is often difficult.
一方で家庭内には多くの電化製品があり、どこに居ても何らかの家電製品とそのリモコンが近くにある。これらの身近にある家電製品を介してロボットとの間で対話を行うことができれば、端末を持ち歩かなくてもロボットからの問い合わせにどこに居てもその場で回答することができる。 On the other hand, there are many electrical appliances in the home, and some household appliances and their remote control are nearby wherever they are. If you can interact with the robot through these household appliances, you can answer the inquiry from the robot on the spot without having to carry the terminal.
本発明は、ロボットが離れた場所にいるユーザの助けを必要とする時のユーザの手間を削減するためのホームロボットにおける処理方法及びホームロボットを提供することを目的とする。 An object of the present invention is to provide a processing method in a home robot and a home robot for reducing the trouble of the user when the robot needs the help of a user at a remote place.
本発明の一観点では、ネットワークに接続される少なくとも一つの家電機器が設置された家庭内で使用されるホームロボットにおいて、ユーザから離れる必要があるタスクの実行要求を検知し、該実行要求の検知により前記家電機器を用いたユーザとの対話方法を選択し、選択した対話方法に従ってユーザに対する問い合わせ及びユーザからの回答を含む、ユーザとの対話を実行する。 In one aspect of the present invention, in a home robot used in a home where at least one home appliance connected to a network is installed, a task execution request that needs to be separated from the user is detected, and the execution request is detected. To select a dialog method with the user using the household electrical appliance, and execute a dialog with the user including an inquiry to the user and a response from the user according to the selected dialog method.
対話方法の選択は、例えばユーザに対する問い合わせを行う出力デバイス及びユーザからの回答を受け取る入力デバイスの選択を含む。出力デバイス及び入力デバイスの一方または両方として家電機器を選択してもよい。この場合、出力デバイス及び入力デバイスの両方に使用可能な家電機器を優先的に選択することが好ましい。 The selection of the interaction method includes, for example, selection of an output device that makes an inquiry to the user and an input device that receives an answer from the user. You may select household appliances as one or both of an output device and an input device. In this case, it is preferable to preferentially select household appliances that can be used for both the output device and the input device.
ユーザとの会話実行手段は、ユーザに対する回答方法を示す説明文を付加したメッセージとして問い合わせを出力することが好ましい。 It is preferable that the conversation execution means with the user outputs the inquiry as a message with an explanatory text indicating a response method for the user.
さらに、対話実行時に選択された対話方法に従ってユーザからの回答を行う際には、家電機器に対する通常の操作を無視するようにする。 Furthermore, when performing an answer from the user according to the dialogue method selected at the time of executing the dialogue, a normal operation on the home appliance is ignored.
ユーザから離れる必要があるタスクの実行要求時には家電機器を介してユーザとの対話を実行することにより、ロボットが離れた場所にいるユーザの助けを必要とする時のユーザの手間を削減することができる。 It is possible to reduce the time and effort of the user when the robot needs the help of the user who is away from the user by executing the dialogue with the user through the home appliance at the time of requesting the execution of the task that needs to leave the user. it can.
図1は、本発明の一実施形態に係る概要を示す図であり、家庭内の間取りと家電機器の配置を表している。ロボット11は、家庭内のユーザ10によって使用されるホームロボットであり、車輪や手足を備えて自律移動可能に構成される。アクセスポイント(AP)12は、家電機器13〜15をネットワーク接続する基地局であり、家電機器13〜15との間で通信を行う。家電機器13〜15には、通信のために無線アダプタなどと呼ばれる通信端末が備えられる。
FIG. 1 is a diagram showing an outline according to an embodiment of the present invention, and shows a layout in a home and an arrangement of home appliances. The
アクセスポイント12は、本実施形態では家電機器13〜15とロボット11との間もネットワーク接続している。アクセスポイント12を含む通信システムとしては、例えばIEEE 802.11a/b/g などの無線LANや、Bluetooth(登録商標)と呼ばれる近接無線通信システムなどが使用される。ロボット11とアクセスポイント12との間の通信方式は、ロボット11が移動を行うことから無線方式であることが望ましいが、アクセスポイント11と家電機器13〜16との間の通信は有線ネットワークや電灯線でもかまわない。
In the present embodiment, the
家電機器13〜15は、この例ではテレビジョン受像機(TV1,TV2)及びエアコンを含み、ホームネットワークに対応している。すなわち、家電機器13〜15はいわゆる情報家電あるいはネットワーク家電と呼ばれる機器であり、ロボット11はネットワーク経由で家電機器13〜15の操作や状態確認を行うことができる。本実施形態でいう家電機器は、ネットワーク接続可能な家電機器をいう。リモートコントローラ(以下、リモコンという)16は、家電機器13〜15の専用リモコンか、あるいは全てに共通のリモコンである。以下、家電機器13をTV1、家電機器14をTV2、家電機器15をエアコン1として説明する。
The
ロボット11は、通常はユーザ10の側(そば)に待機しており、ユーザ10からの命令を受けて各種のタスクを実行する。例えば、ユーザ10から「TV点けて」と音声で命令されるとロボット11は発話内容を音声認識により理解し、ネットワーク経由でTV1を操作してTV1の電源を入れる。このようにロボット11に対する命令は音声を用いて行われることが多い。
The
ユーザ10がロボット11に対しキッチンの様子を見てくるように命令すると、ロボット11はリビングからキッチンへ移動し、画像認識技術などを使用してキッチン内の異常の有無を調べる。
When the user 10 instructs the
ロボット11がユーザ10から離れてキッチンにいる時にロボット11がユーザ10に判断を求める場合、従来ではロボット11は音声合成などにより「この荷物を移動させてもいいですか?」のようなメッセージを出力する。現在の音声認識技術ではユーザ10とロボット11との間の距離は1m以内程度の近距離である必要があるので、ユーザ10はロボット11からの当該音声メッセージを聞いてキッチンまで移動し、音声認識が可能な距離までロボット11に近づいてから「いいよ」というような回答を発声する。または、ロボット11はユーザ10のいる場所まで戻り、音声認識が可能な距離までユーザ10に近づいて質問をし、ユーザ10からの回答を得て再びキッチンまで戻って、命じられたタスクの実行を続ける。
When the
これに対し、本実施形態ではユーザ10とロボット11が位置的に離れている場合には、ユーザ10の側にあるTV1やエアコン1などの家電機器を介してユーザ10とロボット11との間で対話を行うことにより、ユーザ10がロボット11の所に出向くことなく、またロボット11がユーザ10の側に戻ることなく、ロボット11がユーザ10に何らかの問い合わせ、すなわち判断を求めるような対話を行うことができる。
On the other hand, in the present embodiment, when the user 10 and the
図2は、ロボット11のシステム構成を示すブロック図である。人抽出部102はロボット11の周囲にいる人(ユーザ10)を見つけるデバイスであり、例えば動体抽出や顔認識などの公知の画像処理により実現される。
FIG. 2 is a block diagram showing a system configuration of the
位置測定部103は、ロボット11の位置(現在位置)を測定するデバイスである。ロボット11は、例えば図1に示したような家庭内の地図をマップメモリ110に記憶しており、家庭内の適当な目印をステレオ視で計測することなどにより、ロボット11自身の現在位置を常に把握している。また、位置測定部103は本実施形態では主制御部101がユーザ10の位置を測定するための補助にも用いられる。
The
タスクデータベース104は、ロボット11が実行すべきタスクの実行方法を記憶する装置である。音声認識部107は、図示しないマイクなどにより入力された周囲の音からユーザ10の命令発話を認識する。音声合成部109は、ユーザ10へメッセージを伝達するためにテキストから音声波形を生成しスピーカから出力する。エアコン111、TV112、照明11Nは家庭内にあるネットワーク経由で制御可能な家電機器であり、UPnPやEchonet(登録商標)などのホームネットワーク規格に対応している。
The
家電機器制御部108は、家庭内にある家電機器を検出し、ネットワーク経由で家電機器を制御したり、機器の動作状態を調べたりする機能を有し、ホームネットワーク規格におけるコントローラに対応する。UPnPやEchonetでは、コントローラは対象となる機器の制御を行うことができるだけでなく、機器の動作状態の変化をイベント通知として逐次把握することができる。
The home
入力制御部105は、音声認識部107や家電機器制御部108などの複数のデバイスの中から、対話方法選択部100からの指示に従って一つのデバイスを入力デバイスとして選択し、選択した入力デバイスにより入力された内容を入力デバイスに応じて変換した後、主制御部101に通知する。出力制御部106は、音声合成部109や家電機器制御部108などの複数のデバイスの中から、対話方法選択部100からの指示に従って一つのデバイスを出力デバイスとして選択する。
The
対話方法選択部100は、主制御部101からの対話方法選択指示を受けると、家電機器制御部108から家庭内にある家電機器の情報を取得し、ロボット11が持つ入出力デバイスである音声認識部107及び音声合成部109も含めて、利用できる入出力デバイスから使用する入出力デバイスを認識し、入力制御部105と出力制御部105に使用するデバイスの選択を指示する。
When the dialogue
さらに、対話方法選択部100は特にロボット11がユーザ10から離れる必要のあるタスクの実行要求を検知すると、家電機器を介したユーザ10との対話方法の選択、具体的にはユーザ10に対する問い合わせを行うための出力デバイス、及びユーザ10からの回答を行うための入力デバイスの選択を行う。
Furthermore, when the
主制御部101は、ユーザ10からのタスクの実行要求などに対して、タスクデータベース104に記憶されているタスクの実行を行う。その際、主制御部101はタスクデータベース104に記憶されているタスクの内容や、人抽出部102及び位置測定部103の出力から求められるユーザ10の位置に基づき、ロボット11が要求されたタスク実行のためにユーザ10の側を離れる必要があると判断すると、対話方法選択部100に対し対話方法の選択を指示する。
The
次に、図3及び図4のフローチャートを用いて本実施形態における動作の流れを説明する。 Next, the operation flow in the present embodiment will be described with reference to the flowcharts of FIGS. 3 and 4.
図3は、全体の大まかな処理を示している。まず、電源ONでロボット11の初期化が行われる(ステップS301)。すなわち、ロボット11のOS(オペレーティングシステム)が起動し、次いで駆動系の制御プログラム、センサ系の制御プログラム及びヒューマンインタフェース系の制御プログラムが起動し、最後にユーザ10にサービスを行うためのアプリケーションプログラムが起動し、次のステップS302に移行する。ステップS302では、ユーザ10により指示されたタスク、すなわちアプリケーションプログラムを実行する。
FIG. 3 shows an overall rough process. First, the
ステップS302で実行されるアプリケーションプログラムは、ロボット11の利用の仕方によって変わる。本実施形態では、ユーザ10の側に居てユーザ10に指示されたタスクを実行するためのプログラムを例に図4に示すフローチャートに従って実行する。
The application program executed in step S302 varies depending on how the
ステップS302の実行中に、ユーザ10から終了を指示されるか、電源OFFの指示が割込み指示されるとステップS303へ移行し、アプリケーションプログラムの終了、制御プログラムの終了が順次行われ、最後にOSが終了して電源がOFFになる。 During the execution of step S302, if the user 10 gives an instruction to end or an instruction to turn off the power is given, the process proceeds to step S303, where the application program and the control program are sequentially ended, and finally the OS Ends and the power is turned off.
以下、図3のステップS302の詳細を図4により説明する。
(ステップS401)
ロボット11は、ユーザ10の側で待機する。ステップS401では、ユーザ10からの命令もしくは予め定められたスケジュールに従ったタスクの実行要求があるかどうかを主制御部101が判断する。例えば、ロボット11がユーザ10から「出迎えに行って」という命令を音声で受けると、音声認識部107がその命令を認識し、認識結果が入力制御部105を介して主制御部101に通知される。主制御部101は、この通知を受けて「出迎え」というタスクの実行が要求されたと判断し、これにより処理はステップS402へ移行する。
Details of step S302 in FIG. 3 will be described below with reference to FIG.
(Step S401)
The
(ステップS402)
主制御部101は、ステップS401によりタスクの要求があったと判断されると、要求されたタスクの内容をタスクデータベース104から抽出し、ロボット11が当該タスクを実行するためにユーザ10の側を離れる必要があるか否かを判定する。この判定の結果、ロボット11がユーザ10の側を離れる必要がある場合には家電機器を介した対話方法を選択するためにステップS403へ進み、離れる必要がない場合には対話方法を切り替えることなく、すなわち家電機器を介した対話方法を選択することなく、タスク実行のためにステップS405へ進む。
(Step S402)
When it is determined in step S401 that a task has been requested, the
タスクデータベース104には、ロボット11が実行可能な種々のタスクについての情報が例えば図5に示すように記憶されている。図5の各行はそれぞれのタスクに関する情報を表しており、「タスク」欄にタスク名が記載され、「基本動作」欄にロボット11に実装されている基本動作プログラムのプログラムが指定され、「対象」欄に基本動作を実行する対象が指定され、「場所」欄には基本動作を実行する場所が指定されている。
In the
例えば1行目の「出迎え」というタスクでは、玄関で人を対象に“greet”というプログラムを実行することが示されている。従って、ユーザ10からの「出迎え」というタスクの実行要求を受けると、タスクデータベース104に記憶された情報から「玄関」に移動する必要があることがわかり、位置測定部103で測定されているロボット11の現在位置を比較してユーザ10の側を離れる必要があるかを判断する。ここでは図5のような表形式でタスク情報が記憶されている例で説明したが、プランニング技術を用いてタスク実行のプランを生成し、生成されたプランの過程で行う移動の有無から判断するようにしてもよい。
For example, the task “greeting” on the first line indicates that a program “greet” is executed for a person at the entrance. Therefore, when a task execution request “greeting” is received from the user 10, it is understood that it is necessary to move to the “entrance” from the information stored in the
(ステップS403)
前述したように、ステップS402でロボット11がユーザ10の側を離れる必要があると判定された場合には、ユーザ10とロボット11との対話方法を選択するためにステップS403へ進む。ステップS403では、家電機器を使った対話方法を選択する。対話方法選択部100は、主制御部101から対話方法の選択が指示されると、まず家電機器制御部108に対して家庭内にある家電機器の中からロボット11との対話に使用できそうな入出力デバイスのリストを要求する。
(Step S403)
As described above, if it is determined in step S402 that the
家電機器制御部108は、家庭内の家電機器の機器情報を調べ、ロボット11との対話のための入出力デバイスとして利用できる機能をリストアップする。Echonetなどに代表されるホームネットワークの規格では、TVやエアコンなどの家電機器の種別毎にネットワークから機器にアクセスするためのインタフェース仕様が決められている。図6は、UPnP規格に準拠した家電機器から家電機器制御部108が受け取る機器情報の例である。図6によると、機器情報はXML(extended markup language)形式で表現され、家電機器制御部108に対して家電機器を制御するのに必要な情報を提供する。例えば、<Device>は機器の名称、<DeviceType>は機器の種類、<Action>は機器の操作を行うコマンド、<Event>は機器の状態変化を通知するイベントを表している。家電機器制御部108は記憶している既規格仕様の情報と機器情報を比較することにより、家庭内にどんな機器があり、それらにどんな機能があるかをリストアップすることができる。
The home
家電機器制御部108は、リストアップした家電機器の機能の中から入出力デバイスとして使用できそうなコマンドとイベントを例えば図7のように記憶している。図7の行が一つの手段を表しており、「機器種別」はTVやエアコンなどの機器の種類、「手段」はコマンドあるいはイベント、「手段名」はコマンドあるいはイベントの説明、「手段種別」はコマンドかイベントかをそれぞれ表す。「入力/出力」はそれが入力と出力のどちらの手段に使用するか、「入力方法は」その手段の使い方をそれぞれ表している。「UP/DOWN」はイベント通知の値の上下を二者択一に使用することを表し、「SELECT」はイベント通知された値で複数選択に使用することを表している。
The home
家電機器制御部108は、家庭内にある家電機器から受信した図6のような機器情報と図7の情報に基づいて、現在の家庭内の環境で入出力方法として使用できそうな入出力デバイスのリスト(図8)を対話方法選択部100に渡す。対話方法選択部100は、家電機器制御部108から受け取った入出力デバイスのリストを基に、ロボット11がユーザ10の側を離れている間の対話方法をユーザ10に提示し、ユーザ10の了解を取る。対話方法の選択手順を以下に述べる。
The home
まず、家電機器制御部108から受け取ったリストの中から、マップメモリ110に記憶されているユーザ10の位置と家電機器の位置からユーザ10の側にある家電機器を選別する。図1の例では、ユーザ10の側にある家電機器として、TV1とエアコン1に対象を絞り込む。
First, the home appliance on the user 10 side is selected from the position of the user 10 and the location of the home appliance stored in the
次に、一つの家電機器で入力デバイスと出力デバイスの両方を持つ機器があれば、その機器を入力デバイス及び出力デバイスとして使用する機器に決定する。入力デバイスと出力デバイスの両方を持つ機器がなければ、入力デバイスに使用する機器と出力デバイスに使用する機器を別々に選択する。出力デバイスとして使用できる機器が無い場合には、ロボット11内の音声合成部109を出力デバイスとする。入力デバイスとして使用できる機器が無い場合には、ロボット11内の音声認識部107を入力デバイスとする。入力デバイス、出力デバイスあるいは入出力デバイスとして使用できる家電機器が複数ある場合には、機器の種類に応じて優先順位を決めるか、あるいは該当する機器が家電機器として使用中かどうかを考慮していずれかの機器を選択する。
Next, if there is a device having both an input device and an output device in one home appliance, the device is determined to be used as an input device and an output device. If there is no device having both an input device and an output device, the device used for the input device and the device used for the output device are selected separately. If there is no device that can be used as an output device, the
以上の処理により、ここでは最終的にTV1が入出力デバイスとして図9のように選択される。これが対話方法の選択である。 Through the above processing, the TV 1 is finally selected as an input / output device as shown in FIG. This is the choice of interaction method.
(ステップS404)
対話方法選択部100は、選択した対話方法に変更する旨のメッセージをユーザ10に通知して、対話方法を確認する。ユーザ10に通知するメッセージ文は、図9の情報から以下のような式で生成される。
(Step S404)
The dialogue
(実行タスク)+“を行います。私からの連絡は以後、”+(出力の機器名)+“に出しますので、”+(入力の機器名)+“の操作で答えてください。”
この結果、「出迎えを行います。私からの連絡は以後、TV1に出しますので、TV1の操作で答えてください」というメッセージを音声合成部109から出力する。この後、ユーザ10からの変更を了解した旨を表す「わかった」などの発話を音声認識部107で確認する。
(Execution task) + "I will contact you. Since I will be sent to" + (output device name) + ", please answer by the operation of" + (input device name) + "."
As a result, the
(ステップS405)
ステップS404の後、ステップS401で要求されたタスクを実行する。
(Step S405)
After step S404, the task requested in step S401 is executed.
(ステップS406)
ステップS405のタスクの実行中に、ロボット11がユーザ10の判断を仰ぎたい状況が発生した場合、ステップS407に進み、そうでなければタスクの実行を継続する。
(Step S406)
If a situation occurs in which the
(ステップS407)
ユーザ10への問い合わせを実行する。主制御部101は、ユーザ10への問い合わせを行う際に例えばDialogという命令を実行する。Dialogには、以下の3つのオプションがある。
[オプション1]Dialog(Message, MB_OK)
[オプション2]Dialog(Message, MB_YESNO)
[オプション3]Dialog(MessageList, MB_SELECT)
[オプション1]は、ユーザ10に対して通知のみを行う場合であり、第1引数のMessageに指定されたテキストの出力のみを行う。通常では音声合成部109から合成音で出力するが、本実施形態では図10のようにTV1の画面にテキストを表示したりする。[オプション2]は、ユーザ10からYES/NOの回答を入力してもらう場合であり、第1引数のMessageに指定されたテキストを出力し、ユーザ10からの回答を受け取る。通常では音声合成部109から合成音でMessageを出力し、音声認識部107からユーザ10の「はい」または「いいえ」の返事を入力してもらう。本実施形態では例えば図11のようにTV1の画面にテキストを表示し、TV1のリモコン16による音量操作でYES/NOを入力してもらう。[オプション3]は、第1引数に指定された複数行のテキストを出力し、何行目のテキストを選択するかユーザ10から選択してもらう場合である。通常では音声合成部109から合成音で例えば「飲み物は、お茶、ジュース、コーヒーのどれにしますか?」といった問い合わせが出力され、ユーザ10の「お茶」といった返事を音声認識部107から入力する。本実施形態では例えば図12のようにTV1の画面に選択肢を表示し、TV1のチャンネルボタンで入力してもらう。
(Step S407)
An inquiry to the user 10 is executed. The
[Option 1] Dialog (Message, MB_OK)
[Option 2] Dialog (Message, MB_YESNO)
[Option 3] Dialog (MessageList, MB_SELECT)
[Option 1] is a case in which only notification is given to the user 10, and only the text specified in the first argument Message is output. Normally, synthesized speech is output from the
[オプション2]の問い合わせを例に、以下の問い合わせの実行手順を説明する。例えば図11の例に従うと、「Ret=Dialog(“玄関の照明点けてもいいですか?”, MB_YESNO)」という問い合わせ命令に対して、主制御部101は出力制御部106に「玄関の照明点けてもいいですか?」というメッセージの出力を指示し、入力制御部105にYES/NOの回答を得るように指示する。出力制御部106は、ステップS403で決定した図9の出力方法にしたがって、TV1に対してoutputTextコマンドの実行を指示すればよいことを判断し、outputTextの引数として渡すメッセージの生成を行う。[オプション2]では、回答方法の指定がMB_YESNOの二者択一の問い合わせであることから、図9の入力方法の中からVolumeの上げ下げを使用することを決定し、回答方法を説明するメッセージを生成して図11に示した問い合わせをTV1に出力する。
Taking the inquiry of [Option 2] as an example, the following inquiry execution procedure will be described. For example, according to the example of FIG. 11, in response to an inquiry command “Ret = Dialog (“ Can I turn on the entrance lighting? ”, MB_YESNO)”, the
図11の問い合わせに従ってユーザ10がTV1のリモコンで音量操作を行うと、TV1の内部状態(Volume値)が変更され、これに伴いTV1から家電機器制御部108に対してvolumeイベントが通知される。家電機器制御部108は、通知されたvolumeイベントを入力制御部105に転送する。入力制御部105は、TV1のVolume値変更をユーザ10からの入力とするように対話方法選択部100に指示されているので、Volume値変更の内容、すなわちvolumeイベントの内容を図9に照らし合わせ、音量上げのイベントであれば“YES”、音量下げのイベントであれば“NO”に変換して主制御部101に通知する。
When the user 10 performs a volume operation with the remote controller of the TV 1 in accordance with the inquiry of FIG. 11, the internal state (Volume value) of the TV 1 is changed, and accordingly, the volume event is notified from the TV 1 to the home
このようにして、主制御部101は[オプション2]の問い合わせに対する戻り値としてユーザ10からの回答を取得し、ユーザ10からの回答に基づいてタスクの実行を継続する。以上により、互いに離れた場所にいるユーザ10とロボット11が家電機器、この例ではTV1を介して対話を行うことができる。
In this way, the
なお、主制御部101はユーザ10が回答する際に行った家電機器に対する操作を元に戻す命令を家電機器に対して行い、家電機器の状態を自動的に元に戻すようにしてもよい。ここでユーザ10がTV1の音量を上げる操作を行ったのはロボット11への回答として行った行為であるからユーザ10はTV1の音量を上げたいという意図は無いので、ロボット11が音量を下げる命令をTV1に指示することにより、ユーザ10の回答によって発生してしまうTV1の状態変化を自動的に元に戻しておくことが望ましい。また、ステップS407以外の時に家電機器制御部108に通知された家電からのイベントは無視され、ユーザ10による通常の家電操作として処理される。
In addition, the
(ステップS408)
ステップS405で実行されるタスクが終了したか否かを判断し、終了したらステップS409へ進む。
(Step S408)
It is determined whether or not the task executed in step S405 has been completed, and when it is completed, the process proceeds to step S409.
(ステップS409)
タスクが終了すると、ロボット11はユーザ10の側へ戻り、対話方法選択部100は入力デバイス及び出力デバイスを標準である音声認識部107及び音声合成部108にそれぞれ戻し、ユーザ10に対して音声での対話に戻ったことを通知する。この後、ステップS401に戻り、ロボット11は再びユーザ10の側で待機する。
(Step S409)
When the task is completed, the
以上説明したように本実施形態によれば、ユーザ10の側を離れたロボット11がユーザ10に助けを求める場合、TVのような家電機器を介してユーザ10とロボット11が対話を行うことにより、ユーザ10がロボット11の居る位置まで出向く手間や、逆にロボット11がユーザ10の所まで戻るという無駄を省くことができる。
As described above, according to the present embodiment, when the
TVは入力デバイスと出力デバイスの両機能を有するが、エアコンは入力デバイスの機能しかない。ユーザ10とロボット11との対話に使用できる家電機器がエアコンのような入力デバイスの機能のみの機器である場合には、出力デバイスとして通常通りロボット11内の音声合成部109を使用する。この場合、図11に示したメッセージは音声合成部109から音声として出力され、ユーザ10はエアコンの風量の上げ下げの操作によって回答を行うようにすればよい。
A TV has both functions of an input device and an output device, whereas an air conditioner has only the function of an input device. When the home appliance that can be used for the dialogue between the user 10 and the
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
10・・・ユーザ;
11・・・ホームロボット;
12・・・アクセスポイント;
13〜15・・・家電機器;
16・・・リモコン;
100・・・対話方法選択部;
101・・・主制御部;
102・・・人抽出部;
103・・・位置測定部;
104・・・タスクデータベース;
105・・・入力制御部;
106・・・出力制御部;
107・・・音声認識部;
108・・・家電機器制御部;
109・・・音声合成部;
110・・・マップメモリ;
111〜11N・・・家電機器
10 ... user;
11 ... Home robot;
12 ... access point;
13-15 ... household appliances;
16 ... remote control;
100 ... Dialog method selection unit;
101 ... main control unit;
102 ... person extraction part;
103 ... position measuring unit;
104 ... task database;
105... Input control unit;
106... Output control unit;
107 ... voice recognition unit;
108 ... home appliance control unit;
109 ... speech synthesis unit;
110: Map memory;
111-11N ... Household appliances
Claims (8)
ユーザから離れる必要があるタスクの実行要求を検知するステップと、
前記実行要求の検知により前記家電機器を用いたユーザとの対話方法を選択するステップと、
選択された対話方法に従ってユーザに対する問い合わせ及びユーザからの回答を含む、ユーザとの対話を実行するステップとを具備するホームロボットにおける処理方法。 In a processing method in a home robot used in a home where at least one home appliance connected to a network is installed,
Detecting a request to execute a task that needs to leave the user;
Selecting an interaction method with a user using the household electrical appliance by detecting the execution request;
A processing method in a home robot comprising: executing an interaction with a user including an inquiry to the user and an answer from the user according to a selected interaction method.
ユーザから離れる必要があるタスクの実行要求を検知する検知手段と、
前記実行要求の検知により前記家電機器を用いたユーザとの対話方法を選択する対話方法選択手段と、
選択された対話方法に従ってユーザに対する問い合わせ及びユーザからの回答を含む、ユーザとの対話を実行する対話実行手段とを具備するホームロボット。 In a home robot used in a home where at least one home appliance connected to the network is installed,
Detection means for detecting an execution request of a task that needs to be separated from the user;
A dialogue method selection means for selecting a dialogue method with a user using the home appliance by detecting the execution request;
A home robot comprising dialog execution means for executing a dialog with a user including an inquiry to the user and an answer from the user according to a selected dialog method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005252384A JP4261529B2 (en) | 2005-08-31 | 2005-08-31 | Processing method for home robot and home robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005252384A JP4261529B2 (en) | 2005-08-31 | 2005-08-31 | Processing method for home robot and home robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007061970A true JP2007061970A (en) | 2007-03-15 |
JP4261529B2 JP4261529B2 (en) | 2009-04-30 |
Family
ID=37924765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005252384A Expired - Fee Related JP4261529B2 (en) | 2005-08-31 | 2005-08-31 | Processing method for home robot and home robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4261529B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008279529A (en) * | 2007-05-09 | 2008-11-20 | Honda Motor Co Ltd | Moving type robot |
JP5158097B2 (en) * | 2008-01-16 | 2013-03-06 | 日本電気株式会社 | Moving device, moving method for moving device, and moving control program for moving device |
JP2016083740A (en) * | 2014-10-28 | 2016-05-19 | シャープ株式会社 | Electronic apparatus, control system, control method and control program |
CN106493746A (en) * | 2016-11-23 | 2017-03-15 | 河池学院 | A kind of home intelligent robot |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002199470A (en) * | 2000-12-25 | 2002-07-12 | Yoichi Sakai | Home automation through interactive virtual robot system |
JP2004214895A (en) * | 2002-12-27 | 2004-07-29 | Toshiba Corp | Auxiliary communication apparatus |
JP2004299033A (en) * | 2003-04-01 | 2004-10-28 | Sony Corp | Robot device, information processing method, and program |
JP2004306200A (en) * | 2003-04-08 | 2004-11-04 | Yaskawa Electric Corp | Robot control system |
JP2005025516A (en) * | 2003-07-02 | 2005-01-27 | Fujitsu Ltd | Mobile robot capable of autonomously recovering radio wave status |
-
2005
- 2005-08-31 JP JP2005252384A patent/JP4261529B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002199470A (en) * | 2000-12-25 | 2002-07-12 | Yoichi Sakai | Home automation through interactive virtual robot system |
JP2004214895A (en) * | 2002-12-27 | 2004-07-29 | Toshiba Corp | Auxiliary communication apparatus |
JP2004299033A (en) * | 2003-04-01 | 2004-10-28 | Sony Corp | Robot device, information processing method, and program |
JP2004306200A (en) * | 2003-04-08 | 2004-11-04 | Yaskawa Electric Corp | Robot control system |
JP2005025516A (en) * | 2003-07-02 | 2005-01-27 | Fujitsu Ltd | Mobile robot capable of autonomously recovering radio wave status |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008279529A (en) * | 2007-05-09 | 2008-11-20 | Honda Motor Co Ltd | Moving type robot |
JP5158097B2 (en) * | 2008-01-16 | 2013-03-06 | 日本電気株式会社 | Moving device, moving method for moving device, and moving control program for moving device |
JP2016083740A (en) * | 2014-10-28 | 2016-05-19 | シャープ株式会社 | Electronic apparatus, control system, control method and control program |
CN106493746A (en) * | 2016-11-23 | 2017-03-15 | 河池学院 | A kind of home intelligent robot |
Also Published As
Publication number | Publication date |
---|---|
JP4261529B2 (en) | 2009-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106257355B (en) | Equipment control method and controller | |
US8340975B1 (en) | Interactive speech recognition device and system for hands-free building control | |
JP7060811B2 (en) | Equipment control system | |
US8527258B2 (en) | Simultaneous interpretation system | |
JP5758428B2 (en) | ELECTRIC DEVICE CONTROL DEVICE, ELECTRIC DEVICE CONTROL SYSTEM, PROGRAM, AND ELECTRIC DEVICE CONTROL METHOD | |
JP2005311864A (en) | Household appliances, adapter instrument, and household appliance system | |
JP4261529B2 (en) | Processing method for home robot and home robot | |
JP2017203967A (en) | Voice output control device, electronic apparatus, and method for controlling voice output control device | |
JP2007190659A (en) | Robot remote operation system | |
CN106782522A (en) | Sound control method and speech control system | |
JP2004110613A (en) | Controller, control program, objective device, and control system | |
JP6133361B2 (en) | Electrical device control device, electrical device control system, program, electrical device control method, input / output device, and electrical device | |
JP5471615B2 (en) | Remote dialogue apparatus, remote dialogue system, remote dialogue method and program | |
US20220122600A1 (en) | Information processing device and information processing method | |
CN110164426B (en) | Voice control method and computer storage medium | |
JP6226911B2 (en) | Server apparatus, system, method for managing voice recognition function, and program for controlling information communication terminal | |
US20220026090A1 (en) | Air conditioning system | |
CN115457958A (en) | Voice control method based on BLE discovery and intelligent home system | |
CN111183416B (en) | Household electrical appliance system | |
CN108536024A (en) | Intelligent socket | |
WO2019239738A1 (en) | Information processing device and information processing method | |
WO2022215280A1 (en) | Speech test method for speaking device, speech test server, speech test system, and program used in terminal communicating with speech test server | |
JP2009237656A (en) | Control system, control method, and program | |
JP2019184679A (en) | Network system, server, and information processing method | |
WO2022215284A1 (en) | Method for controlling speech device, server, speech device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080819 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090203 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090205 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |