JP2007061970A - Processing method in home robot and home robot - Google Patents

Processing method in home robot and home robot Download PDF

Info

Publication number
JP2007061970A
JP2007061970A JP2005252384A JP2005252384A JP2007061970A JP 2007061970 A JP2007061970 A JP 2007061970A JP 2005252384 A JP2005252384 A JP 2005252384A JP 2005252384 A JP2005252384 A JP 2005252384A JP 2007061970 A JP2007061970 A JP 2007061970A
Authority
JP
Japan
Prior art keywords
user
home
robot
inquiry
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005252384A
Other languages
Japanese (ja)
Other versions
JP4261529B2 (en
Inventor
Hiroshi Sugiyama
博史 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005252384A priority Critical patent/JP4261529B2/en
Publication of JP2007061970A publication Critical patent/JP2007061970A/en
Application granted granted Critical
Publication of JP4261529B2 publication Critical patent/JP4261529B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a home robot, reducing a user's time and trouble when the robot needs the user's assist when he/she is in a remote place. <P>SOLUTION: An execution request for a task requiring to separate from a user is detected, an interactive mode with the user using a household electric device is selected on detecting the execution request, and according to the selected interactive mode, a dialog with the user including inquiry to the user and answer from the user is performed. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ホームネットワークを通して家電機器の制御などを行うホームロボットに関する。   The present invention relates to a home robot that controls home appliances through a home network.

近年、家庭内ロボット、いわゆるホームロボットの実用化が進み、家庭内を移動して掃除をしたり、留守番をしたりすることができるロボットが実現している。しかしながら、ロボットが自律的に行動するには家庭環境は複雑である。例えば、椅子が障害物となってロボットが通路を通ることができない時には人に椅子をどかしてもらう必要があったり、あるいは落ちている物をゴミと判断してよいのかわからない時には人に判断してもらう必要があったり、といった人に助けてもらわなければならない状況が発生する。   In recent years, domestic robots, so-called home robots, have been put into practical use, and robots that can be moved around the home for cleaning and answering machines have been realized. However, the home environment is complicated for robots to act autonomously. For example, if a chair becomes an obstacle and the robot cannot pass through the passage, it is necessary to have the person take the chair away, or if you do not know whether the falling object can be judged as garbage, There are situations where it is necessary to get help from a person who needs to be received.

特許文献1には、ロボットが人間に助けを求める際に状況の重要度に応じて助けを求めるかどうかを変更する技術が開示されている。
特開2004−249393号公報
Patent Document 1 discloses a technology for changing whether or not a robot asks for help from a human depending on the importance of the situation.
JP 2004-249393 A

複雑な家庭環境で作業するロボットでは完全な自律動作は困難であり、前述のような人に作業あるいは判断を求める場面の発生を無くすことは難しい。この場合、ロボットが人に助けを求めた時に、人の手間をいかに削減するかが重要である。特許文献1には、このような観点からの工夫は開示されていない。   It is difficult for a robot working in a complex home environment to be completely autonomous, and it is difficult to eliminate the occurrence of scenes that require people to work or make decisions as described above. In this case, it is important how to reduce the labor of the person when the robot asks for help. Patent Document 1 does not disclose a device from such a viewpoint.

ロボットが人に助けを求める方法としては、音声でメッセージを出力するのが一般的である。助けを求める内容が、椅子をどけて欲しいといったような人の作業を伴うことであれば、ユーザはロボットの所に行って作業を行う必要があり、これは避けられない作業である。一方、落ちている物がゴミかどうかといった判断を求める問い合わせをロボットが行う場合、離れた場所にいるユーザに画像を送って見せることができれば、ユーザはわざわざロボットのいる場所まで出向かなくても済むはずである。一部のホームロボットでは、留守宅の異常を検出すると外出中のユーザが所持する携帯電話に撮影した画像をメールとして通知する機能を有するものがある。   As a method for a robot to ask for help from a person, it is common to output a message by voice. If the request for help involves a human task such as removing the chair, the user must go to the robot to perform the task, which is an unavoidable task. On the other hand, when a robot makes an inquiry requesting whether or not a fallen object is garbage, if the user can send an image to a user at a distant location, the user does not have to go to the location where the robot is located. Should be done. Some home robots have a function of notifying an image taken on a mobile phone possessed by a user who is out of the office as an e-mail when an abnormality in his / her home is detected.

家庭内においても、携帯電話や専用のコントローラなどの小型端末をユーザが常に所持していれば、ロボットは当該端末を介してユーザに問い合わせを行うことができる。作業を伴わないことであれば、ロボットが人に助けを求める場合の人の手間を削減することができる。しかし、家庭内ではユーザが常に携帯電話や端末を所持していることは考えにくい。また、高齢者におけるインターネット機能を有した携帯電話の所持率は低く、小型端末による操作も困難な場合が多い。   Even at home, if the user always has a small terminal such as a mobile phone or a dedicated controller, the robot can make an inquiry to the user via the terminal. If there is no work involved, it is possible to reduce the labor of the person when the robot asks for help from the person. However, it is unlikely that the user always has a mobile phone or terminal at home. In addition, the percentage of mobile phones with internet functions in the elderly is low, and operation with a small terminal is often difficult.

一方で家庭内には多くの電化製品があり、どこに居ても何らかの家電製品とそのリモコンが近くにある。これらの身近にある家電製品を介してロボットとの間で対話を行うことができれば、端末を持ち歩かなくてもロボットからの問い合わせにどこに居てもその場で回答することができる。   On the other hand, there are many electrical appliances in the home, and some household appliances and their remote control are nearby wherever they are. If you can interact with the robot through these household appliances, you can answer the inquiry from the robot on the spot without having to carry the terminal.

本発明は、ロボットが離れた場所にいるユーザの助けを必要とする時のユーザの手間を削減するためのホームロボットにおける処理方法及びホームロボットを提供することを目的とする。   An object of the present invention is to provide a processing method in a home robot and a home robot for reducing the trouble of the user when the robot needs the help of a user at a remote place.

本発明の一観点では、ネットワークに接続される少なくとも一つの家電機器が設置された家庭内で使用されるホームロボットにおいて、ユーザから離れる必要があるタスクの実行要求を検知し、該実行要求の検知により前記家電機器を用いたユーザとの対話方法を選択し、選択した対話方法に従ってユーザに対する問い合わせ及びユーザからの回答を含む、ユーザとの対話を実行する。   In one aspect of the present invention, in a home robot used in a home where at least one home appliance connected to a network is installed, a task execution request that needs to be separated from the user is detected, and the execution request is detected. To select a dialog method with the user using the household electrical appliance, and execute a dialog with the user including an inquiry to the user and a response from the user according to the selected dialog method.

対話方法の選択は、例えばユーザに対する問い合わせを行う出力デバイス及びユーザからの回答を受け取る入力デバイスの選択を含む。出力デバイス及び入力デバイスの一方または両方として家電機器を選択してもよい。この場合、出力デバイス及び入力デバイスの両方に使用可能な家電機器を優先的に選択することが好ましい。   The selection of the interaction method includes, for example, selection of an output device that makes an inquiry to the user and an input device that receives an answer from the user. You may select household appliances as one or both of an output device and an input device. In this case, it is preferable to preferentially select household appliances that can be used for both the output device and the input device.

ユーザとの会話実行手段は、ユーザに対する回答方法を示す説明文を付加したメッセージとして問い合わせを出力することが好ましい。   It is preferable that the conversation execution means with the user outputs the inquiry as a message with an explanatory text indicating a response method for the user.

さらに、対話実行時に選択された対話方法に従ってユーザからの回答を行う際には、家電機器に対する通常の操作を無視するようにする。   Furthermore, when performing an answer from the user according to the dialogue method selected at the time of executing the dialogue, a normal operation on the home appliance is ignored.

ユーザから離れる必要があるタスクの実行要求時には家電機器を介してユーザとの対話を実行することにより、ロボットが離れた場所にいるユーザの助けを必要とする時のユーザの手間を削減することができる。   It is possible to reduce the time and effort of the user when the robot needs the help of the user who is away from the user by executing the dialogue with the user through the home appliance at the time of requesting the execution of the task that needs to leave the user. it can.

図1は、本発明の一実施形態に係る概要を示す図であり、家庭内の間取りと家電機器の配置を表している。ロボット11は、家庭内のユーザ10によって使用されるホームロボットであり、車輪や手足を備えて自律移動可能に構成される。アクセスポイント(AP)12は、家電機器13〜15をネットワーク接続する基地局であり、家電機器13〜15との間で通信を行う。家電機器13〜15には、通信のために無線アダプタなどと呼ばれる通信端末が備えられる。   FIG. 1 is a diagram showing an outline according to an embodiment of the present invention, and shows a layout in a home and an arrangement of home appliances. The robot 11 is a home robot used by the user 10 in the home, and includes wheels and limbs so as to be autonomously movable. The access point (AP) 12 is a base station that connects the home appliances 13 to 15 to the network, and communicates with the home appliances 13 to 15. The home appliances 13 to 15 are provided with a communication terminal called a wireless adapter for communication.

アクセスポイント12は、本実施形態では家電機器13〜15とロボット11との間もネットワーク接続している。アクセスポイント12を含む通信システムとしては、例えばIEEE 802.11a/b/g などの無線LANや、Bluetooth(登録商標)と呼ばれる近接無線通信システムなどが使用される。ロボット11とアクセスポイント12との間の通信方式は、ロボット11が移動を行うことから無線方式であることが望ましいが、アクセスポイント11と家電機器13〜16との間の通信は有線ネットワークや電灯線でもかまわない。   In the present embodiment, the access point 12 is also network-connected between the home appliances 13 to 15 and the robot 11. As a communication system including the access point 12, for example, a wireless LAN such as IEEE 802.11a / b / g or a close proximity wireless communication system called Bluetooth (registered trademark) is used. The communication method between the robot 11 and the access point 12 is preferably a wireless method because the robot 11 moves, but the communication between the access point 11 and the home appliances 13 to 16 is performed by a wired network or a light. You can also use a line.

家電機器13〜15は、この例ではテレビジョン受像機(TV1,TV2)及びエアコンを含み、ホームネットワークに対応している。すなわち、家電機器13〜15はいわゆる情報家電あるいはネットワーク家電と呼ばれる機器であり、ロボット11はネットワーク経由で家電機器13〜15の操作や状態確認を行うことができる。本実施形態でいう家電機器は、ネットワーク接続可能な家電機器をいう。リモートコントローラ(以下、リモコンという)16は、家電機器13〜15の専用リモコンか、あるいは全てに共通のリモコンである。以下、家電機器13をTV1、家電機器14をTV2、家電機器15をエアコン1として説明する。   The home appliances 13 to 15 include a television receiver (TV1, TV2) and an air conditioner in this example, and correspond to a home network. That is, the home appliances 13 to 15 are devices called so-called information home appliances or network home appliances, and the robot 11 can perform operations and state confirmation of the home appliances 13 to 15 via the network. The household electrical appliance as used in this embodiment means the household electrical appliance which can be connected to a network. A remote controller (hereinafter referred to as a remote controller) 16 is a dedicated remote controller for the home appliances 13 to 15 or a remote controller common to all. Hereinafter, the home appliance 13 will be described as TV 1, the home appliance 14 as TV 2, and the home appliance 15 as the air conditioner 1.

ロボット11は、通常はユーザ10の側(そば)に待機しており、ユーザ10からの命令を受けて各種のタスクを実行する。例えば、ユーザ10から「TV点けて」と音声で命令されるとロボット11は発話内容を音声認識により理解し、ネットワーク経由でTV1を操作してTV1の電源を入れる。このようにロボット11に対する命令は音声を用いて行われることが多い。   The robot 11 normally stands by on the side of the user 10 (side), and executes various tasks in response to instructions from the user 10. For example, when the user 10 is instructed by voice “Turn on TV”, the robot 11 understands the utterance content by voice recognition, operates the TV 1 via the network, and turns on the TV 1. In this way, commands to the robot 11 are often performed using voice.

ユーザ10がロボット11に対しキッチンの様子を見てくるように命令すると、ロボット11はリビングからキッチンへ移動し、画像認識技術などを使用してキッチン内の異常の有無を調べる。   When the user 10 instructs the robot 11 to see the state of the kitchen, the robot 11 moves from the living room to the kitchen, and checks whether there is an abnormality in the kitchen using image recognition technology or the like.

ロボット11がユーザ10から離れてキッチンにいる時にロボット11がユーザ10に判断を求める場合、従来ではロボット11は音声合成などにより「この荷物を移動させてもいいですか?」のようなメッセージを出力する。現在の音声認識技術ではユーザ10とロボット11との間の距離は1m以内程度の近距離である必要があるので、ユーザ10はロボット11からの当該音声メッセージを聞いてキッチンまで移動し、音声認識が可能な距離までロボット11に近づいてから「いいよ」というような回答を発声する。または、ロボット11はユーザ10のいる場所まで戻り、音声認識が可能な距離までユーザ10に近づいて質問をし、ユーザ10からの回答を得て再びキッチンまで戻って、命じられたタスクの実行を続ける。   When the robot 11 asks the user 10 for determination when the robot 11 is away from the user 10 in the kitchen, conventionally, the robot 11 displays a message such as “Can this package be moved?” By voice synthesis or the like. Output. In the current voice recognition technology, the distance between the user 10 and the robot 11 needs to be a short distance of about 1 m or less, so the user 10 hears the voice message from the robot 11 and moves to the kitchen to perform voice recognition. After speaking to the robot 11 as far as possible, an answer such as “OK” is uttered. Alternatively, the robot 11 returns to the place where the user 10 is located, approaches the user 10 to a distance where voice recognition is possible, asks a question, obtains an answer from the user 10, returns to the kitchen, and executes the commanded task. to continue.

これに対し、本実施形態ではユーザ10とロボット11が位置的に離れている場合には、ユーザ10の側にあるTV1やエアコン1などの家電機器を介してユーザ10とロボット11との間で対話を行うことにより、ユーザ10がロボット11の所に出向くことなく、またロボット11がユーザ10の側に戻ることなく、ロボット11がユーザ10に何らかの問い合わせ、すなわち判断を求めるような対話を行うことができる。   On the other hand, in the present embodiment, when the user 10 and the robot 11 are separated from each other, between the user 10 and the robot 11 via home appliances such as the TV 1 and the air conditioner 1 on the user 10 side. By performing a dialogue, the robot 11 does not go to the robot 11 and does not return to the user 10 side, and the robot 11 performs a dialogue that asks the user 10 for any inquiry, that is, a determination. Can do.

図2は、ロボット11のシステム構成を示すブロック図である。人抽出部102はロボット11の周囲にいる人(ユーザ10)を見つけるデバイスであり、例えば動体抽出や顔認識などの公知の画像処理により実現される。   FIG. 2 is a block diagram showing a system configuration of the robot 11. The person extraction unit 102 is a device for finding a person (user 10) around the robot 11, and is realized by, for example, known image processing such as moving object extraction or face recognition.

位置測定部103は、ロボット11の位置(現在位置)を測定するデバイスである。ロボット11は、例えば図1に示したような家庭内の地図をマップメモリ110に記憶しており、家庭内の適当な目印をステレオ視で計測することなどにより、ロボット11自身の現在位置を常に把握している。また、位置測定部103は本実施形態では主制御部101がユーザ10の位置を測定するための補助にも用いられる。   The position measuring unit 103 is a device that measures the position (current position) of the robot 11. The robot 11 stores, for example, a home map as shown in FIG. 1 in the map memory 110, and always measures the current position of the robot 11 itself by, for example, measuring an appropriate mark in the home with stereo vision. I know. In the present embodiment, the position measuring unit 103 is also used to assist the main control unit 101 to measure the position of the user 10.

タスクデータベース104は、ロボット11が実行すべきタスクの実行方法を記憶する装置である。音声認識部107は、図示しないマイクなどにより入力された周囲の音からユーザ10の命令発話を認識する。音声合成部109は、ユーザ10へメッセージを伝達するためにテキストから音声波形を生成しスピーカから出力する。エアコン111、TV112、照明11Nは家庭内にあるネットワーク経由で制御可能な家電機器であり、UPnPやEchonet(登録商標)などのホームネットワーク規格に対応している。   The task database 104 is a device that stores a task execution method to be executed by the robot 11. The voice recognizing unit 107 recognizes the command utterance of the user 10 from surrounding sounds input by a microphone (not shown). The voice synthesizer 109 generates a voice waveform from text and outputs it from a speaker in order to transmit a message to the user 10. The air conditioner 111, the TV 112, and the lighting 11N are home appliances that can be controlled via a network in the home, and support home network standards such as UPnP and Echonet (registered trademark).

家電機器制御部108は、家庭内にある家電機器を検出し、ネットワーク経由で家電機器を制御したり、機器の動作状態を調べたりする機能を有し、ホームネットワーク規格におけるコントローラに対応する。UPnPやEchonetでは、コントローラは対象となる機器の制御を行うことができるだけでなく、機器の動作状態の変化をイベント通知として逐次把握することができる。   The home appliance control unit 108 has a function of detecting home appliances in the home, controlling the home appliance via the network, and examining the operation state of the appliance, and corresponds to a controller in the home network standard. In UPnP and Echonet, the controller can not only control the target device, but can also sequentially grasp changes in the operating state of the device as event notifications.

入力制御部105は、音声認識部107や家電機器制御部108などの複数のデバイスの中から、対話方法選択部100からの指示に従って一つのデバイスを入力デバイスとして選択し、選択した入力デバイスにより入力された内容を入力デバイスに応じて変換した後、主制御部101に通知する。出力制御部106は、音声合成部109や家電機器制御部108などの複数のデバイスの中から、対話方法選択部100からの指示に従って一つのデバイスを出力デバイスとして選択する。   The input control unit 105 selects one device as an input device from a plurality of devices such as the voice recognition unit 107 and the home appliance control unit 108 in accordance with an instruction from the dialogue method selection unit 100, and inputs the selected input device. After the converted content is converted according to the input device, it is notified to the main control unit 101. The output control unit 106 selects one device as an output device from a plurality of devices such as the voice synthesis unit 109 and the home appliance control unit 108 in accordance with an instruction from the dialogue method selection unit 100.

対話方法選択部100は、主制御部101からの対話方法選択指示を受けると、家電機器制御部108から家庭内にある家電機器の情報を取得し、ロボット11が持つ入出力デバイスである音声認識部107及び音声合成部109も含めて、利用できる入出力デバイスから使用する入出力デバイスを認識し、入力制御部105と出力制御部105に使用するデバイスの選択を指示する。   When the dialogue method selection unit 100 receives a dialogue method selection instruction from the main control unit 101, the dialogue method selection unit 100 acquires information on household electrical appliances in the home from the household appliance control unit 108, and recognizes speech that is an input / output device of the robot 11. The input / output device to be used is recognized from the available input / output devices including the unit 107 and the speech synthesis unit 109, and the input control unit 105 and the output control unit 105 are instructed to select the device to be used.

さらに、対話方法選択部100は特にロボット11がユーザ10から離れる必要のあるタスクの実行要求を検知すると、家電機器を介したユーザ10との対話方法の選択、具体的にはユーザ10に対する問い合わせを行うための出力デバイス、及びユーザ10からの回答を行うための入力デバイスの選択を行う。   Furthermore, when the robot 11 detects a task execution request that requires the robot 11 to move away from the user 10, the dialog method selection unit 100 selects an interaction method with the user 10 via the home appliance, specifically, an inquiry to the user 10. The output device for performing the selection and the input device for performing the answer from the user 10 are selected.

主制御部101は、ユーザ10からのタスクの実行要求などに対して、タスクデータベース104に記憶されているタスクの実行を行う。その際、主制御部101はタスクデータベース104に記憶されているタスクの内容や、人抽出部102及び位置測定部103の出力から求められるユーザ10の位置に基づき、ロボット11が要求されたタスク実行のためにユーザ10の側を離れる必要があると判断すると、対話方法選択部100に対し対話方法の選択を指示する。   The main control unit 101 executes a task stored in the task database 104 in response to a task execution request from the user 10. At that time, the main control unit 101 executes the task execution requested by the robot 11 based on the contents of the task stored in the task database 104 and the position of the user 10 obtained from the outputs of the person extraction unit 102 and the position measurement unit 103. If it is determined that it is necessary to leave the user 10 for the purpose, the dialogue method selection unit 100 is instructed to select the dialogue method.

次に、図3及び図4のフローチャートを用いて本実施形態における動作の流れを説明する。   Next, the operation flow in the present embodiment will be described with reference to the flowcharts of FIGS. 3 and 4.

図3は、全体の大まかな処理を示している。まず、電源ONでロボット11の初期化が行われる(ステップS301)。すなわち、ロボット11のOS(オペレーティングシステム)が起動し、次いで駆動系の制御プログラム、センサ系の制御プログラム及びヒューマンインタフェース系の制御プログラムが起動し、最後にユーザ10にサービスを行うためのアプリケーションプログラムが起動し、次のステップS302に移行する。ステップS302では、ユーザ10により指示されたタスク、すなわちアプリケーションプログラムを実行する。   FIG. 3 shows an overall rough process. First, the robot 11 is initialized when the power is turned on (step S301). That is, the OS (operating system) of the robot 11 is started, then the drive system control program, the sensor system control program, and the human interface system control program are started, and finally an application program for providing services to the user 10 is provided. The process proceeds to the next step S302. In step S302, a task instructed by the user 10, that is, an application program is executed.

ステップS302で実行されるアプリケーションプログラムは、ロボット11の利用の仕方によって変わる。本実施形態では、ユーザ10の側に居てユーザ10に指示されたタスクを実行するためのプログラムを例に図4に示すフローチャートに従って実行する。   The application program executed in step S302 varies depending on how the robot 11 is used. In the present embodiment, a program for executing a task instructed by the user 10 on the user 10 side is executed according to the flowchart shown in FIG.

ステップS302の実行中に、ユーザ10から終了を指示されるか、電源OFFの指示が割込み指示されるとステップS303へ移行し、アプリケーションプログラムの終了、制御プログラムの終了が順次行われ、最後にOSが終了して電源がOFFになる。   During the execution of step S302, if the user 10 gives an instruction to end or an instruction to turn off the power is given, the process proceeds to step S303, where the application program and the control program are sequentially ended, and finally the OS Ends and the power is turned off.

以下、図3のステップS302の詳細を図4により説明する。
(ステップS401)
ロボット11は、ユーザ10の側で待機する。ステップS401では、ユーザ10からの命令もしくは予め定められたスケジュールに従ったタスクの実行要求があるかどうかを主制御部101が判断する。例えば、ロボット11がユーザ10から「出迎えに行って」という命令を音声で受けると、音声認識部107がその命令を認識し、認識結果が入力制御部105を介して主制御部101に通知される。主制御部101は、この通知を受けて「出迎え」というタスクの実行が要求されたと判断し、これにより処理はステップS402へ移行する。
Details of step S302 in FIG. 3 will be described below with reference to FIG.
(Step S401)
The robot 11 stands by on the user 10 side. In step S401, the main control unit 101 determines whether there is a task execution request according to a command from the user 10 or a predetermined schedule. For example, when the robot 11 receives a voice command “go to meet” from the user 10, the voice recognition unit 107 recognizes the command, and the recognition result is notified to the main control unit 101 via the input control unit 105. The In response to this notification, the main control unit 101 determines that execution of the task “greeting” is requested, and the process proceeds to step S402.

(ステップS402)
主制御部101は、ステップS401によりタスクの要求があったと判断されると、要求されたタスクの内容をタスクデータベース104から抽出し、ロボット11が当該タスクを実行するためにユーザ10の側を離れる必要があるか否かを判定する。この判定の結果、ロボット11がユーザ10の側を離れる必要がある場合には家電機器を介した対話方法を選択するためにステップS403へ進み、離れる必要がない場合には対話方法を切り替えることなく、すなわち家電機器を介した対話方法を選択することなく、タスク実行のためにステップS405へ進む。
(Step S402)
When it is determined in step S401 that a task has been requested, the main control unit 101 extracts the contents of the requested task from the task database 104, and the robot 11 leaves the user 10 side to execute the task. Determine whether it is necessary. As a result of the determination, if the robot 11 needs to leave the user 10, the process proceeds to step S403 to select a dialogue method via the home appliance, and if there is no need to leave, the dialogue method is not switched. That is, the process proceeds to step S405 for task execution without selecting an interactive method via the home appliance.

タスクデータベース104には、ロボット11が実行可能な種々のタスクについての情報が例えば図5に示すように記憶されている。図5の各行はそれぞれのタスクに関する情報を表しており、「タスク」欄にタスク名が記載され、「基本動作」欄にロボット11に実装されている基本動作プログラムのプログラムが指定され、「対象」欄に基本動作を実行する対象が指定され、「場所」欄には基本動作を実行する場所が指定されている。   In the task database 104, information on various tasks that can be executed by the robot 11 is stored as shown in FIG. Each line in FIG. 5 represents information related to each task, the task name is described in the “task” column, the program of the basic operation program installed in the robot 11 is specified in the “basic operation” column, In the "" column, the target for executing the basic operation is specified, and in the "Location" column, the location for executing the basic operation is specified.

例えば1行目の「出迎え」というタスクでは、玄関で人を対象に“greet”というプログラムを実行することが示されている。従って、ユーザ10からの「出迎え」というタスクの実行要求を受けると、タスクデータベース104に記憶された情報から「玄関」に移動する必要があることがわかり、位置測定部103で測定されているロボット11の現在位置を比較してユーザ10の側を離れる必要があるかを判断する。ここでは図5のような表形式でタスク情報が記憶されている例で説明したが、プランニング技術を用いてタスク実行のプランを生成し、生成されたプランの過程で行う移動の有無から判断するようにしてもよい。   For example, the task “greeting” on the first line indicates that a program “greet” is executed for a person at the entrance. Therefore, when a task execution request “greeting” is received from the user 10, it is understood that it is necessary to move to the “entrance” from the information stored in the task database 104, and the robot measured by the position measuring unit 103. 11 current positions are compared to determine whether it is necessary to leave the user 10 side. Here, the example in which task information is stored in a table format as shown in FIG. 5 has been described. However, a plan for task execution is generated using a planning technique, and determination is made based on the presence or absence of movement performed in the process of the generated plan. You may do it.

(ステップS403)
前述したように、ステップS402でロボット11がユーザ10の側を離れる必要があると判定された場合には、ユーザ10とロボット11との対話方法を選択するためにステップS403へ進む。ステップS403では、家電機器を使った対話方法を選択する。対話方法選択部100は、主制御部101から対話方法の選択が指示されると、まず家電機器制御部108に対して家庭内にある家電機器の中からロボット11との対話に使用できそうな入出力デバイスのリストを要求する。
(Step S403)
As described above, if it is determined in step S402 that the robot 11 needs to leave the user 10, the process proceeds to step S403 in order to select an interaction method between the user 10 and the robot 11. In step S403, a dialogue method using home appliances is selected. When the dialogue method selection unit 100 is instructed to select a dialogue method from the main control unit 101, the dialogue method selection unit 100 is likely to be used for dialogue with the robot 11 from the household appliances in the home to the household appliance control unit 108. Request a list of input / output devices.

家電機器制御部108は、家庭内の家電機器の機器情報を調べ、ロボット11との対話のための入出力デバイスとして利用できる機能をリストアップする。Echonetなどに代表されるホームネットワークの規格では、TVやエアコンなどの家電機器の種別毎にネットワークから機器にアクセスするためのインタフェース仕様が決められている。図6は、UPnP規格に準拠した家電機器から家電機器制御部108が受け取る機器情報の例である。図6によると、機器情報はXML(extended markup language)形式で表現され、家電機器制御部108に対して家電機器を制御するのに必要な情報を提供する。例えば、<Device>は機器の名称、<DeviceType>は機器の種類、<Action>は機器の操作を行うコマンド、<Event>は機器の状態変化を通知するイベントを表している。家電機器制御部108は記憶している既規格仕様の情報と機器情報を比較することにより、家庭内にどんな機器があり、それらにどんな機能があるかをリストアップすることができる。   The home appliance control unit 108 checks device information of home appliances in the home and lists functions that can be used as input / output devices for dialogue with the robot 11. In home network standards such as Echonet, interface specifications for accessing devices from the network are determined for each type of home appliances such as TVs and air conditioners. FIG. 6 is an example of device information received by the home appliance control unit 108 from a home appliance that conforms to the UPnP standard. According to FIG. 6, the device information is expressed in an XML (extended markup language) format, and provides the home appliance control unit 108 with information necessary for controlling the home appliance. For example, <Device> represents the name of the device, <DeviceType> represents the type of device, <Action> represents a command for operating the device, and <Event> represents an event for notifying a change in the state of the device. The home appliance control unit 108 can list what devices are in the home and what functions are in the home by comparing the information of the stored standard specifications with the device information.

家電機器制御部108は、リストアップした家電機器の機能の中から入出力デバイスとして使用できそうなコマンドとイベントを例えば図7のように記憶している。図7の行が一つの手段を表しており、「機器種別」はTVやエアコンなどの機器の種類、「手段」はコマンドあるいはイベント、「手段名」はコマンドあるいはイベントの説明、「手段種別」はコマンドかイベントかをそれぞれ表す。「入力/出力」はそれが入力と出力のどちらの手段に使用するか、「入力方法は」その手段の使い方をそれぞれ表している。「UP/DOWN」はイベント通知の値の上下を二者択一に使用することを表し、「SELECT」はイベント通知された値で複数選択に使用することを表している。   The home appliance control unit 108 stores commands and events that can be used as input / output devices from the listed home appliance functions, for example, as shown in FIG. The row in FIG. 7 represents one means, where “equipment type” is the type of equipment such as a TV or air conditioner, “means” is a command or event, “means name” is a description of the command or event, and “means type”. Represents a command or an event. “Input / output” indicates whether it is used for input or output, and “input method” indicates how to use the means. “UP / DOWN” indicates that the upper and lower values of the event notification value are used in an alternative, and “SELECT” indicates that the event notification value is used for multiple selection.

家電機器制御部108は、家庭内にある家電機器から受信した図6のような機器情報と図7の情報に基づいて、現在の家庭内の環境で入出力方法として使用できそうな入出力デバイスのリスト(図8)を対話方法選択部100に渡す。対話方法選択部100は、家電機器制御部108から受け取った入出力デバイスのリストを基に、ロボット11がユーザ10の側を離れている間の対話方法をユーザ10に提示し、ユーザ10の了解を取る。対話方法の選択手順を以下に述べる。   The home appliance control unit 108 is an input / output device that can be used as an input / output method in the current home environment based on the device information shown in FIG. 6 and the information shown in FIG. 7 received from home appliances in the home. (FIG. 8) is passed to the dialogue method selection unit 100. Based on the list of input / output devices received from the home appliance control unit 108, the dialogue method selection unit 100 presents to the user 10 a dialogue method while the robot 11 is away from the user 10 side. I take the. The procedure for selecting the dialogue method is described below.

まず、家電機器制御部108から受け取ったリストの中から、マップメモリ110に記憶されているユーザ10の位置と家電機器の位置からユーザ10の側にある家電機器を選別する。図1の例では、ユーザ10の側にある家電機器として、TV1とエアコン1に対象を絞り込む。   First, the home appliance on the user 10 side is selected from the position of the user 10 and the location of the home appliance stored in the map memory 110 from the list received from the home appliance control unit 108. In the example of FIG. 1, the target is narrowed down to the TV 1 and the air conditioner 1 as home appliances on the user 10 side.

次に、一つの家電機器で入力デバイスと出力デバイスの両方を持つ機器があれば、その機器を入力デバイス及び出力デバイスとして使用する機器に決定する。入力デバイスと出力デバイスの両方を持つ機器がなければ、入力デバイスに使用する機器と出力デバイスに使用する機器を別々に選択する。出力デバイスとして使用できる機器が無い場合には、ロボット11内の音声合成部109を出力デバイスとする。入力デバイスとして使用できる機器が無い場合には、ロボット11内の音声認識部107を入力デバイスとする。入力デバイス、出力デバイスあるいは入出力デバイスとして使用できる家電機器が複数ある場合には、機器の種類に応じて優先順位を決めるか、あるいは該当する機器が家電機器として使用中かどうかを考慮していずれかの機器を選択する。   Next, if there is a device having both an input device and an output device in one home appliance, the device is determined to be used as an input device and an output device. If there is no device having both an input device and an output device, the device used for the input device and the device used for the output device are selected separately. If there is no device that can be used as an output device, the speech synthesizer 109 in the robot 11 is set as an output device. If there is no device that can be used as an input device, the voice recognition unit 107 in the robot 11 is set as the input device. If there are multiple home appliances that can be used as input devices, output devices, or input / output devices, determine the priority according to the type of device, or consider whether the device is in use as a home appliance. Select the device.

以上の処理により、ここでは最終的にTV1が入出力デバイスとして図9のように選択される。これが対話方法の選択である。   Through the above processing, the TV 1 is finally selected as an input / output device as shown in FIG. This is the choice of interaction method.

(ステップS404)
対話方法選択部100は、選択した対話方法に変更する旨のメッセージをユーザ10に通知して、対話方法を確認する。ユーザ10に通知するメッセージ文は、図9の情報から以下のような式で生成される。
(Step S404)
The dialogue method selection unit 100 notifies the user 10 of a message to change to the selected dialogue method and confirms the dialogue method. A message sentence to be notified to the user 10 is generated from the information shown in FIG.

(実行タスク)+“を行います。私からの連絡は以後、”+(出力の機器名)+“に出しますので、”+(入力の機器名)+“の操作で答えてください。”
この結果、「出迎えを行います。私からの連絡は以後、TV1に出しますので、TV1の操作で答えてください」というメッセージを音声合成部109から出力する。この後、ユーザ10からの変更を了解した旨を表す「わかった」などの発話を音声認識部107で確認する。
(Execution task) + "I will contact you. Since I will be sent to" + (output device name) + ", please answer by the operation of" + (input device name) + "."
As a result, the voice synthesizing unit 109 outputs a message “I will greet you. Since I will contact you later on TV 1, please answer by operating TV 1.” Thereafter, the speech recognition unit 107 confirms an utterance such as “I understand” indicating that the change from the user 10 is accepted.

(ステップS405)
ステップS404の後、ステップS401で要求されたタスクを実行する。
(Step S405)
After step S404, the task requested in step S401 is executed.

(ステップS406)
ステップS405のタスクの実行中に、ロボット11がユーザ10の判断を仰ぎたい状況が発生した場合、ステップS407に進み、そうでなければタスクの実行を継続する。
(Step S406)
If a situation occurs in which the robot 11 wants to determine the user 10 during the execution of the task in step S405, the process proceeds to step S407. Otherwise, the execution of the task is continued.

(ステップS407)
ユーザ10への問い合わせを実行する。主制御部101は、ユーザ10への問い合わせを行う際に例えばDialogという命令を実行する。Dialogには、以下の3つのオプションがある。
[オプション1]Dialog(Message, MB_OK)
[オプション2]Dialog(Message, MB_YESNO)
[オプション3]Dialog(MessageList, MB_SELECT)
[オプション1]は、ユーザ10に対して通知のみを行う場合であり、第1引数のMessageに指定されたテキストの出力のみを行う。通常では音声合成部109から合成音で出力するが、本実施形態では図10のようにTV1の画面にテキストを表示したりする。[オプション2]は、ユーザ10からYES/NOの回答を入力してもらう場合であり、第1引数のMessageに指定されたテキストを出力し、ユーザ10からの回答を受け取る。通常では音声合成部109から合成音でMessageを出力し、音声認識部107からユーザ10の「はい」または「いいえ」の返事を入力してもらう。本実施形態では例えば図11のようにTV1の画面にテキストを表示し、TV1のリモコン16による音量操作でYES/NOを入力してもらう。[オプション3]は、第1引数に指定された複数行のテキストを出力し、何行目のテキストを選択するかユーザ10から選択してもらう場合である。通常では音声合成部109から合成音で例えば「飲み物は、お茶、ジュース、コーヒーのどれにしますか?」といった問い合わせが出力され、ユーザ10の「お茶」といった返事を音声認識部107から入力する。本実施形態では例えば図12のようにTV1の画面に選択肢を表示し、TV1のチャンネルボタンで入力してもらう。
(Step S407)
An inquiry to the user 10 is executed. The main control unit 101 executes, for example, a command “Dialog” when making an inquiry to the user 10. Dialog has three options:
[Option 1] Dialog (Message, MB_OK)
[Option 2] Dialog (Message, MB_YESNO)
[Option 3] Dialog (MessageList, MB_SELECT)
[Option 1] is a case in which only notification is given to the user 10, and only the text specified in the first argument Message is output. Normally, synthesized speech is output from the speech synthesizer 109, but in this embodiment, text is displayed on the screen of the TV 1 as shown in FIG. [Option 2] is a case where the answer of YES / NO is input from the user 10, the text specified in the message of the first argument is output, and the answer from the user 10 is received. Normally, a message is output from the voice synthesizer 109 as a synthesized sound, and a reply “Yes” or “No” of the user 10 is input from the voice recognizer 107. In the present embodiment, for example, text is displayed on the screen of the TV 1 as shown in FIG. 11, and YES / NO is input by volume operation using the remote control 16 of the TV 1. [Option 3] is a case where a plurality of lines of text specified by the first argument are output, and the user 10 selects which line of text to select. In general, an inquiry such as “Which drink should be tea, juice, or coffee?” Is output from the voice synthesis unit 109 as a synthesized sound, and a reply such as “tea” from the user 10 is input from the voice recognition unit 107. In the present embodiment, for example, options are displayed on the screen of the TV 1 as shown in FIG.

[オプション2]の問い合わせを例に、以下の問い合わせの実行手順を説明する。例えば図11の例に従うと、「Ret=Dialog(“玄関の照明点けてもいいですか?”, MB_YESNO)」という問い合わせ命令に対して、主制御部101は出力制御部106に「玄関の照明点けてもいいですか?」というメッセージの出力を指示し、入力制御部105にYES/NOの回答を得るように指示する。出力制御部106は、ステップS403で決定した図9の出力方法にしたがって、TV1に対してoutputTextコマンドの実行を指示すればよいことを判断し、outputTextの引数として渡すメッセージの生成を行う。[オプション2]では、回答方法の指定がMB_YESNOの二者択一の問い合わせであることから、図9の入力方法の中からVolumeの上げ下げを使用することを決定し、回答方法を説明するメッセージを生成して図11に示した問い合わせをTV1に出力する。   Taking the inquiry of [Option 2] as an example, the following inquiry execution procedure will be described. For example, according to the example of FIG. 11, in response to an inquiry command “Ret = Dialog (“ Can I turn on the entrance lighting? ”, MB_YESNO)”, the main control unit 101 sends “ "Is it OK to turn on?" Is output, and the input control unit 105 is instructed to obtain a YES / NO answer. The output control unit 106 determines that the TV1 should be instructed to execute the outputText command according to the output method of FIG. 9 determined in step S403, and generates a message to be passed as an argument of the outputText. In [Option 2], since the answer method designation is an MB_YESNO alternative query, it is decided to use the volume increase / decrease among the input methods shown in FIG. 9, and a message explaining the answer method is displayed. The inquiry shown in FIG. 11 is output to the TV 1.

図11の問い合わせに従ってユーザ10がTV1のリモコンで音量操作を行うと、TV1の内部状態(Volume値)が変更され、これに伴いTV1から家電機器制御部108に対してvolumeイベントが通知される。家電機器制御部108は、通知されたvolumeイベントを入力制御部105に転送する。入力制御部105は、TV1のVolume値変更をユーザ10からの入力とするように対話方法選択部100に指示されているので、Volume値変更の内容、すなわちvolumeイベントの内容を図9に照らし合わせ、音量上げのイベントであれば“YES”、音量下げのイベントであれば“NO”に変換して主制御部101に通知する。   When the user 10 performs a volume operation with the remote controller of the TV 1 in accordance with the inquiry of FIG. 11, the internal state (Volume value) of the TV 1 is changed, and accordingly, the volume event is notified from the TV 1 to the home appliance control unit 108. The home appliance control unit 108 transfers the notified volume event to the input control unit 105. The input control unit 105 is instructed by the dialogue method selection unit 100 to input the volume value change of the TV 1 from the user 10, so the content of the volume value change, that is, the content of the volume event is checked against FIG. 9. If it is a volume increase event, it is converted to “YES”, and if it is a volume decrease event, it is converted to “NO” and notified to the main control unit 101.

このようにして、主制御部101は[オプション2]の問い合わせに対する戻り値としてユーザ10からの回答を取得し、ユーザ10からの回答に基づいてタスクの実行を継続する。以上により、互いに離れた場所にいるユーザ10とロボット11が家電機器、この例ではTV1を介して対話を行うことができる。   In this way, the main control unit 101 obtains an answer from the user 10 as a return value for the inquiry of [Option 2], and continues to execute the task based on the answer from the user 10. As described above, the user 10 and the robot 11 that are located apart from each other can interact with each other via the home appliance, in this example, the TV 1.

なお、主制御部101はユーザ10が回答する際に行った家電機器に対する操作を元に戻す命令を家電機器に対して行い、家電機器の状態を自動的に元に戻すようにしてもよい。ここでユーザ10がTV1の音量を上げる操作を行ったのはロボット11への回答として行った行為であるからユーザ10はTV1の音量を上げたいという意図は無いので、ロボット11が音量を下げる命令をTV1に指示することにより、ユーザ10の回答によって発生してしまうTV1の状態変化を自動的に元に戻しておくことが望ましい。また、ステップS407以外の時に家電機器制御部108に通知された家電からのイベントは無視され、ユーザ10による通常の家電操作として処理される。   In addition, the main control unit 101 may perform an instruction to return the operation to the home appliance performed when the user 10 answers to the home appliance, and may automatically return the state of the home appliance. Here, since the user 10 performed an operation to increase the volume of the TV 1 is an action performed as an answer to the robot 11, the user 10 does not intend to increase the volume of the TV 1. It is desirable to automatically restore the change in the state of the TV 1 that occurs due to the answer of the user 10 by instructing the TV 1. Moreover, the event from the household appliance notified to the household appliance control part 108 other than step S407 is disregarded, and it processes as normal household appliance operation by the user 10. FIG.

(ステップS408)
ステップS405で実行されるタスクが終了したか否かを判断し、終了したらステップS409へ進む。
(Step S408)
It is determined whether or not the task executed in step S405 has been completed, and when it is completed, the process proceeds to step S409.

(ステップS409)
タスクが終了すると、ロボット11はユーザ10の側へ戻り、対話方法選択部100は入力デバイス及び出力デバイスを標準である音声認識部107及び音声合成部108にそれぞれ戻し、ユーザ10に対して音声での対話に戻ったことを通知する。この後、ステップS401に戻り、ロボット11は再びユーザ10の側で待機する。
(Step S409)
When the task is completed, the robot 11 returns to the user 10 side, and the dialogue method selection unit 100 returns the input device and the output device to the standard voice recognition unit 107 and the voice synthesis unit 108, respectively. Notify you that you have returned to the conversation. Thereafter, the process returns to step S401, and the robot 11 again stands by on the user 10 side.

以上説明したように本実施形態によれば、ユーザ10の側を離れたロボット11がユーザ10に助けを求める場合、TVのような家電機器を介してユーザ10とロボット11が対話を行うことにより、ユーザ10がロボット11の居る位置まで出向く手間や、逆にロボット11がユーザ10の所まで戻るという無駄を省くことができる。   As described above, according to the present embodiment, when the robot 11 away from the user 10 asks the user 10 for help, the user 10 and the robot 11 interact through a home appliance such as a TV. The trouble that the user 10 goes to the position where the robot 11 is present and the waste that the robot 11 returns to the user 10 can be saved.

TVは入力デバイスと出力デバイスの両機能を有するが、エアコンは入力デバイスの機能しかない。ユーザ10とロボット11との対話に使用できる家電機器がエアコンのような入力デバイスの機能のみの機器である場合には、出力デバイスとして通常通りロボット11内の音声合成部109を使用する。この場合、図11に示したメッセージは音声合成部109から音声として出力され、ユーザ10はエアコンの風量の上げ下げの操作によって回答を行うようにすればよい。   A TV has both functions of an input device and an output device, whereas an air conditioner has only the function of an input device. When the home appliance that can be used for the dialogue between the user 10 and the robot 11 is a device having only an input device function such as an air conditioner, the speech synthesizer 109 in the robot 11 is used as an output device as usual. In this case, the message shown in FIG. 11 is output as a voice from the voice synthesizer 109, and the user 10 may make a reply by an operation of raising or lowering the air volume of the air conditioner.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.

本発明の一実施形態に係るホームロボットが適用される家庭内の家電機器配置の例を示す図The figure which shows the example of household appliances arrangement | positioning in the home to which the home robot which concerns on one Embodiment of this invention is applied 本発明の一実施形態に係るホームロボットのシステム構成を示すブロック図The block diagram which shows the system configuration | structure of the home robot which concerns on one Embodiment of this invention. 同実施形態における概略的な処理手順を示すフローチャートA flowchart showing a schematic processing procedure in the embodiment 図3中のユーザタスク実行ステップの詳細な処理手順を示すフローチャートThe flowchart which shows the detailed process sequence of the user task execution step in FIG. 図2中のタスクデータベースの内容の例を示す図The figure which shows the example of the content of the task database in FIG. 図2中の家電機器の機器情報の例を示す図The figure which shows the example of the apparatus information of the household appliances in FIG. 入出力デバイスに使用される家電機器の機能定義の例を示す図The figure which shows the example of the function definition of the household appliances used for an input / output device 図1の例で利用できる入出力デバイスのリストを示す図A diagram showing a list of input / output devices that can be used in the example of FIG. 選択された入出力デバイスの例を示す図Diagram showing examples of selected input / output devices ユーザへの問い合わせ画面の例を示す図The figure which shows the example of the inquiry screen to the user ユーザへの問い合わせ画面の例を示す図The figure which shows the example of the inquiry screen to the user ユーザへの問い合わせ画面の例を示す図The figure which shows the example of the inquiry screen to the user

符号の説明Explanation of symbols

10・・・ユーザ;
11・・・ホームロボット;
12・・・アクセスポイント;
13〜15・・・家電機器;
16・・・リモコン;
100・・・対話方法選択部;
101・・・主制御部;
102・・・人抽出部;
103・・・位置測定部;
104・・・タスクデータベース;
105・・・入力制御部;
106・・・出力制御部;
107・・・音声認識部;
108・・・家電機器制御部;
109・・・音声合成部;
110・・・マップメモリ;
111〜11N・・・家電機器
10 ... user;
11 ... Home robot;
12 ... access point;
13-15 ... household appliances;
16 ... remote control;
100 ... Dialog method selection unit;
101 ... main control unit;
102 ... person extraction part;
103 ... position measuring unit;
104 ... task database;
105... Input control unit;
106... Output control unit;
107 ... voice recognition unit;
108 ... home appliance control unit;
109 ... speech synthesis unit;
110: Map memory;
111-11N ... Household appliances

Claims (8)

ネットワークに接続される少なくとも一つの家電機器が設置された家庭内で使用されるホームロボットにおける処理方法において、
ユーザから離れる必要があるタスクの実行要求を検知するステップと、
前記実行要求の検知により前記家電機器を用いたユーザとの対話方法を選択するステップと、
選択された対話方法に従ってユーザに対する問い合わせ及びユーザからの回答を含む、ユーザとの対話を実行するステップとを具備するホームロボットにおける処理方法。
In a processing method in a home robot used in a home where at least one home appliance connected to a network is installed,
Detecting a request to execute a task that needs to leave the user;
Selecting an interaction method with a user using the household electrical appliance by detecting the execution request;
A processing method in a home robot comprising: executing an interaction with a user including an inquiry to the user and an answer from the user according to a selected interaction method.
前記対話方法の選択は、ユーザに対する問い合わせを行う出力デバイス及びユーザからの回答を受け取る入力デバイスの選択を含む請求項1に記載のホームロボットにおける処理方法。   The processing method in the home robot according to claim 1, wherein the selection of the interaction method includes selection of an output device that makes an inquiry to the user and an input device that receives an answer from the user. ネットワークに接続される少なくとも一つの家電機器が設置された家庭内で使用されるホームロボットにおいて、
ユーザから離れる必要があるタスクの実行要求を検知する検知手段と、
前記実行要求の検知により前記家電機器を用いたユーザとの対話方法を選択する対話方法選択手段と、
選択された対話方法に従ってユーザに対する問い合わせ及びユーザからの回答を含む、ユーザとの対話を実行する対話実行手段とを具備するホームロボット。
In a home robot used in a home where at least one home appliance connected to the network is installed,
Detection means for detecting an execution request of a task that needs to be separated from the user;
A dialogue method selection means for selecting a dialogue method with a user using the home appliance by detecting the execution request;
A home robot comprising dialog execution means for executing a dialog with a user including an inquiry to the user and an answer from the user according to a selected dialog method.
前記対話方法選択手段は、ユーザに対する問い合わせを行う出力デバイス及びユーザからの回答を受け取る入力デバイスの選択を含む対話方法の選択を行う請求項3に記載のホームロボット。   The home robot according to claim 3, wherein the interaction method selection unit selects an interaction method including selection of an output device that makes an inquiry to a user and an input device that receives an answer from the user. 前記対話方法選択手段は、ユーザに対する問い合わせを行う出力デバイス及びユーザからの回答を受け取る入力デバイスの選択を含む対話方法の選択を行うものであって、前記出力デバイス及び入力デバイスの少なくとも一方として前記家電機器を選択する請求項3に記載のホームロボット。   The interaction method selection means selects an interaction method including selection of an output device that makes an inquiry to a user and an input device that receives an answer from the user, and the home appliance is used as at least one of the output device and the input device. The home robot according to claim 3, wherein a device is selected. 前記対話方法選択手段は、前記出力デバイス及び入力デバイスの両方に使用可能な家電機器を優先的に選択する請求項5に記載のホームロボット。   The home robot according to claim 5, wherein the interaction method selection unit preferentially selects household electrical appliances that can be used for both the output device and the input device. 前記会話実行手段は、ユーザに対する回答方法を示す説明文を付加したメッセージとして前記問い合わせを出力する請求項3に記載のホームロボット。   The home robot according to claim 3, wherein the conversation execution unit outputs the inquiry as a message to which an explanatory text indicating a response method for the user is added. 前記対話実行手段が前記選択された対話方法に従ってユーザからの回答を行う際に、前記家電機器に対する操作を無視する手段をさらに具備する請求項3に記載のホームロボット。   The home robot according to claim 3, further comprising means for ignoring an operation on the home appliance when the dialog execution unit performs an answer from a user according to the selected dialog method.
JP2005252384A 2005-08-31 2005-08-31 Processing method for home robot and home robot Expired - Fee Related JP4261529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005252384A JP4261529B2 (en) 2005-08-31 2005-08-31 Processing method for home robot and home robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005252384A JP4261529B2 (en) 2005-08-31 2005-08-31 Processing method for home robot and home robot

Publications (2)

Publication Number Publication Date
JP2007061970A true JP2007061970A (en) 2007-03-15
JP4261529B2 JP4261529B2 (en) 2009-04-30

Family

ID=37924765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005252384A Expired - Fee Related JP4261529B2 (en) 2005-08-31 2005-08-31 Processing method for home robot and home robot

Country Status (1)

Country Link
JP (1) JP4261529B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008279529A (en) * 2007-05-09 2008-11-20 Honda Motor Co Ltd Moving type robot
JP5158097B2 (en) * 2008-01-16 2013-03-06 日本電気株式会社 Moving device, moving method for moving device, and moving control program for moving device
JP2016083740A (en) * 2014-10-28 2016-05-19 シャープ株式会社 Electronic apparatus, control system, control method and control program
CN106493746A (en) * 2016-11-23 2017-03-15 河池学院 A kind of home intelligent robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002199470A (en) * 2000-12-25 2002-07-12 Yoichi Sakai Home automation through interactive virtual robot system
JP2004214895A (en) * 2002-12-27 2004-07-29 Toshiba Corp Auxiliary communication apparatus
JP2004299033A (en) * 2003-04-01 2004-10-28 Sony Corp Robot device, information processing method, and program
JP2004306200A (en) * 2003-04-08 2004-11-04 Yaskawa Electric Corp Robot control system
JP2005025516A (en) * 2003-07-02 2005-01-27 Fujitsu Ltd Mobile robot capable of autonomously recovering radio wave status

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002199470A (en) * 2000-12-25 2002-07-12 Yoichi Sakai Home automation through interactive virtual robot system
JP2004214895A (en) * 2002-12-27 2004-07-29 Toshiba Corp Auxiliary communication apparatus
JP2004299033A (en) * 2003-04-01 2004-10-28 Sony Corp Robot device, information processing method, and program
JP2004306200A (en) * 2003-04-08 2004-11-04 Yaskawa Electric Corp Robot control system
JP2005025516A (en) * 2003-07-02 2005-01-27 Fujitsu Ltd Mobile robot capable of autonomously recovering radio wave status

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008279529A (en) * 2007-05-09 2008-11-20 Honda Motor Co Ltd Moving type robot
JP5158097B2 (en) * 2008-01-16 2013-03-06 日本電気株式会社 Moving device, moving method for moving device, and moving control program for moving device
JP2016083740A (en) * 2014-10-28 2016-05-19 シャープ株式会社 Electronic apparatus, control system, control method and control program
CN106493746A (en) * 2016-11-23 2017-03-15 河池学院 A kind of home intelligent robot

Also Published As

Publication number Publication date
JP4261529B2 (en) 2009-04-30

Similar Documents

Publication Publication Date Title
CN106257355B (en) Equipment control method and controller
US8340975B1 (en) Interactive speech recognition device and system for hands-free building control
JP7060811B2 (en) Equipment control system
US8527258B2 (en) Simultaneous interpretation system
JP5758428B2 (en) ELECTRIC DEVICE CONTROL DEVICE, ELECTRIC DEVICE CONTROL SYSTEM, PROGRAM, AND ELECTRIC DEVICE CONTROL METHOD
JP2005311864A (en) Household appliances, adapter instrument, and household appliance system
JP4261529B2 (en) Processing method for home robot and home robot
JP2017203967A (en) Voice output control device, electronic apparatus, and method for controlling voice output control device
JP2007190659A (en) Robot remote operation system
CN106782522A (en) Sound control method and speech control system
JP2004110613A (en) Controller, control program, objective device, and control system
JP6133361B2 (en) Electrical device control device, electrical device control system, program, electrical device control method, input / output device, and electrical device
JP5471615B2 (en) Remote dialogue apparatus, remote dialogue system, remote dialogue method and program
US20220122600A1 (en) Information processing device and information processing method
CN110164426B (en) Voice control method and computer storage medium
JP6226911B2 (en) Server apparatus, system, method for managing voice recognition function, and program for controlling information communication terminal
US20220026090A1 (en) Air conditioning system
CN115457958A (en) Voice control method based on BLE discovery and intelligent home system
CN111183416B (en) Household electrical appliance system
CN108536024A (en) Intelligent socket
WO2019239738A1 (en) Information processing device and information processing method
WO2022215280A1 (en) Speech test method for speaking device, speech test server, speech test system, and program used in terminal communicating with speech test server
JP2009237656A (en) Control system, control method, and program
JP2019184679A (en) Network system, server, and information processing method
WO2022215284A1 (en) Method for controlling speech device, server, speech device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees