JP2012022457A - Task instruction system - Google Patents

Task instruction system Download PDF

Info

Publication number
JP2012022457A
JP2012022457A JP2010159005A JP2010159005A JP2012022457A JP 2012022457 A JP2012022457 A JP 2012022457A JP 2010159005 A JP2010159005 A JP 2010159005A JP 2010159005 A JP2010159005 A JP 2010159005A JP 2012022457 A JP2012022457 A JP 2012022457A
Authority
JP
Japan
Prior art keywords
task
image
user
input
home appliance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010159005A
Other languages
Japanese (ja)
Other versions
JP5071873B2 (en
Inventor
Sunao Hashimoto
直 橋本
Fong Richard
フォン リチャード
Masahiko Inami
昌彦 稲見
Takeo Igarashi
健夫 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2010159005A priority Critical patent/JP5071873B2/en
Publication of JP2012022457A publication Critical patent/JP2012022457A/en
Application granted granted Critical
Publication of JP5071873B2 publication Critical patent/JP5071873B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide technology capable of instructing to a robot, sequential tasks consisting of a plurality of sequential tasks using information of an individual and concrete object in a user's use environment.SOLUTION: The task instruction system includes: a photographing section; a display section for displaying a photographed picture; a recognition section for recognizing an object; a task input section which allows a user to perform task input procedures including a step for photographing a picture including an object related to the task, a step for selecting the object or an electric household appliance related to the task in the photographed picture, and a step for inputting an operation of the robot or the electric household appliance with respect to the selected object or the operation of the selected electric household appliance; an annotated picture generation section which generates a text representing a task content, and combines it with the picture of the object or the electric household appliance that the user selects in the task input procedures to generate an annotated picture; and a control section which sends a control command of the task corresponding to the annotated picture.

Description

本発明は、ロボットや家電機器に実行させるタスクを指示する技術に関する。   The present invention relates to a technique for instructing a task to be executed by a robot or a home appliance.

コンピュータ制御による一般家庭向けのロボットが市場に登場し、例えば掃除ロボット等は多くの家庭で利用されている。また、料理や衣料の折り畳み等の様々な家事を行うロボットの研究も進められている。   Computer-controlled robots for general households have appeared on the market. For example, cleaning robots are used in many households. Research on robots that perform various household tasks such as cooking and folding clothing is also underway.

家事は、物の移動や家電機器の操作といった異なる複数のタスクのシーケンスや、異なる種類の食器をそれぞれ別の棚に収納するといった同種のタスクの集合として捉えることができる。このような家事を構成するタスクの実行手順や対象物(家電機器や食器等)は、個々の家庭環境によって千差万別である。従って、家事を行うロボットの動作は、ユーザが自分の使用環境に適合するようカスタマイズできることが好ましい。そして、ロボットへの指示には、ユーザの好みのタスクの実行手順や、ユーザ環境における個別具体的な対象物の情報を正確に反映させることができることが望ましい。また、家庭環境の変化によってタスクの実行手順や対象物は容易に変化するので、ロボットへの指示内容の確認や編集を簡単に行うことができることが望ましい。   Housework can be understood as a sequence of a plurality of different tasks such as movement of objects and operation of home appliances, or a collection of similar tasks such as storing different types of tableware on different shelves. Execution procedures and objects (household appliances, tableware, etc.) of tasks constituting such housework vary widely depending on individual home environments. Therefore, it is preferable that the operation of the robot that performs housework can be customized so that the user can be adapted to his / her own usage environment. And it is desirable that the instruction to the robot can accurately reflect the execution procedure of the user's favorite task and the information of the individual specific object in the user environment. In addition, since the task execution procedure and the object easily change due to changes in the home environment, it is desirable that the instruction content to the robot can be easily confirmed and edited.

ユーザがロボットに独自の指示を与える方法は種々提案されている。例えばプログラミング言語を用いる方法が典型的であるが、この方法は習得が難しく、指示内容の確認や編集も容易ではない。アニメーションやアイコンを用いる視覚的なプログラミング環境(例えば、非特許文献1)もあるが、一般的なプログラミングの場合と同様の抽象化の作業が必要であり、実際の対象物の情報をそのまま用いてロボットへの指示を行うことはできない。   Various methods for a user to give a unique instruction to a robot have been proposed. For example, a method using a programming language is typical, but this method is difficult to learn, and it is not easy to check and edit instructions. There is a visual programming environment that uses animation and icons (for example, Non-Patent Document 1), but the same abstraction work as in the case of general programming is required, and information on actual objects is used as it is. You cannot give instructions to the robot.

自然言語を用いてロボットに指示を与える方法もあるが、ユーザの好みのタスクの実行手順やユーザ環境における個別具体的な対象物といったユーザに固有の情報を自然言語で曖昧さなく表現し伝達することは人間同士のコミュニケーションにおいてさえ容易ではなく、正確な指示を自然言語でロボットに与えることは困難である。人間によるデモンストレーションや写真を用いてロボットに指示を与える方法があるが(例えば、非特許文献2)、複数のタスクのシーケンスを指示することについて考慮されていない。強化学習により複数のタスクのシーケンスをロボットに実行させる方法が提案されているが(例えば、非特許文献3)、この方法では使用環境が変化した場合のロボットの挙動が不明であり、またユーザが指示内容の確認や編集を行うことも容易ではない。   Although there is a method of giving instructions to the robot using natural language, information unique to the user such as the execution procedure of the user's favorite task and individual specific objects in the user environment is expressed and transmitted unambiguously in natural language. This is not easy even in communication between humans, and it is difficult to give accurate instructions to the robot in natural language. Although there are methods of giving instructions to the robot using human demonstrations or photographs (for example, Non-Patent Document 2), there is no consideration for instructing a sequence of a plurality of tasks. A method for causing a robot to execute a sequence of a plurality of tasks by reinforcement learning has been proposed (for example, Non-Patent Document 3). However, in this method, the behavior of the robot when the usage environment changes is unknown, and the user can It is not easy to check and edit the instruction content.

Leifer, L. Van der Loos, M. Lees, D. 1991. Visual language programming: for robot command/control in unstructured environments. In Conf. on Advanced Robotics, 31-36.Leifer, L. Van der Loos, M. Lees, D. 1991.Visual language programming: for robot command / control in unstructured environments.In Conf.on Advanced Robotics, 31-36. Hashimoto, S., Ostanin, A., Inami M, and Igarashi, T. Photograph-Based Interaction for Teaching Object Delivery Tasks to Robots. In HRI 2010 Late-Breaking, 153-154.Hashimoto, S., Ostanin, A., Inami M, and Igarashi, T. Photograph-Based Interaction for Teaching Object Delivery Tasks to Robots. In HRI 2010 Late-Breaking, 153-154. Calinon, S., Guenter, F., and Billard, A. 2007. On Learning, Representing, and Generalizing a Task in a Humanoid Robot. In IEEE Trans. on Systems, Man, and Cybernetics, v. 37, 286-298.Calinon, S., Guenter, F., and Billard, A. 2007. On Learning, Representing, and Generalizing a Task in a Humanoid Robot.In IEEE Trans.on Systems, Man, and Cybernetics, v. 37, 286-298 .

本発明は、ロボットに対して、ユーザの使用環境における個別具体的な対象物の情報を用いて、連続する複数のタスクからなるシーケンシャルタスクを指示することができる技術を提供することを目的とする。また、ロボットに実行させるタスクの内容確認及び編集を容易に行うことができる技術を提供することを目的とする。   It is an object of the present invention to provide a technique that can instruct a robot on a sequential task including a plurality of continuous tasks using information on individual specific objects in a user's usage environment. . It is another object of the present invention to provide a technique capable of easily confirming and editing the contents of a task executed by a robot.

上記の課題を解決するために、本発明は、ロボット及び家電機器にタスクを指示するタスク指示システムであって、
撮影部と、
撮影部によって撮影された画像を表示する表示部と、
表示部に表示された画像に写っている物体を認識する認識部と、
一のタスクの内容をユーザに入力させるタスク入力部であって、
タスクに関係する物体を含む画像を撮影部により撮影させるステップと、
撮影された画像において認識部が認識した物体のうちタスクに関係する物体又は家電機器の画像を選択させるステップと、
該選択した物体に対するロボット若しくは家電機器の動作又は該選択した家電機器の動作を入力させるステップと、
を含むタスク入力手続をユーザに行わせて一のタスクの内容を入力させるとともに、一のタスクのタスク入力手続が完了すると次のタスクのタスク入力手続を待機する状態となるタスク入力部と、
タスク入力部において入力されたタスクの内容を表すテキストを生成し、生成したテキストと、タスク入力手続においてユーザが選択した物体又は家電機器が写っている画像と、を含む画像である注釈付き画像を入力されたタスクに関連付けて生成する注釈付き画像生成部と、
注釈付き画像に関連付けられたタスクをロボット又は家電機器に実行させるための制御命令を生成しロボット又は家電機器に送出する制御部と、
を有する。
In order to solve the above problem, the present invention is a task instruction system for instructing a task to a robot and a household electrical appliance,
A shooting section;
A display unit for displaying an image captured by the imaging unit;
A recognition unit for recognizing an object reflected in an image displayed on the display unit;
A task input unit that allows a user to input the contents of one task,
A step of photographing an image including an object related to a task by a photographing unit;
A step of selecting an object related to a task among objects recognized by a recognition unit in a captured image or an image of a home appliance;
A step of inputting an operation of the robot or household electrical appliance with respect to the selected object or an operation of the selected household electrical appliance;
A task input procedure that includes a task input procedure that causes the user to enter the contents of one task, and when the task input procedure for one task is completed, the task input unit enters a state waiting for the task input procedure for the next task;
An annotated image that is an image including the text representing the content of the task input in the task input unit and the generated text and an image showing the object or home appliance selected by the user in the task input procedure An annotated image generator that is generated in association with the input task;
A control unit that generates a control command for causing the robot or the home appliance to execute the task associated with the annotated image, and sends the control command to the robot or the home appliance;
Have

このタスク指示システムによれば、ユーザは、ユーザ環境における個別具体的な対象物を撮影し、撮影した実際の対象物の画像を選択するという直感的な操作によってロボットや家電機器に実行させるタスクを入力することができる。従って、ユーザ環境に固有の個別具体的な情報を用いてロボットに実行させるタスクを指示することができる。また、複数の一のタスクの入力手続が完了すると続いて次のタスクの入力手続を行うことができるので、複数の連続的なタスクからなるシーケンシャルタスクを簡単に指示することができる。   According to this task instruction system, a user performs a task to be executed by a robot or a household electrical appliance by an intuitive operation of photographing an individual specific object in the user environment and selecting an image of the photographed actual object. Can be entered. Therefore, a task to be executed by the robot can be instructed using individual specific information specific to the user environment. Further, since the input procedure for the next task can be performed after completion of the input procedure for a plurality of one task, a sequential task consisting of a plurality of continuous tasks can be easily designated.

また、注釈付き画像には、タスクの内容を表すテキスト及びタスクの対象物体が写った画像が含まれるので、ユーザは、注釈付き画像に基づいて、タスクの内容を後からでも容易に確認することができる。   In addition, since the annotated image includes text representing the task content and an image showing the target object of the task, the user can easily confirm the task content later on the basis of the annotated image. Can do.

本発明のタスク指示システムにおいて、注釈付き画像生成部は、タスク入力手続においてユーザが選択した物体又は家電機器の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて、所定の規則に従って注釈付き画像のためのテキストを生成することができる。   In the task instruction system of the present invention, the annotated image generation unit uses a text representing the name of the object or home appliance selected by the user in the task input procedure and a text representing the operation input by the user, Text for annotated images can be generated according to rules.

このようにして生成されるテキストにより、ユーザは、タスクの内容及び対象物体についての情報を曖昧さ無く容易に把握することが可能である。   With the text generated in this way, the user can easily grasp the content of the task and information about the target object without ambiguity.

本発明のタスク指示システムにおいて、タスク入力部において複数のタスクのタスク入力手続が行われた場合、制御部は、該複数のタスクをタスク入力部においてタスク入力手続が行われた順番で順次ロボット又は家電機器に実行させるように制御命令の生成及び送出を行うことができる。   In the task instruction system of the present invention, when a task input procedure for a plurality of tasks is performed in the task input unit, the control unit sequentially executes the plurality of tasks in the order in which the task input procedure is performed in the task input unit. A control command can be generated and sent out to be executed by a home appliance.

これにより、ロボットに実行させたい順番で複数のタスクを入力していくことによってシーケンシャルタスクを指示することができ、直感的かつ容易にシーケンシャルタスクの指示が可能になる。   As a result, a sequential task can be instructed by inputting a plurality of tasks in the order in which the robot wants the robot to execute, and the sequential task can be instructed intuitively and easily.

本発明のタスク指示システムにおいて、表示部は、表示される画像の選択をユーザがタッチ方式のポインティング操作によって行うことができるタッチパネルディスプレイを有していても良い。   In the task instruction system of the present invention, the display unit may include a touch panel display that allows a user to select a displayed image by a touch-type pointing operation.

これによりユーザは直感的な操作でタスク入力を行うことが可能になる。   As a result, the user can perform task input by an intuitive operation.

本発明のタスク指示システムは、
撮影部と、表示部と、認識部と、タスク入力部と、注釈付き画像生成部と、を有するタスク入力装置と、
制御部を有し、タスク入力装置、ロボット及び家電機器と通信可能に構成された制御装置と、
を有する構成とすることができる。
The task instruction system of the present invention includes:
A task input device having a photographing unit, a display unit, a recognition unit, a task input unit, and an annotated image generation unit;
A control unit having a control unit and configured to be communicable with a task input device, a robot, and a home appliance;
It can be set as the structure which has these.

この場合、ロボット及び家電機器へのタスクの実行指令は、タスク入力装置とは別体の制御装置によって行われるので、ロボット及び家電機器にタスクを実行させる場合にタスク入力装置は不要になる。制御装置がロボットや家電機器にタスクの実行指令を送信する方法は、制御装置を操作する方法の他、壁のスイッチや他の家電機器の動作状態等をトリガーとしてタスクの実行が開始されるような構成とすることもでき、タスクを実行させる方法の自由度が増す。   In this case, since the task execution command to the robot and the home appliance is performed by a control device separate from the task input device, the task input device is not necessary when the robot and the home appliance execute the task. The method for the control device to send a task execution command to the robot or home appliance is to start the task execution triggered by a wall switch or the operating state of other home appliances as well as a method for operating the control device. It is possible to adopt a simple configuration, and the degree of freedom of the method for executing the task is increased.

本発明のタスク指示システムにおいて、タスク入力部は、動作対象を必要としない家電機器に実行させるタスクのタスク入力手続において、
タスクを実行させる家電機器を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した物体のうち動作を指示する家電機器の画像をユーザに選択させるステップと、
選択した家電機器に実行させる動作を入力させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した家電機器の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて注釈付き画像のためのテキストを生成することができる。
In the task instruction system of the present invention, the task input unit is a task input procedure for a task to be executed by a household electrical appliance that does not require an operation target.
Capturing an image including a home appliance that performs the task;
A step of causing a user to select an image of a household electrical appliance that instructs an operation among objects recognized by a recognition unit in a captured image;
Inputting an operation to be executed by the selected home appliance;
To the user,
The annotated image generation unit can generate the text for the annotated image using the text representing the name of the home appliance selected by the user in the task input procedure and the text representing the operation input by the user. .

動作を入力させるステップでは、例えば、指示可能な動作リストを提示してそのうちの一の動作を選択させたり、所望の数値をユーザに入力させたりすることができる。動作対象を必要としない家電機器とは、対象物体の状態に影響を与えない家電機器であり、ランプやラジオ、時計等を例示できる。   In the step of inputting an operation, for example, an instructable operation list can be presented to select one of the operations, or a user can input a desired numerical value. Home appliances that do not require an operation target are home appliances that do not affect the state of the target object, and examples thereof include lamps, radios, and watches.

本発明のタスク指示システムにおいて、タスク入力部は、動作対象を必要とする家電機器に実行させるタスクのタスク入力手続において、
タスクを実行させる家電機器及びその家電機器の動作対象となり得る物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した物体のうち動作を指示する家電機器及びその
家電機器の動作対象となる物体の画像をユーザに選択させるステップと、
選択した家電機器に実行させる動作を入力させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した家電機器の名称を表すテキストと、その家電機器の動作対象となる物体の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて注釈付き画像のためのテキストを生成することができる。
In the task instruction system of the present invention, the task input unit is a task input procedure for a task to be executed by a household electrical appliance that requires an operation target.
A step of photographing an image including an electric appliance that executes a task and an object that can be an operation target of the electric appliance;
A step of causing a user to select an image of a home appliance that instructs the operation among objects recognized by the recognition unit in the captured image, and an object that is an operation target of the home appliance,
Inputting an operation to be executed by the selected home appliance;
To the user,
The annotated image generation unit includes a text representing the name of the home appliance selected by the user in the task input procedure, a text representing the name of the object to be operated by the home appliance, a text representing the operation input by the user, Can be used to generate text for an annotated image.

動作対象を必要とする家電機器とは、対象物体の状態に影響を与える家電機器であり、例えばカップに湯を注ぐ湯沸かし器、カップにコーヒーパウダーを投入するディスペンサー等を例示できる。これらの家電機器が正しく動作するには、適切な動作対象が存在することが必要である。例えばスプーンが動作対象の場合、湯沸かし器の動作は適切とは言えない。撮影させるステップにおいて、家電機器及びその動作対象となり得る物体が写っていない場合には、次の選択させるステップに移行することを許容しないようにすれば、不適切な動作をするタスクが作成されることを抑制できる。   Household appliances that require an operation target are household appliances that affect the state of the target object, and examples include a water heater that pours hot water into a cup and a dispenser that puts coffee powder into a cup. In order for these home appliances to operate correctly, it is necessary that an appropriate operation target exists. For example, when the spoon is the target of operation, the operation of the water heater is not appropriate. In the step of photographing, if the home appliance and the object that can be the operation target are not captured, a task to perform an inappropriate operation is created if it is not allowed to move to the next step of selecting. This can be suppressed.

本発明のタスク指示システムにおいて、タスク入力部は、ロボットに実行させる物体の移動タスクのタスク入力手続において、
移動対象の物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した移動可能な物体のうちロボットに移動させる物体の画像を選択させるステップと、
移動対象の物体及び移動先の物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した移動先として指定可能な物体のうちロボットによる移動先の物体の画像を選択させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した移動対象の物体の名称を表すテキストと、移動先の物体の名称を表すテキストと、「移動する」という意味のテキストと、を用いて注釈付き画像のためのテキストを生成することができる。
In the task instruction system of the present invention, the task input unit, in the task input procedure of the object movement task to be executed by the robot,
Capturing an image including an object to be moved;
A step of selecting an image of an object to be moved by the robot among movable objects recognized by the recognition unit in the captured image;
Photographing an image including an object to be moved and an object to be moved; and
A step of selecting an image of an object to be moved by the robot among objects that can be specified as a movement destination recognized by the recognition unit in the captured image;
To the user,
The annotated image generation unit uses the text representing the name of the object to be moved selected by the user in the task input procedure, the text representing the name of the object to be moved, and the text meaning “move” Text for the annotated image can be generated.

移動タスクの指示においても、不適切な移動タスクが指示されることを抑制するために、移動先を選択させるステップにおいて不適切な移動先が選択されることを禁止するような構成としても良い。例えば、移動対象物体がスプーンの場合、移動先の物体として湯沸かし器は不適切であるから、選択させるステップにおいて湯沸かし器を選択禁止にすると良い。   In order to prevent an inappropriate movement task from being instructed also in the movement task instruction, it may be configured to prohibit selection of an inappropriate movement destination in the step of selecting a movement destination. For example, when the object to be moved is a spoon, a water heater is inappropriate as the object to be moved, and therefore it is preferable that selection of the water heater is prohibited in the step of selecting.

本発明のタスク指示システムにおいて、タスク入力部は、ロボット又は家電機器に所定のタスクの実行を開始させるトリガーをユーザに設定させるために、
トリガーとなる物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識したトリガーとして設定可能な物体のうちトリガーに設定する物体の画像を選択させるステップと、
ロボット又は家電機器に所定のタスクの実行を開始させるために選択した物体に関して成立すべき条件を入力させるステップと、
を含むトリガー設定手続をユーザに行わせることができ、
注釈付き画像生成部は、トリガー設定手続においてユーザが選択した物体の名称を表すテキストと、ユーザが入力した条件の成立を意味するテキストと、「待つ」という意味のテキストと、を用い注釈付き画像のためのテキストを生成し、生成したテキストと、トリガー設定手続においてユーザが選択した物体が写っている画像と、を含む画像を注釈付き画像としてトリガー設定に関連付けて生成し、
制御部は、注釈付き画像に関連付けられたトリガー設定に従ってロボット又は家電機器を制御するための制御命令を生成しロボット又は家電機器に送出することができる。
In the task instruction system of the present invention, the task input unit is configured to cause the user to set a trigger for starting execution of a predetermined task by the robot or the home appliance.
Photographing an image including an object as a trigger;
Selecting an image of an object to be set as a trigger among objects that can be set as a trigger recognized by the recognition unit in the captured image;
Inputting a condition to be satisfied with respect to an object selected for starting execution of a predetermined task by a robot or a home appliance; and
Allows the user to perform a trigger setting procedure that includes
The annotated image generation unit uses an annotated image using text representing the name of the object selected by the user in the trigger setting procedure, text meaning the satisfaction of the condition input by the user, and text meaning “wait”. Generate text for, and generate an image including the generated text and an image of the object selected by the user in the trigger setting procedure as an annotated image associated with the trigger setting,
The control unit can generate a control command for controlling the robot or the home appliance according to the trigger setting associated with the annotated image, and send the control command to the robot or the home appliance.

タスクを実行させるために必ず中央制御装置や入力装置の操作が必要な構成では、ユーザの利便性が良くない。トリガー物体を設定することにより、多様な方法でタスクを実行させることが可能になる。上記構成によれば、このようなトリガー物体の設定も、実際のトリガー物体の画像を撮影しながら直感的な方法で行うことができる。また、トリガー設定に対応する注釈付き画像も生成されるので、ユーザはトリガー設定の内容を後から容易に確認することができる。   In a configuration where the operation of the central control device and the input device is necessary to execute the task, the convenience for the user is not good. By setting the trigger object, the task can be executed in various ways. According to the above configuration, the trigger object can be set in an intuitive manner while capturing an image of the actual trigger object. In addition, since an annotated image corresponding to the trigger setting is also generated, the user can easily confirm the contents of the trigger setting later.

本発明のタスク指示システムにおいて、タスク入力部は、ロボット又は家電機器にタスクの実行を待機させる時間をユーザに設定させるために、待機時間を入力させるステップを含む待機時間設定手続をユーザに行わせることができ、
注釈付き画像生成部は、待機時間設定手続においてユーザが入力した待機時間の経過を待つ、という意味のテキストを生成し、生成したテキストを含む画像を注釈付き画像として待機時間設定に関連付けて生成し、
制御部は、注釈付き画像に関連付けられた待機時間設定に従ってロボット又は家電機器を制御するための制御命令を生成しロボット又は家電機器に送出することができる。
In the task instruction system of the present invention, the task input unit causes the user to perform a standby time setting procedure including a step of inputting a standby time in order to cause the user to set a time for the robot or home appliance to wait for execution of the task. It is possible,
The annotated image generation unit generates text that means waiting for the elapse of the standby time input by the user in the standby time setting procedure, and generates an image including the generated text in association with the standby time setting as an annotated image. ,
The control unit can generate a control command for controlling the robot or the home appliance according to the standby time setting associated with the annotated image, and send the control command to the robot or the home appliance.

この構成によれば、待機時間の設定を行う場合には撮影を行う必要はない。つまり、待機時間を指示するために例えば時計の画像を撮影するといった手間を省くことができ、利便性が高い。   According to this configuration, it is not necessary to perform shooting when setting the standby time. That is, it is possible to save the trouble of taking a clock image, for example, in order to instruct the standby time, which is highly convenient.

本発明のタスク指示システムにおいて、タスク入力部は、既存の注釈付き画像に対応するタスクの内容を、タスク入力手続、トリガー設定手続又は待機時間設定手続をユーザに再度行わせることにより編集させることができる。   In the task instruction system of the present invention, the task input unit can edit the contents of the task corresponding to the existing annotated image by causing the user to perform the task input procedure, the trigger setting procedure, or the waiting time setting procedure again. it can.

これにより、ユーザは、タスク入力時と同様の直感的な操作により、既存のタスクの内容を編集することができる。編集時にも、タスク入力時と同様、ユーザの使用環境に固有の個別具体的な対象物の情報を曖昧さ無く簡単にタスクの内容に反映させることができる。   Thereby, the user can edit the content of the existing task by intuitive operation similar to the time of task input. Even at the time of editing, as in the case of task input, it is possible to easily reflect information on individual specific objects specific to the user's use environment in the contents of the task without ambiguity.

本発明において、認識部、タスク入力部、注釈付き画像生成部及び制御部は、それぞれ専用のハードウェアとして捉えることができる。また、CPUが実行することによって各機能部を実現するプログラムとして捉えることができる。   In the present invention, the recognition unit, task input unit, annotated image generation unit, and control unit can each be regarded as dedicated hardware. Also, it can be understood as a program that realizes each functional unit by being executed by the CPU.

本発明によれば、ロボットに対して、ユーザの使用環境における個別具体的な対象物の情報を用いて、連続する複数のタスクからなるシーケンシャルタスクを指示することができる。また、ロボットに実行させるタスクの内容確認及び編集を容易に行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the sequential task which consists of a several continuous task can be instruct | indicated with respect to a robot using the information of the individual specific target object in a user's use environment. In addition, it is possible to easily check and edit the contents of tasks to be executed by the robot.

本発明に係るタスク指示システムの一実施形態を含む家事システムの構成を示す図である。1 is a diagram showing a configuration of a housework system including an embodiment of a task instruction system according to the present invention. 家事システム及び入力装置の機能ブロック図である。It is a functional block diagram of a housework system and an input device. 家事システムに備わるデータベースの一例である。It is an example of the database with which a housework system is equipped. 入力装置のライブビュー画像に表示されるアイコンと物体との対応関係を示す図である。It is a figure which shows the correspondence of the icon displayed on the live view image of an input device, and an object. 入力装置の動作状態の遷移図である。It is a transition diagram of the operating state of an input device. 入力装置のタスク作成モードにおいて、ユーザによるタスク作成プロセスの開始を待機する入力待機画面のGUIの表示例である。It is an example of GUI display of an input standby screen for waiting for a user to start a task creation process in the task creation mode of the input device. 図7(A)は、移動タスク入力画面のGUIの表示例である。図7(B)は、移動先指示画面のGUIの表示例である。図7(C)は、移動タスクを表す注釈付き画像の表示例である。FIG. 7A is a GUI display example of the movement task input screen. FIG. 7B is a GUI display example of the movement destination instruction screen. FIG. 7C is a display example of an annotated image representing a movement task. 図8(A)は、家電機器動作入力画面のGUIの表示例である。図8(B)は、パラメータ設定画面のGUIの表示例である。図8(C)は、家電機器動作タスクを表す注釈付き画像の表示例である。FIG. 8A is a GUI display example of the home appliance operation input screen. FIG. 8B is a GUI display example of the parameter setting screen. FIG. 8C is a display example of an annotated image representing the home appliance operation task. 図9(A)は、待機時間設定画面のGUIの表示例である。図9(B)は、待機時間を表す注釈付き画像の表示例である。FIG. 9A is a GUI display example of the standby time setting screen. FIG. 9B is a display example of an annotated image representing the standby time. 図10(A)は、トリガー設定画面のGUIの表示例である。図10(B)は、トリガー設定を表す注釈付き画像の表示例である。FIG. 10A shows a GUI display example of the trigger setting screen. FIG. 10B is a display example of an annotated image representing the trigger setting. タスク内容確認モードにおいて、既存のタスクの内容を表示するタスク内容表示画面のGUIの表示例である。It is a display example of GUI of a task content display screen for displaying the content of an existing task in the task content confirmation mode. 入力装置によってユーザがタスクの内容を入力するプロセスを表したフローチャートである。It is a flowchart showing the process in which a user inputs the content of a task with an input device. 「コーヒーを入れる」タスクを構成するタスクを示す図である。It is a figure which shows the task which comprises the "put coffee" task. 図13の「コーヒーを入れる」タスクを入力装置で入力した場合に得られる注釈付き画像の例である。FIG. 14 is an example of an annotated image obtained when the “put coffee” task of FIG. 13 is input by an input device.

以下、本発明の実施の形態について、詳細に説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは、発明の技術的範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, embodiments of the present invention will be described in detail. The dimensions, materials, shapes, relative arrangements, and the like of the components described in the present embodiment are not intended to limit the technical scope of the invention to those unless otherwise specified.

<家事システム>
図1は本発明に係るタスク指示システムの一実施形態を含む家事システムの構成を示す図である。この家事システムは部屋11に構築され、天井カメラ1、ロボット2、湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5、ランプ6、目覚まし時計7、テーブル8、入力装置9、コンピュータ10、カップ12を含む。湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5、ランプ6及び目覚まし時計7は本発明における「家電機器」の例であり、それぞれコンピュータ10から無線又は有線により送信される制御命令によってその動作を制御される。カップ12は本発明における「移動可能な物体」の例である。
<Housework system>
FIG. 1 is a diagram showing a configuration of a housework system including an embodiment of a task instruction system according to the present invention. This housework system is built in a room 11 and includes a ceiling camera 1, a robot 2, a water heater 3, a coffee powder dispenser 4, a tablet dispenser 5, a lamp 6, an alarm clock 7, a table 8, an input device 9, a computer 10, and a cup 12. . The water heater 3, the coffee powder dispenser 4, the tablet dispenser 5, the lamp 6, and the alarm clock 7 are examples of “home appliances” in the present invention, and their operations are controlled by control commands transmitted from the computer 10 wirelessly or by wire. The The cup 12 is an example of the “movable object” in the present invention.

天井カメラ1は部屋11の天井に設置されたCCD又はCMOS等の撮像素子を備える小型カメラであり、部屋11の全域を撮影することができる。なお、部屋11内の家電機器や物体を撮影する装置は、部屋11内の家電機器や物体のうち家事システムを構成するものを画角におさめることが可能な撮影装置であればどのようなものでもよく、天井カメラに限定されない。   The ceiling camera 1 is a small camera including an image sensor such as a CCD or a CMOS installed on the ceiling of the room 11 and can capture the entire area of the room 11. In addition, the apparatus which image | photographs the household appliances and objects in the room 11 will be anything as long as it is an imaging apparatus that can keep the components constituting the housework system among the household appliances and objects in the room 11 within the angle of view. But it is not limited to the ceiling camera.

ロボット2、湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5、ランプ6、目覚まし時計7、テーブル8及びカップ12には、天井カメラ1から撮影可能な位置にそれぞれマーカー23、33、43、53、63、73、83及び123が取り付けられている。各マーカーはこれらの物体を識別可能なユニークな図形である。マーカーと物体との対応関係はコンピュータ10のデータベースに登録されており、コンピュータ10は天井カメラ1によって撮影されたマーカーの画像に基づいて各物体の認識及び位置の追跡を行うことができる。なお、物体の認識方法及び位置の追跡方法は、このようなマーカーを用いた画像認識に限らず、どのような認識技術を用いることもできる。   The robot 2, the water heater 3, the coffee powder dispenser 4, the tablet dispenser 5, the lamp 6, the alarm clock 7, the table 8, and the cup 12 have markers 23, 33, 43, 53, 63 at positions that can be photographed from the ceiling camera 1, respectively. 73, 83 and 123 are attached. Each marker is a unique graphic that can identify these objects. The correspondence between the marker and the object is registered in the database of the computer 10, and the computer 10 can recognize each object and track the position based on the marker image photographed by the ceiling camera 1. Note that the object recognition method and the position tracking method are not limited to image recognition using such markers, and any recognition technique can be used.

ロボット2は、テーブル8上においてカップ12を移動させるタスクを実行するロボットである。ロボット2は、2つの車輪及び駆動モータからなる移動機構21と鉤爪状のハ
ンド22を備える自走式ロボットである。ロボット2は、ハンド22でカップ12を掴んで持ち上げ、移動機構21によって移動し、ハンド22で掴んでいるカップ12を降ろして放すことにより、カップ12を移動させることができる。
The robot 2 is a robot that executes a task of moving the cup 12 on the table 8. The robot 2 is a self-propelled robot including a moving mechanism 21 composed of two wheels and a drive motor and a claw-like hand 22. The robot 2 can move the cup 12 by grabbing and lifting the cup 12 with the hand 22, moving with the moving mechanism 21, and lowering and releasing the cup 12 gripped with the hand 22.

ロボット2は、コンピュータ10から無線又は有線により送信される制御命令によってその動作を制御される。ロボット2には、コンピュータ10からの制御命令に基づいて移動機構21及びハンド22の動作を制御するコントローラ(不図示)を備える。移動機構21の「前進」「後進」「右回転」「左回転」、ハンド22の「掴む」「放す」「持ち上げる」「降ろす」等の動作は、コントローラ内に予めプログラムされており、コンピュータ10から各動作に対応する制御命令を送出することでロボット2の動作を制御することができる。ロボット2の位置は天井カメラ1の撮影画像に基づいてコンピュータ10により追跡され、テーブル8の境界の情報等に基づいてテーブル8から落下しないように制御されるが、ロボット2にオンボードセンサを備え、ロボット2自ら移動可能領域の判断を行うようにしても良い。   The operation of the robot 2 is controlled by a control command transmitted from the computer 10 wirelessly or by wire. The robot 2 includes a controller (not shown) that controls the operation of the moving mechanism 21 and the hand 22 based on a control command from the computer 10. Operations such as “forward”, “reverse”, “right rotation”, “left rotation” of the moving mechanism 21, “grab”, “release”, “lift”, “lower”, etc. of the hand 22 are preprogrammed in the controller 10. The operation of the robot 2 can be controlled by sending a control command corresponding to each operation. The position of the robot 2 is tracked by the computer 10 based on the image taken by the ceiling camera 1 and controlled so as not to fall from the table 8 based on the information on the boundary of the table 8. Alternatively, the robot 2 itself may determine the movable area.

湯沸かし器3は、コンピュータ10からの制御命令により、「湯を注ぐ」「加熱する」「停止する」等の動作を行わせることができる。「湯を注ぐ」動作については、「1秒間」「2秒間」「3秒間」「注ぎ続ける」等の注ぐ量の制御も可能である。なお、湯沸かし器3は、押下することによって任意の量のお湯を注ぐことが可能に構成された押しボタン等を備え、人や押しボタンを押すことが可能な機構を備えたロボットによる押しボタンの押下により湯を注ぐことが可能に構成されていても良い。この場合、湯沸かし器3によって湯を注ぐ動作は、コンピュータ10からロボットへ送信される制御命令によって制御することもできる。   The water heater 3 can perform operations such as “pour hot water”, “heat”, “stop”, and the like according to control commands from the computer 10. For the “pour hot water” operation, it is possible to control the amount of pouring, such as “1 second”, “2 seconds”, “3 seconds”, “continue to pour”. The water heater 3 includes a push button configured to be able to pour an arbitrary amount of hot water when pressed, and the push button is pressed by a robot having a mechanism capable of pressing a person or the push button. It may be configured to be able to pour hot water. In this case, the operation of pouring hot water by the water heater 3 can be controlled by a control command transmitted from the computer 10 to the robot.

コーヒーパウダーディスペンサー4は、コンピュータ10からの制御命令により、「コーヒーパウダーを入れる」等の動作を行わせることができる。「コーヒーパウダーを入れる」動作については、「1秒間」「2秒間」「3秒間」等の入れる量の制御も可能である。人の操作により任意の量のコーヒーパウダーを入れることが可能な構成を有していても良い点は湯沸かし器3と同様である。   The coffee powder dispenser 4 can perform operations such as “put coffee powder” by a control command from the computer 10. As for the operation of “adding coffee powder”, the amount of “1 second”, “2 seconds”, “3 seconds”, etc. can be controlled. The point which may have the structure which can put arbitrary quantity of coffee powder by human operation is the same as that of the water heater 3.

錠剤ディスペンサー5は、コンピュータ10からの制御命令により、「小サイズの錠剤を入れる」「中サイズの錠剤を入れる」「大サイズの錠剤を入れる」等の動作を行わせることができる。人の操作により任意のサイズの錠剤を入れることが可能な構成を有していても良い点は湯沸かし器3等と同様である。   The tablet dispenser 5 can perform operations such as “insert a small tablet”, “insert a medium tablet”, and “insert a large tablet” by a control command from the computer 10. The point which may have the structure which can put the tablet of arbitrary sizes by human operation is the same as that of the water heater 3 grade | etc.,.

湯沸かし器3、コーヒーパウダーディスペンサー4及び錠剤ディスペンサー5は、それぞれ本発明における「動作対象を必要とする家電機器」の例である。すなわち、湯沸かし器3はカップ12等の対象物における湯の量を変更し、コーヒーパウダーディスペンサー4はカップ12等の対象物におけるコーヒーパウダーの量を変更し、錠剤ディスペンサー5は小皿(不図示)等の対象物における錠剤の量を変更することにより、対象物の状態に変化を生じさせる。   The water heater 3, the coffee powder dispenser 4, and the tablet dispenser 5 are examples of “home appliances that require an operation target” in the present invention. That is, the water heater 3 changes the amount of hot water in the object such as the cup 12, the coffee powder dispenser 4 changes the amount of coffee powder in the object such as the cup 12, and the tablet dispenser 5 is a small plate (not shown). Changing the amount of the tablet in the object causes a change in the state of the object.

ランプ6は、コンピュータ10からの制御命令により、「点灯」「消灯」等の動作を行わせることができる。また、「点灯」「消灯」等の状態をコンピュータ10により検出することができる。目覚まし時計7は、コンピュータ10からの制御命令により、鳴動時刻や鳴動方法等の動作を制御できる。ランプ6及び目覚まし時計7は、本発明における「動作対象を必要としない家電機器」の例である。すなわち、ランプ6の「点灯」や「消灯」等の動作はランプ6のみで完結し、目覚まし時計7の「鳴動」等の動作は目覚まし時計7のみで完結し、何らかの対象物の状態に変化を生じさせることはない。   The lamp 6 can perform operations such as “lighting” and “lighting off” in accordance with a control command from the computer 10. In addition, the computer 10 can detect states such as “lit” and “off”. The alarm clock 7 can control operations such as a ringing time and a ringing method according to a control command from the computer 10. The lamp 6 and the alarm clock 7 are examples of “home appliances that do not require an operation target” in the present invention. That is, operations such as “turning on” and “off” of the lamp 6 are completed only by the lamp 6, and operations such as “ringing” of the alarm clock 7 are completed only by the alarm clock 7, and the state of some object is changed. It does not.

以上、家電機器として据え置き型の一般的な家電機器を例示したが、ロボット2のような移行機構やアーム等を備えより複雑高度な動作を行う自動機械も本発明の家電機器となり得る。本発明におけるロボット及び家電機器はいずれもコンピュータ10からの制御命令に従ってユーザ不在下で自動的に所定の動作を実行する自動機械であり、広義のロボットとして捉えることもできる。   As described above, a stationary general household electrical appliance has been exemplified as the household electrical appliance. However, an automatic machine that includes a transition mechanism, an arm, and the like like the robot 2 and performs more complicated and advanced operations can be the household electrical appliance of the present invention. Each of the robot and the home appliance in the present invention is an automatic machine that automatically executes a predetermined operation in the absence of a user in accordance with a control command from the computer 10, and can be regarded as a robot in a broad sense.

カップ12は、ロボット2によってその位置を移動可能な物体であり、本発明における「移動可能な物体」の例である。また、湯沸かし器3やコーヒーパウダーディスペンサー4の動作により湯やコーヒーパウダーの量といった状態が変化するため、湯沸かし器3やコーヒーパウダーディスペンサー4の動作対象となり得る物体である。   The cup 12 is an object whose position can be moved by the robot 2, and is an example of the “movable object” in the present invention. Further, since the state of the amount of hot water or coffee powder changes depending on the operation of the water heater 3 or the coffee powder dispenser 4, it is an object that can be the operation target of the water heater 3 or the coffee powder dispenser 4.

テーブル8には、ロボット2、湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5及びカップ12が配置されている。テーブル8がロボット2の行動可能範囲として定められている。テーブル8にテーブル8の領域の境界を識別するためのマーカーが取り付け、ロボット2がテーブル8から落ちないような制御を行うようにしても良い。   On the table 8, a robot 2, a water heater 3, a coffee powder dispenser 4, a tablet dispenser 5 and a cup 12 are arranged. A table 8 is defined as an actionable range of the robot 2. A marker for identifying the boundary of the region of the table 8 may be attached to the table 8 so that the robot 2 is controlled so as not to fall off the table 8.

入力装置9は、タッチパネルディスプレイ91とカメラ92を備えたハンドヘルドデバイスである。ユーザが入力装置9において所定の操作を行うことにより、上述したロボット2及び家電機器(湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5、ランプ6及び目覚まし時計7)に実行させるタスクの内容を入力することができる。入力装置9に入力されたタスクは、無線又は有線によりコンピュータ10に送信され、コンピュータ10においてロボット2や家電機器に送信するための制御命令に変換され、ロボット2や家電機器に送信される。   The input device 9 is a handheld device that includes a touch panel display 91 and a camera 92. When the user performs a predetermined operation on the input device 9, the contents of a task to be executed by the robot 2 and the home appliances (the water heater 3, the coffee powder dispenser 4, the tablet dispenser 5, the lamp 6, and the alarm clock 7) are input. be able to. The task input to the input device 9 is transmitted to the computer 10 wirelessly or by wire, converted into a control command for transmission to the robot 2 and the home appliance in the computer 10, and transmitted to the robot 2 and the home appliance.

<入力装置>
図2は、家事システム及び入力装置9の機能ブロック図である。図1で説明した構成要素と同等の構成要素には同じ符号及び名称を用いる。図2に示すように、入力装置9は、タッチパネルディスプレイ91(表示部)、カメラ92(撮影部)、画像取込部93、物体認識部94(認識部)、データベース95、GUI制御部96、注釈付き画像生成部97(注釈付き画像生成部)、表示制御部98及びタスク入力部99(タスク入力部)を有する。
<Input device>
FIG. 2 is a functional block diagram of the housework system and the input device 9. The same reference numerals and names are used for components equivalent to those described in FIG. As shown in FIG. 2, the input device 9 includes a touch panel display 91 (display unit), a camera 92 (imaging unit), an image capture unit 93, an object recognition unit 94 (recognition unit), a database 95, a GUI control unit 96, An annotated image generation unit 97 (annotated image generation unit), a display control unit 98, and a task input unit 99 (task input unit) are included.

カメラ92は、CCD又はCMOS等の撮像素子を備え、撮影した画像を画像取込部93に出力する。画像取込部93はカメラ92によって撮影された画像を取り込み、物体認識部94と表示制御部98に出力する。   The camera 92 includes an image sensor such as a CCD or a CMOS, and outputs a captured image to the image capturing unit 93. The image capturing unit 93 captures an image captured by the camera 92 and outputs it to the object recognition unit 94 and the display control unit 98.

物体認識部94は、カメラ92によって撮影された画像に写っている物体を各物体に取り付けられている上述のマーカーに基づいて認識する。マーカーの図形と物体との対応関係の情報はデータベース95に格納されている。なお、入力装置9のカメラ92によって撮影された画像から物体認識部94が物体を認識する方法と、家事システムの天井カメラ1によって撮影された画像からコンピュータ10が物体を認識する方法とは、同一であっても異なっていても良い。家事システムと入力装置とで同一の認識技術を使用する場合には、データベースを入力装置9又はコンピュータ10のいずれか一方において一元管理し、他方は無線又は有線による通信によって一方のデータベースにアクセスするようにしても良い。画像に写っている物体の認識方法としてはどのような技術を用いることもできる。物体認識部94は、認識結果の情報をGUI制御部96に出力する。   The object recognition unit 94 recognizes an object shown in an image photographed by the camera 92 based on the above-described marker attached to each object. Information on the correspondence between the marker graphic and the object is stored in the database 95. Note that the method in which the object recognition unit 94 recognizes an object from the image captured by the camera 92 of the input device 9 and the method in which the computer 10 recognizes the object from the image captured by the ceiling camera 1 of the housework system are the same. Or different. When the same recognition technology is used in the housework system and the input device, the database is centrally managed in either the input device 9 or the computer 10, and the other is accessed by wireless or wired communication. Anyway. Any technique can be used as a method for recognizing an object in an image. The object recognition unit 94 outputs recognition result information to the GUI control unit 96.

GUI制御部96は、物体認識部94により認識された物体の名称、物体の種類、ユーザによるタスク内容の入力時に指示可能な動作リスト等の情報をデータベース95から取
得し、物体の名称を表すテキスト、物体の種類に応じたアイコン、ユーザがタスクの内容の入力を行うためのGUI(グラフィカル・ユーザ・インターフェース)等を表示制御部98に出力する。ユーザによるタスクの入力の詳細については後述する。
The GUI control unit 96 acquires information such as the name of the object recognized by the object recognition unit 94, the type of the object, and an operation list that can be instructed when the user inputs the task content from the database 95, and text representing the name of the object In addition, an icon corresponding to the type of object, a GUI (graphical user interface) for the user to input task contents, and the like are output to the display control unit 98. Details of the task input by the user will be described later.

データベース95には、この家電システムに登録されている物体の情報が格納されている。図3にデータベースの例を示す。図3に例示するデータベースには、物体毎に、物体の名称、物体の種類、タスク内容の入力時に指示可能な動作のリスト及び動作対象となり得る物体の情報が格納されている。物体の種類は、上述した移動可能な物体、動作対象を必要とする家電機器、動作対象を必要としない家電機器の他、場所という種類もある。ここで、「場所」とは、物体を移動させるタスクにおいて移動先として指定可能な物体であり、テーブルや台所のカウンター等がある。データベース95には、テーブルや台所カウンターにおいてロボット2による物体の移動先として指定可能な範囲(境界)に関する情報も格納されている。   The database 95 stores information on objects registered in the home appliance system. FIG. 3 shows an example of the database. The database illustrated in FIG. 3 stores, for each object, the name of the object, the type of the object, a list of operations that can be instructed when inputting the task content, and information on the object that can be an operation target. The types of objects include the above-described movable objects, home appliances that require an operation target, home appliances that do not require an operation target, and place types. Here, the “place” is an object that can be designated as a movement destination in the task of moving the object, and includes a table, a kitchen counter, and the like. The database 95 also stores information related to a range (boundary) that can be specified as a movement destination of an object by the robot 2 on a table or kitchen counter.

家電機器に関しては、上述した家電機器毎に定められている動作のリストの他、特に動作対象を必要とする家電機器に関しては、動作対象として指定可能な物体の情報も格納されている。例えば、湯沸かし器の動作対象としては、カップ及びマグカップが登録されているが、皿やスプーンは登録されていない。   Regarding household electrical appliances, in addition to the list of operations defined for each household electrical appliance described above, information on objects that can be designated as operational targets is also stored particularly for household electrical appliances that require operational targets. For example, a cup and a mug are registered as an operation target of a water heater, but a dish and a spoon are not registered.

図4に物体の種類とアイコンの対応関係の例を示す。GUI制御部96は、データベース95に問い合わせて取得した物体の種類に応じて、図4に示すアイコンを表示制御部98に出力する。   FIG. 4 shows an example of the correspondence between object types and icons. The GUI control unit 96 outputs the icons shown in FIG. 4 to the display control unit 98 according to the type of object acquired by inquiring of the database 95.

「トリガー」のアイコンは、トリガー物体に表示されるアイコンである。トリガー物体とは、所定の条件を満たした場合にロボットや家電機器がタスクの実行を開始するよう設定できる物体である。トリガー物体は、図1には図示しないが、例えば壁のスイッチ等である。壁のスイッチをトリガー物体として設定し、「スイッチが押された」という条件をロボットや家電機器がタスクを実行開始する条件として設定することにより、ユーザは、壁のスイッチを押すことによって、タスクの実行を開始させる指令をロボットや家電機器に送信することができる。つまり、タスクの実行を指示する際に、ユーザは、コンピュータ10や入力装置9を操作する代わりに、トリガー物体に対してタスク開始条件を満たすような操作をすれば良い。また、目覚まし時計7とトリガー物体とし、「鳴動する」という条件を満たした場合に、ロボットや家電機器に「コーヒーを入れる」というタスクを実行開始させるよう設定すれば、目覚まし時計7が鳴ると自動的にコーヒーを入れるタスクの実行が開始されるようにすることもできる。   The “trigger” icon is an icon displayed on the trigger object. The trigger object is an object that can be set so that the robot or home appliance starts executing a task when a predetermined condition is satisfied. Although not shown in FIG. 1, the trigger object is, for example, a wall switch. By setting the wall switch as the trigger object and setting the condition that the switch is pressed as the condition for the robot or home appliance to start executing the task, the user can press the wall switch to A command to start execution can be transmitted to the robot or the home appliance. That is, when instructing the execution of a task, the user may perform an operation that satisfies the task start condition on the trigger object instead of operating the computer 10 or the input device 9. Also, if the alarm clock 7 and the trigger object are used, and if the condition of “ring” is met, the robot or home appliance can be set to start the task of “adding coffee”, the alarm clock 7 will sound automatically In addition, the execution of the task of making coffee can be started.

「禁止」のアイコンは、後述するユーザによるタスクの入力時に、例えば物体の移動タスクの入力中に移動先として指定不可能な物体や、家電機器の動作タスクの入力中に動作対象として指定不可能な物体に表示されるアイコンである。   The "prohibited" icon cannot be specified as an operation target when inputting a task by a user, which will be described later, for example, an object that cannot be specified as a movement destination during input of an object movement task or an operation task of a home appliance This icon is displayed on a simple object.

図2に戻り、表示制御部98は、画像取込部93から出力されるカメラ92による撮影画像に対して適宜拡大縮小処理等の画像処理を行うとともに、画像処理後の撮影画像における物体認識部94により認識された物体が写っている位置にGUI制御部96から出力されるテキストやアイコンがオーバーレイ表示されるよう合成する。また、ユーザによるタスク入力時には、画像処理後の撮影画像とタスク入力のためのGUIとを合成する。そして、最終的にタッチパネルディスプレイ91に表示させるための表示画像を生成し、タッチパネルディスプレイ91に出力する。表示制御部98は、カメラ92が現在撮影している画像をリアルタイムに映像としてタッチパネルディスプレイ91に出力するライブビュー表示を行うことが可能である。また、ユーザが指定した瞬間における撮影画像を静止画像としてタッチパネルディスプレイ91に出力することも可能である。   Returning to FIG. 2, the display control unit 98 appropriately performs image processing such as enlargement / reduction processing on an image captured by the camera 92 output from the image capturing unit 93 and also performs an object recognition unit in the captured image after image processing The text and icon output from the GUI control unit 96 are overlaid and displayed at the position where the object recognized by 94 is reflected. In addition, when a user inputs a task, the captured image after image processing is combined with a GUI for task input. Then, a display image to be finally displayed on the touch panel display 91 is generated and output to the touch panel display 91. The display control unit 98 can perform live view display in which an image currently captured by the camera 92 is output to the touch panel display 91 as a video in real time. It is also possible to output the captured image at the moment designated by the user to the touch panel display 91 as a still image.

タッチパネルディスプレイ91は、表示制御部98から出力される表示画像を表示する表示装置と、表示装置に重ねて設けられるタッチパネルと、を備える。タッチパネルは静電容量方式、抵抗膜方式又はマトリクス・スイッチ方式等の種々の方式のものを利用できる。また、入力インターフェースはタッチパネルの代わりにキーボードやポインティングデバイスを用いることもできるし、またこれらの組み合わせでも良い。   The touch panel display 91 includes a display device that displays a display image output from the display control unit 98 and a touch panel that is provided on the display device. As the touch panel, various types such as a capacitance type, a resistance film type, and a matrix switch type can be used. The input interface can use a keyboard or a pointing device instead of the touch panel, or a combination thereof.

タスク入力部99は、ロボット2や家電機器に指示するタスクの内容をユーザに入力させる処理を行う。ユーザによる入力はタッチパネルディスプレイ91を介して行われる。ユーザは、タッチパネルディスプレイ91にライブビュー表示される実際の物体や家電機器の画像を見ながら、タスクに関係する物体や家電機器の画像を撮影し、タッチ操作及びGUIを介してタスクの内容を入力する。タスク入力部99がユーザに行わせるタスク入力手続の詳細については後述する。   The task input unit 99 performs processing for causing the user to input the contents of a task to be instructed to the robot 2 or the home appliance. Input by the user is performed via the touch panel display 91. The user captures an image of an object or home appliance related to the task while viewing an actual object or home appliance image displayed in live view on the touch panel display 91, and inputs the task content via touch operation and GUI To do. Details of the task input procedure that the task input unit 99 causes the user to perform will be described later.

注釈付き画像生成部97は、タスク入力部99において入力されたタスクの内容を表すテキストを生成し、生成したテキストと、タスク入力手続においてユーザが撮影した、タスクに関係する物体や家電機器が写っている写真と、を組み合わせた注釈付き画像を生成する。注釈付き画像には、GUI制御部96が出力するアイコンや矢印等の図形も含まれる。注釈付き画像の詳細については後述する。   The annotated image generation unit 97 generates a text representing the content of the task input in the task input unit 99, and shows the generated text and objects related to the task and home appliances taken by the user in the task input procedure. An annotated image that combines a photograph with The annotated image includes graphics such as icons and arrows output from the GUI control unit 96. Details of the annotated image will be described later.

注釈付き画像は、タスクに関連付けて入力装置9の記憶装置に保存される。注釈付き画像生成部97は、生成した注釈付き画像を無線又は有線の通信によって家事システムのコンピュータ10に送信する。コンピュータ10は、注釈付き画像生成部97から取得した注釈付き画像に関連付けられたタスクをロボット2や家電機器に実行させるための制御命令を生成する制御部101を備える。制御部101は、その制御命令を無線又は有線の通信によりロボット2や家電機器に送信する。これにより、注釈付き画像に対応するタスクが実行される。   The annotated image is stored in the storage device of the input device 9 in association with the task. The annotated image generation unit 97 transmits the generated annotated image to the computer 10 of the housework system by wireless or wired communication. The computer 10 includes a control unit 101 that generates a control command for causing the robot 2 or the home appliance to execute a task associated with the annotated image acquired from the annotated image generation unit 97. The control unit 101 transmits the control command to the robot 2 and home appliances by wireless or wired communication. Thereby, the task corresponding to the annotated image is executed.

なお、注釈付き画像からロボット2や家電機器に送信するための制御命令を生成する制御部101は、コンピュータ10ではなく入力装置9に備わっていても良い。そして、入力装置9は制御命令の情報を無線又は有線によりコンピュータ10に送信し、コンピュータ10が適切なタイミングでその制御命令をロボット2や家電機器に送信するようにしても良い。或いは、入力装置9自体がロボット2や家電機器に制御命令を送信する機能を有し、コンピュータ10を介さずに直接制御命令をロボット2や家電機器に無線又は有線により送信する構成でも良い。無線の通信方式としてはBluetoothや赤外線を例示できる。   Note that the control unit 101 that generates a control command for transmitting to the robot 2 or the home appliance from the annotated image may be provided in the input device 9 instead of the computer 10. Then, the input device 9 may transmit the control command information to the computer 10 wirelessly or by wire, and the computer 10 may transmit the control command to the robot 2 or the home appliance at an appropriate timing. Alternatively, the input device 9 itself may have a function of transmitting a control command to the robot 2 and the home appliance, and may directly transmit the control command to the robot 2 and the home appliance without using the computer 10. Examples of wireless communication methods include Bluetooth and infrared rays.

入力装置9の機能ブロックのうち、物体認識部94、データベース95、GUI制御部96、表示制御部98及び注釈付き画像生成部97の機能部は、それぞれ専用のハードウェアにより実装しても良いし、入力装置9のCPUが記憶装置に格納されたプログラムをロードし実行することによって実現することもできる。これらの機能を、カメラ及びタッチパネルディスプレイを有する既存のPCやスマートフォン等のデバイスにおいて動作するアプリケーションプログラムとして設計することもできる。この場合、アプリケーションプログラムがそれらのデバイスにおいて動作することによって、そのデバイスが入力装置9として機能することになる。また、画像取込部93が、天井カメラ1や別途部屋11に備えられるウェブカメラや監視カメラのような固定カメラによる撮影画像を、有線又は無線の通信によりコンピュータ10や外部サーバを経由して取得するよう構成することにより、カメラを備えないデバイスを入力装置9として機能させることもできる。   Of the functional blocks of the input device 9, the functional units of the object recognition unit 94, the database 95, the GUI control unit 96, the display control unit 98, and the annotated image generation unit 97 may be implemented by dedicated hardware, respectively. It can also be realized by the CPU of the input device 9 loading and executing a program stored in the storage device. These functions can also be designed as an application program that operates on a device such as an existing PC or smartphone having a camera and a touch panel display. In this case, when the application program operates on these devices, the devices function as the input device 9. In addition, the image capturing unit 93 acquires an image captured by a fixed camera such as a web camera or a surveillance camera provided in the ceiling camera 1 or the separate room 11 via the computer 10 or an external server by wired or wireless communication. By configuring so, a device that does not include a camera can also function as the input device 9.

<タスク入力方法>
入力装置9によるタスク内容の入力方法について図5〜図12を参照して説明する。
<Task input method>
A method of inputting task contents by the input device 9 will be described with reference to FIGS.

図5は、入力装置9の動作状態の遷移図である。図6から図11は、入力装置9のタッチパネルディスプレイ91に表示されるGUIの例である。図12は、ユーザが入力装置9を用いてタスクの内容を入力するプロセスを表すフローチャートである。   FIG. 5 is a transition diagram of the operating state of the input device 9. 6 to 11 are examples of GUIs displayed on the touch panel display 91 of the input device 9. FIG. 12 is a flowchart showing a process in which the user inputs the contents of a task using the input device 9.

図5に示すように、入力装置9の状態には大きく分けてタスク作成モードとタスク内容確認モードとの2つの状態がある。タスク作成モードでは、ユーザは新たなタスクを作成することができる。タスク内容確認モードでは、ユーザは既存のタスクの内容確認及び編集をすることができる。タスク作成モードでは、まず、ユーザによるタスク作成プロセスの開始を待機する入力待機画面(図6)が表示され、その中のライブビュー画像に表示される各種の物体のアイコンにタッチすると、タッチした物体に関するタスクを入力するための画面に遷移する。遷移する画面はタッチした物体に応じて異なる。移動可能物体のアイコンにタッチした場合には、移動タスク入力画面(図7)に遷移する。家電機器のアイコンにタッチした場合には、家電機器動作入力画面(図8)に遷移する。トリガー物体のアイコンにタッチした場合には、トリガー設定画面(図10)に遷移する。待機時間設定ボタンにタッチした場合には、待機時間設定画面(図9)に遷移する。タスク内容確認モードでは、タスク内容を表示する画面(図11)が表示される。入力待機画面からタスク内容表示画面へは、既存のタスクを表すサムネイル画像にタッチすることによって切り替わる。タスク内容表示画面から入力待機画面へは、ライブビューボタンにタッチすることによって切り替わる。   As shown in FIG. 5, the state of the input device 9 is roughly divided into two states: a task creation mode and a task content confirmation mode. In the task creation mode, the user can create a new task. In the task content confirmation mode, the user can confirm and edit the content of an existing task. In the task creation mode, first, an input standby screen (FIG. 6) for waiting for the user to start the task creation process is displayed. When touching various object icons displayed in the live view image, the touched object is displayed. Transitions to the screen for entering tasks related to. The transition screen varies depending on the touched object. When the icon of the movable object is touched, the screen transits to the movement task input screen (FIG. 7). When the home appliance icon is touched, a transition is made to the home appliance operation input screen (FIG. 8). When the icon of the trigger object is touched, a transition is made to the trigger setting screen (FIG. 10). When the standby time setting button is touched, the screen transits to a standby time setting screen (FIG. 9). In the task content confirmation mode, a screen (FIG. 11) for displaying the task content is displayed. Switching from the input standby screen to the task content display screen is performed by touching a thumbnail image representing an existing task. The task content display screen is switched to the input standby screen by touching the live view button.

<入力待機画面>
図6は、タスク作成モードにおいて、ユーザによるタスク作成プロセスの開始を待機する入力待機画面のGUIの表示例である。入力待機画面のGUIには、サムネイル画像601及び602、ライブビューボタン603、待機時間設定ボタン604、ライブビュー画像605が表示される。
<Input standby screen>
FIG. 6 is a GUI display example of an input standby screen for waiting for the user to start the task creation process in the task creation mode. On the GUI of the input standby screen, thumbnail images 601 and 602, a live view button 603, a standby time setting button 604, and a live view image 605 are displayed.

サムネイル画像601及び602は、それぞれのサムネイル画像に対応する既存のタスクの内容確認を行うタスク内容確認モードに移行するためのGUIである。なお、既存のタスクが存在しない場合は、サムネイル画像は表示されない。   Thumbnail images 601 and 602 are GUIs for shifting to a task content confirmation mode for confirming the content of an existing task corresponding to each thumbnail image. If there is no existing task, the thumbnail image is not displayed.

ライブビューボタン603は、現在のモードがタスク作成モードであることを示すために強調表示される。   The live view button 603 is highlighted to indicate that the current mode is the task creation mode.

待機時間設定ボタン604は、ロボットや家電機器にタスクの実行を待機させる時間を入力する待機時間設定画面(図9)に遷移するためのGUIである。   The standby time setting button 604 is a GUI for making a transition to a standby time setting screen (FIG. 9) for inputting a time for which the robot or home appliance waits for execution of a task.

ライブビュー画像605には、カメラ92による撮影画像がリアルタイムに表示される。さらに、撮影画像における、物体認識部94によって認識された物体の画像には、その物体の名称を表すテキスト及びその物体の種類を表すアイコンがオーバーレイ表示される。ユーザがいずれかの物体のアイコンにタッチして選択すると、選択された物体の種類に応じて、選択された物体に関するタスクを入力する画面に遷移する。   In the live view image 605, an image captured by the camera 92 is displayed in real time. Further, the image of the object recognized by the object recognition unit 94 in the captured image is displayed with an overlay indicating text representing the name of the object and an icon representing the type of the object. When the user touches and selects an icon of any object, the screen transitions to a screen for inputting a task related to the selected object according to the type of the selected object.

ユーザがライブビュー画像内の移動可能物体のアイコンにタッチすると、移動可能物体がタスク入力対象として選択され、選択した移動可能物体をロボット2により移動させる移動タスクを入力するための移動タスク入力画面(図7)に遷移する。   When the user touches an icon of a movable object in the live view image, the movable object is selected as a task input target, and a moving task input screen for inputting a moving task for moving the selected movable object by the robot 2 ( Transition to FIG.

ユーザがライブビュー画像内の家電機器のアイコンにタッチすると、家電機器がタスク入力対象として選択され、選択した家電機器に実行させる動作を入力するための家電機器
動作入力画面(図8)に遷移する。
When the user touches the home appliance icon in the live view image, the home appliance is selected as a task input target, and a transition is made to a home appliance operation input screen (FIG. 8) for inputting an operation to be executed by the selected home appliance. .

ユーザがライブビュー画像内のトリガー物体のアイコンにタッチすると、トリガー物体がトリガー設定対象として選択され、ロボットや家電機器がタスクの実行を開始するためにトリガー物体が満たすべき条件を入力するためのトリガー設定画面(図10)に遷移する。図6の表示例ではトリガー物体及びアイコンは示していないが、カメラ92による撮影画像の中にトリガー物体が写れば、移動可能物体や家電機器と同様にトリガー物体のアイコン及びトリガー物体の名称がトリガー物体の画像にオーバーレイ表示される。   When the user touches the trigger object icon in the live view image, the trigger object is selected as the trigger setting target, and the trigger for inputting conditions that the trigger object must satisfy in order for the robot or home appliance to start executing the task Transition to the setting screen (FIG. 10). Although the trigger object and the icon are not shown in the display example of FIG. 6, if the trigger object is captured in the image captured by the camera 92, the trigger object icon and the trigger object name are the same as those of the movable object and the home appliance. Overlaid on the trigger object image.

図6に例示するライブビュー画像605には、湯沸かし器3及びカップ12が写っており、物体認識部94の認識結果に従って、湯沸かし器3の画像には「家電機器」を表すアイコン662及び「湯沸かし器」という名称がオーバーレイ表示され、カップ12の画像には「移動可能な物体」表すアイコン672及び「カップ」という名称がオーバーレイ表示されている。   In the live view image 605 illustrated in FIG. 6, the water heater 3 and the cup 12 are shown. According to the recognition result of the object recognition unit 94, the image of the water heater 3 includes an icon 662 representing “home appliance” and a “water heater”. The name is displayed as an overlay, and the image of the cup 12 is displayed with an icon 672 indicating “movable object” and the name “cup” as an overlay.

<移動タスク入力画面>
図7(A)は、移動タスク入力画面のGUIの表示例である。移動タスク入力画面のGUIには、移動先指示ボタン701、最終状態指示ボタン702、やり直しボタン703、全選択ボタン704、出発地点の画像705が表示される。移動タスク入力画面では、ユーザは2つの方法で移動タスクの入力を行うことができる。移動先を指示する方法と、移動タスクにより達成したい最終的な状態を指示する方法である。
<Move task input screen>
FIG. 7A is a GUI display example of the movement task input screen. On the GUI of the movement task input screen, a movement destination instruction button 701, a final state instruction button 702, a redo button 703, an all selection button 704, and a departure point image 705 are displayed. On the movement task input screen, the user can input a movement task by two methods. There are a method of instructing a destination and a method of instructing a final state to be achieved by a movement task.

移動先指示ボタン701は、移動先を指示する方法により移動タスクの内容を入力するための移動先指示画面に移行するためのGUIである。   The movement destination instruction button 701 is a GUI for shifting to a movement destination instruction screen for inputting the contents of the movement task by a method of instructing the movement destination.

最終状態指示ボタン702は、最終的な状態を指示する方法により移動タスクの内容を入力するための最終状態指示画面に移行するためのGUIである。   The final state instruction button 702 is a GUI for shifting to a final state instruction screen for inputting the contents of the movement task by a method of instructing the final state.

やり直しボタン703は、入力待機画面(図6)に戻るためのGUIである。   The redo button 703 is a GUI for returning to the input standby screen (FIG. 6).

全選択ボタン704は、出発地点の画像705に写っている移動可能物体が全て選択するためのGUIである。移動タスク入力画面に移行した時のデフォルトの状態では、入力待機画面のライブビュー画像605においてユーザがタッチして選択した移動可能物体が選択された状態になっている。全選択ボタン704にタッチしてから移動先の指示をすることにより、複数の移動可能物体を移動させるタスクを簡単に入力することができる。   The all selection button 704 is a GUI for selecting all the movable objects shown in the departure point image 705. In the default state when moving to the moving task input screen, the movable object selected by touching the user in the live view image 605 on the input standby screen is selected. A task for moving a plurality of movable objects can be easily input by instructing a destination after touching all selection buttons 704.

出発地点の画像705は、入力待機画面(図6)において選択された移動可能物体と出発地点の物体又は場所の両方が写っている静止画像である。出発地点の画像705は、入力待機画面(図6)においてユーザが移動可能物体のアイコンにタッチした時点でライブビュー画像605に表示されていた撮影画像から生成される。   The departure point image 705 is a still image in which both the movable object selected on the input standby screen (FIG. 6) and the departure point object or place are shown. The departure point image 705 is generated from the captured image displayed in the live view image 605 when the user touches the icon of the movable object on the input standby screen (FIG. 6).

図7(A)の表示例は、図6に例示する入力待機画面の状態(すなわちライブビュー画像605にカップ12及び湯沸かし器3が写っている状態)において、ユーザがカップのアイコン672にタッチした場合の移動タスク入力画面の表示例であり、出発地点の画像705には、移動対象物体としてカップ12及び移動の出発地点の物体として湯沸かし器3が写っている。   The display example of FIG. 7A is a case where the user touches the cup icon 672 in the state of the input standby screen illustrated in FIG. 6 (that is, the state where the cup 12 and the water heater 3 are reflected in the live view image 605). In the display example of the moving task input screen, the starting point image 705 shows the cup 12 as the object to be moved and the water heater 3 as the object at the starting point of the movement.

<移動先指示画面>
図7(B)は、移動先指示画面のGUIの表示例である。移動先指示画面のGUIには、ライブビュー画像706、出発地点の画像707及びやり直しボタン708が表示され
る。
<Destination instruction screen>
FIG. 7B is a GUI display example of the movement destination instruction screen. On the GUI of the movement destination instruction screen, a live view image 706, a departure point image 707, and a redo button 708 are displayed.

出発地点の画像707は、選択された移動対象物体及び出発地点の物体又は場所が写っている静止画像であり、移動タスク入力画面(図7(A))に表示されていた出発地点の画像705から生成される。   The departure point image 707 is a still image in which the selected object to be moved and the object or place of the departure point are shown, and the departure point image 705 displayed on the movement task input screen (FIG. 7A). Generated from

やり直しボタン708は、移動タスク入力画面(図7(A))に戻るためのGUIである。   The redo button 708 is a GUI for returning to the movement task input screen (FIG. 7A).

ライブビュー画像706は、カメラ92によるリアルタイムの撮影画像(映像)である。ユーザは、移動対象物体を移動先に手動で移動させ、その状態をカメラ92で撮影する。ユーザは、ライブビュー画像706を見ながら、移動対象物体及び移動先の物体又は場所の両方がライブビュー画像706に写るように撮影し、物体認識部94により移動対象物体及び移動先の物体又は場所を認識させる。その状態でライブビュー画像706の任意の場所にタッチすると、ライブビュー画像706において移動対象物体とともに認識されている物体又は場所が移動タスクによる移動先として確定し、移動タスクの指示が完了する。なお、ライブビュー画像706には、移動対象物体の移動先として設定不可能な物体には、物体の種類を表すアイコンの代わりに禁止アイコンを表示するようにしても良い。例えば、湯沸かし器3から皿に湯を注ぐことはないので、システムのデータベースにおいて、湯沸かし器3の動作対象物体として皿を登録しない。そして、移動対象物体が皿である移動タスクを入力している場合は、移動先指示画面のライブビュー画像706に湯沸かし器3が写ったとしても、湯沸かし器3に禁止アイコンが表示され、皿の移動先として指定できないようにすることができる。   The live view image 706 is a real-time image (video) taken by the camera 92. The user manually moves the movement target object to the movement destination, and captures the state with the camera 92. While viewing the live view image 706, the user takes an image so that both the movement target object and the movement destination object or location appear in the live view image 706, and the object recognition unit 94 causes the movement target object and the movement destination object or location to move. Recognize In this state, when an arbitrary place on the live view image 706 is touched, the object or place recognized together with the movement target object in the live view image 706 is determined as a movement destination by the movement task, and the movement task instruction is completed. In the live view image 706, a prohibition icon may be displayed instead of an icon indicating the type of object for an object that cannot be set as the movement destination of the movement target object. For example, since hot water is not poured from the water heater 3 into the dish, the dish is not registered as an operation target object of the water heater 3 in the database of the system. When a movement task in which the object to be moved is a dish is input, even if the water heater 3 is reflected in the live view image 706 on the movement destination instruction screen, a prohibition icon is displayed on the water heater 3 and the dish movement destination is displayed. Can not be specified as.

図7(B)の表示例は、ユーザがカップ12を移動先であるテーブル8に持って行き、その状態でカップ12及びテーブル8がライブビュー画像706に写るように撮影している状態を示している。ライブビュー画像706には、カップのアイコン672及びテーブルのアイコン682が表示されている。テーブルのアイコン682は上述した「場所」のアイコンである。   The display example of FIG. 7B shows a state in which the user takes the cup 12 to the table 8 that is the movement destination and is taking a picture so that the cup 12 and the table 8 appear in the live view image 706 in that state. ing. In the live view image 706, a cup icon 672 and a table icon 682 are displayed. The table icon 682 is the “place” icon described above.

<注釈付き画像>
移動タスクの指示が完了すると、指示された移動タスクの内容を表す注釈付き画像が注釈付き画像生成部97により生成され、タッチパネルディスプレイ91に表示される。
<Annotated image>
When the movement task instruction is completed, an annotated image representing the content of the instructed movement task is generated by the annotated image generation unit 97 and displayed on the touch panel display 91.

図7(C)は、移動タスクを表す注釈付き画像の表示例である。移動タスクの注釈付き画像には、出発地点の画像709、最終状態の画像710、矢印図形714、テキスト711〜713、保存ボタン715、やり直しボタン716が表示される。   FIG. 7C is a display example of an annotated image representing a movement task. In the annotated image of the moving task, a departure point image 709, a final state image 710, an arrow graphic 714, texts 711 to 713, a save button 715, and a redo button 716 are displayed.

出発地点の画像709は、入力された移動タスクに係る移動対象物体及び出発地点の物体又は場所が写っている静止画像であり、移動タスク入力画面(図7(A))に表示されていた出発地点の画像705から生成される。   The departure point image 709 is a still image showing the object to be moved and the object or place of the departure point related to the input movement task, and the departure point displayed on the movement task input screen (FIG. 7A). It is generated from the point image 705.

最終状態の画像710は、入力された移動タスクに係る移動対象物体及び移動先の物体又は場所が写っている静止画像であり、移動先指示画面(図7(B))においてユーザがライブビュー画像706にタッチした時点でライブビュー画像706に表示されていた撮影画像から生成される。   The final state image 710 is a still image in which the object to be moved and the object or location of the movement destination related to the input movement task are shown. The user can view the live view image on the movement destination instruction screen (FIG. 7B). It is generated from the captured image displayed on the live view image 706 when the touch button 706 is touched.

矢印図形714は、出発地点の画像709における移動対象物体の画像と最終状態の画像710における移動対象物体の画像とを結び、このタスクが物体を移動させるタスクであることを直感的に表している。   An arrow graphic 714 connects the image of the moving target object in the starting point image 709 and the image of the moving target object in the final state image 710 and intuitively represents that this task is a task for moving the object. .

テキスト711〜713は、入力された移動タスクの内容を表すテキストであり、移動タスク入力画面(図7(A))及び移動先指示画面(図7(B))におけるユーザの入力内容に基づいて注釈付き画像生成部97により自動生成される。移動タスクの注釈付き画像のために生成されるテキストは、移動対象物体の名称を表すテキスト712、移動先の物体の名称を表すテキスト713及び「移動する」という意味のテキスト711を含む。   The texts 711 to 713 are texts representing the contents of the input movement task, and are based on the user input contents on the movement task input screen (FIG. 7A) and the movement destination instruction screen (FIG. 7B). Automatically generated by the annotated image generation unit 97. The text generated for the annotated image of the movement task includes text 712 that represents the name of the object to be moved, text 713 that represents the name of the object to be moved, and text 711 that means “move”.

保存ボタン715は、生成された注釈付き画像を保存するためのGUIである。ユーザが保存ボタン715にタッチすると、移動タスクの入力が終了し、入力待機画面(図6)に戻る。   The save button 715 is a GUI for saving the generated annotated image. When the user touches the save button 715, the input of the movement task is completed, and the screen returns to the input standby screen (FIG. 6).

やり直しボタン716は、移動先指定画面(図7(B))に戻るためのGUIである。移動先指定画面(図7(B))に戻り、ライブビュー画像706を見ながら移動先の物体や場所の撮影をやり直すことができる。   The redo button 716 is a GUI for returning to the movement destination designation screen (FIG. 7B). Returning to the movement destination designation screen (FIG. 7B), it is possible to redo the shooting of the movement destination object or place while viewing the live view image 706.

図7(C)の表示例は、カップ12を湯沸かし器3からテーブル8へ移動させる移動タスクを表す注釈付き画像であり、出発地点の画像709には移動対象物体であるカップ12と出発地点の物体である湯沸かし器3が写っており、最終状態の画像710には移動対象物体であるカップ12と移動先の場所であるテーブル8が写っており、出発地点の画像709のカップ12の画像と最終状態の画像710のカップ12の画像とが矢印図形714により結ばれ、「カップがテーブルに移動する」という意味のテキスト711〜713が表示されている。注釈付き画像に含まれるテキストは、図7(C)の表示例のように画像のキャプションやタイトルのような態様で表示されても良いし、箇条書きで表示されても良いし、普通の文の形で表示されても良い。どのような表示態様であっても、実際のタスクの対象となる物体が写った画像と合わせて見ることで、ユーザは、曖昧さ無くタスクの内容を把握することができる。   The display example of FIG. 7C is an annotated image representing a moving task for moving the cup 12 from the water heater 3 to the table 8, and the starting point image 709 includes the cup 12 that is the moving target object and the starting point object. The final-state image 710 includes the cup 12 that is the object to be moved and the table 8 that is the destination location. The image of the cup 12 and the final state of the image 709 at the departure point. The image of the cup 12 in the image 710 is connected by an arrow graphic 714, and texts 711 to 713 meaning “the cup moves to the table” are displayed. The text included in the annotated image may be displayed as an image caption or title, as in the display example of FIG. 7C, or may be displayed as a bullet, or a normal sentence. May be displayed. Regardless of the display mode, the user can grasp the contents of the task without ambiguity by viewing it together with the image in which the object that is the target of the actual task is shown.

<最終状態指示画面>
ここで、移動タスクにより達成した最終的な状態を指示する方法による移動タスクの指示方法について説明する。
<Final status instruction screen>
Here, a moving task instruction method by a method of instructing the final state achieved by the moving task will be described.

移動タスクにより達成したい最終的な状態とは、例えば、部屋の片付けが完了した状態である。散らかった状態の部屋を撮影して移動タスク入力画面(図7(A))に移行し、全選択ボタン704にタッチするか又は移動対象物体を複数選択して、最終状態指示ボタン702にタッチする。すると、選択された複数の移動対象物体のそれぞれが全て適切な場所に収納された最終的な状態を指示するための最終状態指示画面(図示省略)に移行する。最終的な状態の指示方法としては、例えば、片付いた状態の部屋の画像をユーザに選択させる方法を例示できる。この画像には、種々の物体とその収納場所との対応関係の情報が付随するような構成とする。ユーザは、最終状態指示画面において、最終的な片付いた状態の部屋の画像を1枚選択することにより、移動タスク入力画面(図7(A))において選択した複数の物体をそれぞれの収納場所に移動させる、というパラレルな複数の移動タスクを一度に指示することができる。ここで、パラレルな複数のタスクとは、順不同に実行可能なタスクの集合である。最終状態を指示する方法によれば、ユーザは、移動先を指示する方法のように移動先の物体や場所まで移動対象物体を手動で持って行って撮影する手間を省ける。最終状態を指示する方法は、収納先が一定であるような定型タスクの指示に適している。なお、移動タスク入力画面(図7(A))において1つの移動可能物体が選択されている状態でも、最終状態を指示する方法による移動タスクの入力は可能である。   The final state desired to be achieved by the moving task is, for example, a state in which the room cleanup is completed. Take a picture of the messy room, move to the movement task input screen (FIG. 7A), touch the all selection button 704, or select a plurality of objects to be moved, and touch the final state instruction button 702. . Then, the screen shifts to a final state instruction screen (not shown) for instructing a final state in which each of the selected plurality of objects to be moved is stored in an appropriate place. As a final state instruction method, for example, a method of causing the user to select a room image in a tidy state can be exemplified. The image is configured to be accompanied by information on the correspondence between various objects and their storage locations. The user selects one image of the room in the final tidy state on the final state instruction screen, so that the plurality of objects selected on the movement task input screen (FIG. 7A) are stored in the respective storage locations. A plurality of parallel movement tasks of moving can be instructed at a time. Here, the plurality of parallel tasks is a set of tasks that can be executed in any order. According to the method of instructing the final state, the user can save the trouble of manually taking the object to be moved to the object or location of the destination and taking a picture as in the method of instructing the destination. The method of instructing the final state is suitable for instructing a fixed task in which the storage destination is constant. Note that even when one movable object is selected on the movement task input screen (FIG. 7A), the movement task can be input by the method of instructing the final state.

<家電機器動作入力画面>
図8(A)は、家電機器動作入力画面のGUIの表示例である。家電機器動作入力画面のGUIには、動作リスト801、やり直しボタン802、家電機器の画像803が表示される。
<Home appliance operation input screen>
FIG. 8A is a GUI display example of the home appliance operation input screen. On the GUI of the home appliance operation input screen, an operation list 801, a redo button 802, and an image 803 of the home appliance are displayed.

動作リスト801は、入力待機画面(図6)において選択された家電機器に指示可能な動作のリストである。家電機器の指示可能な動作リストの情報は、システムのデータベースに格納されている(図3を参照)。ユーザは、指示可能な動作リスト801のいずれかにタッチすることにより、タッチした動作を家電機器に実行させる指示をすることができる。   The operation list 801 is a list of operations that can be instructed to the home appliance selected on the input standby screen (FIG. 6). Information on the operation list that can be instructed by the home appliance is stored in a database of the system (see FIG. 3). The user can instruct the home appliance to perform the touched operation by touching any of the instructable operation lists 801.

やり直しボタン802は、入力待機画面(図6)に戻るためのGUIである。   The redo button 802 is a GUI for returning to the input standby screen (FIG. 6).

家電機器の画像803は、入力待機画面(図6)において選択された家電機器が写っている静止画像である。選択された家電機器が動作対象物体を必要とする家電機器の場合は、選択された家電機器及びその動作対象物体の両方が写っている静止画像である。家電機器の画像803は、入力待機画面(図6)においてユーザが家電機器のアイコンにタッチした時点でライブビュー画像605に表示されていた撮影画像から生成される。   The home appliance image 803 is a still image showing the home appliance selected on the input standby screen (FIG. 6). When the selected household electrical appliance is a household electrical appliance that requires an operation target object, it is a still image in which both the selected household electrical appliance and the operation target object are shown. The home appliance image 803 is generated from the captured image displayed in the live view image 605 when the user touches the home appliance icon on the input standby screen (FIG. 6).

図8(A)の表示例は、図6に例示する入力待機画面の状態(すなわちライブビュー画像605にカップ12及び湯沸かし器3が写っている状態)において、ユーザが湯沸かし器のアイコン662にタッチした場合の家電機器動作入力画面の表示例であり、家電機器の画像803には、湯沸かし器3及び湯沸かし器の動作対象としてのカップ12が写っている。動作リスト801には、湯沸かし器3に指示可能な動作として「注ぐ」「加熱する」「注ぎ続ける」「注ぎ停止」がリストされている。なお、「注ぐ」動作についてはパラメータ設定が可能であり、注ぎ時間を「1秒間」「2秒間」「3秒間」のうちから選択できる。また「加熱する」動作についてもパラメータ設定が可能であり、目標温度を指定できる。   The display example of FIG. 8A is a case where the user touches the water heater icon 662 in the state of the input standby screen illustrated in FIG. 6 (that is, the state where the cup 12 and the water heater 3 are shown in the live view image 605). This is a display example of the home appliance operation input screen, and an image 803 of the home appliance shows a water heater 3 and a cup 12 as an operation target of the water heater. The operation list 801 lists “pour”, “heat”, “continue pouring”, and “pour stop” as operations that can be instructed to the water heater 3. Note that parameters can be set for the “pour” operation, and the pouring time can be selected from “1 second”, “2 seconds”, and “3 seconds”. Parameters can also be set for the “heating” operation, and a target temperature can be designated.

家電機器動作入力画面(図8(A))の動作リスト801のうちパラメータ設定が可能な動作のボタンにタッチすると、パラメータ設定画面(図8(B))に遷移する。パラメータ設定画面のGUIには、設定可能な値リスト804、やり直しボタン802、家電機器の画像803が表示される。家電機器の動作の設定可能なパラメータの値の情報は、システムのデータベースに格納されている(図3を参照)。ユーザは、設定可能な値リスト804のいずれかにタッチすることにより、パラメータの値を設定することができる。   When a button for an operation that allows parameter setting is touched in the operation list 801 of the home appliance operation input screen (FIG. 8A), a transition is made to the parameter setting screen (FIG. 8B). On the GUI of the parameter setting screen, a settable value list 804, a redo button 802, and an image 803 of home appliances are displayed. Information on parameter values that can be set for the operation of the home appliance is stored in a database of the system (see FIG. 3). The user can set a parameter value by touching one of the settable value lists 804.

図8(B)の表示例は、図8(A)の動作リスト801の「注ぐ」ボタンにタッチした場合に表示されるパラメータ設定画面の表示例であり、設定可能な値として「1秒間」「2秒間」「3秒間」がリストされている。なお、パラメータ設定画面は、このようなリスト選択のGUIの他に、テンキー等のGUIを表示して任意の数値を入力可能なGUIを表示するものがあっても良い。例えば、図8(A)の動作リスト801の「加熱する」ボタンにタッチした場合に表示されるパラメータ設定画面は、加熱動作のパラメータとして任意の温度を入力することができるようにテンキーのGUIを表示することができる。   The display example of FIG. 8B is a display example of the parameter setting screen displayed when the “pour” button of the operation list 801 of FIG. 8A is touched, and “1 second” is settable. “2 seconds” and “3 seconds” are listed. In addition to the list selection GUI, the parameter setting screen may display a GUI that can display a GUI such as a numeric keypad and can input an arbitrary numerical value. For example, in the parameter setting screen displayed when the “heat” button in the operation list 801 in FIG. 8A is touched, the GUI of the numeric keypad is set so that an arbitrary temperature can be input as a heating operation parameter. Can be displayed.

家電機器操作入力画面(図8(A))の動作リスト801のいずれかにタッチして家電機器に実行させる動作が確定すると(パラメータ設定が可能な動作の場合は更にパラメータ設定画面(図8(B))でパラメータの値の設定が確定すると)、家電機器動作タスクの指示が完了する。   When one of the operation lists 801 on the home appliance operation input screen (FIG. 8A) is touched and the operation to be executed by the home appliance is confirmed (in the case of an operation capable of parameter setting, the parameter setting screen (FIG. 8 ( When the setting of the parameter value is confirmed in B))), the instruction of the home appliance operation task is completed.

<注釈付き画像>
家電機器動作タスクの指示が完了すると、指示された家電機器動作タスクの内容を表す
注釈付き画像が注釈付き画像生成部97により生成され、タッチパネルディスプレイ91に表示される。
<Annotated image>
When the home appliance operation task instruction is completed, an annotated image representing the content of the instructed home appliance operation task is generated by the annotated image generation unit 97 and displayed on the touch panel display 91.

図8(C)は、家電機器動作タスクを表す注釈付き画像の表示例である。家電機器動作タスクの注釈付き画像には、家電機器の画像805、テキスト806〜809、保存ボタン810,やり直しボタン811が表示される。   FIG. 8C is a display example of an annotated image representing the home appliance operation task. In the annotated image of the home appliance operation task, a home appliance image 805, texts 806 to 809, a save button 810, and a redo button 811 are displayed.

家電機器の画像805は、入力された家電機器動作タスクに係る家電機器が写っている静止画像であり、家電機器動作入力画面(図8(A))に表示されていた家電機器の画像803から生成される。   The home appliance image 805 is a still image in which the home appliance related to the input home appliance operation task is shown. From the home appliance image 803 displayed on the home appliance operation input screen (FIG. 8A). Generated.

テキスト806〜809は、入力された家電機器動作タスクの内容を表すテキストであり、家電機器動作入力画面(図8(A))やパラメータ設定画面(図8(B))におけるユーザの入力内容に基づいて注釈付き画像生成部97により自動生成される。家電機器動作タスクの注釈付き画像のために生成されるテキストは、家電機器の名称を表すテキスト806、家電機器の動作を表すテキスト807、必要に応じてパラメータの値を表すテキスト808、動作対象の物体の名称を表すテキスト809を含む。   Texts 806 to 809 are texts representing the contents of the input home appliance operation task, and include user input contents on the home appliance operation input screen (FIG. 8A) and parameter setting screen (FIG. 8B). Based on this, it is automatically generated by the annotated image generation unit 97. The text generated for the annotated image of the home appliance operation task includes a text 806 representing the name of the home appliance, a text 807 representing the operation of the home appliance, a text 808 representing a parameter value as necessary, and an action target It includes text 809 representing the name of the object.

保存ボタン810は、生成された注釈付き画像を保存するためのGUIである。ユーザが保存ボタン810にタッチすると、家電機器動作タスクの入力が終了し、入力待機画面(図6)に戻る。   The save button 810 is a GUI for saving the generated annotated image. When the user touches save button 810, the input of the home appliance operation task ends, and the screen returns to the input standby screen (FIG. 6).

やり直しボタン811は、家電機器動作入力画面(図8(A))に戻るためのGUIである。家電機器動作入力画面(図8(A))に戻り、動作リスト801からの動作の指定をやり直すことができる。   The redo button 811 is a GUI for returning to the home appliance operation input screen (FIG. 8A). Returning to the home appliance operation input screen (FIG. 8A), the operation designation from the operation list 801 can be performed again.

図8(C)の表示例は、湯沸かし器3でカップ12に2秒間湯を注ぐタスクを表す注釈付き画像であり、家電機器の画像805には湯沸かし器3及びその動作対象であるカップ12が写っており、「湯沸かし器でカップに2秒間湯を注ぐ」という意味のテキスト806〜809が表示されている。テキストの表示態様が図8(C)の表示例に限らないことは移動タスクの注釈付き画像の場合と同様である。   The display example of FIG. 8C is an annotated image representing the task of pouring hot water into the cup 12 for 2 seconds with the water heater 3, and the water heater 3 and the cup 12 that is the operation target are shown in the image 805 of the home appliance. And texts 806 to 809 meaning “pour hot water into the cup for 2 seconds with a water heater” are displayed. The display mode of the text is not limited to the display example of FIG. 8C, as in the case of the annotated image of the moving task.

なお、本実施例の家事システムでは、湯沸かし器3は、動作対象としてカップ12やマグ等のカップ類を必要とする家電機器として登録されており(図3を参照)、入力待機画面(図6)のライブビュー画像605の中に湯沸かし器3とその動作対象となり得る物体(カップ12その他のカップ類属性の食器等)の両方が写っている場合に限り、家電機器動作入力画面(図8(A))への遷移が許可されるようにしても良い。この場合、入力待機画面(図6)のライブビュー画像605の中に湯沸かし器3とともにカップ類属性の食器が写っていない場合には、湯沸かし器のアイコン662にタッチしても湯沸かし器3の動作入力画面(図8(A))への遷移は行われない。このとき、「カップを画面内に写して下さい」等のアラート表示を行い、カップ類属性の食器と湯沸かし器3の両方を写すようにユーザを促しても良い。   In the housework system of the present embodiment, the water heater 3 is registered as a home appliance that requires cups such as a cup 12 and a mug as an operation target (see FIG. 3), and an input standby screen (FIG. 6). Only when both the water heater 3 and an object (such as cup 12 or other cup-attribute tableware) that can be operated are shown in the live view image 605 of the home appliance operation input screen (FIG. 8A) ) May be permitted. In this case, when the tableware attributed with the water heater 3 is not reflected in the live view image 605 on the input standby screen (FIG. 6), the operation input screen of the water heater 3 is displayed even if the water heater icon 662 is touched. Transition to FIG. 8 (A)) is not performed. At this time, an alert display such as “Please copy the cup in the screen” or the like may be performed to prompt the user to copy both the cup attributed tableware and the water heater 3.

湯沸かし器3がカップ12を動作対象として湯を注ぐ動作を行う場合には、カップ12を湯沸かし器3の注ぎ口の真下まで移動させた上で湯沸かし器3を作動させるべきことは自明である。従って、ユーザが湯沸かし器3の注ぎ口の真下にカップ12を置いていない状態であっても、1画面内に湯沸かし器3とカップ12が写っていれば湯沸かし器3の家電機器動作入力画面(図8(A))に移行することを許容し、その状態で湯沸かし器3によってカップ12に湯を注ぐタスクが入力された場合には、そのタスクには、「カップ12を湯沸かし器3の注ぎ口の真下まで移動させる」という移動タスクが陰に含まれるよう
にしても良い。こうすれば、家電機器の動作を入力においてユーザが物体を手動で移動させながら画像を撮影する際の手間を軽減できる。
When the water heater 3 performs the operation of pouring hot water with the cup 12 as an operation target, it is obvious that the water heater 3 should be operated after the cup 12 has been moved to just below the spout of the water heater 3. Therefore, even if the user does not place the cup 12 directly below the spout of the water heater 3, if the water heater 3 and the cup 12 are shown in one screen, the home appliance operation input screen of the water heater 3 (FIG. 8 ( A)) is allowed, and when a task for pouring hot water into the cup 12 is input by the water heater 3 in that state, the task is “move the cup 12 to just below the pouring spout of the water heater 3. The moving task “Make” may be included behind the scenes. In this way, it is possible to reduce the trouble when the user takes an image while manually moving the object when inputting the operation of the home appliance.

<待機時間設定画面>
図9(A)は、待機時間設定画面のGUIの表示例である。待機時間設定画面のGUIには、単位ボタン901、数字ボタン902、表示部903、決定ボタン904及びやり直しボタン905が表示される。
<Standby time setting screen>
FIG. 9A is a GUI display example of the standby time setting screen. On the GUI of the standby time setting screen, a unit button 901, a numeric button 902, a display unit 903, an enter button 904, and a redo button 905 are displayed.

単位ボタン901及び数字ボタン902は、ユーザがタッチ操作により数値及び時間の単位を入力するためのGUIである。表示部903は、入力された時間を表示するためのGUIである。決定ボタン904は、現在表示部903に表示されている時間で待機時間を決定するためのGUIである。やり直しボタン905は、入力待機画面(図6)に戻るためのGUIである。   The unit button 901 and the number button 902 are GUIs for the user to input numerical values and time units by a touch operation. The display unit 903 is a GUI for displaying the input time. The determination button 904 is a GUI for determining the standby time based on the time currently displayed on the display unit 903. The redo button 905 is a GUI for returning to the input standby screen (FIG. 6).

待機時間の設定では、移動タスクや家電機器動作タスクを入力する場合のように画像を撮影する必要はない。   In the setting of the standby time, it is not necessary to take an image as in the case of inputting a movement task or a home appliance operation task.

<注釈付き画像>
待機時間が決定されると、待機時間を表す注釈付き画像が注釈付き画像生成部97により生成され、タッチパネルディスプレイ91に表示される。
<Annotated image>
When the standby time is determined, an annotated image representing the standby time is generated by the annotated image generation unit 97 and displayed on the touch panel display 91.

図9(B)は、待機時間を表す注釈付き画像の表示例である。待機時間の注釈付き画像には、テキスト907〜909、保存ボタン910及びやり直しボタン906が表示される。移動タスクの注釈付き画像や家電機器動作タスクの注釈付き画像と異なり、テキストのみで物体や家電機器の画像は含まない。   FIG. 9B is a display example of an annotated image representing the standby time. Text 907 to 909, a save button 910, and a redo button 906 are displayed on the annotated image of the waiting time. Unlike the annotated image of the moving task and the annotated image of the home appliance operation task, only the text is included and the image of the object or home appliance is not included.

保存ボタン910は、生成された注釈付き画像を保存するためのGUIである。ユーザが保存ボタン910にタッチすると、待機時間の設定が終了し、入力待機画面(図6)に戻る。   The save button 910 is a GUI for saving the generated annotated image. When the user touches the save button 910, the setting of the standby time is completed, and the screen returns to the input standby screen (FIG. 6).

やり直しボタン906は、待機時間設定画面(図9(A))に戻るためのGUIである。待機時間設定画面(図9(A))に戻り、待機時間の入力をやり直すことができる。   The redo button 906 is a GUI for returning to the standby time setting screen (FIG. 9A). Returning to the standby time setting screen (FIG. 9A), the standby time can be input again.

テキスト907は、待機時間設定の内容を表すテキストであり、待機時間設定画面(図9(A))におけるユーザの入力内容に基づいて注釈付き画像生成部97により自動生成される。図9(B)の表示例では、「時間」を意味するテキスト907,設定された待機時間の長さを表すテキスト908、「待つ」という意味のテキスト909を含む。テキストの表示態様が図9(B)の表示例に限らないことは移動タスクの注釈付き画像の場合と同様である。   Text 907 is a text representing the content of the standby time setting, and is automatically generated by the annotated image generation unit 97 based on the user input content on the standby time setting screen (FIG. 9A). The display example of FIG. 9B includes text 907 indicating “time”, text 908 indicating the length of the set standby time, and text 909 indicating “wait”. The display mode of the text is not limited to the display example of FIG. 9B, as in the case of the annotated image of the moving task.

<トリガー設定画面>
図10(A)は、トリガー設定画面のGUIの表示例である。トリガー設定画面のGUIには、トリガー物体の画像102、タスク実行条件リスト103、やり直しボタン104が表示される。
<Trigger setting screen>
FIG. 10A shows a GUI display example of the trigger setting screen. On the GUI of the trigger setting screen, a trigger object image 102, a task execution condition list 103, and a redo button 104 are displayed.

トリガー物体の画像102は、入力待機画面(図6)において選択されたトリガー物体が写っている静止画像である。トリガー物体の画像102は、入力待機画面(図6)においてユーザがトリガー物体のアイコンにタッチした時点でライブビュー画像605に表示されていた撮影画像から生成される。   The trigger object image 102 is a still image in which the trigger object selected on the input standby screen (FIG. 6) is shown. The trigger object image 102 is generated from the captured image displayed in the live view image 605 when the user touches the trigger object icon on the input standby screen (FIG. 6).

タスク実行条件リスト103は、タスクの実行条件(起動条件)として設定可能なトリガー物体の動作や状態等のリストである。ユーザがタスク実行条件リスト103にリストされた条件のいずれかにタッチして選択すると、その条件がタスク実行条件として設定される。   The task execution condition list 103 is a list of actions and states of trigger objects that can be set as task execution conditions (startup conditions). When the user touches and selects one of the conditions listed in the task execution condition list 103, the condition is set as the task execution condition.

やり直しボタン104は、入力待機画面(図6)に戻るためのGUIである。   The redo button 104 is a GUI for returning to the input standby screen (FIG. 6).

図10(A)の表示例は、入力待機画面(図6)のライブビュー画像605に目覚まし時計7が写っている状態でユーザが目覚まし時計7のアイコンにタッチした場合のトリガー物体設定画面の表示例であり、トリガー物体の画像102にはトリガー物体である目覚まし時計7及びトリガー物体のアイコン111が表示されている。タスク実行条件リスト103には、タスクの実行条件として設定可能な目覚まし時計の動作や状態として「時刻」「鳴動」がリストされている。ユーザが「時刻」にタッチすると、タスクを実行する時刻を設定するための画面が表示され、目覚まし時計7の指している時刻が設定時刻になった場合にタスクが実行されるようにトリガー設定をすることができる。ユーザが「鳴動」にタッチすると、目覚まし時計7が鳴動した場合にタスクが実行されるようにトリガー設定をすることができる。   The display example of FIG. 10A is a table of the trigger object setting screen when the user touches the icon of the alarm clock 7 while the alarm clock 7 is reflected in the live view image 605 of the input standby screen (FIG. 6). In this example, an alarm clock 7 that is a trigger object and an icon 111 of the trigger object are displayed in the trigger object image 102. The task execution condition list 103 lists “time” and “ringing” as alarm clock operations and states that can be set as task execution conditions. When the user touches “Time”, a screen for setting the time to execute the task is displayed, and the trigger setting is set so that the task is executed when the time pointed by the alarm clock 7 reaches the set time. can do. When the user touches “ring”, the trigger can be set so that the task is executed when the alarm clock 7 rings.

トリガー設定画面(図10(A))のタスク実行条件リスト103のいずれかにタッチしてタスク実行条件が確定すると、トリガー設定が完了する。   When one of the task execution condition lists 103 on the trigger setting screen (FIG. 10A) is touched to determine the task execution conditions, the trigger setting is completed.

<注釈付き画像>
トリガー設定が完了すると、トリガー設定の内容を表す注釈付き画像が注釈付き画像生成部97により生成され、タッチパネルディスプレイ91に表示される。
<Annotated image>
When the trigger setting is completed, an annotated image representing the contents of the trigger setting is generated by the annotated image generation unit 97 and displayed on the touch panel display 91.

図10(B)は、トリガー設定を表す注釈付き画像の表示例である。トリガー設定の注釈付き画像には、トリガー物体の画像105、テキスト108〜110、保存ボタン106、やり直しボタン107が表示される。   FIG. 10B is a display example of an annotated image representing the trigger setting. In the annotated image of the trigger setting, a trigger object image 105, texts 108 to 110, a save button 106, and a redo button 107 are displayed.

トリガー物体の画像105は、トリガー設定に係るトリガー物体が写っている静止画像であり、トリガー設定画面(図10(A))に表示されていたトリガー物体の画像102から生成される。   The trigger object image 105 is a still image in which the trigger object related to the trigger setting is captured, and is generated from the trigger object image 102 displayed on the trigger setting screen (FIG. 10A).

テキスト108〜110は、トリガー設定の内容を表すテキストであり、トリガー設定画面(図10(A))におけるユーザの入力内容に基づいて注釈付き画像生成部97により自動生成される。トリガー設定の注釈付き画像のために生成されるテキストは、トリガー物体の名称を表すテキスト108、タスク実行条件を表すテキスト109、実行されるタスクの内容を表すテキスト110を含む。   Texts 108 to 110 are texts representing the contents of the trigger setting, and are automatically generated by the annotated image generation unit 97 based on the user input contents on the trigger setting screen (FIG. 10A). The text generated for the annotated image of the trigger setting includes text 108 representing the name of the trigger object, text 109 representing the task execution condition, and text 110 representing the content of the task to be executed.

保存ボタン106は、生成された注釈付き画像を保存するためのGUIである。ユーザが保存ボタン106にタッチすると、トリガー設定が終了し、入力待機画面(図6)に戻る。   The save button 106 is a GUI for saving the generated annotated image. When the user touches the save button 106, the trigger setting ends and the screen returns to the input standby screen (FIG. 6).

やり直しボタン107は、トリガー設定画面(図10(A))に戻るためのGUIである。トリガー設定画面(図10(A))に戻り、タスク実行条件リスト103からのタスク実行条件の指定をやり直すことができる。   The redo button 107 is a GUI for returning to the trigger setting screen (FIG. 10A). Returning to the trigger setting screen (FIG. 10A), the task execution conditions can be specified again from the task execution condition list 103.

図10(B)の表示例は、目覚まし時計7の「鳴動」を「コーヒー入れタスク」の実行条件とするトリガー設定を表す注釈付き画像であり、トリガー物体の画像105には目覚まし時計7が写っており、「目覚まし時計が鳴ったらコーヒーを入れる」という意味のテ
キスト108〜110が表示されている。テキストの表示態様が図10(B)の表示例に限らないことは移動タスクの注釈付き画像の場合と同様である。
The display example of FIG. 10B is an annotated image representing a trigger setting in which “ringing” of the alarm clock 7 is an execution condition of the “coffee making task”, and the alarm clock 7 is shown in the image 105 of the trigger object. The texts 108 to 110 meaning “add coffee when the alarm clock rings” are displayed. The display mode of the text is not limited to the display example of FIG.

<タスク内容確認モード>
図11は、タスク内容確認モードにおいて、既存のタスクの内容を表示するタスク内容表示画面のGUIの表示例である。タスク内容表示画面のGUIには、サムネイル画像601及び602、ライブビューボタン603、注釈付き画像606、削除ボタン607、編集ボタン608が表示される。
<Task content confirmation mode>
FIG. 11 is a GUI display example of a task content display screen for displaying the content of an existing task in the task content confirmation mode. In the GUI of the task content display screen, thumbnail images 601 and 602, a live view button 603, an annotated image 606, a delete button 607, and an edit button 608 are displayed.

サムネイル画像601及び602は、それぞれサムネイル画像に対応する既存のタスクの内容を表示するタスク内容表示画面に遷移するためのGUIである。なお、既存のタスクが存在しない場合には、サムネイル画像は表示されない。図11の表示例は、サムネイル画像602に対応するタスクの内容を表示している状態を示す。この状態でユーザがサムネイル画像601にタッチすると、サムネイル画像601に対応するタスクの内容が表示される。   Thumbnail images 601 and 602 are GUIs for transitioning to a task content display screen that displays the contents of existing tasks corresponding to the thumbnail images. If there is no existing task, the thumbnail image is not displayed. The display example of FIG. 11 shows a state in which the contents of a task corresponding to the thumbnail image 602 are displayed. When the user touches the thumbnail image 601 in this state, the contents of the task corresponding to the thumbnail image 601 are displayed.

ライブビューボタン603は、タスク作成モードの入力待機画面(図6)に移行するためのGUIである。   The live view button 603 is a GUI for shifting to an input standby screen (FIG. 6) in the task creation mode.

注釈付き画像606は、内容表示中のタスクに対応する注釈付き画像である。図11の表示例では、移動タスクの注釈付き画像が表示されている。   The annotated image 606 is an annotated image corresponding to the task whose contents are being displayed. In the display example of FIG. 11, an annotated image of the moving task is displayed.

削除ボタン607は、内容表示中のタスクを削除するためのGUIである。   The delete button 607 is a GUI for deleting a task whose contents are being displayed.

編集ボタン608は、内容表示中のタスクの編集を行うためのGUIである。編集ボタン608にタッチすると、例えば、タスク作成モードの注釈付き画像の表示画面(図7(C)、図8(C)、図9(B)、図10(B))においてやり直しボタンにタッチした場合に表示される画面と同様のGUIが表示され、タスクの内容を変更することができる。   An edit button 608 is a GUI for editing a task whose contents are being displayed. When the edit button 608 is touched, for example, the redo button is touched on the annotated image display screen in the task creation mode (FIG. 7C, FIG. 8C, FIG. 9B, and FIG. 10B). A GUI similar to the screen displayed in this case is displayed, and the contents of the task can be changed.

<フローチャート>
図12は、入力装置9によってユーザがタスクの内容を入力するプロセスを表したフローチャートである。ユーザは、入力待機画面(図6)からタスク入力を開始する(ステップS10)。ユーザは、これから入力するタスクに係る物体が入力待機画面のライブビュー画像に写るように、入力装置9のカメラ92で撮影を行う(ステップS20)。
<Flowchart>
FIG. 12 is a flowchart showing a process in which a user inputs the contents of a task using the input device 9. The user starts task input from the input standby screen (FIG. 6) (step S10). The user takes a picture with the camera 92 of the input device 9 so that the object related to the task to be input is reflected in the live view image on the input standby screen (step S20).

ユーザは、ライブビュー画像に写っている物体のアイコンにタッチすることにより、これから入力するタスクに係る物体を選択する(ステップS30)。タッチパネルディスプレイ91には、ユーザにより選択された物体の種類に応じたタスク入力画面(図7〜図10のいずれか)が表示される(ステップS40)。ユーザは、タスク入力画面のGUIに対してタスク内容を入力する操作を行う(ステップS50)。   The user selects an object related to a task to be input by touching the icon of the object shown in the live view image (step S30). On the touch panel display 91, a task input screen (any one of FIGS. 7 to 10) corresponding to the type of the object selected by the user is displayed (step S40). The user performs an operation of inputting task contents on the GUI of the task input screen (step S50).

ユーザによるタスク入力が完了すると、入力されたタスク内容に基づいて注釈付き画像が生成され、タッチパネルディスプレイ91に表示される(ステップS60)。以上のプロセスにより、1つのタスクを入力することができる。ユーザは、以上のプロセスを繰り返すことにより、連続的に複数のタスクを入力することができる。   When the task input by the user is completed, an annotated image is generated based on the input task content and displayed on the touch panel display 91 (step S60). One task can be input by the above process. The user can input a plurality of tasks continuously by repeating the above process.

複数の連続するタスクからなるシーケンシャルタスクを入力する場合は、シーケンシャルタスクを構成する全てのタスクについて以上のプロセスを繰り返す(ステップS70)。シーケンシャルタスクを構成する全てのタスクの入力が完了すると、シーケンシャルタスクの内容を表す注釈付き画像が作成され、表示される(ステップS80)。シーケンシ
ャルタスクの注釈付き画像は、シーケンシャルタスクを構成する個々のタスクの注釈付き画像をタスクの実行手順に沿って並べた画像である。
When inputting a sequential task composed of a plurality of continuous tasks, the above process is repeated for all the tasks constituting the sequential task (step S70). When the input of all the tasks constituting the sequential task is completed, an annotated image representing the contents of the sequential task is created and displayed (step S80). An annotated image of a sequential task is an image in which annotated images of individual tasks constituting the sequential task are arranged along the task execution procedure.

以上説明したプロセスによってユーザにタスク内容の入力を行わせる処理は、タスク入力部99によって制御されている。タスク入力部99は、ユーザに、タスクに関係する物体を含む画像をカメラ92により撮影させるステップ(ステップS10及びステップS20)と、ユーザに、撮影された画像において物体認識部94が認識した物体のうちタスクに関係する物体や家電機器の画像をタッチ操作により選択させるステップ(ステップS30)と、ユーザに、選択した物体に対するロボット2や家電機器の動作、又は、選択した家電機器の動作をGUI制御部96が出力するGUIを介して入力させるステップ(ステップS40及びステップS50)と、を含むタスク入力手続を行わせることにより、タスクの内容を入力させる。タスク入力部99は、ユーザが一のタスクの内容を入力するタスク入力手続を完了すると、次のタスクのタスク入力手続を待機する状態となる。   The process for allowing the user to input task contents by the process described above is controlled by the task input unit 99. The task input unit 99 causes the user to capture an image including an object related to the task with the camera 92 (step S10 and step S20), and causes the user to recognize the object recognized by the object recognition unit 94 in the captured image. Of these, a step (step S30) of selecting an object related to the task or an image of the home appliance by a touch operation, and the user controls the operation of the robot 2 or the home appliance with respect to the selected object or the operation of the selected home appliance. The content of the task is input by causing a task input procedure including steps (step S40 and step S50) to be input via the GUI output by the unit 96 to be performed. When the user completes the task input procedure for inputting the contents of one task, the task input unit 99 waits for the task input procedure for the next task.

<注釈文の生成>
ここで、注釈付き画像生成部97が注釈付き画像のために生成するテキストについて説明する。
<Generation of comment text>
Here, the text generated for the annotated image by the annotated image generation unit 97 will be described.

注釈付き画像生成部97は、上述したように、タスク入力画面(図7〜図10)においてユーザが入力したタスク内容に基づいて、タスク内容を表すテキストを自動生成する。注釈付き画像はテキストと画像とを合わせてタスク内容を表現するものであり、ユーザは、画像から、タスク対象の個別具体的な物体や家電機器について多くの情報を得ることができる。従って、テキストは必要最低限の情報を表現できれば十分であり、図7〜図10に例示した注釈付き画像に含まれるテキストは簡潔な規則に従って自動生成されている。   As described above, the annotated image generation unit 97 automatically generates text representing the task content based on the task content input by the user on the task input screen (FIGS. 7 to 10). An annotated image represents a task content by combining a text and an image, and the user can obtain a lot of information about an individual specific object or home appliance as a task target from the image. Therefore, it is sufficient that the text can express the minimum necessary information, and the text included in the annotated image illustrated in FIGS. 7 to 10 is automatically generated according to a simple rule.

注釈付き画像に含まれるテキストは、画像に基づいて生成される。画像に写っている物体や家電機器の名称を表す名詞を主語又は目的語、タスク内容を表す動詞を述語として、文を生成する。タスクの内容を表す動詞は、移動タスクであれば「移動する」であり、家電機器動作タスクであれば動作リストからユーザが選択した動作に対応する動詞である。家電機器が動作対象を必要とする場合は、タスクの内容を表す動詞は他動詞となり、動作対象となる物体や家電機器の名称を表す名詞がその目的語となる。家電機器が動作対象を必要としない場合は、タスクの内容を表す動詞は自動詞となる。家電機器の動作がパラメータを設定可能なものである場合、タスクの内容を表す動詞はパラメータを伴う。   Text included in the annotated image is generated based on the image. A sentence is generated with a noun representing the name of an object or home appliance in the image as a subject or object and a verb representing a task content as a predicate. The verb representing the content of the task is “move” if it is a movement task, and is a verb corresponding to the action selected by the user from the action list if it is a home appliance operation task. When the home appliance requires an operation target, the verb representing the content of the task is a transitive verb, and the noun representing the name of the object to be operated or the home appliance is the object. When the home appliance does not require an operation target, the verb representing the content of the task is an intransitive verb. When the operation of the home appliance can set a parameter, the verb representing the task content is accompanied by the parameter.

注釈付き画像に含まれるテキストは、例えば、次のような文脈自由文法によって記述される。
(1)S*=>S|SS*
(2)S=> subject V object
(3)S=> subject V
(4a)V=> action
(4b)V=> action parameter
The text included in the annotated image is described by, for example, the following context-free grammar.
(1) S * => S | SS *
(2) S => subject V object
(3) S => subject V
(4a) V => action
(4b) V => action parameter

移動可能物体は(2)に従う。「subject」は移動可能物体、「object」は移動先の物
体又は場所、「action」は「(移動先に)移動する」「(最終的な状態に)移動する」である。例えば、「s:カップ、v:移動する、o:テーブル」(sはsubject、vはaction、oはobject)というテキストは、ロボットにカップをテーブルまで移動させる指示を
表現する。
A movable object follows (2). “Subject” is a movable object, “object” is a destination object or location, and “action” is “(move to destination)” “move (to final state)”. For example, the text “s: cup, v: move, o: table” (s is subject, v is action, o is object) expresses an instruction for the robot to move the cup to the table.

家電機器は(2)又は(3)に従う。他の物体の状態に影響を与える家電機器、すなわち動作対象を必要とする家電機器は、(2)に従う。例えば、「s:湯沸かし器、v:注
ぐ、o:カップ」というテキストは、湯沸かし器にカップの状態を変化させる指示を表現する。他の物体の状態を変化させない家電機器、すなわち動作対象を必要としない家電機器は、(3)に従う。たとえば、「s:ランプ、v:点灯する」というテキストは、ランプに点灯させる指示を表現する。
Home appliances comply with (2) or (3). Home appliances that affect the state of other objects, that is, home appliances that require an operation target, comply with (2). For example, the text “s: kettle, v: pour, o: cup” represents an instruction to the kettle to change the state of the cup. A household electrical appliance that does not change the state of another object, that is, a household electrical appliance that does not require an operation target, conforms to (3). For example, the text “s: lamp, v: lit” expresses an instruction to turn on the lamp.

トリガー物体は(3)に従う。例えば、「s:押しボタン、v:待つ、p:押される」(pはparameter)というテキストは、押しボタンが押されたらタスクを実行させるとい
うトリガー指示を表現する。トリガー設定の一種である待機時間設定も(3)に従う。例えば、「s:時間、v:待つ、p:5秒間」というテキストは、次のタスクの実行まで5秒間待機させる指示を表現する。上述したように、待機時間設定では画像を撮影する必要はない。従って、この場合の「時間」という主語は、画像に基づいて決定されるのではなく、入力待機画面(図6)において待機時間設定ボタン604がタッチされた場合に使用される。
The trigger object follows (3). For example, the text “s: push button, v: wait, p: pressed” (p is parameter) represents a trigger instruction to execute a task when the push button is pressed. The standby time setting which is a kind of trigger setting also follows (3). For example, the text “s: time, v: wait, p: 5 seconds” represents an instruction to wait for 5 seconds until the next task is executed. As described above, it is not necessary to take an image in the standby time setting. Accordingly, the subject “time” in this case is not determined based on the image, but is used when the standby time setting button 604 is touched on the input standby screen (FIG. 6).

テキストが複数の主語を有する場合、一つの主語を有する複数のテキストに分解されてロボットへの指示に変換される。例えば、「s:A,B,C、v:移動する、o:テーブル」というテキストは、「s:A、v:移動する、o:テーブル」「s:B、v:移動する、o:テーブル」「s:C、v:移動する、o:テーブル」という3つのテキストに分解され、ロボットに、物体Aをテーブルまで移動させるタスクと、物体Bをテーブルまで移動させるタスクと、物体Cをテーブルまで移動させるタスクと、の3つのタスクを指示する表現となる。   When the text has a plurality of subjects, the text is decomposed into a plurality of texts having one subject and converted into instructions to the robot. For example, the text “s: A, B, C, v: move, o: table” is “s: A, v: move, o: table” “s: B, v: move, o: Table ”“ s: C, v: move, o: table ”is decomposed into three texts, and the task of causing the robot to move the object A to the table, the task of moving the object B to the table, and the object C This is an expression that designates three tasks: a task to be moved to the table.

タスク入力画面では、ユーザは、正しい構文のテキストを生成可能な注釈付き画像を作成するよう強制される。すなわち、ロボットや家電機器への指示に必要な全ての要素が画像内に写っているように注釈付き画像を作成する必要がある。例えば、移動タスクの注釈付き画像であれば、出発地点の画像及び移動先の画像の両方に移動対象物体が写っている必要がある。動作対象を必要とする家電機器の動作タスクの注釈付き画像であれば、家電機器及び動作対象物体の両方が写っている必要がある。このような条件が満たされない場合は、上述したように禁止アイコンやアラートによってユーザに修正を促し、適切な構文のテキストが生成されるようにしている。   On the task input screen, the user is forced to create an annotated image that can generate text with the correct syntax. In other words, it is necessary to create an annotated image so that all elements necessary for giving instructions to the robot and home appliance are reflected in the image. For example, in the case of an annotated image of a moving task, the object to be moved needs to be reflected in both the starting point image and the moving destination image. In the case of an annotated image of an operation task of a home appliance that requires an operation target, both the home appliance and the operation target object need to be shown. When such a condition is not satisfied, as described above, the user is prompted to make a correction by using a prohibition icon or an alert, and a text having an appropriate syntax is generated.

タスク入力画面では、ユーザは、意味のあるテキストを生成可能な注釈付き画像を作成するよう強制される。すなわち、ロボットや家電機器への指示が意味的に適切な指示となるように注釈付き画像を作成する必要がある。例えば、湯沸かし器の動作タスクであれば、動作対象としてカップは適切だが皿やスプーンは適切でない。従って、湯沸かし器の動作タスクを表すテキストの目的語に皿やスプーンが現れることを禁止するように、タスク入力画面において禁止アイコンやアラートによる警告が行われるようにしている。適切な動作対象や不適切な動作対象の情報は、家電機器や家事システムのデータベースに登録される。   On the task input screen, the user is forced to create an annotated image that can generate meaningful text. In other words, it is necessary to create an annotated image so that instructions to the robot and home appliances are semantically appropriate instructions. For example, in the operation task of a water heater, a cup is appropriate as an operation target, but a dish and a spoon are not appropriate. Therefore, a warning by a prohibition icon or alert is performed on the task input screen so as to prohibit the appearance of a dish or spoon in the object of the text representing the operation task of the water heater. Information on appropriate operation targets and inappropriate operation targets is registered in the home appliance and housework system databases.

このように、本実施例の家事システムでは、タスク入力部99が簡易的に構文チェック及び意味チェックを行うことで、ロボットや家電機器への適切な指示を行うことができるようになっている。   As described above, in the housework system of the present embodiment, the task input unit 99 can perform a syntax check and a semantic check in a simple manner, so that appropriate instructions can be given to the robot and the home appliance.

<コーヒー入れタスクの例>
家事は、物を移動させるタスクと家電機器を作動させるタスクとの2種類のタスクが複数連続するシーケンシャルタスクとして捉えることができる。例えば、「コーヒーを入れる」という家事は、図13に示すように、(1)カップ12をコーヒーパウダーディスペンサー4まで移動させる、(2)コーヒーパウダーディスペンサー4を作動させて所望の量のコーヒーパウダーをカップ12に投入する、(3)カップ12をコーヒーパウダーデ
ィスペンサー4から湯沸かし器3まで移動させる、(4)次に湯沸かし器3を作動させて所望の量の湯をカップ12に注ぐ、(5)3分間待機する(入れたては熱いため)、(6)カップ12を湯沸かし器3からテーブル8まで移動させる、という複数の移動タスク及び家電機器作動タスクのシーケンスに分解することができる。
<Example of coffee making task>
Housework can be understood as a sequential task in which a plurality of two types of tasks, a task for moving an object and a task for operating a home appliance, are continued. For example, as shown in FIG. 13, the housework of “adding coffee” includes (1) moving the cup 12 to the coffee powder dispenser 4 and (2) operating the coffee powder dispenser 4 to supply a desired amount of coffee powder. (3) Move the cup 12 from the coffee powder dispenser 4 to the water heater 3, (4) Next, operate the water heater 3 to pour a desired amount of hot water into the cup 12, (5) 3 minutes When waiting (because it is hot), (6) the cup 12 can be moved from the water heater 3 to the table 8 and can be broken down into a sequence of movement tasks and household appliance operation tasks.

本実施例の家事システムの入力装置9によれば、ユーザは、図12のフローチャートに従って、このような複数の連続的なタスクからなるシーケンシャルタスクを簡単に指示することができる。複数のタスクを入力した場合には、タスク入力手続が行われた順番で、入力されたタスクを順次ロボット又は家電機器に実行させるようコンピュータ10が制御命令を送信するようにする。そして、個々のタスクの指示においては、ユーザは、ユーザの環境にある個別具体的な実際のタスク対象物体の画像を撮影しながら、画像をポインティング操作により指定するという直感的な操作によって、タスクの内容を入力していくことができる。従って、ユーザ環境に固有の対象物体や家電機器の情報を曖昧さ無くタスクの内容に反映させることができる。更に、入力したタスクの内容は、撮影した画像とテキストとを組み合わせた注釈付き画像としてまとめられ、後から容易に確認することができる。図14は、図13の「コーヒーを入れるタスク」を構成する6つのタスクを入力して得られる注釈付き画像である。図14に示すように、シーケンシャルタスクを表す注釈付き画像は、複数の注釈付き画像の列である。図14(A)〜(F)は、図13に示すコーヒー入れタスクを構成する個々のタスク(1)〜(6)に対応している。   According to the input device 9 of the housework system of this embodiment, the user can easily instruct a sequential task composed of a plurality of such continuous tasks according to the flowchart of FIG. When a plurality of tasks are input, the computer 10 transmits a control command so that the robot or home appliance sequentially executes the input tasks in the order in which the task input procedures are performed. In each task instruction, the user performs an intuitive operation of specifying an image by pointing operation while capturing an image of an individual actual task target object in the user environment. You can enter the contents. Therefore, it is possible to reflect the information about the target object and the home appliance unique to the user environment in the content of the task without ambiguity. Furthermore, the contents of the input task are collected as an annotated image combining the photographed image and the text, and can be easily confirmed later. FIG. 14 is an annotated image obtained by inputting the six tasks constituting the “coffee making task” in FIG. As shown in FIG. 14, an annotated image representing a sequential task is a sequence of a plurality of annotated images. 14A to 14F correspond to individual tasks (1) to (6) constituting the coffee making task shown in FIG.

図14に示す注釈付き画像は、抽象的なプログラミング言語によって構築されたタスクとは異なり、実際のタスク対象が写っている画像とタスク内容を表すテキストとを含むので、ユーザは、タスクの内容を直感的に把握することができる。従って、例えば湯沸かし器を買い換えたり、コーヒーの味の好みが変わったりした場合に、それに合わせてコーヒー入れタスクを修正するために、どのタスクをどのように修正すればよいか容易に判断することができる。そして、タスクを編集する場合にも、カメラ92によって撮影される実際の画像を見ながら直感的にタスクの内容を編集することができる。   The annotated image shown in FIG. 14 is different from a task constructed by an abstract programming language, and includes an image showing an actual task object and text representing the task content. It can be grasped intuitively. Therefore, for example, when a water heater is replaced or a taste of coffee changes, it is possible to easily determine which task should be corrected in order to correct the coffee filling task accordingly. . When editing a task, it is possible to intuitively edit the contents of the task while viewing an actual image taken by the camera 92.

その他の家事、例えば料理は、食材をカウンターからフードプロセッサに移動させる、次にフードプロセッサで食材を処理する、次に食材をフードプロセッサから電子レンジへ移動させる、次に電子レンジで食材を加熱する、というように移動タスクと家電機器作動タスクのシーケンスに分解することができる。洗濯、部屋の片付け、物の組み立て等、様々な家事をこのような移動と家電機器の作動の組み合わせに分解することができる。そして、移動タスクと家電機器動作タスクに分解できる家事タスクであれば、本実施例の入力装置9によって実際のタスク対象の物体や家電機器を撮影しながら直感的にタスク内容を入力することができ、注釈付き画像を生成することができる。   Other household chores, such as cooking, move food from the counter to the food processor, then process the food in the food processor, then move the food from the food processor to the microwave, and then heat the food in the microwave , And so on, can be broken down into a sequence of movement tasks and household appliance operation tasks. Various housework such as washing, cleaning up rooms, assembling things, etc. can be broken down into such a combination of movement and operation of home appliances. And if it is a housework task which can be decomposed into a movement task and a home appliance operation task, the task contents can be input intuitively while photographing an actual task target object or home appliance with the input device 9 of this embodiment. An annotated image can be generated.

本実施例の家事システムでは、移動タスクは、移動対象物体と、出発地点の物体又は場所と、移動先の物体又は場所と、を特定することによって指示する。出発地点及び移動先の「場所」とは、「場所」属性の物体という意味であり、座標ではない。つまり、本実施例では、移動タスクは物体と物体との関係として規定される。このことから、移動タスク作成時と異なる位置に移動対象物体や移動先の物体が置かれている状態でも、天井カメラ1の画像によりコンピュータ10が各物体の位置を検出可能であれば、移動タスクは正しく実行される。   In the housework system of the present embodiment, the movement task is instructed by specifying the object to be moved, the object or location of the departure point, and the object or location of the movement destination. The “location” of the departure point and the movement destination means an object having a “location” attribute, not a coordinate. That is, in this embodiment, the moving task is defined as a relationship between objects. From this, even if the object to be moved and the object to be moved are placed at different positions from when the moving task is created, if the computer 10 can detect the position of each object from the image of the ceiling camera 1, the moving task Is executed correctly.

9 入力装置
92 撮影装置
94 物体認識部
91 タッチパネルディスプレイ
97 注釈付き画像生成部
99 タスク入力部
101 制御部
9 Input device 92 Imaging device 94 Object recognition unit 91 Touch panel display 97 Annotated image generation unit 99 Task input unit 101 Control unit

Claims (11)

ロボット及び家電機器にタスクを指示するタスク指示システムであって、
撮影部と、
撮影部によって撮影された画像を表示する表示部と、
表示部に表示された画像に写っている物体を認識する認識部と、
一のタスクの内容をユーザに入力させるタスク入力部であって、
タスクに関係する物体を含む画像を撮影部により撮影させるステップと、
撮影された画像において認識部が認識した物体のうちタスクに関係する物体又は家電機器の画像を選択させるステップと、
該選択した物体に対するロボット若しくは家電機器の動作又は該選択した家電機器の動作を入力させるステップと、
を含むタスク入力手続をユーザに行わせて一のタスクの内容を入力させるとともに、一のタスクのタスク入力手続が完了すると次のタスクのタスク入力手続を待機する状態となるタスク入力部と、
タスク入力部において入力されたタスクの内容を表すテキストを生成し、生成したテキストと、タスク入力手続においてユーザが選択した物体又は家電機器が写っている画像と、を含む画像である注釈付き画像を入力されたタスクに関連付けて生成する注釈付き画像生成部と、
注釈付き画像に関連付けられたタスクをロボット又は家電機器に実行させるための制御命令を生成しロボット又は家電機器に送出する制御部と、
を有するタスク指示システム。
A task instruction system for instructing a task to a robot and home appliances,
A shooting section;
A display unit for displaying an image captured by the imaging unit;
A recognition unit for recognizing an object reflected in an image displayed on the display unit;
A task input unit that allows a user to input the contents of one task,
A step of photographing an image including an object related to a task by a photographing unit;
A step of selecting an object related to a task among objects recognized by a recognition unit in a captured image or an image of a home appliance;
A step of inputting an operation of the robot or household electrical appliance with respect to the selected object or an operation of the selected household electrical appliance;
A task input procedure that includes a task input procedure that causes the user to enter the contents of one task, and when the task input procedure for one task is completed, the task input unit enters a state waiting for the task input procedure for the next task;
An annotated image that is an image including the text representing the content of the task input in the task input unit and the generated text and an image showing the object or home appliance selected by the user in the task input procedure An annotated image generator that is generated in association with the input task;
A control unit that generates a control command for causing the robot or the home appliance to execute the task associated with the annotated image, and sends the control command to the robot or the home appliance;
A task instruction system.
請求項1において、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した物体又は家電機器の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて、所定の規則に従って注釈付き画像のためのテキストを生成するタスク指示システム。
In claim 1,
The annotated image generation unit uses the text representing the name of the object or home appliance selected by the user in the task input procedure and the text representing the operation input by the user, for the annotated image according to a predetermined rule. A task instruction system that generates text.
請求項1において、タスク入力部において複数のタスクのタスク入力手続が行われた場合、制御部は、該複数のタスクをタスク入力部においてタスク入力手続が行われた順番で順次ロボット又は家電機器に実行させるように制御命令の生成及び送出を行うタスク指示システム。   In Claim 1, when the task input procedure of a plurality of tasks is performed in the task input unit, the control unit sequentially transfers the plurality of tasks to the robot or the home appliance in the order in which the task input procedure is performed in the task input unit. A task instruction system for generating and sending control instructions to be executed. 請求項1において、
表示部は、表示される画像の選択をユーザがタッチ方式のポインティング操作によって行うことができるタッチパネルディスプレイを有するタスク指示システム。
In claim 1,
The display unit is a task instruction system having a touch panel display that allows a user to select an image to be displayed by a touch-type pointing operation.
請求項1において、
撮影部と、表示部と、認識部と、タスク入力部と、注釈付き画像生成部と、を有するタスク入力装置と、
制御部を有し、タスク入力装置、ロボット及び家電機器と通信可能に構成された制御装置と、
を有するタスク指示システム。
In claim 1,
A task input device having a photographing unit, a display unit, a recognition unit, a task input unit, and an annotated image generation unit;
A control unit having a control unit and configured to be communicable with a task input device, a robot, and a home appliance;
A task instruction system.
請求項1において、
タスク入力部は、動作対象を必要としない家電機器に実行させるタスクのタスク入力手続において、
タスクを実行させる家電機器を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した物体のうち動作を指示する家電機器の画像をユーザに選択させるステップと、
選択した家電機器に実行させる動作を入力させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した家電機器の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて注釈付き画像のためのテキストを生成するタスク指示システム。
In claim 1,
The task input unit is a task input procedure for a task to be executed by a home appliance that does not require an operation target.
Capturing an image including a home appliance that performs the task;
A step of causing a user to select an image of a household electrical appliance that instructs an operation among objects recognized by a recognition unit in a captured image;
Inputting an operation to be executed by the selected home appliance;
To the user,
The annotated image generation unit generates a text for an annotated image using text representing the name of the home appliance selected by the user in the task input procedure and text representing the operation input by the user .
請求項1において、
タスク入力部は、動作対象を必要とする家電機器に実行させるタスクのタスク入力手続において、
タスクを実行させる家電機器及びその家電機器の動作対象となり得る物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した物体のうち動作を指示する家電機器及びその家電機器の動作対象となる物体の画像をユーザに選択させるステップと、
選択した家電機器に実行させる動作を入力させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した家電機器の名称を表すテキストと、その家電機器の動作対象となる物体の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて注釈付き画像のためのテキストを生成するタスク指示システム。
In claim 1,
The task input unit is a task input procedure for a task to be executed by a home appliance that requires an operation target.
A step of photographing an image including an electric appliance that executes a task and an object that can be an operation target of the electric appliance;
A step of causing a user to select an image of a home appliance that instructs the operation among objects recognized by the recognition unit in the captured image, and an object that is an operation target of the home appliance,
Inputting an operation to be executed by the selected home appliance;
To the user,
The annotated image generation unit includes a text representing the name of the home appliance selected by the user in the task input procedure, a text representing the name of the object to be operated by the home appliance, a text representing the operation input by the user, A task instruction system that generates text for annotated images using.
請求項1において、
タスク入力部は、ロボットに実行させる物体の移動タスクのタスク入力手続において、
移動対象の物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した移動可能な物体のうちロボットに移動させる物体の画像を選択させるステップと、
移動対象の物体及び移動先の物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した移動先として指定可能な物体のうちロボットによる移動先の物体の画像を選択させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した移動対象の物体の名称を表すテキストと、移動先の物体の名称を表すテキストと、「移動する」という意味のテキストと、を用いて注釈付き画像のためのテキストを生成するタスク指示システム。
In claim 1,
The task input unit is a task input procedure for an object moving task to be executed by the robot.
Capturing an image including an object to be moved;
A step of selecting an image of an object to be moved by the robot among movable objects recognized by the recognition unit in the captured image;
Photographing an image including an object to be moved and an object to be moved; and
A step of selecting an image of an object to be moved by the robot among objects that can be specified as a movement destination recognized by the recognition unit in the captured image;
To the user,
The annotated image generation unit uses the text representing the name of the object to be moved selected by the user in the task input procedure, the text representing the name of the object to be moved, and the text meaning “move” A task instruction system that generates text for annotated images.
請求項1において、
タスク入力部は、ロボット又は家電機器に所定のタスクの実行を開始させるトリガーをユーザに設定させるために、
トリガーとなる物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識したトリガーとして設定可能な物体のうちトリガーに設定する物体の画像を選択させるステップと、
ロボット又は家電機器に所定のタスクの実行を開始させるために選択した物体に関して成立すべき条件を入力させるステップと、
を含むトリガー設定手続をユーザに行わせることができ、
注釈付き画像生成部は、トリガー設定手続においてユーザが選択した物体の名称を表すテキストと、ユーザが入力した条件の成立を意味するテキストと、「待つ」という意味のテキストと、を用い注釈付き画像のためのテキストを生成し、生成したテキストと、トリガー設定手続においてユーザが選択した物体が写っている画像と、を含む画像を注釈付き画像としてトリガー設定に関連付けて生成し、
制御部は、注釈付き画像に関連付けられたトリガー設定に従ってロボット又は家電機器を制御するための制御命令を生成しロボット又は家電機器に送出するタスク指示システム。
In claim 1,
The task input unit allows the user to set a trigger that causes the robot or home appliance to start executing a predetermined task.
Photographing an image including an object as a trigger;
Selecting an image of an object to be set as a trigger among objects that can be set as a trigger recognized by the recognition unit in the captured image;
Inputting a condition to be satisfied with respect to an object selected for starting execution of a predetermined task by a robot or a home appliance; and
Allows the user to perform a trigger setting procedure that includes
The annotated image generation unit uses an annotated image using text representing the name of the object selected by the user in the trigger setting procedure, text meaning the satisfaction of the condition input by the user, and text meaning “wait”. Generate text for, and generate an image including the generated text and an image of the object selected by the user in the trigger setting procedure as an annotated image associated with the trigger setting,
The control unit is a task instruction system that generates a control command for controlling the robot or the home appliance according to the trigger setting associated with the annotated image and sends the control command to the robot or the home appliance.
請求項1において、
タスク入力部は、ロボット又は家電機器にタスクの実行を待機させる時間をユーザに設定させるために、
待機時間を入力させるステップ
を含む待機時間設定手続をユーザに行わせることができ、
注釈付き画像生成部は、待機時間設定手続においてユーザが入力した待機時間の経過を待つ、という意味のテキストを生成し、生成したテキストを含む画像を注釈付き画像として待機時間設定に関連付けて生成し、
制御部は、注釈付き画像に関連付けられた待機時間設定に従ってロボット又は家電機器を制御するための制御命令を生成しロボット又は家電機器に送出するタスク指示システム。
In claim 1,
The task input unit allows the user to set the time for the robot or home appliance to wait for the task to be executed.
Allows the user to perform a waiting time setting procedure that includes the step of entering a waiting time,
The annotated image generation unit generates text that means waiting for the elapse of the standby time input by the user in the standby time setting procedure, and generates an image including the generated text in association with the standby time setting as an annotated image. ,
The control unit is a task instruction system that generates a control command for controlling the robot or the home appliance according to the standby time setting associated with the annotated image and sends the control command to the robot or the home appliance.
請求項1において、
タスク入力部は、既存の注釈付き画像に対応するタスクの内容を、タスク入力手続、トリガー設定手続又は待機時間設定手続をユーザに再度行わせることにより編集させるタスク指示システム。
In claim 1,
A task input system in which a task input unit edits the contents of a task corresponding to an existing annotated image by causing a user to perform a task input procedure, a trigger setting procedure, or a waiting time setting procedure again.
JP2010159005A 2010-07-13 2010-07-13 Task instruction system Expired - Fee Related JP5071873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010159005A JP5071873B2 (en) 2010-07-13 2010-07-13 Task instruction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010159005A JP5071873B2 (en) 2010-07-13 2010-07-13 Task instruction system

Publications (2)

Publication Number Publication Date
JP2012022457A true JP2012022457A (en) 2012-02-02
JP5071873B2 JP5071873B2 (en) 2012-11-14

Family

ID=45776716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010159005A Expired - Fee Related JP5071873B2 (en) 2010-07-13 2010-07-13 Task instruction system

Country Status (1)

Country Link
JP (1) JP5071873B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524951A (en) * 2012-05-14 2015-08-27 オルボティックス, インコーポレイテッドOrbotix, Inc. Manipulating computing devices by detecting round objects in images
JP2016099846A (en) * 2014-11-21 2016-05-30 国立研究開発法人産業技術総合研究所 Operation command generation device, operation command generation method, computer program, and processing system
JP2017146993A (en) * 2017-05-19 2017-08-24 エンパイア テクノロジー ディベロップメント エルエルシー Virtual reality applications
US9766620B2 (en) 2011-01-05 2017-09-19 Sphero, Inc. Self-propelled device with actively engaged drive system
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
JP2017225187A (en) * 2017-08-31 2017-12-21 株式会社ニコン Electronic control device, electronic control method, and control program
US9886032B2 (en) 2011-01-05 2018-02-06 Sphero, Inc. Self propelled device with magnetic coupling
US10022643B2 (en) 2011-01-05 2018-07-17 Sphero, Inc. Magnetically coupled accessory for a self-propelled device
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US10168701B2 (en) 2011-01-05 2019-01-01 Sphero, Inc. Multi-purposed self-propelled device
US10248118B2 (en) 2011-01-05 2019-04-02 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
CN110293554A (en) * 2018-03-21 2019-10-01 北京猎户星空科技有限公司 Control method, the device and system of robot
JPWO2021171353A1 (en) * 2020-02-25 2021-09-02

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215655A (en) * 2001-01-15 2002-08-02 Shigeru Ando Information retrieval method, information retrieval device and robot movement control device
JP2004268161A (en) * 2003-03-05 2004-09-30 Matsushita Electric Ind Co Ltd Article management system
JP2005250734A (en) * 2004-03-03 2005-09-15 Keiogijuku Generation method for ubiquitous environment information snapshot data, browsing method, generation device, browsing device, program, and data structure of ubiquitous environment information snapshot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215655A (en) * 2001-01-15 2002-08-02 Shigeru Ando Information retrieval method, information retrieval device and robot movement control device
JP2004268161A (en) * 2003-03-05 2004-09-30 Matsushita Electric Ind Co Ltd Article management system
JP2005250734A (en) * 2004-03-03 2005-09-15 Keiogijuku Generation method for ubiquitous environment information snapshot data, browsing method, generation device, browsing device, program, and data structure of ubiquitous environment information snapshot

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10022643B2 (en) 2011-01-05 2018-07-17 Sphero, Inc. Magnetically coupled accessory for a self-propelled device
US10678235B2 (en) 2011-01-05 2020-06-09 Sphero, Inc. Self-propelled device with actively engaged drive system
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9766620B2 (en) 2011-01-05 2017-09-19 Sphero, Inc. Self-propelled device with actively engaged drive system
US10248118B2 (en) 2011-01-05 2019-04-02 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US9841758B2 (en) 2011-01-05 2017-12-12 Sphero, Inc. Orienting a user interface of a controller for operating a self-propelled device
US9836046B2 (en) 2011-01-05 2017-12-05 Adam Wilson System and method for controlling a self-propelled device using a dynamically configurable instruction library
US10168701B2 (en) 2011-01-05 2019-01-01 Sphero, Inc. Multi-purposed self-propelled device
US11630457B2 (en) 2011-01-05 2023-04-18 Sphero, Inc. Multi-purposed self-propelled device
US9886032B2 (en) 2011-01-05 2018-02-06 Sphero, Inc. Self propelled device with magnetic coupling
US9952590B2 (en) 2011-01-05 2018-04-24 Sphero, Inc. Self-propelled device implementing three-dimensional control
US10012985B2 (en) 2011-01-05 2018-07-03 Sphero, Inc. Self-propelled device for interpreting input from a controller device
US11460837B2 (en) 2011-01-05 2022-10-04 Sphero, Inc. Self-propelled device with actively engaged drive system
US10423155B2 (en) 2011-01-05 2019-09-24 Sphero, Inc. Self propelled device with magnetic coupling
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
US10192310B2 (en) 2012-05-14 2019-01-29 Sphero, Inc. Operating a computing device by detecting rounded objects in an image
JP2015524951A (en) * 2012-05-14 2015-08-27 オルボティックス, インコーポレイテッドOrbotix, Inc. Manipulating computing devices by detecting round objects in images
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
JP2016099846A (en) * 2014-11-21 2016-05-30 国立研究開発法人産業技術総合研究所 Operation command generation device, operation command generation method, computer program, and processing system
JP2017146993A (en) * 2017-05-19 2017-08-24 エンパイア テクノロジー ディベロップメント エルエルシー Virtual reality applications
JP2017225187A (en) * 2017-08-31 2017-12-21 株式会社ニコン Electronic control device, electronic control method, and control program
CN110293554A (en) * 2018-03-21 2019-10-01 北京猎户星空科技有限公司 Control method, the device and system of robot
JPWO2021171353A1 (en) * 2020-02-25 2021-09-02
JP7452619B2 (en) 2020-02-25 2024-03-19 日本電気株式会社 Control device, control method and program

Also Published As

Publication number Publication date
JP5071873B2 (en) 2012-11-14

Similar Documents

Publication Publication Date Title
JP5071873B2 (en) Task instruction system
CN103797440B (en) There is the user interface based on posture of user feedback
KR102179470B1 (en) User interface for managing controllable external devices
TWI467462B (en) Active browsing method
JP6432889B2 (en) Operating device and operating method
US8866781B2 (en) Contactless gesture-based control method and apparatus
TWI461973B (en) Method, system, and computer-readable medium for visual feedback display
CN102946462B (en) A kind of associated person information packet processing method based on mobile phone and mobile phone
US20140195979A1 (en) Interactive user interface
JP2007116270A (en) Terminal and apparatus control system
CN105940385B (en) Controlling primary and secondary displays from a single touch screen
US20120281117A1 (en) Information display apparatus, image taking apparatus, and method and computer program for controlling displaying information
CN102629111A (en) Cooking appliance man-machine interaction control method
JP2018005361A (en) Information processing apparatus and program
JP2018006882A (en) Information processing device and program
CN110955421A (en) Method, system, electronic device, storage medium for robot programming
WO2014051130A1 (en) Image processing apparatus, image processing method and program
JPWO2017047180A1 (en) Information processing apparatus, information processing method, and program
JP6160761B1 (en) Information processing apparatus and program
WO2017190464A1 (en) Cooking electric appliance and control parameter setting method therefor
JP2018007226A (en) Information processing device and program
JP5488930B2 (en) Housework plan creation support device and housework plan creation support method
JP2016033726A (en) Electronic apparatus, touch screen control method, and program
JP2012018620A (en) Information processor and control method therefor
US20190244554A1 (en) Information processing apparatus and non-transitory computer readable medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120718

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120810

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees