JP5488930B2 - Housework plan creation support device and housework plan creation support method - Google Patents

Housework plan creation support device and housework plan creation support method Download PDF

Info

Publication number
JP5488930B2
JP5488930B2 JP2011050607A JP2011050607A JP5488930B2 JP 5488930 B2 JP5488930 B2 JP 5488930B2 JP 2011050607 A JP2011050607 A JP 2011050607A JP 2011050607 A JP2011050607 A JP 2011050607A JP 5488930 B2 JP5488930 B2 JP 5488930B2
Authority
JP
Japan
Prior art keywords
housework
task
input
place
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011050607A
Other languages
Japanese (ja)
Other versions
JP2012190073A (en
Inventor
大介 坂本
クシ リュウ
昌彦 稲見
健夫 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2011050607A priority Critical patent/JP5488930B2/en
Publication of JP2012190073A publication Critical patent/JP2012190073A/en
Application granted granted Critical
Publication of JP5488930B2 publication Critical patent/JP5488930B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、家事計画の作成を支援する技術に関する。   The present invention relates to a technique for supporting creation of a housework plan.

近年、種々の家庭用ロボットが研究・開発されている。例えば、掃除、炊事、皿洗い、洗濯、物の移動、監視などを行う家庭用ロボットが精力的に研究されている。これらの家庭用ロボットが普及するためには、家事を遂行するための機能が充実するだけでなく、ロボットに対する指示を分かりやすい方法で入力可能なインタフェースを搭載することが必要となる。   In recent years, various home robots have been researched and developed. For example, household robots that perform cleaning, cooking, washing dishes, washing, moving goods, monitoring, and the like have been energetically studied. In order for these home robots to become widespread, it is necessary not only to have functions for performing housework, but also to have an interface capable of inputting instructions to the robot in an easy-to-understand manner.

家庭用ロボットに対する指示を入力するためのインタフェースも種々検討されている。分かりやすさの観点からは、GUI(グラフィカルユーザーインターフェース)によって指示を入力できることが好ましい。非特許文献1では、PDA(Personal Digital Assistant)上でルートを描くと、それに沿ってロボットが移動するというインタフェースが開示されている。特許文献1では、ロボットを撮影した俯瞰画像をディスプレイに表示し、そのディスプレイ上でジェスチャ入力(マウス等による軌跡の入力)を行うことで、実在する空間の俯瞰画面に対して絵を描くようにロボットを操作できるインタフェースが開示されている。   Various interfaces for inputting instructions to home robots have been studied. From the viewpoint of easy understanding, it is preferable that an instruction can be input through a GUI (graphical user interface). Non-Patent Document 1 discloses an interface in which when a route is drawn on a PDA (Personal Digital Assistant), the robot moves along the route. In Patent Document 1, a bird's-eye view image of a robot is displayed on a display, and a gesture is input on the display (trajectory input using a mouse or the like) so that a picture is drawn on an overhead view screen of a real space. An interface capable of operating a robot is disclosed.

特開2010−198064号公報JP 2010-198064 A

Chronis, G., and Skubic, M., "Robot navigation using qualitative landmark states from sketched route maps", Proc. ICRA '04, IEEE(2004), 1530-1535Chronis, G., and Skubic, M., "Robot navigation using qualitative landmark states from sketched route maps", Proc. ICRA '04, IEEE (2004), 1530-1535 Sakamoto, D., Honda, K., Inami, M., and Igarashi, T., "Sketch and run: a stroke-based interface for home robots", Proc. CHI '09, ACM(2009), 197-200Sakamoto, D., Honda, K., Inami, M., and Igarashi, T., "Sketch and run: a stroke-based interface for home robots", Proc. CHI '09, ACM (2009), 197-200

しかしながら、これらのインタフェースは個々のロボットを独立に操作するためのものである。家庭用のロボットが普及するにつれて、多くの家庭用ロボットが家庭内で使われ、種々の家事タスクをロボットに指示することが想定される。そうすると、各ロボットに対して個別に家事タスクを指示することはユーザにとって煩雑なものとなる。   However, these interfaces are for operating individual robots independently. As home-use robots become widespread, it is assumed that many home-use robots are used in the home and instruct the robot to perform various housework tasks. Then, instructing the housework task individually to each robot becomes complicated for the user.

そこで、本発明は、複数の家事タスクを含む家事計画を、簡単かつ理解しやすい方法で作成できるようにすることを目的とする。   Therefore, an object of the present invention is to make it possible to create a housework plan including a plurality of housework tasks by a simple and easy-to-understand method.

上記の課題を解決するために本発明に係る家事計画作成支援装置は、ユーザに対して個々のロボットを意識させることなく、行われるべき家事の種類・時刻・場所を指定することで家事計画を作成できる手法を採用した。本発明に係る家事計画作成支援装置は、画像表示手段と、種類入力手段と、場所入力手段と、時刻入力手段と、家事タスク記憶手段と、家事タスク表示手段とを備える。   In order to solve the above-described problems, the housekeeping plan creation support apparatus according to the present invention specifies the type, time, and place of housework to be performed without making the user aware of individual robots. A method that can be created was adopted. The housework plan creation support apparatus according to the present invention includes image display means, type input means, place input means, time input means, housework task storage means, and housework task display means.

画像表示手段は、家事を行う対象となる場所の画像(部屋画像)を表示する。たとえば、部屋についての俯瞰画像を表示したり、3次元画像を表示したりする。表示される画像は、カメラによって撮影された画像であっても良いし、撮影画像に基づく画像等であってもかまわない。   The image display means displays an image (room image) of a place to be housed. For example, an overhead image of a room is displayed or a three-dimensional image is displayed. The displayed image may be an image taken by a camera or an image based on the taken image.

種類入力手段は、実行すべき家事タスクの種類をユーザが入力可能な手段である。家事タスクの種類は、例えば、モップ掛け、掃除機掛け、物の移動、洗濯、料理、部屋の監視などを例としてあげることができる。家事タスクは、ユーザにとっての利便性の観点から適当な単位で定義することが好ましい。たとえば、モップ掛けと掃除機掛けを合わせて1つの掃除タスクとしても良いし、洗濯タスクを洗い・乾燥・畳みの複数のタスクとしても良い。   The type input means is a means by which the user can input the type of housework task to be executed. Examples of the types of housework tasks include mop hanging, vacuuming, moving objects, washing, cooking, and room monitoring. The housework task is preferably defined in an appropriate unit from the viewpoint of convenience for the user. For example, the mop hook and the vacuum cleaner hook may be combined into one cleaning task, or the laundry task may be a plurality of tasks of washing, drying, and folding.

場所入力手段は、家事タスクが行われる場所を、部屋画像上でユーザが入力可能な手段である。部屋画像上で領域選択をすることで、家事タスクが行われる場所を指定可能とする。領域選択は、例えば、矩形選択・フリーハンドでの選択などとしても良いし、部屋画像において物体の認識が行われているときには境界の自動認識による選択を行っても良い。   The place input means is a means by which the user can input the place where the housework task is performed on the room image. By selecting an area on the room image, it is possible to specify a place where the housework task is performed. The region selection may be, for example, rectangular selection or freehand selection, or may be performed by automatic boundary recognition when an object is recognized in the room image.

時刻入力手段は、家事タスクが行われる時刻を入力可能な手段である。ユーザは、家事タスクが開始される時刻を入力できることが好ましい。開始時刻と合わせて、終了時刻または家事実行時間(継続時間)を入力できるようにしても良い。また、入力可能な時刻は開始時刻だけとして、終了時刻は家事タスクの種類に応じて自動的に定まるようにしても良い。なお、家事タスクの開始時刻を入力せずに、直ちにタスクを開始することができるようにしても良い。   The time input means is a means capable of inputting the time at which the housework task is performed. It is preferable that the user can input the time when the housework task is started. Together with the start time, the end time or housework execution time (duration) may be input. Further, the time that can be input may be only the start time, and the end time may be automatically determined according to the type of housework task. Note that the task may be started immediately without inputting the start time of the housework task.

種類入力手段・場所入力手段・時刻入力手段によってユーザは家事タスクの入力が可能となる。家事タスク記憶手段には、入力された家事タスクについての情報が記憶される。   The type input means, place input means, and time input means allow the user to input housework tasks. The housework task storage means stores information on the input housework task.

家事タスク表示手段は、入力された家事タスク毎に、各家事タスクが行われる場所を、画像レイヤーとして、上記の部屋画像に重ね合わせて表示する。ここで、画像レイヤーとは、個々のタスクについて家事実行領域の表示・非表示を選択可能であることを意味する。   The housework task display means displays the place where each housework task is performed for each input housework task as an image layer superimposed on the room image. Here, the image layer means that it is possible to select display / non-display of the housework execution area for each task.

このように本発明によれば、複数の家事タスクについて、家事タスクの種類・場所・時刻を入力するだけで、統一的に入力することができる。すなわち、ユーザは実際に家事を行うロボットを意識することなく家事タスクの入力が可能である。したがって、本発明による家事計画作成支援装置は、操作が簡単でユーザにとって直感的に理解しやすいものとなる。   As described above, according to the present invention, a plurality of housework tasks can be input in a unified manner simply by inputting the type, place, and time of the housework task. That is, the user can input housework tasks without being aware of the robot that actually performs housework. Therefore, the housekeeping plan creation support apparatus according to the present invention is easy to operate and intuitive for the user.

本発明において、種類入力手段・場所入力手段・時刻入力手段によって、家事タスク記憶手段に記憶されている家事タスクの種類・場所・時刻を編集可能とすることが好ましい。ここで、編集の対象となる家事タスクは、選択されている画像レイヤーに対応する家事タスクとすることが好ましい。表示・非表示の選択と、編集対象の選択は一般に異なるものとすることができる。ただし、同時に表示可能な画像レイヤーを1つのみとして、その画像レイヤーに対応する家事タスクを編集対象としてもかまわない。   In the present invention, it is preferable that the type / location / time of the housework task stored in the housework task storage unit can be edited by the type input unit / place input unit / time input unit. Here, the housework task to be edited is preferably a housework task corresponding to the selected image layer. The selection of display / non-display and the selection of the edit target can be generally different. However, only one image layer can be displayed at the same time, and the housework task corresponding to the image layer may be the editing target.

また、本発明において、家事タスク表示手段は、家事タスクが行われる場所を、家事タスクの種類に応じた色で表示することが好ましい。家事タスクの種類を色によって識別することがユーザにとっても最も直感的であると考えられる。ただし、色以外に、家事タス
クに応じた文字やアイコンを表示したり、家事タスクに応じて選択領域の境界線(線の太さや種類など)を変更して表示したりしてもかまわない。
In the present invention, it is preferable that the housework task display means displays a place where the housework task is performed in a color corresponding to the type of the housework task. It is considered most intuitive for the user to identify the type of housework task by color. However, in addition to the color, characters and icons corresponding to the housework task may be displayed, or the boundary line (such as line thickness and type) of the selection area may be changed and displayed according to the housework task.

また、本発明において、家事タスク表示手段が、記憶されている複数の家事タスクについて、家事が行われる時刻をグラフィカルに表示することが好ましい。例えば、各家事タスクの開始時刻と終了時刻を、タイムチャートとして表示することができる。   In the present invention, it is preferable that the housework task display means graphically display the time at which housework is performed for a plurality of stored housework tasks. For example, the start time and end time of each housework task can be displayed as a time chart.

また、本発明において、種類入力手段は、さらに、入力されるタスクに応じて定められる付加情報も入力可能であることが好ましい。付加情報とは、たとえば、どのように家事タスクを実行するかという情報である。例としては、注意深く実行する、急いで実行する、入念に実行する、割り当てるリソース(ロボット数)を増やす・減らすなどがあり得る。また、部屋監視(カメラ撮影)における俯角・仰角を設定する場合に、付加情報としてこれらの情報を入力可能としても良い。   In the present invention, it is preferable that the type input means can also input additional information determined in accordance with the input task. The additional information is information on how to perform a housework task, for example. Examples include careful execution, rushed execution, careful execution, and increasing / decreasing allocated resources (number of robots). In addition, when setting the depression angle / elevation angle in room monitoring (camera shooting), these pieces of information may be input as additional information.

また、本発明において、家事タスク記憶手段に記憶されている家事タスクの間で、コンフリクトが生じていないかを検証する検証手段を更に備えることも好ましい。例えば、同一時刻に同一領域で、同時実行不可能な家事タスクが入力されている場合に、コンフリクトが発生していると判断することができる。また、同一時刻に入力されている家事タスクが複数ある場合に、入力された家事タスクが家事実行のためのリソース(家事ロボット数)を超過する場合に、コンフリクトが発生していると判断することができる。さらに、家事タスクについて制約が課されている場合に、その制約に違反するか否かを検証してコンフリクトの有無を判断しても良い。制約の例としては、家事タスクの実行可能領域・実行可能時刻、複数の家事タスク間における実行順序などが挙げられる。   In the present invention, it is also preferable to further include verification means for verifying whether or not a conflict has occurred between housework tasks stored in the housework task storage means. For example, it is possible to determine that a conflict has occurred when housework tasks that cannot be executed simultaneously are input in the same area at the same time. Also, when there are multiple housework tasks entered at the same time, and the entered housework tasks exceed the resources for housework execution (number of housework robots), it is determined that a conflict has occurred. Can do. Further, when a restriction is imposed on the housework task, it may be determined whether or not there is a conflict by verifying whether or not the restriction is violated. Examples of constraints include the executable area / executable time of housework tasks, the execution order among a plurality of housework tasks, and the like.

また、本発明において、制約として、複数の家事タスクが実行されるべき時間的な前後関係を記憶する制約記憶手段を有し、時刻入力手段はこの制約を満たすような入力のみを可能としても良い。すなわち、ユーザが種類入力手段によって入力した家事タスクが、制約記憶手段に記憶されている家事タスクの1つであり、この制約に対応する家事タスクが家事タスク記憶手段に既に記憶されている場合には、時刻入力手段は、入力済みの家事タスクが行われる時刻と、制約記憶手段に記憶されている制約(前後関係)とに基づいて、この制約を満たす範囲内でユーザに入力された家事タスクが行われる時刻を入力可能とする、ことが好ましい。ここで、制約に違反する入力を全て入力禁止にする必要はなく、制約を満たすように入力することを促すものの、制約に違反する入力を許容するにようにしてもかまわない。   Further, in the present invention, as constraints, there may be constraint storage means for storing the temporal context in which a plurality of housework tasks should be executed, and the time input means may only allow input that satisfies this constraint. . That is, when the housework task input by the user using the type input means is one of the housework tasks stored in the constraint storage means, and the housework task corresponding to this constraint is already stored in the housework task storage means The time input means, based on the time when the entered housework task is performed and the constraints (contextual relationship) stored in the constraint storage means, the housework tasks input by the user within a range satisfying this constraint It is preferable to be able to input the time at which is performed. Here, it is not necessary to prohibit all inputs that violate the constraint, and although it is urged to input so as to satisfy the constraint, an input that violates the constraint may be permitted.

また、本発明において、家事タスク記憶手段に記憶された家事タスクを、家事を実行する家事実行装置(家事ロボット)に対するコマンドに変換して、家事実行装置へ送信する送信手段を更に備えることが好ましい。ここで、1つの家事タスクが1つの家事実行装置によって実行される必要はなく、複数の家事実行装置によって実行されてもかまわない。その場合は、送信手段は、1つの家事タスクを複数の家事実行装置に対するコマンドに変換して、それぞれの家事実行装置へ送信する。   In the present invention, it is preferable to further include a transmission means for converting the housework task stored in the housework task storage means into a command for a housework execution device (housework robot) for performing housework, and transmitting the command to the housework execution device. . Here, one housework task need not be executed by one housework execution device, and may be executed by a plurality of housework execution devices. In this case, the transmission means converts one housework task into a command for a plurality of housework execution devices, and transmits the command to each housework execution device.

また、本発明において、家事計画作成支援装置を1つのコンピュータに実装する必要はない。たとえば、ユーザが家事計画の入力を行う装置と、家事タスクを記憶し家事実行装置へコマンドを送信する装置とを異なるコンピュータで実行することができる。典型的には家事タスクの記憶手段とコマンドを送信する手段を含むコンピュータが自宅にあり、ネットワークを介して別のコンピュータから家事計画を入力する形態が考えられる。もちろん、分散処理の方法はこれに限られず、任意の形態での変形が考えられる。   In the present invention, it is not necessary to implement the housework plan creation support apparatus on one computer. For example, a device that allows a user to input a housework plan and a device that stores housework tasks and transmits commands to the housework execution device can be executed on different computers. Typically, a computer including a housework task storage means and a command transmission means is at home and a housework plan is input from another computer via a network. Of course, the method of distributed processing is not limited to this, and modifications in an arbitrary form are conceivable.

本発明は、上記手段の少なくとも一部を含む家事計画作成支援装置または家事計画作成
支援システムとして捉えることができる。また、これらの処理を行う家事計画作成支援方法および、この方法をコンピュータで実行するためのプログラムとして捉えることもできる。
The present invention can be understood as a housework plan creation support apparatus or a housework plan creation support system including at least a part of the above means. It can also be understood as a housework plan creation support method for performing these processes and a program for executing this method on a computer.

本発明によれば、複数の家事タスクを含む家事計画を、簡単かつ理解しやすい方法で作成できる。   According to the present invention, a housework plan including a plurality of housework tasks can be created in a simple and easy-to-understand manner.

家事システムの概要を示す図である。It is a figure which shows the outline | summary of a household system. 家事計画作成支援装置の概要構成を示す図である。It is a figure which shows the outline | summary structure of a housework plan preparation assistance apparatus. 家事計画作成支援装置の機能ブロック図である。It is a functional block diagram of a housework plan creation support device. 家事計画作成支援装置のインタフェースの例である。It is an example of the interface of a housework plan creation support device. モップ掛けタスクの入力方法を説明する図である。It is a figure explaining the input method of a mop application task. モップ掛けタスクの入力におけるプロパティ指定を説明する図である。It is a figure explaining the property designation | designated in the input of a mop task. 物体移動タスクの入力方法を説明する図である。It is a figure explaining the input method of an object movement task. カメラ撮影タスクの入力方法を説明する図である。It is a figure explaining the input method of a camera imaging | photography task. 時刻入力における入力制限を説明する図である。It is a figure explaining the input restriction | limiting in time input. 入力された家事計画から家事ロボットに対するコマンドへの変換を説明する図である。It is a figure explaining the conversion from the input housework plan to the command with respect to a housework robot.

<システム概要>
図1は、家事ロボットによって家事を実行する家事システムの概要を示す図である。コンピュータ(家事計画作成支援装置)1によって家事計画が作成され、その家事計画にしたがって、家事ロボット(家事実行装置)2が家事を実行する。家事計画を作成するためのコンピュータ1は図では1台のみを示しているが、ユーザが家事計画を入力可能であり、入力された家事計画が家事ロボット2へ伝達可能であれば、任意の形態のシステムを採用可能である。ユーザが任意の場所から家事計画を入力できるように、家庭内に設けられたコンピュータにネットワークを介してアクセスしたり、モバイル端末などにおいて入力された家事計画が家庭内に設けられたコンピュータにネットワークを介して伝達されたりするようにすることができる。
<System overview>
FIG. 1 is a diagram illustrating an overview of a housework system that performs housework with a housework robot. A housework plan is created by a computer (housework plan creation support device) 1, and a housework robot (housework execution device) 2 executes housework according to the housework plan. Although only one computer 1 is shown in the figure for creating the housework plan, any form can be used as long as the user can input the housework plan and the input housework plan can be transmitted to the housework robot 2. This system can be adopted. To allow a user to enter a housework plan from any location, a computer installed in the home is accessed via a network, or a housework plan entered on a mobile terminal or the like is connected to a computer installed in the house. Or the like can be transmitted.

カメラ3は、天井等に設けられており、部屋全体の俯瞰画像を撮影できる。また、部屋内の物体を検出できるように複数のカメラを設けて種々の方向から撮影することも好ましい。なお、家事ロボット2が家事を行う場所が複数の部屋にわたる場合には、部屋毎にカメラ3を設けることが好ましい。   The camera 3 is provided on the ceiling or the like, and can capture an overhead image of the entire room. It is also preferable to shoot from various directions by providing a plurality of cameras so that an object in the room can be detected. In addition, when the place where the housework robot 2 performs housework covers a plurality of rooms, it is preferable to provide the camera 3 for each room.

図2には、家事計画作成支援装置1のハードウェア的な構成を示す図である。家事計画作成支援装置1は通常のコンピュータと同様の構成であり、CPU(中央演算処理装置)10、RAMなどのメインメモリ11、家事ロボット2や他のコンピュータと通信を行うための通信処理部12、記憶部13、入力部14、出力部15を備えている。通信処理部12は、ネットワークやケーブル等の回線あるいは無線リンクを介して他のコンピュータや家事ロボット2と通信を行う。記憶部13はオペレーティングシステム(OS)やアプリケーションプログラム(家事計画作成支援プログラム)を記憶している。入力部14はCPU10へ情報を入力する手段であり、キーボードやマウス、タッチパネルなどのデバイス、メモリカードやDVD−ROM等の記憶媒体から情報を読み取るデバイスを有する。また、出力部15は、処理結果を出力する手段であり、処理結果等を表示する表示装置や、データを印刷するプリンタ等を有する。CPU10は、記憶部13からOSやアプリケーションプログラムをメインメモリ11に読み出し、読み出したOSやアプリケーショ
ンプログラムを実行することで、以下で説明する各機能部として機能する。
FIG. 2 is a diagram illustrating a hardware configuration of the housework plan creation support apparatus 1. The housework plan creation support apparatus 1 has the same configuration as an ordinary computer, and includes a CPU (central processing unit) 10, a main memory 11 such as a RAM, a housework robot 2 and a communication processing unit 12 for communicating with other computers. A storage unit 13, an input unit 14, and an output unit 15. The communication processing unit 12 communicates with other computers and the housekeeping robot 2 via a network, a line such as a cable, or a wireless link. The storage unit 13 stores an operating system (OS) and application programs (housework plan creation support program). The input unit 14 is a means for inputting information to the CPU 10, and includes a device such as a keyboard, a mouse, and a touch panel, and a device that reads information from a storage medium such as a memory card and a DVD-ROM. The output unit 15 is a means for outputting the processing result, and includes a display device that displays the processing result, a printer that prints data, and the like. The CPU 10 functions as each functional unit described below by reading the OS and application programs from the storage unit 13 into the main memory 11 and executing the read OS and application programs.

家事ロボット2は、家事計画作成支援装置1から指示を受信可能であり、その指示にしたがって動作可能なロボットであればどのような物であってもかまわない。たとえば、市販されている製品であれば、iRobot社のiRobot Roomba(登録商標)やiRobot Create(登録商標)、あるいはWowWee社のRovio(登録商標)を使用することができる。本実施形態
では、これらの家事ロボットを採用している。Roombaは、障害物を含む部屋の中を移動して掃除(吸引)を行うロボットである。CreateはRoombaから掃除機の機能を外したロボットであり、オプションとして、アームやカメラなどを取り付けることができる。RoombaおよびCreateはBluetooth(登録商標)を介してコンピュータと通信可能であり、API(Application Programming Interface)により制御可能である。また、Rovioはカメラを有
する、移動可能なロボットであり、HTTPベースの遠隔制御APIを介して制御可能である。
The household robot 2 may be any robot as long as it can receive instructions from the housekeeping plan creation support apparatus 1 and can operate according to the instructions. For example, iRobot's iRobot Roomba (registered trademark) and iRobot Create (registered trademark), or WowWee's Rovio (registered trademark) can be used for commercially available products. In this embodiment, these housework robots are employed. Roomba is a robot that moves and cleans (suctions) through a room containing obstacles. Create is a robot that removes the function of the vacuum cleaner from Roomba and can be equipped with an arm or camera as an option. Roomba and Create can communicate with a computer via Bluetooth (registered trademark), and can be controlled by an API (Application Programming Interface). Rovio is a mobile robot with a camera that can be controlled via an HTTP-based remote control API.

本実施形態では、iRobot Roombaを掃除機タスクの実行に用い、iRobot Createをモップ掛け・物体移動のタスク実行に用い、WowWee Rovioをカメラ撮影の実行に用いる。なお、家事タスクを実行する家事ロボットは、これらに限られず任意のものを採用してかまわない。   In this embodiment, iRobot Roomba is used to execute the vacuum cleaner task, iRobot Create is used to execute the mop / object movement task, and WowWee Rovio is used to execute the camera shooting. In addition, the housework robot which performs a housework task is not restricted to these, You may employ | adopt arbitrary things.

<家事計画作成支援装置の構成>
図3は、家事計画作成支援装置1の詳細な機能ブロックを示す図である。図4は家事計画作成支援装置におけるユーザインタフェース(画面表示)を示す図である。部屋画像表示画面40に部屋画像が表示されている。ユーザは、ツール選択画面50の中から家事タスクの種類を選択し、部屋画像表示画面40においてその家事タスクが実行される領域を入力する。また、スケジューラ画面70において家事タスクが実行される時刻を入力する。なお、必要に応じて、家事タスクを実行する際の付加的な情報をプロパティ選択画面60から入力することができる。このように、1つの家事タスクの入力は、種類・場所・時刻を入力することによって行われる。各家事タスクは、実行領域が部屋画像に重畳して表示されるが、レイヤー機構を採用することで、各タスク毎に表示・非表示を切り替え可能とする。
<Configuration of housework plan creation support device>
FIG. 3 is a diagram showing detailed functional blocks of the housework plan creation support apparatus 1. FIG. 4 is a diagram showing a user interface (screen display) in the housework plan creation support apparatus. A room image is displayed on the room image display screen 40. The user selects the type of housework task from the tool selection screen 50 and inputs an area in which the housework task is executed on the room image display screen 40. In addition, the time when the housework task is executed is input on the scheduler screen 70. If necessary, additional information for executing the housework task can be input from the property selection screen 60. Thus, the input of one housework task is performed by inputting the type, location, and time. Each housework task is displayed with its execution area superimposed on the room image. By adopting a layer mechanism, display / non-display can be switched for each task.

以下、図3に示す家事計画作成支援装置1の各機能部を、図4に示す画面表示を参照しながら説明する。   Hereinafter, each functional unit of the housekeeping plan creation support apparatus 1 illustrated in FIG. 3 will be described with reference to the screen display illustrated in FIG. 4.

[部屋画像取得部]
部屋画像取得部101は、カメラ3が撮影した部屋画像を取得する。部屋画像取得部101が取得した画像は、家事計画入力インタフェース部103が表示する(図4の部屋画像表示画面40)。ユーザはこの部屋画像表示画面40上で、家事タスクを実行する領域を入力する。ユーザが家事タスクを入力する際の部屋画像は俯瞰画像であることが好ましいので、天井に設けられたカメラ3から俯瞰画像を取得することが好ましい。
[Room image acquisition unit]
The room image acquisition unit 101 acquires a room image taken by the camera 3. The image acquired by the room image acquisition unit 101 is displayed by the housework plan input interface unit 103 (room image display screen 40 in FIG. 4). On the room image display screen 40, the user inputs an area for performing the housework task. Since the room image when the user inputs the housework task is preferably an overhead image, it is preferable to acquire the overhead image from the camera 3 provided on the ceiling.

[物体検知部]
物体検知部102は、部屋内の物体や家事ロボット2などを検出する機能部であり、カメラ3の撮影画像から物体を検出する。物体検知部3によって物体を検知するために、カメラ3を天井に複数(例えば8個)設けて物体を3次元的に撮影する。なお、ユーザに提示するための部屋画像はカメラによって撮影し、物体検出のための情報は電波や超音波などを用いたセンサによって取得するようにしても良い。物体を検出するためには、あらかじめ物体の形状を登録しておく必要がある。この際、その情報に関連づけて、各物体の属性(移動可能であるか否かなど)を登録しておくことができる。また、これは自動的に認識することもできる。そして、部屋画像表示画面40に俯瞰画像を表示する際に、必要に応じて、検出された物体に対応したアイコンを表示する。
[Object detection unit]
The object detection unit 102 is a functional unit that detects an object in the room, the housework robot 2, and the like, and detects an object from a captured image of the camera 3. In order to detect an object by the object detection unit 3, a plurality of (for example, eight) cameras 3 are provided on the ceiling to photograph the object three-dimensionally. Note that a room image to be presented to the user may be taken by a camera, and information for object detection may be obtained by a sensor using radio waves, ultrasonic waves, or the like. In order to detect an object, it is necessary to register the shape of the object in advance. At this time, the attribute of each object (whether it can be moved or the like) can be registered in association with the information. It can also be recognized automatically. Then, when displaying the overhead image on the room image display screen 40, an icon corresponding to the detected object is displayed as necessary.

[家事計画入力インタフェース]
家事計画入力インタフェース部103は、家事計画をユーザに入力させたり、入力済みの家事計画をユーザに提示したりするためのGUIである。入力された家事タスクは、家事タスク記憶部104に格納される。家事計画入力インタフェース部103は、家事計画を入力する対象の部屋の俯瞰画像を表示する機能、家事タスクの種類・実行領域・実行時刻を入力および表示する機能、入力レイヤーを切り替える機能、表示レイヤーを切り替える機能を有する。GUIの具体例を図4〜図9に示す。
[Housework plan input interface]
The housework plan input interface unit 103 is a GUI for allowing the user to input a housework plan or presenting the input housework plan to the user. The input housework task is stored in the housework task storage unit 104. The housework plan input interface unit 103 has a function of displaying a bird's-eye view image of a room into which a housework plan is input, a function of inputting and displaying a type / execution area / execution time of a housework task, a function of switching input layers, and a display layer. It has a function to switch. Specific examples of GUI are shown in FIGS.

1.部屋画像表示画面
部屋画像表示画面40には、家事タスクを入力する対象の部屋の俯瞰画像が表示される。ここで、表示される画像は、カメラ3が撮影したそのままの画像であっても良いし、物体検知結果などに基づいて物体(家具など)をアイコン化して表示しても良い。なお、複数の部屋に対して家事計画を作成する場合には、家事タスクを入力する部屋を切り替えることで、部屋画像表示画面40に表示される画像が切り替えられる。
1. Room Image Display Screen The room image display screen 40 displays a bird's-eye view image of a room into which a housework task is input. Here, the displayed image may be an image taken by the camera 3 as it is, or an object (furniture, etc.) may be displayed as an icon based on an object detection result or the like. In addition, when creating a housework plan for a plurality of rooms, the image displayed on the room image display screen 40 is switched by switching the room in which the housework task is input.

また、部屋画像表示画面40は、ユーザが家事タスクを入力する際に、家事が実行される場所を入力するためにも用いられる。つまり、部屋画像上でスケッチを描くようにして家事タスクが実行される場所が入力される。このように、部屋画像表示画面40は、家事タスク実行領域入力部としての機能も有する。なお、家事が実行される場所というのは、入力されている家事タスクに応じて異なる概念であり、したがって、家事計画入力インタフェース部103が受け取る情報も家事タスクに応じて異なるものとなる。たとえば、モップ掛けや掃除機掛けのタスクの場合には、モップ掛けや掃除機掛けを行うべき領域の入力を受ける(図5)。物を移動させるタスクの場合には、移動させる物体の元の位置、移動させる目標の位置を少なくとも入力として受け付け、さらに移動経路に関する情報も入力として受け付けることも好ましい(図7)。また、部屋内のカメラ撮影をするタスクの場合には、カメラ撮影を行う場所と方向を入力として受け付ける(図8)。このように、家事が実行される場所の入力方法は、家事タスクの種類に応じて適宜変更可能である。   The room image display screen 40 is also used to input a place where housework is performed when the user inputs a housework task. That is, the place where the housework task is executed is drawn as if a sketch is drawn on the room image. Thus, the room image display screen 40 also has a function as a housework task execution area input unit. Note that the place where housework is executed is a concept that differs depending on the housework task that has been input, and thus the information received by the housework plan input interface unit 103 also differs depending on the housework task. For example, in the case of a mop or vacuum cleaner task, an input of an area to be moped or vacuumed is received (FIG. 5). In the case of a task for moving an object, it is also preferable to accept at least the original position of the object to be moved and the position of the target to be moved as input, and also accept information about the movement route as input (FIG. 7). Further, in the case of a task for taking a picture of a camera in a room, the location and direction in which the picture is taken are accepted as input (FIG. 8). Thus, the input method of the place where a housework is performed can be suitably changed according to the kind of housework task.

2.ツール選択画面
ツール選択画面50は、入力する家事タスクの種類を指定するために用いられる。家事タスクの種類は、ユーザの利便性を考慮して適当な単位を1つの種類として定義する。図4では、モップ掛け51、掃除機掛け52、物を掴んで移動53、物を押して移動54、カメラ撮影55が家事タスクの種類として定義され表示されている。家事タスクとして、これら以外にも、洗濯・料理など、家事ロボットで実行可能なタスクを定義可能である。ユーザは、ツール選択画面50において、家事タスクに対応したアイコンを選択することで、入力する家事タスクの種類を指定可能である。
2. Tool selection screen The tool selection screen 50 is used to specify the type of housework task to be input. As for the types of housework tasks, an appropriate unit is defined as one type in consideration of user convenience. In FIG. 4, mop hook 51, vacuum cleaner hook 52, gripping and moving 53, pressing and moving 54, and camera shooting 55 are defined and displayed as types of housework tasks. In addition to these tasks, tasks that can be performed by the housework robot, such as washing and cooking, can be defined as housework tasks. The user can designate the type of housework task to be input by selecting an icon corresponding to the housework task on the tool selection screen 50.

ユーザは、ツール選択画面50で入力する家事タスクの種類を指定した後、部屋画像表示画面40にてスケッチを描くような入力をして、指定された家事タスクが実行される場所についての入力を行う。   The user designates the type of housework task to be input on the tool selection screen 50, and then makes an input such as drawing a sketch on the room image display screen 40, and inputs the place where the designated housework task is executed. Do.

3.プロパティ選択画面
プロパティ選択画面60は、家事タスクをどのように行うかを表す付加情報(プロパティ)を入力するために用いられる。プロパティ選択画面60に表示されたアイコンを選択することでプロパティが選択可能である。ここでは、注意深く実行する、至急実行する、カメラの仰角を0度、30度、60度に設定する、特定の物体や領域を回避して行動する、家事タスクに割り当てるリソース(ロボット数)を増やす・減らすといった付加情報を選択可能としている。なお、家事タスクの種類によって、指定可能なプロパティは異なる。そこで、入力している家事タスクの種類に応じて、表示されるプロパティあるいは選択
可能なプロパティの種類を変える。
3. Property selection screen The property selection screen 60 is used to input additional information (property) indicating how to perform the housework task. A property can be selected by selecting an icon displayed on the property selection screen 60. Here, execute carefully, execute urgently, set the camera elevation angle to 0 degrees, 30 degrees, 60 degrees, avoid specific objects and areas, increase resources (number of robots) allocated to housework tasks・ Additional information such as reduction can be selected. Note that the properties that can be specified vary depending on the type of housework task. Therefore, the type of property to be displayed or selectable is changed according to the type of housework task being input.

4.スケジューラ画面
スケジューラ画面70は家事タスクが実行される時刻を入力するために用いられる。スケジューラ画面70は、時刻入力画面71と日付入力画面72から構成される。ユーザは、日付入力画面72で家事タスクが実行される日付を指定し、時刻入力画面で家事タスクが実行される時刻を指定する。家事タスクが実行される時刻の指定においては、開始時刻のみを入力するようにして、終了時刻は家事計画作成支援装置1が算出するようにしても良い。また、ユーザが開始時刻と終了時刻の両方を入力するようにしても良い。また、家事タスクが定期的に(例えば、毎日、毎週、指定曜日)などに行われるという設定をユーザに入力させても良い。また、スケジューラ画面70で家事タスクが実行される時刻を入力しないで、直ちに実行するという指示を入力可能としても良い。
4). Scheduler screen The scheduler screen 70 is used to input the time at which the housework task is executed. The scheduler screen 70 includes a time input screen 71 and a date input screen 72. The user specifies the date on which the housework task is executed on the date input screen 72, and specifies the time on which the housework task is executed on the time input screen. In specifying the time at which the housework task is executed, only the start time may be input, and the end time may be calculated by the housework plan creation support apparatus 1. Further, the user may input both the start time and the end time. In addition, the user may be allowed to input a setting that the housework task is performed regularly (for example, every day, every week, or a specified day of the week). Further, it is possible to input an instruction to immediately execute the housework task on the scheduler screen 70 without inputting the time at which the housework task is executed.

5.レイヤーダイアログ
本実施形態においては、入力された家事タスクについての一部の情報(家事タスクの種類、実行領域、プロパティなど)が部屋画像表示画面40において部屋画像と重ね合わせて表示される。そして、1つの家事タスクを1つのレイヤーとして扱っている。レイヤーダイアログ80は、これらのレイヤー(家事タスク)を管理するための画面である。
5. Layer Dialog In this embodiment, a part of information (household task type, execution area, property, etc.) about the inputted housework task is displayed on the room image display screen 40 so as to overlap with the room image. One housework task is handled as one layer. The layer dialog 80 is a screen for managing these layers (housework tasks).

図4の例では5つの家事タスクが既に入力されており、それぞれに対応するレイヤーに関する情報がレイヤーダイアログ上で示されている。レイヤーダイアログ80には、ユーザが任意に設定可能な家事タスクの名称81と、部屋画像および実行領域を重ね合わせた画像のサムネイル画像82が表示される。   In the example of FIG. 4, five housework tasks have already been input, and information about the layers corresponding to each of them is shown on the layer dialog. The layer dialog 80 displays a housework task name 81 that can be arbitrarily set by the user, and a thumbnail image 82 of an image obtained by superimposing a room image and an execution area.

また、レイヤーダイアログ80で表示レイヤーとして選択されている家事タスクについては、その家事タスクの実行領域が部屋画像表示画面40において部屋画像と重ね合わせて表示される。この際、実行領域は境界線とその内部を塗りつぶした画像41として表示される。また、この実行領域の画像41は、家事タスクに応じて異なる色で表示される。この色はレイヤーダイアログ80のサムネイル画像82にも反映される。したがって、ユーザは視覚的に容易にどのような家事タスクが既に入力されているかを識別することができる。   For the housework task selected as the display layer in the layer dialog 80, the execution area of the housework task is displayed on the room image display screen 40 so as to overlap the room image. At this time, the execution area is displayed as an image 41 in which the boundary line and the inside thereof are filled. The execution area image 41 is displayed in a different color depending on the housework task. This color is also reflected in the thumbnail image 82 of the layer dialog 80. Therefore, the user can easily visually identify what housework tasks have already been input.

また、レイヤーダイアログ80を用いて、入力の対象とする家事タスクを切り替え可能である。レイヤーダイアログ80上で一つのレイヤーを指定することにより、そのレイヤーに対応する家事タスクが編集の対象となる。なお、新しい家事タスクを追加する場合には、新規レイヤー(家事タスク)を追加して、追加されたレイヤーを選択することで、新規の家事タスクを入力できる。   Further, it is possible to switch housework tasks to be input using the layer dialog 80. By designating one layer on the layer dialog 80, the housework task corresponding to the layer becomes the target of editing. When adding a new housework task, a new housework task can be input by adding a new layer (housework task) and selecting the added layer.

また、レイヤーダイアログ80を用いて、表示するレイヤー(家事タスク)をユーザに選択させることができる。表示レイヤーとして指定されている家事タスクは、部屋画像表示画面40に重ね合わせて表示される。本実施形態では、レイヤーの表示・非表示と、入力対象とするレイヤーは個別に設定可能としているが、入力対象のレイヤーのみが表示されその他のレイヤーは非表示とするようにしてもかまわない。   In addition, the layer dialog 80 can be used to allow the user to select a layer (housework task) to be displayed. The housework task specified as the display layer is displayed superimposed on the room image display screen 40. In the present embodiment, the display / non-display of the layer and the input target layer can be set individually, but only the input target layer may be displayed and the other layers may be hidden.

6.家事タスク入力方法の具体例
以下、図4〜図8を参照して具体的な家事タスクの入力方法を説明する。
6). Specific Example of Housework Task Input Method Hereinafter, a specific housework task input method will be described with reference to FIGS.

・モップ掛け/掃除機掛けタスクの入力方法
まず初めにモップ掛けや掃除機掛けのような、実行される領域を指定する必要のある家事タスクを入力する場合を、図5を参照して説明する。モップ掛けや掃除機掛けのように
部屋画像表示画面40において領域を指定する場合には、図5に示すように、ユーザがマウスを移動させて領域の境界42を指定する方法、いわゆる、なげなわツール(あるいは自由選択)の手法によって領域を入力することができる。また、たとえば、入力開始位置と入力終了位置を対角頂点とした矩形領域として指定しても良い(矩形領域選択)。また、既に領域が選択されている状態で、さらに領域を追加したり、除外する領域を指定したりするようにしても良い。また、物体検知部102によって物体の形状が認識されている場合には、ある点を選択するだけでその位置にある物体全体を入力とするような方法(自動選択)を採用しても良い。
-Input method of mop / vacuum task First, a case where a housework task such as mop or vacuum cleaner that needs to specify an area to be executed is input will be described with reference to FIG. . When an area is designated on the room image display screen 40 like a mop or vacuum cleaner, as shown in FIG. 5, a method in which the user moves the mouse to designate an area boundary 42, so-called so-called “lasso”. A region can be input by a tool (or free selection) method. Further, for example, the input start position and the input end position may be designated as a rectangular area having diagonal vertices (rectangular area selection). Further, an area may be added or an area to be excluded may be designated in a state where an area has already been selected. Further, when the shape of the object is recognized by the object detection unit 102, a method (automatic selection) may be employed in which the entire object at the position is input only by selecting a certain point.

本実施形態においては、モップ掛けや掃除機掛けのタスクに対して、「注意」「至急」「回避」「+」「−」のプロパティを指定可能である。「注意」プロパティは、家具などを傷つけたり壊したりしないように注意深く行うという指示である。「至急」プロパティは、急いで行うという指示である。「+」と「−」プロパティは、それぞれタスクに割り当てるリソースを多くするまたは少なくするという指示であり、典型的にはタスクを実行する家事ロボットの台数を増減することを意味する。プロパティの解釈(家事ロボット用コマンドへの変換)は適宜設計可能である。たとえば、「+」「−」プロパティを、タスクに割り当てる家事ロボットの種類を変更し、リソースを増やす場合にはより強力な家事ロボットを家事タスクに割り当てるようにしても良い。   In the present embodiment, the properties of “Caution”, “Urgent”, “Avoid”, “+”, and “−” can be designated for the task of mop and vacuum cleaner. The “Caution” property is an instruction to perform carefully so as not to damage or destroy furniture. The “urgent” property is an instruction to perform quickly. The “+” and “−” properties are instructions to increase or decrease the resources allocated to the task, respectively, and typically mean to increase or decrease the number of domestic robots that execute the task. The interpretation of properties (conversion to commands for household robots) can be designed as appropriate. For example, the “+” and “−” properties may be assigned to a housework task by changing the type of housework robot assigned to the task and increasing resources.

図6の例では、プロパティ「回避」を指定することが表示されており、回避の対象が物体43であることが示されている。この入力は、プロパティ選択画面60で「回避」プロパティ66を選択した後に、部屋画像表示画面40上で物体43を選択することにより行われる。プロパティ「回避」が指定されていることは、プロパティ選択画面上で「回避」66がハイライト表示されていることと、部屋画像表示画面40上でプロパティ「回避」に対応するアイコン44が表示されることでユーザに提示される。なお、部屋画像表示画面40上では、回避の対象領域も表示される。   In the example of FIG. 6, it is displayed that the property “avoidance” is specified, and the object to be avoided is the object 43. This input is performed by selecting the object 43 on the room image display screen 40 after selecting the “avoidance” property 66 on the property selection screen 60. The fact that the property “avoidance” is designated is that the “avoidance” 66 is highlighted on the property selection screen and the icon 44 corresponding to the property “avoidance” is displayed on the room image display screen 40. Is presented to the user. On the room image display screen 40, an area to be avoided is also displayed.

・物体移動タスクの入力方法
物体を移動させるタスクの場合には、図7に示すように、部屋画像における移動可能物体をマウスでドラッグすることにより、移動させる物体の元の位置、移動後の目標位置、および移動経路を指定可能である。物体検知部102が部屋の内部にある移動可能な物体を検知するので、物体移動タスクが選択されている場合に、その物体を画面上で移動可能なアイコンとして表示する。こうすることで、マウスのドラッグによる入力が可能となる。物体の元の位置、目標位置、移動経路は、部屋画像表示画面40上で軌跡45として表示される。
-Object moving task input method In the case of a task for moving an object, as shown in FIG. 7, by dragging the movable object in the room image with the mouse, the original position of the object to be moved, the target after the movement A position and a movement route can be specified. Since the object detection unit 102 detects a movable object in the room, when the object movement task is selected, the object is displayed as a movable icon on the screen. In this way, input by dragging the mouse becomes possible. The original position, target position, and movement path of the object are displayed as a locus 45 on the room image display screen 40.

本実施形態においては、物体移動タスクに対して「注意」「至急」「+」「−」のプロパティを指定可能である。図7の例では、プロパティ「注意」が指定されている。この入力は、プロパティ選択画面60上で「注意」プロパティ61を選択することにより行われる。また、この家事タスクに「注意」プロパティが指定されていることは、プロパティ選択画面上で「注意」61がハイライト表示されていることと、部屋画像表示画面40上でプロパティ「注意」に対応するアイコン46が表示されることでユーザに提示される。   In the present embodiment, the properties of “attention”, “urgent”, “+”, and “−” can be specified for the object movement task. In the example of FIG. 7, the property “Caution” is designated. This input is performed by selecting the “Caution” property 61 on the property selection screen 60. In addition, the fact that the “attention” property is specified for this housework task corresponds to the fact that “attention” 61 is highlighted on the property selection screen and the property “attention” on the room image display screen 40. The icon 46 to be displayed is displayed to the user.

・カメラ撮影タスクの入力方法
カメラ撮影タスクの場合には、図8に示すように、どの地点から撮影を行うかと、どの方向に向かって撮影を行うかという情報を入力する。図8では、直線47をマウスのドラッグにより入力することでカメラ撮影タスクの場所に関する情報を入力する。ただし、カメラの画角を指定できるように撮影を行う地点と画角を撮影地点で折れ曲がった直線として入力しても良いし、撮影地点を要とする扇形として入力しても良い。
-Camera Shooting Task Input Method In the case of a camera shooting task, as shown in FIG. 8, information indicating from which point the shooting is performed and in which direction the shooting is performed is input. In FIG. 8, information regarding the location of the camera shooting task is input by inputting a straight line 47 by dragging the mouse. However, the shooting point and the angle of view may be input as a straight line bent at the shooting point so that the angle of view of the camera can be specified, or may be input as a fan shape that requires the shooting point.

本実施形態においては、カメラ撮影タスクに対して「0°」「30°」「60°」のプロパティを指定可能である。これらは、カメラ撮影における仰角を指定するためのプロパティである。図8に示す例では、プロパティ「30°」が指定されている。この入力は、プロパティ選択画面60上で「30°」プロパティ64を選択することにより行われる。また、この家事タスクに「30°」プロパティが指定されていることは、プロパティ選択画面60上でプロパティ「30°」がハイライト表示されていることと、部屋画像表示画面40上でプロパティ「30°」に対応するアイコン48が表示されることでユーザに提示される。   In this embodiment, properties of “0 °”, “30 °”, and “60 °” can be specified for the camera shooting task. These are properties for designating the elevation angle in camera photography. In the example shown in FIG. 8, the property “30 °” is designated. This input is performed by selecting the “30 °” property 64 on the property selection screen 60. The fact that the “30 °” property is specified for this housework task means that the property “30 °” is highlighted on the property selection screen 60 and the property “30” on the room image display screen 40. The icon 48 corresponding to “°” is displayed and presented to the user.

7.家事計画入力インタフェースのその他の機能
家事計画入力インタフェース部103は、家事タスクが実行される時刻として入力可能な値の範囲を限定するようにしても良い。たとえば、複数の家事タスクの実行順序(前後関係)を制約として記憶しており、このような制約に沿った入力のみを許可するようにしても良い。すなわち、現在入力中の家事タスクが制約が課せられている家事タスクの1つであり、制約に対応する他の家事タスクが既に家事タスク記憶部104に記憶されている場合には、この入力済みの家事タスクとの間で制約を満たすような家事実行時刻の入力を許可する。
7). Other Functions of Housework Plan Input Interface The housework plan input interface unit 103 may limit the range of values that can be input as the time at which the housework task is executed. For example, the execution order (context relationship) of a plurality of housework tasks may be stored as a constraint, and only input in accordance with such a constraint may be permitted. That is, if the housework task that is currently being input is one of the housework tasks that are subject to restrictions, and other housework tasks that correspond to the restrictions are already stored in the housework task storage unit 104, this input has been completed. Allow input of housework execution time that satisfies constraints with other housework tasks.

たとえば、掃除機掛けタスクとモップ掛けタスクの間で、モップ掛けタスクは掃除機掛けタスクの後に行うという制約が家事計画作成支援装置1に記憶されているとする。そして、掃除機掛けタスクが11時〜12時に行われることが指定されている状態で、モップ掛けタスクを入力する状況を考える。この場合、モップ掛けタスクは、掃除機掛けタスクが終了する12時以降に行われるべきことが制約から分かるので、図9に示すようにスケジューラ画面70では、12時以前の時刻が選択できないように表示される。もちろん、12時以前の時刻を選択可能としても良いが、その場合、図に示すように12時以前の時刻を選択しないようにユーザに注意を促したり、ユーザが12時以前の時刻を選択した場合に確認をおこなう等の手法を採用することが好ましい。   For example, it is assumed that the housework plan creation support apparatus 1 stores a restriction that a mop hanging task is performed after a vacuum cleaner task between a vacuum cleaner task and a mop task. Then, consider a situation in which a mop hanging task is input in a state where it is specified that the vacuum cleaner task is performed from 11:00 to 12:00. In this case, since it can be understood from the restriction that the mop-hanging task should be performed after 12:00 when the vacuuming task is finished, the time before 12:00 cannot be selected on the scheduler screen 70 as shown in FIG. Is displayed. Of course, it is possible to select a time before 12:00. In that case, as shown in the figure, the user is cautioned not to select a time before 12:00, or the user selects a time before 12:00. In some cases, it is preferable to adopt a method such as confirmation.

以上では、個々の家事タスクを編集することについて説明したが、複数の家事タスクをまとめてタスクセットとして家事タスク記憶部104に記憶しても良い。このようなタスクセットを読み込むことで、1つのタスクセットを繰り返し使用することができる。ここでは、1つのタスクセットを構成する家事タスクのそれぞれについて、タスクの種類・実行場所・実行時刻が格納される。なお、実行時刻については、日付を省略して時刻のみを記憶するようにしている。   In the above, editing of each housework task has been described. However, a plurality of housework tasks may be collectively stored in the housework task storage unit 104 as a task set. By reading such a task set, one task set can be used repeatedly. Here, for each of the housework tasks constituting one task set, the task type, execution location, and execution time are stored. As for the execution time, the date is omitted and only the time is stored.

[コマンド作成部]
コマンド作成部105は、家事タスク記憶部104に記憶されている家事タスクから、家事ロボット2に対して与えるコマンドを作成する機能部である。図10にはコマンド作成部105が備える、家事タスクの種類と、家事ロボット2に伝達するコマンド(スクリプト)を対応付けて記憶する記憶部を示す。図10(a)は、1つの家事タスク種類が、1つのロボットによって行われる場合の例である。タスクの種類毎にコマンドが用意されており、実行領域や実行時刻などをパラメータとして与えることで、ユーザに入力されたとおりの動作を実現する。
[Command creation section]
The command creation unit 105 is a functional unit that creates a command to be given to the housework robot 2 from the housework tasks stored in the housework task storage unit 104. FIG. 10 illustrates a storage unit that the command creation unit 105 includes and stores a type of housework task and a command (script) transmitted to the housework robot 2 in association with each other. FIG. 10A shows an example in which one household task type is performed by one robot. A command is prepared for each type of task, and an operation as input by the user is realized by giving an execution area, an execution time, and the like as parameters.

図10(b)は、1つの家事タスクを複数のロボットによって実現する場合の、家事タスクの種類と、家事ロボット2への伝達コマンドを記憶した記憶部の例である。この例では「洗濯」タスクが、4つの子タスクとして実現される。各タスクについて、どの家事ロボットに、どのコマンドを、どのような条件(開始条件)の下に与えるかが記憶される。1つのタスクを複数の子タスクとして実現する場合、1つの子タスクの実行は他の子タスクの終了が条件となる場合がある。そこで、開始条件を設けて、その条件が満たされた場
合に子タスクを実行することとする。図10(b)の例では、子タスク1,2については即座に開始されるが、子タスク3は子タスク1,2が終了した時点で開始され、子タスク4は子タスク3が終了した時点で開始される。
FIG. 10B shows an example of a storage unit that stores the types of housework tasks and commands transmitted to the housework robot 2 when one housework task is realized by a plurality of robots. In this example, the “laundry” task is realized as four child tasks. For each task, which house robot is given which command is given under what condition (start condition) is stored. When one task is realized as a plurality of child tasks, execution of one child task may be conditional on the end of another child task. Therefore, a start condition is provided, and the child task is executed when the condition is satisfied. In the example of FIG. 10B, the child tasks 1 and 2 are started immediately, but the child task 3 is started when the child tasks 1 and 2 are finished, and the child task 4 is finished with the child task 3. Start at the point.

[整合性検証部]
なお、コマンド作成部105が家事計画をコマンドに変換する前に、整合性検証部106が、入力された家事計画において家事タスクの間でコンフリクトが生じていないかを検証する。ここで、コンフリクトというのは入力された家事計画に沿って家事ロボット2を操作すると不都合が生じる場合や、家事計画に沿って家事ロボット2を操作することができない場合のことである。例えば、整合性検証部106が同時実行不可能な家事タスクを記憶しておき、この家事タスクが同一時刻に同一領域で実行するように家事計画が作成している場合に、コンフリクトが生じていると判断することができる。また、同一時刻に実行するように指定されている家事タスクが複数ある場合に、これらの家事タスクを全て実行するためのリソース、すなわち家事ロボット2が十分でない場合も、コンフリクトが生じていると判断することができる。また、家事タスクについて制約が課されている場合に、その制約を満足するか否か検証してコンフリクトの有無を判断しても良い。制約の例としては、家事タスクの実行可能領域・実行可能時刻、複数の家事タスク間における実行順序などが挙げられる。
[Consistency verification section]
Note that before the command creation unit 105 converts the housework plan into a command, the consistency verification unit 106 verifies whether or not there is a conflict between housework tasks in the input housework plan. Here, the conflict means a case where inconvenience occurs when the housework robot 2 is operated according to the inputted housework plan, or a case where the housework robot 2 cannot be operated along the housework plan. For example, when the consistency verification unit 106 stores housework tasks that cannot be executed simultaneously and the housework plan is created so that the housework tasks are executed in the same area at the same time, a conflict occurs. It can be judged. In addition, when there are a plurality of housework tasks designated to be executed at the same time, it is determined that a conflict has occurred even if the resources for executing all these housework tasks, that is, the housework robot 2 is not sufficient. can do. Further, when a restriction is imposed on the housework task, it may be determined whether or not there is a conflict by verifying whether or not the restriction is satisfied. Examples of constraints include the executable area / executable time of housework tasks, the execution order among a plurality of housework tasks, and the like.

[コマンド送信部]
コマンド送信部107は、コマンド作成部105によって作成されたコマンドを対象とする家事ロボット2へ送信する。コマンド送信部107は、コマンドを送信する対象の家事ロボット2に合わせて適切な通信方式で送信する。
[Command transmission section]
The command transmission unit 107 transmits the command created by the command creation unit 105 to the household robot 2 targeted. The command transmission unit 107 transmits the command by an appropriate communication method according to the housework robot 2 to which the command is transmitted.

<本実施形態の作用/効果>
本実施形態では、また、家事タスクは、家事タスクの種類を選択した上で、部屋画像上でスケッチを描くようにして入力する手法を採用している。このような入力方法は直感的に理解しやすい。また、個々の家事タスクをレイヤーとして管理し、家事タスク毎に編集や表示の設定可能としているため、ユーザは家事タスクの管理を容易に行える。また、家事タスクの表示においては、部屋画像に重ね合わせて家事の実行領域等を表す画像を表示している。ここで実行領域等を表す画像をタスクの種類毎に異なる色で表示しているため、それぞれの家事タスクを容易に把握することができる。さらに、レイヤーダイアログにおいても、レイヤー(家事タスク)ごとに、部屋画像と実行領域とを重ね合わせた画像のサムネイルを表示しており、この実行領域の画像もタスク種類に応じた色としているので、レイヤーダイアログを見てどのような家事タスクが既に入力されているのかを、ユーザは容易に判断することができる。
<Operation / Effect of this Embodiment>
In the present embodiment, the housework task employs a method of inputting a housework task by drawing a sketch on a room image after selecting the type of housework task. Such an input method is easy to understand intuitively. Further, since each housework task is managed as a layer and editing and display can be set for each housework task, the user can easily manage the housework task. In the housework task display, an image representing the housework execution area and the like is displayed superimposed on the room image. Here, since the image representing the execution area or the like is displayed in a different color for each type of task, each housework task can be easily grasped. Furthermore, in the layer dialog, for each layer (housework task), a thumbnail of the image in which the room image and the execution area are superimposed is displayed, and the image of this execution area is also colored according to the task type. The user can easily determine what housework tasks have already been entered by looking at the layer dialog.

また本実施形態では個々の家事タスクをレイヤーとして管理し、複数の家事タスクを入力することができる。ここで、複数の家事タスクを統一されたインタフェースで入力することができるので、ユーザにとって分かりやすいものとなる。   In this embodiment, each housework task is managed as a layer, and a plurality of housework tasks can be input. Here, since a plurality of housework tasks can be input with a unified interface, it is easy for the user to understand.

また、家事タスク入力の際にユーザが意識する必要があるのは家事タスクという論理的な単位であり個々のロボットを意識する必要がないので、家事ロボットに詳しくないユーザであっても不便を感じることはない。   Also, when entering housework tasks, the user needs to be aware of the logical unit of housework tasks, and it is not necessary to be aware of individual robots, so even users who are not familiar with housework robots feel inconvenience There is nothing.

<その他>
上記の説明は本発明を説明する上での例示であり、上記の説明のみに本発明を限定して解釈するべきではない。上記の実施例は、本発明の技術的思想の範囲内で種々の変形が可能である。たとえば、図面等で示したグラフィカルユーザインタフェースは、種々の変形が可能であることは容易に把握できるであろう。また、家事タスクの種類も、上記で例示
した分類に限られず種々の分類が可能である。また、家事ロボットも上記で例示した物に限られない。特に、上記の説明では車輪によって走行可能なロボットのみを紹介しているが、無限軌道や二足・多足によって移動するロボットや、移動手段を持たないロボットなどを家事実行のための装置として採用しても良い。近年、ホームオートメーションやインテリジェントハウスなどと呼ばれる、住宅の各種設備(照明、空調装置、扉、窓、セキュリティシステム等)を制御可能とするコンピュータシステムが研究されている。このようなシステムを家事ロボット(家事実行装置)と捉えることもできる。また、物体検知に専用のセンサを使用可能であることも容易に把握できるであろう。カメラだけではなく近距離電波通信を用いたRTLS(リアルタイムロケーションシステム)による物体位置認識などを利用することもできる。
<Others>
The above description is an example for explaining the present invention, and the present invention should not be construed to be limited to the above description. The above embodiments can be variously modified within the scope of the technical idea of the present invention. For example, it can be easily understood that the graphical user interface shown in the drawings and the like can be variously modified. Further, the types of housework tasks are not limited to the above-exemplified classifications, and various classifications are possible. Further, the housekeeping robot is not limited to the one exemplified above. In particular, in the above explanation, only robots that can be driven by wheels are introduced, but robots that move on an endless track, biped or multi-legged, or that do not have moving means are adopted as devices for housework execution. You may do it. In recent years, a computer system called home automation or intelligent house, which can control various facilities (lighting, air conditioner, door, window, security system, etc.) of a house has been studied. Such a system can also be regarded as a housework robot (housework execution device). It can also be easily understood that a dedicated sensor can be used for object detection. It is possible to use not only cameras but also object position recognition by RTLS (Real Time Location System) using short-range radio communication.

1 家事計画作成支援装置
2 家事ロボット
3 カメラ
40 部屋画像表示画面
50 ツール(家事タスク種類)選択画面
60 プロパティ選択画面
70 スケジューラ
80 レイヤーダイアログ
DESCRIPTION OF SYMBOLS 1 Housework plan creation support device 2 Housework robot 3 Camera 40 Room image display screen 50 Tool (housework task type) selection screen 60 Property selection screen 70 Scheduler 80 Layer dialog

Claims (14)

複数の家事実行装置に対する複数の家事タスクを含む家事計画の作成を支援する家事計画作成支援装置であって、
家事を行う対象となる場所の画像を表示する画像表示手段と、
実行すべき家事タスクの種類を、ユーザが入力可能な種類入力手段と、
前記家事タスクが行われる場所を、前記画像上でユーザが入力可能な場所入力手段と、
前記家事タスクが行われる時刻を、ユーザが入力可能な時刻入力手段と、
前記種類入力手段、前記場所入力手段、および前記時刻入力手段によって入力された家事タスクについての情報を記憶する家事タスク記憶手段と、
前記家事タスク記憶手段に記憶されている家事タスク毎に、該家事タスクが行われる場所を、画像レイヤーとして、前記家事を行う対象となる場所の画像に重ね合わせて表示可能な家事タスク表示手段と、
を備える家事計画作成支援装置。
A housekeeping plan creation support device that supports creation of a housework plan including a plurality of housework tasks for a plurality of housework execution devices,
Image display means for displaying an image of a place to be housed;
A type input means that allows the user to input the type of housework task to be executed;
A place input means that allows the user to input the place where the housework task is performed on the image;
A time input means by which a user can input the time at which the housework task is performed;
Housework task storage means for storing information about housework tasks input by the type input means, the place input means, and the time input means;
For each housework task stored in the housework task storage means, a housework task display means capable of displaying the place where the housework task is performed as an image layer superimposed on an image of the place where the housework is to be performed; ,
Housekeeping plan creation support device equipped with.
前記家事タスク記憶手段に記憶されている家事タスク毎に、該家事タスクの画像レイヤーを前記家事タスク表示手段によって表示するか否か選択可能である、
請求項1に記載の家事計画作成支援装置。
For each housework task stored in the housework task storage means, it is possible to select whether to display the housework task image layer by the housework task display means,
The housework plan creation support apparatus according to claim 1.
前記種類入力手段、前記場所入力手段、および前記時刻入力手段は、前記家事タスク記憶手段に記憶されている家事タスクの種類、場所および時刻を編集可能であり、
前記家事タスク記憶手段に複数の家事タスクが記憶されている場合に、いずれの家事タスクを編集するかを、前記画像レイヤーの選択によってユーザが指定可能である、
請求項1または2に記載の家事計画作成支援装置。
The type input means, the place input means, and the time input means can edit the type, place and time of the housework task stored in the housework task storage means,
When a plurality of housework tasks are stored in the housework task storage means, the user can specify which housework task to edit by selecting the image layer.
The housework plan creation support apparatus according to claim 1 or 2.
前記家事タスク表示手段は、家事タスクの種類に応じた色で、前記家事タスクが行われる場所を表示する、
請求項1〜3のいずれかに記載の家事計画作成支援装置。
The housework task display means displays a place where the housework task is performed in a color according to the type of housework task,
The housekeeping plan preparation assistance apparatus in any one of Claims 1-3.
前記家事タスク表示手段は、前記家事タスク記憶手段に記憶されている家事タスクについて、各家事タスクが行われる時刻をグラフィカルに表示する
請求項1〜4のいずれかに記載の家事計画作成支援装置。
The housework plan creation support device according to any one of claims 1 to 4, wherein the housework task display means graphically displays a time at which each housework task is performed for the housework tasks stored in the housework task storage means.
前記種類入力手段は、さらに、入力されるタスクに応じて定められる付加情報も入力可能である、
請求項1〜5のいずれかに記載の家事計画作成支援装置。
The type input means can also input additional information determined according to the input task.
The housekeeping plan preparation assistance apparatus in any one of Claims 1-5.
前記家事タスク記憶手段に記憶されている家事タスクの間でのコンフリクトの有無を判断する検証手段を、更に備える、
請求項1〜6のいずれかに記載の家事計画作成支援装置。
Verification means for judging whether or not there is a conflict between housework tasks stored in the housework task storage means;
The housework plan creation support apparatus according to any one of claims 1 to 6.
複数の家事タスクが実行されるべき時間的な前後関係を記憶する制約記憶手段を有し、
前記種類入力手段によってユーザに入力された家事タスクの種類が、前記制約記憶手段に記憶されている家事タスクの1つであり、前後関係が定められた他の家事タスクが前記家事タスク記憶手段に記憶されている場合には、前記時刻入力手段は、前記他の家事タスクが行われる時刻と前記制約記憶手段に記憶された前後関係とに基づいて、当該制約を満たす範囲内でユーザに入力された家事タスクが行われる時刻を入力可能とする、
請求項1〜7のいずれかに記載の家事計画作成支援装置。
A constraint storage means for storing a temporal context in which a plurality of housework tasks should be executed;
The type of housework task input to the user by the type input means is one of housework tasks stored in the constraint storage means, and other housework tasks whose context has been determined are stored in the housework task storage means. If stored, the time input means is input to the user within a range satisfying the restriction based on the time when the other housework task is performed and the context stored in the restriction storage means. Allows you to enter the time at which the housework task is performed,
The housework plan creation support apparatus according to any one of claims 1 to 7.
前記家事タスク記憶手段に記憶された家事タスクを、家事を実行する家事実行装置に対するコマンドに変換して、家事実行装置へ送信する送信手段を、更に備える、
請求項1〜8のいずれかに記載の家事計画作成支援装置。
The housework task stored in the housework task storage means is further converted to a command for a housework execution device for performing housework, and further includes a transmission means for transmitting to the housework execution device.
The housework plan preparation assistance apparatus in any one of Claims 1-8.
前記家事タスクは、複数の家事実行装置によって実行されるものであり、
前記送信手段は、家事タスクを複数の家事実行装置に対するコマンドに変換して、複数の家事実行装置へ送信する、
請求項9に記載の家事計画作成支援装置。
The housework task is executed by a plurality of housework execution devices,
The transmission means converts a housework task into a command for a plurality of housework execution devices, and transmits the command to a plurality of housework execution devices.
The housework plan creation support apparatus according to claim 9.
前記家事タスク記憶手段に記憶されている家事タスクの一覧を、選択可能に表示する家事タスク一覧表示手段を更に備え、  A housework task list display means for selectively displaying a list of housework tasks stored in the housework task storage means;
前記家事タスク一覧表示手段において選択された家事タスクが、前記家事タスク表示手段によって表示されると共に、前記種類入力手段、前記場所入力手段、および前記時刻入力手段による入力対象となる、  The housework task selected in the housework task list display means is displayed by the housework task display means and becomes an input target by the type input means, the place input means, and the time input means.
請求項1〜10のいずれかに記載の家事計画作成支援装置。  The housekeeping plan preparation assistance apparatus in any one of Claims 1-10.
前記家事タスク一覧表示手段は、前記家事タスク記憶手段に記憶されている家事タスク毎に、該家事タスクが行われる場所と前記家事を行う対象となる場所の画像を重ね合わせた画像のサムネイル画像を表示する、  The housework task list display means displays, for each housework task stored in the housework task storage means, a thumbnail image of an image obtained by superimposing an image of a place where the housework task is performed and a place where the housework is performed. indicate,
請求項11に記載の家事計画作成支援装置。  The housework plan creation support apparatus according to claim 11.
コンピュータが、
家事を行う対象となる場所の画像を表示する画像表示ステップと、
実行すべき家事タスクの種類の入力をユーザから受け付ける種類入力ステップと、
前記家事タスクが行われる場所の入力を、前記画像上でユーザから受け付ける場所入力ステップと、
前記家事タスクが行われる時刻の入力を、ユーザから受け付ける時刻入力ステップと、
前記種類入力ステップ、前記場所入力ステップ、および前記時刻入力ステップによって入力された家事タスクについての情報を記憶手段に記憶する家事タスク記憶ステップと、
前記記憶手段に記憶されている家事タスク毎に、該家事タスクが行われる場所を、画像レイヤーとして、前記家事を行う対象となる場所の画像に重ね合わせて表示する家事タスク表示ステップと、
を行う、家事計画作成支援方法。
Computer
An image display step for displaying an image of a place to be housed;
A type input step for accepting input from the user of the type of housework task to be executed;
A place input step of accepting an input of a place where the housework task is performed from a user on the image;
A time input step of accepting an input of a time at which the housework task is performed from a user;
A housework task storage step of storing in a storage means information about the housework task input by the type input step, the place input step, and the time input step;
For each housework task stored in the storage means, a housework task display step of displaying the place where the housework task is performed as an image layer superimposed on an image of the place to be housed,
A housework plan creation support method.
コンピュータに、
家事を行う対象となる場所の画像を表示する画像表示ステップと、
実行すべき家事タスクの種類の入力をユーザから受け付ける種類入力ステップと、
前記家事タスクが行われる場所の入力を、前記画像上でユーザから受け付ける場所入力ステップと、
前記家事タスクが行われる時刻の入力を、ユーザから受け付ける時刻入力ステップと、
前記種類入力ステップ、前記場所入力ステップ、および前記時刻入力ステップによって入力された家事タスクについての情報を記憶手段に記憶する家事タスク記憶ステップと、
前記記憶手段に記憶されている家事タスク毎に、該家事タスクが行われる場所を、画像レイヤーとして、前記家事を行う対象となる場所の画像に重ね合わせて表示する家事タスク表示ステップと、
を行わせる、家事計画作成支援プログラム。
On the computer,
An image display step for displaying an image of a place to be housed;
A type input step for accepting input from the user of the type of housework task to be executed;
A place input step of accepting an input of a place where the housework task is performed from a user on the image;
A time input step of accepting an input of a time at which the housework task is performed from a user;
A housework task storage step of storing in a storage means information about the housework task input by the type input step, the place input step, and the time input step;
For each housework task stored in the storage means, a housework task display step of displaying the place where the housework task is performed as an image layer superimposed on an image of the place to be housed,
A housekeeping plan creation support program.
JP2011050607A 2011-03-08 2011-03-08 Housework plan creation support device and housework plan creation support method Active JP5488930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011050607A JP5488930B2 (en) 2011-03-08 2011-03-08 Housework plan creation support device and housework plan creation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011050607A JP5488930B2 (en) 2011-03-08 2011-03-08 Housework plan creation support device and housework plan creation support method

Publications (2)

Publication Number Publication Date
JP2012190073A JP2012190073A (en) 2012-10-04
JP5488930B2 true JP5488930B2 (en) 2014-05-14

Family

ID=47083195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011050607A Active JP5488930B2 (en) 2011-03-08 2011-03-08 Housework plan creation support device and housework plan creation support method

Country Status (1)

Country Link
JP (1) JP5488930B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9375847B2 (en) 2013-01-18 2016-06-28 Irobot Corporation Environmental management systems including mobile robots and methods using same
CN109965778B (en) * 2013-01-18 2022-08-16 艾罗伯特公司 Environment management system including mobile robot and method of using the same
US9233472B2 (en) 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
US9690464B2 (en) * 2013-03-21 2017-06-27 Ntt Docomo, Inc. Terminal device and method for selecting object

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2074891A1 (en) * 1991-11-15 1993-05-16 Robert J. Torres Visual calendar
JPH064541A (en) * 1992-06-19 1994-01-14 Matsushita Electric Ind Co Ltd Project schedule supporting device
JPH11267074A (en) * 1998-03-25 1999-10-05 Sharp Corp Cleaning robot
JP2002041736A (en) * 2000-07-31 2002-02-08 Casio Comput Co Ltd Schedule display apparatus and storage medium stored with schedule display processing program
JP2002085305A (en) * 2000-09-12 2002-03-26 Toshiba Tec Corp Robot cleaner and robot cleaner system
KR100466321B1 (en) * 2002-10-31 2005-01-14 삼성광주전자 주식회사 Robot cleaner, system thereof and method for controlling the same
JP2004216528A (en) * 2003-01-16 2004-08-05 Matsushita Electric Works Ltd Personal service robot and method of creating work plan for the same
JP2004259116A (en) * 2003-02-27 2004-09-16 Matsushita Electric Ind Co Ltd Information processor and home life proposal method
JP4473849B2 (en) * 2003-06-02 2010-06-02 パナソニック株式会社 Article handling system and article handling server
JP4377744B2 (en) * 2004-05-13 2009-12-02 本田技研工業株式会社 Robot controller
JP2008217741A (en) * 2007-03-08 2008-09-18 Kenwood Corp Movement setting method for mobile apparatus, and movement setting system
JP5158808B2 (en) * 2009-02-23 2013-03-06 独立行政法人科学技術振興機構 Robot control system and robot control method

Also Published As

Publication number Publication date
JP2012190073A (en) 2012-10-04

Similar Documents

Publication Publication Date Title
US11175741B2 (en) Frameworks, devices and methods configured for enabling gesture-based interaction between a touch/gesture controlled display and other networked devices
JP6469706B2 (en) Modeling structures using depth sensors
JP5807686B2 (en) Image processing apparatus, image processing method, and program
US20180018826A1 (en) Method for controlling an object
JP6271960B2 (en) Information processing system
Ishii et al. Designing laser gesture interface for robot control
US10234953B1 (en) Cross-device interaction through user-demonstrated gestures
US9619124B2 (en) Frameworks, devices and methods configured for enabling gesture-based controlled display for facility information and content in respect of a multi-level facility
JP5488930B2 (en) Housework plan creation support device and housework plan creation support method
JP5102412B1 (en) Information terminal, information terminal control method, and program
JP5213183B2 (en) Robot control system and robot control program
JP5071873B2 (en) Task instruction system
CN110955421A (en) Method, system, electronic device, storage medium for robot programming
JP2014502755A5 (en)
US20210283773A1 (en) Robot cleaner, terminal device and control method therefor
KR101845046B1 (en) Element selection device, element selection method, and program
US8836802B2 (en) Method of defining camera scan movements using gestures
US20220350626A1 (en) Device navigational maps for connected devices
JP2021186670A (en) Contextual and user experience-based mobile robot scheduling and control
KR102557736B1 (en) Movable robot control apparatus through drawing and method of operation thereof
CN104142736B (en) Video monitoring equipment control method and device
JP7213924B2 (en) Robot remote control method and system
KR20220147120A (en) robot
EP3352421B1 (en) Device location management for automated electrical installation
KR102294578B1 (en) System for Searching Object for Robot Process Automation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140212

R150 Certificate of patent or registration of utility model

Ref document number: 5488930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250