JP5071873B2 - タスク指示システム - Google Patents

タスク指示システム Download PDF

Info

Publication number
JP5071873B2
JP5071873B2 JP2010159005A JP2010159005A JP5071873B2 JP 5071873 B2 JP5071873 B2 JP 5071873B2 JP 2010159005 A JP2010159005 A JP 2010159005A JP 2010159005 A JP2010159005 A JP 2010159005A JP 5071873 B2 JP5071873 B2 JP 5071873B2
Authority
JP
Japan
Prior art keywords
task
image
user
input
home appliance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010159005A
Other languages
English (en)
Other versions
JP2012022457A (ja
Inventor
直 橋本
フォン リチャード
昌彦 稲見
健夫 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2010159005A priority Critical patent/JP5071873B2/ja
Publication of JP2012022457A publication Critical patent/JP2012022457A/ja
Application granted granted Critical
Publication of JP5071873B2 publication Critical patent/JP5071873B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、ロボットや家電機器に実行させるタスクを指示する技術に関する。
コンピュータ制御による一般家庭向けのロボットが市場に登場し、例えば掃除ロボット等は多くの家庭で利用されている。また、料理や衣料の折り畳み等の様々な家事を行うロボットの研究も進められている。
家事は、物の移動や家電機器の操作といった異なる複数のタスクのシーケンスや、異なる種類の食器をそれぞれ別の棚に収納するといった同種のタスクの集合として捉えることができる。このような家事を構成するタスクの実行手順や対象物(家電機器や食器等)は、個々の家庭環境によって千差万別である。従って、家事を行うロボットの動作は、ユーザが自分の使用環境に適合するようカスタマイズできることが好ましい。そして、ロボットへの指示には、ユーザの好みのタスクの実行手順や、ユーザ環境における個別具体的な対象物の情報を正確に反映させることができることが望ましい。また、家庭環境の変化によってタスクの実行手順や対象物は容易に変化するので、ロボットへの指示内容の確認や編集を簡単に行うことができることが望ましい。
ユーザがロボットに独自の指示を与える方法は種々提案されている。例えばプログラミング言語を用いる方法が典型的であるが、この方法は習得が難しく、指示内容の確認や編集も容易ではない。アニメーションやアイコンを用いる視覚的なプログラミング環境(例えば、非特許文献1)もあるが、一般的なプログラミングの場合と同様の抽象化の作業が必要であり、実際の対象物の情報をそのまま用いてロボットへの指示を行うことはできない。
自然言語を用いてロボットに指示を与える方法もあるが、ユーザの好みのタスクの実行手順やユーザ環境における個別具体的な対象物といったユーザに固有の情報を自然言語で曖昧さなく表現し伝達することは人間同士のコミュニケーションにおいてさえ容易ではなく、正確な指示を自然言語でロボットに与えることは困難である。人間によるデモンストレーションや写真を用いてロボットに指示を与える方法があるが(例えば、非特許文献2)、複数のタスクのシーケンスを指示することについて考慮されていない。強化学習により複数のタスクのシーケンスをロボットに実行させる方法が提案されているが(例えば、非特許文献3)、この方法では使用環境が変化した場合のロボットの挙動が不明であり、またユーザが指示内容の確認や編集を行うことも容易ではない。
Leifer, L. Van der Loos, M. Lees, D. 1991. Visual language programming: for robot command/control in unstructured environments. In Conf. on Advanced Robotics, 31-36. Hashimoto, S., Ostanin, A., Inami M, and Igarashi, T. Photograph-Based Interaction for Teaching Object Delivery Tasks to Robots. In HRI 2010 Late-Breaking, 153-154. Calinon, S., Guenter, F., and Billard, A. 2007. On Learning, Representing, and Generalizing a Task in a Humanoid Robot. In IEEE Trans. on Systems, Man, and Cybernetics, v. 37, 286-298.
本発明は、ロボットに対して、ユーザの使用環境における個別具体的な対象物の情報を用いて、連続する複数のタスクからなるシーケンシャルタスクを指示することができる技術を提供することを目的とする。また、ロボットに実行させるタスクの内容確認及び編集を容易に行うことができる技術を提供することを目的とする。
上記の課題を解決するために、本発明は、ロボット及び家電機器にタスクを指示するタスク指示システムであって、
撮影部と、
撮影部によって撮影された画像を表示する表示部と、
表示部に表示された画像に写っている物体を認識する認識部と、
一のタスクの内容をユーザに入力させるタスク入力部であって、
タスクに関係する物体を含む画像を撮影部により撮影させるステップと、
撮影された画像において認識部が認識した物体のうちタスクに関係する物体又は家電機器の画像を選択させるステップと、
該選択した物体に対するロボット若しくは家電機器の動作又は該選択した家電機器の動作を入力させるステップと、
を含むタスク入力手続をユーザに行わせて一のタスクの内容を入力させるとともに、一のタスクのタスク入力手続が完了すると次のタスクのタスク入力手続を待機する状態となるタスク入力部と、
タスク入力部において入力されたタスクの内容を表すテキストを生成し、生成したテキストと、タスク入力手続においてユーザが選択した物体又は家電機器が写っている画像と、を含む画像である注釈付き画像を入力されたタスクに関連付けて生成する注釈付き画像生成部と、
注釈付き画像に関連付けられたタスクをロボット又は家電機器に実行させるための制御命令を生成しロボット又は家電機器に送出する制御部と、
を有する。
このタスク指示システムによれば、ユーザは、ユーザ環境における個別具体的な対象物を撮影し、撮影した実際の対象物の画像を選択するという直感的な操作によってロボットや家電機器に実行させるタスクを入力することができる。従って、ユーザ環境に固有の個別具体的な情報を用いてロボットに実行させるタスクを指示することができる。また、複数の一のタスクの入力手続が完了すると続いて次のタスクの入力手続を行うことができるので、複数の連続的なタスクからなるシーケンシャルタスクを簡単に指示することができる。
また、注釈付き画像には、タスクの内容を表すテキスト及びタスクの対象物体が写った画像が含まれるので、ユーザは、注釈付き画像に基づいて、タスクの内容を後からでも容易に確認することができる。
本発明のタスク指示システムにおいて、注釈付き画像生成部は、タスク入力手続においてユーザが選択した物体又は家電機器の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて、所定の規則に従って注釈付き画像のためのテキストを生成することができる。
このようにして生成されるテキストにより、ユーザは、タスクの内容及び対象物体についての情報を曖昧さ無く容易に把握することが可能である。
本発明のタスク指示システムにおいて、タスク入力部において複数のタスクのタスク入力手続が行われた場合、制御部は、該複数のタスクをタスク入力部においてタスク入力手続が行われた順番で順次ロボット又は家電機器に実行させるように制御命令の生成及び送出を行うことができる。
これにより、ロボットに実行させたい順番で複数のタスクを入力していくことによってシーケンシャルタスクを指示することができ、直感的かつ容易にシーケンシャルタスクの指示が可能になる。
本発明のタスク指示システムにおいて、表示部は、表示される画像の選択をユーザがタッチ方式のポインティング操作によって行うことができるタッチパネルディスプレイを有していても良い。
これによりユーザは直感的な操作でタスク入力を行うことが可能になる。
本発明のタスク指示システムは、
撮影部と、表示部と、認識部と、タスク入力部と、注釈付き画像生成部と、を有するタスク入力装置と、
制御部を有し、タスク入力装置、ロボット及び家電機器と通信可能に構成された制御装置と、
を有する構成とすることができる。
この場合、ロボット及び家電機器へのタスクの実行指令は、タスク入力装置とは別体の制御装置によって行われるので、ロボット及び家電機器にタスクを実行させる場合にタスク入力装置は不要になる。制御装置がロボットや家電機器にタスクの実行指令を送信する方法は、制御装置を操作する方法の他、壁のスイッチや他の家電機器の動作状態等をトリガーとしてタスクの実行が開始されるような構成とすることもでき、タスクを実行させる方法の自由度が増す。
本発明のタスク指示システムにおいて、タスク入力部は、動作対象を必要としない家電機器に実行させるタスクのタスク入力手続において、
タスクを実行させる家電機器を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した物体のうち動作を指示する家電機器の画像をユーザに選択させるステップと、
選択した家電機器に実行させる動作を入力させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した家電機器の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて注釈付き画像のためのテキストを生成することができる。
動作を入力させるステップでは、例えば、指示可能な動作リストを提示してそのうちの一の動作を選択させたり、所望の数値をユーザに入力させたりすることができる。動作対象を必要としない家電機器とは、対象物体の状態に影響を与えない家電機器であり、ランプやラジオ、時計等を例示できる。
本発明のタスク指示システムにおいて、タスク入力部は、動作対象を必要とする家電機器に実行させるタスクのタスク入力手続において、
タスクを実行させる家電機器及びその家電機器の動作対象となり得る物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した物体のうち動作を指示する家電機器及びその
家電機器の動作対象となる物体の画像をユーザに選択させるステップと、
選択した家電機器に実行させる動作を入力させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した家電機器の名称を表すテキストと、その家電機器の動作対象となる物体の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて注釈付き画像のためのテキストを生成することができる。
動作対象を必要とする家電機器とは、対象物体の状態に影響を与える家電機器であり、例えばカップに湯を注ぐ湯沸かし器、カップにコーヒーパウダーを投入するディスペンサー等を例示できる。これらの家電機器が正しく動作するには、適切な動作対象が存在することが必要である。例えばスプーンが動作対象の場合、湯沸かし器の動作は適切とは言えない。撮影させるステップにおいて、家電機器及びその動作対象となり得る物体が写っていない場合には、次の選択させるステップに移行することを許容しないようにすれば、不適切な動作をするタスクが作成されることを抑制できる。
本発明のタスク指示システムにおいて、タスク入力部は、ロボットに実行させる物体の移動タスクのタスク入力手続において、
移動対象の物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した移動可能な物体のうちロボットに移動させる物体の画像を選択させるステップと、
移動対象の物体及び移動先の物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識した移動先として指定可能な物体のうちロボットによる移動先の物体の画像を選択させるステップと、
をユーザに行わせ、
注釈付き画像生成部は、タスク入力手続においてユーザが選択した移動対象の物体の名称を表すテキストと、移動先の物体の名称を表すテキストと、「移動する」という意味のテキストと、を用いて注釈付き画像のためのテキストを生成することができる。
移動タスクの指示においても、不適切な移動タスクが指示されることを抑制するために、移動先を選択させるステップにおいて不適切な移動先が選択されることを禁止するような構成としても良い。例えば、移動対象物体がスプーンの場合、移動先の物体として湯沸かし器は不適切であるから、選択させるステップにおいて湯沸かし器を選択禁止にすると良い。
本発明のタスク指示システムにおいて、タスク入力部は、ロボット又は家電機器に所定のタスクの実行を開始させるトリガーをユーザに設定させるために、
トリガーとなる物体を含む画像を撮影させるステップと、
撮影された画像において認識部が認識したトリガーとして設定可能な物体のうちトリガーに設定する物体の画像を選択させるステップと、
ロボット又は家電機器に所定のタスクの実行を開始させるために選択した物体に関して成立すべき条件を入力させるステップと、
を含むトリガー設定手続をユーザに行わせることができ、
注釈付き画像生成部は、トリガー設定手続においてユーザが選択した物体の名称を表すテキストと、ユーザが入力した条件の成立を意味するテキストと、「待つ」という意味のテキストと、を用い注釈付き画像のためのテキストを生成し、生成したテキストと、トリガー設定手続においてユーザが選択した物体が写っている画像と、を含む画像を注釈付き画像としてトリガー設定に関連付けて生成し、
制御部は、注釈付き画像に関連付けられたトリガー設定に従ってロボット又は家電機器を制御するための制御命令を生成しロボット又は家電機器に送出することができる。
タスクを実行させるために必ず中央制御装置や入力装置の操作が必要な構成では、ユーザの利便性が良くない。トリガー物体を設定することにより、多様な方法でタスクを実行させることが可能になる。上記構成によれば、このようなトリガー物体の設定も、実際のトリガー物体の画像を撮影しながら直感的な方法で行うことができる。また、トリガー設定に対応する注釈付き画像も生成されるので、ユーザはトリガー設定の内容を後から容易に確認することができる。
本発明のタスク指示システムにおいて、タスク入力部は、ロボット又は家電機器にタスクの実行を待機させる時間をユーザに設定させるために、待機時間を入力させるステップを含む待機時間設定手続をユーザに行わせることができ、
注釈付き画像生成部は、待機時間設定手続においてユーザが入力した待機時間の経過を待つ、という意味のテキストを生成し、生成したテキストを含む画像を注釈付き画像として待機時間設定に関連付けて生成し、
制御部は、注釈付き画像に関連付けられた待機時間設定に従ってロボット又は家電機器を制御するための制御命令を生成しロボット又は家電機器に送出することができる。
この構成によれば、待機時間の設定を行う場合には撮影を行う必要はない。つまり、待機時間を指示するために例えば時計の画像を撮影するといった手間を省くことができ、利便性が高い。
本発明のタスク指示システムにおいて、タスク入力部は、既存の注釈付き画像に対応するタスクの内容を、タスク入力手続、トリガー設定手続又は待機時間設定手続をユーザに再度行わせることにより編集させることができる。
これにより、ユーザは、タスク入力時と同様の直感的な操作により、既存のタスクの内容を編集することができる。編集時にも、タスク入力時と同様、ユーザの使用環境に固有の個別具体的な対象物の情報を曖昧さ無く簡単にタスクの内容に反映させることができる。
本発明において、認識部、タスク入力部、注釈付き画像生成部及び制御部は、それぞれ専用のハードウェアとして捉えることができる。また、CPUが実行することによって各機能部を実現するプログラムとして捉えることができる。
本発明によれば、ロボットに対して、ユーザの使用環境における個別具体的な対象物の情報を用いて、連続する複数のタスクからなるシーケンシャルタスクを指示することができる。また、ロボットに実行させるタスクの内容確認及び編集を容易に行うことができる。
本発明に係るタスク指示システムの一実施形態を含む家事システムの構成を示す図である。 家事システム及び入力装置の機能ブロック図である。 家事システムに備わるデータベースの一例である。 入力装置のライブビュー画像に表示されるアイコンと物体との対応関係を示す図である。 入力装置の動作状態の遷移図である。 入力装置のタスク作成モードにおいて、ユーザによるタスク作成プロセスの開始を待機する入力待機画面のGUIの表示例である。 図7(A)は、移動タスク入力画面のGUIの表示例である。図7(B)は、移動先指示画面のGUIの表示例である。図7(C)は、移動タスクを表す注釈付き画像の表示例である。 図8(A)は、家電機器動作入力画面のGUIの表示例である。図8(B)は、パラメータ設定画面のGUIの表示例である。図8(C)は、家電機器動作タスクを表す注釈付き画像の表示例である。 図9(A)は、待機時間設定画面のGUIの表示例である。図9(B)は、待機時間を表す注釈付き画像の表示例である。 図10(A)は、トリガー設定画面のGUIの表示例である。図10(B)は、トリガー設定を表す注釈付き画像の表示例である。 タスク内容確認モードにおいて、既存のタスクの内容を表示するタスク内容表示画面のGUIの表示例である。 入力装置によってユーザがタスクの内容を入力するプロセスを表したフローチャートである。 「コーヒーを入れる」タスクを構成するタスクを示す図である。 図13の「コーヒーを入れる」タスクを入力装置で入力した場合に得られる注釈付き画像の例である。
以下、本発明の実施の形態について、詳細に説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは、発明の技術的範囲をそれらのみに限定する趣旨のものではない。
<家事システム>
図1は本発明に係るタスク指示システムの一実施形態を含む家事システムの構成を示す図である。この家事システムは部屋11に構築され、天井カメラ1、ロボット2、湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5、ランプ6、目覚まし時計7、テーブル8、入力装置9、コンピュータ10、カップ12を含む。湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5、ランプ6及び目覚まし時計7は本発明における「家電機器」の例であり、それぞれコンピュータ10から無線又は有線により送信される制御命令によってその動作を制御される。カップ12は本発明における「移動可能な物体」の例である。
天井カメラ1は部屋11の天井に設置されたCCD又はCMOS等の撮像素子を備える小型カメラであり、部屋11の全域を撮影することができる。なお、部屋11内の家電機器や物体を撮影する装置は、部屋11内の家電機器や物体のうち家事システムを構成するものを画角におさめることが可能な撮影装置であればどのようなものでもよく、天井カメラに限定されない。
ロボット2、湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5、ランプ6、目覚まし時計7、テーブル8及びカップ12には、天井カメラ1から撮影可能な位置にそれぞれマーカー23、33、43、53、63、73、83及び123が取り付けられている。各マーカーはこれらの物体を識別可能なユニークな図形である。マーカーと物体との対応関係はコンピュータ10のデータベースに登録されており、コンピュータ10は天井カメラ1によって撮影されたマーカーの画像に基づいて各物体の認識及び位置の追跡を行うことができる。なお、物体の認識方法及び位置の追跡方法は、このようなマーカーを用いた画像認識に限らず、どのような認識技術を用いることもできる。
ロボット2は、テーブル8上においてカップ12を移動させるタスクを実行するロボットである。ロボット2は、2つの車輪及び駆動モータからなる移動機構21と鉤爪状のハ
ンド22を備える自走式ロボットである。ロボット2は、ハンド22でカップ12を掴んで持ち上げ、移動機構21によって移動し、ハンド22で掴んでいるカップ12を降ろして放すことにより、カップ12を移動させることができる。
ロボット2は、コンピュータ10から無線又は有線により送信される制御命令によってその動作を制御される。ロボット2には、コンピュータ10からの制御命令に基づいて移動機構21及びハンド22の動作を制御するコントローラ(不図示)を備える。移動機構21の「前進」「後進」「右回転」「左回転」、ハンド22の「掴む」「放す」「持ち上げる」「降ろす」等の動作は、コントローラ内に予めプログラムされており、コンピュータ10から各動作に対応する制御命令を送出することでロボット2の動作を制御することができる。ロボット2の位置は天井カメラ1の撮影画像に基づいてコンピュータ10により追跡され、テーブル8の境界の情報等に基づいてテーブル8から落下しないように制御されるが、ロボット2にオンボードセンサを備え、ロボット2自ら移動可能領域の判断を行うようにしても良い。
湯沸かし器3は、コンピュータ10からの制御命令により、「湯を注ぐ」「加熱する」「停止する」等の動作を行わせることができる。「湯を注ぐ」動作については、「1秒間」「2秒間」「3秒間」「注ぎ続ける」等の注ぐ量の制御も可能である。なお、湯沸かし器3は、押下することによって任意の量のお湯を注ぐことが可能に構成された押しボタン等を備え、人や押しボタンを押すことが可能な機構を備えたロボットによる押しボタンの押下により湯を注ぐことが可能に構成されていても良い。この場合、湯沸かし器3によって湯を注ぐ動作は、コンピュータ10からロボットへ送信される制御命令によって制御することもできる。
コーヒーパウダーディスペンサー4は、コンピュータ10からの制御命令により、「コーヒーパウダーを入れる」等の動作を行わせることができる。「コーヒーパウダーを入れる」動作については、「1秒間」「2秒間」「3秒間」等の入れる量の制御も可能である。人の操作により任意の量のコーヒーパウダーを入れることが可能な構成を有していても良い点は湯沸かし器3と同様である。
錠剤ディスペンサー5は、コンピュータ10からの制御命令により、「小サイズの錠剤を入れる」「中サイズの錠剤を入れる」「大サイズの錠剤を入れる」等の動作を行わせることができる。人の操作により任意のサイズの錠剤を入れることが可能な構成を有していても良い点は湯沸かし器3等と同様である。
湯沸かし器3、コーヒーパウダーディスペンサー4及び錠剤ディスペンサー5は、それぞれ本発明における「動作対象を必要とする家電機器」の例である。すなわち、湯沸かし器3はカップ12等の対象物における湯の量を変更し、コーヒーパウダーディスペンサー4はカップ12等の対象物におけるコーヒーパウダーの量を変更し、錠剤ディスペンサー5は小皿(不図示)等の対象物における錠剤の量を変更することにより、対象物の状態に変化を生じさせる。
ランプ6は、コンピュータ10からの制御命令により、「点灯」「消灯」等の動作を行わせることができる。また、「点灯」「消灯」等の状態をコンピュータ10により検出することができる。目覚まし時計7は、コンピュータ10からの制御命令により、鳴動時刻や鳴動方法等の動作を制御できる。ランプ6及び目覚まし時計7は、本発明における「動作対象を必要としない家電機器」の例である。すなわち、ランプ6の「点灯」や「消灯」等の動作はランプ6のみで完結し、目覚まし時計7の「鳴動」等の動作は目覚まし時計7のみで完結し、何らかの対象物の状態に変化を生じさせることはない。
以上、家電機器として据え置き型の一般的な家電機器を例示したが、ロボット2のような移行機構やアーム等を備えより複雑高度な動作を行う自動機械も本発明の家電機器となり得る。本発明におけるロボット及び家電機器はいずれもコンピュータ10からの制御命令に従ってユーザ不在下で自動的に所定の動作を実行する自動機械であり、広義のロボットとして捉えることもできる。
カップ12は、ロボット2によってその位置を移動可能な物体であり、本発明における「移動可能な物体」の例である。また、湯沸かし器3やコーヒーパウダーディスペンサー4の動作により湯やコーヒーパウダーの量といった状態が変化するため、湯沸かし器3やコーヒーパウダーディスペンサー4の動作対象となり得る物体である。
テーブル8には、ロボット2、湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5及びカップ12が配置されている。テーブル8がロボット2の行動可能範囲として定められている。テーブル8にテーブル8の領域の境界を識別するためのマーカーが取り付け、ロボット2がテーブル8から落ちないような制御を行うようにしても良い。
入力装置9は、タッチパネルディスプレイ91とカメラ92を備えたハンドヘルドデバイスである。ユーザが入力装置9において所定の操作を行うことにより、上述したロボット2及び家電機器(湯沸かし器3、コーヒーパウダーディスペンサー4、錠剤ディスペンサー5、ランプ6及び目覚まし時計7)に実行させるタスクの内容を入力することができる。入力装置9に入力されたタスクは、無線又は有線によりコンピュータ10に送信され、コンピュータ10においてロボット2や家電機器に送信するための制御命令に変換され、ロボット2や家電機器に送信される。
<入力装置>
図2は、家事システム及び入力装置9の機能ブロック図である。図1で説明した構成要素と同等の構成要素には同じ符号及び名称を用いる。図2に示すように、入力装置9は、タッチパネルディスプレイ91(表示部)、カメラ92(撮影部)、画像取込部93、物体認識部94(認識部)、データベース95、GUI制御部96、注釈付き画像生成部97(注釈付き画像生成部)、表示制御部98及びタスク入力部99(タスク入力部)を有する。
カメラ92は、CCD又はCMOS等の撮像素子を備え、撮影した画像を画像取込部93に出力する。画像取込部93はカメラ92によって撮影された画像を取り込み、物体認識部94と表示制御部98に出力する。
物体認識部94は、カメラ92によって撮影された画像に写っている物体を各物体に取り付けられている上述のマーカーに基づいて認識する。マーカーの図形と物体との対応関係の情報はデータベース95に格納されている。なお、入力装置9のカメラ92によって撮影された画像から物体認識部94が物体を認識する方法と、家事システムの天井カメラ1によって撮影された画像からコンピュータ10が物体を認識する方法とは、同一であっても異なっていても良い。家事システムと入力装置とで同一の認識技術を使用する場合には、データベースを入力装置9又はコンピュータ10のいずれか一方において一元管理し、他方は無線又は有線による通信によって一方のデータベースにアクセスするようにしても良い。画像に写っている物体の認識方法としてはどのような技術を用いることもできる。物体認識部94は、認識結果の情報をGUI制御部96に出力する。
GUI制御部96は、物体認識部94により認識された物体の名称、物体の種類、ユーザによるタスク内容の入力時に指示可能な動作リスト等の情報をデータベース95から取
得し、物体の名称を表すテキスト、物体の種類に応じたアイコン、ユーザがタスクの内容の入力を行うためのGUI(グラフィカル・ユーザ・インターフェース)等を表示制御部98に出力する。ユーザによるタスクの入力の詳細については後述する。
データベース95には、この家電システムに登録されている物体の情報が格納されている。図3にデータベースの例を示す。図3に例示するデータベースには、物体毎に、物体の名称、物体の種類、タスク内容の入力時に指示可能な動作のリスト及び動作対象となり得る物体の情報が格納されている。物体の種類は、上述した移動可能な物体、動作対象を必要とする家電機器、動作対象を必要としない家電機器の他、場所という種類もある。ここで、「場所」とは、物体を移動させるタスクにおいて移動先として指定可能な物体であり、テーブルや台所のカウンター等がある。データベース95には、テーブルや台所カウンターにおいてロボット2による物体の移動先として指定可能な範囲(境界)に関する情報も格納されている。
家電機器に関しては、上述した家電機器毎に定められている動作のリストの他、特に動作対象を必要とする家電機器に関しては、動作対象として指定可能な物体の情報も格納されている。例えば、湯沸かし器の動作対象としては、カップ及びマグカップが登録されているが、皿やスプーンは登録されていない。
図4に物体の種類とアイコンの対応関係の例を示す。GUI制御部96は、データベース95に問い合わせて取得した物体の種類に応じて、図4に示すアイコンを表示制御部98に出力する。
「トリガー」のアイコンは、トリガー物体に表示されるアイコンである。トリガー物体とは、所定の条件を満たした場合にロボットや家電機器がタスクの実行を開始するよう設定できる物体である。トリガー物体は、図1には図示しないが、例えば壁のスイッチ等である。壁のスイッチをトリガー物体として設定し、「スイッチが押された」という条件をロボットや家電機器がタスクを実行開始する条件として設定することにより、ユーザは、壁のスイッチを押すことによって、タスクの実行を開始させる指令をロボットや家電機器に送信することができる。つまり、タスクの実行を指示する際に、ユーザは、コンピュータ10や入力装置9を操作する代わりに、トリガー物体に対してタスク開始条件を満たすような操作をすれば良い。また、目覚まし時計7とトリガー物体とし、「鳴動する」という条件を満たした場合に、ロボットや家電機器に「コーヒーを入れる」というタスクを実行開始させるよう設定すれば、目覚まし時計7が鳴ると自動的にコーヒーを入れるタスクの実行が開始されるようにすることもできる。
「禁止」のアイコンは、後述するユーザによるタスクの入力時に、例えば物体の移動タスクの入力中に移動先として指定不可能な物体や、家電機器の動作タスクの入力中に動作対象として指定不可能な物体に表示されるアイコンである。
図2に戻り、表示制御部98は、画像取込部93から出力されるカメラ92による撮影画像に対して適宜拡大縮小処理等の画像処理を行うとともに、画像処理後の撮影画像における物体認識部94により認識された物体が写っている位置にGUI制御部96から出力されるテキストやアイコンがオーバーレイ表示されるよう合成する。また、ユーザによるタスク入力時には、画像処理後の撮影画像とタスク入力のためのGUIとを合成する。そして、最終的にタッチパネルディスプレイ91に表示させるための表示画像を生成し、タッチパネルディスプレイ91に出力する。表示制御部98は、カメラ92が現在撮影している画像をリアルタイムに映像としてタッチパネルディスプレイ91に出力するライブビュー表示を行うことが可能である。また、ユーザが指定した瞬間における撮影画像を静止画像としてタッチパネルディスプレイ91に出力することも可能である。
タッチパネルディスプレイ91は、表示制御部98から出力される表示画像を表示する表示装置と、表示装置に重ねて設けられるタッチパネルと、を備える。タッチパネルは静電容量方式、抵抗膜方式又はマトリクス・スイッチ方式等の種々の方式のものを利用できる。また、入力インターフェースはタッチパネルの代わりにキーボードやポインティングデバイスを用いることもできるし、またこれらの組み合わせでも良い。
タスク入力部99は、ロボット2や家電機器に指示するタスクの内容をユーザに入力させる処理を行う。ユーザによる入力はタッチパネルディスプレイ91を介して行われる。ユーザは、タッチパネルディスプレイ91にライブビュー表示される実際の物体や家電機器の画像を見ながら、タスクに関係する物体や家電機器の画像を撮影し、タッチ操作及びGUIを介してタスクの内容を入力する。タスク入力部99がユーザに行わせるタスク入力手続の詳細については後述する。
注釈付き画像生成部97は、タスク入力部99において入力されたタスクの内容を表すテキストを生成し、生成したテキストと、タスク入力手続においてユーザが撮影した、タスクに関係する物体や家電機器が写っている写真と、を組み合わせた注釈付き画像を生成する。注釈付き画像には、GUI制御部96が出力するアイコンや矢印等の図形も含まれる。注釈付き画像の詳細については後述する。
注釈付き画像は、タスクに関連付けて入力装置9の記憶装置に保存される。注釈付き画像生成部97は、生成した注釈付き画像を無線又は有線の通信によって家事システムのコンピュータ10に送信する。コンピュータ10は、注釈付き画像生成部97から取得した注釈付き画像に関連付けられたタスクをロボット2や家電機器に実行させるための制御命令を生成する制御部101を備える。制御部101は、その制御命令を無線又は有線の通信によりロボット2や家電機器に送信する。これにより、注釈付き画像に対応するタスクが実行される。
なお、注釈付き画像からロボット2や家電機器に送信するための制御命令を生成する制御部101は、コンピュータ10ではなく入力装置9に備わっていても良い。そして、入力装置9は制御命令の情報を無線又は有線によりコンピュータ10に送信し、コンピュータ10が適切なタイミングでその制御命令をロボット2や家電機器に送信するようにしても良い。或いは、入力装置9自体がロボット2や家電機器に制御命令を送信する機能を有し、コンピュータ10を介さずに直接制御命令をロボット2や家電機器に無線又は有線により送信する構成でも良い。無線の通信方式としてはBluetoothや赤外線を例示できる。
入力装置9の機能ブロックのうち、物体認識部94、データベース95、GUI制御部96、表示制御部98及び注釈付き画像生成部97の機能部は、それぞれ専用のハードウェアにより実装しても良いし、入力装置9のCPUが記憶装置に格納されたプログラムをロードし実行することによって実現することもできる。これらの機能を、カメラ及びタッチパネルディスプレイを有する既存のPCやスマートフォン等のデバイスにおいて動作するアプリケーションプログラムとして設計することもできる。この場合、アプリケーションプログラムがそれらのデバイスにおいて動作することによって、そのデバイスが入力装置9として機能することになる。また、画像取込部93が、天井カメラ1や別途部屋11に備えられるウェブカメラや監視カメラのような固定カメラによる撮影画像を、有線又は無線の通信によりコンピュータ10や外部サーバを経由して取得するよう構成することにより、カメラを備えないデバイスを入力装置9として機能させることもできる。
<タスク入力方法>
入力装置9によるタスク内容の入力方法について図5〜図12を参照して説明する。
図5は、入力装置9の動作状態の遷移図である。図6から図11は、入力装置9のタッチパネルディスプレイ91に表示されるGUIの例である。図12は、ユーザが入力装置9を用いてタスクの内容を入力するプロセスを表すフローチャートである。
図5に示すように、入力装置9の状態には大きく分けてタスク作成モードとタスク内容確認モードとの2つの状態がある。タスク作成モードでは、ユーザは新たなタスクを作成することができる。タスク内容確認モードでは、ユーザは既存のタスクの内容確認及び編集をすることができる。タスク作成モードでは、まず、ユーザによるタスク作成プロセスの開始を待機する入力待機画面(図6)が表示され、その中のライブビュー画像に表示される各種の物体のアイコンにタッチすると、タッチした物体に関するタスクを入力するための画面に遷移する。遷移する画面はタッチした物体に応じて異なる。移動可能物体のアイコンにタッチした場合には、移動タスク入力画面(図7)に遷移する。家電機器のアイコンにタッチした場合には、家電機器動作入力画面(図8)に遷移する。トリガー物体のアイコンにタッチした場合には、トリガー設定画面(図10)に遷移する。待機時間設定ボタンにタッチした場合には、待機時間設定画面(図9)に遷移する。タスク内容確認モードでは、タスク内容を表示する画面(図11)が表示される。入力待機画面からタスク内容表示画面へは、既存のタスクを表すサムネイル画像にタッチすることによって切り替わる。タスク内容表示画面から入力待機画面へは、ライブビューボタンにタッチすることによって切り替わる。
<入力待機画面>
図6は、タスク作成モードにおいて、ユーザによるタスク作成プロセスの開始を待機する入力待機画面のGUIの表示例である。入力待機画面のGUIには、サムネイル画像601及び602、ライブビューボタン603、待機時間設定ボタン604、ライブビュー画像605が表示される。
サムネイル画像601及び602は、それぞれのサムネイル画像に対応する既存のタスクの内容確認を行うタスク内容確認モードに移行するためのGUIである。なお、既存のタスクが存在しない場合は、サムネイル画像は表示されない。
ライブビューボタン603は、現在のモードがタスク作成モードであることを示すために強調表示される。
待機時間設定ボタン604は、ロボットや家電機器にタスクの実行を待機させる時間を入力する待機時間設定画面(図9)に遷移するためのGUIである。
ライブビュー画像605には、カメラ92による撮影画像がリアルタイムに表示される。さらに、撮影画像における、物体認識部94によって認識された物体の画像には、その物体の名称を表すテキスト及びその物体の種類を表すアイコンがオーバーレイ表示される。ユーザがいずれかの物体のアイコンにタッチして選択すると、選択された物体の種類に応じて、選択された物体に関するタスクを入力する画面に遷移する。
ユーザがライブビュー画像内の移動可能物体のアイコンにタッチすると、移動可能物体がタスク入力対象として選択され、選択した移動可能物体をロボット2により移動させる移動タスクを入力するための移動タスク入力画面(図7)に遷移する。
ユーザがライブビュー画像内の家電機器のアイコンにタッチすると、家電機器がタスク入力対象として選択され、選択した家電機器に実行させる動作を入力するための家電機器
動作入力画面(図8)に遷移する。
ユーザがライブビュー画像内のトリガー物体のアイコンにタッチすると、トリガー物体がトリガー設定対象として選択され、ロボットや家電機器がタスクの実行を開始するためにトリガー物体が満たすべき条件を入力するためのトリガー設定画面(図10)に遷移する。図6の表示例ではトリガー物体及びアイコンは示していないが、カメラ92による撮影画像の中にトリガー物体が写れば、移動可能物体や家電機器と同様にトリガー物体のアイコン及びトリガー物体の名称がトリガー物体の画像にオーバーレイ表示される。
図6に例示するライブビュー画像605には、湯沸かし器3及びカップ12が写っており、物体認識部94の認識結果に従って、湯沸かし器3の画像には「家電機器」を表すアイコン662及び「湯沸かし器」という名称がオーバーレイ表示され、カップ12の画像には「移動可能な物体」表すアイコン672及び「カップ」という名称がオーバーレイ表示されている。
<移動タスク入力画面>
図7(A)は、移動タスク入力画面のGUIの表示例である。移動タスク入力画面のGUIには、移動先指示ボタン701、最終状態指示ボタン702、やり直しボタン703、全選択ボタン704、出発地点の画像705が表示される。移動タスク入力画面では、ユーザは2つの方法で移動タスクの入力を行うことができる。移動先を指示する方法と、移動タスクにより達成したい最終的な状態を指示する方法である。
移動先指示ボタン701は、移動先を指示する方法により移動タスクの内容を入力するための移動先指示画面に移行するためのGUIである。
最終状態指示ボタン702は、最終的な状態を指示する方法により移動タスクの内容を入力するための最終状態指示画面に移行するためのGUIである。
やり直しボタン703は、入力待機画面(図6)に戻るためのGUIである。
全選択ボタン704は、出発地点の画像705に写っている移動可能物体が全て選択するためのGUIである。移動タスク入力画面に移行した時のデフォルトの状態では、入力待機画面のライブビュー画像605においてユーザがタッチして選択した移動可能物体が選択された状態になっている。全選択ボタン704にタッチしてから移動先の指示をすることにより、複数の移動可能物体を移動させるタスクを簡単に入力することができる。
出発地点の画像705は、入力待機画面(図6)において選択された移動可能物体と出発地点の物体又は場所の両方が写っている静止画像である。出発地点の画像705は、入力待機画面(図6)においてユーザが移動可能物体のアイコンにタッチした時点でライブビュー画像605に表示されていた撮影画像から生成される。
図7(A)の表示例は、図6に例示する入力待機画面の状態(すなわちライブビュー画像605にカップ12及び湯沸かし器3が写っている状態)において、ユーザがカップのアイコン672にタッチした場合の移動タスク入力画面の表示例であり、出発地点の画像705には、移動対象物体としてカップ12及び移動の出発地点の物体として湯沸かし器3が写っている。
<移動先指示画面>
図7(B)は、移動先指示画面のGUIの表示例である。移動先指示画面のGUIには、ライブビュー画像706、出発地点の画像707及びやり直しボタン708が表示され
る。
出発地点の画像707は、選択された移動対象物体及び出発地点の物体又は場所が写っている静止画像であり、移動タスク入力画面(図7(A))に表示されていた出発地点の画像705から生成される。
やり直しボタン708は、移動タスク入力画面(図7(A))に戻るためのGUIである。
ライブビュー画像706は、カメラ92によるリアルタイムの撮影画像(映像)である。ユーザは、移動対象物体を移動先に手動で移動させ、その状態をカメラ92で撮影する。ユーザは、ライブビュー画像706を見ながら、移動対象物体及び移動先の物体又は場所の両方がライブビュー画像706に写るように撮影し、物体認識部94により移動対象物体及び移動先の物体又は場所を認識させる。その状態でライブビュー画像706の任意の場所にタッチすると、ライブビュー画像706において移動対象物体とともに認識されている物体又は場所が移動タスクによる移動先として確定し、移動タスクの指示が完了する。なお、ライブビュー画像706には、移動対象物体の移動先として設定不可能な物体には、物体の種類を表すアイコンの代わりに禁止アイコンを表示するようにしても良い。例えば、湯沸かし器3から皿に湯を注ぐことはないので、システムのデータベースにおいて、湯沸かし器3の動作対象物体として皿を登録しない。そして、移動対象物体が皿である移動タスクを入力している場合は、移動先指示画面のライブビュー画像706に湯沸かし器3が写ったとしても、湯沸かし器3に禁止アイコンが表示され、皿の移動先として指定できないようにすることができる。
図7(B)の表示例は、ユーザがカップ12を移動先であるテーブル8に持って行き、その状態でカップ12及びテーブル8がライブビュー画像706に写るように撮影している状態を示している。ライブビュー画像706には、カップのアイコン672及びテーブルのアイコン682が表示されている。テーブルのアイコン682は上述した「場所」のアイコンである。
<注釈付き画像>
移動タスクの指示が完了すると、指示された移動タスクの内容を表す注釈付き画像が注釈付き画像生成部97により生成され、タッチパネルディスプレイ91に表示される。
図7(C)は、移動タスクを表す注釈付き画像の表示例である。移動タスクの注釈付き画像には、出発地点の画像709、最終状態の画像710、矢印図形714、テキスト711〜713、保存ボタン715、やり直しボタン716が表示される。
出発地点の画像709は、入力された移動タスクに係る移動対象物体及び出発地点の物体又は場所が写っている静止画像であり、移動タスク入力画面(図7(A))に表示されていた出発地点の画像705から生成される。
最終状態の画像710は、入力された移動タスクに係る移動対象物体及び移動先の物体又は場所が写っている静止画像であり、移動先指示画面(図7(B))においてユーザがライブビュー画像706にタッチした時点でライブビュー画像706に表示されていた撮影画像から生成される。
矢印図形714は、出発地点の画像709における移動対象物体の画像と最終状態の画像710における移動対象物体の画像とを結び、このタスクが物体を移動させるタスクであることを直感的に表している。
テキスト711〜713は、入力された移動タスクの内容を表すテキストであり、移動タスク入力画面(図7(A))及び移動先指示画面(図7(B))におけるユーザの入力内容に基づいて注釈付き画像生成部97により自動生成される。移動タスクの注釈付き画像のために生成されるテキストは、移動対象物体の名称を表すテキスト712、移動先の物体の名称を表すテキスト713及び「移動する」という意味のテキスト711を含む。
保存ボタン715は、生成された注釈付き画像を保存するためのGUIである。ユーザが保存ボタン715にタッチすると、移動タスクの入力が終了し、入力待機画面(図6)に戻る。
やり直しボタン716は、移動先指定画面(図7(B))に戻るためのGUIである。移動先指定画面(図7(B))に戻り、ライブビュー画像706を見ながら移動先の物体や場所の撮影をやり直すことができる。
図7(C)の表示例は、カップ12を湯沸かし器3からテーブル8へ移動させる移動タスクを表す注釈付き画像であり、出発地点の画像709には移動対象物体であるカップ12と出発地点の物体である湯沸かし器3が写っており、最終状態の画像710には移動対象物体であるカップ12と移動先の場所であるテーブル8が写っており、出発地点の画像709のカップ12の画像と最終状態の画像710のカップ12の画像とが矢印図形714により結ばれ、「カップがテーブルに移動する」という意味のテキスト711〜713が表示されている。注釈付き画像に含まれるテキストは、図7(C)の表示例のように画像のキャプションやタイトルのような態様で表示されても良いし、箇条書きで表示されても良いし、普通の文の形で表示されても良い。どのような表示態様であっても、実際のタスクの対象となる物体が写った画像と合わせて見ることで、ユーザは、曖昧さ無くタスクの内容を把握することができる。
<最終状態指示画面>
ここで、移動タスクにより達成した最終的な状態を指示する方法による移動タスクの指示方法について説明する。
移動タスクにより達成したい最終的な状態とは、例えば、部屋の片付けが完了した状態である。散らかった状態の部屋を撮影して移動タスク入力画面(図7(A))に移行し、全選択ボタン704にタッチするか又は移動対象物体を複数選択して、最終状態指示ボタン702にタッチする。すると、選択された複数の移動対象物体のそれぞれが全て適切な場所に収納された最終的な状態を指示するための最終状態指示画面(図示省略)に移行する。最終的な状態の指示方法としては、例えば、片付いた状態の部屋の画像をユーザに選択させる方法を例示できる。この画像には、種々の物体とその収納場所との対応関係の情報が付随するような構成とする。ユーザは、最終状態指示画面において、最終的な片付いた状態の部屋の画像を1枚選択することにより、移動タスク入力画面(図7(A))において選択した複数の物体をそれぞれの収納場所に移動させる、というパラレルな複数の移動タスクを一度に指示することができる。ここで、パラレルな複数のタスクとは、順不同に実行可能なタスクの集合である。最終状態を指示する方法によれば、ユーザは、移動先を指示する方法のように移動先の物体や場所まで移動対象物体を手動で持って行って撮影する手間を省ける。最終状態を指示する方法は、収納先が一定であるような定型タスクの指示に適している。なお、移動タスク入力画面(図7(A))において1つの移動可能物体が選択されている状態でも、最終状態を指示する方法による移動タスクの入力は可能である。
<家電機器動作入力画面>
図8(A)は、家電機器動作入力画面のGUIの表示例である。家電機器動作入力画面のGUIには、動作リスト801、やり直しボタン802、家電機器の画像803が表示される。
動作リスト801は、入力待機画面(図6)において選択された家電機器に指示可能な動作のリストである。家電機器の指示可能な動作リストの情報は、システムのデータベースに格納されている(図3を参照)。ユーザは、指示可能な動作リスト801のいずれかにタッチすることにより、タッチした動作を家電機器に実行させる指示をすることができる。
やり直しボタン802は、入力待機画面(図6)に戻るためのGUIである。
家電機器の画像803は、入力待機画面(図6)において選択された家電機器が写っている静止画像である。選択された家電機器が動作対象物体を必要とする家電機器の場合は、選択された家電機器及びその動作対象物体の両方が写っている静止画像である。家電機器の画像803は、入力待機画面(図6)においてユーザが家電機器のアイコンにタッチした時点でライブビュー画像605に表示されていた撮影画像から生成される。
図8(A)の表示例は、図6に例示する入力待機画面の状態(すなわちライブビュー画像605にカップ12及び湯沸かし器3が写っている状態)において、ユーザが湯沸かし器のアイコン662にタッチした場合の家電機器動作入力画面の表示例であり、家電機器の画像803には、湯沸かし器3及び湯沸かし器の動作対象としてのカップ12が写っている。動作リスト801には、湯沸かし器3に指示可能な動作として「注ぐ」「加熱する」「注ぎ続ける」「注ぎ停止」がリストされている。なお、「注ぐ」動作についてはパラメータ設定が可能であり、注ぎ時間を「1秒間」「2秒間」「3秒間」のうちから選択できる。また「加熱する」動作についてもパラメータ設定が可能であり、目標温度を指定できる。
家電機器動作入力画面(図8(A))の動作リスト801のうちパラメータ設定が可能な動作のボタンにタッチすると、パラメータ設定画面(図8(B))に遷移する。パラメータ設定画面のGUIには、設定可能な値リスト804、やり直しボタン802、家電機器の画像803が表示される。家電機器の動作の設定可能なパラメータの値の情報は、システムのデータベースに格納されている(図3を参照)。ユーザは、設定可能な値リスト804のいずれかにタッチすることにより、パラメータの値を設定することができる。
図8(B)の表示例は、図8(A)の動作リスト801の「注ぐ」ボタンにタッチした場合に表示されるパラメータ設定画面の表示例であり、設定可能な値として「1秒間」「2秒間」「3秒間」がリストされている。なお、パラメータ設定画面は、このようなリスト選択のGUIの他に、テンキー等のGUIを表示して任意の数値を入力可能なGUIを表示するものがあっても良い。例えば、図8(A)の動作リスト801の「加熱する」ボタンにタッチした場合に表示されるパラメータ設定画面は、加熱動作のパラメータとして任意の温度を入力することができるようにテンキーのGUIを表示することができる。
家電機器操作入力画面(図8(A))の動作リスト801のいずれかにタッチして家電機器に実行させる動作が確定すると(パラメータ設定が可能な動作の場合は更にパラメータ設定画面(図8(B))でパラメータの値の設定が確定すると)、家電機器動作タスクの指示が完了する。
<注釈付き画像>
家電機器動作タスクの指示が完了すると、指示された家電機器動作タスクの内容を表す
注釈付き画像が注釈付き画像生成部97により生成され、タッチパネルディスプレイ91に表示される。
図8(C)は、家電機器動作タスクを表す注釈付き画像の表示例である。家電機器動作タスクの注釈付き画像には、家電機器の画像805、テキスト806〜809、保存ボタン810,やり直しボタン811が表示される。
家電機器の画像805は、入力された家電機器動作タスクに係る家電機器が写っている静止画像であり、家電機器動作入力画面(図8(A))に表示されていた家電機器の画像803から生成される。
テキスト806〜809は、入力された家電機器動作タスクの内容を表すテキストであり、家電機器動作入力画面(図8(A))やパラメータ設定画面(図8(B))におけるユーザの入力内容に基づいて注釈付き画像生成部97により自動生成される。家電機器動作タスクの注釈付き画像のために生成されるテキストは、家電機器の名称を表すテキスト806、家電機器の動作を表すテキスト807、必要に応じてパラメータの値を表すテキスト808、動作対象の物体の名称を表すテキスト809を含む。
保存ボタン810は、生成された注釈付き画像を保存するためのGUIである。ユーザが保存ボタン810にタッチすると、家電機器動作タスクの入力が終了し、入力待機画面(図6)に戻る。
やり直しボタン811は、家電機器動作入力画面(図8(A))に戻るためのGUIである。家電機器動作入力画面(図8(A))に戻り、動作リスト801からの動作の指定をやり直すことができる。
図8(C)の表示例は、湯沸かし器3でカップ12に2秒間湯を注ぐタスクを表す注釈付き画像であり、家電機器の画像805には湯沸かし器3及びその動作対象であるカップ12が写っており、「湯沸かし器でカップに2秒間湯を注ぐ」という意味のテキスト806〜809が表示されている。テキストの表示態様が図8(C)の表示例に限らないことは移動タスクの注釈付き画像の場合と同様である。
なお、本実施例の家事システムでは、湯沸かし器3は、動作対象としてカップ12やマグ等のカップ類を必要とする家電機器として登録されており(図3を参照)、入力待機画面(図6)のライブビュー画像605の中に湯沸かし器3とその動作対象となり得る物体(カップ12その他のカップ類属性の食器等)の両方が写っている場合に限り、家電機器動作入力画面(図8(A))への遷移が許可されるようにしても良い。この場合、入力待機画面(図6)のライブビュー画像605の中に湯沸かし器3とともにカップ類属性の食器が写っていない場合には、湯沸かし器のアイコン662にタッチしても湯沸かし器3の動作入力画面(図8(A))への遷移は行われない。このとき、「カップを画面内に写して下さい」等のアラート表示を行い、カップ類属性の食器と湯沸かし器3の両方を写すようにユーザを促しても良い。
湯沸かし器3がカップ12を動作対象として湯を注ぐ動作を行う場合には、カップ12を湯沸かし器3の注ぎ口の真下まで移動させた上で湯沸かし器3を作動させるべきことは自明である。従って、ユーザが湯沸かし器3の注ぎ口の真下にカップ12を置いていない状態であっても、1画面内に湯沸かし器3とカップ12が写っていれば湯沸かし器3の家電機器動作入力画面(図8(A))に移行することを許容し、その状態で湯沸かし器3によってカップ12に湯を注ぐタスクが入力された場合には、そのタスクには、「カップ12を湯沸かし器3の注ぎ口の真下まで移動させる」という移動タスクが陰に含まれるよう
にしても良い。こうすれば、家電機器の動作を入力においてユーザが物体を手動で移動させながら画像を撮影する際の手間を軽減できる。
<待機時間設定画面>
図9(A)は、待機時間設定画面のGUIの表示例である。待機時間設定画面のGUIには、単位ボタン901、数字ボタン902、表示部903、決定ボタン904及びやり直しボタン905が表示される。
単位ボタン901及び数字ボタン902は、ユーザがタッチ操作により数値及び時間の単位を入力するためのGUIである。表示部903は、入力された時間を表示するためのGUIである。決定ボタン904は、現在表示部903に表示されている時間で待機時間を決定するためのGUIである。やり直しボタン905は、入力待機画面(図6)に戻るためのGUIである。
待機時間の設定では、移動タスクや家電機器動作タスクを入力する場合のように画像を撮影する必要はない。
<注釈付き画像>
待機時間が決定されると、待機時間を表す注釈付き画像が注釈付き画像生成部97により生成され、タッチパネルディスプレイ91に表示される。
図9(B)は、待機時間を表す注釈付き画像の表示例である。待機時間の注釈付き画像には、テキスト907〜909、保存ボタン910及びやり直しボタン906が表示される。移動タスクの注釈付き画像や家電機器動作タスクの注釈付き画像と異なり、テキストのみで物体や家電機器の画像は含まない。
保存ボタン910は、生成された注釈付き画像を保存するためのGUIである。ユーザが保存ボタン910にタッチすると、待機時間の設定が終了し、入力待機画面(図6)に戻る。
やり直しボタン906は、待機時間設定画面(図9(A))に戻るためのGUIである。待機時間設定画面(図9(A))に戻り、待機時間の入力をやり直すことができる。
テキスト907は、待機時間設定の内容を表すテキストであり、待機時間設定画面(図9(A))におけるユーザの入力内容に基づいて注釈付き画像生成部97により自動生成される。図9(B)の表示例では、「時間」を意味するテキスト907,設定された待機時間の長さを表すテキスト908、「待つ」という意味のテキスト909を含む。テキストの表示態様が図9(B)の表示例に限らないことは移動タスクの注釈付き画像の場合と同様である。
<トリガー設定画面>
図10(A)は、トリガー設定画面のGUIの表示例である。トリガー設定画面のGUIには、トリガー物体の画像102、タスク実行条件リスト103、やり直しボタン104が表示される。
トリガー物体の画像102は、入力待機画面(図6)において選択されたトリガー物体が写っている静止画像である。トリガー物体の画像102は、入力待機画面(図6)においてユーザがトリガー物体のアイコンにタッチした時点でライブビュー画像605に表示されていた撮影画像から生成される。
タスク実行条件リスト103は、タスクの実行条件(起動条件)として設定可能なトリガー物体の動作や状態等のリストである。ユーザがタスク実行条件リスト103にリストされた条件のいずれかにタッチして選択すると、その条件がタスク実行条件として設定される。
やり直しボタン104は、入力待機画面(図6)に戻るためのGUIである。
図10(A)の表示例は、入力待機画面(図6)のライブビュー画像605に目覚まし時計7が写っている状態でユーザが目覚まし時計7のアイコンにタッチした場合のトリガー物体設定画面の表示例であり、トリガー物体の画像102にはトリガー物体である目覚まし時計7及びトリガー物体のアイコン111が表示されている。タスク実行条件リスト103には、タスクの実行条件として設定可能な目覚まし時計の動作や状態として「時刻」「鳴動」がリストされている。ユーザが「時刻」にタッチすると、タスクを実行する時刻を設定するための画面が表示され、目覚まし時計7の指している時刻が設定時刻になった場合にタスクが実行されるようにトリガー設定をすることができる。ユーザが「鳴動」にタッチすると、目覚まし時計7が鳴動した場合にタスクが実行されるようにトリガー設定をすることができる。
トリガー設定画面(図10(A))のタスク実行条件リスト103のいずれかにタッチしてタスク実行条件が確定すると、トリガー設定が完了する。
<注釈付き画像>
トリガー設定が完了すると、トリガー設定の内容を表す注釈付き画像が注釈付き画像生成部97により生成され、タッチパネルディスプレイ91に表示される。
図10(B)は、トリガー設定を表す注釈付き画像の表示例である。トリガー設定の注釈付き画像には、トリガー物体の画像105、テキスト108〜110、保存ボタン106、やり直しボタン107が表示される。
トリガー物体の画像105は、トリガー設定に係るトリガー物体が写っている静止画像であり、トリガー設定画面(図10(A))に表示されていたトリガー物体の画像102から生成される。
テキスト108〜110は、トリガー設定の内容を表すテキストであり、トリガー設定画面(図10(A))におけるユーザの入力内容に基づいて注釈付き画像生成部97により自動生成される。トリガー設定の注釈付き画像のために生成されるテキストは、トリガー物体の名称を表すテキスト108、タスク実行条件を表すテキスト109、実行されるタスクの内容を表すテキスト110を含む。
保存ボタン106は、生成された注釈付き画像を保存するためのGUIである。ユーザが保存ボタン106にタッチすると、トリガー設定が終了し、入力待機画面(図6)に戻る。
やり直しボタン107は、トリガー設定画面(図10(A))に戻るためのGUIである。トリガー設定画面(図10(A))に戻り、タスク実行条件リスト103からのタスク実行条件の指定をやり直すことができる。
図10(B)の表示例は、目覚まし時計7の「鳴動」を「コーヒー入れタスク」の実行条件とするトリガー設定を表す注釈付き画像であり、トリガー物体の画像105には目覚まし時計7が写っており、「目覚まし時計が鳴ったらコーヒーを入れる」という意味のテ
キスト108〜110が表示されている。テキストの表示態様が図10(B)の表示例に限らないことは移動タスクの注釈付き画像の場合と同様である。
<タスク内容確認モード>
図11は、タスク内容確認モードにおいて、既存のタスクの内容を表示するタスク内容表示画面のGUIの表示例である。タスク内容表示画面のGUIには、サムネイル画像601及び602、ライブビューボタン603、注釈付き画像606、削除ボタン607、編集ボタン608が表示される。
サムネイル画像601及び602は、それぞれサムネイル画像に対応する既存のタスクの内容を表示するタスク内容表示画面に遷移するためのGUIである。なお、既存のタスクが存在しない場合には、サムネイル画像は表示されない。図11の表示例は、サムネイル画像602に対応するタスクの内容を表示している状態を示す。この状態でユーザがサムネイル画像601にタッチすると、サムネイル画像601に対応するタスクの内容が表示される。
ライブビューボタン603は、タスク作成モードの入力待機画面(図6)に移行するためのGUIである。
注釈付き画像606は、内容表示中のタスクに対応する注釈付き画像である。図11の表示例では、移動タスクの注釈付き画像が表示されている。
削除ボタン607は、内容表示中のタスクを削除するためのGUIである。
編集ボタン608は、内容表示中のタスクの編集を行うためのGUIである。編集ボタン608にタッチすると、例えば、タスク作成モードの注釈付き画像の表示画面(図7(C)、図8(C)、図9(B)、図10(B))においてやり直しボタンにタッチした場合に表示される画面と同様のGUIが表示され、タスクの内容を変更することができる。
<フローチャート>
図12は、入力装置9によってユーザがタスクの内容を入力するプロセスを表したフローチャートである。ユーザは、入力待機画面(図6)からタスク入力を開始する(ステップS10)。ユーザは、これから入力するタスクに係る物体が入力待機画面のライブビュー画像に写るように、入力装置9のカメラ92で撮影を行う(ステップS20)。
ユーザは、ライブビュー画像に写っている物体のアイコンにタッチすることにより、これから入力するタスクに係る物体を選択する(ステップS30)。タッチパネルディスプレイ91には、ユーザにより選択された物体の種類に応じたタスク入力画面(図7〜図10のいずれか)が表示される(ステップS40)。ユーザは、タスク入力画面のGUIに対してタスク内容を入力する操作を行う(ステップS50)。
ユーザによるタスク入力が完了すると、入力されたタスク内容に基づいて注釈付き画像が生成され、タッチパネルディスプレイ91に表示される(ステップS60)。以上のプロセスにより、1つのタスクを入力することができる。ユーザは、以上のプロセスを繰り返すことにより、連続的に複数のタスクを入力することができる。
複数の連続するタスクからなるシーケンシャルタスクを入力する場合は、シーケンシャルタスクを構成する全てのタスクについて以上のプロセスを繰り返す(ステップS70)。シーケンシャルタスクを構成する全てのタスクの入力が完了すると、シーケンシャルタスクの内容を表す注釈付き画像が作成され、表示される(ステップS80)。シーケンシ
ャルタスクの注釈付き画像は、シーケンシャルタスクを構成する個々のタスクの注釈付き画像をタスクの実行手順に沿って並べた画像である。
以上説明したプロセスによってユーザにタスク内容の入力を行わせる処理は、タスク入力部99によって制御されている。タスク入力部99は、ユーザに、タスクに関係する物体を含む画像をカメラ92により撮影させるステップ(ステップS10及びステップS20)と、ユーザに、撮影された画像において物体認識部94が認識した物体のうちタスクに関係する物体や家電機器の画像をタッチ操作により選択させるステップ(ステップS30)と、ユーザに、選択した物体に対するロボット2や家電機器の動作、又は、選択した家電機器の動作をGUI制御部96が出力するGUIを介して入力させるステップ(ステップS40及びステップS50)と、を含むタスク入力手続を行わせることにより、タスクの内容を入力させる。タスク入力部99は、ユーザが一のタスクの内容を入力するタスク入力手続を完了すると、次のタスクのタスク入力手続を待機する状態となる。
<注釈文の生成>
ここで、注釈付き画像生成部97が注釈付き画像のために生成するテキストについて説明する。
注釈付き画像生成部97は、上述したように、タスク入力画面(図7〜図10)においてユーザが入力したタスク内容に基づいて、タスク内容を表すテキストを自動生成する。注釈付き画像はテキストと画像とを合わせてタスク内容を表現するものであり、ユーザは、画像から、タスク対象の個別具体的な物体や家電機器について多くの情報を得ることができる。従って、テキストは必要最低限の情報を表現できれば十分であり、図7〜図10に例示した注釈付き画像に含まれるテキストは簡潔な規則に従って自動生成されている。
注釈付き画像に含まれるテキストは、画像に基づいて生成される。画像に写っている物体や家電機器の名称を表す名詞を主語又は目的語、タスク内容を表す動詞を述語として、文を生成する。タスクの内容を表す動詞は、移動タスクであれば「移動する」であり、家電機器動作タスクであれば動作リストからユーザが選択した動作に対応する動詞である。家電機器が動作対象を必要とする場合は、タスクの内容を表す動詞は他動詞となり、動作対象となる物体や家電機器の名称を表す名詞がその目的語となる。家電機器が動作対象を必要としない場合は、タスクの内容を表す動詞は自動詞となる。家電機器の動作がパラメータを設定可能なものである場合、タスクの内容を表す動詞はパラメータを伴う。
注釈付き画像に含まれるテキストは、例えば、次のような文脈自由文法によって記述される。
(1)S*=>S|SS*
(2)S=> subject V object
(3)S=> subject V
(4a)V=> action
(4b)V=> action parameter
移動可能物体は(2)に従う。「subject」は移動可能物体、「object」は移動先の物
体又は場所、「action」は「(移動先に)移動する」「(最終的な状態に)移動する」である。例えば、「s:カップ、v:移動する、o:テーブル」(sはsubject、vはaction、oはobject)というテキストは、ロボットにカップをテーブルまで移動させる指示を
表現する。
家電機器は(2)又は(3)に従う。他の物体の状態に影響を与える家電機器、すなわち動作対象を必要とする家電機器は、(2)に従う。例えば、「s:湯沸かし器、v:注
ぐ、o:カップ」というテキストは、湯沸かし器にカップの状態を変化させる指示を表現する。他の物体の状態を変化させない家電機器、すなわち動作対象を必要としない家電機器は、(3)に従う。たとえば、「s:ランプ、v:点灯する」というテキストは、ランプに点灯させる指示を表現する。
トリガー物体は(3)に従う。例えば、「s:押しボタン、v:待つ、p:押される」(pはparameter)というテキストは、押しボタンが押されたらタスクを実行させるとい
うトリガー指示を表現する。トリガー設定の一種である待機時間設定も(3)に従う。例えば、「s:時間、v:待つ、p:5秒間」というテキストは、次のタスクの実行まで5秒間待機させる指示を表現する。上述したように、待機時間設定では画像を撮影する必要はない。従って、この場合の「時間」という主語は、画像に基づいて決定されるのではなく、入力待機画面(図6)において待機時間設定ボタン604がタッチされた場合に使用される。
テキストが複数の主語を有する場合、一つの主語を有する複数のテキストに分解されてロボットへの指示に変換される。例えば、「s:A,B,C、v:移動する、o:テーブル」というテキストは、「s:A、v:移動する、o:テーブル」「s:B、v:移動する、o:テーブル」「s:C、v:移動する、o:テーブル」という3つのテキストに分解され、ロボットに、物体Aをテーブルまで移動させるタスクと、物体Bをテーブルまで移動させるタスクと、物体Cをテーブルまで移動させるタスクと、の3つのタスクを指示する表現となる。
タスク入力画面では、ユーザは、正しい構文のテキストを生成可能な注釈付き画像を作成するよう強制される。すなわち、ロボットや家電機器への指示に必要な全ての要素が画像内に写っているように注釈付き画像を作成する必要がある。例えば、移動タスクの注釈付き画像であれば、出発地点の画像及び移動先の画像の両方に移動対象物体が写っている必要がある。動作対象を必要とする家電機器の動作タスクの注釈付き画像であれば、家電機器及び動作対象物体の両方が写っている必要がある。このような条件が満たされない場合は、上述したように禁止アイコンやアラートによってユーザに修正を促し、適切な構文のテキストが生成されるようにしている。
タスク入力画面では、ユーザは、意味のあるテキストを生成可能な注釈付き画像を作成するよう強制される。すなわち、ロボットや家電機器への指示が意味的に適切な指示となるように注釈付き画像を作成する必要がある。例えば、湯沸かし器の動作タスクであれば、動作対象としてカップは適切だが皿やスプーンは適切でない。従って、湯沸かし器の動作タスクを表すテキストの目的語に皿やスプーンが現れることを禁止するように、タスク入力画面において禁止アイコンやアラートによる警告が行われるようにしている。適切な動作対象や不適切な動作対象の情報は、家電機器や家事システムのデータベースに登録される。
このように、本実施例の家事システムでは、タスク入力部99が簡易的に構文チェック及び意味チェックを行うことで、ロボットや家電機器への適切な指示を行うことができるようになっている。
<コーヒー入れタスクの例>
家事は、物を移動させるタスクと家電機器を作動させるタスクとの2種類のタスクが複数連続するシーケンシャルタスクとして捉えることができる。例えば、「コーヒーを入れる」という家事は、図13に示すように、(1)カップ12をコーヒーパウダーディスペンサー4まで移動させる、(2)コーヒーパウダーディスペンサー4を作動させて所望の量のコーヒーパウダーをカップ12に投入する、(3)カップ12をコーヒーパウダーデ
ィスペンサー4から湯沸かし器3まで移動させる、(4)次に湯沸かし器3を作動させて所望の量の湯をカップ12に注ぐ、(5)3分間待機する(入れたては熱いため)、(6)カップ12を湯沸かし器3からテーブル8まで移動させる、という複数の移動タスク及び家電機器作動タスクのシーケンスに分解することができる。
本実施例の家事システムの入力装置9によれば、ユーザは、図12のフローチャートに従って、このような複数の連続的なタスクからなるシーケンシャルタスクを簡単に指示することができる。複数のタスクを入力した場合には、タスク入力手続が行われた順番で、入力されたタスクを順次ロボット又は家電機器に実行させるようコンピュータ10が制御命令を送信するようにする。そして、個々のタスクの指示においては、ユーザは、ユーザの環境にある個別具体的な実際のタスク対象物体の画像を撮影しながら、画像をポインティング操作により指定するという直感的な操作によって、タスクの内容を入力していくことができる。従って、ユーザ環境に固有の対象物体や家電機器の情報を曖昧さ無くタスクの内容に反映させることができる。更に、入力したタスクの内容は、撮影した画像とテキストとを組み合わせた注釈付き画像としてまとめられ、後から容易に確認することができる。図14は、図13の「コーヒーを入れるタスク」を構成する6つのタスクを入力して得られる注釈付き画像である。図14に示すように、シーケンシャルタスクを表す注釈付き画像は、複数の注釈付き画像の列である。図14(A)〜(F)は、図13に示すコーヒー入れタスクを構成する個々のタスク(1)〜(6)に対応している。
図14に示す注釈付き画像は、抽象的なプログラミング言語によって構築されたタスクとは異なり、実際のタスク対象が写っている画像とタスク内容を表すテキストとを含むので、ユーザは、タスクの内容を直感的に把握することができる。従って、例えば湯沸かし器を買い換えたり、コーヒーの味の好みが変わったりした場合に、それに合わせてコーヒー入れタスクを修正するために、どのタスクをどのように修正すればよいか容易に判断することができる。そして、タスクを編集する場合にも、カメラ92によって撮影される実際の画像を見ながら直感的にタスクの内容を編集することができる。
その他の家事、例えば料理は、食材をカウンターからフードプロセッサに移動させる、次にフードプロセッサで食材を処理する、次に食材をフードプロセッサから電子レンジへ移動させる、次に電子レンジで食材を加熱する、というように移動タスクと家電機器作動タスクのシーケンスに分解することができる。洗濯、部屋の片付け、物の組み立て等、様々な家事をこのような移動と家電機器の作動の組み合わせに分解することができる。そして、移動タスクと家電機器動作タスクに分解できる家事タスクであれば、本実施例の入力装置9によって実際のタスク対象の物体や家電機器を撮影しながら直感的にタスク内容を入力することができ、注釈付き画像を生成することができる。
本実施例の家事システムでは、移動タスクは、移動対象物体と、出発地点の物体又は場所と、移動先の物体又は場所と、を特定することによって指示する。出発地点及び移動先の「場所」とは、「場所」属性の物体という意味であり、座標ではない。つまり、本実施例では、移動タスクは物体と物体との関係として規定される。このことから、移動タスク作成時と異なる位置に移動対象物体や移動先の物体が置かれている状態でも、天井カメラ1の画像によりコンピュータ10が各物体の位置を検出可能であれば、移動タスクは正しく実行される。
9 入力装置
92 撮影装置
94 物体認識部
91 タッチパネルディスプレイ
97 注釈付き画像生成部
99 タスク入力部
101 制御部

Claims (11)

  1. ロボット及び家電機器にタスクを指示するタスク指示システムであって、
    撮影部と、
    撮影部によって撮影された画像を表示する表示部と、
    表示部に表示された画像に写っている物体を認識する認識部と、
    一のタスクの内容をユーザに入力させるタスク入力部であって、
    タスクに関係する物体を含む画像を撮影部により撮影させるステップと、
    撮影された画像において認識部が認識した物体のうちタスクに関係する物体又は家電機器の画像を選択させるステップと、
    該選択した物体に対するロボット若しくは家電機器の動作又は該選択した家電機器の動作を入力させるステップと、
    を含むタスク入力手続をユーザに行わせて一のタスクの内容を入力させるとともに、一のタスクのタスク入力手続が完了すると次のタスクのタスク入力手続を待機する状態となるタスク入力部と、
    タスク入力部において入力されたタスクの内容を表すテキストを生成し、生成したテキストと、タスク入力手続においてユーザが選択した物体又は家電機器が写っている画像と、を含む画像である注釈付き画像を入力されたタスクに関連付けて生成する注釈付き画像生成部と、
    注釈付き画像に関連付けられたタスクをロボット又は家電機器に実行させるための制御命令を生成しロボット又は家電機器に送出する制御部と、
    を有するタスク指示システム。
  2. 請求項1において、
    注釈付き画像生成部は、タスク入力手続においてユーザが選択した物体又は家電機器の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて、所定の規則に従って注釈付き画像のためのテキストを生成するタスク指示システム。
  3. 請求項1において、タスク入力部において複数のタスクのタスク入力手続が行われた場合、制御部は、該複数のタスクをタスク入力部においてタスク入力手続が行われた順番で順次ロボット又は家電機器に実行させるように制御命令の生成及び送出を行うタスク指示システム。
  4. 請求項1において、
    表示部は、表示される画像の選択をユーザがタッチ方式のポインティング操作によって行うことができるタッチパネルディスプレイを有するタスク指示システム。
  5. 請求項1において、
    撮影部と、表示部と、認識部と、タスク入力部と、注釈付き画像生成部と、を有するタスク入力装置と、
    制御部を有し、タスク入力装置、ロボット及び家電機器と通信可能に構成された制御装置と、
    を有するタスク指示システム。
  6. 請求項1において、
    タスク入力部は、動作対象を必要としない家電機器に実行させるタスクのタスク入力手続において、
    タスクを実行させる家電機器を含む画像を撮影させるステップと、
    撮影された画像において認識部が認識した物体のうち動作を指示する家電機器の画像をユーザに選択させるステップと、
    選択した家電機器に実行させる動作を入力させるステップと、
    をユーザに行わせ、
    注釈付き画像生成部は、タスク入力手続においてユーザが選択した家電機器の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて注釈付き画像のためのテキストを生成するタスク指示システム。
  7. 請求項1において、
    タスク入力部は、動作対象を必要とする家電機器に実行させるタスクのタスク入力手続において、
    タスクを実行させる家電機器及びその家電機器の動作対象となり得る物体を含む画像を撮影させるステップと、
    撮影された画像において認識部が認識した物体のうち動作を指示する家電機器及びその家電機器の動作対象となる物体の画像をユーザに選択させるステップと、
    選択した家電機器に実行させる動作を入力させるステップと、
    をユーザに行わせ、
    注釈付き画像生成部は、タスク入力手続においてユーザが選択した家電機器の名称を表すテキストと、その家電機器の動作対象となる物体の名称を表すテキストと、ユーザが入力した動作を表すテキストと、を用いて注釈付き画像のためのテキストを生成するタスク指示システム。
  8. 請求項1において、
    タスク入力部は、ロボットに実行させる物体の移動タスクのタスク入力手続において、
    移動対象の物体を含む画像を撮影させるステップと、
    撮影された画像において認識部が認識した移動可能な物体のうちロボットに移動させる物体の画像を選択させるステップと、
    移動対象の物体及び移動先の物体を含む画像を撮影させるステップと、
    撮影された画像において認識部が認識した移動先として指定可能な物体のうちロボットによる移動先の物体の画像を選択させるステップと、
    をユーザに行わせ、
    注釈付き画像生成部は、タスク入力手続においてユーザが選択した移動対象の物体の名称を表すテキストと、移動先の物体の名称を表すテキストと、「移動する」という意味のテキストと、を用いて注釈付き画像のためのテキストを生成するタスク指示システム。
  9. 請求項1において、
    タスク入力部は、ロボット又は家電機器に所定のタスクの実行を開始させるトリガーをユーザに設定させるために、
    トリガーとなる物体を含む画像を撮影させるステップと、
    撮影された画像において認識部が認識したトリガーとして設定可能な物体のうちトリガーに設定する物体の画像を選択させるステップと、
    ロボット又は家電機器に所定のタスクの実行を開始させるために選択した物体に関して成立すべき条件を入力させるステップと、
    を含むトリガー設定手続をユーザに行わせることができ、
    注釈付き画像生成部は、トリガー設定手続においてユーザが選択した物体の名称を表すテキストと、ユーザが入力した条件の成立を意味するテキストと、「待つ」という意味のテキストと、を用い注釈付き画像のためのテキストを生成し、生成したテキストと、トリガー設定手続においてユーザが選択した物体が写っている画像と、を含む画像を注釈付き画像としてトリガー設定に関連付けて生成し、
    制御部は、注釈付き画像に関連付けられたトリガー設定に従ってロボット又は家電機器を制御するための制御命令を生成しロボット又は家電機器に送出するタスク指示システム。
  10. 請求項1において、
    タスク入力部は、ロボット又は家電機器にタスクの実行を待機させる時間をユーザに設定させるために、
    待機時間を入力させるステップ
    を含む待機時間設定手続をユーザに行わせることができ、
    注釈付き画像生成部は、待機時間設定手続においてユーザが入力した待機時間の経過を待つ、という意味のテキストを生成し、生成したテキストを含む画像を注釈付き画像として待機時間設定に関連付けて生成し、
    制御部は、注釈付き画像に関連付けられた待機時間設定に従ってロボット又は家電機器を制御するための制御命令を生成しロボット又は家電機器に送出するタスク指示システム。
  11. 請求項1において、
    タスク入力部は、既存の注釈付き画像に対応するタスクの内容を、タスク入力手続、トリガー設定手続又は待機時間設定手続をユーザに再度行わせることにより編集させるタスク指示システム。
JP2010159005A 2010-07-13 2010-07-13 タスク指示システム Expired - Fee Related JP5071873B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010159005A JP5071873B2 (ja) 2010-07-13 2010-07-13 タスク指示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010159005A JP5071873B2 (ja) 2010-07-13 2010-07-13 タスク指示システム

Publications (2)

Publication Number Publication Date
JP2012022457A JP2012022457A (ja) 2012-02-02
JP5071873B2 true JP5071873B2 (ja) 2012-11-14

Family

ID=45776716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010159005A Expired - Fee Related JP5071873B2 (ja) 2010-07-13 2010-07-13 タスク指示システム

Country Status (1)

Country Link
JP (1) JP5071873B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US8571781B2 (en) 2011-01-05 2013-10-29 Orbotix, Inc. Self-propelled device with actively engaged drive system
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
JP2015524951A (ja) * 2012-05-14 2015-08-27 オルボティックス, インコーポレイテッドOrbotix, Inc. 画像内で丸い物体を検出することによるコンピューティングデバイスの操作
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
JP6432883B2 (ja) * 2014-11-21 2018-12-05 国立研究開発法人産業技術総合研究所 動作指令生成装置、動作指令生成方法、コンピュータプログラム、及び処理システム
JP6356869B2 (ja) * 2017-05-19 2018-07-11 エンパイア テクノロジー ディベロップメント エルエルシー バーチャルリアリティアプリケーション
JP6500954B2 (ja) * 2017-08-31 2019-04-17 株式会社ニコン 電子制御装置、電子制御方法及び制御プログラム
CN110293554A (zh) * 2018-03-21 2019-10-01 北京猎户星空科技有限公司 机器人的控制方法、装置和系统
US20230080565A1 (en) * 2020-02-25 2023-03-16 Nec Corporation Control device, control method and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4694701B2 (ja) * 2001-01-15 2011-06-08 繁 安藤 情報検索方法、情報検索装置およびロボットの動作制御装置
JP3722806B2 (ja) * 2003-03-05 2005-11-30 松下電器産業株式会社 物品管理システムおよびロボット制御装置
JP2005250734A (ja) * 2004-03-03 2005-09-15 Keiogijuku ユビキタス環境情報スナップショットデータの生成方法、閲覧方法、生成装置、閲覧装置及びプログラム並びにユビキタス環境情報スナップショットのデータ構造

Also Published As

Publication number Publication date
JP2012022457A (ja) 2012-02-02

Similar Documents

Publication Publication Date Title
JP5071873B2 (ja) タスク指示システム
CN103797440B (zh) 具有用户反馈的基于姿势的用户界面
TWI467462B (zh) Active browsing method
JP6432889B2 (ja) 操作装置及び操作方法
US8866781B2 (en) Contactless gesture-based control method and apparatus
TWI461973B (zh) 用於視覺式回饋顯示之方法、系統及電腦可讀取媒體
JP6390277B2 (ja) 情報処理装置、制御方法、およびプログラム
CN102946462B (zh) 一种基于手机的联系人信息分组处理方法及手机
Bonanni et al. CounterIntelligence: Augmented reality kitchen
JP6052459B1 (ja) 情報処理装置及びプログラム
KR20230051620A (ko) 제어가능한 외부 디바이스들을 관리하기 위한 사용자 인터페이스
US20140195979A1 (en) Interactive user interface
JP6279819B2 (ja) 機器の稼働状態を表示する方法及び装置
JP2011108156A (ja) 料理プロセス指示装置及び料理プロセス指示方法
US20120281117A1 (en) Information display apparatus, image taking apparatus, and method and computer program for controlling displaying information
CN102629111A (zh) 一种烹饪电器人机交互控制方法
KR20180011603A (ko) 모니터링 장치 및 시스템
CN106663365A (zh) 基于用户输入获得控制系统的手势区域定义数据的方法
WO2017190464A1 (zh) 烹饪电器及其控制参数设置方法
WO2017047180A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6146528B1 (ja) 情報処理装置及びプログラム
KR20180080109A (ko) 식품 보관 장치 및 그 제어 방법
TWI511022B (zh) 電子裝置、即時分享方法與電腦程式產品
JP6384659B2 (ja) 電子機器、タッチスクリーン制御方法及びプログラム
JP5488930B2 (ja) 家事計画作成支援装置および家事計画作成支援方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120718

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120810

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees