JP2011201002A - ロボット装置、ロボット装置の遠隔制御方法及びプログラム - Google Patents

ロボット装置、ロボット装置の遠隔制御方法及びプログラム Download PDF

Info

Publication number
JP2011201002A
JP2011201002A JP2010073033A JP2010073033A JP2011201002A JP 2011201002 A JP2011201002 A JP 2011201002A JP 2010073033 A JP2010073033 A JP 2010073033A JP 2010073033 A JP2010073033 A JP 2010073033A JP 2011201002 A JP2011201002 A JP 2011201002A
Authority
JP
Japan
Prior art keywords
action plan
remote control
robot
display
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010073033A
Other languages
English (en)
Inventor
Hirokazu Shirato
寛和 白土
Yasuhiro Shudo
泰広 周藤
Takashi Kito
隆志 鬼頭
Akiyoshi Tanaka
章愛 田中
Kenichiro Nagasaka
憲一郎 長阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010073033A priority Critical patent/JP2011201002A/ja
Priority to US13/051,478 priority patent/US10105843B2/en
Publication of JP2011201002A publication Critical patent/JP2011201002A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39381Map task, application to behaviour, force tracking, singularity to motion to actuator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】遠隔操作が必要な自律ロボット装置に対して、ユーザーが容易に遠隔操作することが可能なロボット装置、ロボット装置の遠隔制御方法及びプログラムを提供する。
【解決手段】自装置又は外部環境の現在状況を把握し、現在状況に基づいて将来の行動計画を複数の行動計画候補のうちから一つの行動計画に決定する行動計画部と、決定された行動計画に基づいて、自装置を遠隔制御する遠隔制御装置に表示する表示内容を、予め用意しておいた複数の表示パターン候補のうち一つの表示パターンに決定し、決定された表示パターンを遠隔制御装置に表示させる表示制御部とを備える。
【選択図】図1

Description

本発明は、ロボット装置、ロボット装置の遠隔制御方法及びプログラムに関する。
外部環境を認識しながら自律的に移動し動作するロボットが、家庭内等で介助や家事を目的として使用される場合、ユーザーに必要とされる移動や動作を全て自律的に行うことは困難である。これは、ロボットが外部環境について不完全な認識しかできないことに一つの原因がある。そこで、ユーザーは遠隔制御装置(リモコン)を使用して、人の指示によってロボットを遠隔操作させる必要がある。
例えば特許文献1では、遠隔操作でロボットを安全に走行させるため、ロボットに搭載されたカメラで撮影された画像を遠隔制御装置のモニタ画面に表示する際、遠隔制御装置による前進操作の方向を、カメラの撮影方向と一致させる技術が開示されている。また、特許文献2では、操作者の負担を軽減するため、ロボットが作業する空間に予め作業情報を埋め込み、ロボットに作業指示を与える技術が開示されている。
特開2008−16058号公報 特開2008−68348号公報
上記の特許文献1では、前進操作の方向が遠隔制御装置のディスプレイ画面に表示される。また、特許文献2では、ロボットの作業対象となる物体のモデルがディスプレイ画面に表示される。
ところで、ロボットは、移動、物体の把持、物体の受け渡し等の様々な動作をする。そのため、リモコンは、ロボットが様々に動作できるように、各動作に対応した多くの操作を受け付けられるようにしておくことが考えられる。しかし、リモコンにおける操作が複雑になると、ユーザーがロボットを遠隔操作しづらくなるという問題がある。
また、ロボットは、ユーザーから見える場所だけでなく、ユーザーの視野に入らない場所へ移動することもある。この場合、ユーザーはリモコンのディスプレイ画面のみを頼りにしてロボットを操作しなければならない。このとき、ディスプレイ画面がロボット側から見える視界のみを表示するのではユーザーが操作しづらいという問題がある。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、遠隔操作が必要な自律ロボット装置に対して、ユーザーが容易に遠隔操作することが可能な、新規かつ改良されたロボット装置、ロボット装置の遠隔制御方法及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、自装置又は外部環境の現在状況を把握し、現在状況に基づいて将来の行動計画を複数の行動計画候補のうちから一つの行動計画に決定する行動計画部と、決定された行動計画に基づいて、自装置を遠隔制御する遠隔制御装置に表示する表示内容を、予め用意しておいた複数の表示パターン候補のうち一つの表示パターンに決定し、決定された表示パターンを遠隔制御装置に表示させる表示制御部とを備える、ロボット装置が提供される。
外部環境を認識する外部環境認識部と、認識された外部環境に基づいて環境地図を生成し、環境地図に基づいて自装置又は遠隔制御装置の位置を特定する環境地図生成部とを更に備え、行動計画部は、自装置又は遠隔制御装置の位置に基づいて行動計画を決定してもよい。
自装置の位置を認識する自装置位置認識部を更に備え、行動計画部は、認識された自装置の位置に基づいて行動計画を決定してもよい。
上記行動計画部は、遠隔制御装置から遠隔制御装置の位置を受信して、遠隔制御装置の位置に基づいて行動計画を決定してもよい。
上記行動計画部は、自装置の現在の作業内容を認識し、自装置の現在の作業内容に基づいて行動計画を決定してもよい。
上記表示制御部は、自装置の現在の作業内容に連動して表示パターンを切り替えてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、自装置又は外部環境の現在状況を把握するステップと、現在状況に基づいて将来の行動計画を複数の行動計画候補のうちから一つの行動計画に決定するステップと、決定された行動計画に基づいて、自装置を遠隔制御する遠隔制御装置に表示する表示内容を、予め用意しておいた複数の表示パターン候補のうち一つの表示パターンに決定するステップと、決定された表示パターンを遠隔制御装置に表示させるステップとを備える、ロボット装置の遠隔制御方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、自装置又は外部環境の現在状況を把握する手段、現在状況に基づいて将来の行動計画を複数の行動計画候補のうちから一つの行動計画に決定する手段、決定された行動計画に基づいて、自装置を遠隔制御する遠隔制御装置に表示する表示内容を、予め用意しておいた複数の表示パターン候補のうち一つの表示パターンに決定する手段、決定された表示パターンを遠隔制御装置に表示させる手段としてコンピュータを機能させるためのプログラムが提供される。
以上説明したように本発明によれば、遠隔操作が必要な自律ロボット装置に対して、ユーザーが容易に遠隔操作することができる。
本発明の一実施形態に係るロボット100及び遠隔制御装置150を示すブロック図である。 同実施形態に係る遠隔制御装置150のUI画面の表示制御処理を示すフローチャートである。 同実施形態に係る行動計画決定条件の例を示す表である。 同実施形態に係る遠隔制御装置150のUI画面の表示切り替え処理を示すフローチャートである。 同実施形態に係る遠隔制御装置150のディスプレイ14のUI画面16に表示される環境地図の表示例である。 同実施形態に係る遠隔制御装置150のディスプレイ14のUI画面16に表示される対象物体表示の表示例である。 同実施形態に係る遠隔制御装置150のディスプレイ14のUI画面16に表示されるロボットビューの表示例である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.一実施形態の構成
2.一実施形態の動作
<1.一実施形態の構成>
まず、図1を参照して、本発明の一実施形態に係るロボット100及び遠隔制御装置150の構成について説明する。図1は、本実施形態に係るロボット100及び遠隔制御装置150を示すブロック図である。
ロボット100は、外部環境を認識して環境に応じて移動やユーザーに対する動作等を自律的に行う。ロボット100は、逐次行動計画を決定している。そして、ロボット100は、決定した行動計画に基づいて、遠隔制御装置150に表示させるビューを決定する。その後、決定されたビューが、遠隔制御装置150に送られてUI画面に表示される。その結果、ロボット100の行動に合致したビューが遠隔制御装置150に表示されるため、ユーザーがロボット100を容易に遠隔操作できる。
[ロボット100]
ロボット100は、例えば、外部環境認識部102と、環境地図生成部104と、ロボット位置認識部106と、行動計画部110と、記憶部120と、ビュー決定部130と、駆動部140などからなる。
ロボット100は、例えばマイクロプロセッサを備えて、例えば外部環境認識部102と、記憶部120と、駆動部140等を制御する。また、マイクロプロセッサには、環境地図生成部104と、ロボット位置認識部106と、行動計画部110と、ビュー決定部130等が含まれる。
外部環境認識部102は、ロボット100に設けられた例えばステレオカメラ、LRF(Laser Range Finder)等であり、ロボット100の外部環境を認識する。そして、外部環境認識部102は、認識した外部環境に係る情報を例えば環境地図生成部104に送る。
環境地図生成部104は、外部環境に係る情報に基づいて環境地図を生成する。環境地図は、例えばSLAM(Simultaneous Localization and Mapping)等の技術を適用して生成される。環境地図生成部104は、生成した環境地図を記憶部120に送る。環境地図は、逐次更新されて、外部環境に存在する人や物体をトラッキングできるようにしてもよい。
ロボット位置認識部106は、ロボット100自身の位置を認識する。ロボット位置認識部106は、例えばLRFを用いたSLAMによってロボット100自身の位置を推定する。または、ロボット位置認識部106は、GPS(Global Positioning System)装置を用いてロボット100自身の位置を認識してもよい。
行動計画部110は、行動計画決定条件を把握し、行動計画決定条件に基づいて将来の行動計画を複数の行動計画候補のうちから一つの行動計画に決定する。行動計画は、ロボット100が将来どのような動作を行うかという計画である。行動計画候補は、例えば、移動する、物体を把持する、物体を渡す等の複数の動作である。行動計画は、行動計画決定条件に基づいて複数の行動計画候補のうちから一つの行動計画に決定される。行動計画決定条件は、ロボット100又は外部環境の現在状況等であり、例えば、図3に示すような遠隔制御装置150(UI)の位置、ロボット100の現在の作業内容、外部環境情報、ロボット100の位置、遠隔制御装置150等の指示器の入力等がある。図3は、本実施形態に係る行動計画決定条件の例を示す表である。なお、行動計画決定条件は、上述した例に限定されず、ロボット100の行動計画を決定できる条件であれば、他の条件でもよい。
記憶部120は、例えばメモリであり、環境地図、ロボット100の位置、行動計画、遠隔制御装置150の位置に関する情報を記録している。記憶部120に記録された情報は、各処理に応じて必要な情報が読み出される。
ビュー決定部130は、表示制御部の一例であり、行動計画部110で決定された行動計画に基づいて、遠隔制御装置150に表示する表示内容を、予め用意しておいた複数のビュー(表示パターン)候補のうち一つのビューに決定する。ビュー決定部130は、決定されたビューを遠隔制御装置150に表示させる。遠隔制御装置150に表示されるビューは、例えば環境地図、対象物体表示、ロボットビュー等である。
駆動部140は、ロボット100の移動又は動作を可能にする。駆動部140は、ロボット100自身が自律的に生成した信号に基づいて駆動したり、ユーザーによる操作によって生成された信号に基づいて駆動したりする。
また、ロボット100は、図1に図示しないが通信部を有する。通信部は、記憶部120に記録された情報やビュー決定部130で決定されたビューを遠隔制御装置150に送信したり、遠隔制御装置150から、遠隔制御装置150の位置や操作信号を受信したりする。
[遠隔制御装置150]
遠隔制御装置150は、インターフェイス位置検出部152と、インターフェイス入出力部154などからなる。遠隔制御装置150は、例えばマイクロプロセッサを備えて、インターフェイス位置検出部152やインターフェイス入出力部154等を制御する。
インターフェイス位置検出部152は、遠隔制御装置150(インターフェイス)の位置を検出する。そして、インターフェイス位置検出部152は、検出した位置をロボット100に送信する。インターフェイス位置検出部152は、例えば遠隔制御装置150がステレオカメラ、LRF(Laser Range Finder)等を備えて、LRFを用いたSLAMによって遠隔制御装置150の位置を検出する。または、インターフェイス位置検出部152は、GPS装置を用いて遠隔制御装置150の位置を検出してもよい。
インターフェイス入出力部154は、ビュー決定部130から表示内容を受信する。また、インターフェイス入出力部154は、タッチパネル方式のUI画面を有する表示部であり、ユーザーに対して映像を表示する。インターフェイス入出力部154は、例えば環境地図、対象物体表示、ロボットビュー等をUI画面に表示する。更に、インターフェイス入出力部154は、ロボット100を使用するユーザー等が各種データを入力する操作部である。インターフェイス入出力部154は、例えばユーザーの操作を、タッチパネルを介して受け付けて操作信号を生成する。インターフェイス入出力部154は、生成した操作信号をロボット100に送信する。
また、遠隔制御装置150は、図1に図示しないが通信部を有する。通信部は、ロボット100の記憶部120に記録された情報やビュー決定部130で決定されたビューを受信したり、ロボット100に、遠隔制御装置150の位置や操作信号を送信したりする。
<2.一実施形態の動作>
次に、本発明の一実施形態に係るロボット100及び遠隔制御装置150の動作について説明する。
[表示制御処理]
まず、図2を参照して、本実施形態に係る遠隔制御装置150のUI画面の表示制御処理について説明する。図2は、本実施形態に係る遠隔制御装置150のUI画面の表示制御処理を示すフローチャートである。
まず、ロボット100がロボット100自身の現在状況やユーザー等の人を含む外部環境の現在状況を認識する(ステップS11)。認識された現在状況は、行動計画決定条件として、ロボット100の行動計画の決定に使用される。行動計画決定条件は、例えば、図3に示すような遠隔制御装置150(UI)の位置、ロボット100の現在の作業内容、外部環境情報、ロボット100の位置、遠隔制御装置150等の指示器の入力等がある。
次に、ロボット100は、行動計画決定条件に基づいて、将来の行動計画を決定する(ステップS12)。例えば、ロボット100と遠隔制御装置150が離れているか、又は近接しているかが認識されてロボット100の目的地が決定され、ロボット100が目的地に移動するといった行動計画が決定される。または、ロボット100の現在の作業内容が、対象物体を把持している状態であれば、次にその対象物体をユーザーに渡すといった行動計画が決定される。
そして、決定された行動計画に基づいて、ロボット100は遠隔制御装置150のUI画面の表示内容を決定する(ステップS13)。UI画面の表示内容は、ロボット100の将来の行動計画に対応した内容であり、例えば環境地図、対象物体表示、ロボットビュー等である。
その後、ロボット100は、表示内容を遠隔制御装置150へ送り、遠隔制御装置150のUI画面へ、ステップS13で決定した表示内容を表示させる(ステップS14)。例えば、ロボット100が移動する前であれば、ユーザーがロボット100の目的地を指示可能なように俯瞰的な環境地図や、複数の対象物体が一覧表示された対象物体表示を表示させてもよい。または、ロボット100が移動中であれば、ロボット100の視点からの環境地図や、ロボット100が撮影している画像を表示させてもよい。更には、ロボット100が対象物体に到達したとき、対象物体の周辺を撮影している画像を表示させてもよい。また、ロボット100が作業している間はロボット100が客観的に表示されるような環境地図を表示させてもよい。
ステップS13で決定した表示内容がUI画面に表示されることによって、ユーザーは遠隔制御装置150のタッチパネル上への指示等によってロボット100を容易に遠隔操作できる。
図5〜図7は、それぞれ遠隔制御装置150のディスプレイ14のUI画面16に表示される環境地図、対象物体表示、ロボットビューの表示例である。
環境地図は、ロボット100の外部環境認識によって生成された地図であり、図5に示すように行動計画に応じて室内を俯瞰したように表示されたり、ロボット100の視点の高さで表示されたりする。そして、環境地図内の任意のポイントがユーザーよって指示されることによって、ロボット100の移動目的地が決定されたり、ロボット100の視線方向が変更されたりする。
対象物体表示は、ロボット100の作業候補や移動目的地となる対象物体の一覧表示である。対象物体表示は、例えば図6に示すように複数の物体の外観が表示される。例えば、対象物体表示内の任意の物体がユーザーによって選択されることによって、ロボット100の移動目的地が決定される。
ロボットビューは、ロボット100に搭載されたカメラが撮影した画像であり、図7に示すようにカメラが撮影した画像がそのまま表示される。ロボットビューは、ロボット100の現在位置が不明であるときやロボット100が対象物体に到達して対象物体に対して作業するとき等に表示される。ロボットビューでは、UI画面がタッチされることで、タッチされた箇所がフォーカシングされたりズーミングされたりして物体が明確に表示されるようにしてもよい。
[表示切り替え処理]
次に、図4を参照して、本実施形態に係る遠隔制御装置150のUI画面の表示切り替え処理について説明する。図4は、同実施形態に係る遠隔制御装置150のUI画面の表示切り替え処理を示すフローチャートである。
UI画面への表示が、ロボットビュー、対象物体表示、環境地図の3種類である場合、行動計画決定条件に基づいて、どの表示をするかが判断される。
まず、行動計画決定条件に基づいて、3種類の表示のうちロボットビューを表示するか否かが判断される(ステップS21)。ロボットビューを表示すると判断された場合、UI画面へロボットビューを表示する(ステップS25)。例えば、行動計画として、ロボット100が対象物体の把持を継続すると決定された場合や、対象物体に到達して対象物体を観察すると決定された場合、ロボット100の現在位置を確認すると決定された場合等にロボットビューを表示する。ロボットビューが表示されることによって、遠隔制御装置150を操作するユーザーは、把持している対象物体をどこに置くかを決めることや、ロボット100の周辺環境を観察することが可能となる。
ロボットビューを表示しないと判断された場合、行動計画決定条件に基づいて、対象物体表示をするか否かが判断される(ステップS22)。対象物体表示を表示すると判断された場合、UI画面へ対象物体表示を表示する(ステップS25)。例えば、行動計画として、ロボット100の目的地を選択すると決定された場合や、目的地において対象物体を選択すると決定された場合等に対象物体表示を表示する。対象物体表示が表示されることによって、ロボット100の目的地や目的とする対象物体が不明な場合に、ロボット100に明確な指示をすることができる。
ロボットビューや対象物体表示を表示しないと判断された場合、表示内容を環境地図に決定する(ステップS23)。表示内容が環境地図に決定された場合、環境地図を具体的にどのような表示にするのかという見え方を決定する(ステップS24)。そして、決定した見え方で環境地図をUI画面へ表示する(ステップS25)。例えば、行動計画として、ロボット100の目的地を選択すると決定された場合等に俯瞰的に環境地図を表示する。また、行動計画として、ロボット100が移動を継続すると決定された場合等にロボット100の視点で環境地図を表示する。更に、行動計画として、ロボット100がユーザーに対する動作を継続すると決定された場合等にロボット100が客観的に表示されるような環境地図を表示する。環境地図が表示されることによって、ロボット100の目的地が不明な場合にロボット100に明確な指示を与えたり、ロボット100が動作中に客観的に表示されることでロボット100に対して詳細な動作指示を与えたりすることができる。
以上より、本実施形態によれば、行動計画決定条件に基づいて、遠隔制御装置150における操作に適した表示内容がUI画面に表示されるため、ユーザーはロボット100を遠隔制御する際、容易にロボット100を遠隔操作できるようになる。また、行動計画が逐次決定され、決定された行動計画に応じて表示される内容を切り替えていくようにすれば、ユーザーはスムーズにロボット100を遠隔操作できる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、遠隔制御装置150の表示内容として、ロボットビュー、対象物体表示、環境地図の3種類であるとしたが、本発明はかかる例に限定されない。例えば、決定された行動計画に基づいて、ロボット100の内部状態(例えばタスク負荷等)を表示してもよい。
また、上記実施形態では行動計画が明確に決定される場合について説明したが、本発明はかかる例に限定されない。例えば、行動計画決定条件によって行動計画が明確に決定できない場合は、環境地図表示や、ロボット100の複数の動作が一覧表示されたメニュー選択表示などに遷移するようにしてもよい。
100 ロボット
102 外部環境認識部
104 環境地図生成部
106 ロボット位置認識部
110 行動計画部
120 記憶部
130 ビュー決定部
140 駆動部
150 遠隔制御装置
152 インターフェイス位置検出部
154 インターフェイス入出力部

Claims (8)

  1. 自装置又は外部環境の現在状況を把握し、前記現在状況に基づいて将来の行動計画を複数の行動計画候補のうちから一つの行動計画に決定する行動計画部と、
    決定された前記行動計画に基づいて、前記自装置を遠隔制御する遠隔制御装置に表示する表示内容を、予め用意しておいた複数の表示パターン候補のうち一つの表示パターンに決定し、決定された前記表示パターンを前記遠隔制御装置に表示させる表示制御部と
    を備える、ロボット装置。
  2. 外部環境を認識する外部環境認識部と、
    認識された前記外部環境に基づいて環境地図を生成し、前記環境地図に基づいて自装置又は前記遠隔制御装置の位置を特定する環境地図生成部と
    を更に備え、
    前記行動計画部は、前記自装置又は前記遠隔制御装置の位置に基づいて前記行動計画を決定する、請求項1に記載のロボット装置。
  3. 自装置の位置を認識する自装置位置認識部を更に備え、
    前記行動計画部は、認識された前記自装置の位置に基づいて前記行動計画を決定する、請求項1に記載のロボット装置。
  4. 前記行動計画部は、前記遠隔制御装置から前記遠隔制御装置の位置を受信して、前記遠隔制御装置の位置に基づいて前記行動計画を決定する、請求項2に記載のロボット装置。
  5. 前記行動計画部は、前記自装置の現在の作業内容を認識し、前記自装置の現在の作業内容に基づいて前記行動計画を決定する、請求項4に記載のロボット装置。
  6. 前記表示制御部は、前記自装置の現在の作業内容に連動して前記表示パターンを切り替える、請求項5に記載のロボット装置。
  7. 自装置又は外部環境の現在状況を把握するステップと、
    前記現在状況に基づいて将来の行動計画を複数の行動計画候補のうちから一つの行動計画に決定するステップと、
    決定された前記行動計画に基づいて、前記自装置を遠隔制御する遠隔制御装置に表示する表示内容を、予め用意しておいた複数の表示パターン候補のうち一つの表示パターンに決定するステップと、
    決定された前記表示パターンを前記遠隔制御装置に表示させるステップと
    を備える、ロボット装置の遠隔制御方法。
  8. 自装置又は外部環境の現在状況を把握する手段、
    前記現在状況に基づいて将来の行動計画を複数の行動計画候補のうちから一つの行動計画に決定する手段、
    決定された前記行動計画に基づいて、前記自装置を遠隔制御する遠隔制御装置に表示する表示内容を、予め用意しておいた複数の表示パターン候補のうち一つの表示パターンに決定する手段、
    決定された前記表示パターンを前記遠隔制御装置に表示させる手段
    としてコンピュータを機能させるためのプログラム。
JP2010073033A 2010-03-26 2010-03-26 ロボット装置、ロボット装置の遠隔制御方法及びプログラム Pending JP2011201002A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010073033A JP2011201002A (ja) 2010-03-26 2010-03-26 ロボット装置、ロボット装置の遠隔制御方法及びプログラム
US13/051,478 US10105843B2 (en) 2010-03-26 2011-03-18 Robot device, remote control method of robot device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010073033A JP2011201002A (ja) 2010-03-26 2010-03-26 ロボット装置、ロボット装置の遠隔制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2011201002A true JP2011201002A (ja) 2011-10-13

Family

ID=44657300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010073033A Pending JP2011201002A (ja) 2010-03-26 2010-03-26 ロボット装置、ロボット装置の遠隔制御方法及びプログラム

Country Status (2)

Country Link
US (1) US10105843B2 (ja)
JP (1) JP2011201002A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059737A (ja) * 2012-09-18 2014-04-03 Sharp Corp 自走式機器
JP2014071846A (ja) * 2012-10-01 2014-04-21 Sharp Corp レイアウト情報作成装置、レイアウト情報作成方法、および自走式電子機器
JP2016012342A (ja) * 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム及びプログラム
JP2016068161A (ja) * 2014-09-26 2016-05-09 トヨタ自動車株式会社 ロボット制御方法
JP2018164223A (ja) * 2017-03-27 2018-10-18 東芝情報システム株式会社 表示システム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718822B1 (en) * 2011-05-06 2014-05-06 Ryan Hickman Overlaying sensor data in a user interface
US9552056B1 (en) 2011-08-27 2017-01-24 Fellow Robots, Inc. Gesture enabled telepresence robot and system
KR101410416B1 (ko) * 2011-12-21 2014-06-27 주식회사 케이티 원격 제어 방법, 시스템 및 원격 제어 사용자 인터페이스
US9191237B1 (en) * 2012-05-24 2015-11-17 Dan Barry, Inc. Wireless communication systems and methods
US20140180479A1 (en) * 2012-12-20 2014-06-26 Wal-Mart Stores, Inc. Bagging With Robotic Arm
US9796093B2 (en) 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
US10311400B2 (en) 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
US10239740B2 (en) 2015-03-06 2019-03-26 Walmart Apollo, Llc Shopping facility assistance system and method having a motorized transport unit that selectively leads or follows a user within a shopping facility
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US9707680B1 (en) * 2015-05-28 2017-07-18 X Development Llc Suggesting, selecting, and applying task-level movement parameters to implementation of robot motion primitives
US10586082B1 (en) 2019-05-29 2020-03-10 Fellow, Inc. Advanced micro-location of RFID tags in spatial environments
US20210162593A1 (en) * 2019-12-03 2021-06-03 Samsung Electronics Co., Ltd. Robot and method for controlling thereof
EP4193156A4 (en) 2020-08-04 2024-08-21 Artificial Inc TRANSLATION AND AUTOMATION OF PROTOCOLS IN A ROBOT LABORATORY
CN114553853B (zh) * 2022-01-27 2023-11-10 福建汇思博数字科技有限公司 一种远程控制应用的方法及终端

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269937A (ja) * 2002-03-15 2003-09-25 Sony Corp 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP2003532218A (ja) * 2000-05-01 2003-10-28 アイロボット コーポレーション 移動ロボットを遠隔操作するための方法およびシステム
JP2006088282A (ja) * 2004-09-24 2006-04-06 Toshiba Corp ロボット、ロボット行動計画実行装置、ロボットの行動計画実行方法、および、行動計画実行プログラム
JP2007061983A (ja) * 2005-09-01 2007-03-15 Fanuc Ltd ロボット監視システム
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JP2007125631A (ja) * 2005-11-01 2007-05-24 Sony Corp ロボット装置及びその行動制御方法
JP2007213190A (ja) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International コミュニケーションロボット改良システム
JP2007216363A (ja) * 2006-02-20 2007-08-30 Saitama Univ コミュニケーションロボット
JP2008068348A (ja) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology ロボット作業教示システムおよびロボットに対する作業教示方法
JP2008276754A (ja) * 2007-03-30 2008-11-13 Topy Ind Ltd ロボット位置検出システム
JP2009509673A (ja) * 2005-09-30 2009-03-12 アイロボット コーポレーション 個人の相互交流のためのコンパニオンロボット
JP2009136988A (ja) * 2007-12-10 2009-06-25 Honda Motor Co Ltd リモコン

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
JP4129442B2 (ja) * 2004-03-24 2008-08-06 株式会社東芝 移動装置システム
KR100703692B1 (ko) * 2004-11-03 2007-04-05 삼성전자주식회사 공간상에 존재하는 오브젝트들을 구별하기 위한 시스템,장치 및 방법
JP4357554B2 (ja) 2007-09-25 2009-11-04 富士通株式会社 ロボットの遠隔制御方法及びシステム並びにロボット
TWI341779B (en) * 2007-12-04 2011-05-11 Ind Tech Res Inst Sytstem and method for graphically arranging robot's working space

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003532218A (ja) * 2000-05-01 2003-10-28 アイロボット コーポレーション 移動ロボットを遠隔操作するための方法およびシステム
JP2003269937A (ja) * 2002-03-15 2003-09-25 Sony Corp 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JP2006088282A (ja) * 2004-09-24 2006-04-06 Toshiba Corp ロボット、ロボット行動計画実行装置、ロボットの行動計画実行方法、および、行動計画実行プログラム
JP2007061983A (ja) * 2005-09-01 2007-03-15 Fanuc Ltd ロボット監視システム
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
JP2009509673A (ja) * 2005-09-30 2009-03-12 アイロボット コーポレーション 個人の相互交流のためのコンパニオンロボット
JP2007125631A (ja) * 2005-11-01 2007-05-24 Sony Corp ロボット装置及びその行動制御方法
JP2007213190A (ja) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International コミュニケーションロボット改良システム
JP2007216363A (ja) * 2006-02-20 2007-08-30 Saitama Univ コミュニケーションロボット
JP2008068348A (ja) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology ロボット作業教示システムおよびロボットに対する作業教示方法
JP2008276754A (ja) * 2007-03-30 2008-11-13 Topy Ind Ltd ロボット位置検出システム
JP2009136988A (ja) * 2007-12-10 2009-06-25 Honda Motor Co Ltd リモコン

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059737A (ja) * 2012-09-18 2014-04-03 Sharp Corp 自走式機器
JP2014071846A (ja) * 2012-10-01 2014-04-21 Sharp Corp レイアウト情報作成装置、レイアウト情報作成方法、および自走式電子機器
JP2016012342A (ja) * 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム及びプログラム
JP2016068161A (ja) * 2014-09-26 2016-05-09 トヨタ自動車株式会社 ロボット制御方法
JP2018164223A (ja) * 2017-03-27 2018-10-18 東芝情報システム株式会社 表示システム

Also Published As

Publication number Publication date
US20110238211A1 (en) 2011-09-29
US10105843B2 (en) 2018-10-23

Similar Documents

Publication Publication Date Title
JP2011201002A (ja) ロボット装置、ロボット装置の遠隔制御方法及びプログラム
US8155787B2 (en) Intelligent interface device for grasping of an object by a manipulating robot and method of implementing this device
JP5550671B2 (ja) 自律走行ロボット及び自律走行ロボットの走行制御方法
JP5928923B2 (ja) ロボットシステム及び作業設備
JP6581056B2 (ja) ロボット制御部と通信する教示操作盤を備えたロボットシステム
EP3342555A1 (en) Remote control manipulator system and operation method thereof
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
US11284042B2 (en) Mobile robot, system and method for capturing and transmitting image data to remote terminal
JP4386367B2 (ja) コミュニケーションロボット改良システム
KR101297255B1 (ko) 이동 로봇, 및 이동 로봇의 원격 제어 시스템 및 방법
KR101753361B1 (ko) 청소 로봇을 이용한 스마트 청소 시스템
JP6354496B2 (ja) ロボット制御方法
JP5515654B2 (ja) ロボットシステム
EP3945389B1 (en) Control method and system for robot
JP2017019068A (ja) 教示装置、ロボット、及びロボットシステム
JP2018153874A (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP5776544B2 (ja) ロボットの制御方法、ロボットの制御装置、及びロボット
CN114800535B (zh) 机器人的控制方法、机械臂控制方法、机器人及控制终端
WO2023115927A1 (zh) 云端机器人的建图方法、系统、设备及存储介质
JP5278955B2 (ja) 福祉用ロボット装置のロボットアーム操作方法
JP2014139745A (ja) 機器管理システム、機器管理装置、機器管理方法及びプログラム
JP2011212764A (ja) ロボットの遠隔操作システム
JP2022132166A (ja) ロボット支援システム
JP2011143511A (ja) ユーザ支援システム
Evans III et al. Control solutions for robots using Android and iOS devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140617