JP2013184257A - ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム - Google Patents

ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム Download PDF

Info

Publication number
JP2013184257A
JP2013184257A JP2012051629A JP2012051629A JP2013184257A JP 2013184257 A JP2013184257 A JP 2013184257A JP 2012051629 A JP2012051629 A JP 2012051629A JP 2012051629 A JP2012051629 A JP 2012051629A JP 2013184257 A JP2013184257 A JP 2013184257A
Authority
JP
Japan
Prior art keywords
unit
robot apparatus
teaching
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012051629A
Other languages
English (en)
Inventor
Gendai Kondo
玄大 近藤
Atsushi Miyamoto
敦史 宮本
Satoru Shimizu
悟 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012051629A priority Critical patent/JP2013184257A/ja
Priority to US13/776,763 priority patent/US8996176B2/en
Priority to CN201310066198.9A priority patent/CN103302664B/zh
Publication of JP2013184257A publication Critical patent/JP2013184257A/ja
Priority to US14/672,291 priority patent/US9527214B2/en
Priority to US15/359,939 priority patent/US9962839B2/en
Priority to US15/938,466 priority patent/US10384348B2/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45108Aid, robot for aid to, assist human disabled

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】微細物を含む多様な物体を、ユーザーの少ない教示回数に基づいて環境の中から認識して、把持動作を行なうロボット装置を提供する。
【解決手段】ロボット装置100は撮影画像を教示端末200に転送する。教示端末200側では、ユーザーが撮像画像上で物体を囲む大まかな範囲を教示し、ロボット装置100に転送する。ロボット装置100側では、教示された範囲内で抽出した物体の2次元輪郭情報から把持物体の3次元的な位置及び姿勢を推定して、その姿勢で把持するための腕部の軌道を計画して、物体の把持を実現する。
【選択図】 図4

Description

本明細書で開示する技術は、環境の中から物体を認識して把持するロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラムに係り、特に、教示端末などを介したユーザーからの教示に基づいて環境の中から物体を認識して把持動作を行なうロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラムに関する。
工場などに設置されるロボット装置は従来から知られている。この種のロボット装置の多くは、固定的なタスクを遂行するように設計されている。近年では、さまざまな作業を行えるロボット装置が実現しつつある。後者のロボット装置は、例えば福祉や介護、介助の分野に適用され、身体の不自由な人などユーザーの要望に応じて、所望の物体を取ってきて手渡してくれる。
ここで、ロボット装置が物体を把持するためには、環境の中から対象とする物体を見つける認識能力が必要である。しかしながら、ロボット装置がさまざまな状況で高い認識能力を持つことは難しい。また、針や薬(錠剤)などの微細物を把持する場合、この種の物体を環境から見つけ出すこと自体が難しい。
当業界では、ユーザーが教示端末などを使ってロボット装置に対して動作を指示する制御システムが知られている。したがって、ユーザーが教示端末を介してロボット装置に把持物体を指示するという方法が考えられる。
例えば、複数の素形状モデルそれぞれについての把持パターンをあらかじめデータベース化しておき、ユーザーが教示端末上で対象とする把持物体に該当する素形状モデルを指定すると、ロボット装置側では指定された素形状モデルを把持物体について取得した3次元位置データにフィッティングさせ、データベースを検索して把持物体の把持パターンを選択する動作教示システムについて提案がなされている(例えば、特許文献1を参照のこと)。
しかしながら、上記の動作教示システムでは、素形状モデルのデータベースをあらかじめ用意しなければならず、また、データベースに登録された素形状モデルに合致しない物体を扱うことはできない。また、フィッティングの際には3次元形状計測のみにより物体の3次元位置データを取得するように構成されているが、3次元形状計測は概して精度が低く、誤判定の危険があるとともに、針や薬(錠剤)などの素形状の定義が難しい微細物については把持するのに十分精度の高い3次元位置データを取得するのが困難となり、把持動作が有効に機能しないことが懸念される。また、教示端末上で素形状モデルを選択する操作は煩雑であり、そもそもユーザーが動作教示システムを利用しなくなる危険性さえある。
特開2009−214212号公報
本明細書で開示する技術の目的は、教示端末などを介したユーザーからの教示に基づいて、環境の中から物体を認識して好適に把持動作を行なうことができる、優れたロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラムを提供することにある。
本明細書で開示する技術のさらなる目的は、微細物を含む多様な物体を、ユーザーの少ない教示回数に基づいて環境の中から認識して、好適に把持動作を行なうことができる、優れたロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
物体を含んだ画像を画面に表示する出力部と、
前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力部と、
前記入力部における教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出部と、
前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定部と、
を具備するロボット装置である。
本願の請求項2に記載の技術によれば、請求項1に記載のロボット装置は、撮像部をさらに備えている。そして、前記出力部は、前記撮像部による撮像画像を前記画面に表示するように構成されている。
本願の請求項3に記載の技術によれば、請求項1に記載のロボット装置は、把持部と、推定した前記物体の3次元位置及び姿勢情報に基づいて、前記物体を把持するための前記把持部の軌道を計画する把持計画部と、前記計画した軌道に従って前記把持部による前記物体の把持動作を制御する把持制御部をさらに備えている。
本願の請求項4に記載の技術によれば、請求項1に記載のロボット装置において、前記出力部及び前記入力部を含む端末部は、前記把持部を含む前記ロボット装置本体と無線通信を行なうように構成されている。
本願の請求項5に記載の技術によれば、請求項1に記載のロボット装置において、前記入力部は、前記出力部の画面と一体のタッチパネルである。そして、ユーザーが前記タッチパネル上を触れて前記物体を囲む大まかな範囲の教示を行なうように構成されている。
本願の請求項6に記載の技術によれば、請求項5に記載のロボット装置は、ユーザーが前記タッチパネルに表示された前記撮像画像上で前記物体を囲む領域をなぞって前記教示を行なうように構成されている。
本願の請求項7に記載の技術によれば、請求項5に記載のロボット装置は、ユーザーが、前記タッチパネルに表示された前記撮像画像上で、前記物体を囲む範囲のほぼ中央をタッチして指示するとともに、タッチ時間により前記範囲の半径を与えて、前記教示を行なうように構成されている。
本願の請求項8に記載の技術によれば、請求項5に記載のロボット装置は、ユーザーが前記タッチパネルに表示された前記撮像画像上で前記物体を囲む矩形領域の対角線をなぞって前記教示を行なうように構成されている。
本願の請求項9に記載の技術によれば、請求項1に記載のロボット装置は、前記物体抽出部で抽出した前記物体の前記2次元輪郭情報を前記出力部で画面に表示し、前記入力部を介して前記2次元輪郭情報に対するユーザーの確認を得たことに応じて、前記物体の把持動作を実行するように構成されている。
本願の請求項10に記載の技術によれば、請求項9に記載のロボット装置は、前記2次元輪郭情報に対するユーザーの確認が得られなかった場合に、前記入力部でユーザーからの2回目の教示を受け付け、前記物体抽出部は、前記2回目教示内容に基づいて、前記物体の2次元輪郭情報の抽出を再度試みるように構成されている。
本願の請求項11に記載の技術によれば、請求項10に記載のロボット装置において、前記入力部は、前記2回目の教示として、前記物体の大まかな範囲に関する情報を再度受け付けるように構成されている。
本願の請求項12に記載の技術によれば、請求項10に記載のロボット装置において、前記入力部は、前記2回目の教示として、1回目に教示された前記物体の大まかな範囲に対する追加の教示を受け付けるように構成されている。
本願の請求項13に記載の技術によれば、請求項10に記載のロボット装置において、前記入力部は、前記2回目の教示として、1回目に教示された前記物体の大まかな範囲に含まれる複数の物体間の境界線の教示を受け付け、前記物体抽出部は前記境界線の両側からそれぞれ物体の2次元輪郭情報を抽出し、抽出した各物体の前記2次元輪郭情報を前記出力部で画面に表示し、前記入力部を介して前記2次元輪郭情報に対するユーザーの把持物体の選択及び確認を得たことに応じて、前記物体の把持動作を実行するように構成されている。
また、本願の請求項14に記載の技術は、
物体を含んだ画像を画面に表示する出力ステップと、
前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力ステップと、
前記入力ステップで受け付けた教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出ステップと、
前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定ステップと、
を有するロボット装置の制御方法である。
また、本願の請求項15に記載の技術は、
物体を含んだ画像を画面に表示する出力部、
前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力部、
前記入力部における教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出部、
前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定部、
としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラムである。
本願の請求項15に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項15に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1に係るロボット装置と同様の作用効果を得ることができる。
本明細書で開示する技術によれば、ロボット装置は、ユーザーの教示に基づいて、事前登録なしに、多様な物体を把持することが可能となる。特に、自律的な認識が難しい微細物や薄い物体を、ユーザーの少ない教示回数に基づいて環境の中から認識して、好適に把持動作を行なうことができるようになる。
また、本明細書で開示する技術によれば、ユーザーは教示端末で物体の大まかな輪郭を指定するという簡単な操作だけで、ロボット装置に対して把持物体を教示することができ、誰もが素早く簡単に教示操作を行なうことができる。
また、本明細書で開示する技術によれば、1回の処理では認識することが難しい把持物体であっても、ユーザーは、誤認識された結果に対して、把持物体の境界線などを繰り返し教示していくことで、ロボット装置に把持物体を認識させることができる。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用可能なロボット装置100の外観を示した図である。 図2は、本明細書で開示する技術を適用可能なロボット装置100の関節自由度構成を模式的に示した図である。 図3は、図1に示したロボット装置100の制御システムの構成を模式的に示した図である。 図4は、ロボット装置100と教示端末200からなる制御システムの機能的構成を模式的に示した図である。 図5Aは、ロボット装置100が教示装置200からの教示情報を利用して物体の把持を行なう際の制御システムにおける通信シーケンス例を示した図である。 図5Bは、ロボット装置100が教示装置200からの教示情報を利用して物体の把持を行なう際の制御システムにおける通信シーケンス例を示した図である。 図6は、教示端末200で画面表示する、ロボット装置100側で取得した撮像画像の一例を示した図である。 図7Aは、教示端末200の出力部413に画面表示されている撮像画像上で、把持物体となるペンを囲む領域をなぞることによってペンを囲む大まかな範囲を指示する様子を示した図である。 図7Bは、教示端末200の出力部413に画面表示されている撮像画像上で、把持の対象となるペンのほぼ中央をタッチし続けることによってペンを囲む大まかな範囲を指示する様子を示した図である。 図7Cは、教示端末200の出力部413に画面表示されている撮像画像上で、把持物体となるペンを囲む矩形領域の対角線をなぞることによってペンを囲む大まかな範囲を指示する様子を示した図である。 図7Dは、図7A〜図7Cに示した各入力方法を表現したアイコンからなる、入力方法選択用のパレットを例示した図である。 図8Aは、撮像画像の表示画面上に、ユーザーが指示した領域内で抽出した把持物体のより詳細な輪郭を重畳して表示している様子を示した図である。 図8Bは、表示した輪郭情報に基づいて把持物体の把持動作を実行してよいかどうかを確認するダイアログを示した図である。 図9は、把持物体であるペンと、その傍らにある消しゴムを誤って含んで抽出した輪郭を示した図である。 図10は、複数の物体を含む輪郭に対して、把持物体であるペンと、その他の物体とを区切る境界線を教示する様子を示した図である。 図11Aは、撮像画像の表示画面上に、把持物体であるペンとその傍らの消しゴムが分割された輪郭を重畳して表示している様子を示した図である。 図11Bは、表示した輪郭情報に基づいて把持物体の把持動作を実行してよいかどうかを確認するダイアログを示した図である。 図12は、撮像画像上で教示された輪郭から把持物体の位置と姿勢を推定する処理を説明するための図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術を適用可能なロボット装置100の外観を示している。ロボット装置100は、複数のリンクを関節で接続されたリンク構造体であり、各関節はアクチュエーターによって動作する。また、図2には、このロボット装置100の関節自由度構成を模式的に示している。図示のロボット装置100は、家庭内など時々刻々、動的に変化する周囲環境に設置され、家事や介護などの生活支援を行なうが、工場などに設置されて固定的なタスクを遂行することも可能である。
図示のロボット装置100は、双腕型であり、また、移動手段として、ベース部に対向する2輪の駆動輪101R及び101Lを備えている。各駆動輪101R及び101Lは、それぞれピッチ回りに回転する駆動輪用アクチュエーター102R及び102Lによって駆動する。なお、図2中において、参照番号151、152、153は、実在しない劣駆動関節であり、ロボット装置100の床面に対するX方向(前後方向)の並進自由度、Y方向(左右方向)の並進自由度、並びに、ヨー回りの回転自由度にそれぞれ相当し、ロボット装置100が仮想世界を動き回ることを表現したものである。
移動手段は、腰関節を介して上体に接続される。腰関節は、ピッチ回りに回転する腰関節ピッチ軸アクチュエーター103によって駆動する。上体は、左右2肢の腕部と、首関節を介して接続される頭部で構成される。左右の腕部は、それぞれ肩関節3自由度、肘関節2自由度、手首関節2自由度の、計7自由度とする。肩関節3自由度は、肩関節ピッチ軸アクチュエーター104R/L、肩関節ロール軸アクチュエーター105R/L、肩関節ヨー軸アクチュエーター106R/Lによって駆動する。肘関節2自由度は、肘関節ピッチ軸アクチュエーター107R/L、肘関節ヨー軸アクチュエーター108R/Lによって駆動する。手首関節2自由度は、手首関節ロール軸アクチュエーター109R/L、手首関節ピッチ軸アクチュエーター110R/Lによって駆動する。また、首関節2自由度は、首関節ピッチ軸アクチュエーター111、首関節ヨー軸アクチュエーター112によって駆動する。また、左右の腕部の先端の手関節1自由度は、手関節ロール軸アクチュエーター113R/Lによって駆動する。本実施形態では、手関節ロール軸アクチュエーター113R/Lを駆動することによって、手先による物体の把持動作を実現することができるものとする。
なお、図示のロボット装置100は、対向2輪式の移動手段を備えているが、本明細書で開示する技術の要旨は、対向2輪式の移動手段に限定されるものではない。例えば、脚式の移動手段を備えたロボット装置、あるいは移動手段を持たないロボット装置であっても、同様に本明細書で開示する技術を適用することができる。
各軸のアクチュエーターには、関節角を計測するためのエンコーダー、トルクを発生するためのモーター、モーターを駆動するための電流制御型モーター・ドライバーの他、十分な発生力を得るための減速機が取り付けられている。また、アクチュエーターには、アクチュエーターの駆動制御を行なう制御用マイクロコンピューターが併設されている(いずれも図2には図示しない)。
ロボット装置100のダイナミクス演算は、例えばホスト・コンピューター(図示しない)上で実行され、各関節アクチュエーターのトルク又は関節角度の制御目標値を生成する。制御目標値は、アクチュエーターに併設された制御用マイクロコンピューターに送信され、制御用マイクロコンピューター上で実行されるアクチュエーターの制御に用いられる。また、各関節アクチュエーターは、力制御方式又は位置制御方式により制御される。
図3には、図1に示したロボット装置100の制御システムの構成を模式的に示している。ロボット装置100は、全体の動作の統括的制御やその他のデータ処理を行なう制御ユニット310と、入出力部320と、駆動部330とを備えている。以下、各部について説明する。
入出力部320は、入力部として、ロボット装置100の目に相当するカメラ321、3次元センサー322、ロボット装置100の耳に相当するマイクロフォン323などを備えている。また、入出力部320は、出力部として、ロボット装置100の口に相当するスピーカー324などを備えている。ここで、カメラ321は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージ検出素子からなる。また、3次元センサー322は、物体の3次元的な位置と姿勢を計測することが可能なデバイスであり、例えば、ステレオ・カメラやレーザー・レンジ・ファインダー、Kinect(商標)などで構成される。また、ロボット装置100は、例えばマイクロフォン323からのユーザーの音声入力により、タスクの指示を受けることができる。但し、ロボット装置100は、有線、無線、あるいは記録メディアなどを介した他のタスクの指示の入力手段(図示しない)を備えていてもよい。
また、入出力部320は、無線通信部325を備えている。ロボット装置100は、無線通信部325により、Wi−Fiなどの通信路を介してユーザーの教示端末(タブレット端末など、図3には図示しない)などとデータ通信を行なうことができる。
駆動部330は、ロボット装置100の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモーター331と、モーター331の回転位置を検出するエンコーダー332と、エンコーダー332の出力に基づいてモーター331の回転位置や回転速度を適応的に制御するドライバー333の組み合わせで構成される。
制御ユニット310は、認識部311と、駆動制御部312と、環境マップ313を備えている。
認識部311は、入出力部320のうちカメラ321や距離センサー322といった入力部から得られる情報に基づいて、周囲の環境の認識を行なう。例えば、認識部311は、カメラ321の位置を推定する自己位置推定処理により得られる、カメラ321の位置姿勢情報と、カメラ321の撮像画像から物体を検出する画像認識処理により得られる物体情報から、環境マップ313を事前に構築したり更新したりする。
駆動制御部312は、入出力部320のうち出力部や、駆動部330の駆動を制御する。例えば、駆動制御部312は、ロボット装置100がタスクを実現するための、駆動部330の制御を行なう。ここで言う、ロボット装置100が実現するタスクには、ユーザーが指示した物体の受け渡しなどのユーザーとの物理的なインタラクションが含まれ、インタラクションを実現するために、駆動輪用アクチュエーター102R及び102Lや腕部の各関節アクチュエーターを駆動させる。
ロボット装置100は、例えば生活支援に適用され、身体の不自由な人などユーザーの要望に応じて、所望の物体を取ってきて手渡してくれる。ここで、ロボット装置100が物体を把持するためには、環境の中から対象とする物体を見つける認識能力が必要である。本実施形態では、ユーザーがカメラ画像に映っている物体を囲む大まかな範囲をロボット装置100に教示するという方法により、3次元形状計測では認識し難いような微細物や薄い物体に対しても把持能力を実現している。
図4には、ロボット装置100と教示端末200からなる制御システムの機能的構成を示している。
教示端末200は、通信部411と、情報処理部412と、出力部413と、入力部414を備えている。
通信部411は、Wi−Fiなどの通信路を介してロボット装置100などとデータ通信を行なうことができる。
教示端末200がタブレット端末の場合、出力部413はLCD(Liquid Crystal Display)などの平板状の表示装置であり、入力部414は出力部413の表示画面と一体となったタッチパネルであり、ユーザーは表示画面上を指やペン先でなぞることで入力操作を行なうことができる。
情報処理部412は、オペレーティング・システムが行なっている処理や、通信部411と、入力部414及び出力部413との情報受け渡しなどを担っている。
ロボット装置100側の通信部421は無線通信部325に、撮像部423はカメラ321に、3次元計測部424は3次元センサー322にそれぞれ相当する。また、画像処理部422は制御ユニット320内の認識部321に相当し、把持計画部426及び把持制御部427は駆動制御部312に相当する。また、把持部428は、主にロボット装置100の双腕で構成される。
撮像部423として、最低限1台のカメラを装備していればよい。2台のカメラを装備する場合には、後述するように、教示端末200側では左右画像を使った教示が可能になる。なお、撮像部423としてのカメラは、必ずしもロボット装置100本体に搭載されている必要はなく、ロボット装置100外に設置され、作業環境を撮像する環境カメラであってもよい。但し、ロボット装置100内外のいずれに設置されているにせよ、カメラ座標系と世界座標系との関係は既知であるものとする。
図4に示す制御システムでは、カメラの撮像画像から対象とする把持物体の位置及び姿勢を推定するために、カメラ座標系から世界座標系へ変換する必要がある。以下では、これら2つの座標系の関係は既知であるものとして説明する。
ロボット装置100側では、撮像部423で環境を撮影する。撮影した画像は、画像処理部422に取り込まれ、通信部421を介して教示端末200に転送される。教示端末200側では、ユーザーは、出力部413に表示された撮像画像上で、入力部414を介して把持物体を囲む大まかな範囲を教示する。この教示情報は、通信部411を介してロボット装置100に転送される。ロボット装置100側では、物体抽出部422は、教示情報が示す範囲内で把持物体のより詳細な輪郭を抽出する。そして、把持計画部426は、3次元センサー424の計測結果に基づいて、把持物体の姿勢を決定するとともに、その姿勢で把持するための腕部の軌道計画を行なう。その後、把持制御部427は、計画した軌道に従って把持部428の動作を制御して、物体の把持を実現する。
3次元センサー424は、例えばステレオ・カメラやレーザー・レンジ・ファインダー、Kinect(商標)などで構成されるが、一般に計測精度は低い。本実施形態では、物体抽出部422が教示情報に基づいて抽出した2次元的な輪郭情報を利用することによって、物体の3次元的な位置及び姿勢の推定精度を向上することができる。
また、ロボット装置100は、教示端末200からの、把持物体を囲む大まかな範囲を指定する1回目の教示に基づいて抽出した、物体の輪郭情報を教示端末200にフィードバックするようにしてもよい。この場合、教示端末200側では、抽出された物体の輪郭を出力部413に表示する。そして、ユーザーは、物体の輪郭を確認すると、教示端末200を介してロボット装置100に物体の把持実行を指示する。ロボット装置100側では、把持実行の指示に応答して、把持計画部426が、把持物体の3次元的な位置及び姿勢を推定し、その姿勢で把持するための腕部の軌道計画を行ない、把持制御部427がこの計画軌道に従って物体の把持を実現する。
他方、ユーザーが、1回目の教示に基づいて抽出された物体の輪郭を確認できない場合には、把持物体を絞り込むために、さらに2回目の教示を行なう。把持物体を囲む大まかな範囲を指定する1回目の教示に基づいて物体の輪郭を抽出できない一例として、指定した範囲内に把持対象以外の物体を取り込んでいるケースを挙げることができる。そこで、ユーザーは、2回目の教示として、ロボット装置100側で抽出した輪郭に対し、物体の境界線を指定する。この教示情報は、通信部411を介してロボット装置100に転送される。そして、ロボット装置100側では、物体抽出部422は、教示された境界線の左右でそれぞれ物体の輪郭を再抽出し、左右の物体の輪郭情報を教示端末200にフィードバックする。その後、教示端末200からユーザーの把持実行の指示を受け取ると、ロボット装置100側では、把持計画部426が、把持物体の3次元的な位置及び姿勢を決定し、その姿勢で把持するための腕部の軌道計画を行ない、把持制御部427がこの計画軌道に従って物体の把持を実現する。
なお、図4に示した制御システムにおいて、教示端末200をロボット装置100の一部として捉えることもできる。また、同図では、教示端末200は、ロボット装置100とは切り離され、無線通信により接続する端末装置として構成されているが、教示端末200と同等の機能を有する「教示部」をロボット装置100に一体化して組み込むこともできる。
図5Aには、ロボット装置100が教示装置200からの教示情報を利用して物体の把持を行なう際の制御システムにおける通信シーケンス例を示している。
ロボット装置100は、撮像部423で撮影した画像を取得すると(S5201)、通信部421を介して教示端末200に転送する。
教示端末200側では、ロボット装置100から転送されてきた画像を通信部411で受信すると、出力部413で画面に表示する(S5101)。図6には、出力部413で画面表示する、ロボット装置100側で取得した撮像画像の一例を示している。図示の例は、把持物体となるペンが床に落ちている様子を撮像した画像である。
教示端末200は、ロボット装置100から受信した撮像画像を表示した状態で、ユーザーから入力部414への入力待ちとなる(S5102)。
ユーザーは、例えば出力部413の表示画面と一体となったタッチパネルからなる入力部414を介して、把持物体に関する教示を入力することができる。本実施形態では、表示された撮像画像内で把持物体を囲む大まかな範囲をユーザーが教示する操作を想定している。
ここで、ユーザーがタッチパネル上で物体を囲む大まかな範囲を指示するための、幾つかの方法が挙げられる。
図7Aには、教示端末200の出力部413に画面表示されている撮像画像上で、把持の対象となるペンを囲む領域をなぞることによって、ペンを囲む大まかな範囲を指示する様子を示している。この場合、ユーザーがタッチパネル上で指先をなぞった線分の情報が、物体の領域を示す教示情報となる。
また、図7Bには、同撮像画像上で、把持の対象となるペンを囲む範囲のほぼ中央をタッチし続けることによって、ペンを囲む大まかな範囲を指示する様子を示している。ユーザーがタッチし続けている間、指先の接触点を中心とする円形の領域(円の半径)の表示が拡大し続ける。この場合、ユーザーがタッチパネル上で触れた領域の中心座標と、タッチした時間から換算される領域の半径の情報が、物体の領域を示す教示情報となる。したがって、ユーザーは、円形領域がペンを囲む所望のサイズになると、指先をタッチパネルから離せばよい。
また、図7Cには、同撮像領域上で、把持の対象となるペンを囲む矩形領域の対角線をなぞることによって、ペンを囲む大まかな範囲を指示する様子を示している。この場合、ユーザーがなぞった対角線の両端点の座標の情報が、物体の領域を示す教示情報となる。
なお、教示端末200側では、図7A〜図7Cに示したいずれか1つの入力方法を備えていてもよいが、図7Dに示すような、各入力方法を表現したアイコンからなるパレットを介してユーザーが入力方法を自由に選択できるようにしてもよい。
ユーザーが、例えば図7A〜図7Cに示すいずれかの操作を行なって(S5103)、入力部414への物体の領域を示す教示情報の入力が完了すると(S5104)、教示端末200は、この教示情報を、通信部411を介してロボット装置100へ転送する。
ロボット装置100側では、把持物体を囲む大まかな領域を示す教示情報を受信すると、物体抽出部425は、教示された領域から把持物体のより詳細な輪郭を抽出する(S5202)。物体の輪郭を抽出する方法は特に限定されない。例えば、一般的に公開されている文献「“GrabCut”−Interactive Foreground Extraction using Interated Graph Cuts」(Microsoft Research Cambridge 04)などの方法を適用することができる。
ロボット装置100は、S5202で推定された把持物体の輪郭情報を撮像画像とともに、通信部421を介して教示端末200に転送する。教示端末200側では、送られてきた把持物体の輪郭を、出力部413で画面表示する(S5105)。図8Aには、撮像画像の表示画面上に、ユーザーが指示した領域内で抽出した把持物体のより詳細な輪郭を重畳して表示している様子を示している。そして、その輪郭で把持物体を把持してよいかどうか、ユーザーが確認するまで待機する(S5106)。図8Bに示すように、把持部426が把持物体のより詳細な輪郭を表示した画面上に、ユーザーがロボット装置100による把持動作を確認若しくは許可したか否かを意思表示するためのダイアログが表示される。図示のダイアログでは、「把持しますか?」というメッセージとともに、「はい」、「いいえ」の各ボタンが表示されている。
そして、ダイアログ上でユーザーが「はい」を選択するなど、教示端末200側で、ロボット装置100が抽出した物体のより詳細な輪郭についてユーザーの確認が終了すると(S5108)、通信部411を介して把持物体の把持動作の実行を指示する。
ロボット装置100側では、通信部412で実行指示を受信すると、把持計画部426は、撮像部423のカメラ座標系と世界座標系の関係に基づいて、抽出した輪郭から把持物体の位置と姿勢を推定する(S5203)。但し、把持物体の位置と姿勢を推定する処理の詳細については、後述に譲る。
次いで、把持計画部424は、S5203で推定した把持物体の位置と姿勢から、把持物体を把持するときの把持部428の姿勢を決定する(S5204)。なお、把持物体を把持するときの把持部426の姿勢を決定する方法は任意である。例えば、本出願人に既に譲渡されている特願2011−262202号明細書に開示されている方法を適用することもできる。
そして、把持制御部427は、把持計画部426で計画した軌道に従って把持部426の動作を制御して、物体の把持を実現する(S5205)。なお、決定された把持姿勢に従って把持部428の動作を制御する方法は任意である。例えば、本出願人に既に譲渡されている特願2011−262202号明細書に開示されている方法を適用することもできる。
他方、ロボット装置100側で抽出した物体の輪郭に問題があり、図8Bに示したダイアログ上でユーザーが「いいえ」を選択した場合、その後の処理として2通りの方法が考えられる。1つは、教示端末200がS5103の処理まで戻り、物体を囲む大まかな範囲の教示をやり直す方法である。もう1つは、1回目の教示情報を活用して、ユーザーが2回目の教示を行なう方法である。
後者の方法では、ユーザーは、2回目の教示として、ロボット装置100側で複数の物体を含んで抽出してしまった輪郭に対し、物体の境界線を指定する。図9には、把持物体であるペンと、その傍らにある消しゴムを誤って含んで抽出した輪郭を示している。このような場合、図10に示すように、複数の物体を含む輪郭に対して、把持物体であるペンと、その他の物体とを区切る境界線を教示する。
図5Bには、教示端末200側のS5108の処理で、1回目の教示に基づいて抽出した物体の輪郭についてユーザーの確認が得られなかった以降の通信シーケンス例を示している。
教示端末200は、S5108の処理でユーザーの確認が得られないと、再びユーザーから入力部414への入力待ちとなる(S5111)。
ユーザーは、ロボット装置100側で抽出した把持物体の輪郭に対して、入力部414を介して、物体の境界線を教示する。すなわち、図10に示したように、複数の物体を含む輪郭に対して、把持物体であるペンと、その他の物体とを区切るような境界線を指でなぞる(S5112)。
入力部414への物体の境界線を示す教示情報の入力が完了すると(S5113)、教示端末200は、この教示情報を、通信部411を介してロボット装置100へ転送する。そして、ロボット装置100側では、物体抽出部422は、教示された境界線の左右でそれぞれ物体の輪郭を再抽出し、左右の物体の輪郭情報を撮像画像とともに教示端末200にフィードバックする(5211)。
教示端末200側では、再度送られてきた各物体の輪郭を、出力部413で画面表示する(S5114)。図11Aには、撮像画像の表示画面上に、把持物体であるペンとその傍らの消しゴムが分割された輪郭を重畳して表示している様子を示している。
そして、いずれの物体を把持するのか、ユーザーが確認するまで待機する(S5115)。ユーザーは、把持部426が各物体の輪郭を再表示した画面上で、把持したい物体を選択する(S5116)。すると、図11Bに示すように、選択した物体の未輪郭を残して(図示の例では、選択したペンの輪郭のみが残り、消しゴムの輪郭は消える)、ロボット装置100による把持動作を確認若しくは許可したか否かを意思表示するためのダイアログが表示される。図示のダイアログでは、「把持しますか?」というメッセージとともに、「はい」、「いいえ」の各ボタンが表示されている。このダイアログ上でユーザーが「はい」を選択するなど、教示端末200側で、ロボット装置100が抽出した物体のより詳細な輪郭についてユーザーの確認が終了すると(S5117)、通信部411を介して把持物体の把持動作の実行を指示する。
ロボット装置100側では、通信部412で実行指示を受信すると、把持計画部426は、撮像部423のカメラ座標系と世界座標系の関係に基づいて、抽出した輪郭から把持物体の位置と姿勢を推定する(S5212)。但し、把持物体の位置と姿勢を推定する処理の詳細については、後述に譲る。
その後、把持計画部424は、S5203で推定した把持物体の位置と姿勢から、把持物体を把持するときの把持部428の姿勢を決定し(S5204)、把持制御部427は、把持計画部426で計画した軌道に従って把持部426の動作を制御して、物体の把持を実現する(S5205)(同上)。
最後に、上記のS5203、S5212において、撮像画像上で教示された輪郭から把持物体の位置と姿勢を推定する処理について、図12を参照しながら説明する。但し、世界座標系とカメラ座標系との間の座標変換式は既知のものとする。
同図に示すように、世界座標系を(XW,YW,ZW)、カメラ座標系を(XC,YC,ZC)とする。撮像画像上の輪郭は、画像平面、すなわち、カメラ座標系の原点Cから焦点距離fの距離にある平面ZC=f上の点群AC(XA C,YA C,ZA C)とみなすことができる。
これら画像平面上の点群ACに対し、原点Cを通る直線の方程式を求める。そして、世界座標系において、各直線方程式が把持物体と交わる点群AW(XA W,YA W,ZA W)を求めると、これらが把持物体の世界座標系上の輪郭となるので、これらが把持物体の位置と姿勢を表すことになる。
上述したように、本実施形態によれば、ロボット装置100は、ユーザーからの把持物体を囲む大まかな領域の教示に基づいて、事前登録なしに、多様な物体を把持することが可能となる。特に、自律的な認識が難しい微細物や薄い物体を、ユーザーの少ない教示回数に基づいて環境の中から認識して、好適に把持動作を行なうことができるようになる。
ユーザーは、教示端末200上で物体の大まかな輪郭を教示するという簡単な操作だけで、ロボット装置100に対して把持物体を教示することができ、誰もが素早く簡単に教示操作を行なうことができる。
また、本実施形態では、把持物体を囲む大まかな領域の教示だけでは認識することが難しい把持物体であっても、ユーザーは、複数の物体を含む輪郭を誤認識された結果に対して、物体間の境界を教示することで、ロボット装置100に把持物体を認識させることができる。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)物体を含んだ画像を画面に表示する出力部と、前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力部と、前記入力部における教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出部と、前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定部と、を具備するロボット装置。
(2)撮像部をさらに備え、前記出力部は、前記撮像部による撮像画像を前記画面に表示する、上記(1)に記載のロボット装置。
(3)把持部と、推定した前記物体の3次元位置及び姿勢情報に基づいて、前記物体を把持するための前記把持部の軌道を計画する把持計画部と、前記計画した軌道に従って前記把持部による前記物体の把持動作を制御する把持制御部と、をさらに備える上記(1)に記載のロボット装置。
(4)前記出力部及び前記入力部を含む端末部は、前記把持部を含む前記ロボット装置本体と無線通信を行なう、上記(1)に記載のロボット装置。
(5)前記入力部は、前記出力部の画面と一体のタッチパネルであり、ユーザーは、前記タッチパネル上を触れて前記物体を囲む大まかな範囲の教示を行なう、上記(1)に記載のロボット装置。
(6)ユーザーは、前記タッチパネルに表示された前記撮像画像上で前記物体を囲む領域をなぞって、前記教示を行なう、上記(5)に記載のロボット装置。
(7)ユーザーは、前記タッチパネルに表示された前記撮像画像上で、前記物体を囲む範囲のほぼ中央をタッチして指示するとともに、タッチ時間により前記範囲の半径を与えて、前記教示を行なう、上記(5)に記載のロボット装置。
(8)ユーザーは、前記タッチパネルに表示された前記撮像画像上で前記物体を囲む矩形領域の対角線をなぞって、前記教示を行なう、上記(5)に記載のロボット装置。
(9)前記物体抽出部で抽出した前記物体の前記2次元輪郭情報を前記出力部で画面に表示し、前記入力部を介して前記2次元輪郭情報に対するユーザーの確認を得たことに応じて、前記物体の把持動作を実行する、上記(1)に記載のロボット装置。
(10)前記2次元輪郭情報に対するユーザーの確認が得られなかった場合に、前記入力部でユーザーからの2回目の教示を受け付け、前記物体抽出部は、前記2回目教示内容に基づいて、前記物体の2次元輪郭情報の抽出を再度試みる、上記(9)に記載のロボット装置。
(11)前記入力部は、前記2回目の教示として、前記物体の大まかな範囲に関する情報を再度受け付ける、上記(10)に記載のロボット装置。
(12)前記入力部は、前記2回目の教示として、1回目に教示された前記物体の大まかな範囲に対する追加の教示を受け付ける、上記(10)に記載のロボット装置。
(13)前記入力部は、前記2回目の教示として、1回目に教示された前記物体の大まかな範囲に含まれる複数の物体間の境界線の教示を受け付け、前記物体抽出部は前記境界線の両側からそれぞれ物体の2次元輪郭情報を抽出し、抽出した各物体の前記2次元輪郭情報を前記出力部で画面に表示し、
前記入力部を介して前記2次元輪郭情報に対するユーザーの把持物体の選択及び確認を得たことに応じて、前記物体の把持動作を実行する、上記(10)に記載のロボット装置。
(14)物体を含んだ画像を画面に表示する出力ステップと、前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力ステップと、前記入力ステップで受け付けた教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出ステップと、前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定ステップと、を有するロボット装置の制御方法。
(15)物体を含んだ画像を画面に表示する出力部、前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力部、前記入力部における教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出部、前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、例えば生活支援ロボットに適用して、動的に変化する生活環境下において、物体の把持及びユーザーへの受け渡し動作を好適に実現することができる。勿論、工場内に配置されるような産業用ロボットにも、同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたが、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
100…ロボット装置
101…駆動輪
102…駆動輪用アクチュエーター
103…腰関節ピッチ軸アクチュエーター
104…肩関節ピッチ軸アクチュエーター
105…肩関節ロール軸アクチュエーター
106…肩関節ヨー軸アクチュエーター
107…肘関節ピッチ軸アクチュエーター
108…肘関節ヨー軸アクチュエーター
109…手首関節ロール軸アクチュエーター
110…手首関節ピッチ軸アクチュエーター
111…首関節ピッチ軸アクチュエーター
112…首関節ヨー軸アクチュエーター
113…手関節ロール軸アクチュエーター
151、152、153…劣駆動関節
200…教示端末
310…制御ユニット
311…認識部
312…駆動制御部
313…環境マップ
320…入出力部
321…カメラ
322…3次元センサー
323…マイクロフォン
324…スピーカー
325…無線通信部
330…駆動部
331…モーター
332…エンコーダー
333…ドライバー
411…通信部
412…情報処理部
413…出力部
414…入力部
421…通信部
422…画像処理部
423…撮像部
424…3次元計測部
425…物体抽出部
426…把持計画部
427…把持制御部
428…把持部

Claims (15)

  1. 物体を含んだ画像を画面に表示する出力部と、
    前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力部と、
    前記入力部における教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出部と、
    前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定部と、
    を具備するロボット装置。
  2. 撮像部をさらに備え、
    前記出力部は、前記撮像部による撮像画像を前記画面に表示する、
    請求項1に記載のロボット装置。
  3. 把持部と、
    推定した前記物体の3次元位置及び姿勢情報に基づいて、前記物体を把持するための前記把持部の軌道を計画する把持計画部と、
    前記計画した軌道に従って前記把持部による前記物体の把持動作を制御する把持制御部と、
    をさらに備える請求項1に記載のロボット装置。
  4. 前記出力部及び前記入力部を含む端末部は、前記把持部を含む前記ロボット装置本体と無線通信を行なう、
    請求項1に記載のロボット装置。
  5. 前記入力部は、前記出力部の画面と一体のタッチパネルであり、
    ユーザーは、前記タッチパネル上を触れて前記物体を囲む大まかな範囲の教示を行なう、
    請求項1に記載のロボット装置。
  6. ユーザーは、前記タッチパネルに表示された前記撮像画像上で前記物体を囲む領域をなぞって、前記教示を行なう、
    請求項5に記載のロボット装置。
  7. ユーザーは、前記タッチパネルに表示された前記撮像画像上で、前記物体を囲む範囲のほぼ中央をタッチして指示するとともに、タッチ時間により前記範囲の半径を与えて、前記教示を行なう、
    請求項5に記載のロボット装置。
  8. ユーザーは、前記タッチパネルに表示された前記撮像画像上で前記物体を囲む矩形領域の対角線をなぞって、前記教示を行なう、
    請求項5に記載のロボット装置。
  9. 前記物体抽出部で抽出した前記物体の前記2次元輪郭情報を前記出力部で画面に表示し、
    前記入力部を介して前記2次元輪郭情報に対するユーザーの確認を得たことに応じて、前記物体の把持動作を実行する、
    請求項1に記載のロボット装置。
  10. 前記2次元輪郭情報に対するユーザーの確認が得られなかった場合に、前記入力部でユーザーからの2回目の教示を受け付け、
    前記物体抽出部は、前記2回目教示内容に基づいて、前記物体の2次元輪郭情報の抽出を再度試みる、
    請求項9に記載のロボット装置。
  11. 前記入力部は、前記2回目の教示として、前記物体の大まかな範囲に関する情報を再度受け付ける、
    請求項10に記載のロボット装置。
  12. 前記入力部は、前記2回目の教示として、1回目に教示された前記物体の大まかな範囲に対する追加の教示を受け付ける、
    請求項10に記載のロボット装置。
  13. 前記入力部は、前記2回目の教示として、1回目に教示された前記物体の大まかな範囲に含まれる複数の物体間の境界線の教示を受け付け、
    前記物体抽出部は前記境界線の両側からそれぞれ物体の2次元輪郭情報を抽出し、抽出した各物体の前記2次元輪郭情報を前記出力部で画面に表示し、
    前記入力部を介して前記2次元輪郭情報に対するユーザーの把持物体の選択及び確認を得たことに応じて、前記物体の把持動作を実行する、
    請求項10に記載のロボット装置。
  14. 物体を含んだ画像を画面に表示する出力ステップと、
    前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力ステップと、
    前記入力ステップで受け付けた教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出ステップと、
    前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定ステップと、
    を有するロボット装置の制御方法。
  15. 物体を含んだ画像を画面に表示する出力部、
    前記画像内で物体の大まかな範囲に関する情報をユーザーが教示する操作を受け付ける入力部、
    前記入力部における教示内容に基づいて、前記物体の2次元輪郭情報を抽出する物体抽出部、
    前記2次元輪郭情報に基づいて前記物体の3次元位置及び姿勢情報を推定する位置姿勢推定部、
    としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
JP2012051629A 2012-03-08 2012-03-08 ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム Pending JP2013184257A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012051629A JP2013184257A (ja) 2012-03-08 2012-03-08 ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US13/776,763 US8996176B2 (en) 2012-03-08 2013-02-26 Robot apparatus, method for controlling the same, and computer program
CN201310066198.9A CN103302664B (zh) 2012-03-08 2013-03-01 机器人设备以及用于控制机器人设备的方法
US14/672,291 US9527214B2 (en) 2012-03-08 2015-03-30 Robot apparatus, method for controlling the same, and computer program
US15/359,939 US9962839B2 (en) 2012-03-08 2016-11-23 Robot apparatus, method for controlling the same, and computer program
US15/938,466 US10384348B2 (en) 2012-03-08 2018-03-28 Robot apparatus, method for controlling the same, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012051629A JP2013184257A (ja) 2012-03-08 2012-03-08 ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム

Publications (1)

Publication Number Publication Date
JP2013184257A true JP2013184257A (ja) 2013-09-19

Family

ID=49114801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012051629A Pending JP2013184257A (ja) 2012-03-08 2012-03-08 ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム

Country Status (3)

Country Link
US (4) US8996176B2 (ja)
JP (1) JP2013184257A (ja)
CN (1) CN103302664B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015182142A (ja) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
JP2018014635A (ja) * 2016-07-21 2018-01-25 三菱電機ビルテクノサービス株式会社 画像処理装置及びプログラム
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP2019081208A (ja) * 2017-10-30 2019-05-30 株式会社東芝 情報処理装置及びロボットアーム制御システム
CN112975952A (zh) * 2019-12-13 2021-06-18 丰田自动车株式会社 远程操作系统及远程操作方法
JP2021094604A (ja) * 2019-12-13 2021-06-24 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
JPWO2021171353A1 (ja) * 2020-02-25 2021-09-02
WO2022014312A1 (ja) 2020-07-16 2022-01-20 ソニーグループ株式会社 ロボット制御装置、およびロボット制御方法、並びにプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013184257A (ja) 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP2014069251A (ja) * 2012-09-28 2014-04-21 Dainippon Screen Mfg Co Ltd 作業部制御装置、作業ロボット、作業部制御方法、および作業部制御プログラム
US9056396B1 (en) * 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
JP5788460B2 (ja) 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
US9782896B2 (en) * 2013-11-28 2017-10-10 Mitsubishi Electric Corporation Robot system and control method for robot system
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
JP5939267B2 (ja) 2014-03-05 2016-06-22 株式会社安川電機 ロボット監視システム、ロボット監視装置、ロボット監視方法、ロボット監視モジュール、およびロボット監視プログラム
JP6427972B2 (ja) * 2014-06-12 2018-11-28 セイコーエプソン株式会社 ロボット、ロボットシステム及び制御装置
US9636825B2 (en) * 2014-06-26 2017-05-02 Robotex Inc. Robotic logistics system
US9687983B1 (en) * 2016-05-11 2017-06-27 X Development Llc Generating a grasp pose for grasping of an object by a grasping end effector of a robot
JP6392817B2 (ja) * 2016-08-04 2018-09-19 ファナック株式会社 シミュレーション装置
JP6742196B2 (ja) * 2016-08-24 2020-08-19 Cyberdyne株式会社 生体活動検出装置および生体活動検出システム
JP2018126810A (ja) * 2017-02-06 2018-08-16 川崎重工業株式会社 ロボットシステム及びロボット対話方法
JP6882147B2 (ja) * 2017-11-28 2021-06-02 シュナイダーエレクトリックホールディングス株式会社 操作案内システム
JP7238796B2 (ja) * 2018-01-10 2023-03-14 ソニーグループ株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
CN110293554A (zh) * 2018-03-21 2019-10-01 北京猎户星空科技有限公司 机器人的控制方法、装置和系统
US11409276B2 (en) * 2018-08-17 2022-08-09 Michael Isakov Method and system for controlling robots within in an interactive arena and generating a virtual overlayed
EP3738725B1 (en) 2019-05-15 2022-02-16 Omron Corporation Measurement system, measurement device, measurement method, and measurement program
KR20190104483A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 로봇 시스템 및 그 제어 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7036094B1 (en) * 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
JP3525896B2 (ja) * 1999-03-19 2004-05-10 松下電工株式会社 3次元物体認識方法および同方法を使用したビンピッキングシステム
WO2003064116A2 (en) * 2002-01-31 2003-08-07 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
CA2573728A1 (en) * 2004-07-14 2006-02-23 Braintech Canada, Inc. Method and apparatus for machine-vision
US8126260B2 (en) * 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
WO2009110242A1 (ja) * 2008-03-06 2009-09-11 パナソニック株式会社 マニピュレータおよびその制御方法
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
US20100179689A1 (en) * 2009-01-09 2010-07-15 National Taiwan University Of Science And Technology Method of teaching robotic system
US8781629B2 (en) * 2010-09-22 2014-07-15 Toyota Motor Engineering & Manufacturing North America, Inc. Human-robot interface apparatuses and methods of controlling robots
US8447863B1 (en) * 2011-05-06 2013-05-21 Google Inc. Systems and methods for object recognition
JP2013111726A (ja) 2011-11-30 2013-06-10 Sony Corp ロボット装置及びその制御方法、並びにコンピューター・プログラム
JP2013184257A (ja) 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015182142A (ja) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
JP2018014635A (ja) * 2016-07-21 2018-01-25 三菱電機ビルテクノサービス株式会社 画像処理装置及びプログラム
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
CN107791245A (zh) * 2016-08-31 2018-03-13 精工爱普生株式会社 机器人控制装置、机器人以及机器人系统
JP7062406B2 (ja) 2017-10-30 2022-05-16 株式会社東芝 情報処理装置及びロボットアーム制御システム
JP2019081208A (ja) * 2017-10-30 2019-05-30 株式会社東芝 情報処理装置及びロボットアーム制御システム
KR102573687B1 (ko) * 2019-12-13 2023-09-04 도요타지도샤가부시키가이샤 원격 조작 시스템 및 원격 조작 방법
JP2021094604A (ja) * 2019-12-13 2021-06-24 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
JP2021094605A (ja) * 2019-12-13 2021-06-24 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
KR20210075865A (ko) * 2019-12-13 2021-06-23 도요타지도샤가부시키가이샤 원격 조작 시스템 및 원격 조작 방법
JP7276108B2 (ja) 2019-12-13 2023-05-18 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
CN112975952A (zh) * 2019-12-13 2021-06-18 丰田自动车株式会社 远程操作系统及远程操作方法
JP7342676B2 (ja) 2019-12-13 2023-09-12 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
US11904481B2 (en) 2019-12-13 2024-02-20 Toyota Jidosha Kabushiki Kaisha Remote control system and remote control method
JPWO2021171353A1 (ja) * 2020-02-25 2021-09-02
WO2021171353A1 (ja) * 2020-02-25 2021-09-02 日本電気株式会社 制御装置、制御方法及び記録媒体
JP7452619B2 (ja) 2020-02-25 2024-03-19 日本電気株式会社 制御装置、制御方法及びプログラム
WO2022014312A1 (ja) 2020-07-16 2022-01-20 ソニーグループ株式会社 ロボット制御装置、およびロボット制御方法、並びにプログラム

Also Published As

Publication number Publication date
US20150202777A1 (en) 2015-07-23
CN103302664B (zh) 2016-04-13
US9527214B2 (en) 2016-12-27
US20130238131A1 (en) 2013-09-12
US20180215045A1 (en) 2018-08-02
US9962839B2 (en) 2018-05-08
US8996176B2 (en) 2015-03-31
US10384348B2 (en) 2019-08-20
US20170072569A1 (en) 2017-03-16
CN103302664A (zh) 2013-09-18

Similar Documents

Publication Publication Date Title
JP2013184257A (ja) ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US11072068B2 (en) Robot apparatus and method of controlling robot apparatus
US20210205986A1 (en) Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose
US10980605B2 (en) Remote control robot system
US10293487B2 (en) Robot device, method of controlling the same, computer program, and robot system
KR101978740B1 (ko) 원격조종시스템 및 그 제어방법
CN114728417B (zh) 由远程操作员触发的机器人自主对象学习的方法及设备
JP2020055096A (ja) 情報処理装置、情報処理方法及びシステム
CN107030692B (zh) 一种基于感知增强的机械手遥操作方法及系统
CN112634318B (zh) 一种水下维修机器人的遥操作系统和方法
JP6589604B2 (ja) ティーチング結果表示システム
JP2009119579A (ja) 情報処理装置、情報処理方法
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP2020038588A (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
JP2020196060A (ja) 教示方法
JP2013173209A (ja) ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP5862382B2 (ja) 作業支援装置
US11731278B1 (en) Robot teleoperation using mobile device motion sensors and web standards
Antu et al. Atom: Novel data capturing technique for robotic teleoperation
CN115917479A (zh) 信息处理装置、信息处理方法和信息处理程序
JP2020157394A (ja) ロボット装置