JP2020082282A - 把持ロボットおよび把持ロボットの制御プログラム - Google Patents

把持ロボットおよび把持ロボットの制御プログラム Download PDF

Info

Publication number
JP2020082282A
JP2020082282A JP2018221337A JP2018221337A JP2020082282A JP 2020082282 A JP2020082282 A JP 2020082282A JP 2018221337 A JP2018221337 A JP 2018221337A JP 2018221337 A JP2018221337 A JP 2018221337A JP 2020082282 A JP2020082282 A JP 2020082282A
Authority
JP
Japan
Prior art keywords
unit
grippable
gripping
state
movable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018221337A
Other languages
English (en)
Other versions
JP7047726B2 (ja
Inventor
和都 村瀬
Kazuto Murase
和都 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018221337A priority Critical patent/JP7047726B2/ja
Priority to CN201911153946.0A priority patent/CN111216122B/zh
Priority to US16/693,993 priority patent/US11407102B2/en
Publication of JP2020082282A publication Critical patent/JP2020082282A/ja
Application granted granted Critical
Publication of JP7047726B2 publication Critical patent/JP7047726B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39536Planning of hand motion, grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39542Plan grasp points, grip matrix and initial grasp force
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】いち早く可動対象物の把持可能部を把持して変位動作を開始させることのできる把持ロボットを提供する。【解決手段】把持ロボットは、対象物を把持するための把持機構と、周辺環境を撮像する撮像部と、撮像部で取得された画像を入力画像とする学習済みモデルを用いて、周辺環境に把持機構が把持可能な把持可能部を抽出する抽出部と、把持可能部の位置を検出する位置検出部と、把持可能部の位置と可動状態とが対応付けられたルックアップテーブルを参照して、把持可能部の状態を認識する認識部と、認識部によって認識された把持可能部の状態に応じて、把持可能部を変位させるように把持機構を制御する把持制御部とを備える。【選択図】図2

Description

本発明は、把持ロボットおよび把持ロボットの制御プログラムに関する。
可動部を含む対象物体の動きを経時的に取得してその三次元形状を認識する技術が知られている(例えば、特許文献1参照)。
特開2014−228879号公報
ロボットハンドで可動対象物を変位させる場合には、全体の三次元形状を認識せずとも、いち早く可動対象物の把持可能部を把持して変位動作を開始させたい。
本発明は、このような問題を解決するためになされたものであり、いち早く可動対象物の把持可能部を把持して変位動作を開始させることのできる把持ロボットを提供するものである。
本発明の第1の態様における把持ロボットは、対象物を把持するための把持機構と、周辺環境を撮像する撮像部と、撮像部で取得された画像を入力画像とする学習済みモデルを用いて、周辺環境に把持機構が把持可能な把持可能部を抽出する抽出部と、把持可能部の位置を検出する位置検出部と、把持可能部の位置と可動状態とが対応付けられたルックアップテーブルを参照して、把持可能部の状態を認識する認識部と、認識部によって認識された把持可能部の状態に応じて、把持可能部を変位させるように把持機構を制御する把持制御部とを備える。このように、学習済みモデルとルックアップテーブルを組み合わせることにより、いち早く可動対象物の把持可能部を把持して変位動作を開始させることができる。
上記の把持ロボットにおいて、ルックアップテーブルは、把持可能部と可動状態が定義される可動部との関係が対応付けられていても良い。このようなルックアップテーブルを利用すれば、把持部とは異なる可動部が連動する場合であっても、いち早く変位動作を開始することができる。
本発明の第2の態様における把持ロボットの制御プログラムは、対象物を把持するための把持機構を備える把持ロボットの制御プログラムであって、周辺環境を撮像する撮像ステップと、撮像ステップで取得された画像を入力画像とする学習済みモデルを用いて、周辺環境に把持機構が把持可能な把持可能部を抽出する抽出ステップと、把持可能部の位置を検出する位置検出ステップと、把持可能部の位置と可動状態とが対応付けられたルックアップテーブルを参照して、把持可能部の状態を認識する認識ステップと、認識ステップによって認識された把持可能部の状態に応じて、把持可能部を変位させるように把持機構を制御する把持制御ステップとをコンピュータに実行させる。このような制御プログラムによって制御された把持ロボットは、第1の態様における把持ロボットと同様に、いち早く可動対象物の把持可能部を把持して変位動作を開始させることができる。
本発明により、いち早く可動対象物の把持可能部を把持して変位動作を開始させることのできる把持ロボットを提供することができる。
把持機構を備える移動ロボットの外観斜視図である。 移動ロボットの制御ブロック図である。 移動ロボットが取得した周辺環境画像の一例である。 学習済みモデルが出力する把持可能領域の一例である。 把持準備動作の様子を示す図である。 可動部テーブルにおける可動物の定義を説明する図である。 把持動作の一連の処理を示すフロー図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、対象物を把持する把持機構を備える移動ロボット100の外観斜視図である。移動ロボット100は、把持ロボットの一例である。移動ロボット100は、大きく分けて台車部110と本体部120によって構成される。台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。
台車部110は、上面の周縁部にレーザスキャナ133を備える。レーザスキャナ133は、水平面内の一定の範囲をステップ角ごとにスキャンして、それぞれの方向に障害物が存在するか否かを出力する。さらに、障害物が存在する場合には、その障害物までの距離を出力する。
本体部120は、主に、台車部110の上面に搭載された胴部121、胴部121の上面に載置された頭部122、胴部121の側面に支持されたアーム123、およびアーム123の先端部に設置されたハンド124を備える。ハンド124の手首部分には、把持対象物の位置を検出するハンドカメラ135を備える。アーム123とハンド124は、不図示のモータによって駆動され、様々な対象物を制御された姿勢で把持し、変位させることができる。すなわち、アーム123とハンド124は、対象物を把持するための把持機構としての機能を担う。胴部121は、不図示のモータの駆動力により、台車部110に対して鉛直軸周りに回転することができる。
頭部122は、主に、ステレオカメラ131および表示パネル141を備える。ステレオカメラ131は、同じ画角を有する2つのカメラユニットが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された撮像信号を出力する。ステレオカメラ131は、周辺環境を撮像する撮像部としての機能を担う。
表示パネル141は、例えば液晶パネルであり、設定されたキャラクターの顔をアニメーションで表示したり、移動ロボット100に関する情報をテキストやアイコンで表示したりする。表示パネル141にキャラクターの顔を表示すれば、表示パネル141が擬似的な顔部であるかの印象を周囲の人達に与えることができる。
頭部122は、不図示のモータの駆動力により、胴部121に対して鉛直軸周りに回転することができる。したがって、ステレオカメラ131は、任意の方向の対象物を撮像することができ、また、表示パネル141は、任意の方向へ向けて表示内容を呈示することができる。
図2は、移動ロボット100の制御ブロック図である。ここでは、対象物の把持動作に関係する主な要素について説明するが、移動ロボット100の構成としては他の要素も備え、また、把持動作の処理に寄与する他の要素が加えられることもあり得る。
制御部160は、例えばCPUであり、例えば胴部121に備えられたコントロールユニットに格納されている。台車駆動ユニット145は、駆動輪111と駆動輪111を駆動するための駆動回路やモータを含む。制御部160は、台車駆動ユニット145へ駆動信号を送ることにより、駆動輪の回転制御を実行する。また、制御部160は、台車駆動ユニット145からエンコーダ等のフィードバック信号を受け取って、台車部110の移動方向や移動速度を把握する。
上体駆動ユニット146は、アーム123およびハンド124の把持機構と、胴部121および頭部122と、これらを駆動するための駆動回路やモータを含む。制御部160は、上体駆動ユニット146へ駆動信号を送ることにより、把持動作や特定方向へのステレオカメラ131の回動等を実現する。また、制御部160は、上体駆動ユニット146からエンコーダ等のフィードバック信号を受け取って、アーム123およびハンド124の位置や移動速度、胴部121および頭部122の向きや回転速度を把握する。表示パネル141は、ユーザの要求等に応じて制御部160が生成した画像信号を表示する。また、制御部160は、上述のように、キャラクター等の画像信号を生成して、表示パネル141へ表示させる。
ステレオカメラ131は、制御部160からの要求に従って周辺環境を撮像し、撮像信号を制御部160へ引き渡す。制御部160は、取得した撮像信号を用いて画像処理を実行する。レーザスキャナ133は、制御部160からの要求に従って移動方向に障害物が存在するか否かを検出し、その結果である検出信号を制御部160へ引き渡す。
ハンドカメラ135は、例えば距離画像センサであり、対象物の距離、形状、方向等を認識するために用いられる。ハンドカメラ135は、対象空間から入射する光学像を光電変換するピクセルが二次元状に配列された撮像素子を含み、ピクセルごとに被写体までの距離を制御部160へ出力する。具体的には、ハンドカメラ135は、パターン光を対象空間に照射する照射ユニットを含み、その反射光を撮像素子で受光して、画像におけるパターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する。なお、制御部160は、より広い周辺環境の様子をステレオカメラ131で把握し、特定の対象物近傍の様子をハンドカメラ135で把握する。ハンドカメラ135は、把持機構が把持できる把持可能部の位置を検出する検出部としての機能を担う。
メモリ150は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ150は、移動ロボット100を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、入力画像から把持機構が把持可能な把持可能領域を出力する学習済みモデル151と、対象空間中に配置されている把持可能部の位置と可動状態とが対応付けられたルックアップテーブルである可動部テーブル152とを記憶している。
制御部160は、メモリ150から読み出した制御プログラムを実行することにより移動ロボット100全体の制御と様々な演算処理とを実行する。また、制御部160は、制御に関わる様々な演算や制御を実行する機能実行部としての役割も担う。このような機能実行部として、抽出部161、認識部162、把持制御部163を含む。
抽出部161は、ステレオカメラ131のいずれか一方の撮像信号から生成された画像データの画像を入力画像として、メモリ150から読み出した学習済みモデル151から把持可能領域を得て、周辺環境から把持機構が把持可能な把持可能部を抽出する。認識部162は、抽出部161が抽出した把持可能部のうち、タスク遂行のために把持すべき把持可能部の状態を認識する。より具体的には、ハンドカメラ135から得られた当該把持可能部の位置情報と、可動部テーブル152に記述された当該把持可能部の情報とに基づいて、現在の当該把持可能部の状態を認識する。把持制御部163は、認識部162が認識した当該把持可能部の状態に対し、どのように把持するか、さらにはどのように変位させるかを与えられたタスクに応じて定め、把持機構をそのように制御すべく上体駆動ユニット146へ駆動信号を送る。
図3は、移動ロボット100がステレオカメラ131により取得した周辺環境画像の一例である。ステレオカメラ131は2つのカメラユニットがそれぞれ撮像信号を出力するが、ここではいずれか一方の撮像信号から生成された二次元画像を示す。
この画像によれば、移動ロボット100の近くにキャビネット700が存在する。キャビネット700は、第1つまみ711が設けられた引出し710と、第2つまみ721、第3つまみ722が設けられた戸棚720を備える。抽出部161は、このような画像を入力画像として学習済みモデル151に与える。
図4は、学習済みモデル151が出力する把持可能領域の一例である。具体的には、第1つまみ711を囲む領域が第1検出領域811として、第2つまみ721を囲む領域が第2検出領域821として、第3つまみ722を囲む領域が第3検出領域822として検出される。学習済みモデル151は、把持機構のハンド部がつまんだり引っ掛けたりする把持可能部が写る画像と、その画像のうちどの領域が当該把持可能部であるかの正解値の組み合わせである大量の教師データにより学習を行ったニューラルネットワークである。したがって、画像中につまめそうな凸部や、引っ掛けられそうな凹部が写っていれば、実際には変位不可能な対象物であっても、把持可能領域として検出される場合もある。抽出部161は、学習済みモデル151の出力結果として、周辺環境から把持機構が把持可能な把持可能部を抽出する。なお、学習済みモデル151は、深層学習により学習を行ったニューラルネットワークであると良い。
図5は、移動ロボット100が実行する把持準備動作の様子を示す図である。移動ロボット100には、実行すべきタスクが予め与えられており、対象物の変位動作はその一環として実行される。例えばここでは、キャビネット700の引出し710に収容されたタオルを把持して特定の場所まで搬送するタスクが与えられているものとする。
タオルが収容された引出し710のおよその位置は、与えられたタスク中に予め記述されている。制御部160は、その情報から、抽出部161が抽出した把持可能部のうち、引出し710の近傍に存在する第1つまみ711を把持対象と定める。そして、図示するように、ハンドカメラ135が第1つまみ711を観察できる位置へアーム123を駆動する。
アーム123の駆動が完了したら、ハンドカメラ135は、第1つまみ711を含む空間領域を撮像する。制御部160は、現時点におけるハンド124の基準位置から第1つまみ711までの距離と、第1つまみ711が取り付けられている第1基準面712の面方向を、ハンドカメラ135の出力信号から算出する。
認識部162は、算出した第1つまみ711までの距離と第1基準面712の面方向を、可動部テーブル152に記述された第1つまみ711の情報に照らし合わせ、引出し710の現在の状態を認識する。より具体的には、引出し710が閉じられているのか、あるいはどれ程開かれているかといった状態を認識する。把持制御部163は、認識部162が認識した引出し710の状態あるいは第1つまみ711の状態に対し、どのように把持するか、さらには把持したままどの方向にどれだけ変位させるかを決定し、当該決定に応じた駆動信号を上体駆動ユニット146へ送信する。変位量は、例えばハンド124が対象のタオルを取り出すことができる幅から算出される。
図6は、可動部テーブル182における可動物の定義を説明する図である。キャビネット700の場合、可動物として引出し710と戸棚720が定義される。引出し710については、第1つまみ711が取り付けられている第1基準面712の面方向(例えば面ベクトル)、変位可能方向、および変位可能範囲が、移動ロボットの作業空間に対して規定された絶対座標系を用いて記述されている。また、第1基準面712に対する第1つまみ711の位置と外形形状が記述されている。
戸棚720については、第2つまみ721が取り付けられている第2基準面723の閉状態における面方向、回転軸方向、および回転可能範囲が、同じく絶対座標系を用いて記述されている。また、第2基準面723に対する第2つまみ721の位置と外形形状が記述されている。同様に、第3つまみ722が取り付けられている第3基準面724の閉状態における面方向、回転軸方向、および回転可能範囲が、同じく絶対座標系を用いて記述されている。また、第3基準面724に対する第3つまみ722の位置と外形形状が記述されている。
このような可動部テーブル152を作成しておくことで、制御部160は、学習済みモデル151の出力とハンド124の出力から、いち早く目的とする可動対象物の状態を認識することができる。ひいては、いち早く把持可能部を把持して変位動作を開始することができる。
図7は、把持動作の一連の処理を示すフロー図である。フローは、移動ロボット100が、実行すべきタスクに応じて、把持対象物の近傍まで移動した時点から開始する。制御部は、メモリ150から読み出した把持制御プログラムにより、以下の処理を実行する。
制御部160は、ステップS101で、ステレオカメラ131により周辺環境を撮像し、周辺環境画像を取得する。ステップS102へ進み、抽出部161は、当該周辺環境画像を入力画像として、メモリ150から読み出した学習済みモデル151から把持可能領域を得て、周辺環境から把持機構が把持可能な把持可能部を抽出する。
ステップS103へ進み、制御部160は、ハンドカメラ135が把持可能部を観察できる位置へアーム123を駆動する。そして、ハンドカメラ135に把持可能部を撮像させる。制御部160は、把持可能部の位置と把持可能部が取り付けられている基準面の面方向を、ハンドカメラ135の出力信号から算出する。
ステップS104へ進み、認識部162は、把持可能部の位置と把持可能部が取り付けられている基準面の面方向を、可動部テーブル152に記述された当該把持可能部の情報に照らし合わせ、現在の状態を認識する。ステップS105へ進み、把持制御部163は、認識部162が認識した把持可能部の状態に対し、どのように把持するか、さらには把持したままどの方向にどれだけ変位させるかを決定し、当該決定に応じた駆動信号を上体駆動ユニット146へ送信する。把持機構は、当該駆動信号に応じて、把持可能部を把持して変位させる。変位が完了したら、一連の処理を終了する。
以上説明した本実施形態においては、把持機構を備える移動ロボット100を把持ロボットの例として説明したが、把持ロボットは、このような移動ロボットに限らない。特定の場所に設置されたアームロボットであっても構わない。また、把持可能部の位置と可動状態とが対応付けられたルックアップテーブルの例として可動部テーブル152を説明したが、表現形式は説明した例に限らない。座標系で表現するのではなく、例えば動画像データを用いて可動状態を表現しても良い。また、把持可能部の位置を検出する位置検出部の例としてハンドカメラ135を説明したが、ステレオカメラ131が把持動作に対して十分な精度で把持部の位置を検出できるのであれば、ステレオカメラ131が位置検出部としての機能も担っても良い。
また、以上説明した本実施形態においては、キャビネット700を可動対象物として説明したが、もちろん動き得る対象物はキャビネットに限らない。移動ロボット100に扉を開けさせて仕切られた空間の一方から他方へ移動させるのであれば、開閉する扉も可動対象物となり得る。
また、把持可能部が可動部の一部でなくても構わない。例えば、傘のような構造物であれば、軸部である把持部に対して、軸部に沿って開閉する傘面が可動部となる。このような場合は、把持可能部と可動状態が定義される可動部との関係がルックアップテーブルに対応付けられて記述される。具体的には、開閉する傘面の基準位置が把持部の基準位置に対してどのように変位し得るのか、また、傘面が空間に対してどのように拡がるかが記述される。
100 移動ロボット、110 台車部、111 駆動輪、112 キャスター、120 本体部、121 胴部、122 頭部、123 アーム、124 ハンド、131 ステレオカメラ、133 レーザスキャナ、135 ハンドカメラ、141 表示パネル、145 台車駆動ユニット、146 上体駆動ユニット、150 メモリ、151 学習済みモデル、152 可動部テーブル、160 制御部、161 抽出部、162 認識部、163 把持制御部、700 キャビネット、710 引出し、711 第1つまみ、712 第1基準面、720 戸棚、721 第2つまみ、722 第3つまみ、723 第2基準面、724 第3基準面、811 第1検出領域、821 第2検出領域、822 第3検出領域

Claims (3)

  1. 対象物を把持するための把持機構と、
    周辺環境を撮像する撮像部と、
    前記撮像部で取得された画像を入力画像とする学習済みモデルを用いて、前記周辺環境に前記把持機構が把持可能な把持可能部を抽出する抽出部と、
    前記把持可能部の位置を検出する位置検出部と、
    前記把持可能部の位置と可動状態とが対応付けられたルックアップテーブルを参照して、前記把持可能部の状態を認識する認識部と、
    前記認識部によって認識された前記把持可能部の状態に応じて、前記把持可能部を変位させるように前記把持機構を制御する把持制御部と
    を備える把持ロボット。
  2. 前記ルックアップテーブルは、前記把持可能部と前記可動状態が定義される可動部との関係が対応付けられている請求項1に記載の把持ロボット。
  3. 対象物を把持するための把持機構を備える把持ロボットの制御プログラムであって、
    周辺環境を撮像する撮像ステップと、
    前記撮像ステップで取得された画像を入力画像とする学習済みモデルを用いて、前記周辺環境に前記把持機構が把持可能な把持可能部を抽出する抽出ステップと、
    前記把持可能部の位置を検出する位置検出ステップと、
    前記把持可能部の位置と可動状態とが対応付けられたルックアップテーブルを参照して、前記把持可能部の状態を認識する認識ステップと、
    前記認識ステップによって認識された前記把持可能部の状態に応じて、前記把持可能部を変位させるように前記把持機構を制御する把持制御ステップと
    をコンピュータに実行させる把持ロボットの制御プログラム。
JP2018221337A 2018-11-27 2018-11-27 把持ロボットおよび把持ロボットの制御プログラム Active JP7047726B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018221337A JP7047726B2 (ja) 2018-11-27 2018-11-27 把持ロボットおよび把持ロボットの制御プログラム
CN201911153946.0A CN111216122B (zh) 2018-11-27 2019-11-22 把持机器人及把持机器人的控制程序
US16/693,993 US11407102B2 (en) 2018-11-27 2019-11-25 Grasping robot and control program for grasping robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221337A JP7047726B2 (ja) 2018-11-27 2018-11-27 把持ロボットおよび把持ロボットの制御プログラム

Publications (2)

Publication Number Publication Date
JP2020082282A true JP2020082282A (ja) 2020-06-04
JP7047726B2 JP7047726B2 (ja) 2022-04-05

Family

ID=70770290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221337A Active JP7047726B2 (ja) 2018-11-27 2018-11-27 把持ロボットおよび把持ロボットの制御プログラム

Country Status (3)

Country Link
US (1) US11407102B2 (ja)
JP (1) JP7047726B2 (ja)
CN (1) CN111216122B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210067406A (ko) * 2019-11-29 2021-06-08 엘지전자 주식회사 로봇
US11130237B1 (en) * 2020-03-05 2021-09-28 Mujin, Inc. Method and computing system for performing container detection and object detection
WO2022086157A1 (ko) * 2020-10-20 2022-04-28 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015139872A (ja) * 2014-01-30 2015-08-03 株式会社リコー 情報処理装置、ロボット及びプログラム
JP2018504333A (ja) * 2014-12-16 2018-02-15 アマゾン テクノロジーズ インコーポレイテッド 在庫システムにおけるロボットによるアイテム把持
JP2018118343A (ja) * 2017-01-25 2018-08-02 株式会社安川電機 ハンドリングシステム及びコントローラ
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3834297B2 (ja) * 2003-05-12 2006-10-18 ファナック株式会社 画像処理装置
US7515990B2 (en) * 2003-05-21 2009-04-07 Panasonic Corporation Article control system, article control server, article control method
JP4908020B2 (ja) * 2006-03-02 2012-04-04 本田技研工業株式会社 ハンド制御システム
JP5037248B2 (ja) * 2007-07-17 2012-09-26 株式会社日立製作所 情報収集システムおよび情報収集ロボット
JP2012524663A (ja) * 2009-04-23 2012-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 物体学習ロボットおよび方法
US8781629B2 (en) * 2010-09-22 2014-07-15 Toyota Motor Engineering & Manufacturing North America, Inc. Human-robot interface apparatuses and methods of controlling robots
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
JP5960642B2 (ja) 2013-05-17 2016-08-02 国立大学法人 東京大学 3次元情報取得方法及び3次元情報取得装置
JP6529302B2 (ja) * 2015-03-24 2019-06-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US10546173B2 (en) * 2015-04-09 2020-01-28 Nec Corporation Information processing device, information processing system, position reporting method, and program recording medium
JP6616170B2 (ja) * 2015-12-07 2019-12-04 ファナック株式会社 コアシートの積層動作を学習する機械学習器、積層コア製造装置、積層コア製造システムおよび機械学習方法
EP3988257B1 (en) * 2016-02-08 2023-05-03 Berkshire Grey Operating Company, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
JP2017177294A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボットシステムおよびコンピュータプログラム
US10055667B2 (en) * 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot
JP2018027581A (ja) * 2016-08-17 2018-02-22 株式会社安川電機 ピッキングシステム
WO2018053430A1 (en) * 2016-09-16 2018-03-22 Carbon Robotics, Inc. System and calibration, registration, and training methods
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
JP6707485B2 (ja) * 2017-03-22 2020-06-10 株式会社東芝 物体ハンドリング装置およびその較正方法
US11106967B2 (en) * 2017-07-03 2021-08-31 X Development Llc Update of local features model based on correction to robot action
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
JP7136554B2 (ja) * 2017-12-18 2022-09-13 国立大学法人信州大学 把持装置、学習装置、プログラム、把持システム、及び学習方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015139872A (ja) * 2014-01-30 2015-08-03 株式会社リコー 情報処理装置、ロボット及びプログラム
JP2018504333A (ja) * 2014-12-16 2018-02-15 アマゾン テクノロジーズ インコーポレイテッド 在庫システムにおけるロボットによるアイテム把持
JP2018118343A (ja) * 2017-01-25 2018-08-02 株式会社安川電機 ハンドリングシステム及びコントローラ
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
竹沢勇人、中川秀夫: "部屋移動する介助犬ロボットのドア開閉動作", 日本機械学会2011年度年次大会DVD−ROM論文集, JPN7022000675, 19 June 2017 (2017-06-19), JP, ISSN: 0004710401 *

Also Published As

Publication number Publication date
JP7047726B2 (ja) 2022-04-05
US11407102B2 (en) 2022-08-09
CN111216122B (zh) 2022-10-25
CN111216122A (zh) 2020-06-02
US20200164507A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
JP6942177B2 (ja) ロボットが学習した経路を自律的に走行するように初期化するためのシステムおよび方法
CN114080583B (zh) 视觉教导和重复移动操纵系统
JP7047726B2 (ja) 把持ロボットおよび把持ロボットの制御プログラム
KR102573687B1 (ko) 원격 조작 시스템 및 원격 조작 방법
Tölgyessy et al. Foundations of visual linear human–robot interaction via pointing gesture navigation
JP7052652B2 (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
JP2009531184A (ja) 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法
JP5515654B2 (ja) ロボットシステム
KR20190136962A (ko) 역각 시각화 장치, 로봇 및 역각 시각화 프로그램
JP2020093366A (ja) ロボット
JP6134894B2 (ja) ロボット制御システムおよびロボット
JP2010082714A (ja) コミュニケーションロボット
JP2015114933A (ja) 物体認識装置、ロボット及び物体認識方法
JP7276108B2 (ja) 遠隔操作システム及び遠隔操作方法
JP2024035640A (ja) 遠隔操作システム、遠隔操作方法、及び、制御プログラム
JP2024035639A (ja) 遠隔操作システム、遠隔操作方法、及び、制御プログラム
JP7415775B2 (ja) ロボット
US20230333550A1 (en) Remote operation system, remote operation method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R151 Written notification of patent or utility model registration

Ref document number: 7047726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151