JP7044047B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP7044047B2
JP7044047B2 JP2018234338A JP2018234338A JP7044047B2 JP 7044047 B2 JP7044047 B2 JP 7044047B2 JP 2018234338 A JP2018234338 A JP 2018234338A JP 2018234338 A JP2018234338 A JP 2018234338A JP 7044047 B2 JP7044047 B2 JP 7044047B2
Authority
JP
Japan
Prior art keywords
gripping
robot
gripping object
manipulator
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018234338A
Other languages
English (en)
Other versions
JP2020093366A (ja
Inventor
拓也 池田
耕志 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018234338A priority Critical patent/JP7044047B2/ja
Priority to CN201911218648.5A priority patent/CN111319039B/zh
Priority to US16/710,656 priority patent/US11833682B2/en
Publication of JP2020093366A publication Critical patent/JP2020093366A/ja
Application granted granted Critical
Publication of JP7044047B2 publication Critical patent/JP7044047B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/06Programme-controlled manipulators characterised by multi-articulated arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39536Planning of hand motion, grasping

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Description

本発明は、把持対象物を把持するマニピュレータを有するロボットに関する。
把持対象物を把持するためのマニピュレータを有する移動可能なロボットが知られている。特許文献1には、把持対象物に接近したところでロボットを停止させ、視覚センサにより把持対象物の情報を取得し、認識器において当該情報を用いて把持対象物の認識を行い、軌道制御器において当該認識結果に基づいて把持計画を作成することが開示されている。
特開2013-198943号公報
しかしながら、特許文献1に開示された技術のように、ロボットを停止させて把持対象物の情報を取得する場合、把持対象物の情報が一方向の視野からしか得られないので、把持対象物の把持位置を適切に認識できない場合がある。このため、把持の成功率があまり良くないという問題があった。また、把持対象物の情報の取得のためにロボットの移動を止めていたので把持に要する時間が余分にかかっていた。
本発明は、以上の背景に鑑みなされたものであり、把持対象物の把持位置を適切に認識し把持の成功率を高めることができるとともに、把持に要する時間を短縮することができるロボットを提供することを目的とする。
本発明にかかるロボットは、マニピュレータを有するロボットであって、前記把持対象物を含む環境空間の撮像画像を取得する撮像取得部と、前記ロボットにおける動作を制御する制御部と、を備え、前記制御部は、前記把持対象物に接近するように前記ロボットを移動させながら前記撮像取得部により前記把持対象物の撮像画像を複数取得させ、前記撮像画像より得られた情報について学習済みモデルを用いて前記把持対象物の把持位置及び当該把持位置の確からしさの指標を計算し、前記マニピュレータを動作させて当該計算の結果に基づいて選択された把持位置において前記把持対象物の把持を試みるものである。
把持対象物の情報を一方向のみから取得する場合、把持対象物における見ることのできなかった箇所により望ましい把持位置が存在する可能性がある。ロボットを移動させながら把持対象物の情報を複数取得すると、把持対象物の情報を異なる方向から取得することができる。このため、把持対象物の情報を一方向のみから取得する場合に対し、把持対象物における見ることのできなかった箇所をより少なくすることができるので、把持対象物の把持位置を適切に認識することができる。そして、これらの把持対象物の情報から学習済モデルを用いて把持位置と尤度を計算し、当該計算の結果に基づいて把持位置を選択することで、より望ましいと推定される把持位置を割り出すことが可能になり、把持の成功率を高めることができる。さらに、把持対象物に接近させるようにロボットを移動させている間に把持対象物の情報を取得するので、把持対象物に接近させた後にロボットを停止させて把持対象物の情報を取得する場合と比べて、把持対象物の把持に要する時間を短縮することができる。
また、前記制御部は、前記指標が相対的に高いものに対応する把持位置を優先的に選択し、当該把持位置において前記把持対象物の把持を試みるようにしてもよい。このように、尤度が相対的に高いものに対応する把持位置を優先的に選択することで、より望ましいと推定される把持位置を割り出すことが可能になり、把持の成功率を高めることができる。
さらに、前記制御部は、前記指標が所定の閾値よりも高いものが得られた時点で前記マニピュレータを動作させて前記把持対象物の把持を試みるようにしてもよい。このように尤度が所定の閾値より高いものが得られた時点で把持対象物の情報の取得を打ち切り、把持を試みるようにすることで、把持に要する時間をより短縮することができる。
さらに、前記撮像取得部は、前記マニピュレータによって前記把持対象物の視覚情報が遮られない位置に設置されるのが好ましい。このようにすると、撮像取得部により取得された把持対象物の情報において、把持対象物の把持位置が認識できないリスクを低減することができる。
さらに、前記撮像取得部は前記マニピュレータの先端部に設置されるのが好ましい。ロボットにおいて、マニピュレータの先端部は把持対象物に最も近接させることができる。このため、撮像取得部をマニピュレータの先端部に設置すると、把持対象物の情報をより精度良く取得することができる。
さらに、前記情報は、前記撮像取得部が複数取得した前記把持対象物の撮像画像を合成して作成した3D画像の画像データであってもよい。
本発明によれば、把持対象物の把持位置を適切に認識し把持の成功率を高めることができるとともに、把持に要する時間を短縮することができる。
本実施形態に係る制御装置を適用するロボットの外観斜視図である。 ロボットの制御構成を示すブロック図である。 制御装置において、ロボットが把持対象物の把持を行う動作を制御する処理の流れについて説明するフローチャートである。 学習前のニューラルネットワークを学習させる方法について教師あり学習を例に説明する模式図である。 図3のステップS101の処理について、より具体的に説明する模式図である。 ロボットが把持対象物を把持することが可能な範囲内に接近した状態で把持対象物の情報を取得する例について示す模式図である。 制御部において、ロボットが把持対象物の把持を行う動作を制御する処理の流れの変形例1について説明するフローチャートである。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
まず、本実施形態に係る制御装置を適用するロボットの構成について説明する。
図1は、本実施形態に係る制御装置を適用するロボット100の外観斜視図である。図において、xy平面はロボット100の走行面であり、z軸プラス方向は天頂方向を示す。図1に示すように、ロボット100は、大きく分けて、走行面を移動するための移動機構としての台車部110と、本体部120と、把持機構としてのマニピュレータ230と、によって構成される。マニピュレータ230は、ロボットアーム130及びロボットハンド140を含む。
台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。ロボット100は、例えば、2つの駆動輪111が同じ方向に同じ回転速度で回転されれば直進し、逆方向に同じ回転速度で回転されれば台車部110の2つの駆動輪111の中央を通る鉛直軸周りに旋回する。
本体部120は、ロボットアーム130を支持すると共に、ユーザインタフェースの一部を成す表示パネル123を有する。表示パネル123は、例えば液晶パネルであり、キャラクターの顔を表示したり、ロボット100に関する情報を提示したりする。表示パネル123は、表示面にタッチパネルを有し、ユーザからの指示入力を受け付けることができる。
本体部120に支持されたロボットアーム130は、複数のリンク、例えば図示するように2つのリンクを有し、各リンクを回動可能に連結する関節部131(手首関節、肘関節、肩関節など)に設けられたアクチュエータを駆動させることにより様々な姿勢を取り得る。各関節部131には、減速機構が設けられている。ロボットアーム130の先端部にはロボットハンド140が接続されており、ロボットハンド140の全体は、ロボットアーム130の先端リンクの伸延方向と平行な旋回軸周りに、アクチュエータの駆動によって旋回し得る。ロボットハンド140は、先端部に設けられたアクチュエータによって駆動される第1フィンガー140aと第2フィンガー140bを備える。第1フィンガー140aと第2フィンガー140bは、点線矢印で示すようにそれぞれが互いに接近するように動作して、対象物を挟持することにより把持を実現する。また、本体部120には、コントロールユニット190が設けられている。コントロールユニット190は、後述の制御部とメモリ等を含む。
撮像取得部250は、把持対象物を含む環境空間の撮像画像を取得する。撮像取得部250は、マニピュレータ230によって把持対象物の視覚情報が遮られない位置に設置される。なお、撮像取得部250は、マニピュレータ230の先端部に設置されるのが好ましい。ロボット100において、マニピュレータ230の先端部は把持対象物に最も近接させることができる。このため、撮像取得部250をマニピュレータ230の先端部に設置すると、把持対象物の情報をより精度良く取得することができる。
撮像取得部250は、例えば、本体部120におけるロボットアーム130及びロボットハンド140の動作範囲を含む前方の環境空間を見渡せる位置に配設された環境カメラ121と、ロボットアーム130の先端部に配設されたハンドカメラ141と、を有する。環境カメラ121及びハンドカメラ141は、例えばCMOSイメージセンサである撮像素子と画像データ生成部を含む。環境カメラ121は、前方の環境空間を撮像して生成した画像データを出力する。ハンドカメラ141は、ロボットハンド140の前方空間を撮像して生成した画像データを出力する。なお、撮像取得部250は、複数のカメラを有している必要はなく、カメラが1つである構成であってもよい。
図2は、ロボット100の制御構成を示すブロック図である。本実施形態に係る制御部200は、ロボット100に組み込まれている。すなわち、制御部200は、例えばCPUであり、本体部120のコントロールユニット190(図1参照)に格納されている。駆動ユニット210は、駆動輪111(図1参照)を駆動するための駆動回路やモータを含み、台車部110(図1参照)に設けられている。
マニピュレータ230に含まれるロボットアーム130は、図1を用いて説明した構造体の他に、各関節部131を駆動するアクチュエータ132と、各関節部131(図1参照)の回転情報を検出する回転センサ134と、各関節部131の操作力(トルク)を検出する力センサ133と、を有する。アクチュエータ132は、例えばサーボモータなどである。回転センサ134は、例えばエンコーダなどである。力センサ133は、例えば、各関節部131のトルクを検出するトルクセンサなどである。マニピュレータ230に含まれるロボットハンド140は、第1フィンガー140aと第2フィンガー140b(図1参照)を駆動するアクチュエータ142と、ロボットハンド140の操作力を検出する力センサ143と、を有する。
センサユニット220は、移動中に障害物を検出したり、外部からの接触を検出したりする各種センサを含み、台車部110及び本体部120(図1参照)に分散して配置されている。制御部200は、センサユニット220に制御信号を送ることにより、各種センサを駆動してその出力を取得する。
撮像取得部250の環境カメラ121は、上述のように、ロボットアーム130及びロボットハンド140の動作範囲を含む前方の環境空間を観察するために利用され、制御部200の撮像指示に従って撮像を実行する。環境カメラ121は、生成した画像データを制御部200へ引き渡す。ハンドカメラ141は、上述のように、ロボットハンド140の前方空間を観察するために利用され、制御部200の撮像指示に従って撮像を実行する。ハンドカメラ141は、生成した画像データを制御部200へ引き渡す。
メモリ240は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ240は、ロボット100を制御するためのロボット制御プログラムの他、制御に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶していてもよい。
制御部200は、ロボット100の動作を制御する。すなわち、制御部200は、駆動ユニット210へ駆動信号を送ることにより、駆動輪111の回転制御を実行する。また、ロボットアーム130のアクチュエータ132及びロボットハンド140のアクチュエータ142へ駆動信号を送ることにより、マニピュレータ230により把持対象物を把持する動作を制御する。制御部200における、ロボット100の動作の制御の詳細については後述する。
制御部200は、インターネット600に接続されたシステムサーバ500より学習済みモデル500aを読み出す。制御部200は、無線ルータ700を介してインターネット600と接続されている。ここで、システムサーバ500を接続するネットワークはインターネットに限らず、イントラネット等他のネットワークであっても構わない。
次に、制御部200において、ロボット100が把持対象物の把持を行う動作を制御する処理の流れについて説明する。なお、以下の説明では図1及び図2についても適宜参照する。
図3は、制御部200において、ロボット100が把持対象物の把持を行う動作を制御する処理の流れについて説明するフローチャートである。図3に示すように、まず、把持対象物に接近するようにロボット100を移動させながら、所定の時間が経過するまで、撮像取得部250により把持対象物の情報を複数取得させる(ステップS101)。なお、「ロボット100を移動させる」ことには、移動機構としての台車部110のみを駆動させる場合、把持機構としてのマニピュレータ230のみを駆動させる場合、台車部110とマニピュレータ230の両方を駆動させる場合、のいずれも含まれる。
ステップS101に続いて、取得した把持対象物の情報のそれぞれについて学習済みモデルを用いて把持対象物の把持位置及び当該把持位置の確からしさの指標である尤度を計算する(ステップS102)。ここで、学習済みモデルは最尤推定法を用いたものである。最尤推定法では、尤度関数を最大化するパラメータ及びその尤度を計算する。尤度は、取得した把持対象物の情報から計算したパラメータがどの程度確からしいかを示す指標である。ここでは、計算するパラメータは把持位置で、尤度は計算した把持位置がどの程度確からしいかを示す。続いて、ステップS102の計算の結果より、尤度が最も高いものに対応する把持位置を選択し、マニピュレータ230を動作させて、選択した把持位置で把持対象物の把持を試みる(ステップS103)。
ステップS103に続いて、把持対象物の把持に成功したか否かを判定する(ステップS104)。ステップS104において把持対象物の把持に成功したと判定された場合は、処理を終了する。ステップS104において把持対象物の把持に成功していないと判定された場合は、ステップS102の計算により得られた把持位置のうち把持を試みていないものが残っているか否か判定する(ステップS105)。
ステップS105において、ステップS102の計算により得られた把持位置のうち把持対象物の把持を試みていないものが残っていないと判定された場合は処理を終了する。ステップS105において、ステップS102の計算により得られた把持位置のうち把持対象物の把持を試みていないものが残っていると判定された場合は、尤度が、前回把持を試みた把持位置の次に高いものに対応する把持位置を選択し、マニピュレータ230を動作させて、選択した把持位置で把持対象物の把持を試みる(ステップS106)。そして、ステップS104に処理を戻す。このように、制御部200は、尤度が相対的に高いものに対応する把持位置を優先的に選択し、当該把持位置において把持対象物の把持を試みる。
次に、図3のステップS102において用いる学習済モデルの学習方法の一例について説明する。ここで、学習済みモデル500a(図2参照)は、例えばニューラルネットワークである。また、上述したように、学習済みモデルは最尤推定法を用いたものである。
図4は、学習前のニューラルネットワーク(以下「未学習NN500b」などと記す)を学習させる方法について教師あり学習を例に説明する模式図である。ここで、教師あり学習は、学習対象のデータに正解があらかじめ決まっている場合に、学習対象のデータ(入力)と正解(出力)の組み合わせによって構成される訓練データセットを事前に大量に与えて、入力と出力の関係を学習させる方法である。
図4に示すように、入力としての学習対象の画像データ161と、出力としての判定データ162の組み合わせによって構成される訓練データセット160を、未学習NN500bに与える。ここで、学習対象の画像データ161は、様々な把持対象物の画像データであり、判定データ162は、それぞれの把持対象物に対応する望ましい把持位置である。訓練データセット160は、例えば人がティーチングペンダント等でロボット100を操作するなどして、ロボット100に把持対象物の把持動作を繰り返し行わせることによって予め複数取得されたものである。これにより、把持対象物の把持動作における、学習対象の画像データ161と判定データ162との関係を未学習NN500bに学習させる。訓練データセット160の取得数nを増やすことによって学習済みモデル500aの判定精度を高めることができる。
次に、図3のステップS101の処理について、より具体的に説明する。
図5は、図3のステップS101の処理について、より具体的に説明する模式図である。図5の上段に示すように、ロボット100の制御部200(図2参照)は、把持対象物に接近させるべくロボット100の移動を開始させた位置から撮像取得部250により把持対象物W1の情報を取得させる。このとき、把持対象物W1を矢印P1で示す方向から撮像した画像データが得られる。ロボット100は、経路計画により得られた、破線で示す経路L1に沿って把持対象物に接近する。ここで、経路計画には、RRT(Rapidly-exploring Random Tree)などの公知の手法を用いることができる。そして、制御部200は、ロボット100を経路L1に沿って移動させながら、所定の時間が経過するまで、撮像取得部250により把持対象物の情報を複数取得させる。所定の時間は、例えばユーザなどにより予め設定される。
図5の下段に示すように、ロボット100を経路L1に沿って移動させている途中で、把持対象物W1を、矢印P1で示す方向とは異なる矢印P2で示す方向から撮像した画像の画像データが得られる。このように、ロボット100を経路L1に沿って移動させている間に、把持対象物W1を異なる複数の方向からそれぞれ撮像した画像データが得られる。
把持対象物W1を一方向から撮像した画像データのみで把持対象物W1の望ましいと推定される把持位置を割り出す場合、把持対象物W1における見ることのできなかった箇所により望ましい把持位置が存在する可能性がある。把持対象物W1を複数の異なる方向からそれぞれ撮像した画像データで把持対象物W1の望ましいと推定される把持位置を割り出すようにすると、把持対象物W1における見ることのできなかった箇所はより少なくなるので、把持位置を適切に認識することができる。
また、ロボット100では、把持対象物W1に接近させるべくロボット100を移動させている間に把持対象物W1の情報を取得する。このため、ロボットを把持対象物に接近させた後にロボットを停止させて把持対象物の情報を取得する場合と比べて、把持対象物の把持に要する時間を短縮することができる。
なお、ロボット100が把持対象物W1を把持することが可能な範囲内に接近した時点で、所定の時間が経過していない場合は、把持可能な範囲内において、所定の時間が経過するまでロボット100を移動させ、撮像取得部250に把持対象物W1の情報を取得させる。図6は、ロボット100が把持対象物W1を把持することが可能な範囲内に接近した状態で把持対象物W1の情報を取得する例について示す模式図である。図6において、ロボット100が把持対象物W1を把持することが可能な範囲を破線で囲まれた領域Rで示す。
図6の上段に示すよう、ロボット100が把持対象物W1を把持することが可能な範囲R内に接近した状態において、撮像取得部250のハンドカメラ141により、把持対象物W1を矢印P3で示す方向から撮像した画像データが得られる。この状態において、マニピュレータ230を動作させてハンドカメラ141の位置を移動させる。このようにすることで、図6の下段に示すように、撮像取得部250のハンドカメラ141により、把持対象物W1を、矢印P3で示す方向とは異なる方向である矢印P4で示す方向から撮像した画像データが得られる。なお、把持対象物W1を把持することが可能な範囲R内でのロボット100の移動は、マニピュレータ230のみを駆動させる場合、台車部110のみを駆動させる場合、マニピュレータ230と台車部110の両方を駆動させる場合、のいずれによるものであってもよい。
[変形例1]
図3を参照して説明した、ロボット100の制御部200において、ロボット100が把持対象物の把持を行う動作を制御する処理の流れの変形例について説明する。なお、以下の説明では図1及び図2についても適宜参照する。
本変形例では、制御部200は、尤度が所定の閾値よりも高い把持位置が得られた時点でマニピュレータ230を動作させて把持対象物の把持を試みる。このようにすることで、把持に要する時間をより短縮することができる。
図7は、制御部200において、ロボット100が把持対象物の把持を行う動作を制御する処理の流れの変形例について説明するフローチャートである。図7に示すように、まず、把持対象物に接近するようにロボット100を移動させながら、撮像取得部250により把持対象物の情報を取得させる(ステップS201)。
ステップS201に続いて、取得した把持対象物の情報について学習済みモデルを用いて把持対象物の把持位置及び把持の確からしさの指標である尤度を計算する(ステップS202)。続いて、尤度が所定の閾値を超えたか否かを判定する(ステップS203)ここで、所定の閾値はユーザなどが予め設定する。
ステップS203において尤度が所定の閾値を超えたと判定された場合、マニピュレータ230を動作させて、今計算した把持位置で把持対象物の把持を試みる(ステップS204)。続いて、把持対象物の把持に成功したか否かを判定する(ステップS205)。ステップS205において把持対象物の把持に成功したと判定された場合、処理を終了する。ステップS205において把持対象物の把持に成功しなかったと判定された場合、所定の時間が経過したか否か判定する(ステップS206)。ステップS206において所定の時間が経過していないと判定された場合、処理をステップS201に戻す。ステップS206において所定の時間が経過したと判定された場合、計算により得られた把持位置のうち把持対象物の把持を試みていないものが残っているか否かを判定する(ステップS207)。
ステップS207において、計算により得られた把持位置のうち把持対象物の把持を試みていないものが残っていると判定された場合は、残っている把持位置のうち、尤度が最も高いものに対応する把持位置を選択し、マニピュレータ230を動作させて、選択した把持位置で把持対象物の把持を試みる(ステップS208)。続いて、把持対象物の把持に成功したか否かを判定する(ステップS209)。ステップS209において把持対象物の把持に成功していないと判定された場合、処理をステップS207に戻す。ステップS209において把持対象物の把持に成功したと判定された場合、処理を終了する。
以上より、本実施の形態に係るロボット100は、ロボットを移動させながら把持対象物の情報を複数取得する。このようにすると、把持対象物の情報を異なる方向から取得することができる。このため、把持対象物の情報を一方向のみから取得する場合に対し、把持対象物における見ることのできなかった箇所はより少なくすることができるので、把持対象物の把持位置を適切に認識することができる。そして、ロボット100は、学習済みモデルを用いて、複数の異なる方向から取得した把持対象物の情報から、それぞれ、把持位置及び尤度を計算し、計算結果に基づいて把持を試みる把持位置を選択する。このようにすることで、より望ましいと推定される把持位置を割り出すことが可能になり、把持の成功率を高めることができる。さらに、把持対象物に接近させるようにロボット100を移動させている間に把持対象物の情報を取得するので、把持対象物に接近させた後にロボットを停止させて把持対象物の情報を取得する場合と比べて、把持対象物の把持に要する時間を短縮することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。上記実施の形態では、学習済みモデルが、ロボットの外部のシステムサーバに記憶される構成例について説明したが、これに限るものではなく、例えば、学習済みモデルがロボットに搭載されたメモリ(例えば図2のメモリ240)に記憶される構成であっても良い。
制御部において、ロボット100を移動させながら複数取得した把持対象物の撮像画像を合成して把持対象物の3D画像を作成し、作成した3D画像に基づいて把持対象物の把持位置を選択するようにしてもよい。3D画像は、例えば、把持対象物の撮像画像を所定の個数取得するごとに、または、所定の時間が経過する毎に作成する。作成した3D画像の画像データのそれぞれについて、学習済モデルを用いて把持対象物の把持位置、及び、尤度などの把持位置の確からしさの指標を計算する。ここでいう学習済モデルは、ロボット100を移動させながら複数取得した把持対象物の撮像画像の画像データを入力とする学習済みモデル500a(図2参照)とは異なる、3D画像用の学習済モデル(以下、「3D画像用学習済モデル」という)である。3D画像用学習済モデルは、例えばニューラルネットワークで、学習対象の3D画像のデータ(入力)と把持位置(出力)の組み合わせによって構成される訓練データセットを事前に大量に与えて入力と出力の関係を学習させたものである。学習済みモデルに入力させる3D画像のデータは、3次元座標データを計算処理がしやすい形式に変換処理されたもの(例えば3次元座標が極座標に変換されたもの)であってもよい。そして、尤度が相対的に高いものに対応する把持位置を優先的に選択し、マニピュレータを動作させて、当該把持位置において把持対象物の把持を試みる。このようにすることで、把持対象物の把持位置をより適切に認識することができる。
上記実施の形態では、学習済モデルを用いて計算する、把持位置の確からしさの指標を尤度としたが、これに限るものではない。把持位置の確からしさの指標は、例えば、ランクA、ランクB、・・・、といった離散的なランク付けや、可・不可といった2値分類であってもよい。なお、把持位置の確からしさの指標を、離散的なランク付けや2値分類とした場合、直近で、好ましいとの判断結果が得られた把持位置を選択し、把持対象物の把持を試みるようにする。
100 ロボット
110 台車部
111 駆動輪
112 キャスター
120 本体部
121 環境カメラ
123 表示パネル
130 ロボットアーム
131 関節部
132 アクチュエータ
133 力センサ
134 回転センサ
140 ロボットハンド
140a 第1フィンガー
140b 第2フィンガー
141 ハンドカメラ
142 アクチュエータ
143 力センサ
160 訓練データセット
161 学習対象の画像データ
162 判定データ
190 コントロールユニット
200 制御部
210 駆動ユニット
220 センサユニット
230 マニピュレータ
240 メモリ
250 撮像取得部
500 システムサーバ
500a 学習済みモデル
500b 未学習NN
600 インターネット
700 無線ルータ

Claims (6)

  1. マニピュレータを有するロボットであって、
    把持対象物を含む環境空間の撮像画像を取得する撮像取得部と、
    前記ロボットにおける動作を制御する制御部と、を備え、
    前記制御部は、
    前記把持対象物に接近するように前記ロボットを移動させながら前記撮像取得部により前記把持対象物の撮像画像を複数取得させ、前記撮像画像より得られた情報について学習済みモデルを用いて前記把持対象物の把持位置及び当該把持位置の確からしさの指標を計算し、前記マニピュレータを動作させて当該計算の結果に基づいて選択された把持位置において前記把持対象物の把持を試みる、ロボット。
  2. 前記制御部は、前記指標が相対的に高いものに対応する把持位置を優先的に選択し、当該把持位置において前記把持対象物の把持を試みる、請求項1に記載のロボット。
  3. 前記制御部は、前記指標が所定の閾値よりも高いものが得られた時点で前記マニピュレータを動作させて前記把持対象物の把持を試みる、請求項1に記載のロボット。
  4. 前記撮像取得部は前記マニピュレータによって前記把持対象物の視覚情報が遮られない位置に設置される、請求項1に記載のロボット。
  5. 前記撮像取得部は前記マニピュレータの先端部に設置される、請求項4に記載のロボット。
  6. 前記情報は、前記撮像取得部が複数取得した前記把持対象物の撮像画像を合成して作成した3D画像の画像データである、請求項1に記載のロボット。
JP2018234338A 2018-12-14 2018-12-14 ロボット Active JP7044047B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018234338A JP7044047B2 (ja) 2018-12-14 2018-12-14 ロボット
CN201911218648.5A CN111319039B (zh) 2018-12-14 2019-12-03 机器人
US16/710,656 US11833682B2 (en) 2018-12-14 2019-12-11 Robot, method, and manipulating system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018234338A JP7044047B2 (ja) 2018-12-14 2018-12-14 ロボット

Publications (2)

Publication Number Publication Date
JP2020093366A JP2020093366A (ja) 2020-06-18
JP7044047B2 true JP7044047B2 (ja) 2022-03-30

Family

ID=71073253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018234338A Active JP7044047B2 (ja) 2018-12-14 2018-12-14 ロボット

Country Status (3)

Country Link
US (1) US11833682B2 (ja)
JP (1) JP7044047B2 (ja)
CN (1) CN111319039B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3515671B1 (en) * 2017-06-19 2020-05-13 Google LLC Robotic grasping prediction using neural networks and geometry aware object representation
EP3695941B1 (en) * 2019-02-15 2022-04-13 Siemens Aktiengesellschaft Computerized system and method using different image views to find grasp locations and trajectories for robotic pick up
US11433545B2 (en) * 2019-02-17 2022-09-06 Samsung Electronics Co., Ltd. Robotic vision
CN113103227B (zh) * 2021-03-26 2022-12-02 北京航空航天大学 抓握姿态采集方法及抓握姿态采集系统
CN114932554B (zh) * 2022-06-06 2023-12-01 北京钢铁侠科技有限公司 抓取机器人的自主移动方法、装置、存储介质及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007319938A (ja) 2006-05-30 2007-12-13 Toyota Motor Corp ロボット装置及び物体の三次元形状の取得方法
JP2007319973A (ja) 2006-05-31 2007-12-13 Hitachi Ltd ロボット装置
JP2017185578A (ja) 2016-04-05 2017-10-12 株式会社リコー 物体把持装置及び把持制御プログラム
JP2018118343A (ja) 2017-01-25 2018-08-02 株式会社安川電機 ハンドリングシステム及びコントローラ
US10089575B1 (en) 2015-05-27 2018-10-02 X Development Llc Determining grasping parameters for grasping of an object by a robot grasping end effector

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP5803769B2 (ja) 2012-03-23 2015-11-04 トヨタ自動車株式会社 移動ロボット
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
US9687982B1 (en) * 2015-05-27 2017-06-27 X Development Llc Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot
US10086514B2 (en) * 2015-05-29 2018-10-02 Textron Innovations, Inc. Robotic system and method for processing aircraft component
EP3742347B1 (en) * 2016-03-03 2022-11-02 Google LLC Deep machine learning methods and apparatus for robotic grasping
KR102023149B1 (ko) * 2016-03-03 2019-11-22 구글 엘엘씨 로봇 파지를 위한 심층 기계 학습 방법 및 장치
JP6707485B2 (ja) * 2017-03-22 2020-06-10 株式会社東芝 物体ハンドリング装置およびその較正方法
JP6983524B2 (ja) * 2017-03-24 2021-12-17 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10464212B2 (en) * 2017-03-28 2019-11-05 Amazon Technologies, Inc. Method and system for tele-operated inventory management system
EP3515671B1 (en) * 2017-06-19 2020-05-13 Google LLC Robotic grasping prediction using neural networks and geometry aware object representation
US10773382B2 (en) * 2017-09-15 2020-09-15 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation
JP2019063984A (ja) * 2017-10-02 2019-04-25 キヤノン株式会社 情報処理装置、方法及びロボットシステム
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
CN107825125B (zh) * 2017-11-30 2023-06-23 中国地质大学(武汉) 一种基于视觉伺服的螺孔定位及锁卸螺丝装置
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning
US10754318B2 (en) * 2017-12-21 2020-08-25 X Development Llc Robot interaction with objects based on semantic information associated with embedding spaces
US11097418B2 (en) * 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
US20190314995A1 (en) * 2018-04-12 2019-10-17 Aeolus Robotics Corporation Limited Robot and method for controlling the same
US10878260B2 (en) * 2018-10-17 2020-12-29 Aurora Flight Sciences Corporation Micro-fiducial for machine vision
US11312012B2 (en) * 2019-01-01 2022-04-26 Giant Ai, Inc. Software compensated robotics

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007319938A (ja) 2006-05-30 2007-12-13 Toyota Motor Corp ロボット装置及び物体の三次元形状の取得方法
JP2007319973A (ja) 2006-05-31 2007-12-13 Hitachi Ltd ロボット装置
US10089575B1 (en) 2015-05-27 2018-10-02 X Development Llc Determining grasping parameters for grasping of an object by a robot grasping end effector
JP2017185578A (ja) 2016-04-05 2017-10-12 株式会社リコー 物体把持装置及び把持制御プログラム
JP2018118343A (ja) 2017-01-25 2018-08-02 株式会社安川電機 ハンドリングシステム及びコントローラ

Also Published As

Publication number Publication date
US20200189097A1 (en) 2020-06-18
US11833682B2 (en) 2023-12-05
CN111319039A (zh) 2020-06-23
JP2020093366A (ja) 2020-06-18
CN111319039B (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
JP7044047B2 (ja) ロボット
CN114728417B (zh) 由远程操作员触发的机器人自主对象学习的方法及设备
JP6983524B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN114080583B (zh) 视觉教导和重复移动操纵系统
US20170106542A1 (en) Robot and method of controlling thereof
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
US11633852B2 (en) Computing device, machine learning method, and storage medium
US11915523B2 (en) Engagement detection and attention estimation for human-robot interaction
CN114516060A (zh) 用于控制机器人装置的设备和方法
CN111975763B (zh) 算术设备、控制程序、机器学习器、抓握装置和控制方法
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP5609760B2 (ja) ロボット、ロボットの動作方法、及びプログラム
Çoban et al. Wireless teleoperation of an industrial robot by using myo arm band
JP4715296B2 (ja) ロボットハンドの持ち替え把持制御方法。
WO2022209924A1 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
CN211806133U (zh) 一种二指抓取机器人的示教器及示教系统
JP2011235380A (ja) 制御装置
US11731278B1 (en) Robot teleoperation using mobile device motion sensors and web standards
JP7565848B2 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
CN118769260A (zh) 基于多模态融合模仿学习的灵巧手自适应抓取方法
KR20230175122A (ko) 대상물의 조작, 특히 픽업을 위한 로봇 제어 방법
Singh et al. Humanoid Robots that Move on Two Feet and Are Led by Vision Systems
WO2024185232A1 (en) System and method for controlling a robotic manipulator
CN117644497A (zh) 远程操作系统、远程操作方法、以及计算机可读取的存储介质
Guo et al. Adaptive Admittance Control for Physical Human-Robot Interaction based on Imitation and Reinforcement Learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220228

R151 Written notification of patent or utility model registration

Ref document number: 7044047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151