JP7205752B2 - ロボット制御装置、ロボット制御方法、及びロボット制御プログラム - Google Patents

ロボット制御装置、ロボット制御方法、及びロボット制御プログラム Download PDF

Info

Publication number
JP7205752B2
JP7205752B2 JP2018211422A JP2018211422A JP7205752B2 JP 7205752 B2 JP7205752 B2 JP 7205752B2 JP 2018211422 A JP2018211422 A JP 2018211422A JP 2018211422 A JP2018211422 A JP 2018211422A JP 7205752 B2 JP7205752 B2 JP 7205752B2
Authority
JP
Japan
Prior art keywords
robot
positional relationship
relative positional
specific type
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018211422A
Other languages
English (en)
Other versions
JP2020075337A (ja
Inventor
剣之介 林
洋平 大川
雄紀 山口
義也 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018211422A priority Critical patent/JP7205752B2/ja
Priority to EP19883050.7A priority patent/EP3878605A4/en
Priority to PCT/JP2019/042709 priority patent/WO2020095805A1/ja
Priority to US17/269,993 priority patent/US20210323145A1/en
Priority to CN201980051517.4A priority patent/CN112533739B/zh
Publication of JP2020075337A publication Critical patent/JP2020075337A/ja
Application granted granted Critical
Publication of JP7205752B2 publication Critical patent/JP7205752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39298Trajectory learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

本発明はロボット制御装置、ロボット制御方法、及びロボット制御プログラムに関わる。
近年、機械学習に関する研究が幅広く行われている。特に、ニューラルネットワークを用いた深層学習と呼ばれる技術の発展により、人の認識能力と同等又はそれ以上の性能を示す学習モジュールが利用可能となってきている。このような背景の下、機械学習のアルゴリズムをロボットの動作指令の生成に適用する研究が行われている。例えば、非特許文献1は、ロボットが物体を把持するための機械学習を提案している。この機械学習は、学習モジュールに入力される情報として、把持対象となる物体を撮像するカメラから取得される画像データと、ロボットを駆動するモータの指令値の候補データとを用い、把持対象となる物体の把持確率が最も高くなるモータへの指令値を出力するように学習を行うものである。このように、従来の機械学習では、例えば、把持対象となる物体をロボットが操作者の期待通りに把持するように仕向けられた多数の画像データを用いて学習が行われる。
このような従来の機械学習では、一旦、学習を終えた後に、ロボットの動作を微調整するには、ロボットが操作者の期待通りに微調整された動作をするように仕向けられた多数の画像データを用いて再学習する必要があった。このような微調整は、例えば、操作者の意図しないロボットの誤作動を低減したい場合や、或いは、操作者の事後的な都合により、ロボットの動作を変更したい(例えば、ロボットが物体を把持する位置を変更したい)場合などに必要となることがある。このため、一旦、学習を終えた後に、再学習することなく、ロボットが操作者の期待通りに動作するように人為的に調整するのは困難であった。
そこで、本発明は、このような問題を解決し、ロボットが操作者の期待通りに動作するように調整できるロボット制御装置、ロボット制御方法、及びロボット制御プログラムを提案することを課題とする。
上述の課題を解決するため、本発明に関わるロボット制御装置は、複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力と、指定された特定種類の物体とロボットの手先との間の目標とする相対的位置関係を指定する情報の入力とを受け付ける入力部と、複数種類の物体とその周辺の環境を撮影する撮影装置と、撮影装置による撮影により得られた画像情報から、指定された特定種類の物体を抽出して特定種類の物体の位置及び姿勢を示す情報を生成する抽出部と、ロボットの位置及び姿勢を検出する検出装置と、指定された特定種類の物体と手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボットの動作の機械学習がなされた学習済みモデル又は学習済モデルと入出力関係が同等のモデルを含む学習モジュールと、抽出部により生成された特定種類の物体の位置及び姿勢を示す情報と、検出装置により検出されたロボットの位置及び姿勢を示す情報とから定まる物体と手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボットの動作を指示する動作指令を学習モジュールの学習結果から生成してロボットに出力する出力部とを備える。
このように、ロボットが操作する物体とロボットの手先との間の目標とする相対的位置関係を指定する情報を入力として、両者の相対的位置関係を、その目標とする相対的位置関係に一致させるためのロボットの動作の機械学習がなされた学習モジュールを用いることにより、学習モジュールを再学習させることなく、ロボットが操作者の期待通りに動作するように調整することができる。
物体と手先との間の目標とする相対的位置関係は、ロボット及び物体のそれぞれの位置及び姿勢に関わらず一定でもよい。これにより、一定の物理量の操作に関わる動作をロボットに実行させることができる。
物体と手先との間の目標とする相対的位置関係は、操作者の指定により変更可能でもよい。これにより、学習モジュールを再学習させることなく、ロボットが操作者の期待通りに動作するように調整することができる。
入力部は、物体と手先との間の目標とする相対的位置関係を指定するためのグラフィカルユーザインタフェースを備えてもよい。操作者は、グラフィカルユーザインタフェースを通じて、物体と手先との間の目標とする相対的位置関係を直感的に指定することができる。
特定種類の物体を指定する情報は、抽出部に入力されてもよい。これにより、抽出部は、複数種類の物体の中からロボットが操作する対象として指定された特定種類の物体を、撮影装置の撮影により得られた画像情報から抽出することができる。
本発明に関わるロボット制御方法は、コンピュータシステムが、複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力を受け付けるステップと、指定された特定種類の物体とロボットの手先との間の目標とする相対的位置関係を指定する情報の入力を受け付けるステップと、複数種類の物体とその周辺の環境を撮影するステップと、撮影により得られた画像情報から、指定された特定種類の物体を抽出して特定種類の物体の位置及び姿勢を示す情報を生成するステップと、ロボットの位置及び姿勢を検出するステップと、指定された特定種類の物体と手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボットの動作の機械学習がなされた学習済みモデル又は学習済モデルと入出力関係が同等のモデルを含む学習モジュールを準備するステップと、特定種類の物体の位置及び姿勢を示す情報と、ロボットの位置及び姿勢を示す情報とから定まる物体と手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボットの動作を指示する動作指令を学習モジュールの学習結果から生成してロボットに出力するステップと、を実行する。
このように、ロボットが操作する物体とロボットの手先との間の目標とする相対的位置関係を指定する情報を入力として、両者の相対的位置関係を、その目標とする相対的位置関係に一致させるためのロボットの動作の機械学習がなされた学習モジュールを用いることにより、学習モジュールを再学習させることなく、ロボットが操作者の期待通りに動作するように調整することができる。
本発明に関わるロボット制御プログラムは、コンピュータシステムに、複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力を受け付けるステップと、指定された特定種類の物体とロボットの手先との間の目標とする相対的位置関係を指定する情報の入力を受け付けるステップと、複数種類の物体とその周辺の環境を撮影するステップと、撮影により得られた画像情報から、指定された特定種類の物体を抽出して特定種類の物体の位置及び姿勢を示す情報を生成するステップと、ロボットの位置及び姿勢を検出するステップと、指定された特定種類の物体と手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボットの動作の機械学習がなされた学習済みモデル又は学習済モデルと入出力関係が同等のモデルを含む学習モジュールを準備するステップと、特定種類の物体の位置及び姿勢を示す情報と、ロボットの位置及び姿勢を示す情報とから定まる物体と手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボットの動作を指示する動作指令を学習モジュールの学習結果から生成してロボットに出力するステップと、を実行させる。
このように、ロボットが操作する物体とロボットの手先との間の目標とする相対的位置関係を指定する情報を入力として、両者の相対的位置関係を、その目標とする相対的位置関係に一致させるためのロボットの動作の機械学習がなされた学習モジュールを用いることにより、学習モジュールを再学習させることなく、ロボットが操作者の期待通りに動作するように調整することができる。
本発明によれば、ロボットが操作者の期待通りに動作するように調整することができる。
本実施形態に関わる学習モジュールを用いたロボットの動作制御の説明図である。 本実施形態に関わるロボット制御装置及びロボットの構成を示す説明図である。 本実施形態に関わるロボット制御装置のハードウェア構成の一例を示す説明図である。 本実施形態に関わるロボット制御装置の機能の一例を示すブロック図である。 本実施形態に関わるグラフィカルユーザインタフェースの一例を示す説明図である。 本実施形態に関わるロボット制御方法の処理の流れの一例を示すフローチャートである。
以下、本発明の一側面に関わる実施形態を図面に基づいて説明する。本発明の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更又は改良され得るととともに、本発明には、その等価物も含まれる。なお、同一符号は、同一の構成要素を示すものとし、重複する説明は省略する。
[適用例]
まず、図1を参照しながら、本発明の適用例について説明する。
本実施形態は、学習モジュール103を用いてロボット20の動作を制御する。ロボット20の具体例として、垂直多関節ロボット、水平多関節ロボット、直交ロボット、又はパラレルリンクロボットなどを挙げることができる。ロボット20は、自律的に動作するマニピュレータとして動作し、例えば、部品の組み立て、搬送、塗装、検査、研磨、又は洗浄などの何れかの用途に用いることができる。ロボット20の動作の例として、ロボット20が物体70を操作(例えば、把持、吸着、移動、又は姿勢制御など)するための動作を挙げることができる。ロボット20が操作する対象となる物体70の一例として、仕掛け品又は部品などのワークを挙げることができる。また、ロボット20の動作の一例として、バラ積みされている複数種類の物体の中から特定種類の物体をピッキングするための把持動作を挙げることができる。
まず、学習モジュール103の学習方法の概要について説明する。ここでは、バラ積みされている、外観特徴(例えば、形状、大きさ、又は色などの組み合わせ)の異なる複数種類の物体の中から特定種類の物体70をピッキングするための把持動作の機械学習を例にとって説明する。
抽出部102は、複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201を入力するとともに、複数種類の物体及びその周辺の環境を撮影して得られる画像情報501を入力し、複数種類の物体の中から指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を出力する。抽出部102は、抽出エンジン102A,102Bを備えている。抽出エンジン102Aは、各種類の物体の外観特徴を画像認識により識別する機能を備えており、特定種類の物体70を指定する情報201に基づいて、画像情報501から特定種類の物体70の画像情報301Aを抽出する。物体の外観特徴を識別する機能として、例えば、モデルベーストマッチングと呼ばれるアルゴリズムを用いることができる。抽出エンジン102Bは、画像情報501から特定種類の物体70の周囲の環境の画像情報301Bを抽出する。画像情報301A,301Bから画像解析を通じて特定種類の物体70の位置及び姿勢を求めることができる。画像情報301A,301Bを含む情報301は、特定種類の物体70の位置及び姿勢を示す。なお、抽出エンジン102A,102Bは、例えば、後述するロボット制御プログラムに含まれるソフトウェアモジュールである。
学習モジュール103には、情報201により指定された物体70の位置及び姿勢を示す情報301と、情報201により指定された物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202と、ロボット20の位置及び姿勢を示す情報302とが入力される。物体70とロボット20の手先との間の相対的位置関係は、例えば、ロボット20の手先から見た物体70の相対的な位置座標情報(例えば、XYZ座標系におけるX座標、Y座標、及びZ座標)及び姿勢情報(例えば、ロール角α、ピッチ角β、及びヨー角γ)を用いて特定することができる。情報302は、ロボット20の各関節の角度を検出する検出装置(例えば、エンコーダ)から出力される情報である。
物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202が入力されると、ロボット20及び物体70のそれぞれの現在の位置及び姿勢を基に、目標とする相対的位置関係を実現するロボット20の姿勢(各関節のジョイント角)の候補が逆運動学により決定される。目標とする相対的位置関係を実現するロボット20の姿勢の候補が複数存在する場合には、評価関数の評価値を基に何れかの候補を選択してもよい。このような評価関数として、例えば、ロボット20の移動経路の長さに応じて変化する評価値を出力する評価関数を用いてもよい。このようにして、物体70とロボット20の手先との間の目標とする相対的位置関係を実現するロボット20の姿勢が決定されると、その決定された姿勢をロボット20にとらせるための動作指令401が決定される。動作指令401は、例えば、ロボット20の各関節を駆動するモータに与えられる指令信号である。学習モジュール103は、情報201,202,301,302と、動作指令401との組み合わせを教師あり学習する。
ここで、ロボット20の手先が物体70を把持する動作の学習について補足する。図1は、ロボット20の手先が物体70を把持する部分として、3つの異なる部分71,72,73を把持する動作を学習する例を示している。例えば、ロボット20の手先が物体70の部分71を把持する動作を行うように学習させるには、情報201として、複数種類の物体の中から操作対象となる特定種類の物体70を指定する情報を用い、情報202として、物体70の部分71とロボットの手先との間の目標とする相対的位置関係を指定する情報を用いる。同様に、ロボット20の手先が物体70の部分72を把持する動作を行うように学習させるには、情報201として、複数種類の物体の中から操作対象となる特定種類の物体70を指定する情報を用い、情報202として、物体70の部分72とロボット20の手先との間の目標とする相対的位置関係を指定する情報を用いる。また、同様に、ロボット20の手先が物体70の部分73を把持する動作を行うように学習させるには、情報201として、複数種類の物体の中から操作対象となる特定種類の物体70を指定する情報を用い、情報202として、物体70の部分73とロボット20の手先との間の目標とする相対的位置関係を指定する情報を用いる。ロボット20の手先と物体70との間の相対的な位置関係は、それぞれの部分71,72,73毎に異なる。このようにして、それぞれの部分71,72,73について、学習モジュール103は、情報201,202,301,302と、動作指令401との組み合わせを教師あり学習する。
説明の便宜上、図1に示す例では、物体70の3つの異なる部分を把持する動作を学習する例を示しているが、物体70の細分化された多数の微小な部分のそれぞれを把持する動作を学習してもよい。また、学習段階では、ロボット20の位置及び姿勢を示すパラメータ値と物体70の位置及び姿勢を示すパラメータ値とをそれぞれランダムな値に変更しながら、ロボット20及び物体70がそれぞれ取り得る全ての位置及び姿勢について学習モジュール103の機械学習を行ってもよい。なお、複数種類の物体のうち物体70以外の各物体についても、上述の方法により、学習モジュール103の機械学習が行われる。
このようにして機械学習が行われると、情報201,202,301,302の組み合わせに応じて定まる動作指令401が学習モジュール103の学習結果から生成されてロボット20に出力される。例えば、情報201として、複数種類の物体の中から操作対象となる特定種類の物体70を指定する情報が用いられ、情報202として、物体70の部分71とロボットの手先との間の目標とする相対的位置関係を指定する情報が用いられる場合、複数種類の物体の中から何れかの物体70を選択し、選択した物体70の部分71をロボットに把持させるための動作指令401がロボットに出力される。ロボット20は、動作指令401に応答して、複数種類の物体の中から何れかの物体70を選択し、選択した物体70の部分71を把持する。
このようなロボット20の動作制御においては、操作者の事後的な都合により、ロボット20の動作を変更したい場合が生じ得る。例えば、物体70の部分のうち、部分71はキズがつき易いのに対して、部分73はキズが付き難い場合には、物体70の部分73とロボット20の手先との間の目標とする相対的位置関係を指定する情報を情報202として学習モジュール103に入力することにより、ロボットが物体70を把持する部分を部分71から部分73に変更することができる。
また、機械学習により、ロボット20が物体70の部分72を把持するように学習させたにも関わらず、誤差などの影響により、ロボットが部分72から僅かにずれた箇所にある部分72Aを把持してしまうような場合には、物体70の部分72から誤差の方向及び誤差の程度を加味して定まる、物体のある部分72Bとロボットの手先との間の目標とする相対的位置関係を指定する情報を情報202として学習モジュール103に入力することにより、ロボット20が物体70を把持する部分が部分72に一致するように微調整することも可能である。
このように、物体70とロボット20の手先との間の目標とする相対的位置関係は、操作者の指定により変更可能である。
本実施形態によれば、ロボット20が操作する物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202を入力として、両者の相対的位置関係を、情報202により指定される目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習モジュール103を用いることにより、学習モジュール103を再学習させることなく、ロボット20が操作者の期待通りに動作するように人為的に調整することができる。
なお、物体70とロボット20の手先との間の目標とする相対的位置関係は、ロボット20及び物体70のそれぞれの位置及び姿勢に関わらず一定であるため、情報202を用いた学習モジュール103の機械学習は、物体を把持する動作に限られるものではなく、例えば、液体を収容する物体の姿勢を一定角度変化させて一定の体積の液体をその物体から流すための動作をロボット20に実行させるための機械学習や、その他一定の物理量の操作に関わる動作をロボット20に実行させるための機械学習にも適用可能である。
学習モジュール103は、ロボット20の動作制御を機械学習によって学習する能力を備えた専用若しくは汎用のハードウェア若しくはソフトウェアの一単位又はこれらを任意に組み合わせた一単位を含むものである。学習モジュール103は、ロボット20の動作制御を機械学習によって学習する能力を備えた学習済みモデルを含むソフトウェアプログラムを備えてもよい。学習モジュール103は、そのソフトウェアプログラムが保存された記憶装置と、そのソフトウェアプログラムを記憶装置から読み出すハードウェアプロセッサとを備えてもよい。学習モジュール103は、学習済みモデルの複製物又は蒸留物を含んでもよい。ここで、学習済みモデルの複製物は、モデルの内部構造を複製したもののみならず、学習が完了した学習済みの学習モジュール又は当該学習済みの学習モジュールの複製物に対して追加学習を行ったものを含む。蒸留物は、いわゆる蒸留によって得られる学習済みモデルを意味する。蒸留は、学習済みモデルの機能を保つように、学習済みモデルと構造が異なる他の学習モデルを学習させ、学習済みの当該他の学習済みモデルを得ることを含む。ここで、当該他の学習済みモデル(蒸留物)は、その基礎となった学習済みモデルよりも内部構造が単純であり、よりディプロイに適したものでもよい。なお、学習済みモデルの複製物や蒸留物は、必ずしも学習能力を備えることを要しない。学習モジュール103は、パラメータに従って入力(例えば、情報201,202,301,302)を出力(例えば、動作指令401)に変換する関数の機能を有する所定の構造を含んでもよい。そのような構造の一例として、ニューラルネットワークを挙げることができる。
[ハードウェア構成]
次に、図2及び図3を参照しながら、本実施形態に関わるロボット制御装置10のハードウェア構成の一例について説明する。
ロボット制御装置10は、ロボット20の動作を制御する。図2に示す例では、ロボット20は、六軸垂直多関節ロボットである。ロボット20は、台座21と、第1リンク22と、第2リンク23と、第3リンク24と、第4リンク25と、第5リンク26と、第6リンク27と、エンドエフェクタ28とを備える。ロボット20は、それぞれのリンクを回転運動させる可動軸(駆動用モータ)を備えている。これにより、ロボット20は、台座21及び複数のリンク21~27が、駆動用モータを介して互いに接続されて構成されている。なお、エンドエフェクタ28は、ロボット20の手先の一例である。
台座21は、ロボット20が設置される構造物に取り付けられる。台座21は、その上面に垂直な第1の可動軸を通じて第1リンク22と接続されている。第1リンク22は、台座21に対して、この第1の可動軸を中心として回転することができる。第1リンク22は、一端が互いに接続されている二枚の板状部材である。第1リンク22は、二枚の板状部材の互いに対向している面と垂直な第2の可動軸を通じて第2リンク23と接続されている。第2リンク23は、第1リンク22に対し、この第2の可動軸を中心として回転することができる。
第2リンク23は、一端が互いに接続されている二枚の板状部材である。第2リンク23は、二枚の板状部材により第3リンク24を挟んでいる。第2リンク23は、二枚の板状部材の互いに対向している面と垂直な第3の可動軸を通じて第3リンク24と接続されている。第3リンク24は、第2リンク23に対し、この第3の可動軸を中心として回転することができる。第3リンク24は、第2リンク23の二枚の板状部材の互いに対向している面と並行な第4の可動軸を通じて第4リンク25と接続されている部材である。第4リンク25は、第3リンク24に対し、この第4の可動軸を中心として回転することができる。
第4リンク25は、一端が互いに接続されている二枚の板状部材である。第4リンク25の二枚の板状部材は、互いに対向している。第4リンク25は、二枚の板状部材により第5リンク26を挟んでいる。第4リンク25は、二枚の板状部材の互いに対向している面と垂直な第5の可動軸を通じて第5リンク26と接続されている。第5リンク26は、第4リンク25に対し、この第5の可動軸を中心として回転することができる。第5リンク26は、第4リンク25の二枚の板状部材の互いに対向している面と垂直な第6の可動軸を通じて第6リンク27と接続される部材である。
第6リンク27は、第6の可動軸を介して第5リンク26と接続される部材である。第5リンク26と第6リンク27は、円筒状に構成されている。また、第5リンク26と第6リンク27とは、共通する中心軸を有し、第6リンク27は第5リンク26に対し、第7の可動軸を中心として回転する。第6リンク27は、第5リンク26が接続される端部とは反対側の端部に、エンドエフェクタ28を、直接的に、又は接続部材(アタッチメント)を介して間接的に、取りつけるための接続構造を有し、当該接続構造を介してエンドエフェクタ28と接続される部材である。
エンドエフェクタ28は、物体70を把持する機構である。この機構は、物体70を把持することができる構造を有していればよい。また、エンドエフェクタ28は、物体70を把持する代わりに、物体70を吸着する機構を備えてもよい。なお、ロボット20は、六軸垂直多関節ロボットに限定されるものではなく、二つ以上の可動軸を有していればよい。ロボット20は、例えば、五軸垂直多関節ロボット又は七軸垂直多関節ロボットでもよい。
ロボット制御装置10には、複数種類の物体及びその周辺の環境を撮影する撮影装置(例えば、カメラ)30が接続されている。撮影装置30による撮影により得られた画像情報501は、例えば、情報201により指定された物体70とロボット20との間の相対的な位置関係が把握できる画像を含む。
図3はロボット制御装置10のハードウェア構成の一例を示す説明図である。ロボット制御装置10は、そのハードウェア資源として、演算装置11と、記憶装置12と、入出力インタフェース13と、入力装置14と、出力装置15と、撮影装置30と、検出装置40とを備えるコンピュータシステムである。検出装置40は、例えば、ロボット20の各関節の角度を検出するエンコーダである。演算装置11は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113とを備えている。記憶装置12は、ディスク媒体(例えば、磁気記録媒体又は光磁気記録媒体)又は半導体メモリ(例えば、揮発性メモリ又は不揮発性メモリ)などのコンピュータ読み取り可能な記録媒体である。このような記録媒体は、例えば、非一過性の記録媒体と呼ぶこともできる。記憶装置12は、ロボット制御プログラム120を格納している。ロボット制御プログラム120は、記憶装置12からRAM113に読み込まれ、CPU111によって解釈及び実行される。このとき、入出力インタフェース13は、画像情報501を撮影装置30から入力するとともに、ロボット20の位置及び姿勢を示す情報302を検出装置40から入力し、動作指令401をロボット20に出力する。入力装置14は、操作者がロボット制御装置10に情報201,202を入力するためのデバイスである。入力装置14の例として、キーボード、マウス、又はタッチパネルを挙げることができる。出力装置15は、学習モジュール103の機械学習の設定又は変更(例えば、物体70とロボット20の手先との間の目標とする相対的位置関係の指定、ロボット20が物体70を把持する位置の学習、又はロボット20が物体70を把持する位置の変更又は微調整)を操作者が行うための情報を、例えば、グラフィカルユーザインタフェースを通じて提供するためのデバイスである。出力装置15の例として、表示装置(ディスプレイ)を挙げることができる。
[機能構成]
図4はロボット制御装置10の機能の一例を示すブロック図である。ロボット制御装置10のハードウェア資源とロボット制御プログラム120との協働により、入力部101、抽出部102、学習モジュール103、及び出力部104としての機能が実現される。
入力部101は、操作者50からの情報201,202の入力を受け付ける。入力部101の機能は、例えば、演算装置11、入力装置14、出力装置15、及びロボット制御プログラム120の協働により実現される。入力部101は、例えば、操作者50による情報201,202の入力を受け付けるためのグラフィカルユーザインタフェース(GUI)を提供してもよい。図5は、このようなグラフィカルユーザインタフェースの一例を示す。この例では、情報202を入力するためのウィンドウ61が出力装置15の画面60に表示されている。操作者50は、ロボット20の手先から見た物体70の相対的な位置座標情報(X,Y,Z)として、例えば、X=X0,Y=Y0,Z=Z0の値を、ウィンドウ61を通じて設定することができる。同様に、操作者50は、ロボット20の手先から見た物体70の相対的な姿勢情報(α,β,γ)として、例えば、α=α0,β=β0,γ=γ0の値を、ウィンドウ61を通じて設定することができる。なお、α,β,γは、それぞれ、ロボット20の手先から見た物体70のロール角、ピッチ角、及びヨー角である。
ここで、再び図4の説明に戻る。抽出部102は、情報201で指定された特定種類の物体70を画像情報501から抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成する。抽出部102の機能は、例えば、演算装置11、入出力インタフェース13、及びロボット制御プログラム120の協働により実現される。出力部104は、動作指令401を学習モジュール103の学習結果から生成してロボット20に出力する。出力部104の機能は、例えば、演算装置11、入出力インタフェース13、及びロボット制御プログラム120の協働により実現される。
なお、ロボット制御装置10の各機能(入力部101、抽出部102、学習モジュール103、及び出力部104)は、必ずしも、ロボット制御装置10のハードウェア資源とロボット制御プログラム120との協働によって実現される必要はなく、例えば、ロボット制御装置10の専用のハードウェア資源(例えば、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートアレイ(FPGA)など)を用いて実現されてもよい。
[ロボット制御方法]
図6は本実施形態に関わるロボット制御方法の処理の流れの一例を示すフローチャートである。この処理においては、ロボット制御装置10が、ロボット制御プログラム120に従って、学習済みの学習モジュール103を用いて、ロボット20の動作を制御する。
ステップ601において、ロボット制御装置10は、複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201の入力を受け付ける。
ステップ602において、ロボット制御装置10は、情報201で指定された特定種類の物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202の入力を受け付ける。
ステップ603において、ロボット制御装置10は、複数種類の物体とその周辺の環境を撮影する。
ステップ604において、ロボット制御装置10は、撮影により得られた画像情報501から、情報201で指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成する。
ステップ605において、ロボット制御装置10は、ロボット20の位置及び姿勢を示す情報302を検出する。
ステップ606において、ロボット制御装置10は、情報201で指定された特定種類の物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習済みモデル又は学習済モデルと入出力関係が同等のモデルを含む学習モジュール103を準備する。
ステップ607において、ロボット制御装置10は、特定種類の物体70の位置及び姿勢を示す情報301と、ロボット20の位置及び姿勢を示す情報302とから定まる物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作を指示する動作指令401を学習モジュール103の学習結果から生成してロボット20に出力する。
なお、ロボット20が操作する対象となる物体の種類が特定の一種類であるときや、操作対象となる物体の数が1つであるときなど、操作対象となる物体の種類を特定する必要がないときは、ロボット制御装置10への情報201の入力を省略してもよい。
なお、本実施形態に関わるロボット20は、ファクトリーオートメーションに用いられる産業ロボットに限定されるものではなく、例えば、サービス業に用いられるロボット(例えば、オペレーティングロボット、医療用ロボット、掃除ロボット、レスキューロボット、セキュリティロボットなど)でもよい。
上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201の入力と、指定された特定種類の物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202の入力とを受け付ける入力部101と、
複数種類の物体とその周辺の環境を撮影する撮影装置30と、
撮影装置30による撮影により得られた画像情報501から、指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成する抽出部102と、
ロボット20の位置及び姿勢を検出する検出装置40と、
指定された特定種類の物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュール103と、
抽出部102により生成された特定種類の物体70の位置及び姿勢を示す情報301と、検出装置40により検出されたロボット20の位置及び姿勢を示す情報302とから定まる物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作を指示する動作指令401を学習モジュール103の学習結果から生成してロボット20に出力する出力部104と、
を備えるロボット制御装置10。
(付記2)
付記1に記載のロボット制御装置10であって、
物体70とロボット20の手先との間の目標とする相対的位置関係はロボット20及び物体70のそれぞれの位置及び姿勢に関わらず一定である、ロボット制御装置10。
(付記3)
付記1又は2に記載のロボット制御装置10であって、
物体70とロボット20の手先との間の目標とする相対的位置関係は、操作者50の指定により変更可能である、ロボット制御装置10。
(付記4)
付記1乃至3のうち何れかに記載のロボット制御装置10であって、
入力部101は、物体70とロボット20の手先との間の目標とする相対的位置関係を指定するためのグラフィカルユーザインタフェース(GUI)を備える、ロボット制御装置10。
(付記5)
付記1乃至4のうち何れかに記載のロボット制御装置10であって、
特定種類の物体70を指定する情報201は、抽出部102に入力される、ロボット制御装置10。
(付記6)
コンピュータシステムが、
複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201の入力を受け付けるステップ601と、
指定された特定種類の物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202の入力を受け付けるステップ602と、
複数種類の物体とその周辺の環境を撮影するステップ603と、
撮影により得られた画像情報501から、指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成するステップ604と、
ロボット20の位置及び姿勢を検出するステップ605と、
指定された特定種類の物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュール103を準備するステップ606と、
特定種類の物体70の位置及び姿勢を示す情報301と、ロボット20の位置及び姿勢を示す情報302とから定まる物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作を指示する動作指令401を学習モジュール103の学習結果から生成してロボット20に出力するステップ607と、
を実行するロボット制御方法。
(付記7)
コンピュータシステムに、
複数種類の物体の中からロボット20が操作する対象となる特定種類の物体70を指定する情報201の入力を受け付けるステップ601と、
指定された特定種類の物体70とロボット20の手先との間の目標とする相対的位置関係を指定する情報202の入力を受け付けるステップ602と、
複数種類の物体とその周辺の環境を撮影するステップ603と、
撮影により得られた画像情報501から、指定された特定種類の物体70を抽出して特定種類の物体70の位置及び姿勢を示す情報301を生成するステップ604と、
ロボット20の位置及び姿勢を検出するステップ605と、
指定された特定種類の物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュール103を準備するステップ606と、
特定種類の物体70の位置及び姿勢を示す情報301と、ロボット20の位置及び姿勢を示す情報302とから定まる物体70とロボット20の手先との間の相対的位置関係を目標とする相対的位置関係に一致させるためのロボット20の動作を指示する動作指令401を学習モジュール103の学習結果から生成してロボット20に出力するステップ607と、
を実行させるロボット制御プログラム120。
10…ロボット制御装置 11…演算装置 12…記憶装置 13…入出力インタフェース 14…入力装置 15…出力装置 20…ロボット 30…撮影装置 40…検出装置 50…操作者 60…画面 61…ウィンドウ 70…物体 71…部分 72…部分 73…部分 101…入力部 102…抽出部 103…学習モジュール 104…出力部 120…ロボット制御プログラム

Claims (7)

  1. 複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力と、前記指定された特定種類の物体と前記ロボットの手先との間の目標とする相対的位置関係を指定する情報の入力とを受け付ける入力部と、
    前記複数種類の物体とその周辺の環境を撮影する撮影装置と、
    前記撮影装置による撮影により得られた画像情報から、前記指定された特定種類の物体を抽出して前記特定種類の物体の位置及び姿勢を示す情報を生成する抽出部と、
    前記ロボットの位置及び姿勢を検出する検出装置と、
    前記指定された特定種類の物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュールと、
    前記抽出部により生成された前記特定種類の物体の位置及び姿勢を示す情報と、前記検出装置により検出された前記ロボットの位置及び姿勢を示す情報とから定まる前記物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作を指示する動作指令を前記学習モジュールの学習結果から生成して前記ロボットに出力する出力部と、
    を備えるロボット制御装置。
  2. 請求項1に記載のロボット制御装置であって、
    前記物体と前記手先との間の目標とする相対的位置関係は、前記ロボット及び前記物体のそれぞれの位置及び姿勢に関わらず一定である、ロボット制御装置。
  3. 請求項1又は2に記載のロボット制御装置であって、
    前記物体と前記手先との間の目標とする相対的位置関係は、操作者の指定により変更可能である、ロボット制御装置。
  4. 請求項1乃至3のうち何れか1項に記載のロボット制御装置であって、
    前記入力部は、前記物体と前記手先との間の目標とする相対的位置関係を指定するためのグラフィカルユーザインタフェースを備える、ロボット制御装置。
  5. 請求項1乃至4のうち何れか1項に記載のロボット制御装置であって、
    前記特定種類の物体を指定する情報は前記抽出部に入力される、ロボット制御装置。
  6. コンピュータシステムが、
    複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力を受け付けるステップと、
    前記指定された特定種類の物体と前記ロボットの手先との間の目標とする相対的位置関係を指定する情報の入力を受け付けるステップと、
    前記複数種類の物体とその周辺の環境を撮影するステップと、
    前記撮影により得られた画像情報から、前記指定された特定種類の物体を抽出して前記特定種類の物体の位置及び姿勢を示す情報を生成するステップと、
    前記ロボットの位置及び姿勢を検出するステップと、
    前記指定された特定種類の物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュールを準備するステップと、
    前記特定種類の物体の位置及び姿勢を示す情報と、前記ロボットの位置及び姿勢を示す情報とから定まる前記物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作を指示する動作指令を前記学習モジュールの学習結果から生成して前記ロボットに出力するステップと、
    を実行するロボット制御方法。
  7. コンピュータシステムに、
    複数種類の物体の中からロボットが操作する対象となる特定種類の物体を指定する情報の入力を受け付けるステップと、
    前記指定された特定種類の物体と前記ロボットの手先との間の目標とする相対的位置関係を指定する情報の入力を受け付けるステップと、
    前記複数種類の物体とその周辺の環境を撮影するステップと、
    前記撮影により得られた画像情報から、前記指定された特定種類の物体を抽出して前記特定種類の物体の位置及び姿勢を示す情報を生成するステップと、
    前記ロボットの位置及び姿勢を検出するステップと、
    前記指定された特定種類の物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作の機械学習がなされた学習済みモデル又は前記学習済モデルと入出力関係が同等のモデルを含む学習モジュールを準備するステップと、
    前記特定種類の物体の位置及び姿勢を示す情報と、前記ロボットの位置及び姿勢を示す情報とから定まる前記物体と前記手先との間の相対的位置関係を前記目標とする相対的位置関係に一致させるための前記ロボットの動作を指示する動作指令を前記学習モジュールの学習結果から生成して前記ロボットに出力するステップと、
    を実行させるロボット制御プログラム。
JP2018211422A 2018-11-09 2018-11-09 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム Active JP7205752B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018211422A JP7205752B2 (ja) 2018-11-09 2018-11-09 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
EP19883050.7A EP3878605A4 (en) 2018-11-09 2019-10-31 ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND ROBOT CONTROL PROGRAM
PCT/JP2019/042709 WO2020095805A1 (ja) 2018-11-09 2019-10-31 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
US17/269,993 US20210323145A1 (en) 2018-11-09 2019-10-31 Robot control device, robot control method, and non-transitory computer readable storage medium
CN201980051517.4A CN112533739B (zh) 2018-11-09 2019-10-31 机器人控制装置、机器人控制方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018211422A JP7205752B2 (ja) 2018-11-09 2018-11-09 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム

Publications (2)

Publication Number Publication Date
JP2020075337A JP2020075337A (ja) 2020-05-21
JP7205752B2 true JP7205752B2 (ja) 2023-01-17

Family

ID=70611801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018211422A Active JP7205752B2 (ja) 2018-11-09 2018-11-09 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム

Country Status (5)

Country Link
US (1) US20210323145A1 (ja)
EP (1) EP3878605A4 (ja)
JP (1) JP7205752B2 (ja)
CN (1) CN112533739B (ja)
WO (1) WO2020095805A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114273726B (zh) * 2021-12-15 2023-06-20 熵智科技(深圳)有限公司 3d视觉引导切坡口方法、装置、设备、系统及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216381A (ja) 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd ロボット
US20150239127A1 (en) 2014-02-25 2015-08-27 Gm Global Technology Operations Llc. Visual debugging of robotic tasks
JP2016203293A (ja) 2015-04-21 2016-12-08 株式会社豊田自動織機 ピッキング装置およびピッキング方法
US20170252924A1 (en) 2016-03-03 2017-09-07 Google Inc. Deep machine learning methods and apparatus for robotic grasping
JP2018051652A (ja) 2016-09-27 2018-04-05 株式会社日立製作所 ロボットシステム
JP2018118343A (ja) 2017-01-25 2018-08-02 株式会社安川電機 ハンドリングシステム及びコントローラ
JP2018161692A (ja) 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3998741B2 (ja) * 1995-07-12 2007-10-31 ファナック株式会社 ロボットの移動制御方法
JPH10249767A (ja) * 1997-03-13 1998-09-22 Mitsubishi Electric Corp 移動型物体把持装置及びその制御方法
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
JP6421722B2 (ja) * 2015-08-07 2018-11-14 オムロン株式会社 画像処理装置、校正方法および校正プログラム
CN107921641B (zh) * 2015-08-25 2021-08-03 川崎重工业株式会社 机器人系统及其运转方法
CN113731862B (zh) * 2015-11-13 2024-04-12 伯克希尔格雷营业股份有限公司 用于提供各种物体的分拣的分拣系统和方法
WO2018116589A1 (ja) * 2016-12-19 2018-06-28 株式会社安川電機 産業機器用の画像認識プロセッサ及びコントローラ
DE112017007028B4 (de) * 2017-02-09 2023-06-15 Mitsubishi Electric Corporation Positionskontrollvorrichtung und Positionskontrollverfahren
JP6598814B2 (ja) * 2017-04-05 2019-10-30 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
US10562181B2 (en) * 2017-07-03 2020-02-18 X Development Llc Determining and utilizing corrections to robot actions

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007216381A (ja) 2004-07-13 2007-08-30 Matsushita Electric Ind Co Ltd ロボット
US20150239127A1 (en) 2014-02-25 2015-08-27 Gm Global Technology Operations Llc. Visual debugging of robotic tasks
JP2016203293A (ja) 2015-04-21 2016-12-08 株式会社豊田自動織機 ピッキング装置およびピッキング方法
US20170252924A1 (en) 2016-03-03 2017-09-07 Google Inc. Deep machine learning methods and apparatus for robotic grasping
JP2018051652A (ja) 2016-09-27 2018-04-05 株式会社日立製作所 ロボットシステム
JP2018118343A (ja) 2017-01-25 2018-08-02 株式会社安川電機 ハンドリングシステム及びコントローラ
JP2018161692A (ja) 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
CN112533739B (zh) 2024-06-14
US20210323145A1 (en) 2021-10-21
EP3878605A4 (en) 2022-07-27
EP3878605A1 (en) 2021-09-15
JP2020075337A (ja) 2020-05-21
CN112533739A (zh) 2021-03-19
WO2020095805A1 (ja) 2020-05-14

Similar Documents

Publication Publication Date Title
Sadeghi et al. Sim2real viewpoint invariant visual servoing by recurrent control
US20210205988A1 (en) Task embedding for device control
Li et al. Survey on mapping human hand motion to robotic hands for teleoperation
Sayour et al. Autonomous robotic manipulation: real‐time, deep‐learning approach for grasping of unknown objects
Fu et al. Active learning-based grasp for accurate industrial manipulation
Fang et al. Visual-guided robotic object grasping using dual neural network controllers
CN115351780A (zh) 用于控制机器人设备的方法
CN114516060A (zh) 用于控制机器人装置的设备和方法
Zhang et al. Industrial robot programming by demonstration
Misimi et al. Robotic handling of compliant food objects by robust learning from demonstration
Inoue et al. Transfer learning from synthetic to real images using variational autoencoders for robotic applications
Hwang et al. Development of a mimic robot—Learning from demonstration incorporating object detection and multiaction recognition
JP7205752B2 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
Kushwaha et al. Generating quality grasp rectangle using Pix2Pix GAN for intelligent robot grasping
CN114494426A (zh) 用于控制机器人来在不同的方位拿起对象的装置和方法
Dragusu et al. Practical applications for robotic arms using image processing
Su et al. A ROS based open source simulation environment for robotics beginners
Marić et al. Robot arm teleoperation via RGBD sensor palm tracking
Grasshoff et al. 7dof hand and arm tracking for teleoperation of anthropomorphic robots
Thompson et al. Identification of unknown object properties based on tactile motion sequence using 2-finger gripper robot
Zhu et al. A robotic semantic grasping method for pick-and-place tasks
Lin Embedding Intelligence into Robotic Systems-Programming, Learning, and Planning
Elachkar Robot Learning From Human Observation Using Deep Neural Networks
Elachkar et al. An Experimental Setup for Robot Learning From Human Observation using Deep Neural Networks
Wu et al. Controlling a robot's position using neural networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221215

R150 Certificate of patent or registration of utility model

Ref document number: 7205752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150