JP2019093472A - 制御装置及び機械学習装置 - Google Patents

制御装置及び機械学習装置 Download PDF

Info

Publication number
JP2019093472A
JP2019093472A JP2017224275A JP2017224275A JP2019093472A JP 2019093472 A JP2019093472 A JP 2019093472A JP 2017224275 A JP2017224275 A JP 2017224275A JP 2017224275 A JP2017224275 A JP 2017224275A JP 2019093472 A JP2019093472 A JP 2019093472A
Authority
JP
Japan
Prior art keywords
data
width
learning
gripping
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017224275A
Other languages
English (en)
Other versions
JP6680750B2 (ja
Inventor
阿部 博
Hiroshi Abe
博 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017224275A priority Critical patent/JP6680750B2/ja
Priority to US16/189,187 priority patent/US10864630B2/en
Priority to DE102018009008.7A priority patent/DE102018009008B4/de
Priority to CN201811399419.3A priority patent/CN109814615B/zh
Publication of JP2019093472A publication Critical patent/JP2019093472A/ja
Application granted granted Critical
Publication of JP6680750B2 publication Critical patent/JP6680750B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39509Gripping, grasping, links embrace, encircle, envelop object to grasp
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39523Set holding force as function of dimension, weight, shape, hardness, surface

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)

Abstract

【課題】少ない反力の物体を把持するための制御を可能とする制御装置及び機械学習装置を提供すること。【解決手段】本発明の制御装置1が備える機械学習装置100は、把持対象物の形状に係る把持対象物形状データを、環境の現在状態を表す状態変数として観測する状態観測部106と、把持対象物を把持する際のロボットのハンドの幅を示す把持幅データを、ラベルデータとして取得するラベルデータ取得部108と、状態変数とラベルデータとを用いて、把持対象物形状データと、把持幅データとを関連付けて学習する学習部110と、を備える。【選択図】図2

Description

本発明は、制御装置及び機械学習装置に関し、特に少ない反力の物体を把持するための制御を行う制御装置及び機械学習装置に関する。
従来から機械を制御して物体を把持する際には、物体を把持するための機械的な機構部を物体に接触し押し付けて、モータの電流値や力センサで検出した力およびモーメントを、物体を把持する動力へとフィードバックすることにより実現している(例えば、特許文献1)。
特開2014−024134号公報
一般に、モータの電流値や力センサで力およびモーメントを検出するためには物体からの反力が必要であるため、豆腐やシュークリーム等のような柔らかい物体のように少ない反力の物体を把持する場合には充分な反力が検出できないため、当該物体を把持する制御をすることは困難である。
また、シュークリームやパン等のような柔らかい物体は形状の誤差が大きいので、機構部を駆動するモータの電流値や力センサで検出した力およびモーメントを、物体を把持する動力へとフィードバックする方法では、その誤差が原因で必要以上に強く物体をはさんでしまうことで物体を損傷してしまう恐れがある。
そこで本発明の目的は、少ない反力の物体を把持するための制御を可能とする制御装置及び機械学習装置を提供することである。
本発明の制御装置は、モータの電流値や力センサで力およびモーメントを検出する方法を機械学習と測長センサに置き替えて把持位置の制御を行うことにより、上記課題を解決する。
そして、本発明の一態様は、少ない反力の把持対象物を把持する際のロボットのハンドの幅を推定する制御装置において、前記把持対象物の形状に対する前記把持対象物を把持する際の前記ロボットのハンドの幅の推定を学習する機械学習装置を備え、前記把持対象物の形状に係る把持対象物形状データを、環境の現在状態を表す状態変数として観測する状態観測部と、前記把持対象物を把持する際の前記ロボットのハンドの幅を示す把持幅データを、ラベルデータとして取得するラベルデータ取得部と、前記状態変数と前記ラベルデータとを用いて、前記把持対象物形状データと、前記把持幅データとを関連付けて学習する学習部と、を備える制御装置である。
本発明の他の態様は、少ない反力の把持対象物の形状に対する前記把持対象物を把持する際のロボットのハンドの幅の推定を学習する機械学習装置であって、前記把持対象物の形状に係る把持対象物形状データを、環境の現在状態を表す状態変数として観測する状態観測部と、前記把持対象物を把持する際の前記ロボットのハンドの幅を示す把持幅データを、ラベルデータとして取得するラベルデータ取得部と、前記状態変数と前記ラベルデータとを用いて、前記把持対象物形状データと、前記把持幅データとを関連付けて学習する学習部と、を備える機械学習装置である。
本発明により、少ない反力の物体を損傷することなく且つ確実に機械に把持させることができるようになる。
一実施形態による制御装置の概略的なハードウェア構成図である。 一実施形態による制御装置の概略的な機能ブロック図である。 制御装置の一形態を示す概略的な機能ブロック図である。 ニューロンを説明する図である。 ニューラルネットワークを説明する図である。 制御装置を組み込んだシステムの一形態を示す概略的な機能ブロック図である。
以下、本発明の実施形態を図面と共に説明する。
図1は第1の実施形態による制御装置の要部を示す概略的なハードウェア構成図である。制御装置1は、例えばロボットを制御する制御装置として実装することができる。また、制御装置1は、ロボットを制御する制御装置とネットワークを介して接続されたセルコンピュータ、ホストコンピュータ、クラウドサーバ等のコンピュータとして実装することが出来る。図1は、ロボットを制御する制御装置として制御装置1を実装した場合の例を示している。
本実施形態による制御装置1が備えるCPU11は、制御装置1を全体的に制御するプロセッサである。CPU11は、ROM12に格納されたシステム・プログラムをバス20を介して読み出し、該システム・プログラムに従って制御装置1全体を制御する。RAM13には一時的な計算データや表示データ、図示しない入力部を介してオペレータが入力した各種データ等が一時的に格納される。
不揮発性メモリ14は、例えば図示しないバッテリでバックアップされるなどして、制御装置1の電源がオフされても記憶状態が保持されるメモリとして構成される。不揮発性メモリ14には、インタフェース15を介して読み込まれた制御用プログラムや後述する表示器/MDIユニット70を介して入力された制御用プログラム、ロボット2やセンサ3から取得された各種データ等が記憶される。不揮発性メモリ14に記憶された制御用プログラムは、利用時にはRAM13に展開されても良い。また、ROM12には、制御装置1の動作に必要な各種のシステム・プログラム(機械学習装置100とのやりとりを制御するためのシステム・プログラムを含む)があらかじめ書き込まれている。
制御装置1は、制御用プログラム等に基づいてインタフェース18を介してロボット2に対してロボット2の関節やハンド等を制御する指令を出力する。また、制御装置1は、インタフェース18を介してロボット2の各部からデータを取得する。
また、制御装置1は、インタフェース19を介してロボットの周辺乃至各部に取り付けられた少なくとも1つ以上のセンサ(例えば、把持対象物の長さを測定する測長センサや、把持対象物を撮像するカメラ、周辺温度、周辺湿度等)が検出したデータを取得する。
インタフェース21は、制御装置1と機械学習装置100とを接続するためのインタフェースである。機械学習装置100は、機械学習装置100全体を統御するプロセッサ101と、システム・プログラム等を記憶したROM102、機械学習に係る各処理における一時的な記憶を行うためのRAM103、及び学習モデル等の記憶に用いられる不揮発性メモリ104を備える。機械学習装置100は、インタフェース21を介して制御装置1で取得可能な各情報(例えば、把持対象物の長さや把持対象物の外観、周辺温度、周辺湿度等)を観測することができる。また、制御装置1は、機械学習装置100から出力される値に基づいて、ロボット2が把持対象物を把持する際のハンドの幅の制御等を行う。
図2は、第1の実施形態による制御装置1と機械学習装置100の概略的な機能ブロック図である。図2に示した各機能ブロックは、図1に示した制御装置1が備えるCPU11、及び機械学習装置100のプロセッサ101が、それぞれのシステム・プログラムを実行し、制御装置1及び機械学習装置100の各部の動作を制御することにより実現される。
本実施形態の制御装置1は、不揮発性メモリ14に記憶された制御用プログラム及び機械学習装置100から出力されたロボット2が把持対象物を把持する際のハンドの幅の推定結果に基づいてロボット2を制御する制御部34を備える。
一方、制御装置1が備える機械学習装置100は、把持対象物の形状に対する、把持対象物を把持する際のロボット2のハンドの幅の推定を、いわゆる機械学習により自ら学習するためのソフトウェア(学習アルゴリズム等)及びハードウェア(プロセッサ101等)を含む。制御装置1が備える機械学習装置100が学習するものは、把持対象物の形状と、把持対象物を把持する際のロボット2のハンドの幅との、相関性を表すモデル構造に相当する。
図2に機能ブロックで示すように、制御装置1が備える機械学習装置100は、把持対象物の形状を示す把持対象物形状データS1を含む環境の現在状態を表す状態変数Sとして観測する状態観測部106と、把持対象物を把持する際のロボット2のハンドの幅を示す把持幅データL1を含むラベルデータLを取得するラベルデータ取得部108と、状態変数SとラベルデータLとを用いて、把持対象物の形状に、把持対象物を把持する際のロボット2のハンドの幅を関連付けて学習する学習部110と、学習部110による学習済みモデルを用いて把持対象物の形状から推定した把持対象物を把持する際のロボット2のハンドの幅を出力する推定結果出力部122と、を備える。
状態観測部106は、学習部110による学習時において、状態変数Sとしての把持対象物形状データS1をセンサ3から取得する。また、状態観測部106は、学習部110の学習結果を用いた把持対象物を把持する際のロボット2のハンドの幅の推定時において、状態変数Sとしての把持対象物形状データS1をセンサ3から取得する。なお、いずれの場合も、直接的にセンサ3からデータを取得する代わりに、制御装置1の不揮発性メモリ14等を経由してデータを取得するようにしても良い。
状態観測部106が観測する状態変数Sのうち、把持対象物形状データS1は、最もシンプルに構成する場合には、例えばロボットの把持位置における把持対象物の長さ(横幅)を用いることができる。ロボットの把持位置における把持対象物の長さは、例えばロボット2又はロボット2の近傍位置に取り付けられた測長センサで検出した値や、ロボット2又はロボット2の近傍位置に取り付けられたカメラで撮像した画像を解析して得られた値として取得できる。把持対象物形状データS1としては、更に、把持対象物の高さ等のデータや、ロボット2又はロボット2の近傍位置に取り付けられたカメラで撮像した把持対象物の画像を用いるようにしても良い。
ラベルデータ取得部108は、学習部110の学習時において、ラベルデータLとして、把持対象物を把持する際のロボット2のハンドの幅に係る把持幅データL1をロボット2から取得する。なお、直接的にロボット2からデータを取得する代わりに、制御装置1の不揮発性メモリ14等を経由してデータを取得するようにしても良い。把持幅データL1は、例えばロボット2による把持対象物の把持に成功した際のロボット2のハンドの幅のデータを用いることができる。ロボット2による把持対象物の把持が成功したか失敗したかは、作業者が図示しない入力装置から入力するようにしても良いし、また、ロボット2又はロボット2の近傍位置に取り付けられたカメラにより撮像された画像を解析して自動的に判定するようにしても良く、更に、把持対象物の載置先に設置されたセンサにより検出された値に基づいて判定するようにしても良い。なお、ラベルデータ取得部108は、学習部110による学習時において利用されるものであり、学習部110による学習が完了した後は機械学習装置100の必須の構成とする必要は無い。
学習部110は、機械学習と総称される任意の学習アルゴリズムに従い、状態変数S(把持対象物の形状を示す把持対象物形状データS1)に対するラベルデータL(把持対象物を把持する際のロボット2のハンドの幅を示す把持幅データL1)を学習する。学習部110は、例えば状態変数Sに含まれる把持対象物形状データS1と、ラベルデータLに含まれる把持幅データL1との相関性を学習することができる。学習部110は、状態変数SとラベルデータLとを含むデータ集合に基づく学習を反復実行することができる。
学習部110による学習においては、複数のロボット2のそれぞれについて得られたデータに基づいた複数の学習サイクルを実行することが望ましい。このような学習サイクルを繰り返すことにより、学習部110は、把持対象物の形状(把持対象物形状データS1)と、把持対象物を把持する際のロボット2のハンドの幅(把持幅データL1)との相関性を自動的に解釈する。学習アルゴリズムの開始時には把持対象物形状データS1に対する把持幅データL1の相関性は実質的に未知であるが、学習部110が学習を進めるに従い徐々に把持対象物形状データS1に対する把持幅データL1との関係を徐々に解釈し、その結果として得られた学習済みモデルを用いることで把持対象物形状データS1に対する把持幅データL1の相関性を解釈可能になる。
推定結果出力部122は、学習部110が学習した結果(学習済みモデル)に基づいて、把持対象物の形状に基づいて把持対象物を把持する際のロボット2のハンドの幅を推定し、推定した把持対象物を把持する際のロボット2のハンドの幅を出力する。より具体的には、学習部110が把持対象物の形状を示す把持対象物形状データS1に関連付けて学習した把持対象物を把持する際のロボット2のハンドの幅に係る把持幅データL1は、ロボット2に把持対象物を把持させる際に制御部34がロボット2に対して指令するハンドの幅を示しており、学習部110による学習済みモデルを用いた推定ではこの値が出力される。
制御装置1が備える機械学習装置100の一変形例として、状態観測部106は、把持対象物形状データS1に加えて、ロボット2の周辺の状態を示す周辺状態データS2を状態変数Sとして観測するようにしても良い。周辺状態データS2としては、例えばロボット2の周辺温度が例示される。また、周辺状態データS2の別の例としては、ロボット2の周辺湿度が挙げられる。
上記変形例によれば、機械学習装置100は、把持対象物形状データS1及び周辺状態データS2に対して把持幅データL1を関連付けて学習することができるので、周辺の温度によって柔らかさ等が変化する把持対象物(例えば、餅等)や、周辺の湿度によって柔らかさや表面の摩擦等が変化する把持対象物(例えば、シュークリーム等)をロボット2に把持させるに際のロボット2の適切なハンドの幅の変化を精度高く学習及び推定できるようになる。
制御装置1が備える機械学習装置100の他の変形例として、状態観測部106は、把持対象物形状データS1に加えて、把持対象物の品種を示す品種データS3を状態変数Sとして観測するようにしても良い。
上記変形例によれば、機械学習装置100は、把持対象物形状データS1及び品種データS3に対して把持幅データL1を関連付けて学習することができるので、品種の変化に応じて変化するロボット2の適切なハンドの幅の変化を精度高く学習及び推定できるようになる。
上記構成を有する機械学習装置100では、学習部110が実行する学習アルゴリズムは特に限定されず、機械学習として公知の学習アルゴリズムを採用できる。図3は、図2に示す制御装置1の他の形態であって、学習アルゴリズムの他の例として教師あり学習を実行する学習部110を備えた構成を示す。教師あり学習は、入力とそれに対応する出力との既知のデータセット(教師データと称する)が与えられ、それら教師データから入力と出力との相関性を暗示する特徴を識別することで、新たな入力に対する所要の出力を推定するための相関性モデルを学習する手法である。
図3に示す制御装置1が備える機械学習装置100において、学習部110は、把持対象物の形状から把持対象物を把持する際のロボット2のハンドの幅を推定する相関性モデルMと過去に取得された把持対象物の形状のデータ及び実際の把持対象物を把持する際のロボット2のハンドの幅の結果から得られた教師データTから識別される相関性特徴との誤差Eを計算する誤差計算部112と、誤差Eを縮小するように相関性モデルMを更新するモデル更新部114とを備える。学習部110は、モデル更新部114が相関性モデルMの更新を繰り返すことによって把持対象物の形状からの把持対象物を把持する際のロボット2のハンドの幅の推定を学習する。
相関性モデルMの初期値は、例えば、状態変数SとラベルデータLとの相関性を単純化して(例えばN次関数で)表現したものであり、教師あり学習の開始前に学習部110に与えられる。教師データTは、本発明では上述したように過去に取得された把持対象物の形状のデータと実際の把持対象物を把持する際のロボット2のハンドの幅のデータとを利用することができ、制御装置1の運用時に随時学習部110に与えられる。誤差計算部112は、学習部110に随時与えられた教師データTにより、把持対象物の形状と該把持対象物を把持する際のロボット2のハンドの幅との相関性を暗示する相関性特徴を識別し、この相関性特徴と、現在状態における状態変数S及びラベルデータLに対応する相関性モデルMとの誤差Eを求める。モデル更新部114は、例えば予め定めた更新ルールに従い、誤差Eが小さくなる方向へ相関性モデルMを更新する。
次の学習サイクルでは、誤差計算部112は、更新後の相関性モデルMに従って状態変数Sを用いて把持対象物を把持する際のロボット2のハンドの幅の推定が行われ、該推定の結果と実際に取得されたラベルデータLの誤差Eを求め、モデル更新部114が再び相関性モデルMを更新する。このようにして、未知であった環境の現在状態とそれに対する推定との相関性が徐々に明らかになる。
前述した教師あり学習を進める際に、ニューラルネットワークを用いることができる。図4Aは、ニューロンのモデルを模式的に示す。図4Bは、図4Aに示すニューロンを組み合わせて構成した三層のニューラルネットワークのモデルを模式的に示す。ニューラルネットワークは、例えば、ニューロンのモデルを模した演算装置や記憶装置等によって構成できる。
図4Aに示すニューロンは、複数の入力x(ここでは一例として、入力x1〜入力x3)に対する結果yを出力するものである。各入力x1〜x3には、この入力xに対応する重みw(w1〜w3)が掛けられる。これにより、ニューロンは、次の数1式により表現される出力yを出力する。なお、数1式において、入力x、出力y及び重みwは、すべてベクトルである。また、θはバイアスであり、fkは活性化関数である。
Figure 2019093472
図4Bに示す三層のニューラルネットワークは、左側から複数の入力x(ここでは一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは一例として、結果y1〜結果y3)が出力される。図示の例では、入力x1、x2、x3のそれぞれに対応の重み(総称してw1で表す)が乗算されて、個々の入力x1、x2、x3がいずれも3つのニューロンN11、N12、N13に入力されている。
図4Bでは、ニューロンN11〜N13の各々の出力を、総称してz1で表す。z1は、入カベクトルの特徴量を抽出した特徴ベクトルと見なすことができる。図示の例では、特徴ベクトルz1のそれぞれに対応の重み(総称してw2で表す)が乗算されて、個々の特徴ベクトルz1がいずれも2つのニューロンN21、N22に入力されている。特徴ベクトルz1は、重みW1と重みW2との間の特徴を表す。
図4Bでは、ニューロンN21〜N22の各々の出力を、総称してz2で表す。z2は、特徴ベクトルz1の特徴量を抽出した特徴ベクトルと見なすことができる。図示の例では、特徴ベクトルz2のそれぞれに対応の重み(総称してw3で表す)が乗算されて、個々の特徴ベクトルz2がいずれも3つのニューロンN31、N32、N33に入力されている。特徴ベクトルz2は、重みW2と重みW3との間の特徴を表す。最後にニューロンN31〜N33は、それぞれ結果y1〜y3を出力する。
なお、三層以上の層を為すニューラルネットワークを用いた、いわゆるディープラーニングの手法を用いることも可能である。
制御装置1が備える機械学習装置100においては、状態変数Sを入力xとして、学習部110が上記したニューラルネットワークに従う多層構造の演算を行うことで、把持対象物の形状の値(入力x)から把持対象物を把持する際のロボット2のハンドの幅(出力y)を推定することができる。なお、ニューラルネットワークの動作モードには、学習モードと価値予測モードとがあり、例えば学習モードで学習データセットを用いて重みwを学習し、学習した重みwを用いて価値予測モードで行動の価値判断を行うことができる。なお価値予測モードでは、検出、分類、推論等を行うこともできる。
上記した機械学習装置100の構成は、プロセッサ101が各々実行する機械学習方法(或いはソフトウェア)として記述できる。この機械学習方法は、把持対象物の形状から把持対象物を把持する際のロボット2のハンドの幅の推定を学習する機械学習方法であって、プロセッサ101が、把持対象物の形状(把持対象物形状データS1)を現在状態を表す状態変数Sとして観測するステップと、把持対象物を把持する際のロボット2のハンドの幅(把持幅データL1)をラベルデータLとして取得するステップと、状態変数SとラベルデータLとを用いて、把持対象物形状データS1と、把持対象物を把持する際のロボット2のハンドの幅とを関連付けて学習するステップとを有する。
機械学習装置100の学習部110により学習されて得られた学習済みモデルは機械学習に係るソフトウェアの一部であるプログラムモジュールとしての利用することが可能である。本発明の学習済みモデルは、CPUやGPU等のプロセッサとメモリを備えるコンピュータにて用いることができる。より具体的には、コンピュータのプロセッサが、メモリに記憶された学習済みモデルからの指令に従って、把持対象物の形状を入力として演算を行い、演算結果に基づいて把持対象物を把持する際のロボット2のハンドの幅の推定結果を出力するように動作する。本発明の学習済みモデルは、外部記憶媒体やネットワーク等を介して他のコンピュータに対して複製して利用することが可能である。
また、本発明の学習済みモデルを他のコンピュータに対して複製して新しい環境で利用する際に、当該環境で得られた新たな状態変数やラベルデータに基づいて当該学習済みモデルに対して更なる学習を行わせることもできる。このようにした場合、当該環境による学習済みモデルから派生した学習済みモデル(以下、派生モデルとする)を得ることが可能である。本発明の派生モデルは、把持対象物の形状から把持対象物を把持する際のロボット2のハンドの幅の推定結果を出力するという点では元の学習済みモデルと同じだが、元の学習済みモデルよりも新しい環境に適合した結果を出力するという点で異なる。この派生モデルもまた、外部記憶媒体やネットワーク等を介して他のコンピュータに対して複製して利用することが可能である。
更に、本発明の学習済みモデルを組み込んだ機械学習装置に対する入力に対して得られる出力を用いて、他の機械学習装置において1から学習を行うことで得られる学習済みモデル(以下、蒸留モデルとする)を作成し、これを利用することも可能である(このような学習工程を蒸留と言う)。蒸留において、元の学習済みモデルを教師モデル、新たに作成する蒸留モデルを生徒モデルとも言う。一般に、蒸留モデルは元の学習済みモデルよりもサイズが小さく、それでいてと元の学習済みモデルと同等の正確度を出せるため、外部記憶媒体やネットワーク等を介した他のコンピュータに対する配布により適している。
図5は、制御装置1を備えた一実施形態によるシステム170を示す。システム170は、ネットワークに接続された少なくとも1台の(機械学習装置100を備えた)制御装置1と、(機械学習装置100を備えていない)制御装置1’、制御装置1を互いに接続する有線/無線のネットワーク172とを備える。
上記構成を有するシステム170は、機械学習装置100を備える制御装置1が、学習部110の学習結果を用いて、それぞれの制御装置1,1’の制御下で把持対象物の形状に対する把持対象物を把持する際のロボット2のハンドの幅を自動的かつ正確に推定することができる。また、制御装置1の機械学習装置100が、複数の制御装置1,1’のそれぞれから得られた状態変数S及びラベルデータLに基づき、全ての制御装置1,1’に共通する把持対象物を把持する際のロボット2のハンドの幅の推定を学習し、その学習結果を全てのロボット2の制御において利用するように構成できる。したがってシステム170によれば、より多様なデータ集合(状態変数S及びラベルデータLを含む)を入力として、把持対象物を把持する際のロボット2のハンドの幅の推定の学習の速度や信頼性を向上させることができる。
以上、本発明の実施の形態について説明したが、本発明は上述した実施の形態の例のみに限定されることなく、適宜の変更を加えることにより様々な態様で実施することができる。
例えば、機械学習装置100が実行する学習アルゴリズム、演算アルゴリズム、制御装置1が実行するアルゴリズム等は、上述したものに限定されず、様々なアルゴリズムを採用できる。
また、上記した実施形態では制御装置1と機械学習装置100が異なるCPUを有する装置として説明しているが、機械学習装置100は制御装置1が備えるCPU11と、ROM12に記憶されるシステム・プログラムにより実現するようにしても良い。
1,1’ 制御装置
2 ロボット
3 センサ
11 CPU
12 ROM
13 RAM
14 不揮発性メモリ
18,19 インタフェース
20 バス
21 インタフェース
34 制御部
100 機械学習装置
101 プロセッサ
102 ROM
103 RAM
104 不揮発性メモリ
106 状態観測部
108 ラベルデータ取得部
110 学習部
112 誤差計算部
114 モデル更新部
122 推定結果出力部
170 システム
172 ネットワーク

Claims (8)

  1. 少ない反力の把持対象物を把持する際のロボットのハンドの幅を推定する制御装置において、
    前記把持対象物の形状に対する前記把持対象物を把持する際の前記ロボットのハンドの幅の推定を学習する機械学習装置を備え、
    前記把持対象物の形状に係る把持対象物形状データを、環境の現在状態を表す状態変数として観測する状態観測部と、
    前記把持対象物を把持する際の前記ロボットのハンドの幅を示す把持幅データを、ラベルデータとして取得するラベルデータ取得部と、
    前記状態変数と前記ラベルデータとを用いて、前記把持対象物形状データと、前記把持幅データとを関連付けて学習する学習部と、
    を備える制御装置。
  2. 前記状態観測部は、状態変数として更に周辺の状態を示す周辺状態データを観測し、
    前記学習部は、前記把持対象物形状データ及び前記周辺状態データと、前記把持幅データとを関連付けて学習する、
    請求項1に記載の制御装置。
  3. 前記状態観測部は、状態変数として更に把持対象物の品種を示す品種データを観測し、
    前記学習部は、前記把持対象物形状データ及び前記品種データと、前記把持幅データとを関連付けて学習する、
    請求項1に記載の制御装置。
  4. 前記学習部は、
    前記状態変数から前記把持対象物を把持する際の前記ロボットのハンドの幅を推定する相関性モデルと、予め用意された教師データから識別される相関性特徴との誤差を計算する誤差計算部と、
    前記誤差を縮小するように前記相関性モデルを更新するモデル更新部とを備える、
    請求項1〜3のいずれか1つに記載の制御装置。
  5. 前記学習部は、前記状態変数と前記ラベルデータとを多層構造で演算する、
    請求項1〜4のいずれか1つに記載の制御装置。
  6. 前記学習部による学習結果に基づいて、前記把持対象物を把持する際の前記ロボットのハンドの幅の推定結果を出力する推定結果出力部を更に備える、
    請求項1〜5のいずれか1つに記載の制御装置。
  7. 前記機械学習装置は、クラウドサーバに存在する、
    請求項1〜6のいずれか1つに記載の制御装置。
  8. 少ない反力の把持対象物の形状に対する前記把持対象物を把持する際のロボットのハンドの幅の推定を学習する機械学習装置であって、
    前記把持対象物の形状に係る把持対象物形状データを、環境の現在状態を表す状態変数として観測する状態観測部と、
    前記把持対象物を把持する際の前記ロボットのハンドの幅を示す把持幅データを、ラベルデータとして取得するラベルデータ取得部と、
    前記状態変数と前記ラベルデータとを用いて、前記把持対象物形状データと、前記把持幅データとを関連付けて学習する学習部と、
    を備える機械学習装置。
JP2017224275A 2017-11-22 2017-11-22 制御装置及び機械学習装置 Active JP6680750B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017224275A JP6680750B2 (ja) 2017-11-22 2017-11-22 制御装置及び機械学習装置
US16/189,187 US10864630B2 (en) 2017-11-22 2018-11-13 Control device and machine learning device
DE102018009008.7A DE102018009008B4 (de) 2017-11-22 2018-11-15 Steuervorrichtung und Maschinenlernvorrichtung
CN201811399419.3A CN109814615B (zh) 2017-11-22 2018-11-22 控制装置以及机器学习装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017224275A JP6680750B2 (ja) 2017-11-22 2017-11-22 制御装置及び機械学習装置

Publications (2)

Publication Number Publication Date
JP2019093472A true JP2019093472A (ja) 2019-06-20
JP6680750B2 JP6680750B2 (ja) 2020-04-15

Family

ID=66336314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017224275A Active JP6680750B2 (ja) 2017-11-22 2017-11-22 制御装置及び機械学習装置

Country Status (4)

Country Link
US (1) US10864630B2 (ja)
JP (1) JP6680750B2 (ja)
CN (1) CN109814615B (ja)
DE (1) DE102018009008B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232868B1 (en) * 2021-05-12 2022-01-25 Orbsurgical Ltd. Machine learning-based surgical instrument characterization

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6680750B2 (ja) * 2017-11-22 2020-04-15 ファナック株式会社 制御装置及び機械学習装置
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning
JP7135750B2 (ja) * 2018-11-12 2022-09-13 富士通株式会社 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置
DE102019213676B3 (de) * 2019-09-10 2020-09-17 Kuka Deutschland Gmbh Robotersteuerung
US11597092B1 (en) 2020-03-26 2023-03-07 Amazon Technologies, Ine. End-of-arm tool with a load cell
US11534924B1 (en) * 2020-07-21 2022-12-27 Amazon Technologies, Inc. Systems and methods for generating models for automated handling of vehicles
US11534915B1 (en) 2020-08-05 2022-12-27 Amazon Technologies, Inc. Determining vehicle integrity based on observed behavior during predetermined manipulations
US11919161B2 (en) * 2021-10-15 2024-03-05 Fanuc Corporation Grasp generation for machine tending

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
JP2019093461A (ja) * 2017-11-20 2019-06-20 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5623358B2 (ja) 2011-09-06 2014-11-12 三菱電機株式会社 ワーク取り出し装置
JP5982774B2 (ja) * 2011-10-11 2016-08-31 セイコーエプソン株式会社 モーター制御装置、ロボットハンド
JP5929271B2 (ja) 2012-02-07 2016-06-01 セイコーエプソン株式会社 ロボットハンドおよびロボット
JP5543539B2 (ja) 2012-07-25 2014-07-09 ファナック株式会社 力制御電動ハンド
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
SG11201804933SA (en) * 2015-12-16 2018-07-30 Mbl Ltd Robotic kitchen including a robot, a storage arrangement and containers therefor
EP3742347B1 (en) 2016-03-03 2022-11-02 Google LLC Deep machine learning methods and apparatus for robotic grasping
WO2018116589A1 (ja) * 2016-12-19 2018-06-28 株式会社安川電機 産業機器用の画像認識プロセッサ及びコントローラ
JP6453922B2 (ja) * 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
JP6526100B2 (ja) * 2017-04-28 2019-06-05 ファナック株式会社 物品取出システム
JP6695843B2 (ja) * 2017-09-25 2020-05-20 ファナック株式会社 装置、及びロボットシステム
JP6680750B2 (ja) * 2017-11-22 2020-04-15 ファナック株式会社 制御装置及び機械学習装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
JP2019093461A (ja) * 2017-11-20 2019-06-20 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232868B1 (en) * 2021-05-12 2022-01-25 Orbsurgical Ltd. Machine learning-based surgical instrument characterization

Also Published As

Publication number Publication date
US10864630B2 (en) 2020-12-15
US20190152055A1 (en) 2019-05-23
DE102018009008A1 (de) 2019-05-23
CN109814615A (zh) 2019-05-28
DE102018009008B4 (de) 2022-03-31
CN109814615B (zh) 2021-03-02
JP6680750B2 (ja) 2020-04-15

Similar Documents

Publication Publication Date Title
JP6680750B2 (ja) 制御装置及び機械学習装置
CN109816624B (zh) 外观检查装置
JP6523379B2 (ja) 情報処理装置
JP6810087B2 (ja) 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP6680732B2 (ja) 物品積み付け装置及び機械学習装置
JP6522488B2 (ja) ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6836577B2 (ja) 研磨工具摩耗量予測装置、機械学習装置及びシステム
CN109202538B (zh) 热位移修正装置
JP2018103309A (ja) 組付動作を学習する機械学習装置および部品組付システム
JP6811465B2 (ja) 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム
JP2018202550A (ja) 機械学習装置、機械学習方法、および機械学習プログラム
CN109693146B (zh) 寿命推定装置以及机器学习装置
CN109614830B (zh) 识别代码读取装置以及机器学习装置
JP7458741B2 (ja) ロボット制御装置及びその制御方法及びプログラム
Huang et al. Grasping novel objects with a dexterous robotic hand through neuroevolution
US20190033820A1 (en) Numerical controller
US10802476B2 (en) Numerical controller with learned pressure estimation
US11059180B2 (en) Control device and machine learning device
WO2023074209A1 (ja) 把持力推定装置、把持力推定方法及び把持力推定プログラム
JP7336856B2 (ja) 情報処理装置、方法及びプログラム
CN114080304A (zh) 控制装置、控制方法及控制程序
CN112292239A (zh) 用于计算机辅助地确定用于适宜操作技术系统的调节参数的方法和设备
JP6637021B2 (ja) 切削液供給タイミング制御装置及び機械学習装置
JP2019160176A (ja) 部品供給量推定装置及び機械学習装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190619

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200319

R150 Certificate of patent or registration of utility model

Ref document number: 6680750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150