JP2019048365A - 機械学習装置、ロボットシステム及び機械学習方法 - Google Patents

機械学習装置、ロボットシステム及び機械学習方法 Download PDF

Info

Publication number
JP2019048365A
JP2019048365A JP2017174827A JP2017174827A JP2019048365A JP 2019048365 A JP2019048365 A JP 2019048365A JP 2017174827 A JP2017174827 A JP 2017174827A JP 2017174827 A JP2017174827 A JP 2017174827A JP 2019048365 A JP2019048365 A JP 2019048365A
Authority
JP
Japan
Prior art keywords
transfer
label
machine learning
hand
transfer target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017174827A
Other languages
English (en)
Other versions
JP6608890B2 (ja
Inventor
泰弘 芝▲崎▼
Yasuhiro Shibasaki
泰弘 芝▲崎▼
勇太 並木
Yuta Namiki
勇太 並木
広光 高橋
Hiromitsu Takahashi
広光 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017174827A priority Critical patent/JP6608890B2/ja
Priority to US16/117,518 priority patent/US10737385B2/en
Priority to DE102018215057.5A priority patent/DE102018215057B4/de
Priority to CN201811052341.8A priority patent/CN109483573B/zh
Publication of JP2019048365A publication Critical patent/JP2019048365A/ja
Application granted granted Critical
Publication of JP6608890B2 publication Critical patent/JP6608890B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements

Abstract

【課題】ハンドとの組み合わせを教示していない移載対象についても、移載するためのハンドを選択する。【解決手段】機械学習装置が、移載対象を撮像した撮像データの少なくとも一部を入力データとして取得する状態観測手段と、前記移載対象の移載のためにロボットに装着した把持手段に係る情報をラベルとして取得するラベル取得手段と、前記状態観測手段が取得した入力データとラベル取得手段が取得したラベルの組を教師データとして教師あり学習を行うことにより、前記移載に適した把持手段に係る情報を出力する学習モデルを構築する学習手段と、を備える。【選択図】図1

Description

本発明は、ロボットによる移載についての機械学習を行う、機械学習装置、ロボットシステム及び機械学習方法に関わる。
工場等において、ロボットに装着したハンドによりワークを把持し、これによりワークを移載することが行われている。ロボットによってワークを移載する場合には、ワークの形状、重量及び材質といったワークの特性に応じて適切な仕様のハンドを選択する必要がある。
このようなハンドの選択を補助するための技術が、例えば特許文献1や特許文献2に開示されている。
特許文献1には、移載するワークの形態データに基づいて使用する使用するハンドを選択し、選択したハンドのデータと移載するワークのデータとに基づいてハンドがワークを把持する位置を教示する技術が開示されている。
また、特許文献2には、ウェーハカセット等に対処しうる自動移載装置が、移載対象物に応じた複数の種類のハンドと移載対象物との関係を記憶したデータを制御機構に備えることで、ハンドの自動選択を行うという技術が開示されている。
特開2009−119589号公報 特開平11−114857号公報
上述した特許文献1や特許文献2等に開示の技術では、ワークの形状や大きさを示すワークの形態データを、移載に用いるハンドと紐付けて事前に教示しておくことで、ハンドの選択を行うことを可能としている。
この教示の例について図1を参照して説明する。図1は、移載対象とするワークと、移載のために用いるハンドとの対応を模式的に示した図である。
例えば、図1(A)に示すように、自動車用ドライブシャフト等の立体形状のワークを移載する場合は、ワークを挟むための二股のハンドを選択することが適切である。この場合には、このワークの形態データと、二股のハンドの組み合わせを事前に教示しておくことにより、自動的にハンドの選択を行うことができる。
また、例えば図1(B)に示すように、レトルトパウチ等の平面状のワークを移載する場合は、吸着式のハンドを選択することが適切である。この場合には、このワークの形態データと、吸着式のハンドの組み合わせを事前に教示しておくことにより、自動的にハンドの選択を行うことができる。
このように、移載対象となるワークが一定の形態の工業製品であれば、移載対象となるワークの形態データと移載に用いるハンドの組み合わせを事前に教示しておくことで、移載をするためのハンドの選択を行うことが可能となる。
しかしながら、移載対象とするワークが必ずしも一定の形態の工業製品であるとは限らない。例えば図1(C)に示すように、移載対象とするワークが野菜や果物等の場合がある。野菜や果物等は、工業製品と異なり形態にばらつきがあるため、重量や形状の個体差が大きく、事前に形態データを用意することは困難である。また、仮にワークが一定の形状の工業製品であったとしても、その種類が多数の場合に、全ての工業製品について、事前に形態データを用意することは困難である。
このような場合には、移載対象となるワークの形態データと移載に用いるハンドの組み合わせを事前に教示することができない。
そこで本発明は、ハンドとの組み合わせを教示していない移載対象についても、移載するためのハンドを選択することが可能な、機械学習装置、ロボットシステム及び機械学習方法を提供することを目的とする。
(1) 本発明の機械学習装置(例えば、後述の機械学習装置10)は、移載対象(例えば、後述の第1移載対象51又は第2移載対象52)の少なくとも一部を撮像した撮像データを入力データとして取得する状態観測手段(例えば、後述の状態観測部11)と、前記移載対象の移載のためにロボットに装着した把持手段(例えば、後述のハンド41)に係る情報をラベルとして取得するラベル取得手段(例えば、後述のラベル取得部12)と、前記状態観測手段が取得した入力データとラベル取得手段が取得したラベルの組を教師データとして教師あり学習を行うことにより、前記移載に用いる把持手段の適否を判断するための学習モデルを構築する学習手段(例えば、後述の学習部13)と、を備える。
(2) 上記(1)に記載の機械学習装置を、前記ラベル取得手段は、前記把持手段が前記移載対象を把持した位置と姿勢を示す情報を更にラベルとして取得するようにしてもよい。
(3) 上記(1)又は(2)に記載の機械学習装置を、前記ラベル取得手段は、前記移載対象の移載に成功した把持手段を識別するための情報をラベルとして取得するようにしてもよい。
(4) 上記(3)に記載の機械学習装置を、前記把持手段を識別するための情報とは、前記把持手段の個体ごとに付与された文字又は数字或いはこれらの組み合わせからなる情報であるようにしてもよい。
(5) 上記(4)に記載の機械学習装置を、前記構築した学習モデルに前記撮像データが新たに入力された場合に、前記学習モデルの出力に基づいて、前記新たに入力された撮像データにて撮像されている移載対象を移載するための把持手段の識別情報を提示する出力提示手段(例えば、後述の出力提示部15)を更に備えるようにしてもよい。
(6) 上記(1)又は(2)に記載の機械学習装置を、前記ラベル取得手段は、前記移載対象の移載に成功した把持手段の物理的特徴を示す物理情報をラベルとして取得するようにしてもよい。
(7) 上記(6)に記載の機械学習装置を、前記構築した学習モデルに前記撮像データが新たに入力された場合に、前記学習モデルの出力に基づいて、前記新たに入力された撮像データにて撮像されている移載対象を移載するための把持手段の物理的特徴を示す物理情報を提示する出力提示手段(例えば、後述の出力提示部15)を更に備えるようにしてもよい。
(8) 上記(1)又は(2)に記載の機械学習装置を、前記状態観測手段は、前記撮像データに加えて、前記ロボットに装着した把持手段の識別情報を更に入力データとして取得し、前記ラベル取得手段は、前記移載対象の移載の成否を示す情報をラベルとして取得するようにしてもよい。
(9) 上記(8)に記載の機械学習装置を、前記構築した学習モデルに前記撮像データと前記ロボットに装着した把持手段の識別情報が新たに入力された場合に、前記学習モデルの出力に基づいて、前記新たに入力された撮像データ中の撮像されている移載対象を前記新たに入力された識別情報に対応する把持手段にて移載した場合の成否についての推定情報を提示する出力提示手段(例えば、後述の出力提示部15)を更に備えるようにしてもよい。
(10) 本発明のロボットシステムは、上記(1)から上記(9)までの何れかに記載の機械学習装置と、撮像手段(例えば、後述の視覚センサ30)と、把持手段を装着したロボット(例えば、後述のロボット40)とを備えたロボットシステムであって、前記状態観測手段は、前記撮像手段が移載元に設置された移載対象の少なくとも一部を撮像することにより生成した撮像データを前記入力データとして取得し、前記ラベル取得手段は、前記移載対象の移載のために前記ロボットに装着した把持手段に係る情報をラベルとして取得する。
(11) 本発明の機械学習方法は、機械学習装置(例えば、後述の機械学習装置10)が行う機械学習方法であって、移載対象(例えば、後述の第1移載対象51又は第2移載対象52)の少なくとも一部を撮像した撮像データを入力データとして取得する状態観測ステップと、前記移載対象の移載のためにロボットに装着した把持手段に係る情報をラベルとして取得するラベル取得ステップと、前記状態観測ステップにて取得した入力データとラベル取得ステップにて取得したラベルの組を教師データとして教師あり学習を行うことにより、前記移載に用いる把持手段の適否を判断するための学習モデルを構築する学習ステップと、を備える。
本発明によれば、ハンドとの組み合わせを教示していない移載対象についても、移載するためのハンドを選択することが可能となる。
ワークに適したハンドの選択について説明するための模式図である。 本発明の実施形態の構成について示す模式図である。 本発明の実施形態における機械学習装置の機能ブロックを示すブロック図である。 本発明の実施形態における学習モデル構築時の動作を示すフローチャートである。 本発明の実施形態における学習モデル利用時の動作を示すフローチャートである。 本発明の第2の実施形態における入力画像のイメージを示すイメージ図である。 本発明の第2の実施形態におけるハンドの断面画像のイメージを示すイメージ図である。 本発明の第3の実施形態における学習モデル構築時の動作を示すフローチャートである。
次に、本発明の実施形態について図面を参照して詳細に説明をする。
<各実施形態の概略>
以下では、第1の実施形態、第2の実施形態及び第3の実施形態の3つの実施形態について説明する。これら各実施形態は、基本的な構成や、機械学習を行う点において共通するが、機械学習の対象とする情報がそれぞれ異なる。そこで、まずこれら3つの実施形態の概略について説明する。
第1の実施形態では、移載対象とするワークの画像の少なくとも一部を入力データとし、このワークを実際に移載することができたハンドを特定するための識別情報をラベルとして機械学習を行う。そして、この機械学習により構築した学習モデルを利用することにより、移載対象とするワークに対応するハンドを選択することを可能とする。
また、第2の実施形態では、移載対象とするワークの画像の少なくとも一部を入力データとし、このワークを実際に移載することができたハンドの物理情報をラベルとして機械学習を行う。ここで、ハンドの物理情報とは、例えばハンドの形状、大きさ、及び材質等のハンドの物理的特徴を示す情報である。そして、この機械学習により構築した学習モデルを利用することにより、移載対象とするワークに対応するハンドの形状や大きさを示す形態データを出力することを可能とする。
更に、第3の実施形態では、移載対象とするワークの画像の少なくとも一部と、このワークを実際に移載することを試みるハンドを特定するための識別情報または物理情報を入力データとし、このワークを実際に移載することを試みた成否の結果をラベルとして機械学習を行う。そして、この機械学習により構築した学習モデルを利用することにより、移載対象とするワークと移載を行うハンドとの組み合わせによる成否を判定することを可能とする。
このように、各実施形態は、機械学習を行うことにより学習モデルを構築する。そして、各実施形態は、構築した学習モデルを利用することにより、形態データを教示していない移載対象についても、移載するためのハンドを選択することを可能とする。
以上が3つの実施形態の概略である。次に、各実施形態それぞれの詳細について説明をする。なお、各実施形態において共通する部分については重複する説明を省略する。
<第1の実施形態>
図2を参照して、本実施形態に係るロボットシステム1の構成について説明する。ロボットシステム1は、機械学習装置10、ロボット制御装置20、視覚センサ30、ロボット40、ハンド41、第1移載対象51、第2移載対象52、移載元架台61及び移載先架台62を備える。個々のハンドには識別情報(例えばA、Bといったアルファベット等の文字や100、200といった数字、或いはこれらの組み合わせ)を付与しておく。
本実施形態では、ロボット40が、平面状の移載対象(図中の第1移載対象51及び第2移載対象52に相当)を、移載元架台61から移載先架台62へ移載する。ここで、移載対象のそれぞれは大きさに個体差がある。例えば、第1移載対象51よりも第2移載対象52の方が、大きい。そのため、移載対象の大きさに適したハンド41を選択する必要がある。そこで、本実施形態では、機械学習を行うことにより、移載できる大きさが異なる複数種類のハンド41の中から、移載対象の大きさに適したハンド41を選択できるようにする。なお、移載対象は大きさのみならず、形状等の個体差があってもよい。
機械学習装置10は、上述の機械学習を行う装置である。機械学習装置10の詳細については、図3の機能ブロック図を参照して後述する。
ロボット制御装置20は、ロボット40の動作を制御するための装置である。ロボット制御装置20はロボット40に所定の動作を行わせるための動作プログラムに基づいて、ロボット40の動作を制御するための信号を生成する。そして、ロボット制御装置20は、生成した信号をロボット40に対して出力する。ロボット40は、この信号に応じて、ロボット40のアームやアームに装着されたハンド41といった可動部を駆動する。
これにより、ロボット40は、所定の作業を行うことができる。本実施形態では、ロボット40は所定の作業として、例えば、第1移載対象51や第2移載対象52を、移載元架台61から移載先架台62に移載する。
また、ロボット制御装置20は、視覚センサ30から、移載対象の少なくとも一部を撮像した画像データ(以下、「移載対象画像データ」と呼ぶ。)を取得する。ロボット制御装置20は、移載対象画像データに対して画像解析を行うことにより、移載対象の位置や姿勢や積載状態を特定する。画像解析は、例えば、移載対象撮像データが濃淡画像である場合、画像上での輝度変化が大きな点であるエッジ点を抽出することにより行われる。また、このような画像解析を行う手法としては、例えば、一般化ハフ変換等を利用することができる。
そして、ロボット制御装置20は、画像解析により特定した、移載対象の位置や姿勢や積載状態に基づいてロボット40を制御して移載を行う。
ロボット制御装置20と機械学習装置10は、通信可能に接続されている。そして、ロボット制御装置20は、機械学習装置10に対して機械学習に用いるための様々な情報を送信する。例えば、ロボット制御装置20は、機械学習に用いるための情報として、移載対象画像データや、移載に用いたハンド41を識別する情報や、移載の成否を示す情報を送信する。これらの情報を用いた機械学習の詳細については後述する。
視覚センサ30は、移載対象撮像データを撮像する視覚センサである。視覚センサ30は、移載元架台61上の移載対象の少なくとも一部を撮像できる位置に設置される。なお、視覚センサ30を、ロボット40のアーム等の可動部に設置してもよい。
視覚センサ30は、移載対象の少なくとも一部を撮像するために、CCD(Charge-Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等のカメラを備えている。これらカメラに撮像される移載対象撮像データは、2次元カラー画像でもよいし、2次元グレースケール画像でもよいし、距離画像でもよいし、3次元点群であってもよい。視覚センサ30により撮像された移載対象撮像データは、ロボット制御装置20に対して出力される。
ロボット40は、ロボット制御装置20の制御に基づいて動作するロボットである。ロボット40は、鉛直方向の軸を中心に回転するためのベース部や、移動及び回転するアームを備える。また、このアームには移載対象を把持するためのハンド41が装着される。
なお、ロボット40やハンド41の具体的な構成については、当業者によく知られているので、ここでは詳細な説明を省略する。
次に、図3を参照して機械学習装置10が備える各機能ブロックについて説明をする。なお、図3では、図2で示したロボットシステム1における、機械学習装置10以外の構成要素を環境100としてまとめて図示する。
機械学習装置10は、移載対象撮像データを入力データとし、この移載対象を実際に移載することができたハンド41を特定するための識別情報をラベルとして機械学習を行う。そして、この機械学習により構築した学習モデルを利用することにより、移載対象とするワークに対応するハンドを選択することを可能とする。
このような学習モデルを構築するために、機械学習装置10は、状態観測部11、ラベル取得部12、学習部13、学習モデル記憶部14及び出力提示部15を備える。
状態観測部11は、環境100に含まれるロボット制御装置20から入力データを取得し、取得した入力データを学習部13に対して出力する部分である。ここで、本実施形態における入力データは、上述したように移載対象撮像データである。なお、状態観測部11は、取得した1つの移載対象撮像データの全てを入力データとして学習部13に対して出力してもよいが、取得した1つの移載対象撮像データの一部を入力データとして学習部13に対して出力するようにしてもよい。つまり、取得した1つの移載対象撮像データの少なくとも一部を出力するようにしてもよい。
例えば、状態観測部11が、画像解析を行うことにより、移載対象撮像データに対応する画像内から移載対象の少なくとも一部が撮像されている部分を検出する。そして、状態観測部11が、検出した移載対象の少なくとも一部が撮像されている部分のみを切り出し(トリミングし)、この切り出した画像に対応する部分の移載対象撮像データのみを入力データとして学習部13に対して出力するようにしてもよい。これにより、より正確に移載対象を特定することができるため、学習部13による学習の精度を高めることができる可能性があるのでよい。
ラベル取得部12は、環境100に含まれるロボット制御装置20からラベルを取得し、取得したラベルを学習部13に対して出力する部分である。ここで、本実施形態におけるラベルは、移載対象を実際に移載することに成功したハンド41を特定するための識別情報である。識別情報は、例えばハンド41を識別するための型番やID等の識別情報により実現される。より詳細には、本実施形態の説明の冒頭でも述べたように、ハンド41の識別情報は、例えばA、Bといったアルファベット等の文字や100、200といった数字、或いはこれらの組み合わせにより実現される。
ハンド41の識別情報は、例えば、視覚センサ30の撮像した画像に対して画像解析を行うことにより、移載対象の移載に成功したことを確認したロボット制御装置20から、ラベル取得部12に対して送信される。
学習部13は、この入力データとラベルとの組を教師データとして受け付け、この教師データを用いて、教師あり学習を行うことにより、学習モデルを構築する。
例えば、学習部13は、ニューラルネットワークを用いた教師あり学習を行う。この場合、学習部13は、教師データに含まれる入力データとラベルの組を、パーセプトロンを組み合わせて構成したニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じとなるように、ニューラルネットに含まれる各パーセプトロンについての重み付けを変更する、というフォワードプロパゲーションを行う。例えば、本実施形態では、ニューラルネットワークが出力するハンド41の識別情報が、ラベルのハンド41の識別情報と同じになるように、フォワードプロパゲーションを行う。
そして、学習部13は、このようにフォワードプロパゲーションを行った後に、バックプロパゲーション(誤差逆伝搬法とも呼ばれる。)という手法により各パーセプトロンの出力の誤差を小さくするように重み付け値を調整する。より詳細には、学習部13は、ニューラルネットワークの出力とラベルとの誤差を算出し、算出した誤差を小さくするように重み付け値を修正する。
学習部13は、このようにして、教師データの特徴を学習し、入力から結果を推定するための学習モデルを帰納的に獲得する。
学習部13は、上述したように、移載することに失敗したハンド41の識別情報はラベルとして利用せず、移載することに成功したハンド41の識別情報のみをラベルとして、ニューラルネットワークを利用した機械学習を行う。これにより学習部13は、移載対象を移載するのに適したハンド41の識別情報を出力する学習モデルを構築する。
ただし、1つの移載対象に対して複数のハンド41それぞれによる移載を試みた結果、複数のハンド41が移載することに成功する場合がある。この場合、1つの移載対象に対応する1つの移載対象撮像データという入力データに、それぞれ異なるラベルが組とされた複数の教師データが生成される。このようなそれぞれ異なるラベルが組とされた教師データを用いて学習を行うと、何れのラベルを正解として学習を行うことが適切であるかが不明となり、学習が適切に行われない可能性がある。
そこで、本実施形態では、ハンド41が移載することに成功した場合に、この移載に対しての評価を行い、評価値を算出するようにする。そして、評価値がもっとも高い移載を行ったハンド41の識別情報をラベルとして教師データを生成するようにする。これにより、学習部13は、移載に成功したハンド41の中でも最も評価が高いハンド41について学習を行うことができる。そのため、学習部13は、移載対象を移載するのに最も適していると考えられる最適のハンド41の識別情報を出力する学習モデルを構築することができる。
評価の基準は特に限定されないが、例えば、移載を開始してから移載を終了するまでの所要時間が短いほど評価値が高くなるようにするとよい。また、他にも移載すべき位置に狂いなく移載できた場合に、更に評価値が高くなるようにするとよい。また、これら以外の基準に沿って評価するようにしてもよい。更に、複数の基準に沿って評価値を算出し、これを合算する場合には、合算時に、基準にそれぞれの評価値に重み付けをつけてから合算するようにするとよい。
評価値の算出は、例えば、ロボット制御装置20が、視覚センサ30の撮像した画像に対して画像解析を行うことにより得た画像解析結果や、ロボット40のアームやハンド41の制御情報に基づいて、移載を終了するまでの所要時間を測定することにより行う。
この評価値の算出等も含めた学習時の動作については、図4を参照して後述する。
なお、本実施形態では、移載対象画像データという画像データを入力データとして学習を行う。そのため、学習部13は、画像データを対象とした学習に適しているニューラルネットワークである、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を使用して学習を行うようにするとよい。
畳み込みニューラルネットワークは、畳み込み層、プーリング層、全結合層、及び出力層を備えた構造となっている。
畳み込み層では、エッジ抽出等の特徴抽出を行うために、入力された画像データに対して所定のパラメータのフィルタをかける。このフィルタにおける所定のパラメータは、ニューラルネットワークの重みに相当しており、上述のフォワードプロパゲーションやバックプロパゲーションを繰り返すことにより学習されていく。
プーリング層では、物体の位置ズレを許容するために、畳み込み層から出力された画像をぼかす。これにより、物体の位置が変動しても同一の物体であるとみなすことができる。
これら畳み込み層及びプーリング層を組み合わせることによって、画像から特徴量を抽出することができる。
全結合層では、畳み込み層及びプーリング層を通して特徴部分が取り出された画像データを一つのノードに結合し、活性化関数によって変換した値を出力する。ここで、活性化関数は、0未満の出力値を全て0にする関数で、ある閾値以上の部分だけを意味の有る情報として出力層に送るために用いる。
出力層では、全結合層からの出力を、多クラス分類を行うための関数であるソフトマックス関数を用いて確率に変換し、この確率に基づいてハンド41の識別情報を出力する。なお、出力とラベルとの誤差を小さくするようにフォワードプロパゲーションやバックプロパゲーションを繰り返す点は、畳み込みニューラルネットワークでも同様である。
学習部13は、以上のような構成の畳み込みニューラルネットワークによって学習を行うことにより学習モデルを構築する。
なお、上述のニューラルネットワークを使用した教師あり学習は、教師あり学習の一例であり、学習部13は、他にも例えば隠れマルコフモデルを使用した教師あり学習を行うようにしてもよい。
学習部13が構築した学習モデルは、学習モデル記憶部14及び後述の出力提示部15に対して出力される。
学習モデル記憶部14は、学習部13が構築した学習モデルを記憶する記憶部である。なお、学習モデルを構築した後に、新たな教師データを取得した場合には、学習モデル記憶部14が記憶した学習モデルに対して更に教師あり学習を行うことにより、一度構築した学習モデルは適宜更新される。
また、学習モデル記憶部14が記憶した学習モデルを、他の機械学習装置10との間で共有するようにしてもよい。学習モデルを複数の機械学習装置10で共有するようにすれば、各機械学習装置10にて分散して教師あり学習を行うことが可能となるので、教師あり学習の効率を向上させることが可能となる。
出力提示部15は、学習部13の出力を提示する部分である。上述したように、本実施形態では、学習部13が構築した学習モデルにより、移載対象を移載するのに適したハンド41の識別情報を出力することができるので、出力提示部15は、この学習部13の出力の内容を例えば画面に表示することによりユーザに対して提示する。
また、出力提示部15は、学習部13の出力の内容を機械学習装置10に含まれるロボット制御装置20に送信するようにしてもよい。そして、これを受信したロボット制御装置20が出力の内容を例えば画面に表示することによりユーザに対して提示するようにしてもよい。更に、ロボットシステム1に、ハンド41を自動交換する装置が含まれるような場合には、ラベル取得部12は、この自動交換をする装置に対して、学習部13の出力の内容を送信するようにしてもよい。
これにより、ハンド41を交換するユーザや装置は、移載対象に適したハンド41に交換をすることが可能となる。
以上、機械学習装置10に含まれる機能ブロックについて説明した。
これらの機能ブロックを実現するために、機械学習装置10は、CPU(Central Processing Unit)等の演算処理装置を備える。また、機械学習装置10は、アプリケーションソフトウェアやOS(Operating System)等の各種の制御用プログラムを格納したHDD(Hard Disk Drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置も備える。
そして、機械学習装置10において、演算処理装置が補助記憶装置からアプリケーションソフトウェアやOSを読み込み、読み込んだアプリケーションソフトウェアやOSを主記憶装置に展開させながら、これらのアプリケーションソフトウェアやOSに基づいた演算処理を行なう。また、この演算結果に基づいて、各装置が備える各種のハードウェアを制御する。これにより、本実施形態の機能ブロックは実現される。つまり、本実施形態は、ハードウェアとソフトウェアが協働することにより実現することができる。
具体例として、機械学習装置10は、一般的なパーソナルコンピュータに本実施形態を実現するためのアプリケーションソフトウェアを組み込むことより実現できる。
ただし、機械学習装置10については教師あり学習に伴う演算量が多いため、例えば、パーソナルコンピュータにGPU(Graphics Processing Units)を搭載し、GPGPU(General-Purpose computing on Graphics Processing Units)と呼ばれる技術により、GPUを教師あり学習に伴う演算処理に利用するようにすると高速処理できるようになるのでよい。更には、より高速な処理を行うために、このようなGPUを搭載したコンピュータを複数台用いてコンピュータ・クラスターを構築し、このコンピュータ・クラスターに含まれる複数のコンピュータにて並列処理を行うようにしてもよい。
次に、図3のフローチャートを参照して、機械学習装置10による教師あり学習時の動作について説明をする。
ステップS11において、ロボット制御装置20は、移載対象を1つ選択する。例えば図2に示す第1移載対象51又は第2移載対象52の何れかを選択する。選択は、例えば視覚センサ30から取得した移載対象画像データの解析結果に基づいて、把持できそうな位置及び姿勢の移載対象を特定することにより行われる。なお、選択は、ユーザの操作に基づいて行われてもよい。
ステップS12において、ロボット制御装置20は、機械学習における入力データとするために移載対象画像データを記憶する。
ステップS13において、ロボット制御装置20は、ロボット40に装着するハンド41を1つ選択する。選択は、ロボット制御装置20が選択可能なハンド41からランダムに選択してもよいし、ユーザの操作に基づいて行われてもよい。選択されたハンド41は、ハンド41を自動で交換する装置又はユーザによってロボット40のアームに装着される。
ステップS14において、ロボット制御装置20は、ロボット40のアームと、現在ロボット40のアームに装着されているハンド41を制御することにより、移載対象の移載を試みる。
ステップS15において、ロボット制御装置20は、ステップS14にて試みた移載が成功したか否かを判定する。
移載に成功した場合には、ステップS16においてYesと判定され、処理はステップS17に進む。ステップS17において、ロボット制御装置20は、評価値を算出し、算出した評価値と、移載することに成功したハンド41の識別情報とを対応付けて記憶する。なお、評価値の算出方法については上述した通りである。
一方で、移載に失敗した場合には、ステップS16においてNoと判定され、処理はステップS18に進む。なぜならば、上述したように学習部13では、移載することに失敗したハンド41の識別情報はラベルとして利用せず、移載することに成功したハンド41の識別情報のみをラベルとして利用するからである。なお、ステップS16においてNoであった場合には、今回の処理のステップS12にて取得した入力データも教師データとしては利用されない。そこで、ロボット制御装置20は、この入力データを破棄する。
ステップS18において、ロボット制御装置20は、ハンド41を新たなものに交換するか否かを判定する。ステップS11において選択した移載対象について学習対象とするハンド41がある場合には、ステップS18においてYesと判定され、処理はステップS13に戻る。そして、上述のステップS13以降の処理が再度行われる。一方で、学習対象とするハンドがない場合には、ステップS18においてNoと判定され処理はステップS19に進む。
ステップS19において、ロボット制御装置20は、ステップS17において記憶した、移載することに成功したハンド41の識別情報それぞれに対応付けられている評価値を比較する。そして、もっとも高い評価値に対応付けられているハンド41の識別情報をラベルとして機械学習装置10に送信する。機械学習装置10のラベル取得部12は、このラベルを取得する。また、ロボット制御装置20は、ステップS12おいて記憶した移載対象画像データを、入力データとして機械学習装置10に送信する。機械学習装置10の状態観測部11は、この入力データを取得する。これにより、ロボット制御装置20は1つの教師データを得る。
ステップS20において、ロボット制御装置20は、移載対象を変更するか否かを判定する。学習対象とする移載対象が存在する場合は、ステップS20においてYesと判定され、処理はステップS11に戻る。そして、ステップS11にて新たな移載対象が選択され、以降の処理が再度行われる。
一方で、学習対象とする移載対象が存在しない場合は、ステップS20においてNoと判定され処理はステップS21に進む。
ステップS21において、学習部13は、ステップS19において取得した移載対象画像データとラベルとからなる教師データに基づいて、教師あり学習を実行する。教師あり学習の方法については、学習部13の説明として上述した通りである。この教師あり学習は所定の条件が満たされるまで繰り返される。例えば、ニューラルネットワークの出力とラベルとの誤差の値が所定値以下となったことや、予め定めておいた回数だけ教師あり学習を繰り返したことを条件として、これらの条件が満たされた場合に学習は終了する。
ステップS22において、学習部13は、ステップS21における学習で構築した学習モデルを学習モデル記憶部14に記憶させる。
以上説明した動作により、学習部13は、移載対象を移載するのに適したハンド41の識別情報を出力する学習モデルを構築することができる。
なお、上述の動作は、学習モデルの構築のための処理として行われてもよいが、工場等においてロボット40が平常稼働している際に行われてもよい。
また、上述した教師あり学習は、複数の移載対象についての教師データが蓄積された後にバッチ学習で行っているが、オンライン学習やミニバッチ学習で教師あり学習を行ってもよい。
オンライン学習とは、機械学習装置10による加工が行われ、教師データが作成される都度、即座に教師あり学習を行うという学習方法である。また、バッチ学習とは、機械学習装置10による加工が行われ、教師データが作成されることが繰り返される間に、繰り返しに応じた複数の教師データを収集し、収集した全ての教師データを用いて、教師あり学習を行うという学習方法である。更に、ミニバッチ学習とは、オンライン学習と、バッチ学習の中間的な、ある程度教師データが溜まるたびに教師あり学習を行うという学習方法である。
次に、このようにして構築された学習モデルを利用する場合の動作について図5のフローチャートを参照して説明をする。
ステップS31において、ロボット制御装置20は、移載対象を1つ選択する。例えば図2に示す第1移載対象51又は第2移載対象52の何れかを選択する。選択は、例えば視覚センサ30から取得した移載対象画像データの解析結果に基づいて、把持できそうな位置及び姿勢の移載対象を特定することにより行われる。なお、選択は、ユーザの操作に基づいて行われてもよい。
ステップS32において、ロボット制御装置20は、移載対象画像データを機械学習装置10に対して送信する。機械学習装置10は、受信した移載対象画像データを、構築した学習モデルの入力データとするために取得する。
ステップS33において、機械学習装置10では、ステップS32にて取得した入力データが学習部13にて学習モデルに入力される。そして、学習部13の学習モデルから、移載対象を移載するのに適したハンド41の識別情報が、出力提示部15に対して出力される。出力提示部15は、このハンド41の識別情報を、環境100に含まれるハンド41を自動で交換する装置又はユーザに対して出力する。ユーザに対して出力する場合には、出力提示部15は、例えば、ロボット制御装置20に対して、1つのハンド41の識別情報を送信する。そして、ロボット制御装置20が自身の備える表示部(図示省略)に、受信したハンド41の識別情報を表示する。
ステップS34において、ハンド41の識別情報を提示された、ハンド41を自動で交換する装置又はユーザは、この識別情報に対応するハンド41をロボット40のアームに対して装着する。そして、ロボット制御装置20は、ロボット40のアームや、このアームに装着されたハンド41を駆動させることにより、移載対象を移載する。
以上説明した動作により、移載対象を移載するのに適したハンド41により移載を行うことが可能となる。
ここで、本実施形態では、機械学習により構築した学習モデルを利用していることから、未知の移載対象に対しても、移載するのに適したハンド41を提示することができる。つまり、ハンドとの組み合わせを教示していない移載対象についても、移載するためのハンドを選択することが可能となる。
これにより、重量や形状の個体差が大きく、形態データを事前に教示するのが困難なワークについても、ハンドの選択を自動的に行うことができるので、移載失敗率を低減することができる。また、ハンド交換の工数を削減できる。
<第2の実施形態>
以上第1の実施形態について説明をした。次に第2の実施形態についての説明をする。なお、第2の実施形態と第1の実施形態は、基本的な構成及び動作について共通するので、これらの点についての重複する説明は省略する。
第2の実施形態は、機械学習においてラベルとする情報が第1の実施形態と異なる。第1の実施形態では、移載することに成功したハンド41の識別情報をラベルとしていた。これに対して、第2の実施形態では、移載することに成功したハンド41の物理情報をラベルとする。ここで、ハンド41の物理情報とは、ハンドの物理的特徴を示す情報であり、例えばハンド41の形状、大きさ、及び材質等のハンド41の物理的特徴を示す情報である。なお、入力データが、移載対象画像データである点は、第1の実施形態と同様である。
本実施形態では、ハンド41の物理情報として、例えば、CAD(Computer-Aided Design)にて形状及び大きさを特定するためのパラメータを利用する。例えば、ハンド41の形状、ハンド41の各箇所の寸法等を示すパラメータを利用する。この場合、ハンド41の形状そのものをパラメータとして利用するのではなく、予めハンド41の形状を形状の種類毎に定義しておき、この定義された形状種類を指定するパラメータを利用するようにしてもよい。形状の種類とは、例えば、移載対象を外側から挟み込むハンド、移載対象を内側から挟み込むハンド、真空吸着により移載対象を吸着するハンド、及び静電気により移載対象を吸着するハンド、等の種類である。また、更に、移載対象を挟み込む指の数や、移載対象吸着する部分の数についても種類の一部として定義しておいてもよい。
このようなハンド41の物理情報をラベルとし、移載対象画像データを入力データとして、図4を参照して上述した学習モデルを構築する処理を行う。これにより、本実施形態では、移載対象を移載するのに適したハンド41の物理情報を特定するデータを出力する学習モデルを構築することができる。
次に、このようにして構築された学習モデルを利用する場合について、図5のフローチャートと、図6A及び図6Bのイメージ図を参照して説明をする。なお、図5のフローチャートにおける動作については、第1の実施形態の説明として上述しているので、重複する説明は省略する、
ステップS31において、ロボット制御装置20は、移載対象を1つ選択する。
ステップS32において、ロボット制御装置20は、移載対象画像データを機械学習装置10に対して送信する。機械学習装置10は、受信した移載対象画像データを、構築した学習モデルの入力データとするために取得する。ここで、入力データとなる移載対象画像データを図6Aに模式的に示す。図6Aには、移載対象51を図示する。
ステップS33において、機械学習装置10では、ステップS32にて取得した入力データが学習部13にて学習モデルに入力される。そして、学習部13の学習モデルから、移載対象を移載するのに適したハンド41の物理情報が、出力提示部15に対して出力される。出力提示部15は、このハンド41の物理情報であるCADのパラメータを、CADを搭載した装置(図示省略)に対して送信する。このCADを搭載した装置は、ハンド41の物理情報であるCADのパラメータに基づいて、ハンド41の形状及び大きさを表示する。例えば、図6Bに示すように、ハンド41がワークを把持した状態の断面画像を表示する。この形状及び大きさは、図6Aに示した移載対象51を把持するために適した形状及び大きさとなっている。
この表示を参照したユーザは、例えば、この形状及び大きさに基づいて、適切なハンド41を選択することができる。また、この形状及び大きさに対応するハンド41が存在しない場合に、この形状及び大きさのハンドを設計すればよいことが分かる。つまり、本実施形態は、移載対象に適したハンド41を設計する場面等で有効に利用することができる。この場合、実際に移載を行って入力データやラベルを生成するのではなく、コンピュータ上でシミュレーションを行うことにより入力データやラベルを生成するようにするとよい。
ステップS34において、ユーザは、設計して作成されたハンド41をロボット40のアームに対して装着する。そして、ロボット制御装置20は、ロボット40のアームや、このアームに装着されたハンド41を駆動させることにより、移載対象を移載する。
以上説明した動作により、移載対象を移載するのに適したハンド41により移載を行うことが可能となる。
ここで、本実施形態では、機械学習により構築した学習モデルを利用していることから、未知の移載対象に対しても、移載するのに適したハンド41の形状及び大きさを提示することができる。つまり、ハンドとの組み合わせを教示していない移載対象についても、移載するためのハンドを選択することが可能となる。
<第3の実施形態>
次に第3の実施形態についての説明をする。なお、第3の実施形態と上述した各実施形態は、基本的な構成及び動作について共通するので、これらの点についての重複する説明は省略する。
第3の実施形態は、機械学習において入力データとする情報とラベルとする情報が上述した各実施形態と異なる。
ここで、上述した各実施形態では、移載対象画像データを入力データとしていた。
また、第1の実施形態では、移載することに成功したハンド41の識別情報をラベルとしていた。更に、第2の実施形態では、移載することに成功したハンド41の物理情報をラベルとしていた。
これに対して、本実施形態では、移載対象画像データと、移載対象を移載することを試みるハンド41の識別情報または物理情報の組み合わせを入力データとする。
また、本実施形態では、試みる移載が成功したのか、それとも失敗したのかを示す情報(すなわち、移載の成否を示す情報)をラベルとする。
このように、上述の各実施形態では、移載に成功した場合の情報のみを教師データとして学習を行っていたのに対し、本実施形態では、移載の成否に関わらず、成功した場合の情報及び失敗した場合の情報の双方の情報を教師データとして学習を行う点で相違する。
このように移載対象画像データと移載対象を移載することを試みるハンド41の識別情報または物理情報の組み合わせを入力データとし、移載の成否を示す情報をラベルとして、図4を参照して上述した学習モデルを構築する処理を行う。これにより、本実施形態では、移載対象画像データと、移載対象を移載することを試みるハンド41の識別情報または物理情報の組み合わせを入力すると、この組み合わせによる移載の成否の推定結果を出力する学習モデルを構築することができる。なお、本実施形態では、移載の成否に関わらず教師データとする。また、本実施形態では、評価値に関わらず教師データとする。そのため、図4のステップS16とステップS17の処理に関しては省略される。
次に、このようにして構築された学習モデルを利用する場合について、図5のフローチャートを参照して説明をする。なお、図5のフローチャートにおける動作については、各実施形態の説明として上述しているので、重複する説明は省略する、
ステップS31において、ロボット制御装置20は、移載対象を1つ選択する。
ステップS32において、ロボット制御装置20は、移載対象画像データと、移載対象を移載することを試みるハンド41の識別情報または物理情報の組み合わせを機械学習装置10に対して送信する。機械学習装置10は、受信した移載対象画像データと識別情報または物理情報の組み合わせを、構築した学習モデルの入力データとするために取得する。
ステップS33において、機械学習装置10では、ステップS32にて取得した入力データが学習部13にて学習モデルに入力される。そして、学習部13の学習モデルから、入力データにおける組み合わせによる移載の成否の推定結果が、出力提示部15に対して出力される。出力提示部15は、この成否の推定結果を、環境100に含まれるユーザに対して出力する。例えば、ロボット制御装置20に対して、ハンド41の識別情報または物理情報を送信する。そして、ロボット制御装置20が自身の備える表示部(図示省略)に、成否の推定結果を表示する。ここで、提示された成否の推定結果において、失敗すると推定されている場合、ユーザは、ステップS32にて入力データとしたハンド41とは異なるハンド41の識別情報または物理情報を入力データとして再度ステップS32及び33を行う。
ステップS34において、ユーザは、成否の推定結果において、成功すると推定されている場合、ステップS32にて入力データとしたハンド41の識別情報または物理情報に対応するハンド41をロボット40のアームに対して装着する。そして、ロボット制御装置20は、ロボット40のアームや、このアームに装着されたハンド41を駆動させることにより、移載対象を移載する。
以上説明した動作により、移載対象を移載するのに適したハンド41により移載を行うことが可能となる。
ここで、本実施形態では、機械学習により構築した学習モデルを利用していることから、未知の移載対象に対しても、移載するのに成功するハンド41であるか否かの推定結果を提示することができる。これにより、ハンドとの組み合わせを教示していない移載対象についても、移載するためのハンドを選択することが可能となる。
<ハードウェアとソフトウェアの協働>
なお、上記のロボットシステムに含まれる各装置のそれぞれは、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。また、上記のロボットシステムに含まれる各装置のそれぞれの協働により行なわれる機械学習方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
<実施形態の変形>
また、上述した各実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、各実施形態を組み合わせた形態や、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。
<ラベルについての変形例>
上述の第1の実施形態では、移載対象を実際に移載することに成功したハンド41を特定するための識別情報をラベルとしていた。また、第2の実施形態では、ハンド41の物理的特徴を示す物理情報をラベルとしていた。更に、第3の実施形態では、ハンド41にてワークを実際に移載することを試みた成否の結果をラベルとしていた。
これら各実施形態において、ラベルとして、更に、移載対象を実際に移載することを試みた際の、ハンド41による移載対象の把持位置や把持姿勢を含ませるようにしてもよい。
これにより、第1の実施形態や第2の実施形態において、実際に移載することに成功した際の把持位置や把持姿勢も含めて機械学習を行い、学習モデルを構築することができる。この学習モデルを利用することにより、単に移載のために用いるハンド41を自動選択したり、ハンド41の物理情報を把握できたりするだけでなく、当該ハンド41でどのように移載対象を把持することにより移載が成功するかについても自動判別することができ、より利便性を向上させることが可能となる。
また、第3の実施形態において、実際に移載することに成功した際の把持位置や把持姿勢、及び実際に移載することに失敗した際の把持位置や把持姿勢も含めて機械学習を行い、学習モデルを構築することができる。この学習モデルを利用することにより、単に移載のために用いるハンド41を自動選択したり、ハンド41の物理情報を把握できたりするだけでなく、当該ハンド41でどのように移載対象を把持すると移載が成功するか或いは失敗するかについても自動判別することができ、より利便性を向上させることが可能となる。
<学習時の動作についての変形例>
上述した第1の実施形態及び第2の実施形態では、図4を参照して説明したように、移載に成功したハンド41が複数存在する場合を想定して、評価値がもっとも高い移載を行ったハンド41の識別情報をラベルとして教師データを生成するようにするようにしていた。本変形例では、この評価を不要として、動作を簡略化する。
上述の各実施形態では図4に示すように移載が成功した場合に、ステップS17にて評価値を算出後、他のハンド41へと交換して移載を試みることを繰り返していた。そのため、各実施形態では、1つの移載対象について、移載に成功したハンド41が、複数となっていた。そこで、評価値を比較して1つのハンド41を選択して、このハンド41の識別情報をラベルとしていた。
これに対して、本変形例では、図7に示すように、1つの移載対象について、何れかのハンド41にて移載が成功した場合には、他のハンド41での移載を試みることなくステップS19の処理を行う。つまり、本変形例では、1つの移載対象について、移載に成功したハンド41は、1つとなる。そのため、評価値による比較を行うことなく、このハンド41の識別情報をラベルとする。
これにより、1つの移載対象について1つの教師データを作成することが可能となり、各実施形態同様に機械学習を行うことができる。
なお、本変形例では、仮に移載が失敗した場合には、ステップS16においてNoと判定され、ステップS18にて各実施形態と同様に、ハンドの交換を行うか否かを判定し、他のハンド41での移載を試みる。そのため、何れかのハンド41にて移載に成功すれば、教師データを作成することが可能となる。
<その他の変形例>
上述した各実施形態では、機械学習装置10とロボット制御装置20を別体の装置としていたが、これら装置を一体として実現してもよい。
また、上述した各実施形態では、ロボット制御装置20と機械学習装置10が近傍にいるように図示したが、これらがLAN(Local Area Network)やインターネット等のネットワークを介した遠方に位置していてもよい。
また、1台の機械学習装置10が、複数台のロボット制御装置20と接続されていてもよい。そして、1台の機械学習装置10が、この複数台のロボット制御装置20のそれぞれから取得した教師データに基づいて学習を行うようにしてもよい。
上述した実施形態では、一枚の画像の移載対象画像データを1つの教師データの入力データとすることを想定したが、複数枚の画像の移載対象画像データを1つの教師データの入力データとしてもよい。
1 ロボットシステム
10 機械学習装置
11 状態観測部
12 ラベル取得部
13 学習部
14 学習モデル記憶部
15 出力提示部
20 ロボット制御装置
30 視覚センサ
40 ロボット
41 ハンド
51 第1移載対象
52 第2移載対象
61 移載元架台
62 移載先架台
(1) 本発明の機械学習装置(例えば、後述の機械学習装置10)は、移載対象(例えば、後述の第1移載対象51又は第2移載対象52)の少なくとも一部を撮像した撮像データを入力データとして取得する状態観測手段(例えば、後述の状態観測部11)と、前記移載対象の移載のためにロボットに装着した把持手段(例えば、後述のハンド41)に係る情報をラベルとして取得するラベル取得手段(例えば、後述のラベル取得部12)と、前記状態観測手段が取得した入力データとラベル取得手段が取得したラベルの組を教師データとして教師あり学習を行うことにより、前記移載に適した把持手段に係る情報を出力する学習モデルを構築する学習手段(例えば、後述の学習部13)と、を備える。
(11) 本発明の機械学習方法は、機械学習装置(例えば、後述の機械学習装置10)が行う機械学習方法であって、移載対象(例えば、後述の第1移載対象51又は第2移載対象52)の少なくとも一部を撮像した撮像データを入力データとして取得する状態観測ステップと、前記移載対象の移載のためにロボットに装着した把持手段に係る情報をラベルとして取得するラベル取得ステップと、前記状態観測ステップにて取得した入力データとラベル取得ステップにて取得したラベルの組を教師データとして教師あり学習を行うことにより、前記移載に適した把持手段に係る情報を出力する学習モデルを構築する学習ステップと、を備える。

Claims (11)

  1. 移載対象を撮像した撮像データの少なくとも一部を入力データとして取得する状態観測手段と、
    前記移載対象の移載のためにロボットに装着した把持手段に係る情報をラベルとして取得するラベル取得手段と、
    前記状態観測手段が取得した入力データとラベル取得手段が取得したラベルの組を教師データとして教師あり学習を行うことにより、前記移載に用いる把持手段の適否を判断するための学習モデルを構築する学習手段と、を備える機械学習装置。
  2. 前記ラベル取得手段は、前記把持手段が前記移載対象を把持した位置と姿勢を示す情報を更にラベルとして取得する請求項1に記載の機械学習装置。
  3. 前記ラベル取得手段は、前記移載対象の移載に成功した把持手段を識別するための情報をラベルとして取得する請求項1又は2に記載の機械学習装置。
  4. 前記把持手段を識別するための情報とは、前記把持手段の個体ごとに付与された文字又は数字或いはこれらの組み合わせからなる情報である請求項3に記載の機械学習装置。
  5. 前記構築した学習モデルに前記撮像データが新たに入力された場合に、前記学習モデルの出力に基づいて、前記新たに入力された撮像データにて撮像されている移載対象を移載するための把持手段の識別情報を提示する出力提示手段を更に備える請求項4に記載の機械学習装置。
  6. 前記ラベル取得手段は、前記移載対象の移載に成功した把持手段の物理的特徴を示す物理情報をラベルとして取得する請求項1又は2に記載の機械学習装置。
  7. 前記構築した学習モデルに前記撮像データが新たに入力された場合に、前記学習モデルの出力に基づいて、前記新たに入力された撮像データにて撮像されている移載対象を移載するための把持手段の物理的特徴を示す物理情報を提示する出力提示手段を更に備える請求項6に記載の機械学習装置。
  8. 前記状態観測手段は、前記撮像データに加えて、前記ロボットに装着した把持手段を識別するための情報を更に入力データとして取得し、
    前記ラベル取得手段は、前記移載対象の移載の成否を示す情報をラベルとして取得する請求項1又は2に記載の機械学習装置。
  9. 前記構築した学習モデルに前記撮像データと前記ロボットに装着した把持手段の識別情報が新たに入力された場合に、前記学習モデルの出力に基づいて、前記新たに入力された撮像データ中の移載対象を前記新たに入力された識別情報に対応する把持手段にて移載した場合の成否についての推定情報を提示する出力提示手段を更に備える請求項8に記載の機械学習装置。
  10. 請求項1から請求項9までの何れか1項に記載の機械学習装置と、撮像手段と、把持手段を装着したロボットとを備えたロボットシステムであって、
    前記状態観測手段は、前記撮像手段が移載元に設置された移載対象の少なくとも一部を撮像することにより生成した撮像データを前記入力データとして取得し、
    前記ラベル取得手段は、前記移載対象の移載のために前記ロボットに装着した把持手段に係る情報をラベルとして取得する、
    ロボットシステム。
  11. 機械学習装置が行う機械学習方法であって、
    移載対象を撮像した撮像データの少なくとも一部を入力データとして取得する状態観測ステップと、
    前記移載対象の移載のためにロボットに装着した把持手段に係る情報をラベルとして取得するラベル取得ステップと、
    前記状態観測ステップにて取得した入力データとラベル取得ステップにて取得したラベルの組を教師データとして教師あり学習を行うことにより、前記移載に用いる把持手段の適否を判断するための学習モデルを構築する学習ステップと、
    を備える機械学習方法。
JP2017174827A 2017-09-12 2017-09-12 機械学習装置、ロボットシステム及び機械学習方法 Active JP6608890B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017174827A JP6608890B2 (ja) 2017-09-12 2017-09-12 機械学習装置、ロボットシステム及び機械学習方法
US16/117,518 US10737385B2 (en) 2017-09-12 2018-08-30 Machine learning device, robot system, and machine learning method
DE102018215057.5A DE102018215057B4 (de) 2017-09-12 2018-09-05 Maschinelles-Lernen-Vorrichtung, Robotersystem und maschinelles-Lernen-Verfahren
CN201811052341.8A CN109483573B (zh) 2017-09-12 2018-09-10 机器学习装置、机器人系统以及机器学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017174827A JP6608890B2 (ja) 2017-09-12 2017-09-12 機械学習装置、ロボットシステム及び機械学習方法

Publications (2)

Publication Number Publication Date
JP2019048365A true JP2019048365A (ja) 2019-03-28
JP6608890B2 JP6608890B2 (ja) 2019-11-20

Family

ID=65441428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017174827A Active JP6608890B2 (ja) 2017-09-12 2017-09-12 機械学習装置、ロボットシステム及び機械学習方法

Country Status (4)

Country Link
US (1) US10737385B2 (ja)
JP (1) JP6608890B2 (ja)
CN (1) CN109483573B (ja)
DE (1) DE102018215057B4 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021016908A (ja) * 2019-07-18 2021-02-15 京セラドキュメントソリューションズ株式会社 学習装置、ロボット制御システム及び学習制御方法
JP2021045811A (ja) * 2019-09-18 2021-03-25 株式会社東芝 ハンドリング装置、ハンドリング方法及びプログラム
WO2021090643A1 (ja) * 2019-11-06 2021-05-14 日本電気株式会社 制御装置、制御システム、制御方法およびプログラム記憶媒体
JPWO2021177159A1 (ja) * 2020-03-05 2021-09-10
CN113635298A (zh) * 2021-07-14 2021-11-12 上海快点机器人科技有限公司 工业机器人工具快换装置用智能安全模块及其使用方法
JP2022543496A (ja) * 2019-12-17 2022-10-12 バイストロニック レーザー アクチェンゲゼルシャフト 部品を選別するためのレーザ切断機用の把持具の設計
JP7351702B2 (ja) 2019-10-04 2023-09-27 ファナック株式会社 ワーク搬送システム

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US11093896B2 (en) 2017-05-01 2021-08-17 Symbol Technologies, Llc Product status detection system
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
WO2018201423A1 (en) 2017-05-05 2018-11-08 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
WO2019006091A2 (en) * 2017-06-28 2019-01-03 Google Llc METHODS AND APPARATUS FOR MACHINE LEARNING FOR SEMANTIC ROBOTIC SEIZURE
JP6669713B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 ロボットおよびロボットシステム
CN108638054B (zh) * 2018-04-08 2021-05-04 河南科技学院 一种智能排爆机器人五指灵巧手控制方法
US10934045B2 (en) 2018-07-27 2021-03-02 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11325252B2 (en) * 2018-09-15 2022-05-10 X Development Llc Action prediction networks for robotic grasping
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
JP6863946B2 (ja) * 2018-10-31 2021-04-21 ファナック株式会社 画像処理装置
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11090811B2 (en) * 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
JP7000376B2 (ja) * 2019-04-23 2022-01-19 ファナック株式会社 機械学習装置、予測装置、及び制御装置
JP7263920B2 (ja) * 2019-05-23 2023-04-25 トヨタ自動車株式会社 演算装置、制御プログラム、機械学習器及び把持装置
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
EP3998140A4 (en) * 2019-08-28 2022-09-28 Daily Color Inc. ROBOT CONTROL DEVICE
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
DE102020120027A1 (de) * 2020-07-29 2022-02-03 Liebherr-Verzahntechnik Gmbh Verfahren zur automatischen Bestimmung von Konstruktionsparametern eines Greifers
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
DE102021209646B4 (de) 2021-09-02 2024-05-02 Robert Bosch Gesellschaft mit beschränkter Haftung Robotervorrichtung, Verfahren zum computerimplementierten Trainieren eines Roboter-Steuerungsmodells und Verfahren zum Steuern einer Robotervorrichtung
US11822710B2 (en) 2021-09-08 2023-11-21 Acumino Wearable robot data collection system with human-machine operation interface
DE102022115662A1 (de) 2022-06-23 2023-12-28 Robominds GmbH Verfahren zum Handhaben eines Objekts mittels eines Roboterarms und Vorrichtung umfassend einen Roboterarm zum Handhaben eines Objekts

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0388683U (ja) * 1989-12-27 1991-09-10
JPH0550389A (ja) * 1991-08-20 1993-03-02 Fujitsu Ltd 把持搬送ロボツト
JPH10161730A (ja) * 1996-11-29 1998-06-19 Toshiba Corp ワーク把持位置教示データ算出装置
JP2009172685A (ja) * 2008-01-22 2009-08-06 Yaskawa Electric Corp マニピュレータシステムおよびその制御方法
US20120298706A1 (en) * 2010-12-22 2012-11-29 Stratom, Inc. Robotic tool interchange system
JP2013043271A (ja) * 2011-08-26 2013-03-04 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2015100866A (ja) * 2013-11-22 2015-06-04 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
WO2015178377A1 (ja) * 2014-05-20 2015-11-26 株式会社日立製作所 組立教示装置及び方法
JP2016132086A (ja) * 2015-01-22 2016-07-25 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
JP2016203293A (ja) * 2015-04-21 2016-12-08 株式会社豊田自動織機 ピッキング装置およびピッキング方法
JP2017064910A (ja) * 2015-07-31 2017-04-06 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63273906A (ja) * 1987-05-06 1988-11-11 Honda Motor Co Ltd 産業用ロボットのティ−チングデ−タ作成システム
NL8901873A (nl) 1989-07-20 1991-02-18 Oce Nederland Bv Inrichting voor het recirculeren van origineelbladen.
JPH11114857A (ja) 1997-10-09 1999-04-27 Shinko Electric Co Ltd 自動移載装置
JP2003127077A (ja) * 2001-10-19 2003-05-08 Komatsu Ltd 作業ロボットのロボットプログラム修正装置。
JP2008502488A (ja) * 2004-06-15 2008-01-31 エービービー エービー 複数の相互作用ロボットをオフラインでプログラミングする方法及びシステム
KR100749579B1 (ko) * 2005-09-05 2007-08-16 삼성광주전자 주식회사 교환가능한 복수의 작업모듈을 갖는 이동로봇 시스템 및 그제어방법
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
JP2009119589A (ja) 2007-11-19 2009-06-04 Yaskawa Electric Corp ロボットシミュレータ
US8326780B2 (en) * 2008-10-14 2012-12-04 Honda Motor Co., Ltd. Smoothed sarsa: reinforcement learning for robot delivery tasks
CN102902271A (zh) * 2012-10-23 2013-01-30 上海大学 基于双目视觉的机器人目标识别与抓取系统及方法
CN203510216U (zh) * 2013-09-16 2014-04-02 江苏尚诚精密模具科技有限公司 一种智能搬运机器人
JP5890477B2 (ja) * 2014-07-09 2016-03-22 ファナック株式会社 ロボットプログラム修正システム
US9475198B2 (en) * 2014-12-22 2016-10-25 Qualcomm Incorporated System and method for dynamic robot manipulator selection
EP3414710B1 (en) * 2016-03-03 2022-11-02 Google LLC Deep machine learning methods and apparatus for robotic grasping
US10058995B1 (en) * 2016-07-08 2018-08-28 X Development Llc Operating multiple testing robots based on robot instructions and/or environmental parameters received in a request
CN106156799B (zh) * 2016-07-25 2021-05-07 北京光年无限科技有限公司 智能机器人的物体识别方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0388683U (ja) * 1989-12-27 1991-09-10
JPH0550389A (ja) * 1991-08-20 1993-03-02 Fujitsu Ltd 把持搬送ロボツト
JPH10161730A (ja) * 1996-11-29 1998-06-19 Toshiba Corp ワーク把持位置教示データ算出装置
JP2009172685A (ja) * 2008-01-22 2009-08-06 Yaskawa Electric Corp マニピュレータシステムおよびその制御方法
US20120298706A1 (en) * 2010-12-22 2012-11-29 Stratom, Inc. Robotic tool interchange system
JP2013043271A (ja) * 2011-08-26 2013-03-04 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2015100866A (ja) * 2013-11-22 2015-06-04 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
WO2015178377A1 (ja) * 2014-05-20 2015-11-26 株式会社日立製作所 組立教示装置及び方法
JP2016132086A (ja) * 2015-01-22 2016-07-25 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
JP2016203293A (ja) * 2015-04-21 2016-12-08 株式会社豊田自動織機 ピッキング装置およびピッキング方法
JP2017064910A (ja) * 2015-07-31 2017-04-06 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021016908A (ja) * 2019-07-18 2021-02-15 京セラドキュメントソリューションズ株式会社 学習装置、ロボット制御システム及び学習制御方法
JP2021045811A (ja) * 2019-09-18 2021-03-25 株式会社東芝 ハンドリング装置、ハンドリング方法及びプログラム
JP7351702B2 (ja) 2019-10-04 2023-09-27 ファナック株式会社 ワーク搬送システム
US11794300B2 (en) 2019-10-04 2023-10-24 Fanuc Corporation Workpiece transfer system
WO2021090643A1 (ja) * 2019-11-06 2021-05-14 日本電気株式会社 制御装置、制御システム、制御方法およびプログラム記憶媒体
JP2022543496A (ja) * 2019-12-17 2022-10-12 バイストロニック レーザー アクチェンゲゼルシャフト 部品を選別するためのレーザ切断機用の把持具の設計
JPWO2021177159A1 (ja) * 2020-03-05 2021-09-10
WO2021177159A1 (ja) * 2020-03-05 2021-09-10 ファナック株式会社 機械学習装置
JP7420917B2 (ja) 2020-03-05 2024-01-23 ファナック株式会社 機械学習装置
CN113635298A (zh) * 2021-07-14 2021-11-12 上海快点机器人科技有限公司 工业机器人工具快换装置用智能安全模块及其使用方法
CN113635298B (zh) * 2021-07-14 2024-02-27 上海快点机器人科技有限公司 工业机器人工具快换装置用智能安全模块及其使用方法

Also Published As

Publication number Publication date
US20190077015A1 (en) 2019-03-14
DE102018215057A1 (de) 2019-03-14
US10737385B2 (en) 2020-08-11
CN109483573A (zh) 2019-03-19
DE102018215057B4 (de) 2020-12-10
JP6608890B2 (ja) 2019-11-20
CN109483573B (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
JP6608890B2 (ja) 機械学習装置、ロボットシステム及び機械学習方法
JP6946831B2 (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
Ebert et al. Self-Supervised Visual Planning with Temporal Skip Connections.
JP6695843B2 (ja) 装置、及びロボットシステム
JP6522488B2 (ja) ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP5787642B2 (ja) 対象物保持装置、対象物保持装置の制御方法、およびプログラム
CN113409384B (zh) 一种目标物体的位姿估计方法和系统、机器人
EP3812107A1 (en) Robot control device, and method and program for controlling the same
JP6795093B2 (ja) 判定装置、判定方法及び判定プログラム
JP2020082322A (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
CN111683799A (zh) 机器人的动作控制装置
CN110756462A (zh) 电源适配器测试方法、装置、系统、控制装置及存储介质
CN112446275A (zh) 物体数量推定装置、物体数量推定方法以及存储介质
WO2021095509A1 (ja) 推定システム、推定装置および推定方法
US20220405586A1 (en) Model generation apparatus, estimation apparatus, model generation method, and computer-readable storage medium storing a model generation program
US11551379B2 (en) Learning template representation libraries
JP2021026599A (ja) 画像処理システム
JP2020035290A (ja) 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム
WO2020194583A1 (ja) 異常検知装置、制御方法、及びプログラム
EP4184393A1 (en) Method and system for attentive one shot meta imitation learning from visual demonstration
JP2020086626A (ja) 学習装置、学習方法、プログラムおよび記録媒体
CN117377987A (zh) 抓握神经网络的协变量偏移的变换
CN117813184A (zh) 机器人的保持形态决定装置、保持形态决定方法、以及机器人控制系统
CN116619373A (zh) 物体抓取方法、物体抓取装置、电子设备及存储介质
KR20220115742A (ko) 기계 학습 훈련을 위한 데이터 생성방법 및 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181119

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190219

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191024

R150 Certificate of patent or registration of utility model

Ref document number: 6608890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150