JP2017102755A - 機械学習支援装置 - Google Patents

機械学習支援装置 Download PDF

Info

Publication number
JP2017102755A
JP2017102755A JP2015236094A JP2015236094A JP2017102755A JP 2017102755 A JP2017102755 A JP 2017102755A JP 2015236094 A JP2015236094 A JP 2015236094A JP 2015236094 A JP2015236094 A JP 2015236094A JP 2017102755 A JP2017102755 A JP 2017102755A
Authority
JP
Japan
Prior art keywords
information
artificial intelligence
virtual space
learning
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015236094A
Other languages
English (en)
Other versions
JP6604832B2 (ja
Inventor
長崎 達夫
Tatsuo Nagasaki
達夫 長崎
昭徳 善波
Akinori Yoshinami
昭徳 善波
小沢 治
Osamu Ozawa
治 小沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikegami Tsushinki Co Ltd
Original Assignee
Ikegami Tsushinki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikegami Tsushinki Co Ltd filed Critical Ikegami Tsushinki Co Ltd
Priority to JP2015236094A priority Critical patent/JP6604832B2/ja
Publication of JP2017102755A publication Critical patent/JP2017102755A/ja
Application granted granted Critical
Publication of JP6604832B2 publication Critical patent/JP6604832B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】マルチセンサー情報について、人工知能装置の機械学習および動作の検証を支援する。【解決手段】機械学習支援装置100は、複数センサーの出力情報に対応した複数の仮想情報を生成する情報生成部10と、情報生成部10が生成した複数の仮想情報を用いて人工知能装置20を学習させる学習支援部30と、複数の仮想情報を用いて学習後の人工知能装置20の動作の検証を行う検証支援部30とを備えている。【選択図】図1

Description

本発明は、機械学習支援装置に関し、特に、人工知能装置の機械学習および動作の検証を支援する機械学習支援装置に関する。
近年、映像や画像中の被写体(人物など)を認識するためにニューラルネットワークを用いた画像認識システムの開発が進められている。
このシステムでは、事前に、認識対象の被写体を含む画像データを入力に用いてニューラルネットワークを学習させるだけで、ニューラルネットワークがその被写体を認識できるようになる。そのため、従来専門家が人手で行っていた被写体の特徴抽出の作業を必要としない。
しかし、その事前学習には、数万から数十万、場合によっては数百万枚以上という多量の画像が必要であり、それを用意するにも、またそれを教師画像として予め分類(タグ付け)するにも、膨大な労力と時間を要する。
そこで、その問題を解消するため、例えば、特許文献1では、被写体が写った元画像を取得し、その元画像に画像処理を施しながら複数枚の教師画像を作成する。そして。その画像処理の内容がそれぞれ異なる複数枚の教師画像の画像データを入力に用いてニューラルネットワークを学習させるという技術を開示している。
また、例えば、特許文献2では、現実空間で認識対象の被写体(人物)を撮影し、それにより取得した元画像から被写体(人物)の人体モデル(3次元形状データ)を作成するとともに、その3次元形状データに基づき、仮想空間上に人物を生成して表示する。次に、該仮想空間上で、ユーザが人物の姿勢や動作や体格などについての変化を(マウスなどによって)指定すると、指定内容に応じた画像処理を人体モデル(3次元形状データ)に加え、その処理後の3次元形状データを基に、姿勢や動作や体格などが変化した人物(被写体)を含む教師画像を作成する。そして、上記手順により、人物(被写体)の姿勢や動作や体格などを様々に変化させながら教師画像を複数枚作成し、それらの教師画像の画像データを入力に用いてニューラルネットワークを学習させるという技術を開示している。
特開2011−221840号公報 特開2010−238134号公報
ところで、最近では、環境の変化に応じて適切な処置動作が行えるように、各種の感覚を付加して適応能力を高めた知能ロボットが開発されている。
このような知能ロボットでは、外界を認識するための感覚機能として、視覚と触覚との機能を備えることが重要になる。視覚は物体(ロボットの持ち上げなどの操作の対象)を含む環境全体の認識を行うため、また触覚は物体との接触状態における動作制御のために必要である。
知能ロボットでは、これらの感覚機能のために、画像センサーと触覚センサー(力覚センサーを含む)とを備えるのが一般的である。それゆえ、画像情報と触覚情報(力覚情報を含む)との2つの感覚情報(外界認識情報)を処理する必要があり、知能ロボットでは、その外界認識情報の処理のためにニューラルネットワークを用いるものが多く出現してきている。
ところが、従来技術は、既述のとおり、外界認識情報のうち、画像情報の学習には対応しているものの、触覚情報(力覚情報を含む)の学習については対応していない。
また、話は変わるが、医薬品や食料品の分野では、薬や食物についての画像(画像センサーから出力されるセンサー情報)による瑕疵の検査に加えて、赤外分光分析による有機化合物の検出や蛍光X線分析による元素の検出など、画像だけでは分からない不純物等の検査が併せて行われ、最終的な検査判定は、それらの情報を統合して行われる。
この分光分析にはマルチスペクトルカメラ(センサー)から出力される蛍光スペクトル情報(センサー情報)が用いられる。そのため、そのセンサー情報の様々なパターンをニューラルネットワークに学習させれば、知能ロボットを含む人口知能装置が自ら検査判定を行えるとともに、検査対象の薬や食物の中から、不純物等が混入した不合格品を選別して取り除けるようになる。
また、医療の分野では、癌などの病気の診断において、その癌などの自家蛍光を検出するためにマルチスペクトルカメラ(センサー)から出力される蛍光スペクトル情報(センサー情報)が用いられる。さらに手術においては、内視鏡カメラや術野カメラ(センサー)から出力される画像(センサー情報)や、手術中に各種測定器(センサー)から出力される脈拍・心拍・血圧・血流といった測定情報(センサー情報)を取得するとともに、それらの情報を統合して手術遂行の支援が行われている。
そこで、これら複数のセンサーから得られるセンサー情報の様々なパターンをニューラルネットワークに学習させれば、人口知能装置が病気の診断や手術の遂行の支援を行えるようになる。すなわち、知能ロボットを含む人口知能装置を高度化させるには、各種のセンサーから得られるセンサー情報(マルチセンサー情報)の様々なパターンをニューラルネットワークに学習させる必要がある。
しかし、従来技術は、既述のとおり、外界認識情報を含むマルチセンサー情報のうち、画像情報の学習には対応しているものの、それ以外の情報の学習については対応していない。また、学習後の人工知能装置の動作が、想定したものであるかどうかを検証する必要もある。
本発明の目的は、マルチセンサー情報について、人工知能装置の機械学習および動作の検証を支援することのできる機械学習支援装置を提供することにある。
本発明に係る第1の機械学習支援装置は、上記目的を達成するために、複数センサーの出力情報に対応した複数の仮想情報を生成する情報生成部と、前記情報生成部が生成した前記複数の仮想情報を用いて、人工知能装置を学習させる学習支援部と、前記複数の仮想情報を用いて、該学習後の人工知能装置の動作の検証を行う検証支援部とを備えている。
本発明に係る第2の機械学習支援装置は、上記目的の人工知能装置の機械学習の支援を達成するために、前記第1の機械学習支援装置において、前記検証支援部が行う前記検証時に前記学習後の人工知能装置を更に強化学習させる強化学習部を備えている。
本発明に係る第3の機械学習支援装置は、上記目的の人工知能装置の機械学習の支援を達成するために、前記第1または第2の機械学習支援装置において、前記情報生成部は、既知の情報に基づき前記学習後の人工知能装置の操作対象となる物体を含む仮想空間の画像を生成すると共に、前記既知の情報に基づき前記物体の前記仮想空間における位置および姿勢を示す物体位置情報を生成する視覚情報生成部と、前記物体位置情報と、予め想定される、前記学習後の人工知能装置から出力されるべき該人工知能装置の可動部の前記仮想空間における位置および姿勢を示す可動部位置情報とに基づいて触覚情報を生成する触覚情報生成部とを備えている。そして、前記学習支援部が、前記仮想空間の画像と前記物体位置情報とを入力に用いて前記人工知能装置の視覚機能を学習させ、また、前記触覚情報を入力に用いて前記人工知能装置の触覚機能を学習させる。
本発明に係る第4の機械学習支援装置は、上記目的の人工知能装置の動作の検証の支援を達成するために、前記第1または第2の機械学習支援装置において、前記情報生成部は、既知の情報に基づき前記学習後の人工知能装置の操作対象となる物体を含む仮想空間の画像を生成する視覚情報生成部と、前記学習後の人工知能装置から出力される前記物体の前記仮想空間における位置および姿勢を示す第1の物体位置情報と、前記学習後の人工知能装置から出力される該人工知能装置の可動部の前記仮想空間における位置および姿勢を示す可動部位置情報とに基づき触覚情報を生成する触覚情報生成部とを備えている。前記視覚情報生成部は、前記第1の物体位置情報と前記可動部位置情報とに基づいて前記仮想空間における前記物体の位置および姿勢を更新する。そして、前記検証支援部は、前記仮想空間の画像を入力として与えることにより、前記学習後の人工知能装置のニューラルネットワークに第2の物体位置情報を出力させ、また、前記触覚情報を入力として与えることにより、前記学習後の人工知能装置のニューラルネットワークに前記物体に対する操作が適切であるか否かを示す触覚判定情報を出力させて、該第2の物体位置情報と該触覚判定情報とに基づき前記学習後の人工知能装置の可動部の動作を検証すると共に、前記触覚情報生成部に前記触覚情報を生成させるように、また、前記視覚情報生成部に前記更新を行わせるように、前記学習後の人工知能装置に前記第1の物体位置情報と前記可動部位置情報とを出力させる。
本発明の機械学習支援装置では、情報生成部が、複数センサーの出力情報(マルチセンサー情報)に対応した複数の仮想情報を生成する。そして、学習支援部が、その情報生成部の生成した複数の仮想情報を用いて人工知能装置を機械学習させる。また、検証支援部が、情報生成部の生成した複数の仮想情報を用いて機械学習後の人工知能装置の動作の検証を行う。
従って、本発明の機械学習支援装置によれば、マルチセンサー情報について、人工知能装置の機械学習を支援することができる。また、本発明の機械学習支援装置によれば、機械学習後の人工知能装置の動作が想定したものであるかどうかの検証を支援することができる。
本発明の実施形態である機械学習支援装置の構成図である。 山積みされた部品を含む仮想空間の画像の例である。 本発明の実施形態の変形例である機械学習支援装置の構成図である。
以下、本発明の実施形態を図面に基づいて説明する。なお、ここでは、人工知能装置の一種である知能ロボットを対象に機械学習と動作の検証を行う例を説明する。そのため、マルチセンサー情報としては、知能ロボットにとって重要な外界認識情報である画像情報と触覚情報(力覚情報を含む)との2つの感覚情報を用いる。
図1は、本発明の実施形態である機械学習支援装置の構成図である。同図に示すとおり、機械学習支援装置100は、仮想空間発生装置10と仮想知能ロボット装置20とシステム制御装置30とを有している。
仮想空間発生装置10は、CG部11と力覚発生部12とを有している。
CG部11は、CG(Computer Graphics)やVR(Virtual Reality)やMR(Mixed Reality)などの従来技術により、現実の空間に対応させた3次元直交座標系の仮想空間を生成すると共に、その仮想空間の情報を管理する。さらに、CG部11は、その仮想空間に、知能ロボットの動作環境に存在すべき物体や、知能ロボットの持ち上げなどの操作の対象となる物体を生成して出現させると共に、その物体に対応する3Dモデル情報を管理する。
また、CG部11は、出現させた物体を含む仮想空間の画像を生成して、その画像情報を出力する。さらに、CG部11は、その生成した画像中の物体について、該物体の仮想空間における位置と姿勢を示す6次元位置情報J(x,y,z,θx,θy,θz)を生成して出力する。なお、x,y,zは3次元直交座標系における3軸上での物体の座標位置を、θx,θy,θzは該物体の回転角度を表す。
力覚発生部12は、知能ロボットの指や手首や腕などに備えられる触覚センサー(力覚センサーを含む)の出力に対応した触覚情報(力覚情報を含む)を、演算によって生成して出力する。具体的には、知能ロボットの触覚センサーが、例えば、6軸力覚センサーであれば、力覚発生部12は、該センサーが検出すべき6軸力成分(fx,fy,fz,mx,my,mz)の情報を演算により生成し、その情報を仮想6軸力覚情報として出力する。なお、この場合、fx,fy,fzは3軸の力成分を、mx,my,mzは3軸のモーメント成分を表す。
次に、仮想知能ロボット装置20は、ニューラルネットワーク21と、ニューラルネットワーク22と、ロボット制御部23と、画像処理部24とを有している。
ここで、ニューラルネットワークについて簡単に説明する。ニューラルネットワークは、脳神経系をモデル化した情報処理システムであり、ニューロンと呼ばれる入出力素子を、シナプスと呼ばれる結合強度(結合係数)が可変な素子により複数結合して構成される。なお、各ニューロンは、入力が閾値より大きければ「1(真)」、小さければ「0(偽)」を出力する機能を持つものであり、シグモイド関数やハイパボリックタンジェント(tanh)関数等の伝達関数を用いて実現される。
ニューラルネットワークの学習は、ニューラルネットワークの出力を目標値に近づけるように、ニューロン間のシナプス結合係数(重み係数)や各ニューロンの閾値を調整することによって行う。なお、教師付き学習の場合、誤差逆伝播法(バックプロパゲーション)を用いるようにすればニューラルネットワークの学習が早く収束する。
本実施形態では、複数のニューロンから構成される層が、入力層から中間層を介して出力層へ向かう方向に結合される多層フィードフォワード型のニューラルネットワークを用いている。
ニューラルネットワーク21は、CG部11が出力した画像情報を入力として、その仮想空間の画像中の物体(知能ロボットの操作対象となる物体を含む)を認識すると共に、認識した物体の6次元位置情報J(x,y,z,θx,θy,θz)を出力する。なお、このような出力を得るには、認識対象の物体を含む仮想空間の画像情報と、その物体の仮想空間における位置と姿勢を示す6次元位置情報Jとの対応を、予めニューラルネットワーク21に学習させておく必要がある。
このような画像認識のためのニューラルネットワーク21には、その認識率の高さから、畳み込みニューラルネットワーク(CNN)を用いるのが好適である。
ニューラルネットワーク22は、力覚発生部12が出力した、力覚センサーの出力に対応した力覚情報である仮想6軸力覚情報(fx,fy,fz,mx,my,mz)を入力として、物体に対する知能ロボットの持ち上げなどの操作が適切であるか否かを示す力覚判定情報を出力する。具体的には、ニューラルネットワーク22は、入力の仮想6軸力覚情報が、適切な操作である場合の力覚情報のパターンの範囲内に入っているかどうかを判定して、入っていれば合格を示す情報、そうでなければ不合格を示す情報を力覚判定情報として出力する。なお、このような出力を得るには、適切な操作(合格)となる仮想6軸力覚情報の全てのパターンを、予めニューラルネットワーク22に学習させておく必要がある。
ロボット制御部23は、ニューラルネットワーク21から出力された物体の仮想空間における位置と姿勢を示す6次元位置情報Jに基づき物体に対する知能ロボットの持ち上げなどの操作を決定すると共に、その決定した操作の内容に応じて知能ロボットの腕や手首や指などの動作(動き)を制御する。
また、ロボット制御部23は、ニューラルネットワーク22から出力された知能ロボットの持ち上げなどの操作が適切であるか否かを示す力覚判定情報に基づき、その操作を終えて次の動作に移るか、又は知能ロボットの腕や手首や指などの動作(動き)を修正してその操作を継続するかを判定する。
ロボット制御部23は、知能ロボットの腕や手首や指などの動作(動き)を制御すると、その制御後の指の仮想空間における位置と姿勢を示すロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)を出力する。また、このとき、ロボット制御部23は、そのロボットの指の6次元位置情報Rと合わせて、持ち上げなどの操作の対象となった物体につき、その制御後の仮想空間における位置と姿勢を示す6次元位置情報K(x,y,z,θx,θy,θz)も出力する。なお、ロボットの指の6次元位置情報Rは、例えば、ロボットが5本の指を有し、各指に触覚センサー(力覚センサーを含む)が備えられているとすれば、各指に対応した「ロボットの指の6次元位置情報R1」〜「ロボットの指の6次元位置情報R5」の5つの情報が出力される。また、6次元位置情報Kは、ニューラルネットワーク21から出力された物体の位置と姿勢を示す6次元位置情報Jと、ロボットの指の6次元位置情報Rとに基づいて演算を行うことにより取得することができる。
ロボット制御部23から出力されたロボットの指の6次元位置情報Rと操作対象の物体の6次元位置情報Kとは、CG部11及び力覚発生部12に入力される。CG部11は、入力されたそれらの情報に基づき、該CG部11の管理する仮想空間に出現させた部品などの物体の6次元位置の変化を検出し、その検出した変化を仮想空間に反映する。また、力覚発生部12は、入力されたそれらの情報に基づき、6軸力覚情報(fx,fy,fz,mx,my,mz)を演算によって生成すると共に、その生成した6軸力覚情報を仮想6軸力覚情報として出力する。
画像処理部24は、CG部11から出力された画像をそのままニューラルネットワーク21の入力として与える。但し、CG部11から参照画像および距離画像が出力された場合は、そのうちの参照画像(知能ロボットのカメラで撮影したのと同等の画像)をそのままニューラルネットワーク21の入力として与えると共に、もう一枚の距離画像(視差画像)を基に物体の距離を検出して、その検出した距離情報をロボット制御部23に与える。
そして、システム制御装置30は、仮想空間発生装置10および仮想知能ロボット装置20を統括制御して、知能ロボットの機械学習および動作の検証を実行する。
なお、システム制御装置30は、ワークステーション等の情報処理装置によって実現される。また、仮想空間発生装置10についても、システム制御装置30と共に、ワークステーション等で実現してもよい。特に、そのグラフィクス処理には、GPUコンピューティングを行える画像処理プロセッサを用いるとよい。
また、特に検証時においては、システム制御装置30の指示による切り換えにより、仮想空間発生装置10のCG部11および力覚発生部12の出力の代わりに、実際の画像センサー(カメラ)および力覚センサーの出力を使用することができる。
(ニューラルネットワークの学習)
以下、知能ロボットに、外界認識情報である画像情報と触覚情報(力覚情報を含む)との2つの感覚情報を機械学習(教師付き学習)させる例を説明する。
知能ロボットが作業を行うには、2つの外界認識機能が必要となる。その一つは人の視覚に相当する機能で、もう一つは手の指の触覚(力覚を含む)に相当する機能である。
(画像情報の学習/視覚機能)
知能ロボットに必要な視覚機能とは、カメラで撮影した画像から物体を認識し、その物体の位置と姿勢を示す6次元位置情報J(x,y,z,θx,θy,θz)を検出する機能である。
知能ロボットが作業手順に沿って作業を進める中では、物体(操作対象の物体など)の6次元位置を検出しなくてはならない場面が多く出てくる。
そこで、本実施形態の機械学習支援装置は、その物体を、あたかも知能ロボットのカメラで撮影したかのように、現実の空間に対応させた3次元直交座標系の仮想空間に演算によって生成して出現させる。そして、本実施形態の機械学習支援装置は、その物体を含む仮想空間の画像と、それに対応した物体の仮想空間における位置と姿勢を示す6次元位置情報J(x,y,z,θx,θy,θz)とを生成させ、それらを教師情報としてニューラルネットワークに予め学習させる。
これにより、知能ロボットは、作業の中で物体を認識し、その物体の6次元位置を検出できるようになる。
なお、ここで言う物体とは、部品、山積みの部品、組立て途中の半製品、先端冶具、ロボットの腕(アーム)、セット台など、作業手順に沿って作業空間(=仮想空間)に出現する全ての物体のことである。
ところで、作業空間に出現する物体や作業空間自体の環境は全て既知であり、また出現する物体の3次元寸法や表面画像はCAD情報から取得することができる。そして、作業空間における照明の情報(照明の照度、方向、波長帯域などの情報)やカメラの情報(カメラの位置と方向、画角、レンズのズーム倍率、レンズの歪、画素数、SN比などの情報)についても、それらの内容の変化を含めて事前に取得することができる。
つまり、これらのこと、すなわち既知の情報に基づけば、実際の作業において知能ロボットの作業空間に存在すべき全ての物体について、現実と同一のものを仮想空間(=作業空間)に出現させることができる。また、その場合、出現する物体の6次元位置についても既知となる。
そこで、仮想空間発生装置10のCG部11は、システム制御装置30からの指示により、その既知の情報に基づき、知能ロボットの作業空間に存在すべき全ての物体について、各物体を被写体として含む仮想空間の画像を被写体毎に生成する。
また、CG部11は、システム制御装置30からの指示により、既知の情報に基づき、その各被写体(物体)の仮想空間の画像に対応した、該被写体(物体)の仮想空間における位置と姿勢を示す6次元位置情報J(x,y,z,θx,θy,θz)を生成する。
そして、システム制御装置30は、CG部11が生成して出力した各物体の仮想空間の画像と、それに対応した6次元位置情報Jとを教師情報として仮想知能ロボット装置20のニューラルネットワーク21に学習させる。
なお、学習用の画像セットには、知能ロボットのワーク誤差(カメラの精度による位置検出誤差、ロボットのブレなど)を考慮して、各物体の6次元位置を少しずつ変化させた画像を用意する。つまり、各物体をワーク誤差のぶん少しずつ、移動、回転、拡大、縮小させた画像をCG部11によって生成させ、それを学習用の画像セットとする。
この場合、6次元位置の変化量は、ニューラルネットワークのパターン認識の冗長性に応じた粗さ(刻み幅)としてよい。
学習用の画像セットには、想定される範囲内における照明の変化や照明方向のばらつきに対応した画像も加えるようにする。
また、作業手順や動作のステップにおいて明らかに存在し得ないと考えられる6次元位置の画像は、学習時間の短縮のために学習セットから省くとよい。
ニューラルネットワーク21において、学習によって得られたニューロン間のシナプス結合係数(重み係数)や各ニューロンの閾値等は、システム制御装置30により、作業手順や動作のステップ毎に、図1には不図示の記憶装置に記録される。なお、この記憶装置が記憶する結合係数(重み係数)やニューロンの閾値等は、それに対応した作業手順や動作ステップを知能ロボットが実行するにあたり、ロボット制御部23により事前に記憶装置から読み出され、ニューラルネットワーク21にロードされて使用される。これにより、ニューラルネットワークの過学習による局所解(ローカルミニマム)を抑えることができ、認識の精度を高めることができる。
(触覚情報の学習/触覚・力覚機能)
知能ロボットに必要なもう一つの外界認識機能である触覚機能とは、知能ロボットの指や手首や腕などに備えた複数の触覚センサー(力覚センサーを含む)から出力される触覚(力覚を含む)情報が、知能ロボットが適切な操作又は動作をしたときの触覚(力覚を含む)情報のパターンの範囲内に入っているかどうかを検出する機能である。
そこで、本実施形態の機械学習支援装置は、知能ロボットの操作又は動作毎に、あたかも知能ロボットの触覚センサー(力覚センサーを含む)が検出したかのように、演算によって触覚(力覚を含む)情報を生成させる。具体的には、機械学習支援装置は、仮想空間における物体の6次元位置の情報と、予め想定される、仮想空間における知能ロボットの指や手首や腕などの位置と姿勢を示す6次元位置の情報(x,y,z,θx,θy,θz)とに基づいて演算を行うことにより触覚(力覚を含む)情報を生成させる。そして、本実施形態の機械学習支援装置は、知能ロボットが操作対象の物体に対して適切な操作をしたときに検出される触覚(力覚を含む)情報のパターン(合格パターン)を全て生成させ、それを教師情報としてニューラルネットワークに予め学習させる。
これにより、知能ロボットは、作業の中で、操作対象の物体に対する操作又は動作が適切であるか否かを判断できるようになる。
よって、システム制御装置30からの指示により、仮想空間発生装置10のCG部11が、操作の対象となる部品などの物体について、上記の既知の情報に基づき、該CG部11の管理する仮想空間における物体の6次元位置情報J(x,y,z,θx,θy,θz)を生成する。
次に、力覚発生部12が、システム制御装置30からの指示により、上記の既知の情報に基づき、CG部11の生成した物体の6次元位置情報Jと、予め想定される、仮想空間における知能ロボットの指や手首や腕などの位置と姿勢を示す6次元位置の情報とに基づいて演算を行うことにより触覚(力覚を含む)情報を生成する。知能ロボットの触覚センサーが、例えば、6軸力覚センサーであれば、6軸力覚情報(fx,fy,fz,mx,my,mz)が演算によって生成される。このとき、力覚発生部12は、知能ロボットが操作対象の物体に対して適切な操作をしたときに検出される力覚情報のパターン(力覚センサーがn個あるとすれば、6軸×n個=6nパターン)を全て生成する。
そして、システム制御装置30は、力覚発生部12が生成した力覚情報のパターン(合格パターン)を教師情報として仮想知能ロボット装置20のニューラルネットワーク22に学習させる。
なお、合格となる力覚情報のパターンは、知能ロボットのワーク誤差(カメラの精度による位置検出誤差、ロボットのブレなど)によりその値が或る範囲内でバラついてしまう。そのため、そのバラつきの量に対応した力覚情報のパターンについても力覚発生部12に生成させて、その生成されたパターンも含めて合格パターンのセットとする。
この場合、ワーク誤差によるバラつきの量は、ニューラルネットワークのパターン認識の冗長性に応じた粗さ(刻み幅)としてよい。そうすれば学習時間が短縮される。
ニューラルネットワーク22において、学習によって得られたニューロン間のシナプス結合係数(重み係数)や各ニューロンの閾値等は、システム制御装置30により、作業手順や動作のステップ毎に、図1には不図示の記憶装置に記録される。なお、この記憶装置が記憶する結合係数(重み係数)やニューロンの閾値等は、それに対応した作業手順や動作ステップを知能ロボットが実行するにあたり、ロボット制御部23により事前に記憶装置から読み出され、ニューラルネットワーク22にロードされて使用される。
(知能ロボットの動作の検証の例)
以下、学習済みのニューラルネットワークを含む知能ロボットの動作を検証する例について、図1および図2を参照して説明する。
なお、ここでは、知能ロボットが行う「部品のランダムピッキング」の動作を例として説明する。ランダムピッキングとは、知能ロボットが、山積みされた部品の中から操作対象となる部品を認識して、その認識した部品を掴み出す作業であるが、以下では、部品を掴む(把持する)ところまでを説明する。
(視覚機能によるランダムピッキング)
部品の3次元構造と表面画像との情報は、既知の情報であるCAD情報から得ることができるため、先ず、図1に示す仮想空間発生装置10のCG部11は、システム制御装置30からの指示により、その既知の情報に基づいて仮想空間に部品を出現させる。このときCG部11は、部品の仮想空間における位置と姿勢、つまり仮想空間における6次元位置(x,y,z,θx,θy,θz)をランダムに変えながら、仮想空間に複数の部品を積み上げて出現させる。そして、CG部11は、システム制御装置30からの指示により、その山積みされた部品を含む仮想空間の画像を生成する。この画像の例を図2に示す。図2の例では、5個の部品(A、B、C、D、E)が山積みされている。なお、この画像は、検証用の画像として使用される。
ランダムピッキングでは、知能ロボットが、自分の指が部品の把持部位を掴みやすいかどうか判定を行うために、部品の把持部位とその周辺に存在する物体(山積みの他の部品など)との距離を検出する必要がある。そのため、本実施形態の機械学習支援装置では、例えば、距離画像カメラから出力される参照画像および距離画像のうちの距離画像を使用して、その距離画像を基に距離を検出することとする。但し、検証においては、CG部11が参照画像および距離画像を生成して出力する。なお、距離の検出の精度をさらに上げるために、特殊なパターンを、特殊な照明(赤外線など)によって部品などの物体の表面に投影した画像を距離画像として使用するようにしてもよい。
次に、システム制御装置30からの指示により、CG部11は、先に生成した上記の検証用の画像を参照画像とし、その参照画像を基に、各部品(例えば、図2ではA、B、C、D、E)の6次元位置情報J(x,y,z,θx,θy,θz)を演算することで距離画像を生成すると共に、その参照画像と距離画像とを出力する。なお、このCG部11の処理は、既知の情報の一つである作業手順に基づいて行われる。
その参照画像および距離画像が入力されると、仮想知能ロボット装置20の画像処理部24は、そのうちの参照画像をそのまま、仮想知能ロボット装置20の学習済みとなっているニューラルネットワーク21に入力として与える。なお、その入力の前には、作業手順や動作のステップに対応した重み係数やニューロンの閾値等が、ロボット制御部23により、必要に応じて記憶装置から読み出されてニューラルネットワーク21にロードされる。
この入力により、ニューラルネットワーク21は、山積みされた部品の参照画像から像の全体が写った部品を認識すると共に、認識した部品、例えば、図2では、部品A、B(C、D、Eは、いずれも像の一部がAまたはBに隠れている)の6次元位置情報J(x,y,z,θx,θy,θz)を出力する。この出力はロボット制御部23への入力となる。
また、画像処理部24は、もう一枚の距離画像を基に各部品の距離を検出して、その検出した距離情報をロボット制御部23に与える。
ロボット制御部23は、入力された、部品の仮想空間における位置と姿勢を示す6次元位置情報Jと、部品の距離情報とを基に、知能ロボットの指が部品の把持部位を囲むために、他の部品などの物体と接触することなくその指を把持対象となる部品の位置まで移動することができるかどうかの判定を行う。なお、部品の把持部位は、掴んだときの重量バランスや、掴んだときに部品が傷つかないかなどの観点からピッキング対象となる部品ごとに予め決定されている。
そして、ロボット制御部23は、操作対象となる部品(例えば、図2では、部品A、B)から掴みやすい部品を選定する。図2の例では、部品Bの把持部位(g、g’)は、g側の面が部品Aと近接していて把持部位を囲むための把持動作を行えない。一方、部品Aの把持部位(g、g’)は、その面に近接する物体がないので把持動作を行うことができる。この場合、部品Aが、ロボット制御部23により操作対象として選定される。
なお、これらのロボット制御部23の処理は、既知の情報の一つである作業手順に基づいて行われる。
次に、ロボット制御部23は、選定した部品の6次元位置情報Jに基づいて、知能ロボットの指をその部品の把持部位を囲む位置に向けて移動させるべく、知能ロボットの腕や手首や指などの動作(動き)を制御する。なお、このロボット制御部23の処理は、既知の情報の一つである作業手順に基づいて行われる。また、知能ロボット自体についても仮想空間でシミュレートする場合には、この動作は情報処理のみで行われるため省略される。
ロボット制御部23は、その動作(動き)の制御により知能ロボットの指が操作対象の部品の把持部位を囲む位置に到達したら、その制御後の指の仮想空間における位置と姿勢を示すロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)を出力する。また、このとき、ロボット制御部23は、そのロボットの指の6次元位置情報Rと合わせて、操作対象の部品につき、その制御後の仮想空間における位置と姿勢を示す6次元位置情報K(x,y,z,θx,θy,θz)も出力する。この6次元位置情報Rおよび6次元位置情報Kは、知能ロボットのワーク誤差(カメラの精度による位置検出誤差、ロボットのブレなど)を加味したものとなっている。
そのロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)と操作対象の部品の6次元位置情報K(x,y,z,θx,θy,θz)とが入力されると、仮想空間発生装置10のCG部11は、これらの情報に基づいて、該CG部11の管理する仮想空間に出現させた部品などの物体の6次元位置の変化を検出する。そして、CG部11は、変化を検出した場合には、その変化を、管理する仮想空間に反映するため、該変化のあった部品などの物体の仮想空間における位置と姿勢の情報を更新する。なお、ここではまだ、知能ロボットの指が操作対象の部品の把持部位を囲む位置に到達した状態でしかなく、部品の位置と姿勢(6次元位置)には変化がないので更新(反映)は行われない。このCG部11の処理は、既知の情報の一つである作業手順に基づいて行われる。
(力覚機能によるランダムピッキング)
また、仮想空間発生装置10の力覚発生部12は、ロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)と操作対象の部品の6次元位置情報K(x,y,z,θx,θy,θz)とが入力されると、これらの情報に基づいて、6軸力覚情報(fx,fy,fz,mx,my,mz)を演算によって生成する。例えば、力覚センサーがn個あるとすれば、「6軸力覚情報1」〜「6軸力覚情報n」が演算によって生成される。そして、力覚発生部12は、生成した6軸力覚情報を仮想6軸力覚情報として出力する。なお、この力覚発生部12の処理は、既知の情報の一つである作業手順に基づいて行われる。また、この出力の仮想6軸力覚情報は、仮想知能ロボット装置20の学習済みとなっているニューラルネットワーク22に入力として与えられる。また、その入力の前には、作業手順や動作のステップに対応した重み係数やニューロンの閾値等が、ロボット制御部23により、必要に応じて記憶装置から読み出されてニューラルネットワーク22にロードされる。
次に、ニューラルネットワーク22は、入力された仮想6軸力覚情報(fx,fy,fz,mx,my,mz)を基に、操作対象の部品などの物体に対する操作又は動作が適切であるか否かを判断して、合格または不合格を示す力覚判定情報を出力する。この出力はロボット制御部23への入力となる。
ロボット制御部23は、ニューラルネットワーク22から出力された力覚判定情報に基づき、その操作を終えて次の動作に移るか、又は知能ロボットの指の動作(動き)を修正してその操作を継続するかを判定する。なお、ここではまだ、知能ロボットの指が操作対象の部品の把持部位を囲む位置に到達した状態でしかなく、知能ロボットの指は部品に触れていない。そのため、部品を把持するための次のステップの動作(操作)に移る必要があるので、この場合、ニューラルネットワーク22からは合格を示す力覚判定情報が出力される。このロボット制御部23の処理は、既知の情報の一つである作業手順に基づいて行われる。
ニューラルネットワーク22から合格を示す力覚判定情報が出力されると、ロボット制御部23は、既知の情報の一つである作業手順に基づき、次のステップの部品を把持する動作(操作)に移る。
なお、知能ロボットの指が部品を把持する動作(操作)についての検証は、次のような処理の流れによって行われる。
(処理1)
ロボット制御部23は、部品の把持を開始するように知能ロボットの指の動作(動き)を制御すると、その制御後の指の仮想空間における位置と姿勢を示すロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)を出力する。また、このとき、ロボット制御部23は、そのロボットの指の6次元位置情報Rと合わせて、操作対象の部品につき、その制御後の仮想空間における位置と姿勢を示す6次元位置情報K(x,y,z,θx,θy,θz)も出力する。この6次元位置情報Rおよび6次元位置情報Kは、既述のとおり、知能ロボットのワーク誤差(カメラの精度による位置検出誤差、ロボットのブレなど)を加味したものとなっている。
(処理2)
そのロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)と操作対象の部品の6次元位置情報K(x,y,z,θx,θy,θz)とが入力されると、仮想空間発生装置10のCG部11は、これらの情報に基づいて、該CG部11の管理する仮想空間に出現させた部品などの物体の6次元位置の変化を検出する。そして、CG部11は、変化を検出した場合には、その変化を、管理する仮想空間に反映するため、該変化のあった部品などの物体の仮想空間における位置と姿勢の情報を更新する。なお、このCG部11の処理は、既知の情報の一つである作業手順に基づいて行われる。
(処理3)
また、仮想空間発生装置10の力覚発生部12は、ロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)と操作対象の部品の6次元位置情報K(x,y,z,θx,θy,θz)とが入力されると、これらの情報に基づいて、6軸力覚情報(fx,fy,fz,mx,my,mz)を演算によって生成する。そして、力覚発生部12は、生成した6軸力覚情報を仮想6軸力覚情報として出力する。なお、この力覚発生部12の処理は、既知の情報の一つである作業手順に基づいて行われる。また、この出力の仮想6軸力覚情報は、仮想知能ロボット装置20の学習済みとなっているニューラルネットワーク22に入力として与えられる。また、その入力の前には、作業手順や動作のステップに対応した重み係数やニューロンの閾値等が、ロボット制御部23により、必要に応じて記憶装置から読み出されてニューラルネットワーク22にロードされる。
(処理4)
次に、ニューラルネットワーク22は、入力された仮想6軸力覚情報(fx,fy,fz,mx,my,mz)を基に、操作対象の部品などの物体に対する操作又は動作が適切であるか否かを判断して、合格または不合格を示す力覚判定情報を出力する。この出力はロボット制御部23への入力となる。
(処理5)
ロボット制御部23は、ニューラルネットワーク22から出力された力覚判定情報に基づき、その操作を終えて次の動作に移るか、又は知能ロボットの指の動作(動き)を修正してその操作を継続するかを判定する。なお、このロボット制御部23の処理は、既知の情報の一つである作業手順に基づいて行われる。
(処理6)
ここで、ロボット制御部23は、力覚判定情報が合格を示す場合には既述のとおり次のステップの動作(操作)に移るが、不合格を示す場合には、知能ロボットの指の動作(動き)を修正してその操作を継続するようにする。具体的には、ロボット制御部23は、知能ロボットの指の動作(動き)を、所謂サーボ制御によって制御することで対象の部品を掴むようにする。このとき、知能ロボットの指は、そのサーボ制御によって部品を掴むように少しずつ動かされるので、ロボット制御部23は、サーボ制御のフィードバックを行う毎に、その指の動きの変化に応じた知能ロボットの指の仮想空間における位置と姿勢の情報と、その指によって操作された部品の仮想空間における位置と姿勢の情報とを出力する。そのため、本実施形態の機械学習支援装置では、知能ロボットの指による部品の把持が適切に行われるまで、サーボ制御のフィードバックが行われる毎に、上記(処理1)の制御後の処理から上記(処理5)の判定処理までが繰り返し実行される。
このように、本実施形態の機械学習支援装置では、力覚情報については精密な制御が必要となるため、ロボット制御部23が、ロボットの指の6次元位置情報Rおよび操作対象の部品(物体)の6次元位置情報Kを力覚発生部12へフィードバックするようにしてクローズドループ制御を行っている。この場合、ニューラルネットワーク22は、検出された力覚情報が適正範囲に入っているかどうかを判定する、所謂ウィンドウコンパレータと同じ役目をしている。
ここで、部品の把持動作について、知能ロボットの指のサーボ制御の一例を述べる。
先ず、部品の把持部位を知能ロボットの指で囲んで把持動作に入り、部品の把持部位に触れたことを示す力覚情報のパターンが検知された指から動きを一旦止める。
次に、力覚情報のパターンに基づき、全ての指が把持部位に触れたことが検知された時点で、一斉に各指の把持動作を再開する。
そして、これらの把持動作を、部品の把持に適切な力覚情報のパターンが得られるまで繰り返し行う。
このようにすれば、対象の部品の6次元位置の検出誤差(ワーク誤差)を吸収しながら、部品の把持動作が行えるようになる。
(実施形態の変形例)
以下、上記実施形態の変形例である機械学習支援装置について説明する。この変形例の機械学習支援装置は、上記実施形態の機械学習支援装置の構成に、強化学習を行うための要素を追加したものである。そのため、以下では、その追加の要素についてのみ説明するものとして、上記実施形態と共通する構成要素については同じ符号を付して重複となる説明を省略する。
この変形例と上記実施形態との相違点は、図3に示すとおり、強化学習評価部40が追加されたところにある。
なお、この変形例の機械学習支援装置においても、上記実施形態の機械学習支援装置と同じく、力覚情報について、ロボット制御部23が、ロボットの指の6次元位置情報Rおよび操作対象の部品(物体)の6次元位置情報Kを力覚発生部12へフィードバックするようにしてクローズドループ制御を行っている。このクローズドループは、検証だけでなく、強化学習の制御ループとしても使用することができる。
ところで、知能ロボットにとって重要となる外界認識機能のうちの視覚機能については、操作対象の部品などの物体を含む環境全体の認識を行うものであり、またカメラによる検出の精度の曖昧さもあり、精密な制御は必要としない。しかし、触覚(力覚を含む)機能については、物体との接触状態において動作の制御を行う必要があることから、精密な制御が必要になる。
そのため、ニューラルネットワークの学習に必要となる画像や触覚(力覚を含む)などの情報を教師情報として予め用意する教師付き学習では、その緻密な制御のための学習を行うことに大変な困難を伴う。
そこで、触覚(力覚を含む)情報については、強化学習によってニューラルネットワークに学習させることで、その困難を解消できる。
したがって、この変形例の機械学習支援装置では、触覚(力覚を含む)情報についてのニューラルネットワークの強化学習を、以下のようにして行う。
先ず、強化学習が効率良く行われるようにニューラルネットワーク22に対し事前学習として必要程度の教師付き学習をさせておき、その後、知能ロボットの動作の検証を繰り返す中でワーク誤差を与えながら強化学習を行うようにする。
具体的には、先ず、ニューラルネットワーク22に、事前学習を施す。事前学習には様々な方法があるが、ここでは、理想に近い力覚情報のパターンを1つ、教師情報として学習させておくこととする。
即ち、システム制御装置30からの指示により、仮想空間発生装置10のCG部11が、操作の対象となる部品などの物体について、上述した既知の情報に基づき、該CG部11の管理する仮想空間における物体の6次元位置情報J(x,y,z,θx,θy,θz)を生成する。
このとき、その生成と合わせて、CG部11は、その部品などの物体を仮想空間に出現させて、それに対応する3Dモデル情報を管理し、また、その部品などの物体を含む仮想空間の画像を検証用の画像として生成する。
次に、力覚発生部12が、システム制御装置30からの指示により、上記の既知の情報に基づき、CG部11の生成した物体の6次元位置情報Jと、予め想定される、仮想空間における知能ロボットの指や手首や腕などの位置と姿勢を示す6次元位置の情報とに基づいて演算を行うことにより6軸力覚情報(fx,fy,fz,mx,my,mz)を生成する。
そして、システム制御装置30は、力覚発生部12が生成した6軸力覚情報のパターン、この場合「fx,fy,fz,mx,my,mz」を、教師情報として仮想知能ロボット装置20のニューラルネットワーク22に学習させる。
このようにニューラルネットワークに教師付きの事前学習をさせた後、上述したランダムピッキングと同様の検証の処理を行うようにする。
即ち、システム制御装置30からの指示により、CG部11は、先に生成した検証用の画像を出力する。この画像は、仮想知能ロボット装置20の画像処理部24への入力となる。
画像処理部24は、入力されたその検証用の画像をそのまま、仮想知能ロボット装置20の学習済みとなっているニューラルネットワーク21に入力として与える。ここで、ニューラルネットワーク21は、上記の知能ロボットに必要な視覚機能の部分で述べた学習方法により、事前に、この画像に含まれる操作対象の部品などの物体を学習している。
この入力により、ニューラルネットワーク21は、検証用の画像から部品などの物体を認識すると共に、認識した部品などの物体の6次元位置情報J(x,y,z,θx,θy,θz)を出力する。この出力はロボット制御部23への入力となる。
ロボット制御部23は、入力の部品などの物体の6次元位置情報Jに基づいて、知能ロボットの指をその部品の把持部位を囲む位置に向けて移動させるべく、知能ロボットの腕や手首や指などの動作(動き)を制御する。
この後の検証の処理は、上記のランダムピッキングの部分で述べた処理と同じであるため重複説明を省略する。但し、上述した知能ロボットの指が部品などの物体を把持する動作(操作)については、上記の(処理3)の処理が行われた後に、以下の(処理3−1)および(処理3−2)の処理が追加実行される。
(処理3−1)
強化学習評価部40は、力覚発生部12から出力された仮想6軸力覚情報(fx,fy,fz,mx,my,mz)を入力として、その仮想6軸力覚情報を、予め設定したルールに基づいて評価すると共に、その評価結果に基づき、ニューラルネットワーク22に対する学習指示信号の出力/非出力を制御する。この学習指示信号には報酬情報が含まれている。なお、予め設定したルールとは、予め決定しておくべき評価用の力覚情報のパターンの合格範囲である。
(処理3−2)
ニューラルネットワーク22は、強化学習部評価部40から学習指示信号が出力されると、強化学習評価部40への入力と並行してニューラルネットワーク22に入力される力覚発生部12から出力された仮想6軸力覚情報(fx,fy,fz,mx,my,mz)を合格の力覚情報のパターンとして学習する。この学習においては、学習指示信号に含まれる報酬情報の値が以前の学習時よりも大きい(報酬が多い)場合にのみ、入力の仮想6軸力覚情報を合格の力覚情報のパターンとして学習するようにする。
なお、上記では、ニューラルネットワークの事前学習として、理想に近い力覚情報のパターン(理想力覚情報パターン)を1つ、教師情報として学習させておくこととした。そのため、力覚情報のパターンの合格範囲としては、理想力覚情報パターンを、例えば、中央値として、その中央値から所定の分だけ大きい値と、所定の分だけ小さい値とによって示される範囲が合格範囲となる。この場合、報酬は、中央値に近づくほど多くなり、中央値から離れるほど少なくなる。
従って、この変形例の機械学習支援装置では、力覚情報の強化学習において、ロボット制御部23が、より多くの報酬を得られるように、つまり仮想6軸力覚情報のパターンが中央値の側に向かうように、知能ロボットの指の動きを修正しながらクローズドループ制御を行う。これにより、ニューラルネットワーク22の認識の精度が高められるので、知能ロボットは適切な力覚情報を認識することができるようになる。
なお、ニューラルネットワーク22において、強化学習によって得られたニューロン間のシナプス結合係数(重み係数)や各ニューロンの閾値等は、システム制御装置30により、ある一連の動作ステップ毎に、図3には不図示の記憶装置に記録される。なお、この記憶装置が記憶する結合係数(重み係数)やニューロンの閾値等は、それに対応した作業手順や動作ステップを知能ロボットが実行するにあたり、ロボット制御部23により事前に記憶装置から読み出され、ニューラルネットワーク22にロードされて使用される。
(他のセンサー情報の使用)
上記では、マルチセンサー情報として、画像情報と触覚情報(力覚情報を含む)との2つの感覚情報を用いる例を説明した。しかし、センサー情報はその2つに限定されない。
例えば、聴覚センサー(マイクロホンなど)から出力される聴覚情報を使用する例を説明すると、知能ロボットのアーム(腕)から発せられる異常音のパターンを仮想空間発生装置10により生成して、その生成したパターンをニューラルネットワーク21又は22に予め学習させる。
次に、知能ロボットの動作中に、あたかも知能ロボットに備えられた聴覚センサーから出力されるように仮想空間発生装置10から異常音を示す仮想聴覚情報が出力されると、その仮想聴覚情報が入力されたニューラルネットワーク21又は22は、パターン認識により異常音の発生を認識して、異常音が発生したことを示す障害情報を出力する。
そして、その障害情報が入力されたロボット制御部23は、知能ロボットのアーム(腕)を緊急停止するように知能ロボットの腕の動作を制御する。
以上、上記の機械学習支援装置では、知能ロボットなどの人工知能装置の外界認識に必要な画像や触覚(力覚を含む)等の外界認識情報を、あたかも外界認識センサーで検出したかのように仮想空間に演算によって発生させ、その情報を用いて知能ロボットなどの人工知能装置の動作の検証(シミュレーション)を行う。従って、上記の機械学習支援装置によれば、知能ロボットなどの人工知能装置を高速に学習させることができるので、知能ロボットなどの人工知能装置の立ち上げに掛かる手間と時間を大幅に削減することができる。
また、上記の機械学習支援装置によれば、マルチセンサー情報について、知能ロボットなどの人工知能装置の機械学習を支援することができる。
また、上記の機械学習支援装置によれば、機械学習後の知能ロボットなどの人工知能装置の動作が想定したものであるかどうかの検証を支援することができる。
また、上記の機械学習支援装置によれば、触覚(力覚を含む)などの精密な制御が必要になる機能についても、上記の強化学習により、知能ロボットなどの人工知能装置の学習を容易に行うことができる。
また、上記の機械学習支援装置によれば、上記の強化学習により、知能ロボットなどの人工知能装置に対し、プログラムしにくい動作を短時間に学習させることができる。また、作業工程の変更や追加に対応した新しい動作についても、知能ロボットなどの人工知能装置に対し、容易に学習させることができる。
上記の学習および/または検証の作業が完了すると、知能ロボットなどの人工知能装置を完成させるために、ニューラルネットワーク21および22の重み係数やニューロンの閾値等またはニューラルネットワーク21および22自体、また、ロボット制御部23の機能の一部または全部が知能ロボットなどの人工知能装置に移植される。
なお、上記では、知能ロボットなどの人工知能装置を実機として説明したが、知能ロボットなどの人工知能装置は、実機ではなくシミュレーション上の仮想装置であってもよい。
また、上記の機械学習支援装置では、知能ロボットを外部装置としたが、知能ロボットなどの人工知能装置の中に仮想空間を発生させる機能を含めてもよい。そうすれば、人工知能装置の本来の処理に加えて、上記の学習と検証、またそれに伴う仮想空間の画像情報や力覚情報などの生成をGPU(Graphics Processing Unit)などの演算装置によって一括に処理することができてシステムの効率化が図れる。
また、上記の機械学習支援装置を、コンピューター統合生産システムCIM(Computer Integrated Manufacturing)の一つの機能としてCAD(Computer Aided Design)システム等と組み合わせるようにしてもよい。そうすれば、製品の設計と同時に組立てのシミュレーションを行うことができるので製品設計を最適化することができるようになる。
(検査装置への適用の例)
医薬品、食料品、材料などの検査では、画像による瑕疵の検査に加えて、赤外分光分析による有機化合物の検出や、蛍光X線分析による元素の検出など、画像では分からない不純物等の検査が併せて行われ、最終的な検査判定は、それらの情報を統合して行われる。
これらの分光(スペクトル)データは指紋領域と呼ばれ、そのスペクトルのパターン化が概になされているため、これを基に人工知能装置を学習させるための仮想データを作成することができる。
この場合、上記の機械学習支援装置では、例えば、分光データの特徴スペクトル部分を保持したまま、その他の波形部分をランダムに変化させるなどして学習用の仮想データセットを作成する。
次に、上記の機械学習支援装置は、その学習用の仮想データセットを使用して人工知能装置を予め学習させる。
そして、上記の機械学習支援装置は、様々な瑕疵を持つ検査対象の物体を仮想空間に出現させて検査工程の検証を行う。
また、上記の機械学習支援装置は、その検証の中で強化学習(教師なし学習)を実施することによって人工知能装置の検査能力を向上させる。
(MEカメラへの適用の例)
内視鏡カメラや術野カメラにおいては、画像の観察や記録という目的の他に、手術の遂行を支援する機能が必要となる。例えば、癌の手術では、該カメラによって、癌独自の血管構造の画像に強調処理を加えたり、癌の自家蛍光を検出したり(蛍光色素や試薬を利用して行う)、血管を造影することで、手術の遂行における癌の病変部の術中診断を支援する。
ところで、癌は、その旺盛な増殖性から独自の血管構造を持ち、癌の発生部位によってその血管構造が異なる。つまり、癌は発生部位によって血管構造に独自のパターンを持つことから、診断のためのパターン化が既になされており、これを基に人工知能装置を学習させるための仮想データを作成することができる。
また、自家蛍光は、通常の撮影用のカメラとは別のマルチスペクトルカメラなどによって蛍光スペクトルを検出しているが、その自家蛍光スペクトルも癌組織によって独自のパターンを持つため、これに基づいて人工知能装置の学習のための仮想データを作成することができる。
また、手術中には、測定器により脈拍・心拍・血圧・血流などの測定が行われており、それらを統合した手術遂行の支援が通常行われている。これらの測定データも概にパターン化がなされているので、これを基に人工知能装置の学習のための仮想データを作成することができる。
よって、上記の機械学習支援装置では、例えば、上記の血管構造パターンや自家蛍光スペクトルパターンや測定データパターンを、実際の手術において想定される所定の範囲内で様々に変化させて学習用の仮想データセットを作成する。
次に、上記の機械学習支援装置は、その学習用の仮想データセットを使用して人工知能装置を予め学習させる。
そして、上記の機械学習支援装置は、癌の病変部を含む人体内部モデルを仮想空間に出現させて手術の遂行における術中診断の検証を行う。また、上記の機械学習支援装置は、その検証の中で強化学習(教師なし学習)を実施することによって人工知能装置の診断能力を向上させる。
(その他)
医療分野では、内視鏡やロボットサージェリーなどのシミュレーションのために人体内部のモデル化がなされている。そのため、そのモデル化した情報を使用して、上記の機械学習支援装置における仮想空間で、そのモデルのレベルやバリエーションを増やすようにすれば人工知能装置の学習を仮想空間で短時間に行うことができるようになる。これにより、内視鏡の安全挿入の支援や手術の支援、医療過誤回避の支援が可能となる。
また、人体のモデル化も進んでいるため、そのモデル化した情報を使用すれば、様々な検体モデルを上記の機械学習支援装置における仮想空間に出現させて、手術遂行の支援の検証や学習を行うことができる。
さらに、その人体内部や人体のモデル化した情報を使用すれば、上記の機械学習支援装置における仮想空間での確定診断の検証の支援に加え、手術での切除部をより少なくするための支援、動脈などの傷つけると危険な箇所を避けて手術するなどの安全確保の支援にも適用することができる。
また、自動車の分野では、道路などをモデル化した情報が既にナビゲーションシステムなどにあるので、そのモデル化した情報を使用すれば、上記の機械学習支援装置における仮想空間での自動車の自動運転の学習に適用することができる。
10 仮想空間発生装置
11 CG部
12 力覚発生部
20 仮想知能ロボット装置
21 ニューラルネットワーク
22 ニューラルネットワーク
23 ロボット制御部
24 画像処理部
25 強化学習指示部
30 システム制御装置
40 強化学習評価部
100 機械学習支援装置

Claims (4)

  1. 複数センサーの出力情報に対応した複数の仮想情報を生成する情報生成部と、
    前記情報生成部が生成した前記複数の仮想情報を用いて、人工知能装置を学習させる学習支援部と、
    前記複数の仮想情報を用いて、該学習後の人工知能装置の動作の検証を行う検証支援部と
    を備えたことを特徴とする機械学習支援装置。
  2. 請求項1に記載の機械学習支援装置において、
    前記検証支援部が行う前記検証時に前記学習後の人工知能装置を更に強化学習させる強化学習部
    を備えたことを特徴とする機械学習支援装置。
  3. 請求項1または請求項2に記載の機械学習支援装置において、
    前記情報生成部は、
    既知の情報に基づき前記学習後の人工知能装置の操作対象となる物体を含む仮想空間の画像を生成すると共に、前記既知の情報に基づき前記物体の前記仮想空間における位置および姿勢を示す物体位置情報を生成する視覚情報生成部と、
    前記物体位置情報と、予め想定される、前記学習後の人工知能装置から出力されるべき該人工知能装置の可動部の前記仮想空間における位置および姿勢を示す可動部位置情報とに基づいて触覚情報を生成する触覚情報生成部と
    を備え、
    前記学習支援部が、前記仮想空間の画像と前記物体位置情報とを入力に用いて前記人工知能装置の視覚機能を学習させ、また、前記触覚情報を入力に用いて前記人工知能装置の触覚機能を学習させる
    ことを特徴とする機械学習支援装置。
  4. 請求項1または請求項2に記載の機械学習支援装置において、
    前記情報生成部は、
    既知の情報に基づき前記学習後の人工知能装置の操作対象となる物体を含む仮想空間の画像を生成する視覚情報生成部と、
    前記学習後の人工知能装置から出力される前記物体の前記仮想空間における位置および姿勢を示す第1の物体位置情報と、前記学習後の人工知能装置から出力される該人工知能装置の可動部の前記仮想空間における位置および姿勢を示す可動部位置情報とに基づき触覚情報を生成する触覚情報生成部と
    を備え、
    前記視覚情報生成部は、前記第1の物体位置情報と前記可動部位置情報とに基づいて前記仮想空間における前記物体の位置および姿勢を更新し、
    前記検証支援部は、前記仮想空間の画像を入力として与えることにより、前記学習後の人工知能装置のニューラルネットワークに第2の物体位置情報を出力させ、また、前記触覚情報を入力として与えることにより、前記学習後の人工知能装置のニューラルネットワークに前記物体に対する操作が適切であるか否かを示す触覚判定情報を出力させて、該第2の物体位置情報と該触覚判定情報とに基づき前記学習後の人工知能装置の可動部の動作を検証すると共に、前記触覚情報生成部に前記触覚情報を生成させるように、また、前記視覚情報生成部に前記更新を行わせるように、前記学習後の人工知能装置に前記第1の物体位置情報と前記可動部位置情報とを出力させる
    ことを特徴とする機械学習支援装置。
JP2015236094A 2015-12-02 2015-12-02 機械学習支援装置 Active JP6604832B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015236094A JP6604832B2 (ja) 2015-12-02 2015-12-02 機械学習支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015236094A JP6604832B2 (ja) 2015-12-02 2015-12-02 機械学習支援装置

Publications (2)

Publication Number Publication Date
JP2017102755A true JP2017102755A (ja) 2017-06-08
JP6604832B2 JP6604832B2 (ja) 2019-11-13

Family

ID=59016619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015236094A Active JP6604832B2 (ja) 2015-12-02 2015-12-02 機械学習支援装置

Country Status (1)

Country Link
JP (1) JP6604832B2 (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108051999A (zh) * 2017-10-31 2018-05-18 中国科学技术大学 基于深度强化学习的加速器束流轨道控制方法及系统
CN109118860A (zh) * 2018-09-19 2019-01-01 江苏金惠甫山软件科技有限公司 基于人工智能的英语培训系统及方法
CN109426860A (zh) * 2017-08-23 2019-03-05 幻视互动(北京)科技有限公司 一种基于神经网络的mr混合现实信息处理方法及装置
WO2019059343A1 (ja) * 2017-09-22 2019-03-28 Ntn株式会社 ワーク情報処理装置およびワークの認識方法
JP2019067238A (ja) * 2017-10-03 2019-04-25 エヌ・ティ・ティ・コミュニケーションズ株式会社 制御装置、制御方法および制御プログラム
JP2019197471A (ja) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム
WO2020004749A1 (ko) * 2018-06-27 2020-01-02 한국전력공사 동영상 파일을 이용한 설비 학습 장치 및 방법
JP2020041889A (ja) * 2018-09-10 2020-03-19 日本電気硝子株式会社 ワーク検査方法及びワーク検査システム
WO2020066209A1 (ja) * 2018-09-27 2020-04-02 株式会社堀場製作所 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置
JP2020524328A (ja) * 2017-06-19 2020-08-13 インパクトビジョン インコーポレイテッド 異物を識別するためのハイパースペクトル画像処理用のシステム及び方法
JP2020529932A (ja) * 2017-08-07 2020-10-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム
CN111868758A (zh) * 2018-03-06 2020-10-30 欧姆龙株式会社 信息处理装置、信息处理方法以及程序
KR102194539B1 (ko) * 2019-08-14 2020-12-23 한국공항공사 탑승교 접현 시스템 및 자동 조종 방법
CN112655017A (zh) * 2018-12-26 2021-04-13 欧姆龙株式会社 图像检查系统设计装置、图像检查系统设计方法以及图像检查系统设计程序
US20210114215A1 (en) * 2019-10-16 2021-04-22 Lg Electronics Inc. Robot and method for controlling the same
JP2021070122A (ja) * 2019-10-31 2021-05-06 ミネベアミツミ株式会社 学習データ生成方法
JPWO2021085345A1 (ja) * 2019-10-28 2021-05-06
JPWO2021111879A1 (ja) * 2019-12-05 2021-06-10
CN112955912A (zh) * 2018-09-15 2021-06-11 株式会社百德立孚 Ai创作物的验证装置
WO2021200438A1 (ja) * 2020-03-31 2021-10-07 ミネベアミツミ株式会社 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
WO2022054498A1 (ja) * 2020-09-11 2022-03-17 ソニーグループ株式会社 医療用アーム制御システム、医療用アーム装置、医療用アームの制御方法及びプログラム
CN114630738A (zh) * 2019-08-20 2022-06-14 思维机器学习公司 用于模拟感测数据和创建感知的系统和方法
JP2023502804A (ja) * 2020-10-12 2023-01-26 ソウル大学校産学協力団 目標志向的強化学習方法及びこれを遂行するための装置
US11734843B2 (en) 2019-10-01 2023-08-22 Fujifilm Business Innovation Corp. Object texture measurement device
JP7461638B2 (ja) 2020-05-25 2024-04-04 国立大学法人広島大学 触覚評価装置、触覚評価方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203166A (ja) * 1993-01-06 1994-07-22 Fujitsu Ltd 多次元位置測定,制御装置,及び、学習方法
JPH0780790A (ja) * 1993-09-16 1995-03-28 Fujitsu Ltd 三次元物体把持システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203166A (ja) * 1993-01-06 1994-07-22 Fujitsu Ltd 多次元位置測定,制御装置,及び、学習方法
JPH0780790A (ja) * 1993-09-16 1995-03-28 Fujitsu Ltd 三次元物体把持システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
中村仁彦,外11名: "仮想ロボットプラットフォーム", 日本ロボット学会誌, vol. 第19巻/第1号, JPN6019027550, 15 January 2001 (2001-01-15), JP, pages 28 - 36, ISSN: 0004077997 *
坪根正,外3名: "仮想空間を利用した実空間のロボットのタスク学習", 電気学会論文誌C, vol. 第128巻/第7号, JPN6019027548, 1 July 2008 (2008-07-01), JP, pages 1222 - 1230, ISSN: 0004077996 *

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020524328A (ja) * 2017-06-19 2020-08-13 インパクトビジョン インコーポレイテッド 異物を識別するためのハイパースペクトル画像処理用のシステム及び方法
JP2020529932A (ja) * 2017-08-07 2020-10-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム
CN109426860A (zh) * 2017-08-23 2019-03-05 幻视互动(北京)科技有限公司 一种基于神经网络的mr混合现实信息处理方法及装置
WO2019059343A1 (ja) * 2017-09-22 2019-03-28 Ntn株式会社 ワーク情報処理装置およびワークの認識方法
JP2019067238A (ja) * 2017-10-03 2019-04-25 エヌ・ティ・ティ・コミュニケーションズ株式会社 制御装置、制御方法および制御プログラム
CN108051999A (zh) * 2017-10-31 2018-05-18 中国科学技术大学 基于深度强化学习的加速器束流轨道控制方法及系统
CN108051999B (zh) * 2017-10-31 2020-08-25 中国科学技术大学 基于深度强化学习的加速器束流轨道控制方法及系统
CN111868758B (zh) * 2018-03-06 2024-01-12 欧姆龙株式会社 信息处理装置、信息处理方法以及存储介质
CN111868758A (zh) * 2018-03-06 2020-10-30 欧姆龙株式会社 信息处理装置、信息处理方法以及程序
US11762679B2 (en) 2018-03-06 2023-09-19 Omron Corporation Information processing device, information processing method, and non-transitory computer-readable storage medium
JP2019197471A (ja) * 2018-05-11 2019-11-14 トヨタ自動車株式会社 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム
JP7052546B2 (ja) 2018-05-11 2022-04-12 トヨタ自動車株式会社 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム
WO2020004749A1 (ko) * 2018-06-27 2020-01-02 한국전력공사 동영상 파일을 이용한 설비 학습 장치 및 방법
JP2020041889A (ja) * 2018-09-10 2020-03-19 日本電気硝子株式会社 ワーク検査方法及びワーク検査システム
JP7054450B2 (ja) 2018-09-10 2022-04-14 日本電気硝子株式会社 ワーク検査方法
CN112955912A (zh) * 2018-09-15 2021-06-11 株式会社百德立孚 Ai创作物的验证装置
CN109118860A (zh) * 2018-09-19 2019-01-01 江苏金惠甫山软件科技有限公司 基于人工智能的英语培训系统及方法
JP7418639B2 (ja) 2018-09-27 2024-01-19 株式会社堀場製作所 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置
WO2020066209A1 (ja) * 2018-09-27 2020-04-02 株式会社堀場製作所 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置
JPWO2020066209A1 (ja) * 2018-09-27 2021-09-09 株式会社堀場製作所 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置
CN112655017A (zh) * 2018-12-26 2021-04-13 欧姆龙株式会社 图像检查系统设计装置、图像检查系统设计方法以及图像检查系统设计程序
KR102194539B1 (ko) * 2019-08-14 2020-12-23 한국공항공사 탑승교 접현 시스템 및 자동 조종 방법
CN114630738B (zh) * 2019-08-20 2024-02-20 思维机器学习公司 用于模拟感测数据和创建感知的系统和方法
CN114630738A (zh) * 2019-08-20 2022-06-14 思维机器学习公司 用于模拟感测数据和创建感知的系统和方法
US11734843B2 (en) 2019-10-01 2023-08-22 Fujifilm Business Innovation Corp. Object texture measurement device
US11724397B2 (en) * 2019-10-16 2023-08-15 Lg Electronics Inc. Robot and method for controlling the same
US20210114215A1 (en) * 2019-10-16 2021-04-22 Lg Electronics Inc. Robot and method for controlling the same
EP4052869A4 (en) * 2019-10-28 2022-12-14 Kabushiki Kaisha Yaskawa Denki MACHINE LEARNING DATA GENERATING DEVICE, MACHINE LEARNING DEVICE, WORK SYSTEM, COMPUTER PROGRAM, METHOD FOR MAKING LEARNING DATA AND METHOD FOR MANUFACTURING WORK DEVICE
JPWO2021085345A1 (ja) * 2019-10-28 2021-05-06
CN114599488A (zh) * 2019-10-28 2022-06-07 株式会社安川电机 机器学习数据生成装置、机器学习装置、作业系统、计算机程序、机器学习数据生成方法及作业机的制造方法
WO2021085345A1 (ja) * 2019-10-28 2021-05-06 株式会社安川電機 機械学習データ生成装置、機械学習装置、作業システム、コンピュータプログラム、機械学習データ生成方法及び作業機械の製造方法
JP7344977B2 (ja) 2019-10-28 2023-09-14 株式会社安川電機 機械学習データ生成装置、機械学習装置、機械学習データ生成方法及びコンピュータプログラム
JP2021070122A (ja) * 2019-10-31 2021-05-06 ミネベアミツミ株式会社 学習データ生成方法
WO2021085561A1 (ja) * 2019-10-31 2021-05-06 ミネベアミツミ株式会社 学習データ生成方法
JPWO2021111879A1 (ja) * 2019-12-05 2021-06-10
WO2021111879A1 (ja) * 2019-12-05 2021-06-10 Hoya株式会社 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
JP7245360B2 (ja) 2019-12-05 2023-03-23 Hoya株式会社 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
WO2021200438A1 (ja) * 2020-03-31 2021-10-07 ミネベアミツミ株式会社 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
JP7423387B2 (ja) 2020-03-31 2024-01-29 ミネベアミツミ株式会社 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
JP7461638B2 (ja) 2020-05-25 2024-04-04 国立大学法人広島大学 触覚評価装置、触覚評価方法及びプログラム
WO2022054498A1 (ja) * 2020-09-11 2022-03-17 ソニーグループ株式会社 医療用アーム制御システム、医療用アーム装置、医療用アームの制御方法及びプログラム
JP2023502804A (ja) * 2020-10-12 2023-01-26 ソウル大学校産学協力団 目標志向的強化学習方法及びこれを遂行するための装置
JP7348296B2 (ja) 2020-10-12 2023-09-20 ソウル大学校産学協力団 目標志向的強化学習方法及びこれを遂行するための装置

Also Published As

Publication number Publication date
JP6604832B2 (ja) 2019-11-13

Similar Documents

Publication Publication Date Title
JP6604832B2 (ja) 機械学習支援装置
Zhao et al. A CNN-based prototype method of unstructured surgical state perception and navigation for an endovascular surgery robot
US11344374B2 (en) Detection of unintentional movement of a user interface device
US20200194117A1 (en) Systems, methods, and media for remote trauma assessment
WO2011065035A1 (ja) ロボットの教示データを作成する方法およびロボット教示システム
Bouteraa et al. Task-space region-reaching control for medical robot manipulator
Ottenhaus et al. Visuo-haptic grasping of unknown objects based on gaussian process implicit surfaces and deep learning
Donat et al. Estimating tip contact forces for concentric tube continuum robots based on backbone deflection
JP2007245326A (ja) ロボットとロボットの制御方法
Pedram et al. Toward synergic learning for autonomous manipulation of deformable tissues via surgical robots: An approximate q-learning approach
Lu et al. Toward image-guided automated suture grasping under complex environments: A learning-enabled and optimization-based holistic framework
Kirchner et al. Intuitive interaction with robots–technical approaches and challenges
Vicente et al. Towards markerless visual servoing of grasping tasks for humanoid robots
Sidiropoulos et al. A human inspired handover policy using gaussian mixture models and haptic cues
Lazo et al. Autonomous intraluminal navigation of a soft robot using deep-learning-based visual servoing
Amatya et al. Real time kinect based robotic arm manipulation with five degree of freedom
Mikada et al. Three‐dimensional posture estimation of robot forceps using endoscope with convolutional neural network
Infantino et al. A cognitive architecture for robotic hand posture learning
Trombetta et al. Variable structure human intention estimator with mobility and vision constraints as model selection criteria
Agrawal Automating endoscopic camera motion for teleoperated minimally invasive surgery using inverse reinforcement learning
Fekri et al. A deep learning force estimator system for intracardiac catheters
Geng et al. Synergy-based affordance learning for robotic grasping
CN113561172A (zh) 一种基于双目视觉采集的灵巧手控制方法及装置
Saha et al. EEG based gesture mimicking by an artificial limb using cascade-correlation learning architecture
Murphy et al. A surgical robotic framework for safe and autonomous data-driven learning and manipulation of an unknown deformable tissue with an integrated critical space

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191015

R150 Certificate of patent or registration of utility model

Ref document number: 6604832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250