JP6376296B1 - 位置制御装置及び位置制御方法 - Google Patents
位置制御装置及び位置制御方法 Download PDFInfo
- Publication number
- JP6376296B1 JP6376296B1 JP2017535467A JP2017535467A JP6376296B1 JP 6376296 B1 JP6376296 B1 JP 6376296B1 JP 2017535467 A JP2017535467 A JP 2017535467A JP 2017535467 A JP2017535467 A JP 2017535467A JP 6376296 B1 JP6376296 B1 JP 6376296B1
- Authority
- JP
- Japan
- Prior art keywords
- value
- unit
- amount
- force sensor
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
- B25J9/12—Programme-controlled manipulators characterised by positioning means for manipulator elements electric
- B25J9/126—Rotary actuators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Fuzzy Systems (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
ために、挿入状態から抜き出す際に挿入状態からの経路上とその周辺とに移
動させるよう移動量を指示する経路設定部(806)と、移動された位置の
出力層、移動された位置の力覚センサ(801)の値を入力層として学習さ
せるために移動された位置と力覚センサ(801)の値を取得するActo
r部(804)とを、備えたことにより、効率的に学習データを収集するこ
とができる。
Description
例えば、特許文献2のように一回の成功試行で最適経路を求めるような手法も存在するが、深層学習や深層強化学習に使えるデータを集めることは出来ない。
以下、この発明の実施の形態について説明する。
図2において、図1における単眼カメラ102の機能であり、画像を撮影する撮像部201と、撮像された画像を用いてロボットアーム100の位置の制御量を生成する制御パラメータ生成部202と、位置の制御量を用いてロボットアーム100の駆動部204に対し、電流・電圧値を制御する制御部203と、制御部203から出力された電流・電圧値に基づいてロボットアーム100の位置を変更する駆動部204から構成されている。
制御部203は、受け取ったロボットアーム100の位置(X、Y、Z、Ax、Ay、Az)の値に対する制御量(ΔX、ΔY、ΔZ、ΔAx、ΔAy、ΔAz)に基づいて駆動部204を構成する各デバイスに対する電流・電圧値を決定し制御する。
駆動部204は、制御部203から受けた各デバイスに対する電流・電圧値で動作することで、ロボットアーム100が(X+ΔX、Y+ΔY、Z+ΔZ、Ax+ΔAx、Ay+ΔAy、Az+ΔAz)の位置まで移動する。
単眼カメラ102は、入出力インターフェース301を経由してプロセッサ302、メモリ303に、有線無線に関わらず通信可能に接続される。入出力インターフェース301、プロセッサ302、メモリ303で図2における制御パラメータ生成部202の機能を構成する。入出力インターフェース301はまた、制御部203に対応する制御回路304と有線無線に関わらず通信可能に接続される。制御回路304はまた、電気的にモータ305と接続される。モータ305は、図2における駆動部204に対応し、各デバイスの位置を制御するための部品として構成される。尚、本実施の形態において、駆動部204に対応するハードウエアの形態としてモータ305としたが、位置を制御できるハードウエアであればよい。したがって、単眼ガメラ201と入出力インターフェース301間、入出力インターフェース301と制御回路間304間は別体として構成されていてもよい。
図4は、実施の形態1における位置制御装置の位置制御におけるフローチャートである。
まず、ステップS101において、ロボットアーム100の把持部101は、オス側コネクタ110を把持する。このオス側コネクタ110の位置や姿勢は図2の制御部203側で事前に登録されており、あらかじめ制御部203側に登録された制御プログラムに基づいて動作される。
次に、ステップS103において、制御パラメータ生成部202は単眼カメラ102の撮像部201に対し、画像を撮像するよう指示し、単眼カメラ103は、把持部101が把持しているオス側コネクタ110と、挿入先となるメス側コネクタ120とが両方映っている画像を撮像する。
制御量のいずれかの成分が閾値より大きければ、ステップS106において、制御部203は、制御パラメータ生成部202が出力した制御量(ΔX、ΔY、ΔZ、ΔAx、ΔAy、ΔAz)を用いて駆動部204を制御し、ステップS103へ戻る。
ニューラルネットワークを用いた制御量の計算を行う前に、事前準備として、ニューラルネットワークよって入力画像から嵌合成功までの移動量が算出できるようにするため、事前に、画像と必要な移動量のセットを集める。例えば、位置が既知である嵌合状態のオス側コネクタ110とメス側コネクタ120に対し、ロボットアーム100の把持部101でオス側コネクタ110を把持する。そして、既知の引き抜き方向に把持部101を動かしながら挿入開始位置まで動かすとともに、単眼カメラ102で複数枚画像を取得する。また、挿入開始位置を制御量(0,0,0,0,0,0)として嵌合状態から挿入開始までの移動量だけの移動量だけはなく、その周辺の移動量、すなわち制御量(ΔX、ΔY、ΔZ、ΔAx、ΔAy、ΔAz)にとそれに対応する画像も取得する。
図5は、実施の形態1における単眼カメラ102が撮影した挿入開始位置とその周辺付近でのカメラ画像と制御量を示す図の例である。
ニューラルネットワークにはCNNやRNNなど色々な形態が存在するが、本発明はその形態に依存せず、任意の形態を使用することができる。
入力層には、単眼カメラ102から得られた画像(例えば各ピクセルの輝度、色差の値)が入力され、出力層は制御量(ΔX、ΔY、ΔZ、ΔAx、ΔAy、ΔAz)が出力される。
ニューラルネットワークの学習過程において、入力された画像から中間層を経て得られた出力層の出力値が画像セットで記憶された制御量に近似させるために中間層のパラメータを最適化させることが行われる。その近似方法として確率的勾配法等がある。
また、図5においては、オス側コネクタ110は単眼カメラ102に対して位置が固定であり、メス側コネクタ120のみの位置が変化した場合について示しているが、実際は、ロボットアーム100の把持部101が、正確な位置でオス側コネクタ110を把持するわけではなく、個体差等によって、オス側コネクタ110の位置がずれた場合も存在する。したがって、この学習の過程においてオス側コネクタ110が正確な位置からずれた場合の挿入開始位置とその付近の位置の複数の制御量と画像のセットを取得して学習することで、オス側コネクタ110とメス側コネクタ120の両方の個体差に対応できた学習が行われる。
ステップS101において、ロボットアーム100がオス側コネクタ110を把持するために、事前に登録した動作通りオス側コネクタ110を把持し、ステップS102において、メス側コネクタ120はほぼ上まで移動される。
また、必ずしも基板への挿入に限った話ではなく、画像と制御量の関係から制御量を求める位置制御全般に利用できる。この発明においては、ニューラルネットワークを用いて画像と制御量との関係を学習させることで、モノとモノとの位置合わせを行う際の各々の個体差を吸収できるというメリットがある。
図7は、実施の形態1におけるニューラルネットワークにおいて、複数のネットワークをもちいたフローチャートである。図4のステップS104の詳細ステップを示している。複数のパラメータは図2の制御パラメータ生成部に含まれている。
ループ回数が1回目または得られた制御量が25mm以上の場合はニューラルネットワーク1を選択してステップS702に進む。また、ループ回数が2回目以降で得られた制御量が5mm以上25mm未満の場合はニューラルネットワーク2を選択してステップS703に進む。さらにループ回数が2回目以降で得られた制御量が5mm未満の場合はニューラルネットワーク3を選択してステップS704に進む。ステップS702〜ステップS704において選択されたニューラルネットワークを用いて制御量を算出する。
例えば、各ニューラルネットワークはオス側コネクタ110とメス側コネクタ120の距離もしくは制御量応じて学習されており、図中のニューラルネットワーク3は誤差が±1mm、±1度の範囲内の学習データを、ニューラルネットワーク2は±1〜±10mm、±1〜±5度の範囲の学習データを、と段階的に学習するデータの範囲をかえている。ここで各ニューラルネットワークにおいて使用する画像の範囲をオーバーラップさせない方が効率的である。
また、この図7では3つの例を示しているが、ネットワークの数は特に制限がない。このような方式を用いる場合には、どのネットワークを使用するのかを決めるステップS701の判別機能を「ネットワーク選択スイッチ」として用意する必要がある。
このネットワーク選択スイッチは、ニューラルネットワークでも構成できる。この場合、入力層への入力画像、出力層の出力はネットワーク番号になる。画像データは、全てのネットワークで使用している画像、ネットワーク番号のペアを使用する。
また、複数のニューラルネットワークを用いた例についても必ずしも基板への挿入に限った話ではなく、画像と制御量の関係から制御量を求める位置制御全般に利用できる。この発明においては、ニューラルネットワークを用いて画像と制御量との関係を学習させることで、モノとモノとの位置合わせを行う際の各々の個体差を吸収できるというメリットがあり、より、精度よく制御量を算出できる。
実施の形態1においては、位置が既知である嵌合状態のオス側コネクタ110とメス側コネクタ120に対し、ロボットアーム100の把持部101でオス側コネクタ110を把持する。そして、既知の引き抜き方向に把持部101を動かしながら挿入開始位置まで動かすとともに、単眼カメラ102で複数枚画像を取得していた。実施の形態2においては、オス側コネクタ110とメス側コネクタ120の嵌合位置が未知であった場合について説明する。
この試行回数を減らす手法として、強化学習の中で方策オン(on policy)と呼ばれる枠組みが一般的に用いられている。しかしながら、この枠組みをロボットアームのティーチングに応用するには、ロボットアームや制御信号に特化した様々な工夫を行う必要があるため困難であり、実用化までには至っていない。
実施の形態2では、実施の形態1におけるようなロボットが様々な動作を試行錯誤的に行い、良い結果を出した行動を記憶しながら結果として行動を最適化のための大量な試行回数を軽減することができる形態について説明する。
図9は、実施の形態2における位置制御装置のハードウエア構成図である。図3と異なるのは、力覚センサ801が入出力インターフェース301と電気的または通信可能に接続されている点のみである。また、入出力インターフェース301、プロセッサ302、メモリ303は、図8の制御パラメータ生成部202の機能を構成するとともに、経路決定部802の機能も構成する。したがって力覚センサ801と単眼ガメラ201と入出力インターフェース301間、入出力インターフェース301と制御回路間304間は別体として構成されていてもよい。
力覚センサ801は、ロボットアーム100の把持部101にかかる負荷を計測するものであり、例えば図1でいうオス側コネクタ110とメス側コネクタ120が当接した場合の力の値を計測できるものである。
Critic部803及びActor部804は、S3、S4は従来の強化学習でいう、Critic部、Actor部と同じである。
ここで従来の強化学習手法について説明する。本実施例では強化学習の中でもActor-Criticモデルと呼ばれるモデルを使用している(参考文献:強化学習 : R.S.Sutton and A.G.Barto 2000年12月出版)。Actor部804、Critic部803は環境の状態を撮像部201や力覚センサ801を通じて取得している。Actor部804は、センサデバイスを用いて取得した環境状態Iを入力とし、ロボットコントローラへ制御量Aを出力する関数である。Critic部803はActor部804に嵌合が適切に成功するよう、入力Iに対してActor部804が出力Aを適切に学習するための機構である。
以下、従来の強化学習手法の方式に関して記載する。
V(I)の更新式は以下で定義される。
ここで、δは予測誤差、αは学習係数であり0 〜 1までの正の実数、γは割引率であり0〜 1までの正の実数である。
Actor部804は入力をI、出力をA(I)とし以下の通り、A(I)が更新される。
δ>0の時
ここで、σは出力の標準偏差の値を示し、Actorは状態Iにおいて、A(I)に平均0、分散をσ2とした分布を持つ乱数を加算する。すなわち、試行の結果いかんにかかわらず、ランダムに2回目の移動補正量が決定されるようなものである。
なお、上記の更新式を一例として用いているが、Actor-Criticモデルも様々な更新式があり、上記にとらわれず一般的に使用されているモデルであれば変更が可能である。
すなわち、Actor-Criticの従来のモデルでは、嵌合が成功した時にR = 1, そうでない時はR = 0と定義されるため、嵌合が成功した時に初めて学習が行われ、かつ嵌合が成功するまでは、試行に用いられる移動補正量はランダムに与えられるため、試行の失敗度合に応じた次の試行のための移動補正量の決定は行われない。これは、Actor-Criticの従来のモデルだけでなく、Q−Learningなど他の強化学習モデルを用いても嵌合の成功と失敗そのものしか評価しないため、同様な結果となる。本発明の本実施の形態においては、この失敗度合を評価して次の試行のための移動補正量の決定するプロセスについて説明する。
図10は、実施の形態2におけるオス側コネクタ110とメス側コネクタ120との嵌合の試行の様子を示す図である。
例えば図10(A)のような画像が試行の結果として手に入ったとする。この試行では、コネクタの嵌めあい位置が大きくずれるため失敗している。この時にどの程度成功に近いのかを計測し数値化し、成功度合を示す評価値を求める。数値化の方法として、例えば図10(B)のように、画像中にて挿入先側のコネクタ表面積(ピクセル数)を計算する方法がある。この方法では、オス側コネクタ110とメス側コネクタ120の挿入失敗を、ロボットアーム100の力覚センサ801によって検知した時にメス側コネクタ120嵌合面の表面のみ他の背景とは異なる色を塗布、あるいはシールを貼ってあることによって、画像からのデータ取得と計算がより簡易になる。また、これまで述べた方法はカメラの数が一台の場合だが、複数台のカメラを並べ撮影し、撮影されたそれぞれの画像を用いた結果を総合しても構わない。 また、コネクタ表面積以外にも2次元方向(例えばX,Y方向)のピクセル数等を取得しても同様なことが評価できる。
第一ステップでは、評価部805にて処理された評価結果とロボットが実施に動いた動きを学習する。ロボットの移動補正量をA、評価部805にて処理された成功度合を示す評価値をEとした時、経路設定部806はAを入力とし、Eを出力とする関数を用意し、近似する。関数としては一例としてRBF (Radial Basis Function)ネットワークが上げる。RBFは、様々な未知な関数を簡単に近似することが可能な関数として知られている。
例えば、k番目の入力
要するに、上記事例を具体的に説明すると、失敗した時の移動補正量に対する表面積や2次元方向のピクセル数を評価値として試行回数ごとに時系列に並べてその並びの値を用いて最適解を求めるものである。もっとシンプルに2次元方向のピクセル数を減少させる方向に一定割合で移動させた移動補正量を求めてもよい。
図11は、実施の形態2における位置制御装置の経路学習におけるフローチャートである。
まず、ステップS1101において、ロボットアーム100の把持部101は、オス側コネクタ110を把持する。このオス側コネクタ110の位置や姿勢は図8の制御部203側で事前に登録されており、あらかじめ制御部203側に登録された制御プログラムに基づいて動作される。
次にステップS1105において、駆動部204によってロボットアーム100を移動中にコネクタ同士が接触した場合には移動量の単位量ごとに力覚センサ801の値と、単眼カメラ102からの画像を経路決定部802の評価部805とCritic部803が記憶する。
通常、この時点では嵌合が成功しない。そのため、ステップS1108において評価部805は、成功度合を図10で説明した方法で評価し、位置合わせに対する成功度合を示す評価値を経路設定部806に与える。
そして、ステップS1109において、経路設定部806は、上述した方法を用いて学習を行い、経路設定部806は、次の推奨値をActor部804に与えるとともに、Critic部803が報酬量に応じて求めた値を出力し、Actor部804が受信する。ステップS1110において、Actor部804は、Critic部803が出力した報酬量に応じて求めた値と経路設定部806が出力した次の推奨値を加算して移動補正量を求める。尚、このステップにおいて、経路設定部806が出力した次の推奨値を用いるだけで十分な効果がある場合には、Critic部803が出力した報酬量に応じて求めた値を加算する必要がないことは言うまでもない。また、Actor部804は、移動補正量を求めるために、Critic部803が出力した報酬量に応じて求めた値と経路設定部806が出力した次の推奨値の加算比率を設定し、加算比率に応じて変更してもよい。
その後、再度、ステップ1103に戻り、移動補正量によって移動された位置で画像を撮影し、嵌合動作を行う。これを成功するまで繰り返す。
嵌合が成功した場合、ステップS1107において、嵌合成功後は、嵌合成功した時のステップS1102からS1106までのIについてActor部804及びCritic部803の学習を行う。最後に経路決定部802は この学習されたニューラルネットワークのデータを制御パラメータ生成部202に与えることで、実施の形態1における動作が可能となる。
関数近似としてRBFネットワークをあげたが、他の関数近似手法(線形、二次関数、など)を用いても構わない。
評価手法として、コネクタの表面に色違いにする手法をあげたが、他の画像処理技術によりコネクタ間のずれ量等を評価手法としても構わない。
また、必ずしも基板への挿入に限った話ではなく、画像と制御量の関係から制御量を求める位置制御全般に利用できる。この発明においては、ニューラルネットワークを用いて画像と制御量との関係を学習させることで、モノとモノとの位置合わせを行う際の各々の個体差を吸収できるというメリットがあり、より、精度よく制御量を算出できる。
a.の場合は、力覚センサ801の値と画像の両方を学習させる方法があり、詳細は実施の形態3に記載の方法を用いれば実施できる。
b.の場合も、力覚センサ801の値のみで学習する方法として実施の形態3に記載の方法を用いれば、実施できる。また、別の方法として、Actor-Criticモデルでの報酬Rの定義において、嵌合または挿入最中にかかった最大負荷をFとし、Aを正の定数とした時、成功時、R = (1-A/F), 失敗時 R = 0と定義しても同様の効果を奏することができる。
本実施の形態においては、実施の形態2において、位置合わせが成功した後に行う学習過程において効率的にデータを収集する方法について説明する。したがって特に説明しない場合については実施の形態2と同じものとする。すなわち、実施の形態3における位置制御装置の機能構成図は図8であり、ハードウエア構成図は図9となる。
まず、ステップS1201において、図11のステップS1107においてオス側コネクタ110とメス側コネクタ120の嵌合が成功した場合、経路設定部806は、変数をi=0, j =1, k =1 として初期化する。 変数iは、以降のロボットアーム100の学習回数、変数kは、オス側コネクタ110とメス側コネクタ120のとの嵌合が外れた時からの学習回数、変数jは図12のフローチャートのループ回数である。
ステップS1204において、経路設定部806はO(i)を中心に、ランダムに移動量(ΔX、ΔY、ΔZ、ΔAx、ΔAy、ΔAz)を決定し、Actor部804を経由して制御部203に移動量与え、駆動部204によってロボットアーム100を移動させる。この時、この移動量の最大量は、移動ができる範囲で任意に設定することができる。
規定数のデータが溜まったら、ステップS1209において、経路設定部806は、変数j を1にしたうえで、ステップS1210において、オス側コネクタ110とメス側コネクタ120のとの嵌合が外れたかを確認する。
ステップS1211において経路設定部806は、ロボットアーム100の座標を、移動量を与える前の座標O(i)に戻すようにActor部804を経由して制御部203に移動量与え、駆動部204によってロボットアーム100を移動させる。
その後、ステップS1202からステップS1210までのループをオス側コネクタ110とメス側コネクタ120のとの嵌合が外れるまで、嵌合を行うために与えた移動量から1mmもしくは単位量戻す処理と、戻した位置を中心に移動量を与えて力覚センサ801のデータを収集する処理とを繰り返す。オス側コネクタ110とメス側コネクタ120のとの嵌合が外れた場合は、ステップS1212に進む。
次に、ステップS1214において、経路設定部806は、中心位置O(i+k)を中心に、再度、ランダムに移動量(ΔX、ΔY、ΔZ、ΔAx、ΔAy、ΔAz)を決定した上で、Actor部804を経由して制御部203に移動量与え、駆動部204によってロボットアーム100を移動させる。
ステップS1216において、Critic部803とActor部804は、移動量に−1を乗じた(-ΔX、-ΔY、-ΔZ、-ΔAx、-ΔAy、-ΔAz)と画像を1つの学習データとして記録する。
なお、S1204における移動量(ΔX、ΔY、ΔZ、ΔAx、ΔAy、ΔAz)とS1204での移動量のランダム値の最大値は異なる値を取ることができる。
以上の方法で取得した学習データは、Actor部804及びCritic部803の学習を行う。
実施の形態1、2については、力覚センサ801のデータを用いた学習方法について記載していなかった。実施形態1と2は、入力層は画像のみであったのに対し、実施の形態3においては、入力層に画像に替えて力覚センサ801の値をいれればよい。力覚センサ801の値は、3つ(力と2方向のモーメント)の場合と、6つ(3方向と3方向モーメント)いずれでもよい。出力層は制御量(ΔX、ΔY、ΔZ、ΔAx、ΔAy、ΔAz)が出力される。尚、オス側コネクタ110とメス側コネクタ120のとの嵌合が外れている場合には、入力層に画像と力覚センサ801の値が同時に入力されることとなる。
ニューラルネットワークの学習過程において、入力された画像及び力覚センサ801の値から中間層を経て得られた出力層の出力値が画像及び力覚センサ801の値とセットで記憶された制御量に近似させるために中間層のパラメータを最適化させることが行われ、学習されることなる。
最後に経路決定部802は この学習されたニューラルネットワークのデータを制御パラメータ生成部202に与えることで、実施の形態1における動作が可能となる。
しかしながら単眼カメラ102の画像が十分高精細でロボットアーム100を微小に周辺に移動させた画像であっても十分に学習可能である場合は、単眼カメラ102の画像のみで学習してもよいし、オス側コネクタ110とメス側コネクタ120とが嵌合している場合であっても単眼カメラ102の画像と力覚センサ801の値を両方用いてもよい。
また、必ずしも基板への挿入に限った話ではなく、画像と制御量の関係から制御量を求める位置制御全般に利用できる。この発明においては、ニューラルネットワークを用いて画像と制御量との関係を学習させることで、モノとモノとの位置合わせを行う際の各々の個体差を吸収できるというメリットがあり、より、精度よく制御量を算出できる。
101:把持部、
102:単眼カメラ
110:オス側コネクタ
120:メス側コネクタ
201:撮像部
202:制御パラメータ生成部
203:制御部
204:駆動部
301:入出力インターフェース
302:プロセッサ、
303:メモリ、
304:制御回路、
305:モータ、
801:力覚センサ
802:経路決定部
803:Critic部
804:Actor部
805:評価部
806:経路設定部
Claims (8)
- 二つのモノについて挿入を伴う位置合わせを含む場合、挿入状態から抜き出す際に前記挿入状態からの経路上であって前記挿入状態から外れない位置となる第1の移動量と、前記第1の移動量から前記挿入状態から外れない位置となる周辺へのランダムな第2の移動量と、を指示する経路設定部と、移動された位置データを出力層、移動された位置の力覚センサの値を入力層として学習させるために移動された位置の値と力覚センサの値を取得するとともに前記力覚センサの値に比例して減少する報酬値を取得するActor部と、
を備えた位置制御装置。 - 請求項1において指示された第1の移動量及び第2の移動量を用いて前記二つのモノの位置関係を制御するための電流または電圧を制御する制御部と、前記二つのモノの位置関係を制御するための電流または電圧を用いて前記二つのモノの位置関係の一方の位置を移動させる駆動部とを備え、前記力覚センサは、前記二つのモノの位置関係を保持する際にかかる力を取得する、
請求項1に記載の位置制御装置。 - 前記二つのモノが存在する画像を撮像し取得する単眼カメラを備え、
前記Actor部は、前記移動された位置において前記単眼カメラによって撮像された画像を取得する、
請求項1または2に記載の位置制御装置。 - 前記Actor部は、前記入力層と前記出力層とからActor-Criticモデルを用いて学習をおこなう、請求項1乃至3のいずれかに記載の位置制御装置。
- 前記Actor部は、複数のニューラルネットワークを学習し、前記複数のニューラルネットワークの一方は、前記二つのモノの位置関係が挿入されている位置のデータが学習に用いられ、他方のデータは、前記二つのモノの位置関係が挿入されていない位置のデータが学習に用いられる、請求項4に記載の位置制御装置。
- 前記Actor部は、前記二つのモノの位置関係が挿入されている位置のデータには前記力覚センサの値が用いられ、前記二つのモノの位置関係が挿入されていない位置のデータには、画像データが用いられる、請求項5に記載の位置制御装置。
- 二つのモノの位置制御方法であって、
前記二つのモノについて挿入を伴う位置合わせを含む場合、挿入状態から抜き出す際に前記挿入状態からの経路であって前記挿入状態から外れない位置となる第1の移動量と、前記第1の移動量から前記挿入状態から外れない位置となる周辺へのランダムな第2の移動量と、を指示し、
移動された位置データを出力層、移動された位置の力覚センサの値を入力層として学習させるために移動された位置の値と力覚センサの値を取得するとともに前記力覚センサの値に比例して減少する報酬値を取得する
二つのモノの位置制御方法。 - 二つのモノの位置制御方法であって、
前記二つのモノについて挿入を伴う位置合わせを含む場合、挿入状態から抜き出す際に前記挿入状態からの経路であって前記挿入状態から外れない位置となる第1の移動量と、前記第1の移動量から前記挿入状態から外れない位置となる周辺へのランダムな第2の移動量と、を指示し、
移動された位置データを出力層、移動された位置の力覚センサの値を入力層として学習させるために移動された位置の値と力覚センサの値を取得するとともに前記力覚センサの値に比例して減少する報酬値を取得し、
前記入力層と前記出力層とからActor-Criticモデルを用いて学習をおこなう、
二つのモノの位置制御方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/004733 WO2018146770A1 (ja) | 2017-02-09 | 2017-02-09 | 位置制御装置及び位置制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6376296B1 true JP6376296B1 (ja) | 2018-08-22 |
JPWO2018146770A1 JPWO2018146770A1 (ja) | 2019-02-14 |
Family
ID=63108068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017535467A Active JP6376296B1 (ja) | 2017-02-09 | 2017-02-09 | 位置制御装置及び位置制御方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11173613B2 (ja) |
JP (1) | JP6376296B1 (ja) |
KR (1) | KR102113465B1 (ja) |
CN (1) | CN110248774A (ja) |
DE (1) | DE112017007028B4 (ja) |
TW (1) | TWI638249B (ja) |
WO (1) | WO2018146770A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6458912B1 (ja) * | 2018-01-24 | 2019-01-30 | 三菱電機株式会社 | 位置制御装置及び位置制御方法 |
CN111347426A (zh) * | 2020-03-26 | 2020-06-30 | 季华实验室 | 一种基于3d视觉的机械臂精确放置轨迹规划方法 |
US11285624B2 (en) | 2019-02-22 | 2022-03-29 | Fanuc Corporation | Object detection device, control device, and object detection computer program |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
US11292133B2 (en) * | 2018-09-28 | 2022-04-05 | Intel Corporation | Methods and apparatus to train interdependent autonomous machines |
JP6508691B1 (ja) | 2018-10-15 | 2019-05-08 | 株式会社Mujin | 制御装置、作業ロボット、プログラム、及び、制御方法 |
JP7205752B2 (ja) * | 2018-11-09 | 2023-01-17 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP6970078B2 (ja) * | 2018-11-28 | 2021-11-24 | 株式会社東芝 | ロボット動作計画装置、ロボットシステム、および方法 |
JP6915605B2 (ja) * | 2018-11-29 | 2021-08-04 | オムロン株式会社 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
JP7000359B2 (ja) * | 2019-01-16 | 2022-01-19 | ファナック株式会社 | 判定装置 |
US11636347B2 (en) * | 2019-01-23 | 2023-04-25 | Deepmind Technologies Limited | Action selection using interaction history graphs |
CN109986559B (zh) * | 2019-02-28 | 2021-08-10 | 深圳镁伽科技有限公司 | 参数编辑方法和系统、控制设备及存储介质 |
WO2021039995A1 (ja) | 2019-08-28 | 2021-03-04 | 株式会社DailyColor | ロボット制御装置 |
JP6742040B1 (ja) * | 2019-08-28 | 2020-08-19 | 株式会社DailyColor | ロボット制御装置 |
WO2021070404A1 (ja) * | 2019-10-09 | 2021-04-15 | 三菱電機株式会社 | 組み立て装置 |
CN110974163A (zh) * | 2019-12-05 | 2020-04-10 | 中国人民解放军总医院 | 口腔医疗影像机器人多传感信息融合控制系统及控制方法 |
JP6792230B1 (ja) * | 2019-12-12 | 2020-11-25 | 株式会社エクサウィザーズ | 情報処理装置、方法およびプログラム |
DE102020200165B4 (de) * | 2020-01-09 | 2022-05-19 | Robert Bosch Gesellschaft mit beschränkter Haftung | Robotersteuereinrichtung und Verfahren zum Steuern eines Roboters |
KR102498066B1 (ko) * | 2020-02-20 | 2023-02-10 | 한국과학기술원 | 딥러닝 강화학습 가속기 |
WO2021220394A1 (ja) * | 2020-04-28 | 2021-11-04 | ヤマハ発動機株式会社 | 機械学習方法およびロボットシステム |
US11833666B2 (en) * | 2020-10-28 | 2023-12-05 | Shanghai Flexiv Robotics Technology Co., Ltd. | Method for assembling an operating member and an adapting member by a robot, robot, and controller |
WO2022107517A1 (ja) * | 2020-11-20 | 2022-05-27 | 株式会社ユーハイム | バウムクーヘン焼成システム、バウムクーヘン焼成支援システム、プログラム及びバウムクーヘンの製造方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08174459A (ja) * | 1994-12-27 | 1996-07-09 | Nissan Motor Co Ltd | 組立用ロボットによるワーク自動組付方法 |
WO2004068399A1 (ja) * | 2003-01-31 | 2004-08-12 | Matsushita Electric Industrial Co. Ltd. | 予測型行動決定装置および行動決定方法 |
JP2008305064A (ja) * | 2007-06-06 | 2008-12-18 | Japan Science & Technology Agency | 学習型制御装置および該方法 |
JP2011011315A (ja) * | 2009-07-06 | 2011-01-20 | Canon Inc | 部品組付け方法 |
JP2011110688A (ja) * | 2009-11-30 | 2011-06-09 | Mitsubishi Electric Corp | ロボットの教示装置、及びロボットの制御装置 |
JP2013107175A (ja) * | 2011-11-22 | 2013-06-06 | Canon Inc | 組立ロボット |
JP2015142952A (ja) * | 2014-01-31 | 2015-08-06 | パナソニック株式会社 | ロボットの部品挿入動作の教示方法、及びそれを用いたロボットの動作方法 |
JP2015168017A (ja) * | 2014-03-06 | 2015-09-28 | セイコーエプソン株式会社 | ロボット、ロボットシステム、及び制御装置 |
JP2015217486A (ja) * | 2014-05-19 | 2015-12-07 | 富士通株式会社 | 判定装置、判定方法、および判定プログラム |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1016981A (en) * | 1911-03-06 | 1912-02-13 | Indianapolis Gas Engine Company | Internal-combustion engine. |
US5309525A (en) * | 1990-06-14 | 1994-05-03 | Canon Kabushiki Kaisha | Image processing apparatus using neural network |
JPH05318355A (ja) | 1992-05-25 | 1993-12-03 | Sony Corp | 位置補正方法及び位置補正装置 |
CN1072374C (zh) * | 1995-08-07 | 2001-10-03 | 货款接收机公司 | 用人工神经网络对硬币的有效性进行图形识别的装置 |
DE69736348T2 (de) | 1996-10-24 | 2006-11-30 | Fanuc Ltd. | Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten |
JP3086206B2 (ja) * | 1998-07-17 | 2000-09-11 | 科学技術振興事業団 | エージェント学習装置 |
TW444499B (en) * | 1998-12-31 | 2001-07-01 | Tsai Ching Yuan | Binocular mechanical head monitoring system |
JP4587738B2 (ja) | 2003-08-25 | 2010-11-24 | ソニー株式会社 | ロボット装置及びロボットの姿勢制御方法 |
JP2005125475A (ja) | 2003-10-24 | 2005-05-19 | Sunao Kitamura | 一回の成功試行で最良経路を学習するアーキテクチャ |
JP4929449B2 (ja) * | 2005-09-02 | 2012-05-09 | 国立大学法人横浜国立大学 | 強化学習装置および強化学習方法 |
US20070203871A1 (en) * | 2006-01-23 | 2007-08-30 | Tesauro Gerald J | Method and apparatus for reward-based learning of improved systems management policies |
JP4952025B2 (ja) * | 2006-03-31 | 2012-06-13 | 株式会社日立製作所 | 運転制御方法,運転制御装置及び運転制御システム |
FI20105732A0 (fi) * | 2010-06-24 | 2010-06-24 | Zenrobotics Oy | Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä |
WO2012027541A1 (en) | 2010-08-27 | 2012-03-01 | Abb Research Ltd | Vision-guided alignment system and method |
JP5791387B2 (ja) * | 2011-06-23 | 2015-10-07 | キヤノン株式会社 | 自動組立装置および自動組立装置による部品組立方法 |
US9156165B2 (en) * | 2011-09-21 | 2015-10-13 | Brain Corporation | Adaptive critic apparatus and methods |
JP5962020B2 (ja) * | 2012-01-17 | 2016-08-03 | セイコーエプソン株式会社 | ロボット制御装置、ロボットシステム、ロボット及びロボット制御方法 |
US20140025613A1 (en) * | 2012-07-20 | 2014-01-23 | Filip Ponulak | Apparatus and methods for reinforcement learning in large populations of artificial spiking neurons |
US9008840B1 (en) * | 2013-04-19 | 2015-04-14 | Brain Corporation | Apparatus and methods for reinforcement-guided supervised learning |
US9579789B2 (en) * | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
TWI492008B (zh) * | 2013-11-01 | 2015-07-11 | Ind Tech Res Inst | 工作機械控制系統及其方法 |
US9358685B2 (en) * | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
JP6427972B2 (ja) * | 2014-06-12 | 2018-11-28 | セイコーエプソン株式会社 | ロボット、ロボットシステム及び制御装置 |
JP6460690B2 (ja) * | 2014-09-16 | 2019-01-30 | キヤノン株式会社 | ロボット装置、ロボット制御方法、プログラム及び記録媒体 |
JP6517567B2 (ja) * | 2015-03-31 | 2019-05-22 | 日本電産サンキョー株式会社 | サーボモータ制御装置及び衝突検出方法 |
US20180233856A1 (en) * | 2015-05-22 | 2018-08-16 | Rnd By Us B.V. | Holding device |
US10166080B2 (en) * | 2015-06-12 | 2019-01-01 | The Johns Hopkins University | Cooperatively-controlled surgical robotic system with redundant force sensing |
US10776692B2 (en) * | 2015-07-24 | 2020-09-15 | Deepmind Technologies Limited | Continuous control with deep reinforcement learning |
JP6325507B2 (ja) * | 2015-11-09 | 2018-05-16 | ファナック株式会社 | 嵌合部品と被嵌合部品とをロボットによって嵌合する方法 |
JPWO2018116851A1 (ja) * | 2016-12-21 | 2019-10-24 | 株式会社ニコン | 情報処理装置、画像処理装置、顕微鏡、情報処理方法、及び情報処理プログラム |
US11321618B2 (en) * | 2018-04-25 | 2022-05-03 | Om Digital Solutions Corporation | Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method |
WO2019225746A1 (ja) * | 2018-05-25 | 2019-11-28 | 川崎重工業株式会社 | ロボットシステム及び追加学習方法 |
US10953548B2 (en) * | 2018-07-19 | 2021-03-23 | International Business Machines Corporation | Perform peg-in-hole task with unknown tilt |
US11325252B2 (en) * | 2018-09-15 | 2022-05-10 | X Development Llc | Action prediction networks for robotic grasping |
JP6970078B2 (ja) * | 2018-11-28 | 2021-11-24 | 株式会社東芝 | ロボット動作計画装置、ロボットシステム、および方法 |
-
2017
- 2017-02-09 DE DE112017007028.7T patent/DE112017007028B4/de active Active
- 2017-02-09 CN CN201780085581.5A patent/CN110248774A/zh not_active Withdrawn
- 2017-02-09 WO PCT/JP2017/004733 patent/WO2018146770A1/ja active Application Filing
- 2017-02-09 US US16/483,350 patent/US11173613B2/en active Active
- 2017-02-09 KR KR1020197022658A patent/KR102113465B1/ko active IP Right Grant
- 2017-02-09 JP JP2017535467A patent/JP6376296B1/ja active Active
- 2017-03-22 TW TW106109508A patent/TWI638249B/zh not_active IP Right Cessation
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08174459A (ja) * | 1994-12-27 | 1996-07-09 | Nissan Motor Co Ltd | 組立用ロボットによるワーク自動組付方法 |
WO2004068399A1 (ja) * | 2003-01-31 | 2004-08-12 | Matsushita Electric Industrial Co. Ltd. | 予測型行動決定装置および行動決定方法 |
JP2008305064A (ja) * | 2007-06-06 | 2008-12-18 | Japan Science & Technology Agency | 学習型制御装置および該方法 |
JP2011011315A (ja) * | 2009-07-06 | 2011-01-20 | Canon Inc | 部品組付け方法 |
JP2011110688A (ja) * | 2009-11-30 | 2011-06-09 | Mitsubishi Electric Corp | ロボットの教示装置、及びロボットの制御装置 |
JP2013107175A (ja) * | 2011-11-22 | 2013-06-06 | Canon Inc | 組立ロボット |
JP2015142952A (ja) * | 2014-01-31 | 2015-08-06 | パナソニック株式会社 | ロボットの部品挿入動作の教示方法、及びそれを用いたロボットの動作方法 |
JP2015168017A (ja) * | 2014-03-06 | 2015-09-28 | セイコーエプソン株式会社 | ロボット、ロボットシステム、及び制御装置 |
JP2015217486A (ja) * | 2014-05-19 | 2015-12-07 | 富士通株式会社 | 判定装置、判定方法、および判定プログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6458912B1 (ja) * | 2018-01-24 | 2019-01-30 | 三菱電機株式会社 | 位置制御装置及び位置制御方法 |
US11285624B2 (en) | 2019-02-22 | 2022-03-29 | Fanuc Corporation | Object detection device, control device, and object detection computer program |
CN111347426A (zh) * | 2020-03-26 | 2020-06-30 | 季华实验室 | 一种基于3d视觉的机械臂精确放置轨迹规划方法 |
CN111347426B (zh) * | 2020-03-26 | 2021-06-04 | 季华实验室 | 一种基于3d视觉的机械臂精确放置轨迹规划方法 |
Also Published As
Publication number | Publication date |
---|---|
US11173613B2 (en) | 2021-11-16 |
JPWO2018146770A1 (ja) | 2019-02-14 |
WO2018146770A1 (ja) | 2018-08-16 |
DE112017007028T5 (de) | 2019-10-31 |
CN110248774A (zh) | 2019-09-17 |
TWI638249B (zh) | 2018-10-11 |
DE112017007028B4 (de) | 2023-06-15 |
TW201830182A (zh) | 2018-08-16 |
US20190375112A1 (en) | 2019-12-12 |
KR102113465B1 (ko) | 2020-05-21 |
KR20190104564A (ko) | 2019-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6376296B1 (ja) | 位置制御装置及び位置制御方法 | |
JP6587761B2 (ja) | 位置制御装置及び位置制御方法 | |
JP6458912B1 (ja) | 位置制御装置及び位置制御方法 | |
JP6608890B2 (ja) | 機械学習装置、ロボットシステム及び機械学習方法 | |
JP5852364B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
CN112109075B (zh) | 控制系统和控制方法 | |
JP2019093461A (ja) | 把持システム、学習装置、把持方法、及び、モデルの製造方法 | |
JP7458741B2 (ja) | ロボット制御装置及びその制御方法及びプログラム | |
WO2021085561A1 (ja) | 学習データ生成方法 | |
CN113878588B (zh) | 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法 | |
CN113954076B (zh) | 基于跨模态预测装配场景的机器人精密装配方法 | |
CN113927602A (zh) | 基于视、触觉融合的机器人精密装配控制方法及系统 | |
CN110942083A (zh) | 拍摄装置以及拍摄系统 | |
JP7323057B2 (ja) | 制御装置、制御方法、および、制御プログラム | |
WO2021085562A1 (ja) | 把持装置 | |
Zha et al. | Coordination of visual and tactile sensors for pushing operation using multiple autonomous arms | |
JP2024034668A (ja) | ワイヤ挿入システム、ワイヤ挿入方法、およびワイヤ挿入プログラム | |
CN115070761A (zh) | 机器人示教方法、示教设备及计算机可读存储介质 | |
Liu | Three-Dimensional Hand Tracking and Surface-Geometry Measurement for a Robot-Vision System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170630 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170630 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180709 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6376296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |