JP2017211913A - 行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム - Google Patents
行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP2017211913A JP2017211913A JP2016106196A JP2016106196A JP2017211913A JP 2017211913 A JP2017211913 A JP 2017211913A JP 2016106196 A JP2016106196 A JP 2016106196A JP 2016106196 A JP2016106196 A JP 2016106196A JP 2017211913 A JP2017211913 A JP 2017211913A
- Authority
- JP
- Japan
- Prior art keywords
- value
- neural network
- hidden layer
- time
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006399 behavior Effects 0.000 title claims description 60
- 238000000034 method Methods 0.000 title claims description 56
- 238000013528 artificial neural network Methods 0.000 claims abstract description 120
- 238000004364 calculation method Methods 0.000 claims abstract description 22
- 230000009471 action Effects 0.000 claims description 100
- 238000011156 evaluation Methods 0.000 claims description 31
- 238000004088 simulation Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 description 27
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明に係る実施の形態は、未来予測機能付きの行動モデルを構築するために、ベースとなる多層ニューラルネットワークに、ニューラルネットワークによる未来予測モデルを追加する。この未来予測モデルの役割は、現在のネットワークの状態と選択する行動の情報から、次のネットワークの状態を推定することである。
本発明の実施の形態の説明とその効果を簡単に述べるために、非常に限定された状況と条件下で、機械が自動で行動選択を行う方法と、その行動選択のモデルをデータから自動的に学習する方法を述べる。
は、簡単のため、「右に移動」「左に移動al」「左右には動かないas」の3種類とする。
行動モデルとして、ここでは、多層ニューラルネットワークを想定する。例えば、非特許文献1で示されているように、画像を直接多層ニューラルネットワークに入力し、次の行動を決定するモデルである(図3参照)。
、時刻tで選択した行動を
時刻tで得られる評価値(報酬)を
とする。学習時には、この評価値が高くなる行動をとるように学習を進める。
を
と設定する。
学習処理1で獲得したネットワークを用いて、シミュレーションを行う(評価値が与えられる必要は無い)。例えば、一回のシミュレーション結果が時刻Tで終了したと仮定する。すると、時刻tの最終隠れ層をht、出力層をot、とおくと、(ht,ot)といった、最終隠れ層と出力層のペアがt=1からt=TまでのT個生成することができる。これを、
と記載する(図5参照)。
を取得する。
最後に、学習処理2で獲得した未来予測モデルを用いて、ネットワークを再学習し、未来の予測を反映した行動選択が可能な行動モデルを構築する。ここでは、学習済みのネットワークの構成を極力変更したくないので、最終隠れ層と出力層との間のパラメタのみを変更する学習を行う。
次に、本発明の実施の形態に係るネットワーク学習装置の構成について説明する。図8に示すように、本発明の実施の形態に係るネットワーク学習装置100は、CPUと、RAMと、後述するネットワーク学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このネットワーク学習装置100は、機能的には図8に示すように教師データ入力部10と、演算部20と、パラメタ記憶部40とを備えている。
前述のネットワーク学習装置100で得られたパラメタを用いて、行動決定装置150によって、自律機械の環境を表す各時刻の画像情報を入力として、各時刻の自律機械の行動を決定する。
次に、本実施の形態に係るネットワーク学習装置100の作用について説明する。まず、教師データが、ネットワーク学習装置100に入力されると、ネットワーク学習装置100によって、入力された教師データが、教師データベース22へ格納される。
を取得する。
次に、本実施の形態に係る行動決定装置150の作用について説明する。まず、ネットワーク学習装置100のパラメタ記憶部40に記憶されている多層ニューラルネットワーク及び未来予測モデルのパラメタが、行動決定装置150に入力されると、パラメタ記憶部128に格納される。そして、自律機械の環境を表す画像情報が逐次、行動決定装置150に入力されているときに、行動決定装置150によって、図14に示す行動決定処理ルーチンが実行される。
20 演算部
22 教師データベース
24 ネットワーク学習部
26 未来予測モデル学習部
28 ネットワーク再学習部
30 シミュレーション部
32 学習データ取得部
33 教師データベース
34 モデル学習部
40 パラメタ記憶部
100 ネットワーク学習装置
110 入力部
120 演算部
122 ネットワーク計算部
124 予測部
126 行動決定部
128 パラメタ記憶部
130 終了判定部
140 出力部
150 行動決定装置
Claims (7)
- 移動物の行動を決定する行動決定装置であって、
前記移動物の環境を表す入力データを入力として、前記移動物の行動を決定するための予め学習された多層ニューラルネットワークの各要素を計算するネットワーク計算部と、
前記多層ニューラルネットワークの最終隠れ層の値と、予め学習された未来予測モデルとに基づいて、未来の時刻における前記最終隠れ層の値を予測する予測部と、
前記多層ニューラルネットワークの最終隠れ層の値と、前記予測部によって予測された未来の時刻における前記最終隠れ層の値とに基づいて、前記多層ニューラルネットワークの出力層の値を推定し、推定された出力層の値に基づいて、前記移動物の行動を決定する行動決定部と、
を含む行動決定装置。 - 各時刻の移動物の環境を表す入力データを入力として、各時刻について、前記移動物の行動を決定するための予め学習された多層ニューラルネットワークの各要素を計算するシミュレーション部と、
前記シミュレーション部による計算結果に基づいて、各時刻についての前記多層ニューラルネットワークの最終隠れ層の値を取得する学習データ取得部と、
前記学習データ取得部によって取得した各時刻についての前記最終隠れ層の値に基づいて、未来の時刻における前記最終隠れ層の値を予測するための未来予測モデルを学習するモデル学習部と、
を含む未来予測モデル学習装置。 - 移動物の環境を表す入力データと、前記移動物の行動と、評価値とからなる教師データに基づいて、前記移動物の行動を決定するための多層ニューラルネットワークを学習するネットワーク学習部と、
各時刻の移動物の環境を表す入力データを入力として、各時刻について、前記ネットワーク学習部によって学習された前記多層ニューラルネットワークの各要素を計算し、各時刻についての前記多層ニューラルネットワークの最終隠れ層の値を取得し、各時刻についての前記最終隠れ層の値に基づいて、未来の時刻における前記最終隠れ層の値を予測するための未来予測モデルを学習する未来予測モデル学習部と、
前記教師データに含まれる前記移動物の環境を表す入力データを入力として、前記多層ニューラルネットワークの各要素を計算し、前記多層ニューラルネットワークの最終隠れ層の値と、前記未来予測モデルとに基づいて、未来の時刻における前記最終隠れ層の値を予測し、前記多層ニューラルネットワークの最終隠れ層の値と、前記予測された未来の時刻における前記最終隠れ層の値とに基づいて、前記多層ニューラルネットワークの出力層の値を推定し、推定された出力層の値と、前記教師データに含まれる前記移動物の行動及び前記評価値とに基づいて、前記多層ニューラルネットワークを再学習するネットワーク再学習部と、
を含むネットワーク学習装置。 - 移動物の行動を決定する行動決定装置における行動決定方法であって、
ネットワーク計算部が、前記移動物の環境を表す入力データを入力として、前記移動物の行動を決定するための予め学習された多層ニューラルネットワークの各要素を計算し、
予測部が、前記多層ニューラルネットワークの最終隠れ層の値と、予め学習された未来予測モデルとに基づいて、未来の時刻における前記最終隠れ層の値を予測し、
行動決定部が、前記多層ニューラルネットワークの最終隠れ層の値と、前記予測部によって予測された未来の時刻における前記最終隠れ層の値とに基づいて、前記多層ニューラルネットワークの出力層の値を推定し、推定された出力層の値に基づいて、前記移動物の行動を決定する
行動決定方法。 - シミュレーション部が、各時刻の移動物の環境を表す入力データを入力として、各時刻について、前記移動物の行動を決定するための予め学習された多層ニューラルネットワークの各要素を計算し、
学習データ取得部が、前記シミュレーション部による計算結果に基づいて、各時刻についての前記多層ニューラルネットワークの最終隠れ層の値を取得し、
モデル学習部が、前記学習データ取得部によって取得した各時刻についての前記最終隠れ層の値に基づいて、未来の時刻における前記最終隠れ層の値を予測するための未来予測モデルを学習する
未来予測モデル学習方法。 - ネットワーク学習部が、移動物の環境を表す入力データと、前記移動物の行動と、評価値とからなる教師データに基づいて、前記移動物の行動を決定するための多層ニューラルネットワークを学習し、
未来予測モデル学習部が、各時刻の移動物の環境を表す入力データを入力として、各時刻について、前記ネットワーク学習部によって学習された前記多層ニューラルネットワークの各要素を計算し、各時刻についての前記多層ニューラルネットワークの最終隠れ層の値を取得し、各時刻についての前記最終隠れ層の値に基づいて、未来の時刻における前記最終隠れ層の値を予測するための未来予測モデルを学習し、
ネットワーク再学習部が、前記教師データに含まれる前記移動物の環境を表す入力データを入力として、前記多層ニューラルネットワークの各要素を計算し、前記多層ニューラルネットワークの最終隠れ層の値と、前記未来予測モデルとに基づいて、未来の時刻における前記最終隠れ層の値を予測し、前記多層ニューラルネットワークの最終隠れ層の値と、前記予測された未来の時刻における前記最終隠れ層の値とに基づいて、前記多層ニューラルネットワークの出力層の値を推定し、推定された出力層の値と、前記教師データに含まれる前記移動物の行動及び前記評価値とに基づいて、前記多層ニューラルネットワークを再学習する
ネットワーク学習方法。 - コンピュータを、請求項1に記載の行動決定装置、請求項2に記載の未来予測モデル学習装置、又は請求項3に記載のネットワーク学習装置を構成する各部として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016106196A JP6550678B2 (ja) | 2016-05-27 | 2016-05-27 | 行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016106196A JP6550678B2 (ja) | 2016-05-27 | 2016-05-27 | 行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017211913A true JP2017211913A (ja) | 2017-11-30 |
JP6550678B2 JP6550678B2 (ja) | 2019-07-31 |
Family
ID=60474819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016106196A Active JP6550678B2 (ja) | 2016-05-27 | 2016-05-27 | 行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6550678B2 (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019124001A1 (ja) * | 2017-12-18 | 2019-06-27 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置および移動体挙動予測方法 |
JP2019164703A (ja) * | 2018-03-20 | 2019-09-26 | ヤフー株式会社 | 予測装置、予測方法、およびプログラム |
CN110518860A (zh) * | 2019-08-30 | 2019-11-29 | 长安大学 | 基于bp神经网络和开关表的永磁同步电机模型预测控制方法 |
CN110518847A (zh) * | 2019-08-30 | 2019-11-29 | 长安大学 | 基于bp神经网络的表面式永磁同步电机模型预测控制方法 |
CN110535396A (zh) * | 2019-08-30 | 2019-12-03 | 长安大学 | 基于bp神经网络的表面式永磁同步电机模型预测控制方法 |
WO2020009139A1 (ja) * | 2018-07-04 | 2020-01-09 | 株式会社Preferred Networks | 学習方法、学習装置、学習システム及びプログラム |
JP2020067913A (ja) * | 2018-10-25 | 2020-04-30 | 大日本印刷株式会社 | 状態推移予測装置、コンピュータプログラム及び学習装置 |
WO2020090419A1 (ja) * | 2018-10-29 | 2020-05-07 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置 |
WO2020246032A1 (ja) | 2019-06-07 | 2020-12-10 | 日本電信電話株式会社 | デジタルツイン演算装置、デジタルツイン演算方法、プログラム及びデータ構造 |
CN112262399A (zh) * | 2018-06-11 | 2021-01-22 | 日本电气方案创新株式会社 | 行动学习设备、行动学习方法、行动学习系统、程序以及记录介质 |
CN112256526A (zh) * | 2020-10-14 | 2021-01-22 | 中国银联股份有限公司 | 基于机器学习的数据实时监控方法以及装置 |
JP2022143969A (ja) * | 2021-03-18 | 2022-10-03 | 株式会社東芝 | データ生成装置、データ生成方法、制御装置、制御方法及びプログラム |
WO2024042586A1 (ja) * | 2022-08-22 | 2024-02-29 | 日本電信電話株式会社 | 交通分散制御システム、方法、及びプログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100094788A1 (en) * | 2007-01-02 | 2010-04-15 | Schaefer Anton Maximilian | Method for the computer-assisted control and/or regulation of a technical system |
-
2016
- 2016-05-27 JP JP2016106196A patent/JP6550678B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100094788A1 (en) * | 2007-01-02 | 2010-04-15 | Schaefer Anton Maximilian | Method for the computer-assisted control and/or regulation of a technical system |
JP2010515182A (ja) * | 2007-01-02 | 2010-05-06 | シーメンス アクチエンゲゼルシヤフト | コンピュータ支援によって技術システムを制御および/または調整する方法 |
Non-Patent Citations (1)
Title |
---|
飯田 大, 杉坂 政典, 柴田 克成: "Direct-Vision-Based 強化学習による視覚付き実移動ロボットの行動獲得", 電子情報通信学会技術研究報告, vol. 101, no. 735, JPN6019017896, 11 March 2002 (2002-03-11), JP, pages 167 - 174, ISSN: 0004036022 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019109691A (ja) * | 2017-12-18 | 2019-07-04 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置および移動体挙動予測方法 |
US11645916B2 (en) | 2017-12-18 | 2023-05-09 | Hitachi Astemo, Ltd. | Moving body behavior prediction device and moving body behavior prediction method |
WO2019124001A1 (ja) * | 2017-12-18 | 2019-06-27 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置および移動体挙動予測方法 |
JP2019164703A (ja) * | 2018-03-20 | 2019-09-26 | ヤフー株式会社 | 予測装置、予測方法、およびプログラム |
CN112262399A (zh) * | 2018-06-11 | 2021-01-22 | 日本电气方案创新株式会社 | 行动学习设备、行动学习方法、行动学习系统、程序以及记录介质 |
JP7398373B2 (ja) | 2018-07-04 | 2023-12-14 | 株式会社Preferred Networks | 制御装置、システム、制御方法、及びプログラム |
WO2020009139A1 (ja) * | 2018-07-04 | 2020-01-09 | 株式会社Preferred Networks | 学習方法、学習装置、学習システム及びプログラム |
JPWO2020009139A1 (ja) * | 2018-07-04 | 2021-07-08 | 株式会社Preferred Networks | ロボット制御装置、システム、ロボット制御方法、方策更新方法、及びニューラルネットワーク |
JP2020067913A (ja) * | 2018-10-25 | 2020-04-30 | 大日本印刷株式会社 | 状態推移予測装置、コンピュータプログラム及び学習装置 |
JP7167625B2 (ja) | 2018-10-25 | 2022-11-09 | 大日本印刷株式会社 | 状態推移予測装置、コンピュータプログラム及び学習装置 |
CN112889100B (zh) * | 2018-10-29 | 2023-01-17 | 日立安斯泰莫株式会社 | 移动体行为预测装置 |
JP2020071495A (ja) * | 2018-10-29 | 2020-05-07 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置 |
US11978345B2 (en) | 2018-10-29 | 2024-05-07 | Hitachi Astemo, Ltd. | Moving object behavior prediction device |
JP7203563B2 (ja) | 2018-10-29 | 2023-01-13 | 日立Astemo株式会社 | 移動体挙動予測装置 |
WO2020090419A1 (ja) * | 2018-10-29 | 2020-05-07 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置 |
CN112889100A (zh) * | 2018-10-29 | 2021-06-01 | 日立安斯泰莫株式会社 | 移动体行为预测装置 |
WO2020246032A1 (ja) | 2019-06-07 | 2020-12-10 | 日本電信電話株式会社 | デジタルツイン演算装置、デジタルツイン演算方法、プログラム及びデータ構造 |
CN110518860B (zh) * | 2019-08-30 | 2021-05-04 | 长安大学 | 一种永磁同步电机模型预测控制方法 |
CN110535396B (zh) * | 2019-08-30 | 2021-03-30 | 长安大学 | 基于bp神经网络的表面式永磁同步电机模型预测控制方法 |
CN110518847B (zh) * | 2019-08-30 | 2021-03-30 | 长安大学 | 基于bp神经网络的表面式永磁同步电机模型预测控制方法 |
CN110535396A (zh) * | 2019-08-30 | 2019-12-03 | 长安大学 | 基于bp神经网络的表面式永磁同步电机模型预测控制方法 |
CN110518847A (zh) * | 2019-08-30 | 2019-11-29 | 长安大学 | 基于bp神经网络的表面式永磁同步电机模型预测控制方法 |
CN110518860A (zh) * | 2019-08-30 | 2019-11-29 | 长安大学 | 基于bp神经网络和开关表的永磁同步电机模型预测控制方法 |
CN112256526B (zh) * | 2020-10-14 | 2024-02-23 | 中国银联股份有限公司 | 基于机器学习的数据实时监控方法以及装置 |
CN112256526A (zh) * | 2020-10-14 | 2021-01-22 | 中国银联股份有限公司 | 基于机器学习的数据实时监控方法以及装置 |
JP2022143969A (ja) * | 2021-03-18 | 2022-10-03 | 株式会社東芝 | データ生成装置、データ生成方法、制御装置、制御方法及びプログラム |
JP7538756B2 (ja) | 2021-03-18 | 2024-08-22 | 株式会社東芝 | データ生成装置、データ生成方法、制御装置、制御方法及びプログラム |
WO2024042586A1 (ja) * | 2022-08-22 | 2024-02-29 | 日本電信電話株式会社 | 交通分散制御システム、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6550678B2 (ja) | 2019-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6550678B2 (ja) | 行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム | |
Kahn et al. | Uncertainty-aware reinforcement learning for collision avoidance | |
JP7532615B2 (ja) | 自律型車両の計画 | |
Singla et al. | Memory-based deep reinforcement learning for obstacle avoidance in UAV with limited environment knowledge | |
CN111587408B (zh) | 机器人导航和对象跟踪 | |
JP6812538B2 (ja) | イメージ深度予測ニューラルネットワーク | |
JP7014368B2 (ja) | プログラム、方法、装置、及びコンピュータ可読記憶媒体 | |
US11511420B2 (en) | Machine learning device, robot system, and machine learning method for learning operation program of robot | |
JP7003355B2 (ja) | スパイキングニューロモーフィックコンピュータを用いる自律型ナビゲーション | |
US20190299407A1 (en) | Apparatus and methods for training path navigation by robots | |
US9463571B2 (en) | Apparatus and methods for online training of robots | |
US11992944B2 (en) | Data-efficient hierarchical reinforcement learning | |
EP3660745A1 (en) | Real time decision making for autonomous driving vehicles | |
JP7335434B2 (ja) | 後知恵モデリングを用いた行動選択ニューラルネットワークの訓練 | |
JP6840363B2 (ja) | ネットワーク学習装置、行動決定装置、ネットワーク学習方法、及びプログラム | |
US20150005937A1 (en) | Action selection apparatus and methods | |
US20210394784A1 (en) | Making time-series predictions using a trained decoder model | |
JP2006320997A (ja) | ロボット行動選択装置及びロボット行動選択方法 | |
KR102303126B1 (ko) | 사용자 선호에 따른 강화학습 기반 자율주행 최적화 방법 및 시스템 | |
CN112633463A (zh) | 用于建模序列数据中长期依赖性的双重递归神经网络架构 | |
JP2023528150A (ja) | マルチタスク強化学習におけるメタ勾配を用いたアクション選択のための学習オプション | |
Peng et al. | Enhanced Autonomous Navigation of Robots by Deep Reinforcement Learning Algorithm with Multistep Method. | |
US20240133694A1 (en) | Method and device with path distribution estimation | |
US20240143975A1 (en) | Neural network feature extractor for actor-critic reinforcement learning models | |
US12112622B2 (en) | Systems and methods for heterogeneous multi-agent multi-modal trajectory prediction with evolving interaction graphs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6550678 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |