JP6610278B2 - 機械学習装置、機械学習方法及び機械学習プログラム - Google Patents
機械学習装置、機械学習方法及び機械学習プログラム Download PDFInfo
- Publication number
- JP6610278B2 JP6610278B2 JP2016006808A JP2016006808A JP6610278B2 JP 6610278 B2 JP6610278 B2 JP 6610278B2 JP 2016006808 A JP2016006808 A JP 2016006808A JP 2016006808 A JP2016006808 A JP 2016006808A JP 6610278 B2 JP6610278 B2 JP 6610278B2
- Authority
- JP
- Japan
- Prior art keywords
- error
- channel
- value
- output
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Description
図4に、本実施の形態における情報処理装置1の機能ブロック図を示す。情報処理装置1は、入力データ格納部101と、ラベルデータ格納部102と、計算結果格納部103と、パラメタ格納部104と、算出部105と、第1学習処理部106と、第2学習処理部107と、第3学習処理部108とを含む。
第1の実施の形態の第2学習処理においては出力層の誤差の値を乱数で置換しているが、他の部分を乱数で置換してもよい。例えば、チャネルlc(lは1≦l≦kを満たす自然数)における第p層(pは1以上の自然数)と第(p+1)層とをつなぐ重み行列をWl pと表すとする。このとき、図27に示すように、Wl pの各要素を0から予め定められた値までの範囲内における乱数に置換した重み行列であるWl pチルダに置き換えてもよい。このような方法であっても、第1の実施の形態と同様、ブロックドロップアウトの対象であるチャネルについて学習を進めることができるようになる。
第2の実施の形態の第2学習処理においては、重み行列Wl pを乱数の行列に置き換えているが、重み行列の誤差を乱数の行列に置き換えてもよい。例えば、重み行列Wl pの誤差の行列Wl pバーの各要素を、0から予め定められた値までの範囲内における乱数に置換してもよい。このとき、図28に示すように、Wl pを、Wl p−Wl pバーで更新してもよい。このような方法であっても、第1及び第2の実施の形態と同様、ブロックドロップアウトの対象であるチャネルについて学習を進めることができるようになる。
第1の実施の形態の第3学習処理においては、ブロックドロップアウトの対象であるチャネル(ここでは、チャネル1cとする)について学習を行い、ブロックドロップアウトの対象ではないチャネル(ここでは、チャネル2c乃至kcとする)については学習を行わない。これは、図29に示すように、ブロックドロップアウトの対象であるチャネルがチャネル2c乃至kcとし、通常どおりブロックドロップアウトの対象ではないチャネル1cについて学習を行うことと同等である。よって、|ea−eb|<tが成立する場合には、ブロックドロップアウトの対象となるチャネルの選択を逆にしてもよい。
第4の実施の形態においては、|ea−eb|<tが成立する場合にブロックドロップアウトの対象となるチャネルの選択を逆にしているが、学習を全く行わず、次の入力データの処理に移行してもよい。このようにすれば、ブロックドロップアウトの対象ではないチャネル(ここでは、チャネル2c乃至kcとする)について学習が行われることを防ぐことができる。
コンピュータに、
並列型ニューラルネットワークにおける複数のチャネルのうち第1のチャネルの最終層の値に対して0で置換する処理であるドロップアウトを実行した場合の出力と、ラベルとの誤差である第1の出力誤差を算出し、
前記第1のチャネルの最終層の値に対して前記ドロップアウトを実行しない場合の出力と、前記ラベルとの誤差である第2の出力誤差を算出し、
前記第1の出力誤差と前記第2の出力誤差との差に基づき、前記複数のチャネルから1又は複数のチャネルを特定し、特定した前記1又は複数のチャネルのパラメタを更新する、
処理を実行させる機械学習プログラム。
前記コンピュータに、
出力層の値の少なくともひとつに対して前記ドロップアウトを実行する、
処理をさらに実行させる付記1記載の機械学習プログラム。
前記1又は複数のチャネルのパラメタを更新する処理において、
前記第1の出力誤差から前記第2の出力誤差を差し引いた値が閾値より大きい場合、前記第1のチャネル以外のチャネルである第2のチャネルのパラメタについて第1の更新処理を実行し、
前記第1の出力誤差から前記第2の出力誤差を差し引いた値の絶対値が前記閾値以下である場合、前記第1のチャネルのパラメタ及び前記第2のチャネルのパラメタについて第2の更新処理を実行し、
前記第2の出力誤差から前記第1の出力誤差を差し引いた値が前記閾値より大きい場合、前記第1のチャネルのパラメタについて第3の更新処理を実行する、
付記1又は2記載の機械学習プログラム。
前記第2の更新処理において、
前記第1の出力誤差と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第2のチャネルのパラメタを更新し、
所定の方法で求められた範囲における乱数の値と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第2の誤差を算出し、
前記第2の誤差に基づき、誤差逆伝播法によって、前記第1のチャネルのパラメタを更新する、
付記3記載の機械学習プログラム。
前記第2の更新処理において、
前記第1の出力誤差と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第2のチャネルのパラメタを更新し、
前記第1のチャネルの最終層の値から出力層の値を算出するためのパラメタと、前記第1のチャネルのパラメタとを、乱数で置換する、
付記3記載の機械学習プログラム。
前記第2の更新処理において、
前記第1の出力誤差と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第2のチャネルのパラメタを更新し、
前記第1のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差と、前記第1のチャネルのパラメタの誤差とを、乱数で置換し、
置換された前記第1のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差と、置換された前記第1のチャネルのパラメタの誤差とによって、前記第1のチャネルの最終層の値から出力層の値を算出するためのパラメタと前記第1のチャネルのパラメタとを更新する、
付記3記載の機械学習プログラム。
前記第3の更新処理において、
前記第2の出力誤差と、前記第1のチャネルの最終層の値及び前記ドロップアウトが実行された前記第2のチャネルの最終層の値とから、当該最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第1のチャネルのパラメタを更新する、
付記3記載の機械学習プログラム。
前記第3の更新処理において、
前記第1のチャネルのパラメタを維持し、
前記コンピュータに、
前記第1のチャネルの最終層の値に対して前記ドロップアウトを実行せず且つ前記第2のチャネルの最終層の値に対して前記ドロップアウトを実行した場合の出力を計算する、
処理をさらに実行させる付記3記載の機械学習プログラム。
前記第3の更新処理において、
前記第1のチャネルのパラメタを維持し、
前記コンピュータに、
次の入力に対する処理を開始する、
処理をさらに実行させる付記3記載の機械学習プログラム。
前記第1の更新処理において、
前記第1の出力誤差と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第2のチャネルのパラメタを更新する、
付記3記載の機械学習プログラム。
コンピュータが、
並列型ニューラルネットワークにおける複数のチャネルのうち第1のチャネルの最終層の値に対して0で置換する処理であるドロップアウトを実行した場合の出力と、ラベルとの誤差である第1の出力誤差を算出し、
前記第1のチャネルの最終層の値に対して前記ドロップアウトを実行しない場合の出力と、前記ラベルとの誤差である第2の出力誤差を算出し、
前記第1の出力誤差と前記第2の出力誤差との差に基づき、前記複数のチャネルから1又は複数のチャネルを特定し、特定した前記1又は複数のチャネルのパラメタを更新する、
処理を実行する機械学習方法。
並列型ニューラルネットワークにおける複数のチャネルのうち第1のチャネルの最終層の値に対して0で置換する処理であるドロップアウトを実行した場合の出力と、ラベルとの誤差である第1の出力誤差を算出し、前記第1のチャネルの最終層の値に対して前記ドロップアウトを実行しない場合の出力と、前記ラベルとの誤差である第2の出力誤差を算出する算出部と、
前記第1の出力誤差と前記第2の出力誤差との差に基づき、前記複数のチャネルから1又は複数のチャネルを特定し、特定した前記1又は複数のチャネルのパラメタを更新する更新部と、
を有する機械学習装置。
102 ラベルデータ格納部 103 計算結果格納部
104 パラメタ格納部 105 算出部
106 第1学習処理部 107 第2学習処理部
108 第3学習処理部
Claims (12)
- コンピュータに、
並列型ニューラルネットワークにおける複数のチャネルのうち第1のチャネルの最終層の値に対して0で置換する処理であるドロップアウトを実行した場合の出力と、ラベルとの誤差である第1の出力誤差を算出し、
前記第1のチャネルの最終層の値に対して前記ドロップアウトを実行しない場合の出力と、前記ラベルとの誤差である第2の出力誤差を算出し、
前記第1の出力誤差と前記第2の出力誤差との差に基づき、前記複数のチャネルから1又は複数のチャネルを特定し、特定した前記1又は複数のチャネルのパラメタを更新する、
処理を実行させる機械学習プログラム。 - 前記コンピュータに、
出力層の値の少なくともひとつに対して前記ドロップアウトを実行する、
処理をさらに実行させる請求項1記載の機械学習プログラム。 - 前記1又は複数のチャネルのパラメタを更新する処理において、
前記第1の出力誤差から前記第2の出力誤差を差し引いた値が閾値より大きい場合、前記第1のチャネル以外のチャネルである第2のチャネルのパラメタについて第1の更新処理を実行し、
前記第1の出力誤差から前記第2の出力誤差を差し引いた値の絶対値が前記閾値以下である場合、前記第1のチャネルのパラメタ及び前記第2のチャネルのパラメタについて第2の更新処理を実行し、
前記第2の出力誤差から前記第1の出力誤差を差し引いた値が前記閾値より大きい場合、前記第1のチャネルのパラメタについて第3の更新処理を実行する、
請求項1又は2記載の機械学習プログラム。 - 前記第2の更新処理において、
前記第1の出力誤差と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第2のチャネルのパラメタを更新し、
所定の方法で求められた範囲における乱数の値と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第2の誤差を算出し、
前記第2の誤差に基づき、誤差逆伝播法によって、前記第1のチャネルのパラメタを更新する、
請求項3記載の機械学習プログラム。 - 前記第2の更新処理において、
前記第1の出力誤差と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第2のチャネルのパラメタを更新し、
前記第1のチャネルの最終層の値から出力層の値を算出するためのパラメタと、前記第1のチャネルのパラメタとを、乱数で置換する、
請求項3記載の機械学習プログラム。 - 前記第2の更新処理において、
前記第1の出力誤差と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第2のチャネルのパラメタを更新し、
前記第1のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差と、前記第1のチャネルのパラメタの誤差とを、乱数で置換し、
置換された前記第1のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差と、置換された前記第1のチャネルのパラメタの誤差とによって、前記第1のチャネルの最終層の値から出力層の値を算出するためのパラメタと前記第1のチャネルのパラメタとを更新する、
請求項3記載の機械学習プログラム。 - 前記第3の更新処理において、
前記第2の出力誤差と、前記第1のチャネルの最終層の値及び前記ドロップアウトが実行された前記第2のチャネルの最終層の値とから、当該最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第1のチャネルのパラメタを更新する、
請求項3記載の機械学習プログラム。 - 前記第3の更新処理において、
前記第1のチャネルのパラメタを維持し、
前記コンピュータに、
前記第1のチャネルの最終層の値に対して前記ドロップアウトを実行せず且つ前記第2のチャネルの最終層の値に対して前記ドロップアウトを実行した場合の出力を計算する、
処理をさらに実行させる請求項3記載の機械学習プログラム。 - 前記第3の更新処理において、
前記第1のチャネルのパラメタを維持し、
前記コンピュータに、
次の入力に対する処理を開始する、
処理をさらに実行させる請求項3記載の機械学習プログラム。 - 前記第1の更新処理において、
前記第1の出力誤差と、前記第1及び第2のチャネルの最終層の値とから、前記第1及び第2のチャネルの最終層の値から出力層の値を算出するためのパラメタの誤差である第1の誤差を算出し、
前記第1の誤差に基づき、誤差逆伝播法によって、前記第2のチャネルのパラメタを更新する、
請求項3記載の機械学習プログラム。 - コンピュータが、
並列型ニューラルネットワークにおける複数のチャネルのうち第1のチャネルの最終層の値に対して0で置換する処理であるドロップアウトを実行した場合の出力と、ラベルとの誤差である第1の出力誤差を算出し、
前記第1のチャネルの最終層の値に対して前記ドロップアウトを実行しない場合の出力と、前記ラベルとの誤差である第2の出力誤差を算出し、
前記第1の出力誤差と前記第2の出力誤差との差に基づき、前記複数のチャネルから1又は複数のチャネルを特定し、特定した前記1又は複数のチャネルのパラメタを更新する、
処理を実行する機械学習方法。 - 並列型ニューラルネットワークにおける複数のチャネルのうち第1のチャネルの最終層の値に対して0で置換する処理であるドロップアウトを実行した場合の出力と、ラベルとの誤差である第1の出力誤差を算出し、前記第1のチャネルの最終層の値に対して前記ドロップアウトを実行しない場合の出力と、前記ラベルとの誤差である第2の出力誤差を算出する算出部と、
前記第1の出力誤差と前記第2の出力誤差との差に基づき、前記複数のチャネルから1又は複数のチャネルを特定し、特定した前記1又は複数のチャネルのパラメタを更新する更新部と、
を有する機械学習装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016006808A JP6610278B2 (ja) | 2016-01-18 | 2016-01-18 | 機械学習装置、機械学習方法及び機械学習プログラム |
US15/383,195 US10635975B2 (en) | 2016-01-18 | 2016-12-19 | Method and apparatus for machine learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016006808A JP6610278B2 (ja) | 2016-01-18 | 2016-01-18 | 機械学習装置、機械学習方法及び機械学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017129896A JP2017129896A (ja) | 2017-07-27 |
JP6610278B2 true JP6610278B2 (ja) | 2019-11-27 |
Family
ID=59313892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016006808A Active JP6610278B2 (ja) | 2016-01-18 | 2016-01-18 | 機械学習装置、機械学習方法及び機械学習プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10635975B2 (ja) |
JP (1) | JP6610278B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10157333B1 (en) | 2015-09-15 | 2018-12-18 | Snap Inc. | Systems and methods for content tagging |
US11468290B2 (en) * | 2016-06-30 | 2022-10-11 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
US11334768B1 (en) | 2016-07-05 | 2022-05-17 | Snap Inc. | Ephemeral content management |
KR101863196B1 (ko) * | 2017-07-24 | 2018-06-01 | 한국생산기술연구원 | 딥러닝 기반 표면 결함 검출장치 및 방법 |
CN107516075B (zh) * | 2017-08-03 | 2020-10-09 | 安徽华米智能科技有限公司 | 心电信号的检测方法、装置及电子设备 |
EP3660690A4 (en) * | 2017-11-30 | 2020-08-12 | SZ DJI Technology Co., Ltd. | CALCULATION UNIT, CALCULATION SYSTEM AND ORDERING PROCEDURE FOR CALCULATION UNIT |
US11423284B2 (en) * | 2018-09-07 | 2022-08-23 | Black Sesame Technologies, Inc | Subgraph tile fusion in a convolutional neural network |
US11580403B2 (en) * | 2018-10-04 | 2023-02-14 | Rorry Brenner | System, method, and computer program product for perforated backpropagation in an artificial neural network |
US20220179321A1 (en) * | 2019-03-25 | 2022-06-09 | Asml Netherlands B.V. | Method for determining pattern in a patterning process |
US11610077B2 (en) * | 2019-05-10 | 2023-03-21 | Paypal, Inc. | Systems and methods for integrated multi-factor multi-label analysis |
JP7452990B2 (ja) | 2019-11-29 | 2024-03-19 | 東京エレクトロン株式会社 | 異常検知装置、異常検知方法及び異常検知プログラム |
JP7412150B2 (ja) | 2019-11-29 | 2024-01-12 | 東京エレクトロン株式会社 | 予測装置、予測方法及び予測プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02100757A (ja) * | 1988-10-07 | 1990-04-12 | Ricoh Co Ltd | 並列ニューラルネットワーク学習方式 |
JPH03246747A (ja) * | 1990-02-26 | 1991-11-05 | Fujitsu Ltd | ネットワーク構成データ処理装置の学習処理方式 |
JPH0793160A (ja) * | 1993-09-20 | 1995-04-07 | Toshiba Corp | 推論装置 |
JP3367214B2 (ja) * | 1994-08-24 | 2003-01-14 | 株式会社日立製作所 | ニューラルネット制御方法及び装置 |
US9811775B2 (en) | 2012-12-24 | 2017-11-07 | Google Inc. | Parallelizing neural networks during training |
US9406017B2 (en) | 2012-12-24 | 2016-08-02 | Google Inc. | System and method for addressing overfitting in a neural network |
GB201402736D0 (en) * | 2013-07-26 | 2014-04-02 | Isis Innovation | Method of training a neural network |
US10373054B2 (en) * | 2015-04-19 | 2019-08-06 | International Business Machines Corporation | Annealed dropout training of neural networks |
-
2016
- 2016-01-18 JP JP2016006808A patent/JP6610278B2/ja active Active
- 2016-12-19 US US15/383,195 patent/US10635975B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017129896A (ja) | 2017-07-27 |
US10635975B2 (en) | 2020-04-28 |
US20170206450A1 (en) | 2017-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6610278B2 (ja) | 機械学習装置、機械学習方法及び機械学習プログラム | |
CN111126574B (zh) | 基于内镜图像对机器学习模型进行训练的方法、装置和存储介质 | |
US10949746B2 (en) | Efficient parallel training of a network model on multiple graphics processing units | |
JP6635265B2 (ja) | 予測装置、予測方法および予測プログラム | |
CN111523686B (zh) | 一种模型联合训练的方法和系统 | |
US20230196202A1 (en) | System and method for automatic building of learning machines using learning machines | |
US11449734B2 (en) | Neural network reduction device, neural network reduction method, and storage medium | |
CN111989696A (zh) | 具有顺序学习任务的域中的可扩展持续学习的神经网络 | |
JP2011243088A (ja) | データ処理装置、データ処理方法、及び、プログラム | |
CN113128478B (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
KR102036968B1 (ko) | 전문화에 기반한 신뢰성 높은 딥러닝 앙상블 방법 및 장치 | |
CN112101207B (zh) | 一种目标跟踪方法、装置、电子设备及可读存储介质 | |
CN111373418A (zh) | 学习设备和学习方法、识别设备和识别方法、程序和记录介质 | |
EP4343616A1 (en) | Image classification method, model training method, device, storage medium, and computer program | |
JP7382633B2 (ja) | 学習モデル構築装置、学習モデル構築方法及びコンピュータプログラム | |
CN111630530B (zh) | 数据处理系统、数据处理方法和计算机可读存储介质 | |
CN114792387A (zh) | 图像恢复方法和设备 | |
JP7021132B2 (ja) | 学習装置、学習方法およびプログラム | |
WO2020065908A1 (ja) | パターン認識装置、パターン認識方法およびパターン認識プログラム | |
US20230086727A1 (en) | Method and information processing apparatus that perform transfer learning while suppressing occurrence of catastrophic forgetting | |
JP7413528B2 (ja) | 学習済モデル生成システム、学習済モデル生成方法、情報処理装置、プログラム、および推定装置 | |
KR102424538B1 (ko) | 영상 복원 방법 및 장치 | |
JP7055211B2 (ja) | データ処理システムおよびデータ処理方法 | |
CN116187473B (zh) | 联邦学习方法、装置、电子设备和计算机可读存储介质 | |
JP6942204B2 (ja) | データ処理システムおよびデータ処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191014 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6610278 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |