JP7342544B2 - 学習プログラムおよび学習方法 - Google Patents
学習プログラムおよび学習方法 Download PDFInfo
- Publication number
- JP7342544B2 JP7342544B2 JP2019164006A JP2019164006A JP7342544B2 JP 7342544 B2 JP7342544 B2 JP 7342544B2 JP 2019164006 A JP2019164006 A JP 2019164006A JP 2019164006 A JP2019164006 A JP 2019164006A JP 7342544 B2 JP7342544 B2 JP 7342544B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- calculation
- node
- statistical information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/02—Computing arrangements based on specific mathematical models using fuzzy logic
- G06N7/06—Simulation on general purpose computers
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Automation & Control Theory (AREA)
- Fuzzy Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Neurology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
- Complex Calculations (AREA)
Description
実施例1にかかる情報処理装置10は、深層学習などの機能を提供する機械学習フレームワークを用いて、機械学習のモデル構築を実行するコンピュータの一例である。機械学習のモデルで使用される計算モデル(ニューラルネットワーク)の構築には、「Define and Run(静的な計算グラフ)」と「Define by Run(動的な計算グラフ)」の2つの手法が利用される。
次に、ユーザが情報処理装置10を利用して計算モデルを学習する際のフローを説明する。図2は、実施例1にかかるユーザの利用シーンの流れを示すフローチャートである。図2に示すように、ユーザが解きたい問題に関する情報を情報処理装置10に入力すると(S101)、情報処理装置10は、一般的な機械学習アルゴリズムを用いて、入力された情報から計算グラフおよび演算経路を決定する(S102)。
図3は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図3に示すように、情報処理装置10は、学習データ記憶部11、深層学習フレームワーク実行部20、深層学習専用演算部30を有する。
次に、各ノードの演算時に実行される処理について説明する。ここでは、ハッシュ値の生成、ノードにおける演算について説明する。
図5は、各ノードにおけるハッシュ値の生成を説明する図である。図5では、ノードCについて統計情報とキーの対応付けを生成する例を説明する。ノードC(Add_1)では、関数f、変数をIn1、In2、add、scaleを変数とする関数fが実行されて、「scale・(In1+In2)」が出力される。
図6は、各ノードにおける演算を説明する図である。図6に示す横軸は、計算グラフの演算方向を示し、縦軸は、イテレーション方向を示す。図6では、各ノードにおいて、入力テンソルの情報から出力テンソルで利用するQ値を取得してDLINT演算が行われる一連の流れを説明する。なお、Q値は、統計情報から求まる値であり、DLINT演算の小数点位置の決定に利用される。
次に、情報処理装置10が実行する各処理について説明する。まず、全体的な流れを説明した後に、詳細な流れを説明する。図7は、実施例1にかかる学習処理の全体的な流れを示すフローチャートである。
図8は、実施例1にかかるノード内で実行される処理の基本的な流れを示すフローチャートである。図8に示すように、深層学習フレームワーク実行部20は、該当ノードに設定されている演算内容の決定や演算種類の取得などを行う演算定義を取得する(S301)。
図9は、実施例1にかかる各ノードで実行される処理の流れを示すフローチャートである。図9に示すように、深層学習フレームワーク実行部20は、計算グラフを読み込むと(S401)、処理対象のノードに設定される演算の種類や演算パラメータを取得する(S402)。
図10は、実施例1にかかる各ノードにおける演算処理の流れを示すフローチャートである。図10に示すように、深層学習フレームワーク実行部20は、入力テンソルのキーと演算の種類や演算パラメータなどからハッシュ値を生成する(S501)。そして、深層学習フレームワーク実行部20は、ハッシュ値をキーとする統計情報が統計情報DB21に登録されているか否かを判定する(S502)。
図11は、実施例1にかかる各ノードの詳細な処理の流れを示すフローチャートである。ここでは、DLINT演算を行う本学習について説明する。図11に示すように、「Define by Run」による定義情報から、演算種別、演算パラメータ、初期ハッシュ値を取得し、これらを用いてハッシュ値が生成される。
一般的に、グラフが動的に変化する場合、過去に一度も実行されたことのないノードであれば該当する統計情報が存在せず参照できない。一方で、情報処理装置10は、各ノードで実行される演算をイテレーション間で正しく対応付けを行うことで適切な統計情報を参照し、固定小数点の位置を調整することができる。また、情報処理装置10は、計算グラフやノードが変化した場合においても、正しく統計情報を参照し、計算グラフが動的に変わらない場合と同様に学習を行うことができる。
「Define and Run」は、計算グラフの定義が演算と独立して行われるので、フレームワークが演算のフェーズに入ると計算グラフの構造が変化することはない。この場合は、統計情報を保存するデータベースへのアクセスキーとして演算の構造情報を用いる。つまり、実施例2では、各演算をどの計算グラフ上のどのノードの何番目の演算なのかを厳密に構造化し、その構造の情報から一意なキーを生成して統計情報と紐づけることで参照を可能とする。
次に、ユーザが実施例2にかかる計算モデルを学習する際のフローを説明する。図14は、実施例2にかかるユーザの利用シーンの流れを示すフローチャートである。図14に示すように、ユーザが解きたい問題に関する情報を情報処理装置10に入力すると(S601)、情報処理装置10は、一般的な機械学習アルゴリズムによる「Define and Run」に基づき、入力された情報から計算グラフおよび演算経路を決定する(S602)。
図15は、実施例2にかかるノード内で実行される処理の基本的な流れを示すフローチャートである。図15に示すように、情報処理装置10の深層学習フレームワーク実行部20は、処理が開始されると、入力テンソルから統計情報を取得し(S701)、グラフ名やノード名などの計算グラフの構造情報を取得する(S702)。
一般的に、計算グラフの規模が大きくなった場合に、過去のイテレーションの演算と現在のイテレーションの演算を対応付けて管理することが困難になる。一方で、実施例2にかかる情報処理装置10は、統計情報を管理するデータベースを構築することによって、イテレーションを跨いで演算を対応付け統計情報を参照することができる。したがって、実施例2にかかる情報処理装置10は、メモリ容量の削減を行いつつ、精度の高い学習を実現することができる。
図17は、実施例3にかかる動的な計算グラフに対する統計情報の管理を説明する図である。図17に示すように、イテレーション=2499における計算グラフは、Input1、Input2、Add、Outputのノードで構成される。具体的には、ノード「Add」は、ノード「Input1」とノード「Input2」とから入力された入力テンソルに対して演算(Add)を実行し、ノード「Output」に出力する。ここで、ノード「Input1」ではハッシュ値「hash1」が生成され、ノード「Input2」ではハッシュ値「hash2」が生成される。ノード「Add」では、ノード「Input1」のハッシュ値「hash1」とノード「Input2」のハッシュ値「hash2」とを用いて、ハッシュ値「hash3」が生成される。ノード「Output」では、ノード「Add」のハッシュ値「hash3」を用いて、ハッシュ値「hash4」が生成される。
Define and Runで構築された計算グラフでも演算に用いるパラメータや入力テンソルによってノード内の計算が変わる場合が存在する。このとき、ノード内においてもノード外と同様に「経路によるキー」を生成することによって、適切な統計情報を参照することができる。
次に、図19から図21を用いて、実行状態に基づき演算方式の判定の具体例を説明する。図19から図21の例は、いずれもノードA、ノードB、ノードC、ノードDから構成され、ノードDには、ノードA→ノードB→ノードDの演算経路と、ノードA→ノードC→ノードDの演算経路とが存在する。
上記実施例で用いたデータ例、数値例、表示例等は、あくまで一例であり、任意に変更することができる。また、ノードの数や種類も一例であり、任意に変更することができる。上記実施例で説明した各手法は、ニューラルネットワークを含む様々な深層学習に適用することができる。
例えば、実施例3で説明した各手法において、FLOATと判断されたノード以降のノードもFLOATと判定される。また、統計情報DB21に該当するハッシュ値がない場合は、その演算経路は過去に通ったことのない経路であり、参照すべき統計情報が存在しないことになる。その場合は、DLINT演算が不可能であるため、データ型を変換し、浮動小数点で演算を行う。演算後、テンソルが持つ値から統計情報を取得し、このノードで新たに発行したキーとペアでデータベースに登録する。このとき、これ以降の経路はすべて統計情報DB21に存在しない経路となるため、この経路上のこれ以降の計算は浮動小数点のまま計算を行うこととなる。
上述したハッシュ値の算出には、例えば計算ノードの名前、各入力テンソルのもつキー、演算に必要なパラメータのうち統計情報の影響を与えうるもの、出力テンソルのインデックスなどを用いることができる。なお、出力インデックスは、複数の出力をもつ演算の場合にこれらを区別するために用いる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
次に、情報処理装置10のハードウェア構成例を説明する。図22は、ハードウェア構成例を示す図である。図22に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図22に示した各部は、バス等で相互に接続される。
11 学習データ記憶部
20 深層学習フレームワーク実行部
21 統計情報DB
22 学習データ読込部
23 実行状態制御部
23a データ読込制御部
23b アクセスキー生成部
23c 演算指示部
24 演算部
25 データベース管理部
25a アクセスキー存在判定部
25b データベース更新部
30 深層学習専用演算部
Claims (7)
- コンピュータに、
複数のノードを有する深層学習の対象である計算モデルの学習時に、前記学習時よりも前の各学習の段階でテンソルが辿った演算経路を示す経路情報と、前記演算経路で使用された小数点の位置に関する統計情報とが対応付けられた記憶部を参照し、
前記学習時において前記複数のノードそれぞれに設定される各演算処理を実行する場合に、前記複数のノードそれぞれに至る前記経路情報に対応する前記統計情報を取得し、
取得された前記統計情報により特定される小数点の位置を用いて、前記各演算処理を実行する
処理を実行させることを特徴とする学習プログラム。 - 前記計算モデルが学習の段階で構造が変化する動的なモデルの場合、前記経路情報と前記統計情報とを対応付けて前記記憶部に格納し、前記計算モデルが学習の段階で構造が変化しない静的なモデルの場合、前記複数のノードを特定する各識別情報と前記統計情報とを対応付けて前記記憶部に格納する、処理を前記コンピュータに実行させ、
前記取得する処理は、前記動的なモデルの学習時には前記経路情報の生成を実行し、前記静的なモデルの学習時には前記各識別情報の生成を実行する、ことを特徴とする請求項1に記載の学習プログラム。 - ノードに入力される入力テンソルに関する情報と、前記ノードで実行される演算処理に関する情報とを用いてハッシュ値を算出し、
前記ノードで使用された前記統計情報を取得し、
前記ハッシュ値と前記統計情報とを対応付けて、前記記憶部に格納する、処理を前記コンピュータに実行させ、
前記取得する処理は、処理対象のノードに入力される入力テンソルと前記処理対象のノードで実行される前記演算処理に関する情報とを用いてハッシュ値を算出し、前記ハッシュ値に対応する前記統計情報を取得して、前記演算処理を実行することを特徴とする請求項1または2に記載の学習プログラム。 - 前記計算モデルの学習段階を判定する処理を前記コンピュータに実行させ、
前記実行する処理は、前記計算モデルの学習段階が第一の段階では、浮動小数点演算を用いて、前記複数のノードそれぞれの各演算処理を実行し、前記計算モデルの学習段階が前記第一の段階よりも後半である第二段階では、各統計情報により特定される小数点位置を設定した固定小数点演算を用いて、前記複数のノードそれぞれの各演算処理を実行することを特徴とする請求項1から3のいずれか一つに記載の学習プログラム。 - 前記複数のノードそれぞれの実行状態を判定する処理を前記コンピュータに実行させ、
前記実行する処理は、前記実行状態が所定の条件を満たさないノードについては、前記第二段階であっても前記固定小数点演算を抑制し、前記浮動小数点演算を用いて演算処理を実行することを特徴とする請求項4に記載の学習プログラム。 - 前記判定する処理は、前記実行状態として、前記学習時までに前記経路情報により特定される経路を通った回数、前記統計情報が最後の更新された最終更新時、または、前記演算処理の正否を判定し、
前記実行する処理は、前記回数が閾値未満、現学習時と前記最終更新時との差が閾値以上、または、前記演算処理が異常状態の場合に、前記固定小数点演算を抑制し、前記浮動小数点演算を用いて演算処理を実行することを特徴とする請求項5に記載の学習プログラム。 - コンピュータが、
複数のノードを有する深層学習の対象である計算モデルの学習時に、前記学習時よりも前の各学習の段階でテンソルが辿った演算経路を示す経路情報と、前記演算経路で使用された小数点の位置に関する統計情報とが対応付けられた記憶部を参照し、
前記学習時において前記複数のノードそれぞれに設定される各演算処理を実行する場合に、前記複数のノードそれぞれに至る前記経路情報に対応する前記統計情報を取得し、
取得された前記統計情報により特定される小数点の位置を用いて、前記各演算処理を実行する
処理を実行することを特徴とする学習方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019164006A JP7342544B2 (ja) | 2019-09-09 | 2019-09-09 | 学習プログラムおよび学習方法 |
EP20187391.6A EP3792837A1 (en) | 2019-09-09 | 2020-07-23 | Learning program and learning method |
US16/942,821 US11676054B2 (en) | 2019-09-09 | 2020-07-30 | Computer-readable recording medium recording learning program and learning method |
CN202010818106.8A CN112465105B (zh) | 2019-09-09 | 2020-08-14 | 记录学习程序的计算机可读记录介质以及学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019164006A JP7342544B2 (ja) | 2019-09-09 | 2019-09-09 | 学習プログラムおよび学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043601A JP2021043601A (ja) | 2021-03-18 |
JP7342544B2 true JP7342544B2 (ja) | 2023-09-12 |
Family
ID=71783895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019164006A Active JP7342544B2 (ja) | 2019-09-09 | 2019-09-09 | 学習プログラムおよび学習方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11676054B2 (ja) |
EP (1) | EP3792837A1 (ja) |
JP (1) | JP7342544B2 (ja) |
CN (1) | CN112465105B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210232969A1 (en) * | 2018-12-24 | 2021-07-29 | Intel Corporation | Methods and apparatus to process a machine learning model in a multi-process web browser environment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057249A (ja) | 2017-09-22 | 2019-04-11 | 富士通株式会社 | 演算処理装置および演算処理方法 |
US20190130255A1 (en) | 2017-11-02 | 2019-05-02 | Samsung Electronics Co., Ltd. | Method and apparatus for generating fixed-point type neural network |
JP2019148896A (ja) | 2018-02-26 | 2019-09-05 | 富士通株式会社 | 演算処理装置、情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9672041B2 (en) * | 2013-08-01 | 2017-06-06 | Andes Technology Corporation | Method for compressing variable-length instructions including PC-relative instructions and processor for executing compressed instructions using an instruction table |
CN106951425A (zh) * | 2016-01-07 | 2017-07-14 | 阿里巴巴集团控股有限公司 | 一种映射方法和设备 |
JP6561877B2 (ja) | 2016-03-01 | 2019-08-21 | 株式会社デンソー | 演算処理装置 |
DE102018110687A1 (de) * | 2017-05-05 | 2018-11-08 | Intel Corporation | Dynamisches Genauigkeitsmanagement für Deep-Learning-Ganzzahlprimitive |
US10643297B2 (en) * | 2017-05-05 | 2020-05-05 | Intel Corporation | Dynamic precision management for integer deep learning primitives |
KR102601604B1 (ko) | 2017-08-04 | 2023-11-13 | 삼성전자주식회사 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
KR20190044878A (ko) | 2017-10-23 | 2019-05-02 | 삼성전자주식회사 | 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 |
US10445250B2 (en) * | 2017-12-30 | 2019-10-15 | Intel Corporation | Apparatus, methods, and systems with a configurable spatial accelerator |
CN109948242A (zh) * | 2019-03-18 | 2019-06-28 | 西安电子科技大学 | 基于特征哈希的网络表示学习方法 |
CN110188209B (zh) * | 2019-05-13 | 2021-06-04 | 山东大学 | 基于层次标签的跨模态哈希模型构建方法、搜索方法及装置 |
-
2019
- 2019-09-09 JP JP2019164006A patent/JP7342544B2/ja active Active
-
2020
- 2020-07-23 EP EP20187391.6A patent/EP3792837A1/en active Pending
- 2020-07-30 US US16/942,821 patent/US11676054B2/en active Active
- 2020-08-14 CN CN202010818106.8A patent/CN112465105B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057249A (ja) | 2017-09-22 | 2019-04-11 | 富士通株式会社 | 演算処理装置および演算処理方法 |
US20190130255A1 (en) | 2017-11-02 | 2019-05-02 | Samsung Electronics Co., Ltd. | Method and apparatus for generating fixed-point type neural network |
JP2019148896A (ja) | 2018-02-26 | 2019-09-05 | 富士通株式会社 | 演算処理装置、情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11676054B2 (en) | 2023-06-13 |
CN112465105B (zh) | 2024-06-14 |
US20210073666A1 (en) | 2021-03-11 |
EP3792837A1 (en) | 2021-03-17 |
CN112465105A (zh) | 2021-03-09 |
JP2021043601A (ja) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200257543A1 (en) | Aggregate Features For Machine Learning | |
Shmulevich et al. | Probabilistic Boolean networks: a rule-based uncertainty model for gene regulatory networks | |
Karmitsa et al. | Limited memory bundle method for large bound constrained nonsmooth optimization: convergence analysis | |
Bien et al. | Non-convex global minimization and false discovery rate control for the TREX | |
CN111985631B (zh) | 信息处理设备、信息处理方法及计算机可读记录介质 | |
JP7342544B2 (ja) | 学習プログラムおよび学習方法 | |
CN113408693A (zh) | 识别图像的方法和设备 | |
CN105404635B (zh) | 字符串匹配的方法、设备和异构计算系统 | |
Osorio et al. | A BF16 FMA is all you need for DNN training | |
US20220076121A1 (en) | Method and apparatus with neural architecture search based on hardware performance | |
CN111832693A (zh) | 神经网络层运算、模型训练方法、装置及设备 | |
JP2021170330A (ja) | システムのローカルフィールド行列の更新 | |
JP2022163431A (ja) | 計算機システム及び予測プログラムの評価方法 | |
Liu | Optimal algorithms and the BFGS updating techniques for solving unconstrained nonlinear minimization problems | |
JP7339923B2 (ja) | 材料の特性値を推定するシステム | |
JP2008129914A (ja) | ソフトウェア検証用モデル生成装置、及びソフトウェア検証用モデル生成方法 | |
Posthoff et al. | The solution of SAT problems using ternary vectors and parallel processing | |
JP2023544560A (ja) | 文字認識における制約条件を強制するためのシステムおよび方法 | |
JPWO2013114911A1 (ja) | リスク評価システム、リスク評価方法、及びプログラム | |
JP2022007311A (ja) | 学習モデルからの情報漏洩リスクを評価するシステム | |
US11475371B2 (en) | Learned model integration method, apparatus, program, IC chip, and system | |
CN116187458B (zh) | 量子电路处理方法、装置及电子设备 | |
Kim | Efficient node proximity and node significance computations in graphs | |
JP7571719B2 (ja) | 移行先api推定装置、移行先api推定方法及びプログラム | |
JP2022015275A (ja) | 設定管理装置、設定管理方法、及び、設定管理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7342544 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |