JP7225874B2 - モデル出力プログラム、モデル出力方法及びモデル出力装置 - Google Patents
モデル出力プログラム、モデル出力方法及びモデル出力装置 Download PDFInfo
- Publication number
- JP7225874B2 JP7225874B2 JP2019020981A JP2019020981A JP7225874B2 JP 7225874 B2 JP7225874 B2 JP 7225874B2 JP 2019020981 A JP2019020981 A JP 2019020981A JP 2019020981 A JP2019020981 A JP 2019020981A JP 7225874 B2 JP7225874 B2 JP 7225874B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- models
- similarity
- interpretable
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/045—Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
以下、説明対象とする分類器fのあくまで一例として、ディープテンソルにより学習された学習済みモデルを例に挙げる。ここで言う「ディープテンソル」とは、グラフデータがテンソル化されたテンソルデータを入力とするディープラーニングを指す。
背景技術の欄で説明した通り、上記の従来技術では、LIMEを利用して、分類器の出力を最大限近似できる少数の典型例が抽出される。解釈可能モデルは、近似モデルの一例に対応する。
このような組合せ最適化問題の計算には、類似度行列Sと、誤差行列Eまたは誤差量行列Fとが用いられる。これら類似度行列S、誤差行列E及び誤差量行列Fの「行」は、いずれも説明対象とする分類器fの解析に用いる参照データを指し、また、「列」は、解釈可能モデルgを指す。当然のことながら、類似度行列S、誤差行列E及び誤差量行列Fの間で参照データ及び解釈可能モデルgの順序は統一される。
しかしながら、上記の従来技術では、典型例の抽出の計算コストが膨大になるという課題がある。
そこで、参考技術1では、近似アルゴリズムの一例として、上記の類似度行列Sまたは上記の誤差行列EにGreedy法を適用する。例えば、参考技術1では、「よりよいものを残す」というGreedy法の基本に従って類似度の順位が上位、例えば順位「0」又は「1」である参照データの数が多い解釈可能モデルを優先して抽出する。そして、参照技術1では、全ての参照データについて類似度の順位が「0」又は「1」である解釈可能モデルを抽出するという終了条件1、あるいは所定数、例えば2つの典型例のモデルを抽出するという終了条件2を満たすまで典型例の抽出を継続する。このような参考技術1によれば、組合せ最適化問題ではn^3+n^2+n個の連立方程式であった計算コストをn×参照データ数の行列操作まで削減できる。
しかしながら、上記の参考技術1では、1つの観点で高評価である解釈可能モデルしか典型例として抽出することができないので、複数の観点で高評価である解釈可能モデルを典型例として抽出することができない場合がある。例えば、上記の類似度行列SにGreedy法を適用する場合、抽出された典型例には誤差の観点が考慮されず、また、上記の誤差行列EにGreedy法を適用する場合、抽出された典型例には類似度の観点が考慮されない。
そこで、参考技術2では、類似度行列S又は誤差行列EにGreedy法を適用することにより他方の誤差行列E又は類似度行列Sで誤差順位又は類似度を参照する要素を絞り込んで誤差順位又は類似度の集計値が高評価の解釈可能モデルを典型例として抽出する。例えば、参考技術2では、類似度が「0」又は「1」の上位となる参照データの誤差順位の総和が最大である解釈可能モデルを優先して抽出する。そして、参照技術2でも、全ての参照データについて類似度の順位が「0」又は「1」である解釈可能モデルを抽出するという終了条件1、あるいは所定数、例えば2つの典型例のモデルを抽出するという終了条件2を満たすまで典型例の抽出を継続する。このような参考技術2によれば、参考技術1と同様、計算コストをn×参照データ数の行列操作まで削減できると共に、参考技術1よりも典型例の抽出精度を高めることができる。
しかしながら、上記の参考技術2では、類似度行列S又は誤差行列Eの一方にGreedy法が適用された時点で他方の誤差行列E又は類似度行列Sの最適解が取りこぼされる事例が発生するので、典型例の抽出精度が低下する場合がある。
そこで、本実施例では、「よりよいものを残す」というGreedy法の考えに、「より不要なものを優先的に削除する」という消去法の観点を追加した消去法的Greedy法を用いる。
図1に示すように、モデル出力装置10は、学習部11と、生成部13と、第1算出部15と、第2算出部16と、特定部17と、除外部18と、出力部19とを有する。なお、モデル出力装置10は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスの他、外部装置との間で通信を行うインタフェイスに対応する機能部を有することとしてもかまわない。
次に、図9~図12を用いて、消去法的Greedy法の動作例について説明する。図9Aは、類似度行列Sの一例を示す図である。図9Bは、誤差量行列Fの一例を示す図である。
次に、本実施例に係るモデル出力装置10の処理の流れについて説明する。ここでは、モデル出力装置10により実行される(1)学習モデル生成処理を説明した後に、(2)モデル出力処理を説明することとする。
図14は、実施例1に係る学習モデル生成処理の手順を示すフローチャートである。この処理は、一例として、学習モデルの生成リクエストを受け付けた場合に開始することができる。これに限らず、学習データ11Aが取得されていれば任意のタイミングで処理を開始できる。
図15は、実施例1に係るモデル出力処理の手順を示すフローチャートである。この処理は、第1算出部15により類似度が算出され、かつ第2算出部16により分類誤差が算出された時点以降の任意の時点で開始できる。
上述してきたように、本実施例に係るモデル出力装置10では、「よりよいものを残す」というGreedy法の考えに、「より不要なものを優先的に削除する」という消去法の観点を追加した消去法的Greedy法を適用する。すなわち、本実施例に係るモデル出力装置10は、説明対象の分類器が局所近似された複数の解釈可能モデルごとに当該解釈可能モデルと最も類似するテストデータとの間で次に類似する次点の解釈可能モデルを特定し、次点の解釈可能モデルの分類誤差との差が最小である解釈可能モデルを除外して残る解釈可能モデルを典型例として出力する。
上記の実施例1では、説明対象とする分類器がディープテンソルにより学習された学習済みモデルである場合を例示したが、これに限定されず、類似度の算出手法は任意であってかまわない。例えば、説明対象とする分類器は、ディープテンソル以外の機械学習により学習された分類器、例えば識別関数等であってもかまわない。この場合、参照データからモデルを算出し、参照データから算出されたモデルと、分類器から生成された解釈可能モデルとを比較することにより類似度を算出し、類似度行列Sを生成することができる。この他、解釈可能モデルの生成時に利用した学習データも併せて記録し、記録したデータと、参照データとを比較することにより類似度を算出し、類似度行列Sを生成することができる。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、学習部11、生成部13、第1算出部15、第2算出部16、特定部17、除外部18または出力部19をモデル出力装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、学習部11、生成部13、第1算出部15、第2算出部16、特定部17、除外部18または出力部19を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記のモデル出力装置10の機能を実現するようにしてもよい。
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図16を用いて、上記の実施例と同様の機能を有するモデル出力プログラムを実行するコンピュータの一例について説明する。
分類器の解析に用いるテストデータそれぞれについて、前記分類器に近似された複数の近似モデルそれぞれとの類似度および誤差を算出し、
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
前記複数の近似モデルそれぞれについての、前記最も類似の高いテストデータと2番目に類似度の高い近似モデルとの誤差に基づいて選択される、前記誤差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、
処理を実行させるモデル出力プログラム。
前記近似モデルを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを、前記除外対象モデルが除外された前記複数の近似モデルの中から特定し、
前記出力する処理は、前記除外対象モデルが除外された前記複数の近似モデルが所定の条件を満たすまで、前記複数の近似モデルから前記除外対象モデルを除外する処理を繰り返すことを特徴とする付記1に記載のモデル出力プログラム。
分類器の解析に用いるテストデータそれぞれについて、前記分類器に近似された複数の近似モデルそれぞれとの類似度および誤差を算出し、
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
前記複数の近似モデルそれぞれについての、前記最も類似の高いテストデータと2番目に類似度の高い近似モデルとの誤差に基づいて選択される、前記誤差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、
処理を実行するモデル出力方法。
前記近似モデルを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを、前記除外対象モデルが除外された前記複数の近似モデルの中から特定し、
前記出力する処理は、前記除外対象モデルが除外された前記複数の近似モデルが所定の条件を満たすまで、前記複数の近似モデルから前記除外対象モデルを除外する処理を繰り返すことを特徴とする付記4に記載のモデル出力方法。
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定する第1特定部と、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定する第2特定部と、
前記複数の近似モデルそれぞれについての、前記最も類似の高いテストデータと2番目に類似度の高い近似モデルとの誤差に基づいて選択される、前記誤差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する出力部と、
処理を実行するモデル出力装置。
前記第2特定部は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを、前記除外対象モデルが除外された前記複数の近似モデルの中から特定し、
前記出力部は、前記除外対象モデルが除外された前記複数の近似モデルが所定の条件を満たすまで、前記複数の近似モデルから前記除外対象モデルを除外する処理を繰り返すことを特徴とする付記7に記載のモデル出力装置。
11 学習部
11A 学習データ
11B 参照データ
12 学習モデル
13 生成部
14 解釈可能モデル
15 第1算出部
16 第2算出部
17 特定部
18 除外部
19 出力部
Claims (5)
- コンピュータに、
分類器の解析に用いる複数のテストデータに含まれるテストデータごとに、前記テストデータと前記分類器に近似された複数の近似モデルそれぞれとの類似度を算出すると共に、前記分類器と前記複数の近似モデルそれぞれとの誤差を算出し、
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
前記複数の近似モデルそれぞれについての、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルとの誤差の差に基づいて選択される、前記誤差の差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、
処理を実行させるモデル出力プログラム。 - 前記テストデータを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記近似モデルを特定する処理は、前記除外対象モデルが除外された前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
前記出力する処理は、前記除外対象モデルが除外された前記複数の近似モデルが所定の条件を満たすまで、前記複数の近似モデルから前記除外対象モデルを除外する処理を繰り返すことを特徴とする請求項1に記載のモデル出力プログラム。 - 前記複数の近似モデルは、LIME(Local Interpretable Model-agnostic Explainations)のアルゴリズムにしたがって前記分類器へ局所的に近似することにより生成されることを特徴とする請求項1に記載のモデル出力プログラム。
- コンピュータが、
分類器の解析に用いる複数のテストデータに含まれるテストデータごとに、前記テストデータと前記分類器に近似された複数の近似モデルそれぞれとの類似度を算出すると共に、前記分類器と前記複数の近似モデルそれぞれとの誤差を算出し、
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定し、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定し、
前記複数の近似モデルそれぞれについての、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルとの誤差の差に基づいて選択される、前記誤差の差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する、
処理を実行するモデル出力方法。 - 分類器の解析に用いる複数のテストデータに含まれるテストデータごとに、前記テストデータと前記分類器に近似された複数の近似モデルそれぞれとの類似度を算出すると共に、前記分類器と前記複数の近似モデルそれぞれとの誤差を算出する算出部と、
前記複数の近似モデルそれぞれについて、類似度が最も高いテストデータを特定する第1特定部と、
前記複数の近似モデルそれぞれについて、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルを前記複数の近似モデルの中から特定する第2特定部と、
前記複数の近似モデルそれぞれについての、前記類似度が最も高いテストデータと2番目に類似度の高い近似モデルとの誤差の差に基づいて選択される、前記誤差の差が最も小さい近似モデルである除外対象モデルが除外された前記複数の近似モデルを出力する出力部と、
を有するモデル出力装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019020981A JP7225874B2 (ja) | 2019-02-07 | 2019-02-07 | モデル出力プログラム、モデル出力方法及びモデル出力装置 |
US16/782,193 US11410065B2 (en) | 2019-02-07 | 2020-02-05 | Storage medium, model output method, and model output device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019020981A JP7225874B2 (ja) | 2019-02-07 | 2019-02-07 | モデル出力プログラム、モデル出力方法及びモデル出力装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020129222A JP2020129222A (ja) | 2020-08-27 |
JP7225874B2 true JP7225874B2 (ja) | 2023-02-21 |
Family
ID=71945305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019020981A Active JP7225874B2 (ja) | 2019-02-07 | 2019-02-07 | モデル出力プログラム、モデル出力方法及びモデル出力装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11410065B2 (ja) |
JP (1) | JP7225874B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580390B2 (en) * | 2020-01-22 | 2023-02-14 | Canon Medical Systems Corporation | Data processing apparatus and method |
US11461651B2 (en) * | 2020-04-09 | 2022-10-04 | Micron Technology, Inc. | System on a chip with deep learning accelerator and random access memory |
EP4207006A4 (en) * | 2020-08-31 | 2023-09-27 | Fujitsu Limited | MODEL GENERATION PROGRAM, MODEL GENERATION METHOD AND MODEL GENERATION APPARATUS |
JP7524778B2 (ja) | 2021-01-27 | 2024-07-30 | 富士通株式会社 | 機械学習プログラム、機械学習方法及び機械学習装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016067548A1 (ja) | 2014-10-28 | 2016-05-06 | 日本電気株式会社 | 領域線形モデル最適化システム、方法およびプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10268961B2 (en) * | 2015-11-24 | 2019-04-23 | Sap Se | Generating predictive models to reconfigure electronic devices |
US20180189669A1 (en) * | 2016-12-29 | 2018-07-05 | Uber Technologies, Inc. | Identification of event schedules |
-
2019
- 2019-02-07 JP JP2019020981A patent/JP7225874B2/ja active Active
-
2020
- 2020-02-05 US US16/782,193 patent/US11410065B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016067548A1 (ja) | 2014-10-28 | 2016-05-06 | 日本電気株式会社 | 領域線形モデル最適化システム、方法およびプログラム |
Non-Patent Citations (2)
Title |
---|
RIBEIRO Marco Tulio et al.,"Why Should I Trust You?" Explaining the Predictions of Any Classifier,arXiv [online],2016年08月09日,[2022年9月29日検索],インターネット<URL: https://arxiv.org/abs/1602.04938v3> |
原 聡 ほか,機械学習モデルの列挙,第105回 人工知能基本問題研究会資料 (SIG-FPAI-B508),一般社団法人人工知能学会,2018年01月22日,p.1-5 |
Also Published As
Publication number | Publication date |
---|---|
US20200257999A1 (en) | 2020-08-13 |
US11410065B2 (en) | 2022-08-09 |
JP2020129222A (ja) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7225874B2 (ja) | モデル出力プログラム、モデル出力方法及びモデル出力装置 | |
JP6928371B2 (ja) | 分類器、分類器の学習方法、分類器における分類方法 | |
US10068186B2 (en) | Model vector generation for machine learning algorithms | |
CN113011895B (zh) | 关联账户样本筛选方法、装置和设备及计算机存储介质 | |
US11531734B2 (en) | Determining optimal machine learning models | |
JP7115207B2 (ja) | 学習プログラム、学習方法および学習装置 | |
JP2018194974A (ja) | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 | |
US20230005572A1 (en) | Molecular structure acquisition method and apparatus, electronic device and storage medium | |
CN109787958A (zh) | 网络流量实时检测方法及检测终端、计算机可读存储介质 | |
CN112348321A (zh) | 风险用户的识别方法、装置及电子设备 | |
CN111459898A (zh) | 机器学习方法、计算机可读记录介质以及机器学习设备 | |
CN115699041A (zh) | 利用专家模型的可扩展迁移学习 | |
US11568263B2 (en) | Techniques to perform global attribution mappings to provide insights in neural networks | |
US20210319303A1 (en) | Multi-source transfer learning from pre-trained networks | |
Han et al. | SlimML: Removing non-critical input data in large-scale iterative machine learning | |
Liu et al. | A modified support vector machine model for credit scoring | |
US20220044136A1 (en) | Automated data table discovery for automated machine learning | |
US20230334342A1 (en) | Non-transitory computer-readable recording medium storing rule update program, rule update method, and rule update device | |
WO2024045319A1 (zh) | 人脸图像聚类方法、装置、电子设备及存储介质 | |
CN114742645B (zh) | 基于多阶段时序多任务的用户安全等级识别方法及装置 | |
CN116703466A (zh) | 基于改进灰狼算法的系统访问量预测方法及其相关设备 | |
JP6300572B2 (ja) | データ分析プログラム、及びデータ分析装置 | |
CN111753992A (zh) | 筛选方法和筛选系统 | |
JP7563495B2 (ja) | 学習装置、学習方法、及び、プログラム | |
JP7306432B2 (ja) | 情報処理方法、情報処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230123 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7225874 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |