JP7249306B2 - Evaluation device, evaluation method and evaluation program - Google Patents
Evaluation device, evaluation method and evaluation program Download PDFInfo
- Publication number
- JP7249306B2 JP7249306B2 JP2020065650A JP2020065650A JP7249306B2 JP 7249306 B2 JP7249306 B2 JP 7249306B2 JP 2020065650 A JP2020065650 A JP 2020065650A JP 2020065650 A JP2020065650 A JP 2020065650A JP 7249306 B2 JP7249306 B2 JP 7249306B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- program
- obfuscation
- determination
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、プログラムの難読化手法の安全性を評価するための装置、方法及びプログラムに関する。 The present invention relates to an apparatus, method, and program for evaluating the security of program obfuscation techniques.
一般に、ソフトウェアには、価値のあるアルゴリズム及びコンテンツの暗号鍵等、利用者に対して秘密にすべき情報が含まれる場合がある。一方で、ソフトウェアを解析するためのリバースエンジニアリング技術も数多く開発されているのが現状である。このため、これらの技術によりソフトウェアが解析されると、不正な者に秘密情報が入手されるという脅威が考えられる。
こうした脅威に対し、ソフトウェアの仕様を保ったまま、ソフトウェアの解析を困難にする難読化という技術がある(例えば、特許文献1参照)。
In general, software may contain information that should be kept secret to users, such as valuable algorithms and content encryption keys. On the other hand, the current situation is that many reverse engineering techniques for analyzing software have been developed. Therefore, if software is analyzed by these techniques, there is a threat that confidential information may be obtained by an unauthorized person.
To deal with such threats, there is a technology called obfuscation that makes it difficult to analyze software while maintaining software specifications (see, for example, Patent Document 1).
しかしながら、難読化されたプログラムから秘密にすべき情報が解析される脅威を定量的に評価することはできなかった。 However, we were unable to quantitatively assess the threat of confidential information being analyzed from obfuscated programs.
本発明は、難読化手法の安全性を定量的に評価できる評価装置、評価方法及び評価プログラムを提供することを目的とする。 An object of the present invention is to provide an evaluation device, an evaluation method, and an evaluation program capable of quantitatively evaluating the security of an obfuscation technique.
本発明に係る評価装置は、難読化前の複数のプログラムから評価用プログラムを選択して所定のラベルを付与し、当該評価用プログラム及び前記所定のラベルとは異なるラベルを付与した他のプログラムを訓練データとして、学習済みモデルを生成する学習部と、前記評価用プログラム及び前記他のプログラムのうち、いずれかのプログラムに対して評価対象の難読化処理を行った後のプログラムを前記学習済みモデルに入力し、判定結果を取得する判定部と、複数の前記判定結果の正答率に基づいて、前記難読化処理の安全性の評価値を算出する評価部と、を備える。 The evaluation device according to the present invention selects an evaluation program from a plurality of programs before obfuscation, assigns a predetermined label, and uses the evaluation program and other programs with labels different from the predetermined label. As training data, a learning unit that generates a trained model, and one of the evaluation program and the other program that has undergone evaluation target obfuscation processing is used as the trained model. and an evaluation unit that calculates an evaluation value of the security of the obfuscation process based on the percentage of correct answers of the plurality of determination results.
前記評価部は、前記評価用プログラム及び前記他のプログラムのそれぞれに対する前記判定結果の正答率に基づいて、前記難読化処理の安全性の評価値を算出してもよい。 The evaluation unit may calculate the security evaluation value of the obfuscation process based on the percentage of correct answers in the determination result for each of the evaluation program and the other program.
前記評価部は、無作為にラベルの答えを選択した場合の正答確率に応じた前記判定結果への重み付けにより、前記正答率を調整してもよい。 The evaluation unit may adjust the percentage of correct answers by weighting the determination result according to the probability of correct answers when the label answer is randomly selected.
前記学習部は、前記複数のプログラムから前記評価用プログラムを繰り返し選択し、前記判定部は、複数の前記学習済みモデルから、それぞれ前記判定結果を取得してもよい。 The learning unit may repeatedly select the evaluation program from the plurality of programs, and the determination unit may acquire the determination result from each of the plurality of trained models.
前記評価部は、前記判定結果の正答率を、前記評価用プログラムを変えて複数回取得することにより統計処理してもよい。 The evaluation unit may statistically process the percentage of correct answers in the determination result by changing the evaluation program and acquiring the percentage a plurality of times.
前記判定部は、前記いずれかのプログラムに対して前記難読化処理を、パラメータをそれぞれ変えて複数回行った際の前記判定結果をそれぞれ取得してもよい。 The determination unit may acquire the determination results when the obfuscation processing is performed on any of the programs a plurality of times with different parameters.
前記評価部は、前記判定結果の正答率を、前記難読化処理のパラメータを変えて複数回取得することにより統計処理してもよい。 The evaluation unit may statistically process the percentage of correct answers of the determination result by changing parameters of the obfuscation process and acquiring the correct answer rate a plurality of times.
前記訓練データ、及び前記学習済みモデルへの入力は、プログラムを2次元画像に変換したものであってもよい。 The input to the training data and the trained model may be a program converted to a two-dimensional image.
前記訓練データ、及び前記学習済みモデルへの入力は、プログラムをベクトルに変換したものであってもよい。 The training data and the input to the trained model may be a program converted into vectors.
本発明に係る評価方法は、難読化前の複数のプログラムから評価用プログラムを選択して所定のラベルを付与し、当該評価用プログラム及び前記所定のラベルとは異なるラベルを付与した他のプログラムを訓練データとして、学習済みモデルを生成する学習ステップと、前記評価用プログラム及び前記他のプログラムのうち、いずれかのプログラムに対して評価対象の難読化処理を行った後のプログラムを前記学習済みモデルに入力し、判定結果を取得する判定ステップと、複数の前記判定結果の正答率に基づいて、前記難読化処理の安全性の評価値を算出する評価ステップと、をコンピュータが実行する。 An evaluation method according to the present invention selects an evaluation program from a plurality of pre-obfuscated programs, assigns a predetermined label to the evaluation program, and assigns another program with a label different from the predetermined label. As training data, a learning step of generating a trained model, and one of the evaluation program and the other program that has undergone evaluation target obfuscation processing is used as the trained model. , the computer executes a determination step of obtaining determination results, and an evaluation step of calculating an evaluation value of the security of the obfuscation processing based on the percentage of correct answers of the plurality of determination results.
本発明に係る評価プログラムは、前記評価装置としてコンピュータを機能させるためのものである。 An evaluation program according to the present invention is for causing a computer to function as the evaluation device.
本発明によれば、難読化手法の安全性を定量的に評価できる。 According to the present invention, the security of an obfuscation technique can be quantitatively evaluated.
以下、本発明の実施形態の一例について説明する。
図1は、本実施形態における評価装置1の機能構成を示す図である。
評価装置1は、サーバ又はパーソナルコンピュータ等の情報処理装置(コンピュータ)であり、制御部10及び記憶部20の他、各種データの入出力デバイス及び通信デバイス等を備える。
An example of an embodiment of the present invention will be described below.
FIG. 1 is a diagram showing the functional configuration of an
The
制御部10は、評価装置1の全体を制御する部分であり、記憶部20に記憶された各種プログラムを適宜読み出して実行することにより、本実施形態における各機能を実現する。制御部10は、CPUであってよい。
The
記憶部20は、ハードウェア群を評価装置1として機能させるための各種プログラム、及び各種データ等の記憶領域であり、ROM、RAM、フラッシュメモリ又はハードディスク(HDD)等であってよい。具体的には、記憶部20は、本実施形態の各機能を制御部10に実行させるためのプログラム(評価プログラム)、学習モデル等を記憶する。
The
制御部10は、学習部11と、判定部12と、評価部13とを備える。
制御部10は、これらの機能部により、学習モデルを用いた判定結果を用いて、難読化手法の安全性を評価する。
The
The
学習部11は、難読化前の複数のプログラムから評価用プログラムを一つ選択して所定のラベルを付与し、この評価用プログラム及び所定のラベルとは異なるラベルを付与した他のプログラムを訓練データとしてDNN(Deep Neural Network)等に学習させ、学習済みモデルを生成する。
なお、付与されるラベルは、評価用プログラムを示すラベルt1と、その他を示すラベルt2の2種類であってもよいし、他のプログラムそれぞれに別々のラベル(t2,t3,…)が付与されてもよい。すなわち、学習済みモデルの出力は、t1を含む2種類以上である。
The
It should be noted that the assigned labels may be of two types, a label t1 indicating the evaluation program and a label t2 indicating others, or different labels (t2, t3, . . . ) may be assigned to the other programs. may That is, the outputs of the trained model are two or more types including t1.
ここで、訓練データ、及び学習済みモデルへの入力は、例えば、プログラムのビット列を2次元画像データに変換したものであってよく、この場合、DNN(Deep Neural Network)等に学習させることで学習済みモデルが生成される。
あるいは、訓練データ、及び学習済みモデルへの入力は、例えば、プログラムをベクトルに変換したものであってもよく、この場合、DBScan等のクラスタリング手法の学習をさせることで学習済みモデルが生成される。
Here, the input to the training data and the trained model may be, for example, the bit string of the program converted into two-dimensional image data. A finished model is generated.
Alternatively, the training data and input to the trained model may be, for example, a program converted into a vector. In this case, the trained model is generated by learning a clustering method such as DBScan. .
学習部11は、安全性評価のための多様な評価結果を収集するために、複数のプログラムから新たな評価用プログラムを繰り返し選択し、選択した評価用プログラムそれぞれに基づく学習済みモデルを判定部12に提供できる。
In order to collect various evaluation results for safety evaluation, the
判定部12は、評価用プログラム及び他のプログラムのうち、いずれか一つ又は複数のプログラムに対して評価対象の難読化処理を行った後のプログラムを、生成された学習済みモデルに入力し、ラベルの判定結果を取得する。 The determination unit 12 inputs, into the generated trained model, one or more of the evaluation programs and the other programs after performing the evaluation target obfuscation process, and Get label judgment result.
このとき、判定部12は、評価用プログラム毎に生成された複数の学習済みモデルから、それぞれ判定結果を取得してもよい。
また、判定部12は、各プログラムに対して難読化処理を、パラメータを変えて複数回行った際の判定結果をそれぞれ取得してもよい。
At this time, the
Further, the
評価部13は、複数の判定結果の正答率に基づいて、難読化処理の強度すなわち安全性の評価値を算出する。
ここで、判定結果が正答であるとは、難読化された評価用プログラムをt1と判定した場合、難読された他のプログラムをt1以外(例えばt2、t3、・・・)と判定した場合であってよい。あるいは、他のプログラムにt2,t3,…と別々のラベルが付与された場合に、t1以外についても正しいラベルを出力した場合のみを正答としてもよい。
The
Here, the determination result is a correct answer when the obfuscated evaluation program is determined as t1, and when other obfuscated programs are determined as other than t1 (for example, t2, t3, . . . ). It can be. Alternatively, when different labels such as t2, t3, .
また、正答率は、例えば次のように算出される。
(1)評価部13は、判定部12による評価用プログラム及び他のプログラムのそれぞれに対する判定結果を全て集計して正答率を算出する。
このとき、評価部13は、無作為にラベルの答えを選択した場合の正答確率に応じた判定結果への重み付けにより、正答率を調整してもよい。例えば、他のプログラム(ラベルt2)が複数用意された場合に、他のプログラム(t2)をt2と分類した判定結果よりも、評価用プログラム(t1)をt1と分類した判定結果に重み付けがされてよい。
Also, the percentage of correct answers is calculated, for example, as follows.
(1) The
At this time, the
(2)評価部13は、選択された評価用プログラム毎に判定結果の正答率を求め、評価用プログラムを変えて正答率を複数回取得することにより、平均値又は最大値等の統計値を算出する。
(2) The
(3)評価部13は、評価用プログラムを変えて複数取得した判定結果から正答率を求め、さらに、難読化処理のパラメータを変えて正答率を複数回取得することにより、平均値又は最大値等の統計値を算出する。
(3) The
図2は、本実施形態における安全性の評価方法の処理手順を例示する図である。
この例では、訓練データに付与されるラベルは2種類、すなわち複数のプログラムのうち、評価用プログラムのラベルをt1、他のプログラムのラベルを共通のt2としている。また、学習モデルとして、画像データを入力とするDNNを採用している。
FIG. 2 is a diagram illustrating the processing procedure of the safety evaluation method according to this embodiment.
In this example, there are two types of labels given to the training data, ie, among the multiple programs, the label for the evaluation program is t1, and the common label for the other programs is t2. Also, as a learning model, a DNN that receives image data is adopted.
学習部11は、これらのプログラムをそれぞれ画像データ化し、DNNに入力して学習させる。これにより生成された学習済みモデルは、入力されたプログラムの画像データをt1又はt2に分類して判定結果として出力する。
The
判定部12は、評価対象である難読化手法を用いて難読化した評価用プログラムを画像データ化し、学習済みモデルに入力すると、判定結果としてt1又はt2が得られる。そして、判定結果がt1の場合が正答としてカウントされる。
このとき、判定部12は、他のプログラムについても、同様に画像データ化して学習済みモデルに入力し、判定結果がt2の場合を正答としてカウントしてもよい。
The
At this time, the
ここで、評価対象である難読化手法がパラメータ(例えば乱数)の変更等により同一のプログラムから毎回異なる難読化プログラムを生成する場合、評価用プログラム及び他のプログラムの難読化は、繰り返し行われる。判定部12は、難読化後の各プログラムをそれぞれ画像化して学習済みモデルに入力すると、同様に判定結果を得る。
Here, when the obfuscation method to be evaluated generates different obfuscated programs each time from the same program by changing parameters (for example, random numbers), obfuscation of the evaluation program and other programs is repeatedly performed. The
そして、評価部13は、収集した判定結果の正答率が低いほど難読化手法が安全であるとして、例えば正答率の逆数等の評価値を算出する。
Then, the
このとき、評価部13は、前述のように、評価用プログラムを入れ替えて同様に正答率を算出すると、これらの平均値又は最大値等の統計値に基づいて評価値を算出してもよい。
あるいは、評価部13は、難読化手法のパラメータ毎に正答率を算出すると、これらの平均値又は最大値等の統計値に基づいて評価値を算出してもよい。
At this time, the
Alternatively, after calculating the percentage of correct answers for each parameter of the obfuscation method, the
本実施形態によれば、評価装置1は、所定のラベルを付与した評価用プログラムと、別のラベルを付与した他のプログラムとを訓練データとして、学習済みモデルを生成し、評価用プログラム及び他のプログラムのうち、いずれかのプログラムに対して難読化処理を行った後のプログラムを学習済みモデルに入力し、判定結果を取得する。そして、評価装置1は、複数の判定結果の正答率に基づいて、評価対象である難読化処理の安全性の評価値を算出する。
したがって、評価装置1は、AI(Artificial Intelligence)により難読化後のプログラムが難読化前と同じプログラムであると分類される場合を危険と判断することで、従来は人手に頼っていた安全性の評価を自動化し、難読化手法の安全性を定量的に評価できる。
According to the present embodiment, the
Therefore, the
評価装置1は、評価用プログラム及び他のプログラムのそれぞれに対する判定結果の正答率に基づいて、難読化処理の安全性の評価値を算出することで、判定結果を容易に収集し、安全性の評価値を適切に算出できる。
このとき、評価装置1は、無作為にラベルの答えを選択した場合の正答確率に応じた判定結果への重み付けにより、正答率を調整することで、判定結果それぞれの重要度を反映し、より適切に安全性を評価できる。
The
At this time, the
評価装置1は、複数のプログラムから評価用プログラムを繰り返し選択し、選択の度に生成した複数の学習済みモデルから、それぞれ判定結果を取得してもよい。
これにより、評価装置1は、複数の評価用プログラムを用いて、難読化手法の安全性を多面的に適切に評価できる。
また、評価装置1は、評価用プログラムの選択毎の正答率を統計処理することで、より適切な評価値を算出できる。
The
As a result, the
In addition, the
評価装置1は、難読化処理を、パラメータを変えて複数回行った際の判定結果をそれぞれ取得してもよい。
これにより、評価装置1は、複数の難読化結果を用いて、難読化手法の安全性を多面的に適切に評価できる。
また、評価装置1は、パラメータ毎の正答率を統計処理することで、より適切な評価値を算出できる。
The
As a result, the
In addition, the
評価装置1は、プログラムのビット列を2次元画像データに変換したものを訓練データ、及び学習済みモデルへの入力とすることで、DNN等による分類手法に適合させ、適切に評価方法を実現できる。
また、評価装置1は、プログラムをベクトルに変換したものを訓練データ、及び学習済みモデルへの入力とすることで、DBScan等によるクラスタリング手法に適合させ、適切に評価方法を実現できる。
The
In addition, the
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、前述した実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments. Moreover, the effects described in the above-described embodiments are merely enumerations of the most suitable effects produced by the present invention, and the effects of the present invention are not limited to those described in the embodiments.
評価装置1による評価方法は、ソフトウェアにより実現される。ソフトウェアによって実現される場合には、このソフトウェアを構成するプログラムが、情報処理装置(コンピュータ)にインストールされる。また、これらのプログラムは、CD-ROMのようなリムーバブルメディアに記録されてユーザに配布されてもよいし、ネットワークを介してユーザのコンピュータにダウンロードされることにより配布されてもよい。さらに、これらのプログラムは、ダウンロードされることなくネットワークを介したWebサービスとしてユーザのコンピュータに提供されてもよい。
The evaluation method by the
1 評価装置
10 制御部
11 学習部
12 判定部
13 評価部
20 記憶部
1
Claims (11)
前記評価用プログラム及び前記他のプログラムのうち、いずれかのプログラムに対して評価対象の難読化処理を行った後のプログラムを前記学習済みモデルに入力し、判定結果を取得する判定部と、
複数の前記判定結果の正答率に基づいて、前記難読化処理の安全性の評価値を算出する評価部と、を備える評価装置。 An evaluation program is selected from a plurality of programs before obfuscation and given a predetermined label, and the evaluation program and another program given a label different from the predetermined label are used as training data, and a trained model is generated. a learning unit to generate;
a determination unit for inputting a program after obfuscation processing of an evaluation target to one of the evaluation program and the other program into the trained model and acquiring a determination result;
and an evaluation unit that calculates an evaluation value of security of the obfuscation process based on correct answer rates of the plurality of determination results.
前記判定部は、複数の前記学習済みモデルから、それぞれ前記判定結果を取得する請求項1から請求項3のいずれかに記載の評価装置。 The learning unit repeatedly selects the evaluation program from the plurality of programs,
The evaluation apparatus according to any one of claims 1 to 3, wherein the determination unit acquires the determination result from each of the plurality of trained models.
前記評価用プログラム及び前記他のプログラムのうち、いずれかのプログラムに対して評価対象の難読化処理を行った後のプログラムを前記学習済みモデルに入力し、判定結果を取得する判定ステップと、
複数の前記判定結果の正答率に基づいて、前記難読化処理の安全性の評価値を算出する評価ステップと、をコンピュータが実行する評価方法。 An evaluation program is selected from a plurality of programs before obfuscation and given a predetermined label, and the evaluation program and another program given a label different from the predetermined label are used as training data, and a trained model is generated. a learning step to generate;
a determination step of inputting into the trained model a program after obfuscation processing to be evaluated for one of the evaluation program and the other program, and acquiring a determination result;
an evaluation step of calculating an evaluation value of the security of the obfuscation process based on the percentage of correct answers of the plurality of determination results; and an evaluation method executed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020065650A JP7249306B2 (en) | 2020-04-01 | 2020-04-01 | Evaluation device, evaluation method and evaluation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020065650A JP7249306B2 (en) | 2020-04-01 | 2020-04-01 | Evaluation device, evaluation method and evaluation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021163300A JP2021163300A (en) | 2021-10-11 |
JP7249306B2 true JP7249306B2 (en) | 2023-03-30 |
Family
ID=78003519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020065650A Active JP7249306B2 (en) | 2020-04-01 | 2020-04-01 | Evaluation device, evaluation method and evaluation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7249306B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009514060A (en) | 2005-10-28 | 2009-04-02 | パナソニック株式会社 | Obfuscation evaluation method and obfuscation method |
US20180183815A1 (en) | 2016-10-17 | 2018-06-28 | Kerry Wayne Enfinger | System and method for detecting malware |
-
2020
- 2020-04-01 JP JP2020065650A patent/JP7249306B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009514060A (en) | 2005-10-28 | 2009-04-02 | パナソニック株式会社 | Obfuscation evaluation method and obfuscation method |
US20180183815A1 (en) | 2016-10-17 | 2018-06-28 | Kerry Wayne Enfinger | System and method for detecting malware |
Non-Patent Citations (1)
Title |
---|
北岡 哲哉 Tetsuya Kitaoka,第82回(2020年)全国大会講演論文集(1) コンピュータシステム ソフトウェア科学・工学 データとウェブ,2020年02月20日,第1-231~1-232ページ |
Also Published As
Publication number | Publication date |
---|---|
JP2021163300A (en) | 2021-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | GA-SVM wrapper approach for feature subset selection in keystroke dynamics identity verification | |
US9230102B2 (en) | Apparatus and method for detecting traffic flooding attack and conducting in-depth analysis using data mining | |
CN111783442A (en) | Intrusion detection method, device, server and storage medium | |
TW202137072A (en) | Method for constructing and operating an artificial recurrent neural network | |
West et al. | Benchmarking adversarially robust quantum machine learning at scale | |
Huang et al. | Deep prototypical networks for imbalanced time series classification under data scarcity | |
Soleimanian Gharehchopogh et al. | A new feature selection in email spam detection by particle swarm optimization and fruit fly optimization algorithms | |
CN110097120B (en) | Network flow data classification method, equipment and computer storage medium | |
CN110781467A (en) | Abnormal business data analysis method, device, equipment and storage medium | |
Mohammadi et al. | A new metaheuristic feature subset selection approach for image steganalysis | |
JP7249306B2 (en) | Evaluation device, evaluation method and evaluation program | |
CN112702157A (en) | Block cipher system identification method based on improved random forest algorithm | |
KR102126795B1 (en) | Deep learning-based image on personal information image processing system, apparatus and method therefor | |
Sharif et al. | Performance evaluation of classifiers used for identification of encryption algorithms | |
Danforth | {WCIS}: A Prototype for Detecting {Zero-Day} Attacks in Web Server Requests | |
Amelio et al. | Predicting the usability of the dice captcha via artificial neural network | |
Balega et al. | IoT Anomaly Detection Using a Multitude of Machine Learning Algorithms | |
CN114065867B (en) | Data classification method and system and electronic equipment | |
Kamel et al. | AdaBoost ensemble learning technique for optimal feature subset selection | |
CN106911462B (en) | Wireless router password analysis method based on gene expression programming | |
JP7290596B2 (en) | Determination device, determination method and determination program | |
Javadzadeh et al. | IDuFG: Introducing an Intrusion Detection using Hybrid Fuzzy Genetic Approach. | |
Calderín et al. | Adaptation schemes and dynamic optimization problems: A basic study on the adaptive hill climbing memetic algorithm | |
Dhar et al. | Detecting deepfake images using deep convolutional neural network | |
Kovács et al. | CAPTCHA recognition using machine learning algorithms with various techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7249306 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |