JP7421046B2 - Information acquisition device, information acquisition method and program - Google Patents
Information acquisition device, information acquisition method and program Download PDFInfo
- Publication number
- JP7421046B2 JP7421046B2 JP2019184795A JP2019184795A JP7421046B2 JP 7421046 B2 JP7421046 B2 JP 7421046B2 JP 2019184795 A JP2019184795 A JP 2019184795A JP 2019184795 A JP2019184795 A JP 2019184795A JP 7421046 B2 JP7421046 B2 JP 7421046B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- value
- distribution
- nodes
- correlation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000009826 distribution Methods 0.000 claims description 60
- 238000004364 calculation method Methods 0.000 claims description 40
- 238000011156 evaluation Methods 0.000 claims description 19
- 239000006185 dispersion Substances 0.000 claims description 9
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 241000039077 Copula Species 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、情報取得装置、情報取得方法およびプログラムに関する。 The present invention relates to an information acquisition device, an information acquisition method, and a program.
機械学習モデルの解釈可能性に関連して、学習済みモデルであるニューラルネットワークに画像データが入力された状態で、出力ノードから入力ノードへと(信号の流れと逆向きに)辿っていき、発火しているノードを表示することが記載されている。 Related to the interpretability of machine learning models, when image data is input to a neural network, which is a trained model, it is traced from the output node to the input node (in the opposite direction of the signal flow) and then fired. It is stated that the nodes that are currently being displayed are displayed.
非特許文献1に記載の方法によれば、特定の入力データに対して学習済みモデルが行う処理を視覚化することができる。
一方、新たな入力データに対応する観点から、特定の入力データによらずモデル自体の解釈を行えることが望まれる。
According to the method described in Non-Patent
On the other hand, from the perspective of dealing with new input data, it is desirable to be able to interpret the model itself without relying on specific input data.
本発明は、上述の課題を解決することのできる情報取得装置、情報取得方法およびプログラムを提供することを目的としている。 An object of the present invention is to provide an information acquisition device, an information acquisition method, and a program that can solve the above-mentioned problems.
本発明の第1の態様によれば、情報取得装置は、グラフィカルモデルへの複数の入力データに対するノードの値の分布を求める取得部と、ノード間における前記分布の相関を算出し、前記グラフィカルモデルの入力ノードから隠れ層の最終ノードまでの経路の各ノード間における前記分布の相関の強さを示す値、および、前記最終ノードから各出力ノードへ伝達される値のばらつき度合いを示す値に基づいて、前記出力ノードの値に対する前記経路の寄与度の評価値を算出する算出部と、を備える。 According to a first aspect of the present invention, the information acquisition device includes an acquisition unit that calculates a distribution of node values with respect to a plurality of input data to a graphical model; Based on a value indicating the strength of the correlation of the distribution between each node on the path from the input node to the final node of the hidden layer, and a value indicating the degree of dispersion of the values transmitted from the final node to each output node. and a calculation unit that calculates an evaluation value of the degree of contribution of the route to the value of the output node .
本発明の第2の態様によれば、情報取得方法は、グラフィカルモデルへの複数の入力データに対するノードの値の分布を求める工程と、ノード間における前記分布の相関を算出し、前記グラフィカルモデルの入力ノードから隠れ層の最終ノードまでの経路の各ノード間における前記分布の相関の強さを示す値、および、前記最終ノードから各出力ノードへ伝達される値のばらつき度合いを示す値に基づいて、前記出力ノードの値に対する前記経路の寄与度の評価値を算出する工程と、を含む。 According to a second aspect of the present invention, the information acquisition method includes the steps of determining the distribution of node values for a plurality of input data to the graphical model, calculating the correlation of the distribution between the nodes , and calculating the correlation of the distribution between the nodes. Based on a value indicating the strength of the correlation of the distribution between each node on the path from the input node to the final node of the hidden layer, and a value indicating the degree of dispersion of the values transmitted from the final node to each output node. , calculating an evaluation value of the degree of contribution of the route to the value of the output node .
本発明の第3の態様によれば、プログラムは、コンピュータに、グラフィカルモデルへの複数の入力データに対するノードの値の分布を求める工程と、ノード間における前記分布の相関を算出し、前記グラフィカルモデルの入力ノードから隠れ層の最終ノードまでの経路の各ノード間における前記分布の相関の強さを示す値、および、前記最終ノードから各出力ノードへ伝達される値のばらつき度合いを示す値に基づいて、前記出力ノードの値に対する前記経路の寄与度の評価値を算出する工程と、を実行させるためのプログラムである。 According to the third aspect of the present invention, the program includes the steps of causing a computer to calculate the distribution of node values for a plurality of input data to the graphical model, calculating the correlation of the distribution between the nodes, and calculating the correlation of the distribution between the nodes , Based on a value indicating the strength of the correlation of the distribution between each node on the path from the input node to the final node of the hidden layer, and a value indicating the degree of dispersion of the values transmitted from the final node to each output node. and calculating an evaluation value of the degree of contribution of the route to the value of the output node .
この発明によれば、モデルの解釈を行うための情報を提供することができる。 According to this invention, information for interpreting a model can be provided.
以下、本発明の実施形態を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、実施形態に係る情報取得装置の機能構成を示す概略ブロック図である。同図に示す構成で、情報取得装置100は、通信部110と、表示部120と、操作入力部130と、記憶部180と、制御部190とを備える。記憶部180は、モデル記憶部181を備える。制御部190は、取得部191と、算出部192とを備える。
Hereinafter, embodiments of the present invention will be described, but the following embodiments do not limit the invention according to the claims. Furthermore, not all combinations of features described in the embodiments are essential to the solution of the invention.
FIG. 1 is a schematic block diagram showing the functional configuration of an information acquisition device according to an embodiment. With the configuration shown in the figure, the
情報取得装置100は、有向非巡回グラフの構造を有するグラフィカルモデルを解釈するための情報を提供する。以下では、情報取得装置100の処理対象のモデル(情報取得装置100が情報を提供する対象のモデル)を対象モデルとも称する。対象モデルは、ディープラーニング(Deep Learning、深層学習)等の順伝播型ニューラルネットワーク(Feedforward Neural Network)であってもよいが、これに限定されない。また、対象モデルは、典型的には学習済みモデル(機械学習によって得られたモデル)であるが、これに限定されない。
The
情報取得装置100は、例えばパソコン(Personal Computer;PC)等のコンピュータを用いて構成される。あるいは、情報取得装置100が、ASIC(Application Specific Integrated Circuit)を用いて構成されるなど、情報取得装置100専用のハードウェアを用いて構成されていてもよい。
The
通信部110は、他の装置と通信を行う。例えば、通信部110は、対象モデルへの入力データをサーバ装置などのコンピュータから受信する。ただし、情報取得装置100が対象モデルへの入力データを取得する方法は特定の方法に限定されない。
表示部120は、例えば液晶パネルまたはLED(Light Emitting Diode、発光ダイオード)パネル等の表示画面を備え、各種画像を表示する。例えば、表示部120は、情報取得装置100が算出する、対象モデルを解釈するための情報を表示する。ただし、情報取得装置100が情報を出力する方法は、表示部120による表示に限定されない。例えば、通信部110が、他の装置へ情報を送信するようにしてもよい。
The communication unit 110 communicates with other devices. For example, the communication unit 110 receives input data for the target model from a computer such as a server device. However, the method by which the
The
操作入力部130は、例えばキーボードおよびマウス等の入力デバイスを備え、ユーザ操作を受け付ける。例えば、操作入力部130が、対象モデルを解釈するための情報の計算を指示するユーザ操作を受け付けると、情報取得装置100は、対象モデルを解釈するための情報の計算を開始する。
The
記憶部180は、各種データを記憶する。記憶部180は、情報取得装置100が備える記憶デバイスを用いて構成される。
モデル記憶部181は、対象モデルを記憶する。なお、図1では、対象モデルがソフトウェア的に実行される場合の例を示している。この場合、制御部190は、モデル記憶部181から対象モデルを読み出して、入力データに対する演算など対象モデルに関する処理を行う。ただし、対象モデルがハードウェア的に実行されてもよい。
The
The
制御部190は、情報取得装置100の各部を制御して各種処理を行う。制御部190の機能は、例えば、情報取得装置100が備えるCPU(Central Processing Unit、中央処理装置)が、記憶部180からプログラムを読み出して実行することで実行される。
取得部191は、複数の入力データの各々に対する対象モデルの演算を実行する。これにより、取得部191は、複数の入力データの各々について、対象モデルの各ノードの値を算出する。そして、取得部191は、対象モデルのノード毎に、複数の入力データに対するノードの値の分布を求める。
The
The
算出部192は、相関を算出する。具体的には、算出部192は、隣接するノード間における、ノードの値の分布の相関として相関係数を算出する。ここでいう隣接するノードは、1つのエッジの両端のノードである。すなわち、隣接するノードは、他のノードを経由せずに1つのエッジで直接接続されている2つのノードである。
例えば、算出部192が、コピュラ(Copula)を用いて相関係数を算出するようにしてもよい。
The
For example, the
算出部192は、さらに、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の、出力ノードの値のばらつき度合いに対する寄与度(影響の大きさ)の評価値を算出する。ここでいう隠れ層の最終ノードは、隠れ層のノードのうち出力ノードに隣接するノードである。
具体的には、算出部192は、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の各ノード間におけるノードの値の分布の相関の積を算出する。
The
Specifically, the
また、算出部192は、最終ノードから各出力ノードへ伝達される値のばらつき度合いを示す値を算出する。以下では、算出部192が、ばらつき度合いを示す値として分散を算出する場合を例に説明する。ただし、算出部192が算出するばらつき度合いを示す値は分散に限定されない。例えば、算出部192が、ばらつき度合いを示す値として標準偏差を算出するようにしてもよい。
そして、算出部192は、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の各ノード間におけるノードの値の分布の相関の積と、最終ノードから各出力ノードへ伝達される値の分散との積を算出する。
Further, the
Then, the
算出部192は、対象モデルの入力ノードから隠れ層の最終ノードまでの複数の経路の各々について、その経路が出力ノードの値のばらつき度合いに対する寄与度の評価値を算出する。例えば、算出部192は、全ての入力ノードから全ての隠れ層の最終ノードまでの全ての経路について、その経路が出力ノードの値のばらつき度合いに対する寄与度の評価値を算出する。
そして、算出部192は、経路毎の評価値に基づいて、経路に対する順位付けを行う。例えば、算出部192は、評価値の大きい順に経路を順位付けする。あるいは、算出部192が、評価値の小さい順に経路を順位付けするようにしてもよい。
The
The
図2は、表示部120による対象モデルの表示例を示す図である。図2の例で、対象モデルは入力層と、2層の隠れ層(中間層)と、出力層とを有する。入力層は、4個の入力ノードを有する。隠れ層の1層目は、6個の中間ノードを有する。隠れ層の2層目は、4個の中間ノードを有する。出力層は、3個の出力ノードを有する。
ただし、対象モデルは、図2の構造のモデルに限定されない。
FIG. 2 is a diagram showing an example of displaying a target model on the
However, the target model is not limited to the model with the structure shown in FIG.
入力層の各ノードから隠れ層の1層目の各ノードへ、隠れ層の1層目の各ノードから隠れ層の2層目の各ノードへ、および、隠れ層の2層目の各ノードから出力層の各ノードへ、有向のエッジが設けられている。各エッジには重み係数が設定されており、ノードから出力される値は、エッジにおける重み係数を乗算されて次のノードへ入力される。
このように、図2に示される対象モデルは、有向かつ非巡回のグラフの構造を有するモデルとなっている。
また、図2では、入力ノードx_0から出力ノードpred_2への経路のうち、中間ノードh0_4およびh1_0を経由する経路が示されている。
From each node of the input layer to each node of the first layer of the hidden layer, from each node of the first layer of the hidden layer to each node of the second layer of the hidden layer, and from each node of the second layer of the hidden layer A directed edge is provided to each node of the output layer. A weighting coefficient is set for each edge, and the value output from a node is multiplied by the weighting coefficient at the edge and input to the next node.
In this way, the target model shown in FIG. 2 has a directed and acyclic graph structure.
Further, in FIG. 2, among the routes from the input node x_0 to the output node pred_2, a route via intermediate nodes h0_4 and h1_0 is shown.
図3は、表示部120による対象モデルの各ノードの値の分布の表示例を示す図である。図3は、図2に示される対象モデルの各ノードの値の分布の例を示している。
図3の例で、表示部120は、ノード毎にヒストグラム(度数分布図)を示している。各ヒストグラムの横軸は、複数の入力データに対してそのノードがとり得る値を示す。縦軸は、そのノードがその値をとった回数を、入力データの個数で除算する正規化を行った値を示す。この正規化により、度数分布を確率分布として扱うことができる。
FIG. 3 is a diagram showing a display example of the distribution of values of each node of the target model on the
In the example of FIG. 3, the
また、図3の例で、表示部120は、各ノードの度数分布をクラス分類結果毎に異なるパターンで表示している。このクラス分類は、出力ノードの値によって示される。図3の例では、3つのノードpred_0、pred_1、pred_2のうち、いずれか最も大きい値を示すノードによって、pred_0のクラス、pred_1のクラス、pred_2のクラスの3つのクラスに分類されている。
Further, in the example of FIG. 3, the
図3のように度数分布のクラス分類の表示を可能にするために、取得部191は、入力データに対する各ノードの値を算出した後、算出したノードの値に、クラス分類結果(のクラス)のラベル付けを行う。取得部191は、与えられた全ての入力データに対して各ノードの値を算出した後、ノード毎に、そのノードがとった値を集計してヒストグラムを作成する。その際、取得部191が、あるノードがある値をとった回数を、ノードの値にラベル付けされたクラス毎に数える。これにより、表示部120は、図3の例のように各ノードの度数分布をクラス分類結果毎に異なるパターンで表示することができる。
In order to display the class classification of the frequency distribution as shown in FIG. Label. The
図3の例のように、表示部120が、各ノードの度数分布をクラス分類結果毎に異なるパターンで表示することで、ノードの値とクラス分類との関連性を視覚的に示すことができる。例えば、中間ノードh1_2では、クラス分類結果がpred_1のクラス、pred_2のクラスの何れの場合も、ノードの値は、ほぼ0となっている。このことから、中間ノードh1_2の値を用いたのでは、pred_1のクラスとpred_2のクラスとを分類することは困難であると考えられる。
As in the example of FIG. 3, the
一方、中間ノードh1_2では、クラス分類結果がpred_0のクラスの場合のノードの値は2よりも大きい値となっており、他のクラスの場合のノードの値(ほぼ0)とは異なっている。このことから、中間ノードh1_2の値を用いることで、pred_0のクラスとそれ以外のクラスとの分類が可能と考えられる。 On the other hand, in the intermediate node h1_2, the node value when the class classification result is pred_0 is a value larger than 2, which is different from the node value (approximately 0) for other classes. From this, it is considered possible to classify the pred_0 class and other classes by using the value of the intermediate node h1_2.
また、図3では、入力ノードx_3から隠れ層の2層目の中間ノードh1_0までの経路のうち、隠れ層の1層目の中間ノードh0_4を経由する経路が示されている。この経路は、入力ノードから隠れ層の最終ノードまでの経路の例に該当する。
この経路に関しては、算出部192は、入力ノードx_3の値の分布と、中間ノードh0_4の値の分布との相関、および、中間ノードh0_4の値の分布と、中間ノードh1_0の値の分布との相関を算出する。算出部192が、相関として相関係数を算出する場合、例えば、式(1)のように示される。
Further, in FIG. 3, among the routes from the input node x_3 to the intermediate node h1_0 in the second layer of the hidden layer, a route that passes through the intermediate node h0_4 in the first layer of the hidden layer is shown. This path corresponds to an example of a path from the input node to the final node of the hidden layer.
Regarding this path, the
ここで、ρは相関係数を示す。
また、上記のようにノードの値の分布を正規化することによって確率分布と見做すことができる、Xは、隣接する2つのノードのうち前段(データをエッジに出力する側)のノードの値の確率変数を示し、σXは、確率変数Xの標準偏差を示す。また、Yは、後段(エッジからのデータの入力を受ける側)のノードの値の確率変数を示し、σYは、確率変数Yの標準偏差を示す。
また、σXYは、確率変数XとYとの共分散を示す。
Here, ρ indicates a correlation coefficient.
In addition, by normalizing the distribution of node values as described above, it can be regarded as a probability distribution. denotes a random variable of value, and σ X denotes the standard deviation of the random variable X. Further, Y indicates a random variable of the value of a node at a subsequent stage (on the side receiving data input from an edge), and σ Y indicates a standard deviation of the random variable Y.
Moreover, σ XY indicates the covariance between the random variables X and Y.
これら隣接する2つの値の分布の相関は、後段のノードの値に対する前段のノードの値の寄与度(影響の大きさ)を示している。2つのノードの間のエッジの重み係数が正の値で、かつ、強い正の相関がある場合、および、2つのノードの間のエッジの重み係数が負の値で、かつ、強い負の相関がある場合のいずれも、後段のノードの値に対する前段のノードの値の寄与度が大きいといえる。一方、2つのノードの値の分布の相関が弱い場合、後段のノードの値に対する前段のノードの値の寄与度は小さいといえる。 The correlation between the distributions of these two adjacent values indicates the degree of contribution (magnitude of influence) of the value of the preceding node on the value of the subsequent node. When the edge weighting coefficient between two nodes is a positive value and there is a strong positive correlation, and when the edge weighting coefficient between two nodes is a negative value and there is a strong negative correlation. In either case, it can be said that the contribution of the value of the preceding node to the value of the subsequent node is large. On the other hand, when the correlation between the distributions of the values of two nodes is weak, it can be said that the degree of contribution of the value of the preceding node to the value of the subsequent node is small.
例えばユーザ等の人が、対象モデルを解釈する際、相関の強いノード間のエッジを重要視し、相関の弱いノード間のエッジは無視ないし軽視することが考えられる。また、表示部120が図2の例のように対象モデルを表示する際、相関の強いノード間のエッジを濃く表示し、相関の弱いノード間のエッジを薄く表示するようにしてもよい。
また、情報取得装置100または人(例えばユーザ)が、対象モデルのエッジのうち相関の弱いノード間のエッジを削除することでモデルの簡単化を行うようにしてもよい。
For example, when a person such as a user interprets a target model, it is conceivable that a person, such as a user, attaches importance to edges between nodes with strong correlation, and ignores or downplays edges between nodes with weak correlation. Furthermore, when
Alternatively, the
また、算出部192は、入力ノードから隠れ層の最終ノードまでの経路の各ノード間におけるノードの値の分布の相関の積を算出する。例えば、図3の入力ノードx_3から中間ノードh0_4を経由して中間ノードh1_0に至る経路の場合、算出部192は、入力ノードx_3の値の分布と中間ノードh0_4の値の分布との相関と、中間ノードh0_4の値の分布と中間ノードh1_0の値の分布との相関との積を算出する。
この積は、データがこの経路で伝達される度合いを示す。例えば、(正規化等によって)相関を確率と見做すことができる場合、この積は、データがこの経路を通る確率を示す。
算出部192が算出する相関の積は、式(2)のように示される。
The
This product indicates the degree to which data is transmitted along this path. For example, if the correlation can be viewed as a probability (such as through normalization), then this product indicates the probability that the data will follow this path.
The product of correlations calculated by the
ここで、ρprは、相関の積を示す。
Mは、相関の積の算出対象の経路におけるノードの個数を示す。ノードの個数がM個なので、ノード間の個数はM-1個となる。
ρiは、i番目のノードとi+1番目のノードとの間の、ノードの値の分布の相関を示す。
Here, ρ pr indicates the product of correlations.
M indicates the number of nodes on the route for which the correlation product is calculated. Since the number of nodes is M, the number of nodes between nodes is M-1.
ρ i indicates the correlation of the distribution of node values between the i-th node and the i+1-th node.
さらに、算出部192は、隠れ層の最終ノードから各出力ノードへ伝達される値のばらつき度合いを算出する。算出部192が、ばらつき度合いとして分散を算出する場合、式(3)のように示される。
Furthermore, the
ここでは、Xは、隠れ層の最終ノードから各出力ノードへ伝達される値(最終ノードからの出力にエッジでの重み係数を乗算した値)を確率分布で表した場合の確率変数を示す。Var(X)は、確率変数Xの分散を示す。E((X-μ)2)は、(X-μ)2の期待値を示す。
μは、隠れ層の最終ノードから各出力ノードへ伝達される値の期待値を示し、式(4)のように示される。
Here, X indicates a random variable when the value transmitted from the final node of the hidden layer to each output node (the value obtained by multiplying the output from the final node by the weighting coefficient at the edge) is expressed as a probability distribution. Var(X) indicates the variance of random variable X. E((X-μ) 2 ) indicates the expected value of (X-μ) 2 .
μ indicates the expected value of the value transmitted from the final node of the hidden layer to each output node, and is expressed as in equation (4).
ここで、ρprは、式(2)で算出される相関の積を示す。Nは、計算対象の隠れ層の最終ノードに隣接する出力ノードの個数を示す。w1、w2、・・・wNは、計算対象の隠れ層の最終ノードから、隣接する出力ノードへの各エッジにおける重み係数を示す。 Here, ρ pr indicates the product of correlations calculated by equation (2). N indicates the number of output nodes adjacent to the final node of the hidden layer to be calculated. w 1 , w 2 , . . . w N represent weighting coefficients at each edge from the final node of the hidden layer to be calculated to an adjacent output node.
この分散は、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の、出力ノードの値のばらつき度合いに対する寄与度の評価値の例に該当する。分散が大きいほど、この経路で伝達されるデータに基づく出力ノードの値のばらつき度合いが大きいことを示す。出力ノードの値のばらつき度合いが大きいほど、入力データのクラス分類への寄与度が大きいと評価できる。 This variance corresponds to an example of an evaluation value of the degree of contribution of the path from the input node of the target model to the final node of the hidden layer to the degree of variation in the value of the output node. The larger the variance, the greater the degree of variation in the values of the output nodes based on the data transmitted through this path. It can be evaluated that the greater the degree of variation in the values of the output nodes, the greater the contribution to the class classification of the input data.
図4は、表示部120による、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の、出力ノードの値のばらつき度合いに対する寄与度のランキングの表示例を示す図である。図4は、対象モデルが図2に示されるモデルである場合の例を示している。
図4の例で、表示部120は、入力ノードから隠れ層の最終ノードまでの経路のうち、出力ノードの値のばらつき度合いに対する寄与度が大きい順に上位10個の経路について、その経路と、各出力ノードの値(期待値)と、これら出力ノードの値の平均値および標準偏差を示している。
FIG. 4 is a diagram illustrating a display example of a ranking of the degree of contribution of the path from the input node of the target model to the final node of the hidden layer to the degree of variation in the value of the output node, displayed by the
In the example of FIG. 4, the
図4に示される標準偏差は、算出部192が算出する、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の、出力ノードの値のばらつき度合いに対する寄与度の評価値の例に該当する。標準偏差の値が大きいほど、出力ノードの値のばらつき度合いが大きく、入力データのクラス分類への寄与度が大きいと評価できる。
The standard deviation shown in FIG. 4 corresponds to an example of the evaluation value calculated by the
このランキングによって、対象モデルによる予測結果(入力データのクラス分類)の出力に有用な経路が示されているといえる。例えばユーザが、対象モデルを解釈する場合、予測結果の出力に有用な経路に注目することで、解釈が比較的容易になると期待される。
あるいは、ユーザが対象モデルをチューニングする場合、予測結果の出力に有用な経路における重み係数の値を重点的にチューニングすることで、比較的効率的にチューニングを行えると期待される。
It can be said that this ranking shows a path that is useful for outputting prediction results (class classification of input data) by the target model. For example, when a user interprets a target model, it is expected that the interpretation will become relatively easy by focusing on paths that are useful for outputting prediction results.
Alternatively, when a user tunes a target model, it is expected that tuning can be done relatively efficiently by focusing on tuning the values of weighting coefficients on paths useful for outputting prediction results.
あるいは、ユーザが対象モデルを簡単化する場合、予測結果の出力への貢献度が小さいエッジまたはノード、あるいはこれらエッジおよびノードの両方を削除するようにしてもよい。予測結果の出力に有用な経路に含まれないエッジまたはノードを、予測結果の出力への貢献度が小さいエッジまたはノードと見做すことができる。
これにより、エッジまたはノードの個数を減らしてモデルを簡単化することができ、かつ、予測結果への影響が小さいことが期待される。
Alternatively, when the user simplifies the target model, the user may delete edges or nodes that have a small contribution to the output of the prediction result, or both of these edges and nodes. An edge or node that is not included in a path useful for outputting a prediction result can be regarded as an edge or node that has a small contribution to outputting a prediction result.
As a result, it is possible to simplify the model by reducing the number of edges or nodes, and it is expected that the influence on the prediction results will be small.
表示部120が、出力ノードの値のばらつき度合いに対する寄与度が大きい順の経路のランキングに加えて、あるいは代えて、出力ノードの値のばらつき度合いに対する寄与度が小さい順の経路のランキングを表示するようにしてもよい。
ユーザが、予測結果の出力への貢献度が小さいエッジまたはノードを削除する場合、寄与度が小さい順の経路のランキングを参考にすることができる。
In addition to or in place of the ranking of routes in order of increasing contribution to the degree of variation in output node values, the
When the user deletes edges or nodes that have a small contribution to the output of the prediction result, the user can refer to the ranking of routes in descending order of contribution.
次に、図5を参照して情報取得装置100の動作について説明する。
図5は、情報取得装置100が、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の、出力ノードの値のばらつき度合いに対する寄与度のランキングを表示する場合の処理手順の例を示すフローチャートである。
Next, the operation of the
FIG. 5 is a flowchart illustrating an example of a processing procedure when the
図5の処理で、取得部191は、複数の入力データを取得し、これらの入力データを対象モデルに入力してモデルの演算を行うことで、各ノードにおけるノードの値の分布を取得する(ステップS11)。なお、図3の例のように、ノードの値の分布をクラス毎に分類して表示部120に表示させる場合、取得部191は、入力データ毎かつノード毎のノードの値に、その入力データに対する予測結果(クラス分類結果)をメタデータとして付加しておく。
In the process of FIG. 5, the
次に、算出部192は、入力ノードおよび中間ノードのうち、隣接するノード間におけるノードの値の分布の相関を算出する(ステップS12)。
そして、算出部192は、入力ノードから隠れ層の最終ノードまでの経路の各々について、その経路における各ノード間の、ノードの値の分布の相関の積を算出する(ステップS13)。
Next, the
Then, for each path from the input node to the final node of the hidden layer, the
さらに算出部192は、入力ノードから隠れ層の最終ノードまでの経路毎に、隠れ層の最終ノードから出力ノードへ伝達される値(最終ノードからの出力(の期待値)に、エッジ毎の重み係数を乗算した値)の分散を算出する(ステップS14)。この分散は、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の、出力ノードの値のばらつき度合いに対する寄与度の評価値の例に該当する。
Furthermore, the
算出部192は、得られた分散に基づいて、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の、出力ノードの値のばらつき度合いに対する寄与度のランキングを生成し、表示部120に表示させる(ステップS15)。
ステップS15の後、情報取得装置100は、図5の処理を終了する。
Based on the obtained variance, the
After step S15, the
以上のように、取得部191は、グラフィカルモデルへの複数の入力データに対するノードの値の分布を求める。算出部192は、隣接するノード間における、ノードの値の分布の相関を算出する。
これにより、情報取得装置100が、隣接するノードの関係を示すことができる。特に、情報取得装置100は、この相関を示すことにより、後段(データの入力を受ける側)のノードの値に対する前段(データを出力する側)のノードの値の寄与度(影響の大きさ)を示すことができる。
As described above, the
This allows the
人(例えばユーザ)が対象モデルを解釈する際、相関の強いノード間のエッジを重要視し、相関の弱いノード間のエッジは無視ないし軽視することができる。このように、情報取得装置100は、対象モデルの解釈を行うための情報を提供することができる。
また、情報取得装置100または人(例えばユーザ)が、対象モデルのエッジのうち相関の弱いノード間のエッジを削除することでモデルを簡単化することができる。この場合、相関の弱いノード間のエッジを削除する点で、モデルの予測結果(入力データのクラス分類結果)に対する影響が比較的小さいことが期待される。
When a person (for example, a user) interprets a target model, it is possible to place importance on edges between nodes with strong correlations, and to ignore or downplay edges between nodes with weak correlations. In this way, the
Furthermore, the
また、算出部192は、対象モデルの入力ノードから隠れ層の最終ノードまでの経路の各ノード間における前記分布の相関の強さを示す値、および、前記最終ノードから各出力ノードへ伝達される値のばらつき度合いを示す値に基づいて、前記出力ノードの値に対する前記経路の寄与度の評価値を算出する。
The
情報取得装置100は、この評価値を、対象モデルの解釈を行うための情報として提供することができる。
特に、このランキングによって、対象モデルによる予測結果(入力データのクラス分類)の出力に有用な経路が示されているといえる。ユーザ等の人が、対象モデルを解釈する場合、予測結果の出力に有用な経路に注目することで、解釈が比較的容易になると期待される。
あるいは、ユーザ等の人が対象モデルをチューニングする場合、予測結果の出力に有用な経路における重み係数の値を重点的にチューニングすることで、比較的効率的にチューニングを行えると期待される。
The
In particular, it can be said that this ranking shows a path that is useful for outputting prediction results (class classification of input data) by the target model. When a person such as a user interprets a target model, it is expected that the interpretation will become relatively easy by focusing on the path that is useful for outputting prediction results.
Alternatively, when a person such as a user tunes a target model, it is expected that tuning can be performed relatively efficiently by focusing on tuning the values of weighting coefficients on paths useful for outputting prediction results.
あるいは、ユーザ等の人が対象モデルを簡単化する場合、予測結果の出力への貢献度が小さいエッジまたはノード、あるいはこれらエッジおよびノードの両方を削除するようにしてもよい。予測結果の出力に有用な経路に含まれないエッジまたはノードを、予測結果の出力への貢献度が小さいエッジまたはノードと見做すことができる。
これにより、エッジまたはノードの個数を減らしてモデルを簡単化することができ、かつ、予測結果への影響が小さいことが期待される。
Alternatively, when a person such as a user simplifies the target model, edges or nodes having a small contribution to the output of the prediction result, or both of these edges and nodes may be deleted. An edge or node that is not included in a path useful for outputting a prediction result can be regarded as an edge or node that has a small contribution to outputting a prediction result.
As a result, it is possible to simplify the model by reducing the number of edges or nodes, and it is expected that the influence on the prediction results will be small.
また、算出部192は、対象モデルの入力ノードから隠れ層の最終ノードまでの経路毎の評価値に基づいて、経路に対する順位付けを行う。
ユーザ等の人は、この順位付けの結果(ランキング)を参照することで、対象モデルによる予測結果の出力に有用な経路、あるいは、対象モデルによる予測結果の出力に有用でない経路を把握することができる。
Further, the
By referring to this ranking result (ranking), users and other people can understand which routes are useful for outputting prediction results by the target model, or which routes are not useful for outputting prediction results by the target model. can.
また、表示部120は、複数の入力データに対する、あるノードの値の分布を、入力データに対するクラス分類結果毎に異なる表示態様で表示する。
表示部120は、各ノードの度数分布をクラス分類結果毎に異なるパターンで表示することで、ノードの値とクラス分類との関連性を視覚的に示すことができる。
Furthermore, the
The
次に、図6および図7を参照して、実施形態に係る構成例について説明する。
図6は、実施形態に係る情報取得装置の構成の例を示す図である。図6に示す情報取得装置200は、取得部201と、算出部202とを備える。
かかる構成で、取得部201は、グラフィカルモデルへの複数の入力データに対するノードの値の分布を求める。算出部202は、ノード間における、ノードの値の分布の相関を算出する。
Next, a configuration example according to the embodiment will be described with reference to FIGS. 6 and 7.
FIG. 6 is a diagram illustrating an example of the configuration of the information acquisition device according to the embodiment. The
With this configuration, the
これにより、情報取得装置200は、隣接するノードの関係を示すことができる。特に、情報取得装置200は、この相関を示すことにより、後段(データの入力を受ける側)のノードの値に対する前段(データを出力する側)のノードの値の寄与度(影響の大きさ)を示すことができる。
人(例えばユーザ)がグラフィカルモデルを解釈する際、相関の強いノード間のエッジを重要視し、相関の弱いノード間のエッジは無視ないし軽視することができる。このように、情報取得装置200は、グラフィカルモデルの解釈を行うための情報を提供することができる。
Thereby, the
When a person (for example, a user) interprets a graphical model, it is possible to place importance on edges between nodes with strong correlations, and to ignore or downplay edges between nodes with weak correlations. In this way, the
また、情報取得装置200または人(例えばユーザ)が、グラフィカルモデルのエッジのうち相関の弱いノード間のエッジを削除することでモデルを簡単化することができる。この場合、相関の弱いノード間のエッジを削除する点で、モデルの予測結果(入力データのクラス分類結果)に対する影響が比較的小さいことが期待される。
Furthermore, the
図7は、実施形態に係る情報取得方法における処理手順の例を示す図である。
図7に示される情報取得方法は、グラフィカルモデルへの複数の入力データに対するノードの値の分布を求める工程(ステップS21)と、ノード間における、ノードの値の分布の相関を算出する工程(ステップS22)とを含む。
FIG. 7 is a diagram illustrating an example of a processing procedure in the information acquisition method according to the embodiment.
The information acquisition method shown in FIG. 7 includes the step of calculating the distribution of node values for a plurality of input data to the graphical model (step S21), and the step of calculating the correlation of the distribution of node values between nodes (step S21). S22).
図7の情報取得方法によれば、隣接するノードの関係を示すことができる。特に、この相関を示すことにより、後段(データの入力を受ける側)のノードの値に対する前段(データを出力する側)のノードの値の寄与度(影響の大きさ)を示すことができる。
人(例えばユーザ)がグラフィカルモデルを解釈する際、相関の強いノード間のエッジを重要視し、相関の弱いノード間のエッジは無視ないし軽視することができる。このように、図7の情報取得方法によれば、グラフィカルモデルの解釈を行うための情報を提供することができる。
According to the information acquisition method of FIG. 7, the relationship between adjacent nodes can be shown. In particular, by showing this correlation, it is possible to show the degree of contribution (magnitude of influence) of the value of the node in the previous stage (the side that outputs data) with respect to the value of the node in the latter stage (the side that receives data input).
When a person (for example, a user) interprets a graphical model, it is possible to place importance on edges between nodes with strong correlations, and to ignore or downplay edges between nodes with weak correlations. In this way, according to the information acquisition method shown in FIG. 7, information for interpreting the graphical model can be provided.
また、例えば人(例えばユーザ)が、グラフィカルモデルのエッジのうち相関の弱いノード間のエッジを削除することでモデルを簡単化することができる。この場合、相関の弱いノード間のエッジを削除する点で、モデルの予測結果(入力データのクラス分類結果)に対する影響が比較的小さいことが期待される。 Furthermore, for example, a person (for example, a user) can simplify the model by deleting edges between nodes with weak correlation among the edges of the graphical model. In this case, it is expected that the impact on the prediction results of the model (classification results of input data) will be relatively small in that edges between nodes with weak correlation are deleted.
図8は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
図8に示す構成で、コンピュータ700は、CPU(Central Processing Unit)710と、主記憶装置720と、補助記憶装置730と、インタフェース740とを備える。
FIG. 8 is a schematic block diagram showing the configuration of a computer according to at least one embodiment.
With the configuration shown in FIG. 8, the
上記の情報取得装置100および200の何れかまたは両方が、コンピュータ700に実装されてもよい。その場合、上述した各処理部の動作は、プログラムの形式で補助記憶装置730に記憶されている。CPU710は、プログラムを補助記憶装置730から読み出して主記憶装置720に展開し、当該プログラムに従って上記処理を実行する。また、CPU710は、プログラムに従って、上述した各記憶部に対応する記憶領域を主記憶装置720に確保する。各装置と他の装置との通信は、インタフェース740が通信機能を有し、CPU710の制御に従って通信を行うことで実行される。補助記憶装置730は、たとえば、CDC(Compact Disc)や、DVD(digital versatile disc)等の不揮発性(non-transitory)記録媒体である。
Either or both of the
情報取得装置100がコンピュータ700に実装される場合、制御部190およびその各部の動作は、プログラムの形式で補助記憶装置730に記憶されている。CPU710は、プログラムを補助記憶装置730から読み出して主記憶装置720に展開し、当該プログラムに従って上記処理を実行する。
また、CPU710は、プログラムに従って、記憶部180およびその各部に対応する記憶領域を主記憶装置720に確保する。通信部110が行う通信は、インタフェース740が通信機能を有し、CPU710の制御に従って通信を行うことで実行される。表示部120の機能は、インタフェース740が表示デバイスを有し、CPU710の制御に従って表示デバイスの表示画面に画像を表示することで実行される。操作入力部130の機能は、インタフェース740が入力デバイスを有してユーザ操作を受け付け、受け付けたユーザ操作を示す信号をCPU710へ出力することで行われる。
When the
Further, the
情報取得装置200がコンピュータ700に実装される場合、取得部201および算出部202の動作は、プログラムの形式で補助記憶装置730に記憶されている。CPU710は、プログラムを補助記憶装置730から読み出して主記憶装置720に展開し、当該プログラムに従って上記処理を実行する。
When the
なお、制御部190が行う処理、取得部201が行う処理、および、算出部202が行う処理の全部または一部を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD-ROM(Compact Disc Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Note that a program for executing all or part of the processing performed by the
Furthermore, "computer-readable recording media" refers to portable media such as flexible disks, magneto-optical disks, ROM (Read Only Memory), and CD-ROM (Compact Disc Read Only Memory), and hard disks built into computer systems. Refers to storage devices such as Further, the above-mentioned program may be one for realizing a part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the specific configuration is not limited to these embodiments, and includes designs within the scope of the gist of the present invention.
100、200 情報取得装置
110 通信部
120 表示部
130 操作入力部
180 記憶部
181 モデル記憶部
190 制御部
191、201 取得部
192、202 算出部
100, 200 information acquisition device 110
Claims (5)
ノード間における前記分布の相関を算出し、前記グラフィカルモデルの入力ノードから隠れ層の最終ノードまでの経路の各ノード間における前記分布の相関の強さを示す値、および、前記最終ノードから各出力ノードへ伝達される値のばらつき度合いを示す値に基づいて、前記出力ノードの値に対する前記経路の寄与度の評価値を算出する算出部と、
を備える情報取得装置。 an acquisition unit that calculates the distribution of node values for multiple input data to the graphical model;
The correlation of the distribution between nodes is calculated, and a value indicating the strength of the correlation of the distribution between each node of the path from the input node of the graphical model to the final node of the hidden layer, and each output from the final node. a calculation unit that calculates an evaluation value of the degree of contribution of the route to the value of the output node based on a value indicating the degree of dispersion of the values transmitted to the nodes;
An information acquisition device comprising:
請求項1に記載の情報取得装置。 The calculation unit ranks the routes based on the evaluation value for each route.
The information acquisition device according to claim 1 .
請求項1または請求項2に記載の情報取得装置。 comprising a display unit that displays the distribution of values of a certain node for the plurality of input data in a different display mode for each class classification result for the input data;
The information acquisition device according to claim 1 or claim 2 .
を含む情報取得方法。 a step of calculating the distribution of node values for a plurality of input data to the graphical model; and calculating the correlation of the distribution between the nodes , and calculating the correlation between the nodes of the path from the input node of the graphical model to the final node of the hidden layer. An evaluation value of the degree of contribution of the route to the value of the output node is calculated based on a value indicating the strength of the correlation of the distribution and a value indicating the degree of dispersion of the values transmitted from the final node to each output node. The process of calculating ,
How to obtain information including.
ノード間における前記分布の相関を算出し、前記グラフィカルモデルの入力ノードから隠れ層の最終ノードまでの経路の各ノード間における前記分布の相関の強さを示す値、および、前記最終ノードから各出力ノードへ伝達される値のばらつき度合いを示す値に基づいて、前記出力ノードの値に対する前記経路の寄与度の評価値を算出する工程と、
を実行させるためのプログラム。 determining a distribution of node values for a plurality of input data to the graphical model on a computer;
The correlation of the distribution between nodes is calculated, and a value indicating the strength of the correlation of the distribution between each node of the path from the input node of the graphical model to the final node of the hidden layer, and each output from the final node. calculating an evaluation value of the degree of contribution of the route to the value of the output node based on a value indicating the degree of dispersion of the values transmitted to the node ;
A program to run.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019184795A JP7421046B2 (en) | 2019-10-07 | 2019-10-07 | Information acquisition device, information acquisition method and program |
PCT/JP2020/036532 WO2021070653A1 (en) | 2019-10-07 | 2020-09-28 | Information acquisition device, information acquisition method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019184795A JP7421046B2 (en) | 2019-10-07 | 2019-10-07 | Information acquisition device, information acquisition method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021060823A JP2021060823A (en) | 2021-04-15 |
JP7421046B2 true JP7421046B2 (en) | 2024-01-24 |
Family
ID=75380208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019184795A Active JP7421046B2 (en) | 2019-10-07 | 2019-10-07 | Information acquisition device, information acquisition method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7421046B2 (en) |
WO (1) | WO2021070653A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011054200A (en) | 2010-11-11 | 2011-03-17 | Fuji Electric Systems Co Ltd | Neural network learning method |
KR101916348B1 (en) | 2017-08-04 | 2018-11-08 | 주식회사 수아랩 | Method for training artificial neural network |
-
2019
- 2019-10-07 JP JP2019184795A patent/JP7421046B2/en active Active
-
2020
- 2020-09-28 WO PCT/JP2020/036532 patent/WO2021070653A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011054200A (en) | 2010-11-11 | 2011-03-17 | Fuji Electric Systems Co Ltd | Neural network learning method |
KR101916348B1 (en) | 2017-08-04 | 2018-11-08 | 주식회사 수아랩 | Method for training artificial neural network |
Also Published As
Publication number | Publication date |
---|---|
WO2021070653A1 (en) | 2021-04-15 |
JP2021060823A (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10789546B2 (en) | Cognitive machine learning classifier generation | |
US11816080B2 (en) | Severity computation of anomalies in information technology operations | |
US9111375B2 (en) | Evaluation of three-dimensional scenes using two-dimensional representations | |
Bahaadini et al. | Deep multi-view models for glitch classification | |
US20190311258A1 (en) | Data dependent model initialization | |
US10789538B2 (en) | Cognitive machine learning classifier generation | |
CN106471525A (en) | Strength neural network is to generate additional output | |
EP3598288A1 (en) | System and method for generating photorealistic synthetic images based on semantic information | |
US20140029840A1 (en) | High accuracy learning by boosting weak learners | |
CN112215696A (en) | Personal credit evaluation and interpretation method, device, equipment and storage medium based on time sequence attribution analysis | |
EP3745325A1 (en) | Data analysis apparatus, data analysis method, and data analysis program | |
JP5123759B2 (en) | Pattern detector learning apparatus, learning method, and program | |
US20140236869A1 (en) | Interactive variable selection device, interactive variable selection method, and interactive variable selection program | |
Vasquez Verdugo et al. | Faired: A systematic fairness analysis approach applied in a higher educational context | |
JP6955233B2 (en) | Predictive model creation device, predictive model creation method, and predictive model creation program | |
Ikawati et al. | Student behavior analysis to predict learning styles based felder silverman model using ensemble tree method | |
EP3745317A1 (en) | Apparatus and method for analyzing time series data based on machine learning | |
US20220121991A1 (en) | Model building apparatus, model building method, computer program and recording medium | |
US10546246B2 (en) | Enhanced kernel representation for processing multimodal data | |
JP7421046B2 (en) | Information acquisition device, information acquisition method and program | |
Vu et al. | c-Eval: A unified metric to evaluate feature-based explanations via perturbation | |
WO2020059136A1 (en) | Decision list learning device, decision list learning method, and decision list learning program | |
US20220129792A1 (en) | Method and apparatus for presenting determination result | |
CN117063208A (en) | Unsupervised multi-model joint reasoning system and method | |
Salamati et al. | Perception-in-the-loop adversarial examples |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191025 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7421046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |