JP6439211B2 - Explanation sentence generation device, explanation document creation method and program - Google Patents
Explanation sentence generation device, explanation document creation method and program Download PDFInfo
- Publication number
- JP6439211B2 JP6439211B2 JP2015041313A JP2015041313A JP6439211B2 JP 6439211 B2 JP6439211 B2 JP 6439211B2 JP 2015041313 A JP2015041313 A JP 2015041313A JP 2015041313 A JP2015041313 A JP 2015041313A JP 6439211 B2 JP6439211 B2 JP 6439211B2
- Authority
- JP
- Japan
- Prior art keywords
- explanatory
- decision tree
- explanatory note
- node
- explanation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、説明文生成装置、説明文書作成方法およびプログラムに関する。 The present invention relates to an explanatory note generation device, an explanatory document creation method, and a program.
コンピュータによる機械学習技術に基づく判断プロセスが、実生活で利用される機会が増えている。当該判断プロセスは、コンピュータによって最適化されたものであり、人間が当該判断プロセスを理解することは困難であることが多い。 Opportunities to use the judgment process based on machine learning technology by computer in real life are increasing. The determination process is optimized by a computer, and it is often difficult for a human to understand the determination process.
人間による理解が比較的容易な判断プロセスとして、決定木および決定ネットワーク(例えば、特許文献1を参照)が知られている。決定木とは、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードと、各ノードを接続するリンクとからなる木構造の分類モデルである。決定ネットワークは、複数のデータの入力を可能とするグラフ構造の分類モデルである。なお、決定ネットワークは、分類の対象となる対象データの所属クラスを決定する主決定木と、主決定木の判定条件を決定する副決定木とを組み合わせたものであり、決定木の一種といえる。 A decision tree and a decision network (see, for example, Patent Document 1) are known as judgment processes that are relatively easy to understand by humans. A decision tree is a classification model of a tree structure consisting of an internal node associated with a feature value determination condition and a branch destination node, a leaf node associated with a belonging class, and a link connecting each node. . The decision network is a classification model having a graph structure that allows a plurality of data to be input. The decision network is a combination of a main decision tree that determines the class to which the target data to be classified belongs and a sub-decision tree that determines the criteria for determining the main decision tree. .
しかしながら、決定木は、比較的理解しやすい判断プロセスであるとはいえ、情報工学に明るくない利用者にとっては、依然として理解することが困難である。
本発明の目的は、決定木による判断プロセスを人間に理解させるための説明文を生成する説明文生成装置、説明文書作成方法およびプログラムを提供することにある。
However, although a decision tree is a relatively easy-to-understand decision process, it is still difficult to understand for users who are not familiar with information engineering.
An object of the present invention is to provide an explanatory note generation device, an explanatory document creation method, and a program for generating an explanatory note for allowing a human to understand a determination process based on a decision tree.
本発明の第1の態様によれば、説明文生成装置は、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得する決定木取得部と、特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部と、前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語に基づいて、前記決定木の説明文を生成する説明文生成部とを備える。 According to the first aspect of the present invention, an explanatory note generating apparatus generates a decision tree having an internal node associated with a feature quantity determination condition and a branch destination node, and a leaf node associated with a belonging class. A decision tree acquisition unit to be acquired; an explanation storage unit for storing an explanatory word representing the feature amount in a predetermined language in association with the feature amount; and the explanatory word associated with the feature amount used in the determination condition of the node And an explanatory note generation unit for generating an explanatory note of the decision tree.
本発明の第2の態様によれば、第1の態様に係る説明文生成装置は、前記判定条件は、前記特徴量と所定の閾値との比較に係るものであって、前記説明記憶部が、閾値に関連付けて当該閾値によって定義される範囲を表す述語を記憶し、前記説明文生成部が、前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語と、当該判定条件が用いる閾値に関連付けられた前記述語とに基づいて、前記決定木の説明文を生成する。 According to the second aspect of the present invention, in the explanatory note generating apparatus according to the first aspect, the determination condition relates to a comparison between the feature amount and a predetermined threshold value, and the explanation storage unit , Storing a predicate representing a range defined by the threshold value in association with the threshold value, and the explanatory text generation unit uses the explanatory word associated with the feature quantity used for the determination condition of the node and the determination condition An explanatory text of the decision tree is generated based on the previous description word associated with the threshold value.
本発明の第3の態様によれば、第1または第2の態様に係る説明文生成装置は、説明文に表すべきノードの量の入力を受け付けるノード量入力部をさらに備え、前記説明文生成部が、前記ノード量入力部に入力された量のノードに係る説明文を生成する。 According to the third aspect of the present invention, the explanatory note generating apparatus according to the first or second aspect further includes a node amount input unit that receives an input of the amount of a node to be expressed in the explanatory note, and the explanatory note generating unit The unit generates an explanatory note relating to the amount of nodes input to the node amount input unit.
本発明の第4の態様によれば、第3の態様に係る説明文生成装置は、前記説明文生成部が、前記決定木のノードのうち深さが小さいものから順に、前記ノード量入力部に入力された量のノードに係る説明文を生成する。 According to a fourth aspect of the present invention, in the explanatory note generating apparatus according to the third aspect, the explanatory note generating unit is configured such that the node amount input unit is in order from the smallest of the nodes of the decision tree. An explanatory note relating to the number of nodes input in the above is generated.
本発明の第5の態様によれば、第3の態様に係る説明文生成装置は、前記説明記憶部が、前記説明語に関連付けて、当該説明語のわかりやすさを示す値を記憶し、前記説明文生成部が、前記決定木のノードのうち判定条件に用いられる特徴量のわかりやすさが高いものから順に、前記ノード量入力部に入力された量のノードに係る説明文を生成する。 According to a fifth aspect of the present invention, in the explanatory note generating apparatus according to the third aspect, the explanation storage unit stores a value indicating the easy-to-understand explanation word in association with the explanation word, and the explanation The sentence generation unit generates an explanatory sentence relating to the nodes of the amount input to the node amount input unit in descending order of the feature amount used for the determination condition among the nodes of the decision tree.
本発明の第6の態様によれば、第1から第5の何れかの態様に係る説明文生成装置は、前記決定木による分類の対象となる対象データの入力を受け付ける対象データ入力部と、前記決定木に基づいて前記対象データの所属クラスを分類する分類部とをさらに備え、前記説明文生成部が、前記決定木のうち前記分類部が分類の過程で辿った経路に係る説明文を生成する。 According to the sixth aspect of the present invention, the explanatory note generating apparatus according to any one of the first to fifth aspects includes a target data input unit that receives input of target data to be classified by the decision tree; A classification unit that classifies the class to which the target data belongs based on the decision tree, and the description sentence generation unit includes an explanation sentence relating to a path that the classification unit has traced in the classification process of the decision tree. Generate.
本発明の第7の態様によれば、第1から第5の何れかの態様に係る説明文生成装置は、前記説明文生成部が、一の所属クラスを示す葉ノードのうち、前記決定木の学習に用いた学習データの到達数が最も多いものへ到達する経路に属するノードに係る説明文を生成する。 According to a seventh aspect of the present invention, in the explanatory note generating device according to any one of the first to fifth aspects, the explanatory note generating unit includes the decision tree among leaf nodes indicating one belonging class. An explanatory text relating to a node belonging to a route that reaches the largest number of arrivals of learning data used for learning is generated.
本発明の第8の態様によれば、第1から第7の何れかの態様に係る説明文生成装置は、前記説明記憶部が、複数の特徴量の組み合わせに関連付けて当該組み合わせを表す説明語を記憶し、前記説明文生成部が、前記決定木の経路に属するノードの中に前記特徴量の組み合わせに対応するノードの組み合わせが含まれる場合に、前記特徴量の組み合わせに関連付けられた説明語に基づいて前記決定木の説明文を生成する。 According to an eighth aspect of the present invention, in the explanatory note generating device according to any one of the first to seventh aspects, the explanatory storage unit associates a plurality of feature amounts with each other and represents the combination And when the explanation sentence generation unit includes a node combination corresponding to the feature quantity combination among the nodes belonging to the path of the decision tree, the explanation word associated with the feature quantity combination. The description of the decision tree is generated based on
本発明の第9の態様によれば、第1から第8の何れかの態様に係る説明文生成装置は、前記決定木が、前記決定木による分類の対象となる対象データの所属クラスを決定する主決定木と、前記主決定木の前記判定条件に係る前記特徴量の範囲を決定する副決定木とを含む。 According to the ninth aspect of the present invention, in the explanatory note generating device according to any one of the first to eighth aspects, the decision tree determines a affiliation class of target data to be classified by the decision tree. And a sub-decision tree that determines a range of the feature amount related to the determination condition of the main decision tree.
本発明の第10の態様によれば、第9の態様に係る説明文生成装置は、前記説明文生成部が、前記主決定木の説明文を生成し、前記主決定木の経路に属するノードの中に前記副決定木によって前記特徴量の範囲が決定されるものが含まれる場合に、さらに当該副決定木の説明文を生成する。 According to a tenth aspect of the present invention, in the explanatory note generating apparatus according to the ninth aspect, the explanatory note generating unit generates an explanatory note of the main decision tree, and the nodes belong to the path of the main decision tree If the sub-decision tree includes those whose range of the feature amount is determined, an explanation of the sub-decision tree is further generated.
本発明の第11の態様によれば、説明文書作成方法は、説明文生成装置が、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得するステップと、前記説明文生成装置が、特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部が前記ノードの判定条件に用いられる特徴量に関連付けて記憶する前記説明語に基づいて、前記決定木の説明文を生成するステップと、前記説明文を含む文書を作成するステップとを備える。 According to an eleventh aspect of the present invention, in the explanatory document creating method, the explanatory note generating apparatus is configured such that the internal node associated with the feature amount determination condition and the branch destination node, and the leaf node associated with the belonging class. And a description storage unit that stores an explanatory word that represents the feature quantity in a predetermined language in association with the feature quantity, and is used as the determination condition of the node. The method includes a step of generating an explanatory text of the decision tree based on the explanatory word stored in association with a feature amount, and a step of creating a document including the explanatory text.
本発明の第12の態様によれば、プログラムは、コンピュータを、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得する決定木取得部、特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部、前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語に基づいて、前記決定木の説明文を生成する説明文生成部として機能させる。 According to the twelfth aspect of the present invention, a program causes a computer to execute a decision tree having an internal node associated with a feature value determination condition and a branch destination node, and a leaf node associated with a belonging class. A decision tree acquisition unit to acquire, an explanation storage unit for storing an explanatory word representing the feature quantity in a predetermined language in association with the feature quantity, based on the explanatory word associated with the feature quantity used for the determination condition of the node And functioning as an explanatory sentence generation unit for generating an explanatory sentence of the decision tree.
上記態様のうち少なくとも1つの態様によれば、説明文生成装置は、決定木のノードの判定条件を所定の言語で表した説明文を生成する。これにより、説明文生成装置は、当該言語を理解することができる利用者に、決定木による判断プロセスを理解させることができる。 According to at least one of the above aspects, the explanatory note generation device generates an explanatory sentence that expresses the determination condition of the node of the decision tree in a predetermined language. Thereby, the explanatory note generation device can make the user who can understand the language understand the determination process by the decision tree.
《第1の実施形態》
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、第1の実施形態に係る説明文生成装置の構成を示す概略ブロック図である。
説明文生成装置100は、決定木の入力を受け付け、当該決定木による判断プロセスの説明文を生成する。具体的には、説明文生成装置100は、決定木によって分類される複数の所属クラスそれぞれについて、当該所属クラスに属すると判断する判断プロセスの説明文を生成する。なお、決定木とは、入力データを複数の所属クラスの1つに分類する分類モデルである。具体的には、決定木は、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードと、各ノードを接続するリンクとからなる木構造の分類モデルである。
説明文生成装置100は、決定木取得部101、説明記憶部102、条件入力部103、説明文生成部104、出力部105を備える。
<< First Embodiment >>
Hereinafter, embodiments will be described in detail with reference to the drawings.
FIG. 1 is a schematic block diagram illustrating a configuration of an explanatory note generating apparatus according to the first embodiment.
The explanatory
The explanatory
決定木取得部101は、説明対象となる決定木および当該決定木の学習時に生成されるメタデータを取得する。メタデータには、決定木の各ノードについての学習データの通過率または通過数が含まれる。
説明記憶部102は、説明語テーブルと述語テーブルとを記憶する。説明語テーブルには、決定木による判断対象となる特徴量と当該特徴量を表す日本語の説明語とが関連付けて格納される。
The decision
The
図2は、説明語テーブルの例を示す図である。
図2に示す例によれば、説明語テーブルには、「黄色周辺の色相(色相30度以上90度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「黄色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「緑色周辺の色相(色相90度以上150度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「緑色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「水色周辺の色相(色相150度以上210度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「水色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「青色周辺の色相(色相210度以上270度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「青色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「紫色周辺の色相(色相270度以上330度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「紫色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「赤色周辺の色相(色相330度以上360度未満および色相0度以上30度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「赤色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「色相の分散」という特徴量に関連付けて、「色数が」という説明語が格納される。また、説明語テーブルには、「彩度の平均値」という特徴量に関連付けて、「鮮やかさが」という説明語が格納される。また、説明語テーブルには、「明度の平均値」という特徴量に関連付けて、「明るさが」という説明語が格納される。また、説明語テーブルには、「垂直線±20度のエッジをもつ画素数を全画素数で除算した値」という特徴量に関連付けて、「縦線が」という説明語が格納される。また、説明語テーブルには、「水平線±20度のエッジをもつ画素数を全画素数で除算した値」という特徴量に関連付けて、「横線が」という説明語が格納される。また、説明語テーブルには、「縦線・横線以外のエッジをもつ画素数を全画素数で除算した値」という特徴量に関連付けて、「斜線が」という説明語が格納される。
FIG. 2 is a diagram illustrating an example of the explanatory word table.
According to the example shown in FIG. 2, the explanatory word table associates with the feature quantity “a value obtained by dividing the number of pixels of the hue around yellow (hue 30 degrees or more and less than 90 degrees) by the total number of pixels”. The explanatory word “is a sexy part” is stored. Also, in the explanatory word table, an explanatory word “a greenish part” is associated with the feature quantity “a value obtained by dividing the number of pixels of the hue around green (hue 90 degrees or more and less than 150 degrees) by the total number of pixels”. Is stored. In addition, the explanatory word table is associated with a feature amount “a value obtained by dividing the number of pixels in the hue around light blue (hue 150 degrees or more and less than 210 degrees) by the total number of pixels”, and an explanatory word “a light blue portion” Is stored. Also, in the explanatory word table, an explanatory word “a blueish part” is associated with a feature amount “a value obtained by dividing the number of pixels in the hue around blue (hue 210 degrees to less than 270 degrees) by the total number of pixels”. Is stored. Also, in the explanatory word table, an explanatory word “purple-like part” is associated with the feature quantity “a value obtained by dividing the number of pixels in the hue around purple (hue 270 degrees or more and less than 330 degrees) by the total number of pixels”. Is stored. In addition, the explanatory word table associates with the feature quantity “a value obtained by dividing the number of pixels of the hue around red (hue 330 degrees to less than 360 degrees and hue 0 degrees to less than 30 degrees) by the total number of pixels”. An explanatory word “is a reddish part” is stored. The explanatory word table stores an explanatory word “the number of colors” in association with the feature quantity “dispersion of hue”. The explanatory word table stores an explanatory word “brightness” in association with a feature quantity “average value of saturation”. The explanatory word table stores the explanatory word “brightness” in association with the feature value “average value of brightness”. The explanatory word table stores the explanatory word “vertical line” in association with the feature value “a value obtained by dividing the number of pixels having an edge of vertical line ± 20 degrees by the total number of pixels”. The explanatory word table stores an explanatory word “horizontal line” in association with a feature value “a value obtained by dividing the number of pixels having an edge of a horizontal line ± 20 degrees by the total number of pixels”. The explanatory word table stores an explanatory word “hatched” in association with a feature value “a value obtained by dividing the number of pixels having edges other than vertical and horizontal lines by the total number of pixels”.
述語テーブルには、1以下の値に正規化された特徴量の閾値に関連付けて、当該閾値によって定義される範囲を表す日本語の述語が格納される。
図3は、述語テーブルの例を示す図である。
図3に示す例によれば、述語テーブルには、「0.0以上0.2未満」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「あまりない」という述語が格納され、当該閾値以上の範囲を表す述語として「あまりないわけではない」という述語が格納される。また、述語テーブルには、「0.2以上0.4未満」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「少ない」という述語が格納され、当該閾値以上の範囲を表す述語として「少ないわけではない」という述語が格納される。また、述語テーブルには、「0.4以上0.6未満」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「ある程度多いわけではない」という述語が格納され、当該閾値以上の範囲を表す述語として「ある程度多い」という述語が格納される。また、述語テーブルには、「0.6以上0.8未満」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「多いわけではない」という述語が格納され、当該閾値以上の範囲を表す述語として「多い」という述語が格納される。また、述語テーブルには、「0.8以上1.0以下」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「とても多いわけではない」という述語が格納され、当該閾値以上の範囲を表す述語として「とても多い」という述語が格納される。
In the predicate table, a Japanese predicate representing a range defined by the threshold value is stored in association with the threshold value of the feature value normalized to a value of 1 or less.
FIG. 3 is a diagram illustrating an example of a predicate table.
According to the example shown in FIG. 3, in the predicate table, a predicate “not so much” is stored as a predicate representing a range below the threshold in association with the threshold of “0.0 or more and less than 0.2”. A predicate “not so much” is stored as a predicate representing a range above the threshold. Also, in the predicate table, a predicate “less” is stored as a predicate representing a range less than the threshold in association with a threshold of “0.2 or more and less than 0.4”, and a predicate representing a range greater than or equal to the threshold. Stores the predicate “not less”. In addition, in the predicate table, a predicate “not to some extent” is stored as a predicate representing a range below the threshold in association with a threshold of “0.4 or more and less than 0.6”, and the range above the threshold Is stored as a predicate representing “a certain amount”. In addition, in the predicate table, a predicate “not too much” is stored as a predicate representing a range less than the threshold in association with the threshold of “0.6 or more and less than 0.8”, and a range greater than or equal to the threshold is stored. A predicate “many” is stored as a predicate to represent. In addition, in the predicate table, a predicate “not very much” is stored as a predicate representing a range less than the threshold in association with the threshold of “0.8 or more and 1.0 or less”, and a range greater than or equal to the threshold The predicate “very many” is stored as a predicate representing
条件入力部103は、利用者から、生成すべき説明文の詳細度および所属クラス1つあたりの説明文の文章数の入力を受け付ける。説明文の詳細度とは、決定木による判断プロセスの説明の詳細さを示す値である。具体的には、詳細度は、説明文に含まれる説明語と述語の数の多さを表す。つまり、詳細度は、説明対象となる所属クラスに関連付けられた葉ノードに到達する経路に含まれるノードのうち、説明文に表すべきノードの割合を示す。説明文に含まれる説明語と述語の数は、詳細度が高いほど多くなる。したがって、詳細度が高いほど、説明文の正確さが向上する一方、説明文のわかりやすさは低下する。
The
説明文生成部104は、条件入力部103に入力された詳細度および文章数と、説明記憶部102が記憶する情報とに基づいて、決定木取得部101が取得した決定木によって分類される所属クラスごとの説明文を生成する。具体的には、説明文生成部104は、分類儀のノードの判定条件に用いられる特徴量に関連付けられた説明語と、当該判定条件が示す範囲に関連付けられた述語とを組み合わせることで、決定木の説明文を生成する。
出力部105は、説明文生成部104が生成した説明文を含むデータを出力する。本実施形態に係る出力部105は、説明文を含む文書データをプリンタに出力することで、説明文を含む文書を作成する。なお、他の実施形態に係る出力部105は、説明文を含むデータを、外部の記録媒体、ディスプレイ、またはその他の装置に出力しても良い。
The description
The
次に、本実施形態に係る説明文生成装置100による説明文書作成方法について説明する。
図4は、第1の実施形態に係る説明文生成装置の動作を示すフローチャートである。
まず決定木取得部101は、説明文の生成対象となる決定木および当該決定木のメタデータを取得する(ステップS1)。次に、条件入力部103は、利用者から説明文の詳細度および所属クラス1つあたりの説明文の文章数の入力を受け付ける(ステップS2)。
Next, a description document creation method by the explanatory
FIG. 4 is a flowchart showing the operation of the explanatory note generating apparatus according to the first embodiment.
First, the decision
次に、説明文生成部104は、決定木取得部101が取得した決定木の葉ノードを参照し、当該決定木により分類される所属クラスを特定する(ステップS3)。次に、説明文生成部104は、特定した所属クラスを1つずつ選択し、選択した各所属クラスについて、以下に示すステップS5〜ステップS16の処理を実行する(ステップS4)。
Next, the explanatory
説明文生成部104は、決定木取得部101が取得した決定木のメタデータを参照し、選択した所属クラスに関連付けられた葉ノードのうち、学習データの到達率または到達数が最も高い葉ノードを特定する(ステップS5)。なお、既に当該所属クラスの説明文を1つ以上生成している場合、説明文生成部104は、説明文の生成に用いられていない葉ノードのうち、学習データの到達率または到達数が最も高い葉ノードを特定する。
The description
次に、説明文生成部104は、根ノードから特定した葉ノードに到達する経路を特定する(ステップS6)。次に、説明文生成部104は、特定した経路に含まれる内部ノードの数と、入力された説明文の詳細度とに基づいて、説明文の生成に用いる内部ノードの数を特定する(ステップS7)。具体的には、説明文生成部104は、経路に含まれる内部ノードの数に詳細度を表す割合を乗算し、得られた値の小数点以下を切り上げることで、説明文の生成に用いる内部ノードの数を特定する。
次に、説明文生成部104は、ステップS6で特定した経路に含まれる内部ノードのうち、ステップS7で特定した数の内部ノードを、深さが小さいものから順に選択し、選択した各ノードについて、以下に示すステップS9〜ステップS13の処理を実行する(ステップS8)。
Next, the explanatory
Next, the explanatory
説明文生成部104は、選択された内部ノードに関連付けられた判断条件に用いられる特徴量を特定する(ステップS9)。説明文生成部104は、説明記憶部102が記憶する説明語テーブルから特定した特徴量に関連付けられた説明語を読み出す(ステップS10)。次に、説明文生成部104は、選択された内部ノードに関連付けられた判断条件に用いられる閾値を特定する(ステップS11)。説明文生成部104は、説明記憶部102が記憶する述語テーブルから特定した閾値とステップS6で特定した経路に属する範囲(閾値以上か否か)に関連付けられた述語を読み出す(ステップS12)。次に、説明文生成部104は、読み出した説明語および述語を接続することで、ステップS8で選択された内部ノードの説明文を生成する(ステップS13)。
The explanatory
説明文生成部104は、ステップS7で特定した数の内部ノードのそれぞれの説明文を生成すると、生成した説明文を組み合わせることで、ステップS5で特定した葉ノードの説明文を生成する(ステップS14)。
説明文生成部104は、ステップS14で生成した葉ノードの説明文の数がステップS4で入力された文章数に達したか否かを判定する(ステップS15)。説明文の数が入力された文章数に達していない場合(ステップS15:NO)、ステップS5に戻り、学習データの到達率または到達数が次に高い葉ノードの説明文を生成する。説明文の数が入力された文章数に達した場合(ステップS15:YES)、ステップS14で生成された葉ノードの説明文を組み合わせることで、ステップS4で選択した所属クラスの説明文を生成する(ステップS16)。このとき、説明文生成部104は、決定木取得部101が取得した決定木のメタデータを参照し、ステップS5で特定した各葉ノードの学習データの到達率の和を、説明文が示す説明の網羅率として、当該説明文に追加しても良い。当該説明文の文章数は入力された文章数に等しく、当該説明文に含まれる説明語および述語の数は、入力された詳細度に応じたものとなる。
When the explanatory
The explanatory
説明文生成部104が、決定木により分類され得る全ての所属クラスの説明文を生成すると、出力部105は、当該説明文を含む文書データを生成し、当該文書データをプリンタに出力する(ステップS17)。これにより、説明文生成装置100は、決定木の説明文を含む文書を作成することができる。
When the explanatory
以下、第1の実施形態に係る説明文の生成方法の具体例を説明する。
図5は、決定木の一例を示す図である。図5に示す決定木は、入力された画像データがハスが写った画像データであるか、ひまわりが写った画像データであるかを判断するものである。当該決定木は、ハスが写った画像50枚とひまわりが写った画像50枚とを学習データとして学習されたものである。
図5(A)は、決定木のノードの接続関係を示す図である。図5(B)は、各内部ノードに関連付けられた判断条件の特徴量および閾値を示す図である。図5(C)は、各葉ノードに関連付けられた所属クラスおよび当該葉ノードへの学習データの到達数を示す図である。
Hereinafter, a specific example of the description sentence generation method according to the first embodiment will be described.
FIG. 5 is a diagram illustrating an example of a decision tree. The decision tree shown in FIG. 5 determines whether the input image data is image data showing a lotus or image data showing a sunflower. The decision tree is learned by using 50 images showing lotus and 50 images showing sunflower as learning data.
FIG. 5A is a diagram illustrating a connection relationship between nodes of a decision tree. FIG. 5B is a diagram illustrating the feature amount and threshold value of the determination condition associated with each internal node. FIG. 5C is a diagram showing the affiliation class associated with each leaf node and the number of learning data reaching the leaf node.
決定木取得部101は、ステップS1で、図5に示す決定木およびメタデータを取得する。次に条件入力部103は、ステップS2で、詳細度および文章数の入力を受け付ける。本例においては、詳細度50%、文章数2が入力されたものとする。次に説明文生成部104は、ステップS3で、決定木が分類しうる所属クラスとして、ハスクラスとひまわりクラスとを特定する。
In step S1, the decision
説明文生成部104は、ステップS4において、まずハスクラスを選択する。説明文生成部104は、ステップS5において、ハスクラスの葉ノードL1、L2、L5、L6、L7のうち最も到達数が多い葉ノードL1(到達数25)を特定する。次に、説明文生成部104は、ステップS6において、葉ノードL1に到達する経路を特定する。葉ノードL1に到達する経路に属する内部ノードは、内部ノードM1(根ノード)のみである。したがって、説明文生成部104は、ステップS7で説明文の生成に用いる内部ノードの数が1であることを特定する。
In step S4, the explanatory
説明文生成部104は、内部ノードM1の判断条件に係る特徴量「黄色周辺の色相(色相30度以上90度未満)の画素数を全画素数で除算した値」に関連付けられた説明語を、説明記憶部102から読み出す。図2を参照すると、特徴量「黄色周辺の色相(色相30度以上90度未満)の画素数を全画素数で除算した値」に関連付けられた説明語は、「黄色っぽい部分が」である。説明文生成部104は、内部ノードM1の判断条件に係る閾値0.233未満の範囲に関連付けられた述語を、説明記憶部102から読み出す。図3を参照すると、閾値0.233未満の範囲に関連付けられた述語は、「少ない」である。これにより、説明文生成部104は、葉ノードL1の説明文として「黄色っぽい部分が少ない」を生成する。
The explanatory
次に、説明文生成部104は、ステップS5に戻り、ハスクラスの葉ノードL1、L2、L5、L6、L7のうち葉ノードL1の次に到達数が多い葉ノードL5(到達数10)を特定する。次に、説明文生成部104は、ステップS6において、葉ノードL5に到達する経路を特定する。葉ノードL5に到達する経路に属する内部ノードは、内部ノードM1、M2、M4、M5である。次に、説明文生成部104は、ステップS7で、経路に属する内部ノードの数4に、詳細度50%を乗算することで、説明文の生成に用いる内部ノードの数を2に特定する。
説明文生成部104は、葉ノードL5に到達する経路に属する最も深さが小さい2つの内部ノードM1、M2の説明文を生成する。これにより、説明文生成部104は、ステップS14で、葉ノードL5の説明文として「黄色っぽい部分が少ないわけではなく、鮮やかさがある程度多いわけではない」を生成する。
Next, the explanatory
The explanatory
これにより、説明文生成部104は、ステップS16で、詳細度50%、文章数2のハスクラスの説明文として、「黄色っぽい部分が少ないものや、黄色っぽい部分が少ないわけではなく、鮮やかさがある程度多いわけではないものをハスクラスとみなします」という説明文を生成する。このとき、決定木取得部101が取得した決定木のメタデータを参照し、ステップS5で特定した各葉ノードの学習データの到達率の和を、ハスクラスの説明文が示す説明の網羅率として、当該説明文に追加しても良い。ハスクラスに分類される学習ノード数が50であるのに対し、葉ノードL1の到達数が25であることから、葉ノードL1の到達率は50%である。また葉ノードL5の到達数が10であることから、葉ノードL5の到達率は20%である。したがって、説明文生成部104は、これらの到達率を加算することで、当該説明文の網羅率70%を算出することができる。
同様の手順により、説明文生成部104は、ステップS16で、詳細度50%、文章数2のひまわりクラスの説明文として、「黄色っぽい部分が少ないわけではなく、鮮やかさがある程度多いものや、黄色っぽい部分が少ないわけではなく、鮮やかさがある程度多いわけではなく、水色っぽい部分があまりないものをひまわりクラスとみなします」という説明文を生成する。
As a result, in step S16, the explanatory
By the same procedure, the explanatory
このように、本実施形態によれば、説明文生成装置100は、決定木により分類され得る各所属クラスの判定条件を所定の言語で表した説明文を生成する。これにより、説明文生成装置100は、当該言語を理解することができる利用者に、決定木による判断プロセスを理解させることができる。
As described above, according to the present embodiment, the explanatory
なお、本実施形態に係る説明文生成装置100は、全ての所属クラスに係る説明文を生成するが、これに限られない。例えば、他の実施形態に係る説明文生成装置100は、利用者から説明文を生成すべき所属クラスの入力を受け付け、当該所属クラスについての説明文を生成しても良い。
In addition, although the explanatory
《第2の実施形態》
第2の実施形態について詳しく説明する。
図6は、第2の実施形態に係る説明文生成装置の構成を示す概略ブロック図である。
第2の実施形態に係る説明文生成装置100は、利用者から分類の対象となる対象データの入力を受け付け、決定木によって当該対象データがある所属クラスに分類されるまでの判断プロセスの説明文を生成する。
第2の実施形態に係る説明文生成装置100は、第1の実施形態の構成に加え、さらに対象データ入力部106と分類部107とを備える。第2の実施形態に係る説明文生成装置100は、第1の実施形態と説明文生成部104の動作が異なる。
<< Second Embodiment >>
The second embodiment will be described in detail.
FIG. 6 is a schematic block diagram illustrating a configuration of the explanatory note generation apparatus according to the second embodiment.
The explanatory
The explanatory
対象データ入力部106は、決定木取得部101が取得した決定木による分類の対象となる対象データの入力を受け付ける。
分類部107は、決定木取得部101が取得した決定木に基づいて、入力された対象データの所属クラスを分類する。
説明文生成部104は、決定木取得部101が取得した決定木のうち、分類部107が分類の過程で辿った経路に係る説明文を生成する。
The target
The
The explanatory
次に、本実施形態に係る説明文生成装置100による説明文書作成方法について説明する。
図7は、第2の実施形態に係る説明文生成装置の動作を示すフローチャートである。
まず決定木取得部101は、説明文の生成対象となる決定木および当該決定木のメタデータを取得する(ステップS101)。次に、対象データ入力部106は、利用者から対象データの入力を受け付ける(ステップS102)。次に、分類部107は、入力された対象データの所属クラスを、決定木取得部が取得した決定木に基づいて分類する(ステップS103)。分類部107は分類の過程で辿った根ノードから葉ノードまでの経路を特定する(ステップS104)。次に、条件入力部103は、利用者から説明文の詳細度の入力を受け付ける(ステップS105)。なお、対象データの分類の過程で辿る経路の数は1なので、文書数の入力は不要である。
Next, a description document creation method by the explanatory
FIG. 7 is a flowchart showing the operation of the explanatory note generating apparatus according to the second embodiment.
First, the decision
次に、説明文生成部104は、ステップS103で特定した経路に含まれる内部ノードの数と、入力された説明文の詳細度とに基づいて、説明文の生成に用いる内部ノードの数を特定する(ステップS106)。具体的には、説明文生成部104は、経路に含まれる内部ノードの数に詳細度を表す割合を乗算し、得られた値の小数点以下を切り上げることで、説明文の生成に用いる内部ノードの数を特定する。
次に、説明文生成部104は、ステップS103で特定した経路に含まれる内部ノードのうち、ステップS106で特定した数の内部ノードを、深さが小さいものから順に選択し、選択した各ノードについて、以下に示すステップS108〜ステップS112の処理を実行する(ステップS107)。
Next, the explanatory
Next, the explanatory
説明文生成部104は、選択された内部ノードに関連付けられた判断条件に用いられる特徴量を特定する(ステップS108)。説明文生成部104は、説明記憶部102が記憶する説明語テーブルから特定した特徴量に関連付けられた説明語を読み出す(ステップS109)。次に、説明文生成部104は、選択された内部ノードに関連付けられた判断条件に用いられる閾値を特定する(ステップS110)。説明文生成部104は、説明記憶部102が記憶する述語テーブルから特定した閾値とステップS104で特定した経路に属する範囲に関連付けられた述語を読み出す(ステップS111)。次に、説明文生成部104は、読み出した説明語および述語を接続することで、ステップS8で選択された内部ノードの説明文を生成する(ステップS112)。
The description
説明文生成部104は、ステップS106で特定した数の内部ノードのそれぞれの説明文を生成すると、生成した説明文を組み合わせることで、ステップS104で特定した経路の説明文を生成する(ステップS113)。そして出力部105は、当該説明文を含む文書データを生成し、当該文書データをプリンタに出力する(ステップS114)。これにより、説明文生成装置100は、対象データの分類に係る決定木の説明文を含む文書を作成することができる。
When the explanatory
このように、本実施形態によれば、説明文生成装置100は、入力された対象データが分類結果に示される所属クラスに分類された理由を表した説明文を生成する。これにより、説明文生成装置100は、当該言語を理解することができる利用者に、決定木による対象データの分類に係る判断プロセスを理解させることができる。
As described above, according to the present embodiment, the explanatory
《第3の実施形態》
決定木の判断対象となる特徴量の中には、所定の言語による説明が容易なものも存在すれば、所定の言語による説明が困難なものも存在する。例えば、図2に例示した色相の分散、彩度の平均値、明度の平均値などの特徴量は、日本語での説明が比較的容易である。他方、例えば、色相の平均値、HOG特徴量、SIFT特徴量などの特徴量は、日本語での説明が困難である。
第3の実施形態に係る説明文生成装置100は、人間にとって理解しにくい表現を抑えた説明文を生成する。
<< Third Embodiment >>
Among the feature quantities to be determined by the decision tree, there are those that are easy to explain in a predetermined language and those that are difficult to explain in a predetermined language. For example, the feature quantities such as the hue dispersion, the average value of saturation, and the average value of brightness exemplified in FIG. 2 are relatively easy to explain in Japanese. On the other hand, for example, the feature values such as the average value of hue, the HOG feature value, and the SIFT feature value are difficult to explain in Japanese.
The explanatory
第3の実施形態に係る説明文生成装置100は、第1の実施形態と説明記憶部102が記憶する説明語テーブルの構成が異なる。また第3の実施形態に係る説明文生成装置100は、第1の実施形態と説明文生成部104の動作が異なる。
The explanatory
説明記憶部102が記憶する説明語テーブルは、特徴量に関連付けて、当該特徴量を表す説明語と、当該説明語のわかりやすさを示す説明適性値とを格納する。説明適性値は、値が高いほど説明語が分かりやすい表現であることを示す。例えば、説明適性値は、特徴量と説明語とを関連付けた管理者によって設定される。
図8は、第3の実施形態に係る説明語テーブルの例を示す図である。
図2に示す例によれば、説明語テーブルには、「色相の分散」という特徴量に関連付けて、「色数が」という説明語および説明適性値「0.7」が格納される。また、説明語テーブルには、「彩度の平均値」という特徴量に関連付けて、「鮮やかさが」という説明語および説明適性値「0.9」が格納される。また、説明語テーブルには、「明度の平均値」という特徴量に関連付けて、「明るさが」という説明語および説明適性値「0.9」が格納される。また、説明語テーブルには、「色相の平均値」という特徴量に関連付けて、「色相の平均値が」という説明語および説明適性値「0.1」が格納される。また、説明語テーブルには、「縦軸の空間周波数の平均値」という特徴量に関連付けて、「縦方向の明るさの変化の頻度が」という説明語および説明適性値「0.3」が格納される。また、説明語テーブルには、「横軸の空間周波数の平均値」という特徴量に関連付けて、「縦方向の明るさの変化の頻度が」という説明語および説明適性値「0.3」が格納される。
このように、「鮮やかさが」、「明るさが」などの人間にとって理解しやすい説明語には、高い説明適性値が関連付けられ、「色相の平均値が」、「縦方向の明るさの変化の頻度が」などの人間にとって理解しにくい説明語には、低い説明適性値が関連付けられる。
The explanatory word table stored in the
FIG. 8 is a diagram illustrating an example of an explanatory word table according to the third embodiment.
According to the example shown in FIG. 2, the explanatory word table stores the explanatory word “the number of colors” and the explanatory aptitude value “0.7” in association with the feature quantity “hue dispersion”. The explanatory word table stores an explanatory word “brightness” and an explanatory suitability value “0.9” in association with the feature value “average value of saturation”. The explanatory word table stores an explanatory word “brightness” and an explanatory aptitude value “0.9” in association with the feature value “average value of brightness”. The explanatory word table stores an explanatory word “average hue value” and an explanatory suitability value “0.1” in association with the feature value “average hue value”. In addition, in the explanatory word table, an explanatory word “the frequency of change in brightness in the vertical direction” and an explanatory aptitude value “0.3” are associated with the feature value “average value of spatial frequency on the vertical axis”. Stored. The explanatory word table has an explanatory word “the frequency of change in brightness in the vertical direction” and an explanatory aptitude value “0.3” in association with the feature quantity “average value of spatial frequency on the horizontal axis”. Stored.
In this way, explanatory words that are easy to understand for humans, such as “brightness” and “brightness”, are associated with high explanation aptitude values, “average hue value”, “vertical brightness” An explanatory word that is difficult for humans to understand, such as “the frequency of change” is associated with a low explanatory aptitude value.
説明文生成部104は、決定木のノードのうち判定条件に用いられる特徴量の説明適性値が大きいものから順に、条件入力部103に入力された詳細度に応じたノード数のノードに係る説明文を生成する。
これにより、説明文生成装置100は、人間にとって理解しにくい表現を抑えた説明文を生成することができる。
The description
Thereby, the explanatory
《第4の実施形態》
決定木の判断対象となる特徴量の中には、複数の特徴量の組み合わせを1つの説明語で説明可能なものも存在する。例えば、RGB値のR値は「赤成分が」、G値は「緑成分が」という説明語で説明することができ、さらにR値とG値の組み合わせは、「黄色成分が」という説明語で説明することもできる。
第4の実施形態に係る説明文生成装置100は、複数の特徴量の組み合わせを1つの説明語で説明する説明文を生成する。
<< Fourth Embodiment >>
Among the feature quantities to be determined by the decision tree, there are those that can explain a combination of a plurality of feature quantities with one explanatory word. For example, the R value of the RGB value can be described by an explanatory word “red component is”, the G value is “green component”, and the combination of the R value and the G value is an explanatory word “yellow component is”. Can also be explained.
The explanatory
第4の実施形態に係る説明文生成装置100は、第1の実施形態と説明記憶部102が記憶する説明語テーブルの構成が異なる。また第4の実施形態に係る説明文生成装置100は、第1の実施形態と説明記憶部102の動作が異なる。
説明記憶部102が記憶する説明語テーブルは、特徴量および特徴量の組み合わせに関連付けて、当該特徴量または当該特徴量の組み合わせを表す説明語を格納する。
説明文生成部104は、決定木の経路に属するノードの中に特徴量の組み合わせに対応するノードの組み合わせが含まれる場合に、当該特徴量の組み合わせに関連付けられた説明語に基づいて決定木の説明文を生成する。具体的には、図4に示すステップS9で特定した特徴量を含む組み合わせが説明語テーブルに格納されており、かつ当該組み合わせに係る他の特徴量に係る中間ノードがステップS6で特定した経路上に存在する場合に、説明文生成部104は、ステップS10で当該組み合わせに関連付けられた説明語を読み出す。
このように、説明文生成装置100は、複数の特徴量の組み合わせをまとめて1つの説明語で説明する説明する説明文を生成することで、説明文の長さを変えることなく説明文の詳細度を高めることができる。
The explanatory
The explanatory word table stored in the
When the node belonging to the path of the decision tree includes a node combination corresponding to the feature amount combination, the explanatory
In this way, the explanatory
《第5の実施形態》
第5の実施形態に係る説明文生成装置100は、特許文献1に係る決定ネットワークの説明文を生成する。決定ネットワークは、複数のデータの入力を可能とするDAG(Directed acyclic graph)の分類モデルである。なお、決定ネットワークは、分類の対象となる対象データの所属クラスを決定する主決定木と、主決定木の判定条件を決定する副決定木とを組み合わせたものであり、決定木の一種といえる。なお、主決定木と副決定木とは、一部のノードを共通にする。
<< Fifth Embodiment >>
The explanatory
図9は、決定ネットワークの一例を示す図である。
図9に示す決定ネットワークは、入力された画像データが、傷がついた革製品が写った画像データであるか、傷がない革製品が写った画像データであるかを判断するものである。
図9(A)は、決定ネットワークのノードの接続関係を示す図である。図9(B)は、各内部ノードに関連付けられた判断条件の特徴量および閾値を示す図である。図9(C)は、各葉ノードに関連付けられた所属クラスおよび当該葉ノードへの学習データの到達数を示す図である。
FIG. 9 is a diagram illustrating an example of a decision network.
The determination network shown in FIG. 9 determines whether the input image data is image data showing a leather product with a flaw or image data showing a leather product without a flaw.
FIG. 9A is a diagram illustrating a connection relationship of nodes in the decision network. FIG. 9B is a diagram illustrating the feature amount and threshold value of the determination condition associated with each internal node. FIG. 9C is a diagram showing the affiliation class associated with each leaf node and the number of learning data reaching the leaf node.
図9(A)によれば、中間ノードM11には、中間ノードM12に向くリンクと葉ノードL12に向くリンクとが接続される。中間ノードM12には、葉ノードM11に向くリンクと葉ノードL12に向くリンクとが接続される。中間ノードM13には、中間ノードM11に向くリンクと葉ノードL12に向くリンクとが接続される。中間ノードM11には、分類の対象となる画像データである対象データが入力され、中間ノードM13には、対象データの近傍の画像データである参照データが入力される。当該決定ネットワークは、対象データが入力される中間ノードM11を根ノードとする、中間ノードM11およびM12ならびに葉ノードL11およびL12からなる主決定木と、中間ノードM13を根ノードとする、中間ノードM11、M12およびM13ならびに葉ノードL11およびL12からなる副決定木とを内包する。つまり対象データについては、主決定木により判断がなされる。また参照データについては、副決定木により判断がなされる。
なお、主決定木と副決定木とは、中間ノードM11およびM12を共通して備える。主決定木の中間ノードが示す特徴量の範囲は、参照データの判定の経路が当該中間ノードを含むか否かによって異なる。具体的には、参照データの判定の経路に中間ノードM11が含まれない場合、主決定木の中間ノードM11が示す中央値の範囲の閾値は、0.547となる。他方、参照データの判定の経路に中間ノードM11が含まれる場合、主決定木の中間ノードM11が示す中央値の範囲の閾値は、0.508(図9(B)の括弧内の数値)となる。
According to FIG. 9A, a link directed to the intermediate node M12 and a link directed to the leaf node L12 are connected to the intermediate node M11. The intermediate node M12 is connected to a link directed to the leaf node M11 and a link directed to the leaf node L12. A link directed to the intermediate node M11 and a link directed to the leaf node L12 are connected to the intermediate node M13. Target data that is image data to be classified is input to the intermediate node M11, and reference data that is image data in the vicinity of the target data is input to the intermediate node M13. The decision network includes a main decision tree including intermediate nodes M11 and M12 and leaf nodes L11 and L12 having an intermediate node M11 to which target data is input as a root node, and an intermediate node M11 having an intermediate node M13 as a root node. , M12 and M13 and a sub-decision tree consisting of leaf nodes L11 and L12. That is, the target data is determined by the main decision tree. The reference data is determined by the sub-decision tree.
Note that the main decision tree and the sub-decision tree include the intermediate nodes M11 and M12 in common. The range of the feature amount indicated by the intermediate node of the main decision tree varies depending on whether the reference data determination path includes the intermediate node. Specifically, when the intermediate node M11 is not included in the reference data determination path, the threshold value of the median range indicated by the intermediate node M11 of the main decision tree is 0.547. On the other hand, when the intermediate node M11 is included in the reference data determination path, the threshold value of the median range indicated by the intermediate node M11 of the main decision tree is 0.508 (the value in parentheses in FIG. 9B). Become.
第5の実施形態に係る説明文生成装置100は、第2の実施形態と説明文生成部104の動作が異なる。説明文生成部104は、第2の実施形態と同様に、分類部107によって特定される主決定木の経路に基づいて、主決定木の説明文を生成する。説明文生成装置100は、分類部107によって特定される主決定木の経路と副決定木の経路とに、共通の中間ノードが含まれる場合に、さらに当該副決定木の説明文を生成する。なお、当該副決定木の説明文は、最大でも根ノードから上記共通の中間ノードまでの経路についての説明文である。
つまり、説明文生成部104は、主決定木の経路に属するノードの中に副決定木によって特徴量の範囲が決定されるものが含まれる場合に、さらに当該副決定木の説明文を生成する。
これにより、説明文生成装置100は、複数の決定木を内包する決定ネットワークの説明文を適切に作成することができる。
The explanatory
That is, when the nodes belonging to the path of the main decision tree include nodes whose feature amount range is determined by the sub decision tree, the explanation
Thereby, the explanatory
以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。
例えば、上述した実施形態では、説明文生成装置100が一般的な決定木および決定ネットワークの説明文を作成する場合について説明したが、これに限られない。例えば、他の実施形態では、説明文生成装置100がファジイ決定木の説明文を生成しても良い。
As described above, the embodiment has been described in detail with reference to the drawings. However, the specific configuration is not limited to that described above, and various design changes and the like can be made.
For example, in the above-described embodiment, the explanation
また、上述した実施形態では、説明文生成装置100が日本語の説明文を生成する場合について説明したが、これに限られない。例えば、他の実施形態では、説明文生成装置100が英語、中国語、ロシア語、またはその他の言語の説明文を生成しても良い。
Further, in the above-described embodiment, the case where the explanatory
また、上述した実施形態では、説明文生成装置100が詳細度および文章数の入力を受け付ける場合について説明したが、これに限られない。例えば、他の実施形態では、説明文生成装置100は、予め定められた詳細度および文章数の説明文を作成しても良い。また他の実施形態では、説明文生成装置100は、詳細度に代えて説明対象のノード数の入力を受け付けても良い。また他の実施形態では、説明文生成装置100は、文章数に代えて必要な網羅率の入力を受け付けても良い。この場合、説明文生成装置100は、入力された網羅率を満たすまで、ステップS8〜ステップS13のループを繰り返し実行する。
Further, in the above-described embodiment, the description
図10は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ901は、CPU902、主記憶装置903、補助記憶装置904、インタフェース905を備える。
上述の説明文生成装置100は、コンピュータ901に実装される。そして、上述した各処理部の動作は、プログラムの形式で補助記憶装置904に記憶されている。CPU902は、プログラムを補助記憶装置904から読み出して主記憶装置903に展開し、当該プログラムに従って上記処理を実行する。また、CPU902は、プログラムに従って、上述した各記憶部に対応する記憶領域を主記憶装置903に確保する。
FIG. 10 is a schematic block diagram illustrating a configuration of a computer according to at least one embodiment.
The
The above described explanatory
なお、少なくとも1つの実施形態において、補助記憶装置904は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース905を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ901に配信される場合、配信を受けたコンピュータ901が当該プログラムを主記憶装置903に展開し、上記処理を実行しても良い。
In at least one embodiment, the
また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置904に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
The program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that realizes the above-described function in combination with another program already stored in the
100 説明文生成装置
101 決定木取得部
102 説明記憶部
103 条件入力部
104 説明文生成部
105 出力部
106 対象データ入力部
107 分類部
DESCRIPTION OF
Claims (12)
特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部と、
前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語に基づいて、前記決定木の説明文を生成する説明文生成部と
を備える説明文生成装置。 A decision tree acquisition unit for acquiring a decision tree having an internal node associated with a determination criterion for a feature quantity and a branch destination node, and a leaf node associated with a belonging class;
An explanation storage unit for storing an explanatory word representing the feature quantity in a predetermined language in association with the feature quantity;
An explanatory note generation device comprising: an explanatory note generation unit that generates an explanatory note of the decision tree based on the explanatory words associated with the feature amount used for the determination condition of the node.
前記説明記憶部が、閾値に関連付けて当該閾値によって定義される範囲を表す述語を記憶し、
前記説明文生成部が、前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語と、当該判定条件が用いる閾値に関連付けられた前記述語とに基づいて、前記決定木の説明文を生成する
請求項1に記載の説明文生成装置。 The determination condition relates to a comparison between the feature amount and a predetermined threshold value,
The explanation storage unit stores a predicate representing a range defined by the threshold in association with the threshold;
Based on the explanatory word associated with the feature amount used in the determination condition of the node and the previous descriptive word associated with the threshold used by the determination condition, the explanatory sentence generation unit describes the explanatory text of the decision tree. The explanatory note generation device according to claim 1.
前記説明文生成部が、前記ノード量入力部に入力された量のノードに係る説明文を生成する
請求項1または請求項2に記載の説明文生成装置。 A node amount input unit that receives an input of a node amount to be represented in the explanatory text;
The explanatory note generation device according to claim 1, wherein the explanatory note generation unit generates an explanatory note relating to an amount of nodes input to the node amount input unit.
請求項3に記載の説明文生成装置。 The explanatory note generation unit according to claim 3, wherein the explanatory note generation unit generates an explanatory note relating to nodes of an amount input to the node amount input unit in order from a node having the smallest depth among the nodes of the decision tree. apparatus.
前記説明文生成部が、前記決定木のノードのうち判定条件に用いられる特徴量のわかりやすさが高いものから順に、前記ノード量入力部に入力された量のノードに係る説明文を生成する
請求項3に記載の説明文生成装置。 The explanation storage unit stores a value indicating the easy-to-understand of the explanation word in association with the explanation word,
The description sentence generation unit generates an explanation sentence related to nodes of the amount input to the node amount input unit in descending order of the characteristic amount used for the determination condition among the nodes of the decision tree. 3. The explanatory note generating device according to 3.
前記決定木に基づいて前記対象データの所属クラスを分類する分類部と
をさらに備え、
前記説明文生成部が、前記決定木のうち前記分類部が分類の過程で辿った経路に係る説明文を生成する
請求項1から請求項5の何れか1項に記載の説明文生成装置。 A target data input unit for receiving input of target data to be classified by the decision tree;
A classification unit that classifies a class to which the target data belongs based on the decision tree,
The explanatory note generation device according to any one of claims 1 to 5, wherein the explanatory note generation unit generates an explanatory note related to a path traced in the classification process by the classification unit in the decision tree.
請求項1から請求項5の何れか1項に記載の説明文生成装置。 The explanation sentence generation unit generates an explanation sentence relating to a node belonging to a route that reaches the largest number of arrivals of learning data used for learning of the decision tree among leaf nodes indicating one belonging class. The explanatory note generation device according to any one of claims 1 to 5.
前記説明文生成部が、前記決定木の経路に属するノードの中に前記特徴量の組み合わせに対応するノードの組み合わせが含まれる場合に、前記特徴量の組み合わせに関連付けられた説明語に基づいて前記決定木の説明文を生成する
請求項1から請求項7の何れか1項に記載の説明文生成装置。 The explanation storage unit stores an explanation word representing the combination in association with a combination of a plurality of feature amounts;
When the explanation sentence generation unit includes a combination of nodes corresponding to the combination of feature quantities among the nodes belonging to the path of the decision tree, based on the explanation word associated with the combination of feature quantities The explanatory note generation device according to any one of claims 1 to 7, wherein an explanatory note of a decision tree is generated.
請求項1から請求項8の何れか1項に記載の説明文生成装置。 The decision tree includes: a main decision tree that determines a affiliation class of target data to be classified by the decision tree; and a sub-decision tree that determines a range of the feature amount related to the determination condition of the main decision tree. The explanatory note generation device according to any one of claims 1 to 8.
請求項9に記載の説明文生成装置。 When the explanatory note generation unit generates an explanatory note of the main decision tree, and nodes belonging to the path of the main decision tree include those whose range of the feature amount is determined by the sub-determination tree. Furthermore, the explanatory note production | generation apparatus of Claim 9 which produces | generates the explanatory note of the said sub decision tree.
前記説明文生成装置が、特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部が前記ノードの判定条件に用いられる特徴量に関連付けて記憶する前記説明語に基づいて、前記決定木の説明文を生成するステップと、
前記説明文を含む文書を作成するステップと
を備える説明文書作成方法。 The explanatory note generating device acquires a decision tree having an internal node associated with a determination criterion for a feature amount and a branch destination node, and a leaf node associated with a belonging class;
The explanation storage unit that stores an explanatory word representing the feature quantity in a predetermined language in association with the feature quantity is stored in the explanation word stored in association with the feature quantity used for the determination condition of the node. Generating a description of the decision tree based on:
An explanatory document creating method comprising: creating a document including the explanatory text.
特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得する決定木取得部、
特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部、
前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語に基づいて、前記決定木の説明文を生成する説明文生成部
として機能させるためのプログラム。 Computer
A decision tree acquisition unit for acquiring a decision tree having an internal node associated with a determination criterion for a feature amount and a branch destination node, and a leaf node associated with a belonging class;
An explanation storage unit for storing an explanatory word representing the feature quantity in a predetermined language in association with the feature quantity;
The program for functioning as an explanatory note generation part which produces | generates the explanatory note of the said decision tree based on the said explanatory word linked | related with the feature-value used for the determination conditions of the said node.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015041313A JP6439211B2 (en) | 2015-03-03 | 2015-03-03 | Explanation sentence generation device, explanation document creation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015041313A JP6439211B2 (en) | 2015-03-03 | 2015-03-03 | Explanation sentence generation device, explanation document creation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016162276A JP2016162276A (en) | 2016-09-05 |
JP6439211B2 true JP6439211B2 (en) | 2018-12-19 |
Family
ID=56846966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015041313A Active JP6439211B2 (en) | 2015-03-03 | 2015-03-03 | Explanation sentence generation device, explanation document creation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6439211B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6881203B2 (en) * | 2017-10-03 | 2021-06-02 | 富士通株式会社 | Classification program, classification method, and classification device |
JP6881215B2 (en) * | 2017-10-16 | 2021-06-02 | 富士通株式会社 | Classification program, classification method, and classification device |
US11455493B2 (en) * | 2018-05-16 | 2022-09-27 | International Business Machines Corporation | Explanations for artificial intelligence based recommendations |
US12020417B2 (en) * | 2020-04-24 | 2024-06-25 | Camtek Ltd. | Method and system for classifying defects in wafer using wafer-defect images, based on deep learning |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02259836A (en) * | 1989-03-31 | 1990-10-22 | Hitachi Ltd | Fuzzy inference method |
JPH0644074A (en) * | 1991-09-06 | 1994-02-18 | Hitachi Ltd | Knowledge base, inference method and descriptive text preparation method |
JP3337763B2 (en) * | 1993-07-13 | 2002-10-21 | 株式会社東芝 | Drawing description generator |
JP4038501B2 (en) * | 2003-09-02 | 2008-01-30 | 株式会社東芝 | Inverse model calculation apparatus and inverse model calculation method |
JP5548990B2 (en) * | 2010-09-28 | 2014-07-16 | 国立大学法人横浜国立大学 | Evolutionary condition judgment network |
-
2015
- 2015-03-03 JP JP2015041313A patent/JP6439211B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016162276A (en) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lundberg et al. | An unexpected unity among methods for interpreting model predictions | |
US8508546B2 (en) | Image mask generation | |
JP6020161B2 (en) | Graph creation program, information processing apparatus, and graph creation method | |
JP6439211B2 (en) | Explanation sentence generation device, explanation document creation method and program | |
Fortmann‐Roe | Effects of hue, saturation, and brightness on color preference in social networks: Gender‐based color preference on the social networking site Twitter | |
JP2010262650A (en) | Method for highlighting topic element in chart having a plurality of contrast elements composed of a plurality of colors, and system thereof | |
US11914841B2 (en) | Automatic generation of stylized icons | |
JP2007172164A (en) | Digital content preparation system, program, and storage medium | |
US11669727B2 (en) | Information processing device, neural network design method, and recording medium | |
US20200387505A1 (en) | Information processing system, feature description method and feature description program | |
Yanagida et al. | Color scheme adjustment by fuzzy constraint satisfaction for color vision deficiencies | |
US9600905B2 (en) | Color-scheme determination device, color-scheme determination method, and color-scheme determination program | |
CN116226487A (en) | Data large screen visualization method and system based on pattern recognition | |
CN111126566A (en) | Abnormal furniture layout data detection method based on GAN model | |
JPWO2020085114A1 (en) | Information processing equipment, information processing methods, and programs | |
JPWO2014010576A1 (en) | Color arrangement support device, color arrangement support method, and program | |
CN110457543B (en) | Entity resolution method and system based on end-to-end multi-view matching | |
US7986329B2 (en) | Document edit device, program, and storage medium | |
JP6325472B2 (en) | Data structure extraction device, data structure extraction method, and data structure extraction program | |
US9338294B2 (en) | Automated task definitions | |
JP6491345B2 (en) | Information processing apparatus, information processing method, and program | |
JP2007310727A (en) | Program analysis method for asset diagnosis | |
JP2014085852A (en) | Image similarity calculating device, and operation method for the same | |
US20240241946A1 (en) | Information processing device, information processing method, and information processing computer program product | |
KR102688501B1 (en) | Device and method for image translation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6439211 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |