JP2016162276A - Explanation sentence creation device, method and program - Google Patents

Explanation sentence creation device, method and program Download PDF

Info

Publication number
JP2016162276A
JP2016162276A JP2015041313A JP2015041313A JP2016162276A JP 2016162276 A JP2016162276 A JP 2016162276A JP 2015041313 A JP2015041313 A JP 2015041313A JP 2015041313 A JP2015041313 A JP 2015041313A JP 2016162276 A JP2016162276 A JP 2016162276A
Authority
JP
Japan
Prior art keywords
explanatory
decision tree
explanatory note
node
explanation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015041313A
Other languages
Japanese (ja)
Other versions
JP6439211B2 (en
Inventor
智晴 長尾
Tomoharu Nagao
智晴 長尾
航太 齊藤
Kota Saito
航太 齊藤
雅徳 菅沼
Masanori Suganuma
雅徳 菅沼
大樹 土屋
Daiki Tsuchiya
大樹 土屋
実穂 崎津
Miho Sakitsu
実穂 崎津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokohama National University NUC
Original Assignee
Yokohama National University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokohama National University NUC filed Critical Yokohama National University NUC
Priority to JP2015041313A priority Critical patent/JP6439211B2/en
Publication of JP2016162276A publication Critical patent/JP2016162276A/en
Application granted granted Critical
Publication of JP6439211B2 publication Critical patent/JP6439211B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To create an explanation sentence for making a human being understand determination process by a determination tree.SOLUTION: An explanation sentence creation device comprises: a determination tree acquisition unit for acquiring a determination tree comprising an inner node in which a determination condition of a feature amount and a branch destination node are associated, and a leaf node with which a regional class is associated; an explanation storage unit for storing an explanation term indicating the feature amount by a predetermined language, in association with the feature amount; and an explanation sentence creation unit for creating the explanation sentence of the determination tree on the basis of the explanation term associated with the feature amount used in the determination condition of the node.SELECTED DRAWING: Figure 1

Description

本発明は、説明文生成装置、説明文書作成方法およびプログラムに関する。   The present invention relates to an explanatory note generation device, an explanatory document creation method, and a program.

コンピュータによる機械学習技術に基づく判断プロセスが、実生活で利用される機会が増えている。当該判断プロセスは、コンピュータによって最適化されたものであり、人間が当該判断プロセスを理解することは困難であることが多い。   Opportunities to use the judgment process based on machine learning technology by computer in real life are increasing. The determination process is optimized by a computer, and it is often difficult for a human to understand the determination process.

人間による理解が比較的容易な判断プロセスとして、決定木および決定ネットワーク(例えば、特許文献1を参照)が知られている。決定木とは、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードと、各ノードを接続するリンクとからなる木構造の分類モデルである。決定ネットワークは、複数のデータの入力を可能とするグラフ構造の分類モデルである。なお、決定ネットワークは、分類の対象となる対象データの所属クラスを決定する主決定木と、主決定木の判定条件を決定する副決定木とを組み合わせたものであり、決定木の一種といえる。   A decision tree and a decision network (see, for example, Patent Document 1) are known as judgment processes that are relatively easy to understand by humans. A decision tree is a classification model of a tree structure consisting of an internal node associated with a feature value determination condition and a branch destination node, a leaf node associated with a belonging class, and a link connecting each node. . The decision network is a classification model having a graph structure that allows a plurality of data to be input. The decision network is a combination of a main decision tree that determines the class to which the target data to be classified belongs and a sub-decision tree that determines the criteria for determining the main decision tree. .

特開2012−73750号公報JP 2012-73750 A

しかしながら、決定木は、比較的理解しやすい判断プロセスであるとはいえ、情報工学に明るくない利用者にとっては、依然として理解することが困難である。
本発明の目的は、決定木による判断プロセスを人間に理解させるための説明文を生成する説明文生成装置、説明文書作成方法およびプログラムを提供することにある。
However, although a decision tree is a relatively easy-to-understand decision process, it is still difficult to understand for users who are not familiar with information engineering.
An object of the present invention is to provide an explanatory note generation device, an explanatory document creation method, and a program for generating an explanatory note for allowing a human to understand a determination process based on a decision tree.

本発明の第1の態様によれば、説明文生成装置は、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得する決定木取得部と、特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部と、前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語に基づいて、前記決定木の説明文を生成する説明文生成部とを備える。   According to the first aspect of the present invention, an explanatory note generating apparatus generates a decision tree having an internal node associated with a feature quantity determination condition and a branch destination node, and a leaf node associated with a belonging class. A decision tree acquisition unit to be acquired; an explanation storage unit for storing an explanatory word representing the feature amount in a predetermined language in association with the feature amount; and the explanatory word associated with the feature amount used in the determination condition of the node And an explanatory note generation unit for generating an explanatory note of the decision tree.

本発明の第2の態様によれば、第1の態様に係る説明文生成装置は、前記判定条件は、前記特徴量と所定の閾値との比較に係るものであって、前記説明記憶部が、閾値に関連付けて当該閾値によって定義される範囲を表す述語を記憶し、前記説明文生成部が、前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語と、当該判定条件が用いる閾値に関連付けられた前記述語とに基づいて、前記決定木の説明文を生成する。   According to the second aspect of the present invention, in the explanatory note generating apparatus according to the first aspect, the determination condition relates to a comparison between the feature amount and a predetermined threshold value, and the explanation storage unit , Storing a predicate representing a range defined by the threshold value in association with the threshold value, and the explanatory text generation unit uses the explanatory word associated with the feature quantity used for the determination condition of the node and the determination condition An explanatory text of the decision tree is generated based on the previous description word associated with the threshold value.

本発明の第3の態様によれば、第1または第2の態様に係る説明文生成装置は、説明文に表すべきノードの量の入力を受け付けるノード量入力部をさらに備え、前記説明文生成部が、前記ノード量入力部に入力された量のノードに係る説明文を生成する。   According to the third aspect of the present invention, the explanatory note generating apparatus according to the first or second aspect further includes a node amount input unit that receives an input of the amount of a node to be expressed in the explanatory note, and the explanatory note generating unit The unit generates an explanatory note relating to the amount of nodes input to the node amount input unit.

本発明の第4の態様によれば、第3の態様に係る説明文生成装置は、前記説明文生成部が、前記決定木のノードのうち深さが小さいものから順に、前記ノード量入力部に入力された量のノードに係る説明文を生成する。   According to a fourth aspect of the present invention, in the explanatory note generating apparatus according to the third aspect, the explanatory note generating unit is configured such that the node amount input unit is in order from the smallest of the nodes of the decision tree. An explanatory note relating to the number of nodes input in the above is generated.

本発明の第5の態様によれば、第3の態様に係る説明文生成装置は、前記説明記憶部が、前記説明語に関連付けて、当該説明語のわかりやすさを示す値を記憶し、前記説明文生成部が、前記決定木のノードのうち判定条件に用いられる特徴量のわかりやすさが高いものから順に、前記ノード量入力部に入力された量のノードに係る説明文を生成する。   According to a fifth aspect of the present invention, in the explanatory note generating apparatus according to the third aspect, the explanation storage unit stores a value indicating the easy-to-understand explanation word in association with the explanation word, and the explanation The sentence generation unit generates an explanatory sentence relating to the nodes of the amount input to the node amount input unit in descending order of the feature amount used for the determination condition among the nodes of the decision tree.

本発明の第6の態様によれば、第1から第5の何れかの態様に係る説明文生成装置は、前記決定木による分類の対象となる対象データの入力を受け付ける対象データ入力部と、前記決定木に基づいて前記対象データの所属クラスを分類する分類部とをさらに備え、前記説明文生成部が、前記決定木のうち前記分類部が分類の過程で辿った経路に係る説明文を生成する。   According to the sixth aspect of the present invention, the explanatory note generating apparatus according to any one of the first to fifth aspects includes a target data input unit that receives input of target data to be classified by the decision tree; A classification unit that classifies the class to which the target data belongs based on the decision tree, and the description sentence generation unit includes an explanation sentence relating to a path that the classification unit has traced in the classification process of the decision tree. Generate.

本発明の第7の態様によれば、第1から第5の何れかの態様に係る説明文生成装置は、前記説明文生成部が、一の所属クラスを示す葉ノードのうち、前記決定木の学習に用いた学習データの到達数が最も多いものへ到達する経路に属するノードに係る説明文を生成する。   According to a seventh aspect of the present invention, in the explanatory note generating device according to any one of the first to fifth aspects, the explanatory note generating unit includes the decision tree among leaf nodes indicating one belonging class. An explanatory text relating to a node belonging to a route that reaches the largest number of arrivals of learning data used for learning is generated.

本発明の第8の態様によれば、第1から第7の何れかの態様に係る説明文生成装置は、前記説明記憶部が、複数の特徴量の組み合わせに関連付けて当該組み合わせを表す説明語を記憶し、前記説明文生成部が、前記決定木の経路に属するノードの中に前記特徴量の組み合わせに対応するノードの組み合わせが含まれる場合に、前記特徴量の組み合わせに関連付けられた説明語に基づいて前記決定木の説明文を生成する。   According to an eighth aspect of the present invention, in the explanatory note generating device according to any one of the first to seventh aspects, the explanatory storage unit associates a plurality of feature amounts with each other and represents the combination And when the explanation sentence generation unit includes a node combination corresponding to the feature quantity combination among the nodes belonging to the path of the decision tree, the explanation word associated with the feature quantity combination. The description of the decision tree is generated based on

本発明の第9の態様によれば、第1から第8の何れかの態様に係る説明文生成装置は、前記決定木が、前記決定木による分類の対象となる対象データの所属クラスを決定する主決定木と、前記主決定木の前記判定条件に係る前記特徴量の範囲を決定する副決定木とを含む。   According to the ninth aspect of the present invention, in the explanatory note generating device according to any one of the first to eighth aspects, the decision tree determines a affiliation class of target data to be classified by the decision tree. And a sub-decision tree that determines a range of the feature amount related to the determination condition of the main decision tree.

本発明の第10の態様によれば、第9の態様に係る説明文生成装置は、前記説明文生成部が、前記主決定木の説明文を生成し、前記主決定木の経路に属するノードの中に前記副決定木によって前記特徴量の範囲が決定されるものが含まれる場合に、さらに当該副決定木の説明文を生成する。   According to a tenth aspect of the present invention, in the explanatory note generating apparatus according to the ninth aspect, the explanatory note generating unit generates an explanatory note of the main decision tree, and the nodes belong to the path of the main decision tree If the sub-decision tree includes those whose range of the feature amount is determined, an explanation of the sub-decision tree is further generated.

本発明の第11の態様によれば、説明文書作成方法は、説明文生成装置が、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得するステップと、前記説明文生成装置が、特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部が前記ノードの判定条件に用いられる特徴量に関連付けて記憶する前記説明語に基づいて、前記決定木の説明文を生成するステップと、前記説明文を含む文書を作成するステップとを備える。   According to an eleventh aspect of the present invention, in the explanatory document creating method, the explanatory note generating apparatus is configured such that the internal node associated with the feature amount determination condition and the branch destination node, and the leaf node associated with the belonging class. And a description storage unit that stores an explanatory word that represents the feature quantity in a predetermined language in association with the feature quantity, and is used as the determination condition of the node. The method includes a step of generating an explanatory text of the decision tree based on the explanatory word stored in association with a feature amount, and a step of creating a document including the explanatory text.

本発明の第12の態様によれば、プログラムは、コンピュータを、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得する決定木取得部、特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部、前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語に基づいて、前記決定木の説明文を生成する説明文生成部として機能させる。   According to the twelfth aspect of the present invention, a program causes a computer to execute a decision tree having an internal node associated with a feature value determination condition and a branch destination node, and a leaf node associated with a belonging class. A decision tree acquisition unit to acquire, an explanation storage unit for storing an explanatory word representing the feature quantity in a predetermined language in association with the feature quantity, based on the explanatory word associated with the feature quantity used for the determination condition of the node And functioning as an explanatory sentence generation unit for generating an explanatory sentence of the decision tree.

上記態様のうち少なくとも1つの態様によれば、説明文生成装置は、決定木のノードの判定条件を所定の言語で表した説明文を生成する。これにより、説明文生成装置は、当該言語を理解することができる利用者に、決定木による判断プロセスを理解させることができる。   According to at least one of the above aspects, the explanatory note generation device generates an explanatory sentence that expresses the determination condition of the node of the decision tree in a predetermined language. Thereby, the explanatory note generation device can make the user who can understand the language understand the determination process by the decision tree.

第1の実施形態に係る説明文生成装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the explanatory note production | generation apparatus which concerns on 1st Embodiment. 説明語テーブルの例を示す図である。It is a figure which shows the example of an explanatory word table. 述語テーブルの例を示す図である。It is a figure which shows the example of a predicate table. 第1の実施形態に係る説明文生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the explanatory note generation apparatus which concerns on 1st Embodiment. 決定木の一例を示す図である。It is a figure which shows an example of a decision tree. 第2の実施形態に係る説明文生成装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the explanatory note production | generation apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る説明文生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the explanatory note generation apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る説明語テーブルの例を示す図である。It is a figure which shows the example of the explanatory word table which concerns on 3rd Embodiment. 決定ネットワークの一例を示す図である。It is a figure which shows an example of a decision network. 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the computer which concerns on at least 1 embodiment.

《第1の実施形態》
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、第1の実施形態に係る説明文生成装置の構成を示す概略ブロック図である。
説明文生成装置100は、決定木の入力を受け付け、当該決定木による判断プロセスの説明文を生成する。具体的には、説明文生成装置100は、決定木によって分類される複数の所属クラスそれぞれについて、当該所属クラスに属すると判断する判断プロセスの説明文を生成する。なお、決定木とは、入力データを複数の所属クラスの1つに分類する分類モデルである。具体的には、決定木は、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードと、各ノードを接続するリンクとからなる木構造の分類モデルである。
説明文生成装置100は、決定木取得部101、説明記憶部102、条件入力部103、説明文生成部104、出力部105を備える。
<< First Embodiment >>
Hereinafter, embodiments will be described in detail with reference to the drawings.
FIG. 1 is a schematic block diagram illustrating a configuration of an explanatory note generating apparatus according to the first embodiment.
The explanatory note generation device 100 receives an input of a decision tree and generates an explanatory note of a determination process based on the decision tree. Specifically, the explanatory note generation apparatus 100 generates, for each of a plurality of belonging classes classified by the decision tree, an explanatory note of a determination process for determining that the belonging class belongs. The decision tree is a classification model that classifies input data into one of a plurality of belonging classes. Specifically, the decision tree is a tree structure composed of internal nodes associated with feature quantity determination conditions and branch destination nodes, leaf nodes associated with belonging classes, and links connecting the nodes. Classification model.
The explanatory note generation apparatus 100 includes a decision tree acquisition unit 101, an explanation storage unit 102, a condition input unit 103, an explanatory sentence generation unit 104, and an output unit 105.

決定木取得部101は、説明対象となる決定木および当該決定木の学習時に生成されるメタデータを取得する。メタデータには、決定木の各ノードについての学習データの通過率または通過数が含まれる。
説明記憶部102は、説明語テーブルと述語テーブルとを記憶する。説明語テーブルには、決定木による判断対象となる特徴量と当該特徴量を表す日本語の説明語とが関連付けて格納される。
The decision tree acquisition unit 101 acquires a decision tree to be explained and metadata generated during learning of the decision tree. The metadata includes the passing rate or the passing number of learning data for each node of the decision tree.
The explanation storage unit 102 stores an explanation word table and a predicate table. In the explanatory word table, a feature quantity to be determined by the decision tree and a Japanese explanatory word representing the feature quantity are stored in association with each other.

図2は、説明語テーブルの例を示す図である。
図2に示す例によれば、説明語テーブルには、「黄色周辺の色相(色相30度以上90度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「黄色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「緑色周辺の色相(色相90度以上150度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「緑色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「水色周辺の色相(色相150度以上210度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「水色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「青色周辺の色相(色相210度以上270度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「青色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「紫色周辺の色相(色相270度以上330度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「紫色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「赤色周辺の色相(色相330度以上360度未満および色相0度以上30度未満)の画素数を全画素数で除算した値」という特徴量に関連付けて、「赤色っぽい部分が」という説明語が格納される。また、説明語テーブルには、「色相の分散」という特徴量に関連付けて、「色数が」という説明語が格納される。また、説明語テーブルには、「彩度の平均値」という特徴量に関連付けて、「鮮やかさが」という説明語が格納される。また、説明語テーブルには、「明度の平均値」という特徴量に関連付けて、「明るさが」という説明語が格納される。また、説明語テーブルには、「垂直線±20度のエッジをもつ画素数を全画素数で除算した値」という特徴量に関連付けて、「縦線が」という説明語が格納される。また、説明語テーブルには、「水平線±20度のエッジをもつ画素数を全画素数で除算した値」という特徴量に関連付けて、「横線が」という説明語が格納される。また、説明語テーブルには、「縦線・横線以外のエッジをもつ画素数を全画素数で除算した値」という特徴量に関連付けて、「斜線が」という説明語が格納される。
FIG. 2 is a diagram illustrating an example of the explanatory word table.
According to the example shown in FIG. 2, the explanatory word table associates with the feature quantity “a value obtained by dividing the number of pixels of the hue around yellow (hue 30 degrees or more and less than 90 degrees) by the total number of pixels”. The explanatory word “is a sexy part” is stored. Also, in the explanatory word table, an explanatory word “a greenish part” is associated with the feature quantity “a value obtained by dividing the number of pixels of the hue around green (hue 90 degrees or more and less than 150 degrees) by the total number of pixels”. Is stored. In addition, the explanatory word table is associated with a feature amount “a value obtained by dividing the number of pixels in the hue around light blue (hue 150 degrees or more and less than 210 degrees) by the total number of pixels”, and an explanatory word “a light blue portion” Is stored. Also, in the explanatory word table, an explanatory word “a blueish part” is associated with a feature amount “a value obtained by dividing the number of pixels in the hue around blue (hue 210 degrees to less than 270 degrees) by the total number of pixels”. Is stored. Also, in the explanatory word table, an explanatory word “purple-like part” is associated with the feature quantity “a value obtained by dividing the number of pixels in the hue around purple (hue 270 degrees or more and less than 330 degrees) by the total number of pixels”. Is stored. In addition, the explanatory word table associates with the feature quantity “a value obtained by dividing the number of pixels of the hue around red (hue 330 degrees to less than 360 degrees and hue 0 degrees to less than 30 degrees) by the total number of pixels”. An explanatory word “is a reddish part” is stored. The explanatory word table stores an explanatory word “the number of colors” in association with the feature quantity “dispersion of hue”. The explanatory word table stores an explanatory word “brightness” in association with a feature quantity “average value of saturation”. The explanatory word table stores the explanatory word “brightness” in association with the feature value “average value of brightness”. The explanatory word table stores the explanatory word “vertical line” in association with the feature value “a value obtained by dividing the number of pixels having an edge of vertical line ± 20 degrees by the total number of pixels”. The explanatory word table stores an explanatory word “horizontal line” in association with a feature value “a value obtained by dividing the number of pixels having an edge of a horizontal line ± 20 degrees by the total number of pixels”. The explanatory word table stores an explanatory word “hatched” in association with a feature value “a value obtained by dividing the number of pixels having edges other than vertical and horizontal lines by the total number of pixels”.

述語テーブルには、1以下の値に正規化された特徴量の閾値に関連付けて、当該閾値によって定義される範囲を表す日本語の述語が格納される。
図3は、述語テーブルの例を示す図である。
図3に示す例によれば、述語テーブルには、「0.0以上0.2未満」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「あまりない」という述語が格納され、当該閾値以上の範囲を表す述語として「あまりないわけではない」という述語が格納される。また、述語テーブルには、「0.2以上0.4未満」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「少ない」という述語が格納され、当該閾値以上の範囲を表す述語として「少ないわけではない」という述語が格納される。また、述語テーブルには、「0.4以上0.6未満」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「ある程度多いわけではない」という述語が格納され、当該閾値以上の範囲を表す述語として「ある程度多い」という述語が格納される。また、述語テーブルには、「0.6以上0.8未満」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「多いわけではない」という述語が格納され、当該閾値以上の範囲を表す述語として「多い」という述語が格納される。また、述語テーブルには、「0.8以上1.0以下」の閾値に関連付けて、当該閾値未満の範囲を表す述語として「とても多いわけではない」という述語が格納され、当該閾値以上の範囲を表す述語として「とても多い」という述語が格納される。
In the predicate table, a Japanese predicate representing a range defined by the threshold value is stored in association with the threshold value of the feature value normalized to a value of 1 or less.
FIG. 3 is a diagram illustrating an example of a predicate table.
According to the example shown in FIG. 3, in the predicate table, a predicate “not so much” is stored as a predicate representing a range below the threshold in association with the threshold of “0.0 or more and less than 0.2”. A predicate “not so much” is stored as a predicate representing a range above the threshold. Also, in the predicate table, a predicate “less” is stored as a predicate representing a range less than the threshold in association with a threshold of “0.2 or more and less than 0.4”, and a predicate representing a range greater than or equal to the threshold. Stores the predicate “not less”. In addition, in the predicate table, a predicate “not to some extent” is stored as a predicate representing a range below the threshold in association with a threshold of “0.4 or more and less than 0.6”, and the range above the threshold Is stored as a predicate representing “a certain amount”. In addition, in the predicate table, a predicate “not too much” is stored as a predicate representing a range less than the threshold in association with the threshold of “0.6 or more and less than 0.8”, and a range greater than or equal to the threshold is stored. A predicate “many” is stored as a predicate to represent. In addition, in the predicate table, a predicate “not very much” is stored as a predicate representing a range less than the threshold in association with the threshold of “0.8 or more and 1.0 or less”, and a range greater than or equal to the threshold The predicate “very many” is stored as a predicate representing

条件入力部103は、利用者から、生成すべき説明文の詳細度および所属クラス1つあたりの説明文の文章数の入力を受け付ける。説明文の詳細度とは、決定木による判断プロセスの説明の詳細さを示す値である。具体的には、詳細度は、説明文に含まれる説明語と述語の数の多さを表す。つまり、詳細度は、説明対象となる所属クラスに関連付けられた葉ノードに到達する経路に含まれるノードのうち、説明文に表すべきノードの割合を示す。説明文に含まれる説明語と述語の数は、詳細度が高いほど多くなる。したがって、詳細度が高いほど、説明文の正確さが向上する一方、説明文のわかりやすさは低下する。   The condition input unit 103 accepts input of the level of detail of the explanatory text to be generated and the number of explanatory texts per affiliation class from the user. The level of detail of the explanatory text is a value indicating the level of detail of the determination process by the decision tree. Specifically, the level of detail represents the number of explanatory words and predicates included in the explanatory text. That is, the level of detail indicates the proportion of nodes that should be represented in the explanatory text among the nodes included in the route reaching the leaf node associated with the belonging class to be explained. The number of explanatory words and predicates included in the explanatory text increases as the level of detail increases. Therefore, as the level of detail increases, the accuracy of the explanatory text improves, but the ease of understanding the explanatory text decreases.

説明文生成部104は、条件入力部103に入力された詳細度および文章数と、説明記憶部102が記憶する情報とに基づいて、決定木取得部101が取得した決定木によって分類される所属クラスごとの説明文を生成する。具体的には、説明文生成部104は、分類儀のノードの判定条件に用いられる特徴量に関連付けられた説明語と、当該判定条件が示す範囲に関連付けられた述語とを組み合わせることで、決定木の説明文を生成する。
出力部105は、説明文生成部104が生成した説明文を含むデータを出力する。本実施形態に係る出力部105は、説明文を含む文書データをプリンタに出力することで、説明文を含む文書を作成する。なお、他の実施形態に係る出力部105は、説明文を含むデータを、外部の記録媒体、ディスプレイ、またはその他の装置に出力しても良い。
The description sentence generation unit 104 is classified according to the decision tree acquired by the decision tree acquisition unit 101 based on the level of detail and the number of sentences input to the condition input unit 103 and the information stored in the explanation storage unit 102. Generate a description for each class. Specifically, the explanatory note generation unit 104 determines by combining an explanatory word associated with a feature amount used as a determination condition for a classification node and a predicate associated with a range indicated by the determination condition. Generate a tree description.
The output unit 105 outputs data including the explanatory text generated by the explanatory text generation unit 104. The output unit 105 according to the present embodiment creates a document including an explanatory text by outputting document data including the explanatory text to a printer. Note that the output unit 105 according to another embodiment may output data including explanatory text to an external recording medium, a display, or another device.

次に、本実施形態に係る説明文生成装置100による説明文書作成方法について説明する。
図4は、第1の実施形態に係る説明文生成装置の動作を示すフローチャートである。
まず決定木取得部101は、説明文の生成対象となる決定木および当該決定木のメタデータを取得する(ステップS1)。次に、条件入力部103は、利用者から説明文の詳細度および所属クラス1つあたりの説明文の文章数の入力を受け付ける(ステップS2)。
Next, a description document creation method by the explanatory note generation apparatus 100 according to the present embodiment will be described.
FIG. 4 is a flowchart showing the operation of the explanatory note generating apparatus according to the first embodiment.
First, the decision tree acquisition unit 101 acquires a decision tree as a description generation target and metadata of the decision tree (step S1). Next, the condition input unit 103 receives an input of the level of detail of the explanatory text and the number of explanatory texts per affiliation class from the user (step S2).

次に、説明文生成部104は、決定木取得部101が取得した決定木の葉ノードを参照し、当該決定木により分類される所属クラスを特定する(ステップS3)。次に、説明文生成部104は、特定した所属クラスを1つずつ選択し、選択した各所属クラスについて、以下に示すステップS5〜ステップS16の処理を実行する(ステップS4)。   Next, the explanatory note generation unit 104 refers to the leaf node of the decision tree acquired by the decision tree acquisition unit 101, and identifies the belonging class classified by the decision tree (step S3). Next, the explanatory note generation unit 104 selects the identified belonging classes one by one, and executes the processes of steps S5 to S16 shown below for each selected belonging class (step S4).

説明文生成部104は、決定木取得部101が取得した決定木のメタデータを参照し、選択した所属クラスに関連付けられた葉ノードのうち、学習データの到達率または到達数が最も高い葉ノードを特定する(ステップS5)。なお、既に当該所属クラスの説明文を1つ以上生成している場合、説明文生成部104は、説明文の生成に用いられていない葉ノードのうち、学習データの到達率または到達数が最も高い葉ノードを特定する。   The description sentence generation unit 104 refers to the metadata of the decision tree acquired by the decision tree acquisition unit 101, and among the leaf nodes associated with the selected affiliation class, the leaf node with the highest learning data arrival rate or arrival number Is identified (step S5). When one or more explanatory texts of the class belonging to the class have already been generated, the explanatory text generation unit 104 has the highest learning data arrival rate or number of arrivals among the leaf nodes that are not used for generating the explanatory text. Identify high leaf nodes.

次に、説明文生成部104は、根ノードから特定した葉ノードに到達する経路を特定する(ステップS6)。次に、説明文生成部104は、特定した経路に含まれる内部ノードの数と、入力された説明文の詳細度とに基づいて、説明文の生成に用いる内部ノードの数を特定する(ステップS7)。具体的には、説明文生成部104は、経路に含まれる内部ノードの数に詳細度を表す割合を乗算し、得られた値の小数点以下を切り上げることで、説明文の生成に用いる内部ノードの数を特定する。
次に、説明文生成部104は、ステップS6で特定した経路に含まれる内部ノードのうち、ステップS7で特定した数の内部ノードを、深さが小さいものから順に選択し、選択した各ノードについて、以下に示すステップS9〜ステップS13の処理を実行する(ステップS8)。
Next, the explanatory note generation unit 104 specifies a route that reaches the leaf node specified from the root node (step S6). Next, the explanatory note generation unit 104 specifies the number of internal nodes used for generation of the explanatory note based on the number of internal nodes included in the specified route and the level of detail of the input explanatory note (step S7). Specifically, the explanatory note generation unit 104 multiplies the number of internal nodes included in the route by a ratio representing the degree of detail, and rounds up the decimal point of the obtained value, thereby using the internal nodes used for generating the explanatory note Identify the number of
Next, the explanatory note generation unit 104 selects the number of internal nodes specified in step S7 from the internal nodes included in the route specified in step S6 in ascending order of depth, and for each selected node Then, the following processing of step S9 to step S13 is executed (step S8).

説明文生成部104は、選択された内部ノードに関連付けられた判断条件に用いられる特徴量を特定する(ステップS9)。説明文生成部104は、説明記憶部102が記憶する説明語テーブルから特定した特徴量に関連付けられた説明語を読み出す(ステップS10)。次に、説明文生成部104は、選択された内部ノードに関連付けられた判断条件に用いられる閾値を特定する(ステップS11)。説明文生成部104は、説明記憶部102が記憶する述語テーブルから特定した閾値とステップS6で特定した経路に属する範囲(閾値以上か否か)に関連付けられた述語を読み出す(ステップS12)。次に、説明文生成部104は、読み出した説明語および述語を接続することで、ステップS8で選択された内部ノードの説明文を生成する(ステップS13)。   The explanatory note generation unit 104 specifies a feature amount used for the determination condition associated with the selected internal node (step S9). The explanatory note generation unit 104 reads an explanatory word associated with the specified feature quantity from the explanatory word table stored in the explanatory storage unit 102 (step S10). Next, the explanatory note generation unit 104 specifies a threshold value used for the determination condition associated with the selected internal node (step S11). The description sentence generation unit 104 reads the predicate associated with the threshold value specified from the predicate table stored in the description storage unit 102 and the range belonging to the route specified in step S6 (whether it is equal to or greater than the threshold value) (step S12). Next, the explanatory note generation unit 104 generates an explanatory note of the internal node selected in step S8 by connecting the read explanatory words and predicates (step S13).

説明文生成部104は、ステップS7で特定した数の内部ノードのそれぞれの説明文を生成すると、生成した説明文を組み合わせることで、ステップS5で特定した葉ノードの説明文を生成する(ステップS14)。
説明文生成部104は、ステップS14で生成した葉ノードの説明文の数がステップS4で入力された文章数に達したか否かを判定する(ステップS15)。説明文の数が入力された文章数に達していない場合(ステップS15:NO)、ステップS5に戻り、学習データの到達率または到達数が次に高い葉ノードの説明文を生成する。説明文の数が入力された文章数に達した場合(ステップS15:YES)、ステップS14で生成された葉ノードの説明文を組み合わせることで、ステップS4で選択した所属クラスの説明文を生成する(ステップS16)。このとき、説明文生成部104は、決定木取得部101が取得した決定木のメタデータを参照し、ステップS5で特定した各葉ノードの学習データの到達率の和を、説明文が示す説明の網羅率として、当該説明文に追加しても良い。当該説明文の文章数は入力された文章数に等しく、当該説明文に含まれる説明語および述語の数は、入力された詳細度に応じたものとなる。
When the explanatory text generation unit 104 generates the explanatory texts of the number of internal nodes specified in step S7, the explanatory text generation unit 104 generates the explanatory text of the leaf node specified in step S5 by combining the generated explanatory texts (step S14). ).
The explanatory note generation unit 104 determines whether or not the number of explanatory sentences of the leaf node generated in step S14 has reached the number of sentences input in step S4 (step S15). If the number of explanatory texts has not reached the number of input texts (step S15: NO), the process returns to step S5 to generate an explanatory text for the leaf node with the next highest learning data arrival rate or number. When the number of explanatory texts reaches the number of input texts (step S15: YES), the explanatory text of the belonging class selected in step S4 is generated by combining the explanatory texts of the leaf nodes generated in step S14. (Step S16). At this time, the explanatory note generation unit 104 refers to the metadata of the decision tree acquired by the decision tree acquisition unit 101, and the explanatory note indicates the sum of the arrival rates of the learning data of each leaf node specified in step S5. The coverage rate may be added to the description. The number of sentences in the explanatory text is equal to the number of input texts, and the number of explanatory words and predicates included in the explanatory text depends on the input level of detail.

説明文生成部104が、決定木により分類され得る全ての所属クラスの説明文を生成すると、出力部105は、当該説明文を含む文書データを生成し、当該文書データをプリンタに出力する(ステップS17)。これにより、説明文生成装置100は、決定木の説明文を含む文書を作成することができる。   When the explanatory note generation unit 104 generates explanatory notes of all belonging classes that can be classified by the decision tree, the output unit 105 generates document data including the explanatory note and outputs the document data to the printer (step) S17). Thereby, the explanatory note generation device 100 can create a document including the explanatory note of the decision tree.

以下、第1の実施形態に係る説明文の生成方法の具体例を説明する。
図5は、決定木の一例を示す図である。図5に示す決定木は、入力された画像データがハスが写った画像データであるか、ひまわりが写った画像データであるかを判断するものである。当該決定木は、ハスが写った画像50枚とひまわりが写った画像50枚とを学習データとして学習されたものである。
図5(A)は、決定木のノードの接続関係を示す図である。図5(B)は、各内部ノードに関連付けられた判断条件の特徴量および閾値を示す図である。図5(C)は、各葉ノードに関連付けられた所属クラスおよび当該葉ノードへの学習データの到達数を示す図である。
Hereinafter, a specific example of the description sentence generation method according to the first embodiment will be described.
FIG. 5 is a diagram illustrating an example of a decision tree. The decision tree shown in FIG. 5 determines whether the input image data is image data showing a lotus or image data showing a sunflower. The decision tree is learned by using 50 images showing lotus and 50 images showing sunflower as learning data.
FIG. 5A is a diagram illustrating a connection relationship between nodes of a decision tree. FIG. 5B is a diagram illustrating the feature amount and threshold value of the determination condition associated with each internal node. FIG. 5C is a diagram showing the affiliation class associated with each leaf node and the number of learning data reaching the leaf node.

決定木取得部101は、ステップS1で、図5に示す決定木およびメタデータを取得する。次に条件入力部103は、ステップS2で、詳細度および文章数の入力を受け付ける。本例においては、詳細度50%、文章数2が入力されたものとする。次に説明文生成部104は、ステップS3で、決定木が分類しうる所属クラスとして、ハスクラスとひまわりクラスとを特定する。   In step S1, the decision tree acquisition unit 101 acquires the decision tree and metadata shown in FIG. Next, in step S2, the condition input unit 103 receives input of the degree of detail and the number of sentences. In this example, it is assumed that the level of detail is 50% and the number of sentences is 2. Next, the explanatory note generation unit 104 specifies a lotus class and a sunflower class as belonging classes that the decision tree can classify in step S3.

説明文生成部104は、ステップS4において、まずハスクラスを選択する。説明文生成部104は、ステップS5において、ハスクラスの葉ノードL1、L2、L5、L6、L7のうち最も到達数が多い葉ノードL1(到達数25)を特定する。次に、説明文生成部104は、ステップS6において、葉ノードL1に到達する経路を特定する。葉ノードL1に到達する経路に属する内部ノードは、内部ノードM1(根ノード)のみである。したがって、説明文生成部104は、ステップS7で説明文の生成に用いる内部ノードの数が1であることを特定する。   In step S4, the explanatory note generation unit 104 first selects a lotus class. In step S5, the explanatory note generating unit 104 specifies the leaf node L1 (arrival number 25) having the highest arrival number among the leaf nodes L1, L2, L5, L6, and L7 of the lotus class. Next, the explanatory note generation unit 104 identifies a route that reaches the leaf node L1 in step S6. The internal node belonging to the path reaching the leaf node L1 is only the internal node M1 (root node). Therefore, the explanatory note generation unit 104 specifies that the number of internal nodes used for generation of the explanatory note is 1 in step S7.

説明文生成部104は、内部ノードM1の判断条件に係る特徴量「黄色周辺の色相(色相30度以上90度未満)の画素数を全画素数で除算した値」に関連付けられた説明語を、説明記憶部102から読み出す。図2を参照すると、特徴量「黄色周辺の色相(色相30度以上90度未満)の画素数を全画素数で除算した値」に関連付けられた説明語は、「黄色っぽい部分が」である。説明文生成部104は、内部ノードM1の判断条件に係る閾値0.233未満の範囲に関連付けられた述語を、説明記憶部102から読み出す。図3を参照すると、閾値0.233未満の範囲に関連付けられた述語は、「少ない」である。これにより、説明文生成部104は、葉ノードL1の説明文として「黄色っぽい部分が少ない」を生成する。   The explanatory note generation unit 104 outputs an explanatory word associated with the feature amount “value obtained by dividing the number of pixels of the hue around yellow (hue of 30 degrees or more and less than 90 degrees) by the total number of pixels” related to the determination condition of the internal node M1. , Read from the explanation storage unit 102. Referring to FIG. 2, the explanatory word associated with the feature amount “a value obtained by dividing the number of pixels in the hue around yellow (hue of 30 degrees or more and less than 90 degrees) by the total number of pixels” is “yellowish portion”. . The description sentence generation unit 104 reads the predicate associated with the range less than the threshold value 0.233 related to the determination condition of the internal node M1 from the description storage unit 102. Referring to FIG. 3, the number of predicates associated with the range less than the threshold value 0.233 is “few”. Thereby, the explanatory note generation unit 104 generates “there are few yellowish portions” as the explanatory note of the leaf node L1.

次に、説明文生成部104は、ステップS5に戻り、ハスクラスの葉ノードL1、L2、L5、L6、L7のうち葉ノードL1の次に到達数が多い葉ノードL5(到達数10)を特定する。次に、説明文生成部104は、ステップS6において、葉ノードL5に到達する経路を特定する。葉ノードL5に到達する経路に属する内部ノードは、内部ノードM1、M2、M4、M5である。次に、説明文生成部104は、ステップS7で、経路に属する内部ノードの数4に、詳細度50%を乗算することで、説明文の生成に用いる内部ノードの数を2に特定する。
説明文生成部104は、葉ノードL5に到達する経路に属する最も深さが小さい2つの内部ノードM1、M2の説明文を生成する。これにより、説明文生成部104は、ステップS14で、葉ノードL5の説明文として「黄色っぽい部分が少ないわけではなく、鮮やかさがある程度多いわけではない」を生成する。
Next, the explanatory note generation unit 104 returns to step S5 and identifies the leaf node L5 (arrival number 10) having the next highest arrival number after the leaf node L1 among the leaf nodes L1, L2, L5, L6, and L7 of the lotus class. To do. Next, the explanatory note generation unit 104 specifies a route that reaches the leaf node L5 in step S6. Internal nodes belonging to the route reaching the leaf node L5 are internal nodes M1, M2, M4, and M5. Next, in step S7, the explanatory note generation unit 104 multiplies the number of internal nodes 4 belonging to the route by the detail level 50%, thereby specifying 2 as the number of internal nodes used for generating the explanatory text.
The explanatory note generation unit 104 generates explanatory notes of the two internal nodes M1 and M2 having the smallest depth belonging to the route reaching the leaf node L5. Thereby, the explanatory note generation unit 104 generates “not yellowish portions are not few and vividness is not so much” as the explanatory notes of the leaf node L5 in step S14.

これにより、説明文生成部104は、ステップS16で、詳細度50%、文章数2のハスクラスの説明文として、「黄色っぽい部分が少ないものや、黄色っぽい部分が少ないわけではなく、鮮やかさがある程度多いわけではないものをハスクラスとみなします」という説明文を生成する。このとき、決定木取得部101が取得した決定木のメタデータを参照し、ステップS5で特定した各葉ノードの学習データの到達率の和を、ハスクラスの説明文が示す説明の網羅率として、当該説明文に追加しても良い。ハスクラスに分類される学習ノード数が50であるのに対し、葉ノードL1の到達数が25であることから、葉ノードL1の到達率は50%である。また葉ノードL5の到達数が10であることから、葉ノードL5の到達率は20%である。したがって、説明文生成部104は、これらの到達率を加算することで、当該説明文の網羅率70%を算出することができる。
同様の手順により、説明文生成部104は、ステップS16で、詳細度50%、文章数2のひまわりクラスの説明文として、「黄色っぽい部分が少ないわけではなく、鮮やかさがある程度多いものや、黄色っぽい部分が少ないわけではなく、鮮やかさがある程度多いわけではなく、水色っぽい部分があまりないものをひまわりクラスとみなします」という説明文を生成する。
As a result, in step S16, the explanatory note generation unit 104 determines that the description of the lotus class with a detail level of 50% and the number of sentences of 2 is “not a little yellowish part or little yellowish part, An explanation that generates “something that is not too much is considered a lotus class” is generated. At this time, referring to the metadata of the decision tree acquired by the decision tree acquisition unit 101, the sum of the arrival rates of the learning data of each leaf node specified in step S5 is used as the coverage rate of the explanation indicated by the explanation text of the lotus class. You may add to the said explanatory note. The number of learning nodes classified into the lotus class is 50, whereas the arrival number of the leaf node L1 is 25. Therefore, the arrival rate of the leaf node L1 is 50%. Since the arrival number of the leaf node L5 is 10, the arrival rate of the leaf node L5 is 20%. Therefore, the explanatory note generation unit 104 can calculate the coverage rate 70% of the explanatory sentence by adding these arrival rates.
By the same procedure, the explanatory note generation unit 104, in step S16, as the explanatory sentence of the sunflower class with a detail level of 50% and the number of sentences of 2, “the yellowish part is not small and the vividness is somewhat high, "The yellowish part is not small, the vividness is not so much, and the light blue part is not considered as a sunflower class".

このように、本実施形態によれば、説明文生成装置100は、決定木により分類され得る各所属クラスの判定条件を所定の言語で表した説明文を生成する。これにより、説明文生成装置100は、当該言語を理解することができる利用者に、決定木による判断プロセスを理解させることができる。   As described above, according to the present embodiment, the explanatory note generation apparatus 100 generates an explanatory note in which a determination condition of each belonging class that can be classified by the decision tree is expressed in a predetermined language. Thereby, the explanatory note generation device 100 can make a user who can understand the language understand the determination process based on the decision tree.

なお、本実施形態に係る説明文生成装置100は、全ての所属クラスに係る説明文を生成するが、これに限られない。例えば、他の実施形態に係る説明文生成装置100は、利用者から説明文を生成すべき所属クラスの入力を受け付け、当該所属クラスについての説明文を生成しても良い。   In addition, although the explanatory note generation apparatus 100 which concerns on this embodiment produces | generates the explanatory note which concerns on all the affiliation classes, it is not restricted to this. For example, the explanatory note generation device 100 according to another embodiment may receive an input of a belonging class for which an explanatory note is to be generated from a user, and generate an explanatory note for the belonging class.

《第2の実施形態》
第2の実施形態について詳しく説明する。
図6は、第2の実施形態に係る説明文生成装置の構成を示す概略ブロック図である。
第2の実施形態に係る説明文生成装置100は、利用者から分類の対象となる対象データの入力を受け付け、決定木によって当該対象データがある所属クラスに分類されるまでの判断プロセスの説明文を生成する。
第2の実施形態に係る説明文生成装置100は、第1の実施形態の構成に加え、さらに対象データ入力部106と分類部107とを備える。第2の実施形態に係る説明文生成装置100は、第1の実施形態と説明文生成部104の動作が異なる。
<< Second Embodiment >>
The second embodiment will be described in detail.
FIG. 6 is a schematic block diagram illustrating a configuration of the explanatory note generation apparatus according to the second embodiment.
The explanatory note generating apparatus 100 according to the second embodiment receives an input of target data to be classified from a user, and an explanatory text of a determination process until the target data is classified into a certain belonging class by a decision tree Is generated.
The explanatory note generation device 100 according to the second embodiment further includes a target data input unit 106 and a classification unit 107 in addition to the configuration of the first embodiment. The explanatory note generation apparatus 100 according to the second embodiment differs from the first embodiment in the operation of the explanatory note generation unit 104.

対象データ入力部106は、決定木取得部101が取得した決定木による分類の対象となる対象データの入力を受け付ける。
分類部107は、決定木取得部101が取得した決定木に基づいて、入力された対象データの所属クラスを分類する。
説明文生成部104は、決定木取得部101が取得した決定木のうち、分類部107が分類の過程で辿った経路に係る説明文を生成する。
The target data input unit 106 receives input of target data to be classified by the decision tree acquired by the decision tree acquisition unit 101.
The classification unit 107 classifies the affiliation class of the input target data based on the decision tree acquired by the decision tree acquisition unit 101.
The explanatory note generation unit 104 generates an explanatory note relating to a route followed by the classification unit 107 during the classification process, out of the decision trees acquired by the decision tree acquisition unit 101.

次に、本実施形態に係る説明文生成装置100による説明文書作成方法について説明する。
図7は、第2の実施形態に係る説明文生成装置の動作を示すフローチャートである。
まず決定木取得部101は、説明文の生成対象となる決定木および当該決定木のメタデータを取得する(ステップS101)。次に、対象データ入力部106は、利用者から対象データの入力を受け付ける(ステップS102)。次に、分類部107は、入力された対象データの所属クラスを、決定木取得部が取得した決定木に基づいて分類する(ステップS103)。分類部107は分類の過程で辿った根ノードから葉ノードまでの経路を特定する(ステップS104)。次に、条件入力部103は、利用者から説明文の詳細度の入力を受け付ける(ステップS105)。なお、対象データの分類の過程で辿る経路の数は1なので、文書数の入力は不要である。
Next, a description document creation method by the explanatory note generation apparatus 100 according to the present embodiment will be described.
FIG. 7 is a flowchart showing the operation of the explanatory note generating apparatus according to the second embodiment.
First, the decision tree acquisition unit 101 acquires a decision tree for which a description is to be generated and metadata of the decision tree (step S101). Next, the target data input unit 106 receives input of target data from the user (step S102). Next, the classification unit 107 classifies the class to which the input target data belongs based on the decision tree acquired by the decision tree acquisition unit (step S103). The classification unit 107 specifies the route from the root node to the leaf node traced in the classification process (step S104). Next, the condition input unit 103 receives an input of the detail level of the explanatory text from the user (step S105). Since the number of paths to be traced in the process of classifying the target data is 1, it is not necessary to input the number of documents.

次に、説明文生成部104は、ステップS103で特定した経路に含まれる内部ノードの数と、入力された説明文の詳細度とに基づいて、説明文の生成に用いる内部ノードの数を特定する(ステップS106)。具体的には、説明文生成部104は、経路に含まれる内部ノードの数に詳細度を表す割合を乗算し、得られた値の小数点以下を切り上げることで、説明文の生成に用いる内部ノードの数を特定する。
次に、説明文生成部104は、ステップS103で特定した経路に含まれる内部ノードのうち、ステップS106で特定した数の内部ノードを、深さが小さいものから順に選択し、選択した各ノードについて、以下に示すステップS108〜ステップS112の処理を実行する(ステップS107)。
Next, the explanatory note generation unit 104 specifies the number of internal nodes used for generation of the explanatory note based on the number of internal nodes included in the route specified in step S103 and the degree of detail of the input explanatory note. (Step S106). Specifically, the explanatory note generation unit 104 multiplies the number of internal nodes included in the route by a ratio representing the degree of detail, and rounds up the decimal point of the obtained value, thereby using the internal nodes used for generating the explanatory note Identify the number of
Next, the explanatory note generation unit 104 selects the number of internal nodes specified in step S106 from the internal nodes included in the route specified in step S103, in ascending order of depth, and for each selected node Then, the following processing of step S108 to step S112 is executed (step S107).

説明文生成部104は、選択された内部ノードに関連付けられた判断条件に用いられる特徴量を特定する(ステップS108)。説明文生成部104は、説明記憶部102が記憶する説明語テーブルから特定した特徴量に関連付けられた説明語を読み出す(ステップS109)。次に、説明文生成部104は、選択された内部ノードに関連付けられた判断条件に用いられる閾値を特定する(ステップS110)。説明文生成部104は、説明記憶部102が記憶する述語テーブルから特定した閾値とステップS104で特定した経路に属する範囲に関連付けられた述語を読み出す(ステップS111)。次に、説明文生成部104は、読み出した説明語および述語を接続することで、ステップS8で選択された内部ノードの説明文を生成する(ステップS112)。   The description sentence generation unit 104 specifies the feature amount used for the determination condition associated with the selected internal node (step S108). The explanatory note generation unit 104 reads an explanatory word associated with the identified feature quantity from the explanatory word table stored in the explanatory storage unit 102 (step S109). Next, the explanatory note generation unit 104 specifies a threshold value used for the determination condition associated with the selected internal node (step S110). The description sentence generation unit 104 reads out the predicate associated with the threshold value specified from the predicate table stored in the description storage unit 102 and the range belonging to the route specified in step S104 (step S111). Next, the explanatory note generation unit 104 generates an explanatory note of the internal node selected in step S8 by connecting the read explanatory words and predicates (step S112).

説明文生成部104は、ステップS106で特定した数の内部ノードのそれぞれの説明文を生成すると、生成した説明文を組み合わせることで、ステップS104で特定した経路の説明文を生成する(ステップS113)。そして出力部105は、当該説明文を含む文書データを生成し、当該文書データをプリンタに出力する(ステップS114)。これにより、説明文生成装置100は、対象データの分類に係る決定木の説明文を含む文書を作成することができる。   When the explanatory text generation unit 104 generates the explanatory texts of the number of internal nodes specified in step S106, the explanatory text generation unit 104 generates the explanatory text of the route specified in step S104 by combining the generated explanatory texts (step S113). . Then, the output unit 105 generates document data including the explanatory text and outputs the document data to the printer (step S114). Thereby, the explanatory note generation device 100 can create a document including an explanatory note of the decision tree related to the classification of the target data.

このように、本実施形態によれば、説明文生成装置100は、入力された対象データが分類結果に示される所属クラスに分類された理由を表した説明文を生成する。これにより、説明文生成装置100は、当該言語を理解することができる利用者に、決定木による対象データの分類に係る判断プロセスを理解させることができる。   As described above, according to the present embodiment, the explanatory note generation apparatus 100 generates an explanatory note representing the reason why the input target data is classified into the belonging class indicated in the classification result. Thereby, the explanatory note generation apparatus 100 can make a user who can understand the language understand the determination process related to the classification of the target data by the decision tree.

《第3の実施形態》
決定木の判断対象となる特徴量の中には、所定の言語による説明が容易なものも存在すれば、所定の言語による説明が困難なものも存在する。例えば、図2に例示した色相の分散、彩度の平均値、明度の平均値などの特徴量は、日本語での説明が比較的容易である。他方、例えば、色相の平均値、HOG特徴量、SIFT特徴量などの特徴量は、日本語での説明が困難である。
第3の実施形態に係る説明文生成装置100は、人間にとって理解しにくい表現を抑えた説明文を生成する。
<< Third Embodiment >>
Among the feature quantities to be determined by the decision tree, there are those that are easy to explain in a predetermined language and those that are difficult to explain in a predetermined language. For example, the feature quantities such as the hue dispersion, the average value of saturation, and the average value of brightness exemplified in FIG. 2 are relatively easy to explain in Japanese. On the other hand, for example, the feature values such as the average value of hue, the HOG feature value, and the SIFT feature value are difficult to explain in Japanese.
The explanatory note generation device 100 according to the third embodiment generates an explanatory note that suppresses expressions that are difficult for humans to understand.

第3の実施形態に係る説明文生成装置100は、第1の実施形態と説明記憶部102が記憶する説明語テーブルの構成が異なる。また第3の実施形態に係る説明文生成装置100は、第1の実施形態と説明文生成部104の動作が異なる。   The explanatory note generating apparatus 100 according to the third embodiment is different from the first embodiment in the configuration of the explanatory word table stored in the explanatory storage unit 102. The explanatory note generating apparatus 100 according to the third embodiment is different from the first exemplary embodiment in the operation of the explanatory note generating unit 104.

説明記憶部102が記憶する説明語テーブルは、特徴量に関連付けて、当該特徴量を表す説明語と、当該説明語のわかりやすさを示す説明適性値とを格納する。説明適性値は、値が高いほど説明語が分かりやすい表現であることを示す。例えば、説明適性値は、特徴量と説明語とを関連付けた管理者によって設定される。
図8は、第3の実施形態に係る説明語テーブルの例を示す図である。
図2に示す例によれば、説明語テーブルには、「色相の分散」という特徴量に関連付けて、「色数が」という説明語および説明適性値「0.7」が格納される。また、説明語テーブルには、「彩度の平均値」という特徴量に関連付けて、「鮮やかさが」という説明語および説明適性値「0.9」が格納される。また、説明語テーブルには、「明度の平均値」という特徴量に関連付けて、「明るさが」という説明語および説明適性値「0.9」が格納される。また、説明語テーブルには、「色相の平均値」という特徴量に関連付けて、「色相の平均値が」という説明語および説明適性値「0.1」が格納される。また、説明語テーブルには、「縦軸の空間周波数の平均値」という特徴量に関連付けて、「縦方向の明るさの変化の頻度が」という説明語および説明適性値「0.3」が格納される。また、説明語テーブルには、「横軸の空間周波数の平均値」という特徴量に関連付けて、「縦方向の明るさの変化の頻度が」という説明語および説明適性値「0.3」が格納される。
このように、「鮮やかさが」、「明るさが」などの人間にとって理解しやすい説明語には、高い説明適性値が関連付けられ、「色相の平均値が」、「縦方向の明るさの変化の頻度が」などの人間にとって理解しにくい説明語には、低い説明適性値が関連付けられる。
The explanatory word table stored in the explanatory storage unit 102 stores, in association with the feature quantity, an explanatory word that represents the feature quantity and an explanatory aptitude value that indicates the ease of understanding the explanatory word. The explanatory suitability value indicates that the higher the value, the easier to understand the explanatory word. For example, the explanatory suitability value is set by an administrator who associates a feature quantity with an explanatory word.
FIG. 8 is a diagram illustrating an example of an explanatory word table according to the third embodiment.
According to the example shown in FIG. 2, the explanatory word table stores the explanatory word “the number of colors” and the explanatory aptitude value “0.7” in association with the feature quantity “hue dispersion”. The explanatory word table stores an explanatory word “brightness” and an explanatory suitability value “0.9” in association with the feature value “average value of saturation”. The explanatory word table stores an explanatory word “brightness” and an explanatory aptitude value “0.9” in association with the feature value “average value of brightness”. The explanatory word table stores an explanatory word “average hue value” and an explanatory suitability value “0.1” in association with the feature value “average hue value”. In addition, in the explanatory word table, an explanatory word “the frequency of change in brightness in the vertical direction” and an explanatory aptitude value “0.3” are associated with the feature value “average value of spatial frequency on the vertical axis”. Stored. The explanatory word table has an explanatory word “the frequency of change in brightness in the vertical direction” and an explanatory aptitude value “0.3” in association with the feature quantity “average value of spatial frequency on the horizontal axis”. Stored.
In this way, explanatory words that are easy to understand for human beings such as “brightness” and “brightness” are associated with high explanatory aptitude values, “average hue value”, “vertical brightness” An explanatory word that is difficult for humans to understand, such as “the frequency of change” is associated with a low explanatory aptitude value.

説明文生成部104は、決定木のノードのうち判定条件に用いられる特徴量の説明適性値が大きいものから順に、条件入力部103に入力された詳細度に応じたノード数のノードに係る説明文を生成する。
これにより、説明文生成装置100は、人間にとって理解しにくい表現を抑えた説明文を生成することができる。
The description sentence generation unit 104 describes the number of nodes according to the level of detail input to the condition input unit 103 in descending order of the explanatory value of the feature amount used for the determination condition among the nodes of the decision tree. Generate a statement.
Thereby, the explanatory note generation device 100 can generate an explanatory note in which expressions difficult to understand for humans are suppressed.

《第4の実施形態》
決定木の判断対象となる特徴量の中には、複数の特徴量の組み合わせを1つの説明語で説明可能なものも存在する。例えば、RGB値のR値は「赤成分が」、G値は「緑成分が」という説明語で説明することができ、さらにR値とG値の組み合わせは、「黄色成分が」という説明語で説明することもできる。
第4の実施形態に係る説明文生成装置100は、複数の特徴量の組み合わせを1つの説明語で説明する説明文を生成する。
<< Fourth Embodiment >>
Among the feature quantities to be determined by the decision tree, there are those that can explain a combination of a plurality of feature quantities with one explanatory word. For example, the R value of the RGB value can be described by an explanatory word “red component is”, the G value is “green component”, and the combination of the R value and the G value is an explanatory word “yellow component is”. Can also be explained.
The explanatory note generation device 100 according to the fourth embodiment generates an explanatory note that explains a combination of a plurality of feature amounts with one explanatory word.

第4の実施形態に係る説明文生成装置100は、第1の実施形態と説明記憶部102が記憶する説明語テーブルの構成が異なる。また第4の実施形態に係る説明文生成装置100は、第1の実施形態と説明記憶部102の動作が異なる。
説明記憶部102が記憶する説明語テーブルは、特徴量および特徴量の組み合わせに関連付けて、当該特徴量または当該特徴量の組み合わせを表す説明語を格納する。
説明文生成部104は、決定木の経路に属するノードの中に特徴量の組み合わせに対応するノードの組み合わせが含まれる場合に、当該特徴量の組み合わせに関連付けられた説明語に基づいて決定木の説明文を生成する。具体的には、図4に示すステップS9で特定した特徴量を含む組み合わせが説明語テーブルに格納されており、かつ当該組み合わせに係る他の特徴量に係る中間ノードがステップS6で特定した経路上に存在する場合に、説明文生成部104は、ステップS10で当該組み合わせに関連付けられた説明語を読み出す。
このように、説明文生成装置100は、複数の特徴量の組み合わせをまとめて1つの説明語で説明する説明する説明文を生成することで、説明文の長さを変えることなく説明文の詳細度を高めることができる。
The explanatory note generating apparatus 100 according to the fourth embodiment is different from the first embodiment in the configuration of the explanatory word table stored in the explanatory storage unit 102. The explanatory note generating apparatus 100 according to the fourth embodiment is different from the first embodiment in the operation of the explanation storage unit 102.
The explanatory word table stored in the explanatory storage unit 102 stores an explanatory word representing the feature quantity or the combination of the feature quantities in association with the feature quantity and the combination of the feature quantities.
When the node belonging to the path of the decision tree includes a node combination corresponding to the feature amount combination, the explanatory note generation unit 104 determines the decision tree based on the explanatory word associated with the feature amount combination. Generate descriptive text. Specifically, a combination including the feature amount specified in step S9 shown in FIG. 4 is stored in the explanatory word table, and an intermediate node related to another feature amount related to the combination is on the route specified in step S6. In the case where it exists, the explanatory note generating unit 104 reads the explanatory word associated with the combination in step S10.
In this way, the explanatory note generation device 100 generates the explanatory text to be explained that is explained by one explanatory word by combining a plurality of feature quantity combinations, so that the details of the explanatory text can be changed without changing the length of the explanatory text. The degree can be increased.

《第5の実施形態》
第5の実施形態に係る説明文生成装置100は、特許文献1に係る決定ネットワークの説明文を生成する。決定ネットワークは、複数のデータの入力を可能とするDAG(Directed acyclic graph)の分類モデルである。なお、決定ネットワークは、分類の対象となる対象データの所属クラスを決定する主決定木と、主決定木の判定条件を決定する副決定木とを組み合わせたものであり、決定木の一種といえる。なお、主決定木と副決定木とは、一部のノードを共通にする。
<< Fifth Embodiment >>
The explanatory note generation device 100 according to the fifth embodiment generates an explanatory note of the decision network according to Patent Document 1. The decision network is a DAG (Directed acyclic graph) classification model that allows a plurality of data to be input. The decision network is a combination of a main decision tree that determines the class to which the target data to be classified belongs and a sub-decision tree that determines the criteria for determining the main decision tree. . The main decision tree and the sub-decision tree share some nodes.

図9は、決定ネットワークの一例を示す図である。
図9に示す決定ネットワークは、入力された画像データが、傷がついた革製品が写った画像データであるか、傷がない革製品が写った画像データであるかを判断するものである。
図9(A)は、決定ネットワークのノードの接続関係を示す図である。図9(B)は、各内部ノードに関連付けられた判断条件の特徴量および閾値を示す図である。図9(C)は、各葉ノードに関連付けられた所属クラスおよび当該葉ノードへの学習データの到達数を示す図である。
FIG. 9 is a diagram illustrating an example of a decision network.
The determination network shown in FIG. 9 determines whether the input image data is image data showing a leather product with a flaw or image data showing a leather product without a flaw.
FIG. 9A is a diagram illustrating a connection relationship of nodes in the decision network. FIG. 9B is a diagram illustrating the feature amount and threshold value of the determination condition associated with each internal node. FIG. 9C is a diagram showing the affiliation class associated with each leaf node and the number of learning data reaching the leaf node.

図9(A)によれば、中間ノードM11には、中間ノードM12に向くリンクと葉ノードL12に向くリンクとが接続される。中間ノードM12には、葉ノードM11に向くリンクと葉ノードL12に向くリンクとが接続される。中間ノードM13には、中間ノードM11に向くリンクと葉ノードL12に向くリンクとが接続される。中間ノードM11には、分類の対象となる画像データである対象データが入力され、中間ノードM13には、対象データの近傍の画像データである参照データが入力される。当該決定ネットワークは、対象データが入力される中間ノードM11を根ノードとする、中間ノードM11およびM12ならびに葉ノードL11およびL12からなる主決定木と、中間ノードM13を根ノードとする、中間ノードM11、M12およびM13ならびに葉ノードL11およびL12からなる副決定木とを内包する。つまり対象データについては、主決定木により判断がなされる。また参照データについては、副決定木により判断がなされる。
なお、主決定木と副決定木とは、中間ノードM11およびM12を共通して備える。主決定木の中間ノードが示す特徴量の範囲は、参照データの判定の経路が当該中間ノードを含むか否かによって異なる。具体的には、参照データの判定の経路に中間ノードM11が含まれない場合、主決定木の中間ノードM11が示す中央値の範囲の閾値は、0.547となる。他方、参照データの判定の経路に中間ノードM11が含まれる場合、主決定木の中間ノードM11が示す中央値の範囲の閾値は、0.508(図9(B)の括弧内の数値)となる。
According to FIG. 9A, a link directed to the intermediate node M12 and a link directed to the leaf node L12 are connected to the intermediate node M11. The intermediate node M12 is connected to a link directed to the leaf node M11 and a link directed to the leaf node L12. A link directed to the intermediate node M11 and a link directed to the leaf node L12 are connected to the intermediate node M13. Target data that is image data to be classified is input to the intermediate node M11, and reference data that is image data in the vicinity of the target data is input to the intermediate node M13. The decision network includes a main decision tree including intermediate nodes M11 and M12 and leaf nodes L11 and L12 having an intermediate node M11 to which target data is input as a root node, and an intermediate node M11 having an intermediate node M13 as a root node. , M12 and M13 and a sub-decision tree consisting of leaf nodes L11 and L12. That is, the target data is determined by the main decision tree. The reference data is determined by the sub-decision tree.
Note that the main decision tree and the sub-decision tree include the intermediate nodes M11 and M12 in common. The range of the feature amount indicated by the intermediate node of the main decision tree varies depending on whether or not the reference data determination path includes the intermediate node. Specifically, when the intermediate node M11 is not included in the reference data determination path, the threshold value of the median range indicated by the intermediate node M11 of the main decision tree is 0.547. On the other hand, when the intermediate node M11 is included in the reference data determination path, the threshold value of the median range indicated by the intermediate node M11 of the main decision tree is 0.508 (the value in parentheses in FIG. 9B). Become.

第5の実施形態に係る説明文生成装置100は、第2の実施形態と説明文生成部104の動作が異なる。説明文生成部104は、第2の実施形態と同様に、分類部107によって特定される主決定木の経路に基づいて、主決定木の説明文を生成する。説明文生成装置100は、分類部107によって特定される主決定木の経路と副決定木の経路とに、共通の中間ノードが含まれる場合に、さらに当該副決定木の説明文を生成する。なお、当該副決定木の説明文は、最大でも根ノードから上記共通の中間ノードまでの経路についての説明文である。
つまり、説明文生成部104は、主決定木の経路に属するノードの中に副決定木によって特徴量の範囲が決定されるものが含まれる場合に、さらに当該副決定木の説明文を生成する。
これにより、説明文生成装置100は、複数の決定木を内包する決定ネットワークの説明文を適切に作成することができる。
The explanatory note generating apparatus 100 according to the fifth embodiment differs from the second exemplary embodiment in the operation of the explanatory note generating unit 104. The explanatory note generation unit 104 generates an explanatory note of the main decision tree based on the path of the main decision tree specified by the classification unit 107, as in the second embodiment. When the common intermediate node is included in the route of the main decision tree and the route of the sub decision tree specified by the classification unit 107, the explanation sentence generating device 100 further generates an explanation of the sub decision tree. The explanatory text of the sub-decision tree is an explanatory text about the route from the root node to the common intermediate node at the maximum.
That is, when the nodes belonging to the path of the main decision tree include nodes whose feature amount range is determined by the sub decision tree, the explanation sentence generation unit 104 further generates an explanation sentence of the sub decision tree. .
Thereby, the explanatory note generation device 100 can appropriately create an explanatory note of the decision network including a plurality of decision trees.

以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。
例えば、上述した実施形態では、説明文生成装置100が一般的な決定木および決定ネットワークの説明文を作成する場合について説明したが、これに限られない。例えば、他の実施形態では、説明文生成装置100がファジイ決定木の説明文を生成しても良い。
As described above, the embodiment has been described in detail with reference to the drawings. However, the specific configuration is not limited to that described above, and various design changes and the like can be made.
For example, in the above-described embodiment, the explanation sentence generating apparatus 100 has explained the case where the explanation text of the general decision tree and the decision network is created, but the present invention is not limited to this. For example, in another embodiment, the explanatory note generation device 100 may generate an explanatory note of a fuzzy decision tree.

また、上述した実施形態では、説明文生成装置100が日本語の説明文を生成する場合について説明したが、これに限られない。例えば、他の実施形態では、説明文生成装置100が英語、中国語、ロシア語、またはその他の言語の説明文を生成しても良い。   Further, in the above-described embodiment, the case where the explanatory note generation apparatus 100 generates a Japanese explanatory note has been described, but the present invention is not limited to this. For example, in another embodiment, the explanatory note generation device 100 may generate an explanatory note in English, Chinese, Russian, or another language.

また、上述した実施形態では、説明文生成装置100が詳細度および文章数の入力を受け付ける場合について説明したが、これに限られない。例えば、他の実施形態では、説明文生成装置100は、予め定められた詳細度および文章数の説明文を作成しても良い。また他の実施形態では、説明文生成装置100は、詳細度に代えて説明対象のノード数の入力を受け付けても良い。また他の実施形態では、説明文生成装置100は、文章数に代えて必要な網羅率の入力を受け付けても良い。この場合、説明文生成装置100は、入力された網羅率を満たすまで、ステップS8〜ステップS13のループを繰り返し実行する。   Further, in the above-described embodiment, the description sentence generating apparatus 100 has been described as receiving the details and the number of sentences. However, the present invention is not limited to this. For example, in another embodiment, the explanatory note generation apparatus 100 may create an explanatory note with a predetermined level of detail and the number of sentences. In another embodiment, the explanatory note generation apparatus 100 may accept an input of the number of nodes to be explained instead of the level of detail. In another embodiment, the explanatory note generation apparatus 100 may accept an input of a necessary coverage rate instead of the number of sentences. In this case, the explanatory note generating apparatus 100 repeatedly executes the loop of step S8 to step S13 until the input coverage rate is satisfied.

図10は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ901は、CPU902、主記憶装置903、補助記憶装置904、インタフェース905を備える。
上述の説明文生成装置100は、コンピュータ901に実装される。そして、上述した各処理部の動作は、プログラムの形式で補助記憶装置904に記憶されている。CPU902は、プログラムを補助記憶装置904から読み出して主記憶装置903に展開し、当該プログラムに従って上記処理を実行する。また、CPU902は、プログラムに従って、上述した各記憶部に対応する記憶領域を主記憶装置903に確保する。
FIG. 10 is a schematic block diagram illustrating a configuration of a computer according to at least one embodiment.
The computer 901 includes a CPU 902, a main storage device 903, an auxiliary storage device 904, and an interface 905.
The above described explanatory note generation apparatus 100 is mounted on a computer 901. The operation of each processing unit described above is stored in the auxiliary storage device 904 in the form of a program. The CPU 902 reads the program from the auxiliary storage device 904, develops it in the main storage device 903, and executes the above processing according to the program. Further, the CPU 902 secures a storage area corresponding to each of the above-described storage units in the main storage device 903 according to the program.

なお、少なくとも1つの実施形態において、補助記憶装置904は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース905を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ901に配信される場合、配信を受けたコンピュータ901が当該プログラムを主記憶装置903に展開し、上記処理を実行しても良い。   In at least one embodiment, the auxiliary storage device 904 is an example of a tangible medium that is not temporary. Other examples of the non-temporary tangible medium include a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, and a semiconductor memory connected via the interface 905. When this program is distributed to the computer 901 via a communication line, the computer 901 that has received the distribution may develop the program in the main storage device 903 and execute the above processing.

また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置904に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that realizes the above-described function in combination with another program already stored in the auxiliary storage device 904.

100 説明文生成装置
101 決定木取得部
102 説明記憶部
103 条件入力部
104 説明文生成部
105 出力部
106 対象データ入力部
107 分類部
DESCRIPTION OF SYMBOLS 100 Explanation sentence production | generation apparatus 101 Decision tree acquisition part 102 Explanation memory | storage part 103 Condition input part 104 Explanation sentence generation part 105 Output part 106 Target data input part 107 Classification part

Claims (12)

特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得する決定木取得部と、
特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部と、
前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語に基づいて、前記決定木の説明文を生成する説明文生成部と
を備える説明文生成装置。
A decision tree acquisition unit for acquiring a decision tree having an internal node associated with a determination criterion for a feature quantity and a branch destination node, and a leaf node associated with a belonging class;
An explanation storage unit for storing an explanatory word representing the feature quantity in a predetermined language in association with the feature quantity;
An explanatory note generation device comprising: an explanatory note generation unit that generates an explanatory note of the decision tree based on the explanatory words associated with the feature amount used for the determination condition of the node.
前記判定条件は、前記特徴量と所定の閾値との比較に係るものであって、
前記説明記憶部が、閾値に関連付けて当該閾値によって定義される範囲を表す述語を記憶し、
前記説明文生成部が、前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語と、当該判定条件が用いる閾値に関連付けられた前記述語とに基づいて、前記決定木の説明文を生成する
請求項1に記載の説明文生成装置。
The determination condition relates to a comparison between the feature amount and a predetermined threshold value,
The explanation storage unit stores a predicate representing a range defined by the threshold in association with the threshold;
Based on the explanatory word associated with the feature amount used in the determination condition of the node and the previous descriptive word associated with the threshold used by the determination condition, the explanatory sentence generation unit describes the explanatory text of the decision tree. The explanatory note generation device according to claim 1.
説明文に表すべきノードの量の入力を受け付けるノード量入力部をさらに備え、
前記説明文生成部が、前記ノード量入力部に入力された量のノードに係る説明文を生成する
請求項1または請求項2に記載の説明文生成装置。
A node amount input unit that receives an input of a node amount to be represented in the explanatory text;
The explanatory note generation device according to claim 1, wherein the explanatory note generation unit generates an explanatory note relating to an amount of nodes input to the node amount input unit.
前記説明文生成部が、前記決定木のノードのうち深さが小さいものから順に、前記ノード量入力部に入力された量のノードに係る説明文を生成する
請求項3に記載の説明文生成装置。
The explanatory note generation unit according to claim 3, wherein the explanatory note generation unit generates an explanatory note relating to nodes of an amount input to the node amount input unit in order from a node having the smallest depth among the nodes of the decision tree. apparatus.
前記説明記憶部が、前記説明語に関連付けて、当該説明語のわかりやすさを示す値を記憶し、
前記説明文生成部が、前記決定木のノードのうち判定条件に用いられる特徴量のわかりやすさが高いものから順に、前記ノード量入力部に入力された量のノードに係る説明文を生成する
請求項3に記載の説明文生成装置。
The explanation storage unit stores a value indicating the easy-to-understand of the explanation word in association with the explanation word,
The description sentence generation unit generates an explanation sentence related to nodes of the amount input to the node amount input unit in descending order of the characteristic amount used for the determination condition among the nodes of the decision tree. 3. The explanatory note generating device according to 3.
前記決定木による分類の対象となる対象データの入力を受け付ける対象データ入力部と、
前記決定木に基づいて前記対象データの所属クラスを分類する分類部と
をさらに備え、
前記説明文生成部が、前記決定木のうち前記分類部が分類の過程で辿った経路に係る説明文を生成する
請求項1から請求項5の何れか1項に記載の説明文生成装置。
A target data input unit for receiving input of target data to be classified by the decision tree;
A classification unit that classifies a class to which the target data belongs based on the decision tree,
The explanatory note generation device according to any one of claims 1 to 5, wherein the explanatory note generation unit generates an explanatory note related to a path traced in the classification process by the classification unit in the decision tree.
前記説明文生成部が、一の所属クラスを示す葉ノードのうち、前記決定木の学習に用いた学習データの到達数が最も多いものへ到達する経路に属するノードに係る説明文を生成する
請求項1から請求項5の何れか1項に記載の説明文生成装置。
The explanation sentence generation unit generates an explanation sentence relating to a node belonging to a route that reaches the largest number of arrivals of learning data used for learning of the decision tree among leaf nodes indicating one belonging class. The explanatory note generation device according to any one of claims 1 to 5.
前記説明記憶部が、複数の特徴量の組み合わせに関連付けて当該組み合わせを表す説明語を記憶し、
前記説明文生成部が、前記決定木の経路に属するノードの中に前記特徴量の組み合わせに対応するノードの組み合わせが含まれる場合に、前記特徴量の組み合わせに関連付けられた説明語に基づいて前記決定木の説明文を生成する
請求項1から請求項7の何れか1項に記載の説明文生成装置。
The explanation storage unit stores an explanation word representing the combination in association with a combination of a plurality of feature amounts;
When the explanation sentence generation unit includes a combination of nodes corresponding to the combination of feature quantities among the nodes belonging to the path of the decision tree, based on the explanation word associated with the combination of feature quantities The explanatory note generation device according to any one of claims 1 to 7, wherein an explanatory note of a decision tree is generated.
前記決定木が、前記決定木による分類の対象となる対象データの所属クラスを決定する主決定木と、前記主決定木の前記判定条件に係る前記特徴量の範囲を決定する副決定木とを含む
請求項1から請求項8の何れか1項に記載の説明文生成装置。
The decision tree includes: a main decision tree that determines a affiliation class of target data to be classified by the decision tree; and a sub-decision tree that determines a range of the feature amount related to the determination condition of the main decision tree. The explanatory note generation device according to any one of claims 1 to 8.
前記説明文生成部が、前記主決定木の説明文を生成し、前記主決定木の経路に属するノードの中に前記副決定木によって前記特徴量の範囲が決定されるものが含まれる場合に、さらに当該副決定木の説明文を生成する
請求項9に記載の説明文生成装置。
When the explanatory note generation unit generates an explanatory note of the main decision tree, and nodes belonging to the path of the main decision tree include those whose range of the feature amount is determined by the sub-determination tree. Furthermore, the explanatory note production | generation apparatus of Claim 9 which produces | generates the explanatory note of the said sub decision tree.
説明文生成装置が、特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得するステップと、
前記説明文生成装置が、特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部が前記ノードの判定条件に用いられる特徴量に関連付けて記憶する前記説明語に基づいて、前記決定木の説明文を生成するステップと、
前記説明文を含む文書を作成するステップと
を備える説明文書作成方法。
The explanatory note generating device acquires a decision tree having an internal node associated with a determination criterion for a feature amount and a branch destination node, and a leaf node associated with a belonging class;
The explanation storage unit that stores an explanatory word representing the feature quantity in a predetermined language in association with the feature quantity is stored in the explanation word stored in association with the feature quantity used for the determination condition of the node. Generating a description of the decision tree based on:
An explanatory document creating method comprising: creating a document including the explanatory text.
コンピュータを、
特徴量の判定条件と分岐先のノードとを関連付けられた内部ノードと、所属クラスを関連付けられた葉ノードとを有する決定木を取得する決定木取得部、
特徴量に関連付けて、所定の言語により当該特徴量を表す説明語を記憶する説明記憶部、
前記ノードの判定条件に用いられる特徴量に関連付けられた前記説明語に基づいて、前記決定木の説明文を生成する説明文生成部
として機能させるためのプログラム。
Computer
A decision tree acquisition unit for acquiring a decision tree having an internal node associated with a determination criterion for a feature amount and a branch destination node, and a leaf node associated with a belonging class;
An explanation storage unit for storing an explanatory word representing the feature quantity in a predetermined language in association with the feature quantity;
The program for functioning as an explanatory note generation part which produces | generates the explanatory note of the said decision tree based on the said explanatory word linked | related with the feature-value used for the determination conditions of the said node.
JP2015041313A 2015-03-03 2015-03-03 Explanation sentence generation device, explanation document creation method and program Active JP6439211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015041313A JP6439211B2 (en) 2015-03-03 2015-03-03 Explanation sentence generation device, explanation document creation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041313A JP6439211B2 (en) 2015-03-03 2015-03-03 Explanation sentence generation device, explanation document creation method and program

Publications (2)

Publication Number Publication Date
JP2016162276A true JP2016162276A (en) 2016-09-05
JP6439211B2 JP6439211B2 (en) 2018-12-19

Family

ID=56846966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041313A Active JP6439211B2 (en) 2015-03-03 2015-03-03 Explanation sentence generation device, explanation document creation method and program

Country Status (1)

Country Link
JP (1) JP6439211B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067270A (en) * 2017-10-03 2019-04-25 富士通株式会社 Classification program, classification method, and classification device
JP2019074921A (en) * 2017-10-16 2019-05-16 富士通株式会社 Classification program, classification method, and classification device
JP2021531527A (en) * 2018-05-16 2021-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation A description of artificial intelligence-based recommendations

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02259836A (en) * 1989-03-31 1990-10-22 Hitachi Ltd Fuzzy inference method
JPH0644074A (en) * 1991-09-06 1994-02-18 Hitachi Ltd Knowledge base, inference method and descriptive text preparation method
JPH0728827A (en) * 1993-07-13 1995-01-31 Toshiba Corp Drawing explanatory sentence generator
JP2005242979A (en) * 2003-09-02 2005-09-08 Toshiba Corp Inverse model calculation apparatus and inverse model calculation method
JP2012073750A (en) * 2010-09-28 2012-04-12 Yokohama National Univ Evolutionary condition determination network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02259836A (en) * 1989-03-31 1990-10-22 Hitachi Ltd Fuzzy inference method
JPH0644074A (en) * 1991-09-06 1994-02-18 Hitachi Ltd Knowledge base, inference method and descriptive text preparation method
JPH0728827A (en) * 1993-07-13 1995-01-31 Toshiba Corp Drawing explanatory sentence generator
JP2005242979A (en) * 2003-09-02 2005-09-08 Toshiba Corp Inverse model calculation apparatus and inverse model calculation method
JP2012073750A (en) * 2010-09-28 2012-04-12 Yokohama National Univ Evolutionary condition determination network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小櫻 茂樹 外5名: "「データマイニングにおける分類木の解釈方法」", 電気学会研究会資料産業システム情報化研究会 IIS−06−11〜18, JPN6018041345, 14 March 2006 (2006-03-14), pages 39 - 42, ISSN: 0003903660 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067270A (en) * 2017-10-03 2019-04-25 富士通株式会社 Classification program, classification method, and classification device
JP2019074921A (en) * 2017-10-16 2019-05-16 富士通株式会社 Classification program, classification method, and classification device
JP2021531527A (en) * 2018-05-16 2021-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation A description of artificial intelligence-based recommendations
JP7291720B2 (en) 2018-05-16 2023-06-15 インターナショナル・ビジネス・マシーンズ・コーポレーション Describe artificial intelligence-based recommendations

Also Published As

Publication number Publication date
JP6439211B2 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
Lundberg et al. An unexpected unity among methods for interpreting model predictions
US8508546B2 (en) Image mask generation
JP5437150B2 (en) Method and system for highlighting topic elements in a chart having multiple contrast elements of multiple colors
JP2014130408A (en) Graph preparation program, information processing device, and graph preparation method
JP6439211B2 (en) Explanation sentence generation device, explanation document creation method and program
US11914841B2 (en) Automatic generation of stylized icons
JP4400560B2 (en) Digital content creation system, program, and storage medium
JPWO2016056236A1 (en) Information processing apparatus, information processing method, and program
Kulessa et al. Dynamic classifier chain with random decision trees
US20200387505A1 (en) Information processing system, feature description method and feature description program
CN116226487B (en) Data large screen visualization method and system based on pattern recognition
US20190362240A1 (en) Information processing device, neural network design method, and recording medium
US11392260B2 (en) Display control device, display control method, and display control program
US9600905B2 (en) Color-scheme determination device, color-scheme determination method, and color-scheme determination program
CN111126566A (en) Abnormal furniture layout data detection method based on GAN model
JP6098638B2 (en) Color arrangement support device, color arrangement support method, and program
KR102164607B1 (en) System for business rule management
US9338294B2 (en) Automated task definitions
US20200226528A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP6491345B2 (en) Information processing apparatus, information processing method, and program
KR20210063171A (en) Device and method for image translation
JP2007310727A (en) Program analysis method for asset diagnosis
KR102627950B1 (en) System for recommending the Local and using the same
JP2014085852A (en) Image similarity calculating device, and operation method for the same
JP2014238626A (en) Document classification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181102

R150 Certificate of patent or registration of utility model

Ref document number: 6439211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250