WO2018025288A1 - 推論システム、情報処理システム、推論方法、及び、記録媒体 - Google Patents

推論システム、情報処理システム、推論方法、及び、記録媒体 Download PDF

Info

Publication number
WO2018025288A1
WO2018025288A1 PCT/JP2016/003541 JP2016003541W WO2018025288A1 WO 2018025288 A1 WO2018025288 A1 WO 2018025288A1 JP 2016003541 W JP2016003541 W JP 2016003541W WO 2018025288 A1 WO2018025288 A1 WO 2018025288A1
Authority
WO
WIPO (PCT)
Prior art keywords
rule
inference
parameter
rule set
inference system
Prior art date
Application number
PCT/JP2016/003541
Other languages
English (en)
French (fr)
Inventor
健太郎 佐々木
シルバ ダニエル ゲオルグ アンドラーデ
陽太郎 渡邉
定政 邦彦
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US16/322,593 priority Critical patent/US20190164072A1/en
Priority to PCT/JP2016/003541 priority patent/WO2018025288A1/ja
Priority to JP2018530984A priority patent/JP6690713B2/ja
Publication of WO2018025288A1 publication Critical patent/WO2018025288A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present invention relates to an inference system, an information processing system, an inference method, and a recording medium that output information related to inference.
  • rules There is a system that performs inference from a set of logical expressions (hereinafter referred to as “rules”) based on predetermined rules or standards. Such a system is called an inference system (see, for example, Patent Document 1 and Non-Patent Document 1).
  • the inference system is visually expressed using a directed graph or an undirected graph (see, for example, Patent Document 2).
  • Such a probabilistic inference system defines a random variable based on a rule set and executes probabilistic logical inference. For example, the inference system calculates the posterior probability that is the probability that the query is established from the observation and the rule set, using the observation and the query as inputs.
  • PSL Probabilistic Soft Logic
  • MSN Markov Logic Network
  • Non-Patent Documents 1 to 3 calculate a posterior probability that the query is established from the observation and the rule set based on the rule set, the input observation, and the input query.
  • the posterior probability that a query is established from the observation and rule set is referred to as “inference result”.
  • Non-Patent Documents 1 to 3 can output the calculated inference results.
  • the techniques described in Non-Patent Documents 1 to 3 show how an inference result, which is a posterior probability that a query is established, is calculated from a rule set and an observation, in other words, an inference process or a basis for reaching an inference result ( Reason) is not output.
  • the inventor of the present invention has found that it may be desirable for the inference system to present not only the inference result but also the inference process or the basis leading to the inference result in the scene where the inference system is used.
  • the decision making based on deeper insight is more important for the decision making using the inference process or the reasoning that leads to the inference result in addition to the inference result than the decision making using only the inference result calculated by the inference system. It becomes a decision.
  • the user can determine how reliable the inference result is based on the process or basis of the inference leading to the inference result.
  • the user of the inference system can know the process or the basis of the inference leading to the inference result, the user can increase knowledge about the inference result. This is a finding obtained by the inventors of the present invention.
  • the internal models and operation processes used in the inference system are often enormous and poor in interpretability.
  • all rules appearing in a connected network that includes observations and queries affect the inference results.
  • each rule is related through a complicated mathematical expression as a contribution to the probability of the inference result (see, for example, Non-Patent Document 3). Therefore, for example, when extracting the “rule set used for inference”, the extracted rule set is a rule set including all rules appearing in a connected network including observations and queries.
  • the rules used by the probabilistic reasoning system include many rules, from rules that have a great influence on the results to rules that have little influence. Therefore, for example, when extracting the “rule set used for inference”, the extracted rule set is a redundant rule set including rules that have little influence. For this reason, the user cannot know which rule in the extracted rule set is a rule that has a great influence on the inference process or the basis leading to the inference result. That is, when using the entire extracted rule set, the user cannot know the inference process or the basis leading to the inference result.
  • Non-Patent Documents 1 to 3 have a problem that an inference process or a basis leading to an inference result cannot be presented.
  • Patent Documents 1 and 2 do not solve the above problem.
  • An object of the present invention is to provide an inference system, an information processing system, an inference method, and a recording medium that solve the above problems and present an inference process or basis.
  • An inference system is a parameter used to select a second rule set from a first rule set in an inference system related to an inference from a start state and a first rule set to an end state.
  • An information processing system includes the inference system described above and an optimization unit that selects a second rule set as a solution to an optimization problem based on parameters.
  • An inference method is a parameter used to select a second rule set from a first rule set in an inference system related to an inference from a start state and a first rule set to an end state. And the second rule set corresponding to the parameter is visualized.
  • a recording medium is a parameter used for selecting a second rule set from a first rule set in an inference system related to an inference from a start state and a first rule set to an end state.
  • a computer-readable program for causing the computer to execute the process of accepting the process and the process of visualizing the second rule set corresponding to the parameter is stored.
  • the effect of presenting the inference process or the basis can be achieved.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the inference system according to the first embodiment.
  • FIG. 2 is a diagram illustrating a first example of a rule set.
  • FIG. 3 is a diagram illustrating an example of a rule subset for a predetermined parameter.
  • FIG. 4 is a diagram illustrating an example of a rule subset in parameters different from those in FIG.
  • FIG. 5 is a diagram illustrating an example of visualization of a rule set.
  • FIG. 6 is a diagram illustrating an example of visualization in the case of a predetermined parameter value.
  • FIG. 7 is a diagram illustrating a second example of the rule set.
  • FIG. 8 is a diagram illustrating an example of a rule subset in a predetermined parameter in the second example of the rule set.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the inference system according to the first embodiment.
  • FIG. 2 is a diagram illustrating a first example of a rule set.
  • FIG. 9 is a diagram illustrating an example of a rule added to the second example of the rule set.
  • FIG. 10 is a diagram illustrating a third example of a rule set for explaining another visualization.
  • FIG. 11 is a diagram illustrating an example of visualization corresponding to a plurality of parameters.
  • FIG. 12 is a flowchart illustrating an example of the operation of the inference system according to the first embodiment.
  • FIG. 13 is a block diagram illustrating an example of an information processing system including an inference system.
  • FIG. 14 is a block diagram illustrating a configuration of an information processing apparatus that is an example of a hardware configuration according to the inference system.
  • “Atom” is a logical expression (atomic logical expression or elementary logical expression) having no partial logical expression.
  • An example of an atom is a propositional variable or predicate.
  • predicates are mainly used as atom examples.
  • an example of an atom is “X smokes” when X is a variable.
  • An atom may be expressed using a function format.
  • the above “X smokes” may be expressed as “Smokes (X)”.
  • An atom may include a plurality of variables.
  • an example of an atom in this case is “X and Y are friends”.
  • Ground atom is an atom in which a constant is assigned to a variable in the atom.
  • an atom in which a specific person is substituted for the variable X of “X smokes” is a ground atom.
  • the ground atom when the person Bob is substituted for the variable X is “Bob smokes”.
  • a truth value (True (1) or False (0)) can be assigned to the ground atom. If Bob smokes, this ground atom becomes True. If Bob does not smoke, this ground atom is False.
  • “Rules” are logical expressions, and are generally logical expressions including the above atoms.
  • the rules used in the following description are predicate logic rules.
  • the rule includes a predicate. That is, the rules are described using propositions, predicates, constants, variables, and logical symbols ( ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , or ⁇ ).
  • the rules used by the embodiments of the present invention are given scores that will be described later.
  • a first-order predicate logic rule is used. However, the present invention is not limited to first order predicate logic.
  • is a logical symbol meaning “about any” or “about”. “ ⁇ ” is called a universal symbol, a universal quantification symbol, or a universal symbol.
  • is a logical symbol that means “having (the condition) is present” or “with respect to”. “ ⁇ ” is called a presence symbol, a special symbol, or an abundance symbol.
  • is a logical symbol representing disjunction or logical sum.
  • is a logical symbol representing an implication. For example, “A ⁇ B” means “B if A”. “A ⁇ B” is equivalent to “ ⁇ A ⁇ B”.
  • is a logic symbol indicating the logic in the opposite direction of “ ⁇ ”. For example, “A ⁇ B” means “A if B”.
  • “ ⁇ ” is a logical symbol indicating the same value. “A ⁇ B” is “(A ⁇ B) ⁇ (A ⁇ B)”.
  • a rule including two or three atoms for example, A ⁇ B ⁇ C
  • a ⁇ B ⁇ C atoms
  • Each embodiment may use a rule that includes four or more atoms.
  • Observation means that a truth value is assigned to one or more ground atoms.
  • an observation is a set consisting of a pair of a ground atom and its truth value.
  • the truth value is assigned to the ground atom included in the observation.
  • the truth value is determined for the ground atom included in the observation.
  • Observation is an operation to acquire a ground atom to which a truth value is assigned. Note that the transmission source of observation in each embodiment is not particularly limited. Each embodiment may receive observations from a user, for example, and may receive observations from a device or device (not shown) such as a sensor.
  • a “query” is a ground atom or a logical combination of ground atoms for which posterior probabilities are calculated from observations and rule sets. That is, the query is a set including at least one ground atom or a logical combination of ground atoms as an element. Furthermore, the query is the object of inference.
  • the transmission source of the query in each embodiment is not particularly limited. Each embodiment may receive a query from a user, for example, directly or indirectly.
  • start state described in the claims corresponds to observation.
  • end state described in the claims corresponds to a query.
  • “Score” is a value given to a rule based on a predetermined rule.
  • the score is information indicating the degree to which the rule is related to the inference process or the basis.
  • the score used in each embodiment is not particularly limited.
  • the score may be a numerical value indicating the magnitude of the influence of the rule on the inference result.
  • the score may be the reliability of the rule.
  • the rule reliability is, for example, a score used in MLN.
  • the score is a comparison result (for example, difference, change amount, or ratio) between the probability that the query is established from the observation in the rule set including the rule and the probability that the query is established from the observation in the rule set excluding the rule )
  • the score may be the number of rules included in the rule set.
  • each embodiment it is assumed that the score is set in advance.
  • each embodiment is not limited to this.
  • the reasoning system 100 described later may calculate a rule score before the visualization process.
  • the score is not limited to a rule, and may be set to a set including a plurality of rules (hereinafter referred to as “rule subset”).
  • the score of the rule subset may be the sum of the scores of the rules included in the rule subset.
  • the score of the rule subset may be a difference between the probability in the whole rule (hereinafter referred to as “rule set”) and the probability in the case where the rule subset is excluded from the rule set.
  • the score of the rule subset may be the above difference in probability when rules other than the rule subset are excluded from the rule set.
  • the method for assigning scores is not particularly limited.
  • the method of creating the rule subset is not limited to excluding rules from the rule set.
  • the rule subset may be a set of rules selected from the rule set based on predetermined parameters. That is, rule exclusion is an example of processing for selecting a rule subset from a rule set. However, in the following description, a rule exclusion will be used as an example.
  • rule subset includes the case of one rule.
  • “Function Card (S)” is a function representing the number of elements (elements) of the set S as an argument.
  • Rule F is a grounded rule, that is, a rule in which the value of a variable is determined.
  • Rule set L is the entire rule set of rule F (hereinafter referred to as the first rule set).
  • Rule subset L ′ is a subset of the rule set L that is the remainder of the rule set L excluding one or more rules F (hereinafter referred to as a second rule set).
  • Rule subset L is a subset (third rule set) of one or more rules F excluded in the above.
  • Query Q is a set including at least one ground atom or a logical combination of ground atoms.
  • O, L)” is a probability that the query Q is satisfied from the rule set L and the observation O.
  • the probability that the query Q is satisfied from the rule subset L ′ and the observation O is “probability P (Q
  • Difference D L (L ′, O, Q) indicates that the probability P (Q
  • the first optimization problem is as follows. minimize Card (L ') subject to D L (L ′, O, Q) ⁇ ⁇
  • the parameter ⁇ is a parameter that determines the upper limit of the difference D L (L ′, O, Q).
  • the first optimization problem is a problem of calculating a rule subset L ′ having the smallest number of rules F among rule subsets L ′ in which the difference D L (L ′, O, Q) is equal to or less than the parameter ⁇ . It is.
  • the parameter ⁇ is a parameter that determines the upper limit of the score.
  • the rule subset L is output from the optimization unit 310 as the solution of the first optimization problem. 'Get.
  • the second optimization problem is as follows. minimize D L (L ′, O, Q) subject to Card (L ′) ⁇ C
  • the parameter C in this case is a parameter that determines the upper limit of the number of elements (number of rules F) included in the rule subset L ′.
  • the second optimization problem is to calculate a rule subset L ′ having the smallest difference D L (L ′, O, Q) among rule subsets L ′ in which the number of rules F is equal to or less than the parameter C. It is a problem.
  • the parameter C is a parameter that determines the upper limit of the score.
  • the reasoning system 100 to be described later sends the parameter C to the optimization unit 310 that calculates the solution of the second optimization problem
  • the rule subset L as a solution of the second optimization problem is sent from the optimization unit 310. 'Get.
  • the inference system 100 visualizes a rule subset L ′ that is a solution to a predetermined optimization problem.
  • the optimization problem related to the inference system 100 and the reasoning used are not particularly limited.
  • the inference system 100 may visualize the optimal solution of the first optimization problem or the second optimization problem.
  • the inference system 100 receives the parameter, transmits the parameter to the optimization unit 310, acquires the rule subset L ′ from the optimization unit 310, and obtains the rule subset L ′. Is visualized.
  • FIG. 13 is a block diagram illustrating an example of the configuration of the information processing system 300 including the inference system 100.
  • the information processing system 300 includes an inference system 100 and an optimization unit 310.
  • the inference system 100 transmits parameters used for optimization processing in the optimization unit 310 to the optimization unit 310.
  • the optimization unit 310 calculates an optimal solution of the optimization problem related to the predetermined inference using the parameters. For example, the optimization unit 310 selects (or calculates) the rule subset L ′ as the optimal solution of the optimization problem related to the observation O and the inference from the rule set L to the query Q. Then, the optimization unit 310 transmits the rule subset L ′ to the inference system 100.
  • the inference system 100 visualizes the rule subset L ′.
  • the inference system 100 receives a parameter from a device operated by a user, and visualizes a rule subset L ′ corresponding to the parameter.
  • the inference system 100 is related to the inference from the observation O and the rule set L to the query Q.
  • FIG. 1 is a block diagram showing an example of the configuration of the inference system 100 according to the first embodiment.
  • the inference system 100 includes a reception unit 110 and a visualization unit 120.
  • the reception unit 110 receives parameters for visualization from a predetermined device or system.
  • the parameter is information related to the score used when the optimization unit 310 processes the optimization problem.
  • the parameter is a value that specifies a score range, that is, a value that is used to select (or calculate) the rule subset L ′.
  • a specific example of the parameter is the parameter ⁇ of the first optimization problem or the parameter C of the second optimization problem.
  • the visualization unit 120 acquires the rule subset L ′ related to the parameter, and visualizes the rule subset L ′. That is, the visualization unit 120 visualizes the rule subset L ′ corresponding to the parameter.
  • the operation of the visualization unit 120 will be described in more detail.
  • the parameter ⁇ is a value related to the above comparison result (for example, the difference D L (L ′, O, Q)).
  • the parameter C is a value related to the number of rules F.
  • the receiving unit 110 receives the parameter ⁇ .
  • the reception unit 110 transmits the received parameter ⁇ to the visualization unit 120.
  • the visualization unit 120 transmits the parameter ⁇ to the optimization unit 310.
  • the optimization unit 310 calculates a rule subset L ′ as an optimal solution for the first optimization problem using the parameter ⁇ , and transmits the rule subset L ′ to the visualization unit 120.
  • the optimization unit 310 for example, the probability that the query Q is satisfied from the observation O and the rule set L (first inference result) and the probability that the query Q is satisfied from the observation O and the rule subset L ′ (second Inference result).
  • the optimization unit 310 calculates the difference D L (L ′, O, Q) based on the first inference result and the second inference result.
  • the optimization unit 310 determines the rule subset L ′ based on the difference D L (L ′, O, Q).
  • the visualization unit 120 acquires a rule subset L ′ that is an optimal solution from the optimization unit 310.
  • the operation of the inference system 100 does not have to be simultaneous with the operation in the optimization unit 310.
  • the visualization unit 120 corresponds to the parameter ⁇ from the stored rule subset L ′.
  • the rule subset L ′ may be acquired.
  • the visualization unit 120 visualizes the rule subset L ′ corresponding to the parameter ⁇ . Further, the visualization unit 120 may visualize information related to the rule subset L ′. For example, the visualization unit 120 may visualize the parameter ⁇ in association with the rule subset L ′. Further, the visualization unit 120 may visualize the score of the rule subset L ′.
  • FIG. 2 is a diagram illustrating a first example of the rule set L used in the following description.
  • FIG. 2 is a diagram showing the rule set L as an undirected graph.
  • the undirected graph shown in FIG. 2 is a graph representing the rule set L as follows. First, a ground atom included in the rule set L is a node (black circle in FIG. 2). Next, a link (line segment in FIG. 2) is created between ground atoms that appear in the same rule F.
  • the graph of the rule set L and the rule subset L ′ used by the inference system 100 is not limited to the graph shown in FIG. The inference system 100 may use other graphs such as a directed graph.
  • each triangle represents one rule F. That is, the rule set L shown in FIG. 2 includes rules F 1 to F 11 .
  • the visualization unit 120 indicates the excluded rules F using broken lines. That is, the rule subset L ′ shown in FIG. 3 is the rule subset L ′ excluding the rules F 3 and F 4 . In this case, the excluded rule subset L ′′ is ⁇ F 3 , F 4 ⁇ .
  • the visualization unit 120 displays the rule subset L ′ so as to visualize the difference between the rule set L and the rule subset L ′ (that is, the excluded rule subset L ′′). Visualized.
  • the visualization unit 120 may not visualize the excluded rule F.
  • the visualization unit 120 may visualize the excluded rule F using a color or shape that is different from the other rules F.
  • rule F is connected from observation O to query Q. That is, the rule subset L ′ includes a path (first path) that follows from the observation O to the query Q.
  • the visualization unit 120 can visualize the rule F included in the route from the observation O to the query Q.
  • the visualization unit 120 may not visualize the rule F separated from the route. For example, in FIG. 3, rule F 5 is separated from the path from observation O to query Q. Therefore, the visualization unit 120, a rule F 5 may not be visible. By operating in this way, the visualization unit 120 can visualize the rule F highly relevant to the inference process or the basis.
  • the rule F 5 is separated from the rule subset L ′. Therefore, it rules F 5 is excluded from the substantially rule subset L '. That is, the rule subset L ′ in FIG. 3 is a set of rules F excluding the rules F 3 , F 4 , and F 5 .
  • the inference system 100 indicates the degree of dependency (dependency) of the rule F in the inference from the observation O to the query Q based on the display of FIG. Specifically, the inference system 100 compares the rules F (eg, rules F 6 and F 7 ) included in the rule subset L ′ with the excluded rules F (eg, rules F 3 and F 4 ). In this way, it is visualized that the degree of dependence is high.
  • the rules F eg, rules F 6 and F 7
  • the excluded rules F eg, rules F 3 and F 4
  • the inference system 100 visualizes that the observation O and the query Q are connected, that is, that the dependency relationship between the observation O and the query Q is large even when a large difference is allowed.
  • the user can confirm that the dependency between the observation O and the query Q is large based on the parameter ⁇ . Further, the user can confirm that the rule F included in the rule subset L ′ has a higher dependency than the excluded rule F.
  • the inference system 100 can visualize the dependency relationship between the observation O and the query Q using the visualized rule subset L ′.
  • the rule subset L ′ shown in FIG. 4 excludes rules F 6 and F 7 in addition to the rule F excluded in FIG. As a result, in the rule subset L ′, the path from the observation O to the query Q is broken. That is, the rule subset L ′ in FIG. 4 does not include a path traced from the observation O to the query Q. As described above, the inference system 100 can indicate the rule F that the route is broken and the route is broken at the predetermined parameter.
  • the visualization unit 120 at least from the observation O to the end rule F along the direction from the query Q (second route), or from the query Q
  • the route (third route) to the end rule F along the direction to the observation O is visualized.
  • the second path is a path from the observation O to rule F 2.
  • the third path is a path from the rule F 8 until the query Q.
  • the visualization unit 120 may visualize both the second route and the third route as shown in FIG. 4 or may visualize one of them. Furthermore, when the rule subset L ′ includes a route that is divided into more than two parts, the visualization unit 120 may visualize some or all routes.
  • the user can confirm that the rule F connected to the end in the route from the observation O to the query Q is the rules F 6 and F 7 .
  • the inference system 100 can show the rule F (rules F 6 and F 7 in FIG. 4) connected to the end in the route from the observation O to the query Q to the user or the like.
  • the inference system 100 can indicate to the user the rule F that breaks first in the path of the rule F from the observation O to the query Q.
  • the rules F 3 and F 4 are excluded when the value of the parameter ⁇ is 0.4, and the rules F 6 and F 7 are excluded when the value of the parameter ⁇ is 0.5. From this, the user can confirm that the dependency of the rules F 6 and F 7 is higher than the dependency of the rules F 3 and F 4 in the inference from the observation O to the query Q.
  • the inference system 100 can show the degree of dependency between the observation O and the query Q in relation to the rule F to the user or the like.
  • the inference system 100 may execute visualization (display) of the rule set L and / or the rule subset L ′ as follows in order to show the above contents.
  • the inference system 100 includes a display device and an input device (not shown). Specifically, it is assumed that the inference system 100 includes a touch panel (not shown) as an example of a display device and an input device.
  • FIG. 5 is a diagram illustrating an example of visualization of the rule set L.
  • the inference system 100 displays on the display device a display for receiving the parameter ⁇ and a rule subset L ′ corresponding to the parameter ⁇ .
  • the inference system 100 may display related information (for example, the value of the parameter ⁇ and the value of the score).
  • FIG. 5 The upper left of FIG. 5 is a display of the rule subset L ′.
  • FIG. 5 shows a display when the value of the parameter ⁇ is “0.0”. Therefore, the rule subset L ′ is the rule set L.
  • the lower part of FIG. 5 is a display for accepting the parameter ⁇ .
  • the user sets the value of parameter ⁇ using a scroll bar indicating a range of 0.0 to 1.0.
  • the user may touch the desired position of the scroll bar.
  • the reception unit 110 of the inference system 100 transmits the value of the parameter ⁇ corresponding to the position of the touch panel to the visualization unit 120.
  • the visualization unit 120 displays the rule subset L ′ corresponding to the parameter ⁇ .
  • the reception unit 110 acquires information corresponding to the value of the parameter ⁇ to be set with respect to the settable range of the parameter ⁇ .
  • the information corresponding to the value of the parameter ⁇ is position information on the scroll bar.
  • FIG. 7 is a diagram showing a second example of the rule set L used in the following description.
  • the rule set L shown in FIG. 7 includes rules F 1 to F 12 .
  • Rules subset L shown in FIG. 8 'rule subset excluding rules F 7 L' is.
  • the path from the observation O to the query Q is broken at the rule F 7 . That is, the rule subset L ′ in FIG. 8 has no path from the observation O to the query Q.
  • the value “0.01” of the parameter ⁇ is a considerably small value. Therefore, the user can confirm that the dependency relationship between the observation O and the query Q is small with reference to FIG. Further, the user can confirm that it is necessary to add the rule F at the position of the excluded rule F 7 in order to increase the dependency.
  • the inference system 100 can indicate to the user or the like that the dependency between the observation O and the query Q is small. Furthermore, the inference system 100 can indicate to the user the position of the rule F (rule F 7 in FIG. 8) necessary for increasing the dependency. As a result, the user or the like can easily add a rule F for increasing the dependency.
  • FIG. 9 is a diagram illustrating an example of a rule F added to the second example of the rule set L.
  • the display of the rule F 7 excluded in FIG. 8 is the same as that in FIG. 8 for easy understanding.
  • the visualization unit 120 executes visualization corresponding to each parameter.
  • the visualization method in the visualization unit 120 is not limited to the above.
  • the visualization unit 120 may execute visualization corresponding to a plurality of parameters.
  • FIGS. 10 and 11 another visualization of the visualization unit 120 will be described.
  • FIG. 10 is a diagram illustrating a third example of the rule set L for explaining another visualization.
  • the rule set L shown in FIG. 10 includes four rules F (rules F 1 to F 4 ).
  • the atom and rule F shown in FIG. 10 are as follows. (1) Atom (In the following description, X and Y are variables.) Cancer (X): X is cancer. Smokes (X): X smokes. Family (X, Y): X and Y are a family. Friends (X, Y): X and Y are friends. (2) Rule F F 1 : If A smokes, A is cancer. F 2 : If A smokes and A and B are friends, B smokes. F 3 : If A smokes and A and B are family members, B smokes. F 4 : If B smokes, B is cancer.
  • the visualization unit 120 uses two parameters ⁇ ( ⁇ 1 ⁇ 2 ).
  • FIG. 11 is a diagram illustrating an example of visualization corresponding to a plurality of parameters.
  • a rule F 2 indicated by a dotted line is a rule F that is excluded in the case of the parameter ⁇ 1 . That is, in the case of the parameter ⁇ 1 , the rule F 2 is excluded.
  • Rule F 3 shown in dashed lines is a rule F to be excluded in the case of the parameter epsilon 2.
  • the parameter ⁇ 2 is greater than the parameter ⁇ 1 .
  • the rule F 2 indicated by the dotted line is also excluded in the case of the parameter ⁇ 2 . That is, in the case of the parameter ⁇ 2 , the rules F 2 and F 3 are excluded.
  • the rule F 1 and the rule F 4 indicated by the solid line are the rules F that are not excluded even in the parameter ⁇ 2 .
  • the visualization unit 120 may visualize the rule F in association with a plurality of parameters.
  • the visualization method used by the visualization unit 120 is not limited to the above.
  • the visualization unit 120 may use a visualization method that is proportional or inversely proportional to the parameter value.
  • the method in which the parameter value is proportional or inversely proportional is, for example, a method in which the darkness (gray shade) of an image used for visualization is set along the parameter value, or a visualization is performed in accordance with the parameter value.
  • the inference system 100 may use a hierarchical rule set L.
  • the visualization unit 120 may change the layer to be visualized based on a predetermined instruction (for example, an instruction from the user).
  • FIG. 12 is a flowchart showing an example of the operation of the inference system 100.
  • the receiving unit 110 receives parameters (step S201).
  • the visualization unit 120 acquires the rule subset L ′ based on the parameters, and visualizes the acquired rule subset L ′ (step S202). For example, the visualization unit 120 visualizes the rule subset L ′ using a display as shown in FIG.
  • the visualization unit 120 determines whether or not the visualization operation is finished (step S203). For example, the visualization unit 120 receives a termination or continuation instruction from a device operated by a user (not shown), and determines whether or not the visualization operation is terminated.
  • the inference system 100 including the visualization unit 120 terminates the operation.
  • step S203 If not completed (No in step S203), the inference system 100 returns to step S201. In this case, the reception unit 110 receives the next parameter and repeats the above operation.
  • the inference system 100 may operate to return to step S201 after step S202. That is, the inference system 100 may continue to operate without ending the operation.
  • the inference system 100 can achieve the effect of presenting the inference process or the basis.
  • the accepting unit 110 accepts a parameter (for example, parameter ⁇ ) used for selecting the rule subset L ′ from the rule set L.
  • a parameter for example, parameter ⁇
  • the visualization unit 120 acquires the rule subset L ′ corresponding to the parameter, and visualizes the rule subset L ′.
  • the optimization unit 310 selects (or calculates) the rule subset L ′ as the optimal solution of the optimization problem that optimizes the inference in the query Q from the observation O.
  • the parameter is a value related to the selection of the rule subset L ′ in the optimization unit 310.
  • the rule subset L ′ is information indicating the relation of at least a part of the rules F on the route from the observation O to the query Q. That is, the rule subset L ′ is information related to the inference process or the basis.
  • the visualization unit 120 visualizes the rule subset L ′ that is information related to the inference process or the basis.
  • the visualization unit 120 can visualize the rule subset L ′ that presents the inference process or the basis.
  • the inference system 100 has the following effects.
  • the inference system 100 visualizes the rule subset L ′ corresponding to the accepted parameter. Further, the inference system 100 visualizes a rule subset L ′ corresponding to a plurality of parameters. For example, as described with reference to FIGS. 3 and 4, the inference system 100 includes the case where the value of the parameter ⁇ including the route in the rule subset L ′ is “0.4” and the case where the route is not included. The case of “0.5” can be visualized. Thus, the inference system 100 can visualize “whether or not the route from the observation O to the query Q is included in the rule subset L ′” in the received parameters.
  • the inference system 100 has an effect that the dependency relationship between the observation O and the query Q can be shown to the user or the like.
  • the inference system 100 can visualize the rule subset L ′ corresponding to a plurality of parameters. That is, the inference system 100 can visualize how much the parameter is “whether the route from the observation O to the query Q is broken in the rule subset L ′”.
  • the inference system 100 has an effect that the degree of dependency between the observation O and the query Q can be shown to the user or the like.
  • the inference system 100 can visualize the rule subset L ′ corresponding to a plurality of parameters. In other words, the inference system 100 can visualize the rule F that is excluded corresponding to each parameter.
  • the inference system 100 has an effect that the degree of dependence (dependency) of the rule F in the inference from the observation O to the query Q can be shown to the user or the like. Specifically, the inference system 100 has an effect that it can show a rule F having a high dependency and a rule F having a low dependency in the inference from the observation O to the query Q to the user or the like.
  • the inference system 100 is configured as follows.
  • each component of the inference system 100 is realized by using a general-purpose or dedicated circuit, a processor, or a combination thereof. These may be configured using a single chip, or may be configured using a plurality of chips connected via a bus. Some or all of the components of the inference system 100 may be realized using a combination of the above-described circuit and the like and a program.
  • the plurality of information processing devices or circuits may be centrally arranged. It may be distributed.
  • the information processing apparatus or the circuit may be realized as a form in which each is connected via a communication network, such as a client and server system or a cloud computing system.
  • the plurality of components may be realized by a single piece of hardware.
  • the inference system 100 may be realized as a computer device including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the inference system 100 may be realized as a computer apparatus that further includes an input / output connection circuit (IOC: Input / Output Circuit) and a network interface circuit (NIC: Network Interface Circuit).
  • IOC Input / Output Circuit
  • NIC Network Interface Circuit
  • FIG. 14 is a block diagram illustrating a configuration of an information processing apparatus 600, which is an example of a hardware configuration related to the inference system 100.
  • the information processing apparatus 600 includes a CPU 610, a ROM 620, a RAM 630, an internal storage device 640, an IOC 650, and a NIC 680, and constitutes a computer device.
  • the CPU 610 reads a program from ROM 620.
  • the CPU 610 controls the RAM 630, the internal storage device 640, the IOC 650, and the NIC 680 based on the read program.
  • the computer including the CPU 610 controls these configurations, and implements each function as the inference system 100 (the reception unit 110 and the visualization unit 120) illustrated in FIGS. Furthermore, the computer including the CPU 610 may control these configurations to realize the function as the optimization unit 310 illustrated in FIG.
  • the CPU 610 may use the RAM 630 or the internal storage device 640 as a temporary storage medium for the program when realizing each function.
  • the CPU 610 may read a program included in the storage medium 700 storing the program so as to be readable by a computer by using a storage medium reading device (not shown).
  • the CPU 610 may receive a program from an external device (not shown) via the NIC 680, store the program in the RAM 630 or the internal storage device 640, and operate based on the stored program.
  • ROM 620 stores programs executed by CPU 610 and fixed data.
  • the ROM 620 is, for example, a P-ROM (Programmable-ROM) or a flash ROM.
  • the RAM 630 temporarily stores programs executed by the CPU 610 and data.
  • the RAM 630 is, for example, a D-RAM (Dynamic-RAM).
  • the RAM 630 may store parameters and / or rule subsets L ′. Further, the RAM 630 may store the observation O and / or the query Q.
  • the internal storage device 640 stores data and programs stored in the information processing device 600 for a long period of time. Further, the internal storage device 640 may operate as a temporary storage device for the CPU 610.
  • the internal storage device 640 is, for example, a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), or a disk array device.
  • the internal storage device 640 may store parameters and / or rule subsets L ′.
  • the internal storage device 640 may store the observation O and / or the query Q.
  • the internal storage device 640 may further store the rule set L or the optimization problem processed by the optimization unit 310.
  • the ROM 620 and the internal storage device 640 are non-transitory recording media.
  • the RAM 630 is a volatile recording medium.
  • the CPU 610 can operate based on a program stored in the ROM 620, the internal storage device 640, or the RAM 630. That is, the CPU 610 can operate using a nonvolatile recording medium or a volatile recording medium.
  • the IOC 650 mediates data between the CPU 610, the input device 660, and the display device 670.
  • the IOC 650 is, for example, an IO interface card or a USB (Universal Serial Bus) card. Further, the IOC 650 is not limited to a wired connection such as a USB, but may be wireless.
  • the input device 660 is a device that receives an input instruction from an operator of the information processing apparatus 600.
  • the input device 660 is, for example, a keyboard, a mouse, or a touch panel.
  • the input device 660 may operate as a part of the reception unit 110. In this case, the input device 660 receives the parameter. Further, the input device 660 may receive the observation O, the query Q, and / or the rule set L.
  • the display device 670 is a device that displays information to the operator of the information processing apparatus 600.
  • the display device 670 is a liquid crystal display, for example.
  • the display device 670 may operate as a part of the visualization unit 120. In this case, the display device 670 displays the rule subset L ′. Further, the display device 670 may display related information (eg, parameters or scores) or a display (eg, scroll bar) to receive the parameters.
  • related information eg, parameters or scores
  • a display eg, scroll bar
  • the NIC 680 relays data exchange with an external device (not shown) via the network.
  • the NIC 680 is, for example, a LAN (Local Area Network) card.
  • the NIC 680 is not limited to a wired line, and may use wireless.
  • the NIC 680 may operate as a part of the reception unit 110 and / or the visualization unit 120. In this case, the NIC 680 receives the parameter. Alternatively, the NIC 680 transmits the rule subset L ′. Further, the NIC 680 may receive the observation O, the query Q, and / or the rule set L.
  • the information processing apparatus 600 configured in this way can obtain the same effects as the inference system 100.
  • the present invention can be applied to the purpose of briefly explaining the basis for the result of inference of artificial intelligence in support of human intellectual labor based on artificial intelligence with probabilistic logic reasoning as a core.
  • the present invention is not limited to an inference method such as MLN or PSL, but is a probabilistic logical inference method that performs inference by defining a random variable based on a logical expression. This method can be widely applied in the case of making an inference to obtain the posterior probability of

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Fuzzy Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

推論の過程又は根拠を提示するため、本発明の推論システムは、開始状態及び第1のルール集合から終了状態への推論に関連する推論システムにおいて、第1のルール集合から第2のルール集合を選択するために用いられるパラメータを受け付ける受付手段と、パラメータに対応する第2のルール集合を可視化する可視化手段とを含む。

Description

推論システム、情報処理システム、推論方法、及び、記録媒体
 本発明は、推論に関連する情報を出力する推論システム、情報処理システム、推論方法、及び、記録媒体に関する。
 所定の規則又は基準に基づいて、論理式(以下、「ルール」と呼ぶ)の集合から、推論を実行するシステムがある。このようなシステムは、推論システムと呼ばれている(例えば、特許文献1、及び、非特許文献1を参照)。推論システムは、有向グラフ又は無向グラフなどを用いて視覚的に表現される(例えば、特許文献2を参照)。
 初期の推論システムは、判断基準として、論理式のみを用いていた。しかし、近年では、論理式のような確定的な判断基準に限らず、確率的な判断基準を用いた推論システムが利用可能となっている。
 このような確率的な推論システムは、ルール集合を基に確率変数を定義し、確率的な論理推論を実行する。例えば、推論システムは、観測とクエリとを入力として、観測とルール集合とからクエリが成り立つ確率である事後確率を算出する。
 このような推論手法として、例えば、Probabilistic Soft Logic(PSL(例えば、非特許文献2を参照))及びMarkov Logic Network(MLN(例えば、非特許文献3を参照))がある。
国際公開第2015/145555号 特開平09-204309号公報
Lise Getoor and Ben Taskar, "Introduction to Statistical Relational Learning (Adaptive Computation and Machine Learning Series)", The MIT Press, August 31, 2007, pp.291-322, (Kristian Kersting and Luc De Raedt. "10 Bayesian logic programming: Theory and tool") Angelika Kimmig, Stephen H. Bach, Matthias Broecheler, Bert Huang, and Lise Getoor, "A short introduction to probabilistic soft logic", NIPS Workshop on Probabilistic Programming: Foundations and Applications, edition: 2, Location: Lake Tahoe, Nevada, USA, December 07-08, 2012. Matthew Richardson and Pedro Domingos, "Markov logic networks. Machine learning", Machine Learning, Volume 62, Issue 1, p.p. 107-136, February, 2006 (First Online, January 27, 2006), Publisher: Kluwer Academic Publishers.
 非特許文献1ないし3に記載の技術は、ルール集合、入力された観測、及び、入力されたクエリに基づいて、その観測及びルール集合から、そのクエリが成り立つ事後確率を算出する。
 以降、「観測及びルール集合からクエリが成り立つ事後確率」を「推論結果」と呼ぶ。
 非特許文献1ないし3に記載の技術は、算出した推論結果を出力できる。しかし、非特許文献1ないし3に記載の技術は、ルール集合及び観測からクエリが成り立つ事後確率である推論結果がどのように算出されたのか、言い換えると、推論結果に至る推論の過程又は根拠(理由)を出力していない。
 しかし、本発明の発明者は、推論システムが用いられる場面において、推論システムが、推論結果に限らず、推論結果に至る推論の過程又は根拠を提示することが望ましい場合があることを見いだした。
 例えば、推論システムの利用者が、自己の意思決定をサポートするために、推論システムを利用する場合を想定する。この場合、利用者にとって、推論システムが算出した推論結果のみを用いた意思決定より、推論結果に加え推論結果に至る推論の過程又は根拠を用いた意思決定の方が、より深い洞察に基づく意思決定となる。例えば、利用者は、推論結果に至る推論の過程又は根拠に基づいて、その推論結果がどの程度信頼できるかなどを判断できる。
 このように、推論システムの利用者は、推論結果に至る推論の過程又は根拠を知ることができると、推論結果に対する知見を増やすことができる。このことは、本発明の発明者により得られた知見である。
 しかし、推論システムに用いられている内部モデル及び動作プロセスは、多くの場合、膨大で、解釈性に乏しい。例えば、MLNの場合、観測とクエリとを含む連結なネットワークに現れる全てのルールが、推論結果に影響する。さらに、各ルールは、推論結果の確率に対する寄与として、複雑な数式を介して関係している(例えば、非特許文献3を参照)。そのため、例えば、「推論に用いたルール集合」を抽出する場合、抽出されるルール集合は、観測とクエリとを含む連結なネットワークに現れる全てのルールを含むルール集合となる。
 さらに、確率的な推論システムが用いるルールには、結果に対する影響が大きいルールから、ほとんど影響を与えないルールまで、多くのルールが含まれる。そのため、例えば、「推論に用いたルール集合」を抽出する場合、抽出されるルール集合は、ほとんど影響を与えないルールを含む冗長なルール集合となる。そのため、利用者は、抽出されたルール集合において、どのルールが推論結果に至る推論の過程又は根拠において影響が大きいルールであるかを知ることができない。つまり、利用者は、抽出されたルール集合の全体を用いる場合、推論結果に至る推論の過程又は根拠を知ることができない。
 このように、非特許文献1ないし3は、推論結果に至る推論の過程又は根拠を提示できないという問題点があった。
 特許文献1及び2に記載の発明も、上記の課題を解決しない。
 本発明の目的は、上記問題点を解決し、推論の過程又は根拠を提示する推論システム、情報処理システム、推論方法、及び、記録媒体を提供することにある。
 本発明の一形態における推論システムは、開始状態及び第1のルール集合から終了状態への推論に関連する推論システムにおいて、第1のルール集合から第2のルール集合を選択するために用いられるパラメータを受け付ける受付手段と、パラメータに対応する第2のルール集合を可視化する可視化手段とを含む。
 本発明の一形態における情報処理システムは、上記の推論システムと、パラメータを基に、所定に最適化問題の解として第2のルール集合を選択する最適化手段とを含む。
 本発明の一形態における推論方法は、開始状態及び第1のルール集合から終了状態への推論に関連する推論システムにおいて、第1のルール集合から第2のルール集合を選択するために用いられるパラメータを受け付け、パラメータに対応した第2のルール集合を可視化するする。
 本発明の一形態における記録媒体は、開始状態及び第1のルール集合から終了状態への推論に関連する推論システムにおいて、第1のルール集合から第2のルール集合を選択するために用いられるパラメータを受け付ける処理と、パラメータに対応した第2のルール集合を可視化する処理とをコンピュータに実行させるプログラムをコンピュータ読み取り可能に記憶する。
 本発明に基づけば、推論の過程又は根拠を提示するとの効果を奏することができる。
図1は、第1の実施形態に係る推論システムの構成の一例を示すブロック図である。 図2は、ルール集合の第1の例を示す図である。 図3は、所定のパラメータにおけるルール部分集合の一例を示す図である。 図4は、図3とは異なるパラメータにおけるルール部分集合の一例を示す図である。 図5は、ルール集合の可視化の一例を示す図である。 図6は、所定のパラメータの値の場合の可視化の一例を示す図である。 図7は、ルール集合の第2の例を示す図である。 図8は、ルール集合の第2の例において、所定のパラメータにおけるルール部分集合の一例を示す図である。 図9は、ルール集合の第2の例に追加するルールの一例を示す図である。 図10は、別の可視化を説明するためのルール集合の第3の例を示す図である。 図11は、複数のパラメータに対応した可視化の一例を示す図である。 図12は、第1の実施形態に係る推論システムの動作の一例を示すフローチャートである。 図13は、推論システムを含む情報処理システムの一例を示すブロック図である。 図14は、推論システムに係るハードウェアの構成の一例である情報処理装置の構成を示すブロック図である。
 次に、本発明の実施形態について図面を参照して説明する。
 なお、各図面は、本発明の実施形態を説明するためのものである。ただし、本発明は、各図面の記載に限られるわけではない。また、各図面の同様の構成には、同じ番号を付し、その繰り返しの説明を、省略する場合がある。また、以下の説明に用いる図面において、本発明の説明に関係しない部分の構成については、記載を省略し、図示しない場合もある。
 [用語の説明]
 まず、本実施形態の説明に用いる用語について整理する。
 「アトム」とは、部分論理式を持たない論理式(原子論理式又は素論理式)である。アトムの例は、命題変数又は述語である。以下の説明では、アトムの例として、主として述語を用いる。例えば、アトムの一例は、Xを変数とした場合の、「Xがたばこを吸う」である。なお、アトムは、関数形式を用いて表される場合もある。例えば、上記の「Xがたばこを吸う」は、「Smokes(X)」のように表されてもよい。なお、アトムは、複数の変数を含んでもよい。例えば、この場合のアトムの一例は、「XとYとが友人である」である。なお、関数形式を用いると、例えば、「XとYとが友人である」は、「Friends(X,Y)」となる。
 「グラウンドアトム」とは、アトムにおける変数に定数が代入されたアトムである。例えば、上記の「Xはたばこを吸う」の変数Xに特定の人物を代入したアトムが、グラウンドアトムである。具体的には、例えば、変数Xに人物Bobを代入した場合のグラウンドアトムは、「Bobがたばこを吸う」である。グラウンドアトムには、真理値(True(1)又はFalse(0))を割り当てることができる。Bobがたばこを吸う場合、このグラウンドアトムは、Trueとなる。Bobがたばこを吸わない場合、このグラウンドアトムは、Falseとなる。
 「ルール」とは、論理式であり、一般的に上記のアトムを含む論理式である。以下の説明で用いるルールは、述語論理のルールとする。したがって、ルールは、述語を含む。すなわち、ルールは、命題、述語、定数、変数、及び、論理記号(∀、∃、¬、∧、∨、→、←、又は、⇔)を用いて記述される。本発明における実施形態が用いるルールは、後ほど説明するスコアが付与されている。なお、以下の説明では、説明の便宜のため、一階述語論理のルールを用いて説明する。ただし、本発明は、一階述語論理に限定されるわけではない。
 なお、上記の論理記号は、一般的な述語論理に用いられる記号であり、その意味は、次のとおりである。
 「∀」は、「任意の~について」又は「全ての~について」を意味する論理記号である。「∀」は、全称記号、全称量化記号、又は、普遍記号と呼ばれている。
 「∃」は、「(条件)を満たす~が存在する」又は「ある~に対して」を意味する論理記号である。「∃」は、存在記号、特称記号、又は、存在量化記号と呼ばれている。
 「¬」は、否定を表す論理記号である。
 「∧」は、連言又は論理積を表す論理記号である。
 「∨」は、選言又は論理和を表す論理記号である。
 「→」は、含意を表す論理記号である。例えば、「A→B」は、「AならばB」を意味する。「A→B」は、「¬A∨B」と同値である。
 「←」は、「→」の反対の方向の論理を示す論理記号である。例えば、「A←B」は、「BならばA」を意味する。
 「⇔」は、同値を示す論理記号である。「A⇔B」は、「(A→B)∧(A←B)」である。
 なお、以下の説明において、ルールとして、アトムを2つ又は3つ含むルール(例えば、A∧B→C)を用いる。ただし、これは、説明の便宜のためである。各実施形態は、4つ以上のアトムを含むルールを用いてもよい。
 「観測」とは、一つ又は複数のグラウンドアトムに真理値が割り当てられることである。つまり、観測は、グラウンドアトムとその真理値との組からなる集合である。このように、観測に含まれるグラウンドアトムは、真理値が割り当てられている。つまり、観測に含まれるグラウンドアトムは、真理値が決定している。
 「観測する」とは、真理値が割り当てられたグラウンドアトムを取得する動作である。なお、各実施形態における観測の送信元は、特に制限されない。各実施形態は、例えば、利用者から観測を受け取ってもよく、センサなど図示しない装置又は機器から観測を受け取ってもよい。
 「クエリ」とは、観測とルール集合とから事後確率を算出される対象となるグラウンドアトム又はグラウンドアトムの論理結合である。つまり、クエリは、要素として、少なくとも一つのグラウンドアトム又はグラウンドアトムの論理結合を含む集合である。さらに、クエリは、推論の対象である。なお、各実施形態におけるクエリの送信元は、特に制限されない。各実施形態は、例えば、直接的又は間接的に、利用者からクエリを受け取ってもよい。
 なお、請求の範囲に記載の「開始状態」は、観測に相当する。また、請求の範囲に記載の「終了状態」は、クエリに相当する。
 「スコア」とは、所定の規則に基づいてルールに付与される値である。スコアは、ルールが推論の過程又は根拠に関連する程度を示す情報である。ただし、各実施形態に用いられるスコアは、特に制限されない。例えば、スコアは、ルールが推論の結果に与える影響の大きさを表す数値でもよい。あるいは、スコアは、ルールの信頼度でもよい。ここで、ルールの信頼度とは、例えば、MLNにおいて用いられるスコアである。
 あるいは、スコアは、そのルールが含まれるルール集合における観測からクエリが成り立つ確率と、そのルールを除外したルール集合における観測からクエリが成り立つ確率との比較結果(例えば、差異、変化量、又は、比率)でもよい。
 あるいは、スコアは、ルール集合に含まれるルールの数でもよい。
 なお、各実施形態の説明において、スコアは、予め、設定されているとする。ただし、各実施形態は、これに限定されるものではない。例えば、後ほど説明する推論システム100が、可視化の処理の前に、ルールのスコアを算出してもよい。
 なお、スコアは、ルールに限らず複数のルールを含む集合(以下、「ルール部分集合」と呼ぶ)に設定されてもよい。例えば、ルール部分集合のスコアは、そのルール部分集合に含まれるルールのスコアの合計でもよい。あるいは、ルール部分集合のスコアは、ルールの全体(以下、「ルール集合」と呼ぶ)における上記確率と、ルール集合からそのルール部分集合を除外した場合における上記の確率との差異でもよい。あるいは、ルール部分集合のスコアは、ルール集合から、そのルール部分集合以外のルールを除外した場合における上記の確率の差異でもよい。このように、スコアの付与方法は、特に制限されない。ただし、ルール部分集合の作成方法は、ルール集合からルールを除外する場合に限られない。ルール部分集合は、ルール集合から所定のパラメータに基づいて選択されたルールの集合であればよい。つまり、ルールの除外は、ルール集合からルール部分集合を選択する処理の一例である。ただし、以下の説明では、一例として、ルールの除外を用いて説明する。
 なお、ルール部分集合に含まれるルールは、一つの場合もある。したがって、以下の説明において、ルール部分集合は、一つのルールの場合を含むとする。
 [記号の説明]
 次に、以下の説明に用いる記号について説明する。
 「関数Card(S)」は、引き数となっている集合Sの元(要素)の個数を表す関数である。
 「ルールF」は、グラウンドされたルール、つまり、変数の値が決定しているルールである。
 「ルール集合L」は、ルールFの全体のルール集合(以下、第1のルール集合と呼ぶ)である。
 「ルール部分集合L’」は、ルール集合Lから、一つ又は複数のルールFを除外した残りであるルール集合Lの部分集合(以下、第2のルール集合と呼ぶ)である。
 「ルール部分集合L”」は、上記において除外された一つ又は複数のルールFの部分集合(第3のルール集合)である。
 ルール集合Lと、ルール部分集合L’と、ルール部分集合L”との関係は、次のとおりである。
L'⊆L、L”⊆L、L’∪L”=L、L’∩L”=φ
 「観測O」は、グラウンドアトムとその真理値との組(ペア)の集合である。以下の説明では、観測Oは、空集合でないとする。
 「クエリQ」は、少なくとも一つのグラウンドアトム又はグラウンドアトムの論理結合を含む集合である。
 「確率P(Q|O,L)」は、ルール集合L及び観測OからクエリQが成り立つ確率である。ルール部分集合L’及び観測OからクエリQが成り立つ確率は、「確率P(Q|O,L’)」である。
 「差異D(L',O,Q)」は、観測O及びルール部分集合L'からクエリQが成り立つ確率P(Q|O,L')と、観測O及びルール集合LからクエリQが成り立つクエリQの確率P(Q|O,L)との差異(変化量)である。差異D(L',O,Q)は、数式を用いて表すと、次のようになる。
差異D(L',O,Q)=P(Q|O,L')-P(Q|O,L)
つまり、差異D(L',O,Q)は、確率の差異である。なお、差異D(L',O,Q)の値は、正の値、負の値、又は、0となる。なお、差異D(L',O,Q)は、スコアの一例である。
 [推論の例]
 本発明における各実施形態の処理に関連する最適化問題及び最適化問題に用いられる推論は、限定されない。ただし、各実施形態の説明の参考として、推論に用いられる最適化問題とそのパラメータの例を説明する。
 (1)第1の最適化問題
 第1の最適化問題は、次のとおりである。
minimize Card(L’)
subject to D(L',O,Q)≦ε
この場合、パラメータεは、差異D(L',O,Q)の上限を決定するパラメータである。
 第1の最適化問題は、差異D(L',O,Q)がパラメータε以下となるルール部分集合L’の中で、最もルールFの数が少ないルール部分集合L’を算出する問題である。
 スコアが差異D(L',O,Q)である場合、パラメータεは、スコアの上限を決定するパラメータとなる。
 例えば、後ほど説明する推論システム100が、第1の最適化問題の解を算出する最適化部310にパラメータεを送付すると、最適化部310から第1の最適化問題の解としてルール部分集合L’を取得する。
 (2)第2の最適化問題
 第2の最適化問題は、次のとおりである。
minimize D(L',O,Q)
subject to Card(L’)≦C
この場合のパラメータCは、ルール部分集合L’に含まれる要素の数(ルールFの数)の上限を決定するパラメータである。
 第2の最適化問題は、ルールFの数がパラメータC以下となるルール部分集合L’の中で、最も差異D(L',O,Q)が小さくなるルール部分集合L’を算出する問題である。
 スコアがルール部分集合L’の要素数(Card(L’))である場合、パラメータCは、スコアの上限を決定するパラメータとなる。
 例えば、後ほど説明する推論システム100が、第2の最適化問題の解を算出する最適化部310にパラメータCを送付すると、最適化部310から第2の最適化問題の解としてルール部分集合L’を取得する。
 <第1の実施形態>
 以下、図面を参照して、本発明のおける第1の実施形態について説明する。
 第1の実施形態に係る推論システム100は、所定の最適化問題の解であるルール部分集合L’を可視化する。
 ただし、既に説明しているとおり、推論システム100が関連する最適化問題及び用いられる推論は、特に制限されない。例えば、推論システム100は、上記の第1の最適化問題又は第2の最適化問題の最適解を可視化してもよい。この場合、例えば、以下で説明するように、推論システム100は、パラメータを受け取り、最適化部310にパラメータを送信し、最適化部310からルール部分集合L’を取得し、ルール部分集合L’を可視化する。
 [構成の説明]
 図面を参照して、本発明における第1に実施形態に係る推論システム100の構成について説明する。
 まず、推論システム100を含む情報処理システム300を用いて、推論システム100の概要を説明する。
 図13は、推論システム100を含む情報処理システム300の構成の一例を示すブロック図である。情報処理システム300は、推論システム100と、最適化部310とを含む。
 推論システム100は、最適化部310における最適化の処理に用いるパラメータを最適化部310に送信する。
 最適化部310は、パラメータを用いて、所定の推論に関連する最適化問題の最適解を算出する。例えば、最適化部310は、観測Oとルール集合LからクエリQへの推論に関する最適化問題の最適解として、ルール部分集合L’を選択(又は算出)する。そして、最適化部310は、ルール部分集合L’を推論システム100に送信する。
 そして、推論システム100は、ルール部分集合L’を可視化する。
 例えば、推論システム100は、利用者の操作する装置からパラメータを受信し、そのパラメータに対応したルール部分集合L’を可視化する。
 このように、推論システム100は、観測Oとルール集合LからクエリQへの推論に関連する。
 次に、図面を参照して、推論システム100について説明する。
 図1は、第1の実施形態に係る推論システム100の構成の一例を示すブロック図である。図1に示されているように、推論システム100は、受付部110と、可視化部120とを含む。
 受付部110は、所定の装置又はシステムから、可視化のためのパラメータを受け付ける。パラメータは、最適化部310が最適化問題を処理するときに用いるスコアに関連した情報である。例えば、パラメータは、スコアの範囲を指定する値、つまりルール部分集合L’の選択(又は算出)に用いられる値である。パラメータの具体例は、上記の第1の最適化問題のパラメータε又は第2の最適化問題のパラメータCである。
 可視化部120は、パラメータに関連するルール部分集合L’を取得し、ルール部分集合L’を可視化する。つまり、可視化部120は、パラメータに対応したルール部分集合L’を可視化する。
 可視化部120の動作について、さらに詳細に説明する。一例として、可視化部120が、最適化問題1におけるパラメータεに対応したルール部分集合L’を可視化する場合について説明する。この場合、パラメータεは、上記の比較結果(例えば、差異D(L',O,Q))に関連する値である。なお、最適化問題2の場合、パラメータCは、ルールFの数に関連する値となる。
 まず、受付部110は、パラメータεを受け付ける。受付部110は、受け付けたパラメータεを可視化部120に送信する。そして、可視化部120は、パラメータεを最適化部310に送信する。
 最適化部310は、パラメータεを用いて、第1の最適化問題の最適解として、ルール部分集合L’を算出し、可視化部120に送信する。この処理において、最適化部310は、例えば、観測O及びルール集合LからクエリQが成り立つ確率(第1の推論結果)と、観測O及びルール部分集合L’からクエリQが成り立つ確率(第2の推論結果)とを算出する。そして、最適化部310は、第1の推論結果と第2の推論結果とを基に、差異D(L',O,Q)を算出する。そして、最適化部310は、差異D(L',O,Q)を基に、ルール部分集合L’を決定する。
 可視化部120は、最適化部310から最適解であるルール部分集合L’を取得する。
 ただし、推論システム100の動作は、最適化部310における動作と同時である必要はない。
 例えば、予め、各パラメータεに対応したルール部分集合L’が図示しない記憶部に保持されている場合、可視化部120は、保持されているルール部分集合L’の中から、パラメータεに対応したルール部分集合L’を取得してもよい。
 そして、可視化部120は、パラメータεに対応したルール部分集合L’を可視化する。さらに、可視化部120は、ルール部分集合L’に関連する情報を可視化してもよい。例えば、可視化部120は、パラメータεを、ルール部分集合L’と関連付けて可視化してもよい。さらに、可視化部120は、ルール部分集合L’のスコアを可視化してもよい。
 図面を参照して、可視化部120の動作について説明する。
 図2は、以下の説明に用いるルール集合Lの第1の例を示す図である。図2は、ルール集合Lを無向グラフとして表示した図である。図2に示されている無向グラフは、次のようにルール集合Lを表したグラフである。まず、ルール集合Lに含まれるグラウンドアトムをノード(図2の黒色の円)とする。次に、同一のルールFに現れるグラウンドアトムの間にリンク(図2の線分)を作成する。ただし、推論システム100が用いるルール集合L及びルール部分集合L’のグラフは、図2に示されているグラフに限られない。推論システム100は、有向グラフなど他のグラフを用いてもよい。
 図2において、各三角形が、一つのルールFを示す。つまり、図2に示されているルール集合Lは、ルールFないしルールF11を含む。なお、ルール集合Lは、「ε=0.0」の場合におけるルール部分集合L’である。つまり、図2は、ルール部分集合L’の一例を示す図でもある。
 図3は、所定のパラメータε(例えば、ε=0.4)におけるルール部分集合L’の一例を示す図である。
 図3において、可視化部120は、除外したルールFを、破線を用いて示している。つまり、図3に示されているルール部分集合L’は、ルールF、及び、ルールFを除外したルール部分集合L’である。この場合、除外されたルール部分集合L”は、{F,F}である。
 このように、図3において、可視化部120は、ルール集合Lと、ルール部分集合L’との差(つまり、除外されたルール部分集合L”)を可視化するように、ルール部分集合L’を可視化している。
 ただし、これは、可視化部120における除外したルールFの可視化の一例である。可視化部120は、除外したルールFを可視化しなくてもよい。あるいは、可視化部120は、除外したルールFを他のルールFとは異なる色又は形状を用いて可視化してもよい。
 図3に示されているルール部分集合L’は、観測OからクエリQまでルールFがつながっている。つまり、ルール部分集合L’は、観測OからクエリQまでたどる経路(第1の経路)を含んでいる。このようにルール部分集合L’に観測OからクエリQまでの経路が含まれる場合、可視化部120は、観測OからクエリQまでの経路に含まれるルールFを可視化できる。
 なお、可視化部120は、経路から分離されたルールFを可視化しなくてもよい。例えば、図3において、ルールFは、観測OからクエリQまでの経路から分離している。そのため、可視化部120は、ルールFを可視化しなくてもよい。このように動作すると、可視化部120は、推論の過程又は根拠に関連性が高いルールFを可視化できる。
 ここで、図3において、ルールFは、ルール部分集合L’から分離している。そのため、ルールFは、実質的にルール部分集合L’から除外されている。つまり、図3のルール部分集合L’は、ルールF、F、及びFを除外したルールFの集合である。
 そして、パラメータεの値の「0.4」は、差異Dとして、ある程度大きな値である。つまり、図3に示されているルール部分集合L’は、パラメータεの値がある程度大きくなっても残っているルールFの集合である。一方、ルールF及びF(及びF)は、そのパラメータεでは除外されるルールFである。
 このように、推論システム100は、図3の表示を基に、観測OからクエリQへの推論におけるルールFの依存の程度(依存度)を示している。具体的には、推論システム100は、ルール部分集合L’に含まれるルールF(例えば、ルールF及びF)が、除外されたルールF(例えば、ルールF及びF)と比較して、依存度が高いことを可視化している。
 なお、上記のように、パラメータεの値の「0.4」は、差異Dとして、ある程度大きな値である。そのため、推論システム100は、ある程度大きな差異を許容した場合でも、観測OとクエリQとが接続されていること、つまり、観測OとクエリQの依存関係が大きいことを可視化している。
 その結果、利用者は、パラメータεを基に、観測OとクエリQとの依存関係が大きいことを確認できる。さらに、利用者は、ルール部分集合L’に含まれるルールFが、除外されたルールFと比較して依存度が高いことを確認できる。
 このように、推論システム100は、利用者等に対して、可視化したルール部分集合L’を用いて、観測OとクエリQとの依存関係を可視化できる。
 図4は、図3とは異なるパラメータε(例えば、ε=0.5)におけるルール部分集合L’の一例を示す図である。
 図4に示されているルール部分集合L’は、図3において除外されたルールFに加え、ルールF及びFが除外されている。その結果、ルール部分集合L’において、観測OからクエリQまでの経路が、切れている。つまり、図4のルール部分集合L’は、観測OからクエリQまでたどれる経路を含まない。このように、推論システム100は、所定のパラメータにおいて経路が切れること、及び、切れるルールFを示すことができる。
 図4のように、経路が切れている場合、可視化部120は、少なくとも、観測OからクエリQへの向きに沿った末端のルールFまでの経路(第2の経路)、又は、クエリQから観測Oへの向きに沿った末端のルールFまでの経路(第3の経路)を可視化する。図4において、第2の経路は、観測OからルールFまでの経路である。また、第3の経路は、ルールFからクエリQまでの経路である。
 なお、可視化部120は、図4に示すように第2の経路及び第3の経路の両方を可視化してもよく、どちらか一つを可視化してもよい。さらに、ルール部分集合L’が、2つを超える部分に分断された経路を含む場合、可視化部120は、一部の経路又は全ての経路を可視化してもよい。
 図3及び4を参照すると、利用者は、観測OからクエリQまでの経路において、最後までつながるルールFが、ルールF及びFであることを確認できる。このように、推論システム100は、利用者等に対して、観測OからクエリQまでたどる経路において、最後までつながるルールF(図4のルールF及びF)を示すことができる。言い換えると、推論システム100は、利用者等に対して、観測OからクエリQまでのルールFの経路において、最初に切れるルールFを示すことができる。
 図3及び4を参照すると、パラメータεの0.4から0.5の間の数値において、観測OからクエリQまでの経路が切れることを確認できる。
 さらに、パラメータεの値が0.4の時にルールF及びFが除外され、パラメータεの値が0.5の時にルールF及びFが除外される。このことから、利用者は、観測OからクエリQへの推論において、ルールF及びFの依存度が、ルールF及びFの依存度より高いことを確認できる。
 このように、推論システム100は、利用者等に対して、観測OとクエリQの依存関係の大きさの程度を、ルールFに関連させて示すことができる。
 さらに、推論システム100は、上記の内容を示すために、次のように、ルール集合L及び/又はルール部分集合L’の可視化(表示)を実行してもよい。
 なお、以下の説明において、推論システム100は、図示しない表示機器及び入力機器を含むとする。具体的には、推論システム100は、表示機器及び入力機器の一例として、図示しないタッチパネルを含むとする。
 図5は、ルール集合Lの可視化の一例を示す図である。
 推論システム100は、表示機器に、パラメータεを受け付けるための表示と、そのパラメータεに対応したルール部分集合L’とを表示する。推論システム100は、上記に加え、関連する情報(例えば、パラメータεの値及びスコアの値)を表示してもよい。
 図5の上部左が、ルール部分集合L’の表示である。なお、図5は、パラメータεの値が「0.0」の場合の表示である。そのため、ルール部分集合L’は、ルール集合Lとなっている。
 図5の下部が、パラメータεを受け付けるための表示である。図5において、利用者は、0.0から1.0の範囲を示すスクロールバーを用いて、パラメータεの値を設定する。例えば、この説明ではタッチパネルを用いているため、利用者は、スクロールバーの希望の位置に触れればよい。推論システム100の受付部110は、タッチパネルの位置に対応したパラメータεの値を可視化部120に送信する。そして、可視化部120は、パラメータεに対応したルール部分集合L’を表示する。
 図6は、所定のパラメータの値(ε=0.5)の場合の可視化の一例を示す図である。図6に示されているように、利用者が、スクロールバーの「0.5」の位置にタッチすると、推論システム100は、その場合のルール部分集合L’を表示する。
 このように、受付部110は、パラメータεの設定可能な範囲に対する設定するパラメータεの値に対応する情報を取得する。具体的には、パラメータεの値に対応する情報とは、スクロールバーにおける位置の情報である。
 次に、図7ないし9を参照して、別のルール集合Lの場合の可視化について説明する。
 図7は、以下の説明に用いるルール集合Lの第2の例を示す図である。
 図7に示されているルール集合Lは、ルールFないしルールF12を含む。なお、ルール集合Lは、「ε=0.0」の場合のルール部分集合L’である。
 図8は、ルール集合Lの第2の例において、所定のパラメータε(例えば、ε=0.01)におけるルール部分集合L’の一例を示す図である。
 図8に示されているルール部分集合L’は、ルールFを除外したルール部分集合L’である。その結果、ルール部分集合L’において、観測OからクエリQまでの経路が、ルールFのところで切れている。つまり、図8のルール部分集合L’は、観測OからクエリQまでの経路がない。
 ここで、パラメータεの値の「0.01」は、かなり小さな値である。そのため、利用者は、図8を参照して、観測OとクエリQとの依存関係が小さいことを確認できる。さらに、利用者は、依存関係を大きくするためには、除外されたルールFの位置においてルールFを追加することが必要であることを確認できる。
 このように、推論システム100は、利用者等に対して、観測OとクエリQとの依存関係が小さいことを示すことができる。さらに、推論システム100は、利用者等に、依存関係を大きくするために必要となるルールFの位置(図8ではルールF)を示すことができる。その結果、利用者等は、容易に、依存関係を大きくするためのルールFを追加することができる。
 図9は、ルール集合Lの第2の例に追加するルールFの一例示す図である。ただし、図9は、理解を容易にするため、図8において除外されたルールFの表示を図8と同様にしている。
 図9において、ルールF及びルールFが、追加されている。その結果、観測OからクエリQまでの経路は、ルールFを除外しても、つながっている。
 ここまでの説明では、可視化部120が、各パラメータに対応した可視化を実行する場合の例を説明した。しかし、可視化部120における可視化の手法は、上記に限られない。例えば、可視化部120は、複数のパラメータに対応した可視化を実行してもよい。
 図10及び11を参照して、可視化部120の別の可視化について説明する。
 図10は、別の可視化を説明するためのルール集合Lの第3の例を示す図である。
 図10に示されているルール集合Lは、4つのルールF(ルールFないしF)を含む。図10に示されているアトム及びルールFは、次のとおりである。
(1)アトム(以下の説明において、X及びYは変数である。)
Cancer(X):Xが癌である。
Smokes(X):Xがたばこを吸う。
Family(X,Y):XとYとが家族である。
Friends(X,Y):XとYとが友人である。
(2)ルールF
:Aがたばこを吸うならば、Aが癌である。
:Aがたばこを吸い、かつ、AとBとが友人ならば、Bがたばこを吸う。
:Aがたばこを吸い、かつ、AとBとが家族ならば、Bがたばこを吸う。
:Bがたばこを吸うならば、Bが癌である。
 ここで、可視化部120は、二つのパラメータε(ε<ε)を用いるとする。
 図11は、複数のパラメータに対応した可視化の一例を示す図である。
 図11において、点線で示されているルールFは、パラメータεの場合に除外されるルールFである。つまり、パラメータεの場合、ルールFが除外される。
 破線で示されているルールFは、パラメータεの場合に除外されるルールFである。パラメータεは、パラメータεより大きい。そのため、点線で示されているルールFは、パラメータεの場合も除外される。つまり、パラメータεの場合、ルールF及びFが除外される。
 実線で示されているルールF及びルールFは、パラメータεにおいても除外されないルールFである。
 このように、可視化部120は、複数のパラメータに関連付けてルールFを可視化してもよい。
 なお、可視化部120が用いる可視化の手法は、上記に限られない。例えば、可視化部120は、パラメータの値に比例又は反比例するような可視化手法を用いてもよい。ここで、パラメータの値の比例又は反比例する手法とは、例えば、パラメータの値に沿って、可視化に用いる画像の濃さ(グレー濃淡)を設定する手法、又は、パラメータの値に沿って可視化に用いる色を変更する手法などである。
 さらに、推論システム100は、階層化されたルール集合Lを用いてもよい。この場合、可視化部120は、所定の指示(例えば、利用者からの指示)を基に、可視化する階層を変更してもよい。
 [動作の説明]
 次に、図面を参照して、第1の実施形態に係る推論システム100の動作について説明する。
 図12は、推論システム100の動作の一例を示すフローチャートである。
 まず、受付部110は、パラメータを受け付ける(ステップS201)。
 可視化部120は、パラメータを基にルール部分集合L’を取得し、取得したルール部分集合L’を可視化する(ステップS202)。例えば、可視化部120は、図6のような表示を用いて、ルール部分集合L’を可視化する。
 そして、可視化部120は、可視化の動作が終了か否かを判定する(ステップS203)。例えば、可視化部120は、図示しない利用者が操作する装置から、終了又は継続の指示を受信し、可視化動作の終了か否かを判定する。
 終了の場合(ステップS203でYes)、可視化部120を含む推論システム100は、動作を終了する。
 終了でない場合(ステップS203でNo)、推論システム100は、ステップS201に戻る。この場合、受付部110が、次のパラメータを受け取り、上記の動作を繰り返す。
 なお、推論システム100は、ステップS202の後、ステップS201に戻るように動作してもよい。つまり、推論システム100は、動作を終了せずに、継続して動作してもよい。
 [効果の説明]
 第1の実施形態に係る推論システム100の効果について説明する。
 上記のように、第1の実施形態に係る推論システム100は、推論の過程又は根拠を提示するとの効果を奏することができる。
 その理由は、次のとおりである。
 受付部110は、ルール集合Lからルール部分集合L’の選択に用いられるパラメータ(例えば、パラメータε)を受け付ける。
 そして、可視化部120が、パラメータに対応するルール部分集合L’を取得し、ルール部分集合L’を可視化する。
 ここで、最適化部310は、観測OからクエリQにおける推論を最適化する最適化問題の最適解としてルール部分集合L’を選択(又は算出)する。また、パラメータは、最適化部310におけるルール部分集合L’の選択に関連する値である。
 そして、ルール部分集合L’は、観測OからクエリQまでの経路の少なくとも一部のルールFの関連を示す情報である。つまり、ルール部分集合L’は、推論の過程又は根拠に関連する情報である。
 つまり、可視化部120は、推論の過程又は根拠に関連した情報であるルール部分集合L’を可視化している。
 このように、可視化部120は、推論の過程又は根拠を提示となるルール部分集合L’を可視化できるためである。
 さらに、推論システム100は、以下の効果を奏する。
 推論システム100は、受け付けたパラメータに対応したルール部分集合L’を可視化する。さらに、推論システム100は、複数のパラメータに対応したルール部分集合L’を可視化する。例えば、図3及び4を参照して説明したように、推論システム100は、ルール部分集合L’に経路が含まれるパラメータεの値が「0.4」の場合と、経路が含まれない「0.5」の場合とを可視化できる。このように、推論システム100は、受け付けたパラメータにおいて、「観測OからクエリQまでの経路が、ルール部分集合L’に含まれるか否か」を可視化できる。
 したがって、推論システム100は、利用者等に対して、観測OとクエリQとの依存関係を示すことができるとの効果を奏する。
 さらに、推論システム100は、複数のパラメータに対応したルール部分集合L’を可視化できる。つまり、推論システム100は、どのくらいの値のパラメータにおいて、「ルール部分集合L’において観測OからクエリQまでの経路が、切れるか」を可視化できる。
 したがって、推論システム100は、利用者などに対して、観測OとクエリQとの依存関係の程度を示すことができるとの効果を奏する。
 さらに、推論システム100は、複数のパラメータに対応したルール部分集合L’を可視化できる。言い換えると、推論システム100は、各パラメータに対応して除外されるルールFを可視化できる。
 したがって、推論システム100は、利用者などに対して、観測OからクエリQへの推論におけるルールFの依存の程度(依存度)を示すことができるとの効果を奏する。詳細には、推論システム100は、利用者などに対して、観測OからクエリQへの推論において、依存度の高いルールF及び依存度の低いルールFを示すことができるとの効果を奏する。
 [ハードウェア構成]
 推論システム100のハードウェア構成について説明する。
 推論システム100は、次のように構成される。
 推論システム100の各構成要素の一部又は全部は、汎用又は専用の回路(circuitry)、プロセッサ等、又は、これらの組合せを用いて実現される。これらは、単一のチップを用いて構成されてもよいし、バスを介して接続された複数のチップを用いて構成されてもよい。推論システム100の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せを用いて実現されてもよい。
 推論システム100の各構成要素の一部又は全部が、複数の情報処理装置又は回路等を用いて実現される場合には、複数の情報処理装置又は回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置又は回路等は、クライアントアンドサーバシステム、又は、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
 また、推論システム100において、複数の構成部は、1つのハードウェアで実現されてもよい。
 また、推論システム100は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含むコンピュータ装置として実現されてもよい。推論システム100は、上記構成に加え、さらに、入出力接続回路(IOC:Input / Output Circuit)と、ネットワークインターフェース回路(NIC:Network Interface Circuit)とを含むコンピュータ装置として実現されてもよい。
 図14は、推論システム100に係るハードウェアの構成の一例である情報処理装置600の構成を示すブロック図である。
 情報処理装置600は、CPU610と、ROM620と、RAM630と、内部記憶装置640と、IOC650と、NIC680とを含み、コンピュータ装置を構成している。
 CPU610は、ROM620からプログラムを読み込む。そして、CPU610は、読み込んだプログラムに基づいて、RAM630と、内部記憶装置640と、IOC650と、NIC680とを制御する。そして、CPU610を含むコンピュータは、これらの構成を制御し、図1及び図13に示されている推論システム100(受付部110及び可視化部120)としての各機能を実現する。さらに、CPU610を含むコンピュータは、これらの構成を制御し、図13に示されている最適化部310としての機能を実現してもよい。
 CPU610は、各機能を実現する際に、RAM630又は内部記憶装置640を、プログラムの一時記憶媒体として使用してもよい。
 また、CPU610は、コンピュータで読み取り可能にプログラムを記憶した記憶媒体700が含むプログラムを、図示しない記憶媒体読み取り装置を用いて読み込んでもよい。あるいは、CPU610は、NIC680を介して、図示しない外部の装置からプログラムを受け取り、RAM630又は内部記憶装置640に保存して、保存したプログラムを基に動作してもよい。
 ROM620は、CPU610が実行するプログラム及び固定的なデータを記憶する。ROM620は、例えば、P-ROM(Programmable-ROM)又はフラッシュROMである。
 RAM630は、CPU610が実行するプログラム及びデータを一時的に記憶する。RAM630は、例えば、D-RAM(Dynamic-RAM)である。RAM630は、パラメータ及び/又はルール部分集合L’を記憶してもよい。さらに、RAM630は、観測O及び/又はクエリQを記憶してもよい。
 内部記憶装置640は、情報処理装置600が長期的に保存するデータ及びプログラムを記憶する。また、内部記憶装置640は、CPU610の一時記憶装置として動作してもよい。内部記憶装置640は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)、又はディスクアレイ装置である。内部記憶装置640は、パラメータ及び/又はルール部分集合L’を記憶してもよい。内部記憶装置640は、観測O及び/又はクエリQを記憶してもよい。内部記憶装置640は、さらに、ルール集合L、又は、最適化部310が処理する最適化問題を記憶してもよい。
 ここで、ROM620と内部記憶装置640は、不揮発性(non-transitory)の記録媒体である。一方、RAM630は、揮発性(transitory)の記録媒体である。そして、CPU610は、ROM620、内部記憶装置640、又は、RAM630に記憶されているプログラムを基に動作可能である。つまり、CPU610は、不揮発性記録媒体又は揮発性記録媒体を用いて動作可能である。
 IOC650は、CPU610と、入力機器660及び表示機器670とのデータを仲介する。IOC650は、例えば、IOインターフェースカード又はUSB(Universal Serial Bus)カードである。さらに、IOC650は、USBのような有線に限らず、無線を用いてもよい。
 入力機器660は、情報処理装置600の操作者からの入力指示を受け取る機器である。入力機器660は、例えば、キーボード、マウス又はタッチパネルである。入力機器660は、受付部110の一部として動作してもよい。この場合、入力機器660は、パラメータを受信する。さらに、入力機器660は、観測O、クエリQ、及び/又は、ルール集合Lを受信してもよい。
 表示機器670は、情報処理装置600の操作者に情報を表示する機器である。表示機器670は、例えば、液晶ディスプレイである。表示機器670は、可視化部120の一部として動作してもよい。この場合、表示機器670は、ルール部分集合L’を表示する。さらに、表示機器670は、関連する情報(例えば、パラメータ、又は、スコア)、又は、パラメータを受けるため表示(例えば、スクロールバー)を表示してもよい。
 NIC680は、ネットワークを介した図示しない外部の装置とのデータのやり取りを中継する。NIC680は、例えば、LAN(Local Area Network)カードである。さらに、NIC680は、有線に限らず、無線を用いてもよい。NIC680は、受付部110及び/又は可視化部120の一部として動作してもよい。この場合、NIC680は、パラメータを受信する。あるいは、NIC680は、ルール部分集合L’を送信する。さらに、NIC680は、観測O、クエリQ、及び/又は、ルール集合Lを受信してもよい。
 このように構成された情報処理装置600は、推論システム100と同様の効果を得ることができる。
 その理由は、情報処理装置600のCPU610が、プログラムに基づいて推論システム100と同様の機能を実現できるためである。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成及び詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 本発明は、確率的論理推論手法をコアに据えた人工知能に基づく人間の知的労働の支援において、人工知能の推論の結果に至る根拠を端的に説明する用途に適用できる。
 本発明は、MLN又はPSLなどの推論手法に限らず、論理式を基に確率変数を定義して推論を行う確率的論理推論手法で、観測とクエリとを入力として、観測の下でのクエリの事後確率を求めるという推論を行う場合に広く適用できる。
 100  推論システム
 110  受付部
 120  可視化部
 300  情報処理システム
 310  最適化部
 600  情報処理装置
 610  CPU
 620  ROM
 630  RAM
 640  内部記憶装置
 650  IOC
 660  入力機器
 670  表示機器
 680  NIC
 700  記憶媒体

Claims (11)

  1.  開始状態及び第1のルール集合から終了状態への推論に関連する推論システムにおいて、
     前記第1のルール集合から第2のルール集合を選択するために用いられるパラメータを受け付ける受付手段と、
     前記パラメータに対応する前記第2のルール集合を可視化する可視化手段と
     を含む推論システム。
  2.  前記パラメータが、前記第1のルール集合から一つ又は複数のルールを除外して前記第2のルール集合を選択するためのパラメータである
     請求項1に記載の推論システム。
  3.  前記可視化手段は、
     前記第1のルール集合と前記第2のルール集合との差を可視化する
     請求項1又は2に記載の推論システム。
  4.  前記可視化手段は、
     前記第2のルール集合において前記開始状態から前記終了状態までの第1の経路が切れている場合、少なくとも、前記開始状態から前記終了状態への向きにたどった末端のルールまでの第2の経路、又は、前記終了状態から前記開始状態への向きにたどった末端のルールまでの第3の経路を可視化する
     請求項1ないし3のいずれか1項に記載の推論システム。
  5.  前記可視化手段は、
     複数の前記パラメータに関連付けて前記第2のルール集合を可視化する
     請求項1ないし4のいずれか1項に記載の推論システム。
  6.  前記受付手段は、
     前記パラメータの設定可能な範囲に対する設定する前記パラメータの値に対応する情報を用いて前記パラメータを受け付ける
     請求項1ないし5のいずれか1項に記載の推論システム。
  7.  前記開始状態及び前記第1のルール集合から前記終了状態が成り立つ確率を第1の推論結果とし、
     前記開始状態及び前記第2のルール集合から前記終了状態が成り立つ確率を第2の推論結果とするときに、
     前記パラメータが、前記第1の推論結果と前記第2の推論結果との比較結果に関連する
     請求項1ないし6のいずれか1項に記載の推論システム。
  8.  前記パラメータが、
     前記第2のルール集合に含まれるルールの数に関連する
     請求項1ないし6のいずれか1項に記載の推論システム。
  9.  請求項1ないし8のいずれか1項に記載の推論システムと、
     前記パラメータを基に、所定に最適化問題の解として前記第2のルール集合を選択する最適化手段と
     を含む情報処理システム。
  10.  開始状態及び第1のルール集合から終了状態への推論に関連する推論システムにおいて、
     前記第1のルール集合から第2のルール集合を選択するために用いられるパラメータを受け付け、
     前記パラメータに対応した前記第2のルール集合を可視化する
     推論方法。
  11.  開始状態及び第1のルール集合から終了状態への推論に関連する推論システムにおいて、
     前記第1のルール集合から第2のルール集合を選択するために用いられるパラメータを受け付ける処理と、
     前記パラメータに対応した前記第2のルール集合を可視化する処理と
     をコンピュータに実行させるプログラムをコンピュータ読み取り可能に記録する記録媒体。
PCT/JP2016/003541 2016-08-02 2016-08-02 推論システム、情報処理システム、推論方法、及び、記録媒体 WO2018025288A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/322,593 US20190164072A1 (en) 2016-08-02 2016-08-02 Inference system, information processing system, inference method, and recording medium
PCT/JP2016/003541 WO2018025288A1 (ja) 2016-08-02 2016-08-02 推論システム、情報処理システム、推論方法、及び、記録媒体
JP2018530984A JP6690713B2 (ja) 2016-08-02 2016-08-02 推論システム、情報処理システム、推論方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/003541 WO2018025288A1 (ja) 2016-08-02 2016-08-02 推論システム、情報処理システム、推論方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2018025288A1 true WO2018025288A1 (ja) 2018-02-08

Family

ID=61072810

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/003541 WO2018025288A1 (ja) 2016-08-02 2016-08-02 推論システム、情報処理システム、推論方法、及び、記録媒体

Country Status (3)

Country Link
US (1) US20190164072A1 (ja)
JP (1) JP6690713B2 (ja)
WO (1) WO2018025288A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7464946B2 (ja) 2021-01-29 2024-04-10 日本電信電話株式会社 論理プログラム推定装置、論理プログラム推定方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204309A (ja) * 1996-01-29 1997-08-05 Fuji Xerox Co Ltd 証明図表示装置
JPH10312289A (ja) * 1997-05-12 1998-11-24 Hitachi Ltd ルール関連構造抽出・可視化方法及び装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204309A (ja) * 1996-01-29 1997-08-05 Fuji Xerox Co Ltd 証明図表示装置
JPH10312289A (ja) * 1997-05-12 1998-11-24 Hitachi Ltd ルール関連構造抽出・可視化方法及び装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAZETO YAMAMOTO ET AL.: "Efficient Estimation of Plausible Abductive Hypotheses Using A* Search", IPSJ SIG NOTES, vol. 2014 - N, no. 10, 26 June 2014 (2014-06-26), pages 1 - 9 *
KENTARO SASAKI ET AL., KAKURITSURONRI SUIRON NO SUIRON KEKKA O TANTEKI NI SETSUMEI SURU RULE SHUGO NO TOKUTEI, 6 August 2016 (2016-08-06), pages 1 - 4, Retrieved from the Internet <URL:https://kaigi.org/jsai/webprogram/2016/paper-418.html> *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7464946B2 (ja) 2021-01-29 2024-04-10 日本電信電話株式会社 論理プログラム推定装置、論理プログラム推定方法、及びプログラム

Also Published As

Publication number Publication date
JP6690713B2 (ja) 2020-04-28
US20190164072A1 (en) 2019-05-30
JPWO2018025288A1 (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
Jung et al. AK-fold averaging cross-validation procedure
US8156056B2 (en) Method and system of classifying, ranking and relating information based on weights of network links
Pirgazi et al. A robust gene regulatory network inference method base on Kalman filter and linear regression
Urena et al. GDM-R: A new framework in R to support fuzzy group decision making processes
Ahmed et al. A novel decision tree classification based on post-pruning with Bayes minimum risk
CN112084836A (zh) 机器学习系统
Jabbari et al. Discovery of causal models that contain latent variables through Bayesian scoring of independence constraints
CN109313720A (zh) 具有稀疏访问的外部存储器的增强神经网络
Li et al. The attribute-trend-similarity method to improve learning performance for small datasets
CN114897173A (zh) 基于变分量子线路确定PageRank的方法及装置
US20230128318A1 (en) Automated Parameterized Modeling And Scoring Intelligence System
WO2021257395A1 (en) Systems and methods for machine learning model interpretation
JP2016029526A (ja) 情報処理装置、及びプログラム
Duarte et al. Representation of context-specific causal models with observational and interventional data
Suthaharan et al. Supervised learning algorithms
WO2018025288A1 (ja) 推論システム、情報処理システム、推論方法、及び、記録媒体
Rosenbloom From memory to problem solving: Mechanism reuse in a graphical cognitive architecture
US11816185B1 (en) Multi-view image analysis using neural networks
Meytus Problems of constructing intelligent systems. Knowledge representation
Malchiodi et al. Predicting the possibilistic score of OWL axioms through modified support vector clustering
CN109886299B (zh) 一种用户画像方法、装置、可读存储介质及终端设备
JP6721036B2 (ja) 推論システム、推論方法、及び、プログラム
Sodja Detecting anomalous time series by GAMLSS-Akaike-Weights-Scoring
Rojo et al. GaCoVi: A correlation visualization to support interpretability-aware feature selection for regression models
da Rocha Braga A Categorical-Generative Theory of Social Processes: Towards the Ontological and Mathematical Foundations of a Grammar-Based Model for Qualitative Research

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16911550

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018530984

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16911550

Country of ref document: EP

Kind code of ref document: A1