WO2021161896A1 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
WO2021161896A1
WO2021161896A1 PCT/JP2021/004146 JP2021004146W WO2021161896A1 WO 2021161896 A1 WO2021161896 A1 WO 2021161896A1 JP 2021004146 W JP2021004146 W JP 2021004146W WO 2021161896 A1 WO2021161896 A1 WO 2021161896A1
Authority
WO
WIPO (PCT)
Prior art keywords
rule
learning
prediction model
model
information processing
Prior art date
Application number
PCT/JP2021/004146
Other languages
English (en)
French (fr)
Inventor
裕士 堀口
慎吾 高松
健人 中田
正典 宮原
紘士 飯田
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US17/792,583 priority Critical patent/US20230063311A1/en
Priority to JP2022500359A priority patent/JPWO2021161896A1/ja
Publication of WO2021161896A1 publication Critical patent/WO2021161896A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Definitions

  • This technology relates to information processing devices, information processing methods, and programs that can be applied to the construction of learning models using machine learning.
  • Patent Document 1 describes an ethics examination support system that supports examination of whether or not the content of video data violates the code of ethics.
  • this system for example, by analyzing the levels of various parameters (blood color, frequency, etc.) related to video expression, it is determined whether or not the video data violates the ethical code.
  • the system automatically analyzes the video expression, so that an objective examination result can be obtained (paragraphs [0046] [0051] [0056], etc. of the specification of Patent Document 1).
  • the purpose of this technology is to provide an information processing device, an information processing method, and a program capable of easily constructing a learning model that meets the necessary criteria.
  • the information processing apparatus includes a first learning unit, a second learning unit, an evaluation unit, and an adjustment unit.
  • the first learning unit trains a predetermined learning model.
  • the second learning unit trains a conversion model that converts the output of the predetermined learning model into a rule group described in a user-interpretable format.
  • the evaluation unit acquires evaluation information that evaluates the rule group according to a predetermined standard.
  • the adjusting unit adjusts the learning process of the predetermined learning model based on the evaluation information.
  • learning processing is performed between a predetermined learning model and a conversion model that converts its output.
  • the transformation model transforms the output of the learning model into a set of rules written in a user-interpretable format.
  • the learning process of the learning model is adjusted by using the evaluation information obtained by evaluating this rule group according to a predetermined standard. This makes it possible to easily build a learning model that meets the required criteria.
  • the predetermined standard may include at least one of the standard stipulated by the law or the standard stipulated by the user.
  • the learning model may be a prediction model that predicts a target item.
  • the rule group may include at least one output rule that describes the output of the prediction model.
  • the evaluation unit may generate at least one of a description or a chart for each of the output rules.
  • the evaluation unit may generate a check item for each of the output rules to cause the user to check whether or not the predetermined criteria are satisfied.
  • the evaluation unit may read the check result of the user for the check item as the evaluation information.
  • the evaluation unit may generate the check item for the data item specified by the user among the plurality of data items included in the learning data of the prediction model.
  • the information processing device may further include a storage unit in which a database relating to the predetermined standard is stored.
  • the evaluation unit may determine whether or not the output rule satisfies the predetermined criterion based on the database.
  • the evaluation unit may generate a check item for the user to check whether or not the output rule satisfies the predetermined criterion for the output rule determined not to satisfy the predetermined criterion.
  • the evaluation unit may generate information regarding the output rule determined not to satisfy the predetermined criteria as the evaluation information.
  • the evaluation information may include information on a violation rule, which is an output rule that does not meet the predetermined criteria.
  • the adjusting unit may adjust at least one of the training data of the prediction model or the learning parameters of the prediction model with reference to the data range specified by the violation rule.
  • the adjusting unit reduces the number of the learning data included in the data range specified by the violation rule, which causes the violation rule to not meet the predetermined criteria, or the violation rule. At least one of the processes of adding dummy data adjusted to satisfy the predetermined criteria to the data range designated by the above as the training data may be performed.
  • the learning parameter may include at least one of a parameter for adjusting the output of the prediction model with respect to the training data and a parameter for adjusting the loss function of the prediction model.
  • the prediction model may be a classification model in which the classification related to the target item is used as the prediction value.
  • the adjusting unit substantially matches the predicted value of the prediction model in the data range specified by the violation rule with the predicted value of the prediction model in the data range specified by the output rule satisfying the predetermined criterion. As described above, the training process of the prediction model may be adjusted.
  • the prediction model may be a regression model using the value of the target item as the prediction value.
  • the adjusting unit determines that the distribution of the predicted values of the predicted model in the data range specified by the violation rule is the distribution of the predicted values of the predicted model in the data range specified by the output rule that satisfies the predetermined criterion.
  • the training process of the prediction model may be adjusted so as to substantially match.
  • the evaluation unit may selectively present a plurality of adjustment methods regarding the output of the prediction model.
  • the adjusting unit may adjust the learning process of the prediction model based on the method selected by the user among the plurality of adjusting methods.
  • the second learning unit may train the conversion model according to the predetermined criterion.
  • the transformation model may be a learning model using at least one algorithm of a decision tree or a rule fit.
  • the information processing method is an information processing method executed by a computer system and includes learning a predetermined learning model.
  • a transformation model that transforms the output of the predetermined learning model into a rule group described in a user-interpretable format is trained.
  • Evaluation information that evaluates the rule group according to a predetermined standard is acquired.
  • the learning process of the predetermined learning model is adjusted based on the evaluation information.
  • a program causes a computer system to perform the following steps.
  • Another example of a check screen for output rules This is an example of the check screen displayed when the regression model is used. It is a map of the output of the prediction model given as a comparative example. This is an example of the check screen displayed when the authentication model is used.
  • FIG. 1 is a schematic diagram for explaining an outline of operation of the data analyzer 100 according to an embodiment of the present technology.
  • the data analysis device 100 is a device that is configured by using a computer or the like and provides a predictive analysis tool for performing predictive analysis or the like.
  • predictive analysis is a technique for predicting future events based on past cases by, for example, machine learning.
  • the prediction model 10 constructed according to the target of prediction is used.
  • predictive analysis prediction model 10
  • the target of predictive analysis is not limited and can be set arbitrarily.
  • the prediction model 10 is an example of a predetermined learning model.
  • a user who uses the data analysis device 100 can specify learning data 1, input items, model parameters, and the like via a GUI (Graphical User Interface) displayed on a display (not shown) or the like, for example. It is possible to build a prediction model 10 that predicts items.
  • GUI Graphic User Interface
  • FIG. 1 schematically illustrates a flow of basic operations performed by the data analyzer 100 when constructing the prediction model 10.
  • a step of constructing the prediction model 10 a step of constructing the summary model 11, a step of evaluating the model, and a step of adjusting the prediction model 10 are executed.
  • NS a step of constructing the prediction model 10 .
  • the summary model 11 is a learning model that converts the output of the prediction model 10 into a user-interpretable format.
  • the summary model 11 corresponds to a transformation model.
  • a rule condition
  • the summarization model 11 generates a set of rules that summarizes (approximates) such a complex output.
  • the rule group means a set of rules including at least one rule that explains the output of the prediction model 10.
  • the step of evaluating the model is a step of confirming whether or not the prediction process by the prediction model 10 satisfies a predetermined criterion.
  • the data analyzer 100 evaluates the output of the prediction model 10 based on the rule group generated by the summary model 11, that is, the rule group that summarizes the output of the prediction model 10.
  • Prescribed standards include those stipulated by law. For example, in a situation where it is predicted whether or not to hire a person who has come to the company for an interview, the output (rule group) of the prediction model 10 is evaluated for the rule group according to the criteria set by the Equal Employment Opportunity Law and the like.
  • the predetermined standard may include a standard set by the user.
  • the rule group may be evaluated according to the criteria (user's judgment, etc.) set by the user according to the situation.
  • the data analyzer 100 generates information that evaluates a rule group (output rule) according to a predetermined standard.
  • the information for evaluating the rule group includes, for example, a determination result of whether or not each output rule satisfies a predetermined standard, information indicating the degree to which the output rule deviates from the predetermined standard, and the like. Further, the determination as to whether or not each output rule satisfies a predetermined criterion may be performed by the user, or may be automatically performed by the data analysis device 100 (explanatory generation unit 24 described later).
  • the information obtained by evaluating the rule group according to a predetermined standard is described as evaluation information. It can be said that the evaluation information is information indicating whether or not the output of the prediction model 10 satisfies a predetermined criterion.
  • the learning process of the prediction model 10 is adjusted based on the evaluation information. Specifically, the learning process of the prediction model 10 is adjusted so that the output of the prediction model 10 satisfies a predetermined standard, that is, an output rule that does not meet the predetermined standard is not extracted from the output of the prediction model 10. NS.
  • a predetermined standard that is, an output rule that does not meet the predetermined standard is not extracted from the output of the prediction model 10.
  • a prediction model 10 in which a prediction value such as a recruitment rate is biased depending on gender or age may be a violation of ethics.
  • two learning models, a "prediction model 10" and a "summary model 11" that summarizes the prediction model 10 are prepared, and the "summary model 11" is used to ethically output the "prediction model 10". It is checked if there is any problem. Then, the "prediction model 10" is adjusted using the check result. Therefore, by using the data analyzer 100, it is possible to confirm whether or not there is an ethical problem in the prediction model 10 and correct any problem if there is a problem.
  • the algorithm of the prediction model 10 can easily confirm whether or not there is an ethical problem in the output of the prediction model 10. Further, it is possible to modify the output of the prediction model 10 through the summary model 11 for a part of the output of the prediction model 10 that has an ethical problem or the like. Further, it is possible to automatically check whether or not the prediction model 10 includes ethical problems and the like, and it is possible to correct problems and the like that the user does not notice. As a result, it becomes possible to easily construct a prediction model 10 that satisfies the necessary criteria.
  • FIG. 2 is a block diagram showing a configuration example of the data analyzer 100.
  • the data analysis device 100 includes a display unit 12, an operation unit 13, a communication unit 14, a storage unit 15, and a control unit 16.
  • the display unit 12 is a display for displaying each information, for example, displaying the above-mentioned GUI screen or the like.
  • a liquid crystal display LCD: Liquid Cristal Display
  • an organic EL Electro-Luminescence
  • the specific configuration of the display unit 12 is not limited, and for example, a display or the like equipped with a touch panel or the like that functions as the operation unit 13 may be used. Further, an HMD (Head Mounted Display) may be used as the display unit 12.
  • the operation unit 13 includes an operation device for the user to input various information.
  • a device capable of inputting information such as a mouse, a keyboard, and a track pad is used.
  • the specific configuration of the operation unit 13 is not limited.
  • a touch panel or the like may be used as the operation unit 13.
  • a camera or the like for photographing the user may be used, and input by a line of sight or a gesture may be possible.
  • the communication unit 14 is a module that performs communication processing between another device and the data analysis device 100.
  • the communication unit 14 is composed of, for example, a wireless LAN (Local Area Network) module such as Wi-Fi or a wired LAN module.
  • a communication module capable of short-range wireless communication such as Bluetooth (registered trademark) and optical communication may be used.
  • the storage unit 15 is a non-volatile storage device, and for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like is used.
  • the storage unit 15 stores the learning database 17 and the rule database 18. Further, the storage unit 15 functions as a storage unit of the data analysis device 100, and stores a program or the like executed by the control unit 16.
  • FIG. 3 is a table showing an example of the learning database 17.
  • the learning database 17 is a database in which learning data 1 for performing training (training) of the prediction model 10 is stored.
  • the personnel data relating to the hiring applicant who has made the hiring determination in the past is used as the learning data 1.
  • Each learning data 1 contains the ID of the applicant for employment, application period, age, gender, rank, employment type, desired annual income, number of job changes, e-mail registration, qualification, employment manager, and employment judgment.
  • Each item of the result is included. For example, when the prediction model 10 for determining whether or not to adopt is trained, the result of the adoption determination becomes a target item to be learned.
  • the learning database 17 is a set of such learning data 1, and is recorded as, for example, CSV format data.
  • the format of the learning data 1 is not limited.
  • FIG. 4 is a table showing an example of the rule database 18.
  • the rule database 18 is a database in which information on laws and regulations and information on other rules such as general ethics (hereinafter referred to as evaluation rules) are stored.
  • evaluation rules general ethics
  • the decree and the evaluation rule are examples of predetermined criteria.
  • the rule database corresponds to a database related to a predetermined standard.
  • the rule database 18 contains items such as rule names, rule fields, problem settings, items to be noted, comparison methods, comparison areas, and area details (area A, area B, ). included.
  • the rule database 18 is configured as table data such as CSV format.
  • the name item the names of laws and regulations, evaluation rules, etc., and their explanations, etc. are input.
  • the field to which the rule is applied for example, the personnel field, the sales field, the insurance field, etc.
  • the problem setting item the type of problem to be solved by the prediction model 10 such as classification, regression, and object recognition is recorded.
  • the applicable law or the like is a rule to be observed regardless of the type of the prediction model 10.
  • classification is input in the problem setting item, it means that the applicable law or the like is a rule to be observed when the prediction model 10 solves the classification problem.
  • items that are subject to regulations and evaluation rules for example, age, gender, etc.
  • the item to be noted is an item that specifies what the decree stipulates.
  • the item of comparison method the method of comparing the items to be noted is input. For example, if the comparison method is entered as "equal", it means that the items to be noted (gender and age) should be treated equally.
  • the area to be compared is input. For example, if the item to be noted is age, information is entered that specifies a comparison for all ages or a comparison for some ages. In the area details item, information for dividing the area is input when comparing the items to be noted by dividing the area in more detail.
  • the rule database 18 is a set of such laws and evaluation rules, and is recorded as, for example, CSV format data. In addition, the format of the rule database 18 is not limited.
  • control unit 16 controls the operation of each block of the data analysis device 100.
  • the control unit 16 has a hardware configuration necessary for a computer such as a CPU and a memory (RAM, ROM), and functions as an information processing device according to the present embodiment. Various processes are executed by the CPU loading the program stored in the storage unit 15 into the RAM and executing the program.
  • a device such as a PLD (Programmable Logic Device) such as an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit) may be used.
  • the UI generation unit 20, the prediction model learning unit 21, the characteristic evaluation unit 22, and the summary model learning unit are functional blocks.
  • an explanation generation unit 24, a query generation unit 25, and an adjustment processing unit 26 are realized.
  • the information processing method according to the present embodiment is executed by these functional blocks.
  • dedicated hardware such as an IC (integrated circuit) may be appropriately used.
  • the UI generation unit 20 generates a UI screen (display interface) displayed on the display unit 12.
  • the UI generation unit 20 generates a GUI such as a UI screen displayed when performing predictive analysis using the prediction model 10.
  • a GUI such as a UI screen displayed when performing predictive analysis using the prediction model 10.
  • On the UI screen for example, information to be presented to the user, an input field for the user to input information, and the like are displayed.
  • the user can operate the operation unit 13 (keyboard or the like) while looking at the UI screen to specify various settings, values, and the like.
  • the UI generation unit 20 receives information input by the user or designated information via the UI screen.
  • the information input via the UI screen includes, for example, information that specifies the learning data to be used, the field to which the prediction model 10 is applied (personnel, sales, insurance industry, etc.), the type of problem setting (classification, regression, etc.). ), Information such as items to be noted (age, gender, etc.) are included. Check items and the like, which will be described later, are displayed on the UI screen displayed after the prediction model 10 is generated. Check results for these check items and the like are accepted via the UI screen. In this way, the UI generation unit 20 realizes a display function on the UI screen for processing screen input and a data input / output function via the UI screen.
  • the prediction model learning unit 21 trains the prediction model 10 that predicts the target item.
  • the learning process of the prediction model 10 is a process of learning, for example, a learning model designed to predict a target item specified by a user by using a plurality of learning data 1.
  • the prediction model 10 is a machine learning algorithm that performs learning using learning data 1 in which a feature item (weather, day, gender, age, etc.) and a target item (value to be predicted) are paired. It is constructed using decision tree learning, neural networks, etc.). Therefore, it can be said that the predictive model learning unit 21 performs supervised learning that trains the model using the predicted value of the learning data 1 as teacher data.
  • the target item, the algorithm used for the prediction model 10, the learning data 1 to be used, and the like are input via the UI screen and the like described above.
  • the prediction model learning unit 21 realizes the prediction model creation function.
  • the prediction model learning unit 21 corresponds to the first learning unit.
  • the prediction model 10 a classification model in which the classification related to the target item is used as the prediction value is used. For example, when the target item is an item indicating whether or not the target person is hired, it is predicted whether or not the target person will be hired. Further, for example, when the target item is an item indicating whether or not the product has been purchased, it is predicted whether or not the customer will purchase the product.
  • a prediction model 10 capable of solving an arbitrary classification problem including a plurality of options may be used.
  • a regression model in which the value of the target item is used as the prediction value may be used. For example, when the target item is the number of years of service of the target person, the expected number of years of service of the target person is predicted.
  • the withdrawal date on which the customer is expected to withdraw from the service is predicted.
  • the machine learning algorithm used in the prediction model 10 is not limited, and for example, an arbitrary algorithm according to the processing content may be appropriately used. This technology is applicable regardless of the type of algorithm.
  • the prediction model learning unit 21 guesses the correct answer recorded in the training data 1. Perform regular supervised learning to train 10. Further, when there is an ethical problem in the prediction model 10 (for example, when the user points out a rule violation or an ethical violation), the learning process of the prediction model 10 is adjusted. Specifically, the prediction model learning unit 21 changes the learning data 1 used for the learning process, the learning parameters set for each algorithm, and the like according to the adjustment instruction generated by the adjustment processing unit 26 described later. The prediction model 10 is trained again. The learning data 1 and setting data to be passed to the prediction model 10 and the adjustment instruction generated by the adjustment processing unit 26 are input to the prediction model learning unit 21. Further, the prediction model learning unit 21 outputs the created prediction model 10.
  • the characteristic evaluation unit 22 evaluates the characteristics of the prediction model 10. Specifically, an evaluation index indicating the performance of the prediction model 10 and the tendency of prediction is calculated. For example, when the prediction model 10 is a classification model, the accuracy rate and accuracy of the prediction value are calculated as evaluation indexes. When the prediction model 10 is a regression model, the error mean of the prediction values, the root mean square error, and the like are calculated as evaluation indexes. The type of evaluation index is not limited, and for example, an evaluation index corresponding to the type of algorithm of the prediction model 10 may be appropriately calculated.
  • the created prediction model 10 is input to the characteristic evaluation unit 22. Further, various evaluation indexes and the like are output from the characteristic evaluation unit 22.
  • the evaluation index of the prediction model 10 is displayed on the UI screen, for example, and presented to the user (see FIGS. 9 and 10). As a result, the user can grasp the performance of the prediction model 10.
  • the summary model learning unit 23 trains the summary model 11 that converts the output of the prediction model 10 into a set of rules described in a user-interpretable format. As described with reference to FIG. 1, the summary model 11 is a learning model that outputs at least one output rule that explains the output of the prediction model 10 as a rule group.
  • the created prediction model 10 is input to the summary model learning unit 23. Further, the summary model learning unit 23 outputs the created summary model 11. In the present embodiment, the summary model learning unit 23 corresponds to the second learning unit.
  • FIG. 5 is a schematic diagram for explaining the summary model 11.
  • the classification model is used as the prediction model 10, and the summary model 11 that summarizes the output of the classification model will be described.
  • FIG. 5A is a map showing the distribution of true correct answers of the data (learning data 1 and the like) input to the prediction model 10.
  • the items to be classified are classified into category ⁇ (dark gray area at the bottom of the map) and category ⁇ (light gray area at the top of the map).
  • the horizontal axis and the vertical axis of the map are the first parameter and the second parameter related to the items to be classified. Note that 3 or more parameters may be set.
  • the categories ⁇ and ⁇ represent the case where the target person is adopted and the case where the target person is not adopted.
  • the horizontal axis of the map (first parameter) represents the age of the target person
  • the vertical axis of the map (second parameter) represents the annual income desired by the target person.
  • the prediction model 10 is trained so that, for example, the distribution represented by such a true correct answer can be predicted based on the first parameter, the second parameter, and the like.
  • FIG. 5B is a map showing the distribution of the prediction results (outputs) of the prediction model 10.
  • the rectangularly divided area on the map is the condition area 2 described using the conditions relating to the first and second parameters. For example, by specifying the range of the first and second parameters, one condition area 2 is specified.
  • FIG. 5B in the actual prediction model 10, prediction processing is performed for each of a large number of condition regions 2 to classify them into categories ⁇ and ⁇ . That is, each condition region 2 is classified into either category ⁇ or category ⁇ . Therefore, it can be said that the boundary of the condition region 2 having a different category becomes a decision boundary when the prediction model 10 classifies.
  • the decision boundary is a surface that serves as a judgment criterion for changing the prediction.
  • the dividing line between hiring and non-hiring is the decision boundary.
  • the condition region 2 is sufficiently fine, it is possible to reproduce the distribution of the true correct answer shown in FIG. 5A with high accuracy.
  • the conditions for each parameter become too complicated, and it becomes difficult to interpret information such as which data in which area is classified into which category.
  • FIG. 5C is a map showing the distribution of the output of the summary model 11.
  • the summary model 11 is trained to output as close as possible to the predictive model.
  • the output of the summary model 11 becomes a condition area 2 that covers a wider area (data range) that approximates the condition area 2 of the prediction model 10.
  • Each of the approximated conditional regions 2 corresponds to an output rule 4 that interpretably describes the output of the prediction model 10.
  • the regions classified into the category ⁇ are represented by four condition regions 2 (output rule 4).
  • the output of the prediction model 10 can be described as four types of conditions described in the range of the first and second parameters.
  • the condition area 2 designated by the output rule 4 may be simply described as an area designated by the output rule.
  • the condition area corresponds to the data range.
  • Examples of the method for constructing such a summary model 11 include a method using an algorithm such as a decision tree or Rule Fit. That is, the summary model 11 is a learning model using at least one algorithm of a decision tree or a rule fit. By using the decision tree and the rule fit, it is possible to describe the output of the complicated prediction model 10 under simple conditions (output rule 4).
  • the summary model learning unit 23 may train the summary model 11 according to a predetermined criterion for evaluating the output of the prediction model 10. For example, when a predetermined standard is a decree or the like that sets a standard regarding age, the summary model 11 is configured so as to generate an output rule 4 described with age as a parameter. In this case, for example, an output rule 4 or the like that combines a condition for specifying an age range and a condition described by other parameters (gender, desired annual income, etc.) is generated. This makes it possible to easily determine whether or not the output of the prediction model 10 satisfies a predetermined criterion.
  • the specific configuration of the summarization model 11 is not limited, and any algorithm capable of summarizing the output may be used depending on, for example, the algorithm used in the prediction model 10.
  • the explanation generation unit 24 generates information for explaining each output rule 4 (rule group) generated by the summary model 11.
  • the explanation generation unit 24 acquires evaluation information that evaluates the rule group according to a predetermined standard.
  • the explanation generation unit 24 corresponds to the evaluation unit.
  • the explanation generation unit 24 generates explanations for each of the output rules 4.
  • the explanation is displayed on the UI screen by the UI generation unit 20.
  • the output rule 4 of the prediction model 10 can be described as a set of a plurality of simple rules.
  • the description generation unit 24 generates a description representing a set of such rules. For example, as output rule 4, when the condition that the gender item is "male”, the age item is "45 years old or older", and the qualification item is "qualification retention" is satisfied, the target person is selected.
  • a rule is generated to adopt.
  • the explanation generation unit 24 generates an explanation sentence such as "a target person who is a man, is 45 years old or older, and has a qualification is adopted". Such a description is generated for each output rule 4, for example.
  • a chart for each of the output rules 4 may be generated.
  • the contents of the above-mentioned conditions regarding gender, age, qualification, etc. may be illustrated as an image on a map described with reference to FIG. 3 and the like. This makes it possible to explain the output rule 4 in an intuitively easy-to-understand manner.
  • a table or the like showing the conditions for each item may be generated. This makes it possible to easily grasp the difference between, for example, a plurality of output rules 4.
  • the explanation generation unit 24 can generate information for explaining the output rule 4 in various formats according to the algorithm used in the summary model 11 that summarizes the prediction model 10.
  • the explanation generation unit 24 generates a check item for each of the output rules 4 to allow the user to check whether or not the predetermined criteria are satisfied.
  • the check item for example, an explanatory text generated so that the user can determine whether or not the corresponding output rule 4 satisfies a predetermined criterion is used.
  • the generated check items are output to the UI generation unit 20 and displayed on the UI screen.
  • Check items are generated for items to be noted, for example, specified by the user. That is, the check item is generated by using an explanatory text or the like that can determine whether or not the item specified by the user satisfies the predetermined criteria. Further, a check item may be generated after determining whether or not each output rule 4 satisfies a predetermined criterion based on the rule database. In this case, for example, a check item for asking the user to confirm the output rule 4 determined by the explanation generation unit 24 not to satisfy the predetermined criteria is generated. The method of generating the check item will be described in detail later.
  • the explanation generation unit 24 reads the user's check result for the check item.
  • This check result is an example of evaluation information in which the rule group is evaluated according to a predetermined standard. For example, it is assumed that the user determines that the predetermined criteria are not satisfied for a certain output rule 4, and checks the check item 5.
  • the checked output rule 4 is a violation rule that does not meet the predetermined criteria. Therefore, the evaluation information includes information that specifies the output rule 4 that the user has determined to be a violation rule.
  • the explanation generation unit 24 generates, as evaluation information, information that specifies laws and regulations that the violation rule does not meet, and information that indicates the degree to which the violation rule deviates from the standard, in association with the violation rule. As described above, the evaluation information includes information on the violation rule, which is the output rule 4 that does not satisfy the predetermined criteria.
  • the description generation unit 24 is input with the created summary model 11, information about items to be noted specified by the user, or information about laws and regulations acquired from the rule database. Further, the explanation generation unit 24 outputs the explanation (check item) of the output rule 4 to be presented to the user and the evaluation information for each output rule.
  • the query generation unit 25 generates a query for inquiring the rule database 18 for information such as laws and regulations necessary for evaluating the prediction model 10. It can be said that the query is a command for collecting laws and regulations that the prediction model 10 should comply with. For example, a query is generated via the UI screen based on information on the field to which the prediction model 10 is applied, the type of problem setting, and the item to be noted. Alternatively, a query asking for laws and regulations to be referred to may be generated according to the output rule 4 or the like generated by the summary model 11. Information such as the created summary model 11 and items to be noted by the user is input to the query generation unit 25. Further, the query generation unit 25 outputs a query for inquiring about laws and regulations.
  • the following query is generated when examining laws and regulations related to age and gender.
  • the query format is not limited.
  • the item in the rule field is "personnel”
  • the item in the problem setting is "classification” or "all”
  • the item to be noted is "age” or "age”.
  • the rule that is "gender” is acquired.
  • information on the Equal Employment Opportunity Law and the Women's Advancement Promotion Law is acquired.
  • a query for inquiring about laws and regulations is input to the rule database 18. Further, from the rule database 18, information such as laws and regulations corresponding to the designation of the query is output.
  • the adjustment processing unit 26 adjusts the learning process of the prediction model 10 based on the evaluation information. More specifically, the adjustment processing unit 26 adjusts the learning process of the prediction model 10 by generating an adjustment instruction for adjusting the prediction model 10 based on the evaluation information. In the present embodiment, the adjustment processing unit 26 corresponds to the adjustment unit.
  • Examples of the method of adjusting the prediction model 10 include learning data 1 and a method of adjusting learning parameters. For example, when adjusting the learning data 1, information for designating the target learning data 1 and information indicating how to handle the learning data 1 are generated as adjustment instructions. Further, for example, when adjusting a learning parameter, information for designating a target learning parameter, information indicating an adjustment amount of the learning parameter, and the like are generated as adjustment instructions.
  • adjustment processing unit 26 outputs an adjustment instruction for adjusting the prediction model 10.
  • the adjustment processing unit 26 may be configured as, for example, a part of the prediction model learning unit 21. That is, the prediction model learning unit 21 can adjust the learning process of the prediction model 10 based on the evaluation information.
  • FIG. 6 is a flowchart showing an example of the basic operation of the data analyzer 100.
  • the process shown in FIG. 6 is, for example, a process executed until the user completes the prediction model 10.
  • the prediction model 10 a classification model for predicting whether or not to adopt a target person will be taken as an example, and the basic operation of the data analysis device 100 will be described. Of course, the following description is applicable regardless of the type and target of the prediction model 10.
  • FIG. 7 is an example of a UI screen for designating the learning data 1 used for the prediction model 10.
  • the UI screen shown in FIG. 7 is, for example, a start screen displayed when the user starts generation of the prediction model 10.
  • the start screen is provided with an input field for "model name" for inputting the name of the prediction model 10 to be created and an input field for "explanation” for inputting a description for the prediction model 10.
  • the start screen is provided with an input field of "learning data setting" for designating the learning data 1 (learning database 17) used for learning the prediction model 10.
  • it is instructed to specify a CSV format or TSV format file as the learning data 1.
  • the learning data 1 to be used is specified by dragging the file used as the learning data 1 onto the start screen or selecting it from the folder tree. After inputting the necessary information in each input field, when the enter button is pressed, the model name and the training data 1 are read.
  • FIG. 8 is an example of a UI screen for inputting various settings related to the prediction model 10.
  • the UI screen shown in FIG. 8 is a setting screen displayed after the input operation via the start screen and for setting the prediction model 10.
  • the setting screen is generated based on, for example, the items of the learning data 1 designated via the start screen.
  • a plurality of setting fields are provided on the setting screen.
  • the "prediction target” it is possible to specify the prediction target (target item) of the prediction model 10.
  • the "recruitment determination" targeting the item of the "recruitment result” (see FIG. 3) of the learning data 1 is designated as the prediction target.
  • the "prediction type” setting field the type of the prediction model 10 can be specified.
  • the items of "binary classification”, “multi-value classification”, and “numerical prediction” are displayed in a selectable manner.
  • binary classification is selected as the type of prediction model 10.
  • items such as “demand forecast”, “personnel / recruitment”, “economy / finance”, “price / sales price”, and “including personal information” are displayed in a selectable manner.
  • the items of "personnel / employment” and “including personal information” are selected.
  • the item used for learning the prediction model 10 can be specified.
  • each data item of the learning data 1 shown in FIG. 3 is displayed in a selectable manner.
  • the data type of each data item, the number of uniques, etc. are displayed.
  • a field for designating "items to be noted” is provided in the setting field of "input items”.
  • Items to watch out for are, for example, items that are subject to regulations such as laws and regulations, and sensitive items that are prone to ethical problems.
  • the data item designated as the "item to be noted” is appropriately referred to when generating a query for inquiring to the rule database 18, or when generating a check item of the output rule 4.
  • the items of "age” and “gender” are selected as “items to be noted”. It is not necessary to input "scenes in which the prediction model is used” and “items to be noted”. After inputting the necessary information in each setting field, when the execution button for executing the learning and the evaluation is pressed, the learning process of the prediction model 10 and the like are started.
  • the learning process for training the prediction model 10 is executed (step 102). For example, an appropriate machine learning algorithm is selected according to the type of the prediction model 10 specified in the setting field of the "prediction type", and the learning model is constructed using the algorithm. Then, the training of the learning model using the learning data 1 specified by the user is executed so as to learn the target item specified in the setting field of the "prediction target”. This trained learning model becomes the created prediction model 10.
  • the characteristic evaluation unit 22 evaluates the characteristics of the created prediction model 10. This characteristic evaluation may be performed at the timing when the prediction model 10 is generated, or may be performed at the timing when the evaluation screen or the like described later is displayed.
  • FIG. 9 is an example of an evaluation screen displaying the characteristics of the prediction model 10.
  • a "prediction accuracy level” indicating a level of prediction accuracy of the created prediction model 10 and a "contribution degree of items" are displayed.
  • the AUC (Area Under the Curve) of the ROC (Receiver Operating Characteristic) curve is displayed as an evaluation index indicating the performance of the prediction model 10.
  • AUC is an index showing the classification accuracy of the classification model.
  • Items Contribution a bar graph showing the contribution of each item that affected the classification is displayed. This makes it possible to compare, for example, items that affect the classification of adoption and items that affect the classification of not adopting.
  • FIG. 10 is another example of the evaluation screen displaying the characteristics of the prediction model 10.
  • FIG. 10 shows an evaluation screen showing the details of the contribution shown in FIG. On the left side of this evaluation screen, a bar graph similar to that in FIG. 9 is displayed for each item. When this item is selected, the composition of the contribution of that item is displayed on the right side of the evaluation screen. For example, suppose that the "age" item is selected. In this case, the degree of contribution for each age range is displayed for the classification of adoption (or the classification of not adopting). For example, in FIG. 10, the learning data 1 designated by the ages from 45 to 50 years has the highest contribution to the classification of adoption. In this way, the details of the contribution may be analyzed and displayed to the user.
  • the learning process of training the summary model 11 is executed (step 103).
  • the summary model 11 is trained so that an output close to that of the prediction model 10 can be obtained, for example, using the prediction value by the prediction model 10 as correct answer data.
  • a learning model is constructed using algorithms such as decision trees and rule fits.
  • the training of the learning model is executed using the predicted value by the created prediction model 10 as the correct answer data.
  • This trained learning model becomes the created summary model 11.
  • a rule group in which the complex output of the prediction model 10 is described in a user-interpretable format is generated.
  • the check item 5 regarding the output of the prediction model 10 is displayed (step 104). First, a descriptive text is generated for each output rule 4 generated by the summary model 11. Then, a check item for checking each output rule 4 is generated by using the explanation.
  • a rule is created by omitting the items specified by the user as “items to be noted” from the set of rules (conditions) constituting the output rule 4. Then, a descriptive text is created explaining what kind of output the rule without the "items to be careful of” will be. For example, suppose that the output rule 4 "adopt if a man, 45 years old or older, and qualified" is extracted. At this time, if the gender is specified as the "item to be careful", the explanation of the output rule is "a person who is 45 years old or older and is qualified, and it is predicted that X% for men and Y% for women should be adopted. It is a model that does. "
  • each output rule 4 corresponds to a condition region 2 that divides the output distribution of the prediction model 10. Therefore, it can be said that creating the explanation in this way is a process of outputting an explanation about the distribution of items to be noted (ratio by gender, etc.) in each condition area 2. With this, for example, when it is necessary to pay attention to gender, it is possible to explain the ratio adopted for each gender and let the user confirm whether this rule violates laws and regulations. Become.
  • FIG. 11 is an example of a check screen for the output rule 4.
  • FIG. 11A is a display example of a map on which the condition area 2 corresponding to the output rule 4 is drawn.
  • FIG. 11B is a display example of the check item 5 relating to the output rule 4.
  • FIG. 11C is a display example when the check item 5 shown in FIG. 11B is checked.
  • the map shown in FIG. 11A and the check item 5 shown in FIG. 11B are displayed at the same time.
  • the map on which the condition area 2 is drawn does not necessarily have to be displayed.
  • the map shown in FIG. 11A is a heat map showing the adoption determination rate output by the prediction model 10 that determines the adoption.
  • the horizontal axis of the map is the number of job changes, and the vertical axis is age. In this map, the darker the gray, the lower the hiring decision rate.
  • the output rule 4 (conditions 1 to 3 in the figure) for explaining the output of the prediction model 10 is shown as the condition region 2.
  • Each output rule 4 is described as a condition indicated by a numerical range of the number of job changes and a numerical range of age. By illustrating each output rule 4 (conditions 1 to 3) as a condition area in this way, the user can easily grasp the correspondence relationship between each output rule 4 and the adoption determination rate.
  • Condition 1 is a condition that 80% of applicants aged 45 and over should be hired
  • Condition 2 is a condition that applicants aged 30 to 45 who have changed jobs three times or more should not be hired. Is a condition that people under the age of 30 should be hired.
  • an instruction to check whether or not there is an ethical problem with respect to these conditions is described.
  • a confirmation button 30 for confirming that there is no problem and an adjustment start button 31 for starting the adjustment of the prediction model 10 are provided. For example, if there are no checked conditions, the confirmation button 30 is highlighted.
  • the check box of condition 2 is checked, and the output rule 4 shown in condition 2 does not meet a predetermined criterion, that is, is designated as an ethically problematic rule.
  • the adjustment start button 31 is highlighted.
  • the adjustment start button 31 is pressed, for example, a process of adjusting the prediction model 10 so that the adoption determination rate becomes equal is started.
  • the contents displayed on the check screen are not limited. For example, adjustment values for adjusting the learning parameters of the prediction model 10 may be input.
  • the explanation generation unit 24 can also determine whether or not the output rule 4 satisfies a predetermined criterion based on the rule database 18.
  • a method of creating an explanatory text (check item 5) that prompts the user to confirm the laws and regulations in the rule database 18 will be described.
  • the query generated by the query generation unit 25 reads information such as laws and regulations necessary for evaluating the prediction model 10 from the rule database 18.
  • the explanation generation unit 24 compares the output of the prediction model 10 (or the output of the summary model 11) according to the comparison method and the comparison area regarding the rules such as laws and regulations read from the rule database 18.
  • the rule defined by the "Equal Employment Opportunity Law” is output from the rule database 18 as a law for evaluating the prediction model 10 for determining employment. It is also assumed that the gender is set as an "item to be noted”.
  • the recruitment determination rate for each male and female is compared with respect to the learning data 1 designated by the output rule 4 to be evaluated. That is, when the output of the prediction model 10 is divided into the output of the male learning data 1 and the output of the female learning data 1, it is confirmed whether the probabilities to be adopted by the male and female are "equal".
  • check item 5 including an explanation such as "Under this condition, X% is adopted for men and Y% is adopted for women. Is this correct from the viewpoint of the [Equal Employment Opportunity Law]?" Will be generated.
  • the explanation generation unit 24 generates a check item 5 for causing the user to check whether or not the output rule 4 satisfies the predetermined criteria for the output rule 4 determined not to satisfy the predetermined criteria.
  • FIG. 12 is another example of the check screen for the output rule 4.
  • FIG. 12 shows a check screen when the possibility of a legal or ethical problem is automatically detected.
  • FIG. 12A is a display example of a map on which the boundary line 6 corresponding to the output rule 4 determined by the explanation generation unit 24 not to satisfy a predetermined criterion is drawn.
  • FIG. 12B is a display example of the check item 5 relating to the output rule 4.
  • FIG. 12C is a display example of a selection screen for selecting the adjustment method of the prediction model 10. On the check screen for the output rule 4, for example, the map shown in FIG. 12A and the check item 5 shown in FIG. 12B are displayed at the same time. Further, the selection screen shown in FIG. 12C is displayed when the user selects the adjustment of the prediction model 10.
  • the personnel / hiring items are checked as a "scene in which the prediction model is used" from the setting screen shown in FIG.
  • the laws and regulations in the personnel / recruitment field in the rule database 18 are confirmed, and it is determined whether or not the output of the prediction model 10 meets the criteria stipulated by the laws and regulations.
  • the check screen shown in FIG. 12 is a screen for prompting the user to confirm because an unnatural distribution bias was observed in the hiring determination rate after the age of 35.
  • FIG. 12A shows a boundary line 6 in which the adoption determination rate changes. This boundary line 6 can be detected as a boundary of, for example, the condition area 2 indicating the output rule 4.
  • FIG. 12B an explanatory text regarding the boundary line 6 is displayed as a check item 5.
  • This description describes the characteristic of the prediction model 10 that the output result of the prediction model 10 changes depending on whether the age is 35 years or older.
  • the explanation includes an explanation that prompts confirmation whether this characteristic violates the "XXX Law" (a law in the field of personnel and recruitment) that stipulates that employment opportunities are evenly provided for all ages. NS.
  • a confirmation button 30 for confirming that there is no problem and an adjustment start button 31 for starting the adjustment of the prediction model 10 are provided.
  • a selection screen as shown in FIG. 12C is displayed.
  • an adjustment method for increasing the hiring rate for those aged 35 or younger and an adjusting method for lowering the hiring rate for those aged 35 or over are displayed in a selectable manner.
  • a confirmation button 30 for confirming that there is no problem and an adjustment start button 31 for starting the adjustment of the prediction model 10 are provided.
  • the user can start the adjustment process using the selected adjustment method by checking the check box of any of the adjustment methods and selecting the adjustment start button.
  • a plurality of adjustment methods regarding the output of the prediction model 10 are presented in a selectable manner. Then, the learning process of the prediction model 10 is adjusted based on the method selected by the user among the plurality of adjustment methods. This makes it possible to make adjustments according to the situation in which the prediction model 10 is applied.
  • step 106 when the user's input operation via the check screen is completed, the check result for the check item 5 is read (step 105). Then, based on the check result, it is determined whether or not there is a region (data range) that does not satisfy a predetermined criterion in the output of the prediction model 10, that is, whether or not there is a violation rule (step 106). For example, when any of the check items 5 (conditions 1 to 3) shown in FIG. 11B is checked, or when the adjustment start button 31 shown in FIG. 12B is selected, there is an area that does not satisfy the predetermined criteria. Then, it is determined (Yes in step 106).
  • step 106 when all the check items 5 are not checked, it is determined that there is no region that does not meet the predetermined criteria, assuming that all the regions of the output of the prediction model 10 do not violate laws and regulations (step 106). No), the process of creating the prediction model 10 is completed.
  • the adjustment processing unit 26 extracts the learning data 1 corresponding to the area (step 107). Specifically, information (ID, etc. of learning data 1) that specifies learning data 1 that matches the output rule 4 (violation rule) that the user has determined to be in violation of laws and regulations and checked is extracted. NS. For example, if it is determined that the rule that the number of job changes is 3 or more and the age is 30 to 45 years old (condition 2 shown in FIG. 11B) is a violation rule, the learning data 1 satisfying this condition. The ID is read.
  • the adjustment processing unit 26 When the learning data 1 that matches the violation rule is extracted, the adjustment processing unit 26 generates an adjustment instruction for the prediction model 10 (step 108). First, the predicted value that violates the rule (the output of the prediction model 10 in the training data 1 that matches the violation rule) is compared with the predicted value that does not violate the rule, and how the predicted value that violates the rule is. If this happens, an adjustment policy will be calculated to indicate whether or not the rule will be violated.
  • the prediction value of the prediction model 10 in the area specified by the violation rule substantially matches the prediction value of the prediction model 10 in the area specified by the output rule 4 satisfying a predetermined criterion.
  • the training process of the prediction model 10 is adjusted. For example, with respect to the prediction model 10 that predicts the classification of "adopt / not adopt", the ratio (predicted value) predicted to be "adopted” for each of the area that violates the rule and the area that does not violate the rule. Is calculated. Then, a policy is selected in which the ratio predicted to be "adopted” in the area that violates the rule is matched with the ratio predicted to be "adopted” in the area that does not violate the rule. At this time, the degree of adjustment (adjustment amount, etc.) of the prediction model 10 is calculated so that the ratios predicted to be “adopted” substantially match in each region.
  • an adjustment instruction for the prediction model 10 is generated according to the policy and the adjustment amount to prevent the rule from being violated. Specifically, adjustment instructions corresponding to the adjustment method for adjusting the learning process of the prediction model 10 are appropriately generated.
  • the adjustment method for the prediction model 10 classification model
  • a plurality of methods can be mentioned.
  • a method of adjusting the weighting coefficient of the training data 1 may be used. For example, for a violation rule that has a high rate of predicting that it will not be adopted, the weighting coefficient of the learning data 1 included in the area specified by the violation rule is increased. As a result, in the area specified by the violation rule, the ratio of obtaining the prediction of "adopting" increases, and as a result, it is possible to substantially match the predicted value with the area specified by the output rule 4 other than the violation rule. Become.
  • a weighting factor is generated as an adjustment instruction.
  • the weighting factor is an example of a parameter that adjusts the output of the prediction model for the training data.
  • a method of adjusting a determination threshold value when determining a prediction may be used. For example, for a violation rule with a high rate of predicting "adopt", the probability of "adopting" is calculated for each of the learning data 1 included in the area specified by the violation rule, and the determination is made to "adopt". Make the threshold higher than in other areas. For example, in the area specified by the output rule 4 other than the violation rule, when the prediction model 10 outputs "should be adopted with a probability of 50%", it is determined to "adopt".
  • the determination threshold value is set high, and it is determined to "adopt" only when "it should be adopted with a probability of 80% or more" is output.
  • the determination threshold is an example of a parameter that adjusts the output of the prediction model for the training data.
  • a method of thinning out the training data 1 may be used.
  • this adjustment method is a process of reducing the number of learning data 1 that causes the violation rule not to satisfy a predetermined criterion among the learning data 1 included in the area designated by the violation rule.
  • the ID of the learning data 1 to be thinned out is generated as an adjustment instruction.
  • At least one of the learning data 1 of the prediction model 10 or the learning parameters of the prediction model 10 is adjusted with reference to the area (data range) specified by the violation rule. This makes it possible to appropriately adjust the output of the prediction model 10 that causes ethical violations and the like.
  • step 101 is executed again, and the prediction model learning unit 21 starts the learning process of recreating the prediction model 10 so as to reduce the predictions that violate the rules. By repeating such processing, it is finally possible to construct a prediction model 10 that does not violate laws and regulations.
  • FIG. 13 is an example of a check screen displayed when the regression model is used.
  • the summary model 11 that summarizes the regression model generates an output rule 4 that divides, for example, a map of predicted values, which is the output of the prediction model 10, into a plurality of regions (data ranges).
  • the data analyzer 100 it is evaluated whether or not the distribution of predicted values and the like satisfy the laws and regulations for each area designated by the output rule 4 of the data analyzer 100.
  • FIG. 13 shows a check screen for a prediction model 10 that predicts the expected years of service of the subject.
  • the graph shown at the top of the figure is a histogram of years of service predicted by gender.
  • the horizontal axis of the graph is the predicted years of service, and the vertical axis is the number of people for whom each year of service is predicted.
  • the center of the distribution of years of service for men is higher than the center of the distribution of years of service for women.
  • the explanation shown at the bottom of the figure is a check item that prompts confirmation regarding the distribution of predicted values for years of service.
  • the output of the prediction model 10 is calculated separately for the output of the male learning data 1 and the output of the female learning data 1. Then, it is confirmed whether the expected years of service of men and women are "equal". Since the length of service is expressed numerically, it cannot be described by probability. In this case, as shown in FIG. 13, the distribution (histogram) of the predicted years of service of men and women is calculated, and each distribution is used using parameters for comparing the distributions (for example, Histogram Intersection, KL divergence, JS divergence, etc.). Are compared.
  • the check item 5 such as "Is there a difference in the output of the predicted values of men and women, is there any problem?" Is output.
  • the output rule 4 In the area designated by the output rule 4 other than the violation rule, that is, in the area that does not violate, for example, a prediction result in which the distributions of men and women are substantially the same can be obtained.
  • the output distribution is different for "gender", and an explanatory text (check item 5) prompting confirmation of whether or not the "equal employment opportunity law" is violated is displayed.
  • the adjustment for the prediction model 10 is started by selecting the adjustment start button 31.
  • the distribution of the prediction values of the prediction model 10 in the area specified by the violation rule is the distribution of the prediction values of the prediction model 10 in the area specified by the output rule 4 that satisfies a predetermined criterion.
  • the training process of the prediction model 10 is adjusted so as to substantially match. For example, with respect to the prediction model 10 for predicting "years of service", adjustments are made so that the shape of the predicted "years of service” distribution is equal for each of the areas that violate the rules and the areas that do not violate the rules. Will be done. For example, comparison parameters such as KL divergence (Kullback-Leibler distance) regarding years of service between the area that violates the rule and the area that does not violate the rule are calculated. The degree of adjustment (adjustment amount, etc.) of the prediction model 10 is calculated so that the comparison parameter becomes small.
  • an adjustment instruction for the prediction model 10 is generated according to the calculated adjustment amount. Specifically, adjustment instructions corresponding to the adjustment method for adjusting the learning process of the prediction model 10 are appropriately generated.
  • the adjustment method for the prediction model 10 regression model
  • a plurality of methods can be mentioned.
  • a method for adjusting the parameters for adjusting the loss function of the prediction model 10 may be used.
  • the prediction model 10 is trained so that the value of the loss function becomes small. Therefore, for example, by setting a penalty such that the loss function becomes large when a predicted value that violates the rule is predicted for the area specified by the violating rule, as a result, the predicted value that violates the rule is obtained. It is possible to reduce the expected proportion. For example, for a violation rule that predicts years of service for an excessively long time, quantile regression is set in the loss function used for training the prediction model 10 only in that area, and the loss function is shifted.
  • a parameter that adjusts such a loss function is generated as an adjustment instruction.
  • a method of thinning out the training data 1 may be used. Specifically, among the learning data 1 included in the area designated by the violation rule, the learning data 1 that causes the violation rule not to satisfy a predetermined criterion is thinned out. For example, for a violation rule that has a high rate of predicting the number of years of service for a long time, the learning data 1 is thinned out in the order of the longest service in the area specified by the violation rule, and the learning process is performed using the learning data 1 in which the number of data is reduced. Will be. In this case, the ID of the learning data 1 to be thinned out is generated as an adjustment instruction. This makes it possible to reduce the rate at which the number of years of service is predicted to be excessively long in the area specified by the violation rule.
  • a method of adding dummy learning data 1 (dummy data) that does not originally exist may be used as an adjustment method for the prediction model 10.
  • this adjustment method is a process of adding dummy data adjusted so as to satisfy a predetermined criterion to the area designated by the violation rule as learning data 1.
  • the number of years of service predicted by the violation rule is shortened, and as a result, it becomes possible to approach the distribution of the number of years of service predicted by the other output rule 4.
  • an instruction to add the dummy data to the learning data 1 is generated as an adjustment instruction.
  • the adjustment method in the classification model described above may be applied to the adjustment method in the regression model, and conversely, the adjustment method in the regression model may be applied to the adjustment method in the classification model. Further, each adjustment method may be used alone or in combination of two or more. Further, the parameters (weighting coefficient and the like) used for each adjustment may be calculated according to the content of the violation or the like, or may be input by the user. In addition, the adjustment method for the prediction model 10 is not limited, and for example, any adjustment method capable of resolving the violation content may be used.
  • a learning model for example, a neural network
  • a summary model 11 is created using an algorithm for summarizing the prediction model 10 (for example, a rule fit that creates a model combining a plurality of rules), and the output of the prediction model 10 is summarized as a combination of a plurality of output rules 4. Will be done.
  • the output rule 4 that "if the age is 50 to 60 years old, it should be adopted" is created from the summary model 11.
  • the ratio predicted to be adopted for each gender is calculated. For example, in the above output rule 4, when the ratio of hiring men is higher than the ratio of hiring women, "If the age is 50 to 60 years old, it is okay to hire too many men.
  • a check item 5 is generated with an explanation such as "?" And displayed on the check screen. It should be noted that explanatory texts may be used that simply explain the proportion of men and women who are “adopted”.
  • the check item 5 When the user sees the above check item 5 and determines that the output rule 4 is ethically violated, the check item 5 is checked and the output rule 4 becomes a violation rule.
  • the weighting (weighting coefficient) for the training data 1 data corresponding to men when the age is 50 to 60 years old
  • the prediction model 10 is trained again. The process is executed. This makes it possible to reduce the percentage of men aged 50 to 60 who are determined to be "adopted".
  • each output rule 4 is displayed as a check item 5 together with an explanatory text.
  • the latest prediction model 10 at that time is determined as the model to be used for future prediction.
  • the data analyzer 100 generates the following query and makes an inquiry to the rule database 18.
  • the output rule 4 violates Ordinance A, saying that it is unnatural that data aged 65 and over should be treated equally, but different distributions exist only between the ages of 75 and 90, based on the database.
  • the user is notified that there is a possibility of doing so.
  • a check item 5 or the like prompting confirmation such as "Are the areas aged 75 to 90 violating Ordinance A?" Is generated.
  • the data analyzer 100 can automatically determine ethical issues, unfair output, and the like to alert the user. As a result, it is possible to reliably confirm the rule violation or the like that the user has overlooked, and it is possible to easily construct a highly reliable prediction model 10.
  • [Application example 3] An example of creating a prediction model 10 that determines the price of a ticket when dynamically pricing a ticket for watching a sports match.
  • a method of adjusting a prediction model 10 (regression model) that handles a regression problem that predicts an appropriate selling price of a watching ticket whose price fluctuates in real time will be described.
  • the learning data 1 to be used, the target item (selling price), and the like are specified by the user.
  • the learning data 1 includes, for example, personal data such as the gender and age of the customer who purchases the ticket, the history of the ticket that the customer has purchased in the past, the match time of the ticket that the customer is about to purchase, the ticket of the opponent team, and the like. Data about. From such learning data 1, a prediction model 10 is created that predicts how much the customer will buy the ticket, that is, predicts the price that the customer is expected to buy.
  • the opponent team designates it as an "item to be noted"
  • the creation of the prediction model 10 is started, and the prediction model 10 and the summary model 11 are generated as in the application example 1.
  • the prediction model 10 and the summary model 11 are generated as in the application example 1.
  • the distributions of "tickets after 18:00 pm" of team A and team B are compared here. Specifically, a price histogram is created for each team, and the distance between each distribution is compared using KL divergence or the like. As a result, it is assumed that there is a large difference in the predicted ticket sales price distribution between the case where the opponent team is Team A and the case where the opponent team is Team B. In this case, an alert (check item 5, etc.) indicating that the selling price fluctuates between team A and team B is output. When the alert is displayed, the user can see the distribution of ticket prices by team. For example, when the user determines that the distribution of ticket prices is unfair, the adjustment start button 31 for correcting the bias of the distribution is selected.
  • the loss function used for training the prediction model 10 is adjusted so that the loss becomes large.
  • the prediction model 10 is created again using the adjusted loss function.
  • the creation of the prediction model 10 is completed. In this way, in the prediction model 10 that solves the regression problem, it is possible to have the user check the rule that the predicted value becomes excessively large (or small). This makes it possible to easily construct a forecast model 10 that makes a fair price forecast.
  • control unit 16 performs the learning process of the predetermined learning model (prediction model 10 and the authentication model) and the summarization model 11 that converts the output thereof.
  • the summary model 11 transforms the output of the prediction model 10 into a set of rules described in a user-interpretable format.
  • the learning process of the learning model is adjusted by using the evaluation information obtained by evaluating this rule group according to a predetermined standard. This makes it possible to easily build a learning model that meets the required criteria.
  • FIG. 14 is a map of the output of the prediction model given as a comparative example.
  • the horizontal axis of the map is the number of job changes, and the vertical axis is age.
  • the gray area of the map is the area predicted to be "adopted" by the prediction model, and the white area is the area predicted to be "not adopted” by the prediction model.
  • Each data point corresponds to an individual training data.
  • the output of the prediction model (distribution of adoption and non-adoption) is complicated. For this reason, for example, it is difficult to confirm whether there is a case of ethical violation under specific conditions, and it is difficult for even an expert (for example, a neural network) to confirm a detailed case depending on the prediction model. There are cases.
  • a summary model 11 is used to replace the prediction model 10 with a set of decision trees and rules that can be understood by humans. This makes it possible to display an explanation of the output rule 4 that can be interpreted by the user, for example, "If A and B, the male is biased.” This allows the user to easily understand the output of the prediction model. As a result, for example, even a user who does not understand the algorithm of the prediction model 10 can confirm that there is no problem in the output of the prediction model.
  • the explanation of the output rule 4 is displayed as a check item for the user to check whether or not the rule / ethics is violated.
  • the prediction model 10 is adjusted based on the contents checked in the check item 5. For example, the output rule 4 (violation rule) that the user points out as having a problem is compared with the data that matches the output rule 4 that there is no problem. Then, according to the comparison result, the data that matches the violation rule is automatically adjusted so as to be closer to the prediction of the other output rule 4. Alternatively, the learning parameters when using each data are adjusted as appropriate. As described above, in the present embodiment, it is possible to easily modify the output through the summary model 11 in the region or the like where there is an ethical problem in the output of the prediction model 10.
  • a set of laws and rules to be observed for each usage scene of the prediction model 10 is stored in advance as the rule database 18. Then, a query for inquiring the rule database 18 about the positions of the determination boundaries of the prediction model 10 and the summary model 11 is generated, and necessary criteria (rules) are appropriately read. This makes it possible to automatically check for ethical problems. As a result, the time required for checking for violations is shortened, and it is possible to sufficiently avoid the occurrence of oversight by the user. This makes it possible to easily build a learning model that meets the required criteria.
  • the method of adjusting the prediction model is mainly described.
  • This technique is not limited to the prediction model, and can be applied to any learning model.
  • an example of correcting the error rate of the authentication system using a camera will be described.
  • an authentication model trained using image data generated by a camera as learning data will be given as an example.
  • the authentication model is an example of a predetermined learning model.
  • the painting data is used as the learning data instead of the tabular learning data such as CSV.
  • an authentication model for performing person authentication, etc. is generated using a camera installed at a company gate.
  • image data of various persons wearing company uniforms are prepared as data of persons to be authenticated, and image data of various persons wearing plain clothes are prepared as data of persons not to be authenticated.
  • the authentication model is trained using these image data as training data.
  • BoF is a method of creating a model using fragments of elements included in an image as feature quantities.
  • VW Visual Words
  • VW Visual Words
  • Random forest is, for example, a learning model in which decision tree algorithms are randomly combined.
  • FIG. 15 is an example of a check screen displayed when the authentication model is used.
  • VW image feature 8
  • check items 5 conditions 1 and 2 indicating the correct answer rate of authentication in the image data including the image feature 8 are displayed.
  • These check items 5 are examples of output rules for explaining the output of the authentication model. For example, under Condition 1, it is explained that 90% of the images including the image feature 8 of the clothes having less wrinkles are wearing uniforms, and the correct answer rate of the authentication is 90%.
  • the training data in which the feature similar to the "wrinkled uniform" exists among the image features created by using BoF is extracted.
  • an adjustment of the authentication model only when learning is performed using the extracted training data, an adjustment is made such that the range of parameter update is increased, that is, classification is performed more carefully than other training data.
  • a descriptive text explaining the summary result etc. is displayed.
  • the creation of the authentication model is completed. This makes it possible to easily build an authentication model with high detection accuracy.
  • the learning process of the prediction model is adjusted mainly by using the user's check result for the check item as the evaluation information.
  • the learning process of the prediction model may be adjusted by using the evaluation information automatically generated by the explanation generation unit.
  • the explanation generation unit may generate information regarding an output rule that is determined not to satisfy a predetermined criterion as evaluation information.
  • the prediction model is automatically adjusted by referring to the rule database and using the output rule determined to be in violation of laws and regulations as the violation rule. This makes it possible to automatically build a prediction model that does not violate laws and regulations.
  • a single control unit 16 is taken as an example.
  • the information processing device according to the present technology may be realized by an arbitrary computer that is configured separately from the control unit 16 and is connected to the control unit 16 via a wired or wireless device.
  • the information processing method according to the present technology may be executed by a cloud server.
  • the information processing method according to the present technology may be executed in conjunction with the control unit 16 and another computer.
  • the information processing method and program according to the present technology can be executed not only in a computer system composed of a single computer but also in a computer system in which a plurality of computers operate in conjunction with each other.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device in which a plurality of modules are housed in one housing are both systems.
  • the information processing method and program execution related to this technology by a computer system include, for example, a process of learning a predetermined learning model, a process of learning a summary model, acquisition of evaluation information, and adjustment of the learning process of the learning model. , Both when executed by a single computer and when each process is executed by a different computer. Further, the execution of each process by a predetermined computer includes causing another computer to execute a part or all of the process and acquire the result.
  • the information processing method and program related to this technology can be applied to a cloud computing configuration in which one function is shared by a plurality of devices via a network and processed jointly.
  • the present technology can also adopt the following configurations.
  • a first learning unit that trains a predetermined learning model
  • a second learning unit that trains a conversion model that converts the output of the predetermined learning model into a rule group described in a user-interpretable format
  • a second learning unit An evaluation unit that acquires evaluation information that evaluates the rule group according to a predetermined standard
  • An information processing device including an adjustment unit that adjusts the learning process of the predetermined learning model based on the evaluation information.
  • the predetermined standard is an information processing device including at least one of a standard set by a law or a standard set by the user.
  • the learning model is an information processing device that is a prediction model that predicts a target item.
  • the information processing device includes at least one output rule that describes the output of the prediction model.
  • the evaluation unit is an information processing device that generates at least one of explanations or charts for each of the output rules.
  • the information processing device (4).
  • the evaluation unit is an information processing device that generates check items for each of the output rules to cause the user to check whether or not the predetermined criteria are satisfied.
  • the information processing device (5).
  • the evaluation unit is an information processing device that reads the check result of the user for the check item as the evaluation information.
  • the information processing device according to (4) or (5).
  • the evaluation unit is an information processing device that generates the check item for the data item specified by the user among a plurality of data items included in the learning data of the prediction model.
  • the information processing device according to any one of (4) to (7).
  • a storage unit in which a database relating to the predetermined standard is stored is provided.
  • the evaluation unit is an information processing device that determines whether or not the output rule satisfies the predetermined criteria based on the database.
  • the information processing apparatus according to (8).
  • the evaluation unit is an information processing device that generates a check item for causing the user to check whether or not the output rule satisfies the predetermined criterion for the output rule determined not to satisfy the predetermined criterion.
  • the information processing device according to (8) or (9).
  • the evaluation unit is an information processing device that generates information regarding the output rule determined not to satisfy the predetermined criteria as the evaluation information.
  • the information processing apparatus according to any one of (4) to (10).
  • the evaluation information includes information on a violation rule, which is the output rule that does not meet the predetermined criteria.
  • the adjusting unit is an information processing device that adjusts at least one of the learning data of the prediction model or the learning parameters of the prediction model based on the data range specified by the violation rule.
  • the information processing apparatus according to (11).
  • the adjusting unit reduces the number of the learning data included in the data range specified by the violation rule, which causes the violation rule to not meet the predetermined criteria, or the violation rule.
  • An information processing apparatus that performs at least one of the processes of adding dummy data adjusted to satisfy the predetermined criteria to the data range specified by the above as the training data.
  • (13) The information processing device according to (11) or (12).
  • the learning parameter is an information processing apparatus including at least one of a parameter for adjusting the output of the prediction model with respect to the training data and a parameter for adjusting the loss function of the prediction model.
  • the prediction model is a classification model in which the classification related to the target item is used as a prediction value.
  • the adjusting unit so that the predicted value of the prediction model in the data range specified by the violation rule substantially matches the predicted value of the prediction model in the data range specified by the output rule that satisfies the predetermined criterion.
  • An information processing device that adjusts the learning process of the prediction model.
  • the information processing apparatus according to any one of (11) to (13).
  • the prediction model is a regression model in which the value of the target item is a prediction value.
  • the distribution of the predicted values of the prediction model in the data range specified by the violation rule substantially matches the distribution of the predicted values of the prediction model in the data range specified by the output rule satisfying the predetermined criteria.
  • An information processing device that adjusts the learning process of the prediction model so as to do so.
  • the evaluation unit presents a plurality of adjustment methods regarding the output of the prediction model in a selectable manner.
  • the adjustment unit is an information processing device that adjusts the learning process of the prediction model based on the method selected by the user among the plurality of adjustment methods.
  • the second learning unit is an information processing device that learns the conversion model according to the predetermined reference.
  • the information processing apparatus according to any one of (1) to (17).
  • the conversion model is an information processing device that is a learning model using at least one algorithm of a decision tree or a rule fit.
  • Train a predetermined learning model to learn A transformation model that transforms the output of the predetermined learning model into a set of rules described in a user-interpretable format is trained. Obtain evaluation information that evaluates the rule group according to a predetermined standard, An information processing method in which a computer system executes adjusting the learning process of the predetermined learning model based on the evaluation information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本技術の一形態に係る情報処理装置は、第1の学習部と、第2の学習部と、評価部と、調整部とを具備する。前記第1の学習部は、所定の学習モデルを学習させる。前記第2の学習部は、前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させる。前記評価部は、所定の基準に従って前記ルール群を評価した評価情報を取得する。前記調整部は、前記評価情報に基づいて前記所定の学習モデルの学習処理を調整する。

Description

情報処理装置、情報処理方法、プログラム
 本技術は、機械学習を用いた学習モデルの構築に適用可能な情報処理装置、情報処理方法、及びプログラムに関する。
 従来、コンピュータを用いた処理結果が、法令等に違反しているかどうかを確認するための技術が知られている。例えば特許文献1には、映像データの内容が倫理規定に違反するか否かの審査を支援する倫理審査支援システムについて記載されている。このシステムでは、例えば映像表現に関する各種のパラメータ(血の色や頻度等)のレベルを分析することで、映像データが倫理規定に抵触するか否かが判定される。このように、システムが自動的に映像表現を分析することで、客観的な審査結果を得ることが可能となる(特許文献1の明細書段落[0046][0051][0056]等)。
 また近年では、機械学習を用いた学習モデルにより、様々な対象を予測する技術や、画像認識等を実現する技術が開発されている。学習モデルを用いることで、例えば会社に面接に来た人を採用するべきか否かを予測することや、面接に来た人に期待される勤続年数等を予測することが可能である。このような予測を行う場合には、モデルによる処理が法令等の必要な基準を満たしているかどうかを確認することが重要になる。
特開2002-149884号公報
 機械学習を用いた学習モデルは、様々なシーンでの応用が期待されており、必要な基準を満たす学習モデルを容易に構築することが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、必要な基準を満たす学習モデルを容易に構築することが可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、第1の学習部と、第2の学習部と、評価部と、調整部とを具備する。
 前記第1の学習部は、所定の学習モデルを学習させる。
 前記第2の学習部は、前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させる。
 前記評価部は、所定の基準に従って前記ルール群を評価した評価情報を取得する。
 前記調整部は、前記評価情報に基づいて前記所定の学習モデルの学習処理を調整する。
 この情報処理装置では、所定の学習モデルとその出力を変換する変換モデルとの学習処理が行われる。変換モデルは、学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する。このルール群を所定の基準に従って評価した評価情報を用いて、学習モデルの学習処理が調整される。これにより、必要な基準を満たす学習モデルを容易に構築することが可能となる。
 前記所定の基準は、法令の定める基準、又は前記ユーザの定める基準の少なくとも一方を含んでもよい。
 前記学習モデルは、対象項目を予測する予測モデルであってもよい。
 前記ルール群は、前記予測モデルの出力を説明する少なくとも1つの出力ルールを含んでもよい。この場合、前記評価部は、前記出力ルールの各々に関する説明文又は図表の少なくとも一方を生成してもよい。
 前記評価部は、前記出力ルールの各々について、前記所定の基準を満たしているか否かを前記ユーザにチェックさせるチェック項目を生成してもよい。
 前記評価部は、前記評価情報として、前記チェック項目に対する前記ユーザのチェック結果を読み込んでもよい。
 前記評価部は、前記予測モデルの学習データに含まれる複数のデータ項目のうち、前記ユーザが指定したデータ項目を対象とする前記チェック項目を生成してもよい。
 前記情報処理装置は、さらに、前記所定の基準に関するデータベースが記憶された記憶部を具備してもよい。この場合、前記評価部は、前記データベースに基づいて、前記出力ルールが前記所定の基準を満たしているか否かを判定してもよい。
 前記評価部は、前記所定の基準を満たさないと判定された前記出力ルールについて、当該出力ルールが前記所定の基準を満たしているか否かを前記ユーザにチェックさせるチェック項目を生成してもよい。
 前記評価部は、前記評価情報として、前記所定の基準を満たさないと判定された前記出力ルールに関する情報を生成してもよい。
 前記評価情報は、前記所定の基準を満たさない前記出力ルールである違反ルールに関する情報を含んでもよい。この場合、前記調整部は、前記違反ルールが指定するデータ範囲を基準として、前記予測モデルの学習データ、又は前記予測モデルの学習パラメータの少なくとも一方を調整してもよい。
 前記調整部は、前記違反ルールが指定するデータ範囲に含まれる前記学習データのうち前記違反ルールが前記所定の基準を満たさない原因となる前記学習データの数を削減する処理、又は、前記違反ルールが指定するデータ範囲に前記所定の基準を満たすように調整されたダミーデータを前記学習データとして追加する処理の少なくとも一方を行ってもよい。
 前記学習パラメータは、前記学習データに関する前記予測モデルの出力を調整するパラメータ、又は前記予測モデルの損失関数を調整するパラメータの少なくとも一方を含んでもよい。
 前記予測モデルは、前記対象項目に関する分類を予測値とする分類モデルであってもよい。この場合、前記調整部は、前記違反ルールが指定するデータ範囲における前記予測モデルの予測値が、前記所定の基準を満たす前記出力ルールが指定するデータ範囲における前記予測モデルの予測値と略一致するように、前記予測モデルの学習処理を調整してもよい。
 前記予測モデルは、前記対象項目の値を予測値とする回帰モデルであってもよい。この場合、前記調整部は、前記違反ルールが指定するデータ範囲における前記予測モデルの予測値の分布が、前記所定の基準を満たす前記出力ルールが指定するデータ範囲における前記予測モデルの予測値の分布と略一致するように、前記予測モデルの学習処理を調整してもよい。
 前記評価部は、前記予測モデルの出力に関する複数の調整方法を選択可能に提示してもよい。この場合、前記調整部は、前記複数の調整方法のうち、前記ユーザにより選択された方法に基づいて前記予測モデルの学習処理を調整してもよい。
 前記第2の学習部は、前記所定の基準に応じた前記変換モデルを学習させてもよい。
 前記変換モデルは、決定木、又はルールフィットの少なくとも一方のアルゴリズムを用いた学習モデルであってもよい。
 本技術の一実施形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、所定の学習モデルを学習させることを含む。
 前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させる。
 所定の基準に従って前記ルール群を評価した評価情報が取得される。
 前記評価情報に基づいて前記所定の学習モデルの学習処理が調整される。
 本技術の一実施形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
 所定の学習モデルを学習させるステップ。
 前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させるステップ。
 所定の基準に従って前記ルール群を評価した評価情報を取得するステップ。
 前記評価情報に基づいて前記所定の学習モデルの学習処理を調整するステップ。
本技術の一実施形態に係るデータ分析装置の動作概要を説明するための模式図である。 データ分析装置の構成例を示すブロック図である。 学習データベースの一例を示す表である。 ルールデータベースの一例を示す表である。 要約モデルについて説明するための模式図である。 データ分析装置の基本的な動作の一例を示すフローチャートである。 予測モデルに用いる学習データを指定するUI画面の一例である。 予測モデルに関する各種の設定を入力するUI画面の一例である。 予測モデルの特性を表示する評価画面の一例である。 予測モデルの特性を表示する評価画面の他の例である。 出力ルールについてのチェック画面の一例である。 出力ルールについてのチェック画面の他の例である。 回帰モデルが用いられる場合に表示されるチェック画面の一例である。 比較例として挙げる予測モデルの出力のマップである。 認証モデルが用いられる場合に表示されるチェック画面の一例である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [データ分析装置の構成]
 図1は、本技術の一実施形態に係るデータ分析装置100の動作概要を説明するための模式図である。データ分析装置100は、コンピュータ等を用いて構成され、予測分析等を行うための予測分析ツールを提供する装置である。
 ここで、予測分析とは、例えば機械学習によって、過去の事例に基づき未来の事象を予測する技術である。予測分析では、予測の対象に応じて構築された予測モデル10が用いられる。予測分析(予測モデル10)を用いることで、例えば過去の人事面接の結果を用いて新しく面接に来た人を採用するべきかを予測するといったことが可能である。もちろん、予測分析の対象は限定されず、任意に設定可能である。本実施形態では、予測モデル10は、所定の学習モデルの一例である。
 データ分析装置100を使用するユーザは、例えばディスプレイ(図示省略)等に表示されたGUI(Graphical User Interface)を介して、学習データ1、入力項目、モデルのパラメータ等を指定することで、所望の項目を予測する予測モデル10を構築することが可能である。
 図1には、予測モデル10を構築する際に、データ分析装置100で行われる基本的な動作の流れが模式的に図示されている。
 図1に示すように、データ分析装置100では、予測モデル10を構築するステップと、要約モデル11を構築するステップと、モデルの評価を行うステップと、予測モデル10を調整するステップとが実行される。
 要約モデル11とは、予測モデル10の出力をユーザが解釈可能な形式に変換する学習モデルである。本実施形態では、要約モデル11は、変換モデルに相当する。
 一般に、機械学習を用いた予測モデル10の処理内容は複雑であるため、例えば予測モデル10の出力から、その出力を表すルール(条件)等を抽出することは難しい場合が多い。例えば予測モデル10の出力が示す予測結果の分布等を見ただけでは、その予測結果に当てはまるデータの条件等を解釈することは難しい。
 要約モデル11は、このように複雑な出力を要約(近似)したルール群を生成する。ここで、ルール群とは、予測モデル10の出力を説明する少なくとも1つのルールからなるルールの集合を意味する。これらのルールは、例えばユーザが解釈可能な条件等を用いて記述される。これにより、複雑な出力であっても、その内容を容易に解釈することが可能となる。以下では、予測モデル10の出力を説明するルールを、出力ルールと記載する。
 モデルの評価を行うステップは、予測モデル10による予測処理が、所定の基準を満たしているかどうかを確認するステップである。データ分析装置100では、要約モデル11により生成されたルール群、すなわち予測モデル10の出力を要約したルール群に基づいて、予測モデル10の出力についての評価が行われる。
 所定の基準には、法令の定める基準が含まれる。例えば会社に面接に来た人を採用するか否かを予測するといった場面では、予測モデル10の出力(ルール群)が、雇用機会均等法等の定める基準に従ってルール群が評価される。
 また所定の基準には、ユーザの定める基準が含まれてもよい。例えば面接者の採用を予測する場面であっても、会社の状況(従業員の男女構成や年齢構成等)によっては、法令の定める基準をそのまま用いないほうが好ましい場合もあり得る。このような場合には、ユーザが状況に応じて設定した基準(ユーザの判断等)に従ってルール群が評価されてもよい。
 データ分析装置100では、所定の基準に従ってルール群(出力ルール)を評価した情報が生成される。ルール群を評価した情報には、例えば各出力ルールが所定の基準を満たしているか否かの判定結果や、出力ルールが所定の基準から外れている度合等を示す情報が含まれる。
 また、各出力ルールが所定の基準を満たしているか否かの判定は、ユーザによって行われてもよいし、データ分析装置100(後述する説明生成部24)によって自動的に行われてもよい。
 以下では、所定の基準に従ってルール群を評価した情報を評価情報と記載する。評価情報は、予測モデル10の出力が所定の基準を満たしているかどうかを示す情報であると言える。
 予測モデル10を調整するステップでは、評価情報に基づいて予測モデル10の学習処理が調整される。具体的には、予測モデル10の出力が所定の基準を満たすように、すなわち予測モデル10の出力から所定の基準を満たさない出力ルールが抽出されなくなるように、予測モデル10の学習処理が調整される。このように学習処理の調整を繰り返すことで、所定の基準を満たす予測モデル10を構築することが可能となる。学習処理を調整する方法については、後に詳しく説明する。
 例えば、予測モデル10の出力が所定の基準を満たさない状態では、予測モデル10による予測に倫理的な問題が存在する場合や、公平性を欠く場合がある。例えば性別や年齢によって採用率等の予測値が偏るような予測モデル10は、倫理違反に該当する可能性がある。
 データ分析装置100では、「予測モデル10」と予測モデル10を要約する「要約モデル11」の二つの学習モデルが用意され、「要約モデル11」を用いて「予測モデル10」の出力に倫理的な問題があるかどうかがチェックされる。そしてチェック結果を用いて、「予測モデル10」が調整される。従ってデータ分析装置100を使用することで、予測モデル10に倫理的な問題等がないかを確認し、問題があればそれを修正することが可能となる。
 これにより、予測モデル10のアルゴリズムを理解していないユーザであっても、予測モデル10の出力に倫理的な問題等がないかを容易に確認することが可能となる。
 また、予測モデル10の出力の中で倫理的な問題等がある部分について、要約モデル11を通じて予測モデル10の出力を修正することが可能となる。
 さらに、予測モデル10に倫理的な問題等が含まれていないかを自動的にチェックすることが可能となり、ユーザが気付かない問題点等も修正することが可能となる。
 この結果、必要な基準を満たす予測モデル10を容易に構築することが可能となる。
 図2は、データ分析装置100の構成例を示すブロック図である。データ分析装置100は、表示部12、操作部13、通信部14、記憶部15、及び制御部16を有する。
 表示部12は、各情報を表示するディスプレイであり、例えば上記したGUI画面等を表示する。表示部12としては、例えば液晶ディスプレイ(LCD:Liquid Cristal Display)や有機EL(Electro-Luminescence)ディスプレイ等が用いられる。表示部12の具体的な構成は限定されず、例えば操作部13として機能するタッチパネル等を搭載したディスプレイ等が用いられてもよい。また表示部12としてHMD(Head Mounted Display)が用いられてもよい。
 操作部13は、ユーザが各種の情報を入力するための操作装置を含む。操作部13としては、例えばマウス、キーボード、トラックパット等の情報入力が可能な装置が用いられる。この他、操作部13の具体的な構成は限定されない。例えば操作部13として、タッチパネル等が用いられてもよい。また操作部13として、ユーザを撮影するカメラ等が用いられ、視線やジェスチャによる入力が可能であってもよい。
 通信部14は、他の装置とデータ分析装置100との通信処理を行うモジュールである。通信部14は、例えばWi-Fi等の無線LAN(Local Area Network)モジュールや、有線LANモジュールにより構成される。この他、Bluetooth(登録商標)等の近距離無線通信や、光通信等が可能な通信モジュールが用いられてよい。
 記憶部15は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等が用いられる。記憶部15は、学習データベース17と、ルールデータベース18とを記憶する。また記憶部15は、データ分析装置100の記憶部として機能し、制御部16が実行するプログラム等を記憶する。
 図3は、学習データベース17の一例を示す表である。学習データベース17は、予測モデル10の学習(トレーニング)を行うための学習データ1が格納されたデータベースである。
 図3に示す例では、過去に採用判定を行った採用希望者に関する人事データが、学習データ1として用いられる。
 各学習データ1には、それぞれ、採用希望者のID、応募期間、年齢、性別、ランク、雇用タイプ、希望年収、転職回数、メール登録の有無、資格の有無、採用担当者、及び採用判定の結果の各項目が含まれる。
 例えば採用するか否かを判定する予測モデル10を学習させる場合、採用判定の結果が、学習するべき対象項目となる。また、予測モデル10の対象項目(採用判定の結果)以外の項目は、それぞれ予測モデル10の学習に用いられるパラメータとなる。
 学習データベース17は、このような学習データ1の集合であり、例えばCSV形式のデータとして記録される。この他、学習データ1の形式等は限定されない。
 図4は、ルールデータベース18の一例を示す表である。ルールデータベース18は、法令に関する情報や一般的な倫理観等の他のルール(以下、評価ルールと記載する)に関する情報が格納されたデータベースである。
 本実施形態では、法令や評価ルールは、所定の基準の一例である。またルールデータベースは、所定の基準に関するデータベースに相当する。
 図4に示すように、ルールデータベース18には、ルール名、ルール分野、問題設定、注意する項目、比較方法、比較領域、領域の詳細(領域A、領域B、・・・)等の項目が含まれる。ルールデータベース18は、例えばCSV形式等の表データとして構成される。
 ルール名の項目には、法令や評価ルール等の名前、及びその説明等が入力される。
 ルール分野の項目には、ルールが適用される分野(例えば人事分野・販売分野・保険分野等)が入力される。
 問題設定の項目には、分類・回帰・物体認識等の予測モデル10が解く問題のタイプが記録される。例えば、問題設定の項目に「全て」と入力されている場合、該当する法令等は、予測モデル10のタイプに係わらず守るべきルールであることを意味する。また問題設定の項目に「分類」と入力されている場合、該当する法令等は、予測モデル10が分類問題を解く場合に守るべきルールであることを意味する。
 注意する項目には、法令や評価ルールが規定する対象(例えば年齢、性別等)となる項目が入力される。すなわち、注意する項目は、法令が何に関する事柄を定めているかを指定する項目である。
 比較方法の項目には、注意する項目を比較する方法が入力される。例えば比較方法が「等しく」と入力されていた場合、注意する項目(性別や年齢)について等しく扱われるべきであることを意味する。この場合、性別や年齢ごとに、予測値に偏りがないかを比較することになる。
 比較領域の項目には、比較を行うべき領域が入力される。例えば、注意する項目が年齢であった場合、すべての年齢についての比較、あるいは一部の年齢についての比較を指定する情報が入力される。
 領域の詳細の項目には、注意する項目についてより細かく領域を分割して比較する場合に、領域を分割する情報が入力される。
 ルールデータベース18は、このような法令や評価ルールの集合であり、例えばCSV形式のデータとして記録される。この他、ルールデータベース18の形式等は限定されない。
 図2に戻り、制御部16は、データ分析装置100が有する各ブロックの動作を制御する。制御部16は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有し、本実施形態に係る情報処理装置として機能する。CPUが記憶部15に記憶されているプログラムをRAMにロードして実行することにより、種々の処理が実行される。制御部16としては、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。
 本実施形態では、制御部16のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして、UI生成部20と、予測モデル学習部21と、特性評価部22と、要約モデル学習部23と、説明生成部24と、クエリ生成部25と、調整処理部26とが実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法が実行される。なお、各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
 UI生成部20は、表示部12に表示されるUI画面(表示用インターフェース)を生成する。典型的には、UI生成部20は、予測モデル10を用いた予測分析を行う際に表示されるUI画面等のGUIを生成する。
 UI画面には、例えばユーザに提示するための情報や、ユーザが情報を入力するための入力欄等が表示される。ユーザはUI画面を見ながら、操作部13(キーボード等)を操作して各種の設定や値等を指定することが可能である。
 またUI生成部20は、UI画面を介してユーザが入力した情報や指定した情報を受け付ける。UI画面を介して入力される情報には、例えば、使用する学習データを指定する情報や、予測モデル10を適用する分野(人事、販売、保業界等)、問題設定のタイプ(分類、回帰等)、注意する項目(年齢、性別等)等の情報が含まれる。予測モデル10が生成された後に表示されるUI画面には、後述するチェック項目等が表示される。このチェック項目等に対するチェック結果がUI画面を介して受け付けられる。
 このようにUI生成部20は、画面入力を処理するUI画面上の表示機能や、UI画面を介したデータの入出力機能を実現する。
 予測モデル学習部21は、対象項目を予測する予測モデル10を学習させる。予測モデル10の学習処理は、例えばユーザが指定した対象項目を予測するように設計された学習モデルを、複数の学習データ1を用いて学習させる処理である。
 典型的には、予測モデル10は、特徴項目(天気、曜日、性別、年齢等)と対象項目(予測したい値)とがペアとなった学習データ1を用いて学習を行う機械学習のアルゴリズム(決定木学習やニューラルネットワーク等)を用いて構成される。従って、予測モデル学習部21は、学習データ1の予測値を教師データとして、モデルをトレーニングする教師あり学習を行うともいえる。
 対象項目、予測モデル10に用いるアルゴリズム、使用する学習データ1等は、上記したUI画面等を介して入力される。
 このように、予測モデル学習部21は、予測モデル作成機能を実現する。本実施形態では、予測モデル学習部21は、第1の学習部に相当する。
 本実施形態では、予測モデル10として、対象項目に関する分類を予測値とする分類モデルが用いられる。例えば対象項目が対象者の採用の有無を示す項目である場合、対象者を採用するか否かが予測される。また例えば、対象項目が商品の購入の有無を示す項目である場合、顧客が商品を購入するか否かが予測される。この他、複数の選択肢を含む任意の分類問題を解くことが可能な予測モデル10が用いられてよい。
 また予測モデル10として、対象項目の値を予測値とする回帰モデルが用いられてもよい。例えば対象項目が対象者の勤続年数である場合、対象者に期待される勤続年数が予測される。また例えば対象項目がサービスの退会日である場合、顧客がサービスを退会すると想定される退会日等が予測される。
 なお、予測モデル10に用いられる機械学習のアルゴリズム等は限定されず、例えば処理内容に応じた任意のアルゴリズムが適宜用いられてよい。アルゴリズムの種類等に係らず、本技術は適用可能である。
 予測モデル10を初めて生成する場合や、予測モデル10に倫理的な問題等がないと評価された場合には、予測モデル学習部21は、学習データ1に記録された正解を当てるような予測モデル10をトレーニングする通常の教師あり学習を実行する。
 また、予測モデル10に倫理的な問題がある場合(例えばユーザがルール違反や倫理違反を指摘した場合等)には、予測モデル10の学習処理が調整される。具体的には、予測モデル学習部21は、後述する調整処理部26により生成される調整指示に従って、学習処理に使用する学習データ1や、アルゴリズムごとに設定される学習パラメータ等を変更して、再度予測モデル10を学習させる。
 予測モデル学習部21には、予測モデル10に渡す学習データ1や設定データ、調整処理部26により生成される調整指示が入力される。また、予測モデル学習部21からは、作成済みの予測モデル10が出力される。
 特性評価部22は、予測モデル10の特性を評価する。具体的には、予測モデル10の性能や予測の傾向等を示す評価指標を算出する。
 例えば、予測モデル10が分類モデルである場合には、予測値の正解率や正確度等が評価指標として算出される。また予測モデル10が回帰モデルである場合には、予測値の誤差平均、二乗誤差等が評価指標として算出される。評価指標の種類は限定されず、例えば予測モデル10のアルゴリズムの種類に応じた評価指標が適宜算出されてもよい。
 特性評価部22には、作成済みの予測モデル10が入力される。また、特性評価部22からは、各種の評価指標等が出力される。
 なお、予測モデル10の評価指標は、例えばUI画面に表示され、ユーザに提示される(図9及び図10参照)。これにより、ユーザは予測モデル10の性能を把握することが可能となる。
 要約モデル学習部23は、予測モデル10の出力をユーザが解釈可能な形式で記述されたルール群に変換する要約モデル11を学習させる。
 図1を参照して説明したように、要約モデル11は、ルール群として、予測モデル10の出力を説明する少なくとも1つの出力ルールを出力する学習モデルである。
 要約モデル学習部23には、作成済みの予測モデル10が入力される。また要約モデル学習部23からは、作成済みの要約モデル11が出力される。
本実施形態では、要約モデル学習部23は、第2の学習部に相当する。
 図5は、要約モデル11について説明するための模式図である。ここでは、予測モデル10として分類モデルが用いられるものとし、分類モデルの出力を要約する要約モデル11について説明する。
 図5Aは、予測モデル10に入力されるデータ(学習データ1等)の真の正解の分布を示すマップである。このマップでは、分類するべき項目が、カテゴリーα(マップの下側の濃いグレーの領域)と、カテゴリーβ(マップの上側の薄いグレーの領域)とに分類される。またマップの横軸及び縦軸は、分類するべき項目に関連する第1のパラメータ及び第2のパラメータである。なお3以上のパラメータが設定されてもよい。
 一例として、対象者を採用するか否かを予測する予測モデル10(分類モデル)が用いられる場合を例に説明する。この時、カテゴリーα及びβは、対象者を採用する場合及び採用しない場合を表すとする。また、マップの横軸(第1のパラメータ)は、対象者の年齢を表し、マップの縦軸(第2のパラメータ)は、対象者が希望する年収を表すとする。
 この場合、図5Aに示すマップでは、例えば希望する年収が十分に高い場合には、年齢に係りなく、対象者は採用されない。また年齢が十分に高い場合には、希望する年収が比較的高くても、対象者が採用される。
 予測モデル10は、例えばこのような真の正解が表す分布を、第1のパラメータや第2のパラメータ等に基づいて予測可能となるようにトレーニングされる。
 図5Bは、予測モデル10の予測結果(出力)の分布を示すマップである。マップ上の矩形状に区切られた領域は、第1及び第2のパラメータに関する条件を用いて記述される条件領域2である。例えば第1及び第2のパラメータの範囲を指定することで、1つの条件領域2を指定することになる。
 図5Bに示すように、実際の予測モデル10では、多数の条件領域2ごとに、カテゴリーα及びβに分類する予測処理が行われる。すなわち、各条件領域2は、カテゴリーα又はカテゴリーβのどちらかに分類される。従ってカテゴリーの異なる条件領域2の境界は、予測モデル10が分類を行う際の決定境界となるともいえる。ここで、決定境界とは、予測を変化させる判断基準となる面である。例えば採用予測の場合ならば採用・不採用の分かれ目が決定境界となる。
 このように実際の予測モデル10では、条件領域2が十分に細かいため、図5Aに示す真の正解の分布を高精度に再現することが可能である。一方で、各パラメータに関する条件が複雑になりすぎて、どの領域のどのデータがどのカテゴリーに分類されるのかといった情報を解釈することが難しくなる。
 図5Cは、要約モデル11の出力の分布を示すマップである。要約モデル11は、予測モデルになるべく近い出力をするように学習される。この結果、要約モデル11の出力は、予測モデル10の条件領域2を近似した、より広い領域(データ範囲)をカバーする条件領域2となる。この近似された各条件領域2が、予測モデル10の出力を解釈可能に説明する出力ルール4に対応する。
 例えば図5Cでは、カテゴリーαに分類される領域が、4つの条件領域2(出力ルール4)で表されている。これにより、例えば予測モデル10の出力を、第1及び第2パラメータの範囲で記述された4種類の条件として記述することが可能となる。
 以下では、出力ルール4が指定する条件領域2のことを、単に出力ルールが指定する領域といった記載をする場合がある。本実施形態では、条件領域は、データ範囲に相当する。
 このような要約モデル11を構成する方法としては、決定木やルールフィット(Rule Fit)等のアルゴリズムを用いる方法が挙げられる。すなわち要約モデル11は、決定木、又はルールフィットの少なくとも一方のアルゴリズムを用いた学習モデルである。
 決定木やルールフィットを用いることで、複雑な予測モデル10の出力を簡単な条件(出力ルール4)で記述することが可能となる。
 また要約モデル学習部23は、予測モデル10の出力を評価するための所定の基準に応じた要約モデル11を学習させてもよい。例えば、所定の基準が年齢に関する基準を設けた法令等である場合、年齢をパラメータとして記述された出力ルール4を生成するように、要約モデル11が構成される。この場合、例えば年齢の範囲を指定する条件と他のパラメータ(性別や希望年収等)で記述された条件とを組み合わせた出力ルール4等が生成される。
 これにより、予測モデル10の出力が、所定の基準を満たしているか否かの判定等を容易に行うことが可能となる。
 この他、要約モデル11の具体的な構成は限定されず、例えば予測モデル10に用いられるアルゴリズム等に応じて、その出力を要約可能な任意のアルゴリズムが用いられてよい。
 図2に戻り、説明生成部24は、要約モデル11が生成した各出力ルール4(ルール群)を説明する情報を生成する。
 また、説明生成部24は、所定の基準に従ってルール群を評価した評価情報を取得する。本実施形態では、説明生成部24は、評価部に相当する。
 具体的には、説明生成部24は、出力ルール4の各々に関する説明文を生成する。説明文は、UI生成部20によりUI画面に表示される。
 要約モデル11として例えば決定木のアルゴリズム等を使用する場合、予測モデル10の出力ルール4は複数の単純な規則の集合として記述可能となる。説明生成部24は、このような規則の集合を表す説明文を生成する。
 例えば、出力ルール4として、性別の項目が「男性」であり、年齢の項目が「45歳以上」であり、資格の項目が「資格保持」であるという条件を満たした場合に、対象者を採用するといった規則が生成されたとする。この場合、説明生成部24は、「男性であり、かつ45歳以上であり、かつ資格を持っている対象者を採用する」といった説明文を生成する。
 このような説明文が例えば出力ルール4ごとに生成される。
 また出力ルール4の各々に関する図表が生成されてもよい。例えば上記のような性別、年齢、資格等に関する条件の内容を、図3等を参照して説明したマップ上に画像として図示してもよい。これにより、直観的にわかりやすい出力ルール4の説明が可能となる。あるいは、各項目に関する条件を示す表等が生成されてもよい。これにより、例えば複数の出力ルール4の違いを容易に把握することが可能となる。
 この他、説明生成部24は、予測モデル10を要約した要約モデル11で使用するアルゴリズムに応じて、様々な形式で出力ルール4を説明する情報を生成することが可能である。
 本実施形態では、説明生成部24は、出力ルール4の各々について、所定の基準を満たしているか否かをユーザにチェックさせるチェック項目を生成する。チェック項目には、例えば、該当する出力ルール4が所定の基準を満たしているか否かをユーザが判断できるように生成された説明文等が用いられる。生成されたチェック項目は、UI生成部20に出力され、UI画面に表示される。
 チェック項目は、例えばユーザが指定した注意するべき項目等を対象にして生成される。すなわちユーザが指定した項目が所定の基準を満たしているか否かを判断できるような説明文等を用いてチェック項目が生成される。
 またルールデータベースに基づいて各出力ルール4が所定の基準を満たしているか否かを判定した上で、チェック項目が生成されてもよい。この場合、例えば説明生成部24が所定の基準を満たしていないと判定した出力ルール4について、ユーザに確認を求めるチェック項目が生成される。チェック項目を生成する方法については、後に詳しく説明する。
 また説明生成部24は、チェック項目に対するユーザのチェック結果を読み込む。このチェック結果は、所定の基準に従ってルール群を評価した評価情報の一例である。
 例えば、ある出力ルール4について、ユーザが所定の基準を満たしていないと判断し、そのチェック項目5にチェックを入れたとする。この場合、チェックされた出力ルール4は、所定の基準を満たさない違反ルールとなる。従って、評価情報には、違反ルールであるとユーザが判断した出力ルール4を指定する情報が含まれる。
 この他、説明生成部24は、評価情報として、違反ルールが満たしていない法令等を指定する情報や、違反ルールが基準から外れている度合等を示す情報を、違反ルールと関連付けて生成する。このように、評価情報には、所定の基準を満たさない出力ルール4である違反ルールに関する情報が含まれる。
 このように、説明生成部24には、作成済みの要約モデル11、ユーザが指定した注意すべき項目に関する情報、あるいは、ルールデータベースから取得した法令等に関する情報が入力される。また、説明生成部24からは、ユーザに提示する出力ルール4の説明文(チェック項目)や、各出力ルールについての評価情報が出力される。
 クエリ生成部25は、ルールデータベース18に対して予測モデル10を評価するために必要な法令等の情報を問い合わせるクエリを生成する。クエリは、予測モデル10が守るべき法令等を集めるためのコマンドであるとも言える。
 例えば、ユーザがUI画面を介して、予測モデル10を適用する分野、問題設定のタイプ、注意する項目の情報に基づいて、クエリが生成される。あるいは、要約モデル11が生成した出力ルール4等に応じて、参照するべき法令等を問い合わせるクエリが生成されてもよい。
 クエリ生成部25には、作成済みの要約モデル11、ユーザが指定した注意すべき項目等の情報が入力される。またクエリ生成部25からは、法令等を問い合わせるクエリが出力される。
 例えば、採用を予測する予測モデル10において、年齢・性別に関する法令等を調べる場合、以下のようなクエリが生成される。
 クエリ:(分野=人事、問題設定=分類、注意する項目=(年齢、性別))
 もちろん、クエリの形式等は限定されない。
 このようなクエリが、ルールデータベース18に入力されると、ルール分野の項目が「人事」であり、問題設定の項目が「分類」又は「全て」であり、注意する項目が「年齢」又は「性別」となっているルールが取得される。例えば図4では雇用機会均等法と女性活躍推進法に関する情報が取得される。
 このように、ルールデータベース18には、法令等を問い合わせるクエリが入力される。また、ルールデータベース18からは、クエリの指定に該当する法令等の情報が出力される。
 調整処理部26は、評価情報に基づいて予測モデル10の学習処理を調整する。より詳しくは、調整処理部26は、評価情報に基づいて予測モデル10を調整するための調整指示を生成することで、予測モデル10の学習処理を調整する。本実施形態では、調整処理部26は、調整部に相当する。
 予測モデル10を調整する方法としては、例えば学習データ1や、学習パラメータを調整する方法が挙げられる。例えば学習データ1を調整する場合、対象となる学習データ1を指定する情報や、その学習データ1の扱い方法を示す情報等が調整指示として生成される。また例えば学習パラメータを調整する場合、対象となる学習パラメータを指定する情報や、その学習パラメータの調整量を示す情報等が調整指示として生成される。
 これらの調整指示は、例えば、評価情報が指定する違反ルールがなくなるように、違反の内容等に応じて設定される。
 このように、調整処理部26には、説明生成部24から出力された評価情報が入力される。また調整処理部26からは、予測モデル10を調整するための調整指示が出力される。
 なお、調整処理部26は、例えば予測モデル学習部21の一部として構成されてもよい。すなわち、予測モデル学習部21が、評価情報に基づいて予測モデル10の学習処理を調整するといった構成も可能である。
 図6は、データ分析装置100の基本的な動作の一例を示すフローチャートである。図6に示す処理は、例えばユーザが予測モデル10を完成させるまでに実行される処理である。
 以下では、予測モデル10として、対象者を採用するか否かを予測する分類モデルを例に挙げて、データ分析装置100の基本的な動作について説明する。もちろん、予測モデル10の種類や対象等に係わらず、以下の説明は適用可能である。
 UI画面を介して入力された学習データ1及び設定項目に関する情報が読み込まれる(ステップ101)。
 図7は、予測モデル10に用いる学習データ1を指定するUI画面の一例である。図7に示すUI画面は、例えばユーザが予測モデル10の生成を開始する際に表示される開始画面である。
 開始画面には、作成する予測モデル10の名称を入力するための「モデル名」の入力欄と、予測モデル10についての説明を入力するための「説明」の入力欄が設けられる。
 また開始画面には、予測モデル10の学習に用いられる学習データ1(学習データベース17)を指定するための「学習データ設定」の入力欄が設けられる。ここでは、学習データ1として、CSV形式か、TSV形式のファイルを指定する旨が指示される。例えば、学習データ1として用いるファイルを開始画面上にドラッグする、あるいはフォルダツリーから選択することで、使用する学習データ1が指定される。
 各入力欄に必要な情報を入力した後で、決定ボタンを押すと、モデルの名称や、学習データ1が読み込まれる。
 図8は、予測モデル10に関する各種の設定を入力するUI画面の一例である。
また図8に示すUI画面は、開始画面を介した入力操作の後に表示され、予測モデル10の設定を行うための設定画面である。設定画面は、例えば開始画面を介して指定された学習データ1の項目等に基づいて生成される。
 図8に示すように、設定画面には、複数の設定欄が設けられる。
 「予測ターゲット」の設定欄では、予測モデル10の予測対象(対象項目)を指定することが可能である。ここでは、学習データ1の「採用結果」(図3参照)の項目を対象項目とする「採用判定」が、予測ターゲットとして指定される。
 「予測タイプ」の設定欄では、予測モデル10のタイプを指定可能である。ここでは、「二値分類」、「多値分類」、「数値予測」(回帰予測)の項目が選択可能に表示される。採用判定では、二値分類が予測モデル10のタイプとして選択される。
 「予測モデルを使用する場面」の設定欄では、予測モデル10が適用されるシーン等を指定可能である。ここでは、「需要予測」、「人事・採用」、「経済・金融」、「価格・販売価格」、「個人情報を含んでいる」等の項目が選択可能に表示される。採用判定では、「人事・採用」及び「個人情報を含んでいる」の項目が選択される。
 「入力項目」の設定欄では、学習データ1に含まれる項目のうち、予測モデル10の学習に用いる項目を指定可能である。ここでは、図3に示す学習データ1の各データ項目が、選択可能に表示される。また各データ項目のデータタイプや、ユニーク数等が表示される。
 また、「入力項目」の設定欄には、「注意する項目」を指定する欄が設けられる。「注意する項目」とは、例えば法令等の規制の対象となっている項目や、倫理的に問題が生じやすいセンシティブな項目である。
 例えば「注意する項目」として指定されたデータ項目は、ルールデータベース18に問い合わせを行うクエリを生成する場合、あるいは出力ルール4のチェック項目を生成する場合等に適宜参照される。採用判定では、「注意する項目」として、「年齢」及び「性別」の項目が選択される。
 なお、「予測モデルを使用する場面」や「注意する項目」は入力されなくてもよい。
 各設定欄に必要な情報を入力した後で、学習及び評価を実行する実行ボタンを押すと、予測モデル10の学習処理等が開始される。
 UI画面を介したユーザの入力操作が完了すると、予測モデル10を学習させる学習処理が実行される(ステップ102)。
 例えば「予測タイプ」の設定欄で指定された予測モデル10のタイプに応じて、適切な機械学習のアルゴリズムが選択され、当該アルゴリズムを用いて学習モデルが構成される。そして「予測ターゲット」の設定欄で指定された対象項目を学習するように、ユーザが指定した学習データ1を用いた学習モデルのトレーニングが実行される。このトレーニングされた学習モデルが作成済みの予測モデル10となる。
 本実施形態では、特性評価部22により、作成済みの予測モデル10の特性が評価される。この特性評価は、予測モデル10が生成されたタイミングで行われてもよいし、後述する評価画面等を表示するタイミングで行われてもよい。
 図9は、予測モデル10の特性を表示する評価画面の一例である。
 図9に示す評価画面には、作成済みの予測モデル10の予測精度のレベルを示す「予測精度レベル」と、「項目の寄与度」とが表示される。
 「予測精度レベル」には、予測モデル10の性能を示す評価指標として、例えばROC(Receiver Operating Characteristic)曲線のAUC(Area Under the Curve)が表示される。AUCは、分類モデルの分類精度を示す指標である。
 また「項目の寄与度」には、分類に影響した項目ごとの寄与度を示す棒グラフが表示される。これにより、例えば採用するという分類に影響した項目や、採用しないという分類に影響した項目を、項目間で比較することが可能となる。
 図10は、予測モデル10の特性を表示する評価画面の他の例である。
 図10には図9に示す寄与度の詳細を示す評価画面が示されている。
 この評価画面の左側には、図9と同様の棒グラフが項目ごとに表示される。この項目を選択すると、その項目の寄与度の構成が評価画面の右側に表示される。
 例えば「年齢」の項目が選択されたとする。この場合、採用するという分類(又は採用しないという分類)について、年齢の範囲ごとの寄与度が表示される。例えば図10では、採用するという分類に対して、45歳から50歳までの年齢で指定される学習データ1が最も寄与度が高い。
 このように、寄与度の詳細等を分析してユーザに表示してもよい。
 図6に戻り、予測モデル10の学習処理が完了すると、要約モデル11を学習させる学習処理が実行される(ステップ103)。
 要約モデル11は、例えば予測モデル10による予測値を正解データとして、予測モデル10に近い出力が得られるように学習される。
 例えば決定木やルールフィット等のアルゴリズムを用いて学習モデルが構成される。そして作成済みの予測モデル10による予測値を正解データとして、学習モデルのトレーニングが実行される。このトレーニングされた学習モデルが作成済みの要約モデル11となる。
 これにより、図5Cを参照して説明したように、予測モデル10の複雑な出力を、ユーザが解釈可能な形式で記述されたルール群(出力ルール4)が生成される。
 要約モデル11の学習処理が完了すると、予測モデル10の出力に関するチェック項目5が表示される(ステップ104)。
 まず、要約モデル11により生成された出力ルール4ごとに説明文が生成される。そして説明文を用いて、各出力ルール4をチェックするためのチェック項目が生成される。
 説明文を作成する方法の一例として、出力ルール4を構成するルール(条件)の集合から、ユーザが「注意する項目」に指定した項目を省いたルールが作成される。そして「注意する項目」を省いたルールがどのような出力になるのかを説明する説明文が作成される。
 例えば、「男性、かつ45歳以上、かつ資格ありであるならば採用する」という出力ルール4が抽出されたとする。この時「注意する項目」として性別が指定されていた場合、出力ルールの説明文として、「45歳以上かつ資格ありに該当する人で、男性はX%・女性はY%採用するべきという予測をするモデルです」といった説明文を生成する。
 これは、ユーザが注意するべき項目(性別)を対象として、出力ルール4を説明した説明文である。このような説明文を用いて、出力ルール4のチェック項目が生成される。
 このように、本実施形態では、予測モデル10の学習データ1に含まれる複数のデータ項目のうち、ユーザが指定したデータ項目(「注意する項目」)を対象とするチェック項目が生成される。
 なお、図5Cを参照して説明したように、各出力ルール4は、予測モデル10の出力の分布を分割する条件領域2に対応している。従って、このように説明文を作成することは、各条件領域2における注意するべき項目の分布(性別ごとの割合等)についての説明を出力する処理であるともいえる。
 これにより、例えば性別に注意するべき場合には、性別ごとに採用されている割合を説明した上で、このルールが法令等に違反していないかどうかといったことをユーザに確認させることが可能となる。
 図11は、出力ルール4についてのチェック画面の一例である。
 図11Aは、出力ルール4に対応する条件領域2が描画されたマップの表示例である。図11Bは、出力ルール4に関するチェック項目5の表示例である。図11Cは、図11Bに示すチェック項目5がチェックされた場合の表示例である。
 出力ルール4についてのチェック画面には、例えば図11Aに示すマップと、図11Bに示すチェック項目5とが同時に表示される。なお、条件領域2が描画されたマップは、必ずしも表示されなくてもよい。
 図11Aに示すマップは、採用判定を行う予測モデル10により出力された採用判定率を示すヒートマップである。マップの横軸は、転職回数であり、縦軸は年齢である。このマップでは、グレーが濃いほど、採用判定率が低い。
 また図11Aでは、予測モデル10の出力を説明する出力ルール4(図中の条件1~3)が、条件領域2として図示されている。各出力ルール4は、転職回数の数値範囲及び年齢の数値範囲で示される条件として記述される。
 このように、各出力ルール4(条件1~3)を条件領域として図示することで、ユーザは、各出力ルール4と採用判定率との対応関係を容易に把握することが可能となる。
 図11Bには、条件1~3と記載された出力ルール4についての説明文がチェック項目5として表示されている。条件1は、45歳以上の応募者は8割がた採用すべきという条件であり、条件2は、転職回数が3回以上の30~45歳は採用すべきでないという条件であり、条件3は、30歳以下は採用すべきという条件である。
 この画面では、これらの条件(出力ルール4)について、倫理的に問題があるか否かをチェックする旨の指示が記載される。
 またチェック項目5の下側には、問題がないことを確認する確認ボタン30と、予測モデル10の調整を開始するための調整開始ボタン31とが設けられる。例えばチェックされた条件がない状態では、確認ボタン30がハイライトされる。
 例えば、ユーザが、条件2で指定される対象者について過度に採用率を下げていると判断したとする。この場合、図11Cに示すように、条件2のチェックボックスがチェックされ、条件2で示される出力ルール4は、所定の基準を満たしていない、すなわち倫理的に問題のあるルールとして指定される。またチェックボックスがチェックされると、調整開始ボタン31がハイライトされる。
 調整開始ボタン31を押すと、例えば採用判定率が均等となるように予測モデル10を調整する処理が開始される。
 このように、ユーザが解釈可能なように出力ルール4を表示することで、予測モデル10の出力が倫理違反している領域等を容易に確認することが可能である。
 なお、チェック画面に表示する内容等は限定されない。例えば、予測モデル10の学習パラメータを調整するための調整値等が入力可能であってもよい。
 図11に示す例では、各出力ルール4が所定の基準を満たしているか否かを判断する場合について説明した。説明生成部24は、ルールデータベース18に基づいて、出力ルール4が所定の基準を満たしているか否かを判定することも可能である。
 以下では、ルールデータベース18にある法令等の確認を、ユーザに促す説明文(チェック項目5)を作成する方法について説明する。
 例えばクエリ生成部25により生成されたクエリにより、予測モデル10を評価するために必要な法令等の情報がルールデータベース18から読み込まれたとする。この場合、説明生成部24は、ルールデータベース18から読み込まれた法令等のルールに関する比較方法と比較領域に従って予測モデル10の出力(又は要約モデル11の出力)を比較する。
 例えば、採用判定を行う予測モデル10を評価する法令として、「雇用機会均等法」の定めるルールがルールデータベース18から出力されたとする。また「注意する項目」として性別が設定されていたとする。
 「雇用機会均等法」の性別に関するルール(図4の表の1列目に記載されたルール)には、性別に関して、比較方法=「等しく」、比較領域=「全領域」とする旨が記載されている。説明生成部24では、例えば、評価対象となる出力ルール4が指定する学習データ1について、男性及び女性ごとの採用判定率が比較される。すなわち、予測モデル10の出力を男性の学習データ1の出力と女性の学習データ1の出力とに分けた時、男性・女性の採用すべき確率が「等しく」なっているかが確認される。
 確率が等しくない場合、対象となっている出力ルール4は、雇用機会均等法の定めるルール(基準)を満たしていないものと判定され、ユーザに確認を促す説明文が生成される。
 具体的には、「この条件では、男性はX%、女性はY%で採用しますが、[雇用機会均等法]の観点からこれは正しいですか?」といった説明文を含むチェック項目5が生成される。
 このように、説明生成部24は、所定の基準を満たさないと判定された出力ルール4について、当該出力ルール4が所定の基準を満たしているか否かをユーザにチェックさせるチェック項目5を生成する
 図12は、出力ルール4についてのチェック画面の他の例である。図12には、法令や倫理的な問題の可能性を自動で検出した際のチェック画面が示されている。
 図12Aは、説明生成部24により所定の基準を満たさないと判定された出力ルール4に対応する境界線6が描画されたマップの表示例である。図12Bは、出力ルール4に関するチェック項目5の表示例である。図12Cは、予測モデル10の調整方法を選択するための選択画面の表示例である。
 出力ルール4についてのチェック画面には、例えば図12Aに示すマップと、図12Bに示すチェック項目5とが同時に表示される。また図12Cに示す選択画面は、ユーザが予測モデル10の調整を選択した場合に表示される。
 例えば、採用判定を行う予測モデル10は、人事関係の業務に利用することから、図8に示す設定画面から、「予測モデルを使用する場面」として、人事・採用の項目がチェックされる。この結果、ルールデータベース18内の人事・採用分野の法令が確認され、予測モデル10の出力が法令の定める基準を満たしているか否かが判定される。
 図12に示すチェック画面は、35歳を境にして採用判定率に不自然な分布の偏りが見られたために、ユーザに確認を促すための画面である。図12Aには、採用判定率が変化する境界線6が図示されている。この境界線6は、例えば出力ルール4を示す条件領域2等の境界として検出可能である。
 図12Bには、この境界線6に関する説明文がチェック項目5として表示されている。この説明文には、年齢が35歳以上かどうかで予測モデル10の出力の結果が変化するという予測モデル10の特性について記載される。また説明文には、この特性が、全年齢に均等に雇用機会を設けることを定めた「XXX法」(人事・採用分野の法令)に違反していないかどうかの確認を促す説明が記載される。
 また説明文の下側には、問題がないことを確認する確認ボタン30と、予測モデル10の調整を開始するための調整開始ボタン31とが設けられる。
 例えば、ユーザが、上記した予測モデル10の特性について「XXX法」を確認し、違反していると判断したとする。この場合、調整開始ボタン31押すことで、採用判定率が年齢に係わらず均等となるように予測モデル10を調整する処理が開始される。
 このように、ルールデータベース18に基づいて、予測モデル10の出力(出力ルール4)を判定することで、例えばユーザが気付いていない問題点等を指摘することが可能となる。
 調整開始ボタン31を選択すると、図12Cに示すような選択画面が表示される。選択画面には、採用判定率を均等に調整する方法として、35歳以下の採用率を上げる調整方法と、35歳以上の採用率を下げる調整方法とが選択可能に表示される。
 また調整方法の下側には、問題がないことを確認する確認ボタン30と、予測モデル10の調整を開始するための調整開始ボタン31とが設けられる。
 例えば、35歳以上の採用率を下げる調整方法が用いることで、全体の採用判定率を低く調整することが可能となる。逆に35歳以下の採用率を上げる調整方法が用いることで、全体の採用判定率を高く調整することが可能となる。
 ユーザはいずれかの調整方法のチェックボックスをチェックして、調整開始ボタンを選択することで、選択した調整方法を用いた調整処理を開始することが可能である。
 このように、本実施形態では、予測モデル10の出力に関する複数の調整方法が選択可能に提示される。そして、複数の調整方法のうち、ユーザにより選択された方法に基づいて予測モデル10の学習処理が調整される。
 これにより、予測モデル10を適用する状況等に合わせた調整を行うことが可能となる。
 図6に戻り、チェック画面を介したユーザの入力操作が完了すると、チェック項目5に対するチェック結果が読み込まれる(ステップ105)。そして、チェック結果に基づいて、予測モデル10の出力に所定の基準を満たさない領域(データ範囲)、すなわち違反ルールが存在するか否かが判定される(ステップ106)。
 例えば図11Bに示すチェック項目5(条件1~3)のいずれかがチェックされている場合や、図12Bに示す調整開始ボタン31が選択された場合には、所定の基準を満たさない領域が存在すると判定される(ステップ106のYes)。
 また、例えば全てのチェック項目5がチェックされなかった場合、予測モデル10の出力の全ての領域が法令等に違反していないとして、所定の基準を満たさない領域は存在しないと判定され(ステップ106のNo)、予測モデル10を作成する処理が完了する。
 所定の基準を満たさない領域が存在する場合、調整処理部26により、その領域に対応する学習データ1が抽出される(ステップ107)。具体的には、ユーザが法令等に違反していると判断してチェックを入れた出力ルール4(違反ルール)に合致する学習データ1を指定する情報(学習データ1のID等)が抽出される。
 例えば、転職回数が3回以上であり、かつ年齢が30歳~45歳というルール(図11Bに示す条件2)が違反ルールであると判断された場合には、この条件を満たす学習データ1のIDが読み込まれる。
 違反ルールに合致する学習データ1が抽出されると、調整処理部26により、予測モデル10についての調整指示が生成される(ステップ108)。
 まず、ルール違反している予測値(違反ルールに合致する学習データ1での予測モデル10の出力)とルール違反していない予測値を比較して、ルール違反している予測値がどのようになればルール違反とならないかといったことを示す調整の方針が算出される。
 予測モデル10として、分類モデルが用いられる場合、違反ルールが指定する領域における予測モデル10の予測値が、所定の基準を満たす出力ルール4が指定する領域における予測モデル10の予測値と略一致するように、予測モデル10の学習処理が調整される。
 例えば、「採用する・採用しない」という分類を予測する予測モデル10について、ルール違反している領域とルール違反していない領域のそれぞれに対して、「採用する」と予測した割合(予測値)が算出される。そしてルール違反している領域において「採用する」と予測した割合を、ルール違反していない領域において「採用する」と予測した割合に合わせるという方針が選択される。
 この時、「採用する」と予測した割合が各領域で略一致するように、予測モデル10を調整する度合(調整量等)が算出される。
 次に、ルール違反とならないようにする方針や調整量に従って、予測モデル10についての調整指示が生成される。具体的には、予測モデル10の学習処理を調整する調整方法に応じた調整指示が適宜生成される。予測モデル10(分類モデル)についての調整方法としては、複数の方法が挙げられる。
 予測モデル10についての調整方法として、学習データ1の重み係数を調整する方法が用いられてもよい。
 例えば「採用しない」という予測をする割合が高い違反ルールについて、違反ルールが指定する領域に含まれる学習データ1の重み係数を大きくする。
 これにより、違反ルールが指定する領域において、「採用する」という予測が得られる割合が高くなり、結果的に違反ルール以外の出力ルール4が指定する領域と予測値を略一致させることが可能となる。このような重み係数が調整指示として生成される。
 本実施形態では、重み係数は、学習データに関する予測モデルの出力を調整するパラメータの一例である。
 また例えば、予測モデル10についての調整方法として、予測を判定する際の判定閾値を調整する方法が用いられてもよい。
 例えば「採用する」という予測をする割合が高い違反ルールについて、違反ルールが指定する領域に含まれる学習データ1の各々に対して「採用する」確率を算出し、「採用する」と判定する判定閾値を他の領域よりも高くする。例えば、違反ルール以外の出力ルール4が指定する領域では、予測モデル10が「50%の確率で採用すべき」と出力した場合に「採用する」と判定する。これに対し、違反ルールが指定する領域では、判定閾値を高く設定し、「80%以上の確率で採用すべき」と出力した時のみ「採用する」と判定する。
 これにより、違反ルールが「採用する」という予測をする割合を低くすることが可能となり、結果的に他の出力ルール4が「採用する」という予測をする割合に近づけることが可能となる。このような判定係数が調整指示として生成される。
 本実施形態では、判定閾値は、学習データに関する予測モデルの出力を調整するパラメータの一例である。
 また例えば、予測モデル10についての調整方法として、学習データ1を間引きする方法が用いられてもよい。
 例えば「採用する」という予測をする割合が高い違反ルールについて、違反ルールが指定する領域において「採用する」というラベルが付いた学習データ1を間引きし、データ数が減らされた学習データ1を用いて学習処理が行われる。従って、この調整方法は、違反ルールが指定する領域に含まれる学習データ1のうち違反ルールが所定の基準を満たさない原因となる学習データの数を削減する処理であると言える。
 これにより、違反ルールが「採用する」という予測をする割合を低くすることが可能となり、結果的に他の出力ルール4が「採用する」という予測をする割合に近づけることが可能となる。この場合、間引きされる学習データ1のID等が調整指示として生成される。
 このように、本実施形態では、違反ルールが指定する領域(データ範囲)を基準として、予測モデル10の学習データ1、又は予測モデル10の学習パラメータの少なくとも一方が調整される。これにより、倫理違反等を生じている予測モデル10の出力を適正に調整することが可能となる。
 調整指示が生成されると、ステップ101が再度実行され、予測モデル学習部21により、ルール違反している予測を減らすように予測モデル10を作成しなおす学習処理が改めて開始される。このような処理を繰り返すことで、最終的に法令等に違反しない予測モデル10を構築することが可能となる。
 [回帰モデルの調整方法]
 図13は、回帰モデルが用いられる場合に表示されるチェック画面の一例である。ここでは、予測モデル10として、対象項目の項目値を予測する回帰モデルが用いられる場合の処理について説明する。
 回帰モデルを要約した要約モデル11は、例えば予測モデル10の出力である予測値のマップを複数の領域(データ範囲)に分割するような出力ルール4を生成する。データ分析装置100では、これの出力ルール4が指定する領域ごとに、予測値の分布等が法令等を満たしているか否かが評価される。
 図13には、対象者に期待される勤続年数の予測を行う予測モデル10についてのチェック画面が図示されている。図中の上側に示したグラフは、性別ごとに予測された勤続年数のヒストグラムである。グラフの横軸は、予測された勤続年数であり、縦軸は各勤続年数が予測された人数である。このヒストグラムでは、男性の勤続年数の分布の中心が、女性の勤続年数の分布の中心よりも高い値となっている。
 図中の下側に示した説明文は、勤続年数の予測値の分布に関する確認を促すチェック項目である。
 勤続年数の予測を行う場合、例えば予測モデル10の出力が、男性の学習データ1の出力と女性の学習データ1の出力とに分けて算出される。そして男性・女性の予測勤続年数が「等しく」なるかが確認される。
 勤続年数は数値で表現されるので確率で記述することができない。この場合、図13に示すように、男性と女性の予測勤続年数の分布(ヒストグラム)を算出し、分布を比較するためのパラメータ(例えばHistogram Intersection、KLダイバージェンス、JSダイバージェンス等)を用いて各分布が比較される。
 例えば男性と女性の分布の違いが一定の閾値を超えている場合、そのような分布が算出される領域(出力ルール4)は倫理的に問題がある違反ルールである可能性が高い。このため、データ分析装置100では、「男性と女性の予測値の出力に乖離があるが問題ないですか?」といったチェック項目5が出力される。
 なお、違反ルール以外の出力ルール4が指定する領域、すなわち違反していない領域では、例えば男性と女性の分布が略一致した予測結果が得られる。
 図13に示す例では、「性別」について出力の分布が異なり、「雇用機会均等法」に違反していないかの確認を促す説明文(チェック項目5)が表示される。
 ユーザが分布の違いに問題があると判断した場合、調整開始ボタン31を選択することで、予測モデル10についての調整が開始される。
 予測モデル10として、回帰モデルが用いられる場合、違反ルールが指定する領域における予測モデル10の予測値の分布が、所定の基準を満たす出力ルール4が指定する領域における予測モデル10の予測値の分布と略一致するように、予測モデル10の学習処理が調整される。
 例えば、「勤続年数」を予測する予測モデル10について、ルール違反している領域とルール違反していない領域のそれぞれに対して、予測した「勤続年数」の分布の形が等しくなるような調整が行われる。例えば、ルール違反している領域と、ルール違反していない領域との間の勤続年数に関するKLダイバージェンス(カルバックライブラー距離)等の比較パラメータが算出される。この比較パラメータが小さくなるように、予測モデル10を調整する度合(調整量等)が算出される。
 次に、算出された調整量に従って、予測モデル10についての調整指示が生成される。具体的には、予測モデル10の学習処理を調整する調整方法に応じた調整指示が適宜生成される。予測モデル10(回帰モデル)についての調整方法としては、複数の方法が挙げられる。
 予測モデル10についての調整方法として、予測モデル10の損失関数を調整するパラメータを調整する方法が用いられてもよい。
 一般に予測モデル10は、損失関数の値が小さくなるように学習を行う。従って、例えば違反ルールが指定する領域について、ルールに違反するような予測値を予測した場合に損失関数が大きくなるといったペナルティを設定することで、結果的に、ルールに違反するような予測値が予測される割合を下げることが可能である。
 例えば、勤続年数を過度に長く予測する違反ルールについて、その領域のみ予測モデル10の訓練に用いる損失関数に分位点回帰を設定し、損失関数をシフトさせる。この時、ルール違反する領域で勤続年数を長く予測したときのペナルティを大きくすることで、ルール違反する領域での予測をルール違反していない領域に近づけることが可能である。このような損失関数を調整するパラメータが調整指示として生成される。
 また例えば、予測モデル10についての調整方法として、学習データ1を間引きする方法が用いられてもよい。具体的には、違反ルールが指定する領域に含まれる学習データ1のうち違反ルールが所定の基準を満たさない原因となる学習データ1が間引かれる。
 例えば勤続年数を長く予測をする割合が高い違反ルールについて、違反ルールが指定する領域において勤続年数が長い順に学習データ1を間引きし、データ数が減らされた学習データ1を用いて学習処理が行われる。この場合、間引きされる学習データ1のID等が調整指示として生成される。
 これにより、違反ルールが指定する領域において、勤続年数を過度に長く予測する割合を低下させることが可能となる。
 また例えば、予測モデル10についての調整方法として、本来存在しないダミーの学習データ1(ダミーデータ)を追加する方法が用いられてもよい。
 例えば男性の勤続年数の予測が過度に長い違反ルールについて、男性の勤続年数が短いデータを生成して予測モデル10の訓練に用いる。従って、この調整方法は、違反ルールが指定する領域に所定の基準を満たすように調整されたダミーデータを学習データ1として追加する処理であると言える。
 これにより、違反ルールにおいて予測される勤続年数が短くなり、結果的に他の出力ルール4において予測される勤続年数の分布に近づけることが可能となる。この場合、ダミーデータの情報とともに、ダミーデータを学習データ1に追加する旨の指示が調整指示として生成される。
 このように、予測モデル10として回帰モデルが用いられる場合であっても、倫理違反や公平性に問題があると判定された出力について、容易に調整し、問題を解消することが可能である。
 なお、上記した分類モデルにおける調整方法が、回帰モデルにおける調整方法に適用されてもよいし、逆に回帰モデルにおける調整方法が、分類モデルにおける調整方法に適用されてもよい。また各調整方法は単体で用いられてもよいし、複数を組み合わせて用いられてもよい。また、各調整に用いられるパラメータ(重み係数等)は、違反内容等に応じて算出されてもよいし、あるいはユーザが入力してもよい。この他、予測モデル10についての調整方法は限定されず、例えば違反内容を解消可能な任意の調整方法が用いられてよい。
 以下では、データ分析装置100の適用例ごとに、予測モデル10が構築されるまでの流れについて具体的に説明する。
 [適用例1]
 人事担当者(ユーザ)が、「性別」、「年齢」、「取得している資格」、「転職回数」から採用・不採用を予測する予測モデル10を作成する事例。
 まず、開始画面及び設定画面等が表示され、使用する学習データ1や対象項目等がユーザによって指定される。
 指定された学習データ1等に基づいて学習モデル(例えばニューラルネットワーク)が訓練され予測モデル10が作成される。
 予測モデル10を要約するためのアルゴリズム(例えば複数のルールを組み合わせたモデルを作成するルールフィット等)を用いて要約モデル11が作成され、予測モデル10の出力が複数の出力ルール4の組み合わせとして要約される。
 ここで、要約モデル11から、「年齢が50歳~60歳ならば採用するべき」という出力ルール4が作成されたとする。このとき、注意する項目として設定された性別について、性別ごとに採用すると予測した割合が算出される。
 例えば、上記の出力ルール4において、男性を採用する割合が女性を採用する割合に比べ高かった場合、「年齢が50歳~60歳の場合、男性を過剰に多く採用しているが問題ないか?」といった説明文とともにチェック項目5が生成され、チェック画面に表示される。
 なお、単純に男性及び女性の「採用する」割合を説明する説明文が用いられてもよい。
 ユーザが上記のチェック項目5を見て、出力ルール4が倫理的に違反していると判断した場合、チェック項目5がチェックされ、出力ルール4は違反ルールとなる。
 予測モデル10の調整処理では、違反ルールに該当する学習データ1(年齢が50歳~60歳で、男性に該当するデータ)についての重み付け(重み係数)が軽く設定され、再度予測モデル10の学習処理が実行される。これにより、年齢が50歳~60歳の男性が「採用する」と判定される割合を低くすることが可能となる。
 予測モデル10の再学習が完了すると、要約モデル11を用いて再訓練した予測モデル10を近似する複数の出力ルール4が生成され、各出力ルール4が説明文とともにチェック項目5として表示される。
 全ての出力ルール4について倫理的な問題が無いことがユーザに確認された場合、その時点で最新の予測モデル10が、今後の予測に用いるモデルとして決定される。
 [適用例2]
 人事担当者(ユーザ)が、「性別」、「年齢」、「取得している資格」、「転職回数」から採用・不採用を予測する予測モデル10を作成し、法令等に違反していないかを確認する事例。
 まず、適用例1と同様に、予測モデル10及び要約モデル11が生成される。
 要約モデル11から、「年齢が75歳~90歳の場合、かつ取得している資格に自動車免許が含まれる場合には採用するべきでない」という出力ルール4が作成されたとする。また、ユーザは、この出力ルール4について、倫理的な問題は存在しないと判断したとする。
 この場合、この出力ルール4は、違反ルールではない出力ルール4として読み込まれる。
 この時、データ分析装置100では、以下のようなクエリを生成し、ルールデータベース18に問い合わせを行う。
 クエリ:(分野=人事、問題設定=分類、注意する項目=年齢)
 この結果、問い合わせの条件に該当するルールとして、条件Aが参照され、条件Aには(比較方法の項目=等しく、比較領域=全領域)と指定されていたとする。これは、予測モデル10が扱う分野が、年齢にかかわらず等しく扱うべき分野であることを意味する。
 この場合、データベースに基づけが、65歳以上のデータは等しく扱うべきであるのに、75歳~90歳にのみ異なる分布が存在するのは不自然であるとして、出力ルール4が条例Aに違反している可能性がある旨をユーザに通知される。例えば「75歳~90歳の領域は、条例Aに違反していないか?」といった確認を促すチェック項目5等が生成される。
 このように、データ分析装置100では、倫理的な問題や公平性を欠く出力等を自動的に判定して、ユーザに注意を促すことが可能である。これにより、ユーザが見落としていたルール違反等を確実に確認することが可能となり、信頼性の高い予測モデル10を容易に構築することが可能となる。
 [適用例3]
 スポーツの試合の観戦チケットのダイナミックプライシングを行う時に、チケットの価格を決定する予測モデル10を作成する事例。
 ここでは、価格が変動する観戦チケットの適正な販売価格をリアルタイムに予測する回帰問題扱う予測モデル10(回帰モデル)を調整する方法について説明する。
 まず、使用する学習データ1や対象項目(販売価格)等がユーザによって指定される。学習データ1は、例えば、チケットを購入する顧客の性別、年齢等の個人データ、及び、顧客が過去に購入したチケットの履歴、今から購入しようとしているチケットの試合の時間、対戦チーム等のチケットに関するデータである。
 このような学習データ1から、顧客がどのくらいの価格であればチケットを買ってくれるかを予測する、すなわち顧客が購入すると期待される価格を予測する予測モデル10を作成する。
 例えば、「注意する項目」として対戦チームが指定して、予測モデル10の作成が開始され、適用例1と同様に、予測モデル10及び要約モデル11が生成される。
 「注意する項目」として対戦チームを指定することで、対戦チームによるチケットの価格差、すなわち対戦チームに応じたチケットの価格の変動等を抑制するような調整が可能となる。
 要約モデル11から、例えば「午後18時以降のチケットは、チケット価格(円)=5000-(試合会場の収容人数)+(個人データをもとにした補正)」という出力ルール4が得られたとする。
 上記したように、「注意する項目」としてチーム名が指定されているため、ここでは、チームAとチームBの「午後18時以降のチケット」についての分布が比較される。具体的には、チームごとに価格のヒストグラムが作成され、KLダイバージェンス等を用いて各分布間の距離が比較される。
 その結果、対戦チームがチームAである場合とチームBである場合とでは、予測したチケットの販売価格の分布に大きな差があることが判明したとする。この場合、チームA及びチームBの間で販売価格が変動する旨のアラート(チェック項目5等)を出力する。
 アラートが表示されると、ユーザによりチームごとのチケット価格の分布が確認される。例えばユーザがチケット価格の分布が公平性を欠いていると判断した場合には、分布の偏りを修正する調整開始ボタン31が選択される。
 例えば、チームBが対戦チームである場合に過度に価格が高く予測されていたとする。この場合、午後18時以降のチケットにおいて、チームBのチケット価格に高すぎる予測をした場合は、損失が大きくなるように予測モデル10の訓練に用いる損失関数が調整される。
 調整された損失関数を使って、再度予測モデル10が作成される。新たに作成された予測モデル10の出力の分布が表示され、問題がないことが確認された場合には、予測モデル10の作成が完了する。
 このように、回帰問題を解くような予測モデル10では、予測値が過度に大きくなる(あるいは小さくなる)ルールを、ユーザにチェックさせることが可能となる。これにより公平な価格予測を行う予測モデル10を容易に構築することが可能となる。
 以上、本実施形態に係る制御部16では、所定の学習モデル(予測モデル10及び認証モデル)とその出力を変換する要約モデル11との学習処理が行われる。要約モデル11は、予測モデル10の出力をユーザが解釈可能な形式で記述されたルール群に変換する。このルール群を所定の基準に従って評価した評価情報を用いて、学習モデルの学習処理が調整される。これにより、必要な基準を満たす学習モデルを容易に構築することが可能となる。
 近年、予測分析において、過去のデータの偏りやデータの取り方が原因で倫理的に問題がある出力をする予測モデルが問題になってきている。例えば、採用時に何年勤続してもらえるかを予測するモデルを使用するとする。この場合、過去に男性社員が多かったために、男性だけが過剰に長い勤続年数を予測してしまうといったことがあり得る。予測モデルの作成者はこのような問題に気付かない場合も考えられる。また作成者が問題に気付いたとしても、その問題を解決することが難しい場合が多い。
 図14は、比較例として挙げる予測モデルの出力のマップである。マップの横軸は、転職回数であり、縦軸は年齢である。またマップのグレーの領域は、予測モデルが「採用する」と予測した領域であり、白色の領域は、予測モデルが「採用しない」と予測した領域である。各データ点は、個々の学習データに対応する。図14に示すように、予測モデルの出力(採用、不採用の分布)は複雑になっている。
 このため、例えば特定の条件時に倫理違反等をするケースが無いかを確認することは難しく、また予測モデルによっては(例えばニューラルネット等)専門家であっても細かいケースを確認することが難しくなる場合が考えられる。
 またモデルの作成者が専門家でない場合等には、予測モデルのパラメータを調整する手法等がわからず、問題が修正されるように予測モデルを調整することが難しい。
 さらに、違反してはいけないルール(守るべき法令等)を事前にすべて用意する必要があり、違反のチェックに時間がかかることや、見落としが発生する可能性があった。
 本実施形態では、予測モデル10を人間が理解できる決定木やルールの集合に置き換えるための要約モデル11が用いられる。これにより、例えば「AかつBならば、男性に偏りが見られる」といったユーザが解釈可能な出力ルール4の説明を表示することが可能となる。
 これにより、ユーザは予測モデルの出力を容易に理解することが可能となる。この結果、例えば、予測モデル10のアルゴリズムを理解していないユーザであっても予測モデルの出力に問題がないかを確認することが可能となる。
 また出力ルール4の説明文は、ルール・倫理に違反しているか否かをユーザにチェックしてもらうチェック項目として表示される。このチェック項目5にチェックされた内容に基づいて予測モデル10の調整が行われる。
 例えば、ユーザが問題ありと指摘した出力ルール4(違反ルール)と、問題がないとした出力ルール4に合致するデータが比較される。そして比較結果に応じて、違反ルールに合致するデータについて、他の出力ルール4の予測等に近づけるように自動的に調整が行われる。あるいは、各データを用いる際の学習パラメータが適宜調整される。
 このように本実施形態では、予測モデル10の出力の中で倫理的に問題がある領域等について、要約モデル11を通じて出力の修正を容易に実現することが可能である。
 また本実施形態では、予め、予測モデル10の利用場面ごとに守るべき法律やルールの集合がルールデータベース18として記憶される。そして、予測モデル10及び要約モデル11の決定境界の位置をルールデータベース18に問い合わせるクエリが生成され、必要な基準(ルール)が適宜読み込まれる。これにより、倫理的に問題がないかを自動的にチェックすることが可能となる。この結果、違反のチェックにかかる時間が短縮されるとともに、ユーザによる見落としの発生等を十分に回避することが可能となる。これにより、必要な基準を満たす学習モデルを容易に構築することが可能となる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記の実施形態では、主に予測モデルを調整する方法について説明した。本技術は、予測モデルに限定されず、任意の学習モデルに対して適用することが可能である。
 以下、適用例として、カメラを用いた認証システムの誤り率を補正する事例について説明する。ここでは、カメラを用いて生成された画像データを学習データとしてトレーニングされた認証モデルを例に挙げる。認証モデルは、所定の学習モデルの一例である。
 なお認証モデルでは、CSVのような表形式の学習データに替えて、画僧データが学習データとして用いられる。
 会社のゲートに設置されたカメラを用いて、人物認証等を行う認証モデルを生成する場合を想定する。以下では、会社の制服を着ている人物のみを認証する認証モデルを作成するものとする。
 まず、認証する人物のデータとして、会社の制服を着用した様々な人物の画像データを用意し、認証しない人のデータとして、私服を着用した様々な人物の画像データを用意する。これらの画像データを学習データとして、認証モデルを学習させる。
 認証モデルを要約する要約モデルとして、例えばBoF(Bag Of Features)を用いたランダムフォレストのモデルが挙げられる。ここでBoFとは、画像に含まれる要素の断片を特徴量としてモデルを作成する手法である。複数の画像から抽出された特徴量をクラスタリングすることで、VW(Visual Words)と呼ばれる指標が生成される。例えば対象の画像から抽出された特徴量とVWとのマッチングを図ることで、人物認証等が可能となる。
 またランダムフォレストは、例えば決定木のアルゴリズムをランダムに組み合わせた学習モデルである。
 要約モデルとしては、BoFで作成したVWが画像内部に存在するかどうかを0又は1ベクトルで表現したものを生成し、それをランダムフォレストに入力することで、制服を着ているか来ていないかを分類させるモデルを作成する。この場合、各VWを含むか含まないかという条件の集合として、認証モデルを要約することが可能である。
 図15は、認証モデルが用いられる場合に表示されるチェック画面の一例である。
 上記した要約モデルを用いることで、認証における各特長の重要度(寄与度)を算出することが可能である。これにより、予測をする際に重要であったVWを検出可能である。
 図15には、予測に寄与した画像特徴8(VW)ごとに、その画像特徴8が含まれる画像データにおける認証の正解率を示すチェック項目5(条件1及び2)が表示される。これらのチェック項目5は、認証モデルの出力を説明する出力ルールの一例である。
 例えば、条件1では、しわが少ない衣服の画像特徴8が含まれる画像において、90%が制服を着ており、認証の正解率が90%であったことが説明されている。また条件2では、しわが多い衣服の画像特徴8が含まれる画像において、80%が制服を着ており、認証の正解率が40%であったことが説明されている。
 ここから、「しわが多い制服」をもとに作成した画像特徴8が存在すると、認証する確率が低くなることが分かる。
 この場合、複数の学習データの中から、BoFを用いて作成した画像特徴の中に「しわが多い制服」に近い特徴が存在する学習データが抽出される。そして認証モデルの調整として、抽出された学習データを用いて学習を行う場合にのみ、パラメータ更新の幅を大きくする、すなわち他の学習データよりも慎重に分類を行うといった調整が行われる。
 調整された認証モデルとその要約モデルの作成後、要約結果等を説明する説明文が表示される。ここで、しわが多い制服を着用した人に対する分類精度が改善したとユーザが判断した場合、認証モデルの作成が完了する。
 これにより、検出精度の高い認証モデルを容易に構築することが可能となる。
 上記の実施形態では、主に、チェック項目に対するユーザのチェック結果を評価情報として、予測モデルの学習処理が調整された。これに限定されず、例えば説明生成部が自動的に生成した評価情報を用いて、予測モデルの学習処理が調整されてもよい。
 具体的には、説明生成部により、評価情報として、所定の基準を満たさないと判定された出力ルールに関する情報が生成されてもよい。この場合、例えばルールデータベースを参照して、法令等に違反していると判定された出力ルールを違反ルールとして、自動的に予測モデルの調整が行われる。これにより、法令等に違反しない予測モデルを自動的に構築することが可能となる。
 上記では、本技術に係る情報処理装置の一実施形態として、単体の制御部16を例に挙げた。しかしながら、制御部16とは別に構成され、有線又は無線を介して制御部16に接続される任意のコンピュータにより、本技術に係る情報処理装置が実現されてもよい。例えばクラウドサーバにより、本技術に係る情報処理方法が実行されてもよい。あるいは制御部16と他のコンピュータとが連動して、本技術に係る情報処理方法が実行されてもよい。
 すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば所定の学習モデルを学習させる処理、及び要約モデルを学習させる処理、評価情報の取得、及び学習モデルの学習処理の調整等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
 本開示において、「同じ」「等しい」「直交」等は、「実質的に同じ」「実質的に等しい」「実質的に直交」等を含む概念とする。例えば「完全に同じ」「完全に等しい」「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
 なお、本技術は以下のような構成も採ることができる。
(1)所定の学習モデルを学習させる第1の学習部と、
 前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させる第2の学習部と、
 所定の基準に従って前記ルール群を評価した評価情報を取得する評価部と、
 前記評価情報に基づいて前記所定の学習モデルの学習処理を調整する調整部と
 を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
 前記所定の基準は、法令の定める基準、又は前記ユーザの定める基準の少なくとも一方を含む
 情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
 前記学習モデルは、対象項目を予測する予測モデルである
 情報処理装置。
(4)(3)に記載の情報処理装置であって、
 前記ルール群は、前記予測モデルの出力を説明する少なくとも1つの出力ルールを含み、
 前記評価部は、前記出力ルールの各々に関する説明文又は図表の少なくとも一方を生成する
 情報処理装置。
(5)(4)に記載の情報処理装置であって、
 前記評価部は、前記出力ルールの各々について、前記所定の基準を満たしているか否かを前記ユーザにチェックさせるチェック項目を生成する
 情報処理装置。
(6)(5)に記載の情報処理装置であって、
 前記評価部は、前記評価情報として、前記チェック項目に対する前記ユーザのチェック結果を読み込む
 情報処理装置。
(7)(4)又は(5)に記載の情報処理装置であって、
 前記評価部は、前記予測モデルの学習データに含まれる複数のデータ項目のうち、前記ユーザが指定したデータ項目を対象とする前記チェック項目を生成する
 情報処理装置。
(8)(4)から(7)のうちいずれか1つに記載の情報処理装置であって、
 前記所定の基準に関するデータベースが記憶された記憶部を具備し、
 前記評価部は、前記データベースに基づいて、前記出力ルールが前記所定の基準を満たしているか否かを判定する
 情報処理装置。
(9)(8)に記載の情報処理装置であって、
 前記評価部は、前記所定の基準を満たさないと判定された前記出力ルールについて、当該出力ルールが前記所定の基準を満たしているか否かを前記ユーザにチェックさせるチェック項目を生成する
 情報処理装置。
(10)(8)又は(9)に記載の情報処理装置であって、
 前記評価部は、前記評価情報として、前記所定の基準を満たさないと判定された前記出力ルールに関する情報を生成する
 情報処理装置。
(11)(4)から(10)のうちいずれか1つに記載の情報処理装置であって、
 前記評価情報は、前記所定の基準を満たさない前記出力ルールである違反ルールに関する情報を含み、
 前記調整部は、前記違反ルールが指定するデータ範囲を基準として、前記予測モデルの学習データ、又は前記予測モデルの学習パラメータの少なくとも一方を調整する
 情報処理装置。
(12)(11)に記載の情報処理装置であって、
 前記調整部は、前記違反ルールが指定するデータ範囲に含まれる前記学習データのうち前記違反ルールが前記所定の基準を満たさない原因となる前記学習データの数を削減する処理、又は、前記違反ルールが指定するデータ範囲に前記所定の基準を満たすように調整されたダミーデータを前記学習データとして追加する処理の少なくとも一方を行う
 情報処理装置。
(13)(11)又は(12)に記載の情報処理装置であって、
 前記学習パラメータは、前記学習データに関する前記予測モデルの出力を調整するパラメータ、又は前記予測モデルの損失関数を調整するパラメータの少なくとも一方を含む
 情報処理装置。
(14)(11)から(13)のうちいずれか1つに記載の情報処理装置であって、
 前記予測モデルは、前記対象項目に関する分類を予測値とする分類モデルであり、
 前記調整部は、前記違反ルールが指定するデータ範囲における前記予測モデルの予測値が、前記所定の基準を満たす前記出力ルールが指定するデータ範囲における前記予測モデルの予測値と略一致するように、前記予測モデルの学習処理を調整する
 情報処理装置。
(15)(11)から(13)のうちいずれか1つに記載の情報処理装置であって、
 前記予測モデルは、前記対象項目の値を予測値とする回帰モデルであり、
 前記調整部は、前記違反ルールが指定するデータ範囲における前記予測モデルの予測値の分布が、前記所定の基準を満たす前記出力ルールが指定するデータ範囲における前記予測モデルの予測値の分布と略一致するように、前記予測モデルの学習処理を調整する
 情報処理装置。
(16)(3)から(15)のうちいずれか1つに記載の情報処理装置であって、
 前記評価部は、前記予測モデルの出力に関する複数の調整方法を選択可能に提示し、
 前記調整部は、前記複数の調整方法のうち、前記ユーザにより選択された方法に基づいて前記予測モデルの学習処理を調整する
 情報処理装置。
(17)(1)から(16)のうちいずれか1つに記載の情報処理装置であって、
 前記第2の学習部は、前記所定の基準に応じた前記変換モデルを学習させる
 情報処理装置。
(18)(1)から(17)のうちいずれか1つに記載の情報処理装置であって、
 前記変換モデルは、決定木、又はルールフィットの少なくとも一方のアルゴリズムを用いた学習モデルである
 情報処理装置。
(19)所定の学習モデルを学習させ、
 前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させ、
 所定の基準に従って前記ルール群を評価した評価情報を取得し、
 前記評価情報に基づいて前記所定の学習モデルの学習処理を調整する
 ことをコンピュータシステムが実行する情報処理方法。
(20)所定の学習モデルを学習させるステップと、
 前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させるステップと、
 所定の基準に従って前記ルール群を評価した評価情報を取得するステップと、
 前記評価情報に基づいて前記所定の学習モデルの学習処理を調整するステップと
 をコンピュータシステムに実行させるプログラム。
 1…学習データ
 2…条件領域
 4…出力ルール
 5…チェック項目
 10…予測モデル
 11…要約モデル
 15…記憶部
 16…制御部
 17…学習データベース
 18…ルールデータベース
 20…UI生成部
 21…予測モデル学習部
 22…特性評価部
 23…要約モデル学習部
 24…説明生成部
 25…クエリ生成部
 26…調整処理部
 100…データ分析装置

Claims (20)

  1.  所定の学習モデルを学習させる第1の学習部と、
     前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させる第2の学習部と、
     所定の基準に従って前記ルール群を評価した評価情報を取得する評価部と、
     前記評価情報に基づいて前記所定の学習モデルの学習処理を調整する調整部と
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記所定の基準は、法令の定める基準、又は前記ユーザの定める基準の少なくとも一方を含む
     情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記学習モデルは、対象項目を予測する予測モデルである
     情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記ルール群は、前記予測モデルの出力を説明する少なくとも1つの出力ルールを含み、
     前記評価部は、前記出力ルールの各々に関する説明文又は図表の少なくとも一方を生成する
     情報処理装置。
  5.  請求項4に記載の情報処理装置であって、
     前記評価部は、前記出力ルールの各々について、前記所定の基準を満たしているか否かを前記ユーザにチェックさせるチェック項目を生成する
     情報処理装置。
  6.  請求項5に記載の情報処理装置であって、
     前記評価部は、前記評価情報として、前記チェック項目に対する前記ユーザのチェック結果を読み込む
     情報処理装置。
  7.  請求項4に記載の情報処理装置であって、
     前記評価部は、前記予測モデルの学習データに含まれる複数のデータ項目のうち、前記ユーザが指定したデータ項目を対象とする前記チェック項目を生成する
     情報処理装置。
  8.  請求項4に記載の情報処理装置であって、さらに、
     前記所定の基準に関するデータベースが記憶された記憶部を具備し、
     前記評価部は、前記データベースに基づいて、前記出力ルールが前記所定の基準を満たしているか否かを判定する
     情報処理装置。
  9.  請求項8に記載の情報処理装置であって、
     前記評価部は、前記所定の基準を満たさないと判定された前記出力ルールについて、当該出力ルールが前記所定の基準を満たしているか否かを前記ユーザにチェックさせるチェック項目を生成する
     情報処理装置。
  10.  請求項8に記載の情報処理装置であって、
     前記評価部は、前記評価情報として、前記所定の基準を満たさないと判定された前記出力ルールに関する情報を生成する
     情報処理装置。
  11.  請求項4に記載の情報処理装置であって、
     前記評価情報は、前記所定の基準を満たさない前記出力ルールである違反ルールに関する情報を含み、
     前記調整部は、前記違反ルールが指定するデータ範囲を基準として、前記予測モデルの学習データ、又は前記予測モデルの学習パラメータの少なくとも一方を調整する
     情報処理装置。
  12.  請求項11に記載の情報処理装置であって、
     前記調整部は、前記違反ルールが指定するデータ範囲に含まれる前記学習データのうち前記違反ルールが前記所定の基準を満たさない原因となる前記学習データの数を削減する処理、又は、前記違反ルールが指定するデータ範囲に前記所定の基準を満たすように調整されたダミーデータを前記学習データとして追加する処理の少なくとも一方を行う
     情報処理装置。
  13.  請求項11に記載の情報処理装置であって、
     前記学習パラメータは、前記学習データに関する前記予測モデルの出力を調整するパラメータ、又は前記予測モデルの損失関数を調整するパラメータの少なくとも一方を含む
     情報処理装置。
  14.  請求項11に記載の情報処理装置であって、
     前記予測モデルは、前記対象項目に関する分類を予測値とする分類モデルであり、
     前記調整部は、前記違反ルールが指定するデータ範囲における前記予測モデルの予測値が、前記所定の基準を満たす前記出力ルールが指定するデータ範囲における前記予測モデルの予測値と略一致するように、前記予測モデルの学習処理を調整する
     情報処理装置。
  15.  請求項11に記載の情報処理装置であって、
     前記予測モデルは、前記対象項目の値を予測値とする回帰モデルであり、
     前記調整部は、前記違反ルールが指定するデータ範囲における前記予測モデルの予測値の分布が、前記所定の基準を満たす前記出力ルールが指定するデータ範囲における前記予測モデルの予測値の分布と略一致するように、前記予測モデルの学習処理を調整する
     情報処理装置。
  16.  請求項3に記載の情報処理装置であって、
     前記評価部は、前記予測モデルの出力に関する複数の調整方法を選択可能に提示し、
     前記調整部は、前記複数の調整方法のうち、前記ユーザにより選択された方法に基づいて前記予測モデルの学習処理を調整する
     情報処理装置。
  17.  請求項1に記載の情報処理装置であって、
     前記第2の学習部は、前記所定の基準に応じた前記変換モデルを学習させる
     情報処理装置。
  18.  請求項1に記載の情報処理装置であって、
     前記変換モデルは、決定木、又はルールフィットの少なくとも一方のアルゴリズムを用いた学習モデルである
     情報処理装置。
  19.  所定の学習モデルを学習させ、
     前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させ、
     所定の基準に従って前記ルール群を評価した評価情報を取得し、
     前記評価情報に基づいて前記所定の学習モデルの学習処理を調整する
     ことをコンピュータシステムが実行する情報処理方法。
  20.  所定の学習モデルを学習させるステップと、
     前記所定の学習モデルの出力をユーザが解釈可能な形式で記述されたルール群に変換する変換モデルを学習させるステップと、
     所定の基準に従って前記ルール群を評価した評価情報を取得するステップと、
     前記評価情報に基づいて前記所定の学習モデルの学習処理を調整するステップと
     をコンピュータシステムに実行させるプログラム。
PCT/JP2021/004146 2020-02-14 2021-02-04 情報処理装置、情報処理方法、プログラム WO2021161896A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/792,583 US20230063311A1 (en) 2020-02-14 2021-02-04 Information processing apparatus, information processing method, and program
JP2022500359A JPWO2021161896A1 (ja) 2020-02-14 2021-02-04

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020023738 2020-02-14
JP2020-023738 2020-02-14

Publications (1)

Publication Number Publication Date
WO2021161896A1 true WO2021161896A1 (ja) 2021-08-19

Family

ID=77292142

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/004146 WO2021161896A1 (ja) 2020-02-14 2021-02-04 情報処理装置、情報処理方法、プログラム

Country Status (3)

Country Link
US (1) US20230063311A1 (ja)
JP (1) JPWO2021161896A1 (ja)
WO (1) WO2021161896A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023218697A1 (ja) * 2022-05-10 2023-11-16 株式会社日立ソリューションズ 倫理性診断装置、及び倫理性診断方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023132988A (ja) * 2022-03-11 2023-09-22 富士通株式会社 データ変換プログラム、装置、及び方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045386A (ja) * 2011-08-26 2013-03-04 Ntt Communications Kk 工程計画方法、工程計画支援システム及び工程計画支援装置
JP2019200510A (ja) * 2018-05-15 2019-11-21 株式会社日立製作所 予測システム、及び、予測方法
JP2020013270A (ja) * 2018-07-17 2020-01-23 Zホールディングス株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045386A (ja) * 2011-08-26 2013-03-04 Ntt Communications Kk 工程計画方法、工程計画支援システム及び工程計画支援装置
JP2019200510A (ja) * 2018-05-15 2019-11-21 株式会社日立製作所 予測システム、及び、予測方法
JP2020013270A (ja) * 2018-07-17 2020-01-23 Zホールディングス株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023218697A1 (ja) * 2022-05-10 2023-11-16 株式会社日立ソリューションズ 倫理性診断装置、及び倫理性診断方法

Also Published As

Publication number Publication date
US20230063311A1 (en) 2023-03-02
JPWO2021161896A1 (ja) 2021-08-19

Similar Documents

Publication Publication Date Title
US11663545B2 (en) Architecture, engineering and construction (AEC) risk analysis system and method
US11373249B1 (en) Automobile monitoring systems and methods for detecting damage and other conditions
Kozodoi et al. Fairness in credit scoring: Assessment, implementation and profit implications
Koene et al. A governance framework for algorithmic accountability and transparency
US9881340B2 (en) Feedback loop linked models for interface generation
US20190042999A1 (en) Systems and methods for optimizing parallel task completion
AU2023258377A1 (en) Electronic platform for managing investment products
US20140114694A1 (en) Systems and methods for determining insurance decisions based on social network data
US11164236B1 (en) Systems and methods for assessing needs
WO2021161896A1 (ja) 情報処理装置、情報処理方法、プログラム
Kumar et al. Artificial intelligence in insurance sector
CA3106416A1 (en) Improved request handling
Chuu An investment evaluation of supply chain RFID technologies: A group decision-making model with multiple information sources
US20180357563A1 (en) Data Processing System with Machine Learning Engine to Provide Profile Generation and Event Control Functions
US20210312560A1 (en) Machine learning systems and methods for elasticity analysis
CN113742492A (zh) 保险方案生成方法、装置、电子设备及存储介质
WO2016203652A1 (ja) データ分析に係るシステム、制御方法、制御プログラム、および、その記録媒体
WO2016016973A1 (ja) 実績評価装置、実績評価装置の制御方法、および実績評価装置の制御プログラム
Agarwal et al. A seven-layer model with checklists for standardising fairness assessment throughout the AI lifecycle
US20210286833A1 (en) Improved request handling
Law et al. The impact of presentation style on human-in-the-loop detection of algorithmic bias
Sastry Artificial intelligence in financial services and banking industry
Waggoner et al. Pursuing open-source development of predictive algorithms: the case of criminal sentencing algorithms
Srivastava et al. Hyperautomation in transforming underwriting operation in the life insurance industry
Zhu Agile mining: a novel data mining process for industry practice based on Agile Methods and visualization

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21754176

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022500359

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21754176

Country of ref document: EP

Kind code of ref document: A1