WO2022264262A1 - モデル生成支援装置、モデル生成支援方法及びプログラム - Google Patents

モデル生成支援装置、モデル生成支援方法及びプログラム Download PDF

Info

Publication number
WO2022264262A1
WO2022264262A1 PCT/JP2021/022691 JP2021022691W WO2022264262A1 WO 2022264262 A1 WO2022264262 A1 WO 2022264262A1 JP 2021022691 W JP2021022691 W JP 2021022691W WO 2022264262 A1 WO2022264262 A1 WO 2022264262A1
Authority
WO
WIPO (PCT)
Prior art keywords
trial
trials
model
nodes
parameter
Prior art date
Application number
PCT/JP2021/022691
Other languages
English (en)
French (fr)
Inventor
悦子 市原
純明 榮
裕樹 多賀戸
貴史 小梨
淳 西岡
佑嗣 小林
純 児玉
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/022691 priority Critical patent/WO2022264262A1/ja
Priority to JP2023528801A priority patent/JPWO2022264262A1/ja
Publication of WO2022264262A1 publication Critical patent/WO2022264262A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to a model generation support device, a model generation support method, and a program.
  • Patent Literature 1 discloses a computer system that presents a prediction result output from a prediction model and decision logic indicating the prediction logic of the prediction model.
  • Patent Document 2 at a stage where there is very little learning data to be analyzed, a prediction model is constructed using the target learning data and similar learning data, and at the stage when the target learning data is sufficiently accumulated discloses a learning model selection system that constructs a prediction model using only target learning data.
  • One aspect of the present invention has been made in view of the above problems, and an example of its purpose is to provide a technique for supporting model generation by presenting the model building process in a more comprehensible manner. That is.
  • a model generation support device includes acquisition means for acquiring trial information including parameters used in trials of an AI model building process, and based on the difference in the trial information of each of the plurality of trials, estimating means for estimating relevance between the plurality of trials; and output means for outputting display data including a plurality of nodes indicating each of the plurality of trials and links indicating the relevance.
  • At least one processor acquires trial information including parameters used in trials in an AI model construction process, estimating relationships between the plurality of trials based on the results, and outputting display data including a plurality of nodes representing each of the plurality of trials and links representing the relationships.
  • a program provides a computer with an acquisition process of acquiring trial information including parameters used in trials in an AI model building process, and based on the difference in the trial information of each of the plurality of trials, An estimation process of estimating the relevance between the plurality of trials, and an output process of outputting display data including a plurality of nodes indicating each of the plurality of trials and a link indicating the relevance are executed.
  • FIG. 1 is a block diagram showing the configuration of an information processing device according to exemplary Embodiment 1 of the present invention
  • FIG. 6 is an example of display elements of nodes and links output by the information processing apparatus according to Exemplary Embodiment 1.
  • FIG. 4 is a flow chart showing the flow of an information processing method S1 according to exemplary embodiment 1
  • FIG. 4 is a block diagram showing the configuration of an information processing system according to exemplary embodiment 2 of the present invention
  • FIG. 4 is a conceptual diagram showing the flow of processing for one trial performed by a user
  • FIG. 10 is an example of input data and parameter data that are input to the model construction device according to the second exemplary embodiment
  • FIG. It is an example showing a part of all trial information table recorded in the database.
  • FIG. 10 is an example of a trial information table acquired by the information processing apparatus according to exemplary embodiment 2;
  • FIG. 11 is an example of estimated data obtained by estimating the relevance between trials by the information processing apparatus according to exemplary embodiment 2;
  • FIG. 10 is an example of display data generated and output by the information processing apparatus according to exemplary embodiment 2;
  • 10 is an example of a color density table including color densities of nodes indicating each trial estimated by the information processing apparatus according to exemplary embodiment 3.
  • FIG. 10 is an example of a thickness table including thicknesses of links connecting nodes estimated by the information processing apparatus according to exemplary embodiment 3.
  • FIG. FIG. 11 is an example of display data in which the color density of nodes and the thickness of links are highlighted based on the loss value, output by the information processing apparatus according to exemplary embodiment 3;
  • FIG. 11 is an example of display data in another mode output by the information processing apparatus according to exemplary embodiment 3;
  • FIG. FIG. 11 is an example of display data in another mode output by the information processing apparatus according to exemplary embodiment 3;
  • FIG. 11 is an example of display data in another mode output by the information processing apparatus according to exemplary embodiment 3;
  • FIG. 11 is an example of display data in another mode output by the information processing apparatus according to exemplary embodiment 3;
  • FIG. It is a figure which comprises each part by software.
  • FIG. 1 is a block diagram showing the configuration of an information processing device 1.
  • the information processing device 1 is a device that visualizes the process in which a model building device builds a model.
  • the model construction device may be a device physically different from the information processing device 1, or may be the same device.
  • the information processing device 1 is one form of the "model generation support device" described in the claims.
  • the model in this exemplary embodiment outputs inference results for input information.
  • the inferences made by the model include, but are not limited to, regression, classification, prediction, optimization, and the like.
  • inference results include regression results, classification results, prediction results, optimal results, and the like.
  • the type of model is not limited, it may be, for example, a rule-based model generated with reference to background knowledge, or a machine learning model generated by a machine learning algorithm.
  • Machine learning models also include regression analysis models, support vector machines, decision tree models, genetic algorithm models, neural network models, and the like.
  • AI Artificial Intelligence
  • repeating attempts to generate or modify an AI model is referred to as "building a model.” Further, such trials may be repeated by the model construction device based on user's operation, or may be repeated by the model construction device without user's operation. In the present exemplary embodiment, such trials shall be repeated by the model builder based on user manipulation.
  • an AI model to be constructed may be referred to as a "target model”.
  • the information processing device 1 includes an acquisition unit 11, an estimation unit 12, and an output unit 13.
  • the acquisition unit 11 is one form of the "acquisition means” described in the claims
  • the estimation unit 12 is one form of the “estimation means” described in the claims
  • the output unit 13 is one form of the "estimation means” described in the claims. It is one form of the described "output means”.
  • the information processing device 1 includes at least one processor, and the acquisition unit 11, the estimation unit 12, and the output unit 13 are one form of configuration realized by "at least one processor" described in the claims. .
  • the model building device executes multiple trials to build the AI model based on the user's operation.
  • the acquisition unit 11 acquires trial information including parameters used in trials in the process of building an AI model.
  • the trial information includes, for example, information indicating parameters used in the trial, evaluation results, and the like.
  • the trial information is recorded in a database outside the information processing device 1 by the model construction device, and the acquisition unit 11 acquires the trial information from the database.
  • Acquisition unit 11 transmits the acquired information to estimation unit 12 .
  • the trial information may be recorded in a memory (not shown) of the information processing device 1, and the acquisition unit 11 may acquire the trial information from the memory. A specific example of trial information will be described later.
  • the estimating unit 12 estimates the relevance between multiple trials based on the difference in the trial information of each of the multiple trials received from the acquiring unit 11 .
  • the estimating unit 12 transmits items related to the estimated relevance to the output unit 13 .
  • a specific example of the relationship between the difference or change in the trial information and the trials will be described later.
  • the output unit 13 refers to the items related to the relevance received from the estimation unit 12, and outputs display data including a plurality of nodes representing each of the multiple trials and a link representing the relevance.
  • the display data may be generated by the output unit 13 .
  • the output unit 13 outputs the generated display data to a display device (for example, display) via an output interface (not shown). Thereby, the display data is displayed on the display device.
  • a node in this exemplary embodiment is a display element representing one trial, and may be displayed in a frame such as a rectangle, an oval, or a rhombus, for example.
  • Links are display elements that indicate relationships between trials, and may be displayed as line segments or arrows that connect nodes, for example.
  • FIG. 2 is an example of a node N and a link R generated by the output unit 13.
  • FIG. 2 a node N1 representing trial 1 and a node N2 representing trial 2 are connected by a link R1, which is an arrow.
  • the fact that the node N1 and the node N2 are connected by the link R1 means that the trials 1 and 2 are related.
  • node N2 and node N3 are connected by link R2
  • node N3 and node N4 are connected by link R3
  • node N4 and node N5 are connected by link R4.
  • the display data may include at least a portion of the trial information corresponding to the node N within or near the node N, as described below.
  • the display data may also include, within or near the link R, at least a portion of trial information that has changed between trials having the relevance indicated by the link R.
  • a trial is, for example, a series of processes including a process of generating a target model using input information set or updated by a user's operation, and a process of evaluating the inference results output from the generated target model. .
  • Such trials are repeated multiple times while changing some or all of the input information. For example, if the target model is a machine learning model, such trials are repeatedly performed as a learning phase.
  • "generating the target model” includes generating the target model for the first time and modifying the target model in order to adjust the performance, etc. of the generated target model.
  • FIG. 1 shows that the acquisition unit 11, the estimation unit 12, and the output unit 13 are collectively arranged in one device that is physically integrally formed, this is not necessarily the case. . That is, these functional blocks may be distributed and arranged in a plurality of physically different devices, and these devices may be connected to each other by wire or wirelessly so as to be able to communicate with each other. Also, at least some of these functional blocks may be arranged on the cloud.
  • the information processing device 1 includes at least one processor, and this processor reads a program recorded in a memory (not shown) and has a configuration that functions as an acquisition unit 11, an estimation unit 12, and an output unit 13. You may have Such a configuration will be described later.
  • the acquisition unit that acquires the trial information including the parameters used in the trial of the building process of the AI model, and an output unit for outputting display data including a plurality of nodes indicating each of the plurality of trials and a link indicating the relationship, based on is adopted. Therefore, according to the information processing apparatus 1 according to the present exemplary embodiment, the user can visually recognize the process of constructing the AI model by the nodes indicating trials and the links connecting the nodes. As a result, it is possible to present the process in a more comprehensible manner, thereby providing the effect of supporting model generation.
  • FIG. 3 is a flow chart showing the flow of the information processing method S1. As shown in FIG. 3, the information processing method S1 includes steps S11, S12 and S13.
  • the information processing method S1 is one form of the "model generation support method" described in the claims.
  • step S11 the acquisition unit 11 acquires trial information including parameters used in trials in the process of building an AI model.
  • step S12 the estimation unit 12 estimates the relevance between the multiple trials based on the difference in the trial information of each of the multiple trials.
  • step S13 the output unit 13 outputs display data including a plurality of nodes indicating each of the plurality of trials and links indicating relationships. The output display data is displayed on a display device as shown in FIG. 2, for example.
  • the information processing device 1 acquires trial information including parameters used in the AI model building process, and performs each trial of a plurality of trials. Based on the information difference, the relationship between multiple trials is estimated, and display data including multiple nodes representing each of the multiple trials and links representing the relationships are output. there is Therefore, according to the information processing method S1 according to the present exemplary embodiment, the user can visually recognize the process of constructing the AI model by the nodes indicating trials and the links connecting the nodes. As a result, it is possible to present the process in a more comprehensible manner, thereby providing the effect of supporting model generation.
  • FIG. 4 is a block diagram showing the configuration of the information processing system 3 according to the second exemplary embodiment.
  • the information processing system 3 includes a model building device 50, a database 60, an information processing device 2, and a display 70.
  • the model construction device 50 is a device used by the user to generate the target model L.
  • the database 60 records output information in each trial output by the model construction device 50 .
  • the information processing device 2 uses the output information recorded in the database 60 to estimate the relationship between multiple trials, generate display data, and output the display data to the display 70 .
  • the display 70 displays display data.
  • the information processing device 2 includes an acquisition unit 21 , an estimation unit 22 and an output unit 23 .
  • the functions of the acquiring unit 21, the estimating unit 22, and the output unit 23 are basically the same as those of the acquiring unit 11, the estimating unit 12, and the output unit 13 described in the first exemplary embodiment. explain.
  • FIG. 5 is a conceptual diagram showing the flow of processing for one trial T performed by the user using the model construction device 50 .
  • the user inputs input information 100 into the model construction device 50 using an input device (not shown).
  • the model building device 50 inputs the input information 100 to the target model L, causes it to make an inference, and evaluates the inference result. Evaluating an inference result means, for example, deriving a loss value.
  • the model construction device 50 generates output information 200 including input information 100 and information indicating evaluation results.
  • the user modifies the target model L based on the output information 200 output from the model construction device 50 .
  • the user updates the parameters that configure the target model L.
  • FIG. Based on the output information 200 , the user determines the input information 100 to be input in the next trial and inputs it to the model construction device 50 . Also, the user may decide to change the type of the target model L based on the output information 200 and include information indicating the type of the target model L in the input information 100 .
  • the input information 100 includes input data 101, parameter data 102, model ID 103 and tag data 104, for example.
  • Input data 101 is data to be input to the target model L.
  • FIG. The input data 101 includes, for example, labels given to the input data 101 .
  • the parameter data 102 includes weighting factors, hyperparameters, and the like applied to the parameter group that configures the target model L.
  • FIG. The model ID 103 is an ID that identifies the target model L to be generated in the trial.
  • Tag data 104 is an ID that identifies a series of trials.
  • the input data 101 includes chronological data of the output values of sensors 1, 2, 3, and 4.
  • One line of the input data 101 is the output value of each sensor at a certain point in time, arranged along the passage of time.
  • Input data 101 is stored in a data file named X.cvs.
  • Such data is, for example, sensor data of certain plant equipment, and is an example of input data when constructing a target model L for detecting an abnormality in the equipment based on the sensor data.
  • the parameter data 102 includes, as an example, the names and values of four parameters. Specifically, the parameter A and its value 10, the parameter B and its value 0.005, the parameter C and its value 1000, the parameter Input File (that is, the parameter indicating the input data 101) and its data file
  • the name is X.cvs.
  • the data contained in the file X.cvs is, for example, data obtained by subjecting raw data (output values from each sensor) to Fourier transform processing. In other words, in this example, since the input data 101 contains a lot of data, the data file names are included in the parameter data 102 as parameters.
  • the parameters A to C may include, for example, weighting coefficients (weights) applied to a group of parameters that make up the target model L, or may include hyperparameters.
  • weights weighting coefficients
  • hyperparameters include, but are not limited to, the total number of neural networks, the number of units, the activation function, the dropout rate, the optimization function, and the like.
  • the model construction device 50 inputs at least part of the input data 101 and the parameter data 102 into the target model L and generates the target model L so that the label given to the input data 101 is output.
  • the process of generating the target model L is a process of repeating the process of updating the parameter group that configures the target model L.
  • the model construction device 50 generates the target model L by repeating the updating process of the parameter group until the parameter group converges or reaches a set number of times.
  • the model construction device 50 evaluates the inference results output by inputting at least part of the input data 101 to the target model L. For example, the model construction device 50 calculates a loss value 201, an abnormality degree 202, etc., which will be described later, as evaluation results.
  • the output information 200 output from the model construction device 50 includes, for example, a loss value 201, anomaly degree 202, trial time 203, input data 101, parameter data 102, model ID 103, and tag data 104. .
  • the loss value 201 or the degree of abnormality 202 is an example of an index indicating the performance of the target model L, and one of them is output depending on the type of the target model L, for example.
  • the loss value 201 is an error function value that indicates the error between the output value of the target model L and the correct value when there is a correct value that the target model L should output for the input information.
  • the degree of abnormality 202 is a numerical value that indicates the identification of abnormal data and the extent to which it differs from normal values when the target model L is an AI model that extracts abnormal data from the input data 101. .
  • an index different from the loss value 201 or the degree of abnormality 202 may be output.
  • the trial time is the time when the trial T is started, for example, the time when the input data is input to the target model L.
  • the input data 101, parameter data 102, model ID 103, and tag data 104 are the same as the information included in the input information 100.
  • the output information 200 is transmitted to the database 60 and recorded as trial information.
  • the output information 200 of seven trials T1 to T7 in the process of constructing the target model L is transmitted and recorded as trial information.
  • the database 60 may record trial information in the process of constructing other AI models.
  • the trial information indicating a series of trials in the process of constructing the target model L can be distinguished by one or both of the model ID 103 and the tag data 104, for example.
  • the information processing device 2 acquires trial information in trials T1 to T7 performed using the model building device 50, and estimates the relevance between these trials. Specifically, first, the acquisition unit 21 extracts (acquires) trial information having similar model IDs and tag data from all the trial information recorded in the database 60 .
  • FIG. 7 is part of a trial information table 250 that records all trial information recorded in the database 60.
  • the trial information table 250 includes, for example, data recorded in columns of trial ID, model ID, tag data, trial time, loss value, parameter A, parameter B, parameter C, and input data file name. .
  • T1 to T7, S1, and R3 recorded in the trial ID column are IDs that identify each trial.
  • “L001” recorded in the model ID column is the ID given to the target model L.
  • FIG. For the model ID the same code may be used in a series of trials, or a partially changed code may be used for each trial.
  • the AI model with the model ID “L001” is also referred to as model L001, assuming that the same reference numerals are used in the series of trials.
  • "TAG001" recorded in the column of tag data is data commonly attached to a series of trials T1 to T7 in the process of constructing the target model L001.
  • TAG002 recorded in the column of tag data is data attached in common to a series of other trials including trial S1 in the process of constructing the target model L001.
  • a series of trials T1 to T7 with TAG001 and a series of trials (including trial S1) with a different approach from TAG001. is being done.
  • the trial information recorded as L002 in the model ID column and TAG003 in the tag data column indicates trial R3 that was performed to build the AI model L002 different from the target model L001. .
  • FIG. 8 is an example of a trial information table 300 in which trial information extracted by the acquisition unit 21 from all trial information recorded in the database 60 is recorded.
  • the acquisition unit 21 extracts (acquires) trial information having similar model IDs and tag data as shown in the trial information table 300 from all the trial information recorded in the database 60 .
  • the model IDs are similar means “the model IDs match (the same)", but the model IDs may indicate a predetermined similarity condition.
  • similar tag data means “matching tag data”, but is not limited to this, and may indicate that the tag data indicates a predetermined similarity condition.
  • the similarity condition may be, for example, that part of the text indicating the model ID or tag data matches.
  • the acquisition unit 21 may extract, as a series of trials in the process of building the target model L, a plurality of trials in which at least one of the model ID and tag data is similar.
  • the acquisition unit 21 extracts trials T1 to T7 having the same model ID and the same tag data.
  • the acquisition unit 21 may extract trial information in which at least one of the model ID and tag data is the same, or may extract trial information in which at least one of the model ID and tag data is similar.
  • FIG. 9 is an example of an estimated data table 400 in which the estimation unit 22 estimates the relevance between trials.
  • the estimation unit 22 estimates the relevance between two consecutive trials in the time series of multiple trials.
  • trial T1 and trial T2 are consecutive trials.
  • Consecutive trials are adjacent trials in a time series arranged in the order in which multiple trials were performed (in order of trial start time).
  • the estimating unit 22 extracts consecutive trials T1 and T2 from a plurality of trials. is associated with the subsequent (end) trial T2.
  • the estimating unit 22 extracts consecutive trials T2 and T3, and the following trial T3 is performed in order to modify the target model L generated in the preceding trial T2. Presume that. In this way, the estimation unit 22 extracts all combinations of two consecutive trials in time series and estimates their relevance.
  • the estimating unit 22 extracts a plurality of trials in which the first parameter is common and the second parameter is changed as a related first trial group.
  • the first parameter and the second parameter are examples of trial information.
  • the second parameter is a parameter different in type from the first parameter.
  • the number of parameters to be changed in the subsequent trial is one with respect to the preceding trial, and that the other parameters are not changed.
  • the number of parameters to be changed may be two or more.
  • the estimation unit 22 extracts the trials T1 to T4 as the first trial group. Then, among the extracted trials T1 to T4, it is estimated that the successive trials T1 and T2, T2 and T3, and T3 and T4 have the relationships described above.
  • the trial information further includes a third parameter different from the first parameter and the second parameter, and the estimation unit 22 determines that the second parameter and the third parameter are common and the first parameter changes Multiple trials are extracted as a related second set of trials.
  • the estimation unit 22 extracts the trials T5 to T7 as the trials T of the second trial group. Then, among the extracted trials T5 to T7, it is estimated that the successive trials T2 and T5, T5 and T6, and T6 and T7 have the relationships described above.
  • the data contained in the file X.cvs is the Fourier transform of the raw data (output values from each sensor).
  • the data contained in the file Y.cvs is the data obtained by converting the raw data into polar coordinates.
  • the estimating unit 22 regards the trial in the first trial group, in which the first parameter and the second parameter are common to the temporally leading trial in the second trial group, as the first trial Identify as a branch point in the group.
  • the estimating unit 22 determines the first trial group in which the first parameter (B) and the second parameter (A) are common in the temporally leading trial (trial T5) of the second trial group Identify trial T2 in as the branching point in the first group of trials. Furthermore, the estimating unit 22 associates the trial T5 and the trial T2, which are the heads of the second trial group, with the branched link R4. By performing the above processing, the estimation unit 22 generates the estimated data table 400 shown in FIG.
  • FIG. 10 is an example of display data 500 generated and output by the output unit 23 .
  • the output unit 23 refers to the estimated data table 400 and generates display data including the nodes N1 to N7 and the links R1 to R6 as shown in FIG.
  • Nodes N1-N7 are display elements representing trials T1-T7.
  • Links R1 to R6 are display elements that indicate the relationship between two corresponding trials T among trials T1 to T7.
  • the nodes N1 to N7 are each represented by a rectangular frame. Also, when the node is not specified, it is described as node N, and when the link is not specified, it is described as link R.
  • the link R has an orientation and is represented, for example, by an arrow.
  • the starting point of the link R is connected to a node N indicating the preceding trial T in the time series among the two trials T having the corresponding relationship.
  • the end point of the link R is connected to a node N that indicates the latter trial T in the time series among the two trials T having the corresponding relationship.
  • the nodes N1-N7 and the links R1-R6 represent a directed graph.
  • the node indicating the trial in the preceding stage is also referred to as the preceding node
  • the node indicating the trial in the subsequent stage is also referred to as the subsequent node.
  • the multiple nodes included in the display data are arranged in the order in which the trials were performed. That is, the output unit 23 generates display data in which a plurality of nodes N are arranged in the order in which each trial was performed. Specifically, as shown in FIG. 10, the output unit 23 generates and outputs display data 500 in which a plurality of nodes N are arranged in order from left to right in the drawing. In other words, in the display data 500, the node N representing the early trial T is arranged on the left side of the link R, and the node N representing the late trial T is arranged on the right side of the link R.
  • the output unit 23 outputs display data including a plurality of nodes (N1 to N4) indicating the first trial group and links (R1 to R3) connecting the plurality of nodes. Output as the first column. At this time, the output unit 23 outputs display data in which the nodes included in the trial group are arranged in the order in which the trials were performed. Furthermore, as shown in FIG. 10, the output unit 23 determines that the nodes (N5 to N7) and the links (R4 to R6) indicating the second trial group are branched out of the plurality of nodes indicating the first trial group. The display data branched and connected from the node (R2) representing the trial of points is output as the second column.
  • the display data 500 branches into links R2 and R4 on the way.
  • the column of each branch destination node N indicates the process of searching for the influence of different parameters on the performance of the target model L.
  • FIG. That is, the user can easily understand the construction process of the target model L by visually recognizing the construction process of the target model L in the graph structure as shown in FIG.
  • the information processing apparatus 2 employs a configuration in which a plurality of nodes included in the display data are arranged in the order in which the trials were performed. Therefore, according to the information processing apparatus 2 according to the present exemplary embodiment, in addition to the effects of the information processing apparatus 1 according to the first exemplary embodiment, the chronological process of constructing the target model L can be easily understood. You can get the effect that you can.
  • the estimating unit 22 extracts a plurality of trials in which the first parameter is common and the second parameter changes as a related first trial group, and the output unit 23 extracts the first A configuration is adopted in which display data including a plurality of nodes indicating one trial group and links connecting the plurality of nodes are output. Further, the information processing device 2 further includes a third parameter different from the first parameter and the second parameter as the trial information, and the estimation unit 22 determines that the second parameter and the third parameter are common to the third parameter.
  • a configuration is adopted in which the display data branched and connected from the node indicating the trial of the branch point is output.
  • the information processing device 4 according to the third exemplary embodiment is a modification of the information processing device 2 according to the second exemplary embodiment as follows. Below, each functional block of the information processing apparatus 4 will be sequentially described with respect to the points modified from the exemplary embodiment 2.
  • FIG. 1 A schematic diagram of an information processing apparatus
  • the acquisition unit 21 of the information processing device 4 acquires trial information of a series of trials from the database 60 .
  • the set of trial information is the same as the trial information table 300 (see FIG. 8) described in the second exemplary embodiment. Therefore, the estimation unit 22 generates an estimated data table 400 (see FIG. 9) from the trial information table 300.
  • FIG. The output unit 23 then generates display data 500 (see FIG. 10) and outputs it to the display 70 .
  • the estimating unit 22 identifies, among the multiple trials, a trial in which the AI model's performance improved or deteriorated compared to the related preceding trial. Further, the output unit 23 outputs one or both of the node indicating the identified trial and the link connecting the node and the node indicating the previous trial in a manner different from other nodes or other links. Different aspects may mean, for example, emphasizing one over another. Alternatively, different aspects may conversely be less conspicuous than others.
  • the estimating unit 22 refers to the loss value of the trial information table 300, and the loss value of the preceding node in the combination of the two nodes connected by the link R of the estimated data table 400 is Identify the subsequent nodes that have decreased or increased.
  • the output unit 23 outputs display data in which one or both of the subsequent node and the link connecting the preceding node and the subsequent node are different from others.
  • the output unit 23 outputs the color tone of the node (later node) indicating the identified trial, the size and shape of the node, and the shape of the link. At least one of the color tone and the thickness of the link can be made different from other nodes or other links.
  • the output unit 23 highlights the latter node with a smaller loss value and the link connecting the latter node and the former node.
  • the method of highlighting is not limited, for example, highlighting can be performed by lightening the color tone of the node and thickening the thickness of the link.
  • the output unit 23 can make a certain node less conspicuous than other nodes by making it smaller.
  • hue refers to color type or color intensity.
  • FIG. 11 is an example of a color density table 600 obtained by adding the color density of the node indicating each trial to the trial information table 300.
  • FIG. The rightmost column of the color density table 600 indicates the color density (%) of the node.
  • Node N1 whose trial ID is indicated by T1
  • the output unit 23 calculates the density of each node N based on this.
  • the density C of each node N in the color density table 600 is a value calculated by the following formula (1).
  • C (%) 100 ⁇ (Loss T - Loss min ) / (Loss max - Loss min ) (1)
  • Loss T is the loss value of each node N
  • Loss min is the minimum loss value
  • Loss max is the maximum loss value.
  • the above formula (1) is a calculation formula for setting the node with the maximum loss value to 100% cardinality and the node with the minimum loss value to 0% cardinality in a series of trials. In other words, a node with better performance is displayed in a lighter color. Note that the method for obtaining the density of the color of the node is not limited to the method described above and is arbitrary.
  • FIG. 12 is an example of a thickness table 700 showing the thickness of links R connecting nodes N.
  • FIG. A thickness table 700 is a table obtained by adding the thickness of links to the estimated data table 400 .
  • the thickness of the link in the thickness table 700 is a value obtained based on the difference in loss value between the preceding node and the succeeding node. Specifically, the loss value of the subsequent node is subtracted from the loss value of the preceding node, and if the difference is less than 0.5, the thickness of the link is set to 1.0. is 2.0, and if the difference is 0.7 or more, the thickness is 3.0.
  • the thickness of the link R4 from node N2 to node N5 is 3.0 because the amount of decrease in the loss value is greatly reduced to 1.0.
  • the link R2 connecting the node N2 and the node N3, the link R3 connecting the node N3 and the node N4, and the like have a small decrease in the loss value, so the thickness is 1.0.
  • the unit of thickness is arbitrary, but the greater the decrease in loss value, the thicker the thickness. Note that the method for obtaining the thickness of the link is not limited to the method described above, and is arbitrary.
  • FIG. 13 shows the emphasized display data 801 reflecting the color density of the nodes and the thickness of the links obtained by the above method.
  • the first node N1 is filled with black.
  • the smaller the loss value (the better the performance) the lighter the color of the node N is displayed.
  • the thickness of the link R the link R4, which has a large decrease in loss value, is indicated by a thick arrow.
  • This display data is displayed on the display 70 . That is, on the display 70, it is possible to visually understand the construction process for improving the performance of the target model L by following the route with thicker links and tracing the nodes in lighter colors.
  • the output unit 23 outputs display data in which a plurality of nodes including branched nodes are arranged in a predetermined direction corresponding to the time when the trial was performed.
  • a plurality of nodes corresponding to a plurality of trials included in the first trial group and the second trial group are arranged in a predetermined direction in order of the trials.
  • a coordinate system whose x-axis is the direction indicating the temporal order in the display data is defined, and the x-coordinate of the first node indicating the first trial included in the first column and the x-coordinate of the first node in the second column
  • the first node and the second node such that the relationship with the x-coordinate of the second node indicating the included second trial represents the temporal order relationship between the first trial and the second trial. are placed. That is, in FIG. 13, the nodes N tried earlier in time are arranged toward the left side, and the nodes N tried later in time are arranged toward the right side of the figure.
  • the trial start time of each trial T is indicated by the position of the left side of the node N rectangle.
  • the time axis 802 need not be included in the display data 801 .
  • the display data includes information indicating the performance of the AI model obtained in each trial.
  • the output unit 23 outputs display data including information indicating the performance of the AI model obtained in each trial. That is, the loss value is displayed in the rectangle of each node N of the display data 801 .
  • the display data includes the parameters used in each trial.
  • the output unit 23 outputs display data including at least the parameters changed in the subsequent trial among the parameters used in the previous trial. For example, information "A: 10 ⁇ 50" indicating that the parameter A has been changed from 10 to 50 is displayed below the link R1 connecting the nodes N1 and N2. Also, information indicating that the input file has been changed from X.csv to Y.csv "input file change input file: X.csv ⁇ Y.csv" is displayed below the link R4. By displaying the changed parameter in this way, it is possible to easily visually understand which parameter caused the change in performance.
  • the model ID, input file name, and parameter values used in the last node N7 cannot be displayed inside the node N7, so they are collectively displayed outside the node N7.
  • the finally constructed target model L refers to the target model L with the best performance value in this exemplary embodiment. Therefore, it is not necessarily the AI model tried last in terms of time.
  • node and link color only the shortest route from the first trial T1 to trial T7 with the best results may be changed in node and link color. For example, assuming that the link information shown in FIG. 9 is obtained, all nodes (N1, N2, N5 to N7) and links (R1, R4 to 6) that pass from the first trial T1 to the best trial T7 change the color of Such highlighting has the effect of facilitating tracking of which parameter should be changed and how much when performing a similar experiment.
  • the display data may include nodes in a mode according to the degree of performance improvement or deterioration. For example, the greater the degree of performance improvement, the darker the color of the node and the larger the size. Conversely, the larger the degree of performance degradation, the lighter the color of the node and the smaller the size. Such highlighting makes it easy to identify nodes that have contributed to performance improvement.
  • FIG. 14 shows another form of display data 803 generated by the output unit 23 .
  • the output unit 23 arranges a plurality of nodes in a virtual three-dimensional space and includes them in the display data, and places the identified trial node in the three-dimensional space with respect to the preceding trial node. They are placed at different distances from the viewpoint. Specifically, in FIG. 14, nodes N1, N2, N3, and N4 are displayed as being farther from the viewpoint than the other nodes N.
  • the display data 803 is display data that simulates the appearance when each node N is arranged in a virtual three-dimensional space.
  • the output unit 23 displays the node N, which indicates a trial in which the degree of improvement in the performance of the target model L is relatively large, in a large size and in a dark color.
  • a node N representing a relatively small trial is displayed with a relatively small size and a light color.
  • objects closer to the viewpoint viewer's eyes
  • objects farther away from the viewpoint appear smaller and lighter.
  • the size and density of each node N can be appropriately derived from the loss value of the node N.
  • FIG. In this way, by simulating the appearance when each node N is arranged in a virtual three-dimensional space, the process of improving the performance of the target model L can be visually understood easily.
  • FIG. 15 shows display data 804 in another mode generated by the output unit 23.
  • FIG. If the difference between the performance of the AI model obtained in the identified trial and the performance of the AI model obtained in the preceding trial is within a predetermined threshold, display data 804 displays a node indicating the identified trial and a node indicating the preceding trial. with at least some of these nodes overlapping.
  • the output unit 23 outputs such display data 804 .
  • the user sets the threshold for the difference in loss values between consecutive nodes to 0.2.
  • the difference in loss value between the node N3 and the node N4 is 0.1, the node N3 and the node N4 are partially overlapped and displayed.
  • the superimposed nodes are nodes whose performance is not much improved.
  • the difference in loss value between the node N2 and the node N3 is 0, which is smaller than the threshold, but the node N2 and the node N3 are not shown overlapping because the node N2 is a branching node.
  • FIG. 16 shows display data 805 in another mode generated by the output unit 23.
  • FIG. 16 shows display data 805 in another mode generated by the output unit 23.
  • FIG. 16 shows display data 805 in another mode generated by the output unit 23.
  • the display data 805 when the difference in loss values between consecutive nodes is smaller than a predetermined threshold, the display of the consecutive nodes is made inconspicuous. Specifically, assuming that the predetermined threshold value is 0.2, the difference in loss value between the node N3 and the node N4 is 0.1 as shown in FIG. It is made smaller than other nodes, and information on loss values and parameter changes is omitted. As a result, the nodes N3 and N4 are less conspicuous than the other nodes. Therefore, it is easy to visually understand that the trials indicated by these nodes did not contribute to the improvement of the target model L's performance. Since the node N2 is a branching node, the display of the node N2 is not simplified.
  • FIG. 17 shows display data 806 in another mode generated by the output unit 23.
  • the display data 806 displays preprocessing information indicating what kind of preprocessing was used to generate the input data. For example, the user adds a preprocessing method for raw data to the input information 100 . As a result, information on the preprocessing method is added to the output information 200 as well.
  • the output unit 23 displays this preprocessing information as display data in association with the link R.
  • the raw data node RD is displayed and connected to the node N1 by the link R0.
  • a display frame PT1 for preprocessing information is displayed in the link R0, and "preprocessing: FFT” indicating that the preprocessing method is FFT (Fast Fourier Transform) is displayed in the display frame PT1.
  • FFT Fast Fourier Transform
  • a display frame PT2 is added to the link R4 from the node N2 to the node N5, and the input data used in the display frame PT2 is changed to data obtained by converting the raw data into polar coordinates.
  • Preprocessing: FFT ⁇ Polar Coordinates is displayed.
  • the estimating unit 22 performs a trial in which the performance of the AI model is improved compared to the relevant preceding trial among a plurality of trials, or Identify trials with degraded performance. Furthermore, the output unit 23 outputs one or both of the node indicating the identified trial and the link connecting the node and the node indicating the previous trial in a manner different from other nodes or links. configuration is adopted. Therefore, according to the information processing apparatus 4 according to the present exemplary embodiment, in addition to the effects of the information processing apparatuses 1 and 2 according to the first and second exemplary embodiments, nodes and links displayed in different modes can be displayed. By tracing, it is possible to obtain the effect of making it easier to visually understand the construction process for improving the performance of the target model.
  • the input information 100 may include other data instead of or in addition to some or all of the input data 101, the parameter data 102, the model ID 103, and the tag data 104. may contain.
  • the output information 200 replaces or in addition to a part or all of the loss value 201, the degree of abnormality 202, the trial time 203, the input data 101, the parameter data 102, the model ID 103, and the tag data 104, and other data may contain
  • the information indicating the evaluation result of the target model L in each trial may be another index instead of or in addition to one or both of the loss value 201 and the degree of abnormality 202 .
  • the technique of extracting the first column and the second column to identify the branch point is based on the first parameter, the second parameter, and the third parameter.
  • the method is not limited to the method of referring to parameters, and other methods may be used.
  • the aspects of the nodes and associated links that exhibit performance-improved or degraded attempts are not limited to the aspects described above, and may be other aspects.
  • Some or all of the functions of the information processing apparatuses 1, 2, and 4 may be implemented by hardware such as integrated circuits (IC chips), or may be implemented by software.
  • the information processing apparatuses 1, 2, and 4 are implemented by computers that execute instructions of programs, which are software that implements each function, for example.
  • An example of such a computer (hereinafter referred to as computer C) is shown in FIG.
  • Computer C comprises at least one processor C1 and at least one memory C2.
  • a program P for operating the computer C as the information processing apparatuses 1, 2, and 4 is recorded in the memory C2.
  • the processor C1 reads the program P from the memory C2 and executes it, thereby realizing each function of the information processing apparatuses 1, 2, and 4.
  • processor C1 for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit) , a microcontroller, or a combination thereof.
  • memory C2 for example, a flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), or a combination thereof can be used.
  • the computer C may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data.
  • Computer C may further include a communication interface for sending and receiving data to and from other devices.
  • Computer C may further include an input/output interface for connecting input/output devices such as a keyboard, mouse, display, and printer.
  • the program P can be recorded on a non-temporary tangible recording medium M that is readable by the computer C.
  • a recording medium M for example, a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used.
  • the computer C can acquire the program P via such a recording medium M.
  • the program P can be transmitted via a transmission medium.
  • a transmission medium for example, a communication network or broadcast waves can be used.
  • Computer C can also obtain program P via such a transmission medium.
  • (Appendix 1) Acquisition means for acquiring trial information including parameters used in trials in the AI model building process, and estimation for estimating the relevance between the plurality of trials based on the difference in the trial information of each of the plurality of trials and an output means for outputting display data including a plurality of nodes indicating each of the plurality of trials and a link indicating the relationship.
  • Appendix 2 The model generation support device according to appendix 1, wherein the plurality of nodes included in the display data are arranged in the order in which the trials were performed.
  • the trial information includes a first parameter and a second parameter different from the first parameter, and the estimation means performs a plurality of trials in which the first parameter is common and the second parameter varies. , extracting as a related first trial group, and said output means outputs said display data including a plurality of nodes indicating said first trial group and links connecting said plurality of nodes;
  • the model generation support device according to appendix 1 or 2, characterized by:
  • the trial information further includes a third parameter different from the first parameter and the second parameter, and the estimating means determines that the second parameter and the third parameter are common to the first parameter.
  • a plurality of trials with varying parameters are extracted as a related second trial group, and the first parameter and the second parameter are extracted for the temporally leading trial of the second trial group
  • a common trial in the first trial group is specified as a branching point in the first trial group, and the output means specifies that the node and the link indicating the second trial group are the first 3.
  • the model generation support device according to appendix 3, wherein the display data branched and connected from a node indicating the trial of the branch point among the plurality of nodes indicating the trial group is output.
  • the estimating means identifies, among the plurality of trials, a trial in which the performance of the AI model has improved or deteriorated compared to the preceding trial having the relevance, and the output means specifies the trial Supplementary note 1 characterized by outputting one or both of the node indicating the trial performed and the link connecting the node and the node indicating the previous trial in a manner different from that of other nodes or other links 8.
  • the model generation support device according to any one of 7.
  • the output means compares at least one of the color tone of the node indicating the identified trial, the size and shape of the node, the color tone of the link, and the thickness of the link with other nodes or other links.
  • the model generation support device according to appendix 8, wherein output is performed in different modes.
  • Appendix 10 10.
  • the display data indicates the identified trial.
  • the model generation support device according to any one of Appendices 8 to 10, further comprising a node indicating the trial and a node indicating the trial in the previous stage in such a manner that at least a part of these nodes are overlapped.
  • the superimposed nodes are nodes whose performance does not improve much.
  • At least one processor obtains trial information including parameters used in trials in the AI model building process, and based on the difference in the trial information of each of the plurality of trials, the relevance between the plurality of trials estimating, and outputting display data including a plurality of nodes indicating each of the plurality of trials and a link indicating the relationship.
  • At least one processor is provided, and the processor acquires trial information including parameters used in trials in the AI model building process, and based on the difference in the trial information of each of the plurality of trials, the plurality of and an output process for outputting display data including a plurality of nodes indicating each of the plurality of trials and a link indicating the relationship.
  • the processor acquires trial information including parameters used in trials in the AI model building process, and based on the difference in the trial information of each of the plurality of trials, the plurality of and an output process for outputting display data including a plurality of nodes indicating each of the plurality of trials and a link indicating the relationship.
  • the processor acquires trial information including parameters used in trials in the AI model building process, and based on the difference in the trial information of each of the plurality of trials, the plurality of and an output process for outputting display data including a plurality of nodes indicating each of the plurality of trials and a link indicating the relationship.
  • the processor acquires trial information including parameters used in trials in
  • the model generation support device may further include a memory, and the memory stores a program for causing the processor to execute the acquisition process, the estimation process, and the output process. may Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.
  • Model generation support device 3... Information processing system (model generation support system) 11, 21... Acquisition unit 12, 22... Estimation unit 13, 23... Output unit 50... Model building device 60... Database 70... Display 100... Input information 101... Input data 102 Parameter data 200 Output information 250, 300 Trial information table 400 Estimated data table 500 Display data 600 Color density table 700 Thickness Tables 801, 802, 803, 804, 805, 806 ... display data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

モデルの構築の過程をより理解し易く提示することができる技術を提供するという課題を解決するために、モデル生成支援装置(1)は、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得手段(11)と、複数の試行それぞれの試行情報の差異に基づいて、複数の試行の間の関連性を推定する推定手段(12)と、複数の試行それぞれを示す複数のノードと、関連性を示すリンクとを含む表示データを出力する出力手段(13)と、を備えている。

Description

モデル生成支援装置、モデル生成支援方法及びプログラム
 本発明は、モデル生成支援装置、モデル生成支援方法及びプログラムに関する。
 近年、予測モデルに基づいて、さまざまな事象の予測が行われている。例えば、特許文献1には、予測モデルから出力された予測結果と、当該予測モデルの予測ロジックを示す決定論理とを提示する計算機システムが開示されている。
 また、例えば特許文献2には、分析対象の学習データが非常に少ない段階では、対象の学習データ及び類似する学習データを用いて予測モデルを構築し、対象の学習データが十分に蓄積された段階では、対象の学習データのみを用いて予測モデルを構築する学習モデル選択システムが開示されている。
特開2020-126510号公報 国際公開2015/146026号明細書
 ここで、より精度のよい予測モデルを構築する過程では、構築条件等を変化させながら予測モデルを構築する処理が繰り返される。このような構築の過程は、他の予測モデルを構築する際に参考にできる場合がある。また、このような構築の過程は、当該予測モデルの性能の良さを示す根拠として提示できる場合がある。しかしながら、特許文献1、2に記載された技術では、どのような経過で予測モデルが構築されたのかがわかりにくく、モデルの生成を支援することが難しいという問題があった。
 本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、モデルの構築の過程をより理解し易く提示することにより、モデルの生成を支援する技術を提供することである。
 本発明の一側面に係るモデル生成支援装置は、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得手段と、複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定する推定手段と、前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する出力手段と、を備える。
 本発明の一側面に係るモデル生成支援方法は、少なくとも1つのプロセッサが、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得し、複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定し、前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する、ことを含む。
 本発明の一側面に係るプログラムは、コンピュータに、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得処理と、複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定する推定処理と、前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する出力処理と、を実行させる。
 本発明の一態様によれば、モデルの構築の過程をより理解し易く提示することにより、モデルの生成を支援することができる。
本発明の例示的実施形態1に係る情報処理装置の構成を示すブロック図である。 例示的実施形態1に係る情報処理装置が出力するノード及びリンクの表示要素の一例である。 例示的実施形態1に係る情報処理方法S1の流れを示すフローチャートである。 本発明の例示的実施形態2に係る情報処理システムの構成を示すブロック図である。 ユーザが実行する1回の試行の処理の流れを示す概念図である。 例示的実施形態2に係るモデル構築装置に入力される入力データとパラメータデータの一例である。 データベースに記録されたすべての試行情報表の一部を示す例である。 例示的実施形態2に係る情報処理装置が取得する試行情報表の一例である。 例示的実施形態2に係る情報処理装置が試行間の関連性を推定した推定データの一例である。 例示的実施形態2に係る情報処理装置が生成して出力する表示データの一例である。 例示的実施形態3に係る情報処理装置が推定した、各試行を示すノードの色濃度を含む色濃度表の一例である。 例示的実施形態3に係る情報処理装置が推定した、ノードを接続するリンクの太さを含む太さ表の一例である。 例示的実施形態3に係る情報処理装置が出力した、ノードの色濃度とリンクの太さをロス値に基づいて強調表示した表示データの一例である。 例示的実施形態3に係る情報処理装置が出力した別の態様の表示データの一例である。 例示的実施形態3に係る情報処理装置が出力した別の態様の表示データの一例である。 例示的実施形態3に係る情報処理装置が出力した別の態様の表示データの一例である。 例示的実施形態3に係る情報処理装置が出力した別の態様の表示データの一例である。 ソフトウェアによって各部を構成する図である。
 〔例示的実施形態1〕
 本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
 (情報処理装置の構成)
 本例示的実施形態に係る情報処理装置1の構成について、図1を参照して説明する。図1は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、モデル構築装置がモデルを構築する過程を可視化する装置である。モデル構築装置は、情報処理装置1とは物理的に異なる装置であってもよいし、同一の装置であってもよい。なお、情報処理装置1は、請求の範囲に記載した「モデル生成支援装置」の一形態である。
 本例示的実施形態におけるモデルは、入力情報に対する推論結果を出力する。モデルが行う推論の内容は限定されないが、例えば、回帰、分類、予測、最適化等を含む。この場合、推論結果とは、回帰結果、分類結果、予測結果、最適結果等を含む。モデルの種類は限定されないが、例えば、背景知識を参照して生成されるルールベースモデルであってもよいし、機械学習アルゴリズムによって生成される機械学習モデルであってもよい。また、機械学習モデルは、回帰分析モデル、サポートベクターマシン、決定木モデル、遺伝的アルゴリズムモデル、ニューラルネットワークモデル等を含む。以降、本実施形態におけるモデルを、「AI(Artificial Intelligence)モデル」ともいう。
 本例示的実施形態では、AIモデルを生成又は改変する試行を繰り返すことを、「モデルを構築する」と称する。また、このような試行は、ユーザ操作に基づいてモデル構築装置が繰り返すものであってもよいし、ユーザ操作によらずにモデル構築装置が繰り返すものであってもよい。本例示的実施形態では、このような試行は、ユーザ操作に基づいてモデル構築装置が繰り返すものとする。以下、構築する対象のAIモデルを、「対象モデル」と称することがある。
 図1に示すように、情報処理装置1は、取得部11、推定部12及び出力部13を備えている。なお、取得部11は請求の範囲に記載した「取得手段」の一形態であり、推定部12は請求の範囲に記載した「推定手段」の一形態であり、出力部13は請求の範囲に記載した「出力手段」の一形態である。また、情報処理装置1は、少なくとも1つのプロセッサを含み、取得部11、推定部12及び出力部13は、請求の範囲に記載した「少なくとも1つのプロセッサ」によって実現される構成の一形態である。
 モデル構築装置は、ユーザ操作に基づき、AIモデルを構築するために複数の試行を実行する。取得部11は、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する。以下では、試行の各々を示す情報の全体、又は個々の情報を「試行情報」とも称する。試行情報には、一例として、当該試行において用いられたパラメータ、評価結果等を示す情報が含まれる。例えば、試行情報は、モデル構築装置によって情報処理装置1の外部にあるデータベースに記録されており、取得部11は、試行情報をデータベースから取得する。取得部11は、取得した情報を推定部12に送信する。あるいは、この試行情報は、情報処理装置1の図示しないメモリに記録されており、取得部11は、メモリから試行情報を取得してもよい。試行情報の具体例については後述する。
 推定部12は、取得部11から受信した複数の試行それぞれの試行情報の差異に基づいて、複数の試行の間の関連性を推定する。推定部12は、推定した関連性に関する事項を、出力部13に送信する。試行情報の差異又は変化と試行の関連性の具体例については後述する。
 出力部13は、推定部12から受信した関連性に関する事項を参照して、複数の試行それぞれを示す複数のノードと、関連性を示すリンクとを含む表示データを出力する。表示データは、出力部13が生成してもよい。出力部13は、生成した表示データを、図示しない出力インタフェースを介して表示装置(例えばディスプレイ)に出力する。これにより、表示データが表示装置に表示される。
 本例示的実施形態におけるノードとは、1つの試行を表す表示要素であり、例えば、矩形、楕円形、菱形等の枠で表示されてもよい。リンクは、試行間の関連性を示す表示要素であり、例えば、ノードとノードとを接続する線分又は矢印で表示されてもよい。
 図2は、出力部13が生成するノードN及びリンクRの一例である。図2に示す例では、試行1を表すノードN1と試行2を表すノードN2とが、矢印であるリンクR1によって接続されている。ノードN1とノードN2とがリンクR1によって接続されているということは、試行1と試行2とに関連性があるということである。同様に、ノードN2とノードN3とがリンクR2によって接続され、ノードN3とノードN4とがリンクR3によって接続され、ノードN4とノードN5とがリンクR4によって接続されている。後述するように、表示データは、ノードNの内部又は近傍に、当該ノードNに対応する試行情報の少なくとも一部を含んでもよい。また、表示データは、リンクRの内部又は近傍に、当該リンクRが示す関連性を有する試行間で変化した試行情報の少なくとも一部を含んでもよい。
 試行とは、一例として、ユーザ操作により設定又は更新した入力情報を用いて対象モデルを生成する処理と、生成された対象モデルから出力された推論結果を評価する処理とを含む一連の処理である。通常、このような試行は、入力情報の一部又は全部を変化させながら複数回繰り返される。例えば、対象モデルが機械学習モデルである場合は、学習フェーズとしてこのような試行が繰り返し実行される。なお、「対象モデルを生成する」とは、当該対象モデルを初めて生成すること、及び、生成した対象モデルの性能等を調整するために当該対象モデルを改変することを含むものとする。
 なお、図1では、取得部11、推定部12及び出力部13は、物理的に一体に形成された1つの装置にまとめて配置されているように記載しているが、必ずしもその必要はない。即ち、これらの機能ブロックは物理的に異なる複数の装置に分散して配置され、これらの装置が有線又は無線で互いに情報通信可能に接続されていてもよい。また、これらの機能ブロックのうちの少なくとも一部がクラウド上に配置されていてもよい。
 また、情報処理装置1は、少なくとも1つのプロセッサを備えており、このプロセッサが、図示しないメモリに記録されたプログラムを読み込んで、取得部11、推定部12及び出力部13として機能する構成を有していてもよい。このような構成については後述する。
 (情報処理装置1の効果)
 以上のように、本例示的実施形態に係る情報処理装置1においては、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得部と、複数の試行それぞれの試行情報の差異に基づいて、複数の試行の間の関連性を推定する推定部と、複数の試行それぞれを示す複数のノードと、関連性を示すリンクとを含む表示データを出力する出力部と、を備える構成が採用されている。このため、本例示的実施形態に係る情報処理装置1によれば、ユーザは、AIモデルの構築の過程を、試行を示すノードとノード間を接続するリンクとによって視認できる。その結果、当該過程をより理解し易く提示することにより、モデルの生成を支援することができる、という効果が得られる。
 (情報処理方法)
 次に、情報処理装置1が実行する、AIモデルを構築する過程を可視化する情報処理方法S1の流れについて説明する。図3は、情報処理方法S1の流れを示すフローチャートである。図3に示すように、情報処理方法S1はステップS11、ステップS12及びステップS13を含む。なお、情報処理方法S1は、請求の範囲に記載した「モデル生成支援方法」の一形態である。
 ステップS11において、取得部11は、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する。ステップS12において、推定部12は、複数の試行それぞれの試行情報の差異に基づいて、複数の試行の間の関連性を推定する。ステップS13において、出力部13は、複数の試行それぞれを示す複数のノードと、関連性を示すリンクとを含む表示データを出力する。出力された表示データは、例えば図2に示すように、表示装置に表示される。
 (情報処理方法S1の効果)
 以上のように、本例示的実施形態に係る情報処理方法S1においては、情報処理装置1が、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得し、複数の試行それぞれの試行情報の差異に基づいて、複数の試行の間の関連性を推定し、複数の試行それぞれを示す複数のノードと、関連性を示すリンクとを含む表示データを出力する、という構成が採用されている。このため、本例示的実施形態に係る情報処理方法S1によれば、ユーザは、AIモデルの構築の過程を、試行を示すノードとノード間を接続するリンクとによって視認できる。その結果、当該過程をより理解し易く提示することにより、モデルの生成を支援することができる、という効果が得られる。
 〔例示的実施形態2〕
 本発明の第2の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。本例示的実施形態に係る情報処理装置2は、例示的実施形態1で説明した情報処理装置1の機能に加えて、あるいはそれに代えて以下に説明する機能を実行することができる。
 図4は、例示的実施形態2に係る情報処理システム3の構成を示すブロック図である。図4に示すように、情報処理システム3は、モデル構築装置50、データベース60、情報処理装置2及びディスプレイ70を備えている。モデル構築装置50は、ユーザが対象モデルLを生成するために用いる装置である。データベース60には、モデル構築装置50が出力した各試行における出力情報が記録される。情報処理装置2は、データベース60に記録された出力情報を用いて、複数の試行間の関連性を推定し、表示データを生成してディスプレイ70に出力する。ディスプレイ70は、表示データを表示する。
 情報処理装置2は、取得部21、推定部22及び出力部23を備える。取得部21、推定部22及び出力部23の機能は、基本的に例示的実施形態1で説明した取得部11、推定部12及び出力部13と同様であるが、これらと異なる機能については順次説明する。
 (試行Tの処理の流れ)
 前述のように、ユーザは、モデル構築装置50を用いて対象モデルLを構築する。図5は、ユーザがモデル構築装置50を用いて行う1回の試行Tの処理の流れを示す概念図である。図5に示すように、ある試行において、ユーザは、入力装置(図示せず)を用いて入力情報100をモデル構築装置50に入力する。モデル構築装置50は、対象モデルLに入力情報100を入力して推論させ、推論結果を評価する。推論結果を評価するとは、例えばロス値を導出することである。モデル構築装置50は、入力情報100と評価結果を示す情報とを含む出力情報200を生成する。ユーザは、モデル構築装置50から出力された出力情報200に基づいて対象モデルLを改変する。具体的には、ユーザは、対象モデルLを構成するパラメータを更新する。ユーザは、出力情報200に基づいて、次の試行で入力する入力情報100を決定し、モデル構築装置50に入力する。また、ユーザは、出力情報200に基づいて、対象モデルLの種類を変更することを決定し、当該対象モデルLの種類を示す情報を入力情報100に含めてもよい。
 入力情報100は、一例として、入力データ101、パラメータデータ102、モデルID103及びタグデータ104を含む。入力データ101は、対象モデルLに入力するデータである。入力データ101は、例えば、当該入力データ101に付与されたラベルを含んでいる。パラメータデータ102は、対象モデルLを構成するパラメータ群に適用される重み係数、ハイパーパラメータ等を含む。モデルID103は、当該試行において生成すべき対象モデルLを識別するIDである。タグデータ104は、一連の試行を識別するIDである。
 一例として、図6に示すように、入力データ101は、センサ1、センサ2、センサ3、センサ4の出力値の経時データを含む。入力データ101の1行はある時点での各センサの出力値であり、これが時間の経過に沿って配列されている。入力データ101は、X.cvsという名称のデータファイルに保存されている。このようなデータは、例えば、あるプラント設備のセンサデータであり、センサデータに基づき設備の異常を検出する対象モデルLを構築する際の入力データの例である。
 また、パラメータデータ102は、一例として、4つのパラメータの名称と値を含む。具体的には、パラメータAとその値である10、パラメータBとその値である0.005、パラメータCとその値である1000、パラメータInput File(つまり入力データ101を示すパラメータ)とそのデータファイル名であるX.cvsである。ファイルX.cvsに含まれるデータは、例えば、生データ(各センサからの出力値)をフーリエ変換処理したデータである。換言すると、この例では、入力データ101は多数のデータを含むため、そのデータファイル名がパラメータとしてパラメータデータ102に含まれる。
 パラメータA~Cは、例えば、対象モデルLを構成するパラメータ群に適用される重み係数(重み)を含んでいてもよいし、ハイパーパラメータを含んでもよい。例えば、対象モデルLがニューラルネットワークモデルである場合、ハイパーパラメータの一例としては、ニューラルネットワークの総数、ユニット数、活性化関数、ドロップアウト率、最適化関数等が挙げられるが、これらに限られない。
 モデル構築装置50は、入力データ101の少なくとも一部及びパラメータデータ102を対象モデルLに入力して当該入力データ101に付与されたラベルが出力されるよう、対象モデルLを生成する。例えば、対象モデルLが機械学習モデルである場合、対象モデルLを生成する処理は、対象モデルLを構成するパラメータ群を更新する処理を繰り返す処理である。この場合、モデル構築装置50は、当該パラメータ群の更新処理を、当該パラメータ群が収束するまで又は設定された回数に達するまで繰り返すことにより、対象モデルLを生成する。
 また、モデル構築装置50は、対象モデルLに、入力データ101の少なくとも一部を入力することにより出力される推論結果を評価する。例えば、モデル構築装置50は、評価結果として、後述するロス値201、異常度202等を算出する。
 図5に戻り、モデル構築装置50から出力される出力情報200は、一例として、ロス値201、異常度202、試行時刻203、入力データ101、パラメータデータ102、モデルID103、及びタグデータ104を含む。
 ロス値201又は異常度202は、対象モデルLの性能を示す指標の一例であり、対象モデルLの種類により、例えばいずれか1つが出力される。ロス値201は、入力情報に対して対象モデルLが出力すべき正解値がある場合に、対象モデルLの出力値と正解値との誤差を示す誤差関数値である。異常度202は、対象モデルLが入力データ101の中の異常なデータを抽出するAIモデルである場合に、異常なデータの特定とそれがどの程度正常な値から異なっているかを示す数値である。あるいは、対象モデルLの種類により、ロス値201又は異常度202とは異なる指標が出力されてもよい。試行時刻は、試行Tを開始した時刻であり、例えば対象モデルLに入力データを入力した時刻である。
 入力データ101、パラメータデータ102、モデルID103、及びタグデータ104は、入力情報100に含まれる情報と同じである。
 出力情報200は、データベース60に送信され、試行情報として記録される。一例として、データベース60には、対象モデルLの構築の過程における7回の試行T1~T7の出力情報200が送信され、試行情報として記録されている。なお、データベース60には、他のAIモデルを構築する過程における試行情報が記録されていてもよい。記録された試行情報のうち、対象モデルLの構築の過程における一連の試行を示す試行情報は、一例として、モデルID103及びタグデータ104の一方又は両方により区別することができる。
 本例示的実施形態に係る情報処理装置2は、モデル構築装置50を用いて行った試行T1~T7における試行情報を取得し、これらの試行の間の関連性を推定する。具体的には、まず、取得部21は、データベース60に記録されたすべての試行情報のうち、モデルID及びタグデータの両方が類似する試行情報を抽出(取得)する。
 図7は、データベース60に記録されたすべての試行情報を記録した試行情報表250の一部である。試行情報表250は、一例として、試行ID、モデルID、タグデータ、試行時刻、ロス値、パラメータA、パラメータB、パラメータC、及び入力データファイル名の各欄に記録されたデータで構成される。
 図7において、試行IDの欄に記録されたT1~T7、S1、R3は、それぞれの試行を識別するIDである。モデルIDの欄に記録された「L001」は、対象モデルLに付されたIDである。モデルIDは、一連の試行で同じ符号を用いてもよく、試行ごとに一部を変更した符号を用いてもよい。本例示的実施形態では、一連の試行で同じ符号を用いるものとし、以降、モデルID「L001」が付されたAIモデルを、モデルL001とも記載する。また、タグデータの欄に記録された「TAG001」は、対象モデルL001を構築する過程における一連の試行T1~T7に共通して付されたデータである。また、タグデータの欄に記録された「TAG002」は、対象モデルL001を構築する過程における試行S1を含む他の一連の試行に共通して付されたデータである。換言すると、図7の例では、同じ対象モデルL001を構築するために、TAG001が付された一連の試行T1~T7と、TAG001とは異なるアプローチがなされた一連の試行(試行S1を含む)とが行われている。また、モデルIDの欄にL002と記録され、タグデータの欄にTAG003と記録された試行情報は、対象モデルL001とは異なるAIモデルL002を構築するために行われた試行R3を示すものである。
 図8は、データベース60に記録されたすべての試行情報から、取得部21が抽出した試行情報を記録した試行情報表300の一例である。前述のように、取得部21は、データベース60に記録されたすべての試行情報のうち、モデルID及びタグデータの両方が類似する試行情報を試行情報表300のように抽出(取得)する。ここで、「モデルIDが類似する」とは「モデルIDが一致する(同じである)」こととするが、これに限らず、モデルIDが所定の類似条件を示すことであってもよい。また、「タグデータが類似する」とは、「タグデータが一致する」こととするが、これに限らず、タグデータが所定の類似条件を示すことであってもよい。類似条件とは、例えば、モデルID又はタグデータを示すテキストの一部が一致することであってもよい。また、取得部21は、対象モデルLの構築の過程における一連の試行として、モデルID及びタグデータの少なくとも一方が類似する複数の試行を抽出してもよい。
 本例示的実施形態では、図8に示すように、取得部21は、モデルIDが同じかつタグデータが同じである試行T1~T7を抽出している。なお、取得部21は、モデルID及びタグデータの少なくとも一方が同じ試行情報を抽出してもよく、モデルID及びタグデータの少なくとも一方が類似の試行情報を抽出してもよい。
 図9は、推定部22が試行間の関連性を推定した推定データ表400の一例である。具体的には、推定部22は、複数の試行の時系列において連続する2つの試行間の関連性を推定する。例えば、試行T1と試行T2とは、連続する試行である。連続する試行とは、複数の試行を行った順(試行開始時刻の順)に並べた時系列において、隣接する試行である。つまり、推定部22は、複数の試行から連続する試行T1と試行T2とを抽出し、これらの間には、時系列において前段(スタート)の試行T1で生成された対象モデルLを改変するために、後段(エンド)の試行T2が行われた、という関連性があることを推定する。
 同様に、推定部22は、連続する試行T2と試行T3を抽出し、前段の試行T2で生成された対象モデルLを改変するために、後段の試行T3が行われた、という関連性があることを推定する。このように、推定部22は、時系列において連続する2つの試行の組み合わせ全てについて抽出してその関連性を推定する。
 (試行間の関連性の推定の具体例)
 推定部22が実行する、試行間の関連性の推定について、具体例を説明する。一例として、推定部22は、第1のパラメータが共通し第2のパラメータが変化する複数の試行を、関連する第1の試行群として抽出する。第1のパラメータと第2のパラメータは試行情報の一例である。第2のパラメータは、第1のパラメータとは種類が異なるパラメータである。本例示的実施形態では、前段の試行に対して後段の試行において変更するパラメータの個数が1つであり、それ以外のパラメータは変更しないことを想定している。ただし、変更するパラメータの個数は、2以上であってもよい。
 具体的には、図8に示す試行情報表300を参照し、図8の例では、推定部22は、試行T1~T7のうち、パラメータBが共通するとともにパラメータAが前段の試行に対して変化している試行T2、T3、T4を抽出する。パラメータBは、第1のパラメータの一例であり、パラメータAは第2のパラメータの一例である。そこで、推定部22は、試行T1から試行T4までを第1の試行群として抽出する。そして、抽出した試行T1から試行T4までのうち、連続する試行T1及びT2、T2及びT3、T3及びT4の間に、それぞれ上述した関連性があると推定する。
 また、試行情報は、第1のパラメータ及び第2のパラメータとは異なる第3のパラメータをさらに含み、推定部22は、第2のパラメータ及び第3のパラメータが共通し第1のパラメータが変化する複数の試行を、関連する第2の試行群として抽出する。
 具体的には、図8の例で、入力データファイル名を第3のパラメータとすると、試行T5から試行T7までは、第2のパラメータ(A)と第3のパラメータ(入力データファイル名)は同じ値である一方、第1のパラメータ(B)はすべて異なっている。そこで、推定部22は、試行T5から試行T7までを第2の試行群の試行Tとして抽出する。そして、抽出した試行T5から試行T7のうち、連続する試行T2及びT5、T5及びT6、T6及びT7の間に、それぞれ上述した関連性があると推定する。なお、入力データファイル名が異なるのは、データの前処理方法が異なるためである。本例示的実施形態では、ファイルX.cvsに含まれるデータは、生データ(各センサからの出力値)をフーリエ変換したデータである。一方、ファイルY.cvsに含まれるデータは、生データを極座標変換したデータである。
 さらに、推定部22は、第2の試行群のうちの時間的に先頭の試行に対して第1のパラメータ及び第2のパラメータが共通する、第1の試行群における試行を、第1の試行群における分岐点として特定する。
 具体的には、推定部22は、第2の試行群の時間的に先頭の試行(試行T5)における第1のパラメータ(B)及び第2のパラメータ(A)が共通する第1の試行群における試行T2を、第1の試行群における分岐点として特定する。さらに、推定部22は、第2の試行群の先頭である試行T5と試行T2とを、分岐したリンクR4で関連付ける。以上の処理を行うことにより、推定部22は、図9に示す推定データ表400を生成する。
 図10は、出力部23が生成して出力する表示データ500の一例である。出力部23は、推定データ表400を参照して、図10に示すように、ノードN1~N7とリンクR1~R6を含む表示データを生成する。ノードN1~N7は、試行T1~T7を示す表示要素である。リンクR1~R6は、試行T1~T7のうち該当する2つの試行T間の関連性を示す表示要素である。このように図示することで、第2の試行群(ノードN5~ノードN7)が示す試行T5~T7は、分岐点であるノードN2が示す試行T2から別のアプローチでパラメータを変化させて行った一連の試行であることが容易に視認できる。
 ノードN1~N7は、それぞれ矩形の枠で表されている。また、ノードを特定しない場合はノードNと記載し、リンクを特定しない場合はリンクRと記載する。リンクRは、向きを有し、例えば、矢印で表されている。リンクRの始点には、対応する関連性を有する2つの試行Tのうち、時系列において前段の試行Tを示すノードNが接続される。リンクRの終点には、対応する関連性を有する2つの試行Tのうち、時系列において後段の試行Tを示すノードNが接続される。これにより、ノードN1~N7及びリンクR1~R6は、有向グラフを表す。以下、前段の試行を示すノードを前段ノード、後段の試行を示すノードを後段ノードとも称する。
 表示データに含まれる複数のノードは、試行を行った順に配列される。つまり、出力部23は、複数のノードNを、各試行を行った順に配列した表示データを生成する。具体的には、図10に示すように、出力部23は、複数のノードNを、試行を行った順に図の左から右に向かって配列した表示データ500を生成して出力する。換言すると、表示データ500では、時間的に早い試行Tを示すノードNがリンクRの左側に、時間的に遅い試行Tを示すノードNがリンクRの右側に配列される。
 また、出力部23は、図10に示すように、第1の試行群を示す複数のノード(N1~N4)と当該複数のノード間を接続するリンク(R1~R3)とを含む表示データを第1の列として出力する。この際、出力部23は、試行群に含まれるノードを試行を行った順に配列した表示データを出力する。さらに、出力部23は、図10に示すように、第2の試行群を示すノード(N5~N7)及びリンク(R4~R6)が、第1の試行群を示す複数のノードのうちの分岐点の試行を示すノード(R2)から分岐して接続された表示データを第2の列として出力する。
 図10に示すように、表示データ500は、途中でリンクR2とR4とに分岐している。分岐先のそれぞれのノードNの列は、異なるパラメータが対象モデルLの性能に与える影響を探索した過程を示している。つまり、ユーザは、対象モデルLの構築過程を図10のようなグラフ構造で視認することにより、対象モデルLの構築の過程を容易に理解することができる。
 (情報処理装置2の効果)
 以上のように、本例示的実施形態に係る情報処理装置2においては、表示データに含まれる複数のノードは、試行を行った順に配列されるという構成が採用されている。このため、本例示的実施形態に係る情報処理装置2によれば、例示的実施形態1に係る情報処理装置1の奏する効果に加えて、対象モデルLの構築の経時的な過程が容易に理解できるという効果が得られる。
 さらに、情報処理装置2においては、推定部22は、第1のパラメータが共通し第2のパラメータが変化する複数の試行を、関連する第1の試行群として抽出し、出力部23は、第1の試行群を示す複数のノードと当該複数のノード間を接続するリンクとを含む表示データを出力するという構成が採用されている。さらに、情報処理装置2においては、試行情報として第1のパラメータ及び第2のパラメータとは異なる第3のパラメータをさらに含み、推定部22は、第2のパラメータ及び第3のパラメータが共通し第1のパラメータが変化する複数の試行を、関連する第2の試行群として抽出し、第2の試行群のうちの時間的に先頭の試行に対して第1のパラメータ及び第2のパラメータが共通する、第1の試行群における試行を、第1の試行群における分岐点として特定し、出力部は、第2の試行群を示すノード及びリンクが、第1の試行群を示す複数のノードのうちの分岐点の試行を示すノードから分岐されて接続された表示データを出力するという構成が採用されている。このため、情報処理装置2によれば、例示的実施形態1に係る情報処理装置1の奏する効果に加えて、対象モデルLを改変するために、複数通りに入力情報を異ならせてそれぞれ試行を行ったという経過を容易に理解することができるという効果が得られる。
 〔例示的実施形態3〕
 本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (情報処理装置の構成)
 例示的実施形態3に係る情報処理装置4は、例示的実施形態2に係る情報処理装置2を、以下のように変形した態様である。以下では、情報処理装置4の各機能ブロックについて、例示的実施形態2から変形した点について、順次説明する。
 情報処理装置4の取得部21は、データベース60から一連の試行の試行情報を取得する。本例示的実施形態では、一連の試行情報は、例示的実施形態2で説明した試行情報表300(図8参照)と同じである。従って、推定部22は、試行情報表300から、推定データ表400(図9参照)を生成する。そして出力部23は、表示データ500(図10参照)を生成してディスプレイ70に出力する。
 (異なる態様の表示)
 本例示的実施形態では、推定部22は、複数の試行のうち、関連性を有する前段の試行に比べてAIモデルの性能が向上した試行、又は性能が劣化した試行を特定する。さらに、出力部23は、特定した試行を示すノードと、当該ノードと前段の試行を示すノードとを接続するリンクとの一方又は両方を、他のノード又は他のリンクと異なる態様で出力する。異なる態様ということは、例えば、他よりも強調するということである。あるいは、異なる態様ということは、逆に他よりも目立たなくすることでもよい。
 具体的には、推定部22は、試行情報表300のロス値を参照して、推定データ表400のリンクRで接続された2つのノードの組み合わせのうち、前段のノードに対してロス値が減少又は増加した後段のノードを特定する。出力部23は、その後段ノードと、前段ノードと後段ノードを接続するリンクと、の一方又は両方の態様を、他と異ならせた表示データを出力する。
 ノード又はリンクを他と異ならせた態様とする方法は限定されないが、一例として、出力部23は、特定した試行を示すノード(後段ノード)の色調、当該ノードの大きさ、形状、当該リンクの色調、及び当該リンクの太さのうちの少なくともいずれかを、他のノード又は他のリンクと異ならせることができる。
 例えば、ロス値は小さいほうが性能が良いことを示すため、一例として、出力部23は、ロス値が小さくなった後段ノードと、後段ノードと前段ノードを接続するリンクに対して強調表示を行う。強調表示の方法は限定されないが、例えば、ノードの色調を薄くし、リンクの太さを太くすることにより、強調表示をすることができる。逆に、出力部23は、あるノードを小さくすることにより、他のノードよりも目立たなくすることができる。本例示的実施形態では、色調とは色の種類又は色の濃度を指す。
 図11は、試行情報表300に各試行を示すノードの色濃度を加えた色濃度表600の一例である。色濃度表600の右端の欄は、ノードの色の濃度(%)を示す。試行IDがT1で示されるノードN1は、試行の最初でロス値が最も大きいため、濃度100%とする。出力部23は、これを基準として、各ノードNの濃度を計算する。
 色濃度表600の各ノードNの濃度Cは、以下の式(1)で計算した値である。
 C(%)=100×(LossT-Lossmin)/(Lossmax-Lossmin)…(1)
 ここで、LossTは各ノードNのロス値、Lossminは最小ロス値、Lossmaxは最大ロス値である。上記式(1)は、一連の試行のうち、ロス値が最大のノードを100%の濃度とし、ロス値が最小のノードを0%の濃度とするための計算式である。つまり、性能が良いノードほど色が薄くなるように表示する。なお、ノードの色の濃度を求める方法は上記の方法に限らず任意である。
 図12は、ノードNを接続するリンクRの太さを示す太さ表700の一例である。太さ表700は、推定データ表400にリンクの太さを加えた表である。太さ表700のリンクの太さは、前段ノードと後段ノードとのロス値の差に基づいて求めた値である。具体的には、前段ノードのロス値から後段ノードのロス値を差し引き、その差が0.5未満ならリンクの太さを1.0とし、差が0.5以上0.7未満なら太さを2.0とし、差が0.7以上であれば太さを3.0とする。
 例えば、ノードN2からノードN5のリンクR4は、ロス値の減少量が1.0と大きく減少しているため、太さが3.0である。一方、ノードN2とノードN3を接続するリンクR2、ノードN3とノードN4を接続するリンクR3等はロス値の減少量が小さいため、太さが1.0である。太さの単位は任意であるが、ロス値の減少が大きいほど太さを太くする。なお、リンクの太さを求める方法は上記の方法に限らず任意である。
 以上の方法で求めたノードの色濃度とリンクの太さが反映された、強調された表示データ801を図13に示す。図13に示すように、最初のノードN1は黒色で塗りつぶされている。しかしロス値が小さくなる(性能が良くなる)ほど、ノードNの色が薄く表示されている。また、リンクRの太さは、ロス値の減少量が大きいリンクR4は太い矢印で表示されている。この表示データは、ディスプレイ70に表示される。つまり、ディスプレイ70上で、リンクの太さが太いルートに従って、色が薄くなるようにノードを辿ることにより、対象モデルLの性能を高める構築過程を視覚的に理解し易くすることができる。
 なお、図13に示すように、出力部23は、分岐されたノードを含む複数のノードが、試行を行った時刻に対応させて所定の方向に配置された表示データを出力する。言い換えれば、表示データでは、第1の試行群及び第2の試行群に含まれる複数の試行に対応する複数のノードが、試行を行った順に所定の方向に配置される。一例として、表示データにおいて時間的な順序を示す方向をx軸とする座標系を定め、第1の列に含まれる第1の試行を示す第1のノードのx座標と、第2の列に含まれる第2の試行を示す第2のノードのx座標との関係が、第1の試行と第2の試行との時間的な順序関係を表すように、第1のノード及び第2のノードを配置している。つまり、図13では、左側ほど時間的に早く試行されたノードNが配置されており、図の右側ほど時間的に後で試行されたノードNが配置されている。より具体的には、時間軸802に示すように、各試行Tの試行開始時刻は、ノードNの矩形の左辺の位置で示されている。例えば、ノードN3及びノードN5の配置関係により、試行T2から分岐した一方の列に含まれる試行T3は、他方の列に含まれる試行T5より時間的に先行して行われていることが容易に視認できる。このように、複数のノードNを時間的な前後関係を保って配列することにより、対象モデルLが構築された過程の時間的な前後関係を視覚的に理解し易くすることができる。なお、時間軸802は表示データ801に含める必要はない。
 また、図13に示すように、表示データは、各試行において得られるAIモデルの性能を示す情報を含む。出力部23は、各試行において得られるAIモデルの性能を示す情報を含む表示データを出力する。つまり、表示データ801の各ノードNの矩形の中に、ロス値を表示している。このように、対象モデルLの性能を示す情報を表示することにより、性能の向上を具体的な数値として確認し易くすることができる。
 さらに、図13に示すように、表示データは、各試行で用いたパラメータを含む。出力部23は、前段の試行で用いたパラメータのうち、少なくとも後段の試行で変更されたパラメータを含む表示データを出力する。例えば、ノードN1とノードN2を接続するリンクR1に対応する下方位置に、パラメータAが10から50に変更されたことを示す情報「A:10→50」が表示されている。また、リンクR4に対応する下方位置に、入力ファイルがX.csvからY.csvに変更されたことを示す情報「入力ファイル変更 入力ファイル:X.csv→Y.csv」が表示されている。このように、変化させたパラメータを表示することにより、性能の変化がどのパラメータによるものかを視覚的に理解し易くすることができる。
 また、図13に示すように、最後のノードN7で用いたモデルID、入力ファイル名、パラメータの値は、ノードN7の内側に表示できないため、ノードN7の外側にまとめて表示されている。これは、最終的に構築された対象モデルLの仕様を表すデータである。最終的に構築された対象モデルLとは、本例示的実施形態では、最も性能値が良い対象モデルLを指す。従って、必ずしも時間的に最後に試行したAIモデルとは限らない。
 また、最初の試行T1から最も結果が良くなった試行T7までの最短ルートのみノードとリンクの色を変更してもよい。例えば、図9に示すリンク情報が得られたとして、最初に試行した試行T1から最も良かった試行T7までに通る全てのノード(N1,N2,N5~N7)とリンク(R1,R4~6)の色を変更する。このような強調表示により、類似の実験をする場合にどのパラメータをどの程度変更すればよいか追跡しやすい効果がある。
 また、表示データは、性能の向上又は劣化の程度に応じた態様のノードを含んでもよい。例えば、性能向上の程度が大きいほど、ノードの色は濃く、大きさを大きくしてもよい。逆に、性能劣化の程度が大きいほど、ノードの色は薄く、大きさを小さくしてもよい。このような強調表示により、性能向上に寄与したノードを見分けることが容易となる。
 (他の強調表示例)
 次に、出力部23が生成する表示データの強調表示の他の例について、図面を参照して説明する。図14は、出力部23が生成した他の態様の表示データ803である。表示データ803では、出力部23は、複数のノードを仮想的な三次元空間に配置して表示データに含め、特定した試行を示すノードを、前段の試行を示すノードに対して三次元空間の視点からの距離を異ならせて配置している。具体的には、図14では、ノードN1、N2、N3、及びN4を、他のノードNよりも視点から遠い距離にあるように表示している。表示データ803は、仮想的な三次元空間に各ノードNを配置した時に見える様子を模擬した表示データである。
 具体的には、出力部23は、対象モデルLの性能の向上の程度が相対的に大きい試行を示すノードNは、大きさを大きくかつ色を濃く表示し、対象モデルLの性能の向上の程度が相対的に小さい試行を示すノードNは、大きさを相対的に小さくかつ色を薄く表示する。三次元空間では、視点(見る人の眼)に近い位置にあるものは大きく、濃く見え、視点から遠い位置にあるものは小さく、薄く見える。各ノードNの大きさと濃さは、そのノードNのロス値の大きさから適宜導出することができる。このように、仮想的な三次元空間に各ノードNを配置した時に見える様子を模擬することにより、対象モデルLの性能の向上の過程を視覚的に理解し易くすることができる。
 図15は、出力部23が生成した他の態様の表示データ804である。表示データ804は、特定した試行で得られたAIモデルの性能と、前段の試行で得られたAIモデルの性能との差が所定の閾値以内である場合、特定した試行を示すノードと、前段の試行を示すノードとを、これらのノードの少なくとも一部を重ねた態様で含む。出力部23は、このような表示データ804を出力する。
 例えば、ユーザは、連続するノード間でロス値の差の閾値を0.2と設定する。図15に示すように、ノードN3とノードN4とのロス値の差は0.1であるので、ノードN3とノードN4とを一部重ねて表示している。これにより、重ねて表示されたノードは、性能があまり向上しないノードであると容易に理解することができる。なお、ノードN2とノードN3とのロス値の差は0であり、閾値よりも小さいが、ノードN2は分岐するノードであるため、ノードN2とノードN3とを重ねる表示はしていない。
 図16は、出力部23が生成した他の態様の表示データ805である。表示データ805では、連続するノード間でロス値の差が所定の閾値より小さい場合は、その連続するノードの表示を目立たなくしている。具体的には、所定の閾値を0.2として、図16に示すように、ノードN3とノードN4とのロス値の差は0.1であるので、ノードN3とノードN4の大きさを、他のノードよりも小さくするとともに、ロス値とパラメータの変化の情報を省略している。これにより、ノードN3とノードN4は他のノードに比べて目立たない。従って、これらのノードで示される試行は対象モデルLの性能の向上に寄与しなかったということ視覚的に容易に理解することができる。なお、ノードN2は分岐するノードであるため、ノードN2の表示を簡略化することはしていない。
 図17は、出力部23が生成した他の態様の表示データ806である。表示データ806では、入力データはどのような前処理によって生成されたかの前処理情報を表示している。例えば、ユーザは入力情報100に、生データの前処理方法を加えておく。これにより、出力情報200にも前処理方法の情報が加えられる。出力部23は、この前処理情報を表示データとしてリンクRに関連させて表示する。
 より具体的には、表示データ806では、生データのノードRDが表示され、リンクR0でノードN1に接続されている。そして、リンクR0には、前処理情報の表示枠PT1が表示され、表示枠PT1には前処理方法がFFT(高速フーリエ変換)であることを示す「前処理:FFT」が表示されている。さらに、ノードN2からノードN5へのリンクR4には、表示枠PT2が追加され、表示枠PT2には、使用した入力データが生データを極座標変換処理をして得られたデータに変更されたことを示す「前処理:FFT→極座標」が表示されている。
 このように、生データを前処理した方法によってロス値が変わる場合、前処理方法を表示データに加えることにより、ロス値の変化が前処理方法の変更の効果であることを視覚的に理解し易くすることができる。
 (情報処理装置4の効果)
 以上のように、本例示的実施形態に係る情報処理装置4においては、推定部22は、複数の試行のうち、関連性を有する前段の試行に比べてAIモデルの性能が向上した試行、又は性能が劣化した試行を特定する。さらに、出力部23は、特定した試行を示すノードと、当該ノードと前段の試行を示すノードとを接続するリンクとの一方又は両方を、他のノード又は他のリンクと異なる態様で出力する、という構成が採用されている。このため、本例示的実施形態に係る情報処理装置4によれば、例示的実施形態1、2に係る情報処理装置1、2の奏する効果に加えて、異なる態様で表示されたノードとリンクを辿ることにより、対象モデルの性能を高める構築の過程を視覚的に理解し易くすることができる、という効果が得られる。
 〔変形例〕
 なお、上述した例示的実施形態2、3において、入力情報100は、入力データ101、パラメータデータ102、モデルID103、及びタグデータ104の一部又は全部に替えて、又は加えて、他のデータを含んでいてもよい。また、出力情報200は、ロス値201、異常度202、試行時刻203、入力データ101、パラメータデータ102、モデルID103、及びタグデータ104の一部又は全部に替えて、又は加えて、他のデータを含んでいてもよい。また、各試行において対象モデルLの評価結果を示す情報は、ロス値201及び異常度202の一方又は両方に替えて、又は加えて、他の指標であってもよい。
 また、上述した例示的実施形態2、3において、第1の列、及び第2の列を抽出して分岐点を特定する手法は、第1のパラメータ、第2のパラメータ、及び、第3のパラメータを参照する手法に限らず、その他の手法であってもよい。
 また、上述した例示的実施形態2、3において、性能が向上又は劣化した試行を示すノード及び関連するリンクの態様は、上述した態様に限られず、その他の態様であってもよい。
 〔ソフトウェアによる実現例〕
 情報処理装置1,2,4の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、情報処理装置1,2,4は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図18に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを情報処理装置1,2,4として動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、情報処理装置1,2,4の各機能が実現される。
 プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
 なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
 また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
 〔付記事項1〕
 本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
 〔付記事項2〕
 上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
 (付記1)
 AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得手段と、複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定する推定手段と、前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する出力手段と、を備えるモデル生成支援装置。
 上記の構成によれば、モデルの構築の過程をより理解し易く提示することにより、モデルの生成を支援することができる。
 (付記2)
 前記表示データに含まれる複数の前記ノードは、前記試行を行った順に配列される、ことを特徴とする付記1に記載のモデル生成支援装置。
 上記の構成によれば、対象モデルの構築の経時的過程を容易に理解することができる。
 (付記3)
 前記試行情報は、第1のパラメータ及び前記第1のパラメータとは異なる第2のパラメータを含み、前記推定手段は、前記第1のパラメータが共通し前記第2のパラメータが変化する複数の試行を、関連する第1の試行群として抽出し、前記出力手段は、前記第1の試行群を示す複数のノードと当該複数のノード間を接続するリンクとを含む前記表示データを出力する、、ことを特徴とする付記1又は2に記載のモデル生成支援装置。
 上記の構成によれば、対象モデルを改変するために、複数通りに入力情報を異ならせてそれぞれ試行を行ったという経過を容易に理解することができる。
 (付記4)
 前記試行情報は、前記第1のパラメータ及び前記第2のパラメータとは異なる第3のパラメータをさらに含み、前記推定手段は、前記第2のパラメータ及び前記第3のパラメータが共通し前記第1のパラメータが変化する複数の試行を、関連する第2の試行群として抽出し、前記第2の試行群のうちの時間的に先頭の試行に対して前記第1のパラメータ及び前記第2のパラメータが共通する、前記第1の試行群における試行を、前記第1の試行群における分岐点として特定し、前記出力手段は、前記第2の試行群を示す前記ノード及び前記リンクが、前記第1の試行群を示す複数のノードのうちの前記分岐点の試行を示すノードから分岐して接続された前記表示データを出力する、ことを特徴とする付記3に記載のモデル生成支援装置。
 上記の構成によれば、対象モデルを改変するために、複数通りに入力情報を異ならせてそれぞれ試行を行ったという経過を容易に理解することができる。
 (付記5)
 前記表示データでは、前記第1の試行群及び前記第2の試行群に含まれる複数の試行に対応する複数のノードが、試行を行った順に所定の方向に配置される、ことを特徴とする付記4に記載のモデル生成支援装置。
 上記の構成によれば、複数のノードを時間的な前後関係を保って配列することにより、対象モデルが構築された過程の時間的な前後関係を視覚的に理解し易くすることができる。
 (付記6)
 前記表示データは、各前記試行において得られる前記AIモデルの性能を示す情報を含む、ことを特徴とする付記1から5のいずれか1つに記載のモデル生成支援装置。
 上記の構成によれば、対象モデルの性能を示す情報を表示することにより、性能の向上を具体的な数値として確認し易くすることができる。
 (付記7)
 前記表示データは、各試行で用いたパラメータを含む、ことを特徴とする付記1から6のいずれか1つに記載のモデル生成支援装置。
 上記の構成によれば、変化させたパラメータを表示することにより、性能の変化がどのパラメータによるものかを視覚的に理解し易くすることができる。
 (付記8)
 前記推定手段は、前記複数の試行のうち、前記関連性を有する前段の試行に比べて前記AIモデルの性能が向上した試行、又は性能が劣化した試行を特定し、前記出力手段は、前記特定した試行を示すノードと、当該ノードと前記前段の試行を示すノードとを接続するリンクとの一方又は両方を、他のノード又は他のリンクと異なる態様で出力する、ことを特徴とする付記1から7のいずれか1つに記載のモデル生成支援装置。
 上記の構成によれば、異なる態様で表示されたノードとリンクを辿ることにより、対象モデルの性能を高める構築過程を視覚的に理解し易くすることができる。
 (付記9)
 前記出力手段は、前記特定した試行を示すノードの色調、当該ノードの大きさ、形状、当該リンクの色調、及び当該リンクの太さのうちの少なくともいずれかを、他のノード又は他のリンクと異なる態様で出力する、ことを特徴とする付記8に記載のモデル生成支援装置。
 上記の構成によれば、ノード又はリンクの少なくとも一方を、他のそれと異ならせることで、他よりも強調する、あるいは目立たなくすることができる。
 (付記10)
 前記表示データは、性能の向上又は劣化の程度に応じた態様のノードを含む、、ことを特徴とする付記8又は9に記載のモデル生成支援装置。
 上記の構成によれば、対象モデルの性能の向上の過程を視覚的に理解し易くすることができる。
 (付記11)
 前記表示データは、前記特定した試行で得られた前記AIモデルの性能と、前記前段の試行で得られた前記AIモデルの性能との差が所定の閾値以内である場合、前記特定した試行を示すノードと、前記前段の試行を示すノードとを、これらのノードの少なくとも一部を重ねた態様で含む、ことを特徴とする付記8から10のいずれか1項に記載のモデル生成支援装置。
 上記の構成によれば、重ねて表示されたノードは、性能があまり向上しないノードであると容易に理解することができる。
 (付記12)
 少なくとも1つのプロセッサが、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得し、複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定し、前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する、ことを含むモデル生成支援方法。
 上記の構成によれば、モデルの構築の過程をより理解し易く提示することにより、モデルの生成を支援することができる。
 (付記13)
 コンピュータに、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得処理と、複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定する推定処理と、前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する出力処理と、を実行させるプログラム。
 〔付記事項3〕
 上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
 少なくとも1つのプロセッサを備え、前記プロセッサは、AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得処理と、複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定する推定処理と、前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する出力処理と、を実行するモデル生成支援装置。
 なお、このモデル生成支援装置は、更にメモリを備えていてもよく、このメモリには、前記取得処理と、前記推定処理と、前記出力処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 1,2,4・・・情報処理装置(モデル生成支援装置)
 3・・・情報処理システム(モデル生成支援システム)
 11,21・・・取得部
 12,22・・・推定部
 13,23・・・出力部
 50・・・モデル構築装置
 60・・・データベース
 70・・・ディスプレイ
 100・・・入力情報
 101・・・入力データ
 102・・・パラメータデータ
 200・・・出力情報
 250,300・・・試行情報表
 400・・・推定データ表
 500・・・表示データ
 600・・・色濃度表
 700・・・太さ表
 801,802,803,804,805,806・・・表示データ

Claims (13)

  1.  AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得手段と、
     複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定する推定手段と、
     前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する出力手段と、
     を備えるモデル生成支援装置。
  2.  前記表示データに含まれる複数の前記ノードは、前記試行を行った順に配列される、
    請求項1に記載のモデル生成支援装置。
  3.  前記試行情報は、
      第1のパラメータ及び前記第1のパラメータとは異なる第2のパラメータを含み、
     前記推定手段は、前記第1のパラメータが共通し前記第2のパラメータが変化する複数の試行を、関連する第1の試行群として抽出し、
     前記出力手段は、前記第1の試行群を示す複数のノードと当該複数のノード間を接続するリンクとを含む前記表示データを出力する、
     請求項1又は2に記載のモデル生成支援装置。
  4.  前記試行情報は、
      前記第1のパラメータ及び前記第2のパラメータとは異なる第3のパラメータをさらに含み、
     前記推定手段は、前記第2のパラメータ及び前記第3のパラメータが共通し前記第1のパラメータが変化する複数の試行を、関連する第2の試行群として抽出し、
      前記第2の試行群のうちの時間的に先頭の試行に対して前記第1のパラメータ及び前記第2のパラメータが共通する、前記第1の試行群における試行を、前記第1の試行群における分岐点として特定し、
     前記出力手段は、
      前記第2の試行群を示す前記ノード及び前記リンクが、前記第1の試行群を示す複数のノードのうちの前記分岐点の試行を示すノードから分岐して接続された前記表示データを出力する、
     請求項3に記載のモデル生成支援装置。
  5.  前記表示データでは、前記第1の試行群及び前記第2の試行群に含まれる複数の試行に対応する複数のノードが、試行を行った順に所定の方向に配置される、
     請求項4に記載のモデル生成支援装置。
  6.  前記表示データは、各前記試行において得られる前記AIモデルの性能を示す情報を含む、
     請求項1から5のいずれか1項に記載のモデル生成支援装置。
  7.  前記表示データは、各試行で用いたパラメータを含む、
     請求項1から6のいずれか1項に記載のモデル生成支援装置。
  8.  前記推定手段は、前記複数の試行のうち、前記関連性を有する前段の試行に比べて前記AIモデルの性能が向上した試行、又は性能が劣化した試行を特定し、
     前記出力手段は、前記特定した試行を示すノードと、当該ノードと前記前段の試行を示すノードとを接続するリンクとの一方又は両方を、他のノード又は他のリンクと異なる態様で出力する、
     ことを特徴とする請求項1から7のいずれか1項に記載のモデル生成支援装置。
  9.  前記出力手段は、前記特定した試行を示すノードの色調、当該ノードの大きさ、形状、当該リンクの色調、及び当該リンクの太さのうちの少なくともいずれかを、他のノード又は他のリンクと異なる態様で出力する、
     ことを特徴とする請求項8に記載のモデル生成支援装置。
  10.  前記表示データは、性能の向上又は劣化の程度に応じた態様のノードを含む、
     ことを特徴とする請求項8又は9に記載のモデル生成支援装置。
  11.  前記表示データは、前記特定した試行で得られた前記AIモデルの性能と、前記前段の試行で得られた前記AIモデルの性能との差が所定の閾値以内である場合、前記特定した試行を示すノードと、前記前段の試行を示すノードとを、これらのノードの少なくとも一部を重ねた態様で含む、
    ことを特徴とする請求項8から10のいずれか1項に記載のモデル生成支援装置。
  12.  少なくとも1つのプロセッサが、
     AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得し、
     複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定し、
     前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する、
     ことを含むモデル生成支援方法。
  13.  コンピュータに、
     AIモデルの構築過程の試行で用いられるパラメータを含む試行情報を取得する取得処理と、
     複数の前記試行それぞれの前記試行情報の差異に基づいて、前記複数の試行の間の関連性を推定する推定処理と、
     前記複数の試行それぞれを示す複数のノードと、前記関連性を示すリンクとを含む表示データを出力する出力処理と、
     を実行させるプログラム。

     
PCT/JP2021/022691 2021-06-15 2021-06-15 モデル生成支援装置、モデル生成支援方法及びプログラム WO2022264262A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/022691 WO2022264262A1 (ja) 2021-06-15 2021-06-15 モデル生成支援装置、モデル生成支援方法及びプログラム
JP2023528801A JPWO2022264262A1 (ja) 2021-06-15 2021-06-15

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/022691 WO2022264262A1 (ja) 2021-06-15 2021-06-15 モデル生成支援装置、モデル生成支援方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2022264262A1 true WO2022264262A1 (ja) 2022-12-22

Family

ID=84526356

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022691 WO2022264262A1 (ja) 2021-06-15 2021-06-15 モデル生成支援装置、モデル生成支援方法及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2022264262A1 (ja)
WO (1) WO2022264262A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5885875B1 (ja) * 2015-08-28 2016-03-16 株式会社Ubic データ分析システム、データ分析方法、プログラム、および、記録媒体
JP2018109906A (ja) * 2017-01-05 2018-07-12 住友電気工業株式会社 画像データ作成プログラム、画像データ作成装置および画像データ作成方法
JP2020004080A (ja) * 2018-06-28 2020-01-09 ファナック株式会社 出力装置、制御装置、及び評価関数値の出力方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5885875B1 (ja) * 2015-08-28 2016-03-16 株式会社Ubic データ分析システム、データ分析方法、プログラム、および、記録媒体
JP2018109906A (ja) * 2017-01-05 2018-07-12 住友電気工業株式会社 画像データ作成プログラム、画像データ作成装置および画像データ作成方法
JP2020004080A (ja) * 2018-06-28 2020-01-09 ファナック株式会社 出力装置、制御装置、及び評価関数値の出力方法

Also Published As

Publication number Publication date
JPWO2022264262A1 (ja) 2022-12-22

Similar Documents

Publication Publication Date Title
vanden Broucke et al. Fodina: A robust and flexible heuristic process discovery technique
CN107609652B (zh) 执行机器学习的分布式系统及其方法
JP6990371B2 (ja) 予測装置、パラメータ集合生産方法及びプログラム
JP7296715B2 (ja) 学習装置、処理装置、ニューラルネットワーク、学習方法、及びプログラム
CN107464554A (zh) 语音合成模型生成方法和装置
JP4296421B2 (ja) 信号処理装置
JP4038501B2 (ja) 逆モデル計算装置及び逆モデル計算方法
CN106657192A (zh) 一种用于呈现服务调用信息的方法与设备
US20160255109A1 (en) Detection method and apparatus
CN110110547A (zh) 溯源数据处理方法及装置
CN115048370B (zh) 用于大数据清洗的人工智能处理方法及大数据清洗系统
CN107679625A (zh) 针对数据记录执行机器学习的分布式系统及其方法
WO2022264262A1 (ja) モデル生成支援装置、モデル生成支援方法及びプログラム
KR102153161B1 (ko) 확률 그래프 기반의 서열 데이터 연관성 학습 방법 및 시스템
WO2018135515A1 (ja) 情報処理装置、ニューラルネットワークの設計方法及び記録媒体
CN117201308A (zh) 网络资源分配方法、系统、存储介质及电子设备
JP2015170009A (ja) 表示情報生成装置、プログラム実行状況表示システム、方法およびプログラム
CN108460364A (zh) 用于生成信息的方法和装置
CN105740260B (zh) 提取模板文件数据结构的方法和装置
EP4170556A1 (en) Control device, method, and program
CN110490132A (zh) 数据处理方法和装置
Shershakov et al. Transition systems reduction: balancing between precision and simplicity
EP4075297A1 (en) Machine learning-based interactive visual monitoring tool for high dimensional data sets across multiple kpis
JP6414321B2 (ja) 人数予測システム、人数予測方法および人数予測プログラム
CN114692022A (zh) 基于时空行为模式的位置预测方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21945941

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18568348

Country of ref document: US

Ref document number: 2023528801

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE