WO2023152897A1 - 情報処理プログラム、情報処理装置及び情報処理方法 - Google Patents

情報処理プログラム、情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2023152897A1
WO2023152897A1 PCT/JP2022/005439 JP2022005439W WO2023152897A1 WO 2023152897 A1 WO2023152897 A1 WO 2023152897A1 JP 2022005439 W JP2022005439 W JP 2022005439W WO 2023152897 A1 WO2023152897 A1 WO 2023152897A1
Authority
WO
WIPO (PCT)
Prior art keywords
clusters
condition
classified
cluster
data group
Prior art date
Application number
PCT/JP2022/005439
Other languages
English (en)
French (fr)
Inventor
藤重雄大
浅井達哉
上村健人
鈴木浩史
小▲柳▼佑介
丸橋弘治
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2022/005439 priority Critical patent/WO2023152897A1/ja
Publication of WO2023152897A1 publication Critical patent/WO2023152897A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to an information processing program, an information processing apparatus, and an information processing method.
  • each customer who purchases a product has characteristics that lead to the purchase of the product. Therefore, in order to plan appropriate measures for each customer, for example, it is necessary to specify not only causal relationships common to all customers, but also causal relationships for each customer that meets multiple conditions.
  • an object of the present invention is to provide an information processing program, an information processing apparatus, and an information processing method that make it possible to identify important causal relationships that lead to the solution of a problem.
  • a data group that satisfies each condition is extracted for each of a plurality of conditions by referring to a storage unit that stores a plurality of data composed of a plurality of combinations of feature amounts, For each condition, specifying the relationship between the plurality of feature quantities included in the data group corresponding to each condition, and based on the first similarity between the relationships for each of the plurality of conditions, classifying the relationships for each of a plurality of conditions into a plurality of first clusters, and classifying the data groups for each of the plurality of conditions into a plurality of first clusters based on a second similarity between the data groups for each of the plurality of conditions; a plurality of said first clusters classified into second clusters, wherein said first clusters into which said relationships corresponding to respective data groups are classified are identical, and said second clusters into which said data groups are classified are identical; Classifying the data groups for each of the plurality of conditions into a plurality of third clusters so that the data groups are classified into the same cluster
  • FIG. 1 is a diagram showing the configuration of an information processing system 10.
  • FIG. 2 is a flowchart for explaining cause identification processing in a comparative example.
  • FIG. 3 is a diagram illustrating a specific example of S2.
  • FIG. 4 is a diagram illustrating a specific example of S2.
  • FIG. 5 is a diagram illustrating a specific example of the causal graph 132.
  • FIG. 6 is a diagram for explaining the hardware configuration of the information processing device 1.
  • FIG. FIG. 7 is a functional block diagram of the information processing apparatus 1.
  • FIG. 8 is a flowchart for explaining an outline of cause identification processing according to the first embodiment.
  • FIG. 9 is a flowchart for explaining the details of cause identification processing according to the first embodiment.
  • FIG. 10 is a flowchart for explaining the details of cause identification processing according to the first embodiment.
  • FIG. 11 is a flow chart for explaining the details of cause identification processing according to the first embodiment.
  • FIG. 12 is a diagram illustrating details of the cause identification process according to the first embodiment.
  • FIG. 13 is a diagram illustrating details of the cause identification process according to the first embodiment.
  • FIG. 14 is a diagram illustrating details of the cause identification process according to the first embodiment.
  • FIG. 15 is a diagram explaining details of the cause identification process according to the first embodiment.
  • FIG. 16 is a diagram illustrating details of the cause identification process according to the first embodiment.
  • FIG. 17 is a diagram explaining details of the cause identification process according to the first embodiment.
  • FIG. 18 is a diagram illustrating details of the cause identification process according to the first embodiment.
  • FIG. 19 is a diagram illustrating a specific example of the process of S43.
  • FIG. 1 is a diagram illustrating the configuration of an information processing system 10. As shown in FIG. 1
  • the information processing system 10 has, for example, an information processing device 1 and an operation terminal 5, as shown in FIG.
  • the information processing apparatus 1 is, for example, a physical machine or a virtual machine, and performs processing (hereinafter referred to as cause identification process).
  • the target data group 131 is, for example, a data group consisting of a plurality of data consisting of combinations of a plurality of feature amounts.
  • the operation terminal 5 is, for example, one or more PCs (Personal Computers), and is a terminal where the operator inputs necessary information. Specifically, the operation terminal 5 transmits, for example, the target data group 131 input by the operator to the information processing apparatus 1 .
  • the cause identifying process in the comparative example will be described below.
  • FIG. 2 is a flowchart for explaining cause identification processing in a comparative example.
  • 3 to 5 are diagrams for explaining cause identification processing in a comparative example.
  • the information processing device 1 waits, for example, until the cause identification timing (NO in S1).
  • the cause identification timing is, for example, the timing at which the operator inputs to the information processing apparatus 1 to start the cause identification process.
  • the information processing apparatus 1 refers to, for example, the storage unit storing the target data group 131, and a plurality of conditions (hereinafter referred to as A data group 131 (hereinafter also referred to as a partial data group 131) in which a combination of a plurality of feature amounts satisfies each condition is extracted (S2).
  • a plurality of conditions are, for example, conditions for combinations of feature amounts determined based on emerging pattern enumeration. A specific example of the processing of S2 will be described below.
  • FIGS. 3 and 4 are diagrams for explaining a specific example of S2.
  • FIGS. 3 and 4 are diagrams illustrating specific examples of the target data group 131.
  • FIG. In the following description, it is assumed that the target data group 131 is a data group regarding a plurality of students, and the objective variable is the performance of each student. Further, hereinafter, the target data group 131 includes "name”, “age”, “gender”, “weekday study time”, “weekday free time”, “number of absences", “commuting time”, etc. as feature quantities. I will explain as if it is possible.
  • the information processing apparatus 1 4 as the partial data group 131 corresponding to the specific condition, the partial data group 131 including the data of the 1st, 2nd and 5th rows is specified.
  • the information processing apparatus 1 generates, for each condition, a causal graph 132 indicating the relationship between a plurality of feature amounts included in the partial data group 131 corresponding to each condition (S3 ).
  • a causal graph 132 indicating the relationship between a plurality of feature amounts included in the partial data group 131 corresponding to each condition (S3 ).
  • FIG. 5 is a diagram illustrating a specific example of the causal graph 132.
  • FIG. 5 shows a specific example of a causal graph 132 showing relationships between a plurality of feature quantities included in the partial data group 131 (partial data group 131 corresponding to a specific condition) described in FIG. It is a figure explaining.
  • each node in the causal graph 132 shown in FIG. 4 corresponds to each feature amount described in FIG.
  • Arrows and numerical values between nodes indicate the presence or absence of a causal relationship between the plurality of feature quantities described with reference to FIG. 4 and the strength of the causal relationship.
  • the causal graph 132 shown in FIG. It shows that the grade in the first semester will drop by 1.34 (points).
  • the arrow pointing from the node corresponding to the "1st semester grade” to the node corresponding to the "2nd semester grade” indicates that if the grade in the first semester increases by 1 (point), the grade in the second semester will increase by 0.88 (point). ) indicates that it will rise. Description of other information included in FIG. 5 is omitted.
  • the information processing device 1 identifies the causal relationship that causes the objective variable, for example, from the causal graph 132 generated for each of a plurality of conditions (S4).
  • the information processing apparatus 1 For each of the plurality of causal graphs 132 generated in the process of S3, the information processing apparatus 1 generates causal relationships included in each causal graph 132 that are not included in other causal graphs 132. (i.e. idiosyncratic causal relationships). Then, the information processing apparatus 1 identifies, for example, the identified causal relationship as a condition under which the causal relationship that causes the objective function appears.
  • the information processing apparatus 1 can identify a peculiar causal relationship that does not appear in the causal graph 132 corresponding to the entire target data group 131, for example.
  • the information processing apparatus 1 can easily identify important causal relationships (important causal relationships leading to goal solving) from the generated large amount of causal graphs 132. cannot be specified.
  • the information processing apparatus 1 refers to, for example, the storage unit storing the target data group 131 including a combination of a plurality of feature amounts, and finds a combination of a plurality of feature amounts for each of a plurality of conditions. A partial data group 131 that satisfies each condition is extracted. Then, the information processing apparatus 1 generates, for each condition, a causal graph 132 that indicates the relationship between a plurality of feature amounts included in the partial data group 131 corresponding to each condition.
  • the information processing apparatus 1 divides the causal graphs 132 for each condition into a plurality of clusters ( hereinafter also referred to as a plurality of first clusters). Further, the information processing apparatus 1 divides the partial data groups 131 for each of the plurality of conditions into a plurality of partial data groups 131 for each of the plurality of conditions based on the degree of similarity between the partial data groups 131 for each of the plurality of conditions (hereinafter also referred to as a second similarity). Classify into clusters (hereinafter referred to as a plurality of second clusters).
  • the information processing apparatus 1 determines that, for example, the first clusters into which the causal graphs 132 corresponding to the partial data groups 131 are classified are the same, and the second clusters into which the partial data groups 131 are classified are the same. are classified into the same cluster, the partial data groups 131 for each condition are classified into a plurality of clusters (hereinafter also referred to as a plurality of third clusters).
  • the information processing apparatus 1 sets a condition (hereinafter, referred to as first condition ), and outputs the identified first condition together with the classification results of the plurality of third clusters (hereinafter also simply referred to as classification results).
  • the information processing apparatus 1, for example, for each of the plurality of third clusters, among the causal relationships included in the plurality of causal graphs 132 classified into each cluster, the causal graph corresponding to the entire target data group 131 Information indicating causal relationships not included in 132 is output as a classification result.
  • the information processing apparatus 1 for example, among the partial data groups 131 that can be determined to be essentially similar, the partial data groups 131 that can be determined to be essentially similar to the corresponding causal graph 132 are The partial data groups 131 extracted for each of a plurality of conditions are classified into a plurality of third clusters so as to be included in the same cluster. Then, the information processing device 1 identifies, for example, the first condition, which is a condition under which an important causal relationship leading to the solution of the purpose appears, for each of the plurality of third clusters.
  • the information processing apparatus 1 aggregates combinations that can be determined to be essentially close. This makes it possible to easily identify important causal relationships that lead to problem solving.
  • the information processing apparatus 1 outputs, for example, the classification result corresponding to each cluster and the first condition together, so that the important causal relationship identified by the cause identification process and its important It becomes possible to output in a form associated with the first condition in which a causal relationship appears. Therefore, for example, by browsing each piece of information output by the information processing apparatus 1, the operator can determine the correspondence relationship between the important causal relationship identified by the cause identifying process and the first condition in which the important causal relationship appears. can be easily comprehended.
  • FIG. 6 is a diagram for explaining the hardware configuration of the information processing device 1. As shown in FIG.
  • the information processing device 1 has a CPU 101 as a processor, a memory 102, an I/O interface 103, and a storage medium 104, as shown in FIG. Each unit is connected to each other via a bus 105 .
  • the storage medium 104 has, for example, a program storage area (not shown) that stores a program 110 for performing cause identification processing (hereinafter also referred to as an information processing program 110).
  • the storage medium 104 also has an information storage area 130 that stores information used when performing cause identification processing, for example.
  • the storage medium 104 may be, for example, an HDD or SSD (Solid State Drive).
  • the CPU 101 executes the program 110 loaded from the storage medium 104 to the memory 102 to perform cause identification processing.
  • the I/O interface 103 is, for example, an interface device such as a network interface card, and can be accessed with the operation terminal 5 .
  • FIG. 7 is a functional block diagram of the information processing apparatus 1. As shown in FIG.
  • the information processing apparatus 1 has a data receiving unit 111, a data extracting unit 112, a graph A generation unit 113 (hereinafter also referred to as a relationship identification unit 113), a first similarity calculation unit 114, a second similarity calculation unit 115, a clustering unit 116, a condition identification unit 117, and a condition output unit 118 Realize various functions including
  • the information processing device 1 also stores, for example, a target data group 131, a causal graph 132, first similarity information 133, second similarity information 134, and importance information 135 in the information storage area 130. .
  • the data receiving unit 111 receives, for example, the target data group 131 input by the operator via the operation terminal 5. Then, the data receiving unit 111 stores the received target data group 131 in the information storage area 130, for example.
  • the data extracting unit 112 refers to, for example, the target data group 131 stored in the information storage area 130, and for each of a plurality of conditions specified in advance by the operator, a partial data group 131 in which a combination of a plurality of feature amounts satisfies each condition. to extract
  • the graph generation unit 113 For example, for each condition, the graph generation unit 113 generates a causal graph 132 that shows the relationship between multiple feature amounts included in the partial data group 131 corresponding to each condition.
  • the first similarity calculator 114 calculates first similarity information 133 between causal graphs 132 for each of a plurality of conditions. Then, the first similarity calculator 114 stores the calculated first similarity information 133 in the information storage area 130, for example.
  • the second similarity calculation unit 115 calculates second similarity information 134 between partial data groups 131 for each of a plurality of conditions. Then, the second similarity calculation unit 115 stores the calculated second similarity information 134 in the information storage area 130, for example.
  • the clustering unit 116 classifies the causal graphs 132 for each condition into a plurality of first clusters based on the first similarities calculated by the first similarity calculation unit 114 .
  • the clustering unit 116 classifies the partial data groups 131 for each of multiple conditions into multiple second clusters, for example, based on the second similarity calculated by the second similarity calculation unit 115 .
  • the clustering unit 116 determines that the first clusters into which the causal graphs 132 corresponding to the partial data groups 131 are classified are the same, and the second clusters into which the partial data groups 131 are classified are the same.
  • a plurality of partial data groups 131 for each condition are classified into a plurality of third clusters such that a certain plurality of partial data groups 131 are classified into the same cluster.
  • condition specifying unit 117 specifies a first condition for classifying the partial data group 131 classified into each cluster and the partial data group 131 classified into another cluster for each of the plurality of third clusters.
  • condition output unit 118 outputs the first condition specified by the condition specifying unit 117 to the operation terminal 5 together with the classification results of the plurality of third clusters by the clustering unit 116 .
  • FIG. 8 is a flowchart for explaining an outline of cause identification processing according to the first embodiment.
  • the information processing device 1 waits until the cause identification timing (NO in S11).
  • the information processing apparatus 1 refers to the target data group 131 stored in the information storage area 130, for example, and combines a plurality of feature amounts for each of a plurality of conditions. extracts the partial data group 131 that satisfies each condition (S12).
  • the information processing apparatus 1 generates, for each condition, for example, a causal graph 132 that indicates the relationship between a plurality of feature amounts included in the partial data group 131 corresponding to each condition (S13).
  • the information processing apparatus 1 classifies the causal graphs 132 for each condition into a plurality of first clusters, for example, based on the first similarity between the causal graphs 132 for each condition (S14). .
  • the information processing apparatus 1 classifies the partial data groups 131 for each condition into a plurality of second clusters, for example, based on the second similarity between the partial data groups 131 for each condition (S15 ).
  • the information processing apparatus 1 may, for example, have the same first cluster into which the causal graphs 132 corresponding to the partial data groups 131 are classified, and the same second cluster into which the partial data groups 131 are classified. is classified into the same cluster, the partial data groups 131 for each condition are classified into a plurality of third clusters (S16).
  • the information processing device 1 specifies, for each of a plurality of third clusters, a first condition that enables classification of the partial data groups 131 classified into each cluster and the partial data groups 131 classified into other clusters. and output (S17).
  • the information processing apparatus 1 aggregates combinations that can be determined to be essentially close. This makes it possible to easily identify important causal relationships that lead to problem solving.
  • the information processing apparatus 1 outputs, for example, the classification result corresponding to each cluster and the first condition together, so that the important causal relationship identified by the cause identification process and its important It becomes possible to output in a form associated with the first condition in which a causal relationship appears. Therefore, for example, by browsing each piece of information output by the information processing apparatus 1, the operator can determine the correspondence relationship between the important causal relationship identified by the cause identifying process and the first condition in which the important causal relationship appears. can be easily comprehended.
  • the information processing apparatus 1 classifies, for example, among the plurality of data groups 131 that can be determined to be similar to each other, the plurality of data groups 131 corresponding to the causal graphs 132 that can be determined to be similar to each other into the same cluster. By doing so, it is possible to output information indicating whether or not the plurality of causal graphs 132 that are similar to each other are essentially close, and information indicating whether or not the data groups 131 that are similar to each other are essentially close. . Therefore, for example, by viewing each piece of information output by the information processing apparatus 1, the operator can judge whether or not the plurality of causal graphs 132 that are similar to each other are essentially close, are essentially close to each other.
  • the data receiving unit 111 waits, for example, until it receives the target data group 131 transmitted from the operation terminal 5 (NO in S21).
  • the data receiving unit 111 stores the received target data group 131 in the information storage area 130 (S22). Specifically, the data receiving unit 111 stores the target data group 131 described with reference to FIG. 3 in the information storage area 130, for example.
  • the data extraction unit 112 waits, for example, until the cause identification timing (NO in S31).
  • the data extraction unit 112 refers to, for example, the target data group 131 stored in the information storage area 130, and combines a plurality of feature amounts for each of a plurality of conditions. extracts the partial data group 131 that satisfies each condition (S32).
  • the data extraction unit 112 extracts, for example, a partial data group 131a corresponding to the student S corresponding to the condition A specified in advance from the target data group 131 for the plurality of students S, and , a partial data group 131b corresponding to the student S corresponding to the condition B specified in advance and a partial data group 131c corresponding to the student S corresponding to the condition C specified in advance are extracted.
  • the graph generation unit 113 generates, for each condition, a causal graph 132 showing the relationship between the feature amounts included in the partial data group 131 corresponding to each condition (S33).
  • the graph generating unit 113 generates, for example, a causal graph 132a showing relationships between a plurality of feature quantities included in the partial data group 131a and a plurality of feature quantities included in the partial data group 131b. and a causal graph 132c showing the relationships between the feature amounts included in the partial data group 131c.
  • the information processing apparatus 1 performs the processes of S12 and S13 by using Wide Learning (registered trademark), which is a machine learning technique for generating a learning model (white box type learning model) that can explain the reason for evaluation, for example. may be performed.
  • Wide Learning registered trademark
  • white box type learning model white box type learning model
  • the first similarity calculator 114 calculates the first similarity information 133 between the causal graphs 132 for each condition (S34).
  • the first similarity calculation unit 114 calculates, for example, the distance of the adjacency matrix for the causal graph 132 generated in the process of S32, or the distance of the causal effect with respect to the objective variable in the causal graph 132 generated in the process of S32. etc. may be calculated as the first similarity information 133 .
  • the second similarity calculation unit 115 calculates the second similarity information 134 between the partial data groups 131 for each of a plurality of conditions (S35).
  • the second similarity calculation unit 115 calculates, as the second similarity information 134, the Jaccard coefficient, the Dice coefficient, the Simpson coefficient, etc. for the partial data group 131 extracted in the process of S31, for example. good.
  • the clustering unit 116 classifies the causal graphs 132 for each of multiple conditions into multiple first clusters, for example, according to the first similarity information 133 (S36).
  • the clustering unit 116 clusters the causal graphs 132 with high first similarity information 133 calculated in the process of S34 into the same first cluster.
  • the causal graph 132 generated by the process is classified into a plurality of first clusters including cluster CL11, cluster CL12 and cluster CL13.
  • the clustering unit 116 classifies the partial data groups 131 for each of multiple conditions into multiple second clusters, for example, according to the second similarity information 134 (S37).
  • the clustering unit 116 performs the clustering in S32 so that the partial data groups 131 with high second similarity information 134 calculated in the process of S35 are classified into the same second cluster.
  • the partial data group 131 extracted by the process 1) is classified into a plurality of second clusters including cluster CL21, cluster CL22, and cluster CL23.
  • the clustering unit 116 determines, for example, that the first clusters into which the causal graphs 132 are classified are the same, and the second clusters into which the partial data groups 131 corresponding to the causal graphs 132 are classified are the same. Combinations of the partial data groups 131 for each condition and the causal graph 132 are classified into a plurality of third clusters so that the plurality of causal graphs 132 are classified into the same cluster (S38).
  • the clustering unit 116 determines, for example, that the first clusters into which the causal graphs 132 corresponding to the partial data groups 131 are classified are the same, and the partial data groups 131 are classified into the same first cluster.
  • the combinations of the partial data groups 131 for each condition and the causal graph 132 are classified into a plurality of third clusters so that the plurality of partial data groups 131 having the same second cluster are classified into the same cluster. .
  • the clustering unit 116 for example, of the causal graph 132 classified into the cluster CL11 in the process of S36, corresponds to the partial data group 131 classified into the cluster CL21 in the process of S37.
  • the causal graph 132 is classified into the cluster CL31.
  • the clustering unit 116 for example, among the causal graph 132 classified into the cluster CL13 in the process of S36, the causal graph corresponding to the partial data group 131 classified into the cluster CL21 in the process of S37.
  • Graph 132 is classified into cluster CL33.
  • the clustering unit 116 for example, among the causal graph 132 classified into the cluster CL12 in the process of S36, the causal graph corresponding to the partial data group 131 classified into the cluster CL22 in the process of S37.
  • Graph 132 is classified into cluster CL35. Description of other information included in FIG. 16 is omitted.
  • the clustering unit 116 clusters the combinations of the partial data groups 131 and the causal graphs 132 according to the degree of similarity between the partial data groups 131 and the degree of similarity between the causal graphs 132. Classification is performed so that combinations that are close to each other are included in the same cluster.
  • the information processing apparatus 1 can aggregate multiple partial data groups 131 and multiple causal graphs 132 that are essentially closely related.
  • the clustering unit 116 excludes from the plurality of third clusters clusters each containing a number of partial data groups 131 equal to or less than a predetermined number (S39).
  • the predetermined number may be one, for example.
  • the clustering unit 116 excludes combinations that can be determined as outliers (clusters that include only combinations that can be determined as outliers), for example.
  • condition identifying unit 117 identifies a common partial data group 131d common to the partial data groups 131 included in each cluster, for example, for each of the plurality of third clusters (S41).
  • the condition specifying unit 117 determines that a predetermined percentage or more (for example, 80(%) or more) of the data constituting the plurality of partial data groups 131 included in the cluster CL33 is Data included in the partial data group 131 is specified as a common partial data group 131d.
  • condition specifying unit 117 for example, generates a common causal graph 132d common to the causal graphs 132 included in each cluster for each of the plurality of third clusters (S41).
  • condition identifying unit 117 determines that, for example, a predetermined percentage or more (for example, 80 (%) or more) is generated as a common causal graph 132d.
  • condition identifying unit 117 treats the common partial data group 131d classified into each cluster as a positive example, and the common partial data group 131d classified into another cluster as a negative example, for each of a plurality of third clusters.
  • a learning model is generated by performing machine learning to perform (S42).
  • condition identifying unit 117 learns to be able to classify data groups classified into each cluster and data groups classified into other clusters, for example, for each of a plurality of third clusters.
  • condition specifying unit 117 for example, by using Wide Learning (registered trademark), can evaluate the target (data) as positive or negative, can explain the reason for the evaluation, and can It is possible to exhaustively enumerate conditions composed of combinations of variables, and furthermore, assign importance (hereinafter simply referred to as importance) to the enumerated conditions by using a method such as logistic regression. Generate a learning model that can
  • condition identifying unit 117 identifies, for example, the condition indicated by the learning model corresponding to each cluster as the first condition for each of the plurality of third clusters (S43).
  • S43 the condition indicated by the learning model corresponding to each cluster
  • FIG. 19 is a diagram illustrating a specific example of the process of S43. Specifically, FIG. 19 is a diagram illustrating a specific example of importance information 135 indicating the importance of each condition output from the learning model generated in the process of S42.
  • the importance information 135 shown in FIG. 19 is such that the “importance” for the condition “age ⁇ 20 and no repetition” is “0.9”, and the “importance” for the condition “weekday study time > 30 minutes”. degree” is “0.6”. Description of other information included in FIG. 19 is omitted.
  • condition specifying unit 117 sets, for example, "Age ⁇ 20 ⁇ No repeated grades" as the first condition. ” is specified.
  • condition output unit 118 outputs, for example, the first condition specified for each of the plurality of third clusters to the operation terminal 5 in association with the common causal graph 132d (S44).
  • the condition output unit 118 for example, among the sides included in the common causal graph 132d, the causal graph 132 corresponding to the entire target data group 131 (for example, the The causal graph 132) may be output in a state in which edges not included in the causal graph 132) are emphasized.
  • the information processing apparatus 1 can output, for example, the important causal relationship identified by the cause identification process in an emphasized form. Therefore, the information processing apparatus 1 associates the important causal relationship identified by the cause identifying process with the condition (first condition) of the partial data group 131 in which the causal relationship appears, for example, for each of the plurality of third clusters. It is possible to output in the attached form.
  • the information processing apparatus 1 refers to the information storage area 130 storing the target data group 131 including a combination of a plurality of feature amounts, for example, and selects a plurality of feature values for each of a plurality of conditions. A partial data group 131 whose combination of quantities satisfies each condition is extracted. Then, the information processing apparatus 1 specifies, for each condition, a causal graph 132 between a plurality of feature amounts included in the partial data group 131 corresponding to each condition, for example.
  • the information processing apparatus 1 classifies the causal graphs 132 for each condition into a plurality of first clusters, for example, based on the first similarity between the causal graphs 132 for each condition. Further, the information processing apparatus 1 classifies the partial data groups 131 for each condition into a plurality of second clusters, for example, based on the second similarity between the partial data groups 131 for each condition.
  • the information processing apparatus 1 determines that, for example, the first clusters into which the relationships corresponding to the partial data groups 131 are classified are the same, and the second clusters into which the partial data groups 131 are classified are the same.
  • a plurality of partial data groups 131 for each condition are classified into a plurality of third clusters such that a certain plurality of partial data groups 131 are classified into the same cluster.
  • the information processing device 1 specifies, for each of the plurality of third clusters, a first condition capable of classifying the partial data groups 131 classified into each cluster and the partial data groups 131 classified into other clusters,
  • the specified first condition is output together with the classification results of the plurality of third clusters.
  • the information processing apparatus 1 for example, among the partial data groups 131 that can be determined to be essentially similar, the partial data groups 131 that can be determined to be essentially similar to the corresponding causal graph 132 are The partial data groups 131 extracted for each of a plurality of conditions are classified into a plurality of third clusters so as to be included in the same cluster. Then, the information processing device 1 identifies, for example, the first condition, which is a condition under which an important causal relationship leading to the solution of the purpose appears, for each of the plurality of third clusters.
  • the information processing apparatus 1 aggregates combinations that can be determined to be essentially close. This makes it possible to easily identify important causal relationships that lead to problem solving.
  • the information processing apparatus 1 outputs, for example, the classification result corresponding to each cluster and the first condition together, so that the important causal relationship identified by the cause identification process and its important It becomes possible to output in a form associated with the first condition in which a causal relationship appears. Therefore, for example, by browsing each piece of information output by the information processing apparatus 1, the operator can determine the correspondence relationship between the important causal relationship identified by the cause identifying process and the first condition in which the important causal relationship appears. can be easily comprehended.
  • the information processing apparatus 1 classifies, for example, among the plurality of data groups 131 that can be determined to be similar to each other, the plurality of data groups 131 corresponding to the causal graphs 132 that can be determined to be similar to each other into the same cluster. By doing so, it is possible to output information indicating whether or not the plurality of causal graphs 132 that are similar to each other are essentially close, and information indicating whether or not the data groups 131 that are similar to each other are essentially close. . Therefore, for example, by viewing each piece of information output by the information processing apparatus 1, the operator can judge whether or not the plurality of causal graphs 132 that are similar to each other are essentially close, are essentially close to each other.
  • Information processing device 5 Operation terminal 10: Information processing system NW: Network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

複数の特徴量の組み合わせからなるデータを複数記憶した記憶部を参照して、複数の条件ごとに、組み合わせが各条件を満たすデータ群を抽出し、複数の条件ごとに、各条件に対応するデータ群に含まれる複数の特徴量の間における関係性を特定し、複数の条件ごとの関係性を複数の第1クラスタに分類し、複数の条件ごとのデータ群を複数の第2クラスタに分類し、各データ群に対応する関係性が分類された第1クラスタが同一であって、かつ、各データ群が分類された第2クラスタが同一である複数のデータ群が同一のクラスタに分類されるように、複数の条件ごとのデータ群を複数の第3クラスタに分類し、複数の第3クラスタごとに、各クラスタに分類されたデータ群と他のクラスタに分類されたデータ群とを分類可能な第1条件を特定する。

Description

情報処理プログラム、情報処理装置及び情報処理方法
 本発明は、情報処理プログラム、情報処理装置及び情報処理方法に関する。
 近年、マーケティングや医療等の各分野では、例えば、各種の問題を解決するための施策の立案がAI(Artificial Intelligence)によって行われている。具体的に、このような施策の立案は、例えば、原因と結果との間の相関関係だけでなく、原因と結果との関係性を表現した因果関係(Causal Relationships)を考慮することによって行われる。そのため、近年では、例えば、データ全体に対する因果関係を推定する技術が研究されている(例えば、非特許文献1参照)。
小柳佑介、上村健人、浅井達哉、金児純司、大堀耕太郎著「個々の特徴的な因果関係を発見する技術の開発とマーケティングデータへの適用」、[online]経営課題にAIを!ビジネスインフォマティクス研究会(第18回)、[令和3年12月16日検索]、インターネット(URL:http://sig-bi.jp/doc/18th_SIG-BI_2021/18th_SIG-BI_2021_paper_13.pdf)
 ここで、例えば、マーケティングにおけるプロモーションの場合において、商品を購入した各顧客は、商品の購入に繋がる特性をそれぞれ有している。そのため、各顧客に対する適切な施策を立案するためには、例えば、顧客全員に共通する因果関係だけでなく、複数の条件に該当する顧客ごとの因果関係を特定する必要がある。
 したがって、各種の問題を解決する施策の立案が行われる場合、例えば、エマージングパターン列挙に基づいてデータの条件を求め、さらに、データ全体に対する因果関係に加え、各条件に該当するデータごとに因果関係を特定する手法が用いられる。
 しかしながら、例えば、各条件に対応する因果関係が大量に特定された場合、問題の解決に繋がる因果関係(以下、重要な因果関係とも呼ぶ)を特定することができない場合がある。
 そこで、一つの側面では、本発明は、問題の解決に繋がる重要な因果関係を特定することを可能とする情報処理プログラム、情報処理装置及び情報処理方法を提供することを目的とする。
 実施の形態の一態様では、複数の特徴量の組み合わせからなるデータを複数記憶した記憶部を参照して、複数の条件ごとに、前記組み合わせが各条件を満たすデータ群を抽出し、前記複数の条件ごとに、各条件に対応する前記データ群に含まれる前記複数の特徴量の間における関係性を特定し、前記複数の条件ごとの前記関係性の間における第1類似度に基づいて、前記複数の条件ごとの前記関係性を複数の第1クラスタに分類し、前記複数の条件ごとの前記データ群の間における第2類似度に基づいて、前記複数の条件ごとの前記データ群を複数の第2クラスタに分類し、各データ群に対応する前記関係性が分類された前記第1クラスタが同一であって、かつ、各データ群が分類された前記第2クラスタが同一である複数の前記データ群が同一のクラスタに分類されるように、前記複数の条件ごとの前記データ群を複数の第3クラスタに分類し、前記複数の第3クラスタごとに、各クラスタに分類された前記データ群と他のクラスタに分類された前記データ群とを分類可能な第1条件を特定し、特定した前記第1条件を前記複数の第3クラスタの分類結果とともに出力する、処理をコンピュータに実行させる。
 一つの側面によれば、問題の解決に繋がる重要な因果関係を特定することを可能とする。
図1は、情報処理システム10の構成を示す図である。 図2は、比較例における原因特定処理を説明するフローチャート図である。 図3は、S2の具体例について説明する図である。 図4は、S2の具体例について説明する図である。 図5は、因果グラフ132の具体例を説明する図である。 図6は、情報処理装置1のハードウエア構成を説明する図である。 図7は、情報処理装置1の機能のブロック図である。 図8は、第1の実施の形態における原因特定処理の概略を説明するフローチャート図である。 図9は、第1の実施の形態における原因特定処理の詳細を説明するフローチャート図である。 図10は、第1の実施の形態における原因特定処理の詳細を説明するフローチャート図である。 図11は、第1の実施の形態における原因特定処理の詳細を説明するフローチャート図である。 図12は、第1の実施の形態における原因特定処理の詳細を説明する図である。 図13は、第1の実施の形態における原因特定処理の詳細を説明する図である。 図14は、第1の実施の形態における原因特定処理の詳細を説明する図である。 図15は、第1の実施の形態における原因特定処理の詳細を説明する図である。 図16は、第1の実施の形態における原因特定処理の詳細を説明する図である。 図17は、第1の実施の形態における原因特定処理の詳細を説明する図である。 図18は、第1の実施の形態における原因特定処理の詳細を説明する図である。 図19は、S43の処理の具体例について説明する図である。
 [情報処理システムの構成]
 初めに、情報処理システム10の構成について説明を行う。図1は、情報処理システム10の構成について説明する図である。
 情報処理システム10は、図1に示すように、例えば、情報処理装置1と、操作端末5とを有する。
 情報処理装置1は、例えば、物理マシンまたは仮想マシンであり、処理対象のデータ群131(以下、対象データ群131とも呼ぶ)から目的変数の原因となる因果関係を特定する処理(以下、原因特定処理)を行う。対象データ群131は、例えば、複数の特徴量の組合せからなる複数のデータからなるデータ群である。
 操作端末5は、例えば、1台以上のPC(Personal Computer)であり、作業者が必要な情報の入力等を行う端末である。具体的に、操作端末5は、例えば、作業者が入力した対象データ群131を情報処理装置1に送信する。以下、比較例における原因特定処理について説明を行う。
 [比較例における原因特定処理]
 図2は、比較例における原因特定処理を説明するフローチャート図である。図3から図5は、比較例における原因特定処理を説明する図である。
 情報処理装置1は、例えば、原因特定タイミングになるまで待機する(S1のNO)。原因特定タイミングは、例えば、作業者が原因特定処理を開始する旨を情報処理装置1に入力したタイミングである。
 そして、原因特定タイミングになった場合(S1のYES)、情報処理装置1は、例えば、対象データ群131を記憶した記憶部を参照して、作業者によって予め指定された複数の条件(以下、単に複数の条件とも呼ぶ)ごとに、複数の特徴量の組合せが各条件を満たすデータ群131(以下、部分データ群131とも呼ぶ)を抽出する(S2)。複数の条件は、例えば、エマージングパターン列挙に基づいて決定された特徴量の組合せについての条件である。以下、S2の処理の具体例について説明を行う。
 [S2の処理の具体例]
 図3及び図4は、S2の具体例について説明する図である。具体的に、図3及び図4は、対象データ群131の具体例について説明する図である。なお、以下、対象データ群131が複数の学生に関するデータ群であり、目的変数が各学生の成績であるものとして説明を行う。また、以下、対象データ群131には、「名前」、「年齢」、「性別」、「平日勉強時間」、「平日自由時間」、「欠席数」及び「通学時間」等が特徴量として含まれるものとして説明を行う。
 図3に示す対象データ群131において、1行目のデータには、例えば、「名前」として「A」が設定され、「年齢」として「20」が設定され、「性別」として「男」が設定され、「平日勉強時間」として「60(分)」が設定され、「平日自由時間」として「120(分)」が設定され、「欠席数」として「0(日)」が設定され、「通学時間」として「30(分)」が設定されている。
 また、図3に示す対象データ群131において、2行目のデータには、例えば、「名前」として「B」が設定され、「年齢」として「18」が設定され、「性別」として「女」が設定され、「平日勉強時間」として「120(分)」が設定され、「平日自由時間」として「60(分)」が設定され、「欠席数」として「0(日)」が設定され、「通学時間」として「20(分)」が設定されている。図3に含まれる他の情報についての説明は省略する。
 そして、例えば、予め定められた複数の条件に含まれる1つの条件(以下、特定の条件とも呼ぶ)が「平日自由時間>60∧通学時間<30」である場合、情報処理装置1は、図4の下線部分に示すように、特定の条件に対応する部分データ群131として、1行目、2行目及び5行目のデータを含む部分データ群131を特定する。
 図2に戻り、情報処理装置1は、例えば、複数の条件ごとに、各条件に対応する部分データ群131に含まれる複数の特徴量の間における関係性を示す因果グラフ132を生成する(S3)。以下、因果グラフの具体例について説明を行う。
 [因果グラフの具体例]
 図5は、因果グラフ132の具体例を説明する図である。具体的に、図5は、図4で説明した部分データ群131(特定の条件に対応する部分データ群131)に含まれる複数の特徴量の間における関係性を示す因果グラフ132の具体例を説明する図である。なお、図4に示す因果グラフ132における各ノードは、図4で説明した特徴量のそれぞれに対応している。また、各ノード間の矢印及び数値は、図4で説明した複数の特徴量の間の因果関係の有無及び因果関係の強さを示している。
 具体的に、例えば、図5に示す因果グラフ132のうち、「父が教職」に対応するノードから「1学期の成績」に対応するノードに向かう矢印は、学生の父が教職である場合、1学期の成績が1.34(点)下がることを示している。また、「1学期の成績」に対応するノードから「2学期の成績」に対応するノードに向かう矢印は、1学期の成績が1(点)上がる場合、2学期の成績が0.88(点)上がることを示している。図5に含まれる他の情報についての説明は省略する。
 図2に戻り、情報処理装置1は、例えば、複数の条件ごとに生成した因果グラフ132から、目的変数の原因となる因果関係を特定する(S4)。
 具体的に、情報処理装置1は、例えば、S3の処理で生成した複数の因果グラフ132ごとに、各因果グラフ132に含まれる因果関係のうち、他の因果グラフ132に含まれていない因果関係(すなわち、特異な因果関係)を特定する。そして、情報処理装置1は、例えば、特定した因果関係を、目的関数の原因となる因果関係が現れる条件として特定する。
 これにより、情報処理装置1は、例えば、対象データ群131の全体に対応する因果グラフ132に現れてない特異な因果関係を特定することが可能になる。
 しかしながら、例えば、S3の処理において大量の因果グラフ132が生成された場合、情報処理装置1は、生成された大量の因果グラフ132から重要な因果関係(目的解決に繋がる重要な因果関係)を容易に特定することができない。
 そこで、本実施の形態における情報処理装置1は、例えば、複数の特徴量の組み合わせからなる対象データ群131を記憶した記憶部を参照して、複数の条件ごとに、複数の特徴量の組み合わせが各条件を満たす部分データ群131を抽出する。そして、情報処理装置1は、例えば、複数の条件ごとに、各条件に対応する部分データ群131に含まれる複数の特徴量の間における関係性を示す因果グラフ132を生成する。
 続いて、情報処理装置1は、例えば、複数の条件ごと因果グラフ132の間における類似度(以下、第1類似度とも呼ぶ)に基づいて、複数の条件ごとの因果グラフ132を複数のクラスタ(以下、複数の第1クラスタとも呼ぶ)に分類する。また、情報処理装置1は、例えば、複数の条件ごとの部分データ群131の間における類似度(以下、第2類似度とも呼ぶ)に基づいて、複数の条件ごとの部分データ群131を複数のクラスタ(以下、複数の第2クラスタ)に分類する。
 その後、情報処理装置1は、例えば、各部分データ群131に対応する因果グラフ132が分類された第1クラスタが同一であって、かつ、各部分データ群131が分類された第2クラスタが同一である複数の部分データ群131が同一のクラスタに分類されるように、複数の条件ごとの部分データ群131を複数のクラスタ(以下、複数の第3クラスタとも呼ぶ)に分類する。
 そして、情報処理装置1は、複数の第3クラスタごとに、各クラスタに分類された部分データ群131と他のクラスタに分類された部分データ群131とを分類可能な条件(以下、第1条件とも呼ぶ)を特定し、特定した第1条件を複数の第3クラスタの分類結果(以下、単に分類結果とも呼ぶ)とともに出力する。
 具体的に、情報処理装置1は、例えば、複数の第3クラスタごとに、各クラスタに分類された複数の因果グラフ132に含まれる因果関係のうち、対象データ群131の全体に対応する因果グラフ132に含まれていない因果関係を示す情報を、分類結果として出力する。
 すなわち、本実施の形態における情報処理装置1は、例えば、本質的に近いであると判断できる部分データ群131のうち、対応する因果グラフ132についても本質的に近いと判断できる部分データ群131が同一のクラスタに含まれるように、複数の条件ごとに抽出した部分データ群131を複数の第3クラスタに分類する。そして、情報処理装置1は、例えば、目的解決に繋がる重要な因果関係が現れる条件である第1条件の特定を、複数の第3クラスタごとに行う。
 これにより、本実施の形態における情報処理装置1は、例えば、部分データ群131と因果グラフ132との組合せが大量に存在する場合であっても、本質的に近いであると判断できる組合せを集約することが可能になり、問題解決に繋がる重要な因果関係を容易に特定することが可能になる。
 また、本実施の形態における情報処理装置1は、例えば、各クラスタに対応する分類結果と第1条件とを併せて出力することで、原因特定処理によって特定された重要な因果関係と、その重要な因果関係が現れる第1条件との対応付ける形で出力することが可能になる。そのため、作業者は、例えば、情報処理装置1が出力した各情報を閲覧することにより、原因特定処理によって特定された重要な因果関係と、その重要な因果関係が現れる第1条件との対応関係を容易に把握することが可能になる。
 [情報処理システムのハードウエア構成]
 次に、情報処理システム10のハードウエア構成について説明する。図6は、情報処理装置1のハードウエア構成を説明する図である。
 情報処理装置1は、図6に示すように、プロセッサであるCPU101と、メモリ102と、I/Oインタフェース103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
 記憶媒体104は、例えば、原因特定処理を行うためのプログラム110(以下、情報処理プログラム110とも呼ぶ)を記憶するプログラム格納領域(図示せず)を有する。また、記憶媒体104は、例えば、原因特定処理を行う際に用いられる情報を記憶する情報格納領域130を有する。なお、記憶媒体104は、例えば、HDDやSSD(Solid State Drive)であってよい。
 CPU101は、記憶媒体104からメモリ102にロードされたプログラム110を実行して原因特定処理を行う。
 I/Oインタフェース103は、例えば、ネットワークインターフェースカード等のインタフェース機器であり、操作端末5とアクセスが可能である。
 [情報処理システムの機能]
 次に、情報処理システム10の機能について説明を行う。図7は、情報処理装置1の機能のブロック図である。
 情報処理装置1は、図7に示すように、例えば、CPU101やメモリ102等のハードウエアとプログラム110とが有機的に協働することにより、データ受信部111と、データ抽出部112と、グラフ生成部113(以下、関係性特定部113とも呼ぶ)と、第1類似度算出部114と、第2類似度算出部115と、クラスタリング部116と、条件特定部117と、条件出力部118とを含む各種機能を実現する。
 また、情報処理装置1は、例えば、対象データ群131と、因果グラフ132と、第1類似度情報133と、第2類似度情報134と、重要度情報135とを情報格納領域130に記憶する。
 データ受信部111は、例えば、作業者が操作端末5を介して入力した対象データ群131を受信する。そして、データ受信部111は、例えば、受信した対象データ群131を情報格納領域130に記憶する。
 データ抽出部112は、例えば、情報格納領域130に記憶した対象データ群131を参照し、作業者が予め指定した複数の条件ごとに、複数の特徴量の組み合わせが各条件を満たす部分データ群131を抽出する。
 グラフ生成部113は、例えば、複数の条件ごとに、各条件に対応する部分データ群131に含まれる複数の特徴量の間における関係性を示す因果グラフ132を生成する。
 第1類似度算出部114は、例えば、複数の条件ごとの因果グラフ132の間における第1類似度情報133を算出する。そして、第1類似度算出部114は、例えば、算出した第1類似度情報133を情報格納領域130に記憶する。
 第2類似度算出部115は、例えば、複数の条件ごとの部分データ群131の間における第2類似度情報134を算出する。そして、第2類似度算出部115は、例えば、算出した第2類似度情報134を情報格納領域130に記憶する。
 クラスタリング部116は、例えば、第1類似度算出部114が算出した第1類似度に基づいて、複数の条件ごとの因果グラフ132を複数の第1クラスタに分類する。
 また、クラスタリング部116は、例えば、第2類似度算出部115が算出した第2類似度に基づいて、複数の条件ごとの部分データ群131を複数の第2クラスタに分類する。
 さらに、クラスタリング部116は、例えば、各部分データ群131に対応する因果グラフ132が分類された第1クラスタが同一であって、かつ、各部分データ群131が分類された第2クラスタが同一である複数の部分データ群131が同一のクラスタに分類されるように、複数の条件ごとの部分データ群131を複数の第3クラスタに分類する。
 条件特定部117は、例えば、複数の第3クラスタごとに、各クラスタに分類された部分データ群131と他のクラスタに分類された部分データ群131とを分類可能な第1条件を特定する。
 条件出力部118は、例えば、条件特定部117が特定した第1条件を、クラスタリング部116による複数の第3クラスタの分類結果とともに操作端末5に出力する。
 [第1の実施の形態の概略]
 次に、第1の実施の形態の概略について説明する。図8は、第1の実施の形態における原因特定処理の概略を説明するフローチャート図である。
 情報処理装置1は、例えば、原因特定タイミングになるまで待機する(S11のNO)。
 そして、原因特定タイミングになった場合(S11のYES)、情報処理装置1は、例えば、情報格納領域130に記憶した対象データ群131を参照し、複数の条件ごとに、複数の特徴量の組み合わせが各条件を満たす部分データ群131を抽出する(S12)。
 続いて、情報処理装置1は、例えば、複数の条件ごとに、各条件に対応する部分データ群131に含まれる複数の特徴量の間における関係性を示す因果グラフ132を生成する(S13)。
 次に、情報処理装置1は、例えば、複数の条件ごとの因果グラフ132の間における第1類似度に基づいて、複数の条件ごとの因果グラフ132を複数の第1クラスタに分類する(S14)。
 また、情報処理装置1は、例えば、複数の条件ごとの部分データ群131の間における第2類似度に基づいて、複数の条件ごとの部分データ群131を複数の第2クラスタに分類する(S15)。
 さらに、情報処理装置1は、例えば、各部分データ群131に対応する因果グラフ132が分類された第1クラスタが同一であって、かつ、各部分データ群131が分類された第2クラスタが同一である複数の部分データ群131が同一のクラスタに分類されるように、複数の条件ごとの部分データ群131を複数の第3クラスタに分類する(S16)。
 その後、情報処理装置1は、例えば、複数の第3クラスタごとに、各クラスタに分類された部分データ群131と他のクラスタに分類された部分データ群131とを分類可能な第1条件を特定して出力する(S17)。
 これにより、本実施の形態における情報処理装置1は、例えば、部分データ群131と因果グラフ132との組合せが大量に存在する場合であっても、本質的に近いであると判断できる組合せを集約することが可能になり、問題解決に繋がる重要な因果関係を容易に特定することが可能になる。
 また、本実施の形態における情報処理装置1は、例えば、各クラスタに対応する分類結果と第1条件とを併せて出力することで、原因特定処理によって特定された重要な因果関係と、その重要な因果関係が現れる第1条件との対応付ける形で出力することが可能になる。そのため、作業者は、例えば、情報処理装置1が出力した各情報を閲覧することにより、原因特定処理によって特定された重要な因果関係と、その重要な因果関係が現れる第1条件との対応関係を容易に把握することが可能になる。
 さらに、本実施の形態における情報処理装置1は、例えば、互いに類似すると判断できる複数のデータ群131のうち、互いに類似すると判断できる因果グラフ132に対応する複数のデータ群131を同一のクラスタに分類することで、互いに類似する複数の因果グラフ132が本質的に近いか否かを示す情報や、互いに類似するデータ群131が本質的に近いか否かを示す情報を出力することが可能になる。そのため、作業者は、例えば、情報処理装置1が出力した各情報を閲覧することにより、互いに類似する複数の因果グラフ132が本質的に近いか否かについての判断や、互いに類似するデータ群131が本質的に近いか否かについての判断を容易に行うことが可能になる。
 [第1の実施の形態の詳細]
 次に、第1の実施の形態の詳細について説明を行う。図9から図11は、第1の実施の形態における原因特定処理の詳細を説明するフローチャート図である。また、図12から図19は、第1の実施の形態における原因特定処理の詳細を説明する図である。
 データ受信部111は、図9に示すように、例えば、操作端末5から送信された対象データ群131を受信するまで待機する(S21のNO)。
 そして、対象データ群131を受信した場合(S21のYES)、データ受信部111は、受信した対象データ群131を情報格納領域130に記憶する(S22)。具体的に、データ受信部111は、例えば、図3で説明した対象データ群131を情報格納領域130に記憶する。
 その後、データ抽出部112は、図10に示すように、例えば、原因特定タイミングになるまで待機する(S31のNO)。
 そして、原因特定タイミングになった場合(S31のYES)、データ抽出部112は、例えば、情報格納領域130に記憶した対象データ群131を参照し、複数の条件ごとに、複数の特徴量の組み合わせが各条件を満たす部分データ群131を抽出する(S32)。
 具体的に、データ抽出部112は、図12に示すように、例えば、複数の学生Sについての対象データ群131から、予め指定された条件Aに対応する学生Sに対応する部分データ群131aと、予め指定された条件Bに対応する学生Sに対応する部分データ群131bと、予め指定された条件Cに対応する学生Sに対応する部分データ群131cとをそれぞれ抽出する。
 続いて、グラフ生成部113は、例えば、複数の条件ごとに、各条件に対応する部分データ群131に含まれる複数の特徴量の間における関係性を示す因果グラフ132を生成する(S33)。
 具体的に、グラフ生成部113は、図13に示すように、例えば、部分データ群131aに含まれる複数の特徴量の間における関係性を示す因果グラフ132aと、部分データ群131bに含まれる複数の特徴量の間における関係性を示す因果グラフ132bと、部分データ群131cに含まれる複数の特徴量の間における関係性を示す因果グラフ132cとをそれぞれ生成する。
 なお、情報処理装置1は、例えば、評価理由を説明可能な学習モデル(ホワイトボックス型の学習モデル)を生成する機械学習技術であるWide Leaning(登録商標)を用いることによって、S12及びS13の処理を行うものであってよい。
 次に、第1類似度算出部114は、例えば、複数の条件ごとの因果グラフ132の間における第1類似度情報133を算出する(S34)。
 具体的に、第1類似度算出部114は、例えば、S32の処理で生成した因果グラフ132についての隣接行列の距離や、S32の処理で生成した因果グラフ132についての目的変数に対する因果効果の距離等を第1類似度情報133として算出するものであってよい。
 また、第2類似度算出部115は、例えば、複数の条件ごとの部分データ群131の間における第2類似度情報134を算出する(S35)。
 具体的に、第2類似度算出部115は、例えば、S31の処理で抽出した部分データ群131についてのJaccard係数やDice係数やSimpson係数等を第2類似度情報134として算出するものであってよい。
 そして、クラスタリング部116は、例えば、第1類似度情報133に従って、複数の条件ごとの因果グラフ132を複数の第1クラスタに分類する(S36)。
 具体的に、クラスタリング部116は、図14に示すように、例えば、S34の処理で算出した第1類似度情報133が高い因果グラフ132が同一の第1クラスタに分類されるように、S33の処理で生成した因果グラフ132を、クラスタCL11、クラスタCL12及びクラスタCL13を含む複数の第1クラスタに分類する。
 また、クラスタリング部116は、例えば、第2類似度情報134に従って、複数の条件ごとの部分データ群131を複数の第2クラスタに分類する(S37)。
 具体的に、クラスタリング部116は、図15に示すように、例えば、S35の処理で算出した第2類似度情報134が高い部分データ群131が同一の第2クラスタに分類されるように、S32の処理で抽出した部分データ群131を、クラスタCL21、クラスタCL22及びクラスタCL23を含む複数の第2クラスタに分類する。
 その後、クラスタリング部116は、例えば、各因果グラフ132が分類された第1クラスタが同一であって、かつ、各因果グラフ132に対応する部分データ群131が分類された第2クラスタが同一である複数の因果グラフ132が同一のクラスタに分類されるように、複数の条件ごとの部分データ群131と因果グラフ132との組合せを複数の第3クラスタに分類する(S38)。
 換言すれば、クラスタリング部116は、S38の処理において、例えば、各部分データ群131に対応する因果グラフ132が分類された第1クラスタが同一であって、かつ、各部分データ群131が分類された第2クラスタが同一である複数の部分データ群131が同一のクラスタに分類されるように、複数の条件ごとの部分データ群131と因果グラフ132との組合せを複数の第3クラスタに分類する。
 具体的に、クラスタリング部116は、図16に示すように、例えば、S36の処理でクラスタCL11に分類された因果グラフ132のうち、S37の処理でクラスタCL21に分類された部分データ群131に対応する因果グラフ132をクラスタCL31に分類する。
 また、クラスタリング部116は、図16に示すように、例えば、S36の処理でクラスタCL13に分類された因果グラフ132のうち、S37の処理でクラスタCL21に分類された部分データ群131に対応する因果グラフ132をクラスタCL33に分類する。
 さらに、クラスタリング部116は、図16に示すように、例えば、S36の処理でクラスタCL12に分類された因果グラフ132のうち、S37の処理でクラスタCL22に分類された部分データ群131に対応する因果グラフ132をクラスタCL35に分類する。図16に含まれる他の情報についての説明は省略する。
 すなわち、クラスタリング部116は、部分データ群131と因果グラフ132との組合せについてのクラスタリングを、各部分データ群131の間の類似度と各因果グラフ132の間の類似度とに従って行うことで、本質的に近い組合せが同一のクラスタに含まれるように分類を行う。
 これにより、情報処理装置1は、本質的に近い因果関係にある複数の部分データ群131及び複数の因果グラフ132を集約することが可能になる。
 そして、クラスタリング部116は、例えば、複数の第3クラスタから、各クラスタに含まれる部分データ群131の数が所定数以下であるクラスタを除外する(S39)。所定数は、例えば、1であってよい。
 すなわち、S38の処理において部分データ群131と因果グラフ132との組合せが多く含まれるクラスタに分類されなかった組合せは、外れ値として判断することが可能である。そのため、クラスタリング部116は、例えば、外れ値と判断可能な組合せ(外れ値と判断可能な組合せのみを含むクラスタ)を除外する。
 続いて、条件特定部117は、図11に示すように、例えば、複数の第3クラスタごとに、各クラスタに含まれる部分データ群131において共通する共通部分データ群131dを特定する(S41)。
 具体的に、条件特定部117は、図17に示すように、例えば、クラスタCL33に含まれる複数の部分データ群131を構成するデータのうち、所定割合以上(例えば、80(%)以上)の部分データ群131に含まれるデータを共通部分データ群131dとして特定する。
 また、条件特定部117は、例えば、複数の第3クラスタごとに、各クラスタに含まれる因果グラフ132において共通する共通因果グラフ132dを生成する(S41)。
 具体的に、条件特定部117は、図18に示すように、例えば、クラスタCL33に含まれる複数の部分データ群131に対応する因果グラフ132を構成する辺のうち、所定割合以上(例えば、80(%)以上)の辺を含む新たな因果グラフ132を共通因果グラフ132dとして生成する。
 その後、条件特定部117は、例えば、複数の第3クラスタごとに、各クラスタに分類された共通部分データ群131dを正例とし、他のクラスタに分類された共通部分データ群131dを負例とする機械学習を行うことによって学習モデルを生成する(S42)。
 すなわち、条件特定部117は、例えば、複数の第3クラスタごとに、各クラスタに分類されたデータ群と他のクラスタに分類されたデータ群とを分類可能な学習する。
 具体的に、条件特定部117は、例えば、Wide Leaning(登録商標)を用いることによって、対象(データ)がpositiveまたはnegativeで評価することが可能であり、評価理由を説明可能であり、全ての変数の組合せで構成される条件を網羅的に列挙することが可能であり、さらに、ロジスティック回帰等の手法を用いることによって列挙された条件に重要度(以下、単に重要度とも呼ぶ)を付与することが可能な学習モデルを生成する。
 そして、条件特定部117は、例えば、複数の第3クラスタごとに、各クラスタに対応する学習モデルが示す条件を第1条件として特定する(S43)。以下、S43の処理の具体例について説明を行う。
 [S43の処理の具体例]
 図19は、S43の処理の具体例について説明する図である。具体的に、図19は、S42の処理で生成した学習モデルから出力された各条件の重要度を示す重要度情報135の具体例を説明する図である。
 図19に示す重要度情報135は、例えば、「年齢<20∧留年なし」という条件の「重要度」が「0.9」であり、「平日勉強時間>30分」という条件の「重要度」が「0.6」であることを示している。図19に含まれる他の情報についての説明は省略する。
 そして、例えば、図19に示す重要度情報135における「0.9」が「重要度」の最高値である場合、条件特定部117は、例えば、第1条件として「年齢<20∧留年なし」を特定する。
 図11に戻り、条件出力部118は、例えば、複数の第3クラスタごとに特定した第1条件を、共通因果グラフ132dを対応付けて操作端末5に出力する(S44)。
 具体的に、条件出力部118は、この場合、例えば、共通因果グラフ132dに含まれる辺のうち、対象データ群131の全体に対応する因果グラフ132(例えば、グラフ生成部113によって予め生成された因果グラフ132)に含まれていない辺を強調した状態で出力するものであってもよい。
 これにより、情報処理装置1は、例えば、原因特定処理によって特定した重要な因果関係を強調した形で出力することが可能になる。そのため、情報処理装置1は、例えば、複数の第3クラスタごとに、原因特定処理によって特定した重要な因果関係と、その因果関係が出現する部分データ群131の条件(第1条件)とを対応付けた形で出力することが可能になる。
 このように、本実施の形態における情報処理装置1は、例えば、複数の特徴量の組み合わせからなる対象データ群131を記憶した情報格納領域130を参照して、複数の条件ごとに、複数の特徴量の組み合わせが各条件を満たす部分データ群131を抽出する。そして、情報処理装置1は、例えば、複数の条件ごとに、各条件に対応する部分データ群131に含まれる複数の特徴量の間における因果グラフ132を特定する。
 続いて、情報処理装置1は、例えば、複数の条件ごとの因果グラフ132の間における第1類似度に基づいて、複数の条件ごとの因果グラフ132を複数の第1クラスタに分類する。また、情報処理装置1は、例えば、複数の条件ごとの部分データ群131の間における第2類似度に基づいて、複数の条件ごとの部分データ群131を複数の第2クラスタに分類する。
 その後、情報処理装置1は、例えば、各部分データ群131に対応する関係性が分類された第1クラスタが同一であって、かつ、各部分データ群131が分類された第2クラスタが同一である複数の部分データ群131が同一のクラスタに分類されるように、複数の条件ごとの部分データ群131を複数の第3クラスタに分類する。
 そして、情報処理装置1は、複数の第3クラスタごとに、各クラスタに分類された部分データ群131と他のクラスタに分類された部分データ群131とを分類可能な第1条件を特定し、特定した第1条件を複数の第3クラスタの分類結果とともに出力する。
 すなわち、本実施の形態における情報処理装置1は、例えば、本質的に近いであると判断できる部分データ群131のうち、対応する因果グラフ132についても本質的に近いと判断できる部分データ群131が同一のクラスタに含まれるように、複数の条件ごとに抽出した部分データ群131を複数の第3クラスタに分類する。そして、情報処理装置1は、例えば、目的解決に繋がる重要な因果関係が現れる条件である第1条件の特定を、複数の第3クラスタごとに行う。
 これにより、本実施の形態における情報処理装置1は、例えば、部分データ群131と因果グラフ132との組合せが大量に存在する場合であっても、本質的に近いであると判断できる組合せを集約することが可能になり、問題解決に繋がる重要な因果関係を容易に特定することが可能になる。
 また、本実施の形態における情報処理装置1は、例えば、各クラスタに対応する分類結果と第1条件とを併せて出力することで、原因特定処理によって特定された重要な因果関係と、その重要な因果関係が現れる第1条件との対応付ける形で出力することが可能になる。そのため、作業者は、例えば、情報処理装置1が出力した各情報を閲覧することにより、原因特定処理によって特定された重要な因果関係と、その重要な因果関係が現れる第1条件との対応関係を容易に把握することが可能になる。
 さらに、本実施の形態における情報処理装置1は、例えば、互いに類似すると判断できる複数のデータ群131のうち、互いに類似すると判断できる因果グラフ132に対応する複数のデータ群131を同一のクラスタに分類することで、互いに類似する複数の因果グラフ132が本質的に近いか否かを示す情報や、互いに類似するデータ群131が本質的に近いか否かを示す情報を出力することが可能になる。そのため、作業者は、例えば、情報処理装置1が出力した各情報を閲覧することにより、互いに類似する複数の因果グラフ132が本質的に近いか否かについての判断や、互いに類似するデータ群131が本質的に近いか否かについての判断を容易に行うことが可能になる。
1:情報処理装置         5:操作端末
10:情報処理システム      NW:ネットワーク

Claims (12)

  1.  複数の特徴量の組み合わせからなるデータを複数記憶した記憶部を参照して、複数の条件ごとに、前記組み合わせが各条件を満たすデータ群を抽出し、
     前記複数の条件ごとに、各条件に対応する前記データ群に含まれる前記複数の特徴量の間における関係性を特定し、
     前記複数の条件ごとの前記関係性の間における第1類似度に基づいて、前記複数の条件ごとの前記関係性を複数の第1クラスタに分類し、
     前記複数の条件ごとの前記データ群の間における第2類似度に基づいて、前記複数の条件ごとの前記データ群を複数の第2クラスタに分類し、
     各データ群に対応する前記関係性が分類された前記第1クラスタが同一であって、かつ、各データ群が分類された前記第2クラスタが同一である複数の前記データ群が同一のクラスタに分類されるように、前記複数の条件ごとの前記データ群を複数の第3クラスタに分類し、
     前記複数の第3クラスタごとに、各クラスタに分類された前記データ群と他のクラスタに分類された前記データ群とを分類可能な第1条件を特定し、
     特定した前記第1条件を前記複数の第3クラスタの分類結果とともに出力する、
     処理をコンピュータに実行させることを特徴とする情報処理プログラム。
  2.  請求項1において、
     前記第1条件を特定する処理では、
     前記複数の第3クラスタのうち、各クラスタに分類された前記データ群の数が所定以上であるクラスタごとに、前記第1条件を特定して出力する、
     ことを特徴とする情報処理プログラム。
  3.  請求項1において、
     前記第1条件を特定する処理では、
     前記複数の第3クラスタごとに、各クラスタに分類された1以上の前記データ群において共通する共通データ群を特定し、
     前記複数の第3クラスタごとに、各クラスタに分類された前記共通データ群と他のクラスタに分類された前記共通データ群とを分類可能な条件を前記第1条件として特定する、
     ことを特徴とする情報処理プログラム。
  4.  請求項3において、
     前記第1条件を特定する処理では、
     前記複数の第3クラスタごとに、各クラスタに分類された前記共通データ群を正例とし、他のクラスタに分類された前記共通データ群を負例とする機械学習を行うことによって学習モデルを生成し、
     前記複数の第3クラスタごとに、各クラスタに対応する前記学習モデルが示す条件を前記第1条件として特定する、
     ことを特徴とする情報処理プログラム。
  5.  請求項1において、
     前記第1条件を特定する処理では、
     前記複数の第3クラスタごとに、各クラスタに分類された1以上の前記データ群に対応する1以上の前記関係性において共通する共通関係性を特定し、
     前記出力する処理では、前記共通関係性を示す情報を前記複数の第3クラスタの分類結果として出力する、
     ことを特徴とする情報処理プログラム。
  6.  請求項5において、
     前記出力する処理では、前記共通関係性のうち、前記記憶部に記憶したデータのそれぞれに含まれる前記複数の特徴量の間における関係性に含まれていない関係性を示す情報を出力する、
     ことを特徴とする情報処理プログラム。
  7.  複数の特徴量の組み合わせからなるデータを複数記憶した記憶部を参照して、複数の条件ごとに、前記組み合わせが各条件を満たすデータ群を抽出するデータ抽出部と、
     前記複数の条件ごとに、各条件に対応する前記データ群に含まれる前記複数の特徴量の間における関係性を特定する関係性特定部と、
     前記複数の条件ごとの前記関係性の間における第1類似度に基づいて、前記複数の条件ごとの前記関係性を複数の第1クラスタに分類し、前記複数の条件ごとの前記データ群の間における第2類似度に基づいて、前記複数の条件ごとの前記データ群を複数の第2クラスタに分類し、各データ群に対応する前記関係性が分類された前記第1クラスタが同一であって、かつ、各データ群が分類された前記第2クラスタが同一である複数の前記データ群が同一のクラスタに分類されるように、前記複数の条件ごとの前記データ群を複数の第3クラスタに分類するクラスタリング部と、
     前記複数の第3クラスタごとに、各クラスタに分類された前記データ群と他のクラスタに分類された前記データ群とを分類可能な第1条件を特定する条件特定部と、
     特定した前記第1条件を前記複数の第3クラスタの分類結果とともに出力する条件出力部と、を有する、
     ことを特徴とする情報処理装置。
  8.  請求項7において、
     前記条件特定部は、
     前記複数の第3クラスタごとに、各クラスタに分類された1以上の前記データ群において共通する共通データ群を特定し、
     前記複数の第3クラスタごとに、各クラスタに分類された前記共通データ群と他のクラスタに分類された前記共通データ群とを分類可能な条件を前記第1条件として特定する、
     ことを特徴とする情報処理装置。
  9.  請求項8において、
     前記条件特定部は、
     前記複数の第3クラスタごとに、各クラスタに分類された前記共通データ群を正例とし、他のクラスタに分類された前記共通データ群を負例とする機械学習を行うことによって学習モデルを生成し、
     前記複数の第3クラスタごとに、各クラスタに対応する前記学習モデルが示す条件を前記第1条件として特定する、
     ことを特徴とする情報処理装置。
  10.  複数の特徴量の組み合わせからなるデータを複数記憶した記憶部を参照して、複数の条件ごとに、前記組み合わせが各条件を満たすデータ群を抽出し、
     前記複数の条件ごとに、各条件に対応する前記データ群に含まれる前記複数の特徴量の間における関係性を特定し、
     前記複数の条件ごとの前記関係性の間における第1類似度に基づいて、前記複数の条件ごとの前記関係性を複数の第1クラスタに分類し、
     前記複数の条件ごとの前記データ群の間における第2類似度に基づいて、前記複数の条件ごとの前記データ群を複数の第2クラスタに分類し、
     各データ群に対応する前記関係性が分類された前記第1クラスタが同一であって、かつ、各データ群が分類された前記第2クラスタが同一である複数の前記データ群が同一のクラスタに分類されるように、前記複数の条件ごとの前記データ群を複数の第3クラスタに分類し、
     前記複数の第3クラスタごとに、各クラスタに分類された前記データ群と他のクラスタに分類された前記データ群とを分類可能な第1条件を特定し、
     特定した前記第1条件を前記複数の第3クラスタの分類結果とともに出力する、
     処理をコンピュータが実行することを特徴とする情報処理方法。
  11.  請求項10において、
     前記第1条件を特定する処理では、
     前記複数の第3クラスタごとに、各クラスタに分類された1以上の前記データ群において共通する共通データ群を特定し、
     前記複数の第3クラスタごとに、各クラスタに分類された前記共通データ群と他のクラスタに分類された前記共通データ群とを分類可能な条件を前記第1条件として特定する、
     ことを特徴とする情報処理方法。
  12.  請求項11において、
     前記第1条件を特定する処理では、
     前記複数の第3クラスタごとに、各クラスタに分類された前記共通データ群を正例とし、他のクラスタに分類された前記共通データ群を負例とする機械学習を行うことによって学習モデルを生成し、
     前記複数の第3クラスタごとに、各クラスタに対応する前記学習モデルが示す条件を前記第1条件として特定する、
     ことを特徴とする情報処理方法。
PCT/JP2022/005439 2022-02-10 2022-02-10 情報処理プログラム、情報処理装置及び情報処理方法 WO2023152897A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/005439 WO2023152897A1 (ja) 2022-02-10 2022-02-10 情報処理プログラム、情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/005439 WO2023152897A1 (ja) 2022-02-10 2022-02-10 情報処理プログラム、情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
WO2023152897A1 true WO2023152897A1 (ja) 2023-08-17

Family

ID=87563917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/005439 WO2023152897A1 (ja) 2022-02-10 2022-02-10 情報処理プログラム、情報処理装置及び情報処理方法

Country Status (1)

Country Link
WO (1) WO2023152897A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003819A (ja) * 2006-06-22 2008-01-10 Nissan Motor Co Ltd 交互作用検出装置,交互作用検出用プログラムが記録された媒体及び交互作用検出方法
JP2008203964A (ja) * 2007-02-16 2008-09-04 Nec Corp 因果関係分析装置、因果関係分析方法及びプログラム
WO2021014823A1 (ja) * 2019-07-24 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003819A (ja) * 2006-06-22 2008-01-10 Nissan Motor Co Ltd 交互作用検出装置,交互作用検出用プログラムが記録された媒体及び交互作用検出方法
JP2008203964A (ja) * 2007-02-16 2008-09-04 Nec Corp 因果関係分析装置、因果関係分析方法及びプログラム
WO2021014823A1 (ja) * 2019-07-24 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KOYANAGI YUSUKE, UEMURA KENTO, ASAI TATSUYA, KANEKO JUNJI, OHORI KOTARO: "Developing a Framework for Individual Causal Discovery and its Application to Real Marketing Data", JSAI SPECIAL INTEREST GROUP ON BUSINESS INFORMATICS (SIG-BI #18), 5 March 2021 (2021-03-05), XP093083702 *

Similar Documents

Publication Publication Date Title
Xie et al. Customer churn prediction using improved balanced random forests
US11507989B2 (en) Multi-label product categorization
CN109829629A (zh) 风险分析报告的生成方法、装置、计算机设备和存储介质
JP2019079302A (ja) 営業活動支援システム、営業活動支援方法および営業活動支援プログラム
CN110866799A (zh) 使用人工智能监视在线零售平台的系统和方法
JP2021068436A (ja) 機械学習アルゴリズムの推論検証
Patil et al. Customer churn prediction for retail business
US20230214679A1 (en) Extracting and classifying entities from digital content items
CN115063035A (zh) 基于神经网络的客户评估方法、系统、设备及存储介质
EP3576024A1 (en) Accessible machine learning
JP2020140572A (ja) 配分方法、抽出方法、配分プログラム、抽出プログラム、配分装置及び抽出装置
Makruf et al. Classification methods comparison for customer churn prediction in the telecommunication industry
WO2023152897A1 (ja) 情報処理プログラム、情報処理装置及び情報処理方法
Torres-Berru et al. Data and text mining for the detection of fraud in public contracts: A case study of Ecuador’s official public procurement system
Desai et al. Hybrid prediction model for the success of bank telemarketing
US11593740B1 (en) Computing system for automated evaluation of process workflows
CN115169637A (zh) 社交关系预测方法、装置、设备和介质
CN111316259A (zh) 用于反馈和裁定的语义属性的动态合成和瞬时聚簇的系统和方法
US20210133853A1 (en) System and method for deep learning recommender
Karimi et al. Customer profiling and retention using recommendation system and factor identification to predict customer churn in telecom industry
Deng et al. Credit Risk Evaluation Based on Data Mining and Integrated Feature Selection
JP2018067215A (ja) データ分析システム、その制御方法、プログラム、及び、記録媒体
Rodpysh Model to predict the behavior of customers churn at the industry
Harfoushi et al. Amazon Machine Learning vs. Microsoft Azure Machine Learning as Platforms for Sentiment Analysis
Apunike et al. Analyses of public health databases via clinical pathway modelling: TBWEB

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22925918

Country of ref document: EP

Kind code of ref document: A1