WO2022270163A1 - 計算機システム及び介入効果予測方法 - Google Patents

計算機システム及び介入効果予測方法 Download PDF

Info

Publication number
WO2022270163A1
WO2022270163A1 PCT/JP2022/019713 JP2022019713W WO2022270163A1 WO 2022270163 A1 WO2022270163 A1 WO 2022270163A1 JP 2022019713 W JP2022019713 W JP 2022019713W WO 2022270163 A1 WO2022270163 A1 WO 2022270163A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
intervention
learning data
feature amount
learning
Prior art date
Application number
PCT/JP2022/019713
Other languages
English (en)
French (fr)
Inventor
昌宏 荻野
佩菲 朱
子盛 黎
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2022270163A1 publication Critical patent/WO2022270163A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to systems and methods for predicting the effects of human intervention.
  • causal inference such as randomized controlled trials is known as a method for estimating the effects of interventions (treatments, measures, etc.) performed on people.
  • Intervention effect estimation system 10 uses group processing unit 24 that holds group analysis results obtained by regression analysis of group data obtained by collecting data of a plurality of subjects, and group analysis results for user Set the initial value of the regression coefficient in the regression model for the user and the first prior distribution used for Bayesian estimation as the regression model prepared in , and when the user's subject data is obtained, the likelihood of the subject data is used
  • a personal processing unit 25 that updates the regression coefficients by Bayesian estimation, and the personal processing unit 25 performs intervention for the user based on the regression model for the user whose regression coefficients are updated by the personal processing unit 25.
  • Patent Document 1 does not consider selection bias.
  • a technique described in Non-Patent Document 1 is known.
  • discrepancy distance is used to adjust bias in group distribution, that is, confounding bias (see, for example, FIG. 1 of Non-Patent Document 1).
  • Non-Patent Document 1 has a problem that the effect of reducing the confounding bias is small.
  • the present invention solves the conventional problems and provides a system and method for predicting the effects of multiple interventions on humans with high accuracy.
  • a representative example of the invention disclosed in the present application is as follows. That is, a computer system for predicting the effects of multiple interventions on a person, comprising at least one computer having a processor and a storage device connected to the processor, wherein A first model that generates a feature quantity by mapping a vector consisting of values of a plurality of factors to a feature quantity space, and a second model that outputs a predicted value of the effect of the plurality of interventions on the person from the feature quantity.
  • the computer system receives input data including values of the plurality of factors, inputs the input data to the first model, thereby generating the feature amount of the input data, and generating the feature amount of the input data. into the second model to calculate the predicted value of the effects of the plurality of interventions.
  • FIG. 1 is a diagram illustrating a configuration example of a system of Example 1;
  • FIG. 3 is a diagram illustrating an example of a software configuration of a computer of Example 1;
  • FIG. 4 is a diagram showing an example of a learning data DB of Example 1;
  • FIG. 4 is a diagram illustrating an example of a functional configuration of a learning unit of Example 1;
  • FIG. 7 is a flowchart illustrating an example of learning processing executed by a learning unit of Example 1; 7 is a flowchart illustrating an example of prediction processing executed by a prediction unit according to the first embodiment;
  • FIG. 10 is a diagram showing an example of a prediction intervention result output by the prediction unit of Example 1;
  • FIG. 10 is a diagram showing an example of a prediction intervention result output by the prediction unit of Example 1;
  • FIG. 1 is a diagram showing a configuration example of the system of the first embodiment.
  • the system consists of a computer 100, an information terminal 110, and an external storage device 111.
  • Computer 100 , information terminal 110 , and external storage device 111 are connected to each other via network 109 .
  • the network 109 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), or the like, and the connection method may be either wired or wireless.
  • Computer 100 executes a learning process to generate a model for predicting intervention effects, and also uses the models to predict intervention effects for user data (input data).
  • the computer 100 has a CPU 101 , a main storage device 102 , a secondary storage device 103 , a network adapter 104 , an input device 105 and an output device 106 .
  • Each hardware element is connected to each other via an internal bus 108 .
  • the CPU 101 executes programs stored in the main memory device 102 .
  • the CPU 101 operates as a functional unit (module) that implements a specific function by executing processing according to a program.
  • a functional unit module
  • processing when processing is described with a functional unit as the subject, it means that the CPU 101 is executing a program that implements the functional unit.
  • the main storage device 102 is a DRAM (Dynamic Random Access Memory) and stores programs executed by the CPU 101 and data used by the programs.
  • the main memory device 102 is also used as a work area.
  • the secondary storage device 103 is a HDD (Hard Disk Drive), SSD (Solid State Drive), etc., and permanently stores data.
  • the programs and data stored in the main storage device 102 may also be stored in the secondary storage device 103 .
  • the CPU 101 reads the program and information from the secondary storage device 103 and loads them into the main storage device 102 .
  • the network adapter 104 is an interface for connecting to an external device via the network 109.
  • the input device 105 is a keyboard, mouse, touch panel, etc., and is a device for inputting to the computer 100 .
  • the output device 106 is a display, a printer, or the like, and is a device for outputting the processing results of the computer 100 and the like.
  • computer 100 may not have input device 105 and output device 106 .
  • the information terminal 110 is a terminal for performing various operations on the computer 100 .
  • the information terminal 110 registers learning data, registers models, inputs user data, and the like.
  • the hardware configuration of the information terminal 110 is the same as that of the computer 100 .
  • the external storage device 111 stores various information.
  • the external storage device 111 is, for example, an external HDD or storage system.
  • FIG. 2 is a diagram showing an example of the software configuration of the computer 100 of the first embodiment.
  • the computer 100 has a learning unit 200 and a prediction unit 201, and also has a learning data DB 210 and a model DB 211. Note that the learning data DB 210 and the model DB 211 may be stored in the external storage device 111 .
  • the learning data DB 210 is a database that stores learning data used for learning processing.
  • the learning data DB 210 will be explained using FIG.
  • the model DB 211 is a database that stores information on various models.
  • the learning unit 200 executes learning processing using learning data stored in the learning data DB 210 and models stored in the model DB 211 .
  • the prediction unit 201 predicts the intervention effect for the user data 220 using the model stored in the model DB 211 and outputs it as a prediction intervention result 221 .
  • FIG. 3 is a diagram showing an example of the learning data DB 210 of the first embodiment.
  • the learning data DB 210 stores entries including an ID 301, a factor 302, an intervention type 303, and an effect 304.
  • One entry corresponds to one learning data.
  • the fields included in the entry are not limited to those described above. Any of the fields described above may not be included, or other fields may be included.
  • the ID 301 is a field that stores identification information that uniquely identifies learning data. An identification number is stored in the ID 301 of this embodiment.
  • a factor 302 is a field that stores the values of factors such as the condition and characteristics of the person receiving intervention. Factors are, for example, age, sex, and height. In this embodiment, the types and number of factors included in the factors 302 are not limited.
  • the intervention type 303 is a field that stores information indicating the type of intervention performed on the person corresponding to the learning data.
  • the effect 304 is a field that stores the index value indicating the effect of intervention.
  • the user data 220 is data obtained by removing the intervention type 303 and the effect 304 from the learning data.
  • FIG. 4 is a diagram showing an example of the functional configuration of the learning unit 200 of the first embodiment.
  • the learning unit 200 includes a feature generation unit 400, a classifier 401, and a predictor 402.
  • the feature amount generation unit 400 generates the feature amount G i by mapping the factor x i to an arbitrary dimensional feature amount space.
  • the feature quantity generator 400 is defined as a model such as a neural network.
  • factor x i is an n-dimensional vector representing factors of a person whose identification information is i.
  • the factor x i corresponds to the factor 302 of the learning data, and n represents the number of fields of the factor 302 .
  • a discriminator 401 discriminates an intervention t′ i performed on a person from the feature quantity G i .
  • the discriminator 401 is defined as a model such as a neural network.
  • intervention t'i is a k-dimensional vector representing the predicted value of the intervention performed on the person whose identity is i .
  • k represents the type of intervention.
  • the learning unit 200 uses interventions t′ i and interventions t i of a plurality of people to calculate an imbalance loss function that evaluates the error of interventions t′ i and interventions t i .
  • an intervention t i represents an intervention performed on a person whose identification information is i.
  • the intervention t i is a numerical value j corresponding to the intervention type stored in the intervention type 303 of the learning data. For example, when the type of intervention is "A”, the value j is "1", and when the type of intervention is "B", the value j is "2".
  • the imbalance loss function is defined by equation (1).
  • represents a constant greater than 0; g(x i ) represents the feature quantity G i . d(g(x i ), t i ) represents the output of discriminator 401, ie intervention t′ i .
  • a predictor 402 calculates a predicted intervention effect y i from the feature quantity G i .
  • Predictor 402 is defined as a model such as a neural network.
  • the predicted intervention effect y i is a k-dimensional vector representing the predicted effect of each intervention for a person whose identification information is i.
  • g(x i ) represents the feature amount G i .
  • Pr(j) represents the probability value that intervention t i is j in the entire dataset.
  • the effect y F i represents the effect of the intervention performed on the person whose identity is i.
  • Effect y F i is the value of effect 304 .
  • the Factual loss function is defined by Equation (3).
  • the feature generator 400 and classifier 401 perform learning using a GAN (Generative Adversarial Network).
  • the feature amount generation unit 400 is updated so that the discriminator 401 cannot identify the type of intervention performed on the person from the feature amount.
  • This update means adjusting to reduce the difference (bias) in the distribution of g(x i ) in the space (feature space) to which the factor x i is mapped due to the difference in intervention. Therefore, the feature amount generated by the feature amount generation unit 400 is a feature amount from which the influence of confounding factors has been removed.
  • the selection bias can be reduced by adjusting the distribution difference of g(x i ) in the feature space using the GAN, and the confounding bias can be reduced as compared with Non-Patent Document 1.
  • the confounding bias can be further eliminated by using a factual loss function that is multiplied by weights reflecting human feature amounts. Therefore, intervention effects can be predicted with high accuracy.
  • learning may be performed using a loss function that does not include weights.
  • FIG. 5 is a flowchart illustrating an example of learning processing executed by the learning unit 200 of the first embodiment.
  • the learning unit 200 When the learning unit 200 receives a learning execution instruction via the information terminal 110 or the input device 105, the learning unit 200 executes learning processing.
  • the learning unit 200 acquires models of the feature amount generation unit 400, the discriminator 401, and the predictor 402 from the model DB 211 (step S101).
  • the learning unit 200 acquires learning data from the learning data DB 210 (step S102).
  • learning data DB 210 it is assumed that a learning data set composed of a plurality of learning data is acquired.
  • the learning unit 200 generates the feature amount g(x i ) by inputting the factor x i of each learning data of the learning data set to the feature amount generation unit 400 (step S103).
  • the learning unit 200 calculates an imbalance loss function using the intervention t i obtained by inputting the feature amount g(x i ) to the discriminator 401 and the human intervention t′ i (step S104).
  • the learning unit 200 uses the feature amount g(x i ) to calculate the weight ⁇ (t i , g(x i )) (step S105).
  • the learning unit 200 calculates the predicted intervention effect y i by inputting the feature amount g(x i ) to the predictor 402 (step S106).
  • the learning unit 200 calculates the Factual loss function using the weight ⁇ (t i , g(x i )), the learning data effect 304, and the predicted intervention effect y i (step S107).
  • the learning unit 200 calculates the loss function of formula (4), and uses this function to update the feature amount generation unit 400, the discriminator 401, and the predictor 402 (step S108). At this time, the learning unit 200 stores the update result in the model DB 211 .
  • the learning unit 200 determines whether or not to end learning (step S109). For example, when the number of updates is greater than the threshold, the learning unit 200 determines to end learning. Further, when the prediction accuracy of the predicted intervention effect of the user data 220 for evaluation is higher than the threshold value, the learning unit 200 determines to end the learning.
  • the learning unit 200 returns to step S102 and performs similar processing.
  • the learning unit 200 ends the learning process.
  • FIG. 6 is a flowchart illustrating an example of prediction processing executed by the prediction unit 201 of the first embodiment.
  • 7 and 8 are diagrams showing an example of the prediction intervention result 221 output by the prediction unit 201 of Example 1.
  • FIG. 6 is a flowchart illustrating an example of prediction processing executed by the prediction unit 201 of the first embodiment.
  • 7 and 8 are diagrams showing an example of the prediction intervention result 221 output by the prediction unit 201 of Example 1.
  • the prediction unit 201 When the prediction unit 201 receives a prediction execution instruction including the user data 220 via the information terminal 110 or the input device 105, it executes prediction processing.
  • the prediction unit 201 acquires models of the feature amount generation unit 400 and the predictor 402 from the model DB 211 (step S201).
  • the prediction unit 201 generates the feature amount g(x i ) by inputting the factor x i of the user data 220 to the feature amount generation unit 400 (step S202).
  • the prediction unit 201 calculates the predicted intervention effect y i by inputting the feature amount g(x i ) to the predictor 402 (step S203).
  • the prediction unit 201 generates and outputs a predicted intervention result 221 including the predicted intervention effect yi (step S204). After that, the prediction unit 201 ends the prediction processing.
  • the predicted intervention result 221 includes an ID 701 and an intervention effect 702.
  • An ID 701 is a field for storing user identification information included in user data.
  • the intervention effect 702 is a group of fields that store predicted values of effects for each intervention.
  • the present invention is not limited to the above-described embodiments, and includes various modifications. Further, for example, the above-described embodiments are detailed descriptions of the configurations for easy understanding of the present invention, and are not necessarily limited to those having all the described configurations. Moreover, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.
  • each of the above configurations, functions, processing units, processing means, etc. may be realized in hardware, for example, by designing a part or all of them with an integrated circuit.
  • the present invention can also be implemented by software program code that implements the functions of the embodiments.
  • a computer is provided with a storage medium recording the program code, and a processor included in the computer reads the program code stored in the storage medium.
  • the program code itself read from the storage medium implements the functions of the above-described embodiments, and the program code itself and the storage medium storing it constitute the present invention.
  • Examples of storage media for supplying such program code include flexible disks, CD-ROMs, DVD-ROMs, hard disks, SSDs (Solid State Drives), optical disks, magneto-optical disks, CD-Rs, magnetic tapes, A nonvolatile memory card, ROM, or the like is used.
  • program code that implements the functions described in this embodiment can be implemented in a wide range of programs or script languages, such as assembler, C/C++, perl, Shell, PHP, Python, and Java.
  • the program code of the software that implements the functions of the embodiment can be stored in storage means such as a hard disk or memory of a computer, or in a storage medium such as a CD-RW or CD-R.
  • a processor provided in the computer may read and execute the program code stored in the storage means or the storage medium.
  • control lines and information lines indicate those that are considered necessary for explanation, and not all the control lines and information lines are necessarily indicated on the product. All configurations may be interconnected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

計算機システムは、機械学習により生成され、人の状態を表す複数の因子の値からなるベクトルを特徴量空間に写像することによって特徴量を生成する第1モデルと、特徴量から人に対する複数の介入の効果の予測値を出力する第2モデルと、を管理する。第1モデルは、前記機械学習で用いる複数の学習データの前記特徴量空間における分布の差異が小さくなるように、前記複数の学習データを前記特徴量空間に写像する。計算機システムは、複数の因子の値を含む入力データを受け付け、入力データを第1モデルに入力することによって、入力データの特徴量を生成し、入力データの特徴量を第2モデルに入力することによって、複数の介入の効果の予測値を算出する。

Description

計算機システム及び介入効果予測方法 参照による取り込み
 本出願は、2021年6月25日に出願された日本特許出願第2021-105786号の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、人への介入の効果を予測するシステム及び方法に関する。
 医療及びマーケティング等の様々な分野において、人に対して行った介入(治療及び施策等)の効果を推定する手法としてランダム化比較試験等の因果推論が知られている。
 ランダム化比較試験は、大規模な実験が必要となり、コストが高いという課題がある。そこで、既存のデータを用いて、因果推論を行う技術の開発が望まれている。これに対して、特許文献1に記載の技術が知られている。
 特許文献1には「介入効果推測システム10は、複数人の被験者データを集合させた集団データを回帰分析した集団分析結果を保持する集団用処理部24と、集団分析結果を用いて、ユーザ用に準備された回帰モデルとしてユーザ用の回帰モデルにおける回帰係数の初期値と、ベイズ推定に用いる最初の事前分布とを設定し、ユーザの被験者データを取得すると、その被験者データの尤度を用いたベイズ推定によって、回帰係数を更新する個人用処理部25とを備え、個人用処理部25は、この個人用処理部25により回帰係数が更新されたユーザ用の回帰モデルに基づいて、ユーザに対する介入の効果を推測する。」ことが記載されている。
特開2018-005707号公報
Fredrik D. Johansson, Uri Shalit, David Sontag、"Learning Representations for Counterfactual Inference"、2016年、[online]、[令和3年6月14日検索]、インターネット〈URL:https://arxiv.org/abs/1605.03661v1〉
 特許文献1に記載の技術では、選択バイアスが考慮されていない。これに対して、非特許文献1に記載の技術が知られている。非特許文献1には、discrepancy distanceを用いて、グループの分布の偏り、すなわち、交絡バイアスを調整している(例えば、非特許文献1の図1を参照)。
 discrepancy distanceは、二つの分布の距離として与えられており、複数の介入への適用が困難であるという課題がある。また、非特許文献1の技術では交絡バイアスの低減効果が小さいという課題がある。
 本発明は、従来の課題を解消し、高い精度で人に対する複数介入の効果を予測するシステム及び方法を提供する。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、人への複数の介入の効果を予測する計算機システムであって、プロセッサ及び前記プロセッサに接続される記憶装置を有する、少なくとも一つの計算機を備え、機械学習により生成され、前記人の状態を表す複数の因子の値からなるベクトルを特徴量空間に写像することによって特徴量を生成する第1モデルと、前記特徴量から前記人に対する前記複数の介入の効果の予測値を出力する第2モデルと、を管理し、前記第1モデルは、前記機械学習で用いる複数の学習データの前記特徴量空間における分布の差異が小さくなるように、前記複数の学習データを前記特徴量空間に写像し、前記計算機システムは、前記複数の因子の値を含む入力データを受け付け、前記入力データを前記第1モデルに入力することによって、前記入力データの前記特徴量を生成し、前記入力データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出する。
 本発明によれば、高い精度で人に対する複数介入の効果を予測できる。上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
実施例1のシステムの構成例を示す図である。 実施例1の計算機のソフトウェア構成の一例を示す図である。 実施例1の学習データDBの一例を示す図である。 実施例1の学習部の機能構成の一例を示す図である。 実施例1の学習部が実行する学習処理の一例を説明するフローチャートである。 実施例1の予測部が実行する予測処理の一例を説明するフローチャートである。 実施例1の予測部が出力する予測介入結果の一例を示す図である。 実施例1の予測部が出力する予測介入結果の一例を示す図である。
 以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施例の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
 以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。
 本明細書等における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。
 図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。
 図1は、実施例1のシステムの構成例を示す図である。
 システムは、計算機100、情報端末110、及び外部記憶装置111から構成される。計算機100、情報端末110、及び外部記憶装置111は、ネットワーク109を介して互いに接続される。ネットワーク109は、例えば、LAN(Local Area Network)及びWAN(Wide Area Network)等であり、接続方式は有線及び無線のいずれでもよい。
 計算機100は、介入効果を予測するモデルを生成するための学習処理を実行し、また、当該モデルを用いてユーザデータ(入力データ)に対する介入効果を予測する。計算機100は、CPU101、主記憶装置102、副記憶装置103、ネットワークアダプタ104、入力装置105、及び出力装置106を有する。各ハードウェア要素は内部バス108を介して互いに接続される。
 CPU101は、主記憶装置102に格納されるプログラムを実行する。CPU101がプログラムにしたがって処理を実行することによって、特定の機能を実現する機能部(モジュール)として動作する。以下の説明では、機能部を主語に処理を説明する場合、CPU101が当該機能部を実現するプログラムを実行していることを示す。
 主記憶装置102は、DRAM(Dynamic Random Access Memory)であり、CPU101が実行するプログラム及びプログラムが使用するデータを格納する。主記憶装置102は、また、ワークエリアとしても使用される。
 副記憶装置103は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等であり、データを永続的に格納する。主記憶装置102に格納されるプログラム及びデータは、副記憶装置103に格納されてもよい。この場合、CPU101が副記憶装置103からプログラム及び情報を読み出し、主記憶装置102にロードする。
 ネットワークアダプタ104は、ネットワーク109を介して外部装置と接続するためのインタフェースである。
 入力装置105は、キーボード、マウス、タッチパネル等であり、計算機100に入力を行うための装置である。
 出力装置106は、ディスプレイ及びプリンタ等であり、計算機100の処理結果等を出力するための装置である。
 なお、計算機100のハードウェア構成は一例であってこれに限定されない。例えば、計算機100は、入力装置105及び出力装置106を有していなくてもよい。
 情報端末110は、計算機100に対する各種操作を行う端末である。例えば、情報端末110は、学習データの登録、モデルの登録、及びユーザデータの入力等を行う。情報端末110のハードウェア構成は計算機100と同一である。
 外部記憶装置111は、各種情報を格納する。外部記憶装置111は、例えば、外付けのHDD又はストレージシステムである。
 図2は、実施例1の計算機100のソフトウェア構成の一例を示す図である。
 計算機100は、学習部200及び予測部201を有し、また、学習データDB210及びモデルDB211を有する。なお、学習データDB210及びモデルDB211は、外部記憶装置111に格納されていてもよい。
 学習データDB210は、学習処理に使用する学習データを格納するデータベースである。学習データDB210については図3を用いて説明する。モデルDB211は、各種モデルの情報を格納するデータベースである。
 学習部200は、学習データDB210に格納される学習データ及びモデルDB211に格納されるモデルを用いて学習処理を実行する。予測部201は、モデルDB211に格納されるモデルを用いて、ユーザデータ220に対する介入効果を予測し、予測介入結果221として出力する。
 図3は、実施例1の学習データDB210の一例を示す図である。
 学習データDB210は、ID301、要因302、介入種類303、及び効果304を含むエントリを格納する。一つのエントリが一つの学習データに対応する。なお、エントリに含まれるフィールドは前述したものに限定されない。前述したフィールドのいずれかを含まなくてもよいし、また、他のフィールドを含んでもよい。
 ID301は、学習データを一意に識別する識別情報を格納するフィールドである。本実施例のID301には識別番号が格納される。
 要因302は、介入を受ける人の状態及び特性等の要因の値を格納するフィールドである。要因は、例えば、年齢、性別、及び身長等である。本実施例では、要因302に含める要因の種類及び数に限定されない。
 介入種類303は、学習データに対応する人に対して行った介入の種類を示す情報を格納するフィールドである。
 効果304は、介入による効果を示す指標の値を格納するフィールドである。
 ユーザデータ220は、学習データから介入種類303及び効果304を除いたデータである。
 図4は、実施例1の学習部200の機能構成の一例を示す図である。
 学習部200は、特徴量生成部400、識別器401、及び予測器402を含む。
 特徴量生成部400は、要因xを任意の次元の特徴量空間に写像することによって特徴量Gを生成する。特徴量生成部400は、ニューラルネットワーク等のモデルとして定義される。ここで、要因xは、識別情報がiである人の要因を表すn次元ベクトルである。要因xは学習データの要因302に対応し、nは要因302のフィールド数を表す。
 識別器401は、特徴量Gから人に対して行われた介入t’を識別する。識別器401は、ニューラルネットワーク等のモデルとして定義される。ここで、介入t’は識別情報がiである人に対して行われた介入の予測値を表すk次元ベクトルである。kは介入の種類を表す。
 学習部200は、複数の人の介入t’及び介入tを用いて、介入t’及び介入tの誤差を評価するimbalance loss関数を算出する。ここで、介入tは識別情報がiである人に対して行われた介入を表す。介入tは、学習データの介入種類303に格納される介入の種類に対応する数値jである。例えば、介入の種類が「A」の場合、数値jは「1」、介入の種類が「B」の場合、数値jは「2」となる。
 imbalance loss関数は式(1)で定義される。
Figure JPOXMLDOC01-appb-M000001
 αは0より大きい定数を表す。g(x)は特徴量Gを表す。d(g(x),t)は識別器401の出力、すなわち、介入t’を表す。
 予測器402は、特徴量Gから予測介入効果yを算出する。予測器402は、ニューラルネットワーク等のモデルとして定義される。ここで、予測介入効果yは識別情報がiである人の各介入の効果の予測を表すk次元のベクトルである。
 学習部200は、各人の特徴量Gを用いて重みω(t=j,g(x))を算出する。ここで、g(x)は特徴量Gを表す。
 重みω(t=j,g(x))は式(2)で定義される。
Figure JPOXMLDOC01-appb-M000002
 Pr(j)はデータセット全体において介入tがjである確率値を表す。
 また、学習部200は、複数の人の予測介入効果y及び重みω(t=j,g(x))を用いて、効果y と予測介入効果yとの誤差を評価するFactual loss関数を算出する。ここで、効果y は識別情報がiである人に対して行われた介入の効果を表す。効果y は効果304の値である。
 Factual loss関数は式(3)で定義される。
Figure JPOXMLDOC01-appb-M000003
 学習部200は、式(4)に示すような、Factual loss関数及びimbalance loss関数から定義されるloss関数に基づいて、特徴量生成部400、識別器401、予測器402を更新する。重みω(t=j,g(x))を乗算することによって、交絡因子の影響を削減できる。
Figure JPOXMLDOC01-appb-M000004
 本実施例では、特徴量生成部400及び識別器401はGAN(Generative Adversarial Network)を利用した学習を行っている。特徴量生成部400は、識別器401が特徴量から人に行われた介入の種別が識別できないように更新される。当該更新は、介入の相違による、要因xの写像先の空間(特徴量空間)におけるg(x)の分布の差異(偏り)を小さく調整することを意味する。したがって、特徴量生成部400が生成する特徴量は、交絡因子の影響が除外された特徴量となっている。
 GANを利用して、特徴量空間のg(x)の分布の差異を小さく調整することによって、選択バイアスを低減し、また、非特許文献1より交絡バイアスを低くできる。また、人の特徴量を反映した重みを乗算したFactual loss関数を用いることによって交絡バイアスをさらに解消できる。したがって、介入効果を精度よく予測できる。
 なお、重みを含まないloss関数を用いて学習が行われてもよい。
 図5は、実施例1の学習部200が実行する学習処理の一例を説明するフローチャートである。
 学習部200は、情報端末110又は入力装置105を介して学習実行指示を受け付けた場合、学習処理を実行する。
 学習部200は、モデルDB211から、特徴量生成部400、識別器401、及び予測器402のモデルを取得する(ステップS101)。
 学習部200は、学習データDB210から学習データを取得する(ステップS102)。ここでは、複数の学習データから構成される学習データセットが取得されるものとする。
 学習部200は、特徴量生成部400に、学習データセットの各学習データの要因xを入力することによって特徴量g(x)を生成する(ステップS103)。
 学習部200は、識別器401に特徴量g(x)を入力して得られた介入tと、人の介入t’とを用いてimbalance loss関数を算出する(ステップS104)。
 学習部200は、特徴量g(x)を用いて、重みω(t,g(x))を算出する(ステップS105)。
 学習部200は、予測器402に、特徴量g(x)を入力することによって予測介入効果yを算出する(ステップS106)。
 学習部200は、重みω(t,g(x))、学習データの効果304、及び予測介入効果yを用いて、Factual loss関数を算出する(ステップS107)。
 学習部200は、式(4)のloss関数を算出し、当該関数を用いて、特徴量生成部400、識別器401、及び予測器402を更新する(ステップS108)。このとき、学習部200は、更新結果をモデルDB211に格納する。
 学習部200は、学習を終了するか否かを判定する(ステップS109)。例えば、更新回数が閾値より大きい場合、学習部200は学習を終了すると判定する。また、学習部200は、評価用のユーザデータ220の予測介入効果の予測精度が閾値より高い場合、学習部200は学習を終了すると判定する。
 学習を終了しないと判定された場合、学習部200は、ステップS102に戻り、同様の処理を実行する。
 学習を終了すると判定された場合、学習部200は学習処理を終了する。
 図6は、実施例1の予測部201が実行する予測処理の一例を説明するフローチャートである。図7及び図8は、実施例1の予測部201が出力する予測介入結果221の一例を示す図である。
 予測部201は、情報端末110又は入力装置105を介して、ユーザデータ220を含む予測実行指示を受け付けた場合、予測処理を実行する。
 予測部201は、モデルDB211から、特徴量生成部400及び予測器402のモデルを取得する(ステップS201)。
 予測部201は、特徴量生成部400に、ユーザデータ220の要因xを入力することによって特徴量g(x)を生成する(ステップS202)。
 予測部201は、予測器402に、特徴量g(x)を入力することによって予測介入効果yを算出する(ステップS203)。
 予測部201は、予測介入効果yを含む予測介入結果221を生成し、出力する(ステップS204)。その後、予測部201は予測処理を終了する。
 予測介入結果221は、ID701及び介入効果702を含む。ID701は、ユーザデータに含まれる、ユーザの識別情報を格納するフィールドである。介入効果702は、各介入に対する効果の予測値を格納するフィールド群である。
 なお、ユーザデータ220の時系列データを予測部201に入力することによって、図8に示すような介入効果の予測値の時系列データを出力することができる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
 また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java等の広範囲のプログラム又はスクリプト言語で実装できる。
 さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
 上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。

Claims (6)

  1.  人への複数の介入の効果を予測する計算機システムであって、
     プロセッサ及び前記プロセッサに接続される記憶装置を有する、少なくとも一つの計算機を備え、
     機械学習により生成され、前記人の状態を表す複数の因子の値からなるベクトルを特徴量空間に写像することによって特徴量を生成する第1モデルと、前記特徴量から前記人に対する前記複数の介入の効果の予測値を出力する第2モデルと、を管理し、
     前記第1モデルは、前記機械学習で用いる複数の学習データの前記特徴量空間における分布の差異が小さくなるように、前記複数の学習データを前記特徴量空間に写像し、
     前記計算機システムは、
     前記複数の因子の値を含む入力データを受け付け、
     前記入力データを前記第1モデルに入力することによって、前記入力データの前記特徴量を生成し、
     前記入力データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出することを特徴とする計算機システム。
  2.  請求項1に記載の計算機システムであって、
     前記特徴量から前記人が受けた介入の種別を識別する第3モデルを管理し、
     前記人の識別情報と、前記人の前記複数の因子の値と、前記人が受けた介入の種別と、前記介入の効果値と、を含む学習データを受け付ける処理と、
     前記学習データを前記第1モデルに入力することによって、前記学習データの前記特徴量を算出する処理と、
     前記学習データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出する処理と、
     前記学習データの前記特徴量を前記第3モデルに入力して得られた前記介入の種別、前記学習データに含まれる前記介入の種別、前記複数の介入の効果の予測値、及び前記学習データに含まれる前記効果値から損失関数を算出する処理と、
     前記損失関数を用いて、前記第1モデル、前記第2モデル、及び前記第3モデルを更新する処理と、
     を含む前記機械学習を実行することを特徴とする計算機システム。
  3.  請求項2に記載の計算機システムであって、
     前記機械学習は、
     前記学習データの前記特徴量から重みを算出する処理と、
     前記学習データの前記特徴量を前記第3モデルに入力して得られた前記介入の種別、前記学習データに含まれる前記介入の種別、前記複数の介入の効果の予測値、前記学習データに含まれる前記効果値、及び前記重みから前記損失関数を算出する処理と、を含むことを特徴とする計算機システム。
  4.  計算機システムが実行する人への複数の介入の効果を予測する介入効果予測方法であって、
     前記計算機システムは、
     プロセッサ及び前記プロセッサに接続される記憶装置を有する、少なくとも一つの計算機を含み、
     機械学習により生成され、前記人の状態を表す複数の因子の値からなるベクトルを特徴量空間に写像することによって特徴量を生成する第1モデルと、前記特徴量から前記人に対する前記複数の介入の効果の予測値を出力する第2モデルと、を管理し、
     前記第1モデルは、前記機械学習で用いる複数の学習データの前記特徴量空間における分布の差異が小さくなるように、前記複数の学習データを前記特徴量空間に写像し、
     前記複数の因子の値を含む入力データを受け付け、
     前記介入効果予測方法は、
     前記少なくとも一つの計算機が、前記入力データを前記第1モデルに入力することによって、前記入力データの前記特徴量を生成するステップと、
     前記少なくとも一つの計算機が、前記入力データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出するステップと、を含むことを特徴とする介入効果予測方法。
  5.  請求項4に記載の介入効果予測方法であって、
     前記計算機システムは、前記特徴量から前記人が受けた介入の種別を識別する第3モデルを管理し、
     前記介入効果予測方法は、
     前記少なくとも一つの計算機が、前記人の識別情報と、前記人の前記複数の因子の値と、前記人が受けた介入の種別と、前記介入の効果値と、を含む学習データを受け付ける第1のステップと、
     前記少なくとも一つの計算機が、前記学習データを前記第1モデルに入力することによって、前記学習データの前記特徴量を算出する第2のステップと、
     前記少なくとも一つの計算機が、前記学習データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出する第3のステップと、
     前記少なくとも一つの計算機が、前記学習データの前記特徴量を前記第3モデルに入力して得られた前記介入の種別、前記学習データに含まれる前記介入の種別、前記複数の介入の効果の予測値、及び前記学習データに含まれる前記効果値から損失関数を算出する第4のステップと、
     前記少なくとも一つの計算機が、前記損失関数を用いて、前記第1モデル、前記第2モデル、及び前記第3モデルを更新する第5のステップと、
     を含むことを特徴とする介入効果予測方法。
  6.  請求項5に記載の介入効果予測方法であって、
     前記第2のステップは、前記少なくとも一つの計算機が、前記学習データの前記特徴量から重みを算出するステップを含み、
     前記第4のステップは、前記少なくとも一つの計算機が、前記学習データの前記特徴量を前記第3モデルに入力して得られた前記介入の種別、前記学習データに含まれる前記介入の種別、前記複数の介入の効果の予測値、前記学習データに含まれる前記効果値、及び前記重みから前記損失関数を算出するステップを含むことを特徴とする介入効果予測方法。
PCT/JP2022/019713 2021-06-25 2022-05-09 計算機システム及び介入効果予測方法 WO2022270163A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021105786A JP2023004225A (ja) 2021-06-25 2021-06-25 計算機システム及び介入効果予測方法
JP2021-105786 2021-06-25

Publications (1)

Publication Number Publication Date
WO2022270163A1 true WO2022270163A1 (ja) 2022-12-29

Family

ID=84544461

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/019713 WO2022270163A1 (ja) 2021-06-25 2022-05-09 計算機システム及び介入効果予測方法

Country Status (2)

Country Link
JP (1) JP2023004225A (ja)
WO (1) WO2022270163A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019194849A (ja) * 2018-04-30 2019-11-07 富士通株式会社 機械学習システムのための因果関係
US20200245009A1 (en) * 2019-01-25 2020-07-30 Adobe Inc. Utilizing a deep generative model with task embedding for personalized targeting of digital content through multiple channels across client devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019194849A (ja) * 2018-04-30 2019-11-07 富士通株式会社 機械学習システムのための因果関係
US20200245009A1 (en) * 2019-01-25 2020-07-30 Adobe Inc. Utilizing a deep generative model with task embedding for personalized targeting of digital content through multiple channels across client devices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZICHEN ZHANG; QINGFENG LAN; LEI DING; YUE WANG; NEGAR HASSANPOUR; RUSSELL GREINER: "Reducing Selection Bias in Counterfactual Reasoning for Individual Treatment Effects Estimation", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 19 December 2019 (2019-12-19), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081569365 *

Also Published As

Publication number Publication date
JP2023004225A (ja) 2023-01-17

Similar Documents

Publication Publication Date Title
US20200401939A1 (en) Systems and methods for preparing data for use by machine learning algorithms
Gosavi Simulation-based optimization
US8595155B2 (en) Kernel regression system, method, and program
JP6311851B2 (ja) 共クラスタリングシステム、方法およびプログラム
JP5963320B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP5071851B2 (ja) 時間情報を用いた予測装置、予測方法、予測プログラムおよびそのプログラムを記録した記録媒体
JP7476977B2 (ja) 予測方法、予測装置及びプログラム
JP6516406B2 (ja) 処理装置、処理方法、およびプログラム
JP7006616B2 (ja) 予測モデル生成システム、方法およびプログラム
JP4140915B2 (ja) 利用者の行動を支援するシステム
AU2020326407B2 (en) Extending finite rank deep kernel learning to forecasting over long time horizons
WO2022270163A1 (ja) 計算機システム及び介入効果予測方法
JP5175585B2 (ja) 文書処理装置、電子カルテ装置および文書処理プログラム
JP5950284B2 (ja) 処理装置、処理方法、およびプログラム
Zhu et al. A hybrid model for nonlinear regression with missing data using quasilinear kernel
US20210182953A1 (en) Systems and methods for optimal bidding in a business to business environment
WO2021140884A1 (ja) モデルを再利用する方法及びコンピュータシステム
Armenter et al. Geometric methods for finite rational inattention
JP7384345B2 (ja) 特許情報処理装置、特許情報処理方法、およびプログラム
JP2021135683A (ja) 学習装置、推論装置、学習方法及び推論方法
Frauendorfer et al. Barycentric bounds in stochastic programming: Theory and application
JP7280921B2 (ja) 計算機システム、推論方法、及びプログラム
JP2020030702A (ja) 学習装置、学習方法及び学習プログラム
WO2023021690A1 (ja) モデル生成装置、モデル生成方法、プログラム
WO2021192196A1 (ja) 成長性推定システム、成長性推定装置、成長性推定方法、及び、成長性推定プログラムが格納された記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22828082

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22828082

Country of ref document: EP

Kind code of ref document: A1