WO2021250752A1 - 学習方法、学習装置及びプログラム - Google Patents

学習方法、学習装置及びプログラム Download PDF

Info

Publication number
WO2021250752A1
WO2021250752A1 PCT/JP2020/022566 JP2020022566W WO2021250752A1 WO 2021250752 A1 WO2021250752 A1 WO 2021250752A1 JP 2020022566 W JP2020022566 W JP 2020022566W WO 2021250752 A1 WO2021250752 A1 WO 2021250752A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
case
label
data
neural network
Prior art date
Application number
PCT/JP2020/022566
Other languages
English (en)
French (fr)
Inventor
具治 岩田
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2020/022566 priority Critical patent/WO2021250752A1/ja
Priority to JP2022530377A priority patent/JP7439923B2/ja
Priority to US18/007,703 priority patent/US20230222324A1/en
Publication of WO2021250752A1 publication Critical patent/WO2021250752A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Definitions

  • the present invention relates to a learning method, a learning device and a program.
  • Non-Patent Document 1 an active learning method that labels cases with uncertain predictions has been proposed (for example, Non-Patent Document 1).
  • the existing active learning method does not directly select cases to improve machine learning performance, so there is a problem that sufficient performance may not be achieved.
  • One embodiment of the present invention has been made in view of the above points, and an object thereof is to learn a high-performance case selection model and a label prediction model.
  • the learning method includes an input procedure for inputting a data G d including a case and a label for the case, a parameter of the first neural network, and the data G d .
  • prediction procedures and, in the second neural network parameters for calculating the predicted value of the label for each case contained in the data G d
  • a selection procedure for selecting one of the examples
  • the first learning procedure for learning the parameters of the first neural network using the first error between the predicted value and the value of the label for each case included in the data Gd, and the first learning procedure.
  • the parameter of the second neural network is used. It is characterized in that the computer executes a second learning procedure for learning the above.
  • a case selection model (hereinafter referred to as “selection model”) for selecting a case to be labeled and a label for the case are used.
  • a learning device 10 for learning a label prediction model for prediction (hereinafter referred to as “prediction model”) will be described.
  • the learning device 10 is a graph data set composed of D graph data as input data at the time of learning.
  • G d ( Ad , X d , y d ) is graph data representing the d-th graph.
  • N d is the number of nodes d th graph.
  • y dn represents a label for the feature amount x dn of the nth node in the dth graph (in other words, a label for the nth node in the dth graph). That is, each feature amount x dn (that is, each node of the d-th graph) corresponds to a labeled case.
  • graph data is given as an example, but the same applies to the case where arbitrary data other than graph data (for example, arbitrary vector data, image data, series data, etc.) is given. Applicable to.
  • graph data G * (A * , X * ) with an unknown label shall be given.
  • a selection model that can predict the label of the node in the given graph with higher accuracy by assigning as few labels as possible (that is, the number of nodes (cases) selected as the label assignment target is as small as possible).
  • learning the prediction model is the goal of the learning device 10. Therefore, the learning device 10 according to the present embodiment first learns the prediction model, and then learns the selection model using the learned prediction model.
  • the prediction model and the selection model may be learned at the same time, or the prediction model and the selection model may be learned alternately.
  • ⁇ Prediction model and selection model> For the prediction model and the selection model, the features of each node of the given graph, the observed label, and the information indicating which case label is observed are input, and the information is integrated. Any neural network can be used as long as it outputs.
  • z dn (0) shown in the following equation (1) can be used as the input to the neural network.
  • cases where labels are observed will also be referred to as “observation cases”. That is, the mask vector m d is a vector representing the observation example of the dth graph.
  • a graph convolutional neural network can be used as the neural network of the prediction model and the selection model.
  • a graph convolutional neural network By using a graph convolutional neural network, information of all cases can be integrated according to the graph.
  • the prediction model can be expressed by the following equation (2).
  • is the parameter of the neural network f
  • f shown in equation (2) Represents a predicted value.
  • z dn shown by G d and m d input to the equation (1) above (0) is created, the convolution of these z dn (0) is a graph Neural Entered into the network. That is, more precisely, f shown in the above formula (2) is composed of a G d and m d and functions to create each z dn (0), with the graph convolutional neural network with parameters [Phi.
  • the selection model can be expressed by the following equation (3), where g is the neural network.
  • is a parameter of the neural network g
  • s dn represents the score from which the nth case is selected.
  • z dn is input shown in Equation (1) above (0) is created, these z dn (0) is a graph Input to the convolutional neural network. That is, more precisely, g shown in the above formula (3) includes a function that creates a respective z dn (0) from G d and m d, constituted by the graph convolutional neural network with parameters theta.
  • FIG. 1 is a diagram showing an example of the functional configuration of the learning device 10 according to the present embodiment.
  • the learning device 10 includes an input unit 101, a prediction unit 102, a prediction model learning unit 103, a selection unit 104, a selection model learning unit 105, and a storage unit 106.
  • an input unit 101 a prediction unit 102, a prediction model learning unit 103, a selection unit 104, a selection model learning unit 105, and a storage unit 106.
  • the storage unit 106 stores the graph data set G, the parameters ⁇ and ⁇ to be learned, and the like.
  • the input unit 101 inputs the graph data set G stored in the storage unit 106 at the time of learning. At the time of the test, the input unit 101 inputs graph data G * whose label is unknown.
  • the graph data G d is sampled from the graph data set G by the prediction model learning unit 103, and then from the node set ⁇ 1, ..., N d ⁇ of the graph data G d. Observation cases are sampled. Similarly, even when learning of the selected model, in terms of graph data G d from the graph data set G by selecting the model learning unit 105 is sampled, the node set of the graph data G d ⁇ 1, ⁇ , N d ⁇ Observation cases are sequentially sampled from.
  • Prediction unit 102 uses the graph data G d sampled by the prediction model learning unit 103, and the mask vector m d representative of the sampled observed cases from the graph data G d, and the parameter [Phi, the above formula ( predictive value by 2) (that is, the sum value) of the label for each node of the graph in which the graph data G d represents.
  • the prediction unit 102 uses the graph data G * , the mask vector m * representing the observation example of the graph data G * , and the parameters of the trained prediction model in the above equation (2). (That is, the value of the label for each node of the graph represented by the graph data G *) is calculated by.
  • Prediction model learning unit 103 after sampling the graph data G d from the graph data set G input by the input unit 101, a node set of the graph data G d ⁇ 1, ⁇ , N d ⁇ from N S Sample individual observations. Incidentally, observation case number N S sampling is set in advance. Further, when sampling, the prediction model learning unit 103 may perform sampling at random or may perform sampling according to some preset distribution.
  • the prediction model learning unit 103 uses an error between the label set y d included in the graph data G d sampled from the graph data set G and the predicted value calculated by the prediction unit 102 to reduce this error.
  • the parameter ⁇ to be learned is updated (learned) as described above.
  • the prediction model learning unit 103 may update the parameter ⁇ to be learned so as to minimize the expected prediction error shown in the following equation (4).
  • E represents an expected value
  • L represents a prediction error represented by the following equation (5).
  • f n is the nth element of f shown in the above equation (2) (that is, the nth element of the predicted value).
  • an arbitrary index for example, negative log-likelihood, etc.
  • a prediction error may be used instead of the prediction error.
  • Selecting unit 104 uses the graph data G d sampled by selecting the model learning unit 105, and the mask vector m d representative of the sampled observed cases from the graph data G d, and a parameter theta, the above formula ( Calculate the score vector by 3).
  • the selection unit 104 uses the graph data G * , the mask vector m * representing the observation example of the graph data G * , and the parameters of the trained selection model in the above equation (3). Calculate the score vector by.
  • a node (case) can be selected as a labeling target.
  • the node corresponding to the element having the highest value among the elements of the score vector may be selected.
  • a predetermined number of elements of the score vector may be selected in descending order of their values, and the nodes corresponding to these selected elements may be selected as labeling targets, or the score vector may be selected.
  • a node corresponding to an element having a value equal to or higher than a predetermined threshold value may be selected as a labeling target.
  • the selection model learning unit 105 samples the graph data G d from the graph data set G input by the input unit 101, and then N A from the node set ⁇ 1, ..., N d ⁇ of the graph data G d. Sequentially sample individual observation cases. The maximum observed number of cases N A being sampled is set in advance. Also, when sampling the graph data G d, selecting the model learning unit 105 may perform the random sampling may be performed sampled according some kind of distribution that is set in advance. On the other hand, when sampling the observation case, the selection model learning unit 105 performs sampling according to the selection distribution described later.
  • the selection model learning unit 105 learns the parameter ⁇ so that the prediction performance when a case is selected is improved.
  • the selection model learning unit 105 can use the prediction error reduction rate shown in the following equation (6) as an index for improving the prediction performance.
  • the prediction error reduction rate shown in the above equation (6) represents the reduction rate of the prediction error when an additional case is selected.
  • ⁇ ⁇ (to be exact, the hat “ ⁇ ” is written directly above ⁇ ) is a trained parameter of the neural network f of the prediction model.
  • n represents a newly observed node (case) in the d-th graph
  • the prediction error reduction rate shown in the above equation (6) can be used, and for example, the expected error reduction rate shown in the following equation (7) can be used.
  • the parameter ⁇ to be learned may be updated so as to maximize the expected error reduction rate shown in the above equation (7).
  • ⁇ ( ⁇ ) is a selection distribution (distribution for selecting a node (case)) based on the selection model
  • FIG. 2 is a flowchart showing an example of the flow of the learning process according to the present embodiment.
  • the input unit 101 inputs the graph data set G stored in the storage unit 106 (step S101).
  • the learning device 10 executes the prediction model learning process and learns the parameter ⁇ of the prediction model (step S102). Subsequently, the learning device 10 executes the selection model learning process and learns the parameter ⁇ of the selection model (step S103). The detailed flow of the prediction model learning process and the selection model learning process will be described later.
  • the learning device 10 can learn the parameter ⁇ of the prediction model realized by the prediction unit 102 and the parameter ⁇ of the selection model realized by the selection unit 104.
  • the prediction unit 102 uses the graph data G * , the mask vector m * representing the observation example of the graph data G * , and the learned parameter ⁇ ⁇ according to the above equation (2). Calculate the predicted value.
  • the selection unit 104 uses the graph data G * , the mask vector m * representing the observation example of the graph data G * , and the learned parameter ⁇ ⁇ , and uses the above equation (3). Calculate the score vector by.
  • the learning device 10 at the time of testing does not have to have the prediction model learning unit 103 and the selection model learning unit 105, and may be referred to as, for example, a “label prediction device” or a “case selection device”.
  • FIG. 3 is a flowchart showing an example of the flow of the prediction model learning process according to the present embodiment.
  • the prediction model learning unit 103 initializes the parameter ⁇ of the prediction model (step S201).
  • the parameter ⁇ may be initialized, for example, randomly or may be initialized to follow a certain distribution.
  • Step S202 to S207 are repeatedly executed until a predetermined end condition is satisfied.
  • Predetermined end conditions include, for example, that the parameter ⁇ to be learned has converged, that the repetition has been executed a predetermined number of times, and the like.
  • the prediction model learning unit 103 samples the graph data G d from the graph data set G input in step S101 of FIG. 2 (step S202).
  • the prediction model learning unit 103 a node set of graph data G d sampled at step S202 of the ⁇ 1, ⁇ , N d ⁇ for sampling the N S observations case from (step S203).
  • S be a set of these NS observation cases.
  • the prediction unit 102 uses the graph data G d and the mask vector m d and the parameter [Phi, predicted values by the above equation (2) - to calculate the y d (step S205).
  • the prediction model learning unit 103 the calculated predicted value in the graph data G d and the mask vector m d and the above steps S205 - using the y d and the parameter [Phi, error L by the above formula (5) And the gradient with respect to its parameter ⁇ (step S206).
  • the gradient may be calculated by a known method such as an error back propagation method.
  • the prediction model learning unit 103 updates the parameter ⁇ to be learned using the error L calculated in step S206 and its gradient (step S207).
  • the prediction model learning unit 103 may update the parameter ⁇ to be learned by a known update formula or the like.
  • FIG. 4 is a flowchart showing an example of the flow of the selection model learning process according to the present embodiment.
  • the selection model learning unit 105 initializes the parameter ⁇ of the selection model (step S301).
  • the parameter ⁇ may be initialized, for example, randomly or to follow a certain distribution.
  • Step S302 to S304 are repeatedly executed until a predetermined end condition is satisfied.
  • Predetermined end conditions include, for example, that the parameter ⁇ to be learned has converged, that the repetition has been executed a predetermined number of times, and the like.
  • the selection model learning unit 105 samples the graph data G d from the graph data set G input in step S101 of FIG. 2 (step S302).
  • the learning apparatus 10, s 1, ⁇ ⁇ ⁇ , repeatedly executes the steps S311 ⁇ step S318 follows for N A (step S304). That is, the learning apparatus 10, the steps S311 ⁇ step S318 follows repeatedly performed N A times. In addition, N A is the maximum observed number of cases.
  • the selection unit 104 calculates the score vector s d by the above equation (3) using the graph data G d , the mask vector m d, and the parameter ⁇ (step S311).
  • the selection model learning unit 105 calculates the selection distribution ⁇ d by the above equation (8) (step S312).
  • the selection model learning unit 105 selects the observation example n from the node set ⁇ 1, ..., N d ⁇ of the graph data G d according to the selection distribution ⁇ d calculated in step S312 above (step). S313).
  • the selection model learning unit 105 calculates the prediction error reduction rate R (G d , m d , n) by the above equation (6) (step S314).
  • the selection model learning unit 105 uses the prediction error reduction rate R (G d , md , n) calculated in step S314 above and the selection distribution ⁇ d calculated in step S312 above.
  • the parameter ⁇ is updated (step S315). Selecting the model learning unit 105, for example, ⁇ ⁇ ⁇ + ⁇ R (G d, m d, n) by ⁇ ⁇ log ⁇ dn may be updated parameter theta.
  • represents the learning coefficient
  • ⁇ ⁇ represents the gradient with respect to the parameter ⁇ .
  • the parameter ⁇ is updated by the reinforcement learning policy gradient method, but the present invention is not limited to this, and the parameter ⁇ may be updated by another method of reinforcement learning.
  • evaluation results of the selection model and the prediction model learned by the learning device 10 according to the present embodiment will be described.
  • evaluation is performed using traffic data, which is one of the graph data.
  • the evaluation result is shown in FIG.
  • the horizontal axis represents the number of observation cases and the vertical axis represents the prediction error.
  • Random is a method of randomly selecting cases
  • Variance is a method of selecting the case with the largest predictive variance
  • Entropy is the method of selecting the case with the largest entropy
  • MI is the method of selecting the case with the largest mutual information.
  • NN is a case where a feedforward network is used as a selection model and a prediction model learned by the learning device 10 according to the present embodiment.
  • Ours is a case where a graph convolutional neural network is used as a selection model and a prediction model learned by the learning device 10 according to the present embodiment.
  • FIG. 6 is a diagram showing an example of the hardware configuration of the learning device 10 according to the present embodiment.
  • the learning device 10 is realized by a general computer or a computer system, and has an input device 201, a display device 202, an external I / F 203, a communication I / F 204, and a processor. It has 205 and a memory device 206. Each of these hardware is connected so as to be communicable via the bus 207.
  • the input device 201 is, for example, a keyboard, a mouse, a touch panel, or the like.
  • the display device 202 is, for example, a display or the like.
  • the learning device 10 does not have to have at least one of the input device 201 and the display device 202.
  • the external I / F 203 is an interface with an external device such as a recording medium 203a.
  • the learning device 10 can read or write the recording medium 203a via the external I / F 203.
  • the recording medium 203a for example, one or more programs that realize each functional unit (input unit 101, prediction unit 102, prediction model learning unit 103, selection unit 104, and selection model learning unit 105) of the learning device 10 are stored. It may have been done.
  • the recording medium 203a includes, for example, a CD (Compact Disc), a DVD (Digital Versatile Disk), an SD memory card (Secure Digital memory card), a USB (Universal Serial Bus) memory card, and the like.
  • the communication I / F 204 is an interface for connecting the learning device 10 to the communication network.
  • One or more programs that realize each functional unit of the learning device 10 may be acquired (downloaded) from a predetermined server device or the like via the communication I / F 204.
  • the processor 205 is, for example, various arithmetic units such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit). Each functional unit included in the learning device 10 is realized, for example, by a process of causing the processor 205 to execute one or more programs stored in the memory device 206.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the memory device 206 is, for example, various storage devices such as HDD (Hard Disk Drive), SSD (Solid State Drive), RAM (Random Access Memory), ROM (Read Only Memory), and flash memory.
  • the storage unit 106 included in the learning device 10 is realized by, for example, the memory device 206.
  • the storage unit 106 may be realized by, for example, a storage device (for example, a database server or the like) connected to the learning device 10 via a communication network.
  • the learning device 10 can realize the above-mentioned learning process by having the hardware configuration shown in FIG.
  • the hardware configuration shown in FIG. 6 is an example, and the learning device 10 may have another hardware configuration.
  • the learning device 10 may have a plurality of processors 205 or a plurality of memory devices 206.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一実施形態に係る学習方法は、事例と前記事例に対するラベルとが含まれるデータGを入力する入力手順と、第1のニューラルネットワークのパラメータと、前記データGに含まれる各事例のうち前記ラベルが観測されている事例を表す情報とを用いて、前記データGに含まれる各事例に対するラベルの予測値を計算する予測手順と、第2のニューラルネットワークのパラメータと、前記データGに含まれる各事例のうち前記ラベルが観測されている事例を表す情報とを用いて、前記データGに含まれる各事例のうち、一の事例を選択する選択手順と、前記予測値と前記データGに含まれる各事例に対するラベルの値との第1の誤差を用いて、前記第1のニューラルネットワークのパラメータを学習する第1の学習手順と、前記第1の誤差と、前記一の事例が追加で観測された場合における前記各事例に対するラベルの予測値と前記各事例に対するラベルの値との第2の誤差とを用いて、前記第2のニューラルネットワークのパラメータを学習する第2の学習手順と、をコンピュータが実行することを特徴とする。

Description

学習方法、学習装置及びプログラム
 本発明は、学習方法、学習装置及びプログラムに関する。
 一般に、機械学習手法では、ラベルが付与された学習事例数が多いほど高い性能を達成することができる。一方で、多くの学習事例にラベルを付与することは高いコストが掛かるという問題がある。
 この問題を解決するために、予測が不確実な事例にラベルを付与する能動学習法が提案されている(例えば、非特許文献1)。
Lewis, David D and Gale, William A, "A sequential algorithm for training text classiers." Proceedings of the 17th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 3-12, 1994
 しかしながら、既存の能動学習法は直接的に機械学習性能を高めるように事例を選択しないため、十分な性能を達成できないことがあるという問題点がある。
 本発明の一実施形態は、上記の点に鑑みてなされたもので、高性能な事例選択モデル及びラベル予測モデルを学習することを目的とする。
 上記目的を達成するため、一実施形態に係る学習方法は、事例と前記事例に対するラベルとが含まれるデータGを入力する入力手順と、第1のニューラルネットワークのパラメータと、前記データGに含まれる各事例のうち前記ラベルが観測されている事例を表す情報とを用いて、前記データGに含まれる各事例に対するラベルの予測値を計算する予測手順と、第2のニューラルネットワークのパラメータと、前記データGに含まれる各事例のうち前記ラベルが観測されている事例を表す情報とを用いて、前記データGに含まれる各事例のうち、一の事例を選択する選択手順と、前記予測値と前記データGに含まれる各事例に対するラベルの値との第1の誤差を用いて、前記第1のニューラルネットワークのパラメータを学習する第1の学習手順と、前記第1の誤差と、前記一の事例が追加で観測された場合における前記各事例に対するラベルの予測値と前記各事例に対するラベルの値との第2の誤差とを用いて、前記第2のニューラルネットワークのパラメータを学習する第2の学習手順と、をコンピュータが実行することを特徴とする。
 高性能な事例選択モデル及びラベル予測モデルを学習することができる。
本実施形態に係る学習装置の機能構成の一例を示す図である。 本実施形態に係る学習処理の流れの一例を示すフローチャートである。 本実施形態に係る予測モデル学習処理の流れの一例を示すフローチャートである。 本実施形態に係る選択モデル学習処理の流れの一例を示すフローチャートである。 評価結果の一例を示す図である。 本実施形態に係る学習装置のハードウェア構成の一例を示す図である。
 以下、本発明の一実施形態について説明する。本実施形態では、事例とそのラベルが含まれる複数のデータ集合が与えられたときに、ラベルを付与する事例を選択する事例選択モデル(以下、「選択モデル」という。)と、事例に対するラベルを予測するラベル予測モデル(以下「予測モデル」という。)とを学習する学習装置10について説明する。
 本実施形態に係る学習装置10には、学習時に、入力データとして、D個のグラフデータで構成されるグラフデータ集合
Figure JPOXMLDOC01-appb-M000001
が与えられるものとする。なお、明細書のテキスト中では、このグラフデータ集合を「G」と表記する。
 ここで、G=(A,X,y)はd番目のグラフを表すグラフデータである。ただし、
Figure JPOXMLDOC01-appb-M000002
はd番目のグラフの隣接行列、Nはd番目のグラフのノード数である。また、
Figure JPOXMLDOC01-appb-M000003
はd番目のグラフの特徴量データ、
Figure JPOXMLDOC01-appb-M000004
はd番目のグラフにおけるn番目のノードの特徴量であり、Jはd番目のグラフの特徴量の次元数である。また、
Figure JPOXMLDOC01-appb-M000005
はd番目のグラフの各特徴量のラベル集合である。ydnはd番目のグラフにおけるn番目のノードの特徴量xdnに対するラベル(言い換えれば、d番目のグラフにおけるn番目のノードに対するラベル)を表す。すなわち、各特徴量xdn(つまり、d番目のグラフの各ノード)はラベルが付与された事例に相当する。
 なお、本実施形態では、一例として、グラフデータが与えられるものとするが、グラフデータ以外の任意のデータ(例えば、任意のベクトルデータ、画像データ、系列データ等)が与えられた場合についても同様に適用可能である。
 テスト時(又は、予測モデル及び選択モデルの運用時等)には、ラベルが未知のグラフデータG=(A,X)が与えられるものとする。このとき、なるべく少ないラベルの付与で(つまり、ラベルの付与対象として選択するノード(事例)数がなるべく少なく)、与えられたグラフ内のノードのラベルをより高い精度で予測することができる選択モデル及び予測モデルを学習することが学習装置10の目標である。そのために、本実施形態に係る学習装置10は、まず予測モデルを学習した後、学習済みの予測モデルを用いて選択モデルを学習するものとする。ただし、これは一例であって、例えば、予測モデルと選択モデルとを同時に学習してもよいし、又は予測モデルと選択モデルとを交互に学習してもよい。
 なお、テスト時にはグラフ内の全てのノードのラベルが未知のグラフデータG=(A,X)が与えられる場合を想定するが、グラフ内の一部のノードにラベルが付与されていてもよい(つまり、少数のノードに対するラベルが与えられていてもよい。)。
 <予測モデル及び選択モデル>
 予測モデル及び選択モデルは、与えられたグラフの各ノードの特徴量と、観測されているラベルと、どの事例のラベルが観測されているかを表す情報とを入力し、それらの情報を統合して出力するものであれば、任意のニューラルネットワークを用いることができる。
 例えば、ニューラルネットワークへの入力としては、以下の式(1)に示すzdn (0)を用いることができる。
Figure JPOXMLDOC01-appb-M000006
 ここで、
Figure JPOXMLDOC01-appb-M000007
はd番目のグラフにおいてどの事例のラベルが観測されているかを表すマスクベクトルであり、n番目の事例のラベルが観測されていればn番目の要素はmdn=1、そうでなければmdn=0である。なお、以降では、ラベルが観測されている事例を「観測事例」とも表す。つまり、マスクベクトルmはd番目のグラフの観測事例を表すベクトルである。
 また、
Figure JPOXMLDOC01-appb-M000008
はd番目のグラフにおいて観測されているラベルを表すベクトルであり、mdn=1であればn番目の要素は
Figure JPOXMLDOC01-appb-M000009
、そうでなければ
Figure JPOXMLDOC01-appb-M000010
となる。なお、明細書のテキスト中では、d番目のグラフにおいて観測されているラベルを表すベクトル及びその要素をそれぞれ「」及び「dn」と表記する。
 予測モデル及び選択モデルのニューラルネットワークとしては、例えば、グラフ畳み込みニューラルネットワークを用いることができる。グラフ畳み込みニューラルネットワークを用いることにより、全事例の情報をグラフに応じて統合することができる。
 ニューラルネットワークをfとして、予測モデルは、以下の式(2)で表すことができる。
Figure JPOXMLDOC01-appb-M000011
 ここで、Φはニューラルネットワークfのパラメータ、
Figure JPOXMLDOC01-appb-M000012
は予測値を表す。なお、上記の式(2)に示すfでは、入力されたG及びmから上記の式(1)に示すzdn (0)が作成され、これらのzdn (0)がグラフ畳み込みニューラルネットワークに入力される。すなわち、より正確には、上記の式(2)に示すfは、G及びmから各zdn (0)を作成する関数と、パラメータΦを持つグラフ畳み込みニューラルネットワークとで構成される。
 また、ニューラルネットワークをgとして、選択モデルは、以下の式(3)で表すことができる。
Figure JPOXMLDOC01-appb-M000013
 ここで、Θはニューラルネットワークgのパラメータ、
Figure JPOXMLDOC01-appb-M000014
はd番目のグラフにおけるスコアベクトルであり、sdnはn番目の事例が選択されるスコアを表す。なお、上記の式(3)に示すgも同様に、入力されたG及びmから上記の式(1)に示すzdn (0)が作成され、これらのzdn (0)がグラフ畳み込みニューラルネットワークに入力される。すなわち、より正確には、上記の式(3)に示すgは、G及びmから各zdn (0)を作成する関数と、パラメータΘを持つグラフ畳み込みニューラルネットワークとで構成される。
 <機能構成>
 まず、本実施形態に係る学習装置10の機能構成について、図1を参照しながら説明する。図1は、本実施形態に係る学習装置10の機能構成の一例を示す図である。
 図1に示すように、本実施形態に係る学習装置10は、入力部101と、予測部102と、予測モデル学習部103と、選択部104と、選択モデル学習部105と、記憶部106とを有する。
 記憶部106には、グラフデータ集合Gや学習対象となるパラメータΦ及びΘ等が記憶されている。
 入力部101は、学習時に、記憶部106に記憶されているグラフデータ集合Gを入力する。なお、テスト時には、入力部101は、ラベルが未知のグラフデータGを入力する。
 ここで、予測モデルの学習時には、予測モデル学習部103によってグラフデータ集合GからグラフデータGがサンプリングされた上で、このグラフデータGのノード集合{1,・・・,N}から観測事例がサンプリングされる。同様に、選択モデルの学習時でも、選択モデル学習部105によってグラフデータ集合GからグラフデータGがサンプリングされた上で、このグラフデータGのノード集合{1,・・・,N}から観測事例が順次サンプリングされる。
 予測部102は、予測モデル学習部103によってサンプリングされたグラフデータGと、このグラフデータGからサンプリングされた観測事例を表すマスクベクトルmと、パラメータΦとを用いて、上記の式(2)により予測値(つまり、当該グラフデータGが表すグラフの各ノードに対するラベルの値)を計算する。
 なお、テスト時には、予測部102は、グラフデータGと、このグラフデータGの観測事例を表すマスクベクトルmと、学習済みの予測モデルのパラメータとを用いて、上記の式(2)により予測値(つまり、当該グラフデータGが表すグラフの各ノードに対するラベルの値)を計算する。
 予測モデル学習部103は、入力部101によって入力されたグラフデータ集合GからグラフデータGをサンプリングした上で、このグラフデータGのノード集合{1,・・・,N}からN個の観測事例をサンプリングする。なお、サンプリングする観測事例数Nは予め設定される。また、サンプリングする際、予測モデル学習部103は、ランダムにサンプリングを行ってもよいし、予め設定された何等かの分布に従ってサンプリングを行ってもよい。
 そして、予測モデル学習部103は、グラフデータ集合GからサンプリングしたグラフデータGに含まれるラベル集合yと、予測部102によって計算された予測値との誤差を用いて、この誤差が小さくなるように学習対象のパラメータΦを更新(学習)する。
 例えば、予測モデル学習部103は、以下の式(4)に示す期待予測誤差を最小化するように学習対象のパラメータΦを更新すればよい。
Figure JPOXMLDOC01-appb-M000015
 ここで、Eは期待値、Lは以下の式(5)に示す予測誤差を表す。
Figure JPOXMLDOC01-appb-M000016
 なお、fは上記の式(2)に示すfのn番目の要素(つまり、予測値のn番目の要素)である。
 ただし、Lとして予測誤差ではなく、予測の誤りを表す任意の指標(例えば、負の対数尤度等)が用いられてもよい。
 選択部104は、選択モデル学習部105によってサンプリングされたグラフデータGと、このグラフデータGからサンプリングされた観測事例を表すマスクベクトルmと、パラメータΘとを用いて、上記の式(3)によりスコアベクトルを計算する。
 なお、テスト時には、選択部104は、グラフデータGと、このグラフデータGの観測事例を表すマスクベクトルmと、学習済みの選択モデルのパラメータとを用いて、上記の式(3)によりスコアベクトルを計算する。スコアベクトルが計算されることにより、ノード(事例)をラベル付与対象として選択することができる。なお、ラベル付与対象とするノードの選択方法としては、例えば、スコアベクトルの要素のうち最も値が高い要素に対応するノードを選択すればよい。これ以外にも、例えば、スコアベクトルの要素のうちその値が高い順に所定の個数の要素を選択し、これら選択された要素に対応するノードをラベル付与対象として選択してもよいし、スコアベクトルの要素のうち所定の閾値以上の値の要素に対応するノードをラベル付与対象として選択してもよい。
 選択モデル学習部105は、入力部101によって入力されたグラフデータ集合GからグラフデータGをサンプリングした上で、このグラフデータGのノード集合{1,・・・,N}からN個の観測事例を順次サンプリングする。なお、サンプリングされる最大観測事例数Nは予め設定される。また、グラフデータGをサンプリングする際、選択モデル学習部105は、ランダムにサンプリングを行ってもよいし、予め設定された何等かの分布に従ってサンプリングを行ってもよい。一方で、観測事例をサンプリングする際には、選択モデル学習部105は、後述する選択分布に従ってサンプリングを行う。
 ここで、選択モデル学習部105は、事例を選択したときの予測性能が向上するようにパラメータΘを学習する。例えば、選択モデル学習部105は、予測性能向上の指標として、以下の式(6)に示す予測誤差削減率を用いることができる。
Figure JPOXMLDOC01-appb-M000017
 上記の式(6)に示す予測誤差削減率は、事例を追加で選択したときの予測誤差の削減率を表している。ここで、^Φ(正確には、ハット「^」はΦの真上に表記)は予測モデルのニューラルネットワークfの学習済みパラメータである。また、nはd番目のグラフにおいて新たに観測されたノード(事例)を表し、m (+n)はd番目のグラフにおけるn番目のノード(事例)が追加で観測された場合のマスクベクトルm、つまりn'=nであればmdn' (+n)=1、そうでなければmdn' (+n)=mdn'である。
 選択モデルを学習する際の目的関数としては、上記の式(6)に示す予測誤差削減率を用いて、例えば、以下の式(7)に示す期待誤差削減率を用いることができる。
Figure JPOXMLDOC01-appb-M000018
 すなわち、上記の式(7)に示す期待誤差削減率を最大化するように学習対象のパラメータΘを更新すればよい。ここで、π(Θ)は選択モデルに基づく選択分布(ノード(事例)を選択するための分布)であり、π=π(Θ)のn番目の要素πdnは以下の式(8)で表される。
Figure JPOXMLDOC01-appb-M000019
 ここで、s'dnは、mdn=0の場合はs'dn=sdn、それ以外の場合はs'dn=-∞である。これにより、既に観測されている事例は選択されなくなる。
 <学習処理の流れ>
 次に、本実施形態に係る学習装置10が実行する学習処理の流れについて、図2を参照しながら説明する。図2は、本実施形態に係る学習処理の流れの一例を示すフローチャートである。
 まず、入力部101は、記憶部106に記憶されているグラフデータ集合Gを入力する(ステップS101)。
 次に、学習装置10は、予測モデル学習処理を実行し、予測モデルのパラメータΦを学習する(ステップS102)。続いて、学習装置10は、選択モデル学習処理を実行し、選択モデルのパラメータΘを学習する(ステップS103)。なお、予測モデル学習処理及び選択モデル学習処理の詳細な流れについては後述する。
 以上により、本実施形態に係る学習装置10は、予測部102で実現される予測モデルのパラメータΦと選択部104で実現される選択モデルのパラメータΘとを学習することができる。なお、テスト時には、予測部102は、グラフデータGと、このグラフデータGの観測事例を表すマスクベクトルmと、学習済みのパラメータ^Φとを用いて、上記の式(2)により予測値を計算する。同様に、テスト時には、選択部104は、グラフデータGと、このグラフデータGの観測事例を表すマスクベクトルmと、学習済みのパラメータ^Θとを用いて、上記の式(3)によりスコアベクトルを計算する。マスクベクトルmの各要素の値は、グラフデータGが表すグラフのn番目のノードに対するラベルが観測されていればm=1、そうでなければm=0となる。
 また、テスト時における学習装置10は予測モデル学習部103及び選択モデル学習部105を有していなくてもよく、例えば、「ラベル予測装置」や「事例選択装置」等と称されてもよい。
  ≪予測モデル学習処理≫
 次に、上記のステップS102の予測モデル学習処理の流れについて、図3を参照しながら説明する。図3は、本実施形態に係る予測モデル学習処理の流れの一例を示すフローチャートである。
 まず、予測モデル学習部103は、予測モデルのパラメータΦを初期化する(ステップS201)。パラメータΦは、例えば、ランダムに初期化されてもよいし、或る分布に従うように初期化されてもよい。
 以降のステップS202~ステップS207は所定の終了条件を満たすまで繰り返し実行される。所定の終了条件としては、例えば、学習対象のパラメータΦが収束したこと、当該繰り返しが所定の回数実行されたこと等が挙げられる。
 予測モデル学習部103は、図2のステップS101で入力されたグラフデータ集合GからグラフデータGをサンプリングする(ステップS202)。
 次に、予測モデル学習部103は、上記のステップS202でサンプリングされたグラフデータGのノード集合{1,・・・,N}からN個の観測事例をサンプリングする(ステップS203)。これらN個の観測事例の集合をSとする。
 次に、予測モデル学習部103は、マスクベクトルmの各要素の値を、n∈Sならばmdn=1、そうでなければmdn=0と設定する(ステップS204)。
 次に、予測部102は、グラフデータGとマスクベクトルmとパラメータΦとを用いて、上記の式(2)により予測値を計算する(ステップS205)。
 続いて、予測モデル学習部103は、グラフデータGとマスクベクトルmと上記のステップS205で計算された予測値とパラメータΦとを用いて、上記の式(5)により誤差LとそのパラメータΦに関する勾配とを計算する(ステップS206)。なお、勾配は、例えば、誤差逆伝播法等の既知の手法により計算すればよい。
 そして、予測モデル学習部103は、上記のステップS206で計算した誤差L及びその勾配を用いて、学習対象のパラメータΦを更新する(ステップS207)。なお、予測モデル学習部103は、既知の更新式等により学習対象のパラメータΦを更新すればよい。
  ≪選択モデル学習処理≫
 次に、上記のステップS103の選択モデル学習処理の流れについて、図4を参照しながら説明する。図4は、本実施形態に係る選択モデル学習処理の流れの一例を示すフローチャートである。
 まず、選択モデル学習部105は、選択モデルのパラメータΘを初期化する(ステップS301)。パラメータΘは、例えば、ランダムに初期化されてもよいし、或る分布に従うように初期化されてもよい。
 以降のステップS302~ステップS304は所定の終了条件を満たすまで繰り返し実行される。所定の終了条件としては、例えば、学習対象のパラメータΘが収束したこと、当該繰り返しが所定の回数実行されたこと等が挙げられる。
 選択モデル学習部105は、図2のステップS101で入力されたグラフデータ集合GからグラフデータGをサンプリングする(ステップS302)。
 次に、選択モデル学習部105は、マスクベクトルm=0と初期化(つまり、マスクベクトルmの各要素の値を0に初期化)する(ステップS303)。
 続いて、学習装置10は、s=1,・・・,Nに対して以下のステップS311~ステップS318を繰り返し実行する(ステップS304)。すなわち、学習装置10は、以下のステップS311~ステップS318をN回繰り返し実行する。なお、Nは最大観測事例数である。
 選択部104は、グラフデータGとマスクベクトルmとパラメータΘとを用いて、上記の式(3)によりスコアベクトルsを計算する(ステップS311)。
 次に、選択モデル学習部105は、上記の式(8)により選択分布πを計算する(ステップS312)。
 次に、選択モデル学習部105は、上記のステップS312で計算された選択分布πに従って、グラフデータGのノード集合{1,・・・,N}から観測事例nを選択する(ステップS313)。
 次に、選択モデル学習部105は、上記の式(6)により予測誤差削減率R(G,m,n)を計算する(ステップS314)。
 続いて、選択モデル学習部105は、上記のステップS314で計算された予測誤差削減率R(G,m,n)と、上記のステップS312で計算された選択分布πとを用いて、パラメータΘを更新する(ステップS315)。選択モデル学習部105は、例えば、Θ←Θ+αR(G,m,n)∇ΘlogπdnによりパラメータΘを更新すればよい。ここで、αは学習係数、∇ΘはパラメータΘに関する勾配を表す。なお、一例として、強化学習の方策勾配法によってパラメータΘを更新しているが、これに限られず、強化学習の他の手法によりパラメータΘが更新されてもよい。
 そして、選択モデル学習部105は、上記のステップS313で選択した観測事例nに応じてマスクベクトルmを更新する(ステップS316)。すなわち、選択モデル学習部105は、上記のステップS313で選択した観測事例nに対応する要素mdnを1に更新(つまり、mdn=1に更新)する。
 <評価結果>
 次に、本実施形態に係る学習装置10によって学習された選択モデル及び予測モデルの評価結果について説明する。本実施形態では、一例として、グラフデータの1つである交通データを用いて評価した。その評価結果を図5に示す。
 図5では横軸が観測事例数、縦軸が予測誤差を表している。また、Randomはランダムに事例を選択する手法、Varianceは予測分散が最大の事例を選択する手法、Entropyはエントロピーが最大の事例を選択する手法、MIは相互情報量が最大の事例を選択する手法である。また、NNは、本実施形態に係る学習装置10によって学習される選択モデル及び予測モデルとしてフィードフォワードネットワークを用いた場合である。一方で、Oursは、本実施形態に係る学習装置10によって学習される選択モデル及び予測モデルとしてグラフ畳み込みニューラルネットワークを用いた場合である。
 図5に示すように、Ourでは他の手法と比較して低い予測誤差が達成されており、高性能な予測モデルが得られていることがわかる。
 <ハードウェア構成>
 最後に、本実施形態に係る学習装置10のハードウェア構成について、図6を参照しながら説明する。図6は、本実施形態に係る学習装置10のハードウェア構成の一例を示す図である。
 図6に示すように、本実施形態に係る学習装置10は一般的なコンピュータ又はコンピュータシステムで実現され、入力装置201と、表示装置202と、外部I/F203と、通信I/F204と、プロセッサ205と、メモリ装置206とを有する。これら各ハードウェアは、それぞれがバス207を介して通信可能に接続されている。
 入力装置201は、例えば、キーボードやマウス、タッチパネル等である。表示装置202は、例えば、ディスプレイ等である。なお、学習装置10は、入力装置201及び表示装置202のうちの少なくとも一方を有していなくてもよい。
 外部I/F203は、記録媒体203a等の外部装置とのインタフェースである。学習装置10は、外部I/F203を介して、記録媒体203aの読み取りや書き込み等を行うことができる。記録媒体203aには、例えば、学習装置10が有する各機能部(入力部101、予測部102、予測モデル学習部103、選択部104及び選択モデル学習部105)を実現する1以上のプログラムが格納されていてもよい。なお、記録媒体203aには、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
 通信I/F204は、学習装置10を通信ネットワークに接続するためのインタフェースである。なお、学習装置10が有する各機能部を実現する1以上のプログラムは、通信I/F204を介して、所定のサーバ装置等から取得(ダウンロード)されてもよい。
 プロセッサ205は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の各種演算装置である。学習装置10が有する各機能部は、例えば、メモリ装置206に格納されている1以上のプログラムがプロセッサ205に実行させる処理により実現される。
 メモリ装置206は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の各種記憶装置である。学習装置10が有する記憶部106は、例えば、メモリ装置206により実現される。ただし、当該記憶部106は、例えば、学習装置10と通信ネットワークを介して接続される記憶装置(例えば、データベースサーバ等)により実現されていてもよい。
 本実施形態に係る学習装置10は、図6に示すハードウェア構成を有することにより、上述した学習処理を実現することができる。なお、図6に示すハードウェア構成は一例であって、学習装置10は、他のハードウェア構成を有していてもよい。例えば、学習装置10は、複数のプロセッサ205を有していてもよいし、複数のメモリ装置206を有していてもよい。
 本発明は、具体的に開示された上記の実施形態に限定されるものではなく、請求の範囲の記載から逸脱することなく、種々の変形や変更、既知の技術との組み合わせ等が可能である。
 10    学習装置
 101   入力部
 102   予測部
 103   予測モデル学習部
 104   選択部
 105   選択モデル学習部
 106   記憶部
 201   入力装置
 202   表示装置
 203   外部I/F
 203a  記録媒体
 204   通信I/F
 205   プロセッサ
 206   メモリ装置
 207   バス

Claims (6)

  1.  事例と前記事例に対するラベルとが含まれるデータGを入力する入力手順と、
     第1のニューラルネットワークのパラメータと、前記データGに含まれる各事例のうち前記ラベルが観測されている事例を表す情報とを用いて、前記データGに含まれる各事例に対するラベルの予測値を計算する予測手順と、
     第2のニューラルネットワークのパラメータと、前記データGに含まれる各事例のうち前記ラベルが観測されている事例を表す情報とを用いて、前記データGに含まれる各事例のうち、一の事例を選択する選択手順と、
     前記予測値と前記データGに含まれる各事例に対するラベルの値との第1の誤差を用いて、前記第1のニューラルネットワークのパラメータを学習する第1の学習手順と、
     前記第1の誤差と、前記一の事例が追加で観測された場合における前記各事例に対するラベルの予測値と前記各事例に対するラベルの値との第2の誤差とを用いて、前記第2のニューラルネットワークのパラメータを学習する第2の学習手順と、
     をコンピュータが実行することを特徴とする学習方法。
  2.  前記第2の学習手順は、
     前記第1の誤差に対する前記第2の誤差の削減率が最大となるように前記第2のニューラルネットワークのパラメータを学習する、ことを特徴とする請求項1に記載の学習方法。
  3.  前記選択手順は、
     前記一の事例を選択するためのスコアを計算し、前記スコアに基づく分布に従って前記一の事例を選択する、ことを特徴とする請求項1又は2に記載の学習方法。
  4.  前記データGは、事例をノードとするグラフ形式で表されたデータであり、
     前記第1のニューラルネットワーク及び第2のニューラルネットワークは、グラフ畳み込みニューラルネットワークである、ことを特徴とする請求項1乃至3の何れか一項に記載の学習方法。
  5.  事例と前記事例に対するラベルとが含まれるデータGを入力する入力部と、
     第1のニューラルネットワークのパラメータと、前記データGに含まれる各事例のうち前記ラベルが観測されている事例を表す情報とを用いて、前記データGに含まれる各事例に対するラベルの予測値を計算する予測部と、
     第2のニューラルネットワークのパラメータと、前記データGに含まれる各事例のうち前記ラベルが観測されている事例を表す情報とを用いて、前記データGに含まれる各事例のうち、一の事例を選択する選択部と、
     前記予測値と前記データGに含まれる各事例に対するラベルの値との第1の誤差を用いて、前記第1のニューラルネットワークのパラメータを学習する第1の学習部と、
     前記第1の誤差と、前記一の事例が追加で観測された場合における前記各事例に対するラベルの予測値と前記各事例に対するラベルの値との第2の誤差とを用いて、前記第2のニューラルネットワークのパラメータを学習する第2の学習部と、
     を有することを特徴とする学習装置。
  6.  コンピュータに、請求項1乃至4の何れか一項に記載の学習方法を実行させるプログラム。
PCT/JP2020/022566 2020-06-08 2020-06-08 学習方法、学習装置及びプログラム WO2021250752A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/022566 WO2021250752A1 (ja) 2020-06-08 2020-06-08 学習方法、学習装置及びプログラム
JP2022530377A JP7439923B2 (ja) 2020-06-08 2020-06-08 学習方法、学習装置及びプログラム
US18/007,703 US20230222324A1 (en) 2020-06-08 2020-06-08 Learning method, learning apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/022566 WO2021250752A1 (ja) 2020-06-08 2020-06-08 学習方法、学習装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2021250752A1 true WO2021250752A1 (ja) 2021-12-16

Family

ID=78845401

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022566 WO2021250752A1 (ja) 2020-06-08 2020-06-08 学習方法、学習装置及びプログラム

Country Status (3)

Country Link
US (1) US20230222324A1 (ja)
JP (1) JP7439923B2 (ja)
WO (1) WO2021250752A1 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210076122A (ko) 2018-10-23 2021-06-23 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 심층 특성화를 포함하는 능동 전달 학습을 위한 시스템 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HONGYUN CAI; VINCENT W. ZHENG; KEVIN CHEN-CHUAN CHANG: "Active Learning for Graph Embedding", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 15 May 2017 (2017-05-15), 201 Olin Library Cornell University Ithaca, NY 14853 , XP080947907 *

Also Published As

Publication number Publication date
JP7439923B2 (ja) 2024-02-28
US20230222324A1 (en) 2023-07-13
JPWO2021250752A1 (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
Galante et al. The challenge of modeling niches and distributions for data‐poor species: a comprehensive approach to model complexity
Andradóttir An overview of simulation optimization via random search
US20200065710A1 (en) Normalizing text attributes for machine learning models
US20220092407A1 (en) Transfer learning with machine learning systems
JP7293504B2 (ja) 強化学習を用いたデータ評価
US20220292315A1 (en) Accelerated k-fold cross-validation
CN112232495A (zh) 预测模型的训练方法、装置、介质和计算设备
CN113139651A (zh) 基于自监督学习的标签比例学习模型的训练方法和设备
Zou et al. Teaching–learning-based optimization with differential and repulsion learning for global optimization and nonlinear modeling
JP2019095600A (ja) 音響モデル学習装置、音声認識装置、それらの方法、及びプログラム
CN112836794B (zh) 一种图像神经架构的确定方法、装置、设备及存储介质
WO2021250752A1 (ja) 学習方法、学習装置及びプログラム
US20220101186A1 (en) Machine-learning model retraining detection
CN115131633A (zh) 一种模型迁移方法、装置及电子设备
US11177018B2 (en) Stable genes in comparative transcriptomics
JP7135824B2 (ja) 学習装置、推定装置、学習方法、推定方法、及びプログラム
JP7448023B2 (ja) 学習方法、学習装置及びプログラム
JP6332598B2 (ja) 表現型予測のためのエピスタシスの効率的なモデル化のための特徴選択方法、情報処理システム、及びコンピュータ・プログラム
US11928466B2 (en) Distributed representations of computing processes and events
WO2021106202A1 (ja) 学習装置、学習方法及びプログラム
WO2024042707A1 (ja) メタ学習方法、メタ学習装置及びプログラム
US11710068B2 (en) Labeling a dataset
US20230197208A1 (en) Optimization of multiple molecules
WO2023112099A1 (ja) 選択方法、選択装置、及びプログラム
CN110796262B (zh) 机器学习模型的测试数据优化方法、装置及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20940453

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022530377

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20940453

Country of ref document: EP

Kind code of ref document: A1