WO2023238258A1 - 情報提供装置、情報提供方法及び情報提供プログラム - Google Patents

情報提供装置、情報提供方法及び情報提供プログラム Download PDF

Info

Publication number
WO2023238258A1
WO2023238258A1 PCT/JP2022/023020 JP2022023020W WO2023238258A1 WO 2023238258 A1 WO2023238258 A1 WO 2023238258A1 JP 2022023020 W JP2022023020 W JP 2022023020W WO 2023238258 A1 WO2023238258 A1 WO 2023238258A1
Authority
WO
WIPO (PCT)
Prior art keywords
dataset
model
learning
similarity
information providing
Prior art date
Application number
PCT/JP2022/023020
Other languages
English (en)
French (fr)
Inventor
真弥 山口
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/023020 priority Critical patent/WO2023238258A1/ja
Publication of WO2023238258A1 publication Critical patent/WO2023238258A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the present invention relates to an information providing device, an information providing method, and an information providing program.
  • Deep neural networks can make predictions with high accuracy in image processing and natural language processing. On the other hand, training a DNN requires a lot of cost.
  • the costs of DNN training include the cost of collecting datasets including annotation, calculation costs for improving accuracy, and tuning costs for searching multiple hyperparameters for each case. included.
  • Transfer learning has been proposed as a method to reduce such costs when introducing DNN business.
  • Transfer learning is a technique that uses a dataset different from the target dataset (transfer source dataset) or a trained model to perform learning with less data or calculation time.
  • Transfer learning also includes techniques such as fine tuning and domain adaptation.
  • Fine tuning is a method in which a model is pre-trained on a transfer source dataset and the learned parameters are used as initial values for learning the target dataset.
  • Domain adaptation is a method that simultaneously learns the source dataset and target dataset using the same model, and solves the task of the target dataset while using the knowledge of the source dataset.
  • transfer learning can be efficiently implemented.
  • FIG. 1 is a diagram illustrating a configuration example of an information providing apparatus according to a first embodiment.
  • FIG. 2 is a diagram illustrating a method for measuring similarity.
  • FIG. 3 is a diagram illustrating a model learning method.
  • FIG. 4 is a diagram illustrating information provision processing.
  • FIG. 5 is a flowchart showing the flow of learning processing.
  • FIG. 6 is a flowchart showing the flow of similarity measurement processing.
  • FIG. 7 is a flowchart showing the flow of information provision processing.
  • FIG. 8-1 is a diagram showing the results of the experiment.
  • FIG. 8-2 is a diagram showing the results of the experiment.
  • FIG. 9-1 is a diagram showing the results of the experiment.
  • FIG. 9-2 is a diagram showing the results of the experiment.
  • FIG. 10-1 is a diagram showing the evaluation results.
  • FIG. 10-2 is a diagram showing the evaluation results.
  • FIG. 11 is a diagram showing an example of a computer that executes an information providing program
  • FIG. 1 is a diagram illustrating a configuration example of an information providing apparatus according to a first embodiment.
  • the information providing device 10 calculates the degree of similarity between data sets and provides information based on the calculated degree of similarity. For example, the information providing device 10 provides information for identifying a transfer source dataset similar to a target dataset in transfer learning.
  • the information providing device 10 performs a model learning process for calculating similarity.
  • the information providing device 10 may use the learned model to calculate the degree of similarity, or may provide the learned model to other devices.
  • the information providing device 10 includes an input/output section 11, a storage section 12, and a control section 13.
  • the input/output unit 11 is an interface for inputting and outputting data.
  • the input/output unit 11 may be a communication interface such as a NIC (Network Interface Card) for performing data communication with other devices via a network.
  • the input/output unit 11 may be an interface for connecting an input device such as a mouse and a keyboard, and an output device such as a display.
  • the control unit 13 controls the entire information providing device 10.
  • the control unit 13 includes, for example, electronic circuits such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field Programmable Gate). Array) etc. It is an integrated circuit.
  • the control unit 13 has an internal memory for storing programs and control data that define various processing procedures, and executes each process using the internal memory. Further, the control unit 13 functions as various processing units by running various programs.
  • the control unit 13 includes a feature extraction unit 131, a similarity calculation unit 132, a loss function calculation unit 133, an update unit 134, a candidate extraction unit 135, and a provision unit 136.
  • the feature extraction unit 131 extracts a plurality of feature quantities from the data set by inputting the plurality of data sets to a model that outputs feature quantities of lower dimension than the data set.
  • the similarity calculation unit 132 calculates the similarity between the plurality of feature quantities extracted by the feature extraction unit 131.
  • FIG. 2 is a diagram illustrating a method for measuring similarity.
  • model F is a deep neural network for feature extraction.
  • a data set includes multiple data samples. Further, the feature extraction unit 131 extracts feature amounts for each data sample.
  • the feature extraction unit 131 extracts feature quantities obtained by reducing the dimensionality of the data set as shown in FIG. For example, f A i has a lower dimension than x A i .
  • the feature extraction unit 131 aggregates the extracted feature amounts.
  • the feature extraction unit 131 aggregates the feature amounts f A i corresponding to I data samples into one feature amount f'A .
  • the feature extraction unit 131 can aggregate the feature amounts output by the model for each data sample included in the data set into the feature amount of one data sample.
  • the feature extraction unit 131 can use statistical quantities such as the average and variance of each element of a plurality of data samples as the aggregated feature quantity.
  • the similarity calculation unit 132 calculates the similarity between the feature amounts aggregated by the feature extraction unit 131. For example, if the aggregated feature quantities f' A and f' B are vectors, the similarity calculation unit 132 calculates the distance d AB between the vector f' A and the vector f' B as the similarity. The similarity calculation unit 132 may calculate the 2-Wasserstein distance as the distance between vectors.
  • the feature extraction unit 131 extracts feature quantities using a trained model through self-supervised learning using a transfer source data set in transfer learning. Then, the similarity calculation unit 132 calculates the similarity between the feature amount of the transfer source data set and the feature amount of the target data set in transfer learning.
  • the loss function calculation unit 133 calculates a loss function for model learning.
  • FIG. 3 is a diagram illustrating a model learning method.
  • x shown in FIG. 3 is input data.
  • D is a dataset collection.
  • d is a data set.
  • Model F is a feature extractor (DNN).
  • Model F is used to measure the degree of similarity between the target data and a plurality of transfer source data when identifying transfer source data similar to the target data in transfer learning.
  • the information providing device 10 has previously trained the model F in an arbitrary task such as classification using the transfer source data set group.
  • the information providing apparatus 10 performs multitask learning on the model F by adding a dataset classification task (dataset classification learning) to a pre-learning task (for example, self-supervised learning).
  • Model F is a model that has been trained through multitask learning of self-supervised learning and dataset classification learning using a transfer source dataset in transfer learning.
  • the loss function calculation unit 133 calculates the loss of the pre-learning task shown in equation (1) based on the feature amounts obtained by inputting the input data x of the plurality of data sets d into the model F.
  • a function (Self-supervised Loss) L SSL and a loss function (Dataset Classification Loss) L DC of the dataset classification task shown in equation (2) are calculated.
  • the updating unit 134 updates the parameters of the model F so that the loss function L ALL is optimized.
  • the candidate extraction unit 135 and the provision unit 136 support actual transfer learning by providing information that identifies transfer source data similar to the target data.
  • the information provision process will be explained using FIG. 4.
  • FIG. 4 is a diagram illustrating information provision processing.
  • the candidate extraction unit 135 extracts, as a candidate, a transfer source dataset whose feature amount similarity with the target dataset is equal to or higher than a predetermined rank.
  • the providing unit 136 provides the user with information for identifying the transfer source dataset extracted as a candidate among the transfer source datasets.
  • FIG. 5 is a flowchart showing the flow of the learning process. As shown in FIG. 5, the information providing device 10 first reads learning data from the transfer source data set group (step S101).
  • the information providing apparatus 10 calculates the loss function L SSL of the pre-learning task on the feature space (step S103).
  • the information providing device 10 calculates the loss function LDC of the dataset classification task on the feature space (step S104).
  • the information providing device 10 calculates the sum L ALL of the loss of the pre-learning task and the loss of the dataset classification task (step S105).
  • step S107 the information providing device 10 returns to step S101 and repeats the process.
  • step S107, False the information providing device 10 ends the process.
  • FIG. 6 is a flowchart showing the flow of the similarity measurement process.
  • the information providing device 10 reads a data sample from the transfer source data set (step S201).
  • the information providing device 10 reads data samples from the target data set (step S204).
  • the information providing device 10 extracts the characteristics of the target data sample using the DNN model F (step S205). Furthermore, the information providing device 10 aggregates the feature vectors for each target data sample into a single feature vector, similarly to the transfer source data set (step S206).
  • the information providing device 10 calculates the similarity between the feature vectors of the aggregated target data set and transfer source data set, for example, using the 2-Wasserstein distance (step S207).
  • FIG. 7 is a flowchart showing the flow of information provision processing.
  • the information providing device 10 calculates the degree of similarity between the target data set and the N transfer source data sets (step S301).
  • the information providing apparatus 10 sorts the transfer source datasets (distance: ascending order/score: descending order) by the dataset similarity ⁇ d iT ⁇ i N (step S302). Then, the information providing device 10 extracts the Top-K transfer source data set ID from among the rankings obtained by sorting (K ⁇ N: any integer) (step S303).
  • the information providing device 10 reads the datasets and hyperparameters linked to the K transfer source dataset IDs (step S304). Then, the information providing device 10 issues a URI (Uniform Resource Identifier) that can be downloaded by the user, and outputs the dataset and hyperparameters (step S305).
  • URI Uniform Resource Identifier
  • the information providing device 10 can automatically calculate the degree of similarity between data sets.
  • similar data sets can be identified, so transfer learning can be efficiently performed.
  • the feature extraction unit 131 aggregates the feature amounts output by the model for each data sample included in the data set into the feature amount of one data sample.
  • the similarity calculation unit 132 calculates the similarity between the feature amounts aggregated by the feature extraction unit 131.
  • the feature extraction unit 131 uses a transfer source data set in transfer learning to extract feature amounts using a trained model.
  • the model is a model in which learning is performed by multi-task learning in which a dataset classification task is added to a pre-learning task (for example, self-supervised learning).
  • the similarity calculation unit 132 calculates the similarity between the feature amount of the transfer source dataset and the feature amount of the target data set in transfer learning.
  • a model for measuring similarity can be efficiently trained by multi-task learning in which a dataset classification task is added to a pre-learning task that does not require annotations (for example, self-supervised learning).
  • the dataset classification labels are obtained from the dataset itself, so no human labeling is required.
  • by performing multi-task learning in which a dataset classification task is added to the pre-learning task it becomes possible to explicitly learn the features of each dataset.
  • the similarity calculation unit 132 calculates the similarity between feature amounts for one target data set and each of the plurality of transfer source data sets.
  • the providing unit 136 provides the user with information for specifying, among the transfer source datasets, transfer source datasets whose feature amount similarity with the target dataset is equal to or higher than a predetermined rank.
  • the information providing device 10 can recommend a transfer source dataset similar to the target dataset to the user. Therefore, according to this embodiment, transfer learning can be efficiently performed.
  • the evaluation item is the correlation between the transfer source-target dataset similarity and the classification accuracy in the target task when the weights pre-trained on the transfer source dataset are selected.
  • FIGS. 8-1 and 8-2 show the results of Experiment 1 in which the transfer source data was set according to the data set similarity.
  • FIGS. 8-1 and 8-2 are diagrams showing the results of the experiment.
  • the feature extractor (model F) was trained using all data in the transfer source dataset. Then, the dataset similarity (2-Wasserstein distance (2WD, lower is better)) between the target and transfer source datasets was measured using a feature extractor.
  • FIGS. 9-1 and 9-2 are diagrams visualizing the correlation between dataset similarity and test accuracy.
  • Figure 9-2 shows the experimental results for model FD .
  • Figure 9-1 shows the experimental results for model DM .
  • FIGS. 10-1 and 10-2 are diagrams showing the evaluation results.
  • FIG. 10-1 shows the visualization result of vectors after feature extraction by model F M.
  • FIG. 10-2 shows the visualization results of vectors after feature extraction using the model F D (Dataset Cls. Enabled).
  • model F D clusters C1, C2, C3, C4, C5, and C6 are formed.
  • model FD the number of clusters formed matches the number of data sets. Therefore, it was confirmed that when model FD was used, the features of each data set could be clearly extracted. Therefore, by using model FD , dataset similarity can be significantly improved.
  • model F was trained by adding a dataset classification task to the pre-learning task, we were able to confirm that the features of each dataset could be extracted more clearly.
  • the information providing device 10 can be implemented by installing an information providing program that executes the above-mentioned processing into a desired computer as packaged software or online software. For example, by causing the information processing device to execute the above information providing program, the information processing device can be made to function as the information providing device 10.
  • the information processing device referred to here includes a desktop or notebook personal computer.
  • information processing devices include mobile communication terminals such as smartphones, mobile phones, and PHSs (Personal Handyphone Systems), as well as slate terminals such as PDAs (Personal Digital Assistants).
  • the information providing device 10 can also be implemented as a server device that uses a terminal device used by a user as a client and provides services related to the above processing to the client.
  • the server device is implemented as a server device that provides a similarity measurement service that takes a target dataset and a plurality of transfer source datasets as input, and outputs the degree of similarity between the target dataset and each transfer source dataset.
  • the server device may be implemented as a web server, or may be implemented as a cloud that provides services related to the above processing through outsourcing.
  • the memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012.
  • the ROM 1011 stores, for example, a boot program such as BIOS (Basic Input Output System).
  • Hard disk drive interface 1030 is connected to hard disk drive 1090.
  • Disk drive interface 1040 is connected to disk drive 1100.
  • Serial port interface 1050 is connected to, for example, mouse 1110 and keyboard 1120.
  • Video adapter 1060 is connected to display 1130, for example.
  • the hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. That is, a program that defines each process of the information providing apparatus 10 is implemented as a program module 1093 in which computer-executable code is written.
  • Program module 1093 is stored in hard disk drive 1090, for example.
  • a program module 1093 for executing processing similar to the functional configuration of the information providing device 10 is stored in the hard disk drive 1090.
  • the hard disk drive 1090 may be replaced by an SSD (Solid State Drive).
  • program module 1093 and the program data 1094 are not limited to being stored in the hard disk drive 1090, but may be stored in a removable storage medium, for example, and read by the CPU 1020 via the disk drive 1100 or the like.
  • the program module 1093 and the program data 1094 may be stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.). The program module 1093 and program data 1094 may then be read by the CPU 1020 from another computer via the network interface 1070.
  • LAN Local Area Network
  • WAN Wide Area Network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

実施形態の特徴抽出部(131)は、データセットから、データセットよりも低次元の特徴量を出力するモデルに、複数のデータセットを入力することにより複数の特徴量を抽出する。類似度計算部(132)は、特徴抽出部(131)によって抽出された複数の特徴量間の類似度を計算する。モデルは、転移学習における転移元データセットを用いた、自己教師学習と、データセット分類学習とのマルチタスク学習によって学習済みのモデルである。

Description

情報提供装置、情報提供方法及び情報提供プログラム
 本発明は、情報提供装置、情報提供方法及び情報提供プログラムに関する。
 深層ニューラルネットワーク(DNN:Deep Neural Netework)は、画像処理や自然言語処理において高い精度で予測が可能である。一方で、DNNの学習には多くのコストがかかる。
 例えば、DNNの学習におけるコストには、正解ラベルの付与(アノテーション)を含むデータセットの収集コスト、精度を向上させるための計算コスト、複数のハイパーパラメータを事例ごとに探索するためのチューニングコスト等が含まれる。
 DNNの事業導入時にこのようなコストを抑えるための方法として、転移学習が提案されている。
 転移学習は、目的データセットとは異なるデータセット(転移元データセット)や学習済みモデルを流用し、少ないデータ又は計算時間で学習を行う技術である。
 また、転移学習には、ファインチューニング及びドメイン適応といった手法が含まれる。
 ファインチューニングは、転移元データセットでモデルを事前学習し、学習済みのパラメータを初期値として目的データセットの学習に使用する方法である。
 ドメイン適応は、転移元データセットと目的データセットを同じモデルで同時に学習し、転移元データセットの知識を用いながら目的データセットのタスクを解く方法である。
Kornblith, Simon, Jonathon Shlens, and Quoc V. Le. "Do Better ImageNet Models Transfer Better?." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019.
 しかしながら、従来の技術には、効率良く転移学習を実施できない場合があるという問題がある。従来の転移学習は、開発者の勘や経験に依存している部分が多く、転移元データセットの選別やパラメータのチューニング等に人手による作業が必要になる。
 転移学習に有効なデータセットは自明ではなく、目的データセットと転移元データセットとの関係(類似度)によって転移学習の結果は大きく変わる。例えば、ImageNet(大規模、大量)で事前学習したモデルは、目的データセットによっては事前学習していないモデルに劣る場合がある(例えば、非特許文献1を参照)。
 一方で、データセット間の類似度は一般的には不明であり、デファクトスタンダードとなるような指標は未だ登場していない。
 また、転移学習においては、目的データセット及び転移元データセットに合ったハイパーパラメータを選択する必要がある。一方で、深層学習モデルはハイパーパラメータが多く、転移学習時にもチューニングが必須となる。
 上述した課題を解決し、目的を達成するために、情報提供装置は、データセットから、前記データセットよりも低次元の特徴量を出力するモデルに、複数のデータセットを入力することにより複数の特徴量を抽出する特徴抽出部と、前記特徴抽出部によって抽出された複数の特徴量間の類似度を計算する類似度計算部と、を有し、前記モデルは、転移学習における転移元データセットを用いた、自己教師学習と、データセット分類学習とのマルチタスク学習によって学習済みのモデルであることを特徴とする。
 本発明によれば、効率良く転移学習を実施することができる。
図1は、第1の実施形態に係る情報提供装置の構成例を示す図である。 図2は、類似度の測定方法を説明する図である。 図3は、モデルの学習方法を説明する図である。 図4は、情報提供処理について説明する図である。 図5は、学習処理の流れを示すフローチャートである。 図6は、類似度測定処理の流れを示すフローチャートである。 図7は、情報提供処理の流れを示すフローチャートである。 図8-1は、実験の結果を示す図である。 図8-2は、実験の結果を示す図である。 図9-1は、実験の結果を示す図である。 図9-2は、実験の結果を示す図である。 図10-1は、評価結果を示す図である。 図10-2は、評価結果を示す図である。 図11は、情報提供プログラムを実行するコンピュータの一例を示す図である。
 以下に、本願に係る情報提供装置、情報提供方法及び情報提供プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
[第1の実施形態の構成]
 図1は、第1の実施形態に係る情報提供装置の構成例を示す図である。情報提供装置10は、データセット間の類似度を計算し、計算した類似度を基に情報を提供する。例えば、情報提供装置10は、転移学習における目的データセットに類似する転移元データセットを特定するための情報を提供する。
 また、情報提供装置10は、類似度を計算するためのモデルの学習処理を行う。情報提供装置10は、学習済みのモデルを使って類似度の計算を行ってもよいし、学習済みのモデルを他の装置等に提供してもよい。
 図1に示すように、情報提供装置10は、入出力部11、記憶部12及び制御部13を有する。
 入出力部11は、データの入出力を行うためのインタフェースである。例えば、入出力部11は、ネットワークを介して他の装置との間でデータ通信を行うためのNIC(Network Interface Card)等の通信インタフェースであってもよい。また、入出力部11は、マウス、キーボード等の入力装置、及びディスプレイ等の出力装置を接続するためのインタフェースであってもよい。
 記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部12は、情報提供装置10で実行されるOS(Operating System)や各種プログラムを記憶する。また、記憶部12は、モデル情報121を記憶する。
 モデル情報121は、モデルを構築するためのパラメータ等の情報であり、学習処理において適宜更新される。また、更新済みのモデル情報121は、入出力部11を介して他の装置等に出力されてもよい。
 制御部13は、情報提供装置10全体を制御する。制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部13は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部13は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部13は、特徴抽出部131、類似度計算部132、損失関数計算部133、更新部134、候補抽出部135及び提供部136を有する。
 特徴抽出部131は、データセットから、データセットよりも低次元の特徴量を出力するモデルに、複数のデータセットを入力することにより複数の特徴量を抽出する。
 類似度計算部132は、特徴抽出部131によって抽出された複数の特徴量間の類似度を計算する。
 図2を用いて、特徴抽出部131及び類似度計算部132による類似度の測定方法を説明する。図2は、類似度の測定方法を説明する図である。
 図2に示すように、特徴抽出部131は、モデルFを用いて、データセットA及びデータセットBから特徴量を抽出する。モデルFは、特徴抽出用の深層ニューラルネットワークである。
 データセットは、複数のデータサンプルを含む。また、特徴抽出部131は、データサンプルごとの特徴量を抽出する。
 図2の例では、データセットAはI個のデータサンプルx (ただし、iは0からIまでの整数)を含む。そして、特徴抽出部131は、データセットAから、I個のデータサンプルに対応する特徴量f を抽出する。
 ここで、DNNで使用するデータセットは高次元であるため、データセット同士の類似度を直接測定することは困難である。そこで、特徴抽出部131は、図2のようにデータセットを低次元化した特徴量を抽出する。例えば、f は、x よりも低次元である。
 さらに、特徴抽出部131は、抽出した特徴量を集約する。図2の例では、特徴抽出部131は、I個のデータサンプルに対応する特徴量f を1つの特徴量f´に集約している。
 このように、特徴抽出部131は、モデルによって出力された特徴量であって、データセットに含まれるデータサンプルごとの特徴量を、1つのデータサンプルの特徴量に集約することができる。例えば、特徴抽出部131は、複数のデータサンプルの各要素の平均及び分散等の統計量を集約後の特徴量とすることができる。
 そして、類似度計算部132は、特徴抽出部131によって集約された特徴量間の類似度を計算する。例えば、集約された特徴量f´とf´とがベクトルであれば、類似度計算部132は、ベクトルf´とベクトルf´との距離dABを類似度として計算する。類似度計算部132は、2-Wasserstein距離をベクトル間の距離として計算してもよい。
 また、特徴抽出部131は、転移学習における転移元データセットを用いて自己教師学習によって学習済みのモデルにより特徴量を抽出する。そして、類似度計算部132は、転移元データセットの特徴量と、転移学習における目的データセットの特徴量との類似度を計算する。
 損失関数計算部133は、モデルの学習のための損失関数を計算する。
 図3を用いて、モデルFの学習方法を説明する。図3は、モデルの学習方法を説明する図である。図3に示すxは、入力データである。Dは、データセット集合である。dは、データセットである。モデルFは、特徴抽出器(DNN)である。
 モデルFは、転移学習において目的データに類似する転移元データを特定する際に、目的データと複数の転移元データとの類似度を測定するために用いられる。
 その際、情報提供装置10は、転移元データセット群を用いて分類等の任意のタスクで事前にモデルFの学習を行っておくものとする。実施形態では、情報提供装置10は、事前学習タスク(例えば、自己教師学習)に、データセット分類タスク(データセット分類学習)を追加して、モデルFに対するマルチタスク学習を行う。モデルFは、転移学習における転移元データセットを用いた、自己教師学習と、データセット分類学習とのマルチタスク学習によって、学習済みのモデルである。
 また、情報提供装置10は、自己教師学習の手法として対照学習手法の1つであるMoCo(参考文献:He, Kaiming, et al. "Momentum contrast for unsupervised visual representation learning." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020.)を利用する。自己教師学習はアノテーションが不要であるため、複数のデータセットをまとめて扱いやすい。
 データセット分類タスクは、データセットごとにラベルを付与し、分類するタスクである。データセット分類タスクは、データセットのみで自動ラベリングが可能であるため、アノテーションが不要である。データセット分類タスクを追加することで、モデルFは、データセットごとの特徴を明示的に学習することができる。
 図3に示すように、損失関数計算部133は、複数のデータセットdの入力データxをモデルFに入力して得られた特徴量を基に、式(1)に示す事前学習タスクの損失関数(Self-supervised Loss)LSSLと、式(2)に示すデータセット分類タスクの損失関数(Dataset Classification Loss)LDCと、を計算する。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 式(1)の右辺のqは、クエリ画像から得られるモデルFの出力である。kは、クエリと同じ画像を拡張変換した正解キーから得られるモデルFの出力である。Kは、正解キーを含むキー画像の総数である。また、τは温度係数である。式(2)のCEは、クロスエントロピーである。ここで,cは入力xの特徴量F(x)を入力とするデータセット分類器(全結合ニューラルネットワーク)とする。yは、入力されたデータxのデータセットdに付与されたラベルを示す。
 ここで、Self-supervised Lossは、入力画像から2つの異なる画像変換によってクエリと正解キー画像を生成し、他の画像から得られたキーの集合の中からDNNを介して正しくクエリと正解キーの組み合わせを見つけるタスクの損失である。
 また、Dataset Classification Lossは、入力データxをモデルFに入力して得られた特徴量F(x)と、入力されたデータxのデータセットdに付与されたラベルyとの関係とを学習するために用いられる。
 損失関数計算部133は、式(3)を用いて、事前学習タスクの損失とデータセット分類タスクの損失との和である、LALLを計算する。
Figure JPOXMLDOC01-appb-M000003
 式(3)のαは、ハイパーパラメータである。
 更新部134は、損失関数LALLが最適化されるようにモデルFのパラメータを更新する。
 なお、モデルFのパラメータは、モデル情報121として記憶部12に格納される。更新部134は、モデル情報121を更新する。
 候補抽出部135及び提供部136は、目的データに類似する転移元データを特定する情報を提供することで、実際の転移学習を支援する。図4を用いて、情報提供処理について説明する。図4は、情報提供処理について説明する図である。
 図4のデータセットDは、目的データセットである。また、データセットDからDは、複数の転移元データセットである。
 類似度計算器(Similarity Calculator)は、学習済みのモデルFを使用する特徴抽出bう131及び類似度計算部132に相当する。
 このとき、類似度計算部132は、1つの目的データセット(D)と複数の転移元データセット(DからD)のぞれぞれとについて、特徴量間の類似度を計算する。
 そして、候補抽出部135は、計算された類似度を基に、目的データセットとの特徴量の類似度が所定の順位以上である転移元データセットを候補として抽出する。
 さらに、提供部136は、転移元データセットのうち、候補として抽出された転移元データセットを特定するための情報をユーザに提供する。
 図4の例では、候補抽出部135は、計算された類似度d0T、d1T、…、dNTを類似度が大きい順に並べたランキングを作成する。そして、例えば上位3つの類似度dNT、d1T、d0Tに相当する転移元データセットD、D、Dを抽出する。
 提供部136は、抽出された転移元データセットD、D、Dを、対応するハイパーパラメータH、H、Hとともにユーザに提供する。なお、各転移元データセットに対する最適なハイパーパラメータは、過去のモデル構築の過程においてグリッドサーチ等の手法により決定済みであるものとする。
 このように、複数まとめて提供される転移元データとハイパーパラメータの組み合わせは、転移学習においてまとめて利用されてもよい。
[第1の実施形態の処理]
 図5、図6及び図7に示すフローチャートを用いて、情報提供装置10による処理の流れを説明する。
 図5は、学習処理の流れを示すフローチャートである。図5に示すように、まず、情報提供装置10は、転移元データセット群から学習データを読み込む(ステップS101)。
 次に、情報提供装置10は、DNNモデルFによって学習データから特徴を抽出する(ステップS102)。
 ここで、情報提供装置10は、特徴空間上で事前学習タスクの損失関数LSSLを計算する(ステップS103)。情報提供装置10は、特徴空間上でデータセット分類タスクの損失関数LDCを計算する(ステップS104)。
 情報提供装置10は、事前学習タスクの損失とデータセット分類タスクの損失との和LALLを計算する(ステップS105)。
 そして、情報提供装置10は、損失関数の逆誤差伝搬法によりモデルFのパラメータを更新する(ステップS106)。
 このとき、最大学習ステップ数>学習ステップ数である場合(ステップS107、True)、情報提供装置10はステップS101に戻り処理を繰り返す。一方、最大学習ステップ数>学習ステップ数でない場合(ステップS107、False)、情報提供装置10は処理を終了する。
 図6は、類似度測定処理の流れを示すフローチャートである。図6に示すように、まず。情報提供装置10は、転移元データセットからデータサンプルを読み込む(ステップS201)。
 次に、情報提供装置10は、DNNモデルFによって転移元データサンプルから特徴を抽出する(ステップS202)。さらに、情報提供装置10は、転移元データサンプルごとの特徴ベクトルを単一の特徴ベクトル(例えば、平均又は分散)に集約する(ステップS203)。
 情報提供装置10は、目的データセットからデータサンプルを読み込む(ステップS204)。
 そして、情報提供装置10は、DNNモデルFによって目的データサンプルの特徴を抽出する(ステップS205)。さらに、情報提供装置10は、転移元データセットと同様に、目的データサンプルごとの特徴ベクトルを単一の特徴ベクトルに集約する(ステップS206)。
 情報提供装置10は、集約した目的データセット及び転移元データセットの特徴ベクトル間の類似度を、例えば2-Wasserstein距離により計算する(ステップS207)。
 図7は、情報提供処理の流れを示すフローチャートである。まず、情報提供装置10は、目的データセット及びN個の転移元データセットの類似度を計算する(ステップS301)。
 次に、情報提供装置10は、データセット類似度{diT で転移元データセットをソート(距離:昇順/スコア:降順)する(ステップS302)。そして、情報提供装置10は、ソートで得られたランキングのうちTop-Kの転移元データセットidを抽出(K≦N:任意の整数)(ステップS303)。
 ここで、情報提供装置10は、K個の転移元データセットidに紐づくデータセットとハイパーパラメータを読み込む(ステップS304)。そして、情報提供装置10は、ユーザがダウンロード可能なURI(Uniform Resource Identifier)を発行し、データセットとハイパーパラメータを出力する(ステップS305)。
[第1の実施形態の効果]
 これまで説明してきたように、特徴抽出部131は、データセットから、データセットよりも低次元の特徴量を出力するモデルに、複数のデータセットを入力することにより複数の特徴量を抽出する。類似度計算部132は、特徴抽出部131によって抽出された複数の特徴量間の類似度を計算する。
 このように、情報提供装置10は、データセット間の類似度を自動的に計算することができる。その結果、本実施形態によれば、類似するデータセットを特定することができるため、効率良く転移学習を実施することができる。
 特徴抽出部131は、モデルによって出力された特徴量であって、データセットに含まれるデータサンプルごとの特徴量を、1つのデータサンプルの特徴量に集約する。類似度計算部132は、特徴抽出部131によって集約された特徴量間の類似度を計算する。
 この結果、本実施形態によれば、特徴量間の距離を容易に計算できるようになる。
 特徴抽出部131は、転移学習における転移元データセットを用いて、学習済みのモデルにより特徴量を抽出する。モデルは、事前学習タスク(例えば、自己教師学習)に、データセット分類タスクを追加したマルチタスク学習によって学習が実行されたモデルである。類似度計算部132は、転移元データセットの特徴量と、転移学習における目的データセットの特徴量との類似度を計算する。
 このように、本実施形態ではアノテーションが不要な事前学習タスク(例えば、自己教師学習)に、データセット分類タスクを追加したマルチタスク学習により、類似度を測定するモデルの学習を効率良く行うことができる。本実施形態では、データセット分類ラベルはデータセット自体から得られるため、人間によるラベリングが不要である。また、本実施形態では、事前学習タスクに、データセット分類タスクを追加したマルチタスク学習を行うことで、データセットごとの特徴を明示的に学習することが可能になる。
 類似度計算部132は、1つの目的データセットと複数の転移元データセットのぞれぞれとについて、特徴量間の類似度を計算する。提供部136は、転移元データセットのうち、目的データセットとの特徴量の類似度が所定の順位以上である転移元データセットを特定するための情報をユーザに提供する。
 これにより、情報提供装置10は、目的データセットに類似する転移元データセットをユーザに推薦することができる。そのため、本実施形態によれば、効率良く転移学習を実施することができる。
[評価実験]
 上記の実施形態を実際に実施して行った評価実験について説明する。評価実験では、上記の実施形態を用いて、データセットの類似度による転移元データセット及びハイパーパラメータ(アーキテクチャ)の選択を行った。
 実験の設定は以下の通りである。
・データセット
 目的データセット:Oxford Pets(犬猫画像), Stanford Cars(車両画像)
 転移元データセット:FGVC-Aircraft(航空機画像), OxfordFlowers(草花画像), StanfordDogs(犬画像), Indoor67(内装画像), CUB-200-2011(鳥画像)
 ニューラルネットワークアーキテクチャ:ResNet-50
 自己教師学習タスク:MoCo(参考文献参照)
 評価項目は、転移元-目的データセット類似度と転移元データセットで事前学習した重みを選んだ際の目的タスクでの分類精度の相関関係である。
(実験1)
 図8-1及び図8-2に、データセット類似度による転移元データセットした実験1の結果を示す。図8-1及び図8-2は、実験の結果を示す図である。
 図8-1及び図8-2の例では、転移元データセットの全データを用いて特徴抽出器(モデルF)の学習を行った。そして、特徴抽出器を用いて目的-転移元データセットのデータセット類似度(2-Wasserstein距離(2WD, lower is better)を測定した。
 さらに、転移元データセットの学習済みモデルを用いて、Oxford Petsでファインチューニングしテスト精度を測定した。
 図8-1及び図8-2はデータセット類似度とテスト精度の相関を可視化した図である。図8-2は、事前学習タスクに、データセット分類タスクを追加して、マルチタスク学習を行ったモデル(MoCo v2 with Dataset Cls.)Fにおける実験結果である。比較のため、図8-1に、事前学習タスクのみで学習したモデル(自己教師学習モデル:MoCo v2)Dにおける実験結果を示す。
 モデルFを用いた場合、相関係数Rが-0.333であるのに対し(図8-1参照)、モデルFを用いた場合、相関係数Rが-0.797となり(図8-2参照)、モデルFよりも改善が確認できた。このため、モデルFを用いることで、モデルFを用いた場合よりも、より良いデータセットを選びやすくなっている。
(実験2)
 図9-1及び図9-2に、データセット類似度による転移元データセットした実験2の結果を示す。図9-1及び図9-2は、実験の結果を示す図である。
 図9-1及び図9-2の例では、転移元データセットの全データを用いて特徴抽出器(モデルF)の学習を行った。そして、特徴抽出器を用いて目的-転移元データセットのデータセット類似度(2-Wasserstein距離(2WD), lower is better)を測定した。
 さらに、転移元データセットの学習済みモデルを用いて、StanfordCarsでファインチューニングしテスト精度を測定した。
 図9-1及び図9-2の例はデータセット類似度とテスト精度の相関を可視化した図である。図9-2は、モデルFにおける実験結果である。比較のため、図9-1に、モデルDにおける実験結果を示す。
 モデルFを用いた場合、相関係数Rが+0.688であるのに対し(図9-1参照)、モデルFを用いた場合には、相関係数Rが-0.745となる(図9-2参照)。したがって、モデルFを用いることで、モデルFを用いた場合よりも、逆相関を改善し,正確に良いデータセットを選択可能となっている。
(評価1)
 モデルFによる5つのデータセットの特徴抽出後のベクトルを次元圧縮して可視化した結果を示す。図10-1及び図10-2は、評価結果を示す図である。
 図10-1は、モデルFによる特徴抽出後のベクトルの可視化結果である。図10-2は、モデルF(Dataset Cls. Enabled)による特徴抽出後のベクトルの可視化結果である。
 図10-1に示すように、モデルFでは、本来クラスタが5つ形成されるところ、クラスタC1,C2-1,C2-2,C3,C4,C5,C6の6つのクラスタが形成されてしまっている。このため、モデルFでは、データセットの特徴を捉えきれておらず、データセットごとの特徴抽出を十分に実行することができない場合があると考えられる。
 これに対し、図10-2に示すように、モデルFでは、クラスタC1,C2,C3,C4,C5,C6のクラスタが形成される。モデルFでは、形成されるクラスタの数が、データセットの数と一致している。このため、モデルFを用いた場合には、データセットごとの特徴を明確に抽出できていることを確認できた。したがって、モデルFを用いることによって、データセット類似度を大幅に改善することができる。
 したがって、モデルFの学習として、事前学習タスクに、データセット分類タスクを追加したマルチタスク学習を行うことで、よりデータセットごとの特徴を明確に抽出できていることを確認できた。
 したがって、実施形態に係る情報提供装置10によれば、性能の良いモデルを予測するために必要なデータセット間の関係を正確に推定することができる。その結果、本実施形態によれば、類似するデータセットを適切に特定することができるため、効率良く転移学習を実施することができる。
[システム構成等]
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。なお、プログラムは、CPUだけでなく、GPU等の他のプロセッサによって実行されてもよい。
 また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
 一実施形態として、情報提供装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の処理を実行する情報提供プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の情報提供プログラムを情報処理装置に実行させることにより、情報処理装置を情報提供装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
 また、情報提供装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の処理に関するサービスを提供するサーバ装置として実装することもできる。例えば、サーバ装置は、目的データセット及び複数の転移元データセットを入力とし、目的データセットと各転移元データセットとの類似度を出力とする類似度測定サービスを提供するサーバ装置として実装される。この場合、サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。
 図11は、情報提供プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
 メモリ1010は、ROM(Read Only Memory)1011及びRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
 ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、情報提供装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、情報提供装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
 また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
 なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
 10 情報提供装置
 11 入出力部
 12 記憶部
 121 モデル情報
 13 制御部
 131 特徴抽出部
 132 類似度計算部
 133 損失関数計算部
 134 更新部
 135 候補抽出部
 136 提供部

Claims (6)

  1.  データセットから、前記データセットよりも低次元の特徴量を出力するモデルに、複数のデータセットを入力することにより複数の特徴量を抽出する特徴抽出部と、
     前記特徴抽出部によって抽出された複数の特徴量間の類似度を計算する類似度計算部と、
     を有し、
     前記モデルは、転移学習における転移元データセットを用いた、自己教師学習と、データセット分類学習とのマルチタスク学習によって学習済みのモデルであることを特徴とする情報提供装置。
  2.  前記特徴抽出部は、前記モデルによって出力された特徴量であって、データセットに含まれるデータサンプルごとの特徴量を、1つのデータサンプルの特徴量に集約し、
     前記類似度計算部は、前記特徴抽出部によって集約された特徴量間の類似度を計算することを特徴とする請求項1に記載の情報提供装置。
  3.  前記類似度計算部は、前記転移元データセットの特徴量と、前記転移学習における目的データセットの特徴量との類似度を計算することを特徴とする請求項1に記載の情報提供装置。
  4.  ユーザに情報を提供する提供部をさらに有し、
     前記類似度計算部は、1つの目的データセットと複数の転移元データセットのぞれぞれとについて、特徴量間の類似度を計算し、
     前記提供部は、前記転移元データセットのうち、前記目的データセットとの特徴量の類似度が所定の順位以上である転移元データセットを特定するための情報をユーザに提供することを特徴とする請求項1に記載の情報提供装置。
  5.  情報提供装置によって実行される情報提供方法であって、
     データセットから、前記データセットよりも低次元の特徴量を出力するモデルに、複数のデータセットを入力することにより複数の特徴量を抽出する特徴抽出工程と、
     前記特徴抽出工程によって抽出された複数の特徴量間の類似度を計算する類似度計算工程と、
     を含み、
     前記モデルは、転移学習における転移元データセットを用いた、自己教師学習と、データセット分類学習とのマルチタスク学習によって学習済みのモデルであることを特徴とする情報提供方法。
  6.  コンピュータを、請求項1から4のいずれか1項に記載の情報提供装置として機能させるための情報提供プログラム。
PCT/JP2022/023020 2022-06-07 2022-06-07 情報提供装置、情報提供方法及び情報提供プログラム WO2023238258A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/023020 WO2023238258A1 (ja) 2022-06-07 2022-06-07 情報提供装置、情報提供方法及び情報提供プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/023020 WO2023238258A1 (ja) 2022-06-07 2022-06-07 情報提供装置、情報提供方法及び情報提供プログラム

Publications (1)

Publication Number Publication Date
WO2023238258A1 true WO2023238258A1 (ja) 2023-12-14

Family

ID=89117717

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/023020 WO2023238258A1 (ja) 2022-06-07 2022-06-07 情報提供装置、情報提供方法及び情報提供プログラム

Country Status (1)

Country Link
WO (1) WO2023238258A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126468A (ja) * 2019-02-05 2020-08-20 富士通株式会社 学習方法、学習プログラムおよび学習装置
WO2021059388A1 (ja) * 2019-09-25 2021-04-01 日本電信電話株式会社 学習装置、画像処理装置、学習方法及び学習プログラム
US11308353B2 (en) * 2019-10-23 2022-04-19 Adobe Inc. Classifying digital images in few-shot tasks based on neural networks trained using manifold mixup regularization and self-supervision

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126468A (ja) * 2019-02-05 2020-08-20 富士通株式会社 学習方法、学習プログラムおよび学習装置
WO2021059388A1 (ja) * 2019-09-25 2021-04-01 日本電信電話株式会社 学習装置、画像処理装置、学習方法及び学習プログラム
US11308353B2 (en) * 2019-10-23 2022-04-19 Adobe Inc. Classifying digital images in few-shot tasks based on neural networks trained using manifold mixup regularization and self-supervision

Similar Documents

Publication Publication Date Title
JP7343568B2 (ja) 機械学習のためのハイパーパラメータの識別および適用
Mohammadi et al. BDgraph: An R package for Bayesian structure learning in graphical models
Broderick et al. Combinatorial clustering and the beta negative binomial process
CN112528025A (zh) 基于密度的文本聚类方法、装置、设备及存储介质
Huang et al. SLNL: A novel method for gene selection and phenotype classification
CN113761218B (zh) 一种实体链接的方法、装置、设备及存储介质
CN116261731A (zh) 基于多跳注意力图神经网络的关系学习方法与系统
JP2012058972A (ja) 評価予測装置、評価予測方法、及びプログラム
CN110674636B (zh) 一种用电行为分析方法
CN109359180B (zh) 用户画像生成方法、装置、电子设备及计算机可读介质
CN112395487B (zh) 信息推荐方法、装置、计算机可读存储介质及电子设备
CN110909222A (zh) 基于聚类的用户画像建立方法、装置、介质及电子设备
US20220070266A1 (en) Systems and methods for estimating typed graphlets in large data
CN114219562A (zh) 模型的训练方法、企业信用评估方法和装置、设备、介质
Bezáková et al. Graph model selection using maximum likelihood
Chen et al. Multiple classifier integration for the prediction of protein structural classes
CN113377964A (zh) 知识图谱链接预测方法、装置、设备及存储介质
CN113066528B (zh) 基于主动半监督图神经网络的蛋白质分类方法
WO2023238258A1 (ja) 情報提供装置、情報提供方法及び情報提供プログラム
WO2022249415A1 (ja) 情報提供装置、情報提供方法及び情報提供プログラム
CN114610953A (zh) 一种数据分类方法、装置、设备及存储介质
CN113239203A (zh) 一种基于知识图谱的筛选方法及装置
Bompiani et al. High-performance computing with terastat
CN116679981B (zh) 一种基于迁移学习的软件系统配置调优方法及装置
CN113762298A (zh) 相似人群扩展方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22945765

Country of ref document: EP

Kind code of ref document: A1