WO2017183548A1 - 情報処理システム、情報処理方法、及び、記録媒体 - Google Patents

情報処理システム、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2017183548A1
WO2017183548A1 PCT/JP2017/015078 JP2017015078W WO2017183548A1 WO 2017183548 A1 WO2017183548 A1 WO 2017183548A1 JP 2017015078 W JP2017015078 W JP 2017015078W WO 2017183548 A1 WO2017183548 A1 WO 2017183548A1
Authority
WO
WIPO (PCT)
Prior art keywords
data set
performance
data
labeled
reference data
Prior art date
Application number
PCT/JP2017/015078
Other languages
English (en)
French (fr)
Inventor
シルバ ダニエル ゲオルグ アンドラーデ
細見 格
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2018513138A priority Critical patent/JP6763426B2/ja
Priority to US16/092,542 priority patent/US20190164078A1/en
Publication of WO2017183548A1 publication Critical patent/WO2017183548A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries

Definitions

  • the present invention relates to an information processing system, an information processing method, and a recording medium.
  • a classifier for classifying text and images learning is performed using learning data (Training Data) to which a label is attached.
  • learning data Training Data
  • the performance of the classifier improves as the number of labeled learning data increases.
  • increasing the number of labeled learning data leads to an increase in cost. Therefore, in order to obtain the desired performance, it is necessary to know how many data labels need to be assigned to the current number of labeled data.
  • active learning Active Learning
  • assigns labels annotates
  • Non-Patent Document 1 discloses a method for selecting an active learning algorithm having the maximum accuracy from a plurality of active learning algorithms. Yes.
  • Non-Patent Document 1 the improvement in the performance of the classifier is estimated based on the information of the data set (corpus) to be classified. For this reason, when the number of labeled data increases, the performance improvement amount can be predicted, but when the number of labeled data increases, there is a problem that it is difficult to accurately predict the performance improvement amount. For example, consider a case where there are 350 labeled data in the data set to be classified and the number of labeled data is increased to 1000. In this case, the technique of Non-Patent Document 1 cannot predict whether the accuracy of the classifier will increase according to the number of labeled data, or whether it will reach a certain value with a certain number.
  • An object of the present invention is to provide an information processing system, an information processing method, and a recording medium that can solve the above-described problems and can accurately predict the performance of a classifier with respect to the number of labeled data.
  • a classifier is learned from extraction means for extracting a reference data set similar to a target data set from one or more reference data sets, and labeled data of the target data set. And estimating means for estimating and outputting performance at the time using the extracted reference data set.
  • An information processing method is a performance obtained when a reference data set similar to a target data set is extracted from one or more reference data sets, and a classifier is learned with labeled data of the target data set. Is estimated and output using the extracted reference data set.
  • a computer-readable recording medium extracts a reference data set similar to a target data set from one or more reference data sets to a computer, and classifiers using the labeled data of the target data set.
  • a program for executing a process for estimating and outputting the performance when learning is performed using the extracted reference data set is stored.
  • the effect of the present invention is that the performance of the classifier with respect to the number of labeled data can be accurately predicted.
  • FIG. 2 is a block diagram showing the configuration of the learning system 100 in the embodiment of the present invention.
  • the learning system 100 is an embodiment of the information processing system of the present invention.
  • the learning system 100 includes a data set storage unit 110, an extraction unit 120, an estimation unit 130, a learning unit 140, and a classifier 150.
  • the data set storage unit 110 stores one or more data sets.
  • Data (hereinafter also referred to as an instance) is a classification target by the classifier 150, such as a document or text.
  • a data set is a set of one or more data.
  • the data set may be a corpus including one or more documents and texts. Further, the data may be data other than a document or text, such as an image, as long as it can be classified by the classifier 150.
  • the data set storage unit 110 also includes a data set (hereinafter, also referred to as a target data set) that is a target of performance (performance) estimation of the classifier 150, and a data set that is referred to in performance estimation (hereinafter referred to as a reference data set). Both are also stored.
  • m (m is an integer of 1 or more) data is labeled in the target data set.
  • the learning system 100 estimates the performance when the classifier 150 is learned with v (x is an integer of m ⁇ v) labeled data in the target data set.
  • v (x is an integer of m ⁇ v) labeled data in the target data set.
  • labels are given to n pieces of data (n is an integer satisfying v ⁇ n).
  • accuracy is used as an index representing the performance of the classifier 150.
  • other indexes such as relevance rate (Precision), recall rate (Recall), and F value (F-score) may be used as performance indexes.
  • the extraction unit 120 extracts a reference data set similar to the target data set from the reference data sets in the data set storage unit 110.
  • the target data set is D T
  • the target data set D T and the reference data set D i are The similarity is defined as s (D T , D i ).
  • the extraction unit 120 extracts a reference data set similar to the target data set D T according to Equation 1.
  • the similarity s (D T , D i ) for example, as shown below, the similarity of a performance curve (hereinafter also referred to as a learning curve or performance characteristic), the similarity of a feature vector, the ratio of a label, Similarity or the like is used.
  • a performance curve hereinafter also referred to as a learning curve or performance characteristic
  • the extracting unit 120 may use, for example, the similarity of the performance curve between the target data set D T and the reference data set D i as the similarity s (D T , D i ). Good.
  • the performance curve is a curve representing the performance of the classifier 150 with respect to the number of labeled data used for learning of the classifier 150.
  • FIG. 5 is a diagram showing an example of a performance curve in the embodiment of the present invention.
  • performance curves of the target data set D T and the reference data sets D 1 and D 2 are shown.
  • the similarity of the performance curve for example, the similarity between the gradient gradient D T of the curve and the gradients D 1 and D 2 when the number of labeled data is m or less is used, as shown in FIG.
  • the similarity s (D T , D i ) is defined by Equation 2, for example.
  • the similarity of the performance curve the similarity of the performance value in the number of labeled data m may be used.
  • the performance curve is generated by, for example, cross-validation using labeled data selected from the data set.
  • the leave-one-out method is used as the cross-validation, one piece of data is extracted from the selected k pieces of labeled data, and the remaining k-1 pieces of data are used for classification by the learning unit 140 described later.
  • the instrument 150 is learned. Then, the classification result of the extracted one data and the assigned label by the learned classifier 150 are verified. Such learning, classification, and verification are repeated k times while changing the data to be extracted, and the results are averaged to calculate the performance value for the number of labeled data k.
  • K-division cross-validation K-fold Cross-validation
  • the k labeled data in the generation of the performance curve is selected by the same method as the method for selecting the data to which the label is attached during the learning of the classifier 150 that is the target of performance estimation. That is, when data to be given a label at the time of learning is selected at random, k labeled data are also selected at random in generating a performance curve. In addition, when the data to be labeled at the time of learning is selected by active learning, k labeled data are selected according to the same active learning method in generating the performance curve. As an active learning method, Uncertainty Sampling using Least Confident, Margin Sampling, Entropy or the like as an index, Query-By-Committee, or the like is used. When using active learning, k ′ (k ′> k) labeled data is obtained by selecting k′ ⁇ k data in addition to the selected k data.
  • the extraction unit 120 uses a data group (similarity s (D T , D i )) with the same label between the target data set D T and the reference data set D i ( The similarity between the feature vectors of the data group for each label) may be used. For example, it is assumed that the label ⁇ A1, A2 ⁇ is assigned to the labeled data of the target data set D T and the label ⁇ B1, B2 ⁇ is assigned to the labeled data of the reference data set D i . In this case, the similarity s (D T , D i ) is defined by, for example, Equation 3.
  • D T_A1, D T_A2, among the data of the object data set D T, respectively, showing the label A1, A2 data group is granted.
  • D i_B1 and D i_B2 indicate data groups to which labels B1 and B2 are assigned , respectively, in the data of the reference data set D i .
  • su (D x , D y ) is the similarity between the data groups D x and D y , and is defined as in Equation 4.
  • hist (D) is a feature vector of the data group D and represents a distribution of appearance frequencies for each word in the data group D.
  • cos_sim is a cosine similarity between the hist (D x ) and the hist (D y ).
  • the extraction unit 120 uses the number of data with the same label between the target data set D T and the reference data set D i as the similarity s (D T , D i ) ( The similarity of the ratio of the number of data for each label) may be used. For example, when a positive example or a negative example for a certain class is indicated, a ratio between the number of data to which a positive example label is assigned and the number of data to which a negative example label is assigned is used.
  • the extraction unit 120 uses the same ratio of the number of data assigned the same label as the reference data set D i as the target data set D T.
  • a set that is substantially the same may be used.
  • the extraction unit 120 extracts labeled data from the original reference data set D i so that the ratio of the number of data assigned with the same label is the same as or substantially the same as the target data set D T.
  • a new reference data set Di is generated.
  • the extraction unit 120 extracts a reference data set similar to the target data set D T from the new reference data set D i .
  • the estimation unit 130 uses the reference data set extracted by the extraction unit 120, and the performance when the classifier 150 is learned with v (x is an integer of m ⁇ v) labeled data in the target data set. Is estimated.
  • the estimation unit 130 generates a performance curve f (k) up to the number m of labeled data of the target data set DT , for example, according to the method for generating the performance curve described above, and the performance value for the number m of labeled data Get f (m). Similarly, the estimation unit 130 generates performance curves g (k) (k ⁇ n) up to the number n of labeled data in the extracted reference data set according to the above-described performance curve generation method. Then, the estimation unit 130 generates an estimated performance curve f ′ (k) (m ⁇ k ⁇ n) of the target data set DT using Equation 5 and estimates the estimated performance value f ′ (v) for the labeled data number v. ) To get.
  • the estimation unit 130 outputs (displays) the performance estimation result (estimated performance value with respect to the number of labeled data v) to the user or the like via the output device 104.
  • the extraction unit 120 and the estimation unit 130 save the performance curves of the generated target data set D T and reference data set D i in a storage unit (not shown) together with the labeled data selection method used at the time of generation. May be. In this case, when the performance curve to be generated is already stored, the extraction unit 120 and the estimation unit 130 may perform similarity calculation and performance value estimation using the performance curve.
  • the learning unit 140 learns the classifier 150 for the target data set D T and the reference data set D i when the extraction unit 120 and the estimation unit 130 generate a performance curve as described above.
  • the user or the like designates the number of labeled data necessary to obtain a desired performance based on the performance estimation result, and instructs the classifier 150 to learn.
  • the learning unit 140 learns the classifier 150 using the number of labeled data specified by the user or the like included in the target data set DT .
  • the learning unit 140 learns the classifier 150 while selecting data to which a specified number of labels are assigned at random or by active learning.
  • Classifier 150 is trained on the labeled data included in the object data set D T and the reference data set D i, classifies the data of the object data set D T and the reference data set D i.
  • the learning system 100 may be a computer that includes a CPU (Central Processing Unit) and a storage medium that stores a program, and that operates according to control based on the program.
  • a CPU Central Processing Unit
  • a storage medium that stores a program, and that operates according to control based on the program.
  • FIG. 3 is a block diagram showing a configuration of a learning system 100 realized by a computer according to the embodiment of the present invention.
  • the learning system 100 includes a CPU 101, a storage device 102 (storage medium) such as a hard disk and a memory, an input device 103 such as a keyboard, an output device 104 such as a display, and a communication device 105 that communicates with other devices.
  • the CPU 101 executes a program for realizing the extraction unit 120, the estimation unit 130, the learning unit 140, and the classifier 150.
  • the storage device 102 stores data (data set) in the data set storage unit 110.
  • the input device 103 receives an input of performance estimation, a learning instruction, and a label to be added to data from a user or the like.
  • the output device 104 outputs (displays) the performance estimation result to a user or the like.
  • the communication device 105 may receive performance estimation, a learning instruction, and a label from another device or the like. Further, the communication device 105 may output the performance estimation result to another device or the like. Further, the communication device 105 may receive a target data set and a reference data set from another device or the like.
  • some or all of the components of the learning system 100 may be realized by general-purpose or dedicated circuits (Circuitry), processors, or combinations thereof. These may be configured by a single chip or may be configured by a plurality of chips connected via a bus. Moreover, a part or all of each component may be realized by a combination of the above-described circuit and the like and a program.
  • the plurality of computers, circuits, etc. may be centrally arranged or distributedly arranged.
  • a plurality of computers, circuits, and the like may be realized as a form in which each is connected via a communication network, such as a client and server system or a cloud computing system.
  • FIG. 4 is a flowchart showing the operation of the learning system 100 in the embodiment of the present invention.
  • the learning system 100 receives a performance estimation instruction from a user or the like (step S101).
  • the learning system 100 receives an input of the identifier of the target data set and the number v of labeled data for estimating performance.
  • the extraction unit 120 of the learning system 100 extracts a reference data set similar to the target data set from the reference data sets in the data set storage unit 110 (step S102).
  • the estimation unit 130 uses the reference data set extracted by the extraction unit 120 to estimate the performance when the classifier 150 is learned with the labeled learning data of the target data set (step S103). Here, the estimation unit 130 estimates the performance when the classifier 150 is learned using v labeled learning data.
  • the estimation unit 130 outputs (displays) the performance estimation result of the classifier 150 to the user or the like through the output device 104 (step S104).
  • the extraction unit 120 extracts a reference data set similar to the target data set D T using, for example, the similarity s (D T , D i ) defined by Equation (6).
  • estimation part 130 produces
  • FIG. 6 is a diagram showing a specific example of performance estimation in the embodiment of the present invention.
  • the data set storage unit 110 the target data set D T, and, a case for storing reference data set D 1, D 2 as an example.
  • the number m of labeled data in the target data set DT is 350, and the number v of labeled data whose performance is estimated is 1000.
  • the number n of labeled data in the reference data sets D 1 and D 2 is also 1000.
  • the learning by the classifier 150 for the target data set DT uses active learning by Uncertainty Sampling using Entropy as an index.
  • the extraction unit 120 When using the similarity of the performance curve as the similarity s (D T , D i ), the extraction unit 120, as shown in FIG. 5, performs the performance curve f () of the target data set D T up to the number m of labeled data. k) and the performance curve g (k) of the reference data sets D 1 and D 2 are generated.
  • the extraction unit 120 selects labeled data by Uncertainty Sampling using Entropy, and generates a performance curve.
  • the extracting unit 120 as shown in FIG. 6 calculates the inclination GradientD T and gradientD 1, D 2, and calculates the similarity s (D T, D i) .
  • the extraction unit 120 extracts the reference data set D 1 having a large similarity s (D T , D i ) as a reference data set similar to the target data set D T.
  • FIG. 7 is a diagram showing an example of the output screen of the performance estimation result in the embodiment of the present invention.
  • the performance curve f (k) and the estimated performance curve f ′ (k) of the target data set DT and the estimated performance value (estimated accuracy) f ′ (v ) 0.76.
  • the estimation unit 130 outputs the output screen of FIG.
  • FIG. 1 is a block diagram showing a characteristic configuration of an embodiment of the present invention.
  • the learning system 100 includes an extraction unit 120 and an estimation unit 130.
  • the extraction unit 120 extracts a reference data set similar to the target data set from one or more reference data sets.
  • the estimation unit 130 estimates and outputs the performance when the classifier 150 is learned with the labeled data of the target data set using the extracted reference data set.
  • the performance of the classifier with respect to the number of labeled data can be accurately predicted.
  • the reason is that the extraction unit 120 extracts a reference data set similar to the target data set, and the estimation unit 130 extracts the performance when the classifier 150 is learned with the labeled data of the target data set. This is because the estimation is performed using the reference data set.
  • the estimation unit 130 estimates the performance of the classifier 150 as follows. That is, the estimation unit 130 performs the performance characteristic on the first number of labeled data numbers related to the target data set and the number of labeled data numbers from the first number to the second number related to the extracted reference data set. Use performance characteristics. Then, the estimation unit 130 uses these performance characteristics to estimate the performance when the classifier 150 is learned with the second number of labeled data in the target data set.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Fuzzy Systems (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

ラベル付きデータ数に対する分類器の性能を正確に予測する。 学習システム100は、抽出部120、及び、推定部130を含む。抽出部120は、1以上の参照データ集合から、対象データ集合と類似する参照データ集合を抽出する。推定部130は、対象データ集合のラベル付きデータで分類器が学習されたときの性能を、抽出された参照データ集合を用いて推定し、出力する。

Description

情報処理システム、情報処理方法、及び、記録媒体
 本発明は、情報処理システム、情報処理方法、及び、記録媒体に関する。
 テキストや画像を分類するための分類器(Classifier)では、ラベルが付与された学習データ(Training Data)を用いて学習が行われる。一般に、ラベル付き学習データの数が多いほど、分類器の性能が改善されることが知られている。しかしながら、このようなラベルは、例えば人により付与されるため、ラベル付き学習データの数を増やすことはコストの増加につながる。このため、所望の性能を得るために、現在のラベル付きデータ数に対して、さらに、いくつのデータにラベルを付与する必要があるかを知る必要がある。特に、分類器の性能向上が期待できるようなデータを選択しながらラベルを付与する(アノテーションを行う)能動学習(Active Learning)では、アノテーションの継続を判断するために、ラベル付きデータの増加数に対する分類器の性能の改善量を知る必要がある。
 このような、分類器の性能の改善量の推定に係る技術として、非特許文献1には、複数の能動学習アルゴリズムの中から、精度が最大となる能動学習アルゴリズムを選択する方法が開示されている。
Yoram Baram, et al., "Online Choice of Active Learning Algorithms", Proceedings of the Twentieth International Conference on Machine Learning (ICML-2003), 2003.
 しかしながら、上述の非特許文献1に記載された技術においては、分類対象のデータ集合(コーパス)の情報をもとに、分類器の性能の改善量を推定している。このため、ラベル付きデータの増加数が少ない場合には性能の改善量を予測できるが、ラベル付きデータの増加数が多い場合は性能の改善量を正確に予測することが難しいという問題がある。例えば、分類対象のデータ集合に350個のラベル付きデータがあり、さらに、ラベル付きデータを1000個まで増やす場合を考える。この場合、非特許文献1の技術では、分類器の精度がラベル付きデータの数に応じて大きくなるのか、ある程度の数で一定の値に達するのかを予測できない。
 本発明の目的は、上述の課題を解決し、ラベル付きデータ数に対する分類器の性能を正確に予測できる、情報処理システム、情報処理方法、及び、記録媒体を提供することである。
 本発明の一態様における情報処理システムは、1以上の参照データ集合から、対象データ集合と類似する参照データ集合を抽出する、抽出手段と、前記対象データ集合のラベル付きデータで分類器が学習されたときの性能を、前記抽出された参照データ集合を用いて推定し、出力する、推定手段と、を備える。
 本発明の一態様における情報処理方法は、1以上の参照データ集合から、対象データ集合と類似する参照データ集合を抽出し、前記対象データ集合のラベル付きデータで分類器が学習されたときの性能を、前記抽出された参照データ集合を用いて推定し、出力する。
 本発明の一態様におけるコンピュータが読み取り可能な記録媒体は、コンピュータに、1以上の参照データ集合から、対象データ集合と類似する参照データ集合を抽出し、前記対象データ集合のラベル付きデータで分類器が学習されたときの性能を、前記抽出された参照データ集合を用いて推定し、出力する、処理を実行させるプログラムを格納する。
 本発明の効果は、ラベル付きデータ数に対する分類器の性能を正確に予測できることである。
本発明の実施形態の特徴的な構成を示すブロック図である。 本発明の実施の形態における、学習システム100の構成を示すブロック図である。 本発明の実施の形態における、コンピュータにより実現された学習システム100の構成を示すブロック図である。 本発明の実施の形態における、学習システム100の動作を示すフローチャートである。 本発明の実施の形態における、性能曲線の例を示す図である。 本発明の実施の形態における、性能推定の具体例を示す図である。 本発明の実施の形態における、性能の推定結果の出力画面の例を示す図である。
 本発明の実施の形態について説明する。
 はじめに、本発明の実施の形態の構成を説明する。図2は、本発明の実施の形態における、学習システム100の構成を示すブロック図である。学習システム100は、本発明の情報処理システムの一実施形態である。図2を参照すると、学習システム100は、データ集合記憶部110、抽出部120、推定部130、学習部140、及び、分類器150を含む。
 データ集合記憶部110は、1以上のデータ集合を記憶する。データ(以下、インスタンスとも記載)は、例えば、文書やテキスト等、分類器150による分類対象である。データ集合は、1以上のデータからなる集合である。また、データ集合は、1以上の文書やテキストを含むコーパス(Corpus)でもよい。また、データは、分類器150により分類できれば、画像等、文書やテキスト以外のデータでもよい。また、データ集合記憶部110は、分類器150の性能(Performance)推定の対象であるデータ集合(以下、対象データ集合とも記載)、及び、性能推定において参照されるデータ集合(以下、参照データ集合とも記載)を記憶する。
 本発明の実施の形態では、対象データ集合において、m個(mは1以上の整数)のデータにラベルが付与されていると仮定する。また、学習システム100は、対象データ集合のv個(vは、m<vの整数)のラベル付きデータで分類器150が学習されたときの性能を推定すると仮定する。さらに、参照データ集合において、n個(nは、v≦nの整数)のデータにラベルが付与されていると仮定する。
 また、本発明の実施の形態では、分類器150の性能を表す指標として、精度(Accuracy)を用いる。なお、分類器150の性能を表すことができれば、性能を表す指標として、適合率(Precision)や再現率(Recall)、F値(F-score)等、他の指標を用いてもよい。
 抽出部120は、データ集合記憶部110の参照データ集合の内、対象データ集合と類似する参照データ集合を抽出する。
 ここで、対象データ集合をD、参照データ集合をD(i=1,2,…,N)(Nは参照データ集合の数)、対象データ集合Dと参照データ集合Dとの類似度をs(D,D)と定義する。この場合、抽出部120は、数1式に従って、対象データ集合Dと類似する参照データ集合を抽出する。
Figure JPOXMLDOC01-appb-M000001
 類似度s(D,D)としては、例えば、以下に示すように、性能曲線(以下、学習曲線や性能特性とも記載する)の類似度や、特徴ベクトルの類似度、ラベルの比率の類似度等が用いられる。
 1)性能曲線の類似度
 抽出部120は、類似度s(D,D)として、例えば、対象データ集合Dと参照データ集合Dとの間の性能曲線の類似度を用いてもよい。性能曲線は、分類器150の学習に用いるラベル付きデータの数に対する、当該分類器150の性能を表す曲線である。
 図5は、本発明の実施の形態における、性能曲線の例を示す図である。図5では、対象データ集合D、及び、参照データ集合D、Dの性能曲線が示されている。
 性能曲線の類似度として、例えば、図5に示すような、ラベル付きデータ数がm以下における曲線の傾きgradientDとgradientD、Dとの類似度が用いられる。この場合、類似度s(D,D)は、例えば、数2式により定義される。
Figure JPOXMLDOC01-appb-M000002
 また、性能曲線の類似度として、ラベル付きデータ数mにおける性能値の類似度が用いられてもよい。
 性能曲線は、例えば、データ集合から選択されたラベル付きデータを用いた交差検証(Cross-validation)により生成される。交差検証としてLeave-one-out法を用いる場合、選択されたk個のラベル付きデータから1個のデータが抽出され、残りのk-1個のデータを用いて、後述する学習部140により分類器150が学習される。そして、学習された分類器150による、抽出した1個のデータの分類結果と、付与されているラベルとが検証される。このような学習、分類、及び、検証を、抽出するデータを変えながらk回繰り返し、結果を平均することで、ラベル付きデータ数kに対する性能値が算出される。なお、交差検証として、Leave-one-out法以外のK-分割交差検証(K-fold Cross-validation)が用いられてもよい。
 性能曲線の生成におけるk個のラベル付きデータは、性能推定の対象である分類器150の学習時にラベルを付与するデータを選択する方法と同じ方法で選択される。すなわち、学習時にラベルを付与すべきデータがランダムに選択される場合、性能曲線の生成においても、k個のラベル付きデータがランダムに選択される。また、学習時にラベルを付与すべきデータが能動学習により選択される場合、性能曲線の生成においても、k個のラベル付きデータが同じ能動学習の方式に従って選択される。能動学習の方式としては、指標にLeast ConfidentやMargin Sampling、Entropy等を用いるUncertainty Samplingや、Query-By-Committee等が用いられる。能動学習を用いる場合、k’(k’>k)個のラベル付きデータは、選択済みのk個のデータに加えて、k’-k個のデータを選択することにより取得される。
 2)特徴ベクトル間の類似度
 抽出部120は、類似度s(D,D)として、対象データ集合Dと参照データ集合Dとの間の、同じラベルが付与されたデータ群(ラベルごとのデータ群)の特徴ベクトル間の類似度を用いてもよい。例えば、対象データ集合Dのラベル付きデータにラベル{A1,A2}が付与され、参照データ集合Dのラベル付きデータにラベル{B1,B2}が付与されていると仮定する。この場合、類似度s(D,D)は、例えば、数3式により定義される。
Figure JPOXMLDOC01-appb-M000003
 ここで、DT_A1、DT_A2は、対象データ集合Dのデータの内、それぞれ、ラベルA1、A2が付与されたデータ群を示す。同様に、Di_B1、Di_B2は、参照データ集合Dのデータの内、それぞれ、ラベルB1、B2が付与されたデータ群を示す。su(Dx、Dy)は、データ群DxとDyの類似度であり、数4式のように定義される。
Figure JPOXMLDOC01-appb-M000004
 ここで、hist(D)は、データ群Dの特徴ベクトルであり、データ群Dおける単語ごとの出現頻度の分布を表す。また、cos_sim(hist(Dx),hist(Dy))は、hist(Dx)とhist(Dy)とのコサイン類似度である。
 3)ラベルの比率の類似度
 抽出部120は、類似度s(D,D)として、対象データ集合Dと参照データ集合Dとの間の、同じラベルが付与されたデータ数(ラベルごとのデータ数)の比率の類似度を用いてもよい。例えば、ラベルがある特定のクラスに対する正例または負例を示す場合、正例のラベルが付与されたデータ数と負例のラベルが付与されたデータ数との比率が用いられる。
 なお、上述のような性能曲線や特徴ベクトルの類似度を用いる場合も、抽出部120は、参照データ集合Dとして、同じラベルが付与されたデータ数の比率が、対象データ集合Dと同一または略同一であるような集合を用いてもよい。この場合、抽出部120は、元の参照データ集合Dから、同じラベルが付与されたデータ数の比率が、対象データ集合Dと同一または略同一となるように、ラベル付きデータを抽出することにより、新たな参照データ集合Dを生成する。そして、抽出部120は、当該新たな参照データ集合Dから、対象データ集合Dと類似する参照データ集合を抽出する。
 推定部130は、抽出部120により抽出された参照データ集合を用いて、対象データ集合のv個(vは、m<vの整数)のラベル付きデータで分類器150が学習されたときの性能を推定する。
 ここで、推定部130は、例えば、上述の性能曲線の生成方法に従って、対象データ集合Dのラベル付きデータ数mまでの性能曲線f(k)を生成し、ラベル付きデータ数mに対する性能値f(m)を取得する。同様に、推定部130は、上述の性能曲線の生成方法に従って、抽出された参照データ集合のラベル付きデータ数nまでの性能曲線g(k)(k≦n)を生成する。そして、推定部130は、数5式により、対象データ集合Dの推定性能曲線f’(k)(m≦k≦n)を生成し、ラベル付きデータ数vに対する推定性能値f’(v)を取得する。
Figure JPOXMLDOC01-appb-M000005
 推定部130は、性能の推定結果(ラベル付きデータ数vに対する推定性能値)を、出力デバイス104を介して、ユーザ等へ出力(表示)する。
 なお、抽出部120や推定部130は、生成した対象データ集合Dや参照データ集合Dの性能曲線を、生成時に用いたラベル付きデータの選択方法とともに、記憶部(図示せず)に保存してもよい。この場合、抽出部120や推定部130は、生成すべき性能曲線が既に保存されている場合は、当該性能曲線を用いて、類似度の算出や性能値の推定を行ってもよい。
 学習部140は、上述のように抽出部120や推定部130が性能曲線を生成する場合に、対象データ集合Dや参照データ集合Dに対する分類器150の学習を行う。また、ユーザ等は、性能の推定結果をもとに、所望の性能を得るために必要なラベル付きデータ数を指定して、分類器150の学習を指示する。学習部140は、対象データ集合Dに含まれる、ユーザ等から指定された数のラベル付きデータを用いて、分類器150を学習する。ここで、学習部140は、指定された数のラベルを付与するデータを、ランダム、または、能動学習により選択しながら、分類器150を学習する。
 分類器150は、対象データ集合Dや参照データ集合Dに含まれるラベル付きデータで学習され、対象データ集合Dや参照データ集合Dのデータを分類する。
 なお、学習システム100は、CPU(Central Processing Unit)とプログラムを記憶した記憶媒体を含み、プログラムにもとづく制御によって動作するコンピュータであってもよい。
 図3は、本発明の実施の形態における、コンピュータにより実現された学習システム100の構成を示すブロック図である。
 この場合、学習システム100は、CPU101、ハードディスクやメモリ等の記憶デバイス102(記憶媒体)、キーボード等の入力デバイス103、ディスプレイ等の出力デバイス104、及び、他の装置等と通信を行う通信デバイス105を含む。CPU101は、抽出部120、推定部130、学習部140、及び、分類器150を実現するためのプログラムを実行する。記憶デバイス102は、データ集合記憶部110のデータ(データ集合)を記憶する。入力デバイス103は、ユーザ等から、性能推定や学習の指示、データに付与するラベルの入力を受け付ける。出力デバイス104は、ユーザ等へ、性能の推定結果を出力(表示)する。また、通信デバイス105が、他の装置等から性能推定や学習の指示、ラベルを受信してもよい。また、通信デバイス105が、他の装置等へ、性能の推定結果を出力してもよい。また、通信デバイス105は、他の装置等から対象データ集合や参照データ集合を受信してもよい。
 また、学習システム100の各構成要素の一部又は全部は、汎用または専用の回路(Circuitry)、プロセッサ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。また、各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
 さらに、学習システム100の各構成要素の一部又は全部が複数のコンピュータや回路等により実現される場合は、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、複数のコンピュータや回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
 次に、本発明の実施の形態の動作を説明する。
 図4は、本発明の実施の形態における、学習システム100の動作を示すフローチャートである。
 はじめに、学習システム100は、ユーザ等から、性能推定の指示を受け付ける(ステップS101)。ここで、学習システム100は、対象データ集合の識別子、及び、性能を推定するラベル付きデータの数vの入力を受け付ける。
 学習システム100の抽出部120は、データ集合記憶部110の参照データ集合の内、対象データ集合と類似する参照データ集合を抽出する(ステップS102)。
 推定部130は、抽出部120により抽出された参照データ集合を用いて、対象データ集合のラベル付学習データで分類器150が学習されたときの性能を推定する(ステップS103)。ここで、推定部130は、v個のラベル付学習データで分類器150が学習されたときの性能を推定する。
 推定部130は、分類器150の性能の推定結果を、出力デバイス104を通して、ユーザ等へ出力(表示)する(ステップS104)。
 以上により、本発明の実施の形態の動作が完了する。
 なお、本発明の実施の形態では、対象データ集合にm個のラベル付きデータがあるときに、ラベル付きデータ数をvに増やした場合の性能を推定した。しかしながら、これに限らず、対象データ集合にラベル付きデータが無いときに、ラベル付きデータ数をvにした場合の性能を推定してもよい。この場合、抽出部120は、例えば、数6式により定義される類似度s(D,D)を用いて、対象データ集合Dと類似する参照データ集合を抽出する。
Figure JPOXMLDOC01-appb-M000006
 そして、推定部130は、抽出部120により抽出された参照データ集合を用いて、当該参照データ集合の性能曲線g(k)を生成し、g(v)をラベル付きデータ数vに対する推定性能値として取得する。
 次に、本発明の実施の形態の具体例を説明する。図6は、本発明の実施の形態における、性能推定の具体例を示す図である。ここでは、データ集合記憶部110が対象データ集合D、及び、参照データ集合D、Dを記憶している場合を例に説明する。対象データ集合Dにおけるラベル付きデータの数mは350であり、性能を推定するラベル付きデータの数vは1000である。また、参照データ集合D、Dにおけるラベル付きデータの数nも1000である。また、対象データ集合Dに対する分類器150の学習には、指標としてEntropyを用いたUncertainty Samplingによる能動学習が用いられると仮定する。
 類似度s(D,D)として性能曲線の類似度を用いる場合、抽出部120は、図5に示すように、ラベル付きデータの数mまでの対象データ集合Dの性能曲線f(k)、及び、参照データ集合D、Dの性能曲線g(k)を生成する。ここで、抽出部120は、Entropyを用いたUncertainty Samplingにより、ラベル付きデータを選択し、性能曲線を生成する。そして、抽出部120は、図6に示すように、傾きgradientDとgradientD、Dを算出し、類似度s(D,D)を算出する。抽出部120は、類似度s(D,D)が大きい参照データ集合Dを、対象データ集合Dと類似する参照データ集合として抽出する。
 さらに、推定部130は、図5に示すように、参照データ集合Dの性能曲線g(k)を生成し、対象データ集合Dの推定性能曲線f’(k)を生成する。そして、推定部130は、図6に示すように、対象データ集合Dのラベル付きデータ数vに対する推定性能値(推定精度)f’(v)=0.76を算出する。
 図7は、本発明の実施の形態における、性能の推定結果の出力画面の例を示す図である。図7の例では、対象データ集合Dの性能曲線f(k)、及び、推定性能曲線f’(k)と、ラベル付きデータ数v=1000に対する推定性能値(推定精度)f’(v)=0.76と、が示されている。推定部130は、例えば、図7の出力画面を出力する。
 次に、本発明の実施の形態の特徴的な構成を説明する。
 図1は、本発明の実施形態の特徴的な構成を示すブロック図である。図1を参照すると、学習システム100は、抽出部120、及び、推定部130を含む。抽出部120は、1以上の参照データ集合から、対象データ集合と類似する参照データ集合を抽出する。推定部130は、対象データ集合のラベル付きデータで分類器150が学習されたときの性能を、抽出された参照データ集合を用いて推定し、出力する。
 次に、本発明の実施の形態の効果を説明する。
 本発明の実施の形態によれば、ラベル付きデータ数に対する分類器の性能を正確に予測できる。その理由は、抽出部120が、対象データ集合と類似する参照データ集合を抽出し、推定部130が、対象データ集合のラベル付きデータで分類器150が学習されたときの性能を、抽出された参照データ集合を用いて推定するためである。
 また、本発明の実施の形態によれば、ラベル付きデータの増加数が多い場合の分類器の性能の改善量を正確に予測できる。その理由は、推定部130が、以下のように、分類器150の性能を推定するためである。すなわち、推定部130は、対象データ集合に係る第1の数のラベル付きデータ数に対する性能特性と、抽出された参照データ集合に係る第1の数から第2の数までのラベル付きデータ数に対する性能特性とを用いる。そして、推定部130は、これらの性能特性を用いて、対象データ集合の第2の数のラベル付きデータで分類器150が学習されたときの性能を推定する。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細に対しては、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2016年4月22日に出願された日本出願特願2016-085795を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 100  学習システム
 101  CPU
 102  記憶デバイス
 103  入力デバイス
 104  出力デバイス
 105  通信デバイス
 110  データ集合記憶部
 120  抽出部
 130  推定部
 140  学習部
 150  分類器

Claims (9)

  1.  1以上の参照データ集合から、対象データ集合と類似する参照データ集合を抽出する、抽出手段と、
     前記対象データ集合のラベル付きデータで分類器が学習されたときの性能を、前記抽出された参照データ集合を用いて推定し、出力する、推定手段と、
     を備える情報処理システム。
  2.  前記推定手段は、前記抽出された参照データ集合のラベル付きデータで前記分類器が学習されたときのラベル付きデータ数に対する性能を表す性能特性を用いて、前記対象データ集合のラベル付きデータで前記分類器が学習されたときの性能を推定する、
     請求項1に記載の情報処理システム。
  3.  前記対象データ集合は、第1の数のラベル付きデータを含み、前記1以上の参照データ集合の各々は、前記第1の数より大きな第2の数のラベル付きデータを含み、
     前記対象データ集合に係る性能特性により得られる、前記対象データ集合の前記第1の数のラベル付きデータで前記分類器が学習されたときの性能、及び、前記抽出された参照データ集合に係る性能特性により得られる、前記抽出された参照データ集合の前記第1の数のラベル付きデータで前記分類器が学習されたときの性能と前記第2の数のラベル付きデータで前記分類器が学習されたときの性能、を用いて、前記対象データ集合の前記第2の数のラベル付きデータで前記分類器が学習されたときの性能を推定する、
     請求項2に記載の情報処理システム。
  4.  前記抽出手段は、前記対象データ集合のラベル付きデータ数に対する性能特性と、前記1以上の参照データ集合の各々のラベル付きデータ数に対する性能特性と、の類似度をもとに、前記対象データ集合と類似する参照データ集合を抽出する、
     請求項1乃至3のいずれかに記載の情報処理システム。
  5.  前記抽出手段は、前記対象データ集合のラベルごとのデータ群の特徴ベクトルと、前記1以上の参照データ集合の各々のラベルごとのデータ群の特徴ベクトルと、の類似度をもとに、前記対象データ集合と類似する参照データ集合を抽出する、
     請求項1乃至3のいずれかに記載の情報処理システム。
  6.  前記抽出手段は、前記1以上の参照データ集合の各々から、ラベルごとのデータ数の比率が、前記対象データ集合のラベルごとのデータ数の比率と同一または略同一となるようにラベル付きデータを抽出することにより、1以上の新たな参照データ集合を生成し、当該1以上の新たな参照データ集合から、前記対象データ集合と類似する参照データ集合を抽出する、
     請求項1乃至5のいずれかに記載の情報処理システム。
  7.  前記抽出手段は、前記対象データ集合のラベルごとのデータ数の比率と、前記1以上の参照データ集合の各々のラベルごとのデータ数の比率と、の類似度をもとに、前記対象データ集合と類似する参照データ集合を抽出する、
     請求項1乃至3のいずれかに記載の情報処理システム。
  8.  1以上の参照データ集合から、対象データ集合と類似する参照データ集合を抽出し、
     前記対象データ集合のラベル付きデータで分類器が学習されたときの性能を、前記抽出された参照データ集合を用いて推定し、出力する、
     情報処理方法。
  9.  コンピュータに、
     1以上の参照データ集合から、対象データ集合と類似する参照データ集合を抽出し、
     前記対象データ集合のラベル付きデータで分類器が学習されたときの性能を、前記抽出された参照データ集合を用いて推定し、出力する、
     処理を実行させるプログラム
     を格納する、コンピュータが読み取り可能な記録媒体。
PCT/JP2017/015078 2016-04-22 2017-04-13 情報処理システム、情報処理方法、及び、記録媒体 WO2017183548A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018513138A JP6763426B2 (ja) 2016-04-22 2017-04-13 情報処理システム、情報処理方法、及び、プログラム
US16/092,542 US20190164078A1 (en) 2016-04-22 2017-04-13 Information processing system, information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-085795 2016-04-22
JP2016085795 2016-04-22

Publications (1)

Publication Number Publication Date
WO2017183548A1 true WO2017183548A1 (ja) 2017-10-26

Family

ID=60116461

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/015078 WO2017183548A1 (ja) 2016-04-22 2017-04-13 情報処理システム、情報処理方法、及び、記録媒体

Country Status (3)

Country Link
US (1) US20190164078A1 (ja)
JP (1) JP6763426B2 (ja)
WO (1) WO2017183548A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021049365A1 (ja) * 2019-09-11 2021-03-18 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022024315A1 (ja) * 2020-07-30 2022-02-03 富士通株式会社 精度推定プログラム、装置、及び方法
JP2022113712A (ja) * 2018-10-17 2022-08-04 オムロン株式会社 センサシステム
JP7202757B1 (ja) * 2022-06-29 2023-01-12 株式会社Sphia 情報処理システム、情報処理方法およびプログラム
JP7501151B2 (ja) 2019-09-06 2024-06-18 富士通株式会社 モデルの正確性及びロバスト性の推定方法及びその装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113836345A (zh) * 2020-06-23 2021-12-24 索尼公司 信息处理设备、信息处理方法以及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005524131A (ja) * 2002-03-28 2005-08-11 エクサゲン ダイアグノスティックス インコーポレーティッド クラシファイアの性能の見積りに関する方法および装置
US20060074828A1 (en) * 2004-09-14 2006-04-06 Heumann John M Methods and apparatus for detecting temporal process variation and for managing and predicting performance of automatic classifiers

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6066086B2 (ja) * 2011-02-28 2017-01-25 日本電気株式会社 データ判別装置、方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005524131A (ja) * 2002-03-28 2005-08-11 エクサゲン ダイアグノスティックス インコーポレーティッド クラシファイアの性能の見積りに関する方法および装置
US20060074828A1 (en) * 2004-09-14 2006-04-06 Heumann John M Methods and apparatus for detecting temporal process variation and for managing and predicting performance of automatic classifiers

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022113712A (ja) * 2018-10-17 2022-08-04 オムロン株式会社 センサシステム
JP7372607B2 (ja) 2018-10-17 2023-11-01 オムロン株式会社 センサシステム
JP7501151B2 (ja) 2019-09-06 2024-06-18 富士通株式会社 モデルの正確性及びロバスト性の推定方法及びその装置
WO2021049365A1 (ja) * 2019-09-11 2021-03-18 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2022024315A1 (ja) * 2020-07-30 2022-02-03 富士通株式会社 精度推定プログラム、装置、及び方法
JP7424496B2 (ja) 2020-07-30 2024-01-30 富士通株式会社 精度推定プログラム、装置、及び方法
JP7202757B1 (ja) * 2022-06-29 2023-01-12 株式会社Sphia 情報処理システム、情報処理方法およびプログラム
WO2024004076A1 (ja) * 2022-06-29 2024-01-04 株式会社Sphia 情報処理システム、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP6763426B2 (ja) 2020-09-30
US20190164078A1 (en) 2019-05-30
JPWO2017183548A1 (ja) 2019-02-28

Similar Documents

Publication Publication Date Title
JP6763426B2 (ja) 情報処理システム、情報処理方法、及び、プログラム
Yu et al. Learning from multiway data: Simple and efficient tensor regression
US20180157743A1 (en) Method and System for Multi-Label Classification
CN110298035B (zh) 基于人工智能的字向量定义方法、装置、设备及存储介质
JP2006252333A (ja) データ処理方法、データ処理装置およびそのプログラム
JPWO2014118980A1 (ja) 情報変換方法、情報変換装置および情報変換プログラム
Freytag et al. Labeling examples that matter: Relevance-based active learning with gaussian processes
Yun et al. Ranking via robust binary classification
JP6004015B2 (ja) 学習方法、情報処理装置および学習プログラム
JP2020004322A (ja) テキスト類似度算出装置、テキスト類似度算出方法、及びプログラム
WO2017188048A1 (ja) 作成装置、作成プログラム、および作成方法
JP2018517963A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP5518757B2 (ja) 文書分類学習制御装置、文書分類装置およびコンピュータプログラム
US9792561B2 (en) Learning method, information conversion device, and recording medium
CN111666965A (zh) 改进图像识别的多级别深度特征和多匹配器融合
US20220027677A1 (en) Information processing device, information processing method, and storage medium
Sahoo et al. Indian sign language recognition using a novel feature extraction technique
JP5633424B2 (ja) プログラム及び情報処理システム
Esmaeili et al. Transduction with matrix completion using smoothed rank function
JPWO2015040860A1 (ja) 分類辞書生成装置、分類辞書生成方法及びプログラム
JP7056804B2 (ja) 経験損失推定システム、経験損失推定方法および経験損失推定プログラム
WO2020040007A1 (ja) 学習装置、学習方法及び学習プログラム
JP2022544853A (ja) 顔認識のための汎用特徴表現学習
US20220398833A1 (en) Information processing device, learning method, and recording medium
JP2014038392A (ja) スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018513138

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17785887

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17785887

Country of ref document: EP

Kind code of ref document: A1