JP7172067B2 - 学習プログラム、学習方法および学習装置 - Google Patents
学習プログラム、学習方法および学習装置 Download PDFInfo
- Publication number
- JP7172067B2 JP7172067B2 JP2018043605A JP2018043605A JP7172067B2 JP 7172067 B2 JP7172067 B2 JP 7172067B2 JP 2018043605 A JP2018043605 A JP 2018043605A JP 2018043605 A JP2018043605 A JP 2018043605A JP 7172067 B2 JP7172067 B2 JP 7172067B2
- Authority
- JP
- Japan
- Prior art keywords
- label
- learning
- data
- labels
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Medical Informatics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
図1は、実施例1にかかる学習装置の全体例を説明する図である。図1に示すように、実施例1にかかる学習装置10は、学習データのラベルに対してスコアを付与した後に、深層学習(ディープラーニング(DL)・Deep Learning)などを用いた判別処理(学習処理)を実行して、学習データを正しく判別(分類)できるように、スコアを用いてニューラルネットワーク(NN:Neural Network)などを学習する。その後、学習結果を適用した学習モデルを用いることで、判別対象データの正確な事象(ラベル)の推定を実現する。なお、学習データには、画像、動画、文書、グラフなど様々なデータを採用することができる。
図2は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図2に示すように、学習装置10は、通信部11と記憶部12と制御部20を有する。
次に、上述したラベルベクトルの設定処理について説明する。図8は、処理の流れを示すフローチャートである。
上述したように、学習装置10は、NNを含む学習モデルの学習において、学習に用いることができるラベルが1つである、という制約に対応して、1つのデータに対するラベルを1つに集約することによる弊害を、データの分布に基づく確率などを設定したラベルベクトル(小数ラベル)により解決することができるので、ラベルを集約させることによる、判別速度の劣化や学習結果の判定精度劣化を抑制することができる。
上記実施例では、相関や分布に基づく値をラベルベクトルに設定する例を説明したが、これに限定されるものではない。例えば、排他的なラベルについては、ユーザ等が設定した値、過去の履歴等に基づく値、統計学的に算出した値などの静的な値を設定することもできる。
例えば、学習装置10は、相関があるラベルのうち、実施例1のような分布に基づいて各ラベルに値を設定するのではなく、いずれかのラベルだけを設定することもできる。図4の例で説明すると、学習装置10は、相関があるラベル1とラベル3のうちのいずれかのラベル、他のラベルと相関がないラベル2、相関があるラベル4から6のうちのいずれかのラベルだけを設定したラベルベクトルをデータに付与して学習することもできる。実施例1では、学習装置10は、ラベルベクトル「ラベル1,ラベル2,ラベル3,ラベル4,ラベル5」として「0.6,1.0,0.4,0.2,0.3,0.5」などのように設定するが、これに限らず、「1.0,1.0,0.0,0.0,1.0,0.0」などと設定することもできる。このようにすることで、ラベル集約にかかる処理時間の短縮を実現しつつ、学習データと集約ラベルの矛盾の発生を抑制し、学習精度の劣化を抑制できる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
図10は、ハードウェア構成例を説明する図である。図10に示すように、学習装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図11に示した各部は、バス等で相互に接続される。
11 通信部
12 記憶部
13 入力データDB
14 学習データDB
15 学習結果DB
20 制御部
21 設定部
22 学習部
Claims (6)
- 学習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定し、
前記学習対象のデータそれぞれに対して、設定された前記ラベルベクトルにおける前記複数のラベルの全ての前記確率値を前記学習対象のデータがニューラルネットワークに入力された際の前記ニューラルネットワークの出力目標値とする最適化の評価関数に基づいて、前記ニューラルネットワークを含む学習モデルの機械学習を実行する、
処理をコンピュータに実行させ、
前記学習対象のデータそれぞれに対して設定された前記ラベルベクトルの少なくとも一つにおいて、前記複数のラベルに設定された前記確率値のうち少なくとも2つが0以外の値である
ことを特徴とする学習プログラム。 - 学習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定し、
前記学習対象のデータと設定された前記ラベルベクトルとを用いて、ニューラルネットワークを含む学習モデルに対する、前記ラベルベクトルを出力目標値とする機械学習を実行する処理をコンピュータに実行させる学習プログラムであって、
前記設定する処理は、
前記学習対象のデータそれぞれに設定する対象であるラベル間の相関関係を判定し、
いずれかのラベルと前記相関関係があるラベルに対しては、前記相関関係に基づく前記確率値を設定し、いずれのラベルとも前記相関関係がないラベルについては、当該ラベルに該当するか否かを示す値を設定した前記ラベルベクトルを生成し、
前記学習対象のデータそれぞれに対して前記ラベルベクトルを設定する、
処理を含むことを特徴とする学習プログラム。 - 学習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定し、
前記学習対象のデータと設定された前記ラベルベクトルとを用いて、ニューラルネットワークを含む学習モデルに対する、前記ラベルベクトルを出力目標値とする機械学習を実行する処理をコンピュータに実行させる学習プログラムであって、
前記複数のラベルは、第1のラベルと第2のラベルを有し、
前記ラベルベクトルは、前記第1のラベルに対応する第1成分と前記第2のラベルに対応する第2成分とを有し、
前記設定する処理は、
前記第1のラベルと前記第2のラベルのとの相関関係を判定し、
前記相関関係がない場合は、前記第1のラベルに該当する第1の学習対象のデータに対して、前記第1のラベルに該当することを示す値を前記第1成分に設定するとともに前記第2のラベルに該当しないことを示す値を前記第2成分に設定した前記ラベルベクトルを生成し、前記第2のラベルに該当する第2の学習対象のデータに対しては、前記第1のラベルに該当しないことを示す値を前記第1成分に設定するとともに前記第2のラベルに該当することを示す値を前記第2成分に設定した前記ラベルベクトルを生成し、
前記相関関係がある場合は、前記第1成分および前記第2成分に、前記第1の学習対象のデータの第1の分布と前記第2の学習対象のデータの第2の分布に基づく前記確率値を設定した前記ラベルベクトルを生成する、
処理を含むことを特徴とする学習プログラム。 - 前記設定する処理は、
前記相関関係がある場合の前記ラベルベクトルの生成に際し、
前記第1の分布において、前記第1のラベルに該当する前記第1の学習対象のデータの中で前記第2のラベルにも該当するデータ数を示す第1の面積と、前記第1のラベルに該当する前記第1の学習対象のデータの中で前記第2のラベルには該当しないデータ数を示す第2の面積との面積比である第1の面積比を算出し、
前記第2の分布において、前記第2のラベルに該当する前記第2の学習対象のデータの中で前記第1のラベルにも該当するデータ数を示す第3の面積と、前記第2のラベルに該当する前記第2の学習対象のデータの中で前記第1のラベルには該当しないデータ数を示す第4の面積との面積比である第2の面積比を算出し、
前記第1の面積比と前記第2の面積比とが同じ、かつ、前記第1の学習対象のデータと前記第2の学習対象のデータの数との比率とが同じになるように、前記第1の分布と前記第2の分布とを最適化し、
前記最適化後の第1の分布における第1の最大値、第1の最小値と、前記最適化後の第2の分布における第2の最大値、第2の最小値、当該第1の分布と当該第2の分布との交差値とを特定し、
前記第1のラベルにも前記第2のラベルにも該当する学習対象のデータに対して、前記第1成分と前記第2成分に前記交差値を設定した前記ラベルベクトルを生成し、
前記第1のラベルには該当するが前記第2のラベルには該当しない学習対象のデータに対して、前記第1成分に前記第1の最大値、前記第2成分に前記第2の最小値を設定した前記ラベルベクトルを生成し、
前記第1のラベルには該当しないが前記第2のラベルには該当する学習対象のデータに対して、前記第1成分に前記第2の最大値、前記第2成分に前記第1の最小値を設定した前記ラベルベクトルを生成する、
処理を含むことを特徴とする、請求項3に記載の学習プログラム。 - 学習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定し、
前記学習対象のデータそれぞれに対して、設定された前記ラベルベクトルにおける前記複数のラベルの全ての前記確率値を前記学習対象のデータがニューラルネットワークに入力された際の前記ニューラルネットワークの出力目標値とする最適化の評価関数に基づいて、前記ニューラルネットワークを含む学習モデルの機械学習を実行する
処理をコンピュータが実行し、
前記学習対象のデータそれぞれに対して設定された前記ラベルベクトルの少なくとも一つにおいて、前記複数のラベルに設定された前記確率値のうち少なくとも2つが0以外の値である
ことを特徴とする学習方法。 - 学習対象のデータそれぞれに対して、複数のラベルを要素とするラベルベクトルであって、前記複数のラベルそれぞれの確率値が設定された前記ラベルベクトルを設定する設定部と、
前記学習対象のデータそれぞれに対して、設定された前記ラベルベクトルにおける前記複数のラベルの全ての前記確率値を前記学習対象のデータがニューラルネットワークに入力された際の前記ニューラルネットワークの出力目標値とする最適化の評価関数に基づいて、前記ニューラルネットワークを含む学習モデルの機械学習を実行する学習部と
を有し、
前記学習対象のデータそれぞれに対して設定された前記ラベルベクトルの少なくとも一つにおいて、前記複数のラベルに設定された前記確率値のうち少なくとも2つが0以外の値である
ことを特徴とする学習装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043605A JP7172067B2 (ja) | 2018-03-09 | 2018-03-09 | 学習プログラム、学習方法および学習装置 |
US16/286,638 US20190279085A1 (en) | 2018-03-09 | 2019-02-27 | Learning method, learning device, and computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018043605A JP7172067B2 (ja) | 2018-03-09 | 2018-03-09 | 学習プログラム、学習方法および学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159612A JP2019159612A (ja) | 2019-09-19 |
JP7172067B2 true JP7172067B2 (ja) | 2022-11-16 |
Family
ID=67842750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018043605A Active JP7172067B2 (ja) | 2018-03-09 | 2018-03-09 | 学習プログラム、学習方法および学習装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190279085A1 (ja) |
JP (1) | JP7172067B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3807821A1 (en) * | 2018-09-28 | 2021-04-21 | Apple Inc. | Distributed labeling for supervised learning |
US11892562B2 (en) * | 2020-10-30 | 2024-02-06 | KaiKuTek Inc. | Impulse-like gesture recognition method, and impulse-like gesture recognition system |
US20220300557A1 (en) * | 2021-03-16 | 2022-09-22 | Adobe Inc. | Quantifying and improving the performance of computation-based classifiers |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017201444A1 (en) | 2016-05-20 | 2017-11-23 | Google Llc | Classifying input examples using a comparison set |
-
2018
- 2018-03-09 JP JP2018043605A patent/JP7172067B2/ja active Active
-
2019
- 2019-02-27 US US16/286,638 patent/US20190279085A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017201444A1 (en) | 2016-05-20 | 2017-11-23 | Google Llc | Classifying input examples using a comparison set |
Also Published As
Publication number | Publication date |
---|---|
JP2019159612A (ja) | 2019-09-19 |
US20190279085A1 (en) | 2019-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Baier et al. | Efficient computation of time-bounded reachability probabilities in uniform continuous-time Markov decision processes | |
US11741363B2 (en) | Computer-readable recording medium, method for learning, and learning device | |
JP7024515B2 (ja) | 学習プログラム、学習方法および学習装置 | |
JP7172067B2 (ja) | 学習プログラム、学習方法および学習装置 | |
JP6010133B2 (ja) | 属性データ区間の分類 | |
JP7040104B2 (ja) | 学習プログラム、学習方法および学習装置 | |
US11429863B2 (en) | Computer-readable recording medium having stored therein learning program, learning method, and learning apparatus | |
US11556785B2 (en) | Generation of expanded training data contributing to machine learning for relationship data | |
CN112633310A (zh) | 具有改进的训练鲁棒性地对传感器数据进行分类的方法和系统 | |
JP7268756B2 (ja) | 劣化抑制プログラム、劣化抑制方法および情報処理装置 | |
US11681922B2 (en) | Performing inference and training using sparse neural network | |
JP7276488B2 (ja) | 推定プログラム、推定方法、情報処理装置、再学習プログラムおよび再学習方法 | |
CN113723070B (zh) | 文本相似度模型训练方法、文本相似度检测方法及装置 | |
CN115130536A (zh) | 特征提取模型的训练方法、数据处理方法、装置及设备 | |
Huang et al. | Deep prototypical networks for imbalanced time series classification under data scarcity | |
JP2019028484A (ja) | 属性識別装置、属性識別モデル学習装置、方法、及びプログラム | |
JP2019159835A (ja) | 学習プログラム、学習方法および学習装置 | |
Chelly et al. | A fuzzy-rough data pre-processing approach for the dendritic cell classifier | |
CN117011751A (zh) | 使用变换器网络分割视频图像序列 | |
JP2022147502A (ja) | 機械学習プログラム、機械学習方法および情報処理装置 | |
JP6988828B2 (ja) | 照合処理装置、照合処理方法、及び、照合処理プログラム | |
WO2024180746A1 (ja) | 因果探索プログラム、因果探索方法および情報処理装置 | |
US20230281275A1 (en) | Identification method and information processing device | |
US20230342659A1 (en) | Discrimination likelihood estimate for trained machine learning model | |
CN115829755B (zh) | 交易风险的预测结果的解释方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7172067 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |