JP6883787B2 - 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム - Google Patents
学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム Download PDFInfo
- Publication number
- JP6883787B2 JP6883787B2 JP2017171486A JP2017171486A JP6883787B2 JP 6883787 B2 JP6883787 B2 JP 6883787B2 JP 2017171486 A JP2017171486 A JP 2017171486A JP 2017171486 A JP2017171486 A JP 2017171486A JP 6883787 B2 JP6883787 B2 JP 6883787B2
- Authority
- JP
- Japan
- Prior art keywords
- class
- learning
- candidate
- classifier
- applicability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 192
- 230000006835 compression Effects 0.000 claims description 123
- 238000007906 compression Methods 0.000 claims description 123
- 238000012545 processing Methods 0.000 claims description 76
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 29
- 230000000875 corresponding effect Effects 0.000 description 22
- 238000010801 machine learning Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000006185 dispersion Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す第1の学習部と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する学習データ生成部と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す第2の学習部と、
を備える学習装置である。
上記学習装置から取得した前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する
推定装置である。
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施し、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成し、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す、
学習方法である。
上記学習方法で学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する
推定方法である。
コンピュータに、
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す処理と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する処理と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す処理と、
を実行させる、学習プログラムである。
コンピュータに、
上記学習プログラムで学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する処理
を実行させる、推定プログラムである。
[学習装置の全体構成]
以下、図2〜図4を参照して、第1の実施形態に係る学習装置1の構成の一例について説明する。
第1の学習部10は、第1の学習データDt1を用いて、大規模識別器Dm1に対して、クラス識別法によって学習処理を施す。
学習データ生成部20は、学習処理済みの大規模識別器Dm1を用いて識別対象の識別処理を行うと共に、所定の圧縮ルールに基づいて、大規模識別器Dm1が出力する複数の候補クラスそれぞれについてのクラス該当度を次元圧縮した値に変換し、識別対象と関連付けて第2の学習データを生成する。
点X:正解クラスが候補クラスXに該当する識別対象を識別した際の各候補クラスのクラス該当度
点Y:正解クラスが候補クラスYに該当する識別対象を識別した際の各候補クラスのクラス該当度
点Z:正解クラスが候補クラスZに該当する識別対象を識別した際の各候補クラスのクラス該当度
点Sitting Human:正解クラスが人物クラスaに該当する識別対象を識別した際の各候補クラスのクラス該当度
点Object:正解クラスが荷物クラスbに該当する識別対象を識別した際の候補クラスのクラス該当度
点Empty Seat:正解クラスが空席クラスcに該当する識別対象を識別した際の候補クラスのクラス該当度
第2の学習部30は、第2の学習データDt2を用いて、小規模識別器Dm2に対して、回帰法によって学習処理を施す。
以上のように、本実施形態に係る学習装置1は、ダークナレッジ学習システムにおいて、学習処理済みの大規模識別器Dm1を用いて、各候補クラスa,b,cのクラス該当度を次元圧縮した状態にて、小規模識別器Dm2用の第2の学習データDt2を生成し、これを用いて小規模識別器Dm2に対して学習処理を施す。
図11は、第1の実施形態に係る学習装置1の応用例を示す図である。
図13は、第2の実施形態に係る学習装置1の構成の一例を示す図である。
本実施形態に係る圧縮ルール生成部50は、候補クラス数が4つの場合にも、適用し得るのは勿論である。
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する学習データ生成部20と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す第2の学習部30と、
を備える学習装置1を開示する。
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成し、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す、学習方法を開示する。
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す処理と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する処理と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す処理と、
を実行させる、学習プログラムを開示する。
上記学習プログラムで学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する処理
を実行させる、推定プログラムを開示する。
2 推定装置
10 第1の学習部
20 学習データ生成部
21 第1の識別処理部
22 圧縮部
30 第2の学習部
41 入力部
42 第2の識別処理部
43 復元部
44 出力部
50 圧縮ルール生成部
51 第3の識別処理部
52 分析部
53 圧縮ルール設定部
Dm1 大規模識別器
Dm2 小規模識別器
Dt1 第1の学習データ
Dt2 第2の学習データ
Claims (13)
- 識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す第1の学習部と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する学習データ生成部と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す第2の学習部と、
を備える学習装置。 - 前記次元圧縮した値は、前記複数の候補クラスそれぞれに領域分割された所定の数値範囲内のいずれかの値であり、
前記複数の候補クラスそれぞれの領域の前記数値範囲は、類似度の高い候補クラス同士が隣接するように割り当てられ、
前記所定の圧縮ルールは、前記次元圧縮した値が、前記複数の候補クラスのうち、最大のクラス該当度を有する第1の候補クラスに対応する前記数値範囲内において、前記第1の候補クラスに次ぐ大きさのクラス該当度を有する第2の候補クラスのクラス該当度に応じて、前記第2の候補クラスに対応する前記数値範囲の側に偏位するように、前記変換を行う
請求項1に記載の学習装置。 - 前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度から前記複数の候補クラス間の相関度合いを求め、当該相関度合いに基づいて前記所定の圧縮ルールを生成する圧縮ルール生成部、を更に有する
請求項2に記載の学習装置。 - 前記圧縮ルール生成部は、各正解クラスに対応する前記複数の候補クラスそれぞれのクラス該当度の分散によって、前記複数の候補クラス間の相関度合いを判断する
請求項3に記載の学習装置。 - 前記次元圧縮した値は、前記複数の候補クラスそれぞれのクラス該当度を一次元に圧縮した値である
請求項1から4のいずれか一項に記載の学習装置。 - 前記複数の候補クラスは、前記正解クラスおよび前記他の正解クラスを含む少なくとも3つの候補クラスを有する
請求項1から5のいずれか一項に記載の学習装置。 - 前記第1の識別器及び前記第2の識別器は、いずれも、ニューラルネットワークを含んで構成される
請求項1から6のいずれか一項に記載の学習装置。 - 前記識別対象は、画像データである
請求項1から7のいずれか一項に記載の学習装置。 - 請求項1から8のいずれか一項に記載の学習装置から取得した前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する
推定装置。 - 識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施し、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成し、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す、
学習方法。 - 請求項10に記載の学習方法で学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する
推定方法。 - コンピュータに、
識別対象と当該識別対象の正解クラスとを関連付けた第1の学習データを用いて、第1の識別器が前記識別対象を前記正解クラスおよび他の候補クラスを含む複数の候補クラスに分類する識別処理を行った際に、前記第1の識別器が前記識別処理の結果として出力する前記正解クラスに対応する候補クラスのクラス該当度が前記他の候補クラスのクラス該当度と比較して最大となるように、前記第1の識別器に対して学習処理を施す処理と、
前記学習処理済みの第1の識別器を用いて識別対象の識別処理を行い、前記学習処理済みの第1の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度を所定の圧縮ルールに基づいて次元圧縮した値に変換し、前記変換された値と前記識別対象とを関連付けて第2の学習データを生成する処理と、
前記第2の学習データを用いて前記第1の識別器とは異なる第2の識別器が識別対象の識別処理を行った際に、前記第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスのクラス該当度が前記次元圧縮した値となるように、前記第2の識別器に対して学習処理を施す処理と、
を実行させる、学習プログラム。 - コンピュータに、
請求項12に記載の学習プログラムで学習処理が施された前記学習処理済みの第2の識別器を用いて、入力された識別対象の識別処理を行い、前記学習処理済みの第2の識別器が前記識別処理の結果として出力する前記複数の候補クラスの次元圧縮した値と前記所定の圧縮ルールとに基づいて、前記識別対象を前記複数の候補クラスのいずれかに分類する処理
を実行させる、推定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017171486A JP6883787B2 (ja) | 2017-09-06 | 2017-09-06 | 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム |
US16/116,954 US11514307B2 (en) | 2017-09-06 | 2018-08-30 | Learning apparatus, learning method, estimation apparatus, estimation method, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017171486A JP6883787B2 (ja) | 2017-09-06 | 2017-09-06 | 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046380A JP2019046380A (ja) | 2019-03-22 |
JP6883787B2 true JP6883787B2 (ja) | 2021-06-09 |
Family
ID=65517325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017171486A Active JP6883787B2 (ja) | 2017-09-06 | 2017-09-06 | 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11514307B2 (ja) |
JP (1) | JP6883787B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7121506B2 (ja) | 2018-03-14 | 2022-08-18 | 株式会社日立ハイテク | 探索装置、探索方法及びプラズマ処理装置 |
JP7137943B2 (ja) | 2018-03-20 | 2022-09-15 | 株式会社日立ハイテク | 探索装置、探索方法及びプラズマ処理装置 |
US11935277B2 (en) * | 2019-03-14 | 2024-03-19 | Nec Corporation | Generation method, training data generation device and program |
CN110210544B (zh) * | 2019-05-24 | 2021-11-23 | 上海联影智能医疗科技有限公司 | 图像分类方法、计算机设备和存储介质 |
EP3767536A1 (en) * | 2019-07-17 | 2021-01-20 | Naver Corporation | Latent code for unsupervised domain adaptation |
CN113287123A (zh) | 2019-12-03 | 2021-08-20 | 株式会社日立高新技术 | 搜索装置、搜索程序以及等离子处理装置 |
CN113688893A (zh) * | 2021-08-19 | 2021-11-23 | 西交利物浦大学 | 一种图片分类的方法、装置、电子设备及存储介质 |
WO2023085457A1 (ko) * | 2021-11-11 | 2023-05-19 | 한국전자기술연구원 | 효율적인 딥러닝 학습을 위한 메모리 구조 및 제어 방법 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4034602B2 (ja) * | 2002-06-17 | 2008-01-16 | 富士通株式会社 | データ分類装置、データ分類装置の能動学習方法及び能動学習プログラム |
JP6456031B2 (ja) * | 2014-03-25 | 2019-01-23 | キヤノン株式会社 | 画像認識装置、画像認識方法およびプログラム |
CN106471526B (zh) * | 2014-08-29 | 2019-03-08 | 谷歌有限责任公司 | 用于处理图像的方法和系统 |
US9384450B1 (en) * | 2015-01-22 | 2016-07-05 | International Business Machines Corporation | Training machine learning models for open-domain question answering system |
US10387430B2 (en) * | 2015-02-26 | 2019-08-20 | International Business Machines Corporation | Geometry-directed active question selection for question answering systems |
-
2017
- 2017-09-06 JP JP2017171486A patent/JP6883787B2/ja active Active
-
2018
- 2018-08-30 US US16/116,954 patent/US11514307B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190073588A1 (en) | 2019-03-07 |
US11514307B2 (en) | 2022-11-29 |
JP2019046380A (ja) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6883787B2 (ja) | 学習装置、学習方法、学習プログラム、推定装置、推定方法、及び推定プログラム | |
US11645835B2 (en) | Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications | |
KR102252081B1 (ko) | 이미지 특성의 획득 | |
EP3572980B1 (en) | Method and system for joint selection of a feature subset-classifier pair for a classification task | |
US11526722B2 (en) | Data analysis apparatus, data analysis method, and data analysis program | |
JP7058941B2 (ja) | 辞書生成装置、辞書生成方法、及びプログラム | |
JP2008217589A (ja) | 学習装置及びパターン認識装置 | |
JP5621787B2 (ja) | パターン認識装置、パターン認識方法及びパターン認識用プログラム | |
JP2017102906A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Aswolinskiy et al. | Time series classification in reservoir-and model-space | |
JP2008015824A (ja) | フィルタ列生成装置、フィルタ列生成方法、コンピュータをフィルタ列生成装置として機能させるためのプログラム、および記録媒体 | |
CN116868206A (zh) | 跨域自适应学习 | |
Khalighi et al. | Importance weighted import vector machine for unsupervised domain adaptation | |
CN1952919A (zh) | 考虑全局数据结构的学习机 | |
JPWO2019215904A1 (ja) | 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム | |
US20230056735A1 (en) | Method of performing classification processing using machine learning model, information processing device, and computer program | |
CN110610228A (zh) | 信息处理装置、信息处理方法及记录介质 | |
JP2020004360A (ja) | 多変数データシーケンスの画像化 | |
Haghighi et al. | Extended decision template presentation for combining classifiers | |
Cerulli | A super-learning machine for predicting economic outcomes | |
KR20220101868A (ko) | 동적 딥 뉴럴 네트워크 학습 방법 및 시스템 | |
Lee et al. | Ensemble Algorithm of Convolution Neural Networks for Enhancing Facial Expression Recognition | |
WO2024042580A1 (ja) | 無線通信品質予測装置、無線通信品質予測方法、及び、無線通信品質予測プログラム | |
JP2019106111A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Filisbino et al. | Ranking principal components in face spaces through adaboost. m2 linear ensemble |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190625 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210420 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6883787 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |