JPWO2020079815A1 - 学習プログラム、学習方法および学習装置 - Google Patents
学習プログラム、学習方法および学習装置 Download PDFInfo
- Publication number
- JPWO2020079815A1 JPWO2020079815A1 JP2020551682A JP2020551682A JPWO2020079815A1 JP WO2020079815 A1 JPWO2020079815 A1 JP WO2020079815A1 JP 2020551682 A JP2020551682 A JP 2020551682A JP 2020551682 A JP2020551682 A JP 2020551682A JP WO2020079815 A1 JPWO2020079815 A1 JP WO2020079815A1
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- restorers
- feature amount
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2111—Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、実施例1にかかる学習装置の全体例を説明する図である。図1に示す学習装置10は、車や人などの画像分類などを行う学習モデルを学習する。具体的には、学習装置10は、機械学習や深層学習(ディープラーニング(DL)・Deep Learning)などを用いた学習処理を実行して、学習データを事象ごとに正しく判別(分類)できるように、ニューラルネットワーク(NN:Neural Network)などを学習する。
ここで、保持対象の特徴量を評価する技術として、一般的に利用される参考技術について説明する。まず、参考技術にも実施例1にも共通する、ニューラルネットワークに対する深層学習について説明する。
図3は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図3に示すように、学習装置10は、通信部11、記憶部12、制御部20を有する。
図9は、処理の流れを示すフローチャートである。図9に示すように、モデル学習部21は、処理開始が指示されると(S101:Yes)、学習モデルを初期化する(S102)。
上述したように、学習装置10は、逆変換器を学習させて特徴量から元データへの復元器を得ることができ、復元データと元の学習データとの誤差を直接最小化するように学習させることができる。また、学習装置10は、保持対象の特徴量と元の学習データとを比較可能な形式にするために、特徴量をできるだけ元データに復元した形式に変換することができる。この結果、学習装置10は、各特徴量から生成される復元データにより、複数の特徴量それぞれの評価を適切に行うことができる。
上記実施例では、学習モデルの学習に使用する学習データを、復号器の学習にも使用する例を説明したが、これに限定されるものではなく、学習モデルの学習と復号器の学習とを、異なる学習データを用いて学習することもできる。
上記実施例では、学習モデルおよび復号器にNNを適用した場合を例にして説明したが、これに限定されるものではなく、他の一般的な深層学習や機械学習を採用することもできる。また、NNの学習手法は、逆誤差伝搬法など公知の様々な手法を採用することができる。また、NNの学習時に算出する誤差については、二乗誤差などのように、深層学習の学習時に利用される公知の様々な誤差算出手法を採用することができる。また、各NNの中間層の数、特徴量の数、復元器の数などは、あくまで一例であり、任意に設定変更することができる。また、NNの中間層ごとに復元器を設けるだけでなく、NNの複数の中間層のうち指定した中間層のみに対して復元器を設けることもできる。また、上述した特徴量の一例としては、学習対象が画像の場合は、画像内のエッジ、コントラスト、画像内の目や鼻の位置などが挙げられる。
上記実施例では、各学習データについて、特徴量の評価を行う例を説明したが、これに限定されるものではなく、管理者等が指定した学習データについてのみ、上記特徴量の評価を行って、保持の可否を判定することもできる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
図13は、ハードウェア構成例を説明する図である。図13に示すように、学習装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図13に示した各部は、バス等で相互に接続される。
11 通信部
12 記憶部
13 学習データDB
14 学習結果DB
20 制御部
21 モデル学習部
22 復号器学習部
22a 復号器A学習部
22b 復号器B学習部
22c 復号器C学習部
23 評価部
Claims (9)
- コンピュータに、
学習モデルに入力される入力データごとに、各入力データに対応して前記学習モデルにより生成される複数の特徴量から、前記複数の特徴量それぞれに対応した複数の復元器を用いて復元データを生成し、
前記複数の復元器によりそれぞれ生成される複数の復元データそれぞれと、前記入力データとが近づくように、前記複数の復元器を学習させる、
処理を実行させる学習プログラム。 - 請求項1に記載の学習プログラムであって、前記コンピュータに、
学習済みの前記複数の復元器に前記入力データを入力し、前記複数の復元器それぞれにより複数の復元データを生成し、
前記複数の復元データそれぞれと前記入力データとの誤差を算出し、
前記誤差に基づいて、前記複数の復元データそれぞれの生成元である前記複数の特徴量のうち、保持する特徴量を選択する、処理を実行させる学習プログラム。 - 請求項1に記載の学習プログラムであって、
前記学習モデルは、ニューラルネットワークを含む学習モデルであり、
前記生成する処理は、前記ニューラルネットワークが有する各中間層に対応付けられる前記複数の復元器を用いて、前記各中間層から出力される前記複数の特徴量それぞれから前記複数の復元データを生成する、学習プログラム。 - 請求項3に記載の学習プログラムであって、
前記生成する処理は、前記複数の復元器を用いて、前記複数の復元器それぞれが対応付けられる中間層よりも前の中間層から出力される特徴量を復元対象とした復元データを生成し、
前記学習する処理は、前記複数の復元器それぞれを、前記復元データと前記復元対象とする特徴量との誤差が小さくなるように学習させる、学習プログラム。 - 請求項1に記載の学習プログラムであって、前記コンピュータに、
前記複数の復元器それぞれについて、前記復元データを前記学習モデルに入力して、前記学習モデルにより生成される特徴量であって前記復元データの特徴量である復元特徴量を取得する、処理を実行させ、
前記学習させる処理は、前記複数の復元器それぞれを、前記復元データと前記入力データとの誤差、および、復元対象の前記特徴量と前記復元特徴量との誤差のそれぞれが小さくなるように学習させる、学習プログラム。 - 請求項1に記載の学習プログラムであって、前記コンピュータに、
正解ラベルが付与される第1の入力データを前記学習モデルに入力して、前記学習モデルからの出力結果と前記正解ラベルとの誤差に基づいて、前記学習モデルを学習させ、
前記第1の入力データとは異なる第2の入力データを学習済みの前記学習モデルに入力し、前記学習済みの学習モデルにより生成される複数の特徴量から、前記複数の特徴量それぞれに対応した複数の復元器を用いて復元データを生成し、
前記複数の復元器によりそれぞれ生成される複数の復元データそれぞれと、前記第2の入力データとが近づくように、前記複数の復元器を学習させる、処理を実行させる学習プログラム。 - 請求項6に記載の学習プログラムであって、前記コンピュータに、
前記第2の入力データを用い学習された学習済みの前記複数の復元器に、前記第1の入力データを入力して、前記複数の復元器それぞれが生成する複数の復元データを取得し、
前記複数の復元データそれぞれと前記第1の入力データとの誤差を算出し、
前記誤差に基づいて、前記複数の復元データそれぞれの生成元である複数の特徴量のうち、保持する特徴量を選択する、処理を実行させる学習プログラム。 - コンピュータが、
学習モデルに入力される入力データごとに、各入力データに対応して前記学習モデルにより生成される複数の特徴量から、前記複数の特徴量それぞれに対応した複数の復元器を用いて復元データを生成し、
前記複数の復元器によりそれぞれ生成される複数の復元データそれぞれと、前記入力データとが近づくように、前記複数の復元器を学習させる、
処理を実行する学習方法。 - 学習モデルに入力される入力データごとに、各入力データに対応して前記学習モデルにより生成される複数の特徴量から、前記複数の特徴量それぞれに対応した複数の復元器を用いて復元データを生成する生成部と、
前記複数の復元器によりそれぞれ生成される複数の復元データそれぞれと、前記入力データとが近づくように、前記複数の復元器を学習させる学習部と
を有する学習装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/038883 WO2020079815A1 (ja) | 2018-10-18 | 2018-10-18 | 学習プログラム、学習方法および学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020079815A1 true JPWO2020079815A1 (ja) | 2021-09-09 |
JP7192873B2 JP7192873B2 (ja) | 2022-12-20 |
Family
ID=70282951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020551682A Active JP7192873B2 (ja) | 2018-10-18 | 2018-10-18 | 情報処理プログラム、情報処理方法および学習装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210232854A1 (ja) |
EP (1) | EP3869418A4 (ja) |
JP (1) | JP7192873B2 (ja) |
CN (1) | CN112912901A (ja) |
WO (1) | WO2020079815A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016132468A1 (ja) * | 2015-02-18 | 2016-08-25 | 株式会社日立製作所 | データ評価方法および装置、故障診断方法および装置 |
JP6352512B1 (ja) * | 2017-08-22 | 2018-07-04 | 株式会社 ディー・エヌ・エー | 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5558672A (en) * | 1978-10-27 | 1980-05-01 | Nec Corp | Digital facsimile unit |
JP6299299B2 (ja) * | 2014-03-14 | 2018-03-28 | オムロン株式会社 | 事象検出装置および事象検出方法 |
JP6098841B2 (ja) | 2015-01-06 | 2017-03-22 | マツダ株式会社 | 車両用歩行者画像取得装置 |
JP2017126112A (ja) | 2016-01-12 | 2017-07-20 | 株式会社リコー | サーバ、分散型サーバシステム、及び情報処理方法 |
JP6561004B2 (ja) | 2016-03-25 | 2019-08-14 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 |
EP3483791A4 (en) * | 2016-07-11 | 2020-03-18 | UEI Corporation | CALCULATION SYSTEM USING A HIERARCHICAL NETWORK |
-
2018
- 2018-10-18 EP EP18937480.4A patent/EP3869418A4/en active Pending
- 2018-10-18 JP JP2020551682A patent/JP7192873B2/ja active Active
- 2018-10-18 WO PCT/JP2018/038883 patent/WO2020079815A1/ja unknown
- 2018-10-18 CN CN201880098669.5A patent/CN112912901A/zh active Pending
-
2021
- 2021-04-12 US US17/228,517 patent/US20210232854A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016132468A1 (ja) * | 2015-02-18 | 2016-08-25 | 株式会社日立製作所 | データ評価方法および装置、故障診断方法および装置 |
JP6352512B1 (ja) * | 2017-08-22 | 2018-07-04 | 株式会社 ディー・エヌ・エー | 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造 |
Also Published As
Publication number | Publication date |
---|---|
US20210232854A1 (en) | 2021-07-29 |
WO2020079815A1 (ja) | 2020-04-23 |
CN112912901A (zh) | 2021-06-04 |
EP3869418A1 (en) | 2021-08-25 |
EP3869418A4 (en) | 2021-10-06 |
JP7192873B2 (ja) | 2022-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | The wisdom of minority: Discovering and targeting the right group of workers for crowdsourcing | |
JP7106902B2 (ja) | 学習プログラム、学習方法および学習装置 | |
JP7047498B2 (ja) | 学習プログラム、学習方法および学習装置 | |
WO2017197330A1 (en) | Two-stage training of a spoken dialogue system | |
CN109685104B (zh) | 一种识别模型的确定方法和装置 | |
US11620530B2 (en) | Learning method, and learning apparatus, and recording medium | |
US20180268816A1 (en) | Generating device, generating method, and non-transitory computer readable storage medium | |
Kliman-Silver et al. | Adapting user experience research methods for AI-driven experiences | |
Ultes | Improving interaction quality estimation with BiLSTMs and the impact on dialogue policy learning | |
US20210232854A1 (en) | Computer-readable recording medium recording learning program, learning method, and learning device | |
JP2021026647A (ja) | 回答スタイル成分除去装置、回答スタイル成分除去方法、プログラム | |
JP2019159835A (ja) | 学習プログラム、学習方法および学習装置 | |
CN116204786B (zh) | 生成指定故障趋势数据的方法和装置 | |
US20230009999A1 (en) | Computer-readable recording medium storing evaluation program, evaluation method, and information processing device | |
CN113435927B (zh) | 用户意愿预测方法、装置、设备和存储介质 | |
JP7517093B2 (ja) | データ生成プログラム、データ生成方法および情報処理装置 | |
KR102363636B1 (ko) | 통계적 불확실성 모델링을 활용한 음성 인식 방법 및 장치 | |
JP7148078B2 (ja) | 属性推定装置、属性推定方法、属性推定器学習装置、及びプログラム | |
JP2022174517A (ja) | 機械学習プログラム、機械学習方法および情報処理装置 | |
WO2022097302A1 (ja) | 生成プログラム、生成方法および情報処理装置 | |
JP2020177427A (ja) | 更新プログラム、更新方法および情報処理装置 | |
JP6856965B1 (ja) | 画像出力装置及び画像出力方法 | |
JP7339414B1 (ja) | 習熟レベル判定装置、習熟レベル判定方法、プログラム | |
US20230195964A1 (en) | Prediction program, prediction method, and prediction device | |
CN118035323B (zh) | 应用于数字化校园软件服务的数据挖掘方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7192873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |