JP7205640B2 - 学習方法、学習プログラム、および学習装置 - Google Patents
学習方法、学習プログラム、および学習装置 Download PDFInfo
- Publication number
- JP7205640B2 JP7205640B2 JP2021548017A JP2021548017A JP7205640B2 JP 7205640 B2 JP7205640 B2 JP 7205640B2 JP 2021548017 A JP2021548017 A JP 2021548017A JP 2021548017 A JP2021548017 A JP 2021548017A JP 7205640 B2 JP7205640 B2 JP 7205640B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- feature data
- error
- probability distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
Description
図1は、実施の形態にかかる学習方法の一実施例を示す説明図である。図1において、学習装置100は、オートエンコーダーを学習するコンピュータである。オートエンコーダーは、次元数が比較的多い実空間における実データから、次元数が比較的少ない潜在空間における潜在変数と呼ばれる特徴データを抽出するモデルである。
次に、図2を用いて、図1に示した学習装置100を適用した、データ解析システム200の一例について説明する。
次に、図3を用いて、学習装置100のハードウェア構成例について説明する。
端末装置201のハードウェア構成例は、図3に示した学習装置100のハードウェア構成例と同様であるため、説明を省略する。
次に、図4を用いて、学習装置100の機能的構成例について説明する。
次に、図5を用いて、学習装置100の実施例1について説明する。実施例1において、学習装置100は、潜在空間における特徴データzの確率分布Pzψ(z)を、多次元混合ガウスモデルによって算出する。多次元混合ガウスモデルについては、例えば、上記非特許文献3を参照することができる。
次に、図6を用いて、学習装置100の実施例2について説明する。実施例2において、学習装置100は、潜在空間における特徴データzcに対する説明変数zrを用いる。
次に、学習装置100の実施例3について説明する。実施例3において、学習装置100は、zの確率分布Pzψ(z)を独立な分布と仮定し、zの確率分布Pzψ(z)を、パラメトリックな確率密度関数として推定する。zの確率分布Pzψ(z)を、パラメトリックな確率密度関数として推定することについては、例えば、下記非特許文献4を参照することができる。
次に、図7を用いて、学習装置100により得られる効果の一例について説明する。
次に、図8を用いて、学習装置100が実行する、学習処理手順の一例について説明する。学習処理は、例えば、図3に示したCPU301と、メモリ302や記録媒体305などの記憶領域と、ネットワークI/F303とによって実現される。
次に、図9を用いて、学習装置100が実行する、解析処理手順の一例について説明する。解析処理は、例えば、図3に示したCPU301と、メモリ302や記録媒体305などの記憶領域と、ネットワークI/F303とによって実現される。
入力されたデータを符号化し、
前記データを符号化して得た特徴データの確率分布を算出し、
前記特徴データを復号化して第一の復号化データを生成し、
前記特徴データにノイズを加算し、
前記ノイズを加算した前記特徴データを復号化して第二の復号化データを生成し、
生成した前記第一の復号化データと前記データとの第一の誤差と、前記第一の復号化データと生成した前記第二の復号化データとの第二の誤差と、算出した前記確率分布の情報エントロピーとを最小化するように、前記オートエンコーダーと、前記特徴データの確率分布とを学習する、
処理をコンピュータが実行することを特徴とする学習方法。
確率分布を規定するモデルに基づいて、前記特徴データの確率分布を算出し、
前記学習する処理は、
前記オートエンコーダーと前記モデルとを学習する、ことを特徴とする付記1に記載の学習方法。
前記学習する処理は、
前記オートエンコーダーの符号化のパラメータおよび復号化のパラメータと、前記混合ガウスモデルのパラメータとを学習する、ことを特徴とする付記2に記載の学習方法。
前記第一の復号化データと前記データとの類似度に基づいて、前記特徴データの確率分布を算出する、ことを特徴とする付記1~3のいずれか一つに記載の学習方法。
パラメトリックに前記特徴データの確率分布を算出する、ことを特徴とする付記1~4のいずれか一つに記載の学習方法。
処理を前記コンピュータが実行することを特徴とする付記1~10のいずれか一つに記載の学習方法。
入力されたデータを符号化し、
前記データを符号化して得た特徴データの確率分布を算出し、
前記特徴データを復号化して第一の復号化データを生成し、
前記特徴データにノイズを加算し、
前記ノイズを加算した前記特徴データを復号化して第二の復号化データを生成し、
生成した前記第一の復号化データと前記データとの第一の誤差と、前記第一の復号化データと生成した前記第二の復号化データとの第二の誤差と、算出した前記確率分布の情報エントロピーとを最小化するように、前記オートエンコーダーと、前記特徴データの確率分布とを学習する、
処理をコンピュータに実行させることを特徴とする学習プログラム。
入力されたデータを符号化し、
前記データを符号化して得た特徴データの確率分布を算出し、
前記特徴データを復号化して第一の復号化データを生成し、
前記特徴データにノイズを加算し、
前記ノイズを加算した前記特徴データを復号化して第二の復号化データを生成し、
生成した前記第一の復号化データと前記データとの第一の誤差と、前記第一の復号化データと生成した前記第二の復号化データとの第二の誤差と、算出した前記確率分布の情報エントロピーとを最小化するように、前記オートエンコーダーと、前記特徴データの確率分布とを学習する、
制御部を有することを特徴とする学習装置。
110 オートエンコーダー
111,501,601 符号化器
112,114,502,503,602,603 復号化器
113 雑音生成器
200 データ解析システム
201 端末装置
210 ネットワーク
300 バス
301 CPU
302 メモリ
303 ネットワークI/F
304 記録媒体I/F
305 記録媒体
400 記憶部
401 取得部
402 符号化部
403 生成部
404 復号化部
405 推定部
406 最適化部
407 解析部
408 出力部
700,710,711,720,721,730,731 グラフ
Claims (12)
- 符号化と復号化を実行するオートエンコーダーの学習方法であって、
入力されたデータを符号化し、
前記データを符号化して得た特徴データの確率分布を算出し、
前記特徴データを復号化して第一の復号化データを生成し、
前記特徴データにノイズを加算し、
前記ノイズを加算した前記特徴データを復号化して第二の復号化データを生成し、
生成した前記第一の復号化データと前記データとの第一の誤差と、前記第一の復号化データと生成した前記第二の復号化データとの第二の誤差と、算出した前記確率分布の情報エントロピーとを最小化するように、前記オートエンコーダーと、前記特徴データの確率分布とを学習する、
処理をコンピュータが実行することを特徴とする学習方法。 - 前記算出する処理は、
確率分布を規定するモデルに基づいて、前記特徴データの確率分布を算出し、
前記学習する処理は、
前記オートエンコーダーと前記モデルとを学習する、ことを特徴とする請求項1に記載の学習方法。 - 前記モデルは、混合ガウスモデル(GMM:Gaussian Mixture Model)であり、
前記学習する処理は、
前記オートエンコーダーの符号化のパラメータおよび復号化のパラメータと、前記混合ガウスモデルのパラメータとを学習する、ことを特徴とする請求項2に記載の学習方法。 - 前記算出する処理は、
前記第一の復号化データと前記データとの類似度に基づいて、前記特徴データの確率分布を算出する、ことを特徴とする請求項1~3のいずれか一つに記載の学習方法。 - 前記算出する処理は、
パラメトリックに前記特徴データの確率分布を算出する、ことを特徴とする請求項1~4のいずれか一つに記載の学習方法。 - 前記ノイズは、前記特徴データと同じ次元数であり、次元間で互いに無相関であり、かつ、平均が0である分布に基づく一様乱数である、ことを特徴とする請求項1~5のいずれか一つに記載の学習方法。
- 前記第一の誤差は、微分した結果が所定の条件を満たすように規定された誤差関数に基づいて算出される、ことを特徴とする請求項1~6のいずれか一つに記載の学習方法。
- 前記第一の誤差は、前記第一の復号化データと前記データとの二乗誤差である、ことを特徴とする請求項1~7のいずれか一つに記載の学習方法。
- 前記第一の誤差は、前記第一の復号化データと前記データとの二乗誤差の対数である、ことを特徴とする請求項1~8のいずれか一つに記載の学習方法。
- 前記第二の誤差は、前記第一の復号化データと前記第二の復号化データとの二乗誤差である、ことを特徴とする請求項1~9のいずれか一つに記載の学習方法。
- 符号化と復号化を実行するオートエンコーダーの学習プログラムであって、
入力されたデータを符号化し、
前記データを符号化して得た特徴データの確率分布を算出し、
前記特徴データを復号化して第一の復号化データを生成し、
前記特徴データにノイズを加算し、
前記ノイズを加算した前記特徴データを復号化して第二の復号化データを生成し、
生成した前記第一の復号化データと前記データとの第一の誤差と、前記第一の復号化データと生成した前記第二の復号化データとの第二の誤差と、算出した前記確率分布の情報エントロピーとを最小化するように、前記オートエンコーダーと、前記特徴データの確率分布とを学習する、
処理をコンピュータに実行させることを特徴とする学習プログラム。 - 符号化と復号化を実行するオートエンコーダーの学習装置であって、
入力されたデータを符号化し、
前記データを符号化して得た特徴データの確率分布を算出し、
前記特徴データを復号化して第一の復号化データを生成し、
前記特徴データにノイズを加算し、
前記ノイズを加算した前記特徴データを復号化して第二の復号化データを生成し、
生成した前記第一の復号化データと前記データとの第一の誤差と、前記第一の復号化データと生成した前記第二の復号化データとの第二の誤差と、算出した前記確率分布の情報エントロピーとを最小化するように、前記オートエンコーダーと、前記特徴データの確率分布とを学習する、
制御部を有することを特徴とする学習装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/037370 WO2021059348A1 (ja) | 2019-09-24 | 2019-09-24 | 学習方法、学習プログラム、および学習装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021059348A1 JPWO2021059348A1 (ja) | 2021-04-01 |
JPWO2021059348A5 JPWO2021059348A5 (ja) | 2022-02-09 |
JP7205640B2 true JP7205640B2 (ja) | 2023-01-17 |
Family
ID=75165170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021548017A Active JP7205640B2 (ja) | 2019-09-24 | 2019-09-24 | 学習方法、学習プログラム、および学習装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220207371A1 (ja) |
JP (1) | JP7205640B2 (ja) |
WO (1) | WO2021059348A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240232624A1 (en) | 2021-05-17 | 2024-07-11 | Nippon Telegraph And Telephone Corporation | Neural network learning apparatus, neural network learning method, and program |
WO2023166688A1 (ja) * | 2022-03-04 | 2023-09-07 | 富士通株式会社 | 機械学習プログラム,情報処理装置及び機械学習方法 |
WO2024089770A1 (ja) * | 2022-10-25 | 2024-05-02 | 富士通株式会社 | 情報処理プログラム、装置、及び方法 |
CN117116350B (zh) * | 2023-10-25 | 2024-02-27 | 中国农业科学院深圳农业基因组研究所(岭南现代农业科学与技术广东省实验室深圳分中心) | Rna测序数据的校正方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019140680A (ja) | 2018-02-09 | 2019-08-22 | 株式会社Preferred Networks | オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム |
JP2019159823A (ja) | 2018-03-13 | 2019-09-19 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
-
2019
- 2019-09-24 JP JP2021548017A patent/JP7205640B2/ja active Active
- 2019-09-24 WO PCT/JP2019/037370 patent/WO2021059348A1/ja active Application Filing
-
2022
- 2022-03-21 US US17/699,363 patent/US20220207371A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019140680A (ja) | 2018-02-09 | 2019-08-22 | 株式会社Preferred Networks | オートエンコーダ装置、データ処理システム、データ処理方法及びプログラム |
JP2019159823A (ja) | 2018-03-13 | 2019-09-19 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
Non-Patent Citations (2)
Title |
---|
尾亦 範泰,"オートエンコーダによる低次元化と可視化",可視化情報学会誌,日本,一般社団法人可視化情報学会,2018年10月01日,第38巻第151号,pp. 9-13,第9 頁右欄第20 行目-第10 頁左欄第36 行目の"2.オートエンコーダ 概観"、第11 頁左欄第28-44 行目の"3.2 デノイジングオートエンコーダ"、 第11 頁右欄第6-25 行目の"3.4 変分オートエンコーダ"参照 |
野崎 俊貴,"スパース推定に基づく適応正則化オンライン学習の特徴選択問題",計算機統計学,日本,日本計算機統計学会,2017年02月11日,第29巻第2号,pp. 117-131,特に、第125頁第3-29行目参照 |
Also Published As
Publication number | Publication date |
---|---|
WO2021059348A1 (ja) | 2021-04-01 |
JPWO2021059348A1 (ja) | 2021-04-01 |
US20220207371A1 (en) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7205640B2 (ja) | 学習方法、学習プログラム、および学習装置 | |
CN108304390B (zh) | 基于翻译模型的训练方法、训练装置、翻译方法及存储介质 | |
JP6599294B2 (ja) | 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム | |
JP7424078B2 (ja) | 画像エンコーディング方法及び装置並びに画像デコーディング方法及び装置 | |
Hsu et al. | Unsupervised learning of disentangled and interpretable representations from sequential data | |
JPWO2021059348A5 (ja) | ||
De'Ath | Boosted trees for ecological modeling and prediction | |
Tokdar et al. | Simultaneous linear quantile regression: a semiparametric Bayesian approach | |
CN108804526B (zh) | 兴趣确定系统、兴趣确定方法及存储介质 | |
CN111930914B (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
KR20170030923A (ko) | 음향 모델 생성 장치 및 방법, 음성 인식 장치 및 방법 | |
CN113961967B (zh) | 基于隐私保护联合训练自然语言处理模型的方法及装置 | |
Ntalampiras et al. | Acoustic detection of unknown bird species and individuals | |
JP7205641B2 (ja) | 学習方法、学習プログラム、および学習装置 | |
WO2019116352A1 (en) | Scalable parameter encoding of artificial neural networks obtained via an evolutionary process | |
Tokdar et al. | Simultaneous linear quantile regression: A semiparametric bayesian approach | |
KR102697095B1 (ko) | Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램 | |
CN113597620A (zh) | 使用神经网络的压缩感测 | |
Kinsner | Is entropy suitable to characterize data and signals for cognitive informatics? | |
CN115759482A (zh) | 一种社交媒体内容传播预测方法和装置 | |
JPWO2021059349A5 (ja) | ||
JP2019079102A (ja) | 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム | |
US11886233B2 (en) | Architecture for generating QA pairs from contexts | |
Ahmed et al. | Genetic algorithm based framework for optimized sensing matrix design in compressed sensing | |
Zhu et al. | A hybrid model for nonlinear regression with missing data using quasilinear kernel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7205640 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |