JP2019079088A - 学習装置、プログラムパラメータおよび学習方法 - Google Patents
学習装置、プログラムパラメータおよび学習方法 Download PDFInfo
- Publication number
- JP2019079088A JP2019079088A JP2017202996A JP2017202996A JP2019079088A JP 2019079088 A JP2019079088 A JP 2019079088A JP 2017202996 A JP2017202996 A JP 2017202996A JP 2017202996 A JP2017202996 A JP 2017202996A JP 2019079088 A JP2019079088 A JP 2019079088A
- Authority
- JP
- Japan
- Prior art keywords
- output
- information
- input
- learning
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 34
- 239000011159 matrix material Substances 0.000 claims abstract description 132
- 239000000284 extract Substances 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 230000010365 information processing Effects 0.000 description 25
- 230000008569 process Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
〔1−1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する学習処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
ここで、学習装置10は、入力された情報(以下、「入力情報」と記載する。)に対し、入力情報に対応する情報(以下、「出力情報」と記載する。)を出力するモデルL10の作成を行う。例えば、モデルL10は、w2v(word2vec)やs2v(sentence2vec)等、単語や文章をベクトル(多次元量)に変換し、変換後のベクトルを用いて入力された文章に対応する応答を出力する。また、他の例では、モデルL10は、入力された静止画像や動画像に対応する静止画像や動画像を出力する。また、他の例では、モデルL10は、利用者の属性が入力情報として入力された際に、利用者に対して提供する広告の内容や種別を示す情報を出力する。
ここで、学習装置10は、エンコーダとして、RNN、LSTM、CNN(Convolutional Neural Network)、DPCN(Deep Predictive Coding Networks)等、任意の構造を有するニューラルネットワークをエンコーダとして採用してよい。また、学習装置10は、各レイヤごとに、DPCNの構造を有するニューラルネットワークを採用してもよい。
ここで、学習装置10は、エンコーダが有する中間層、すなわち、入力情報の特徴を抽出する中間層のうち、複数のノードの状態に基づいて、アテンション行列の列成分を設定するのであれば、任意の手法によりアテンション行列の列成分を設定してよい。例えば、学習装置10は、エンコーダが出力層側から第1中間層、第2中間層、および第3中間層を有する場合、第1中間層に含まれるノードをアテンション行列の第1の行に対応付け、第2中間層に含まれるノードをアテンション行列の第2の行に対応付け、第3中間層に含まれるノードをアテンション行列の第3の行に対応付ける。そして、学習装置10は、各ノードが出力する値やノードの状況等に基づいて、アテンション行列の各値を設定する。すなわち、学習装置10は、複数の中間層に含まれるノードのそれぞれに基づいて、複数の列成分を有するアテンション行列を生成する適用器の学習を行う。
ここで、学習装置10は、アテンション行列が適用されたエンコーダの出力から、出力情報を生成するデコーダであれば、任意の構成を有するデコーダの学習をおこなってよい。例えば、学習装置10は、CNN、RNN、LSTM、DPCN等のニューラルネットワークにより実現されるデコーダの学習を行ってよい。
なお、学習装置10は、上述した学習処理により学習が行われたモデルを用いて、情報処理装置100から受信した入力情報から出力情報を生成する測定処理を実行する。例えば、学習装置10は、情報処理装置100から入力情報を受信すると、受信した入力情報を順にモデルのエンコーダに入力し、デコーダが生成した出力情報を順次情報処理装置100へと出力する。
次に、図1を用いて、学習装置10が実行する学習処理および測定処理の一例について説明する。まず、学習装置10は、正解データとなる入力情報を情報処理装置200から取得する(ステップS1)。なお、正解データとなる入力情報は、例えば、論文や特許公報、ブログ、マイクロブログ、インターネット上のニュース記事等、任意のコンテンツが採用可能である。
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図3は、実施形態に係る学習装置の構成例を示す図である。図3に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
次に、図5を用いて、学習装置10が実行する処理の流れの一例について説明する。図5は、実施形態に係る処理の流れの一例を説明するフローチャートである。まず、学習装置10は、正解データを取得する(ステップS101)。続いて、学習装置10は、正解データとして取得した入力情報と出力情報とを抽出し(ステップS102)、複数の中間レイヤを有するエンコーダと、中間レイヤのノードの状態遷移の特徴を示すアテンション行列をエンコーダの出力に適用する適用器と、適用器の出力から出力情報を出力するデコーダとを学習する(ステップS103)。また、学習装置10は、測定対象として受付けた入力情報をエンコーダに入力し(ステップS104)、モデルが出力した出力情報を出力し(ステップS105)、処理を終了する。
上記では、学習装置10による学習処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
また、学習装置10は、全体で一つのDPCNにより構成されるエンコーダENやデコーダDCを有するモデルL10の学習を行ってもよい。また、学習装置10は、状態レイヤL20、復元レイヤL21、復元レイヤL22がそれぞれDPCNにより構成されるデコーダDCを有するモデルL10の学習を行ってもよい。
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。例えば、学習装置10が上述した学習処理によって生成したエンコーダおよびデコーダを有するモデルL10を含むプログラムパラメータを用いることで、学習装置10以外の情報処理装置が、上述した測定処理を実現してもよい。また、学習装置10は、正解データデータベース31を外部のストレージサーバに記憶させてもよい。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述してきた実施形態に係る学習装置10は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、学習装置10は、入力情報が入力される入力層、入力層の出力から入力情報の特徴を段階的に抽出する複数の中間層、および複数の中間層により抽出された入力情報の特徴を出力する出力層とを有する符号化器と、符号化器の出力に対して、複数の中間層が抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、適用器によってアテンション行列が適用された符号化器の出力から、入力情報に応じた出力情報を生成する復元器とを学習する。
20 通信部
30 記憶部
31 正解データデータベース
32 モデルデータベース
40 制御部
41 抽出部
42 学習部
43 受付部
44 生成部
45 出力部
100、200 情報処理装置
Claims (11)
- 入力情報が入力される入力層、当該入力層の出力から前記入力情報の特徴を段階的に抽出する複数の中間層、および前記複数の中間層により抽出された前記入力情報の特徴を出力する出力層とを有する符号化器と、前記符号化器の出力に対して、前記複数の中間層が抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、前記適用器によってアテンション行列が適用された前記符号化器の出力から、前記入力情報に応じた出力情報を生成する復元器とを学習する学習部
を有することを特徴とする学習装置。 - 前記学習部は、前記入力層に対して情報を入力した際における前記中間層に含まれるノードの状態に基づいた複数の列成分を有するアテンション行列を適用する適用器
を学習することを特徴とする請求項1に記載の学習装置。 - 前記学習部は、同じ中間層に含まれる各ノードの状態に応じた値を同じ列に配置したアテンション行列を適用する適用器を学習する
ことを特徴とする請求項2に記載の学習装置。 - 前記学習部は、前記複数の中間層に含まれるノードのうち、一部のノードの状態に応じた複数の小行列に基づいたアテンション行列を適用する適用器を学習する
ことを特徴とする請求項3に記載の学習装置。 - 前記学習部は、新たに入力された情報と、前回出力した情報とに基づいて新たに出力する情報を生成するノードを含む複数の中間層を有する符号化器を学習する
ことを特徴とする請求項1〜4のうちいずれか1つに記載の学習装置。 - 前記学習部は、前記符号化器が有する複数の中間層が他の層に情報を提供する時系列的な構造に応じた要素の値を有するアテンション行列を適用する適用器を学習する
ことを特徴とする請求項5に記載の学習装置。 - 前記学習部は、前記複数の中間層が有するノードと対応する要素を含むアテンション行列であって、所定の情報を前記入力層に入力した際における各ノードの状態に応じた列成分を有し、各ノードの時系列的な状態に応じた行成分を有するアテンション行列を適用する適用器を学習する
ことを特徴とする請求項5または6に記載の学習装置。 - 前記学習部は、ある時系列において他のノードから情報が提供されないノードと対応する行成分を0とするアテンション行列を適用する適用器を学習する
ことを特徴とする請求項7に記載の学習装置。 - 前記学習部は、前記符号化器の出力に対して、前記アテンション行列の固有値、固有ベクトル、若しくは特異値を適用する適用器を学習する
ことを特徴とする請求項1〜8のうちいずれか1つに記載の学習装置。 - 入力情報が入力される入力層、当該入力層の出力から前記入力情報の特徴を段階的に抽出する複数の中間層、および前記複数の中間層により抽出された前記入力情報の特徴を出力する出力層とを有する符号化器と、前記符号化器の出力に対して、前記複数の中間層が抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、前記適用器によってアテンション行列が適用された前記符号化器の出力から、前記入力情報に応じた出力情報を生成する復元器とを学習する学習工程
を含むことを特徴とする学習方法で生成される符号化器と適用器と復元器とからなるリカレントニューラルネットワークを含むプログラムパラメータ。 - 学習装置が実行する学習方法であって、
入力情報が入力される入力層、当該入力層の出力から前記入力情報の特徴を段階的に抽出する複数の中間層、および前記複数の中間層により抽出された前記入力情報の特徴を出力する出力層とを有する符号化器と、前記符号化器の出力に対して、前記複数の中間層が抽出した複数の属性に基づいた複数の列成分を有するアテンション行列を適用する適用器と、前記適用器によってアテンション行列が適用された前記符号化器の出力から、前記入力情報に応じた出力情報を生成する復元器とを学習する学習工程
を含むことを特徴とする学習方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017202996A JP6975610B2 (ja) | 2017-10-19 | 2017-10-19 | 学習装置および学習方法 |
US16/117,137 US20190122117A1 (en) | 2017-10-19 | 2018-08-30 | Learning device, non-transitory computer readable storage medium, and learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017202996A JP6975610B2 (ja) | 2017-10-19 | 2017-10-19 | 学習装置および学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079088A true JP2019079088A (ja) | 2019-05-23 |
JP6975610B2 JP6975610B2 (ja) | 2021-12-01 |
Family
ID=66169449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017202996A Active JP6975610B2 (ja) | 2017-10-19 | 2017-10-19 | 学習装置および学習方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190122117A1 (ja) |
JP (1) | JP6975610B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021177284A (ja) * | 2020-05-07 | 2021-11-11 | Kddi株式会社 | 複数の投稿時系列データを用いた異常・変化推定方法、プログラム及び装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
CN111797327B (zh) * | 2020-06-04 | 2021-06-18 | 南京擎盾信息科技有限公司 | 社交网络建模的方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017054214A (ja) * | 2015-09-07 | 2017-03-16 | ヤフー株式会社 | 判定装置、学習装置、情報配信装置、判定方法及び判定プログラム |
US20170262995A1 (en) * | 2016-03-11 | 2017-09-14 | Qualcomm Incorporated | Video analysis with convolutional attention recurrent neural networks |
-
2017
- 2017-10-19 JP JP2017202996A patent/JP6975610B2/ja active Active
-
2018
- 2018-08-30 US US16/117,137 patent/US20190122117A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017054214A (ja) * | 2015-09-07 | 2017-03-16 | ヤフー株式会社 | 判定装置、学習装置、情報配信装置、判定方法及び判定プログラム |
US20170262995A1 (en) * | 2016-03-11 | 2017-09-14 | Qualcomm Incorporated | Video analysis with convolutional attention recurrent neural networks |
Non-Patent Citations (1)
Title |
---|
DANILUK, MICHAL ほか: "Frustratingly Short Attention Spans in Neural Language Modeling", ARXIV[ONLINE], JPN6021012114, 15 February 2017 (2017-02-15), ISSN: 0004482878 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021177284A (ja) * | 2020-05-07 | 2021-11-11 | Kddi株式会社 | 複数の投稿時系列データを用いた異常・変化推定方法、プログラム及び装置 |
JP7291100B2 (ja) | 2020-05-07 | 2023-06-14 | Kddi株式会社 | 複数の投稿時系列データを用いた異常・変化推定方法、プログラム及び装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190122117A1 (en) | 2019-04-25 |
JP6975610B2 (ja) | 2021-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6355800B1 (ja) | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム | |
US10685050B2 (en) | Generating a topic-based summary of textual content | |
US11521110B2 (en) | Learning apparatus, learning method, and non-transitory computer readable storage medium | |
US20200104640A1 (en) | Committed information rate variational autoencoders | |
US11907675B2 (en) | Generating training datasets for training neural networks | |
JP6151404B1 (ja) | 学習装置、学習方法および学習プログラム | |
KR102488338B1 (ko) | 언어 모델을 압축하기 위한 전자 장치, 추천 워드를 제공하기 위한 전자 장치 및 그 동작 방법들 | |
JP6975610B2 (ja) | 学習装置および学習方法 | |
US11580362B2 (en) | Learning apparatus, generation apparatus, classification apparatus, learning method, and non-transitory computer readable storage medium | |
US20230394306A1 (en) | Multi-Modal Machine Learning Models with Improved Computational Efficiency Via Adaptive Tokenization and Fusion | |
JP2017199383A (ja) | モデル | |
JP7058556B2 (ja) | 判定装置、判定方法、および判定プログラム | |
US20200074277A1 (en) | Fuzzy input for autoencoders | |
JP6964481B2 (ja) | 学習装置、プログラムおよび学習方法 | |
CN117635275A (zh) | 基于大数据的智能电商运营商品管理平台及方法 | |
JP6400038B2 (ja) | 抽出装置および抽出方法 | |
JP6391617B2 (ja) | 学習装置、文章自動生成装置および学習方法 | |
JP2019021218A (ja) | 学習装置、プログラムパラメータ、学習方法およびモデル | |
JP2018045656A (ja) | 学習装置、プログラムパラメータおよび学習方法 | |
CN110633476B (zh) | 用于获取知识标注信息的方法及装置 | |
JP6979899B2 (ja) | 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム | |
JP6963988B2 (ja) | 提供装置、提供方法および提供プログラム | |
JP7265837B2 (ja) | 学習装置および学習方法 | |
JP2020004054A (ja) | 出力装置、出力方法および出力プログラム | |
WO2023112169A1 (ja) | 学習方法、推定方法、学習装置、推定装置、学習プログラム及び推定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6975610 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |