JP7031741B2 - モデル学習装置、方法及びプログラム - Google Patents
モデル学習装置、方法及びプログラム Download PDFInfo
- Publication number
- JP7031741B2 JP7031741B2 JP2020523646A JP2020523646A JP7031741B2 JP 7031741 B2 JP7031741 B2 JP 7031741B2 JP 2020523646 A JP2020523646 A JP 2020523646A JP 2020523646 A JP2020523646 A JP 2020523646A JP 7031741 B2 JP7031741 B2 JP 7031741B2
- Authority
- JP
- Japan
- Prior art keywords
- task
- model
- probability distribution
- neural network
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Description
この発明の一態様によるモデル学習装置によれば、Jを所定の2以上の整数とし、タスクJを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算部と、各タスクj∈1,…,Jに対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,Jに対応する計算された出力確率分布に基づいて計算される各タスクj∈1,…,Jの損失関数の値をタスクごとに最小化するようにニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新部と、を備えている。
モデル学習装置は、図3に示すように、モデル計算部30と、マルチタスク型モデル更新部31とを例えば備えている。モデル計算部30は、中間特徴量計算部301と、出力確率分布計算部302とを例えば備えている。マルチタスク型モデル更新部31は、図4に示すように、損失選択部311と、モデル更新部312とを例えば備えている。
モデル計算部30には、各タスクj∈1,…,Jに対応する特徴量が入力される。
中間特徴量計算部301は、中間特徴量計算部101と同様の処理を行う。
出力確率分布計算部302は、出力確率分布計算部102と同様の処理を行う。
マルチタスク型モデル更新部31には、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号と、モデル計算部30が計算した各タスクj∈1,…,Jに対応する各特徴量に対応する出力確率分布とが入力される。
損失選択部311には、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号と、モデル計算部30が計算した各タスクj∈1,…,Jに対応する各特徴量に対応する出力確率分布とが入力される。
モデル更新部312には、損失選択部311が所定の順序で出力した、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号と、各タスクj∈1,…,Jに対応する各特徴量に対応する出力確率分布とが入力される。
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。
上述の各種の処理は、図6に示すコンピュータ2000の記録部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
102 出力確率分布計算部
103 モデル更新部
201 マルチタスク型モデル更新部
30 モデル計算部
301 中間特徴量計算部
302 出力確率分布計算部
31 マルチタスク型モデル更新部
311 損失選択部
312 モデル更新部
Claims (7)
- Jを所定の2以上の整数とし、メインタスクをタスクJとし、メインタスクを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算部と、
各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,J-1に対応する前記計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタを更新した後に、タスクJに対応する前記特徴量に対応する正解ユニット番号及び前記計算された出力確率分布に基づいて計算されるタスクJの損失関数の値を最小化するように前記ニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新部と、
を含むモデル学習装置。 - Jを所定の2以上の整数とし、タスクJを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算部と、
各タスクj∈1,…,Jに対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,Jに対応する前記計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,Jの損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新部と、
を含むモデル学習装置。 - 請求項1又は2のモデル学習装置であって、
前記モデル更新部は、タスク1,…,J-1について昇順以外の順序で、前記各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタ更新を行う、
モデル学習装置。 - モデル計算部が、Jを所定の2以上の整数とし、メインタスクをタスクJとし、メインタスクを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算ステップと、
マルチタスク型モデル更新部が、各タスクj∈1,…,J-1に対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,J-1に対応する前記計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタを更新した後に、タスクJに対応する前記特徴量に対応する正解ユニット番号及び前記計算された出力確率分布に基づいて計算されるタスクJの損失関数の値を最小化するように前記ニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新ステップと、
を含むモデル学習方法。 - モデル計算部が、Jを所定の2以上の整数とし、タスクJを行うために必要な少なくとも1個のサブタスクをタスク1,…,J-1とし、各タスクj∈1,…,Jに対応する各特徴量をニューラルネットワークモデルに入力したときの出力層からの出力である出力確率分布を計算するモデル計算ステップと、
マルチタスク型モデル更新部が、各タスクj∈1,…,Jに対応する各特徴量に対応する正解ユニット番号及び各タスクj∈1,…,Jに対応する前記計算された出力確率分布に基づいて計算される前記各タスクj∈1,…,Jの損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタを更新するマルチタスク型モデル更新ステップと、
を含むモデル学習方法。 - 請求項4又は5のモデル学習方法であって、
前記モデル更新ステップは、タスク1,…,J-1について昇順以外の順序で、前記各タスクj∈1,…,J-1の損失関数の値をタスクごとに最小化するように前記ニューラルネットワークモデルのパラメタ更新を行う、
モデル学習方法。 - 請求項1から3の何れかのモデル学習装置の各部としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107643 | 2018-06-05 | ||
JP2018107643 | 2018-06-05 | ||
PCT/JP2019/020897 WO2019235283A1 (ja) | 2018-06-05 | 2019-05-27 | モデル学習装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019235283A1 JPWO2019235283A1 (ja) | 2021-06-03 |
JP7031741B2 true JP7031741B2 (ja) | 2022-03-08 |
Family
ID=68770361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020523646A Active JP7031741B2 (ja) | 2018-06-05 | 2019-05-27 | モデル学習装置、方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210224642A1 (ja) |
JP (1) | JP7031741B2 (ja) |
WO (1) | WO2019235283A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818658B (zh) * | 2020-01-14 | 2023-06-27 | 腾讯科技(深圳)有限公司 | 文本对分类模型的训练方法、分类方法、设备及存储介质 |
JP7421363B2 (ja) | 2020-02-14 | 2024-01-24 | 株式会社Screenホールディングス | パラメータ更新装置、分類装置、パラメータ更新プログラム、および、パラメータ更新方法 |
CN114926447B (zh) * | 2022-06-01 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于训练模型的方法、用于检测目标的方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009525547A (ja) | 2006-02-01 | 2009-07-09 | 本田技研工業株式会社 | 質問分類のためのメタ学習 |
JP2018025747A (ja) | 2016-08-09 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置およびプログラム |
WO2018047225A1 (ja) | 2016-09-06 | 2018-03-15 | 三菱電機株式会社 | 学習装置、信号処理装置および学習方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10977551B2 (en) * | 2016-12-14 | 2021-04-13 | Microsoft Technology Licensing, Llc | Hybrid reward architecture for reinforcement learning |
KR102424540B1 (ko) * | 2017-10-16 | 2022-07-25 | 삼성전자주식회사 | 문장 생성 모델의 업데이트 방법 및 문장 생성 장치 |
US20190324795A1 (en) * | 2018-04-24 | 2019-10-24 | Microsoft Technology Licensing, Llc | Composite task execution |
-
2019
- 2019-05-27 WO PCT/JP2019/020897 patent/WO2019235283A1/ja active Application Filing
- 2019-05-27 JP JP2020523646A patent/JP7031741B2/ja active Active
- 2019-05-27 US US15/734,201 patent/US20210224642A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009525547A (ja) | 2006-02-01 | 2009-07-09 | 本田技研工業株式会社 | 質問分類のためのメタ学習 |
JP2018025747A (ja) | 2016-08-09 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置およびプログラム |
WO2018047225A1 (ja) | 2016-09-06 | 2018-03-15 | 三菱電機株式会社 | 学習装置、信号処理装置および学習方法 |
Non-Patent Citations (1)
Title |
---|
Ofer Dekel et al.,Online Multitask Learning,ResearchGate,2006年06月,URL: https://www.researchgate.net/publication/221497586,DOI: 10.1007/11776420_34 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019235283A1 (ja) | 2021-06-03 |
WO2019235283A1 (ja) | 2019-12-12 |
US20210224642A1 (en) | 2021-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6712642B2 (ja) | モデル学習装置、その方法、及びプログラム | |
CN110807515B (zh) | 模型生成方法和装置 | |
JP7031741B2 (ja) | モデル学習装置、方法及びプログラム | |
CN110366734B (zh) | 优化神经网络架构 | |
JP6712644B2 (ja) | 音響モデル学習装置、その方法、及びプログラム | |
US20100275186A1 (en) | Segmentation for static analysis | |
WO2019198306A1 (ja) | 推定装置、学習装置、推定方法、学習方法及びプログラム | |
JP2019133046A (ja) | 学習装置、学習方法及び学習プログラム | |
KR102036968B1 (ko) | 전문화에 기반한 신뢰성 높은 딥러닝 앙상블 방법 및 장치 | |
JP6856503B2 (ja) | 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム | |
JPWO2019163718A1 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
KR20200100302A (ko) | 신경망 기반의 데이터 처리 방법, 신경망 트레이닝 방법 및 그 장치들 | |
JP2019095600A (ja) | 音響モデル学習装置、音声認識装置、それらの方法、及びプログラム | |
JP6827910B2 (ja) | 音響モデル学習装置、音声認識装置、それらの方法、及びプログラム | |
WO2019208564A1 (ja) | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム | |
JP7095747B2 (ja) | 音響モデル学習装置、モデル学習装置、それらの方法、およびプログラム | |
JP2016105232A (ja) | 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 | |
CN111737417B (zh) | 修正自然语言生成结果的方法和装置 | |
WO2019194128A1 (ja) | モデル学習装置、モデル学習方法、プログラム | |
JP6158105B2 (ja) | 言語モデル作成装置、音声認識装置、その方法及びプログラム | |
JP6633556B2 (ja) | 音響モデル学習装置、音声認識装置、音響モデル学習方法、音声認識方法、およびプログラム | |
WO2019235191A1 (ja) | モデル学習装置、方法及びプログラム | |
CN111523639A (zh) | 用于训练超网络的方法和装置 | |
CN117349129B (zh) | 车辆销售过程服务系统的异常优化方法及系统 | |
WO2023028996A1 (en) | Methods and devices for ensuring the reproducibility of software systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7031741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |