JP7396847B2 - 学習装置、学習方法および学習プログラム - Google Patents
学習装置、学習方法および学習プログラム Download PDFInfo
- Publication number
- JP7396847B2 JP7396847B2 JP2019184138A JP2019184138A JP7396847B2 JP 7396847 B2 JP7396847 B2 JP 7396847B2 JP 2019184138 A JP2019184138 A JP 2019184138A JP 2019184138 A JP2019184138 A JP 2019184138A JP 7396847 B2 JP7396847 B2 JP 7396847B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- model
- task
- parameters
- solve
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 114
- 238000012545 processing Methods 0.000 claims description 45
- 238000013528 artificial neural network Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 16
- 230000002159 abnormal effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 238000013526 transfer learning Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 238000000700 time series analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Image Analysis (AREA)
Description
以下の実施の形態では、第1の実施形態に係る学習装置10の構成、学習装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
まず、図1を用いて、学習装置10の構成を説明する。図1は、第1の実施形態に係る学習装置の構成例を示すブロック図である。学習装置10は、時系列データを入力とするモデルを学習する装置である。学習装置10が学習するモデルはどのようなモデルであってもよい。例えば、学習装置10は、工場やプラントなどの監視対象設備に設置されるセンサによって取得された複数のデータを収集し、収集された複数のデータを入力として、監視対象設備の異常を予測するためのモデルを学習する。
次に、図5を用いて、第1の実施形態に係る学習装置10による処理手順の例を説明する。図5は、第1の実施形態に係る学習装置における学習処理の流れの一例を示すフローチャートである。
第1の実施形態に係る学習装置10は、処理対象に関する時系列データを取得する。そして、学習装置10は、取得した時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで第一のモデルのパラメータを更新する学習処理を行う。続いて、学習装置10は、学習用データセットを用いて、学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで第二のモデルのパラメータを更新する学習処理を行う。これにより、第1の実施形態に係る学習装置10では、時系列データに関するモデルについて、迅速かつ精度よく学習を行うことができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPUおよび当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、上記実施形態において説明した学習装置が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態に係る学習装置10が実行する処理をコンピュータが実行可能な言語で記述した算出プログラムを作成することもできる。この場合、コンピュータが算出プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる算出プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された算出プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
11 通信処理部
12 制御部
12a 取得部
12b 第一の学習部
12c 第二の学習部
13 記憶部
13a データ記憶部
13b 学習済みモデル記憶部
Claims (11)
- 処理対象に関する時系列データを取得する取得部と、
前記取得部によって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習部と、
前記学習用データセットを用いて、前記第一の学習部によって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習部と
を有し、
前記取得部は、前記時系列データとして、センサデータを取得し、
前記第一の学習部は、前記取得部によって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習部は、前記学習用データセットを用いて、前記第一の学習部によって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータを分類するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習装置。 - 処理対象に関する時系列データを取得する取得部と、
前記取得部によって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習部と、
前記学習用データセットを用いて、前記第一の学習部によって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習部と
を有し、
前記取得部は、前記時系列データとして、センサデータを取得し、
前記第一の学習部は、前記取得部によって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習部は、前記学習用データセットを用いて、前記第一の学習部によって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータの異常値を検知するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習装置。 - 処理対象に関する時系列データを取得する取得部と、
前記取得部によって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習部と、
前記学習用データセットを用いて、前記第一の学習部によって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習部と
を有し、
前記取得部は、前記時系列データとして、センサデータを取得し、
前記第一の学習部は、前記取得部によって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータを一定区間で区切り、順番をランダムに並び替えたものを正しい順番に並び替えるタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習部は、前記学習用データセットを用いて、前記第一の学習部によって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習装置。 - 前記第二の学習部は、前記第二のタスクを解かせることで前記第二のモデル全体のパラメータを更新する学習処理を行うことを特徴とする請求項1に記載の学習装置。
- 前記第二の学習部は、前記第二のタスクを解かせることで前記第二のモデルにおける一部のパラメータを更新する学習処理を行うことを特徴とする請求項1に記載の学習装置。
- 学習装置によって実行される学習方法であって、
処理対象に関する時系列データを取得する取得工程と、
前記取得工程によって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習工程と、
前記学習用データセットを用いて、前記第一の学習工程によって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習工程と
を含み、
前記取得工程は、前記時系列データとして、センサデータを取得し、
前記第一の学習工程は、前記取得工程によって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習工程は、前記学習用データセットを用いて、前記第一の学習工程によって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータを分類するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習方法。 - 学習装置によって実行される学習方法であって、
処理対象に関する時系列データを取得する取得工程と、
前記取得工程によって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習工程と、
前記学習用データセットを用いて、前記第一の学習工程によって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習工程と
を含み、
前記取得工程は、前記時系列データとして、センサデータを取得し、
前記第一の学習工程は、前記取得工程によって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習工程は、前記学習用データセットを用いて、前記第一の学習工程によって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータの異常値を検知するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習方法。 - 学習装置によって実行される学習方法であって、
処理対象に関する時系列データを取得する取得工程と、
前記取得工程によって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習工程と、
前記学習用データセットを用いて、前記第一の学習工程によって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習工程と
を含み、
前記取得工程は、前記時系列データとして、センサデータを取得し、
前記第一の学習工程は、前記取得工程によって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータを一定区間で区切り、順番をランダムに並び替えたものを正しい順番に並び替えるタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習工程は、前記学習用データセットを用いて、前記第一の学習工程によって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習方法。 - 処理対象に関する時系列データを取得する取得ステップと、
前記取得ステップによって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習ステップと、
前記学習用データセットを用いて、前記第一の学習ステップによって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習ステップと
をコンピュータに実行させ、
前記取得ステップは、前記時系列データとして、センサデータを取得し、
前記第一の学習ステップは、前記取得ステップによって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習ステップは、前記学習用データセットを用いて、前記第一の学習ステップによって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータを分類するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習プログラム。 - 処理対象に関する時系列データを取得する取得ステップと、
前記取得ステップによって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習ステップと、
前記学習用データセットを用いて、前記第一の学習ステップによって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習ステップと
をコンピュータに実行させ、
前記取得ステップは、前記時系列データとして、センサデータを取得し、
前記第一の学習ステップは、前記取得ステップによって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習ステップは、前記学習用データセットを用いて、前記第一の学習ステップによって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータの異常値を検知するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習プログラム。 - 処理対象に関する時系列データを取得する取得ステップと、
前記取得ステップによって取得された時系列データを学習用データセットとして用いて、複数の層で構成されるニューラルネットワークを含む第一のモデルに対して、第一のタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行う第一の学習ステップと、
前記学習用データセットを用いて、前記第一の学習ステップによって学習処理が行われた第一のモデルのパラメータを初期値としたニューラルネットワークを含む第二のモデルに対して、第一のタスクと異なる第二のタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行う第二の学習ステップと
をコンピュータに実行させ、
前記取得ステップは、前記時系列データとして、センサデータを取得し、
前記第一の学習ステップは、前記取得ステップによって取得されたセンサデータを学習用データセットとして用いて、前記第一のモデルに対して、前記センサデータを一定区間で区切り、順番をランダムに並び替えたものを正しい順番に並び替えるタスクを解かせることで前記第一のモデルのパラメータを更新する学習処理を行い、
前記第二の学習ステップは、前記学習用データセットを用いて、前記第一の学習ステップによって学習処理が行われた第一のモデルのパラメータを初期値として、前記センサデータの所定時間後の値を予測するタスクを解かせることで前記第二のモデルのパラメータを更新する学習処理を行うことを特徴とする学習プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019184138A JP7396847B2 (ja) | 2019-10-04 | 2019-10-04 | 学習装置、学習方法および学習プログラム |
PCT/JP2020/037783 WO2021066194A1 (ja) | 2019-10-04 | 2020-10-05 | 学習装置、学習方法および学習プログラム |
CN202080058191.0A CN114270372A (zh) | 2019-10-04 | 2020-10-05 | 学习装置、学习方法及学习程序 |
US17/711,034 US20220230067A1 (en) | 2019-10-04 | 2022-04-01 | Learning device, learning method, and learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019184138A JP7396847B2 (ja) | 2019-10-04 | 2019-10-04 | 学習装置、学習方法および学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021060762A JP2021060762A (ja) | 2021-04-15 |
JP7396847B2 true JP7396847B2 (ja) | 2023-12-12 |
Family
ID=75336527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019184138A Active JP7396847B2 (ja) | 2019-10-04 | 2019-10-04 | 学習装置、学習方法および学習プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220230067A1 (ja) |
JP (1) | JP7396847B2 (ja) |
CN (1) | CN114270372A (ja) |
WO (1) | WO2021066194A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022250053A1 (ja) * | 2021-05-26 | 2022-12-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 学習方法、学習装置、及び、プログラム |
KR102538475B1 (ko) * | 2022-04-21 | 2023-05-31 | 주식회사 앤트랩 | 사전 정의 작업 기반 데이터 선별 방법, 이를 이용한 능동 학습 방법, 그리고 이를 구현한 컴퓨팅 장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190228313A1 (en) | 2018-01-23 | 2019-07-25 | Insurance Services Office, Inc. | Computer Vision Systems and Methods for Unsupervised Representation Learning by Sorting Sequences |
-
2019
- 2019-10-04 JP JP2019184138A patent/JP7396847B2/ja active Active
-
2020
- 2020-10-05 WO PCT/JP2020/037783 patent/WO2021066194A1/ja active Application Filing
- 2020-10-05 CN CN202080058191.0A patent/CN114270372A/zh active Pending
-
2022
- 2022-04-01 US US17/711,034 patent/US20220230067A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190228313A1 (en) | 2018-01-23 | 2019-07-25 | Insurance Services Office, Inc. | Computer Vision Systems and Methods for Unsupervised Representation Learning by Sorting Sequences |
Non-Patent Citations (5)
Title |
---|
ERHAN, D., et al.,Why does unsupervised pre-training help deep learning?,In Proceedings of the thirteenth international conference on artificial intelligence and statistics,2010年,pp.625-660 |
LEE, H. Y., et al.,Unsupervised representation learning by sorting sequences.,In Proceedings of the IEEE International Conference on Computer Vision,2017年,pp.667-676 |
MALHOTRA, P., et al.,TimeNet: Pre-trained deep recurrent neural network for time series classification. [online],2017年06月23日,[検索日 2020.11.20], Internet: <URL:https://arxiv.org/pdf/1706.08838.pdf> |
Phoeboooo,CNN 転移学習とファインチューニング [online],2019年01月08日,[検索日 2020.11.20], Internet: <URL:https://qiita.com/Phoeboooo/items/667409baf4b95f41fa55> |
WANG, Y. X., et al.,Growing a brain: Fine-tuning by increasing model capacity,In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017年,pp.2471-2480 |
Also Published As
Publication number | Publication date |
---|---|
JP2021060762A (ja) | 2021-04-15 |
WO2021066194A1 (ja) | 2021-04-08 |
CN114270372A (zh) | 2022-04-01 |
US20220230067A1 (en) | 2022-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210034980A1 (en) | Real-time visualization of machine learning models | |
JP6755849B2 (ja) | 人工ニューラルネットワークのクラスに基づく枝刈り | |
US11100403B2 (en) | Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation | |
Yigitbasi et al. | Towards machine learning-based auto-tuning of mapreduce | |
JP2020194560A (ja) | 因果関係分析方法および電子デバイス | |
WO2020049094A1 (en) | Computer-implemented method, computer program product and system for data analysis | |
CN113168559A (zh) | 机器学习模型的自动化生成 | |
US20220230067A1 (en) | Learning device, learning method, and learning program | |
JP2018528511A (ja) | 生産システムにおける出力効率の最適化 | |
CN115427968A (zh) | 边缘计算设备中的鲁棒人工智能推理 | |
US20220011760A1 (en) | Model fidelity monitoring and regeneration for manufacturing process decision support | |
Khurana et al. | Automating feature engineering | |
EP4009239A1 (en) | Method and apparatus with neural architecture search based on hardware performance | |
JP2016139336A (ja) | 予測装置、予測方法および予測プログラム | |
CN114358274A (zh) | 训练用于图像识别的神经网络的方法和设备 | |
CA3157288A1 (en) | Systems and methods for identifying influential training data points | |
WO2019103773A1 (en) | Automatically identifying alternative functional capabilities of designed artifacts | |
KR102507014B1 (ko) | 에너지 보존을 통한 심층 신경망 경량화 기법 및 장치 | |
JP6172315B2 (ja) | 混合モデル選択の方法及び装置 | |
JP7046252B2 (ja) | 学習装置、学習方法および学習プログラム | |
JP2020181318A (ja) | 最適化装置、最適化方法、及びプログラム | |
JP7163977B2 (ja) | 推定装置、学習装置、それらの方法、およびプログラム | |
JP7118210B2 (ja) | 学習装置、抽出装置、学習方法、抽出方法、学習プログラムおよび抽出プログラム | |
JP2021149590A (ja) | 学習装置、学習方法及び学習プログラム | |
JP7010403B1 (ja) | 情報処理装置及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7396847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |