JP2021043772A - 提供装置、提供方法及びプログラム - Google Patents
提供装置、提供方法及びプログラム Download PDFInfo
- Publication number
- JP2021043772A JP2021043772A JP2019166084A JP2019166084A JP2021043772A JP 2021043772 A JP2021043772 A JP 2021043772A JP 2019166084 A JP2019166084 A JP 2019166084A JP 2019166084 A JP2019166084 A JP 2019166084A JP 2021043772 A JP2021043772 A JP 2021043772A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- learning model
- information
- unit
- extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
Description
はじめに、第1実施形態の提供システム100の機能構成の例について説明する。
図1は第1実施形態の提供システム100の機能構成の例を示す図である。第1実施形態の提供システム100は、提供装置10、及び、デバイス20a〜20cを備える。提供装置10、及び、デバイス20a〜20cは、ネットワーク200を介して接続されている。以下、デバイス20a〜20cを区別しない場合は、単にデバイス20という。
図2は第1実施形態のデバイス情報の例を示す図である。第1実施形態のデバイス情報は、特定情報、スペック情報及び制御情報を含む。
図3は第1実施形態の抽出条件リストの例を示す図である。図3の例では、抽出条件リストは、制御ランク、モデル情報及び推論情報を含む。
第1機械学習モデルは、一般的なニューラルネットワークで用いられる各層(全結合層や畳み込み層)の重み係数のテンソルを、テンソル分解法によって2以上のテンソル(分解テンソル)に分解された分解層を持つように学習されている。
次に、第1実施形態の提供方法の例について説明する。
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
図9は第2実施形態の提供システム100−2の機能構成の例を示す図である。第2実施形態の提供システム100−2は、提供装置10−2、及び、デバイス20a〜20cを備える。
図10は第2実施形態の管理情報の例を示す図である。第2実施形態の管理情報は、デバイス情報、デプロイ情報及び学習情報を含む。
提供部6は、第2機械学習モデルをデバイス20に提供すると、抽出条件に提供時の付随情報を付加したデプロイ情報を生成し、当該デプロイ情報を記憶制御部4へ入力する。付随情報は、例えばデプロイ日時、デプロイ時の送受信結果、デプロイ時の通信時間、及び、エラー情報などの情報である。記憶制御部4は、デプロイ情報、及び、取得部1により取得されたデバイス情報を、上述の学習情報に関連付けて、管理情報として記憶部5に記憶する。
次に、提供装置10−2が、ネットワーク200を介して管理情報の公開リクエストを受信した場合の動作について説明する。
次に、第2実施形態の提供方法の例について説明する。
次に第3実施形態について説明する。第3実施形態の説明では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
図13は第3実施形態の提供システム100−3の機能構成の例を示す図である。第2実施形態の提供システム100−3は、提供装置10−3、及び、デバイス20a〜20cを備える。
図14は第3実施形態の学習部8の機能構成の例を示す図である。第3実施形態の学習部8は、モデル取得部21、学習データ取得部22、近似部23、損失計算部24、勾配計算部25、勾配集積部26及び更新部27を備える。
次に、第3実施形態の学習方法の例について説明する。
ニューラルネットワークの推論時に、深さ方向を任意に変更可能な技術としてネットワークの常微分方程式による表現方法が従来技術(非特許文献2、ODEと略す)として公開されている。
図16は第1乃至第3実施形態の提供装置100(100−2,100−3)のハードウェア構成の例を示す図である。なお、提供装置100は1つのハードウェア構成で実現しても良いし、複数のハードウェア構成を組み合わせても良い。
2 設定部
3 抽出部
4 記憶制御部
5 記憶部
6 提供部
7 UI部
8 学習部
10 提供装置
20 デバイス
21 モデル取得部
22 学習データ取得部
23 近似部
24 損失計算部
25 勾配計算部
26 集積部
27 更新部
200 ネットワーク
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
Claims (13)
- ニューラルネットワークのモデルの演算量を変更可能な第1機械学習モデルを記憶部に記憶する記憶制御部と、
デバイス情報を取得する取得部と、
前記デバイス情報に基づいて、前記第1機械学習モデルから第2機械学習モデルを抽出する条件を示す抽出条件を設定する設定部と、
前記抽出条件に基づいて前記第1機械学習モデルから第2機械学習モデルを抽出する抽出部と、
前記第2機械学習モデルを前記デバイス情報により特定されるデバイスに提供する提供部と、
を備える提供装置。 - 前記第2機械学習モデルのサイズは、前記第1機械学習モデルのサイズよりも小さい、
請求項1に記載の提供装置。 - 前記記憶制御部は、前記デバイス情報と前記抽出条件とを関連付けて、管理情報として前記記憶部に記憶する、
請求項1又は2に記載の提供装置。 - 前記第1機械学習モデルを学習する学習部を更に備え、
前記記憶制御部は、前記管理情報に、前記第1機械学習モデルの学習情報を更に関連付けて前記記憶部に記憶する、
請求項3に記載の提供装置。 - 前記学習情報は、前記第1機械学習モデルを識別する識別情報、前記第1機械学習モデルが生成された日、及び、前記第1機械学習モデルの学習に使用された学習データセットを識別する識別情報を含む、
請求項4に記載の提供装置。 - 前記管理情報の公開リクエストを受信し、前記公開リクエストで指定された検索条件に応じた応答を返すUI(User Interface)、
を更に備える請求項3乃至5のいずれか1項に記載の提供装置。 - 前記デバイス情報は、前記デバイスを特定する特定情報、及び、前記デバイスのハードウェア仕様を示すスペック情報を含む、
請求項1乃至6のいずれか1項に記載の提供装置。 - 前記デバイス情報は、前記第2機械学習モデルを用いた推論処理の制御情報を更に含む、
請求項7に記載の提供装置。 - 前記制御情報は、前記第2機械学習モデルが搭載されたデバイスで実行される推論処理の目標演算量、前記デバイスで実行される推論処理に用いられる前記第2機械学習モデルの目標モデルサイズ、前記デバイスで実行される推論処理の目標速度、及び、前記デバイスで実行される推論処理の目標認識率のうち、少なくとも1つを含む、
請求項8に記載の提供装置。 - 前記抽出条件は、前記第2機械学習モデルの演算量を制御するランクを含み、
前記抽出部は、前記第1機械学習モデルに含まれる重み行列のうち、少なくとも1つの重み行列を特異値分解により2つ以上の行列に分解し、分解後の行列のサイズを前記ランクに応じて変えることによって、前記第1機械学習モデルから前記第2機械学習モデルを抽出する、
請求項1乃至9のいずれか1項に記載の提供装置。 - 前記抽出条件は、前記第2機械学習モデルの層数を含み、
前記第1機械学習モデルは、ResNetブロックを含み、
前記抽出部は、前記ResNetブロックを常微分方程式とみなして、前記抽出条件で指定された層数に展開されたネットワーク表現に分解することによって、前記第1機械学習モデルから前記第2機械学習モデルを抽出する、
請求項1乃至9のいずれか1項に記載の提供装置。 - ニューラルネットワークのモデルの演算量を変更可能な第1機械学習モデルを記憶部から読み出すステップと、
デバイス情報を取得するステップと、
前記デバイス情報に基づいて、前記第1機械学習モデルから第2機械学習モデルを抽出する条件を示す抽出条件を設定するステップと、
前記抽出条件に基づいて前記第1機械学習モデルから第2機械学習モデルを抽出するステップと、
前記第2機械学習モデルを前記デバイス情報により特定されるデバイスに提供するステップと、
を含む提供方法。 - コンピュータを、
ニューラルネットワークのモデルの演算量を変更可能な第1機械学習モデルを記憶部に記憶する記憶制御部と、
デバイス情報を取得する取得部と、
前記デバイス情報に基づいて、前記第1機械学習モデルから第2機械学習モデルを抽出する条件を示す抽出条件を設定する設定部と、
前記抽出条件に基づいて前記第1機械学習モデルから第2機械学習モデルを抽出する抽出部と、
前記第2機械学習モデルを前記デバイス情報により特定されるデバイスに提供する提供部、
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019166084A JP7051772B2 (ja) | 2019-09-12 | 2019-09-12 | 提供装置、提供方法及びプログラム |
US16/802,231 US11436490B2 (en) | 2019-09-12 | 2020-02-26 | Providing apparatus, providing method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019166084A JP7051772B2 (ja) | 2019-09-12 | 2019-09-12 | 提供装置、提供方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043772A true JP2021043772A (ja) | 2021-03-18 |
JP7051772B2 JP7051772B2 (ja) | 2022-04-11 |
Family
ID=74863432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019166084A Active JP7051772B2 (ja) | 2019-09-12 | 2019-09-12 | 提供装置、提供方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11436490B2 (ja) |
JP (1) | JP7051772B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022190801A1 (ja) * | 2021-03-10 | 2022-09-15 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理システム、情報処理方法及び記録媒体 |
WO2022202366A1 (ja) * | 2021-03-25 | 2022-09-29 | パナソニックIpマネジメント株式会社 | データ支援システム、データ支援方法、プログラム、統合システム、及び処理装置 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6595151B2 (ja) | 2017-06-29 | 2019-10-23 | 株式会社Preferred Networks | 訓練方法、訓練装置、プログラム及び非一時的コンピュータ可読媒体 |
US20220310069A1 (en) * | 2021-03-25 | 2022-09-29 | Kwai Inc. | Methods and devices for irregular pruning for automatic speech recognition |
WO2024088580A1 (en) * | 2023-02-03 | 2024-05-02 | Lenovo (Singapore) Pte. Ltd | Assisting an analytics training function to select a machine learning model in a wireless communication network |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018142766A1 (ja) * | 2017-02-03 | 2018-08-09 | パナソニックIpマネジメント株式会社 | 学習済みモデル提供方法および学習済みモデル提供装置 |
WO2018173121A1 (ja) * | 2017-03-21 | 2018-09-27 | 株式会社Preferred Networks | サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム |
US20190122108A1 (en) * | 2017-10-24 | 2019-04-25 | Baidu Usa Llc | Systems and methods for trace norm regularization and faster inference for embedded models |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488035B2 (en) * | 2017-11-08 | 2022-11-01 | Siemens Aktiengesellschaft | Method and device for machine learning in a computing unit |
US11475369B2 (en) * | 2019-06-28 | 2022-10-18 | Intel Corporation | Methods and apparatus to provide machine assisted programming |
JP7114528B2 (ja) | 2019-07-08 | 2022-08-08 | 株式会社東芝 | 推論装置、学習装置、推論方法及び学習方法 |
US11475128B2 (en) * | 2019-08-16 | 2022-10-18 | Mandiant, Inc. | System and method for heterogeneous transferred learning for enhanced cybersecurity threat detection |
US11537882B2 (en) * | 2019-10-28 | 2022-12-27 | Samsung Sds Co., Ltd. | Machine learning apparatus and method for object detection |
US11087883B1 (en) * | 2020-04-02 | 2021-08-10 | Blue Eye Soft, Inc. | Systems and methods for transfer-to-transfer learning-based training of a machine learning model for detecting medical conditions |
US11557399B2 (en) * | 2020-04-30 | 2023-01-17 | Optum, Inc. | Integrative machine learning framework for combining sentiment-based and symptom-based predictive inferences |
-
2019
- 2019-09-12 JP JP2019166084A patent/JP7051772B2/ja active Active
-
2020
- 2020-02-26 US US16/802,231 patent/US11436490B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018142766A1 (ja) * | 2017-02-03 | 2018-08-09 | パナソニックIpマネジメント株式会社 | 学習済みモデル提供方法および学習済みモデル提供装置 |
WO2018173121A1 (ja) * | 2017-03-21 | 2018-09-27 | 株式会社Preferred Networks | サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム |
US20190122108A1 (en) * | 2017-10-24 | 2019-04-25 | Baidu Usa Llc | Systems and methods for trace norm regularization and faster inference for embedded models |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022190801A1 (ja) * | 2021-03-10 | 2022-09-15 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理システム、情報処理方法及び記録媒体 |
WO2022202366A1 (ja) * | 2021-03-25 | 2022-09-29 | パナソニックIpマネジメント株式会社 | データ支援システム、データ支援方法、プログラム、統合システム、及び処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210081781A1 (en) | 2021-03-18 |
US11436490B2 (en) | 2022-09-06 |
JP7051772B2 (ja) | 2022-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7051772B2 (ja) | 提供装置、提供方法及びプログラム | |
US11693901B2 (en) | Systems and methods for geolocation prediction | |
US10360500B2 (en) | Two-phase distributed neural network training system | |
EP3416105A1 (en) | Information processing method and information processing device | |
US20160092767A1 (en) | Apparatus and method for learning a model corresponding to time-series input data | |
WO2017003886A1 (en) | Training and operation of computational models | |
CN108780314A (zh) | 针对不稳定环境的模型适配和在线学习 | |
JP6948851B2 (ja) | 情報処理装置、情報処理方法 | |
JP7114528B2 (ja) | 推論装置、学習装置、推論方法及び学習方法 | |
JP6516406B2 (ja) | 処理装置、処理方法、およびプログラム | |
CN111783810A (zh) | 用于确定用户的属性信息的方法和装置 | |
US11227228B2 (en) | Processing apparatus, processing method, estimating apparatus, estimating method, and program | |
Snyder et al. | A deep learning approach for lower back-pain risk prediction during manual lifting | |
Wang et al. | Road surface real-time detection based on Raspberry Pi and recurrent neural networks | |
US20230115987A1 (en) | Data adjustment system, data adjustment device, data adjustment method, terminal device, and information processing apparatus | |
WO2019234156A1 (en) | Training spectral inference neural networks using bilevel optimization | |
US20200104644A1 (en) | Training apparatus, training method and recording medium | |
CN116843022A (zh) | 一种数据处理方法及相关装置 | |
US20230052255A1 (en) | System and method for optimizing a machine learning model | |
US20210209489A1 (en) | Processing a classifier | |
CN115718740A (zh) | 用于稀疏时间序列数据集的数据插补的方法和装置 | |
JP2023106081A (ja) | モデル生成方法、モデル生成装置、推論プログラム、及び推論装置 | |
WO2019235370A1 (ja) | 学習装置、予測装置、方法、及びプログラム | |
Augsondit et al. | Rockfall Isolation Technique Based on DC-DBSCAN with k-Means Clustering and k-Nearest Neighbors Algorithm | |
US20240005172A1 (en) | Learning system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210312 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220224 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7051772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |