JP7022714B2 - クライアント装置、情報処理方法、及びプログラム - Google Patents
クライアント装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP7022714B2 JP7022714B2 JP2019059142A JP2019059142A JP7022714B2 JP 7022714 B2 JP7022714 B2 JP 7022714B2 JP 2019059142 A JP2019059142 A JP 2019059142A JP 2019059142 A JP2019059142 A JP 2019059142A JP 7022714 B2 JP7022714 B2 JP 7022714B2
- Authority
- JP
- Japan
- Prior art keywords
- stage portion
- stage
- weight
- edge
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
実施の形態に係る情報処理システムは、通信ネットワークを介してクラウド側のサーバと、ローカル側のクライアント装置とが通信可能な態様で接続している。ここで、実施の形態に係る情報処理システムでは、ニューラルネットワークを用いて生成された学習モデルの前段部分をサーバが保持し、後段部分をクライアント装置が保持している。このため、クライアント装置はサーバが保持している学習モデルにアクセスすることができない。
図1は、実施の形態に係るニューラルネットワークの構成を模式的に示す図である。また、図2は、実施の形態に係る情報処理システムIの全体構成を模式的に示す図である。
(2)クライアント装置1は、サーバSに、前段層を構成するエッジに設定された重みパラメータの大小を示す値の集合である前段重み指標群の提供を要求する。
(4)クライアント装置1は、後段層を構成するエッジに設定された重みパラメータの大小を示す値の集合である後段重み指標群を算出する。ここで、クライアント装置1は、前段重み指標群の算出手法と同一の手法を用いて後段重み指標群を算出する。これにより、クライアント装置1は、前段重み指標群と後段重み指標群とをそのまま比較することができるようになる。
図3は、実施の形態に係るクライアント装置1の機能構成を模式的に示す図である。クライアント装置1は、記憶部10と制御部11とを備える。図3において、矢印は主なデータの流れを示しており、図3に示していないデータの流れがあってもよい。図3において、各機能ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示す機能ブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。機能ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
重み指標の第1の態様は、重みを量子化して得られる値である。具体的には、前段重み指標群は、前段部を構成する層間を接続する各エッジに割り当てられた重みを所定の基準で量子化して得られる値の集合である。同様に、後段重み指標群は、後段部を構成する層間を接続する各エッジに割り当てられた重みを、前段重み指標群と同一の基準で量子化して得られる値の集合である。
重み指標の第2の態様は、エッジを通過する値から算出された統計量である。周知のように、ニューラルネットワークでは、各層が複数のノードを備え、各ノードが隣接する層が備えるノードとエッジによって接続されている。このとき、あるノードの出力値がエッジを介して接続する隣接ノードに入力されるとき、出力値にエッジの重みを乗じた値が入力値となる。入力値の大きさが大きいほど、その入力値が入力されるノードは活性化された重要なノードとなる。したがって、あるエッジの重要性は、そのエッジを通過する値の大小によっても推し量ることができる。
図7は、実施の形態に係るクライアント装置1が実行する処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば、クライアント装置1が起動したときに開始する。
以上説明したように、実施の形態に係る情報処理システムIによれば、クラウド側のサーバSとローカル側のクライアント装置1とに学習モデルを分散させる分散型学習モデルにおいて、クライアント装置1が学習モデルの軽量化を主導することができる。
上記では、クライアント装置1がサーバSから取得した前段重み指標群を参照して、クライアント装置1が前段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値を特定する場合について主に説明した。これに替えて、クライアント装置1からの要求に応答して、サーバS側でプルーニングの対象とするエッジを決定してクライアント装置1に通知してもよい。以下、第1の変形例として、クライアント装置1からの要求に応答して、サーバS側でプルーニングの対象とするエッジを決定する態様について説明する。
上記では、クライアント装置1がサーバSから取得した前段重み指標群を参照して、クライアント装置1が前段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値を特定する場合について主に説明した。これに替えて、サーバSがクライアント装置1から取得した指標に基づいて、サーバSが前段部のプルーニング対象のエッジを決定してもよい。
上述した第2の変形例では、クライアント装置1から後段重み指標群を取得したサーバSが、その後段重み指標群に基づいて前段部を構成する各エッジの中からプルーニング対象のエッジを特定する場合について説明した。第3の変形例は、第2の変形例と異なり、クライアント装置1がサーバSからエッジに関する重み指標を取得し、取得した重み指標に基づいて後段部を構成するエッジの中からプルーニング対象のエッジを特定する。
10・・・記憶部
11・・・制御部
110・・・軽量化指標取得部
111・・・前段指標取得部
112・・・後段指標取得部
113・・・特定部
114・・・通知部
115・・・プルーニング実行部
2・・・クライアント装置
20・・・記憶部
21・・・制御部
210・・・軽量化指標取得部
211・・・閾値設定部
212・・・閾値通知部
213・・・刈り取り数取得部
2130・・・第1刈り取り数取得部
2131・・・第2刈り取り数取得部
214・・・プルーニング実行部
I・・・情報処理システム
S・・・サーバ
Claims (9)
- 入力層と出力層とを含む複数の層から構成されるニューラルネットワークの学習モデルを構成する層のうち、少なくとも前記出力層を含む前記学習モデルの後段部を保持する記憶部と、
前記学習モデルの軽量化の目標値を取得する軽量化指標取得部と、
前記学習モデルのうち前記後段部を除いた部分である前段部を保持するサーバから、前記前段部を構成する層間を接続する各エッジに割り当てられた重みの重要性を示す値の集合である前段重み指標群を取得する前段指標取得部と、
前記後段部を構成する層間を接続する各エッジに割り当てられた重みの重要性を示す値の集合である後段重み指標群を取得する後段指標取得部と、
前記軽量化の目標値、前記前段重み指標群、及び前記後段重み指標群に基づいて、前記前段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値を特定する特定部と、
前記前段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値を前記サーバに通知する通知部と、
を備えるクライアント装置。 - 前記特定部は、前記後段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値をさらに特定し、
前記クライアント装置は、
前記後段部に含まれるエッジのうちプルーニングの対象とするエッジを刈り取るプルーニング実行部をさらに備える、
請求項1に記載のクライアント装置。 - 前記前段重み指標群は、前記前段部を構成する層間を接続する各エッジに割り当てられた重みを所定の基準で量子化して得られる値の集合であり、
前記後段重み指標群は、前記後段部を構成する層間を接続する各エッジに割り当てられた重みを、前記前段重み指標群と同一の基準で量子化して得られる値の集合である、
請求項1又は2に記載のクライアント装置。 - 前記記憶部は、前記学習モデルの再学習に用いるための再学習用データをさらに保持しており、
前記前段重み指標群は、前記前段部に前記再学習用データを入力したときに前記前段部を構成する層間を接続する各エッジを通過する値から算出された統計量である、
請求項1又は2に記載のクライアント装置。 - 前記統計量は、各エッジを通過する値の最大値である、
請求項4に記載のクライアント装置。 - 入力層と出力層とを含む複数の層から構成されるニューラルネットワークの学習モデルを構成する層のうち、少なくとも前記出力層を含む前記学習モデルの後段部を記憶する記憶部と、
前記学習モデルの軽量化の目標値を取得する軽量化指標取得部と、
前記学習モデルを構成する層間を接続する各エッジに割り当てられた重みに関する閾値であって、当該閾値以下の重みを刈り取るための閾値である前記後段部を除いた部分である前段部に適用するための第1プルーニング閾値及び前記後段部に適用するための第2プルーニング閾値を設定する閾値設定部と、
前記前段部を保持するサーバに前記第1プルーニング閾値を通知する閾値通知部と、
前記第1プルーニング閾値を適用した場合に刈り取られる前記前段部に含まれるエッジの数である第1刈り取り数を前記サーバから取得する第1刈り取り数取得部と、
前記第2プルーニング閾値を適用した場合に刈り取られる前記後段部に含まれるエッジの数である第2刈り取り数を取得する第2刈り取り数取得部と、を備え、
前記閾値設定部は、前記軽量化の目標値、前記第1刈り取り数、及び前記第2刈り取り数に基づいて、前記第1プルーニング閾値及び前記第2プルーニング閾値を修正して再設定する、
クライアント装置。 - 前記第1プルーニング閾値と前記第2プルーニング閾値とは同一である、
請求項6に記載のクライアント装置。 - プロセッサが、
入力層と出力層とを含む複数の層から構成されるニューラルネットワークの学習モデルを構成する層のうち、少なくとも前記出力層を含む前記学習モデルの後段部を記憶部から読み出すステップと、
前記学習モデルの軽量化の目標値を取得するステップと、
前記学習モデルのうち前記後段部を除いた部分である前段部を保持するサーバから、前記前段部を構成する層間を接続する各エッジに割り当てられた重みの重要性を示す値の集合である前段重み指標群を取得するステップと、
前記後段部を構成する層間を接続する各エッジに割り当てられた重みの重要性を示す値の集合である後段重み指標群を取得するステップと、
前記軽量化の目標値、前記前段重み指標群、及び前記後段重み指標群に基づいて、前記前段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値を特定するステップと、
前記前段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値を前記サーバに通知するステップと、
を実行する情報処理方法。 - コンピュータに、
入力層と出力層とを含む複数の層から構成されるニューラルネットワークの学習モデルを構成する層のうち、少なくとも前記出力層を含む前記学習モデルの後段部を記憶部から読み出す機能と、
前記学習モデルの軽量化の目標値を取得する機能と、
前記学習モデルのうち前記後段部を除いた部分である前段部を保持するサーバから、前記前段部を構成する層間を接続する各エッジに割り当てられた重みの重要性を示す値の集合である前段重み指標群を取得する機能と、
前記後段部を構成する層間を接続する各エッジに割り当てられた重みの重要性を示す値の集合である後段重み指標群を取得する機能と、
前記軽量化の目標値、前記前段重み指標群、及び前記後段重み指標群に基づいて、前記前段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値を特定する機能と、
前記前段部に含まれるエッジのうちプルーニングの対象とするエッジに対応する指標値を前記サーバに通知する機能と、
を実現させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019059142A JP7022714B2 (ja) | 2019-03-26 | 2019-03-26 | クライアント装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019059142A JP7022714B2 (ja) | 2019-03-26 | 2019-03-26 | クライアント装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020160764A JP2020160764A (ja) | 2020-10-01 |
JP7022714B2 true JP7022714B2 (ja) | 2022-02-18 |
Family
ID=72643461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019059142A Active JP7022714B2 (ja) | 2019-03-26 | 2019-03-26 | クライアント装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7022714B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230111099A (ko) * | 2022-01-17 | 2023-07-25 | 네이버 주식회사 | 딥러닝 모델의 튜닝 방법 및 시스템 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017530435A (ja) | 2014-06-30 | 2017-10-12 | アマゾン・テクノロジーズ・インコーポレーテッド | 機械学習モデル評価のための対話型インターフェース |
US10127495B1 (en) | 2017-04-14 | 2018-11-13 | Rohan Bopardikar | Reducing the size of a neural network through reduction of the weight matrices |
-
2019
- 2019-03-26 JP JP2019059142A patent/JP7022714B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017530435A (ja) | 2014-06-30 | 2017-10-12 | アマゾン・テクノロジーズ・インコーポレーテッド | 機械学習モデル評価のための対話型インターフェース |
US10127495B1 (en) | 2017-04-14 | 2018-11-13 | Rohan Bopardikar | Reducing the size of a neural network through reduction of the weight matrices |
Also Published As
Publication number | Publication date |
---|---|
JP2020160764A (ja) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10460241B2 (en) | Server and cloud computing resource optimization method thereof for cloud big data computing architecture | |
US11290534B2 (en) | System and method for scheduling computer tasks | |
Verma et al. | Play it again, simmr! | |
US20190079846A1 (en) | Application performance control system for real time monitoring and control of distributed data processing applications | |
CN113821332B (zh) | 自动机器学习系统效能调优方法、装置、设备及介质 | |
JP6901423B2 (ja) | 情報処理装置、情報処理端末、及びプログラム | |
US8380675B1 (en) | Mailbox archiving using adaptive patterns | |
US10261767B2 (en) | Data integration job conversion | |
CN115080248B (zh) | 调度装置的调度优化方法、调度装置和存储介质 | |
JP7022714B2 (ja) | クライアント装置、情報処理方法、及びプログラム | |
US20230222004A1 (en) | Data locality for big data on kubernetes | |
JP6305645B2 (ja) | ホスト型分析のための動的n次元キューブ | |
US11113287B1 (en) | Data stream management system | |
TWI758223B (zh) | 具有動態最小批次尺寸之運算方法,以及用於執行該方法之運算系統及電腦可讀儲存媒體 | |
Lytvyn et al. | Development of Intellectual System for Data De-Duplication and Distribution in Cloud Storage. | |
US20230186168A1 (en) | Performing automated tuning of hyperparameters in a federated learning environment | |
Bellamkonda Sathyanarayanan et al. | A novel oppositional chaotic flower pollination optimization algorithm for automatic tuning of Hadoop configuration parameters | |
WO2021144992A1 (ja) | 制御方法、制御プログラム、及び情報処理装置 | |
Bayram et al. | Improving reliability with dynamic syndrome allocation in intelligent software defined data centers | |
US11777519B2 (en) | Partitional data compression | |
KR102378038B1 (ko) | 타겟 네트워크의 속성을 갖는 합성 네트워크를 얻기 위한 그래프 생성 장치 및 방법 | |
JP7010383B2 (ja) | 判定方法および判定プログラム | |
US20240005215A1 (en) | Training models for federated learning | |
US12038822B2 (en) | Tenant database placement in oversubscribed database-as-a-service cluster | |
US20230421468A1 (en) | Method for generating traffic demand data of data center network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7022714 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |