JP7373387B2 - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP7373387B2 JP7373387B2 JP2019230385A JP2019230385A JP7373387B2 JP 7373387 B2 JP7373387 B2 JP 7373387B2 JP 2019230385 A JP2019230385 A JP 2019230385A JP 2019230385 A JP2019230385 A JP 2019230385A JP 7373387 B2 JP7373387 B2 JP 7373387B2
- Authority
- JP
- Japan
- Prior art keywords
- calculation
- load
- layer
- intermediate layer
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 74
- 238000004364 calculation method Methods 0.000 claims description 256
- 238000013528 artificial neural network Methods 0.000 claims description 108
- 238000000034 method Methods 0.000 claims description 35
- 238000010586 diagram Methods 0.000 description 45
- 238000011176 pooling Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 22
- 238000013473 artificial intelligence Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000011144 upstream manufacturing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Description
{1.構成}
{1.1.情報処理システム100の構成}
図1は、本発明の一実施の形態に係る情報処理システム100の構成を示す機能ブロック図である。図1を参照して、情報処理システム100は、情報処理装置1と、記憶装置2とを備える。
図1を参照して、情報処理装置1は、演算部11と、演算対象選択部12と、演算指示部13とを備える。
図3は、図1に示すニューラルネットワーク20の構成を示す概略図である。図3を参照して、ニューラルネットワーク20は、入力層21と、畳み込み層22、23A、24A及び24Bと、プーリング層23B及び24Cと、全結合層25及び26と、出力層27とを備える。図3において、ニューラルネットワーク20が備えるノードの表示を省略している。
ニューラルネットワーク20において、中間層20A及び出力層27の各々は、個別のプログラムである。つまり、演算部11は、中間層20A及び出力層27の各々を個別に演算することができる。中間層20Aに含まれる一の中間層の演算を開始するためには、一の中間層と依存関係にある全ての中間層の演算が終了している必要がある。
図4は、図1に示す演算量データ52の一例を示す図である。図4を参照して、演算量データ52は、ニューラルネットワーク20に含まれる中間層20A及び出力層27の各々の演算量を記録する。
図6は、図2に示すCPU101の負荷のうち一般負荷55の時間変動の一例を示す図である。図6を参照して、一般負荷55とは、ニューラルネットワーク20の演算により発生する負荷を除いた負荷をCPU101の負荷から減算した数値である。一般負荷55は、前処理プログラム41と、結果出力プログラム42と、制御プログラム43との各々を実行することにより発生する負荷を含む。
カメラから入力された前方画像61の前処理が、時刻t11において完了する。情報処理装置1は、ニューラルネットワーク20を用いた歩行者の検出処理を時刻t11から開始する。時刻t11において、演算対象選択部12は、複数の中間層20Aの中から、畳み込み層22を演算対象として選択する。
図6を参照して、演算部11が、畳み込み層22の演算を時刻t12に完了する。演算対象選択部12は、時刻t12において、演算対象の中間層を中間層20Aの中から新たに選択する。
演算部11が、畳み込み層24Aの演算を時刻t13に完了する。演算対象選択部12は、時刻t13において、演算対象の中間層を中間層20Aの中から新たに選択する。
時刻t14において、畳み込み層23A及び24Bの両者の演算が完了する。その後、情報処理装置1は、上記と同様の処理を実行することにより、時刻t14においてプーリング層23Bを演算対象として選択し、時刻t15においてプーリング層24Bを選択する。時刻t14及びt15における演算対象の選択の詳細な説明を省略する。
図7は、図1に示す情報処理装置1の動作を示すフローチャートである。図7を参照して、情報処理装置1は、前方画像61が入力層21に入力された場合、又は、演算対象選択部12により選択された中間層の演算が完了した場合に、図7に示す処理を開始する。
[1.構成]
[1.1.情報処理装置1Aの構成]
図8は、本発明の第2の実施の形態に係る情報処理システム100Aの構成を示す機能ブロック図である。図8を参照して、情報処理システム100Aは、情報処理装置1に代えて、情報処理装置1Aを備える。情報処理装置1Aは、歩行者だけでなく交通標識を前方画像61から検出する。
図9は、図8に示すニューラルネットワーク30の構成を示す概略図である。図9を参照して、ニューラルネットワーク30は、入力層31と、畳み込み層32及び33と、プーリング層34と、全結合層35及び36と、出力層37とを備える。図9に示すニューラルネットワーク30において、ノードの表示を省略している。
情報処理装置1Aは、前方画像61の前処理が終了した場合、ニューラルネットワーク20及び30を用いて、歩行者及び交通標識を前処理された前方画像61から検出する。
図10を参照して、前方画像61の前処理が時刻t21において完了する。演算対象選択部12Aは、ニューラルネットワーク20及び30において演算可能な中間層として、畳み込み層22及び32を特定する。ニューラルネットワーク20及び30は、互いに独立しているためである。
時刻t22において、畳み込み層22及び32の演算が完了する。畳み込み層23A及び24Aは、畳み込み層22の下流に位置し、かつ、畳み込み層22に接続する。畳み込み層33は、畳み込み層32の下流に位置し、かつ、畳み込み層32に接続する。従って、演算対象選択部12Aは、演算可能な中間層として、畳み込み層23A、24A及び33を選択する。
時刻t22以降においても、演算対象選択部12Aは、中間層の演算が完了するたびに、演算可能な中間層をニューラルネットワーク20及び30の各々から特定し、特定した中間層の予想負荷と余裕負荷とに基づいて、演算対象の中間層を選択する。
(ニューラルネットワークとブロック線図との相互変換)
図11は、ニューラルネットワークをブロック線図に変換する一例を示す図である。ニューラルネットワークは重み付き有向グラフである。一般的なブロック線図において、ブロックの値の重みとして捉えた場合、一般的なブロック線図は、重み付き有向グラフと考えることができる。つまり、図11に示すように、ニューラルネットワークをブロック線図に変換することができる。
GPU(Graphics Processing Unit)サーバを用いて設計及び学習したニューラルネットワークが、構造的にそれ以上演算を削減できないと仮定する。この場合、ニューラルネットワークをマイクロコンピュータに実装する時の課題を、如何にしてCPI(Clocks Per Instruction)を改善するかに絞り込むことができる。レイテンシの小さな命令やメモリアクセス等の様々な方法がCPIの改善手法として知られている。しかし、CPIの改善に最も寄与するのは並列化である。そのため、ライブラリ開発に際しては、演算の依存関係をどこまでなくせるかを検討する必要がある。
手順2:各ノードを参照する全てのノード数である「被依存度」を求める。
手順3:非依存度の大きいノードから、空いている箱のうち、最も右に配置する。ただし、手順1で整理した位置よりも左に位置するように当該ノードを配置する。
上記実施の形態において、情報処理装置1は、ニューラルネットワーク20を互いに異なるプロセスID(IDentification)で実行してもよい。例えば、時刻t(k)に生成された前方画像61から歩行者を検出する画像認識処理と、時刻t(k+1)に生成された前方画像61から歩行者を検出する画像認識処理とは、互いに独立している。時刻t(k+1)は、時刻t(k)よりも後の時刻である。
1,1A 情報処理装置
11,11A 演算部
12,12A 演算対象選択部
13 演算指示部
21,31 入力層
22,23A,24A,24B,32,33 畳み込み層
23B,24C,34 プーリング層
25,26,35,36 全結合層
27,37 出力層
Claims (5)
- 複数の中間層を含むニューラルネットワークの演算と、前記ニューラルネットワークと異なる所定のプログラムの演算とを実行する演算部と、
前記ニューラルネットワークの構造と、前記複数の中間層の各々における演算量を示す演算量データと、前記演算部の負荷とに基づいて、前記複数の中間層のうち演算すべき中間層を選択する演算対象選択部と、
前記演算対象選択部により選択された中間層の演算を前記演算部に指示する演算指示部と、を備える情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記演算対象選択部は、前記ニューラルネットワークの演算により発生する前記演算部の負荷と、前記所定のプログラムの演算により発生する前記演算部の負荷との合計が、予め設定された前記演算部の負荷の上限を超えないように、前記演算すべき中間層を選択する、情報処理装置。 - 請求項1又は2に記載の情報処理装置であって、
前記複数の中間層は、
第1中間層と、
前記第1中間層の演算結果から独立した第2中間層と、を含み、
前記演算対象選択部は、前記第1中間層の演算により発生する前記演算部の負荷と前記第2中間層の演算により発生する前記演算部の負荷と前記所定のプログラムの演算により発生する前記演算部の負荷との合計が前記演算部の負荷の上限を超えない場合、前記第1中間層及び前記第2中間層を前記演算すべき中間層として選択する、情報処理装置。 - 請求項1~3のいずれか1項に記載の情報処理装置であって、
前記演算部は、第1中間層を含む第1ニューラルネットワークと、第2中間層を含む第2ニューラルネットワークとを演算し、
前記演算対象選択部は、前記第1中間層の演算により発生する前記演算部の負荷と前記第2中間層の演算により発生する前記演算部の負荷と前記所定のプログラムの演算により発生する前記演算部の負荷との合計が前記演算部の負荷の上限を超えない場合、前記第1中間層及び前記第2中間層を前記演算すべき中間層として特定する、情報処理装置。 - 複数の中間層を含むニューラルネットワークの演算と、前記ニューラルネットワークと異なるプログラムの演算とを実行する演算部を備える情報処理装置の制御方法であって、
前記ニューラルネットワークの構造と、前記複数の中間層の各々における演算量を示す演算量データと、前記演算部の負荷とに基づいて、前記複数の中間層のうち演算すべき中間層を選択するステップと、
前記選択された中間層の演算を前記演算部に指示するステップと、を備える情報処理装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019230385A JP7373387B2 (ja) | 2019-12-20 | 2019-12-20 | 情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019230385A JP7373387B2 (ja) | 2019-12-20 | 2019-12-20 | 情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021099596A JP2021099596A (ja) | 2021-07-01 |
JP7373387B2 true JP7373387B2 (ja) | 2023-11-02 |
Family
ID=76541222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019230385A Active JP7373387B2 (ja) | 2019-12-20 | 2019-12-20 | 情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7373387B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190045A (ja) | 2017-04-28 | 2018-11-29 | 日立オートモティブシステムズ株式会社 | 車両電子制御装置 |
US20190041961A1 (en) | 2018-09-27 | 2019-02-07 | Intel Corporation | Power savings for neural network architecture with zero activations during inference |
JP2019185275A (ja) | 2018-04-05 | 2019-10-24 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
-
2019
- 2019-12-20 JP JP2019230385A patent/JP7373387B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190045A (ja) | 2017-04-28 | 2018-11-29 | 日立オートモティブシステムズ株式会社 | 車両電子制御装置 |
JP2019185275A (ja) | 2018-04-05 | 2019-10-24 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
US20190041961A1 (en) | 2018-09-27 | 2019-02-07 | Intel Corporation | Power savings for neural network architecture with zero activations during inference |
Also Published As
Publication number | Publication date |
---|---|
JP2021099596A (ja) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242321B (zh) | 一种数据处理方法及相关产品 | |
JP6054005B1 (ja) | 推論装置及び推論方法 | |
JP5171118B2 (ja) | 演算処理装置及びその制御方法 | |
JP7078758B2 (ja) | 機械学習モデルを改良して局所性を改善させること | |
US11675997B2 (en) | Device and method for processing convolution operation using kernel | |
CN112084002B (zh) | 云环境下微服务系统的弹性伸缩方法、系统、介质及设备 | |
CN104067227A (zh) | 分支预测逻辑 | |
CN110554913A (zh) | 神经网络系统及其操作方法以及应用处理器 | |
US20190050512A1 (en) | Methods, systems, and devices for efficient computation of simulation runs | |
CN112711478A (zh) | 基于神经网络的任务处理方法、装置、服务器和存储介质 | |
CN113850364A (zh) | 非暂态计算机可读记录介质、学习方法和信息处理设备 | |
JP2020123269A (ja) | 演算装置 | |
WO2020164644A2 (zh) | 神经网络模型拆分方法、装置、计算机设备和存储介质 | |
JP7373387B2 (ja) | 情報処理装置 | |
US20210397948A1 (en) | Learning method and information processing apparatus | |
WO2020169182A1 (en) | Method and apparatus for allocating tasks | |
CN116862019B (zh) | 基于数据并行范式的模型训练方法及装置 | |
CN112395045A (zh) | 虚拟机回收及其资源调整方法 | |
CN115374914B (zh) | 分布式训练方法、并行深度学习框架及电子设备 | |
JP2008171153A (ja) | タスク管理装置 | |
JP5984155B2 (ja) | 情報処理装置、プログラム、及び、情報処理方法 | |
CN116451585A (zh) | 基于目标检测模型的自适应实时学习任务调度方法 | |
CN112541568A (zh) | 用于运行人工神经网络的方法、设备和计算机程序 | |
EP4310731A1 (en) | Electronic device and controlling method of electronic device | |
US20220236899A1 (en) | Information processing apparatus, information processing method, and computer-readable recording medium storing information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231023 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7373387 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |