JP2020537270A5 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2020537270A5
JP2020537270A5 JP2020521617A JP2020521617A JP2020537270A5 JP 2020537270 A5 JP2020537270 A5 JP 2020537270A5 JP 2020521617 A JP2020521617 A JP 2020521617A JP 2020521617 A JP2020521617 A JP 2020521617A JP 2020537270 A5 JP2020537270 A5 JP 2020537270A5
Authority
JP
Japan
Prior art keywords
matrix data
kernel
kernels
information processing
pes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020521617A
Other languages
English (en)
Other versions
JP2020537270A (ja
JP6947300B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/JP2017/038428 external-priority patent/WO2019082290A1/en
Publication of JP2020537270A publication Critical patent/JP2020537270A/ja
Publication of JP2020537270A5 publication Critical patent/JP2020537270A5/ja
Application granted granted Critical
Publication of JP6947300B2 publication Critical patent/JP6947300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

一方、図13は、少ないoutputを演算し、多数のKernelを用いるConvolutional Layerにおいて実行される演算を示しており、例えば、深いレイヤ(deep layer)において実行される演算を示している。図13は、Kernel#11〜Kernel#14を用いて、四つのOutput matrix data(Output of Kerne11, Output of Kernel 12, Output of Kernel 13, 及び Output of Kernel 14)を生成することを示している。Kernel#11を用いて生成されたOutput matrix data(Output of Kernel 11)は、pixel D1及びpixel D2を有し、Kernel#12を用いて生成されたOutput matrix data(Output of Kernel 12)は、pixel D3及びpixel D4を有し、Kernel#13を用いて生成されたOutput matrix data(Output of Kernel 13)は、pixel D5及びpixel D6を有し、Kernel#14を用いて生成されたOutput matrix data(Output of Kernel 14)は、pixel D7及びpixel D8を有している。さらに、図13は、図12と同様に、PE(Processing Element)#1〜PE#4を用いて並列に演算を実行することを示している。

Claims (10)

  1. Input matrix dataに対して、複数のKernelを用いて畳み込み演算(convolution)を実行することによって、使用したKernel毎に異なるOutput matrix dataを生成するPE (Processing Element) Gridと、前記PE Gridは、前記Output matrix dataを構成する要素を算出する複数のPEを含み、
    前記Input matrix dataもしくは前記Output matrix dataの次元と、前記Kernelの数に基づいて、複数のOutput matrix dataが有する要素を並列に算出するか、もしくは、一つのOutput matrix dataが有する複数の前記要素を並列に算出するかを決定するParallelism コントローラと、を備える、情報処理装置。
  2. 前記Parallelism コントローラは、
    前記複数のPEのうち、演算を実行するPEの数が多くなるように、複数の前記Output matrix dataが有する要素を並列に算出するか、もしくは、一つのOutput matrix dataに含められる複数の前記要素を並列に算出するかを決定する、請求項1に記載の情報処理装置。
  3. 前記複数のPEに適用されるKernelを決定するSparse Weight Broadcasterをさらに備え、
    前記Parallelism コントローラは、
    前記PE Gridにおいて、同時に用いられるKernelの数を決定し、決定した前記Kernelの数に関する情報を前記Sparse Weight Broadcasterへ出力し、
    前記Sparse Weight Broadcasterは、
    決定された数のKernelの数が、並列に演算を実行するように、前記複数のPEに対してKernelを割り当てる、請求項1又は2に記載の情報処理装置。
  4. 前記Sparse Weight Broadcasterは、
    前記複数のPEへ、前記Kernelを識別するKernel ID及び前記Kernelに含められる複数のelementを識別するelement IDを含むindex情報と、前記Kernel ID及び前記element IDに関連付けられたWeight valueとを出力する、請求項3に記載の情報処理装置。
  5. 前記Parallelism コントローラは、
    前記複数のPEへ、前記Input matrix dataから抽出するdataを識別するaddress情報を出力し、
    前記複数のPEは、
    前記address情報に対応するdataを前記Input matrix dataから抽出する、請求項4に記載の情報処理装置。
  6. 同じKernelが割り当てられたそれぞれのPEは、
    前記Input matrix dataから異なるdataを抽出し、
    異なるKernelが割り当てられたそれぞれのPEは、
    前記Input matrix dataから同じdataを抽出する、請求項5に記載の情報処理装置。
  7. 前記Sparse Weight Broadcasterは、
    前記PE Gridに含まれるすべてのPEに対して同じKernelを割り当てるか、前記PE Gridに含まれるすべてのPEに対して異なるKernelを割り当てるか、もしくは、前記PE Gridに含まれる複数のPEを少なくとも2以上のグループに分割し、前記グループ毎に異なるKernelを割り当てる、請求項3乃至6のいずれか1項に記載の情報処理装置。
  8. 前記PEは、
    前記Kernelに含められるNon-zero valueを用いて要素の値を算出し、
    前記Sparse Weight Broadcasterは、
    それぞれの前記PEが要素を算出する際に用いるNon-zero valueの数の差が、予め定められた閾値を下回るように、それぞれのPEへ前記Kernelを割り当てる、請求項3乃至7のいずれか1項に記載の情報処理装置。
  9. Input matrix dataに対して、複数のKernelを用いて畳み込み演算(convolution)を実行することによって、使用したKernel毎に生成されるOutput matrix dataの次元もしくは前記Input matrix dataの次元と、前記Kernelの数とを取得し、
    前記Output matrix dataの次元もしくは前記Input matrix dataの次元と、前記Kernelの数とに基づいて、複数の前記Output matrix dataが有する要素を並列に算出するか、もしくは、一つのOutput matrix dataに含められる複数の前記要素を並列に算出するかを決定し、
    前記算出方法に基づいて、前記Output matrix dataを生成する、情報処理方法。
  10. Input matrix dataに対して、複数のKernelを用いて畳み込み演算(convolution)を実行することによって、使用したKernel毎に生成されるOutput matrix dataの次元もしくは前記Input matrix dataの次元と、前記Kernelの数とを取得し、
    前記Output matrix dataの次元もしくは前記Input matrix dataの次元と、前記Kernelの数とに基づいて、複数の前記Output matrix dataが有する要素を並列に算出するか、もしくは、一つのOutput matrix dataに含められる複数の前記要素を並列に算出するかを決定し、
    前記算出方法に基づいて、前記Output matrix dataを生成する、ことをコンピュータに実行させるプログラム
JP2020521617A 2017-10-25 2017-10-25 情報処理装置、情報処理方法、及びプログラム Active JP6947300B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/038428 WO2019082290A1 (en) 2017-10-25 2017-10-25 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND NON-TRANSIENT COMPUTER READABLE MEDIUM

Publications (3)

Publication Number Publication Date
JP2020537270A JP2020537270A (ja) 2020-12-17
JP2020537270A5 true JP2020537270A5 (ja) 2021-02-04
JP6947300B2 JP6947300B2 (ja) 2021-10-13

Family

ID=66247227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020521617A Active JP6947300B2 (ja) 2017-10-25 2017-10-25 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11301713B2 (ja)
JP (1) JP6947300B2 (ja)
WO (1) WO2019082290A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062617B2 (ja) * 2019-06-26 2022-05-06 株式会社東芝 演算装置および演算方法
KR20210082970A (ko) 2019-12-26 2021-07-06 삼성전자주식회사 컨볼루션 연산을 수행하는 방법 및 장치
CN112101284A (zh) * 2020-09-25 2020-12-18 北京百度网讯科技有限公司 图像识别方法、图像识别模型的训练方法、装置及系统
CN112862667A (zh) * 2021-01-29 2021-05-28 成都商汤科技有限公司 一种池化方法、芯片、设备和存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9453730B2 (en) * 2013-03-20 2016-09-27 Cognex Corporation Machine vision 3D line scan image acquisition and processing
US10706348B2 (en) * 2016-07-13 2020-07-07 Google Llc Superpixel methods for convolutional neural networks
US20180053091A1 (en) * 2016-08-17 2018-02-22 Hawxeye, Inc. System and method for model compression of neural networks for use in embedded platforms

Similar Documents

Publication Publication Date Title
JP2020537270A5 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017138964A5 (ja)
JP2018022216A5 (ja)
JP2017533502A5 (ja)
FI3539059T3 (fi) Kernel-askelluksen suorittaminen laitteistossa
JP2016515228A5 (ja)
JP2016509308A5 (ja)
WO2016094840A3 (en) System, method & computer readable medium for software protection via composable process-level virtual machines
JP2021504780A5 (ja)
JP2016530660A5 (ja)
RU2017105059A (ru) Устройство обработки изображений, способ обработки изображений, носитель записи и программа
JP2013175108A5 (ja)
JP2014016800A5 (ja)
JP2017515228A5 (ja)
RU2016105426A (ru) Постоянно читаемый компьютером носитель, система и способ для обнаружения сомнительного контента в социальной сети.
JP2016515742A5 (ja)
JP2017527013A5 (ja)
JP2019501464A5 (ja)
JP2015115075A5 (ja)
EP2990086A3 (en) Program, game system, and control method
JP6947300B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2018133110A5 (ja)
JP2018069019A5 (ja)
JP2018502425A5 (ja)
JP2015148947A5 (ja)