JP2022022876A5 - - Google Patents

Download PDF

Info

Publication number
JP2022022876A5
JP2022022876A5 JP2020118737A JP2020118737A JP2022022876A5 JP 2022022876 A5 JP2022022876 A5 JP 2022022876A5 JP 2020118737 A JP2020118737 A JP 2020118737A JP 2020118737 A JP2020118737 A JP 2020118737A JP 2022022876 A5 JP2022022876 A5 JP 2022022876A5
Authority
JP
Japan
Prior art keywords
data
processing
hierarchy
processed
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020118737A
Other languages
English (en)
Other versions
JP2022022876A (ja
Filing date
Publication date
Application filed filed Critical
Priority to JP2020118737A priority Critical patent/JP2022022876A/ja
Priority claimed from JP2020118737A external-priority patent/JP2022022876A/ja
Priority to US17/353,959 priority patent/US11900577B2/en
Priority to EP21180760.7A priority patent/EP3940603A1/en
Publication of JP2022022876A publication Critical patent/JP2022022876A/ja
Publication of JP2022022876A5 publication Critical patent/JP2022022876A5/ja
Pending legal-status Critical Current

Links

Description

本発明の目的を達成するために、本発明の一実施形態に係る処理装置は以下の構成を備える。すなわち、
複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
前記複数の階層のうちのそれぞれを処理対象階層として順次選択する制御手段と、
記処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
前記処理対象階層における処理を特定する情報に基づいて、前記データ保持手段に格納された前記処理対象階層における1つのチャネルそれぞれのデータを、前記複数の演算手段のうちの対応する1つの演算手段に並列に入力する第1の処理を行うか、前記データ保持手段に格納された前記処理対象階層における前記複数のチャネルのデータを順次読み出し、前記処理対象階層における1つのチャネルそれぞれのデータを前記複数の演算手段のそれぞれに並列に入力する第2の処理を行うか、を選択する選択手段と、
を備えることを特徴とする。

Claims (18)

  1. 複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
    前記複数の階層のうちのそれぞれを処理対象階層として順次選択する制御手段と、
    記処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
    それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
    前記処理対象階層における処理を特定する情報に基づいて、前記データ保持手段に格納された前記処理対象階層における1つのチャネルそれぞれのデータを、前記複数の演算手段のうちの対応する1つの演算手段に並列に入力する第1の処理を行うか、前記データ保持手段に格納された前記処理対象階層における前記複数のチャネルのデータを順次読み出し、前記処理対象階層における1つのチャネルそれぞれのデータを前記複数の演算手段のそれぞれに並列に入力する第2の処理を行うか、を選択する選択手段と、
    を備えることを特徴とする処理装置。
  2. 前記第2の処理では、前記処理対象階層における前記複数のチャネルのそれぞれ1つについて、該1つのチャネルのデータを前記データ保持手段から前記複数の演算手段に並列に入力することを繰り返すことを特徴とする、請求項1に記載の処理装置。
  3. 前記第2の処理において、前記複数の演算手段のそれぞれは、順次入力された前記処理対象階層におけるそれぞれのチャネルのデータを用いて、前記処理対象階層の次の階層における1つのチャネルに対応する演算結果を出力することを特徴とする、請求項2に記載の処理装置。
  4. 数のデータ格納手段をさらに備え、
    前記第1の処理において、前記複数のデータ格納手段のそれぞれは、前記複数の演算手段のうちの対応する1つの演算手段に、前記処理対象階層における対応する1つのチャネルのデータを供給し、前記複数のデータ格納手段のそれぞれは前記複数の演算手段のうちの異なる1つの演算手段に対応し、
    前記第2の処理において、前記複数のデータ格納手段のうちの1つのデータ格納手段は、前記複数の演算手段のそれぞれに、前記処理対象階層における共通の前記1つのチャネルのデータを供給する
    ことを特徴とする、請求項1から3のいずれか1項に記載の処理装置。
  5. 複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
    前記複数の階層のうちのそれぞれを処理対象階層として順次選択する制御手段と、
    記処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
    それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
    前記複数の演算手段のそれぞれによる演算結果を累積する累積手段と、
    前記処理対象階層における処理を特定する情報に基づいて、前記複数の演算手段のうちの1つの演算手段それぞれによる演算結果を前記処理対象階層の次の階層における対応する1つのチャネルの入力データとして出力する第1の処理を行うか、前記累積手段により得られた累積された演算結果を前記次の階層における1つのチャネルの入力データとして出力する第2の処理を行うか、を選択する選択手段と、
    を備えることを特徴とする処理装置。
  6. 前記第2の処理では、1つのチャネルのデータが対応する1つの前記演算手段に入力されるように、前記データ保持手段に格納された前記処理対象階層における複数のチャネルのデータが前記複数の演算手段に並列に入力される、請求項5に記載の処理装置。
  7. それぞれが前記複数の演算手段のうちの1つに対応する、複数の結果格納手段をさらに備え、
    前記第1の処理において、前記複数の演算手段のそれぞれは、対応する前記結果格納手段に前記演算結果を出力し、
    前記第2の処理において、前記複数の演算手段のそれぞれは、前記累積手段に前記演算結果を出力し、前記累積手段は、前記累積の結果を前記複数の結果格納手段のうちの1つに出力する
    ことを特徴とする、請求項5又は6に記載の処理装置。
  8. 前記第1の処理では、1つのチャネルのデータが対応する1つの前記演算手段に入力されるように、前記データ保持手段に格納された前記処理対象階層における複数のチャネルのデータが前記複数の演算手段に並列に入力される、請求項1から7のいずれか1項に記載の処理装置。
  9. 前記第1の処理において、前記複数の演算手段のそれぞれは、前記処理対象階層における1つのチャネルのデータを用いて、前記処理対象階層の次の階層における1つのチャネルに対応する演算結果を出力することを特徴とする、請求項1から8のいずれか1項に記載の処理装置。
  10. 前記処理対象階層における積和演算に用いる係数の少なくとも一部を保持する係数保持手段と、
    前記データ保持手段及び前記係数保持手段から前記複数の演算手段へのデータ供給を制御する供給制御手段と、をさらに備え、
    前記複数の演算手段のそれぞれは、入力された1つの前記データと1つの前記係数との積を算出し、算出された積を累計することにより、前記積和演算を行う
    ことを特徴とする、請求項1から9のいずれか1項に記載の処理装置。
  11. 前記処理対象階層における積和演算で用いられる前記データ及び前記係数が複数のグループに分類されており、
    前記選択手段は、積和演算に用いる前記データ及び前記係数の前記グループに基づいて、前記第1の処理を行うか、前記第2の処理を行うか、を選択することを特徴とする、請求項1から10のいずれか1項に記載の処理装置。
  12. 前記係数は畳み込み処理に用いるフィルタの重み係数であり、前記フィルタのサイズは前記階層ごとに設定可能であることを特徴とする、請求項1から11のいずれか1項に記載の処理装置。
  13. 前記係数は拡張畳み込み処理に用いるフィルタの重み係数であることを特徴とする、請求項1から11のいずれか1項に記載の処理装置。
  14. 前記データ保持手段はメモリであり、
    前記演算手段は乗算器と加算器とを備える演算コアを備え、
    前記メモリと前記演算コアとが設けられたチップを備えることを特徴とする、請求項1から11のいずれか1項に記載の処理装置。
  15. 前記選択手段は、
    前記演算コアへと入力されるデータの前記メモリ内のアドレスを指定する、前記チップに設けられたアドレス発行部を備える
    ことを特徴とする、請求項14に記載の処理装置。
  16. 前記選択手段は、
    前記演算コアへの入力を複数のソースから選択する、若しくは複数の前記演算コアからの出力のうち1つの出力を選択する、前記チップに設けられたマルチプレクサを備える
    ことを特徴とする、請求項14に記載の処理装置。
  17. 前記畳み込みニューラルネットワークに従う演算は処理対象画像に対して行われ、
    前記処理対象階層におけるデータは、前記畳み込みニューラルネットワークに従う演算の過程で得られる特徴画像である
    ことを特徴とする、請求項1から16のいずれか1項に記載の処理装置。
  18. 前記処理対象画像に対して前記畳み込みニューラルネットワークに従う演算を行うように、前記複数の演算手段を制御する制御手段と、
    前記処理対象画像に対して前記畳み込みニューラルネットワークに従う演算を行うことにより得られた処理結果に基づいて、前記処理対象画像に対する画像処理を行う画像処理手段と、
    をさらに備えることを特徴とする、請求項17に記載の処理装置。
JP2020118737A 2020-07-09 2020-07-09 畳み込みニューラルネットワーク処理装置 Pending JP2022022876A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020118737A JP2022022876A (ja) 2020-07-09 2020-07-09 畳み込みニューラルネットワーク処理装置
US17/353,959 US11900577B2 (en) 2020-07-09 2021-06-22 Processing apparatus for performing processing using a convolutional neural network
EP21180760.7A EP3940603A1 (en) 2020-07-09 2021-06-22 Processing apparatus for performing pointwise convolutions and depthwise convolutions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020118737A JP2022022876A (ja) 2020-07-09 2020-07-09 畳み込みニューラルネットワーク処理装置

Publications (2)

Publication Number Publication Date
JP2022022876A JP2022022876A (ja) 2022-02-07
JP2022022876A5 true JP2022022876A5 (ja) 2023-07-12

Family

ID=76553571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020118737A Pending JP2022022876A (ja) 2020-07-09 2020-07-09 畳み込みニューラルネットワーク処理装置

Country Status (3)

Country Link
US (1) US11900577B2 (ja)
EP (1) EP3940603A1 (ja)
JP (1) JP2022022876A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7165018B2 (ja) * 2018-10-03 2022-11-02 キヤノン株式会社 情報処理装置、情報処理方法
CN115204355A (zh) * 2021-04-14 2022-10-18 蒂普爱可斯有限公司 能够重新使用数据的神经处理单元及其方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4891197B2 (ja) 2007-11-01 2012-03-07 キヤノン株式会社 画像処理装置および画像処理方法
JP6102645B2 (ja) * 2013-09-11 2017-03-29 富士通株式会社 積和演算回路及び積和演算システム
US10268881B2 (en) 2015-09-30 2019-04-23 Canon Kabushiki Kaisha Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium
JP6700712B2 (ja) 2015-10-21 2020-05-27 キヤノン株式会社 畳み込み演算装置
GB201607713D0 (en) 2016-05-03 2016-06-15 Imagination Tech Ltd Convolutional neural network
US10360470B2 (en) 2016-10-10 2019-07-23 Gyrfalcon Technology Inc. Implementation of MobileNet in a CNN based digital integrated circuit
JP6961011B2 (ja) 2016-12-09 2021-11-05 ベイジン ホライズン インフォメーション テクノロジー カンパニー リミテッド データ管理のためのシステム及び方法
EP3564866A4 (en) * 2016-12-28 2020-03-25 Shanghai Cambricon Information Technology Co., Ltd CALCULATION PROCEDURE
JP2018156266A (ja) * 2017-03-16 2018-10-04 富士通株式会社 演算器および演算器の制御方法
JP7053995B2 (ja) * 2018-04-16 2022-04-13 富士通株式会社 最適化装置及び最適化装置の制御方法
JP7345262B2 (ja) 2019-03-11 2023-09-15 キヤノン株式会社 データ圧縮装置、データ処理装置、データ圧縮方法、プログラム、及び学習済みモデル
EP3968242A4 (en) * 2019-05-10 2022-08-10 Sony Group Corporation ARITHMETIC OPERATION DEVICE AND ARITHMETIC OPERATION SYSTEM
JP7402623B2 (ja) * 2019-06-17 2023-12-21 キヤノン株式会社 フィルタ処理装置及びその制御方法
JP7008221B2 (ja) * 2019-12-27 2022-01-25 パナソニックIpマネジメント株式会社 ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置およびプログラム
JP2021144428A (ja) * 2020-03-11 2021-09-24 キヤノン株式会社 データ処理装置、データ処理方法
US11954830B2 (en) * 2020-12-17 2024-04-09 Nvidia Corporation High dynamic range support for legacy applications
CN114677258A (zh) * 2020-12-24 2022-06-28 英特尔公司 用于视觉渲染和合成的空间稀疏卷积模块的方法和设备
GB2602997B (en) * 2021-01-25 2023-03-01 Imagination Tech Ltd Implementing dilated convolution in hardware
CN115204355A (zh) * 2021-04-14 2022-10-18 蒂普爱可斯有限公司 能够重新使用数据的神经处理单元及其方法

Similar Documents

Publication Publication Date Title
US11816045B2 (en) Exploiting input data sparsity in neural network compute units
JP7279226B2 (ja) 代替ループ限界値
KR102120396B1 (ko) 심층 신경망용 가속기
KR102459855B1 (ko) 심층 신경망용 가속기
Sharify et al. Loom: Exploiting weight and activation precisions to accelerate convolutional neural networks
JP6715900B2 (ja) ニューラルネットワークのパラメータを適応させるための方法および装置
CN109992743B (zh) 矩阵乘法器
WO2019119301A1 (zh) 在卷积神经网络模型中确定特征图像的方法和装置
US20190095776A1 (en) Efficient data distribution for parallel processing
JP2019106186A (ja) 畳み込みニューラルネットワークにおいて畳み込み演算を実行する装置および方法
US11195095B2 (en) System and method of accelerating execution of a neural network
CN109844738A (zh) 运算处理电路和识别系统
JP2022022876A5 (ja)
JP6958027B2 (ja) 演算処理装置及び演算処理装置の制御方法
KR102610842B1 (ko) 뉴럴 네트워크에서의 프로세싱 엘리먼트 및 그 동작 방법
US11983616B2 (en) Methods and apparatus for constructing digital circuits for performing matrix operations
US11900577B2 (en) Processing apparatus for performing processing using a convolutional neural network
JP2001067206A (ja) モジュラー乗算を実行するためのシステム並びに方法
CN111507456A (zh) 具有卷积神经网络处理的方法和装置
US11132195B2 (en) Computing device and neural network processor incorporating the same
JP2023518717A (ja) 機械学習アクセラレータの電力削減
KR102510924B1 (ko) 대규모 병렬 연관된 승산기-누산기
CN113627587A (zh) 一种多通道式卷积神经网络加速方法及装置
GB2556413A (en) Exploiting input data sparsity in neural network compute units
KR101974779B1 (ko) 16비트 이하 양의 정수용 파이프라인형 제곱기