JP2017219960A - 演算処理装置 - Google Patents

演算処理装置 Download PDF

Info

Publication number
JP2017219960A
JP2017219960A JP2016112727A JP2016112727A JP2017219960A JP 2017219960 A JP2017219960 A JP 2017219960A JP 2016112727 A JP2016112727 A JP 2016112727A JP 2016112727 A JP2016112727 A JP 2016112727A JP 2017219960 A JP2017219960 A JP 2017219960A
Authority
JP
Japan
Prior art keywords
calculation
data
result data
arithmetic
arithmetic processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016112727A
Other languages
English (en)
Other versions
JP6848216B2 (ja
Inventor
一輝 ▲高▼木
一輝 ▲高▼木
Kazuteru Takagi
智章 尾崎
Tomoaki Ozaki
智章 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016112727A priority Critical patent/JP6848216B2/ja
Publication of JP2017219960A publication Critical patent/JP2017219960A/ja
Application granted granted Critical
Publication of JP6848216B2 publication Critical patent/JP6848216B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Complex Calculations (AREA)

Abstract

【課題】ニューラルネットワークによる演算処理を実現する演算処理装置において、配線の複雑化や回路規模の増大を回避しつつ、最も特徴量が反映されている最大値の演算結果データを次段の処理層に入力する。【解決手段】複数の処理層が階層的に接続されたニューラルネットワークによる演算を実行する演算処理装置10は、下位側から上位側に向かって列状に配列される複数の演算ブロック11A〜11Hと、演算ブロック11A〜11Hにそれぞれ設けられ、演算を実行する複数の演算部16A〜16Hと、上位側の演算ブロック11E〜11Hの演算部16E〜16Hによる演算結果データの値、および、下位側の演算ブロック11A〜11Dの演算部16A〜16Dによる演算結果データの値を比較し、値の大きい演算結果データを出力する比較部17Hと、を備える。【選択図】図5

Description

本発明は、演算処理装置に関する。
従来より、複数の処理層が階層的に接続されたニューラルネットワークによる演算を実行する演算処理装置が考えられている。特に画像認識を行う演算処理装置においては、いわゆる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が中核的な存在となっている。
特許第5184824号公報
この種の畳み込みニューラルネットワークでは、前段の階層により得られる複数の異なる演算結果データ、つまり特徴量の抽出結果データに対して畳み込み演算処理、活性化処理、プーリング処理を実行し、その演算結果データを次段の階層に入力することを繰り返す。これにより、より高次元の特徴量の抽出を実現する。そのため、次段の階層には、より値の大きい演算結果データ、つまり、より特徴量が抽出されている演算結果データを入力することが好ましい。
従来の畳み込みニューラルネットワークでは、複数の演算ブロックが出力する演算結果データから最も値が大きい演算結果データを選択するための選択回路を設けることで、複数の演算結果データのうち最大値の演算結果データを次段の階層に入力するようにしている。しかし、従来構成では、演算ブロックの数に応じたデータ入力用の配線を選択回路に設けなければならず、配線の複雑化や回路規模の増大を招いている。
そこで、本発明は、ニューラルネットワークによる演算処理を実現する演算処理装置において、配線の複雑化や回路規模の増大を回避しつつ、最も特徴量が反映されている最大値の演算結果データを次段の処理層に入力することを目的とする。
本発明に係る演算処理装置は、複数の処理層が階層的に接続されたニューラルネットワークによる演算を実行する演算処理装置であって、複数の演算ブロック、複数の演算部、比較部を備える。演算ブロックは、下位側から上位側に向かって列状に配列されている。演算部は、演算ブロックにそれぞれ設けられており、演算を実行する。比較部は、上位側の演算ブロックの演算部による演算結果データの値、および、下位側の演算ブロックの演算部による演算結果データの値を比較し、より値の大きい演算結果データを出力する。
この構成によれば、複数の演算ブロックが出力する演算結果データから最も値が大きい演算結果データを選択するための選択回路を不要とすることができ、配線の複雑化や回路規模の増大を回避しつつ、最も特徴量が反映されている最大値の演算結果データを次段の処理層に入力することができる。
畳み込みニューラルネットワークの構成例を概念的に示す図 中間層における演算処理の流れを視覚的に例示する図(その1) 中間層における演算処理の流れを視覚的に例示する図(その2) 特徴量抽出処理に用いられる一般的な演算式および関数を例示する図 第1実施形態に係る演算処理装置の構成例を概略的に示すブロック図 演算処理装置による演算処理の流れを視覚的に例示する図(その1) 演算処理装置による演算処理の流れを視覚的に例示する図(その2) 第2実施形態に係る演算処理装置の構成例を概略的に示すブロック図(その1) 第2実施形態に係る演算処理装置の構成例を概略的に示すブロック図(その2) 演算処理装置による演算処理の流れを視覚的に例示する図 第3実施形態に係る演算処理装置の構成例を概略的に示すブロック図
以下、演算処理装置に係る複数の実施形態について図面を参照しながら説明する。なお、各実施形態において実質的に同一の要素には同一の符号を付し、説明を省略する。
(ニューラルネットワーク)
図1には、詳しくは後述する演算処理装置10,20,30,40に適用されるニューラルネットワーク、この場合、畳み込みニューラルネットワークの構成例を概念的に示している。畳み込みニューラルネットワークNは、入力データである画像データD1から所定の形状やパターンを認識する画像認識技術に応用されるものであり、中間層Naと全結合層Nbとを有する。中間層Naは、複数の特徴量抽出処理層Na1,Na2・・・が階層的に接続された構成である。各特徴量抽出処理層Na1,Na2・・・は、それぞれ畳み込み層Cおよびプーリング層Pを備える。
次に、中間層Naにおける処理の流れについて説明する。図2に例示するように、第1層目の特徴量抽出処理層Na1では、演算処理装置は、入力される画像データD1を例えばラスタスキャンにより所定サイズごとに走査する。そして、走査したデータに対して周知の特徴量抽出処理を施すことにより入力画像に含まれる複数の特徴量を抽出する。なお、第1層目の特徴量抽出処理層Na1では、例えば水平方向に延びる線状の特徴量や斜め方向に延びる線状の特徴量などといった比較的シンプルな単独の特徴量を抽出する。このとき、演算処理装置は、入力画像に含まれる複数の特徴にそれぞれ対応する複数の特徴マップを生成する。
第2層目の特徴量抽出処理層Na2では、演算処理装置は、前階層の特徴量抽出処理層Na1から入力される入力データを例えばラスタスキャンにより所定サイズごとに走査する。そして、走査したデータに対して周知の特徴量抽出処理を施すことにより入力画像に含まれる複数の特徴量を抽出する。なお、第2層目の特徴量抽出処理層Na2では、第1層目の特徴量抽出処理層Na1で抽出された複数の特徴量の空間的な位置関係などを考慮しながら統合させることで、より高次元の複合的な特徴量を抽出する。このとき、演算処理装置は、入力画像に含まれる複数の特徴にそれぞれ対応する複数の特徴マップを生成する。
第3層目の特徴量抽出処理層Na3では、演算処理装置は、前階層の特徴量抽出処理層Na2から入力される入力データを例えばラスタスキャンにより所定サイズごとに走査する。そして、走査したデータに対して周知の特徴量抽出処理を施すことにより入力画像に含まれる複数の特徴量を抽出する。なお、第3層目の特徴量抽出処理層Na3では、第2層目の特徴量抽出処理層Na2で抽出された複数の特徴量の空間的な位置関係などを考慮しながら統合させることで、より高次元の複合的な特徴量を抽出する。このとき、演算処理装置は、入力画像に含まれる複数の特徴にそれぞれ対応する複数の特徴マップを生成する。このように、複数の特徴量抽出処理層による特徴量の抽出処理を繰り返すことで、演算処理装置は、画像データD1に含まれる検出対象物体の画像認識を行う。
演算処理装置は、中間層Naにおいて複数の特徴量抽出処理層Na1,Na2,Na3・・・による処理を繰り返すことで入力画像データD1に含まれる種々の特徴量を高次元で抽出していく。そして、演算処理装置は、中間層Naの処理により得られた結果を中間演算結果データとして全結合層Nbに出力する。
全結合層Nbは、中間層Naから得られる複数の中間演算結果データを結合して最終的な演算結果データを出力する。即ち、全結合層Nbは、中間層Naから得られる複数の中間演算結果データを結合し、さらに、その結合結果に対して重み係数を異ならせながら積和演算を行うことにより、最終的な演算結果データ、即ち、入力データである画像データD1に含まれる検出対象物を認識した画像データを出力する。このとき、積和演算による演算結果の値が大きい部分が検出対象物の一部または全部として認識される。
次に、演算処理装置による特徴量抽出処理の流れについて説明する。図3に例示するように、演算処理装置は、前階層の特徴量抽出処理層から入力される入力データDnを所定サイズ、この場合、図にてハッチングで示す3×3画素ごとのフィルタサイズにより走査する。なお、画素サイズは、3×3画素に限られず、例えば5×5画素など適宜変更することができる。
そして、演算処理装置は、走査したデータに対して、それぞれ周知の畳み込み演算を行う。そして、演算処理装置は、畳み込み演算後のデータに対して周知の活性化処理を行い、畳み込み層Cの出力とする。そして、演算処理装置は、畳み込み層Cの出力データCnに対して、所定サイズ、この場合、2×2画素ごとに周知のプーリング処理を行い、プーリング層Pの出力とする。そして、演算処理装置は、プーリング層Pの出力データPnを次の階層の特徴量抽出処理層に出力する。なお、画素サイズは、2×2画素に限られず適宜変更することができる。
図4には、畳み込み演算処理に用いられる畳み込み関数、活性化処理に用いられる関数、プーリング処理に用いられる関数の一般的な例を示している。即ち、畳み込み関数Yijは、直前の層の出力Xijに学習により得られる重み係数Wp,qを乗算した値を累積する関数となっている。なお、「N」は1サイクルの畳み込み演算処理により処理される画素サイズを示す。即ち、例えば1演算サイクルの画素サイズが「3×3」画素である場合、Nの値は「2」である。また、畳み込み関数Yijは、累積値に所定のバイアス値を加算する関数としてもよい。また、畳み込み関数は、全結合処理にも対応し得る積和演算が可能な関数であれば、種々の関数を採用することができる。また、活性化処理には、周知のロジスティックジグモイド関数やReLU関数(Rectified Linear Units)などが用いられる。また、プーリング処理には、入力されるデータの最大値を出力する周知の最大プーリング関数や、入力されるデータの平均値を出力する周知の平均プーリング関数などが用いられる。
上述した畳み込みニューラルネットワークNによれば、コンボルーション層Cによる処理およびプーリング層Pによる処理が繰り返されることにより、より高次元の特徴量の抽出が可能となる。次に、この畳み込みニューラルネットワークNを適用した演算処理装置に係る複数の実施形態について説明する。
(第1実施形態)
図5に例示する演算処理装置10は、複数、この場合、8つの演算ブロック11A〜11H、複数、この場合、8つの入力用メモリ12A〜12H、および、1つの出力用メモリ13を備える。入力用メモリ12A〜12Hは、データ入力部の一例である。演算処理装置10は、1つの演算ブロック11A〜11Hに対し1つの入力用メモリ12A〜12Hを備えている。そして、演算処理装置10は、1つの演算ブロック11A〜11Hおよび1つの入力用メモリ12A〜12Hからなる組を、下流側から上流側に向けて列状に配列した構成となっている。なお、説明の便宜上、図の下側を下流側、図の上側を上流側と定義する。よって、最も下位側の演算ブロックおよび入力用メモリは演算ブロック11Aおよび入力用メモリ12Aであり、最も上位側の演算ブロックおよび入力用メモリは演算ブロック11Hおよび入力用メモリ12Hである。
演算処理装置10は、複数、この場合、4つの演算ブロック11A〜11D,11E〜11Hごとに複数、この場合、2つの演算ブロック群15A,15Bを設けている。以下、最も下位側の演算ブロック群15Aを下位側演算ブロック群15A、最も上位側の演算ブロック群15Bを上位側演算ブロック群15Bと称する。
演算ブロック11A〜11Hは、それぞれ演算部16A〜16Hを備える。演算部16A〜16Hは、それぞれ、図示しない畳み込み演算処理部、累積処理部、活性化処理部、プーリング処理部などを備えている。これらの処理部は、例えば回路などのハードウェアにより構成してもよいし、ソフトウェアにより構成してもよいし、ハードウェアとソフトウェアの組み合わせにより構成してもよい。畳み込み演算処理部は、前階層から入力される入力データに対して周知の畳み込み演算処理を実行して、その処理結果データを累積処理部に出力する。
累積処理部は、例えば加算器などで構成されている。累積処理部は、下位側の演算ブロック11A〜11Hの累積処理部からデータが入力される場合には、そのデータを、自身と同じ演算ブロック11A〜11Hの畳み込み演算処理部から入力されるデータに加算する。これにより、複数の演算ブロック11A〜11Hは、それぞれの演算ブロック11A〜11Hの畳み込み演算処理部による演算結果データを、下位側から上位側に向かって順次累積することが可能となっている。
累積処理部は、下位側の演算ブロック11A〜11Hからデータが入力されない場合には、自身と同じ演算ブロック11A〜11Hの畳み込み演算処理部から入力されるデータを、自身と同じ演算ブロック11A〜11Hの活性化処理部に出力する。また、累積処理部は、下位側の演算ブロック11A〜11Hからデータが入力される場合には、自身と同じ演算ブロック11A〜11Hの畳み込み演算処理部から入力されるデータに下位側の演算ブロック11A〜11Hから入力されるデータを加算した累積データを、自身と同じ演算ブロック11A〜11Hの活性化処理部に出力する。
活性化処理部は、累積処理部から入力されるデータに対して周知の活性化処理を実行して、その処理結果データをプーリング処理部に出力する。プーリング処理部は、活性化処理部による処理結果データに対して周知のプーリング処理を実行して、その処理結果データを出力する。この場合、プーリング処理部は、全ての演算部16A〜16Hに備えられているものが有効化されているわけではなく、下位側演算ブロック群15Aを構成する複数、この場合、4つの演算部16A〜16Dのうち最も上位側の演算部16D、および、上位側演算ブロック群15Bを構成する複数、この場合、4つの演算部1616E〜16Hのうち最も上位側の演算部16Hのみが有効化されている。即ち、下位側演算ブロック群15Aの最上位の演算部16Dおよび上位側演算ブロック群15Bの最上位の演算部16Hのみがプーリング処理を実行するように構成されている。
入力用メモリ12A〜12Hは、それぞれ対応する演算ブロック11A〜11Hに対し演算対称データ、つまり、前階層の演算処理により得られた演算結果データを入力する。この場合、入力用メモリ12A〜12Hは、それぞれ組をなす演算ブロック11A〜11Hに対し、1対1で演算対称データを入力するようになっている。なお、この場合、入力用メモリ12A,12Eには同じデータが格納され、入力用メモリ12B,12Fには同じデータが格納され、入力用メモリ12C,12Gには同じデータが格納され、入力用メモリ12D,12Hには同じデータが格納されるように構成されている。
出力用メモリ13は、複数の演算ブロック11A〜11Hが出力する複数の演算結果データのうち最も値が大きい演算結果データを記憶する。出力用メモリ13に格納される演算結果データは、次階層の演算処理時において、入力用メモリ12A〜12Hに演算対称データとして出力される。
そして、上位側演算ブロック群15Bを構成する複数の演算ブロック11E〜11Hには、さらに比較部17E〜17Hが設けられている。比較部17E〜17Hは、例えば比較器などで構成されている。この場合、複数の比較部17E〜17Hのうち最も下位側の比較部17Eは、下位側演算ブロック群15Aから出力される演算結果データを、そのまま上位側の比較部17Fに出力する。そして、比較部17Fは、比較部17Eから出力された演算結果データを、そのまま上位側の比較部17Gに出力する。そして、比較部17Gは、比較部17Fから出力された演算結果データを、そのまま上位側の比較部17Hに出力する。即ち、複数の比較部17E〜17Hのうち最も上位側の比較部17Hを除く比較部17E〜17Gは、下位側から入力される演算結果データをそのまま上位側に出力するようになっている。よって、下位側演算ブロック群15Aの最上位の演算部16Dが出力する演算結果データが、比較部17E〜17Gを経由して、そのまま上位側演算ブロック群15Bの最上位の比較部17Hに到達するようになっている。
そして、最も上位側の比較部17Hは、当該比較部17Hと同じ演算ブロック11Hの演算部16Hが出力する演算結果データの値と、下位側の比較部17Gが出力する演算結果データ、つまり、下位側演算ブロック群15Aの演算部16Dが出力する演算結果データの値とを比較する。そして、比較部17Hは、両演算結果データのうち値の大きい演算結果データを出力用メモリ13に出力する。これにより、出力用メモリ13には、2つの演算ブロック群15A,15Bが出力する演算結果データのうち最大値の演算結果データが格納されるようになる。
次に、演算処理装置10による演算処理の流れについて説明する。図6に例示するように、演算処理装置10は、入力データDnに対し、下位側演算ブロック群15Aを構成する複数の演算部16A〜16D、および、上位側演算ブロック群15Bを構成する複数の演算部16E〜16Hにより、それぞれ畳み込み演算処理を実行する。そして、演算処理装置10は、下位側演算ブロック群15Aの演算部16A〜16Dによる演算結果データを加算し、これにプーリング処理を施して、下位側の演算結果データPn1を出力する。また、演算処理装置10は、上位側演算ブロック群15Bの演算部16E〜16Hによる演算結果データを加算し、これにプーリング処理を施して、上位側の演算結果データPn2を出力する。そして、演算処理装置10は、演算結果データPn1,Pn2のうち最も値が大きい演算結果データを出力用メモリ13に格納する。
また、図7に例示するように、演算処理装置10は、入力用メモリ12A,12Eに同じデータを格納し、入力用メモリ12B,12Fに同じデータを格納し、入力用メモリ12C,12Gに同じデータを格納し、入力用メモリ12D,12Hに同じデータを格納する。そして、演算処理装置10は、2つの演算ブロック群15A,15Bにおいてそれぞれ畳み込み演算およびプーリング処理を実行し、両演算ブロック群15A,15Bが出力する演算結果データのうち最も値が大きい演算結果データを出力用メモリ13に格納する。
演算処理装置10によれば、最も上位側の比較部17Hは、上位側の演算ブロック群15Bの演算部16E〜16Hによる演算結果データの値、および、下位側の演算ブロック群15Aの演算部16A〜16Dによる演算結果データの値を比較し、値の大きい演算結果データを出力用メモリ13に出力する。この構成によれば、複数の演算ブロックが出力する演算結果データから最も値が大きい演算結果データを選択するための選択回路を不要とすることができ、配線の複雑化や回路規模の増大を回避しつつ、最も特徴量が反映されている最大値の演算結果データを次段の処理層に入力することができる。
(第2実施形態)
図8に例示する演算処理装置20は、1つの入力用メモリが複数の演算ブロックに対し、同じ演算対称データを入力するようにした構成である。即ち、演算処理装置20によれば、入力用メモリ12Aは、演算ブロック11A,11Eに演算対称データを入力し、入力用メモリ12Bは、演算ブロック11B,11Fに演算対称データを入力し、入力用メモリ12Cは、演算ブロック11C,11Gに演算対称データを入力し、入力用メモリ12Dは、演算ブロック11D,11Hに演算対称データを入力する。なお、この場合、入力用メモリ12E〜12Hは、何れも演算対称データを格納しておらず、何れの演算ブロック11A〜11Hにも演算対称データを入力しない。
また、図9に例示する演算処理装置30は、12個の演算ブロック11A〜11L、12個の入力用メモリ12A〜12L、および、1つの出力用メモリ13を備える。そして、演算処理装置30は、4つの演算ブロック11A〜11D,11E〜11H,11I〜11Lごとに3つの演算ブロック群15A,15B,15Cを設けている。演算ブロック群15Aは最も下位側の演算ブロック群であり、演算ブロック群15Cは最も上位側の演算ブロックであり、演算ブロック群15Bは上位側と中位側との間に設けられる中位の演算ブロック群である。
そして、演算処理装置30によれば、入力用メモリ12Aは、演算ブロック11A,11E,11Iに演算対称データを入力し、入力用メモリ12Bは、演算ブロック11B,11F,11Jに演算対称データを入力し、入力用メモリ12Cは、演算ブロック11C,11G,11Kに演算対称データを入力し、入力用メモリ12Dは、演算ブロック11D,11H,11Lに演算対称データを入力する。なお、この場合、入力用メモリ12E〜12Lは、何れも演算対称データを格納しておらず、何れの演算ブロック11A〜11Hにも演算対称データを入力しない。
そして、演算処理装置30によれば、最上位の比較部17Lは、3つの演算ブロック群15A〜15Cが出力する複数の演算結果データのうち最も値が大きい演算結果データを選択して出力用メモリ13に出力する。
図10に例示するように、演算処理装置30は、入力用メモリ12Aから3つの演算ブロック群15A,15B,15Cに演算対称データを入力し、入力用メモリ12Bから3つの演算ブロック群15A,15B,15Cに演算対称データを入力し、入力用メモリ12Cから3つの演算ブロック群15A,15B,15Cに演算対称データを入力し、入力用メモリ12Dから3つの演算ブロック群15A,15B,15Cに演算対称データを入力する。そして、演算処理装置30は、3つの演算ブロック群15A,15B,15Cにおいてそれぞれ畳み込み演算およびプーリング処理を実行し、複数の演算ブロック群15A,15B,15Cが出力する演算結果データのうち最も値が大きい演算結果データを出力用メモリ13に格納する。
演算処理装置20,30によっても、複数の演算ブロックが出力する演算結果データから最も値が大きい演算結果データを選択するための選択回路を不要とすることができ、配線の複雑化や回路規模の増大を回避しつつ、最も特徴量が反映されている最大値の演算結果データを次段の処理層に入力することができる。
また、1つの入力用メモリから複数の演算ブロックに演算対称データを入力することができるため、1対1の関係で入力用メモリから演算ブロックにデータを入力する場合に比べ、データの転送量を抑えることができ、消費電力の低減を図ることができる。
(第3実施形態)
図11に例示する演算処理装置40は、演算処理装置10にさらに一時メモリ41を備えた構成である。一時メモリ41は、一時的格納部の一例であり、最も上位側の演算ブロック11Hの比較部17Hが出力する演算結果データ、つまり、最大値の演算結果データを一時的に格納する。8つの演算ブロック11A〜11Hに対して、例えば16個の演算対称データを演算する必要がある場合、1回の演算サイクルにより全ての演算対称データに対し演算処理を実行することはできない。
そこで、演算処理装置40は、まず、1回目の演算サイクルにおいて、演算ブロック11A〜11Hの数と同じ8つの演算対称データに対し演算処理を実行し、最大値の演算結果データを一時メモリ41に一時的に格納する。そして、演算処理装置40は、2回目の演算サイクルにおいて、残りの8つの演算対称データに対し演算処理を実行し、最大値の演算結果データを得る。そして、演算処理装置40は、比較部17Hにおいて、一時メモリ41に格納されている1回目の演算サイクルにより得られた最大値の演算結果データと、2回目の演算サイクルにより得られた最大値の演算結果データとを比較する。そして、比較部17Hは、1サイクル目および2サイクル目の演算結果データのうち、より値が大きい演算結果データを出力用メモリ13に出力する。
演算処理装置40によれば、演算対称データの数が演算ブロックの数よりも多い場合であっても、複数の演算対称データを演算ブロックの数で分割して演算処理を複数サイクルで実行し、それぞれの演算サイクルにおいて得られる最大値の演算結果データを一時的に保存しながら、最終的に、最も値が大きい演算結果データを出力することができる。
(その他の実施形態)
なお、本発明は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能である。例えば、上述した複数の実施形態を適宜組み合わせて実施してもよい。
図面中、10,20,30,40は演算処理装置、11A〜11Lは演算ブロック、16A〜16Lは演算部、17H,17Lは比較部、12A〜12Dは入力用メモリ(データ入力部)、41は一時メモリ(一時的格納部)を示す。

Claims (3)

  1. 複数の処理層が階層的に接続されたニューラルネットワークによる演算を実行する演算処理装置(10,20,30,40)であって、
    下位側から上位側に向かって列状に配列される複数の演算ブロック(11A〜11L)と、
    前記演算ブロックにそれぞれ設けられ、前記演算を実行する複数の演算部(16A〜16L)と、
    上位側の前記演算ブロックの前記演算部による演算結果データの値、および、下位側の前記演算ブロックの前記演算部による演算結果データの値を比較し、値の大きい演算結果データを出力する比較部(17H,17L)と、
    を備える演算処理装置。
  2. 前記演算ブロックに演算対称データを入力する複数のデータ入力部(12A〜12D)をさらに備え、
    前記データ入力部は、複数の前記演算ブロックに前記演算対称データを入力する請求項1に記載の演算処理装置。
  3. 最も上位側の前記演算ブロックの前記比較部が出力する演算結果データを一時的に格納する一時的格納部(41)をさらに備える請求項1または2に記載の演算処理装置。
JP2016112727A 2016-06-06 2016-06-06 演算処理装置 Active JP6848216B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016112727A JP6848216B2 (ja) 2016-06-06 2016-06-06 演算処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016112727A JP6848216B2 (ja) 2016-06-06 2016-06-06 演算処理装置

Publications (2)

Publication Number Publication Date
JP2017219960A true JP2017219960A (ja) 2017-12-14
JP6848216B2 JP6848216B2 (ja) 2021-03-24

Family

ID=60658093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112727A Active JP6848216B2 (ja) 2016-06-06 2016-06-06 演算処理装置

Country Status (1)

Country Link
JP (1) JP6848216B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03194648A (ja) * 1989-12-22 1991-08-26 Sharp Corp ニューロコンピュータ
JPH06195322A (ja) * 1992-10-29 1994-07-15 Hitachi Ltd 汎用型ニューロコンピュータとして用いられる情報処理装置
JPH0784966A (ja) * 1993-08-06 1995-03-31 Toshiba Corp データ処理装置
JP5184824B2 (ja) * 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
JP2015210709A (ja) * 2014-04-28 2015-11-24 株式会社デンソー 演算処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03194648A (ja) * 1989-12-22 1991-08-26 Sharp Corp ニューロコンピュータ
JPH06195322A (ja) * 1992-10-29 1994-07-15 Hitachi Ltd 汎用型ニューロコンピュータとして用いられる情報処理装置
JPH0784966A (ja) * 1993-08-06 1995-03-31 Toshiba Corp データ処理装置
JP5184824B2 (ja) * 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
JP2015210709A (ja) * 2014-04-28 2015-11-24 株式会社デンソー 演算処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李 寧 他: "同期シフトデータ転送に基づくDeep Convolutional Neural NetworkのFPGA実装", 電子情報通信学会技術研究報告, vol. 第114巻 第427号, JPN6020013928, 22 January 2015 (2015-01-22), JP, pages 175 - 180, ISSN: 0004310743 *

Also Published As

Publication number Publication date
JP6848216B2 (ja) 2021-03-24

Similar Documents

Publication Publication Date Title
JP6365258B2 (ja) 演算処理装置
JP6945986B2 (ja) 演算回路、その制御方法及びプログラム
JP6314628B2 (ja) 演算処理装置
US20180173676A1 (en) Adaptive execution engine for convolution computing systems
JP6645252B2 (ja) 演算処理装置
US10824934B2 (en) Methods and apparatus for matrix processing in a convolutional neural network
CN107818367B (zh) 用于神经网络的处理系统和处理方法
US20180197084A1 (en) Convolutional neural network system having binary parameter and operation method thereof
JP6414458B2 (ja) 演算処理装置
US11487845B2 (en) Convolutional operation device with dimensional conversion
JP6561877B2 (ja) 演算処理装置
JP2015215837A (ja) 演算処理装置
CN108009625A (zh) 人工神经网络定点化后的微调方法和装置
EP4115342A1 (en) Parallel computing scheme generation for neural networks
US10809978B2 (en) Merge sort accelerator
JP2018073103A (ja) 演算回路、その制御方法及びプログラム
JPWO2019234794A1 (ja) 演算方法
KR20230050340A (ko) 테이블 형식의 컨볼루션 및 가속
CN113811900A (zh) 算术运算装置和算术运算系统
JP6532334B2 (ja) 並列演算装置、画像処理装置及び並列演算方法
US11500767B2 (en) Method and device for determining a global memory size of a global memory size for a neural network
CN113743587A (zh) 一种卷积神经网络池化计算方法、系统、及存储介质
JP6740920B2 (ja) 演算処理装置
JPWO2019092900A1 (ja) 情報処理装置及び情報処理方法
JP7104183B2 (ja) ニューラルネットワークの縮約装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210215

R151 Written notification of patent or utility model registration

Ref document number: 6848216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250