JP7689748B2 - 確率信号生成要素、確率ニューロン及びそのニューラルネットワーク - Google Patents

確率信号生成要素、確率ニューロン及びそのニューラルネットワーク Download PDF

Info

Publication number
JP7689748B2
JP7689748B2 JP2022549079A JP2022549079A JP7689748B2 JP 7689748 B2 JP7689748 B2 JP 7689748B2 JP 2022549079 A JP2022549079 A JP 2022549079A JP 2022549079 A JP2022549079 A JP 2022549079A JP 7689748 B2 JP7689748 B2 JP 7689748B2
Authority
JP
Japan
Prior art keywords
signal
probability
stochastic
binary
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022549079A
Other languages
English (en)
Other versions
JP2023513596A (ja
Inventor
ジョゼップ、リュイス、ロセヨ、サンス
クリスティアム、カミロ、フランコ、フラッセル
Original Assignee
ウニベルシタット デ レス イリュス バレアルス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウニベルシタット デ レス イリュス バレアルス filed Critical ウニベルシタット デ レス イリュス バレアルス
Publication of JP2023513596A publication Critical patent/JP2023513596A/ja
Application granted granted Critical
Publication of JP7689748B2 publication Critical patent/JP7689748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/60Methods or arrangements for performing computations using a digital non-denominational number representation, i.e. number representation without radix; Computing devices using combinations of denominational and non-denominational quantity representations, e.g. using difunction pulse trains, STEELE computers, phase computers
    • G06F7/70Methods or arrangements for performing computations using a digital non-denominational number representation, i.e. number representation without radix; Computing devices using combinations of denominational and non-denominational quantity representations, e.g. using difunction pulse trains, STEELE computers, phase computers using stochastic pulse trains, i.e. randomly occurring pulses the average pulse rates of which represent numbers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Neurology (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Sanitary Device For Flush Toilet (AREA)
  • Complex Calculations (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子技術及び計算知能の分野に含まれるであろう。本発明の第1態様は、確率信号生成要素から構成され、確率信号生成要素は、デジタルハードウェア及び確率的計算技術に基づき、例えば、確率ニューロンの畳み込みネットワークに用いるようなコンピュータシステムに適している。本発明の他の観点は、確率ニューロンから構成され、確率ニューロンは、確率ニューロンから形成されるニューラルネットワーク(例えば、CNNで知られる畳み込み型)とと、確率信号生成要素と、を備え、それにより高い並列性が得られることが可能であり、この結果、パターン認識を非常に高速に実行することが可能となる。
近年、広範なニューラルネットワーク(ディープニューラルネットワーク、Deep Neural Network:DNN)の使用が大量のデータから有用な情報を抽出する優れた能力から、大きな妥当性が獲得されている。そのハードウェアの実装は、シーケンシャルなVon-Neuman型計算アーキテクチャ(ソフトウェアソリューション)を用いるマイクロプロセッサの使用に基づく手法と比較して、並列に計算を実行するとき、実行速度の増加を可能にする。CNNは、フィードフォーワード(フィードバックがない)接続のDNNの型であり、次の文献にみられる通り、画像の形状認識に特に有用である:
- LeCun, Y., Bottou, L., Bengio, Y., Haffner, P. Gradient-based learning applied to document recognition (1998) Proceedings of the IEEE, 86 (11), pp. 2278-2323.
- Lawrence, S., Giles, C.L., Tsoi, A.C., Back, A.D. Face recognition: A convolutional neural-network approach (1997) IEEE Transactions on Neural Networks, 8 (1), pp. 98-113.
具体的に、CNNはニューロンが生物学的脳の一次視覚野のニューロンと非常に似た方法で受容野に接続する人工ネットワークの型であり、適用は2次元行列で実行される。したがって、他の適用の中でも画像の分類や分割のような人工視覚タスクにとても効果的である。適用は、1以上の次元の畳み込みフィルタとして振る舞う人工ニューロンの多層から構成され、通常、各層の後に関数は非線形因果マッピングを実行するように加算される。
ここで、処理画像(観測される対象により得られる生データ)から、一連の計算は層に配置された異なるニューロンを用いて実行される。各ニューロンは入力(処理画像から、又は他のニューロンからの入力でもよい)から比較的単純な処理を実行し、与えられる出力は入力の重みづけされた和の非線形関数(活性化関数と呼ばれる)から構成され、次式で示される。
Figure 0007689748000001
上記式はxjとして定義されたN個の入力の総和に関連して、i番目のニューロンの出力(yi)の依存として示し、同様に、これらの入力の各々と各ニューロン専用の重み(wijパラメータ)と、各ニューロン固有のバイアス値(Ti)の選択を示す。活性化関数fはHeaviside関数、シグモイド関数、又は正規化線形ユニット(Rectified Linear Unit:ReLU)として知られる正規化関数のような非線形関数であり、上記式の入力xjの線形結合と0でもよい参照値間の最大値を評価する。
CNN型ネットワークにおいて、ニューロンは処理層に配置され、第1層の各ニューロンは処理画像から直接情報を受信し、内側の層に、先行する層に配置されたニューロンの応答が与えられる。各層の機能性は通常、畳み込みとリダクションの2種類である。畳み込み層はカーネル(よくインパルス応答とも呼ばれる)を用いて、先行する画像の畳み込みをすることから構成される。数学的に、畳み込み層はカーネルにより定義された特定の部分空間への入力情報の投影の表現として考えられることができ、情報の削減は比較的小さい。層の第2機能性は抜本的な情報削減処理から構成され、処理画像の異なる領域が選択され、信号で最も高い値(層の型はマックスプーリングと呼ばれる)、又は信号の平均値(平均プーリング)でもよい最も有力な値が選択される。最終的な結果は先行する畳み込み層からの入力信号において削減された情報である。
ニューラル層の2つの型(畳み込み及びプーリング)の連結で、入力画像の情報の方向は変化し、同一画像の特定の特徴が選択されて情報が削減され、一方で抽象度が増大する。このようにして、入力の情報ビットは処理画像の強度値を表すことができ、出力において認識したいカテゴリを得るであろう。
したがって、CNNの主な応用は画像認識及び推論の画像処理であろう。どんな場合でも、その横断性により、CNNの応用分野は巨大であり、現在はニューラル処理アーキテクチャの使用に基づく何千もの科学研究が存在し、前述したLawrenceらの研究における顔認識、又は"Low resolution optical character recognition for camera acquired documents"と題される特許文書EP 1598770で開示されたようなテキストの認識といった処理を含む。
CNN処理の欠点の1つは、初期画像から生成した画像の全体に及ぶ多数の演算(連続する畳み込み及びプーリング処理)による高い計算コストである。計算コストは画像処理時間、同様に当該処理に関係づけられる使用電力により定義され、大量のデータに適用したい場合(ハイスピードビデオ処理の場合のような)には非常に高くなりうる。従来のデータ処理システム(ソフトウェアソリューション)の場合、プロセッサの使用に基づく汎用アーキテクチャはCNNの実装に対する応用に最適でなく、その結果ある種の応用において非常に高い消費及び応答時間は双方とも関連付けられる。このため、ハードウェアシステムは開発されており、これらの処理を実装し、最適に処理を並列化する試みがされている。ハードウェアを用いたCNNの最適化の試みの例として、次の刊行物がある。
-Zhang, C., Li, P., Sun, G., Guan, Y., Xiao, B., Cong, J. "Optimizing FPGA-based accelerator design for deep convolutional neural networks" (2015) FPGA 2015 - 2015 ACM/SIGDA International Symposium on Field-Programmable Gate Arrays, pp. 161-170.
この研究では、Zhangや共著者はCNNの最適化方法論を示し、再構成可能論理機器(FPGA)で実装している。彼らの方法は古典的なデジタル論理の使用に基づいており、並列性は汎用のマイクロプロセッサの使用に基づいた実装に関連して増加するが、完全にはCNNの固有な並列性は活用できない。
並列性を高め、処理ハードウェアを、可能な限り一般のDNNのアーキテクチャに適合することを目的として、計画は開発されてきており、確率計算のような慣例的でないデジタル論理が用いられる。確率計算は信号間の演算が確率的なルールに従うデジタル論理である。これは、ディープビリーフネットワークのようなディープネットワークの型が適用される次の刊行物の研究の場合であり、通常、形状認識に用いられるネットワークの型であり、統計物理学に触発されている。
-Sanni, K., Garreau, G., Molin, J.L., Andreou, A.G. "FPGA implementation of a Deep Belief Network architecture for character recognition using stochastic computation", (2015) 2015 49th Annual Conference on Information Sciences and Systems, CISS 2015, art. no. 7086904.
この研究は、非線形シグモイド関数に線形手法を用いているが、ニューロンがCNN型ネットワークの形に配置される必要がある場合、マックスプーリングのような特定の層の実装方法が明確ではない。一方、ネットワークの実装において無相関信号の使用のみ仮定され、確率信号間の相関を活用する可能性を残しており、ハードウェアの削減を非常に助けている。
ハードウェアの最適化における慣例的でないの方法論の実装に関連するが、畳み込みニューラルネットワークに適用される、次の刊行物は利用可能である。
-Alawad, M., Lin, M. "Stochastic-Based Deep Convolutional Networks with Reconfigurable Logic Fabric" (2016) IEEE Transactions on Multi-Scale Computing Systems, 2 (4), art. no. 7547913, pp. 242-256.
この研究では、確率論の特定の特性が用いられており、この確率論の特定の特性は、2つの独立した確率変数の和の確率密度関数と、これらの変数個々の確率密度(双方の畳み込みに関連する)との間の関係といったものである。CNN処理の高速化の基礎は個々のニューラル要素を用いる代わりにこの確率特性の実装にある。
確率特性の使用にも基づく他の慣例的でないの方法論は、次の刊行物に発見される。
-Ren, A., Li, Z., Ding, C., Qiu, Q., Wang, Y., Li, J., Qian, X., Yuan, B. "SC-DCNN: Highly-scalable deep convolutional neural network using stochastic computing" (2017) International Conference on Architectural Support for Programming Languages and Operating Systems - ASPLOS, Part F127193, pp. 405-418.
この研究では、確率論理は畳み込み処理及びマックスプーリング処理双方の実装に用いられる。一方、正接バイポーラ関数(前述の式である関数f)の実装にステートマシンを用い、構成をかなり複雑化しうる(図6に見られるように)。また、相関信号の使用も活用せず、活性化関数の実装を簡潔化もしない。
一方、確率ニューラルネットワークにおける提案は次の近年の刊行物にも発見される。
-Li, Z., Li, J., Ren, A., Cai, R., Ding, C., Qian, X., Draper, J., Yuan, B., Tang, J., Qiu, Q., Wang, Y. "HEIF: Highly Efficient Stochastic Computing-Based Inference Framework for Deep Neural Networks" (2019) IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 38 (8), art. no. 8403283, pp. 1543-1556.
この研究では、図4cに示すように、近似的並列カウンタ(Approximate Parallel Counter:APC)として知られるバイナリブロックが用いられる。これは、ニューラル入力の重み付け和を実行するのに用いられるが、複雑な回路はReLU型活性化関数又はマックスプーリングブロック(前記文献の図6における)の実装において実行される。実際に、得られた活性化関数は古典的ReLUでなく、「クリップされたReLU」、すなわち飽和されたReLUである。
確率ロジック(又は確率計算)は、従来のバイナリロジックである量がビットのトグル周波数により符号化されるロジックに代替され、確率型性質にそのようなトグルを強制する。確率計算(SC)は時間依存のビット列のトグル周波数を用いた信号を表す近似的コンピュータ方法論である。各SC信号はビットの列において、高い値(論理’1’)を見つける可能性を表すパルスにより構成される。例えば、数値0.75はビット列の論理’1’を見つける可能性が75%であるビット列により表され、4ビットでは(1、1、0、1)、8ビットフレームでは(0、1、1、0、1、1、1、1)となる。この符号化は、ユニポーラの表現として参照され、各値は0と1の間である。負の値を含むためには、異なる符号化が求められ、バイポーラ符号化の場合と同様に、0値は1値から減算されて、最終的にビットの総数で除算される。この符号化は’p’が数のユニポーラ表現である変数p* = 2p - 1の変化の実装に等しい。バイポーラ符号化は取り得る値として[-1、1]の範囲を与える。
確率ロジックを用いる主な利点の1つは、低コストであるハードウェア資源で複雑な関数を実装し、信号間の相関にも依存することである。例えば、XNORゲートは双方の信号が一時的に無相関である場合、バイポーラ符号における乗算を実装し(f=x・y)、相関のある場合、単位引く2つの信号間の差の絶対値(f=1-|x-y|)を実装する。
文献では、異なる確率ニューロンの構成が提案されているが、CNNをかなり単純化可能な信号の相関を活用するものはない。本発明では、ニューロンの出力信号間の相関が畳み込みニューラルネットワークの効率的な実装に用いられる。
本発明は主に、確率信号生成要素と、この要素を備える計算ニューロン、特に確率ニューロンと、同様に、複数のこのようなニューロンを備える計算ニューラルネットワークと、から構成される。提案されたニューロンは、ディープ人工ニューラルネットワーク、特に畳み込みニューラルネットワークの実装に向いている。
本発明の第1態様は、確率信号生成要素から構成され、確率信号生成要素は、第1バイナリ-確率変換器(Binary to Stochastic Converter:BSC)を備え、通常、BSCは2進の2の補数比較器から構成される。このBSCは、バイナリ信号を受信する第1入力及びランダム信号(ランダムは、純粋なランダム又は疑似ランダムのどちらか一方の型の乱雑さ含むと理解される)を受信する第2入力を順に備え、その出力においてバイナリ信号をランダム信号から第1確率信号に変換するように構成される。
この確率信号生成要素は、処理ユニットを備えることを特徴とし、処理ユニットは、BSCから第1確率信号を受信する第1入力、及び、BSCが第2確率信号を生成するのに用いるものと同一のランダム信号を用いた、参照確率信号として用いられ、定数値信号(例えば、0値)から生成された第2確率信号を受信する第2入力を順に有する。この処理ユニットは、少なくとも1つの算術関数に従ってBSCからの第1確率信号及び第2確率信号(参照確率信号)を処理し、結果として処理を表す確率出力信号を生成するように構成される。
処理ユニットにより受信される参照確率信号は、BSCに用いられるものと同一のランダム信号を用いて生成されることを条件として、異なる確率信号生成要素からの信号間の相関が得られる。
結果として、処理ユニットがOR型又はAND型論理ゲートを用いて適用されるような単純な算術関数を適用することが可能であり、それにより、不飽和活性化関数を実装して他の取りうる確率信号生成要素と相関可能な確率出力信号を得ることが可能である。
このように、本発明の第1態様の確率信号生成要素の例示的な実施形態として、処理ユニットはOR型論理ゲートであり、従って同一の論理ゲートにより適用された算術関数は最大値関数(max(a,b))から構成され、最大値関数は正規化線形ユニット(ReLU)を具体化する基礎である。他の例示的な実施形態として、処理ユニットはAND型論理ゲートであり、従って同一の論理ゲートにより適用された算術関数はmin型(a,b)の活性化関数から構成される。
例えば、この確率信号生成要素は、計算ニューラルネットワーク用の確率ニューロンの一部であってもよい本発明の他の態様、具体的には第2態様であり、確率ニューロンが第1態様に従う確率信号生成要素を備える。
本発明の確率ニューロンは、好適には、近似的並列カウンタ(APC)を備え、APCは複数の確率入力信号を受信するように配置され、複数の入力信号を加算し、それらをその出力として2進の2の補数表記で符号化された出力信号に変換するよう構成される。この出力信号は確率信号生成要素の上記BSCのバイナリ入力信号となる。
同様に、例示的な実施形態として、本発明の第2態様の確率ニューロンは複数の処理サブユニットを備え、各々が外部確率信号(他のニューロンからの信号といった)と、信号結合重み信号とを受信するように配置され、これらの信号を、算術関数を適用して処理し、出力信号を生成するように構成される。処理サブユニットにより受信される双方の信号は無相関であるため、例示的な実施形態では、これらのサブユニットはXNOR論理ゲートから構成され、適用される関数はバイポーラ符号における双方の確率信号の乗算である。他のありうる実施形態として、これらのサブユニットはAND論理ゲートから構成され、適用される関数はユニポーラ符号における双方の確率信号の乗算である。その後、これらの処理サブユニットにより生成される出力信号は、確率APC入力信号に対応するように、作動的にAPCに接続される。
本発明の他の態様、具体的には第3態様は、上述した発明の第2態様に従って定義された複数の確率ニューロンで実装された計算ニューラルネットワークから構成され、一部は演算的に他と相互接続する。
好適に、本計算ニューラルネットワークは、第2バイナリ-確率変換器すなわちBSC変換器を備え、第2BSC変換器は、確率参照信号を定数値信号の入力とランダム信号の入力から生成し、一斉に異なるニューロンの前記処理ユニットに送信するように設計される。同様に、例示的な実施形態として、本発明の第3態様のニューラルネットワークは、乱数生成器を備え、乱数生成器は、ランダム信号を生成し、一斉に異なるバイナリ-確率変換器に送信するように構成され、その結果ニューロンのAPCにより生成された全ての確率信号が相関する。
殆どのCNNの実装において、用いられる一般の演算は、乗算、加算及び最大値関数又はReLUである。これらの演算は、相関が正確に用いられる場合、確率回路において簡単に実装できる。畳み込みニューラルネットワークの実装のために相関信号を用いることで得られる主な利点は:
a)各ニューロンの異なる乱数生成器の実装を要求しないことによる、結果の精度を落とすことのない使用ハードウェア資源の節約をすること(確率論による実装において、資源の最大割合はランダム/乱数の生成に用いられる)
b)論理ゲートのような単純な計算ユニットのみ含むマックスプーリング関数及び畳み込みの実装の簡略化(いろいろな取り組み及び設計が文献で紹介され、ニューラルネットワークにおいてこの関数が実装可能となったが、無相関信号を用いる場合、提案された設計は相当なハードウェアスペースを要求する)
c)ネットワークの層の数に拘わらず生成器の数は一定であるため、各々の乱数生成器の使用を必要とせずにニューラルネットワークにおけるさらなる深さの層の加算が可能なこと(ネットワークの層が増えると、乱数生成器の数が増える他の実装と異なる)
から構成される。
好適な計算ニューラルネットワークの実施形態では、乱数生成器は線形帰還シフトレジスタ(LFSR: Linear Feedback Shift Register)型であり、ハードウェア資源において低コストかつ単純な実装である。
例示的な実施形態として、本発明の第3態様の計算ニューラルネットワークは、ORグループゲートを備え、ORグループゲートは、確率ニューロンのグループから確率出力信号を受信し、その出力においてその最大値を与えるように構成され、又は、ORグループゲートをANDグループゲートに置き換えることによりミニマムプーリング型関数を実装するように構成される。
他の例示的な実施形態として、計算ニューラルネットワークはバイナリ-確率変換器のアレイを備え、その変換器は初期信号を変換し、各々の初期信号は第1入力で受信したものであり、この信号を出力として初期確率信号に各々の第2入力で受信するランダム信号を用いて変換するように構成される。
好適に、本発明のニューラルネットワークは、第2乱数生成器と、バイナリ-確率変換器のアレイと、を備える。このアレイの変換器は、第1入力で受信された結合重み信号を変換し、この信号を出力として確率重み信号に変換し、第2生成器からの前述のランダム信号をこのために用いるように構成される。このようにして、無相関信号は入力及び重みの積を生成するために使用でき、相関信号はニューロンの出力伝達関数を生成するために使用できる。
第1実施形態において、ニューラルネットワークは少なくとも1つのマックスプーリング型層を備え、すなわち、確率信号生成要素を備えるニューロンで実装され、確率信号生成要素の処理ユニットはOR型論理ゲートである。第2実施形態において、ニューラルネットワークはミニマムプーリング型層を備え、すなわち、確率信号生成要素を備えるニューロンで実装され、確率信号生成要素の処理ユニットはAND型論理ゲートである。そして、さらに好適な実施形態では、ニューラルネットワークは畳み込みニューラルネットワークとして実装され、畳み込みニューラルネットワークは複数のマックスプーリング型層と、複数のミニマムプーリング型とを備える。
2D又は3D画像処理、又は一般のN次元構造に最適な畳み込みニューラルネットワークでは、ネットワーク全体は、ニューロンの異なる層に配置される。特定の特徴が畳み込みニューラル層で抽出された後、サブサンプリング演算は通常適用され、次の層におけるデータ処理の次元を削減する。説明したように、最も用いられる演算の1つはマックスプーリングブロックであり、そのブロックではサブサンプリングが各ニューロンの出力の最大値を抽出することで実行され、この各ニューロンは畳み込みニューロン層のウィンドウ内に備えられる。最先端の実装では、ブロックのセット(アキュムレータ、コンパレータ及びカウンタ)を用い、マックスプーリング関数を実装し、これには相当な資源の使用が強いられる。しかしながら、本発明では、ネットワークの全てのニューロンで(各ニューロンの全てのBSC変換器で同一のランダム信号を用いることにより)実行される相関を用い、したがって、単一のOR論理ゲートを用いて最大値分類関数を実装することが可能である。すなわち、マックスプーリング関数(ディープニューラルネットワークの実装において広く用いられる)を、ORゲートを通してネットワーク層のニューロンの出力信号に実装し、又はミニマムプーリング型関数を、ANDゲートを通して実装することが可能である。
本発明の確率信号生成要素の概略図。 OR論理ゲートを用いて、それによりReLU型活性化関数を実装する確率ニューロンの好適実施形態の概略図。 OR論理ゲートに対応して2つの確率ニューロンを備えるニューラルネットワークのマックスプーリング型層の好適実施形態の概略図。 出力がOR論理ゲートに向けられ、ニューロンの出力伝達関数を生成する4つのニューロンのマックスプーリング型の単層ニューラルネットワークにおいて全ての信号が最大値である場合の好適実施形態の概略図。 無相関信号を使用して入力及び重み間の積を生成し、相関信号を用いてニューロンからの出力伝達関数を生成する畳み込み多層ニューラルネットワークの好適実施形態の概略図。 他のニューラルネットワークの実装に関する本ニューラルネットワークの性能比較表。
クレームされた異なる発明の好適実施形態は図1~6を参照して下記に記述される。
本発明の第1態様の対象である確率信号生成要素の概略図は図1に示される。見ればわかるように、確率信号生成要素(1)は第1バイナリ-確率変換器(BSC)を備え、このBSCは、バイナリ信号(A)を受信する第1入力とランダム信号(R)を受信する第2入力とを順に備え、その出力において、バイナリ信号(A)は確率信号(A*)に変換される。続いて、確率信号生成要素(1)は、確率信号(A*)と参照確率信号(C*)を受信する処理ユニット(11)を備える。参照確率信号(C*)は定数値信号(C)から前記ランダム信号(R)を用いて生成される。この処理ユニット(11)の出力は、処理された算術関数を表す確率出力信号(S*)である。
本発明の第2態様に関して、図2は確率ニューロン(10)の好適実施形態の概略図を示し、確率ニューロン(10)は、確率信号生成要素(1)の好適実施形態を含み、確率信号生成要素(1)は、OR論理ゲートを、出力(S*)においてReLU型活性化関数を実装する処理ユニットとして備える。確率ニューロン(10)のこの実施形態は、複数のXNOR論理ゲートを備え、それらの各々が外部確率信号(X1* - Xn*)と確率重み信号(w1* - wn*)を受信するように配置される。これら2つの信号が相関しないことを考慮して、XNORゲートにより適用された関数は、バイポーラ符号における双方の確率信号の乗算から構成される。
続いて、確率ニューロン(10)の本実施形態のXNORゲートの出力は近似的並列カウンタ(APC)の入力に演算的に接続され、近似的並列カウンタ(APC)は、入力信号(Y1* - Yn*)の和をとり、それらの和を2の補数に符号化されたバイナリ値にその出力において変換するように構成される。言い換えれば、近似的並列カウンタ(APC)はいくつの’1’である信号がXNOR論理ゲートの出力においてあるかを評価し、それらの出力においてその和のバイナリ信号を与える。続いて、この和は確率信号生成要素(1)のバイナリ-確率変換器(BSC)に送信される。前述のように、確率信号生成要素(1)のこの実施形態はOR論理ゲートを備えてReLU型活性化関数を実装し、バイナリ-確率変換器(BSC)で受信したものと同一のランダム信号(R)を用いて出力(S)をする。
図3は、ニューラルネットワークの2つのニューロンの接続の例示的な実施形態である本発明の第3態様の主部を模式的に示す。この実施形態は、2つのOR論理ゲートを有し、図2に示され、上記された2つの確率ニューロン(10)を備える。同様に、第2のバイナリ-確率変換器(BSC2)を備え、BSC2は参照確率信号(C*)を生成し、双方の確率ニューロン(10)のOR論理ゲートに送信するように構成される。見ればわかるように、参照確率信号(C*)は第2バイナリ-確率変換器(BSC2)において定数値信号(C)及びランダム信号(R)から生成される。
当業者であればわかるように、本発明の相関ニューラル信号を生成することの実装はReLU関数を生成することがより複雑な最先端の実装と対照であり、飽和している欠点も持ち、その結果典型的な機械学習処理で用いられる標準ReLUではない。
本発明さらなる効果は、図4からわかるように、ネットワークニューロンの全ての出力が相関するため、ORグループゲート(3)を用いてネットワーク層の確率ニューロン(n0 - n3)のグループから確率出力信号(S0* - S3*)へのマックスプーリング関数(ディープニューラルネットワークの実装に広く用いられる)の効率的な実装が可能であること、及び、出力(Smax*)としてそれらの最大値を与えることが可能であること、又は、ORグループゲート(3)をANDグループゲートに置き換えることでミニマムプーリング型の関数の実装が可能であることである。
図5は、より一般的な態様のニューラルネットワークを示すブロック図であり、2つの乱数生成器(2、2’)が用いられる。見ればわかるように、第1乱数生成器(2)は畳み込みネットワークのニューロン(n0 - nn, n’0 - n’n)の近似的並列カウンタの入力信号(x)、参照信号(0)及び出力信号の変換に用いられる。第2乱数生成器(2’)はネットワークの重み(w)の確率に変換のみに用いられる。
上記からわかるように、本発明のニューラルネットワークの各層の出力は次の層のニューロンの入力信号が不正確であることのリスクなしに一致し、これは、第1乱数生成器(2)により生成された場合、この出力が確率重み信号(w*)と乗算可能であり、この確率重み信号は入力信号と相関がなく、第2乱数生成器(2’)からの乱数を用いたバイナリ-確率変換器のアレイ(BSCアレイ’)により生成されるためである。
見ればわかるように、確率ニューロンの本実装は従来では考えられなかったニューラルネットワーク全体をネットワーク全体に対して2つの乱数生成器(2、2’)のみで実行させることをできるようにし、ネットワーク全体に実装されたデジタルゲートの観点でコストを簡略化することをできるようにした。
図6は、本実装と機械学習の分野でLeNet-5(刊行物Y. LeCun, L. Bottou, Y. Bengio and P. Haffner: Gradient-Based Learning Applied to Document Recognition, Proceedings of the IEEE, 86(11):2278-2324, November 1998で示される)として知られる他のディープニューラルネットワークの実装との性能の比較表を示す。提案モデルでの比較されるハードウェアの実装は次の通りである。
-FPGA16. S. I. Venieris and C. Bouganis, “fpgaconvnet: A framework for mapping convolutional neural networks on fpgas,” in 2016 IEEE 24th Annual International Symposium on Field-Programmable Custom Computing Machines (FCCM) , May 2016, pp. 40-47.
-FPGA17a. Z. Liu, Y. Dou, J. Jiang, J. Xu, S. Li, Y. Zhou, and Y. Xu, “Throughput-optimized fpga accelerator for deep convolutional neural networks,”TRETS, vol. 10, pp. 17:1-17:23, 2017.
-FPGA17b. Z. Li, L. Wang, S. Guo, Y. Deng, Q. Dou, H. Zhou, and W. Lu, “Laius: An 8-bit fixed-point cnn hardware inference engine,” in 2017 IEEE International Symposium on Parallel and Distributed Processing with Applications and 2017 IEEE International Conference on Ubiquitous Computing and Communications (ISPA/IUCC), Dec 2017, pp. 143-150.
-FPGA18.S.-S. Park, K.-B. Park, and K. Chung, “Implementation of a cnn accelerator on an embedded soc platform using sdsoc,” 02 2018, pp.161-165.
比較するために、LeNet-5ネットワークはFPGAで実装されている。このCNN設計は、手書きの数字認識の機械学習(MNIST)において高く標準化されたデータベースを処理することを目的とし、60,000枚の訓練画像及び10,000枚のテスト画像で構成される。LeNet-5型のCNNアーキテクチャは2つの畳み込み層と3つの全結合層から構成される。このCNNにおけるMNISTの成功率は約98.5%であり、提案ニューラルモデルで用いられるハードウェアの実装は97.6%である(信号をバイナリ化することに起因し、また、確率計算方法論であるから、ソフトウェアの場合より幾分か低い)。
実装は、Arria 10 10AX115H2F34E1SG FPGA、150MHzのクロック周波数で作動、バイナリ信号の精度が8ビット、を用いて実行される。
このように、提案した手法は性能とエネルギー効率の観点で他のアーキテクチャより性能が優れている。その結果、提案した確率CNNの実装はFPGA17aと比較して27倍優れた性能(秒当たり及びメガヘルツ当たりの推論で測定)と、FPGA17bと比較して6.3倍優れたエネルギー効率(ジュール当たりの推論で測定)を成し遂げることを示し、組み込みシステムのアプリケーションに有望である。
提案された新しいニューロンの設計により、システム全体の消費面積を削減し、提案されたアーキテクチャは完全なCNNを単独のFPGAで完全に並列的に調整し、これは、他の3つの実装でなされたものであるネットワークの一部の実装のみをし、循環を基礎に反復する(逐次実装)と対照的である。
この集合的な並列は提案された設計のより低レイテンシの主な理由であり、それはネットワークの逐次的な反復が必要ないからである。
図6の表はまた、タスク当たりに必要とされるハードウェア資源を強調する。上記実装は、RAM及びデジタル信号処理(Digital Signal Processing:DSP)ブロックといった特定のハードウェアブロックを用いることにより、大きい面積を必要とする。本提案では、DSPブロックは、従来にはない計算技術(確率計算)が古典的なバイナリロジックの代わりに用いられるため使用されない。同時に、計算が再起的に実行されないためメモリブロックが必要とされず、消費電力の主要な原因を減らし、この原因はチップ外のメモリとのデータ転換又はメモリアクセスの演算である。
本提案の第1態様を特徴づけることは、相関した確率信号を用いた処理ユニット(11)と2進-確率変換器(BSC)の組み合わせである。発明の他の態様は、それに続く、XNORゲートといった処理サブユニットのアレイと確率ニューロン(10)を実装するバイナリ-確率変換器(BSC)に接続された近似的並列カウンタ(APC)との組み合わせである。そして、第3態様は全てのニューロンに共通する乱数生成器(2)を備えたネットワークに実装することである。乱数生成器(2)が負及び正の数双方のランダム信号(R)(生成された符号ビットが’0’又は’1’に等しい確率は50%)を生成することを考慮すると、レベル0の確率信号はランダムに0と1の間を変動するビットから構成され、各レベルは50%の確率である。この発明の要点は、確率参照値と近似的並列カウンタ(APC)からの信号とを正しく組み合わせることであり、この信号はバイナリ-確率変換器(BSC)により確率に変換されたものであり、組み合わせは同一のランダム信号(R)が用いられる。したがって、0レベル確率信号と、バイナリ-確率変換器(BSC)により与えられる確率信号(A*)と、は完全に相関し、それらの組み合わせ、例えばORゲートにおいて、最大値信号が与えられてもよい。

Claims (16)

  1. バイナリ信号(A)を受信する、第1入力と、ランダム信号(R)を受信する、第2入力と、を順に有し、前記ランダム信号(R)を用いて前記バイナリ信号(A)を第1確率信号(A*)に変換する、第1バイナリ-確率変換器(BSC)、
    を備え、
    前記第1確率信号(A*)を受信する、第1入力と、第2確率信号である参照確率信号(C*)を受信する第2入力であって前記参照確率信号(C*)は定数値信号(C)から前記ランダム信号(R)を用いて生成される、第2入力と、を備える、処理ユニット(11)であって、前記第1確率信号(A*)及び前記参照確率信号(C*)を少なくとも1つの算術関数に従って処理し、前記処理を表す確率出力信号(S*)を生成する、処理ユニット(11)、
    を備え、
    前記処理ユニット(11)は、OR型論理ゲートであり、適用される前記算術関数は、正規化線形ユニット(ReLU)型の活性化関数から構成される、
    確率信号生成要素(1)。
  2. バイナリ信号(A)を受信する、第1入力と、ランダム信号(R)を受信する、第2入力と、を順に有し、前記ランダム信号(R)を用いて前記バイナリ信号(A)を第1確率信号(A*)に変換する、第1バイナリ-確率変換器(BSC)、
    を備え、
    前記第1確率信号(A*)を受信する、第1入力と、第2確率信号である参照確率信号(C*)を受信する第2入力であって前記参照確率信号(C*)は定数値信号(C)から前記ランダム信号(R)を用いて生成される、第2入力と、を備える、処理ユニット(11)であって、前記第1確率信号(A*)及び前記参照確率信号(C*)を少なくとも1つの算術関数に従って処理し、前記処理を表す確率出力信号(S*)を生成する、処理ユニット(11)、
    を備え、
    前記処理ユニット(11)は、AND型論理ゲートであり、適用される前記算術関数は、最小値型の活性化関数(A*、C*)から構成される、
    確率信号生成要素(1)。
  3. 請求項1又は請求項2に記載された確率信号生成要素(1)を備える、
    計算ニューラルネットワーク用の確率ニューロン(10)。
  4. 複数の確率の入力信号(Y1* - Yn*)を受信する近似的並列カウンタ(APC)を備え、前記複数の入力信号(Y1* - Yn*)の和をとり、その出力において2の補数に符号化されたバイナリの出力信号に変換し、
    前記出力信号は、前記第1バイナリ-確率変換器(BSC)に入力された前記バイナリ信号(A)である、
    請求項3に記載の計算ニューラルネットワーク用の確率ニューロン(10)。
  5. 複数の処理サブユニットを備え、それぞれの処理サブユニットが外部確率信号(X1* - Xn*)及び確率重み信号(w1* - wn*)を受信し、算術関数を適用することでそれらを処理し、前記近似的並列カウンタ(APC)の前記入力信号(Y1* - Yn*)を構成する出力信号を生成する、
    請求項4に記載の計算ニューラルネットワーク用の確率ニューロン(10)。
  6. 前記処理サブユニットは、XNOR論理ゲートから構成され、それぞれのXNOR論理ゲートは、前記外部確率信号(X1* - Xn*)と対応する前記確率重み信号(w1* - wn*)とをバイポーラ的に乗算する、
    請求項5に記載の計算ニューラルネットワーク用の確率ニューロン(10)。
  7. 前記処理サブユニットは、AND論理ゲートから構成され、それぞれのAND論理ゲートは、前記外部確率信号(X1* - Xn*)と対応する前記確率重み信号(w1* - wn*)とをユニポーラ的に乗算する、
    請求項5に記載の計算ニューラルネットワーク用の確率ニューロン(10)。
  8. 請求項3から請求項7のいずれかに記載の複数の確率ニューロン(10)を備え、
    前記複数の確率ニューロン(10)の一部は、他と演算的に相互接続する、
    計算ニューラルネットワーク。
  9. 第2バイナリ-確率変換器(BSC2)を備え、前記第2バイナリ-確率変換器(BSC2)は、前記参照確率信号(C*)を前記定数値信号(C)及び前記ランダム信号(R)から生成し、前記複数の確率ニューロン(10)の異なる前記処理ユニット(11)に一斉に送信する、
    請求項8に記載の計算ニューラルネットワーク。
  10. 乱数生成器(2)を備え、前記乱数生成器(2)は前記ランダム信号(R)を生成し、前記複数の確率ニューロン(10)の異なる前記第1、第2バイナリ-確率変換器(BSC、BSC2)に一斉に前記ランダム信号(R)を送信する、
    請求項9に記載の計算ニューラルネットワーク。
  11. 前記乱数生成器(2)は線形フィードバックシフトレジスタ型である、
    請求項10に記載の計算ニューラルネットワーク。
  12. ORグループゲート(3)を備え、前記ORグループゲート(3)は確率出力信号(S0* - S3*)を確率ニューロン(n0 - n3)のグループから受信し、その出力(Smax*)における最大値を取得する、
    請求項8から請求項11のいずれかに記載の計算ニューラルネットワーク。
  13. バイナリ-確率変換器のアレイ(BSCアレイ)を備え、前記バイナリ-確率変換器のアレイは、それぞれの第1入力で受信される初期信号(x)を変換し、それぞれの第2入力で受信される前記ランダム信号(R)を用いてそれらの出力としてそれぞれ初期確率信号(x*)に変換する、
    請求項8から請求項12のいずれかに記載の計算ニューラルネットワーク。
  14. 第2乱数生成器(2’)と、バイナリ-確率重み変換器のアレイ(BSCアレイ’)と、を備え、前記バイナリ-確率重み変換器のアレイは第1入力で受信される重み信号(w)を変換し、前記第2乱数生成器(2’)から受信される第2乱数信号を用いてその出力として前記確率重み信号(w*)に変換する、
    請求項5を引用する請求項8から請求項13のいずれかに記載の計算ニューラルネットワーク。
  15. 請求項1に記載の確率ニューロン(10)を複数備え、
    前記処理ユニット(11)がOR型論理ゲートである確率信号生成要素(1)を備える確率ニューロン(10)を有する、マックスプーリング型層を備える、
    請求項8から請求項14のいずれかに記載の計算ニューラルネットワーク。
  16. 請求項2に記載の確率ニューロン(10)を複数備え、
    前記処理ユニット(11)がAND型論理ゲートである確率信号生成要素(1)を備える確率ニューロン(10)を有する、ミニマムプーリング型層を備える、
    請求項8から請求項14のいずれかに記載の計算ニューラルネットワーク。
JP2022549079A 2020-02-13 2021-02-11 確率信号生成要素、確率ニューロン及びそのニューラルネットワーク Active JP7689748B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ES202030120A ES2849123B2 (es) 2020-02-13 2020-02-13 Elemento de generación de señales estocásticas, neurona estocástica y red neuronal a partir de esta
ESP202030120 2020-02-13
PCT/ES2021/070096 WO2021160914A1 (es) 2020-02-13 2021-02-11 Elemento de generación de señales estocásticas, neurona estocástica y red neuronal a partir de esta

Publications (2)

Publication Number Publication Date
JP2023513596A JP2023513596A (ja) 2023-03-31
JP7689748B2 true JP7689748B2 (ja) 2025-06-09

Family

ID=77245003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022549079A Active JP7689748B2 (ja) 2020-02-13 2021-02-11 確率信号生成要素、確率ニューロン及びそのニューラルネットワーク

Country Status (5)

Country Link
US (1) US20230079289A1 (ja)
EP (1) EP4105834A4 (ja)
JP (1) JP7689748B2 (ja)
ES (1) ES2849123B2 (ja)
WO (1) WO2021160914A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7438994B2 (ja) * 2021-01-07 2024-02-27 株式会社東芝 ニューラルネットワーク装置及び学習方法
CN114553242B (zh) * 2022-03-04 2023-04-25 电子科技大学 基于半概率计算的部分并行ldpc译码器
US20230419093A1 (en) * 2022-06-23 2023-12-28 International Business Machines Corporation Stochastic Bitstream Generation with In-Situ Function Mapping
WO2025048815A1 (en) * 2023-08-31 2025-03-06 Stem Ai, Inc. Logic interpretation of dynamic machine learning model

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7499588B2 (en) 2004-05-20 2009-03-03 Microsoft Corporation Low resolution OCR for camera acquired documents

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
T. LEE, Vincent et al.,Energy-Efficient Hybrid Stochastic-Binary Neural Networkds For Near-Sensor Computing,arXiv [online],2017年,all 6 pages,Retrieved from The Internet: <URL: https://arxiv.org/pdf/1706.02344 >
Te-Hsuan Chen and John P. Hayes,Design of Division Circuits for Stochastic Computing,2016 IEEE Computer Society Annual Symposium on VLSI,IEEE [online],2016年07月13日,pp.116-121,https://ieeexplore.ieee.org/abstract/document/7560183
Yi Xie, et al.,Fully-Parallel Area-Efficient Deep Neural Network Design using Stochastic Computing,IEEE Transactions on Circuits and Systems II: Express Briefs,IEEE [online],2017年08月30日,pp.1382-1386,https://ieeexplore.ieee.org/document/8022910

Also Published As

Publication number Publication date
WO2021160914A1 (es) 2021-08-19
ES2849123A8 (es) 2021-11-05
US20230079289A1 (en) 2023-03-16
ES2849123B2 (es) 2023-03-07
EP4105834A1 (en) 2022-12-21
JP2023513596A (ja) 2023-03-31
EP4105834A4 (en) 2024-04-03
ES2849123A1 (es) 2021-08-13

Similar Documents

Publication Publication Date Title
JP7689748B2 (ja) 確率信号生成要素、確率ニューロン及びそのニューラルネットワーク
Hassantabar et al. SCANN: Synthesis of compact and accurate neural networks
Kleyko et al. Density encoding enables resource-efficient randomly connected neural networks
Canals et al. A new stochastic computing methodology for efficient neural network implementation
Bethge et al. BinaryDenseNet: Developing an architecture for binary neural networks
Wang et al. Deep spiking neural networks with binary weights for object recognition
JP7803594B2 (ja) 機械学習タスクを実施するためのニューラル・ネットワークの訓練
Jia et al. An energy-efficient Bayesian neural network implementation using stochastic computing method
CN105913118A (zh) 一种基于概率计算的人工神经网络硬件实现装置
Moran et al. Digital implementation of radial basis function neural networks based on stochastic computing
Nowshin et al. Recent advances in reservoir computing with a focus on electronic reservoirs
Rosselló et al. Probabilistic-based neural network implementation
Rossello et al. Highly optimized hardware morphological neural network through stochastic computing and tropical pruning
Morán et al. Reservoir computing hardware with cellular automata
Kim et al. Two-step spike encoding scheme and architecture for highly sparse spiking-neural-network
Luu et al. Improvement of spiking neural network with bit plane coding
Cherniuk et al. Quantization aware factorization for deep neural network compression
Chen et al. Universal adder neural networks
US20250181886A1 (en) Method and electronic system for inferring a morphological neural network
Dogaru et al. Fast training of light binary convolutional neural networks using chainer and cupy
Rosselló et al. Hardware implementation of stochastic computing-based morphological neural systems
Golbabaei et al. A non-deterministic training approach for memory-efficient stochastic neural networks
Rosselló et al. Stochastic Computing Applications to Artificial Neural Networks
Tang et al. OneSpike: Ultra-low latency spiking neural networks
Zu et al. Generalwise separable convolution for mobile vision applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250521

R150 Certificate of patent or registration of utility model

Ref document number: 7689748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150