JP2019139300A - ニューラル電子回路 - Google Patents
ニューラル電子回路 Download PDFInfo
- Publication number
- JP2019139300A JP2019139300A JP2018019251A JP2018019251A JP2019139300A JP 2019139300 A JP2019139300 A JP 2019139300A JP 2018019251 A JP2018019251 A JP 2018019251A JP 2018019251 A JP2018019251 A JP 2018019251A JP 2019139300 A JP2019139300 A JP 2019139300A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- output
- input
- input data
- electronic circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
Abstract
【課題】電子回路規模を縮小しつつ、様々なタイプのニューラルネットワークを実現できるニューラル電子回路を提供する。【解決手段】 並列で入力される1ビットの入力データであって、並列の各入力データ(I1、…、Im)に応じて、「1」または「0」の1ビットの重み付け係数(W1、…、Wm)を記憶し、当該重み付け係数を出力する記憶部(MC)と、並列の各入力データに設定された電子回路部であって、記憶部(MC)から出力された重み付け係数と入力データとを乗算する乗算機能を実現する第1電子回路部(Pe)と、並列の各入力データの第1電子回路部(Pe)からの各乗算結果を加算し、かつ、当該加算結果に活性化関数を適用して1ビットの出力データを出力する加算・適用機能を実現する第2電子回路部(Act)と、を備える。【選択図】図3
Description
本発明は、ニューラルネットワークを電子回路で実現するニューラル電子回路の技術分野に属する。
近年、人の脳機能をモデル化した、いわゆるニューラルネットワーク回路についての研究開発が行われている。このとき、従来のニューラルネットワーク回路としては、例えば浮動小数点又は固定小数点を使った積和演算を用いて実現される場合が多く、この場合には、例えば演算コストが大きく、処理負荷が高いという問題点があった。
そこで近年、上記入力データ及び上記重み付け係数をそれぞれ1ビットとする、いわゆる「バイナリニューラルネットワーク回路」のアルゴリズムが提案されている。ここで、上記バイナリニューラルネットワーク回路のアルゴリズムを示す先行技術文献としては、例えば下記非特許文献1及び非特許文献2が挙げられる。
「XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks」論文、Mohammad Rastegari他、arXiv:1603.05279v2 [cs.CV、2016年4月19日(URL:http://arxiv.org/abs/1603.05279)
「Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 or -1」論文、Matthieu Courbariaux他、arXiv:1602.02830v3 [cs.LG]、2016年3月17日(URL:http://arxiv.org/abs/1602.02830)
しかしながら、上述したいずれの非特許文献においても、当該論文記載の理論を具体的にどのように実現するかについては、全く記載されていない。また、各論文記載の理論により単位演算コストが大幅に下がることを利用して並列演算を可能にしたいが、そのためのハードウエア構成も未知である。更に、複雑多岐なニューラルネットを構築するためにも、フル結合のニューラルネットワークの他にも、コンボリューション演算等も効率的に計算できる電子回路を実現する必要があった。
そこで本発明は、上記の各問題点及び要請等に鑑みて為されたもので、その課題の一例は、上記バイナリニューラルネットワーク回路のアルゴリズムを用いて、電子回路規模を縮小しつつ、様々なタイプのニューラルネットワークを実現できるニューラル電子回路を提供することにある。
上記の課題を解決するために、請求項1に記載の発明は、並列で入力される1ビットの入力データであって、並列の各前記入力データに応じて、「1」または「0」の1ビットの重み付け係数を記憶し、当該重み付け係数を出力する記憶部と、前記並列の各入力データに設定された電子回路部であって、前記記憶部から出力された重み付け係数と前記入力データとを乗算する乗算機能を実現する第1電子回路部と、前記並列の各入力データの前記第1電子回路部からの各乗算結果を加算し、かつ、当該加算結果に活性化関数を適用して1ビットの出力データを出力する加算・適用機能を実現する第2電子回路部と、を備え、前記第1電子回路部が、前記入力データの値と前記記憶部から出力された値とが一致する場合に前記入力データの入力に対応して「1」を出力し、前記入力データの値と前記記憶部から出力された値とが異なる場合に前記入力データの入力に対応して「0」を出力することを特徴とする。
請求項2に記載の発明は、請求項1に記載のニューラル電子回路において、前記記憶部および前記第2電子回路部が、並列で出力される各前記出力データに応じて設定されたことを特徴とする。
請求項3に記載の発明は、請求項1または請求項2に記載のニューラル電子回路において、各前記第1電子回路部からの前記乗算結果を一時記憶する一時記憶部を前記第1電子回路部毎に更に備え、前記各一時記憶部が、直列に設定され、前記乗算結果を前記第2電子回路部へ順次転送することを特徴とする。
請求項4に記載の発明は、請求項1から請求項3のいずれか1項に記載のニューラル電子回路において、前記第2回路部は、前記並列の各入力データに設定された複数の前記第1電子回路部において、前記入力データが入力されるサイクル単位で、前記第1電子回路部が「1」を算出した回数から、前記第1電子回路部が「0」を算出した回数を減じた値が予め定められた閾値以上の場合に「1」を前記出力データとして出力し、前記減じた値が前記閾値未満の場合に「0」を前記出力データとして出力することを特徴とする。
請求項5に記載の発明は、請求項1から請求項4のいずれか1項に記載のニューラル電子回路において、前記記憶部は、「1」または「0」の重み付け係数、および、ニューロン間の接続の有無を示す所定値の組を複数記憶し、当該重み付け係数および当該所定値を出力し、前記第1電子回路部が、前記入力データの値と前記記憶部から出力された値とが一致する場合に前記入力データの入力に対応して「1」を出力し、前記入力データの値と前記記憶部から出力された値とが異なる場合に前記入力データの入力に対応して「0」を出力し、前記所定値が前記記憶部から出力された場合に前記入力データの入力に対応して当該所定値を出力することを特徴とする。
請求項6に記載の発明は、請求項1から請求項5のいずれか1項に記載のニューラル電子回路において、前記記憶部が、前記第1電子回路部に順次入力される前記入力データに対応した重み付け係数を、前記第1電子回路部に順次出力することを特徴とする。
請求項7に記載の発明は、請求項6に記載のニューラル電子回路において、前記第1電子回路部が、並列で入力される前記入力データの入力並列数分、前記乗算結果を加算した部分加算結果を出力し、前記第2電子回路部が、前記部分加算結果から前記加算結果を算出することを特徴とする。
請求項8に記載の発明は、請求項1から請求項5のいずれか1項に記載のニューラル電子回路において、前記記憶部が、並列で入力される並列の各前記入力データに対応した重み付け係数を、各前記第1電子回路部に出力することを特徴とする。
請求項9に記載の発明は、請求項8に記載のニューラル電子回路において、前記入力データを並列で一度に入力可能な入力可能並列数より、前記入力データの入力並列数が大きい場合、前記第1電子回路部は、前記入力可能並列数の並列で前記入力データを受け入れた後、前記入力可能並列数の並列で受け入れできなかった残りの前記入力データを受け入れ、前記記憶部は、前記残りの入力データに対応する前記重み付け係数を出力することを特徴とする。
本発明によれば、1ビットの入力データの値と記憶部から出力された値とが一致する場合に入力データの入力に対応して「1」を出力し、入力データの値と記憶部から出力された値とが異なる場合に入力データの入力に対応して「0」を出力することにより、乗算機能を実現するため、回路規模を縮小でき、並列で入力される並列の各入力データに応じて配置された第1電子回路部により、様々なタイプのニューラルネットワークを実現できる。
次に、本発明に係る実施形態及び関連形態について、図面に基づいてそれぞれ説明する。なお以下に説明する実施形態等は、人の脳機能をモデル化したニューラルネットワークを電子的な回路で実現したニューラルネットワーク回路について本発明を適用した場合の実施形態等である。
[1.ニューラルネットワークについて]
先ず、上記脳機能をモデル化したニューラルネットワークについて、一般的に図1を用いて説明する。
一般に人の脳の中には、多数のニューロン(神経細胞)が存在しているとされている。脳の中で各ニューロンは、多数の他のニューロンからの電気信号を受信し、また更に他の多数のニューロンへ電気信号を送信している。そして脳は、各ニューロン間のこれら電気信号の伝達によって、様々な情報処理を行っているとされている。このとき、各ニューロン間における電気信号の送受信は、シナプスと呼ばれる細胞を介して行われる。そして、脳における上記ニューロン間の電気信号の送受信をモデル化してコンピュータ内に脳機能を実現しようとしたものが、ニューラルネットワークである。
より具体的にニューラルネットワークでは図1(a)に例示するように、外部から入力される複数の入力データI1、入力データI2、…、入力データIn(nは自然数。以下同様。)のそれぞれに対する乗算処理、各乗算結果とバイアス(閾値)の加算処理及び活性化関数の適用処理を一つのニューロンNRで実行し、その結果を出力データOとすることで、脳機能における一つのニューロンに対する上記電気信号の送受信をモデル化する。なお以下の説明において、上記活性化関数の適用処理を、単に「活性化処理」と称する。このとき一つのニューロンNRでは、複数の入力データI1、入力データI2、…、入力データInそれぞれに対応して予め設定された(つまり既定の)重み付け係数W1、重み付け係数W2、…、重み付け係数Wnを当該入力データI1、入力データI2、…、入力データInに対してそれぞれ乗算することで上記乗算処理が実行される。
その後当該ニューロンNRは、各入力データI1、入力データI2、…、入力データInに対する上記乗算処理の結果のそれぞれを加算してバイアスbiasの値を加算する上記加算処理を実行する。そして当該ニューロンNRは次に、上記加算処理の結果に既定の活性化関数Fを適用する上記活性化処理を実行し、その結果を上記出力データΟとして他の一又は複数のニューロンNRに出力する。上述した一連の乗算処理、加算処理及び活性化処理を数式で表すと、図1(a)に示す式(1)となる。このとき、重み付け係数W1、重み付け係数W2、…、重み付け係数Wnを入力データI1、入力データI2、…、入力データInにそれぞれ乗算する乗算処理が、ニューロンNR間の上記電気信号のやり取りにおける上記シナプスの作用に相当すると共に、本発明に係る「乗算機能」の一例に相当する。また、上記加算処理及び活性化処理が本発明に係る「加算/適用機能」の一例に相当する。そして図1(b)に例示されるように、図1(a)に例示する一つのニューロンNRが多数集まってシナプスにより互いに接続されることにより、脳全体がニューラルネットワークSSとしてモデル化される。
[2.ニューラルネットワーク・システムの構成および機能概要]
(2.1 ニューラルネットワーク・システムの構成および機能)
次に、本発明の一実施形態に係るニューラルネットワーク・システムの構成および概要機能について、図2を用いて説明する。
(2.1 ニューラルネットワーク・システムの構成および機能)
次に、本発明の一実施形態に係るニューラルネットワーク・システムの構成および概要機能について、図2を用いて説明する。
図2は、本実施形態に係るニューラルネットワーク・システムNNSの概要構成例を示す模式図である。
図2に示すように、ニューラルネットワーク・システムNNSは、様々なタイプのニューラルネットワークを電子回路で実現可能な複数のコア電子回路Coreと、コア電子回路Core同士を接続するシステムバスbusと、を備えている。
コア電子回路Coreは、様々なタイプのニューラルネットワークを電子回路で実現可能なニューラル電子回路NNと、ニューラル電子回路NNの重み付け係数等を設定するメモリアクセス制御部MCntと、ニューラル電子回路NNおよびメモリアクセス制御部MCntを制御する制御部Cntと、を有する。ここで、様々なタイプのニューラルネットワークの一例として、ニューロン層間のニューロン同士がフル結合したフル結合のタイプのニューラルネットワーク、コンボリューション演算をするニューラルネットワーク、ニューロン層における層内拡張をしたニューラルネットワーク、層数を拡張するニューラルネットワーク等が挙げられる。
ニューラル電子回路NNは、入力データI1、・・・、Im(mは自然数。以下同様)を並列で順次供給する入力メモリアレイ部MAiと、重み付け係数のデータを並列で順次供給するメモリセルアレイ部MC(記憶部の一例)と、供給された入力データI1、・・・、Imと重み付け係数とを乗算する乗算機能を実現して乗算結果を出力する複数のプロセスエレメント部Pe(第1電子回路部の一例)と、並列の各入力データのプロセスエレメント部Peからの各乗算結果を加算して加算結果に活性化関数を適用する加算活性化部Act(第2電子回路部の一例)と、各加算活性化部Actからの出力データO1、・・・、On(nは自然数。以下同様)をそれぞれ順次記憶する出力メモリアレイ部MAoと、各加算活性化部Actにバイアス用の値を順次提供するバイアス用メモリアレイMAbとを有する。
メモリアクセス制御部MCntは、例えば、Direct Memory Access Controllerである。メモリアクセス制御部MCntは、制御部Cntの制御に従い、各プロセスエレメント部Peに逐次供給する入力データを、入力メモリアレイ部MAiに設定する。また、メモリアクセス制御部MCntは、制御部Cntの制御に従い、重み付け係数およびニューロン間の接続の有無を示す所定値を、各メモリセルアレイ部MCに予め設定する。また、メモリアクセス制御部MCntは、制御部Cntの制御に従い、加算活性化部Actから出力された出力データを、出力メモリアレイ部MAoから取り出す。
制御部Cntは、CPU(Central Processing Unit)等を有する。制御部Cntは、ニューラル電子回路NNの各素子の同期等のタイミングを計ったり、計算やデータの転送の同期を取ったりする。また、制御部Cntは、ニューラル電子回路NN内の後述のセレクタ素子の切り替え制御を行う。
制御部Cntは、メモリアクセス制御部MCntを制御して、他のコア電子回路Coreから出力されたデータを入力メモリアレイ部MAi用に整えて、入力データとして入力メモリアレイ部MAiに供給するように制御する。制御部Cntは、メモリアクセス制御部MCntが、出力メモリアレイ部MAoから取得した出力データを、他のコア電子回路Coreに転送するように制御する。
なお、上位コントローラ(図示せず)が、ニューラルネットワーク・システムNNSや、各コア電子回路Coreの制御部Cntを制御してもよい。また、上位コントローラが、制御部Cntの代わりに、ニューラル電子回路NNおよびメモリアクセス制御部MCntを制御してもよい。上位コントローラは、外付けのコンピュータでもよい。
バイアス用メモリアレイ部MAbは、各加算活性化部Actに提供するバイアス用のデータを予め記憶している。
(2.2 ニューラル電子回路の構成および機能)
次に、ニューラル電子回路NNについて、図3を用いて説明する。
図3は、図2のニューラル電子回路の一例を示すブロック図である。
次に、ニューラル電子回路NNについて、図3を用いて説明する。
図3は、図2のニューラル電子回路の一例を示すブロック図である。
図3に示すように、ニューラル電子回路NNは、例えば、入力m個×出力n個の2層のニューラルネットワークを実現する。
記憶部の一例であるメモリセルアレイ部MCは、重み付け係数を記憶するメモリセル10を有する。メモリセル10は、構築するニューラルネットワークによる実現する脳機能に基づいて予め設定された「1」または「0」の1ビットの重み付け係数を記憶している。
なお、メモリセルアレイ部MCは、上記脳機能に基づいて予め設定されたニューロン間の接続有無情報を記憶している別の接続有無情報用のメモリセル(図示せず)も有していてもよい。ここで、接続無情報は、例えば、NC(Not Connected(接続なし))を意味する1ビット所定値であり、所定値として「1」または「0」等が割り当てられる。
メモリセル10が並んで、メモリセルの列が形成される。同時に各プロセスエレメント部Peに出力されるメモリセル10をまとめてメモリセルブロックCBが形成される。メモリセルブロックCBのメモリセル10は、並列で入力される各入力データに対応している。
メモリセルアレイ部MCは、入力メモリアレイ部MAiから並列で入力される入力データI1、・・・、Imの入力並列数m個以上のメモリセルブロックCBを有することが好ましい。メモリセルブロックCBにおいて、メモリセル10の数は、入力メモリアレイ部MAiから1ビット順次入力されるシリアルの入力データのサイクル数以上が好ましい。
メモリセルアレイ部MCは、メモリセルブロックCB毎に、1ビットの重み付け係数を、1ビット順次入力されるシリアルの入力データに対応してプロセスエレメント部Peに、順次出力する。各プロセスエレメント部Peに、メモリセルブロックCBからの重み付け係数と、入力メモリアレイ部MAiからの入力データとが入力される。
メモリセルブロックCBは、1ビットの重み付け係数と1ビットの接続有無情報とを、交互に、プロセスエレメント部Peに順次、出力してもよい。メモリセル10は、プロセスエレメント部Peに対して独立した結線を有し、別々に順次、プロセスエレメント部Peに出力してもよい。
メモリセルアレイ部MCは、図2および図3に示すように、出力メモリアレイ部MAoに並列に出力される出力データの出力並列数n個、並列に出力される出力データO1、・・・、Onに対応して、ニューラル電子回路NNに配置される。
このように、メモリセルアレイ部MCは、並列で入力される1ビットの並列の各入力データに応じて、「1」または「0」の1ビットの重み付け係数を記憶し、当該重み付け係数を出力する記憶部の一例として機能する。メモリセルアレイ部MCは、並列で出力される前記並列の各出力データに応じて配置された記憶部の一例として機能する。メモリセルアレイ部MCは、「1」または「0」の重み付け係数、および、ニューロン間の接続の有無を示す所定値の組を複数記憶し、当該重み付け係数および当該所定値を出力する記憶部の一例として機能する。
なお、メモリセル10、および、メモリセルブロックCBの構成および機能の詳細は、図15以降、特に、図15および図16のメモリセル1に関する記述部分、図21から図27のメモリセル10、および、メモリセルブロック15に関する記述部分等で後述する。また、メモリセルアレイ部MCは、後述するメモリセルアレイMC1、メモリセルアレイMC2に対応する。
図3に示すように、並列で入力される並列の各入力データに配置された入力並列数m個のプロセスエレメント部Peは、ニューラル電子回路NNにおいて、プロセスエレメント・コラム(例えば、プロセスエレメント・コラムPC1)を形成する。出力並列数n個のプロセスエレメント・コラムPC1からPCnは、並列に出力される出力データに対応して、ニューラル電子回路NNにおいて、n列に配置される。プロセスエレメント部Peは、図3に示すように、ニューラル電子回路NNにおいて、m行×n列に2次元の演算器アレイとして設定される。
行列(1,1)、(1,2)、・・・、(1,n)のプロセスエレメント部Peには、入力データI1が共通で入力される結線になっている。行列(2,1)、(2,2)、・・・、(2,n)のプロセスエレメント部Peには、入力データI2が共通で入力される結線になっている。行列(m,1)、(m,2)、・・・、(m,n)のプロセスエレメント部Peには、入力データImが共通で入力される結線になっている。
プロセスエレメント部Peは、対応するメモリセル10から出力される1ビットの重み付け係数と、1ビットの入力データとの排他的論理和(XNOR)を乗算結果として算出して出力する。
なお、接続有無情報用のメモリセルからの接続無情報(例えば、「NC」を意味する所定値)が出力された場合、加算活性化部Actにおいて、乗算結果が加算されない。例えば、乗算結果と接続有無情報とが交互にペアで出力されてもよい。また、接続有無情報に関して、プロセスエレメント部Peから加算活性化部Actへ、乗算結果とは独立の結線を有し、乗算結果と接続有無情報とは別々に出力されてもよい。
なお、プロセスエレメント部Peで、乗算結果の部分和を計算するとき、接続有無情報用のメモリセルからの接続無情報(例えば、「NC」を意味する所定値)が出力された場合、乗算結果の部分和に加算されない。
このように、プロセスエレメント部Peは、前記並列の各入力データに設定された電子回路部であって、前記記憶部から出力された重み付け係数と前記入力データとを乗算する乗算機能を実現する第1電子回路部の一例として機能する。プロセスエレメント部Peは、前記入力データの値と前記記憶部から出力された値とが一致する場合に前記入力データの入力に対応して「1」を出力し、前記入力データの値と前記記憶部から出力された値とが異なる場合に前記入力データの入力に対応して「0」を出力する第1電子回路部の一例として機能する。プロセスエレメント部Peは、前記入力データの値と前記記憶部から出力された値とが一致する場合に前記入力データの入力に対応して「1」を出力し、前記入力データの値と前記記憶部から出力された値とが異なる場合に前記入力データの入力に対応して「0」を出力し、前記所定値が前記記憶部から出力された場合に前記入力データの入力に対応して当該所定値を出力する第1電子回路部の一例として機能する。
プロセスエレメント・コラムPC1、・・・、PCnは、各プロセスエレメント部Peからの乗算結果または一部の乗算結果を加算した部分和結果等を加算活性化部Actに出力する。
なお、プロセスエレメント部Peに対応する多数判定入力回路の構成および機能の詳細は、図15以降、特に、図21および図22等の多数判定入力回路12に関する記述部分等で後述する。ちなみに、多数判定入力回路12は、対応する接続有無情報用のメモリセルから出力される接続有無情報をそのまま出力したり、対応するメモリセル10から出力される重み付け係数と入力データとの排他的論理和を算出し、出力データとして出力したりする。
図2および図3に示すように、加算活性化部Actは、並列で出力される各出力データO1、・・・、Onに応じて配置されている。
加算活性化部Actは、プロセスエレメント・コラムから逐次出力される乗算結果を、接続有無情報に基づき加算して、加算結果に活性化関数を適用して1ビットの出力データを出力メモリアレイ部MAoに出力する。プロセスエレメント部Peが乗算結果の部分和を出力する場合、加算活性化部Actは、プロセスエレメント・コラムから逐次出力される乗算結果を加算して、加算結果に活性化関数を適用して1ビットの出力データを出力メモリアレイ部MAoに出力する。
加算活性化部Actは、プロセスエレメント・コラムにおいて、入力データの1サイクル単位で、乗算結果として「1」を算出した回数から、乗算結果として「0」を算出した回数を減じた値が予め定められた閾値以上の場合に「1」を出力データとして出力し、減じた値が閾値未満の場合に「0」を前記出力データとして出力する。
このように、加算活性化部Actは、前記並列の各入力データの前記第1電子回路部からの各乗算結果を加算し、かつ、当該加算結果に活性化関数を適用して1ビットの出力データを出力する加算・適用機能を実現する第2電子回路部の一例として機能する。加算活性化部Actは、並列で出力される前記並列の各出力データに応じて配置された第2電子回路部の一例として機能する。加算活性化部Actは、前記並列の各入力データに設定された複数の第1電子回路部において、前記入力データが入力されるサイクル単位で、前記第1電子回路部が「1」を算出した回数から、前記第1電子回路部が「0」を算出した回数を減じた値が予め定められた閾値以上の場合に「1」を前記出力データとして出力し、前記減じた値が前記閾値未満の場合に「0」を前記出力データとして出力する第2電子回路部の一例として機能する。
なお、加算活性化部Actの構成および機能の詳細は、図15以降、特に図21から図27で後述する。ここで、加算活性化部Actは、例えば、後に詳細に説明する直列多数判定回路13に対応する。ちなみに、直列多数判定回路13は、時間的に直列に順次入力される「1」または「0」の乗算結果に対して、「1」または「0」の数に関する判定を行う。
図3に示すように、ビットシリアル入力の並列化が行われ、プロセスエレメント部Peの行が入力データに対して共有し、プロセスエレメント部Peの列である各プロセスエレメント・コラムが独立して出力データを出力する。
(1.3 プロセスエレメント・コラムの構成および機能)
次に、プロセスエレメント・コラムの構成および機能について、図4および図5を用いて説明する。
次に、プロセスエレメント・コラムの構成および機能について、図4および図5を用いて説明する。
図4は、図3のプロセスエレメント・コラムの一例を示すブロック図である。図5は、図4のプロセスエレメントの動作のタイミングの一例を示す模式図である。
図4に示すように、プロセスエレメント・コラムPC1のようなプロセスエレメント・コラムは、フェーズ1として計算を行う複数のプロセスエレメント部Peと、フェーズ1での計算結果の転送を行うフェーズ2の複数のフリップフロップFp(一時記憶部の一例)およびセレクタSeと、を有する。
フリップフロップFpは、各プロセスエレメント部Peの出力側に接続され、プロセスエレメント部Peの乗算結果または部分和結果を一時的に記憶する。フリップフロップFpは、1行目のプロセスエレメント部Peからn行目のプロセスエレメント部Peに対応して、セレクタSeを介して直列に接続されている。n行目のフリップフロップFpは、加算活性化部Actに接続されている。なお、これらの接続が、図2において、プロセスエレメント部Pe間を太線で示した部分の機能の一例である。
セレクタSeは、プロセスエレメント部Pe間に配置され、上流のフリップフロップFpからのデータと、プロセスエレメント部Peからのデータとを切り替える。
図5に示すように、フェーズ1において、各フリップフロップFpで乗算等の計算が行われ、セレクタSeは、入力側のフリップフロップFpのデータを選択して、フリップフロップFpに計算結果が出力される。次に、フェーズ2において、セレクタSeは、上流のフリップフロップFpのデータを選択する。これにより、入力並列数m個のサイクル単位のタイミングで、計算結果が加算活性化部Actに逐次転送され、計算結果の転送が行われる。
このように、フリップフロップFpは、前記第1電子回路部毎に、各前記第1電子回路部からの前記乗算結果を一時記憶する一時記憶部の一例として機能する。フリップフロップFpは、直列に設定され、前記乗算結果を前記第2電子回路部へ順次転送する一時記憶部の一例として機能する。
なお、各プロセスエレメント部Peからの乗算結果が直接、加算活性化部Actに供給されてもよい。この場合、加算活性化部Actは、各入力データが入力される並列多数判定回路である。並列多数判定回路20の詳細については、後述する。ちなみに、並列多数判定回路20は、並列で入力される「1」または「0」の乗算結果に対して、「1」または「0」の数に関する判定を行う。
(2.4 プロセスエレメントおよび加算活性化部の回路構成)
次に、プロセスエレメントおよび加算活性化部の回路構成について、図6Aおよび図6Bを用いて説明する。
次に、プロセスエレメントおよび加算活性化部の回路構成について、図6Aおよび図6Bを用いて説明する。
図6Aに示すように、プロセスエレメント部Peは、XNOR素子pe1と、セレクタpe2と、加算器pe3と、フリップフロップpe4と、を有する。
XNOR素子pe1は、1ビットの重み付け係数(例えば、w1)と、1ビットの入力データ(例えば、i1)との排他的論理和を乗算結果として算出して出力する。
セレクタpe2は、乗算結果に基づき、値(0、1)を、正負の値(−1、1)または(1、−1)に変換する。例えば、セレクタpe2は、乗算結果が「0」の場合、「−1」を選択し、乗算結果が「1」の場合、「1」を選択する。
加算器pe3は、フリップフロップpe4に一時記憶された前の値と、セレクタpe2の出力値(1または−1)とを、例えば、10ビット程度の精度で加算する。加算器pe3の加算結果は、フリップフロップpe4に記憶される。例えば、加算器pe3およびフリップフロップpe4は、入力データの並列数回ループして、乗算結果の部分和を、例えば、10ビットで出力する。
次に、加算活性化部Actの回路構成について、図6Bを用いて説明する。
図6Bに示すように、加算活性化部Actは、セレクタac1と、加算器ac2と、フリップフロップac3と、符号判定器ac4と、セレクタac5と、フリップフロップac6と、を有する。
セレクタac1は、加算器ac2への入力を制御する。セレクタac1は、各プロセスエレメント・コラムPC1、・・・、PCnからの乗算結果の部分和のデータ(例えば、20ビット)を入力とし、最後にフリップフロップac6からのバイアスbiasの値を加算器ac2で加算するように制御する。
加算器ac2およびフリップフロップac3により加算を行い、加算結果のデータ(例えば、32ビット)を符号判定器ac4に出力する。
符号判定器ac4は、加算器ac2およびフリップフロップac3で乗算結果の部分和の総和と、フリップフロップac6からのバイアスbiasの値とを加算された値の符号を判定し、1ビットの出力データを出力する。なお、ゼロの値の場合、符号は正としてもよい。
なお、セレクタac5およびフリップフロップac6は、バイアス用メモリアレイMAbから出力されたバイアスbiasの値(例えば、32ビット値)を、次の加算活性化部Actに転送するか保持するかを制御する。
[3.ニューラル電子回路の適用例]
次に、ニューラル電子回路NNにより、様々なタイプのニューラルネットワークを実現する実施例について説明する。
次に、ニューラル電子回路NNにより、様々なタイプのニューラルネットワークを実現する実施例について説明する。
(3.1 コンボリューション演算を実現するニューラル電子回路)
次に、コンボリューション演算を実現するニューラル電子回路について、図7および図8を用いて説明する。
次に、コンボリューション演算を実現するニューラル電子回路について、図7および図8を用いて説明する。
図7は、コンボリューション演算におけるデータの関係の一例を示す模式図である。図8は、図7のコンボリューション演算を実現するニューラル電子回路の一例を示すブロック図である。
図7に示すように、チャンネル数CIの入力画像Iimの入力データと、フィルタ画像Pa、Pb、・・・、PCOの種類数COのフィルタデータとに対して、コンボリューション演算が行われる。ここで、RGBのようなカラーが画像の場合、チャンネル数は、3である。白黒画像の場合、チャンネル数は1である。CMYKカラーモデルの画像の場合、チャンネル数は4である。
図7に示すように、1ビットの値のk×kピクセルの入力画像Iimに対して、個々の入力データi1、i2、・・・、ik、・・・、ik 2が形成される。なお、原画像に対して、k×kピクセルの領域を順次切り出して、コンボリューション演算が原画像に対して行われる。ここで、コンボリューション演算は、第1関数を平行移動しながら第2関数に重ね足し合わせる二項演算である。例えば、入力画像Iimが第1関数に対応して、フィルタ画像が第2関数に対応する。
ここで、図7において、入力データI1は、チャンネル1の入力データの総称を示し、入力データi1、i2、・・・、ik、・・・、ik 2は、チャンネル1に順次入力される1ビットの個々の入力データである。入力データI2は、チャンネル2の入力データの総称を示し、灰色のボックスで示す入力データi1、i2、・・・、ik、・・・、ik 2は、チャンネル2に順次入力される1ビットの個々の入力データである。
フィルタデータは、入力画像Iimに対応して、1ビットの値のk×kピクセルのフィルタ画像Pa、Pb、・・・、PCOである。カラーの場合、例えば、3チャンネル分の要素画像が一組で、CO個の種類のフィルタ画像が用意される。
1枚のk×kピクセルの入力画像Iimと、1枚のk×kピクセルのフィルタ画像(例えば、1のフィルタ画像Pa)から、コンボリューション演算により、1ビットの出力データが出力される。CI個のチャンネル毎の1ビットの出力データに対して、フィルタ画像のCO種類分であるCI×CO個の出力データが生成される。
図8に示すように、ニューラル電子回路NNは、チャンネル数のプロセスエレメント部Peが並んだプロセスエレメント・コラムPC1、PC2、・・・、PCcoと、CO個の種類の各フィルタ画像に対応したメモリセルアレイ部MCとを有する。制御部Cntは、ニューラル電子回路NNのうち、プロセスエレメント・コラムPC1、PC2、・・・、PCcoと、CO個のメモリセルアレイ部MCとを、使用するように制御する。
メモリアクセス制御部MCntは、メモリセルアレイ部MCのメモリセル10の列(k2個の行のメモリセル10)に、重み付け係数として、フィルタ画像のk×kピクセルに対応した1ビットの値を、設定する。各チャンネルに対応したCI個のメモリセルの列に、データが設定される。
メモリアクセス制御部MCntは、入力メモリアレイ部MAiに、チャンネル毎にk2個の入力データi1、i2、・・・、ik、・・・、ik 2を設定する。
ニューラル電子回路NNは、先ず、チャンネル数CI個分の入力データを順次処理する。
具体的には、チャンネル1の入力データI1のうち入力データi1、i2、・・・、iCIが、行列(1,1)、(1,2)、・・・、(1,CO)の各プロセスエレメント部Peに順次入力される。
入力データi1、i2、・・・、iCIに同期して、行列(1,1)のプロセスエレメント部Peに、メモリセルアレイ部MCから出力された重み付け係数w1、w2、・・・、wCIも順次入力される。
このように、メモリセルアレイ部MCが、前記第1電子回路部に順次入力される前記入力データに対応した重み付け係数を、前記第1電子回路部に順次出力する記憶部の一例として機能する。
図5に示すように、フェーズ1で、プロセスエレメント・コラムPC1に、おいては、行列(1,1)のプロセスエレメント部Peが、乗算結果i1×w1、i2×w2、・・・、iCI×wCIを算出し、チャンネル数CI個分の和であるチャンネル1の部分和i1×w1+i2×w2+・・・+iCI×wCIを算出する。部分和i1×w1+i2×w2+・・・+iCI×wCIは、並列で入力される入力データの入力並列数分、乗算結果を加算した部分加算結果の一例である。
チャンネル2の入力データI2のうち、図8中、グレイの四角形で示した入力データi1、i2、・・・、iCIが、行列(2,1)、(2,2)、・・・、(2,CO)の各プロセスエレメント部Peに順次入力される。行列(2,1)のプロセスエレメント部Peが、チャンネル2の入力データI2に対して、乗算結果を算出し、チャンネル2の部分和を算出する。
チャンネルCIに関しても、行列(CI,1)のプロセスエレメント部Peが、チャンネルCIの入力データICIに対して、乗算結果を算出し、部分和を算出する。
このように、プロセスエレメント部Peが、並列で入力される前記入力データの入力並列数分、前記乗算結果を加算した部分加算結果を出力する第1電子回路部の一例として機能する。
次に、フェーズ2で、プロセスエレメント・コラムPC1は、行列(1,1)、(2,1)、・・・、(CI,1)の各プロセスエレメント部Peから出力されたチャンネル毎の部分和を順に加算活性化部Actに転送する。
フェーズ1の次の計算では、入力データiCI+1、iCI+2、・・・、i2CIに対して、行列(1,1)のプロセスエレメント部Peが、乗算結果iCI+1×wCI+1、iCI+2×wCI+2、・・・、i2CI×w2CIを算出し、部分和iCI+1×wCI+1+iCI+2×wCI+2+・・・+i2CI×w2CIを算出する。
k2目の入力データまで、チャンネル数CI個分の入力データで、乗算結果および部分和を算出して転送する。k×kピクセルの入力画像に対してk2サイクル単位のシリアル入力が形成され、各フィルタ画像に対して、1画素分、出力される。
プロセスエレメント・コラムPC2等も、同様に部分和を算出して加算活性化部Actに転送する。
加算活性化部Actは、チャンネル毎に部分和の和を計算して、入力データk2個に対する総和をコンボリューション演算の結果として算出する。加算活性化部Actは、入力データの重み付け総和に閾値であるバイアスbiasの値を加え、活性化関数を適用として、例えば、符号が正の値の場合(すなわち、所定の閾値を超えた場合)、「1」を、符号が負の値の場合(すなわち、所定の閾値を超えない場合)は「0」を、出力データOoa等として、出力メモリアレイ部MAoに出力する。入力画像Iimとフィルタ画像Paとに対する出力結果が、出力データoaである。入力画像Iimとフィルタ画像Pbとに対する出力結果が、出力データobである。各チャネル毎に、出力データが計算される。なお、出力データoa等が、コンボリューション演算の結果として設定されてもよい。
このように、加算活性化部Actは、前記部分加算結果から前記加算結果を算出する第2電子回路の一例として機能する。
出力メモリアレイ部MAoは、チャンネル数CI個分の出力データoa、・・・を1ワードとして記憶する。出力メモリアレイ部MAoは、フィルタ画像Pa、Pb、・・・、PCO毎に、1ワードの出力データoa、・・・、1ワードの出力データob、・・・、・・・を記憶する。
(3.2 フル結合のニューラルネットワークを実現するニューラル電子回路)
次に、ニューロン層間のニューロン同士がフル結合したフル結合のニューラルネットワークを実現するニューラル電子回路について、図9および図10を用いて説明する。
次に、ニューロン層間のニューロン同士がフル結合したフル結合のニューラルネットワークを実現するニューラル電子回路について、図9および図10を用いて説明する。
図9は、フル結合のニューラルネットワークの一例を示す模式図である。図10は、図9のフル結合のニューラルネットワークを実現するニューラル電子回路の一例を示すブロック図である。
M×Nのニューラル電子回路NNで、入力並列数M個以上の入力で、出力並列数N個以上の出力のフル結合のニューラルネットワークを実現する場合について説明する。例えば、図9は、AM×BNのフル結合のニューラルネットワークでM=3、N=2で、A=2、B=3の一例を示している。
図10に示すように、ニューラル電子回路NNは、入力並列数M個のプロセスエレメント部Peが並んだプロセスエレメント・コラムと、出力並列数N個のプロセスエレメント・コラムPC1、PC2、・・・、PCNと、出力並列数N個のメモリセルアレイ部MCとを有する。制御部Cntは、ニューラル電子回路NNのうち、プロセスエレメント・コラムPC1、PC2、・・・、PCNと、N個のメモリセルアレイ部MCと、を使用するように制御する。ここで、入力並列数M個が、入力可能並列数の一例で、出力並列数N個が、出力可能並列数の一例である。
メモリアクセス制御部MCntは、入力メモリアレイ部MAiに、並列に入力データi1、i2、・・・、iMを設定して、次のiM+1、iM+2、・・・、i2Mを設定して、次々に、入力データiAMまで、を設定する。メモリアクセス制御部MCntは、入力データi1から入力データiAMまでを、B個回繰り返して、入力メモリアレイ部MAiにデータを設定する。
メモリアクセス制御部MCntは、メモリセルアレイ部MCのメモリセル10の列(A×B個の行のメモリセル10)に、A×B個の重み付け係数の1ビットの値を、予め設定する。例えば、メモリアクセス制御部MCntは、メモリセルアレイ部MCのメモリセルの列のメモリセル10に、入力データi1、iM+1、i2M+1、・・・、i(A-1)M+1に対応して重み付け係数w1、wM+1、w2M+1、・・・、w(A-1)M+1をB個回繰り返した重み付け係数を設定する。入力並列数M個のメモリセルの列に、データが予め設定される。
ニューラル電子回路NNは、先ず、入力並列数M個分の入力データを並列処理する。
具体的には、入力データi1が、行列(1,1)、(1,2)、・・・、(1,N)の各プロセスエレメント部Peに入力される。入力データi2が、行列(2,1)、(2,2)、・・・、(2,N)の各プロセスエレメント部Peに入力される。入力データiMが、行列(M,1)、(M,2)、・・・、(M,N)の各プロセスエレメント部Peに入力される。
入力データi1に同期して、行列(1,1)のプロセスエレメント部Peに、メモリセルアレイ部MCから出力された重み付け係数w1も入力される。入力データi2に同期して、行列(2,1)のプロセスエレメント部Peに、メモリセルアレイ部MCから出力された重み付け係数w2も入力される。入力データiMに同期して、行列(M,1)のプロセスエレメント部Peに、メモリセルアレイ部MCから出力された重み付け係数wMも入力される。
このように、メモリセルアレイ部MCが、並列で入力される並列の各前記入力データに対応した重み付け係数を、各前記第1電子回路部に出力する記憶部の一例として機能する。
図5に示すように、フェーズ1で、プロセスエレメント・コラムPC1においては、行列(1,1)のプロセスエレメント部Peが、乗算結果i1×w1を算出し、行列(2,1)のプロセスエレメント部Peが、乗算結果i2×w2を算出し、行列(M,1)のプロセスエレメント部Peが、乗算結果iM×wMを算出する。
次に、フェーズ2で、プロセスエレメント・コラムPC1は、行列(1,1)、(2,1)、・・・、(M,1)の各プロセスエレメント部Peから出力された乗算結果i1×w1、乗算結果i2×w2、・・・、乗算結果iM×wMを、乗算結果iM×wMから順に加算活性化部Actに転送する。
次に、加算活性化部Actは、出力データO1に関して、A×M個の総和に対して、M個分の和である部分和i1×w1+i2×w2+・・・+iM×wMを生成する。
プロセスエレメント・コラムPC2においては、フェーズ1で、行列(1,2)のプロセスエレメント部Peが、入力データi1に関する乗算結果を算出し、行列(2,2)のプロセスエレメント部Peが、入力データi2に関する乗算結果を算出し、行列(M,2)のプロセスエレメント部Peが、入力データiMに関する乗算結果を算出する。
次に、フェーズ2で、プロセスエレメント・コラムPC2は、行列(1,2)、(2,2)、・・・、(M,2)の各プロセスエレメント部Peから出力された各乗算結果を、入力データiMに関する乗算結果から順に加算活性化部Actに転送する。
次に、加算活性化部Actは、出力データO2に関して、M個の分の和である部分和を生成する。
プロセスエレメント・コラムPCNにおいても同様に、乗算結果が算出される。
次の入力データを入力するタイミングで、フェーズ1で、プロセスエレメント・コラムPC1においては、行列(1,1)のプロセスエレメント部Peが、乗算結果iM+1×wM+1を算出し、行列(2,1)のプロセスエレメント部Peが、乗算結果iM+2×wM+2を算出し、行列(M,1)のプロセスエレメント部Peが、乗算結果i2M×w2Mを算出する。
次に、フェーズ2で、プロセスエレメント・コラムPC1は、行列(1,1)、(2,1)、・・・、(M,1)の各プロセスエレメント部Peから出力された乗算結果iM+1×wM+1、乗算結果iM+2×wM+2、・・・、乗算結果i2M×w2Mを、乗算結果i2M×w2Mから順に加算活性化部Actに転送する。
次に、加算活性化部Actは、出力データO1に関して、部分和iM+1×w1+iM+2×wM+2+・・・+i2M×w2Mを生成する。
以上、A×M番目の入力データiAMまで、繰り返し、各加算活性化部Actは、部分和の総和を計算して、閾値であるバイアスbiasの値を加え、活性化関数を適用として、例えば、符号が正の値の場合(すなわち、所定の閾値を超えた場合)、「1」を、符号が負の値の場合(すなわち、所定の閾値を超えない場合)は「0」とした出力データo1、・・・oNを算出して、出力メモリアレイ部MAoに出力する。
出力データoN+1、oN+2、・・・oN+1に関しても、上記のように、入力データi1から入力データiAMまで処理をして、各加算活性化部Actは、A個の部分和の総和を計算して、活性化関数を適用して、出力データoN+1、oN+2、・・・oN+1を算出して、出力メモリアレイ部MAoに出力する。
同様な計算で、ニューラル電子回路NNは、出力データoBNまで計算する。A×M個の入力データに対して、M個の並列入力で、A×Bサイクル単位のシリアル入力が形成され、B×N個の出力データに対して、N個の並列出力で、B個出力される。
このように、メモリセルアレイ部MCが、前記入力データを並列で一度に入力可能な入力可能並列数より、前記入力データの入力並列数が大きい場合、前記残りの入力データに対応する前記重み付け係数を出力する記憶部の一例として機能する。プロセスエレメント部Peが、前記入力可能並列数の並列で前記入力データを受け入れた後、前記入力可能並列数の並列で受け入れできなかった残りの前記入力データを入れ受け入れる前記第1電子回路部の一例として機能する。
(3.3 コア電子回路同士の連結)
次に、コア電子回路Core同士の連結により、ニューロン層における層内拡張をしたニューラルネットワーク、層数を拡張するニューラルネットワークを実現する実施例について図を用いて説明する。
次に、コア電子回路Core同士の連結により、ニューロン層における層内拡張をしたニューラルネットワーク、層数を拡張するニューラルネットワークを実現する実施例について図を用いて説明する。
図11は、ニューラルネットワークの層内拡張の一例を示す模式図である。図12は、図11の層内拡張を実現するコア電子回路の接続の一例を示すブロック図である。図13は、ニューラルネットワークの層数拡張の一例を示す模式図である。図14は、図13の層数拡張を実現するコア電子回路の接続の一例を示すブロック図である。
図11に示すように、出力側の層内拡張するためには、図12に示すように、入力データに対して、コア電子回路Coreを並列に接続すればよい。
図11に示すように、入力3個×出力2個の2層のニューラルネットワークと、入力3個×出力4個の2層のニューラルネットワークと、並列に接続してもよいし、入力3個×出力3個の2層のニューラルネットワークと、入力3個×出力3個の2層のニューラルネットワークと、並列に接続してもよい。
図13に示すように、層数拡張するためには、図14に示すように、コア電子回路Coreを直列に接続すればよい。
図13に示すように、入力3個×出力2個の2層のニューラルネットワークと、入力2個×出力4個の2層のニューラルネットワークと、を直列に接続する。
実際の接続は、メモリアクセス制御部MCntを介して、システムバスbusによって接続される。更に、メモリアクセス制御部MCntが、入力メモリアレイ部MAiおよびメモリセルアレイ部MCを設定して、コア電子回路Coreの並列接続または直列接続を実現する。
以上説明したように、本実施形態によれば、1ビットの入力データの値とメモリセルアレイ部MCから出力された値とが一致する場合に入力データの入力に対応して「1」を出力し、入力データの値とメモリセルアレイ部MCから出力された値とが異なる場合に入力データの入力に対応して「0」を出力することにより、乗算機能を実現するため、回路規模を縮小でき、並列で入力される並列の各入力データに応じて設定されたプロセスエレメント部Peにより、様々なタイプのニューラルネットワークを実現できる。
また、シナプスを独立に、ニューロンの入力を行方向に共有したアレイ構造のプロセスエレメント部Peにより、コンボリューション演算とフル結合演算の両計算を効率化させることができる。
また、メモリセルアレイ部MCおよび加算活性化部Actが、並列で出力される並列の各出力データに応じて設定された場合、コンボリューション型や、フル結合等の多様性を有するニューラル電子回路を容易に実現することができる。
各プロセスエレメント部Peからの乗算結果を一時記憶するフリップフロップFpを備え、各フリップフロップFpが、直列に設定され、乗算結果を加算活性化部Actへ順次転送する場合、更に配線が単純になり、回路面積が小さくなるので、回路規模を縮小できる。また、配線が単純になるので、製造コストが減少する。
また、部分加算等の途中計算結果を、プロセスエレメント・コラムにおいて、列方向に伝播させる制御で、演算器であるフリップフロップFpの使用率を最大化させることができる。
加算活性化部Actが、並列の各入力データに設定された複数のプロセスエレメント部Peにおいて、入力データが入力されるサイクル単位で、加算活性化部Actが「1」を算出した回数から、加算活性化部Actが「0」を算出した回数を減じた値が予め定められた閾値以上の場合に「1」を出力データとして出力し、減じた値が閾値未満の場合に「0」を出力データとして出力する場合、回路規模を縮小した活性化関数を実現できる。
メモリセルアレイ部MCが、「1」または「0」の重み付け係数、および、ニューロン間の接続の有無を示す所定値の組を複数記憶し、当該重み付け係数および当該所定値を出力し、プロセスエレメント部Peが、入力データの値とメモリセルアレイ部MCから出力された値とが一致する場合に入力データの入力に対応して「1」を出力し、入力データの値とメモリセルアレイ部MCから出力された値とが異なる場合に入力データの入力に対応して「0」を出力し、所定値がメモリセルアレイ部MCから出力された場合に入力データの入力に対応して当該所定値を出力する場合、「1」をプラス値、「0」をマイナス値に対応させ、シナプスの接続の有無を表現できるニューラル電子回路が実現できる。
メモリセルアレイ部MCが、プロセスエレメント部Peに順次入力される入力データに対応した重み付け係数を、プロセスエレメント部Peに順次出力する場合、フィルタ画像に対応したメモリセルアレイ部MCの重み付け係数に、コンボリューション演算の一方の関数の値を設定し、入力画像に対応した入力データに、コンボリューション演算の他方の関数の値を設定することにより、コンボリューションニューラル電子回路が実現できる。
プロセスエレメント部Peが、並列で入力される入力データの入力並列数分、乗算結果を加算した部分加算結果を出力し、加算活性化部Actが、部分加算結果から加算結果を算出する場合、多チャンネルのコンボリューション演算を実現でき、カラー画像等の入力データに対応できる。
メモリセルアレイ部MCが、並列で入力される並列の各入力データに対応した重み付け係数を、各プロセスエレメント部Peに出力する場合、フル結合のニューラル電子回路が実現できる。
入力データを並列で一度に入力可能な入力可能並列数より、入力データの入力並列数が大きいとき、プロセスエレメント部Peは、入力可能並列数の並列で入力データを受け入れた後、入力可能並列数の並列で受け入れできなかった残りの入力データを受け、メモリセルアレイ部MCは、残りの入力データに対応する重み付け係数を出力する場合、少数の電子回路で、より多くの並列入力数を有するニューラル電子回路が実現できる。
プロセスエレメント部Peが格納されたコア電子回路Coreを、制御部Cntまたはメモリアクセス制御部MCntでコントロールし、任意の大きさのネットワークを計算することができる。また、コア電子回路Coreの入出力を制御部Cntまたはメモリアクセス制御部MCntでコントロールし、複数のコア電子回路Coreに展開することができる。
[4.メモリセル、メモリセルブロック等の詳細な構成および機能]
次に、メモリセル10、接続有無情報用のメモリセル、メモリセルブロックCBに関係するメモリセルブロック15、メモリセルアレイMC、プロセスエレメント部Pe、および、加算活性化部Act等に関連する詳細な構成および機能について、図を用いて説明する。
次に、メモリセル10、接続有無情報用のメモリセル、メモリセルブロックCBに関係するメモリセルブロック15、メモリセルアレイMC、プロセスエレメント部Pe、および、加算活性化部Act等に関連する詳細な構成および機能について、図を用いて説明する。
なお、プロセスエレメント部Peは、多数判定入力回路12に関係し、加算活性化部Actは、下記に示される直列多数判定回路13に関係する。下記に示されるニューラルネットワーク回路およびニューラルネットワーク集積回路は、ニューラル電子回路NNに関係する。
(I)メモリセル等の実施形態
メモリセル等の実施形態について、図15乃至図20を用いて説明する。なお、図15は実施形態に係るニューラルネットワーク回路を示す図であり、図16は当該ニューラルネットワーク回路の細部構成を示す図である。また、図17は実施形態に係るニューラルネットワーク集積回路の第1例を示す図であり、図18は当該ニューラルネットワーク集積回路の第2例を示す図であり、図19は当該ニューラルネットワーク集積回路の第3例を示す図であり、図20は当該ニューラルネットワーク集積回路の第4例を示す図である。
メモリセル等の実施形態について、図15乃至図20を用いて説明する。なお、図15は実施形態に係るニューラルネットワーク回路を示す図であり、図16は当該ニューラルネットワーク回路の細部構成を示す図である。また、図17は実施形態に係るニューラルネットワーク集積回路の第1例を示す図であり、図18は当該ニューラルネットワーク集積回路の第2例を示す図であり、図19は当該ニューラルネットワーク集積回路の第3例を示す図であり、図20は当該ニューラルネットワーク集積回路の第4例を示す図である。
そして、以下に説明する実施形態等に係るニューラルネットワーク回路又はニューラルネットワーク集積回路は、図1を用いて説明した一般的なニューラルネットワークを、上記非特許文献1又は非特許文献2に記載されている手法によりバイナリ化したニューラルネットワーク回路又はニューラルネットワーク集積回路によりモデル化するものである。
(A)実施形態に係るニューラルネットワーク回路について
次に、実施形態に係るニューラルネットワーク回路について、図15及び図16を用いて例示しつつ説明する。ここで、入力データI1乃至入力データIn又は入力データImに共通の事項を説明する場合、単に「入力データI」と称する。出力データO1乃至出力データOn又は出力データOmに共通の事項を説明する場合、単に「出力データO」と称する。重み付け係数W1乃至重み付け係数Wn又は重み付け係数Wmに共通の事項を説明する場合、単に「重み付け係数W」と称する。
次に、実施形態に係るニューラルネットワーク回路について、図15及び図16を用いて例示しつつ説明する。ここで、入力データI1乃至入力データIn又は入力データImに共通の事項を説明する場合、単に「入力データI」と称する。出力データO1乃至出力データOn又は出力データOmに共通の事項を説明する場合、単に「出力データO」と称する。重み付け係数W1乃至重み付け係数Wn又は重み付け係数Wmに共通の事項を説明する場合、単に「重み付け係数W」と称する。
図15(a)に示すように、当該ニューラルネットワーク回路に相当するニューラルネットワークSでは、一つのニューロンNRに対して例えば四つの他のニューロンNRから1ビットの入力データIがそれぞれ入力され、それに対応する出力データOが当該ニューロンNRから出力される。このとき入力データIは、その出力元のニューロンNRから見れば1ビットの出力データOとなる。また1ビットの出力データOは、その出力先のニューロンNRから見ると1ビットの入力データIとなる。上記の通り入力データI及び出力データOはそれぞれ1ビットであるため、入力データIの値及び出力データOの値は、いずれも「0」又は「1」のいずれかである。そして、図15(a)において四つの入力データIが入力されているニューロンNR(図15(a)においてハッチングで示される)において実行される上記乗算処理等に相当する上記式(1)は、上記式(1)においてn=4とした場合の式である。即ち上記ニューラルネットワークSは、並列多入力−一出力型の一段ニューラルネットワークである。
次に、図15(a)に示すニューラルネットワークSにおいてハッチングで示されるニューロンNRに相当する実施形態に係るニューラルネットワーク回路の構成を、図15(b)にニューラルネットワーク回路CSとして示す。当該ニューラルネットワーク回路CSは、各々が1ビットの入力データI1乃至入力データI4にそれぞれ対応する四つのメモリセル1と、多数判定回路2と、により構成される。このとき、各メモリセル1が本発明に係る「第1回路部」の一例、「記憶部」の一例及び「出力部」の一例に、それぞれ相当する。また上記多数判定回路2が、本発明に係る「第2回路部」の一例に相当する。この構成において各メモリセル1は、「1」、又は「0」、或いは「NC」を意味する所定値の三つのいずれか一つを記憶値として記憶すると共に、比較機能を有する三値のメモリセルである。そして各メモリセル1は、それぞれへの入力データIの値と、それぞれの記憶値と、に応じた値を有する出力データE1乃至出力データE4を、多数判定回路2にそれぞれ出力する。
ここで、メモリセル1の記憶値の一つである上記所定値が意味する上記「NC」は、実施形態に係るニューラルネットワークSにおける二つのニューロンNR間に接続がない状態である。即ち、そのメモリセル1が対応している二つのニューロンNR(即ち入力ニューロンと出力ニューロン)が接続されていない場合、そのメモリセル1の記憶値は上記所定値に設定される。一方、メモリセル1の他の記憶値(「1」又は「0」)のいずれをそのメモリセル1に記憶させておくかは、そのメモリセル1が対応している接続により接続される二つのニューロンNR間の当該接続における重み係数Wに基づいて設定される。ここで各メモリセル1にどのような記憶値を記憶させておくかは、ニューラルネットワークSとしてどのような脳機能をモデル化するか(より具体的には、例えばニューラルネットワークSを構成するニューロンNR間の接続状態等)等に基づいて予め設定されている。なお以下の説明において、出力データE1乃至出力データEnに共通の事項を説明する場合、単に「出力データE」と称する。
そして、各メモリセル1における上記記憶値及びそれぞれに入力される入力データIの値と、各メモリセル1から出力される出力データEの値と、の間の関係は、図15(c)に真理値表を示す関係とされる。即ち各メモリセル1は、当該各メモリセル1の記憶値と入力データIの値との排他的否定論理和を当該各メモリセル1から出力データEとして出力する。また各メモリセル1の記憶値が上記所定値である場合、そのメモリセル1からは、入力データIがいずれの値であっても当該所定値が出力データEとして多数判定回路2に出力される。なお、各メモリセル1の細部構成については、後ほど図16(a)を用いて説明する。
次に多数判定回路2は、各メモリセル1からの出力データEの値に基づき、値「1」の出力データEの数が値「0」の出力データEの数より大きい場合にのみ値「1」の出力データOを出力し、それ以外の場合に値「0」の出力データOを出力する。このとき、値「1」の出力データEの数が値「0」の出力データEの数より大きい場合以外の場合とは、具体的には、いずれかのメモリセル1から値「NC」が出力されている場合、又は各メモリセル1からの値「1」の出力データEの数が値「0」の出力データEの数以下の場合、のいずれかである。なお多数判定回路2及び各メモリセル1を含むニューラルネットワーク回路CSの細部構成については、後ほど図16(b)を用いて説明する。
ここでニューラルネットワーク回路CSは上述したように、図15(a)においてハッチングで示されるニューロンNRにおける上記乗算処理、加算処理及び活性化処理をモデル化した回路である。そして、各メモリセル1からの上記排他的否定論理和としての出力データEの出力が上記重み付け係数Wを用いた上記乗算処理に相当する。また多数判定回路2は、値「1」の出力データEの数と値「0」の出力データEの数とを比較する比較処理の前提として、値「1」の出力データEの数を加算してその合計値を算出すると共に、値「0」の出力データEの数を加算してその合計値を算出する。これらの加算が上記加算処理に相当する。そして多数判定回路2において、値「1」の出力データE及び値「0」の出力データEそれぞれの数の上記合計値を比較し、前者の数から後者の数を減じた値が予め設定された多数判定閾値以上の場合にのみ、値「1」の出力データOを多数判定回路2から出力する。一方それ以外の場合、即ち値「1」の出力データEの数の合計値から値「0」の出力データEの数の合計値を減じた値が多数判定閾値未満の場合に値「0」の出力データOを多数判定回路2から出力する。このとき、出力データEが上記所定値の場合に多数判定回路2は、当該出力データEを、値「1」の出力データEの数及び値「0」の出力データEの数のいずれにも加算しない。
ここで、多数判定回路2における上記多数判定閾値を用いた処理について、より具体的に説明する。なお図15に例示するニューラルネットワーク回路CSでは、値「1」の出力データEの数と値「0」の出力データEの数との総数は「4」であるが、説明の明確化のため、当該総数が「10」である場合の上記処理について説明する。
即ち、例えば多数判定閾値が「0」であり、値「1」の出力データEの数と値「0」の出力データEの数が共に「5」であるとすると、値「1」の出力データEの数から値「0」の出力データEの数を減じた値は「0」であり、これは当該多数判定閾値と等しい。よってこの場合に多数判定回路2は、値「1」の出力データOを出力する。これに対して、多数判定閾値が「0」であり、値「1」の出力データEの数が「4」であり、値「0」の出力データEの数が「6」であるとすると、値「1」の出力データEの数から値「0」の出力データEの数を減じた値は「−2」であり、これは当該多数判定閾値より小さい。よってこの場合に多数判定回路2は、値「0」の出力データOを出力する。
他方、例えば多数判定閾値が「−2」であり、値「1」の出力データEの数と値「0」の出力データEの数が共に「5」であるとすると、値「1」の出力データEの数から値「0」の出力データEの数を減じた値「0」は当該多数判定閾値より大きい。よってこの場合に多数判定回路2は、値「1」の出力データOを出力する。これに対して、多数判定閾値が「−2」であり、値「1」の出力データEの数が「4」であり、値「0」の出力データEの数が「6」であるとすると、値「1」の出力データEの数から値「0」の出力データEの数を減じた値「−2」は当該多数判定閾値と等しい。よってこの場合も多数判定回路2は、値「1」の出力データOを出力する。
以上具体的に説明した多数判定回路2における処理が上記活性化処理に相当する。以上の通り、図15(b)に示すニューラルネットワーク回路CSにより、図15(a)においてハッチングで示されるニューロンNRとしての各処理がモデル化される。
次に、各メモリセル1の細部構成について、図16(a)を用いて説明する。図16(a)に示すように、各メモリセル1のそれぞれは、トランジスタT1乃至トランジスタT14と、インバータIV1乃至インバータIV4と、により構成されている。なお図16に示す各トランジスタT1等のそれぞれは、例えばMOSFET(Metal Oxide semiconductor Field Effected Transistor)等により構成されている。そしてこれらの素子が、入力データInに相当する接続線LIn及び接続線/LIn、ワード(Word)信号に相当する接続線W1及び接続線W2、並びにマッチ(match)信号に相当するマッチ線M及び反転マッチ線/Mにより図16(a)に示す態様で接続されて、一つのメモリセル1が構成されている。このとき、トランジスタT1及びトランジスタT2、並びにインバータIV1及びインバータIV2により例えばSRAM(static random access memory)としての一のメモリCL1が構成され、トランジスタT3及びトランジスタT4、並びにインバータIV3及びインバータIV4により例えばSRAMとしての一のメモリCL2が構成される。また、トランジスタT5乃至トランジスタT9によりXNORゲートG1が構成され、トランジスタT10乃至トランジスタT14によりXORゲートG2が構成される。
次に、多数判定回路2及び各メモリセル1を含むニューラルネットワーク回路CSの細部構成について、図16(b)を用いて説明する。なお図16(b)は、図15(a)に対応して入力データIが四つである(即ち、メモリセル1を四つ備える)ニューラルネットワーク回路CSの細部構成について示している。なお図16(b)に例示するニューラルネットワーク回路CSでは、上記多数判定閾値が「0」である場合について説明する。
図16(b)に示すようにニューラルネットワーク回路CSは、四つのメモリセル1と、多数判定回路2を構成するトランジスタT20乃至トランジスタT30(図16(b)破線参照)と、により構成されている。このとき、図16(b)において一点鎖線で示されるように、トランジスタT25乃至トランジスタT28により、フリップフロップ型のセンスアンプSAが構成されている。そしてこれらの素子が、四つのメモリセル1に共通の上記接続線W1及び接続線W2並びに上記接続線M及び接続線/M、及び出力データOに相当する接続線LO及び接続線/LOにより図16(b)に示す態様で接続されて、一つのニューラルネットワーク回路CSが構成されている。また図16(b)に示すニューラルネットワーク回路CSには、当該ニューラルネットワーク回路CSとしての処理を規定するための予め設定されたタイミング信号φ1、タイミング信号φ2及びタイミング信号/φ2並びにタイミング信号φ3が外部から入力されている。このとき、タイミング信号φ1はトランジスタT20乃至トランジスタT22のゲート端子にそれぞれ入力され、タイミング信号φ2及びタイミング信号/φ2はトランジスタT29及びトランジスタT30のゲート端子にそれぞれ入力され、タイミング信号φ3はトランジスタT23及びトランジスタT24のゲート端子にそれぞれ入力されている。以上の構成において、タイミング信号φ1に基づいてそれぞれプリチャージされた各メモリセル1のマッチ線Mと反転マッチ線/Mとでは、入力データIの値並びにメモリCL1及びメモリCL2の記憶値に応じて、当該プリチャージされた電荷が引き抜かれるタイミングが異なる。そしてセンスアンプSAは、これらマッチ線M又は反転マッチ線/Mのどちらがより早く当該プリチャージされた電荷を引き抜かれるかを検出し、更に当該マッチ線Mと反転マッチ線/Mとの間の電圧差を増幅することにより、当該検知結果を接続線LO及び接続線/LOに出力する。ここで、接続線LOにおける値が「1」であることが、ニューラルネットワーク回路CSとしての出力データOの値「1」であることを意味することになる。以上の構成及び動作によりニューラルネットワーク回路CSは、上記タイミング信号φ1等に基づいて、図15(a)においてハッチングで示されるニューロンNRとしての各処理をモデル化した処理を実行し、上記出力データOを出力する。
(B)実施形態に係るニューラルネットワーク集積回路の第1例について
次に、実施形態に係るニューラルネットワーク集積回路の第1例について、図17を用いて説明する。なお図17において、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
次に、実施形態に係るニューラルネットワーク集積回路の第1例について、図17を用いて説明する。なお図17において、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
以下の図17乃至図20を用いてそれぞれ説明する実施形態に係るニューラルネットワーク集積回路は、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路を複数集積した集積回路である。そしてこれらのニューラルネットワーク集積回路は、より多くのニューロンNRからなる複雑なニューラルネットワークをモデル化するためのものである。
先ず、図17(a)に例示するニューラルネットワークS1をモデル化するための実施形態に係るニューラルネットワーク集積回路の第1例について説明する。当該ニューラルネットワークS1は、図17(a)においてハッチングで示されるm個のニューロンNRのそれぞれに対してn個のニューロンNRから1ビットの出力データOがそれぞれ出力されることにより、当該ハッチングで示されるニューロンNRから1ビットの出力データOがそれぞれ出力されるニューラルネットワークである。即ち上記ニューラルネットワークS1は、並列多入力−並列多出力型の一段ニューラルネットワークである。ここで図17(a)においては、各ニューロンNRの全てが入力信号I又は出力信号Oにより接続されている場合を示しているが、モデル化しようとする脳機能に応じて、各ニューロンNRのいずれかの間が接続されていなくてもよい。そしてこのことが、当該接続されていないニューロンNR間の接続に対応するメモリセル1の記憶値として上記所定値が記憶されていることにより表現される。なおこの点は、以降に図18(a)、図19(a)又は図20(a)を用いてそれぞれ説明するニューラルネットワークの場合においても同様である。
上記ニューラルネットワークS1をモデル化する場合、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路CSにおいて、1ビットの入力データIをn個とする。このとき、当該n個の入力データIが入力されるニューラルネットワーク回路CSのそれぞれが、図17(a)においてハッチングで示されるニューロンNRの機能をモデル化したものであり、上記乗算処理、加算処理及び活性化処理をそれぞれ実行する。なお以下の図17乃至図20を用いた説明においては、上記n個の入力データIが入力されるニューラルネットワーク回路CSを、「ニューラルネットワーク回路CS1」、「ニューラルネットワーク回路CS2」、…、と称する。そして実施形態に係るニューラルネットワーク集積回路の第1例としては、当該n個の入力データIが入力されるニューラルネットワーク回路CS1等をm個集積する。
即ち図17(b)に示すように、実施形態に係るニューラルネットワーク集積回路の第1例であるニューラルネットワーク集積回路C1は、各1ビットのn個の入力データI1乃至入力データInがそれぞれ共通的に入力されるm個のニューラルネットワーク回路CS1乃至ニューラルネットワーク回路CSmが集積されて構成されている。そして、ニューラルネットワーク回路CS1乃至ニューラルネットワーク回路CSmのそれぞれには、上記タイミング信号φ1等がタイミング生成回路TGから共通的に入力される。このときタイミング生成回路TGは、予め設定された基準クロック信号CLKに基づいて上記タイミング信号φ1等を生成してニューラルネットワーク回路CS1乃至ニューラルネットワーク回路CSmに出力する。そしてニューラルネットワーク回路CS1乃至ニューラルネットワーク回路CSmの各々は、上記入力データI1乃至入力データInと、タイミング信号φ1等と、に基づいて、各1ビットの出力データO1、出力データO2、…、出力データOmをそれぞれ出力する。
以上説明した構成を備えるニューラルネットワーク集積回路C1において、m個のニューロンNRに対してn個のニューロンNRからそれぞれ出力データOが出力されることにより、m個のニューロンNRから出力データOが合計m個出力される図17(a)のニューラルネットワークS1がモデル化される。
(C)実施形態に係るニューラルネットワーク集積回路の第2例について
次に、実施形態に係るニューラルネットワーク集積回路の第2例について、図18を用いて説明する。なお図18において、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
次に、実施形態に係るニューラルネットワーク集積回路の第2例について、図18を用いて説明する。なお図18において、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
実施形態に係るニューラルネットワーク集積回路の第2例は、図18(a)に例示するニューラルネットワークSS1をモデル化するためのニューラルネットワーク集積回路である。当該ニューラルネットワークSS1は、図17(a)を用いて説明したニューラルネットワークS1においてn=mとした場合に相当する。即ちニューラルネットワークSS1は、図18(a)においてハッチングで示される3×n個のニューロンNRのそれぞれに対して相隣接する列の(n個の)ニューロンNRから出力データOがそれぞれ出力されることにより、図18(a)右端列のn個のニューロンNRから出力データOがそれぞれ出力されるニューラルネットワークである。上記ニューラルネットワークSS1は、並列多入力−並列多出力型の多段ニューラルネットワークである。
上記ニューラルネットワークSS1をモデル化する場合も、図17を用いて説明したニューラルネットワークS1と同様に、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路CSにおいて、1ビットの入力データIをn個とする。このとき、当該n個の入力データIが入力されるニューラルネットワーク回路CSのそれぞれが、図18(a)においてハッチングで示されるニューロンNRの機能をモデル化したものであり、上記乗算処理、加算処理及び活性化処理をそれぞれ実行する。そして実施形態に係るニューラルネットワーク集積回路の第2例としては、当該n個の入力データIが入力されるニューラルネットワーク回路CS11等を直列に接続して計3×n個集積する。
即ち図18(b)に示すように、実施形態に係るニューラルネットワーク集積回路の第2例であるニューラルネットワーク集積回路CC1は、各1ビットのn個の入力データI1乃至入力データInがそれぞれ共通的に入力されるn個のニューラルネットワーク回路CS11乃至ニューラルネットワーク回路CS1nが集積されて一のニューラルネットワーク集積回路C1が構成される(図17(b)参照)。そして、ニューラルネットワーク集積回路C1を構成するニューラルネットワーク回路CS11乃至ニューラルネットワーク回路CS1nのそれぞれは、各1ビットの出力データO11乃至出力データO1nを出力し、それらが次段のn個のニューラルネットワーク回路CS21乃至ニューラルネットワーク回路CS2nに共通的に入力される。これらニューラルネットワーク回路CS21乃至ニューラルネットワーク回路CS2nにより、他の一のニューラルネットワーク集積回路C2が構成される。そして、ニューラルネットワーク集積回路C2を構成するニューラルネットワーク回路CS21乃至ニューラルネットワーク回路CS2nのそれぞれは、各1ビットの出力データO21乃至出力データO2nを出力し、それらが次段のn個のニューラルネットワーク回路CS31乃至ニューラルネットワーク回路CS3nに共通的に入力される。これらニューラルネットワーク回路CS31乃至ニューラルネットワーク回路CS3nにより、更に一のニューラルネットワーク集積回路C3が構成される。ここで、各ニューラルネットワーク回路CS11等に対しては、図17(a)に示す場合と同様に上記タイミング信号φ1等が共通的に入力されているが、説明の簡略化のために図18(b)では図示を省略している。そしてニューラルネットワーク集積回路C1は上記入力データI1乃至入力データInと、タイミング信号φ1等と、に基づいて、出力データO11、出力データO12、…、出力データO1nをそれぞれ生成し、これらを次段のニューラルネットワーク集積回路C2に共通的に出力する。次にニューラルネットワーク集積回路C2は上記出力データO12乃至出力データO1nと、タイミング信号φ1等と、に基づいて、出力データO21、出力データO22、…、出力データO2nをそれぞれ生成し、これらを次段のニューラルネットワーク集積回路C3に共通的に出力する。最後にニューラルネットワーク集積回路C3は上記出力データO21乃至出力データO2nと、タイミング信号φ1等と、に基づいて、最終的な出力データO31、出力データO32、…、出力データO3nをそれぞれ生成して出力する。
以上説明した構成を備えるニューラルネットワーク集積回路CC1において、n個のニューロンNRから次段のn個のニューロンNRに対してそれぞれが1ビットの出力データOがそれぞれ出力されることが段階的に繰り返されることにより、最終的に出力データOが合計n個出力される図18(a)のニューラルネットワークSS1がモデル化される。
(D)実施形態に係るニューラルネットワーク集積回路の第3例について
次に、実施形態に係るニューラルネットワーク集積回路の第3例について、図19を用いて説明する。なお図19において、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
次に、実施形態に係るニューラルネットワーク集積回路の第3例について、図19を用いて説明する。なお図19において、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
実施形態に係るニューラルネットワーク集積回路の第3例は、図19(a)に例示するニューラルネットワークSS2をモデル化するためのニューラルネットワーク集積回路の例である。当該ニューラルネットワークSS2は、それぞれが図19(a)においてハッチングで示されるm個のニューロンNRからなる複数の組により構成され、これらのニューロンNRのそれぞれに対して共通のn個のニューロンNR(図19(a)において破線で示される)から1ビットの出力データOがそれぞれ出力されることにより、図19(a)においてハッチングで示される各ニューロンNRから各1ビットで合計m×組数個の出力データOが出力されるニューラルネットワークである。このニューラルネットワークSS2の場合、図19(a)においてハッチングで示される各ニューロンNRは、各1ビットで同じ数(n個)の出力データOをそれぞれ受信することになる。即ち上記ニューラルネットワークSS2は、並列多入力−並列多出力型の一段ニューラルネットワークである。
上記ニューラルネットワークSS2をモデル化する場合も、図17を用いて説明したニューラルネットワークS1と同様に、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路CSにおいて、1ビットの入力データIをn個とする。このとき、当該n個の入力データIが入力されるニューラルネットワーク回路CSのそれぞれが、図19(a)においてハッチングで示されるニューロンNRの機能をモデル化したものであり、上記乗算処理、加算処理及び活性化処理をそれぞれ実行する。そして実施形態に係るニューラルネットワーク集積回路の第3例としては、当該n個の入力データIが入力されるニューラルネットワーク回路CS11等を並列に接続して上記組数分集積する。
即ち図19(b)に示すように、実施形態に係るニューラルネットワーク集積回路の第3例であるニューラルネットワーク集積回路CC2は、各1ビットのn個の入力データI1乃至入力データInがそれぞれ共通的に入力されるm個のニューラルネットワーク回路CS11乃至ニューラルネットワーク回路CS1mが集積されて、一のニューラルネットワーク集積回路C1が構成される(図17(b)参照)。また同じn個の入力データI1乃至入力データInがそれぞれ並列的且つ共通的に入力されるm個のニューラルネットワーク回路CS21乃至ニューラルネットワーク回路CS2mが集積されて、他の一のニューラルネットワーク集積回路C2が構成される(図17(b)参照)。これ以降、同様にn個の入力データI1乃至入力データInがそれぞれ並列的且つ共通的に入力されるm個のニューラルネットワーク回路が集積されて、図19(b)において図示を省略する他のニューラルネットワーク集積回路がそれぞれ構成される。ここで、各ニューラルネットワーク回路CS11等に対しては、図18を用いて説明した場合と同様に、図17(a)に示す場合と同様の上記タイミング信号φ1等が共通的に入力されているが、説明の簡略化のために図19(b)では図示を省略している。そしてニューラルネットワーク集積回路C1は上記入力データI1乃至入力データInと、タイミング信号φ1等と、に基づいて、各1ビットの出力データO11、出力データO12、…、出力データO1mをそれぞれ生成して出力する。一方ニューラルネットワーク集積回路C2は、同じ入力データI1乃至入力データInと、タイミング信号φ1等と、に基づいて、各1ビットの出力データO21、出力データO22、…、出力データO2mをそれぞれ生成して出力する。これ以降、図示を省略する他のニューラルネットワーク集積回路も、それぞれにm個の出力データを出力する。
以上説明した構成を備えるニューラルネットワーク集積回路CC2において、m×組数分のニューロンNRから並行的にそれぞれ出力データOが出力されることにより、最終的に出力データOが合計m×組数分出力される図19(a)のニューラルネットワークSS2がモデル化される。
(E)実施形態に係るニューラルネットワーク集積回路の第4例について
最後に、実施形態に係るニューラルネットワーク集積回路の第4例について、図20を用いて説明する。なお図20において、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
最後に、実施形態に係るニューラルネットワーク集積回路の第4例について、図20を用いて説明する。なお図20において、図15及び図16を用いて説明した実施形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
実施形態に係るニューラルネットワーク集積回路の第4例は、図20(a)に例示するニューラルネットワークSS3をモデル化するためのニューラルネットワーク集積回路の例である。当該ニューラルネットワークSS3は、これまで説明してきた実施形態に係るニューラルネットワークS1等に対して、ニューロンNRの数及びニューロンNR間の接続の態様についての自由度を更に向上させたニューラルネットワークである。なお図20(a)には、段階的に各1ビットの出力データO(入力データI)が授受されるニューロン群(図20(a)破線参照)に属するニューロンNRの数が相互に異なるニューラルネットワークSS3について例示している。
上記ニューラルネットワークSS3をモデル化する場合、図2乃至図16を用いて説明した実施形態に係るニューラルネットワーク回路CSにおいて、1ビットの入力データIを例えばn個とする。このとき、当該n個の入力データIが入力されるニューラルネットワーク回路CSのそれぞれが、図20(a)に示す各ニューロンNRの機能をモデル化したものであり、上記乗算処理、加算処理及び活性化処理をそれぞれ実行する。そして実施形態に係るニューラルネットワーク集積回路の第4例としては、当該n個の入力データIが入力されるニューラルネットワーク回路CS11等をそれぞれに複数備えたニューラルネットワーク集積回路を複数備え、当該各ニューラルネットワーク集積回路を、後述する複数のスイッチ及びそれらを切り換えるスイッチボックスにより接続して集積する。
即ち図20(b)に示すように、実施形態に係るニューラルネットワーク集積回路の第4例であるニューラルネットワーク集積回路CC3は、各1ビットのn個の入力データI1乃至入力データInがそれぞれ共通的に入力されるn個のニューラルネットワーク回路CS11乃至ニューラルネットワーク回路CS1nが集積されて一のニューラルネットワーク集積回路C1が構成される(図17(b)参照)。そして同様に、例えばm個のニューラルネットワーク回路CS21乃至ニューラルネットワーク回路CS2mが集積されて一のニューラルネットワーク集積回路C2が、ニューラルネットワーク回路CS31乃至ニューラルネットワーク回路CS3p(pは2以上の自然数。以下、同様。)が集積されて一のニューラルネットワーク集積回路C3が、ニューラルネットワーク回路CS41乃至ニューラルネットワーク回路CS4q(qは2以上の自然数。以下、同様。)が集積されて一のニューラルネットワーク集積回路C4が、それぞれ構成される。また、ニューラルネットワーク集積回路C1乃至ニューラルネットワーク集積回路C4のそれぞれは、図20(b)に例示するようにスイッチSW1乃至スイッチSW4を介して、相互に各1ビットの入力データI及び出力データOの授受が可能とされている。そして、ニューラルネットワーク集積回路C1乃至ニューラルネットワーク集積回路C4間における入力データI及び出力データOの授受の態様(即ちニューラルネットワーク集積回路C1乃至ニューラルネットワーク集積回路C4間の接続態様)が、スイッチSW1乃至スイッチSW4を介してスイッチボックスSB1乃至スイッチボックスSB4により切り換えられる。このとき、上記スイッチSW1乃至スイッチSW4及びスイッチボックスSB1乃至スイッチボックスSB4が、本発明に係る「スイッチ部」の一例に相当する。
次に、上記スイッチボックスSB1乃至スイッチボックスSB4の細部構成について、図20(c)を用いて説明する。なお、スイッチボックスSB1乃至スイッチボックスSB4はいずれも同様の構成を備えるので、図20(c)では、これらを纏めてスイッチボックスSBとして説明する。
図20(c)に示すように、ニューラルネットワーク集積回路CC3における各1ビットの入力データI又は出力データOの接続態様、及び結果的に有効なニューロンNRの数を制御するスイッチボックスSBは、セレクタM1乃至セレクタM5が図20(c)に示す態様により接続されて構成されている。この図20(c)に示すスイッチボックスSBの構成においては、上述してきた入力データIに対応する信号は図20(c)中左から入力される信号であり、上記出力データOに対応する信号は図20(c)中の上方及び下方からそれぞれ入力される信号である。そしてニューラルネットワーク集積回路C1乃至ニューラルネットワーク集積回路C4に対する入力データI等の切り換えは、当該切り換えを制御する切換制御信号Sc1乃至切換制御信号Sc5が外部からそれぞれ入力されるセレクタM1乃至セレクタM5により、実行される。
以上説明したように、入力データIに対応する出力データOを生成して出力する図20(a)のニューラルネットワークSS3が、図20(c)に示す構成を備えるスイッチボックスSB1乃至スイッチボックスSB4により各スイッチSW1乃至スイッチSW4が切り換えられる、図20(b)に示す構成のニューラルネットワーク集積回路CC3によりモデル化される。
以上それぞれ説明したように、実施形態に係るニューラルネットワーク回路CS及びニューラルネットワーク集積回路C1等の構成及び動作によれば、図15及び図16に例示するように、対応すべき脳機能に基づいてその数が既定されているメモリセル1のそれぞれが、記憶値として「NC」を意味する所定値或いは「1」又は「0」のいずれかを記憶し、1ビットの入力データIの値と記憶値とが等しい場合に入力データIの入力に対応して「1」を出力し、入力データIの値と記憶値とが等しくない場合に入力データIの入力に対応して「0」を出力し、上記所定値が記憶されている場合にいずれの値の入力データIが入力されても当該所定値を出力する。そして多数判定回路2が、値「1」を出力するメモリセル1の総数が値「0」を出力するメモリセル1の総数より大きい場合に値「1」を出力データOとして出力し、値「1」を出力するメモリセル1の総数が値「0」を出力するメモリセル1の総数以下の場合に「0」を出力データOとして出力する。よって、メモリセル1においてニューラルネットワーク回路としての乗算処理を行い、一の多数判定回路2によりニューラルネットワーク回路としての加算処理及び活性化処理を行うので、回路規模及びそれに対応するコストを大幅に縮小しつつ、ニューラルネットワーク回路を効率的に実現することができる。
また図17(b)に例示するように、それぞれが1ビットのn個の入力データIにそれぞれ対応してメモリセル1の数がnであるニューラルネットワーク回路CSをm個備え、各ニューラルネットワーク回路CSに対してn個の入力データIが並列且つ共通的に入力され、各ニューラルネットワーク回路CSから出力データOをそれぞれ出力させる場合は、図17(a)に例示するニューラルネットワークS1をモデル化し且つ入力がn個であり出力がm個であるn×mのニューラルネットワーク集積回路C1を、回路規模及びそれに対応するコストを大幅に縮小しつつ効率的に実現することができる。更にこの場合に、図17(a)においてハッチングで示されるm個のニューロンNRと、当該m個に対して出力データOをそれぞれ出力するn個のニューロンNRと、の間に多様な接続のパターンがあっても、ニューラルネットワーク集積回路C1においてニューロンNR間に接続がない場合に対応するメモリセル1の記憶値として上記所定値を用いることで、ニューラルネットワーク集積回路C1をより効率的に実現することができる。更に図17に例示する場合には、n個の入力データIを各ニューラルネットワーク回路CSに対して並列且つ共通的に入力し、それに基づくm個の出力データOを並列に出力させることができるため、入力データI及び出力データOを逐次的に入出力させなければならない場合と比べて処理の大幅な高速化が可能となる。
更にまた図18に例示するように、上記「n」と上記「m」とが等しいニューラルネットワーク集積回路C1等を直列に接続し、一のニューラルネットワーク集積回路C1(又はニューラルネットワーク集積回路C2)からの出力データOを、当該ニューラルネットワーク集積回路C1(又はニューラルネットワーク集積回路C2)の直後に接続され他のニューラルネットワーク集積回路C2(又はニューラルネットワーク集積回路C3)における入力データIとする場合は、入力及び出力が共に並列型であるニューラルネットワーク集積回路CC1を、回路規模及びそれに対応するコストを大幅に縮小しつつ効率的に実現することができる。
また図19に例示するように、各ニューラルネットワーク集積回路CSに対してn個の入力データIが並列且つ共通に入力され、各ニューラルネットワーク集積回路CSからm個の出力データOを並列にそれぞれ出力する場合は、入力及び出力が共に並列型であり且つ出力データOの数が入力データIの数より多いニューラルネットワーク集積回路CC2を、回路規模及びそれに対応するコストを大幅に縮小しつつ効率的に実現することができる。
また図20に例示するように、ニューラルネットワーク集積回路C1等を複数備え、各ニューラルネットワーク集積回路C1等をアレイ状に且つ相互に接続するスイッチSW1等により、各ニューラルネットワーク集積回路C1等に対する入力データI及び出力データOが切り換える場合には、スイッチSW1等における切換動作が、対応すべき脳機能に基づいて既定されていれば、大規模なニューラルネットワーク集積回路CC3を、対応するコストを大幅に縮小しつつ効率的に実現することができる。
(II)関連形態
次に、本発明に関連する関連形態について、図21乃至図27を用いて説明する。なお、図21及び図22は関連形態に係るニューラルネットワーク集積回路の第1例をそれぞれ示す図であり、図23は関連形態に係るニューラルネットワーク回路の第1例を示す図であり、図24は関連形態に係るニューラルネットワーク集積回路の第2例を示す図である。また、図25は当該ニューラルネットワーク集積回路の第3例を示す図であり、図26は当該ニューラルネットワーク集積回路の第4例を示す図であり、図27は当該第4例の細部構成を示す図である。
次に、本発明に関連する関連形態について、図21乃至図27を用いて説明する。なお、図21及び図22は関連形態に係るニューラルネットワーク集積回路の第1例をそれぞれ示す図であり、図23は関連形態に係るニューラルネットワーク回路の第1例を示す図であり、図24は関連形態に係るニューラルネットワーク集積回路の第2例を示す図である。また、図25は当該ニューラルネットワーク集積回路の第3例を示す図であり、図26は当該ニューラルネットワーク集積回路の第4例を示す図であり、図27は当該第4例の細部構成を示す図である。
以下に説明する関連形態は、図1および図15乃至図20を用いて上述してきたニューラルネットワークS等のモデル化の構成又は手法とは異なる構成又は手法により、当該ニューラルネットワークS等をモデル化しようとするものである。
(A)関連形態に係るニューラルネットワーク集積回路の第1例について
初めに、関連形態に係るニューラルネットワーク集積回路の第1例について、図21及び図22を用いて説明する。なお、図21は当該第1例としての上記乗算処理を行う当該第1例の一部を示す図であり、図22は当該第1例全体を示す図である。
初めに、関連形態に係るニューラルネットワーク集積回路の第1例について、図21及び図22を用いて説明する。なお、図21は当該第1例としての上記乗算処理を行う当該第1例の一部を示す図であり、図22は当該第1例全体を示す図である。
図21(a)に例示するように、当該第1例の一部によりモデル化されるネットワークS’では、一つのニューロンNRから1ビットの出力データO(換言すれば入力データI)が入力される。そして、入力データIの出力先となる図示しない複数の他のニューロンにそれぞれ対応する異なった重み付け係数W1乃至重み付け係数W4のうちの一つが当該入力データIに乗算され、上記図示しない他のニューロンに対して、出力データE1乃至出力データE4としてそれぞれ出力される。そしてこのときの出力データEは、入力データIと同様に1ビットの信号である。よって、図21に示す入力データIの値、各重み付け係数Wの値及び出力データEの値は、いずれも「0」又は「1」のいずれかである。
次に、関連形態に係るニューラルネットワーク集積回路の第1例における図21(a)に示すネットワークS’に相当する部分の構成を、図21(b)にネットワーク回路CS’として示す。当該ネットワーク回路CS’は、各々が図21(a)に示す出力データE1乃至出力データE4にそれぞれ対応する四組のメモリセル10及びメモリセル11(接続有無情報用のメモリセル)と、各々が出力データE(換言すれば、上記図示しない他のニューロンの入力データI)にそれぞれ対応する四つの多数判定入力回路12と、により構成される。このとき、一つのメモリセル10と一つのメモリセル11からなるメモリセル対の数及びそれらに対応する多数判定入力回路12の数(図21に例示する場合は共に四つ)は、関連形態に係るニューラルネットワーク集積回路の第1例として所望される出力データOの数に等しい。なお以下の図21の説明において、出力データOの数分の上記メモリセル対を、纏めて「メモリセルブロック15」(図21(b)破線参照)と称する。
以上の構成において各メモリセルブロック15内のメモリセル10は、ネットワーク回路CS’を含む関連形態に係るニューラルネットワーク集積回路の第1例が対応すべき脳機能に基づいて予め設定された1ビットの重み付け係数Wをそれぞれに記憶している。これに対して各メモリセルブロック15内のメモリセル11は、上記脳機能に基づいて予め設定された1ビットの接続有無情報をそれぞれに記憶している。ここで当該接続有無情報は、上記実施形態におけるメモリセル1の記憶値「NC」に相当するものであり、関連形態に係るニューラルネットワークにおける二つのニューロンNR間に接続がある状態であるか、又は当該接続がない状態であるか、のいずれかを表すための記憶値である。なお、各メモリセル10及びメモリセル11にどのような記憶値を記憶させておくかは、例えば、ネットワークS’を含む関連形態に係るニューラルネットワーク集積回路の第1例としてどのような脳機能をモデル化するか等に基づいて予め設定されていればよい。
そして各メモリセル10は、それぞれの記憶値を、重み付け係数W1、重み付け係数W2、重み付け係数W3及び重み付け係数W4として多数判定入力回路12にそれぞれ出力する。このとき各メモリセル10は、それぞれの記憶値を、重み付け係数W1乃至重み付け係数W4として同時に多数判定入力回路12に出力する。なおこの同時出力の構成は、以下の図22乃至図27を用いてそれぞれ説明するニューラルネットワーク回路及びニューラルネットワーク集積回路における各メモリセル10においても同様である。一方各メモリセル11も、それぞれの記憶値を、接続有無情報C1、接続有無情報C2、接続有無情報C3及び接続有無情報C4として多数判定入力回路12にそれぞれ出力する。このとき各メモリセル11は、それぞれの記憶値を、接続有無情報C1乃至接続有無情報C4として同時に多数判定入力回路12に出力する。また各メモリセル11は、上記各メモリセル10からの記憶値の出力に対して例えば一サイクル前又は後にずらして、それぞれの記憶値を同時に多数判定入力回路12に出力する。なおこの同時出力の構成及び各メモリセル10からの記憶値の出力のタイミングと関係は、以下の図22乃至図27を用いてそれぞれ説明するニューラルネットワーク回路及びニューラルネットワーク集積回路における各メモリセル11においても同様である。更に以下の説明において、接続有無情報C1、接続有無情報C2、接続有無情報C3、…、に共通の事項を説明する場合、単に「接続有無情報C」と称する。
他方各多数判定入力回路12には、図21(b)において図示しない他のノードNR(図21(a)参照)からの1ビットの入力データIが共通的に入力されている。そして各多数判定入力回路12は、対応するメモリセル11から出力される上記接続有無情報を、そのまま接続有無情報C1乃至接続有無情報C4としてそれぞれ出力する。
これらに加えて各多数判定入力回路12は、対応するメモリセル10から出力される重み付け係数W1、重み付け係数W2、重み付け係数W3及び重み付け係数W4と上記入力データIとの排他的論理和(XNOR)を算出し、上記出力データE1、出力データE2、出力データE3及び出力データE4としてそれぞれ出力する。このとき、対応するメモリセル11の記憶値(重み付け係数W)と、入力データIの値と、多数判定入力回路12から出力される出力データEの値と、の間の関係は、図21(c)に真理値表を示す関係となる。なお図21(c)には、上記排他的否定論理和(XNOR)を算出する前提としての排他的論理和(XOR)についても記載している。
ここで、図15を用いて説明した実施形態に係るニューラルネットワーク回路CSに対応する真理値表(図15(c)参照)と、上記図21(c)に示す真理値表とを比較する。このとき、メモリセル10における記憶値及び入力データIの値をそれぞれ図15(c)に示した真理値表のものと同じとした場合、図21(b)に示す出力データEの値は図2(b)に示す出力データEの値と同一となる。これらにより、図21(b)に示すネットワーク回路CS’は、図15(b)に示したニューラルネットワーク回路CSにおける上記乗算処理と同様の論理により、図21(a)に示すネットワークS’における上記乗算処理をモデル化した回路となる。即ち、各メモリセル10から出力されてくる各々の記憶値(重み付け係数W)と入力データIの値との間の排他的論理和を多数判定入力回路12において算出することが上記乗算処理に相当する。以上の通り、図21(b)に示すネットワーク回路CS’により、図21(a)に示すネットワークS’における乗算処理がモデル化される。
(B)関連形態に係るニューラルネットワーク集積回路の第1例について
次に、関連形態に係るニューラルネットワーク集積回路の第1例について、図21及び図22を用いて説明する。なお図22において、図21を用いて説明した関連形態に係るネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
次に、関連形態に係るニューラルネットワーク集積回路の第1例について、図21及び図22を用いて説明する。なお図22において、図21を用いて説明した関連形態に係るネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
図22を用いて説明する関連形態に係るニューラルネットワーク集積回路の第1例は、図21を用いて説明した関連形態に係るネットワーク回路CS’を複数集積した集積回路である。関連形態に係るニューラルネットワーク集積回路の第1例では、当該ネットワーク回路CS’に相当する上記乗算処理に加えて、上記加算処理及び上記活性化処理が実行される。
先ず、関連形態に係るニューラルネットワーク集積回路の第1例によりモデル化されるニューラルネットワークの全体について、図22(a)を用いて説明する。図22(a)に示す当該ニューラルネットワークS1’は、図21を用いて説明したネットワークS’をm個のニューロンNR分含んでいる。当該ニューラルネットワークS1’では、図22(a)においてハッチングで示されるn個のニューロンNRのそれぞれに対して、それぞれが上記ネットワークS’を構成するm個のニューロンNRからそれぞれ1ビットの出力データO(換言すれば入力データI)が出力される。そしてこれにより、各出力データOが出力データEとなって上記ハッチングで示されるn個のニューロンNRのそれぞれに入力され、当該ハッチングで示されるニューロンNRから出力データOが一つずつ合計n個並列的に出力される。即ち上記ニューラルネットワークS1’は、直列(m)入力−並列(n)出力型の一段ニューラルネットワークである。
上記ニューラルネットワークS1’をモデル化した関連形態に係るニューラルネットワーク集積回路の第1例は、図22(b)に示すニューラルネットワーク集積回路C1’となる。当該ニューラルネットワーク集積回路C1’は、上記メモリセル対及び多数判定入力回路12をそれぞれにn個ずつ含む関連形態に係るニューラルネットワーク回路CS’(図21参照)をm個備えると共に、各多数判定入力回路12及びメモリセル対に対応させてn個の直列多数判定回路13を備えている。そして図22(b)に示すように、n×m個の上記メモリセル対(換言すれば、m個のメモリセルブロック15)により、メモリセルアレイMC1が構成されている。またニューラルネットワーク集積回路C1’では、図22(b)に示すメモリセルアレイMC1における横一行(m個)のメモリセル対で一つの多数判定入力回路12を共用する。なお、メモリセルアレイMC1、各多数判定入力回路12及び各直列多数判定回路13には、それぞれ上記タイミング信号φ1等が共通的に入力されているが、説明の簡略化のために図22(b)では図示を省略している。
以上の構成において、それぞれのニューラルネットワーク回路CS’を構成するメモリセルブロック15のメモリセル10からは、上記重み付け係数Wが、一のメモリセルブロック15に含まれる各メモリセル10について同時に、且つm個のメモリセルブロック15について順次に(即ちシリアル形式で)、それぞれ出力される。そして、これらの重み付け係数Wと、対応するタイミングによりシリアル形式で入力されるm個の入力データI(各1ビットの入力データI)と、の上記排他論理和を、上記共有する多数判定入力回路12において時分割的に演算し、それを出力データEとして、対応する直列多数判定回路13にシリアル形式で出力する。一方、それぞれのニューラルネットワーク回路CS’を構成するメモリセルブロック15のメモリセル11からは、上記接続有無情報Cが、一のメモリセルブロック15に含まれる各メモリセル11について同時に、且つm個のメモリセルブロック15について順次に(即ちシリアル形式で)、それぞれ出力される。そしてこれらの接続有無情報Cが、上記共有する多数判定入力回路12を介し、各入力データIの入力タイミングに対応したシリアル形式で、対応する直列多数判定回路13に出力される。なお、各メモリセルブロック15からの上記各重み付け係数Wの出力タイミングの態様、及び各メモリセルブロック15からの上記各接続有無情報Cの出力タイミングの態様のそれぞれは、以下の図23乃至図27を用いてそれぞれ説明するニューラルネットワーク集積回路における各メモリセル11においても同様である。
次に、各多数判定入力回路12から出力データE及び接続有無情報Cがそれぞれ入力されるn個の直列多数判定回路13はそれぞれ、同じタイミングで入力された接続有無情報Cが「接続あり」を示している最大m個の出力データEについて、値「1」の当該出力データEの数を加算してその合計値を算出すると共に、値「0」の出力データEの数を加算してその合計値を算出する。これらの加算が上記加算処理に相当する。そして各直列多数判定回路13はそれぞれ、値「1」の出力データE及び値「0」の出力データEそれぞれの数の上記合計値を比較し、前者の数から後者の数を減じた値が、実施形態に係る上記多数判定閾値と同様にして予め設定された多数判定閾値以上の場合にのみ、値「1」の出力データOを出力する。一方それ以外の場合、即ち値「1」の出力データEの数の合計値から値「0」の出力データEの数の合計値を減じた値が上記多数判定閾値未満の場合に各直列多数判定回路13はそれぞれ、値「0」の出力データOを出力する。これらの各直列多数判定回路13における処理が上記活性化処理に相当すると共に、各出力データOは1ビットとなる。ここで、同じタイミングで出力される上記接続有無情報Cが「接続なし」を示している場合、直列多数判定回路13は、出力データEを、値「1」の出力データEの数及び値「0」の出力データEの数のいずれにも加算しない。そして各直列多数判定回路13は、上述した各処理により1ビットの出力データOを出力することを、入力データIが入力されるタイミングに合わせて繰り返す。このときの出力データOは、結果的に各直列多数判定回路13から並列的に出力される。この場合、出力データOの総数はn個となる。以上の通り、図22(a)においてハッチングで示される一つのニューロンNRに対応する上記乗算処理、加算処理及び活性化処理のそれぞれは、図22(b)に示すメモリセルアレイMC1における横一行分のメモリセル対と、それらに対応する多数判定入力回路12及び直列多数判定回路13と、により実行されることになる。
以上説明したように、図22(a)においてハッチングで示されるn個のニューロンNRに対してm個のニューロンNRから1ビットの出力データOがそれぞれ出力され、これらにより当該n個のニューロンNRから出力データOが合計n個出力されるニューラルネットワークS1’が、図22(b)に示す構成を備えるニューラルネットワーク集積回路C1’によりモデル化される。
(C)関連形態に係るニューラルネットワーク回路の第1例について
次に、関連形態に係るニューラルネットワーク回路の第1例について、図23を用いて説明する。
次に、関連形態に係るニューラルネットワーク回路の第1例について、図23を用いて説明する。
図23(a)に例示するように、当該第1例に相当するニューラルネットワークSは、基本的には図2(a)に例示した実施形態に係るニューラルネットワークSと同一の構成である。但し図23(a)に示す例では、図23(a)においてハッチングで示される一つのニューロンNRに対して他の三つのニューロンNRから1ビットの入力データI(当該他のニューロンNRから見ると出力データO)が並列的に入力され、それに対応する出力データOが当該ニューロンNRからシリアル形式で一つ出力される構成となっている。このときの出力データOも、各入力データIと同様に1ビットの信号である。よって、図23に示す入力データIの値及び出力データOの値は、いずれも「0」又は「1」のいずれかである。そして、図23(a)に示すニューロンNRにおいて実行される上記乗算処理等に相当する上記式(1)は、上記式(1)においてn=3とした場合の式である。即ち上記ニューラルネットワークSは、並列入力−直列出力型の一段ニューラルネットワークである。
次に、図23(a)においてハッチングで示したニューロンNRに相当する関連形態に係るニューラルネットワーク回路の第1例の構成を、図23(b)にニューラルネットワーク回路CCS’として示す。当該ニューロンNRに相当する関連形態に係るニューラルネットワーク回路CCS’は、各々が図23(a)に例示する入力データIにそれぞれ対応する三組のメモリセル10及びメモリセル11と、各入力データIが入力される並列多数判定回路20と、により構成される。このとき、一つのメモリセル10と一つのメモリセル11からなるメモリセル対の数及びそれらに対応する多数判定入力回路12の数(図23に例示する場合は共に三つ)は、図23(a)に示すニューラルネットワークSとして所望される入力データIの数に等しい。なお以下の図23の説明において、入力データIの数分の上記メモリセル対はそれぞれメモリセルブロック15と示されている(図23(b)破線参照)。
以上の構成において各メモリセルブロック15内のメモリセル10は、ニューラルネットワーク回路CCS’が対応すべき脳機能に基づいて予め設定された1ビットの重み付け係数Wをそれぞれに記憶している。これに対して各メモリセルブロック15内のメモリセル11は、上記脳機能に基づいて予め設定された1ビットの接続有無情報をそれぞれに記憶している。ここで当該接続有無情報は、図21及び図22を用いて説明した関連形態に係るニューラルネットワーク回路の第1例における接続有無情報Cnと同一の情報であるので、細部の説明は省略する。また、各メモリセル10及びメモリセル11にどのような記憶値を記憶させておくかは、例えば、図23(a)に示すニューラルネットワークSとしてどのような脳機能をモデル化するか等に基づいて予め設定されていればよい。
そして各メモリセル10は、それぞれの記憶値を、図21(b)に示す各メモリセル10と同様のタイミングで、重み付け係数W1、重み付け係数W2及び重み付け係数W3として並列多数判定回路20にそれぞれ出力する。一方各メモリセル11も、それぞれの記憶値である接続有無情報Cを、図21(b)に示す各メモリセル11と同様のタイミングで並列多数判定回路20にそれぞれ出力する。
他方並列多数判定回路20には、上述したように入力データI1、入力データI2及び入力データI3(各1ビット)が並列的に入力されている。そして並列多数判定回路20は、図22を用いて説明した一組の多数判定入力回路12及び直列多数判定回路13と同様の動作を含む動作(即ち、上記乗算処理、上記加算処理及び上記活性化処理)を行う。具体的に並列多数判定回路20は先ず、対応する接続有無情報Cが「接続あり」を示している場合に、それぞれが1ビットの各入力データIと、それらに対応する重み付け係数Wと、の上記排他論理和を当該各入力データIについて演算する。次に並列多数判定回路20は、各上記演算結果について、値「1」の当該演算結果の数を加算してその合計値を算出すると共に、値「0」の当該演算結果の数を加算してその合計値を算出する。そして並列多数判定回路20は、値「1」の当該演算結果及び値「0」の当該演算結果それぞれの数の上記合計値を比較し、前者の数から後者の数を減じた値が、実施形態に係る上記多数判定閾値と同様にして予め設定された多数判定閾値以上の場合にのみ、値「1」の出力データOをシリアル形式で出力する。一方それ以外の場合、即ち値「1」の出力データEの数の合計値から値「0」の出力データEの数の合計値を減じた値が上記多数判定閾値未満の場合に並列多数判定回路20は値「0」の出力データOをシリアル形式で出力する。この場合に出力データOは1ビットとなる。ここで、対応する接続有無情報Cが「接続なし」を示している場合、並列多数判定回路20は上記排他的論理和を演算しない。なお、各入力データIと、対応する重み付け係数Wと、の上記排他論理和を全ての入力データIについて一旦演算し、対応する接続有無情報Cが「接続なし」を示している場合に、その演算結果を値「1」の演算結果の数及び値「0」の演算結果の数のいずれにも加算しないように構成してもよい。そして並列多数判定回路20は、上述した各処理により1ビットの出力データOをシリアル形式で出力することを、並列的に入力されている各入力データIの数ごとに繰り返す。以上の各処理により、図23(b)に示すニューラルネットワーク回路CCS’は、図23(a)においてハッチングで示されるニューロンNRにおける上記乗算処理、加算処理及び活性化処理をモデル化した回路となる。
(D)関連形態に係るニューラルネットワーク集積回路の第2例について
次に、関連形態に係るニューラルネットワーク集積回路の第2例について、図24を用いて説明する。なお図24において、図23を用いて説明した関連形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
次に、関連形態に係るニューラルネットワーク集積回路の第2例について、図24を用いて説明する。なお図24において、図23を用いて説明した関連形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
図24を用いて説明する関連形態に係るニューラルネットワーク集積回路の第2例は、図23を用いて説明した関連形態に係るニューラルネットワーク回路CCS’を複数集積した集積回路であり、より多くのニューロンNRからなる複雑なニューラルネットワークをモデル化するためのものである。
先ず、関連形態に係るニューラルネットワーク集積回路の第2例によりモデル化されるニューラルネットワークについて、図24(a)を用いて説明する。図24(a)に示す当該ニューラルネットワークS2’は、図24(a)においてハッチングで示されるm個のニューロンNRのそれぞれに対してn個のニューロンNRから1ビットの出力データO(m個のニューロンNRから見た場合は入力データI)が並列的にそれぞれ入力され、それらに対応する出力データOが当該ニューロンNRからシリアル形式で出力される構成となっている。このときの出力データOも、各入力データIと同様に1ビットの信号である。よって、図24に示す入力データIの値及び出力データOの値は、いずれも「0」又は「1」のいずれかである。即ち上記ニューラルネットワークS2’は、並列入力−直列出力型の一段ニューラルネットワークである。
上記ニューラルネットワークS2’をモデル化した関連形態に係るニューラルネットワーク集積回路の第2例は、図24(b)に示すニューラルネットワーク集積回路C2’となる。当該ニューラルネットワーク集積回路C2’は、上記メモリセル対をそれぞれにn個ずつ含む関連形態に係るニューラルネットワーク回路CCS’(図23参照)をm個備えると共に、上記並列多数判定回路20を備えている。そして図24(b)に示すように、n×m個の上記メモリセル対(換言すれば、m個のメモリセルブロック15)により、メモリセルアレイMC2が構成されている。またニューラルネットワーク集積回路C2’では、一つの並列多数判定回路20を図24(b)に示すメモリセルアレイMC2における横一行(m個)のメモリセル対で共用する。なお、メモリセルアレイMC2及び並列多数判定回路20には、それぞれ上記タイミング信号φ1等が共通的に入力されているが、説明の簡略化のために図24(b)では図示を省略している。
以上の構成において、それぞれのニューラルネットワーク回路CCS’を構成するメモリセルブロック15のメモリセル10からは、上記重み付け係数Wが、図22(b)に示す各メモリセル10及び各メモリセルブロック15と同様のタイミングで並列多数判定回路20に出力される。一方、それぞれのニューラルネットワーク回路CCS’を構成するメモリセルブロック15のメモリセル11からは、上記接続有無情報Cが、図22(b)に示す各メモリセル11及び各メモリセルブロック15と同様のタイミングで並列多数判定回路20に出力される。
そして並列多数判定回路20は、メモリセルアレイMC2から出力されてくる重み付け係数W及び接続有無情報Cと、それらに対応する入力データIと、に基づき、接続有無情報Cが「接続あり」を示している重み付け係数W及び入力データIを用いた上記排他的論理和の演算処理、その演算結果に基づく値「1」の演算結果及び値「0」の演算結果それぞれの数の加算処理、その加算結果に基づく上記合計数の比較処理(図23(b)参照)、及びその比較結果に基づく出力データOの生成処理を、メモリセルアレイMC2における横一行(m個)についてそれぞれ行う。また並列多数判定回路20は、上記横一行についての演算処理、加算処理、比較処理及び生成処理を、各入力データIについて、メモリセルブロック15ごとにシリアル形式で実行し、それぞれの実行結果としての出力データOをシリアル形式で出力する。ここで、対応する接続有無情報Cが「接続なし」を示している場合、並列多数判定回路20は上記演算処理、加算処理、比較処理及び生成処理を行わない。
以上説明したように、図24(a)においてハッチングで示されるm個のニューロンNRに対してn個のニューロンNRからそれぞれ出力データOが出力され、これらにより当該m個のニューロンNRから1ビットの出力データOがシリアル形式で出力されるニューラルネットワークS2’が、図24(b)に示す構成を備えるニューラルネットワーク集積回路C2’によりモデル化される。
(E)関連形態に係るニューラルネットワーク集積回路の第3例について
次に、関連形態に係るニューラルネットワーク集積回路の第3例について、図25を用いて説明する。なお図25において、図21及び図23を用いてそれぞれ説明した関連形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
次に、関連形態に係るニューラルネットワーク集積回路の第3例について、図25を用いて説明する。なお図25において、図21及び図23を用いてそれぞれ説明した関連形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
図25を用いて説明する関連形態に係るニューラルネットワーク集積回路の第3例は、図22を用いて説明した関連形態に係るニューラルネットワーク集積回路C1’と、図24を用いて説明した関連形態に係るニューラルネットワーク集積回路C2’と、を組み合わせた集積回路である。ここで、上記ニューラルネットワーク集積回路C1’は上述した通り直列入力−並列出力型の一段ニューラルネットワークS1’をモデル化したニューラルネットワーク回路である。一方上記ニューラルネットワーク集積回路C2’は、上述した通り並列入力−直列出力型の一段ニューラルネットワークS2’をモデル化したニューラルネットワーク回路である。そしてこれらを組み合わせた関連形態に係るニューラルネットワーク集積回路の第3例は、全体として直列入力−並列処理−直列出力型の多段ニューラルネットワークをモデル化したニューラルネットワーク集積回路であり、更に多くのニューロンNRからなる複雑なニューラルネットワークをモデル化するためのものである。
先ず、関連形態に係るニューラルネットワーク集積回路の第3例によりモデル化されるニューラルネットワークについて、図25(a)を用いて説明する。図25(a)に示す当該ニューラルネットワークS1−2は、図25(a)において45度のハッチングで示されるn個のニューロンNRのそれぞれに対してm個のニューロンNRからそれぞれ1ビットの出力データOがシリアル形式で出力され、当該45度のハッチングで示されるニューロンNRと図24(a)において135度のハッチングで示されるm個のニューロンNRとの間で出力データO及び入力データIの授受が行われ、結果的に135度のハッチングで示されるm個のニューロンNRからそれぞれ出力データOがシリアル形式で出力されるニューラルネットワークである。なお上記ニューラルネットワークS1−2は、全体として、図17を用いて説明したニューラルネットワークS1を複数並べたニューラルネットワークに相当する。
上記ニューラルネットワークS1−2をモデル化した関連形態に係るニューラルネットワーク集積回路の第3例は、図25(b)に示すニューラルネットワーク集積回路C1−2となる。当該ニューラルネットワーク集積回路C1−2は、図22を用いて説明したニューラルネットワーク集積回路C1’の各出力データO(並列的に出力される各出力データO)を、図24を用いて説明したニューラルネットワーク集積回路C2’における並列多数判定回路20への入力データ(即ち図24(b)に示す入力データI)とし、これにより、当該並列多数判定回路20から上記出力データOをシリアル形式で出力する構成を備える。このように、上記ニューラルネットワーク集積回路C1’とニューラルネットワーク集積回路C2’とを組み合わせることにより、結果的に、図22(a)に例示するニューラルネットワークS1’と、図24(a)に例示するニューラルネットワークS2’と、が組み合わされた上記ニューラルネットワークS1−2がモデル化される。なお、ニューラルネットワークS1−2に含まれる上記ニューラルネットワーク集積回路C1’及びニューラルネットワーク集積回路C2’それぞれの動作は、図22及び図24を用いてそれぞれ説明した動作と同様となる。なお図25(b)に示すニューラルネットワーク集積回路C1−2では、並列多数判定回路20に対応する直列多数判定回路16が、破線で示される一組の多数判定入力回路12及び直列多数判定回路13により、それぞれ構成されていることになる。
以上説明したように、図25(a)に示すニューラルネットワークS1−2が、図25(b)に示す直列入力−並列処理−直列出力型の構成を備えるニューラルネットワーク集積回路C1−2によりモデル化される。
(F)関連形態に係るニューラルネットワーク集積回路の第4例について
次に、関連形態に係るニューラルネットワーク集積回路の第4例について、図26及び図27を用いて説明する。なお図26及び図27において、図22及び図24並びに図25を用いてそれぞれ説明した関連形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
次に、関連形態に係るニューラルネットワーク集積回路の第4例について、図26及び図27を用いて説明する。なお図26及び図27において、図22及び図24並びに図25を用いてそれぞれ説明した関連形態に係るニューラルネットワーク回路と同様の構成部材については、同様の部材番号を付して細部の説明を省略する。
図26を用いて説明する関連形態に係るニューラルネットワーク集積回路の第4例は、図26(a)に示すように、図25を用いて説明した関連形態に係るニューラルネットワーク集積回路C1−2において、それを構成する上記ニューラルネットワーク集積回路C1’と上記ニューラルネットワーク集積回路C2’との間にパイプラインレジスタ21を介在させた構成を備えたニューラルネットワーク集積回路C1−3である。このときパイプラインレジスタ21は、メモリセルアレイMC1のビット幅に相当する数のデータを一時的に記憶すると共に、外部からのイネーブル信号ENにより、その出力動作が制御される。このイネーブル信号ENは、予め設定された基準クロック信号のうちの偶数基準クロックに相当するタイミング信号である。そしてニューラルネットワーク集積回路C1−3は、図26(b)に示すように全体として、ニューラルネットワーク集積回路C1’におけるメモリセルアレイMC1と、ニューラルネットワーク集積回路C2’におけるメモリセルアレイMC2と、の間に、1ビットの入力データIが例えばm個シリアル形式で入力されると共に上記イネーブル信号ENが入力され、これらに対応した1ビットの出力データOが例えばm個シリアル形式で出力される並列演算器PPを介在させた構成を備える。このとき、メモリセルアレイMC1及びメモリセルアレイMC2はそれぞれ、例えば256ビット幅で512ワード(Word)分の規模を備えており、アドレス指定用の例えば8ビットのアドレスデータADがそれぞれに入力される。そしてこの場合の並列演算器PPは、256ビット分の多数判定入力回路12及び直列多数判定回路13と、上記パイプラインレジスタ21と、256ビットに対応する並列多数判定回路20と、により構成される。
以上の構成において、ニューラルネットワークS1−3に含まれる上記ニューラルネットワーク集積回路C1’及びニューラルネットワーク集積回路C2’それぞれの動作は、図22及び図24を用いて説明した動作と同様となる。一方パイプラインレジスタ21は、例えば、ニューラルネットワーク集積回路C2’のメモリセルアレイMC2から読み出した重み付け係数W及び接続有無情報Cに基づいて並列多数判定回路20において出力データOの生成/出力処理を行っているタイミングでニューラルネットワーク集積回路C1’のメモリセルアレイMC1から読み出した出力データOを一時的に記憶する。そして、上記重み付け係数W及び接続有無情報Cに基づく並列多数判定回路20の処理が完了したタイミングで、メモリセルアレイMC1から読み出して記憶していた出力データOを並列多数判定回路20に出力してそれに基づいた出力データOの生成/出力処理を行わせる。この処理により、見かけ上はメモリセルアレイMC1からの出力データOの読み出しと、メモリセルアレイMC2からの重み付け係数W及び接続有無情報Cの読み出しと、を同時に行わせることができ、結果的に、図25を用いて説明したニューラルネットワークS1−2に対して略二倍の処理速度を実現させることができる。
次に、図26に示すニューラルネットワーク回路C1−3における特に並列演算器PPの細部構成について、図27を用いて説明する。
先ず図27(a)に示すように並列演算器PPは、メモリセルアレイMC1のビット幅に相当する数の上記多数判定入力回路12及び上記直列多数判定回路13からなる直列多数判定回路16と、メモリセルアレイMC1のビット幅に相当する上記パイプラインレジスタ21と、出力フリップフロップ回路22を介して出力データOを出力する上記並列多数判定回路20と、により構成されている。この構成においてパイプラインレジスタ21は図27(a)に示すように、メモリセルアレイMC1のビット幅に相当する出力レジスタ21U及び入力レジスタ21Lにより構成されており、上記イネーブル信号ENが入力レジスタ21Lに入力される。そして入力レジスタ21Lは、イネーブル信号ENが入力されるタイミングでそれに記憶(ラッチ)されているデータを並列多数判定回路20に出力すると共に、当該タイミングで出力レジスタ21Uに記憶されているデータを引き出して(即ちシフトさせて)記憶(ラッチ)する。またこれにより出力レジスタ21Uは、入力レジスタ21Lによりそのデータが引き出されたタイミングで、次の出力データOを記憶(ラッチ)する。以上の入力レジスタ21L及び出力レジスタ21Uの動作が繰り返されることにより、上述したパイプラインレジスタ21としての動作が実現される。
次に、上記多数判定入力回路12及び直列多数判定回路13の細部構成について、図27(b)を用いて説明する。図27(b)に示すように一の直列多数判定回路16内の多数判定入力回路12は、排他的論理和回路12Aと、マスクフリップフロップ回路12Bと、により構成されている。この構成において排他的論理和回路12Aには、メモリセルアレイMC1からの重み付け係数Wと、1ビットの入力データIと、が入力され、これらの排他的論理和の結果を上記出力データEとして直列多数判定回路13に出力する。またマスクフリップフロップ回路12Bは、メモリセルアレイMC1からの接続有無情報Cと、上記イネーブル信号ENと、が入力され、イネーブル信号ENが入力されたタイミングで上記接続有無情報Cを直列多数判定回路13に出力する。そして直列多数判定回路13は、上記出力データE及び上記接続有無情報Cに基づいた上述した動作により出力データOを生成して、パイプラインレジスタ21の出力レジスタ21Uに出力する。このとき、上記既定の多数判定閾値を直列多数判定回路13内の図示しないレジスタ内に保持してそれを参照することで、上述した直列多数判定回路13としての動作を実現できる。
次に、上記並列多数判定回路20の細部構成について、図27(c)を用いて説明する。図27(c)に示すように並列多数判定回路20は、排他的論理和回路20Aと、マスクフリップフロップ回路20Bと、並列多数決回路20Cと、により構成されている。この構成において排他的論理和回路20Aには、メモリセルアレイMC2からの1ビットの重み付け係数Wと、パイプラインレジスタ21の入力レジスタ21Lからの1ビットの出力データOと、が入力され、これらの排他的論理和の結果を並列多数決回路20Cに出力する。またマスクフリップフロップ回路20Bは、メモリセルアレイMC2からの接続有無情報Cと、上記イネーブル信号ENと、が入力され、イネーブル信号ENが入力されたタイミングで上記接続有無情報Cを並列多数決回路20Cに出力する。そして並列多数決回路20Cは、メモリセルアレイMC2からの一組の重み付け係数W及び接続有無情報Cに対応する排他的論理和回路12A及びマスクフリップフロップ回路20Bそれぞれからの出力に基づいた上述した動作をメモリセルアレイMC1からの出力データOの数(図26及び図27に例示する場合は256)だけ繰り返し、出力フリップフロップ回路22を介してシリアル形式で出力データOとして出力する。このとき、上記既定の多数判定閾値を並列多数判定回路20内の図示しないレジスタ内に保持してそれを参照することで、上述した並列多数判定回路20としての動作を実現できる。
このとき、上述したパイプラインレジスタ21の動作により並列演算器PPでは、例えば図27(d)に示すように、メモリセルアレイMC1からの256ビット分の出力データOに対する処理(図27(d)において「メモリセルブロック15U1」と示す)が終了すると、次にメモリセルアレイMC1からの次の256ビット分の出力データOに対する処理(図27(d)において「メモリセルブロック15U2」と示す)と、メモリセルアレイMC2からの256ビット分の重み付け係数W及び接続有無情報Cに対する処理(図27(d)において「メモリセルブロック15L1」と示す)と、が、見かけ上同時並列的に実行される。そして、メモリセルブロック15U2に対応する出力データO並びにメモリセルブロック15L1に対応する重み付け係数W及び接続有無情報Cに対する処理が終了すると、次にメモリセルアレイMC1からの更に次の256ビット分の出力データOに対する処理(図27(d)において「メモリセルブロック15U3」と示す)と、メモリセルアレイMC2からの次の256ビット分の重み付け係数W及び接続有無情報Cに対する処理(図27(d)において「メモリセルブロック15L2」と示す)と、が、見かけ上同時並列的に実行される。以降は、メモリセルアレイMC1及びメモリセルアレイMC2それぞれからの256ビット分の出力データO並びに重み付け係数W及び接続有無情報Cに対して、逐次的且つ同時並列的な処理が実行される。
なお、図27(b)に示す多数判定入力回路12及び直列多数判定回路13の細部構成、並びに図27(c)に示す並列多数判定回路20の細部構成は、図21以降に示す各メモリセル11からの上記接続有無情報Cの出力タイミングが、図21以降に示す各メモリセル10からの上記重み付け係数Wの出力タイミングよりも例えば一サイクル早いことを前提とした構成である。この出力タイミングのずれを吸収するのが、図27(b)及び図27(c)にそれぞれ示すマスクフリップフロップ回路12B及びマスクフリップフロップ回路20Bの機能である。一方、上記重み付け係数Wの出力タイミングと上記接続有無情報Cの出力タイミングとを同時並行的とすることも可能である。そしてこの場合、図27(b)及び図27(c)にそれぞれ示すマスクフリップフロップ回路12B及びマスクフリップフロップ回路20Bは、多数判定入力回路12及び並列多数判定回路20としては不要となる。
以上説明したように、図26及び図27に示すニューラルネットワーク回路C1−3によれば、図25(a)に示すニューラルネットワークS1−2を、約二倍の処理速度をもってモデル化することができる。なお図27を用いて説明した直列多数判定回路16の細部構成は、図25を用いて説明したニューラルネットワーク集積回路C1−2に含まれる直列多数判定回路16の細部構成として適用することもできる。
以上それぞれ説明したように、本発明はニューラルネットワークをモデル化したニューラルネットワーク回路等の分野に利用することが可能であり、特に、製造コストの低減や効率的なニューラルネットワーク回路等を開発する場合に適用すれば、特に顕著な効果が得られる。
10、11:メモリセル
NN:ニューラル電子回路
NNS:ニューラルネットワーク・システム
MC:メモリセルアレイ部(記憶部)
Pe:プロセスエレメント部(第1電子回路部)
PC1・・・PCn:プロセスエレメント・コラム
Act:加算活性化部(第2電子回路部)
NN:ニューラル電子回路
NNS:ニューラルネットワーク・システム
MC:メモリセルアレイ部(記憶部)
Pe:プロセスエレメント部(第1電子回路部)
PC1・・・PCn:プロセスエレメント・コラム
Act:加算活性化部(第2電子回路部)
Claims (9)
- 並列で入力される1ビットの入力データであって、並列の各前記入力データに応じて、「1」または「0」の1ビットの重み付け係数を記憶し、当該重み付け係数を出力する記憶部と、
前記並列の各入力データに設定された電子回路部であって、前記記憶部から出力された重み付け係数と前記入力データとを乗算する乗算機能を実現する第1電子回路部と、
前記並列の各入力データの前記第1電子回路部からの各乗算結果を加算し、かつ、当該加算結果に活性化関数を適用して1ビットの出力データを出力する加算・適用機能を実現する第2電子回路部と、
を備え、
前記第1電子回路部が、前記入力データの値と前記記憶部から出力された値とが一致する場合に前記入力データの入力に対応して「1」を出力し、前記入力データの値と前記記憶部から出力された値とが異なる場合に前記入力データの入力に対応して「0」を出力することを特徴とするニューラル電子回路。 - 請求項1に記載のニューラル電子回路において、
前記記憶部および前記第2電子回路部が、並列で出力される各前記出力データに応じて設定されたことを特徴とするニューラル電子回路。 - 請求項1または請求項2に記載のニューラル電子回路において、
各前記第1電子回路部からの前記乗算結果を一時記憶する一時記憶部を前記第1電子回路部毎に更に備え、
前記各一時記憶部が、直列に設定され、前記乗算結果を前記第2電子回路部へ順次転送することを特徴とするニューラル電子回路。 - 請求項1から請求項3のいずれか1項に記載のニューラル電子回路において、
前記第2回路部は、前記並列の各入力データに設定された複数の前記第1電子回路部において、前記入力データが入力されるサイクル単位で、前記第1電子回路部が「1」を算出した回数から、前記第1電子回路部が「0」を算出した回数を減じた値が予め定められた閾値以上の場合に「1」を前記出力データとして出力し、前記減じた値が前記閾値未満の場合に「0」を前記出力データとして出力することを特徴とするニューラル電子回路。 - 請求項1から請求項4のいずれか1項に記載のニューラル電子回路において、
前記記憶部は、「1」または「0」の重み付け係数、および、ニューロン間の接続の有無を示す所定値の組を複数記憶し、当該重み付け係数および当該所定値を出力し、
前記第1電子回路部が、前記入力データの値と前記記憶部から出力された値とが一致する場合に前記入力データの入力に対応して「1」を出力し、前記入力データの値と前記記憶部から出力された値とが異なる場合に前記入力データの入力に対応して「0」を出力し、前記所定値が前記記憶部から出力された場合に前記入力データの入力に対応して当該所定値を出力することを特徴とするニューラル電子回路。 - 請求項1から請求項5のいずれか1項に記載のニューラル電子回路において、
前記記憶部が、前記第1電子回路部に順次入力される前記入力データに対応した重み付け係数を、前記第1電子回路部に順次出力することを特徴とするニューラル電子回路。 - 請求項6に記載のニューラル電子回路において、
前記第1電子回路部が、並列で入力される前記入力データの入力並列数分、前記乗算結果を加算した部分加算結果を出力し、
前記第2電子回路部が、前記部分加算結果から前記加算結果を算出することを特徴とするニューラル電子回路。 - 請求項1から請求項5のいずれか1項に記載のニューラル電子回路において、
前記記憶部が、並列で入力される並列の各前記入力データに対応した重み付け係数を、各前記第1電子回路部に出力することを特徴とするニューラル電子回路。 - 請求項8に記載のニューラル電子回路において、
前記入力データを並列で一度に入力可能な入力可能並列数より、前記入力データの入力並列数が大きい場合、
前記第1電子回路部は、前記入力可能並列数の並列で前記入力データを受け入れた後、前記入力可能並列数の並列で受け入れできなかった残りの前記入力データを受け入れ、
前記記憶部は、前記残りの入力データに対応する前記重み付け係数を出力することを特徴とするニューラル電子回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018019251A JP2019139300A (ja) | 2018-02-06 | 2018-02-06 | ニューラル電子回路 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018019251A JP2019139300A (ja) | 2018-02-06 | 2018-02-06 | ニューラル電子回路 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019139300A true JP2019139300A (ja) | 2019-08-22 |
Family
ID=67693944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018019251A Pending JP2019139300A (ja) | 2018-02-06 | 2018-02-06 | ニューラル電子回路 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019139300A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220033020A (ko) * | 2020-09-08 | 2022-03-15 | 매크로닉스 인터내셔널 컴퍼니 리미티드 | 메모리 장치 및 그 동작 방법 |
JP2022045335A (ja) * | 2020-09-08 | 2022-03-18 | 旺宏電子股▲ふん▼有限公司 | メモリデバイス及びその動作方法 |
WO2022230674A1 (ja) * | 2021-04-28 | 2022-11-03 | 国立大学法人東北大学 | 演算処理装置 |
WO2023189191A1 (ja) * | 2022-03-31 | 2023-10-05 | ソニーグループ株式会社 | 固定小数点積和演算装置 |
-
2018
- 2018-02-06 JP JP2018019251A patent/JP2019139300A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220033020A (ko) * | 2020-09-08 | 2022-03-15 | 매크로닉스 인터내셔널 컴퍼니 리미티드 | 메모리 장치 및 그 동작 방법 |
JP2022045333A (ja) * | 2020-09-08 | 2022-03-18 | 旺宏電子股▲ふん▼有限公司 | メモリデバイスおよびその動作方法 |
JP2022045335A (ja) * | 2020-09-08 | 2022-03-18 | 旺宏電子股▲ふん▼有限公司 | メモリデバイス及びその動作方法 |
JP7255068B2 (ja) | 2020-09-08 | 2023-04-11 | 旺宏電子股▲ふん▼有限公司 | メモリデバイス及びその動作方法 |
JP7279293B2 (ja) | 2020-09-08 | 2023-05-23 | 旺宏電子股▲ふん▼有限公司 | メモリデバイスおよびその動作方法 |
US11809838B2 (en) | 2020-09-08 | 2023-11-07 | Macronix International Co., Ltd. | Memory device and operation method thereof |
KR102603795B1 (ko) * | 2020-09-08 | 2023-11-17 | 매크로닉스 인터내셔널 컴퍼니 리미티드 | 메모리 장치 및 그 동작 방법 |
WO2022230674A1 (ja) * | 2021-04-28 | 2022-11-03 | 国立大学法人東北大学 | 演算処理装置 |
WO2023189191A1 (ja) * | 2022-03-31 | 2023-10-05 | ソニーグループ株式会社 | 固定小数点積和演算装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019155910A1 (ja) | ニューラル電子回路 | |
JP2019139300A (ja) | ニューラル電子回路 | |
WO2017200088A1 (ja) | ニューラルネットワーク回路及びニューラルネットワーク集積回路 | |
Lü et al. | Geometrical convergence rate for distributed optimization with time-varying directed graphs and uncoordinated step-sizes | |
TW202022644A (zh) | 一種運算裝置和運算方法 | |
EP0421639B1 (en) | Parallel data processing system | |
US11017290B2 (en) | Signal processing module, especially for a neural network and a neuronal circuit | |
JPH04293151A (ja) | 並列データ処理方式 | |
Thoma et al. | POEtic: an electronic tissue for bio-inspired cellular applications | |
CN109375951A (zh) | 一种用于执行全连接层神经网络正向运算的装置和方法 | |
Nagamani et al. | Exponential state estimation for memristor-based discrete-time BAM neural networks with additive delay components | |
JPH01201764A (ja) | 神経回路網およびその回路網に用いる回路 | |
CN112883408B (zh) | 用于隐私计算的加解密系统和芯片 | |
CN112733161A (zh) | 用于联邦学习密文运算的装置及方法 | |
JP2017211972A (ja) | ニューラルネットワーク回路及びニューラルネットワーク集積回路 | |
JPH05282272A (ja) | ニューラルネットワーク並列分散処理装置 | |
Bezrukov et al. | Deterministic multivalued logic scheme for information processing and routing in the brain | |
KR100445264B1 (ko) | 재구성능력 및 확장능력을 가진 신경회로망 하드웨어 | |
JPH05346914A (ja) | ニューロプロセッサ | |
CN115526961A (zh) | 基于Grover算法的图着色模拟方法及系统 | |
JPH03105584A (ja) | 並列データ処理方式 | |
WO2020213670A1 (ja) | ニューラル計算装置、および、ニューラル計算方法 | |
WO2024024755A1 (ja) | 演算処理装置 | |
Pani et al. | A VLSI multiplication-and-add scheme based on swarm intelligence approaches | |
JP3839002B2 (ja) | 半導体演算装置 |