JP2004157757A - アナログ演算回路 - Google Patents

アナログ演算回路 Download PDF

Info

Publication number
JP2004157757A
JP2004157757A JP2002322719A JP2002322719A JP2004157757A JP 2004157757 A JP2004157757 A JP 2004157757A JP 2002322719 A JP2002322719 A JP 2002322719A JP 2002322719 A JP2002322719 A JP 2002322719A JP 2004157757 A JP2004157757 A JP 2004157757A
Authority
JP
Japan
Prior art keywords
arithmetic
circuit
result
analog
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002322719A
Other languages
English (en)
Inventor
Katsuhiko Mori
克彦 森
Masakazu Matsugi
優和 真継
Hirosuke Mitarai
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002322719A priority Critical patent/JP2004157757A/ja
Publication of JP2004157757A publication Critical patent/JP2004157757A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Semiconductor Memories (AREA)

Abstract

【課題】アナログ演算回路の性能を向上させ、かつ回路の面積を削減する。
【解決手段】前段ニューロンの各出力値と、それぞれのシナプス荷重保持手段5a〜5cに保持されたシナプス荷重値との積を乗算回路1a〜1cで乗算し、それらの和を積和演算結果保持手段2に保持し、非線形演算保持手段4は、その非線形演算保持手段4の非線形な物理的特性に基づいて、その積和演算結果に対する非線形変換演算を行って、その結果を保持する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、積和演算と非線形変換演算とを行うアナログ演算回路に関するものである。
【0002】
【従来の技術】
現在、コンピュータは大きな進展を見せ、世の中の様々な場面で使用されている。しかしながら、これらノイマン型と呼ばれるコンピュータは、その処理方式自体の特性により、ヒトが容易に行うことができる処理(リアルタイムでのヒトの顔の認識等)を非常に不得意としている。
【0003】
これに対して、脳の情報処理様式を真似た演算処理モデルである、ニューラルネットワークの研究が行われている。
【0004】
ニューラルネットワークを構成するニューロンのモデルとしては、ニューロンに相当するユニットに対して、他の複数のユニット(ニューロン)の出力値をシナプス荷重値で重み付けした乗算値が入力され、その入力値の総和値をさらに非線形変換した値を出力値とするものが一般的である。
【0005】
すなわち、一般的なニューラルネットワークにおいては、各ユニット、及びユニット間における積和演算と非線形変換により、所望の処理が実現される。
このニューロンモデルを用いたニューラルネットワークアーキテクチャとしては、これまでに、非線形な入出力特性を有するユニットを相互に結合した連想メモリや、同じく非線型な入出力特性を有するユニットを階層的に結合したパターン認識モデル等が提案されている。
【0006】
ここでニューラルネットワークは、超並列・分散型の情報処理モデルであるため、逐次処理方式であるノイマン型コンピュータでの実行は極めて効率が悪い。従って、ニューラルネットワークの実用化に際しては、専用のハードウェアとしての集積回路化が必須である。
【0007】
また集積回路化に際しては、前記の積和演算や非線形変換を実現する演算回路としてアナログ演算回路を使用することで、デジタル演算回路に比較して、素子数の大幅な削減が可能である。
【0008】
すなわちアナログ演算回路で前記の積和演算や非線形変換を実現する場合は、デバイスや材料の物理的性質を機能的に利用することにより、デジタル演算回路よりも桁違いに少ない素子で所望の機能を実現することが可能となる。
【0009】
そこで、上記のようなニューロンモデル、及びニューラルネットワークアーキテクチャに適する回路が、各種提案されている。
【0010】
例えば、T.Morie, J.Funakoshi, M.Nagata and A.Iwata, 「An Analog−DigitalMerged Neural Circuit Using Pulse Width Modulation Technique」, IEICE Trans. Fundamentals, Vol. E82−A, No.2, pp.356−363, 1999, http//search.ieice.org/1999/files/e000a02.htm/e82−a,2,356 では、正負のシナプス荷重に対して、それぞれ符号に対応するキャパシタを用意し、各符号毎に積和演算結果を電荷として蓄え、その後キャパシタの結合で正負の加算結果を求め、外部から入力した非線形関数を示す信号に基づいて非線形変換を行ったPWM信号を得る方式を提案している。
【0011】
【発明が解決しようとしている課題】
前記背景技術においては、多数のアナログ演算回路の演算結果を電荷としてキャパシタに保持する際に、キャパシタに蓄積した電荷は、pn接合部分の漏れのために短時間で消失することから、演算結果を精度良く、長時間保持したい場合のためにも、さらなる性能向上が望まれていた。
【0012】
また、チップの実装密度向上のため、ニューロンモデル回路の面積の削減が望まれていた。
【0013】
【課題を解決するための手段】
上記課題を解決するために、本願発明のアナログ回路は、第1の演算を行う第1の演算回路と、第2の演算と第2の演算結果保持を行う演算保持手段とを備え、前記第1の演算回路で演算された演算結果に対する第2の演算を前記演算保持手段の物理的特性に基づいて行い、その結果を前記演算保持手段に保持することを特徴とする。
【0014】
【発明の実施の形態】
〔第1の実施形態〕
以下、図面を参照して本発明の第1の実施形態を説明する。
【0015】
図1は、本実施形態での演算回路100の全体構成を示す図である。
【0016】
図1に示すように、演算回路100は、乗算回路1a〜1c、前記複数の乗算回路1a〜1cに接続する積和演算結果保持手段2、前記積和演算結果保持手段2に接続するスイッチ3、前記スイッチ3に接続する非線形演算保持手段4、さらにシナプス荷重保持手段5a〜5cで構成される。
【0017】
図1に示した演算回路100は、複数の乗算結果の総和値を算出し、その総和値に対して非線形演算を行い、その非線形演算結果を保持する機能を実現するものである。
【0018】
この演算回路100の動作について説明する前に、ニューロンにおける演算処理を図2を用いて説明する。
【0019】
図2において、ニューロン201は、前段に接続する複数のニューロンの出力値Xi(i=1,2,…)をシナプス荷重Wi(i=1,2,…)で重み付けした後、入力として受け取る。ニューロン内部では、入力された値の総和値を内部状態値として算出し、これに所定の変換fを施して出力値とする。
【0020】
各ニューロンにおける演算処理は、次式(1)で表される。
【0021】
【外1】
Figure 2004157757
Figure 2004157757
y:出力値、u:内部状態値、f:変換関数、ω:シナプス荷重、x:前段ニューロンの出力値
なお変換関数としては、様々なモデルが提案されているが、本実施形態では、次式(2)で表される一般的なシグモイド関数、またはシグモイド関数を近似する非線形関数を適用している。
【0022】
【外2】
Figure 2004157757
Figure 2004157757
(aは、シグモイド関数の傾きを決定するパラメータ)
シグモイド関数の特性を図3に示す。
【0023】
続いて、図1の演算回路100の動作について説明する。
【0024】
各乗算回路1a〜1cには、前段に接続する各ニューロンの出力値とシナプス荷重値とが入力され、それらの積が演算される。なお、前段に接続する各ニューロンの出力値は前段の各ニューロンより、シナプス荷重値はシナプス荷重保持手段5a〜5cより入力される。このように乗算回路1a〜1cを複数用いることで、前段に接続する複数のニューロンの出力値と各ニューロンの出力値に対応するシナプス荷重との積を並列に演算することが出来る。
【0025】
そして、複数の乗算回路1a〜1cで演算された積和演算結果を積和演算結果保持手段2に保持する。つまり、この積和演算結果保持手段2に保持される結果は、式(1)の内部状態値uに対応する。続いて、スイッチ3がONになると、積和演算結果保持手段2に保持された値に対応した値が、非線形演算保持手段4に入力される。そして、スイッチ3をOFFにすることで、非線形演算保持手段4の物理的特性により、非線形変換が行われ、その結果、つまり式(1)の出力値yに対応する値を、非線形演算保持手段4が保持するように動作する。
【0026】
図4は、図1に示された演算回路100の構成を詳細に説明したものである。
【0027】
図4に示す乗算回路41a〜41cは、定電流源として機能するPMOSトランジスタM1、およびスイッチとして機能するPMOSトランジスタM2を有する。また、同様に乗算回路46a〜46cは定電流源として機能するNMOSトランジスタM3、およびスイッチとして機能するNMOSトランジスタM4を有する。
【0028】
なお、乗算回路41a〜41cは後述するようにシナプス荷重値が正の時に前段のニューロンの出力値との乗算を行い、また乗算回路46a〜46cはシナプス荷重値が負時に前段のニューロンの出力値との乗算を行う。この時、乗算回路46a〜46cに入力されるシナプス荷重値は絶対値で入力される。また、積和演算結果保持手段2はキャパシタ42で構成される。
【0029】
乗算回路41a〜41c、46a〜46cは、本実施形態においては被乗算値Aと乗算値Bの乗算:(A×B)を実現する。なおA、Bは、以下の条件式を満たすものとする。
【0030】
A≧0、B≧0
ここで、被乗算値Aと乗算値Bは、前記乗算を前記乗算回路41a〜41c、46a〜46cで実現するために、後述するように所定の換算を施したPWM信号Vinと、アナログ電圧Vwとしてそれぞれ入力される。
【0031】
なお乗算回路41a〜41c、46a〜46cは、前記乗算を実現するもの以外に、何らかの演算を行うものであれば、別の回路でも構わない。
【0032】
被乗算値を換算したPWM信号Vinが入力端子Aに入力され、また乗算値を換算したアナログ電圧Vwが入力端子Bに入力される。
【0033】
ここで、PWM信号の特性について簡単に説明しておく。PWM(PulseWidth Modulation)は、情報をパルス波形の幅に持たせた変調方式であり、ノイズに強いデジタル的な特性(電圧方向にHighレベルとLowレベルの2値の情報)と、連続情報を1パルスで表現することができるアナログ的な特性(時間方向に連続情報)の両者を併せ持つものである。
【0034】
トランジスタM1のゲート端子には、入力端子Bに入力された乗算値Vwの電圧がかかる。また、トランジスタM2のゲート端子には、入力端子AよりPWM信号Vinが反転入力される。
【0035】
なおPWM信号は、Lowレベルを0V、Highレベルを電源電圧Vdd(本実施形態では3.3V)と設定している。
【0036】
ここで、PWM信号がHighレベルの時、すなわちトランジスタM1のソース端子に電源電圧Vddが加えられた時に、トランジスタM1が飽和領域で動作するようにアナログ電圧Vwを適切な電圧範囲に設定することにより、PWM信号がHighレベルの間、トランジスタM1を定電流源として動作させることができる。
【0037】
またこの時、トランジスタM1を流れる電流量は、ゲート−ソース間電圧、すなわち(Vdd−Vw)で決定される。この時、PWM信号Vinのパルス幅は、被乗算値Aに比例するように換算されている。
【0038】
またアナログ電圧Vwは、(Vdd−Vw)によって決定される電流量が乗算値Bに比例するように換算されている。
【0039】
従って、トランジスタM1は、PWM信号がHighレベルの間だけ前記(Vdd−Vw)により決定される電流を流すため、トランジスタM1が流す電荷量は、A×Bに比例したものとなる。なお、上記説明は、PMOSを用いた乗算回路41a〜41cを例に行ったが、乗算回路46a〜46cでもPMOSがNMOSになっていることを考慮すれば、動作としては同様に考えることが出来る。
【0040】
続いて、乗算回路41a〜41c、46a〜46cによる演算結果が、どのようにキャパシタ42に保持されるかについて説明する。
【0041】
まず、乗算回路41a〜41cの演算結果がキャパシタ42に保持される動作について説明する。バスにはそれぞれ独立に演算を行う複数の乗算回路41a〜41cが接続されているため、それぞれの乗算回路41a〜41cにより並列に実行された演算結果、すなわち上で説明したトランジスタM1が流す電荷量は、バスを通してキャパシタ42に蓄積され、加算される。
【0042】
また、乗算回路46a〜46cの演算結果がキャパシタ42に保持される動作は、乗算回路46a〜46cにより並列に実行された演算結果、つまりトランジスタM3が流す電荷量が、キャパシタ42に蓄積されていた電荷から引き抜かれる動作となる。つまり、負の重み係数に対する積和演算結果は負になるため、キャパシタ42の保持されていた電荷を引き抜くことで、減算を実現している。
【0043】
なお、キャパシタ42に電荷が保持されていない状態では減算が正確に行なわれない。そのため、あらかじめキャパシタ42に、既定量の電荷を保持しておくようにする。その既定量とは、例えば予想される前段のニューロンの出力値とシナプス荷重との積和の最小値の絶対値に相当する量で良い。なおこの場合、キャパシタ42の最終的な電荷量(電位)が上記既定の電荷量(電位)の時に、積和演算結果が0となる。
【0044】
上記で示したように、キャパシタ42に蓄積される総電荷量は、共通のバスでキャパシタに接続された複数の乗算回路41a〜41c,46a〜46cの演算結果の総和値を示している。
【0045】
図4において、MOSトランジスタ43は図1のスイッチ3に、強誘電体キャパシタ44は図1の非線形演算保持手段4に、それぞれ対応する。強誘電体キャパシタとは、強誘電体材料を用いたキャパシタである。また、トランジスタ43と強誘電体キャパシタ44の間には、抵抗45が存在する。つまり、トランジスタ43のON/OFFをスイッチとして使用し、強誘電体キャパシタ44に非線形演算結果を保持する。
【0046】
スイッチ3に対応するトランジスタ43がONになり導通すると、強誘電体キャパシタ44は、抵抗45の時定数で充電され、キャパシタ42と強誘電体キャパシタ44の容量、及びキャパシタ42に保持されていた電荷量で決まる電位になる。そして、次にトランジスタ43をOFFにすると、図3に示した非線形関数(シグモイド関数等)と類似した強誘電体キャパシタ44の物理特性により非線形演算に相当する動作が行われ、結果としてシグモイド関数等による非線形演算を行った結果の値が保持される。
【0047】
上記の非線形演算に対応する強誘電体キャパシタの物理特性について説明する。
【0048】
強誘電体材料は、電界が0でも自発分極を示す材料であり、それを利用した強誘電体キャパシタはアナログメモリとして使用可能である。また、図5に示すように、印加電圧と残留分極量には、非線形の関係がある(日経エレクトロニクス2002年5月20日号、P144)。つまり、この非線形性を示す物理特性を利用し、ニューロンにおける、内部状態値を印加電圧とした時、シグモイド関数またはシグモイド関数に近似される非線形な残留分極特性により得られる電位として、非線形演算を行う。
【0049】
上記で示したように、積和演算結果保持手段2としてのキャパシタ42が示す電位に比例した電位を、非線形演算保持手段4としての強誘電体キャパシタ44に印加し、そして強誘電体の残留分極量の特性を用いて非線形演算を行うことが本実施形態の特徴である。この構成により、ニューロンの非線形演算を行う回路を別途構成する必要がなくなり、回路面積の削減が可能となる。また、ニューロンの演算結果を、精度良く長時間保持することも可能となる。
【0050】
〔第2の実施形態〕
本実施形態におけるニューラルネットワーク回路600の構成の一部を図6に示す。
【0051】
図6に示すように、本実施形態におけるニューラルネットワーク回路は、第1の実施形態で説明した演算回路100a,100b,…と、PWM変換回路61a,61b,…を含むことを特徴としている。ただし、図6の演算回路100a、100b…ではシナプス荷重保持手段5を省略してある。
【0052】
本実施形態で実現するニューラルネットワークモデルの構成図700を図7に示す。
【0053】
図7に示すように、本実施形態におけるニューラルネットワークは、階層構造を成し、かつ異なる階層間のニューロンが互いにシナプスを介して結合している。
【0054】
なお、ニューラルネットワークの構成には、本実施形態の他にニューロンがアレイ状に配置されたものなどがあり、またニューロン間の結合にも、2つのニューロン間で相互に結合を有するものなどがある。
【0055】
本発明におけるニューラルネットワークは、その構成や結合手法によって限定されるものではなく、本実施形態で示す階層構造以外の構造および結合手法を有するものであっても構わない。
【0056】
続いて、図6を用いて本実施形態におけるニューラルネットワーク回路を説明する。
【0057】
本実施形態におけるニューラルネットワーク回路は、第1の実施形態で説明した演算回路を階層的に構成したものを含んでいる。
【0058】
本実施形態で説明する演算回路では、階層的な演算処理を行うために、ある階層の演算回路により算出された演算結果を次の階層の演算回路の入力としている。
【0059】
この際には、PWM変換回路61により、非線形演算保持手段4に保持された演算結果をPWM信号として読み出している。
【0060】
このPWM変換回路61の構成の1例を図8に示す。図8は、強誘電体キャパシタ44とスイッチ83、コンパレータ85から構成されている。またコンパレータ85にはRAMP信号も入力されるようになっている。
【0061】
つまり、スイッチ83がONになると、このRAMP信号と強誘電体キャパシタ44の電位とを比較して、RAMP信号の電位よりも強誘電体キャパシタ44の電位の方が高い間は、コンパレータ85の出力信号の電位はHighになり、逆にRAMP信号の電位の方が強誘電体キャパシタ44の電位よりも高くなるとコンパレータ85の出力信号の電位がLowになることで、PWM信号が作成される。
【0062】
以上の様に強誘電体キャパシタに保持された、各ニューロンにおける演算値をPWM変換回路61によってPWM信号として読み出し、次の階層のニューロンに対する入力とすることで、図7に示したニューラルネットワークのモデルを実現することができる。
【0063】
以下、上記実施形態に係わる本発明の特徴を整理する。
【0064】
特徴1.
所定の演算を行う演算回路と、演算結果を保持する演算結果保持手段とを備え、
前記演算結果保持手段は、当該演算結果保持手段の物理的特性に基づいて、前記演算回路の演算結果に対して所定のアナログ演算を行い、その結果を保持することを特徴とするアナログ演算回路。
【0065】
特徴2.
所定の演算を行う演算回路と、前記演算回路の演算結果を保持する第1の演算結果保持手段と、第2の演算結果保持手段とを備え、
前記第2の演算結果保持手段は、当該第2の演算結果保持手段の物理的特性に基づいて、前記第1の演算結果保持手段に保持された演算結果に対して所定のアナログ演算を行い、その結果を保持することを特徴とするアナログ演算回路。
【0066】
特徴3.
特徴1または特徴2のアナログ演算回路において、前記所定のアナログ演算は、非線形変換演算であることを特徴とするアナログ演算回路。
【0067】
特徴4.
特徴1のアナログ演算回路において、前記演算結果保持手段は、強誘電体材料を用いたアナログメモリで構成され、前記所定のアナログ演算は非線形変換演算であって、前記強誘電体材料を用いたアナログメモリにおける、印加電圧と残留分極量特性に基づいて演算されることを特徴とするアナログ演算回路。
【0068】
特徴5.
特徴2のアナログ演算回路において、前記第2の演算結果保持手段は、強誘電体材料を用いたアナログメモリで構成され、前記所定のアナログ演算は非線形変換演算であって、前記強誘電体材料を用いたアナログメモリにおける、印加電圧と残留分極量特性に基づいて演算されることを特徴とするアナログ演算回路。
【0069】
特徴6.
入力信号と所定の荷重値との積を演算する複数の演算回路と、演算結果を保持する演算結果保持手段とを備え、
前記演算結果保持手段は、当該演算結果保持手段の物理的特性に基づいて、前記複数の演算回路の演算結果値に対する非線形変換演算を行い、その結果を保持することを特徴とするニューロン回路。
【0070】
特徴7.
前記演算保持手段は、強誘電体材料を用いたアナログメモリで構成され、前記非線形変換演算は、前記強誘電体材料を用いたアナログメモリにおける、印加電圧と残留分極量特性に基づいて演算されることを特徴とする特徴6のニューロン回路。
【0071】
特徴8.
入力信号と所定の荷重値との積を演算する複数の演算回路と、前記複数の演算回路の演算結果値の和を積和演算結果として保持する第1の演算結果保持手段と、第2の演算結果保持手段とを備え、
前記第2の演算結果保持手段は、当該第2の演算結果保持手段の物理的特性に基づいて、前記第1の演算結果保持手段に保持された積和演算結果に対する非線形変換演算を行い、その結果を保持することを特徴とするニューロン回路。
【0072】
特徴9.
前記第2の演算保持手段は、強誘電体材料を用いたアナログメモリで構成され、前記非線形変換演算は、前記強誘電体材料を用いたアナログメモリにおける、印加電圧と残留分極量特性に基づいて演算されることを特徴とする特徴8のニューロン回路。
【0073】
特徴10.
特徴1から5のアナログ演算回路のいずれかを含むことを特徴とするニューラルネットワーク回路。
【0074】
特徴11.
特徴6から9のニューロン回路のいずれかを含むことを特徴とするニューラルネットワーク回路。
【0075】
【発明の効果】
以上説明したように、本発明によれば、演算結果保持手段が、当該演算結果保持手段の物理的特性に基づいて、演算回路の演算結果に対して所定のアナログ演算を行い、その結果を保持するようにしたので、回路の占有面積の増大を招くことなく、かつ演算結果の保持精度が短時間で低下することの無い演算回路を得ることができるという効果がある。
【図面の簡単な説明】
【図1】第1の実施形態における、演算回路の全体構成を示す図である。
【図2】ニューロンの演算モデルを示す図である。
【図3】シグモイド関数を示す図である。
【図4】第1の実施形態における演算回路の詳細構成を示す図である。
【図5】強誘電体キャパシタの印加電圧と残留分極量の関係を示す図である。
【図6】第2の実施形態における、ニューラルネットワーク回路の構成を示す図である。
【図7】第2の実施形態における、ニューラルネットワークモデルの構成を示す図である。
【図8】PWM変換回路の構成を示す図である。
【符号の説明】
1 乗算回路
2 積和演算保持手段
3 スイッチ
4 非線形演算保持手段
5 シナプス荷重保持手段
42 キャパシタ
43 MOSトランジスタ
44 強誘電体キャパシタ
45 抵抗
61 PWM変換回路
83 スイッチ
85 コンパレータ
100 演算回路
201 ニューロン
600 ニューラルネットワーク回路
700 ニューラルネットワークモデル
M1、M2 PMOSトランジスタ
M3、M4 NMOSトランジスタ

Claims (1)

  1. 第1の演算を行う第1の演算回路と、第2の演算と第2の演算結果保持を行う演算保持手段とを備え、
    前記第1の演算回路で演算された演算結果に対する第2の演算を前記演算保持手段の物理的特性に基づいて行い、その結果を前記演算保持手段に保持することを特徴とするアナログ演算回路。
JP2002322719A 2002-11-06 2002-11-06 アナログ演算回路 Withdrawn JP2004157757A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002322719A JP2004157757A (ja) 2002-11-06 2002-11-06 アナログ演算回路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002322719A JP2004157757A (ja) 2002-11-06 2002-11-06 アナログ演算回路

Publications (1)

Publication Number Publication Date
JP2004157757A true JP2004157757A (ja) 2004-06-03

Family

ID=32802825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002322719A Withdrawn JP2004157757A (ja) 2002-11-06 2002-11-06 アナログ演算回路

Country Status (1)

Country Link
JP (1) JP2004157757A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011270A (ja) * 2004-06-29 2006-01-12 Nec Corp 画像パターン補正方法、及びそれを適用した模擬画像生成方法、並びにパターン外観検査方法
CN112424785A (zh) * 2018-07-17 2021-02-26 索尼公司 计算装置、乘积累加运算装置、乘积累加运算电路和乘积累加运算系统
WO2022138463A1 (ja) * 2020-12-25 2022-06-30 ソニーセミコンダクタソリューションズ株式会社 積和演算装置およびニューラルネットワーク

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011270A (ja) * 2004-06-29 2006-01-12 Nec Corp 画像パターン補正方法、及びそれを適用した模擬画像生成方法、並びにパターン外観検査方法
CN112424785A (zh) * 2018-07-17 2021-02-26 索尼公司 计算装置、乘积累加运算装置、乘积累加运算电路和乘积累加运算系统
CN112424785B (zh) * 2018-07-17 2023-12-12 索尼公司 计算装置、乘积累加运算装置、乘积累加运算电路和乘积累加运算系统
WO2022138463A1 (ja) * 2020-12-25 2022-06-30 ソニーセミコンダクタソリューションズ株式会社 積和演算装置およびニューラルネットワーク

Similar Documents

Publication Publication Date Title
US7120617B2 (en) Operation circuit and operation control method thereof
JP4620943B2 (ja) 積和演算回路及びその方法
Lee et al. Hardware annealing in analog VLSI neurocomputing
Choi et al. A high-precision VLSI winner-take-all circuit for self-organizing neural networks
JP2009282782A (ja) 抵抗変化型可変抵抗素子を備えた積演算装置、及び積和演算装置、これらの装置を各ニューロン素子に備えるニューラルネットワーク、並びに積演算方法
CN105981055A (zh) 神经网络对当前计算资源的自适应
CN106133763B (zh) 可塑性突触管理
US7610326B2 (en) Arithmetic circuit for calculating a cumulative value as a result of parallel arithmetic processing
JP4579798B2 (ja) 演算装置
US9536189B2 (en) Phase-coding for coordinate transformation
Kawaguchi et al. Analog neural circuit with switched capacitor and design of deep learning model
JP2004157757A (ja) アナログ演算回路
Rahman A neural network with O (N) neurons for ranking N numbers in O (1/N) time
JP4181837B2 (ja) 演算回路およびこれを用いたニューラルネットワーク
Kawaguchi et al. Analog learning neural circuit with switched capacitor and the design of deep learning model
Wang et al. Deep neural network mapping and performance analysis on tiled rram architecture
Vohra et al. CMOS circuit implementation of spiking neural network for pattern recognition using on-chip unsupervised STDP learning
JP4073009B2 (ja) 演算回路
JPH02181284A (ja) ニューラルネットワーク
Krid et al. Hardware implementation of a pulse mode neural network-based edge detection system
JPH06187472A (ja) アナログニューラルネットワーク
Soures et al. Enabling on-device learning with deep spiking neural networks for speech recognition
Rodriguez et al. A simplicial piecewise linear approach for efficient hardware realization of neural networks:(invited presentation)
Bakambekova et al. Generate while sensing-intelligent imaging with memristive pixel-CNN
Krid et al. FPGA implementation of programmable pulse mode neural network with on chip learning for signature application

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110