JP2020009265A - 演算装置 - Google Patents

演算装置 Download PDF

Info

Publication number
JP2020009265A
JP2020009265A JP2018131057A JP2018131057A JP2020009265A JP 2020009265 A JP2020009265 A JP 2020009265A JP 2018131057 A JP2018131057 A JP 2018131057A JP 2018131057 A JP2018131057 A JP 2018131057A JP 2020009265 A JP2020009265 A JP 2020009265A
Authority
JP
Japan
Prior art keywords
arithmetic
storage
charge
arithmetic device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018131057A
Other languages
English (en)
Other versions
JP6902000B2 (ja
Inventor
佐藤 利江
Toshie Sato
利江 佐藤
水島 公一
Koichi Mizushima
公一 水島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018131057A priority Critical patent/JP6902000B2/ja
Priority to US16/351,287 priority patent/US11163534B2/en
Publication of JP2020009265A publication Critical patent/JP2020009265A/ja
Application granted granted Critical
Publication of JP6902000B2 publication Critical patent/JP6902000B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/57Arithmetic logic units [ALU], i.e. arrangements or devices for performing two or more of the operations covered by groups G06F7/483 – G06F7/556 or for performing logical operations
    • G06F7/575Basic arithmetic logic units, i.e. devices selectable to perform either addition, subtraction or one of several logical operations, using, at least partially, the same circuitry
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/10Input/output [I/O] data interface arrangements, e.g. I/O data control circuits, I/O data buffers
    • G11C7/1006Data managing, e.g. manipulating data before writing or reading out, data bus switches or control circuits therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F5/00Methods or arrangements for data conversion without changing the order or content of the data handled
    • G06F5/06Methods or arrangements for data conversion without changing the order or content of the data handled for changing the speed of data flow, i.e. speed regularising or timing, e.g. delay lines, FIFO buffers; over- or underrun control therefor
    • G06F5/08Methods or arrangements for data conversion without changing the order or content of the data handled for changing the speed of data flow, i.e. speed regularising or timing, e.g. delay lines, FIFO buffers; over- or underrun control therefor having a sequence of storage locations, the intermediate ones not being accessible for either enqueue or dequeue operations, e.g. using a shift register
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C19/00Digital stores in which the information is moved stepwise, e.g. shift registers
    • G11C19/28Digital stores in which the information is moved stepwise, e.g. shift registers using semiconductor elements
    • G11C19/282Digital stores in which the information is moved stepwise, e.g. shift registers using semiconductor elements with charge storage in a depletion layer, i.e. charge coupled devices [CCD]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C19/00Digital stores in which the information is moved stepwise, e.g. shift registers
    • G11C19/28Digital stores in which the information is moved stepwise, e.g. shift registers using semiconductor elements
    • G11C19/287Organisation of a multiplicity of shift registers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2207/00Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F2207/38Indexing scheme relating to groups G06F7/38 - G06F7/575
    • G06F2207/48Indexing scheme relating to groups G06F7/48 - G06F7/575
    • G06F2207/4802Special implementations
    • G06F2207/4818Threshold devices
    • G06F2207/4824Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Computer Hardware Design (AREA)
  • Semiconductor Memories (AREA)

Abstract

【課題】大規模化が可能な演算装置を提供する。【解決手段】実施形態によれば、演算装置は、1つまたは複数の演算ユニットを含む。前記1つまたは複数の前記演算ユニットの1つは、複数の記憶領域を含む記憶部と、演算部と、を含む。前記複数の記憶領域の少なくとも1つは、シフトレジスタ型の記憶素子を含む。【選択図】図1

Description

本発明の実施形態は、演算装置に関する。
演算装置において、大規模化が望まれる。
特開2009−032259号公報
本発明の実施形態は、大規模化が可能な演算装置を提供する。
本発明の実施形態によれば、演算装置は、1つまたは複数の演算ユニットを含む。前記1つまたは複数の前記演算ユニットの1つは、複数の記憶領域を含む記憶部と、演算部と、を含む。前記複数の記憶領域の少なくとも1つは、シフトレジスタ型の記憶素子を含む。
図1は、第1実施形態に係る演算装置を例示する模式図である。 図2は、第1実施形態に係る演算装置を例示する模式図である。 図3(a)〜図3(c)は、第1実施形態に係る演算装置の一部を例示する模式図である。 図4は、第1実施形態に係る演算装置の一部を例示する模式図である。 図5(a)及び図5(b)は、第2実施形態に係る演算装置の一部を例示する模式図である。 図6は、実施形態に係る演算装置を例示する模式図である。 図7は、実施形態に係る演算装置の一部を例示する模式図である。 図8は、実施形態に係る演算装置の一部を例示する模式図である。 図9は、実施形態に係る演算装置を例示する模式図である。
以下に、本発明の各実施の形態について図面を参照しつつ説明する。
図面は模式的または概念的なものであり、各部分の厚さと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1実施形態)
図1は、第1実施形態に係る演算装置を例示する模式図である。
図1に示すように、実施形態に係る演算装置110は、1つまたは複数の演算ユニット10Uを含む。1つまたは複数の演算ユニット10Uの1つは、記憶部10及び演算部20を含む。記憶部10は、複数の記憶領域10Rを含む。
例えば、複数の記憶領域10Rの1つは、変数xを記憶(または保持)可能である。例えば、複数の記憶領域10Rの別の1つは、変数群wijを記憶(または保持)可能である。変数群wijは、例えば、行列でも良い。
実施形態に係る演算装置110は、例えば、ニューラルネットワークに対応する演算に用いることができる。この場合、例えば、変数xは、ニューロンの状態に対応する。例えば、変数群wijは、シナプス・パラメータの状態に対応する。
記憶部10に記憶された情報(例えば変数など)が演算部20に供給される。演算部20は、その情報に基づいて演算を行う。演算は、例えば、積和演算を含む。1つの例において、積和演算は、h=Σwijの演算を含む。
例えば、演算部10は、例えば、演算回路25を含む。演算回路25において、演算が行われる。演算部10は、A/D変換部26を含んでも良い。例えば、記憶部10に記憶された情報が3値以上(またはアナログなど)である場合、情報が2値に変換されても良い。変換された情報が、演算回路25に供給される。演算回路25は、変換された情報に基づいて、演算を行う。
演算ユニット10Uは、1つの「コア」として機能する。
図2は、第1実施形態に係る演算装置を例示する模式図である。
図2に示すように、複数の記憶領域10Rの少なくとも1つは、シフトレジスタ型の記憶素子10Dを含む。
実施形態においては、シフトレジスタ型の記憶素子10Dが用いられるため、記憶部10のサイズを大幅に縮小できる。例えば、小さい面積に非常に大きな情報を記憶できる。大規模化が可能な演算装置が提供できる。
一般に、記憶部としてSRAMが用いられる。SRAMにおいては、記憶素子部の他に、大きな面積を必要とする周辺回路が設けられる。周辺回路には、アドレス・デコーダ、個々の素子への読出し回路、及び、書込み回路などが含まれている。SRAMにおいては、記憶素子部に対する周辺回路の占める割合が大きい。このため、記憶部の記憶容量を大きくすることが困難である。
これに対して、実施形態においては、シフトレジスタ型の記憶素子10Dを含むため、周辺回路が簡単である。このため、周辺回路の面積が小さく、記憶部10のサイズを大幅に縮小できる。
このように、実施形態においては、コア(演算ユニット10U)の記憶部10に、シフトレジスタ型の記憶素子10Dが用いられる。記憶素子10Dの周辺回路及び配線の面積が低減できる。このため、記憶部10の記憶容量を増大させることができる。これにより、ニューロ・モルフィック・コンピュータの大規模化が可能になる。
コンピュータやエレクトロニクスデバイスの高性能化および高機能化が求められている。演算装置において、膨大な情報処理に対応し得ることが望まれている。情報処理の大規模化により、例えば、IoT(Internet of Things)、AI(Artificial Intelligence)、または、深層学習(Deep leaning)などにおける膨大な情報処理に対応できる。
一方、省エネルギー・エレクトロニクスの開発も望まれている。省エネルギー化により、例えば、世界的規模で議論されるCO削減に対応できる。省エネルギー化により、例えば、大規模震災後の電力事情を緩和できる。
このような状況において、生体に学ぶ省エネルギー・エレクトロニクスとしてのニューラルネットワーク(神経回路網)が注目を集めている。ニューラルネットワークとエレクトロニクスとの関係は歴史が古い。例えば、1943年に発表されたMcCullochとPittsのニューロンモデル(W.S. McCulloch and W. Pitts: Bull. Math. Biophys. 5, 115 (1943).)が知られている。
その後、ニューラルネットワーク分野の大きなブレークスルーが1982年にHopfieldによりなされた(J.J. Hopfield: Proc. Natl. Acad. Sci. U.S.A. 79, 2554 (1982).)。彼は、相互結合型ネットワークが、イジングスピン・モデルのハミルトニアンで表現できることを示した。これにより、神経回路網での情報処理をスピン系の統計力学を用いて考察することが可能となった。さらに、アップ・ダウンスピンの2値状態をとるイジングスピンを神経細胞(ニューロン)の活動または情報ビットに対応させることが可能になった。
ニューラルネットワークの新規なハードウエアとして、TrueNorthチップと呼ばれる素子が2014年にIBMとコーネル大学との協力により開発された(P.A. Merolla et al., Science 345, 668 (2014).)。この例では、28nmルールのCMOS技術で素子が作製された。この素子は、全体として、100万個のニューロンとして動作する。この素子は、140億個のニューロンから構成される人間の脳に比較すると、規模が小さい。
TrueNorthチップに代表されるニューラルネットワークのハードウエアは、ニューロ・モルフィック・コンピュータとも呼ばれる。これらは、超並列分散型コンピュータである。超並列分散型コンピュータは、コアと呼ばれる多数の演算ユニットを含む。演算ユニットの1つに、演算部及び記憶部が設けられる。演算部では、積和演算などが行われる。記憶部には、例えば、ニューロンの状態、または、シナプス・パラメータなどが保存される。
従来の超並列分散型コンピュータの記憶部には、SRAMが用いられている。上記のように、SRAMにおいて、アドレス・デコーダ、または、読出し及び書込み回路などの、大きな周辺回路が必要である。
ニューロ・モルフィック・コンピュータは、人間の脳に匹敵する大規模な省エネ型情報処理装置として期待されているが、大規模化に関して、現在、極めて不十分である。原因の1つは、十分な記憶容量の記憶部を得ることが困難であることである。
実施形態は、記憶部10の記憶容量を増大できる。ニューロ・モルフィック・コンピュータの大規模化が可能になる。実施形態に係る演算装置110は、学習可能である。
以下、シフトレジスタ型の記憶素子10Dの1つの例について、説明する。
図3(a)〜図3(c)は、第1実施形態に係る演算装置の一部を例示する模式図である。
これらの図は、シフトレジスタ型の記憶素子10Dの例を示している。記憶素子10Dは、電荷結合型素子40(Charge-Coupled Device:CCD)を含む。
図3(a)は、模式的断面図である。図3(a)に示すように、電荷結合型素子40は、半導体層41と、絶縁層42と、複数の電極43と、を含む。絶縁層42は、半導体層41と、複数の電極43と、の間に設けられる。この例では、基体41sの上に、半導体層41が設けられる。その上に、絶縁層42及び複数の電極43が、この順で設けられる。
半導体層41の電荷41Qは、複数の電極43に電圧パルスを順に印加にすることで、シフトされる。電荷41Qの状態は、電荷結合型素子40に記憶される情報に対応する。
図3(b)に示すように、電荷結合型素子40の1つの端部(左端)に、入力10INとして、電荷41Qが注入される。複数の電極43に順に電圧パルスを加えると、電荷41Qは、別の端部(この例では、右端)に向かって、逐次シフトされる。複数の電極43に対応する部分は、1つのレジスタとして機能する。別の端部(この例では、右端)に出力回路45が設けられても良い。出力回路45から、出力10OUTとして、電荷41Qの状態に応じた信号が、出力される。
図3(c)に示すように、シフトレジスタ型の記憶素子10Dは、例えば、複数の電荷結合型素子40を含んでも良い。シフトレジスタ型の記憶素子10Dへ信号(情報)の書込み、または、読出しにおいては、複数のレジスタのそれぞれにアクセスしなくて良い。1つの端部に信号を順次書込み、別の端部から、順次読み出せばよい。このため、記憶素子10Dにおける周辺回路が簡単になる。記憶素子10Dにおける面積を低減することができる。これにより、小さい面積に、大きな容量を記憶できる。大規模化が可能な演算装置を提供できる。
1つの例において、電荷結合型素子40は、2値の状態を保持可能である。この場合、電荷結合型素子40は、デジタル型記憶素子として機能する。
別の例において、電荷結合型素子40は、3値以上の状態を保持可能ででも良い。例えば、電荷結合型素子40は、アナログ情報を保持可能でも良い。この場合、電荷結合型素子40は、多値型記憶素子として機能する。
例えば、電荷41Qの量を、0〜16諧調のアナログ量として扱っても良い。この場合、例えば、1つの記憶セルは、4ビットのデジタルセルに相当する。これにより、記憶素子10Dの面積を大幅に低減することができる。記憶容量を実効的に増大できる。
例えば、電荷結合型素子40は、酸化物半導体を含んでも良い。例えば、半導体層41は、酸化物半導体を含んでも良い。酸化物半導体は、例えば、In、Ga、Zn、Al、Sn、Ti、Si及びGe少なくも1つを含む第1元素と、酸素と、を含む。酸化物半導体を用いることで、例えば、良好な諧調性が得やすくなる。
図4は、第1実施形態に係る演算装置の一部を例示する模式図である。
図4に示すように、シフトレジスタ型の記憶素子10Dは、電荷結合型素子40に加えた、発光素子40E及び受光素子40Rをさらに含んでも良い。
発光素子40Eに入力10INに対応する信号が供給される。発光素子40Eから光40Lが出射する。発光素子40Eから出射する光40Lが、受光素子40Rに入る。受光素子40Rの出力信号40Sが、電荷結合型素子40に供給される。出力信号40Sに基づく電荷41Qが、電荷結合型素子40に注入される。
発光素子40E及び受光素子40Rを設けることで、入力部(入力10IN)と、電荷結合型素子40と、が電気的に非結合となる。例えば、配線の自由度が向上する。結果として記憶容量が増大できる。
(第2実施形態)
第2実施形態においては、シフトレジスタ型の記憶素子10Dは、デジタル・シフトレジスタを含む。
図5(a)及び図5(b)は、第2実施形態に係る演算装置の一部を例示する模式図である。
これらの図は、本実施形態に係る演算装置120の記憶部10におけるシフトレジスタ型の記憶素子10Dを例示している。演算装置120におけるこれ以外の構成は、例えば、演算装置110と同様である。以下、演算装置120におけるシフトレジスタ型の記憶素子10Dの例について説明する。
図5(a)に示すように、この例では、シフトレジスタ型の記憶素子10Dは、フリップ・フロップ素子60を含む。この場合、記憶素子10Dは、デジタル・シフトレジスタとして機能する。
フリップ・フロップ素子60は、例えば、複数のフリップ・フロップ回路61を含む。
複数のフリップ・フロップ回路61は、一列に電気的に接続される。フリップ・フロップ素子60の1つの端部(例えば、左端)に、1つの情報(この例では”1010”)が入力される。例えば、”T端子”にパルス信号が入力されるごとに、情報が、1つの端部(例えば、左端)から、別の端部(例えば右端)に向けてシフトする。
図5(b)に示すように、例えば、シフトレジスタ型の記憶素子10Dに、複数のフリップ・フロップ素子60が設けられても良い。
デジタル・シフトレジスタにおいては、1ビットの面積が大きい。しかしながら、デジタル・シフトレジスタにおいては、技術的完成度が高い。シフトレジスタ型の記憶素子10Dとして、複数のデジタル・シフトレジスタを設けることで、大規模化が容易になる。
以下、実施形態に係る演算装置(例えば演算措置110または120など)の応用の例について説明する。以下の例では、演算装置は、ニューラルネットワークに対応する演算を行う。
図6は、実施形態に係る演算装置を例示する模式図である。
図6に示すように、1つの演算ユニット10Uは、例えば、コアC(1,1)に対応する。コアC(1,1)は、例えば、イジング・マシンの少なくとも一部となる。この例では、「i」は、1であり、「j」は、1〜100の整数である。
コアC(1,1)において、記憶部10は、複数のサブコア(サブコアsubC(1,1)〜subC(100,1))を含む。この例では、複数のサブコアの数は、100である。実施形態において、複数のサブコアの数は任意である。
記憶部10に記憶された情報(例えば、変数x及び変数群wijなど)が、演算部20に供給される。演算部20において、変数x及び変数群wijの積和演算が行われる。例えば、演算部20において、演算結果に基づいた判定が行われる。判定後、例えば、変数xが更新される(UPDATE x)。判定後、例えば、変数x、及び、変数群wijの少なくともいずれかが更新されても良い。
図7は、実施形態に係る演算装置の一部を例示する模式図である。
図7は、1つのサブコア(この例では、subC(1,1))の例を示している。例えば、複数のシフトレジスタ型の記憶素子10Dが設けられる。
複数の記憶素子10Dの1つは、ニューロン用レジスタRnとして用いられる。ニューロン用レジスタRnとして用いられる記憶素子10Dにおいて、変数x(例えば、変数x〜変数x100)に関する情報が記憶される。
複数の記憶素子10Dのいくつかは、シナプス用レジスタRsとして用いられる。この例では、変数群wijは、4ビットの情報として扱われる。シナプス用レジスタRsとして用いられる複数の記憶素子10Dにおいて、変数群wij(この例では、w1j (1)、w1j (2)、w1j (3)、及びw1j (4))に関する情報が記憶される。
これらの情報(変数x及び変数群wij)が、複数の記憶素子10Dに書き込まれる。複数の記憶素子10Dに書き込まれた情報が、読み出されて、演算部20に供給される。演算部20により、例えば、積和演算が行われる。演算結果に基づいて、ニューロンの状態(例えば、変数x)、及び、シナプス・パラメータの状態(例えば、変数群wij)の少なくともいずれかが更新される。
この例では、サブコアは、デジタル・シフトレジスタに対応する。変数xは、1ビットとして扱われ、変数群wijは、4ビットとして扱われる。実施形態において、変数x、及び、変数群wijに関する情報の形式は任意である。
図8は、実施形態に係る演算装置の一部を例示する模式図である。
図8も、1つのサブコア(この例では、サブコアsubC(1,1))の例を示している。複数のシフトレジスタ型の記憶素子10Dが設けられる。
この例においても、複数の記憶素子10Dの1つは、ニューロン用レジスタRnとして用いられる。ニューロン用レジスタRnに変数x(例えば、変数x〜変数x100)に関する情報が記憶される。
一方、複数の記憶素子10Dの1つが、シナプス用レジスタRsとして用いられる。複数の記憶素子10Dの1つは、例えば、電荷結合型素子40である。電荷結合型素子40において、3値以上の情報(例えば、アナログ情報)が記憶される。この場合、変数x、及び、変数群wijは、それぞれ、1ビットの素子に記憶できる。
複数の記憶素子10Dに書き込まれた情報(変数x及び変数群wij)が演算部20に供給される。例えば、演算部20は、A/D変換部26を含んでも良い。A/D変換部26により変換された情報が、演算回路25に供給される。演算回路25において、例えば、積和演算が行われる。演算結果に基づいて、ニューロンの状態(例えば、変数x)及び、シナプス・パラメータの状態(例えば、変数群wij)の少なくともいずれかが更新される。
他のサブコアも、上記のサブコアsubC(1,1)と同様の構成を有しても良い。
図9は、実施形態に係る演算装置を例示する模式図である。
図9に示すように、演算装置110または120は、複数の演算ユニット10Uを含んでも良い。複数の演算ユニット10Uは、複数のコアに対応する。この例では、コアC(1,1)〜コア(10,10)が設けられている。複数のコアの数は、100である。
例えば、10個のコア(コア(1、1)〜コア(1,10))が1つのグループとなる。1つのグループの演算結果が、和演算回路30に供給される。和演算回路30において、1つのグループの演算結果の和が算出される。算出結果に基づいて、例えば、変数x、及び、変数群wijの少なくともいずれかが、更新される。他のグループにおいても同様の演算が行われる。
実施形態においては、複数の演算ユニット10U(例えば、コア)に含まれる記憶部10が、シフトレジスタ型の記憶素子10Dを含む。記憶素子10Dは、例えば、電荷結合型素子40などを含む。これにより、記憶容量が大きくできる。
複数の演算ユニット10Uの少なくとも2つは、並列に動作しても良い。これにより、例えば、省エネに優れた、並列分散型の大規模な演算装置を提供することができる。
実施形態によれば、大規模化が可能な演算装置が提供できる。
以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、演算装置に含まれる演算ユニット、記憶部、記憶領域、電荷結合型素子、フリップ・フロップ素子、及び、演算部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
その他、本発明の実施の形態として上述した演算装置を基にして、当業者が適宜設計変更して実施し得る全ての演算装置も、本発明の要旨を包含する限り、本発明の範囲に属する。
その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…記憶部、 10D…記憶素子、 10IN…入力、 10OUT…出力、 10R…記憶領域、 10U…演算ユニット、 20…演算部、 25…演算回路、 26…A/D変換部、 30…和算回路、 40…電荷結合型素子、 40E…発光素子、 40L…光、 40R…受光素子、 41…半導体層、 41Q…電荷、 41s…基体、 42…絶縁層、 43…電極、 60…フリップ・フロップ素子、 61…フリップ・フロップ回路、 110…演算装置、 C(1,1)〜C(10,10)…コア、 Rn…ニューロン用レジスタ、 Rs…シナプス用レジスタ、 subC(1,1)〜subC(100,1)…サブコア、 wij…変数群、 x…変数

Claims (8)

  1. 1つまたは複数の演算ユニットを備え、
    前記1つまたは複数の前記演算ユニットの1つは、
    複数の記憶領域を含む記憶部と、
    演算部と、
    を含み、
    前記複数の記憶領域の少なくとも1つは、シフトレジスタ型の記憶素子を含む、演算装置。
  2. 前記記憶素子は、電荷結合型素子を含む、請求項1記載の演算装置。
  3. 前記電荷結合型素子は、3値以上の状態を保持可能である、請求項2記載の演算装置。
  4. 前記電荷結合型素子は、2値の状態を保持可能である、請求項2記載の演算装置。
  5. 前記記憶素子は、
    発光素子と、
    受光素子と、
    をさらに含み、
    前記発光素子から出射する光が、前記受光素子に入り、
    前記受光素子の出力信号が、前記電荷結合型素子に供給される、請求項2〜4のいずれか1つに記載の演算装置。
  6. 電荷結合型素子は、酸化物半導体を含む、請求項2〜5のいずれか1つに記載の演算装置。
  7. 前記記憶素子は、フリップ・フロップ素子を含む、請求項1記載の演算装置。
  8. 前記複数の演算ユニットの少なくとも2つは、並列に動作する、請求項1〜7のいずれか1つに記載の演算装置。
JP2018131057A 2018-07-10 2018-07-10 演算装置 Active JP6902000B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018131057A JP6902000B2 (ja) 2018-07-10 2018-07-10 演算装置
US16/351,287 US11163534B2 (en) 2018-07-10 2019-03-12 Arithmetic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018131057A JP6902000B2 (ja) 2018-07-10 2018-07-10 演算装置

Publications (2)

Publication Number Publication Date
JP2020009265A true JP2020009265A (ja) 2020-01-16
JP6902000B2 JP6902000B2 (ja) 2021-07-14

Family

ID=69139387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018131057A Active JP6902000B2 (ja) 2018-07-10 2018-07-10 演算装置

Country Status (2)

Country Link
US (1) US11163534B2 (ja)
JP (1) JP6902000B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11593070B2 (en) 2019-06-17 2023-02-28 Kabushiki Kaisha Toshiba Arithmetic device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS574538A (en) * 1980-06-11 1982-01-11 Sanki Eng Kk Picture type corpuscle counter
US5008833A (en) * 1988-11-18 1991-04-16 California Institute Of Technology Parallel optoelectronic neural network processors
JPH04507026A (ja) * 1990-05-22 1992-12-03 インターナショナル・ビジネス・マシーンズ・コーポレーション 学習機械シナプス・プロセッサ・システム装置
JP2006184315A (ja) * 2004-12-24 2006-07-13 Ricoh Co Ltd 画像形成装置及び画像形成方法
WO2008018363A1 (fr) * 2006-08-09 2008-02-14 Panasonic Corporation dispositif d'entraînement de capteur d'image
WO2018103736A1 (en) * 2016-12-09 2018-06-14 Beijing Horizon Information Technology Co., Ltd. Systems and methods for data management

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4326192A (en) * 1979-06-11 1982-04-20 International Business Machines Corporation Sequential successive approximation analog-to-digital converter
US5508538A (en) * 1993-04-19 1996-04-16 California Institute Of Technology Signal processing applications of massively parallel charge domain computing devices
US6356973B1 (en) * 1993-10-15 2002-03-12 Image Telecommunications Corporation Memory device having a cyclically configured data memory and having plural data portals for outputting/inputting data
US8127075B2 (en) 2007-07-20 2012-02-28 Seagate Technology Llc Non-linear stochastic processing storage device
WO2019210275A2 (en) * 2018-04-26 2019-10-31 David Schie Event driven mathematical engine and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS574538A (en) * 1980-06-11 1982-01-11 Sanki Eng Kk Picture type corpuscle counter
US5008833A (en) * 1988-11-18 1991-04-16 California Institute Of Technology Parallel optoelectronic neural network processors
JPH04507026A (ja) * 1990-05-22 1992-12-03 インターナショナル・ビジネス・マシーンズ・コーポレーション 学習機械シナプス・プロセッサ・システム装置
JP2006184315A (ja) * 2004-12-24 2006-07-13 Ricoh Co Ltd 画像形成装置及び画像形成方法
WO2008018363A1 (fr) * 2006-08-09 2008-02-14 Panasonic Corporation dispositif d'entraînement de capteur d'image
WO2018103736A1 (en) * 2016-12-09 2018-06-14 Beijing Horizon Information Technology Co., Ltd. Systems and methods for data management

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小池 誠彦, ほか: "ニューロコンピューティングのためのハードウェア", 電子情報通信学会論文誌, vol. 第J73-D-II巻, JPN6021007635, 31 July 1998 (1998-07-31), JP, ISSN: 0004458610 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11593070B2 (en) 2019-06-17 2023-02-28 Kabushiki Kaisha Toshiba Arithmetic device

Also Published As

Publication number Publication date
US20200019377A1 (en) 2020-01-16
JP6902000B2 (ja) 2021-07-14
US11163534B2 (en) 2021-11-02

Similar Documents

Publication Publication Date Title
Basu et al. Low-power, adaptive neuromorphic systems: Recent progress and future directions
Zhang et al. Neuro-inspired computing chips
Gokmen et al. Acceleration of deep neural network training with resistive cross-point devices: Design considerations
JP6995131B2 (ja) 抵抗型処理ユニットアレイ、抵抗型処理ユニットアレイを形成する方法およびヒステリシス動作のための方法
US11361216B2 (en) Neural network circuits having non-volatile synapse arrays
Long et al. ReRAM-based processing-in-memory architecture for recurrent neural network acceleration
Sun et al. Fully parallel RRAM synaptic array for implementing binary neural network with (+ 1,− 1) weights and (+ 1, 0) neurons
US11055608B2 (en) Convolutional neural network
Gokmen et al. Training LSTM networks with resistive cross-point devices
Zidan et al. Field-programmable crossbar array (FPCA) for reconfigurable computing
Luo et al. An FPGA-based hardware emulator for neuromorphic chip with RRAM
Kim et al. Efficient synapse memory structure for reconfigurable digital neuromorphic hardware
Zhang et al. An in-memory-computing DNN achieving 700 TOPS/W and 6 TOPS/mm 2 in 130-nm CMOS
KR102309013B1 (ko) 효율적인 음수 가중치 구현이 가능한 뉴로모픽 회로 시스템
CN111193511A (zh) 一种应用于基于eFlash存算一体电路的数模混合读取电路的设计
Chen et al. Partition SRAM and RRAM based synaptic arrays for neuro-inspired computing
Cho et al. An on-chip learning neuromorphic autoencoder with current-mode transposable memory read and virtual lookup table
Joo et al. Energy-and area-efficient CMOS synapse and neuron for spiking neural networks with STDP learning
CN110651330A (zh) 二分忆阻网络中的深度学习
Seo et al. Digital CMOS neuromorphic processor design featuring unsupervised online learning
Nikam et al. Long short-term memory implementation exploiting passive RRAM crossbar array
Rathi et al. Exploring spike-based learning for neuromorphic computing: Prospects and perspectives
CN112734022B (zh) 一种具有识别和排序功能的四字符忆阻神经网络电路
Yang et al. Essence: Exploiting structured stochastic gradient pruning for endurance-aware reram-based in-memory training systems
JP6902000B2 (ja) 演算装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210618

R151 Written notification of patent or utility model registration

Ref document number: 6902000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151