JP2020013172A - 電子回路およびそれを用いたニューラルネットワークの学習方法 - Google Patents

電子回路およびそれを用いたニューラルネットワークの学習方法 Download PDF

Info

Publication number
JP2020013172A
JP2020013172A JP2018132766A JP2018132766A JP2020013172A JP 2020013172 A JP2020013172 A JP 2020013172A JP 2018132766 A JP2018132766 A JP 2018132766A JP 2018132766 A JP2018132766 A JP 2018132766A JP 2020013172 A JP2020013172 A JP 2020013172A
Authority
JP
Japan
Prior art keywords
electrode
current
electronic circuit
neural network
quantum dot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018132766A
Other languages
English (en)
Other versions
JP6985993B2 (ja
Inventor
剛 新海
Go Shinkai
剛 新海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018132766A priority Critical patent/JP6985993B2/ja
Publication of JP2020013172A publication Critical patent/JP2020013172A/ja
Application granted granted Critical
Publication of JP6985993B2 publication Critical patent/JP6985993B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Semiconductor Memories (AREA)

Abstract

【課題】人工ニューラルネットワークの学習において,結合強度を効率的に特定することができる技術を提供することにある。【解決手段】量子ドット,静電容量部,電気抵抗部を備える電子回路である。この電子回路では,量子ドットは第1の電極,第2の電極,および第3の電極を備え,第1の電極は第1の電位に接続され,第2の電極は第1の電流源に接続され,第3の電極は第2の電流源に接続されている。そして,電気抵抗部に流れる電子あるいはホールの電流量を測定可能な構成となっている。【選択図】図1

Description

本発明は,人工知能あるいはその機械学習技術に関する。
従来,量子ドット(Quantum Dot,略してQD)という技術が知られている。例えば半導体において,結晶成長や微細加工により原子のド・ブロイ波長に相当する大きさの粒状の構造を作ると,電子はその領域に閉じこめられる。一般に,3次元全ての方向から電子またはホールを閉じ込めたものを量子ドットという(例えば非特許文献1)。
また,近年,人工知能の人工ニューロン,ニューラルネットワーク,機械学習といった技術が盛んに研究されている(例えば非特許文献2)。
非特許文献3は,後述の実施例で参照される電流ミラー素子に関する文献である。
M. Sugawara, "Self-Assembled InGaAs/GaAs Quantum Dots", Semiconductors and Semmimetals, Vol. 60 (1999). P. Smolensky, M. C. Mozer , D. E. Rumelhart, "Mathematical Perspectives on Neural Network," Lawrence Erlbaum Associates (1996). D. Nandi, A. D. K. Finck, J. P. Eisenstein, L. N. Pfeiffer and K. W. West," Exciton condensation and perfect Coulomb drag", Vol. 488, pp.481-.484 (2012).
人工知能は,脳の神経構造を参考にして人工ニューロンをネットワーク状に結合させたニューラルネットワークによって人間の知的能力のような機能をコンピュータ上で実現する技術である。人工知能によって,例えば,写真の被写体が猫か犬かを判別したり,音声から文字を書き起こしたりできる。こうした機能を発揮させるためには,予めニューラルネットワーク中の人工ニューロン間の結合強度を調整し,最適値に設定する必要がある。現在,人工ニューロン数は100万程度,人工ニューロン同士の結合の数は10億にも及ぶニューラルネットワークも実装されるようになってきているが,ニューラルネットワークの規模の増大に伴って,前述した結合強度の最適値探索(機械学習と呼ばれる)に要する時間が問題になっている。
この問題に対する解決アプローチとして,最適値探索のアルゴリズムの改良とハードウェアによる処理の並列化がある。前者には,遺伝的アルゴリズムを採用したものや最急降下法を用いた例が知られている。後者には,グラフィックスプロセッシングユニット(GPU)の様に並列処理を得意とするプロセッサを利用した並列計算が知られている。どちらも計算時間の短縮に関して一定の効果はあるが,ニューラルネットワークの規模に対する指数関数的な計算時間の増大する問題の解決には至っていない。
一般的に,ニューラルネットワークは,入力および結合強度から出力を求めることは容易である一方で,その一種の逆問題である入力と出力から結合強度を解析的に求めることは困難である。そのため,既存の機械学習では,所望の出力が得られるように結合強度の最適値を試行錯誤しながら探索せざるを得ない。このことがニューラルネットワークの規模に対する機械学習の所要時間の指数関数的増加の要因となっている。なお,バックプロパゲーションなどのアルゴリズムの改良によって,一定程度の高速化はなされているが,依然として指数関数的な問題の範疇にとどまっている(例えば非特許文献2)。
機械学習を,数学的手法のみで効率化を図るのはのは困難であると考えられるので,まったく別のアプローチでニューラルネットワークの結合強度の最適値を求める方法が期待される。
本発明が解決しようとする課題は,人工ニューラルネットワークの学習において,結合強度を効率的に特定することができる技術を提供することにある。
本発明の好ましい一側面は,量子ドット,静電容量部,電気抵抗部を備える電子回路である。この電子回路では,量子ドットは第1の電極,第2の電極,および第3の電極を備え,第1の電極は第1の電位に接続され,第2の電極は第1の電流源に接続され,第3の電極は第2の電流源に接続されている。そして,電気抵抗部に流れる電子あるいはホールの電流量を測定可能な構成となっている。
本発明の好ましい他の一側面は,量子ドット,静電容量部,電気抵抗部を備える電子回路を用いたニューラルネットワークの学習方法である。この電子回路では,量子ドットは第1の電極,第2の電極,および第3の電極を備え,第1の電極は第1の電位に接続され,電気抵抗部に流れる電子あるいはホールの電流量を測定可能な構成となっている。ニューラルネットワークの学習においては,第2の電極に接続した第1の電流源に教師データの問題に対応する電流値を設定する第1のステップ,第3の電極に接続した第2の電流源に教師データの解答に対応する電流値を設定する第2のステップ,電気抵抗部に流れる電子あるいはホールの電流量を測定する第3のステップ,電子回路に対応したニューラルネットワークを構成する第4のステップ,ニューラルネットワークの結合強度として,電流量に対応した値を設定する第5のステップ,を含む。
上記両側面において、より具体的かつ好ましい態様では、第1の電位から量子ドットを介して第1の電極と第2の電極に電子あるいはホールを安定して流し,量子ドットと第2の電極の間に流れる電子あるいはホールの電流量と,量子ドットと第3の電極の間に流れる電子あるいはホールの電流量とを,非線形の関係にする。
人工ニューラルネットワークの学習において,結合強度を効率的に特定することができる。
実施例1にかかるQD人工ニューロンの一例の回路図。 実施例1にかかるQD人工ニューロンの他の例の回路図。 実施例1にかかる解決原理を説明する模式図。 実施例1にかかる解決原理を説明するグラフ図。 実施例1にかかる効果を説明するグラフ図。 実施例1にかかる効果を説明するグラフ図。 実施例2にかかるQD人工ニューロンの一例の回路図。 実施例2にかかるQD人工ニューロンの他の例の回路図。 実施例2にかかる解決原理を説明するグラフ図。 実施例3にかかるQD人工ニューロンの一例の回路図。 実施例3にかかる人工ニューロンの模式図。 実施例3にかかるQD人工ニューロンの一例の回路図。 実施例3にかかるQD人工ニューロンの一例の回路図。 実施例3にかかるQD人工ニューロンの一例の回路図。 実施例3にかかる人工ニューロンの学習処理の流れを説明するフロー図。 実施例4にかかる入力と出力の関係を示すグラフ図。 実施例4にかかる効果を示すグラフ図。 実施例5にかかるQD人工ニューロンの一例の回路図。
上記した以外の課題、構成、および効果は、以下の実施形態の説明により明らかにされる。以下では実施の形態について、図面を用いて詳細に説明する。ただし、本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、重複する説明は省略することがある。
同一あるいは同様な機能を有する要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、複数の要素を区別する必要がない場合には、添字を省略して説明する場合がある。
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。
本願の発明者は,入力と出力を与えると自発的に結合強度を与えるような特別な人工ニューロン素子を作り,これによってニューラルネットワークを構成すれば,試行錯誤による探索なしで結合強度を求められるのではないかと構想した。この構想のためにエネルギー的に安定な状態になろうとする自然の力に従って与えた入力と出力の下で結合強度が自発的に適切な大きさになるような特別な人工ニューロンを考案した。なお,従来の一般的な人工ニューロン素子は,入力と結合強度に依存して出力を決定する方式であり,発明者の考案した人工ニューロン素子とは機能も使い方も異なる。
以下の実施例では,入力と出力を与えた時に自発的に結合強度が最適値となるような人工ニューロン素子を作ることと,これのネットワーク化手法について説明する。実施例においては,量子ドット(QD)の非線形電気伝導を利用する。量子ドットは典型的なサイズが数十ナノメートルの半導体あるいは金属の微小構造である。通常の導体が電圧と電流が比例するオーム抵抗性を持つのに対して量子ドットは,電圧に対して電流が比例しない非オーム抵抗性をもつ。
量子ドット,静電容量,電気抵抗,電源を組み合わせた構造あるいは構成(以下,QD人工ニューロンと呼ぶ)を利用すると,入力電流に対する出力電流の関係が非線形関数となるように入出力関係を設計できる。入出力関係がこの非線形関数から外れた条件では,静電容量の帯電エネルギーが不安定であるため,エネルギーの安定化作用によって,入出力関係が設計された非線形関数上に乗るように変化する。このとき,抵抗を介して外部へと電流を排出したり,逆に,外部から電流を供給したりする流れが自発的に発生する。この電流は,人工ニューロンの結合強度に対応づけることができるので,電流を測ることで入出力に応じた最適な結合強度を知ることができる。
QD人工ニューロンを構成要素とするニューラルネットワークには,電流源,電流計,および電流ミラー効果を有する構造あるいは素子(例えば非特許文献3)を設けた回路を構成する。電流源に電流を流した時に回路に流れる電流を測定し,そこからネットワークの結合強度を得ることができる。
実施例1では,量子ドットを利用した最小規模の人工ニューロンの構成,原理そして結果を記述する。まず,実施例1の構成を記述する。
図1は,QD人工ニューロンの基本的な回路構成例を示した図である。QD人工ニューロンの構成要素は,量子ドット001,電気抵抗002,静電容量003,電位004,電流計008,009,電流源010,011である。量子ドット001は,例えば非特許文献1などの公知の方法で実現する。量子ドット001を含め,図1に示すような回路構成は,半導体プロセスを適用して作成することができる。
量子ドットの特徴は,ナノスケールの空間領域を持つこと,トンネル効果によって空間領域を出入りできること,量子ドットと外部との間の電子の出入りを制御できることである。この特徴を利用して多様な電気特性を設計することができる。量子ドットは,例えば,化合物半導体を用いることで作られる。
例えば,AlGaAsとGaAsの2種類の化合物半導体層の積層構造において,AlGaAsにSiをドープするとAlGaAsとGaAsの境界に2次元電子ガスと呼ばれる伝導電子が蓄積した層が形成される。この電子は,x,y面内は伝導することができるが,z方向には伝導できない。すなわち,電子はz方向に閉じ込められている。またAlGaAs/GaAs積層構造の表面に設けたゲート電極に負電圧を印可すると,2次元電子ガス層面内でゲート電極直下付近に静電ポテンシャルの壁を作ることができる。これによってx,y方向の閉じ込めが可能となる。電子が閉じ込められた静電ポテンシャルのくぼ地が量子ドットに対応する。量子ドットの外側に広がる電子の存在領域は,量子ドットの電気的な端子として働く。
静電容量003は,設計事項であり,寄生容量を含んでも良い。同様に抵抗002も設計事項である。電気抵抗は,チップ抵抗などの集積部品だけでなく,公知の半導体プロセスによる,量子細線や量子ポイントコンタクトといった構造や形状に由来する抵抗性も想定している。また,電極005,006,007は,それぞれ,電流源010,電流源011,電位004に接続されている。電極005,006,007は,たとえば上述の量子ドットの外側に広がる2次元電子ガスであってもよく,物理的な電極構造の有無を問わない。
図2は,QD人工ニューロンの他の回路構成例を示した図である。図1の電流計008,009に代えて,電気抵抗と電圧計を並列接続した組み合わせによる電流計012,013で間接的に電流を測定する。
電位004は,電極007の電位を時間に対して一定に保っていることを示しているに過ぎず,必ずしも電圧源と量子ドットの近接関係を示しているわけではない。電流源010,011や電流計008,009や電圧計は,単に接続関係を図示したに過ぎず,量子ドット001の近傍に存在するとは限らない。
電流源010,電流源011,電気抵抗002や静電容量003が接続されているグラウンド019−1〜019−3,1900は基準の電位を意味し,必ずしも大地の電位ではなくとも本実施例の想定内である。また,それぞれが異なった電位でもよい。電流源010,011は,時間的に対して一定な使い方だけでなく,変動する使い方をすることも本実施例の想定内である。また,本実施例はミニマムの構成要件のみを記載しているので,図1あるいは図2の回路に対して電気抵抗,静電容量,インダクタンス,電流計,電圧計等の回路要素を付け加えた場合や電位の測定により電流を推定する手段をとる場合も本実施例の想定内である。
図1や図2等の構成において,図示された構成全てを半導体装置として例えば1つの半導体チップで構成してもよい。あるいは,量子ドット001,電極005〜007,抵抗や容量の一部または全部を半導体装置で構成し,電流源010,011や電流計008,009,012,013等は半導体装置外の別装置とし、半導体装置に設けた端子を介して測定してもよい。
次に,QD人工ニューロンの動作と結合強度が特定される原理を記述する。図1や図2に示したように,量子ドット001は,3つの電極005,006,007を持つ。発明者は,量子ドットのトンネル障壁の厚みや電源の電圧を適切に調整すると,静電容量003の帯電エネルギーUが,図1および図2の電流iinと出力電流Iout(=iout)が特定の条件で最小となるような,エネルギーの谷構造を設計できることを見出した。
調整手法の一例を挙げると,図1において量子ドット001と電極007とのトンネル障壁の厚みを,量子ドット001と電極005,電極006とのトンネル障壁の厚みに比べて十分薄くする。また,電位004に関しては電極005や006の電圧に比べて十分に負あるいは正(量子ドットに閉じ込めるのが電子かホールかによって符号が反転する)とする。
調整を行なうことにより,図1の回路構成で,電位004から量子ドット001を介して電極005と006に電子あるいはホールを安定して流し,電流iinと電流ioutの関係を非線形関数にすることができる。非線形関数の例としては,後に示す図4のような関係である。量子ドットにより実現される非線形関数は,人工ニューロンのノードにおける活性化関数に対応づけることができる。
図3は,当該エネルギーの谷構造を示す概念図である。発明者の研究によると,図3においてエネルギー最小(谷底301)となる条件は,図1あるいは図2の電流iinと出力電流Iout(=iout)が式1を満たすときである。
Figure 2020013172
ここでe=+−1.602×10−19クーロン(正負は電子,ホールの別による)は電気素量,Γは量子ドット001と電極005,006の間の障壁に着目したときに,その障壁を電子あるいはホールが1秒間にトンネルできる平均の回数である。なお,調整方法の一例として挙げたように,量子ドット001と電極007とのトンネル障壁の厚みを,量子ドット001と電極005,電極006とのトンネル障壁の厚みに比べて十分薄くした場合,量子ドット001と電極007との間で電荷が1秒間にトンネルできる平均の回数は上記Γの約100倍以上になる。
ところで,電流の保存則からIin=iin+diだから,式1は式2の様にも書くこともできる。
Figure 2020013172
図4は,QD人工ニューロンの入力電流Iin(iin)と出力電流Ioutを定めた時の,エネルギー的に安定な状態に至る過程を説明するための図であり,図中の曲線401は図3のエネルギーの谷構造を上方から見た時の谷底301に相当する。黒い丸印は,t=0の状態,白い丸印はt>>0の状態を表している。時刻t=0でdi=0とすると,iin=Iinである。一般に,iin=Iinは式1で示す安定の条件は満たさないので,エネルギー的に不安定な状態となる。そこで,diの電流が流れることで,式1を満たすようにQD人工ニューロンが自発的にiinを調整する作用が働く。
ところで,人工ニューロンの入出力関係は,一般に式3のように記述される。
Figure 2020013172
ここで、xは入力,yは出力,wは結合強度,hは非線形関数を表す。式3は,dx=(w−1)xによって,y=h(x+dx)とも書き直すことができる。従って式2は式3をx→Iin,dx→−diと読み替えたものである。以上の通り,QD人工ニューロンは,人工ニューロンとして働き,その結合強度wは,電流diによって知ることができる。
図5を参照して,上記の原理をシミュレーションで確認した結果を記す。図5は,QD人工ニューロンに様々な入力電流IinとIoutを与えたときに,一定時間経過後に測定した(iin,Iout)をiin−Ioutグラフ上にプロットしたものである。全ての点が原理で予想した式1で示す理論線上に乗っていることを確認できる。この結果は逆に,(iin,Iout)が式1の条件上に乗るようにdiが自発的に調整する働きをしていることも意味している。
図5のシミュレーションでは,説明を簡単にするために,図1や図2の抵抗002の値Rが十分に小さな場合としていた。
図6には,Rを十分に大きくした場合のシミュレーション結果を示す。図6では,Γ=10Hz,R=10Ωの条件でシミュレーションをしている。図5のシミュレーションとの違いは,安定になる条件(iin,Iout)が入力電流Iinに依存することである。シミュレーションによれば,全体的にIinに依存してiin軸方向にシフトする結果となっている。シミュレーションの結果をもとにすると,式1は式4の様に修正される。
Figure 2020013172
kやδsftは,Rに依存するパラメータである。なお,本実施例で用いる量子ドットは,従来公知の手法で実現するものとする。実現方法は例えば,先に述べた半導体積層構造を用いるもの,非特許文献1に記されている自己形成によるものなど種々のものが知られている。本実施例において量子ドットの実現方法は特に限定する必要はない。また,上記においてキャリアは電子だけでなくホールも想定している。図3〜図6は,電子の動く方向を電流の正の流れと定義して表示している。
実施例2では,QD人工ニューロンの別の構成を記述する。図7と図8はそれぞれ図1と図2の一部の配置を変更したものである。
図7は図1の構成と比較して,電流計008を出力側に配置して,電流dibを測定するものである。
図8は図2の構成と比較して,電気抵抗と電圧計を並列接続した組み合わせ012を出力側に配置して,電流dibを測定するものである。
図9は,図7と図8の場合においてQD人工ニューロンの入力電流iinと出力電流Iout(iout)を定めた時の,エネルギー的に安定な状態に至る過程を説明するための図であり,図中の曲線901はエネルギーの谷底に相当する。黒い丸印は,t=0の状態,白い丸印はt>>0の状態を表している。図7や図8の構成でも,図9に示すように,自発的に電流diの調節がなされて,安定状態に至る。このとき,安定する電流状態は,式5の通り記述できる。
Figure 2020013172
自発的に電流diの調節がなされて,安定状態に至るという点では,実施例1と同様であり,人工ニューロンとして用いることができる。
実施例3では,実施例1や実施例2で説明したQD人工ニューロンを利用した,ニューラルネットワークの例を記す。
図10は,QD人工ニューロンを構成要素とするニューラルネットワークの一例を示している。電流源101〜104は,時間に対して一定あるいは変動する電流源を表している。抵抗002,105〜108,113〜116は,チップ抵抗などの集積部品だけでなく,固体中で電子の動きを1次元方向に拘束するいわゆる量子細線や導体の間に挟まれた狭いくびれで,幅が電子波長と同程度であるいわゆる量子ポイントコンタクトといった構造や形状に由来する抵抗性も想定している。電流計109〜112,117〜120は,図2のように抵抗と電圧計の組み合わせで構成したものも含む。電流計の配置は一例であって,この構成に限るものではないが,抵抗002に流れる電流値を求められることが望ましい。
点線で囲まれる部分は電流ミラー素子(それと等価な働きをする電流ミラー構造の概念を含む。以下同様)121−1,121−2をあらわしている。これは,一方に電流が流れるとそれと同じだけの電流がもう一方にも電流が流れることを特徴とする素子(あるいは構造)である。すなわち,対称に構成された回路に電子またはホール1000が対称的に流れる。実験による例として,非特許文献3などがある。
斜線を施したブロックは,QD人工ニューロン123〜126を示しており,図1での電流源010,011,電流計008,009,電気抵抗002を除いた部分をブラックボックスとして表示している。QD人工ニューロン123〜126は,図1などに示したように,電気抵抗002を介して基準電位1900に接続される。複数の基準電位1900は必ずしも同一電位である必要はない。
図10で,QD人工ニューロン123,125および124,126の間に電流ミラー素子121−1,121−2を配置した理由は次のようなものである。図1に示したQD人工ニューロンでは,電位004に接続された電極007から量子ドット001へ流れ込んだ電子あるいはホールが,電極005,006へと抜けていく構成になっている。そのため,量子ドット001の入力側と出力側で電流の向きが逆になる。このため,QD人工ニューロンを多段にしてネットワーク化をする際に,構成が複雑になるのを避けるため,電流ミラー素子121で電流の向きを反転させ,電流源010から電流源011へ一方向に電流が流れるようにしている。
図11には一般的に知られている,2層のニューラルネットワークの模式図を示す。周知のようにニューラルネットワークでは,人工ニューロン1100の入力が複数あるとき,各入力と結合強度の積の総和が人工ニューロンの入力xとなり,非線形関数σ(x)が出力となる。
図10の構成は,図11のニューラルネットワークと対応させることができる。ニューラルネットワークにおいて人工ニューロン1100の数および接続関係は,千差万別であり,図10,図11はその一例に過ぎない。図10,図11に示した構成において,並列数を増やすことにより入力数を増やすことができる。また、直列数を増やすことにより階層数を増やすことができる。並列,直列の接続関係が図10と同様であるニューラルネットワークはすべて実施例3の想定内である。最後に,QD人工ニューロンを構成要素とするニューラルネットワークで機械学習が可能であることを示すために,一例を挙げる。
図12は,8つのQD人工ニューロン203−1〜203−8を構成要素とする2入力6層のニューラルネットワークである。電流源201と電流源202の間に,QD人工ニューロン203−1〜203−8が配置される。QD人工ニューロン203は,図1において電流源010,011,電流計009,抵抗002を除いた部分に相当するものである。各QD人工ニューロン203は,図1や図10と同様,電気抵抗002を介して基準電位1900に接続される。各層のQD人工ニューロン203の間には,電流ミラー素子121が配置される。
機械学習のフローは,まず,このニューラルネットワークの入力電流iinおよび出力電流Ioutに電流を流すことから始める。iinとIoutは,時間的に変動する場合も想定しているが,ここでは説明を簡単にするためにIin=−15pA,Iout=5pAとした。このように電流を流し始めるとネットワーク内の各経路にも電流が流れ始める。そうした電流量は,最終的には,図4や図9で説明した通り,各QD人工ニューロンの帯電エネルギーが最小になる条件で安定化する。
図13は,図12に示した回路において,充分時間が経過した後の各経路の電流量を示している。どの程度の時間で安定状態に至るかは電気抵抗や静電容量の設計次第であるが,1マイクロ秒でも安定状態に至らせることは可能であるし,設計次第ではそれより短い時間で安定状態に至らせることも可能である。安定状態に至ったときの各経路の電流を,図13中の矢印に対応付けて示した。図13中の矢印に添えられた数字は電流量を,矢印は電流の正の方向を表している。
最後に,各電流量を記録する。特に重要な電流量は,図12のdif1〜dif8の電流量である。dif1〜dif8の電流は,QD人工ニューロンと基準電位1900の間に流れる電流である。各基準電位1900は必ずしも同電位でなくてもよい。機械学習としては以上である。ニューラルネットワークの動作時には,記録したdif1〜dif8の電流を設定すると,所望の入力に対して所望の出力が得られる。
最後に,機械学習ができていることを確かめるために,図12のニューラルネットワークのモデルに電流値を設定して,Iin=−15pAを入力したときに,所望のIout=5pAが得られるかを確かめる。図12のニューラルネットワークのモデルとは,具体的には式6〜式13で表現される数式モデルである。式6〜式13から分かるように,各QD人工ニューロンはニューラルネットワークのノードに相当し,入力に対するノードの出力は電流値dif1〜dif8で決まる。よって,ノード間の結合強度(重み)は電流値dif1〜dif8に対応しているといえる。
Figure 2020013172
Figure 2020013172
Figure 2020013172
Figure 2020013172
Figure 2020013172
Figure 2020013172
Figure 2020013172
Figure 2020013172
ここで,
Figure 2020013172
であり,δは補正係数である。このケースでは,k=3,η=0.68,δ=0.08pAである。式6〜式13を連鎖的に計算すると,IinからIoutが求められる。このとき,変数であるdif1〜dif8には,図13で示したQD人工ニューロンのニューラルネットワークで測定した電流量を設定する。
実際に計算してみると,Iin=−15pAのときに,所望のIout=5pAに対して,Iout=4.91pAが得られ,QD人工ニューロンのニューラルネットワークで機械学習ができていたことが確かめられる。
図14には,式6〜式13に基づいて計算した各経路の電流量を示している。その他の電流値は図13と同じである。図14を図13と比較すると最終的な出力だけでなく,中間の電流まで,良く再現できている。
上記の機械学習において最も強調すべき点は,バックプロパゲーションなどの既存の機械学習では,結合強度の最適値を試行錯誤しながら探索しなければならないが,本実施例の機械学習は試行錯誤による最適地探索ではなく,単にエネルギー的に安定になる状態になるまで待つだけという点である。機械学習がニューラルネットワークの規模に対して指数関数的に増大する問題は試行錯誤による探索に起因しているので,本実施例の機械学習を用いればこれを回避することができ,機械学習の質的な高速化が見込める。
図15に,以上の機械学習の流れをまとめた。本実施例による人工ニューラルネットワークの学習は,2つの段階を経て行なわれる。第1段階1501は,図10や図12に示したQD人工ニューロンを用いたデバイスによる処理である。第1段階1501の処理においては,先ず,QD人工ニューロンにおいて,所望の入力データおよび出力データを,QD人工ニューロンに与える電流値Iin,Ioutとして設定する(S1502)。一般には入力データは教師データの問題に,出力データは教師データの解答に対応する。
次に,QD人工ニューロンの各部を流れる電流値が安定した後,電流値difあるいはdibを読み取る(S1503)。電流値difあるいはdibは,人工ニューラルネットワークに設定されるパラメータとして別途記録される。なお,第1段階は後述のように、計算機を用いたシミュレーターで代用することもできる。
第2段階1504は,問題を処理させるべくプログラムされた人工ニューラルネットワークに対する処理である。人工ニューラルネットワークは,図10や図12に示した回路を模してソフトウェア的に構成することができる。また,図11に示した人工ニューラルネットワークは,たとえばFPGA(Field-Programmable Gate Array)のようなハードウェアに実装できることが知られている。人工ニューラルネットワークの具体的な構成は,公知技術を踏襲してよい。
第2段階1504においては,ソフトウェアあるいはハードウェアで構成した人工ニューラルネットワークのパラメータとして,第1段階1501で記録した電流値difあるいはdibを設定することにより,結合強度の学習が行なわれる。
実施例1の学習の説明では,原理説明のため電流値Iin,Ioutを一定に設定したときの処理を例に説明した。しかし,ニューラルネットワークに学習させる教師データは複数あるのが一般的である。教師データが多数ある場合は,Iin,Ioutの電流量を時間的に変化させることで対応が可能である。具体的には,例えば図10の電流源101〜104を,時間に対して変動する電流源として用い,教師データの問題と回答に対応する複数のIin,Ioutの電流量を一定時間ごとに切り替える。
このように動作させると,QD人工ニューロンの帯電エネルギーは時間に対して変化する。このようにエネルギー(ポテンシャル)を時間に対して変調する例としてはイオントラップが挙げられる。イオントラップにおいては,時間的に変調するポテンシャルに対してイオンはその平均であるポテンシャルに従って動き,ポテンシャルにくぼみがあればそこにトラップされることが知られている。同様に,QD人工ニューロンの場合も,入出力を繰り返し変調したならば,帯電エネルギーはその平均が最小になるように振る舞うはずである。
したがって,教師データが多数ある場合は,多数組のIin,Ioutの電流量を一定時間ごとに切り替え,所定時間の後dif1〜dif8の値が安定することをもって、学習終了とすればよい。
図16は,複数の教師データを扱うために,IinとIoutに時間的変化を与えた例を示す概念図である。この例では,解答であるIoutを一定とし,問題であるIinを0からHまで変調させ,それを複数回繰り返す単純なモデルを扱っている。Iinの変調のため,例えば図12中の電流源201を変調させる。
図17は,図16の入出力を与えたときに,初期の状態と充分に時間が経過した時点の状態をシミュレーションした結果を示す概念図である。横軸がiin,縦軸がIout
であり,安定条件を線1700で示している。曲線の向きが異なるが,これは図4〜図6のグラフと同様のものである。グラフ中の複数の丸印は回路中のQD人工ニューロンの電流値(図12であればdif1〜dif8)を示す。
初期の状態である(a)では,QD人工ニューロンの電流値は安定状態である線1700には収束していない。しかし,時間経過とともに「学習」が進み,充分な待機時間の後に測定した電流値は,安定条件である線1700に収束することがわかる。
従って,複数の教師データがある場合には,それに応じて入力Iinおよび出力Ioutの少なくとも一つを変調させることを複数回繰り返し,所定時間の経過を待って電流値を測定すればよい。
図10に示したように,実施例3ではQD人工ニューロン同士を,電流ミラー素子121を配置して組み合わせており,キャリアは例えば電流ミラー素子121の接地電位に流れている。それに対して,実施例5では電流ミラー素子を配置しない例を説明する。
図18は,実施例5の基本的な構造を示す図である。図18の通りニューラルネットワークをホール(または電子)1001をキャリアとする回路部1601と,電子(またはホール)1002をキャリアとする回路部1602を組み合わせて構成する。図18に示すように電子1002とホール1001は互いに逆の方向に伝搬あるいは伝導するので,図10中に示す電流ミラー素子121と同様のキャリアの動きを作り出すことができる。なお,ホール1001と電子1002は,回路部1601と回路部1602の境界で再結合により消滅する。
なお,図18はホールをキャリアとする回路部1601と電子をキャリアとする回路部1602を組み合わせて構成するニューラルネットワークの一例を描いたものに過ぎない。ホールをキャリアとする回路部1601と電子をキャリアとする回路部1602をどのように構成するかは設計事項に過ぎない。
実施例1〜4のデバイスあるいは回路のビヘイビア(ふるまい)をシミュレーションすることもできる。すなわち、図12等の電子回路に代えて,電子回路の動作を計算機上でシミュレーションするシミュレーターを用い,電流量の計算をシミュレーター上で行うことができる。そのような場合も,前述の実施例のアイディアに基づき,同様の効果が期待できるので,実施例の1つとして含まれる。
従来のコンピュータ上での機械学習は,互いに非独立な結合強度を1つずつ調整しながら,所望の出力が得られるまでトライ&エラーを繰り返しながら探索する必要があり,そのことによって非効率かつ結合強度の数に対して計算時間が指数関数的に増大する問題があった。それに対して,以上詳細に説明した実施例によれば,QDニューラルネットワークを利用することにより,より短時間での学習が可能となる。すなわち,QDニューラルネットワークでは,結合強度の最適化に相当するQD人工ニューロン同士の接続点における電流の過不足の調整は自発的かつすべてのQD人工ニューロンで同時並行に行われるため,結合強度を試行錯誤無しに効率的に特定することができる。
001・・・量子ドット
002・・・電気抵抗
003・・・静電容量
004・・・電位
005,006,007・・・電極
008,009・・・電流計
010,011・・・電流源
012,013・・・電流計
101,102,103,104・・・電流源
121・・・電流ミラー構造または素子

Claims (15)

  1. 量子ドット,静電容量部,電気抵抗部を備え,
    前記量子ドットは第1の電極,第2の電極,および第3の電極を備え,
    前記第1の電極は第1の電位に接続され,
    前記第2の電極は第1の電流源に接続され,
    前記第3の電極は第2の電流源に接続され,
    前記電気抵抗部に流れる電子あるいはホールの電流量を測定可能な,
    電子回路。
  2. 前記第1の電位から前記量子ドットを介して前記第1の電極と前記第2の電極に電子あるいはホールを安定して流し,
    前記量子ドットと前記第2の電極の間に流れる電子あるいはホールの電流量と,前記量子ドットと前記第3の電極の間に流れる電子あるいはホールの電流量とが,非線形の関係にある,
    請求項1記載の電子回路。
  3. 前記量子ドットと前記第1の電極の間のトンネルレートは,前記量子ドットと前記第2の電極の間のトンネルレートおよび前記量子ドットと前記第3の電極の間のトンネルレートより大きい,
    請求項1記載の電子回路。
  4. 前記第2の電極と前記第1の電流源の間の経路に並列に,前記静電容量部および前記電気抵抗部が配置される,
    請求項1記載の電子回路。
  5. 前記第2の電極と前記第1の電流源の間の経路に並列に,前記静電容量部が配置され,前記第3の電極と前記第2の電流源の間の経路に並列に,前記電気抵抗部が配置される,
    請求項1記載の電子回路。
  6. 第2の量子ドット,第2の静電容量部,第2の電気抵抗部をさらに備え,
    前記第2の量子ドットは第3の電極,第4の電極,および第5の電極を備え,
    前記第3の電極は第2の電位に接続され,
    前記第4の電極は前記第3の電極に接続され,
    前記第5の電極は前記第2の電流源に接続され,
    前記第4の電極と前記第3の電極の間に電流ミラー素子を配置して,ネットワーク構成とした,
    請求項1記載の電子回路。
  7. 第2の量子ドット,第2の静電容量部,第2の電気抵抗部をさらに備え,
    前記第2の量子ドットは第3の電極,第4の電極,および第5の電極を備え,
    前記第3の電極は第2の電位に接続され,
    前記第4の電極は前記第3の電極に接続され,
    前記第5の電極は前記第2の電流源に接続され,
    前記量子ドット,静電容量部,電気抵抗部に流れるキャリアを電子(またはホール)とし,前記第2の量子ドット,第2の静電容量部,第2の電気抵抗部に流れるキャリアをホール(または電子)として,ネットワーク構成とした,
    請求項1記載の電子回路。
  8. 前記第1の電流源および前記第2の電流源の少なくとも一つを時間的に変調させる,
    請求項1記載の電子回路。
  9. 量子ドット,静電容量部,電気抵抗部を備え,
    前記量子ドットは第1の電極,第2の電極,および第3の電極を備え,
    前記第1の電極は第1の電位に接続され,
    前記電気抵抗部に流れる電子あるいはホールの電流量を測定可能な,
    電子回路,
    を用いたニューラルネットワークの学習方法であって,
    前記第2の電極に接続した第1の電流源に教師データの問題に対応する電流値を設定する第1のステップ,
    前記第3の電極に接続した第2の電流源に教師データの解答に対応する電流値を設定する第2のステップ,
    前記電気抵抗部に流れる電子あるいはホールの電流量を測定する第3のステップ,
    前記電子回路に対応したニューラルネットワークを構成する第4のステップ,
    前記ニューラルネットワークの結合強度として,前記電流量に対応した値を設定する第5のステップ,
    を含むニューラルネットワークの学習方法。
  10. 前記電子回路を複数準備し,
    前記第2の電極および前記第3の電極を接続することにより多段構成とし,
    初段の電子回路の前記第2の電極に前記第1の電流源を接続し,
    終段の電子回路の前記第3の電極に前記第2の電流源を接続し,
    前記第2の電極および前記第3の電極の間には電流ミラー素子を配置し,
    前記第3のステップでは,各段を構成する前記電子回路の前記電気抵抗部に流れる電流量を測定し,
    前記第4のステップでは,前記ニューラルネットワークとして,多層ニューラルネットワークを構成し,
    前記第5のステップでは,前記多層ニューラルネットワークの各層の結合強度として,前記各段を構成する前記電子回路の前記電気抵抗部に流れる電流量に対応した値を設定する,
    請求項9記載のニューラルネットワークの学習方法。
  11. 前記電子回路を複数準備し,
    前記第2の電極および前記第3の電極を接続することにより多段構成とし,
    初段の電子回路の前記第2の電極に前記第1の電流源を接続し,
    終段の電子回路の前記第3の電極に前記第2の電流源を接続し,
    前記多段構成の前記電子回路のキャリアは,電子とホールを交互に用いる構成とし,
    前記第3のステップでは,各段を構成する前記電子回路の前記電気抵抗部に流れる電流量を測定し,
    前記第4のステップでは,前記ニューラルネットワークとして,多層ニューラルネットワークを構成し,
    前記第5のステップでは,前記多層ニューラルネットワークの各層の結合強度として,前記各段を構成する前記電子回路の前記電気抵抗部に流れる電流量に対応した値を設定する,
    請求項9記載のニューラルネットワークの学習方法。
  12. 前記電気抵抗部は,前記第2の電極と前記第1の電流源の間の経路と所定電位の間,および,前記第3の電極と前記第2の電流源の間の経路と所定電位の間の少なくとも一つに配置される,
    請求項9記載のニューラルネットワークの学習方法。
  13. 前記電子回路に代えて,前記電子回路の動作を計算機上でシミュレーションするシミュレーターを用い,前記第1ないし第3のステップを前記シミュレーター上で行う,
    請求項9記載のニューラルネットワークの学習方法。
  14. 前記量子ドットと前記第1の電極の間のトンネルレートは,前記量子ドットと前記第2の電極の間のトンネルレートおよび前記量子ドットと前記第3の電極の間のトンネルレートより大きい,
    請求項9記載のニューラルネットワークの学習方法。
  15. 前記教師データとして,複数の問題と解答の組を用いる際に,
    前記第1の電流源に設定する電流値を変調させ,前記変調を複数回繰り返し,所定の時間の後に,前記第3のステップを行なう,
    請求項9記載のニューラルネットワークの学習方法。
JP2018132766A 2018-07-13 2018-07-13 電子回路およびそれを用いたニューラルネットワークの学習方法 Active JP6985993B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018132766A JP6985993B2 (ja) 2018-07-13 2018-07-13 電子回路およびそれを用いたニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018132766A JP6985993B2 (ja) 2018-07-13 2018-07-13 電子回路およびそれを用いたニューラルネットワークの学習方法

Publications (2)

Publication Number Publication Date
JP2020013172A true JP2020013172A (ja) 2020-01-23
JP6985993B2 JP6985993B2 (ja) 2021-12-22

Family

ID=69170609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018132766A Active JP6985993B2 (ja) 2018-07-13 2018-07-13 電子回路およびそれを用いたニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JP6985993B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001313386A (ja) * 2000-04-28 2001-11-09 Japan Science & Technology Corp 情報処理構造体
JP2009002939A (ja) * 2007-05-18 2009-01-08 Mitsubishi Kagaku Iatron Inc アンペロメトリック型バイオセンサ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001313386A (ja) * 2000-04-28 2001-11-09 Japan Science & Technology Corp 情報処理構造体
US20020134996A1 (en) * 2000-04-28 2002-09-26 Takashi Morie Information processing structures
JP2009002939A (ja) * 2007-05-18 2009-01-08 Mitsubishi Kagaku Iatron Inc アンペロメトリック型バイオセンサ

Also Published As

Publication number Publication date
JP6985993B2 (ja) 2021-12-22

Similar Documents

Publication Publication Date Title
Milano et al. In materia reservoir computing with a fully memristive architecture based on self-organizing nanowire networks
Kim et al. Silicon synaptic transistor for hardware-based spiking neural network and neuromorphic system
Erokhin et al. Bio-inspired adaptive networks based on organic memristors
González-Cordero et al. Analysis of resistive switching processes in TiN/Ti/HfO2/W devices to mimic electronic synapses in neuromorphic circuits
Miranda et al. Modeling of short-term synaptic plasticity effects in ZnO nanowire-based memristors using a potentiation-depression rate balance equation
JP6985993B2 (ja) 電子回路およびそれを用いたニューラルネットワークの学習方法
Koch et al. Adversarial Hamiltonian learning of quantum dots in a minimal Kitaev chain
US20210334689A1 (en) Optimizing qubit operating frequencies
Türel et al. Architectures for nanoelectronic implementation of artificial neural networks: new results
Afifi et al. CMOL implementation of spiking neurons and spike‐timing dependent plasticity
Tsakalos et al. Protein structured reservoir computing for spike-based pattern recognition
Jonckheere et al. Structured singular value analysis for spintronics network information transfer control
WO2022117127A2 (zh) 一种基于深度代理模型的工程叉车多目标性能优化方法
Ababneh et al. Simple model for quantum-dot semiconductor optical amplifiers using artificial neural networks
US20210158159A1 (en) Electronic circuit, neural network, and neural network learning method
Fahrner et al. Collective interaction in ion track electronics
Yin et al. Interpolating self-organising map (iSOM)
JP2021197032A (ja) 制御装置、方法及びプログラム
Beretta Study of Field-Coupled Nanocomputing based on molecules for neural systems
CN116563616B (zh) 一种基于神经网络的图像识别方法、计算机设备及介质
Yamahata et al. Electron transport through silicon serial triple quantum dots
EP3798914B1 (en) Artificial synapse
JP5187804B2 (ja) 垂直・水平プロセッサ
Frick Neuromorphic Computing with Self-Assembled Resistive Switching Nanocomposites
Morie et al. A 2-dimensional Si nanodisk array structure for spiking neuron models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211126

R150 Certificate of patent or registration of utility model

Ref document number: 6985993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150