JP6901163B2 - 重み符号固定学習装置 - Google Patents

重み符号固定学習装置 Download PDF

Info

Publication number
JP6901163B2
JP6901163B2 JP2019505784A JP2019505784A JP6901163B2 JP 6901163 B2 JP6901163 B2 JP 6901163B2 JP 2019505784 A JP2019505784 A JP 2019505784A JP 2019505784 A JP2019505784 A JP 2019505784A JP 6901163 B2 JP6901163 B2 JP 6901163B2
Authority
JP
Japan
Prior art keywords
voltage line
neuron
positive
negative
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019505784A
Other languages
English (en)
Other versions
JPWO2018168293A1 (ja
Inventor
哲也 浅井
哲也 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Original Assignee
Hokkaido University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC filed Critical Hokkaido University NUC
Publication of JPWO2018168293A1 publication Critical patent/JPWO2018168293A1/ja
Application granted granted Critical
Publication of JP6901163B2 publication Critical patent/JP6901163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、ニューラルネットワーク回路を備えた重み符号固定学習装置の技術分野に属し、より詳細には、脳機能に対応するアナログ型のニューラルネットワーク回路を備えた自己学習型の重み符号固定学習装置の技術分野に属する。
近年、人の脳機能に対応したニューラルネットワーク回路を用いた深層学習機能(いわゆるディープラーニング機能)に関連する研究開発が盛んに行われている。このとき、ニューラルネットワーク回路を具体的に実現する場合には、デジタル回路が用いられる場合とアナログ回路が用いられる場合とがある。ここで、前者は処理能力としては高いが大規模なハードウェア構成が必要となると共に消費電力が大きくなるため、例えばデータセンタ等において用いられる。これに対して後者は、処理能力はデジタル回路が用いられる場合より劣るものの、ハードウェア構成としての最小化及び消費電力の低減が期待できるため、例えば上記データセンタ等に接続される端末装置用として利用されることが多い。そして、後者に関する先行技術としては、例えば下記特許文献1に開示されている技術が挙げられる。
この特許文献1には、アナログ回路により構成された(即ちアナログ型の)ニューラルネットワーク回路であって、入力側のニューロンの全てと出力側のニューロンの全てとを、それぞれの重み付けに対応した抵抗値を有する接続部により一対一に接続する、深層学習用のいわゆる全結合(FC(Full Connection))型ニューラルネットワーク回路が開示されている。この場合の重み付けとは、当該ニューラルネットワーク回路が対応すべき脳機能に対応した重み付けであり、特許文献1に開示されているニューラルネットワーク回路では、各接続部の抵抗値を可変抵抗素子により構成することで当該重み付けに対応させている。このようなFC型ニューラルネットワーク回路は、例えば近傍結合型等の他の形式のニューラルネットワーク回路や、より大規模なニューラルネットワーク回路の一部として活用できるため、それ自体の更なる処理能力の向上と共に、回路規模(占有面積)の縮小化が望まれる。
特開2009−282782号公報(第1図、第3図等)
ここで、上記ニューラルネットワーク回路の機能を脳機能により近付けるためには、一般に、上記重み付けとして、正の重み付けに加えて負の重み付けを用いることが必要となる。一方、上記接続部としての抵抗値は、各接続部において一定(即ち抵抗値固定式)である。よって、このような接続部により上記正の重み付けと負の重み付けとを共に実現しようとすると、入力側の一ニューロンに対応する入力データに相当する入力信号を、絶対値が等しい正の入力信号と負の入力信号とに分け、同じ抵抗値を有する二つの抵抗にこれら二つの入力信号を選択的に入力する構成とする必要がある。このとき、上記「選択的に入力する」とは、正の重み付けを実現する場合には正の入力信号のみを入力し、負の重み付けを実現する場合には負の入力信号のみを入力することを意味する。なお、正の重み付けを実現する場合には、結果的に負の入力信号用の抵抗は使用されないことになり、また負の重み付けを実現する場合には、結果的に正の入力信号用の提供は使用されないことになるが、正の重み付けを実現するか負の重み付けを実現するかは、対応させる脳機能によりニューラルネットワーク回路ごとに異なるため、回路としての汎用性を実現するためには、入力側の一のニューロンと出力側の一のニューロンとを接続する一の接続部ごとに上記二つの抵抗を予め造っておく必要がある。そしてこの場合には、当該二つの抵抗により一つの接続部が構成されることから、接続部としての回路規模(占有面積)が結果として二倍となってしまい、当該専有面積の最小化が図れないという問題点があった。
そしてこの問題点は、入力側のニューロンの数と出力側のニューロンの数とを乗じた数だけ接続部が必要となるFC型ニューラルネットワーク回路では、接続部の多数化に伴い、専有面積の増大がより深刻化するという問題点に繋がる。
そこで本発明は、上記の各問題点に鑑みて為されたもので、その課第の一例は、FC型ニューラルネットワーク回路における接続部の専有面積を大幅に低減することが可能な自己学習型の重み符号固定学習装置を提供することにある。
上記の課題を解決するために、請求項1に記載の発明は、脳機能に対応したアナログ型のニューラルネットワーク回路を備えた自己学習型の重み符号固定学習装置において、前記ニューラルネットワーク回路は、入力データに相当する入力信号がそれぞれ入力される複数(n個)の入力部と、出力データに相当する出力信号がそれぞれ入力される複数(m個且つn=mの場合を含む)の出力部と、一の前記入力部と一の前記出力部とをそれぞれ接続する(n×m)個の接続部と、により構成されており、前記自己学習の機能は、前記出力データを前記出力部から前記重み符号固定学習装置に再入力した結果として前記入力部から出力されるデータが元の前記入力データと一致するように学習させる機能であり、(n×m)個の前記接続部は、前記脳機能としての正の重み付け係数に対応した抵抗値の抵抗素子である正重み付け抵抗素子により一の前記入力部と一の前記出力部が接続されており且つ当該脳機能としての負の重み付け係数に対応した抵抗値の抵抗素子である負重み付け抵抗素子を含まない前記接続部である正専用接続部と、前記負重み付け抵抗素子により一の前記入力部と一の前記出力部が接続されており且つ前記正重み付け抵抗素子を含まない前記接続部である負専用接続部と、により構成されている。
請求項1に記載の発明によれば、n個の入力部と、m個の出力部と、(n×m)個の接続部と、を備え、出力データを出力部から重み符号固定学習装置に再入力した結果として入力部から出力されるデータが元の入力データと一致するように学習させる自己学習の機能を有し、(n×m)個の接続部が、正重み付け抵抗素子により一の入力部と一の出力部が接続されており且つ負重み付け抵抗素子を含まない正専用接続部と、負重み付け抵抗素子により一の入力部と一の出力部が接続され且つ正重み付け抵抗素子を含まない負専用接続部と、により構成されている。よって、正専用接続部及び負専用接続部から各接続部が構成されているので、ニューラルネットワーク回路における接続部の専有面積を大幅に低減することができる。
上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の重み符号固定学習装置において、前記正専用接続部と前記負専用接続部とが同数であるように構成される。
請求項2に記載の発明によれば、請求項1に記載の発明の作用に加えて、正専用接続部と負専用接続部とが同数であるので、重み符号固定学習装置としての学習能力を向上させつつ、接続部の専有面積を大幅に低減することができる。
上記の課題を解決するために、請求項3に記載の発明は、請求項1又は請求項2に記載の重み符号固定学習装置において、前記正専用接続部及び前記負専用接続部が、(n×m)個の前記接続部において一様乱数的に分布しているように構成される。
請求項3に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、正専用接続部及び負専用接続部が、(n×m)個の接続部において一様乱数的に分布しているので、従来と同様の学習能力及び汎化能力を共に維持しつつ、接続部の専有面積を大幅に低減することができる。
上記の課題を解決するために、請求項4に記載の発明は、請求項1又は請求項2に記載の重み符号固定学習装置において、前記正専用接続部及び前記負専用接続部が、(n×m)個の前記接続部において規則的に分布しているように構成される。
請求項4に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、正専用接続部及び負専用接続部が、(n×m)個の接続部において規則的に分布しているので、従来と同様の学習能力を維持しつつ、接続部の専有面積を大幅に低減することができる。
本発明によれば、n個の入力部と、m個の出力部と、(n×m)個の接続部と、を備え、出力データを出力部から重み符号固定学習装置に再入力した結果として入力部から出力されるデータが元の入力データと一致するように学習させる自己学習の機能を有し、(n×m)個の接続部が、正重み付け抵抗素子により一の入力部と一の出力部が接続されており且つ負重み付け抵抗素子を含まない正専用接続部と、負重み付け抵抗素子により一の入力部と一の出力部が接続され且つ正重み付け抵抗素子を含まない負専用接続部と、により構成されている。
従って、正専用接続部及び負専用接続部から各接続部が構成されているので、アナログ型のニューラルネットワーク回路を備えた自己学習型の重み符号固定学習装置における接続部の専有面積を大幅に低減することができる。
一つのニューロンをモデル化したユニットを示す図である。 第1実施形態に係るニューラルネットワーク回路を示す図である。 第1実施形態に係るニューラルネットワーク回路の一部等を示す図であり、(a)は当該一部を示す図であり、(b)は当該一部をアナログ回路により構成した場合のニューラルネットワーク回路を示す図である。 第2実施形態に係るニューラルネットワーク回路を示す図である。
次に、本発明に係る実施形態について、図面に基づいてそれぞれ説明する。なお以下に説明する各実施形態は、人の脳機能をアナログ型のニューラルネットワーク回路によりモデル化する場合について本発明を適用した場合の実施形態等である。
(I)第1実施形態
初めに、本発明に係る第1実施形態について、図1乃至図3を用いて説明する。なお、図1は一つのニューロンをモデル化したユニットを示す図であり、図2は第1実施形態に係るニューラルネットワーク回路を示す図であり、図3は当該ニューラルネットワーク回路の一部等を示す図である。
(A)ニューラルネットワークについて
先ず、上記脳機能をモデル化したニューラルネットワークについて、図1を用いて一般的に説明する。
一般に人の脳の中には、多数のニューロン(神経細胞)が存在しているとされている。脳の中で各ニューロンは、多数の他のニューロンからの電気信号を受信し、また更に他の多数のニューロンへ電気信号を送信している。そして脳は、各ニューロン間のこれら電気信号の流れによって、様々な情報処理を行っているとされている。このとき、各ニューロン間における電気信号の送受信は、シナプスと呼ばれる細胞を介して行われる。そして、脳における上記ニューロン間の電気信号の送受信をモデル化してコンピュータ内に脳機能を実現しようとしたものが、ニューラルネットワークである。
より具体的にニューラルネットワークでは図1に例示するように、外部から入力される複数の入力データI1、入力データI2、…、入力データIn(nは自然数。以下同様。)のそれぞれに対する乗算処理、加算処理及び活性化関数の適用処理が、一つのユニットとしてのニューロンNRを中心として実行され、その結果をそのニューロンNRからの出力データOとすることで、脳機能における一つのニューロンに対する上記電気信号の送受信をモデル化する。なお以下の説明において、上記活性化関数の適用処理を、単に「活性化処理」と称する。このとき一つのニューロンNRについて、複数の入力データI1、入力データI2、…、入力データInそれぞれに対応して予め設定された(つまり既定の)重み付け係数W1、重み付け係数W2、…、重み付け係数Wnを当該入力データI1、入力データI2、…、入力データInに対してそれぞれ乗算することで上記乗算処理が実行される。その後、各入力データI1、入力データI2、…、入力データInに対する上記乗算処理の結果のそれぞれを加算する上記加算処理が当該ニューロンNRについて実行される。そして次に、上記加算処理の結果に既定の活性化関数Fを適用する上記活性化処理が実行され、その結果を上記出力データΟとして他の一又は複数のニューロンにNRに出力する。上述した一連の乗算処理、加算処理及び活性化処理を数式で表すと、図1に示す式(1)となる。このとき、重み付け係数W1、重み付け係数W2、…、重み付け係数Wnを入力データI1、入力データI2、…、入力データInにそれぞれ乗算する乗算処理が、ニューロンNR間の上記電気信号のやり取りにおける上記シナプスの作用に相当する。
(B)第1実施形態に係るニューラルネットワーク回路について
次に、図1に例示するニューロンNRを複数備えた第1実施形態に係るニューラルネットワーク回路SSについて、図2を用いて説明する。このニューラルネットワーク回路SSが本発明に係る「学習装置」の一例に相当する。
図2に示すように、図1に例示する一つのニューロンNR(一ユニット)が多数集まってシナプスにより互いに接続されることにより、脳全体がニューラルネットワークNWとしてモデル化される。なお以下の説明において、入力データI1乃至入力データInに共通の事項を説明する場合、単に「入力データI」と称する。また同様に、出力データO1乃至出力データOnに共通の事項を説明する場合、単に「出力データO」と称する。更に同様に、重み付け係数W1乃至重み付け係数Wnに共通の事項を説明する場合、単に「重み付け係数W」と称する。
一方第1実施形態に係るニューラルネットワーク回路SSは、上記ニューラルネットワークNWに加えて、当該ニューラルネットワークNWにおける自己学習機能を制御する自己学習制御部Cを備える。第1実施形態に係る自己学習制御部Cは、ニューラルネットワークNW全体としての出力データOをその出力側からニューラルネットワークNWに再入力した結果としてその入力側から出力されるデータが元の入力データIと一致するようにニューラルネットワークNWを制御して、ニューラルネットワーク回路SSとしての自己学習機能を実行させる。この自己学習制御部Cが本発明に係る「制御手段」の一例に相当する。
次に、第1実施形態に係るニューラルネットワーク回路SSの一部の構成を、アナログ型のニューラルネットワーク回路を用いて具体化した構成について、図3を用いて説明する。なお以下の説明では、図3(a)に示す七つのニューロンNRにより構成されるニューラルネットワーク回路SSの一部を用いて、第1実施形態に係るアナログ型のニューラルネットワーク回路SSの構成を説明する。また図3では、図2に示した自己学習制御部Cの記載を省略している。
このとき図3(a)においては、入力データI1乃至入力データI4がそれぞれ入力される入力側のニューロンNRi1乃至ニューロンNRi4と、出力データO1乃至出力データO3がそれぞれ出力される出力側のニューロンNRo1乃至ニューロンNRo3と、が、それぞれ相互に接続されている。即ち、入力側のニューロンNRi1は出力側のニューロンNRo1乃至ニューロンNRo3の全てに接続されており、入力側のニューロンNRi2も当該ニューロンNRo1乃至ニューロンNRo3の全てに接続されており、入力側のニューロンNRi3も当該ニューロンNRo1乃至ニューロンNRo3の全てに接続されており、入力側のニューロンNRi4も当該ニューロンNRo1乃至ニューロンNRo3の全てに接続されている。なお以下の説明において、ニューロンNRi1乃至ニューロンNRi4及びニューロンNRo1乃至ニューロンNRo3について共通の事項を説明する場合、単に「ニューロンNR」と称する。そして、図3(a)においてニューロンNRi1乃至ニューロンNRi4とニューロンNRo1乃至ニューロンNRo3との間に示されている矢印が、各ニューロンNR間の上記重み付け係数Wに対応している。また、ニューロンNRi1乃至ニューロンNRi4が本発明に係る「入力部」の一例に相当し、ニューロンNRo1乃至ニューロンNRo3が本発明に係る「出力部」の一例に相当する。
そして図3(b)に示すように、第1実施形態に係るニューラルネットワーク回路SSは、ニューロンNRi1乃至ニューロンNRi4にそれぞれ接続され且つ入力データI1乃至入力データI4に対応した正電圧が印加される四本の正電圧線Li1+乃至正電圧線Li4+と、ニューロンNRi1乃至ニューロンNRi4にそれぞれ接続されて入力データI1乃至入力データI4のそれぞれに対応した負電圧が印加される四本の負電圧線Li1-乃至負電圧線Li4-と、ニューロンNRo1乃至ニューロンNRo3にそれぞれ接続された三本の正電圧線Lo1+乃至正電圧線Lo3+と、ニューロンNRo1乃至ニューロンNRo3にそれぞれ接続された三本の負電圧線Lo1-乃至負電圧線Lo3-と、を備えている。このとき、正電圧線Li1+乃至正電圧線Li4+と、負電圧線Li1-乃至負電圧線Li4-と、正電圧線Lo1+乃至正電圧線Lo3+と、負電圧線Lo1-乃至負電圧線Lo3-と、は、例えばフォトリソグラフィ技術により各々別個の層内に形成されている。
そして図3(b)においては、ニューロンNRi1とニューロンNRo1とを接続する接続部CN11が正電圧線Li1+、負電圧線Li1-、正電圧線Lo1+及び負電圧線Lo1-により形成され、ニューロンNRi1とニューロンNRo2とを接続する接続部CN12が正電圧線Li1+、負電圧線Li1-、正電圧線Lo2+及び負電圧線Lo2-により形成され、ニューロンNRi1とニューロンNRo3とを接続する接続部CN13が正電圧線Li1+、負電圧線Li1-、正電圧線Lo3+及び負電圧線Lo3-により形成される。また、ニューロンNRi2とニューロンNRo1とを接続する接続部CN21が正電圧線Li2+、負電圧線Li2-、正電圧線Lo1+及び負電圧線Lo1-により形成され、ニューロンNRi2とニューロンNRo2とを接続する接続部CN22が正電圧線Li2+、負電圧線Li2-、正電圧線Lo2+及び負電圧線Lo2-により形成され、ニューロンNRi2とニューロンNRo3とを接続する接続部CN23が正電圧線Li2+、負電圧線Li2-、正電圧線Lo3+及び負電圧線Lo3-により形成される。また、ニューロンNRi3とニューロンNRo1とを接続する接続部CN31が正電圧線Li3+、負電圧線Li3-、正電圧線Lo1+及び負電圧線Lo1-により形成され、ニューロンNRi3とニューロンNRo2とを接続する接続部CN32が正電圧線Li3+、負電圧線Li3-、正電圧線Lo2+及び負電圧線Lo2-により形成され、ニューロンNRi3とニューロンNRo3とを接続する接続部CN33が正電圧線Li3+、負電圧線Li3-、正電圧線Lo3+及び負電圧線Lo3-により形成される。更に、ニューロンNRi4とニューロンNRo1とを接続する接続部CN41が正電圧線Li4+、負電圧線Li4-、正電圧線Lo1+及び負電圧線Lo1-により形成され、ニューロンNRi4とニューロンNRo2とを接続する接続部CN42が正電圧線Li4+、負電圧線Li4-、正電圧線Lo2+及び負電圧線Lo2-により形成され、ニューロンNRi4とニューロンNRo3とを接続する接続部CN43が正電圧線Li4+、負電圧線Li4-、正電圧線Lo3+及び負電圧線Lo3-により形成される。なお以下の説明において、上記接続部CN11乃至上記接続部CN13、上記接続部CN21乃至上記接続部CN23、上記接続部CN31乃至上記接続部CN33、及び上記接続部CN41乃至上記接続部CN43に共通する事項を説明する場合、単に「接続部CN」と称する。そして、各接続部CNのそれぞれにおいては、正電圧線同士(例えば正電圧線Li1+と正電圧線Lo1+。以下、同様。)又は負電圧線同士(例えば負電圧線Li1-と負電圧線Lo1-。以下、同様)のいずれか一方のみが、それが対応する上記重み付け係数Wにそれぞれ対応する抵抗値の抵抗素子により接続される。
そして図3(b)に示す第1実施形態に係るニューラルネットワーク回路SSでは、各接続部CNに含まれる各電圧線のいずれが上記抵抗素子により接続されるかは、正電圧線同士が接続されている接続部CN11等の数と負電圧線同士が接続されている接続部CN13等の数とが当該ニューラルネットワーク回路SS全体について同数となり、更に、正電圧線同士が接続された接続部CN11等と、負電圧線同士が接続された接続部CN13等が、当該ニューラルネットワーク回路SS全体について一様乱数的に(即ちランダムに)分布するように、予め決定される。これは、本願の発明者らの研究により、各接続部CN11等において正電圧線同士又は負電圧線同士のいずれか一方のみを抵抗素子により接続する場合であっても、正電圧線同士が接続されている接続部CN11等の数と負電圧線同士が接続されている接続部CN11等の数とがニューラルネットワーク回路SS全体について同数となり、更に、それらがニューラルネットワーク回路SS全体について一様乱数的に分布していれば、ニューラルネットワーク回路SS全体の学習機能及び汎化機能において従来と同様の性能が担保されることが発見されたことによる。ここで上記汎化機能とは、未学習の入力データIを正しく分類する機能をいう。また、正電圧線同士のみが接続されている接続部CN11等が本発明に係る「正専用接続部」の一例に相当し、負電圧線同士のみが接続されている接続部CN13等が本発明に係る「負専用接続部」の一例に相当する。
ここで、図3(b)に例示する第1実施形態に係るニューラルネットワーク回路SSでは、接続部CN11においては正電圧線Li1+と正電圧線Lo1+のみが抵抗素子R1により接続されており、当該抵抗素子R1の抵抗値がニューロンNRi1とニューロンNRo1とを接続する際の上記正の重み付け係数Wに対応している。なお、正電圧線Li1+と正電圧線Lo1+との抵抗素子R1による接続の態様は、具体的には、例えば上記特許文献1の第1図又は第3図に記載されている可変抵抗素子を用いた電圧線の接続態様と基本的に同一である(以下の各接続部CNにおいて同様)。また接続部CN12においては正電圧線Li1+と正電圧線Lo2+のみが抵抗素子R5により接続されており、当該抵抗素子R5の抵抗値がニューロンNRi1とニューロンNRo2とを接続する際の上記正の重み付け係数Wに対応している。また接続部CN13においては負電圧線Li1-と負電圧線Lo3-のみが抵抗素子R9により接続されており、当該抵抗素子R9の抵抗値がニューロンNRi1とニューロンNRo3とを接続する際の上記負の重み付け係数Wに対応している。更に、接続部CN21においては負電圧線Li2-と負電圧線Lo1-のみが抵抗素子R2により接続されており、当該抵抗素子R2の抵抗値がニューロンNRi2とニューロンNRo1とを接続する際の上記負の重み付け係数Wに対応している。また接続部CN22においては正電圧線Li2+と正電圧線Lo2+のみが抵抗素子R6により接続されており、当該抵抗素子R6の抵抗値がニューロンNRi2とニューロンNRo2とを接続する際の上記正の重み付け係数Wに対応している。また接続部CN23においては正電圧線Li2+と正電圧線Lo3+のみが抵抗素子R10により接続されており、当該抵抗素子R10の抵抗値がニューロンNRi2とニューロンNRo3とを接続する際の上記正の重み付け係数Wに対応している。
更にまた、接続部CN31においては正電圧線Li3+と正電圧線Lo1+のみが抵抗素子R3により接続されており、当該抵抗素子R3の抵抗値がニューロンNRi3とニューロンNRo1とを接続する際の上記正の重み付け係数Wに対応している。また接続部CN32においては負電圧線Li3-と負電圧線Lo2-のみが抵抗素子R7により接続されており、当該抵抗素子R7の抵抗値がニューロンNRi3とニューロンNRo2とを接続する際の上記負の重み付け係数Wに対応している。また接続部CN33においては正電圧線Li3+と正電圧線Lo3+のみが抵抗素子R11により接続されており、当該抵抗素子R11の抵抗値がニューロンNRi3とニューロンNRo3とを接続する際の上記正の重み付け係数Wに対応している。更に接続部CN41においては負電圧線Li4-と負電圧線Lo1-のみが抵抗素子R4により接続されており、当該抵抗素子R4の抵抗値がニューロンNRi4とニューロンNRo1とを接続する際の上記負の重み付け係数Wに対応している。また接続部CN42においては負電圧線Li4-と負電圧線Lo2-のみが抵抗素子R8により接続されており、当該抵抗素子R8の抵抗値がニューロンNRi4とニューロンNRo2とを接続する際の上記負の重み付け係数Wに対応している。最後に接続部CN43においては負電圧線Li4-と負電圧線Lo3-のみが抵抗素子R12により接続されており、当該抵抗素子R12の抵抗値がニューロンNRi4とニューロンNRo3とを接続する際の上記負の重み付け係数Wに対応している。
以上説明したように、第1実施形態に係るニューラルネットワーク回路SSの構成によれば、入力側のニューロンNRi1乃至ニューロンNRi4と、出力側のニューロンNRo1乃至ニューロンNRo3と、接続部CNと、自己学習制御部Cと、を備え、各制御部CNが、正電圧線同士のみが接続されている接続部CN11等と負電圧線同士のみが接続されている接続部CN13等により構成されている。よって、ニューラルネットワーク回路SSにおける接続部CNの占有面積を大幅に低減することができる。
また、正電圧線同士のみが接続されている接続部CN11等の数と負電圧線同士のみが接続されている接続部CN13等の数とが同数であるので、ニューラルネットワーク回路SSとしての学習能力を向上させつつ、接続部CNの占有面積を大幅に低減することができる。
更に、正電圧線同士のみが接続されている接続部CN11等及び負電圧線同士のみが接続されている接続部CN13等が一様乱数的に分布しているので、従来と同様の学習能力及び汎化能力を共に維持しつつ、接続部CNの占有面積を大幅に低減することができる。
(C)第1実施形態に係るニューラルネットワーク回路の構成による学習効果等について
次に、本願の発明者ら研究による、第1実施形態に係るニューラルネットワーク回路SSの構成による学習効果等について、以下に(a)乃至(c)として説明する。
(a)本願の発明者らは、第1実施形態に係るニューラルネットワーク回路SSの構成を用いて、入力側のニューロンNRを784個とし、出力側のニューロンNRを293個としたニューラルネットワーク回路SSを含む一層のオードエンコーダを製作し、手書き数字の認識に関する実験を行った。この結果、パターンオーバーラップ(即ち、上記オードエンコーダに学習させた数字パターンの復元率)が約91%(より具体的には91.4%(入力側のニューロンNRを784個とし、出力側のニューロンNRを293個とし、更に30パーセントの重み付け係数をパーセプトロン学習則でランダムに更新した場合の値))となり、例えば上記特許文献1に記載されている技術を用いた従来法(91.1%)と変わらない復元率が得られた。
(b)また本願の発明者らは、第1実施形態に係るニューラルネットワーク回路SSの構成を用いて二次元畳み込みオードエンコーダを製作し、同様の実験を行った。この結果、パターンオーバーラップが約97%(より具体的には97.0%(入力側のニューロンNR及び出力側のニューロンNRを共に784個とし、畳み込みストライドを1とし、更に30パーセントの重み付け係数をパーセプトロン学習則でランダムに更新した場合の値))となり、従来法(91.4%)を上回る復元率が得られた。
(c)本願の発明者らは更なる多層化の実験を行い、最終的に三層のバックプロパゲーションアルゴリズムを付加して同様の実験を行ったところ、いずれの総数でもパターンオーバーラップが約91%以上となり、十分な時間をかけて学習を行えば高機能化が期待できることを確認した。
(II)第2実施形態
次に、本発明に係る他の実施形態である第2実施形態について、図4を用いて説明する。なお、図4は第2実施形態に係るニューラルネットワーク回路を示す図である。また図4において、第1実施形態に係るニューラルネットワーク回路SSと同一の構成部材については、同一の部材番号を付して細部の説明を省略する。
図4に示すように、第2実施形態に係るニューラルネットワーク回路SS1は、入力側のニューロンNRi1及びニューロンNRi3にそれぞれ接続されて入力データI1及び入力データI3に対応した正電圧がそれぞれ印加される正電圧線Li1+及び正電圧線Li3+と、入力側のニューロンNRi2及びニューロンNRi4にそれぞれ接続されて入力データI2及び入力データI4のそれぞれに対応した負電圧が印加される負電圧線Li2-及び負電圧線Li4-と、出力側のニューロンNRo1乃至ニューロンNRo3にそれぞれ接続された電圧線Lo1乃至電圧線Lo3と、を備えている。このとき、正電圧線Li1+及び正電圧線Li3+と、負電圧線Li2-及び負電圧線Li4-と、電圧線Lo1乃至電圧線Lo3と、は、例えば上記フォトリソグラフィ技術により各々別個の層内に形成される。
そして、ニューロンNRi1とニューロンNRo1とを接続する接続部CN11が正電圧線Li1+と電圧線Lo1とにより形成され、ニューロンNRi1とニューロンNRo2とを接続する接続部CN12が正電圧線Li1+と電圧線Lo2とにより形成され、ニューロンNRi1とニューロンNRo3とを接続する接続部CN13が正電圧線Li1+と電圧線Lo3とにより形成される。また、ニューロンNRi2とニューロンNRo1とを接続する接続部CN21が負電圧線Li2-と電圧線Lo1により形成され、ニューロンNRi2とニューロンNRo2とを接続する接続部CN22が負電圧線Li2-と電圧線Lo2により形成され、ニューロンNRi2とニューロンNRo3とを接続する接続部CN23が負電圧線Li2-と電圧線Lo3により形成される。また、ニューロンNRi3とニューロンNRo1とを接続する接続部CN31が正電圧線Li3+と電圧線Lo1により形成され、ニューロンNRi3とニューロンNRo2とを接続する接続部CN32が正電圧線Li3+と電圧線Lo2により形成され、ニューロンNRi3とニューロンNRo3とを接続する接続部CN33が正電圧線Li3+と電圧線Lo3により形成される。更に、ニューロンNRi4とニューロンNRo1とを接続する接続部CN41が負電圧線Li4-と電圧線Lo1により形成され、ニューロンNRi4とニューロンNRo2とを接続する接続部CN42が負電圧線Li4-と電圧線Lo2により形成され、ニューロンNRi4とニューロンNRo3とを接続する接続部CN43が負電圧線Li4-と電圧線Lo3により形成される。そして、各接続部CNのそれぞれにおいては、それぞれを構成する電圧線同士が、各接続部CNとしての上記重み付け係数Wにそれぞれ対応した抵抗値の抵抗素子により接続される。
そして図4に示す第2実施形態に係るニューラルネットワーク回路SS1では、正電圧線Li1+及び正電圧線Li3+と電圧線Lo1乃至電圧線Lo3とが接続されている接続部CNの数と、負電圧線Li2-及び負電圧線Li4-と電圧線Lo1乃至電圧線Lo3とが接続されている接続部CNの数と、が当該ニューラルネットワーク回路SS1全体について同数となり、更に、正電圧線Li1+及び正電圧線Li3+と電圧線Lo1乃至電圧線Lo3とが接続されている接続部CNと、負電圧線Li2-及び負電圧線Li4-と電圧線Lo1乃至電圧線Lo3とが接続されている接続部CNと、が、当該ニューラルネットワーク回路SS1全体について規則的に分布するように、予め決定される。これは、本願の発明者らの研究により、各接続部CNにおいて正電圧線と電圧線Lo1等同士、又は負電圧線と電圧線Lo1等同士のいずれか一方を抵抗素子により接続する場合であっても、正電圧線等と電圧線Lo1等同士が接続されている接続部CN11等の数と、負電圧線と電圧線Lo1等同士が接続されている接続部CN21等の数とがニューラルネットワーク回路SS1全体について同数となり、更に、それらがニューラルネットワーク回路SS1全体について規則的に分布していれば、ニューラルネットワーク回路SS1全体の学習機能においては従来と同様の性能が担保されることが発見されたことによる。
ここで、図4に例示する第2実施形態に係るニューラルネットワーク回路SS1では、接続部CN11においては正電圧線Li1+と電圧線Lo1が抵抗素子R20により接続されており、当該抵抗素子R20の抵抗値がニューロンNRi1とニューロンNRo1とを接続する際の上記正の重み付け係数Wに対応している。また接続部CN12においては正電圧線Li1+と電圧線Lo2が抵抗素子R24により接続されており、当該抵抗素子R24の抵抗値がニューロンNRi1とニューロンNRo2とを接続する際の上記正の重み付け係数Wに対応している。また接続部CN13においては正電圧線Li1+と電圧線Lo3が抵抗素子R28により接続されており、当該抵抗素子R28の抵抗値がニューロンNRi1とニューロンNRo3とを接続する際の上記正の重み付け係数Wに対応している。更に、接続部CN21においては負電圧線Li2-と電圧線Lo1が抵抗素子R21により接続されており、当該抵抗素子R21の抵抗値がニューロンNRi2とニューロンNRo1とを接続する際の上記負の重み付け係数Wに対応している。また接続部CN22においては負電圧線Li2-と電圧線Lo2が抵抗素子R25により接続されており、当該抵抗素子R25の抵抗値がニューロンNRi2とニューロンNRo2とを接続する際の上記負の重み付け係数Wに対応している。また接続部CN23においては負電圧線Li2-と電圧線Lo3が抵抗素子R29により接続されており、当該抵抗素子R29の抵抗値がニューロンNRi2とニューロンNRo3とを接続する際の上記負の重み付け係数Wに対応している。
更にまた、接続部CN31においては正電圧線Li3+と電圧線Lo1が抵抗素子R22により接続されており、当該抵抗素子R22の抵抗値がニューロンNRi3とニューロンNRo1とを接続する際の上記正の重み付け係数Wに対応している。また接続部CN32においては正電圧線Li3+と電圧線Lo2が抵抗素子R26により接続されており、当該抵抗素子R26の抵抗値がニューロンNRi3とニューロンNRo2とを接続する際の上記正の重み付け係数Wに対応している。また接続部CN33においては正電圧線Li3+と電圧線Lo3が抵抗素子R30により接続されており、当該抵抗素子R30の抵抗値がニューロンNRi3とニューロンNRo3とを接続する際の上記正の重み付け係数Wに対応している。更に接続部CN41においては負電圧線Li4-と電圧線Lo1が抵抗素子R23により接続されており、当該抵抗素子R23の抵抗値がニューロンNRi4とニューロンNRo1とを接続する際の上記負の重み付け係数Wに対応している。また接続部CN42においては負電圧線Li4-と電圧線Lo2が抵抗素子R27により接続されており、当該抵抗素子R27の抵抗値がニューロンNRi4とニューロンNRo2とを接続する際の上記負の重み付け係数Wに対応している。最後に接続部CN43においては負電圧線Li4-と電圧線Lo3が抵抗素子R31により接続されており、当該抵抗素子R31の抵抗値がニューロンNRi4とニューロンNRo3とを接続する際の上記負の重み付け係数Wに対応している。
以上説明したように、第2実施形態に係るニューラルネットワーク回路SS1の構成によれば、入力側のニューロンNRi1乃至ニューロンNRi4と、出力側のニューロンNRo1乃至ニューロンNRo3と、接続部CNと、自己学習制御部Cと、を備え、各制御部CNが、正電圧線が接続されている接続部CN11等と負電圧線が接続されている接続部CN21等により構成されている。よって、ニューラルネットワーク回路SS1における接続部CNの占有面積を大幅に低減することができる。
また、正電圧線が接続されている接続部CN11等の数と負電圧線が接続されている接続部CN21等の数とが同数であるので、ニューラルネットワーク回路SS1としての学習能力を向上させつつ、接続部CNの占有面積を大幅に低減することができる。
更に、正電圧線が接続されている接続部CN11等及び負電圧線が接続されている接続部CN21等が規則的に分布しているので、従来と同様の学習能力を維持しつつ、接続部CNの占有面積を大幅に低減することができる。
以上それぞれ説明したように、本発明はニューラルネットワーク回路の分野に利用することが可能であり、特に当該ニューラルネットワーク回路を含む学習装置の分野に適用すれば特に顕著な効果が得られる。
C 自己学習制御部
SS、SS1 ニューラルネットワーク回路
1、I2、In 入力データ
NR、NRi1、NRi2、NRi3、NRi4、NRo1、NRo2、NRo3 ニューロン
1、W2、Wn 重み付け係数
O、O1、O2、O3 出力データ
NW ニューラルネットワーク
Li1+、Li2+、Li3+、Li4+、Lo1+、Lo2+、Lo3+ 正電圧線
Li1-、Li2-、Li3-、Li4-、Lo1-、Lo2-、Lo3- 負電圧線
Lo1、Lo2、Lo3 電圧線
CN11、CN12、CN13、CN21、CN22、CN23、CN31、CN32、CN33、CN41、CN42、CN43 接続部
R1、R2、R3、R4、R5、R6、R7、R8、R9、R10、R11、R12、R20、R21、R22、R23、R24、R25、R26、R27、R28、R29、R30、R31 抵抗素子

Claims (4)

  1. 脳機能に対応したアナログ型のニューラルネットワーク回路を備えた自己学習型の重み符号固定学習装置において、
    前記ニューラルネットワーク回路は、
    入力データに相当する入力信号がそれぞれ入力される複数(n個)の入力部と、
    出力データに相当する出力信号がそれぞれ入力される複数(m個且つn=mの場合を含む)の出力部と、
    一の前記入力部と一の前記出力部とをそれぞれ接続する(n×m)個の接続部と、
    により構成されており、
    前記自己学習の機能は、前記出力データを前記出力部から前記重み符号固定学習装置に再入力した結果として前記入力部から出力されるデータが元の前記入力データと一致するように学習させる機能であり
    (n×m)個の前記接続部は、前記脳機能としての正の重み付け係数に対応した抵抗値の抵抗素子である正重み付け抵抗素子により一の前記入力部と一の前記出力部が接続されており且つ当該脳機能としての負の重み付け係数に対応した抵抗値の抵抗素子である負重み付け抵抗素子を含まない前記接続部である正専用接続部と、前記負重み付け抵抗素子により一の前記入力部と一の前記出力部が接続されており且つ前記正重み付け抵抗素子を含まない前記接続部である負専用接続部と、により構成されていることを特徴とする重み符号固定学習装置。
  2. 請求項1に記載の重み符号固定学習装置において、
    前記正専用接続部と前記負専用接続部とが同数であることを特徴とする重み符号固定学習装置。
  3. 請求項1又は2に記載の重み符号固定学習装置において、
    前記正専用接続部及び前記負専用接続部が、(n×m)個の前記接続部において一様乱数的に分布していることを特徴とする重み符号固定学習装置。
  4. 請求項1又は請求項2に記載の重み符号固定学習装置において、
    前記正専用接続部及び前記負専用接続部が、(n×m)個の前記接続部において規則的に分布していることを特徴とする重み符号固定学習装置。
JP2019505784A 2017-03-14 2018-02-13 重み符号固定学習装置 Active JP6901163B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017048421 2017-03-14
JP2017048421 2017-03-14
PCT/JP2018/004786 WO2018168293A1 (ja) 2017-03-14 2018-02-13 重み符号固定学習装置

Publications (2)

Publication Number Publication Date
JPWO2018168293A1 JPWO2018168293A1 (ja) 2020-05-14
JP6901163B2 true JP6901163B2 (ja) 2021-07-14

Family

ID=63522926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019505784A Active JP6901163B2 (ja) 2017-03-14 2018-02-13 重み符号固定学習装置

Country Status (3)

Country Link
US (1) US11625593B2 (ja)
JP (1) JP6901163B2 (ja)
WO (1) WO2018168293A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126426A (ja) * 2019-02-04 2020-08-20 ソニー株式会社 演算装置、及び積和演算システム
JP2020126427A (ja) 2019-02-04 2020-08-20 ソニー株式会社 演算装置、積和演算システム及び設定方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5160304B2 (ja) 2008-05-22 2013-03-13 シャープ株式会社 抵抗変化型可変抵抗素子を備えた積演算装置、及び積和演算装置、これらの装置を各ニューロン素子に備えるニューラルネットワーク、並びに積演算方法
US11836746B2 (en) * 2014-12-02 2023-12-05 Fair Isaac Corporation Auto-encoder enhanced self-diagnostic components for model monitoring

Also Published As

Publication number Publication date
US11625593B2 (en) 2023-04-11
WO2018168293A1 (ja) 2018-09-20
US20200125940A1 (en) 2020-04-23
JPWO2018168293A1 (ja) 2020-05-14

Similar Documents

Publication Publication Date Title
US9619749B2 (en) Neural network and method of neural network training
Annema Feed-forward neural networks: Vector decomposition analysis, Modelling and Analog Implementation
Xu et al. Memristor-based neural network circuit with weighted sum simultaneous perturbation training and its applications
US4874963A (en) Neuromorphic learning networks
US10074050B2 (en) Memristive neuromorphic circuit and method for training the memristive neuromorphic circuit
CN111433792A (zh) 可编程可重置人工神经网络的基于计数器的电阻处理单元
WO2020099680A2 (en) Resilient neural network
Linares-Barranco et al. A CMOS analog adaptive BAM with on-chip learning and weight refreshing
US20210049448A1 (en) Neural network and its information processing method, information processing system
Payvand et al. On-chip error-triggered learning of multi-layer memristive spiking neural networks
JP6901163B2 (ja) 重み符号固定学習装置
Giulioni et al. Real time unsupervised learning of visual stimuli in neuromorphic VLSI systems
Merrikh-Bayat et al. The neuro-fuzzy computing system with the capacity of implementation on a memristor crossbar and optimization-free hardware training
EP3631800A1 (en) Deep learning in bipartite memristive networks
Eberhardt et al. Analog VLSI neural networks: Implementation issues and examples in optimization and supervised learning
CN107862380A (zh) 人工神经网络运算电路
JP7259253B2 (ja) 人工ニューラルネットワーク回路
Zilouchian Fundamentals of neural networks
CN112734022B (zh) 一种具有识别和排序功能的四字符忆阻神经网络电路
Löhr et al. Complex neuron dynamics on the IBM TrueNorth neurosynaptic system
Khalid et al. Memristor crossbar-based pattern recognition circuit using perceptron learning rule
AU2021281628A1 (en) Efficient tile mapping for row-by-row convolutional neural network mapping for analog artificial intelligence network inference
Horio Towards a neuromorphic computing hardware system
Montesdeoca-Contreras et al. Virtual speed sensor for DC motor using back-propagation artificial neural networks
Walker et al. A neuromorphic approach to adaptive digital circuitry

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20190913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210406

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210406

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210610

R150 Certificate of patent or registration of utility model

Ref document number: 6901163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250