KR102279577B1 - 신경망 모사 소자 및 신경망 모사 학습 시스템 - Google Patents

신경망 모사 소자 및 신경망 모사 학습 시스템 Download PDF

Info

Publication number
KR102279577B1
KR102279577B1 KR1020190007503A KR20190007503A KR102279577B1 KR 102279577 B1 KR102279577 B1 KR 102279577B1 KR 1020190007503 A KR1020190007503 A KR 1020190007503A KR 20190007503 A KR20190007503 A KR 20190007503A KR 102279577 B1 KR102279577 B1 KR 102279577B1
Authority
KR
South Korea
Prior art keywords
ratio
output stream
high level
synaptic
neural network
Prior art date
Application number
KR1020190007503A
Other languages
English (en)
Other versions
KR20200090450A (ko
Inventor
박완준
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020190007503A priority Critical patent/KR102279577B1/ko
Priority to PCT/KR2020/000707 priority patent/WO2020153651A1/ko
Publication of KR20200090450A publication Critical patent/KR20200090450A/ko
Application granted granted Critical
Publication of KR102279577B1 publication Critical patent/KR102279577B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • H01L43/08
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10NELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10N50/00Galvanomagnetic devices
    • H10N50/10Magnetoresistive devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Hall/Mr Elements (AREA)
  • Mram Or Spin Memory Techniques (AREA)

Abstract

본 발명의 일 실시 예에 따른 신경망 모사 소자는 로우 레벨과 하이 레벨이 제1 비율로 혼재된 제1 출력 스트림을 출력하는 제1 자기터널접합구조체를 포함하는 제1 뉴런 모사 소자 및 상기 제1 출력 스트림과, 로우 레벨과 하이 레벨이 제2 비율로 혼재된 제2 출력 스트림을 각각 제공받고, 상기 제1 비율과 상기 제2 비율의 차이에 따라 전기 전도도 특성이 가변하는 시냅스 모사 소자를 포함하여 이루어질 수 있다.

Description

신경망 모사 소자 및 신경망 모사 학습 시스템{Artificial Neuron Element and Artificial Neuron Learning System}
본 발명은 신경망 모사 소자 및 신경망 모사 학습 시스템에 관련된 것으로 보다 구체적으로는 시냅스 모사 소자의 전기 전도도 특성이 하이 레벨과 로우 레벨이 혼재된 스트림에 의하여 가변하는, 신경망 모사 소자 및 신경망 모사 학습 시스템에 관련된 것이다.
신경 모방 공학(Neuromorphic engineering) 분야는 생물학적인 뇌신경의 기능을 공학적 소자를 이용하여 구현하는 것에 대한 연구 분야이다. 신경 모방 연구는 기존의 반도체에서 수행하는 연산기능의 효율성을 높이기 위하여, 생물학적 학습, 인지, 판단을 구현하고자 하는 목적으로 뇌신경을 구성하는 뉴런과 시냅스의 현상적 모사 및 기능적 모사에 관한 연구로 나눠져 진행되고 있다.
종래의 인공 뉴런(Artificial neuron)과 인공 시냅스(Artificial synapse)는 CMOS (Complementary metal-oxide-semiconductor) 소자 기반의 회로로 이루어져 있으며, 각각의 회로는 뉴런의 활성전위(Action potential)와 시냅스의 EPSP(Excitatory postsynaptic potential)/IPSP(Inhibitory postsynaptic potential) 신호를 구현한다.
하지만, CMOS의 연산처리 방식의 연장으로 뇌와 같은 기능을 수행하기 위해서는 현재의 반도체 집적기술을 뛰어 넘는 집적도가 요구된다.
한편 집적화 문제를 해결하기 위해 단일 소자 수준에서 시냅스 기능이 개념적으로 기대되는 멤리스터(Memristor) 소자로 반도체 메모리를 대체하고자 하는 연구가 진행되고 있으나, 기술적 수준이 뇌의 기능에 해당되는 학습과 인지가 수행되는 정도에 이르지 못하고 있다.
따라서 종래의 기술은 Control logic unit과 같은 소프트웨어적 연산으로 신호를 처리하는 부분이 필요할 수밖에 없다는 한계가 있다.
본 발명이 해결하고자 하는 일 기술적 과제는, 생물학적 신경망 모사를 통한 학습법칙에 따른 인지가 가능한 신경망 모사 소자 및 신경망 모사 학습 시스템을 제공하는 데 있다.
본 발명이 해결하고자 하는 다른 기술적 과제는 2개의 입력을 활용하는 자기터널접합구조체를 활용한 신경망 모사 소자 및 신경망 모사 학습 시스템을 제공하는 데 있다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 하드웨어적 구성이 간이한 신경망 모사 소자 및 신경망 모사 학습 시스템을 제공하는 데 있다.
본 발명이 해결하고자 하는 기술적 과제는 상술된 것에 제한되지 않는다.
본 발명의 일 실시 예에 따른 신경망 모사 소자는 로우 레벨과 하이 레벨이 제1 비율로 혼재된 제1 출력 스트림을 출력하는 제1 자기터널접합구조체를 포함하는 제1 뉴런 모사 소자 및 상기 제1 출력 스트림과, 로우 레벨과 하이 레벨이 제2 비율로 혼재된 제2 출력 스트림을 각각 제공받고, 상기 제1 비율과 상기 제2 비율의 차이에 따라 전기 전도도 특성이 가변하는 시냅스 모사 소자를 포함하여 이루어질 수 있다.
일 실시 예에 따르면, 상기 제1 뉴런 소자는, 상기 제1 자기터널접합구조체에 제1-1 입력 및 제1-2 입력을 인가하는 입력 소자를 포함하고, 상기 제1-1 입력과 상기 제1-2 입력의 조합에 따라 상기 제1 비율이 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 비율은 상기 제1 출력 스트림의 전체 시간 중 상기 하이 레벨이 차지하는 비율일 수 있다.
일 실시 예에 따르면, 상기 제1 비율은 0 내지 100%일 수 있다.
일 실시 예에 따르면, 상기 제1 자기터널접합구조체는, 자화상태가 고정된 고정층 및 자화상태가 자유로운 자유층을 포함하며, 상기 제1 출력 스트림은, 상기 자유층이 상기 고정층의 자화상태에 대하여 평행상태와 반-편행상태를 스위칭함에 따라 발생할 수 있다.
일 실시 예에 따르면, 상기 자유층의 자화상태는 상기 제1-1 입력과 상기 제1-2 입력의 조합에 따라 결정될 수 있다.
일 실시 예에 따르면, 상기 제1 비율이 상기 제2 비율보다 큰 경우, 상기 전기 전도도 특성은 저항이 감소하는 방향으로 변할 수 있다.
일 실시 예에 따르면, 상기 제1 비율이 상기 제2 비율보다 작은 경우, 상기 전기 전도도 특성은 저항이 증가하는 방향으로 변할 수 있다.
일 실시 예에 따르면, 상기 시냅스 모사 소자는 멤리스터를 포함할 수 있다.
일 실시 예에 따르면, 상기 시냅스 모사 소자의 전기 전도도 특성은, 상기 제1 출력 스트림 중 하이 레벨과 하이 레벨이 차지하는 시간의 곱으로 정의되는 제1 출력 스트림의 플럭스(flux)와 상기 제2 출력 스트림 중 하이 레벨과 하이 레벨이 차지하는 시간의 곱으로 정의되는 제2 출력 스트림의 플럭스에 의하여 가변할 수 있다.
일 실시 예에 따르면, 상기 제 출력 스트림을 출력하는 제2 자기터널접합구조체를 포함하는 제2 뉴런 모사 소자를 더 포함하며, 상기 제1 뉴런 모사 소자와 상기 제2 뉴런 모사 소자는 상기 시냅스 모사 소자를 사이에 두고 직렬로 연결될 수 있다.
본 발명의 일 실시 예에 따른 신경망 모사 학습 시스템은 로우 레벨과 하이 레벨이 제1 비율로 혼재된 제1 출력 스트림을 출력하는 제1 자기터널접합구조체가 M개 배열된 입력 소자부, N개 배열된 출력 소자부, 상기 입력 소자부와 전기적으로 연결된 M개의 제1 라인, 상기 출력 소자부와 전기적으로 연결되되, 상기 M개의 제1 라인과 교차하여, MXN 어레이를 형성하는 N개의 제2 라인, 상기 제1 라인과 상기 제2 라인이 교차하는 교차점에 마련되며, 상기 제1 비율에 따라 전기 전도도 특성이 가변적으로 학습되는 시냅스 모사 소자를 포함할 수 있다.
일 실시 예에 따르면, 학습 모드에서, 상기 시냅스 모사 소자는 상기 제1 비율에 기반하여 전기 전도도 특성이 가변하고, 상기 학습 모드 후 테스트 모드에서, 상기 출력 소자부는, 상기 시냅스 모사 소자의 학습된 전기 전도도 특성에 따른 결과를 출력할 수 있다.
일 실시 예에 따르면, 상기 제2 라인의 타 단에 전기적으로 연결되며, 로우 레벨과 하이 레벨이 제2 비율로 혼재된 제2 출력 스트림을 출력하는 N개의 제2 자기터널접합구조체를 포함하는 학습 소자부를 더 포함할 수 있다.
본 발명의 일 실시 예에 따른 신경망 모사 소자 및 신경망 모사 학습 시스템은 생물학적 신경망을 모사하여 학습을 수행할 수 있다.
본 발명의 일 실시 예에 따른 신경망 모사 소자 및 신경망 모사 학습 시스템은 2개의 입력을 활용하는 자기터널접합구조체를 활용함으로써, 간이한 하드웨어 구조를 가질 수 있다.
본 발명의 효과는 상술된 것에 제한되지 않는다.
도 1은 본 발명의 일 실시 예에 따른 뉴런 모사 소자의 자기터널접합구조체를 설명하기 위한 도면이다.
도 2 내지 도 5는 본 발명의 일 실시 예에 따른 자기터널접합구조체의 특성을 설명하기 위한 도면이다.
도 6 및 도 7은 본 발명의 일 실시 예에 따른 시냅스 모사를 설명하기 위한 도면이다.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 신경망 모사 소자를 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 신경망 모사 소자의 동작 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 신경망 모사 학습 시스템을 설명하기 위한 도면이다.
도 12는 본 발명의 다른 실시 예에 따른 신경망 모사 학습 시스템을 설명하기 위한 도면이다.
이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명할 것이다. 그러나 본 발명의 기술적 사상은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화 될 수도 있다. 오히려, 여기서 소개되는 실시 예는 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.
본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다.
또한, 본 명세서의 다양한 실시 예 들에서 제1, 제2, 제3 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에 제 1 구성요소로 언급된 것이 다른 실시 예에서는 제 2 구성요소로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함한다. 또한, 본 명세서에서 '및/또는'은 전후에 나열한 구성요소들 중 적어도 하나를 포함하는 의미로 사용되었다.
명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 구성요소 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 구성요소 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하는 것으로 이해되어서는 안 된다. 또한, 본 명세서에서 "연결"은 복수의 구성 요소를 간접적으로 연결하는 것, 및 직접적으로 연결하는 것을 모두 포함하는 의미로 사용된다.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다.
도 1은 본 발명의 일 실시 예에 따른 뉴런 모사 소자의 자기터널접합구조체를 설명하기 위한 도면이다.
도 1을 참조하면, 자기터널접합구조체(100)는 고정층(110) 상에 마련된 터널링 배리어층(120) 및 상기 터널링 배리어층(120) 상에 마련된 자유층(130)이 순차적으로 적층된 구조를 가질 수 있다. 상기 자유층(130), 터널링 배리어층(120) 및 고정층(110) 순서로 적층될 수 있음은 물론이다.
상기 고정층(110)은 자화방향이 고정되어 있어 외부의 영향을 받지 않는 층을 의미할 수 있다. 이를 위하여 상기 고정층(110)은 강 자성 물질을 포함할 수 있다. 예를 들어, 강 자성 물질은 CoFeB을 포함할 수 있다. 보다 구체적으로 상기 고정층(110)은 PtMn/CoFe/Ru/CoFeB 순서로 적층된 층들을 포함할 수 있다.
상기 터널링 배리어층(120)은 상기 고정층(110)과 상기 자유층(130) 사이에 마련되되, 절연물질로 이루어질 수 있다. 예를 들어, 절연물질은 MgO, Al2O3, HfO2, TiO2, Y2O3 및 Yb2O3로 이루어진 군에서 선택된 적어도 어느 하나일 수 있다. 보다 구체적으로 터널링 배리어층(120)은 MgO층일 수 있다.
상기 자유층(130)은 상기 터널링 배리어층(120) 상에 마련될 수 있다. 상기 자유층(130)은 인가되는 입력에 따라 자화방향이 변할 수 있다. 예를 들어, 상기 자유층(130)의 자화방향은 상기 고정층(110)의 자화방향과 평행(P)하거나 상기 고정층(110)의 자화방향과 반-평행(AP)할 수 있다. 이를 위하여 상기 자유층(130)도 강 자성 물질 예를 들어, CoFeB를 포함할 수 있다.
상기 자유층(130)은 두 개의 입력을 동시에 인가받을 수 있다. 이 때, 인가된 두 개의 입력에 따라 자화상태가 결정될 수 있다. 일 예에 따르면, 상기 자유층(130)은 자기장과 전류를 입력으로 인가받을 수 있다. 이는 일 예일 뿐이며, 상기 자유층(130)은 자기장과 전압을 입력으로 인가받을 수 있다. 입력에 따른 자화상태에 대한 상세한 설명은 후술하기로 한다.
상기 자유층(130)의 두께는 EM 효과 (Electromagnetic effect)를 극대화 하기 위해 최소화될 수 있다. 예를 들어, 상기 자유층(130)의 두께는 1.5nm 이하일 수 있다.
자기터널접합구조체(100)는 입력요소를 통하여 제1 타입 또는 제2 타입의 입력을 인가받을 수 있다. 이 때 제1 타입은 자기장이고, 제2 타입은 전류로 상정하기로 한다.
상기 자기터널접합구조체(100)는 제1 입력요소(150)로부터 자기장을 인가받을 수 있다. 상기 제1 입력요소(150)는 상기 자기터널접합구조체(100)과 전기적으로 분리 배치될 수 있다. 예를 들어, 상기 제1 입력요소(150)는 전류 라인으로 이루어질 수 있다. 즉, 상기 제1 입력요소(150)에 도 1에 도시된 화살표 방향으로 전류가 흐르는 경우, 상기 제1 입력요소(150)에 흐르는 전류에 의해 상기 자기터널접합구조체(100)에 자기장이 인가될 수 있다.
상기 제2 입력요소(140)는, 제1 라인(142) 및 제2 라인(144)를 포함할 수 있다.
상기 제1 라인(142) 및 상기 제2 라인(144)는 상기 자기터널접합구조체(100)의 양 단에 전기적으로 연결될 수 있다. 예를 들어, 상기 제1 라인(142)은 상기 자기터널접합구조체(100)의 상단에 전기적으로 연결되고, 상기 제2 라인(144)은 상기 자기터널접합구조체(100)의 하단에 전기적으로 연결될 수 있다.
또한, 상기 제2 입력요소(140)는 보조라인(146)을 더 포함할 수 있다. 상기 보조라인(146)은 상기 제1 라인(142)과 상기 자기터널접합구조체(100)의 상단 사이를 전기적으로 연결할 수 있다. 도시하지는 않았으나, 상기 제2 라인(144)와 상기 자기터널접합구조체(100)의 하단 사이를 전기적으로 연결하는 보조라인이 추가될 수 있음은 물론이다.
이에 따라, 상기 제1 라인(142) 및 상기 제2 라인(144) 사이에 바이어스가 인가되는 경우, 상기 자기터널접합구조체(100)에도 바이어스 전압이 인가되고, 도 1에 도시된 화살표 방향으로 상기 자기터널접합구조체(100) 내에 전류가 흐를 수 있다.
이상 도 1을 참조하여 본 발명의 일 실시 예에 따른 자기터널접합구조체를 설명하였다. 자기터널접합구조체(100)에 입력되는 자기장 및 전류에 따라 결정되는 자화상태를 가질 수 있는 바, 자화상태에 대하여, 도 2 내지 도 5를 참조하여 설명하기로 한다.
도 2 내지 도 5는 본 발명의 일 실시 예에 따른 자기터널접합구조체의 특성을 설명하기 위한 도면이다.
도 2 및 도 3을 참조하면, 상기 자기터널접합구조체(100)의 자유층(130)의 자화상태는 고정층(110)의 자화상태에 대하여 3 가지 자화상태를 가질 수 있다. 3 가지 자화상태는 상기 자유층(130)의 자화상태가 상기 고정층(110)의 자화상태와 반-평행한 제1 상태(AP), 상기 자유층(130)의 자화상태가 상기 고정층(110)의 자화상태와 평행한 제2 상태(P), 그리고 상기 자유층(130)의 자화상태가 상기 고정층(110)의 자화상태에 대하여 반-평행한 상태와 평행한 상태 사이에서 텔레그래픽 스위칭(telegraphic switching)하는 제3 상태가 될 수 있다.
상기 자기터널접합구조체(100)의 자유층(130)의 자화상태는 입력 값 즉, 제 1 입력요소(150)로부터 인가되는 자기장 및 제2 입력요소(140)로부터 인가되는 전류의 값에 의하여 결정될 수 있다. 전류는 spin transfer torque 현상에 따라 자유층(130)의 자화상태에 영향을 미칠 수 있고, 자기장은 ampere magnetic field 현상에 따라 자유층(130)의 자화상태에 영향을 미칠 수 있다. 자기장 및 전류 쌍으로 이루어진 입력에 의하여 상기 자기터널접합구조체(100)의 자유층(130)의 자화상태가 상기 제1 상태, 상기 제2 상태 및 제3 상태 중에서 결정될 수 있다.
예를 들어, 입력되는 자기장의 크기가 2 종류 HAP, HP이고 입력되는 전류의 크기가 IAP, IP인 경우를 상정하기로 한다. 이 때, HAP IAP는 자유층(130)이 고정층(110)에 대하여 반-평행한 자화상태(즉, 제1 상태)를 가지도록 유도하는 입력 값이고, HP IP는 자유층(130)이 고정층(110)에 대하여 평행한 자화상태(즉, 제2 상태)를 가지도록 유도하는 입력 값으로 정의될 수 있다.
따라서, (HAP, IAP), (HP, IP)의 입력이 자기터널접합구조체(100)에 인가되는 경우, 2개의 입력(자기장, 전류)이 같은 자화상태를 유도하는 입력이므로, 자유층(130)의 자화상태는 평행한 상태 또는 반-평행한 상태가 될 수 있다.
이와 달리, (HAP, IP), (HP, IAP)의 입력이 자기터널접합구조체(100)에 인가되는 경우, 2개의 입력(자기장, 전류)이 서로 반대방향의 자화상태를 유도하는 입력이므로, 자유층(130)의 자화상태는 반-평행한 상태와 평행한 상태 사이에서 랜덤하게 진동하게 된다. 다른 관점에서, 외부 자기장 입력과 Spin Torque Transfer(이하 STT)에 의한 전류 입력이 서로 반대방향의 자화상태를 유도하는 경우, 자화상태의 랜덤 진동이 발생하게 된다. 이는 자기터널접합구조체(100)가 서로 상반된 자화상태를 유도하는 입력에 의하여 열적 요동하는 것으로 이해될 수 있다. 자화상태가 반-평행한 상태와 평행한 상태 사이에서 랜덤하게 진동하는 것을 텔렉그래픽 스위칭 및 stochastic oscillation이라 호칭할 수 있다.
이 때, 자화상태의 진동 특성은 자기장과 전류의 입력 값에 의해 결정되며 수학식1으로 다음과 같이 표현 할 수 있다.
[수학식1]
PAP=1/(1+exp(αH+ βI+ γ)).
(PAP는 telegraphic switching 동작하는 전체 시간 동안 자기터널접합구조체(100) 자화상태가 반-평행상태로 유지되는 시간의 비율,
H와 I는 각각 입력된 자기장과 전류 값이며
α, β, γ는 각각 측정으로부터 얻어진 파라미터 값)
위 수학식1을 통해 자기장과 전류 값을 적절히 조합하게 되면, 다양한 확률의 비트 스트림을 얻을 수 있을 수 있음을 알 수 있다. 즉, 자기터널접합구조체(100)의 자화상태가 텔레그래픽 스위칭(즉 제3 상태)하는 경우에 있어서, 수학식 1에 따른 PAP의 값을 설정할 수 있음을 알 수 있다.
이하 텔레그래픽 스위칭 현상에 대하여 도 4 및 도 5를 참조하여 시뮬레이션 결과를 설명한다. 시뮬레이션을 위하여, PtMn (15 nm) / CoFe (1.5 nm) / Ru (0.85 nm) / CoFeB (1.5 nm) / MgO (0.6 nm) / CoFeB (1.5 nm)로 구성되고, 크기가 100 ×300 nm2인 자기터널접합구조체를 준비하였다.
구체적인 설명을 위하여 도 4를 참조하면, 자기터널접합구조체(100)에 일정한 전류(-0.01 mA)가 입력된 경우에, 자기장에 따른 PAP 시뮬레이션 곡선을 확인할 수 있다. 이 때, PAP의 결과는 저항 단위로 변환되어 출력되도록 하였다.
도 4의 결과를 살펴보면, 출력은 하이 레벨(반-평행상태)과 로우 레벨(평행상태)이 소정의 확률로 혼재된 비트 스트림의 형태를 가지는 것을 확인할 수 있다. 인가되는 자기장이 75Oe에서, 80Oe, 85Oe, 90Oe, 95Oe로 높아질수록 하이 레벨의 비율이 줄어드는 것을 확인할 수 있다. 즉, 자기장이 커질수록 확률은 줄어드는 것으로 이해될 수 있다. 이는, 비트 스트림의 하이 레벨의 비율 즉, 확률은 입력되는 값의 크기, 즉 자기장의 크기에 따라 제어될 수 있음을 의미한다.
계속하여 도 5를 참조하면, 자기터널접합구조체(100)에 전류를 30uA에서, 20uA, 10uA, -10uA, -20uA, -30uA로 변경하고, 자기장을 50Oe 내지 110Oe 범위에서 변경하였다. 이 경우, Y 축의 출력은 전압으로 하되, 전체 출력 시간 중 하이 레벨이 차지하는 비율으로 하였다. 이 경우, 전류와 자기장 입력의 설정에 따라 출력 중 하이 레벨이 차지하는 비율이 0에서 100% 내외에서 조절됨을 확인할 수 있다.
즉, 도 4 및 도 5의 결과에 따라 자기터널접합구조체(100)에 인가되는 전류 및 자기장의 크기에 따라, 출력되는 비트 스트림의 하이 레벨 비율 즉 PAP을 결정할 수 있음을 확인할 수 있다.
또한 도 4 및 도 5의 시뮬레이션 결과에 따른 하이 레벨 비중이 조절되는 텔레그래픽 스위칭 현상은 비율 부호화(rate coding)가 가능함을 의미한다. 또한, 이는 뉴런과 시냅스로 구성된 신경망에 있어서, 활성 전위(spike train)에 대응된다고 할 수 있다. 다른 관점에서 본 발명의 일 실시 예에 따른 텔레그래픽 스위칭 현상은 신경망을 모사할 수 있음을 의미한다. 이 때, 도 5에 도시된 바와 같이, 자기터널접합구조체의 출력은 두 개의 입력인 전류 및 자기장에 따라 0에서 1까지의 모든 비율을 기술할 수 있다. 이에 따라 신경부호화의 한 가지 방법인, 일정 시간 동안 발생하는 스파이크 수의 빈도수에 근거하여 정보를 저장할 수 있다. 즉 입력 값으로 주어지는 신호의 세기에 대해 스파이크 수가 비례하여 나타나는 비율 부호화를 단일 소자 수준에서 구현하게 됨으로 생리학적 뉴런의 기능을 전자소자로 모사할 수 있다.
이상 도 2 내지 도 5를 참조하여 설명한 자기터널접합구조체는 신경망 모사 소자에 있어서, 뉴런 기능을 모사할 수 있다. 이하 도 6 및 도 7을 참조하여, 신경망 모사 소자 중, 시냅스 모사 소자에 대하여 설명하기로 한다.
도 6 및 도 7은 본 발명의 일 실시 예에 따른 시냅스 모사를 설명하기 위한 도면이다.
본 발명의 일 실시 예에 따른 시냅스 모사 소자는, 인가되는 플럭스(flux)에 따라 전기 전도도 특성이 가변할 수 있다. 여기서 플럭스라 함은, 인가되는 신호 예를 들어, 전압을 시간에 대하여 적분한 값을 의미할 수 있다. 이를 위하여, 상기 시냅스 모사 소자는 멤리스터(memrister)로 이루어질 수 있다. 예를 들어, 자기터널접합구조체를 이루는 MgO가 멤리스터 역할을 수행할 수 있다.
도 6을 참조하면, 상기 시냅스 모사 소자에 1.3 Volt와 50 msec의 펄스 폭으로부터 65mVs의 플럭스가 인가되는 경우, 상기 시냅스 모사 소자의 전기 전도도가 증가하는 것을 확인할 수 있다. 이와 달리, 상기 시냅스 모사 소자에 -1.2 Volt와 50 msec의 펄스폭으로부터 -60mVs의 플럭스가 인가되는 경우, 상기 시냅스 모사 소자의 전기 전도도가 감소하는 것을 확인할 수 있다.
도 7을 참조하면, 상기 시냅스 모사 소자는 제1 입력 문턱 전압과 제2 입력 문턱 전압을 기준으로, 서로 다른 방향으로의 저항 변화를 학습할 수 있다. 도 7을 참고하면, 제1 입력 문턱 전압은 -1v로 볼 수 있고, 제2 입력 문턱 전압은 1V로 볼 수 있다. 이 경우, 제1 입력 문턱 전압 보다 작은 전압이 시냅스 모사 소자에 인가되는 시냅스 모사 소자의 저항은 증가할 수 있다. 즉, 전기 전도도는 낮아지게 된다. 이와 달리, 제1 입력 문턱 전압인 -1V와 제2 입력 문턱 전압인 1V 사이의 전압이 시냅스 모사 소자에 인가되는 경우, 시냅스 모사 소자의 저항은 일정하게 유지될 수 있다. 또한 제2 입력 문턱 전압 보다 큰 전압이 시냅스 모사 소자에 인가되는 경우 시냅스 모사 소자의 저항은 낮아질 수 있다. 즉 전기 전도도는 높아지게 된다. 즉, 도 7에 도시된 결과에 따라, 상기 시냅스 모사 소자의 전기 전도도 특성을 변화시키기 위한 전압의 크기에 결정될 수 있다.
따라서, 도 6 및 도 7을 참조하여 설명한 시냅스 모사 소자를 정리하면, 상기 자기터널접합구조체가 시냅스 모사 소자로 플럭스를 제공하는 경우, 시냅스 모사 소자는 생체 시냅스의 기능을 수행할 수 있다. 즉 상기 시냅스 모사 소자는 플럭스에 대해 LTP(Long-term potentiation) 과 LTD (Long-term depression)을 학습 법칙(learning rule)로 하는 가소성(Plasticity)을 구현할 수 있다. 즉, 시냅스 모사 소자의 전기 전도도 특성이 자기터널접합구조체가 제공하는 플럭스에 의하여 가역적으로 결정될 수 있다.
이하, 상술한 도 1 내지 도 7을 참조하여 설명한 자기터널접합구조체 및 시냅스 모사 소자를 포함하는 신경망 모사 소자에 대하여 설명하기로 한다.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 신경망 모사 소자를 설명하기 위한 도면이다.
도 8을 참조하면, 생체 신경망은 뉴런과 뉴런이 시냅스에 의해 연결된 구조를 가진다. 이 때, 시냅스를 기준으로 양단의 뉴런은 각각 프리 뉴런과 포스트 뉴런으로 정의된다. 이 경우, 뉴런에서 시냅스로 제공되는 부호화된 뉴런신호의 차이에 따라 시냅스의 연결 강도 (Syneptic strength) 정도가 결정될 수 있다. 이는 시냅스에 기억되는 정보의 기억 유지시간에 영향을 준다. 이에 따라 뇌의 대표적인 기능인 학습이 이루어진다.
도 9를 참조하면, 본 발명의 일 실시 예에 따른 신경망 모사 소자는 제1 뉴런 모사 소자(200), 시냅스 모사 소자(230)를 포함하여 이루어질 수 있다. 이 때, 상기 제1 뉴런 모사 소자(200)는 상기 시냅스 모사 소자(230)와 직렬로 연결될 수 있다. 또한, 본 발명의 일 실시 예에 따른 신경망 모사 소자는 제2 뉴런 모사 소자(210)를 더 포함할 수 있다. 이 경우, 시냅스 모사 소자(230)를 중심으로 시냅스 모사 소자(230)의 양 단에 제1 뉴런 모사 소자(200)와 제2 뉴런 모사 소자(210)가 각각 마련될 수 있다. 이하에서는 설명의 편의를 위하여 상기 시냅스 모사 소자(230) 양 단에 제1 뉴런 모사 소자(200)와 제2 뉴런 모사 소자(210)가 각각 형성된 경우를 상정하여 설명하기로 한다.
상기 제1 뉴런 모사 소자(200)는 제1 자기터널접합구조체(100a)를 포함할 수 있다. 상기 제1 자기터널접합구조체(100a)는 상기 제1 자기터널접합구조체(100a)의 입력요소를 통하여 자기장과 전류를 인가받아, 하이 레벨과 로우 레벨의 소정의 비율로 혼재된 출력 스트림을 출력할 수 있다. 즉, 하이 레벨과 로우 레벨의 소정의 비율은 자기장과 전류의 조합에 따라 0% 내지 100%의 범위에서 결정될 수 있다. 상기 소정의 비율은 자유층의 텔레그래픽 스위칭 현상에 의한 것이다. 다만 제1 자기터널접합구조체(100a)의 상세한 설명은 상술한 자기터널접합구조체(100)와 동일하므로 구체적인 설명을 생략하기로 한다.
상기 제1 자기터널접합구조체(100a)의 일 단에는 인버터(202)가 연결될 수 있다. 상기 인버터(202)는 상기 제1 자기터널접합구조체(100a)에서 출력을 상기 시냅스 모사 소자(230)로 공급하기에 앞서 전 처리(pre-process)할 수 있다. 예를 들어, 상기 인버터(202)는 상기 제1 자기터널접합구조체(100a)의 출력 중 하이 레벨을 인버터(202) 회로로의 공급 전압인 Vdd에 대응하도록, 상기 제1 자기터널접합구조체(100a)의 출력을 정형화된 펄스로 전 처리할 수 있다.
이에 따라 상기 인버터(202)의 출력은, 상기 시냅스 모사 소자(230)에 플럭스로 인가될 수 있다. 이는 상기 시냅스 모사 소자(230)로 인가되는 플럭스는 총 시간 대비 Vdd 값을 유지하는 시간의 값으로 정의될 수 있음을 의미한다.
상기 제2 뉴런 모사 소자(210)는 제2 자기터널접합구조체(100b) 및 인버터(212)를 포함할 수 있으며, 각 구성은 앞서 설명한 제1 뉴런 모사 소자(200)에 대응하므로 구체적인 설명을 생략하기로 한다.
이하 도 10을 참조하여 본 발명의 일 실시 예에 따른 신경망 모사 소자의 동작 방법을 설명하기로 한다.
도 10은 본 발명의 일 실시 예에 따른 신경망 모사 소자의 동작 방법을 설명하기 위한 도면이다.
먼저 도 10에 도시된 시뮬레이션을 위하여, 고정층이 PtMn (15 nm) / CoFe (1.5 nm) / Ru (0.85 nm) / CoFeB (1.5 nm))으로 이루어지고, 절연층이 MgO (0.6 nm)으로 이루어지고 자유층이 CoFeB (1.5 nm)으로 이루어진 자기터널접합구조체를 준비하였다. 준비된 자기터널접합구조체로 일 실시 예에 따른 신경망 모사 소자를 제조하였다.
시냅스 모사 소자(230)로 인가되는 플럭스의 크기에 따라 시냅스 모사 소자(230)의 연결 강도가 결정됨을 확인할 수 있다. 즉, 제1 뉴런 기능 소자(200)의 출력 중 하이 레벨이 차지하는 비율이 제2 뉴런 기능 소자(210)의 출력 중 하이 레벨이 차지하는 비율 보다 큰 경우, 제1 뉴런 기능 소자(200)의 출력에 따라 시냅스 모사 소자(230)의 연결 강도가 결정되고, 이와 달리, 즉, 제1 뉴런 기능 소자(200)의 출력 중 하이 레벨이 차지하는 비율이 제2 뉴런 기능 소자(210)의 출력 중 하이 레벨이 차이하는 비율 보다 작은 경우, 제2 뉴런 기능 소자(210)의 출력에 따라 시냅스 모사 소자(230)의 연결 강도가 결정될 수 있다.
도 10을 참조하면, 제1 뉴런 기능 소자(200)인 프리 뉴런의 출력 중 하이 레벨의 비율(spiking rate)이 20 내지 100%로 주어진 경우에 있어서, 제2 뉴런 기능 소자(210)인 포스트 뉴런의 출력 중 하이 레벨의 비율이 30%와 70%로 주어진 경우에 있어서의 시냅스 모사 소자(230)의 전기 전도도 특성 변화를 확인할 수 있다.
제2 뉴런 기능 소자(210)의 출력 중 하이 레벨의 비율이 30%인 경우, 제1 뉴런 기능 소자(200)의 출력 중 하이 레벨의 비율이 30%를 초과하는 경우, 시냅스 모사 소자(230)의 저항이 감소(시냅스의 연결 강도 약화)하고, 이와 달리, 제1 뉴런 기능 소자(200)의 출력 중 하이 레벨의 비율이 30% 미만인 경우, 시냅스 모사 소자(230)의 저항이 증가(시냅스의 연결 강도 강화)하는 것을 확인할 수 있다.
제2 뉴런 기능 소자(210)의 출력 중 하이 레벨의 비율이 70%인 경우, 제1 뉴런 기능 소자(200)의 출력 중 하이 레벨의 비율이 70%를 초과하는 경우, 시냅스 모사 소자(230)의 저항이 감소(시냅스의 연결 강도 약화)하고, 이와 달리, 제1 뉴런 기능 소자(200)의 출력 중 하이 레벨의 비율이 70% 미만인 경우, 시냅스 모사 소자(230)의 저항이 증가(시냅스의 연결 강도 강화)하는 것을 확인할 수 있다.
이상 설명한 바에 따라, 제1 뉴런 모사 소자(210), 시냅스 모사 소자(230), 제2 뉴런 모사 소자(210)를 포함하는 신경망 모사 소자는, 생리학적 Learning rule로 알려진 BCM (Bienenstock, Cooper, Munro) theory를 SRDP(Spiking Rate Dependent Plasticity)로 모사할 수 있다. 또한 본 발명에서는 뉴로 트랜스 미션회로를 구성함에 있어서 시냅스 모사 소자는 상술한 바와 같이 자기터널접합구조체로 구성될 수 있으나, 이에 한정되는 것은 아니며, 뉴런 모사 소자가 인지정보로 발생하는 Spike train이 기술하는 플럭스에 따라 동작 가능한 멤리스터는 시냅스 모사 소자로 적용될 수 있다.
이하, 본 발명의 일 실시 예에 따른 신경망 모사 학습 시스템을 설명하기로 한다. 상기 신경망 모사 학습 시스템은 상기 신경망 모사 소자가 어레이 형태로 배열된 것이라는 점에서 차이가 있는 바, 중복되는 부분에 대해서는 설명을 생략하기로 한다.
도 11은 본 발명의 일 실시 예에 따른 신경망 모사 학습 시스템을 설명하기 위한 도면이다.
도 11을 참조하면, 본 발명의 일 실시 예에 따른 신경망 모사 학습 시스템은, 로우 레벨과 하이 레벨이 제1 비율로 혼재된 제1 출력 스트림을 출력하는 제1 자기터널접합구조체가 M개 배열된 입력 소자부(310), N개 배열된 출력 소자부(350), 상기 입력 소자부와 전기적으로 연결된 M개의 제1 라인, 상기 출력 소자부와 전기적으로 연결되되, 상기 M개의 제1 라인과 교차하여, MXN 어레이를 형성하는 N개의 제2 라인, 상기 제1 라인과 상기 제2 라인이 교차하는 교차점에 마련되며, 상기 제1 비율에 따라 전기 전도도 특성이 가변적으로 학습되는 시냅스 모사 소자(330)을 포함하여 이루어질 수 있다.
상기 입력 소자부(310)는 M 개 배열된 뉴런 기능 소자를 포함할 수 있다. 즉, 상기 입력 소자부(310)는 도 11에 도시된 바와 같이, 입력 소자부(310a, 310b, 310c, 310d,...310M)을 포함할 수 있다. 상기 입력 소자부(310)는 뉴런 기능 소자를 포함할 수 있다. 즉 상기 입력 소자부(310)는 자기터널접합구조체(100c) 및 인버터(312)를 포함하여 이루어질 수 있다. 상기 입력 소자부(310)는 도 9를 참조하여 설명한 뉴런 모사 소자에 대응하므로 구체적인 설명을 생략하기로 한다.
상기 제1 라인은 상기 입력 소자부(310)의 출력 단과 전기적으로 연결되며, 소정의 방향 예를 들어, 가로 방향으로 연장할 수 있다.
상기 출력 소자부(350)는 N개 배열된 뉴런 기능 소자를 포함할 수 있다. 즉, 상기 출력 소자부(350)는 도 11에 도시된 바와 같이, 출력 소자부(350a, 350b, 350c, 350d,...350N)을 포함할 수 있다. 상기 출력 소자부(350)는 뉴런 기능 소자를 포함할 수 있다. 일 예에 따르면, 상기 출력 소자부(350)는 자기터널접합구조체 및 인버터를 포함하여 이루어질 수 있다. 상기 출력 소자부(350)도 도 9를 참조하여 설명한 뉴런 모사 소자에 대응하므로 구체적인 설명을 생략하기로 한다.
상기 제2 라인은 상기 출력 소자부(350)의 출력 단과 전기적으로 연결되며 소정의 방향 예를 들어, 세로 방향으로 연장할 수 있다.
상기 시냅스 모사 소자(330)는 상기 제1 라인과 상기 제2 라인이 교차하는 교차 점에 마련될 수 있다. 예를 들어, 상기 시냅스 모사 소자(330)의 일 단은 상기 제1 라인과 전기적으로 연결되고 상기 시냅스 모사 소자(330)의 타 단은 상기 제2 라인과 전기적으로 연결될 수 있다. 상기 시냅스 모사 소자(330)의 구체적인 설명은 도 9를 참조하여 설명한 시냅스 모사 소자에 대응하므로 구체적인 설명을 생략하기로 한다.
일 예에 따르면, 상기 신경망 모사 학습 시스템은 이미지 패턴을 학습할 수 있다. 상기 신경망 모사 학습 시스템의 학습은 학습 모드와 학습 모드의 학습 결과를 테스트하는 테스트 모드를 포함할 수 있다. 설명의 편의를 위하여 상기 신경망 모사 학습 시스템이 인지하고자 하는 대상이 개와 고양처럼 두 종으로 구성된 경우를 상정하기로 한다.
학습 모드를 위하여, 인지대상의 학습을 위한 모집단 이미지가 준비될 수 있다. 먼저 모집단(known)을 이루는 이미지를 픽셀로 나누어 개별 픽셀의 그레이 스케일로 이미지 정보를 변환한다. 이 때 입력 소자부(310)의 M의 개수는 픽셀 수와 동일하게 이루어질 수 있다. 픽셀 별 그레이 스케일은 자기터널접합구조체(100c)의 두 개의 입력요소를 통해 각각의 입력 값으로 변환될 수 있다. 즉 픽셀 별 그레이 스케일은 Spin transfer torque에 관여하는 전류와 Ampere magnetic field를 유도하는 전류로 환산된 후, 개개의 입력 소자부(310a, 310b, 310c, 310d,...310M)로 제공될 수 있다.
상기 입력 소자부(310)는 상기 그레이 스케일을 반영하는 전류 및 전압을 하이 레벨 및 로우 레벨이 소정의 비율로 혼재된 플럭스의 양으로 출력할 수 있다. 상기 입력 소자부(310)로부터의 출력은 상기 제1 라인을 통하여 상기 시냅스 모사 소자(330)의 일 단으로 전달될 수 있다. 이에 따라 상기 시냅스 모사 소자(330)에는 인지 대상의 종류를 규정하는 연결 강도가 설정될 수 있다.
이 때 모집단의 정보에 의해 입력 소자부(310)와 연결되는 시냅스 모사 소자의 연결 강도가 각각 분류 대상을 규정하도록 설정된다.
이를 위하여, 개와 고양이에 각각 대응하는 출력 소자부(350)는 상기 시냅스 모사 소자(330)의 타 단으로 연결 강도 설정을 위한 출력 스트림을 제공할 수 있다. 예를 들어, 모집단 이미지 중 개에 대한 이미지를 학습하고 있는 경우, 개에 대응하는 출력 소자부는 상기 시냅스 모사 소자(330)의 연결 강도를 강화하기 위한 출력 스트림을 출력하고, 고양이에 대응하는 출력 소자부는 상기 시냅스 모사 소자(330)의 연결 강도를 약화하기 위한 출력 스트림을 출력할 수 있다.
이에 따라 모집단을 이루는 이미지가 각각 개인지 고양이 인지에 따른 학습 결과가 시냅스 모사 소자이 연결 강도로 저장됨으로써, 학습 모드가 구현될 수 있다.
학습 모드 이후 테스트 모드에서는 인지해야 하는 미지의 대상에 대한 이미지를 입력 소자부(310)로 제공할 수 있다. 즉 입력 소자부(310)의 자기터널접합구조체는 각 픽셀 별 그레이 스케일이 변환된 전류 및 자기장을 제공받을 수 있다. 상기 입력 소자부(310)의 출력은 제1 라인 및 시냅스 모사 소자(330)를 통과한다. 즉, 상기 입력 소자부(310)의 출력은 상기 시냅스 모사 소자(330)에 학습된 연결 강도에 영향을 받게 된다. 이에 따라 상기 출력 소자부(330)의 출력에 따라 미지의 이미지가 개인지 고양이인지를 분류할 수 있다. 이와 같은 시스템 구성은 기계학습에서 적용하는 학습알고리즘 연산의 기능을 하드웨어로 구성된 연산 회로 시스템에서 구현케 한다.
이하 도 12를 참조하여 본 발명의 다른 실시 예에 따른 신경망 모사 학습 시스템을 설명하기로 한다. 도 12를 참조한 실시 예에서 도 11을 참조하여 설명한 실시 예와 중복되는 부분은 설명을 생략하기로 한다.
도 12는 본 발명의 다른 실시 예에 따른 신경망 모사 학습 시스템을 설명하기 위한 도면이다.
도 12를 참조하면, 다른 실시 예에 따른 신경망 모사 학습 시스템은, 상기 제2 라인의 타 단에 전기적으로 연결되며, 로우 레벨과 하이 레벨이 소정 비율로 혼재된 출력 스트림을 출력하는 N개의 자기터널접합구조체를 포함하는 학습 소자부(370)를 더 포함할 수 있다.
일 예에 따르면, 상기 입력 소자부(310)가 프리 뉴런에 대응된다면, 상기 학습 소자부(370)는 포스트 뉴런에 대응될 수 있다. 따라서, 상기 입력 소자부(310), 상기 시냅스 모사 소자(330) 및 상기 학습 소자부(370)의 회로(도 12의 네모 박스)는 도 9에 도시된 바와 같이 구성될 수 있다. 즉, 상기 입력 소자부(310)가 제1 뉴런 모사 소자(200)에 대응하고, 상기 시냅스 모사 소자(330)가 시냅스 모사 소자(230)에 대응하고, 상기 학습 소자부(370)가 제2 뉴런 모사 소자(210)에 대응할 수 있다.
본 실시 예에 따르면, 실시간으로 학습이 가능해질 수 있다. 즉, 입력 소자부(210)의 출력 스트림 중 하이 레벨의 비율과 학습 소자부(370)의 출력 스트림 중 하이 레벨의 비율의 차이에 기반하는 SRDP 학습 규칙에 따라 시냅스 모사 소자의 연결 강도가 실시간으로 재 설정될 수 있다.
일 예를 들어, 학습 모드에 수행에 따라 상기 시냅스 모사 소자(330)에 소정의 연결 강도가 설정된 상태에서, 상기 입력 소자부(310)를 통하여 미지의 이미지가 입력될 수 있다. 이 경우, 상기 입력 소자부(310)로부터의 미지의 이미지에 대한 입력은 상기 시냅스 모사 소자(330)에 설정된 연결 강도에 따라 상기 출력 소자부(350)에서 출력될 수 있다. 이 때, 상기 출력 소자부(350)에서 미지의 이미지가 예를 들어, 개라고 판단하였으나, 실제로는 고양이인 경우, 상기 학습 소자부(370)는 상기 시냅스 모사 소자(330)에 출력 스트림을 제공하여 미지의 이미지가 개가 아니라 고양이라는 것을 연결 강도로 재 설정할 수 있는 것이다.
이에 따라 본 실시 예에 따른 신경망 모사 학습 시스템은 온라인(on-line) 학습을 수행할 수 있다.
이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.

Claims (14)

  1. 로우 레벨과 하이 레벨이 제1 비율로 혼재된 제1 출력 스트림을 출력하는 제1 자기터널접합구조체를 포함하는 제1 뉴런 모사 소자; 및
    상기 제1 출력 스트림과, 로우 레벨과 하이 레벨이 제2 비율로 혼재된 제2 출력 스트림을 각각 제공받고, 상기 제1 비율과 상기 제2 비율의 차이에 따라 전기 전도도 특성이 가변하는 시냅스 모사 소자;를 포함하되,
    상기 제2 출력 스트림을 출력하는 제2 자기터널접합구조체를 포함하는 제2 뉴런 모사 소자를 더 포함하며,
    상기 제1 뉴런 모사 소자와 상기 제2 뉴런 모사 소자는 상기 시냅스 모사 소자를 사이에 두고 직렬로 연결되고,
    상기 시냅스 모사 소자로 인가되는 플럭스의 크기에 따라 상기 시냅스 모사 소자의 연결 강도가 결정되되,
    상기 제1 출력 스트림 중 하이 레벨이 차지하는 비율이 상기 제2 출력 스트림 중 하이 레벨이 차지하는 비율보다 큰 경우, 상기 제1 출력 스트림에 따라 상기 시냅스 모사 소자의 연결 강도가 결정되고,
    상기 제1 출력 스트림 중 하이 레벨이 차지하는 비율이 상기 제2 출력 스트림 중 하이 레벨이 차지하는 비율보다 작은 경우, 상기 제2 출력 스트림에 따라 상기 시냅스 모사 소자의 연결 강도가 결정되는, 신경망 모사 소자.
  2. 제1 항에 있어서,
    상기 제1 뉴런 소자는, 상기 제1 자기터널접합구조체에 제1-1 입력 및 제1-2 입력을 인가하는 입력 소자를 포함하고,
    상기 제1-1 입력과 상기 제1-2 입력의 조합에 따라 상기 제1 비율이 결정되는, 신경망 모사 소자.
  3. 제2 항에 있어서,
    상기 제1 비율은 상기 제1 출력 스트림의 전체 시간 중 상기 하이 레벨이 차지하는 비율인, 신경망 모사 소자.
  4. 제3 항에 있어서,
    상기 제1 비율은 0 내지 100%인, 신경망 모사 소자.
  5. 제2 항에 있어서,
    상기 제1 자기터널접합구조체는, 자화상태가 고정된 고정층 및 자화상태가 자유로운 자유층을 포함하며,
    상기 제1 출력 스트림은, 상기 자유층이 상기 고정층의 자화상태에 대하여 평행상태와 반-편행상태를 스위칭함에 따라 발생하는, 신경망 모사 소자.
  6. 제5 항에 있어서,
    상기 자유층의 자화상태는 상기 제1-1 입력과 상기 제1-2 입력의 조합에 따라 결정되는, 신경망 모사 소자.
  7. 제1 항에 있어서,
    상기 제1 비율이 상기 제2 비율보다 큰 경우, 상기 전기 전도도 특성은 저항이 감소하는 방향으로 변하는, 신경망 모사 소자.
  8. 제1 항에 있어서,
    상기 제1 비율이 상기 제2 비율보다 작은 경우, 상기 전기 전도도 특성은 저항이 증가하는 방향으로 변하는, 신경망 모사 소자.
  9. 제1 항에 있어서,
    상기 시냅스 모사 소자는 멤리스터를 포함하는, 신경망 모사 소자.
  10. 제1 항에 있어서,
    상기 시냅스 모사 소자의 전기 전도도 특성은, 상기 제1 출력 스트림 중 하이 레벨과 하이 레벨이 차지하는 시간의 곱으로 정의되는 제1 출력 스트림의 플럭스(flux)와 상기 제2 출력 스트림 중 하이 레벨과 하이 레벨이 차지하는 시간의 곱으로 정의되는 제2 출력 스트림의 플럭스에 의하여 가변하는 신경망 모사 소자.
  11. 삭제
  12. 로우 레벨과 하이 레벨이 제1 비율로 혼재된 제1 출력 스트림을 출력하는 제1 자기터널접합구조체가 M개 배열된 입력 소자부;
    N개 배열된 출력 소자부;
    상기 입력 소자부와 전기적으로 연결된 M개의 제1 라인;
    상기 출력 소자부와 전기적으로 연결되되, 상기 M개의 제1 라인과 교차하여, MXN 어레이를 형성하는 N개의 제2 라인;
    상기 제1 라인과 상기 제2 라인이 교차하는 교차점에 마련되며, 상기 제1 비율에 따라 전기 전도도 특성이 가변적으로 학습되는 시냅스 모사 소자를 포함하되,
    상기 제2 라인의 타 단에 전기적으로 연결되며, 로우 레벨과 하이 레벨이 제2 비율로 혼재된 제2 출력 스트림을 출력하는 N개의 제2 자기터널접합구조체를 포함하는 학습 소자부를 더 포함하며,
    상기 시냅스 모사 소자로 인가되는 플럭스의 크기에 따라 상기 시냅스 모사 소자의 연결 강도가 결정되되,
    상기 제1 출력 스트림 중 하이 레벨이 차지하는 비율이 상기 제2 출력 스트림 중 하이 레벨이 차지하는 비율보다 큰 경우, 상기 제1 출력 스트림에 따라 상기 시냅스 모사 소자의 연결 강도가 결정되고,
    상기 제1 출력 스트림 중 하이 레벨이 차지하는 비율이 상기 제2 출력 스트림 중 하이 레벨이 차지하는 비율보다 작은 경우, 상기 제2 출력 스트림에 따라 상기 시냅스 모사 소자의 연결 강도가 결정되는, 신경망 모사 학습 시스템.
  13. 제12 항에 있어서,
    학습 모드에서, 상기 시냅스 모사 소자는 상기 제1 비율에 기반하여 전기 전도도 특성이 가변하고,
    상기 학습 모드 후 테스트 모드에서, 상기 출력 소자부는, 상기 시냅스 모사 소자의 학습된 전기 전도도 특성에 따른 결과를 출력하는, 신경망 모사 학습 시스템.
  14. 삭제
KR1020190007503A 2019-01-21 2019-01-21 신경망 모사 소자 및 신경망 모사 학습 시스템 KR102279577B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190007503A KR102279577B1 (ko) 2019-01-21 2019-01-21 신경망 모사 소자 및 신경망 모사 학습 시스템
PCT/KR2020/000707 WO2020153651A1 (ko) 2019-01-21 2020-01-15 신경망 모사 소자 및 신경망 모사 학습 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190007503A KR102279577B1 (ko) 2019-01-21 2019-01-21 신경망 모사 소자 및 신경망 모사 학습 시스템

Publications (2)

Publication Number Publication Date
KR20200090450A KR20200090450A (ko) 2020-07-29
KR102279577B1 true KR102279577B1 (ko) 2021-07-20

Family

ID=71735545

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190007503A KR102279577B1 (ko) 2019-01-21 2019-01-21 신경망 모사 소자 및 신경망 모사 학습 시스템

Country Status (2)

Country Link
KR (1) KR102279577B1 (ko)
WO (1) WO2020153651A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102547775B1 (ko) * 2021-05-11 2023-06-23 포항공과대학교 산학협력단 아날로그 대 확률 신호 변환기의 정규화 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160125287A1 (en) * 2014-10-30 2016-05-05 International Business Machines Corporation Neuromorphic synapses

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8433665B2 (en) * 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
KR102230784B1 (ko) * 2013-05-30 2021-03-23 삼성전자주식회사 Stdp 동작을 위한 시냅스 회로 및 시냅스 회로를 포함하는 뉴로모픽 시스템
US9990580B2 (en) * 2015-03-13 2018-06-05 International Business Machines Corporation Neuromorphic synapses
KR102668199B1 (ko) * 2015-12-30 2024-05-23 에스케이하이닉스 주식회사 뉴로모픽 소자의 시냅스로부터 데이터를 독출하는 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160125287A1 (en) * 2014-10-30 2016-05-05 International Business Machines Corporation Neuromorphic synapses

Also Published As

Publication number Publication date
WO2020153651A1 (ko) 2020-07-30
KR20200090450A (ko) 2020-07-29

Similar Documents

Publication Publication Date Title
Sengupta et al. Hybrid spintronic-CMOS spiking neural network with on-chip learning: Devices, circuits, and systems
US10614358B2 (en) Memristive nanofiber neural networks
Hassan et al. Magnetic domain wall neuron with lateral inhibition
Querlioz et al. Bioinspired programming of memory devices for implementing an inference engine
US20170330070A1 (en) Spin orbit torque based electronic neuron
US10790016B2 (en) Probabilistic neuron circuits
US11625588B2 (en) Neuron circuit and artificial neural network chip
US20150088797A1 (en) Synapse circuits for connecting neuron circuits, unit cells composing neuromorphic circuit, and neuromorphic circuits
CN107368888B (zh) 类脑计算系统及其突触
US20150269478A1 (en) Compact implementation of neuron and synapse with spin switches
US11514301B2 (en) Magnetic domain wall drift for an artificial leaky integrate-and-fire neuron
US20170061278A1 (en) Synapse and neuromorphic device including the same
Gambuzza et al. Memristor crossbar for adaptive synchronization
US9099179B2 (en) Thermodynamic bit formed of two memristors
Afrakoti et al. An optimal hardware implementation for active learning method based on memristor crossbar structures
US20180336470A1 (en) Deep learning in bipartite memristive networks
KR102279577B1 (ko) 신경망 모사 소자 및 신경망 모사 학습 시스템
KR102126791B1 (ko) 교차점 어레이를 이용한 신경 연결망 및 그 패턴 인식방법
Liu et al. The circuit realization of a neuromorphic computing system with memristor-based synapse design
CN108073982B (zh) 类脑计算系统
Vatajelu et al. Fully-connected single-layer stt-mtj-based spiking neural network under process variability
Prudnikov et al. Polyaniline‐Based Memristive Devices as Key Elements of Robust Reservoir Computing for Image Classification
US20220138546A1 (en) Expandable neuromorphic circuit
Suh et al. An associative memory device using a magnetic tunnel junction
KR101510991B1 (ko) 저항변화 메모리를 이용한 신경회로망 형태 분류기 및 형태 분류 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant