KR102610430B1 - Binary neural network and its operation method - Google Patents

Binary neural network and its operation method Download PDF

Info

Publication number
KR102610430B1
KR102610430B1 KR1020210091837A KR20210091837A KR102610430B1 KR 102610430 B1 KR102610430 B1 KR 102610430B1 KR 1020210091837 A KR1020210091837 A KR 1020210091837A KR 20210091837 A KR20210091837 A KR 20210091837A KR 102610430 B1 KR102610430 B1 KR 102610430B1
Authority
KR
South Korea
Prior art keywords
bit line
synapse
neural network
binary neural
fixed electrode
Prior art date
Application number
KR1020210091837A
Other languages
Korean (ko)
Other versions
KR20230011156A (en
Inventor
최우영
Original Assignee
서강대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서강대학교산학협력단 filed Critical 서강대학교산학협력단
Priority to KR1020210091837A priority Critical patent/KR102610430B1/en
Publication of KR20230011156A publication Critical patent/KR20230011156A/en
Application granted granted Critical
Publication of KR102610430B1 publication Critical patent/KR102610430B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/12Bit line control circuits, e.g. drivers, boosters, pull-up circuits, pull-down circuits, precharging circuits, equalising circuits, for bit lines
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C8/00Arrangements for selecting an address in a digital store
    • G11C8/14Word line organisation; Word line lay-out

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Semiconductor Memories (AREA)

Abstract

본 발명은 직렬로 연결된 다수의 시냅스 소자로 구성된 시냅스 스트링에 있어서, 상기 시냅스 스트링은 제1 방향으로 연장된 비트라인(BL)과, 상기 제1 방향과 수직한 제2 방향으로 연장되어 배치된 다수의 워드라인(WL)과, 상기 비트라인과 상기 워드라인이 교차하는 영역에 배치된 시냅스 소자를 포함하며, 상기 시냅스 소자는 제1 트랜지스터부와 제2 트랜지스터부와, 상기 제1 트랜지스터부와 연결된 제1 고정전극과, 상기 제1 고정전극과 이격되고, 상기 제2 트랜지스터부와 연결된 제2 고정전극과, 상기 제1 고정전극과 상기 제2 고정전극 사이에서 절곡되어 도전 경로를 형성하는 도전성 빔을 포함하는 나노 전기기계 메모리 셀을 포함하는 것을 특징으로 한다.The present invention relates to a synapse string composed of a plurality of synapse elements connected in series, wherein the synapse string includes a bit line (BL) extending in a first direction, and a plurality of bit lines (BL) extending in a second direction perpendicular to the first direction. It includes a word line (WL) and a synapse element disposed in an area where the bit line and the word line intersect, wherein the synapse element is connected to a first transistor unit, a second transistor unit, and the first transistor unit. A first fixed electrode, a second fixed electrode spaced apart from the first fixed electrode and connected to the second transistor unit, and a conductive beam bent between the first fixed electrode and the second fixed electrode to form a conductive path. It is characterized in that it includes a nano electromechanical memory cell including a.

Description

이진 신경망 및 그 동작 방법{Binary neural network and its operation method}Binary neural network and its operation method}

본 발명은 이진 신경망 및 그 동작 방법에 관한 것으로, 보다 상세하게는 나노 전기기계 메모리(NEM; Nanoelectromechanical)소자를 이용한 이진 신경망 어레이 및 구동 방법에 관한 것이다.The present invention relates to a binary neural network and its operating method, and more specifically, to a binary neural network array and operating method using nanoelectromechanical memory (NEM) devices.

최근 폰 노이만 아키텍처 기반의 집적회로에서 전력 소모가 크게 증가하고 발열 문제가 심각해지면서 동물의 신경계를 모방하려는 시도가 많이 시도되고 있다. 특히, 동물의 신경계를 모방한 기술에서는 전력 소모를 크게 줄이면서, 인지 기능이 가능하고 학습이 가능함으로써 인식 기능과 판단 기능을 개선할 수 있게 되었다. 이에 따라 기존의 폰 노이만 방식의 집적회로의 기능을 대체하거나 크게 개선할 수 있는 기회가 생겼다. 따라서, 이에 대한 관심이 증가하고 연구의 필요성이 크게 대두되었다. 뉴런의 기본 기능은 임계치 이상의 자극을 받았을 경우 전기적 스파이크를 발생시켜 다른 세포에 정보를 전달하는 것이며, 돌기 사이에 신호를 전달하는 부분을 시냅스(synapse)라고 한다. 최근에 시냅스와 뉴런의 값을 -1 과 1의 값으로 제한시켜서 순방향전파와 역방향전파를 진행하는 이진 신경망 (binary neural networks)이 활발히 연구되고 있다. 이진 신경망은 곱셈연산기 (multiplier)를 없앰으로써 면적과 전력측면에서 유리하다. 최근 RRAM 소자를 이용하여 이진 신경망을 구현하는 시도가 있었다. 여기서는 2T2R구조를 하나의 시냅스로 사용하고 이를 이용하여 XNOR operation을 하는 구조를 고안하고 이를 이진신경망에 사용하였다. 또한 최근 logic gate를 이용하여 이진신경망을 구현하는 시도가 있었다. 그러나, 전술한 기술에 따라 logic gate를 이용하여 이진 신경망을 구현하는 것은 신뢰성은 좋으나 여러 개의 소자를 사용함으로써 집적도가 낮은 단점이 있다.Recently, as power consumption in integrated circuits based on the von Neumann architecture has increased significantly and heat generation problems have become more serious, many attempts have been made to imitate the nervous system of animals. In particular, technology that mimics the nervous system of animals has made it possible to improve cognitive and judgment functions by enabling cognitive functions and learning while significantly reducing power consumption. Accordingly, an opportunity arose to replace or significantly improve the functionality of the existing von Neumann type integrated circuit. Therefore, interest in this has increased and the need for research has emerged. The basic function of neurons is to transmit information to other cells by generating electrical spikes when they receive stimulation above the threshold, and the part that transmits signals between protrusions is called a synapse. Recently, binary neural networks, which perform forward and backward propagation by limiting the values of synapses and neurons to the values of -1 and 1, are being actively studied. Binary neural networks are advantageous in terms of area and power by eliminating multipliers. Recently, there has been an attempt to implement a binary neural network using RRAM devices. Here, the 2T2R structure was used as a synapse, and a structure for XNOR operation was designed using this structure and used in a binary neural network. Additionally, there has recently been an attempt to implement a binary neural network using logic gate logic. However, implementing a binary neural network using logic gates according to the above-described technology has good reliability, but has the disadvantage of low integration due to the use of multiple devices.

한국공개특허 제10-2020-0110582호는 시냅스 스트링에 관한 것으로, 각각 직렬 연결된 복수 개의 메모리 셀 소자들을 구비한 제1 및 제2 셀 스트링; 및 제1 및 제2 셀 스트링의 양단부들 중 하나에 각각 연결된 제1 스위치 소자들;을 구비하고, 상기 제1 셀 스트링의 메모리 셀 소자들과 상기 제2 셀 스트링의 메모리 셀 소자들은 서로 일대일 대응되고, 일대일 대응되는 메모리 셀 소자들의 쌍(pair)은 하나의 단자가 서로 전기적으로 연결되어 하나의 시냅스 모방 소자를 구성하며, 상기 일대일 대응되는 메모리 셀 소자의 서로 전기적 연결되는 단자는 읽기 (Read), 또는 통과 (Pass) 전압이 인가되거나 프로그램 또는 이레이즈 (Program/Erase) 전압이 인가되는 단자인 것을 특징으로 하며 상기 제1 및 제2 셀 스트링에 포함된 메모리 셀 소자들의 복수 개의 쌍은 복수 개의 시냅스 모방 소자로 구성된다.Korean Patent Publication No. 10-2020-0110582 relates to a synapse string, including first and second cell strings each having a plurality of memory cell elements connected in series; and first switch elements each connected to one of both ends of the first and second cell strings, wherein the memory cell elements of the first cell string and the memory cell elements of the second cell string have a one-to-one correspondence with each other. A pair of memory cell elements corresponding one-to-one has one terminal electrically connected to each other to form one synapse-mimicking element, and the terminals of the memory cell elements corresponding one-to-one electrically connected to each other are read. , or a terminal to which a pass voltage is applied or a program or erase (Program/Erase) voltage is applied, and the plurality of pairs of memory cell elements included in the first and second cell strings are a plurality of terminals. It consists of a synapse-mimicking element.

한국공개특허 제10-2020-0110582호(2020. 09. 24.)Korean Patent Publication No. 10-2020-0110582 (2020. 09. 24.)

본 발명의 일 실시예는 나노 전기기계 메모리 셀을 이용하여 XNOR 연산을 수행함으로써, 이진 신경망의 어레이를 구성하기 위한 셀의 개수와 전력 소모를 감소시키는 이진 신경망 및 그 동작 방법을 제공하고자 한다.An embodiment of the present invention seeks to provide a binary neural network and a method of operating the same that reduce the number of cells and power consumption for forming an array of a binary neural network by performing an XNOR operation using nano electromechanical memory cells.

본 발명의 일 실시예는 최소한의 나노 전기기계 메모리 셀을 이용함으로써, 이진 신경망 어레이의 집적도를 높이고 신뢰성을 향상시킬 수 있다. 또한, 나노 전기기계 메모리 셀의 내구성과 신뢰성이 우수하므로 안정적인 이진 신경망 어레이를 구성할 수 있는 이진 신경망 및 그 동작 방법을 제공하고자 한다.One embodiment of the present invention can increase the integration of a binary neural network array and improve reliability by using a minimum number of nano electromechanical memory cells. In addition, since the durability and reliability of nano-electromechanical memory cells are excellent, we aim to provide a binary neural network and its operation method that can form a stable binary neural network array.

실시예들 중에서, 본 발명의 실시예에 따른 이진 신경망은 직렬로 연결된 다수의 시냅스 소자로 구성된 시냅스 스트링에 있어서, 상기 시냅스 스트링은 제1 방향으로 연장된 비트라인(BL)과, 상기 제1 방향과 수직한 제2 방향으로 연장되어 배치된 다수의 워드라인(WL)과, 상기 비트라인과 상기 워드라인이 교차하는 영역에 배치된 시냅스 소자를 포함하며, 상기 시냅스 소자는 제1 트랜지스터부와 제2 트랜지스터부와, 상기 제1 트랜지스터부와 연결된 제1 고정전극과, 상기 제1 고정전극과 이격되고, 상기 제2 트랜지스터부와 연결된 제2 고정전극과, 상기 제1 고정전극과 상기 제2 고정전극 사이에서 절곡되어 도전 경로를 형성하는 도전성 빔을 포함하는 나노 전기기계 메모리 셀을 포함하는 것을 특징으로 한다.Among embodiments, a binary neural network according to an embodiment of the present invention includes a synapse string composed of a plurality of synapse elements connected in series, wherein the synapse string includes a bit line (BL) extending in a first direction, and a bit line (BL) extending in the first direction. It includes a plurality of word lines (WL) arranged to extend in a second direction perpendicular to the and a synapse element disposed in an area where the bit line and the word line intersect, wherein the synapse element is connected to the first transistor unit and the first transistor unit. 2 transistor units, a first fixed electrode connected to the first transistor unit, a second fixed electrode spaced apart from the first fixed electrode and connected to the second transistor unit, the first fixed electrode and the second fixed electrode. It is characterized by comprising a nano-electromechanical memory cell including a conductive beam that is bent between electrodes to form a conductive path.

상기 시냅스 스트링 일단에 상기 비트라인과 연결되는 CSA 블록(Current sense amplifier)를 더 포함한다. One end of the synapse string further includes a CSA block (current sense amplifier) connected to the bit line.

상기 제1 트랜지스터부 및 상기 제2 트랜지스터부는 MOSFET으로 구성되며, 상기 제1 트랜지스터부 및 상기 제2 트랜지스터부의 일단은 상기 비트라인과 연결되고, 상기 제1 트랜지스터부 및 상기 제2 트랜지스터부의 게이트 단자는 각각 서로 다른 워드라인과 연결된다.The first transistor unit and the second transistor unit are composed of MOSFETs, one end of the first transistor unit and the second transistor unit is connected to the bit line, and the gate terminal of the first transistor unit and the second transistor unit is Each is connected to a different word line.

상기 CSA 블록은 두 개의 입력 단자를 구비하고, The CSA block has two input terminals,

상기 시냅스 스트링의 상기 비트라인 일단과 연결되어 각 시냅스 소자들로부터 발생되는 전류(IBL)들을 입력받는 제1 입력 단자와, 기준 전류원의 출력단과 연결되어 기준 전류(IREF)를 입력받는 제2 입력 단자를 포함하며, 두 전류를 비교하여 비교 결과들을 순차적으로 출력(Neuron output)한다. A first input terminal connected to one end of the bit line of the synapse string to receive currents (I BL ) generated from each synapse element, and a second input terminal connected to the output terminal of the reference current source to receive a reference current (I REF ) It includes an input terminal, compares the two currents, and sequentially outputs the comparison results (Neuron output).

상기 나노 전기기계 메모리 셀은 프로그램(program) 또는 읽기(read) 전압이 인가되는 단자이며, 상기 나노 전기기계 메모리 셀과 상기 MOSFET은 XNOR 연산을 수행하는 것을 특징으로 한다.The nano electromechanical memory cell is a terminal to which a program or read voltage is applied, and the nano electromechanical memory cell and the MOSFET perform an XNOR operation.

또한, 본 발명의 일 실시예에 따른 이진 신경망 동작 방법은 In addition, the method of operating a binary neural network according to an embodiment of the present invention is

비트라인과 다수의 워드라인이 교차되는 영역에 배치되며, 두 개의 MOSFET 및 도전성 빔을 포함하는 나노 전기기계 메모리 셀로 구성된 시냅스 소자를 포함하는 시냅스 어레이에 있어서, 상기 비트라인 및 상기 워드라인에 특정 전압을 인가하여 '+1' 또는 '-1'의 가중치(Weight)를 프로그램하는 단계와, 상기 가중치가 프로그램된 상태에서 정해진 입력값에 따라 상기 워드라인에 특정 전압을 입력하는 단계와, 상기 가중치와 상기 입력값의 곱이 '+1'인 경우 상기 도전성 빔이 연결된 고정 전극에 전압이 인가되어 출력값이 '+1'으로 표현되고, 상기 가중치와 상기 입력값의 곱이 '-1'인 경우 상기 도전성 빔이 연결되지 않은 고정 전극에 전압이 인가되어 출력 값이 '-1'로 표현되는 단계를 포함한다.A synapse array disposed in an area where a bit line and a plurality of word lines intersect, and including a synapse element composed of a nano electromechanical memory cell including two MOSFETs and a conductive beam, wherein a specific voltage is applied to the bit line and the word line. Programming a weight of '+1' or '-1' by applying a weight, inputting a specific voltage to the word line according to a determined input value while the weight is programmed, and the weight and When the product of the input value is '+1', a voltage is applied to the fixed electrode to which the conductive beam is connected and the output value is expressed as '+1', and when the product of the weight and the input value is '-1', the conductive beam This includes a step where a voltage is applied to the unconnected fixed electrode and the output value is expressed as '-1'.

상기 가중치를 프로그램하는 단계는 상기 시냅스 어레이의 행 단위로 진행되며, 인접한 두 워드라인에 각각 High 전압 및 Low 전압을 인가하고, 특정 비트라인에 High 전압, 나머지 비트라인에는 Low 전압을 인가하여 가중치(Weight)‘+1’을 프로그램(Program) 하거나, 인접한 두 워드라인에 각각 Low 전압 및 High 전압을 인가하고, 특정 비트라인에 High 전압을, 나머지 비트라인에는 Low 전압을 인가하여 가중치(Weight)‘-1’을 프로그램(Program) 하는 단계를 포함한다.The step of programming the weight is performed row by row of the synapse array, and high and low voltages are applied to two adjacent word lines, respectively, and a high voltage is applied to a specific bit line and a low voltage is applied to the remaining bit lines to create a weight ( Weight) '+1' is programmed, or a low voltage and a high voltage are applied to the two adjacent word lines, respectively, and a high voltage is applied to a specific bit line and a low voltage is applied to the remaining bit lines to obtain a weight. It includes the step of programming ‘-1’.

상기 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 크면 출력 값(Output)이 '+1'이 되고, 상기 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 크지 않으면 출력값이 '-1'로 표현된다.If the current value (I BL ) flowing in the bit line is greater than the reference current value (I REF ), the output value (Output) becomes '+1', and the current value (I BL ) flowing in the bit line is greater than the reference current value (I REF). If it is not greater than I REF ), the output value is expressed as '-1'.

각 나노 전기기계 메모리 셀에서 전류가 흐를 경우의 전류 크기를 Ion이라고 정했을 때 기준 전류 값(IREF)은 (N/2) X Ion 인 것을 특징으로 한다.When the current size when current flows in each nano electromechanical memory cell is set to I on , the reference current value (I REF ) is characterized by (N/2) XI on .

상기 나노 전기기계 메모리 셀은 다수의 레이어로 구성되며, 제1 레이어의 비트라인에서 얻어지는 출력값은 순서대로 그 다음 제2 레이어의 입력 값이 되는 것을 특징으로 한다.The nano electromechanical memory cell is composed of a plurality of layers, and the output value obtained from the bit line of the first layer sequentially becomes the input value of the second layer.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology can have the following effects. However, since it does not mean that a specific embodiment must include all of the following effects or only the following effects, the scope of rights of the disclosed technology should not be understood as being limited thereby.

본 발명의 일 실시예에 따른 이진 신경망 및 그 동작 방법은 나노 전기기계 메모리 셀을 이용하여 XNOR 연산을 수행함으로써, 이진 신경망의 어레이를 구성하기 위한 셀의 개수와 전력 소모를 감소시키는 효과를 얻을 수 있다.The binary neural network and its operating method according to an embodiment of the present invention perform an there is.

본 발명의 일 실시예에 따른 이진 신경망 및 그 동작 방법은 최소한의 나노 전기기계 메모리 셀을 이용함으로써, 이진 신경망 어레이의 집적도를 높이고 신뢰성을 향상시키는 효과를 얻을 수 있다. 또한, 나노 전기기계 메모리 셀의 내구성과 신뢰성이 우수하므로 안정적인 이진 신경망 어레이를 구성할 수 있는 효과를 얻을 수 있다. The binary neural network and its operating method according to an embodiment of the present invention can achieve the effect of increasing the integration of the binary neural network array and improving reliability by using a minimum number of nano electromechanical memory cells. In addition, since the durability and reliability of the nano-electromechanical memory cells are excellent, it is possible to construct a stable binary neural network array.

도 1은 본 발명에 따른 이진 신경망의 시냅스 스트링 및 시냅스 어레이를 도시한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 이진 신경망의 나노 전기기계 메모리 셀의 프로그램(Program) 동작을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이진 신경망의 나노 전기기계 메모리 셀의 XNOR 동작원리를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 이진 신경망의 프로그램 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 이진 신경망의 시냅스 어레이 중 하나의 시냅스 스트링에서의 동작 원리를 설명하는 도면이다.
도 6은 본 발명의 일 실시예에 따른 이진 신경망의 시냅스 스트링을 도시한 것이다.
도 7은 본 발명의 일 실시예에 따른 이진 신경망의 읽기 과정을 설명하기 위한 도면이다.
1 is a conceptual diagram showing a synapse string and synapse array of a binary neural network according to the present invention.
Figure 2 is a diagram for explaining a program operation of a nano electromechanical memory cell of a binary neural network according to an embodiment of the present invention.
Figure 3 is a diagram for explaining the XNOR operating principle of a nano electromechanical memory cell of a binary neural network according to an embodiment of the present invention.
Figure 4 is a diagram for explaining the programming process of a binary neural network according to an embodiment of the present invention.
Figure 5 is a diagram explaining the operating principle of one synapse string among the synapse arrays of a binary neural network according to an embodiment of the present invention.
Figure 6 shows a synapse string of a binary neural network according to an embodiment of the present invention.
Figure 7 is a diagram for explaining the reading process of a binary neural network according to an embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is only an example for structural or functional explanation, the scope of the present invention should not be construed as limited by the examples described in the text. In other words, since the embodiments can be modified in various ways and can have various forms, the scope of rights of the present invention should be understood to include equivalents that can realize the technical idea. In addition, the purpose or effect presented in the present invention does not mean that a specific embodiment must include all or only such effects, so the scope of the present invention should not be understood as limited thereby.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in this application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as “first” and “second” are used to distinguish one component from another component, and the scope of rights should not be limited by these terms. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected to the other component, but that other components may exist in between. On the other hand, when a component is referred to as being “directly connected” to another component, it should be understood that there are no other components in between. Meanwhile, other expressions that describe the relationship between components, such as "between" and "immediately between" or "neighboring" and "directly neighboring" should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as “comprise” or “have” refer to implemented features, numbers, steps, operations, components, parts, or them. It is intended to specify the existence of a combination, and should be understood as not excluding in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.For each step, identification codes (e.g., a, b, c, etc.) are used for convenience of explanation. The identification codes do not explain the order of each step, and each step clearly follows a specific order in context. Unless specified, events may occur differently from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein, unless otherwise defined, have the same meaning as commonly understood by a person of ordinary skill in the field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as consistent with the meaning they have in the context of the related technology, and cannot be interpreted as having an ideal or excessively formal meaning unless clearly defined in the present application.

이하 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하 도면상의 동일한 구성 요소에 대하여는 동일한 참조 부호를 사용하고, 동일한 구성 요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the attached drawings. Hereinafter, the same reference numerals will be used for the same components in the drawings, and duplicate descriptions of the same components will be omitted.

도 1은 본 발명에 따른 이진 신경망의 시냅스 스트링 및 시냅스 어레이를 도시한 개념도로, 도 1a는 각각 직렬 연결된 복수 개의 메모리 셀 소자들을 구비한 시냅스 스트링을 도시한 것이고, 도 1b는 다수의 시냅스 스트링으로 구성된 시냅스 어레이를 도시한 것이다. Figure 1 is a conceptual diagram showing a synapse string and synapse array of a binary neural network according to the present invention. Figure 1a shows a synapse string each having a plurality of memory cell elements connected in series, and Figure 1b shows a plurality of synapse strings. This shows the constructed synapse array.

도 1a를 참조하면, 하나의 시냅스 스트링(100)은 제1 방향으로 연장된 비트라인(BL)과 상기 제1 방향과 수직한 제2 방향으로 연장되어 배치된 다수의 워드라인(WL0 ~ WLN)으로 구성되며, 비트라인과 워드라인이 교차하는 영역마다 시냅스 소자(110)가 위치한다. 그리고, 시냅스 스트링(100) 일단에 비트라인과 연결되는 CSA 블록(Current sense amplifier)이 구비된다. Referring to FIG. 1A, one synapse string 100 includes a bit line (BL) extending in a first direction and a plurality of word lines (WL 0 to WL) extending in a second direction perpendicular to the first direction. N ), and a synapse element 110 is located in each area where the bit line and the word line intersect. Additionally, a CSA block (current sense amplifier) connected to a bit line is provided at one end of the synapse string 100.

도 1b를 참조하면, 시냅스 어레이(150)는 시냅스 소자(110)를 포함하는 시냅스 스트링(100)이 워드라인 방향을 따라 여러 개 배치된다. 각각의 시냅스 소자(110)는 두개의 MOSFET(TR1, TR2)과 하나의 나노 전기기계 메모리(NEM)셀로 구성되며, 나노 전기기계 메모리 셀은 프로그램(program) 또는 읽기(read) 전압이 인가되는 단자인 것이 바람직하다. 하나의 시냅스 소자(110)를 구성하는 나노 전기기계 메모리 셀과 MOSFET은 XNOR 연산을 수행하도록 구성된다. 이때, 나노 전기기계 메모리 셀의 도전성 빔을 통해 두 전압을 하나의 입력으로 받아 하나의 셀로 XNOR 연산을 수행할 수 있게 되어 시냅스 어레이를 만들기 위한 셀의 개수와 전력 소모를 감소시킬 수 있다. Referring to FIG. 1B, the synapse array 150 includes several synapse strings 100 including synapse elements 110 arranged along the word line direction. Each synapse element 110 consists of two MOSFETs (TR1, TR2) and one nano electromechanical memory (NEM) cell, and the nano electromechanical memory cell is a terminal to which a program or read voltage is applied. It is desirable to be The nano electromechanical memory cell and MOSFET constituting one synapse element 110 are configured to perform an XNOR operation. At this time, it is possible to receive two voltages as one input through the conductive beam of the nano electromechanical memory cell and perform an

시냅스 어레이(150)의 일단에는 주변회로부가 구성되며, 주변회로부에는 시냅스 스트링(100)의 비트라인과 연결된 CSA 블록이 배치된다. CSA 블록은 두 개의 입력 단자를 구비하고, 하나의 입력 단자는 시냅스 스트링의 비트라인 일단과 연결되어 기본 시냅스 스트링으로부터 각 시냅스 소자들로부터 발생되는 전류(IBL)들을 입력받고, 다른 하나의 입력 단자는 기준 전류원의 출력단과 연결되어 기준 전류원으로부터 기준 전류(IREF)를 입력받는다. CSA 블록은 각 시냅스 소자에 대한 시냅스 스트링 전류들과 기준 전류를 비교하여 비교 결 과들을 순차적으로 출력(Neuron output)하게 된다.A peripheral circuit is formed at one end of the synapse array 150, and a CSA block connected to the bit line of the synapse string 100 is disposed in the peripheral circuit. The CSA block has two input terminals, one input terminal is connected to one end of the bit line of the synapse string and receives currents (I BL ) generated from each synapse element from the basic synapse string, and the other input terminal is connected to the output terminal of the reference current source and receives the reference current (I REF ) from the reference current source. The CSA block compares the synaptic string currents and reference currents for each synaptic element and sequentially outputs the comparison results (Neuron output).

도 2는 본 발명의 일 실시예에 따른 이진 신경망의 나노 전기기계 메모리 셀의 프로그램(Program) 동작을 설명하기 위한 도면이다.Figure 2 is a diagram for explaining a program operation of a nano electromechanical memory cell of a binary neural network according to an embodiment of the present invention.

나노 전기기계 메모리 셀의 프로그램 동작 원리는 전압이 인가되는 비트라인(BL0)과 서로 반대되는 전압이 인가되는 2개의 워드라인인 제1 워드라인(WL0) 및 제2 워드라인(WL0')을 통해 설명할 수 있다. The program operation principle of the nano electromechanical memory cell is a bit line (BL 0 ) to which a voltage is applied and two word lines to which opposing voltages are applied, the first word line (WL 0 ) and the second word line (WL 0'). ) can be explained through.

먼저, 도 2a와 같이 시냅스 소자에 '+1'의 가중치(Weight)를 프로그램하기 위해서는 비트라인에 고전압을 인가하고, 제1 워드라인에 고 전압(High voltage), 제2 워드라인에 저전압(Low volatge)을 인가한다. 이에 따라 도전성 빔(200)은 인가된 전압으로 인해 제1 고정전극(L1)으로 쇼트(Short)되어 '+1'의 가중치가 프로그램된다. First, in order to program a weight of '+1' to the synapse element as shown in Figure 2a, a high voltage is applied to the bit line, a high voltage is applied to the first word line, and a low voltage is applied to the second word line. Volatge) is authorized. Accordingly, the conductive beam 200 is shorted to the first fixed electrode (L1) due to the applied voltage, and a weight of '+1' is programmed.

반대로, 도 2b와 같이 시냅스 소자에 '-1'의 가중치를 프로그램하기 위해서는 비트라인에 고전압을 인가하고, 제1 워드라인에 저전압, 제2 워드라인에 고전압을 인가한다. 이에 따라 도전성 빔(200)은 인가된 전압으로 인해 제2 고정전극(L2)으로 쇼트되어 '-1'의 가중치가 프로그램된다. 도 2a 및 도 2b를 통해 설명한 바와 같이, 가중치 값은 '+1' 또는 '-1'두 가지 값을 가질 수 있으며, 아래의 표 1과 같이 VBL0에 High, VWL0에 High, VBL0’에 Low 전압이 인가되면 가중치(Weight) 값을 +1로 정의하고, VBL0에 High, VWL0에 Low, VBL0’에 High 전압이 인가되면 가중치(Weight) 값을 -1로 정의할 수 있다. Conversely, in order to program a weight of '-1' to the synapse element as shown in Figure 2b, a high voltage is applied to the bit line, a low voltage is applied to the first word line, and a high voltage is applied to the second word line. Accordingly, the conductive beam 200 is short-circuited to the second fixed electrode L2 due to the applied voltage, and a weight of '-1' is programmed. As explained through Figures 2a and 2b, the weight value can have two values, '+1' or '-1', and as shown in Table 1 below, V BL0 is High, V WL0 is High, and V BL0' If a low voltage is applied to , the weight value can be defined as +1, and if a high voltage is applied to V BL0 , low to V WL0 , and high voltage to V BL0 ', the weight value can be defined as -1. .

< 표 1 ><Table 1>

또한, 나노 전기기계 메모리 셀의 리드(Read)를 위한 전압은 아래의 <표 2> 를 참조하여 설명할 수 있다. Additionally, the voltage for reading the nano electromechanical memory cell can be explained with reference to <Table 2> below.

표 2에 나타난 바와 같이 VBL0에 Medium, VWL0에 Medium, VBL0’에 Low 전압이 인가되면 입력 값(Input)을 +1로 정의하고, VBL0에 Medium, VwL0에 Low, VBL0’에 Medium 전압이 인가되면 입력 값(Input)을 -1로 정의할 수 있다. 이때, 전압 인가 값의 대소 관계는 V(High, ~ 0.7V)> V(Medium ~0.5V)> V(Low, 0V)일 수 있다. 입력 값(Input)에 사용되는 전압이 프로그램(Program)할 때 사용되는 전압보다 낮은 이유는 프로그램(Program)된 도전성 빔의 위치를 변화시키지 않고, 입력 값(Input)을 인가하기 위함이다.As shown in Table 2, when a medium voltage is applied to V BL0 , medium to V WL0 , and low voltage to V BL0' , the input value (Input) is defined as +1, medium to V BL0 , low to Vw L0 , and V BL0 ' When a medium voltage is applied, the input value (Input) can be defined as -1. At this time, the magnitude relationship of the voltage application value may be V(High, ~ 0.7V) > V(Medium ~ 0.5V) > V(Low, 0V). The reason why the voltage used for the input value (Input) is lower than the voltage used when programming is to apply the input value (Input) without changing the position of the programmed conductive beam.

< 표 2 ><Table 2>

도 3은 본 발명의 일 실시예에 따른 이진 신경망의 나노 전기기계 메모리 셀의 XNOR 동작원리를 설명하기 위한 도면이며, 나노 전기기계 메모리 셀의 XNOR 동작원리는 각각의 나노 전기기계 메모리 셀이 '+1'과 '-1'로 프로그램된 상태에서 설명될 수 있다.Figure 3 is a diagram to explain the XNOR operating principle of the nano electromechanical memory cell of the binary neural network according to an embodiment of the present invention. The XNOR operating principle of the nano electromechanical memory cell is that each nano electromechanical memory cell is '+ It can be explained in the programmed state as 1' and '-1'.

먼저, 도 3a및 도 3b를 참조하면, 나노 전기기계 메모리 셀에 가중치가 프로그램된 상태에서 입력 값(Input)'+1'을 입력하기 위해서는 <표 2>에 나타난 바와 같이 제1 워드라인(WL0)과 제2 워드라인(WL0’)에 각각 Medium voltage와 Low voltage를 인가한다. First, referring to FIGS. 3A and 3B, in order to input the input value (Input) '+1' with the weight programmed into the nano electromechanical memory cell, the first word line (W) is used as shown in <Table 2>. Medium voltage and low voltage are applied to L0 ) and the second word line (W L0' ), respectively.

이때 도 3a와 같이 입력 값(Input)과 가중치(Weight)의 곱이 ‘+1’이면 도전성 빔이 연결(Short)된 제1 고정전극(L1)에 전압이 인가되어 비트라인에서 전류가 흐르게 되고, 이에 따라 출력 값(Output)이 ‘+1’을 표현하게 된다. At this time, as shown in Figure 3a, if the product of the input value and the weight is '+1', a voltage is applied to the first fixed electrode (L1) to which the conductive beam is connected (short), causing a current to flow in the bit line, Accordingly, the output value (Output) expresses '+1'.

한편, 도 3b와 같이 입력 값(Input)과 가중치(Weight)의 곱이 ‘-1’이면 도전성 빔이 연결되지 않은(Open) 제1 고정전극(L1)에 전압이 인가되어 비트라인에 전류가 흐르지 않게 되고, 이에 따라 출력 값(Output)이‘-1’을 표현한다. On the other hand, as shown in Figure 3b, if the product of the input value and the weight is '-1', a voltage is applied to the first fixed electrode L1 to which the conductive beam is not connected (open), so that no current flows in the bit line. and, accordingly, the output value (Output) expresses '-1'.

또한, 도 3c 및 도 3d를 참조하면, 나노 전기기계 메모리 셀에 가중치가 프로그램된 상태에서 입력 값(Input) ‘-1’을 입력하기 위해서는 <표 2>에 나타난 바와 같이 제1 워드라인(WL0)과 제2 워드라인(WL0')에 각각 Low voltage와 Medium voltage를 인가한다. In addition, referring to FIGS. 3C and 3D, in order to input the input value (Input) '-1' with the weight programmed into the nano electromechanical memory cell, the first word line (W) is used as shown in <Table 2>. Low voltage and medium voltage are applied to L0 ) and the second word line (W L0' ), respectively.

이때 도 3c와 같이 입력 값(Input)과 가중치(Weight)의 곱이 ‘+1’이면 도전성 빔이 연결된(Short)된 제2 고정전극(L2)에 전압이 인가되어 비트라인에 전류가 흐르게 되고, 이에 따라 출력 값(Output)이 ‘+1’을 표현하게 된다. At this time, as shown in Figure 3c, if the product of the input value and the weight is '+1', a voltage is applied to the second fixed electrode (L2) to which the conductive beam is connected (short), causing a current to flow in the bit line, Accordingly, the output value (Output) expresses '+1'.

한편, 도 3d와 같이 입력 값(Input)과 가중치(Weight)의 곱이 ‘-1’이면 도전성 빔이 연결되지 않은(Open) 제2 고정전극(L2)에 전압이 인가되어 비트라인에 전류가 흐르지 않아 출력 값(Output)이 ‘-1’을 표현한다. 도 3a 내지 도 3d에서 설명한 나노 전기기계 메모리 셀의 XNOR 동작원리는 <표 3>과 같이 정의할 수 있다.On the other hand, as shown in Figure 3d, if the product of the input value (Input) and the weight (Weight) is '-1', voltage is applied to the second fixed electrode (L2) to which the conductive beam is not connected (open), so that no current flows in the bit line. Therefore, the output value (Output) expresses ‘-1’. The XNOR operation principle of the nano electromechanical memory cell described in FIGS. 3A to 3D can be defined as shown in <Table 3>.

< 표 3 ><Table 3>

도 4는 본 발명의 일 실시예에 따른 이진 신경망의 프로그램 과정을 설명하기 위한 도면으로, N(Input) X M(Output)의 이진 신경망 시냅스 어레이를 도시하고 있다. 여기서, 이진 신경망의 프로그램은 행 단위로 진행된다.Figure 4 is a diagram for explaining the programming process of a binary neural network according to an embodiment of the present invention, and shows a binary neural network synapse array of N (Input) X M (Output). Here, the binary neural network program proceeds row by row.

먼저, 도 4a에 도시된 바와 같이 첫번째 타임 구간(T0 ~ T1) 의VWL0에 High, VBL0’에 Low 전압이 인가되고, 가중치(Weight)‘+1’을 프로그램(Program) 하고자 하는 나노 전기기계 메모리 셀의 비트라인(BL0, BL1)에 High 전압을, 나머지 비트라인에는 Low 전압을 인가해 주어 가중치(Weight)‘+1’을 프로그램 한다. First, as shown in Figure 4a, a high voltage is applied to V WL0 and a low voltage is applied to V BL0' in the first time period (T 0 to T 1 ), and the weight '+1' is programmed. A high voltage is applied to the bit lines (BL 0 , BL 1 ) of the nano electromechanical memory cell and a low voltage is applied to the remaining bit lines to program the weight '+1'.

이어서, 도 4b에 도시된 바와 같이 두번째 타임 구간(T1 ~ T2)의 VWL0에 Low, VBL0’에 High 전압이 인가되고, 가중치(Weight)‘-1’을 프로그램 하고자 하는 나노 전기기계 메모리 비트라인(BLK)에 High 전압을, 나머지 비트라인에는 Low 전압을 인가해주어 가중치(Weight)‘-1’을 프로그램(Program) 한다. 이후, 도 4a 및 도 4b 와 같은 방법을 이용하여 행 단위로 각 나노 전기기계 메모리 셀에 맞는 가중치(Weight)를 프로그램(Program)한다.Subsequently, as shown in Figure 4b, a low voltage is applied to V WL0 and a high voltage is applied to V BL0' in the second time period (T 1 to T 2 ), and the nano electric machine to program the weight '-1' A high voltage is applied to the memory bit line (BL K ) and a low voltage is applied to the remaining bit lines to program the weight '-1'. Afterwards, weights appropriate for each nano electromechanical memory cell are programmed on a row-by-row basis using the method shown in FIGS. 4A and 4B.

도 5는 본 발명의 일 실시예에 따른 이진 신경망의 시냅스 어레이 중 하나의 시냅스 스트링에서의 동작 원리를 설명하는 도면이다.Figure 5 is a diagram explaining the operating principle of one synapse string among the synapse arrays of a binary neural network according to an embodiment of the present invention.

도 5는 다수의 시냅스 소자가 직렬로 연결된 하나의 시냅스 스트링에서 각각의 나노 전기기계 메모리 셀에 가중치가 프로그램된 상태이다. 이때, 입력 값(Input1 ~ InputN)들은 '+1' 또는 '-1'의 입력 값(Input)에 맞게 전압이 각각 인가된다(<표 2> 참조). 입력 값(Input)이 인가될 때 입력 값(Input)과 가중치(Weight)의 곱이 '+1'이 되면 각각의 나노 전기기계 메모리 셀에서 연결(Short)된 도전성 빔(500)을 통하여 전류가 흐르게 된다. 반대로, 입력 값(Input)과 가중치(Weight)의 곱이 '-1'이 되면 각각의 나노 전기기계 메모리 셀에서 연결되지 않은(Open) 도전성 빔에 전압이 인가되어 전류가 흐르지 않게 된다. 이렇게 전류가 흐르는 나노 전기기계 메모리 셀과 전류가 흐르지 않는 나노 전기기계 메모리 셀의 전류를 통하여 비트라인에서 흐르는 전류가 정해지게 된다. 결과적으로 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 크면 출력 값(Output)이 '+1'이 되고, 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 크지 않으면 '-1'이 된다. 이 때, 각 나노 전기기계 메모리 셀에서 전류가 흐를 경우의 전류 크기를 Ion이라고 정했을 때 기준 전류 값(IREF)은 (N/2) X Ion 이 된다.Figure 5 shows a state in which weights are programmed to each nano electromechanical memory cell in one synapse string in which multiple synapse elements are connected in series. At this time, voltage is applied to the input values (Input 1 to Input N ) according to the input value (Input) of '+1' or '-1' (see <Table 2>). When the input value (Input) is applied, if the product of the input value (Input) and the weight (Weight) becomes '+1', current flows through the conductive beam 500 connected (short) in each nano electromechanical memory cell. do. Conversely, when the product of the input value and the weight is '-1', voltage is applied to the unconnected (open) conductive beam in each nano electromechanical memory cell and current does not flow. In this way, the current flowing in the bit line is determined through the current in the nano electromechanical memory cell through which current flows and the nano electromechanical memory cell through which current does not flow. As a result, if the current value (I BL ) flowing in the bit line is greater than the reference current value (I REF ), the output value (Output) becomes '+1', and the current value (I BL ) flowing in the bit line is greater than the reference current value (I REF). If it is not greater than I REF ), it becomes '-1'. At this time, when the current size when current flows in each nano electromechanical memory cell is set to I on , the reference current value (I REF ) becomes (N/2) XI on .

도 6은 본 발명의 일실시예에 따른 이진 신경망의 시냅스 스트링을 도시한 것으로, 각 레이어의 첫번째 스트링을 나타낸다.Figure 6 shows a synapse string of a binary neural network according to an embodiment of the present invention, and represents the first string of each layer.

도 6을 참조하면, 각 레이어의 첫번째 시냅스 스트링을 도시한 것으로, 제1 레이어(First layer)의 제1 시냅스 스트링에서 입력 값(Input)과 가중치 (Weight)에 따라서 전류가 흐르는 나노 전기기계 메모리 셀과 전류가 흐르지 않는 나노 전기기계 메모리 셀의 전류를 통하여 비트라인에서 흐르는 전류가 정해지게 된다. 이때, 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 크면 출력값(Output)이 '+1'이 되고, 그 다음 제2 레이어(Second layer)의 첫 번째 입력 값(Input)에 ‘+1’을 입력하기 위해, 제2 레이어의 WL0와 WL0’에 각각 Medium voltage, Low voltage를 인가한다. 반대로, 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 작으면 출력값(Output)이 '-1'이 되고, 그 다음 제2 레이어의 첫 번째 입력 값(Input)에 ‘-1’을 입력하기 위해, 제2 레이어의 WL0와 WL0’에 각각 Low voltage, Medium voltage를 인가한다. 위와 같은 원리를 통하여, 제1 레이어의 비트라인(BL0 ~ BLK)에서 얻어지는 출력값은 순서대로 그 다음 제2 레이어의 입력 값(Input0 ~ InputK)이 된다. Referring to Figure 6, the first synapse string of each layer is shown. A nano electromechanical memory cell in which current flows according to the input value and weight in the first synapse string of the first layer. The current flowing in the bit line is determined by the current in the nano electromechanical memory cell where excess current does not flow. At this time, if the current value (I BL ) flowing through the bit line is greater than the reference current value (I REF ), the output value (Output) becomes '+1', and then the first input value (Input) of the second layer ), medium voltage and low voltage are applied to W L0 and W L0' of the second layer, respectively. Conversely, if the current value (I BL ) flowing through the bit line is less than the reference current value (I REF ), the output value (Output) becomes '-1', and then the first input value (Input) of the second layer is '-1'. To input -1', low voltage and medium voltage are applied to W L0 and W L0' of the second layer, respectively. Through the above principle, the output values obtained from the bit lines (BL 0 to BL K ) of the first layer sequentially become the input values (Input 0 to Input K ) of the second layer.

도 7은 본 발명의 일 실시예에 따른 이진 신경망의 읽기 과정을 설명하기 위한 도면으로, N(Input) X K(Output)의 이진 신경망 시냅스 어레이를 도시하고 있다. Figure 7 is a diagram for explaining the reading process of a binary neural network according to an embodiment of the present invention, and shows a binary neural network synapse array of N (Input) X K (Output).

도 7을 참조하면, 각각 제1 레이어에 해당하는 이진 신경망 어레이라고 하였을 때, 읽기(Read) 과정은 모든 비트라인에 Medium 전압을 인가하여 동시에 읽기 과정을 수행한다. Referring to FIG. 7, when each binary neural network array corresponds to the first layer, the read process is performed simultaneously by applying a medium voltage to all bit lines.

모든 비트라인에 Medium 전압이 인가되면, 입력 값(Input)과 가중치(Weight)에 따라 전류가 흐르는 나노 전기기계 메모리 셀과 전류가 흐르지 않는 나노 전기기계 메모리 셀의 전류를 통하여 각각의 비트라인에 흐르는 전류가 정해지게 된다. 이때, 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 크면 출력 값이 '+1'이 되고, 반대로 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 작으면 출력 값이 '-1'이 되어 그 다음 제2 레이어의 입력 값(Input)에 제1 레이어의 비트라인(BL0 ~ BLK)에서 얻어지는 출력 값은 순서대로 그 다음 제2 레이어의 입력 값(Input0 ~ InputK)가 된다.When a medium voltage is applied to all bit lines, the current flows to each bit line through the nano electromechanical memory cells through which current flows and the nano electromechanical memory cells through which current does not flow, depending on the input value and weight. The current is determined. At this time, if the current value (I BL ) flowing in the bit line is greater than the reference current value (I REF ), the output value becomes '+1', and conversely, the current value (I BL ) flowing in the bit line is greater than the reference current value (I REF ). ), the output value becomes '-1', and the output value obtained from the bit lines (BL 0 ~ BL K ) of the first layer is transmitted to the input value (Input) of the next second layer in order. becomes the input value (Input 0 ~ Input K ).

상술한 바와 같이, 나노 전기기계 메모리 셀을 이용함에 따라 저전력, 고집적 및 고성능이 가능한 이진 신경망(Binary Neural Network)을 구현할 수 있다. As described above, by using nano electromechanical memory cells, a binary neural network capable of low power, high integration, and high performance can be implemented.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

100 : 시냅스 스트링
110 : 시냅스 소자
150 : 시냅스 어레이
200 : 도전성 빔
100: synapse string
110: synapse element
150: synapse array
200: conductive beam

Claims (10)

직렬로 연결된 다수의 시냅스 소자로 구성된 시냅스 스트링에 있어서,
상기 시냅스 스트링은 제1 방향으로 연장된 비트라인(BL);
상기 제1 방향과 수직한 제2 방향으로 연장되어 배치된 다수의 워드라인(WL); 및
상기 비트라인과 상기 워드라인이 교차하는 영역에 배치된 시냅스 소자를 포함하며, 상기 시냅스 소자는
각각의 드레인 단자가 상기 비트라인과 연결되고 게이트 단자가 서로 다른 워드라인과 연결되는 제1 트랜지스터부와 제2 트랜지스터부;
상기 제1 트랜지스터부의 소스 단자와 연결된 제1 고정전극;
상기 제1 고정전극과 이격되고, 상기 제2 트랜지스터부의 소스 단자와 연결된 제2 고정전극; 및
상기 제1 고정전극과 상기 제2 고정전극 사이에서 절곡되어 도전 경로를 형성하는 도전성 빔을 포함하는 나노 전기기계 메모리 셀을 포함하는 것을 특징으로 하는 이진 신경망.
In a synaptic string consisting of a plurality of synaptic elements connected in series,
The synapse string includes a bit line (BL) extending in a first direction;
a plurality of word lines (WL) extending in a second direction perpendicular to the first direction; and
It includes a synapse element disposed in an area where the bit line and the word line intersect, and the synapse element is
a first transistor unit and a second transistor unit each of which has a drain terminal connected to the bit line and a gate terminal connected to a different word line;
a first fixed electrode connected to the source terminal of the first transistor unit;
a second fixed electrode spaced apart from the first fixed electrode and connected to a source terminal of the second transistor unit; and
A binary neural network comprising a nano-electromechanical memory cell including a conductive beam that is bent between the first fixed electrode and the second fixed electrode to form a conductive path.
제1항에 있어서,
상기 시냅스 스트링 일단에 상기 비트라인과 연결되는 CSA 블록(Current sense amplifier)를 더 포함하는 것을 특징으로 하는 이진 신경망.
According to paragraph 1,
A binary neural network further comprising a CSA block (Current sense amplifier) connected to the bit line at one end of the synapse string.
제1항에 있어서,
상기 제1 트랜지스터부 및 상기 제2 트랜지스터부는
MOSFET으로 구성되는 것을 특징으로 하는 이진 신경망.
According to paragraph 1,
The first transistor unit and the second transistor unit
A binary neural network characterized by being composed of MOSFETs.
제2항에 있어서,
상기 CSA 블록은 두 개의 입력 단자를 구비하고,
상기 시냅스 스트링의 상기 비트라인 일단과 연결되어 각 시냅스 소자들로부터 발생되는 전류(IBL)들을 입력받는 제1 입력 단자; 및
기준 전류원의 출력단과 연결되어 기준 전류(IREF)를 입력받는 제2 입력 단자를 포함하며, 두 전류를 비교하여 비교 결과들을 순차적으로 출력(Neuron output)하는 것을 특징으로 하는 이진 신경망.
According to paragraph 2,
The CSA block has two input terminals,
a first input terminal connected to one end of the bit line of the synapse string and receiving currents (I BL ) generated from each synapse element; and
A binary neural network that includes a second input terminal that is connected to the output terminal of the reference current source and receives a reference current (I REF ), and compares the two currents to sequentially output the comparison results (Neuron output).
제3항에 있어서,
상기 나노 전기기계 메모리 셀은 프로그램(program) 또는 읽기(read) 전압이 인가되는 단자를 포함하며, 상기 나노 전기기계 메모리 셀과 상기 MOSFET은 XNOR 연산을 수행하는 것을 특징으로 하는 이진 신경망.
According to paragraph 3,
The nano electromechanical memory cell includes a terminal to which a program or read voltage is applied, and the nano electromechanical memory cell and the MOSFET perform an XNOR operation.
비트라인과 다수의 워드라인이 교차되는 영역에 배치되며,
각각의 드레인 단자가 상기 비트라인과 연결되고 게이트 단자가 서로 다른 워드라인과 연결되며 소스 단자가 서로 다른 고정 전극과 연결되는 두 개의 MOSFET 및 그라운드(GND)에 연결되는 도전성 빔을 포함하는 나노 전기기계 메모리 셀로 구성된 시냅스 소자를 포함하는 시냅스 어레이에 있어서,
상기 비트라인 및 상기 워드라인에 특정 전압을 인가하여 상기 나노 전기기계 메모리 셀에 '+1' 또는 '-1'의 가중치(Weight)를 프로그램하는 단계;
상기 가중치가 프로그램된 상태에서 정해진 입력값에 따라 상기 워드라인에 특정 전압을 입력하는 단계; 및
상기 가중치와 상기 입력값의 곱이 '+1'인 경우 상기 서로 다른 고정 전극 중 상기 도전성 빔이 연결된 고정 전극에 전압이 인가되어 출력값이 '+1'으로 표현되고, 상기 가중치와 상기 입력값의 곱이 '-1'인 경우 상기 서로 다른 고정 전극 중 상기 도전성 빔이 연결되지 않은 고정 전극에 전압이 인가되어 출력 값이 '-1'로 표현되는 단계
를 포함하는 것을 특징으로 하는 이진 신경망의 동작 방법.
It is placed in the area where the bit line and multiple word lines intersect.
A nano electric machine including two MOSFETs, each drain terminal of which is connected to the bit line, a gate terminal of which is connected to a different word line, and a source terminal of which is connected to a different fixed electrode, and a conductive beam connected to the ground (GND). In the synapse array including a synapse element composed of memory cells,
Programming a weight of '+1' or '-1' into the nano electromechanical memory cell by applying a specific voltage to the bit line and the word line;
Inputting a specific voltage to the word line according to a determined input value while the weight is programmed; and
When the product of the weight and the input value is '+1', a voltage is applied to the fixed electrode to which the conductive beam is connected among the different fixed electrodes, and the output value is expressed as '+1', and the product of the weight and the input value is In the case of '-1', a voltage is applied to the fixed electrode to which the conductive beam is not connected among the different fixed electrodes, and the output value is expressed as '-1'.
A method of operating a binary neural network comprising:
제6항에 있어서, 상기 가중치를 프로그램하는 단계는
상기 시냅스 어레이의 행 단위로 진행되며,
인접한 두 워드라인에 각각 High 전압 및 Low 전압을 인가하고, 특정 비트라인에 High 전압, 나머지 비트라인에는 Low 전압을 인가하여 가중치(Weight)‘+1’을 프로그램(Program) 하거나,
인접한 두 워드라인에 각각 Low 전압 및 High 전압을 인가하고, 특정 비트라인에 High 전압을, 나머지 비트라인에는 Low 전압을 인가하여 가중치(Weight)‘-1’을 프로그램(Program) 하는 단계
를 포함하는 것을 특징으로 하는 이진 신경망의 동작 방법.
The method of claim 6, wherein programming the weights includes
Proceeds row by row of the synapse array,
Apply high and low voltages to two adjacent word lines, respectively, and program the weight '+1' by applying high voltage to a specific bit line and low voltage to the remaining bit lines, or
A step of applying low and high voltages to two adjacent word lines, respectively, and applying high voltage to a specific bit line and low voltage to the remaining bit lines to program the weight '-1'.
A method of operating a binary neural network comprising:
제6항에 있어서,
상기 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 크면 출력 값(Output)이 '+1'이 되고, 상기 비트라인에 흐르는 전류 값(IBL)이 기준 전류 값(IREF)보다 크지 않으면 출력값이 '-1'으로 표현되는 것을 특징으로 하는 이진 신경망의 동작 방법.
According to clause 6,
If the current value (I BL ) flowing in the bit line is greater than the reference current value (I REF ), the output value (Output) becomes '+1', and the current value (I BL ) flowing in the bit line is greater than the reference current value (I REF). A binary neural network operation method characterized in that the output value is expressed as '-1' if it is not greater than I REF ).
제8항에 있어서,
각 나노 전기기계 메모리 셀에서 전류가 흐를 경우의 전류 크기를 Ion이라고 정했을 때 기준 전류 값(IREF)은 (N/2) X Ion 인 것을 특징으로 하는 이진 신경망의 동작 방법.
According to clause 8,
A method of operating a binary neural network, characterized in that when the current size when current flows in each nano electromechanical memory cell is set to I on , the reference current value (I REF ) is (N/2) XI on .
제6항에 있어서,
상기 나노 전기기계 메모리 셀은 다수의 레이어로 구성되며,
제1 레이어의 상기 비트라인에서 얻어지는 출력값은 순서대로 그 다음 제2 레이어의 입력 값이 되는 것을 특징으로 하는 이진 신경망의 동작 방법.
According to clause 6,
The nano electromechanical memory cell is composed of multiple layers,
A method of operating a binary neural network, characterized in that the output value obtained from the bit line of the first layer sequentially becomes the input value of the second layer.
KR1020210091837A 2021-07-13 2021-07-13 Binary neural network and its operation method KR102610430B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210091837A KR102610430B1 (en) 2021-07-13 2021-07-13 Binary neural network and its operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210091837A KR102610430B1 (en) 2021-07-13 2021-07-13 Binary neural network and its operation method

Publications (2)

Publication Number Publication Date
KR20230011156A KR20230011156A (en) 2023-01-20
KR102610430B1 true KR102610430B1 (en) 2023-12-07

Family

ID=85108460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210091837A KR102610430B1 (en) 2021-07-13 2021-07-13 Binary neural network and its operation method

Country Status (1)

Country Link
KR (1) KR102610430B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190286419A1 (en) 2018-03-15 2019-09-19 Macronix International Co., Ltd. Voltage sensing type of matrix multiplication method for neuromorphic computing system
US20200034684A1 (en) 2018-07-26 2020-01-30 Macronix International Co., Ltd. Neural network system and method for controlling the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180095978A (en) * 2017-02-20 2018-08-29 에스케이하이닉스 주식회사 Neuromorphic Device Including Synapse Having Variable Resistor and Transistor Which Connected in Parallel with Each Other
KR102354286B1 (en) 2019-03-15 2022-01-24 서울대학교 산학협력단 Synapse string and synapse string array for neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190286419A1 (en) 2018-03-15 2019-09-19 Macronix International Co., Ltd. Voltage sensing type of matrix multiplication method for neuromorphic computing system
US20200034684A1 (en) 2018-07-26 2020-01-30 Macronix International Co., Ltd. Neural network system and method for controlling the same

Also Published As

Publication number Publication date
KR20230011156A (en) 2023-01-20

Similar Documents

Publication Publication Date Title
US20210019609A1 (en) Mixed signal neuromorphic computing with nonvolatile memory devices
KR102434119B1 (en) Neural network with a synapse string array
Bayat et al. Memristor-based perceptron classifier: Increasing complexity and coping with imperfect hardware
US9099179B2 (en) Thermodynamic bit formed of two memristors
KR20210151737A (en) Synapse string and synapse string array for neural networks
US11699721B2 (en) Integrate-and-fire neuron circuit using single-gated feedback field-effect transistor
US20200118619A1 (en) Apparatus for deep learning operations on resistive crossbar array
US11100989B2 (en) Multiplier-accumulator
CN110880501B (en) Index feedback field effect electronic device and arrangement circuit using the same
Garbin et al. Probabilistic neuromorphic system using binary phase-change memory (PCM) synapses: Detailed power consumption analysis
KR102610430B1 (en) Binary neural network and its operation method
Anghel et al. Neuromorphic computing-from robust hardware architectures to testing strategies
Regev et al. Fully-Integrated Spiking Neural Network Using SiO x-Based RRAM as Synaptic Device
Ye et al. Evaluation of single event effects in SRAM and RRAM based neuromorphic computing system for inference
Aziza et al. An augmented OxRAM synapse for spiking neural network (SNN) circuits
US11928579B2 (en) Synapse string array architectures for neural networks
KR102575847B1 (en) Spike timing dependent plasticity write method and synapse array apparatus
KR102314079B1 (en) Artificial Neural Network Hardware System using Fuse Device and Pruning Method Using the Same
US20220085107A1 (en) Topologies of unit crossbars
WO2023228869A1 (en) Silicon brain
US20220164638A1 (en) Methods and apparatus for neural network arrays
Chaitanya et al. ReRAM-Based Crossbar Compatible Equality Checker for Neuromorphic Applications
Lee et al. Neuromorphic Technology Utilizing Nand Flash Memory Cells
김철흥 Demonstration of Unsupervised Learning With Spike-Timing-Dependent Plasticity Using NOR-Type Nonvolatile Memory Arrays
KR20230133051A (en) Neuromorphic semiconductor devices and operating methods

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right