KR102567230B1 - Artificial neural network system using phase change material - Google Patents

Artificial neural network system using phase change material Download PDF

Info

Publication number
KR102567230B1
KR102567230B1 KR1020200058240A KR20200058240A KR102567230B1 KR 102567230 B1 KR102567230 B1 KR 102567230B1 KR 1020200058240 A KR1020200058240 A KR 1020200058240A KR 20200058240 A KR20200058240 A KR 20200058240A KR 102567230 B1 KR102567230 B1 KR 102567230B1
Authority
KR
South Korea
Prior art keywords
phase change
change element
neural network
network system
artificial neural
Prior art date
Application number
KR1020200058240A
Other languages
Korean (ko)
Other versions
KR20210141090A (en
Inventor
조만호
김다솔
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020200058240A priority Critical patent/KR102567230B1/en
Publication of KR20210141090A publication Critical patent/KR20210141090A/en
Application granted granted Critical
Publication of KR102567230B1 publication Critical patent/KR102567230B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

실시예에 따르면, 입력 데이터를 수신하는 입력층; 상기 입력 데이터에 대응하는 출력 데이터를 출력하는 출력층; 그리고 상기 입력층과 상기 출력층 사이에 위치하는 복수의 은닉층들을 포함하며, 상기 은닉층들은 활성화 함수 연산을 수행하여 제1결과값을 출력하는 제1노드와 상기 제1노드에서 출력된 제1결과값을 합산하는 제2노드를 포함하며, 상기 제1노드의 활성화 함수는 상변화 소자의 저항-전압 특성에 따라 결정되는 상변화 소자를 이용한 인공신경망 시스템을 제공한다.According to an embodiment, an input layer receiving input data; an output layer outputting output data corresponding to the input data; and a plurality of hidden layers positioned between the input layer and the output layer, wherein the hidden layers include a first node outputting a first result value by performing an activation function operation and a first result value output from the first node An artificial neural network system using a phase change element is provided, and an activation function of the first node is determined according to resistance-voltage characteristics of the phase change element.

Description

상변화 소자를 이용한 인공신경망 시스템{Artificial neural network system using phase change material} Artificial neural network system using phase change material}

본 발명의 일실시예는 상변화 소자를 이용한 인공신경망 시스템에 관한 것으로, 구체적으로는 3D 크로스 포인트(3D Xpoint) 메모리 소자에 적용될 수 있는 상변화 소자를 이용한 인공신경망 시스템에 관한 것이다.An embodiment of the present invention relates to an artificial neural network system using a phase change element, and specifically, to an artificial neural network system using a phase change element that can be applied to a 3D Xpoint memory element.

3D 크로스 포인트 기술은 동작 속도가 빠르고 비휘발성인 상변화 물질에 기초한다. 해당 기술의 단기 목표는 DRAM과 NAND Flash 사이의 속도 병목을 해소하는 새로운 형태의 메모리/스토리지 모듈로 활용하는 것이고, 장기 목표는 DRAM과 NAND Flash 모두를 대체하는 스토리지 클라스 메모리로 활용되는 것이다.3D cross-point technology is based on fast-acting, non-volatile phase change materials. The short-term goal of this technology is to use it as a new type of memory/storage module that solves the speed bottleneck between DRAM and NAND Flash, and the long-term goal is to use it as a storage class memory that replaces both DRAM and NAND Flash.

상변화 물질은 그 특성에 따라서, 3D 크로스 포인트 메모리/스토리지 모듈의 신뢰 범위를 조정할 수 있다. 이러한 3D 크로스 포인트 기술은 뉴로모픽(neuromorphic) 칩으로의 활용 가능성으로도 주목을 많이 받는데, 이는 딥 러닝(deep learning)에 최적화된 병렬 계산에 적합한 구조이기 때문이다.The phase change material can adjust the reliability range of the 3D cross point memory/storage module according to its characteristics. This 3D cross-point technology is also receiving a lot of attention for its possibility of being used as a neuromorphic chip because it is a structure suitable for parallel calculation optimized for deep learning.

3D 크로스 포인트 기술은 인가한 펄스 횟수에 따라 저항이 선형적으로 올라가는 정도를 나타내는 선형성(linearity)과 셋(set)-리셋(reset)펄스의 교번 인가에 따라 저항 레벨이 대칭적으로 변화하는 대칭성(symmetricity)이 동시에 우수한 상변화 물질 개발이 절대적으로 필요한 실정이다. 이를 통하여 옴의 법칙(ohm's law)과 키르히호프의 전류 법칙(Kirchhoff's current law)를 인공신경망 시스템에 직접 적용해 1-PCM/cell로 사용할 수 있게 된다. 하지만 현재까지는 인공신경망 시스템에서 효과적인 성능을 발휘할 수 있을 정도의 선형성과 대칭성을 만족하는 상변화 물질 개발은 매우 느린 실정이다.The 3D cross-point technology has linearity, which indicates the degree to which the resistance rises linearly according to the number of applied pulses, and symmetry, in which the resistance level changes symmetrically according to the alternating application of set-reset pulses ( It is absolutely necessary to develop a phase change material with excellent symmetricity at the same time. Through this, Ohm's law and Kirchhoff's current law can be directly applied to the artificial neural network system and used at 1-PCM/cell. However, until now, the development of phase change materials that satisfy linearity and symmetry enough to demonstrate effective performance in artificial neural network systems is very slow.

본 발명이 이루고자 하는 기술적 과제는 3D 크로스 포인트 메모리 소자에 최적화 된 상변화 소자를 이용한 인공신경망 시스템을 제공하는데 있다.A technical problem to be achieved by the present invention is to provide an artificial neural network system using a phase change device optimized for a 3D cross point memory device.

실시예에 따르면, 입력 데이터를 수신하는 입력층; 상기 입력 데이터에 대응하는 출력 데이터를 출력하는 출력층; 그리고 상기 입력층과 상기 출력층 사이에 위치하는 복수의 은닉층들을 포함하며, 상기 은닉층들은 활성화 함수 연산을 수행하여 제1결과값을 출력하는 제1노드와 상기 제1노드에서 출력된 제1결과값을 합산하는 제2노드를 포함하며, 상기 제1노드의 활성화 함수는 상변화 소자의 저항-전압 특성에 따라 결정되는 상변화 소자를 이용한 인공신경망 시스템을 제공한다.According to an embodiment, an input layer receiving input data; an output layer outputting output data corresponding to the input data; and a plurality of hidden layers positioned between the input layer and the output layer, wherein the hidden layers include a first node outputting a first result value by performing an activation function operation and a first result value output from the first node An artificial neural network system using a phase change element is provided, and an activation function of the first node is determined according to resistance-voltage characteristics of the phase change element.

상기 상변화 소자는 상부 메탈라인 및 하부 메탈라인, 상기 상부 메탈라인 및 상기 하부 메탈라인 사이에 배치되는 상변화 물질 및 셀렉터를 포함할 수 있다.The phase change element may include an upper metal line and a lower metal line, a phase change material disposed between the upper metal line and the lower metal line, and a selector.

상기 상변화 소자의 전압-저항 특성은 시그모이드 함수 형태에 따라 변화할 수 있다.The voltage-resistance characteristics of the phase change element may change according to the form of a sigmoid function.

상기 제2노드는 상기 상변화 소자에 흐르는 전류치를 합산할 수 있다.The second node may add current values flowing through the phase change element.

상기 출력층은 상기 제2노드에서 합산한 값에 가중치를 부여하여 상기 출력 데이터를 출력할 수 있다.The output layer may output the output data by assigning a weight to the value summed at the second node.

상기 상변화 물질은 Ge-Sb-Te계 물질로 이루어질 수 있다.The phase change material may be made of a Ge-Sb-Te-based material.

상기 상변화 물질은 Ag-In-Sb-Te계 물질로 이루어질 수 있다.The phase change material may be made of an Ag-In-Sb-Te-based material.

상기 상변화 물질은 Ti-Sb-Te 계 물질로 이루어질 수 있다.The phase change material may be made of a Ti-Sb-Te-based material.

상기 상변화 소자의 전압-저항 특성은 ReLu함수 형태에 따라 변화할 수 있다.The voltage-resistance characteristics of the phase change element may change according to the shape of the ReLu function.

상기 상변화 소자의 전압-저항 특성은 복수개의 상변화 물질이 조합된 함수 형태에 따라 변화할 수 있다.Voltage-resistance characteristics of the phase change element may change according to a function form in which a plurality of phase change materials are combined.

본 발명인 상변화 소자를 이용한 인공신경망 시스템은 3D 크로스 포인트 메모리 소자에 최적화 된 인공신경망 시스템을 제공할 수 있다.An artificial neural network system using a phase change device according to the present invention can provide an artificial neural network system optimized for a 3D cross point memory device.

또한, 연산 코스트를 크게 절감시킬 수 있다.In addition, the calculation cost can be greatly reduced.

또한, 제작 단가 인하 및 수율 향상에 크게 기여할 수 있다.In addition, it can greatly contribute to reducing manufacturing cost and improving yield.

도1은 실시예에 따른 인공신경망 시스템의 개념도이다.
도2는 실시예에 따른 상변화 소자의 개념도이다.
도3 및 도4는 실시예에 따른 상변화 소자의 전압-저항 그래프이다.
도5는 Ge-Sb-Te계 상변화 물질의 전압-저항 특성을 도시한 그래프이다.
도6은 Ag-In-Sb-Te계 상변화 물질의 전압-저항 특성을 도시한 그래프이다.
1 is a conceptual diagram of an artificial neural network system according to an embodiment.
2 is a conceptual diagram of a phase change element according to an embodiment.
3 and 4 are voltage-resistance graphs of phase change elements according to embodiments.
5 is a graph showing voltage-resistance characteristics of Ge-Sb-Te-based phase change materials.
6 is a graph showing voltage-resistance characteristics of Ag-In-Sb-Te-based phase change materials.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in a variety of different forms, and if it is within the scope of the technical idea of the present invention, one or more of the components among the embodiments can be selectively implemented. can be used by combining and substituting.

또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, can be generally understood by those of ordinary skill in the art to which the present invention belongs. It can be interpreted as meaning, and commonly used terms, such as terms defined in a dictionary, can be interpreted in consideration of contextual meanings of related technologies.

또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Also, terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when described as "at least one (or more than one) of A and (and) B and C", A, B, and C are combined. may include one or more of all possible combinations.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and the term is not limited to the nature, order, or order of the corresponding component.

그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.In addition, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected to, combined with, or connected to the other component, but also with the component. It may also include the case of being 'connected', 'combined', or 'connected' due to another component between the other components.

또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when it is described as being formed or disposed on the "top (above) or bottom (bottom)" of each component, the top (top) or bottom (bottom) is not only a case where two components are in direct contact with each other, but also one A case in which another component above is formed or disposed between two components is also included. In addition, when expressed as "up (up) or down (down)", it may include the meaning of not only an upward direction but also a downward direction based on one component.

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, the embodiments will be described in detail with reference to the accompanying drawings, but the same or corresponding components regardless of reference numerals are given the same reference numerals, and overlapping descriptions thereof will be omitted.

도1은 실시예에 따른 인공신경망 시스템의 개념도이다. 도1을 참조하면, 실시예에 따른 상변화 소자를 이용한 인공신경망 시스템은 입력층(110), 은닉층(120) 및 출력층(130)을 포함할 수 있다.1 is a conceptual diagram of an artificial neural network system according to an embodiment. Referring to FIG. 1 , an artificial neural network system using a phase change element according to an embodiment may include an input layer 110 , a hidden layer 120 and an output layer 130 .

상변화 소자를 이용한 인공신경망 시스템(100)은 생물학적인 뉴런의 기능을 단순화시킨 인공 뉴런들이 이용되고, 인공 뉴런들은 연결 가중치(W1, W2, ···, Wn)를 가지는 연결선을 통해 상호 연결될 수 있다. 연결 가중치(W1, W2, ···, Wn)는 연결선이 갖는 특정한 값으로서 연결 강도라고도 표현할 수 있다. 인공 뉴런은 노드로 지칭될 수 있다. In the artificial neural network system 100 using a phase change element, artificial neurons that simplify the functions of biological neurons are used, and the artificial neurons are connected through connection lines having connection weights (W 1 , W 2 , ..., W n ). can be interconnected. The connection weight (W 1 , W 2 , ..., W n ) is a specific value of the connection line and can also be expressed as connection strength. An artificial neuron may be referred to as a node.

입력층(110), 은닉층(120) 및 출력층(130)은 복수의 노드(110-1, ···, 110-n)들을 포함할 수 있다. 예를 들면, 입력층(110)은 복수의 입력 노드(110-1, ···, 110-n)들을 포함할 수 있다. 각 은닉층은 복수의 은닉 노드(121-1, 122-1, ···, 121-n, 122-n)들을 포함할 수 있다. 출력층(130)은 복수의 출력 노드(130-1, ···, 130-n)들을 포함할 수 있다. 각 층(입력층, 은닉층, 출력층)에 포함된 노드의 수는 서로 다를 수 있다. The input layer 110, the hidden layer 120, and the output layer 130 may include a plurality of nodes 110-1, ..., 110-n. For example, the input layer 110 may include a plurality of input nodes 110-1, ..., 110-n. Each hidden layer may include a plurality of hidden nodes 121-1, 122-1, ..., 121-n, 122-n. The output layer 130 may include a plurality of output nodes 130-1, ..., 130-n. The number of nodes included in each layer (input layer, hidden layer, output layer) may be different.

입력층(110)은 입력 데이터를 수신할 수 있다. 입력층(110)을 구성하는 복수의 입력 노드(110-1, ···, 110-n)들은 각각 입력값들을 수신할 수 있다. 즉, 하나의 노드에는 하나의 입력값이 입력될 수 있다. 실시예에 따른, 상변화 소자를 이용한 인공신경망 시스템(100)은 입력에 대응하는 출력을 제공할 수 있다. 입력층(110)은 학습을 수행하기 위한 입력을 수신하여 복수의 은닉층(120)들로 전달할 수 있다. 예를 들면, 입력은 음성 데이터, 영상 데이터, 생체 데이터 및 필적 데이터 등을 포함할 수 있다. The input layer 110 may receive input data. Each of the plurality of input nodes 110-1, 110-n constituting the input layer 110 may receive input values. That is, one input value may be input to one node. According to an embodiment, the artificial neural network system 100 using a phase change element may provide an output corresponding to an input. The input layer 110 may receive an input for performing learning and transfer it to the plurality of hidden layers 120 . For example, the input may include audio data, video data, biometric data, and handwriting data.

복수의 은닉층(120)들은 제1 은닉층 내지 제n은닉층을 포함할 수 있다. 복수의 은닉층들은 입력층을 통해 전달된 학습 데이터를 예측하기 쉬운 값으로 변화시킬 수 있다. 각 은닉층(120)은 이전 은닉층에서 수신된 입력 값을 특정한 기준에 기초하여다음 은닉층으로 전달하고, 전달 시 은닉층마다 서로 다른 연결 가중치를 적용하여 전달할 수 있다. 실시예에서는 설명의 편의를 위하여 하나의 은닉층을 도시하였으나, 이와는 달리 복수개의 은닉층이 본 발명에 적용될 수 있다.The plurality of hidden layers 120 may include a first hidden layer to an n-th hidden layer. The plurality of hidden layers may change learning data transmitted through the input layer into values that are easy to predict. Each hidden layer 120 transfers the input value received in the previous hidden layer to the next hidden layer based on a specific criterion, and may apply different connection weights to each hidden layer before forwarding the input value. In the embodiment, one hidden layer is illustrated for convenience of explanation, but a plurality of hidden layers may be applied to the present invention.

은닉층(120)의 노드(121-1, 122-1, ···, 121-n, 122-n)는 노드 입력들을 수신할 수 있다. 노드 입력들은 입력값들을 포함할 수 있다. 입력값들은 이전 은닉층의 노드들로부터 수신될 수 있다. 입력값들은 각각 연결 가중치와 곱해질 수 있다. 가중치는 이전 은닉층의 노드들과의 연결선과 일대일로 대응할 수 있다. 입력값들 각각과 연결 가중치 각각의 곱은 전달 함수에 의해 합해질 수 있다. 활성화 함수는 전달 함수의 출력값의 범위를 제한하여 노드 출력을 출력할 수 있다.Nodes 121-1, 122-1, ..., 121-n, and 122-n of the hidden layer 120 may receive node inputs. Node inputs can contain input values. Input values may be received from nodes in the previous hidden layer. Each of the input values may be multiplied with a connection weight. The weights may correspond one-to-one with connection lines with nodes of the previous hidden layer. The product of each of the input values and each of the connection weights may be summed by a transfer function. The activation function may output a node output by limiting the range of the output value of the transfer function.

활성화 함수는 전달 함수의 출력값의 범위를 제한하고 계산의 편의성을 제공하며, 인공 신경망이 단순한 계산이 아닌 복잡한 판단을 할 수 있게끔 하는 역할을 한다. 따라서, 어떠한 활성화 함수를 사용하는지에 따라 상변화 소자를 이용한 인공신경망 시스템(100)의 학습 효율성이 달라질 수 있다.The activation function limits the range of the output value of the transfer function, provides convenience in calculation, and serves to enable the artificial neural network to make complex decisions rather than simple calculations. Accordingly, the learning efficiency of the artificial neural network system 100 using the phase change element may vary depending on which activation function is used.

은닉층(120)은 제1노드(121-1, ···, 121-n) 및 제2노드(122-1, ···, 122-n)를 포함할 수 있다. 은닉층(120)들은 활성화 함수 연산을 수행하여 제1결과값을 출력하는 제1노드(121-1, ···, 121-n)와 제1노드(121-1, ···, 121-n)에서 출력된 제1결과값을 합산하는 제2노드(122-1, ···, 122-n)를 포함할 수 있다.The hidden layer 120 may include a first node 121-1, ..., 121-n and a second node 122-1, ..., 122-n. The hidden layer 120 includes a first node 121-1, ..., 121-n and a first node 121-1, ..., 121-n that perform an activation function operation and output a first result value. ) may include a second node 122-1, ..., 122-n for summing the first result values output.

실시예에서, 제1노드(121-1, ···, 121-n)의 활성화 함수는 상변화 소자의 저항-전압 특성에 따라 결정될 수 있다. In an embodiment, the activation function of the first node 121-1, ..., 121-n may be determined according to resistance-voltage characteristics of the phase change element.

도2는 실시예에 따른 상변화 소자의 개념도이다. 도2를 참조하면, 상변화 소자(1210)로 구성되는 제1노드(121-1, ···, 121-n)는 워드 메탈라인(1213) 및 컬럼 메탈라인(1211, 1212), 워드 메탈라인(1213) 및 컬럼 메탈라인(1211, 1212) 사이에 배치되는 상변화 물질 및 셀렉터(1215, 1217)를 포함할 수 있다.2 is a conceptual diagram of a phase change element according to an embodiment. Referring to FIG. 2, the first node 121-1, ..., 121-n composed of the phase change element 1210 includes a word metal line 1213, column metal lines 1211 and 1212, and a word metal line. A phase change material and selectors 1215 and 1217 disposed between the line 1213 and the column metal lines 1211 and 1212 may be included.

상변화 소자(1210)는 워드(word) 라인(1213)과 컬럼(column) 라인(1211, 1212)의 교차점(cross point)에 상변화 물질로 이루어지는 메모리 셀(1214, 1216)을 포함하며, 이를 3D형태로 하여 2층으로 쌓은 구조를 가질 수 있다.The phase change element 1210 includes memory cells 1214 and 1216 made of a phase change material at the cross points of the word line 1213 and the column lines 1211 and 1212. It can have a two-layered structure in a 3D form.

상변화 소자(1210)는 최상단의 메탈라인 4개가 2층의 컬럼 라인(1211)이 되고, 맨 아래 동일한 형태의 메탈라인 4개는 1층의 컬럼 라인(1212)이 된다. 또한, 가운데 컬럼 라인(1211, 1212)과 직교하는 방향의 메탈라인 4개는 워드 라인(1213)으로 1, 2층의 메모리 셀(1214, 1216)이 이를 공유하는 형태를 가질 수 있다.In the phase change element 1210, the top four metal lines become the second-layer column lines 1211, and the bottom four metal lines of the same shape become the first-layer column lines 1212. In addition, four metal lines orthogonal to the middle column lines 1211 and 1212 are word lines 1213, and memory cells 1214 and 1216 of the first and second layers may share them.

메모리 셀(1214, 1216)은 워드 라인(1213)과 컬럼 라인(1211, 1212)이 교차하는 부분에 배치되어 있는 상변화 물질로 구성될 수 있으며, 각 메모리 셀(1214, 1216)마다 붙어있는 셀렉터(1215, 1217)에 가해지는 전압에 따라 읽기 동작 또는 쓰기 동작인지 여부가 결정될 수 있다.The memory cells 1214 and 1216 may be formed of a phase change material disposed at an intersection of the word line 1213 and the column lines 1211 and 1212, and a selector attached to each memory cell 1214 and 1216. Depending on the voltage applied to 1215 and 1217, whether a read operation or a write operation may be determined.

다시 도1을 참조하면, 실시예에서 상변화 소자의 전압-저항 특성은 시그모이드 함수 형태에 따라 변화할 수 있다. 인공신경망 시스템(100)의 활성화 함수는 비선형적인 특성을 가질 수록 더 깊은 학습을 수행할 수 있다. 시그모이드 함수는 바이너리 분류(binary classification) 에 적절함 함수로서, 일정 값을 기준으로 0 또는 1의 값으로 구분함으로써 입력 데이터를 분류할 수 있다. 시그모이드 함수는 인공신경망 시스템(100)에서 특정 임계치를 넘을 때만 활성화되기 때문에 활성화 함수로 사용될 수 있다.Referring back to FIG. 1 , in the embodiment, the voltage-resistance characteristics of the phase change element may change according to the form of a sigmoid function. The activation function of the artificial neural network system 100 can perform deeper learning as it has nonlinear characteristics. The sigmoid function is a function suitable for binary classification, and input data can be classified by classifying it as a value of 0 or 1 based on a certain value. Since the sigmoid function is activated only when a specific threshold value is exceeded in the artificial neural network system 100, it can be used as an activation function.

도3 및 도4는 실시예에 따른 상변화 소자의 전압-저항 그래프이다. 도3을 참조하면, 실시예에 따른 상변화 소자에 셋(set) 펄스 폭(pulse width(ns))을 일정하게 유지하면서 전압을 점점 강하게 인가하면, 일정 전압에서 저항의 값이 급격하게 감소하는 구간을 발견할 수 있다. 즉, 상변화 소자는 일정 범위의 전압에서는 일정한 저항값을 유지하다가 임계 전압치를 초과하는 전압이 인가되면 저항값이 급격하게 감소하여 유지되는 S자 곡선 형태를 취하고 있다. 이러한 S자 곡선 형태는 일정값을 기준으로 0 또는 1의 값을 출력하는 시그모이드 함수와 유사한 곡선 형태를 가짐을 확인할 수 있다. 실시예에 따른 상변화 소자는 1 내지 2[V]사이의 특정 임계 전압값을 기준으로 하여 저항값이 1000배 이하로 급격하게 감소하는 경향을 보이고 있다. 3 and 4 are voltage-resistance graphs of phase change elements according to embodiments. Referring to FIG. 3, when a voltage is gradually applied to the phase change element according to the embodiment while maintaining a constant pulse width (ns), the resistance value rapidly decreases at a constant voltage. section can be found. That is, the phase change element maintains a constant resistance value in a certain voltage range, but takes the form of an S-curve in which the resistance value rapidly decreases and is maintained when a voltage exceeding a threshold voltage value is applied. It can be seen that this S-shaped curve has a curve shape similar to that of the sigmoid function outputting a value of 0 or 1 based on a certain value. In the phase change element according to the embodiment, the resistance value tends to rapidly decrease to 1000 times or less based on a specific threshold voltage value between 1 and 2 [V].

또한, 도4를 참조하면, 실시예에 따른 상변화 소자에 셋(set) 펄스 폭(pulse width(ns))을 일정하게 유지하면서 펄스 인가 횟수를 누적하여 증가시키면, 일정 누적 인가 횟수에서 저항의 값이 급격하게 감소하는 구간을 발견할 수 있다. 즉, 상변화 소자는 일정 횟수의 펄스가 인가되더라도 일정한 저항값을 유지하다가 임계 펄스 인가 횟수를 초과하는 경우 저항값이 급격하게 감소하여 유지되는 S자 곡선 형태를 취하고 있다. 이러한 S자 곡선 형태는 일정값을 기준으로 0 또는 1의 값을 출력하는 시그모이드 함수와 유사한 곡선 형태를 가짐을 확인할 수 있다. 실시예에 따른 상변화 소자는 약 5 내지 10사이의 누적 펄스 인가 횟수를 기준으로 하여 저항값이 100배 이하로 급격하게 감소하는 경향을 보이고 있다. In addition, referring to FIG. 4, when the number of pulse applications is accumulated and increased while maintaining a set pulse width (ns) constant to the phase change element according to the embodiment, the resistance A section where the value rapidly decreases can be found. That is, the phase change element maintains a constant resistance value even when a certain number of pulses are applied, but takes the form of an S-curve in which the resistance value rapidly decreases and is maintained when the threshold pulse application number is exceeded. It can be seen that this S-shaped curve has a curve shape similar to that of the sigmoid function outputting a value of 0 or 1 based on a certain value. The resistance value of the phase change element according to the embodiment tends to rapidly decrease to 100 times or less based on the cumulative number of pulses applied between about 5 and 10.

다시 도1을 참조하면, 제2노드(122-1, ···, 122-n)는 상변화 소자에 흐르는 전류치를 합산할 수 있다. 제1노드(121-1, ···, 121-n)의 메모리 셀에 흐르는 전류는 상변화 소자의 전압-저항 특성에 의존하여 옴의 법칙에 따라 함께 변화하게 된다. 즉, 제1노드(121-1, ···, 121-n)의 메모리 셀에 흐르는 전류는 상변화 소자의 전압값에 비례하며, 저항값에는 반비례하는 값을 가질 수 있다. 제2노드(122-1, ···, 122-n)는 키르히호프의 전류 법칙에 따라 연결되어 있는 제1노드(121-1, ···, 121-n)의 메모리 셀에 흐르는 전류의 값을 합산하여 출력층(123)에 전달할 수 있다.Referring back to FIG. 1 , the second nodes 122-1, 122-n may sum the current values flowing through the phase change elements. The current flowing through the memory cells of the first nodes 121-1, 121-n varies according to Ohm's law depending on the voltage-resistance characteristics of the phase change element. That is, the current flowing through the memory cells of the first nodes 121-1, 121-n may be proportional to the voltage value of the phase change element and inversely proportional to the resistance value. The second node 122-1, ..., 122-n corresponds to the current flowing in the memory cell of the first node 121-1, ..., 121-n connected according to Kirchhoff's current law. The values may be summed and transmitted to the output layer 123 .

상변화 물질은 Ge-Sb-Te계 물질로 이루어질 수 있다. 도5는 Ge-Sb-Te계 상변화 물질의 전압-저항 특성을 도시한 그래프이다. 도5를 참조하면, 셋 펄스와 리셋 펄스의 전압을 각각 3[V], 5[V]로 유지한 상태에서 펄스 폭을 조절함으로써 상변화 물질에 상변화를 일으킬 수 있다. 셋 펄스의 경우 약 400ns의 펄스 폭을 기준으로 상변화를 일으켜 높은 저항 상태에서 낮은 저항 상태로 이동하였음을 확인할 수 있다. 리셋 펄스의 경우 약170ns의 펄스 폭을 기준으로 상변화를 일으켜 낮은 저항 상태에서 높은 저항 상태로 이동하였음을 확인할 수 있다. Ge-Sb-Te계 상변화 물질은 전술한 임계 펄스 폭을 기준으로 상변화를 일으켜 저항 상태가 급격하게 변화하였음을 확인할 수 있다. 또한, 급격한 저항의 변화에 따른 전압-저항 특성 그래프는 시그모이드 함수의 형태를 취함을 확인할 수 있다.The phase change material may be made of a Ge-Sb-Te-based material. 5 is a graph showing voltage-resistance characteristics of Ge-Sb-Te-based phase change materials. Referring to FIG. 5 , a phase change may occur in a phase change material by adjusting a pulse width while maintaining voltages of a set pulse and a reset pulse at 3 [V] and 5 [V], respectively. In the case of the set pulse, it can be confirmed that a phase change is caused based on a pulse width of about 400 ns to move from a high resistance state to a low resistance state. In the case of the reset pulse, it can be confirmed that a phase change is caused based on a pulse width of about 170 ns to move from a low resistance state to a high resistance state. It can be confirmed that the Ge-Sb-Te-based phase change material caused a phase change based on the above-described threshold pulse width to rapidly change the resistance state. In addition, it can be confirmed that the voltage-resistance characteristic graph according to the rapid change in resistance takes the form of a sigmoid function.

또는, 상변화 물질은 Ag-In-Sb-Te계 물질로 이루어질 수 있다. Ag-In-Sb-Te계 상변화 물질은 낮은 리셋 전류로 동작 가능하다는 점과 다른 상변화 물질의 단점으로 제기된 낮은 결정화 온도와 높은 녹는점을 보완하는 물질로 결정화 속도가 빠르다는 장점이 있다. 도6은 Ag-In-Sb-Te계 상변화 물질의 전압-저항 특성을 도시한 그래프이다. 도6을 참조하면, Ag-In-Sb-Te계 상변화 물질의 저항은 50ns의 셋 펄스폭을 가지는 전압을 인가하였을 때 전압의 크기를 증가시켜도 상변화가 일어나지 않았다. 그러나, 100ns이상의 펄스폭을 가지는 전압을 인가하였을 때, 임계 전압을 초과하는 구간에서 상변화가 일어나 높은 저항 상태에서 낮은 저항 상태로 이동하였음을 확인할 수 있다. 100n, 400nss의 셋 펄스 폭을 인가하였을 때, Ag-In-Sb-Te계 상변화 물질은 약 1.1[V]에서 상변화가 일어나 높은 저항 상태에서 낮은 저항 상태로 이동하였음을 확인할 수 있다. 단, 100ns의 셋 펄스 폭을 인가한 경우보다, 400ns의 셋 펄스 폭을 인가한 경우에 빠른 시간안에 상 변화가 완료되었음을 확인할 수 있다.Alternatively, the phase change material may be made of an Ag-In-Sb-Te-based material. Ag-In-Sb-Te-based phase change material has the advantage of being able to operate with a low reset current and having a fast crystallization speed as a material that compensates for the low crystallization temperature and high melting point raised as disadvantages of other phase change materials. . 6 is a graph showing voltage-resistance characteristics of Ag-In-Sb-Te-based phase change materials. Referring to FIG. 6, when a voltage having a set pulse width of 50 ns was applied to the resistance of the Ag-In-Sb-Te-based phase change material, the phase change did not occur even if the magnitude of the voltage was increased. However, it can be confirmed that when a voltage having a pulse width of 100 ns or more is applied, a phase change occurs in a section exceeding the threshold voltage and moves from a high resistance state to a low resistance state. When a set pulse width of 100n and 400nss was applied, it can be seen that the phase change of the Ag-In-Sb-Te-based phase change material occurred at about 1.1 [V] and moved from a high resistance state to a low resistance state. However, it can be confirmed that the phase change is completed in a faster time when a set pulse width of 400 ns is applied than when a set pulse width of 100 ns is applied.

또는, 상변화 물질은 Ti-Sb-Te 계 물질로 이루어질 수 있다.Alternatively, the phase change material may be made of a Ti-Sb-Te-based material.

따라서, 셋 펄스 폭을 길게 인가하여 스텝 함수에 가까운 시그모이드 함수를 구현할 수 있으며, 상대적으로 셋 펄스 폭을 짧게 인가하여 완만한 S자 곡선의 시그모이드 함수를 구현할 수 있다. 이와 같이 Ag-In-Sb-Te계 상변화 물질에 인가되는 셋 펄스 폭 또는 리셋 펄스 폭을 조절함으로써 원하는 형태의 시그모이드 함수를 구현할 수 있다.Therefore, a sigmoid function close to a step function can be implemented by applying a long set pulse width, and a sigmoid function of a gentle S-curve can be implemented by applying a relatively short set pulse width. In this way, a sigmoid function of a desired shape may be implemented by adjusting the set pulse width or the reset pulse width applied to the Ag-In-Sb-Te-based phase change material.

또한, 상변화 물질은 전기적 물성에 따라 다양한 시그모이드 함수를 구현할 수 있다. 따라서, 열 전도도(hermal conductivity), 저항, 온-오프 비율(on-off ratio) 등의 전기적 물성을 고려하여 상변화 물질을 선택함으로써 다양한 형태를 가지는 시그모이드 함수를 구현할 수 있으며, 이를 인공신경망 시스템의 활성화 함수로 적용할 수 있다.In addition, the phase change material may implement various sigmoid functions according to electrical properties. Therefore, it is possible to implement a sigmoid function having various forms by selecting a phase change material in consideration of electrical properties such as thermal conductivity, resistance, and on-off ratio. It can be applied as an activation function of the system.

실시예에 따른 상변화 물질은 인가한 펄스의 전압 크기 또는 펄스 횟수에 따라) 저항이 시그모이드 함수의 형태로 변화하게 된다. 따라서, 입력층에서 전달된 벡터값을 활성화 함수에 입력하여 연산하는 과정을 상변화 소자의 특성을 이용하여 대체할 수 있다. 아 후, 여러 메모리 셀의 저항을 한번에 읽게되면, 이 때 흐르는 전류는 각 셀의 저항으로 결정된 전류의 합일 수 있다. 이는 인공신경망 시스템의 피드 포워드(feed forward) 과정에서 합산 과정과 동일하다. 이와 같은 방법으로 활성화 함수 연산 및 합산 연산을 추가 과정 없이 상변화 소자에 전압을 인가하여 상을 바꾸고 셀들에 흐르는 전류를 읽는 방법으로 대체함으로써 연산 코스트를 크게 감소시킬 수 있다.The resistance of the phase change material according to the embodiment is changed in the form of a sigmoid function according to the voltage size of the applied pulse or the number of pulses. Therefore, the process of inputting the vector value transferred from the input layer to the activation function and calculating it can be replaced by using the characteristics of the phase change element. Ah, if the resistances of several memory cells are read at once, the current flowing at this time may be the sum of the currents determined by the resistances of each cell. This is the same as the summation process in the feed forward process of the artificial neural network system. In this way, the operation cost can be greatly reduced by replacing the activation function operation and the sum operation with a method of changing the phase by applying a voltage to the phase change element and reading the current flowing in the cells without an additional process.

또한, 실시예에 따른 상변화 소자의 전압-저항 특성은 ReLu(Rectified linear unit)함수 형태에 따라 변화할 수 있다. RELU함수는 0보다 작은 값이 입력되는 경우 0을 반환하고, 0보다 큰 값이 입력되는 경우 그 값을 그대로 반환할 수 있다.In addition, the voltage-resistance characteristics of the phase change element according to the embodiment may change according to the shape of a Rectified linear unit (ReLu) function. The RELU function returns 0 when a value less than 0 is input, and returns the value as it is when a value greater than 0 is input.

또한, 실시예에 따른 상변화 소자의 전압-저항 특성은 복수개의 상변화 물질이 조합된 함수 형태에 따라 변화할 수 있다. 예를 들면, 상변화 소자의 전압-저항 특성은 시그모이드 함수와 RELU함수가 조합된 함수 형태로 변화할 수 있다. 또한, 실시 Tanh, Leaky ReLU 등 다양한 비선형 함수가 조합된 형태로 변화할 수 있다.In addition, voltage-resistance characteristics of the phase change element according to the embodiment may change according to a function form in which a plurality of phase change materials are combined. For example, the voltage-resistance characteristics of the phase change element may be changed in the form of a function in which a sigmoid function and a RELU function are combined. In addition, it can be changed in the form of a combination of various nonlinear functions such as implementation Tanh and Leaky ReLU.

출력층(130)은 제2노드에서 합산한 값에 가중치를 부여하여 출력 데이터를 출력할 수 있다. 출력층(130)은 입력 데이터에 대응하는 출력 데이터를 출력할 수 있다. 출력층(130)은 은닉층(120)으로부터 수신한 신호에 기초하여 출력을 생성할 수 있다. 출력층(130)을 구성하는 복수의 출력 노드들은 각각 출력값들을 출력할 수 있다. 즉, 하나의 출력 노드에서 하나의 출력값이 출력될 수 있다. 하나의 노드와 다음 노드 사이에서 연결 가중치가 적용될 수 있다. 연결 가중치는 노드와 노드 사이에서 개별적으로 결정될 수 있다. 연결 가중치는 학습과 오류역전파 과정을 통해 업데이트될 수 있다.The output layer 130 may output output data by assigning weights to values summed at the second node. The output layer 130 may output output data corresponding to input data. The output layer 130 may generate an output based on the signal received from the hidden layer 120 . Each of the plurality of output nodes constituting the output layer 130 may output output values. That is, one output value can be output from one output node. A connection weight may be applied between one node and the next node. Connection weights can be determined individually from node to node. Connection weights can be updated through learning and error backpropagation.

상변화 소자를 이용한 인공신경망 시스템(100)은 감독 학습(supervised learning)을 통해 신경망을 학습시킬 수 있다. 감독 학습이란 학습 데이터와 그에 대응하는 출력 데이터를 함께 신경망에 입력하고, 학습 데이터에 대응하는 출력 데이터가 출력되도록 연결선들의 연결 가중치를 업데이트하는 방법이다. 예를 들면, 상변화 소자를 이용한 인공신경망 시스템(100)은 델타 규칙(delta rule)과 오류역전파 학습(backpropagation learning) 등을 통해 인공 뉴런들 사이의 연결 가중치를 업데이트할 수 있다.The artificial neural network system 100 using the phase change device may train the neural network through supervised learning. Supervised learning is a method of inputting training data and output data corresponding thereto to a neural network, and updating connection weights of connection lines so that output data corresponding to the training data is output. For example, the artificial neural network system 100 using a phase change element may update connection weights between artificial neurons through a delta rule and backpropagation learning.

오류역전파 학습은, 주어진 학습 데이터에 대해 전방 계산(forward computation)으로 오류를 추정한 후, 출력층에서 시작하여 은닉층과 입력층 방향으로 역으로 전진하여 추정한 오류를 전파하고, 오류를 줄이는 방향으로 연결 가중치를 업데이트하는 방법이다. 예를 들면, 오류역전파 학습은 입력을 각 층을 전달하여 출력을 계산하는 단계 및 출력의 오차를 줄이기 위해 신경망 내의 연결 가중치를 수정하는 단계로 구분될 수 있다. 상변화 소자를 이용한 인공신경망 시스템(100)은 현재 설정된 연결 가중치들이 얼마나 최적에 가까운지를 측정하기 위한 목적 함수(objective function)를 정의하고, 목적 함수의 결과에 기초하여 연결 가중치들을 계속 변경하고, 학습을 반복적으로 수행할 수 있다. 예를 들면, 목적 함수는 신경망이 학습 데이터에 기초하여 실제 출력한 출력 값과 출력되기로 원하는 기대값 간의 오류를 계산하기 위한 오류 함수일 수 있다. 상변화 소자를 이용한 인공신경망 시스템(100)은 오류 함수의 값을 줄이는 방향으로 연결 가중치들을 업데이트할 수 있다.Error back-propagation learning, after estimating the error with forward computation for the given training data, propagates the estimated error by starting from the output layer and proceeding inversely toward the hidden layer and the input layer, and is connected in the direction of reducing the error. How to update weights. For example, error backpropagation learning can be divided into a step of calculating an output by passing an input to each layer and a step of modifying connection weights in a neural network to reduce an error in an output. The artificial neural network system 100 using a phase change element defines an objective function for measuring how close to optimal the currently set connection weights are, continuously changes the connection weights based on the result of the objective function, and learns can be performed repeatedly. For example, the objective function may be an error function for calculating an error between an output value actually output by the neural network based on training data and an expected value desired to be output. The artificial neural network system 100 using the phase change element may update connection weights in a direction of reducing the value of the error function.

예를 들면, 연결 가중치를 업데이트하는 방법으로 경사 하강법(gradient descent)이 있다. 경사 하강법은 각 노드의 연결 가중치의 변화량에 따른 오류의 변화량(기울기)을 줄이는 방향으로 연결 가중치를 업데이트하는 것을 말한다. 인공신경망은 복수의 층으로 이루어져 있기 때문에 각 노드의 연결 가중치는 신호에 곱해지는 여러 연결 가중치 중에 하나를 의미할 수 있다.For example, as a method of updating connection weights, there is a gradient descent method. Gradient descent refers to updating the connection weights in a direction that reduces the change in error (slope) according to the change in the connection weight of each node. Since an artificial neural network consists of a plurality of layers, the connection weight of each node may mean one of several connection weights multiplied by a signal.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

100: 인공신경망 시스템
110: 입력층
120: 은닉층
130: 출력층
1210: 상변화 소자
121-1, ···, 121-n: 제1노드
122-1, ···, 122-n: 제2노드
1211, 1212: 컬럼 메탈라인
1213: 워드 메탈라인
1214, 1216 메모리 셀
1215, 1217: 셀렉터
100: artificial neural network system
110: input layer
120: hidden layer
130: output layer
1210: phase change element
121-1, ..., 121-n: first node
122-1, ..., 122-n: second node
1211, 1212: column metal line
1213: word metal line
1214, 1216 memory cells
1215, 1217: selector

Claims (10)

입력 데이터를 수신하는 입력층;
상기 입력 데이터에 대응하는 출력 데이터를 출력하는 출력층; 그리고
상기 입력층과 상기 출력층 사이에 위치하는 복수의 은닉층들을 포함하며,
상기 은닉층들은 활성화 함수 연산을 수행하여 제1결과값을 출력하는 제1노드와 상기 제1노드에서 출력된 제1결과값을 합산하는 제2노드를 포함하며,
상기 제1노드의 활성화 함수는 상변화 소자의 저항-전압 특성에 따라 결정되고,
상기 상변화 소자는 워드 라인 및 컬럼 라인의 교차점에 상변화 물질로 이루어지는 메모리 셀 및 메모리 셀에 붙어있는 셀렉터를 포함하며,
상기 상변화 소자는 맨 아래 1층 컬럼라인, 최상단의 2층 컬럼 라인, 1층과 2층 사이의 가운데 컬럼 라인, 및 가운데 컬럼라인과 직교하는 워드 라인을 포함하며, 상기 워드 라인을 공유하는 형태로 1층과 2층의 메모리셀이 각각 배치된, 상변화 소자를 이용한 인공신경망 시스템.
an input layer receiving input data;
an output layer outputting output data corresponding to the input data; and
Includes a plurality of hidden layers located between the input layer and the output layer,
The hidden layers include a first node outputting a first result value by performing an activation function operation and a second node summing the first result value output from the first node,
The activation function of the first node is determined according to the resistance-voltage characteristics of the phase change element,
The phase change element includes a memory cell made of a phase change material at an intersection of a word line and a column line and a selector attached to the memory cell,
The phase change element includes a lowermost column line on the first layer, a uppermost column line on the second layer, a middle column line between the first and second layers, and a word line orthogonal to the middle column line, sharing the word line. An artificial neural network system using a phase change element in which memory cells of the first and second layers are respectively disposed.
삭제delete 제1항에 있어서,
상기 상변화 소자의 전압-저항 특성은 시그모이드 함수 형태에 따라 변화하는 상변화 소자를 이용한 인공신경망 시스템.
According to claim 1,
An artificial neural network system using a phase change element in which the voltage-resistance characteristic of the phase change element changes according to the form of a sigmoid function.
제3항에 있어서,
상기 제2노드는 상기 상변화 소자에 흐르는 전류치를 합산하는 상변화 소자를 이용한 인공신경망 시스템.
According to claim 3,
The artificial neural network system using a phase change element in which the second node sums current values flowing through the phase change element.
제1항에 있어서,
상기 출력층은 상기 제2노드에서 합산한 값에 가중치를 부여하여 상기 출력 데이터를 출력하는 상변화 소자를 이용한 인공신경망 시스템.
According to claim 1,
The artificial neural network system using a phase change element, wherein the output layer outputs the output data by assigning a weight to the value summed at the second node.
제1항에 있어서,
상기 상변화 물질은 Ge-Sb-Te계 물질로 이루어지는 상변화 소자를 이용한 인공신경망 시스템.
According to claim 1,
The phase change material is an artificial neural network system using a phase change element made of a Ge-Sb-Te-based material.
제1항에 있어서,
상기 상변화 물질은 Ag-In-Sb-Te계 물질로 이루어지는 상변화 소자를 이용한 인공신경망 시스템.
According to claim 1,
The phase change material is an artificial neural network system using a phase change element made of Ag-In-Sb-Te-based material.
제1항에 있어서,
상기 상변화 물질은 Ti-Sb-Te 계 물질로 이루어지는 상변화 소자를 이용한 인공신경망 시스템.
According to claim 1,
The phase change material is an artificial neural network system using a phase change element made of a Ti-Sb-Te-based material.
제1항에 있어서,
상기 상변화 소자의 전압-저항 특성은 ReLu함수 형태에 따라 변화하는 상변화 소자를 이용한 인공신경망 시스템.
According to claim 1,
An artificial neural network system using a phase change element in which the voltage-resistance characteristic of the phase change element changes according to the shape of the ReLu function.
제1항에 있어서,
상기 상변화 소자의 전압-저항 특성은 복수개의 상변화 물질이 조합된 함수 형태에 따라 변화하는 상변화 소자를 이용한 인공신경망 시스템.
According to claim 1,
The artificial neural network system using a phase change element in which the voltage-resistance characteristic of the phase change element changes according to a function form in which a plurality of phase change materials are combined.
KR1020200058240A 2020-05-15 2020-05-15 Artificial neural network system using phase change material KR102567230B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200058240A KR102567230B1 (en) 2020-05-15 2020-05-15 Artificial neural network system using phase change material

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200058240A KR102567230B1 (en) 2020-05-15 2020-05-15 Artificial neural network system using phase change material

Publications (2)

Publication Number Publication Date
KR20210141090A KR20210141090A (en) 2021-11-23
KR102567230B1 true KR102567230B1 (en) 2023-08-16

Family

ID=78695097

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200058240A KR102567230B1 (en) 2020-05-15 2020-05-15 Artificial neural network system using phase change material

Country Status (1)

Country Link
KR (1) KR102567230B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101001147B1 (en) * 2008-12-12 2010-12-17 주식회사 하이닉스반도체 Phase change memory device
KR20140117893A (en) * 2013-03-27 2014-10-08 인텔렉추얼디스커버리 주식회사 Phase-change memory device and method for multi-level programing of phase-change memory device
KR20180085422A (en) * 2017-01-18 2018-07-27 한국전자통신연구원 Sigmoid function circuit used in an artificial neural network
KR102151675B1 (en) * 2018-03-29 2020-09-03 국민대학교산학협력단 Single Column Memristor Crossbar and CMOS Activation Function Circuit for Binarized Neural Networks
KR102105936B1 (en) * 2018-06-25 2020-05-28 포항공과대학교 산학협력단 Weight matrix input circuit and weight matrix circuit

Also Published As

Publication number Publication date
KR20210141090A (en) 2021-11-23

Similar Documents

Publication Publication Date Title
US11531871B2 (en) Stacked neuromorphic devices and neuromorphic computing systems
JP7336819B2 (en) Method for storing weights in a crosspoint device of a resistance processing unit array, crosspoint device thereof, crosspoint array for implementing a neural network, system thereof, and method for implementing a neural network Method
US11620505B2 (en) Neuromorphic package devices and neuromorphic computing systems
JPWO2019049741A1 (en) Neural network arithmetic circuit using non-volatile semiconductor memory device
CN111052154B (en) Neural network operation circuit using nonvolatile semiconductor memory element
KR20190022622A (en) Artificial neural network
CN111052153A (en) Neural network operation circuit using semiconductor memory element and operation method
US11922169B2 (en) Refactoring mac operations
US20200410319A1 (en) Stacked artificial neural networks
US11121259B2 (en) Metal-oxide-based neuromorphic device
US11586899B2 (en) Neuromorphic device with oxygen scavenging gate
TWI783538B (en) Multi-level ultra-low power inference engine accelerator
US11195089B2 (en) Multi-terminal cross-point synaptic device using nanocrystal dot structures
US20220366211A1 (en) Dropout in neutral networks using threshold switching selectors in non-volatile memories
KR102567230B1 (en) Artificial neural network system using phase change material
US11868893B2 (en) Efficient tile mapping for row-by-row convolutional neural network mapping for analog artificial intelligence network inference
JP2022546032A (en) Suppressing drift coefficient outliers during programming of phase-change memory synapses
US11881260B2 (en) Neuromorphic computing device and method of designing the same
KR102656337B1 (en) Semiconductor device based on ternary precision xnor logic and neuromorphic computing system including the same
CN116523011B (en) Memristor-based binary neural network layer circuit and binary neural network training method
EP4198828A2 (en) Analog-digital hybrid computing method and neuromorphic system using the same
KR102419201B1 (en) Neuromorphic synapse device having multi-bit characteristic and operation method thereof
Irmanova et al. Multi-level memristive memory for neural networks
Lee et al. Neuromorphic Technology Utilizing Nand Flash Memory Cells
CN111105022A (en) Method for simulating calculation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant