KR20210066545A - Electronic device, method, and computer readable medium for simulation of semiconductor device - Google Patents

Electronic device, method, and computer readable medium for simulation of semiconductor device Download PDF

Info

Publication number
KR20210066545A
KR20210066545A KR1020190155928A KR20190155928A KR20210066545A KR 20210066545 A KR20210066545 A KR 20210066545A KR 1020190155928 A KR1020190155928 A KR 1020190155928A KR 20190155928 A KR20190155928 A KR 20190155928A KR 20210066545 A KR20210066545 A KR 20210066545A
Authority
KR
South Korea
Prior art keywords
electronic device
semiconductor device
dnn
dnns
initial solution
Prior art date
Application number
KR1020190155928A
Other languages
Korean (ko)
Other versions
KR102293791B1 (en
Inventor
홍성민
한승철
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020190155928A priority Critical patent/KR102293791B1/en
Publication of KR20210066545A publication Critical patent/KR20210066545A/en
Application granted granted Critical
Publication of KR102293791B1 publication Critical patent/KR102293791B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/36Circuit design at the analogue level
    • G06F30/367Design verification, e.g. using simulation, simulation program with integrated circuit emphasis [SPICE], direct methods or relaxation methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

Various embodiments of the present invention relate to a first electronic device for a first deep neural network (DNN) included in a set of DNNs having a hierarchical structure, which comprises: at least one processor; at least one memory configured for storage of instructions; and a communication circuit operatively coupled with the at least one processor, wherein the at least one processor, when the instructions are executed, is configured to: receive characteristics information on a result of simulation of a first semiconductor device performed by a semiconductor device simulator connected to a second electronic device from the second electronic device for a second DNN which is included in the set of the DNNs, and is ranked lower than the first DNN; perform machine learning, based on the characteristics information; receive a signal of requesting provision of an initial solution in order to perform simulation of the second semiconductor device by using the semiconductor device simulator from the second electronic device; and in respond to reception of the signal, transmit the refined initial solution to the second electronic device based on a result of the machine learning. Accordingly, the resource efficiency of a semiconductor device simulator can be reinforced.

Description

반도체 소자의 시뮬레이션을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체{ELECTRONIC DEVICE, METHOD, AND COMPUTER READABLE MEDIUM FOR SIMULATION OF SEMICONDUCTOR DEVICE} ELECTRONIC DEVICE, METHOD, AND COMPUTER READABLE MEDIUM FOR SIMULATION OF SEMICONDUCTOR DEVICE

후술되는 다양한 실시예들은 반도체 소자(semiconductor device)의 시뮬레이션(simulation)을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체(computer readable medium)에 관한 것이다. Various embodiments to be described below relate to an electronic device, a method, and a computer readable medium for simulation of a semiconductor device.

깊은 신경망(deep neural network, DNN)은 특정 수준의 복잡성을 가지고 2개 이상의 레이어들을 가지는 신경망이다. DNN들은 복잡한 방법들로 데이터를 처리하기 위해 정교한 수학적 모델링을 이용할 수 있다. A deep neural network (DNN) is a neural network with two or more layers with a certain level of complexity. DNNs can use sophisticated mathematical modeling to process data in complex ways.

반도체 소자(semiconductor device)의 전기적 특성을 예측하기 위한 시뮬레이션을 위해, 반도체 소자 시뮬레이터(semiconductor device simulator)가 이용되고 있다. 상기 반도체 소자 시뮬레이터는, 비슷한 반도체 소자들에 대한 시뮬레이션들을 수행함에도 불구하고 항상 평형 상태로부터 상기 각각의 시뮬레이션들을 수행한다. 따라서, 상기 반도체 소자 시뮬레이터의 자원 효율성을 강화하기 위한 방안이 요구될 수 있다. For a simulation for predicting electrical characteristics of a semiconductor device, a semiconductor device simulator is used. The semiconductor device simulator always performs the respective simulations from an equilibrium state despite performing simulations for similar semiconductor devices. Accordingly, a method for enhancing the resource efficiency of the semiconductor device simulator may be required.

본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problems to be achieved in this document are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.

다양한 실시예들에 따른, 계층 구조(hierarchy structure)를 가지는 깊은 신경망(deep neural network, DNN)들의 세트 내에 포함된 제1 DNN을 위한 제1 전자 장치(electronic device)는, 적어도 하나의 프로세서와, 인스트럭션들을 저장하도록 구성된 적어도 하나의 메모리와, 상기 적어도 하나의 프로세서와 작동적으로 결합된(operatively coupled with) 통신 회로를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행할 시, 상기 DNN들의 세트에 포함되고 상기 제1 DNN의 하위의 DNN인 제2 DNN을 위한 제2 전자 장치로부터, 상기 제2 전자 장치와 연결된 반도체 소자 시뮬레이터에 의해 수행된 제1 반도체 소자의 시뮬레이션 결과에 대한 특징 정보를 수신하고, 상기 특징 정보에 기반하여, 기계 학습을 수행하고, 상기 제2 전자 장치로부터, 상기 반도체 소자 시뮬레이터를 이용한 제2 반도체 소자의 시뮬레이션을 수행하기 위한 초기해를 제공할 것을 요청하는 신호를 수신하고, 상기 신호의 상기 수신에 응답하여, 상기 기계 학습의 결과에 기반하여 정제된(refined) 초기해를 상기 제2 전자 장치에게 송신하도록 구성될 수 있다. According to various embodiments, a first electronic device for a first DNN included in a set of deep neural networks (DNNs) having a hierarchical structure includes at least one processor, at least one memory configured to store instructions, and communication circuitry operatively coupled with the at least one processor, wherein the at least one processor, when executing the instructions, is configured to: Characteristic information on a simulation result of a first semiconductor device performed by a semiconductor device simulator connected to the second electronic device from a second electronic device for a second DNN that is included in the set and is a lower DNN of the first DNN a signal requesting to receive, based on the feature information, perform machine learning, and provide an initial solution for performing a simulation of a second semiconductor device using the semiconductor device simulator from the second electronic device receive, and in response to the reception of the signal, transmit an initial solution refined based on a result of the machine learning to the second electronic device.

다양한 실시예들에 따른, 계층 구조(hierarchy structure)를 가지는 깊은 신경망(deep neural network, DNN)들의 세트 내에 포함된 제1 DNN을 위한 제1 전자 장치(electronic device)를 동작하기 위한 방법은, 상기 DNN들의 세트에 포함되고 상기 제1 DNN의 하위의 DNN인 제2 DNN을 위한 제2 전자 장치로부터, 상기 제2 전자 장치와 연결된 반도체 소자 시뮬레이터에 의해 수행된 제1 반도체 소자의 시뮬레이션 결과에 대한 특징 정보를 수신하는 동작과, 상기 특징 정보에 기반하여, 기계 학습을 수행하는 동작과, 상기 제2 전자 장치로부터, 상기 반도체 소자 시뮬레이터를 이용한 제2 반도체 소자의 시뮬레이션을 수행하기 위한 초기해를 제공할 것을 요청하는 신호를 수신하는 동작과, 상기 신호의 상기 수신에 응답하여, 상기 기계 학습의 결과에 기반하여 정제된(refined) 초기해를 상기 제2 전자 장치에게 송신하는 동작을 포함할 수 있다. A method for operating a first electronic device for a first DNN included in a set of deep neural networks (DNNs) having a hierarchical structure, according to various embodiments, includes: Characteristics of a simulation result of a first semiconductor device performed by a semiconductor device simulator connected to the second electronic device from a second electronic device for a second DNN included in the set of DNNs and which is a lower DNN of the first DNN to provide an initial solution for receiving information, performing machine learning based on the feature information, and performing simulation of a second semiconductor device using the semiconductor device simulator from the second electronic device The method may include receiving a signal for requesting that the signal is received, and transmitting, to the second electronic device, an initial solution refined based on a result of the machine learning in response to the reception of the signal.

다양한 실시예들에 따른 비일시적 컴퓨터 판독 가능 저장 매체(non-transitory computer readable storage medium)는, 통신 회로를 가지고 계층 구조(hierarchy structure)를 가지는 깊은 신경망(deep neural network, DNN)들의 세트 내에 포함된 제1 DNN을 위한 제1 전자 장치의 하나 이상의 프로세서들에 의해 실행될 시, 상기 DNN들의 세트에 포함되고 상기 제1 DNN의 하위의 DNN인 제2 DNN을 위한 제2 전자 장치로부터, 상기 제2 전자 장치와 연결된 반도체 소자 시뮬레이터에 의해 수행된 제1 반도체 소자의 시뮬레이션 결과에 대한 특징 정보를 수신하고, 상기 특징 정보에 기반하여, 기계 학습을 수행하고, 상기 제2 전자 장치로부터, 상기 반도체 소자 시뮬레이터를 이용한 제2 반도체 소자의 시뮬레이션을 수행하기 위한 초기해를 제공할 것을 요청하는 신호를 수신하고, 상기 신호의 상기 수신에 응답하여, 상기 기계 학습의 결과에 기반하여 정제된(refined) 초기해를 상기 제2 전자 장치에게 송신하도록, 상기 제1 전자 장치를 야기하는 인스트럭션들을 포함하는 하나 이상의 프로그램들을 저장할 수 있다. A non-transitory computer readable storage medium according to various embodiments is included in a set of deep neural networks (DNNs) having a communication circuit and a hierarchical structure. When executed by one or more processors of a first electronic device for a first DNN, from a second electronic device for a second DNN that is included in the set of DNNs and is a lower DNN of the first DNN, the second electronic device Receive feature information on the simulation result of the first semiconductor device performed by the semiconductor device simulator connected to the device, perform machine learning based on the feature information, and execute the semiconductor device simulator from the second electronic device receiving a signal requesting to provide an initial solution for performing a simulation of a second semiconductor device using the second semiconductor device, and in response to the reception of the signal, a refined initial solution based on a result of the machine learning One or more programs including instructions for causing the first electronic device to be transmitted to the second electronic device may be stored.

다양한 실시예들에 따른 전자 장치, 방법, 및 컴퓨터 판독 가능 매체는, 반도체 소자 시뮬레이터와 연결된 다른 전자 장치로부터 반도체 소자의 시뮬레이션 결과에 대한 특징 정보를 수집하고 상기 수집된 특징 정보에 기반하여 수행된 기계 학습의 결과에 기반하여 상기 다른 전자 장치에게 초기해를 제공함으로써, 상기 반도체 소자 시뮬레이터가 반도체 소자의 전기적 특성을 획득하기 위해 소비하는 시간을 절약할 수 있다. An electronic device, a method, and a computer-readable medium according to various embodiments of the present disclosure collect characteristic information about a simulation result of a semiconductor device from another electronic device connected to a semiconductor device simulator and perform a machine operation based on the collected characteristic information By providing the initial solution to the other electronic device based on the learning result, the time consumed by the semiconductor device simulator to acquire electrical characteristics of the semiconductor device may be reduced.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. will be.

도 1은 다양한 실시예들에 따른, 계층 구조(hierarchy structure)를 가지는 깊은 신경망(deep neural network, DNN)들의 세트의 예를 도시한다.
도 2는 다양한 실시예들에 따른 계층 구조를 가지는 DNN들의 세트 내에 포함된 제1 DNN을 위한 제1 전자 장치의 간소화된 블록도이다.
도 3은 다양한 실시예들에 따라 반도체 소자 시뮬레이터에 초기해를 제공하기 위한 제1 전자 장치의 동작 및 제2 전자 장치의 동작의 예를 도시한다.
도 4는 다양한 실시예들에 따라 반도체 소자 시뮬레이터에 초기해를 제공함으로써 획득되는 전기적 특성의 예를 도시한다.
도 5는 다양한 실시예들에 따라 반도체 소자 시뮬레이터에 초기해를 제공하는 방법을 도시하는 흐름도이다.
1 shows an example of a set of deep neural networks (DNNs) having a hierarchical structure, in accordance with various embodiments.
2 is a simplified block diagram of a first electronic device for a first DNN included in a set of DNNs having a hierarchical structure according to various embodiments.
3 illustrates an example of an operation of a first electronic device and an operation of a second electronic device for providing an initial solution to a semiconductor device simulator according to various embodiments of the present disclosure.
4 illustrates an example of an electrical characteristic obtained by providing an initial solution to a semiconductor device simulator according to various embodiments.
5 is a flowchart illustrating a method of providing an initial solution to a semiconductor device simulator according to various embodiments of the present disclosure;

본 개시에서 사용되는 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다. Terms used in the present disclosure are used only to describe specific embodiments, and may not be intended to limit the scope of other embodiments. The singular expression may include the plural expression unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art described in the present disclosure. Among the terms used in the present disclosure, terms defined in a general dictionary may be interpreted with the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in the present disclosure, ideal or excessively formal meanings is not interpreted as In some cases, even terms defined in the present disclosure cannot be construed to exclude embodiments of the present disclosure.

이하에서 설명되는 본 개시의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 개시의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 개시의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다. In various embodiments of the present disclosure described below, a hardware approach method will be described as an example. However, since various embodiments of the present disclosure include technology using both hardware and software, various embodiments of the present disclosure do not exclude a software-based approach.

도 1은 다양한 실시예들에 따른, 계층 구조(hierarchy structure)를 가지는 깊은 신경망(deep neural network, DNN)들의 세트의 예를 도시한다. 1 shows an example of a set of deep neural networks (DNNs) having a hierarchical structure, in accordance with various embodiments.

도 1을 참조하면, DNN들의 세트(10)는 DNN(90), DNN(91-1) 내지 DNN(91-n)(n은 1보다 큰 임의의 자연수), 및 DNN(92-1) 내지 DNN(92-m)(m은 1보다 크고 n보다 큰 임의의 자연수)을 포함할 수 있다. Referring to FIG. 1 , a set 10 of DNNs includes DNN 90 , DNN 91-1 through DNN 91-n (n is any natural number greater than 1), and DNN 92-1 through DNN 92-1. DNN(92-m), where m is any natural number greater than 1 and greater than n.

다양한 실시예들에서, DNN들의 세트(10)는 계층 구조를 가질 수 있다. 다양한 실시예들에서, DNN(90)은, 상기 계층 구조를 가지는 DNN들의 세트(10) 내에서 가장 높은 레벨을 가지는 DNN일 수 있다. 다양한 실시예들에서, DNN(91-1) 내지 DNN(91-n) 각각은, DNN(90)의 하위의 DNN일 수 있다. 예를 들면, DNN(91-1) 내지 DNN(91-n) 각각은, DNN(90)의 바로 하위의 DNN일 수 있다. 다양한 실시예들에서, DNN(92-1) 내지 DNN(92-m) 각각은, DNN(91-1) 내지 DNN(91-n)보다 하위의 DNN일 수 있다. 예를 들면, DNN(92-1), DNN(92-2), 및 DNN(92-3)은 DNN(91-1)의 바로 하위의 DNN일 수 있다. In various embodiments, the set 10 of DNNs may have a hierarchical structure. In various embodiments, the DNN 90 may be a DNN having the highest level in the set 10 of DNNs having a hierarchical structure. In various embodiments, each of DNNs 91-1 through DNNs 91-n may be a lower DNN of DNN 90 . For example, each of the DNNs 91-1 to 91-n may be a DNN immediately below the DNN 90 . In various embodiments, each of DNN 92-1 through DNN 92-m may be a lower DNN than DNN 91-1 through DNN 91-n. For example, the DNN 92-1, the DNN 92-2, and the DNN 92-3 may be DNNs immediately below the DNN 91-1.

다양한 실시예들에서, DNN들의 세트(10) 내에 포함된 DNN들 중 일부(예: DNN(92-1) 내지 DNN(92-m))는, 반도체 소자의 전기적 특성을 획득하기 위해 시뮬레이션을 수행하는 적어도 하나의 반도체 소자 시뮬레이터와 연결될 수 있다. In various embodiments, some of the DNNs included in the set of DNNs 10 (eg, DNNs 92-1 to DNNs 92-m) perform simulation to obtain electrical characteristics of the semiconductor device. may be connected to at least one semiconductor device simulator.

예를 들면, DNN(92-1) 내지 DNN(92-m) 각각은, 상기 반도체 소자 시뮬레이터를 이용하여 상기 반도체 소자의 전기적 특성을 획득하기 위해, 상기 적어도 하나의 반도체 소자 시뮬레이터에게 초기해를 제공할 수 있다. 상기 초기해는, DNN(92-1) 내지 DNN(92-m) 각각에 의해 수행된 기계 학습의 결과 및 DNN들의 세트(10) 내에 포함된 다른 일부(예: DNN(90) 및 DNN(91-1) 내지 DNN(91-n) 중 적어도 일부)에 의해 수행된 기계 학습의 결과에 기반하여 결정될 수 있다. 하지만, 이에 제한되지 않는다. For example, each of the DNNs 92-1 to 92-m provides an initial solution to the at least one semiconductor device simulator to obtain electrical characteristics of the semiconductor device using the semiconductor device simulator. can do. The initial solution is the result of machine learning performed by each of the DNNs 92-1 to 92-m and other parts included in the set of DNNs 10 (eg, DNN 90 and DNN 91 ). -1) to at least some of the DNNs 91-n) may be determined based on the results of machine learning performed. However, it is not limited thereto.

예를 들면, DNN(92-1) 내지 DNN(92-m) 각각은, 상기 적어도 하나의 반도체 소자 시뮬레이터로부터 상기 초기해를 이용하여 상기 반도체 소자에 대하여 수행된 시뮬레이션의 결과에 대한 정보를 획득할 수 있다. 예를 들면, DNN(92-1) 내지 DNN(92-m) 각각은, 상기 시뮬레이션의 결과로부터 특징 정보(feature information)을 추출할 수 있다. 상기 특징 정보의 추출은, 실시예들에 따라, DNN(92-1) 내지 DNN(92-m) 각각의 기계 학습에 의해 정제되거나(refined) 업데이트될(updated) 수 있다. For example, each of the DNNs 92-1 to 92-m may obtain information on a result of a simulation performed on the semiconductor device using the initial solution from the at least one semiconductor device simulator. can For example, each of the DNNs 92-1 to 92-m may extract feature information from a result of the simulation. The extraction of the feature information may be refined or updated by machine learning of each of the DNNs 92-1 to 92-m, according to embodiments.

다양한 실시예들에서, DNN들의 세트(10) 내에 포함된 DNN들 중 다른 일부(예: DNN(91-1) 내지 DNN(91-n))는, DNN들의 세트(10) 내에 포함된 DNN들 중 상기 일부와 연결될 수 있다. 예를 들면, DNN(91-1)은 DNN(92-1) 내지 DNN(92-3)의 상위의 DNN으로, DNN(92-1) 내지 DNN(92-3) 각각과 연결될 수 있다. In various embodiments, some other of the DNNs included in the set of DNNs 10 (eg, DNN 91-1 through DNN 91-n) are DNNs included in the set 10 of DNNs. may be connected to some of the above. For example, the DNN 91-1 is a DNN above the DNNs 92-1 to 92-3, and may be connected to each of the DNNs 92-1 to DNN 92-3.

예를 들면, DNN(91-1)은, DNN(92-1) 내지 DNN(92-3) 각각의 요청에 기반하여, 상기 적어도 하나의 반도체 소자 시뮬레이터에게 제공될 초기해를 DNN(92-1) 내지 DNN(92-3) 각각에게 제공할 수 있다. For example, the DNN 91-1 may generate an initial solution to be provided to the at least one semiconductor device simulator based on a request of each of the DNNs 92-1 to 92-3. ) to DNN (92-3) can be provided to each.

예를 들면, DNN(91-1)은, DNN(92-1) 내지 DNN(92-3) 각각에게 제공되었던 상기 초기해를 정제하기(refine) 위한 기계 학습을 수행하기 위해, 상기 적어도 하나의 반도체 소자 시뮬레이터와 연결된 DNN(92-1) 내지 DNN(92-3) 각각으로부터 상기 특징 정보를 수신할 수 있다. DNN(91-1)은, 상기 수신된 특징 정보에 기반하여 기계 학습을 수행함으로써, 상기 초기해를 정제할 수 있다. For example, the DNN 91-1 may perform machine learning for refining the initial solution provided to each of the DNNs 92-1 to 92-3, the at least one The characteristic information may be received from each of the DNNs 92-1 to 92-3 connected to the semiconductor device simulator. The DNN 91-1 may refine the initial solution by performing machine learning based on the received feature information.

다양한 실시예들에서, DNN들의 세트(10) 내에 포함된 DNN들 중 남은 일부(예: DNN(90))는, DNN들의 세트(10) 내에 포함된 상기 다른 일부와 연결될 수 있다. 예를 들면, DNN(90)은, DNN(91-1) 및 DNN(91-2)와 각각 연결될 수 있다. In various embodiments, a remaining portion of the DNNs included in the set 10 of DNNs (eg, the DNN 90 ) may be connected to the other portion included in the set 10 of DNNs. For example, the DNN 90 may be connected to the DNN 91-1 and the DNN 91-2, respectively.

예를 들면, DNN(90)은, DNN(91-1) 및 DNN(91-2) 각각의 요청에 기반하여, 상기 적어도 하나의 반도체 소자 시뮬레이터에게 제공될 초기해를 DNN(91-1) 및 DNN(91-2) 각각에게 제공할 수 있다. DNN(91-1) 및 DNN(91-2) 각각에게 제공된 상기 초기해는, DNN(92-1) 내지 DNN(92-m) 각각에게 제공될 수 있다. For example, the DNN 90 may generate an initial solution to be provided to the at least one semiconductor device simulator based on the respective requests of the DNN 91-1 and the DNN 91-2. It may be provided to each of the DNNs 91-2. The initial solution provided to each of the DNNs 91-1 and 91-2 may be provided to each of the DNNs 92-1 to 92-m.

다양한 실시예들에서, DNN들의 세트(10)의 상기 계층적 구조는, 상기 적어도 하나의 반도체 소자 시뮬레이터를 이용하는 조직의 구조에 대응하도록 구성될 수 있다. 예를 들면, DNN(91-1)의 하위의 DNN(92-1) 내지 DNN(92-3)과 연결된 반도체 소자 시뮬레이터를 이용하는 사용자들은, 상기 조직 내에서 제1 연구실에 속할 수 있으며, DNN(91-2)의 하위의 DNN(92-4) 내지 DNN(92-k)와 연결된 다른 반도체 소자 시뮬레이터를 이용하는 사용자들은, 상기 조직 내에서 상기 제1 연구실과 구별되는 제2 연구실에 속할 수 있다. 예를 들면, DNN(91-1) 및 DNN(91-2)의 상위의 DNN(90)은 상기 제1 연구실 및 상기 제2 연구실을 포함하는 제1 그룹을 위해 구성될 수 있다. In various embodiments, the hierarchical structure of the set 10 of DNNs may be configured to correspond to the structure of an organization using the at least one semiconductor device simulator. For example, users using the semiconductor device simulator connected to the DNN 92-1 to the DNN 92-3 below the DNN 91-1 may belong to the first laboratory in the organization, and the DNN ( 91-2), users using other semiconductor device simulators connected to the lower DNNs 92-4 to DNN 92-k may belong to a second laboratory in the organization that is distinct from the first laboratory. For example, the DNN 91-1 and the DNN 90 above the DNN 91-2 may be configured for a first group including the first laboratory and the second laboratory.

도 1은, 3개의 레벨들을 가지는 계층 구조를 가지는 DNN들의 세트(10)를 예시하고 있으나, 이는 설명의 편의를 위한 것이다. 예를 들면, DNN들의 세트(10)의 계층 구조의 레벨들의 수는, 상기 적어도 하나의 반도체 소자 시뮬레이터를 이용하는 사용자들이 속한 조직의 구조 또는 상기 사용자들의 수 중 적어도 하나에 따라, 변경될 수 있다. 1 illustrates a set 10 of DNNs having a hierarchical structure having three levels, but this is for convenience of description. For example, the number of levels of the hierarchical structure of the set 10 of DNNs may be changed according to at least one of the number of users or the structure of an organization to which users using the at least one semiconductor device simulator belong.

이하 설명의 편의를 위해, 필요한 경우, DNN(91-1)은 DNN(91)으로 참조되고, DNN(92-1) 내지 DNN(92-3) 중 어느 하나는 DNN(92)로 참조될 수 있다. For convenience of description below, if necessary, the DNN 91-1 is referred to as the DNN 91, and any one of the DNN 92-1 to the DNN 92-3 may be referred to as the DNN 92. have.

도 2는 다양한 실시예들에 따른 계층 구조를 가지는 DNN들의 세트 내에 포함된 제1 DNN을 위한 제1 전자 장치의 간소화된 블록도이다. 이러한 간소화된 블록도는, 도 1에 도시된 DNN(91)을 위한 제1 전자 장치(100)의 기능적 구성들을 나타낼 수 있다. 이러한 기능적 구성들은, 도 3 내지 도 5의 설명들을 통해 기술된 동작들을 실행하기 위해 제1 전자 장치(100) 내에 포함될 수 있다. 2 is a simplified block diagram of a first electronic device for a first DNN included in a set of DNNs having a hierarchical structure according to various embodiments. This simplified block diagram may represent functional configurations of the first electronic device 100 for the DNN 91 shown in FIG. 1 . These functional components may be included in the first electronic device 100 to perform the operations described through the descriptions of FIGS. 3 to 5 .

인공 신경망은 입력에 대하여 일반화된 출력(generalized output)을 제공하기 위한 하드웨어, 소프트웨어, 또는 이들의 조합을 의미할 수 있다. The artificial neural network may refer to hardware, software, or a combination thereof for providing a generalized output with respect to an input.

예를 들어, 인공 신경망은, 합성곱 신경망(CNN, Convolutional Neural Network), 마르코프 체인(Markov Chain), 깊은 신경망(DNN, deep neural network), 또는 이진화 신경망(BNN, binarized neural network) 등을 시뮬레이션하기 위한 어플리케이션 및 상기 어플리케이션을 실행하기 위한 프로세서에 기반하여 작동할 수 있다. For example, an artificial neural network is used to simulate a convolutional neural network (CNN), a Markov chain, a deep neural network (DNN), or a binarized neural network (BNN), etc. It may operate based on an application for and a processor for executing the application.

도 2를 참조하면, 제1 전자 장치(100)는 훈련을 통하여 기계 학습을 수행할 수 있는 장치로서, 인공 신경망으로 구성된 모델을 이용하여 학습하는 장치를 포함할 수 있다. 예를 들면, 제1 전자 장치(100)는 데이터 마이닝, 데이터 분석, 및 기계 학습 알고리즘(예: 딥 러닝 알고리즘 (deep learning algorithm))을 위해 이용되는 정보를 입력, 출력, 데이터 베이스 구축 및 저장하도록 구성될 수 있다. Referring to FIG. 2 , the first electronic device 100 is a device capable of performing machine learning through training, and may include a device for learning using a model composed of an artificial neural network. For example, the first electronic device 100 may input, output, construct and store information used for data mining, data analysis, and machine learning algorithms (eg, deep learning algorithms). can be configured.

제1 전자 장치(100)는 통신 회로(미도시)를 통해 외부 전자 장치(미도시)와 데이터를 송수신할 수 있고, 외부 전자 장치로부터 전달받은 데이터를 분석하거나 학습하여 결과값을 도출할 수 있다. 제1 전자 장치(100)는 외부 전자 장치의 연산을 분산하여 처리할 수 있다. The first electronic device 100 may transmit/receive data to and from an external electronic device (not shown) through a communication circuit (not shown), and may derive a result value by analyzing or learning data received from the external electronic device . The first electronic device 100 may distribute and process the calculation of the external electronic device.

제1 전자 장치(100)는 서버로 구현될 수 있다. 제1 전자 장치(100)는 복수로 구성되어 신경망 장치 세트를 이룰 수 있다. 각각의 제1 전자 장치(100)는 연산을 분산하여 처리할 수 있고, 분산 처리된 데이터를 바탕으로 데이터 분석 및 학습을 통하여 결과값을 도출할 수 있다. 제1 전자 장치(100)는 기계 학습 알고리즘 등을 이용하여 획득한 결과값을 외부 전자 장치 또는 다른 신경망 장치로 전송할 수 있다. The first electronic device 100 may be implemented as a server. The first electronic device 100 may be configured in plurality to form a neural network device set. Each of the first electronic devices 100 may process the calculation by distributing it, and may derive a result value through data analysis and learning based on the distributed processed data. The first electronic device 100 may transmit a result obtained by using a machine learning algorithm or the like to an external electronic device or another neural network device.

다양한 실시예들에 따른, 제1 전자 장치(100)는 입력부(110), 프로세서(120), 메모리(130), 및 러닝 프로세서(140)를 포함할 수 있다. According to various embodiments, the first electronic device 100 may include an input unit 110 , a processor 120 , a memory 130 , and a learning processor 140 .

다양한 실시예들에 따르면, 입력부(110)는 인공 신경망 모델 학습을 통한 출력값을 도출하기 위한 입력 데이터를 획득할 수 있다. 입력부(110)는 가공되지 않은 입력 데이터를 획득할 수 있다. According to various embodiments, the input unit 110 may obtain input data for deriving an output value through artificial neural network model learning. The input unit 110 may obtain raw input data.

프로세서(120) 또는 러닝 프로세서(140)는 가공되지 않은 입력 데이터를 전처리하여 인공 신경망 모델 학습에 입력 가능한 훈련 데이터를 생성할 수 있다. 상기 전처리는 입력 데이터로부터 특징점을 추출하는 것일 수 있다. 상술한 바와 같이, 입력부(110)는 통신 회로(미도시)를 통하여 데이터를 수신하여 입력 데이터를 획득하거나 데이터를 전처리할 수 있다. The processor 120 or the learning processor 140 may preprocess the raw input data to generate training data that can be input to the artificial neural network model learning. The preprocessing may be to extract a feature point from the input data. As described above, the input unit 110 may receive data through a communication circuit (not shown) to obtain input data or pre-process the data.

다양한 실시예들에 따르면, 프로세서(120)는 제1 전자 장치(100)에서 사용 히스토리 정보를 수집하여 메모리(130)에 저장할 수 있다. 프로세서(120)는 저장된 사용 히스토리 정보 및 예측 모델링을 통하여 특정 기능을 실행하기 위한 최상의 조합을 결정할 수 있다. 프로세서(120)는 입력부(110)로부터 이미지 정보, 오디오 정보, 데이터, 초기해에 대한 정보, 특징 정보 또는 사용자 입력 정보를 수신할 수 있다. According to various embodiments, the processor 120 may collect usage history information from the first electronic device 100 and store it in the memory 130 . The processor 120 may determine the best combination for executing a specific function through the stored usage history information and predictive modeling. The processor 120 may receive image information, audio information, data, information about an initial solution, characteristic information, or user input information from the input unit 110 .

다양한 실시예들에 따르면, 프로세서(120)는 정보를 실시간으로 수집하고, 정보를 처리 또는 분류하고, 처리된 정보를 메모리(130), 메모리(130)의 데이터 베이스 또는 러닝 프로세서(140)에 저장할 수 있다. According to various embodiments, the processor 120 collects information in real time, processes or classifies the information, and stores the processed information in the memory 130 , a database of the memory 130 , or the learning processor 140 . can

다양한 실시예들에 따르면, 제1 전자 장치(100)의 동작이 데이터 분석 및 머신 러닝 알고리즘을 바탕으로 결정될 때, 프로세서(120)는 결정된 동작을 실행하기 위해 제1 전자 장치(100)의 구성요소를 제어할 수 있다. 다양한 실시예들에 따르면, 프로세서(120)는 제어 명령에 따라 제1 전자 장치(100)를 제어하여 결정된 동작을 수행할 수 있다. According to various embodiments, when the operation of the first electronic device 100 is determined based on data analysis and machine learning algorithm, the processor 120 executes the determined operation. can control According to various embodiments, the processor 120 may control the first electronic device 100 according to a control command to perform a determined operation.

프로세서(120)는 특정 동작이 수행되는 경우, 데이터 분석 및 기계 학습 알고리즘 및 기법을 통해 특정 동작의 실행을 나타내는 이력 정보를 분석하고, 분석된 정보에 기초하여 이전에 학습한 정보의 업데이트를 수행할 수 있다. 프로세서(120)는 러닝 프로세서(140)과 함께, 업데이트 된 정보에 기초하여 데이터 분석 및 기계 학습 알고리즘 및 성능의 정확성을 향상시킬 수 있다. When a specific operation is performed, the processor 120 analyzes historical information indicating the execution of the specific operation through data analysis and machine learning algorithms and techniques, and updates previously learned information based on the analyzed information. can The processor 120 may improve the accuracy of data analysis and machine learning algorithms and performance based on the updated information together with the learning processor 140 .

다양한 실시예들에 따르면, 메모리(130)는 입력부(110)에서 획득한 입력 데이터, 학습된 데이터, 또는 학습 히스토리 등을 저장할 수 있다. 메모리(130)는 인공 신경망 모델(131)을 저장할 수 있다. According to various embodiments, the memory 130 may store input data obtained from the input unit 110 , learned data, or a learning history. The memory 130 may store the artificial neural network model 131 .

다양한 실시예들에 따르면, 인공 신경망 모델(131)은 메모리(130)에 할당된 공간에 저장될 수 있다. 메모리(130)에 할당된 공간은 러닝 프로세서(140)를 통하여 학습 중 또는 학습된 인공 신경망 모델(131)을 저장하며, 학습을 통하여 인공 신경망 모델(131)이 갱신되면, 갱신된 인공 신경망 모델(131)을 저장할 수 있다. 상기 메모리(130)에 할당된 공간은 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다. According to various embodiments, the artificial neural network model 131 may be stored in a space allocated to the memory 130 . The space allocated to the memory 130 stores the artificial neural network model 131 during learning or learned through the learning processor 140, and when the artificial neural network model 131 is updated through learning, the updated artificial neural network model ( 131) can be stored. The space allocated to the memory 130 may store the learned model by dividing it into a plurality of versions according to a learning time point or learning progress.

다양한 실시예들에 따르면, 메모리(130)는 입력부(110)에서 획득한 입력 데이터, 학습된 데이터를 저장, 분류가능한 데이터 베이스를 포함할 수 있다. According to various embodiments, the memory 130 may include a database capable of storing and classifying input data obtained from the input unit 110 and the learned data.

다양한 실시예들에 따르면, 러닝 프로세서(140)는 프로세서(120)가 입력부(110)를 통해 획득한 입력 데이터를 전처리한 데이터를 바로 획득하여 인공 신경망 모델(131)을 학습하거나, 메모리(130)의 데이터 베이스에 저장된 전처리된 입력 데이터를 획득하여 인공 신경망 모델(131)을 학습시킬 수 있다. 예를 들면, 러닝 프로세서(140)는 다양한 학습 기법을 이용하여 인공 신경망 모델(131)을 반복적으로 학습시켜 최적화된 인경 신경망 모델(131) 파라미터를 획득할 수 있다. According to various embodiments, the learning processor 140 learns the artificial neural network model 131 by directly acquiring data obtained by preprocessing the input data obtained by the processor 120 through the input unit 110 , or the memory 130 . The artificial neural network model 131 may be trained by acquiring preprocessed input data stored in the database of . For example, the learning processor 140 may acquire optimized parameters of the neural network model 131 by repeatedly learning the artificial neural network model 131 using various learning techniques.

다양한 실시예들에 따르면, 학습된 모델은 데이터 베이스에서 인공 신경망 모델(131)을 갱신할 수 있다. 러닝 프로세서(140)는 신경망 학습 장치(100)에 통합되거나, 메모리(130)에 구현될 수 있다. 예를 들면, 러닝 프로세서(140)는 메모리(130)를 사용하여 구현될 수 있다. According to various embodiments, the trained model may update the artificial neural network model 131 in the database. The learning processor 140 may be integrated into the neural network learning apparatus 100 or implemented in the memory 130 . For example, the learning processor 140 may be implemented using the memory 130 .

다양한 실시예들에 따르면, 러닝 프로세서(140)는 일반적으로 감독 또는 감독되지 않은 학습, 데이터 마이닝, 예측 분석 또는 다른 장치에서 사용하기 위해 데이터를 식별, 색인화, 카테고리화, 조작, 저장, 검색 및 출력하기 위해 데이터를 하나 이상의 데이터베이스에 저장하도록 구성될 수 있다. 여기서, 데이터베이스는 메모리(130), 클라우드 컴퓨팅 환경에서 유지되는 메모리, 또는 네트워크와 같은 통신 방식을 통해 단말기에 의해 액세스 가능한 다른 원격 메모리 위치를 이용하여 구현될 수 있다. 러닝 프로세서(140)에 저장된 정보는 다양한 상이한 유형의 데이터 분석 알고리즘 및 기계 학습 알고리즘 중 임의의 것을 사용하여 프로세서(120)에 의해 이용될 수 있다. 예를 들면, 이러한, 알고리즘의 예로는, k-최근 인접 시스템, 퍼지 논리(예: 가능성 이론), 신경 회로망, 볼츠만 기계, 벡터 양자화, 펄스 신경망, 지원 벡터 기계, 최대 마진 분류기, 힐 클라이밍, 유도 논리 시스템 베이지안 네트워크, 페리트넷(예: 유한 상태 머신, 밀리 머신, 무어 유한 상태 머신), 분류기 트리(예: 퍼셉트론 트리, 지원 벡터 트리, 마코프 트리, 의사 결정 트리 포리스트, 임의의 포리스트), 판독 모델 및 시스템, 인공 융합, 센서 융합, 이미지 융합, 보강 학습, 증강 현실, 패턴 인식, 자동화 된 계획 등을 포함한다. According to various embodiments, the learning processor 140 generally identifies, indexes, categorizes, manipulates, stores, retrieves, and outputs data for use in supervised or unsupervised learning, data mining, predictive analytics, or other devices. to store data in one or more databases. Here, the database may be implemented using the memory 130 , a memory maintained in a cloud computing environment, or another remote memory location accessible by the terminal through a communication method such as a network. The information stored in the learning processor 140 may be utilized by the processor 120 using any of a variety of different types of data analysis algorithms and machine learning algorithms. For example, examples of such algorithms include k-recent adjacency systems, fuzzy logic (eg likelihood theory), neural networks, Boltzmann machines, vector quantization, pulse neural networks, support vector machines, maximum margin classifiers, hill climbing, derivation Logical Systems Bayesian Networks, Perritnets (e.g. Finite State Machine, Milli Machine, Moore Finite State Machine), Classifier Trees (e.g. Perceptron Tree, Support Vector Tree, Markov Tree, Decision Tree Forest, Random Forest), Read Model and systems, artificial fusion, sensor fusion, image fusion, reinforcement learning, augmented reality, pattern recognition, automated planning, and more.

이하, 설명의 편의를 위해, 프로세서(120) 및 러닝 프로세서(140)는, 적어도 하나의 프로세서로 참조될 수 있다. Hereinafter, for convenience of description, the processor 120 and the learning processor 140 may be referred to as at least one processor.

다양한 실시예들에서, 상기 적어도 하나의 프로세서는, DNN들의 세트(10) 내에 포함되고, 제1 DNN(91)의 하위의 DNN인 제2 DNN(92)을 위한 제2 전자 장치로부터, 상기 제2 전자 장치와 연결된 반도체 소자 시뮬레이터에 의해 수행된 제1 반도체 소자의 시뮬레이션 결과에 대한 특징 정보를 수신할 수 있다. 예를 들면, 상기 제2 전자 장치는, 제1 전자 장치(100)로부터 제공된 초기해를 상기 반도체 소자 시뮬레이터에게 제공할 수 있다. 상기 반도체 소자 시뮬레이터는, 제1 전자 장치(100)로부터 제공된 상기 초기해에 기반하여, 상기 제1 반도체 소자의 시뮬레이션을 수행하고, 상기 시뮬레이션의 결과를 상기 제2 전자 장치에게 제공할 수 있다. 다양한 실시예들에서, 상기 시뮬레이션의 결과는, 상기 제1 반도체 소자의 전기적 특성에 대한 정보를 포함할 수 있다. 예를 들면, 상기 제1 반도체 소자의 전기적 특성에 대한 정보는, 상기 제1 반도체 소자의 게이트 전압의 크기의 변화에 따른 상기 제1 반도체 소자의 드레인 전류의 크기의 변화를 포함할 수 있다. 예를 들면, 상기 제1 반도체 소자의 전기적 특성에 대한 정보는, 상기 제1 반도체 소자의 활성 모드의 구간에 대한 데이터 및 상기 제1 반도체 소자의 포화 모드의 구간에 대한 데이터를 포함할 수 있다. 하지만, 이에 제한되지 않는다. 다양한 실시예들에서, 상기 제2 전자 장치는, 상기 시뮬레이션의 결과에 기반하여, 상기 제1 반도체 소자에 대한 특징 정보를 획득할 수 있다. 예를 들면, 상기 제2 전자 장치는, 상기 시뮬레이션의 결과에 대한 기계 학습을 수행하고, 상기 수행된 기계 학습의 결과로, 상기 특징 정보를 획득할 수 있다. 상기 제2 전자 장치는, 상기 획득된 특징 정보를 제1 전자 장치(100)에게 제공할 수 있다. In various embodiments, the at least one processor is included in the set of DNNs 10 and includes, from a second electronic device for a second DNN 92 that is a lower DNN of the first DNN 91 , the second 2 It is possible to receive feature information about a simulation result of the first semiconductor device performed by the semiconductor device simulator connected to the electronic device. For example, the second electronic device may provide the initial solution provided from the first electronic device 100 to the semiconductor device simulator. The semiconductor device simulator may perform a simulation of the first semiconductor device based on the initial solution provided from the first electronic device 100 and provide the simulation result to the second electronic device. In various embodiments, the simulation result may include information on the electrical characteristics of the first semiconductor device. For example, the information on the electrical characteristics of the first semiconductor device may include a change in the magnitude of the drain current of the first semiconductor device according to the change in the magnitude of the gate voltage of the first semiconductor device. For example, the information on the electrical characteristics of the first semiconductor device may include data on an active mode section of the first semiconductor device and data on a saturation mode section of the first semiconductor device. However, it is not limited thereto. In various embodiments, the second electronic device may acquire characteristic information about the first semiconductor device based on a result of the simulation. For example, the second electronic device may perform machine learning on a result of the simulation, and obtain the feature information as a result of the performed machine learning. The second electronic device may provide the acquired characteristic information to the first electronic device 100 .

다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 특징 정보를 상기 제2 전자 장치로부터 수신할 수 있다. 다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 특징 정보에 기반하여 기계 학습을 수행할 수 있다. 실시예들에 따라, 상기 적어도 하나의 프로세서는, 상기 특징 정보를 수신하는 것에 기반하여, 상기 특징 정보의 타당성 검토(validation)을 수행할 수도 있다. In various embodiments, the at least one processor may receive the feature information from the second electronic device. In various embodiments, the at least one processor may perform machine learning based on the feature information. According to embodiments, the at least one processor may perform validation of the feature information based on receiving the feature information.

다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 제2 전자 장치로부터, 상기 반도체 소자 시뮬레이터를 이용한 제2 반도체 소자의 시뮬레이션을 수행하기 위한 초기해를 제공할 것을 요청하는 신호를 수신할 수 있다. 상기 적어도 하나의 프로세서는, 상기 신호의 상기 수신에 응답하여, 상기 기계 학습의 결과에 기반하여 정제된 초기해를 상기 제2 전자 장치에게 송신할 수 있다. 상기 정제된 초기해를 이용하여 수행되는 상기 제2 반도체 소자의 시뮬레이션을 위해 소비되는 시간은, 상기 제1 반도체 소자의 시뮬레이션을 위해 소비되는 시간보다 짧을 수 있다. 예를 들면, 상기 정제된 초기해는, 0 (V)의 전위로부터 상기 제2 반도체 소자의 시뮬레이션을 시작하는 것이 아닌, 정전기적 전위를 이용하여 상기 제2 반도체 소자의 상기 시뮬레이션을 직접적으로 시작하도록 구성되기 때문에, 상기 정제된 초기해를 이용하여 수행되는 상기 제2 반도체 소자의 시뮬레이션을 위해 소비되는 시간은, 상기 제1 반도체 소자의 시뮬레이션을 위해 소비되는 시간보다 짧을 수 있다. In various embodiments, the at least one processor may receive, from the second electronic device, a signal requesting to provide an initial solution for performing a simulation of a second semiconductor device using the semiconductor device simulator. . The at least one processor may transmit an initial solution refined based on a result of the machine learning to the second electronic device in response to the reception of the signal. The time consumed for the simulation of the second semiconductor device performed using the refined initial solution may be shorter than the time consumed for the simulation of the first semiconductor device. For example, the refined initial solution may be configured to directly start the simulation of the second semiconductor device using an electrostatic potential, rather than starting the simulation of the second semiconductor device from a potential of 0 (V). Since it is configured, the time consumed for the simulation of the second semiconductor device performed using the refined initial solution may be shorter than the time consumed for the simulation of the first semiconductor device.

다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 기계 학습의 결과에 따라 변경된 정보를 제1 DNN(91)의 상위인 제3 DNN(90)을 위한 제3 전자 장치에게 송신할 수 있다. 상기 송신을 통해, 상기 제3 전자 장치는, 전체 시스템 측면에서, 초기해에 대한 기계 학습 및 반도체 소자 시뮬레이터들의 자원 관리를 수행할 수 있다. In various embodiments, the at least one processor may transmit information changed according to the result of the machine learning to a third electronic device for the third DNN 90 that is higher than the first DNN 91 . Through the transmission, the third electronic device may perform machine learning for an initial solution and resource management of semiconductor device simulators in terms of the entire system.

다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 제2 전자 장치를 포함하는 복수의 전자 장치들(예: DNN(92-1) 내지 DNN(92-3)을 위한 전자 장치들)로부터 동시에 초기해를 제공할 것을 요청하는 신호들을 수신하는 경우, 시뮬레이션이 수행되었던 상기 제1 반도체 소자와 연관된 반도체 소자들의 시뮬레이션들을 위한 초기해들을 먼저 제공할 수 있다. 예를 들면, 상기 적어도 하나의 프로세서는, 상기 제1 반도체 소자의 전기적 특성과 유사한 전기적 특성을 가질 것으로 예측되는 상기 제2 반도체 소자의 시뮬레이션을 위한 초기해를 상기 제1 반도체 소자의 전기적 특성과 구별되는 전기적 특성을 가질 것으로 예측되는 제3 반도체 소자의 시뮬레이션을 위한 초기해보다 먼저 제공할 수 있다. 이러한 반도체 소자의 시뮬레이션 이력에 따른 연관성에 기반하여 제공되는 초기해 제공 프로세스를 통해, 반도체 소자의 시뮬레이션을 수행하는 시스템은 자원 효율성을 강화할 수 있다. In various embodiments, the at least one processor simultaneously receives from a plurality of electronic devices including the second electronic device (eg, electronic devices for the DNN 92-1 to DNN 92-3). When receiving signals requesting to provide an initial solution, initial solutions for simulations of semiconductor devices associated with the first semiconductor device on which the simulation has been performed may first be provided. For example, the at least one processor may be configured to distinguish an initial solution for simulation of the second semiconductor device, which is expected to have similar electrical properties to those of the first semiconductor device, from the electrical properties of the first semiconductor device. An initial solution for simulation of a third semiconductor device predicted to have electrical characteristics of Through the initial solution providing process provided based on the correlation according to the simulation history of the semiconductor device, the system performing the simulation of the semiconductor device may enhance resource efficiency.

도 3은 다양한 실시예들에 따라 반도체 소자 시뮬레이터에 초기해를 제공하기 위한 DNN들의 동작들의 예를 도시한다. 상기 DNN들은, DNN(91-k) 및 DNN(92-l)일 수 있다. 3 illustrates an example of operations of DNNs for providing an initial solution to a semiconductor device simulator according to various embodiments. The DNNs may be a DNN 91-k and a DNN 92-1.

도 3을 참조하면, 환경(300)은, DNN(91-k), DNN(92-l), 및 반도체 소자 시뮬레이터(310)를 포함할 수 있다. Referring to FIG. 3 , the environment 300 may include a DNN 91 - k , a DNN 92 - 1 , and a semiconductor device simulator 310 .

DNN(91-k) 및 DNN(92-l) 각각은, 반도체 소자 시뮬레이터(310)에게 제공될 초기해의 신뢰도가 기준 신뢰도 이상임이 식별될 때까지, 초기해를 제공하기 위한 트레이닝 프로세스를 진행할 수 있다. 예를 들면, DNN(92-l)는, 상기 트레이닝 프로세서에서, 소자 #(N)의 시뮬레이션을 위해, 제1 초기해를 반도체 소자 시뮬레이터(310)에게 제공할 수 있다. 반도체 소자 시뮬레이터(310)는, 상기 제1 초기해를 이용한 시뮬레이션의 결과를 DNN(92-l)에게 제공할 수 있다. DNN(92-l)은, 상기 시뮬레이션의 결과로부터 특징 정보를 추출하고, 상기 특징 정보에 기반하여 상기 제1 초기해에 대한 타당성 검토를 수행할 수 있다. 예를 들면, DNN(92-l)은, 상기 특징 정보에 기반하여 상기 제1 초기해의 신뢰도가 상기 기준 신뢰도 이상인지 여부를 식별함으로써, 상기 제1 초기해에 대한 타당성 검토를 수행할 수 있다. DNN(92-l)은 상기 제1 초기해에 대한 타당성 검토에 대한 결과를 DNN(91-k)에게 제공할 수 있다. Each of the DNN 91-k and the DNN 92-1 may proceed with a training process for providing an initial solution until it is identified that the reliability of the initial solution to be provided to the semiconductor device simulator 310 is equal to or greater than the reference reliability. have. For example, the DNN 92 - 1 may provide a first initial solution to the semiconductor device simulator 310 for simulation of device #(N) in the training processor. The semiconductor device simulator 310 may provide a simulation result using the first initial solution to the DNN 92 - 1 . The DNN 92 - 1 may extract feature information from the simulation result and perform a feasibility study on the first initial solution based on the feature information. For example, the DNN 92-1 may perform a feasibility study on the first initial solution by identifying whether the reliability of the first initial solution is equal to or greater than the reference reliability based on the feature information. . The DNN 92 - 1 may provide the DNN 91 - k with a result of the feasibility study for the first initial solution.

DNN(91-k)는, 상기 제1 초기해에 대한 타당성 검토에 대한 결과를 DNN(92-l)로부터 획득할 수 있다. 예를 들면, 상기 타당성 검토에 대한 결과는, 상기 제1 초기해의 신뢰도가 상기 기준 신뢰도 이상인지 여부를 지시하기 위한 데이터를 포함할 수 있다. 예를 들면, 상기 타당성 검토에 대한 결과는, 상기 제1 초기해와 상기 시뮬레이션의 결과(또는 상기 특징 정보) 사이의 차이에 대한 정보를 포함할 수 있다. 하지만, 이에 제한되지 않는다. The DNN 91 - k may obtain a result of the feasibility study for the first initial solution from the DNN 92 - 1 . For example, the result of the validation may include data for indicating whether the reliability of the first initial solution is equal to or greater than the reference reliability. For example, the feasibility study result may include information on a difference between the first initial solution and the simulation result (or the feature information). However, it is not limited thereto.

DNN(91-k)는, 상기 제1 초기해의 신뢰도가 상기 기준 신뢰도 이상임을 식별하는 것에 기반하여, 초기해 예측 프로세스를 개시할 수 있다. 상기 초기해 예측 프로세스는, DNN(92-l)을 통해 제공되는 초기해를 실제 반도체 소자의 시뮬레이션을 위해 이용하는 프로세스를 의미할 수 있다. 상기 트레이닝 프로세스는, 상기 초기해 예측 프로세스와 독립적으로, 지속적으로 수행될 수 있다. DNN(91-k)는 상기 제1 초기해의 신뢰도가 상기 기준 신뢰도 미만임을 식별하는 것에 기반하여, 초기해의 신뢰도를 상승시키기 위해 기계 학습을 수행할 수 있다. The DNN 91 - k may initiate an initial solution prediction process based on identifying that the reliability of the first initial solution is greater than or equal to the reference reliability. The initial solution prediction process may refer to a process in which an initial solution provided through the DNN 92 - 1 is used for simulation of an actual semiconductor device. The training process may be continuously performed independently of the initial solution prediction process. The DNN 91 - k may perform machine learning to increase the reliability of the initial solution based on identifying that the reliability of the first initial solution is less than the reference reliability.

상기 초기해 예측 프로세스에서, 반도체 소자 시뮬레이터(310)는, 소자 #(N+1)의 시뮬레이션을 위한 초기해를 DNN(92-l)에게 요청할 수 있다. DNN(92-l)은 상기 요청에 응답하여, DNN(91-k)에게 상기 초기해를 요청할 수 있다. DNN(91-k)는, DNN(92-l)로부터의 상기 초기해의 요청에 응답하여, 상기 초기해로 제2 초기해를 DNN(92-l)에게 제공할 수 있다. 상기 제2 초기해는, 상기 기계 학습의 결과에 기반하여 정제된 초기해일 수 있다. DNN(92-l)은, 상기 제2 초기해를 반도체 소자 시뮬레이터(310)에게 제공할 수 있다. 반도체 소자 시뮬레이터(310)는, 상기 제2 초기해를 이용하여 소자 #(N+1)에 대한 시뮬레이션을 수행하고, 상기 시뮬레이션의 결과를 DNN(92-l)에게 제공할 수 있다. DNN(92-l)은 상기 시뮬레이션의 결과에 기반하여, 특징 정보를 추출하고, 상기 제2 초기해에 대한 타당성 검토를 수행할 수 있다. DNN(92-l)은 반도체 소자 시뮬레이터(310)에게 제공되는 초기해의 신뢰도를 상승시키기 위해, 상기 추출된 특징 정보 또는 상기 제2 초기해에 대한 타당성 검토의 결과 중 적어도 하나를 DNN(91-k)에게 제공할 수 있다. In the initial solution prediction process, the semiconductor device simulator 310 may request an initial solution for the simulation of device #(N+1) from the DNN 92 - 1 . The DNN 92 - 1 may request the initial solution from the DNN 91 - k in response to the request. The DNN 91 - k may provide the DNN 92 - 1 with a second initial solution as the initial solution in response to the request for the initial solution from the DNN 92 - 1 . The second initial solution may be an initial solution refined based on a result of the machine learning. The DNN 92 - 1 may provide the second initial solution to the semiconductor device simulator 310 . The semiconductor device simulator 310 may perform a simulation on device #(N+1) using the second initial solution, and provide the simulation result to the DNN 92 - 1 . The DNN 92 - 1 may extract feature information based on the simulation result and perform a feasibility study on the second initial solution. In order to increase the reliability of the initial solution provided to the semiconductor device simulator 310 , the DNN 92 - 1 uses at least one of the extracted feature information or the result of a validation of the second initial solution to the DNN 91 - 1 . k) can be provided.

상술한 바와 같이, 다양한 실시예들에 따른 DNN(91-k)는 DNN(92-l)로부터 수신되는 정보에 기반하여 기계 학습을 수행하고, 수행된 기계 학습에 기반하여 정제된 초기해를 반도체 소자 시뮬레이터(310)에게 제공함으로써, 반도체 소자 시뮬레이터(310)에 의해 수행되는 반도체 소자에 대한 시뮬레이션의 시간을 감소시킬 수 있다. 상기 정제된 초기해는, 정전기적 전위를 이용할 수 있도록 구성되기 때문에, 상기 시뮬레이션을 원하는 전압 조건만에 기반하여 양자 효과가 고려된 모델을 개발하는데 도움이 될 수 있다. As described above, the DNN 91-k according to various embodiments performs machine learning based on information received from the DNN 92-1, and generates a refined initial solution based on the performed machine learning in the semiconductor. By providing the device to the device simulator 310 , it is possible to reduce the simulation time for the semiconductor device performed by the semiconductor device simulator 310 . Since the refined initial solution is configured to use an electrostatic potential, it may be helpful to develop a model that considers quantum effects based on only the desired voltage condition for the simulation.

도 4는 다양한 실시예들에 따라 반도체 소자 시뮬레이터에 초기해를 제공함으로써 획득되는 전기적 특성의 예를 도시한다. 4 illustrates an example of an electrical characteristic obtained by providing an initial solution to a semiconductor device simulator according to various embodiments.

도 4를 참조하면, 그래프(400)의 가로축은, 반도체 소자의 게이트 전압을 나타내고, 그래프(400)의 세로축은, 반도체 소자의 드레인 전류를 나타낼 수 있다. 그래프(400)의 곡선들은, 정전기적 전위를 반도체 소자의 시뮬레이션에 이용함으로써 획득되는 것으로, 상기 게이트 전압의 변화에 따른 상기 드레인 전류의 변화를 나타낼 수 있다. 한편, 상기 정전기적 전위는, 도 1에 도시된 DNN들의 세트(10)를 이용하여 수행된 기계 학습의 결과에 기반하여 획득된 초기해에 의해 결정될 수 있다. 상기 곡선들은, 0 (V)로부터 점진적으로 VDD를 변경하는 프로세스를 생략한(또는 우회한) 반도체 소자의 시뮬레이션에 의해 획득될 수 있다. Referring to FIG. 4 , the horizontal axis of the graph 400 may represent the gate voltage of the semiconductor device, and the vertical axis of the graph 400 may represent the drain current of the semiconductor device. The curves of the graph 400 are obtained by using an electrostatic potential for simulation of a semiconductor device, and may represent a change in the drain current according to a change in the gate voltage. Meanwhile, the electrostatic potential may be determined by an initial solution obtained based on a result of machine learning performed using the set 10 of DNNs shown in FIG. 1 . The curves may be obtained by simulation of a semiconductor device omitting (or bypassing) the process of gradually changing VDD from 0 (V).

그래프(400)의 곡선들을 통해 확인할 수 있듯이, 상기 정전기적 전위를 이용한 상기 시뮬레이션의 결과는, 구간(410)이 포화 모드의 구간이고 구간(420)이 액티브 모드의 구간임을 식별할 수 있도록 구성되기 때문에, 상기 반도체 소자의 전기적 특성을 나타낼 수 있다. As can be seen through the curves of the graph 400, the result of the simulation using the electrostatic potential is configured to be able to identify that the section 410 is a section of the saturation mode and the section 420 is a section of the active mode. Therefore, the electrical characteristics of the semiconductor device can be exhibited.

도 5는 다양한 실시예들에 따라 반도체 소자 시뮬레이터에 초기해를 제공하는 방법을 도시하는 흐름도이다. 상기 흐름도에 의해 예시된 동작들은, 도 2에 도시된 제1 전자 장치(100), 또는 도 2에 도시된 제1 전자 장치(100)의 적어도 하나의 프로세서에 의해 실행될 수 있다. 5 is a flowchart illustrating a method of providing an initial solution to a semiconductor device simulator according to various embodiments of the present disclosure; The operations illustrated by the flowchart may be executed by the first electronic device 100 illustrated in FIG. 2 or at least one processor of the first electronic device 100 illustrated in FIG. 2 .

도 5를 참조하면, 동작 510에서, 상기 적어도 하나의 프로세서는, DNN들의 세트(10)에 포함되고 제1 DNN(91)의 하위의 DNN인 제2 DNN(92-1)을 위한 제2 전자 장치로부터, 상기 제2 전자 장치와 연결된 반도체 소자 시뮬레이터(예: 반도체 소자 시뮬레이터(310))에 의해 수행된 제1 반도체 소자의 시뮬레이션 결과에 대한 특징 정보를 수신할 수 있다. 상기 특징 정보는, 제1 전자 장치(100)의 인가에 기반하여, 상기 제2 전자 장치로부터 제1 전자 장치(100)에게 송신될 수 있다. Referring to FIG. 5 , in operation 510 , the at least one processor includes a second electron for a second DNN 92-1 that is included in the set of DNNs 10 and is a lower DNN of the first DNN 91 . From the device, feature information on the simulation result of the first semiconductor device performed by the semiconductor device simulator (eg, the semiconductor device simulator 310 ) connected to the second electronic device may be received. The characteristic information may be transmitted from the second electronic device to the first electronic device 100 based on the authorization of the first electronic device 100 .

동작 520에서, 상기 적어도 하나의 프로세서는, 상기 특징 정보에 기반하여, 기계 학습을 수행할 수 있다. 예를 들면, 상기 적어도 하나의 프로세서는, 추후 상기 반도체 소자 시뮬레이터에 의해 수행될 반도체 소자의 시뮬레이션을 위해 제공될 초기해를 획득하기 위해, 상기 특징 정보에 기반하여 상기 기계 학습을 수행할 수 있다. In operation 520, the at least one processor may perform machine learning based on the feature information. For example, the at least one processor may perform the machine learning based on the feature information to obtain an initial solution to be provided for a simulation of a semiconductor device to be performed later by the semiconductor device simulator.

동작 530에서, 상기 적어도 하나의 프로세서는, 상기 제2 전자 장치로부터 상기 반도체 소자 시뮬레이터를 이용한 제2 반도체 소자의 시뮬레이션을 수행하기 위한 초기해를 제공할 것을 요청하는 신호를 수신할 수 있다. 예를 들면, 상기 신호는, 제1 전자 장치(100)의 인가에 기반하여, 상기 제2 전자 장치로부터 제1 전자 장치(100)에게 송신될 수 있다. 다양한 실시예들에서, 상기 제2 반도체 소자는, 상기 제1 반도체 소자와 구별되는 반도체 소자이지만, 상기 제1 반도체 소자의 전기적 특성과 유사한 전기적 특성을 가지는 반도체 소자일 수 있다. In operation 530, the at least one processor may receive a signal requesting to provide an initial solution for performing a simulation of a second semiconductor device using the semiconductor device simulator from the second electronic device. For example, the signal may be transmitted from the second electronic device to the first electronic device 100 based on the application of the first electronic device 100 . In various embodiments, the second semiconductor device is a semiconductor device distinct from the first semiconductor device, but may be a semiconductor device having electrical characteristics similar to those of the first semiconductor device.

동작 540에서, 상기 적어도 하나의 프로세서는, 상기 신호의 상기 수신에 응답하여, 상기 기계 학습의 결과에 기반하여 정제된 초기해를 상기 제2 전자 장치에게 송신할 수 있다. 상기 제2 전자 장치는, 상기 정제된 초기해를 상기 반도체 소자 시뮬레이터에게 제공함으로써, 상기 제2 반도체 소자의 시뮬레이션을 수행하고, 상기 시뮬레이션 결과의 특징 정보를 제1 전자 장치(100)에게 송신할 수 있다. In operation 540, in response to the reception of the signal, the at least one processor may transmit an initial solution refined based on a result of the machine learning to the second electronic device. The second electronic device may perform a simulation of the second semiconductor device by providing the refined initial solution to the semiconductor device simulator, and transmit characteristic information of the simulation result to the first electronic device 100 . have.

한편, 상기 적어도 하나의 프로세서는 상기 기계 학습의 결과에 따라 변경된 정보를 DNN들의 세트(10)에 포함되고 제1 DNN(91)의 상위의 DNN인 제3 DNN(90)을 위한 제3 전자 장치에게 송신할 수 있다. Meanwhile, the at least one processor includes information changed according to the result of the machine learning in the set of DNNs 10 and is a third electronic device for a third DNN 90 that is a higher DNN of the first DNN 91 . can be sent to

상술한 바와 같이, 다양한 실시예들에 따른 제1 전자 장치(100)는, 제1 전자 장치(100)와 관련된 DNN보다 하위에 해당하는 DNN을 위한 상기 제2 전자 장치 뿐 아니라 제1 전자 장치(100)와 관련된 DNN보다 상위에 해당하는 DNN을 위한 상기 제3 전자 장치와의 통신을 통해, 상기 반도체 소자 시뮬레이터를 이용한 반도체 소자의 시뮬레이션에 이용되는 자원의 효율성을 강화할 수 있다. As described above, the first electronic device 100 according to various embodiments includes not only the second electronic device for a DNN lower than the DNN associated with the first electronic device 100 but also the first electronic device ( 100) through communication with the third electronic device for a DNN higher than the DNN related to 100), the efficiency of resources used for simulation of a semiconductor device using the semiconductor device simulator may be enhanced.

상술한 바와 같은, 다양한 실시예들에 따른, 계층 구조(hierarchy structure)를 가지는 깊은 신경망(deep neural network, DNN)들의 세트 내에 포함된 제1 DNN을 위한 제1 전자 장치(electronic device)는, 적어도 하나의 프로세서와, 인스트럭션들을 저장하도록 구성된 적어도 하나의 메모리와, 상기 적어도 하나의 프로세서와 작동적으로 결합된(operatively coupled with) 통신 회로를 포함할 수 있고, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행할 시, 상기 DNN들의 세트에 포함되고 상기 제1 DNN의 하위의 DNN인 제2 DNN을 위한 제2 전자 장치로부터, 상기 제2 전자 장치와 연결된 반도체 소자 시뮬레이터에 의해 수행된 제1 반도체 소자의 시뮬레이션 결과에 대한 특징 정보를 수신하고, 상기 특징 정보에 기반하여, 기계 학습을 수행하고, 상기 제2 전자 장치로부터, 상기 반도체 소자 시뮬레이터를 이용한 제2 반도체 소자의 시뮬레이션을 수행하기 위한 초기해를 제공할 것을 요청하는 신호를 수신하고, 상기 신호의 상기 수신에 응답하여, 상기 기계 학습의 결과에 기반하여 정제된(refined) 초기해를 상기 제2 전자 장치에게 송신하도록 구성될 수 있다. As described above, according to various embodiments, a first electronic device for a first DNN included in a set of deep neural networks (DNNs) having a hierarchical structure is at least a processor, at least one memory configured to store instructions, and a communication circuit operatively coupled with the at least one processor, wherein the at least one processor is configured to: When executed, simulation of a first semiconductor device performed by a semiconductor device simulator connected to the second electronic device from a second electronic device for a second DNN included in the set of DNNs and which is a lower DNN of the first DNN Receive feature information on the result, perform machine learning based on the feature information, and provide an initial solution for performing simulation of a second semiconductor device using the semiconductor device simulator from the second electronic device and receive a signal requesting to do so, and in response to the reception of the signal, transmit an initial solution refined based on a result of the machine learning to the second electronic device.

다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행할 시, 상기 DNN들의 세트에 포함되고 상기 제1 DNN의 상위의 DNN인 제3 DNN을 위한 제3 전자 장치에게 상기 기계 학습의 결과에 따라 변경된 정보를 송신하도록 더 구성될 수 있다. In various embodiments, when the at least one processor executes the instructions, a result of the machine learning is provided to a third electronic device for a third DNN that is included in the set of DNNs and is a higher DNN of the first DNN. It may be further configured to transmit the changed information according to the

다양한 실시예들에서, 상기 DNN들의 세트는, 상기 반도체 소자 시뮬레이터를 이용하는 복수의 사용자들에게 각각 할당되고, 상기 제2 DNN을 포함하며, 상기 제1 DNN의 하위의 복수의 DNN들을 포함할 수 있다. In various embodiments, the set of DNNs may be allocated to a plurality of users using the semiconductor device simulator, include the second DNN, and include a plurality of DNNs lower than the first DNN. .

다양한 실시예들에서, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행할 시, 상기 특징 정보를 수신하는 것에 기반하여, 상기 특징 정보의 타당성 검토를 수행하도록 더 구성될 수 있다. In various embodiments, the at least one processor may be further configured to, when executing the instructions, perform a feasibility study of the characteristic information based on receiving the characteristic information.

다양한 실시예들에서, 상기 기계 학습의 상기 결과에 기반하여 정제된 초기해는, 상기 반도체 소자 시뮬레이터가 상기 제2 반도체 소자의 시뮬레이션에 정전기적 전위를 직접적으로 이용하기 위해 구성될 수 있다. 다양한 실시예들에서, 상기 정전기적 전위는, 상기 제2 반도체 소자의 드레인 전류의 크기의 측정을 위해 이용될 수 있다. 다양한 실시예들에서, 상기 제2 반도체 소자의 상기 드레인 전류의 크기의 변화는, 상기 제2 반도체 소자의 활성 모드(active mode)의 구간의 획득 및 상기 제2 반도체 소자의 포화 모드(saturation mode)의 구간의 획득을 위해 이용될 수 있다. In various embodiments, the initial solution refined based on the result of the machine learning may be configured so that the semiconductor device simulator directly uses the electrostatic potential for simulation of the second semiconductor device. In various embodiments, the electrostatic potential may be used to measure the magnitude of the drain current of the second semiconductor device. In various embodiments, the change in the magnitude of the drain current of the second semiconductor device may include obtaining a period of an active mode of the second semiconductor device and a saturation mode of the second semiconductor device. It can be used to obtain a section of .

다양한 실시예들에서, 상기 DNN들의 세트의 상기 계층 구조는, 상기 반도체 소자 시뮬레이터를 포함하는 복수의 반도체 소자 시뮬레이터들을 이용하는 사용자들의 집단의 계층 구조에 대응할 수 있다. In various embodiments, the hierarchical structure of the set of DNNs may correspond to a hierarchical structure of a group of users using a plurality of semiconductor device simulators including the semiconductor device simulator.

다양한 실시예들에서, 상기 특징 정보는, 상기 제1 전자 장치의 인가에 기반하여, 상기 제2 전자 장치로부터 상기 제1 전자 장치에게 송신될 수 있다. In various embodiments, the characteristic information may be transmitted from the second electronic device to the first electronic device based on the authorization of the first electronic device.

다양한 실시예들에서, 상기 초기해를 제공할 것을 요청하는 상기 신호는, 상기 제1 전자 장치의 인가에 기반하여, 상기 제2 전자 장치로부터 상기 제1 전자 장치에게 송신될 수 있다. In various embodiments, the signal requesting to provide the initial solution may be transmitted from the second electronic device to the first electronic device based on the authorization of the first electronic device.

본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다. Methods according to the embodiments described in the claims or specifications of the present disclosure may be implemented in the form of hardware, software, or a combination of hardware and software.

소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다. When implemented in software, a computer-readable storage medium storing one or more programs (software modules) may be provided. One or more programs stored in the computer-readable storage medium are configured to be executable by one or more processors in an electronic device (device). One or more programs include instructions for causing an electronic device to execute methods according to embodiments described in a claim or specification of the present disclosure.

이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM: Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), 디지털 다목적 디스크(DVDs: Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다. Such programs (software modules, software) include random access memory, non-volatile memory including flash memory, read only memory (ROM), electrically erasable programmable ROM (EEPROM: Electrically Erasable Programmable Read Only Memory), magnetic disc storage device, Compact Disc-ROM (CD-ROM), Digital Versatile Discs (DVDs), or any other form of It may be stored in an optical storage device or a magnetic cassette. Alternatively, it may be stored in a memory composed of a combination of some or all thereof. In addition, each configuration memory may be included in plurality.

또한, 상기 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다. In addition, the program is transmitted through a communication network consisting of a communication network such as the Internet, Intranet, Local Area Network (LAN), Wide LAN (WLAN), or Storage Area Network (SAN), or a combination thereof. It may be stored on an attachable storage device that can be accessed. Such a storage device may be connected to a device implementing an embodiment of the present disclosure through an external port. In addition, a separate storage device on the communication network may be connected to the device implementing the embodiment of the present disclosure.

상술한 본 개시의 구체적인 실시 예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다. In the specific embodiments of the present disclosure described above, components included in the disclosure are expressed in the singular or plural according to the specific embodiments presented. However, the singular or plural expression is appropriately selected for the situation presented for convenience of description, and the present disclosure is not limited to the singular or plural component, and even if the component is expressed in plural, it is composed of the singular or singular. Even an expressed component may be composed of a plurality of components.

한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, although specific embodiments have been described in the detailed description of the present disclosure, various modifications are possible without departing from the scope of the present disclosure. Therefore, the scope of the present disclosure should not be limited to the described embodiments and should be defined by the claims described below as well as the claims and equivalents.

Claims (10)

계층 구조(hierarchy structure)를 가지는 깊은 신경망(deep neural network, DNN)들의 세트 내에 포함된 제1 DNN을 위한 제1 전자 장치(electronic device)에 있어서,
적어도 하나의 프로세서;
인스트럭션들을 저장하도록 구성된 적어도 하나의 메모리; 및
상기 적어도 하나의 프로세서와 작동적으로 결합된(operatively coupled with) 통신 회로를 포함하고,
상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행할 시,
상기 DNN들의 세트에 포함되고 상기 제1 DNN의 하위의 DNN인 제2 DNN을 위한 제2 전자 장치로부터, 상기 제2 전자 장치와 연결된 반도체 소자 시뮬레이터에 의해 수행된 제1 반도체 소자의 시뮬레이션 결과에 대한 특징 정보를 수신하고,
상기 특징 정보에 기반하여, 기계 학습을 수행하고,
상기 제2 전자 장치로부터, 상기 반도체 소자 시뮬레이터를 이용한 제2 반도체 소자의 시뮬레이션을 수행하기 위한 초기해를 제공할 것을 요청하는 신호를 수신하고,
상기 신호의 상기 수신에 응답하여, 상기 기계 학습의 결과에 기반하여 정제된(refined) 초기해를 상기 제2 전자 장치에게 송신하도록 구성되는 제1 전자 장치.
A first electronic device for a first DNN included in a set of deep neural networks (DNNs) having a hierarchical structure, the first electronic device comprising:
at least one processor;
at least one memory configured to store instructions; and
a communication circuit operatively coupled with the at least one processor;
When the at least one processor executes the instructions,
From a second electronic device for a second DNN included in the set of DNNs and which is a lower DNN of the first DNN, a simulation result of a first semiconductor device performed by a semiconductor device simulator connected to the second electronic device receive characteristic information;
Based on the feature information, machine learning is performed,
receiving, from the second electronic device, a signal requesting to provide an initial solution for performing a simulation of a second semiconductor device using the semiconductor device simulator;
a first electronic device configured to, in response to receiving the signal, transmit an initial solution refined based on a result of the machine learning to the second electronic device.
청구항 1에 있어서, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행할 시,
상기 DNN들의 세트에 포함되고 상기 제1 DNN의 상위의 DNN인 제3 DNN을 위한 제3 전자 장치에게 상기 기계 학습의 결과에 따라 변경된 정보를 송신하도록 더 구성되는 제1 전자 장치.
The method according to claim 1, wherein the at least one processor, when executing the instructions,
The first electronic device further configured to transmit information changed according to a result of the machine learning to a third electronic device for a third DNN included in the set of DNNs and which is a DNN higher than the first DNN.
청구항 1에 있어서, 상기 DNN들의 세트는,
상기 반도체 소자 시뮬레이터를 이용하는 복수의 사용자들에게 각각 할당되고, 상기 제2 DNN을 포함하며, 상기 제1 DNN의 하위의 복수의 DNN들을 포함하는 제1 전자 장치.
The method according to claim 1, wherein the set of DNNs,
A first electronic device allocated to each of a plurality of users using the semiconductor device simulator, including the second DNN, and including a plurality of DNNs lower than the first DNN.
청구항 1에 있어서, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행할 시,
상기 특징 정보를 수신하는 것에 기반하여, 상기 특징 정보의 타당성 검토를 수행하도록 더 구성되는 제1 전자 장치.
The method according to claim 1, wherein the at least one processor, when executing the instructions,
The first electronic device further configured to perform a feasibility study of the feature information based on receiving the feature information.
청구항 1에 있어서, 상기 기계 학습의 상기 결과에 기반하여 정제된 초기해는,
상기 반도체 소자 시뮬레이터가 상기 제2 반도체 소자의 시뮬레이션에 정전기적 전위를 직접적으로 이용하기 위해 구성되는 제1 전자 장치.
The method according to claim 1, The initial solution refined based on the result of the machine learning,
a first electronic device, wherein the semiconductor device simulator is configured to directly use an electrostatic potential for simulation of the second semiconductor device.
청구항 5에 있어서, 상기 정전기적 전위는,
상기 제2 반도체 소자의 드레인 전류의 크기의 측정을 위해 이용되는 제1 전자 장치.
The method according to claim 5, wherein the electrostatic potential is,
A first electronic device used to measure a magnitude of a drain current of the second semiconductor device.
청구항 6에 있어서, 상기 제2 반도체 소자의 상기 드레인 전류의 크기의 변화는,
상기 제2 반도체 소자의 활성 모드(active mode)의 구간의 획득 및 상기 제2 반도체 소자의 포화 모드(saturation mode)의 구간의 획득을 위해 이용되는 제1 전자 장치.
The method according to claim 6, The change in the magnitude of the drain current of the second semiconductor device,
A first electronic device used to acquire an active mode section of the second semiconductor device and a saturation mode section of the second semiconductor device.
청구항 1에 있어서, 상기 DNN들의 세트의 상기 계층 구조는,
상기 반도체 소자 시뮬레이터를 포함하는 복수의 반도체 소자 시뮬레이터들을 이용하는 사용자들의 집단의 계층 구조에 대응하는 제1 전자 장치.
The method according to claim 1, wherein the hierarchical structure of the set of DNNs comprises:
A first electronic device corresponding to a hierarchical structure of a group of users using a plurality of semiconductor device simulators including the semiconductor device simulator.
청구항 1에 있어서, 상기 특징 정보는,
상기 제1 전자 장치의 인가에 기반하여, 상기 제2 전자 장치로부터 상기 제1 전자 장치에게 송신되는 전자 장치.
The method according to claim 1, The characteristic information,
An electronic device transmitted from the second electronic device to the first electronic device based on the authorization of the first electronic device.
청구항 1에 있어서, 상기 초기해를 제공할 것을 요청하는 상기 신호는,
상기 제1 전자 장치의 인가에 기반하여, 상기 제2 전자 장치로부터 상기 제1 전자 장치에게 송신되는 전자 장치.
The method according to claim 1, wherein the signal requesting to provide the initial solution comprises:
An electronic device transmitted from the second electronic device to the first electronic device based on the authorization of the first electronic device.
KR1020190155928A 2019-11-28 2019-11-28 Electronic device, method, and computer readable medium for simulation of semiconductor device KR102293791B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190155928A KR102293791B1 (en) 2019-11-28 2019-11-28 Electronic device, method, and computer readable medium for simulation of semiconductor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190155928A KR102293791B1 (en) 2019-11-28 2019-11-28 Electronic device, method, and computer readable medium for simulation of semiconductor device

Publications (2)

Publication Number Publication Date
KR20210066545A true KR20210066545A (en) 2021-06-07
KR102293791B1 KR102293791B1 (en) 2021-08-25

Family

ID=76374366

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190155928A KR102293791B1 (en) 2019-11-28 2019-11-28 Electronic device, method, and computer readable medium for simulation of semiconductor device

Country Status (1)

Country Link
KR (1) KR102293791B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230058975A (en) 2021-10-25 2023-05-03 광주과학기술원 Semiconductor device simulation system and semiconductor device simulation method
KR20240029546A (en) 2022-08-27 2024-03-05 광주과학기술원 Method of getting an initial guess for a semiconductor device simulation
KR20240029892A (en) 2022-08-29 2024-03-07 광주과학기술원 Simulation system for a cylindrical 3-dimensional semiconductor device using a hybrid mesh and method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102643229B1 (en) 2022-05-10 2024-03-04 성균관대학교산학협력단 Apparatus and method for analyzing charge behavior inside oled device based on machine learning

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970023934A (en) * 1995-10-02 1997-05-30 김광호 How to perform electrostatic discharge (ESD) simulation of semiconductor devices
WO2017187516A1 (en) * 2016-04-26 2017-11-02 株式会社日立製作所 Information processing system and method for operating same
KR20180080098A (en) * 2017-01-03 2018-07-11 삼성전자주식회사 Image display device and operating method for the same
KR20180094121A (en) * 2016-01-11 2018-08-22 케이엘에이-텐코 코포레이션 Accelerate semiconductor-related calculations using a learning-based model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970023934A (en) * 1995-10-02 1997-05-30 김광호 How to perform electrostatic discharge (ESD) simulation of semiconductor devices
KR20180094121A (en) * 2016-01-11 2018-08-22 케이엘에이-텐코 코포레이션 Accelerate semiconductor-related calculations using a learning-based model
WO2017187516A1 (en) * 2016-04-26 2017-11-02 株式会社日立製作所 Information processing system and method for operating same
KR20180080098A (en) * 2017-01-03 2018-07-11 삼성전자주식회사 Image display device and operating method for the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230058975A (en) 2021-10-25 2023-05-03 광주과학기술원 Semiconductor device simulation system and semiconductor device simulation method
KR20240029546A (en) 2022-08-27 2024-03-05 광주과학기술원 Method of getting an initial guess for a semiconductor device simulation
KR20240029892A (en) 2022-08-29 2024-03-07 광주과학기술원 Simulation system for a cylindrical 3-dimensional semiconductor device using a hybrid mesh and method thereof

Also Published As

Publication number Publication date
KR102293791B1 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
US11741361B2 (en) Machine learning-based network model building method and apparatus
JP2020091922A (en) Structure learning in convolutional neural networks
US9524461B1 (en) Conceptual computation system using a hierarchical network of modules
KR20220113881A (en) Method and apparatus for generating pre-trained model, electronic device and storage medium
KR102293791B1 (en) Electronic device, method, and computer readable medium for simulation of semiconductor device
US11475161B2 (en) Differentially private dataset generation and modeling for knowledge graphs
US20200242736A1 (en) Method for few-shot unsupervised image-to-image translation
US11681914B2 (en) Determining multivariate time series data dependencies
US11901969B2 (en) Systems and methods for managing physical connections of a connector panel
KR102355489B1 (en) Method for predicting drug-target protein interactions and device thereof
US11741370B2 (en) Transfer learning based on cross-domain homophily influences
US20190228297A1 (en) Artificial Intelligence Modelling Engine
US9436912B1 (en) Symmetric schema instantiation method for use in a case-based reasoning system
CN114357105A (en) Pre-training method and model fine-tuning method of geographic pre-training model
CN112420125A (en) Molecular attribute prediction method and device, intelligent equipment and terminal
US11593680B2 (en) Predictive models having decomposable hierarchical layers configured to generate interpretable results
KR102413588B1 (en) Object recognition model recommendation method, system and computer program according to training data
US11164078B2 (en) Model matching and learning rate selection for fine tuning
CN116090536A (en) Neural network optimization method, device, computer equipment and storage medium
US20220405649A1 (en) Quantum machine learning model feature space generation
JP7466702B2 (en) Interpretable Imitation Learning by Discovering Prototype Options
CN114898184A (en) Model training method, data processing method and device and electronic equipment
US20220358375A1 (en) Inference of machine learning models
WO2022193171A1 (en) System and method for unsupervised multi-model joint reasoning
CN113191527A (en) Prediction method and device for population prediction based on prediction model

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant