KR20220012269A - Method for predicting electrical properties of semiconductor devices - Google Patents

Method for predicting electrical properties of semiconductor devices Download PDF

Info

Publication number
KR20220012269A
KR20220012269A KR1020217040751A KR20217040751A KR20220012269A KR 20220012269 A KR20220012269 A KR 20220012269A KR 1020217040751 A KR1020217040751 A KR 1020217040751A KR 20217040751 A KR20217040751 A KR 20217040751A KR 20220012269 A KR20220012269 A KR 20220012269A
Authority
KR
South Korea
Prior art keywords
learning model
semiconductor device
electrical characteristics
feature
learning
Prior art date
Application number
KR1020217040751A
Other languages
Korean (ko)
Inventor
세이코 이노우에
유스케 코무라
타카히로 후쿠토메
Original Assignee
가부시키가이샤 한도오따이 에네루기 켄큐쇼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 한도오따이 에네루기 켄큐쇼 filed Critical 가부시키가이샤 한도오따이 에네루기 켄큐쇼
Publication of KR20220012269A publication Critical patent/KR20220012269A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/26Testing of individual semiconductor devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/2832Specific tests of electronic circuits not provided for elsewhere
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • G06N3/0454
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/14Measuring as part of the manufacturing process for electrical parameters, e.g. resistance, deep-levels, CV, diffusions by electrical means
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L29/00Semiconductor devices specially adapted for rectifying, amplifying, oscillating or switching and having potential barriers; Capacitors or resistors having potential barriers, e.g. a PN-junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof ; Multistep manufacturing processes therefor
    • H01L29/66Types of semiconductor device ; Multistep manufacturing processes therefor
    • H01L29/68Types of semiconductor device ; Multistep manufacturing processes therefor controllable by only the electric current supplied, or only the electric potential applied, to an electrode which does not carry the current to be rectified, amplified or switched
    • H01L29/76Unipolar devices, e.g. field effect transistors
    • H01L29/772Field effect transistors
    • H01L29/78Field effect transistors with field effect produced by an insulated gate
    • H01L29/786Thin film transistors, i.e. transistors with a channel being at least partly a thin film
    • H01L29/78645Thin film transistors, i.e. transistors with a channel being at least partly a thin film with multiple gate
    • H01L29/78648Thin film transistors, i.e. transistors with a channel being at least partly a thin film with multiple gate arranged on opposing sides of the channel
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L29/00Semiconductor devices specially adapted for rectifying, amplifying, oscillating or switching and having potential barriers; Capacitors or resistors having potential barriers, e.g. a PN-junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof ; Multistep manufacturing processes therefor
    • H01L29/66Types of semiconductor device ; Multistep manufacturing processes therefor
    • H01L29/68Types of semiconductor device ; Multistep manufacturing processes therefor controllable by only the electric current supplied, or only the electric potential applied, to an electrode which does not carry the current to be rectified, amplified or switched
    • H01L29/76Unipolar devices, e.g. field effect transistors
    • H01L29/772Field effect transistors
    • H01L29/78Field effect transistors with field effect produced by an insulated gate
    • H01L29/786Thin film transistors, i.e. transistors with a channel being at least partly a thin film
    • H01L29/7869Thin film transistors, i.e. transistors with a channel being at least partly a thin film having a semiconductor body comprising an oxide semiconductor material, e.g. zinc oxide, copper aluminium oxide, cadmium stannate
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L29/00Semiconductor devices specially adapted for rectifying, amplifying, oscillating or switching and having potential barriers; Capacitors or resistors having potential barriers, e.g. a PN-junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof ; Multistep manufacturing processes therefor
    • H01L29/66Types of semiconductor device ; Multistep manufacturing processes therefor
    • H01L29/68Types of semiconductor device ; Multistep manufacturing processes therefor controllable by only the electric current supplied, or only the electric potential applied, to an electrode which does not carry the current to be rectified, amplified or switched
    • H01L29/76Unipolar devices, e.g. field effect transistors
    • H01L29/772Field effect transistors
    • H01L29/78Field effect transistors with field effect produced by an insulated gate
    • H01L29/786Thin film transistors, i.e. transistors with a channel being at least partly a thin film
    • H01L29/78696Thin film transistors, i.e. transistors with a channel being at least partly a thin film characterised by the structure of the channel, e.g. multichannel, transverse or longitudinal shape, length or width, doping structure, or the overlap or alignment between the channel and the gate, the source or the drain, or the contacting structure of the channel

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Manufacturing & Machinery (AREA)
  • Ceramic Engineering (AREA)
  • Thin Film Transistor (AREA)
  • Semiconductor Integrated Circuits (AREA)

Abstract

공정 리스트로부터 반도체 소자의 전기 특성을 예측한다. 특징량 산출부와 특성 예측부를 사용하여 반도체 소자의 전기 특성을 예측한다. 특징량 산출부는 제 1 학습 모델과 제 2 학습 모델을 가지고, 특성 예측부는 제 3 학습 모델을 가진다. 제 1 학습 모델이, 반도체 소자를 생성하기 위한 공정 리스트를 학습하는 단계와, 제 1 특징량을 생성하는 단계를 가진다. 제 2 학습 모델이 상기 공정 리스트에 따라 생성된 반도체 소자의 전기 특성을 학습하는 단계와, 제 2 특징량을 생성하는 단계를 가진다. 제 3 학습 모델이 제 1 특징량과 제 2 특징량을 사용하여 멀티모달(multimodal) 학습을 하는 단계와, 반도체 소자 특성의 계산식에 이용되는 변수의 값을 출력하는 단계를 가진다. 또한 제 1 학습 모델 내지 제 3 학습 모델은 각각 다른 신경망을 가진다.Predict the electrical characteristics of the semiconductor device from the process list. The electrical characteristics of the semiconductor device are predicted using the feature calculation unit and the characteristic prediction unit. The feature-quantity calculator has a first learning model and a second learning model, and the feature predictor has a third learning model. The first learning model has a step of learning a process list for producing a semiconductor element, and a step of generating a first feature quantity. The second learning model has the steps of learning the electrical characteristics of the semiconductor device generated according to the process list, and generating the second characteristic quantity. The third learning model has a step of performing multimodal learning using the first and second feature variables, and a step of outputting values of variables used in calculation formulas of semiconductor device characteristics. In addition, the first to third learning models each have different neural networks.

Description

반도체 소자의 전기 특성 예측 방법Method for predicting electrical properties of semiconductor devices

본 발명의 일 형태는 공정 레시피(process recipe), 전기 특성, 및 화상 데이터 중 어느 하나 또는 복수를 사용한 멀티모달의 학습 모델(multimodal learning model)을 학습시키는 방법에 관한 것이다. 또한 본 발명의 일 형태는 공정 레시피, 전기 특성, 및 화상 데이터 중 어느 하나 또는 복수를 사용한 멀티모달의 학습된 모델(multimodal learned model)을 이용하여 반도체 소자의 전기 특성을 예측하는 방법에 관한 것이다. 본 발명의 일 형태는 컴퓨터를 이용하는 반도체 소자의 전기 특성 예측 방법에 관한 것이다.One aspect of the present invention relates to a method for learning a multimodal learning model using any one or a plurality of process recipes, electrical characteristics, and image data. In addition, one aspect of the present invention relates to a method of predicting electrical characteristics of a semiconductor device using a multimodal learned model using any one or a plurality of process recipes, electrical characteristics, and image data. One embodiment of the present invention relates to a method for predicting electrical characteristics of a semiconductor device using a computer.

또한 본 명세서 등에 있어서 반도체 소자란, 반도체 특성을 이용함으로써 기능할 수 있는 소자를 가리킨다. 일례로서는 트랜지스터, 다이오드, 발광 소자, 또는 수광 소자 등의 반도체 소자를 들 수 있다. 또한 반도체 소자의 다른 일례로서는 용량 소자, 저항 소자, 인덕터 등, 도전막 또는 절연막 등을 사용하여 형성되는 수동 소자를 들 수 있다. 또한 반도체 소자의 다른 일례로서는 반도체 소자 또는 수동 소자를 가지는 회로를 갖추는 반도체 장치를 들 수 있다.In addition, in this specification etc., a semiconductor element refers to the element which can function by using semiconductor characteristics. A semiconductor element, such as a transistor, a diode, a light emitting element, or a light receiving element, is mentioned as an example. Further, as another example of the semiconductor element, a passive element formed by using a conductive film or an insulating film, such as a capacitor, a resistance element, an inductor, or the like is mentioned. Moreover, as another example of a semiconductor element, the semiconductor device provided with the circuit which has a semiconductor element or a passive element is mentioned.

근년, 인공 지능(AI: Artificial Intelligence)을 사용하는 분야, 로봇의 분야, 또는 파워 IC 등의 높은 전력을 다루는 에너지 분야에서는 연산량의 증대 또는 소비 전력의 증대 등의 과제를 해결하기 위한 새로운 반도체 소자가 개발되고 있다. 시장에서 요구되는 집적 회로 또는 집적 회로에 사용되는 반도체 소자는 복잡해지고 있는 한편, 새로운 기능을 가지는 집적 회로를 재빨리 실현하는 것이 요구되고 있다. 그러나 반도체 소자의 개발에 있어서, 프로세스 설계, 디바이스 설계, 또는 회로 설계에는 숙련된 기술자의 지식, 노하우, 또는 경험 등이 필요하다.In recent years, in fields using artificial intelligence (AI), robots, or energy fields that deal with high power such as power ICs, new semiconductor devices have been developed to solve problems such as increase in computational amount or increase in power consumption. is being developed While the integrated circuits required in the market or the semiconductor devices used in the integrated circuits are becoming more complex, it is required to quickly realize an integrated circuit having a new function. However, in the development of a semiconductor device, the knowledge, know-how, or experience of a skilled technician is required for process design, device design, or circuit design.

근년에는, 유전 알고리즘을 이용하여 트랜지스터의 물리 모델의 파라미터를 조정하는 것이 알려져 있다. 특허문헌 1에서는 유전 알고리즘을 트랜지스터의 물리 모델의 파라미터 조정에 이용하는 파라미터 조정 장치가 개시(開示)되어 있다.In recent years, it is known to use a genetic algorithm to adjust the parameters of a physical model of a transistor. Patent Document 1 discloses a parameter adjusting device using a genetic algorithm to adjust parameters of a physical model of a transistor.

일본 공개특허공보 특개2005-38216호Japanese Patent Laid-Open No. 2005-38216

반도체 소자의 개발에 있어서는, 프로세스 설계, 디바이스 설계, 및 회로 설계가 필요하다. 일례로서, 반도체 소자는 복수의 프로세스 공정을 조합함으로써 형성된다. 반도체 소자는 프로세스 공정의 순서가 바뀌면 전기 특성이 달라진다는 문제가 있다. 또한 반도체 소자는 공정이 같아도 제조 장치 또는 프로세스 조건이 상이하면 전기 특성이 달라진다는 문제가 있다.In the development of a semiconductor element, process design, device design, and circuit design are required. As an example, a semiconductor device is formed by combining a plurality of process processes. A semiconductor device has a problem in that electrical characteristics change when the order of process processes is changed. In addition, semiconductor devices have a problem in that electrical characteristics change when manufacturing devices or process conditions are different even if the process is the same.

또한 반도체 소자는 같은 공정, 같은 기능을 가지는 다른 장치, 및 같은 조건을 사용하여 형성하여도, 미세화가 진행됨으로써 전기 특성이 달라진다는 문제가 있다. 일례로서, 제조 장치의 막 두께 정밀도 또는 가공 정밀도 등이 원인인 경우와, 미세화로 인하여 물리 모델이 달라지는 것이 원인인 경우가 있다. 원인을 추구하는 데에는 다양한 실험 또는 평가를 위한 시간이 필요하게 된다는 문제가 있다.In addition, there is a problem in that the semiconductor device has different electrical characteristics as miniaturization proceeds even when it is formed using the same process, other devices having the same function, and the same conditions. As an example, the cause may be the film thickness precision or processing precision of the manufacturing apparatus, and the cause may be the change of the physical model due to miniaturization. There is a problem that time for various experiments or evaluation is required to pursue the cause.

상술한 바와 같이, 프로세스 공정의 순서, 제조 장치, 프로세스 조건, 미세화, 막 두께 정밀도 및 가공 정밀도 등, 반도체 소자의 전기 특성에 영향을 줄 수 있는 요인은 다방면에 걸치며, 반도체 소자의 전기 특성을 정확하게 예측하기는 매우 어려웠다.As described above, factors that can affect the electrical properties of semiconductor devices, such as the sequence of the process steps, manufacturing apparatus, process conditions, miniaturization, film thickness precision, and processing precision, are numerous and accurately measure the electrical properties of semiconductor devices. It was very difficult to predict.

상기 문제를 감안하여, 본 발명의 일 형태는 반도체 장치의 간편한 전기 특성 예측 방법을 제공하는 것을 과제 중 하나로 한다. 또는 본 발명의 일 형태는 컴퓨터를 이용한 반도체 소자의 간편한 전기 특성 예측 방법을 제공하는 것을 과제 중 하나로 한다. 또는 본 발명의 일 형태는 반도체 소자의 공정 리스트를 학습하고, 제 1 특징량을 출력하는 신경망을 갖추는 것을 과제 중 하나로 한다. 또는 본 발명의 일 형태는 반도체 소자의 상기 공정 리스트에 따라 생성된 반도체 소자의 전기 특성을 학습하고, 제 2 특징량을 출력하는 신경망을 갖추는 것을 과제 중 하나로 한다. 또는 본 발명의 일 형태는 반도체 소자의 상기 공정 리스트에 따라 생성된 반도체 소자의 단면 모식도 또는 단면 관찰 이미지를 학습하고, 제 3 특징량을 출력하는 신경망을 갖추는 것을 과제 중 하나로 한다. 또는 본 발명의 일 형태는 제 1 특징량 내지 제 3 특징량을 사용하여 멀티모달 학습을 하는 신경망을 갖추는 것을 과제 중 하나로 한다. 또는 본 발명의 일 형태는 멀티모달 학습을 하는 신경망이 반도체 소자의 전기 특성을 나타내는 계산식에 이용되는 변수의 값을 출력하는 것을 과제 중 하나로 한다.In view of the above problems, one of the objects of one embodiment of the present invention is to provide a simple method for predicting electrical characteristics of a semiconductor device. Alternatively, one aspect of the present invention is to provide a simple method for predicting electrical characteristics of a semiconductor device using a computer. Alternatively, in one embodiment of the present invention, one of the problems is to learn a process list of a semiconductor element and to provide a neural network that outputs a first characteristic quantity. Alternatively, one aspect of the present invention is to provide a neural network that learns the electrical characteristics of a semiconductor device generated according to the process list of the semiconductor device and outputs a second characteristic quantity. Alternatively, one aspect of the present invention is to learn a cross-sectional schematic diagram or cross-sectional observation image of a semiconductor element generated according to the process list of the semiconductor element, and to provide a neural network for outputting a third characteristic quantity as one of the tasks. Alternatively, one aspect of the present invention is to provide a neural network that performs multi-modal learning using the first to third feature quantities as one of the problems. Alternatively, according to one aspect of the present invention, one of the problems is that a neural network performing multimodal learning outputs a value of a variable used in a calculation formula representing an electrical characteristic of a semiconductor device.

또한 이들 과제의 기재는 다른 과제의 존재를 방해하는 것은 아니다. 또한 본 발명의 일 형태는 이들 과제 모두를 해결할 필요는 없다. 또한 이들 외의 과제는 명세서, 도면, 청구항 등의 기재에서 저절로 명백해지는 것이며 명세서, 도면, 청구항 등의 기재에서 이들 외의 과제를 추출할 수 있다.In addition, the description of these subjects does not impede the existence of other subjects. In addition, one embodiment of the present invention does not need to solve all of these problems. In addition, subjects other than these will become apparent by itself in the description of the specification, drawings, claims, etc., and other subjects can be extracted from the description of the specification, drawings, claims, and the like.

본 발명의 일 형태는 특징량 산출부와 특성 예측부를 가지는 반도체 소자의 전기 특성 예측 방법이다. 특징량 산출부는 제 1 학습 모델과 제 2 학습 모델을 가지고, 특성 예측부는 제 3 학습 모델을 가진다. 제 1 학습 모델이, 반도체 소자를 생성하기 위한 공정 리스트를 학습하는 단계를 가진다. 또한 제 1 학습 모델이 제 1 특징량을 생성하는 단계를 가진다. 제 2 학습 모델이 공정 리스트에 따라 생성되는 반도체 소자의 전기 특성을 학습하는 단계를 가진다. 또한 제 2 학습 모델이 제 2 특징량을 생성하는 단계를 가진다. 제 3 학습 모델이 제 1 특징량과 제 2 특징량을 사용하여 멀티모달 학습을 하는 단계를 가진다. 또한 제 3 학습 모델이 반도체 소자의 전기 특성을 나타내는 계산식에 이용되는 변수의 값을 출력하는 단계를 가지는 반도체 소자의 전기 특성 예측 방법이다.One embodiment of the present invention is a method for predicting electrical characteristics of a semiconductor device having a characteristic quantity calculating unit and a characteristic predicting unit. The feature-quantity calculator has a first learning model and a second learning model, and the feature predictor has a third learning model. The first learning model has a step of learning a process list for producing a semiconductor device. Also, the first learning model has a step of generating a first feature quantity. The second learning model has a step of learning the electrical characteristics of the semiconductor device generated according to the process list. The second learning model also has a step of generating a second feature quantity. The third learning model has a step of multimodal learning using the first and second feature quantities. Also, the third learning model is a method for predicting electrical characteristics of a semiconductor device, including outputting a value of a variable used in a calculation formula representing the electrical characteristics of the semiconductor device.

상기 구성에 있어서, 특징량 산출부는 제 4 학습 모델을 가진다. 제 4 학습 모델이, 공정 리스트를 사용하여 생성되는 단면 모식도를 학습하는 단계를 가진다. 또한 제 4 학습 모델이 제 3 특징량을 생성하는 단계를 가진다. 제 3 학습 모델이 제 1 특징량과, 제 2 특징량과, 제 3 특징량을 사용하여 멀티모달 학습을 하는 단계를 가진다. 제 3 학습 모델이 반도체 소자의 전기 특성을 나타내는 계산식에 이용되는 변수의 값을 출력하는 단계를 가지는 반도체 소자의 전기 특성 예측 방법이 바람직하다.In the above configuration, the feature amount calculating unit has a fourth learning model. The fourth learning model has a step of learning the cross-sectional schematic diagram generated using the process list. Also, the fourth learning model has a step of generating the third feature quantity. The third learning model has a step of performing multimodal learning using the first feature, the second feature, and the third feature. A method for predicting electrical characteristics of a semiconductor device is preferable, in which the third learning model outputs values of variables used in a calculation formula representing electrical characteristics of the semiconductor device.

상기 구성에 있어서, 제 1 학습 모델은 제 1 신경망을 가지고, 제 2 학습 모델은 제 2 신경망을 가진다. 제 1 신경망이 생성하는 제 1 특징량이 제 2 신경망의 가중치 계수를 경신하는 단계를 가지는 반도체 소자의 전기 특성 예측 방법이 바람직하다.In the above configuration, the first learning model has a first neural network, and the second learning model has a second neural network. A method for predicting electrical characteristics of a semiconductor device, which includes updating a weighting coefficient of a second neural network by a first characteristic quantity generated by a first neural network is preferable.

상기 구성에 있어서, 제 1 학습 모델에 추론용 공정 리스트가 주어지고, 또한 제 2 학습 모델에 반도체 소자의 단자에 인가되는 전압의 값이 주어지는 경우, 제 2 학습 모델이 전압의 값에 따른 전류의 값을 출력하는 단계를 가지는 반도체 소자의 전기 특성 예측 방법이 바람직하다.In the above configuration, when the process list for inference is given to the first learning model, and the value of the voltage applied to the terminal of the semiconductor element is given to the second learning model, the second learning model determines the value of the current according to the value of the voltage. A method for predicting electrical characteristics of a semiconductor device having a step of outputting a value is preferable.

상기 구성에 있어서, 제 1 학습 모델에 추론용 공정 리스트가 주어지고, 또한 제 2 학습 모델에 반도체 소자의 단자에 인가되는 전압의 값이 주어지는 경우, 제 3 학습 모델이 반도체 소자의 전기 특성의 계산식에 이용되는 변수의 값을 출력하는 단계를 가지는 반도체 소자의 전기 특성 예측 방법이 바람직하다.In the above configuration, when the process list for inference is given to the first learning model and the value of the voltage applied to the terminal of the semiconductor element is given to the second learning model, the third learning model is a formula for calculating the electrical characteristics of the semiconductor element A method for predicting electrical characteristics of a semiconductor device having a step of outputting a value of a variable used for .

상기 구성에 있어서, 반도체 소자가 트랜지스터인 반도체 소자의 전기 특성 예측 방법이 바람직하다. 또한 트랜지스터는 반도체층에 금속 산화물을 포함하는 것이 바람직하다.In the above configuration, a method for predicting electrical characteristics of a semiconductor element in which the semiconductor element is a transistor is preferable. In addition, the transistor preferably includes a metal oxide in the semiconductor layer.

본 발명의 일 형태는 반도체 소자의 간편한 전기 특성 예측 방법을 제공할 수 있다. 또는 본 발명의 일 형태는 컴퓨터를 이용한 반도체 소자의 간편한 전기 특성 예측 방법을 제공할 수 있다. 또는 본 발명의 일 형태는 반도체 소자의 공정 리스트를 학습하고, 제 1 특징량을 출력하는 신경망을 갖출 수 있다. 또는 본 발명의 일 형태는 반도체 소자의 상기 공정 리스트에 따라 생성된 반도체 소자의 전기 특성을 학습하고, 제 2 특징량을 출력하는 신경망을 갖출 수 있다. 또는 본 발명의 일 형태는 반도체 소자의 상기 공정 리스트에 따라 생성된 반도체 소자의 단면 모식도 또는 단면 이미지를 학습하고, 제 3 특징량을 출력하는 신경망을 갖출 수 있다. 또는 본 발명의 일 형태는 제 1 특징량 내지 제 3 특징량을 사용하여 멀티모달 학습을 하는 신경망을 갖출 수 있다. 또는 본 발명의 일 형태는 멀티모달 학습을 하는 신경망이 반도체 소자의 전기 특성을 나타내는 계산식에 이용되는 변수의 값을 출력할 수 있다.One embodiment of the present invention can provide a simple method for predicting electrical characteristics of a semiconductor device. Alternatively, one embodiment of the present invention may provide a simple method for predicting electrical characteristics of a semiconductor device using a computer. Alternatively, one embodiment of the present invention may include a neural network that learns a process list of a semiconductor device and outputs a first feature. Alternatively, one embodiment of the present invention may include a neural network that learns electrical characteristics of a semiconductor device generated according to the process list of the semiconductor device and outputs a second characteristic quantity. Alternatively, one embodiment of the present invention may include a neural network that learns a cross-sectional schematic diagram or a cross-sectional image of a semiconductor device generated according to the process list of the semiconductor device and outputs a third feature. Alternatively, one embodiment of the present invention may be equipped with a neural network that performs multimodal learning using the first to third feature quantities. Alternatively, according to one embodiment of the present invention, a neural network performing multi-modal learning may output a value of a variable used in a calculation expression representing an electrical characteristic of a semiconductor device.

또한 본 발명의 일 형태의 효과는 위에서 열거한 효과에 한정되지 않는다. 위에서 열거한 효과는 다른 효과의 존재를 방해하는 것이 아니다. 또한 다른 효과는 이하에 기재되고 본 항목에서는 언급되지 않은 효과이다. 본 항목에서 언급되지 않은 효과는 통상의 기술자라면 명세서 또는 도면 등의 기재에서 도출할 수 있는 것이고, 이들 기재에서 적절히 추출할 수 있다. 또한 본 발명의 일 형태는 위에서 열거한 효과 및/또는 다른 효과 중 적어도 하나의 효과를 가지는 것이다. 따라서 본 발명의 일 형태는 경우에 따라서는 위에서 열거한 효과를 가지지 않는 경우도 있다.In addition, the effect of one embodiment of this invention is not limited to the effect enumerated above. The effects listed above do not prevent the existence of other effects. Also, other effects are effects described below and not mentioned in this section. Effects not mentioned in this item can be derived from descriptions such as the specification or drawings by those skilled in the art, and can be appropriately extracted from these descriptions. Also, one embodiment of the present invention has at least one of the effects and/or other effects listed above. Accordingly, one embodiment of the present invention may not have the effects enumerated above in some cases.

도 1은 반도체 소자의 전기 특성 예측 방법을 설명하는 도면이다.
도 2의 (A), (B), (C), (D)는 공정 리스트를 설명하는 표이다.
도 3의 (A), (B)는 공정 리스트를 설명하는 도면이다. 도 3의 (C)는 공정 리스트를 학습하는 신경망을 설명하는 도면이다.
도 4의 (A), (B)는 반도체 소자의 전기 특성을 설명하는 도면이다. 도 4의 (C)는 전기 특성을 학습하는 신경망을 설명하는 도면이다.
도 5는 반도체 소자의 전기 특성 예측 방법을 설명하는 도면이다.
도 6의 (A)는 화상 데이터를 학습하는 신경망을 설명하는 도면이다. 도 6의 (B)는 반도체 소자의 단면 모식도를 설명하는 도면이다. 도 6의 (C)는 반도체 소자의 단면 관찰 이미지를 설명하는 도면이다.
도 7은 반도체 소자의 전기 특성 예측 방법을 설명하는 도면이다.
도 8은 반도체 소자의 전기 특성 예측 방법을 설명하는 도면이다.
도 9는 프로그램을 동작시키는 컴퓨터를 설명하는 도면이다.
1 is a view for explaining a method of predicting electrical characteristics of a semiconductor device.
2(A), (B), (C), and (D) are tables for explaining the process list.
3A and 3B are diagrams for explaining a process list. 3C is a diagram for explaining a neural network for learning a process list.
4A and 4B are diagrams for explaining electrical characteristics of a semiconductor element. 4C is a diagram for explaining a neural network for learning electrical characteristics.
5 is a view for explaining a method of predicting electrical characteristics of a semiconductor device.
Fig. 6A is a diagram for explaining a neural network for learning image data. 6B is a diagram for explaining a schematic cross-sectional view of a semiconductor element. 6C is a view for explaining a cross-sectional observation image of a semiconductor device.
7 is a view for explaining a method of predicting electrical characteristics of a semiconductor device.
8 is a view for explaining a method of predicting electrical characteristics of a semiconductor device.
Fig. 9 is a diagram for explaining a computer operating a program.

실시형태에 대하여 도면을 사용하여 자세히 설명한다. 다만 본 발명은 이하의 설명에 한정되지 않고, 본 발명의 취지 및 그 범위에서 벗어남이 없이 그 형태 및 자세한 사항을 다양하게 변경할 수 있는 것은 통상의 기술자라면 용이하게 이해할 수 있다. 따라서 본 발명은 이하의 실시형태의 기재 내용에 한정하여 해석되는 것은 아니다.EMBODIMENT OF THE INVENTION It demonstrates in detail using drawing about embodiment. However, the present invention is not limited to the following description, and it can be easily understood by those skilled in the art that various changes in form and details can be made without departing from the spirit and scope of the present invention. Therefore, this invention is limited to the description of the following embodiment, and is not interpreted.

또한 이하에서 설명하는 발명의 구성에서, 동일한 부분 또는 같은 기능을 가지는 부분에는 동일한 부호를 다른 도면 간에서 공통적으로 사용하고, 그 반복적인 설명은 생략한다. 또한 같은 기능을 가지는 부분을 가리키는 경우에는 해치 패턴을 동일하게 하고, 특별히 부호를 붙이지 않는 경우가 있다.In addition, in the configuration of the invention described below, the same reference numerals are commonly used between different drawings for the same parts or parts having the same function, and a repetitive description thereof will be omitted. In addition, when referring to parts having the same function, the hatch pattern is made the same, and there are cases in which no particular sign is attached.

또한 도면에서 나타낸 각 구성의 위치, 크기, 범위 등은 이해를 쉽게 하기 위하여, 실제의 위치, 크기, 범위 등을 나타내지 않는 경우가 있다. 그러므로 개시된 발명은 반드시 도면에 개시된 위치, 크기, 범위 등에 한정되지 않는다.In addition, the position, size, range, etc. of each component shown in the drawings may not represent the actual position, size, range, etc. in order to facilitate understanding. Therefore, the disclosed invention is not necessarily limited to the position, size, scope, etc. disclosed in the drawings.

또한 본 명세서에서 사용하는 '제 1', '제 2', '제 3'이라는 서수사는 구성요소의 혼동을 피하기 위하여 붙인 것이고, 수적으로 한정하는 것이 아님을 부기한다.In addition, it should be noted that the ordinal numbers 'first', 'second', and 'third' used in this specification are added to avoid confusion of components, and are not limited to numbers.

(실시형태)(Embodiment)

본 발명의 일 형태에서는 반도체 소자의 전기 특성 예측 방법에 대하여 설명한다. 일례로서 반도체 소자의 전기 특성 예측 방법에는 특징량 산출부와 특성 예측부를 사용한다. 특징량 산출부는 제 1 학습 모델과 제 2 학습 모델을 가지고, 특성 예측부는 제 3 학습 모델을 가진다. 또한 제 1 학습 모델은 제 1 신경망을 가지고, 제 2 학습 모델은 제 2 신경망을 가지고, 제 3 학습 모델은 제 3 신경망을 가진다. 또한 제 1 신경망 내지 제 3 신경망은 각각 다른 것이 바람직하다.In one embodiment of the present invention, a method for predicting electrical characteristics of a semiconductor element will be described. As an example, in the method of predicting electrical characteristics of a semiconductor device, a feature calculating unit and a characteristic predicting unit are used. The feature-quantity calculator has a first learning model and a second learning model, and the feature predictor has a third learning model. Also, the first learning model has a first neural network, the second learning model has a second neural network, and the third learning model has a third neural network. In addition, it is preferable that the first to third neural networks are different from each other.

우선, 반도체 소자의 전기 특성을 예측하기 위한 학습 방법에 대하여 설명한다.First, a learning method for predicting electrical characteristics of a semiconductor element will be described.

일례로서 제 1 학습 모델이, 반도체 소자를 생성하기 위한 공정 리스트를 학습하는 경우에 대하여 설명한다. 제 1 학습 모델은 반도체 소자를 생성하기 위한 공정 리스트가 주어짐으로써 제 1 신경망의 가중치 계수를 경신한다. 즉 제 1 신경망은 공정 리스트를 훈련 데이터로서 학습하는 신경망이다. 이후에서는 일례로서 반도체 소자를 트랜지스터로 바꿔 설명한다. 또한 반도체 소자는 트랜지스터에 한정되지 않는다. 트랜지스터는 일례이고, 반도체 소자는 다이오드, 서미스터, 자이로 센서, 가속도 센서, 발광 소자, 또는 수광 소자 등이어도 좋다. 또한 반도체 소자에는 저항 소자 또는 용량 소자 등이 포함될 수 있다.As an example, a case in which the first learning model learns a list of steps for producing a semiconductor element will be described. The first learning model updates the weighting coefficients of the first neural network by being given a list of processes for generating a semiconductor device. That is, the first neural network is a neural network that learns the process list as training data. Hereinafter, as an example, the semiconductor device will be described with a transistor. In addition, the semiconductor element is not limited to a transistor. A transistor is an example, and a diode, a thermistor, a gyro sensor, an acceleration sensor, a light emitting element, a light receiving element, etc. may be sufficient as a semiconductor element. In addition, the semiconductor device may include a resistive device or a capacitive device.

또한 상술한 공정 리스트는 트랜지스터를 형성하는 데에 필요한 복수의 공정이 조합된 정보이다. 다음으로 공정 리스트에 기재되는 한 공정 항목에 대하여 설명한다. 공정 항목은 적어도 공정 ID, 장치 ID, 및 조건을 포함하는 것이 바람직하다. 또한 공정에는 성막 공정, 세정 공정, 레지스트 도포 공정, 노광 공정, 현상 공정, 가공 공정, 베이킹 공정, 박리 공정, 및 도핑 공정 등 중 적어도 하나 또는 복수가 포함된다. 또한 조건에는 각각의 장치의 설정 조건 등이 포함된다.In addition, the above-described process list is information in which a plurality of processes required for forming a transistor are combined. Next, one process item described in the process list will be described. The process item preferably includes at least a process ID, an apparatus ID, and a condition. In addition, the process includes at least one or more of a film forming process, a cleaning process, a resist coating process, an exposure process, a developing process, a processing process, a baking process, a peeling process, and a doping process. In addition, the conditions include setting conditions of each device, and the like.

또한 각각의 공정 ID가 나타내는 공정 내용은 다른 기능을 가지는 장치에 의하여 수행되는 경우가 있다. 예를 들어 성막 공정에서는, MOCVD(metal organic chemical vapor deposition method), CVD(chemical vapor deposition method), 또는 스퍼터링법 등이 사용된다. 따라서 제 1 학습 모델에 주어지는 정보는, 공정 ID 및 장치 ID를 하나의 코드로 나타냄으로써 이차원의 정보를 일차원의 정보로서 관리할 수 있다. 코드를 사용하여 공정 ID와 장치 ID를 나타냄으로써, 학습 항목을 줄여 연산량을 삭감한다. 또한 코드 생성 방법에 대해서는 도 2에서 자세히 설명한다.In addition, the process content indicated by each process ID may be performed by an apparatus having a different function. For example, in a film-forming process, MOCVD (metal organic chemical vapor deposition method), CVD (chemical vapor deposition method), a sputtering method, etc. are used. Accordingly, the information given to the first learning model can manage the two-dimensional information as one-dimensional information by representing the process ID and the device ID as one code. By using codes to indicate process IDs and device IDs, the amount of computation is reduced by reducing learning items. In addition, the code generation method will be described in detail with reference to FIG. 2 .

또한 제 1 학습 모델은 공정 리스트에 따라 학습을 한 제 1 신경망에 의하여 제 1 특징량을 생성한다.In addition, the first learning model generates the first feature quantity by the first neural network trained according to the process list.

본 발명의 일 형태에서는 제 1 학습 모델의 학습과 병행하여, 제 2 학습 모델이 제 1 모델에 의하여 생성된 트랜지스터의 전기 특성을 학습한다. 자세히 설명하면, 제 2 학습 모델은 제 1 학습 모델에 주어지는 공정 리스트에 따라 생성된 트랜지스터의 전기 특성을 학습한다. 제 2 학습 모델은 상기 트랜지스터의 전기 특성이 주어짐으로써 제 2 신경망의 가중치 계수를 경신한다. 즉 제 2 신경망은 트랜지스터의 전기 특성을 훈련 데이터로서 학습하는 신경망이다. 예를 들어 트랜지스터의 전기 특성으로서는, 트랜지스터의 온도 특성 또는 문턱 전압 등을 평가하는 Id-Vgs 특성과, 트랜지스터의 포화 특성을 평가하는 Id-Vds 특성을 사용할 수 있다.In one embodiment of the present invention, in parallel with the learning of the first learning model, the second learning model learns the electrical characteristics of the transistor generated by the first model. More specifically, the second learning model learns the electrical characteristics of the transistors generated according to the process list given to the first learning model. The second learning model updates the weighting coefficients of the second neural network given the electrical characteristics of the transistor. That is, the second neural network is a neural network that learns the electrical characteristics of the transistor as training data. For example, as the electrical characteristics of the transistor, an Id-Vgs characteristic for evaluating a temperature characteristic or a threshold voltage of the transistor, and an Id-Vds characteristic for evaluating a saturation characteristic of the transistor can be used.

드레인 전류 Id는 트랜지스터의 게이트 단자, 드레인 단자, 및 소스 단자에 전압이 인가되었을 때의 드레인 단자에 흐르는 전류의 크기를 나타낸다. 또한 Id-Vgs 특성은 트랜지스터의 게이트 단자에 인가되는 전압이 변경되었을 때의 드레인 전류 Id의 변화를 나타낸다. 또한 Id-Vds 특성은 트랜지스터의 드레인 단자에 인가되는 전압이 변경되었을 때의 드레인 전류의 값 Id의 변화를 나타낸다.The drain current Id represents the magnitude of the current flowing through the drain terminal when a voltage is applied to the gate terminal, the drain terminal, and the source terminal of the transistor. Also, the Id-Vgs characteristic indicates a change in the drain current Id when the voltage applied to the gate terminal of the transistor is changed. Also, the Id-Vds characteristic indicates a change in the value Id of the drain current when the voltage applied to the drain terminal of the transistor is changed.

또한 제 2 학습 모델은 공정 리스트에 따라 생성되는 트랜지스터의 전기 특성을 학습한 제 2 신경망에 의하여 제 2 특징량을 생성한다.In addition, the second learning model generates the second characteristic quantity by the second neural network that has learned the electrical characteristics of the transistors generated according to the process list.

이어서, 제 3 학습 모델은 제 1 특징량과 제 2 특징량을 사용하여 멀티모달 학습을 한다. 제 3 학습 모델은 제 1 특징량과 제 2 특징량이 주어짐으로써 제 3 신경망의 가중치 계수를 경신한다. 즉 제 3 신경망은 공정 리스트와, 공정 리스트에 대응하는 트랜지스터의 전기 특성을 훈련 데이터로서 학습하는 신경망이다.Then, the third learning model performs multimodal learning using the first and second feature quantities. The third learning model updates the weighting coefficients of the third neural network by giving the first and second feature quantities. That is, the third neural network is a neural network that learns a process list and electrical characteristics of transistors corresponding to the process list as training data.

또한 멀티모달 학습이란, 반도체 소자를 생성하기 위한 공정 리스트로부터 생성되는 제 1 특징량과, 상기 공정 리스트에 따라 생성된 반도체 소자의 전기 특성으로부터 생성되는 제 2 특징량 등, 형식이 다른 정보들을 사용하여 학습을 하는 것을 말한다. 일례로서 형식이 다른 복수의 정보들로부터 생성되는 특징량을 입력 정보로서 사용하는 신경망을 멀티모달 인터페이스를 가지는 신경망이라고 부를 수 있다. 본 발명의 일 형태에서는, 제 3 신경망이 멀티모달 인터페이스를 가지는 신경망에 상당한다.In addition, multimodal learning uses information of different formats, such as a first feature quantity generated from a process list for generating a semiconductor device and a second feature quantity generated from electrical characteristics of a semiconductor device generated according to the process list means to learn As an example, a neural network using a feature quantity generated from a plurality of pieces of information having different formats as input information may be referred to as a neural network having a multimodal interface. In one embodiment of the present invention, the third neural network corresponds to a neural network having a multimodal interface.

일례로서 제 3 학습 모델은 트랜지스터의 전기 특성을 나타내는 계산식에 이용되는 변수의 값을 출력한다. 즉 이 변수의 값이, 반도체 소자의 전기 특성 예측 방법에 의하여 예측되는 값이다.As an example, the third learning model outputs a value of a variable used in a calculation expression representing an electrical characteristic of a transistor. That is, the value of this variable is a value predicted by the method for predicting electrical characteristics of a semiconductor element.

일례로서, 트랜지스터의 점진적 채널 근사(gradual channel approximation)식을 트랜지스터의 전기 특성을 나타내는 계산식으로서 사용한다. 식(1)은 트랜지스터의 포화 영역에서의 전기 특성을 나타낸다. 식(2)은 트랜지스터의 선형 영역에서의 전기 특성을 나타낸다.As an example, a gradual channel approximation equation of the transistor is used as a calculation equation representing the electrical characteristics of the transistor. Equation (1) shows the electrical characteristics in the saturation region of the transistor. Equation (2) shows the electrical characteristics in the linear region of the transistor.

[수학식 1][Equation 1]

Figure pct00001
Figure pct00001

[수학식 2][Equation 2]

Figure pct00002
Figure pct00002

트랜지스터의 전기 특성 예측 방법에 의하여 예측되는 변수에는, 식(1) 또는 식(2)에 사용되는 드레인 전류 Id, 전계 효과 이동도 μFE, 게이트 절연막의 단위 면적 용량 Cox, 채널 길이 L, 채널 폭 W, 또는 문턱 전압 Vth 등이 있다. 또한 게이트 단자에 인가되는 게이트 전압 Vg 또는 드레인 단자에 인가되는 드레인 전압 Vd에는 후술하는 추론 데이터가 주어지는 것이 바람직하다. 또한 제 3 학습 모델은 상기 변수의 값을 모두 출력할 수 있어도 좋고, 상기 변수의 값 중 어느 하나 또는 복수를 출력하여도 좋다.Variables predicted by the method for predicting electrical characteristics of transistors include drain current Id used in equation (1) or equation (2), field effect mobility μFE, unit area capacitance Cox of the gate insulating film, channel length L, channel width W , or the threshold voltage Vth. In addition, it is preferable that speculation data to be described later is given to the gate voltage Vg applied to the gate terminal or the drain voltage Vd applied to the drain terminal. In addition, the 3rd learning model may output all the values of the said variable, and may output any one or a plurality of the values of the said variable.

반도체 소자의 전기 특성 예측 방법에서는 지도 학습(supervised learning)을 이용하기 때문에 제 3 학습 모델의 출력 결과에 기초하여 제 1 신경망 내지 제 3 신경망에 보상(reward)을 준다. 일례로서 제 1 신경망 내지 제 3 신경망은 트랜지스터의 전기 특성에 기초하여, 식(1) 또는 식(2)으로부터 산출된 결과에 가까워지도록 가중치 계수를 경신한다.Since the method for predicting electrical characteristics of a semiconductor device uses supervised learning, a reward is given to the first to third neural networks based on the output result of the third learning model. As an example, the first to third neural networks update the weighting coefficients so as to approximate the result calculated from Equation (1) or Equation (2) based on the electrical characteristics of the transistor.

특징량 산출부는 제 4 학습 모델을 더 가진다. 제 4 학습 모델이, 공정 리스트를 사용하여 생성되는 트랜지스터의 단면 모식도를 학습한다. 또는 제 4 학습 모델은 공정 리스트를 사용하여 생성되는 트랜지스터의 단면 SEM 이미지를 학습한다. 제 4 학습 모델은 트랜지스터의 단면 모식도 또는 단면 SEM 이미지를 학습함으로써 제 3 특징량을 생성한다. 제 4 학습 모델이 제 3 특징량을 생성할 때, 이와 병행하여 제 1 학습 모델이 제 1 특징량을 생성하고, 제 2 학습 모델이 제 2 특징량을 생성하는 것이 바람직하다.The feature quantity calculating unit further has a fourth learning model. The fourth learning model learns a cross-sectional schematic diagram of a transistor to be generated using the process list. Alternatively, the fourth learning model learns a cross-sectional SEM image of the transistor generated using the process list. The fourth learning model generates the third feature quantity by learning the cross-sectional schematic diagram or cross-sectional SEM image of the transistor. When the fourth learning model generates the third feature, it is preferable that in parallel with this, the first learning model generates the first feature and the second learning model generates the second feature.

따라서 제 3 학습 모델이 제 1 특징량과, 제 2 특징량과, 제 3 특징량을 사용하여 멀티모달 학습을 한다. 따라서 제 3 학습 모델이 트랜지스터의 전기 특성을 나타내는 계산식에 이용되는 변수의 값을 출력한다.Accordingly, the third learning model performs multimodal learning using the first feature, the second feature, and the third feature. Accordingly, the third learning model outputs the values of variables used in the calculation formula representing the electrical characteristics of the transistor.

또한 제 1 특징량이 제 2 신경망의 가중치 계수를 경신한다. 제 1 특징량은 공정 리스트를 학습한 제 1 학습 모델의 출력에 상당한다. 즉 제 1 특징량은 공정 리스트에 따라 생성되는 트랜지스터의 전기 특성과 관계가 있다.Also, the first characteristic quantity updates the weighting coefficient of the second neural network. The first feature amount corresponds to the output of the first learning model that learned the process list. That is, the first characteristic quantity is related to the electrical characteristics of the transistor generated according to the process list.

다음으로 트랜지스터의 전기 특성 예측 방법을 사용하여 추론을 수행하는 방법에 대하여 설명한다. 제 1 학습 모델에 추론용 공정 리스트가 주어지고, 또한 제 2 학습 모델에 반도체 소자의 단자에 인가되는 전압의 값이 주어지는 경우, 제 3 학습 모델이 트랜지스터의 전기 특성을 나타내는 계산식에 이용되는 변수의 값을 출력한다.Next, a method for performing inference using a method of predicting electrical characteristics of a transistor will be described. When the process list for inference is given to the first learning model and the value of the voltage applied to the terminal of the semiconductor element is given to the second learning model, the third learning model is the variable used in the calculation formula representing the electrical characteristics of the transistor. print the value

또한 제 1 특징량이 제 2 신경망의 가중치 계수를 경신하는 경우에서의, 트랜지스터의 전기 특성 예측 방법을 사용한 추론을 수행하는 방법에 대하여 설명한다. 제 1 학습 모델에 추론용 공정 리스트가 주어지고, 또한 제 2 학습 모델에 트랜지스터의 단자(게이트 단자, 드레인 단자, 소스 단자)에 인가되는 전압의 값이 주어진다. 제 2 학습 모델은, 상기 전압의 값에 따라 드레인 단자에 흐르는 전류의 값을 예측치로서 출력한다.Also, a description will be given of a method for performing inference using a method for predicting electrical characteristics of a transistor in the case where the first characteristic quantity updates the weighting coefficient of the second neural network. The first learning model is given a list of processes for inference, and the second learning model is given the values of voltages applied to the terminals (gate terminal, drain terminal, and source terminal) of the transistor. The second learning model outputs the value of the current flowing through the drain terminal as the predicted value according to the value of the voltage.

이어서, 반도체 소자의 전기 특성 예측 방법에 대하여 도 1 내지 도 8을 사용하여 설명한다. 또한 반도체 소자로서 트랜지스터를 사용한 경우에 대하여 설명한다.Next, a method for predicting electrical characteristics of a semiconductor device will be described with reference to FIGS. 1 to 8 . Further, a case in which a transistor is used as a semiconductor element will be described.

도 1에서 설명하는 트랜지스터의 전기 특성 예측 방법은 특징량 산출부(110)와 특성 예측부(120)를 가진다. 특징량 산출부(110)는 학습 모델(210)과 학습 모델(220)을 가지고, 특성 예측부(120)는 학습 모델(230)을 가진다.The method for predicting electrical characteristics of a transistor described in FIG. 1 includes a feature calculating unit 110 and a characteristic predicting unit 120 . The feature quantity calculating unit 110 includes a learning model 210 and a learning model 220 , and the characteristic predicting unit 120 has a learning model 230 .

또한 학습 모델(210)은 신경망(211)과 신경망(212)을 가진다. 또한 신경망(211)과 신경망(212)에 대해서는 도 3의 (C)에서 자세히 설명한다.In addition, the learning model 210 has a neural network 211 and a neural network 212 . In addition, the neural network 211 and the neural network 212 will be described in detail with reference to FIG. 3C .

학습 모델(220)은 신경망(221)과 활성화 함수(222)를 가진다. 신경망(221)은 입력층, 중간층, 및 출력층을 가지는 것이 바람직하다. 또한 신경망(221)에 대해서는 도 4의 (C)에서 자세히 설명한다.The learning model 220 has a neural network 221 and an activation function 222 . The neural network 221 preferably has an input layer, an intermediate layer, and an output layer. In addition, the neural network 221 will be described in detail with reference to FIG. 4C .

학습 모델(230)은 연결 계층(connected layer)(231), 완전 연결 계층(fully connected layer)(232), 및 완전 연결 계층(233)으로 구성되는 신경망을 가진다. 또한 연결 계층(231)은 멀티모달 인터페이스를 가진다. 도 1에서는 연결 계층(231)이 공정 리스트로부터 생성되는 제 1 특징량과, 공정 리스트에 따라 생성된 트랜지스터의 전기 특성으로부터 생성되는 제 2 특징량을 연결하여, 완전 연결 계층(232)에 주어지는 출력 데이터를 생성한다.The learning model 230 has a neural network including a connected layer 231 , a fully connected layer 232 , and a fully connected layer 233 . Also, the connection layer 231 has a multimodal interface. In FIG. 1 , the connection layer 231 connects the first characteristic quantity generated from the process list and the second characteristic quantity generated from the electrical characteristics of the transistor generated according to the process list, thereby providing an output to the fully connected layer 232 . create data

완전 연결 계층(233)은 출력 단자(OUT_1 내지 OUT_w)에 전기 특성(예를 들어 드레인 전류)의 예측치를 출력한다. 상기 식(1) 또는 식(2)이 가지는 변수의 값은 출력 단자(OUT_1 내지 OUT_w)에 대응한다. 또한 다른 예로서, 반도체 소자가 저항 소자 또는 용량 소자인 경우, 완전 연결 계층(233)이 출력하는 변수의 값은 저항의 값을 산출하는 식 또는 용량의 크기를 산출하는 식을 사용하여 얻는 것이 바람직하다. 또한 w는 1 이상의 정수이다.The fully connected layer 233 outputs predicted values of electrical characteristics (eg, drain current) to the output terminals OUT_1 to OUT_w. Values of variables in Equation (1) or Equation (2) correspond to the output terminals OUT_1 to OUT_w. As another example, when the semiconductor device is a resistive device or a capacitive device, the value of the variable output from the fully connected layer 233 is preferably obtained using an equation for calculating a value of resistance or an equation for calculating the size of a capacitor do. In addition, w is an integer of 1 or more.

도 2의 (A) 내지 (D)는 학습 모델(210)에 주어지는 공정 리스트에 대하여 설명하는 표이다.2(A) to (D) are tables for explaining a process list given to the learning model 210 .

도 2의 (A)는 공정 리스트에 포함되는 최소 단위의 공정 항목을 설명하는 표이다. 또한 공정 리스트는 복수의 공정 항목으로 구성된다. 공정 항목에는 공정 ID, 장치 ID, 및 장치의 설정 조건 등이 있다. 또한 도 2의 (A)에서는 표시하지 않았지만, 각각의 공정 항목이 트랜지스터의 어느 부분을 형성하는지를 기재하여도 좋다. 공정 리스트에 포함되는 공정 항목의 예로서는 공정 ID, 장치 ID, 조건, 및 형성 부분을 들 수 있다. 형성 부분으로서는 산화막, 전극(게이트, 소스, 또는 드레인 등), 반도체층 등이 있다. 실제의 반도체 소자 형성 공정에서는 상기에 더하여 콘택트의 형성, 배선의 형성 등의 복수의 공정이 있다.FIG. 2A is a table for explaining the process items of the minimum unit included in the process list. In addition, the process list is composed of a plurality of process items. Process items include process ID, device ID, and device setting conditions. In addition, although not shown in FIG. 2A, which part of each process item forms a transistor may be described. Examples of process items included in the process list include process ID, device ID, condition, and formation part. The formation part includes an oxide film, an electrode (gate, source, or drain, etc.), a semiconductor layer, and the like. In an actual semiconductor element formation process, in addition to the above, there are a plurality of processes such as formation of a contact and formation of a wiring.

도 2의 (B)는 반도체 소자의 공정 항목을 설명하는 표의 일례이다. 공정 ID에는 성막 공정, 세정 공정, 레지스트 도포 공정, 노광 공정, 현상 공정, 가공 공정 1, 가공 공정 2, 베이킹 공정, 박리 공정, 또는 도핑 공정 등이 있다. 장치 ID에는 각 공정에서 사용되는 장치가 할당되는 것이 바람직하다. 또한 장치의 설정 조건은 각 공정에서 사용되는 장치에 설정되는 항목인 것이 바람직하다. 공정이 같아도 장치 ID가 다른 경우, 각 장치에는 다른 설정 조건이 주어질 경우가 있다.2B is an example of a table explaining process items of a semiconductor device. The process ID includes a film forming process, a cleaning process, a resist coating process, an exposure process, a developing process, a processing process 1, a processing process 2, a baking process, a peeling process, a doping process, and the like. It is preferable that the apparatus used in each process be assigned to the apparatus ID. Moreover, it is preferable that the setting conditions of an apparatus are items set for the apparatus used in each process. Even if the process is the same, when the device IDs are different, different setting conditions may be given to each device.

공정에서 사용되는 장치 ID는 다음과 같이 설정할 수 있다. 예를 들어, 성막 공정: CVD1, 세정 공정: WAS1, 레지스트 도포 공정: REG1, 노광 공정: PAT1, 현상 공정: DEV1, 가공 공정 1: ETC1, 가공 공정 2: CMP1, 베이킹 공정: OVN1, 박리 공정: PER1, 도핑 공정: DOP1 등으로서 설정한다. 공정 ID는 항상, 장치 ID와 연관 지어서 관리되는 것이 바람직하다. 또한 공정 ID는 장치 ID와 조합하여 하나의 코드로 나타낼 수 있다. 일례로서 공정 ID가 성막 공정이고 장치 ID가 CVD1인 경우, 코드를 0011로 한다. 다만 부여하는 코드는 고유 번호(unique number)로서 관리한다. 또한 각 장치에 설정되는 조건은 복수의 설정 항목을 가진다. 또한 도 2의 (B)에서의 j, k, m, n, p, r, s, t, u, 및 v는 1 이상의 정수이다.The device ID used in the process can be set as follows. For example, film forming process: CVD1, cleaning process: WAS1, resist application process: REG1, exposure process: PAT1, developing process: DEV1, machining process 1: ETC1, machining process 2: CMP1, baking process: OVN1, peeling process: PER1, doping process: set as DOP1 and the like. It is preferable that the process ID is always managed in association with the device ID. In addition, the process ID can be combined with the device ID to represent a single code. As an example, when the process ID is a film forming process and the apparatus ID is CVD1, the code is 0011. However, the given code is managed as a unique number. In addition, the condition set in each device has a plurality of setting items. In addition, j, k, m, n, p, r, s, t, u, and v in FIG. 2B are integers of 1 or more.

도 2의 (C)는 공정 항목이 같아도 사용되는 장치가 다르면 코드가 변경되는 것을 설명하는 표이다. 일례로서, 공정 ID가 모두 성막 공정으로 같아도, 성막에 CVD법을 이용하는 장치인 경우와, 성막에 스퍼터링법(장치 ID: SPT1)을 이용하는 장치인 경우가 있다. 또한 CVD법을 이용하는 경우에도, 플라스마를 사용하여 성막하는 장치(장치 ID: CVD1)인 경우와, 열을 사용하여 성막하는 장치(장치 ID: CVD2)인 경우 등이 있다. 또한 다른 예로서, 복수의 같은 장치를 가지는 경우에, 각 장치에 상이한 코드를 사용하여도 좋다. 일례로서, 공장에서는 플라스마를 사용하여 성막하는 장치를 복수로 가지는 경우에, 같은 기능을 가지는 장치이어도 성막되는 막의 막질이 다른 경우가 있으므로, 호기 관리(management of the unit numbers)가 필요하게 된다. 예를 들어 트랜지스터의 전기 특성은 공정 리스트의 장치 ID에 영향을 받는 경우가 있다.FIG. 2C is a table for explaining that the code is changed when the equipment used is different even if the process items are the same. As an example, even if the process IDs are all the same in the film forming process, there are cases where the apparatus uses the CVD method for film formation and the apparatus uses the sputtering method (device ID: SPT1) for film formation. Also in the case of using the CVD method, there are a case of an apparatus that forms a film using plasma (device ID: CVD1), a case of an apparatus that forms a film using heat (device ID: CVD2), and the like. Also, as another example, in the case of having a plurality of identical devices, different codes may be used for each device. As an example, when a factory has a plurality of apparatuses for forming a film using plasma, even if the apparatus has the same function, the film quality of the film formed may be different, so management of the unit numbers is required. For example, the electrical characteristics of a transistor are sometimes affected by the device ID in the process list.

도 2의 (D)는 학습 모델(210)에 주어지는 공정 리스트에 포함되는 공정 항목을 설명하는 표이다. 일례로서 성막 공정을 나타내는 코드: 0011에 대하여 설명한다. 코드: 0011은 공정 ID: 성막 공정, 장치 ID: CVD1을 뜻한다. 또한 도 2의 (C)에서 나타낸 바와 같이, 코드: 0011에 주어진 성막의 조건은, 막 두께, 온도, 압력, 전력, 기체 1, 및 기체 1의 유량 등이다. 자세히 설명하면, 코드: 0011에 주어진 성막의 조건은, 막 두께: 5nm, 온도: 500℃, 압력: 200Pa, 전력: 150W, 기체 1: SiH, 및 기체 1의 유량: 2000sccm이다. 또한 공정 항목으로서는 장치마다 다른 조건을 설정할 수 있는 것이 바람직하다.FIG. 2D is a table for explaining process items included in the process list given to the learning model 210 . As an example, code: 0011 indicating the film forming process will be described. Code: 0011 means process ID: film-forming process, device ID: CVD1. Also, as shown in FIG. 2C , the film-forming conditions given in code: 0011 are film thickness, temperature, pressure, electric power, gas 1, and flow rate of gas 1, and the like. More specifically, the film formation conditions given in Code: 0011 are: film thickness: 5 nm, temperature: 500°C, pressure: 200 Pa, electric power: 150 W, gas 1: SiH, and flow rate of gas 1: 2000 sccm. Moreover, it is preferable that different conditions can be set for each apparatus as a process item.

도 3의 (A) 및 (B)는 공정 리스트의 일부를 설명하는 도면이다. 도 3의 (C)는 공정 리스트를 학습하는 신경망을 설명하는 도면이다.3A and 3B are diagrams for explaining a part of the process list. 3C is a diagram for explaining a neural network for learning a process list.

일례로서 성막 공정에 의하여 형성된 막을 가공하는 공정에 대하여 도 3의 (A)에 나타낸 공정 리스트의 일부를 사용하여 설명한다. 먼저, 성막 공정에 의하여 지정된 막을 형성한다. 성막 조건 등은 설명을 쉽게 하기 위하여 기재를 생략한다. 또한 성막 공정에서 사용되는 장치는 코드: 0011에 기초하여 장치 ID: CVD1로 한다. 또한 이후에서 설명하는 공정에서는 도면(도 2의 (B) 등)을 참조하는 것으로, 각 공정의 각 조건에 대해서는 설명을 생략한다.As an example, the process of processing the film formed by the film-forming process is demonstrated using a part of the process list shown in FIG.3(A). First, a film designated by the film forming process is formed. Description of the film-forming conditions and the like is omitted for ease of explanation. In addition, the apparatus used in the film-forming process is set to apparatus ID: CVD1 based on code: 0011. In addition, in the process to be described later, the drawings (FIG. 2B, etc.) are referred to, and description of each condition of each process is omitted.

다음으로 레지스트 도포 공정에서는, 형성된 상기 막 위에 포토레지스트가 도포된다. 다음으로 노광 공정에서는, 상기 막의 마스크 패턴이 포토레지스트로 전사(轉寫)된다. 다음으로 현상 공정에서는, 전사된 마스크 패턴 이외의 포토레지스트를 현상액을 사용하여 제거하여, 포토레지스트의 마스크 패턴을 형성한다. 또한 현상 공정에는 포토레지스트를 소성(燒成)하는 공정이 포함되어도 좋다. 다음으로 가공 공정 1에서는, 포토레지스트에 형성되는 마스크 패턴을 사용하여 상기 막을 가공한다. 다음으로 박리 공정에서는, 포토레지스트를 박리한다.Next, in a resist application process, a photoresist is apply|coated on the said film|membrane formed. Next, in the exposure step, the mask pattern of the film is transferred to the photoresist. Next, in the developing step, the photoresist other than the transferred mask pattern is removed using a developer to form a photoresist mask pattern. Moreover, the process of baking a photoresist may be included in the developing process. Next, in the processing step 1, the film is processed using the mask pattern formed on the photoresist. Next, in a peeling process, a photoresist is peeled.

도 3의 (B)에서는 도 3의 (A)와는 달리, 성막 공정 후에 세정 공정이 추가되고, 박리 공정 후에 베이킹 공정이 추가되어 있다. 일례로서 성막 공정 후에 세정 공정이 추가됨으로써, 형성된 상기 막 위에 잔류한 불순물이 제거되거나, 또는 상기 막의 상부 형성면의 요철이 균일하게 된다. 또한 박리 공정 후에 베이킹 공정이 추가됨으로써, 가공되는 상기 막 위에 잔류한 불순물(유기 용제 또는 수분 등)이 제거되거나, 또는 상기 막이 베이킹됨으로써 막 중에 포함되는 원소의 반응이 촉진되어 막질을 바꿀 수 있다. 또한 상기 막이 베이킹됨으로써 막의 밀도가 높아져, 막질을 굳게 할 수 있다.In FIG.3(B), unlike FIG.3(A), the washing|cleaning process is added after the film-forming process, and the baking process is added after the peeling process. As an example, by adding a cleaning process after the film forming process, impurities remaining on the formed film are removed, or the unevenness of the upper formation surface of the film is made uniform. In addition, by adding a baking process after the peeling process, impurities (such as an organic solvent or moisture) remaining on the film to be processed are removed, or when the film is baked, the reaction of elements contained in the film is accelerated and the film quality can be changed. In addition, when the film is baked, the density of the film increases and the film quality can be hardened.

도 3의 (B)에서는 도 3의 (A)에 없는 공정이 추가되어 있으므로, 성막 공정에서 형성되는 막은 상이한 특성을 가지게 된다. 따라서 공정 리스트는, 공정 리스트에 따라 생성된 트랜지스터의 전기 특성에 영향을 준다.In FIG. 3B , since a process not shown in FIG. 3A is added, the film formed in the film forming process has different characteristics. Accordingly, the process list affects the electrical characteristics of transistors produced according to the process list.

도 3의 (C)는 공정 리스트를 학습 데이터로서 학습하는 학습 모델(210)을 설명하는 도면이다. 학습 모델(210)은 신경망(211)과 신경망(212)을 가진다.3C is a diagram for explaining the learning model 210 for learning the process list as learning data. The learning model 210 has a neural network 211 and a neural network 212 .

신경망(211)에는 공정 리스트에 따라 공정 항목이 공정 순서대로 주어진다. 공정 항목은 도 2의 (D)에 나타낸 바와 같이, 공정 및 공정에서 사용되는 장치명이 하나의 코드로 나타내어진다. 각 코드에는 사용되는 장치에 설정되는 복수의 조건이 주어진다. 각 조건은, 숫자 또는 숫자에 단위가 부여된 형태로 주어진다. 또한 신경망(211)에는 복수의 공정 항목이 공정 순서대로 기재된 파일이 주어져도 좋다.The neural network 211 is provided with process items in order of process according to the process list. As shown in (D) of FIG. 2, process items are indicated by a single code for the process and the device name used in the process. Each code is given a plurality of conditions set on the device being used. Each condition is given in the form of a number or a number assigned a unit. In addition, the neural network 211 may be given a file in which a plurality of process items are described in process order.

일례로서 신경망(211)은 Word2Vec(W2V)를 이용하여 공정 항목을 벡터화하는 것이 바람직하다. 또한 텍스트 데이터를 벡터화하는 데에는 Word2VecGloVe(Global Vectors for Word Representation), Bag-of-words 등을 이용할 수 있다. 텍스트 데이터를 벡터화한다란, 분산 표현으로 변환한다고 바꿔 말할 수 있다. 또한 분산 표현은 임베딩 표현(특징 벡터 또는 임베딩 벡터)로 바꿔 말할 수 있다.As an example, it is preferable that the neural network 211 vectorize the process items using Word2Vec (W2V). Also, Word2VecGloVe (Global Vectors for Word Representation) and Bag-of-words can be used to vectorize text data. Vectorizing text data can be said in other words to transform it into a distributed representation. A variance representation can also be translated into an embedding representation (feature vector or embedding vector).

본 발명의 일 형태에서는 공정 항목의 조건을 문장이 아니라 단어의 집합으로서 취급한다. 따라서 공정 리스트는 단어의 집합으로서 취급하는 것이 바람직하다. 일례로서 신경망(211)은 입력층(211a), 은닉층(211b), 및 은닉층(211c)을 가진다. 신경망(211)은 공정 리스트로부터 생성되는 특징 벡터를 출력한다. 또한 상기 특징 벡터는 복수 출력할 수 있고, 또는 하나로 집약하여도 좋다. 이후에서는, 신경망(211)이 특징 벡터를 복수 출력하는 경우에 대하여 설명한다. 또한 은닉층은 1층 또는 복수 층일 수 있다.In one embodiment of the present invention, the condition of the process item is treated not as a sentence but as a set of words. Therefore, it is preferable to treat the process list as a set of words. As an example, the neural network 211 has an input layer 211a, a hidden layer 211b, and a hidden layer 211c. The neural network 211 outputs a feature vector generated from the process list. In addition, a plurality of the feature vectors may be output, or they may be aggregated into one. Hereinafter, a case in which the neural network 211 outputs a plurality of feature vectors will be described. In addition, the hidden layer may be a single layer or a plurality of layers.

다음으로 신경망(212)에는 신경망(211)에 의하여 생성된 복수의 특징 벡터가 주어진다. 신경망(212)으로서는 DAN(Deep Averageing Network)을 이용하는 것이 바람직하다. 일례로서 신경망(212)은 AGGREGATE 계층(212a), 완전 연결 계층(212b), 및 완전 연결 계층(212c)을 가진다. AGGREGATE 계층(212a)은 신경망(211)이 출력하는 복수의 특징 벡터를 통틀어 취급할 수 있다.Next, the neural network 212 is given a plurality of feature vectors generated by the neural network 211 . As the neural network 212, it is preferable to use a deep averaging network (DAN). As an example, the neural network 212 has an AGGREGATE layer 212a, a fully connected layer 212b, and a fully connected layer 212c. The AGGREGATE layer 212a may treat a plurality of feature vectors output by the neural network 211 as a whole.

완전 연결 계층(212b) 및 완전 연결 계층(212c)은 활성화 함수로서 시그모이드 함수, 계단 함수, 또는 램프 함수(Rectifield Linear Unit) 등을 가지는 것이 바람직하다. 비선형 활성화 함수는 복잡한 학습 데이터를 특징 벡터화하는 데에 유효하다. 따라서 신경망(212)은 공정 리스트를 구성하는 공정 항목의 특징 벡터를 평균화하여 하나의 특징 벡터로 집약할 수 있다. 집약된 특징 벡터는 학습 모델(230)에 주어진다. 또한 완전 연결 계층은 1층 또는 복수 층인 경우가 있다.The fully connected layer 212b and the fully connected layer 212c preferably have a sigmoid function, a step function, or a ramp function (Rectifield Linear Unit) as activation functions. Nonlinear activation functions are effective for feature vectorizing complex training data. Therefore, the neural network 212 may average the feature vectors of process items constituting the process list and aggregate them into one feature vector. The aggregated feature vector is given to the learning model 230 . Also, the fully connected layer may be one or multiple layers.

도 4의 (A) 또는 (B)는 학습 모델(210)이 학습에 사용한 공정 리스트에 따라 생성된 트랜지스터의 전기 특성을 설명하는 도면이다. 도 4의 (C)는 트랜지스터의 전기 특성을 학습하는 신경망을 설명하는 도면이다.4(A) or (B) is a diagram for explaining electrical characteristics of a transistor generated according to a process list used by the learning model 210 for learning. FIG. 4C is a diagram for explaining a neural network for learning electrical characteristics of a transistor.

도 4의 (A)는 트랜지스터의 포화 특성을 평가하기 위하여 사용되는 Id-Vds 특성을 나타낸 도면이다. Id-Vds 특성은 트랜지스터의 게이트 단자, 드레인 단자, 및 소스 단자에 전압이 인가되었을 때의 드레인 단자에 흐르는 전류를 나타낸다. 즉 Id-Vds 특성은 트랜지스터의 드레인 단자에 인가되는 전압이 변경되었을 때의 드레인 전류의 값 Id이다. 도 4의 (A)는, 트랜지스터의 게이트 단자에 고정 전위를 인가한 경우에 있어서, 트랜지스터의 드레인 단자에 전위 A1 내지 전위 A10을 인가하였을 때의 드레인 전류 Id를 플롯한 도면이다.4A is a view showing Id-Vds characteristics used to evaluate the saturation characteristics of a transistor. The Id-Vds characteristic represents the current flowing in the drain terminal when a voltage is applied to the gate terminal, the drain terminal, and the source terminal of the transistor. That is, the Id-Vds characteristic is the value Id of the drain current when the voltage applied to the drain terminal of the transistor is changed. 4A is a diagram plotting drain current Id when potentials A1 to A10 are applied to the drain terminal of the transistor when a fixed potential is applied to the gate terminal of the transistor.

도 4의 (B)는 트랜지스터의 선형 특성을 평가하기 위하여 사용되는 Id-Vgs 특성을 나타낸 도면이다. Id-Vgs 특성은 트랜지스터의 게이트 단자, 드레인 단자, 및 소스 단자에 전압이 인가되었을 때의 드레인 단자에 흐르는 전류를 나타낸다. 즉 Id-Vgs 특성은 트랜지스터의 게이트 단자에 인가되는 전압이 변경되었을 때의 드레인 전류의 값 Id이다. 도 4의 (B)는, 트랜지스터의 드레인 단자에 고정 전위를 인가한 경우에 있어서, 트랜지스터의 게이트 단자에 전위 A1 내지 전위 A10을 인가하였을 때의 드레인 전류 Id를 플롯한 도면이다.4B is a diagram illustrating Id-Vgs characteristics used to evaluate the linear characteristics of a transistor. The Id-Vgs characteristic indicates the current flowing through the drain terminal when a voltage is applied to the gate terminal, the drain terminal, and the source terminal of the transistor. That is, the Id-Vgs characteristic is the value Id of the drain current when the voltage applied to the gate terminal of the transistor is changed. FIG. 4B is a diagram plotting the drain current Id when potentials A1 to A10 are applied to the gate terminal of the transistor when a fixed potential is applied to the drain terminal of the transistor.

도 4의 (C)는 도 4의 (A) 또는 (B)의 데이터를 사용하여 트랜지스터의 전기 특성을 학습하는 신경망(221)을 설명하는 도면이다. 일례로서 신경망(221)은 입력층에, 트랜지스터의 드레인 단자에 인가되는 전압 Vd, 트랜지스터의 게이트 단자에 인가되는 전압 Vg, 및 트랜지스터의 소스 단자에 인가되는 전압 Vs가 주어진다. 또한 상술한 조건인 경우에는 트랜지스터의 드레인 단자에 흐르는 전류 Id가 주어져도 좋다.FIG. 4C is a diagram for explaining the neural network 221 for learning the electrical characteristics of a transistor using the data of FIG. 4A or 4B. As an example, the neural network 221 is given an input layer with a voltage Vd applied to the drain terminal of the transistor, a voltage Vg applied to the gate terminal of the transistor, and a voltage Vs applied to the source terminal of the transistor. In the case of the above-mentioned conditions, the current Id flowing through the drain terminal of the transistor may be given.

일례로서 신경망(221)에서는, 입력층이 뉴런 X1 내지 뉴런 X4를 가지고, 은닉층이 뉴런 Y1 내지 뉴런 Y10을 가지고, 출력층이 뉴런 Z1을 가진다. 뉴런 Z1은 전기 특성을 특징 벡터화하고, 활성화 함수(222)는 예측치를 출력한다. 은닉층이 가지는 뉴런의 개수는 학습 데이터로서 주어지는 플롯 수와 같은 것이 바람직하다. 또는 은닉층이 가지는 뉴런의 개수는 학습 데이터로서 주어지는 플롯 수보다 많은 것이 더 바람직하다. 은닉층이 가지는 뉴런의 개수가 학습 데이터로서 주어지는 플롯 수보다 많은 경우, 학습 모델(220)은 트랜지스터의 전기 특성을 자세히 학습한다. 또한 뉴런 Z1은 활성화 함수(222)의 기능을 가진다.In the neural network 221 as an example, the input layer has neurons X1 to neurons X4, the hidden layer has neurons Y1 to neurons Y10, and the output layer has neurons Z1. Neuron Z1 features vectorized electrical properties, and an activation function 222 outputs a predicted value. The number of neurons in the hidden layer is preferably the same as the number of plots given as training data. Alternatively, it is more preferable that the number of neurons in the hidden layer is larger than the number of plots given as training data. When the number of neurons in the hidden layer is greater than the number of plots given as training data, the learning model 220 learns the electrical characteristics of the transistor in detail. Neuron Z1 also has the function of an activation function 222 .

일례로서 신경망(221)이 트랜지스터의 전기 특성을 학습하는 방법에 대하여 설명한다. 우선, 뉴런 X1에는 트랜지스터의 드레인 단자에 인가되는 전압 Vd가 주어지고, 뉴런 X2에는 트랜지스터의 게이트 단자에 인가되는 전압 Vg가 주어지고, 뉴런 X3에는 트랜지스터의 소스 단자에 인가되는 전압 Vs가 주어지고, 뉴런 X4에는 트랜지스터의 드레인 단자에 흐르는 드레인 전류 Id가 주어진다. 이때 드레인 전류 Id는 훈련 데이터로서 주어진다. 뉴런 Z1의 출력 또는 활성화 함수(222)의 출력이 드레인 전류 Id에 가까워지도록 은닉층의 가중치 계수가 경신된다. 또한 학습 데이터로서 드레인 전류 Id가 주어지지 않는 경우에는 뉴런 Z1의 출력 또는 활성화 함수(222)의 출력이 드레인 전류 Id에 가까워지도록 학습을 한다.As an example, a method in which the neural network 221 learns the electrical characteristics of the transistor will be described. First, neuron X1 is given a voltage Vd applied to the drain terminal of the transistor, neuron X2 is given a voltage Vg applied to the gate terminal of the transistor, neuron X3 is given a voltage Vs applied to the source terminal of the transistor, Neuron X4 is given a drain current Id flowing through the drain terminal of the transistor. At this time, the drain current Id is given as training data. The weighting coefficient of the hidden layer is updated so that the output of the neuron Z1 or the output of the activation function 222 approaches the drain current Id. In addition, when the drain current Id is not given as the learning data, learning is performed so that the output of the neuron Z1 or the output of the activation function 222 approaches the drain current Id.

또한 도 4의 (C)에서는 트랜지스터의 전기 특성이 플롯점에 따라 순차적으로 주어지는 예에 대하여 설명하였지만, 모든 플롯점이 동시에 신경망(221)에 주어져도 좋다. 이로써 신경망(221)은 연산을 고속으로 처리할 수 있게 되므로, 반도체 소자의 개발 기간 단축에 효과가 있다.In addition, although the example in which the electrical characteristics of a transistor are given sequentially according to a plot point has been described in FIG. 4(C), all plot points may be given to the neural network 221 at the same time. As a result, the neural network 221 can process calculations at high speed, which is effective in shortening the development period of the semiconductor device.

또한 학습 모델(220)은 학습 모델(210)과 병행하여 학습을 하는 것이 바람직하다. 학습 모델(210)에 주어지는 공정 리스트는 학습 모델(220)에 주어지는 전기 특성과 관련성이 높다. 따라서 트랜지스터의 전기 특성을 예측하기 위한 학습에 있어서는 학습 모델(220)과 학습 모델(210)이 병행하여 학습을 하는 것이 효과적이다.In addition, it is preferable that the learning model 220 learns in parallel with the learning model 210 . The process list given to the learning model 210 is highly related to the electrical characteristics given to the learning model 220 . Therefore, in learning to predict the electrical characteristics of the transistor, it is effective to learn the learning model 220 and the learning model 210 in parallel.

다음으로 특성 예측부(120)에 대하여 설명한다. 특성 예측부(120)에 대해서는 도 1을 원용하여 설명한다. 특성 예측부(120)는 학습 모델(230)을 가진다. 학습 모델(230)은 연결 계층(231), 완전 연결 계층(232), 및 완전 연결 계층(233)을 가지는 신경망이다. 또한 완전 연결 계층은 1층 또는 복수 층인 경우가 있다. 연결 계층(231)은 상이한 학습 모델들(학습 모델(210), 학습 모델(220))이 출력하는 특징 벡터를 연결하고, 또한 연결한 특징 벡터를 하나의 특징 벡터로 한다. 즉 연결 계층(231)을 제공함으로써 특성 예측부(120)는 멀티모달 인터페이스를 포함하는 신경망으로서 기능한다.Next, the characteristic prediction unit 120 will be described. The characteristic prediction unit 120 will be described with reference to FIG. 1 . The characteristic predictor 120 has a learning model 230 . The learning model 230 is a neural network having a connected layer 231 , a fully connected layer 232 , and a fully connected layer 233 . Also, the fully connected layer may be one or multiple layers. The connection layer 231 connects feature vectors output by different learning models (learning model 210, learning model 220), and uses the connected feature vector as one feature vector. That is, by providing the connection layer 231 , the characteristic prediction unit 120 functions as a neural network including a multimodal interface.

완전 연결 계층(233)은 출력 단자(OUT_1) 내지 출력 단자(OUT_w)에 전기 특성의 예측치를 출력한다. 또한 본 발명의 일 형태에 있어서, 출력인 전기 특성의 예측치로서는 상기 식(1) 또는 식(2)에서의 전계 효과 이동도 μFE, 게이트 절연막의 단위 면적 용량 Cox, 채널 길이 L, 채널 폭 W, 또는 문턱 전압 Vth 등이 상당한다. 또한 드레인 전압 Vd 또는 게이트 전압 Vg 등을 출력하는 것이 바람직하다. 또한 트랜지스터의 전기 특성으로부터 산출한 각 변수의 값이 훈련 데이터로서 연결 계층(231)에 주어져도 좋다. 학습 모델(230)은 훈련 데이터가 주어짐으로써 가중치 계수를 경신한다.The fully connected layer 233 outputs predicted values of electrical characteristics to the output terminals OUT_1 to OUT_w. Further, in one embodiment of the present invention, as the predicted value of the electrical characteristic as the output, the field effect mobility μFE in the above formula (1) or (2), the unit area capacitance of the gate insulating film Cox, the channel length L, the channel width W, Alternatively, the threshold voltage Vth or the like is significant. It is also preferable to output a drain voltage Vd or a gate voltage Vg or the like. In addition, the value of each variable calculated from the electrical characteristics of the transistor may be given to the connection layer 231 as training data. The learning model 230 updates the weight coefficients given the training data.

도 5는 도 1과는 다른 반도체 소자의 전기 특성 예측 방법에 대하여 설명하는 도면이다. 도 5에서는 특징량 산출부(110A)가 제공되어 있다. 특징량 추출부(110A)는 학습 모델(240)을 가지는 점이 도 1에 나타낸 특징량 산출부(110)와 상이하다. 학습 모델(240)은 화상 데이터를 학습하는 신경망이다. 또한 학습 모델(240)이 학습하는 화상 데이터는 공정 리스트에 따라 형성되는 트랜지스터의 단면 모식도 또는 주사형 전자 현미경(SEM)을 이용하여 얻어진 단면 관찰 이미지 등이다.FIG. 5 is a view for explaining a method of predicting electrical characteristics of a semiconductor device different from that of FIG. 1 . In Fig. 5, the feature amount calculating unit 110A is provided. The feature-quantity extracting unit 110A is different from the feature-quantity calculating unit 110 shown in FIG. 1 in that it has a learning model 240 . The learning model 240 is a neural network that learns image data. In addition, the image data that the learning model 240 learns is a cross-sectional schematic diagram of a transistor formed according to a process list, a cross-sectional observation image obtained using a scanning electron microscope (SEM), or the like.

또한 특성 예측부(120)가 가지는 연결 계층(231A)은 공정 리스트로부터 생성되는 특징 벡터와, 공정 리스트에 따라 생성된 트랜지스터의 전기 특성으로부터 생성되는 특징 벡터와, 단면 모식도 또는 실제의 소자의 단면 관찰 이미지로부터 생성한 특징 벡터를 연결하여, 완전 연결 계층(232)에 주어지는 출력 데이터를 생성한다.In addition, the connection layer 231A of the characteristic prediction unit 120 includes a feature vector generated from the process list, a feature vector generated from electrical characteristics of a transistor generated according to the process list, and a schematic cross-sectional diagram or cross-sectional observation of an actual device. By concatenating the feature vectors generated from the image, output data given to the fully connected layer 232 is generated.

도 6의 (A)는 학습 모델(240)을 자세히 설명하는 도면이다. 학습 모델(240)은 합성곱 신경망(241) 및 완전 연결 계층(242)을 가진다. 합성곱 신경망(241)은 합성곱 계층(241a) 내지 합성곱 계층(241e)을 가진다. 합성곱 계층의 개수는 한정되지 않고, 1 이상의 정수이면 좋다. 또한 도 6의 (A)에서는 일례로서 5층의 합성곱 계층을 가지는 경우를 나타내었다. 완전 연결 계층(242)은 완전 연결 계층(242a) 내지 완전 연결 계층(242c)을 가진다. 따라서 학습 모델(240)은 CNN(Convolutional Neural Network)이라고 부를 수 있다.6A is a diagram for explaining the learning model 240 in detail. The learning model 240 has a convolutional neural network 241 and a fully connected layer 242 . The convolutional neural network 241 has a convolutional layer 241a to a convolutional layer 241e. The number of convolutional layers is not limited, and may be an integer of 1 or more. Also, in FIG. 6A , as an example, a case having five convolutional layers is shown. The fully connected layer 242 has a fully connected layer 242a to a fully connected layer 242c. Therefore, the learning model 240 may be called a Convolutional Neural Network (CNN).

특징량 산출부(110A)가 학습 모델(240)을 가짐으로써, 상이한 3개의 특징 벡터를 사용한 반도체 소자의 전기 특성의 예측이 용이하게 된다. 학습시키는 화상 데이터의 일례로서 도 6의 (B)에는, 학습 모델(210)에 주어지는 공정 리스트에 따라 생성되는 트랜지스터의 단면 모식도를 나타내었다. 또한 도 6의 (C)에는, 학습 모델(210)에 주어지는 공정 리스트에 따라 생성되는 트랜지스터의 단면 관찰 이미지를 나타내었다. 또한 트랜지스터의 단면 모식도를 학습하는 학습 모델(240)로서는, 트랜지스터의 단면 관찰 이미지를 학습하는 학습 모델과 다른 학습 모델을 사용하여도 좋다.When the feature-quantity calculator 110A has the learning model 240 , prediction of the electrical characteristics of the semiconductor device using three different feature vectors becomes easy. As an example of image data to be trained, in FIG. 6B , a schematic cross-sectional diagram of a transistor generated according to a process list given to the learning model 210 is shown. Also, in FIG. 6C , a cross-sectional observation image of a transistor generated according to a process list given to the learning model 210 is shown. In addition, as the learning model 240 for learning the cross-sectional schematic diagram of the transistor, a learning model different from the learning model for learning the cross-sectional observation image of the transistor may be used.

일례로서 도 6의 (B)에서는 반도체층, 게이트 산화막, 및 게이트 전극을 나타내고, 도 6의 (C)에서는 도 6의 (C)에 대응하는 반도체층, 게이트 산화막, 및 게이트 전극을 나타내었다. 트랜지스터의 게이트 산화막 등은 박막이기 때문에, 단면 관찰 이미지에서는 인식하기가 어려운 경우가 있다. 그러나, 오검출되기 쉬운 박막도 단면 모식도에서는 인식할 수 있게 기재되어 있는 경우가 있다. 따라서 단면 모식도를 학습함으로써 단면 관찰 이미지를 더 정확하게 학습할 수 있다. 따라서 공정 리스트는 트랜지스터의 전기 특성 및 실제의 단면 관찰 이미지와의 관련성이 향상된다. 따라서 반도체 소자의 전기 특성의 예측이 용이하게 된다.As an example, FIG. 6B shows a semiconductor layer, a gate oxide film, and a gate electrode, and FIG. 6C shows a semiconductor layer, a gate oxide film, and a gate electrode corresponding to FIG. 6C. Since the gate oxide film of a transistor is a thin film, it may be difficult to recognize in a cross-sectional observation image. However, there are cases where the thin film, which is easily misdetected, is also described so as to be recognizable in the schematic cross-sectional diagram. Therefore, by learning the cross-sectional schematic diagram, the cross-sectional observation image can be learned more accurately. Accordingly, the process list is improved in relation to the electrical characteristics of the transistor and the actual cross-sectional observation image. Accordingly, the prediction of the electrical characteristics of the semiconductor device becomes easy.

도 6의 (B) 및 (C)에는 반도체층에 금속 산화물을 가지는 트랜지스터의 예를 나타내었다. 다만 본 발명의 일 형태인 반도체 소자의 전기 특성 예측 방법은 반도체층에 실리콘을 포함하는 트랜지스터에도 적용할 수 있다. 또는 화합물 반도체 또는 산화물 반도체를 포함하는 트랜지스터에도 적용할 수 있다. 또한 상기 반도체 소자는 트랜지스터에 한정되지 않는다. 본 발명의 일 형태인 반도체 소자의 전기 특성 예측 방법은 저항 소자, 용량 소자, 다이오드, 서미스터, 자이로 센서, 가속도 센서, 발광 소자, 또는 수광 소자 등에도 적용할 수 있다.6B and 6C show examples of transistors having a metal oxide in a semiconductor layer. However, the method for predicting electrical characteristics of a semiconductor device according to one embodiment of the present invention can be applied to a transistor including silicon in a semiconductor layer. Alternatively, it may be applied to a transistor including a compound semiconductor or an oxide semiconductor. Also, the semiconductor device is not limited to a transistor. The method for predicting electrical characteristics of a semiconductor device according to one embodiment of the present invention can also be applied to a resistive device, a capacitive device, a diode, a thermistor, a gyro sensor, an acceleration sensor, a light emitting device, or a light receiving device.

도 7은 도 1과는 다른 반도체 소자의 전기 특성 예측 방법에 대하여 설명하는 도면이다. 도 7에서는 특징량 산출부(110B)가 제공되어 있다. 특징량 산출부(110B)는 학습 모델(210)의 출력이 신경망(221)의 가중치 계수를 경신하는 점이 상이하다. 신경망(221)의 가중치 계수에 공정 리스트의 특징 벡터를 반영시킴으로써, 신경망(221)은 트랜지스터의 전기 특성의 예측을 향상시킬 수 있다.FIG. 7 is a view for explaining a method of predicting electrical characteristics of a semiconductor device different from that of FIG. 1 . In FIG. 7 , the feature amount calculating unit 110B is provided. The feature-quantity calculator 110B is different in that the output of the learning model 210 updates the weight coefficient of the neural network 221 . By reflecting the feature vector of the process list in the weight coefficient of the neural network 221 , the neural network 221 may improve the prediction of the electrical characteristics of the transistor.

도 7에서는 반도체 소자의 전기 특성 예측 방법을 사용한 트랜지스터의 전기 특성 예측 방법을 설명한다. 또한 트랜지스터의 전기 특성의 예측을 하는 경우에는 학습 모델(210), 학습 모델(220), 및 학습 모델(230)의 학습이 완료되어 있는 것이 바람직하다. 우선 신경망(211)에는 추론 데이터 1로서, 새로운 구성의 공정 리스트가 주어진다. 또한 신경망(221)에는 추론 데이터 2로서, 트랜지스터의 드레인 단자에 인가되는 드레인 전압, 트랜지스터의 게이트 단자에 인가되는 게이트 전압, 트랜지스터의 소스 단자에 인가되는 소스 전압 등이 주어진다.In FIG. 7 , a method of predicting electrical characteristics of a transistor using a method of predicting electrical characteristics of a semiconductor device will be described. In addition, in the case of predicting the electrical characteristics of the transistor, it is preferable that the learning of the learning model 210 , the learning model 220 , and the learning model 230 is completed. First, the neural network 211 is given a process list of a new configuration as inference data 1 . In addition, the neural network 221 is given, as inference data 2, a drain voltage applied to the drain terminal of the transistor, a gate voltage applied to the gate terminal of the transistor, a source voltage applied to the source terminal of the transistor, and the like.

특성 예측부(120)는 추론 데이터 1에 의하여 생성되는 특징 벡터와 추론 데이터 2에 의하여 생성되는 특징 벡터를 사용하여, 상기 식(1) 또는 식(2)에서의 각 변수의 값을 예측한다. 또한 활성화 함수(222)는 추론 데이터 2에 기초하여 추론 결과 1을 출력할 수 있다. 추론 결과 1로서는 트랜지스터의 드레인 단자에 인가되는 드레인 전압, 트랜지스터의 게이트 단자에 인가되는 게이트 전압, 트랜지스터의 소스 단자에 인가되는 소스 전압 등으로부터 드레인 전류 Id를 예측할 수 있다.The feature prediction unit 120 predicts the value of each variable in Equation (1) or (2) by using the feature vector generated by the speculation data 1 and the feature vector generated by the speculation data 2 . Also, the activation function 222 may output a speculation result 1 based on the speculation data 2 . As the inference result 1, the drain current Id can be predicted from the drain voltage applied to the drain terminal of the transistor, the gate voltage applied to the gate terminal of the transistor, the source voltage applied to the source terminal of the transistor, and the like.

도 8은 도 5와는 다른 반도체 소자의 전기 특성 예측 방법에 대하여 설명하는 도면이다. 도 8에서는 특징량 산출부(110C)가 제공되어 있다. 특징량 산출부(110C)는 학습 모델(210)의 출력이 신경망(221)의 가중치 계수를 경신하는 점이 도 5에 나타낸 특징량 산출부(110A)와 상이하다.FIG. 8 is a view for explaining a method of predicting electrical characteristics of a semiconductor device different from that of FIG. 5 . In FIG. 8 , the feature amount calculating unit 110C is provided. The feature-quantity calculator 110C is different from the feature-quantity calculator 110A shown in FIG. 5 in that the output of the learning model 210 updates the weighting coefficient of the neural network 221 .

도 8에서는 반도체 소자의 전기 특성 예측 방법을 사용한 트랜지스터의 전기 특성 예측 방법을 설명한다. 또한 트랜지스터의 전기 특성의 예측을 하는 경우에는 학습 모델(210), 학습 모델(220), 학습 모델(230), 및 학습 모델(240)의 학습이 완료되어 있는 것이 바람직하다. 우선 신경망(211)에는 추론 데이터 1로서, 새로운 구성의 공정 리스트가 주어진다. 또한 신경망(221)에는 추론 데이터 2로서, 트랜지스터의 드레인 단자에 인가되는 드레인 전압, 트랜지스터의 게이트 단자에 인가되는 게이트 전압, 트랜지스터의 소스 단자에 인가되는 소스 전압 등이 주어진다. 또한 신경망(241)에는 추론 데이터 3으로서, 새로운 구성의 단면 모식도 또는 단면 관찰 이미지가 주어진다.In FIG. 8 , a method of predicting electrical characteristics of a transistor using a method of predicting electrical characteristics of a semiconductor device will be described. In addition, in the case of predicting the electrical characteristics of the transistor, it is preferable that learning of the learning model 210 , the learning model 220 , the learning model 230 , and the learning model 240 is completed. First, the neural network 211 is given a process list of a new configuration as inference data 1 . In addition, the neural network 221 is given, as inference data 2, a drain voltage applied to the drain terminal of the transistor, a gate voltage applied to the gate terminal of the transistor, a source voltage applied to the source terminal of the transistor, and the like. Also, the neural network 241 is given a cross-sectional schematic diagram or a cross-sectional observation image of a new configuration as inference data 3 .

특성 예측부(120)는 추론 데이터 1에 의하여 생성되는 특징 벡터와, 추론 데이터 2에 의하여 생성되는 특징 벡터와, 추론 데이터 3에 의하여 생성되는 특징 벡터를 사용하여, 상기 식(1) 또는 식(2)에서의 각 변수의 값을 예측한다. 또한 활성화 함수(222)는 추론 데이터 2에 기초하여 추론 결과 1을 출력할 수 있다. 추론 결과 1로서는 트랜지스터의 드레인 단자에 인가되는 드레인 전압, 트랜지스터의 게이트 단자에 인가되는 게이트 전압, 트랜지스터의 소스 단자에 인가되는 소스 전압 등으로부터 드레인 전류 Id를 예측할 수 있다.The feature prediction unit 120 uses the feature vector generated by the inference data 1, the feature vector generated by the inference data 2, and the feature vector generated by the inference data 3, using the above Equation (1) or Equation ( Predict the value of each variable in 2). Also, the activation function 222 may output a speculation result 1 based on the speculation data 2 . As the inference result 1, the drain current Id can be predicted from the drain voltage applied to the drain terminal of the transistor, the gate voltage applied to the gate terminal of the transistor, the source voltage applied to the source terminal of the transistor, and the like.

도 7 또는 도 8의 완전 연결 계층(233)은 출력 단자(OUT_1) 내지 출력 단자(OUT_w)에 전기 특성의 예측치를 출력한다. 일례로서 본 발명의 일 형태에 있어서, 상기 식(1) 또는 식(2)에서의 전계 효과 이동도 μFE, 게이트 절연막의 단위 면적 용량 Cox, 채널 길이 L, 채널 폭 W, 또는 문턱 전압 Vth 등이 상당한다.The fully connected layer 233 of FIG. 7 or 8 outputs predicted values of electrical characteristics to the output terminals OUT_1 to OUT_w. As an example, in one embodiment of the present invention, the field effect mobility μFE in the formula (1) or (2), the unit area capacitance Cox of the gate insulating film, the channel length L, the channel width W, or the threshold voltage Vth, etc. considerable

도 9는 프로그램을 동작시키는 컴퓨터를 설명하는 도면이다. 컴퓨터(10)는 네트워크(Network)를 통하여 데이터베이스(21), 원격 컴퓨터(remote computer)(22), 또는 원격 컴퓨터(23)를 접속한다. 컴퓨터(10)는 연산 장치(11), 메모리(12), 입출력 인터페이스(13), 통신 디바이스(14), 및 스토리지(15)를 가진다. 컴퓨터(10)는 입출력 인터페이스(13)를 통하여 표시 장치(16a) 및 키보드(16b)와 전기적으로 접속된다. 또한 컴퓨터(10)는 통신 디바이스(14)를 통하여 네트워크 인터페이스(17)와 전기적으로 접속되고, 네트워크 인터페이스(17)는 네트워크를 통하여 데이터베이스(21), 원격 컴퓨터(22), 원격 컴퓨터(23)와 전기적으로 접속된다.Fig. 9 is a diagram for explaining a computer operating a program. The computer 10 connects the database 21 , the remote computer 22 , or the remote computer 23 through a network. The computer 10 has an arithmetic unit 11 , a memory 12 , an input/output interface 13 , a communication device 14 , and a storage 15 . The computer 10 is electrically connected to the display device 16a and the keyboard 16b through the input/output interface 13 . In addition, the computer 10 is electrically connected to the network interface 17 through the communication device 14, and the network interface 17 is connected to the database 21, the remote computer 22, and the remote computer 23 through the network. electrically connected.

여기서 네트워크에는 로컬 영역 네트워크(LAN)나 인터넷이 포함된다. 또한 상기 네트워크에서는 유선 및 무선 중 어느 한쪽 또는 양쪽에 의한 통신을 이용할 수 있다. 또한 상기 네트워크에서 무선 통신을 이용하는 경우, Wi-Fi(등록 상표), Bluetooth(등록 상표) 등의 근거리 통신 수단 외에, 3세대 이동 통신 시스템(3G)에 준거한 통신 수단, LTE(3.9G라고 부르는 경우도 있음)에 준거한 통신 수단, 4세대 이동 통신 시스템(4G)에 준거한 통신 수단, 또는 5세대 이동 통신 시스템(5G)에 준거한 통신 수단 등의 다양한 통신 수단을 이용할 수 있다.Here, the network includes a local area network (LAN) or the Internet. In addition, in the above network, communication by any one or both of wired and wireless can be used. In addition, when wireless communication is used in the above network, in addition to short-distance communication means such as Wi-Fi (registered trademark) and Bluetooth (registered trademark), communication means conforming to the 3rd generation mobile communication system (3G), LTE (referred to as 3.9G) Various communication means, such as a communication means compliant with the 4th generation mobile communication system (4G), or a 5th generation mobile communication system (5G) compliant communication means, can be used.

본 발명의 일 형태인 반도체 소자의 전기 특성 예측 방법에서는 컴퓨터(10)를 이용하여 반도체 소자의 전기 특성을 예측한다. 컴퓨터(10)가 가지는 프로그램은 메모리(12) 또는 스토리지(15)에 저장되어 있다. 프로그램은 연산 장치(11)를 사용하여 학습 모델을 생성한다. 프로그램은 입출력 인터페이스(13)를 통하여 표시 장치에 표시될 수 있다. 사용자는 표시 장치(16a)에 표시된 프로그램에 대하여, 키보드로부터 공정 리스트, 전기 특성, 단면 모식도, 또는 단면 관찰 이미지 등의 학습용 데이터를 줄 수 있다. 표시 장치(16a)는 반도체 소자의 전기 특성 예측 방법에 의하여 예측되는 반도체 소자의 전기 특성을 숫자, 수학식, 또는 그래프로 변환하여 표시한다.In the method of predicting electrical characteristics of a semiconductor device according to one embodiment of the present invention, the electrical characteristics of the semiconductor device are predicted using the computer 10 . The program of the computer 10 is stored in the memory 12 or the storage 15 . The program uses the computing device 11 to create a learning model. The program may be displayed on the display device through the input/output interface 13 . With respect to the program displayed on the display device 16a, the user can provide learning data, such as a process list, electrical characteristics, cross-sectional schematic diagram, or cross-sectional observation image, from the keyboard. The display device 16a converts the electrical properties of the semiconductor device predicted by the method for predicting the electrical properties of the semiconductor device into numbers, equations, or graphs and displays them.

또한 상기 프로그램은 네트워크를 통하여 원격 컴퓨터(22) 또는 원격 컴퓨터(23)에서도 이용할 수 있다. 또는 데이터베이스(21), 원격 컴퓨터(22), 또는 원격 컴퓨터(23)가 가지는 메모리 또는 스토리지에 저장된 프로그램을 이용하여, 컴퓨터(10)로 동작시킬 수 있다. 원격 컴퓨터(22)는 휴대 정보 단말기, 태블릿 컴퓨터, 또는 노트북형 컴퓨터 등의 휴대 단말기이어도 좋다. 휴대 정보 단말기 또는 휴대 단말기 등의 경우에는 무선 통신을 이용하여 통신할 수 있다.Also, the program can be used on the remote computer 22 or the remote computer 23 through a network. Alternatively, the database 21 , the remote computer 22 , or a program stored in the memory or storage of the remote computer 23 may be used to operate the computer 10 . The remote computer 22 may be a portable terminal such as a portable information terminal, a tablet computer, or a notebook type computer. In the case of a portable information terminal or a portable terminal, communication may be performed using wireless communication.

따라서 본 발명의 일 형태는 컴퓨터를 이용한 반도체 소자의 전기 특성 예측 방법을 제공할 수 있다. 반도체 소자의 전기 특성 예측 방법에서는 학습 데이터로서 공정 리스트, 공정 리스트에 따라 생성된 반도체 소자의 전기 특성, 또는 공정 리스트에 따라 생성된 반도체 소자의 단면 모식도 또는 단면 관찰 이미지가 주어짐으로써 멀티모달 학습을 할 수 있다. 또한 반도체 소자의 전기 특성 예측 방법에서는 추론 데이터로서, 새로운 공정 리스트, 반도체 소자에 인가되는 전압의 조건, 단면 모식도, 또는 단면 관찰 이미지가 주어짐으로써 반도체 소자의 전기 특성 또는 전기 특성을 나타내는 식의 변수의 값을 예측할 수 있다. 일례로서 공정 리스트에 새로운 공정을 추가하였을 때, 트랜지스터의 전기 특성을 용이하게 예측할 수 있다. 따라서 본 발명의 일 형태인 반도체 소자의 전기 특성 예측 방법에 의하여, 반도체 소자의 개발에서의 확인용 실험을 줄일 수 있고, 또한 과거의 실험의 정보를 유효하게 활용할 수 있다.Accordingly, one embodiment of the present invention can provide a method for predicting electrical characteristics of a semiconductor device using a computer. In the method for predicting electrical characteristics of semiconductor devices, multi-modal learning is performed by giving a process list, electrical characteristics of a semiconductor device generated according to the process list, or a cross-sectional schematic diagram or cross-sectional observation image of a semiconductor device generated according to the process list as learning data. can In addition, in the method for predicting electrical characteristics of semiconductor devices, a new process list, conditions of voltage applied to the semiconductor device, cross-sectional schematic diagram, or cross-sectional observation image are given as inference data, thereby representing the electrical properties or electrical properties of the semiconductor device. value can be predicted. As an example, when a new process is added to the process list, the electrical characteristics of the transistor can be easily predicted. Therefore, according to the method for predicting electrical characteristics of a semiconductor device according to one embodiment of the present invention, it is possible to reduce the number of experiments for confirmation in the development of a semiconductor device, and to effectively utilize information from past experiments.

본 실시형태는 그 일부를 적절히 조합하여 실시할 수 있다.This embodiment can be implemented by combining a part of them suitably.

OUT_w: 출력 단자, OUT_1: 출력 단자, 10: 컴퓨터, 11: 연산 장치, 12: 메모리, 13: 입출력 인터페이스, 14: 통신 디바이스, 15: 스토리지, 16a: 표시 장치, 16b: 키보드, 17: 네트워크 인터페이스, 21: 데이터베이스, 22: 원격 컴퓨터(remote computer), 23: 원격 컴퓨터, 110: 특징량 산출부, 110A: 특징량 산출부, 110B: 특징량 산출부, 110C: 특징량 산출부, 120: 특성 예측부, 210: 학습 모델, 211: 신경망, 211a: 입력층, 211b: 은닉층, 211c: 은닉층, 212: 신경망, 212a: AGGREGATE 계층, 212b: 완전 연결 계층(fully connected layer), 212c: 완전 연결 계층, 220: 학습 모델, 221: 신경망, 230: 학습 모델, 231: 연결 계층(connected layer), 231A: 연결 계층, 232: 완전 연결 계층, 233: 완전 연결 계층, 240: 학습 모델, 241: 신경망, 241a: 합성곱 계층, 241e: 합성곱 계층, 242: 완전 연결 계층, 242a: 완전 연결 계층, 242c: 완전 연결 계층OUT_w: output terminal, OUT_1: output terminal, 10: computer, 11: arithmetic unit, 12: memory, 13: input/output interface, 14: communication device, 15: storage, 16a: display device, 16b: keyboard, 17: network interface , 21: database, 22: remote computer, 23: remote computer, 110: feature calculator, 110A: feature calculator, 110B: feature calculator, 110C: feature calculator, 120: feature Prediction unit, 210: learning model, 211: neural network, 211a: input layer, 211b: hidden layer, 211c: hidden layer, 212: neural network, 212a: AGGREGATE layer, 212b: fully connected layer, 212c: fully connected layer , 220: learning model, 221: neural network, 230: learning model, 231: connected layer, 231A: connected layer, 232: fully connected layer, 233: fully connected layer, 240: learning model, 241: neural network, 241a: convolutional layer, 241e: convolutional layer, 242: fully connected layer, 242a: fully connected layer, 242c: fully connected layer

Claims (7)

특징량 산출부와 특성 예측부를 가지는 반도체 소자의 전기 특성 예측 방법으로서,
상기 특징량 산출부는 제 1 학습 모델과 제 2 학습 모델을 가지고,
상기 특성 예측부는 제 3 학습 모델을 가지고,
상기 제 1 학습 모델이, 상기 반도체 소자를 생성하기 위한 공정 리스트를 학습하는 단계를 가지고,
상기 제 2 학습 모델이 상기 공정 리스트에 따라 생성되는 상기 반도체 소자의 전기 특성을 학습하는 단계를 가지고,
상기 제 1 학습 모델이 제 1 특징량을 생성하는 단계를 가지고,
상기 제 2 학습 모델이 제 2 특징량을 생성하는 단계를 가지고,
상기 제 3 학습 모델이 상기 제 1 특징량과 상기 제 2 특징량을 사용하여 멀티모달(multimodal) 학습을 하는 단계를 가지고,
상기 제 3 학습 모델이 상기 반도체 소자의 전기 특성을 나타내는 계산식에 이용되는 변수의 값을 출력하는 단계를 가지는, 반도체 소자의 전기 특성 예측 방법.
A method for predicting electrical characteristics of a semiconductor device having a feature calculating unit and a characteristic predicting unit, the method comprising:
The feature quantity calculation unit has a first learning model and a second learning model,
The characteristic prediction unit has a third learning model,
The first learning model has a step of learning a process list for producing the semiconductor device,
The second learning model has the step of learning the electrical characteristics of the semiconductor device generated according to the process list,
the first learning model generating a first feature quantity,
wherein the second learning model generates a second feature quantity,
and the third learning model performs multimodal learning using the first feature and the second feature,
and outputting, by the third learning model, a value of a variable used in a calculation expression representing the electrical characteristic of the semiconductor device.
제 1 항에 있어서,
상기 특징량 산출부는 제 4 학습 모델을 가지고,
상기 제 4 학습 모델이, 상기 공정 리스트를 사용하여 생성되는 단면 모식도를 학습하는 단계를 가지고,
상기 제 4 학습 모델이 제 3 특징량을 생성하는 단계를 가지고,
상기 제 3 학습 모델이 상기 제 1 특징량과, 상기 제 2 특징량과, 상기 제 3 특징량을 사용하여 멀티모달 학습을 하는 단계를 가지고,
상기 제 3 학습 모델이 상기 반도체 소자의 전기 특성을 나타내는 계산식에 이용되는 상기 변수의 값을 출력하는 단계를 가지는, 반도체 소자의 전기 특성 예측 방법.
The method of claim 1,
The feature quantity calculation unit has a fourth learning model,
The fourth learning model has a step of learning a cross-sectional schematic diagram generated using the process list,
wherein the fourth learning model generates a third feature quantity,
The third learning model has a step of multimodal learning using the first feature, the second feature, and the third feature,
and outputting, by the third learning model, a value of the variable used in a calculation expression representing the electrical characteristic of the semiconductor device.
제 1 항 또는 제 2 항에 있어서,
상기 제 1 학습 모델은 제 1 신경망을 가지고,
상기 제 2 학습 모델은 제 2 신경망을 가지고,
상기 제 1 신경망이 생성하는 상기 제 1 특징량이 상기 제 2 신경망의 가중치 계수를 경신하는 단계를 가지는, 반도체 소자의 전기 특성 예측 방법.
3. The method of claim 1 or 2,
The first learning model has a first neural network,
The second learning model has a second neural network,
and updating a weighting coefficient of the second neural network by the first feature amount generated by the first neural network.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 제 1 학습 모델에 추론용 공정 리스트가 주어지고, 또한 상기 제 2 학습 모델에 상기 반도체 소자의 단자에 인가되는 전압의 값이 주어지는 경우, 상기 제 2 학습 모델이 상기 전압의 값에 따른 전류의 값을 출력하는 단계를 가지는, 반도체 소자의 전기 특성 예측 방법.
4. The method according to any one of claims 1 to 3,
When a process list for inference is given to the first learning model, and a value of a voltage applied to a terminal of the semiconductor device is given to the second learning model, the second learning model determines the value of the current according to the value of the voltage. A method for predicting electrical characteristics of a semiconductor device, comprising the step of outputting a value.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 제 1 학습 모델에 추론용 공정 리스트가 주어지고, 또한 상기 제 2 학습 모델에 상기 반도체 소자의 단자에 인가되는 전압의 값이 주어지는 경우, 상기 제 3 학습 모델이 상기 반도체 소자의 전기 특성의 계산식에 이용되는 변수의 값을 출력하는 단계를 가지는, 반도체 소자의 전기 특성 예측 방법.
4. The method according to any one of claims 1 to 3,
When a process list for inference is given to the first learning model, and a value of a voltage applied to a terminal of the semiconductor element is given to the second learning model, the third learning model is a formula for calculating electrical characteristics of the semiconductor element A method of predicting electrical characteristics of a semiconductor device, comprising the step of outputting a value of a variable used for .
제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
상기 반도체 소자가 트랜지스터인, 반도체 소자의 전기 특성 예측 방법.
6. The method according to any one of claims 1 to 5,
The method for predicting electrical characteristics of a semiconductor device, wherein the semiconductor device is a transistor.
제 6 항에 있어서,
상기 트랜지스터는 반도체층에 금속 산화물을 포함하는, 반도체 소자의 전기 특성 예측 방법.
7. The method of claim 6,
The transistor comprises a metal oxide in the semiconductor layer, the electrical characteristics prediction method of a semiconductor device.
KR1020217040751A 2019-05-23 2020-05-11 Method for predicting electrical properties of semiconductor devices KR20220012269A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2019-096919 2019-05-23
JP2019096919 2019-05-23
PCT/IB2020/054411 WO2020234685A1 (en) 2019-05-23 2020-05-11 Method for predicting electric characteristics of semiconductor element

Publications (1)

Publication Number Publication Date
KR20220012269A true KR20220012269A (en) 2022-02-03

Family

ID=73458401

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217040751A KR20220012269A (en) 2019-05-23 2020-05-11 Method for predicting electrical properties of semiconductor devices

Country Status (5)

Country Link
US (1) US20220252658A1 (en)
JP (1) JPWO2020234685A1 (en)
KR (1) KR20220012269A (en)
CN (1) CN113841222A (en)
WO (1) WO2020234685A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102512102B1 (en) * 2022-05-24 2023-03-21 주식회사 알세미 System and method for semiconductor device compact modeling using multiple artificial neural networks specialized in each semiconductor device operation region

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230197534A1 (en) * 2021-11-19 2023-06-22 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Neural Network Based Prediction of Semiconductor Device Response

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038216A (en) 2003-07-16 2005-02-10 Shinka System Sogo Kenkyusho:Kk Parameter adjusting device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021805A (en) * 2006-07-12 2008-01-31 Sharp Corp Device and method for predicting test result, and for testing semiconductor, system, program, and recording medium
US20170337482A1 (en) * 2016-05-20 2017-11-23 Suraj Sindia Predictive system for industrial internet of things
KR101917006B1 (en) * 2016-11-30 2018-11-08 에스케이 주식회사 Semiconductor Manufacturing Yield Prediction System and Method based on Machine Learning
US10319743B2 (en) * 2016-12-16 2019-06-11 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device, display system, and electronic device
JP7126412B2 (en) * 2018-09-12 2022-08-26 東京エレクトロン株式会社 Learning device, reasoning device and trained model
US11537841B2 (en) * 2019-04-08 2022-12-27 Samsung Electronics Co., Ltd. System and method for compact neural network modeling of transistors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038216A (en) 2003-07-16 2005-02-10 Shinka System Sogo Kenkyusho:Kk Parameter adjusting device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102512102B1 (en) * 2022-05-24 2023-03-21 주식회사 알세미 System and method for semiconductor device compact modeling using multiple artificial neural networks specialized in each semiconductor device operation region

Also Published As

Publication number Publication date
US20220252658A1 (en) 2022-08-11
JPWO2020234685A1 (en) 2020-11-26
WO2020234685A1 (en) 2020-11-26
CN113841222A (en) 2021-12-24

Similar Documents

Publication Publication Date Title
Mizukoshi et al. Fuzzy differential equations and the extension principle
Guo et al. An incremental extreme learning machine for online sequential learning problems
Lazzús et al. Parameter estimation of Lorenz chaotic system using a hybrid swarm intelligence algorithm
KR20220012269A (en) Method for predicting electrical properties of semiconductor devices
Yassin et al. Binary particle swarm optimization structure selection of nonlinear autoregressive moving average with exogenous inputs (NARMAX) model of a flexible robot arm
WO2015136666A1 (en) Device and method for estimating operation states of individual electrical devices
Barnard Temporal-difference methods and Markov models
KR20200034918A (en) System and method to provide balanced pruning of weights of a deep neuaral network
JP7460627B2 (en) Prescription analysis in highly collinear response spaces
JP2020525872A (en) Influenza prediction model generation method, device, and computer-readable storage medium
KR102285516B1 (en) Semiconductor device modeling method and system
Kim et al. Modelling of plasma etching using a generalized regression neural network
US20220207351A1 (en) Semiconductor design optimization using at least one neural network
Landajo et al. A note on smooth approximation capabilities of fuzzy systems
WO2021094881A1 (en) Property prediction system for semiconductor elements
Zhao et al. Aging-aware training for printed neuromorphic circuits
Jin et al. Discrete-time adaptive dynamic programming using wavelet basis function neural networks
Chintala et al. Scale-invariant learning and convolutional networks
CN113809747B (en) Power distribution network topology identification method, electronic equipment and medium
JP2023027851A (en) Training device, plant, model generating method, inference device, inferring method, and plant control method
dos Santos Coelho et al. B-spline neural network design using improved differential evolution for identification of an experimental nonlinear process
US20220285231A1 (en) Semiconductor element characteristic value estimation method and semiconductor element characteristic value estimation system
Liu et al. Finite horizon discrete-time approximate dynamic programming
KR102252144B1 (en) Electronic apparatus for identifying operation of plasma and operating method thereof
CN112163387B (en) Power electronic circuit optimization method based on brain storm algorithm and application thereof