KR102546528B1 - 반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치 - Google Patents

반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치 Download PDF

Info

Publication number
KR102546528B1
KR102546528B1 KR1020200133780A KR20200133780A KR102546528B1 KR 102546528 B1 KR102546528 B1 KR 102546528B1 KR 1020200133780 A KR1020200133780 A KR 1020200133780A KR 20200133780 A KR20200133780 A KR 20200133780A KR 102546528 B1 KR102546528 B1 KR 102546528B1
Authority
KR
South Korea
Prior art keywords
neural network
network model
manufacturing
pdp
input
Prior art date
Application number
KR1020200133780A
Other languages
English (en)
Other versions
KR20220049995A (ko
Inventor
최현철
백록현
윤준식
윤혁
Original Assignee
영남대학교 산학협력단
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단, 포항공과대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020200133780A priority Critical patent/KR102546528B1/ko
Priority to US17/551,450 priority patent/US20220277189A1/en
Publication of KR20220049995A publication Critical patent/KR20220049995A/ko
Application granted granted Critical
Publication of KR102546528B1 publication Critical patent/KR102546528B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/705Modelling or simulating from physical phenomena up to complete wafer processes or whole workflow in wafer productions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Abstract

반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치가 개시된다. 개시되는 일 실시예에 따른 반도체 제조 파라미터 설정 방법은, 하나 이상의 프로세서들, 및 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 반도체의 제조를 위한 제조 파라미터들을 신경망 모델로 입력하는 동작 및 입력된 제조 파라미터를 기반으로 반도체의 전력 및 지연 중 하나 이상을 예측하도록 신경망 모델을 학습시키는 동작을 포함한다.

Description

반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치{METHOD FOR SETTING OF SEMICONDUCTOR MANUFACTURING PARAMETER AND COMPUTING DEVICE FOR EXECUTING THE METHOD}
개시되는 실시예는 반도체 제조 파라미터 설정 기술과 관련된다.
트랜지스터 공정은 반도체 산업에서 가장 기본적이며 핵심적인 기술이다. 따라서, 고성능 및 저전력의 트랜지스터를 개발하는 것이 매우 중요하다. 일반적으로, 고성능 및 저전력 트랜지스터에 대한 최적의 제조 매개 변수를 찾으려면, 전기 성능을 측정하기 위한 수백 개의 단위 공정 설계와 단위 공정 제조에 대한 피드백 루프를 수반하는 반복적인 웨이퍼 제조가 요구된다. 이러한 절차는 최대 몇 주가 걸릴뿐더러 연구 개발 비용을 크게 증가시키게 된다.
한국공개특허공보 제10-2019-0003909호(2019.01.10)
개시되는 실시예는 반도체 성능을 최적화 할 수 있는 제조 파라미터를 찾기 위한 새로운 기법을 제공하기 위한 것이다.
개시되는 일 실시예에 따른 반도체 제조 파라미터 설정 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 반도체의 제조를 위한 제조 파라미터들을 신경망 모델로 입력하는 동작; 및 상기 입력된 제조 파라미터를 기반으로 상기 반도체의 전력 및 지연 중 하나 이상을 예측하도록 상기 신경망 모델을 학습시키는 동작을 포함한다.
상기 신경망 모델로 입력하는 동작은, 상기 제조 파라미터들에 로그(log)를 취한 값을 상기 신경망 모델로 입력할 수 있다.
상기 신경망 모델을 학습시키는 동작은, 상기 각 제조 파라미터들에 대해 기 설정된 최소값 내지 최대값의 범위에서 상기 반도체의 전력 및 지연 중 하나 이상을 예측하도록 학습시킬 수 있다.
상기 신경망 모델은, 각 제조 파라미터를 입력 받고, 입력 받은 각 제조 파라미터로부터 상기 반도체의 전력(Power)을 예측하도록 학습되는 제1 신경망 모델; 및 각 제조 파라미터를 입력 받고, 입력 받은 각 제조 파라미터로부터 상기 반도체의 지연(Delay)을 예측하도록 학습되는 제2 신경망 모델을 포함할 수 있다.
상기 신경망 모델로 입력하는 동작은, 상기 제조 파라미터들에 로그(log)를 취한 값을 상기 신경망 모델로 입력하며, 상기 제1 신경망 모델 및 상기 제2 신경망 모델의 손실 함수는 하기의 수학식 1로 표현될 수 있다.
(수학식 1)
Figure 112020109263030-pat00001
Figure 112020109263030-pat00002
: y=power인 경우 제1 신경망 모델의 손실 함수, y=delay인 경우 제2 신경망 모델의 손실 함수
N : 제1 신경망 모델 및 제2 신경망 모델의 학습 데이터 개수
i : i 번째 학습 데이터
Figure 112020109263030-pat00003
: i 번째 학습 데이터에 대한 제1 신경망 모델(y=power인 경우) 및 제2 신경망 모델(y=delay인 경우)의 예측 값
Figure 112020109263030-pat00004
: i 번째 학습 데이터에 대한 제1 신경망 모델(y=power인 경우) 및 제2 신경망 모델(y=delay인 경우)의 목표 값
상기 신경망 모델은, 입력 받은 각 제조 파라미터로부터 상기 반도체의 전력 및 지연을 각각 예측하도록 학습되고, 상기 반도체 제조 파라미터 설정 방법은, 상기 신경망 모델에서 예측하는 상기 전력 및 상기 지연에 기반하여 PDP(Power Delay Products)를 산출하는 동작을 더 포함할 수 있다.
상기 반도체 제조 파라미터 설정 방법은, 학습된 상기 신경망 모델을 이용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작을 더 포함할 수 있다.
상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작은, 학습된 상기 신경망 모델에 경사 하강법(Gradient Descent Method)을 적용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출할 수 있다.
상기 경사 하강법(Gradient Descent Method)을 적용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작은, 각 제조 파라미터의 초기값 및 상기 신경망 모델의 학습률을 설정하는 동작; 상기 제조 파라미터의 초기값에 대한 상기 PDP의 기울기를 산출하고, 상기 학습률을 이용하여 상기 PDP의 기울기를 음의 방향으로 이동시키기 위한 제조 파라미터를 업데이트하는 동작; 및 기 설정된 중단 조건이 만족할 때까지 상기 업데이트하는 동작을 반복하는 동작을 포함할 수 있다.
상기 신경망 모델로 입력하는 동작은, 상기 제조 파라미터들에 로그(log)를 취한 값을 상기 신경망 모델로 입력하며, 상기 PDP의 기울기(G(x))는 하기 수학식 2를 통해 산출하고, 상기 제조 파라미터의 업데이트는 하기 수학식 3을 통해 수행될 수 있다.
(수학식 2)
Figure 112020109263030-pat00005
(수학식 3)
Figure 112020109263030-pat00006
Figure 112020109263030-pat00007
: 신경망 모델의 학습률
Figure 112020109263030-pat00008
: t 시간에 신경망 모델로 입력되는 제조 파라미터 값
Figure 112020109263030-pat00009
: t 시간에 신경망 모델로 입력되는 로그 스케일의 제조 파라미터 값
상기 기 설정된 중단 조건은, 산출된 상기 PDP가 기 설정된 목표치 이하가 되는 제1 조건, 상기 PDP의 기울기가 기 설정된 임계 기울기 이하가 되는 제2 조건, 및 상기 제조 파라미터의 업데이트 된 변화량이 기 설정된 임계 변화량 이하가 되는 제3 조건 중 하나 이상을 포함할 수 있다.
상기 경사 하강법(Gradient Descent Method)을 적용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작은, 상기 제조 파라미터들이 기 학습된 최소값 내지 최대값의 범위 이내에서 상기 신경망 모델로 입력되도록 상기 제조 파라미터들의 입력되는 값의 범위를 제한하는 동작을 더 포함할 수 있다.
상기 제조 파라미터들의 입력되는 값의 범위를 제한하는 동작은, 제한 없는 임의의 값을 가지는 잠재 값을 입력 받는 동작; 및 리미터 함수(Limitter Function)를 이용하여 상기 입력된 잠재 값이 상기 기 학습된 최소값 내지 최대값의 범위 내에 있도록 하여 상기 신경망 모델로 출력하는 동작을 포함할 수 있다.
상기 신경망 모델로 입력하는 동작은, 상기 제조 파라미터들에 로그(log)를 취한 값을 상기 신경망 모델로 입력하며, 상기 잠재 값이 상기 기 학습된 최소값 내지 최대값의 범위 내에 있도록 하는 동작은 하기 수학식 4를 통해 구현될 수 있다.
(수학식 4)
Figure 112020109263030-pat00010
Figure 112020109263030-pat00011
: 리미터 함수(Limitter Function)
Figure 112020109263030-pat00012
: 잠재 값(Latent Value)
Figure 112020109263030-pat00013
: 제조 파라미터의 기 학습된 최저값
Figure 112020109263030-pat00014
: 제조 파라미터의 기 학습된 최대값
Figure 112020109263030-pat00015
: 시그모이드 함수,
Figure 112020109263030-pat00016
상기 PDP의 기울기(
Figure 112020109263030-pat00017
)는 하기 수학식 5를 통해 산출하고, 상기 제조 파라미터의 업데이트는 하기 수학식 6을 통해 수행될 수 있다.
(수학식 5)
Figure 112020109263030-pat00018
(수학식 6)
Figure 112020109263030-pat00019
Figure 112020109263030-pat00020
: 신경망 모델의 학습률
Figure 112020109263030-pat00021
: t 시간에 신경망 모델로 입력되는 잠재 값(제조 파라미터 값)
상기 반도체 제조 파라미터 설정 방법은, 각 제조 파라미터들에 대해 상기 PDP에 대한 PDP 민감도를 산출하는 동작을 더 포함할 수 있다.
상기 PDP 민감도를 산출하는 동작은, 각 제조 파라미터의 최소 값 입력 시 산출되는 PDP 값과 각 제조 파라미터의 최대 값 입력 시 산출되는 PDP 값과의 차이를 통해 각 제조 파라미터의 상기 PDP 민감도를 산출할 수 있다.
상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작은, 상기 각 제조 파라미터들 중 상기 PDP 민감도가 기 설정된 기준 이상이 되는 제조 파라미터들을 선택하는 동작을 포함할 수 있다.
상기 반도체 제조 파라미터 설정 방법은, 각 제조 파라미터들에 대해 상기 전력에 대한 전력 민감도 및 상기 지연에 대한 지연 민감도를 각각 산출하는 동작을 더 포함할 수 있다.
상기 전력 민감도를 산출하는 동작은, 각 제조 파라미터의 최소 값 입력 시 산출되는 전력 값과 각 제조 파라미터의 최대 값 입력 시 산출되는 전력 값과의 차이를 통해 각 제조 파라미터의 상기 전력 민감도를 산출하고, 상기 지연 민감도를 산출하는 동작은, 각 제조 파라미터의 최소 값 입력 시 산출되는 지연 값과 각 제조 파라미터의 최대 값 입력 시 산출되는 지연 값과의 차이를 통해 각 제조 파라미터의 상기 지연 민감도를 산출할 수 있다.
상기 반도체 제조 파라미터 설정 방법은, 상기 전력 민감도 및 상기 지연 민감도를 기반으로 각 제조 파라미터들을 기 설정된 복수 개의 그룹으로 분류하는 동작을 더 포함할 수 있다.
상기 각 제조 파라미터들을 기 설정된 복수 개의 그룹으로 분류하는 동작은, 상기 전력 및 상기 지연에 모두 둔감한 제조 파라미터들을 제1 그룹으로 분류하고, 상기 지연에만 민감한 제조 파라미터들을 제2 그룹으로 분류하며, 상기 전력에만 민감한 제조 파라미터들을 제3 그룹으로 분류하고, 상기 전력 및 상기 지연에 모두 민감한 제조 파라미터들을 제4 그룹으로 분류하며, 상기 전력 및 상기 지연에 모두 민감하지만 상호 반대 방향으로 민감한 제조 파라미터들을 제5 그룹으로 분류할 수 있다.
개시되는 일 실시예에 따른 컴퓨팅 장치는, 하나 이상의 프로세서들; 메모리; 및 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은 상기 메모리에 저장되고, 상기 하나 이상의 프로세서들에 의해 실행되도록 구성되며, 상기 하나 이상의 프로그램들은, 반도체의 제조를 위한 제조 파라미터들을 신경망 모델로 입력하기 위한 명령; 및 상기 입력된 제조 파라미터를 기반으로 상기 반도체의 전력 및 지연 중 하나 이상을 예측하도록 상기 신경망 모델을 학습시키기 위한 명령을 포함한다.
개시되는 실시예에 의하면, 신경망 모델을 이용하여 각 제조 파라미터들에 대해 반도체의 성능을 판단하는 중요한 요소인 전력 및 지연을 예측하고 이를 통해 PDP(Power Delay Products)를 산출함으로써, 소요 시간을 최소화 하면서 전체적인 관점에서 반도체의 성능을 최적화 할 있는 제조 파라미터를 검출할 수 있게 된다.
또한, 각 제조 파라미터의 PDP 민감도, 지연 민감도, 및 전력 민감도를 산출함으로써, 각 제조 파라미터들이 PDP, 지연, 및 전력에 어떠한 영향을 미치는지 그 상관 관계를 명확히 할 수 있으며, 이를 이용하여 PDP, 지연, 및 전력 등을 최적화 하기 위한 제조 파라미터 및 그 값을 설정할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 반도체 제조 파라미터 설정 장치의 신경망 모델을 나타낸 도면
도 2는 32nm 노드의 High-K Metal Gate(HKMG) 트랜지스터의 구조를 개략적으로 나타낸 도면
도 3은 32nm 노드의 High-K Metal Gate(HKMG) 트랜지스터의 제조 파라미터를 나타낸 도면
도 4는 개시되는 일 실시예에서 제1 신경망 모델 및 제2 신경망 모델에 경사 하강법(Gradient Descent Method)을 적용하는 상태를 개략적으로 나타낸 도면
도 5는 개시되는 일 실시예에서 각 반복 횟수에 대한 PDP 값을 측정하고, 측정된 PDP 값의 평균 및 표준 편차를 계산한 상태를 나타낸 도표
도 6은 본 발명의 실시예에서 각 제조 파라미터의 변화에 따른 PDP 값의 변화를 나타낸 그래프
도 7은 본 발명의 실시예에서 각 제조 파라미터의 변화에 따른 지연의 변화를 나타낸 그래프
도 8은 본 발명의 실시예에서 각 제조 파라미터의 변화에 따른 전력의 변화를 나타낸 그래프
도 9는 본 발명의 일 실시예에서 각 제조 파라미터의 PDP 민감도(dy)를 내림차순으로 나타낸 도표
도 10은 본 발명의 일 실시예에서 각 제조 파라미터들을 지연 민감도 및 전력 민감도에 따라 분류한 상태를 나타낸 도표
도 11은 본 발명의 일 실시예에 따른 반도체 제조 파라미터 설정 방법을 나타낸 흐름도
도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
도 1은 본 발명의 일 실시예에 따른 반도체 제조 파라미터 설정 장치의 신경망 모델을 나타낸 도면이다.
도 1을 참조하면, 반도체 제조 파라미터 설정 장치(100)는 인공 신경망(Artificial Neural Network)을 통해 반도체 제조 파라미터를 최적화하여 설정 할 수 있다. 즉, 반도체 제조 파라미터 설정 장치(100)는 인공 신경망을 기반으로 반도체 성능을 최적화 할 수 있는 제조 파라미터를 산출하도록 학습할 수 있다. 이하에서, 설명의 편의상 반도체는 트랜지스터인 것을 일 예로 하여 설명하기로 한다. 그러나, 이에 한정되는 것은 아니며 트랜지스터 이외에 다른 종류의 반도체 및 복수 개가 연결된 형태의 반도체에도 적용될 수 있음은 물론이다.
반도체 제조 파라미터 설정 장치(100)는 제1 신경망 모델(102) 및 제2 신경망 모델(104)을 포함할 수 있다. 제1 신경망 모델(102) 및 제2 신경망 모델(104)로 각각 트랜지스터 제조 파라미터(이하, 제조 파라미터라 지칭할 수 있음)가 입력될 수 있다. 트랜지스터 제조 파라미터는 트랜지스터를 제조하는데 사용되는 파라미터이다.
도 2는 32nm 노드의 High-K Metal Gate(HKMG) 트랜지스터의 구조를 개략적으로 나타낸 도면이고, 도 3은 32nm 노드의 High-K Metal Gate(HKMG) 트랜지스터의 제조 파라미터를 나타낸 도면이다.
도 2 및 도 3을 참조하면, 트랜지스터의 제조 파라미터는 게이트 길이(Gate Length : Lg), 스페이서 길이(Spacer Length : Lsp(s/d)), 컨택트 길이(Contact Length : Lcon(s/d)), 옥사이드 두께(Oxide Thickness : Tox), High-K 두께(High-K Thickness : Thk), 도핑 농도(Doping Concentration: Nch, Nhalo(s/d), Nsd(s/d)), 접합 기울기(Junction Gradient : Lhaloj(s/d), Lsdj(s/d)), 게이트 스택 높이(Gate Stack Height : Tg), 및 S/D epi height(Tsd(s/d))을 포함할 수 있다.
또한, 트랜지스터의 제조 파라미터는 그 이외에 도 2의 트랜지스터를 제조하는데 필요한 모든 종류의 물질, 물질의 물리적 및 화학적 특성 값, 및 물질을 다루는 장비의 셋팅 값 등이 포함될 수 있다.
여기서, 각 제조 파라미터는 도 3에 도시된 최소 값(Min) 내지 최대 값(Max)의 범위에서 제1 신경망 모델(102) 및 제2 신경망 모델(104)로 입력되어 학습될 수 있다.
여기서는, 트랜지스터가 32nm 노드의 High-K Metal Gate(HKMG) 트랜지스터인 것을 일 실시예로 하여 그 구조 및 제조 파라미터를 설명하였으나, 트랜지스터가 이에 한정되는 것은 아니며 그 이외의 다양한 종류의 구조 및 물질이 사용된 트랜지스터가 적용될 수 있다. 이 경우, 트랜지스터에 따라 제조 파라미터 및 제조 파라미터의 수치(예를 들어, 최소 값(Min) 및 최대 값(Max) 등)가 달라질 수 있다.
예시적인 실시예에서, 제1 신경망 모델(102) 및 제2 신경망 모델(104)로는 로그(Log)가 취하여진 각 제조 파라미터가 입력될 수 있다. 즉, 로그 스케일의 제조 파라미터가 제1 신경망 모델(102) 및 제2 신경망 모델(104)로 각각 입력될 수 있다.
제1 신경망 모델(102)은 로그 스케일의 각 제조 파라미터를 입력 받고, 로그 스케일의 각 제조 파라미터로부터 트랜지스터의 전력(Power)를 예측(즉, 입력되는 제조 파라미터에 따라 트랜지스터를 제조한 경우 트랜지스터의 소모 전력을 예측)하도록 학습될 수 있다. 제1 신경망 모델(102)은 입력되는 로그 스케일의 제조 파라미터들로부터 트랜지스터의 로그 스케일의 전력(log(Opower))을 출력하도록 학습될 수 있다. 제1 신경망 모델(102)은 아래의 수학식 1과 같이 표현될 수 있다.
(수학식 1)
log(Opower) = Fpower(log(Ip))
여기서, Fpower는 제1 신경망 모델(102)을 구성하는 신경망을 나타내고, Ip는 제조 파라미터를 나타낼 수 있다.
제2 신경망 모델(104)은 로그 스케일의 각 제조 파라미터를 입력 받고, 로그 스케일의 각 제조 파라미터로부터 트랜지스터의 지연(Delay)을 예측하도록 학습될 수 있다. 여기서, 지연은 트랜지스터의 입력 및 출력 간 지연을 의미할 수 있으나, 이에 한정되는 것은 지연은 트랜지스터의 동작 주파수를 의미할 수도 있다(지연은 시간 차원을 가지며, 시간의 역수는 주파수임). 제2 신경망 모델(104)은 입력되는 로그 스케일의 제조 파라미터들로부터 트랜지스터의 로그 스케일의 지연(log(Odelay))을 출력하도록 학습될 수 있다. 제2 신경망 모델(104)은 아래의 수학식 2와 같이 표현될 수 있다.
(수학식 1)
log(Odelay) = Fdelay(log(Ip))
여기서, Fdelay는 제2 신경망 모델(104)을 구성하는 신경망을 나타낼 수 있다.
제1 신경망 모델(102)과 제2 신경망 모델(104)은 입력 값(즉, 제조 파라미터)과 출력 값(즉, 전력 및 지연)에 모두 로그 스케일을 적용하였는데, 이는 입력 값과 출력 값 간의 스케일 차이가 큰 것으로 인한 신경망 학습의 실패를 방지하기 위한 것이다. 여기서는, 제조 파라미터에 로그를 취하여 입력 값을 정규화 하는 것으로 설명하였으나, 이에 한정되는 것은 아니며 그 이외의 다양한 방법을 통해 입력 값을 정규화 할 수 있다.
제1 신경망 모델(102)은 제1 신경망 모델(102)에서 출력되는 전력 값(예측된 전력 값)과 기 설정된 목표 전력 값의 차이가 최소화 되도록 학습될 수 있다. 제2 신경망 모델(104)은 제2 신경망 모델(104)에서 출력되는 지연(예측된 지연)과 기 설정된 목표 지연과의 차이가 최소화 되도록 학습될 수 있다. 이것을 수학식 3으로 표현할 수 있다.
(수학식 3)
Figure 112020109263030-pat00022
여기서,
Figure 112020109263030-pat00023
는 제1 신경망 모델(102)(y=power인 경우) 및 제2 신경망 모델(104)(y=delay인 경우)의 손실 함수를 나타낼 수 있다. N은 제1 신경망 모델(102) 및 제2 신경망 모델(104)의 학습 데이터 개수를 나타내고, i는 i번째 학습 데이터를 나타낼 수 있다.
Figure 112020109263030-pat00024
는 i번째 학습 데이터에 대한 제1 신경망 모델(102)(y=power인 경우) 및 제2 신경망 모델(104)(y=delay인 경우)의 출력 값(예측 값)을 나타내고,
Figure 112020109263030-pat00025
는 i번째 학습 데이터에 대한 제1 신경망 모델(102)(y=power인 경우) 또는 제2 신경망 모델(104)(y=delay인 경우)의 목표 값을 나타낼 수 있다.
수학식 3에 의하면, 로그 스케일에서 손실 함수(
Figure 112020109263030-pat00026
)를 최소화 하는 것은 로그 스케일의 출력 값과 목표 값의 비율(즉,
Figure 112020109263030-pat00027
을 최소화 하는 것일 수 있다. 이와 같이, 단순히 출력 값과 목표 값의 차이를 최소화하는 것이 아니라 로그 스케일의 출력 값과 목표 값의 비율을 최소화 하도록 함으로써, 목표 값이 크든 작든지 관계 없이 에러를 일정 수준으로 유지하여 학습 할 수 있게 된다.
여기서는 제1 신경망 모델(102)을 통해 전력을 예측하고, 제2 신경망 모델(104)을 통해 지연을 예측하는 것으로 설명하였으나, 이에 한정되는 것은 아니며 하나의 신경망 모델을 통해 전력 및 지연을 모두 예측하도록 구성할 수도 있다.
한편, PDP(Power Delay Products: PDP)는 트랜지스터의 성능 측정에 일반적으로 사용되는 방법으로, 전력(Power)과 지연(Delay)를 곱한 값으로 나타낼 수 있다. 여기서, PDP가 작을수록 트랜지스터의 성능이 우수함을 나타낼 수 있다. 즉, 전력이 낮고 지연이 짧을수록 트랜지스터의 성능이 우수함을 나타낼 수 있다.
반도체 제조 파라미터 설정 장치(100)는 로그 스케일의 전력 및 지연을 출력하기 때문에, 로그 스케일의 PDP는 수학식 4와 같이 두 출력의 합으로 표현될 수 있다. 여기서, x=log(Ip)이다.
(수학식 4)
Log(PDP(x)) = log(Opower(x)·Odelay(x)) = log(Opower(x))+log(Odelay(x))
반도체 제조 파라미터 설정 장치(100)는 로그 스케일의 PDP를 최소화 할 수 있는 최적의 제조 파라미터들의 값을 검출할 수 있다. 개시되는 실시예에서는, 제1 신경망 모델(102) 및 제2 신경망 모델(104)에 경사 하강법(Gradient Descent Method)을 적용하여 로그 스케일의 PDP를 최소화하는 제조 파라미터들의 값을 검출할 수 있다.
도 4는 개시되는 일 실시예에서 제1 신경망 모델(102) 및 제2 신경망 모델(104)에 경사 하강법(Gradient Descent Method)을 적용하는 상태를 개략적으로 나타낸 도면이다.
도 4를 참조하면, 반도체 제조 파라미터 설정 장치(100)는 제1 신경망 모델(102)에서 출력되는 로그 스케일의 전력(log(Opower))과 제2 신경망 모델(104)에서 출력되는 로그 스케일의 지연(log(Odelay))을 더하여 로그 스케일의 PDP를 출력하는 합산부(106)를 더 포함할 수 있다.
도 4를 참조하여 경사 하강법에 대해 설명하면, 반도체 제조 파라미터 설정 장치(100)는 랜덤하게 선택되는 초기 제조 파라미터(
Figure 112020109263030-pat00028
) 및 학습률(γ)을 설정할 수 있다.
다음으로, 반도체 제조 파라미터 설정 장치(100)는 수학식 5에 나타낸 바와 같이, 초기 제조 파라미터(
Figure 112020109263030-pat00029
)를 가지고 제조 파라미터에 대한 로그 스케일 PDP의 기울기(G(x))를 계산할 수 있다(제1 단계). 여기서, x = log(
Figure 112020109263030-pat00030
)이다.
(수학식 5)
Figure 112020109263030-pat00031
다음으로, 반도체 제조 파라미터 설정 장치(100)는 수학식 6에 나타낸 바와 같이, 타임 스탬프 t=0에서 학습률(γ)을 사용하여 로그 스케일 PDP의 기울기(G(x))를 음의 방향으로 이동시키기 위해 제조 파라미터(여기서는 초기 제조 파라미터)를 업데이트 할 수 있다(제2 단계).
(수학식 6)
Figure 112020109263030-pat00032
다음으로, 반도체 제조 파라미터 설정 장치(100)는 시간 t를 증가시키면서 제1 단계와 제2 단계를 반복 수행할 수 있다. 즉, 반도체 제조 파라미터 설정 장치(100)는 시간 t를 1 증가시킨 상태에서 수학식 5를 통해 로그 스케일 PDP의 기울기를 계산하고, 수학식 6을 통해 t=1에서 로그 스케일 PDP의 기울기를 음의 방향으로 이동시키기 위해 제조 파라미터를 업데이트 하며, 이러한 과정을 반복 수행할 수 있다.
이때, 반도체 제조 파라미터 설정 장치(100)는 기 설정된 중단 조건을 만족할 때까지 제1 단계와 제2 단계를 반복 수행할 수 있다. 여기서, 기 설정된 중단 조건은 합산부(106)에서 출력되는 로그 스케일의 PDP가 기 설정된 목표치 이하인 경우일 수 있다(제1 조건). 또한, 기 설정된 중단 조건은 로그 스케일 PDP의 기울기(G(x))가 기 설정된 임계 기울기 이하인 경우일 수 있다(제2 조건).
또한, 기 설정된 중단 조건은 제조 파라미터의 변화량(즉, 제조 파라미터의 이전 시간에 비하여 변화된 량)이 기 설정된 임계 변화량 이하인 경우일 수 있다(제3 조건).
반도체 제조 파라미터 설정 장치(100)는 제1 조건, 제2 조건, 및 제3 조건 중 어느 하나가 만족될 때까지 제1 단계와 제2 단계를 반복 수행할 수 있다. 반도체 제조 파라미터 설정 장치(100)는 기 설정된 중단 조건이 만족되는 경우, 해당 제조 파라미터의 값을 로그 스케일의 PDP를 최소화하는 최적의 제조 파라미터의 값으로 검출할 수 있다.
한편, 경사 하강법을 통해 검출되는 최적의 제조 파라미터들의 값이 반도체 제조 공정에서 실제 제어 가능한 범위에 있다고 보장할 수 없다. 예를 들어, 경사 하강법을 통해 검출되는 최적의 제조 파라미터가 도 3에 도시된 제조 파라미터의 최소값 내지 최대값의 범위(즉, 제1 신경망 모델(102) 및 제2 신경망 모델(104)이 학습한 범위)를 벗어날 수 있다.
이를 위해, 반도체 제조 파라미터 설정 장치(100)는 경사 하강법을 통해 검출되는 최적의 제조 파라미터가 제1 신경망 모델(102) 및 제2 신경망 모델(104)에서 학습된 제조 파라미터의 범위(즉, 최소값 내지 최대값)를 벗어나지 않도록 하기 위한 리미터(Limitter)부(108)를 더 포함할 수 있다.
리미터부(108)는 제조 파라미터가 기 학습된 범위(즉, 최소값 내지 최대값) 이내에서 제1 신경망 모델(102) 및 제2 신경망 모델(104)로 입력되도록 제조 파라미터의 입력되는 값의 범위를 제한할 수 있다. 이때, 리미터부(108)는 제한 없는 임의의 값(즉, -∞ ~ +∞)을 가지는 잠재 값(Latent Value)을 입력 받고, 리미터 함수(Limitter Function)를 이용하여 잠재 값이 제조 파라미터의 기 학습된 범위 내에 있도록 하여 출력할 수 있다. 이것은 하기의 수학식 7을 통해 표현할 수 있다.
(수학식 7)
Figure 112020109263030-pat00033
Figure 112020109263030-pat00034
: 리미터 함수(Limitter Function)
Figure 112020109263030-pat00035
: 잠재 값(Latent Value)
Figure 112020109263030-pat00036
: 제조 파라미터의 제어 가능한 범위의 최저값
Figure 112020109263030-pat00037
: 제조 파라미터의 제어 가능한 범위의 최대값
Figure 112020109263030-pat00038
: 시그모이드 함수,
Figure 112020109263030-pat00039
여기서, 리미터 함수인
Figure 112020109263030-pat00040
의 출력 범위는 0부터 1까지이므로, 잠재 값(
Figure 112020109263030-pat00041
)이 +∞로 가게 되면
Figure 112020109263030-pat00042
가 되게 되고, 잠재 값(
Figure 112020109263030-pat00043
)이 -∞로 가게 되면
Figure 112020109263030-pat00044
가 되게 된다. 그러므로, 리미터 함수에서 출력되는 값의 범위는 제조 파라미터의 제어 가능한 범위(최저값 ~ 최대값)에 속하게 된다.
예시적인 실시예에서, 리미터 함수를 이용한 경사 하강법은 하기의 수학식 7 및 수학식 8을 통해 표현될 수 있다. 여기서는, 수치 효율을 위해 신경망 함수의 복잡한 분석적 기울기(Analytic Gradient)(수학식 5의 G(x))를 구하기 보다는 수치적 기울기(Numerical Gradient)(수학식 7의
Figure 112020109263030-pat00045
)를 구하는 방법을 사용하였다.
(수학식 7)
Figure 112020109263030-pat00046
(수학식 8)
Figure 112020109263030-pat00047
여기서, τ
Figure 112020109263030-pat00048
0(즉, τ 는 0에 가까운 수)일 수 있다. 즉, 수학식 7에서는 제조 파라미터 입력 x에 대해
Figure 112020109263030-pat00049
인 경우의 증가분과
Figure 112020109263030-pat00050
인 경우의 감소분 간의 평균을 통해 제조 파라미터에 대한 로그 스케일 PDP의 수치적 기울기(
Figure 112020109263030-pat00051
)를 계산할 수 있다.
이와 같이, 리미터부(108)를 통해 제조 파라미터가 기 학습된 범위(즉, 최소값 내지 최대값) 이내에서 제1 신경망 모델(102) 및 제2 신경망 모델(104)로 입력되도록 제조 파라미터의 입력되는 값의 범위를 제한한 상태에서 경사 하강법을 수행함으로써, 해당 트랜지스터의 PDP(Power Delay Products)를 최소화 할 수 있는 최적의 제조 파라미터를 추출할 수 있게 된다.
반도체 제조 파라미터 설정 장치(100)는 안정적인 최적의 결과를 얻기 위해 최적화 과정을 반복적으로 수행할 수 있다. 이때, 반도체 제조 파라미터 설정 장치(100)는 도 5에 도시된 바와 같이, 최적의 반복 횟수를 찾기 위해 각 반복 횟수에 대한 PDP 값을 측정하고, 측정된 PDP 값의 평균 및 표준 편차를 계산할 수 있다.
도 5를 참조하면, 반복 횟수가 10 이상이고 표준 편차가 0.0002×10-18로 감소할 때, PDP 값이 약 0.3066×10-15 에서 포화됨을 확인할 수 있다. 그리고, 반복 횟수가 20일 때 지연 및 전력은 각각 최적으로 예측된 값인 0.1685×10-11 및 0.1819×10-3으로 수렴되고, 표준 편차도 각각 0.0005×10-13 및 0.0006×10-5로 매우 작은 것을 볼 수 있다. 반도체 제조 파라미터 설정 장치(100)는 이러한 결과들을 이용하여 최적의 반복 횟수를 결정할 수 있다.
한편, 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터가 해당 트랜지스터의 PDP 값(전력 및 지연도 포함)에 어느 정도 영향을 미치는지 분석할 수 있다.
도 6은 본 발명의 실시예에서 각 제조 파라미터의 변화에 따른 PDP 값의 변화를 나타낸 그래프이고, 도 7은 본 발명의 실시예에서 각 제조 파라미터의 변화에 따른 지연의 변화를 나타낸 그래프이며, 도 8은 본 발명의 실시예에서 각 제조 파라미터의 변화에 따른 전력의 변화를 나타낸 그래프이다. 여기서는, 도 3에 도시된 각 제조 파라미터의 최소값부터 최대값까지의 변화에 따른 PDP 값, 지연, 및 전력의 변화에 대해 나타내었다.
반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터에 대해 해당 제조 파라미터의 최소 값 입력 시 PDP 값과 해당 제조 파라미터의 최대 값 입력 시 PDP 값과의 차이를 통해 PDP 민감도를 산출할 수 있다. 여기서, PDP 민감도는 제조 파라미터가 성능 지수(즉, PDP)에 얼마나 영향을 미치는지를 나타낼 수 있다. 도 9는 본 발명의 일 실시예에서 각 제조 파라미터의 PDP 민감도(dy)를 내림차순으로 나타낸 도표이다.
반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터의 PDP 민감도를 통해 최적의 PDP를 얻기 위한 제조 파라미터를 선택할 수 있다. 즉, 도 9를 참조하면, 제조 파라미터들 중 Lcon(d), Lhaloj(s) 등은 PDP 민감도가 매우 낮은 것을 볼 수 있다. 이는 Lcon(d), Lhaloj(s)의 변화가 PDP 값에 거의 영향을 주지 않는 것을 의미한다. 따라서, 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터들 중 PDP 민감도가 기 설정된 기준 이상이 되는 제조 파라미터들을 선택하여 최적의 PDP를 얻는데 사용할 수 있다.
또한, 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터들을 대상으로 전력 및 지연에 대한 민감도를 각각 산출할 수 있다. 즉, 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터에 대해 해당 제조 파라미터의 최소 값 입력 시 전력 값과 해당 제조 파라미터의 최대 값 입력 시 전력 값과의 차이를 통해 전력 민감도를 산출할 수 있다. 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터에 대해 해당 제조 파라미터의 최소 값 입력 시 지연과 해당 제조 파라미터의 최대 값 입력 시 지연과의 차이를 통해 지연 민감도를 산출할 수 있다.
반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터들의 전력 민감도 및 지연 민감도를 기반으로 제조 파라미터들을 기 설정된 복수 개의 그룹으로 분류할 수 있다. 도 10은 본 발명의 일 실시예에서 각 제조 파라미터들을 지연 민감도 및 전력 민감도에 따라 분류한 상태를 나타낸 도표이다.
구체적으로, 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터들의 전력 민감도 및 지연 민감도에 따라 각 제조 파라미터들을 양쪽 모두에 둔감한 제1 그룹, 지연에만 민감한 제2 그룹, 전력에만 민감한 제3 그룹, 양쪽 모두 민감한 제4 그룹, 및 양쪽 모두 민감하지만 반대 방향으로 민감한 제5 그룹으로 분류할 수 있다. 여기서, (지연 민감도, 전력 민감도)로 나타내면 제1 그룹은 (0, 0), 제2 그룹은 (±, 0), 제3 그룹은 (0, ±), 제4 그룹은 (±, ±), 제5 그룹은 (±,
Figure 112020109263030-pat00052
)으로 나타낼 수 있다.
도 9에서 매우 낮은 PDP 민감도를 갖는 Lcond(s/d), Lhaloj(d), 및 Tg는 양쪽 모두에 둔감한 제1 그룹(0,0)에 속하는 것을 볼 수 있으며, 최적화 프로세스에 전혀 영향을 주지 못하는 것을 볼 수 있다. PDP 민감도가 낮은 Nch와 Lhaloj(s)는 양쪽 모두 민감하지만 반대 방향으로 민감한 제5 그룹(±,
Figure 112020109263030-pat00053
)에 속하는 것을 볼 수 있으며, 이러한 제조 파라미터는 PDP를 변경하지 않고 트랜지스터의 지연 및 전력을 제어하는데 유용함을 확인할 수 있다.
또한, Lsdj(d)와 같이 제2 그룹(±, 0) 또는 Tox와 같이 제3 그룹(0, ±)에 속하는 제조 파라미터는 트랜지스터의 지연 또는 전력을 독립적으로 제어하는데 효과적임을 알 수 있다.
이와 같이, 각 제조 파라미터의 PDP 민감도, 지연 민감도, 및 전력 민감도를 산출함으로써, 각 제조 파라미터들이 PDP, 지연, 및 전력에 어떠한 영향을 미치는지 그 상관 관계를 명확히 할 수 있으며, 이를 이용하여 PDP, 지연, 및 전력 등을 최적화 하기 위한 제조 파라미터 및 그 값을 설정할 수 있게 된다.
도 11은 본 발명의 일 실시예에 따른 반도체 제조 파라미터 설정 방법을 나타낸 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 11을 참조하면, 반도체 제조 파라미터 설정 장치(100)는 트랜지스터의 각 제조 파라미터들에 로그(log)를 취하여 제1 신경망 모델(102) 및 제2 신경망 모델(104)로 입력한다(S 101).
다음으로, 반도체 제조 파라미터 설정 장치(100)는 로그 스케일의 각 제조 파라미터로부터 트랜지스터의 전력(Power) 및 지연(Delay)을 예측하도록 제1 신경망 모델(102) 및 제2 신경망 모델(104)을 학습한다(S 103). 여기서, 반도체 제조 파라미터 설정 장치(100)는 예측된 전력 및 지연을 기반으로 트랜지스터의 PDP(Power Delay Products)를 산출할 수 있다.
다음으로, 반도체 제조 파라미터 설정 장치(100)는 제1 신경망 모델(102) 및 제2 신경망 모델(104)에 경사 하강법을 적용하여 로그 스케일의 PDP를 최소화하는 제조 파라미터들의 값을 검출한다(S 105).
여기서, 반도체 제조 파라미터 설정 장치(100)는 리미터 함수를 이용하여 제조 파라미터가 기 학습된 최소값 내지 최대값의 범위 내에서 제1 신경망 모델(102) 및 제2 신경망 모델(104)로 입력되도록 제조 파라미터의 입력되는 값의 범위를 제한할 수 있다.
다음으로, 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터에 대해 PDP 민감도를 산출한다(S 107).
다음으로, 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터들 중 PDP 민감도에 따라 PDP를 최소화 하는 제조 파라미터를 선택한다(S 109). 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터들 중 PDP 민감도가 기 설정된 기준 이상이 되는 제조 파라미터들을 PDP를 최소화 하기 위한 제조 파라미터로 선택할 수 있다.
다음으로, 반도체 제조 파라미터 설정 장치(100)는 각 제조 파라미터에 대해 전력 민감도 및 지연 민감도를 산출한다(S 111).
다음으로, 반도체 제조 파라미터 설정 장치(100)는 전력 민감도 및 지연 민감도에 따라 각 제조 파라미터들을 기 설정된 복수 개의 그룹으로 분류한다(S 113). 이를 통해, 각 제조 파라미터들이 트랜지스터의 전력 및 지연에 대해 가지는 상관 관계를 용이하게 파악할 수 있게 된다.
도 12는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 반도체 제조 파라미터 설정 장치(100)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100 : 반도체 제조 파라미터 설정 장치
102 : 제1 신경망 모델
104 : 제2 신경망 모델
106 : 합산부
108 : 리미터부

Claims (24)

  1. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    반도체의 제조를 위한 제조 파라미터들을 신경망 모델로 입력하는 동작;
    상기 입력된 각 제조 파라미터들에 대해 기 설정된 최소값 내지 최대값의 범위에서 상기 반도체의 전력 및 지연 중 하나 이상을 예측하도록 상기 신경망 모델을 학습시키는 동작;
    상기 신경망 모델에서 예측하는 상기 전력 및 상기 지연에 기반하여 PDP(Power Delay Products)를 산출하는 동작; 및
    학습된 상기 신경망 모델을 이용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작을 포함하고,
    상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작은,
    학습된 상기 신경망 모델에 경사 하강법(Gradient Descent Method)을 적용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는, 반도체 제조 파라미터 설정 방법.
  2. 청구항 1에 있어서,
    상기 신경망 모델로 입력하는 동작은,
    상기 제조 파라미터들에 로그(log)를 취한 값을 상기 신경망 모델로 입력하는, 반도체 제조 파라미터 설정 방법.
  3. 삭제
  4. 청구항 1에 있어서,
    상기 신경망 모델은,
    각 제조 파라미터를 입력 받고, 입력 받은 각 제조 파라미터로부터 상기 반도체의 전력(Power)을 예측하도록 학습되는 제1 신경망 모델; 및
    각 제조 파라미터를 입력 받고, 입력 받은 각 제조 파라미터로부터 상기 반도체의 지연(Delay)을 예측하도록 학습되는 제2 신경망 모델을 포함하는, 반도체 제조 파라미터 설정 방법.
  5. 청구항 4에 있어서,
    상기 신경망 모델로 입력하는 동작은,
    상기 제조 파라미터들에 로그(log)를 취한 값을 상기 신경망 모델로 입력하며,
    상기 제1 신경망 모델 및 상기 제2 신경망 모델의 손실 함수는 하기의 수학식 1로 표현되는, 반도체 제조 파라미터 설정 방법.
    (수학식 1)
    Figure 112020109263030-pat00054

    Figure 112020109263030-pat00055
    : y=power인 경우 제1 신경망 모델의 손실 함수, y=delay인 경우 제2 신경망 모델의 손실 함수
    N : 제1 신경망 모델 및 제2 신경망 모델의 학습 데이터 개수
    i : i 번째 학습 데이터
    Figure 112020109263030-pat00056
    : i 번째 학습 데이터에 대한 제1 신경망 모델(y=power인 경우) 및 제2 신경망 모델(y=delay인 경우)의 예측 값
    Figure 112020109263030-pat00057
    : i 번째 학습 데이터에 대한 제1 신경망 모델(y=power인 경우) 및 제2 신경망 모델(y=delay인 경우)의 목표 값
  6. 삭제
  7. 삭제
  8. 삭제
  9. 청구항 1에 있어서,
    상기 경사 하강법(Gradient Descent Method)을 적용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작은,
    각 제조 파라미터의 초기값 및 상기 신경망 모델의 학습률을 설정하는 동작;
    상기 제조 파라미터의 초기값에 대한 상기 PDP의 기울기를 산출하고, 상기 학습률을 이용하여 상기 PDP의 기울기를 음의 방향으로 이동시키기 위한 제조 파라미터를 업데이트하는 동작; 및
    기 설정된 중단 조건이 만족할 때까지 상기 업데이트하는 동작을 반복하는 동작을 포함하는, 반도체 제조 파라미터 설정 방법.
  10. 청구항 9에 있어서,
    상기 신경망 모델로 입력하는 동작은,
    상기 제조 파라미터들에 로그(log)를 취한 값을 상기 신경망 모델로 입력하며,
    상기 PDP의 기울기(G(x))는 하기 수학식 2를 통해 산출하고, 상기 제조 파라미터의 업데이트는 하기 수학식 3을 통해 수행되는, 반도체 제조 파라미터 설정 방법.
    (수학식 2)
    Figure 112020109263030-pat00058

    (수학식 3)
    Figure 112020109263030-pat00059

    Figure 112020109263030-pat00060
    : 신경망 모델의 학습률
    Figure 112020109263030-pat00061
    : t 시간에 신경망 모델로 입력되는 제조 파라미터 값
    Figure 112020109263030-pat00062
    : t 시간에 신경망 모델로 입력되는 로그 스케일의 제조 파라미터 값
  11. 청구항 9에 있어서,
    상기 기 설정된 중단 조건은,
    산출된 상기 PDP가 기 설정된 목표치 이하가 되는 제1 조건, 상기 PDP의 기울기가 기 설정된 임계 기울기 이하가 되는 제2 조건, 및 상기 제조 파라미터의 업데이트 된 변화량이 기 설정된 임계 변화량 이하가 되는 제3 조건 중 하나 이상을 포함하는, 반도체 제조 파라미터 설정 방법.
  12. 청구항 9에 있어서,
    상기 경사 하강법(Gradient Descent Method)을 적용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작은,
    상기 제조 파라미터들이 기 학습된 최소값 내지 최대값의 범위 이내에서 상기 신경망 모델로 입력되도록 상기 제조 파라미터들의 입력되는 값의 범위를 제한하는 동작을 더 포함하는, 반도체 제조 파라미터 설정 방법.
  13. 청구항 12에 있어서,
    상기 제조 파라미터들의 입력되는 값의 범위를 제한하는 동작은,
    제한 없는 임의의 값을 가지는 잠재 값을 입력 받는 동작; 및
    리미터 함수(Limitter Function)를 이용하여 상기 입력된 잠재 값이 상기 기 학습된 최소값 내지 최대값의 범위 내에 있도록 하여 상기 신경망 모델로 출력하는 동작을 포함하는, 반도체 제조 파라미터 설정 방법.
  14. 청구항 13에 있어서,
    상기 신경망 모델로 입력하는 동작은,
    상기 제조 파라미터들에 로그(log)를 취한 값을 상기 신경망 모델로 입력하며,
    상기 잠재 값이 상기 기 학습된 최소값 내지 최대값의 범위 내에 있도록 하는 동작은 하기 수학식 4를 통해 구현되는, 반도체 제조 파라미터 설정 방법.
    (수학식 4)
    Figure 112020109263030-pat00063

    Figure 112020109263030-pat00064
    : 리미터 함수(Limitter Function)
    Figure 112020109263030-pat00065
    : 잠재 값(Latent Value)
    Figure 112020109263030-pat00066
    : 제조 파라미터의 기 학습된 최저값
    Figure 112020109263030-pat00067
    : 제조 파라미터의 기 학습된 최대값
    Figure 112020109263030-pat00068
    : 시그모이드 함수,
    Figure 112020109263030-pat00069

  15. 청구항 14에 있어서,
    상기 PDP의 기울기(
    Figure 112020109263030-pat00070
    )는 하기 수학식 5를 통해 산출하고, 상기 제조 파라미터의 업데이트는 하기 수학식 6을 통해 수행되는, 반도체 제조 파라미터 설정 방법.
    (수학식 5)
    Figure 112020109263030-pat00071

    (수학식 6)
    Figure 112020109263030-pat00072

    Figure 112020109263030-pat00073
    : 신경망 모델의 학습률
    Figure 112020109263030-pat00074
    : t 시간에 신경망 모델로 입력되는 잠재 값(제조 파라미터 값)
  16. 청구항 1에 있어서,
    상기 반도체 제조 파라미터 설정 방법은,
    각 제조 파라미터들에 대해 상기 PDP에 대한 PDP 민감도를 산출하는 동작을 더 포함하는, 반도체 제조 파라미터 설정 방법.
  17. 청구항 16에 있어서,
    상기 PDP 민감도를 산출하는 동작은,
    각 제조 파라미터의 최소 값 입력 시 산출되는 PDP 값과 각 제조 파라미터의 최대 값 입력 시 산출되는 PDP 값과의 차이를 통해 각 제조 파라미터의 상기 PDP 민감도를 산출하는, 반도체 제조 파라미터 설정 방법.
  18. 청구항 16에 있어서,
    상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 동작은,
    상기 각 제조 파라미터들 중 상기 PDP 민감도가 기 설정된 기준 이상이 되는 제조 파라미터들을 선택하는 동작을 포함하는, 반도체 제조 파라미터 설정 방법.
  19. 청구항 1에 있어서,
    상기 반도체 제조 파라미터 설정 방법은,
    각 제조 파라미터들에 대해 상기 전력에 대한 전력 민감도 및 상기 지연에 대한 지연 민감도를 각각 산출하는 동작을 더 포함하는, 반도체 제조 파라미터 설정 방법.
  20. 청구항 19에 있어서,
    상기 전력 민감도를 산출하는 동작은, 각 제조 파라미터의 최소 값 입력 시 산출되는 전력 값과 각 제조 파라미터의 최대 값 입력 시 산출되는 전력 값과의 차이를 통해 각 제조 파라미터의 상기 전력 민감도를 산출하고,
    상기 지연 민감도를 산출하는 동작은, 각 제조 파라미터의 최소 값 입력 시 산출되는 지연 값과 각 제조 파라미터의 최대 값 입력 시 산출되는 지연 값과의 차이를 통해 각 제조 파라미터의 상기 지연 민감도를 산출하는, 반도체 제조 파라미터 설정 방법.
  21. 청구항 19에 있어서,
    상기 반도체 제조 파라미터 설정 방법은,
    상기 전력 민감도 및 상기 지연 민감도를 기반으로 각 제조 파라미터들을 기 설정된 복수 개의 그룹으로 분류하는 동작을 더 포함하는, 반도체 제조 파라미터 설정 방법.
  22. 청구항 21에 있어서,
    상기 각 제조 파라미터들을 기 설정된 복수 개의 그룹으로 분류하는 동작은,
    상기 전력 및 상기 지연에 모두 둔감한 제조 파라미터들을 제1 그룹으로 분류하고, 상기 지연에만 민감한 제조 파라미터들을 제2 그룹으로 분류하며, 상기 전력에만 민감한 제조 파라미터들을 제3 그룹으로 분류하고, 상기 전력 및 상기 지연에 모두 민감한 제조 파라미터들을 제4 그룹으로 분류하며, 상기 전력 및 상기 지연에 모두 민감하지만 상호 반대 방향으로 민감한 제조 파라미터들을 제5 그룹으로 분류하는, 반도체 제조 파라미터 설정 방법.
  23. 하나 이상의 프로세서들;
    메모리; 및
    하나 이상의 프로그램들을 포함하고,
    상기 하나 이상의 프로그램들은 상기 메모리에 저장되고, 상기 하나 이상의 프로세서들에 의해 실행되도록 구성되며,
    상기 하나 이상의 프로그램들은,
    반도체의 제조를 위한 제조 파라미터들을 신경망 모델로 입력하기 위한 명령;
    상기 입력된 각 제조 파라미터들에 대해 기 설정된 최소값 내지 최대값의 범위에서 상기 반도체의 전력 및 지연 중 하나 이상을 예측하도록 상기 신경망 모델을 학습시키기 위한 명령;
    상기 신경망 모델에서 예측하는 상기 전력 및 상기 지연에 기반하여 PDP(Power Delay Products)를 산출하기 위한 명령; 및
    학습된 상기 신경망 모델을 이용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하기 위한 명령을 포함하고,
    상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하기 위한 명령은,
    학습된 상기 신경망 모델에 경사 하강법(Gradient Descent Method)을 적용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하도록 하는, 컴퓨팅 장치.
  24. 비일시적 컴퓨터 판독 가능한 저장 매체(non-transitory computer readable storage medium)에 저장된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은 하나 이상의 명령어들을 포함하고, 상기 명령어들은 하나 이상의 프로세서들을 갖는 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금,
    반도체의 제조를 위한 제조 파라미터들을 신경망 모델로 입력하고,
    상기 입력된 각 제조 파라미터들에 대해 기 설정된 최소값 내지 최대값의 범위에서 상기 반도체의 전력 및 지연 중 하나 이상을 예측하도록 상기 신경망 모델을 학습시키며,
    상기 신경망 모델에서 예측하는 상기 전력 및 상기 지연에 기반하여 PDP(Power Delay Products)를 산출하도록 하고,
    학습된 상기 신경망 모델을 이용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하도록 하며,
    상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하는 것은,
    학습된 상기 신경망 모델에 경사 하강법(Gradient Descent Method)을 적용하여 상기 PDP를 최소화 하는 제조 파라미터들의 값을 추출하도록 하는, 컴퓨터 프로그램.
KR1020200133780A 2020-10-15 2020-10-15 반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치 KR102546528B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200133780A KR102546528B1 (ko) 2020-10-15 2020-10-15 반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치
US17/551,450 US20220277189A1 (en) 2020-10-15 2021-12-15 Method for setting of semiconductor manufacturing parameter and computing device for executing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200133780A KR102546528B1 (ko) 2020-10-15 2020-10-15 반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치

Publications (2)

Publication Number Publication Date
KR20220049995A KR20220049995A (ko) 2022-04-22
KR102546528B1 true KR102546528B1 (ko) 2023-06-21

Family

ID=81452642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200133780A KR102546528B1 (ko) 2020-10-15 2020-10-15 반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치

Country Status (2)

Country Link
US (1) US20220277189A1 (ko)
KR (1) KR102546528B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063561A (ja) * 2016-10-12 2018-04-19 富士通株式会社 設計支援プログラム、設計支援方法、および情報処理装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102415583B1 (ko) 2017-06-30 2022-07-04 삼성전자주식회사 Opc 모델의 최적화 방법 및 이를 이용한 반도체 소자의 제조 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063561A (ja) * 2016-10-12 2018-04-19 富士通株式会社 設計支援プログラム、設計支援方法、および情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Sachin Maheshwari et al., "Logical effort based Power-Delay-Product Optimization," 2014 International Conference on Advances in Computing, Communications and Informatics (ICACCI)(2014.12.01.)*

Also Published As

Publication number Publication date
KR20220049995A (ko) 2022-04-22
US20220277189A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
CN107247989B (zh) 一种实时的计算机视觉处理方法及装置
US11928574B2 (en) Neural architecture search with factorized hierarchical search space
US10546066B2 (en) End-to-end learning of dialogue agents for information access
CN110852421A (zh) 模型生成方法和装置
US20220230048A1 (en) Neural Architecture Scaling For Hardware Accelerators
US20220027792A1 (en) Deep neural network model design enhanced by real-time proxy evaluation feedback
CN116011510A (zh) 用于优化机器学习架构的框架
US10909293B1 (en) Sampling selection for enhanced high yield estimation in circuit designs
AU2021245165B2 (en) Method and device for processing quantum data
CN113574327A (zh) 确定用于控制环境的因果模型
JPWO2014136316A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US10599976B2 (en) Update of attenuation coefficient for a model corresponding to time-series input data
US11327806B1 (en) Profiling and application monitoring for edge devices based on headroom
US20210374544A1 (en) Leveraging lagging gradients in machine-learning model training
WO2014176056A2 (en) Data classification
Nair et al. Improving gene regulatory network inference using network topology information
Tamatsukuri et al. Guaranteed satisficing and finite regret: Analysis of a cognitive satisficing value function
US20220121800A1 (en) Methods of generating circuit models and manufacturing integrated circuits using the same
KR102546528B1 (ko) 반도체 제조 파라미터 설정 방법 및 이를 수행하기 위한 컴퓨팅 장치
JP2017130116A (ja) 回帰分析装置、回帰分析方法および回帰分析プログラム
CN115587545B (zh) 一种用于光刻胶的参数优化方法、装置、设备及存储介质
US20240046065A1 (en) System, devices and/or processes for defining a search space for neural network processing device architectures
KR102511225B1 (ko) 인공지능 추론모델을 경량화하는 방법 및 시스템
CN114090946A (zh) 用于训练神经ode网络的系统和方法
Xie et al. Compact modeling of metal–oxide TFTs based on the Bayesian search-based artificial neural network and genetic algorithm

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant