KR20220072280A - 전자현미경의 수차 값을 예측하기 위한 장치 및 그 동작 방법 - Google Patents
전자현미경의 수차 값을 예측하기 위한 장치 및 그 동작 방법 Download PDFInfo
- Publication number
- KR20220072280A KR20220072280A KR1020200159703A KR20200159703A KR20220072280A KR 20220072280 A KR20220072280 A KR 20220072280A KR 1020200159703 A KR1020200159703 A KR 1020200159703A KR 20200159703 A KR20200159703 A KR 20200159703A KR 20220072280 A KR20220072280 A KR 20220072280A
- Authority
- KR
- South Korea
- Prior art keywords
- layer
- aberration
- cnn
- models
- images
- Prior art date
Links
- 230000004075 alteration Effects 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000005540 biological transmission Effects 0.000 title 1
- 238000012549 training Methods 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000005070 sampling Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000010894 electron beam technology Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01J—ELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
- H01J37/00—Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
- H01J37/02—Details
- H01J37/22—Optical, image processing or photographic arrangements associated with the tube
- H01J37/222—Image processing arrangements associated with the tube
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01J—ELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
- H01J37/00—Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
- H01J37/26—Electron or ion microscopes; Electron or ion diffraction tubes
- H01J37/28—Electron or ion microscopes; Electron or ion diffraction tubes with scanning beams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
- G06T2207/10061—Microscopic image from scanning electron microscope
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
실시예는, 전자현미경의 수차 값을 예측하는 방법에 대한 것이다. 전자현미경의 수차 값을 예측하는 방법은, 전자현미경을 이용하여 비정질 시료에 대해 복수개의 출력 이미지를 획득하는 단계; 복수개의 출력 이미지를 각각 푸리에 변환하여 복수개의 변환 이미지를 획득하는 단계; 복수개의 변환 이미지를 복수의 서로 다른 CNN-R 모델들이 조합된 앙상블(Ensemble) 모델로 입력하는 단계; 앙상블 모델을 통해 복수개의 변환 이미지에 대응하는 수차 값 세트를 출력하는 단계; 및 수차 값 세트에 기초하여, 최종 수차 값을 계산하는 단계를 포함할 수 있다.
Description
실시예는, 전자현미경의 수차 값을 예측하기 위한 장치 및 그 동작 방법에 관한 것이다.
전자 현미경(TEM) 오브젝티브 렌즈(objective lens)에는 수차(aberration)가 존재하는데, 이 수차가 작을수록 우리는 보다 선명한 해상도의 전자 현미경 이미지를 얻어낼 수 있다.
이러한 수차를 줄이기 위해서는 수차 보정기라는 장치가 필요하며, 수차 보정기가 제대로 동작시키기 위해서는 전자 현미경에 현재 어떠한 수차가 얼마만큼 존재하는지 알아내는 것이 필요하다.
현재 수차를 알게 되면 수차 보정기는 이 값에 기초하여 수차 보정기의 코일을 제어해 빔의 형태를 제어하며, 다시 현재 수차를 예측하고 코일을 제어하는 반복적인 과정으로 수차를 낮춰가면서 보다 높은 해상도의 이미지를 얻어낸다.
현재 수차를 예측하는 방법으로는,
1) 전자 현미경에 비정질 시료를 넣고,
2) 시료에 조사되는 빔의 각도를 바꿔가며 여러 장의 이미지를 얻고,
3) 이 이미지를 푸리에 변환(FFT, Fast Fourier Transform)한 후
4) 나타나는 여러 장의 패턴에서 각각 C1 과 A1에 해당하는 수차값 세트를 예측하고
5) 이렇게 얻어진 여러 C1 과 A1 세트를 연립하여 풀어내 실제 모든 수차를 예측한다.
이와 관련하여, 한국공개특허 제2019-0002219호에서는 전자 현미경으로 촬영한 이미지를 분석하는 장치에 대해서 개시한다.
실시예에 따른 발명은, 발명의 배경이 되는 기술에서 설명한 수차를 예측하는 방법 중 수차 값 세트를 예측하는 방법에 대한 것으로, 머신러닝 기법을 이용하여 수차 값 세트를 예측하는 방법 및 이를 위한 머신러닝을 학습하는 방법을 제공하고자 한다.
실시예에 따른 발명은, 수차 값 세트를 예측하는 방법에 대한 것으로, 머신러닝 기법을 이용하여 수차 값 세트를 예측하는 방법 및 이를 위한 머신러닝을 학습하는 방법을 제공할 수 있다.
도 1은 수차 값 세트를 설명하기 위한 도면이다.
도 2는 수차 값 세트를 예측하기 위한 이미지 처리 과정을 설명하기 위한 도면이다.
도 3은 실시예에서, 전자현미경의 수차 값 세트를 예측하는 방법을 설명하기 위한 도면이다.
도 4는 실시예에서, CNN-R 모델의 구성을 설명하기 위한 도면이다.
도 5는 실시예에서, 복수의 CNN-R 모델을 포함하는 앙상블 모델의 동작을 설명하기 위한 도면이다.
도 6은 실시예에서, 전자현미경의 수차 값을 예측하는 모델을 학습하는 방법을 설명하기 위한 흐름도이다.
도 7은 실시예에서, 수차 값 세트를 예측하는 방법을 실행하는 장치의 구성을 설명하기 위한 도면이다.
도 2는 수차 값 세트를 예측하기 위한 이미지 처리 과정을 설명하기 위한 도면이다.
도 3은 실시예에서, 전자현미경의 수차 값 세트를 예측하는 방법을 설명하기 위한 도면이다.
도 4는 실시예에서, CNN-R 모델의 구성을 설명하기 위한 도면이다.
도 5는 실시예에서, 복수의 CNN-R 모델을 포함하는 앙상블 모델의 동작을 설명하기 위한 도면이다.
도 6은 실시예에서, 전자현미경의 수차 값을 예측하는 모델을 학습하는 방법을 설명하기 위한 흐름도이다.
도 7은 실시예에서, 수차 값 세트를 예측하는 방법을 실행하는 장치의 구성을 설명하기 위한 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
도 1은 수차 값 세트를 설명하기 위한 도면이다.
전자 현미경의 빔을 여러 각도로 기울여가며 획득한 여러 장의 전자 현미경의 출력 이미지에 대해서 푸리에 변환(FFT)함으로써 도 1(a), 도 1(b)와 같은 세트의 영상을 얻을 수 있다.
전자 현미경의 수차 값은 C1, A1에 해당하는 수차 값을 포함하는데, 전자 빔을 시료에 조사하여 도 1(b)와 같은 형태의 이미지를 얻을 수 있으며, 서로 다른 다양한 각도로 기울여 전자 빔을 조사하여 도 1(b)의 형태를 가지는 여러 장의 이미지를 획득할 수 있고, 획득한 이미지들을 종합함으로써 도 1(a)의 이미지를 획득할 수 있다.
이 중, 도 1(b)의 이미지로부터 중앙을 기준으로 중앙으로부터 떨어진 링들의 위치를 나타내는 C1을 획득할 수 있고, 링들의 기울기를 나타내는 값과 중앙으로부터 긴축 및 작은 축 간의 비율을 나타내는 값의 A1을 획득할 수 있다.
C1과 A1은 미리 정해진 식에 의해 조합되어 이미지가 만들어지는데, C1의 경우 그 크기에 따라 동그란 링이 중앙으로부터 멀어지고 가까워지는 형태의 특징을 보이고, A1의 경우 링이 길쭉해 지며 복소수이기 때문에 그 길쭉한 방향이 회전하게 되는 특징을 보인다.
도 2는 수차 값 세트를 예측하기 위한 이미지 처리 과정을 설명하기 위한 도면이다.
도 2(a)는 전자 현미경으로부터 출력된 이미지의 일례이다. 해당 이미지를 푸리에 변환하여 도 2(b)와 같은 CTF(Contrast Transform Function) 이미지를 크롭할 수 있다. 실시예에 따르면, 도 2(b)와 같은 CTF 이미지로부터 수차 값 세트를 획득하고자 한다.
기존의 방식은 CTF 이미지에 대해 도 2(c)와 같이 envelope function을 예측할 수 있고, 해당 이미지의 1/4를 이용하여 도 2(d)와 같이 1/4 평균한 이미지를 획득하고 도 2(e)와 같이 1/4 평균 이미지를 이진화할 수 있다.
도 2(f)와 같은 비교연산 마스크를 이용하여 패턴을 매칭하여 도 2(g)와 같은 이미지를 획득할 수 있다. 도 2(g)에 의하면, 패턴 매칭을 통해 데이터베이스에 미리 생성해둔 이미지와 가장 유사한 이미지를 검출할 수 있다. 수차 값의 예측 결과 도 2(h)와 같은 결과를 획득할 수 있다.
이러한 수차 값 세트를 시뮬레이션 이미지가 아닌 실제 전자 현미경의 출력 이미지를 이용하여 찾아내기 위해해서는 복잡한 과정이 필요하고, 상기에 설명한 바와 같이 여러 단계의 이미지 처리 과정 및 패턴 매칭 과정을 거쳐야 한다.
이하에서는 머신러닝 기법을 이용하여 복잡한 처리 과정이 필요하지 않은 수차 값의 예측 방법을 제공하고자 한다.
도 3은 실시예에서, 전자현미경의 수차 값 세트를 예측하는 방법을 설명하기 위한 도면이다.
단계(310)에서 장치는 전자 현미경을 이용하여 비정질 시료에 대해 복수개의 출력 이미지를 획득한다.
실시예에서, 전자 현미경으로부터 특정한 비정질 시료에 대해서 입사각을 변경하면서 복수개의 출력 이미지를 획득할 수 있다.
단계(320)에서 장치는, 복수개의 출력 이미지를 각각 푸리에 변환하여 복수개의 변환 이미지를 획득한다. 복수의 변환 이미지는 도 2(b)와 같은 형태의 이미지들을 포함할 수 있다.
단계(330)에서 장치는, 복수개의 변환 이미지를 복수의 서로 다른 CNN-R 모델들이 조합된 앙상블(Ensemble) 모델로 입력한다.
실시예에서, 앙상블 모델은 CTF 이미지에 대해서 수차 값 세트를 출력하도록 학습된 모델에 해당할 수 있다. 앙상블 모델은 복수의 서로 다른 CNN-R 모델들을 포함할 수 있는데 CNN-R 모델들 각각은 특징 추출(Feature extraction) 레이어 및 회귀(Regression) 레이어를 포함할 수 있다.
이 중, 특징 추출 레이어는 컨볼루션 레이어(Convolution Layer), 배치 정규화 레이어(Batch Normalize Layer) 및 최대 풀링 레이어(Max-pooling Layer)를 포함하는 CNN(Convolutional Neural Network)의 구조를 포함하는데, 하나 이상의 CNN 구조를 포함할 수 있다.
CNN-R 모델 중, 회귀 레이어는 FCN(Fully Connected Network)의 구조를 가질 수 있고, 특징 추출 레이어에서 출력되는 특징 맵이 선형화 되어 회귀 레이어로 입력될 수 있다. CNN-R 모델들 각각은 동일한 학습 데이터 세트 내 미리 정해진 비율의 일부 데이터들을 랜덤하게 샘플링함으로써 학습된 학습 모델에 해당할 수 있다. CNN-R 모델의 학습 방법에 대해서 이후 자세히 설명하도록 한다.
실시예에서, 복수의 이미지 각각에 대해서 앙상블 모델의 서로 다른 CNN-R 모델들로 입력할 수 있다.
단계(340)에서 장치는, 앙상블 모델을 통해 복수개의 변환 이미지에 대응하는 수차 값 세트를 출력한다.
실시예에서, 복수개의 변환 이미지 각각에 대응하여, 변환 이미지 각각을 상기 복수의 서로 다른 CNN-R 모델들 각각에 입력하여, 각 CNN-R 모델들로부터 복수의 중간 수차 값들을 획득할 수 있고, 중간 수차 값들을 연립함으로써 최종 수차 값을 획득할 수 있다.
실시예에서, 앙상블 모델은 서로 다른 복수개의 CNN-R 모델에 FC 레이어(Fully Connected Layer)가 연결된 모델을 제공할 수 있다. FC 레이어에서, 서로 다른 복수개의 CNN-R 모델로부터 출력된 결과 값을 이용하여 최종 수차 값을 획득할 수 있다.
실시예에서, 복수의 중간 수차 값들을 앙상블 모델 내 FC 레이어로 입력하고, FC 레이어로부터 해당하는 변환 이미지를 위한 수차 값을 획득할 수 있다. 복수의 변환 이미지 각각에 대해서 수차 값을 획득할 수 있다.
단계(350)에서 장치는 수차 값 세트에 기초하여, 최종 수차 값을 계산한다.
실시예에서, 최종 수차 값의 계산을 위해서 수차 값 세트에 포함된 수차 값들을 연립 연산할 수 있다.
도 4는 실시예에서, CNN-R 모델의 동작을 설명하기 위한 도면이다.
하나의 CTF 이미지를 256*256의 해상도를 이용하여 어느 하나의 CNN-R 모델로 입력함으로써 수차 값(401)을 출력하는 실시예에 대해 설명하도록 한다.
앞서 설명한 바와 같이, CNN-R 모델의 구조는 크게 특징 추출 레이어와 회귀 레이어로 구성될 수 있다. CNN-R 모델은 대용량의 CTF 이미지와 이에 대응하는 수차 값을 각각 학습 데이터와 레이블로서 학습된 모델이다.
이에 CNN-R 모델의 출력 결과로는 입력된 CTF 이미지의 수차 값(401)을 획득할 수 있다.
실시예에서, 특징 추출 레이어는 적어도 하나의 CNN 구조를 포함할 수 있는데, CNN 구조는 컨볼루션 레이어(Convolution Layer), 배치 정규화 레이어(Batch Normalize Layer) 및 최대 풀링 레이어(Max-pooling Layer)를 포함할 수 있다. 배치 정규화 레이어가 포함되어 있는 네트워크는 배치 사이즈만큼의 데이터 묶음, 즉 미니 배치(Mini Batch)를 메모리에 올려놓고 연산을 수행할 수 있다. 동시에, 배치 사이즈만큼의 로(raw) 데이터를 메모리에 올리고 컨볼루션 연산을 수행할 수 있다. 배치 정규화 레이어에서 정규화할 때 데이터를 참고하고 이후 다시 각 데이터의 네트워크를 실행할 수 있다.
도 5는 실시예에서, 복수의 CNN-R 모델을 포함하는 앙상블 모델의 동작을 설명하기 위한 도면이다.
실시예에서, 복수개의 서로 다른 CNN-R 모델들을 결합한 앙상블 모델을 이용하여 도 4의 모델에 대비하여 뛰어난 성능을 구현할 수 있다. 이에, CNN-R 모델은 윅 러너(Weak Learner)로 구성될 수 있다. 러너란 특정 데이터를 이용하여 인스턴트화한 모델로, 윅 러너는 최종 결과보다 상대적으로 정확도가 낮은 결과를 도출하는 러너를 의미한다.
앙상블 기법을 통해 CTF 이미지의 입력으로부터 수차 값을 예측할 수 있다. 앙상블 모델의 구조는 크게 N개의 특징 추출 파트와 하나의 FC 레이어로 구성될 수 있다. 실시예에서 특징 추출 파트에서 출력되는 중간 수차 값들이 FC 레이어로 입력되어 최종 수차 값을 예측할 수 있다. 이를 위해서 FC 레이어는 최종 수차 값의 오차가 적어지도록 가중치(Weight)를 학습할 수 있다.
앙상블 모델은 N개의 독립된 CNN-R 모델을 만들고, 생성된 CNN 모델을 이용해 이미지 특징을 추출하며, 도 5의 형태와 같은 모델을 생성하여, 해당 모델을 학습시킴으로써 구축될 수 있다.
도6은 실시예에서, 전자현미경의 수차 값을 예측하는 모델을 학습하는 방법을 설명하기 위한 흐름도이다.
실시예에 따른 수차 값의 예측 모델은 앙상블 모델을 이용할 수 있다. 앙상블 배깅(Bagging) 기법은 초기 데이터 세트에서 복원 랜덤 샘플링을 통해 추출한 데이터로 동일한 Weak Learner를 학습시키는 방법이며, 학습된 Learner의 예측변수(Feature)를 집계하여 그 결과로 모델을 생성할 수 있다.
단계(610)에서 장치는 학습 데이터 세트를 획득한다.
실시예에 따른 학습 데이터 세트는 전자 현미경의 출력 이미지를 푸리에 변환한 변환 이미지들 및 해당하는 변환 이미지들과 페어링 된 수차 값의 레이블들을 포함할 수 있다. 학습 데이터 세트는 미리 정해진 수학식을 이용하여 컴퓨터로부터 계산되어 이미지로 생성될 수 있다. 실시예에 다른 학습 데이터는 약 15000개의 CTF 이미지와 이에 페어링된 수차 값의 레이블을 포함할 수 있다.
단계(620)에서 장치는, 학습 데이터 세트 내 미리 정해진 비율의 일부 데이터들을 랜덤하게 샘플링하여 복수의 CNN-R 모델들을 서로 다르게 학습한다.
실시예에서, 학습 데이터 세트 중 80%의 데이터를 랜덤하게 샘플링하여 각각의 CNN-R 모델로 입력할 수 있다. 각각의 CNN-R 모델은 학습 데이터가 상이하므로 각각 다른 형태로 학습될 수 있다.
CNN-R 모델의 출력 결과로 CTF 이미지에 대한 예측 수차 값, 즉 C1, A1 크기, A1 각도를 1열로 나란히 배치할 수 있다. 나란히 배치된 수차 값은 FC 레이어로 입력될 수 있다.
일 실시예에서, 학습 데이터를 샘플링하는 비율이나 네트워크를 구성하는 레이어와 뉴런의 규모 등은 가변적으로 적용될 수 있다.
CNN-R 모델을 구성하는 각 레이어에 대해서 학습하는 방법에 대해서 아래에서 자세히 설명하도록 한다.
실시예에서, 컨볼루션 레이어는 이미지의 특징을 추출하는 연산, 출력되는 특징 맵(feature map)은 커널(kernel)의 값에 따라서 결정될 수 있다. 따라서, 컨볼루션 레이어를 학습하는 동작은 특징을 구분할 수 있는 커널의 값을 학습시키는 과정에 대응할 수 있다.
예를 들어, 아래와 같은 예시로 학습될 수 있다.
- 설정: nn.Conv2d(input_ch = 2, output_ch =32, kernel_size = 3, stride = 1, (zero) padding = 1)
- 학습 파라미터: weight = [output channel, input channel, kernel height, kernel width], bias = [output channel]
- 입력 데이터: 2 channel Tensor [batch size, 2(channel), 256, 256]
- 출력 데이터: feature map [batch size, 18(channel), 256, 256]
실시예에서, 배치 정규화 레이어는 배치 사이즈 마다 평균(mean)과 분산(variance)을 계산하고, 특징 맵의 값을 정규화할 수 있다. 그리고 해당 레이어의 채널에 학습 가능한 스케일 요소(scale factor)와 시프트 요소(shift factor)를 연산할 수 있다.
예를 들어, 아래와 같은 예시로 학습될 수 있다.
- 설정: nn.BatchNorm2d(input_ch =18)
- 입력 데이터: feature map [batch size, 18, 256, 256]
- 학습 파라미터: scale factor = [input_ch], shift factor = [input_ch]
- 출력 데이터: Normalized feature map [batch size, 18, 256, 256]
실시예에서, 정류 선형 유닛(ReLU, Reflected of Linear Unit), 활성화 함수는 신경망 학습에 필수적 요소이다. Linear function의 경우 dy/dhn... dh2/dh1이 상수가 되는 문제의 발생을 방지할 수 있다.
기존 활성 함수 Softmax의 기울기 소실(gradient vanishing) 문제 방지를 위해 모든 양수의 픽셀 값을 활성화할 수 있다. 실시예를 위해 아래와 같이 설정될 수 있다.
- 설정: nn.ReLU(inplace=True) 메모리 대체 여부
- 입력 데이터: Normalized feature map [batch size, 18, 256, 256]
- 출력 데이터: activation map [batch size, 18, 256, 256]
실시예에서, 최대 풀링(Max Pooling) 레이어는 커널에 쌓인 값 중 가장 큰 값을 남기기 위한 과정으로, 이미지의 용량을 축소하고 특정 데이터를 강조할 시 사용될 수 있다. 실시예를 위해 아래와 같이 설정될 수 있다.
- 설정: nn.MaxPool2d(kernel_size = 2, stride = 2)
- 입력 데이터: activation map [batch size, 18, 256, 256]
- 출력 데이터: subsampled map [batch size, 18, 128, 128]
실시예에서, 회귀 레이어의 선형(Linear) 레이어는 퍼셉트론(perceptron)의 원리에 기초하여 히든 레이어(Hidden layer)의 가중치를 학습시켜 최종 결과를 추론할 수 있다. 출력되는 값은 CTF 이미지의 중간 수차 값이다.
실시예에서, 선형 레이어는 아래와 같은 예시로 학습될 수 있다.
- 설정: nn.Linear(input pixels=n(channels)*w*h, output pixels=next layer or output)
- 입력 데이터: flatten feature map [n(channels)*w*h]
- 훈련 parameter: (input node=[n*w*h])*(output node=[output pixels])
- 출력 데이터: CTF Parameters [예측할 Parameters 개수]
이에, CNN-R 모델의 손실 함수와 평가 지표가 로 정의될 수 있는데, 출력으로 CTF 이미지의 수차 값을 예측하고, 예측된 값과 실제 값의 오차를 상기의 평가 지표로 계산하여 평가 지표가 최소가 되도록 CNN-R 모델의 최종 레이어(feature layer)의 가중치를 학습할 수 있다.
단계(630)에서 장치는, 학습 데이터 세트의 적어도 일부를 이용하여, 복수의 CNN-R 모델들의 출력을 앙상블하는 FC 레이어를 학습한다.
일실시예에서, 일반적으로 연속적인 데이터인 경우에는 평균으로 집계하지만, FC 레이어를 통해 집계 가중치를 학습할 수 있다. 학습 시 나타나는 오류의 원인은 대표적으로 두가지이다. 첫 번째는 높은 바이어스(Bias)로 인한 과소적합(Underfitting), 두 번째는 높은 분산(Variance)로 인한 과대적합(Overfitting)이다.
이러한 오류의 발생을 방지하기 위해, 이전 레이어에서 출력된 특징 값에 적절한 가중치를 곱함으로써 최종 결과를 예측할 수 있다. 배깅의 평균 집계보다 모델 별 특성을 고려한 가중치를 적용함으로써 보다 나은 정확도를 기대할 수 있다.
실시예에서, FC 레이어는 아래의 예시와 같이 학습될 수 있다.
- 설정: nn.Linear(input pixel = 9, out_size = 3) 3*N개
- 입력 데이터: Feature list [batch size, 3(Weak Learner) *3]
- 훈련 파라미터: (input node=[3*3])*(output node=[1*3])
- 출력 데이터: Output [batch size, 3(CTF Parameters의 개수)]
장치는, 복수의 CNN-R 모델들 및 FC 레이어를 포함하는 앙상블 모델을 생성할 수 있다.
도 7은 실시예에서, 수차 값 세트를 예측하는 방법을 실행하는 장치의 구성을 설명하기 위한 도면이다.
실시예에 따른 장치(700)는 메모리(710) 및 프로세서(720)를 포함하고, 메모리(710)에 저장되어 프로세서(720)에 의하여 실행되도록 구성되는 하나 이상의 프로그램을 포함할 수 있다. 프로그램은, 수차 값 세트를 예측하는 방법을 포함할 수 있다. 실시예에서, 장치(700)는 전자 현미경 자체이거나 전자 현미경에 포함될 수 있으며, 전자 현미경과 분리된 하나의 장치로 구현될 수 있다.
장치(700)는 전자 현미경을 이용하여 비정질 시료에 대해 복수개의 출력 이미지를 획득한다.
실시예에서, 전자 현미경으로부터 특정한 비정질 시료에 대해서 입사각을 변경하면서 복수개의 출력 이미지를 획득할 수 있다.
장치(700)는, 복수개의 출력 이미지를 각각 푸리에 변환하여 복수개의 변환 이미지를 획득한다. 복수의 변환 이미지는 도 2(b)와 같은 형태의 이미지들을 포함할 수 있다.
장치(700)는, 복수개의 변환 이미지를 복수의 서로 다른 CNN-R 모델들이 조합된 앙상블(Ensemble) 모델로 입력한다.
실시예에서, 앙상블 모델은 CTF 이미지에 대해서 수차 값 세트를 출력하도록 학습된 모델에 해당할 수 있다. 앙상블 모델은 복수의 서로 다른 CNN-R 모델들을 포함할 수 있는데 CNN-R 모델들 각각은 특징 추출(Feature extraction) 레이어 및 회귀(Regression) 레이어를 포함할 수 있다.
이 중, 특징 추출 레이어는 컨볼루션 레이어(Convolution Layer), 배치 정규화 레이어(Batch Normalize Layer) 및 최대 풀링 레이어(Max-pooling Layer)를 포함하는 CNN(Convolutional Neural Network)의 구조를 포함하는데, 하나 이상의 CNN 구조를 포함할 수 있다.
CNN-R 모델 중, 회귀 레이어는 FCN(Fully Connected Network)의 구조를 가질 수 있고, 특징 추출 레이어에서 출력되는 특징 맵이 선형화 되어 회귀 레이어로 입력될 수 있다. CNN-R 모델들 각각은 동일한 학습 데이터 세트 내 미리 정해진 비율의 일부 데이터들을 랜덤하게 샘플링함으로써 학습된 학습 모델에 해당할 수 있다. CNN-R 모델의 학습 방법에 대해서 이후 자세히 설명하도록 한다.
실시예에서, 복수의 이미지 각각에 대해서 앙상블 모델의 서로 다른 CNN-R 모델들로 입력할 수 있다.
장치(700)는, 앙상블 모델을 통해 복수개의 변환 이미지에 대응하는 수차 값 세트를 출력한다.
실시예에서, 복수개의 변환 이미지 각각에 대응하여, 변환 이미지 각각을 상기 복수의 서로 다른 CNN-R 모델들 각각에 입력하여, 각 CNN-R 모델들로부터 복수의 중간 수차 값들을 획득할 수 있고, 중간 수차 값들을 연립함으로써 최종 수차 값을 획득할 수 있다.
실시예에서, 앙상블 모델은 서로 다른 복수개의 CNN-R 모델에 FC 레이어(Fully Connected Layer)가 연결된 모델을 제공할 수 있다. FC 레이어에서, 서로 다른 복수개의 CNN-R 모델로부터 출력된 결과 값을 이용하여 최종 수차 값을 획득할 수 있다.
실시예에서, 복수의 중간 수차 값들을 앙상블 모델 내 FC 레이어로 입력하고, FC 레이어로부터 해당하는 변환 이미지를 위한 수차 값을 획득할 수 있다. 복수의 변환 이미지 각각에 대해서 수차 값을 획득할 수 있다.
장치(700)는 수차 값 세트에 기초하여, 최종 수차 값을 계산한다.
실시예에서, 최종 수차 값의 계산을 위해서 수차 값 세트에 포함된 수차 값들을 연립 연산할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
Claims (20)
- 전자현미경의 수차 값을 예측하는 방법에 있어서,
상기 전자현미경을 이용하여 비정질 시료에 대해 복수개의 출력 이미지를 획득하는 단계;
상기 복수개의 출력 이미지를 각각 푸리에 변환하여 복수개의 변환 이미지를 획득하는 단계;
상기 복수개의 변환 이미지를 복수의 서로 다른 CNN-R 모델들이 조합된 앙상블(Ensemble) 모델로 입력하는 단계;
상기 앙상블 모델을 통해 상기 복수개의 변환 이미지에 대응하는 수차 값 세트를 출력하는 단계; 및
상기 수차 값 세트에 기초하여, 최종 수차 값을 계산하는 단계
룰 포함하는,
전자현미경의 수차 값을 예측하는 방법.
- 제1항에 있어서,
상기 수차 값은,
상기 복수개의 변환 이미지의 중앙으로부터 떨어진 적어도 하나의 링의 위치를 기초로 결정되는 제1 값; 및
상기 적어도 하나의 링의 기울기 및 상기 적어도 하나의 링의 긴축과 짧은 축의 비율을 기초로 결정되는 제2 값
을 포함하는,
장치의 동작 방법.
- 제1항에 있어서,
상기 CNN-R 모델들 각각은
특징 추출(Feature extraction) 레이어 및 회귀(Regression) 레이어를 포함하는,
장치의 동작 방법.
- 제3항에 있어서,
상기 특징 추출 레이어는 컨볼루션 레이어, 배치 정규화 레이어 및 최대 풀링 레이어를 포함하는 CNN(Convolutional Neural Network)의 구조를 가지고,
상기 회귀 레이어는 FCN(Fully Connected Network)의 구조를 가지며,
상기 특징 추출 레이어에서 출력되는 특징 맵은 선형화 되어 상기 회귀 레이어로 입력되는,
장치의 동작 방법.
- 제1항에 있어서,
상기 수차 값 세트를 출력하는 단계는,
상기 복수개의 변환 이미지 각각에 대응하여,
해당하는 변환 이미지를 상기 복수의 서로 다른 CNN-R 모델들 각각에 입력하는 단계;
상기 복수의 서로 다른 CNN-R 모델들로부터 복수의 중간 수차 값들을 획득하는 단계;
상기 복수의 중간 수차 값들을 상기 앙상블 모델 내 FC 레이어로 입력하는 단계; 및
상기 FC 레이어로부터 상기 해당하는 변환 이미지를 위한 수차 값을 획득하는 단계
를 포함하는,
장치의 동작 방법.
- 제1항에 있어서,
상기 복수의 서로 다른 CNN-R 모델들 각각은
동일한 학습 데이터 세트 내 미리 정해진 비율의 일부 데이터들을 랜덤하게 샘플링함으로써 학습되는,
장치의 동작 방법.
- 제1항에 있어서,
상기 최종 수차 값을 계산하는 단계는
상기 수차 값 세트에 포함된 수차 값들을 연립 연산하는 단계
를 포함하는,
장치의 동작 방법.
- 전자현미경의 수차 값을 예측하는 모델을 학습하는 방법에 있어서,
학습 데이터 세트-상기 학습 데이터 세트는 컴퓨터로부터 계산된 이미지들 및 해당하는 이미지들과 페어링 된 수차 값 레이블들을 포함함-를 획득하는 단계;
상기 학습 데이터 세트 내 미리 정해진 비율의 일부 데이터들을 랜덤하게 샘플링하여 복수의 CNN-R 모델들을 서로 다르게 학습하는 단계;
상기 학습 데이터 세트의 적어도 일부를 이용하여, 상기 복수의 CNN-R 모델들의 출력을 앙상블하는 FC(Fully Connected) 레이어를 학습하는 단계; 및
상기 복수의 CNN-R 모델들 및 상기 FC 레이어를 포함하는 앙상블 모델을 생성하는 단계
를 포함하는,
전자현미경의 수차 값을 예측하는 모델을 학습하는 방법.
- 제8항에 있어서,
상기 수차 값은,
상기 이미지들의 중앙으로부터 떨어진 적어도 하나의 링의 위치를 기초로 결정되는 제1 값; 및
상기 적어도 하나의 링의 기울기 및 상기 적어도 하나의 링의 긴축과 짧은 축의 비율을 기초로 결정되는 제2 값
을 포함하는,
전자현미경의 수차 값을 예측하는 모델을 학습하는 방법.
- 제8항에 있어서,
상기 CNN-R 모델들 각각은
특징 추출(Feature extraction) 레이어 및 회귀(Regression) 레이어를 포함하는,
전자현미경의 수차 값을 예측하는 모델을 학습하는 방법.
- 제10항에 있어서,
상기 특징 추출 레이어는 컨볼루션 레이어, 배치 정규화 레이어 및 최대 풀링 레이어를 포함하는 CNN(Convolutional Neural Network)의 구조를 가지고,
상기 회귀 레이어는 FCN(Fully Connected Network)의 구조를 가지며,
상기 특징 추출 레이어에서 출력되는 특징 맵은 선형화 되어 상기 회귀 레이어로 입력되는,
전자현미경의 수차 값을 예측하는 모델을 학습하는 방법.
- 제8항에 있어서,
상기 학습 데이터 세트 내 미리 정해진 비율의 일부 데이터들을 랜덤하게 샘플링하여 복수의 CNN-R 모델들을 서로 다르게 학습하는 단계는,
상기 학습 데이터 세트 중 80%의 데이터들을 랜덤하게 샘플링하는 단계; 및
상기 샘플링된 데이터들로 상기 복수의 CNN-R 모델들 중 하나의 CNN-R 모델을 학습하는 단계
를 포함하는,
전자현미경의 수차 값을 예측하는 모델을 학습하는 방법.
- 하드웨어와 결합되어 제1항 내지 제12항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램.
- 전자현미경의 수차 값을 예측하기 위한 장치에 있어서,
하나 이상의 프로세서;
메모리; 및
상기 메모리에 저장되어 있으며 상기 하나 이상의 프로세서에 의하여 실행되도록 구성되는 하나 이상의 프로그램을 포함하고,
상기 프로그램은,
상기 전자현미경을 이용하여 비정질 시료에 대해 복수개의 출력 이미지를 획득하는 단계;
상기 복수개의 출력 이미지를 각각 푸리에 변환하여 복수개의 변환 이미지를 획득하는 단계;
상기 복수개의 변환 이미지를 복수의 서로 다른 CNN-R 모델들이 조합된 앙상블(Ensemble) 모델로 입력하는 단계;
상기 앙상블 모델을 통해 상기 복수개의 변환 이미지에 대응하는 수차 값 세트를 출력하는 단계; 및
상기 수차 값 세트에 기초하여, 최종 수차 값을 계산하는 단계
룰 포함하는,
장치.
- 제14항에 있어서,
상기 수차 값은,
상기 복수개의 변환 이미지의 중앙으로부터 떨어진 적어도 하나의 링의 위치를 기초로 결정되는 제1 값; 및
상기 적어도 하나의 링의 기울기 및 상기 적어도 하나의 링의 긴축과 짧은 축의 비율을 기초로 결정되는 제2 값
을 포함하는,
장치.
- 제14항에 있어서,
상기 CNN-R 모델들 각각은
특징 추출(Feature extraction) 레이어 및 회귀(Regression) 레이어를 포함하는,
장치.
- 제16항에 있어서,
상기 특징 추출 레이어는 컨볼루션 레이어, 배치 정규화 레이어 및 최대 풀링 레이어를 포함하는 CNN(Convolutional Neural Network)의 구조를 가지고,
상기 회귀 레이어는 FCN(Fully Connected Network)의 구조를 가지며,
상기 특징 추출 레이어에서 출력되는 특징 맵은 선형화 되어 상기 회귀 레이어로 입력되는,
장치.
- 제14항에 있어서,
상기 수차 값 세트를 출력하는 단계는,
상기 복수개의 변환 이미지 각각에 대응하여,
해당하는 변환 이미지를 상기 복수의 서로 다른 CNN-R 모델들 각각에 입력하는 단계;
상기 복수의 서로 다른 CNN-R 모델들로부터 복수의 중간 수차 값들을 획득하는 단계;
상기 복수의 중간 수차 값들을 상기 앙상블 모델 내 FC 레이어로 입력하는 단계; 및
상기 FC 레이어로부터 상기 해당하는 변환 이미지를 위한 수차 값을 획득하는 단계
를 포함하는,
장치.
- 제14항에 있어서,
상기 복수의 서로 다른 CNN-R 모델들 각각은
동일한 학습 데이터 세트 내 미리 정해진 비율의 일부 데이터들을 랜덤하게 샘플링함으로써 학습되는,
장치.
- 제14항에 있어서,
상기 최종 수차 값을 계산하는 단계는
상기 수차 값 세트에 포함된 수차 값들을 연립 연산하는 단계
를 포함하는,
장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200159703A KR102490174B1 (ko) | 2020-11-25 | 2020-11-25 | 전자현미경의 수차 값을 예측하기 위한 장치 및 그 동작 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200159703A KR102490174B1 (ko) | 2020-11-25 | 2020-11-25 | 전자현미경의 수차 값을 예측하기 위한 장치 및 그 동작 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220072280A true KR20220072280A (ko) | 2022-06-02 |
KR102490174B1 KR102490174B1 (ko) | 2023-01-19 |
Family
ID=81985231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200159703A KR102490174B1 (ko) | 2020-11-25 | 2020-11-25 | 전자현미경의 수차 값을 예측하기 위한 장치 및 그 동작 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102490174B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071745A (zh) * | 2023-03-06 | 2023-05-05 | 北京深势科技有限公司 | 一种电镜密度图目标识别模型的处理方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015032384A (ja) * | 2013-07-31 | 2015-02-16 | 株式会社日立ハイテクノロジーズ | 荷電粒子線装置及び荷電粒子線装置における収差測定法 |
JP2019079392A (ja) * | 2017-10-26 | 2019-05-23 | 日本電信電話株式会社 | 学習装置、分析システム、学習方法および学習プログラム |
-
2020
- 2020-11-25 KR KR1020200159703A patent/KR102490174B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015032384A (ja) * | 2013-07-31 | 2015-02-16 | 株式会社日立ハイテクノロジーズ | 荷電粒子線装置及び荷電粒子線装置における収差測定法 |
JP2019079392A (ja) * | 2017-10-26 | 2019-05-23 | 日本電信電話株式会社 | 学習装置、分析システム、学習方法および学習プログラム |
Non-Patent Citations (1)
Title |
---|
Practical sensorless aberration estimation for 3D microscopy with deep learning, Optics Express, 2020.09. * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071745A (zh) * | 2023-03-06 | 2023-05-05 | 北京深势科技有限公司 | 一种电镜密度图目标识别模型的处理方法和装置 |
CN116071745B (zh) * | 2023-03-06 | 2023-10-31 | 北京深势科技有限公司 | 一种电镜密度图目标识别模型的处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
KR102490174B1 (ko) | 2023-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6853560B2 (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
KR102110486B1 (ko) | 인공 뉴럴 네트워크 클래스-기반 프루닝 | |
CN111242071B (zh) | 一种基于锚框的注意力遥感图像目标检测方法 | |
JP6965206B2 (ja) | クラスタリング装置、クラスタリング方法およびプログラム | |
Li et al. | Data-driven neuron allocation for scale aggregation networks | |
US11030750B2 (en) | Multi-level convolutional LSTM model for the segmentation of MR images | |
KR102369413B1 (ko) | 영상 처리 장치 및 방법 | |
CN113470036B (zh) | 基于知识蒸馏的高光谱图像无监督波段选择方法及系统 | |
CN111126278A (zh) | 针对少类别场景的目标检测模型优化与加速的方法 | |
CN112446888A (zh) | 图像分割模型的处理方法和处理装置 | |
JP6955233B2 (ja) | 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム | |
KR20220045424A (ko) | 인공 신경망을 압축하는 방법 및 장치 | |
CN116266387A (zh) | 基于重参数化残差结构和坐标注意力机制的yolov4的图像识别算法及系统 | |
KR102490174B1 (ko) | 전자현미경의 수차 값을 예측하기 위한 장치 및 그 동작 방법 | |
CN115631399A (zh) | 图像质量评估模型的训练方法、图像质量评估方法及装置 | |
US20210397948A1 (en) | Learning method and information processing apparatus | |
CA3143928A1 (en) | Dynamic image resolution assessment | |
CN117527495A (zh) | 一种无线通信信号的调制方式识别方法及装置 | |
US20220366242A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US20230073175A1 (en) | Method and system for processing image based on weighted multiple kernels | |
CN114998672B (zh) | 基于元学习的小样本目标检测方法与装置 | |
KR20230096901A (ko) | 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치 | |
KR20190078710A (ko) | 이미지 분류 시스템 및 방법 | |
CN113313233A (zh) | 应对器件失配的神经网络配置参数训练和部署方法与装置 | |
KR102319015B1 (ko) | 정밀 점유 지도 작성을 위한 적응형 커널 추론 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |