KR20220135724A - 통계적 분포를 따르는 데이터의 처리 방법 및 장치 - Google Patents
통계적 분포를 따르는 데이터의 처리 방법 및 장치 Download PDFInfo
- Publication number
- KR20220135724A KR20220135724A KR1020210041786A KR20210041786A KR20220135724A KR 20220135724 A KR20220135724 A KR 20220135724A KR 1020210041786 A KR1020210041786 A KR 1020210041786A KR 20210041786 A KR20210041786 A KR 20210041786A KR 20220135724 A KR20220135724 A KR 20220135724A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- neural network
- generated
- original
- output
- Prior art date
Links
- 238000009826 distribution Methods 0.000 title claims abstract description 19
- 238000012545 processing Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 title description 10
- 238000013528 artificial neural network Methods 0.000 claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000003672 processing method Methods 0.000 claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims abstract description 7
- 238000004002 angle-resolved photoelectron spectroscopy Methods 0.000 claims description 24
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 238000004611 spectroscopical analysis Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000005457 optimization Methods 0.000 description 4
- 238000002047 photoemission electron microscopy Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
Abstract
본 발명의 한 실시예에 따른 데이터 처리 방법은, 신경망을 훈련시키는 단계, 외부에서 입력 데이터를 수신하는 단계, 그리고 상기 훈련받은 신경망을 통하여 상기 수신한 입력 데이터를 변환하는 단계를 포함하며, 상기 훈련 단계는, 원본 데이터로부터 하나 이상의 생성 데이터를 생성하는 단계, 상기 신경망을 통하여 상기 생성 데이터를 출력 데이터로 변환하는 단계, 상기 원본 데이터에 기초하여 상기 출력 데이터를 평가하는 단계, 그리고 상기 평가 결과를 토대로 상기 신경망을 적정화하는 단계를 포함하며, 상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르며, 상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높다.
Description
본 발명은 데이터의 처리 방법에 관한 것으로서, 특히 통계적 분포에 따르는 데이터의 처리 방법 및 장치에 관한 것이다.
ARPES(angle-resolved photoelectron spectroscopy), k-PEEM(momentum resolved photoemission electron microscopy) 등의 분광학적 장치는 다양한 물질의 미세 구조, 예를 들면 전자 구조를 연구하는 데 사용된다. 이러한 기술이 발전함에 따라 2차원, 3차원으로 차원이 증가하고 이에 따라 동일한 신호 대 잡음비(signal-to-noise ratio)를 가지는 데이터 획득에 필요한 시간이 늘어날 수 있으며, 데이터 획득 시간이 충분하지 않은 경우 잡음이 증가할 수 있다.
데이터의 잡음을 줄이는 방법 중 하나로 가우스 스무딩(Gaussian smoothing)을 들 수 있으나 이 방법은 데이터 블러링(blurring)을 일으켜 본질적인 정보에 손실을 줄 수 있다.
본 발명이 해결하고자 하는 과제는 데이터의 획득 시간과 잡음을 줄이는 것이다.
본 발명의 한 실시예에 따른 데이터 처리 방법은, 신경망을 훈련시키는 단계, 외부에서 입력 데이터를 수신하는 단계, 그리고 상기 훈련받은 신경망을 통하여 상기 수신한 입력 데이터를 변환하는 단계를 포함하며, 상기 훈련 단계는, 원본 데이터로부터 하나 이상의 생성 데이터를 생성하는 단계, 상기 신경망을 통하여 상기 생성 데이터를 출력 데이터로 변환하는 단계, 상기 원본 데이터에 기초하여 상기 출력 데이터를 평가하는 단계, 그리고 상기 평가 결과를 토대로 상기 신경망을 적정화하는 단계를 포함하며, 상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르며, 상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높다.
상기 생성 단계는 상기 생성 데이터를 무작위로 생성하는 단계를 포함할 수 있다.
상기 통계적 분포는 포아송 분포일 수 있다.
상기 입력 데이터 및 상기 원본 데이터는 분광학 데이터일 수 있다.
상기 입력 데이터 및 상기 원본 데이터는 ARPES(angle-resolved photoelectron spectroscopy) 카운트 데이터일 수 있다.
상기 생성 데이터의 수는 둘 이상일 수 있다.
상기 신경망은 심층 신경망일 수 있다.
상기 신경망은 심층 합성곱 신경망일 수 있다.
상기 심층 합성곱 신경망의 층수는 20 이하일 수 있다.
상기 평가 단계는 손실 함수(loss function)를 사용하며 평가하며, 상기 손실 함수는 평균 절대 오차(mean absolute error)와 다중 스케일 구조 유사 지수(multiscale structural similarity index)의 가중 합(weighted sum)을 포함할 수 있다.
본 발명의 한 실시예에 따른 데이터 처리 장치는, 입력 데이터를 변환하는 처리기를 포함하며, 상기 처리기는, 원본 데이터를 수신하는 수신기, 상기 원본 데이터로부터 하나 이상의 생성 데이터를 무작위로 생성하는 생성기, 상기 생성 데이터를 출력 데이터로 변환하는 신경망, 그리고 출력 데이터를 상기 원본 데이터에 기초하여 평가하는 평가기를 포함하며, 상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르고, 상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높으며, 상기 신경망은 상기 평가기의 출력에 따라 적정화된다.
상기 통계적 분포는 포아송 분포일 수 있다.
상기 입력 데이터 및 상기 원본 데이터는 ARPES(angle-resolved photoelectron spectroscopy) 카운트 데이터일 수 있다.
상기 생성 데이터의 수는 둘 이상일 수 있다.
상기 신경망은 층수가 20 이하인 심층 합성곱 신경망일 수 있다.
상기 평가기는 손실 함수를 사용하며 상기 출력 데이터를 평가하며, 상기 손실 함수는 평균 절대 오차와 다중 스케일 구조 유사 지수의 가중 합을 포함할 수 있다.
이와 같이 본 발명에 데이터 처리 방법은 데이터 획득 시간을 줄일 뿐 아니라 잡음도 더욱 줄일 수 있다.
도 1은 본 발명의 한 실시예에 따른 데이터 처리 장치의 개략적인 블록도이다.
도 2는 본 발명의 한 실시예에 따른 데이터 처리 장치의 처리기를 개략적으로 도시한 블록도이다.
도 3은 본 발명의 한 실시예에 따른 원본 데이터와 생성 데이터의 예를 나타낸 도면이다.
도 4는 본 발명의 한 실시예에 따라 신경망을 훈련시키는 과정을 개략적으로 나타낸 도면이다.
도 5 내지 도 8은 본 발명의 한 실험예에 따른 로 카운트 데이터(a), 출력 데이터(b) 및 하이 카운트 데이터(c)를 나타낸 도면으로서 에너지(도 5 내지 도 7)/강도(도 8)를 운동량의 함수로 나타낸 것이다.
도 9 및 도 10은 각각 도 7 및 도 8에 도시한 데이터를 선형 분석하여 얻은 피크 위치 및 폭을 나타낸 그래프이다.
도 11은 합성곱 신경망의 깊이에 따른 손실을 나타낸 그래프이다.
도 2는 본 발명의 한 실시예에 따른 데이터 처리 장치의 처리기를 개략적으로 도시한 블록도이다.
도 3은 본 발명의 한 실시예에 따른 원본 데이터와 생성 데이터의 예를 나타낸 도면이다.
도 4는 본 발명의 한 실시예에 따라 신경망을 훈련시키는 과정을 개략적으로 나타낸 도면이다.
도 5 내지 도 8은 본 발명의 한 실험예에 따른 로 카운트 데이터(a), 출력 데이터(b) 및 하이 카운트 데이터(c)를 나타낸 도면으로서 에너지(도 5 내지 도 7)/강도(도 8)를 운동량의 함수로 나타낸 것이다.
도 9 및 도 10은 각각 도 7 및 도 8에 도시한 데이터를 선형 분석하여 얻은 피크 위치 및 폭을 나타낸 그래프이다.
도 11은 합성곱 신경망의 깊이에 따른 손실을 나타낸 그래프이다.
첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
도 1은 본 발명의 한 실시예에 따른 데이터 처리 장치의 개략적인 블록도이고, 도 2는 본 발명의 한 실시예에 따른 데이터 처리 장치의 처리기를 개략적으로 도시한 블록도이고, 도 3은 본 발명의 한 실시예에 따른 원본 데이터와 생성 데이터의 예를 나타낸 도면이며, 도 4는 본 발명의 한 실시예에 따라 신경망을 훈련시키는 과정을 개략적으로 나타낸 도면이다.
도 1을 참고하면, 본 실시예에 따른 데이터 처리 장치는 입력 데이터(IN)를 처리하여 출력 데이터(OUT)를 생성하는 처리기(1)를 포함한다.
입력 데이터(IN)는 분광학 데이터, 예를 들면, ARPES(angle-resolved photoelectron spectroscopy), k-PEEM(momentum resolved photoemission electron microscopy) 등으로 측정한 데이터를 포함할 수 있다. 예를 들면, 입력 데이터(IN)는 ARPES 카운트 데이터(count data)일 수 있다.
처리기(1)는 입력 데이터(IN)를 변환하여 출력 데이터(OUT)를 생성하며, 출력 데이터(OUT)는 입력 데이터(IN)보다 신호 대 잡음비(signal-to-noise ratio)가 높다. 예를 들면, 입력 데이터(IN)가 카운트 데이터인 경우, 처리기(1)에서 나온 출력 데이터(OUT)는 입력 데이터(IN)보다 높은 카운트 데이터와 유사할 수 있다.
도 2를 참고하면, 처리기(1)는 인공 신경망(neural network)(10), 수신기(20), 생성기(30) 및 평가기(40)를 포함한다.
신경망(10)은, 예를 들면 심층 신경망(deep neural network), 심층 합성곱 신경망(deep convolutional neural network)을 포함할 수 있으며, 훈련 데이터(training data)를 사용하여 훈련받을 수 있다.
훈련 데이터는 원본 데이터(original data)(Di)와 생성 데이터(generated data)(Dg)로 이루어진 복수의 데이터 쌍으로 이루어진다.
수신기(20)는 생성기(30) 및 평가기(40)와 연결되어 있으며, 외부, 예를 들면 ARPES 전자분석기(도시하지 않음)에서 원본 데이터(Di)를 수신하여, 생성기(30) 및 평가기(40)에 전달한다.
생성기(30)는 수신기(20) 및 신경망(10)과 연결되어 있으며, 수신기(20)에서 받은 원본 데이터(Di)로부터 그 원본 데이터(Di)가 따르는 통계적 분포를 이용하여 생성 데이터(Dg)를 생성하여 신경망(10)에 전달한다. 원본 데이터(Di)와 생성 데이터(Dg)는 소정의 통계적 분포, 예를 들어 포아송 분포(Poisson distribution)에 따를 수 있으나, 이에 한정되지는 않는다. 생성기(30)는 원본 데이터(Di)로부터 무작위로 생성 데이터(Dg)를 생성할 수 있으며, 하나의 원본 데이터로부터 둘 이상의 생성 데이터(Dg)를 생성할 수 있다. 이 방식으로 생성 데이터(Dg)를 생성하면 신경망(10) 훈련 과정에서 과적합(overfitting)을 최소화할 수 있다. 데이터 확충을 위하여 데이터를 무작위로 회전시키거나 플립시킬 수도 있다.
본 발명의 한 실시예에 따르면, 생성 데이터(Dg)는 원본 데이터(Di)보다 낮은 신호 대 잡음비를 가진다. 예를 들어, 원본 데이터(Di)는 ARPES 하이 카운트 데이터(high count data)일 수 있으며 생성 데이터는 로 카운트 데이터(low count data)일 수 있다. 도 3의 (a)는 원본 데이터, 즉 ARPES 하이 카운트 데이터이고, (b) 내지 (d)는 원본 데이터(a)로부터 생성한 로 카운트 데이터의 예로서, 카운트는 (b)는 104, (c)는 105, (d)는 106이다. 카운트가 커질수록 원본 데이터에 가까워지며 잡음이 줄어드는 것을 알 수 있다.
다시 도 2를 참고하면, 신경망(10)은 입력인 생성 데이터(Dg)를 변환하여 출력 데이터(Do)를 생성한다. 출력 데이터(Do)는 생성 데이터(Dg)보다 높은 신호 대 잡음비를 가질 수 있다.
평가기(40)는 원본 데이터(Di)를 참고로 하여 출력 데이터(Do)의 품질을 평가한다. 출력 데이터(Do)의 품질에 대한 평가는 손실 함수(loss function) 또는 비용 함수(cost function)을 사용하여 이루어질 수 있는데, 예를 들어 손실 함수는 평균 절대 오차(mean absolute error)와 다중 스케일 구조 유사 지수(multiscale structural similarity index)의 가중 합(weighted sum) 등으로 정의될 수 있다. 평가 결과는 신경망(10)으로 피드백되고 신경망(10)은 내부의 파라미터를 조정하는 등 적정화를 수행한 후 다시 출력 데이터(Do)를 생성하는 과정을 반복함으로써 훈련을 진행한다. 적정화 방법으로는 아담 적정화(Adam optimization)을 예로 들 수 있다.
훈련하는 동안 데이터의 강도를 무작위로 조정할 수 있으며, 훈련에 사용하지 않는 검증용 데이터 집합(validation data set)을 사용하여 과적합을 주의해서 검사할 수 있다.
그러면 도 5 내지 도 11을 참고하여 본 발명의 실시예에 따른 데이터 처리 장치의 실험예에 대하여 상세하게 설명한다.
도 5 내지 도 8은 본 발명의 한 실험예에 따른 로 카운트 데이터(a), 출력 데이터(b) 및 하이 카운트 데이터(c)를 나타낸 도면으로서 에너지(도 5 내지 도 7)/강도(도 8)를 운동량의 함수로 나타낸 것이고, 도 9 및 도 10은 각각 도 7 및 도 8에 도시한 데이터를 선형 분석하여 얻은 피크 위치 및 폭을 나타낸 그래프이며, 도 11은 합성곱 신경망의 깊이에 따른 손실을 나타낸 그래프이다.
본 실험예에서는 20 개의 합성곱 층을 가지는 심층 신경망을 사용하였다. 합성곱 신경망의 각 층의 필터 수(filter number)는 60, 커널 사이즈(kernel size)는 3이다. 훈련 과정에서 아담 적정화를 사용하여 신경망을 150 번(epoch) 훈련시켰다. 학습률(learning rate)은 5 × 10-4을 초기값으로 하였고, 50번 후마다 0.1을 곱하였다. 훈련 데이터 집합으로는, 50 개의 서로 다른 ARPES 원본 하이 카운트 데이터, 그리고 각각의 원본 데이터에 대해서 50 개의 로 카운트 데이터를 무작위로 생성하여 총 2500 개의 로 카운트 데이터를 얻었다.
도 5를 참고하면, FeSe의 M-Γ-M 컷(cut)에 대하여 0.5 분 동안의 ARPES 데이터(a)와 50 분 동안의 ARPES 데이터(c)를 얻었다. 0.5 분 데이터(a)를 신경망에 입력하여 출력 데이터(b)를 구한 후 50 분 데이터(c)와 비교하였다. 도 5에서 볼 수 있듯이 0.5 분 데이터(a)는 잡음이 심하지만 이를 신경망에 입력시켜 잡음 제거한 출력 데이터(b)는 50 분 데이터(c)와 매우 비슷하다.
도 6을 참고하면, 도 5에 도시한 데이터의 2차 도함수(second derivative)에 대해서 0.5 분 데이터(a)와 50 분 데이터(c)를 얻고, 0.5 분 데이터(a)를 신경망에 입력하여 출력 데이터(b)를 구한 후 50 분 데이터(c)와 비교하였다. 도 6에서 볼 수 있듯이 0.5 분 데이터(a)는 거의 알아볼 수 없을 정도지만, 신경망 처리를 거친 출력 데이터(b)는 50 분 데이터(c)와 마찬가지로 잡음이 거의 없는 매우 선명한 모양을 보여준다.
도 7 및 도 8을 참고하면, Bi-2212의 노드 컷(nodal cut)에 대하여 0.5 분 ARPES 데이터(a)와 50 분 ARPES 데이터(c)를 얻었다. 0.5 분 데이터(a)를 신경망에 입력하여 출력 데이터(b)를 구한 후 50 분 데이터(c)와 비교하였다. 도 7에서 볼 수 있듯이 잡음이 심한 0.5 분 데이터(a)에 비하여 출력 데이터(b)는 50 분 데이터(c)와 매우 비슷하게 신호 대 잡음비가 매우 크다. 이러한 신호 대 잡음비 향상은 도 8에 도시한 운동량 분포 곡선(MDC: momentum distributions curve)에서 더욱 뚜렷하게 나타난다. 도 9 및 도 10을 참고하면, MDC를 적합화하는 선형 분석(line shape analysis)을 수행하여 얻은 피크 위치 및 폭에 대한 그래프의 경우, 도 9 및 도 10의 (b)에 도시한 바와 같이 신경망 처리를 거친 0.5 분 데이터가 50 분 데이터와 거의 동일하며, 이는 본 실험예에 따른 데이터 처리가 밴드 구조의 양적 정보를 보존한다는 것을 의미한다.
이와 같이 본 실시예에 따른 데이터, 예를 들어 ARPES 데이터 처리가 효과적인 것은, 인접한 화소들에 대한 데이터가 서로 연관되어 있기 때문인데, 여기에는 두 가지 중요한 요소가 작용한다. 첫째, ARPES 특징부의 크기가 화소 크기보다 커서, 하나의 ARPES 특징부가 여러 개의 화소를 점유한다는 점이다. 따라서 어떤 화소의 값이 크면 그에 인접한 화소의 값도 크다고 볼 수 있다. 둘째, 밴드 구조가 변화하는 길이가 화소 크기보다 크다는 점이다. 따라서 밴드 구조는 하나의 화소 내에서 급격하게 변화하지 않는다. 이는 밴드 구조가 짧은 거리 내에서 대략 병진 대칭성을 가진다는 것을 뜻한다. 어떤 화소에서의 정보가 잡음으로 인하여 흐려지더라도 인접 화소 값에서 추론한 통계적으로 최적인 값으로부터 복구할 수 있다. 그러므로 데이터 집합은 정보를 화소 단위로 단순하게 모은 것보다 더 많은 정보를 포함한다. 추가 정보를 통하여 잡음 섞인 데이터의 불완전한 정보를 복구할 수 있다.
이와 같이 인접 화소로부터의 정보로 데이터를 보완하므로 인접 화소 수가 많을수록 효과가 우수하다고 볼 수 있다. 따라서 본 발명의 실시예에 따른 데이터 처리는 저차원 데이터보다는 고차원 데이터의 경우에 더 효과적일 수 있다. 고차원일수록 데이터를 얻는 데 드는 시간이 오래 걸리므로 본 발명의 실시예에 따른 데이터 처리는 더욱 유용하다.
도 11을 참고하면, 합성곱 신경망의 깊이가 깊어질수록, 즉 층의 수가 많아질수록 손실되는 정보가 줄어듦, 예를 들어 단조 감소함을 알 수 있다. 층의 수가 20 개를 넘는 경우 경사 소멸/폭발로 인하여 안정적인 훈련을 할 수 없었다.
이와 같이 본 발명의 실시예에 따른 데이터 처리 방법은 데이터 획득 시간을 줄일 뿐 아니라 잡음도 더욱 줄일 수 있다.
1: 처리기
10: 신경망
20: 수신기
30: 생성기
40: 평가기
10: 신경망
20: 수신기
30: 생성기
40: 평가기
Claims (16)
- 신경망을 훈련시키는 단계,
외부에서 입력 데이터를 수신하는 단계, 그리고
상기 훈련받은 신경망을 통하여 상기 수신한 입력 데이터를 변환하는 단계
를 포함하며,
상기 훈련 단계는,
원본 데이터로부터 하나 이상의 생성 데이터를 생성하는 단계,
상기 신경망을 통하여 상기 생성 데이터를 출력 데이터로 변환하는 단계,
상기 원본 데이터에 기초하여 상기 출력 데이터를 평가하는 단계, 그리고
상기 평가 결과를 토대로 상기 신경망을 적정화하는 단계
를 포함하며,
상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르며,
상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높은
데이터 처리 방법. - 제1항에서,
상기 생성 단계는 상기 생성 데이터를 무작위로 생성하는 단계를 포함하는 데이터 처리 방법. - 제1항에서,
상기 통계적 분포는 포아송 분포인 데이터 처리 방법. - 제1항에서,
상기 입력 데이터 및 상기 원본 데이터는 분광학 데이터인 데이터 처리 방법. - 제4항에서,
상기 입력 데이터 및 상기 원본 데이터는 ARPES(angle-resolved photoelectron spectroscopy) 카운트 데이터인 데이터 처리 방법. - 제1항에서,
상기 생성 데이터의 수는 둘 이상인 데이터 처리 방법. - 제1항에서,
상기 신경망은 심층 신경망인 데이터 처리 방법. - 제1항에서,
상기 신경망은 심층 합성곱 신경망인 데이터 처리 방법. - 제8항에서,
상기 심층 합성곱 신경망의 층수는 20 이하인 데이터 처리 방법. - 제1항에서,
상기 평가 단계는 손실 함수를 사용하여 평가하며,
상기 손실 함수는 평균 절대 오차(mean absolute error)와 다중 스케일 구조 유사 지수(multiscale structural similarity index)의 가중 합(weighted sum)을 포함하는
데이터 처리 방법. - 입력 데이터를 변환하는 처리기를 포함하며,
상기 처리기는,
원본 데이터를 수신하는 수신기,
상기 원본 데이터로부터 하나 이상의 생성 데이터를 무작위로 생성하는 생성기,
상기 생성 데이터를 출력 데이터로 변환하는 신경망, 그리고
출력 데이터를 상기 원본 데이터에 기초하여 평가하는 평가기
를 포함하며,
상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르고,
상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높으며,
상기 신경망은 상기 평가기의 출력에 따라 적정화되는
데이터 처리 장치. - 제11항에서,
상기 통계적 분포는 포아송 분포인 데이터 처리 장치. - 제11항에서,
상기 입력 데이터 및 상기 원본 데이터는 ARPES(angle-resolved photoelectron spectroscopy) 카운트 데이터인 데이터 처리 장치. - 제11항에서,
상기 생성 데이터의 수는 둘 이상인 데이터 처리 장치. - 제1항에서,
상기 신경망은 층수가 20 이하인 심층 합성곱 신경망인 데이터 처리 장치. - 제1항에서,
상기 평가기는 손실 함수를 사용하여 상기 출력 데이터를 평가하며,
상기 손실 함수는 평균 절대 오차와 다중 스케일 구조 유사 지수의 가중 합을 포함하는
데이터 처리 장치.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210041786A KR20220135724A (ko) | 2021-03-31 | 2021-03-31 | 통계적 분포를 따르는 데이터의 처리 방법 및 장치 |
PCT/KR2022/004518 WO2022211497A1 (ko) | 2021-03-31 | 2022-03-30 | 통계적 분포를 따르는 데이터의 처리 방법 및 장치 |
EP22781616.2A EP4318321A1 (en) | 2021-03-31 | 2022-03-30 | Method and device for processing data conforming to statistical distribution |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210041786A KR20220135724A (ko) | 2021-03-31 | 2021-03-31 | 통계적 분포를 따르는 데이터의 처리 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220135724A true KR20220135724A (ko) | 2022-10-07 |
Family
ID=83459504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210041786A KR20220135724A (ko) | 2021-03-31 | 2021-03-31 | 통계적 분포를 따르는 데이터의 처리 방법 및 장치 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4318321A1 (ko) |
KR (1) | KR20220135724A (ko) |
WO (1) | WO2022211497A1 (ko) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9225889B1 (en) * | 2014-08-18 | 2015-12-29 | Entropix, Inc. | Photographic image acquisition device and method |
EP3278559B1 (en) * | 2015-03-31 | 2021-05-05 | Magic Pony Technology Limited | Training end-to-end video processes |
US10007977B2 (en) * | 2015-05-11 | 2018-06-26 | Netflix, Inc. | Techniques for predicting perceptual video quality |
-
2021
- 2021-03-31 KR KR1020210041786A patent/KR20220135724A/ko not_active Application Discontinuation
-
2022
- 2022-03-30 WO PCT/KR2022/004518 patent/WO2022211497A1/ko active Application Filing
- 2022-03-30 EP EP22781616.2A patent/EP4318321A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022211497A1 (ko) | 2022-10-06 |
EP4318321A1 (en) | 2024-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Leavline et al. | Salt and pepper noise detection and removal in gray scale images: An experimental analysis | |
Chen et al. | Blind median filtering detection using statistics in difference domain | |
CN109858408B (zh) | 一种基于自编码器的超声信号处理方法 | |
CN111612711A (zh) | 一种基于生成对抗网络改进的图片去模糊方法 | |
Hoshyar et al. | Comparing the performance of various filters on skin cancer images | |
Tiwari et al. | Statistical moments based noise classification using feed forward back propagation neural network | |
Ji et al. | An approach to underwater image enhancement based on image structural decomposition | |
Malini et al. | Image denoising using multiresolution singular value decomposition transform | |
Hosseini et al. | Image sharpness metric based on maxpol convolution kernels | |
CN112991199A (zh) | 一种基于残差密集网络的图像高低频分解噪声去除方法 | |
Kuznetsov et al. | A new copy-move forgery detection algorithm using image preprocessing procedure | |
Salmeri et al. | Noise estimation in digital images using fuzzy processing | |
KR20220135724A (ko) | 통계적 분포를 따르는 데이터의 처리 방법 및 장치 | |
Wu et al. | Comparative analysis of different methods for image enhancement | |
CN102915528B (zh) | 阵列级联fhn模型随机共振机制的二值图像增强方法 | |
Karthikeyan et al. | Hybrid approach of efficient decision-based algorithm and fuzzy logic for the removal of high density salt and pepper noise in images | |
Sadangi et al. | Efficient hardware implementation of switching median filter for extraction of extremely high impulse noise corrupted images | |
Alawsi et al. | Performance Analysis of Noise Removal Techniques For Digital Images | |
Meena et al. | Review and application of different contrast enhancement technique on various images | |
Pushpavalli et al. | A fuzzy switching median filter for highly corrupted images | |
Mohan et al. | AN ENHANCEMENT PROCESS FOR GRAY-SCALE IMAGES RESULTED FROM IMAGE FUSION USING MULTIRESOLUTION AND LAPLACIAN PYRAMID. | |
Wu et al. | Automatic digital modulation recognition using wavelet transform and neural networks | |
CN113379643B (zh) | 基于NSST域和Res2Net网络的图像去噪方法 | |
Bandyopadhyay et al. | High Density Impulse Noise Removal from Color Images by K-means Clustering based Detection and Least Manhattan Distance-oriented Removal Approach | |
Deng et al. | Least squares support vector regression filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal |