KR20220135724A - 통계적 분포를 따르는 데이터의 처리 방법 및 장치 - Google Patents

통계적 분포를 따르는 데이터의 처리 방법 및 장치 Download PDF

Info

Publication number
KR20220135724A
KR20220135724A KR1020210041786A KR20210041786A KR20220135724A KR 20220135724 A KR20220135724 A KR 20220135724A KR 1020210041786 A KR1020210041786 A KR 1020210041786A KR 20210041786 A KR20210041786 A KR 20210041786A KR 20220135724 A KR20220135724 A KR 20220135724A
Authority
KR
South Korea
Prior art keywords
data
neural network
generated
original
output
Prior art date
Application number
KR1020210041786A
Other languages
English (en)
Inventor
김창영
김윤식
Original Assignee
서울대학교산학협력단
기초과학연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단, 기초과학연구원 filed Critical 서울대학교산학협력단
Priority to KR1020210041786A priority Critical patent/KR20220135724A/ko
Priority to PCT/KR2022/004518 priority patent/WO2022211497A1/ko
Priority to EP22781616.2A priority patent/EP4318321A1/en
Publication of KR20220135724A publication Critical patent/KR20220135724A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

본 발명의 한 실시예에 따른 데이터 처리 방법은, 신경망을 훈련시키는 단계, 외부에서 입력 데이터를 수신하는 단계, 그리고 상기 훈련받은 신경망을 통하여 상기 수신한 입력 데이터를 변환하는 단계를 포함하며, 상기 훈련 단계는, 원본 데이터로부터 하나 이상의 생성 데이터를 생성하는 단계, 상기 신경망을 통하여 상기 생성 데이터를 출력 데이터로 변환하는 단계, 상기 원본 데이터에 기초하여 상기 출력 데이터를 평가하는 단계, 그리고 상기 평가 결과를 토대로 상기 신경망을 적정화하는 단계를 포함하며, 상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르며, 상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높다.

Description

통계적 분포를 따르는 데이터의 처리 방법 및 장치 {METHOD AND DEVICE OF PROCESSING DATA CONFORMING TO STATISTICAL DISTRIBUTION}
본 발명은 데이터의 처리 방법에 관한 것으로서, 특히 통계적 분포에 따르는 데이터의 처리 방법 및 장치에 관한 것이다.
ARPES(angle-resolved photoelectron spectroscopy), k-PEEM(momentum resolved photoemission electron microscopy) 등의 분광학적 장치는 다양한 물질의 미세 구조, 예를 들면 전자 구조를 연구하는 데 사용된다. 이러한 기술이 발전함에 따라 2차원, 3차원으로 차원이 증가하고 이에 따라 동일한 신호 대 잡음비(signal-to-noise ratio)를 가지는 데이터 획득에 필요한 시간이 늘어날 수 있으며, 데이터 획득 시간이 충분하지 않은 경우 잡음이 증가할 수 있다.
데이터의 잡음을 줄이는 방법 중 하나로 가우스 스무딩(Gaussian smoothing)을 들 수 있으나 이 방법은 데이터 블러링(blurring)을 일으켜 본질적인 정보에 손실을 줄 수 있다.
본 발명이 해결하고자 하는 과제는 데이터의 획득 시간과 잡음을 줄이는 것이다.
본 발명의 한 실시예에 따른 데이터 처리 방법은, 신경망을 훈련시키는 단계, 외부에서 입력 데이터를 수신하는 단계, 그리고 상기 훈련받은 신경망을 통하여 상기 수신한 입력 데이터를 변환하는 단계를 포함하며, 상기 훈련 단계는, 원본 데이터로부터 하나 이상의 생성 데이터를 생성하는 단계, 상기 신경망을 통하여 상기 생성 데이터를 출력 데이터로 변환하는 단계, 상기 원본 데이터에 기초하여 상기 출력 데이터를 평가하는 단계, 그리고 상기 평가 결과를 토대로 상기 신경망을 적정화하는 단계를 포함하며, 상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르며, 상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높다.
상기 생성 단계는 상기 생성 데이터를 무작위로 생성하는 단계를 포함할 수 있다.
상기 통계적 분포는 포아송 분포일 수 있다.
상기 입력 데이터 및 상기 원본 데이터는 분광학 데이터일 수 있다.
상기 입력 데이터 및 상기 원본 데이터는 ARPES(angle-resolved photoelectron spectroscopy) 카운트 데이터일 수 있다.
상기 생성 데이터의 수는 둘 이상일 수 있다.
상기 신경망은 심층 신경망일 수 있다.
상기 신경망은 심층 합성곱 신경망일 수 있다.
상기 심층 합성곱 신경망의 층수는 20 이하일 수 있다.
상기 평가 단계는 손실 함수(loss function)를 사용하며 평가하며, 상기 손실 함수는 평균 절대 오차(mean absolute error)와 다중 스케일 구조 유사 지수(multiscale structural similarity index)의 가중 합(weighted sum)을 포함할 수 있다.
본 발명의 한 실시예에 따른 데이터 처리 장치는, 입력 데이터를 변환하는 처리기를 포함하며, 상기 처리기는, 원본 데이터를 수신하는 수신기, 상기 원본 데이터로부터 하나 이상의 생성 데이터를 무작위로 생성하는 생성기, 상기 생성 데이터를 출력 데이터로 변환하는 신경망, 그리고 출력 데이터를 상기 원본 데이터에 기초하여 평가하는 평가기를 포함하며, 상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르고, 상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높으며, 상기 신경망은 상기 평가기의 출력에 따라 적정화된다.
상기 통계적 분포는 포아송 분포일 수 있다.
상기 입력 데이터 및 상기 원본 데이터는 ARPES(angle-resolved photoelectron spectroscopy) 카운트 데이터일 수 있다.
상기 생성 데이터의 수는 둘 이상일 수 있다.
상기 신경망은 층수가 20 이하인 심층 합성곱 신경망일 수 있다.
상기 평가기는 손실 함수를 사용하며 상기 출력 데이터를 평가하며, 상기 손실 함수는 평균 절대 오차와 다중 스케일 구조 유사 지수의 가중 합을 포함할 수 있다.
이와 같이 본 발명에 데이터 처리 방법은 데이터 획득 시간을 줄일 뿐 아니라 잡음도 더욱 줄일 수 있다.
도 1은 본 발명의 한 실시예에 따른 데이터 처리 장치의 개략적인 블록도이다.
도 2는 본 발명의 한 실시예에 따른 데이터 처리 장치의 처리기를 개략적으로 도시한 블록도이다.
도 3은 본 발명의 한 실시예에 따른 원본 데이터와 생성 데이터의 예를 나타낸 도면이다.
도 4는 본 발명의 한 실시예에 따라 신경망을 훈련시키는 과정을 개략적으로 나타낸 도면이다.
도 5 내지 도 8은 본 발명의 한 실험예에 따른 로 카운트 데이터(a), 출력 데이터(b) 및 하이 카운트 데이터(c)를 나타낸 도면으로서 에너지(도 5 내지 도 7)/강도(도 8)를 운동량의 함수로 나타낸 것이다.
도 9 및 도 10은 각각 도 7 및 도 8에 도시한 데이터를 선형 분석하여 얻은 피크 위치 및 폭을 나타낸 그래프이다.
도 11은 합성곱 신경망의 깊이에 따른 손실을 나타낸 그래프이다.
첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
도 1은 본 발명의 한 실시예에 따른 데이터 처리 장치의 개략적인 블록도이고, 도 2는 본 발명의 한 실시예에 따른 데이터 처리 장치의 처리기를 개략적으로 도시한 블록도이고, 도 3은 본 발명의 한 실시예에 따른 원본 데이터와 생성 데이터의 예를 나타낸 도면이며, 도 4는 본 발명의 한 실시예에 따라 신경망을 훈련시키는 과정을 개략적으로 나타낸 도면이다.
도 1을 참고하면, 본 실시예에 따른 데이터 처리 장치는 입력 데이터(IN)를 처리하여 출력 데이터(OUT)를 생성하는 처리기(1)를 포함한다.
입력 데이터(IN)는 분광학 데이터, 예를 들면, ARPES(angle-resolved photoelectron spectroscopy), k-PEEM(momentum resolved photoemission electron microscopy) 등으로 측정한 데이터를 포함할 수 있다. 예를 들면, 입력 데이터(IN)는 ARPES 카운트 데이터(count data)일 수 있다.
처리기(1)는 입력 데이터(IN)를 변환하여 출력 데이터(OUT)를 생성하며, 출력 데이터(OUT)는 입력 데이터(IN)보다 신호 대 잡음비(signal-to-noise ratio)가 높다. 예를 들면, 입력 데이터(IN)가 카운트 데이터인 경우, 처리기(1)에서 나온 출력 데이터(OUT)는 입력 데이터(IN)보다 높은 카운트 데이터와 유사할 수 있다.
도 2를 참고하면, 처리기(1)는 인공 신경망(neural network)(10), 수신기(20), 생성기(30) 및 평가기(40)를 포함한다.
신경망(10)은, 예를 들면 심층 신경망(deep neural network), 심층 합성곱 신경망(deep convolutional neural network)을 포함할 수 있으며, 훈련 데이터(training data)를 사용하여 훈련받을 수 있다.
훈련 데이터는 원본 데이터(original data)(Di)와 생성 데이터(generated data)(Dg)로 이루어진 복수의 데이터 쌍으로 이루어진다.
수신기(20)는 생성기(30) 및 평가기(40)와 연결되어 있으며, 외부, 예를 들면 ARPES 전자분석기(도시하지 않음)에서 원본 데이터(Di)를 수신하여, 생성기(30) 및 평가기(40)에 전달한다.
생성기(30)는 수신기(20) 및 신경망(10)과 연결되어 있으며, 수신기(20)에서 받은 원본 데이터(Di)로부터 그 원본 데이터(Di)가 따르는 통계적 분포를 이용하여 생성 데이터(Dg)를 생성하여 신경망(10)에 전달한다. 원본 데이터(Di)와 생성 데이터(Dg)는 소정의 통계적 분포, 예를 들어 포아송 분포(Poisson distribution)에 따를 수 있으나, 이에 한정되지는 않는다. 생성기(30)는 원본 데이터(Di)로부터 무작위로 생성 데이터(Dg)를 생성할 수 있으며, 하나의 원본 데이터로부터 둘 이상의 생성 데이터(Dg)를 생성할 수 있다. 이 방식으로 생성 데이터(Dg)를 생성하면 신경망(10) 훈련 과정에서 과적합(overfitting)을 최소화할 수 있다. 데이터 확충을 위하여 데이터를 무작위로 회전시키거나 플립시킬 수도 있다.
본 발명의 한 실시예에 따르면, 생성 데이터(Dg)는 원본 데이터(Di)보다 낮은 신호 대 잡음비를 가진다. 예를 들어, 원본 데이터(Di)는 ARPES 하이 카운트 데이터(high count data)일 수 있으며 생성 데이터는 로 카운트 데이터(low count data)일 수 있다. 도 3의 (a)는 원본 데이터, 즉 ARPES 하이 카운트 데이터이고, (b) 내지 (d)는 원본 데이터(a)로부터 생성한 로 카운트 데이터의 예로서, 카운트는 (b)는 104, (c)는 105, (d)는 106이다. 카운트가 커질수록 원본 데이터에 가까워지며 잡음이 줄어드는 것을 알 수 있다.
다시 도 2를 참고하면, 신경망(10)은 입력인 생성 데이터(Dg)를 변환하여 출력 데이터(Do)를 생성한다. 출력 데이터(Do)는 생성 데이터(Dg)보다 높은 신호 대 잡음비를 가질 수 있다.
평가기(40)는 원본 데이터(Di)를 참고로 하여 출력 데이터(Do)의 품질을 평가한다. 출력 데이터(Do)의 품질에 대한 평가는 손실 함수(loss function) 또는 비용 함수(cost function)을 사용하여 이루어질 수 있는데, 예를 들어 손실 함수는 평균 절대 오차(mean absolute error)와 다중 스케일 구조 유사 지수(multiscale structural similarity index)의 가중 합(weighted sum) 등으로 정의될 수 있다. 평가 결과는 신경망(10)으로 피드백되고 신경망(10)은 내부의 파라미터를 조정하는 등 적정화를 수행한 후 다시 출력 데이터(Do)를 생성하는 과정을 반복함으로써 훈련을 진행한다. 적정화 방법으로는 아담 적정화(Adam optimization)을 예로 들 수 있다.
훈련하는 동안 데이터의 강도를 무작위로 조정할 수 있으며, 훈련에 사용하지 않는 검증용 데이터 집합(validation data set)을 사용하여 과적합을 주의해서 검사할 수 있다.
그러면 도 5 내지 도 11을 참고하여 본 발명의 실시예에 따른 데이터 처리 장치의 실험예에 대하여 상세하게 설명한다.
도 5 내지 도 8은 본 발명의 한 실험예에 따른 로 카운트 데이터(a), 출력 데이터(b) 및 하이 카운트 데이터(c)를 나타낸 도면으로서 에너지(도 5 내지 도 7)/강도(도 8)를 운동량의 함수로 나타낸 것이고, 도 9 및 도 10은 각각 도 7 및 도 8에 도시한 데이터를 선형 분석하여 얻은 피크 위치 및 폭을 나타낸 그래프이며, 도 11은 합성곱 신경망의 깊이에 따른 손실을 나타낸 그래프이다.
본 실험예에서는 20 개의 합성곱 층을 가지는 심층 신경망을 사용하였다. 합성곱 신경망의 각 층의 필터 수(filter number)는 60, 커널 사이즈(kernel size)는 3이다. 훈련 과정에서 아담 적정화를 사용하여 신경망을 150 번(epoch) 훈련시켰다. 학습률(learning rate)은 5 × 10-4을 초기값으로 하였고, 50번 후마다 0.1을 곱하였다. 훈련 데이터 집합으로는, 50 개의 서로 다른 ARPES 원본 하이 카운트 데이터, 그리고 각각의 원본 데이터에 대해서 50 개의 로 카운트 데이터를 무작위로 생성하여 총 2500 개의 로 카운트 데이터를 얻었다.
도 5를 참고하면, FeSe의 M-Γ-M 컷(cut)에 대하여 0.5 분 동안의 ARPES 데이터(a)와 50 분 동안의 ARPES 데이터(c)를 얻었다. 0.5 분 데이터(a)를 신경망에 입력하여 출력 데이터(b)를 구한 후 50 분 데이터(c)와 비교하였다. 도 5에서 볼 수 있듯이 0.5 분 데이터(a)는 잡음이 심하지만 이를 신경망에 입력시켜 잡음 제거한 출력 데이터(b)는 50 분 데이터(c)와 매우 비슷하다.
도 6을 참고하면, 도 5에 도시한 데이터의 2차 도함수(second derivative)에 대해서 0.5 분 데이터(a)와 50 분 데이터(c)를 얻고, 0.5 분 데이터(a)를 신경망에 입력하여 출력 데이터(b)를 구한 후 50 분 데이터(c)와 비교하였다. 도 6에서 볼 수 있듯이 0.5 분 데이터(a)는 거의 알아볼 수 없을 정도지만, 신경망 처리를 거친 출력 데이터(b)는 50 분 데이터(c)와 마찬가지로 잡음이 거의 없는 매우 선명한 모양을 보여준다.
도 7 및 도 8을 참고하면, Bi-2212의 노드 컷(nodal cut)에 대하여 0.5 분 ARPES 데이터(a)와 50 분 ARPES 데이터(c)를 얻었다. 0.5 분 데이터(a)를 신경망에 입력하여 출력 데이터(b)를 구한 후 50 분 데이터(c)와 비교하였다. 도 7에서 볼 수 있듯이 잡음이 심한 0.5 분 데이터(a)에 비하여 출력 데이터(b)는 50 분 데이터(c)와 매우 비슷하게 신호 대 잡음비가 매우 크다. 이러한 신호 대 잡음비 향상은 도 8에 도시한 운동량 분포 곡선(MDC: momentum distributions curve)에서 더욱 뚜렷하게 나타난다. 도 9 및 도 10을 참고하면, MDC를 적합화하는 선형 분석(line shape analysis)을 수행하여 얻은 피크 위치 및 폭에 대한 그래프의 경우, 도 9 및 도 10의 (b)에 도시한 바와 같이 신경망 처리를 거친 0.5 분 데이터가 50 분 데이터와 거의 동일하며, 이는 본 실험예에 따른 데이터 처리가 밴드 구조의 양적 정보를 보존한다는 것을 의미한다.
이와 같이 본 실시예에 따른 데이터, 예를 들어 ARPES 데이터 처리가 효과적인 것은, 인접한 화소들에 대한 데이터가 서로 연관되어 있기 때문인데, 여기에는 두 가지 중요한 요소가 작용한다. 첫째, ARPES 특징부의 크기가 화소 크기보다 커서, 하나의 ARPES 특징부가 여러 개의 화소를 점유한다는 점이다. 따라서 어떤 화소의 값이 크면 그에 인접한 화소의 값도 크다고 볼 수 있다. 둘째, 밴드 구조가 변화하는 길이가 화소 크기보다 크다는 점이다. 따라서 밴드 구조는 하나의 화소 내에서 급격하게 변화하지 않는다. 이는 밴드 구조가 짧은 거리 내에서 대략 병진 대칭성을 가진다는 것을 뜻한다. 어떤 화소에서의 정보가 잡음으로 인하여 흐려지더라도 인접 화소 값에서 추론한 통계적으로 최적인 값으로부터 복구할 수 있다. 그러므로 데이터 집합은 정보를 화소 단위로 단순하게 모은 것보다 더 많은 정보를 포함한다. 추가 정보를 통하여 잡음 섞인 데이터의 불완전한 정보를 복구할 수 있다.
이와 같이 인접 화소로부터의 정보로 데이터를 보완하므로 인접 화소 수가 많을수록 효과가 우수하다고 볼 수 있다. 따라서 본 발명의 실시예에 따른 데이터 처리는 저차원 데이터보다는 고차원 데이터의 경우에 더 효과적일 수 있다. 고차원일수록 데이터를 얻는 데 드는 시간이 오래 걸리므로 본 발명의 실시예에 따른 데이터 처리는 더욱 유용하다.
도 11을 참고하면, 합성곱 신경망의 깊이가 깊어질수록, 즉 층의 수가 많아질수록 손실되는 정보가 줄어듦, 예를 들어 단조 감소함을 알 수 있다. 층의 수가 20 개를 넘는 경우 경사 소멸/폭발로 인하여 안정적인 훈련을 할 수 없었다.
이와 같이 본 발명의 실시예에 따른 데이터 처리 방법은 데이터 획득 시간을 줄일 뿐 아니라 잡음도 더욱 줄일 수 있다.
1: 처리기
10: 신경망
20: 수신기
30: 생성기
40: 평가기

Claims (16)

  1. 신경망을 훈련시키는 단계,
    외부에서 입력 데이터를 수신하는 단계, 그리고
    상기 훈련받은 신경망을 통하여 상기 수신한 입력 데이터를 변환하는 단계
    를 포함하며,
    상기 훈련 단계는,
    원본 데이터로부터 하나 이상의 생성 데이터를 생성하는 단계,
    상기 신경망을 통하여 상기 생성 데이터를 출력 데이터로 변환하는 단계,
    상기 원본 데이터에 기초하여 상기 출력 데이터를 평가하는 단계, 그리고
    상기 평가 결과를 토대로 상기 신경망을 적정화하는 단계
    를 포함하며,
    상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르며,
    상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높은
    데이터 처리 방법.
  2. 제1항에서,
    상기 생성 단계는 상기 생성 데이터를 무작위로 생성하는 단계를 포함하는 데이터 처리 방법.
  3. 제1항에서,
    상기 통계적 분포는 포아송 분포인 데이터 처리 방법.
  4. 제1항에서,
    상기 입력 데이터 및 상기 원본 데이터는 분광학 데이터인 데이터 처리 방법.
  5. 제4항에서,
    상기 입력 데이터 및 상기 원본 데이터는 ARPES(angle-resolved photoelectron spectroscopy) 카운트 데이터인 데이터 처리 방법.
  6. 제1항에서,
    상기 생성 데이터의 수는 둘 이상인 데이터 처리 방법.
  7. 제1항에서,
    상기 신경망은 심층 신경망인 데이터 처리 방법.
  8. 제1항에서,
    상기 신경망은 심층 합성곱 신경망인 데이터 처리 방법.
  9. 제8항에서,
    상기 심층 합성곱 신경망의 층수는 20 이하인 데이터 처리 방법.
  10. 제1항에서,
    상기 평가 단계는 손실 함수를 사용하여 평가하며,
    상기 손실 함수는 평균 절대 오차(mean absolute error)와 다중 스케일 구조 유사 지수(multiscale structural similarity index)의 가중 합(weighted sum)을 포함하는
    데이터 처리 방법.
  11. 입력 데이터를 변환하는 처리기를 포함하며,
    상기 처리기는,
    원본 데이터를 수신하는 수신기,
    상기 원본 데이터로부터 하나 이상의 생성 데이터를 무작위로 생성하는 생성기,
    상기 생성 데이터를 출력 데이터로 변환하는 신경망, 그리고
    출력 데이터를 상기 원본 데이터에 기초하여 평가하는 평가기
    를 포함하며,
    상기 원본 데이터와 상기 생성 데이터는 통계적 분포에 따르고,
    상기 원본 데이터 및 상기 출력 데이터는 상기 생성 데이터보다 신호 대 잡음비가 높으며,
    상기 신경망은 상기 평가기의 출력에 따라 적정화되는
    데이터 처리 장치.
  12. 제11항에서,
    상기 통계적 분포는 포아송 분포인 데이터 처리 장치.
  13. 제11항에서,
    상기 입력 데이터 및 상기 원본 데이터는 ARPES(angle-resolved photoelectron spectroscopy) 카운트 데이터인 데이터 처리 장치.
  14. 제11항에서,
    상기 생성 데이터의 수는 둘 이상인 데이터 처리 장치.
  15. 제1항에서,
    상기 신경망은 층수가 20 이하인 심층 합성곱 신경망인 데이터 처리 장치.
  16. 제1항에서,
    상기 평가기는 손실 함수를 사용하여 상기 출력 데이터를 평가하며,
    상기 손실 함수는 평균 절대 오차와 다중 스케일 구조 유사 지수의 가중 합을 포함하는
    데이터 처리 장치.
KR1020210041786A 2021-03-31 2021-03-31 통계적 분포를 따르는 데이터의 처리 방법 및 장치 KR20220135724A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210041786A KR20220135724A (ko) 2021-03-31 2021-03-31 통계적 분포를 따르는 데이터의 처리 방법 및 장치
PCT/KR2022/004518 WO2022211497A1 (ko) 2021-03-31 2022-03-30 통계적 분포를 따르는 데이터의 처리 방법 및 장치
EP22781616.2A EP4318321A1 (en) 2021-03-31 2022-03-30 Method and device for processing data conforming to statistical distribution

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210041786A KR20220135724A (ko) 2021-03-31 2021-03-31 통계적 분포를 따르는 데이터의 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20220135724A true KR20220135724A (ko) 2022-10-07

Family

ID=83459504

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210041786A KR20220135724A (ko) 2021-03-31 2021-03-31 통계적 분포를 따르는 데이터의 처리 방법 및 장치

Country Status (3)

Country Link
EP (1) EP4318321A1 (ko)
KR (1) KR20220135724A (ko)
WO (1) WO2022211497A1 (ko)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9225889B1 (en) * 2014-08-18 2015-12-29 Entropix, Inc. Photographic image acquisition device and method
EP3278559B1 (en) * 2015-03-31 2021-05-05 Magic Pony Technology Limited Training end-to-end video processes
US10007977B2 (en) * 2015-05-11 2018-06-26 Netflix, Inc. Techniques for predicting perceptual video quality

Also Published As

Publication number Publication date
WO2022211497A1 (ko) 2022-10-06
EP4318321A1 (en) 2024-02-07

Similar Documents

Publication Publication Date Title
Leavline et al. Salt and pepper noise detection and removal in gray scale images: An experimental analysis
Chen et al. Blind median filtering detection using statistics in difference domain
CN109858408B (zh) 一种基于自编码器的超声信号处理方法
CN111612711A (zh) 一种基于生成对抗网络改进的图片去模糊方法
Hoshyar et al. Comparing the performance of various filters on skin cancer images
Tiwari et al. Statistical moments based noise classification using feed forward back propagation neural network
Ji et al. An approach to underwater image enhancement based on image structural decomposition
Malini et al. Image denoising using multiresolution singular value decomposition transform
Hosseini et al. Image sharpness metric based on maxpol convolution kernels
CN112991199A (zh) 一种基于残差密集网络的图像高低频分解噪声去除方法
Kuznetsov et al. A new copy-move forgery detection algorithm using image preprocessing procedure
Salmeri et al. Noise estimation in digital images using fuzzy processing
KR20220135724A (ko) 통계적 분포를 따르는 데이터의 처리 방법 및 장치
Wu et al. Comparative analysis of different methods for image enhancement
CN102915528B (zh) 阵列级联fhn模型随机共振机制的二值图像增强方法
Karthikeyan et al. Hybrid approach of efficient decision-based algorithm and fuzzy logic for the removal of high density salt and pepper noise in images
Sadangi et al. Efficient hardware implementation of switching median filter for extraction of extremely high impulse noise corrupted images
Alawsi et al. Performance Analysis of Noise Removal Techniques For Digital Images
Meena et al. Review and application of different contrast enhancement technique on various images
Pushpavalli et al. A fuzzy switching median filter for highly corrupted images
Mohan et al. AN ENHANCEMENT PROCESS FOR GRAY-SCALE IMAGES RESULTED FROM IMAGE FUSION USING MULTIRESOLUTION AND LAPLACIAN PYRAMID.
Wu et al. Automatic digital modulation recognition using wavelet transform and neural networks
CN113379643B (zh) 基于NSST域和Res2Net网络的图像去噪方法
Bandyopadhyay et al. High Density Impulse Noise Removal from Color Images by K-means Clustering based Detection and Least Manhattan Distance-oriented Removal Approach
Deng et al. Least squares support vector regression filter

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal