KR102248963B1 - 해무 예측 방법 및 그 장치 - Google Patents

해무 예측 방법 및 그 장치 Download PDF

Info

Publication number
KR102248963B1
KR102248963B1 KR1020200076462A KR20200076462A KR102248963B1 KR 102248963 B1 KR102248963 B1 KR 102248963B1 KR 1020200076462 A KR1020200076462 A KR 1020200076462A KR 20200076462 A KR20200076462 A KR 20200076462A KR 102248963 B1 KR102248963 B1 KR 102248963B1
Authority
KR
South Korea
Prior art keywords
sea
image
prediction
model
satellite
Prior art date
Application number
KR1020200076462A
Other languages
English (en)
Inventor
홍성욱
김예린
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020200076462A priority Critical patent/KR102248963B1/ko
Application granted granted Critical
Publication of KR102248963B1 publication Critical patent/KR102248963B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Atmospheric Sciences (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Environmental Sciences (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

해무 예측 방법 및 그 장치가 개시된다. 해무 예측 방법은 특정 지역에 대한 해무 위성 관측 데이터를 수집하는 단계-상기 해무 위성 관측 데이터는 복사량 및 반사도 중 적어도 하나를 포함함; 상기 해무 위성 관측 데이터를 해무 위성 영상으로 변환하는 단계; 상기 변환된 해무 위성 영상과 타겟 시점에 관측된 해무 위성 영상을 페어(pair)로 하는 데이터 셋을 구성하는 단계; 상기 데이터 셋을 이용하여 타겟 시점의 해무 예측 영상을 생성하도록 해무 예측 모델을 학습함에 있어 목적 함수가 최소가 되도록 상기 해무 예측 모델을 학습하는 단계; 및 상기 학습된 해무 예측 모델을 이용하여 해무 예측을 수행하는 단계를 포함한다.

Description

해무 예측 방법 및 그 장치{Method and apparatus for predicting sea fog}
본 발명은 인공 지능을 이용한 해무 예측 방법 및 그 장치에 관한 것이다.
인공위성의 열적외선 파장대는 해무에 민감하게 반응하여 정확한 해무의 발생, 성장, 소멸까지 알 수 있어 전 세계 기상청뿐만 아니라 해양 관련 기관들에서 사용하고 있다. 최근 알파고 이후 다양한 딥러닝 기술들이 빠르게 발전하고 있으며, 전 방위적으로 다양한 분야에 활용되고 있다.
그러나, 기존의 안개 예보는 그 정확도가 너무 낮아 기상청에서는 안개예보를 실시하고 있지 않다. 기상청에서는 2007년 안개 특보 시행 추진 계획을 수립하고, 2009년 4월부터 서울 및 수도권지역에서 안개 특보를 시험운영 하였으나, 특보 정확도가 40%에 불과하였다.
기상청에서는 10분, 30분, 1시간 안개 예측 정보를 서비스하고 있으며, 천리안 위성을 활용하거나 수치모델을 이용한 안개예보는 실황과는 차이가 매우 크고, 전국의 시정관측소에서 관측한 시정자료를 이용하여 육상의 안개 예측 정보에 대해 서비스를 하고 있다. 기상청의 안개 분석 가이드에 따르면, 2014년 기준으로 안개탐지율은 높은 설계가 30~40% 정도로 알려져 있다. 따라서, 해무 등 안개의 발생, 성장, 소멸까지 해무의 전주기 예측에 대한 효율적이고 정확한 분석 방법이 필요한 실정이다.
본 발명은 인공 지능을 이용한 해무 예측 방법 및 그 장치를 제공하기 위한 것이다.
또한, 본 발명은 위성 관측 자료를 기반으로 30분, 1시간 등 초단기 예측 가능하면서 높은 정확도로 해무 예측이 가능한 해무 예측 방법 및 그 장치를 제공하기 위한 것이다.
본 발명의 일 측면에 따르면, 인공 지능을 이용한 해무 예측 방법이 제공된다.
본 발명의 일 실시예에 따르면, 특정 지역에 대한 해무 위성 관측 데이터를 수집하는 단계-상기 해무 위성 관측 데이터는 복사량 및 반사도 중 적어도 하나를 포함함; 상기 해무 위성 관측 데이터를 해무 위성 영상으로 변환하는 단계; 상기 변환된 해무 위성 영상과 타겟 시점에 관측된 해무 위성 영상을 페어(pair)로 하는 데이터 셋을 구성하는 단계; 상기 데이터 셋을 이용하여 타겟 시점의 해무 예측 영상을 생성하도록 해무 예측 모델을 학습함에 있어 목적 함수가 최소가 되도록 상기 해무 예측 모델을 학습하는 단계; 및 상기 학습된 해무 예측 모델을 이용하여 해무 예측을 수행하는 단계를 포함하는 해무 예측 방법이 제공될 수 있다.
상기 해무 위성 영상은 하기 수학식을 이용하여 변환되되,
Figure 112020064523455-pat00001
여기서, i 와 j는 픽셀 인덱스이며,
Figure 112020064523455-pat00002
는 n번째 관측된 위성 관측 데이터를 나타내고,
Figure 112020064523455-pat00003
는 n번째 해무 위성 관측 데이터로부터 변환된 디지털값을 나타내며, Max()는 최대값을 구하는 함수이고, Min()은 최소값을 구하는 함수이다.
상기 해무 예측 모델은, 대립 신경망 기반으로 상기 변환된 해무 위성 영상을 이용하여 해무 예측 영상을 반복적으로 수행하도록 학습되되, 상기 변환된 해무 위성 영상을 이용하여 해무 예측 영상 생성을 반복 수행함에 있어 상기 해무 예측 영상에 대한 예측 정확도에 대한 제1 손실 함수가 최소가 되도록 상기 해무 예측 영상 생성을 반복적으로 수행하며, 상기 해무 예측 영상과 상기 변환된 해무 위성 영상과 페어를 이루를 관측된 해무 위성 영상과의 유사성에 대한 제2 손실 함수가 최소가 되도록 학습될 수 있다.
상기 관측된 해무 위성 영상은 위성의 특정 채널을 통해 획득된 영상에서 상기 특정 지역을 관심 영역으로 a x b 크기를 가지며 위경도가 동일하게 전처리되되, 상기 a x b는 2의 배수인 자연수이다.
본 발명의 다른 측면에 따르면, 인공 지능을 이용한 해무 예측 장치가 제공된다.
본 발명의 일 실시예에 따르면, 특정 지역에 대한 해무 위성 관측 데이터를 수집하는 통신부-상기 해무 위성 관측 데이터는 복사량이나 반사도 및 위성 영상 중 적어도 하나를 포함함; 상기 해무 위성 관측 데이터를 해무 위성 영상으로 변환하는 전처리부; 상기 변환된 해무 위성 영상과 타겟 시점에 관측된 해무 위성 영상을 페어(pair)로 하는 데이터 셋을 구성하는 데이터 구성부; 상기 데이터 셋을 이용하여 타겟 시점의 해무 예측 영상을 생성하도록 해무 예측 모델을 학습함에 있어 목적 함수가 최소가 되도록 상기 해무 예측 모델을 학습하는 학습부; 및 상기 학습된 해무 예측 모델을 이용하여 해무 예측을 수행하는 예측부를 포함하는 해무 예측 장치가 제공될 수 있다.
본 발명의 일 실시예에 따른 인공 지능을 이용한 해무 예측 방법 및 그 장치를 제공함으로써, 위성 관측 자료를 기반으로 30분, 1시간 등 초단기 예측 가능하면서 높은 정확도로 해무 예측이 가능하다.
도 1은 본 발명의 일 실시예에 따른 해무 예측 방법을 나타낸 순서도.
도 2는 히마와리 위성을 통해 2018년 3월 13일 09시 30분에 서해상에서 발생한 해무를 관측한 예시도.
도 3은 본 발명의 일 실시예에 따른 데이터 셋의 구성을 설명하기 위해 도시한 도면.
도 4는 본 발명의 일 실시예에 따른 예측된 해무와 실제 관측된 해무의 시간별 변화를 보여주는 도면.
도 5은 본 발명의 일 실시예에 따른 해무 예측 영상과 실제 관측된 해무 위성 영상에 대한 통계적 지수 검증 결과를 도시한 도면.
도 6은 본 발명의 일 실시예에 따른 소프트웨어 프로그램 코드의 일 예를 도시한 도면.
도 7은 본 발명의 일 실시예에 따른 해무 예측 장치의 내부 구성을 개략적으로 도시한 블록도.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 해무 예측 방법을 나타낸 순서도이며, 도 2는 히마와리 위성을 통해 2018년 3월 13일 09시 30분에 서해상에서 발생한 해무를 관측한 예시도이고, 도 3은 본 발명의 일 실시예에 따른 데이터 셋의 구성을 설명하기 위해 도시한 도면이며, 도 4는 본 발명의 일 실시예에 따른 예측된 해무와 실제 관측된 해무의 시간별 변화를 보여주는 도면이고, 도 5은 본 발명의 일 실시예에 따른 해무 예측 영상과 실제 관측된 해무 위성 영상에 대한 통계적 지수 검증 결과를 도시한 도면이고, 도 6은 본 발명의 일 실시예에 따른 소프트웨어 프로그램 코드의 일 예를 도시한 도면이다.
단계 110에서 해무 예측 장치(100)는 해무 관련 위성 관측 자료를 수집한다. 예를 들어, 해무 예측 장치(100)는 특정 위성의 특정 채널을 통해 해무 관련 위성 관측 자료를 수집할 수 있다. 이때, 해무 예측 장치(100)는 위성의 하나의 채널을 이용하여 해무 관련 위성 관측 자료를 수집하는 것이 아니라, 복수의 채널을 통해 서로 다른 해무 관련 위성 관측 자료를 수집할 수도 있다.
본 발명의 일 실시예에 따르면 해무 관련 위성 관측 자료는 반사도나 복사량일 수 있다. 물론, 해무 관련 위성 관측 자료는 특정 지역에 대해 관측된 위성 영상일 수도 있다.
본 발명의 일 실시예에 따르면, 관측된 해무 위성 영상은 위성(예를 들어, 히마와리 위성)의 3.75 채널에서 시간 차를 두고 관측된 해무 위성 영상일 수도 있다.
예를 들어, 기상 위성인 히마와리(Himawari) 위성 관측 자료가 수집될 수 있다. 히마와리 위성의 3.75 μm채널은 해무에 민감하며, 우리나라, 동남아시아, 호주, 일본의 기상청에서 안개 관측에 사용하고 있다. 히마와리 위성은 매 10분마다 동아시아 영역을 관측하고 있으며, 해무 발생이 잦은 우리나라 서해부분도 포함된다.
도 2는 히마와리 위성을 통해 2018년 3월 13일 09시 30분에 서해상에서 발생한 해무를 관측한 예시도이다. 우리 나라 서해상부터 북한쪽 공해상까지 광범위한 범위에 걸쳐 해무가 발생하였다. 해무는 구름과 달리 바다에 비해 어두운 색으로 나타나며, 구름에 비해 시간이 변함에 따라 이동속도가 느린 특징이 있다.
단계 115에서 해무 예측 장치(100)는 해무 관련 위성 관측 자료를 전처리한다.
우선 해무 예측 장치(100)는 해무 관련 위성 관측 자료 중 해무 영상에서 타겟 지역을 관심 영역으로 선택하고, 관심 영역에 맞게 해무 영상을 잘라 표준화할 수 있다. 예를 들어, 해무 영상은 한반도 영역을 관심 영역으로 선택한 후 관심 영역을 a x b 픽셀 크기의 영상으로 표준화할 수 있다. 여기서, a 및 b는 자연수이며, 본 발명의 일 실시예에서는 256인 것을 가정하여 이를 중심으로 설명하나 전처리된 해무 영상의 해상도는 상이할 수도 있음은 당연하다. 또한, 해무 영상은 위경도가 동일하도록 전처리될 수 있다.
또한, 해무 예측 장치(100)는 해무 관련 위성 관측 자료 중 반사도나 복사량을 위성 영상으로 변환할 수도 있다. 예를 들어, 해무 예측 장치(100)는 하기 수학식 1을 이용하여 반사도나 복사량에 대한 위성 관측 자료를 위성 영상으로 변환할 수 있다.
Figure 112020064523455-pat00004
여기서,
Figure 112020064523455-pat00005
은 n번째 관측된 위성 관측 자료를 나타내며, 반사도나 복사량일 수 있다. DN은 관측된 위성 자료로부터 0 ~ 255 사이로 변환되는 디지털 넘버를 나타내며, i와 j는 256 x 256내에서의 픽셀 인덱스를 나타내고, Max()는 최대값을 구하는 함수이며, Min()은 최소값을 구하는 함수이며, n은 데이터쌍의 개수를 나타낸다.
단계 120에서 해무 예측 장치(100)는 데이터 셋을 구성한다.
예를 들어, 해무 예측 장치(100)는 해무 예측 모델을 학습하기 위한 데이터 셋을 구성할 수 있다. 즉, 제1 시간(t)의 변환된 해무 위성 영상(A1)과 제1 시간으로부터 일정 시간 이후 예측을 원하는 제2 시점(시간)(t+
Figure 112020064523455-pat00006
)의 해무 위성 영상(B1)을 각각 페어(pair)로 하여 데이터 셋을 구성할 수 있다.
데이터 셋의 구성을 수학적으로 표현하면 수학식 2와 같이 나타낼 수 있다.
Figure 112020064523455-pat00007
예를 들어, 데이터 셋 구성시 변환된 해무 위성 영상과 해당 시점에 관측된 해무 위성 영상을 페어로 하여 구성될 수도 있다.
도 3을 참조하여 이에 대해 설명하기로 한다. 도 3을 참조하면, 관측된 해무 위성 영상을 이용하여 1시간 이후 해무 예측을 위한 데이터 셋을 구성한 일 예가 도시되어 있다. 각각의 시간에서 1시간 후 위성을 통해 실제 관측된 해무 위성 영상을 각각 페어로 하여 데이터 셋을 구성할 수 있다.
이와 같이, 데이터 셋 구성이 완료되면, 단계 125에서 해무 예측 장치(100)는 구성된 데이터 셋을 이용하여 해무 예측 모델을 학습한다.
본 발명의 일 실시예에 따르면, 해무 예측 모델은 대립 신경망(이하, CGAN이라 칭하기로 함) 모델과 콘볼루션 신경망(이하, CNN이라 칭하기로 함) 모델을 기반으로 구성되며, 각각에 대한 손실 함수가 최소가 되도록 학습될 수 있다.
이에 대해 보다 상세히 설명하기로 한다.
우선, 해무 예측 모델은 데이터 셋을 이용하여 가상 해무 예측 영상을 생성할 수 있다. 이때, 해무 예측 모델은 입력 데이터로 변환된 해무 위성 영상을 이용하여 출력 데이터인 관측된 해무 위성 영상과 유사하도록 가상 해무 예측 영상을 반복적으로 생성할 수 있다.
즉, 해무 예측 모델은 CGAN 모델을 이용하여 특정 시간(t)에 해당하는 변환된 해무 위성 영상(A1)을 입력 자료로 하여 예측 시간(t+
Figure 112020064523455-pat00008
) 후의 해무 예측 영상(A2')를 생성할 수 있다. 이때, CGAN 모델은 손실함수(
Figure 112020064523455-pat00009
)이 최소가 되도록 예측 정확성을 높일 때까지 반복 수행할 수 있다.
해무 영상에 대한 정확성은 하기의 수학식 3을 이용하여 결정될 수 있다.
Figure 112020064523455-pat00010
여기서, E는 기대값을 나타내고, G는 CGAN의 영상 생성기를 나타내며, D는 CGAN의 영상 판별기를 나타낸다. A1은 특정 시간(t)에 해당하는 해무 위성 관측 영상을 나타내고, A2는 예측 시간(t+
Figure 112020064523455-pat00011
) 후에 관측된 해무 영상을 나타내며, G(X)는 예측 시간(t+
Figure 112020064523455-pat00012
) 후에 예측된 해무 영상을 나타낸다.
또한, 해무 예측 영상과 관측 영상간의 유사성은 CNN 모델을 이용하여 판별될 수 있다.
예를 들어, 해무 예측 장치(100)는 수학식 4를 이용하여 CNN 모델의 손실 함수를 계산할 수 있다.
Figure 112020064523455-pat00013
여기서, E는 기대값을 나타내고, A2는 예측 시간(t+
Figure 112020064523455-pat00014
) 후에 관측된 해무 영상(관측 영상)을 나타내고, G(X)는 예측 시간(t+
Figure 112020064523455-pat00015
) 후에 CGAN 모델을 통해 예측된 해무 영상을 나타낸다. 또한,
Figure 112020064523455-pat00016
는 관측 영상과 예측된 해무 영상의 픽셀별 거리를 계산하는 함수를 나타낸다.
본 발명의 일 실시예에 따르면, 해무 예측 모델은 CGAN 모델과 CNN 모델의 손실 함수가 최소가 되도록 학습이 수행될 수 있다. 즉, 영상 생성기 G에 의해 생성(예측)된 해무 영상은 관측 영상과의 차이가 최소가 되도록 하며, 영상 판별기 D로 인한 판별은 최대가 되도록 학습될 수 있다.
이를 수학식으로 나타내면, 수학식 5와 같다.
Figure 112020064523455-pat00017
해무 예측 장치(100)는 해무 예측 모델을 통해 예측 시간차(
Figure 112020064523455-pat00018
)를 두고 예측된 해무 예측 영상(A2')을 획득할 수 있다. 예측된 해무 예측 영상과 실제 관측된 해무 위성 영상(B2)를 통계적으로 비교하여 정확도를 계산한 후 임계값에 도달하면 해무 예측 모델에 대한 학습이 완료될 수 있다.
단계 130에서 해무 예측 장치(100)는 검증 과정을 수행한다.
해무 예측 장치(100)는 학습에 사용되지 않은 해무 위성 관측 자료를 이용하여 검증 데이터 셋을 구축한 후 이를 이용하여 학습된 해무 예측 모델을 이용하여 해무 예측을 수행한다.
이후, 해무 예측 장치(100)는 해무 위성 관측 자료를 변환한 해무 위성 영상을 이용하여 특정 시점에 대한 해무 예측 영상을 생성하고, 이를 해당 특정 시점에 관측된 해무 위성 영상과 비교하여 검증하는 과정을 수행할 수 있다.
도 4에는 2018년 3월 13일에 위성을 통해 9시, 10시, 11시, 12시에 관측된 해무 위성 영상이다. 9시경에 해무가 발달하다가 12시로 갈수록 조금씩 약화되는 모습이 관측되는 것을 알 수 있다.
도 4의 410은 해무 예측 모델을 통해 각각의 시간에 상응하여 예측된 해무 예측 영상을 예시하고 있다. 실제 관측시간보다 1시간 전에 미리 해무 예측 모델로 예측한 해무의 시간별 변화를 보여준다. 시간대에 관계없이 해무 예측 모델을 통해 예측된 해무 예측 영상에서 보여지는 바와 같이, 정성적으로 매우 정확하게 해무의 위치와 분포를 예측할 수 있음을 보여준다.
도 5은 본 발명의 일 실시예에 따른 해무 예측 영상과 실제 관측된 해무 위성 영상에 대한 통계적 지수 검증 결과를 도시한 도면이다.
우선 본 발명의 일 실시예에서는 검증에 결정 계수를 이용하고 있다. 결정 계수는 수학식 6으로 표현될 수 있다.
Figure 112020064523455-pat00019
결정 계수는 해무 예측 영상과 실제 관측 영상 사이의 관계를 정량적으로 나타낸 것으로 값이 1에 가까울수록 예측의 정확도가 높으며, 0에 가까울수록 예측의 정확도가 없음을 나타낸다.
여기서,
Figure 112020064523455-pat00020
는 위성 관측 자료(예를 들어, 관측된 해무 위성 영상)를 나타내고, f는 해무 예측 영상을 나타내며, i는 위성 영상의 개별 화소를 나타내며,
Figure 112020064523455-pat00021
는 위성 관측 자료의 평균값을 나타내고,
Figure 112020064523455-pat00022
는 해무 예측 영상의 평균값을 나타내며, n은 위성 영상 전체 화소수를 나타낸다.
또한, 오차(bias)는 수학식 7과 같이 도출될 수 있다.
Figure 112020064523455-pat00023
BIAS는 해무 예측 영상과 실제 관측된 해무 위성 영상의 누적된 값의 차를 나타낸다. 즉, 0에 가까운 값일수록 해무 예측 결과의 정확도가 높은 것을 의미한다.
RMSE(root mean square error)는 수학식 8을 이용하여 도출될 수 있다.
Figure 112020064523455-pat00024
RMSE는 해무 예측 영상과 실제 관측 영상의 차이를 제곱하여 평균한 값의 제곱근으로써, 두 값의 차이를 정량적으로 보여주는 척도로 정밀도를 표현하는데 적합하다.
RMSE값이 0에 가까울수록 예측된 해무 자료의 정확도가 높음을 설명할 수 있다.
도 5를 참조하면, 본 발명의 일 실시예에 따른 해무 예측 영상은 원하는 예측시간이 길수록 그 정확도는 조금씩 낮아지지만, 1시간 예측일 때에도 결정계수 (Coefficient of Determination)가 0.67~0.78 정도로 매우 높은 것을 알 수 있다. 수학적으로, 결정계수 > 0.65 이면, 매우 결정력이 높다고 판단된다. 오차 (bias)는 -2.25에서 18.87, RMSE (Root-Mean-Square-Error)는 9.50에서 10.65 정도로 매우 낮으며, 정확한 예측에 가깝다고 할 수 있다.
종래의 수치 모델의 경우, 대략 1시간 예측에 대해 정확도가 30 ~40%에 불과한 것과 비교하면, 본 발명의 일 실시예에 따른 해무 예측 모델은 67% 이상의 정확도를 보이고 있어 종래와 비교하여 매우 정확하게 해무 예측이 가능한 것을 알 수 있다.
이외에도, 본 발명의 일 실시예에서는 검증을 위해 탐지 확률(POD), 임계성공지수(CSI), Heidke 기술 점수(HSS) 중 적어도 하나를 더 이용할 수도 있다.
탐지 확률(POD), 임계성공지수(CSI), Heidke 기술 점수(HSS) 등은 하기의 표 1을 이용하여 산출될 수 있다.
구분 해무관측(at t) = 1 (Yes) 해무관측(at t) = 0 (No)
해무예측(at
Figure 112020064523455-pat00025
) = 1 (Yes)
A B
해무예측(at
Figure 112020064523455-pat00026
) = 0(No)
C D
표 1은 예측 시간(
Figure 112020064523455-pat00027
)의 해무 예측 결과와 t시간에 해무 관측 결과인 기준값의 비교표를 나타낸다. 표1에서 1은 픽셀별로 해무가 있음을 의미하며, 0은 해무가 없음을 의미한다. A, B, C, D는 해당하는 픽셀의 개수를 의미한다.
탐지확률(POD)은 관측된 해무 위성 영상에서의 해무 픽셀수와 해무 예측 영상의 해무 픽셀 수의 비율로 나타낼 수 있으며, 1에 가까울수록 정확도가 높음을 의미한다. 탐지 확률(POD)은 수학식 9를 통해 산출될 수 있다.
Figure 112020064523455-pat00028
임계성공지수(CSI)는 관측된 해무 위성 영상과 해무 예측 영상 모두에서 각각 해무를 탐지한 개수로 관측과 예측이 동시에 해무를 탐지한 비율로 나타낼 수 있다. 임계성공지수(CSI)는 1에 가까울수록 정확도가 높음을 나타낸다. 임계성공지수(CSI)는 아래의 수학식 10을 이용하여 산출될 수 있다.
Figure 112020064523455-pat00029
Heidke 기술 점수는 관측값과 해무예측값의 정확성을 평가하는 지수로서, 1에 가까운 값일수록 정확도가 높음을 의미한다. Heidke 기술 점수(HSS)는 아래의 수학식 11를 통해 산출될 수 있다.
Figure 112020064523455-pat00030
이와 같이, 다양한 검증 모델을 통해 해무 예측 모델을 검증할 수 있다.
검증이 완료되면, 단계 135에서 해무 예측 장치(100)는 학습 및 검증이 완료된 해무 예측 모델을 통해 특정 시점의 해무를 예측한다.
도 1에서 설명한 방법들을 구현한 소프트웨어 프로그램 코드의 일 예는 도 6에 도시되어 있다.
도 7은 본 발명의 일 실시예에 따른 해무 예측 장치의 내부 구성을 개략적으로 도시한 블록도이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 해무 예측 장치(100)는 통신부(710), 전처리부(715), 데이터 구성부(720), 학습 및 검증부(725), 예측부(730), 메모리(735) 및 프로세서(740)를 포함하여 구성된다.
통신부(710)는 통신망을 통해 다른 장치들과 데이터를 송수신하기 위한 수단이다.
예를 들어, 통신부(710)는 위성을 통해 해무 관련 위성 관측 자료를 수집할 수 있다.
전처리부(715)는 해무 관련 위성 관측 자료를 전처리하기 위한 수단이다. 이는 도 1에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다.
데이터 구성부(720)는 해무 예측 모델의 학습 및 예측을 위한 데이터 셋을 구성하기 위한 수단이다. 데이터 셋의 구성에 대해서는 도 1에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다. 학습이 완료된 이후 해무 예측 모델을 위한 데이터 셋은 학습을 위한 데이터 셋과는 상이하게 구성될 수 있음은 당연하다.
학습 및 검증을 위해서는 데이터 셋이 입력과 출력으로 각각 매핑되어 페어로 구성될 수 있으나, 학습 및 검증이 완료된 이후에는 입력과 출력이 매핑되지 않을 수도 있다.
학습 및 검증부(725)는 데이터 셋을 이용하여 해무 예측 모델을 학습하고, 학습된 해무 예측 모델을 검증하기 위한 수단이다. 이는 도 1에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다.
예측부(730)는 학습된 해무 예측 모델을 이용하여 해무를 예측하기 위한 수단이다.
메모리(735)는 본 발명의 일 실시예에 따른 인공 지능을 이용한 해무 예측 방법을 수행하기 위해 필요한 다양한 명령어들(프로그램 코드들)을 저장하기 위한 수단이다.
프로세서(740)는 본 발명의 일 실시예에 따른 해무 예측 장치(100)의 내부 구성 요소들(예를 들어, 통신부(710), 전처리부(715), 데이터 구성부(720), 학습 및 검증부(725), 예측부(730), 메모리(735))을 제어하기 위한 수단이다.
본 발명의 실시 예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100: 해무 예측 장치
710: 통신부
715: 전처리부
720: 데이터 구성부
725: 학습 및 검증부
730: 예측부
735: 메모리
740: 프로세서

Claims (7)

  1. 특정 지역에 대한 해무 위성 관측 데이터를 수집하는 단계-상기 해무 위성 관측 데이터는 복사량 및 반사도 중 적어도 하나를 포함함;
    상기 복사량이나 반사도에 대한 해무 위성 관측 데이터를 상기 복사량이나 반사량에 대한 해무 위성 영상으로 변환하는 단계;
    상기 변환된 해무 위성 영상과 타겟 시점에 관측된 해무 위성 영상을 페어(pair)로 하는 데이터 셋을 구성하는 단계;
    상기 데이터 셋을 이용하여 타겟 시점의 해무 예측 영상을 생성하도록 해무 예측 모델을 학습함에 있어 목적 함수가 최소가 되도록 상기 해무 예측 모델을 학습하는 단계; 및
    상기 학습된 해무 예측 모델을 이용하여 해무 예측을 수행하는 단계를 포함하되,
    상기 해무 예측 모델은, 상이한 제1 모델과 제2 모델을 포함하며, 상기 제1 모델과 상기 제2 모델의 손실 함수가 최소가 되도록 학습되되, 상기 제1 모델의 영상 생성기에 의해 예측된 해무 예측 영상과 페어를 형성한 관측 영상과의 차이는 최소가 되도록 하며, 상기 제1 모델의 영상 판별기로 인한 판별은 최대가 되도록 학습되되,
    상기 제1 모델은 대립 신경망 기반 모델로 상기 변환된 해무 위성 영상을 이용하여 타겟 시점의 해무 예측 영상을 반복적으로 수행하도록 학습되되, 상기 변환된 해무 위성 영상을 이용하여 해무 예측 영상 생성을 반복 수행함에 있어 상기 해무 예측 영상에 대한 예측 정확도에 대한 제1 손실 함수가 최소가 되도록 상기 해무 예측 영상 생성을 반복적으로 수행하며,
    상기 제2 모델은 콘볼루션 기반 모델로 상기 해무 예측 영상과 상기 변환된 해무 위성 영상과 페어를 형성한 관측된 해무 위성 영상과의 유사성에 대한 제2 손실 함수가 최소가 되도록 학습되는 것을 특징으로 하는 해무 예측 방법.
  2. 제1 항에 있어서,
    상기 해무 위성 영상은 하기 수학식을 이용하여 변환되는 것을 특징으로 하는 해무 예측 방법.
    Figure 112020064523455-pat00031

    여기서, i 와 j는 픽셀 인덱스이며,
    Figure 112020064523455-pat00032
    는 n번째 관측된 위성 관측 데이터를 나타내고,
    Figure 112020064523455-pat00033
    는 n번째 해무 위성 관측 데이터로부터 변환된 디지털값을 나타내며, Max()는 최대값을 구하는 함수이고, Min()은 최소값을 구하는 함수임.
  3. 삭제
  4. 제1 항에 있어서,
    상기 관측된 해무 위성 영상은 위성의 특정 채널을 통해 획득된 영상에서 상기 특정 지역을 관심 영역으로 a x b 크기를 가지며 위경도가 동일하게 전처리되되,
    상기 a x b는 2의 배수인 자연수인 것을 특징으로 하는 해무 예측 방법.
  5. 제1 항에 따른 방법을 수행하기 위한 프로그램 코드를 기록한 컴퓨터로 판독 가능한 기록매체 제품.
  6. 특정 지역에 대한 해무 위성 관측 데이터를 수집하는 통신부- 상기 해무 위성 관측 데이터는 복사량, 반사도 및 위성 영상 중 적어도 하나를 포함함;
    상기 복사량이나 반사도에 대한 해무 위성 관측 데이터를 복사량이나 반사도에 대한 해무 위성 영상으로 변환하는 전처리부;
    상기 변환된 해무 위성 영상과 타겟 시점에 관측된 해무 위성 영상을 페어(pair)로 하는 데이터 셋을 구성하는 데이터 구성부;
    상기 데이터 셋을 이용하여 타겟 시점의 해무 예측 영상을 생성하도록 해무 예측 모델을 학습함에 있어 목적 함수가 최소가 되도록 상기 해무 예측 모델을 학 습하는 학습부; 및
    상기 학습된 해무 예측 모델을 이용하여 해무 예측을 수행하는 예측부를 포함하되,
    상기 해무 예측 모델은, 서로 상이한 제1 모델과 제2 모델을 포함하며, 상기 제1 모델과 상기 제2 모델의 손실 함수가 최소가 되도록 학습되되, 상기 제1 모델의 영상 생성기에 의해 예측된 해무 예측 영상과 페어를 형성한 관측 영상과의 차이는 최소가 되도록 하며, 상기 제1 모델의 영상 판별기로 인한 판별은 최대가 되도록 학습되되,
    상기 제1 모델은 대립 신경망 기반 모델로 상기 변환된 해무 위성 영상을 이용하여 타겟 시점의 해무 예측 영상을 반복적으로 수행하도록 학습되되, 상기 변환된 해무 위성 영상을 이용하여 해무 예측 영상 생성을 반복 수행함에 있어 상기 해무 예측 영상에 대한 예측 정확도에 대한 제1 손실 함수가 최소가 되도록 상기 해무 예측 영상 생성을 반복적으로 수행하며,
    상기 제2 모델은 콘볼루션 기반 모델로 상기 해무 예측 영상과 상기 변환된 해무 위성 영상과 페어를 형성한 관측된 해무 위성 영상과의 유사성에 대한 제2 손실 함수가 최소가 되도록 학습되는 것을 특징으로 하는 해무 예측 장치.

  7. 삭제
KR1020200076462A 2020-06-23 2020-06-23 해무 예측 방법 및 그 장치 KR102248963B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200076462A KR102248963B1 (ko) 2020-06-23 2020-06-23 해무 예측 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200076462A KR102248963B1 (ko) 2020-06-23 2020-06-23 해무 예측 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR102248963B1 true KR102248963B1 (ko) 2021-05-06

Family

ID=75916243

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200076462A KR102248963B1 (ko) 2020-06-23 2020-06-23 해무 예측 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR102248963B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114238847A (zh) * 2021-10-29 2022-03-25 中国人民解放军61540部队 一种基于海洋实测数据的表层准地转重构方法及系统
CN115016040A (zh) * 2022-08-08 2022-09-06 广东省气象公共服务中心(广东气象影视宣传中心) 基于多模型智能选择的海雾预测方法、装置、设备及介质
KR20230088146A (ko) 2021-12-10 2023-06-19 한국해양과학기술원 일기도 기반의 해무 예측 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101618228B1 (ko) * 2014-07-29 2016-05-04 대한민국 인공위성기반 안개탐지시스템 및 이를 이용하는 안개탐지방법
JP2017003416A (ja) * 2015-06-10 2017-01-05 古野電気株式会社 降水予測システム
KR101938829B1 (ko) * 2018-03-23 2019-01-16 대한민국(해양수산부 국립해양조사원) 해무의 발생을 예측하는 뉴럴 네트워크 학습 방법 및 장치
KR102042385B1 (ko) * 2019-06-10 2019-11-07 세종대학교산학협력단 가상 위성영상 생성 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101618228B1 (ko) * 2014-07-29 2016-05-04 대한민국 인공위성기반 안개탐지시스템 및 이를 이용하는 안개탐지방법
JP2017003416A (ja) * 2015-06-10 2017-01-05 古野電気株式会社 降水予測システム
KR101938829B1 (ko) * 2018-03-23 2019-01-16 대한민국(해양수산부 국립해양조사원) 해무의 발생을 예측하는 뉴럴 네트워크 학습 방법 및 장치
KR102042385B1 (ko) * 2019-06-10 2019-11-07 세종대학교산학협력단 가상 위성영상 생성 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114238847A (zh) * 2021-10-29 2022-03-25 中国人民解放军61540部队 一种基于海洋实测数据的表层准地转重构方法及系统
CN114238847B (zh) * 2021-10-29 2023-02-10 中国人民解放军61540部队 一种基于海洋实测数据的表层准地转重构方法及系统
KR20230088146A (ko) 2021-12-10 2023-06-19 한국해양과학기술원 일기도 기반의 해무 예측 장치 및 방법
CN115016040A (zh) * 2022-08-08 2022-09-06 广东省气象公共服务中心(广东气象影视宣传中心) 基于多模型智能选择的海雾预测方法、装置、设备及介质
CN115016040B (zh) * 2022-08-08 2022-11-22 广东省气象公共服务中心(广东气象影视宣传中心) 基于多模型智能选择的海雾预测方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
KR102248963B1 (ko) 해무 예측 방법 및 그 장치
CN110555841B (zh) 基于自注意图像融合和dec的sar图像变化检测方法
CN107918166B (zh) 多卫星融合降水方法及系统
Gaidai et al. A novel multi regional reliability method for COVID-19 death forecast
CN113496104A (zh) 基于深度学习的降水预报订正方法及系统
CN112200362B (zh) 一种滑坡的预测方法、装置、设备和存储介质
JP2019211342A (ja) 気象解析装置、気象解析方法、およびプログラム
KR102248974B1 (ko) 인공지능 기반 레이더 강수 예측 방법 및 그 장치
KR20200052398A (ko) 머신 러닝 기법을 이용한 산사태 취약성 지도 작성 방법 및 장치
Kim et al. Statistical–dynamical seasonal forecast for tropical cyclones affecting New York State
KR102042385B1 (ko) 가상 위성영상 생성 방법 및 장치
Yin et al. Advanced machine learning techniques for predicting nha trang shorelines
Shahabi et al. A deep-learning model for rapid spatiotemporal prediction of coastal water levels
Tan et al. Projected changes of typhoon intensity in a regional climate model: Development of a machine learning bias correction scheme
Caroselli et al. Deep learning-based passive hazard detection for asteroid landing in unexplored environment
CN110751201A (zh) 基于纹理特征变换的sar装备任务失效成因推理方法
CN114202104B (zh) 热带气旋路径相似程度确定方法及存储介质
Chen et al. CNN-LSTM-attention deep learning model for mapping landslide susceptibility in Kerala, India
KR102411074B1 (ko) 인공지능과 위성영상을 이용한 냉수대 탐지 및 예측을 위한 장치 및 방법
Reulen et al. Ga-smaat-gnet: Generative adversarial small attention gnet for extreme precipitation nowcasting
CN115081519A (zh) 基于强化学习的自动对星方法
Beker et al. Deep learning for subtle volcanic deformation detection with InSAR data in central volcanic zone
KR20220067273A (ko) 조건적 적대적 신경망 딥러닝 기법을 사용한 24시간 후의 전지구적 총 전자수 함유량 예측 장치 및 그 방법
Nguyen Deep learning for tropical cyclone formation detection
Felton et al. Accelerated AI Powered Atmospheric Predictions for Space Domain Awareness Applications

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant