KR102389960B1 - Sea fog or fog detection system and method using satellite photos - Google Patents

Sea fog or fog detection system and method using satellite photos Download PDF

Info

Publication number
KR102389960B1
KR102389960B1 KR1020200098187A KR20200098187A KR102389960B1 KR 102389960 B1 KR102389960 B1 KR 102389960B1 KR 1020200098187 A KR1020200098187 A KR 1020200098187A KR 20200098187 A KR20200098187 A KR 20200098187A KR 102389960 B1 KR102389960 B1 KR 102389960B1
Authority
KR
South Korea
Prior art keywords
fog
information
image
sea
satellite
Prior art date
Application number
KR1020200098187A
Other languages
Korean (ko)
Other versions
KR20220017773A (en
Inventor
채신태
Original Assignee
(주)시정
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)시정 filed Critical (주)시정
Priority to KR1020200098187A priority Critical patent/KR102389960B1/en
Publication of KR20220017773A publication Critical patent/KR20220017773A/en
Application granted granted Critical
Publication of KR102389960B1 publication Critical patent/KR102389960B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W2001/006Main server receiving weather information from several sub-stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30192Weather; Meteorology
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Ecology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Environmental Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

인공위성 사진을 이용하는 해무 또는 안개 검출 시스템 및 방법이 제공된다. 본 발명의 실시예에 따른 해무 또는 안개 검출 시스템은, 인공위성 정보, 기상 관측소 정보 및 CCTV 영상 정보를 획득하는 통신부; 및 획득한 데이터들을 기반으로 해무 또는 안개를 검출하는 프로세서;를 포함한다. 이에 의해, 인공위성 정보, 기상 관측소 정보 및 CCTV 영상 정보를 기반으로 해무 또는 안개를 검출하고, 검출 결과를 기반으로 시정거리를 산출하며, 도로 CCTV 영상을 기반으로 도로의 안개, 강우, 강설, 적설, 결빙 현황을 파악하여 제공할 수 있으며, 실시간 전국 안개 지도 서비스를 제공할 수 있다. A system and method for detecting sea fog or fog using satellite imagery are provided. Sea fog or fog detection system according to an embodiment of the present invention, the communication unit for acquiring satellite information, weather station information and CCTV image information; and a processor that detects sea fog or fog based on the acquired data. Accordingly, sea fog or fog is detected based on satellite information, weather station information and CCTV image information, visibility distance is calculated based on the detection result, and road fog, rainfall, snowfall, snow, It is possible to identify and provide the current state of freezing, and it is possible to provide a real-time nationwide fog map service.

Description

인공위성 사진을 이용한 해무 또는 안개 검출 시스템 및 방법{Sea fog or fog detection system and method using satellite photos}Sea fog or fog detection system and method using satellite photos

본 발명은 해무 또는 안개 검출 시스템 및 방법에 관한 것으로, 더욱 상세하게는 인공위성 사진을 이용하는 해무 또는 안개 검출 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for detecting sea fog or fog, and more particularly, to a system and method for detecting sea fog or fog using satellite images.

육상 및 해상에서 발생하는 안개는 인간 생활에 매우 중요한 역할을 한다. 육상의 경우, 일반적으로는 교통사고 등을 유발하는 등 실생활과 밀접한 관계가 있으며, 스모그 등 공해물질과 결합되면 국민 건강에도 매우 큰 영향을 끼칠 수 있다. 해상에서 안개는 선박의 안전과 직결되며 또한 어업에도 매우 큰 영향을 준다. 또한 안개로 인한 다양한 인명 피해도 발생할 수 있다.Fog on land and at sea plays a very important role in human life. In the case of land, in general, it is closely related to real life, such as causing traffic accidents, and when combined with pollutants such as smog, it can have a very large effect on public health. In the sea, fog is directly related to the safety of ships and also has a great effect on the fishing industry. In addition, various human casualties can occur due to fog.

인공위성은 실시간으로 광역적으로 안개를 탐지할 수 있는 유일한 수단이다. 도시 등 인간활동이 많은 곳은 목측 등 지상관측이 가능하지만, 오지나 바다와 같은 곳은 그러한 직접관측이 한정적이고 매우 어렵다는 문제점이 존재한다. Satellites are the only means of real-time, wide-area fog detection. In places where there are many human activities such as cities, ground observation such as observation is possible, but there is a problem that such direct observation is limited and very difficult in places such as remote areas or the sea.

기존의 인공위성 기반 안개탐지 기법의 대부분은 주로 인간의 눈으로 관측하는 것과 유사한 방식인 빨강(Red)-녹색(Green)-파랑(Blue)색에 해당하는 분광채널들의 조합인 천연 칼라(True Color) 영상에 의존하거나 인공위성에서 관측한 흑백 영상을 주로 이용해 왔다. 그러나, 인공위성을 이용한 안개탐지는 어려운 기술로써, 높이가 낮은 구름(하층운)과 안개의 구별이 어렵다. 또한 안개 상공에 또 다른 구름이 있으면 인공위성에서 그 하층에 있는 안개를 탐지하기 어려우며, 오탐지율 역시 매우 높다.Most of the existing satellite-based fog detection techniques are based on true color, which is a combination of spectral channels corresponding to red-green-blue colors, which are similar to those observed with the human eye. Black-and-white images that depend on images or observed from satellites have been mainly used. However, fog detection using artificial satellites is a difficult technology, and it is difficult to distinguish between low-level clouds (lower clouds) and fog. In addition, if there is another cloud above the fog, it is difficult for the satellite to detect the fog in the lower layer, and the false positive rate is also very high.

한편, 종래의 시정거리 산출 기술은, 목표물을 명확하게 식별할 수 있는 최대거리. 대기의 탁한 정도를 판별하였으며, 과거 안개, 황사 정도에 그쳤으나, 현대에 들어 미세먼지, 대형 화재 발생, 이상기후 등 발생원인이 증가하는 추세임에 따라 그 중요성이 커지고 있다. On the other hand, the conventional visibility distance calculation technique is the maximum distance that can clearly identify the target. The degree of atmospheric turbidity was determined, and in the past it was limited to fog and yellow dust, but its importance is growing as the causes of occurrence such as fine dust, large fires, and abnormal climates are increasing in modern times.

더불어, 안개 탐지 기술은 주로 사람에 의한 목측자료로 관측값의 일관성이 결여된 상황이며, 최근 위성 자료를 활용한 탐지법을 개발하였으나 저층 구름과 안개를 구분하는 것에 한계를 보임. 기존 전방산란방식의 시정계는 황사, 미세먼지가 발생한 환경에서는 빛 반사가 이루어지지 않아 정확한 측정이 어렵다는 문제점이 존재한다. In addition, fog detection technology is mainly human observation data, and the observation value lacks consistency. Recently, a detection method using satellite data has been developed, but it has limitations in distinguishing low-level clouds from fog. Existing forward scattering type visibility systems have a problem in that accurate measurement is difficult because light is not reflected in an environment where yellow dust and fine dust are generated.

한국등록특허 제10-1986025호(발명의 명칭: 기계학습 기반 위성 해무 탐지 장치 및 해무 탐지 방법)Korean Patent Registration No. 10-1986025 (Title of Invention: Machine Learning-based Satellite Sea Fog Detection Device and Sea Fog Detection Method)

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 인공위성 정보, 기상 관측소 정보 및 CCTV 영상 정보를 기반으로 해무 또는 안개를 검출하고, 검출 결과를 기반으로 시정거리를 산출하는 해무 또는 안개 검출 시스템을 제공함에 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to detect sea fog or fog based on satellite information, weather station information, and CCTV image information, and calculate a visibility distance based on the detection result It is to provide a sea fog or fog detection system.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 해무 또는 안개 검출 시스템은, 인공위성 정보, 기상 관측소 정보 및 CCTV 영상 정보를 획득하는 통신부; 및 획득한 데이터들을 기반으로 해무 또는 안개를 검출하는 프로세서;를 포함한다. According to an embodiment of the present invention for achieving the above object, a system for detecting sea fog or fog includes: a communication unit for acquiring satellite information, weather station information, and CCTV image information; and a processor that detects sea fog or fog based on the acquired data.

그리고 인공위성 정보는, 날짜 정보, 시간 정보, 하층운 영상 정보, 야간안개 영상 정보, 적외선 영상 정보, 가시광선 영상 정보, 이미지 패치 정보 및 픽셀 정보를 포함하고, 기상 관측소 정보는, 기상 관측소 주변의 기상 정보 및 관측소 식별 정보를 포함할 수 있다. And the satellite information includes date information, time information, lower cloud image information, night fog image information, infrared image information, visible ray image information, image patch information and pixel information, and the weather station information includes weather information around the weather station. and station identification information.

또한, 이미지 패치 정보는, 인공위성 영상을 복수의 구역으로 분할하고, 분할된 각각의 구역마다 패치 고유번호를 매칭시켜 생성하고, 프로세서는, 기상 관측소 정보 및 각각의 이미지 패치 정보를 기반으로 낮은 구름, 해무 또는 안개 검출 여부를 판단하고, 특정 구역에 낮은 구름, 해무 또는 안개가 검출되면, 낮은 구름, 해무 또는 안개가 검출된 구역 내 CCTV 영상 정보를 검색하여, CCTV 영상 정보의 검색되지 않으면, 해당 구역에 해무가 발생된 것으로 판단할 수 있다.In addition, the image patch information is generated by dividing the satellite image into a plurality of regions, matching a patch unique number for each divided region, and the processor, low clouds based on weather station information and each image patch information, It is determined whether sea fog or fog is detected, and if low cloud, sea fog or fog is detected in a specific area, the CCTV video information in the area where low cloud, sea fog or fog is detected is searched. It can be judged that haze has occurred.

그리고 프로세서는, 해무 또는 안개가 검출된 구역 내 CCTV 영상 정보를 검색하여, CCTV 영상 정보가 검색되면, 검색된 CCTV 영상 정보를 기반으로, 해당 구역에 안개가 발생한 것인지 또는 낮은 구름이 발생한 것인지 판단할 수 있다.And the processor searches for CCTV image information in the area where sea fog or fog is detected, and when CCTV image information is found, based on the retrieved CCTV image information, it can be determined whether fog or low clouds have occurred in the area. there is.

또한, 프로세서는, 인공위성에서 획득된 이미지 패치 정보 및 CCTV 영상 정보 각각에 대하여, 합성곱 신경망(convolutional neural network), 디컨볼루션(deconvolution) 및 스킵 컨넥션(skip connection)을 사용하는 딥러닝 학습을 수행할 수 있다.In addition, the processor performs deep learning learning using a convolutional neural network, deconvolution, and skip connection for each of the image patch information and CCTV image information obtained from the satellite. can do.

그리고 프로세서는, 기상 관측소를 기준으로 기설정된 반경 이내에 해당하는 이미지 패치 정보를 선별하고, 기상 관측소 주변의 기상 정보에 기초하여, 해무 또는 안개 검출을 위한 어텐션(attention)을 적용하기 위한 특징맵을 생성하고, 생성된 특징맵을 이용하여, 딥러닝 학습을 수행할 수 있다.And the processor selects image patch information corresponding to within a preset radius based on the weather station, and based on the weather information around the weather station, generates a feature map for applying attention for detecting sea fog or fog And, using the generated feature map, deep learning learning can be performed.

또한, 프로세서는, 각각의 이미지 패치 정보를 구성하는 픽셀들의 정보를 기반으로 이미지 패치 정보에 해당하는 구역의 경도 및 위도를 도출할 수 있다.Also, the processor may derive the longitude and latitude of a region corresponding to the image patch information based on information on pixels constituting each image patch information.

그리고 프로세서는, 각각의 이미지 패치 정보를 구성하는 픽셀들의 정보를 기반으로 이미지 패치 정보에 해당하는 구역별 시정거리를 산출할 수 있다.In addition, the processor may calculate a visibility distance for each region corresponding to the image patch information based on information on pixels constituting each image patch information.

또한, 프로세서는, 합성곱 신경망(Convolutional Neural Network)을 이용하여, 각각의 이미지 패치 정보를 구성하는 픽셀들을 영상 처리하고, 영상 처리의 결과 기반으로 시정거리를 산출할 수 있다.Also, the processor may image-process pixels constituting each image patch information using a convolutional neural network, and may calculate a viewing distance based on a result of the image processing.

한편, 본 발명의 다른 실시예에 따른, 해무 또는 안개 검출 방법은, 해무 또는 안개 검출 시스템이, 인공위성 정보, 기상 관측소 정보 및 CCTV 영상 정보를 획득하는 단계; 및 해무 또는 안개 검출 시스템이, 획득한 데이터들을 기반으로 해무 또는 안개를 검출하는 단계;를 포함한다.Meanwhile, according to another embodiment of the present invention, a method for detecting sea fog or fog includes: acquiring, by a sea fog or fog detection system, satellite information, weather station information, and CCTV image information; and detecting, by the sea fog or fog detection system, the sea fog or fog based on the acquired data.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 인공위성 정보, 기상 관측소 정보 및 CCTV 영상 정보를 기반으로 해무 또는 안개를 검출하고, 검출 결과를 기반으로 시정거리를 산출하며, 도로 CCTV 영상을 기반으로 도로의 안개, 강우, 강설, 적설, 결빙 현황을 파악하여 제공할 수 있으며, 실시간 전국 안개 지도 서비스를 제공할 수 있다. As described above, according to embodiments of the present invention, sea fog or fog is detected based on satellite information, weather station information, and CCTV image information, a visibility distance is calculated based on the detection result, and a road CCTV image is used. It is possible to identify and provide the current state of fog, rainfall, snowfall, snow accumulation, and icing on the road, and it is possible to provide a real-time nationwide fog map service.

도 1은, 본 발명의 일 실시예에 따른 인공위성 사진을 이용한 해무 또는 안개 검출 시스템의 설명에 제공된 도면,
도 2는, 본 발명의 일 실시예에 따른 인공위성 사진을 이용한 해무 또는 안개 검출 시스템 구성의 설명에 제공된 도면,
도 3은, 이미지 패치 정보의 설명에 제공된 도면,
도 4는, 인공위성 영상 정보가 예시된 도면,
도 5는, 본 발명의 일 실시예에 따른 인공위성 사진을 이용한 해무 또는 안개 검출 시스템을 이용하는 딥러닝 학습 방법의 설명에 제공된 도면, 그리고
도 6 내지 도 9는, 본 발명의 일 실시예에 따른 인공위성 사진을 이용한 해무 또는 안개 검출 시스템을 이용하는 해무 또는 안개 검출 방법의 설명에 제공된 도면이다.
1 is a view provided for the description of a sea fog or fog detection system using a satellite image according to an embodiment of the present invention;
2 is a view provided for explaining the configuration of a sea fog or fog detection system using a satellite image according to an embodiment of the present invention;
3 is a diagram provided for explanation of image patch information;
4 is a diagram illustrating satellite image information;
5 is a view provided for explaining a deep learning learning method using a sea fog or fog detection system using a satellite image according to an embodiment of the present invention, and
6 to 9 are views provided to explain a method for detecting sea fog or fog using a system for detecting sea fog or fog using a satellite image according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은, 본 발명의 일 실시예에 따른 인공위성 사진을 이용한 해무 또는 안개 검출 시스템(100)(이하에서는 '해무 또는 안개 검출 시스템(100)'으로 총칭하기로 함)의 설명에 제공된 도면이고, 도 2는, 본 발명의 일 실시예에 따른 해무 또는 안개 검출 시스템(100) 구성의 설명에 제공된 도면이며, 도 3은, 이미지 패치 정보의 설명에 제공된 도면이고, 도 4는, 인공위성 영상 정보가 예시된 도면이다.1 is a view provided for explanation of a sea fog or fog detection system 100 (hereinafter, collectively referred to as 'sea fog or fog detection system 100') using a satellite image according to an embodiment of the present invention; 2 is a diagram provided to explain the configuration of the sea fog or fog detection system 100 according to an embodiment of the present invention, FIG. 3 is a diagram provided to describe image patch information, and FIG. It is an illustrated drawing.

본 실시예에 따른 해무 또는 안개 검출 시스템(100)은, 기상청(10)으로부터 인공위성 영상이 포함된 인공위성 정보를 획득하고, 곳곳에 설치된 기상 관측소(20)로부터 기상 관측소(20) 주변의 기상정보가 포함된 기상 관측소(20) 정보를 획득하고, 임의의 구역에 설치된 CCTV(30) 또는 CCTV 영상관리센터로부터 CCTV 영상 정보를 획득하여, 인공위성 정보, 기상 관측소(20) 정보 및 CCTV 영상 정보를 기반으로 해무 또는 안개를 검출하고, 검출 결과를 기반으로 시정거리를 산출하며, 도로 CCTV 영상을 기반으로 도로의 안개, 강우, 강설, 적설, 결빙 현황을 파악하여 제공할 수 있다.The sea fog or fog detection system 100 according to this embodiment acquires satellite information including satellite images from the Meteorological Agency 10, and weather information around the weather station 20 from the weather stations 20 installed here and there. Acquire the included weather station 20 information, and acquire CCTV image information from the CCTV 30 or CCTV video management center installed in an arbitrary area, based on satellite information, weather station 20 information, and CCTV image information It is possible to detect sea fog or fog, calculate a visibility distance based on the detection result, and provide the fog, rainfall, snowfall, snow, and icing status of the road based on the CCTV image of the road.

이를 위해, 본 해무 또는 안개 검출 시스템(100)은, 통신부(110), 프로세서(120), 출력부(130) 및 저장부(140)를 포함할 수 있다.To this end, the present sea fog or fog detection system 100 may include a communication unit 110 , a processor 120 , an output unit 130 , and a storage unit 140 .

통신부(110)는, 프로세서(120)가 동작함에 있어 데이터들을 수신하거나 송신할 수 있다. The communication unit 110 may receive or transmit data while the processor 120 operates.

구체적으로, 통신부(110)는, 인공위성 정보, 기상 관측소(20) 정보 및 CCTV 영상 정보를 획득할 수 있다.Specifically, the communication unit 110 may acquire satellite information, weather station 20 information, and CCTV image information.

예를 들면, 기상청(10)으로부터 인공위성 영상이 포함된 인공위성 정보를 획득하고, 곳곳에 설치된 기상 관측소(20)로부터 기상 관측소(20) 주변의 기상정보가 포함된 기상 관측소(20) 정보를 획득하고, 임의의 구역에 설치된 CCTV 또는 CCTV 영상관리센터로부터 CCTV 영상 정보를 획득할 수 있다. For example, obtain satellite information including satellite images from the Meteorological Agency 10, and obtain weather station 20 information including weather information around the weather station 20 from weather stations 20 installed in various places. , it is possible to acquire CCTV image information from a CCTV installed in an arbitrary area or a CCTV video management center.

여기서, 인공위성 정보는, 날짜 정보, 시간 정보, 적외선 영상 정보, 수증기 영상 정보, RGB 주야간 합성 영상 정보, 이미지 패치 정보 및 픽셀 정보를 포함할 수 있으며, 기상 관측소(20) 정보는, 기상 관측소(20) 주변의 기상 정보 및 관측소(20) 식별 정보를 포함할 수 있다. Here, the satellite information may include date information, time information, infrared image information, water vapor image information, RGB day/night composite image information, image patch information, and pixel information, and the weather station 20 information includes the weather station 20 ) may include the surrounding weather information and the observatory 20 identification information.

이때, 도 4a는 적외선 영상 정보가 예시된 도면이고, 도 4b는 수증기 영상 정보가 예시된 도면, 도 4c는 RGB 주야간 합성 영상 정보가 예시된 도면이다.In this case, FIG. 4A is a diagram exemplifying infrared image information, FIG. 4B is a diagram exemplifying water vapor image information, and FIG. 4C is a diagram exemplifying RGB day/night composite image information.

프로세서(120)는, 통신부(110)를 통해 획득한 데이터들을 기반으로 해무 또는 안개를 검출하고, 검출 결과를 기반으로 시정거리를 산출하며, 도로 CCTV 영상을 기반으로 도로의 안개, 강우, 강설, 적설, 결빙 현황을 파악할 수 있다. The processor 120 detects sea fog or fog based on the data obtained through the communication unit 110, calculates a visibility distance based on the detection result, and based on the road CCTV image, fog, rain, snow, You can check the snow and ice conditions.

이를 위해, 프로세서(120)는, 인공위성에서 획득된 이미지 패치 정보 및 CCTV 영상 정보 각각에 대하여, 합성곱 신경망(convolutional neural network), 디컨볼루션(deconvolution) 및 스킵 컨넥션(skip connection)을 사용하는 딥러닝 학습을 수행할 수 있다. To this end, the processor 120, for each of the image patch information and CCTV image information obtained from the satellite, a convolutional neural network (convolutional neural network), deconvolution (deconvolution) and a dip using a skip connection (skip connection) learning can be performed.

즉, 프로세서(120)는, 기상 관측소(20)를 기준으로 기설정된 반경 이내에 해당하는 이미지 패치 정보를 선별하고, 기상 관측소(20) 주변의 기상 정보에 기초하여, 해무 또는 안개 검출을 위한 어텐션(attention)을 적용하기 위한 특징맵을 생성하고, 생성된 특징맵을 이용하여, 딥러닝 학습을 수행할 수 있다. That is, the processor 120 selects image patch information corresponding to within a preset radius based on the weather station 20, and based on the weather information around the weather station 20, attention ( A feature map for applying attention) can be generated, and deep learning can be performed using the generated feature map.

또한, 프로세서(120)는, 인공위성 영상을 복수의 구역으로 분할하고, 분할된 각각의 구역마다 패치 고유번호를 매칭시켜 해무 또는 안개를 검출하기 위한 이미지 패치 정보를 생성할 수 있다. In addition, the processor 120 may generate image patch information for detecting sea fog or fog by dividing the satellite image into a plurality of regions, and matching a unique patch number for each of the divided regions.

구체적으로, 프로세서(120)는, 인공위성 영상 중 적외선 영상 정보, 수증기 영상 정보 및 RGB 주야간 합성 영상 정보를 획득하면, 각각의 영상 정보별로 이미지 패치 정보를 생성할 수 있다.Specifically, the processor 120 may generate image patch information for each image information when infrared image information, water vapor image information, and RGB day/night composite image information are obtained among the satellite images.

그리고 프로세서(120)는, 적외선 영상 정보, 수증기 영상 정보 및 RGB 주야간 합성 영상 정보를 각각 분할하여 구역별로 3개씩 생성되는 이미지 패치 정보를 이용하여, 이미지 패치 정보에 대응되는 구역마다 낮은 구름, 해무 또는 안개 검출 여부를 판단하고, 구역별 시정거리를 산출할 수 있다. In addition, the processor 120 divides the infrared image information, the water vapor image information, and the RGB day and night composite image information, respectively, and uses the image patch information generated three for each zone, and uses the low cloud, sea fog or It is possible to determine whether fog is detected and to calculate the visibility distance for each area.

예를 들면, 프로세서(120)는, 기상 관측소(20) 정보 및 각각의 이미지 패치 정보를 기반으로 낮은 구름, 해무 또는 안개 검출 여부를 판단하고, 특정 구역에 낮은 구름, 해무 또는 안개가 검출되면, 낮은 구름, 해무 또는 안개가 검출된 구역 내 CCTV 영상 정보를 검색하여, CCTV 영상 정보의 검색되지 않으면, 해당 구역에 해무가 발생된 것으로 판단할 수 있다.For example, the processor 120 determines whether low cloud, sea fog or fog is detected based on the weather station 20 information and each image patch information, and when low cloud, sea fog or fog is detected in a specific area, If the CCTV image information is not retrieved by searching for CCTV image information in the area where low clouds, sea fog or fog are detected, it can be determined that sea fog has occurred in the corresponding area.

또한, 프로세서(120)는, 해무 또는 안개가 검출된 구역 내 CCTV 영상 정보를 검색하여, CCTV 영상 정보가 검색되면, 검색된 CCTV 영상 정보를 기반으로, 해당 구역에 안개가 발생한 것인지 또는 낮은 구름이 발생한 것인지 판단할 수 있다. In addition, the processor 120 searches for CCTV image information in the area in which sea fog or fog is detected, and when CCTV image information is found, based on the retrieved CCTV image information, whether fog or low clouds have occurred in the area can determine whether

이를 통해, 인공위성 영상을 통해 낮은 구름, 안개 또는 해무가 검출되는 경우, 검출된 대상이 낮은 구름, 안개 및 해무 중 어느 것인지 판단할 수 있어, 낮은 구름, 안개 또는 해무의 검출 오차를 최소화할 수 있다. Through this, when low cloud, fog, or sea fog is detected through the satellite image, it is possible to determine whether the detected target is low cloud, fog, or sea fog, thereby minimizing the detection error of low cloud, fog, or sea fog. .

그리고 프로세서(120)는, 각각의 이미지 패치 정보를 구성하는 픽셀들의 정보를 기반으로 이미지 패치 정보에 해당하는 구역의 경도 및 위도를 도출하고, 각각의 이미지 패치 정보를 구성하는 픽셀들의 정보를 기반으로 이미지 패치 정보에 해당하는 구역별 시정거리를 산출할 수 있다. And the processor 120 derives the longitude and latitude of a region corresponding to the image patch information based on the information of the pixels constituting each image patch information, and based on the information of the pixels constituting the respective image patch information It is possible to calculate the visibility distance for each area corresponding to the image patch information.

출력부(130)는, 프로세서(120)가 동작함에 있어 데이터들을 화면에 출력하기 위해 마련되는 디스플레이 장치이며, 저장부(140)는, 프로세서(120)가 동작함에 있어 필요한 프로그램 및 데이터들을 저장하는 저장매체이다.The output unit 130 is a display device provided to output data to the screen when the processor 120 operates, and the storage unit 140 stores programs and data necessary for the processor 120 to operate. is a storage medium.

도 5는, 본 발명의 일 실시예에 따른 해무 또는 안개 검출 시스템(100)을 이용하는 딥러닝 학습 방법의 설명에 제공된 도면이다.5 is a diagram provided to explain a deep learning learning method using the sea fog or fog detection system 100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 해무 또는 안개 검출 시스템(100)을 이용하는 딥러닝 학습 방법은, 인공위성 정보, 기상 관측소(20) 정보 및 CCTV 영상 정보를 획득하면(S510), 인공위성 영상을 복수의 구역으로 분할하고, 분할된 각각의 구역에 대응되는 이미지 패치 정보를 생성할 수 있다(S520).In the deep learning learning method using the sea fog or fog detection system 100 according to an embodiment of the present invention, when satellite information, weather station 20 information and CCTV image information are acquired (S510), the satellite image is displayed in a plurality of zones. , and it is possible to generate image patch information corresponding to each of the divided regions (S520).

이후, 해무 또는 안개 검출 시스템(100)을 이용하는 딥러닝 학습 방법은, 기상 관측소(20)를 기준으로 기설정된 반경 이내에 해당하는 이미지 패치 정보를 선별하고(S530), 기상 관측소(20) 주변의 기상 정보에 기초하여, 해무 또는 안개 검출을 위한 어텐션(attention)을 적용하기 위한 특징맵을 생성하고(S540), 생성된 특징맵을 이용하여, 딥러닝 학습을 수행할 수 있다(S550). Thereafter, the deep learning learning method using the sea fog or fog detection system 100 selects image patch information corresponding to within a preset radius based on the weather station 20 ( S530 ), and the weather around the weather station 20 . Based on the information, a feature map for applying an attention for detecting sea fog or fog may be generated (S540), and deep learning may be performed using the generated feature map (S550).

여기서, 해무 또는 안개 검출 시스템(100)은, 기상 관측소(20)를 기준으로 기설정된 반경 이내에 해당하는 이미지 패치 정보가 선별되면, 선별된 이미지 패치 정보을 기반으로 해무 또는 안개 검출하기 위한 특징맵을 생성하고, 특징맵에 따라 해무 또는 안개 검출하는데 필요한 영역에 어텐션을 적용하여, 불필요한 부분을 필터링하도록 할 수 있다. Here, the sea fog or fog detection system 100 generates a feature map for detecting sea fog or fog based on the selected image patch information when image patch information corresponding to within a preset radius is selected based on the weather station 20 . and applying attention to an area necessary for detecting sea fog or fog according to the feature map to filter out unnecessary parts.

도 6 내지 도 9는, 본 발명의 일 실시예에 따른 해무 또는 안개 검출 시스템(100)을 이용하는 해무 또는 안개 검출 방법의 설명에 제공된 도면이다. 6 to 9 are views provided for explanation of a method for detecting sea fog or fog using the sea fog or fog detection system 100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 해무 또는 안개 검출 시스템(100)을 이용하는 해무 또는 안개 검출 방법은, 도 5를 참조하여 전술한 방법을 따라 딥러닝 학습을 수행하고, 이후, 다시 인공위성 정보, 기상 관측소(20) 정보 및 CCTV 영상 정보를 획득하면(S610), 인공위성 영상을 복수의 구역으로 분할하고, 분할된 각각의 구역에 대응되는 이미지 패치 정보를 생성할 수 있다(S620).The sea fog or fog detection method using the sea fog or fog detection system 100 according to an embodiment of the present invention performs deep learning learning according to the method described above with reference to FIG. 5 , and then again, satellite information, weather station (20) When information and CCTV image information are obtained (S610), the satellite image may be divided into a plurality of regions, and image patch information corresponding to each of the divided regions may be generated (S620).

다음으로, 해무 또는 안개 검출 시스템(100)을 이용하는 해무 또는 안개 검출 방법은, 기상 관측소(20) 정보 및 각각의 이미지 패치 정보를 기반으로 낮은 구름, 해무 또는 안개 검출 여부를 판단할 수 있다(S630).Next, the sea fog or fog detection method using the sea fog or fog detection system 100 may determine whether low clouds, sea fog, or fog are detected based on the weather station 20 information and each image patch information (S630) ).

또한, 해무 또는 안개 검출 시스템(100)을 이용하는 해무 또는 안개 검출 방법은, 각각의 이미지 패치 정보를 구성하는 픽셀들의 정보를 기반으로 이미지 패치 정보에 해당하는 구역별 시정거리를 산출할 수 잇다. In addition, the sea fog or fog detection method using the sea fog or fog detection system 100 may calculate the visibility distance for each area corresponding to the image patch information based on information on pixels constituting each image patch information.

여기서, 도 7은, CCTV 영상 정보 및 인공위성 사진(영상 정보)를 분석하여, 해무 또는 안개를 검출하는 과정이 예시된 도면이고, 도 8은, CCTV 영상 정보를 분석하는 과정이 예시된 도면이다. 그리고 도 9는, 영상 정보 각각에 대하여, 합성곱 신경망(convolutional neural network), 디컨볼루션(deconvolution) 및 스킵 컨넥션(skip connection) 등을 수행하여, 구역별 시정거리를 수치화하는 알고리즘이 예시된 도면이다. Here, FIG. 7 is a diagram illustrating a process of detecting sea fog or fog by analyzing CCTV image information and satellite photos (image information), and FIG. 8 is a diagram illustrating a process of analyzing CCTV image information. And FIG. 9 is a diagram illustrating an algorithm for digitizing the visibility distance for each area by performing a convolutional neural network, deconvolution, and skip connection for each image information am.

예를 들면, 해무 또는 안개 검출 시스템(100)은, 도 9에 예시된 바와 같이 각각의 이미지 패치 정보를 구성하는 픽셀들의 정보에서 해무 또는 안개 검출에 필요한 메타 데이터에 따라 관심 영역을 지정하고, 관심 영역에 포함되지 않은 영역을 필터링하여, 복수의 콘벌루션 계층을 생성하는 합성곱 신경망(convolutional neural network), 디컨볼루션(deconvolution) 및 스킵 컨넥션(skip connection)을 이용하여 구역별 시정거리를 산출할 수 있다. For example, as illustrated in FIG. 9 , the sea fog or fog detection system 100 designates a region of interest according to metadata necessary for sea fog or fog detection in information of pixels constituting each image patch information, By filtering regions not included in the region, the visibility distance for each region can be calculated using a convolutional neural network, deconvolution, and skip connection that generates a plurality of convolutional layers. can

이를 통해, 인공위성 정보, 기상 관측소(20) 정보 및 CCTV 영상 정보를 기반으로 해무 또는 안개를 검출하고, 검출 결과를 기반으로 시정거리를 산출하며, 도로 CCTV 영상을 기반으로 도로의 안개, 강우, 강설, 적설, 결빙 현황을 파악하여 제공할 수 있으며, 실시간 전국 안개 지도 서비스를 제공할 수 있다.Through this, sea fog or fog is detected based on satellite information, weather station 20 information, and CCTV image information, visibility distance is calculated based on the detection result, and fog, rainfall, and snowfall on the road are based on the road CCTV image. , snow cover, and freezing conditions can be identified and provided, and real-time nationwide fog map service can be provided.

한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.On the other hand, it goes without saying that the technical idea of the present invention can be applied to a computer-readable recording medium containing a computer program for performing the functions of the apparatus and method according to the present embodiment. In addition, the technical ideas according to various embodiments of the present invention may be implemented in the form of computer-readable codes recorded on a computer-readable recording medium. The computer-readable recording medium may be any data storage device readable by the computer and capable of storing data. For example, the computer-readable recording medium may be a ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, hard disk drive, or the like. In addition, the computer-readable code or program stored in the computer-readable recording medium may be transmitted through a network connected between computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

10 : 기상청
20 : 기상 관측소
30 : CCTV
100 : 해무 또는 안개 검출 시스템
110 : 통신부
120 : 프로세서
130 : 출력부
140 : 저장부
10: Meteorological Agency
20: Weather Station
30 : CCTV
100: Sea fog or fog detection system
110: communication department
120 : processor
130: output unit
140: storage

Claims (10)

인공위성 정보, 기상 관측소 정보 및 CCTV 영상 정보를 획득하는 통신부; 및
획득한 데이터들을 기반으로 해무 또는 안개를 검출하는 프로세서;를 포함하고,
인공위성 정보는,
날짜 정보, 시간 정보, 적외선 영상 정보, 수증기 영상 정보, RGB 주야간 합성 영상 정보, 이미지 패치 정보 및 픽셀 정보를 포함하고,
기상 관측소 정보는,
기상 관측소 주변의 기상 정보 및 관측소 식별 정보를 포함하며,
이미지 패치 정보는,
인공위성 영상을 복수의 구역으로 분할하고, 분할된 각각의 구역마다 패치 고유번호를 매칭시켜 생성하고,
프로세서는,
기상 관측소 정보 및 각각의 이미지 패치 정보를 기반으로 낮은 구름, 해무 또는 안개 검출 여부를 판단하고,
특정 구역에 낮은 구름, 해무 또는 안개가 검출되면, 낮은 구름, 해무 또는 안개가 검출된 구역 내 CCTV 영상 정보를 검색하여, CCTV 영상 정보가 검색되지 않으면, 해당 구역에 해무가 발생된 것으로 판단하고,
프로세서는,
인공위성에서 획득된 이미지 패치 정보 및 CCTV 영상 정보 각각에 대하여, 합성곱 신경망(convolutional neural network), 디컨볼루션(deconvolution) 및 스킵 컨넥션(skip connection)을 사용하고,
프로세서는,
기상 관측소를 기준으로 기설정된 반경 이내에 해당하는 이미지 패치 정보를 선별하고, 기상 관측소 주변의 기상 정보에 기초하여, 해무 또는 안개 검출을 위한 어텐션(attention)을 적용하기 위한 특징맵을 생성하고,
생성된 특징맵을 이용하여, 딥러닝 학습을 수행하는 것을 특징으로 하는 해무 또는 안개 검출 시스템.
A communication unit for acquiring satellite information, weather station information, and CCTV image information; and
A processor for detecting sea fog or fog based on the acquired data;
satellite information,
including date information, time information, infrared image information, water vapor image information, RGB day/night composite image information, image patch information, and pixel information;
Weather station information,
contains weather information around the weather station and station identification information;
Image patch information,
The satellite image is divided into a plurality of regions, and a patch unique number is matched for each divided region to generate,
The processor is
Determine whether low clouds, sea fog or fog are detected based on weather station information and each image patch information;
When low cloud, sea fog or fog is detected in a specific area, the CCTV image information in the area where low cloud, sea fog or fog is detected is searched.
The processor is
For each of the image patch information and CCTV image information obtained from the satellite, using a convolutional neural network, deconvolution and skip connection,
The processor is
Selecting image patch information within a preset radius based on a weather station, and generating a feature map for applying attention for sea fog or fog detection based on weather information around the weather station,
Sea fog or fog detection system, characterized in that performing deep learning learning by using the generated feature map.
삭제delete 삭제delete 청구항 1에 있어서,
프로세서는,
해무 또는 안개가 검출된 구역 내 CCTV 영상 정보를 검색하여, CCTV 영상 정보가 검색되면, 검색된 CCTV 영상 정보를 기반으로, 해당 구역에 안개가 발생한 것인지 또는 낮은 구름이 발생한 것인지 판단하는 것을 특징으로 하는 해무 또는 안개 검출 시스템.
The method according to claim 1,
The processor is
Sea fog, characterized in that by searching for CCTV image information in an area where sea fog or fog is detected, and when CCTV image information is retrieved, based on the retrieved CCTV image information, it is determined whether there is fog or low cloud in the area or fog detection systems.
삭제delete 삭제delete 청구항 1에 있어서,
프로세서는,
각각의 이미지 패치 정보를 구성하는 픽셀들의 정보를 기반으로 이미지 패치 정보에 해당하는 구역의 경도 및 위도를 도출하는 것을 특징으로 하는 해무 또는 안개 검출 시스템.
The method according to claim 1,
The processor is
A system for detecting sea fog or fog, characterized in that the longitude and latitude of a region corresponding to the image patch information are derived based on information on pixels constituting each image patch information.
청구항 7에 있어서,
프로세서는,
각각의 이미지 패치 정보를 구성하는 픽셀들의 정보를 기반으로 이미지 패치 정보에 해당하는 구역별 시정거리를 산출하는 것을 특징으로 하는 해무 또는 안개 검출 시스템.
8. The method of claim 7,
The processor is
A system for detecting sea fog or fog, characterized in that the visibility distance for each area corresponding to the image patch information is calculated based on information on pixels constituting each image patch information.
청구항 8에 있어서,
프로세서는,
합성곱 신경망(Convolutional Neural Network)을 이용하여, 각각의 이미지 패치 정보를 구성하는 픽셀들을 영상 처리하고, 영상 처리의 결과 기반으로 시정거리를 산출하는 것을 특징으로 하는 해무 또는 안개 검출 시스템.
9. The method of claim 8,
The processor is
A system for detecting sea fog or fog, comprising image processing pixels constituting each image patch information using a convolutional neural network, and calculating a visibility distance based on a result of the image processing.
해무 또는 안개 검출 시스템이, 인공위성 정보, 기상 관측소 정보 및 CCTV 영상 정보를 획득하는 단계; 및
해무 또는 안개 검출 시스템이, 획득한 데이터들을 기반으로 해무 또는 안개를 검출하는 단계;를 포함하고,
인공위성 정보는,
날짜 정보, 시간 정보, 적외선 영상 정보, 수증기 영상 정보, RGB 주야간 합성 영상 정보, 이미지 패치 정보 및 픽셀 정보를 포함하고,
기상 관측소 정보는,
기상 관측소 주변의 기상 정보 및 관측소 식별 정보를 포함하며,
이미지 패치 정보는,
인공위성 영상을 복수의 구역으로 분할하고, 분할된 각각의 구역마다 패치 고유번호를 매칭시켜 생성하고,
해무 또는 안개를 검출하는 단계는,
기상 관측소 정보 및 각각의 이미지 패치 정보를 기반으로 낮은 구름, 해무 또는 안개 검출 여부를 판단하고,
특정 구역에 낮은 구름, 해무 또는 안개가 검출되면, 낮은 구름, 해무 또는 안개가 검출된 구역 내 CCTV 영상 정보를 검색하여, CCTV 영상 정보가 검색되지 않으면, 해당 구역에 해무가 발생된 것으로 판단하고,
해무 또는 안개 검출 시스템은,
인공위성에서 획득된 이미지 패치 정보 및 CCTV 영상 정보 각각에 대하여, 합성곱 신경망(convolutional neural network), 디컨볼루션(deconvolution) 및 스킵 컨넥션(skip connection)을 사용하고,
해무 또는 안개 검출 시스템은,
기상 관측소를 기준으로 기설정된 반경 이내에 해당하는 이미지 패치 정보를 선별하고, 기상 관측소 주변의 기상 정보에 기초하여, 해무 또는 안개 검출을 위한 어텐션(attention)을 적용하기 위한 특징맵을 생성하고,
생성된 특징맵을 이용하여, 딥러닝 학습을 수행하는 것을 특징으로 하는 해무 또는 안개 검출 방법.
A method for detecting sea fog or fog, comprising: acquiring satellite information, weather station information, and CCTV image information; and
Including, by the sea fog or fog detection system, detecting sea fog or fog based on the acquired data;
satellite information,
including date information, time information, infrared image information, water vapor image information, RGB day/night composite image information, image patch information, and pixel information;
Weather station information,
contains weather information around the weather station and station identification information;
Image patch information,
The satellite image is divided into a plurality of regions, and a patch unique number is matched for each divided region to generate,
The step of detecting sea fog or fog,
Determine whether low clouds, sea fog or fog are detected based on weather station information and each image patch information;
When low cloud, sea fog or fog is detected in a specific area, the CCTV image information in the area where low cloud, sea fog or fog is detected is searched.
Sea fog or fog detection system,
For each of the image patch information and CCTV image information obtained from the satellite, using a convolutional neural network, deconvolution and skip connection,
Sea fog or fog detection system,
Selecting image patch information within a preset radius based on a weather station, and generating a feature map for applying attention for sea fog or fog detection based on weather information around the weather station,
Sea fog or fog detection method, characterized in that performing deep learning learning using the generated feature map.
KR1020200098187A 2020-08-05 2020-08-05 Sea fog or fog detection system and method using satellite photos KR102389960B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200098187A KR102389960B1 (en) 2020-08-05 2020-08-05 Sea fog or fog detection system and method using satellite photos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200098187A KR102389960B1 (en) 2020-08-05 2020-08-05 Sea fog or fog detection system and method using satellite photos

Publications (2)

Publication Number Publication Date
KR20220017773A KR20220017773A (en) 2022-02-14
KR102389960B1 true KR102389960B1 (en) 2022-04-25

Family

ID=80253961

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200098187A KR102389960B1 (en) 2020-08-05 2020-08-05 Sea fog or fog detection system and method using satellite photos

Country Status (1)

Country Link
KR (1) KR102389960B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919814B1 (en) 2017-09-29 2018-11-19 주식회사 미래기후 Fog forecasting system and fog forecasting method using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101752243B1 (en) * 2015-07-28 2017-07-03 대한민국 Fog detection methods using ceilometer and device using the same
KR101858339B1 (en) * 2016-04-18 2018-06-28 주식회사 월드텍 Apparatus for weather observation using camera captured images and method thereof
KR101986025B1 (en) * 2017-11-15 2019-06-04 한국해양과학기술원 Machine learning-based satellite sea fog detection apparatus and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919814B1 (en) 2017-09-29 2018-11-19 주식회사 미래기후 Fog forecasting system and fog forecasting method using the same

Also Published As

Publication number Publication date
KR20220017773A (en) 2022-02-14

Similar Documents

Publication Publication Date Title
CN112435207B (en) Forest fire monitoring and early warning method based on sky-ground integration
US11475385B2 (en) Method and system for utility power line monitoring
US9465987B1 (en) Monitoring and detecting weather conditions based on images acquired from image sensor aboard mobile platforms
JP4712041B2 (en) Image processing method and means
US8339583B2 (en) Visual detection of clear air turbulence
CN101464521B (en) Detection method for remote sensing day and night sea fog by stationary weather satellite
CN115348247A (en) Forest fire detection early warning and decision-making system based on sky-ground integration technology
Wu et al. Automatic sea fog detection over Chinese adjacent oceans using Terra/MODIS data
KR102349016B1 (en) Management system for analysis of road
CN101424741A (en) Real time extracting method for satellite remote sensing sea fog characteristic quantity
CN109345876A (en) A kind of control and monitoring system for ships and method
KR20160099931A (en) Disaster preventing and managing method for the disaster harzard and interest area
US20230353763A1 (en) Method and system for encoding image data representing a geographical line
Serra-Sogas et al. Using aerial surveys to fill gaps in AIS vessel traffic data to inform threat assessments, vessel management and planning
Amani et al. Automatic nighttime sea fog detection using GOES-16 imagery
Weissling et al. EISCAM—Digital image acquisition and processing for sea ice parameters from ships
US9979934B1 (en) Automated weather sensing system and method using cameras
Hallowell et al. An automated visibility detection algorithm utilizing camera imagery
KR102389960B1 (en) Sea fog or fog detection system and method using satellite photos
CN110749323A (en) Method and device for determining operation route
KR101877173B1 (en) Coastline Detection System using Satellite Image and method thereof
KR20200075692A (en) Fog detection device using coordinate system and method thereof
CN115205781A (en) Transformer-based trans-scale target detection method and system
CN113313273B (en) Public facility detection method, system and storage medium based on big data environment
US20240071073A1 (en) Systems and methods for identifying trees and estimating tree heights and other tree parameters

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant