KR102596080B1 - Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm - Google Patents

Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm Download PDF

Info

Publication number
KR102596080B1
KR102596080B1 KR1020210100403A KR20210100403A KR102596080B1 KR 102596080 B1 KR102596080 B1 KR 102596080B1 KR 1020210100403 A KR1020210100403 A KR 1020210100403A KR 20210100403 A KR20210100403 A KR 20210100403A KR 102596080 B1 KR102596080 B1 KR 102596080B1
Authority
KR
South Korea
Prior art keywords
data
support vector
vector machine
total cloud
training
Prior art date
Application number
KR1020210100403A
Other languages
Korean (ko)
Other versions
KR20230018624A (en
Inventor
김부요
차주완
장기호
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020210100403A priority Critical patent/KR102596080B1/en
Publication of KR20230018624A publication Critical patent/KR20230018624A/en
Application granted granted Critical
Publication of KR102596080B1 publication Critical patent/KR102596080B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W2201/00Weather detection, monitoring or forecasting for establishing the amount of global warming
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Environmental & Geological Engineering (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 지상 카메라로 촬영된 이미지의 통계적 특성 자료와 시간 정보 등을 입력자료로 하는 서포트 벡터 머신 알고리즘을 이용하여 전운량을 산출하되, 어안 렌즈가 장착된 카메라로 촬영된 영상의 각 화소를 RGB 명암으로 변환하여 주변 차폐물과 광원을 제거하고 왜곡 보정을 수행함으로써, 산출 결과에 대한 신뢰성을 향상시킬 수 있는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 관한 것으로,
어안 렌즈가 장착된 지상 카메라로 촬영된 과거 자료에 대한 RGB 명암의 통계적 특성을 산출하고, 입력된 과거 자료를 훈련자료와 검증자료로 분류하는 전처리 단계와; 전처리된 영상자료의 통계적 특성에 대한 분류/회귀분석을 통해 최적의 전운량을 산출할 수 있는 모델을 구성하는 서포트 벡터 머신 구성 단계; 상기 전처리 단계에서 훈련자료로 분류된 자료를 이용하여 서포트 벡터 머신을 학습시키고 검증자료로 분류된 자료를 이용하여 검증하는 방식을 통해 서포트 벡터 머신을 최적화하는 단계; 및 서포트 벡터 머신에 실시간 자료를 입력하여 전운량을 산출하고, 그 자료를 데이터베이스로 저장하는 전운량 산출 단계;를 포함하는 것을 특징으로 한다.
The present invention calculates total cloud cover using a support vector machine algorithm that uses statistical characteristic data and time information of images taken with a ground camera as input data, and each pixel of the image taken with a camera equipped with a fisheye lens is converted to RGB. This is about a method for calculating day and night total cloud cover using images captured based on ground cameras and a support vector machine algorithm, which can improve the reliability of the calculation results by converting them into contrast, removing surrounding occlusions and light sources, and performing distortion correction.
A preprocessing step of calculating statistical characteristics of RGB contrast for historical data captured with a ground camera equipped with a fisheye lens and classifying the input historical data into training data and validation data; A support vector machine construction step to construct a model that can calculate the optimal cloud cover through classification/regression analysis of the statistical characteristics of the preprocessed image data; Optimizing the support vector machine by training the support vector machine using the data classified as training data in the preprocessing step and verifying it using the data classified as verification data; And a total cloud amount calculation step of calculating total cloud amount by inputting real-time data into a support vector machine and storing the data in a database.

Description

지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법{Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm}{Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm}

본 발명은 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 관한 것으로, 더욱 상세하게는 지상에서 카메라 기반의 관측 장비로부터 전운량을 산출하기 위해 촬영된 이미지의 통계적 특성 자료와 시간 정보 등을 입력자료로 하는 서포트 벡터 머신 알고리즘을 이용하여 전운량을 산출하되, 어안 렌즈가 장착된 카메라로 촬영된 영상의 각 화소를 RGB 명암으로 변환하여 주변 차폐물과 광원을 제거하고 왜곡 보정을 수행함으로써, 산출 결과에 대한 신뢰성을 향상시킬 수 있는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 관한 것이다.The present invention relates to a method for calculating day and night total cloud amount using images captured based on ground cameras and a support vector machine algorithm. More specifically, the statistical characteristics of images taken to calculate total cloud amount from camera-based observation equipment on the ground. Total cloud cover is calculated using a support vector machine algorithm that takes data and time information as input, and converts each pixel of the image captured with a camera equipped with a fisheye lens into RGB contrast to remove surrounding occlusions and light sources and distort them. This relates to a method for calculating day and night total cloud cover using images captured based on ground cameras and a support vector machine algorithm that can improve the reliability of calculation results by performing correction.

구름은 전지구 면적의 약 70%를 차지하며 매 순간 복사에너지 수지를 변화시키고 이로부터 발생된 기상변화는 수문 순환(Hydrologic Cycle)과 국지적인 날씨 및 기후 변화를 초래한다. 뿐만아니라, 에어로졸과의 상호작용은 구름의 물리적인 특성을 변화시켜 지구 냉각과 온실효과를 유발시키고 강수효율의 변화는 식생 변화와 수자원 확보에 영향을 미치게 된다. 따라서, 구름-에어로졸-강수의 메커니즘의 이해는 기상과 기후의 변화 예측에 필수적이라 할 수 있다. Clouds occupy approximately 70% of the global area and change the radiant energy budget at every moment, and the weather changes resulting from this lead to the hydrologic cycle and local weather and climate changes. In addition, interaction with aerosols changes the physical properties of clouds, causing global cooling and the greenhouse effect, and changes in precipitation efficiency affect vegetation changes and water resource security. Therefore, understanding the cloud-aerosol-precipitation mechanism is essential for predicting changes in weather and climate.

특히, 전운량은 일기예보뿐만아니라 항공운항을 위한 활주로의 기상 상태를 대표하며, 다양한 기상관련 요소들의 변화 예측에 중요한 입력자료로 활용되고 있다. 하지만, 전운량 자료의 정확도와 정밀도에 따라 예측된 기상 변수의 불확실성이 증가하게 되므로 높은 빈도의 정확도 높은 전운량 자료 생산이 요구된다. In particular, total cloud cover represents not only weather forecasts but also the meteorological conditions of the runway for airline operations, and is used as an important input data for predicting changes in various weather-related factors. However, the uncertainty of predicted meteorological variables increases depending on the accuracy and precision of total cloud cover data, so the production of high-frequency and highly accurate total cloud data is required.

지상에서의 전운량 관측은 과거부터 현재에 이르기까지 세계기상기구(WMO)의 정규화된 종관 관측 규정에 따라 사람의 눈을 통해 이루어지는 것으로, 전운량은 “할(割; tenth, 1/10)” 또는 “옥타(okta, 1/8)”로 기록되고 있다. Observation of total cloud cover on the ground is made through human eyes according to the normalized synoptic observation regulations of the World Meteorological Organization (WMO) from the past to the present, and total cloud cover is “tenth,” or 1/10. It is also written as “okta (1/8).”

그러나 사람의 눈을 통한 전운량의 측정은 관측자의 컨디션이나 관측 주기 등에 따라 관측의 일관성과 객관성이 부족하다. However, measuring total cloud cover through the human eye lacks observation consistency and objectivity depending on the observer's condition or observation period.

그리고 주야간 연속적인 전운량의 관측이 중요함에도 주간과는 다르게 야간의 경우 더 긴 주기로 관측을 수행하기 때문에 자료의 연속성이 부족한 실정이다. And although continuous observation of total cloud cover during the day and night is important, unlike during the day, observations are performed at a longer period at night, so continuity of data is lacking.

또한 산 정상 등 사람이 접근하기 어려운 관측 환경으로부터 조밀한 구름 관측망의 구성이 어렵다. 따라서 이러한 문제를 대체할 수 있으면서 지속적으로 구름을 모니터링 할 수 있는 지상에서 카메라 기반의 관측 장비를 통해 구름을 자동으로 포착(촬영)하고 전운량을 산출하는 많은 연구의 수행과 활용이 되어오고 있다.Additionally, it is difficult to construct a dense cloud observation network in observation environments that are difficult for people to access, such as mountain peaks. Therefore, many studies have been conducted and utilized to automatically capture (photograph) clouds and calculate total cloud cover through camera-based observation equipment on the ground that can replace this problem and continuously monitor clouds.

이와 관련하여, 지상에서 자동으로 구름을 관측하고 전운량을 산출하기 위해 카메라 기반의 관측 장비를 이용한 연구가 많이 시도되고 있다. 이러한 결과들은 수치적 기상 분석과 예측에 활용될 수 있으며 로컬 지역에 대한 구름 모니터링에 이상적이며 매우 경제적이다. In this regard, many studies are being attempted using camera-based observation equipment to automatically observe clouds and calculate total cloud cover from the ground. These results can be used for numerical weather analysis and prediction, and are ideal for cloud monitoring in local areas and are very economical.

일반적으로 카메라에서 촬영된 이미지의 RGB(red, green, blue) 컬러의 명암(brightness)을 이용하여 전운량을 산출할 수 있다. 즉, 하늘과 구름의 빛의 산란에 따라 RGB의 명암이 다른 특징을 이용하여 이들의 비율 또는 차이로부터 구름을 탐지하고 전운량을 산출한다. 예를들면 R과 B의 비율인 RBR(red-blue ratio)가 0.6 이상이거나 R과 B의 차이(RBD, red-blue difference)가 30 미만일 경우의 화소를 구름 화소로 분류하여 전운량을 계산한다. In general, total cloud cover can be calculated using the brightness of the RGB (red, green, blue) colors of the image captured by the camera. In other words, the characteristics of different brightness and darkness of RGB according to the scattering of light in the sky and clouds are used to detect clouds and calculate the total cloud amount from their ratio or difference. For example, if the RBR (red-blue ratio), which is the ratio of R and B, is more than 0.6 or the difference between R and B (RBD, red-blue difference) is less than 30, the pixel is classified as a cloud pixel and the total cloud amount is calculated. .

그러나 이러한 경험적인 방법들은 다양한 기상 조건에서 하늘과 구름을 분류하기 어렵다. 즉, 하늘과 구름의 컬러는 대기의 상태와 태양의 위치 등에 따라 다양하게 변하기 때문에 경계 조건이 매 순간 변할 수 있다.However, these empirical methods are difficult to classify the sky and clouds under various weather conditions. In other words, the color of the sky and clouds varies depending on the state of the atmosphere and the position of the sun, so boundary conditions can change at every moment.

이에 따라, 최근에는 이러한 경험적인 방법이 아닌 머신러닝 방법을 이용하여 다양한 이미지를 학습시켜 구름을 탐지하고 전운량을 산출하는 방법들이 활용되고 있다. 즉, 카메라 기반의 구름 관측 장비로부터 촬영된 이미지를 이용한 전운량의 산출은 지도학습 기반의 머신러닝 모델로부터 이미 정답을 알고 있는 자료를 학습시켜 실황을 예측하는 모델로 구성하여 산출하고 있는 것이다.Accordingly, recently, methods have been used to detect clouds and calculate total cloud cover by learning various images using machine learning methods rather than empirical methods. In other words, the calculation of total cloud cover using images taken from camera-based cloud observation equipment is calculated by constructing a model that predicts the actual situation by learning data for which the correct answer is already known from a supervised learning-based machine learning model.

또한, 지상에서 카메라 기반의 구름 관측은 카메라에 시야각이 180°인 어안 렌즈를 장착하여 관측하게 되므로 영상의 가장자리 영역일수록 상대적으로 물체의 크기가 작아지고, 어안 렌즈에 의하여 하늘과 구름을 포함한 주변 모든 물체를 촬영하기 때문에 주변 차폐물들과 영상을 밝게 오염시키는 광원들에 대한 제거가 필요하다.In addition, camera-based cloud observation on the ground is observed by attaching a fisheye lens with a viewing angle of 180° to the camera, so the size of the object becomes relatively smaller at the edge of the image, and all surrounding areas, including the sky and clouds, are captured by the fisheye lens. Because objects are photographed, it is necessary to remove surrounding shields and light sources that brightly contaminate the image.

한편, 본 발명과 관련한 선행기술을 조사한 결과 다수의 특허문헌이 검색되었으며, 그 중 일부를 소개하면 다음과 같다.Meanwhile, as a result of researching prior art related to the present invention, a number of patent documents were searched, some of which are introduced as follows.

특허문헌 1은, 광각 카메라의 어안렌즈를 통해 얻은 제1 영상을 불러오는 제1 과정; 상기 제1 영상에 대하여 이미지 좌표계를 구성하는 제2 과정; 상기 이미지 좌표계에서 이미지 센서 좌표계로 변환시키는 제3 과정; 상기 이미지 센서 좌표계에서 한 지점에 대한 천정각(θ)과 방위각(φ)을 계산하는 제4 과정; 및 상기 한 지점에 대한 직각좌표계 상의 좌표 P(x, y, z)를 계산하여 3차원 가상공간을 구성하는 제5 과정을 포함하며, 실시간적으로 왜곡이 보정된 2차원 이미지를 모니터에 디스플레이 함으로써 실내외의 보안, 감시, 범죄 예방, 자동차의 후방 카메라 등 다양하게 활용될 수 있는 어안 렌즈를 사용하여 얻은 왜곡영상에 대한 보정방법 및 이를 구현하기 위한 영상 디스플레이 시스템을 개시하고 있다.Patent Document 1 includes a first process of loading a first image obtained through a fisheye lens of a wide-angle camera; a second process of constructing an image coordinate system for the first image; A third process of converting the image coordinate system into an image sensor coordinate system; A fourth process of calculating a zenith angle (θ) and an azimuth angle (ϕ) for a point in the image sensor coordinate system; And a fifth process of constructing a three-dimensional virtual space by calculating the coordinates P(x, y, z) on the rectangular coordinate system for the point, by displaying a two-dimensional image with distortion corrected in real time on a monitor. We are disclosing a correction method for distorted images obtained using a fisheye lens that can be used in a variety of ways, such as indoor and outdoor security, surveillance, crime prevention, and automobile rear-view cameras, and an image display system to implement the same.

특허문헌 2는, 스카이뷰 장치를 통해 촬영된 하늘 영상자료로부터, 이미지 내의 차폐제거, GBR 화소분포에 따른 영상 분류, RBR 경계값을 고려한 구름 화소 분류, 분류된 구름 화소에서 태양광 제거, 구름 화소의 유효성 검사과정을 행하도록 한 후, 전운량을 산출함으로T서, 체계적이고 과학적임은 물론 정확성과 객관성을 모두 충족시킬 수 있도록 한 전천 하늘 영상자료의 RGB 컬러를 이용한 전운량 산출방법 및 시스템을 재기하고 있다.Patent Document 2, from sky image data captured through a sky view device, removes occlusion within the image, classifies images according to GBR pixel distribution, classifies cloud pixels considering RBR boundary values, removes sunlight from classified cloud pixels, and removes sunlight from cloud pixels. After conducting a validation process, we calculated the total cloud amount, measuring the total cloud amount calculation method and system using the RGB color of all-sky sky image data that is systematic and scientific, as well as satisfying both accuracy and objectivity. I'm doing it.

특허문헌 3은, 관측위성에서 관측된 후 전송되는 밝기온도와 반사도를 사용하여 적설과 같은 구름 오인(誤認) 화소가 구분된 기계학습 모델의 입력자료를 작성하는 기능을 수행하는 전처리부; 상기 전처리부에 작성된 기계학습 모델 입력자료를 통해 군집별로 훈련된 기계학습 모델을 순차적으로 구동하여 전운량을 결정하는 기능을 수행하는 운량 결정부; 및 상기 운량 결정부에서 산출된 전운량 결과를 영상 및 지점별 집계 정보로 표출하는 기능을 수행하는 영상표출 및 지점별 집계부;를 포함하며, 지상에서 목측하는 수준의 객관적인 전운량 자료와 하늘상태를 기준으로 영상을 표현함으로써, 사용자는 원하는 지역에 대한 전운량 정보를 보다 정확하고 편리하게 사용하고 판단할 수 있으며, 그 정보를 날씨 예보에 활용할 수 있도록 한 기계학습을 이용한 위성기반 전운량 산출방법을 개시하고 있다.Patent Document 3 is a preprocessor that performs the function of creating input data for a machine learning model in which cloud misidentification pixels such as snow cover are distinguished using brightness temperature and reflectivity transmitted after observation from an observation satellite; a cloud amount determination unit that performs a function of determining the total cloud amount by sequentially running a machine learning model trained for each cluster using the machine learning model input data prepared in the preprocessing unit; And an image display and point-by-point aggregation unit that performs the function of displaying the total cloud amount results calculated from the cloud amount determination unit as images and point-by-point aggregate information. It includes objective total cloud amount data and sky conditions at the level observed from the ground. By expressing the image based on , users can more accurately and conveniently use and judge the total cloud amount information for the desired area, and a satellite-based total cloud amount calculation method using machine learning that allows the information to be used in weather forecasts. is starting.

특허문헌 4는, 지상에서 촬영한 전체 하늘의 원본 영상자료를 수집하는 단계와; 상기 원본 영상자료의 중심좌표와 반지름, 시야각 및 출력영상의 크기를 설정하는 단계와; 수집된 원본 영상자료의 각 화소를 RGB의 색상에 따른 명암으로 변환시키는 단계와; 원본 영상자료에 대응하는 차폐영상을 입력하여 차폐화소를 제거하는 단계와; 차폐화소가 제거된 전천화소에 대한 왜곡 보정을 수행하는 단계와; 왜곡 보정이 완료된 전천화소를 이용하여 전천영상을 생산하는 단계;를 포함하며, 지상에서 촬영한 전체 하늘의 영상자료로부터 하늘이나 구름으로 판별할 수 없는 화소를 차폐영상으로 분류한 후 실제 촬영된 원본 영상자료로부터 차폐영상을 제거하고 시야각 미만의 영상에 대한 왜곡 보정을 통해 실제 사람이 보는 것과 유사한 영상자료를 생산하고 전운량을 자동으로 산출할 수 있도록 한 지상기반 전운량 자동 산출을 위한 왜곡 영상 전처리 방법을 개시하고 있다.Patent Document 4 includes the steps of collecting original image data of the entire sky taken from the ground; setting the center coordinates, radius, viewing angle, and size of the output image of the original image data; Converting each pixel of the collected original image data into light and dark according to RGB color; removing occluded pixels by inputting a occluded image corresponding to the original image data; performing distortion correction on the full-sky pixel from which the occlusion pixel has been removed; A step of producing an all-sky image using all-sky pixels for which distortion correction has been completed; classifying pixels that cannot be determined as sky or clouds from image data of the entire sky captured on the ground as occluded images, and then producing the original image actually captured. Distorted image preprocessing for automatic calculation of ground-based total cloud amount, which removes occluded images from video data and corrects distortion for images below the viewing angle to produce image data similar to what a person actually sees and automatically calculates total cloud amount. The method is disclosed.

KRKR 10-2014-0090775 10-2014-0090775 AA KRKR 10-1709860 10-1709860 B1B1 KRKR 10-1855652 10-1855652 B1B1 KRKR 10-2209866 10-2209866 B1B1

본 발명은 상기한 종래기술의 문제점을 해결하기 위하여 안출된 것으로서, 지상에서 카메라 기반의 관측 장비로부터 전운량을 산출하기 위해 촬영된 이미지의 통계적 특성 자료와 시간 정보 등을 입력자료로 하는 서포트 벡터 머신 알고리즘을 이용하여 전운량을 산출하되, 어안 렌즈가 장착된 카메라로 촬영된 영상의 각 화소를 RGB 명암으로 변환하여 주변 차폐물과 광원을 제거하고 왜곡 보정을 수행함으로써, 산출 결과에 대한 신뢰성을 향상시킬 수 있는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법 및 시스템을 제공하는데 그 목적이 있다.The present invention was developed to solve the problems of the prior art described above, and is a support vector machine that uses statistical characteristic data and time information of images taken as input data to calculate total cloud cover from camera-based observation equipment on the ground. Calculate total cloud cover using an algorithm, and convert each pixel of the image captured with a camera equipped with a fisheye lens into RGB brightness to remove surrounding occlusions and light sources and perform distortion correction to improve the reliability of the calculation results. The purpose is to provide a method and system for calculating day and night total cloud cover using images captured based on ground cameras and a support vector machine algorithm.

상기 목적을 달성하기 위한 본 발명은, 어안 렌즈가 장착된 지상 카메라로 촬영된 과거 자료에 대한 RGB 명암의 통계적 특성을 산출하고, 입력된 과거 자료를 훈련자료와 검증자료로 분류하는 전처리 단계와; 전처리된 영상자료의 통계적 특성에 대한 분류/회귀분석을 통해 최적의 전운량을 산출할 수 있는 모델을 구성하는 서포트 벡터 머신 구성 단계; 상기 전처리 단계에서 훈련자료로 분류된 자료를 이용하여 서포트 벡터 머신을 학습시키고 검증자료로 분류된 자료를 이용하여 검증하는 방식을 통해 서포트 벡터 머신을 최적화하는 단계; 및 서포트 벡터 머신에 실시간 자료를 입력하여 전운량을 산출하고, 그 자료를 데이터베이스로 저장하는 전운량 산출 단계;를 포함하는 것을 특징으로 한다.The present invention for achieving the above object includes a preprocessing step of calculating statistical characteristics of RGB brightness and darkness for historical data captured with a ground camera equipped with a fisheye lens and classifying the input historical data into training data and validation data; A support vector machine construction step to construct a model that can calculate the optimal cloud cover through classification/regression analysis of the statistical characteristics of the preprocessed image data; Optimizing the support vector machine by training the support vector machine using the data classified as training data in the preprocessing step and verifying it using the data classified as verification data; And a total cloud amount calculation step of calculating total cloud amount by inputting real-time data into a support vector machine and storing the data in a database.

또, 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 따르면, 상기 전처리 단계는 일정 기간의 과거 영상자료가 입력되는 단계와; 입력된 영상자료를 각 화소별로 구분하여 RGB(red, green, blue) 명암으로 변환하는 단계와; 어안 렌즈로 촬영된 영상자료에서 하늘과 구름을 차폐시키는 물체들에 의한 차폐영역을 제거하고, 직교 투영 왜곡 보정을 수행하여 영상의 중심과 가장자리 영역의 상대적 물체 크기를 동일하게 만들어주는 단계와; RGB 명암의 평균이 240을 초과할 경우 해당 화소를 제거하는 방식으로 화면 내 광원을 제거하는 단계와; 차폐 및 광원 제거 그리고 왜곡 보정 과정을 거친 영상자료에 대한 RGB 명암의 통계적 특성을 산출하는 단계; 및 과거 자료를 서포트 벡터 머신의 학습자료로 사용하기 위한 훈련자료와 서포트 벡터 머신의 예측 성능을 검증하기 위한 검증자료로 분류하여 일정 비율로 추출하는 단계;를 포함하는 것을 특징으로 한다.In addition, according to the method of calculating day and night total cloud cover using images captured based on a ground camera and a support vector machine algorithm of the present invention, the preprocessing step includes inputting past image data for a certain period of time; A step of dividing the input image data into each pixel and converting it into RGB (red, green, blue) contrast; removing the blocking area caused by objects blocking the sky and clouds from the image data captured with a fisheye lens, and performing orthogonal projection distortion correction to make the relative object sizes of the center and edge areas of the image the same; removing the light source in the screen by removing the corresponding pixel if the average RGB contrast exceeds 240; Calculating statistical characteristics of RGB contrast for image data that has undergone shielding, light source removal, and distortion correction processes; And classifying past data into training data for use as learning data for a support vector machine and verification data for verifying the prediction performance of the support vector machine, and extracting them at a certain ratio.

또한, 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 따르면, 상기 서포트 벡터 머신 구성 단계는 입력된 과거 자료들의 관계에 대한 분류/회귀분석에 따른 하이퍼 파라미터(hyper-parameter)의 설정을 통해 서포트 벡터 머신을 구성하되, 하이퍼 파라미터 탐색을 위해 반복 훈련되는 과정에서 구성된 모델에 검증자료를 적용하였을 때 예측된 전운량과 목측 전운량의 편이(bias)와 평균제곱근오차(RMSE)가 가장 작고 상관계수(R)가 가장 높았던 설정값을 탐색하여 최적의 서포트 벡터 머신을 구성하는 것을 특징으로 한다.In addition, according to the method of calculating day and night total cloud cover using images captured based on a ground camera and a support vector machine algorithm of the present invention, the step of configuring the support vector machine involves hyperparameters based on classification/regression analysis of the relationship between the input past data. A support vector machine is configured by setting (hyper-parameter), but when verification data is applied to the model constructed during repeated training for hyper-parameter search, the bias and average of the predicted total cloud amount and observed total cloud amount are calculated. It is characterized by constructing an optimal support vector machine by searching for the settings with the smallest root mean square error (RMSE) and the highest correlation coefficient (R).

또, 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 따르면, 서포트 벡터 머신은 벡터들 사이의 거리에 대한 최대 마진(margin)을 분류할 수 있는 서포트 벡터들로 이루어진 초평면을 찾은 후, 맵핑 함수가 최소가 되는 파라미터를 구하여 최적의 초평면을 탐색하고, 마진의 경계를 결정하고 마진의 오차를 허용하기 위한 하이퍼 파라미터를 설정하여 초평면 탐색과 고차원 맵핑을 위한 마진과 오차 및 제약 비용 설정 등을 조정하여 모델을 최적화하는 것을 특징으로 한다.In addition, according to the method of calculating day and night total cloud cover using the video captured based on a ground camera and the support vector machine algorithm of the present invention, the support vector machine is a support vector that can classify the maximum margin for the distance between vectors. After finding the hyperplane composed of It is characterized by optimizing the model by adjusting the error and constraint cost settings.

또한, 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 따르면, 상기 하이퍼 파라미터를 설정할 때에는 일정 설정값 범위 내에 정해진 간격으로 설정값을 탐색하되, 하이퍼 파라미터가 여러 개일 경우 그 반복 횟수만큼 하이퍼 파라미터의 최적 설정값을 탐색하는 것을 특징으로 한다.In addition, according to the method of calculating day and night total cloud cover using images captured based on a ground camera and a support vector machine algorithm of the present invention, when setting the hyper parameters, the set values are searched at set intervals within a certain set value range, but the hyper parameters are In the case of multiple hyperparameters, the optimal setting value of the hyperparameter is searched for the number of repetitions.

본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법은 서포트 벡터 머신에 지상 카메라에 의해 촬영된 영상으로 이루어진 실시간 자료를 입력하여 주야간 전운량을 산출하되, 서포트 벡터 머신의 최적화를 위하여 어안 렌즈가 장착된 카메라로 촬영된 영상의 각 화소를 RGB 명암으로 변환하여 주변 차폐물과 광원을 제거하고 왜곡 보정을 수행하는 전처리가 완료된 과거 자료를 이용함에 따라 주간은 물론 야간의 전운량을 실시간으로 산출할 수 있게 됨은 물론 전운량 산출 결과에 대한 신뢰성이 향상되는 효과가 있다.The method for calculating the day and night total cloud amount using images captured based on a ground camera and a support vector machine algorithm according to the present invention calculates the day and night total cloud amount by inputting real-time data consisting of images captured by a ground camera into a support vector machine. In order to optimize the vector machine, each pixel of the image captured by a camera equipped with a fisheye lens is converted into RGB contrast, and past data that has been preprocessed to remove surrounding occlusions and light sources and perform distortion correction is used, so that it can be used during the day as well as at night. It is possible to calculate the total cloud amount in real time, and the reliability of the total cloud amount calculation results is improved.

도 1은 본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법이 도시된 순서도.
도 2는 본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법의 전처리 과정을 나타낸 순서도.
Figure 1 is a flowchart showing a method for calculating day and night total cloud cover using images captured based on a ground camera and a support vector machine algorithm according to the present invention.
Figure 2 is a flow chart showing the pre-processing process of the day and night total cloud amount calculation method using images captured based on a ground camera and a support vector machine algorithm according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 대하여 설명하면 다음과 같다.Hereinafter, with reference to the attached drawings, a method for calculating day and night total cloud cover using images captured based on a ground camera of the present invention and a support vector machine algorithm will be described as follows.

본 발명에서 사용되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 정의는 본 발명의 기술적 사항에 부합되는 의미와 개념으로 해석되어야 할 것이다.The terms used in the present invention are terms defined in consideration of the functions in the present invention, and may vary depending on the intention or custom of the user or operator, so the definitions of these terms are defined in accordance with the technical details of the present invention. It should be interpreted as a concept.

아울러, 본 발명의 실시예는 본 발명의 권리범위를 한정하는 것이 아니라 본 발명의 청구범위에 제시된 구성요소의 예시적인 사항에 불과하며, 본 발명의 명세서 전반에 걸친 기술사상에 포함되고 청구범위의 구성요소에서 균등물로서 치환 가능한 구성요소를 포함하는 실시예이다.In addition, the embodiments of the present invention do not limit the scope of the present invention, but are merely illustrative of the components presented in the claims of the present invention, and are included in the technical idea throughout the specification of the present invention and are included in the claims. This is an embodiment that includes components that can be replaced as equivalents in the components.

그리고, 아래 실시예에서의 선택적인 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로서, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.Additionally, optional terms in the examples below are used to distinguish one component from another component, and the components are not limited by the terms.

이에, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있는 관련된 공지기술에 대한 상세한 설명은 생략한다.Accordingly, when describing the present invention, detailed descriptions of related known technologies that may unnecessarily obscure the gist of the present invention are omitted.

본 발명의 바람직한 실시예를 설명하기 위한, 도 1은 본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법이 도시된 순서도이고, 도 2는 본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법의 전처리 과정을 나타낸 순서도이다.To explain a preferred embodiment of the present invention, FIG. 1 is a flowchart showing a method for calculating day and night total cloud cover using images captured based on a ground camera and a support vector machine algorithm according to the present invention, and FIG. 2 is a flowchart showing a method for calculating day and night total cloud cover according to the present invention. This is a flowchart showing the pre-processing process of the day and night total cloud amount calculation method using images captured based on ground cameras and the support vector machine algorithm.

본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법은 도 1에 도시된 바와 같이, 어안 렌즈가 장착된 지상 카메라로 촬영된 과거 자료에 대한 RGB 명암의 통계적 특성을 산출하고, 입력된 과거 자료를 훈련자료와 검증자료로 분류하는 전처리 단계와; 전처리된 영상자료의 통계적 특성에 대한 분류/회귀분석을 통해 최적의 전운량을 산출할 수 있는 모델을 구성하는 서포트 벡터 머신 구성 단계; 상기 전처리 단계에서 훈련자료로 분류된 자료를 이용하여 서포트 벡터 머신을 학습시키고 검증자료로 분류된 자료를 이용하여 검증하는 방식을 통해 서포트 벡터 머신을 최적화하는 단계; 및 서포트 벡터 머신에 실시간 자료를 입력하여 전운량을 산출하고, 그 자료를 데이터베이스로 저장하는 전운량 산출 단계;를 포함하여 이루어진다.As shown in FIG. 1, the method for calculating day and night total cloud cover using images captured based on a ground camera and a support vector machine algorithm according to the present invention is a statistical method of RGB contrast for past data captured by a ground camera equipped with a fisheye lens. A preprocessing step of calculating characteristics and classifying the input past data into training data and verification data; A support vector machine construction step to construct a model that can calculate the optimal cloud cover through classification/regression analysis of the statistical characteristics of the preprocessed image data; Optimizing the support vector machine by training the support vector machine using the data classified as training data in the preprocessing step and verifying it using the data classified as verification data; and a total cloud amount calculation step of calculating total cloud amount by inputting real-time data into a support vector machine and storing the data in a database.

여기서, 상기 전처리 단계는 도 2에 도시된 바와 같이 일정 기간의 과거 영상자료가 입력되는 단계와; 입력된 영상자료를 각 화소별로 구분하여 RGB(red, green, blue) 명암으로 변환하는 단계와; 어안 렌즈로 촬영된 영상자료에서 하늘과 구름을 차폐시키는 물체들에 의한 차폐영역을 제거하고, 직교 투영 왜곡 보정을 수행하여 영상의 중심과 가장자리 영역의 상대적 물체 크기를 동일하게 만들어주는 단계와; RGB 명암의 평균이 240을 초과할 경우 해당 화소를 제거하는 방식으로 화면 내 광원을 제거하는 단계와; 차폐 및 광원 제거 그리고 왜곡 보정 과정을 거친 영상자료에 대한 RGB 명암의 통계적 특성을 산출하는 단계; 및 과거 자료를 서포트 벡터 머신의 학습자료로 사용하기 위한 훈련자료와 서포트 벡터 머신의 예측 성능을 검증하기 위한 검증자료로 분류하여 일정 비율로 추출하는 단계;를 포함여 이루어진다.Here, the preprocessing step includes inputting past image data for a certain period of time as shown in FIG. 2; A step of dividing the input image data into each pixel and converting it into RGB (red, green, blue) contrast; removing the blocking area caused by objects blocking the sky and clouds from the image data captured with a fisheye lens, and performing orthogonal projection distortion correction to make the relative object sizes of the center and edge areas of the image the same; removing the light source in the screen by removing the corresponding pixel if the average RGB contrast exceeds 240; Calculating statistical characteristics of RGB contrast for image data that has undergone shielding, light source removal, and distortion correction processes; And classifying past data into training data to be used as learning data for the support vector machine and verification data to verify the prediction performance of the support vector machine, and extracting them at a certain ratio.

상기 영상자료가 입력되는 단계는, 서포트 벡터 머신의 훈련과 검증을 통한 모델 최적화를 수행하기 위해 실시간 자료가 입력되기 이전 시점의 과거 자료가 입력되는 것으로, 일정 기간의 과거 자료가 입력된다. 입력되는 자료는 지상에서 카메라 기반으로 촬영된 영상과, 전문 기상 관측자가 관측한 목측 전운량 자료, 그리고 촬영된 시간(Julian day, hour)과, 태양천정각(solar zenith angle, SZA) 자료가 있다, 그리고, 기간은 최소한 수 주에서 1년 정도의 자료가 입력되는 것이 바람직하며, 서포트 벡터 머신의 학습 성능을 향상시키기 위해서는 장기간으로 자료의 기간을 설정하는 것이 바람직하다.In the step of inputting the image data, past data from before real-time data is input in order to perform model optimization through training and verification of a support vector machine. Past data for a certain period of time are input. The input data includes images captured by cameras on the ground, observed total cloud cover data observed by professional weather observers, and the time of filming (Julian day, hour) and solar zenith angle (SZA) data. In addition, it is desirable for data to be input for at least a few weeks to a year, and in order to improve the learning performance of the support vector machine, it is desirable to set the data period for a long period of time.

상기 RGB 명암 변환으로 변환하는 단계는, 우리가 흔히 보는 사진과 같은 형태로 저장된 영상자료를 각 화소별 색을 RGB(red, green, blue) 명암으로 변환하는 과정이다. 이때, 영상의 x축과 y축을 따라 각 화소별 R, G, B 명암으로 변환되며, 각각 0~255 사이의 정수값을 갖는다.The step of converting to RGB contrast conversion is a process of converting the color of each pixel into RGB (red, green, blue) contrast of image data stored in the form of a photograph we commonly see. At this time, it is converted into R, G, and B contrast for each pixel along the x-axis and y-axis of the image, and each has an integer value between 0 and 255.

상기 차폐 제거 및 어안 왜곡 보정 단계는 영상 내에서 하늘을 가리고 있는 차폐물을 제거하고, 영상의 왜곡을 보정하는 과정이다. 즉, 어안 렌즈로 촬영된 영상은 어안 렌즈의 시야각 내의 모든 물체를 촬영하기 때문에, 전운량 산출을 위해서 하늘과 구름을 차폐시키는 건물, 나무, 기타 장비들과 같은 물체들에 대한 차폐 영역을 제거하는 것이다. 특히, 태양천정각(SZA) 80° 이상은 주변 차폐물들로 인하여 영구적으로 하늘을 차폐시키기 때문에, 전운량 산출시에는 해당 영역을 영구적으로 제거할 필요가 있다. 또한, 어안 렌즈로 촬영된 영상의 특성상 영상의 가장자리일수록 촬영된 물체가 상대적으로 작게 촬영되므로, 직교 투영 왜곡 보정을 수행하여 영상의 중심과 가장자리 영역의 상대적 물체 크기를 동일하게 만들어 주는 방식으로 영상의 왜곡을 보정한다.The occlusion removal and fisheye distortion correction step is a process of removing occlusions blocking the sky in the image and correcting distortion of the image. In other words, since images captured with a fisheye lens capture all objects within the viewing angle of the fisheye lens, in order to calculate the total cloud amount, it is necessary to remove the blocking area for objects such as buildings, trees, and other equipment that block the sky and clouds. will be. In particular, since the solar zenith angle (SZA) of 80° or higher permanently blocks the sky due to surrounding occlusions, it is necessary to permanently remove the area when calculating total cloud amount. In addition, due to the nature of images captured with a fisheye lens, the closer the image is to the edge of the image, the smaller the captured object is. Therefore, orthogonal projection distortion correction is performed to make the relative object sizes in the center and edge areas of the image the same. Correct distortion.

상기 영상 내 광원제거 단계는 광원으로 인해 하늘과 구름의 구분이 어려워지는 것을 방지하기 위하여 밝은 화소를 제거하는 과정이다. 통상적으로 영상 내에 광원이 존재할 경우, 광원이 위치한 화소(RGB 255, 255, 255, white에 근접한 화소)나 그 주변 화소가 밝게 나타나게 되고, 이는 실제 하늘과 구름의 RGB 명암에 영향을 미쳐 하늘과 구름을 분간하기 어렵게 만든다. 따라서 광원과 광원 주변에 밝은 화소는 제거될 필요가 있는데, RGB 명암의 평균이 240을 초과할 경우 해당 화소를 제거한다.The light source removal step in the image is a process of removing bright pixels to prevent the light source from making it difficult to distinguish between the sky and clouds. Typically, when a light source exists in an image, the pixel where the light source is located (pixels close to RGB 255, 255, 255, white) or the pixels around it appear brightly, and this affects the RGB brightness of the actual sky and clouds, causing the sky and clouds to appear brighter. makes it difficult to distinguish. Therefore, bright pixels in and around the light source need to be removed. If the average RGB brightness exceeds 240, the pixel is removed.

상기 영상의 통계적 특성을 산출하는 단계는 서포트 벡터 머신에 입력자료로 사용할 수 있도록, 차폐 및 광원 제거 그리고 왜곡 보정 과정을 거친 영상자료의 RGB 명암의 통계적 특성을 산출하는 과정이다. 대부분의 영상자료는 주간, 야간, 시간, 계절, 영상 내 구름의 정도, 기상 조건 등에 따라 RGB 명암의 비율과 차이 그리고 휘도(luminance, Y)가 달라지며 그 값들의 빈도분포 또한 다른 특징을 보이게 된다. 따라서, 영상자료별 R과 B의 비인 RBR(red-blue ratio)과, B와 R의 차이인 BRD(blue-red difference) 그리고 휘도(Y)의 빈도분포의 평균, 표준편차, 최빈값, 최빈값의 빈도수, 첨도, 왜도, 사분위수(Q0~Q4: 0%, 25%, 50%, 75%, 100%)를 산출하여 입력자료로 사용한다. 이때, RBR, BRD, Y의 각 빈도분포의 계급구간 크기는 0.01, 1, 1의 배수(예를 들면 0.02, 2, 2 간격)로 설정하며, 특정 계급의 빈도수가 100 미만인 계급은 무시하는 것이 바람직하다. 이는 빈도가 작은 계급에 의해 첨도, 왜도, 사분위수와 같은 통계 특성이 민감하게 변할 수 있기 때문이다.The step of calculating the statistical characteristics of the image is a process of calculating the statistical characteristics of the RGB brightness of the image data that has gone through the process of masking, light source removal, and distortion correction so that it can be used as input data to a support vector machine. In most image data, the ratio and difference in RGB contrast and luminance (Y) vary depending on daytime, night, time, season, degree of clouds in the image, weather conditions, etc., and the frequency distribution of those values also shows different characteristics. . Therefore, the red-blue ratio (RBR), which is the ratio of R and B for each image data, the blue-red difference (BRD), which is the difference between B and R, and the mean, standard deviation, mode, and mode value of the frequency distribution of luminance (Y). Frequency, kurtosis, skewness, and quartile (Q0~Q4: 0%, 25%, 50%, 75%, 100%) are calculated and used as input data. At this time, the class interval size of each frequency distribution of RBR, BRD, and Y is set to a multiple of 0.01, 1, and 1 (e.g., 0.02, 2, and 2 intervals), and classes with a frequency of a specific class below 100 are ignored. desirable. This is because statistical characteristics such as kurtosis, skewness, and quartiles can change sensitively depending on classes with small frequencies.

상기 자료분류 단계는, 서포트 벡터 머신의 최적화를 위해 사용할 수 있도록 각 자료를 훈련자료와 검증자료로 분류하는 과정이다. 즉, 상기 RBR, BRD, Y 빈도분포의 평균, 표준편차, 최빈값, 최빈값의 빈도수, 첨도, 왜도, 사분위수와 영상자료 입력 과정에서 입력된 시간(Julian day, hour) 그리고 SZA 자료와 서포트 벡터 머신 모델의 학습을 위한 목측 전운량 자료를 각각 훈련자료와 검증자료로 분류한다. 훈련자료와 검증자료는 수집된 자료(100%)를 기준으로 8:2 등의 비율로 랜덤하게 추출한다. 이에 따라, 훈련자료를 학습하는 과정에서 구성된 서포트 벡터 머신의 예측 성능이 검증자료를 통해 수행될 수 있게 된다.The data classification step is a process of classifying each data into training data and verification data so that it can be used for optimization of the support vector machine. That is, the mean, standard deviation, mode, frequency of the mode, kurtosis, skewness, and quartiles of the RBR, BRD, and Y frequency distributions, the time input during the image data input process (Julian day, hour), and the SZA data and support vector. Observed cloud cover data for machine model learning are classified into training data and validation data, respectively. Training data and verification data are randomly extracted at a ratio of 8:2, etc., based on the collected data (100%). Accordingly, the prediction performance of the support vector machine constructed in the process of learning the training data can be performed using the verification data.

그리고, 상기 서포트 벡터 머신 구성 단계는 입력된 과거 자료들의 관계에 대한 분류/회귀분석에 따른 하이퍼 파라미터(hyper-parameter)의 설정을 통해 서포트 벡터 머신을 구성하는 단계이다.In addition, the support vector machine configuration step is a step of configuring a support vector machine through setting hyper-parameters according to classification/regression analysis of the relationship between input past data.

서포트 벡터 머신은 벡터들 사이의 거리에 대한 최대 마진(margin)을 분류할 수 있는 서포트 벡터들로 이루어진 초평면을 찾은 후, 맵핑 함수가 최소가 되는 파라미터를 구하여 최적의 초평면을 탐색하고, 마진의 경계를 결정하고 마진의 오차를 허용하기 위한 하이퍼 파라미터를 설정하여 초평면 탐색과 고차원 맵핑을 위한 마진과 오차 및 제약 비용 설정 등을 조정하여 모델을 최적화하는 방식으로 구성한다.The support vector machine finds a hyperplane composed of support vectors that can classify the maximum margin for the distance between vectors, then finds the parameter that minimizes the mapping function, searches for the optimal hyperplane, and searches for the boundary of the margin. is determined and hyperparameters are set to allow for margin errors, and the model is optimized by adjusting margins, errors, and constraint cost settings for hyperplane search and high-dimensional mapping.

즉, 서포트 벡터 머신을 구성하기 위하여, 벡터들 사이의 거리에 대한 최대 마진(margin)을 분류할 수 있는 서포트 벡터들로 이루어진 초평면을 찾은 후, 최적의 초평면에서 맵핑 함수가 최소가 되는 파라미터를 구한다. 이후, RBF(radial basis function) 커널을 적용하여 고차원으로 맵핑한다. 이때, 마진의 경계를 결정하고 마진의 오차를 허용하기 위한 슬랙(slack) 변수와 이 조건들을 위배할 수 있는 제약 비용을 설정한다. 따라서, 엡실론(ε), 감마(γ), 코스트(C) 등의 하이퍼 파라미터를 설정하여 초평면 탐색과 고차원 맵핑을 위한 마진과 오차 및 제약 비용 설정 등을 조정하고, 이를 통해 모델을 최적화시키는 것이다.In other words, in order to construct a support vector machine, a hyperplane consisting of support vectors that can classify the maximum margin for the distance between vectors is found, and then the parameter that minimizes the mapping function in the optimal hyperplane is obtained. . Afterwards, a radial basis function (RBF) kernel is applied to map to a higher dimension. At this time, the boundary of the margin is determined, a slack variable to allow for margin error, and a constraint cost that can violate these conditions are set. Therefore, by setting hyper parameters such as epsilon (ε), gamma (γ), and cost (C), the margin, error, and constraint cost settings for hyperplane search and high-dimensional mapping are adjusted, and the model is optimized through this.

상기 하이퍼 파라미터를 설정할 때에는 일정 설정값 범위 내에 정해진 간격으로 설정값을 탐색하는 것이 바람직하며, 하이퍼 파라미터가 여러 개일 경우 그 반복 횟수만큼 하이퍼 파라미터의 최적 설정값을 탐색한다. 예를 들어, 엡실론(ε)을 0.05~0.50 범위에서 0.05 간격, 감마(γ)를 0.01~0.10 범위에서 0.01 간격, 코스트(C)를 1~10 범위에서 1 간격으로 탐색할 경우, 총 10×10×10번의 반복 과정을 거쳐 최적의 하이퍼 파라미터 설정값을 탐색하는 것이다. 이 과정은 모델 구성을 위해 최초의 한번만 수행되면 반영구적으로 사용되지만, 주기적으로 업데이트하는 것이 바람직하다.When setting the hyper parameters, it is desirable to search for setting values at fixed intervals within a certain setting value range. If there are multiple hyper parameters, the optimal setting value of the hyper parameter is searched for the number of repetitions. For example, if epsilon (ε) is searched in the range of 0.05 to 0.50 at intervals of 0.05, gamma (γ) is searched in the range of 0.01 to 0.10 at intervals of 0.01, and cost (C) is searched in the range of 1 to 10 at intervals of 1, a total of 10 The optimal hyperparameter settings are searched through a 10×10 iteration process. This process can be used semi-permanently if performed only once for model construction, but it is desirable to update it periodically.

그리고, 하이퍼 파라미터 탐색을 위해 반복 훈련되는 과정에서 구성된 모델에 검증자료를 적용하였을 때 예측된 전운량과 목측 전운량의 편이(bias)와 평균제곱근오차(RMSE)가 가장 작고 상관계수(R)가 가장 높았던 설정값을 탐색하여 최적의 서포트 벡터 머신을 구성하게 된다.And, when verification data was applied to the model constructed in the process of repeated training for hyperparameter search, the bias and root mean square error (RMSE) of the predicted and observed total cloud amount were the smallest and the correlation coefficient (R) was the lowest. By searching for the highest setting value, the optimal support vector machine is constructed.

상기 전운량 산출단계는 서포트 벡터 머신의 최적화가 완료된 후, 실시간 자료를 입력하여 전운량을 산출하고, 그 결과가 데이터베이스로 저장되는 단계이다.In the total cloud amount calculation step, after the optimization of the support vector machine is completed, real-time data is input to calculate the total cloud amount, and the results are stored in the database.

상기와 같이 구성된 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법은 일정 기간의 과거 자료를 통해 구성된 서포트 벡터 머신에 지상 카메라에 의해 촬영된 영상으로 이루어진 실시간 자료를 입력함으로써 주간은 물론 야간 전운량을 산출할 수 있도록 한다.The method of calculating day and night total cloud cover using the video captured based on a ground camera and the support vector machine algorithm of the present invention configured as described above is a support vector machine constructed using past data for a certain period of time and real-time data consisting of images captured by a ground camera. By entering , you can calculate the total cloud amount during the day as well as at night.

이상으로 본 발명의 기술적 사상을 예시하기 위한 몇 가지 실시 예들과 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 발명의 설명에 기재된 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 통상의 기술자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.Although the present invention has been described and illustrated in relation to several embodiments to illustrate the technical idea of the present invention, the present invention is not limited to the configuration and operation as described, and is within the scope of the technical idea described in the description of the invention. Those skilled in the art will be able to understand that many changes and modifications can be made to the present invention without departing from the above. Accordingly, all such appropriate changes, modifications and equivalents shall be considered to fall within the scope of the present invention.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

Claims (5)

어안 렌즈가 장착된 지상 카메라로 촬영된 과거 자료에 대한 RGB 명암의 통계적 특성을 산출하고, 입력된 과거 자료를 훈련자료와 검증자료로 분류하는 전처리 단계와;
전처리된 영상자료의 통계적 특성에 대한 분류/회귀분석을 통해 최적의 전운량을 산출할 수 있는 모델을 구성하는 서포트 벡터 머신 구성 단계;
상기 전처리 단계에서 훈련자료로 분류된 자료를 이용하여 서포트 벡터 머신을 학습시키고 검증자료로 분류된 자료를 이용하여 검증하는 방식을 통해 서포트 벡터 머신을 최적화하는 단계; 및
서포트 벡터 머신에 실시간 자료를 입력하여 전운량을 산출하고, 그 자료를 데이터베이스로 저장하는 전운량 산출 단계;를 포함하고,
상기 전처리 단계는
지상에서 카메라 기반으로 촬영된 영상과, 전문 기상 관측자가 관측한 목측 전운량 자료, 그리고 촬영된 시간(Julian day, hour)과, 태양천정각(solar zenith angle, SZA) 자료를 포함하는 일정 기간의 과거 영상자료가 입력되는 단계와;
입력된 영상자료를 각 화소별로 구분하여 RGB(red, green, blue) 명암으로 변환하는 단계와;
어안 렌즈로 촬영된 영상자료에서 하늘과 구름을 차폐시키는 물체들에 의한 차폐영역을 제거하고, 직교 투영 왜곡 보정을 수행하여 영상의 중심과 가장자리 영역의 상대적 물체 크기를 동일하게 만들어주는 단계와;
RGB 명암의 평균이 240을 초과할 경우 해당 화소를 제거하는 방식으로 화면 내 광원을 제거하는 단계와;
영상자료별 R과 B의 비인 RBR(red-blue ratio)과, B와 R의 차이인 BRD(blue-red difference) 그리고 휘도(Y)의 빈도분포의 평균, 표준편차, 최빈값, 최빈값의 빈도수, 첨도, 왜도, 사분위수(Q0~Q4: 0%, 25%, 50%, 75%, 100%)를 산출하여 입력자료로 사용하여, 차폐 및 광원 제거 그리고 왜곡 보정 과정을 거친 영상자료에 대한 RGB 명암의 통계적 특성을 산출하는 단계; 및
과거 자료를 서포트 벡터 머신의 학습자료로 사용하기 위한 훈련자료와 서포트 벡터 머신의 예측 성능을 검증하기 위한 검증자료로 분류하여 일정 비율로 추출하는 단계;를 포함하며,
상기 서포트 벡터 머신 구성 단계는
입력된 과거 자료들의 관계에 대한 분류/회귀분석에 따른 하이퍼 파라미터(hyper-parameter)의 설정을 통해 서포트 벡터 머신을 구성하되, 하이퍼 파라미터는 일정 설정값 범위 내에서 정해진 간격으로 설정값을 탐색하고, 하이퍼 파라미터가 여러 개일 경우 그 반복 횟수만큼 하이퍼 파라미터의 최적 설정값을 탐색하며, 하이퍼 파라미터 탐색을 위해 반복 훈련되는 과정에서 구성된 모델에 검증자료를 적용하였을 때 예측된 전운량과 목측 전운량의 편이(bias)와 평균제곱근오차(RMSE)가 가장 작고 상관계수(R)가 가장 높았던 설정값을 탐색하여 서포트 벡터 머신을 구성하며,
서포트 벡터 머신은 벡터들 사이의 거리에 대한 최대 마진(margin)을 분류할 수 있는 서포트 벡터들로 이루어진 초평면을 찾은 후, 맵핑 함수가 최소가 되는 파라미터를 구하여 최적의 초평면을 탐색하고, 마진의 경계를 결정하고 마진의 오차를 허용하기 위한 하이퍼 파라미터를 설정하여 초평면 탐색과 고차원 맵핑을 위한 마진과 오차 및 제약 비용 설정의 조정을 통해 모델을 최적화하는 방식으로 이루어지는 것을 특징으로 하는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법.
A preprocessing step of calculating statistical characteristics of RGB contrast for historical data captured with a ground camera equipped with a fisheye lens and classifying the input historical data into training data and validation data;
A support vector machine construction step to construct a model that can calculate the optimal cloud cover through classification/regression analysis of the statistical characteristics of the preprocessed image data;
Optimizing the support vector machine by training the support vector machine using the data classified as training data in the preprocessing step and verifying it using the data classified as verification data; and
It includes a total cloud amount calculation step of inputting real-time data into a support vector machine to calculate the total cloud amount and storing the data in a database,
The preprocessing step is
Past data for a certain period of time, including images captured by cameras on the ground, observed total cloud cover data observed by professional weather observers, and the time of filming (Julian day, hour) and solar zenith angle (SZA) data A step in which video data is input;
A step of dividing the input image data into each pixel and converting it into RGB (red, green, blue) contrast;
removing the blocking area caused by objects blocking the sky and clouds from the image data captured with a fisheye lens, and performing orthogonal projection distortion correction to make the relative object sizes of the center and edge areas of the image the same;
removing the light source in the screen by removing the corresponding pixel if the average RGB contrast exceeds 240;
RBR (red-blue ratio), which is the ratio of R and B for each image data, BRD (blue-red difference), which is the difference between B and R, and the mean, standard deviation, mode, and frequency of the frequency distribution of luminance (Y), Kurtosis, skewness, and quartiles (Q0~Q4: 0%, 25%, 50%, 75%, 100%) are calculated and used as input data, and the image data that has gone through the process of masking, light source removal, and distortion correction is calculated. Calculating statistical characteristics of RGB contrast; and
A step of classifying past data into training data to be used as learning data for a support vector machine and verification data to verify the prediction performance of the support vector machine, and extracting them at a certain ratio;
The support vector machine configuration step is
A support vector machine is constructed by setting hyper-parameters according to classification/regression analysis of the relationships between input past data, and hyper-parameters search for set values at set intervals within a certain set value range. If there are multiple hyperparameters, the optimal setting value of the hyperparameters is searched for the number of repetitions, and when verification data is applied to the model constructed in the process of repeated training for hyperparameter search, the deviation between the predicted total cloud amount and the observed total cloud amount ( A support vector machine is constructed by searching for settings with the lowest bias and root mean square error (RMSE) and the highest correlation coefficient (R).
The support vector machine finds a hyperplane composed of support vectors that can classify the maximum margin for the distance between vectors, then finds the parameter that minimizes the mapping function, searches for the optimal hyperplane, and searches for the boundary of the margin. is determined and hyperparameters are set to allow for margin errors, and the model is optimized through adjustment of margins, errors, and constraint cost settings for hyperplane search and high-dimensional mapping. Day and night total cloud amount calculation method using images and support vector machine algorithm.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020210100403A 2021-07-30 2021-07-30 Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm KR102596080B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210100403A KR102596080B1 (en) 2021-07-30 2021-07-30 Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210100403A KR102596080B1 (en) 2021-07-30 2021-07-30 Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm

Publications (2)

Publication Number Publication Date
KR20230018624A KR20230018624A (en) 2023-02-07
KR102596080B1 true KR102596080B1 (en) 2023-10-31

Family

ID=85221293

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210100403A KR102596080B1 (en) 2021-07-30 2021-07-30 Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm

Country Status (1)

Country Link
KR (1) KR102596080B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017035629A1 (en) 2015-08-31 2017-03-09 Green Power Labs Inc. Method and system for solar power forecasting
CN109508756A (en) 2019-01-22 2019-03-22 天津师范大学 A kind of ground cloud classification method based on multi thread multi-modal fusion depth network
US10795056B2 (en) 2017-06-23 2020-10-06 Tianjin Kantian Technology Co., Ltd. Local weather forecast
US10928845B2 (en) 2010-12-17 2021-02-23 Microsoft Technology Licensing, Llc Scheduling a computational task for performance by a server computing device in a data center
US11125915B2 (en) 2015-10-02 2021-09-21 Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville Weather forecasting systems and methods tracking cumulus clouds over terrain

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101521008B1 (en) 2013-01-10 2015-05-19 염철희 Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
KR101709860B1 (en) 2015-09-01 2017-02-23 강릉원주대학교산학협력단 Former all-sky cloud cover in the sky using a RGB color image data output method and system
KR101855652B1 (en) 2018-02-13 2018-06-25 대한민국 System of total cloud cover retrieval from satellite observation using machine learning and method thereof
KR102209866B1 (en) 2020-03-03 2021-01-29 대한민국 Preprocessing Method of Distortion Image for Ground Based Total Cloude Cover Automatic Retrieval

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10928845B2 (en) 2010-12-17 2021-02-23 Microsoft Technology Licensing, Llc Scheduling a computational task for performance by a server computing device in a data center
WO2017035629A1 (en) 2015-08-31 2017-03-09 Green Power Labs Inc. Method and system for solar power forecasting
US11125915B2 (en) 2015-10-02 2021-09-21 Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville Weather forecasting systems and methods tracking cumulus clouds over terrain
US10795056B2 (en) 2017-06-23 2020-10-06 Tianjin Kantian Technology Co., Ltd. Local weather forecast
CN109508756A (en) 2019-01-22 2019-03-22 天津师范大学 A kind of ground cloud classification method based on multi thread multi-modal fusion depth network

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Bu-Yo Kim 외 1명. Cloud Observation and Cloud Cover Calculation at Nighttime Using the Automatic Cloud Observation System (ACOS) Package. Remote Sensing. 2020.07.18, Vol.12, Issue.14, <인터넷:https://www.tandfonline.com/doi/full/10.1080/01431161.2018.1524179> 1부.*
Wen Zhuo 외 2명. Cloud Classification of Ground-Based Images Using Texture-Structure Features. Journal of Atmospheric and Oceanic Technology. 2014.01.01, Vol.31, Issue.1, pp.79-92, <인터넷:https://journals.ametsoc.org/view/journals/atot/31/1/jtech-d-13-00048_1.xml> 1부.*

Also Published As

Publication number Publication date
KR20230018624A (en) 2023-02-07

Similar Documents

Publication Publication Date Title
CN109416413B (en) Solar energy forecast
Long et al. Retrieving cloud characteristics from ground-based daytime color all-sky images
US20160260306A1 (en) Method and device for automated early detection of forest fires by means of optical detection of smoke clouds
KR101709860B1 (en) Former all-sky cloud cover in the sky using a RGB color image data output method and system
KR101879332B1 (en) Method for calculating amount of cloud from whole sky image and apparatus thereof
WO2015157643A1 (en) Solar energy forecasting
WO2017193172A1 (en) &#34;solar power forecasting&#34;
CN113255797B (en) Dangerous goods detection method and system based on deep learning model
CN110197185B (en) Method and system for monitoring space under bridge based on scale invariant feature transform algorithm
WO2020000043A1 (en) Plant growth feature monitoring
CN112649900A (en) Visibility monitoring method, device, equipment, system and medium
Pawar et al. Detecting clear sky images
CN112862150A (en) Forest fire early warning method based on image and video multi-model
CN113052869A (en) Track tracking method and system based on intelligent AI temperature measurement and storage medium
Krinitskiy et al. Adaptive algorithm for cloud cover estimation from all-sky images over the sea
Alonso et al. Prediction of cloudiness in short time periods using techniques of remote sensing and image processing
KR20200071042A (en) Method for predicting of tropical thunderstorms
Gauci et al. A Machine Learning approach for automatic land cover mapping from DSLR images over the Maltese Islands
KR102596080B1 (en) Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm
KR20210032188A (en) System for measuring prevailing visibility and method thereof
KR102373278B1 (en) Distortion Method of Total Cloude Cover in Night Time using Ground Based Whole Sky Image Data
KR102209866B1 (en) Preprocessing Method of Distortion Image for Ground Based Total Cloude Cover Automatic Retrieval
CN107576399A (en) Towards bright the temperature Forecasting Methodology and system of MODIS forest fire detections
JP7092616B2 (en) Object detection device, object detection method, and object detection program
CN109166081B (en) Method for adjusting target brightness in video visibility detection process

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant