KR20230018624A - Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm - Google Patents

Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm Download PDF

Info

Publication number
KR20230018624A
KR20230018624A KR1020210100403A KR20210100403A KR20230018624A KR 20230018624 A KR20230018624 A KR 20230018624A KR 1020210100403 A KR1020210100403 A KR 1020210100403A KR 20210100403 A KR20210100403 A KR 20210100403A KR 20230018624 A KR20230018624 A KR 20230018624A
Authority
KR
South Korea
Prior art keywords
data
support vector
vector machine
image
calculating
Prior art date
Application number
KR1020210100403A
Other languages
Korean (ko)
Other versions
KR102596080B1 (en
Inventor
김부요
차주완
장기호
Original Assignee
대한민국(기상청 국립기상과학원장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(기상청 국립기상과학원장) filed Critical 대한민국(기상청 국립기상과학원장)
Priority to KR1020210100403A priority Critical patent/KR102596080B1/en
Publication of KR20230018624A publication Critical patent/KR20230018624A/en
Application granted granted Critical
Publication of KR102596080B1 publication Critical patent/KR102596080B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W2201/00Weather detection, monitoring or forecasting for establishing the amount of global warming
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Environmental & Geological Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Environmental Sciences (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Medical Informatics (AREA)
  • Atmospheric Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a calculating method of day and night total cloud amounts using a support vector machine algorithm and an image photographed based on a ground camera, which uses a support vector machine algorithm using statistical property data of images photographed by a ground camera, time information, and the like as input data to calculate a total cloud amount, and converts each pixel of an image photographed by a camera equipped with a fisheye lens into RGB light and shade to remove surrounding covers and light sources and perform distortion correction to improve the reliability of calculation results. The calculating method of day and night total cloud amounts using a support vector machine algorithm and an image photographed based on a ground camera comprises: a preprocessing step of calculating statistical properties of RGB light and shade for past data photographed by a ground camera equipped with a fisheye lens, and classifying inputted past data into training data and verification data; a support vector machine building step of building a model capable of calculating an optimal total cloud amount through classification/regression analysis for statistical properties of preprocessed image data; a step of optimizing a support vector machine through a method of using data classified as training data in the preprocessing step to train the support vector machine and using data classified as verification data to verify the support vector machine; and a total cloud amount calculation step of inputting real-time data into the support vector machine to calculate a total cloud amount, and storing the data as a database.

Description

지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법{Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm}Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm}

본 발명은 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 관한 것으로, 더욱 상세하게는 지상에서 카메라 기반의 관측 장비로부터 전운량을 산출하기 위해 촬영된 이미지의 통계적 특성 자료와 시간 정보 등을 입력자료로 하는 서포트 벡터 머신 알고리즘을 이용하여 전운량을 산출하되, 어안 렌즈가 장착된 카메라로 촬영된 영상의 각 화소를 RGB 명암으로 변환하여 주변 차폐물과 광원을 제거하고 왜곡 보정을 수행함으로써, 산출 결과에 대한 신뢰성을 향상시킬 수 있는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 관한 것이다.The present invention relates to a method for calculating total cloudiness during day and night using an image captured based on a terrestrial camera and a support vector machine algorithm, and more particularly, to statistical characteristics of images captured to calculate total amount of cloudiness from a camera-based observation device on the ground. Calculate the total amount of cloudiness using a support vector machine algorithm that takes data and time information as input data, but converts each pixel of the image captured by a camera equipped with a fisheye lens into RGB contrast to remove surrounding shields and light sources and distort it. A method for calculating total day and night cloudiness using a support vector machine algorithm and an image taken based on a terrestrial camera capable of improving the reliability of the calculation result by performing correction.

구름은 전지구 면적의 약 70%를 차지하며 매 순간 복사에너지 수지를 변화시키고 이로부터 발생된 기상변화는 수문 순환(Hydrologic Cycle)과 국지적인 날씨 및 기후 변화를 초래한다. 뿐만아니라, 에어로졸과의 상호작용은 구름의 물리적인 특성을 변화시켜 지구 냉각과 온실효과를 유발시키고 강수효율의 변화는 식생 변화와 수자원 확보에 영향을 미치게 된다. 따라서, 구름-에어로졸-강수의 메커니즘의 이해는 기상과 기후의 변화 예측에 필수적이라 할 수 있다. Clouds occupy about 70% of the global area and change the radiant energy balance every moment. In addition, interaction with aerosols changes the physical properties of clouds, causing global cooling and greenhouse effect, and changes in precipitation efficiency affect vegetation changes and securing water resources. Therefore, understanding the mechanism of cloud-aerosol-precipitation is essential for forecasting changes in weather and climate.

특히, 전운량은 일기예보뿐만아니라 항공운항을 위한 활주로의 기상 상태를 대표하며, 다양한 기상관련 요소들의 변화 예측에 중요한 입력자료로 활용되고 있다. 하지만, 전운량 자료의 정확도와 정밀도에 따라 예측된 기상 변수의 불확실성이 증가하게 되므로 높은 빈도의 정확도 높은 전운량 자료 생산이 요구된다. In particular, total cloudiness represents not only the weather forecast but also the meteorological condition of the runway for air navigation, and is used as an important input data for predicting changes in various weather-related factors. However, since the uncertainty of predicted meteorological variables increases according to the accuracy and precision of total cloudiness data, production of high frequency and high accuracy total cloudiness data is required.

지상에서의 전운량 관측은 과거부터 현재에 이르기까지 세계기상기구(WMO)의 정규화된 종관 관측 규정에 따라 사람의 눈을 통해 이루어지는 것으로, 전운량은 “할(割; tenth, 1/10)” 또는 “옥타(okta, 1/8)”로 기록되고 있다. Observation of total cloudiness on the ground is made through the human eye according to the normalized synoptic observation regulations of the World Meteorological Organization (WMO) from the past to the present, and total cloudiness is “tenth (1/10)” Or, it is written as “okta (1/8)”.

그러나 사람의 눈을 통한 전운량의 측정은 관측자의 컨디션이나 관측 주기 등에 따라 관측의 일관성과 객관성이 부족하다. However, the measurement of total cloudiness through the human eye lacks consistency and objectivity of observation depending on the observer's condition or observation period.

그리고 주야간 연속적인 전운량의 관측이 중요함에도 주간과는 다르게 야간의 경우 더 긴 주기로 관측을 수행하기 때문에 자료의 연속성이 부족한 실정이다. In addition, despite the importance of continuous observation of total cloud cover during the day and night, the continuity of the data is insufficient because the observation is performed at a longer period in the case of the night, unlike the daytime.

또한 산 정상 등 사람이 접근하기 어려운 관측 환경으로부터 조밀한 구름 관측망의 구성이 어렵다. 따라서 이러한 문제를 대체할 수 있으면서 지속적으로 구름을 모니터링 할 수 있는 지상에서 카메라 기반의 관측 장비를 통해 구름을 자동으로 포착(촬영)하고 전운량을 산출하는 많은 연구의 수행과 활용이 되어오고 있다.In addition, it is difficult to construct a dense cloud observation network in an observation environment that is difficult for humans to access, such as at the top of a mountain. Therefore, many studies have been conducted and utilized to automatically capture (photograph) clouds and calculate total cloudiness through camera-based observation equipment on the ground that can replace these problems and continuously monitor clouds.

이와 관련하여, 지상에서 자동으로 구름을 관측하고 전운량을 산출하기 위해 카메라 기반의 관측 장비를 이용한 연구가 많이 시도되고 있다. 이러한 결과들은 수치적 기상 분석과 예측에 활용될 수 있으며 로컬 지역에 대한 구름 모니터링에 이상적이며 매우 경제적이다. In this regard, many studies using camera-based observation equipment have been attempted to automatically observe clouds on the ground and calculate total cloudiness. These results can be used for numerical meteorological analysis and forecasting, and are ideal for cloud monitoring for local areas and are very economical.

일반적으로 카메라에서 촬영된 이미지의 RGB(red, green, blue) 컬러의 명암(brightness)을 이용하여 전운량을 산출할 수 있다. 즉, 하늘과 구름의 빛의 산란에 따라 RGB의 명암이 다른 특징을 이용하여 이들의 비율 또는 차이로부터 구름을 탐지하고 전운량을 산출한다. 예를들면 R과 B의 비율인 RBR(red-blue ratio)가 0.6 이상이거나 R과 B의 차이(RBD, red-blue difference)가 30 미만일 경우의 화소를 구름 화소로 분류하여 전운량을 계산한다. In general, the amount of cloudiness can be calculated using the brightness of red, green, blue (RGB) colors of an image captured by a camera. In other words, the cloud is detected from the ratio or difference between the ratios or differences of RGB and the total amount of cloudiness is calculated by using the characteristics of different contrasts of RGB according to the scattering of light of the sky and clouds. For example, if RBR (red-blue ratio), the ratio of R to B, is more than 0.6 or if the difference between R and B (RBD, red-blue difference) is less than 30, classify pixels as cloud pixels and calculate total amount of cloudiness. .

그러나 이러한 경험적인 방법들은 다양한 기상 조건에서 하늘과 구름을 분류하기 어렵다. 즉, 하늘과 구름의 컬러는 대기의 상태와 태양의 위치 등에 따라 다양하게 변하기 때문에 경계 조건이 매 순간 변할 수 있다.However, these empirical methods are difficult to classify the sky and clouds under various meteorological conditions. That is, since the colors of the sky and clouds vary in accordance with the state of the atmosphere and the position of the sun, boundary conditions may change every moment.

이에 따라, 최근에는 이러한 경험적인 방법이 아닌 머신러닝 방법을 이용하여 다양한 이미지를 학습시켜 구름을 탐지하고 전운량을 산출하는 방법들이 활용되고 있다. 즉, 카메라 기반의 구름 관측 장비로부터 촬영된 이미지를 이용한 전운량의 산출은 지도학습 기반의 머신러닝 모델로부터 이미 정답을 알고 있는 자료를 학습시켜 실황을 예측하는 모델로 구성하여 산출하고 있는 것이다.Accordingly, recently, methods of detecting clouds and calculating total cloudiness by learning various images using a machine learning method, rather than such an empirical method, have been used. In other words, the calculation of the total amount of cloudiness using images taken from camera-based cloud observation equipment is calculated by constructing a model that predicts real conditions by learning data for which the correct answer is already known from a supervised learning-based machine learning model.

또한, 지상에서 카메라 기반의 구름 관측은 카메라에 시야각이 180°인 어안 렌즈를 장착하여 관측하게 되므로 영상의 가장자리 영역일수록 상대적으로 물체의 크기가 작아지고, 어안 렌즈에 의하여 하늘과 구름을 포함한 주변 모든 물체를 촬영하기 때문에 주변 차폐물들과 영상을 밝게 오염시키는 광원들에 대한 제거가 필요하다.In addition, camera-based cloud observation on the ground is observed by attaching a fisheye lens with a viewing angle of 180° to the camera, so the size of the object becomes relatively smaller in the edge area of the image, and all surroundings, including the sky and clouds, are observed by the fisheye lens. Since the object is photographed, it is necessary to remove surrounding shields and light sources that brightly contaminate the image.

한편, 본 발명과 관련한 선행기술을 조사한 결과 다수의 특허문헌이 검색되었으며, 그 중 일부를 소개하면 다음과 같다.On the other hand, as a result of investigating the prior art related to the present invention, a number of patent documents were searched, and some of them are introduced as follows.

특허문헌 1은, 광각 카메라의 어안렌즈를 통해 얻은 제1 영상을 불러오는 제1 과정; 상기 제1 영상에 대하여 이미지 좌표계를 구성하는 제2 과정; 상기 이미지 좌표계에서 이미지 센서 좌표계로 변환시키는 제3 과정; 상기 이미지 센서 좌표계에서 한 지점에 대한 천정각(θ)과 방위각(φ)을 계산하는 제4 과정; 및 상기 한 지점에 대한 직각좌표계 상의 좌표 P(x, y, z)를 계산하여 3차원 가상공간을 구성하는 제5 과정을 포함하며, 실시간적으로 왜곡이 보정된 2차원 이미지를 모니터에 디스플레이 함으로써 실내외의 보안, 감시, 범죄 예방, 자동차의 후방 카메라 등 다양하게 활용될 수 있는 어안 렌즈를 사용하여 얻은 왜곡영상에 대한 보정방법 및 이를 구현하기 위한 영상 디스플레이 시스템을 개시하고 있다.Patent Document 1 includes a first process of loading a first image obtained through a fish-eye lens of a wide-angle camera; a second process of constructing an image coordinate system for the first image; a third process of converting the image coordinate system into an image sensor coordinate system; a fourth process of calculating a zenith angle (θ) and an azimuth angle (φ) of a point in the image sensor coordinate system; And a fifth process of constructing a three-dimensional virtual space by calculating the coordinates P (x, y, z) on the Cartesian coordinate system for the one point, and displaying the two-dimensional image with distortion corrected in real time on a monitor. Disclosed is a correction method for a distorted image obtained using a fisheye lens that can be used in various ways such as indoor and outdoor security, surveillance, crime prevention, and a rear camera of a car, and an image display system for realizing the same.

특허문헌 2는, 스카이뷰 장치를 통해 촬영된 하늘 영상자료로부터, 이미지 내의 차폐제거, GBR 화소분포에 따른 영상 분류, RBR 경계값을 고려한 구름 화소 분류, 분류된 구름 화소에서 태양광 제거, 구름 화소의 유효성 검사과정을 행하도록 한 후, 전운량을 산출함으로T서, 체계적이고 과학적임은 물론 정확성과 객관성을 모두 충족시킬 수 있도록 한 전천 하늘 영상자료의 RGB 컬러를 이용한 전운량 산출방법 및 시스템을 재기하고 있다.Patent Document 2, from the sky image data taken through the sky view device, shielding removal in the image, image classification according to GBR pixel distribution, cloud pixel classification considering RBR boundary value, sunlight removal from classified cloud pixels, cloud pixel After the validation process is performed, the total cloudiness is calculated, and the total cloudiness calculation method and system using the RGB color of the all-sky image data are systematic and scientific, as well as satisfying both accuracy and objectivity. are doing

특허문헌 3은, 관측위성에서 관측된 후 전송되는 밝기온도와 반사도를 사용하여 적설과 같은 구름 오인(誤認) 화소가 구분된 기계학습 모델의 입력자료를 작성하는 기능을 수행하는 전처리부; 상기 전처리부에 작성된 기계학습 모델 입력자료를 통해 군집별로 훈련된 기계학습 모델을 순차적으로 구동하여 전운량을 결정하는 기능을 수행하는 운량 결정부; 및 상기 운량 결정부에서 산출된 전운량 결과를 영상 및 지점별 집계 정보로 표출하는 기능을 수행하는 영상표출 및 지점별 집계부;를 포함하며, 지상에서 목측하는 수준의 객관적인 전운량 자료와 하늘상태를 기준으로 영상을 표현함으로써, 사용자는 원하는 지역에 대한 전운량 정보를 보다 정확하고 편리하게 사용하고 판단할 수 있으며, 그 정보를 날씨 예보에 활용할 수 있도록 한 기계학습을 이용한 위성기반 전운량 산출방법을 개시하고 있다.Patent Document 3 is a pre-processing unit that performs a function of creating input data of a machine learning model in which clouds misrecognized pixels such as snowfall are separated using brightness temperature and reflectance transmitted after observation from an observation satellite; a cloudiness determining unit that performs a function of determining total cloudiness by sequentially driving machine learning models trained for each cluster through the machine learning model input data created in the preprocessing unit; and an image display and point-by-point aggregation unit that performs a function of expressing the total cloudiness result calculated by the cloudiness determination unit as an image and point-by-point aggregate information, including objective total cloudiness data and sky conditions at the level observed on the ground. By expressing the image based on , the user can more accurately and conveniently use and judge the total cloudiness information for the desired area, and the satellite-based total cloudiness calculation method using machine learning to utilize the information for weather forecasting is starting

특허문헌 4는, 지상에서 촬영한 전체 하늘의 원본 영상자료를 수집하는 단계와; 상기 원본 영상자료의 중심좌표와 반지름, 시야각 및 출력영상의 크기를 설정하는 단계와; 수집된 원본 영상자료의 각 화소를 RGB의 색상에 따른 명암으로 변환시키는 단계와; 원본 영상자료에 대응하는 차폐영상을 입력하여 차폐화소를 제거하는 단계와; 차폐화소가 제거된 전천화소에 대한 왜곡 보정을 수행하는 단계와; 왜곡 보정이 완료된 전천화소를 이용하여 전천영상을 생산하는 단계;를 포함하며, 지상에서 촬영한 전체 하늘의 영상자료로부터 하늘이나 구름으로 판별할 수 없는 화소를 차폐영상으로 분류한 후 실제 촬영된 원본 영상자료로부터 차폐영상을 제거하고 시야각 미만의 영상에 대한 왜곡 보정을 통해 실제 사람이 보는 것과 유사한 영상자료를 생산하고 전운량을 자동으로 산출할 수 있도록 한 지상기반 전운량 자동 산출을 위한 왜곡 영상 전처리 방법을 개시하고 있다.Patent Document 4 includes the steps of collecting original image data of the entire sky taken from the ground; setting the center coordinates and radius of the original image data, the viewing angle, and the size of the output image; converting each pixel of the collected original image data into brightness according to RGB color; removing the occlusion pixels by inputting an occlusion image corresponding to the original image data; performing distortion correction on the all-sky pixels from which the shielding pixels are removed; Including, producing an all-sky image using all-sky pixels for which distortion correction has been completed, and classifying pixels that cannot be distinguished as sky or clouds from image data of the entire sky taken from the ground as shielded images, and then actually photographed original images. Distorted image pre-processing for ground-based automatic calculation of total cloudiness by removing shielded images from image data and producing image data similar to what a person actually sees through distortion correction for images below the viewing angle and automatically calculating total cloudiness method is initiated.

KRKR 10-2014-0090775 10-2014-0090775 AA KRKR 10-1709860 10-1709860 B1B1 KRKR 10-1855652 10-1855652 B1B1 KRKR 10-2209866 10-2209866 B1B1

본 발명은 상기한 종래기술의 문제점을 해결하기 위하여 안출된 것으로서, 지상에서 카메라 기반의 관측 장비로부터 전운량을 산출하기 위해 촬영된 이미지의 통계적 특성 자료와 시간 정보 등을 입력자료로 하는 서포트 벡터 머신 알고리즘을 이용하여 전운량을 산출하되, 어안 렌즈가 장착된 카메라로 촬영된 영상의 각 화소를 RGB 명암으로 변환하여 주변 차폐물과 광원을 제거하고 왜곡 보정을 수행함으로써, 산출 결과에 대한 신뢰성을 향상시킬 수 있는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법 및 시스템을 제공하는데 그 목적이 있다.The present invention has been devised to solve the above problems of the prior art, and a support vector machine that uses statistical characteristics data and time information of images taken as input data to calculate total cloudiness from camera-based observation equipment on the ground. The total amount of cloudiness is calculated using an algorithm, but each pixel of the image captured by a camera equipped with a fisheye lens is converted to RGB contrast to remove surrounding shields and light sources and perform distortion correction, thereby improving the reliability of the calculation result. The purpose of this study is to provide a method and system for calculating day and night total cloudiness using an image captured based on a terrestrial camera and a support vector machine algorithm.

상기 목적을 달성하기 위한 본 발명은, 어안 렌즈가 장착된 지상 카메라로 촬영된 과거 자료에 대한 RGB 명암의 통계적 특성을 산출하고, 입력된 과거 자료를 훈련자료와 검증자료로 분류하는 전처리 단계와; 전처리된 영상자료의 통계적 특성에 대한 분류/회귀분석을 통해 최적의 전운량을 산출할 수 있는 모델을 구성하는 서포트 벡터 머신 구성 단계; 상기 전처리 단계에서 훈련자료로 분류된 자료를 이용하여 서포트 벡터 머신을 학습시키고 검증자료로 분류된 자료를 이용하여 검증하는 방식을 통해 서포트 벡터 머신을 최적화하는 단계; 및 서포트 벡터 머신에 실시간 자료를 입력하여 전운량을 산출하고, 그 자료를 데이터베이스로 저장하는 전운량 산출 단계;를 포함하는 것을 특징으로 한다.The present invention for achieving the above object includes a preprocessing step of calculating statistical characteristics of RGB contrast for past data captured by a terrestrial camera equipped with a fisheye lens and classifying the input past data into training data and verification data; A support vector machine configuration step of constructing a model capable of calculating an optimal amount of cloudiness through classification/regression analysis on statistical characteristics of preprocessed image data; optimizing the support vector machine by learning the support vector machine using data classified as training data in the preprocessing step and verifying the support vector machine using data classified as verification data; and a total cloudiness calculation step of inputting real-time data to the support vector machine to calculate total cloudiness and storing the data in a database.

또, 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 따르면, 상기 전처리 단계는 일정 기간의 과거 영상자료가 입력되는 단계와; 입력된 영상자료를 각 화소별로 구분하여 RGB(red, green, blue) 명암으로 변환하는 단계와; 어안 렌즈로 촬영된 영상자료에서 하늘과 구름을 차폐시키는 물체들에 의한 차폐영역을 제거하고, 직교 투영 왜곡 보정을 수행하여 영상의 중심과 가장자리 영역의 상대적 물체 크기를 동일하게 만들어주는 단계와; RGB 명암의 평균이 240을 초과할 경우 해당 화소를 제거하는 방식으로 화면 내 광원을 제거하는 단계와; 차폐 및 광원 제거 그리고 왜곡 보정 과정을 거친 영상자료에 대한 RGB 명암의 통계적 특성을 산출하는 단계; 및 과거 자료를 서포트 벡터 머신의 학습자료로 사용하기 위한 훈련자료와 서포트 벡터 머신의 예측 성능을 검증하기 위한 검증자료로 분류하여 일정 비율로 추출하는 단계;를 포함하는 것을 특징으로 한다.In addition, according to the method for calculating total day and night cloudiness using a support vector machine algorithm and an image captured by a terrestrial camera of the present invention, the preprocessing step includes inputting past image data for a certain period of time; Classifying the input image data for each pixel and converting them into RGB (red, green, blue) contrast; removing a shielded area by objects shielding the sky and clouds from image data photographed with a fisheye lens, and performing orthogonal projection distortion correction to make the relative object sizes of the center and edge areas of the image the same; removing a light source in the screen by removing a corresponding pixel when the average of RGB contrast exceeds 240; Calculating statistical characteristics of RGB contrast for image data that has undergone shielding, light source removal, and distortion correction; and classifying past data as training data for use as learning data for the support vector machine and verification data for verifying the predictive performance of the support vector machine, and extracting them at a predetermined ratio.

또한, 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 따르면, 상기 서포트 벡터 머신 구성 단계는 입력된 과거 자료들의 관계에 대한 분류/회귀분석에 따른 하이퍼 파라미터(hyper-parameter)의 설정을 통해 서포트 벡터 머신을 구성하되, 하이퍼 파라미터 탐색을 위해 반복 훈련되는 과정에서 구성된 모델에 검증자료를 적용하였을 때 예측된 전운량과 목측 전운량의 편이(bias)와 평균제곱근오차(RMSE)가 가장 작고 상관계수(R)가 가장 높았던 설정값을 탐색하여 최적의 서포트 벡터 머신을 구성하는 것을 특징으로 한다.In addition, according to the method for calculating total day and night cloudiness using a support vector machine algorithm and an image captured based on a terrestrial camera of the present invention, the support vector machine construction step is a hyperparameter according to classification/regression analysis of the relationship between input past data. A support vector machine is constructed through the setting of (hyper-parameters), and when the verification data is applied to the model constructed in the process of repetitive training for hyper-parameter search, the bias and average of the total predicted and observed total cloudiness It is characterized by constructing an optimal support vector machine by searching for a set value having the smallest square root error (RMSE) and the highest correlation coefficient (R).

또, 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 따르면, 서포트 벡터 머신은 벡터들 사이의 거리에 대한 최대 마진(margin)을 분류할 수 있는 서포트 벡터들로 이루어진 초평면을 찾은 후, 맵핑 함수가 최소가 되는 파라미터를 구하여 최적의 초평면을 탐색하고, 마진의 경계를 결정하고 마진의 오차를 허용하기 위한 하이퍼 파라미터를 설정하여 초평면 탐색과 고차원 맵핑을 위한 마진과 오차 및 제약 비용 설정 등을 조정하여 모델을 최적화하는 것을 특징으로 한다.In addition, according to the method for calculating total day and night cloudiness using a support vector machine algorithm and an image taken based on a terrestrial camera of the present invention, the support vector machine can classify the maximum margin for the distance between vectors. After finding the hyperplane consisting of , search for the optimal hyperplane by obtaining the parameters for which the mapping function is minimized, determine the boundary of the margin, and set the hyperparameter to allow the error of the margin to search the hyperplane and the margin for high-dimensional mapping. It is characterized in that the model is optimized by adjusting the error and constraint cost settings.

또한, 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 따르면, 상기 하이퍼 파라미터를 설정할 때에는 일정 설정값 범위 내에 조밀한 간격으로 설정값을 탐색하되, 하이퍼 파라미터가 여러 개일 경우 그 반복 횟수만큼 하이퍼 파라미터의 최적 설정값을 탐색하는 것을 특징으로 한다.In addition, according to the method for calculating total day and night cloudiness using a support vector machine algorithm and an image taken based on a terrestrial camera of the present invention, when setting the hyper parameter, the set value is searched at dense intervals within a certain set value range, If there are several, it is characterized in that the optimal setting value of the hyperparameter is searched for by the number of iterations.

본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법은 서포트 벡터 머신에 지상 카메라에 의해 촬영된 영상으로 이루어진 실시간 자료를 입력하여 주야간 전운량을 산출하되, 서포트 벡터 머신의 최적화를 위하여 어안 렌즈가 장착된 카메라로 촬영된 영상의 각 화소를 RGB 명암으로 변환하여 주변 차폐물과 광원을 제거하고 왜곡 보정을 수행하는 전처리가 완료된 과거 자료를 이용함에 따라 주간은 물론 야간의 전운량을 실시간으로 산출할 수 있게 됨은 물론 전운량 산출 결과에 대한 신뢰성이 향상되는 효과가 있다.The method for calculating day and night total cloudiness using a support vector machine algorithm and an image captured by a ground camera according to the present invention inputs real-time data consisting of an image taken by a ground camera to a support vector machine to calculate total day and night cloudiness, For optimization of the vector machine, each pixel of the image captured by a camera equipped with a fisheye lens is converted to RGB contrast, surrounding shields and light sources are removed, and past data that has been preprocessed to perform distortion correction are used for daytime as well as nighttime data. It is possible to calculate the total amount of cloud in real time, and the reliability of the calculated result of total amount of cloud is improved.

도 1은 본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법이 도시된 순서도.
도 2는 본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법의 전처리 과정을 나타낸 순서도.
1 is a flow chart illustrating a method for calculating the amount of total day and night cloudiness using a support vector machine algorithm and an image captured based on a terrestrial camera according to the present invention.
2 is a flowchart illustrating a preprocessing process of a method for calculating total day and night cloudiness using a support vector machine algorithm and an image captured based on a terrestrial camera according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법에 대하여 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings, a description will be given of a method for calculating total day and night cloudiness using an image captured based on a terrestrial camera and a support vector machine algorithm of the present invention.

본 발명에서 사용되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 정의는 본 발명의 기술적 사항에 부합되는 의미와 개념으로 해석되어야 할 것이다.The terms used in the present invention are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator, so the definitions of these terms are meanings consistent with the technical details of the present invention. and should be interpreted as a concept.

아울러, 본 발명의 실시예는 본 발명의 권리범위를 한정하는 것이 아니라 본 발명의 청구범위에 제시된 구성요소의 예시적인 사항에 불과하며, 본 발명의 명세서 전반에 걸친 기술사상에 포함되고 청구범위의 구성요소에서 균등물로서 치환 가능한 구성요소를 포함하는 실시예이다.In addition, the embodiments of the present invention do not limit the scope of the present invention, but are only exemplary of the components presented in the claims of the present invention, are included in the technical spirit throughout the specification of the present invention, and cover the scope of the claims. It is an embodiment including components that can be replaced as equivalents in components.

그리고, 아래 실시예에서의 선택적인 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로서, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.In addition, optional terms in the following embodiments are used to distinguish one element from other elements, and elements are not limited by the terms.

이에, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있는 관련된 공지기술에 대한 상세한 설명은 생략한다.Therefore, in describing the present invention, detailed descriptions of related known technologies that may unnecessarily obscure the gist of the present invention will be omitted.

본 발명의 바람직한 실시예를 설명하기 위한, 도 1은 본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법이 도시된 순서도이고, 도 2는 본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법의 전처리 과정을 나타낸 순서도이다.To explain a preferred embodiment of the present invention, FIG. 1 is a flow chart showing a method for calculating total day and night cloudiness using an image captured based on a terrestrial camera and a support vector machine algorithm according to the present invention, and FIG. 2 is a flowchart according to the present invention. It is a flow chart showing the preprocessing process of total day/night cloud cover calculation method using support vector machine algorithm and image captured by ground camera.

본 발명에 따른 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법은 도 1에 도시된 바와 같이, 어안 렌즈가 장착된 지상 카메라로 촬영된 과거 자료에 대한 RGB 명암의 통계적 특성을 산출하고, 입력된 과거 자료를 훈련자료와 검증자료로 분류하는 전처리 단계와; 전처리된 영상자료의 통계적 특성에 대한 분류/회귀분석을 통해 최적의 전운량을 산출할 수 있는 모델을 구성하는 서포트 벡터 머신 구성 단계; 상기 전처리 단계에서 훈련자료로 분류된 자료를 이용하여 서포트 벡터 머신을 학습시키고 검증자료로 분류된 자료를 이용하여 검증하는 방식을 통해 서포트 벡터 머신을 최적화하는 단계; 및 서포트 벡터 머신에 실시간 자료를 입력하여 전운량을 산출하고, 그 자료를 데이터베이스로 저장하는 전운량 산출 단계;를 포함하여 이루어진다.As shown in FIG. 1, the method for calculating total day and night cloudiness using an image captured by a terrestrial camera and a support vector machine algorithm according to the present invention is a statistical method of RGB contrast for past data photographed by a terrestrial camera equipped with a fisheye lens. A pre-processing step of calculating characteristics and classifying input past data into training data and verification data; A support vector machine configuration step of constructing a model capable of calculating an optimal amount of cloudiness through classification/regression analysis on statistical characteristics of preprocessed image data; optimizing the support vector machine by learning the support vector machine using data classified as training data in the preprocessing step and verifying the support vector machine using data classified as verification data; and a total cloudiness calculating step of inputting real-time data to the support vector machine to calculate total cloudiness and storing the data in a database.

여기서, 상기 전처리 단계는 도 2에 도시된 바와 같이 일정 기간의 과거 영상자료가 입력되는 단계와; 입력된 영상자료를 각 화소별로 구분하여 RGB(red, green, blue) 명암으로 변환하는 단계와; 어안 렌즈로 촬영된 영상자료에서 하늘과 구름을 차폐시키는 물체들에 의한 차폐영역을 제거하고, 직교 투영 왜곡 보정을 수행하여 영상의 중심과 가장자리 영역의 상대적 물체 크기를 동일하게 만들어주는 단계와; RGB 명암의 평균이 240을 초과할 경우 해당 화소를 제거하는 방식으로 화면 내 광원을 제거하는 단계와; 차폐 및 광원 제거 그리고 왜곡 보정 과정을 거친 영상자료에 대한 RGB 명암의 통계적 특성을 산출하는 단계; 및 과거 자료를 서포트 벡터 머신의 학습자료로 사용하기 위한 훈련자료와 서포트 벡터 머신의 예측 성능을 검증하기 위한 검증자료로 분류하여 일정 비율로 추출하는 단계;를 포함여 이루어진다.Here, the pre-processing step includes inputting past image data of a certain period as shown in FIG. 2; Classifying the input image data for each pixel and converting them into RGB (red, green, blue) contrast; removing a shielded area by objects that shield the sky and clouds from image data photographed with a fisheye lens, and performing orthogonal projection distortion correction to make the relative object sizes of the center and edge regions of the image equal; removing a light source in the screen by removing a corresponding pixel when the average of RGB contrast exceeds 240; Calculating statistical characteristics of RGB contrast for image data that has undergone shielding, light source removal, and distortion correction; and classifying past data as training data for use as learning data for the support vector machine and verification data for verifying the predictive performance of the support vector machine, and extracting them at a predetermined ratio.

상기 영상자료가 입력되는 단계는, 서포트 벡터 머신의 훈련과 검증을 통한 모델 최적화를 수행하기 위해 실시간 자료가 입력되기 이전 시점의 과거 자료가 입력되는 것으로, 일정 기간의 과거 자료가 입력된다. 입력되는 자료는 지상에서 카메라 기반으로 촬영된 영상과, 전문 기상 관측자가 관측한 목측 전운량 자료, 그리고 촬영된 시간(Julian day, hour)과, 태양천정각(solar zenith angle, SZA) 자료가 있다, 그리고, 기간은 최소한 수 주에서 1년 정도의 자료가 입력되는 것이 바람직하며, 서포트 벡터 머신의 학습 성능을 향상시키기 위해서는 장기간으로 자료의 기간을 설정하는 것이 바람직하다.In the step of inputting the video data, past data at a point in time before real-time data is input is input to perform model optimization through training and verification of the support vector machine, and past data for a certain period is input. The input data includes images taken by a camera on the ground, total visual cloud data observed by a professional weather observer, recording time (Julian day, hour), and solar zenith angle (SZA) data. In addition, it is preferable to input data of at least several weeks to one year for the period, and to improve the learning performance of the support vector machine, it is preferable to set the period of data for a long period of time.

상기 RGB 명암 변환으로 변환하는 단계는, 우리가 흔히 보는 사진과 같은 형태로 저장된 영상자료를 각 화소별 색을 RGB(red, green, blue) 명암으로 변환하는 과정이다. 이때, 영상의 x축과 y축을 따라 각 화소별 R, G, B 명암으로 변환되며, 각각 0~255 사이의 정수값을 갖는다.The step of converting to RGB contrast conversion is a process of converting the color of each pixel in image data stored in the form of a picture that we commonly see into red, green, blue (RGB) contrast. At this time, it is converted into R, G, and B contrast for each pixel along the x-axis and y-axis of the image, and each has an integer value between 0 and 255.

상기 차폐 제거 및 어안 왜곡 보정 단계는 영상 내에서 하늘을 가리고 있는 차폐물을 제거하고, 영상의 왜곡을 보정하는 과정이다. 즉, 어안 렌즈로 촬영된 영상은 어안 렌즈의 시야각 내의 모든 물체를 촬영하기 때문에, 전운량 산출을 위해서 하늘과 구름을 차폐시키는 건물, 나무, 기타 장비들과 같은 물체들에 대한 차폐 영역을 제거하는 것이다. 특히, 태양천정각(SZA) 80° 이상은 주변 차폐물들로 인하여 영구적으로 하늘을 차폐시키기 때문에, 전운량 산출시에는 해당 영역을 영구적으로 제거할 필요가 있다. 또한, 어안 렌즈로 촬영된 영상의 특성상 영상의 가장자리일수록 촬영된 물체가 상대적으로 작게 촬영되므로, 직교 투영 왜곡 보정을 수행하여 영상의 중심과 가장자리 영역의 상대적 물체 크기를 동일하게 만들어 주는 방식으로 영상의 왜곡을 보정한다.The shielding removal and fisheye distortion correction steps are processes of removing the shielding material covering the sky in the image and correcting the distortion of the image. That is, since the image captured by the fisheye lens captures all objects within the angle of view of the fisheye lens, it is necessary to remove the shielding area for objects such as buildings, trees, and other equipment that block the sky and clouds for calculation of total cloudiness. will be. In particular, since a solar zenith angle (SZA) of 80° or more permanently blocks the sky due to surrounding shielding materials, it is necessary to permanently remove the corresponding area when calculating total cloudiness. In addition, due to the nature of the image captured with the fisheye lens, since the imaged object is relatively small at the edge of the image, orthogonal projection distortion correction is performed to make the relative object size of the center and edge of the image the same. Correct distortion.

상기 영상 내 광원제거 단계는 광원으로 인해 하늘과 구름의 구분이 어려워지는 것을 방지하기 위하여 밝은 화소를 제거하는 과정이다. 통상적으로 영상 내에 광원이 존재할 경우, 광원이 위치한 화소(RGB 255, 255, 255, white에 근접한 화소)나 그 주변 화소가 밝게 나타나게 되고, 이는 실제 하늘과 구름의 RGB 명암에 영향을 미쳐 하늘과 구름을 분간하기 어렵게 만든다. 따라서 광원과 광원 주변에 밝은 화소는 제거될 필요가 있는데, RGB 명암의 평균이 240을 초과할 경우 해당 화소를 제거한다.The step of removing the light source in the image is a process of removing bright pixels in order to prevent difficulty in distinguishing the sky and clouds due to the light source. Normally, when there is a light source in an image, the pixel where the light source is located (pixels close to RGB 255, 255, 255, white) or the pixels around it appear bright, which affects the RGB contrast of the actual sky and clouds. makes it difficult to discern. Therefore, bright pixels around the light source and the light source need to be removed. When the average of RGB contrast exceeds 240, the corresponding pixel is removed.

상기 영상의 통계적 특성을 산출하는 단계는 서포트 벡터 머신에 입력자료로 사용할 수 있도록, 차폐 및 광원 제거 그리고 왜곡 보정 과정을 거친 영상자료의 RGB 명암의 통계적 특성을 산출하는 과정이다. 대부분의 영상자료는 주간, 야간, 시간, 계절, 영상 내 구름의 정도, 기상 조건 등에 따라 RGB 명암의 비율과 차이 그리고 휘도(luminance, Y)가 달라지며 그 값들의 빈도분포 또한 다른 특징을 보이게 된다. 따라서, 영상자료별 R과 B의 비인 RBR(red-blue ratio)과, B와 R의 차이인 BRD(blue-red difference) 그리고 휘도(Y)의 빈도분포의 평균, 표준편차, 최빈값, 최빈값의 빈도수, 첨도, 왜도, 사분위수(Q0~Q4: 0%, 25%, 50%, 75%, 100%)를 산출하여 입력자료로 사용한다. 이때, RBR, BRD, Y의 각 빈도분포의 계급구간 크기는 0.01, 1, 1의 배수(예를 들면 0.02, 2, 2 간격)로 설정하며, 특정 계급의 빈도수가 100 미만인 계급은 무시하는 것이 바람직하다. 이는 빈도가 작은 계급에 의해 첨도, 왜도, 사분위수와 같은 통계 특성이 민감하게 변할 수 있기 때문이다.The step of calculating the statistical characteristics of the image is a process of calculating the statistical characteristics of RGB contrast of the image data that has undergone the process of removing shielding and light sources and correcting distortion so that it can be used as input data for the support vector machine. For most image data, the RGB contrast ratio and difference and luminance (Y) vary according to daytime, nighttime, time of day, season, degree of clouds in the image, weather conditions, etc., and the frequency distribution of the values also shows different characteristics. . Therefore, RBR (red-blue ratio), the ratio of R and B for each image data, BRD (blue-red difference), the difference between B and R, and the average, standard deviation, mode, and mode of the frequency distribution of luminance (Y) The frequency, kurtosis, skewness, and quartiles (Q0~Q4: 0%, 25%, 50%, 75%, 100%) are calculated and used as input data. At this time, the size of the class interval of each frequency distribution of RBR, BRD, and Y is set as a multiple of 0.01, 1, and 1 (eg, 0.02, 2, and 2 intervals), and it is better to ignore classes whose frequency of a specific class is less than 100. desirable. This is because statistical characteristics such as kurtosis, skewness, and quartiles can be sensitively changed by classes with small frequencies.

상기 자료분류 단계는, 서포트 벡터 머신의 최적화를 위해 사용할 수 있도록 각 자료를 훈련자료와 검증자료로 분류하는 과정이다. 즉, 상기 RBR, BRD, Y 빈도분포의 평균, 표준편차, 최빈값, 최빈값의 빈도수, 첨도, 왜도, 사분위수와 영상자료 입력 과정에서 입력된 시간(Julian day, hour) 그리고 SZA 자료와 서포트 벡터 머신 모델의 학습을 위한 목측 전운량 자료를 각각 훈련자료와 검증자료로 분류한다. 훈련자료와 검증자료는 수집된 자료(100%)를 기준으로 8:2 등의 비율로 랜덤하게 추출한다. 이에 따라, 훈련자료를 학습하는 과정에서 구성된 서포트 벡터 머신의 예측 성능이 검증자료를 통해 수행될 수 있게 된다.The data classification step is a process of classifying each data into training data and verification data so that they can be used for optimization of the support vector machine. That is, the average, standard deviation, mode, frequency of the mode, kurtosis, skewness, quartile of the RBR, BRD, Y frequency distribution, and the time (Julian day, hour) input in the image data input process, and SZA data and support vectors The visual cloud data for machine model learning is classified into training data and verification data, respectively. Training data and verification data are randomly extracted at a ratio of 8:2 based on the collected data (100%). Accordingly, the prediction performance of the support vector machine configured in the process of learning the training data can be performed through the verification data.

그리고, 상기 서포트 벡터 머신 구성 단계는 입력된 과거 자료들의 관계에 대한 분류/회귀분석에 따른 하이퍼 파라미터(hyper-parameter)의 설정을 통해 서포트 벡터 머신을 구성하는 단계이다.In addition, the support vector machine construction step is a step of constructing a support vector machine through setting of hyper-parameters according to classification/regression analysis on the relationship between input past data.

서포트 벡터 머신은 벡터들 사이의 거리에 대한 최대 마진(margin)을 분류할 수 있는 서포트 벡터들로 이루어진 초평면을 찾은 후, 맵핑 함수가 최소가 되는 파라미터를 구하여 최적의 초평면을 탐색하고, 마진의 경계를 결정하고 마진의 오차를 허용하기 위한 하이퍼 파라미터를 설정하여 초평면 탐색과 고차원 맵핑을 위한 마진과 오차 및 제약 비용 설정 등을 조정하여 모델을 최적화하는 방식으로 구성한다.The support vector machine finds a hyperplane made up of support vectors that can classify the maximum margin for the distance between vectors, finds a parameter for which the mapping function is minimized, searches for an optimal hyperplane, and searches for the boundary of the margin. It is configured in such a way that the model is optimized by adjusting the margin, error, and constraint cost settings for hyperplane search and high-dimensional mapping by determining and setting hyperparameters to allow margin errors.

즉, 서포트 벡터 머신을 구성하기 위하여, 벡터들 사이의 거리에 대한 최대 마진(margin)을 분류할 수 있는 서포트 벡터들로 이루어진 초평면을 찾은 후, 최적의 초평면에서 맵핑 함수가 최소가 되는 파라미터를 구한다. 이후, RBF(radial basis function) 커널을 적용하여 고차원으로 맵핑한다. 이때, 마진의 경계를 결정하고 마진의 오차를 허용하기 위한 슬랙(slack) 변수와 이 조건들을 위배할 수 있는 제약 비용을 설정한다. 따라서, 엡실론(ε), 감마(γ), 코스트(C) 등의 하이퍼 파라미터를 설정하여 초평면 탐색과 고차원 맵핑을 위한 마진과 오차 및 제약 비용 설정 등을 조정하고, 이를 통해 모델을 최적화시키는 것이다.That is, in order to construct a support vector machine, after finding a hyperplane composed of support vectors capable of classifying the maximum margin for the distance between vectors, a parameter that minimizes the mapping function in the optimal hyperplane is obtained. . Thereafter, a radial basis function (RBF) kernel is applied to perform high-dimensional mapping. At this time, the boundary of the margin is determined, and a slack variable to allow margin error and a constraint cost that can violate these conditions are set. Therefore, by setting hyperparameters such as epsilon (ε), gamma (γ), and cost (C), the margin, error, and constraint cost settings for hyperplane search and high-dimensional mapping are adjusted, and the model is optimized through this.

상기 하이퍼 파라미터를 설정할 때에는 일정 설정값 범위 내에 조밀한 간격으로 설정값을 탐색하는 것이 바람직하며, 하이퍼 파라미터가 여러 개일 경우 그 반복 횟수만큼 하이퍼 파라미터의 최적 설정값을 탐색한다. 예를 들어, 엡실론(ε)을 0.05~0.50 범위에서 0.05 간격, 감마(γ)를 0.01~0.10 범위에서 0.01 간격, 코스트(C)를 1~10 범위에서 1 간격으로 탐색할 경우, 총 10×10×10번의 반복 과정을 거쳐 최적의 하이퍼 파라미터 설정값을 탐색하는 것이다. 이 과정은 모델 구성을 위해 최초의 한번만 수행되면 반영구적으로 사용되지만, 주기적으로 업데이트하는 것이 바람직하다.When setting the hyper parameter, it is preferable to search for the set value at dense intervals within a certain set value range, and when there are several hyper parameters, the optimal set value of the hyper parameter is searched for as many times as the number of iterations. For example, when searching for epsilon (ε) at 0.05 intervals in the range of 0.05 to 0.50, gamma (γ) at 0.01 intervals in the range of 0.01 to 0.10, and cost (C) at 1 intervals in the range of 1 to 10, a total of 10 × It is to search for the optimal hyperparameter setting value through a process of 10 × 10 iterations. This process is used semi-permanently if it is performed only once for the first time for model construction, but it is desirable to update it periodically.

그리고, 하이퍼 파라미터 탐색을 위해 반복 훈련되는 과정에서 구성된 모델에 검증자료를 적용하였을 때 예측된 전운량과 목측 전운량의 편이(bias)와 평균제곱근오차(RMSE)가 가장 작고 상관계수(R)가 가장 높았던 설정값을 탐색하여 최적의 서포트 벡터 머신을 구성하게 된다.In addition, when the verification data was applied to the model constructed in the process of repetitive training for hyperparameter search, the bias and root mean square error (RMSE) of the predicted and observed total cloudiness were the smallest and the correlation coefficient (R) was The highest setting value is searched for and an optimal support vector machine is constructed.

상기 전운량 산출단계는 서포트 벡터 머신의 최적화가 완료된 후, 실시간 자료를 입력하여 전운량을 산출하고, 그 결과가 데이터베이스로 저장되는 단계이다.The total cloud amount calculation step is a step in which the total amount of cloud is calculated by inputting real-time data after optimization of the support vector machine is completed, and the result is stored in a database.

상기와 같이 구성된 본 발명의 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법은 일정 기간의 과거 자료를 통해 구성된 서포트 벡터 머신에 지상 카메라에 의해 촬영된 영상으로 이루어진 실시간 자료를 입력함으로써 주간은 물론 야간 전운량을 산출할 수 있도록 한다.The method for calculating the amount of day and night total cloudiness using the support vector machine algorithm and the image taken by the ground camera of the present invention configured as described above is real-time data composed of the image taken by the ground camera on the support vector machine constructed through past data for a certain period of time. By inputting , it is possible to calculate the amount of total cloud cover during the day as well as at night.

이상으로 본 발명의 기술적 사상을 예시하기 위한 몇 가지 실시 예들과 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 발명의 설명에 기재된 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 통상의 기술자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.Although the above has been described and illustrated in relation to several embodiments for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as described above, and the scope of the technical idea described in the description of the invention It will be readily apparent to those skilled in the art that many changes and modifications can be made to the present invention without departing from this. Accordingly, all such appropriate changes and modifications and equivalents should be regarded as falling within the scope of the present invention.

Claims (5)

어안 렌즈가 장착된 지상 카메라로 촬영된 과거 자료에 대한 RGB 명암의 통계적 특성을 산출하고, 입력된 과거 자료를 훈련자료와 검증자료로 분류하는 전처리 단계와;
전처리된 영상자료의 통계적 특성에 대한 분류/회귀분석을 통해 최적의 전운량을 산출할 수 있는 모델을 구성하는 서포트 벡터 머신 구성 단계;
상기 전처리 단계에서 훈련자료로 분류된 자료를 이용하여 서포트 벡터 머신을 학습시키고 검증자료로 분류된 자료를 이용하여 검증하는 방식을 통해 서포트 벡터 머신을 최적화하는 단계; 및
서포트 벡터 머신에 실시간 자료를 입력하여 전운량을 산출하고, 그 자료를 데이터베이스로 저장하는 전운량 산출 단계;를 포함하는 것을 특징으로 하는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법.
A pre-processing step of calculating statistical characteristics of RGB contrast for past data captured by a terrestrial camera equipped with a fisheye lens and classifying the input past data into training data and verification data;
A support vector machine configuration step of constructing a model capable of calculating an optimal amount of cloudiness through classification/regression analysis on statistical characteristics of preprocessed image data;
optimizing the support vector machine by learning the support vector machine using data classified as training data in the preprocessing step and verifying the support vector machine using data classified as verification data; and
A total cloudiness calculation step of inputting real-time data into a support vector machine to calculate total cloudiness and storing the data in a database; How to calculate cloudiness.
제1항에 있어서,
상기 전처리 단계는
일정 기간의 과거 영상자료가 입력되는 단계와; 입력된 영상자료를 각 화소별로 구분하여 RGB(red, green, blue) 명암으로 변환하는 단계와;
어안 렌즈로 촬영된 영상자료에서 하늘과 구름을 차폐시키는 물체들에 의한 차폐영역을 제거하고, 직교 투영 왜곡 보정을 수행하여 영상의 중심과 가장자리 영역의 상대적 물체 크기를 동일하게 만들어주는 단계와;
RGB 명암의 평균이 240을 초과할 경우 해당 화소를 제거하는 방식으로 화면 내 광원을 제거하는 단계와;
차폐 및 광원 제거 그리고 왜곡 보정 과정을 거친 영상자료에 대한 RGB 명암의 통계적 특성을 산출하는 단계; 및
과거 자료를 서포트 벡터 머신의 학습자료로 사용하기 위한 훈련자료와 서포트 벡터 머신의 예측 성능을 검증하기 위한 검증자료로 분류하여 일정 비율로 추출하는 단계;를 포함하는 것을 특징으로 하는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법.
According to claim 1,
The preprocessing step is
inputting past image data of a certain period of time; Classifying the input image data for each pixel and converting them into RGB (red, green, blue) contrast;
removing a shielded area by objects shielding the sky and clouds from image data photographed with a fisheye lens, and performing orthogonal projection distortion correction to make the relative object sizes of the center and edge areas of the image the same;
removing a light source in the screen by removing a corresponding pixel when the average of RGB contrast exceeds 240;
Calculating statistical characteristics of RGB contrast for image data that has undergone shielding, light source removal, and distortion correction; and
Classifying past data as training data for use as learning data for the support vector machine and verification data for verifying the predictive performance of the support vector machine and extracting them at a certain ratio; A method for calculating total day and night cloud cover using a supported image and a support vector machine algorithm.
제1항에 있어서,
상기 서포트 벡터 머신 구성 단계는 입력된 과거 자료들의 관계에 대한 분류/회귀분석에 따른 하이퍼 파라미터(hyper-parameter)의 설정을 통해 서포트 벡터 머신을 구성하되,
하이퍼 파라미터 탐색을 위해 반복 훈련되는 과정에서 구성된 모델에 검증자료를 적용하였을 때 예측된 전운량과 목측 전운량의 편이(bias)와 평균제곱근오차(RMSE)가 가장 작고 상관계수(R)가 가장 높았던 설정값을 탐색하여 서포트 벡터 머신을 구성하는 것을 특징으로 하는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법.
According to claim 1,
In the support vector machine construction step, a support vector machine is configured through the setting of hyper-parameters according to classification / regression analysis of the relationship between input past data,
When the verification data was applied to the model constructed in the process of repetitive training for hyperparameter search, the bias and root mean square error (RMSE) of the predicted and observed total cloudiness were the smallest and the correlation coefficient (R) was the highest. A method for calculating total day and night cloudiness using an image captured based on a ground camera and a support vector machine algorithm, characterized in that a support vector machine is configured by searching for set values.
제1항에 있어서,
서포트 벡터 머신은 벡터들 사이의 거리에 대한 최대 마진(margin)을 분류할 수 있는 서포트 벡터들로 이루어진 초평면을 찾은 후, 맵핑 함수가 최소가 되는 파라미터를 구하여 최적의 초평면을 탐색하고, 마진의 경계를 결정하고 마진의 오차를 허용하기 위한 하이퍼 파라미터를 설정하여 초평면 탐색과 고차원 맵핑을 위한 마진과 오차 및 제약 비용 설정 등을 조정하여 모델을 최적화하는 방식으로 이루어지는 것을 특징으로 하는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법.
According to claim 1,
The support vector machine finds a hyperplane made up of support vectors that can classify the maximum margin for the distance between vectors, finds a parameter for which the mapping function is minimized, searches for an optimal hyperplane, and searches for the boundary of the margin. , and setting hyperparameters to allow margin errors to optimize the model by adjusting margins, errors, and constraint cost settings for hyperplane search and high-dimensional mapping. A method for calculating total day and night cloud cover using image and support vector machine algorithm.
제4항에 있어서,
상기 하이퍼 파라미터를 설정할 때에는 일정 설정값 범위 내에 조밀한 간격으로 설정값을 탐색하되, 하이퍼 파라미터가 여러 개일 경우 그 반복 횟수만큼 하이퍼 파라미터의 최적 설정값을 탐색하는 것을 특징으로 하는 지상 카메라 기반으로 촬영된 영상과 서포트 벡터 머신 알고리즘을 이용한 주야간 전운량 산출 방법.
According to claim 4,
When setting the hyper parameters, the set values are searched at dense intervals within a certain set value range, but when there are several hyper parameters, the optimal setting values of the hyper parameters are searched for as many times as the number of repetitions. A method for calculating total day and night cloud cover using image and support vector machine algorithm.
KR1020210100403A 2021-07-30 2021-07-30 Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm KR102596080B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210100403A KR102596080B1 (en) 2021-07-30 2021-07-30 Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210100403A KR102596080B1 (en) 2021-07-30 2021-07-30 Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm

Publications (2)

Publication Number Publication Date
KR20230018624A true KR20230018624A (en) 2023-02-07
KR102596080B1 KR102596080B1 (en) 2023-10-31

Family

ID=85221293

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210100403A KR102596080B1 (en) 2021-07-30 2021-07-30 Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm

Country Status (1)

Country Link
KR (1) KR102596080B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140090775A (en) 2013-01-10 2014-07-18 염철희 Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
KR101709860B1 (en) 2015-09-01 2017-02-23 강릉원주대학교산학협력단 Former all-sky cloud cover in the sky using a RGB color image data output method and system
WO2017035629A1 (en) * 2015-08-31 2017-03-09 Green Power Labs Inc. Method and system for solar power forecasting
KR101855652B1 (en) 2018-02-13 2018-06-25 대한민국 System of total cloud cover retrieval from satellite observation using machine learning and method thereof
CN109508756A (en) * 2019-01-22 2019-03-22 天津师范大学 A kind of ground cloud classification method based on multi thread multi-modal fusion depth network
US10795056B2 (en) * 2017-06-23 2020-10-06 Tianjin Kantian Technology Co., Ltd. Local weather forecast
KR102209866B1 (en) 2020-03-03 2021-01-29 대한민국 Preprocessing Method of Distortion Image for Ground Based Total Cloude Cover Automatic Retrieval
US10928845B2 (en) * 2010-12-17 2021-02-23 Microsoft Technology Licensing, Llc Scheduling a computational task for performance by a server computing device in a data center
US11125915B2 (en) * 2015-10-02 2021-09-21 Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville Weather forecasting systems and methods tracking cumulus clouds over terrain

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10928845B2 (en) * 2010-12-17 2021-02-23 Microsoft Technology Licensing, Llc Scheduling a computational task for performance by a server computing device in a data center
KR20140090775A (en) 2013-01-10 2014-07-18 염철희 Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
WO2017035629A1 (en) * 2015-08-31 2017-03-09 Green Power Labs Inc. Method and system for solar power forecasting
KR101709860B1 (en) 2015-09-01 2017-02-23 강릉원주대학교산학협력단 Former all-sky cloud cover in the sky using a RGB color image data output method and system
US11125915B2 (en) * 2015-10-02 2021-09-21 Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville Weather forecasting systems and methods tracking cumulus clouds over terrain
US10795056B2 (en) * 2017-06-23 2020-10-06 Tianjin Kantian Technology Co., Ltd. Local weather forecast
KR101855652B1 (en) 2018-02-13 2018-06-25 대한민국 System of total cloud cover retrieval from satellite observation using machine learning and method thereof
CN109508756A (en) * 2019-01-22 2019-03-22 天津师范大学 A kind of ground cloud classification method based on multi thread multi-modal fusion depth network
KR102209866B1 (en) 2020-03-03 2021-01-29 대한민국 Preprocessing Method of Distortion Image for Ground Based Total Cloude Cover Automatic Retrieval

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Bu-Yo Kim 외 1명. Cloud Observation and Cloud Cover Calculation at Nighttime Using the Automatic Cloud Observation System (ACOS) Package. Remote Sensing. 2020.07.18, Vol.12, Issue.14, <인터넷:https://www.tandfonline.com/doi/full/10.1080/01431161.2018.1524179> 1부.* *

Also Published As

Publication number Publication date
KR102596080B1 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
CN109416413B (en) Solar energy forecast
Long et al. Retrieving cloud characteristics from ground-based daytime color all-sky images
Gruszczyński et al. Comparison of low-altitude UAV photogrammetry with terrestrial laser scanning as data-source methods for terrain covered in low vegetation
Heinle et al. Automatic cloud classification of whole sky images
KR101709860B1 (en) Former all-sky cloud cover in the sky using a RGB color image data output method and system
Yang et al. An automated cloud detection method based on the green channel of total-sky visible images
US9659237B2 (en) Imaging through aerosol obscurants
JP2009524884A (en) Method and system for identifying an illumination area in an image
CN113392775A (en) Sugarcane seedling automatic identification and counting method based on deep neural network
CN113255797B (en) Dangerous goods detection method and system based on deep learning model
CN112649900A (en) Visibility monitoring method, device, equipment, system and medium
Pawar et al. Detecting clear sky images
WO2020000043A1 (en) Plant growth feature monitoring
CN114072843A (en) Multi-spatial resolution measurement for generating vegetation status
Werkmeister et al. Comparing satellite-to ground-based automated and manual cloud coverage observations–a case study
KR101874968B1 (en) Visibility measuring system base on image information and method for using the same
ES2625880T3 (en) Lighting change detection method and device for vision systems
Alonso et al. Prediction of cloudiness in short time periods using techniques of remote sensing and image processing
Paletta et al. Advances in solar forecasting: Computer vision with deep learning
Gauci et al. A Machine Learning approach for automatic land cover mapping from DSLR images over the Maltese Islands
CN107576399B (en) MODIS forest fire detection-oriented brightness and temperature prediction method and system
Schwalbe et al. Hemispheric image modeling and analysis techniques for solar radiation determination in forest ecosystems
KR102373278B1 (en) Distortion Method of Total Cloude Cover in Night Time using Ground Based Whole Sky Image Data
KR20210032188A (en) System for measuring prevailing visibility and method thereof
KR102596080B1 (en) Method of Calculating Day and Night Total Cloud Cover using Photographing Image Ground Camera-based and Support Vector Machine Algorithm

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant