KR20230060296A - Apparatus and method of measuring amount of cloud using deep learning model - Google Patents

Apparatus and method of measuring amount of cloud using deep learning model Download PDF

Info

Publication number
KR20230060296A
KR20230060296A KR1020210144876A KR20210144876A KR20230060296A KR 20230060296 A KR20230060296 A KR 20230060296A KR 1020210144876 A KR1020210144876 A KR 1020210144876A KR 20210144876 A KR20210144876 A KR 20210144876A KR 20230060296 A KR20230060296 A KR 20230060296A
Authority
KR
South Korea
Prior art keywords
image
cloudiness
color image
cloud
deep learning
Prior art date
Application number
KR1020210144876A
Other languages
Korean (ko)
Other versions
KR102635914B1 (en
Inventor
백성훈
박승규
고광훈
Original Assignee
한국원자력연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국원자력연구원 filed Critical 한국원자력연구원
Priority to KR1020210144876A priority Critical patent/KR102635914B1/en
Publication of KR20230060296A publication Critical patent/KR20230060296A/en
Application granted granted Critical
Publication of KR102635914B1 publication Critical patent/KR102635914B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/007Dynamic range modification
    • G06T5/008Local, e.g. shadow enhancement
    • G06T5/94
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W2201/00Weather detection, monitoring or forecasting for establishing the amount of global warming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치는, 구름이 포함된 컬러 영상을 획득하는 영상 획득 모듈과, 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈과, 변환된 이진 영상으로부터 운량을 연산하는 운량 연산 모듈을 포함하며, 변환 모듈은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델일 수 있다.An apparatus for measuring cloudiness using a deep learning model according to an embodiment of the present invention includes an image acquisition module for acquiring a color image including clouds, and converting the acquired color image into a binary image including a cloud region and a non-cloud region. It includes an image conversion module that converts and a cloudiness calculation module that calculates cloudiness from the converted binary image, and the conversion module is learning data in which a pre-collected color image and a binary image generated from the pre-collected color image are paired as one pair. It may be a deep learning model trained using

Description

심층 학습 모델을 이용한 운량 측정 장치 및 방법{APPARATUS AND METHOD OF MEASURING AMOUNT OF CLOUD USING DEEP LEARNING MODEL}Apparatus and method for measuring cloudiness using a deep learning model {APPARATUS AND METHOD OF MEASURING AMOUNT OF CLOUD USING DEEP LEARNING MODEL}

본 출원은, 심층 학습 모델을 이용한 운량 측정 장치 및 방법에 관한 것이다.This application relates to an apparatus and method for measuring cloudiness using a deep learning model.

운량계(Cloud meter)는 구름 영상을 획득하고 전체 하늘의 면적중 구름이 차지하는 면적이 몇 % 인지를 측정하는 장치이다. 기상분야에서 구름이 차지하는 비율을 측정하는 것은 아주 중요한 요소인데, 아직은 구름의 양(비율)을 측정하는 운량계 신호처리 장치가 성능이 부족하여, 사람이 목측으로 측정하고 있다.A cloud meter is a device that acquires cloud images and measures the percentage of the area occupied by clouds out of the total sky area. Measuring the percentage occupied by clouds is a very important factor in the field of meteorology. However, the performance of the cloud meter signal processing device for measuring the amount (ratio) of clouds is still insufficient, so people measure it visually.

하늘의 구름 사진을 이용하여 운량을 측정하는 기존 방법은 R, G, B 색상을 이용한다. 이와 같은 방법의 원리는 빛의 레일리 산란(Rayleigh scattering)과 미 산란(Mie Scattering)을 이용한 것이다. 하늘의 공기 입자의 경우, 빛의 파장보다 작기 때문에 레일리 산란이 크게 발생하며, 그 결과 하늘이 파랗게 나타난다. 그러나 구름의 수중기와 같이 입자가 큰 물질에 의하여 빛이 산란할 경우, 미 산란이 발생하여 모든 파장의 빛이 산란되어 하얗게 나타난다.The existing method of measuring cloudiness using a picture of clouds in the sky uses R, G, and B colors. The principle of this method is to use Rayleigh scattering and Mie scattering of light. In the case of air particles in the sky, Rayleigh scattering occurs greatly because they are smaller than the wavelength of light, and as a result, the sky appears blue. However, when light is scattered by a material with large particles, such as water vapor in a cloud, micro-scattering occurs and light of all wavelengths is scattered and appears white.

따라서 기존 R, G, B 색상을 이용한 방법의 경우, 구름이 포함된 하늘 이미지에서 R, G, B 색상을 분리하여, 레드(Red)와 블루(Blue) 파장의 비 또는 레드(Red)와 그린(Green) 파장의 비를 이용하여 구름을 분류하였다. 특히 기존 R, G, B 색상을 이용한 방법은 각각의 비의 특정 값을 임계값으로 사용하여 구름을 분류하였다.Therefore, in the case of the method using the existing R, G, and B colors, the R, G, and B colors are separated from the sky image including clouds, and the ratio of red and blue wavelengths or red and green (Green) Clouds were classified using the ratio of wavelengths. In particular, the method using the existing R, G, and B colors classified clouds using a specific value of each ratio as a threshold value.

즉, 도 1에 도시된 바와 같이, 이미지를 도출하고(SKY Image call), 왜곡을 보정한 후(Correction of radial distortion), RGB 컬러를 분리한다(RGB color separation). 이후 레드(Red)가 특정값 (예를 들어 60) 이하인 영역의 경우 구름이 없는 것으로 판별한다. 또, 레드(Red)가 특정값 (예를 들어 60)을 초과하는 영역의 경우 R/G < 특정값(예를 들어 0.95)이고 R/B < 특정값(예를 들어 0.85)이면 구름이 없는 영역이고, 이 조건을 만족하지 않으면 다시 판별하는데, R,G,B 각각의 값이 모두 특정값(예를 들면 240) 이상이면 구름이 없다고 보고, 이외의 영역은 구름으로 판별한다. 이런 작업을 거친 후 구름 영역의 면적과 전체 면적(구름 영역과 구름이 없는 영역의 합)으로 운량을 연산한다(Calculate the amount of the cloud coverage).That is, as shown in FIG. 1, an image is derived (SKY Image call), distortion is corrected (Correction of radial distortion), and RGB colors are separated (RGB color separation). Thereafter, it is determined that there is no cloud in an area where Red is less than a specific value (for example, 60). In addition, in the case of an area where red exceeds a specific value (eg 60), there is no cloud if R/G < specific value (eg 0.95) and R/B < specific value (eg 0.85). It is an area, and if this condition is not satisfied, it is determined again. If each value of R, G, and B is above a specific value (e.g., 240), it is considered that there is no cloud, and the other areas are determined as clouds. After this process, the amount of cloud coverage is calculated with the area of the cloud area and the total area (the sum of the cloud area and the cloudless area) (Calculate the amount of the cloud coverage).

그러나, 이러한 R, G, B 색상을 이용한 기존 방법은 낮의 태양과 밤의 달과 같은 밝은 물체에 의하여 카메라 센서의 포화(Saturation) 현상(예를 들면, 역광)이 발생하면 측정할 수 없기 때문에 별도의 태양을 가리는 장치가 필요하며, 태양 또는 달에 의하여 구름에 의하여 빛이 반사되어 밝게 빛나는 부분, 또는 구름과 태양의 위치 또는 구름의 두께에 의하여 발생하는 구름의 어두운 부분을 측정하지 못하는 경우가 발생한다.However, the conventional method using these R, G, and B colors cannot be measured when saturation of the camera sensor (eg, backlight) occurs due to bright objects such as the sun during the day and the moon at night. A separate device to block the sun is required, and it is not possible to measure the brightly lit part due to the reflection of light by the cloud by the sun or moon, or the dark part of the cloud caused by the position of the cloud and the sun or the thickness of the cloud. Occurs.

(선행문헌 1) 한국등록특허 제1709860호(“전천 하늘 영상자료의 RGB 컬러를 이용한 전운량 산출방법 및 시스템”, 등록일: 2017년02월17일)(Prior Document 1) Korean Patent Registration No. 1709860 (“Method and system for calculating total cloudiness using RGB color of all-sky image data”, registration date: February 17, 2017)

본 발명은, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있으며, 별도의 태양을 가리는 장치가 필요 없는 새로운 심층 학습 모델을 이용한 운량 측정 장치 및 방법을 제공한다.The present invention provides an apparatus and method for measuring cloudiness using a new deep learning model, which can measure cloudiness with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB, and does not require a separate sun blocking device. do.

본 발명의 일 실시 형태에 의하면, 구름이 포함된 컬러 영상을 획득하는 영상 획득 모듈; 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈; 및 변환된 상기 이진 영상으로부터 운량을 연산하는 운량 연산 모듈;을 포함하며, 상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 장치를 제공한다.According to an embodiment of the present invention, an image acquisition module for acquiring a color image including clouds; an image conversion module for converting the acquired color image into a binary image including a cloud region and a non-cloud region; and a cloudiness calculation module that calculates cloudiness from the converted binary image, wherein the conversion module uses learning data obtained by pairing a pre-collected color image and a binary image generated from the pre-collected color image. Provided is a cloudiness measurement device using a deep learning model, which is a deep learning model learned by doing.

본 발명의 일 실시 형태에 의하면, 상기 운량 연산 모듈은, 상기 운량을 연산할 때, 상기 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 상기 운량을 연산하되, 컬러 영상의 R, G, B의 비율을 이용하지 않는 것일 수 있다.According to an embodiment of the present invention, when calculating the cloudiness, the cloudiness calculation module calculates the cloudiness by setting an area of 0, which is a binary value of the binary image, as a cloud area and an area of 1 as a non-cloud area. It may be calculated, but the ratio of R, G, and B of the color image may not be used.

본 발명의 일 실시 형태에 의하면, 상기 심층 학습 모델은, 픽스투픽스(pix2pix) 모델일 수 있다.According to an embodiment of the present invention, the deep learning model may be a pix2pix model.

본 발명의 일 실시 형태에 의하면, 상기 기 수집된 컬러 영상은, 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상을 포함할 수 있다.According to an embodiment of the present invention, the pre-collected color image may include at least a color image with backlight, a color image at sunrise, and a color image at sunset.

본 발명의 일 실시 형태에 의하면, 상기 영상 획득 모듈은, 어안 렌즈를 포함한 전천 카메라를 포함하며, 상기 영상 획득 모듈은, 획득된 상기 컬러 영상 중 원형 이외의 부분은 검정색으로 채울 수 있다.According to an embodiment of the present invention, the image acquisition module may include an all-sky camera including a fisheye lens, and the image acquisition module may fill a non-circular portion of the acquired color image with black.

본 발명의 일 실시 형태에 의하면, 영상 획득 모듈에서, 구름이 포함된 컬러 영상을 획득하는 제1 단계; 변환 모듈에서, 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 제2 단계; 및 운량 연산 모듈에서, 변환된 상기 이진 영상으로부터 운량을 연산하는 제3 단계;를 포함하며, 상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 방법을 제공한다.According to an embodiment of the present invention, a first step of acquiring a color image including clouds in an image acquisition module; a second step of converting, by a conversion module, the acquired color image into a binary image including a cloud region and a non-cloud region; and a third step of calculating cloudiness from the converted binary image in a cloudiness calculation module, wherein the conversion module converts a pre-collected color image and a binary image generated from the pre-collected color image into a pair. A cloudiness measurement method using a deep learning model, which is a deep learning model trained using one learning data, is provided.

본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.According to an embodiment of the present invention, a deep learning model learned using learning data in various cases (including learning data in which white balance changes, such as when there is backlight or at sunrise or sunset) By using it, there is no need for a separate device to cover the sun, and there is an advantage in that cloudiness can be measured with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.

도 1은 R, G, B 색상 비율을 이용한 운량 측정 방법을 도시한 도면이다.
도 2는 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치의 내부 블록도이다.
도 3은 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.
도 4는 기존 RGB 방법에 따라 RGB 세기의 조건에 따른 구름 영역 판별 결과를 도시한 도면이다.
도 5는 본 발명의 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면이다.
도 6은 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.
도 7은 기존 RGB 방법에 따라 RGB 세기의 조건에 따른 구름 영역 판별 결과를 도시한 도면이다.
도 8은 본 발명의 다른 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면이다.
도 9는 본 발명의 일 실시 형태에 따라 측정한 운량 오차와 기존 RGB 방법에 따라 측정한 운량 오차를 비교 도시한 도면이다.
도 10은 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명하는 흐름도이다.
1 is a diagram illustrating a cloudiness measurement method using R, G, and B color ratios.
2 is an internal block diagram of a cloudiness measuring device using a deep learning model according to an embodiment of the present invention.
3 is a diagram illustrating a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to an embodiment of the present invention.
4 is a diagram showing the result of determining the cloud area according to the RGB intensity condition according to the existing RGB method.
5 is a diagram showing a comparison between an image processed according to an embodiment of the present invention and an image manually processed by a worker.
6 is a diagram illustrating a pair of learning data to be used for learning of an image conversion module that is a deep learning model according to another embodiment of the present invention.
FIG. 7 is a diagram showing the cloud area discrimination result according to the condition of RGB intensity according to the existing RGB method.
8 is a diagram showing a comparison between an image processed according to another embodiment of the present invention and an image manually processed by a worker.
9 is a diagram showing a comparison between a cloudiness error measured according to an embodiment of the present invention and a cloudiness error measured according to an existing RGB method.
10 is a flowchart illustrating a cloudiness measurement method using a deep learning model according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나 본 발명의 실시형태는 여러 가지의 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로만 한정되는 것은 아니다. 도면에서의 요소들의 형상 및 크기 등은 더욱 명확한 설명을 위해 과장될 수 있으며, 도면상의 동일한 부호로 표시되는 요소는 동일한 요소이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the embodiments of the present invention can be modified in many different forms, and the scope of the present invention is not limited only to the embodiments described below. The shapes and sizes of elements in the drawings may be exaggerated for clearer explanation, and elements indicated by the same reference numerals in the drawings are the same elements.

도 2는 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치의 내부 블록도이다. 한편, 도 3은 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.2 is an internal block diagram of a cloudiness measuring device using a deep learning model according to an embodiment of the present invention. Meanwhile, FIG. 3 is a diagram illustrating a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to an embodiment of the present invention.

우선, 도 2에 도시된 바와 같이, 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치(200)는 영상 획득 모듈(210), 영상 변환 모듈(220) 및 운량 연산 모듈(230)을 포함할 수 있다.First, as shown in FIG. 2, the cloudiness measuring device 200 using a deep learning model according to an embodiment of the present invention includes an image acquisition module 210, an image conversion module 220, and a cloudiness calculation module 230 can include

구체적으로, 영상 획득 모듈(210)은 구름이 포함된 컬러 영상을 획득할 수 있다. 이러한 영상 획득 모듈(210)은 어안 렌즈를 포함한 전천 카메라를 포함할 수 있다. Specifically, the image acquisition module 210 may obtain a color image including clouds. The image acquisition module 210 may include an all-terrain camera including a fisheye lens.

전천 카메라로 획득한 컬러 영상은 어안렌즈에 의한 왜곡이 있으므로, 영상 획득 모듈(210)은 이러한 어안렌즈에 의한 왜곡을 보정할 수 있다. 또한, 영상 획득 모듈(210)은 획득된 컬러 영상 중 원형 이외의 부분은 검정색으로 채울 수 있다.Since the color image acquired by the all-sky camera has distortion due to the fisheye lens, the image acquisition module 210 may correct the distortion caused by the fisheye lens. Also, the image acquisition module 210 may fill a non-circular portion of the obtained color image with black.

영상 변환 모듈(220)은 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환할 수 있다. 이러한 영상 변환 모듈(220)은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델일 수 있다. 본 발명의 일 실시 형태에 의하면, 상술한 심층 학습 모델은 픽스투픽스(pix2pix) 모델일 수 있다.The image conversion module 220 may convert the acquired color image into a binary image including cloud regions and regions other than clouds. The image conversion module 220 may be a deep learning model trained using training data obtained by pairing a pre-collected color image and a binary image generated from the pre-collected color image. According to an embodiment of the present invention, the above-described deep learning model may be a pix2pix model.

도 3에는 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시하고 있다. 도 3의 (a)는 영상 획득 모듈(210)에서 획득한 컬러 영상을, 도 3의 (b)는 (a)의 컬러 영상을 작업자가 수동으로 이진 영상으로 변환한 것으로, 도 3의 (b)에서 바이너리 값이 '1'인 검정색 영역은 구름이 아닌 영역이며, 도 3의 (b)에서 바이너리 값이 '0'인 흰색 영역은 구름 영역이다.3 illustrates a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to an embodiment of the present invention. Figure 3 (a) is a color image acquired by the image acquisition module 210, Figure 3 (b) is a color image of (a) manually converted by the operator into a binary image, Figure 3 (b) ), a black area with a binary value of '1' is a non-cloud area, and a white area with a binary value of '0' in FIG. 3 (b) is a cloud area.

즉, 도 3에 도시된 바와 같은 학습 데이터는 심층 학습 모델인 영상 변환 모듈(220)의 학습에 사용되며, 예를 들면 8000개의 학습 데이터를 확보하여 학습 데이터의 70% 내지 80%는 심층 학습 모델인 영상 변환 모듈(220)의 학습에, 나머지는 성능을 검증하는데 사용될 수 있다. 학습 데이터의 구체적인 수 및 비율은 본 발명의 이해를 돕기 위한 것으로, 그 수나 비율은 작업자나 통상의 기술자의 필요에 따라 변형되어 실시될 수 있음에 유의하여야 한다.That is, the learning data as shown in FIG. 3 is used for learning the image conversion module 220, which is a deep learning model. In learning of the image conversion module 220, the rest may be used to verify performance. It should be noted that the specific number and ratio of the learning data are provided to aid understanding of the present invention, and that the number or ratio may be modified and implemented according to the needs of a worker or a person skilled in the art.

또한, 학습 데이터에 사용되는 컬러 영상은 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상 등 다양한 조건의 영상을 포함하도록 함으로써, 측정 오차를 보다 줄일 수 있는 이점이 있다.In addition, the color image used for the learning data includes images under various conditions, such as at least a color image with backlight, a color image at sunrise, and a color image at sunset, so that measurement errors can be further reduced.

마지막으로, 운량 연산 모듈(230)은 영상 변환 모듈(220)에 의해 변환된 이진 영상으로부터 운량을 연산할 수 있다. 여기서, 운량은 컬러 영상의 전체 영역 대비 구름 영역의 비율일 수 있다.Finally, the cloudiness calculation module 230 may calculate cloudiness from the binary image converted by the image conversion module 220 . Here, cloudiness may be a ratio of the cloud area to the entire area of the color image.

구체적으로, 운량 연산 모듈(230)은 운량을 연산할 때, 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 운량을 연산하며, 본 발명에서는 컬러 영상의 R, G, B의 비율을 이용하지 않음에 유의하여야 한다.Specifically, when calculating the cloudiness, the cloudiness calculation module 230 calculates the cloudiness by setting the area of 0, which is the binary value of the binary image, as the cloud area and the area of 1 as the non-cloud area. In the present invention, the color image It should be noted that the ratio of R, G, and B of is not used.

도 4는 기존 RGB 방법에 따른 구름 영역 판별 결과를 도시한 도면으로, (a)는 작업자가 수동으로 변환한 이진 영상이며, (b) 내지 (j)는 기존 RGB 방법에 따라 변환한 이진 영상이다. 하기 [표 1]은 RGB 세기와 비율에 따른 구름 판별 조건을 도시한 것이다.4 is a diagram showing the cloud area discrimination results according to the existing RGB method, where (a) is a binary image manually converted by an operator, and (b) to (j) are binary images converted according to the existing RGB method. . [Table 1] below shows cloud discrimination conditions according to RGB intensity and ratio.

Figure pat00001
Figure pat00001

도 4에서 (b), (e), (f) 등은 정답에 가까운 처리 결과를 보여주나, 나머지는 오차가 큼을 알 수 있으며, 따라서 기존 RGB 방법의 경우 R, G, B의 세기나 비율에 따라 구름으로 인식되는 부분이 달라지는 단점이 있음을 알 수 있다. 특히 기존 RGB 방법의 경우 태양이 있을 경우에는 태양을 구름으로 인식할 확률이 높아진다. In FIG. 4, (b), (e), and (f) show processing results close to the correct answer, but it can be seen that the rest have large errors. Therefore, in the case of the existing RGB method, the intensity or ratio of R, G, and B It can be seen that there is a disadvantage that the part recognized as a cloud is different depending on the cloud. In particular, in the case of the existing RGB method, when there is a sun, the probability of recognizing the sun as a cloud increases.

한편, 도 5는 본 발명의 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면으로, 도 5의 (a)는 영상 획득 모듈에서 획득한 컬러 영상을, (b)는 작업자에 수동으로 변환된 이진 영상을, (c)는 본 발명의 일 실시 형태에 따라 변환된 이진 영상이다.Meanwhile, FIG. 5 is a diagram showing a comparison between an image processed according to an embodiment of the present invention and an image manually processed by a worker. ) is a binary image manually converted by the operator, and (c) is a binary image converted according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 변환된 이진 영상과 작업자에 의해 수동으로 변환된 이진 영상은 거의 동일함을 알 수 있다.As shown in FIG. 5 , it can be seen that the binary image converted according to an embodiment of the present invention and the binary image manually converted by the operator are almost the same.

한편, 도 6은 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.Meanwhile, FIG. 6 is a diagram illustrating a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to another embodiment of the present invention.

도 6은, 도 3과 같이, 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시하고 있으며, 상기 학습 데이터는 태양에 의한 밝은 빛이 포함된 영상을 나타낸다. 6, as shown in FIG. 3, shows a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to another embodiment of the present invention, and the learning data includes bright light from the sun. represents an image.

도 6의 (a)는 영상 획득 모듈(210)에서 획득한 컬러 영상을, 도 6의 (b)는 (a)의 컬러 영상을 작업자가 수동으로 이진 영상으로 변환한 것으로, 도 6의 (b)에서 바이너리 값이 '1'인 검정색 영역은 구름이 아닌 영역이며, 도 6의 (b)에서 바이너리 값이 '0'인 흰색 영역은 구름 영역이다. 특히, 도 6의 (a)의 하단 우측의 밝은 부분은 태양에 의한 것이다. Figure 6(a) shows the color image acquired by the image acquisition module 210, and Figure 6(b) shows the color image of (a) manually converted by the operator into a binary image. ), a black area with a binary value of '1' is a non-cloud area, and a white area with a binary value of '0' in FIG. 6 (b) is a cloud area. In particular, the bright part at the lower right of FIG. 6 (a) is caused by the sun.

즉, 학습 데이터에 사용되는 컬러 영상은 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상 등 다양한 조건의 영상을 포함하도록 함으로써, 측정 오차를 보다 줄일 수 있는 이점이 있으며, 구체적으로 도 6은 태양 광에 의해 구름과 같이 하얗게 보이는 영역을 포함한 컬러 영상이다. 상술한 내용과 중복되는 내용은 생략하기로 한다.That is, the color image used for the learning data includes images under various conditions, such as at least a color image with backlight, a color image at sunrise, and a color image at sunset, so that measurement errors can be further reduced. 6 is a color image including an area that looks white like a cloud by sunlight. Contents overlapping with the above will be omitted.

도 7은 기존 RGB 방법에 따른 구름 영역 판별 결과를 도시한 도면으로, (a)는 작업자가 수동으로 변환한 이진 영상이며, (b) 내지 (j)는 기존 RGB 방법에 따라 변환한 이진 영상이다. 상술한 [표 1]에 따라 RGB 세기와 비율에 따른 구름 판별 조건에 따라 구름 영역 판별 결과를 출력할 수 있다.7 is a diagram showing the cloud area discrimination results according to the existing RGB method, where (a) is a binary image manually converted by an operator, and (b) to (j) are binary images converted according to the existing RGB method. . According to the aforementioned [Table 1], the cloud area discrimination result can be output according to the cloud discrimination condition according to the RGB intensity and ratio.

도 7에서 (g), (h), (i) 등은 정답에 가까운 처리 결과를 보여주나, 나머지는 오차가 큼을 알 수 있으며, 기존 RGB 방법의 경우 R, G, B의 세기나 비율에 따라 구름으로 인식되는 부분이 조건에 따라 달라지는 단점이 있음을 알 수 있다. 특히 기존 RGB 방법의 경우 하늘 영상에 태양이 있을 경우에는 태양을 구름으로 인식할 확률이 높아진다. In FIG. 7, (g), (h), (i), etc. show processing results close to the correct answer, but it can be seen that the rest have large errors, and in the case of the existing RGB method, It can be seen that there is a disadvantage that the part recognized as a cloud varies depending on the conditions. In particular, in the case of the existing RGB method, when the sun is present in the sky image, the probability of recognizing the sun as a cloud increases.

즉, 도 7에 도시된 바와 같이, 기존 RGB 방법의 경우 태양에 의해 하얗게 보이는 영역을 구름 영역으로 인식하고 태양광 영역까지 구름 영역으로 이진 변환 수행하게 되는 문제점이 발생할 수 있다.That is, as shown in FIG. 7 , in the case of the conventional RGB method, a problem may occur in that an area that is seen as white by the sun is recognized as a cloud area and binary conversion is performed even to the sunlight area to the cloud area.

반면, 도 8은 본 발명의 다른 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면으로, 도 8의 (a)는 영상 획득 모듈에서 획득한 컬러 영상을, (b)는 작업자에 수동으로 변환된 이진 영상을, (c)는 본 발명의 다른 일 실시 형태에 따라 변환된 이진 영상이다.On the other hand, FIG. 8 is a diagram showing a comparison between an image processed according to another embodiment of the present invention and an image manually processed by a worker. FIG. b) is a binary image manually converted by an operator, and (c) is a binary image converted according to another embodiment of the present invention.

도 8에 도시된 바와 같이, 본 발명의 다른 일 실시 형태에 따라 변환된 이진 영상과 작업자에 의해 수동으로 변환된 이진 영상은 거의 동일함을 알 수 있다.As shown in FIG. 8 , it can be seen that the binary image converted according to another embodiment of the present invention and the binary image manually converted by the operator are almost the same.

즉, 도 5 및 도 8에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 변환된 이진 영상은 구름이 있는 영역과 구름이 없는 영역을 혼동하지 않고 영상 변환할 수 있으며, 또는 태양광 영역과 구름 영역을 혼동하지 않고 영상 변환할 수 있어 하늘 상태가 시간 또는 기후에 따라 변동되더라도 정확하게 운량 측정을 수행할 수 있다.That is, as shown in FIGS. 5 and 8 , the binary image converted according to an embodiment of the present invention can be image-converted without confusing regions with clouds and regions without clouds, or Since image conversion is possible without confusing cloud areas, cloudiness measurement can be performed accurately even if the sky condition fluctuates according to time or weather.

한편, 도 9는 본 발명의 일 실시 형태에 따라 측정한 운량 오차와 기존 RGB 방법에 따라 측정한 운량 오차를 비교 도시한 도면으로, 도면부호 610(파랑색)은 기존 RGB 방법에 따라 측정한 운량 오차이며, 도면부호 620(빨간색)은 본 발명의 일 실시 형태에 따라 측정한 운량 오차이다.Meanwhile, FIG. 9 is a view showing a comparison of cloudiness errors measured according to an embodiment of the present invention and cloudiness errors measured according to the existing RGB method, and reference numeral 610 (blue) indicates cloudiness measured according to the existing RGB method. error, and reference numeral 620 (red) is a cloudiness error measured according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 측정한 운량 오차는 대략 5% 이하인 반면, 기존 RGB 방법에 따라 측정한 운량 오차는 불규칙하며, 일부 영상에서는 운량 오차가 상당히 크다는 것을 알 수 있다.As shown in FIG. 9, it can be seen that the cloudiness error measured according to an embodiment of the present invention is approximately 5% or less, whereas the cloudiness error measured according to the existing RGB method is irregular, and the cloudiness error is quite large in some images. can

상술한 바와 같이, 본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.As described above, according to an embodiment of the present invention, learning using learning data in various cases (including learning data in which white balance changes, such as when there is backlight or at sunrise or sunset) By using the deep learning model, there is no need for a separate device to cover the sun, and there is an advantage in measuring cloudiness with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.

한편, 도 10은 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명하는 흐름도이다.Meanwhile, FIG. 10 is a flowchart illustrating a cloudiness measurement method using a deep learning model according to an embodiment of the present invention.

이하, 도 1 내지 도 10을 참조하여 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명한다. 다만, 발명의 간명화를 위해 도 1 내지 도 9에서 이미 설명한 사항과 중복된 부분에 대한 설명은 생략한다.Hereinafter, a cloudiness measurement method using a deep learning model according to an embodiment of the present invention will be described with reference to FIGS. 1 to 10 . However, for simplicity of the invention, descriptions of overlapping parts with those previously described in FIGS. 1 to 9 will be omitted.

도 1 및 내지 도 10을 참조하면, 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법(S700)은, 영상 획득 모듈(210)에서, 구름이 포함된 컬러 영상을 획득하는 단계에 의해 개시될 수 있다(S701). 이러한 영상 획득 모듈(210)은 어안 렌즈를 포함한 전천 카메라를 포함할 수 있다. 전천 카메라로 획득한 컬러 영상은 어안렌즈에 의한 왜곡이 있으므로, 영상 획득 모듈(210)은 이러한 어안렌즈에 의한 왜곡을 보정할 수 있음은 상술한 바와 같다. 1 and 10, in the cloudiness measurement method (S700) using a deep learning model according to an embodiment of the present invention, in the image acquisition module 210, in the step of acquiring a color image containing clouds may be initiated by (S701). The image acquisition module 210 may include an all-terrain camera including a fisheye lens. Since the color image obtained by the all-sky camera has distortion due to the fisheye lens, the image acquisition module 210 can correct the distortion caused by the fisheye lens as described above.

영상 변환 모듈(220)은 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환할 수 있다(S702). 이러한 영상 변환 모듈(220)은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델로, 상술한 심층 학습 모델은 픽스투픽스(pix2pix) 모델일 수 있음은 상술한 바와 같다.The image conversion module 220 may convert the acquired color image into a binary image including cloud regions and regions other than clouds (S702). The image conversion module 220 is a deep learning model trained using training data in which a pre-collected color image and a binary image generated from the pre-collected color image are paired. The above-described deep learning model is Pix2. It can be a pix2pix model as described above.

마지막으로, 운량 연산 모듈(230)은 영상 변환 모듈(220)에 의해 변환된 이진 영상으로부터 운량을 연산할 수 있다(S703). 여기서, 운량은 컬러 영상의 전체 영역 대비 구름 영역의 비율일 수 있음은 상술한 바와 같다.Finally, the cloudiness calculation module 230 may calculate cloudiness from the binary image converted by the image conversion module 220 (S703). As described above, the cloudiness may be a ratio of the cloud area to the entire area of the color image.

상술한 바와 같이, 본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.As described above, according to an embodiment of the present invention, learning using learning data in various cases (including learning data in which white balance changes, such as when there is backlight or at sunrise or sunset) By using the deep learning model, there is no need for a separate device to cover the sun, and there is an advantage in measuring cloudiness with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.

상술한 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The cloudiness measurement method using the deep learning model according to an embodiment of the present invention described above may be produced as a program to be executed on a computer and stored in a computer-readable recording medium. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, the computer-readable recording medium is distributed to computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention belongs.

또한, 본 발명을 설명함에 있어, '~ 모듈'은 다양한 방식, 예를 들면 프로세서, 프로세서에 의해 수행되는 프로그램 명령들, 소프트웨어 모듈, 마이크로 코드, 컴퓨터 프로그램 생성물, 로직 회로, 애플리케이션 전용 집적 회로, 펌웨어 등에 의해 구현될 수 있다.In addition, in describing the present invention, '~ module' refers to various methods, for example, a processor, program instructions executed by the processor, a software module, a microcode, a computer program product, a logic circuit, an application-specific integrated circuit, and firmware. etc. can be implemented.

본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되지 아니한다. 첨부된 청구범위에 의해 권리범위를 한정하고자 하며, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경할 수 있다는 것은 당 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.The present invention is not limited by the above-described embodiments and accompanying drawings. It is intended to limit the scope of rights by the appended claims, and it is to those skilled in the art that various forms of substitution, modification and change can be made without departing from the technical spirit of the present invention described in the claims. It will be self-explanatory.

200: 운량 측정 장치
210: 영상 획득 모듈
220: 영상 변환 모듈
230: 운량 연산 모듈
200: cloud measurement device
210: image acquisition module
220: image conversion module
230: cloud computing module

Claims (6)

구름이 포함된 컬러 영상을 획득하는 영상 획득 모듈;
획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈; 및
변환된 상기 이진 영상으로부터 운량을 연산하는 운량 연산 모듈;을 포함하며,
상기 영상 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 장치.
An image acquisition module that acquires a color image including clouds;
an image conversion module for converting the acquired color image into a binary image including a cloud region and a non-cloud region; and
A cloudiness calculation module for calculating cloudiness from the converted binary image; includes,
The image conversion module is a deep learning model trained using a pre-collected color image and a binary image generated from the pre-collected color image as a pair of learning data.
제1항에 있어서,
상기 운량 연산 모듈은,
상기 운량을 연산할 때, 상기 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 상기 운량을 연산하되, 컬러 영상의 R, G, B의 비율을 이용하지 않는, 심층 학습 모델을 이용한 운량 측정 장치.
According to claim 1,
The cloud computing module,
When calculating the cloudiness, the cloudiness is calculated by considering the area of 0, which is the binary value of the binary image, as the cloud area and the area of 1 as the non-cloud area, using the ratio of R, G, and B of the color image A cloud measurement device using a deep learning model that does not
제1항에 있어서,
상기 심층 학습 모델은,
픽스투픽스(pix2pix) 모델인, 심층 학습 모델을 이용한 운량 측정 장치.
According to claim 1,
The deep learning model,
A cloud measurement device using a pix2pix model, a deep learning model.
제1항에 있어서,
상기 기 수집된 컬러 영상은,
적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상을 포함하는, 심층 학습 모델을 이용한 운량 측정 장치.
According to claim 1,
The pre-collected color image,
An apparatus for measuring cloudiness using a deep learning model, including at least a color image with backlight, a color image at sunrise, and a color image at sunset.
제1항에 있어서,
상기 영상 획득 모듈은, 어안 렌즈를 포함한 전천 카메라를 포함하며,
상기 영상 획득 모듈은, 획득된 상기 컬러 영상 중 원형 이외의 부분은 검정색으로 채우는, 심층 학습 모델을 이용한 운량 측정 장치.
According to claim 1,
The image acquisition module includes an all-sky camera including a fisheye lens,
The image acquisition module fills a non-circular part of the acquired color image with black, cloudiness measurement device using a deep learning model.
영상 획득 모듈에서, 구름이 포함된 컬러 영상을 획득하는 제1 단계;
변환 모듈에서, 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 제2 단계; 및
운량 연산 모듈에서, 변환된 상기 이진 영상으로부터 운량을 연산하는 제3 단계;를 포함하며,
상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 방법.
A first step of obtaining a color image including clouds in an image acquisition module;
a second step of converting, by a conversion module, the acquired color image into a binary image including a cloud region and a non-cloud region; and
In a cloudiness calculation module, a third step of calculating cloudiness from the converted binary image; includes,
The conversion module is a deep learning model trained using a pre-collected color image and a binary image generated from the pre-collected color image as a pair of learning data.
KR1020210144876A 2021-10-27 2021-10-27 Apparatus and method of measuring amount of cloud using deep learning model KR102635914B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210144876A KR102635914B1 (en) 2021-10-27 2021-10-27 Apparatus and method of measuring amount of cloud using deep learning model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210144876A KR102635914B1 (en) 2021-10-27 2021-10-27 Apparatus and method of measuring amount of cloud using deep learning model

Publications (2)

Publication Number Publication Date
KR20230060296A true KR20230060296A (en) 2023-05-04
KR102635914B1 KR102635914B1 (en) 2024-02-14

Family

ID=86379810

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210144876A KR102635914B1 (en) 2021-10-27 2021-10-27 Apparatus and method of measuring amount of cloud using deep learning model

Country Status (1)

Country Link
KR (1) KR102635914B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333160A (en) * 1992-05-29 1993-12-17 Sony Corp Cloud amount measuring method and device
US20170031056A1 (en) * 2014-04-10 2017-02-02 Board Of Regents, The University Of Texas System Solar Energy Forecasting
KR101709860B1 (en) 2015-09-01 2017-02-23 강릉원주대학교산학협력단 Former all-sky cloud cover in the sky using a RGB color image data output method and system
KR20180055422A (en) * 2016-11-17 2018-05-25 한국기술교육대학교 산학협력단 Method and apparatus for quantifying cloud cover by using whole sky image
KR102396001B1 (en) * 2019-11-20 2022-05-11 주식회사 에이앤디시스템 Method for calculating amount of clouds through photographing whole sky

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333160A (en) * 1992-05-29 1993-12-17 Sony Corp Cloud amount measuring method and device
US20170031056A1 (en) * 2014-04-10 2017-02-02 Board Of Regents, The University Of Texas System Solar Energy Forecasting
KR101709860B1 (en) 2015-09-01 2017-02-23 강릉원주대학교산학협력단 Former all-sky cloud cover in the sky using a RGB color image data output method and system
KR20180055422A (en) * 2016-11-17 2018-05-25 한국기술교육대학교 산학협력단 Method and apparatus for quantifying cloud cover by using whole sky image
KR102396001B1 (en) * 2019-11-20 2022-05-11 주식회사 에이앤디시스템 Method for calculating amount of clouds through photographing whole sky

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Stefan Hensel 외 3명. Evaluation of Deep Learning-Based Neural Network Methods for Cloud Detection and Segmentation. Energies. 2021.09.22, Vol.14, Issue.19, <인터넷:https://www.mdpi.com/1996-1073/14/19/6156> 1부.* *
두더지 개발자. [python/Keras] GAN pix2pix. 티스토리. [online], 2020.04.28, [2023년 9월 19일 검색], <인터넷:https://engineer-mole.tistory.com/45> 1부.* *

Also Published As

Publication number Publication date
KR102635914B1 (en) 2024-02-14

Similar Documents

Publication Publication Date Title
CN108333148B (en) Method and device for identifying black and odorous water body
Macfarlane Classification method of mixed pixels does not affect canopy metrics from digital images of forest overstorey
US20210201452A1 (en) Image dehazing and restoration
US7489345B2 (en) Image processing apparatus, image-taking system, image processing method and image processing program
US20160260306A1 (en) Method and device for automated early detection of forest fires by means of optical detection of smoke clouds
Brusa et al. Increasing the precision of canopy closure estimates from hemispherical photography: Blue channel analysis and under-exposure
US20170094169A1 (en) Image processing system, imaging apparatus, image processing method, and computer-readable storage medium
US9811746B2 (en) Method and system for detecting traffic lights
CN104168478B (en) Based on the video image color cast detection method of Lab space and relevance function
US8577170B2 (en) Shadow detection in a single image
US9460521B2 (en) Digital image analysis
US8786729B2 (en) White balance method and apparatus thereof
CN108200353B (en) Method for detecting environment light of security monitoring camera
CN102881160B (en) Outdoor traffic sign identification method under low-illumination scene
US9025820B2 (en) Image processing apparatus and image processing method
KR20180055422A (en) Method and apparatus for quantifying cloud cover by using whole sky image
Pawar et al. Detecting clear sky images
JP2005242488A (en) Object detecting device, object detecting method and program
CN111311500A (en) Method and device for carrying out color restoration on image
KR20230060296A (en) Apparatus and method of measuring amount of cloud using deep learning model
Saito et al. Cloud discrimination from sky images using a clear-sky index
CN116310889A (en) Unmanned aerial vehicle environment perception data processing method, control terminal and storage medium
KR102396001B1 (en) Method for calculating amount of clouds through photographing whole sky
JP5510468B2 (en) License plate color determination device, computer program, and license plate color determination method
KR101370545B1 (en) Method for Conducting Selectively Image Improving Treatment Based on Automatical Image Data Analysis

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant