KR102635914B1 - Apparatus and method of measuring amount of cloud using deep learning model - Google Patents

Apparatus and method of measuring amount of cloud using deep learning model Download PDF

Info

Publication number
KR102635914B1
KR102635914B1 KR1020210144876A KR20210144876A KR102635914B1 KR 102635914 B1 KR102635914 B1 KR 102635914B1 KR 1020210144876 A KR1020210144876 A KR 1020210144876A KR 20210144876 A KR20210144876 A KR 20210144876A KR 102635914 B1 KR102635914 B1 KR 102635914B1
Authority
KR
South Korea
Prior art keywords
image
color image
cloud
deep learning
learning model
Prior art date
Application number
KR1020210144876A
Other languages
Korean (ko)
Other versions
KR20230060296A (en
Inventor
백성훈
박승규
고광훈
Original Assignee
한국원자력연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국원자력연구원 filed Critical 한국원자력연구원
Priority to KR1020210144876A priority Critical patent/KR102635914B1/en
Publication of KR20230060296A publication Critical patent/KR20230060296A/en
Application granted granted Critical
Publication of KR102635914B1 publication Critical patent/KR102635914B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/94
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W2201/00Weather detection, monitoring or forecasting for establishing the amount of global warming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치는, 구름이 포함된 컬러 영상을 획득하는 영상 획득 모듈과, 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈과, 변환된 이진 영상으로부터 운량을 연산하는 운량 연산 모듈을 포함하며, 변환 모듈은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델일 수 있다.A cloudiness measurement device using a deep learning model according to an embodiment of the present invention includes an image acquisition module for acquiring a color image including clouds, and a binary image containing a cloud area and a non-cloud area. It includes an image conversion module that converts the cloud cover and a cloud computing module that calculates the cloud cover from the converted binary image. The conversion module provides learning data that pairs a previously collected color image and a binary image generated from the previously collected color image. It may be a deep learning model trained using .

Description

심층 학습 모델을 이용한 운량 측정 장치 및 방법{APPARATUS AND METHOD OF MEASURING AMOUNT OF CLOUD USING DEEP LEARNING MODEL}Cloud measurement device and method using deep learning model {APPARATUS AND METHOD OF MEASURING AMOUNT OF CLOUD USING DEEP LEARNING MODEL}

본 출원은, 심층 학습 모델을 이용한 운량 측정 장치 및 방법에 관한 것이다.This application relates to a cloudiness measurement device and method using a deep learning model.

운량계(Cloud meter)는 구름 영상을 획득하고 전체 하늘의 면적중 구름이 차지하는 면적이 몇 % 인지를 측정하는 장치이다. 기상분야에서 구름이 차지하는 비율을 측정하는 것은 아주 중요한 요소인데, 아직은 구름의 양(비율)을 측정하는 운량계 신호처리 장치가 성능이 부족하여, 사람이 목측으로 측정하고 있다.A cloud meter is a device that acquires cloud images and measures what percentage of the total sky area is occupied by clouds. Measuring the proportion of clouds in the meteorological field is a very important element, but the cloud meter signal processing device that measures the amount (ratio) of clouds is still insufficient in performance, so people measure it visually.

하늘의 구름 사진을 이용하여 운량을 측정하는 기존 방법은 R, G, B 색상을 이용한다. 이와 같은 방법의 원리는 빛의 레일리 산란(Rayleigh scattering)과 미 산란(Mie Scattering)을 이용한 것이다. 하늘의 공기 입자의 경우, 빛의 파장보다 작기 때문에 레일리 산란이 크게 발생하며, 그 결과 하늘이 파랗게 나타난다. 그러나 구름의 수중기와 같이 입자가 큰 물질에 의하여 빛이 산란할 경우, 미 산란이 발생하여 모든 파장의 빛이 산란되어 하얗게 나타난다.The existing method of measuring cloud cover using photographs of clouds in the sky uses R, G, and B colors. The principle of this method uses Rayleigh scattering and Mie scattering of light. In the case of air particles in the sky, since they are smaller than the wavelength of light, Rayleigh scattering occurs significantly, resulting in the sky appearing blue. However, when light is scattered by substances with large particles, such as water vapor in clouds, misscattering occurs and light of all wavelengths is scattered and appears white.

따라서 기존 R, G, B 색상을 이용한 방법의 경우, 구름이 포함된 하늘 이미지에서 R, G, B 색상을 분리하여, 레드(Red)와 블루(Blue) 파장의 비 또는 레드(Red)와 그린(Green) 파장의 비를 이용하여 구름을 분류하였다. 특히 기존 R, G, B 색상을 이용한 방법은 각각의 비의 특정 값을 임계값으로 사용하여 구름을 분류하였다.Therefore, in the case of the existing method using R, G, and B colors, the R, G, and B colors are separated from the sky image containing clouds, and the ratio of red and blue wavelengths or red and green is calculated. (Green) Clouds were classified using the ratio of wavelengths. In particular, the existing method using R, G, and B colors classified clouds by using a specific value of each rain as a threshold.

즉, 도 1에 도시된 바와 같이, 이미지를 도출하고(SKY Image call), 왜곡을 보정한 후(Correction of radial distortion), RGB 컬러를 분리한다(RGB color separation). 이후 레드(Red)가 특정값 (예를 들어 60) 이하인 영역의 경우 구름이 없는 것으로 판별한다. 또, 레드(Red)가 특정값 (예를 들어 60)을 초과하는 영역의 경우 R/G < 특정값(예를 들어 0.95)이고 R/B < 특정값(예를 들어 0.85)이면 구름이 없는 영역이고, 이 조건을 만족하지 않으면 다시 판별하는데, R,G,B 각각의 값이 모두 특정값(예를 들면 240) 이상이면 구름이 없다고 보고, 이외의 영역은 구름으로 판별한다. 이런 작업을 거친 후 구름 영역의 면적과 전체 면적(구름 영역과 구름이 없는 영역의 합)으로 운량을 연산한다(Calculate the amount of the cloud coverage).That is, as shown in Figure 1, an image is derived (SKY Image call), distortion is corrected (Correction of radial distortion), and RGB colors are separated (RGB color separation). Afterwards, areas where Red is below a certain value (e.g. 60) are determined to be cloud-free. Additionally, in areas where Red exceeds a certain value (e.g. 60), if R/G < a specific value (e.g. 0.95) and R/B < a specific value (e.g. 0.85), there are no clouds. It is an area, and if this condition is not satisfied, it is judged again. If the values of R, G, and B are all above a certain value (for example, 240), it is considered that there are no clouds, and other areas are judged as clouds. After this process, the cloud cover is calculated using the area of the cloud area and the total area (sum of the cloud area and the cloud-free area).

그러나, 이러한 R, G, B 색상을 이용한 기존 방법은 낮의 태양과 밤의 달과 같은 밝은 물체에 의하여 카메라 센서의 포화(Saturation) 현상(예를 들면, 역광)이 발생하면 측정할 수 없기 때문에 별도의 태양을 가리는 장치가 필요하며, 태양 또는 달에 의하여 구름에 의하여 빛이 반사되어 밝게 빛나는 부분, 또는 구름과 태양의 위치 또는 구름의 두께에 의하여 발생하는 구름의 어두운 부분을 측정하지 못하는 경우가 발생한다.However, the existing method using these R, G, and B colors cannot measure when saturation of the camera sensor (e.g., backlight) occurs due to bright objects such as the sun during the day and the moon at night. A separate sun-blocking device is required, and it may not be possible to measure brightly lit areas caused by light reflected by clouds from the sun or the moon, or dark areas of clouds caused by the positions of the clouds and the sun or the thickness of the clouds. Occurs.

(선행문헌 1) 한국등록특허 제1709860호(“전천 하늘 영상자료의 RGB 컬러를 이용한 전운량 산출방법 및 시스템”, 등록일: 2017년02월17일)(Prior Document 1) Korean Patent No. 1709860 (“Method and system for calculating total cloud amount using RGB colors of all-sky sky image data”, registration date: February 17, 2017)

본 발명은, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있으며, 별도의 태양을 가리는 장치가 필요 없는 새로운 심층 학습 모델을 이용한 운량 측정 장치 및 방법을 제공한다.The present invention provides a cloudiness measurement device and method using a new deep learning model that can measure cloudiness with a lower error than the existing method of measuring cloudiness using the ratio of RGB and does not require a separate sun blocking device. do.

본 발명의 일 실시 형태에 의하면, 구름이 포함된 컬러 영상을 획득하는 영상 획득 모듈; 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈; 및 변환된 상기 이진 영상으로부터 운량을 연산하는 운량 연산 모듈;을 포함하며, 상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 장치를 제공한다.According to one embodiment of the present invention, an image acquisition module for acquiring a color image including clouds; an image conversion module that converts the acquired color image into a binary image including a cloud area and a non-cloud area; and a cloud computing module that calculates cloudiness from the converted binary image, wherein the conversion module uses learning data that pairs a previously collected color image and a binary image generated from the previously collected color image. Provides a cloudiness measurement device using a deep learning model, which is a deep learning model learned by doing so.

본 발명의 일 실시 형태에 의하면, 상기 운량 연산 모듈은, 상기 운량을 연산할 때, 상기 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 상기 운량을 연산하되, 컬러 영상의 R, G, B의 비율을 이용하지 않는 것일 수 있다.According to one embodiment of the present invention, when calculating the cloud amount, the cloud amount calculation module sets the area with a binary value of 0 in the binary image as a cloud area and the area with 1 as a non-cloud area to determine the cloud amount. The calculation may be performed without using the R, G, and B ratios of the color image.

본 발명의 일 실시 형태에 의하면, 상기 심층 학습 모델은, 픽스투픽스(pix2pix) 모델일 수 있다.According to one embodiment of the present invention, the deep learning model may be a pix2pix model.

본 발명의 일 실시 형태에 의하면, 상기 기 수집된 컬러 영상은, 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상을 포함할 수 있다.According to one embodiment of the present invention, the previously collected color image may include at least a color image with backlight, a color image at sunrise, and a color image at sunset.

본 발명의 일 실시 형태에 의하면, 상기 영상 획득 모듈은, 어안 렌즈를 포함한 전천 카메라를 포함하며, 상기 영상 획득 모듈은, 획득된 상기 컬러 영상 중 원형 이외의 부분은 검정색으로 채울 수 있다.According to one embodiment of the present invention, the image acquisition module includes an all-sky camera including a fisheye lens, and the image acquisition module can fill a portion other than the circle in the acquired color image with black.

본 발명의 일 실시 형태에 의하면, 영상 획득 모듈에서, 구름이 포함된 컬러 영상을 획득하는 제1 단계; 변환 모듈에서, 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 제2 단계; 및 운량 연산 모듈에서, 변환된 상기 이진 영상으로부터 운량을 연산하는 제3 단계;를 포함하며, 상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 방법을 제공한다.According to one embodiment of the present invention, in an image acquisition module, a first step of acquiring a color image including clouds; In the conversion module, a second step of converting the obtained color image into a binary image including a cloud area and a non-cloud area; and a third step of calculating cloudiness from the converted binary image in a cloudiness calculation module, wherein the conversion module combines a previously collected color image and a binary image generated from the previously collected color image into one pair. We provide a method of measuring cloudiness using a deep learning model, which is a deep learning model trained using one learning data.

본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.According to one embodiment of the present invention, a deep learning model learned using learning data in various cases (including learning data in which the white balance changes, such as when there is backlight, at sunrise or sunset, etc.) By using it, there is no need for a separate device to block the sun, and it has the advantage of being able to measure cloudiness with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.

도 1은 R, G, B 색상 비율을 이용한 운량 측정 방법을 도시한 도면이다.
도 2는 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치의 내부 블록도이다.
도 3은 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.
도 4는 기존 RGB 방법에 따라 RGB 세기의 조건에 따른 구름 영역 판별 결과를 도시한 도면이다.
도 5는 본 발명의 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면이다.
도 6은 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.
도 7은 기존 RGB 방법에 따라 RGB 세기의 조건에 따른 구름 영역 판별 결과를 도시한 도면이다.
도 8은 본 발명의 다른 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면이다.
도 9는 본 발명의 일 실시 형태에 따라 측정한 운량 오차와 기존 RGB 방법에 따라 측정한 운량 오차를 비교 도시한 도면이다.
도 10은 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명하는 흐름도이다.
Figure 1 is a diagram showing a method of measuring cloudiness using R, G, and B color ratios.
Figure 2 is an internal block diagram of a cloudiness measurement device using a deep learning model according to an embodiment of the present invention.
Figure 3 is a diagram illustrating a pair of learning data to be used for learning an image conversion module, which is a deep learning model according to an embodiment of the present invention.
Figure 4 is a diagram showing the results of cloud area determination according to RGB intensity conditions according to the existing RGB method.
Figure 5 is a diagram comparing an image processed according to an embodiment of the present invention and an image manually processed by an operator.
Figure 6 is a diagram illustrating a pair of learning data to be used for learning an image conversion module, which is a deep learning model according to another embodiment of the present invention.
Figure 7 is a diagram showing the results of cloud area discrimination according to RGB intensity conditions according to the existing RGB method.
Figure 8 is a diagram comparing an image processed according to another embodiment of the present invention and an image manually processed by an operator.
Figure 9 is a diagram comparing the cloud cover error measured according to an embodiment of the present invention and the cloud cover error measured according to the existing RGB method.
Figure 10 is a flowchart explaining a method of measuring cloudiness using a deep learning model according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나 본 발명의 실시형태는 여러 가지의 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로만 한정되는 것은 아니다. 도면에서의 요소들의 형상 및 크기 등은 더욱 명확한 설명을 위해 과장될 수 있으며, 도면상의 동일한 부호로 표시되는 요소는 동일한 요소이다.Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. However, the embodiments of the present invention may be modified into various other forms, and the scope of the present invention is not limited to the embodiments described below. The shapes and sizes of elements in the drawings may be exaggerated for clearer explanation, and elements indicated by the same symbol in the drawings are the same element.

도 2는 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치의 내부 블록도이다. 한편, 도 3은 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.Figure 2 is an internal block diagram of a cloudiness measurement device using a deep learning model according to an embodiment of the present invention. Meanwhile, FIG. 3 is a diagram illustrating a pair of learning data to be used for learning an image conversion module, which is a deep learning model according to an embodiment of the present invention.

우선, 도 2에 도시된 바와 같이, 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치(200)는 영상 획득 모듈(210), 영상 변환 모듈(220) 및 운량 연산 모듈(230)을 포함할 수 있다.First, as shown in FIG. 2, the cloudiness measurement device 200 using a deep learning model according to an embodiment of the present invention includes an image acquisition module 210, an image conversion module 220, and a cloudiness calculation module 230. may include.

구체적으로, 영상 획득 모듈(210)은 구름이 포함된 컬러 영상을 획득할 수 있다. 이러한 영상 획득 모듈(210)은 어안 렌즈를 포함한 전천 카메라를 포함할 수 있다. Specifically, the image acquisition module 210 may acquire a color image including clouds. This image acquisition module 210 may include an all-sky camera including a fisheye lens.

전천 카메라로 획득한 컬러 영상은 어안렌즈에 의한 왜곡이 있으므로, 영상 획득 모듈(210)은 이러한 어안렌즈에 의한 왜곡을 보정할 수 있다. 또한, 영상 획득 모듈(210)은 획득된 컬러 영상 중 원형 이외의 부분은 검정색으로 채울 수 있다.Since the color image acquired with an all-sky camera is distorted by the fisheye lens, the image acquisition module 210 can correct the distortion caused by the fisheye lens. Additionally, the image acquisition module 210 may fill parts other than the circle in the acquired color image with black.

영상 변환 모듈(220)은 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환할 수 있다. 이러한 영상 변환 모듈(220)은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델일 수 있다. 본 발명의 일 실시 형태에 의하면, 상술한 심층 학습 모델은 픽스투픽스(pix2pix) 모델일 수 있다.The image conversion module 220 can convert the acquired color image into a binary image including a cloud area and a non-cloud area. This image conversion module 220 may be a deep learning model trained using training data that pairs a previously collected color image and a binary image generated from the previously collected color image. According to one embodiment of the present invention, the deep learning model described above may be a pix2pix model.

도 3에는 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시하고 있다. 도 3의 (a)는 영상 획득 모듈(210)에서 획득한 컬러 영상을, 도 3의 (b)는 (a)의 컬러 영상을 작업자가 수동으로 이진 영상으로 변환한 것으로, 도 3의 (b)에서 바이너리 값이 '1'인 검정색 영역은 구름이 아닌 영역이며, 도 3의 (b)에서 바이너리 값이 '0'인 흰색 영역은 구름 영역이다.Figure 3 shows a pair of learning data to be used for learning an image conversion module, which is a deep learning model according to an embodiment of the present invention. Figure 3 (a) shows the color image acquired by the image acquisition module 210, and Figure 3 (b) shows the color image in (a) converted manually by the operator into a binary image, Figure 3 (b) ), the black area with a binary value of '1' is a non-cloud area, and the white area with a binary value of '0' in (b) of Figure 3 is a cloud area.

즉, 도 3에 도시된 바와 같은 학습 데이터는 심층 학습 모델인 영상 변환 모듈(220)의 학습에 사용되며, 예를 들면 8000개의 학습 데이터를 확보하여 학습 데이터의 70% 내지 80%는 심층 학습 모델인 영상 변환 모듈(220)의 학습에, 나머지는 성능을 검증하는데 사용될 수 있다. 학습 데이터의 구체적인 수 및 비율은 본 발명의 이해를 돕기 위한 것으로, 그 수나 비율은 작업자나 통상의 기술자의 필요에 따라 변형되어 실시될 수 있음에 유의하여야 한다.That is, the training data shown in FIG. 3 is used for training the image conversion module 220, which is a deep learning model. For example, by securing 8000 pieces of training data, 70% to 80% of the training data is used as a deep learning model. For learning of the in-image conversion module 220, the remainder can be used to verify performance. It should be noted that the specific number and ratio of learning data are intended to aid understanding of the present invention, and that the number or ratio may be modified and implemented according to the needs of an operator or a person skilled in the art.

또한, 학습 데이터에 사용되는 컬러 영상은 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상 등 다양한 조건의 영상을 포함하도록 함으로써, 측정 오차를 보다 줄일 수 있는 이점이 있다.In addition, the color images used in the learning data have the advantage of reducing measurement errors by including images under various conditions, such as at least a color image with backlight, a color image at sunrise, and a color image at sunset.

마지막으로, 운량 연산 모듈(230)은 영상 변환 모듈(220)에 의해 변환된 이진 영상으로부터 운량을 연산할 수 있다. 여기서, 운량은 컬러 영상의 전체 영역 대비 구름 영역의 비율일 수 있다.Finally, the cloudiness calculation module 230 can calculate the cloudiness from the binary image converted by the image conversion module 220. Here, the cloud cover may be the ratio of the cloud area to the entire area of the color image.

구체적으로, 운량 연산 모듈(230)은 운량을 연산할 때, 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 운량을 연산하며, 본 발명에서는 컬러 영상의 R, G, B의 비율을 이용하지 않음에 유의하여야 한다.Specifically, when calculating the cloudiness, the cloudiness calculation module 230 calculates the cloudiness by setting the area with a binary value of 0 in the binary image as a cloud area and the area with 1 as a non-cloud area. In the present invention, the color image It should be noted that the ratios of R, G, and B are not used.

도 4는 기존 RGB 방법에 따른 구름 영역 판별 결과를 도시한 도면으로, (a)는 작업자가 수동으로 변환한 이진 영상이며, (b) 내지 (j)는 기존 RGB 방법에 따라 변환한 이진 영상이다. 하기 [표 1]은 RGB 세기와 비율에 따른 구름 판별 조건을 도시한 것이다.Figure 4 is a diagram showing the results of cloud area determination according to the existing RGB method. (a) is a binary image manually converted by an operator, and (b) to (j) are binary images converted according to the existing RGB method. . [Table 1] below shows cloud discrimination conditions according to RGB intensity and ratio.

도 4에서 (b), (e), (f) 등은 정답에 가까운 처리 결과를 보여주나, 나머지는 오차가 큼을 알 수 있으며, 따라서 기존 RGB 방법의 경우 R, G, B의 세기나 비율에 따라 구름으로 인식되는 부분이 달라지는 단점이 있음을 알 수 있다. 특히 기존 RGB 방법의 경우 태양이 있을 경우에는 태양을 구름으로 인식할 확률이 높아진다. In Figure 4, (b), (e), and (f) show processing results close to the correct answer, but the rest have large errors. Therefore, in the case of the existing RGB method, the intensity or ratio of R, G, and B It can be seen that there is a disadvantage in that the part recognized as a cloud varies depending on the cloud. In particular, in the case of the existing RGB method, if there is a sun, the probability of recognizing the sun as a cloud increases.

한편, 도 5는 본 발명의 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면으로, 도 5의 (a)는 영상 획득 모듈에서 획득한 컬러 영상을, (b)는 작업자에 수동으로 변환된 이진 영상을, (c)는 본 발명의 일 실시 형태에 따라 변환된 이진 영상이다.Meanwhile, Figure 5 is a diagram comparing an image processed according to an embodiment of the present invention and an image manually processed by an operator. Figure 5 (a) shows a color image acquired from the image acquisition module, (b) shows a color image obtained from the image acquisition module. ) is a binary image converted manually by an operator, and (c) is a binary image converted according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 변환된 이진 영상과 작업자에 의해 수동으로 변환된 이진 영상은 거의 동일함을 알 수 있다.As shown in FIG. 5, it can be seen that the binary image converted according to an embodiment of the present invention and the binary image converted manually by the operator are almost identical.

한편, 도 6은 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.Meanwhile, FIG. 6 is a diagram illustrating a pair of learning data to be used for learning an image conversion module, which is a deep learning model according to another embodiment of the present invention.

도 6은, 도 3과 같이, 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시하고 있으며, 상기 학습 데이터는 태양에 의한 밝은 빛이 포함된 영상을 나타낸다. Figure 6, like Figure 3, shows a pair of learning data to be used for learning an image conversion module, which is a deep learning model according to another embodiment of the present invention, and the learning data includes bright light from the sun. Indicates the image that was created.

도 6의 (a)는 영상 획득 모듈(210)에서 획득한 컬러 영상을, 도 6의 (b)는 (a)의 컬러 영상을 작업자가 수동으로 이진 영상으로 변환한 것으로, 도 6의 (b)에서 바이너리 값이 '1'인 검정색 영역은 구름이 아닌 영역이며, 도 6의 (b)에서 바이너리 값이 '0'인 흰색 영역은 구름 영역이다. 특히, 도 6의 (a)의 하단 우측의 밝은 부분은 태양에 의한 것이다. Figure 6 (a) shows the color image acquired by the image acquisition module 210, and Figure 6 (b) shows the color image in (a) converted manually by the operator into a binary image, Figure 6 (b) ), the black area with a binary value of '1' is a non-cloud area, and the white area with a binary value of '0' in (b) of Figure 6 is a cloud area. In particular, the bright part at the bottom right of Figure 6(a) is caused by the sun.

즉, 학습 데이터에 사용되는 컬러 영상은 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상 등 다양한 조건의 영상을 포함하도록 함으로써, 측정 오차를 보다 줄일 수 있는 이점이 있으며, 구체적으로 도 6은 태양 광에 의해 구름과 같이 하얗게 보이는 영역을 포함한 컬러 영상이다. 상술한 내용과 중복되는 내용은 생략하기로 한다.In other words, the color images used in the learning data have the advantage of further reducing measurement errors by including images under various conditions, such as at least a color image with backlight, a color image at sunrise, and a color image at sunset. Figure 6 is a color image including areas that appear white, such as clouds, due to sunlight. Content that overlaps with the above-mentioned content will be omitted.

도 7은 기존 RGB 방법에 따른 구름 영역 판별 결과를 도시한 도면으로, (a)는 작업자가 수동으로 변환한 이진 영상이며, (b) 내지 (j)는 기존 RGB 방법에 따라 변환한 이진 영상이다. 상술한 [표 1]에 따라 RGB 세기와 비율에 따른 구름 판별 조건에 따라 구름 영역 판별 결과를 출력할 수 있다.Figure 7 is a diagram showing the results of cloud area determination according to the existing RGB method. (a) is a binary image manually converted by an operator, and (b) to (j) are binary images converted according to the existing RGB method. . According to the above-mentioned [Table 1], the cloud area discrimination results can be output according to the cloud discrimination conditions according to RGB intensity and ratio.

도 7에서 (g), (h), (i) 등은 정답에 가까운 처리 결과를 보여주나, 나머지는 오차가 큼을 알 수 있으며, 기존 RGB 방법의 경우 R, G, B의 세기나 비율에 따라 구름으로 인식되는 부분이 조건에 따라 달라지는 단점이 있음을 알 수 있다. 특히 기존 RGB 방법의 경우 하늘 영상에 태양이 있을 경우에는 태양을 구름으로 인식할 확률이 높아진다. In Figure 7, (g), (h), and (i) show processing results close to the correct answer, but the rest have large errors, and in the case of the existing RGB method, depending on the intensity or ratio of R, G, and B, It can be seen that there is a disadvantage in that the part recognized as a cloud varies depending on conditions. In particular, in the case of the existing RGB method, if there is a sun in the sky image, the probability of recognizing the sun as a cloud increases.

즉, 도 7에 도시된 바와 같이, 기존 RGB 방법의 경우 태양에 의해 하얗게 보이는 영역을 구름 영역으로 인식하고 태양광 영역까지 구름 영역으로 이진 변환 수행하게 되는 문제점이 발생할 수 있다.That is, as shown in FIG. 7, in the case of the existing RGB method, a problem may occur in that an area that appears white due to the sun is recognized as a cloud area and binary conversion of the sunlight area to a cloud area may occur.

반면, 도 8은 본 발명의 다른 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면으로, 도 8의 (a)는 영상 획득 모듈에서 획득한 컬러 영상을, (b)는 작업자에 수동으로 변환된 이진 영상을, (c)는 본 발명의 다른 일 실시 형태에 따라 변환된 이진 영상이다.On the other hand, Figure 8 is a diagram comparing an image processed according to another embodiment of the present invention and an image manually processed by an operator. Figure 8 (a) shows a color image acquired from the image acquisition module, ( b) is a binary image converted manually by an operator, and (c) is a binary image converted according to another embodiment of the present invention.

도 8에 도시된 바와 같이, 본 발명의 다른 일 실시 형태에 따라 변환된 이진 영상과 작업자에 의해 수동으로 변환된 이진 영상은 거의 동일함을 알 수 있다.As shown in FIG. 8, it can be seen that the binary image converted according to another embodiment of the present invention and the binary image converted manually by the operator are almost identical.

즉, 도 5 및 도 8에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 변환된 이진 영상은 구름이 있는 영역과 구름이 없는 영역을 혼동하지 않고 영상 변환할 수 있으며, 또는 태양광 영역과 구름 영역을 혼동하지 않고 영상 변환할 수 있어 하늘 상태가 시간 또는 기후에 따라 변동되더라도 정확하게 운량 측정을 수행할 수 있다.That is, as shown in Figures 5 and 8, the binary image converted according to an embodiment of the present invention can be converted into an image without confusing the cloudy area and the non-cloudy area, or the solar area and the sunlight area. Since images can be converted without confusing cloud areas, cloud volume measurements can be accurately performed even if sky conditions change depending on time or climate.

한편, 도 9는 본 발명의 일 실시 형태에 따라 측정한 운량 오차와 기존 RGB 방법에 따라 측정한 운량 오차를 비교 도시한 도면으로, 도면부호 610(파랑색)은 기존 RGB 방법에 따라 측정한 운량 오차이며, 도면부호 620(빨간색)은 본 발명의 일 실시 형태에 따라 측정한 운량 오차이다.Meanwhile, Figure 9 is a diagram comparing the cloud amount error measured according to an embodiment of the present invention and the cloud amount error measured according to the existing RGB method, and reference numeral 610 (blue) indicates the cloud amount measured according to the existing RGB method. This is an error, and reference numeral 620 (red) is a cloud cover error measured according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 측정한 운량 오차는 대략 5% 이하인 반면, 기존 RGB 방법에 따라 측정한 운량 오차는 불규칙하며, 일부 영상에서는 운량 오차가 상당히 크다는 것을 알 수 있다.As shown in Figure 9, the cloud cover error measured according to one embodiment of the present invention is approximately 5% or less, while the cloud cover error measured according to the existing RGB method is irregular, and in some images, the cloud cover error is quite large. You can.

상술한 바와 같이, 본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.As described above, according to an embodiment of the present invention, learning is performed using learning data in various cases (including learning data in which the white balance changes, such as when there is backlight, at sunrise or sunset, etc.) By using a deep learning model, there is no need for a separate device to block the sun, and there is an advantage in that cloudiness can be measured with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.

한편, 도 10은 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명하는 흐름도이다.Meanwhile, Figure 10 is a flowchart explaining a method of measuring cloudiness using a deep learning model according to an embodiment of the present invention.

이하, 도 1 내지 도 10을 참조하여 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명한다. 다만, 발명의 간명화를 위해 도 1 내지 도 9에서 이미 설명한 사항과 중복된 부분에 대한 설명은 생략한다.Hereinafter, a method of measuring cloud cover using a deep learning model according to an embodiment of the present invention will be described with reference to FIGS. 1 to 10. However, for the sake of simplicity of the invention, descriptions of parts that overlap with those already described in FIGS. 1 to 9 are omitted.

도 1 및 내지 도 10을 참조하면, 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법(S700)은, 영상 획득 모듈(210)에서, 구름이 포함된 컬러 영상을 획득하는 단계에 의해 개시될 수 있다(S701). 이러한 영상 획득 모듈(210)은 어안 렌즈를 포함한 전천 카메라를 포함할 수 있다. 전천 카메라로 획득한 컬러 영상은 어안렌즈에 의한 왜곡이 있으므로, 영상 획득 모듈(210)은 이러한 어안렌즈에 의한 왜곡을 보정할 수 있음은 상술한 바와 같다. 1 and 10, the cloudiness measurement method (S700) using a deep learning model according to an embodiment of the present invention includes the step of acquiring a color image containing clouds in the image acquisition module 210. It can be initiated by (S701). This image acquisition module 210 may include an all-sky camera including a fisheye lens. As described above, since the color image acquired with an all-sky camera is distorted by the fisheye lens, the image acquisition module 210 can correct the distortion caused by the fisheye lens.

영상 변환 모듈(220)은 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환할 수 있다(S702). 이러한 영상 변환 모듈(220)은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델로, 상술한 심층 학습 모델은 픽스투픽스(pix2pix) 모델일 수 있음은 상술한 바와 같다.The image conversion module 220 may convert the acquired color image into a binary image including a cloud area and a non-cloud area (S702). This image conversion module 220 is a deep learning model trained using paired learning data of a previously collected color image and a binary image generated from the previously collected color image, and the above-described deep learning model is a fixto As described above, it may be a pix2pix model.

마지막으로, 운량 연산 모듈(230)은 영상 변환 모듈(220)에 의해 변환된 이진 영상으로부터 운량을 연산할 수 있다(S703). 여기서, 운량은 컬러 영상의 전체 영역 대비 구름 영역의 비율일 수 있음은 상술한 바와 같다.Finally, the cloudiness calculation module 230 can calculate the cloudiness from the binary image converted by the image conversion module 220 (S703). Here, as described above, the cloud cover may be the ratio of the cloud area to the entire area of the color image.

상술한 바와 같이, 본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.As described above, according to one embodiment of the present invention, learning is performed using learning data in various cases (including learning data in which the white balance changes, such as when there is backlight, at sunrise or sunset, etc.) By using a deep learning model, there is no need for a separate device to block the sun, and there is an advantage in that cloudiness can be measured with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.

상술한 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The cloudiness measurement method using a deep learning model according to an embodiment of the present invention described above may be produced as a program to be executed on a computer and stored in a computer-readable recording medium. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. Additionally, the computer-readable recording medium can be distributed across computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the method can be easily deduced by programmers in the technical field to which the present invention pertains.

또한, 본 발명을 설명함에 있어, '~ 모듈'은 다양한 방식, 예를 들면 프로세서, 프로세서에 의해 수행되는 프로그램 명령들, 소프트웨어 모듈, 마이크로 코드, 컴퓨터 프로그램 생성물, 로직 회로, 애플리케이션 전용 집적 회로, 펌웨어 등에 의해 구현될 수 있다.In addition, in describing the present invention, '˜module' may be used in various ways, for example, a processor, program instructions executed by the processor, software module, microcode, computer program product, logic circuit, application-specific integrated circuit, firmware. It can be implemented by etc.

본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되지 아니한다. 첨부된 청구범위에 의해 권리범위를 한정하고자 하며, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경할 수 있다는 것은 당 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.The present invention is not limited by the above-described embodiments and attached drawings. It is intended to limit the scope of rights by the appended claims, and it is understood by those skilled in the art that various forms of substitution, modification, and change can be made without departing from the technical spirit of the present invention as set forth in the claims. It will be self-explanatory.

200: 운량 측정 장치
210: 영상 획득 모듈
220: 영상 변환 모듈
230: 운량 연산 모듈
200: Cloud measurement device
210: Image acquisition module
220: Video conversion module
230: Cloud computing module

Claims (6)

구름이 포함된 컬러 영상을 획득하는 영상 획득 모듈;
획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈; 및
변환된 상기 이진 영상으로부터 운량을 연산하는 운량 연산 모듈;을 포함하며,
상기 영상 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델이며,
상기 기 수집된 컬러 영상은 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상 중 어느 하나를 포함하는 화이트 밸런스가 변화하는 컬러 영상인, 심층 학습 모델을 이용한 운량 측정 장치.
An image acquisition module that acquires a color image including clouds;
an image conversion module that converts the acquired color image into a binary image including a cloud area and a non-cloud area; and
It includes a cloud computing module that calculates the cloudiness from the converted binary image,
The image conversion module is a deep learning model trained using training data that pairs a previously collected color image and a binary image generated from the previously collected color image,
The previously collected color image is a color image with changing white balance, including any one of a color image with backlight, a color image at sunrise, and a color image at sunset. A cloudiness measurement device using a deep learning model.
제1항에 있어서,
상기 운량 연산 모듈은,
상기 운량을 연산할 때, 상기 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 상기 운량을 연산하되, 컬러 영상의 R, G, B의 비율을 이용하지 않는, 심층 학습 모델을 이용한 운량 측정 장치.
According to paragraph 1,
The cloud computing module is,
When calculating the cloudiness, the area with a binary value of 0 in the binary image is calculated as a cloud area, and the area with 1 as a non-cloud area is used to calculate the cloudiness, using the ratio of R, G, and B of the color image. A cloud measurement device using a deep learning model that does not.
제1항에 있어서,
상기 심층 학습 모델은,
픽스투픽스(pix2pix) 모델인, 심층 학습 모델을 이용한 운량 측정 장치.
According to paragraph 1,
The deep learning model is,
A cloud measurement device using a deep learning model, the pix2pix model.
삭제delete 제1항에 있어서,
상기 영상 획득 모듈은, 어안 렌즈를 포함한 전천 카메라를 포함하며,
상기 영상 획득 모듈은, 획득된 상기 컬러 영상 중 원형 이외의 부분은 검정색으로 채우는, 심층 학습 모델을 이용한 운량 측정 장치.
According to paragraph 1,
The image acquisition module includes an all-sky camera including a fisheye lens,
The image acquisition module is a cloud measurement device using a deep learning model, wherein parts other than the circle in the acquired color image are filled with black.
영상 획득 모듈에서, 구름이 포함된 컬러 영상을 획득하는 제1 단계;
변환 모듈에서, 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 제2 단계; 및
운량 연산 모듈에서, 변환된 상기 이진 영상으로부터 운량을 연산하는 제3 단계;를 포함하며,
상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델이며,
상기 기 수집된 컬러 영상은 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상 중 어느 하나를 포함하는 화이트 밸런스가 변화하는 컬러 영상인, 심층 학습 모델을 이용한 운량 측정 방법.
In the image acquisition module, a first step of acquiring a color image including clouds;
In the conversion module, a second step of converting the obtained color image into a binary image including a cloud area and a non-cloud area; and
In a cloud computing module, a third step of calculating cloud cover from the converted binary image,
The conversion module is a deep learning model trained using training data that pairs a previously collected color image and a binary image generated from the previously collected color image,
The previously collected color image is a color image with changing white balance, including any one of a color image with backlight, a color image at sunrise, and a color image at sunset. A cloudiness measurement method using a deep learning model.
KR1020210144876A 2021-10-27 2021-10-27 Apparatus and method of measuring amount of cloud using deep learning model KR102635914B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210144876A KR102635914B1 (en) 2021-10-27 2021-10-27 Apparatus and method of measuring amount of cloud using deep learning model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210144876A KR102635914B1 (en) 2021-10-27 2021-10-27 Apparatus and method of measuring amount of cloud using deep learning model

Publications (2)

Publication Number Publication Date
KR20230060296A KR20230060296A (en) 2023-05-04
KR102635914B1 true KR102635914B1 (en) 2024-02-14

Family

ID=86379810

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210144876A KR102635914B1 (en) 2021-10-27 2021-10-27 Apparatus and method of measuring amount of cloud using deep learning model

Country Status (1)

Country Link
KR (1) KR102635914B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170031056A1 (en) 2014-04-10 2017-02-02 Board Of Regents, The University Of Texas System Solar Energy Forecasting
KR102396001B1 (en) 2019-11-20 2022-05-11 주식회사 에이앤디시스템 Method for calculating amount of clouds through photographing whole sky

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333160A (en) * 1992-05-29 1993-12-17 Sony Corp Cloud amount measuring method and device
KR101709860B1 (en) 2015-09-01 2017-02-23 강릉원주대학교산학협력단 Former all-sky cloud cover in the sky using a RGB color image data output method and system
KR20180055422A (en) * 2016-11-17 2018-05-25 한국기술교육대학교 산학협력단 Method and apparatus for quantifying cloud cover by using whole sky image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170031056A1 (en) 2014-04-10 2017-02-02 Board Of Regents, The University Of Texas System Solar Energy Forecasting
KR102396001B1 (en) 2019-11-20 2022-05-11 주식회사 에이앤디시스템 Method for calculating amount of clouds through photographing whole sky

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Stefan Hensel 외 3명. Evaluation of Deep Learning-Based Neural Network Methods for Cloud Detection and Segmentation. Energies. 2021.09.22, Vol.14, Issue.19, <인터넷:https://www.mdpi.com/1996-1073/14/19/6156> 1부.*
두더지 개발자. [python/Keras] GAN pix2pix. 티스토리. [online], 2020.04.28, [2023년 9월 19일 검색], <인터넷:https://engineer-mole.tistory.com/45> 1부.*

Also Published As

Publication number Publication date
KR20230060296A (en) 2023-05-04

Similar Documents

Publication Publication Date Title
CN108333148B (en) Method and device for identifying black and odorous water body
US11810272B2 (en) Image dehazing and restoration
Zhang et al. A simple automated dynamic threshold extraction method for the classification of large water bodies from landsat-8 OLI water index images
Brusa et al. Increasing the precision of canopy closure estimates from hemispherical photography: Blue channel analysis and under-exposure
Zhang et al. Determining digital hemispherical photograph exposure for leaf area index estimation
US8509476B2 (en) Automated system and method for optical cloud shadow detection over water
Chianucci A note on estimating canopy cover from digital cover and hemispherical photography
CN104121850B (en) Canopy density measurement method and device
Lang et al. Digital photography for tracking the phenology of an evergreen conifer stand
Pawar et al. Detecting clear sky images
Díaz et al. Model-based local thresholding for canopy hemispherical photography
CN108012135A (en) Image processing method and device, computer-readable recording medium and computer equipment
KR102635914B1 (en) Apparatus and method of measuring amount of cloud using deep learning model
Saito et al. Cloud discrimination from sky images using a clear-sky index
Revollo et al. Automatic methodology for mapping of coastal zones in video sequences
KR102396001B1 (en) Method for calculating amount of clouds through photographing whole sky
KR101370545B1 (en) Method for Conducting Selectively Image Improving Treatment Based on Automatical Image Data Analysis
KR102635911B1 (en) Intelligent cloud volume measurement apparatus and method
KR20210111578A (en) Distortion Method of Total Cloude Cover in Night Time using Ground Based Whole Sky Image Data
CN115100537B (en) Tidal energy resource assessment method based on remote sensing image
de Carvalho Jr et al. Normalization of multi-temporal images using a new change detection method based on the spectral classifier
CN112784753B (en) Small and medium natural river hydrological water level detection method based on machine vision
Schulz et al. Automatic cloud top height determination in mountainous areas using a cost-effective time-lapse camera system
RU2504840C1 (en) Automatic photograph retouching method
US20220082499A1 (en) Image processing method, image processing apparatus, imaging system, and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant