KR20230060296A - Apparatus and method of measuring amount of cloud using deep learning model - Google Patents
Apparatus and method of measuring amount of cloud using deep learning model Download PDFInfo
- Publication number
- KR20230060296A KR20230060296A KR1020210144876A KR20210144876A KR20230060296A KR 20230060296 A KR20230060296 A KR 20230060296A KR 1020210144876 A KR1020210144876 A KR 1020210144876A KR 20210144876 A KR20210144876 A KR 20210144876A KR 20230060296 A KR20230060296 A KR 20230060296A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- cloudiness
- color image
- cloud
- deep learning
- Prior art date
Links
- 238000013136 deep learning model Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title description 30
- 238000006243 chemical reaction Methods 0.000 claims abstract description 28
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000005259 measurement Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 16
- 238000000691 measurement method Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 3
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 102100022778 POC1 centriolar protein homolog A Human genes 0.000 description 1
- 101710125073 POC1 centriolar protein homolog A Proteins 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01W—METEOROLOGY
- G01W1/00—Meteorology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/007—Dynamic range modification
- G06T5/008—Local, e.g. shadow enhancement
-
- G06T5/94—
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01W—METEOROLOGY
- G01W2201/00—Weather detection, monitoring or forecasting for establishing the amount of global warming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치는, 구름이 포함된 컬러 영상을 획득하는 영상 획득 모듈과, 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈과, 변환된 이진 영상으로부터 운량을 연산하는 운량 연산 모듈을 포함하며, 변환 모듈은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델일 수 있다.An apparatus for measuring cloudiness using a deep learning model according to an embodiment of the present invention includes an image acquisition module for acquiring a color image including clouds, and converting the acquired color image into a binary image including a cloud region and a non-cloud region. It includes an image conversion module that converts and a cloudiness calculation module that calculates cloudiness from the converted binary image, and the conversion module is learning data in which a pre-collected color image and a binary image generated from the pre-collected color image are paired as one pair. It may be a deep learning model trained using
Description
본 출원은, 심층 학습 모델을 이용한 운량 측정 장치 및 방법에 관한 것이다.This application relates to an apparatus and method for measuring cloudiness using a deep learning model.
운량계(Cloud meter)는 구름 영상을 획득하고 전체 하늘의 면적중 구름이 차지하는 면적이 몇 % 인지를 측정하는 장치이다. 기상분야에서 구름이 차지하는 비율을 측정하는 것은 아주 중요한 요소인데, 아직은 구름의 양(비율)을 측정하는 운량계 신호처리 장치가 성능이 부족하여, 사람이 목측으로 측정하고 있다.A cloud meter is a device that acquires cloud images and measures the percentage of the area occupied by clouds out of the total sky area. Measuring the percentage occupied by clouds is a very important factor in the field of meteorology. However, the performance of the cloud meter signal processing device for measuring the amount (ratio) of clouds is still insufficient, so people measure it visually.
하늘의 구름 사진을 이용하여 운량을 측정하는 기존 방법은 R, G, B 색상을 이용한다. 이와 같은 방법의 원리는 빛의 레일리 산란(Rayleigh scattering)과 미 산란(Mie Scattering)을 이용한 것이다. 하늘의 공기 입자의 경우, 빛의 파장보다 작기 때문에 레일리 산란이 크게 발생하며, 그 결과 하늘이 파랗게 나타난다. 그러나 구름의 수중기와 같이 입자가 큰 물질에 의하여 빛이 산란할 경우, 미 산란이 발생하여 모든 파장의 빛이 산란되어 하얗게 나타난다.The existing method of measuring cloudiness using a picture of clouds in the sky uses R, G, and B colors. The principle of this method is to use Rayleigh scattering and Mie scattering of light. In the case of air particles in the sky, Rayleigh scattering occurs greatly because they are smaller than the wavelength of light, and as a result, the sky appears blue. However, when light is scattered by a material with large particles, such as water vapor in a cloud, micro-scattering occurs and light of all wavelengths is scattered and appears white.
따라서 기존 R, G, B 색상을 이용한 방법의 경우, 구름이 포함된 하늘 이미지에서 R, G, B 색상을 분리하여, 레드(Red)와 블루(Blue) 파장의 비 또는 레드(Red)와 그린(Green) 파장의 비를 이용하여 구름을 분류하였다. 특히 기존 R, G, B 색상을 이용한 방법은 각각의 비의 특정 값을 임계값으로 사용하여 구름을 분류하였다.Therefore, in the case of the method using the existing R, G, and B colors, the R, G, and B colors are separated from the sky image including clouds, and the ratio of red and blue wavelengths or red and green (Green) Clouds were classified using the ratio of wavelengths. In particular, the method using the existing R, G, and B colors classified clouds using a specific value of each ratio as a threshold value.
즉, 도 1에 도시된 바와 같이, 이미지를 도출하고(SKY Image call), 왜곡을 보정한 후(Correction of radial distortion), RGB 컬러를 분리한다(RGB color separation). 이후 레드(Red)가 특정값 (예를 들어 60) 이하인 영역의 경우 구름이 없는 것으로 판별한다. 또, 레드(Red)가 특정값 (예를 들어 60)을 초과하는 영역의 경우 R/G < 특정값(예를 들어 0.95)이고 R/B < 특정값(예를 들어 0.85)이면 구름이 없는 영역이고, 이 조건을 만족하지 않으면 다시 판별하는데, R,G,B 각각의 값이 모두 특정값(예를 들면 240) 이상이면 구름이 없다고 보고, 이외의 영역은 구름으로 판별한다. 이런 작업을 거친 후 구름 영역의 면적과 전체 면적(구름 영역과 구름이 없는 영역의 합)으로 운량을 연산한다(Calculate the amount of the cloud coverage).That is, as shown in FIG. 1, an image is derived (SKY Image call), distortion is corrected (Correction of radial distortion), and RGB colors are separated (RGB color separation). Thereafter, it is determined that there is no cloud in an area where Red is less than a specific value (for example, 60). In addition, in the case of an area where red exceeds a specific value (eg 60), there is no cloud if R/G < specific value (eg 0.95) and R/B < specific value (eg 0.85). It is an area, and if this condition is not satisfied, it is determined again. If each value of R, G, and B is above a specific value (e.g., 240), it is considered that there is no cloud, and the other areas are determined as clouds. After this process, the amount of cloud coverage is calculated with the area of the cloud area and the total area (the sum of the cloud area and the cloudless area) (Calculate the amount of the cloud coverage).
그러나, 이러한 R, G, B 색상을 이용한 기존 방법은 낮의 태양과 밤의 달과 같은 밝은 물체에 의하여 카메라 센서의 포화(Saturation) 현상(예를 들면, 역광)이 발생하면 측정할 수 없기 때문에 별도의 태양을 가리는 장치가 필요하며, 태양 또는 달에 의하여 구름에 의하여 빛이 반사되어 밝게 빛나는 부분, 또는 구름과 태양의 위치 또는 구름의 두께에 의하여 발생하는 구름의 어두운 부분을 측정하지 못하는 경우가 발생한다.However, the conventional method using these R, G, and B colors cannot be measured when saturation of the camera sensor (eg, backlight) occurs due to bright objects such as the sun during the day and the moon at night. A separate device to block the sun is required, and it is not possible to measure the brightly lit part due to the reflection of light by the cloud by the sun or moon, or the dark part of the cloud caused by the position of the cloud and the sun or the thickness of the cloud. Occurs.
본 발명은, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있으며, 별도의 태양을 가리는 장치가 필요 없는 새로운 심층 학습 모델을 이용한 운량 측정 장치 및 방법을 제공한다.The present invention provides an apparatus and method for measuring cloudiness using a new deep learning model, which can measure cloudiness with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB, and does not require a separate sun blocking device. do.
본 발명의 일 실시 형태에 의하면, 구름이 포함된 컬러 영상을 획득하는 영상 획득 모듈; 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈; 및 변환된 상기 이진 영상으로부터 운량을 연산하는 운량 연산 모듈;을 포함하며, 상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 장치를 제공한다.According to an embodiment of the present invention, an image acquisition module for acquiring a color image including clouds; an image conversion module for converting the acquired color image into a binary image including a cloud region and a non-cloud region; and a cloudiness calculation module that calculates cloudiness from the converted binary image, wherein the conversion module uses learning data obtained by pairing a pre-collected color image and a binary image generated from the pre-collected color image. Provided is a cloudiness measurement device using a deep learning model, which is a deep learning model learned by doing.
본 발명의 일 실시 형태에 의하면, 상기 운량 연산 모듈은, 상기 운량을 연산할 때, 상기 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 상기 운량을 연산하되, 컬러 영상의 R, G, B의 비율을 이용하지 않는 것일 수 있다.According to an embodiment of the present invention, when calculating the cloudiness, the cloudiness calculation module calculates the cloudiness by setting an area of 0, which is a binary value of the binary image, as a cloud area and an area of 1 as a non-cloud area. It may be calculated, but the ratio of R, G, and B of the color image may not be used.
본 발명의 일 실시 형태에 의하면, 상기 심층 학습 모델은, 픽스투픽스(pix2pix) 모델일 수 있다.According to an embodiment of the present invention, the deep learning model may be a pix2pix model.
본 발명의 일 실시 형태에 의하면, 상기 기 수집된 컬러 영상은, 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상을 포함할 수 있다.According to an embodiment of the present invention, the pre-collected color image may include at least a color image with backlight, a color image at sunrise, and a color image at sunset.
본 발명의 일 실시 형태에 의하면, 상기 영상 획득 모듈은, 어안 렌즈를 포함한 전천 카메라를 포함하며, 상기 영상 획득 모듈은, 획득된 상기 컬러 영상 중 원형 이외의 부분은 검정색으로 채울 수 있다.According to an embodiment of the present invention, the image acquisition module may include an all-sky camera including a fisheye lens, and the image acquisition module may fill a non-circular portion of the acquired color image with black.
본 발명의 일 실시 형태에 의하면, 영상 획득 모듈에서, 구름이 포함된 컬러 영상을 획득하는 제1 단계; 변환 모듈에서, 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 제2 단계; 및 운량 연산 모듈에서, 변환된 상기 이진 영상으로부터 운량을 연산하는 제3 단계;를 포함하며, 상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 방법을 제공한다.According to an embodiment of the present invention, a first step of acquiring a color image including clouds in an image acquisition module; a second step of converting, by a conversion module, the acquired color image into a binary image including a cloud region and a non-cloud region; and a third step of calculating cloudiness from the converted binary image in a cloudiness calculation module, wherein the conversion module converts a pre-collected color image and a binary image generated from the pre-collected color image into a pair. A cloudiness measurement method using a deep learning model, which is a deep learning model trained using one learning data, is provided.
본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.According to an embodiment of the present invention, a deep learning model learned using learning data in various cases (including learning data in which white balance changes, such as when there is backlight or at sunrise or sunset) By using it, there is no need for a separate device to cover the sun, and there is an advantage in that cloudiness can be measured with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.
도 1은 R, G, B 색상 비율을 이용한 운량 측정 방법을 도시한 도면이다.
도 2는 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치의 내부 블록도이다.
도 3은 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.
도 4는 기존 RGB 방법에 따라 RGB 세기의 조건에 따른 구름 영역 판별 결과를 도시한 도면이다.
도 5는 본 발명의 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면이다.
도 6은 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.
도 7은 기존 RGB 방법에 따라 RGB 세기의 조건에 따른 구름 영역 판별 결과를 도시한 도면이다.
도 8은 본 발명의 다른 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면이다.
도 9는 본 발명의 일 실시 형태에 따라 측정한 운량 오차와 기존 RGB 방법에 따라 측정한 운량 오차를 비교 도시한 도면이다.
도 10은 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명하는 흐름도이다.1 is a diagram illustrating a cloudiness measurement method using R, G, and B color ratios.
2 is an internal block diagram of a cloudiness measuring device using a deep learning model according to an embodiment of the present invention.
3 is a diagram illustrating a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to an embodiment of the present invention.
4 is a diagram showing the result of determining the cloud area according to the RGB intensity condition according to the existing RGB method.
5 is a diagram showing a comparison between an image processed according to an embodiment of the present invention and an image manually processed by a worker.
6 is a diagram illustrating a pair of learning data to be used for learning of an image conversion module that is a deep learning model according to another embodiment of the present invention.
FIG. 7 is a diagram showing the cloud area discrimination result according to the condition of RGB intensity according to the existing RGB method.
8 is a diagram showing a comparison between an image processed according to another embodiment of the present invention and an image manually processed by a worker.
9 is a diagram showing a comparison between a cloudiness error measured according to an embodiment of the present invention and a cloudiness error measured according to an existing RGB method.
10 is a flowchart illustrating a cloudiness measurement method using a deep learning model according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나 본 발명의 실시형태는 여러 가지의 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로만 한정되는 것은 아니다. 도면에서의 요소들의 형상 및 크기 등은 더욱 명확한 설명을 위해 과장될 수 있으며, 도면상의 동일한 부호로 표시되는 요소는 동일한 요소이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the embodiments of the present invention can be modified in many different forms, and the scope of the present invention is not limited only to the embodiments described below. The shapes and sizes of elements in the drawings may be exaggerated for clearer explanation, and elements indicated by the same reference numerals in the drawings are the same elements.
도 2는 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치의 내부 블록도이다. 한편, 도 3은 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.2 is an internal block diagram of a cloudiness measuring device using a deep learning model according to an embodiment of the present invention. Meanwhile, FIG. 3 is a diagram illustrating a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to an embodiment of the present invention.
우선, 도 2에 도시된 바와 같이, 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 장치(200)는 영상 획득 모듈(210), 영상 변환 모듈(220) 및 운량 연산 모듈(230)을 포함할 수 있다.First, as shown in FIG. 2, the
구체적으로, 영상 획득 모듈(210)은 구름이 포함된 컬러 영상을 획득할 수 있다. 이러한 영상 획득 모듈(210)은 어안 렌즈를 포함한 전천 카메라를 포함할 수 있다. Specifically, the
전천 카메라로 획득한 컬러 영상은 어안렌즈에 의한 왜곡이 있으므로, 영상 획득 모듈(210)은 이러한 어안렌즈에 의한 왜곡을 보정할 수 있다. 또한, 영상 획득 모듈(210)은 획득된 컬러 영상 중 원형 이외의 부분은 검정색으로 채울 수 있다.Since the color image acquired by the all-sky camera has distortion due to the fisheye lens, the
영상 변환 모듈(220)은 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환할 수 있다. 이러한 영상 변환 모듈(220)은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델일 수 있다. 본 발명의 일 실시 형태에 의하면, 상술한 심층 학습 모델은 픽스투픽스(pix2pix) 모델일 수 있다.The
도 3에는 본 발명의 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시하고 있다. 도 3의 (a)는 영상 획득 모듈(210)에서 획득한 컬러 영상을, 도 3의 (b)는 (a)의 컬러 영상을 작업자가 수동으로 이진 영상으로 변환한 것으로, 도 3의 (b)에서 바이너리 값이 '1'인 검정색 영역은 구름이 아닌 영역이며, 도 3의 (b)에서 바이너리 값이 '0'인 흰색 영역은 구름 영역이다.3 illustrates a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to an embodiment of the present invention. Figure 3 (a) is a color image acquired by the
즉, 도 3에 도시된 바와 같은 학습 데이터는 심층 학습 모델인 영상 변환 모듈(220)의 학습에 사용되며, 예를 들면 8000개의 학습 데이터를 확보하여 학습 데이터의 70% 내지 80%는 심층 학습 모델인 영상 변환 모듈(220)의 학습에, 나머지는 성능을 검증하는데 사용될 수 있다. 학습 데이터의 구체적인 수 및 비율은 본 발명의 이해를 돕기 위한 것으로, 그 수나 비율은 작업자나 통상의 기술자의 필요에 따라 변형되어 실시될 수 있음에 유의하여야 한다.That is, the learning data as shown in FIG. 3 is used for learning the
또한, 학습 데이터에 사용되는 컬러 영상은 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상 등 다양한 조건의 영상을 포함하도록 함으로써, 측정 오차를 보다 줄일 수 있는 이점이 있다.In addition, the color image used for the learning data includes images under various conditions, such as at least a color image with backlight, a color image at sunrise, and a color image at sunset, so that measurement errors can be further reduced.
마지막으로, 운량 연산 모듈(230)은 영상 변환 모듈(220)에 의해 변환된 이진 영상으로부터 운량을 연산할 수 있다. 여기서, 운량은 컬러 영상의 전체 영역 대비 구름 영역의 비율일 수 있다.Finally, the
구체적으로, 운량 연산 모듈(230)은 운량을 연산할 때, 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 운량을 연산하며, 본 발명에서는 컬러 영상의 R, G, B의 비율을 이용하지 않음에 유의하여야 한다.Specifically, when calculating the cloudiness, the
도 4는 기존 RGB 방법에 따른 구름 영역 판별 결과를 도시한 도면으로, (a)는 작업자가 수동으로 변환한 이진 영상이며, (b) 내지 (j)는 기존 RGB 방법에 따라 변환한 이진 영상이다. 하기 [표 1]은 RGB 세기와 비율에 따른 구름 판별 조건을 도시한 것이다.4 is a diagram showing the cloud area discrimination results according to the existing RGB method, where (a) is a binary image manually converted by an operator, and (b) to (j) are binary images converted according to the existing RGB method. . [Table 1] below shows cloud discrimination conditions according to RGB intensity and ratio.
도 4에서 (b), (e), (f) 등은 정답에 가까운 처리 결과를 보여주나, 나머지는 오차가 큼을 알 수 있으며, 따라서 기존 RGB 방법의 경우 R, G, B의 세기나 비율에 따라 구름으로 인식되는 부분이 달라지는 단점이 있음을 알 수 있다. 특히 기존 RGB 방법의 경우 태양이 있을 경우에는 태양을 구름으로 인식할 확률이 높아진다. In FIG. 4, (b), (e), and (f) show processing results close to the correct answer, but it can be seen that the rest have large errors. Therefore, in the case of the existing RGB method, the intensity or ratio of R, G, and B It can be seen that there is a disadvantage that the part recognized as a cloud is different depending on the cloud. In particular, in the case of the existing RGB method, when there is a sun, the probability of recognizing the sun as a cloud increases.
한편, 도 5는 본 발명의 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면으로, 도 5의 (a)는 영상 획득 모듈에서 획득한 컬러 영상을, (b)는 작업자에 수동으로 변환된 이진 영상을, (c)는 본 발명의 일 실시 형태에 따라 변환된 이진 영상이다.Meanwhile, FIG. 5 is a diagram showing a comparison between an image processed according to an embodiment of the present invention and an image manually processed by a worker. ) is a binary image manually converted by the operator, and (c) is a binary image converted according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 변환된 이진 영상과 작업자에 의해 수동으로 변환된 이진 영상은 거의 동일함을 알 수 있다.As shown in FIG. 5 , it can be seen that the binary image converted according to an embodiment of the present invention and the binary image manually converted by the operator are almost the same.
한편, 도 6은 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시한 도면이다.Meanwhile, FIG. 6 is a diagram illustrating a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to another embodiment of the present invention.
도 6은, 도 3과 같이, 본 발명의 다른 일 실시 형태에 따른 심층 학습 모델인 영상 변환 모듈의 학습에 사용될 한 쌍의 학습 데이터를 도시하고 있으며, 상기 학습 데이터는 태양에 의한 밝은 빛이 포함된 영상을 나타낸다. 6, as shown in FIG. 3, shows a pair of learning data to be used for learning of an image conversion module, which is a deep learning model according to another embodiment of the present invention, and the learning data includes bright light from the sun. represents an image.
도 6의 (a)는 영상 획득 모듈(210)에서 획득한 컬러 영상을, 도 6의 (b)는 (a)의 컬러 영상을 작업자가 수동으로 이진 영상으로 변환한 것으로, 도 6의 (b)에서 바이너리 값이 '1'인 검정색 영역은 구름이 아닌 영역이며, 도 6의 (b)에서 바이너리 값이 '0'인 흰색 영역은 구름 영역이다. 특히, 도 6의 (a)의 하단 우측의 밝은 부분은 태양에 의한 것이다. Figure 6(a) shows the color image acquired by the
즉, 학습 데이터에 사용되는 컬러 영상은 적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상 등 다양한 조건의 영상을 포함하도록 함으로써, 측정 오차를 보다 줄일 수 있는 이점이 있으며, 구체적으로 도 6은 태양 광에 의해 구름과 같이 하얗게 보이는 영역을 포함한 컬러 영상이다. 상술한 내용과 중복되는 내용은 생략하기로 한다.That is, the color image used for the learning data includes images under various conditions, such as at least a color image with backlight, a color image at sunrise, and a color image at sunset, so that measurement errors can be further reduced. 6 is a color image including an area that looks white like a cloud by sunlight. Contents overlapping with the above will be omitted.
도 7은 기존 RGB 방법에 따른 구름 영역 판별 결과를 도시한 도면으로, (a)는 작업자가 수동으로 변환한 이진 영상이며, (b) 내지 (j)는 기존 RGB 방법에 따라 변환한 이진 영상이다. 상술한 [표 1]에 따라 RGB 세기와 비율에 따른 구름 판별 조건에 따라 구름 영역 판별 결과를 출력할 수 있다.7 is a diagram showing the cloud area discrimination results according to the existing RGB method, where (a) is a binary image manually converted by an operator, and (b) to (j) are binary images converted according to the existing RGB method. . According to the aforementioned [Table 1], the cloud area discrimination result can be output according to the cloud discrimination condition according to the RGB intensity and ratio.
도 7에서 (g), (h), (i) 등은 정답에 가까운 처리 결과를 보여주나, 나머지는 오차가 큼을 알 수 있으며, 기존 RGB 방법의 경우 R, G, B의 세기나 비율에 따라 구름으로 인식되는 부분이 조건에 따라 달라지는 단점이 있음을 알 수 있다. 특히 기존 RGB 방법의 경우 하늘 영상에 태양이 있을 경우에는 태양을 구름으로 인식할 확률이 높아진다. In FIG. 7, (g), (h), (i), etc. show processing results close to the correct answer, but it can be seen that the rest have large errors, and in the case of the existing RGB method, It can be seen that there is a disadvantage that the part recognized as a cloud varies depending on the conditions. In particular, in the case of the existing RGB method, when the sun is present in the sky image, the probability of recognizing the sun as a cloud increases.
즉, 도 7에 도시된 바와 같이, 기존 RGB 방법의 경우 태양에 의해 하얗게 보이는 영역을 구름 영역으로 인식하고 태양광 영역까지 구름 영역으로 이진 변환 수행하게 되는 문제점이 발생할 수 있다.That is, as shown in FIG. 7 , in the case of the conventional RGB method, a problem may occur in that an area that is seen as white by the sun is recognized as a cloud area and binary conversion is performed even to the sunlight area to the cloud area.
반면, 도 8은 본 발명의 다른 일 실시 형태에 따라 처리한 영상과 작업자가 수동으로 처리한 영상을 비교 도시한 도면으로, 도 8의 (a)는 영상 획득 모듈에서 획득한 컬러 영상을, (b)는 작업자에 수동으로 변환된 이진 영상을, (c)는 본 발명의 다른 일 실시 형태에 따라 변환된 이진 영상이다.On the other hand, FIG. 8 is a diagram showing a comparison between an image processed according to another embodiment of the present invention and an image manually processed by a worker. FIG. b) is a binary image manually converted by an operator, and (c) is a binary image converted according to another embodiment of the present invention.
도 8에 도시된 바와 같이, 본 발명의 다른 일 실시 형태에 따라 변환된 이진 영상과 작업자에 의해 수동으로 변환된 이진 영상은 거의 동일함을 알 수 있다.As shown in FIG. 8 , it can be seen that the binary image converted according to another embodiment of the present invention and the binary image manually converted by the operator are almost the same.
즉, 도 5 및 도 8에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 변환된 이진 영상은 구름이 있는 영역과 구름이 없는 영역을 혼동하지 않고 영상 변환할 수 있으며, 또는 태양광 영역과 구름 영역을 혼동하지 않고 영상 변환할 수 있어 하늘 상태가 시간 또는 기후에 따라 변동되더라도 정확하게 운량 측정을 수행할 수 있다.That is, as shown in FIGS. 5 and 8 , the binary image converted according to an embodiment of the present invention can be image-converted without confusing regions with clouds and regions without clouds, or Since image conversion is possible without confusing cloud areas, cloudiness measurement can be performed accurately even if the sky condition fluctuates according to time or weather.
한편, 도 9는 본 발명의 일 실시 형태에 따라 측정한 운량 오차와 기존 RGB 방법에 따라 측정한 운량 오차를 비교 도시한 도면으로, 도면부호 610(파랑색)은 기존 RGB 방법에 따라 측정한 운량 오차이며, 도면부호 620(빨간색)은 본 발명의 일 실시 형태에 따라 측정한 운량 오차이다.Meanwhile, FIG. 9 is a view showing a comparison of cloudiness errors measured according to an embodiment of the present invention and cloudiness errors measured according to the existing RGB method, and reference numeral 610 (blue) indicates cloudiness measured according to the existing RGB method. error, and reference numeral 620 (red) is a cloudiness error measured according to an embodiment of the present invention.
도 9에 도시된 바와 같이, 본 발명의 일 실시 형태에 따라 측정한 운량 오차는 대략 5% 이하인 반면, 기존 RGB 방법에 따라 측정한 운량 오차는 불규칙하며, 일부 영상에서는 운량 오차가 상당히 크다는 것을 알 수 있다.As shown in FIG. 9, it can be seen that the cloudiness error measured according to an embodiment of the present invention is approximately 5% or less, whereas the cloudiness error measured according to the existing RGB method is irregular, and the cloudiness error is quite large in some images. can
상술한 바와 같이, 본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.As described above, according to an embodiment of the present invention, learning using learning data in various cases (including learning data in which white balance changes, such as when there is backlight or at sunrise or sunset) By using the deep learning model, there is no need for a separate device to cover the sun, and there is an advantage in measuring cloudiness with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.
한편, 도 10은 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명하는 흐름도이다.Meanwhile, FIG. 10 is a flowchart illustrating a cloudiness measurement method using a deep learning model according to an embodiment of the present invention.
이하, 도 1 내지 도 10을 참조하여 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법을 설명한다. 다만, 발명의 간명화를 위해 도 1 내지 도 9에서 이미 설명한 사항과 중복된 부분에 대한 설명은 생략한다.Hereinafter, a cloudiness measurement method using a deep learning model according to an embodiment of the present invention will be described with reference to FIGS. 1 to 10 . However, for simplicity of the invention, descriptions of overlapping parts with those previously described in FIGS. 1 to 9 will be omitted.
도 1 및 내지 도 10을 참조하면, 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법(S700)은, 영상 획득 모듈(210)에서, 구름이 포함된 컬러 영상을 획득하는 단계에 의해 개시될 수 있다(S701). 이러한 영상 획득 모듈(210)은 어안 렌즈를 포함한 전천 카메라를 포함할 수 있다. 전천 카메라로 획득한 컬러 영상은 어안렌즈에 의한 왜곡이 있으므로, 영상 획득 모듈(210)은 이러한 어안렌즈에 의한 왜곡을 보정할 수 있음은 상술한 바와 같다. 1 and 10, in the cloudiness measurement method (S700) using a deep learning model according to an embodiment of the present invention, in the
영상 변환 모듈(220)은 획득한 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환할 수 있다(S702). 이러한 영상 변환 모듈(220)은 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델로, 상술한 심층 학습 모델은 픽스투픽스(pix2pix) 모델일 수 있음은 상술한 바와 같다.The
마지막으로, 운량 연산 모듈(230)은 영상 변환 모듈(220)에 의해 변환된 이진 영상으로부터 운량을 연산할 수 있다(S703). 여기서, 운량은 컬러 영상의 전체 영역 대비 구름 영역의 비율일 수 있음은 상술한 바와 같다.Finally, the
상술한 바와 같이, 본 발명의 일 실시 형태에 의하면, 다양한 경우의 학습 데이터(역광이 있는 경우나, 일출 또는 일몰 순간 등과 같이 화이트 밸런스(white balance)가 변화하는 학습 데이터를 포함)을 사용하여 학습된 심층 학습 모델을 이용함으로써, 별도의 태양을 가리는 장치가 불필요하며, 기존 RGB의 비율을 이용하여 운량을 측정하는 방법에 비하여 낮은 오차로 운량을 측정할 수 있는 이점이 있다.As described above, according to an embodiment of the present invention, learning using learning data in various cases (including learning data in which white balance changes, such as when there is backlight or at sunrise or sunset) By using the deep learning model, there is no need for a separate device to cover the sun, and there is an advantage in measuring cloudiness with a lower error compared to the existing method of measuring cloudiness using the ratio of RGB.
상술한 본 발명의 일 실시 형태에 따른 심층 학습 모델을 이용한 운량 측정 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The cloudiness measurement method using the deep learning model according to an embodiment of the present invention described above may be produced as a program to be executed on a computer and stored in a computer-readable recording medium. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, the computer-readable recording medium is distributed to computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention belongs.
또한, 본 발명을 설명함에 있어, '~ 모듈'은 다양한 방식, 예를 들면 프로세서, 프로세서에 의해 수행되는 프로그램 명령들, 소프트웨어 모듈, 마이크로 코드, 컴퓨터 프로그램 생성물, 로직 회로, 애플리케이션 전용 집적 회로, 펌웨어 등에 의해 구현될 수 있다.In addition, in describing the present invention, '~ module' refers to various methods, for example, a processor, program instructions executed by the processor, a software module, a microcode, a computer program product, a logic circuit, an application-specific integrated circuit, and firmware. etc. can be implemented.
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되지 아니한다. 첨부된 청구범위에 의해 권리범위를 한정하고자 하며, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경할 수 있다는 것은 당 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.The present invention is not limited by the above-described embodiments and accompanying drawings. It is intended to limit the scope of rights by the appended claims, and it is to those skilled in the art that various forms of substitution, modification and change can be made without departing from the technical spirit of the present invention described in the claims. It will be self-explanatory.
200: 운량 측정 장치
210: 영상 획득 모듈
220: 영상 변환 모듈
230: 운량 연산 모듈200: cloud measurement device
210: image acquisition module
220: image conversion module
230: cloud computing module
Claims (6)
획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 영상 변환 모듈; 및
변환된 상기 이진 영상으로부터 운량을 연산하는 운량 연산 모듈;을 포함하며,
상기 영상 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 장치.
An image acquisition module that acquires a color image including clouds;
an image conversion module for converting the acquired color image into a binary image including a cloud region and a non-cloud region; and
A cloudiness calculation module for calculating cloudiness from the converted binary image; includes,
The image conversion module is a deep learning model trained using a pre-collected color image and a binary image generated from the pre-collected color image as a pair of learning data.
상기 운량 연산 모듈은,
상기 운량을 연산할 때, 상기 이진 영상의 바이너리 값인 0인 영역을 구름 영역으로, 1인 영역을 구름 영역이 아닌 영역으로 하여 상기 운량을 연산하되, 컬러 영상의 R, G, B의 비율을 이용하지 않는, 심층 학습 모델을 이용한 운량 측정 장치.
According to claim 1,
The cloud computing module,
When calculating the cloudiness, the cloudiness is calculated by considering the area of 0, which is the binary value of the binary image, as the cloud area and the area of 1 as the non-cloud area, using the ratio of R, G, and B of the color image A cloud measurement device using a deep learning model that does not
상기 심층 학습 모델은,
픽스투픽스(pix2pix) 모델인, 심층 학습 모델을 이용한 운량 측정 장치.
According to claim 1,
The deep learning model,
A cloud measurement device using a pix2pix model, a deep learning model.
상기 기 수집된 컬러 영상은,
적어도 역광이 있는 컬러 영상, 일출시의 컬러 영상 및 일몰시의 컬러 영상을 포함하는, 심층 학습 모델을 이용한 운량 측정 장치.
According to claim 1,
The pre-collected color image,
An apparatus for measuring cloudiness using a deep learning model, including at least a color image with backlight, a color image at sunrise, and a color image at sunset.
상기 영상 획득 모듈은, 어안 렌즈를 포함한 전천 카메라를 포함하며,
상기 영상 획득 모듈은, 획득된 상기 컬러 영상 중 원형 이외의 부분은 검정색으로 채우는, 심층 학습 모델을 이용한 운량 측정 장치.
According to claim 1,
The image acquisition module includes an all-sky camera including a fisheye lens,
The image acquisition module fills a non-circular part of the acquired color image with black, cloudiness measurement device using a deep learning model.
변환 모듈에서, 획득한 상기 컬러 영상을 구름 영역과 구름 이외의 영역을 포함하는 이진 영상으로 변환하는 제2 단계; 및
운량 연산 모듈에서, 변환된 상기 이진 영상으로부터 운량을 연산하는 제3 단계;를 포함하며,
상기 변환 모듈은, 기 수집된 컬러 영상과 기 수집된 컬러 영상으로부터 생성된 이진 영상을 하나의 쌍으로 한 학습 데이터를 이용하여 학습시킨 심층 학습 모델인, 심층 학습 모델을 이용한 운량 측정 방법.A first step of obtaining a color image including clouds in an image acquisition module;
a second step of converting, by a conversion module, the acquired color image into a binary image including a cloud region and a non-cloud region; and
In a cloudiness calculation module, a third step of calculating cloudiness from the converted binary image; includes,
The conversion module is a deep learning model trained using a pre-collected color image and a binary image generated from the pre-collected color image as a pair of learning data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210144876A KR102635914B1 (en) | 2021-10-27 | 2021-10-27 | Apparatus and method of measuring amount of cloud using deep learning model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210144876A KR102635914B1 (en) | 2021-10-27 | 2021-10-27 | Apparatus and method of measuring amount of cloud using deep learning model |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230060296A true KR20230060296A (en) | 2023-05-04 |
KR102635914B1 KR102635914B1 (en) | 2024-02-14 |
Family
ID=86379810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210144876A KR102635914B1 (en) | 2021-10-27 | 2021-10-27 | Apparatus and method of measuring amount of cloud using deep learning model |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102635914B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05333160A (en) * | 1992-05-29 | 1993-12-17 | Sony Corp | Cloud amount measuring method and device |
US20170031056A1 (en) * | 2014-04-10 | 2017-02-02 | Board Of Regents, The University Of Texas System | Solar Energy Forecasting |
KR101709860B1 (en) | 2015-09-01 | 2017-02-23 | 강릉원주대학교산학협력단 | Former all-sky cloud cover in the sky using a RGB color image data output method and system |
KR20180055422A (en) * | 2016-11-17 | 2018-05-25 | 한국기술교육대학교 산학협력단 | Method and apparatus for quantifying cloud cover by using whole sky image |
KR102396001B1 (en) * | 2019-11-20 | 2022-05-11 | 주식회사 에이앤디시스템 | Method for calculating amount of clouds through photographing whole sky |
-
2021
- 2021-10-27 KR KR1020210144876A patent/KR102635914B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05333160A (en) * | 1992-05-29 | 1993-12-17 | Sony Corp | Cloud amount measuring method and device |
US20170031056A1 (en) * | 2014-04-10 | 2017-02-02 | Board Of Regents, The University Of Texas System | Solar Energy Forecasting |
KR101709860B1 (en) | 2015-09-01 | 2017-02-23 | 강릉원주대학교산학협력단 | Former all-sky cloud cover in the sky using a RGB color image data output method and system |
KR20180055422A (en) * | 2016-11-17 | 2018-05-25 | 한국기술교육대학교 산학협력단 | Method and apparatus for quantifying cloud cover by using whole sky image |
KR102396001B1 (en) * | 2019-11-20 | 2022-05-11 | 주식회사 에이앤디시스템 | Method for calculating amount of clouds through photographing whole sky |
Non-Patent Citations (2)
Title |
---|
Stefan Hensel 외 3명. Evaluation of Deep Learning-Based Neural Network Methods for Cloud Detection and Segmentation. Energies. 2021.09.22, Vol.14, Issue.19, <인터넷:https://www.mdpi.com/1996-1073/14/19/6156> 1부.* * |
두더지 개발자. [python/Keras] GAN pix2pix. 티스토리. [online], 2020.04.28, [2023년 9월 19일 검색], <인터넷:https://engineer-mole.tistory.com/45> 1부.* * |
Also Published As
Publication number | Publication date |
---|---|
KR102635914B1 (en) | 2024-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108333148B (en) | Method and device for identifying black and odorous water body | |
Macfarlane | Classification method of mixed pixels does not affect canopy metrics from digital images of forest overstorey | |
US20210201452A1 (en) | Image dehazing and restoration | |
US7489345B2 (en) | Image processing apparatus, image-taking system, image processing method and image processing program | |
US20160260306A1 (en) | Method and device for automated early detection of forest fires by means of optical detection of smoke clouds | |
Brusa et al. | Increasing the precision of canopy closure estimates from hemispherical photography: Blue channel analysis and under-exposure | |
US20170094169A1 (en) | Image processing system, imaging apparatus, image processing method, and computer-readable storage medium | |
US9811746B2 (en) | Method and system for detecting traffic lights | |
CN104168478B (en) | Based on the video image color cast detection method of Lab space and relevance function | |
US8577170B2 (en) | Shadow detection in a single image | |
US9460521B2 (en) | Digital image analysis | |
US8786729B2 (en) | White balance method and apparatus thereof | |
CN108200353B (en) | Method for detecting environment light of security monitoring camera | |
CN102881160B (en) | Outdoor traffic sign identification method under low-illumination scene | |
US9025820B2 (en) | Image processing apparatus and image processing method | |
KR20180055422A (en) | Method and apparatus for quantifying cloud cover by using whole sky image | |
Pawar et al. | Detecting clear sky images | |
JP2005242488A (en) | Object detecting device, object detecting method and program | |
CN111311500A (en) | Method and device for carrying out color restoration on image | |
KR20230060296A (en) | Apparatus and method of measuring amount of cloud using deep learning model | |
Saito et al. | Cloud discrimination from sky images using a clear-sky index | |
CN116310889A (en) | Unmanned aerial vehicle environment perception data processing method, control terminal and storage medium | |
KR102396001B1 (en) | Method for calculating amount of clouds through photographing whole sky | |
JP5510468B2 (en) | License plate color determination device, computer program, and license plate color determination method | |
KR101370545B1 (en) | Method for Conducting Selectively Image Improving Treatment Based on Automatical Image Data Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |