KR101874968B1 - 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법 - Google Patents

이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법 Download PDF

Info

Publication number
KR101874968B1
KR101874968B1 KR1020170084071A KR20170084071A KR101874968B1 KR 101874968 B1 KR101874968 B1 KR 101874968B1 KR 1020170084071 A KR1020170084071 A KR 1020170084071A KR 20170084071 A KR20170084071 A KR 20170084071A KR 101874968 B1 KR101874968 B1 KR 101874968B1
Authority
KR
South Korea
Prior art keywords
image
image information
layers
generated
weather
Prior art date
Application number
KR1020170084071A
Other languages
English (en)
Inventor
채신태
Original Assignee
(주)시정
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)시정 filed Critical (주)시정
Priority to KR1020170084071A priority Critical patent/KR101874968B1/ko
Application granted granted Critical
Publication of KR101874968B1 publication Critical patent/KR101874968B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N9/07
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30192Weather; Meteorology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

이미지 정보를 콘볼루션 신경망(Convolutional Neural Network)을 이용하여 영상 처리하여, 기상 상태를 분석하고, 이를 기반으로 시정거리를 산출하는 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법이 개시된다. 본 이미지 정보 기반의 시정거리 측정 시스템은 특정 영역에 대한 이미지 정보를 획득하는 이미지 정보 획득부; 콘볼루션 신경망(Convolutional Neural Network)을 이용하여, 상기 이미지 정보를 영상 처리하는 영상 처리부; 상기 영상 처리 결과를 기반으로 상기 특정 영역의 기상 상태를 분석하는 기상 분석부; 및 상기 특정 영역의 기상 상태의 분석 결과를 기반으로 시정거리를 산출하는 시정거리 산출부;를 포함한다. 이에 의해, 콘벌루션 신경망을 활용하여 미세먼지 또는 초미세먼지와 같은 대기오염을 정량적으로 파악할 수 있으며, 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우, 시정거리를 산출하여, 시정 악화로 인한 경제적 손실을 예방할 수 있다.

Description

이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법{Visibility measuring system base on image information and method for using the same}
본 발명은 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법에 관한 것으로, 보다 상세하게는 이미지 정보를 콘볼루션 신경망(Convolutional Neural Network)을 이용하여 영상 처리하여, 기상 상태를 분석하고, 이를 기반으로 시정거리를 산출하는 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법에 관한 것이다.
시정(Visibility)은 낮에는 수평방향으로 먼 거리의 지형 또는 물체를 보통 육안으로 식별할 수 있는 최대거리이고, 야간에는 주간과 같은 밝은 상태를 가정했을 때에 목표물을 식별할 수 있는 최대거리일 수 있다.
이러한 시정을 측정하는 방법에는 시각적 측정법, 광학적 측정법 및 영상학적 측정법이 활용되고 있다. 시정거리는 대기오염을 정량적으로 파악할 수 있는 지표로서의 역할이 가능할 뿐만 아니라, 공항, 도로, 해양 등에서 시정 악화로 인한 경제적 손실을 사전에 예방하는 기능을 수행할 수 있다.
최근에는 일기 예보에 미세먼지의 예보가 포함될 정도로 미세먼지 또는 초미세먼지가 심각한 사회문제로 야기되고 있으며, 도 1b에 도시된 바와 같이 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우, 미세먼지 또는 초미세먼지의 발생 정도를 정량적으로 분석하고, 시정거리를 산출하는 것이 중요한 이슈로 떠오르고 있다.
종래에는 이러한 시정거리를 산출하기 위하여, 대상물에 대하여 직접 광학측정을 하거나, 지리적 정보와 원근법 그리고 비선형함수를 이용하여 시정거리를 측정하는 방식이 개발되었으나, 딥 러닝과 같은 비선형 변환기법의 발달로 인하여, 기존보다 더욱 정밀한 방식으로 시정 악화시 시정거리를 측정하고자 하는 수요가 점차 증가 되고 있다.
한편, 딥 러닝(Deep learning)은 여러 비선형 변환 기법을 이용해서 학습 데이터에 대한 높은 수준의 추상화를 통해 데이터의 주요 특징들을 추출한 다음, 데이터 군집 및 분류를 수행하는 기계학습의 일종으로 Auto Encoder, DBN (Deep Belief Network), 콘벌루션 신경망(convolutional neural network) 등을 활용하는 방법이 있으며, 특히, 딥 러닝의 지도학습(Supervised Learning) 모델 가운데 하나인 콘벌루션 신경망은 최근 영상인식을 포함한 여러 영역에서 탁월한 성능을 보이고 있다.
이에, 콘벌루션 신경망을 활용하여 미세먼지 또는 초미세먼지와 같은 대기오염을 정량적으로 파악하고, 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우, 시정거리를 산출하여, 시정 악화로 인한 경제적 손실을 예방할 수 있는 방안의 모색이 요구된다.
한국등록특허 제10-1503213호(발명의 명칭: 영상 이미지의 지리정보 및 패턴인식 기술을 이용한 시정거리 측정 장치 및 그 측정 방법)
본 발명은 상기와 같은 문제를 해결하기 위해 안출된 것으로, 본 발명의 목적은, 콘벌루션 신경망을 활용하여 미세먼지 또는 초미세먼지와 같은 대기오염을 정량적으로 파악하고, 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우, 시정거리를 산출하는 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 이미지 정보 기반의 시정거리 측정 시스템은 특정 영역에 대한 이미지 정보를 획득하는 이미지 정보 획득부; 콘볼루션 신경망(Convolutional Neural Network)을 이용하여, 상기 이미지 정보를 영상 처리하는 영상 처리부; 상기 영상 처리 결과를 기반으로 상기 특정 영역의 기상 상태를 분석하는 기상 분석부; 및 상기 특정 영역의 기상 상태의 분석 결과를 기반으로 시정거리를 산출하는 시정거리 산출부;를 포함한다.
여기서, 상기 이미지 정보 획득부는, 상기 특정 영역을 촬영하여, 영상 정보가 생성되도록 하고, 상기 영상 정보에서 영상 프레임별 또는 시간 주기별로 특정 이미지들을 추출함으로써, 상기 이미지 정보를 획득하고, 상기 영상 처리부는, 상기 추출된 이미지들이 메타 데이터에 따라 필터링되도록 하여, 복수의 콘벌루션 계층(convolutional layer)을 생성할 수 있다.
그리고 상기 영상 처리부는, 상기 추출된 이미지들이 타임 메타 데이터에 따라 필터링되도록 하여 제1 콘벌루션 계층을 복수로 생성하고, 상기 제1 콘벌루션 계층이 복수로 생성되면, 풀링 필터(pooling filter)를 이용하여 각각의 제1 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링(sub-sampling)을 수행하여 제1 서브 샘플링 계층을 복수로 생성하고, 상기 타임 메타 데이터는, 현재시간 주기의 정지 영상과 이전시간 주기의 정지 영상 또는 현재 영상프레임과 이전 영상프레임이 비교되어, 상기 특정 영역에 대한 이미지 정보를 구성하는 이미지 데이터 중 차이가 발생된 이미지 데이터들의 추상적 특징만이 선별되어 포함될 수 있다.
또한, 상기 영상 처리부는, 상기 제1 서브 샘플링 계층이 복수로 생성되면, 상기 생성된 복수의 제1 서브 샘플링 계층이 기상 메타 데이터에 따라 필터링되도록 하여, 제2 콘벌루션 계층을 복수로 생성하되, 상기 제2 콘벌루션 계층이 복수로 생성되면, 상기 풀링 필터를 이용하여 각각의 제2 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제2 서브 샘플링 계층을 복수로 생성하고, 상기 기상 메타 데이터는, 비, 눈, 구름, 바람 또는 안개의 발생 여부와 발생 정도 및 기온과 미세먼지 농도에 따라 상기 특정 영역에서 추출 가능한 기상 상태별 추상적 특징이 포함될 수 있다.
그리고 상기 영상 처리부는, 상기 기상 메타 데이터에 상기 특정 영역의 가시거리가 기설정된 거리범위 미만이 되도록 하는 안개가 발생된 기상 상태의 추상적 특징 또는 상기 특정 영역의 미세먼지의 농도가 기설정된 농도범위를 초과한 기상 상태의 추상적 특징이 포함되면, 상기 안개 또는 상기 미세먼지의 특징이 포함된 기상 메타 데이터에 따라 상기 추출된 이미지들이 필터링되어, 생성된 제2 콘벌루션 계층이 복수로 생성되도록 하되, 하나의 평균 풀링 필터(average pooling filter)에 포함되는 이미지 데이터 유닛들에 포함된 안개의 빈도 또는 미세먼지의 농도의 평균값이 산출되어, 상기 하나의 평균 풀링 필터에 포함된 이미지 데이터 유닛들이 상기 산출된 평균값이 포함된 하나의 이미지 데이터 유닛으로 축소 변환되어 제2 서브 샘플링 계층이 생성되도록 할 수 있다.
또한, 상기 영상 처리부는, 각각의 제2 서브 샘플링 계층에 하나의 특징만이 포함되도록 하되, 상기 각각의 제2 서브 샘플링 계층이 생성되면, 상기 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류할 수 있다.
그리고 상기 영상 처리부는, 상기 특정 영역의 기상 상태에 따른 각각의 이미지 정보를 저장하고, 상기 기저장된 각각의 이미지 정보와 상기 각각의 제2 서브 샘플링 계층을 비교하여, 상기 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류하도록 할 수 있다.
또한, 상기 기상 분석부는, 상기 각각의 제2 서브 샘플링 계층이 기상 상태별로 분류된 결과를 기반으로, 상기 특정 영역의 기상 상태를 분석하되, 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부뿐만 아니라, 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 정도가 수치(numerical value)로 산출되도록 할 수 있다.
또한, 상기 시정거리 산출부는, 상기 특정 영역에 비, 눈, 구름, 바람, 안개 또는 미세먼지가 발생되지 않은 기상 상태인 경우의 시정거리를 기준 값으로 설정하고, 상기 기상 분석부에 의해, 분석된 기상 상태에 따라 퍼지 논리가 반영된 시정거리 함수를 결정함으로써, 상기 설정된 시정거리의 기준 값에 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부와 발생 정도가 반영된 시정거리의 변화량이 산출되도록 할 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 이미지 정보 기반의 시정거리 측정 방법은 이미지 정보 획득부가 특정 영역에 대한 이미지 정보를 획득하는 단계; 영상 처리부가 콘볼루션 신경망을 이용하여, 상기 이미지 정보를 영상 처리하는 단계; 기상 분석부가 상기 영상 처리 결과를 기반으로 상기 특정 영역의 기상 상태를 분석하는 단계; 및 시정거리 산출부가 상기 특정 영역의 기상 상태의 분석 결과를 기반으로 시정거리를 산출하는 단계;를 포함한다.
이에 의해, 콘벌루션 신경망을 활용하여 미세먼지 또는 초미세먼지와 같은 대기오염을 정량적으로 파악할 수 있으며, 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우, 시정거리를 산출하여, 시정 악화로 인한 경제적 손실을 예방할 수 있다.
도 2은 본 발명의 일 실시예에 따른 이미지 정보 기반의 시정거리 측정 시스템을 설명하기 위해 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 영상 처리부가 콘벌루션 신경망을 이용하여 이미지 정보를 영상 처리하는 과정을 설명하기 위해 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상 처리부가 영상 처리부가 콘벌루션 신경망의 콘벌루션 계층을 생성하는 과정을 설명하기 위해 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 처리부가 영상 처리부가 콘벌루션 신경망의 제1 콘벌루션 계층을 생성하는 과정을 설명하기 위해 도시한 도면이다.
도 6는 본 발명의 일 실시예에 따른 이미지 정보 기반의 시정거리 측정 방법을 설명하기 위해 도시한 도면이다.
이하에서는 도면을 참조하여 본 발명에 대해 보다 상세히 설명하기로 한다. 이하에 소개되는 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 본 발명은 이하 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다.
도 2은 본 발명의 일 실시예에 따른 이미지 정보 기반의 시정거리 측정 시스템(이하에서는 '시정거리 측정 시스템'으로 총칭함)을 설명하기 위해 도시한 도면이다.
이하에서는 도 2를 참조하여 본 실시예에 따른 시정거리 측정 시스템을 설명하기로 한다.
본 시정거리 측정 시스템은 콘벌루션 신경망을 활용하여 미세먼지 또는 초미세먼지와 같은 대기오염을 정량적으로 파악하고, 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우, 시정거리를 산출하기 위해 마련된다.
이를 위하여, 본 시정거리 측정 시스템은, 이미지 정보 획득부(100), 영상 처리부(200), 기상 분석부(300) 및 시정거리 산출부(400)를 포함한다.
이미지 정보 획득부(100)는, 특정 영역에 대한 이미지 정보를 획득하기 위해 마련된다. 구체적으로 이미지 정보 획득부(100)는, 카메라가 구비되어, 특정 영역을 촬영하여, 동영상 타입의 이미지 정보를 생성할 수 있다.
영상 처리부(200)는, 콘볼루션 신경망(Convolutional Neural Network)을 이용하여, 이미지 정보 획득부(100)로부터 수신된 이미지 정보를 영상 처리하기 위해 마련된다.
구체적으로 영상 처리부(200)는, 이미지 정보 획득부(100)와 무선 또는 유선 데이터 통신 네트워크로 연결되어, 이미지 정보를 수신할 수 있으며, 수신된 이미지 정보에서 영상 프레임별 또는 시간 주기별로 특정 이미지들을 추출할 수 있다. 그리고 영상 처리부(200)는 추출된 특정 이미지들을 콘볼루션 신경망을 이용하여 영상 처리할 수 있다. 여기서, 영상 처리부(200)가 추출된 특정 이미지들을 영상 처리하는 과정은 후술하기로 한다.
기상 분석부(300)는, 이미지 정보를 영상 처리한 결과를 기반으로 특정 영역의 기상 상태를 분석하기 위해 마련된다. 구체적으로, 기상 분석부(300)는, 영상 처리 결과를 기반으로 특정 영역에 비, 눈, 구름, 바람 또는 안개의 발생 여부를 알 수 있으며, 비, 눈, 구름, 바람 또는 안개의 발생 정도와 기온, 미세먼지의 농도 등을 산출할 수 있다.
시정거리 산출부(400)는 특정 영역의 기상 상태를 분석한 분석 결과를 기반으로 시정거리를 산출하기 위해 마련된다. 구체적으로, 시정거리 산출부(400)는 특정 영역에 비, 눈, 구름, 바람, 안개 또는 미세먼지가 발생되지 않은 기상 상태인 경우의 시정거리를 기준 값으로 설정하고, 기상 분석부에 의해, 분석된 기상 상태에 따라 퍼지 논리가 반영된 시정거리 함수를 결정함으로써, 설정된 시정거리의 기준 값에 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부와 발생 정도가 반영된 시정거리의 변화량이 산출되도록 할 수 있다. 이를 통해, 시정거리 산출부(400)는 특정 영역의 시정거리를 산출할 수 있다.
이에 의해, 본 시정거리 측정 시스템은 콘벌루션 신경망을 활용하여 미세먼지 또는 초미세먼지와 같은 대기오염을 정량적으로 파악할 수 있으며, 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우, 시정거리를 산출하여, 시정 악화로 인한 경제적 손실을 예방할 수 있다.
도 3은 본 발명의 일 실시예에 따른 영상 처리부(200)가 콘벌루션 신경망을 이용하여 이미지 정보를 영상 처리하는 과정을 설명하기 위해 도시한 도면이며, 도 4는 본 발명의 일 실시예에 따른 영상 처리부(200)가 콘벌루션 계층을 생성하는 과정을 설명하기 위해 도시한 도면이고, 도 5는 본 발명의 일 실시예에 따른 영상 처리부(200)가 제1 콘벌루션 계층을 생성하는 과정을 설명하기 위해 도시한 도면이다.
이하에서는 도 3 내지 도 5를 참조하여, 본 실시예에 따른 영상 처리부(200)가 콘벌루션 신경망을 이용하여 이미지 정보를 영상 처리하는 과정을 설명하기로 한다.
도 2를 참조하여 전술한 바와 같이 본 실시예에 따른 영상 처리부(200)는, 이미지 정보 획득부(100)로부터 수신된 이미지 정보에서 영상 프레임별 또는 시간 주기별로 특정 이미지들을 추출할 수 있다.
여기서, 영상 처리부(200)는 추출된 특정 이미지들을 학습 데이터로 활용하여, 다양한 기상 상태들에 대한 추상적 특징들을 개별적으로 추출하고, 추출된 추상적 특징들을 분류하여, 특정 이미지가 어떠한 기상 상태에 촬영된 것인지 추정하도록 할 수 있다.
이러한 동작 특성들을 수행하기 위하여, 영상 처리부(200)는, 추출된 특정 이미지들이 메타 데이터에 따라 필터링되도록 하여, 복수의 콘벌루션 계층(convolutional layer)을 생성하고, 생성된 콘벌루션 계층의 사이즈를 축소하여 서브 샘플링 계층을 생성한 뒤, 이들을 분류하여, 기상 상태별로 추출된 추상적 특징들을 학습하도록 할 수 있다.
여기서, 메타 데이터는, 특정 이미지들의 정보들 가운데, 우리가 추출하고자 하는 정보들을 필터링하도록 하는 영상 필터의 속성 정보를 의미한다.
도 4a 내지 도 4b은 이미지 정보 또는 이미지 정보에서 추출된 이미지 정보 및 영상 필터에 포함된 정보들을 수치로 예를 들어 도시한 도면이다. 본 실시예에 따른 이미지 정보 또는 이미지 정보에서 추출된 이미지 정보 및 영상 필터에 포함된 정보들은 도 5에 도시된 바와 같이 형상 및 색상이 시각적으로 표현된 정보로 이해하는 것이 바람직하다.
다시 도 4을 참조하여 메타 데이터를 설명하면, 메타 데이터는 도 4a에 도시된 영상 필터에서 X1, X0, X1, X0, X1, X0, X1, X0, X1 값(1행 1열부터 3행 3열)을 가지는 속성 정보이다.
이때, 영상 처리부(200)는, 이미지 정보에 포함된 정보들(도 4a 내지 도 4b에 도시된 0 또는 1의 값에 해당함, 이하에서는 '이미지 데이터'로 총칭함)을 메타 데이터에 따라 필터링되도록 하여, 필터링 결과를 모두 합산하여 콘벌루션 특징을 추출할 수 있다.
도 4a을 참조하면, 이미지 데이터들이 메타 데이터에 필터링되어(1X1+1X0+0X1+1X0+1X1+1X0+0X1+1X0+1X1), 필터링 결과(1+0+0+0+1+0+0+0+1)를 합산하여 콘벌루션 특징(3)을 추출할 수 있다.
이때, 도 4는 설명의 편의를 위해, 영상 처리부(200)에 의해 추출된 특정 이미지들이 5X5 구조의 이미지 데이터들의 결합으로 도시하고, 영상 필터는 3X3 구조의 메타 데이터들의 결합으로 도시하였으나, 실제 본 실시예에 따른 영상 처리부(200)에 의해 추출된 특정 이미지들이 32X32 구조의 이미지 데이터들의 결합으로 구현되고, 영상 필터는 5X5 구조의 메타 데이터들의 결합으로 구현되어, 콘벌루션 특징들이 매핑된 28X28 구조의 콘벌루션 계층을 6장 생성할 수 있다.
한편, 영상 처리부(200)는, 추출된 특정 이미지들이 타임 메타 데이터에 따라 필터링되도록 하여 제1 콘벌루션 계층을 복수로 생성하고, 제1 콘벌루션 계층이 복수로 생성되면, 풀링 필터(pooling filter)를 이용하여 각각의 제1 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링(sub-sampling)을 수행하여 제1 서브 샘플링 계층을 복수로 생성할 수 있다.
풀링 필터에 대하여 간략하게 설명하면, 풀링 필터는 각각의 제1 콘벌루션 계층의 사이즈를 개별적으로 축소하여, 서브 샘플링 계층을 생성하는데, 콘벌루션 특징(추상적 특징)을 선별하는 과정에 따라, 가장 중요한 추상적 특징만 남기는 최대 풀링 필터과 추상적 특징들의 평균값을 산출하는 평균 풀링 필터로 나뉠 수 있으나, 본 실시예의 영상 처리부(200)는, 대기오염을 정량적으로 파악하기 위해, 평균 풀링 필터를 이용하여, 콘벌루션 계층의 사이즈를 축소하여 서브 샘플링 계층을 생성하도록 한다.
구체적으로, 영상 처리부(200)는 28X28 구조의 콘벌루션 계층이 6장 생성된 경우, 각각의 콘벌루션 계층을 평균 풀링 필터를 이용하여, 서브 샘플링하여 14X14 구조의 서브 샘플링 계층을 6장 생성할 수 있다.
여기서, 타임 메타 데이터는, 시간에 따라 이미지 내에서의 형상 또는 색상이 변경된 이미지 데이터라고 가정하면, 도 5에 도시된 바와 같이 현재시간 주기의 영상과 이전시간 주기의 영상 또는 현재 영상프레임과 이전 영상프레임이 비교되어, 특정 영역에 대한 이미지 정보를 구성하는 이미지 데이터 중 차이가 발생된 이미지 데이터들의 추상적 특징만이 선별되어 포함될 수 있다.
제1 서브 샘플링 계층이 복수로 생성되면, 영상 처리부(200)는, 생성된 복수의 제1 서브 샘플링 계층이 기상 메타 데이터에 따라 필터링되도록 하여, 제2 콘벌루션 계층을 복수로 생성하되, 제2 콘벌루션 계층이 복수로 생성되면, 풀링 필터를 이용하여 각각의 제2 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제2 서브 샘플링 계층을 복수로 생성할 수 있다.
이때, 기상 메타 데이터는, 비, 눈, 구름, 바람 또는 안개의 발생 여부와 발생 정도 및 기온과 미세먼지 농도에 따라 특정 영역에서 추출 가능한 기상 상태별 특징이 포함될 수 있다.
예를 들어, 영상 처리부(200)는, 기상 메타 데이터에 특정 영역의 가시거리가 기설정된 거리범위 미만이 되도록 하는 안개가 발생된 기상 상태의 특징 또는 특정 영역의 미세먼지의 농도가 기설정된 농도범위를 초과한 기상 상태의 특징이 포함되면, 안개 또는 미세먼지의 특징이 포함된 기상 메타 데이터에 따라 추출된 이미지들이 필터링되어, 생성된 제2 콘벌루션 계층이 복수로 생성되도록 하되, 하나의 평균 풀링 필터(average pooling filter)에 포함되는 이미지 데이터 유닛들에 포함된 안개의 빈도 또는 미세먼지의 농도의 평균값이 산출되어, 하나의 평균 풀링 필터에 포함된 이미지 데이터 유닛들이 산출된 평균값이 포함된 하나의 이미지 데이터 유닛(1X1 구조)으로 축소 변환되어 제2 서브 샘플링 계층이 생성되도록 할 수 있다.
좀 더 첨언하면, 평균 풀링 필터를 이용하여 서브 샘플링 계층을 생성하는 경우, 콘벌루션 계층의 사이즈는 1/4로 축소됨에 따라, 제2 서브 샘플링 과정이 한번 수행하는 것이 아니라, 이미지 데이터 유닛이 1X1 구조로 구현될 때까지 제2 서브 샘플링 과정이 반복 수행될 수 있다.
그리고 영상 처리부(200)는, 특정 영역의 기상 상태에 따른 각각의 이미지 정보를 저장하고, 각각의 제2 서브 샘플링 계층에 하나의 추상적 특징만이 포함되도록 하되, 각각의 제2 서브 샘플링 계층이 생성되면, 기저장된 각각의 이미지 정보와 각각의 제2 서브 샘플링 계층을 비교하여, 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류할 수 있다.
분류화 과정은 비가 오고 있는지, 눈이 오고 있는지, 구름이 껴 있는지, 바람이 불고 있는지, 안개가 발생된 것인지, 비가 얼마나 오고 있는지, 눈이 얼마나 오고 있는지, 기온이 몇도 인지, 미세먼지의 농도가 얼마인지와 같은 다양한 항목들로 분류될 수 있으며, 이를 위하여, 영상 처리부(200)는, 기상 상태의 발생 정도에 대한 분류 항목에 대응되는 수치 값은 퍼지 함수와 같은 비선형 함수를 이용하여, 산출하도록 함으로써, 기상 상태를 정략적으로 분석할 수 있다.
다른 예를 들면, 영상 처리부(200)는, 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류하는 과정에서 발생되는 오차를 최소화하기 위해, 기저장된 각각의 이미지 정보에 포함된 이미지 데이터 유닛의 R(red), G(green), B(blue) 색상별 명암도의 평균값을 산출하여 룩업 테이블에 기록하고, 각각의 제2 서브 샘플링 계층이 생성되면, 룩업 테이블을 기반으로, 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류할 수 있다.
여기서, 비선형 변환에 대한 이미지 데이터 유닛의 명암도의 평균값을 산출하여 룩업테이블에 기록하는 것이기 때문에, 영상 처리부(200)는, 룩업 테이블 자체의 데이터가 지나치게 무거워질 수 있기 때문에, 제2 서브 샘플링 과정이 반복 수행되어, 이미지 데이터 유닛이 1X1 구조로 구현된 경우에만, 1X1 구조의 이미지 데이터 유닛의 R(red), G(green), B(blue) 색상별 명암도의 평균값을 산출하여 룩업 테이블에 기록하도록 한다.
도 6는 본 발명의 일 실시예에 따른 이미지 정보 기반의 시정거리 측정 방법(이하에서는 '영상 처리 방법'으로 총칭함)을 설명하기 위해 도시한 도면이다.
이하에서는 도 6을 참조하여 본 실시예에 따른 영상 처리 방법을 설명하기로 한다.
이미지 정보 획득부(100)는, 특정 영역을 촬영하여, 동영상 타입의 영상 정보를 생성하고, 생성된 영상 정보에서 영상 프레임별 또는 시간 주기별로 특정 이미지들을 추출하여 이미지 정보를 획득할 수 있다(S610).
특정 이미지들이 추출되면, 영상 처리부(200)는 추출된 특정 이미지들이 메타 데이터에 따라 필터링되도록 하여, 복수의 콘벌루션 계층(convolutional layer)을 생성할 수 있다.
구체적으로, 영상 처리부(200)는, 추출된 특정 이미지들이 타임 메타 데이터에 따라 필터링되도록 하여 제1 콘벌루션 계층을 복수로 생성하고(S620), 제1 콘벌루션 계층이 복수로 생성되면, 풀링 필터(pooling filter)를 이용하여 각각의 제1 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링(sub-sampling)을 수행하여 제1 서브 샘플링 계층을 복수로 생성할 수 있다(S630).
또한, 제1 서브 샘플링 계층이 복수로 생성되면, 영상 처리부(200)는, 생성된 복수의 제1 서브 샘플링 계층이 기상 메타 데이터에 따라 필터링되도록 하여, 제2 콘벌루션 계층을 복수로 생성하되(S640), 제2 콘벌루션 계층이 복수로 생성되면, 풀링 필터를 이용하여 각각의 제2 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제2 서브 샘플링 계층을 복수로 생성할 수 있다(S650).
각각의 제2 서브 샘플링 계층이 생성되면, 영상 처리부(200)는, 기저장된 각각의 이미지 정보와 각각의 제2 서브 샘플링 계층을 비교하여, 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류할 수 있다(S660).
제2 서브 샘플링 계층이 기상 상태별로 분류되면, 기상 분석부(300)는, 이미지 정보를 영상 처리한 결과를 기반으로 특정 영역의 기상 상태를 분석할 수 있다.
구체적으로, 기상 분석부(300)는 이미지 정보를 영상 처리하여 기상 상태를 분석한 분석 결과를 기반으로 특정 영역의 기상 상태가 맑음인지 아니면, 비, 눈, 구름, 바람, 안개, 미세먼지 등이 발생된 기상 상태인지 판단할 수 있다(S670).
특정 영역의 기상 상태가 맑은 것으로 판단되면(S670-Yes), 시정거리 산출부(400)는 맑은 날의 시정거리를 기준 값으로 설정할 수 있다(S675).
이와 반대로 특정 영역의 기상 상태가 맑은 것으로 판단되면(S670-No), 기상 분석부(300)가 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부뿐만 아니라, 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 정도가 수치(numerical value)로 산출하여(S680), 수치로 산출된 기상 상태에 수치 값을 시정거리 산출부(400)에 전달하고, 시정거리 산출부(400)는 분석된 기상 상태에 따라 퍼지 논리가 반영된 시정거리 함수를 결정함으로써(S685), 설정된 시정거리의 기준 값에 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부와 발생 정도가 반영된 시정거리의 변화량이 산출되도록 할 수 있다. 즉, 시정 거리 함수에 설정된 기준 값과 기상 상태의 수치 값이 입력되어, 시정 거리의 변화량이 산출될 수 있다(S690). 이를 통해, 시정거리 산출부(400)는 특정 영역의 시정거리를 산출할 수 있다.
여기서, 맑은 날은 특정 영역에 비, 눈, 구름, 바람, 안개 또는 미세먼지가 발생되지 않은 날의 기상 상태이다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 이미지 정보 획득부
200 : 영상 처리부
300 : 기상 분석부
400 : 시정거리 산출부

Claims (10)

  1. 특정 영역에 대한 이미지 정보를 획득하는 이미지 정보 획득부;
    콘벌루션 신경망(Convolutional Neural Network)을 이용하여, 상기 이미지 정보를 영상 처리하는 영상 처리부;
    상기 영상 처리 결과를 기반으로 상기 특정 영역의 기상 상태를 분석하는 기상 분석부; 및
    상기 특정 영역의 기상 상태의 분석 결과를 기반으로 시정거리를 산출하는 시정거리 산출부;를 포함하고,
    상기 이미지 정보 획득부는,
    상기 특정 영역을 촬영하여, 영상 정보가 생성되도록 하고, 상기 영상 정보에서 영상 프레임별 또는 시간 주기별로 32X32 구조의 특정 이미지들을 추출함으로써, 상기 이미지 정보를 획득하고,
    상기 영상 처리부는,
    상기 추출된 이미지들이 메타 데이터에 따라 필터링되도록 하여, 복수의 콘벌루션 계층(convolutional layer)을 생성하되,
    상기 추출된 32X32 구조의 이미지들이 5X5 구조의 타임 메타 데이터에 따라 필터링되도록 하여 28X28 구조의 제1 콘벌루션 계층을 복수로 생성하고,
    상기 28X28 구조의 제1 콘벌루션 계층이 복수로 생성되면, 풀링 필터(pooling filter)를 이용하여 각각의 28X28 구조의 제1 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링(sub-sampling)을 수행하여 14X14 구조의 제1 서브 샘플링 계층을 복수로 생성하고,
    상기 타임 메타 데이터는,
    현재시간 주기의 정지 영상과 이전시간 주기의 정지 영상 또는 현재 영상프레임과 이전 영상프레임이 비교되어, 상기 특정 영역에 대한 이미지 정보를 구성하는 이미지 데이터 중 차이가 발생된 이미지 데이터들의 추상적 특징만이 선별되어 포함되고,
    상기 영상 처리부는,
    상기 14X14 구조의 제1 서브 샘플링 계층이 복수로 생성되면, 상기 생성된 복수의 14X14 구조의 제1 서브 샘플링 계층이 기상 메타 데이터에 따라 필터링되도록 하여, 제2 콘벌루션 계층을 복수로 생성하되,
    상기 제2 콘벌루션 계층이 복수로 생성되면, 상기 풀링 필터를 이용하여 각각의 제2 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제2 서브 샘플링 계층을 복수로 생성하고,
    상기 기상 메타 데이터는,
    비, 눈, 구름, 바람 또는 안개의 발생 여부와 발생 정도 및 기온과 미세먼지 농도에 따라 상기 특정 영역에서 추출 가능한 기상 상태별 추상적 특징이 포함되며,
    상기 영상 처리부는,
    상기 기상 메타 데이터에 상기 특정 영역의 가시거리가 기설정된 거리범위 미만이 되도록 하는 안개가 발생된 기상 상태의 추상적 특징 또는 상기 특정 영역의 미세먼지의 농도가 기설정된 농도범위를 초과한 기상 상태의 추상적 특징이 포함되면, 상기 안개 또는 상기 미세먼지의 특징이 포함된 기상 메타 데이터에 따라 상기 추출된 이미지들이 필터링되어, 생성된 제2 콘벌루션 계층이 복수로 생성되도록 하되,
    하나의 평균 풀링 필터(average pooling filter)에 포함되는 이미지 데이터 유닛들에 포함된 안개의 빈도 또는 미세먼지의 농도의 평균값이 산출되어, 상기 하나의 평균 풀링 필터에 포함된 이미지 데이터 유닛들이 상기 산출된 평균값이 포함된 하나의 이미지 데이터 유닛으로 축소 변환되어 제2 서브 샘플링 계층이 생성되도록 하고,
    상기 영상 처리부는,
    각각의 제2 서브 샘플링 계층에 하나의 특징만이 포함되도록 하되, 상기 각각의 제2 서브 샘플링 계층이 생성되면, 상기 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류하며,
    상기 영상 처리부는,
    상기 특정 영역의 기상 상태에 따른 각각의 이미지 정보를 저장하고, 상기 기저장된 각각의 이미지 정보에 포함된 이미지 데이터 유닛의 R(red), G(green), B(blue) 색상별 명암도의 평균값을 산출하여, 룩업 테이블에 기록하고, 상기 각각의 제2 샘플링 계층이 생성되면, 상기 룩업 테이블에 기록된 R(red), G(green), B(blue) 색상별 명암도의 평균값과 상기 각각의 제2 서브 샘플링 계층을 비교하여, 상기 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류하도록 하는 것을 특징으로 하는 이미지 정보 기반의 시정거리 측정 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 제1항에 있어서,
    상기 기상 분석부는,
    상기 각각의 제2 서브 샘플링 계층이 기상 상태별로 분류된 결과를 기반으로, 상기 특정 영역의 기상 상태를 분석하되, 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부뿐만 아니라, 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 정도가 수치(numerical value)로 산출되도록 하는 것을 특징으로 하는 이미지 정보 기반의 시정거리 측정 시스템.
  9. 삭제
  10. 이미지 정보 획득부가 특정 영역에 대한 이미지 정보를 획득하는 단계;
    영상 처리부가 콘벌루션 신경망을 이용하여, 상기 이미지 정보를 영상 처리하는 단계;
    기상 분석부가 상기 영상 처리 결과를 기반으로 상기 특정 영역의 기상 상태를 분석하는 단계; 및
    시정거리 산출부가 상기 특정 영역의 기상 상태의 분석 결과를 기반으로 시정거리를 산출하는 단계;를 포함하고,
    상기 이미지 정보를 획득하는 단계는,
    상기 이미지 정보 획득부가 상기 특정 영역을 촬영하여, 영상 정보가 생성되도록 하고, 상기 영상 정보에서 영상 프레임별 또는 시간 주기별로 32X32 구조의 특정 이미지들을 추출함으로써, 상기 이미지 정보를 획득하고,
    상기 이미지 정보를 영상 처리하는 단계는,
    상기 영상 처리부에 의해, 상기 추출된 이미지들이 메타 데이터에 따라 필터링되도록 하여, 복수의 콘벌루션 계층(convolutional layer)을 생성하되,
    상기 추출된 32X32 구조의 이미지들이 5X5 구조의 타임 메타 데이터에 따라 필터링되도록 하여 28X28 구조의 제1 콘벌루션 계층을 복수로 생성하고,
    상기 28X28 구조의 제1 콘벌루션 계층이 복수로 생성되면, 상기 영상 처리부가 풀링 필터(pooling filter)를 이용하여 각각의 28X28 구조의 제1 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링(sub-sampling)을 수행하여 14X14 구조의 제1 서브 샘플링 계층을 복수로 생성하고,
    상기 14X14 구조의 제1 서브 샘플링 계층이 복수로 생성되면, 상기 영상 처리부에 의해, 상기 생성된 복수의 14X14 구조의 제1 서브 샘플링 계층이 기상 메타 데이터에 따라 필터링되도록 하여, 제2 콘벌루션 계층을 복수로 생성하되,
    상기 제2 콘벌루션 계층이 복수로 생성되면, 상기 영상 처리부가 상기 풀링 필터를 이용하여 각각의 제2 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제2 서브 샘플링 계층을 복수로 생성하고,
    상기 타임 메타 데이터는,
    현재시간 주기의 정지 영상과 이전시간 주기의 정지 영상 또는 현재 영상프레임과 이전 영상프레임이 비교되어, 상기 특정 영역에 대한 이미지 정보를 구성하는 이미지 데이터 중 차이가 발생된 이미지 데이터들의 추상적 특징만이 선별되어 포함되고,
    상기 기상 메타 데이터는,
    비, 눈, 구름, 바람 또는 안개의 발생 여부와 발생 정도 및 기온과 미세먼지 농도에 따라 상기 특정 영역에서 추출 가능한 기상 상태별 추상적 특징이 포함되며,
    상기 이미지 정보를 영상 처리하는 단계는,
    상기 기상 메타 데이터에 상기 특정 영역의 가시거리가 기설정된 거리범위 미만이 되도록 하는 안개가 발생된 기상 상태의 추상적 특징 또는 상기 특정 영역의 미세먼지의 농도가 기설정된 농도범위를 초과한 기상 상태의 추상적 특징이 포함되면, 상기 영상 처리부에 의해, 상기 안개 또는 상기 미세먼지의 특징이 포함된 기상 메타 데이터에 따라 상기 추출된 이미지들이 필터링되어, 생성된 제2 콘벌루션 계층이 복수로 생성되도록 하되,
    하나의 평균 풀링 필터(average pooling filter)에 포함되는 이미지 데이터 유닛들에 포함된 안개의 빈도 또는 미세먼지의 농도의 평균값이 산출되어, 상기 하나의 평균 풀링 필터에 포함된 이미지 데이터 유닛들이 상기 산출된 평균값이 포함된 하나의 이미지 데이터 유닛으로 축소 변환되어 제2 서브 샘플링 계층이 생성되도록 하고,
    각각의 제2 서브 샘플링 계층에 하나의 특징만이 포함되도록 하되, 상기 각각의 제2 서브 샘플링 계층이 생성되면, 상기 영상 처리부가 상기 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류하며,
    상기 영상 처리부가 상기 특정 영역의 기상 상태에 따른 각각의 이미지 정보를 저장하고, 상기 기저장된 각각의 이미지 정보에 포함된 이미지 데이터 유닛의 R(red), G(green), B(blue) 색상별 명암도의 평균값을 산출하여, 룩업 테이블에 기록하고, 상기 각각의 제2 샘플링 계층이 생성되면, 상기 룩업 테이블에 기록된 R(red), G(green), B(blue) 색상별 명암도의 평균값과 상기 각각의 제2 서브 샘플링 계층을 비교하여, 상기 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류하도록 하는 것을 특징으로 하는 이미지 정보 기반의 시정거리 측정 방법.
KR1020170084071A 2017-07-03 2017-07-03 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법 KR101874968B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170084071A KR101874968B1 (ko) 2017-07-03 2017-07-03 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170084071A KR101874968B1 (ko) 2017-07-03 2017-07-03 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법

Publications (1)

Publication Number Publication Date
KR101874968B1 true KR101874968B1 (ko) 2018-08-02

Family

ID=63251517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170084071A KR101874968B1 (ko) 2017-07-03 2017-07-03 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법

Country Status (1)

Country Link
KR (1) KR101874968B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102002158B1 (ko) * 2018-11-15 2019-07-19 주식회사 포디솔루션 시정 예측 시스템
KR102185994B1 (ko) * 2019-07-16 2020-12-02 에스케이텔링크 주식회사 카메라 및 발광부가 구비된 단말기를 이용하여 미세먼지 농도를 측정하는 방법, 측정된 미세먼지 농도 정보를 공유하는 방법 및 이를 위한 서버
DE102020215744A1 (de) 2020-12-11 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren und System zum Überwachen eines Einsatzbereiches einer bereitgestellten Funktion und Trainingsverfahren
KR20230018625A (ko) 2021-07-30 2023-02-07 대한민국(기상청 국립기상과학원장) 랜덤포레스트 기계학습과 기상 관측 및 모델 예측 자료를 이용한 실시간 시정 산출 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090072692A (ko) * 2007-12-28 2009-07-02 그린비환경기술연구소 주식회사 시정 계측 장치 및 그 방법
KR101503213B1 (ko) 2014-04-04 2015-03-17 경주대학교 산학협력단 영상 이미지의 지리정보 및 패턴인식 기술을 이용한 시정거리 측정 장치 및 그 측정 방법
KR20160144660A (ko) * 2015-06-09 2016-12-19 김태경 컨볼루션 신경망을 위한 개선된 분류 층
US9565335B2 (en) * 2014-01-02 2017-02-07 Digimarc Corporation Full color visibility model using CSF which varies spatially with local luminance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090072692A (ko) * 2007-12-28 2009-07-02 그린비환경기술연구소 주식회사 시정 계측 장치 및 그 방법
US9565335B2 (en) * 2014-01-02 2017-02-07 Digimarc Corporation Full color visibility model using CSF which varies spatially with local luminance
KR101503213B1 (ko) 2014-04-04 2015-03-17 경주대학교 산학협력단 영상 이미지의 지리정보 및 패턴인식 기술을 이용한 시정거리 측정 장치 및 그 측정 방법
KR20160144660A (ko) * 2015-06-09 2016-12-19 김태경 컨볼루션 신경망을 위한 개선된 분류 층

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102002158B1 (ko) * 2018-11-15 2019-07-19 주식회사 포디솔루션 시정 예측 시스템
KR102185994B1 (ko) * 2019-07-16 2020-12-02 에스케이텔링크 주식회사 카메라 및 발광부가 구비된 단말기를 이용하여 미세먼지 농도를 측정하는 방법, 측정된 미세먼지 농도 정보를 공유하는 방법 및 이를 위한 서버
DE102020215744A1 (de) 2020-12-11 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren und System zum Überwachen eines Einsatzbereiches einer bereitgestellten Funktion und Trainingsverfahren
KR20230018625A (ko) 2021-07-30 2023-02-07 대한민국(기상청 국립기상과학원장) 랜덤포레스트 기계학습과 기상 관측 및 모델 예측 자료를 이용한 실시간 시정 산출 방법

Similar Documents

Publication Publication Date Title
CN112380952B (zh) 基于人工智能的电力设备红外图像实时检测及识别方法
KR101874968B1 (ko) 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법
JP6646527B2 (ja) 物体検知評価システム及び物体検知評価方法
CN107705288B (zh) 伪目标运动强干扰下的危险气体泄漏红外视频检测方法
KR101933856B1 (ko) 콘벌루션 신경망을 이용한 영상 처리 시스템 및 이를 이용한 영상 처리 방법
CN108009515B (zh) 一种基于fcn的无人机航拍图像的输电线定位识别方法
US9251420B2 (en) System for mapping and identification of plants using digital image processing and route generation
US9070023B2 (en) System and method of alerting a driver that visual perception of pedestrian may be difficult
CN109801282A (zh) 路面状况检测方法、处理方法、装置及系统
US20160260306A1 (en) Method and device for automated early detection of forest fires by means of optical detection of smoke clouds
CN112734692A (zh) 一种变电设备缺陷识别方法及装置
WO2012100522A1 (zh) 基于图像亮度特征的ptz视频能见度检测方法
CN108648169A (zh) 高压输电塔绝缘子缺陷自动识别的方法及装置
CN112149543B (zh) 一种基于计算机视觉的建筑扬尘识别系统与方法
CN110197185B (zh) 一种基于尺度不变特征变换算法监测桥下空间的方法和系统
CN108229524A (zh) 一种基于遥感图像的烟囱和冷凝塔检测方法
CN113724259A (zh) 井盖异常检测方法、装置及其应用
CN115239646A (zh) 输电线路的缺陷检测方法、装置、电子设备及存储介质
CN112085778A (zh) 基于超像素和形态学的倾斜摄影违法建筑检测方法及系统
CN115311623A (zh) 一种基于红外热成像的设备漏油检测方法及系统
CN111476314B (zh) 一种融合光流算法与深度学习的模糊视频检测方法
KR20210032188A (ko) 우시정 측정 시스템 및 방법
CN113628251B (zh) 一种智慧酒店终端监测方法
KR101199959B1 (ko) 영상 내 교통표지판 인식 시스템
CN111652055B (zh) 一种基于两阶段定位的开关仪表智能识别方法

Legal Events

Date Code Title Description
GRNT Written decision to grant