KR20210032188A - 우시정 측정 시스템 및 방법 - Google Patents

우시정 측정 시스템 및 방법 Download PDF

Info

Publication number
KR20210032188A
KR20210032188A KR1020190113655A KR20190113655A KR20210032188A KR 20210032188 A KR20210032188 A KR 20210032188A KR 1020190113655 A KR1020190113655 A KR 1020190113655A KR 20190113655 A KR20190113655 A KR 20190113655A KR 20210032188 A KR20210032188 A KR 20210032188A
Authority
KR
South Korea
Prior art keywords
visibility
unit
image
image information
image processing
Prior art date
Application number
KR1020190113655A
Other languages
English (en)
Inventor
채신태
Original Assignee
(주)시정
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)시정 filed Critical (주)시정
Priority to KR1020190113655A priority Critical patent/KR20210032188A/ko
Publication of KR20210032188A publication Critical patent/KR20210032188A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W2201/00Weather detection, monitoring or forecasting for establishing the amount of global warming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Environmental & Geological Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Environmental Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 우시정 측정 시스템에 관한 것으로, 360도 영역을 촬영하는 카메라부; 상기 카메라부를 통해 촬영한 360도 영역의 이미지 정보를 획득하는 이미지 정보 획득부; 상기 이미지 정보 획득부로부터 수신된 이미지 정보를 콘볼루션 신경망을 이용하여 영상 처리하는 영상 처리부와, 상기 영상 처리한 결과를 기반으로 기상 상태를 분석하는 기상 분석부와, 상기 기상 상태를 분석한 분석 결과를 기반으로 시정거리를 산출하는 시정거리 산출부, 및 상기 시정거리를 산출한 결과를 기반으로 우시정을 분석하는 우시정 분석부로 구성된 정보 처리부; 및 상기 360도 영역의 이미지와 우시정을 표시하는 디스플레이부;를 포함하는 것을 특징으로 한다.

Description

우시정 측정 시스템 및 방법{System for measuring prevailing visibility and method thereof}
본 발명은 우시정 측정 시스템 및 방법에 관한 것으로, 더욱 상세하게는 카메라로 획득한 360도 영상을 인공지능을 통해 시정거리 산출을 통해 우시정을 표출하는 우시정 측정 시스템 및 방법에 관한 것이다.
시정(Visibility)은 낮에는 수평방향으로 먼 거리의 지형 또는 물체를 보통 육안으로 식별할 수 있는 최대거리이고, 야간에는 주간과 같은 밝은 상태를 가정했을 때에 목표물을 식별할 수 있는 최대거리일 수 있다.
일반적으로 시정을 측정하는 방법에는 시각적 측정법, 광학적 측정법 및 영상학적 측정법이 활용되고 있다. 시정거리는 대기오염을 정량적으로 파악할 수 있는 지표로서의 역할이 가능할 뿐만 아니라, 공항, 도로, 해양 등에서 시정 악화로 인한 경제적 손실을 사전에 예방하는 기능을 수행할 수 있다.
최근에는 일기 예보에 미세먼지의 예보가 포함될 정도로 미세먼지 또는 초미세먼지가 심각한 사회문제로 야기되고 있으며, 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우, 미세먼지 또는 초미세먼지의 발생 정도를 정량적으로 분석하고, 이에 따라 변화되는 시정거리를 산출하는 것이 중요한 이슈로 떠오르고 있다.
이러한 시정거리를 산출하기 위하여, 대상물에 대하여 직접 광학측정을 하거나, 지리적 정보와 원근법 그리고 비선형함수를 이용하여 시정거리를 측정하는 방식이 개발되었으나, 최근에는 컴퓨터의 정보 처리 기술의 발달로 인하여, 기존보다 더욱 정밀한 방식으로 시정 악화시 시정거리를 측정하고자 하는 수요가 점차 증가 되고 있는 실정이다.
또한, 시정을 측정하는 시정계는 한 방향 혹은 국소부위의 시정만을 측정하고 있으나, 관측자로부터 수평원의 절반 또는 그 이상의 거리를 식별할 수 있는 우시정 시정계는 현재까지 존재하지 않아 사람이 직접 눈으로 관측하고 있어 정확도가 떨어지는 문제점이 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 카메라로 획득한 360도 영상 이미지를 인공지능을 적용하여 영상처리 및 기상상태를 분석하여 시정거리 산출을 통해 우시정을 표출하는 우시정 측정 시스템 및 방법을 제공하는 데 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 우시정 측정 시스템은 360도 영역을 촬영하는 카메라부; 상기 카메라부를 통해 촬영한 360도 영역의 이미지 정보를 획득하는 이미지 정보 획득부; 상기 이미지 정보 획득부로부터 수신된 이미지 정보를 콘볼루션 신경망을 이용하여 영상 처리하는 영상 처리부와, 상기 영상 처리한 결과를 기반으로 기상 상태를 분석하는 기상 분석부와, 상기 기상 상태를 분석한 분석 결과를 기반으로 시정거리를 산출하는 시정거리 산출부, 및 상기 시정거리를 산출한 결과를 기반으로 우시정을 분석하는 우시정 분석부로 구성된 정보 처리부; 및 상기 360도 영역의 이미지와 우시정을 표시하는 디스플레이부;를 포함하는 것을 특징으로 한다.
상기 기상 분석부는 영상 처리 결과를 기반으로 비, 눈, 구름, 바람 또는 안개의 발생 여부와 비, 눈, 구름, 바람 또는 안개의 발생 정도와 기온, 미세먼지의 농도를 산출할 수 있다.
상기 디스플레이부는 4대의 카메라로 촬영한 이미지를 4개 또는 8개 화면으로 표시하거나 파노라마로 표시할 수 있다.
또한, 우시정 측정 방법은 4대의 카메라를 통해 360도 영역에 대한 영상 이미지 정보를 이미지 정보 획득부를 통해 획득하는 단계; 상기 이미지 정보를 영상 처리부를 통해 콘벌루션 신경망을 이용하여 영상 처리하는 단계; 상기 영상 처리 결과를 기반으로 기상 상태를 기상 분석부를 통해 분석하는 단계; 상기 기상 상태의 분석 결과를 기반으로 시정거리 산출부를 통해 시정거리를 산출하는 단계; 상기 시정거리를 산출한 결과를 기반으로 우시정 분석부를 통해 우시정을 분석하는 단계; 및 상기 360도 이미지와 우시정을 디스플레이부를 통해 표시하는 단계;를 포함하는 것을 특징으로 한다.
상기와 같이, 본 발명에 따르면 360도 영역에서 획득된 영상 이미지를 인공지능을 적용하여 영상처리 및 기상상태를 분석하여 시정거리 산출을 통해 우시정을 표출하여 시정 악화로 인한 경제적 손실을 예방할 수 있다.
도 1은 본 발명에 따른 우시정 측정 시스템의 블록도이다.
도 2는 본 발명에 따른 영상분석 및 시정거리 산출을 나타낸 도면이다.
도 3a 및 도 3b는 본 발명에 따른 영상 처리부의 콘벌루션 계층을 생성하는 과정을 나타낸 도면이다.
도 4는 본 발명에 따른 우시정 측정 방법을 나타낸 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
그러면, 본 발명의 일실시예에 따른 우시정 측정 시스템 및 방법에 대하여 상세하게 설명하기로 한다.
도 1은 본 발명에 따른 우시정 측정 시스템의 블록도이며, 도 2는 본 발명에 따른 영상분석 및 시정거리 산출을 나타낸 도면이다.
도 1 및 도 2를 참조하면, 본 발명에 따른 우시정 측정 시스템은 카메라로 360도 영역을 촬영하는 카메라부(100)와, 상기 카메라부(100)를 통해 촬영한 360도 영역의 이미지 정보를 획득하는 이미지 정보 획득부(200)와, 상기 획득된 이미지 정보를 영상 처리하고, 영상 처리의 결과를 기반으로 기상 상태를 분석하며, 기상 상태의 분석 결과를 기반으로 시정거리를 산출하며, 시정거리를 산출한 결과를 기반으로 우시정을 분석하는 정보 처리부(300), 및 상기 이미지 화면과 우시정을 표시하는 디스플레이부(400)를 포함하여 구성된다.
여기서, 우시정(prevailing visibility)이란 방향에 따라 보이는 시정이 다를 때 가장 큰 값으로부터 그 값이 차지하는 부분의 각도를 더해가서 합친 각도의 합계가 180도 이상이 될 때의 가장 낮은 시정 값을 말한다.
상기 이미지 정보 획득부(200)는 360도 영역의 이미지 정보를 4대의 CCTV 카메라로 획득하며, 이에 한정하지 않는다.
상기 정보 처리부(300)는 영상 처리부(310), 기상 분석부(320), 시정거리 산출부(330), 및 우시정 분석부(340)를 포함하는 PC 또는 서버로 구성될 수 있다.
상기 영상 처리부(310)는 콘볼루션 신경망을 이용하여 이미지 정보 획득부(100)로 부터 수신된 360도 이미지 정보를 영상 처리한다.
여기서, 상기 영상 처리부(310)는 이미지 정보 획득부(200)와 무선 또는 유선 데이터 통신 네트워크로 연결되어 이미지 정보를 수신할 수 있으며, 수신된 이미지 정보에서 영상 프레임별 또는 시간 주기별로 특정 이미지들을 추출할 수 있다. 그리고 영상 처리부(310)는 추출된 특정 이미지들을 콘볼루션 신경망을 이용하여 영상 처리할 수 있다. 여기서, 영상 처리부(310)가 추출된 특정 이미지들을 영상 처리하는 과정은 후술하기로 한다.
상기 기상 분석부(320)는 이미지 정보를 영상 처리한 결과를 기반으로 기상 상태를 분석한다. 여기서, 상기 기상 분석부(320)는 영상 처리 결과를 기반으로 비, 눈, 구름, 바람 또는 안개의 발생 여부를 알 수 있으며, 비, 눈, 구름, 바람 또는 안개의 발생 정도와 기온, 미세먼지의 농도 등을 산출할 수 있다.
상기 시정거리 산출부(330)는 기상 상태를 분석한 분석 결과를 기반으로 시정거리를 산출한다. 여기서, 상기 시정거리 산출부(330)는 비, 눈, 구름, 바람, 안개 또는 미세먼지가 발생되지 않은 기상 상태인 경우의 시정거리를 기준 값으로 설정하고, 기상 분석부(320)에 의해 분석된 기상 상태에 따라 퍼지 논리가 반영된 시정거리 함수를 결정함으로써 설정된 시정거리의 기준 값에 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부와 발생 정도가 반영된 시정거리의 변화량이 산출되도록 할 수 있다. 이를 통해, 시정거리 산출부(330)는 시정거리를 산출할 수 있다.
또한, 상기 우시정 분석부(340)는 360도 영역의 시정거리를 산출한 결과를 기반으로 우시정을 분석한다.
상기 디스플레이부(400)는 360도 영역의 이미지와 우시정을 표시한다. 즉, 상기 디스플레이부(400)는 4대의 CCTV 카메라로 촬영한 이미지를 4개 또는 8개 화면으로 표시하거나 파노라마로 표시할 수 있으며, 이에 한정하지 않는다.
도 3a 및 3b는 본 발명에 따른 영상 처리부(310)가 콘벌루션 신경망을 이용하여 이미지 정보를 영상 처리하는 과정을 나타낸 도면이다.
도 1을 참조하여 전술한 바와 같이, 상기 영상 처리부(310)는 이미지 정보 획득부(200)로부터 수신된 이미지 정보에서 영상 프레임별 또는 시간 주기별로 특정 이미지들을 추출할 수 있다.
여기서, 상기 영상 처리부(310)는 추출된 특정 이미지들을 학습 데이터로 활용하여, 다양한 기상 상태들에 대한 추상적 특징들을 개별적으로 추출하고, 추출된 추상적 특징들을 분류하여, 특정 이미지가 어떠한 기상 상태에서 촬영된 것인지 추정하도록 할 수 있다.
이러한 동작 특성들을 수행하기 위하여, 영상 처리부(310)는 추출된 특정 이미지들이 메타 데이터에 따라 필터링되도록 하여 복수의 콘벌루션 계층을 생성하고, 생성된 콘벌루션 계층의 사이즈를 축소하여 서브 샘플링 계층을 생성한 뒤, 이들을 분류하여, 기상 상태별로 추출된 추상적 특징들을 학습하도록 할 수 있다.
상기 메타 데이터는 특정 이미지들의 정보들 가운데 우리가 추출하고자 하는 정보들을 필터링하도록 하는 영상 필터의 속성 정보를 의미한다.
상기 이미지 정보 및 영상 필터에 포함된 정보들을 도 3a 및 도 3b를 참조하여 수치로 설명하기로 한다. 여기서, 메타 데이터는 도 3a에 도시된 영상 필터에서 X1, X0, X1, X0, X1, X0, X1, X0, X1 값(1행 1열부터 3행 3열)을 가지는 속성 정보이다.
상기 영상 처리부(310)는 이미지 정보에 포함된 정보들(도 3a 및 도 3b에 도시된 0 또는 1의 값에 해당함, 이하에서는 '이미지 데이터'로 총칭함)을 메타 데이터에 따라 필터링되도록 하여, 필터링 결과를 모두 합산하여 콘벌루션 특징을 추출할 수 있다.
도 3a를 참조하면, 이미지 데이터들이 메타 데이터에 필터링되어(1X1+1X0+0X1+1X0+1X1+1X0+0X1+1X0+1X1), 필터링 결과(1+0+0+0+1+0+0+0+1)를 합산하여 콘벌루션 특징(3)을 추출할 수 있다.
예로써, 상기 영상 처리부(310)에 의해 추출된 특정 이미지들이 5X5 구조의 이미지 데이터들의 결합으로 도시하고, 영상 필터는 3X3 구조의 메타 데이터들의 결합으로 도시하였으나, 실제 본 실시예에 따른 영상 처리부(310)에 의해 추출된 특정 이미지들이 32X32 구조의 이미지 데이터들의 결합으로 구현되고, 영상 필터는 5X5 구조의 메타 데이터들의 결합으로 구현되어, 콘벌루션 특징들이 매핑된 28X28 구조의 콘벌루션 계층을 6장 생성할 수 있다.
한편, 상기 영상 처리부(310)는 추출된 특정 이미지들이 타임 메타 데이터에 따라 필터링되도록 하여 제1 콘벌루션 계층을 복수로 생성하고, 제1 콘벌루션 계층이 복수로 생성되면, 풀링 필터를 이용하여 각각의 제1 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제1 서브 샘플링 계층을 복수로 생성할 수 있다.
여기서, 상기 풀링 필터는 각각의 제1 콘벌루션 계층의 사이즈를 개별적으로 축소하여, 서브 샘플링 계층을 생성하는데, 콘벌루션 특징(추상적 특징)을 선별하는 과정에 따라 가장 중요한 추상적 특징만 남기는 최대 풀링 필터과 추상적 특징들의 평균값을 산출하는 평균 풀링 필터로 나뉠 수 있으나, 본 실시예의 영상 처리부(310)는 대기오염을 정량적으로 파악하기 위해 평균 풀링 필터를 이용하여 콘벌루션 계층의 사이즈를 축소하여 서브 샘플링 계층을 생성하도록 한다.
한편, 상기 영상 처리부(310)는 28X28 구조의 콘벌루션 계층이 6장 생성된 경우 각각의 콘벌루션 계층을 평균 풀링 필터를 이용하여 서브 샘플링하여 14X14 구조의 서브 샘플링 계층을 6장 생성할 수 있다.
여기서, 타임 메타 데이터는 시간에 따라 이미지 내에서의 형상 또는 색상이 변경된 이미지 데이터라고 가정하면 현재시간 주기의 영상과 이전시간 주기의 영상 또는 현재 영상프레임과 이전 영상 프레임이 비교되어, 특정 영역에 대한 이미지 정보를 구성하는 이미지 데이터 중 차이가 발생된 이미지 데이터들의 추상적 특징만이 선별되어 포함될 수 있다.
상기 제1 서브 샘플링 계층이 복수로 생성되면, 상기 영상 처리부(310)는 생성된 복수의 제1 서브 샘플링 계층이 기상 메타 데이터에 따라 필터링되도록 하여, 제2 콘벌루션 계층을 복수로 생성하되, 제2 콘벌루션 계층이 복수로 생성되면, 풀링 필터를 이용하여 각각의 제2 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제2 서브 샘플링 계층을 복수로 생성할 수 있다.
이때, 기상 메타 데이터는, 비, 눈, 구름, 바람 또는 안개의 발생 여부와 발생 정도 및 기온과 미세먼지 농도에 따라 추출 가능한 기상 상태별 특징이 포함될 수 있다.
예를 들어, 상기 영상 처리부(310)는 기상 메타 데이터에 특정 영역의 가시거리가 기설정된 거리범위 미만이 되도록 하는 안개가 발생된 기상 상태의 특징 또는 미세먼지의 농도가 기설정된 농도범위를 초과한 기상 상태의 특징이 포함되면, 안개 또는 미세먼지의 특징이 포함된 기상 메타 데이터에 따라 추출된 이미지들이 필터링되어, 생성된 제2 콘벌루션 계층이 복수로 생성되도록 하되, 하나의 평균 풀링 필터에 포함되는 이미지 데이터 유닛들에 포함된 안개의 빈도 또는 미세먼지의 농도의 평균값이 산출되어, 하나의 평균 풀링 필터에 포함된 이미지 데이터 유닛들이 산출된 평균값이 포함된 하나의 이미지 데이터 유닛(1X1 구조)으로 축소 변환되어 제2 서브 샘플링 계층이 생성되도록 할 수 있다.
더불어, 평균 풀링 필터를 이용하여 서브 샘플링 계층을 생성하는 경우 콘벌루션 계층의 사이즈는 1/4로 축소됨에 따라 제2 서브 샘플링 과정이 한번 수행하는 것이 아니라 이미지 데이터 유닛이 1X1 구조로 구현될 때까지 제2 서브 샘플링 과정이 반복 수행될 수 있다.
그리고, 상기 영상 처리부(310)는 기상 상태에 따른 이미지 정보를 저장하고 각각의 제2 서브 샘플링 계층에 하나의 추상적 특징만이 포함되도록 하되, 각각의 제2 서브 샘플링 계층이 생성되면, 기저장된 각각의 이미지 정보와 각각의 제2 서브 샘플링 계층을 비교하여, 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류할 수 있다.
분류화 과정은 비가 오고 있는지, 눈이 오고 있는지, 구름이 껴 있는지, 바람이 불고 있는지, 안개가 발생된 것 인지, 비가 얼마나 오고 있는지, 눈이 얼마나 오고 있는지, 기온이 몇도 인지, 미세먼지의 농도가 얼마인지와 같은 다양한 항목들로 분류될 수 있으며, 이를 위하여, 영상 처리부(310)는 기상 상태의 발생 정도에 대한 분류 항목에 대응되는 수치 값은 퍼지 함수와 같은 비선형 함수를 이용하여 산출하도록 함으로써 기상 상태를 정략적으로 분석할 수 있다.
예를 들면, 상기 영상 처리부(310)는 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류하는 과정에서 발생되는 오차를 최소화하기 위해 기저장된 각각의 이미지 정보에 포함된 이미지 데이터 유닛의 R(red), G(green), B(blue) 색상별 명암도의 평균값을 산출하여 룩업 테이블에 기록하고, 각각의 제2 서브 샘플링 계층이 생성되면, 룩업 테이블을 기반으로, 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류할 수 있다.
여기서, 비선형 변환에 대한 이미지 데이터 유닛의 명암도의 평균값을 산출하여 룩업테이블에 기록하는 것이기 때문에 영상 처리부(310)는 룩업 테이블 자체의 데이터가 지나치게 무거워질 수 있기 때문에, 제2 서브 샘플링 과정이 반복 수행되어, 이미지 데이터 유닛이 1X1 구조로 구현된 경우에만, 1X1 구조의 이미지 데이터 유닛의 R, G, B 색상별 명암도의 평균값을 산출하여 룩업 테이블에 기록하도록 한다.
도 4는 본 발명에 따른 우시정 측정 방법의 흐름도이다.
도 4를 참조하면, 본 발명에 따른 우시정 측정 방법은 먼저, 이미지 정보 획득부(200)는 4대의 CCTV 카메라로 360도 영역을 촬영하여 동영상 타입의 영상 정보를 생성하고, 생성된 영상 정보에서 영상 프레임별 또는 시간 주기별로 특정 이미지들을 추출하여 이미지 정보를 획득할 수 있다(S100).
특정 이미지들이 추출되면, 영상 처리부(310)는 추출된 특정 이미지들이 메타 데이터에 따라 필터링되도록 하여, 복수의 콘벌루션 계층을 생성하여 영상을 처리할 수 있다(S200).
구체적으로, 영상 처리부(310)는 추출된 특정 이미지들이 타임 메타 데이터에 따라 필터링되도록 하여 제1 콘벌루션 계층을 복수로 생성하고, 제1 콘벌루션 계층이 복수로 생성되면, 풀링 필터를 이용하여 각각의 제1 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제1 서브 샘플링 계층을 복수로 생성할 수 있다.
또한, 제1 서브 샘플링 계층이 복수로 생성되면 영상 처리부(310)는 생성된 복수의 제1 서브 샘플링 계층이 기상 메타 데이터에 따라 필터링되도록 하여, 제2 콘벌루션 계층을 복수로 생성하되, 제2 콘벌루션 계층이 복수로 생성되면 풀링 필터를 이용하여 각각의 제2 콘벌루션 계층의 사이즈를 축소하는 서브 샘플링을 수행하여 제2 서브 샘플링 계층을 복수로 생성할 수 있다.
각각의 제2 서브 샘플링 계층이 생성되면 영상 처리부(310)는 기저장된 각각의 이미지 정보와 각각의 제2 서브 샘플링 계층을 비교하여, 각각의 제2 서브 샘플링 계층을 기상 상태별로 분류할 수 있다.
제2 서브 샘플링 계층이 기상 상태별로 분류되면 기상 분석부(320)는 이미지 정보를 영상 처리한 결과를 기반으로 기상상태를 분석할 수 있다(S300).
구체적으로, 상기 기상 분석부(320)는 이미지 정보를 영상 처리하여 기상 상태를 분석한 분석 결과를 기반으로 기상 상태가 맑음인지 아니면 비, 눈, 구름, 바람, 안개, 미세먼지 등이 발생된 기상 상태인지 판단할 수 있다.
기상 상태가 맑은 것으로 판단되면, 시정거리 산출부(330)는 맑은 날의 시정거리를 기준값으로 설정할 수 있다.
이와 반대로 기상 상태가 맑지 않은 것으로 판단되면, 기상 분석부(320)가 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부뿐만 아니라, 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 정도가 수치로 산출하여, 수치로 산출된 기상 상태에 수치 값을 시정거리 산출부(330)에 전달하고, 시정거리 산출부(330)는 분석된 기상 상태에 따라 퍼지 논리가 반영된 시정거리 함수를 결정함으로써, 설정된 시정거리의 기준 값에 비, 눈, 구름, 바람, 안개 또는 미세먼지의 발생 여부와 발생 정도가 반영된 시정거리의 변화량이 산출되도록 할 수 있다. 즉, 시정 거리 함수에 설정된 기준 값과 기상 상태의 수치값이 입력되어 시정 거리의 변화량이 산출될 수 있다. 이를 통해, 시정거리 산출부(330)는 360도 영역의 시정거리를 산출할 수 있다(S400). 여기서, 맑은 날은 비, 눈, 구름, 바람, 안개 또는 미세먼지가 발생되지 않은 날의 기상 상태이다.
360도 영역의 시정거리를 산출한 결과를 기반으로 우시정 분석부(340)를 통해 우시정을 분석한다(S500).
CCTV 카메라에서 촬영한 360도 영역의 이미지와 우시정을 디스플레이부(400)를 통해 표시한다(S600). 여기서, 상기 디스플레이부(400)는 4대의 CCTV 카메라로 촬영한 이미지를 4개 또는 8개 화면으로 표시하거나 파노라마로 표시할 수 있으며, 이에 한정하지 않는다.
이와 같이, 본 발명의 우시정 측정 시스템은 콘벌루션 신경망을 활용하여 미세먼지 또는 초미세먼지와 같은 대기오염을 정량적으로 파악할 수 있으며, 미세먼지 또는 초미세먼지로 인하여 시정 악화가 발생되는 경우 시정거리 산출을 통해 우시정을 표출함으로써 시정 악화로 인한 경제적 손실을 예방할 수 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100: 카메라부 200: 이미지 정보 획득부
300: 정보 처리부 310: 영상 처리부
320: 기상 분석부 330: 시정거리 산출부
340: 우시정 분석부 400: 디스플레이부

Claims (4)

  1. 360도 영역을 촬영하는 카메라부;
    상기 카메라부를 통해 촬영한 360도 영역의 이미지 정보를 획득하는 이미지 정보 획득부;
    상기 이미지 정보 획득부로부터 수신된 이미지 정보를 콘볼루션 신경망을 이용하여 영상 처리하는 영상 처리부와, 상기 영상 처리한 결과를 기반으로 기상 상태를 분석하는 기상 분석부와, 상기 기상 상태를 분석한 분석 결과를 기반으로 시정거리를 산출하는 시정거리 산출부, 및 상기 시정거리를 산출한 결과를 기반으로 우시정을 분석하는 우시정 분석부로 구성된 정보 처리부; 및
    상기 360도 영역의 이미지와 우시정을 표시하는 디스플레이부;를 포함하는 것을 특징으로 하는 우시정 측정 시스템.
  2. 제1항에 있어서,
    상기 기상 분석부는 영상 처리 결과를 기반으로 비, 눈, 구름, 바람 또는 안개의 발생 여부와 비, 눈, 구름, 바람 또는 안개의 발생 정도와 기온, 미세먼지의 농도를 산출하는 것을 특징으로 하는 우시정 측정 시스템.
  3. 제1항에 있어서,
    상기 디스플레이부는 4대의 카메라로 촬영한 이미지를 4개 또는 8개 화면으로 표시하거나 파노라마로 표시하는 것을 특징으로 하는 우시정 측정 시스템.
  4. 4대의 카메라를 통해 360도 영역에 대한 영상 이미지 정보를 이미지 정보 획득부를 통해 획득하는 단계;
    상기 이미지 정보를 영상 처리부를 통해 콘벌루션 신경망을 이용하여 영상 처리하는 단계;
    상기 영상 처리 결과를 기반으로 기상 상태를 기상 분석부를 통해 분석하는 단계;
    상기 기상 상태의 분석 결과를 기반으로 시정거리 산출부를 통해 시정거리를 산출하는 단계;
    상기 시정거리 산출 결과를 기반으로 우시정 분석부를 통해 우시정을 분석하는 단계; 및
    상기 360도 이미지와 우시정을 디스플레이부를 통해 표시하는 단계;를 포함하는 것을 특징으로 하는 우시정 측정 방법.
KR1020190113655A 2019-09-16 2019-09-16 우시정 측정 시스템 및 방법 KR20210032188A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190113655A KR20210032188A (ko) 2019-09-16 2019-09-16 우시정 측정 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190113655A KR20210032188A (ko) 2019-09-16 2019-09-16 우시정 측정 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20210032188A true KR20210032188A (ko) 2021-03-24

Family

ID=75256963

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190113655A KR20210032188A (ko) 2019-09-16 2019-09-16 우시정 측정 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20210032188A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230018625A (ko) * 2021-07-30 2023-02-07 대한민국(기상청 국립기상과학원장) 랜덤포레스트 기계학습과 기상 관측 및 모델 예측 자료를 이용한 실시간 시정 산출 방법
KR20230081373A (ko) * 2021-11-30 2023-06-07 (주)시정 파노라마 이미지와 인공지능을 이용하여 우세시정을 산출하는 영상분석 시정계

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230018625A (ko) * 2021-07-30 2023-02-07 대한민국(기상청 국립기상과학원장) 랜덤포레스트 기계학습과 기상 관측 및 모델 예측 자료를 이용한 실시간 시정 산출 방법
KR20230081373A (ko) * 2021-11-30 2023-06-07 (주)시정 파노라마 이미지와 인공지능을 이용하여 우세시정을 산출하는 영상분석 시정계

Similar Documents

Publication Publication Date Title
CN110135269B (zh) 一种基于混合颜色模型与神经网络的火灾图像检测方法
CN111967393A (zh) 一种基于改进YOLOv4的安全帽佩戴检测方法
CN107918776B (zh) 一种基于机器视觉的用地规划方法、系统及电子设备
CN109816745A (zh) 人体热力图展示方法及相关产品
CN111814771B (zh) 图像处理的方法及装置
CN110067274B (zh) 设备控制方法及挖掘机
Congalton Remote sensing: an overview
JP7092615B2 (ja) 影検出装置、影検出方法、影検出プログラム、学習装置、学習方法、及び学習プログラム
CN114066857A (zh) 红外图像质量评价方法、装置、电子设备及可读存储介质
KR101874968B1 (ko) 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법
KR20210032188A (ko) 우시정 측정 시스템 및 방법
US9396552B1 (en) Image change detection
CN115311623A (zh) 一种基于红外热成像的设备漏油检测方法及系统
CN113506275B (zh) 一种基于全景城市图像处理方法
Rumora et al. Spatial video remote sensing for urban vegetation mapping using vegetation indices
CN112613359B (zh) 用于人员异常行为检测的神经网络的构建方法
CN109815784A (zh) 一种基于红外热像仪的智能分类方法、系统及存储介质
CN117294818A (zh) 一种用于机场施工的工地全景监控方法
AU2015376657A1 (en) Image change detection
CN111582076A (zh) 一种基于像素运动智能感知的画面冻结检测方法
CN109166081B (zh) 一种视频能见度检测过程中目标亮度调节方法
US10650246B1 (en) System for determining a camera radiance
KR102209866B1 (ko) 지상기반 전운량 자동 산출을 위한 왜곡 영상 전처리 방법
JP7092616B2 (ja) 物体検出装置、物体検出方法、及び物体検出プログラム
CN114677654A (zh) 一种基于混合数据学习的交通现场风险识别方法及系统

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination