KR20230032087A - Abnormal symptom data visualization system based-on deep learning engine and method thereof - Google Patents
Abnormal symptom data visualization system based-on deep learning engine and method thereof Download PDFInfo
- Publication number
- KR20230032087A KR20230032087A KR1020210114494A KR20210114494A KR20230032087A KR 20230032087 A KR20230032087 A KR 20230032087A KR 1020210114494 A KR1020210114494 A KR 1020210114494A KR 20210114494 A KR20210114494 A KR 20210114494A KR 20230032087 A KR20230032087 A KR 20230032087A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- unit
- event
- visualization
- image
- Prior art date
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 11
- 238000000034 method Methods 0.000 title claims description 22
- 208000024891 symptom Diseases 0.000 title claims description 8
- 238000013079 data visualisation Methods 0.000 title abstract 2
- 238000001514 detection method Methods 0.000 claims abstract description 51
- 238000012800 visualization Methods 0.000 claims abstract description 49
- 238000003384 imaging method Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000009471 action Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 238000007794 visualization technique Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 21
- 238000012544 monitoring process Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 6
- 238000007405 data analysis Methods 0.000 description 5
- 238000013480 data collection Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000010223 real-time analysis Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000000779 smoke Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
Description
본 발명은 딥러닝 엔진 기반의 이상징후 데이터 시각화 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for visualizing anomaly data based on a deep learning engine.
과거부터 사회적 및 자연적 재해로 인한 안전에 대한 경각심이 점점 증폭되고 있는 상황으로, 사회적으로 밀집화되고 기술이 고도화되면서 사건ㆍ사고의 피해가 증가하고 있다. In a situation where awareness of safety due to social and natural disasters has been gradually amplified since the past, damage from accidents and accidents is increasing as social density and technology are advanced.
예를 들면, 국내에서는 2008년 2월에 발생한 숭례문 화재로 인해서, 5시간 만에 국가의 상징물인 문화재가 전소되는 참사가 발생하였으며, 대구 서문시장에서는 액화석유가스(LPG)의 누출로 인해 화재가 발생하여, 점포 679개가 연소되는/ 사건 등의 대규모 사고가 발생하였다. 또한, 해외의 경우에는 각종 분쟁으로 인한 테러 또는 사회안전을 위협하는 사고 등이 확산 되고 있다. For example, in Korea, due to the Sungnyemun fire that occurred in February 2008, a disaster occurred in which cultural assets, the national symbol, were burned down within 5 hours. occurred, resulting in large-scale accidents such as 679 stores being burned/an incident. In addition, in the case of foreign countries, terrorism or accidents that threaten social safety due to various conflicts are spreading.
이와 같이 사회적 재난 및 자연적 재해는 사회적인 영향뿐만 아니라 경제적인 측면에도 큰 타격을 가하고 있는 상황임에 따라 국내외에서 사고 원인 규명등의 원인과 예방, 방지 등을 위한 목적으로 다양한 영상 감시 시스템이 제안되었다. In this way, social and natural disasters have a great impact on the economy as well as the social impact. Accordingly, various video surveillance systems have been proposed at home and abroad for the purpose of identifying the cause of the accident, preventing it, and preventing it.
그러나, 종래의 영상 감시 시스템은, 도 1에 도시된 바와 같이, 영상정보(b)와 함께 센싱된 데이터(a)를 나열식으로 제공하고, 사람 및 차량 등 움직임 위치로 객체를 탐지하여 고정된 프레임 형태로의 관제이터를 제공하고 있다. 특히, 종래기술은 도 1에 도시된 바와 같이 CCTV 영상 및 센싱 값을 시각화 정보(영상정보)와 별도로 제공하고 있어 비직관적인 문제점이 있었다.1However, as shown in FIG. 1, the conventional video surveillance system provides sensed data (a) together with image information (b) in an enumerated manner, and detects objects such as people and vehicles at a moving position to obtain fixed A controller in the form of a frame is provided. In particular, in the prior art, as shown in FIG. 1, CCTV images and sensing values are provided separately from visualization information (image information), and thus there is an unintuitive problem.
또한, 종래기술은 시간대별 플레이백(Play back)하는 방식임에 따라 특정 상황이 발생했을 경우에 원인 규명에 소요되는 시간 소모가 크고, 자체 보유 모델별 CCTV와 센서만 호환 가능함에 장비의 호환이 어려운 문제점이 있었다. In addition, the prior art is a method of playing back by time zone, so when a specific situation occurs, the time required to identify the cause is high, and only the CCTV and sensor for each model owned are compatible, so the equipment is compatible. There was a difficult problem.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 영상정보와 센서정보가 융합되어 비가시적 정보를 직관적으로 제공하여 이상징후를 사전에 예측할 수 있는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve the above conventional problems, the present invention provides a system and method for visualizing anomaly data based on a deep learning engine capable of predicting anomalies in advance by intuitively providing non-visible information by fusion of image information and sensor information. is intended to provide
본 발명은 상기와 같은 목적을 달성하기 위하여 하기와 같은 실시예를 포함할 수 있다.The present invention may include the following embodiments in order to achieve the above object.
본 발명의 실시예는 복수의 센서를 구비하는 센서부와, 복수의 카메라를 구비하는 영상부와, 센서부의 감지 정보와 영상부의 영상 정보를 수집하여 이상징후를 예측하는 이벤트 탐지부와, 실제 물리 공간을 가상의 3D 공간으로 모델링하고, 모델링된 가상의 공간 내에 센서부의 감지정보를 시각화하는 비가시 정보 시각화부 및 이벤트 탐지부 및 비가시 정보 시각화부로부터 출력되는 정보를 가공하여 관제 정보를 생성하고, 의사 결정을 위한 관제 정보의 편집툴을 제공하는 관제부를 포함하는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템을 제공할 수 있다. An embodiment of the present invention is a sensor unit having a plurality of sensors, an imaging unit having a plurality of cameras, an event detection unit that predicts an anomaly by collecting detection information of the sensor unit and image information of the imaging unit, and a real physical The space is modeled as a virtual 3D space, and the information output from the non-visual information visualization unit and the event detection unit and the non-visual information visualization unit that visualizes the sensing information of the sensor unit in the modeled virtual space is processed to generate control information In addition, it is possible to provide a visualization system of anomaly data based on a deep learning engine including a control unit providing an editing tool for control information for decision making.
본 발명의 다른 실시예는 복수의 영상부로부터 수신된 영상 정보와, 센서부의 감지정보를 수집하여 이벤트를 예측하는 이벤트 탐지부의 이벤트 탐지단계를 포함하고, 이벤트 탐지부의 이벤트 탐지단계는 a)영상부로부터 영상 정보를 수집하는 단계와, b)수집된 영상 중에 설정된 행위나 객체가 포함된 영상 패턴을 추출하는 단계와, c)영상 패턴에 포함된 현장에 설치된 센서부의 감지 정보를 영상 패턴의 사용변수로 설정하고, 상황 및 현장별로 서로 다르게 설정된 가중치를 적용하는 단계와, d)서로 다른 가중치로서 설정된 사용변수를 통하여 이벤트 발생확률과 이벤트 영향력의 예측 값을 산출하는 단계 및 e)이벤트 발생확률 및 이벤트 영향력 값을 이용하여 이벤트 위험지수를 산출하는 단계를 포함하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 방법을 제공할 수 있다. Another embodiment of the present invention includes an event detection step of an event detection unit for predicting an event by collecting image information received from a plurality of imaging units and sensing information of a sensor unit, and the event detection step of the event detection unit is a) the imaging unit Collecting image information from, b) extracting an image pattern including a set action or object among the collected images, and c) using the detection information of the sensor unit installed in the field included in the image pattern as a variable used in the image pattern. , and applying weights set differently for each situation and site, d) calculating the event occurrence probability and the predicted value of the event influence through the use variables set as different weights, and e) event occurrence probability and event A visualization method of anomaly data based on a deep learning engine including calculating an event risk index using an influence value may be provided.
본 발명은 센서부의 감지정보가 실제 물리공간을 표현하는 가상의 3D 공간으로 표현된 관제정보를 제공함에 따라 촬영 사각지대의 이상징후의 파악이 용이함에 따라 신속한 대처가 가능하여 재산 및 인명 손실을 예방할 수 있다. The present invention provides control information expressed in a virtual 3D space in which the sensing information of the sensor unit expresses the actual physical space, so that it is easy to grasp abnormal symptoms in the shooting blind spot, so that quick response is possible to prevent loss of property and life. can
또한, 본 발명은 현장별 및 상황별로 서로 다른 가중치를 설정하고, 딥러닝 기법에 의해 추출된 영상패턴에 가중치가 적용된 사용변수를 이용하여 이벤트별 영향력과 발향확율을 통하여 위험지수를 산출함에 따라 정확한 위험지수의 예측이 가능한 효과가 있다. In addition, the present invention sets different weights for each site and situation, and calculates the risk index through the influence and smell diffusion probability of each event using the weighted usage variable to the image pattern extracted by the deep learning technique. There is an effect that can predict the risk index.
도 1은 종래의 영상 정보 및 센서 정보의 출력 화면을 도시한 도면이다.
도 2는 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템을 도시한 블럭도이다.
도 3은 이벤트 탐지부를 도시한 블럭도이다.
도 4는 비가시 정보 시각화부를 도시한 블럭도이다.
도 5는 관제부를 도시한 블럭도이다.
도 6은 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 방법에서 이상징후 예측단계를 도시한 순서도이다.
도 7은 도 6의 S150 단계를 도시한 순서도이다.
도 8은 본 발명에 따른 비가시적 정보의 시각화 과정을 도시한 순서도이다. 1 is a diagram showing a conventional output screen of image information and sensor information.
2 is a block diagram showing a system for visualizing anomaly data based on a deep learning engine according to the present invention.
3 is a block diagram illustrating an event detection unit.
4 is a block diagram illustrating an invisible information visualization unit.
5 is a block diagram showing a control unit.
6 is a flowchart illustrating an anomaly prediction step in a method for visualizing anomaly data based on a deep learning engine according to the present invention.
FIG. 7 is a flowchart illustrating step S150 of FIG. 6 .
8 is a flowchart illustrating a visualization process of invisible information according to the present invention.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in this specification and claims are not limited to the usual or dictionary meanings, and the inventor can properly define the concept of the term in order to explain his or her invention in the best way. Based on this, it should be interpreted as a meaning and concept consistent with the technical spirit of the present invention.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", " 모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as “… unit”, “… unit”, “module”, and “device” described in the specification mean a unit that processes at least one function or operation, which is implemented as a combination of hardware and/or software. It can be.
이하, 도면을 참고하여 본 발명의 실시예에 대하여 설명한다. Hereinafter, embodiments of the present invention will be described with reference to the drawings.
도 2는 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템을 도시한 블럭도 이다. 2 is a block diagram showing a system for visualizing anomaly data based on a deep learning engine according to the present invention.
도 2를 참조하면, 본 발명은 센서부(100)와, 영상부(200), 이벤트 탐지부(300)와, 비가시 정보 시각화부(400)와, 관제부(500)와 모니터링부(600)와 재생부(700)를 포함할 수 있다.Referring to FIG. 2 , the present invention includes a
이중 센서부(100)는 가스, 연기, 온도, 습도, 전류, 저항, 조도와 같이 공간내의 현상을 감지할 수 있는 센서들과, 인체와 인간의 행위나 움직임을 감지할 수 있는 모션 센서 중 적어도 하나 이상을 구비하는 복수의 센서들로 구성된다. The
영상부(200)는 복수의 카메라를 포함할 수 있다. The
여기서 센서부와 영상부는 복수의 현장에서 내/외부 네트워크를 통하여 신호를 송신할 수 있다. Here, the sensor unit and the imaging unit may transmit signals through an internal/external network in a plurality of sites.
또한, 센서부(100) 및 영상부(200)는 각각 독립된 장치로서 별개의 위치에 설치될 수 있다. 또는 센서부(100)와 영상부(200)가 일체로 형성되어 동일 위치에 설치될 수 있다. In addition, the
이벤트 탐지부(300)는 센서부(100) 및 영상부(200)의 정보를 통하여 이상징후를 산출한다. 이와 같은 이벤트 탐지부(300)는 도 3을 참조하여 설명한다.The
도 3은 이벤트 탐지부를 도시한 블럭도이다. 3 is a block diagram illustrating an event detection unit.
도 3을 참조하면, 이벤트 탐지부(300)는 영상DB(310)와, 영상 추출 수단(320)과, 특징DB(330)와, 센서DB(340)와, 사용변수 설정 수단(350)과, 이벤트 예측 수단(360)을 포함할 수 있다. Referring to FIG. 3 , the
영상DB(310)는 영상부(200)에서 촬영된 영상을 저장하고, 특징DB(330)는 설정 또는 추출된 영상 패턴을 저장한다. 여기서 특징DB(330)에 저장되는 영상 패턴은 동일 또는 유사한 행위나 현상, 객체가 포함된 특징이 포함된 영상들을 의미한다. 설정된 특징은 영상 속의 객체(예를 들면, 사람, 장비, 동물)의 행위 및/또는 현상(연기, 가스, 모션, 소음)을 포함할 수 있다. The image DB 310 stores images captured by the
영상 추출 수단(320)은 영상DB(310)에 저장된 영상 정보를 가공하고, 설정된 조건에 해당되는 영상 정보에서 특징DB(330)에 저장된 기존의 행위나 객체가 포함된 영상 패턴과 비교한다. The image extraction means 320 processes the image information stored in the
특정된 행위는 객체의 이동 방향 및 모션, 설정된 형상의 객체의 소지 여부(예를 들면, 흉기를 소지한 사람, 금지된 방향 또는 이동이 금지된 객체를 통과하는 사람 또는 동물) 등을 포함할 수 있다. The specified action may include the moving direction and motion of the object, possession of an object of a set shape (eg, a person with a weapon, a person or animal passing through an object in a prohibited direction or movement prohibited), and the like. there is.
또한, 특정된 현상은 소음과, 연기, 불꽃, 충돌, 낙하와 같은 물리 및 화학적 현상을 포함할 수 있다. In addition, the specified phenomenon may include physical and chemical phenomena such as noise, smoke, flame, collision, and fall.
영상 추출 수단(320)은 정상 행위나 객체, 비정상 행위나 객체가 모두 포함된 영상으로서 신규 한 특징이 포함된 영상들이 누적 저장되면서 동일한 범위 내의 특징이 반복될 경우에 영상 패턴으로 추출할 수 있다. The
여기서 영상 추출 수단(320)은 네트워크의 부하를 최소화할 수 있고, 센서의 감지 정보와 매핑된 영상 정보를 축약하여 전송할 수 있도록 자동으로 해상도를 조절하고, 대역을 축약(예를 들면, 10Mbps 수준의 Bandwidth)하여 대용량의 전송이 유리하게 가공될 수 있다. Here, the
또한, 영상 추출 수단(320)은 특징DB(330)에 저장된 영상 정보에서 설정된 패턴(이하에서는 영상 패턴으로 칭함)을 포함하는 영상 정보를 추출한다. 즉, 영상 추출 수단(320)은 데이터 전처리 과정으로서 사람 또는 기계 장치들의 이상 행위를 나타내는 사건/사고 등의 전조 증상을 수집한다.In addition, the image extraction means 320 extracts image information including a set pattern (hereinafter referred to as an image pattern) from the image information stored in the feature DB 330. That is, the
사용변수 설정 수단(340)은 추출된 영상 패턴의 변수를 설정한다. 사용변수는 영상 추출 수단(320)에서 추출된 영상 패턴들에 연계 설정된 센서부(100)의 감지 정보를 사용변수로 설정한다. 여기서 센서부(100)의 감지 정보는 센서DB(350)에 저장된 정보이거나, 센서부(100)로부터 수신된 실시간 감지 정보에 해당될 수 있다. The use
즉, 사용변수 설정 수단(340)은 영상 정보와 센서부(100)의 감지 정보 중에서 상관 관계로 설정된 정보들을 매핑 한다. That is, the use
사용변수 설정 수단(340)은 각 현장의 상황에 따라 전조 증상의 위험도를 차등 조절하기 위하여 현장 및/또는 상황별로 사용변수의 가중치를 설정할 수 있다. The use variable setting means 340 may set weights of use variables for each site and/or situation in order to differentially adjust the risk of a precursor symptom according to the situation of each site.
이벤트 예측 수단(360)은 머신 러닝 학습과정을 통하여 자체적으로 영상 패턴을 통하여 위험도를 예측하여 그 결과를 산출한다. 이를 이하여 이벤트 예측 수단(360)은, 예를 들면, 그라디언트 부스팅 프레임 워크를 제공하는 오픈 소스 소프트웨어 라이브러리인 XGBoost을 이용하여 사용변수에 따른 가중치를 자율적으로 튜닝하여 이벤트 발생확률을 예측하고, DNN(Deep Neural Network) 분석을 통한 학습을 통하여 이벤트 영향력을 예측하여 이벤트 위험지수를 예측(산출)한다. The event prediction unit 360 predicts the risk through the image pattern itself through a machine learning learning process and calculates the result. For this reason, the event prediction means 360 predicts the event occurrence probability by autonomously tuning the weights according to the used variables using, for example, XGBoost, an open source software library that provides a gradient boosting framework, and DNN ( It predicts (calculates) the event risk index by predicting the event impact through learning through Deep Neural Network) analysis.
비가시 정보 시각화부(400)는 비가시적 정보(예를 들면, 센서부(100)의 감지 정보)를 시각화한다. 비가시 정보 시각화부(400)는 도 4를 참조하여 설명한다. The invisible
도 4는 비가시 정보 시각화부를 도시한 블럭도이다. 4 is a block diagram illustrating an invisible information visualization unit.
도 4를 참조하면, 비가시 정보 시각화부(400)는 정보 수집 수단(410)과, 데이터 분류 수단(420)과, 상관관계 설정 수단(430)과, 가시화 수단(440)을 포함할 수 있다. Referring to FIG. 4 , the invisible
정보 수집 수단(410)은 센서부(100) 및/또는 영상부(200)로부터 정보를 수집한다. 여기서 정보 수집 수단(410)은 이벤트 탐지부(300)의 영상DB(310) 또는 특징DB(330)에 저장된 영상 정보 또는 영상부(200)에서 촬영된 영상을 실시간으로 수집할 수 있다. 또한, 정보 수집 수단(410)은 센서부(100)의 감지 정보를 실시간으로 수집할 수 있다. The
데이터 분류 수단(420)은 정보 수집 수단(410)에서 수집된 비가시 정보를 속성 정보와 3차원 정보로 분류한다. 이를 위하여 데이터 분류 수단(420)은 영상부(200)와 센서의 기본 정보관리 및 감지 정보와, 모니터링 정보로 분류하고, 실제 물리 공간의 정보로서 분류한다. 이를 위하여 데이터 분류 수단(420)은 속성DB(421)와 3차원DB(422)를 포함할 수 있다. The
속성DB(421)는 센서부(100)의 감지정보와, 영상부(200)의 위치 및 속성 등 관리 정보를 저장한다. 이와 같은 속성DB(421)의 저장 정보는 영상부(200)와 센서의 타입, 모델, 설치일자, 해상도, 목적, 장소, 촬영 범위, 촬영시간, 관제 부서와 이름 및 연락처가 포함된 관제 정보와, 관리자 정보와, 건축 장소 및 층별 위치 정보와, 영상부(200)와 센서부(100)의 동작과 관측상태와 이벤트 상태 모니터링 정보가 포함될 수 있다. The
3차원DB(422)는 실제 물리 공간의 위치와 면적과 높이, 공간 내에 존재하는 객체(예를 들면, 기둥, 벽면, 문, 기계장치, 화단, 화분, 담)에 대한 형상이나 외형 정보가 저장된다. 여기서 3차원 정보는 2D, 또는 3D 이미지를 포함할 수 있다. The 3D DB (422) stores the shape or external information of the location, area and height of the actual physical space, and objects (eg, columns, walls, doors, machinery, flower beds, pots, fences) existing in the space. do. Here, the 3D information may include 2D or 3D images.
상관관계 설정 수단(430)은 영상 정보와 속성 정보와 3차원 정보의 상관관계를 설정한다. 여기서 상관관계란 가상의 공간 내에서 추상적인 데이터들의 상호 관계를 시각적으로 맵핑하는 것을 의미한다. 즉, 상관관계 설정 수단(430)은 가상의 공간 좌표와 센서의 감지 정보를 매칭시켜 모델링된 가상의 공간내에서 센서부의 감지정보가 출력되는 위치나 표시를 지정할 수 있다. The
여기서 상관관계 설정 수단(430)은 센서부(100)의 감지정보 외에도 설정된 입력기를 통하여 입력되는 다양한 문자, 기호 등을 가상 공간의 위치 좌표에 매칭시켜 출력함도 가능하다. Here, the
가시화 수단(440)은, 예를 들면, 3D 엔진으로서 가상의 공간을 모델링하고, 모델링된 가상의 공간내에서 상관관계 설정 수단(430)에 의해 매칭된 영상부(200)의 위치 및 속성값, 센서부(100)의 감지 정보를 표현하여 비가시 정보를 가시화한다. The visualization means 440, for example, models a virtual space as a 3D engine, and the location and attribute values of the
즉, 가시화 수단(440)은 영상정보가 없는 위치 또는 영상 정보를 3차원의 가상공간으로 구현하고, 구현된 3차원의 가상 공간 내에 센서부(100)에서 감지된 정보를 매칭시켜 비가시적 정보를 가시적 정보로 구현하여 출력한다.That is, the visualization means 440 implements the location or image information without image information in a 3D virtual space, and matches the information detected by the
따라서 본 발명은 영상으로 확인되지 않거나 불확실한 사각지대 또는 카메라가 설치되지 않은 공간을 가상의 3D 공간으로 표현하고, 비가시적 정보인 센서의 감지 정보를 가상의 3D 공간 내에 매칭시킴에 따라 시각적 정보로 구현할 수 있다. Therefore, the present invention can be implemented as visual information by expressing unidentified or uncertain blind spots or spaces where cameras are not installed as a virtual 3D space and matching sensor information, which is non-visual information, within the virtual 3D space. can
관제부(500)는 이벤트 탐지부(300) 및 비가시 정보 시각화부(400)로부터 출력되는 정보를 가공하여 관제 정보를 생성하고, 의사 결정을 위한 관제 정보의 편집툴을 제공하고, 데이터 기반의 의사 결정이 가능한 관제 정보를 가공 및 출력한다. The
이를 위하여 관제부(500)는 영상 정보와 센서부(100)의 감지정보 등의 다양한 관제 정보의 포맷(예를 들면, 비디오, HTML, Excel) 을 지원하며, 분석 가능한 데이터베이스(590)를 형성하여 각 정보의 상호 연관성과 임계치를 분석 처리하여 데이터 기반의 의사결정 모델로 위험 상황 발생을 제공한다. 이와 같은 관제부(500)의 상세 구성은 도 5를 참조하여 설명한다. To this end, the
도 5는 관제부(500)를 도시한 블럭도이다. 5 is a block diagram showing a
도 5를 참조하면, 관제부(500)는 사용자 기능 모듈(510)과, 시각화 차트 모듈(520)과, 외부 연동 모듈(530)과, 데이터 분석 모듈(540)과, 분산 정렬 모듈(550)과, 데이터 수집 모듈(560)과, 언어 분석 모듈(570)과, 검색 모듈(580) 및 데이터베이스(590)를 포함할 수 있다. Referring to FIG. 5 , the
사용자 기능 모듈(510)은 기능별 실시간 분석과, 대시보드, 실시간 알람, 검색 결과 및 테이블 목록을 제공할 수 있다. 또한, 사용자 기능 모듈(510)은 시각화 차트, 수집소스관리, 사전자원관리 및 작업 관리를 위한 다양한 메뉴를 제공할 수 있다. The
이중 실시간 알람은 이벤트 탐지부(300)와 비가시 정보 시각화부(400)의 출력 정보에 따른 경보를 출력할 수 있다. The double real-time alarm may output an alarm according to output information of the
기능별 실시간 분석은 비가시 정보 시각화부(400)와 연동되어 장치의 목적에 따라 구현된 가상의 공간을 통해 표현된 각 장치의 기능과 연관된 센서부(100)의 감지 정보와 함께 실시간 분석 결과를 디스플레이를 통하여 출력하는 방식을 이루어질 수 있다. Real-time analysis by function is interlocked with the invisible
즉, 관제부(500)는 비가시 정보 시각화부(400)를 구동시켜 시각화된 정보로서 실시간분석 결과를 출력 한다. That is, the
시각화 차트 모듈(520)은 수집된 정보를 시각화 차트로 구현한다. 예를 들면, 시각화 차트 모듈(520)은 수집된 데이터를 꺽은선형차트. 막대원형차트, 댄로그램 등 다양한 형상의 차트로 구현 및 그래픽 연동기능을 기능을 제공한다. 이와 같은 시각화 차트 모듈(520)의 기능은 사용자 기능 모듈(510)에 의해 출력될 수 있다. The
외부 연동 모듈(530)은 앱과, 외부 연동 API 및 외부 데이터 수집 기능을 제공한다. 즉, 외부 연동 모듈(530)은 유무선 네트워크를 통하여 외부 서버 및 장치와의 통신을 가능하게 하고, 외부 데이터를 수신할 수 있다. The
데이터 분석 모듈(540)은 센서부(100)의 감지정보를 분석하는 분석 알고리즘과, 쿼리 생성 및 쿼리 최적화 연산 기능을 제공한다. 분석 알고리즘은 이벤트 탐지부(300)와 연동될 수 있고, 분석된 결과를 대시모드 및/또는 외부 연동 모듈(530)을 통하여 설정된 외부 장치(예를 들면, 관리자의 모바일 단말, 관제서버)로 송신할 수 있다. The
데이터 분석 모듈(540)은 비가시화 정보 시각화부 및 이벤트 탐지부(300)에서 분산 및/또는 수집된 정보를 통계화 및 분산 결과를 집계하여 사용자 기능 모듈(510)에 출력할 수 있다. 또한, 데이터 분석 모듈(540)은 작업관리를 위한 스케쥴러를 제공할 수 있다. The
분산 정렬 모듈(550)은 키워드 검색 정보(예를 들면, 키워드, 검색횟수, 검색결과, 검색일자) 및 스캔 정보와, 이벤트 탐지부(300)의 영상 패턴 및 외부 사전 조회 정보와, 연산 정볼르 분산 정렬하여 데이터베이스(590)에 저장한다. The distributed
데이터 수집 모듈(560)은 설정된 기판의 포멧을 갖는 외부 저장소 및 로컬 저장소의 데이터를 수집한다. 여기서 데이터 수집 모듈(560)은 대시보드를 통하여 입력된 키워드에 해당되는 데이터를 검색 및 수집할 수 있다. The
언어 분석 모듈(570)은 메타 데이터, 외부 및 로컬 저장소 외부 저장소 및 로컬 저장소에 저장된 다양한 전자 문서 및 파일들에서 토픽(Topic)과 형태소를 추출한다. 여기서 언어분석 모듈은 예를 들면, 설정된 단어, 단어와 단어의 조합, 문장 중 적어도 하나를 포함하는 기준이 설정되며, 해당 기준에 부합된 내용을 갖는 전자문서 또는 파일을 추출한다. The
검색 모듈(580)은 복합 검색 질의 처리와 분산 데이터 검색과 분산 고속 색인 기능을 제공한다. 예를 들면, 검색 모듈(580)은 설정된 질의에 따른 답변을 설정하여 자동으로 제공한다. 또한, 검색모듈은 분산된 데이터(예를 들면,영상DB(310), 속성DB(421), 3차원DB(422), 관제부(500)의 데이터베이스(590))를 검색하여 사용자 기능 모듈(510)의 대시보드로 출력할 수 있다. 또한, 검색모듈은 설정된 기준에 따라서 분산저장된 정보들에 선택적으로 색인을 부여 및 설정할 수 있다.The
데이터베이스(590)는 메타데이터를 저장하는 메타 데이터 DB와, 외부 장치로부터 수집된 정보를 데이터를 저장하는 외부 장치 데이터 DB와, 연산 결과를 저장하는 연산 결과 DB와, 색인 정보가 저장되는 색인 정보 DB를 포함할 수 있다. The
모니터링부(600)는 관제부(500)와 이벤트 탐지부(300)의 실시간 분석 결과를 모니터링하여 내부 또는 외부네트워크를 통하여 해당 정보를 송신한다. 예를 들면, 관제부(500)는 모니터링 정보를 수신할 수 있는 권한이 설정된 단말의 정보 및 IP, 아이디와 같은 식별정보가 설정되며, 모니터링부(600)는 관제부(500)를 통하여 설정된 식별정보를 갖는 외부 장치로 모니터링 정보를 실시간 또는 주기적으로 송신할 수 있다. 이때, 모니터링부(600)는 설정된 권한에 따라 모니터링 결과를 선택적으로 송신할 수 있다. The
재생부(700)는 영상DB(310)에 저장된 영상을 재생한다. 여기서 재생부(700)는 관제부(500)의 데이터베이스(590)에 저장된 메타 데이터와 연관된 정보(데이터)와 연동하여 이벤트별, 상황별로 관련된 영상정보를 재생할 수 있다. 또한, 재생부(700)는 썸네일, 날짜 및 시간 검색, 스냅샷 검색, 이벤트검색 기능을 지원할 수 있다. The
예를 들면, 재생부(700)는 날짜 및 시간 검색은 영상부(200)에 포함된 복수의 카메라 별 영상을 날짜와 시간을 통해 검색할 수 있다. 또한, 재생부(700)는 저장된 영상의 변화되는 모습을 확인하여 검색할 수 있도록 썸네일(Thumbnail) 검색을 구현할 수 있다. For example, the
또한, 재생부(700)는 영상 정보의 검색시에 시간대별 스냅샷(Snapshot)을 미리 보기 할 수 있어 영상의 신속검색 기능을 지원한다. In addition, the
또한, 재생부(700)는 이벤트 데이터에 기반하여 과거의 문제 상황을 특정 짓고 이를 검색할 수 있도록 이벤트별 검색 기능을 제공할 수 있다. In addition, the
이와 같은 재생부(700)의 검색 기능은 센서부(100)의 다양한 감지 정보 중에 추출된 이상 상황 및 감시 상황의 특이점을 즉시 확인할 수 있는 효과를 제공할 수 있고, 특정 상황에서 다종의 센서의 감지 정보를 확인하거나, 특정 센서의 감지 정보에 특정된 상황에서 관련된 주변 영상을 빠르게 확인할 수 있다. 따라서 재생부(700)는 원인 규명을 보다 용이하게 할 수 있도록 한다. 여기서 재생부(700)는 관제부(500)에 포함될 수 있다. The search function of the reproducing
본 발명은 상기와 같은 구성에 의해 구현되는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 방법을 포함한다. 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 방법은 이상징후 예측 단계와, 비가시 정보의 시각화 단계를 포함할 수 있다. 이중 이상징후 예측 단계는 도 6 및 도 7을 참조하여 설명한다. The present invention includes a method for visualizing anomaly data based on a deep learning engine implemented by the above configuration. The method for visualizing anomaly data based on a deep learning engine according to the present invention may include an anomaly prediction step and a visualization step of invisible information. The double anomaly prediction step will be described with reference to FIGS. 6 and 7 .
도 6은 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 방법에서 이상징후 예측단계를 도시한 순서도, 도 7은 도 6의 S150 단계를 도시한 순서도이다. 6 is a flow chart showing an anomaly prediction step in the method for visualizing anomaly symptom data based on a deep learning engine according to the present invention, and FIG. 7 is a flowchart showing step S150 in FIG. 6 .
도 6 및 도 7을 참조하면, 본 발명에서 이상징후 예측단계는 영상 정보를 수신하는 S110 단계와, 영상 처리하는 S120 단계와, 패턴을 추출하는 S130 단계와, 사용변수를 설정하는 S140 단계와, 이벤트를 예측하는 S150 단계를 포함할 수 있다. 6 and 7, the anomaly prediction step in the present invention comprises the steps of S110 for receiving image information, step S120 for image processing, step S130 for extracting a pattern, step S140 for setting use variables, A step S150 of predicting an event may be included.
S110 단계는 이벤트 탐지부(300)에서 영상 정보를 수집하는 단계이다. 영상부(200)는 촬영된 영상을 실시간으로 영상DB(310)에 저장하고, 영상 추출 수단(320)은 영상DB(310)에 저장된 영상부(200)의 촬영 영상을 실시간으로 수집한다. Step S110 is a step of collecting image information in the
S120 단계는 이벤트 탐지부(300)에서 수집된 영상을 압축하고, 대용량 처리에 적합한 대역폭을 갖도록 대역폭을 조절하고, 압축하는 단계이다. Step S120 is a step of compressing the image collected by the
S130 단계는 이벤트 탐지부(300)에서 수집된 영상 중에 설정된 행위나 객체가 포함된 영상을 추출하여 특징DB(330)로 저장하고, 기존의 특징DB(330)에 저장된 영상들과의 설정된 범위 내에 속하는 패턴을 추출하는 단계이다. Step S130 extracts an image including a set action or object from among the images collected by the
S140 단계는 이벤트 탐지부(300)에서 사용변수를 설정하는 단계이다. 이벤트 탐지부(300)의 사용변수 설정 수단(340)은 신규촬영된 영상이 기존의 영상 패턴에 해당되는 경우에 해당 영상의 현장 상황에 따른 가중치가 포함된 사용변수를 설정하는 단계이다. 여기서 사용변수는 현장에 설치된 센서부(100)의 감지 정보(감지 데이터)이다. 따라서 사용변수 설정 수단(340)은, 예를 들면, 촬영된 영상의 현장에서 감지된 소음과, 영상 패턴에서 이상 상황에서의 소음 값과 비교하기 전에 해당 현장의 평상시 소음 정도에 따라서 촬영된 현장의 소음값에 대한 가중치를 설정한다. Step S140 is a step of setting use variables in the
S150 단계는 이벤트 탐지부(300)에서 이벤트를 예측하는 단계로서, 이벤트 발생확률을 예측하는 S151 단계와, 이벤트 영향력을 예측하는 S152 단계와, 이벤트 발생확률 및 이벤트 영향력 값을 이용하여 이벤트 위험지수를 산출하는 단계이다. Step S150 is a step of predicting an event in the
S151 단계는 이벤트 예측 수단(360)에서 영상 패턴에 부여된 사용변수의 가중치 설정을 통하여 이벤트 발생 확률을 예측하는 단계이다. 여기서 이벤트 예측 수단(360)은 XG Boost를 이용하여 이벤트 발생확률을 예측할 수 있다. Step S151 is a step of predicting an event occurrence probability through weight setting of a use variable assigned to an image pattern in the event predicting unit 360 . Here, the event prediction unit 360 may predict an event occurrence probability using XG Boost.
S152 단계는 이벤트 예측수단에서 DNN 분석을 통하여 이벤트 영향력을 예측하는 단계이다. 이벤트 영향력은 현장에서 발생된 사용변수의가중치에 따라 주변에 어떠한 영향력, 예를 들면, 현장에 발생된 불꽃이나 온도가 주변의 장치나 사람들에 어떤 영향을 줄 수 있는지를 예측한다. Step S152 is a step of predicting event influence through DNN analysis in the event prediction means. Event influence predicts what kind of influence, for example, how a flame or temperature generated at the site can affect nearby devices or people according to the weight of the use variable generated at the site.
S153 단계는 이벤트 예측 수단(360)에서 이벤트 발생확률과 이벤트 영향력의 산출값을 통하여 위험지수를 산출하는 단계이다. 이벤트 예측 수단(360)은 위험지수를 산출하고, 산출된 위험 지수 값이 설정된 기준에 해당되면 관제부(500)에 이벤트 감지 정보를 출력할 수 있다. 관제부(500)는 이벤트 감지정보가 수신되면, 알람을 구동시킬 수 있다. Step S153 is a step of calculating the risk index through the event occurrence probability and the calculated value of the event influence in the event prediction unit 360 . The event prediction unit 360 may calculate a risk index and output event detection information to the
도 8은 본 발명에 따른 비가시적 정보의 시각화 단계를 도시한 순서도이다. 8 is a flowchart illustrating a visualization step of invisible information according to the present invention.
도 8을 참조하면, 비가시적 정보의 시각화 단계는 정보를 수집하는 S210 단계와, 데이터 변환 및 가공 하는 S220 단계와, 정보를 분류하는 S230 단계와, 상관 관계를 설정하고 모델링하는 S240 단계와, 비가시적 정보를 3D 정보로 출력하는 S250 단계를 포함할 수 있다. Referring to FIG. 8, the visualization of invisible information includes information collection S210, data conversion and processing S220, information classification S230, correlation setting and modeling S240, A step S250 of outputting the visual information as 3D information may be included.
S210 단계는 비가시 정보 시각화부(400)에서 센서부(100) 및 영상부(200)로부터 실시간 정보를 수집하는 단계이다. 여기서 센서부(100)와 영상부(200)는 실시간으로 감지된 정보를 센서DB(350)와 영상DB(310)로 저장하고,비가시 정보 시각화부(400)는 저장된 정보를 수집하거나, 또는 센서DB(350)와 영상DB(310)를 거치지 않고 직접 연결하여 정보를 수집함도 가능하다. Step S210 is a step of collecting real-time information from the
S220 단계는 데이터 변환 및 가공하는 단계이다. 정보 수집 수단(410)은 수집된 정보를 설정된 포맷 형태로 변환하고, 대용량 전송에 적합하도록 가공할 수 있다. Step S220 is a step of converting and processing data. The
S230 단계는 정보를 분류하는 단계이다. 데이터 분류 수단(420)은 수집된 정보를 행위와 객체 및/또는 현상 으로 분류하여 속성DB(421)에 저장하고, 3차원 공간에 관련 된 정보를 3차원DB(422)로 분류하여 저장한다. Step S230 is a step of classifying information. The data classification means 420 classifies the collected information into actions, objects, and/or phenomena, stores it in the
S240 단계는 속성DB(421)와 3차원DB(422)에 저장된 각각의 정보들의 상관 관계를 설정하고, 실제 물리 공간을 가상의 공간으로 모델링하는 단계이다. 상관관계 설정 수단(430)은 속성DB(421)에 저장된 정보와 3차원DB(422)에 저장된 데이터들의 상관 관계를 설정한다. 예를 들면, 상관관계는 영상과, 촬영된 영상의 실제 위치에 설치된 센서의 감지 정보들을 설정하거나, 센서부(100)의 감지정보를 실제 물리 공간의 3차원 정보와 연계되도록 설정한다. Step S240 is a step of setting a correlation between each piece of information stored in the
그리고 가시화 수단(440)은 3차원 데이터를 이용하여 실제 물리공간을 가상의 3D 공간으로 모델링 한다.And the
S250 단계는 모델링된 가상의 공간 내에 센서의 감지정보를 표현하는 단계이다. 가시화 수단(440)은 상관관계로 설정된 정보를 모델링된 가상의 공간에 표현할 수 있다. 이는 영상부(200)가 설치되지 않은 공간을 가상의 공간으로 모델링하고, 모델링된 가상의 공간 내에 센서부(100)의 감지정보를 표현함에 따라 영상이 확보되지 않은 사각 지대의 상황을 정확하게 판단할 수 있도록 한다. Step S250 is a step of expressing the sensed information of the sensor in the modeled virtual space. The
이와 같이 3차원의 가상공간으로 시각화된 정보는 관제부(500)에 의해 디스플레이 된다. 또한, 관리자는 위와 같은 비가시 정보 시각화부(400)를 이용하여 현장 상황 파악이 용이하고, 이를 통해 이상징후에 대한 탐지률을 높일 수 있다. The information visualized in the 3D virtual space is displayed by the
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정, 변경 및 치환 가능할 것이다. The above description is merely an example of the technical idea of the present invention, and those skilled in the art can make various modifications, changes, and substitutions without departing from the essential characteristics of the present invention.
따라서 본 발명에 개시된 실시예는 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
100 : 센서부
200 : 영상부
300 : 이벤트 탐지부
310 : 영상DB
320 : 영상 추출 수단
330 : 특징DB
340 : 사용변수 설정 수단
350 : 센서DB
360 : 이벤트 예측 수단
400 : 비가시 정보 시각화부
410 : 정보 수집 수단
420 : 데이터 분류 수단
421 : 속성DB
422 : 3차원DB
430 : 상관관계 설정 수단
440 : 가시화 수단
500 : 관제부
510 : 사용자 기능 모듈
520 : 시각화 차트 모듈
530 : 외부 연동 모듈
540 : 데이터 분석 모듈
550 : 분산 정렬 모듈
560 : 데이터 수집 모듈
570 : 언어 분석 모듈
580 : 검색 모듈
590 : 데이터베이스
600 : 모니터링부
700 : 재생부100: sensor unit 200: imaging unit
300: event detection unit 310: image DB
320: image extraction means 330: feature DB
340: use variable setting means 350: sensor DB
360: event prediction means 400: invisible information visualization unit
410: information collection means 420: data classification means
421: attribute DB 422: three-dimensional DB
430: correlation setting means 440: visualization means
500: control unit 510: user function module
520: visualization chart module 530: external linkage module
540: data analysis module 550: distributed sorting module
560: data collection module 570: language analysis module
580: search module 590: database
600: monitoring unit 700: playback unit
Claims (6)
복수의 카메라를 구비하는 영상부(200);
센서부(100)의 감지 정보와, 영상부(200)의 영상 정보를 수집하여 이상징후를 예측하는 이벤트 탐지부(300);
실제 물리 공간을 가상의 3D 공간으로 모델링하고, 모델링된 가상의 공간 내에 센서부(100)의 감지정보를 시각화하는 비가시 정보 시각화부(400); 및
이벤트 탐지부(300) 및 비가시 정보 시각화부(400)로부터 출력되는 정보를 가공하여 관제 정보를 생성하고, 의사 결정을 위한 관제 정보의 편집툴을 제공하는 관제부(500); 를 포함하는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템.
A sensor unit 100 having a plurality of sensors;
an imaging unit 200 having a plurality of cameras;
an event detection unit 300 that predicts abnormal symptoms by collecting detection information of the sensor unit 100 and image information of the imaging unit 200;
an invisible information visualization unit 400 that models a real physical space into a virtual 3D space and visualizes the sensing information of the sensor unit 100 in the modeled virtual space; and
a control unit 500 that generates control information by processing information output from the event detection unit 300 and the invisible information visualization unit 400 and provides an editing tool for the control information for decision-making; Visualization system of anomaly data based on deep learning engine including
영상 정보로부터 설정된 영상 패턴을 추출하는 영상 추출 수단(320);
추출된 영상 패턴의 현장에서 감지된 센서부(100)의 감지정보를 사용변수로 설정하고, 현장에 따라 서로 다른 가중치를 설정하는 사용변수 설정 수단(340); 및
사용변수 설정 수단(340)에서 설정된 가중치에 따라 이벤트 발생 확률과, 이벤트 영향력을 산출하여 위험 징후를 산출하는 이벤트 예측 수단(360); 을 포함하는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템.
The method according to claim 1, the event detection unit 300
image extraction means 320 for extracting a set image pattern from image information;
a use variable setting means 340 for setting detection information of the sensor unit 100 detected at the site of the extracted image pattern as a use variable and setting different weights according to the site; and
an event predicting unit 360 for calculating a danger sign by calculating an event occurrence probability and an event influence according to the weight set by the use variable setting unit 340; Visualization system of anomaly data based on deep learning engine including
센서부(100) 및 영상부(200)로부터 정보를 수집하는 정보 수집 수단(410);
정보 수집 수단(410)에서 수집된 정보를 행위, 객체, 현상에 따른 센서부(100)의 감지정보와, 실제 물리 공간의 정보로 분류하는 데이터 분류 수단(420);
센서부(100)의 감지 정보와 실제 물리 공간의 정보가 연계되도록 상관관계를 설정하는 상관관계 설정 수단(430); 및
실제 물리 공간을 가상의 3D 공간으로 모델링하고, 모델링 된 가상의 3D 공간에 센서부(100)의 감지정보를 표현하는 가시화 수단(440); 을 포함하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 시스템.
The method according to claim 1, the invisible information visualization unit 400
information collection means 410 for collecting information from the sensor unit 100 and the imaging unit 200;
a data classification unit 420 for classifying the information collected by the information collection unit 410 into sensing information of the sensor unit 100 according to actions, objects, and phenomena, and information of an actual physical space;
Correlation setting means 430 for setting a correlation so that the detected information of the sensor unit 100 and the information of the actual physical space are linked; and
a visualization unit 440 that models the actual physical space as a virtual 3D space and expresses the sensing information of the sensor unit 100 in the modeled virtual 3D space; Visualization system of anomaly data based on deep learning engine including.
재생부(700)는
데이터베이스(590)에 저장된 메타 데이터와 연관된 정보와 연동하여 이벤트별, 상황별로 관련된 영상정보를 재생하고, 썸네일(Thumbnail), 날짜 및 시간 검색, 스냅샷 검색, 이벤트 검색 중 하나 이상을 지원하는 것; 을 특징으로 하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 시스템.
The method according to claim 1, Reproducing unit (700) for reproducing the image stored in the image DB (310); Including more,
The playback unit 700
Reproducing video information related to each event and situation in conjunction with information related to metadata stored in the database 590, and supporting one or more of thumbnail, date and time search, snapshot search, and event search; A visualization system of anomaly data based on a deep learning engine.
이벤트 탐지부(300)의 이벤트 탐지단계는
a)영상부(200)로부터 영상 정보를 수집하는 단계;
b)수집된 영상 중에 설정된 행위나 객체가 포함된 영상 패턴을 추출하는 단계;
c)영상 패턴에 포함된 현장에 설치된 센서부(100)의 감지 정보를 영상 패턴의 사용변수로 설정하고, 상황 및 현장별로 서로 다르게 설정된 가중치를 적용하는 단계;
d)서로 다른 가중치로서 설정된 사용변수를 통하여 이벤트 발생확률과 이벤트 영향력의 예측 값을 산출하는 단계; 및
e)이벤트 발생확률 및 이벤트 영향력 값을 이용하여 이벤트 위험지수를 산출하는 단계; 를 포함하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 방법.
An event detection step of an event detection unit 300 for predicting an event by collecting image information received from a plurality of imaging units 200 and sensing information of the sensor unit 100;
The event detection step of the event detection unit 300 is
a) collecting image information from the imaging unit 200;
b) extracting an image pattern including a set action or object among collected images;
c) setting detection information of the sensor unit 100 installed in the field included in the image pattern as a use variable of the image pattern, and applying weights differently set for each situation and site;
d) calculating an event occurrence probability and a predicted value of an event influence through use variables set as different weights; and
e) calculating an event risk index using an event occurrence probability and an event influence value; Visualization method of anomaly data based on deep learning engine including.
비가시 정보 시각화부(400)의 시각화 단계는
a-1)센서부(100) 및 영상부(200)로부터 실시간 정보를 수집하는 단계;
b-1)수집된 정보를 행위와 객체 및 현상 중 하나 이상을 포함하는 속성 정보와, 실제 물리 공간의 정보를 포함하는 3차원 정보로 분류하는 단계;
c-1)속성 정보와 3차원 정보들의 상관관계를 설정하고, 실제 물리 공간을 가상의 공간으로 모델링하는 단계; 및
d-1)모델링된 가상의 공간 내에 상관관계가 설정된 센서의 감지 정보를 표현하여 비가시 정보를 시각화하는 단계; 를 포함하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 방법.The method according to claim 4, further comprising; visualizing the invisible information by the invisible information visualization unit 400,
The visualization step of the invisible information visualization unit 400 is
a-1) collecting real-time information from the sensor unit 100 and the imaging unit 200;
b-1) classifying the collected information into attribute information including at least one of actions, objects, and phenomena, and 3D information including real physical space information;
c-1) setting a correlation between attribute information and 3D information and modeling a real physical space into a virtual space; and
d-1) visualizing invisible information by expressing sensor information sensed by a correlation set in a modeled virtual space; Visualization method of anomaly data based on deep learning engine including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210114494A KR20230032087A (en) | 2021-08-30 | 2021-08-30 | Abnormal symptom data visualization system based-on deep learning engine and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210114494A KR20230032087A (en) | 2021-08-30 | 2021-08-30 | Abnormal symptom data visualization system based-on deep learning engine and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230032087A true KR20230032087A (en) | 2023-03-07 |
Family
ID=85513296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210114494A KR20230032087A (en) | 2021-08-30 | 2021-08-30 | Abnormal symptom data visualization system based-on deep learning engine and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230032087A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101987241B1 (en) | 2017-02-24 | 2019-06-11 | 주식회사 케이티 | Complexed event processing base smart monitoring platform and smart monitoring method |
-
2021
- 2021-08-30 KR KR1020210114494A patent/KR20230032087A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101987241B1 (en) | 2017-02-24 | 2019-06-11 | 주식회사 케이티 | Complexed event processing base smart monitoring platform and smart monitoring method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Laufs et al. | Security and the smart city: A systematic review | |
JP6867153B2 (en) | Abnormality monitoring system | |
US9589181B2 (en) | Person search method and device for searching person staying on platform | |
Cameron et al. | Emergency situation awareness from twitter for crisis management | |
JP2012518846A (en) | System and method for predicting abnormal behavior | |
CN110428522A (en) | A kind of intelligent safety and defence system of wisdom new city | |
US20150100355A1 (en) | Method and apparatus for identifying early status | |
KR102058452B1 (en) | IoT Convergence Intelligent Video Analysis Platform System | |
JP2018173914A (en) | Image processing system, imaging apparatus, learning model creation method, and information processing device | |
CN103004188A (en) | Apparatus, system and method | |
KR102356666B1 (en) | Method and apparatus for risk detection, prediction, and its correspondence for public safety based on multiple complex information | |
CN116662989B (en) | Security data analysis method and system | |
CN111553305B (en) | System and method for identifying illegal videos | |
CN112199882A (en) | Simulation method for evacuation process of people in fire, evacuation early warning method and system | |
CN115358155A (en) | Power big data abnormity early warning method, device, equipment and readable storage medium | |
CN116384736A (en) | Smart city risk perception method and system | |
KR102215519B1 (en) | Edge gateway, cloud server and method for predicting disaster on target region using edge computing in extended reality environment | |
Mwedzi et al. | Machine learning applications for fire detection in a residential building | |
KR102110375B1 (en) | Video watch method based on transfer of learning | |
KR20220036672A (en) | Control system capable of 3d visualization based on data and the method thereof | |
KR20230032087A (en) | Abnormal symptom data visualization system based-on deep learning engine and method thereof | |
CN112580470A (en) | City visual perception method and device, electronic equipment and storage medium | |
Yokota et al. | Crime linkage of sex offences in Japan by multiple correspondence analysis | |
Mohana Kumar et al. | Forest fire prediction using image processing and machine learning | |
CN114241400A (en) | Monitoring method and device of power grid system and computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |