KR20230032087A - Abnormal symptom data visualization system based-on deep learning engine and method thereof - Google Patents

Abnormal symptom data visualization system based-on deep learning engine and method thereof Download PDF

Info

Publication number
KR20230032087A
KR20230032087A KR1020210114494A KR20210114494A KR20230032087A KR 20230032087 A KR20230032087 A KR 20230032087A KR 1020210114494 A KR1020210114494 A KR 1020210114494A KR 20210114494 A KR20210114494 A KR 20210114494A KR 20230032087 A KR20230032087 A KR 20230032087A
Authority
KR
South Korea
Prior art keywords
information
unit
event
visualization
image
Prior art date
Application number
KR1020210114494A
Other languages
Korean (ko)
Inventor
김찬중
Original Assignee
엔씨엔스페이스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔씨엔스페이스(주) filed Critical 엔씨엔스페이스(주)
Priority to KR1020210114494A priority Critical patent/KR20230032087A/en
Publication of KR20230032087A publication Critical patent/KR20230032087A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

An embodiment of the present invention may provide a deep learning engine-based abnormal sign data visualization system comprising: a sensor unit (100) having a plurality of sensors; an imaging unit (200) including a plurality of cameras; an event detection unit (300) collecting detection information of the sensor unit (100) and image information of the imaging unit (200) to predict an abnormal sign; an invisible information visualization unit (400) modeling an actual physical space into a virtual three-dimensional space and visualizing the detection information of the sensor unit (100) in the modeled virtual space; and a control unit (500) processing information output from the event detection unit (300) and the invisible information visualization unit (400) to generate control information and providing a control information editing tool for decision-making. An abnormal sign can be easily identified in a dead zone to perform a rapid countermeasure.

Description

딥러닝 엔진 기반의 이상징후 데이터 시각화 시스템 및 방법{Abnormal symptom data visualization system based-on deep learning engine and method thereof}Abnormal symptom data visualization system based-on deep learning engine and method thereof}

본 발명은 딥러닝 엔진 기반의 이상징후 데이터 시각화 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for visualizing anomaly data based on a deep learning engine.

과거부터 사회적 및 자연적 재해로 인한 안전에 대한 경각심이 점점 증폭되고 있는 상황으로, 사회적으로 밀집화되고 기술이 고도화되면서 사건ㆍ사고의 피해가 증가하고 있다. In a situation where awareness of safety due to social and natural disasters has been gradually amplified since the past, damage from accidents and accidents is increasing as social density and technology are advanced.

예를 들면, 국내에서는 2008년 2월에 발생한 숭례문 화재로 인해서, 5시간 만에 국가의 상징물인 문화재가 전소되는 참사가 발생하였으며, 대구 서문시장에서는 액화석유가스(LPG)의 누출로 인해 화재가 발생하여, 점포 679개가 연소되는/ 사건 등의 대규모 사고가 발생하였다. 또한, 해외의 경우에는 각종 분쟁으로 인한 테러 또는 사회안전을 위협하는 사고 등이 확산 되고 있다. For example, in Korea, due to the Sungnyemun fire that occurred in February 2008, a disaster occurred in which cultural assets, the national symbol, were burned down within 5 hours. occurred, resulting in large-scale accidents such as 679 stores being burned/an incident. In addition, in the case of foreign countries, terrorism or accidents that threaten social safety due to various conflicts are spreading.

이와 같이 사회적 재난 및 자연적 재해는 사회적인 영향뿐만 아니라 경제적인 측면에도 큰 타격을 가하고 있는 상황임에 따라 국내외에서 사고 원인 규명등의 원인과 예방, 방지 등을 위한 목적으로 다양한 영상 감시 시스템이 제안되었다. In this way, social and natural disasters have a great impact on the economy as well as the social impact. Accordingly, various video surveillance systems have been proposed at home and abroad for the purpose of identifying the cause of the accident, preventing it, and preventing it.

그러나, 종래의 영상 감시 시스템은, 도 1에 도시된 바와 같이, 영상정보(b)와 함께 센싱된 데이터(a)를 나열식으로 제공하고, 사람 및 차량 등 움직임 위치로 객체를 탐지하여 고정된 프레임 형태로의 관제이터를 제공하고 있다. 특히, 종래기술은 도 1에 도시된 바와 같이 CCTV 영상 및 센싱 값을 시각화 정보(영상정보)와 별도로 제공하고 있어 비직관적인 문제점이 있었다.1However, as shown in FIG. 1, the conventional video surveillance system provides sensed data (a) together with image information (b) in an enumerated manner, and detects objects such as people and vehicles at a moving position to obtain fixed A controller in the form of a frame is provided. In particular, in the prior art, as shown in FIG. 1, CCTV images and sensing values are provided separately from visualization information (image information), and thus there is an unintuitive problem.

또한, 종래기술은 시간대별 플레이백(Play back)하는 방식임에 따라 특정 상황이 발생했을 경우에 원인 규명에 소요되는 시간 소모가 크고, 자체 보유 모델별 CCTV와 센서만 호환 가능함에 장비의 호환이 어려운 문제점이 있었다. In addition, the prior art is a method of playing back by time zone, so when a specific situation occurs, the time required to identify the cause is high, and only the CCTV and sensor for each model owned are compatible, so the equipment is compatible. There was a difficult problem.

대한민국 등록특허공보 제10-1987241(2019.06.03)Republic of Korea Patent Registration No. 10-1987241 (2019.06.03)

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 영상정보와 센서정보가 융합되어 비가시적 정보를 직관적으로 제공하여 이상징후를 사전에 예측할 수 있는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve the above conventional problems, the present invention provides a system and method for visualizing anomaly data based on a deep learning engine capable of predicting anomalies in advance by intuitively providing non-visible information by fusion of image information and sensor information. is intended to provide

본 발명은 상기와 같은 목적을 달성하기 위하여 하기와 같은 실시예를 포함할 수 있다.The present invention may include the following embodiments in order to achieve the above object.

본 발명의 실시예는 복수의 센서를 구비하는 센서부와, 복수의 카메라를 구비하는 영상부와, 센서부의 감지 정보와 영상부의 영상 정보를 수집하여 이상징후를 예측하는 이벤트 탐지부와, 실제 물리 공간을 가상의 3D 공간으로 모델링하고, 모델링된 가상의 공간 내에 센서부의 감지정보를 시각화하는 비가시 정보 시각화부 및 이벤트 탐지부 및 비가시 정보 시각화부로부터 출력되는 정보를 가공하여 관제 정보를 생성하고, 의사 결정을 위한 관제 정보의 편집툴을 제공하는 관제부를 포함하는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템을 제공할 수 있다. An embodiment of the present invention is a sensor unit having a plurality of sensors, an imaging unit having a plurality of cameras, an event detection unit that predicts an anomaly by collecting detection information of the sensor unit and image information of the imaging unit, and a real physical The space is modeled as a virtual 3D space, and the information output from the non-visual information visualization unit and the event detection unit and the non-visual information visualization unit that visualizes the sensing information of the sensor unit in the modeled virtual space is processed to generate control information In addition, it is possible to provide a visualization system of anomaly data based on a deep learning engine including a control unit providing an editing tool for control information for decision making.

본 발명의 다른 실시예는 복수의 영상부로부터 수신된 영상 정보와, 센서부의 감지정보를 수집하여 이벤트를 예측하는 이벤트 탐지부의 이벤트 탐지단계를 포함하고, 이벤트 탐지부의 이벤트 탐지단계는 a)영상부로부터 영상 정보를 수집하는 단계와, b)수집된 영상 중에 설정된 행위나 객체가 포함된 영상 패턴을 추출하는 단계와, c)영상 패턴에 포함된 현장에 설치된 센서부의 감지 정보를 영상 패턴의 사용변수로 설정하고, 상황 및 현장별로 서로 다르게 설정된 가중치를 적용하는 단계와, d)서로 다른 가중치로서 설정된 사용변수를 통하여 이벤트 발생확률과 이벤트 영향력의 예측 값을 산출하는 단계 및 e)이벤트 발생확률 및 이벤트 영향력 값을 이용하여 이벤트 위험지수를 산출하는 단계를 포함하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 방법을 제공할 수 있다. Another embodiment of the present invention includes an event detection step of an event detection unit for predicting an event by collecting image information received from a plurality of imaging units and sensing information of a sensor unit, and the event detection step of the event detection unit is a) the imaging unit Collecting image information from, b) extracting an image pattern including a set action or object among the collected images, and c) using the detection information of the sensor unit installed in the field included in the image pattern as a variable used in the image pattern. , and applying weights set differently for each situation and site, d) calculating the event occurrence probability and the predicted value of the event influence through the use variables set as different weights, and e) event occurrence probability and event A visualization method of anomaly data based on a deep learning engine including calculating an event risk index using an influence value may be provided.

본 발명은 센서부의 감지정보가 실제 물리공간을 표현하는 가상의 3D 공간으로 표현된 관제정보를 제공함에 따라 촬영 사각지대의 이상징후의 파악이 용이함에 따라 신속한 대처가 가능하여 재산 및 인명 손실을 예방할 수 있다. The present invention provides control information expressed in a virtual 3D space in which the sensing information of the sensor unit expresses the actual physical space, so that it is easy to grasp abnormal symptoms in the shooting blind spot, so that quick response is possible to prevent loss of property and life. can

또한, 본 발명은 현장별 및 상황별로 서로 다른 가중치를 설정하고, 딥러닝 기법에 의해 추출된 영상패턴에 가중치가 적용된 사용변수를 이용하여 이벤트별 영향력과 발향확율을 통하여 위험지수를 산출함에 따라 정확한 위험지수의 예측이 가능한 효과가 있다. In addition, the present invention sets different weights for each site and situation, and calculates the risk index through the influence and smell diffusion probability of each event using the weighted usage variable to the image pattern extracted by the deep learning technique. There is an effect that can predict the risk index.

도 1은 종래의 영상 정보 및 센서 정보의 출력 화면을 도시한 도면이다.
도 2는 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템을 도시한 블럭도이다.
도 3은 이벤트 탐지부를 도시한 블럭도이다.
도 4는 비가시 정보 시각화부를 도시한 블럭도이다.
도 5는 관제부를 도시한 블럭도이다.
도 6은 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 방법에서 이상징후 예측단계를 도시한 순서도이다.
도 7은 도 6의 S150 단계를 도시한 순서도이다.
도 8은 본 발명에 따른 비가시적 정보의 시각화 과정을 도시한 순서도이다.
1 is a diagram showing a conventional output screen of image information and sensor information.
2 is a block diagram showing a system for visualizing anomaly data based on a deep learning engine according to the present invention.
3 is a block diagram illustrating an event detection unit.
4 is a block diagram illustrating an invisible information visualization unit.
5 is a block diagram showing a control unit.
6 is a flowchart illustrating an anomaly prediction step in a method for visualizing anomaly data based on a deep learning engine according to the present invention.
FIG. 7 is a flowchart illustrating step S150 of FIG. 6 .
8 is a flowchart illustrating a visualization process of invisible information according to the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in this specification and claims are not limited to the usual or dictionary meanings, and the inventor can properly define the concept of the term in order to explain his or her invention in the best way. Based on this, it should be interpreted as a meaning and concept consistent with the technical spirit of the present invention.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", " 모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as “… unit”, “… unit”, “module”, and “device” described in the specification mean a unit that processes at least one function or operation, which is implemented as a combination of hardware and/or software. It can be.

이하, 도면을 참고하여 본 발명의 실시예에 대하여 설명한다. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

도 2는 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템을 도시한 블럭도 이다. 2 is a block diagram showing a system for visualizing anomaly data based on a deep learning engine according to the present invention.

도 2를 참조하면, 본 발명은 센서부(100)와, 영상부(200), 이벤트 탐지부(300)와, 비가시 정보 시각화부(400)와, 관제부(500)와 모니터링부(600)와 재생부(700)를 포함할 수 있다.Referring to FIG. 2 , the present invention includes a sensor unit 100, an imaging unit 200, an event detection unit 300, an invisible information visualization unit 400, a control unit 500, and a monitoring unit 600. ) and a playback unit 700.

이중 센서부(100)는 가스, 연기, 온도, 습도, 전류, 저항, 조도와 같이 공간내의 현상을 감지할 수 있는 센서들과, 인체와 인간의 행위나 움직임을 감지할 수 있는 모션 센서 중 적어도 하나 이상을 구비하는 복수의 센서들로 구성된다. The dual sensor unit 100 includes at least one of sensors capable of detecting phenomena in space such as gas, smoke, temperature, humidity, current, resistance, and illuminance, and motion sensors capable of detecting the human body and human actions or movements. It consists of a plurality of sensors including one or more.

영상부(200)는 복수의 카메라를 포함할 수 있다. The imaging unit 200 may include a plurality of cameras.

여기서 센서부와 영상부는 복수의 현장에서 내/외부 네트워크를 통하여 신호를 송신할 수 있다. Here, the sensor unit and the imaging unit may transmit signals through an internal/external network in a plurality of sites.

또한, 센서부(100) 및 영상부(200)는 각각 독립된 장치로서 별개의 위치에 설치될 수 있다. 또는 센서부(100)와 영상부(200)가 일체로 형성되어 동일 위치에 설치될 수 있다. In addition, the sensor unit 100 and the image unit 200 may be installed in separate locations as independent devices. Alternatively, the sensor unit 100 and the image unit 200 may be integrally formed and installed at the same location.

이벤트 탐지부(300)는 센서부(100) 및 영상부(200)의 정보를 통하여 이상징후를 산출한다. 이와 같은 이벤트 탐지부(300)는 도 3을 참조하여 설명한다.The event detection unit 300 calculates abnormal symptoms through information of the sensor unit 100 and the imaging unit 200 . Such an event detection unit 300 will be described with reference to FIG. 3 .

도 3은 이벤트 탐지부를 도시한 블럭도이다. 3 is a block diagram illustrating an event detection unit.

도 3을 참조하면, 이벤트 탐지부(300)는 영상DB(310)와, 영상 추출 수단(320)과, 특징DB(330)와, 센서DB(340)와, 사용변수 설정 수단(350)과, 이벤트 예측 수단(360)을 포함할 수 있다. Referring to FIG. 3 , the event detection unit 300 includes an image DB 310, an image extraction means 320, a feature DB 330, a sensor DB 340, a use variable setting means 350, , may include an event prediction means 360.

영상DB(310)는 영상부(200)에서 촬영된 영상을 저장하고, 특징DB(330)는 설정 또는 추출된 영상 패턴을 저장한다. 여기서 특징DB(330)에 저장되는 영상 패턴은 동일 또는 유사한 행위나 현상, 객체가 포함된 특징이 포함된 영상들을 의미한다. 설정된 특징은 영상 속의 객체(예를 들면, 사람, 장비, 동물)의 행위 및/또는 현상(연기, 가스, 모션, 소음)을 포함할 수 있다. The image DB 310 stores images captured by the imaging unit 200, and the feature DB 330 stores set or extracted image patterns. Here, the image patterns stored in the feature DB 330 refer to images including features including the same or similar actions, phenomena, or objects. The set features may include actions and/or phenomena (smoke, gas, motion, noise) of objects (eg, people, equipment, animals) in the image.

영상 추출 수단(320)은 영상DB(310)에 저장된 영상 정보를 가공하고, 설정된 조건에 해당되는 영상 정보에서 특징DB(330)에 저장된 기존의 행위나 객체가 포함된 영상 패턴과 비교한다. The image extraction means 320 processes the image information stored in the image DB 310 and compares the image information corresponding to the set condition with the image pattern including the existing action or object stored in the feature DB 330.

특정된 행위는 객체의 이동 방향 및 모션, 설정된 형상의 객체의 소지 여부(예를 들면, 흉기를 소지한 사람, 금지된 방향 또는 이동이 금지된 객체를 통과하는 사람 또는 동물) 등을 포함할 수 있다. The specified action may include the moving direction and motion of the object, possession of an object of a set shape (eg, a person with a weapon, a person or animal passing through an object in a prohibited direction or movement prohibited), and the like. there is.

또한, 특정된 현상은 소음과, 연기, 불꽃, 충돌, 낙하와 같은 물리 및 화학적 현상을 포함할 수 있다. In addition, the specified phenomenon may include physical and chemical phenomena such as noise, smoke, flame, collision, and fall.

영상 추출 수단(320)은 정상 행위나 객체, 비정상 행위나 객체가 모두 포함된 영상으로서 신규 한 특징이 포함된 영상들이 누적 저장되면서 동일한 범위 내의 특징이 반복될 경우에 영상 패턴으로 추출할 수 있다. The image extraction unit 320 may extract images including normal actions or objects and abnormal actions or objects as image patterns when images including new features are accumulated and stored and features within the same range are repeated.

여기서 영상 추출 수단(320)은 네트워크의 부하를 최소화할 수 있고, 센서의 감지 정보와 매핑된 영상 정보를 축약하여 전송할 수 있도록 자동으로 해상도를 조절하고, 대역을 축약(예를 들면, 10Mbps 수준의 Bandwidth)하여 대용량의 전송이 유리하게 가공될 수 있다. Here, the image extractor 320 can minimize the load on the network, automatically adjusts the resolution so that sensor detection information and mapped image information can be abbreviated and transmitted, and the bandwidth is reduced (for example, 10 Mbps level Bandwidth), large-capacity transmission can be advantageously processed.

또한, 영상 추출 수단(320)은 특징DB(330)에 저장된 영상 정보에서 설정된 패턴(이하에서는 영상 패턴으로 칭함)을 포함하는 영상 정보를 추출한다. 즉, 영상 추출 수단(320)은 데이터 전처리 과정으로서 사람 또는 기계 장치들의 이상 행위를 나타내는 사건/사고 등의 전조 증상을 수집한다.In addition, the image extraction means 320 extracts image information including a set pattern (hereinafter referred to as an image pattern) from the image information stored in the feature DB 330. That is, the image extractor 320 collects prognostic symptoms such as incidents/accidents indicating abnormal behavior of people or mechanical devices as a data pre-processing process.

사용변수 설정 수단(340)은 추출된 영상 패턴의 변수를 설정한다. 사용변수는 영상 추출 수단(320)에서 추출된 영상 패턴들에 연계 설정된 센서부(100)의 감지 정보를 사용변수로 설정한다. 여기서 센서부(100)의 감지 정보는 센서DB(350)에 저장된 정보이거나, 센서부(100)로부터 수신된 실시간 감지 정보에 해당될 수 있다. The use variable setting unit 340 sets variables of the extracted image pattern. As the use variable, detection information of the sensor unit 100 set in association with the image patterns extracted by the image extraction unit 320 is set as a use variable. Here, the sensing information of the sensor unit 100 may correspond to information stored in the sensor DB 350 or real-time sensing information received from the sensor unit 100 .

즉, 사용변수 설정 수단(340)은 영상 정보와 센서부(100)의 감지 정보 중에서 상관 관계로 설정된 정보들을 매핑 한다. That is, the use variable setting unit 340 maps information set in a correlation among image information and sensing information of the sensor unit 100 .

사용변수 설정 수단(340)은 각 현장의 상황에 따라 전조 증상의 위험도를 차등 조절하기 위하여 현장 및/또는 상황별로 사용변수의 가중치를 설정할 수 있다. The use variable setting means 340 may set weights of use variables for each site and/or situation in order to differentially adjust the risk of a precursor symptom according to the situation of each site.

이벤트 예측 수단(360)은 머신 러닝 학습과정을 통하여 자체적으로 영상 패턴을 통하여 위험도를 예측하여 그 결과를 산출한다. 이를 이하여 이벤트 예측 수단(360)은, 예를 들면, 그라디언트 부스팅 프레임 워크를 제공하는 오픈 소스 소프트웨어 라이브러리인 XGBoost을 이용하여 사용변수에 따른 가중치를 자율적으로 튜닝하여 이벤트 발생확률을 예측하고, DNN(Deep Neural Network) 분석을 통한 학습을 통하여 이벤트 영향력을 예측하여 이벤트 위험지수를 예측(산출)한다. The event prediction unit 360 predicts the risk through the image pattern itself through a machine learning learning process and calculates the result. For this reason, the event prediction means 360 predicts the event occurrence probability by autonomously tuning the weights according to the used variables using, for example, XGBoost, an open source software library that provides a gradient boosting framework, and DNN ( It predicts (calculates) the event risk index by predicting the event impact through learning through Deep Neural Network) analysis.

비가시 정보 시각화부(400)는 비가시적 정보(예를 들면, 센서부(100)의 감지 정보)를 시각화한다. 비가시 정보 시각화부(400)는 도 4를 참조하여 설명한다. The invisible information visualization unit 400 visualizes invisible information (eg, sensing information of the sensor unit 100). The invisible information visualization unit 400 will be described with reference to FIG. 4 .

도 4는 비가시 정보 시각화부를 도시한 블럭도이다. 4 is a block diagram illustrating an invisible information visualization unit.

도 4를 참조하면, 비가시 정보 시각화부(400)는 정보 수집 수단(410)과, 데이터 분류 수단(420)과, 상관관계 설정 수단(430)과, 가시화 수단(440)을 포함할 수 있다. Referring to FIG. 4 , the invisible information visualization unit 400 may include an information collecting unit 410, a data classifying unit 420, a correlation setting unit 430, and a visualization unit 440. .

정보 수집 수단(410)은 센서부(100) 및/또는 영상부(200)로부터 정보를 수집한다. 여기서 정보 수집 수단(410)은 이벤트 탐지부(300)의 영상DB(310) 또는 특징DB(330)에 저장된 영상 정보 또는 영상부(200)에서 촬영된 영상을 실시간으로 수집할 수 있다. 또한, 정보 수집 수단(410)은 센서부(100)의 감지 정보를 실시간으로 수집할 수 있다. The information collection unit 410 collects information from the sensor unit 100 and/or the imaging unit 200 . Here, the information collecting unit 410 may collect image information stored in the image DB 310 or feature DB 330 of the event detection unit 300 or images taken by the imaging unit 200 in real time. Also, the information collection unit 410 may collect sensing information of the sensor unit 100 in real time.

데이터 분류 수단(420)은 정보 수집 수단(410)에서 수집된 비가시 정보를 속성 정보와 3차원 정보로 분류한다. 이를 위하여 데이터 분류 수단(420)은 영상부(200)와 센서의 기본 정보관리 및 감지 정보와, 모니터링 정보로 분류하고, 실제 물리 공간의 정보로서 분류한다. 이를 위하여 데이터 분류 수단(420)은 속성DB(421)와 3차원DB(422)를 포함할 수 있다. The data classification unit 420 classifies the non-visible information collected by the information collection unit 410 into attribute information and 3D information. To this end, the data classification unit 420 classifies the image unit 200 and the basic information management and detection information of the sensor, monitoring information, and classifies it as information of the actual physical space. To this end, the data classification means 420 may include an attribute DB 421 and a three-dimensional DB 422.

속성DB(421)는 센서부(100)의 감지정보와, 영상부(200)의 위치 및 속성 등 관리 정보를 저장한다. 이와 같은 속성DB(421)의 저장 정보는 영상부(200)와 센서의 타입, 모델, 설치일자, 해상도, 목적, 장소, 촬영 범위, 촬영시간, 관제 부서와 이름 및 연락처가 포함된 관제 정보와, 관리자 정보와, 건축 장소 및 층별 위치 정보와, 영상부(200)와 센서부(100)의 동작과 관측상태와 이벤트 상태 모니터링 정보가 포함될 수 있다. The attribute DB 421 stores detection information of the sensor unit 100 and management information such as the position and properties of the imaging unit 200 . The information stored in the attribute DB 421 is control information including the imaging unit 200 and sensor type, model, installation date, resolution, purpose, location, shooting range, shooting time, control department, name, and contact information. , manager information, construction site and floor-by-floor location information, operation and observation conditions of the imaging unit 200 and sensor unit 100, and event status monitoring information may be included.

3차원DB(422)는 실제 물리 공간의 위치와 면적과 높이, 공간 내에 존재하는 객체(예를 들면, 기둥, 벽면, 문, 기계장치, 화단, 화분, 담)에 대한 형상이나 외형 정보가 저장된다. 여기서 3차원 정보는 2D, 또는 3D 이미지를 포함할 수 있다. The 3D DB (422) stores the shape or external information of the location, area and height of the actual physical space, and objects (eg, columns, walls, doors, machinery, flower beds, pots, fences) existing in the space. do. Here, the 3D information may include 2D or 3D images.

상관관계 설정 수단(430)은 영상 정보와 속성 정보와 3차원 정보의 상관관계를 설정한다. 여기서 상관관계란 가상의 공간 내에서 추상적인 데이터들의 상호 관계를 시각적으로 맵핑하는 것을 의미한다. 즉, 상관관계 설정 수단(430)은 가상의 공간 좌표와 센서의 감지 정보를 매칭시켜 모델링된 가상의 공간내에서 센서부의 감지정보가 출력되는 위치나 표시를 지정할 수 있다. The correlation setting unit 430 sets a correlation between image information, attribute information, and 3D information. Here, correlation means visually mapping the mutual relationship of abstract data in a virtual space. That is, the correlation setting unit 430 may designate a position or display where the sensing information of the sensor unit is output in the modeled virtual space by matching the virtual space coordinates with the sensing information of the sensor.

여기서 상관관계 설정 수단(430)은 센서부(100)의 감지정보 외에도 설정된 입력기를 통하여 입력되는 다양한 문자, 기호 등을 가상 공간의 위치 좌표에 매칭시켜 출력함도 가능하다. Here, the correlation setting unit 430 may match and output various characters, symbols, etc. inputted through a set input device to positional coordinates of the virtual space in addition to the detected information of the sensor unit 100 .

가시화 수단(440)은, 예를 들면, 3D 엔진으로서 가상의 공간을 모델링하고, 모델링된 가상의 공간내에서 상관관계 설정 수단(430)에 의해 매칭된 영상부(200)의 위치 및 속성값, 센서부(100)의 감지 정보를 표현하여 비가시 정보를 가시화한다. The visualization means 440, for example, models a virtual space as a 3D engine, and the location and attribute values of the image unit 200 matched by the correlation setting means 430 in the modeled virtual space, Invisible information is visualized by expressing detected information of the sensor unit 100 .

즉, 가시화 수단(440)은 영상정보가 없는 위치 또는 영상 정보를 3차원의 가상공간으로 구현하고, 구현된 3차원의 가상 공간 내에 센서부(100)에서 감지된 정보를 매칭시켜 비가시적 정보를 가시적 정보로 구현하여 출력한다.That is, the visualization means 440 implements the location or image information without image information in a 3D virtual space, and matches the information detected by the sensor unit 100 in the implemented 3D virtual space to obtain invisible information. It is implemented as visible information and output.

따라서 본 발명은 영상으로 확인되지 않거나 불확실한 사각지대 또는 카메라가 설치되지 않은 공간을 가상의 3D 공간으로 표현하고, 비가시적 정보인 센서의 감지 정보를 가상의 3D 공간 내에 매칭시킴에 따라 시각적 정보로 구현할 수 있다. Therefore, the present invention can be implemented as visual information by expressing unidentified or uncertain blind spots or spaces where cameras are not installed as a virtual 3D space and matching sensor information, which is non-visual information, within the virtual 3D space. can

관제부(500)는 이벤트 탐지부(300) 및 비가시 정보 시각화부(400)로부터 출력되는 정보를 가공하여 관제 정보를 생성하고, 의사 결정을 위한 관제 정보의 편집툴을 제공하고, 데이터 기반의 의사 결정이 가능한 관제 정보를 가공 및 출력한다. The control unit 500 generates control information by processing information output from the event detection unit 300 and the invisible information visualization unit 400, provides a control information editing tool for decision-making, and provides a data-based Processes and outputs control information that enables decision-making.

이를 위하여 관제부(500)는 영상 정보와 센서부(100)의 감지정보 등의 다양한 관제 정보의 포맷(예를 들면, 비디오, HTML, Excel) 을 지원하며, 분석 가능한 데이터베이스(590)를 형성하여 각 정보의 상호 연관성과 임계치를 분석 처리하여 데이터 기반의 의사결정 모델로 위험 상황 발생을 제공한다. 이와 같은 관제부(500)의 상세 구성은 도 5를 참조하여 설명한다. To this end, the control unit 500 supports various control information formats (eg, video, HTML, Excel) such as image information and sensor unit 100 detection information, and forms a database 590 that can be analyzed. It analyzes and processes the correlation and threshold of each information to provide risk situations with a data-based decision-making model. A detailed configuration of the control unit 500 will be described with reference to FIG. 5 .

도 5는 관제부(500)를 도시한 블럭도이다. 5 is a block diagram showing a control unit 500.

도 5를 참조하면, 관제부(500)는 사용자 기능 모듈(510)과, 시각화 차트 모듈(520)과, 외부 연동 모듈(530)과, 데이터 분석 모듈(540)과, 분산 정렬 모듈(550)과, 데이터 수집 모듈(560)과, 언어 분석 모듈(570)과, 검색 모듈(580) 및 데이터베이스(590)를 포함할 수 있다. Referring to FIG. 5 , the control unit 500 includes a user function module 510, a visualization chart module 520, an external linkage module 530, a data analysis module 540, and a distributed sorting module 550. , a data collection module 560 , a language analysis module 570 , a search module 580 , and a database 590 .

사용자 기능 모듈(510)은 기능별 실시간 분석과, 대시보드, 실시간 알람, 검색 결과 및 테이블 목록을 제공할 수 있다. 또한, 사용자 기능 모듈(510)은 시각화 차트, 수집소스관리, 사전자원관리 및 작업 관리를 위한 다양한 메뉴를 제공할 수 있다. The user function module 510 may provide real-time analysis by function, dashboard, real-time alarm, search results, and table list. In addition, the user function module 510 may provide various menus for visualization charts, collection source management, dictionary resource management, and task management.

이중 실시간 알람은 이벤트 탐지부(300)와 비가시 정보 시각화부(400)의 출력 정보에 따른 경보를 출력할 수 있다. The double real-time alarm may output an alarm according to output information of the event detection unit 300 and the invisible information visualization unit 400 .

기능별 실시간 분석은 비가시 정보 시각화부(400)와 연동되어 장치의 목적에 따라 구현된 가상의 공간을 통해 표현된 각 장치의 기능과 연관된 센서부(100)의 감지 정보와 함께 실시간 분석 결과를 디스플레이를 통하여 출력하는 방식을 이루어질 수 있다. Real-time analysis by function is interlocked with the invisible information visualization unit 400 to display real-time analysis results along with detection information of the sensor unit 100 related to the function of each device expressed through a virtual space implemented according to the purpose of the device. A method of outputting through may be made.

즉, 관제부(500)는 비가시 정보 시각화부(400)를 구동시켜 시각화된 정보로서 실시간분석 결과를 출력 한다. That is, the control unit 500 drives the invisible information visualization unit 400 to output real-time analysis results as visualized information.

시각화 차트 모듈(520)은 수집된 정보를 시각화 차트로 구현한다. 예를 들면, 시각화 차트 모듈(520)은 수집된 데이터를 꺽은선형차트. 막대원형차트, 댄로그램 등 다양한 형상의 차트로 구현 및 그래픽 연동기능을 기능을 제공한다. 이와 같은 시각화 차트 모듈(520)의 기능은 사용자 기능 모듈(510)에 의해 출력될 수 있다. The visualization chart module 520 implements the collected information as a visualization chart. For example, the visualization chart module 520 converts the collected data into a line chart. It provides functions such as realization and graphic interlocking functions with charts of various shapes such as bar pie charts and danograms. The functions of the visualization chart module 520 may be output by the user function module 510 .

외부 연동 모듈(530)은 앱과, 외부 연동 API 및 외부 데이터 수집 기능을 제공한다. 즉, 외부 연동 모듈(530)은 유무선 네트워크를 통하여 외부 서버 및 장치와의 통신을 가능하게 하고, 외부 데이터를 수신할 수 있다. The external linkage module 530 provides an app, an external linkage API, and an external data collection function. That is, the external interworking module 530 enables communication with external servers and devices through wired/wireless networks and can receive external data.

데이터 분석 모듈(540)은 센서부(100)의 감지정보를 분석하는 분석 알고리즘과, 쿼리 생성 및 쿼리 최적화 연산 기능을 제공한다. 분석 알고리즘은 이벤트 탐지부(300)와 연동될 수 있고, 분석된 결과를 대시모드 및/또는 외부 연동 모듈(530)을 통하여 설정된 외부 장치(예를 들면, 관리자의 모바일 단말, 관제서버)로 송신할 수 있다. The data analysis module 540 provides an analysis algorithm for analyzing the sensed information of the sensor unit 100 and query generation and query optimization operation functions. The analysis algorithm may be interlocked with the event detection unit 300, and the analyzed result is transmitted to an external device (eg, manager's mobile terminal, control server) set through the dash mode and/or external interlock module 530. can do.

데이터 분석 모듈(540)은 비가시화 정보 시각화부 및 이벤트 탐지부(300)에서 분산 및/또는 수집된 정보를 통계화 및 분산 결과를 집계하여 사용자 기능 모듈(510)에 출력할 수 있다. 또한, 데이터 분석 모듈(540)은 작업관리를 위한 스케쥴러를 제공할 수 있다. The data analysis module 540 may statisticize the information distributed and/or collected by the non-visualized information visualization unit and the event detection unit 300 and aggregate the distribution results to output to the user function module 510 . Also, the data analysis module 540 may provide a scheduler for task management.

분산 정렬 모듈(550)은 키워드 검색 정보(예를 들면, 키워드, 검색횟수, 검색결과, 검색일자) 및 스캔 정보와, 이벤트 탐지부(300)의 영상 패턴 및 외부 사전 조회 정보와, 연산 정볼르 분산 정렬하여 데이터베이스(590)에 저장한다. The distributed sorting module 550 includes keyword search information (eg, keyword, search number, search result, search date) and scan information, image pattern of the event detection unit 300 and external dictionary search information, and calculation information. It is distributed sorted and stored in the database 590.

데이터 수집 모듈(560)은 설정된 기판의 포멧을 갖는 외부 저장소 및 로컬 저장소의 데이터를 수집한다. 여기서 데이터 수집 모듈(560)은 대시보드를 통하여 입력된 키워드에 해당되는 데이터를 검색 및 수집할 수 있다. The data collection module 560 collects data of the external storage and local storage having the set format of the substrate. Here, the data collection module 560 may search and collect data corresponding to a keyword entered through the dashboard.

언어 분석 모듈(570)은 메타 데이터, 외부 및 로컬 저장소 외부 저장소 및 로컬 저장소에 저장된 다양한 전자 문서 및 파일들에서 토픽(Topic)과 형태소를 추출한다. 여기서 언어분석 모듈은 예를 들면, 설정된 단어, 단어와 단어의 조합, 문장 중 적어도 하나를 포함하는 기준이 설정되며, 해당 기준에 부합된 내용을 갖는 전자문서 또는 파일을 추출한다. The language analysis module 570 extracts topics and morphemes from various electronic documents and files stored in metadata, external and local storage, external storage and local storage. Here, the language analysis module sets standards including at least one of a set word, a combination of words and words, and a sentence, and extracts an electronic document or file having contents meeting the standard.

검색 모듈(580)은 복합 검색 질의 처리와 분산 데이터 검색과 분산 고속 색인 기능을 제공한다. 예를 들면, 검색 모듈(580)은 설정된 질의에 따른 답변을 설정하여 자동으로 제공한다. 또한, 검색모듈은 분산된 데이터(예를 들면,영상DB(310), 속성DB(421), 3차원DB(422), 관제부(500)의 데이터베이스(590))를 검색하여 사용자 기능 모듈(510)의 대시보드로 출력할 수 있다. 또한, 검색모듈은 설정된 기준에 따라서 분산저장된 정보들에 선택적으로 색인을 부여 및 설정할 수 있다.The search module 580 provides complex search query processing, distributed data search, and distributed high-speed indexing functions. For example, the search module 580 sets and automatically provides an answer according to a set query. In addition, the search module searches distributed data (eg, the image DB 310, the attribute DB 421, the 3D DB 422, the database 590 of the control unit 500), and the user function module ( 510) can be output to the dashboard. In addition, the search module may selectively assign and set indexes to distributed and stored information according to set criteria.

데이터베이스(590)는 메타데이터를 저장하는 메타 데이터 DB와, 외부 장치로부터 수집된 정보를 데이터를 저장하는 외부 장치 데이터 DB와, 연산 결과를 저장하는 연산 결과 DB와, 색인 정보가 저장되는 색인 정보 DB를 포함할 수 있다. The database 590 includes a metadata DB for storing metadata, an external device data DB for storing information collected from external devices, a calculation result DB for storing calculation results, and an index information DB for storing index information. can include

모니터링부(600)는 관제부(500)와 이벤트 탐지부(300)의 실시간 분석 결과를 모니터링하여 내부 또는 외부네트워크를 통하여 해당 정보를 송신한다. 예를 들면, 관제부(500)는 모니터링 정보를 수신할 수 있는 권한이 설정된 단말의 정보 및 IP, 아이디와 같은 식별정보가 설정되며, 모니터링부(600)는 관제부(500)를 통하여 설정된 식별정보를 갖는 외부 장치로 모니터링 정보를 실시간 또는 주기적으로 송신할 수 있다. 이때, 모니터링부(600)는 설정된 권한에 따라 모니터링 결과를 선택적으로 송신할 수 있다. The monitoring unit 600 monitors the real-time analysis result of the control unit 500 and the event detection unit 300 and transmits the corresponding information through an internal or external network. For example, the control unit 500 sets identification information such as information, IP, and ID of a terminal for which the right to receive monitoring information is set, and the monitoring unit 600 sets the identification information set through the control unit 500. Monitoring information can be transmitted in real time or periodically to an external device having the information. At this time, the monitoring unit 600 may selectively transmit the monitoring result according to the set authority.

재생부(700)는 영상DB(310)에 저장된 영상을 재생한다. 여기서 재생부(700)는 관제부(500)의 데이터베이스(590)에 저장된 메타 데이터와 연관된 정보(데이터)와 연동하여 이벤트별, 상황별로 관련된 영상정보를 재생할 수 있다. 또한, 재생부(700)는 썸네일, 날짜 및 시간 검색, 스냅샷 검색, 이벤트검색 기능을 지원할 수 있다. The playback unit 700 reproduces images stored in the image DB 310 . Here, the playback unit 700 may reproduce image information related to each event and situation in association with information (data) related to meta data stored in the database 590 of the control unit 500 . In addition, the playback unit 700 may support thumbnail, date and time search, snapshot search, and event search functions.

예를 들면, 재생부(700)는 날짜 및 시간 검색은 영상부(200)에 포함된 복수의 카메라 별 영상을 날짜와 시간을 통해 검색할 수 있다. 또한, 재생부(700)는 저장된 영상의 변화되는 모습을 확인하여 검색할 수 있도록 썸네일(Thumbnail) 검색을 구현할 수 있다. For example, the playback unit 700 may perform a date and time search for images for each of a plurality of cameras included in the imaging unit 200 through date and time. In addition, the playback unit 700 may implement a thumbnail search so that a changed appearance of a stored image can be confirmed and searched.

또한, 재생부(700)는 영상 정보의 검색시에 시간대별 스냅샷(Snapshot)을 미리 보기 할 수 있어 영상의 신속검색 기능을 지원한다. In addition, the playback unit 700 supports a fast image search function by previewing snapshots for each time period when searching for image information.

또한, 재생부(700)는 이벤트 데이터에 기반하여 과거의 문제 상황을 특정 짓고 이를 검색할 수 있도록 이벤트별 검색 기능을 제공할 수 있다. In addition, the playback unit 700 may provide a search function for each event to specify and search for past problem situations based on event data.

이와 같은 재생부(700)의 검색 기능은 센서부(100)의 다양한 감지 정보 중에 추출된 이상 상황 및 감시 상황의 특이점을 즉시 확인할 수 있는 효과를 제공할 수 있고, 특정 상황에서 다종의 센서의 감지 정보를 확인하거나, 특정 센서의 감지 정보에 특정된 상황에서 관련된 주변 영상을 빠르게 확인할 수 있다. 따라서 재생부(700)는 원인 규명을 보다 용이하게 할 수 있도록 한다. 여기서 재생부(700)는 관제부(500)에 포함될 수 있다. The search function of the reproducing unit 700 can provide an effect of immediately checking abnormal situations and singularities of monitoring situations extracted from various sensed information of the sensor unit 100, and detecting various types of sensors in a specific situation. It is possible to check information or quickly check surrounding images related to the situation specific to the detection information of a specific sensor. Therefore, the reproduction unit 700 makes it easier to identify the cause. Here, the playback unit 700 may be included in the control unit 500.

본 발명은 상기와 같은 구성에 의해 구현되는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 방법을 포함한다. 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 방법은 이상징후 예측 단계와, 비가시 정보의 시각화 단계를 포함할 수 있다. 이중 이상징후 예측 단계는 도 6 및 도 7을 참조하여 설명한다. The present invention includes a method for visualizing anomaly data based on a deep learning engine implemented by the above configuration. The method for visualizing anomaly data based on a deep learning engine according to the present invention may include an anomaly prediction step and a visualization step of invisible information. The double anomaly prediction step will be described with reference to FIGS. 6 and 7 .

도 6은 본 발명에 따른 딥러닝 엔진 기반의 이상징후 데이터의 시각화 방법에서 이상징후 예측단계를 도시한 순서도, 도 7은 도 6의 S150 단계를 도시한 순서도이다. 6 is a flow chart showing an anomaly prediction step in the method for visualizing anomaly symptom data based on a deep learning engine according to the present invention, and FIG. 7 is a flowchart showing step S150 in FIG. 6 .

도 6 및 도 7을 참조하면, 본 발명에서 이상징후 예측단계는 영상 정보를 수신하는 S110 단계와, 영상 처리하는 S120 단계와, 패턴을 추출하는 S130 단계와, 사용변수를 설정하는 S140 단계와, 이벤트를 예측하는 S150 단계를 포함할 수 있다. 6 and 7, the anomaly prediction step in the present invention comprises the steps of S110 for receiving image information, step S120 for image processing, step S130 for extracting a pattern, step S140 for setting use variables, A step S150 of predicting an event may be included.

S110 단계는 이벤트 탐지부(300)에서 영상 정보를 수집하는 단계이다. 영상부(200)는 촬영된 영상을 실시간으로 영상DB(310)에 저장하고, 영상 추출 수단(320)은 영상DB(310)에 저장된 영상부(200)의 촬영 영상을 실시간으로 수집한다. Step S110 is a step of collecting image information in the event detection unit 300 . The imaging unit 200 stores captured images in the image DB 310 in real time, and the image extraction means 320 collects captured images of the imaging unit 200 stored in the image DB 310 in real time.

S120 단계는 이벤트 탐지부(300)에서 수집된 영상을 압축하고, 대용량 처리에 적합한 대역폭을 갖도록 대역폭을 조절하고, 압축하는 단계이다. Step S120 is a step of compressing the image collected by the event detector 300, adjusting the bandwidth to have a bandwidth suitable for large-capacity processing, and compressing the image.

S130 단계는 이벤트 탐지부(300)에서 수집된 영상 중에 설정된 행위나 객체가 포함된 영상을 추출하여 특징DB(330)로 저장하고, 기존의 특징DB(330)에 저장된 영상들과의 설정된 범위 내에 속하는 패턴을 추출하는 단계이다. Step S130 extracts an image including a set action or object from among the images collected by the event detection unit 300 and stores it as a feature DB 330, and within a set range with the images stored in the existing feature DB 330. This is the step of extracting the pattern to which it belongs.

S140 단계는 이벤트 탐지부(300)에서 사용변수를 설정하는 단계이다. 이벤트 탐지부(300)의 사용변수 설정 수단(340)은 신규촬영된 영상이 기존의 영상 패턴에 해당되는 경우에 해당 영상의 현장 상황에 따른 가중치가 포함된 사용변수를 설정하는 단계이다. 여기서 사용변수는 현장에 설치된 센서부(100)의 감지 정보(감지 데이터)이다. 따라서 사용변수 설정 수단(340)은, 예를 들면, 촬영된 영상의 현장에서 감지된 소음과, 영상 패턴에서 이상 상황에서의 소음 값과 비교하기 전에 해당 현장의 평상시 소음 정도에 따라서 촬영된 현장의 소음값에 대한 가중치를 설정한다. Step S140 is a step of setting use variables in the event detection unit 300 . The use variable setting unit 340 of the event detection unit 300 is a step of setting a use variable including a weight according to the field situation of the corresponding image when a newly captured image corresponds to an existing image pattern. Here, the variable used is sensing information (sensing data) of the sensor unit 100 installed in the field. Therefore, the use variable setting means 340, for example, prior to comparing the noise detected at the site of the captured image with the noise value in the abnormal situation in the image pattern, according to the level of noise at the site at ordinary times, Set the weight for the noise value.

S150 단계는 이벤트 탐지부(300)에서 이벤트를 예측하는 단계로서, 이벤트 발생확률을 예측하는 S151 단계와, 이벤트 영향력을 예측하는 S152 단계와, 이벤트 발생확률 및 이벤트 영향력 값을 이용하여 이벤트 위험지수를 산출하는 단계이다. Step S150 is a step of predicting an event in the event detection unit 300, and the event risk index is calculated using the step S151 of predicting the event occurrence probability, the step of S152 of predicting the event influence, and the event occurrence probability and the event influence value. This is the calculation step.

S151 단계는 이벤트 예측 수단(360)에서 영상 패턴에 부여된 사용변수의 가중치 설정을 통하여 이벤트 발생 확률을 예측하는 단계이다. 여기서 이벤트 예측 수단(360)은 XG Boost를 이용하여 이벤트 발생확률을 예측할 수 있다. Step S151 is a step of predicting an event occurrence probability through weight setting of a use variable assigned to an image pattern in the event predicting unit 360 . Here, the event prediction unit 360 may predict an event occurrence probability using XG Boost.

S152 단계는 이벤트 예측수단에서 DNN 분석을 통하여 이벤트 영향력을 예측하는 단계이다. 이벤트 영향력은 현장에서 발생된 사용변수의가중치에 따라 주변에 어떠한 영향력, 예를 들면, 현장에 발생된 불꽃이나 온도가 주변의 장치나 사람들에 어떤 영향을 줄 수 있는지를 예측한다. Step S152 is a step of predicting event influence through DNN analysis in the event prediction means. Event influence predicts what kind of influence, for example, how a flame or temperature generated at the site can affect nearby devices or people according to the weight of the use variable generated at the site.

S153 단계는 이벤트 예측 수단(360)에서 이벤트 발생확률과 이벤트 영향력의 산출값을 통하여 위험지수를 산출하는 단계이다. 이벤트 예측 수단(360)은 위험지수를 산출하고, 산출된 위험 지수 값이 설정된 기준에 해당되면 관제부(500)에 이벤트 감지 정보를 출력할 수 있다. 관제부(500)는 이벤트 감지정보가 수신되면, 알람을 구동시킬 수 있다. Step S153 is a step of calculating the risk index through the event occurrence probability and the calculated value of the event influence in the event prediction unit 360 . The event prediction unit 360 may calculate a risk index and output event detection information to the control unit 500 when the calculated risk index value corresponds to a set criterion. When event detection information is received, the control unit 500 may drive an alarm.

도 8은 본 발명에 따른 비가시적 정보의 시각화 단계를 도시한 순서도이다. 8 is a flowchart illustrating a visualization step of invisible information according to the present invention.

도 8을 참조하면, 비가시적 정보의 시각화 단계는 정보를 수집하는 S210 단계와, 데이터 변환 및 가공 하는 S220 단계와, 정보를 분류하는 S230 단계와, 상관 관계를 설정하고 모델링하는 S240 단계와, 비가시적 정보를 3D 정보로 출력하는 S250 단계를 포함할 수 있다. Referring to FIG. 8, the visualization of invisible information includes information collection S210, data conversion and processing S220, information classification S230, correlation setting and modeling S240, A step S250 of outputting the visual information as 3D information may be included.

S210 단계는 비가시 정보 시각화부(400)에서 센서부(100) 및 영상부(200)로부터 실시간 정보를 수집하는 단계이다. 여기서 센서부(100)와 영상부(200)는 실시간으로 감지된 정보를 센서DB(350)와 영상DB(310)로 저장하고,비가시 정보 시각화부(400)는 저장된 정보를 수집하거나, 또는 센서DB(350)와 영상DB(310)를 거치지 않고 직접 연결하여 정보를 수집함도 가능하다. Step S210 is a step of collecting real-time information from the sensor unit 100 and the imaging unit 200 in the invisible information visualization unit 400 . Here, the sensor unit 100 and the imaging unit 200 store information detected in real time as the sensor DB 350 and the image DB 310, and the invisible information visualization unit 400 collects the stored information, or It is also possible to collect information by directly connecting without going through the sensor DB 350 and the image DB 310.

S220 단계는 데이터 변환 및 가공하는 단계이다. 정보 수집 수단(410)은 수집된 정보를 설정된 포맷 형태로 변환하고, 대용량 전송에 적합하도록 가공할 수 있다. Step S220 is a step of converting and processing data. The information collecting unit 410 may convert the collected information into a set format and process it to be suitable for mass transmission.

S230 단계는 정보를 분류하는 단계이다. 데이터 분류 수단(420)은 수집된 정보를 행위와 객체 및/또는 현상 으로 분류하여 속성DB(421)에 저장하고, 3차원 공간에 관련 된 정보를 3차원DB(422)로 분류하여 저장한다. Step S230 is a step of classifying information. The data classification means 420 classifies the collected information into actions, objects, and/or phenomena, stores it in the attribute DB 421, and classifies and stores information related to the 3D space into the 3D DB 422.

S240 단계는 속성DB(421)와 3차원DB(422)에 저장된 각각의 정보들의 상관 관계를 설정하고, 실제 물리 공간을 가상의 공간으로 모델링하는 단계이다. 상관관계 설정 수단(430)은 속성DB(421)에 저장된 정보와 3차원DB(422)에 저장된 데이터들의 상관 관계를 설정한다. 예를 들면, 상관관계는 영상과, 촬영된 영상의 실제 위치에 설치된 센서의 감지 정보들을 설정하거나, 센서부(100)의 감지정보를 실제 물리 공간의 3차원 정보와 연계되도록 설정한다. Step S240 is a step of setting a correlation between each piece of information stored in the attribute DB 421 and the 3D DB 422 and modeling the actual physical space into a virtual space. The correlation setting unit 430 sets a correlation between information stored in the attribute DB 421 and data stored in the 3D DB 422. For example, the correlation sets an image and sensing information of a sensor installed at an actual location of a captured image, or sets sensing information of the sensor unit 100 to be associated with 3D information of an actual physical space.

그리고 가시화 수단(440)은 3차원 데이터를 이용하여 실제 물리공간을 가상의 3D 공간으로 모델링 한다.And the visualization unit 440 models the actual physical space into a virtual 3D space using 3D data.

S250 단계는 모델링된 가상의 공간 내에 센서의 감지정보를 표현하는 단계이다. 가시화 수단(440)은 상관관계로 설정된 정보를 모델링된 가상의 공간에 표현할 수 있다. 이는 영상부(200)가 설치되지 않은 공간을 가상의 공간으로 모델링하고, 모델링된 가상의 공간 내에 센서부(100)의 감지정보를 표현함에 따라 영상이 확보되지 않은 사각 지대의 상황을 정확하게 판단할 수 있도록 한다. Step S250 is a step of expressing the sensed information of the sensor in the modeled virtual space. The visualization unit 440 may express the information set by correlation in the modeled virtual space. This models the space where the imaging unit 200 is not installed as a virtual space, and expresses the sensing information of the sensor unit 100 in the modeled virtual space, thereby accurately determining the situation of the blind spot where the image is not secured. make it possible

이와 같이 3차원의 가상공간으로 시각화된 정보는 관제부(500)에 의해 디스플레이 된다. 또한, 관리자는 위와 같은 비가시 정보 시각화부(400)를 이용하여 현장 상황 파악이 용이하고, 이를 통해 이상징후에 대한 탐지률을 높일 수 있다. The information visualized in the 3D virtual space is displayed by the control unit 500 . In addition, the administrator can easily grasp the on-site situation using the invisible information visualization unit 400 as described above, and through this, the detection rate for abnormal symptoms can be increased.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정, 변경 및 치환 가능할 것이다. The above description is merely an example of the technical idea of the present invention, and those skilled in the art can make various modifications, changes, and substitutions without departing from the essential characteristics of the present invention.

따라서 본 발명에 개시된 실시예는 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

100 : 센서부 200 : 영상부
300 : 이벤트 탐지부 310 : 영상DB
320 : 영상 추출 수단 330 : 특징DB
340 : 사용변수 설정 수단 350 : 센서DB
360 : 이벤트 예측 수단 400 : 비가시 정보 시각화부
410 : 정보 수집 수단 420 : 데이터 분류 수단
421 : 속성DB 422 : 3차원DB
430 : 상관관계 설정 수단 440 : 가시화 수단
500 : 관제부 510 : 사용자 기능 모듈
520 : 시각화 차트 모듈 530 : 외부 연동 모듈
540 : 데이터 분석 모듈 550 : 분산 정렬 모듈
560 : 데이터 수집 모듈 570 : 언어 분석 모듈
580 : 검색 모듈 590 : 데이터베이스
600 : 모니터링부 700 : 재생부
100: sensor unit 200: imaging unit
300: event detection unit 310: image DB
320: image extraction means 330: feature DB
340: use variable setting means 350: sensor DB
360: event prediction means 400: invisible information visualization unit
410: information collection means 420: data classification means
421: attribute DB 422: three-dimensional DB
430: correlation setting means 440: visualization means
500: control unit 510: user function module
520: visualization chart module 530: external linkage module
540: data analysis module 550: distributed sorting module
560: data collection module 570: language analysis module
580: search module 590: database
600: monitoring unit 700: playback unit

Claims (6)

복수의 센서를 구비하는 센서부(100);
복수의 카메라를 구비하는 영상부(200);
센서부(100)의 감지 정보와, 영상부(200)의 영상 정보를 수집하여 이상징후를 예측하는 이벤트 탐지부(300);
실제 물리 공간을 가상의 3D 공간으로 모델링하고, 모델링된 가상의 공간 내에 센서부(100)의 감지정보를 시각화하는 비가시 정보 시각화부(400); 및
이벤트 탐지부(300) 및 비가시 정보 시각화부(400)로부터 출력되는 정보를 가공하여 관제 정보를 생성하고, 의사 결정을 위한 관제 정보의 편집툴을 제공하는 관제부(500); 를 포함하는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템.
A sensor unit 100 having a plurality of sensors;
an imaging unit 200 having a plurality of cameras;
an event detection unit 300 that predicts abnormal symptoms by collecting detection information of the sensor unit 100 and image information of the imaging unit 200;
an invisible information visualization unit 400 that models a real physical space into a virtual 3D space and visualizes the sensing information of the sensor unit 100 in the modeled virtual space; and
a control unit 500 that generates control information by processing information output from the event detection unit 300 and the invisible information visualization unit 400 and provides an editing tool for the control information for decision-making; Visualization system of anomaly data based on deep learning engine including
청구항 1에 있어서, 이벤트 탐지부(300)는
영상 정보로부터 설정된 영상 패턴을 추출하는 영상 추출 수단(320);
추출된 영상 패턴의 현장에서 감지된 센서부(100)의 감지정보를 사용변수로 설정하고, 현장에 따라 서로 다른 가중치를 설정하는 사용변수 설정 수단(340); 및
사용변수 설정 수단(340)에서 설정된 가중치에 따라 이벤트 발생 확률과, 이벤트 영향력을 산출하여 위험 징후를 산출하는 이벤트 예측 수단(360); 을 포함하는 딥러닝 엔진 기반의 이상징후 데이터의 시각화 시스템.
The method according to claim 1, the event detection unit 300
image extraction means 320 for extracting a set image pattern from image information;
a use variable setting means 340 for setting detection information of the sensor unit 100 detected at the site of the extracted image pattern as a use variable and setting different weights according to the site; and
an event predicting unit 360 for calculating a danger sign by calculating an event occurrence probability and an event influence according to the weight set by the use variable setting unit 340; Visualization system of anomaly data based on deep learning engine including
청구항 1에 있어서, 비가시 정보 시각화부(400)는
센서부(100) 및 영상부(200)로부터 정보를 수집하는 정보 수집 수단(410);
정보 수집 수단(410)에서 수집된 정보를 행위, 객체, 현상에 따른 센서부(100)의 감지정보와, 실제 물리 공간의 정보로 분류하는 데이터 분류 수단(420);
센서부(100)의 감지 정보와 실제 물리 공간의 정보가 연계되도록 상관관계를 설정하는 상관관계 설정 수단(430); 및
실제 물리 공간을 가상의 3D 공간으로 모델링하고, 모델링 된 가상의 3D 공간에 센서부(100)의 감지정보를 표현하는 가시화 수단(440); 을 포함하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 시스템.
The method according to claim 1, the invisible information visualization unit 400
information collection means 410 for collecting information from the sensor unit 100 and the imaging unit 200;
a data classification unit 420 for classifying the information collected by the information collection unit 410 into sensing information of the sensor unit 100 according to actions, objects, and phenomena, and information of an actual physical space;
Correlation setting means 430 for setting a correlation so that the detected information of the sensor unit 100 and the information of the actual physical space are linked; and
a visualization unit 440 that models the actual physical space as a virtual 3D space and expresses the sensing information of the sensor unit 100 in the modeled virtual 3D space; Visualization system of anomaly data based on deep learning engine including.
청구항 1에 있어서, 영상DB(310)에 저장된 영상을 재생하는 재생부(700); 를 더 포함하고,
재생부(700)는
데이터베이스(590)에 저장된 메타 데이터와 연관된 정보와 연동하여 이벤트별, 상황별로 관련된 영상정보를 재생하고, 썸네일(Thumbnail), 날짜 및 시간 검색, 스냅샷 검색, 이벤트 검색 중 하나 이상을 지원하는 것; 을 특징으로 하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 시스템.
The method according to claim 1, Reproducing unit (700) for reproducing the image stored in the image DB (310); Including more,
The playback unit 700
Reproducing video information related to each event and situation in conjunction with information related to metadata stored in the database 590, and supporting one or more of thumbnail, date and time search, snapshot search, and event search; A visualization system of anomaly data based on a deep learning engine.
복수의 영상부(200)로부터 수신된 영상 정보와, 센서부(100)의 감지정보를 수집하여 이벤트를 예측하는 이벤트 탐지부(300)의 이벤트 탐지단계;를 포함하고,
이벤트 탐지부(300)의 이벤트 탐지단계는
a)영상부(200)로부터 영상 정보를 수집하는 단계;
b)수집된 영상 중에 설정된 행위나 객체가 포함된 영상 패턴을 추출하는 단계;
c)영상 패턴에 포함된 현장에 설치된 센서부(100)의 감지 정보를 영상 패턴의 사용변수로 설정하고, 상황 및 현장별로 서로 다르게 설정된 가중치를 적용하는 단계;
d)서로 다른 가중치로서 설정된 사용변수를 통하여 이벤트 발생확률과 이벤트 영향력의 예측 값을 산출하는 단계; 및
e)이벤트 발생확률 및 이벤트 영향력 값을 이용하여 이벤트 위험지수를 산출하는 단계; 를 포함하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 방법.
An event detection step of an event detection unit 300 for predicting an event by collecting image information received from a plurality of imaging units 200 and sensing information of the sensor unit 100;
The event detection step of the event detection unit 300 is
a) collecting image information from the imaging unit 200;
b) extracting an image pattern including a set action or object among collected images;
c) setting detection information of the sensor unit 100 installed in the field included in the image pattern as a use variable of the image pattern, and applying weights differently set for each situation and site;
d) calculating an event occurrence probability and a predicted value of an event influence through use variables set as different weights; and
e) calculating an event risk index using an event occurrence probability and an event influence value; Visualization method of anomaly data based on deep learning engine including.
청구항 4에 있어서, 비가시 정보 시각화부(400)에 의한 비가시적 정보를 시각화하는 단계;를 더 포함하고,
비가시 정보 시각화부(400)의 시각화 단계는
a-1)센서부(100) 및 영상부(200)로부터 실시간 정보를 수집하는 단계;
b-1)수집된 정보를 행위와 객체 및 현상 중 하나 이상을 포함하는 속성 정보와, 실제 물리 공간의 정보를 포함하는 3차원 정보로 분류하는 단계;
c-1)속성 정보와 3차원 정보들의 상관관계를 설정하고, 실제 물리 공간을 가상의 공간으로 모델링하는 단계; 및
d-1)모델링된 가상의 공간 내에 상관관계가 설정된 센서의 감지 정보를 표현하여 비가시 정보를 시각화하는 단계; 를 포함하는 딥러닝 엔진기반의 이상징후 데이터의 시각화 방법.
The method according to claim 4, further comprising; visualizing the invisible information by the invisible information visualization unit 400,
The visualization step of the invisible information visualization unit 400 is
a-1) collecting real-time information from the sensor unit 100 and the imaging unit 200;
b-1) classifying the collected information into attribute information including at least one of actions, objects, and phenomena, and 3D information including real physical space information;
c-1) setting a correlation between attribute information and 3D information and modeling a real physical space into a virtual space; and
d-1) visualizing invisible information by expressing sensor information sensed by a correlation set in a modeled virtual space; Visualization method of anomaly data based on deep learning engine including.
KR1020210114494A 2021-08-30 2021-08-30 Abnormal symptom data visualization system based-on deep learning engine and method thereof KR20230032087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210114494A KR20230032087A (en) 2021-08-30 2021-08-30 Abnormal symptom data visualization system based-on deep learning engine and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210114494A KR20230032087A (en) 2021-08-30 2021-08-30 Abnormal symptom data visualization system based-on deep learning engine and method thereof

Publications (1)

Publication Number Publication Date
KR20230032087A true KR20230032087A (en) 2023-03-07

Family

ID=85513296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210114494A KR20230032087A (en) 2021-08-30 2021-08-30 Abnormal symptom data visualization system based-on deep learning engine and method thereof

Country Status (1)

Country Link
KR (1) KR20230032087A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101987241B1 (en) 2017-02-24 2019-06-11 주식회사 케이티 Complexed event processing base smart monitoring platform and smart monitoring method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101987241B1 (en) 2017-02-24 2019-06-11 주식회사 케이티 Complexed event processing base smart monitoring platform and smart monitoring method

Similar Documents

Publication Publication Date Title
Laufs et al. Security and the smart city: A systematic review
JP6867153B2 (en) Abnormality monitoring system
US9589181B2 (en) Person search method and device for searching person staying on platform
Cameron et al. Emergency situation awareness from twitter for crisis management
JP2012518846A (en) System and method for predicting abnormal behavior
CN110428522A (en) A kind of intelligent safety and defence system of wisdom new city
US20150100355A1 (en) Method and apparatus for identifying early status
KR102058452B1 (en) IoT Convergence Intelligent Video Analysis Platform System
JP2018173914A (en) Image processing system, imaging apparatus, learning model creation method, and information processing device
CN103004188A (en) Apparatus, system and method
KR102356666B1 (en) Method and apparatus for risk detection, prediction, and its correspondence for public safety based on multiple complex information
CN116662989B (en) Security data analysis method and system
CN111553305B (en) System and method for identifying illegal videos
CN112199882A (en) Simulation method for evacuation process of people in fire, evacuation early warning method and system
CN115358155A (en) Power big data abnormity early warning method, device, equipment and readable storage medium
CN116384736A (en) Smart city risk perception method and system
KR102215519B1 (en) Edge gateway, cloud server and method for predicting disaster on target region using edge computing in extended reality environment
Mwedzi et al. Machine learning applications for fire detection in a residential building
KR102110375B1 (en) Video watch method based on transfer of learning
KR20220036672A (en) Control system capable of 3d visualization based on data and the method thereof
KR20230032087A (en) Abnormal symptom data visualization system based-on deep learning engine and method thereof
CN112580470A (en) City visual perception method and device, electronic equipment and storage medium
Yokota et al. Crime linkage of sex offences in Japan by multiple correspondence analysis
Mohana Kumar et al. Forest fire prediction using image processing and machine learning
CN114241400A (en) Monitoring method and device of power grid system and computer readable storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal