KR20230066891A - Smart video management device and method with situation awareness using correlation analysis between objects - Google Patents
Smart video management device and method with situation awareness using correlation analysis between objects Download PDFInfo
- Publication number
- KR20230066891A KR20230066891A KR1020210152374A KR20210152374A KR20230066891A KR 20230066891 A KR20230066891 A KR 20230066891A KR 1020210152374 A KR1020210152374 A KR 1020210152374A KR 20210152374 A KR20210152374 A KR 20210152374A KR 20230066891 A KR20230066891 A KR 20230066891A
- Authority
- KR
- South Korea
- Prior art keywords
- objects
- correlation analysis
- image information
- context
- smart video
- Prior art date
Links
- 238000010219 correlation analysis Methods 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000004891 communication Methods 0.000 claims abstract description 21
- 238000005516 engineering process Methods 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012098 association analyses Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B31/00—Predictive alarm systems characterised by extrapolation or other computation using updated historic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 영상 관제 기술에 관한 것으로, 더욱 상세하게는 별도의 행동 인식 센서 없이 영상 정보에 포함된 객체 간의 상호연관 관계를 분석하여 상황인지를 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법에 관한 것이다.The present invention relates to video control technology, and more particularly, to a context-aware smart video control device using correlation analysis between objects that performs context-awareness by analyzing correlations between objects included in image information without a separate action recognition sensor. and methods.
최근 물리 보안 시스템들은 CCTV(closed circuit television) 또는 IP 카메라를 통해 물리적 위협이나 침해를 사후에 분석하기 위해 블랙박스처럼 디지털 비디오 레코더(Digital Video Recorder, DVR), 네트워크 비디오 레코더(Network Video Recorder, NVR)를 통해 24시간 영상만을 저장하던 시대에서 보다 능동적인 대처를 위한 비디오 관리 시스템(Video Management System, VMS)을 이용한 실시간 영상 위협 관제 시대로 빠르게 급변하고 있다. Recent physical security systems use digital video recorders (DVRs) and network video recorders (NVRs) like a black box to post-analyze physical threats or breaches through CCTVs (closed circuit televisions) or IP cameras. Through , the era of storing only 24-hour video is rapidly changing to the era of real-time video threat control using a video management system (VMS) for more active response.
그러나 VMS가 단순히 CCTV 및 IP 카메라를 실시간으로 지켜보거나, 단순 영상감지만을 탐지함으로 인해 정제되지 않은 많은 오탐(False Positive)을 발생시키고 있다. 예를 들어 사람만의 행위를 탐지해야 하는 경우에도 동물 또는 사물의 이동을 탐지함으로써, 관제 요원의 피로도를 높이고 있다. However, VMS simply monitors CCTV and IP cameras in real time or detects only simple video detection, resulting in many unrefined false positives. For example, even when only human behavior is to be detected, the fatigue of control personnel is increased by detecting the movement of animals or objects.
또한 상황 인지가 결여된 오탐 발생 시간대에 관제 요원의 도움이 실제로 필요한 폭력, 절도 등의 강력범죄가 발생된 경우, 예방이 적시에 이루어 질 수 없는 문제점이 있다.In addition, there is a problem in that prevention cannot be performed in a timely manner in the case of a violent crime such as violence or theft that actually requires the help of a control agent during a false positive occurrence time zone when situational awareness is lacking.
본 발명이 이루고자 하는 기술적 과제는 딥러닝 기술을 이용하여 다중 객체를 인식하고, 인식된 객체들 간의 상호연관 관계를 분석하여 상황인지를 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법을 제공하는데 목적이 있다.A technical problem to be achieved by the present invention is a context-aware smart video control apparatus and method using correlation analysis between objects that recognizes multiple objects using deep learning technology and analyzes the correlation between recognized objects to obtain context awareness. It aims to provide
본 발명이 이루고자 하는 다른 기술적 과제는 상황인지된 분석 결과를 영상 형태가 아닌 문자 형태로 출력하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법을 제공하는데 목적이 있다.Another technical problem to be achieved by the present invention is to provide a context-aware smart video control device and method using correlation analysis between objects that output context-aware analysis results in text form rather than video form.
상기 목적을 달성하기 위해 본 발명에 따른 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치는 복수의 영상 정보들을 수신하는 통신부 및 상기 수신된 영상 정보들을 수집하고, 상기 수집된 각 영상 정보에 포함된 다중 객체를 인식하며, 상기 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출하고, 상기 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하며, 상기 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 하고, 상기 상황인지에 대한 예경보를 생성하는 제어부를 포함한다.In order to achieve the above object, a context-aware smart video control device using the correlation analysis between objects according to the present invention collects a communication unit that receives a plurality of image information and the received image information, and includes them in each of the collected image information. Recognize multiple objects, set a bounding box for each recognized object to extract coordinates, calculate information on the size and position of each object using the extracted coordinates, and calculate each object based on the calculated information. and a control unit that performs situational awareness through correlation analysis between objects and generates an alarm for the situational awareness.
또한 상기 제어부는, 동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용하여 상기 다중 객체를 인식하는 것을 특징으로 한다.In addition, the control unit is characterized in that it recognizes the multiple objects by using a deep learning technology for recognizing multiple objects at the same time.
또한 상기 제어부는, 상기 바운딩 박스 중 서로 대각선에 위치한 2개의 꼭지점을 기반으로 각 객체의 수직값 및 수평값을 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하는 것을 특징으로 한다.In addition, the control unit may calculate information on the size and position of each object using vertical and horizontal values of each object based on two vertices located diagonally from each other among the bounding boxes.
또한 상기 제어부는, 상기 다중 객체 중 서로 이웃하는 객체들 간의 상호연관을 각각 분석하고, 상기 분석된 결과들을 조합하여 상기 상황인지를 도출하는 것을 특징으로 한다. In addition, the control unit is characterized in that each of the mutual correlation between the objects that are adjacent to each other among the multiple objects are analyzed, and the situation recognition is derived by combining the analyzed results.
또한 상기 제어부는, 영상 형태로 상황인지된 분석 결과를 문자 형태로 변환하여 상기 예경보를 생성하는 것을 특징으로 한다.In addition, the control unit may generate the forecast/alarm by converting an analysis result of context awareness in the form of an image into a text form.
본 발명에 따른 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 방법은 복수의 영상 정보들을 수신하는 단계, 상기 수신된 영상 정보들을 수집하는 단계, 상기 수집된 각 영상 정보에 포함된 다중 객체를 인식하고, 상기 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출하는 단계, 상기 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하는 단계, 상기 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 하는 단계 및 상기 상황인지에 대한 예경보를 생성하는 단계를 포함한다.A context-aware smart video control method using correlation analysis between objects according to the present invention comprises the steps of receiving a plurality of image information, collecting the received image information, and recognizing multiple objects included in each of the collected image information. and extracting coordinates by setting a bounding box for each recognized object, calculating information on the size and position of each object using the extracted coordinates, and mutual interaction between each object based on the calculated information. It includes performing situational awareness through association analysis and generating a forecast/alarm for the situational awareness.
본 발명의 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법은 딥러닝 기술을 이용하여 다중 객체를 인식하고, 인식된 객체들 간의 상호연관 관계를 분석하여 상황인지를 정확하면서도 빠르게 할 수 있다.The context-aware smart video control apparatus and method using the correlation analysis between objects of the present invention recognizes multiple objects using deep learning technology and analyzes the correlation between the recognized objects to accurately and quickly recognize the context. there is.
또한 상황인지된 분석 결과를 요약하여 문자 형태로 출력함으로써, 사용자가 직관적으로 현재 상황을 파악할 수 있다.In addition, by summarizing the context-aware analysis results and outputting them in the form of text, the user can intuitively grasp the current situation.
도 1은 본 발명의 실시예에 따른 영상 관제 시스템을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 스마트 영상 관제 장치를 설명하기 위한 블록도이다.
도 3은 본 발명의 실시예에 따른 제어부를 설명하기 위한 블록도이다.
도 4는 도 3의 객체 인식부를 설명하기 위한 도면이다.
도 5는 도 3의 객체 분석부를 설명하기 위한 도면이다.
도 6 및 도 7은 도 3의 상호연관 분석부를 설명하기 위한 도면이다.
도 8 내지 도 12는 도 3의 예경보 생성부를 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 스마트 영상 관제 방법을 설명하기 위한 순서도이다.1 is a configuration diagram for explaining a video control system according to an embodiment of the present invention.
2 is a block diagram for explaining a smart video control device according to an embodiment of the present invention.
3 is a block diagram for explaining a control unit according to an embodiment of the present invention.
FIG. 4 is a diagram for explaining the object recognizing unit of FIG. 3 .
FIG. 5 is a diagram for explaining the object analysis unit of FIG. 3 .
6 and 7 are diagrams for explaining the correlation analysis unit of FIG. 3 .
8 to 12 are diagrams for explaining the warning generator of FIG. 3 .
13 is a flowchart for explaining a smart video control method according to an embodiment of the present invention.
이하 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the components of each drawing, it should be noted that the same components have the same numerals as much as possible even if they are displayed on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function is obvious to those skilled in the art or may obscure the gist of the present invention, the detailed description will be omitted.
도 1은 본 발명의 실시예에 따른 영상 관제 시스템을 설명하기 위한 구성도이다.1 is a configuration diagram for explaining a video control system according to an embodiment of the present invention.
도 1을 참조하면, 영상 관제 시스템(400)은 딥러닝 기술을 이용하여 다중 객체를 인식하고, 인식된 객체들 간의 상호연관 관계를 분석하여 상황인지를 한다. 영상 관제 시스템(400)은 스마트 영상 관제 장치(100) 및 영상촬영장치(200)를 포함하고, 사용자 단말(300)을 더 포함할 수 있다.Referring to FIG. 1 , the
스마트 영상 관제 장치(100)는 영상촬영장치(200)로부터 복수의 영상 정보들을 수신하고, 수신된 영상 정보들을 수집한다. 스마트 영상 관제 장치(100)는 수집된 각 영상 정보에 포함된 다중 객체를 인식하고, 인식된 객체 간의 상호연관분석을 수행하여 상황인지를 한다. 스마트 영상 관제 장치(100)는 상황인지에 대한 예경보를 문자 형태로 생성한 후, 출력한다. 스마트 영상 관제 장치(100)는 데스크톱, 랩톱, 서버 컴퓨터, 클러스터 컴퓨터 등을 포함하는 서버 컴퓨팅 시스템일 수 있다.The smart
영상촬영장치(200)는 기 설정된 복수의 영역에 대한 영상을 각각 촬영하여 복수의 영상 정보를 실시간으로 생성한다. 이를 위해 영상촬영장치(200)는 복수의 카메라를 포함한다. 예를 들어 영상촬영장치(200)는 제1 카메라(210), 제2 카메라(220) 내지 제N 카메라(230)를 포함할 수 있으며, 해당 카메라들은 CCTV일 수 있으나, 이에 한정하지 않는다. 영상촬영장치(200)는 생성된 복수의 영상 정보를 스마트 영상 관제 장치(100)로 전송한다.The
사용자 단말(300)은 사용자 또는 관리자가 사용하는 단말 장치로써, 스마트 영상 관제 장치(100)로부터 예경보를 수신하고, 수신된 예경보를 출력한다. 이를 통해 사용자 단말(300)은 영상촬영장치(200)로부터 촬영되는 복수의 영역 중 특정 이벤트가 발생된 경우에 대한 모니터링을 직관적으로 할 수 있도록 도와준다. 또한 사용자 단말(300)은 사용자 입력을 입력받아 사용자 입력에서 선택한 지역/날짜/시간에 대한 영상 정보를 스마트 영상 관제 장치(100)로 요청하여 수신받은 후, 출력할 수 있다. 사용자 단말(300)은 스마트폰, 데스크톱, 랩톱, 태블릿PC, 핸드헬드PC 등을 포함하는 개인용 컴퓨팅 시스템일 수 있다.The
한편 영상 관제 시스템(400)은 스마트 영상 관제 장치(100), 영상촬영장치(200) 및 사용자 단말(300) 사이에 통신망(450)을 구축하여 서로 간에 통신이 이루어지도록 한다. 통신망(450)은 백본망과 가입자망으로 구성될 수 있다. 백본망은 X.25 망, Frame Relay 망, ATM망, MPLS(Multi Protocol Label Switching) 망 및 GMPLS(Generalized Multi Protocol Label Switching) 망 중 하나 또는 복수의 통합된 망으로 구성될 수 있다. 가입자망은 FTTH(Fiber To The Home), ADSL(Asymmetric Digital Subscriber Line), 케이블망, 지그비(zigbee), 블루투스(bluetooth), Wireless LAN(IEEE 802.11b, IEEE 802.11a, IEEE 802.11g, IEEE 802.11n), Wireless Hart(ISO/IEC62591-1), ISA100.11a(ISO/IEC 62734), COAP(Constrained Application Protocol), MQTT(Multi-Client Publish/Subscribe Messaging), WIBro(Wireless Broadband), Wimax, 3G, HSDPA(High Speed Downlink Packet Access), 4G 및 5G일 수 있다. 일부 실시예로, 통신망(450)은 인터넷망일 수 있고, 이동 통신망일 수 있다. 또한 통신망(450)은 기타 널리 공지되었거나 향후 개발될 모든 무선통신 또는 유선통신 방식을 포함할 수 있다.Meanwhile, the
도 2는 본 발명의 실시예에 따른 스마트 영상 관제 장치를 설명하기 위한 블록도이다.2 is a block diagram for explaining a smart video control device according to an embodiment of the present invention.
도 1 및 도 2를 참조하면, 스마트 영상 관제 장치(100)는 통신부(10) 및 제어부(30)를 포함하고, 출력부(50) 및 저장부(70)를 더 포함할 수 있다.Referring to FIGS. 1 and 2 , the smart
통신부(10)는 영상촬영장치(200) 및 사용자 단말(300)과 통신을 한다. 통신부(10)는 영상촬영장치(200)로부터 복수의 영상 정보들을 수신한다. 통신부(10)는 예경보 및 영상 정보 중 적어도 하나를 사용자 단말(300)로 전송한다. The
제어부(30)는 스마트 영상 관제 장치(100)의 전반적인 제어를 수행한다. 제어부(30)는 통신부(10)로부터 수신된 복수의 영상 정보들을 수집한다. 이때 제어부(30)는 수집된 복수의 영상 정보들에 대한 전처리 과정을 수행한다. 제어부(30)는 전처리된 복수의 영상 정보들 각각에 포함하는 객체를 다중으로 인식한다. 이를 위해 제어부(30)는 동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용할 수 있으며, 바람직하게는 Yolo 알고리즘을 이용할 수 있으나, 이에 한정하지 않는다. 여기서 Yolo 알고리즘은 공지된 기술이므로 추가적인 설명은 생략하기로 한다. 제어부(30)는 인식된 객체별로 바운딩 박스(Axis-aligned bounding box)를 설정하고, 설정된 바운딩 박스에 대한 좌표를 추출한다. 여기서 바운딩 박스는 객체를 축으로 정렬한 후, 경계를 이루는 부분을 직사각형 형태로 형성된 박스이다. 경계제어부(30)는 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출한다. 제어부(30)는 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 한다. 제어부(30)는 이웃하는 객체들 간의 상호연관을 먼저 분석한 후, 분석된 결과들을 조합하여 전체적인 상황인지를 하는 구조를 가질 수 있다. 여기서 제어부(30)는 저장부(70)에 저장된 기 정의된 탐지패턴(정책)과 일치하는지를 비교하여 상호연관분석을 수행한다. 제어부(30)는 상황인지에 대한 예경보를 영상 형태에서 문자 형태로 변환하여 생성하고, 생성된 예경보를 출력한다. 이때 제어부(30)는 통신부(10)를 통해 예경보를 사용자 단말(300)로 전송시킬 수 있다.The
출력부(50)는 통신부(10)로부터 수신된 복수의 영상 정보들을 개별적으로 출력한다. 예를 들어 출력부(50)는 하나의 디스플레이를 통해 제1 카메라(210), 제2 카메라(220) 내지 제N 카메라(230)로부터 촬영된 영상 정보를 화면 분할하여 각각 출력하거나, 복수의 디스플레이를 통해 제1 카메라(210), 제2 카메라(220) 내지 제N 카메라(230)로부터 촬영된 영상 정보를 개별 출력할 수 있다. 또한 출력부(50)는 제어부(30)로부터 생성된 예경보를 출력한다. 출력부(50)는 적어도 하나의 디스플레이를 포함하고, 디스플레이는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.The
저장부(70)는 스마트 영상 관제 장치(100)가 구동되기 위한 프로그램 또는 알고리즘이 저장된다. 저장부(70)는 통신부(10)로부터 수신된 복수의 영상 정보들이 저장된다. 저장부(70)는 제어부(30)로부터 생성된 예경보가 저장되고, 상호연관분석을 하기 위한 기 정의된 탐지 패턴이 저장된다. 여기서 탐지 패턴은 객체의 상황이 어떤 상황인지를 패턴 형태로 정의한 기준값이다. 저장부(70)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기메모리, 자기 디스크 및 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다. The
도 3은 본 발명의 실시예에 따른 제어부를 설명하기 위한 블록도이고, 도 4는 도 3의 객체 인식부를 설명하기 위한 도면이며, 도 5는 도 3의 객체 분석부를 설명하기 위한 도면이고, 도 6 및 도 7은 도 3의 상호연관 분석부를 설명하기 위한 도면이며, 도 8 내지 도 12는 도 3의 예경보 생성부를 설명하기 위한 도면이다.Figure 3 is a block diagram for explaining a control unit according to an embodiment of the present invention, Figure 4 is a view for explaining the object recognition unit of Figure 3, Figure 5 is a diagram for explaining the object analysis unit of Figure 3, 6 and 7 are diagrams for explaining the correlation analysis unit of FIG. 3 , and FIGS. 8 to 12 are diagrams for explaining the forecast/alarm generation unit of FIG. 3 .
도 1 내지 도 12를 참조하면, 제어부(30)는 영상 정보 수집부(31), 객체 인식부(32), 객체 분석부(33), 상호연관 분석부(34) 및 예경보 생성부(35)를 포함한다.1 to 12, the
영상 정보 수집부(31)는 통신부(10)로부터 수신된 복수의 영상 정보들을 수집한다. 영상 정보 수집부(31)는 수집된 복수의 영상 정보들을 각각 전처리한다. 여기서 전처리 과정은 추후 수행되는 영상처리에 맞도록 영상 정보를 압축, 해제, 필터링 등을 수행하는 과정을 의미한다.The image
객체 인식부(32)는 전처리된 각 영상 정보에 포함된 다중 객체를 인식한다. 객체 인식부(32)는 동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용하여 다중 객체를 인식할 수 있다. 여기서 딥러닝 기술은 Yolo 알고리즘일 수 있으나, 이에 한정하지 않는다. 객체 인식부(32)는 인식된 객체별로 바운딩 박스를 설정하고, 설정된 바운딩 박스에 대한 좌표를 추출한다. 여기서 좌표는 바운딩 박스의 꼭지점에 대한 좌표이다. 객체 인식부(32)는 바운딩 박스의 꼭지점 모두에 대한 좌표를 추출할 수 있으나, 연산 속도 및 시스템 부하를 고려하여 도 4와 같이 바운딩 박스 중 서로 대각선의 위치한 2개의 꼭지점에 대한 좌표를 추출할 수 있다. 바람직하게는 객체 인식부(32)는 바운딩 박스의 좌측 상단 꼭지점(A)과 우측 하단 꼭지점(B)에 대한 좌표를 추출할 수 있다.The
객체 분석부(33)는 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출한다. 객체 분석부(33)는 각 바운딩 박스를 이루는 사각형의 좌측 상단 꼭지점(A)의 수평, 수직 위치와, 우측 하단 꼭지점(B)의 수평, 수직 위치를 산출하고, 산출된 결과를 기반으로 해당 바운딩 박스의 크기(면적)와 위치에 대한 정보를 산출한다. The
즉 객체 인식부(32) 및 객체 분석부(33)는 도 5와 같이 영상 정보 중에 사람(41), 손(42) 및 칼(43)을 각각 객체로 인식하고, 해당 객체의 크기와 위치에 대한 정보를 산출할 수 있다.That is, the
상호연관 분석부(34)는 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 한다. 상호연관 분석부(34)는 다중 객체 중 서로 이웃하는 객체들 간의 상호연관을 각각 분석하고, 분석된 결과들을 조합하여 하나의 상황인지를 도출한다. 이때 상호연관 분석부(34)는 정상 탐지 및 중요도에 따라 임계치를 설정하여 단위 시간당 탐지 횟수를 정의하여 상호연관분석을 수행할 수 있다. The
예를 들어 상호연관 분석부(34)는 [표 1]과 같이 기 정의된 탐지패턴을 기준으로 상호연관분석을 수행할 수 있다.For example, the
여기서 탐지명은 사용자에 의해 기 정의된 문자형 탐지 이벤트로 사용자가 인지하기 쉽게 상황형 이벤트명으로 정의하고, 해당 패턴에 실제 인식될 객체(클래스)를 선택한 후, 객체 간의 조건의 정의한다. 이때 사용될 수 있는 조건절은 거리, 중첩, 높낮이, 비율, 크기 등이 산술, 비교, 할당, 비트, 논리, 식별연산자를 통해 정의를 한다. 또한 탐지 횟수는 정탐(True Positive) 및 중요도에 따라 임계치를 두어 단위 시간당 정의를 한다.즉 도 5와 같이 상호연관 분석부(34)는 영상 정보 중 인식된 객체인 사람, 손, 칼에 대한 상호연관분석을 수행하여 상황인지를 한다. 상세하게는 상호연관 분석부(34)는 인식된 사람(41)과 손(42)의 거리가 0 또는 중첩으로 동일개체를 의미하는 상황(도 6a)으로 판단하고, 손(42)과 칼(43)의 거리가 0 또는 중첩으로 손(42)에 칼(43)을 든 상황(도 6b)으로 판단하며, 두 상황을 상호연관분석하여 ‘칼(43)을 손(42)에 든 사람(41)’의 상황을 도출한다(도 6c). 상술된 실시예와 같이 상황인지된 결과가 탐지 패턴에 일치하는 경우, 문자형 영상 탐지명과 분석 영상 정보를 같은 정보 단위로 묶어 저장하고, 문자형 영상 탐지 이벤트의 상세조회 시, 저장된 영상을 출력할 수 있도록 제어한다(도 7). Here, the detection name is a character type detection event predefined by the user, and is defined as a contextual event name that the user can easily recognize, and after selecting an object (class) to be actually recognized for the corresponding pattern, the conditions between the objects are defined. Conditional clauses that can be used at this time are defined through arithmetic, comparison, assignment, bit, logic, and identification operators such as distance, overlap, height, ratio, and size. In addition, the number of detections is defined per unit time by placing a threshold according to true positives and importance. That is, as shown in FIG. Conduct association analysis to obtain situational awareness. In detail, the
또한 상호연관 분석부(34)는 다양한 객체들을 각각의 탐지패턴으로 등록하여 학습시키고, 모델링된 결과값을 미리 정의한다. 이때 상호연관 분석부(34)는 하나 이상의 객체를 포함하는 신규 탐지 이벤트의 조건을 생성할 경우, 객체 간의 연계성을 정규식(Regular Express) 또는 산술, 비교, 할당, 비트, 논리, 식별연산자를 이용하여 정의할 수 있다.In addition, the
예경보 생성부(35)는 상황인지에 대한 예경보를 생성한다. 예경보 생성부(35)는 영상 형태로 상황인지된 분석 결과를 문자 형태로 변환하여 예경보를 생성한다. 여기서 예경보는 상황인지된 내용을 요약하여 해당 내용을 확인하는 사용자가 직관적으로 상황을 파악할 수 있도록 하며, 해당 영상 정보가 선택적으로 출력되게 지원하는 경보 메시지이다. 예경보 생성부(35)는 생성된 예경보를 출력부(50)를 통해 출력시킨다. 또한 예경보 생성부(35)는 도 8과 같이 문자형 영상 탐지 이벤트의 전송 파일 형식으로 사용자 단말(300)로 전송시켜 사용자 단말(300)에서 예경보를 출력하도록 제어할 수 있다. The forecast/
여기서 예경보는 텔레그램, SNS 등의 매체에 포함된 링크를 통해 탐지 화면 및 실시간 영상이 조회되고(도 9), SMS에 포함된 링크를 통해 탐지 화면 및 실시간 영상이 조회되며(도 10), 팝업창에 포함된 체크박스를 통해 탐지 화면 및 실시간 영상이 조회되고(도 11), 테이블 표에 포함된 메뉴를 통해 탐지 화면 및 실시간 영상이 조회될 수 있다(도 12).Here, the detection screen and real-time video are inquired through a link included in media such as Telegram and SNS (FIG. 9), the detection screen and real-time video are inquired through a link included in SMS (FIG. 10), and a pop-up window The detection screen and real-time video can be inquired through the checkbox included in (FIG. 11), and the detection screen and real-time video can be inquired through the menu included in the table (FIG. 12).
도 13은 본 발명의 실시예에 따른 스마트 영상 관제 방법을 설명하기 위한 순서도이다.13 is a flowchart for explaining a smart video control method according to an embodiment of the present invention.
도 1 및 도 13을 참조하면, 스마트 영상 관제 방법은 딥러닝 기술을 이용하여 다중 객체를 인식하고, 인식된 객체들 간의 상호연관 관계를 분석하여 상황인지를 정확하면서도 빠르게 할 수 있다. 스마트 영상 관제 방법은 상황인지된 분석 결과를 요약하여 문자 형태로 출력함으로써, 사용자가 직관적으로 현재 상황을 파악할 수 있다.Referring to FIGS. 1 and 13 , the smart video control method recognizes multiple objects using deep learning technology and analyzes the correlation between the recognized objects to accurately and quickly recognize the situation. The smart video control method summarizes the context-aware analysis results and outputs them in the form of text, so that the user can intuitively grasp the current situation.
S110 단계에서, 스마트 영상 관제 장치(100)는 복수의 영상 정보들을 수집한다. 스마트 영상 관제 장치(100)는 수집된 복수의 영상 정보들을 각각 전처리한다. 여기서 전처리 과정은 추후 수행되는 영상처리에 맞도록 영상 정보를 압축, 해제, 필터링 등을 수행하는 과정을 의미한다.In step S110, the smart
S120 단계에서, 스마트 영상 관제 장치(100)는 수집된 각 영상 정보에 포함된 다중 객체를 인식하고, 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출한다. 스마트 영상 관제 장치(100)는 동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용하여 다중 객체를 인식한다. 여기서 딥러닝 기술은 Yolo 알고리즘일 수 있으나, 이에 한정하지 않는다. 스마트 영상 관제 장치(100)는 인식된 객체별로 바운딩 박스를 설정하고, 설정된 바운딩 박스에 대한 좌표를 추출한다. 여기서 좌표는 바운딩 박스의 꼭지점에 대한 좌표이다.In step S120, the smart
S130 단계에서, 스마트 영상 관제 장치(100)는 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출한다. 스마트 영상 관제 장치(100)는 각 바운딩 박스를 이루는 사각형의 좌측 상단 꼭지점의 수평, 수직 위치와, 우측 하단 꼭지점의 수평, 수직 위치를 산출하고, 산출된 결과를 기반으로 해당 바운딩 박스의 크기(면적)와 위치에 대한 정보를 산출한다. In step S130, the smart
S140 단계에서, 스마트 영상 관제 장치(100)는 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 한다. 스마트 영상 관제 장치(100)는 다중 객체 중 서로 이웃하는 객체들 간의 상호연관을 각각 분석하고, 분석된 결과들을 조합하여 하나의 상황인지를 도출한다. In step S140, the smart
S150 단계에서, 스마트 영상 관제 장치(100)는 상황인지된 결과가 기 정의된 탐지패턴과 일치하는지를 판단한다. 스마트 영상 관제 장치(100)는 상황인지된 결과가 일치하지 않으면 시스템을 종료하고, 일치하면 S160 단계를 수행한다. 스마트 영상 관제 장치(100)는 S160 단계를 수행하기 전에 문자형 영상 탐지명과 분석 영상 정보를 같은 정보 단위로 묶어 저장하고, 문자형 영상 탐지 이벤트의 상세조회 시, 저장된 영상을 출력하도록 한다In step S150, the smart
S160 단계에서, 스마트 영상 관제 장치(100)는 상황인지에 대한 예경보를 생성한다. 스마트 영상 관제 장치(100)는 영상 형태로 상황인지된 분석 결과를 문자 형태로 변환하여 예경보를 생성한다. 여기서 예경보는 상황인지된 내용을 요약하여 해당 내용을 확인하는 사용자가 직관적으로 상황을 파악할 수 있도록 하며, 해당 영상 정보가 선택적으로 출력되게 지원하는 경보 메시지이다. 스마트 영상 관제 장치(100)는 생성된 예경보를 출력하거나, 영상 탐지 이벤트의 전송 파일 형식으로 사용자 단말(300)로 전송하여 사용자 단말(300)에서 출력되도록 할 수 있다. In step S160, the smart
본 발명의 실시 예에 따른 방법은 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체의 형태로 제공될 수도 있다. 이러한, 컴퓨터가 읽을 수 있는 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며, 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media) 및 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The method according to an embodiment of the present invention may be provided in the form of a computer readable medium suitable for storing computer program instructions and data. Such a computer-readable recording medium may include program commands, data files, data structures, etc. alone or in combination, and includes all types of recording devices storing data that can be read by a computer system. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs (Compact Disk Read Only Memory) and DVDs (Digital Video Disks). Optical media), magneto-optical media such as floptical disks, and program instructions such as ROM (Read Only Memory), RAM (RAM, Random Access Memory), flash memory, etc. and a hardware device specially configured to do so. In addition, the computer-readable recording medium is distributed in computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.
이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것은 아니며, 기술적 사상의 범주를 이탈함없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. Although the above has been described and illustrated in relation to preferred embodiments for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described in this way, without departing from the scope of the technical idea. It will be readily apparent to those skilled in the art that many changes and modifications can be made to the present invention. Accordingly, all such appropriate changes and modifications and equivalents should be regarded as falling within the scope of the present invention.
10: 통신부
30: 제어부
31: 영상 정보 수집부
32: 객체 인식부
33: 객체 분석부
34: 상호연관 분석부
35: 예경보 생성부
50: 출력부
70: 저장부
100: 스마트 영상 관제 장치
200: 영상촬영장치
210: 제1 카메라
220: 제2 카메라
230: 제N 카메라
300: 사용자 단말
400: 영상 관제 시스템
450: 통신망10: Ministry of Communications
30: control unit
31: image information collection unit
32: object recognition unit
33: object analysis unit
34: correlation analysis unit
35: warning generating unit
50: output unit
70: storage unit
100: smart video control device
200: imaging device
210: first camera
220: second camera
230: Nth camera
300: user terminal
400: video control system
450: communication network
Claims (6)
상기 수신된 영상 정보들을 수집하고, 상기 수집된 각 영상 정보에 포함된 다중 객체를 인식하며, 상기 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출하고, 상기 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하며, 상기 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 하고, 상기 상황인지에 대한 예경보를 생성하는 제어부;
를 포함하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치.a communication unit for receiving a plurality of pieces of image information; and
Collects the received image information, recognizes multiple objects included in each of the collected image information, sets a bounding box for each recognized object to extract coordinates, and uses the extracted coordinates to extract the size of each object. and a control unit that calculates information about a location, recognizes a situation through correlation analysis between each object based on the calculated information, and generates an example/alarm for the awareness of the situation;
Context-aware smart video control device using correlation analysis between objects including.
상기 제어부는,
동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용하여 상기 다중 객체를 인식하는 것을 특징으로 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치.According to claim 1,
The control unit,
Context-aware smart video control device using correlation analysis between objects, characterized in that for recognizing the multiple objects using deep learning technology for recognizing multiple objects at the same time.
상기 제어부는,
상기 바운딩 박스 중 서로 대각선에 위치한 2개의 꼭지점을 기반으로 각 객체의 수직값 및 수평값을 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하는 것을 특징으로 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치.According to claim 1,
The control unit,
Based on two vertexes located diagonally from each other among the bounding boxes, it is a situation using correlation analysis between objects, characterized in that the information on the size and position of each object is calculated using the vertical and horizontal values of each object. Smart video control device.
상기 제어부는,
상기 다중 객체 중 서로 이웃하는 객체들 간의 상호연관을 각각 분석하고, 상기 분석된 결과들을 조합하여 상기 상황인지를 도출하는 것을 특징으로 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치. According to claim 1,
The control unit,
A context-aware smart video control device using correlation analysis between objects, characterized in that each of the multiple objects analyzes the correlation between neighboring objects, and derives the context-awareness by combining the analyzed results.
상기 제어부는,
영상 형태로 상황인지된 분석 결과를 문자 형태로 변환하여 상기 예경보를 생성하는 것을 특징으로 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치. According to claim 1,
The control unit,
A context-aware smart video control device using correlation analysis between objects, characterized in that for generating the forecast and alarm by converting the context-aware analysis result in the form of a video into a text form.
상기 수신된 영상 정보들을 수집하는 단계;
상기 수집된 각 영상 정보에 포함된 다중 객체를 인식하고, 상기 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출하는 단계;
상기 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하는 단계;
상기 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 하는 단계; 및
상기 상황인지에 대한 예경보를 생성하는 단계;
를 포함하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 방법. Receiving a plurality of pieces of image information;
collecting the received image information;
Recognizing multiple objects included in each of the collected image information and extracting coordinates by setting a bounding box for each of the recognized objects;
Calculating information on the size and position of each object using the extracted coordinates;
performing context awareness through correlation analysis between objects based on the calculated information; and
Generating a warning about the situation awareness;
Context-aware smart video control method using correlation analysis between objects including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210152374A KR20230066891A (en) | 2021-11-08 | 2021-11-08 | Smart video management device and method with situation awareness using correlation analysis between objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210152374A KR20230066891A (en) | 2021-11-08 | 2021-11-08 | Smart video management device and method with situation awareness using correlation analysis between objects |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230066891A true KR20230066891A (en) | 2023-05-16 |
Family
ID=86546531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210152374A KR20230066891A (en) | 2021-11-08 | 2021-11-08 | Smart video management device and method with situation awareness using correlation analysis between objects |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230066891A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102244878B1 (en) | 2019-09-11 | 2021-04-27 | 주식회사 라온버드 | Cctv security system and method based on artificial intelligence |
-
2021
- 2021-11-08 KR KR1020210152374A patent/KR20230066891A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102244878B1 (en) | 2019-09-11 | 2021-04-27 | 주식회사 라온버드 | Cctv security system and method based on artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10937290B2 (en) | Protection of privacy in video monitoring systems | |
WO2017151241A2 (en) | Video processing | |
US10878578B2 (en) | Exclusion zone in video analytics | |
CN111091098B (en) | Training method of detection model, detection method and related device | |
KR102139582B1 (en) | Apparatus for CCTV Video Analytics Based on Multiple ROIs and an Object Detection DCNN and Driving Method Thereof | |
KR102407327B1 (en) | Apparatus for Monitoring Fire And System having the same | |
KR101377029B1 (en) | The apparatus and method of monitoring cctv with control moudule | |
CN112633313B (en) | Bad information identification method of network terminal and local area network terminal equipment | |
KR20200052418A (en) | Automated Violence Detecting System based on Deep Learning | |
US20220035003A1 (en) | Method and apparatus for high-confidence people classification, change detection, and nuisance alarm rejection based on shape classifier using 3d point cloud data | |
CN111401239B (en) | Video analysis method, device, system, equipment and storage medium | |
CN113326773A (en) | Recognition model training method, recognition method, device, equipment and storage medium | |
CN114187541A (en) | Intelligent video analysis method and storage device for user-defined service scene | |
CN116707965A (en) | Threat detection method and device, storage medium and electronic equipment | |
CN116246416A (en) | Intelligent analysis early warning platform and method for security protection | |
CN115019462A (en) | Video processing method, device, storage medium and equipment | |
CN117612060A (en) | Video early warning system, method, equipment and medium based on artificial intelligent detection | |
KR102336480B1 (en) | Image Processing Apparatus for Automatic Segment Classification and Driving Method Thereof | |
CN101461239B (en) | Video verification system and method for central station alarm monitoring | |
US11875657B2 (en) | Proactive loss prevention system | |
CN114764895A (en) | Abnormal behavior detection device and method | |
KR20230066891A (en) | Smart video management device and method with situation awareness using correlation analysis between objects | |
CN116723295A (en) | GPGPU chip-based multi-camera monitoring management system | |
CN108073854A (en) | A kind of detection method and device of scene inspection | |
KR102367584B1 (en) | Automatic video surveillance system using skeleton video analysis technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |