KR20230066891A - Smart video management device and method with situation awareness using correlation analysis between objects - Google Patents

Smart video management device and method with situation awareness using correlation analysis between objects Download PDF

Info

Publication number
KR20230066891A
KR20230066891A KR1020210152374A KR20210152374A KR20230066891A KR 20230066891 A KR20230066891 A KR 20230066891A KR 1020210152374 A KR1020210152374 A KR 1020210152374A KR 20210152374 A KR20210152374 A KR 20210152374A KR 20230066891 A KR20230066891 A KR 20230066891A
Authority
KR
South Korea
Prior art keywords
objects
correlation analysis
image information
context
smart video
Prior art date
Application number
KR1020210152374A
Other languages
Korean (ko)
Inventor
손동식
Original Assignee
손동식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 손동식 filed Critical 손동식
Priority to KR1020210152374A priority Critical patent/KR20230066891A/en
Publication of KR20230066891A publication Critical patent/KR20230066891A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

The present invention discloses a situational awareness smart video control device using correlation analysis between objects and a method thereof. According to the present invention, a smart video control device includes: a communication unit which receives a plurality of image information; and a control unit which collects received image information, recognizes a plurality of objects included in each collected image information, sets a bounding box for each recognized object to extract coordinates, uses the extracted coordinates to determine the size and location of each object, performs situation awareness through correlation analysis between each object based on the calculated information, and generates a warning about situation awareness.

Description

객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법{Smart video management device and method with situation awareness using correlation analysis between objects}Smart video management device and method with situation awareness using correlation analysis between objects}

본 발명은 영상 관제 기술에 관한 것으로, 더욱 상세하게는 별도의 행동 인식 센서 없이 영상 정보에 포함된 객체 간의 상호연관 관계를 분석하여 상황인지를 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법에 관한 것이다.The present invention relates to video control technology, and more particularly, to a context-aware smart video control device using correlation analysis between objects that performs context-awareness by analyzing correlations between objects included in image information without a separate action recognition sensor. and methods.

최근 물리 보안 시스템들은 CCTV(closed circuit television) 또는 IP 카메라를 통해 물리적 위협이나 침해를 사후에 분석하기 위해 블랙박스처럼 디지털 비디오 레코더(Digital Video Recorder, DVR), 네트워크 비디오 레코더(Network Video Recorder, NVR)를 통해 24시간 영상만을 저장하던 시대에서 보다 능동적인 대처를 위한 비디오 관리 시스템(Video Management System, VMS)을 이용한 실시간 영상 위협 관제 시대로 빠르게 급변하고 있다. Recent physical security systems use digital video recorders (DVRs) and network video recorders (NVRs) like a black box to post-analyze physical threats or breaches through CCTVs (closed circuit televisions) or IP cameras. Through , the era of storing only 24-hour video is rapidly changing to the era of real-time video threat control using a video management system (VMS) for more active response.

그러나 VMS가 단순히 CCTV 및 IP 카메라를 실시간으로 지켜보거나, 단순 영상감지만을 탐지함으로 인해 정제되지 않은 많은 오탐(False Positive)을 발생시키고 있다. 예를 들어 사람만의 행위를 탐지해야 하는 경우에도 동물 또는 사물의 이동을 탐지함으로써, 관제 요원의 피로도를 높이고 있다. However, VMS simply monitors CCTV and IP cameras in real time or detects only simple video detection, resulting in many unrefined false positives. For example, even when only human behavior is to be detected, the fatigue of control personnel is increased by detecting the movement of animals or objects.

또한 상황 인지가 결여된 오탐 발생 시간대에 관제 요원의 도움이 실제로 필요한 폭력, 절도 등의 강력범죄가 발생된 경우, 예방이 적시에 이루어 질 수 없는 문제점이 있다.In addition, there is a problem in that prevention cannot be performed in a timely manner in the case of a violent crime such as violence or theft that actually requires the help of a control agent during a false positive occurrence time zone when situational awareness is lacking.

한국등록특허공보 제10-2244878호(2021.04.21.)Korea Patent Registration No. 10-2244878 (2021.04.21.)

본 발명이 이루고자 하는 기술적 과제는 딥러닝 기술을 이용하여 다중 객체를 인식하고, 인식된 객체들 간의 상호연관 관계를 분석하여 상황인지를 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법을 제공하는데 목적이 있다.A technical problem to be achieved by the present invention is a context-aware smart video control apparatus and method using correlation analysis between objects that recognizes multiple objects using deep learning technology and analyzes the correlation between recognized objects to obtain context awareness. It aims to provide

본 발명이 이루고자 하는 다른 기술적 과제는 상황인지된 분석 결과를 영상 형태가 아닌 문자 형태로 출력하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법을 제공하는데 목적이 있다.Another technical problem to be achieved by the present invention is to provide a context-aware smart video control device and method using correlation analysis between objects that output context-aware analysis results in text form rather than video form.

상기 목적을 달성하기 위해 본 발명에 따른 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치는 복수의 영상 정보들을 수신하는 통신부 및 상기 수신된 영상 정보들을 수집하고, 상기 수집된 각 영상 정보에 포함된 다중 객체를 인식하며, 상기 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출하고, 상기 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하며, 상기 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 하고, 상기 상황인지에 대한 예경보를 생성하는 제어부를 포함한다.In order to achieve the above object, a context-aware smart video control device using the correlation analysis between objects according to the present invention collects a communication unit that receives a plurality of image information and the received image information, and includes them in each of the collected image information. Recognize multiple objects, set a bounding box for each recognized object to extract coordinates, calculate information on the size and position of each object using the extracted coordinates, and calculate each object based on the calculated information. and a control unit that performs situational awareness through correlation analysis between objects and generates an alarm for the situational awareness.

또한 상기 제어부는, 동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용하여 상기 다중 객체를 인식하는 것을 특징으로 한다.In addition, the control unit is characterized in that it recognizes the multiple objects by using a deep learning technology for recognizing multiple objects at the same time.

또한 상기 제어부는, 상기 바운딩 박스 중 서로 대각선에 위치한 2개의 꼭지점을 기반으로 각 객체의 수직값 및 수평값을 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하는 것을 특징으로 한다.In addition, the control unit may calculate information on the size and position of each object using vertical and horizontal values of each object based on two vertices located diagonally from each other among the bounding boxes.

또한 상기 제어부는, 상기 다중 객체 중 서로 이웃하는 객체들 간의 상호연관을 각각 분석하고, 상기 분석된 결과들을 조합하여 상기 상황인지를 도출하는 것을 특징으로 한다. In addition, the control unit is characterized in that each of the mutual correlation between the objects that are adjacent to each other among the multiple objects are analyzed, and the situation recognition is derived by combining the analyzed results.

또한 상기 제어부는, 영상 형태로 상황인지된 분석 결과를 문자 형태로 변환하여 상기 예경보를 생성하는 것을 특징으로 한다.In addition, the control unit may generate the forecast/alarm by converting an analysis result of context awareness in the form of an image into a text form.

본 발명에 따른 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 방법은 복수의 영상 정보들을 수신하는 단계, 상기 수신된 영상 정보들을 수집하는 단계, 상기 수집된 각 영상 정보에 포함된 다중 객체를 인식하고, 상기 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출하는 단계, 상기 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하는 단계, 상기 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 하는 단계 및 상기 상황인지에 대한 예경보를 생성하는 단계를 포함한다.A context-aware smart video control method using correlation analysis between objects according to the present invention comprises the steps of receiving a plurality of image information, collecting the received image information, and recognizing multiple objects included in each of the collected image information. and extracting coordinates by setting a bounding box for each recognized object, calculating information on the size and position of each object using the extracted coordinates, and mutual interaction between each object based on the calculated information. It includes performing situational awareness through association analysis and generating a forecast/alarm for the situational awareness.

본 발명의 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치 및 방법은 딥러닝 기술을 이용하여 다중 객체를 인식하고, 인식된 객체들 간의 상호연관 관계를 분석하여 상황인지를 정확하면서도 빠르게 할 수 있다.The context-aware smart video control apparatus and method using the correlation analysis between objects of the present invention recognizes multiple objects using deep learning technology and analyzes the correlation between the recognized objects to accurately and quickly recognize the context. there is.

또한 상황인지된 분석 결과를 요약하여 문자 형태로 출력함으로써, 사용자가 직관적으로 현재 상황을 파악할 수 있다.In addition, by summarizing the context-aware analysis results and outputting them in the form of text, the user can intuitively grasp the current situation.

도 1은 본 발명의 실시예에 따른 영상 관제 시스템을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 스마트 영상 관제 장치를 설명하기 위한 블록도이다.
도 3은 본 발명의 실시예에 따른 제어부를 설명하기 위한 블록도이다.
도 4는 도 3의 객체 인식부를 설명하기 위한 도면이다.
도 5는 도 3의 객체 분석부를 설명하기 위한 도면이다.
도 6 및 도 7은 도 3의 상호연관 분석부를 설명하기 위한 도면이다.
도 8 내지 도 12는 도 3의 예경보 생성부를 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 스마트 영상 관제 방법을 설명하기 위한 순서도이다.
1 is a configuration diagram for explaining a video control system according to an embodiment of the present invention.
2 is a block diagram for explaining a smart video control device according to an embodiment of the present invention.
3 is a block diagram for explaining a control unit according to an embodiment of the present invention.
FIG. 4 is a diagram for explaining the object recognizing unit of FIG. 3 .
FIG. 5 is a diagram for explaining the object analysis unit of FIG. 3 .
6 and 7 are diagrams for explaining the correlation analysis unit of FIG. 3 .
8 to 12 are diagrams for explaining the warning generator of FIG. 3 .
13 is a flowchart for explaining a smart video control method according to an embodiment of the present invention.

이하 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the components of each drawing, it should be noted that the same components have the same numerals as much as possible even if they are displayed on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function is obvious to those skilled in the art or may obscure the gist of the present invention, the detailed description will be omitted.

도 1은 본 발명의 실시예에 따른 영상 관제 시스템을 설명하기 위한 구성도이다.1 is a configuration diagram for explaining a video control system according to an embodiment of the present invention.

도 1을 참조하면, 영상 관제 시스템(400)은 딥러닝 기술을 이용하여 다중 객체를 인식하고, 인식된 객체들 간의 상호연관 관계를 분석하여 상황인지를 한다. 영상 관제 시스템(400)은 스마트 영상 관제 장치(100) 및 영상촬영장치(200)를 포함하고, 사용자 단말(300)을 더 포함할 수 있다.Referring to FIG. 1 , the video control system 400 recognizes multiple objects using deep learning technology and analyzes correlations between the recognized objects to determine context. The video control system 400 includes the smart video control device 100 and the image capture device 200, and may further include a user terminal 300.

스마트 영상 관제 장치(100)는 영상촬영장치(200)로부터 복수의 영상 정보들을 수신하고, 수신된 영상 정보들을 수집한다. 스마트 영상 관제 장치(100)는 수집된 각 영상 정보에 포함된 다중 객체를 인식하고, 인식된 객체 간의 상호연관분석을 수행하여 상황인지를 한다. 스마트 영상 관제 장치(100)는 상황인지에 대한 예경보를 문자 형태로 생성한 후, 출력한다. 스마트 영상 관제 장치(100)는 데스크톱, 랩톱, 서버 컴퓨터, 클러스터 컴퓨터 등을 포함하는 서버 컴퓨팅 시스템일 수 있다.The smart video control device 100 receives a plurality of pieces of image information from the image capture device 200 and collects the received image information. The smart video control device 100 recognizes multiple objects included in each of the collected image information and performs a correlation analysis between the recognized objects to determine context. The smart video control device 100 generates an alert for situation awareness in the form of text and then outputs it. The smart video control device 100 may be a server computing system including a desktop computer, a laptop computer, a server computer, and a cluster computer.

영상촬영장치(200)는 기 설정된 복수의 영역에 대한 영상을 각각 촬영하여 복수의 영상 정보를 실시간으로 생성한다. 이를 위해 영상촬영장치(200)는 복수의 카메라를 포함한다. 예를 들어 영상촬영장치(200)는 제1 카메라(210), 제2 카메라(220) 내지 제N 카메라(230)를 포함할 수 있으며, 해당 카메라들은 CCTV일 수 있으나, 이에 한정하지 않는다. 영상촬영장치(200)는 생성된 복수의 영상 정보를 스마트 영상 관제 장치(100)로 전송한다.The image capture device 200 captures images of a plurality of preset areas, respectively, and generates a plurality of image information in real time. To this end, the imaging device 200 includes a plurality of cameras. For example, the imaging device 200 may include a first camera 210, a second camera 220 to an N-th camera 230, and the corresponding cameras may be CCTVs, but are not limited thereto. The image capture device 200 transmits the generated image information to the smart image control device 100 .

사용자 단말(300)은 사용자 또는 관리자가 사용하는 단말 장치로써, 스마트 영상 관제 장치(100)로부터 예경보를 수신하고, 수신된 예경보를 출력한다. 이를 통해 사용자 단말(300)은 영상촬영장치(200)로부터 촬영되는 복수의 영역 중 특정 이벤트가 발생된 경우에 대한 모니터링을 직관적으로 할 수 있도록 도와준다. 또한 사용자 단말(300)은 사용자 입력을 입력받아 사용자 입력에서 선택한 지역/날짜/시간에 대한 영상 정보를 스마트 영상 관제 장치(100)로 요청하여 수신받은 후, 출력할 수 있다. 사용자 단말(300)은 스마트폰, 데스크톱, 랩톱, 태블릿PC, 핸드헬드PC 등을 포함하는 개인용 컴퓨팅 시스템일 수 있다.The user terminal 300 is a terminal device used by a user or a manager, and receives an alarm from the smart video control device 100 and outputs the received alarm. Through this, the user terminal 300 helps to intuitively monitor when a specific event occurs among a plurality of areas captured by the image capture device 200 . In addition, the user terminal 300 may receive a user input, request video information for a region/date/time selected from the user input to the smart video control device 100, receive the video information, and output the received image information. The user terminal 300 may be a personal computing system including a smart phone, desktop, laptop, tablet PC, handheld PC, and the like.

한편 영상 관제 시스템(400)은 스마트 영상 관제 장치(100), 영상촬영장치(200) 및 사용자 단말(300) 사이에 통신망(450)을 구축하여 서로 간에 통신이 이루어지도록 한다. 통신망(450)은 백본망과 가입자망으로 구성될 수 있다. 백본망은 X.25 망, Frame Relay 망, ATM망, MPLS(Multi Protocol Label Switching) 망 및 GMPLS(Generalized Multi Protocol Label Switching) 망 중 하나 또는 복수의 통합된 망으로 구성될 수 있다. 가입자망은 FTTH(Fiber To The Home), ADSL(Asymmetric Digital Subscriber Line), 케이블망, 지그비(zigbee), 블루투스(bluetooth), Wireless LAN(IEEE 802.11b, IEEE 802.11a, IEEE 802.11g, IEEE 802.11n), Wireless Hart(ISO/IEC62591-1), ISA100.11a(ISO/IEC 62734), COAP(Constrained Application Protocol), MQTT(Multi-Client Publish/Subscribe Messaging), WIBro(Wireless Broadband), Wimax, 3G, HSDPA(High Speed Downlink Packet Access), 4G 및 5G일 수 있다. 일부 실시예로, 통신망(450)은 인터넷망일 수 있고, 이동 통신망일 수 있다. 또한 통신망(450)은 기타 널리 공지되었거나 향후 개발될 모든 무선통신 또는 유선통신 방식을 포함할 수 있다.Meanwhile, the video control system 400 establishes a communication network 450 between the smart video control device 100, the image capture device 200, and the user terminal 300 to allow communication between them. The communication network 450 may be composed of a backbone network and a subscriber network. The backbone network may be composed of one or a plurality of integrated networks among an X.25 network, a Frame Relay network, an ATM network, a Multi Protocol Label Switching (MPLS) network, and a Generalized Multi Protocol Label Switching (GMPLS) network. Subscriber networks include FTTH (Fiber To The Home), ADSL (Asymmetric Digital Subscriber Line), cable network, zigbee, Bluetooth, and wireless LAN (IEEE 802.11b, IEEE 802.11a, IEEE 802.11g, IEEE 802.11n ), Wireless Hart (ISO/IEC62591-1), ISA100.11a (ISO/IEC 62734), COAP (Constrained Application Protocol), MQTT (Multi-Client Publish/Subscribe Messaging), WIBro (Wireless Broadband), Wimax, 3G, It may be High Speed Downlink Packet Access (HSDPA), 4G and 5G. In some embodiments, the communication network 450 may be an internet network or a mobile communication network. In addition, the communication network 450 may include all other well-known wireless communication or wired communication methods to be developed in the future.

도 2는 본 발명의 실시예에 따른 스마트 영상 관제 장치를 설명하기 위한 블록도이다.2 is a block diagram for explaining a smart video control device according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 스마트 영상 관제 장치(100)는 통신부(10) 및 제어부(30)를 포함하고, 출력부(50) 및 저장부(70)를 더 포함할 수 있다.Referring to FIGS. 1 and 2 , the smart video control device 100 includes a communication unit 10 and a control unit 30, and may further include an output unit 50 and a storage unit 70.

통신부(10)는 영상촬영장치(200) 및 사용자 단말(300)과 통신을 한다. 통신부(10)는 영상촬영장치(200)로부터 복수의 영상 정보들을 수신한다. 통신부(10)는 예경보 및 영상 정보 중 적어도 하나를 사용자 단말(300)로 전송한다. The communication unit 10 communicates with the image capture device 200 and the user terminal 300 . The communication unit 10 receives a plurality of pieces of image information from the image capture device 200 . The communication unit 10 transmits at least one of the warning and image information to the user terminal 300 .

제어부(30)는 스마트 영상 관제 장치(100)의 전반적인 제어를 수행한다. 제어부(30)는 통신부(10)로부터 수신된 복수의 영상 정보들을 수집한다. 이때 제어부(30)는 수집된 복수의 영상 정보들에 대한 전처리 과정을 수행한다. 제어부(30)는 전처리된 복수의 영상 정보들 각각에 포함하는 객체를 다중으로 인식한다. 이를 위해 제어부(30)는 동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용할 수 있으며, 바람직하게는 Yolo 알고리즘을 이용할 수 있으나, 이에 한정하지 않는다. 여기서 Yolo 알고리즘은 공지된 기술이므로 추가적인 설명은 생략하기로 한다. 제어부(30)는 인식된 객체별로 바운딩 박스(Axis-aligned bounding box)를 설정하고, 설정된 바운딩 박스에 대한 좌표를 추출한다. 여기서 바운딩 박스는 객체를 축으로 정렬한 후, 경계를 이루는 부분을 직사각형 형태로 형성된 박스이다. 경계제어부(30)는 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출한다. 제어부(30)는 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 한다. 제어부(30)는 이웃하는 객체들 간의 상호연관을 먼저 분석한 후, 분석된 결과들을 조합하여 전체적인 상황인지를 하는 구조를 가질 수 있다. 여기서 제어부(30)는 저장부(70)에 저장된 기 정의된 탐지패턴(정책)과 일치하는지를 비교하여 상호연관분석을 수행한다. 제어부(30)는 상황인지에 대한 예경보를 영상 형태에서 문자 형태로 변환하여 생성하고, 생성된 예경보를 출력한다. 이때 제어부(30)는 통신부(10)를 통해 예경보를 사용자 단말(300)로 전송시킬 수 있다.The controller 30 performs overall control of the smart video control device 100 . The control unit 30 collects a plurality of pieces of image information received from the communication unit 10 . At this time, the controller 30 performs a pre-processing process on the collected image information. The control unit 30 multi-recognizes objects included in each of the plurality of pre-processed image information. To this end, the control unit 30 may use a deep learning technique for simultaneously recognizing multiple objects, and may preferably use a Yolo algorithm, but is not limited thereto. Here, since the Yolo algorithm is a well-known technology, additional description thereof will be omitted. The controller 30 sets an axis-aligned bounding box for each recognized object, and extracts coordinates for the set bounding box. Here, the bounding box is a box formed in a rectangular shape by aligning objects along an axis and forming a boundary. The boundary control unit 30 calculates information on the size and position of each object using the extracted coordinates. The control unit 30 performs context awareness through correlation analysis between each object based on the calculated information. The control unit 30 may have a structure in which correlations between neighboring objects are first analyzed, and then the analyzed results are combined to determine overall situation. Here, the control unit 30 performs correlation analysis by comparing whether or not it matches a predefined detection pattern (policy) stored in the storage unit 70 . The control unit 30 converts and generates an example/alarm for situation awareness from a video form to a text form, and outputs the generated example/alarm. At this time, the control unit 30 may transmit the forecast/alarm message to the user terminal 300 through the communication unit 10 .

출력부(50)는 통신부(10)로부터 수신된 복수의 영상 정보들을 개별적으로 출력한다. 예를 들어 출력부(50)는 하나의 디스플레이를 통해 제1 카메라(210), 제2 카메라(220) 내지 제N 카메라(230)로부터 촬영된 영상 정보를 화면 분할하여 각각 출력하거나, 복수의 디스플레이를 통해 제1 카메라(210), 제2 카메라(220) 내지 제N 카메라(230)로부터 촬영된 영상 정보를 개별 출력할 수 있다. 또한 출력부(50)는 제어부(30)로부터 생성된 예경보를 출력한다. 출력부(50)는 적어도 하나의 디스플레이를 포함하고, 디스플레이는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.The output unit 50 individually outputs a plurality of pieces of image information received from the communication unit 10 . For example, the output unit 50 divides the image information taken from the first camera 210, the second camera 220 to the Nth camera 230 through one display and outputs each screen, or a plurality of displays. Image information photographed by the first camera 210, the second camera 220 to the Nth camera 230 may be individually output through. In addition, the output unit 50 outputs the forewarning generated by the control unit 30 . The output unit 50 includes at least one display, and the display includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (LCD), and an organic light-emitting diode (LCD). It may include at least one of an emitting diode (OLED), a flexible display, and a 3D display.

저장부(70)는 스마트 영상 관제 장치(100)가 구동되기 위한 프로그램 또는 알고리즘이 저장된다. 저장부(70)는 통신부(10)로부터 수신된 복수의 영상 정보들이 저장된다. 저장부(70)는 제어부(30)로부터 생성된 예경보가 저장되고, 상호연관분석을 하기 위한 기 정의된 탐지 패턴이 저장된다. 여기서 탐지 패턴은 객체의 상황이 어떤 상황인지를 패턴 형태로 정의한 기준값이다. 저장부(70)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기메모리, 자기 디스크 및 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다. The storage unit 70 stores a program or algorithm for driving the smart video control device 100 . The storage unit 70 stores a plurality of pieces of image information received from the communication unit 10 . The storage unit 70 stores warnings generated by the control unit 30 and predefined detection patterns for correlation analysis. Here, the detection pattern is a reference value defined in the form of a pattern in which the situation of the object is. The storage unit 70 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, It may include at least one storage medium of a magnetic disk and an optical disk.

도 3은 본 발명의 실시예에 따른 제어부를 설명하기 위한 블록도이고, 도 4는 도 3의 객체 인식부를 설명하기 위한 도면이며, 도 5는 도 3의 객체 분석부를 설명하기 위한 도면이고, 도 6 및 도 7은 도 3의 상호연관 분석부를 설명하기 위한 도면이며, 도 8 내지 도 12는 도 3의 예경보 생성부를 설명하기 위한 도면이다.Figure 3 is a block diagram for explaining a control unit according to an embodiment of the present invention, Figure 4 is a view for explaining the object recognition unit of Figure 3, Figure 5 is a diagram for explaining the object analysis unit of Figure 3, 6 and 7 are diagrams for explaining the correlation analysis unit of FIG. 3 , and FIGS. 8 to 12 are diagrams for explaining the forecast/alarm generation unit of FIG. 3 .

도 1 내지 도 12를 참조하면, 제어부(30)는 영상 정보 수집부(31), 객체 인식부(32), 객체 분석부(33), 상호연관 분석부(34) 및 예경보 생성부(35)를 포함한다.1 to 12, the control unit 30 includes an image information collection unit 31, an object recognition unit 32, an object analysis unit 33, a correlation analysis unit 34, and a forecast/alarm generation unit 35 ).

영상 정보 수집부(31)는 통신부(10)로부터 수신된 복수의 영상 정보들을 수집한다. 영상 정보 수집부(31)는 수집된 복수의 영상 정보들을 각각 전처리한다. 여기서 전처리 과정은 추후 수행되는 영상처리에 맞도록 영상 정보를 압축, 해제, 필터링 등을 수행하는 과정을 의미한다.The image information collecting unit 31 collects a plurality of pieces of image information received from the communication unit 10 . The image information collection unit 31 pre-processes each of the collected image information. Here, the preprocessing process refers to a process of compressing, decompressing, filtering, and the like, image information to be suitable for image processing to be performed later.

객체 인식부(32)는 전처리된 각 영상 정보에 포함된 다중 객체를 인식한다. 객체 인식부(32)는 동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용하여 다중 객체를 인식할 수 있다. 여기서 딥러닝 기술은 Yolo 알고리즘일 수 있으나, 이에 한정하지 않는다. 객체 인식부(32)는 인식된 객체별로 바운딩 박스를 설정하고, 설정된 바운딩 박스에 대한 좌표를 추출한다. 여기서 좌표는 바운딩 박스의 꼭지점에 대한 좌표이다. 객체 인식부(32)는 바운딩 박스의 꼭지점 모두에 대한 좌표를 추출할 수 있으나, 연산 속도 및 시스템 부하를 고려하여 도 4와 같이 바운딩 박스 중 서로 대각선의 위치한 2개의 꼭지점에 대한 좌표를 추출할 수 있다. 바람직하게는 객체 인식부(32)는 바운딩 박스의 좌측 상단 꼭지점(A)과 우측 하단 꼭지점(B)에 대한 좌표를 추출할 수 있다.The object recognition unit 32 recognizes multiple objects included in each preprocessed image information. The object recognizing unit 32 may recognize multiple objects using deep learning technology that recognizes multiple objects at the same time. Here, the deep learning technology may be Yolo algorithm, but is not limited thereto. The object recognizing unit 32 sets a bounding box for each recognized object and extracts coordinates for the set bounding box. Here, the coordinates are the coordinates of the vertices of the bounding box. The object recognition unit 32 may extract the coordinates of all vertices of the bounding box, but may extract the coordinates of two vertices located diagonally from each other among the bounding boxes as shown in FIG. 4 in consideration of the operation speed and system load. there is. Preferably, the object recognition unit 32 may extract the coordinates of the upper left vertex A and the lower right vertex B of the bounding box.

객체 분석부(33)는 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출한다. 객체 분석부(33)는 각 바운딩 박스를 이루는 사각형의 좌측 상단 꼭지점(A)의 수평, 수직 위치와, 우측 하단 꼭지점(B)의 수평, 수직 위치를 산출하고, 산출된 결과를 기반으로 해당 바운딩 박스의 크기(면적)와 위치에 대한 정보를 산출한다. The object analyzer 33 calculates information about the size and position of each object using the extracted coordinates. The object analyzer 33 calculates the horizontal and vertical positions of the upper left vertex (A) and the lower right vertex (B) of the rectangle constituting each bounding box, and calculates the corresponding bounding box based on the calculated results. Calculate information about the size (area) and position of the box.

즉 객체 인식부(32) 및 객체 분석부(33)는 도 5와 같이 영상 정보 중에 사람(41), 손(42) 및 칼(43)을 각각 객체로 인식하고, 해당 객체의 크기와 위치에 대한 정보를 산출할 수 있다.That is, the object recognizing unit 32 and the object analyzing unit 33 recognize the person 41, the hand 42, and the knife 43 as objects in the image information, respectively, as shown in FIG. information can be calculated.

상호연관 분석부(34)는 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 한다. 상호연관 분석부(34)는 다중 객체 중 서로 이웃하는 객체들 간의 상호연관을 각각 분석하고, 분석된 결과들을 조합하여 하나의 상황인지를 도출한다. 이때 상호연관 분석부(34)는 정상 탐지 및 중요도에 따라 임계치를 설정하여 단위 시간당 탐지 횟수를 정의하여 상호연관분석을 수행할 수 있다. The correlation analysis unit 34 performs context awareness through correlation analysis between each object based on the calculated information. The correlation analyzer 34 analyzes correlations between objects that are adjacent to each other among multiple objects, and derives a single context by combining the analyzed results. At this time, the correlation analysis unit 34 may perform correlation analysis by defining the number of detections per unit time by setting thresholds according to normal detection and importance.

예를 들어 상호연관 분석부(34)는 [표 1]과 같이 기 정의된 탐지패턴을 기준으로 상호연관분석을 수행할 수 있다.For example, the correlation analysis unit 34 may perform correlation analysis based on a predefined detection pattern as shown in Table 1.

탐지명detection name 칼을 손에 든 사람man with knife in hand 탐지 객체detection object 사람 / 손 / 칼person / hand / knife 임계치threshold 15회 / 1분15 times / 1 minute 객체 패턴object pattern 사람person distancedistance hand distancedistance knife ≤0≤0 ≤0≤0

여기서 탐지명은 사용자에 의해 기 정의된 문자형 탐지 이벤트로 사용자가 인지하기 쉽게 상황형 이벤트명으로 정의하고, 해당 패턴에 실제 인식될 객체(클래스)를 선택한 후, 객체 간의 조건의 정의한다. 이때 사용될 수 있는 조건절은 거리, 중첩, 높낮이, 비율, 크기 등이 산술, 비교, 할당, 비트, 논리, 식별연산자를 통해 정의를 한다. 또한 탐지 횟수는 정탐(True Positive) 및 중요도에 따라 임계치를 두어 단위 시간당 정의를 한다.즉 도 5와 같이 상호연관 분석부(34)는 영상 정보 중 인식된 객체인 사람, 손, 칼에 대한 상호연관분석을 수행하여 상황인지를 한다. 상세하게는 상호연관 분석부(34)는 인식된 사람(41)과 손(42)의 거리가 0 또는 중첩으로 동일개체를 의미하는 상황(도 6a)으로 판단하고, 손(42)과 칼(43)의 거리가 0 또는 중첩으로 손(42)에 칼(43)을 든 상황(도 6b)으로 판단하며, 두 상황을 상호연관분석하여 ‘칼(43)을 손(42)에 든 사람(41)’의 상황을 도출한다(도 6c). 상술된 실시예와 같이 상황인지된 결과가 탐지 패턴에 일치하는 경우, 문자형 영상 탐지명과 분석 영상 정보를 같은 정보 단위로 묶어 저장하고, 문자형 영상 탐지 이벤트의 상세조회 시, 저장된 영상을 출력할 수 있도록 제어한다(도 7). Here, the detection name is a character type detection event predefined by the user, and is defined as a contextual event name that the user can easily recognize, and after selecting an object (class) to be actually recognized for the corresponding pattern, the conditions between the objects are defined. Conditional clauses that can be used at this time are defined through arithmetic, comparison, assignment, bit, logic, and identification operators such as distance, overlap, height, ratio, and size. In addition, the number of detections is defined per unit time by placing a threshold according to true positives and importance. That is, as shown in FIG. Conduct association analysis to obtain situational awareness. In detail, the correlation analysis unit 34 determines that the distance between the recognized person 41 and the hand 42 is 0 or overlapping, meaning the same object (FIG. 6A), and the hand 42 and the knife ( 43) is judged as a situation where the knife 43 is held in the hand 42 (FIG. 6B) with a distance of 0 or overlapping, and the two situations are correlated to analyze 'a person holding a knife 43 in the hand 42 ( 41)' is derived (Fig. 6c). As in the above-described embodiment, when the context recognition result matches the detection pattern, the text image detection name and the analysis image information are grouped and stored in the same information unit, and the stored image can be output when a detailed search of the text image detection event is performed. control (Fig. 7).

또한 상호연관 분석부(34)는 다양한 객체들을 각각의 탐지패턴으로 등록하여 학습시키고, 모델링된 결과값을 미리 정의한다. 이때 상호연관 분석부(34)는 하나 이상의 객체를 포함하는 신규 탐지 이벤트의 조건을 생성할 경우, 객체 간의 연계성을 정규식(Regular Express) 또는 산술, 비교, 할당, 비트, 논리, 식별연산자를 이용하여 정의할 수 있다.In addition, the correlation analysis unit 34 registers and learns various objects as respective detection patterns, and predefines modeled result values. At this time, when the correlation analysis unit 34 creates a condition for a new detection event including one or more objects, the association between objects is determined by using regular expressions or arithmetic, comparison, assignment, bit, logic, and identification operators. can be defined

예경보 생성부(35)는 상황인지에 대한 예경보를 생성한다. 예경보 생성부(35)는 영상 형태로 상황인지된 분석 결과를 문자 형태로 변환하여 예경보를 생성한다. 여기서 예경보는 상황인지된 내용을 요약하여 해당 내용을 확인하는 사용자가 직관적으로 상황을 파악할 수 있도록 하며, 해당 영상 정보가 선택적으로 출력되게 지원하는 경보 메시지이다. 예경보 생성부(35)는 생성된 예경보를 출력부(50)를 통해 출력시킨다. 또한 예경보 생성부(35)는 도 8과 같이 문자형 영상 탐지 이벤트의 전송 파일 형식으로 사용자 단말(300)로 전송시켜 사용자 단말(300)에서 예경보를 출력하도록 제어할 수 있다. The forecast/alarm generation unit 35 generates a forecast/alarm for situation awareness. The forecast/alert generating unit 35 converts the situation-aware analysis result in the form of an image into a text format to generate a forecast/alarm. Here, the forecast/alarm is an alarm message that summarizes context-recognized content so that a user who checks the content can intuitively grasp the situation, and supports selectively outputting corresponding image information. The forecast/alert generator 35 outputs the generated forecast/alarm through the output unit 50 . In addition, as shown in FIG. 8 , the forecast/alarm generation unit 35 transmits the text image detection event to the user terminal 300 in the form of a transmission file, and controls the user terminal 300 to output the forecast/alarm.

여기서 예경보는 텔레그램, SNS 등의 매체에 포함된 링크를 통해 탐지 화면 및 실시간 영상이 조회되고(도 9), SMS에 포함된 링크를 통해 탐지 화면 및 실시간 영상이 조회되며(도 10), 팝업창에 포함된 체크박스를 통해 탐지 화면 및 실시간 영상이 조회되고(도 11), 테이블 표에 포함된 메뉴를 통해 탐지 화면 및 실시간 영상이 조회될 수 있다(도 12).Here, the detection screen and real-time video are inquired through a link included in media such as Telegram and SNS (FIG. 9), the detection screen and real-time video are inquired through a link included in SMS (FIG. 10), and a pop-up window The detection screen and real-time video can be inquired through the checkbox included in (FIG. 11), and the detection screen and real-time video can be inquired through the menu included in the table (FIG. 12).

도 13은 본 발명의 실시예에 따른 스마트 영상 관제 방법을 설명하기 위한 순서도이다.13 is a flowchart for explaining a smart video control method according to an embodiment of the present invention.

도 1 및 도 13을 참조하면, 스마트 영상 관제 방법은 딥러닝 기술을 이용하여 다중 객체를 인식하고, 인식된 객체들 간의 상호연관 관계를 분석하여 상황인지를 정확하면서도 빠르게 할 수 있다. 스마트 영상 관제 방법은 상황인지된 분석 결과를 요약하여 문자 형태로 출력함으로써, 사용자가 직관적으로 현재 상황을 파악할 수 있다.Referring to FIGS. 1 and 13 , the smart video control method recognizes multiple objects using deep learning technology and analyzes the correlation between the recognized objects to accurately and quickly recognize the situation. The smart video control method summarizes the context-aware analysis results and outputs them in the form of text, so that the user can intuitively grasp the current situation.

S110 단계에서, 스마트 영상 관제 장치(100)는 복수의 영상 정보들을 수집한다. 스마트 영상 관제 장치(100)는 수집된 복수의 영상 정보들을 각각 전처리한다. 여기서 전처리 과정은 추후 수행되는 영상처리에 맞도록 영상 정보를 압축, 해제, 필터링 등을 수행하는 과정을 의미한다.In step S110, the smart video control device 100 collects a plurality of image information. The smart video control device 100 pre-processes each of a plurality of collected video information. Here, the preprocessing process refers to a process of compressing, decompressing, filtering, and the like, image information to be suitable for image processing to be performed later.

S120 단계에서, 스마트 영상 관제 장치(100)는 수집된 각 영상 정보에 포함된 다중 객체를 인식하고, 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출한다. 스마트 영상 관제 장치(100)는 동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용하여 다중 객체를 인식한다. 여기서 딥러닝 기술은 Yolo 알고리즘일 수 있으나, 이에 한정하지 않는다. 스마트 영상 관제 장치(100)는 인식된 객체별로 바운딩 박스를 설정하고, 설정된 바운딩 박스에 대한 좌표를 추출한다. 여기서 좌표는 바운딩 박스의 꼭지점에 대한 좌표이다.In step S120, the smart video control device 100 recognizes multiple objects included in each collected image information, sets a bounding box for each recognized object, and extracts coordinates. The smart video control device 100 recognizes multiple objects using deep learning technology that simultaneously recognizes multiple objects. Here, the deep learning technology may be Yolo algorithm, but is not limited thereto. The smart video control device 100 sets a bounding box for each recognized object and extracts coordinates for the set bounding box. Here, the coordinates are the coordinates of the vertices of the bounding box.

S130 단계에서, 스마트 영상 관제 장치(100)는 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출한다. 스마트 영상 관제 장치(100)는 각 바운딩 박스를 이루는 사각형의 좌측 상단 꼭지점의 수평, 수직 위치와, 우측 하단 꼭지점의 수평, 수직 위치를 산출하고, 산출된 결과를 기반으로 해당 바운딩 박스의 크기(면적)와 위치에 대한 정보를 산출한다. In step S130, the smart video control device 100 calculates information about the size and location of each object using the extracted coordinates. The smart video control device 100 calculates the horizontal and vertical position of the upper left vertex and the horizontal and vertical position of the lower right vertex of the rectangle constituting each bounding box, and calculates the size (area) of the corresponding bounding box based on the calculated results. ) and information about the location.

S140 단계에서, 스마트 영상 관제 장치(100)는 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 한다. 스마트 영상 관제 장치(100)는 다중 객체 중 서로 이웃하는 객체들 간의 상호연관을 각각 분석하고, 분석된 결과들을 조합하여 하나의 상황인지를 도출한다. In step S140, the smart video control device 100 performs context awareness through correlation analysis between each object based on the calculated information. The smart video control device 100 analyzes each of the correlations between neighboring objects among multiple objects, and combines the analyzed results to derive whether it is a single situation.

S150 단계에서, 스마트 영상 관제 장치(100)는 상황인지된 결과가 기 정의된 탐지패턴과 일치하는지를 판단한다. 스마트 영상 관제 장치(100)는 상황인지된 결과가 일치하지 않으면 시스템을 종료하고, 일치하면 S160 단계를 수행한다. 스마트 영상 관제 장치(100)는 S160 단계를 수행하기 전에 문자형 영상 탐지명과 분석 영상 정보를 같은 정보 단위로 묶어 저장하고, 문자형 영상 탐지 이벤트의 상세조회 시, 저장된 영상을 출력하도록 한다In step S150, the smart video control device 100 determines whether the situation recognition result matches a predefined detection pattern. The smart video control device 100 terminates the system if the situation recognition results do not match, and performs step S160 if they match. The smart video control device 100 stores the text image detection name and analysis image information in the same information unit before performing step S160, and outputs the stored image when the text image detection event is detailed.

S160 단계에서, 스마트 영상 관제 장치(100)는 상황인지에 대한 예경보를 생성한다. 스마트 영상 관제 장치(100)는 영상 형태로 상황인지된 분석 결과를 문자 형태로 변환하여 예경보를 생성한다. 여기서 예경보는 상황인지된 내용을 요약하여 해당 내용을 확인하는 사용자가 직관적으로 상황을 파악할 수 있도록 하며, 해당 영상 정보가 선택적으로 출력되게 지원하는 경보 메시지이다. 스마트 영상 관제 장치(100)는 생성된 예경보를 출력하거나, 영상 탐지 이벤트의 전송 파일 형식으로 사용자 단말(300)로 전송하여 사용자 단말(300)에서 출력되도록 할 수 있다. In step S160, the smart video control device 100 generates an alert for situational awareness. The smart video control device 100 converts the context-aware analysis result in the form of a video into a text form to generate a warning. Here, the forecast/alarm is an alarm message that summarizes context-recognized content so that a user who checks the content can intuitively grasp the situation, and supports selectively outputting corresponding image information. The smart video control device 100 may output the generated example/alert or transmit the image detection event to the user terminal 300 in the form of a transmission file so that the user terminal 300 outputs the generated example/alarm.

본 발명의 실시 예에 따른 방법은 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체의 형태로 제공될 수도 있다. 이러한, 컴퓨터가 읽을 수 있는 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며, 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media) 및 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The method according to an embodiment of the present invention may be provided in the form of a computer readable medium suitable for storing computer program instructions and data. Such a computer-readable recording medium may include program commands, data files, data structures, etc. alone or in combination, and includes all types of recording devices storing data that can be read by a computer system. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs (Compact Disk Read Only Memory) and DVDs (Digital Video Disks). Optical media), magneto-optical media such as floptical disks, and program instructions such as ROM (Read Only Memory), RAM (RAM, Random Access Memory), flash memory, etc. and a hardware device specially configured to do so. In addition, the computer-readable recording medium is distributed in computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것은 아니며, 기술적 사상의 범주를 이탈함없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. Although the above has been described and illustrated in relation to preferred embodiments for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described in this way, without departing from the scope of the technical idea. It will be readily apparent to those skilled in the art that many changes and modifications can be made to the present invention. Accordingly, all such appropriate changes and modifications and equivalents should be regarded as falling within the scope of the present invention.

10: 통신부
30: 제어부
31: 영상 정보 수집부
32: 객체 인식부
33: 객체 분석부
34: 상호연관 분석부
35: 예경보 생성부
50: 출력부
70: 저장부
100: 스마트 영상 관제 장치
200: 영상촬영장치
210: 제1 카메라
220: 제2 카메라
230: 제N 카메라
300: 사용자 단말
400: 영상 관제 시스템
450: 통신망
10: Ministry of Communications
30: control unit
31: image information collection unit
32: object recognition unit
33: object analysis unit
34: correlation analysis unit
35: warning generating unit
50: output unit
70: storage unit
100: smart video control device
200: imaging device
210: first camera
220: second camera
230: Nth camera
300: user terminal
400: video control system
450: communication network

Claims (6)

복수의 영상 정보들을 수신하는 통신부; 및
상기 수신된 영상 정보들을 수집하고, 상기 수집된 각 영상 정보에 포함된 다중 객체를 인식하며, 상기 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출하고, 상기 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하며, 상기 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 하고, 상기 상황인지에 대한 예경보를 생성하는 제어부;
를 포함하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치.
a communication unit for receiving a plurality of pieces of image information; and
Collects the received image information, recognizes multiple objects included in each of the collected image information, sets a bounding box for each recognized object to extract coordinates, and uses the extracted coordinates to extract the size of each object. and a control unit that calculates information about a location, recognizes a situation through correlation analysis between each object based on the calculated information, and generates an example/alarm for the awareness of the situation;
Context-aware smart video control device using correlation analysis between objects including.
제 1항에 있어서,
상기 제어부는,
동시에 다중으로 객체를 인식하는 딥러닝 기술을 이용하여 상기 다중 객체를 인식하는 것을 특징으로 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치.
According to claim 1,
The control unit,
Context-aware smart video control device using correlation analysis between objects, characterized in that for recognizing the multiple objects using deep learning technology for recognizing multiple objects at the same time.
제 1항에 있어서,
상기 제어부는,
상기 바운딩 박스 중 서로 대각선에 위치한 2개의 꼭지점을 기반으로 각 객체의 수직값 및 수평값을 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하는 것을 특징으로 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치.
According to claim 1,
The control unit,
Based on two vertexes located diagonally from each other among the bounding boxes, it is a situation using correlation analysis between objects, characterized in that the information on the size and position of each object is calculated using the vertical and horizontal values of each object. Smart video control device.
제 1항에 있어서,
상기 제어부는,
상기 다중 객체 중 서로 이웃하는 객체들 간의 상호연관을 각각 분석하고, 상기 분석된 결과들을 조합하여 상기 상황인지를 도출하는 것을 특징으로 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치.
According to claim 1,
The control unit,
A context-aware smart video control device using correlation analysis between objects, characterized in that each of the multiple objects analyzes the correlation between neighboring objects, and derives the context-awareness by combining the analyzed results.
제 1항에 있어서,
상기 제어부는,
영상 형태로 상황인지된 분석 결과를 문자 형태로 변환하여 상기 예경보를 생성하는 것을 특징으로 하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 장치.
According to claim 1,
The control unit,
A context-aware smart video control device using correlation analysis between objects, characterized in that for generating the forecast and alarm by converting the context-aware analysis result in the form of a video into a text form.
복수의 영상 정보들을 수신하는 단계;
상기 수신된 영상 정보들을 수집하는 단계;
상기 수집된 각 영상 정보에 포함된 다중 객체를 인식하고, 상기 인식된 객체별로 바운딩 박스를 설정하여 좌표를 추출하는 단계;
상기 추출된 좌표를 이용하여 각 객체의 크기 및 위치에 대한 정보를 산출하는 단계;
상기 산출된 정보를 기반으로 각 객체 간의 상호연관분석을 통해 상황인지를 하는 단계; 및
상기 상황인지에 대한 예경보를 생성하는 단계;
를 포함하는 객체 간의 상호연관분석을 이용한 상황인지 스마트 영상 관제 방법.
Receiving a plurality of pieces of image information;
collecting the received image information;
Recognizing multiple objects included in each of the collected image information and extracting coordinates by setting a bounding box for each of the recognized objects;
Calculating information on the size and position of each object using the extracted coordinates;
performing context awareness through correlation analysis between objects based on the calculated information; and
Generating a warning about the situation awareness;
Context-aware smart video control method using correlation analysis between objects including.
KR1020210152374A 2021-11-08 2021-11-08 Smart video management device and method with situation awareness using correlation analysis between objects KR20230066891A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210152374A KR20230066891A (en) 2021-11-08 2021-11-08 Smart video management device and method with situation awareness using correlation analysis between objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210152374A KR20230066891A (en) 2021-11-08 2021-11-08 Smart video management device and method with situation awareness using correlation analysis between objects

Publications (1)

Publication Number Publication Date
KR20230066891A true KR20230066891A (en) 2023-05-16

Family

ID=86546531

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210152374A KR20230066891A (en) 2021-11-08 2021-11-08 Smart video management device and method with situation awareness using correlation analysis between objects

Country Status (1)

Country Link
KR (1) KR20230066891A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102244878B1 (en) 2019-09-11 2021-04-27 주식회사 라온버드 Cctv security system and method based on artificial intelligence

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102244878B1 (en) 2019-09-11 2021-04-27 주식회사 라온버드 Cctv security system and method based on artificial intelligence

Similar Documents

Publication Publication Date Title
US10937290B2 (en) Protection of privacy in video monitoring systems
WO2017151241A2 (en) Video processing
US10878578B2 (en) Exclusion zone in video analytics
CN111091098B (en) Training method of detection model, detection method and related device
KR102139582B1 (en) Apparatus for CCTV Video Analytics Based on Multiple ROIs and an Object Detection DCNN and Driving Method Thereof
KR102407327B1 (en) Apparatus for Monitoring Fire And System having the same
KR101377029B1 (en) The apparatus and method of monitoring cctv with control moudule
CN112633313B (en) Bad information identification method of network terminal and local area network terminal equipment
KR20200052418A (en) Automated Violence Detecting System based on Deep Learning
US20220035003A1 (en) Method and apparatus for high-confidence people classification, change detection, and nuisance alarm rejection based on shape classifier using 3d point cloud data
CN111401239B (en) Video analysis method, device, system, equipment and storage medium
CN113326773A (en) Recognition model training method, recognition method, device, equipment and storage medium
CN114187541A (en) Intelligent video analysis method and storage device for user-defined service scene
CN116707965A (en) Threat detection method and device, storage medium and electronic equipment
CN116246416A (en) Intelligent analysis early warning platform and method for security protection
CN115019462A (en) Video processing method, device, storage medium and equipment
CN117612060A (en) Video early warning system, method, equipment and medium based on artificial intelligent detection
KR102336480B1 (en) Image Processing Apparatus for Automatic Segment Classification and Driving Method Thereof
CN101461239B (en) Video verification system and method for central station alarm monitoring
US11875657B2 (en) Proactive loss prevention system
CN114764895A (en) Abnormal behavior detection device and method
KR20230066891A (en) Smart video management device and method with situation awareness using correlation analysis between objects
CN116723295A (en) GPGPU chip-based multi-camera monitoring management system
CN108073854A (en) A kind of detection method and device of scene inspection
KR102367584B1 (en) Automatic video surveillance system using skeleton video analysis technique

Legal Events

Date Code Title Description
E902 Notification of reason for refusal