KR20230032976A - System and method for monitoring video using augmented reality - Google Patents

System and method for monitoring video using augmented reality Download PDF

Info

Publication number
KR20230032976A
KR20230032976A KR1020220108998A KR20220108998A KR20230032976A KR 20230032976 A KR20230032976 A KR 20230032976A KR 1020220108998 A KR1020220108998 A KR 1020220108998A KR 20220108998 A KR20220108998 A KR 20220108998A KR 20230032976 A KR20230032976 A KR 20230032976A
Authority
KR
South Korea
Prior art keywords
tracking target
information
video surveillance
real
server
Prior art date
Application number
KR1020220108998A
Other languages
Korean (ko)
Inventor
김학철
안준상
최정란
Original Assignee
주식회사 에스마루
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스마루 filed Critical 주식회사 에스마루
Publication of KR20230032976A publication Critical patent/KR20230032976A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Abstract

A video monitoring system is provided that includes: a plurality of cameras for generating real-time image data; a control server; and a video monitoring server for receiving tracking target information from the control server, analyzing real-time video data received from the plurality of cameras based on the tracking target information, specifying a tracking target, and predicting a movement path according to a change in the position of the specified tracking target. Therefore, it is possible to recognize the position and movement direction along the movement of the tracking target.

Description

증강현실을 이용한 영상 감시 시스템 및 방법{SYSTEM AND METHOD FOR MONITORING VIDEO USING AUGMENTED REALITY}Video surveillance system and method using augmented reality {SYSTEM AND METHOD FOR MONITORING VIDEO USING AUGMENTED REALITY}

본 발명은 영상 감시 시스템 및 방법에 관한 것이다.The present invention relates to a video surveillance system and method.

이미지 처리 기술 및 데이터 처리 기술의 발전에 힘입어 실제 화면에 가상의 정보를 덧붙여 보여주는 기술, 소위 증강현실 기술이 속속 등장하고 있다. 예를 들면, 스포츠 중계시 선수가 등장하면 선수의 소속 팀이나 커리어를 보여주기도 하고, 온라인쇼핑 등을 통해 화장품이나 옷을 살 때 사용자에게 미리 가상으로 화장으로 하거나 옷을 입은 이미지를 보여주기도 한다. Thanks to the development of image processing technology and data processing technology, so-called augmented reality technology, a technology that adds virtual information to a real screen, is appearing one after another. For example, when a player appears during a sports broadcast, the player's team or career is shown, and when buying cosmetics or clothes through online shopping, the user is shown a virtual image of makeup or clothes in advance.

이러한 증강현실 기술은 CCTV(closed-circuit television)에도 적용될 수 있는데, 이에 대하여 한국공개특허공보 제10-2016-0132571호(2016.11.21)에 증강현실 기술이 적용된 CCTV 영상제공시스템이 개시되어 있다. This augmented reality technology can also be applied to a closed-circuit television (CCTV). Regarding this, a CCTV image providing system to which the augmented reality technology is applied is disclosed in Korean Patent Publication No. 10-2016-0132571 (November 21, 2016).

그러나, 종래의 CCTV 영상제공시스템은 태그를 소지한 사람의 정보만 표시할 수 있을 뿐으로서, 실제 CCTV 시스템을 운영하는 관리자의 입장에서는 정보가 제한적이다. 즉, 실무적 입장에서는 태그 소지자의 도주 가능 경로, 주변 건물이나 자동차 배치 등 주변 환경의 정보도 매우 중요한데 종래의 CCTV 시스템은 이러한 점에서 충분한 정보를 제공할 수 없는 문제점이 있다.However, the conventional CCTV image providing system can only display the information of the person possessing the tag, and the information is limited from the point of view of the manager who operates the actual CCTV system. That is, from a practical point of view, information on the surrounding environment, such as the escape route of the tag holder and the arrangement of surrounding buildings or cars, is also very important, but the conventional CCTV system has a problem in that it cannot provide sufficient information in this regard.

이에 따라, 추적대상의 움직임을 따라 위치 및 이동방향을 인식할 수 있는 기술이 요구된다. Accordingly, a technology capable of recognizing the location and moving direction of a tracked object along the movement is required.

본 발명이 이루고자 하는 기술적 과제는 추적대상의 움직임을 따라 위치 및 이동방향을 인식할 수 있는 증강현실을 이용한 영상 감시 시스템 및 방법을 제공하는 것이다.A technical problem to be achieved by the present invention is to provide a video surveillance system and method using augmented reality capable of recognizing the location and moving direction of a tracked object along the movement.

한 실시예에 따르면 영상 감시 시스템이 제공된다. 상기 영상 감시 시스템은 실시간 영상데이터를 생성하는 복수의 카메라, 관제 서버, 그리고 상기 관제 서버로부터 추적대상정보를 수신하고, 상기 추적대상정보를 바탕으로 상기 복수의 카메라로부터 수신하는 실시간 영상데이터를 분석하여 추적대상을 특정하고, 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 영상 감시 서버를 포함한다.According to one embodiment, a video surveillance system is provided. The video monitoring system receives a plurality of cameras generating real-time video data, a control server, and tracking target information from the control server, and analyzes the real-time video data received from the plurality of cameras based on the tracking target information. It includes a video monitoring server that specifies a tracked subject and predicts a moving path according to a location change of the specified tracked subject.

상기 영상 감시 서버는, 상기 관제 서버로부터 상기 추적대상정보를 수신하는 통신부, 미리 저장된 인공지능 알고리즘을 이용하여 상기 추적대상정보에 대응하는 추적대상을 특정하고, 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 인공지능 분석부, 및 실시간 영상데이터에 상기 특정된 추적대상의 이동경로를 표시하는 오버레이부를 포함할 수 있다.The video monitoring server specifies a tracking target corresponding to the tracking target information using a communication unit that receives the tracking target information from the control server and a pre-stored artificial intelligence algorithm, and moves according to the location change of the specified tracking target. It may include an artificial intelligence analysis unit that predicts a path, and an overlay unit that displays the movement path of the specified tracking target on real-time image data.

상기 영상 감시 서버는, 상기 인공지능 분석부를 통해 예측된 이동경로를 바탕으로 상기 복수의 카메라의 움직임을 제어하는 제어부를 더 포함할 수 있다.The video surveillance server may further include a control unit for controlling movement of the plurality of cameras based on the movement path predicted through the artificial intelligence analysis unit.

상기 인공지능 분석부는, 미리 저장된 인공지능 알고리즘을 이용하여 실시간 영상데이터에서 사람 속성 정보 및 차량 속성 정보를 검출하는 속성 검출부를 더 포함할 수 있다.The artificial intelligence analysis unit may further include an attribute detection unit that detects human attribute information and vehicle attribute information from real-time image data using a pre-stored artificial intelligence algorithm.

상기 사람 속성 정보는 성별, 의상, 인상착의 정보를 포함하고, 상기 차량 속성 정보는 차량 종류, 차량 번호 정보를 포함할 수 있다.The person attribute information may include gender, clothes, and wear information, and the vehicle attribute information may include vehicle type and vehicle number information.

한 실시예에 따르면, 영상 감시 방법이 제공된다. 상기 영상 감시 방법은 관제 서버로부터 추적대상정보를 수신하는 단계, 상기 추적대상정보를 바탕으로 복수의 카메라로부터 수신하는 실시간 영상데이터를 분석하여 추적대상을 특정하는 단계, 그리고 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 단계를 포함한다.According to one embodiment, a video surveillance method is provided. The video surveillance method includes the steps of receiving tracking target information from a control server, specifying a tracking target by analyzing real-time video data received from a plurality of cameras based on the tracking target information, and position change of the specified tracking target. and predicting a movement path according to

상기 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 단계 이후, 실시간 영상데이터에 상기 특정된 추적대상의 이동경로를 표시하는 단계를 더 포함할 수 있다.The method may further include displaying the movement path of the specified tracking target on real-time image data after the step of predicting the movement path according to the location change of the specified tracking target.

추적대상의 움직임에 따라 이동경로를 예측하고, 예측 이동경로에 따라 카메라의 움직임을 제어하여 추적대상의 영상감시의 효율성 및 정확성을 높일 수 있다.It is possible to predict the movement path according to the movement of the target to be tracked, and to control the movement of the camera according to the predicted movement route, thereby increasing the efficiency and accuracy of video monitoring of the target to be tracked.

시설물 관리, 재난화재감시, 주차장 관리, 쓰레기 무단투기, 문화재 감시, 독거노인 모니터링 등 사회안전망에 활용이 가능하다. It can be used for social safety nets such as facility management, disaster and fire monitoring, parking lot management, illegal dumping of garbage, monitoring of cultural assets, and monitoring of the elderly living alone.

소수의 인원으로도 원활한 CCTV 감시가 가능하므로, 인건비를 절감할 수 있다.Seamless CCTV surveillance is possible even with a small number of people, so labor costs can be reduced.

GPS 데이터를 활용하여 범죄자 추적이 가능하므로, 범죄 예방 효과가 있다.Since it is possible to track criminals by using GPS data, there is an effect of preventing crime.

도 1은 한 실시예에 따른 영상 감시 시스템의 블록도이다.
도 2는 한 실시예에 따른 영상 감시 서버의 블록도이다.
도 3은 한 실시예에 따른 인공지능 분석부의 블록도이다.
도 4 내지 도 8은 영상 감시 서버의 동작 내용을 설명하기 위한 도면이다.
도 9는 한 실시예에 따른 영상 감시 방법의 흐름도이다.
도 10은 한 실시예에 따른 영상 감시 서버의 블록도이다.
1 is a block diagram of a video surveillance system according to an embodiment.
2 is a block diagram of a video surveillance server according to an embodiment.
3 is a block diagram of an artificial intelligence analysis unit according to an embodiment.
4 to 8 are diagrams for explaining the operation of the video surveillance server.
9 is a flowchart of a video monitoring method according to an exemplary embodiment.
10 is a block diagram of a video surveillance server according to an embodiment.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated.

본 발명의 실시 예에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시 예들의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 실시 예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시 예들의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present invention have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, etc. . In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding embodiment. Therefore, the term used in the present embodiments should be defined based on the meaning of the term and the overall content of the present embodiment, not a simple name of the term.

본 발명의 실시 예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. In an embodiment of the present invention, terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

또한, 본 발명의 실시 예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Also, in the embodiments of the present invention, singular expressions include plural expressions unless the context clearly indicates otherwise.

또한, 본 발명의 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In addition, in the embodiments of the present invention, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or other features, numbers, steps, operations, components, parts, or combinations thereof, or any combination thereof, is not precluded from being excluded in advance.

또한, 본 발명의 실시 예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의'모듈' 혹은 복수의'부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.Also, in an embodiment of the present invention, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented by at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.

도 1은 한 실시예에 따른 영상 감시 시스템의 블록도이다. 도 2는 한 실시예에 따른 영상 감시 서버의 블록도이다. 도 3은 한 실시예에 따른 인공지능 분석부의 블록도이다. 도 4 내지 도 8은 영상 감시 서버의 동작 내용을 설명하기 위한 도면이다.1 is a block diagram of a video surveillance system according to an embodiment. 2 is a block diagram of a video surveillance server according to an embodiment. 3 is a block diagram of an artificial intelligence analysis unit according to an embodiment. 4 to 8 are diagrams for explaining the operation of the video surveillance server.

도 1을 참조하면, 한 실시예에 따른 영상 감시 시스템은 복수의 카메라(100), 관제 서버(200), 영상 감시 서버(300), 3차원 지도 영상 제공 서버(400)를 포함한다.Referring to FIG. 1 , a video monitoring system according to an embodiment includes a plurality of cameras 100, a control server 200, a video monitoring server 300, and a 3D map image providing server 400.

복수의 카메라(100) 각각은 한 실시예로서, 미리 설정된 지역에 배치되며, 실시간 영상데이터를 생성할 수 있다.Each of the plurality of cameras 100, as an example, is disposed in a preset area and can generate real-time image data.

복수의 카메라(100) 각각은 한 실시예로서, 유무선 네트워크를 이용하여 관제 서버(200) 및 영상 감시 서버(300)와 데이터를 송수신하는 통신 모듈을 포함할 수 있다.As an example, each of the plurality of cameras 100 may include a communication module for transmitting and receiving data to and from the control server 200 and the video monitoring server 300 using a wired or wireless network.

복수의 카메라(100) 각각은 한 실시예로서, 팬-틸트-줌(PTZ) 구동이 가능한 CCTV 카메라일 수 있다.As an example, each of the plurality of cameras 100 may be a CCTV camera capable of driving a pan-tilt-zoom (PTZ).

복수의 카메라(100) 각각은 한 실시예로서, GPS 좌표 및 팬-틸트-줌값을 포함하는 카메라 정보를 관제 서버(200) 및 영상 감시 서버(300)에게 송신할 수 있다.Each of the plurality of cameras 100 may transmit camera information including GPS coordinates and pan-tilt-zoom values to the control server 200 and the video monitoring server 300, as an example.

복수의 카메라(100) 각각은 한 실시예로서, 전자발찌 인식모듈을 포함할 수 있고, 촬영 영역에 전자발찌 착용자가 접근하는 경우 해당 지역의 카메라(100)가 실시간 영상데이터를 생성하여 관제 서버(200) 및 영상 감시 서버(300)에게 송신할 수 있다.As an embodiment, each of the plurality of cameras 100 may include an electronic anklet recognition module, and when the electronic anklet wearer approaches the shooting area, the camera 100 in the area generates real-time image data to control the server ( 200) and the video monitoring server 300.

관제 서버(200)는 한 실시예로서, 유관 기관 서버(경찰청, 소방청 등)로부터 추적대상정보(예, 범죄자의 성별, 의상, 인상착의 정보, 차량 종류, 차량 번호 정보)를 수신할 수 있다. As an example, the control server 200 may receive tracking target information (eg, criminal's sex, clothes, impression information, vehicle type, license plate number information) from related agency servers (the National Police Agency, the Fire and Safety Agency, etc.).

관제 서버(200)는 한 실시예로서, 추적대상정보를 영상 감시 서버(300)에게 송신할 수 있다.As an example, the control server 200 may transmit tracking target information to the video monitoring server 300 .

영상 감시 서버(300)는 한 실시예로서, 관제 서버(200)로부터 추적대상정보를 수신하고, 추적대상정보를 바탕으로 복수의 카메라(100)로부터 수신하는 실시간 영상데이터를 분석하여 추적대상을 특정하고, 특정된 추적대상의 위치변동에 따른 이동경로를 예측할 수 있다.As an embodiment, the video surveillance server 300 receives tracking target information from the control server 200 and analyzes real-time image data received from a plurality of cameras 100 based on the tracking target information to specify a tracking target. And, it is possible to predict the movement path according to the location change of the specified tracking target.

도 2를 참조하면, 한 실시예에 다른 영상 감시 서버(300)는 통신부(310), 인공지능 분석부(320), 오버레이부(330), 제어부(340)를 포함할 수 있다.Referring to FIG. 2 , a video monitoring server 300 according to an embodiment may include a communication unit 310, an artificial intelligence analysis unit 320, an overlay unit 330, and a control unit 340.

통신부(310)는 한 실시예로서, 유무선 네트워크를 이용하여 복수의 카메라(100), 관제 서버(200), 및 3차원 지도 영상 제공 서버(400)와 데이터를 송수신하는 통신 모듈을 포함할 수 있다.As an embodiment, the communication unit 310 may include a communication module that transmits and receives data with the plurality of cameras 100, the control server 200, and the 3D map image providing server 400 using a wired or wireless network. .

통신부(310)는 한 실시예로서, 관제 서버(200)로부터 추적대상정보를 수신하고, 3차원 지도 영상 제공 서버(400)로부터 3차원 지도 영상데이터를 수신할 수 있다. As an example, the communication unit 310 may receive tracking target information from the control server 200 and receive 3D map image data from the 3D map image providing server 400 .

인공지능 분석부(320)는 한 실시예로서, 미리 저장된 인공지능 알고리즘을 이용하여 추적대상정보에 대응하는 추적대상을 특정하고, 특정된 추적대상의 위치변동에 따른 이동경로를 예측할 수 있다. As an example, the artificial intelligence analysis unit 320 may specify a tracking target corresponding to the tracking target information using a pre-stored artificial intelligence algorithm, and predict a moving path according to a location change of the specified tracking target.

미리 저장된 알고리즘은 한 실시예로서, 머신 러닝(Machine Learning) 학습 알고리즘 또는 딥러닝(Deep Learning) 학습 알고리즘일 수 있다.As an example, the pre-stored algorithm may be a machine learning algorithm or a deep learning algorithm.

도 3을 참조하면, 한 실시예에 따른 인공지능 분석부(320)는 속성 검출부(321), 메타데이터 생성부(322), 이동경로 예측부(323), 이벤트 감지부(324)를 포함할 수 있다.Referring to FIG. 3 , the artificial intelligence analysis unit 320 according to an embodiment may include an attribute detection unit 321, a metadata generation unit 322, a movement path estimation unit 323, and an event detection unit 324. can

도 4 및 도 5를 참조하면, 속성 검출부(321)는 한 실시예로서, 미리 저장된 인공지능 알고리즘을 이용하여 실시간 영상데이터에서 사람 속성 정보 및 차량 속성 정보를 검출할 수 있다.Referring to FIGS. 4 and 5 , the attribute detector 321 may detect human attribute information and vehicle attribute information from real-time image data using a pre-stored artificial intelligence algorithm as an example.

사람 속성 정보는 한 실시예로서, 성별, 의상(상의, 하의, 모자), 인상착의 정보를 포함할 수 있다. As an example, the person attribute information may include gender, clothing (top, bottom, hat), and impression information.

차량 속성 정보는 한 실시예로서, 차량 종류, 차량 번호 정보를 포함할 수 있다. The vehicle attribute information, as an example, may include vehicle type and vehicle number information.

메타데이터 생성부(322)는 한 실시예로서, 사람 속성 정보 및 차량 속성 정보를 분류하여 메타데이터(XVCP, XML Communication Protocol)를 생성할 수 있다.As an example, the metadata generation unit 322 may generate metadata (XVCP, XML Communication Protocol) by classifying human attribute information and vehicle attribute information.

이동경로 예측부(323)는 한 실시예로서, 관제 서버(200)로부터 수신한 추적대상의 위치좌표정보에 대응하는 카메라(100)의 실시간 영상데이터에서 추적대상정보에 대응하는 추적대상을 특정할 수 있다.As an embodiment, the movement path prediction unit 323 can specify a tracking target corresponding to the tracking target information in real-time image data of the camera 100 corresponding to the location coordinate information of the tracking target received from the control server 200. can

도 6을 참조하면, 이동경로 예측부(323)는 한 실시예로서, 미리 저장된 인공지능 알고리즘을 이용하여 추적대상의 위치변동에 따른 다수의 위치좌표값을 추출하고, 추출된 다수의 위치좌표값에 기반하여 추적대상의 이동경로를 예측할 수 있다. 오버레이부(330)는 한 실시예로서, 실시간 영상데이터에 추적대상의 이동경로를 표시할 수 있다.Referring to FIG. 6, as an embodiment, the movement path predictor 323 extracts a plurality of position coordinate values according to the position change of the tracking target using a pre-stored artificial intelligence algorithm, and extracts a plurality of position coordinate values. Based on this, it is possible to predict the moving path of the tracking target. As an example, the overlay unit 330 may display the moving path of the tracking target on real-time image data.

도 7을 참조하면, 이벤트 감지부(324)는 한 실시예로서, 미리 저장된 인공지능 알고리즘을 이용하여 실시간 영상데이터로부터 사람의 배회, 군집, 싸움, 쓰러짐, 유기, 침입, 차량 정차, 차량 정체, 차량주차, 도난 차량, 화재, 불꽃, 연기, 방향성 이동 중 어느 하나의 이벤트 발생 여부를 감지할 수 있다.Referring to FIG. 7 , the event detection unit 324, as an embodiment, uses a pre-stored artificial intelligence algorithm to detect people's wandering, crowding, fighting, falling, abandonment, intrusion, vehicle stop, vehicle congestion, It is possible to detect whether any one event occurs among vehicle parking, stolen vehicle, fire, flame, smoke, and directional movement.

이벤트 감지부(324)는 한 실시예로서, 이벤트가 감지되면 관제 서버(200)에게 이벤트 발생 정보(예, 사람의 배회, 군집, 싸움, 쓰러짐, 유기, 침입, 차량 정차, 차량 정체, 차량주차, 도난 차량, 화재, 불꽃, 연기, 방향성 이동 중 어느 하나의 이벤트 발생)를 포함하는 이벤트 알림 메시지를 송신할 수 있다.As an example, the event detection unit 324 provides the control server 200 with event occurrence information (e.g., human wandering, crowding, fighting, falling, abandonment, intrusion, vehicle stop, vehicle congestion, vehicle parking) when an event is detected. , stolen vehicle, fire, flame, smoke, and directional movement) may transmit an event notification message.

오버레이부(330)는 한 실시예로서, 특정된 추적대상을 포함하는 실시간 영상데이터에 추적대상정보를 표시할 수 있다.As an example, the overlay unit 330 may display tracking target information on real-time image data including a specified tracking target.

도 8을 참조하면, 오버레이부(330)는 한 실시예로서, 특정된 추적대상을 포함하는 실시간 영상데이터에 추적대상정보 및 3차원 지도 영상 제공 서버(400)로부터 수신한 3차원 지도 영상데이터를 합성하여 증강현실 영상데이터를 생성할 수 있다. 3차원 지도 영상데이터는 한 실시예로서, 도로를 따라 전방위로 촬영된 영상을 포함할 수 있다.Referring to FIG. 8 , the overlay unit 330, as an embodiment, converts tracking target information and 3D map image data received from the 3D map image providing server 400 to real-time image data including a specified tracking target. Augmented reality image data may be generated by synthesis. As an example, the 3D map image data may include images captured in all directions along the road.

제어부(340)는 한 실시예로서, 인공지능 분석부(320)를 통해 예측된 이동경로를 바탕으로 복수의 카메라(100)의 움직임을 제어할 수 있다.As an example, the control unit 340 may control the movement of the plurality of cameras 100 based on the movement path predicted through the artificial intelligence analysis unit 320 .

제어부(340)는 한 실시예로서, 이동경로 예측부(323)를 통해 예측된 추적대상의 이동경로에 기반하여 해당 카메라(100)의 팬-틸트-줌값이 변동되도록 하는 제어신호를 생성하고, 이를 해당 카메라(100)에게 전송하여 추적대상을 영상데이터에 포함하도록 제어할 수 있다. As an embodiment, the control unit 340 generates a control signal for changing the pan-tilt-zoom value of the corresponding camera 100 based on the movement path of the tracking target predicted through the movement path predictor 323, This can be transmitted to the corresponding camera 100 and controlled to include the tracking target in the image data.

3차원 지도 영상 제공 서버(400)는 한 실시예로서, 영상 감시 서버(300)에게 3차원 지도 영상데이터를 송신할 수 있다.The 3D map image providing server 400 may transmit 3D map image data to the video monitoring server 300 as an example.

도 9는 한 실시예에 따른 영상 감시 방법의 흐름도이다.9 is a flowchart of a video monitoring method according to an exemplary embodiment.

도 9를 참조하면, 한 실시예에 따른 영상 감시 서버(300)의 영상 감시 방법은 관제 서버(200)로부터 추적대상정보를 수신하는 단계(S100), 추적대상정보를 바탕으로 복수의 카메라(100)로부터 수신하는 실시간 영상데이터를 분석하여 추적대상을 특정하는 단계(S200), 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 단계(S300), 실시간 영상데이터에 특정된 추적대상의 이동경로를 표시하는 단계(S400)를 포함할 수 있다. Referring to FIG. 9 , the video monitoring method of the video monitoring server 300 according to an embodiment includes receiving tracking target information from the control server 200 (S100), and a plurality of cameras 100 based on the tracking target information. ), analyzing the real-time image data received from the target to be tracked (S200), predicting the movement path according to the location change of the specified target to be tracked (S300), and the movement path of the target to be tracked specified in the real-time image data It may include a step of displaying (S400).

단계 S100 내지 단계 S400은 위에서 설명한 영상 감시 서버(300)의 동작 내용과 동일하므로, 상세한 설명은 생략한다.Steps S100 to S400 are the same as the operation contents of the video monitoring server 300 described above, so detailed descriptions are omitted.

도 10은 한 실시예에 따른 영상 감시 서버의 블록도이다.10 is a block diagram of a video surveillance server according to an embodiment.

도 10을 참조하면, 한 실시예에 따른 영상 감시 서버는 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 컴퓨터 시스템(1000)은, 버스(1020)를 통해 통신하는 프로세서(1010), 메모리(1030), 사용자 인터페이스 입력 장치(1060), 사용자 인터페이스 출력 장치(1070), 및 저장 장치(1080) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(1000)은 또한 네트워크에 결합된 네트워크 인터페이스(1090)를 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(1030) 또는 저장 장치(1080)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 저장 장치(1080)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1030)는 ROM(read only memory)(1031) 및 RAM(random access memory)(1032)를 포함할 수 있다. 본 기재의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.Referring to FIG. 10 , a video surveillance server according to an embodiment may be implemented as a computer system, for example, a computer readable medium. The computer system 1000 includes at least one of a processor 1010, a memory 1030, a user interface input device 1060, a user interface output device 1070, and a storage device 1080 communicating through a bus 1020. can include Computer system 1000 may also include a network interface 1090 coupled to a network. The processor 1010 may be a central processing unit (CPU) or a semiconductor device that executes instructions stored in the memory 1030 or the storage device 1080 . The memory 1030 and the storage device 1080 may include various types of volatile or non-volatile storage media. For example, the memory 1030 may include a read only memory (ROM) 1031 and a random access memory (RAM) 1032 . An embodiment of the present description may be implemented as a computer-implemented method or as a non-transitory computer-readable medium in which computer-executable instructions are stored. In one embodiment, when executed by a processor, the computer readable instructions may perform a method according to at least one aspect of the present disclosure.

한 실시예에 따른 영상 감시 서버는 프로세서(1010) 및 메모리(1030)를 포함하고, 프로세서(1010)는 메모리(1030)에 저장된 프로그램을 실행하여, 관제 서버(200)로부터 추적대상정보를 수신하는 단계, 추적대상정보를 바탕으로 복수의 카메라(100)로부터 수신하는 실시간 영상데이터를 분석하여 추적대상을 특정하는 단계, 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 단계, 실시간 영상데이터에 특정된 추적대상의 이동경로를 표시하는 단계를 수행할 수 있다. The video surveillance server according to an embodiment includes a processor 1010 and a memory 1030, and the processor 1010 executes a program stored in the memory 1030 to receive tracking target information from the control server 200. Step, specifying a tracking target by analyzing real-time image data received from a plurality of cameras 100 based on the tracking target information, predicting a moving path according to the location change of the specified tracking target, A step of displaying a movement path of a specified tracking target may be performed.

프로세서(1010)의 동작 내용은 위에서 설명한 영상 감시 서버(300)의 동작 내용과 동일하므로, 상세한 설명은 생략한다.Operation of the processor 1010 is the same as that of the video monitoring server 300 described above, so a detailed description thereof will be omitted.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also included in the scope of the present invention. that fall within the scope of the right.

본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Those skilled in the art related to this embodiment will be able to understand that it can be implemented in a modified form within a range that does not deviate from the essential characteristics of the above description. Therefore, the disclosed methods are to be considered in an illustrative rather than a limiting sense. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent scope will be construed as being included in the present invention.

Claims (7)

실시간 영상데이터를 생성하는 복수의 카메라,
관제 서버, 그리고
상기 관제 서버로부터 추적대상정보를 수신하고, 상기 추적대상정보를 바탕으로 상기 복수의 카메라로부터 수신하는 실시간 영상데이터를 분석하여 추적대상을 특정하고, 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 영상 감시 서버
를 포함하는 영상 감시 시스템.
A plurality of cameras generating real-time image data;
control server, and
Receive tracking target information from the control server, analyze real-time image data received from the plurality of cameras based on the tracking target information to specify a tracking target, and predict a moving path according to the location change of the specified tracking target video surveillance server
A video surveillance system that includes a.
제1항에서,
상기 영상 감시 서버는,
상기 관제 서버로부터 상기 추적대상정보를 수신하는 통신부,
미리 저장된 인공지능 알고리즘을 이용하여 상기 추적대상정보에 대응하는 추적대상을 특정하고, 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 인공지능 분석부, 및
실시간 영상데이터에 상기 특정된 추적대상의 이동경로를 표시하는 오버레이부를 포함하는, 영상 감시 시스템.
In paragraph 1,
The video surveillance server,
A communication unit for receiving the tracking target information from the control server;
An artificial intelligence analysis unit that specifies a tracking target corresponding to the tracking target information using a pre-stored artificial intelligence algorithm and predicts a moving path according to a location change of the specified tracking target; and
A video surveillance system comprising an overlay unit displaying the specified moving path of the tracking target on real-time video data.
제2항에서,
상기 영상 감시 서버는,
상기 인공지능 분석부를 통해 예측된 이동경로를 바탕으로 상기 복수의 카메라의 움직임을 제어하는 제어부를 더 포함하는, 영상 감시 시스템.
In paragraph 2,
The video surveillance server,
Further comprising a control unit for controlling the movement of the plurality of cameras based on the movement path predicted through the artificial intelligence analysis unit, the video surveillance system.
제3항에서,
상기 인공지능 분석부는,
미리 저장된 인공지능 알고리즘을 이용하여 실시간 영상데이터에서 사람 속성 정보 및 차량 속성 정보를 검출하는 속성 검출부를 포함하는, 영상 감시 시스템.
In paragraph 3,
The artificial intelligence analysis unit,
A video surveillance system comprising an attribute detector for detecting human attribute information and vehicle attribute information from real-time image data using pre-stored artificial intelligence algorithms.
제4항에서,
상기 사람 속성 정보는 성별, 의상, 인상착의 정보를 포함하고,
상기 차량 속성 정보는 차량 종류, 차량 번호 정보를 포함하는, 영상 감시 시스템.
In paragraph 4,
The person attribute information includes gender, clothes, and impression information,
Wherein the vehicle property information includes vehicle type and vehicle number information.
관제 서버로부터 추적대상정보를 수신하는 단계,
상기 추적대상정보를 바탕으로 복수의 카메라로부터 수신하는 실시간 영상데이터를 분석하여 추적대상을 특정하는 단계, 그리고
특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 단계
를 포함하는 영상 감시 방법.
Receiving tracking target information from a control server;
Specifying a tracking target by analyzing real-time image data received from a plurality of cameras based on the tracking target information; and
Predicting the movement path according to the location change of the specified tracking target
A video surveillance method comprising a.
제6항에서,
상기 특정된 추적대상의 위치변동에 따른 이동경로를 예측하는 단계 이후,
실시간 영상데이터에 상기 특정된 추적대상의 이동경로를 표시하는 단계를 더 포함하는, 영상 감시 방법.
In paragraph 6,
After the step of predicting the movement path according to the location change of the specified tracking target,
The video monitoring method further comprising the step of displaying a movement path of the specified tracking target on real-time video data.
KR1020220108998A 2021-08-31 2022-08-30 System and method for monitoring video using augmented reality KR20230032976A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210115239 2021-08-31
KR20210115239 2021-08-31

Publications (1)

Publication Number Publication Date
KR20230032976A true KR20230032976A (en) 2023-03-07

Family

ID=85513370

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220108998A KR20230032976A (en) 2021-08-31 2022-08-30 System and method for monitoring video using augmented reality

Country Status (1)

Country Link
KR (1) KR20230032976A (en)

Similar Documents

Publication Publication Date Title
Muhammad et al. Early fire detection using convolutional neural networks during surveillance for effective disaster management
US10937290B2 (en) Protection of privacy in video monitoring systems
Nam et al. Intelligent video surveillance system: 3-tier context-aware surveillance system with metadata
WO2014125882A1 (en) Information processing system, information processing method, and program
JP6233624B2 (en) Information processing system, information processing method, and program
US11270562B2 (en) Video surveillance system and video surveillance method
Pundir et al. Deep belief network for smoke detection
KR20100010325A (en) Method for tracking object
WO2018179202A1 (en) Information processing device, control method, and program
JP7459916B2 (en) Object tracking method, object tracking device, and program
KR20210053534A (en) Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof
US20180032817A1 (en) System and method for detecting potential mugging event via trajectory-based analysis
Fuentes et al. Tracking-based event detection for CCTV systems
JP2009140264A (en) Crime prevention device and program
US11308792B2 (en) Security systems integration
JP6206627B1 (en) Information processing apparatus, control method, and program
Nam Real-time abandoned and stolen object detection based on spatio-temporal features in crowded scenes
JP2017167800A (en) Monitoring system, information processor, monitoring method, and monitoring program
JP2021196741A (en) Image processing device, image processing method and program
JP6536643B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
KR20230032976A (en) System and method for monitoring video using augmented reality
KR20230032977A (en) Integrated control system and method using augmented reality
Fleck et al. Privacy sensitive surveillance for assisted living–a smart camera approach
KR20220154473A (en) System of peventing external intrusion using virtulal detection line in image
KR102557769B1 (en) System for detect accident based on cctv using digital twin virtual model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal