KR20220088183A - Method for detecting event occurrence through real-time video analysis and providing guide information - Google Patents

Method for detecting event occurrence through real-time video analysis and providing guide information Download PDF

Info

Publication number
KR20220088183A
KR20220088183A KR1020200178966A KR20200178966A KR20220088183A KR 20220088183 A KR20220088183 A KR 20220088183A KR 1020200178966 A KR1020200178966 A KR 1020200178966A KR 20200178966 A KR20200178966 A KR 20200178966A KR 20220088183 A KR20220088183 A KR 20220088183A
Authority
KR
South Korea
Prior art keywords
image data
event
boundary area
detection
detected
Prior art date
Application number
KR1020200178966A
Other languages
Korean (ko)
Inventor
김성엽
Original Assignee
(주)지비유 데이터링크스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지비유 데이터링크스 filed Critical (주)지비유 데이터링크스
Priority to KR1020200178966A priority Critical patent/KR20220088183A/en
Publication of KR20220088183A publication Critical patent/KR20220088183A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission

Abstract

실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 방법이 제공된다. 본 발명의 다양한 실시예에 따른 실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 영상 데이터를 수집하는 단계, 상기 수집된 영상 데이터를 분석하여 이벤트 발생을 감지하는 단계 및 상기 감지된 이벤트에 대한 안내 정보를 출력하는 단계를 포함한다.A method for detecting and guiding event occurrence through real-time image analysis is provided. The method for detecting and guiding event occurrence through real-time image analysis according to various embodiments of the present invention is a method performed by a computing device, comprising: collecting image data; analyzing the collected image data to detect the occurrence of an event and outputting guide information for the detected event.

Description

실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 정보 제공 방법{METHOD FOR DETECTING EVENT OCCURRENCE THROUGH REAL-TIME VIDEO ANALYSIS AND PROVIDING GUIDE INFORMATION}How to detect event occurrence and provide guidance information through real-time video analysis {METHOD FOR DETECTING EVENT OCCURRENCE THROUGH REAL-TIME VIDEO ANALYSIS AND PROVIDING GUIDE INFORMATION}

본 발명의 다양한 실시예는 실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 정보 제공 방법에 관한 것이다.Various embodiments of the present invention relate to a method for detecting event occurrence and providing guidance information through real-time image analysis.

범죄 예방이나 교통정보 수집, 및 모니터링 목적으로 CCTV(Closed Circuit Television)카메라가 건물 내 외부를 비롯하여 골목이나 도로 등에 설치되고 있다. 종래의 CCTV시스템은 특정 지역에 설치된 CCTV카메라로부터 전송되는 영상을 관리실에 설치된 모니터에 디스플레이 함으로써 관리자가 모니터를 지켜보면서 감시 활동을 하는 것이 일반적이다.CCTV (Closed Circuit Television) cameras are being installed inside and outside buildings, alleys and roads for the purpose of crime prevention, traffic information collection, and monitoring. Conventional CCTV systems display images transmitted from CCTV cameras installed in a specific area on a monitor installed in a management room, so that an administrator observes the monitor and conducts monitoring activities.

최근 들어, 범죄 예방이나 모니터링 목적으로 설치되는 CCTV카메라의 수가 크게 증가하고 있으며, 이에 따라 CCTV카메라를 통해 촬영된 감시영상을 분석하는데 많은 시간이 소요되고 있다. 즉, 사고나 범죄가 발생한 후, 경찰이나 안전 관리 담당자가 사건을 분석하여 증거 수집을 위해 이용할 수 있도록 녹화된 감시영상을 재생하면서 일일이 확인하고 있으며, 이 경우 원하는 장면을 찾기 위한 시간이 많이 소요된다는 문제가 있다.In recent years, the number of CCTV cameras installed for crime prevention or monitoring purposes is greatly increasing, and accordingly, a lot of time is required to analyze the surveillance images captured by the CCTV cameras. That is, after an accident or a crime occurs, the police or safety management personnel analyze the incident and play back the recorded surveillance video so that it can be used to collect evidence, and in this case, it takes a lot of time to find the desired scene. there is a problem.

또한, 이러한 시간을 줄이기 위해, 대부분의 영상재생장치에는 배속 탐색 기능이 구비되어 있으며, 영상을 2배, 4배, 8배, 혹은 16배 등의 속도로 재생하여 원하는 장면을 찾기 위한 시간을 줄일 수 있다. 하지만, 영상이 빠르게 재생되는 경우, 담당자가 인식하지 못하여 누락되는 장면이 빈번히 발생한다는 문제가 있다.In addition, in order to reduce this time, most image playback devices are equipped with a double speed search function, and the time to find a desired scene is reduced by playing the video at a speed of 2x, 4x, 8x, or 16x. can However, when an image is reproduced quickly, there is a problem in that scenes that are omitted frequently occur because the person in charge does not recognize them.

본 발명이 해결하고자 하는 과제는 복수의 카메라 모듈을 이용하여 촬영된 영상 데이터를 분석하여 다양한 종류의 이벤트를 감지할 수 있고, 감지된 이벤트를 안내하는 안내 정보를 출력할 수 있는 실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 정보 제공 방법에 관한 것이다.The problem to be solved by the present invention is through real-time image analysis that can detect various types of events by analyzing image data captured using a plurality of camera modules, and output guide information to guide the detected events. It relates to a method for detecting event occurrence and providing guidance information.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 영상 데이터를 수집하는 단계, 상기 수집된 영상 데이터를 분석하여 이벤트 발생을 감지하는 단계 및 상기 감지된 이벤트에 대한 안내 정보를 출력하는 단계를 포함할 수 있다.In a method performed by a computing device, the method for detecting and guiding event occurrence through real-time image analysis according to an embodiment of the present invention for solving the above-described problems includes the steps of collecting image data, the collected image data It may include the step of detecting the occurrence of an event by analyzing and outputting guide information for the detected event.

다양한 실시예에서, 상기 이벤트 발생을 감지하는 단계는, 상기 수집된 영상 데이터를 분석하여, 영역 내 움직임, 영역 내 개체 멈춤, 오디오 신호 있음, 오디오 신호 없음, 배회(순회), 가상선 통과 여부, 영역 내에서 개체(물체)의 사라짐, 영역 내에서 개체(물체)의 나타남(침입), 전체 움직임, 소음 감지, 버려진 개체(물체), 카메라 위치 변경 감지, 연기 검출, 흐려짐 감지, 차량 번호 검출, 화재 검출, 품질 저하 감지, 압축된 이미지 감지 및 얼굴 감지 중 적어도 하나에 대응되는 이벤트를 감지하는 단계를 포함할 수 있다.In various embodiments, the step of detecting the occurrence of the event may include analyzing the collected image data, moving within the area, stopping the object within the area, with an audio signal, without an audio signal, wandering (traversing), passing a virtual line, Disappearance of object (object) within area, Appearance (intrusion) of object (object) within area, global motion, noise detection, abandoned object (object), camera position change detection, smoke detection, blur detection, license plate number detection, The method may include detecting an event corresponding to at least one of fire detection, quality degradation detection, compressed image detection, and face detection.

다양한 실시예에서, 상기 안내 정보를 출력하는 단계는, 상기 감지된 이벤트에 대한 안내 정보를 팝업 형태로 출력하는 단계를 포함할 수 있다.In various embodiments, the outputting of the guide information may include outputting the guide information on the detected event in a pop-up form.

다양한 실시예에서, 상기 이벤트가 감지된 영상 데이터를 수집한 카메라가 상기 감지된 이벤트에 대응하여 기 설정된 동작을 수행하도록 제어하는 단계를 더 포함할 수 있다.In various embodiments, the method may further include controlling a camera that has collected image data in which the event is detected to perform a preset operation in response to the detected event.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 다양한 실시예에 따르면, 복수의 카메라 모듈을 이용하여 촬영된 영상 데이터를 분석하여 다양한 종류의 이벤트를 감지할 수 있고, 감지된 이벤트를 안내하는 안내 정보를 출력함으로써, 사용자가 이벤트 발생을 즉각적으로 인지할 수 있도록 한다는 이점이 있다.According to various embodiments of the present invention, various types of events can be detected by analyzing image data captured using a plurality of camera modules, and guide information for guiding the detected events is output, so that the user can prevent the occurrence of events. It has the advantage of being able to recognize it immediately.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1는 다양한 실시예에서, 실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 서버가 제공하는 사용자 인터페이스(User Interface, UI)를 도시한 도면이다.
도 2 내지 5는 다양한 실시예에서, 경계 지역 내에 거수자 침입을 감지 및 안내하는 구성을 도시한 도면이다.
도 6은 다양한 실시예에서, 경계 지역 내에 물체의 사라짐을 감지 및 안내하는 구성을 도시한 도면이다.
도 7은 다양한 실시예에서, 경계 지역 내에 이동 물체의 멈춤을 감지 및 안내하는 구성을 도시한 도면이다.
도 8은 다양한 실시예에서, 이동 물체가 경계 지역 내에 설정된 경계선을 통과하는 것을 감지 및 안내하는 구성을 도시한 도면이다.
도 9 및 10은 다양한 실시예에서, 경계 지역 내에 배회를 감지 및 안내하는 구성을 도시한 도면이다.
도 11은 다양한 실시예에서, 경계 지역 내에 신규 물체의 출현을 감지 및 안내하는 구성을 도시한 도면이다.
도 12 내지 14는 다양한 실시예에서, 경계 지역 내의 움직임을 감지 및 안내하는 구성을 도시한 도면이다.
도 15는 다양한 실시예에서, 경계 지역 내 카메라 영상 품질 손실을 감지 및 안내하는 구성을 도시한 도면이다.
도 16은 다양한 실시예에서, 카메라별 네트워크 상태를 실시간으로 체크하는 구성을 도시한 도면이다.
1 is a diagram illustrating a user interface (UI) provided by an event occurrence detection and guidance server through real-time image analysis, according to various embodiments of the present disclosure.
2 to 5 are diagrams illustrating a configuration for detecting and guiding a beggar intrusion within a boundary area, according to various embodiments.
6 is a diagram illustrating a configuration for detecting and guiding the disappearance of an object within a boundary area, according to various embodiments of the present disclosure;
7 is a diagram illustrating a configuration for detecting and guiding a stop of a moving object within a boundary area, according to various embodiments of the present disclosure;
8 is a diagram illustrating a configuration for detecting and guiding a moving object passing through a boundary line set in a boundary area, according to various embodiments of the present disclosure;
9 and 10 are diagrams illustrating configurations for detecting and guiding loitering within a boundary area, according to various embodiments.
11 is a diagram illustrating a configuration for detecting and guiding the appearance of a new object in a boundary area, according to various embodiments of the present disclosure;
12 to 14 are diagrams illustrating a configuration for detecting and guiding motion within a boundary area, according to various embodiments.
15 is a diagram illustrating a configuration for detecting and guiding camera image quality loss in a boundary area, according to various embodiments of the present disclosure;
16 is a diagram illustrating a configuration for checking a network state for each camera in real time, according to various embodiments of the present disclosure;

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, “part” or “module” is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium or to reproduce one or more processors. Thus, by way of example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or as additional components and “parts” or “modules”. can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer refers to all types of hardware devices including at least one processor, and may be understood as encompassing software configurations operating in the corresponding hardware device according to embodiments. For example, a computer may be understood to include, but is not limited to, smart phones, tablet PCs, desktops, notebooks, and user clients and applications running on each device.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and at least a portion of each step may be performed in different devices according to embodiments.

도 1는 다양한 실시예에서, 실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 서버가 제공하는 사용자 인터페이스(User Interface, UI)를 도시한 도면이다.1 is a diagram illustrating a user interface (UI) provided by an event occurrence detection and guidance server through real-time image analysis, according to various embodiments of the present disclosure.

도 1을 참조하면, 실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 서버(이하, "서버")는 모든 카메라에 적용할 수 있는 자유로운 실시간 지능형 영상 알림을 제공할 수 있다.Referring to FIG. 1 , an event occurrence detection and guidance server (hereinafter, “server”) through real-time image analysis may provide a free real-time intelligent image notification applicable to all cameras.

다양한 실시예에서, 서버는 뛰어난 지능형 영상분석 능력을 가지며, 이벤트 반응에 따라 유연하고 편리한 기능을 제공할 수 있다.In various embodiments, the server has excellent intelligent image analysis capability and may provide flexible and convenient functions according to event responses.

다양한 실시예에서, 서버는 실시간 지능형 영상 분석 기능과 실시간 장비 모니터링 기능을 탑재할 수 있다.In various embodiments, the server may be equipped with a real-time intelligent image analysis function and a real-time equipment monitoring function.

다양한 실시예에서, 서버는 영상 데이터를 분석함으로써 영역 내 움직임, 영역 내 개체 멈춤, 오디오 신호 있음, 오디오 신호 없음, 배회(순회), 가상선 통과 여부, 영역 내에서 개체(물체)의 사라짐, 영역 내에서 개체(물체)의 나타남(침입), 전체 움직임, 소음 감지, 버려진 개체(물체), 카메라 위치 변경 감지, 연기 검출, 흐려짐 감지, 차량 번호 검출, 화재 검출, 품질 저하 감지, 압축된 이미지 감지 및 얼굴 감지 중 적어도 하나를 포함하는 이벤트를 감지할 수 있으나, 이에 한정되지 않는다.In various embodiments, the server analyzes the image data so as to move within the area, stop the object within the area, have an audio signal, no audio signal, roam (travel), whether or not to pass a virtual line, disappearance of the object (object) within the area, the area Appearance (intrusion) of objects (objects) within, global motion, noise detection, abandoned objects (objects), camera position change detection, smoke detection, blur detection, license plate number detection, fire detection, degradation detection, compressed image detection and an event including at least one of face detection, but is not limited thereto.

또한, 서버는 이벤트를 감지하는 경우, 감지된 이벤트에 대한 안내 정보를 팝업 형태로 출력할 수 있다. 예를 들어, 서버는 영상 데이터를 분석하여 영상 내에서 개체(물체)의 나타남이 감지되는 경우, "미확인 물체 발생! 확인 요망!"과 같은 안내 문구를 출력할 수 있다. 이하, 도 2 내지 16을 참조하여, 서버가 각각의 이벤트를 감지하고, 감지된 이벤트에 대한 안내 정보를 제공하는 구성에 대해 설명하도록 한다.Also, when detecting an event, the server may output guide information about the detected event in the form of a pop-up. For example, when the server analyzes the image data and detects the presence of an object (object) in the image, the server may output a guide phrase such as "Unidentified object occurrence! Confirmation request!" Hereinafter, a configuration in which the server detects each event and provides guide information for the detected event will be described with reference to FIGS. 2 to 16 .

도 2 내지 5는 다양한 실시예에서, 경계 지역 내에 거수자 침입을 감지 및 안내하는 구성을 도시한 도면이다.2 to 5 are diagrams illustrating a configuration for detecting and guiding a beggar intrusion within a boundary area, according to various embodiments.

도 2 내지 5에서는 경계 지역 내에 거수자가 침입하는 경우에만 이벤트를 감지하는 것으로 설명하고 있으나, 이에 한정되지 않고, 영상 데이터 내에 별도의 경계 지역 설정 없이 영상 데이터 전체를 경계 지역으로 하여 거수자가 침입하는지 여부를 감지할 수 있다.In FIGS. 2 to 5, it is described that an event is detected only when a handshaker intrudes into the boundary area, but the present invention is not limited thereto, and whether or not a handshaker invades by using the entire video data as a boundary area without setting a separate boundary area in the video data. can detect

도 2 내지 5를 참조하면, 다양한 실시예에서, 서버는 영상 데이터를 분석하여, 영상 데이터 내에 구비되는 경계 지역 내에 거수자가 침입하는지 여부를 판단할 수 있다. 여기서, 경계 지역은 사용자가 도 1에 도시된 UI를 통해 사전에 설정한 지역일 수 있으나, 이에 한정되지 않는다.2 to 5 , according to various embodiments, the server may analyze the image data to determine whether a handshaker intrudes into a boundary area provided in the image data. Here, the boundary area may be an area previously set by the user through the UI shown in FIG. 1 , but is not limited thereto.

이때, 서버는 영상 데이터를 분석하여 사용자로부터 사전에 설정된 경계 지역 내에 거수자가 침입하는 것이 인식되는 경우, "미확인 물체 발생! 확인 요망!"과 같이 경계 지역 내에 거수자의 침입이 감지되었을 안내하는 안내 정보를 팝업창으로 출력할 수 있다.At this time, when the server analyzes the video data and the user recognizes that a handshaker intrudes within the pre-set boundary area, information indicating that an intrusion of a handshaker has been detected within the boundary area, such as "Unidentified object occurrence! Confirmation required!" can be output as a pop-up window.

다양한 실시예에서, 서버는 도 4에 도시된 바와 같이 팬-틸트-줌(Pan-Tilt-Zoom, PTZ) 카메라를 포함하는 복수의 카메라를 이용하여 서로 동일한 경계 지역을 촬영하고 있는 상황에서 경계 지역 내에 거수자가 침입하는 것이 감지될 경우, PTZ 카메라의 방향을 변경하여 PTZ 카메라가 경계 지역을 더 집중적으로 촬영하도록 하거나, 침입이 감지된 거수자를 촬영하도록 할 수 있다.In various embodiments, as shown in FIG. 4 , the server uses a plurality of cameras including a Pan-Tilt-Zoom (PTZ) camera to capture the same boundary area with each other. When an intrusion is detected inside the PTZ camera, the direction of the PTZ camera can be changed so that the PTZ camera can capture the boundary area more intensively, or take a picture of the beast whose intrusion is detected.

다양한 실시예에서, 서버는 도 5에 도시된 바와 같이 PTZ 카메라를 포함하는 복수의 카메라를 이용하여 서로 다른 영역을 촬영하고 있는 상황에서 경계 지역 내에 거수자가 침입하는 것이 감지될 경우, PTZ 카메라의 방향을 변경하여 PTZ 카메라가 경계 지역을 더 집중적으로 촬영하도록 하거나, 침입이 감지된 거수자를 촬영하도록 할 수 있다.In various embodiments, as shown in FIG. 5 , when the server detects an intrusion of a behemoth within the boundary area in a situation in which different areas are photographed using a plurality of cameras including a PTZ camera, the direction of the PTZ camera can be changed to make the PTZ camera more focused on the perimeter area, or to shoot the beast of a detected intrusion.

다양한 실시예에서, 서버는 경계 지역 내에 거수자의 침입이 감지된 시점의 영상 데이터를 별도로 저장할 수 있다.In various embodiments, the server may separately store image data at the point in time when an intrusion of a beast is detected within the boundary area.

도 6은 다양한 실시예에서, 경계 지역 내에 물체의 사라짐을 감지 및 안내하는 구성을 도시한 도면이다.6 is a diagram illustrating a configuration for detecting and guiding the disappearance of an object within a boundary area, according to various embodiments of the present disclosure;

도 6에서는 경계 지역 내에 물체의 사라짐을 감지하는 것으로 설명하고 있으나, 이에 한정되지 않고, 영상 데이터 내에 별도의 경계 지역 설정 없이 영상 데이터 전체를 경계 지역으로 하여 물체의 사라짐을 감지할 수 있다.Although it has been described in FIG. 6 as sensing the disappearance of an object within the boundary area, it is not limited thereto, and the disappearance of the object may be detected using the entire image data as the boundary area without setting a separate boundary area within the image data.

도 6을 참조하면, 다양한 실시예에서, 서버는 영상 데이터를 분석하여, 경계 지역 내에 물체의 사라짐을 감지할 수 있다. 여기서, 경계 지역은 사용자가 도 1에 도시된 UI를 통해 사전에 설정한 지역일 수 있으나, 이에 한정되지 않는다. 예를 들어, 서버는 T1에서의 영상 데이터와 T1이후의 T2에서의 영상 데이터를 비교하여 경계 지역 내에 물체의 사라짐을 감지할 수 있다.Referring to FIG. 6 , according to various embodiments, the server may analyze the image data to detect the disappearance of the object within the boundary area. Here, the boundary area may be an area previously set by the user through the UI shown in FIG. 1 , but is not limited thereto. For example, the server may detect the disappearance of the object in the boundary area by comparing the image data at T 1 with the image data at T 2 after T 1 .

이후, 서버는 경계 지역 내에 물체의 사라짐이 감지될 경우, "도난 발생"과 같이 물체의 사라짐이 감지되었음을 안내하는 안내 정보를 팝업창으로 출력할 수 있다.Thereafter, when the disappearance of the object is detected in the boundary area, the server may output guide information guiding that the disappearance of the object is detected, such as "theft occurred", in a pop-up window.

다양한 실시예에서, 서버는 경계 지역 내에 물체가 사라짐이 감지된 시점의 영상 데이터를 별도로 저장할 수 있다.According to various embodiments, the server may separately store image data at a point in time when the disappearance of an object within the boundary area is sensed.

도 7은 다양한 실시예에서, 경계 지역 내에 이동 물체의 멈춤을 감지 및 안내하는 구성을 도시한 도면이다.7 is a diagram illustrating a configuration for detecting and guiding a stop of a moving object within a boundary area, according to various embodiments of the present disclosure;

도 7에서는 경계 지역 내에 이동 물체의 멈춤을 감지하는 것으로 설명하고 있으나, 이에 한정되지 않고, 영상 데이터 내에 별도의 경계 지역 설정 없이 영상 데이터 전체를 경계 지역으로 하여 이동 물체의 멈춤을 감지할 수 있다.Although it has been described in FIG. 7 as detecting the stop of the moving object within the boundary area, it is not limited thereto, and the stop of the moving object may be detected by using the entire image data as the boundary area without setting a separate boundary area in the image data.

도 7을 참조하면, 다양한 실시예에서, 서버는 영상 데이터를 분석하여 경계 지역 내에 이동 물체(예: 차량)의 멈춤을 감지할 수 있다. 여기서, 경계 지역은 사용자가 도 1에 도시된 UI를 통해 사전에 설정한 지역일 수 있으나, 이에 한정되지 않는다.Referring to FIG. 7 , according to various embodiments, the server may detect a stop of a moving object (eg, a vehicle) within a boundary area by analyzing image data. Here, the boundary area may be an area previously set by the user through the UI shown in FIG. 1 , but is not limited thereto.

이후, 서버는 경계 지역 내에 이동 물체의 멈춤이 감지될 경우(예: 차량의 주차 및 정차), "미확인 정차 차량 감지, 확인 요망"과 같이 이동 물체의 멈춤이 감지되었음을 안내하는 안내 정보를 팝업창으로 출력할 수 있다.Afterwards, when a stop of a moving object is detected within the boundary area (eg, parking and stopping of a vehicle), the server displays information indicating that the stop of the moving object has been detected, such as “detection of an unidentified stopped vehicle, please confirm” as a pop-up window. can be printed

다양한 실시예에서, 서버는 경계 지역 내에 이동 물체의 멈춤이 감지된 시점에서의 영상 데이터를 별도로 저장할 수 있다.In various embodiments, the server may separately store image data at a point in time when a stop of the moving object is sensed within the boundary area.

도 8은 다양한 실시예에서, 이동 물체가 경계 지역 내에 설정된 경계선을 통과하는 것을 감지 및 안내하는 구성을 도시한 도면이다.8 is a diagram illustrating a configuration for detecting and guiding a moving object passing through a boundary line set in a boundary area, according to various embodiments of the present disclosure;

도 8에서는 이동 물체가 경계 지역 내에 설정된 경계선을 통과하는 것을 감지하는 것으로 설명하고 있으나, 이에 한정되지 않고, 영상 데이터 내에 별도의 경계 지역 설정 없이 영상 데이터 전체를 경계 지역으로 하여 이동 물체가 경계선을 통과하는 것을 감지할 수 있다.In FIG. 8 , it is described as detecting that a moving object passes a boundary line set within the boundary area, but the present invention is not limited thereto, and the moving object passes through the boundary line using the entire image data as the boundary area without setting a separate boundary area in the image data. can sense that

도 8을 참조하면, 서버는 영상 데이터를 분석하여 이동 물체(예: 차량)가 경계 지역 내에 설정된 경계선을 통과하는 것을 감지할 수 있다. 여기서, 경계 지역과 경계선은 도 1에 도시된 UI를 통해 사용자로부터 사전에 설정될 수 있으나, 이에 한정되지 않는다.Referring to FIG. 8 , the server may detect that a moving object (eg, a vehicle) passes through a boundary line set within the boundary area by analyzing the image data. Here, the boundary region and the boundary line may be set in advance by the user through the UI shown in FIG. 1 , but the present invention is not limited thereto.

이후, 서버는 이동 물체가 경계 지역 내에 설정된 경계선을 통과하는 것이 감지될 경우, "동쪽방향 물체 통과"와 같이 이동 물체가 경계선을 어떤 방향으로 통과하였는지 안내하는 안내 정보를 팝업창으로 출력할 수 있다.Thereafter, when the server detects that the moving object passes the boundary line set in the boundary area, guide information guiding in which direction the moving object passed the boundary line, such as “east direction object passage”, may be output in a pop-up window.

다양한 실시예에서, 서버는 이동 물체가 경계 지역 내에 설정된 경계선을 통과하는 것이 감지된 시점에서의 영상 데이터를 별도로 저장할 수 있다.In various embodiments, the server may separately store image data at a point in time when it is sensed that the moving object passes through a boundary line set in the boundary area.

도 9 및 10은 다양한 실시예에서, 경계 지역 내에 배회를 감지 및 안내하는 구성을 도시한 도면이다.9 and 10 are diagrams illustrating configurations for detecting and guiding loitering within a boundary area, according to various embodiments.

도 9 및 10에서는 경계 지역 내에 배회를 감지하는 것으로 설명하고 있으나, 이에 한정되지 않고, 영상 데이터 내에 별도의 경계 지역 설정 없이 영상 데이터 전체를 경계 지역으로 하여 배회를 감지할 수 있다.Although it is described in FIGS. 9 and 10 that loitering within the boundary area is described, the present invention is not limited thereto, and loitering may be detected using the entire image data as the boundary area without setting a separate boundary area in the image data.

도 9 및 10을 참조하면, 서버는 영상 데이터를 분석하여, 경계 지역 내에 배회를 감지할 수 있다. 경계 지역은 사용자가 도 1에 도시된 UI를 통해 사전에 설정한 지역일 수 있으나, 이에 한정되지 않는다.9 and 10 , the server may analyze the image data to detect wandering within the boundary area. The boundary area may be an area previously set by the user through the UI shown in FIG. 1 , but is not limited thereto.

이후, 서버는 경계 지역 내에 배회가 감지될 경우, "배회 감지"와 같이 배회가 감지되었음을 안내하는 안내 정보를 팝업창으로 출력할 수 있다.Thereafter, when loitering is detected within the boundary area, the server may output guide information guiding that loitering has been detected, such as “loitering detection”, in a pop-up window.

다양한 실시예에서, 서버는 도 10에 도시된 바와 같이 PTZ 카메라를 포함하는 복수의 카메라를 이용하여 서로 다른 영역을 촬영하고 있는 상황에서 경계 지역 내에 배회가 감지될 경우, 복수의 카메라 중 PTZ 카메라의 방향을 변경하여 PTZ 카메라가 경계 지역 내에서 배회하는 대상 또는 경계 지역을 더 집중적으로 촬영하도록 할 수 있다.In various embodiments, as shown in FIG. 10 , when the server detects wandering in the boundary area in a situation where different areas are being photographed using a plurality of cameras including a PTZ camera, the PTZ camera among the plurality of cameras is By changing the direction, the PTZ camera can more focused on capturing objects or border areas that are roaming within the border area.

다양한 실시예에서, 서버는 경계 지역 내에 배회가 감지된 시점에서의 영상 데이터를 별도로 저장할 수 있다.According to various embodiments of the present disclosure, the server may separately store image data at a point in time when wandering is detected within the boundary area.

도 11은 다양한 실시예에서, 경계 지역 내에 신규 물체의 출현을 감지 및 안내하는 구성을 도시한 도면이다.11 is a diagram illustrating a configuration for detecting and guiding the appearance of a new object in a boundary area, according to various embodiments of the present disclosure;

도 11에서는 경계 지역 내에 신규 물체의 출현을 감지하는 것으로 설명하고 있으나, 이에 한정되지 않고, 영상 데이터 내에 별도의 경계 지역 설정 없이 영상 데이터 전체를 경계 지역으로 하여 신규 물체의 출현을 감지할 수 있다.Although it is described in FIG. 11 as detecting the appearance of a new object in the boundary area, the present invention is not limited thereto, and the appearance of the new object may be detected using the entire image data as the boundary area without setting a separate boundary area in the image data.

도 11을 참조하면, 다양한 실시예에서, 서버는 영상 데이터를 분석하여 경계 지역 내에 신규 물체의 출현을 감지할 수 있다. 여기서, 경계 지역은 사용자가 도 1에 도시된 UI를 통해 사전에 설정한 지역일 수 있으나, 이에 한정되지 않는다. 예를 들어, 서버는 T1에서의 영상 데이터와 T1이후의 T2에서의 영상 데이터를 비교하여 경계 지역 내에 신규 물체의 출현을 감지할 수 있다.Referring to FIG. 11 , according to various embodiments, the server may detect the appearance of a new object in the boundary area by analyzing image data. Here, the boundary area may be an area previously set by the user through the UI shown in FIG. 1 , but is not limited thereto. For example, the server may detect the appearance of a new object in the boundary area by comparing the image data at T 1 with the image data at T 2 after T 1 .

이후, 서버는 경계 지역 내에 물체의 사라짐이 감지될 경우, "신규 물체의 출현! 확인 요망!"과 같이 신규 물체의 출현이 감지되었음을 안내하는 안내 정보를 팝업창으로 출력할 수 있다.Thereafter, when the disappearance of the object within the boundary area is detected, the server may output guide information guiding that the appearance of the new object is detected, such as "appearance of a new object! Confirmation request!", in a pop-up window.

다양한 실시예에서, 서버는 경계 지역 내에 신규 물체의 출현이 감지된 시점의 영상 데이터를 별도로 저장할 수 있다.In various embodiments, the server may separately store image data at a time point when the appearance of a new object is detected in the boundary area.

도 12 내지 14는 다양한 실시예에서, 경계 지역 내의 움직임을 감지 및 안내하는 구성을 도시한 도면이다.12 to 14 are diagrams illustrating a configuration for detecting and guiding motion within a boundary area, according to various embodiments.

도 12 내지 14에서는 경계 지역 내의 움직임을 감지하는 것으로 설명하고 있으나, 이에 한정되지 않고, 영상 데이터 내에 별도의 경계 지역 설정 없이 영상 데이터 전체를 경계 지역으로 하여 움직임을 감지할 수 있다.12 to 14 , the motion within the boundary area is described, but the present invention is not limited thereto, and motion may be detected using the entire image data as the boundary area without setting a separate boundary area in the image data.

도 12 내지 14를 참조하면, 다양한 실시예에서, 서버는 영상 데이터를 분석하여 경계 지역 내에 대상을 감지할 수 있고, 대상이 감지될 경우, 대상의 움직임을 분석할 수 있다. 여기서, 경계 지역은 사용자가 도 1에 도시된 UI를 통해 사전에 설정한 지역일 수 있으나, 이에 한정되지 않는다. 예를 들어, 서버는 도 12에 도시된 바와 같이 경계 지역 내에 대상(예: 침입자)을 감지할 수 있고, 도 13 및 14에 도시된 바와 같이 경계 지역 내에서 대상이 어떤 움직임을 보이는지 즉, 어떤 동작을 취했는지를 판단할 수 있다.12 to 14 , in various embodiments, the server may detect an object within a boundary area by analyzing image data, and when the object is detected, may analyze the movement of the object. Here, the boundary area may be an area previously set by the user through the UI shown in FIG. 1 , but is not limited thereto. For example, the server may detect a target (eg, an intruder) within the boundary area as shown in FIG. 12 , and as shown in FIGS. 13 and 14 , the server may detect the movement of the target within the boundary area, that is, what You can determine whether an action has been taken.

이후, 서버는 경계 지역 내에 움직임이 감지될 경우, "침입자 감지, 확인 요망"과 같이 대상이 감지되었음을 안내하는 안내 정보를 팝업창으로 출력하거나, "실험실 내 스위치 무단 조작 감지"와 같이 대상이 어떤 동작을 취했는지를 안내하는 안내 정보를 팝업창으로 출력할 수 있다.After that, when motion is detected within the boundary area, the server outputs guide information to guide that the target has been detected, such as “detection of an intruder, please confirm” in a pop-up window, or when a target moves Guidance information guiding whether or not you have taken can be output in a pop-up window.

다양한 실시예에서, 서버는 도 14에 도시된 바와 같이 PTZ 카메라를 포함하는 복수의 카메라를 이용하여 서로 다른 영역을 촬영하고 있는 상황에서 경계 지역 내에 움직임이 감지되는 경우, PTZ 카메라의 방향을 경계 지역 또는 대상의 위치로 변경하여 PTZ 카메라가 경계 지역을 더 집중적으로 촬영하도록 하거나 대상의 움직임을 더 집중적으로 촬영하도록 할 수 있다.In various embodiments, as shown in FIG. 14 , the server determines the direction of the PTZ camera to the boundary area when motion is detected within the boundary area in a situation where different areas are photographed using a plurality of cameras including the PTZ camera. Alternatively, by changing to the location of the target, the PTZ camera may more intensively capture the boundary area or capture the movement of the target more intensively.

다양한 실시예에서 서버는 경계 지역 내에 움직임이 감지된 시점의 영상 데이터를 별도로 저장할 수 있다.In various embodiments, the server may separately store image data at a point in time when a motion is detected within the boundary area.

도 15는 다양한 실시예에서, 경계 지역 내 카메라 영상 품질 손실을 감지 및 안내하는 구성을 도시한 도면이다.15 is a diagram illustrating a configuration for detecting and guiding camera image quality loss in a boundary area, according to various embodiments of the present disclosure;

도 15에서는 경계 지역 내 카메라 영상 품질 손실을 감지하는 것으로 설명하고 있으나, 이에 한정되지 않고, 영상 데이터 내에 별도의 경계 지역 설정 없이 영상 데이터 전체를 경계 지역으로 하여 카메라 영상 품질 손실을 감지할 수 있다.In FIG. 15 , it is described that the camera image quality loss within the boundary area is detected, but the present invention is not limited thereto, and camera image quality loss may be detected by using the entire image data as the boundary area without setting a separate boundary area in the image data.

도 15를 참조하면, 다양한 실시예에서, 서버는 영상 데이터를 분석하여, 경계 지역 내 카메라 영상 품질 손실을 감지할 수 있다. 경계 지역은 사용자가 도 1에 도시된 UI를 통해 사전에 설정한 지역일 수 있으나, 이에 한정되지 않는다.Referring to FIG. 15 , in various embodiments, the server may analyze image data to detect a loss of camera image quality within a boundary area. The boundary area may be an area previously set by the user through the UI shown in FIG. 1 , but is not limited thereto.

이후 서버는 경계 지역 내 카메라 영상 품질 손실이 감지될 경우, "카메라 영상 품질 손실됨, 확인 요망"과 같이 카메라 영상 품질 손실이 감지되었음을 안내하는 안내 정보를 팝업창으로 출력할 수 있다.Thereafter, when the loss of camera image quality within the boundary area is detected, the server may output guide information guiding that the camera image quality loss has been detected, such as "camera image quality lost, please confirm" in a pop-up window.

다양한 실시예에서, 서버는 카메라 영상 품질 손실이 감지된 시점의 영상 데이터를 별도로 저장할 수 있다.In various embodiments, the server may separately store image data at a point in time when camera image quality loss is detected.

도 16은 다양한 실시예에서, 카메라별 네트워크 상태를 실시간으로 체크하는 구성을 도시한 도면이다.16 is a diagram illustrating a configuration for checking a network state for each camera in real time, according to various embodiments of the present disclosure;

도 16을 참조하면, 서버는 카메라별 네트워크 상태를 실시간으로 체크할 수 있다.Referring to FIG. 16 , the server may check the network status for each camera in real time.

다양한 실시예에서, 서버는 카메라 모듈로부터 실시간으로 전송되는 영상 데이터의 화면 상에 해당 영상 데이터에 대한 정보를 표시할 수 있다. 예를 들어, 서버는 영상 데이터의 화면 적어도 일부 영역(예: 우측 하단부)에 영상 데이터의 대역폭, 해상도 및 프레임 레이트 중 적어도 하나를 포함하는 영상 데이터에 대한 정보를 표시할 수 있다.In various embodiments, the server may display information about the corresponding image data on the screen of the image data transmitted in real time from the camera module. For example, the server may display information about the image data including at least one of a bandwidth, a resolution, and a frame rate of the image data in at least a partial area (eg, a lower right part) of the image data.

이를 통해, 사용자는 영상 데이터의 화면을 통해 네트워크 전송 부하 상태를 즉각적으로 파악할 수 있다.Through this, the user can immediately grasp the network transmission load state through the screen of the image data.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains know that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (4)

컴퓨팅 장치에 의해 수행되는 방법에 있어서,
영상 데이터를 수집하는 단계;
상기 수집된 영상 데이터를 분석하여 이벤트 발생을 감지하는 단계; 및
상기 감지된 이벤트에 대한 안내 정보를 출력하는 단계를 포함하는,
실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 방법.
A method performed by a computing device, comprising:
collecting image data;
detecting an event occurrence by analyzing the collected image data; and
Comprising the step of outputting guide information for the detected event,
How to detect and guide event occurrence through real-time video analysis.
제1항에 있어서,
상기 이벤트 발생을 감지하는 단계는,
상기 수집된 영상 데이터를 분석하여, 영역 내 움직임, 영역 내 개체 멈춤, 오디오 신호 있음, 오디오 신호 없음, 배회(순회), 가상선 통과 여부, 영역 내에서 개체(물체)의 사라짐, 영역 내에서 개체(물체)의 나타남(침입), 전체 움직임, 소음 감지, 버려진 개체(물체), 카메라 위치 변경 감지, 연기 검출, 흐려짐 감지, 차량 번호 검출, 화재 검출, 품질 저하 감지, 압축된 이미지 감지 및 얼굴 감지 중 적어도 하나에 대응되는 이벤트를 감지하는 단계를 포함하는,
실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 방법.
The method of claim 1,
The step of detecting the occurrence of the event is
By analyzing the collected image data, movement within the area, object stop within the area, audio signal presence, no audio signal, wandering (traversal), whether or not passing a virtual line, disappearance of an object (object) within the area, object within the area Appearance (intrusion) of (object), full motion, noise detection, abandoned object (object), camera position change detection, smoke detection, blur detection, license plate number detection, fire detection, degradation detection, compressed image detection and face detection Including the step of detecting an event corresponding to at least one of
How to detect and guide event occurrence through real-time video analysis.
제1항에 있어서,
상기 안내 정보를 출력하는 단계는,
상기 감지된 이벤트에 대한 안내 정보를 팝업 형태로 출력하는 단계를 포함하는,
실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 방법.
The method of claim 1,
The step of outputting the guide information includes:
Comprising the step of outputting the guide information about the detected event in the form of a pop-up,
How to detect and guide event occurrence through real-time video analysis.
제1항에 있어서,
상기 이벤트가 감지된 영상 데이터를 수집한 카메라가 상기 감지된 이벤트에 대응하여 기 설정된 동작을 수행하도록 제어하는 단계를 더 포함하는,
실시간 영상 분석을 통한 이벤트 발생 감지 및 안내 방법.
The method of claim 1,
Further comprising the step of controlling a camera that has collected the image data in which the event is detected to perform a preset operation in response to the detected event,
How to detect and guide event occurrence through real-time video analysis.
KR1020200178966A 2020-12-18 2020-12-18 Method for detecting event occurrence through real-time video analysis and providing guide information KR20220088183A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200178966A KR20220088183A (en) 2020-12-18 2020-12-18 Method for detecting event occurrence through real-time video analysis and providing guide information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200178966A KR20220088183A (en) 2020-12-18 2020-12-18 Method for detecting event occurrence through real-time video analysis and providing guide information

Publications (1)

Publication Number Publication Date
KR20220088183A true KR20220088183A (en) 2022-06-27

Family

ID=82247292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200178966A KR20220088183A (en) 2020-12-18 2020-12-18 Method for detecting event occurrence through real-time video analysis and providing guide information

Country Status (1)

Country Link
KR (1) KR20220088183A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008808A1 (en) 2021-07-26 2023-02-02 주식회사 엘지화학 Thermoplastic resin composition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008808A1 (en) 2021-07-26 2023-02-02 주식회사 엘지화학 Thermoplastic resin composition

Similar Documents

Publication Publication Date Title
KR101425505B1 (en) The monitering method of Intelligent surveilance system by using object recognition technology
EP2966852B1 (en) Video monitoring method, device and system
CN113256924A (en) Monitoring system, monitoring method and monitoring device for rail train
KR101036947B1 (en) The automatic guard system to prevent the crime and accident using computer video image analysis technology
KR101467352B1 (en) location based integrated control system
CN110555964A (en) Multi-data fusion key area early warning system and method
CN104010161A (en) System and method to create evidence of an incident in video surveillance system
EP2812889B1 (en) Method and system for monitoring portal to detect entry and exit
KR20220088183A (en) Method for detecting event occurrence through real-time video analysis and providing guide information
KR102046591B1 (en) Image Monitoring System and Method for Monitoring Image
US20160198130A1 (en) Surveillance method and surveillance system
KR101046819B1 (en) Method and system for watching an intrusion by software fence
KR20190026625A (en) Image displaying method, Computer program and Recording medium storing computer program for the same
EP3836538A1 (en) Displaying a video stream
KR101666812B1 (en) Cctv monitoring system for detecting event occurrence using virtual line and method thereof
KR102330346B1 (en) Cctv system using sensor of motion and sensitivity and for the same control method
JP2008219452A (en) Camera surveillance device
KR100973752B1 (en) Security system capable of storing still image
KR102313283B1 (en) A artificial intelligence multipurpose emergency bell system with video analysis function
KR101069766B1 (en) The enforcement system of illegal parking vehicle connected with closed circuit television for criminal prevention and method of detecting the illegal parking vehicle using the same
KR100307658B1 (en) A CCTV System
KR20150049595A (en) Video camera security system alarming emergency situation
WO2017099262A1 (en) Method for managing cctv system having image screen comparison units
KR101498494B1 (en) Multi-finction monitoring camera controlling system
KR101934534B1 (en) A internet protocol surveillance camera capable of determining the operating state