KR20190051175A - Intelleigent cooperating server, system and method of analyzing based on cooperation thereof - Google Patents

Intelleigent cooperating server, system and method of analyzing based on cooperation thereof Download PDF

Info

Publication number
KR20190051175A
KR20190051175A KR1020170146537A KR20170146537A KR20190051175A KR 20190051175 A KR20190051175 A KR 20190051175A KR 1020170146537 A KR1020170146537 A KR 1020170146537A KR 20170146537 A KR20170146537 A KR 20170146537A KR 20190051175 A KR20190051175 A KR 20190051175A
Authority
KR
South Korea
Prior art keywords
information
image analysis
server
camera
image
Prior art date
Application number
KR1020170146537A
Other languages
Korean (ko)
Other versions
KR102008503B1 (en
Inventor
김동칠
박성주
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020170146537A priority Critical patent/KR102008503B1/en
Priority to PCT/KR2017/012832 priority patent/WO2019088335A1/en
Publication of KR20190051175A publication Critical patent/KR20190051175A/en
Application granted granted Critical
Publication of KR102008503B1 publication Critical patent/KR102008503B1/en

Links

Images

Classifications

    • H04N5/23206
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

According to the present invention, an intelligent collaboration server comprises: a communication module which transmits/receives data to/from an integrated control server and an image analysis server; a memory which stores a program for analysis based on collaboration; and a processor which executes the program stored in the memory. The processor is as follows: according to execution of the program, receiving analyzed first image analysis information captured by one or more edge cameras and detailed camera information from the integrated control server; when receiving second image analysis information, in which images captured by the edge camera is transmitted from the integrated control server and analyzed, from the image analysis server, analyzing one or more between the first and second image analysis information; and based on the analysis result, generating control information for controlling the one or more edge cameras through the detailed camera information. Accordingly, the present invention enables collaboration between edge cameras and the image analysis server.

Description

지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법{INTELLEIGENT COOPERATING SERVER, SYSTEM AND METHOD OF ANALYZING BASED ON COOPERATION THEREOF}TECHNICAL FIELD [0001] The present invention relates to an intelligent collaboration server, an intelligent collaboration server, a system, and a collaborative analysis method based on the intelligent collaboration server,

본 발명은 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법에 관한 것이다.The present invention relates to an intelligent collaboration server, a system, and a collaboration-based analysis method thereof.

도 1은 종래 기술에 따른 지능형 영상 분석 시스템을 설명하기 위한 도면이다.1 is a view for explaining an intelligent image analysis system according to the prior art.

종래 기술에 따른 지능형 영상 분석 시스템은 하나 이상의 엣지 카메라(10), 통합 관제 서버(20) 및 영상 분석 서버(30)를 포함한다.The intelligent image analysis system according to the prior art includes one or more edge cameras 10, an integrated control server 20 and an image analysis server 30. [

이러한 지능형 영상 분석 시스템은 분석 주체에 따라 서버 기반의 영상 분석과 엣지 카메라 기반의 영상 분석을 수행한다.This intelligent image analysis system performs server based image analysis and edge camera based image analysis according to the analysis subject.

이때, 서버 기반의 영상 분석 방식은 엣지 카메라(10)에 의해 촬영된 영상을 영상 분석 서버(30)에서 수신하여 영상 분석을 수행하는 집중형 방식을 의미한다. 이러한 서버 기반의 영상 분석 방식은 알고리즘 개선이 쉽고 분석 정확도가 높지만, 과도한 서버 구축비용이 발생하고, 네트워크 및 플랫폼 등 주변 인프라 영향을 많이 받는다는 문제가 있다. 또한, 서버 자체에 오류가 발생하게 되면 전체 시스템의 영상 분석이 불가능하다는 문제가 있다.At this time, the server-based image analysis method means a centralized method in which an image captured by the edge camera 10 is received by the image analysis server 30 and image analysis is performed. Such a server-based image analysis method is easy to improve the algorithm and has high accuracy of analysis, but there is a problem that excessive server construction cost is incurred, and it is heavily influenced by the surrounding infrastructure such as network and platform. In addition, if an error occurs in the server itself, there is a problem that the image analysis of the entire system is impossible.

엣지 카메라 기반의 영상 분석 방식은 엣지 카메라(10)에 영상 분석 알고리즘을 임베디드화시켜 단말 단에서 영상 분석을 수행하는 방식을 의미한다. 이러한 영상 분석 방식은 서버가 동작하지 않더라도 영상 분석을 수행할 수 있다는 장점이 있으나, 서버 방식의 영상 분석 방식보다 영성 분석의 범위 및 성능이 제한적이고, 분석 알고리즘의 신속한 개선이 어렵다는 문제가 있다.The image analysis method based on an edge camera means a method of performing image analysis at the terminal end by embedding an image analysis algorithm in the edge camera 10. This image analysis method has an advantage that image analysis can be performed even when the server is not operated, but the range and performance of spirituality analysis are limited rather than the server-based image analysis method, and it is difficult to rapidly improve the analysis algorithm.

따라서, 서버 기반의 영상 분석 방식과 엣지 카메라 기반의 영상 분석 방식을 모두 이용하여 상호 간의 단점을 보완할 수 있는 기술이 필요한 실정이다.Therefore, there is a need for techniques that can complement each other's disadvantages by using both the server-based image analysis method and the edge camera-based image analysis method.

본 발명의 실시예는 서버 기반의 영상 분석 방식과 엣지 카메라 기반의 영상 분석 방식을 조합한 하이브리드 방식을 통해, 영상 분석의 정확도와 실시간성을 요구받는 환경에서 다중 처리 방식의 영상 분석을 통한 영상 분석의 신뢰성 확보 및 상황 정보에 적응적으로 협업 연동 및 제어가 가능한 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법을 제공한다.The embodiment of the present invention is based on the hybrid method in which a server-based image analysis method and an edge camera-based image analysis method are combined to perform image analysis through image analysis of a multi-processing method in an environment requiring accuracy and real- The present invention provides an intelligent collaborative server and system capable of ensuring the reliability of the information and adaptively cooperating with and controlling the cooperation of the situation information, and a collaboration-based analysis method thereof.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It should be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 지능형 협업 서버는 통합 관제 서버 및 영상 분석 서버와 데이터를 송수신하는 통신모듈, 협업 기반의 분석을 위한 프로그램이 저장된 메모리 및According to a first aspect of the present invention, there is provided an intelligent collaboration server comprising: a communication module for transmitting / receiving data to / from an integrated control server and an image analysis server; a memory for storing a program for analyzing collaboration-

상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 상기 통합 관제 서버로부터 하나 이상의 엣지 카메라에 의해 촬영되어 분석된 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하고, 상기 통합 관제 서버로부터 상기 엣지 카메라에 의해 촬영된 영상을 전달받아 분석된 제 2 영상 분석 정보를 상기 영상 분석 서버로부터 수신하면, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성한다.And a processor for executing the program stored in the memory. At this time, as the program is executed, the processor receives the first image analysis information and the camera detail information captured and analyzed by the one or more edge cameras from the integrated control server through the communication module, Analyzing at least one of the first and second image analysis information when the second image analysis information is received from the image analysis server and receiving the analyzed image from the edge camera, And generates control information for controlling the at least one edge camera through the camera detailed information.

상기 프로세서는 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석할 수 있다.The processor may analyze one or more of the first and second image analysis information based on an event-based analysis technique, a learning-based analysis technique, and a rule-based analysis technique.

상기 프로세서는 상기 이벤트 기반 분석 기법에 따라, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하여 상황 분석 정보를 생성하고, 상기 상황 분석 정보가 미리 저장된 이벤트 리스트에 포함된 이벤트와 매칭되는 경우, 상기 이벤트에 대응하는 제어 정보를 생성할 수 있다.Wherein the processor analyzes the at least one of the first and second image analysis information to generate situation analysis information according to the event-based analysis technique, and when the situation analysis information is matched with an event included in a previously stored event list , And generate control information corresponding to the event.

상기 프로세서는 상기 학습 분석 기법에 따라, 미리 학습된 알고리즘에 기초하여 상기 제 1 및 제 2 영상 분석 정보를 분석하고, 분석한 결과에 기초하여 상기 엣지 카메라의 PTZ 설정값을 제어하기 위한 상기 제어 정보를 생성하되, 상기 미리 학습된 알고리즘은 미리 준비된 영상 분석 정보에 포함된 객체의 좌표 정보, 속도 및 바운딩 박스 사이즈 정보를 입력으로 설정하고, 이에 대응하는 엣지 카메라를 제어하기 위한 제어 정보를 출력으로 설졍하여 훈련될 수 있다.Wherein the processor analyzes the first and second image analysis information based on a previously learned algorithm according to the learning analysis technique and controls the PTZ setting value of the edge camera based on the analyzed result Wherein the previously learned algorithm sets coordinate information, speed, and bounding box size information of an object included in image analysis information prepared in advance as input, and outputs control information for controlling the corresponding edge camera as an output Can be trained.

상기 프로세서는 상기 규칙 기반 분석 기법에 따라, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한 결과, 미리 저장된 규칙에 포함된 하나 이상의 규칙에 해당하는 것으로 판단한 경우, 상기 규칙에 대응하는 상기 제어 정보를 생성할 수 있다.Wherein the processor analyzes the at least one of the first image analysis information and the second image analysis information according to the rule-based analysis technique to determine that the rule matches at least one rule included in the rule stored in advance, Control information can be generated.

상기 프로세서는 상기 제 1 및 제 2 영상 분석 정보에 포함된 객체를 탐지하기 위한 바운딩 박스가 기 설정된 임계 사이즈 이하이거나 또는 이상인 경우, 상기 규칙에 따라 상기 엣지 카메라를 줌 인 또는 줌 아웃 하기 위한 제어 정보를 생성할 수 있다.The processor may further include control information for zooming in or zooming out the edge camera according to the rule when the bounding box for detecting the object included in the first and second image analysis information is less than or equal to a predetermined threshold size, Lt; / RTI >

상기 프로세서는 상기 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 따라 상기 제 1 및 제 2 영상 분석 정보를 각각 분석한 결과 중 가장 높은 신뢰도를 가지는 분석 기법에 따른 결과값에 기초하여 상기 제어 정보를 생성할 수 있다.Wherein the processor analyzes the first and second image analysis information according to a result of analyzing the first and second image analysis information having the highest reliability according to the event-based analysis technique, the learning-based analysis technique, and the rule- Control information can be generated.

상기 프로세서는 상기 제어 정보는 카메라 ID, 카메라 PTZ 설정 정보 및 프레임 재분석 요청 중 하나 이상을 포함하는 메타데이터 형태로 생성되어 상기 엣지 카메라 및 상기 영상 분석 서버 중 하나 이상으로 전달될 수 있다.The processor may generate the control information in the form of metadata including at least one of a camera ID, a camera PTZ setting information, and a frame reanalysis request, and may be transmitted to at least one of the edge camera and the image analysis server.

또한, 본 발명의 제 2 측면에 따른 지능형 협업 시스템은 영상을 촬영하고, 촬영된 영상을 분석한 제 1 영상 분석 정보를 생성하는 하나 이상의 엣지 카메라,According to a second aspect of the present invention, there is provided an intelligent collaboration system including at least one edge camera for capturing an image and generating first image analysis information for analyzing the captured image,

상기 엣지 카메라로부터 상기 영상, 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하는 통합 관제 서버, 상기 통합 관제 서버로부터 상기 영상을 전달받아 상기 영상을 분석한 제 2 영상 분석 정보를 생성하는 영상 분석 서버 및 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 지능형 협업 서버를 포함한다.An image analysis server for receiving the image from the edge camera and receiving the image, the first image analysis information and the camera detail information, the image analysis server receiving the image from the integrated control server and generating second image analysis information obtained by analyzing the image, And an intelligent collaboration server for analyzing at least one of the first and second image analysis information and generating control information for controlling the at least one edge camera through the camera detail information based on the analysis result.

또한, 본 발명의 제 3 측면에 따른 지능형 협업 서버에서의 협업 기반 분석 방법은 하나 이상의 엣지 카메라에 의해 분석된 제 1 영상 분석 정보 및 영상 분석 서버에 의해 분석된 제 2 영상 분석 정보 중 하나 이상을 수신하는 단계; 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하는 단계 및 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 단계를 포함한다. 이때, 상기 엣지 카메라는 상기 제 1 영상 분석 정보와 함께 촬영된 영상 및 자신의 카메라 세부 정보를 통합 관제 서버로 전송하고, 상기 영상 분석 서버는 상기 통합 관제 서버로부터 상기 촬영된 영상을 수신함에 따라 상기 제 2 영상 분석 정보를 생성한다.A third aspect of the present invention is a method for analyzing a collaboration based on an intelligent collaboration server, the method comprising: analyzing at least one of first image analysis information analyzed by one or more edge cameras and second image analysis information analyzed by an image analysis server Receiving; Analyzing at least one of the first and second image analysis information based on an event-based analysis technique, a learning-based analysis technique, and a rule-based analysis technique, and analyzing the at least one edge And generating control information for controlling the camera. At this time, the edge camera transmits the captured image together with the first image analysis information and its own camera detailed information to the integrated control server, and the image analysis server receives the captured image from the integrated control server, And generates second image analysis information.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 엣지 카메라와 영상 분석 서버 간의 협업 연동이 가능하게끔 할 수 있다.According to any one of the above-described objects of the present invention, collaboration between an edge camera and an image analysis server can be performed.

국방 분야, 보안 분야와 같이 영상 분석의 정확도와 실시간성을 요구받는 환경에서 영상 분석에 대한 신뢰성 확보가 가능하고, 다양한 환경에 적응적으로 대응이 가능하다는 장점이 있다.It is possible to secure the reliability of the image analysis in an environment requiring accuracy and real time of image analysis such as defense field and security field, and it is possible to adapt to various environments adaptively.

도 1은 종래 기술에 따른 지능형 영상 분석 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 지능형 협업 시스템을 개략적으로 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 지능형 협업 시스템의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 지능형 협업 서버의 블록도이다.
도 5는 본 발명의 일 실시예에 따른 협업 기반 분석 방법의 순서도이다.
1 is a view for explaining an intelligent image analysis system according to the prior art.
2 is a schematic diagram for explaining an intelligent collaboration system according to an embodiment of the present invention.
3 is a block diagram of an intelligent collaboration system in accordance with an embodiment of the present invention.
4 is a block diagram of an intelligent collaboration server according to an embodiment of the present invention.
5 is a flowchart of a collaboration-based analysis method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Whenever a component is referred to as " including " an element throughout the specification, it is to be understood that the element may include other elements, not the exclusion of any other element, unless the context clearly dictates otherwise.

도 2는 본 발명의 일 실시예에 따른 지능형 협업 시스템(1)을 개략적으로 설명하기 위한 도면이다. 도 3은 본 발명의 일 실시예에 따른 지능형 협업 시스템(1)의 블록도이다. 도 4는 본 발명의 일 실시예에 따른 지능형 협업 서버(100)의 블록도이다.2 is a schematic diagram for explaining an intelligent collaboration system 1 according to an embodiment of the present invention. 3 is a block diagram of an intelligent collaboration system 1 in accordance with an embodiment of the present invention. 4 is a block diagram of an intelligent collaboration server 100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 지능형 협업 시스템(1)은 지능형 협업 서버(100), 통합 관제 서버(200), 통합 관제 뷰어(210), 영상 분석 서버(300) 및 하나 이상의 엣지 카메라(400)를 포함한다. 한편, 각 서버들은 REST/JSON 기반으로 연동될 수 있다.The intelligent collaboration system 1 according to an exemplary embodiment of the present invention includes an intelligent collaboration server 100, an integrated control server 200, an integrated control viewer 210, an image analysis server 300 and one or more edge cameras 400, . On the other hand, each server can be linked based on REST / JSON.

엣지 카메라(400)는 하나 이상이 구비될 수 있으며 영상을 촬영한다. 그리고 엣지 카메라(400)는 영상 분석 알고리즘이 임베디드화되어 있어 자신이 촬영한 영상을 분석하여 제 1 영상 분석 정보를 생성한다.One or more edge cameras 400 may be provided and take images. The edge camera 400 is embedded with an image analysis algorithm, and analyzes the photographed image to generate first image analysis information.

엣지 카메라(400)는 촬영된 영상, 이를 분석한 제 1 영상 분석 정보 및 자신의 카메라 세부 정보를 통합 관제 서버(200)로 전송한다.The edge camera 400 transmits the photographed image, the analyzed first image analysis information, and its own camera detailed information to the integrated control server 200.

이때, 제 1 영상 분석 정보는 예를 들어 카메라 ID, 프레임 번호, 이상 징후 종류, 검출 객체의 X, Y 좌표, 검출 객체 영역의 넓이 및 높이 정보를 포함할 수 있다.The first image analysis information may include, for example, a camera ID, a frame number, a type of anomaly symptom, X and Y coordinates of the detected object, and area and height information of the detected object area.

또한, 카메라 세부 정보는 카메라 ID, 카메라의 위치, 카메라 PTZ(Pan, Tilt, Zoon) 정보, 카메라의 종류를 포함할 수 있다.In addition, the camera detailed information may include a camera ID, a position of a camera, information on a camera PTZ (Pan, Tilt, Zoon), and a type of a camera.

통합 관제 서버(200)는 통합 관제 뷰어를 통해 엣지 카메라(400)에 의해 촬영된 영상을 출력하고, 제 1 영상 분석 정보나 후술하는 제 2 영상 분석 정보를 저장 및 관리한다.The integrated control server 200 outputs an image photographed by the edge camera 400 through the integrated control viewer and stores and manages the first image analysis information and the second image analysis information to be described later.

이를 위해 통합 관제 서버(200)는 엣지 카메라(400)로부터 촬영된 영상 및 제 1 영상 분석 정보 및 엣지 카메라(400) 각각의 카메라 세부 정보를 수신하고, 제 1 영상 분석 정보 및 카메라 세부 정보를 VMS(Video Mansgement System) 메타데이터로 생성한다. To this end, the integrated control server 200 receives the first image analysis information and the camera detail information of each of the edge cameras 400 from the edge camera 400, and outputs the first image analysis information and the camera detail information to the VMS (Video Mansgement System) metadata.

영상 분석 서버(300)는 통합 관제 서버(200)로부터 상기 영상과 VMS 메타데이터를 전달받고, VMS 메타데이터에 포함된 카메라 세부 정보에 기초하여 상기 영상을 분석한 제 2 영상 분석 정보를 생성한다.The image analysis server 300 receives the image and the VMS metadata from the integrated control server 200 and generates second image analysis information by analyzing the image based on the camera detailed information included in the VMS metadata.

그리고 제 2 영상 분석 정보를 통합 관제 서버(200)와 지능형 협업 서버(100)로 전송한다.And transmits the second image analysis information to the integrated control server 200 and the intelligent collaboration server 100.

이때, 제 2 영상 분석 정보는 예를 들어 카메라 ID, 프레임 번호, 이상 징후 종류, 이상 징후 관심 영역, 날씨 종류, 검출 객체의 수, 객체 ID, 객체 종류, 검출 객체의 X, Y 좌표, 검출 객체 영역의 넓이 및 높이 정보, 검출 객체의 비율, 색상, 모양, 이동 속도 등의 정보를 포함할 수 있다.At this time, the second image analysis information includes, for example, a camera ID, a frame number, an abnormal symptom type, an abnormal symptom region, a weather type, the number of detected objects, an object ID, The area width and height information, the ratio of the detected object, the color, the shape, and the moving speed.

참고로, 엣지 카메라(400)에서 분석한 제 1 영상 분석 정보는 영상 분석 서버(300)를 통해 분석한 제 2 영상 분석 정보보다 저성능의 분석 정보가 생성되는 것나 반드시 이에 한정되는 것은 아니다.For reference, the first image analysis information analyzed by the edge camera 400 generates analysis information having lower performance than the second image analysis information analyzed through the image analysis server 300, but is not limited thereto.

지능형 협업 서버(100)는 통합 관제 서버(200)로부터 수신한 VMS 메타데이터에 포함된 제 1 영상 분석 정보와, 영상 분석 서버(300)로부터 수신한 제 2 영상 분석 정보 중 하나 이상을 분석하고, 분석한 결과에 기초하여 협업 연동 정보를 생성한다.The intelligent collaboration server 100 analyzes at least one of the first image analysis information included in the VMS metadata received from the integrated control server 200 and the second image analysis information received from the image analysis server 300, And generates collaborative interworking information based on the result of the analysis.

이때, 협업 연동 정보는 상기 분석 결과에 기초하여 카메라 세부정보를 통해 하나 이상의 엣지 카메라(400)를 제어하기 위한 제어 정보를 포함한다. 예를 들어, 제어 정보는 카메라 ID, 카메라 PTZ 설정 정보 및 프레임 재분석 요청 중 하나 이상을 포함할 수 있으며, 이러한 제어 정보는 메타데이터 형태로 생성되어 엣지 카메라(400) 및 영상 분석 서버(300) 중 하나 이상으로 전달될 수 있다.In this case, the cooperative linking information includes control information for controlling the at least one edge camera 400 through the camera detailed information based on the analysis result. For example, the control information may include at least one of a camera ID, a camera PTZ setting information, and a frame reanalysis request, and the control information may be generated in a metadata form and transmitted to the edge camera 400 and the image analysis server 300 More than one can be delivered.

이하에서는 도 4를 참조하여 본 발명의 일 실시예에 따른 지능형 협업 서버(100)에 대해 보다 구체적으로 설명하도록 한다.Hereinafter, the intelligent collaboration server 100 according to an embodiment of the present invention will be described in more detail with reference to FIG.

지능형 협업 서버(100)는 통신모듈(110), 메모리(120) 및 프로세서(130)를 포함한다. 한편, 본 발명의 일 실시예에서 통합 관제 서버(200) 및 영상 분석 서버(300) 역시 지능형 협업 서버(100)와 마찬가지로 통신모듈, 메모리 및 프로세서로 구현될 수 있음은 물론이다.The intelligent collaboration server 100 includes a communication module 110, a memory 120, and a processor 130. Meanwhile, the integrated management server 200 and the image analysis server 300 may be implemented as a communication module, a memory, and a processor in the same manner as the intelligent collaboration server 100 according to an exemplary embodiment of the present invention.

통신모듈(110)은 통합 관제 서버(200) 및 영상 분석 서버(300)와 데이터를 송수신한다. 여기에서, 통신모듈(110)은 유선 통신모듈 및 무선 통신모듈을 모두 포함할 수 있다. 유선 통신모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신모듈은 상술한 UNB, WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다.The communication module 110 transmits and receives data to and from the integrated control server 200 and the image analysis server 300. Here, the communication module 110 may include both a wired communication module and a wireless communication module. The wired communication module may be implemented by a power line communication device, a telephone line communication device, a cable home (MoCA), an Ethernet, an IEEE1294, an integrated wired home network, and an RS-485 control device. In addition, the wireless communication module can be implemented by the UNB, WLAN, Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60 GHz WPAN, Binary-CDMA, wireless USB technology and wireless HDMI technology.

메모리(120)에는 협업 기반의 분석을 위한 프로그램이 저장된다. 여기에서, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. In the memory 120, a program for analysis based on collaboration is stored. Herein, the memory 120 is collectively referred to as a nonvolatile storage device and a volatile storage device which keep the stored information even when power is not supplied.

예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, the memory 120 may be a compact flash (CF) card, a secure digital (SD) card, a memory stick, a solid-state drive (SSD) A magnetic computer storage device such as a NAND flash memory, a hard disk drive (HDD) and the like, and an optical disc drive such as a CD-ROM, a DVD-ROM, etc. .

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킨다. The processor 130 executes the program stored in the memory 120. [

구체적으로 프로세서(130)는 통신모듈(110)을 통해 통합 관제 서버(200)로부터 하나 이상의 엣지 카메라(400)에 의해 촬영되어 분석된 제 1 영상 분석 정보 및 카메라 세부 정보를 VMS 메타데이터 형태로 수신한다.Specifically, the processor 130 receives the first image analysis information and the camera detail information captured and analyzed by the at least one edge camera 400 from the integrated control server 200 through the communication module 110 in the form of VMS metadata do.

그리고 통합 관제 서버(200)로부터 엣지 카메라(400)에 의해 촬영된 영상을 전달받아 분석된 제 2 영상 분석 정보를 영상 분석 서버(300)로부터 수신한다.And receives the image photographed by the edge camera 400 from the integrated control server 200 and receives the analyzed second image analysis information from the image analysis server 300.

또한, 프로세서(130)는 관리자에 의해 직접 입력되는 협업 제어 정보를 획득하여 상기 수신한 정보와 함께 또는 이와 별개로 협업 연동 정보를 생성할 수 있다.In addition, the processor 130 may acquire collaboration control information directly input by an administrator and generate collaboration interworking information together with or separately from the received information.

다음으로, 프로세서(130)는 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한다.Next, the processor 130 analyzes one or more of the first and second image analysis information based on the event-based analysis technique, the learning-based analysis technique, and the rule-based analysis technique.

이때, 프로세서(130)는 이벤트 분석 기법에 따라, 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하여 상황 분석 정보를 생성할 수 있다. 그리고 상황 분석 정보가 미리 저장된 이벤트 리스트에 포함된 이벤트와 매칭되는 경우, 이벤트에 대응하는 제어 정보를 생성할 수 있다.At this time, the processor 130 may analyze the at least one of the first and second image analysis information according to the event analysis technique to generate the situation analysis information. When the situation analysis information is matched with the event included in the event list stored in advance, control information corresponding to the event can be generated.

예를 들어, 프로세서(130)는 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한 결과 객체가 ‘배회’하는 것으로 판단되는 것을 상황 분석 정보 생성하고, 이벤트 리스트에 ‘배회’에 대응하는 이벤트가 존재하는 경우, 프로세서(130)는 배회하는 객체를 추적하기 위한 객체 추적 정보를 통합 관제 시스템을 통해 엣지 카메라(400)로 전송하고, 엣지 카메라(400)는 실시간으로 객체를 추적할 수 있다.For example, the processor 130 may generate the situation analysis information indicating that the object is determined to be 'roaming' as a result of analyzing at least one of the first and second image analysis information, If there is an event, the processor 130 transmits object tracking information for tracking the roaming object to the edge camera 400 through the integrated control system, and the edge camera 400 can track the object in real time .

또한, 프로세서(130)는 학습 분석 기법에 따라, 미리 학습된 알고리즘에 기초하여 제 1 및 제 2 영상 분석 정보를 분석하고, 분석한 결과에 기초하여 엣지 카메라(400)의 PTZ 설정값을 제어하기 위한 제어 정보를 생성할 수 있다.The processor 130 analyzes the first and second image analysis information based on the previously learned algorithm according to the learning analysis technique and controls the PTZ setting values of the edge camera 400 based on the analyzed results Lt; / RTI >

이때, 미리 학습된 알고리즘은 미리 준비된 영상 분석 정보에 포함된 객체의 좌표 정보, 속도 및 바운딩 박스 사이즈 정보를 입력으로 설정하고, 이에 대응하는 엣지 카메라(400)를 제어하기 위한 제어 정보를 출력으로 설정하여 학습시킬 수 있다.At this time, the previously learned algorithm sets the coordinate information, the velocity, and the bounding box size information of the object included in the image analysis information prepared in advance as input, and sets the control information for controlling the corresponding edge camera 400 as output .

또한, 프로세서(130)는 규칙 기반 분석 기법에 따라, 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한 결과, 미리 저장된 규칙에 포함된 하나 이상의 규칙에 해당하는 것으로 판단한 경우, 상기 규칙에 대응하는 제어 정보를 생성할 수 있다.In addition, when the processor 130 determines that one or more rules included in the rule stored in advance as a result of analyzing one or more of the first and second image analysis information according to the rule-based analysis technique, It is possible to generate control information.

예를 들어, 프로세서(130)는 제 1 및 제 2 영상 분석 정보에 포함된 객체를 탐지하기 위한 바운딩 박스가 기 설정된 임계 사이즈 이하인 경우 즉, 너무 원거리에서 객체가 감지된 것으로 판단한 경우, 상기 규칙에 따라 엣지 카메라(400)를 줌 인하기 위한 제어 정보를 생성할 수 있다.For example, when the bounding box for detecting an object included in the first and second image analysis information is equal to or smaller than a preset threshold size, that is, when it is determined that an object is detected at a long distance, The control information for zooming in the edge camera 400 can be generated.

마찬가지로 바운딩 박스가 임계 사이즈 이상인 경우, 즉, 너무 근거리에서 객체가 감지된 것으로 판단한 경우, 상기 규칙에 따라 엣지 카메라(400)를 줌 아웃하기 위한 제어 정보를 생성할 수 있다.Similarly, when the bounding box is larger than the critical size, that is, when it is determined that an object is detected at a close range, control information for zooming out the edge camera 400 may be generated according to the rule.

한편, 프로세서(130)는 상기 이벤트 분석 기법, 학습 분석 기법 및 규칙 기반 분석 기법에 따라 제 1 및 제 2 영상 분석 정보를 각각 분석한 결과, 서로 상충하는 결과가 존재하거나 서로 상이한 결과가 존재하는 경우, 상기 분석 기법 중 확률 기반의 가장 높은 신뢰도를 가지는 분석 기법에 따른 결과값에 기초하여 제어 정보를 생성할 수 있다.Meanwhile, when the processor 130 analyzes the first and second image analysis information according to the event analysis technique, the learning analysis technique, and the rule-based analysis technique, if there are conflicting results or there are different results , And the control information can be generated based on the result of the probability-based analysis technique having the highest reliability among the above analysis techniques.

이와 같이 어느 하나의 분석 기법에 따른 결과값이 선택되고 이에 따른 제어 정보가 생성되면, 프로세서(130)는 상기 제어 정보와 함께 엣지 카메라(400) 및 영상 분석 서버(300) 중 하나 이상과 협업 연동하기 위한 협업 연동 정보를 메타데이터 형태로 생성하여 영상 분석 서버(300) 및 통합 관제 서버(200)로 전송한다. 이때 협업 연동 정보에는 카메라 제어 정보로 카메라 ID 및 PTZ 설정 정보를 포함할 수 있으며, 그밖에 특정 프레임의 재분석 요청 정보를 포함할 수 있다.When the result is selected according to one of the analysis techniques and control information is generated according to the selected analysis method, the processor 130 cooperates with at least one of the edge camera 400 and the image analysis server 300 together with the control information And transmits the generated collaboration information to the image analysis server 300 and the integrated control server 200. [ At this time, the collaboration interworking information may include camera ID and PTZ setting information as camera control information, and may include re-analysis request information of a specific frame.

협업 연동 정보를 영상 분석 서버(300) 및 통합 관제 서버(200)로 전송한 이후 프로세서(130)는 통신모듈(110)을 통해 각 서버로부터 피드백 정보를 수신할 수 있다. After transmitting the collaboration interworking information to the image analysis server 300 and the integrated control server 200, the processor 130 may receive feedback information from each server through the communication module 110. [

이후, 통합 관제 서버(200)나 영상 분석 서버(300)로부터 새로운 제 1 및 제 2 영상 분석 정보를 수신하게 되면 상술한 과정을 반복하여 수행하며, 별도의 데이터를 수신하지 않는 경우 프로세서(130)는 지능형 협업 서버(100)를 비활성화 상태로 유지되도록 한다.When the first and second image analysis information are received from the integrated control server 200 or the image analysis server 300, the above process is repeatedly performed. If the first and second image analysis information are not received, Thereby keeping the intelligent collaboration server 100 in an inactive state.

참고로, 본 발명의 실시예에 따른 도 3에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.3 may be implemented in hardware such as software or an FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and may perform predetermined roles can do.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to reside on an addressable storage medium and configured to play one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, by way of example, an element may comprise components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, Routines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.The components and functions provided within those components may be combined into a smaller number of components or further separated into additional components.

이하에서는 도 5를 참조하여 본 발명의 일 실시예에 따른 지능형 협업 서버(100)에서의 협업 기반 분석 방법에 대하여 설명하도록 한다.Hereinafter, a method of analyzing a collaboration based on the intelligent collaboration server 100 according to an embodiment of the present invention will be described with reference to FIG.

도 5는 본 발명의 일 실시예에 따른 협업 기반 분석 방법의 순서도이다.5 is a flowchart of a collaboration-based analysis method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 협업 기반 분석 방법은 먼저, 엣지 카메라(400)에서 영상이 촬영되고(S101), 촬영된 영상에 기초하여 제 1 영상 분석 정보를 생성한다(S103).In the collaboration-based analysis method according to an embodiment of the present invention, an edge camera 400 captures an image (S101), and generates first image analysis information based on the captured image (S103).

그리고 엣지 카메라(400)는 촬영된 영상, 카메라 세부 정보 및 제 1 영상 분석 정보를 통합 관제 서버(200)로 전송한다(S105).Then, the edge camera 400 transmits the photographed image, the camera detail information, and the first image analysis information to the integrated control server 200 (S105).

통합 관제 서버(200)는 엣지 카메라(400)에 의해 분석된 제 1 영상 분석 정보, 카메라 세부 정보 및 엣지 카메라(400)의 상태 정보를 포함하는 VMS 메타데이터를 생성하고(S107), 영상과 VMS 메타데이터를 영상 분석 서버(300)로 전송하고(S109), VMS 메타데이터를지능형 협업 서버(100)로 전송한다(S111).The integrated control server 200 generates VMS metadata including the first image analysis information analyzed by the edge camera 400, the camera detail information, and the state information of the edge camera 400 (S107) The metadata is transmitted to the image analysis server 300 (S109), and the VMS metadata is transmitted to the intelligent collaboration server 100 (S111).

영상 분석 서버(300)는 상기 영상을 전달받아 카메라 세부 정보를 이용하여 제 2 영상 분석 정보를 생성하여(S113), 지능형 협업 서버(100) 및 통합 관리 서버로 각각 전송한다(S115, S117).The image analysis server 300 receives the image, generates second image analysis information using the camera detail information (S113), and transmits the second image analysis information to the intelligent collaboration server 100 and the integrated management server (S115, S117).

지능형 협업 서버(100)는 상기 VMS 메타데이터에 포함된 제 1 영상 분석 정보와 상기 영상 분석 서버(300)로부터의 제 2 영상 분석 정보를 수신함에 따라, 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한다(S119).The intelligent collaboration server 100 receives the first image analysis information included in the VMS metadata and the second image analysis information from the image analysis server 300 and generates an event based analysis technique, Based analysis technique based on at least one of the first and second image analysis information (S119).

다음으로, 분석 결과에 기초하여 카메라 세부 정보를 통해 하나 이상의 엣지 카메라(400)를 제어하기 위한 제어 정보를 생성하고, 이를 협업 연동 정보로 생성하여(S121), 영상 분석 서버(300)와 통합 관리 서버로 각각 전송한다(S123, S125).Next, based on the analysis result, control information for controlling one or more edge cameras 400 is generated through the camera detailed information, and the generated control information is generated as collaboration linked information (S121) To the server (S123, S125).

통합 관리 서버는 엣지 카메라(400)로 카메라 제어 정보를 전송하고(S127), 엣지 카메라(400)는 제어 정보에 기초하여 PTZ 제어를 수행한다(S129).The integrated management server transmits camera control information to the edge camera 400 (S127), and the edge camera 400 performs PTZ control based on the control information (S129).

한편 상술한 설명에서, 단계 S101 내지 S127는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 2 내지 도 4에서의 지능형 협업 시스템(1) 및 서버(100)에 관하여 이미 기술된 내용은 도 5의 협업 기반 분석 방법에도 적용된다.On the other hand, in the above description, steps S101 to S127 may be further divided into further steps or combined into fewer steps, according to an embodiment of the present invention. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed. In addition, the contents already described with respect to the intelligent collaboration system 1 and the server 100 in FIGS. 2 to 4 apply to the collaboration-based analysis method of FIG. 5 even if other contents are omitted.

한편, 본 발명의 일 실시예는 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. On the other hand, an embodiment of the present invention may also be embodied in the form of a computer program stored in a medium executed by a computer or a recording medium including instructions executable by the computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.While the methods and systems of the present invention have been described in connection with specific embodiments, some or all of those elements or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

1: 지능형 협업 시스템
100: 지능형 협업 서버
200: 통합 관제 서버
300: 영상 분석 서버
400: 엣지 카메라
1: Intelligent collaboration system
100: Intelligent Collaboration Server
200: Integrated control server
300: image analysis server
400: Edge camera

Claims (10)

지능형 협업 서버에 있어서,
통합 관제 서버 및 영상 분석 서버와 데이터를 송수신하는 통신모듈,
협업 기반의 분석을 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 상기 통합 관제 서버로부터 하나 이상의 엣지 카메라에 의해 촬영되어 분석된 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하고, 상기 통합 관제 서버로부터 상기 엣지 카메라에 의해 촬영된 영상을 전달받아 분석된 제 2 영상 분석 정보를 상기 영상 분석 서버로부터 수신하면, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 것인 지능형 협업 서버.
In an intelligent collaboration server,
A communication module for transmitting and receiving data with the integrated control server and the image analysis server,
A program for analysis of collaborative based on stored memory and
And a processor for executing a program stored in the memory,
Wherein the processor is configured to receive the first image analysis information and camera detail information captured and analyzed by at least one edge camera from the integrated control server through the communication module as the program is executed, Wherein the image analysis server analyzes at least one of the first and second image analysis information when the second image analysis information is received from the image analysis server and receives the image captured by the edge camera and analyzes the second image analysis information, And generates control information for controlling the at least one edge camera through the detailed information.
제 1 항에 있어서,
상기 프로세서는 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하는 것인 지능형 협업 서버.
The method according to claim 1,
Wherein the processor analyzes one or more of the first and second image analysis information based on an event-based analysis technique, a learning-based analysis technique, and a rule-based analysis technique.
제 2 항에 있어서,
상기 프로세서는 상기 이벤트 기반 분석 기법에 따라, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하여 상황 분석 정보를 생성하고, 상기 상황 분석 정보가 미리 저장된 이벤트 리스트에 포함된 이벤트와 매칭되는 경우, 상기 이벤트에 대응하는 제어 정보를 생성하는 것인 지능형 협업 서버.
3. The method of claim 2,
Wherein the processor analyzes the at least one of the first and second image analysis information to generate situation analysis information according to the event-based analysis technique, and when the situation analysis information is matched with an event included in a previously stored event list And generates control information corresponding to the event.
제 2 항에 있어서,
상기 프로세서는 상기 학습 분석 기법에 따라, 미리 학습된 알고리즘에 기초하여 상기 제 1 및 제 2 영상 분석 정보를 분석하고, 분석한 결과에 기초하여 상기 엣지 카메라의 PTZ 설정값을 제어하기 위한 상기 제어 정보를 생성하되,
상기 미리 학습된 알고리즘은 미리 준비된 영상 분석 정보에 포함된 객체의 좌표 정보, 속도 및 바운딩 박스 사이즈 정보를 입력으로 설정하고, 이에 대응하는 엣지 카메라를 제어하기 위한 제어 정보를 출력으로 설졍하여 훈련되는 것인 지능형 협업 서버.
3. The method of claim 2,
Wherein the processor analyzes the first and second image analysis information based on a previously learned algorithm according to the learning analysis technique and controls the PTZ setting value of the edge camera based on the analyzed result Lt; / RTI >
The pre-learned algorithm is set by inputting coordinate information, velocity, and bounding box size information of an object included in image analysis information prepared in advance, and training by outputting control information for controlling the corresponding edge camera Intelligent Collaboration Server.
제 2 항에 있어서,
상기 프로세서는 상기 규칙 기반 분석 기법에 따라, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한 결과, 미리 저장된 규칙에 포함된 하나 이상의 규칙에 해당하는 것으로 판단한 경우, 상기 규칙에 대응하는 상기 제어 정보를 생성하는 것인 지능형 협업 서버.
3. The method of claim 2,
Wherein the processor analyzes the at least one of the first image analysis information and the second image analysis information according to the rule-based analysis technique to determine that the rule matches at least one rule included in the rule stored in advance, And generates control information.
제 5 항에 있어서,
상기 프로세서는 상기 제 1 및 제 2 영상 분석 정보에 포함된 객체를 탐지하기 위한 바운딩 박스가 기 설정된 임계 사이즈 이하이거나 또는 이상인 경우, 상기 규칙에 따라 상기 엣지 카메라를 줌 인 또는 줌 아웃 하기 위한 제어 정보를 생성하는 것인 지능형 협업 서버.
6. The method of claim 5,
The processor may further include control information for zooming in or zooming out the edge camera according to the rule when the bounding box for detecting the object included in the first and second image analysis information is less than or equal to a predetermined threshold size, Wherein the intelligent collaboration server is configured to generate the intelligent collaboration server.
제 2 항에 있어서,
상기 프로세서는 상기 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 따라 상기 제 1 및 제 2 영상 분석 정보를 각각 분석한 결과 중 가장 높은 신뢰도를 가지는 분석 기법에 따른 결과값에 기초하여 상기 제어 정보를 생성하는 것인 지능형 협업 서버.
3. The method of claim 2,
Wherein the processor analyzes the first and second image analysis information according to a result of analyzing the first and second image analysis information having the highest reliability according to the event-based analysis technique, the learning-based analysis technique, and the rule- And generates control information.
제 1 항에 있어서,
상기 프로세서는 상기 제어 정보는 카메라 ID, 카메라 PTZ 설정 정보 및 프레임 재분석 요청 중 하나 이상을 포함하는 메타데이터 형태로 생성되어 상기 엣지 카메라 및 상기 영상 분석 서버 중 하나 이상으로 전달되는 것인 지능형 협업 서버.
The method according to claim 1,
Wherein the control information is generated in the form of metadata including at least one of a camera ID, a camera PTZ setup information, and a frame reanalysis request, and is transmitted to at least one of the edge camera and the image analysis server.
지능형 협업 시스템에 있어서,
영상을 촬영하고, 촬영된 영상을 분석한 제 1 영상 분석 정보를 생성하는 하나 이상의 엣지 카메라,
상기 엣지 카메라로부터 상기 영상, 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하는 통합 관제 서버,
상기 통합 관제 서버로부터 상기 영상을 전달받아 상기 영상을 분석한 제 2 영상 분석 정보를 생성하는 영상 분석 서버 및
상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 지능형 협업 서버를 포함하는 지능형 협업 시스템.
In an intelligent collaboration system,
At least one edge camera for capturing an image and generating first image analysis information for analyzing the captured image,
An integrated control server for receiving the image, the first image analysis information, and the camera detail information from the edge camera,
An image analysis server for receiving the image from the integrated control server and generating second image analysis information obtained by analyzing the image,
An intelligent collaboration server that analyzes at least one of the first and second image analysis information and generates control information for controlling the at least one edge camera through the camera detail information based on the analysis result, system.
지능형 협업 서버에서의 협업 기반 분석 방법에 있어서,
하나 이상의 엣지 카메라에 의해 분석된 제 1 영상 분석 정보 및 영상 분석 서버에 의해 분석된 제 2 영상 분석 정보 중 하나 이상을 수신하는 단계;
이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하는 단계 및
상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 단계를 포함하되,
상기 엣지 카메라는 상기 제 1 영상 분석 정보와 함께 촬영된 영상 및 자신의 카메라 세부 정보를 통합 관제 서버로 전송하고, 상기 영상 분석 서버는 상기 통합 관제 서버로부터 상기 촬영된 영상을 수신함에 따라 상기 제 2 영상 분석 정보를 생성하는 것인 협업 기반 분석 방법.
In a collaboration-based analysis method in an intelligent collaboration server,
Receiving at least one of first image analysis information analyzed by one or more edge cameras and second image analysis information analyzed by an image analysis server;
Analyzing at least one of the first and second image analysis information based on an event-based analysis technique, a learning-based analysis technique, and a rule-based analysis technique;
And generating control information for controlling the at least one edge camera through the camera detail information based on the analysis result,
Wherein the edge camera transmits the captured image together with the first image analysis information and its own camera detailed information to the integrated control server, and the image analysis server receives the captured image from the integrated control server, A method of analyzing a collaboration based on generating image analysis information.
KR1020170146537A 2017-11-06 2017-11-06 Intelleigent cooperating server, system and method of analyzing based on cooperation thereof KR102008503B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170146537A KR102008503B1 (en) 2017-11-06 2017-11-06 Intelleigent cooperating server, system and method of analyzing based on cooperation thereof
PCT/KR2017/012832 WO2019088335A1 (en) 2017-11-06 2017-11-14 Intelligent collaboration server and system, and collaboration-based analysis method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170146537A KR102008503B1 (en) 2017-11-06 2017-11-06 Intelleigent cooperating server, system and method of analyzing based on cooperation thereof

Publications (2)

Publication Number Publication Date
KR20190051175A true KR20190051175A (en) 2019-05-15
KR102008503B1 KR102008503B1 (en) 2019-10-21

Family

ID=66332026

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170146537A KR102008503B1 (en) 2017-11-06 2017-11-06 Intelleigent cooperating server, system and method of analyzing based on cooperation thereof

Country Status (2)

Country Link
KR (1) KR102008503B1 (en)
WO (1) WO2019088335A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119721B1 (en) * 2019-10-23 2020-06-05 주식회사 넥스트케이 Intellectual Edge Device and Driving Method Thereof
KR102151912B1 (en) * 2020-01-29 2020-09-03 이정민 Video surveillance system and method performed thereat
KR102152237B1 (en) * 2020-05-27 2020-09-04 주식회사 와치캠 Cctv central control system and method based on situation analysis
KR20230073816A (en) * 2021-11-19 2023-05-26 주식회사 핀텔 Policy Base Adaptive Video Analyzing Architecture Generating Method, Device, and Computer Program
KR102573263B1 (en) * 2023-02-10 2023-08-31 국방과학연구소 Imagery information integration method and electronic device therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102321754B1 (en) * 2020-08-18 2021-11-04 주식회사에스에이티 System for detecting accident in road based on edge computing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150031985A (en) * 2013-09-17 2015-03-25 한국전자통신연구원 System for tracking dangerous situation in cooperation with mobile device and method thereof
KR20150080440A (en) * 2013-12-31 2015-07-09 주식회사세오 apparatus of setting PTZ preset by analyzing controlling and event and method thereof
KR101722664B1 (en) * 2015-10-27 2017-04-18 울산과학기술원 Multi-viewpoint System, Wearable Camera, CCTV, Control Server And Method For Active Situation Recognition
KR101786923B1 (en) * 2017-05-15 2017-11-15 주식회사 두원전자통신 CCTV system integrated multi operations

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883417B1 (en) * 2008-07-01 2009-02-12 (주)서광시스템 Media server system image tracking controlled and multi-connected, and monitoring camera control system including it, and method for making an image tracking control and multi-connection
KR101189609B1 (en) * 2011-03-03 2012-10-10 (주)엔써즈 System and method for providing video related service based on image
US10587844B2 (en) * 2015-02-17 2020-03-10 Innodep Co., Ltd. Image analysis system for analyzing dynamically allocated camera image, integrated control system including same, and operation method therefor
KR102491638B1 (en) * 2015-12-23 2023-01-26 한화테크윈 주식회사 Apparatus and method for image processing
KR101788269B1 (en) * 2016-04-22 2017-10-19 주식회사 에스원 Method and apparatus for sensing innormal situation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150031985A (en) * 2013-09-17 2015-03-25 한국전자통신연구원 System for tracking dangerous situation in cooperation with mobile device and method thereof
KR20150080440A (en) * 2013-12-31 2015-07-09 주식회사세오 apparatus of setting PTZ preset by analyzing controlling and event and method thereof
KR101722664B1 (en) * 2015-10-27 2017-04-18 울산과학기술원 Multi-viewpoint System, Wearable Camera, CCTV, Control Server And Method For Active Situation Recognition
KR101786923B1 (en) * 2017-05-15 2017-11-15 주식회사 두원전자통신 CCTV system integrated multi operations

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119721B1 (en) * 2019-10-23 2020-06-05 주식회사 넥스트케이 Intellectual Edge Device and Driving Method Thereof
KR102151912B1 (en) * 2020-01-29 2020-09-03 이정민 Video surveillance system and method performed thereat
KR102152237B1 (en) * 2020-05-27 2020-09-04 주식회사 와치캠 Cctv central control system and method based on situation analysis
KR20230073816A (en) * 2021-11-19 2023-05-26 주식회사 핀텔 Policy Base Adaptive Video Analyzing Architecture Generating Method, Device, and Computer Program
KR102573263B1 (en) * 2023-02-10 2023-08-31 국방과학연구소 Imagery information integration method and electronic device therefor

Also Published As

Publication number Publication date
KR102008503B1 (en) 2019-10-21
WO2019088335A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
KR102008503B1 (en) Intelleigent cooperating server, system and method of analyzing based on cooperation thereof
US10547779B2 (en) Smart image sensor having integrated memory and processor
EP3766044B1 (en) Three-dimensional environment modeling based on a multicamera convolver system
CN108781267B (en) Image processing apparatus and method
US11908160B2 (en) Method and apparatus for context-embedding and region-based object detection
US20170263052A1 (en) Method for generating an ordered point cloud using mobile scanning data
EP2950550A1 (en) System and method for a follow me television function
US11037303B2 (en) Optical flow based detection and tracking of multiple moving objects in successive frames
KR20180040336A (en) Camera system and method for recognizing object thereof
US20200272524A1 (en) Method and system for auto-setting of image acquisition and processing modules and of sharing resources in large scale video systems
JP7111175B2 (en) Object recognition system, recognition device, object recognition method, and object recognition program
US20120328153A1 (en) Device and method for monitoring video objects
CN111988524A (en) Unmanned aerial vehicle and camera collaborative obstacle avoidance method, server and storage medium
KR20200080402A (en) System and method for detecting abnormal situation
US10200572B1 (en) Motion detection
US10438066B2 (en) Evaluation of models generated from objects in video
US9160982B1 (en) Trajectory matching across disjointed video views
CN106375654B (en) Apparatus and method for controlling web camera
US11553162B2 (en) Image processing system for extending a range for image analytics
US20200351488A1 (en) Three-dimensional information acquisition system using pitching practice, and method for calculating camera parameters
JP2023527679A (en) Panorama generation using mobile camera
CN108040202B (en) Camera and method and device for executing instructions thereof
Hallyburton et al. Partial-Information, Longitudinal Cyber Attacks on LiDAR in Autonomous Vehicles
US20220027623A1 (en) Object Location Determination in Frames of a Video Stream
Alzugaray Event-driven Feature Detection and Tracking for Visual SLAM

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right