KR102008503B1 - 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법 - Google Patents

지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법 Download PDF

Info

Publication number
KR102008503B1
KR102008503B1 KR1020170146537A KR20170146537A KR102008503B1 KR 102008503 B1 KR102008503 B1 KR 102008503B1 KR 1020170146537 A KR1020170146537 A KR 1020170146537A KR 20170146537 A KR20170146537 A KR 20170146537A KR 102008503 B1 KR102008503 B1 KR 102008503B1
Authority
KR
South Korea
Prior art keywords
information
analysis
server
image
camera
Prior art date
Application number
KR1020170146537A
Other languages
English (en)
Other versions
KR20190051175A (ko
Inventor
김동칠
박성주
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020170146537A priority Critical patent/KR102008503B1/ko
Priority to PCT/KR2017/012832 priority patent/WO2019088335A1/ko
Publication of KR20190051175A publication Critical patent/KR20190051175A/ko
Application granted granted Critical
Publication of KR102008503B1 publication Critical patent/KR102008503B1/ko

Links

Images

Classifications

    • H04N5/23206
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

본 발명에 따른 지능형 협업 서버는 통합 관제 서버 및 영상 분석 서버와 데이터를 송수신하는 통신모듈, 협업 기반의 분석을 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 상기 통합 관제 서버로부터 하나 이상의 엣지 카메라에 의해 촬영되어 분석된 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하고, 상기 통합 관제 서버로부터 상기 엣지 카메라에 의해 촬영된 영상을 전달받아 분석된 제 2 영상 분석 정보를 상기 영상 분석 서버로부터 수신하면, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성한다.

Description

지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법{INTELLEIGENT COOPERATING SERVER, SYSTEM AND METHOD OF ANALYZING BASED ON COOPERATION THEREOF}
본 발명은 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법에 관한 것이다.
도 1은 종래 기술에 따른 지능형 영상 분석 시스템을 설명하기 위한 도면이다.
종래 기술에 따른 지능형 영상 분석 시스템은 하나 이상의 엣지 카메라(10), 통합 관제 서버(20) 및 영상 분석 서버(30)를 포함한다.
이러한 지능형 영상 분석 시스템은 분석 주체에 따라 서버 기반의 영상 분석과 엣지 카메라 기반의 영상 분석을 수행한다.
이때, 서버 기반의 영상 분석 방식은 엣지 카메라(10)에 의해 촬영된 영상을 영상 분석 서버(30)에서 수신하여 영상 분석을 수행하는 집중형 방식을 의미한다. 이러한 서버 기반의 영상 분석 방식은 알고리즘 개선이 쉽고 분석 정확도가 높지만, 과도한 서버 구축비용이 발생하고, 네트워크 및 플랫폼 등 주변 인프라 영향을 많이 받는다는 문제가 있다. 또한, 서버 자체에 오류가 발생하게 되면 전체 시스템의 영상 분석이 불가능하다는 문제가 있다.
엣지 카메라 기반의 영상 분석 방식은 엣지 카메라(10)에 영상 분석 알고리즘을 임베디드화시켜 단말 단에서 영상 분석을 수행하는 방식을 의미한다. 이러한 영상 분석 방식은 서버가 동작하지 않더라도 영상 분석을 수행할 수 있다는 장점이 있으나, 서버 방식의 영상 분석 방식보다 영성 분석의 범위 및 성능이 제한적이고, 분석 알고리즘의 신속한 개선이 어렵다는 문제가 있다.
따라서, 서버 기반의 영상 분석 방식과 엣지 카메라 기반의 영상 분석 방식을 모두 이용하여 상호 간의 단점을 보완할 수 있는 기술이 필요한 실정이다.
본 발명의 실시예는 서버 기반의 영상 분석 방식과 엣지 카메라 기반의 영상 분석 방식을 조합한 하이브리드 방식을 통해, 영상 분석의 정확도와 실시간성을 요구받는 환경에서 다중 처리 방식의 영상 분석을 통한 영상 분석의 신뢰성 확보 및 상황 정보에 적응적으로 협업 연동 및 제어가 가능한 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법을 제공한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 지능형 협업 서버는 통합 관제 서버 및 영상 분석 서버와 데이터를 송수신하는 통신모듈, 협업 기반의 분석을 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 상기 통합 관제 서버로부터 하나 이상의 엣지 카메라에 의해 촬영되어 분석된 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하고, 상기 통합 관제 서버로부터 상기 엣지 카메라에 의해 촬영된 영상을 전달받아 분석된 제 2 영상 분석 정보를 상기 영상 분석 서버로부터 수신하면, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성한다.
상기 프로세서는 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석할 수 있다.
상기 프로세서는 상기 이벤트 기반 분석 기법에 따라, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하여 상황 분석 정보를 생성하고, 상기 상황 분석 정보가 미리 저장된 이벤트 리스트에 포함된 이벤트와 매칭되는 경우, 상기 이벤트에 대응하는 제어 정보를 생성할 수 있다.
상기 프로세서는 상기 학습 분석 기법에 따라, 미리 학습된 알고리즘에 기초하여 상기 제 1 및 제 2 영상 분석 정보를 분석하고, 분석한 결과에 기초하여 상기 엣지 카메라의 PTZ 설정값을 제어하기 위한 상기 제어 정보를 생성하되, 상기 미리 학습된 알고리즘은 미리 준비된 영상 분석 정보에 포함된 객체의 좌표 정보, 속도 및 바운딩 박스 사이즈 정보를 입력으로 설정하고, 이에 대응하는 엣지 카메라를 제어하기 위한 제어 정보를 출력으로 설졍하여 훈련될 수 있다.
상기 프로세서는 상기 규칙 기반 분석 기법에 따라, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한 결과, 미리 저장된 규칙에 포함된 하나 이상의 규칙에 해당하는 것으로 판단한 경우, 상기 규칙에 대응하는 상기 제어 정보를 생성할 수 있다.
상기 프로세서는 상기 제 1 및 제 2 영상 분석 정보에 포함된 객체를 탐지하기 위한 바운딩 박스가 기 설정된 임계 사이즈 이하이거나 또는 이상인 경우, 상기 규칙에 따라 상기 엣지 카메라를 줌 인 또는 줌 아웃 하기 위한 제어 정보를 생성할 수 있다.
상기 프로세서는 상기 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 따라 상기 제 1 및 제 2 영상 분석 정보를 각각 분석한 결과 중 가장 높은 신뢰도를 가지는 분석 기법에 따른 결과값에 기초하여 상기 제어 정보를 생성할 수 있다.
상기 프로세서는 상기 제어 정보는 카메라 ID, 카메라 PTZ 설정 정보 및 프레임 재분석 요청 중 하나 이상을 포함하는 메타데이터 형태로 생성되어 상기 엣지 카메라 및 상기 영상 분석 서버 중 하나 이상으로 전달될 수 있다.
또한, 본 발명의 제 2 측면에 따른 지능형 협업 시스템은 영상을 촬영하고, 촬영된 영상을 분석한 제 1 영상 분석 정보를 생성하는 하나 이상의 엣지 카메라,
상기 엣지 카메라로부터 상기 영상, 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하는 통합 관제 서버, 상기 통합 관제 서버로부터 상기 영상을 전달받아 상기 영상을 분석한 제 2 영상 분석 정보를 생성하는 영상 분석 서버 및 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 지능형 협업 서버를 포함한다.
또한, 본 발명의 제 3 측면에 따른 지능형 협업 서버에서의 협업 기반 분석 방법은 하나 이상의 엣지 카메라에 의해 분석된 제 1 영상 분석 정보 및 영상 분석 서버에 의해 분석된 제 2 영상 분석 정보 중 하나 이상을 수신하는 단계; 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하는 단계 및 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 단계를 포함한다. 이때, 상기 엣지 카메라는 상기 제 1 영상 분석 정보와 함께 촬영된 영상 및 자신의 카메라 세부 정보를 통합 관제 서버로 전송하고, 상기 영상 분석 서버는 상기 통합 관제 서버로부터 상기 촬영된 영상을 수신함에 따라 상기 제 2 영상 분석 정보를 생성한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 엣지 카메라와 영상 분석 서버 간의 협업 연동이 가능하게끔 할 수 있다.
국방 분야, 보안 분야와 같이 영상 분석의 정확도와 실시간성을 요구받는 환경에서 영상 분석에 대한 신뢰성 확보가 가능하고, 다양한 환경에 적응적으로 대응이 가능하다는 장점이 있다.
도 1은 종래 기술에 따른 지능형 영상 분석 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 지능형 협업 시스템을 개략적으로 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 지능형 협업 시스템의 블록도이다.
도 4는 본 발명의 일 실시예에 따른 지능형 협업 서버의 블록도이다.
도 5는 본 발명의 일 실시예에 따른 협업 기반 분석 방법의 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 2는 본 발명의 일 실시예에 따른 지능형 협업 시스템(1)을 개략적으로 설명하기 위한 도면이다. 도 3은 본 발명의 일 실시예에 따른 지능형 협업 시스템(1)의 블록도이다. 도 4는 본 발명의 일 실시예에 따른 지능형 협업 서버(100)의 블록도이다.
본 발명의 일 실시예에 따른 지능형 협업 시스템(1)은 지능형 협업 서버(100), 통합 관제 서버(200), 통합 관제 뷰어(210), 영상 분석 서버(300) 및 하나 이상의 엣지 카메라(400)를 포함한다. 한편, 각 서버들은 REST/JSON 기반으로 연동될 수 있다.
엣지 카메라(400)는 하나 이상이 구비될 수 있으며 영상을 촬영한다. 그리고 엣지 카메라(400)는 영상 분석 알고리즘이 임베디드화되어 있어 자신이 촬영한 영상을 분석하여 제 1 영상 분석 정보를 생성한다.
엣지 카메라(400)는 촬영된 영상, 이를 분석한 제 1 영상 분석 정보 및 자신의 카메라 세부 정보를 통합 관제 서버(200)로 전송한다.
이때, 제 1 영상 분석 정보는 예를 들어 카메라 ID, 프레임 번호, 이상 징후 종류, 검출 객체의 X, Y 좌표, 검출 객체 영역의 넓이 및 높이 정보를 포함할 수 있다.
또한, 카메라 세부 정보는 카메라 ID, 카메라의 위치, 카메라 PTZ(Pan, Tilt, Zoon) 정보, 카메라의 종류를 포함할 수 있다.
통합 관제 서버(200)는 통합 관제 뷰어를 통해 엣지 카메라(400)에 의해 촬영된 영상을 출력하고, 제 1 영상 분석 정보나 후술하는 제 2 영상 분석 정보를 저장 및 관리한다.
이를 위해 통합 관제 서버(200)는 엣지 카메라(400)로부터 촬영된 영상 및 제 1 영상 분석 정보 및 엣지 카메라(400) 각각의 카메라 세부 정보를 수신하고, 제 1 영상 분석 정보 및 카메라 세부 정보를 VMS(Video Mansgement System) 메타데이터로 생성한다.
영상 분석 서버(300)는 통합 관제 서버(200)로부터 상기 영상과 VMS 메타데이터를 전달받고, VMS 메타데이터에 포함된 카메라 세부 정보에 기초하여 상기 영상을 분석한 제 2 영상 분석 정보를 생성한다.
그리고 제 2 영상 분석 정보를 통합 관제 서버(200)와 지능형 협업 서버(100)로 전송한다.
이때, 제 2 영상 분석 정보는 예를 들어 카메라 ID, 프레임 번호, 이상 징후 종류, 이상 징후 관심 영역, 날씨 종류, 검출 객체의 수, 객체 ID, 객체 종류, 검출 객체의 X, Y 좌표, 검출 객체 영역의 넓이 및 높이 정보, 검출 객체의 비율, 색상, 모양, 이동 속도 등의 정보를 포함할 수 있다.
참고로, 엣지 카메라(400)에서 분석한 제 1 영상 분석 정보는 영상 분석 서버(300)를 통해 분석한 제 2 영상 분석 정보보다 저성능의 분석 정보가 생성되는 것나 반드시 이에 한정되는 것은 아니다.
지능형 협업 서버(100)는 통합 관제 서버(200)로부터 수신한 VMS 메타데이터에 포함된 제 1 영상 분석 정보와, 영상 분석 서버(300)로부터 수신한 제 2 영상 분석 정보 중 하나 이상을 분석하고, 분석한 결과에 기초하여 협업 연동 정보를 생성한다.
이때, 협업 연동 정보는 상기 분석 결과에 기초하여 카메라 세부정보를 통해 하나 이상의 엣지 카메라(400)를 제어하기 위한 제어 정보를 포함한다. 예를 들어, 제어 정보는 카메라 ID, 카메라 PTZ 설정 정보 및 프레임 재분석 요청 중 하나 이상을 포함할 수 있으며, 이러한 제어 정보는 메타데이터 형태로 생성되어 엣지 카메라(400) 및 영상 분석 서버(300) 중 하나 이상으로 전달될 수 있다.
이하에서는 도 4를 참조하여 본 발명의 일 실시예에 따른 지능형 협업 서버(100)에 대해 보다 구체적으로 설명하도록 한다.
지능형 협업 서버(100)는 통신모듈(110), 메모리(120) 및 프로세서(130)를 포함한다. 한편, 본 발명의 일 실시예에서 통합 관제 서버(200) 및 영상 분석 서버(300) 역시 지능형 협업 서버(100)와 마찬가지로 통신모듈, 메모리 및 프로세서로 구현될 수 있음은 물론이다.
통신모듈(110)은 통합 관제 서버(200) 및 영상 분석 서버(300)와 데이터를 송수신한다. 여기에서, 통신모듈(110)은 유선 통신모듈 및 무선 통신모듈을 모두 포함할 수 있다. 유선 통신모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신모듈은 상술한 UNB, WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다.
메모리(120)에는 협업 기반의 분석을 위한 프로그램이 저장된다. 여기에서, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다.
예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.
프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킨다.
구체적으로 프로세서(130)는 통신모듈(110)을 통해 통합 관제 서버(200)로부터 하나 이상의 엣지 카메라(400)에 의해 촬영되어 분석된 제 1 영상 분석 정보 및 카메라 세부 정보를 VMS 메타데이터 형태로 수신한다.
그리고 통합 관제 서버(200)로부터 엣지 카메라(400)에 의해 촬영된 영상을 전달받아 분석된 제 2 영상 분석 정보를 영상 분석 서버(300)로부터 수신한다.
또한, 프로세서(130)는 관리자에 의해 직접 입력되는 협업 제어 정보를 획득하여 상기 수신한 정보와 함께 또는 이와 별개로 협업 연동 정보를 생성할 수 있다.
다음으로, 프로세서(130)는 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한다.
이때, 프로세서(130)는 이벤트 분석 기법에 따라, 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하여 상황 분석 정보를 생성할 수 있다. 그리고 상황 분석 정보가 미리 저장된 이벤트 리스트에 포함된 이벤트와 매칭되는 경우, 이벤트에 대응하는 제어 정보를 생성할 수 있다.
예를 들어, 프로세서(130)는 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한 결과 객체가 ‘배회’하는 것으로 판단되는 것을 상황 분석 정보 생성하고, 이벤트 리스트에 ‘배회’에 대응하는 이벤트가 존재하는 경우, 프로세서(130)는 배회하는 객체를 추적하기 위한 객체 추적 정보를 통합 관제 시스템을 통해 엣지 카메라(400)로 전송하고, 엣지 카메라(400)는 실시간으로 객체를 추적할 수 있다.
또한, 프로세서(130)는 학습 분석 기법에 따라, 미리 학습된 알고리즘에 기초하여 제 1 및 제 2 영상 분석 정보를 분석하고, 분석한 결과에 기초하여 엣지 카메라(400)의 PTZ 설정값을 제어하기 위한 제어 정보를 생성할 수 있다.
이때, 미리 학습된 알고리즘은 미리 준비된 영상 분석 정보에 포함된 객체의 좌표 정보, 속도 및 바운딩 박스 사이즈 정보를 입력으로 설정하고, 이에 대응하는 엣지 카메라(400)를 제어하기 위한 제어 정보를 출력으로 설정하여 학습시킬 수 있다.
또한, 프로세서(130)는 규칙 기반 분석 기법에 따라, 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한 결과, 미리 저장된 규칙에 포함된 하나 이상의 규칙에 해당하는 것으로 판단한 경우, 상기 규칙에 대응하는 제어 정보를 생성할 수 있다.
예를 들어, 프로세서(130)는 제 1 및 제 2 영상 분석 정보에 포함된 객체를 탐지하기 위한 바운딩 박스가 기 설정된 임계 사이즈 이하인 경우 즉, 너무 원거리에서 객체가 감지된 것으로 판단한 경우, 상기 규칙에 따라 엣지 카메라(400)를 줌 인하기 위한 제어 정보를 생성할 수 있다.
마찬가지로 바운딩 박스가 임계 사이즈 이상인 경우, 즉, 너무 근거리에서 객체가 감지된 것으로 판단한 경우, 상기 규칙에 따라 엣지 카메라(400)를 줌 아웃하기 위한 제어 정보를 생성할 수 있다.
한편, 프로세서(130)는 상기 이벤트 분석 기법, 학습 분석 기법 및 규칙 기반 분석 기법에 따라 제 1 및 제 2 영상 분석 정보를 각각 분석한 결과, 서로 상충하는 결과가 존재하거나 서로 상이한 결과가 존재하는 경우, 상기 분석 기법 중 확률 기반의 가장 높은 신뢰도를 가지는 분석 기법에 따른 결과값에 기초하여 제어 정보를 생성할 수 있다.
이와 같이 어느 하나의 분석 기법에 따른 결과값이 선택되고 이에 따른 제어 정보가 생성되면, 프로세서(130)는 상기 제어 정보와 함께 엣지 카메라(400) 및 영상 분석 서버(300) 중 하나 이상과 협업 연동하기 위한 협업 연동 정보를 메타데이터 형태로 생성하여 영상 분석 서버(300) 및 통합 관제 서버(200)로 전송한다. 이때 협업 연동 정보에는 카메라 제어 정보로 카메라 ID 및 PTZ 설정 정보를 포함할 수 있으며, 그밖에 특정 프레임의 재분석 요청 정보를 포함할 수 있다.
협업 연동 정보를 영상 분석 서버(300) 및 통합 관제 서버(200)로 전송한 이후 프로세서(130)는 통신모듈(110)을 통해 각 서버로부터 피드백 정보를 수신할 수 있다.
이후, 통합 관제 서버(200)나 영상 분석 서버(300)로부터 새로운 제 1 및 제 2 영상 분석 정보를 수신하게 되면 상술한 과정을 반복하여 수행하며, 별도의 데이터를 수신하지 않는 경우 프로세서(130)는 지능형 협업 서버(100)를 비활성화 상태로 유지되도록 한다.
참고로, 본 발명의 실시예에 따른 도 3에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
이하에서는 도 5를 참조하여 본 발명의 일 실시예에 따른 지능형 협업 서버(100)에서의 협업 기반 분석 방법에 대하여 설명하도록 한다.
도 5는 본 발명의 일 실시예에 따른 협업 기반 분석 방법의 순서도이다.
본 발명의 일 실시예에 따른 협업 기반 분석 방법은 먼저, 엣지 카메라(400)에서 영상이 촬영되고(S101), 촬영된 영상에 기초하여 제 1 영상 분석 정보를 생성한다(S103).
그리고 엣지 카메라(400)는 촬영된 영상, 카메라 세부 정보 및 제 1 영상 분석 정보를 통합 관제 서버(200)로 전송한다(S105).
통합 관제 서버(200)는 엣지 카메라(400)에 의해 분석된 제 1 영상 분석 정보, 카메라 세부 정보 및 엣지 카메라(400)의 상태 정보를 포함하는 VMS 메타데이터를 생성하고(S107), 영상과 VMS 메타데이터를 영상 분석 서버(300)로 전송하고(S109), VMS 메타데이터를지능형 협업 서버(100)로 전송한다(S111).
영상 분석 서버(300)는 상기 영상을 전달받아 카메라 세부 정보를 이용하여 제 2 영상 분석 정보를 생성하여(S113), 지능형 협업 서버(100) 및 통합 관리 서버로 각각 전송한다(S115, S117).
지능형 협업 서버(100)는 상기 VMS 메타데이터에 포함된 제 1 영상 분석 정보와 상기 영상 분석 서버(300)로부터의 제 2 영상 분석 정보를 수신함에 따라, 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한다(S119).
다음으로, 분석 결과에 기초하여 카메라 세부 정보를 통해 하나 이상의 엣지 카메라(400)를 제어하기 위한 제어 정보를 생성하고, 이를 협업 연동 정보로 생성하여(S121), 영상 분석 서버(300)와 통합 관리 서버로 각각 전송한다(S123, S125).
통합 관리 서버는 엣지 카메라(400)로 카메라 제어 정보를 전송하고(S127), 엣지 카메라(400)는 제어 정보에 기초하여 PTZ 제어를 수행한다(S129).
한편 상술한 설명에서, 단계 S101 내지 S127는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 2 내지 도 4에서의 지능형 협업 시스템(1) 및 서버(100)에 관하여 이미 기술된 내용은 도 5의 협업 기반 분석 방법에도 적용된다.
한편, 본 발명의 일 실시예는 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
1: 지능형 협업 시스템
100: 지능형 협업 서버
200: 통합 관제 서버
300: 영상 분석 서버
400: 엣지 카메라

Claims (10)

  1. 지능형 협업 서버에 있어서,
    통합 관제 서버 및 영상 분석 서버와 데이터를 송수신하는 통신모듈,
    협업 기반의 분석을 위한 프로그램이 저장된 메모리 및
    상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
    상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 통신모듈을 통해 상기 통합 관제 서버로부터 하나 이상의 엣지 카메라에 의해 촬영되어 분석된 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하고, 상기 통합 관제 서버로부터 상기 엣지 카메라에 의해 촬영된 영상을 전달받아 분석된 제 2 영상 분석 정보를 상기 영상 분석 서버로부터 수신하면, 상기 제 1 및 제 2 영상 분석 정보를 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하며,
    상기 프로세서는 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보를 분석하고,
    상기 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 따라 상기 제 1 및 제 2 영상 분석 정보를 각각 분석한 결과 서로 상충하는 결과가 존재하거나 서로 상이한 결과가 존재하는 경우, 상기 분석 기법 중 가장 높은 신뢰도를 가지는 분석 기법에 따른 결과값에 기초하여 상기 제어 정보를 생성하며,
    상기 통합 관제 서버는 상기 제 1 영상 분석 정보 및 카메라 세부 정보를 VMS 메타데이터로 생성하여 상기 영상 분석 서버 및 통신모듈로 전송하고,
    상기 프로세서는 상기 엣지 카메라 및 영상 분석 서버 중 하나 이상과 협업 연동하기 위한 협업 연동 정보를 메타데이터 형태로 생성하여 상기 영상 분석 서버 및 통합 관제 서버로 전송하는 것인 지능형 협업 서버.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 프로세서는 상기 이벤트 기반 분석 기법에 따라, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석하여 상황 분석 정보를 생성하고, 상기 상황 분석 정보가 미리 저장된 이벤트 리스트에 포함된 이벤트와 매칭되는 경우, 상기 이벤트에 대응하는 제어 정보를 생성하는 것인 지능형 협업 서버.
  4. 제 1 항에 있어서,
    상기 프로세서는 상기 학습 기반 분석 기법에 따라, 미리 학습된 알고리즘에 기초하여 상기 제 1 및 제 2 영상 분석 정보를 분석하고, 분석한 결과에 기초하여 상기 엣지 카메라의 PTZ 설정값을 제어하기 위한 상기 제어 정보를 생성하되,
    상기 미리 학습된 알고리즘은 미리 준비된 영상 분석 정보에 포함된 객체의 좌표 정보, 속도 및 바운딩 박스 사이즈 정보를 입력으로 설정하고, 이에 대응하는 엣지 카메라를 제어하기 위한 제어 정보를 출력으로 설졍하여 훈련되는 것인 지능형 협업 서버.
  5. 제 1 항에 있어서,
    상기 프로세서는 상기 규칙 기반 분석 기법에 따라, 상기 제 1 및 제 2 영상 분석 정보 중 하나 이상을 분석한 결과, 미리 저장된 규칙에 포함된 하나 이상의 규칙에 해당하는 것으로 판단한 경우, 상기 규칙에 대응하는 상기 제어 정보를 생성하는 것인 지능형 협업 서버.
  6. 제 5 항에 있어서,
    상기 프로세서는 상기 제 1 및 제 2 영상 분석 정보에 포함된 객체를 탐지하기 위한 바운딩 박스가 기 설정된 임계 사이즈 이하이거나 또는 이상인 경우, 상기 규칙에 따라 상기 엣지 카메라를 줌 인 또는 줌 아웃 하기 위한 제어 정보를 생성하는 것인 지능형 협업 서버.
  7. 삭제
  8. 제 1 항에 있어서,
    상기 프로세서는 카메라 ID, 카메라 PTZ 설정 정보 및 프레임 재분석 요청 중 하나 이상을 포함하는 상기 제어 정보를 메타데이터 형태로 생성하여 상기 엣지 카메라 및 상기 영상 분석 서버 중 하나 이상으로 전달되는 것인 지능형 협업 서버.
  9. 지능형 협업 시스템에 있어서,
    영상을 촬영하고, 촬영된 영상을 분석한 제 1 영상 분석 정보를 생성하는 하나 이상의 엣지 카메라,
    상기 엣지 카메라로부터 상기 영상, 제 1 영상 분석 정보 및 카메라 세부 정보를 수신하는 통합 관제 서버,
    상기 통합 관제 서버로부터 상기 영상을 전달받아 상기 영상을 분석한 제 2 영상 분석 정보를 생성하는 영상 분석 서버 및
    상기 제 1 및 제 2 영상 분석 정보를 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 분석하고, 상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 지능형 협업 서버를 포함하되,
    상기 지능형 협업 서버는 상기 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 따라 상기 제 1 및 제 2 영상 분석 정보를 각각 분석한 결과 서로 상충하는 결과가 존재하거나 서로 상이한 결과가 존재하는 경우, 상기 분석 기법 중 가장 높은 신뢰도를 가지는 분석 기법에 따른 결과값에 기초하여 상기 제어 정보를 생성하며,
    상기 통합 관제 서버는 상기 제 1 영상 분석 정보 및 카메라 세부 정보를 VMS 메타데이터로 생성하여 상기 영상 분석 서버 및 통신모듈로 전송하고,
    상기 지능형 협업 서버는 상기 제어 정보 및 상기 엣지 카메라 및 영상 분석 서버 중 하나 이상과 협업 연동하기 위한 협업 연동 정보를 메타데이터 형태로 생성하여 상기 영상 분석 서버 및 통합 관제 서버로 전송하는 지능형 협업 시스템.
  10. 지능형 협업 서버에서의 협업 기반 분석 방법에 있어서,
    하나 이상의 엣지 카메라에 의해 분석된 제 1 영상 분석 정보 및 영상 분석 서버에 의해 분석된 제 2 영상 분석 정보 중 하나 이상을 수신하는 단계;
    이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 상기 제 1 및 제 2 영상 분석 정보를 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 기초하여 분석하는 단계;
    상기 분석 결과에 기초하여 상기 카메라 세부정보를 통해 상기 하나 이상의 엣지 카메라를 제어하기 위한 제어 정보를 생성하는 단계 및
    상기 제어 정보 및 상기 엣지 카메라 및 영상 분석 서버 중 하나 이상과 협업 연동하기 위한 협업 연동 정보를 메타데이터 형태로 생성하여 상기 영상 분석 서버 및 통합 관제 서버로 전송하는 단계를 포함하되,
    상기 제어 정보를 생성하는 단계는, 상기 이벤트 기반 분석 기법, 학습 기반 분석 기법 및 규칙 기반 분석 기법에 따라 상기 제 1 및 제 2 영상 분석 정보를 각각 분석한 결과 서로 상충하는 결과가 존재하거나 서로 상이한 결과가 존재하는 경우, 상기 분석 기법 중 가장 높은 신뢰도를 가지는 분석 기법에 따른 결과값에 기초하여 상기 제어 정보를 생성하며,
    상기 통합 관제 서버는 상기 제 1 영상 분석 정보 및 카메라 세부 정보를 VMS 메타데이터로 생성하여 상기 영상 분석 서버 및 통신모듈로 전송하고,
    상기 엣지 카메라는 상기 제 1 영상 분석 정보와 함께 촬영된 영상 및 자신의 카메라 세부 정보를 통합 관제 서버로 전송하고, 상기 영상 분석 서버는 상기 통합 관제 서버로부터 상기 촬영된 영상을 수신함에 따라 상기 제 2 영상 분석 정보를 생성하는 것인 협업 기반 분석 방법.
KR1020170146537A 2017-11-06 2017-11-06 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법 KR102008503B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170146537A KR102008503B1 (ko) 2017-11-06 2017-11-06 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
PCT/KR2017/012832 WO2019088335A1 (ko) 2017-11-06 2017-11-14 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170146537A KR102008503B1 (ko) 2017-11-06 2017-11-06 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법

Publications (2)

Publication Number Publication Date
KR20190051175A KR20190051175A (ko) 2019-05-15
KR102008503B1 true KR102008503B1 (ko) 2019-10-21

Family

ID=66332026

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170146537A KR102008503B1 (ko) 2017-11-06 2017-11-06 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법

Country Status (2)

Country Link
KR (1) KR102008503B1 (ko)
WO (1) WO2019088335A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102152237B1 (ko) 2020-05-27 2020-09-04 주식회사 와치캠 상황 분석 기반의 cctv 관제 방법 및 시스템
KR102321754B1 (ko) * 2020-08-18 2021-11-04 주식회사에스에이티 엣지 컴퓨팅 기반 영상 유고 감지 시스템

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119721B1 (ko) * 2019-10-23 2020-06-05 주식회사 넥스트케이 지능형 에지장치 및 그 장치의 구동방법
KR102151912B1 (ko) * 2020-01-29 2020-09-03 이정민 비디오 감시 시스템 및 비디오 감시 시스템에서 수행되는 방법
KR102637948B1 (ko) * 2021-11-19 2024-02-19 주식회사 핀텔 정책기반 가변적 영상분석 아키택쳐 생성방법, 장치 및 이에 대한 컴퓨터 프로그램
KR102573263B1 (ko) * 2023-02-10 2023-08-31 국방과학연구소 영상 정보 통합 방법 및 이를 위한 전자 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101722664B1 (ko) * 2015-10-27 2017-04-18 울산과학기술원 능동형 상황 인식을 위한 다인칭 시스템, 웨어러블 카메라, cctv, 관제서버 및 방법
KR101786923B1 (ko) * 2017-05-15 2017-11-15 주식회사 두원전자통신 다목적 통합 운영 cctv 시스템

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883417B1 (ko) * 2008-07-01 2009-02-12 (주)서광시스템 다중접속 및 영상 추적제어되는 미디어 서버시스템, 및그를 포함하는 감시 카메라 제어 시스템, 그리고 다중접속및 영상 추적제어 수행방법
KR101189609B1 (ko) * 2011-03-03 2012-10-10 (주)엔써즈 이미지에 기반한 동영상 관련 서비스 제공 시스템 및 방법
KR20150031985A (ko) * 2013-09-17 2015-03-25 한국전자통신연구원 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법
KR101646952B1 (ko) * 2013-12-31 2016-08-10 주식회사세오 제어 및 이벤트 분석을 통한 자동ptz 프리셋 설정 장치 및 방법
WO2016133234A1 (ko) * 2015-02-17 2016-08-25 이노뎁 주식회사 동적으로 할당되는 카메라 영상을 분석하는 영상 분석 시스템, 이를 포함하는 통합 관제 시스템 및 그 동작방법
KR102491638B1 (ko) * 2015-12-23 2023-01-26 한화테크윈 주식회사 영상 처리 장치 및 영상 처리 방법
KR101788269B1 (ko) * 2016-04-22 2017-10-19 주식회사 에스원 이상 상황을 감지하는 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101722664B1 (ko) * 2015-10-27 2017-04-18 울산과학기술원 능동형 상황 인식을 위한 다인칭 시스템, 웨어러블 카메라, cctv, 관제서버 및 방법
KR101786923B1 (ko) * 2017-05-15 2017-11-15 주식회사 두원전자통신 다목적 통합 운영 cctv 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102152237B1 (ko) 2020-05-27 2020-09-04 주식회사 와치캠 상황 분석 기반의 cctv 관제 방법 및 시스템
KR102321754B1 (ko) * 2020-08-18 2021-11-04 주식회사에스에이티 엣지 컴퓨팅 기반 영상 유고 감지 시스템

Also Published As

Publication number Publication date
KR20190051175A (ko) 2019-05-15
WO2019088335A1 (ko) 2019-05-09

Similar Documents

Publication Publication Date Title
KR102008503B1 (ko) 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
JP7073527B2 (ja) 目標対象物追跡方法及び装置、電子機器並びに記憶媒体
US20190171897A1 (en) System and method for automatically improving gathering of data using a data gathering device
US20120262569A1 (en) Visual obstruction removal with image capture
CN111246091B (zh) 一种动态自动曝光控制方法和装置及电子设备
US20150350590A1 (en) System and method for follow me television function
US20170263052A1 (en) Method for generating an ordered point cloud using mobile scanning data
JP2018510398A (ja) 事象関連データ監視システム
KR20200080402A (ko) 비정상 상황 탐지 시스템 및 방법
US10089551B2 (en) Self-optimized object detection using online detector selection
US20180293755A1 (en) Using dynamic facial landmarks for head gaze estimation
JP7111175B2 (ja) 物体認識システム、認識装置、物体認識方法および物体認識プログラム
CN111988524A (zh) 一种无人机与摄像头协同避障方法、服务器及存储介质
WO2022199422A1 (zh) 运动目标追踪系统、方法、电子设备和可读存储介质
US10200572B1 (en) Motion detection
JP7282186B2 (ja) 状況認識監視
US20230098829A1 (en) Image Processing System for Extending a Range for Image Analytics
US8838290B2 (en) Control device and method for adjusting flight direction of unmanned aerial vehicle using the same
US20170086079A1 (en) Adaptively Position Objects Through Mobile Signal Sources
DH et al. Autonomous vehicles camera blinding attack detection using sequence modelling and predictive analytics
US20180307910A1 (en) Evaluation of models generated from objects in video
CN106375654B (zh) 用于控制网络相机的设备和方法
KR102658563B1 (ko) 영상 감시장치, 영상 분석 서버장치 및 그 학습 방법들
US20180336412A1 (en) Computer vision robot control
US11790627B2 (en) Using an object key to deprioritize processing of relative regions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right