KR20230075872A - 시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법 - Google Patents

시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법 Download PDF

Info

Publication number
KR20230075872A
KR20230075872A KR1020210162502A KR20210162502A KR20230075872A KR 20230075872 A KR20230075872 A KR 20230075872A KR 1020210162502 A KR1020210162502 A KR 1020210162502A KR 20210162502 A KR20210162502 A KR 20210162502A KR 20230075872 A KR20230075872 A KR 20230075872A
Authority
KR
South Korea
Prior art keywords
information
video
event
image
streaming
Prior art date
Application number
KR1020210162502A
Other languages
English (en)
Inventor
김영현
박명혜
강수경
조인섭
손석만
Original Assignee
한국전력공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전력공사 filed Critical 한국전력공사
Priority to KR1020210162502A priority Critical patent/KR20230075872A/ko
Publication of KR20230075872A publication Critical patent/KR20230075872A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2404Monitoring of server processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2405Monitoring of the internal components or processes of the server, e.g. server load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

영상 정보와 이벤트 정보를 동기화함으로써 실시간 관제와 이벤트 관제 서비스를 동시에 제공할 수 있는 이벤트 동기화 시스템이 개시된다. 상기 이벤트 동기화 시스템은, 현재 위치의 영상 정보를 생성하는 촬영 블록, 통신망을 통해 상기 영상 정보를 수집하는 영상수집장치, 및 상기 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 이벤트 정보를 동기화하여 합성하는 영상분석장치를 포함하는 것을 특징으로 한다.

Description

시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법{System and Method for synchronizing event related to image bases on visual intelligence}
본 발명은 영상 관제 기술에 관한 것으로서, 더 상세하게는 지능형 CCTV(Closed-circuit television) 영상 관제 기술에서 영상과 이벤트 정보를 동기화하는 시스템 및 방법에 대한 것이다.
전력설비는 전국적으로 분포되어 있으며, 무인화된 설비가 다수 존재함에 따라 이에 대한 효율적인 운영 및 관리 방법이 요구되고 있다. 이를 해결하기 위한 방법으로 CCTV(Closed-circuit television) 기반 영상 관제 시스템은 현장 상황을 영상으로 빠르게 인지할 수 있다는 장점으로 지속적으로 수요가 증가하고 있다.
이러한 장점에도 불구하고 CCTV를 통해 방범·감시를 수행할 경우 기존의 CCTV로는 항상 사람이 CCTV 화면을 주시하고 있어야 한다는 문제가 있다. CCTV로 촬영되는 영상은 별도의 기록매체에 저장되므로 나중에 확인할 수는 있겠지만, 사건이 발생한 즉시 혹은 발생하기 전에 인식하고 대응하기 위해서는 화면에 문제 행위가 잡히는 즉시 인지하고 대응해야 한다.
즉, 24시간 내내 감시가 필요한 영역이라면 사람 역시 24시간 동안 화면을 보고 있어야 한다.
최근 딥러닝과 같은 AI(Artificial intelligence) 기술이 발달함에 따라 수집된 영상정보를 토대로 이벤트를 추출하여 사람의 눈을 대신함으로써 효율적인 관리를 수행할 수 있다. 특히, 실시간 영상 분석(Video Analytic) 기술이 향상되면서 지능형 CCTV를 활용한 선별 관제 시장이 기존 CCTV 영상 관제 시스템의 문제점을 개선하는 대안으로 주목을 받고 있다.
현재 상용화되고 있는 지능형 CCTV들은 촬영되고 있는 영상을 분석해 이상 상황을 탐지하고, 문제가 발생했다고 판단될 경우 즉각 관제요원에게 신호를 보낸다.
일반적으로, 지능형 CCTV는 현장에 설치된 CCTV 등 다양한 영상센서를 통해서 수집된 영상을 지능적으로 분석하는 SW/HW(Software/Hardware) 기술이다. 영상을 수집/모니터링/관리하는 VMS(통합영상관제시스템 : Video Management System), 이 VMS를 통해 현장의 영상정보는 영상분석 서버에 스트리밍 또는 jpg(Joint Photographic Experts Group) 형태의 이미지를 전달하게 된다.
영상분석 서버에서는 기학습된 딥러닝 모델을 토대로 추론(인식 및 분석)을 진행한다. 전달된 영상 이미지에서 원하는 이벤트가 발생할 경우, 이미지에서의 위치정보와 이벤트 결과를 이벤트처리 서버 또는 관제 클라이언트에 전달한다.
이때, VMS와 관제 클라이언트에서는 이벤트 분석결과와 관계없이 실시간 관제를 수행하고 있으며, 이때 이벤트가 발생하면, 실시간 관제 화면과 동시에 이벤트 화면을 표출하게 된다.
현재의 지능형 CCTV 시스템은 상시 감시를 하지 않더라도 이벤트를 중심으로 관리자에게 정보를 전달함으로써 관리의 편의성은 제공하나, 실시간 관제 시스템과 이벤트 관제 시스템이 이원화 되어 있어 별도로 운영되고 있다.
이는 실시간 대용량으로 처리되는 영상정보와 이벤트 정보간에 프레임 싱크(Frame Sync) 문제에 기인한다. 이로 인해 시스템 구축시 실시간 영상정보를 처리하기 위한 HW/SW 자원과 이벤트 정보를 처리하기 위한 HW/SW 자원을 별도로 구축하고 있다.
결과적으로, CCTV 수가 증가함에 따라 인프라 구축비용은 크게 증가하는 문제점을 야기하고 있다. 더 나아가 관리자는 실시간 관제와 이벤트 관제 화면을 별도로 운영함으로써 이상상황 발생시 현장상황을 빠르게 대처하는 데에도 걸림돌로 작용하고 있다.
특히, 실시간 관제와 이벤트 관제를 별도로 처리함으로써 하드웨어 자원을 2배로 구성하여야 하며, 관제사의 경우 실시간 관제와 이벤트 관제를 별도의 화면을 통해 확인함으로써 현장상황에 빠르게 대응하는 것이 어렵다는 문제점이 있었다.
1. 한국등록특허번호 제10-1668303호(등록일자: 2016년10월17일)
본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 영상 정보와 이벤트 정보를 동기화함으로써 실시간 관제와 이벤트 관제 서비스를 동시에 제공할 수 있는 이벤트 동기화 시스템 및 방법을 제공하는데 그 목적이 있다.
또한, 본 발명은 수집된 영상 프레임과 분석 프레임을 시차 분석하여 이벤트 관제 프레임간 갭(Gap)을 측정하고 이를 토대로 영상 정보와 이벤트 정보를 합성할 수 있는 이벤트 동기화 시스템 및 방법을 제공하는데 다른 목적이 있다.
또한, 본 발명은 지능형 CCTV를 활용한 관제시스템 구성시 실시간 영상과 이벤트 영상을 동시에 처리함으로써 자원이용 최적화, 서비스 수용능력 증대 및 실시간 정보전송을 가능하게 하는 이벤트 동기화 시스템 및 방법을 제공하는데 또 다른 목적이 있다.
본 발명은 위에서 제시된 과제를 달성하기 위해, 영상 정보와 이벤트 정보를 동기화함으로써 실시간 관제와 이벤트 관제 서비스를 동시에 제공할 수 있는 이벤트 동기화 시스템을 제공한다.
상기 이벤트 동기화 시스템은,
현재 위치의 영상 정보를 생성하는 촬영 블록;
통신망을 통해 상기 영상 정보를 수집하는 영상수집장치; 및
상기 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 이벤트 정보를 동기화하여 합성하는 영상분석장치;를 포함하는 것을 특징으로 한다.
또한, 상기 영상분석장치는, 상기 스트리밍 영상 정보의 특정 영상 프레임과 분석 프레임의 시차를 분석하여 프레임간 갭을 측정하고, 상기 갭을 토대로 상기 스트리밍 영상 정보와 상기 이벤트 정보를 합성하는 것을 특징으로 한다.
또한, 상기 영상분석장치는, 상기 영상 정보를 상기 스트리밍 영상 정보로 변환하는 스트리밍 패킷을 수신하여 상기 스트리밍 패킷으로부터 특정 프레임을 추출하고 특정 영상 프레임으로 변환하는 스트리밍 수신기; 상기 특정 영상 프레임으로부터 특정 객체를 검출하는 객체 검출기; 및 상기 특정 객체로부터 상기 이벤트 정보를 검출하는 이벤트 검출기;를 포함하는 것을 특징으로 한다.
또한, 상기 동기화를 위해 차분기 정보가 산출되며, 상기 차분기 정보는 상기 스트리밍 패킷이 상기 스트리밍 수신기에 입력되는 입력시간과 상기 이벤트 검출기로부터 상기 이벤트 정보가 출력되는 출력 시간의 차이인 것을 특징으로 한다.
또한, 상기 스트리밍 영상 정보는 상기 차분기 정보의 산출을 위해 임시버퍼에 임시 보관되는 것을 특징으로 한다.
또한, 상기 임시버퍼의 크기는 미리 설정되는 상관관계 테이블에 의해 조절되는 것을 특징으로 한다.
또한, 상기 상관관계 테이블은 상기 이벤트 정보가 수신될 때마다 수신되는 상기 차분기 정보와 상기 영상분석장치(140)에서의 하드웨어 부하율을 이용하여 산출되는 것을 특징으로 한다.
또한, 상기 스트리밍 수신기는 서비스 목적 또는 기계 학습 모델의 성능에 따라 상기 특정 영상 프레임에 대한 해상도 조정을 수행하는 것을 특징으로 한다.
또한, 상기 시스템은, 상기 합성에 따른 시각화 정보를 출력하는 관제 장치;를 포함하는 것을 특징으로 한다.
또한, 상기 관제 장치는, 상기 특정 프레임의 위치를 분석하여 생성되는 키프레임 위치 정보를 이용하여 상기 이벤트 정보와 프레임 동기화를 수행하는 것을 특징으로 한다.
다른 한편으로, 본 발명의 다른 일실시예는, 실시간 관제용 영상 정보 및 이벤트 분석용 영상 정보의 2가지 프로파일을 갖는 현재 위치의 영상 정보를 생성하는 촬영 블록; 통신망을 통해 상기 영상 정보 중 상기 관제용 영상 정보를 수집하는 영상수집장치; 및 상기 관제용 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 상기 통신망을 통해 상기 이벤트 분석용 영상 정보를 수집하고 상기 이벤트 분석용 영상 정보로부터 추출되는 이벤트 정보를 동기화하여 합성하는 영상분석장치;를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템을 제공한다.
또 다른 한편으로, 본 발명의 또 다른 일실시예는, (a) 촬영 블록이 실시간 관제용 영상 정보 및 이벤트 분석용 영상 정보의 2가지 프로파일을 갖는 현재 위치의 영상 정보를 생성하는 단계; (b) 영상수집장치가 통신망을 통해 상기 영상 정보 중 상기 관제용 영상 정보를 수집하는 단계; 및 (c) 영상분석장치가 상기 관제용 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 상기 이벤트 분석용 영상 정보로부터 추출되는 이벤트 정보를 동기화하여 합성하는 단계;를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 방법을 제공한다.
또 다른 한편으로, 본 발명의 또 다른 일실시예는, (a) 촬영 블록이 실시간 관제용 영상 정보 및 이벤트 분석용 영상 정보의 2가지 프로파일을 갖는 현재 위치의 영상 정보를 생성하는 단계; (b) 영상수집장치가 통신망을 통해 상기 관제용 영상 정보를 수집하는 단계; 및 (c) 영상분석장치가 상기 관제용 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 상기 통신망을 통해 수집되는 상기 이벤트 분석용 영상 정보로부터 추출되는 이벤트 정보를 동기화하여 합성하는 단계;를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 방법을 제공한다.
본 발명에 따르면, 임의의 이미지를 전달하는 것이 아닌 스트리밍 특성을 활용, 선택적 키 프레임을 발췌함으로써 데이터에 대한 주기적 특성을 인지할 수 있으며, 이를 통해 추론분석을 수행할 경우 스트리밍 영상과 동기화를 효율적으로 수행할 수 있다.
또한, 본 발명의 다른 효과로서는 차분기를 활용, 추론서버에서의 데이터 입력시간과 처리시간을 측정하고 추론서버의 HW(Hardware) 상태정보를 활용할 경우, 이벤트 검출에 소요되는 지연시간을 실시간 측정하여 동기화에 활용함으로써 동기화 오차를 최소화할 수 있다는 점을 들 수 있다.
또한, 본 발명의 또 다른 효과로서는 현재 한전에서 관리하고 있는 1만여대의 CCTV(Closed-circuit television)에 지능형 CCTV 구축시 하드웨어 인프라를 경량화할 수 있다는 점을 들 수 있다는 점을 들 수 있다. 즉, 1대 VMS(Video Management System)가 32대 CCTV 수용 가정할 경우, 지능형 CCTV로 개선을 위해서는 약 600대의 서버군이 필요하나, 본 발명의 일실시예를 적용할 경우 1/2로 경감하여 구축 운영할 수 있다.
또한, 본 발명의 또 다른 효과로서는 대규모의 영상 디바이스를 안정적으로 수용할 수 있게 됨에 따라 장치들의 구축 및/또는 유지 관리 비용 절감 효과가 있을 수 있다는 점을 들 수 있다.
또한, 본 발명의 또 다른 효과로서는 장기적으로는 설치될 영상 센서들의 수는 기하급수적으로 증가할 것으로 예상되기에 이 경우 비용 절감에 대한 파급효과는 매우 클 것으로 기대된다는 점을 들 수 있다.
도 1은 본 발명의 일실시예에 따른 시각 지능 기반 영상 관련 이벤트 동기화 시스템의 구성 블럭도이다.
도 2는 도 1에 도시된 영상분석장치의 논리 구성도이다.
도 3은 본 발명의 일실시예에 따른 특정 영상 프레임의 추출 개념도이다.
도 4는 본 발명의 일실시예에 따른 스트리밍 영상과 이벤트 정보간 프레임 동기화 과정을 보여주는 흐름도이다.
도 5는 본 발명의 다른 일실시예에 따른 시각 지능 기반 영상 관련 이벤트 동기화 시스템의 구성 블럭도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.
제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법을 상세하게 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 시각 지능 기반 영상 관련 이벤트 동기화 시스템(100)의 구성 블럭도이다. 도 1을 참조하면, 이벤트 동기화 시스템(100)은 촬영 블럭(110), 통신망(120), 영상수집장치(130), 영상분석장치(140), 관제 장치(150), 이벤트 알림 서버(160) 등을 포함하여 구성될 수 있다.
촬영 블럭(110)은 현장의 영상을 실시간으로 촬영하여 영상 정보를 생성하는 기능을 수행한다. 이를 위해 촬영 블럭(110)은 제 1 내지 제 n 촬영장치(111-1 내지 111-n)로 구성된다. 제 1 내지 제 n 촬영장치(111-1 내지 111-n)는 CCTV(Closed Circuit Television)가 주로 상용되나, 이에 한정되는 것은 아니며, CCD(Charge-Coupled Device) 카메라, CMOS(complementary metal-oxide semiconductor) 카메라 등이 될 수 있다. 또한, 제 1 내지 제 n 촬영장치(111-1 내지 111-n)는 IP 카메라로서 인터넷을 통해 데이터를 송신할 수 있다.
촬영 블럭(110)은 생성된 영상 정보를 통신망(120)을 통해 영상수집장치(130)에 전송하는 기능을 수행한다.
통신망(120)은 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 공중교환 전화망(PSTN), 공중교환 데이터망(PSDN), 종합정보통신망(ISDN: Integrated Services Digital Networks), 광대역 종합 정보 통신망(BISDN: Broadband ISDN), 근거리 통신망(LAN: Local Area Network), 대도시 지역망(MAN: Metropolitan Area Network), 광역 통신망(WLAN: Wide LAN) 등이 될 수 있다,
그러나, 본 발명은 이에 한정되지는 않으며, 무선 통신망인 CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), Wibro(Wireless Broadband), WiFi(Wireless Fidelity), HSDPA(High Speed Downlink Packet Access) 망, 블루투쓰(bluetooth), NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 될 수 있다. 또는, 이들 유선 통신망 및 무선 통신망의 조합일 수 있다.
영상수집장치(130)는 통신망(120)을 통해 전송된 촬영 블럭(110)으로부터의 영상 정보를 수집하는 기능을 수행한다. 영상수집장치(130)는 VMS(Video Management System), NVR(Network Video Recorder) 등이 될 수 있다.
영상수집장치(130)는 ONVIF(Open Network Video Interface Forum) 인터페이스로 현장 촬영장치(111-1 내지 111-n)로 연결되어 RTSP(Real Time Streaming Protocol)을 통해 현장 영상을 수집·저장하며, 수집 영상 정보는 라이브 스트림으로 변환하여 관제 장치(150) 및 영상분석장치(140)에 전송한다. 이때 영상분석장치(140)에는 스트림 또는 스트림을 JPG로 변환하여 전달할 수 있다.
ONVIF(Open Network Video Interface Forum) 인터페이스를 이용함으로써 촬영 장치(111-1 내지 111-n)의 정보나 설정, PTZ(Pan Tilt Zoom) 제어, 모션, 지능형 영상등의 간단한 서비스는 WSDL&SOAP을 통해서 송수신하고, 음성 및 영상은 RTSP를 통해 송수신할 수 있다. 즉, 동영상 전송은 RTSP로 전송하고, ONVIF 프로토콜을 통해 RTSP 주소가 부여된다.
또한, 영상수집장치(130)는 영상정보를 수집하여 생성된 수집 정보를 데이터베이스에 저장하는 기능을 수행한다. 데이터베이스는 영상수집장치(130)에 구성될 수도 있고, 별도의 데이터베이스 서버로 구성될 수도 있다.
영상분석장치(140)는 추론 서버로서 수집정보를 이용 딥러닝 기반 영상정보 분석역할을 수행한다. 특히, 영상분석장치(140)는 수집된 영상 프레임과 분석 프레임을 시차를 분석하여 이벤트 관제 프레임간 갭(Gap)을 측정하고 이를 토대로 영상정보와 이벤트 정보를 합성한다. 부연하면, 영상수집장치(130)로부터 수집된 스트림 영상(또는 jpg 이미지)을 토대로 기정의된 추론 모델을 통해 영상에서 원하는 객체 판별작업을 수행한다.
관제 장치(150)는 사용자에게 수집된 영상과 이벤트 정보를 표출하는 기능을 수행한다.
이벤트 알림 서버(160)는 통신망(120)을 통해 사용자에게 이벤트 알림 정보를 제공하는 기능을 수행한다. 부연하면, 통신망(120)에 연결되는 통신 단말기에 이벤트 알림정보를 제공하는 기능을 수행한다. 통신 단말기는 휴대폰(mobile phone), 스마트폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, 노트 패드 등이 될 수 있다.
영상수집장치(130), 영상분석장치(140), 관제장치(150), 이벤트 알림 서버(160) 등은 프로세서, 마이콤, 통신 회로, 메모리, 소프트웨어 등을 포함하여 구성될 수 있다.
도 2는 도 1에 도시된 영상분석장치(140)의 논리 구성도이다. 도 2를 참조하면, 영상분석장치(140)는 스트리밍 수신기(210), 객체 검출기(220), 이벤트 검출기(230) 등을 포함하여 구성될 수 있다. 영상분석장치(140)는 영상수집장치(130)로부터 수집된 스트림 영상(또는 jpg 이미지)을 토대로 기정의된 추론 모델을 통해 영상에서 원하는 객체 판별작업을 수행한다.
스트리밍 수신기(210)는 스트리밍 패킷을 수신하여 특정 프레임을 추출하고 영상 프레임으로 변환한다(단계 S201). 즉, 영상수집장치(130)로부터 수집된 영상 정보를 스트리밍 패킷 형태로 수신하고, 이 스트리밍 패킷에서 특정 프레임을 추출하여 영상 프레임으로 변환한다. 이를 개념적으로 보여주는 도면이 도 3에 도시되며, 후술하기로 한다.
도 2를 계속 참조하면, 이후, 객체 검출기(220)가 특정 영상 프레임으로부터 객체를 검출한다(S202). 현장에서 촬영된 영상정보는 현장의 사물을 포함하고 있으며, 이를 객체라고 정의한다. 사람이 사물 정보를 눈으로 확인하지 않고 기계가 이를 판독하기 위해서는 사물을 객체로 정의하고 객체에 대한 특징을 구분하여 학습을 수행한다. 침입자를 판별하는 시스템에서의 객체는 사람이며, 작업자의 동작을 판단하는 시스템에서의 객체는 사람의 골격이 객체로 정의되고 이를 토대로 특징에 대한 학습을 수행하게 된다. 학습된 결과를 토대로 객체 검출기는 학습된 특징에 부합하는 객체를 구별하고, 검출하게 된다.
이후, 이벤트 검출기(230)가 검출된 객체로부터 이벤트 정보를 검출하고 영상정보와 이벤트 정보를 관제 장치(150)로 전송한다(단계 S204).
또한, 이벤트 정보와 영상 정보를 동기화하기 위해, 영상분석장치(140)는 차분기 정보를 생성한다. 즉, 스트리밍 패킷이 수신되어 스트리밍 수신기(210)에 입력되는 입력시간과 이벤트 검출기(230)로부터 이벤트 정보가 출력되는 출력 시간의 차이를 측정하여 차분기 정보를 산출한다. 차분기 정보는 타임스탬프(Timestamp)를 이용하여 시간차를 계산하는 차분기를 이용한다. 일반적으로 촬영장치(111-1 내지 111-n)가 영상 정보를 생성하면서 현재 시간이 삽입되는데, 이를 타임스탬프라고 한다. 물론, 현재 위치도 추가될 수 있다.
도 3은 본 발명의 일실시예에 따른 특정 영상 프레임의 추출 개념도이다. 도 3을 참조하면, 또한, 스트리밍 수신기(210)는 스트리밍 패킷(300)으로부터 기계 학습을 통해 특정 프레임을 추출한다.
딥러닝 분석을 수행할 경우, 현장에서 취득한 고화질의 영상이 아닌 저 ~ 중화질의 영상으로도 충분한 분석이 가능할 수 있다.
고해상도의 경우, 딥러닝 모델에 따라 영상분석장치(140)의 고성능 HW(Hardware)를 요구할 수 있다. 이에 따라 스트리밍 수신기에서는 서비스 목적 및 딥러닝 모델 성능에 따라 Frame 추출 뿐만 아니라 해상도 조정(고화질 -> 저화질) 작업을 수행할 수도 있다.
딥러닝 모델이외에도 CNN(Convolution Neural Network), RNN(Recurrent Neural Network) 등의 신경망이 사용될 수 있다. 신경망은 입력층과 출력층 사이에 여러층의 은닉층이 있는 구조로 되어 있다. 이는 인간이 데이터 처리에 대한 절차나 규칙을 제시해주지 않아도 기계가 스스로 데이터를 통해 처리규칙을 학습하여 처리하는 방식이다.
객체 검출기(220)에서는 수신된 이미지를 이용, 학습된 모델에서의 객체(object)를 찾는 역할을 수행한다. 이를 위해서는 스트리밍 수신기(210)에서 주기적으로 프레임을 전달해야 한다.
수집된 영상 프레임은 검출기에 저장되어 있는 weight 파일을 통해 기 학습된 객체의 특징을 찾게 된다. 좀 더 정확도를 높이기 위해 네트워크를 더 깊게 구성하거나, 다양한 딥러닝 모델을 조합하여 사용할 수 있으며, 이를 통해 영상정보에 포함된 객체가 무엇인지를 인식할 수 있다. 이를 통해 객체 검출기는 특정 프레임과 그 프레임의 특정 위치에 찾고자 하는 객체의 존재유무에 대한 정보를 검출할 수 있다.
스트리밍 영상은 30fps(frames per second) 또는 60fps로 이미지를 수신하지만, 현장에서의 사물 변화가 매우 빠르지 않다. 더 나아가 60fps를 처리하기에는 하드웨어의 자원소모가 크기 때문에 통상 1fps ~ 10fps 이내로 프레임을 취득, 분석에 활용된다.
이때, 시각화 관점에서 스트리밍 영상과 이벤트 정보를 동기화하는 관점에서는 임의의 이미지를 추출하는 것 보다, 키프레임을 추출하여 전달하는 것이 향후 동기화 관점에서 용이하다.
특히, 동영상 스트림은 동영상을 H.264나 MPEG4 등 다양한 종류의 동영상 부호화 방법을 이용하여 부호화한 후 얻어지는 스트림으로서 각 프레임은 인트라(Intra) 프레임(310,340)과 P 프레임(Predicted frame)(320), B(Bidirectionally predicted) 프레임(330)으로 구성된다. P 프레임(320) 및 B 프레임(330)은 인터(Inter) 프레임이다.
여기서, P 프레임은 이전에 나온 키 프레임의 정보를 바탕으로 구성된 프레임이며, B 프레임은 전후의 I/P 프레임의 정보를 바탕으로 구성된 프레임이다. 이에 반해 I-frame은 키 프레임으로서 여러 장의 연속 나열된 이미지 프레임들의 기준으로 활용되기에 I-frame으로 키 프레임을 추출하여 객체 검출기(220)에 전달한다면 프레임 동기화시 편의성을 제공할 수 있다.
더 나아가 I-frame의 프레임율을 확인하고, 실시간 관제에 활용되는 프레임율을 확인하여 프레임율을 비교한다면 좀 더 정밀한 프레임 동기화를 수행할 수 있다.
스트리밍 수신기(210)는 시스템 구축시 구축 환경에 따라 영상수집장치(130) 또는 영상분석장치(140)에서 선택적으로 구성될 수 있다.
도 4는 본 발명의 일실시예에 따른 스트리밍 영상과 이벤트 정보간 프레임 동기화 과정을 보여주는 흐름도이다. 도 4를 참조하면, 관제 장치(150)에서는 차분기 정보를 활용하여 이벤트 정보와 스트림 영상 정보간의 프레임 동기화를 수행한다.
우선, 스트리밍 영상 정보 및 이벤트 정보가 생성된다(단계 S411,S412). 이 때 이벤트 정보는 딥러닝 분석을 수행함으로써 처리 시간이 발생한다.
통상 수십 ~ 수백 ms가 발생하며, 이로 인해 스트리밍 영상 정보와 이벤트 정보간에 시차가 발생한다. 이러한 문제를 해결하기 위해 수집된 차분기 정보를 이용, 지연시간 분석을 수행하고 지연시간에 따른 임시버퍼를 생성하여 수신된 스트리밍 영상을 임시 보관할 수 있다(단계 S420,S430).
보관된 영상 프레임은 이벤트 정보가 수신되었을 때 프레임 동기화를 수행하고, 이벤트 정보를 기반으로 스트림 프레임 정보에 합성을 통해 시각화를 표현하여 서비스를 제공할 수 있다.
이벤트 정보와 함께 수신된 지연시간 정보는 스트리밍 영상 관점에서 보면 과거의 정보이다. 이에 따라 지연시간 분석 모듈(미도시)은 이벤트 정보가 수신될 때마다 수신되는 지연시간과 영상분석장치(140)에서의 하드웨어 부하율에 대한 정보를 활용, 상관관계 테이블을 만들 수 있다. 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 등이 될 수 있다.
이 때 만들어진 상관관계 테이블은 수신된 스트리밍 영상정보를 임시로 저장하기 위한 버퍼의 크기를 조절하는 역할을 수행한다.
버퍼 크기는 Frame Gap과 분석처리시간을 토대로 버퍼 사이즈를 계산하여 생성하게 된다. 이를 예시하면 다음표와 같다.
알고리즘 Task 수 GPU 부하율 메모리 사용률 분석 처리시간 Frame Gap
A 1 20% 30% 10ms 10 Frames
A 10 40% 40% 20ms 20 Frames
A 100 80% 50% 40ms 40 Frames
B 1
또한, 수신된 스트리밍 영상 정보를 토대로 영상 스트림의 프레임 구조 정보와 프레임 율 정보를 포함하는 부호화 구조 정보를 획득한다. 여기서, 동영상 스트림 구문 분석부(미도시)는, 상기 동영상 스트림이 H.264 부호화 방법을 이용하여 부호화된 스트림인 경우, 상기 동영상 스트림 중 파라미터 세트 또는 슬라이스 헤더, 키 프레임 위치를 분석하여 상기 프레임 구조정보와 상기 프레임 율 정보를 획득할 수 있으며, 실시간 처리를 위해 키 프레임 위치정보를 프레임에 표기할 수 있다.
프레임 동기화부(미도시)는 상기 획득된 각 동영상 스트림의 상기 프레임 구조 정보와 상기 프레임 율 정보 및 키프레임 위치정보를 이용하여, 수신된 이벤트 정보와 키프레임 위치정보간 프레임 동기화를 수행한다.
도 5는 본 발명의 다른 일실시예에 따른 시각 지능 기반 영상 관련 이벤트 동기화 시스템의 구성 블럭도이다. 도 5를 참조하면, 영상수집장치(130)에서 영상분석장치(140) 및 관제장치(150)에 도시에 스트림 영상을 전달할 경우, 2배의 대역폭과 신호처리 자원이 필요하기 때문에 영상수집장치(130)의 성능은 1/2로 저하된다.
이에 대규모 지능형 CCTV 시스템을 구축하는데 있어 단점으로 취부될 수 있어, 본 발명의 다른 일실시예에서는 촬영 블럭(110)이 실시간 관제용 영상 정보와 이벤트 분석용 영상 정보의 2가지 프로파일을 제공하며, 실시간 관제용인 경우 고화질, 이벤트 분석용인 경우 저화질로 정보를 전달할 수 있다. 이 때 실시간 관제용 스트림 영상 정보는 영상수집장치(130)에, 이벤트 분석용 스트림 영상 정보는 영상분석장치(140)에 전달함으로서 영상수집장치(130)의 부하를 경감시킬 수 있다.
또한, 여기에 개시된 실시형태들과 관련하여 설명된 방법 또는 알고리즘의 단계들은, 마이크로프로세서, 프로세서, CPU(Central Processing Unit) 등과 같은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 (명령) 코드, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 매체에 기록되는 프로그램 (명령) 코드는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프 등과 같은 자기 매체(magnetic media), CD-ROM, DVD, 블루레이 등과 같은 광기록 매체(optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 (명령) 코드를 저장하고 수행하도록 특별히 구성된 반도체 기억 소자가 포함될 수 있다.
여기서, 프로그램 (명령) 코드의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
100: 이벤트 동기화 시스템
110: 촬영 블럭
111-1 내지 111-n: 제 1 내지 제 n 촬영장치
120: 통신망
130: 영상수집장치
140: 영상분석장치
150: 관제장치
160: 이벤트 알림 서버
210: 스트리밍 수신기
220: 객체 검출기
230: 이벤트 검출기
310: I(Intra) 프레임
320: P(Predicted) 프레임
330: B(Bidirectionary predicted) 프레임

Claims (13)

  1. 영상 정보를 생성하는 촬영 블록(110);
    통신망(120)을 통해 상기 영상 정보를 수집하는 영상수집장치(130); 및
    상기 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 이벤트 정보를 동기화하여 합성하는 영상분석장치(140);
    를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  2. 제 1 항에 있어서,
    상기 영상분석장치(140)는, 상기 스트리밍 영상 정보의 특정 영상 프레임과 분석 프레임의 시차를 분석하여 프레임간 갭을 측정하고, 상기 갭을 토대로 상기 스트리밍 영상 정보와 상기 이벤트 정보를 합성하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  3. 제 2 항에 있어서,
    상기 영상분석장치(140)는,
    상기 영상 정보를 상기 스트리밍 영상 정보로 변환하는 스트리밍 패킷(300)을 수신하여 상기 스트리밍 패킷(300)으로부터 특정 프레임(310,340)을 추출하고 특정 영상 프레임으로 변환하는 스트리밍 수신기(210);
    상기 특정 영상 프레임으로부터 특정 객체를 검출하는 객체 검출기(220); 및
    상기 특정 객체로부터 상기 이벤트 정보를 검출하는 이벤트 검출기(230);를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  4. 제 3 항에 있어서,
    상기 동기화를 위해 차분기 정보가 산출되며, 상기 차분기 정보는 상기 스트리밍 패킷이 상기 스트리밍 수신기(210)에 입력되는 입력시간과 상기 이벤트 검출기(230)로부터 상기 이벤트 정보가 출력되는 출력 시간의 차이인 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  5. 제 4 항에 있어서,
    상기 스트리밍 영상 정보는 상기 차분기 정보의 산출을 위해 임시버퍼에 임시 보관되는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  6. 제 5 항에 있어서,
    상기 임시버퍼의 크기는 미리 설정되는 상관관계 테이블에 의해 조절되는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  7. 제 6 항에 있어서,
    상기 상관관계 테이블은 상기 이벤트 정보가 수신될 때마다 수신되는 상기 차분기 정보와 상기 영상분석장치(140)에서의 하드웨어 부하율을 이용하여 산출되는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  8. 제 3 항에 있어서,
    상기 스트리밍 수신기(210)는 서비스 목적 또는 기계 학습 모델의 성능에 따라 상기 특정 영상 프레임에 대한 해상도 조정을 수행하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  9. 제 3 항에 있어서,
    상기 합성에 따른 시각화 정보를 출력하는 관제 장치(150);를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  10. 제 9 항에 있어서,
    상기 관제 장치(150)는, 상기 특정 프레임(310,340)의 위치를 분석하여 생성되는 키프레임 위치 정보를 이용하여 상기 이벤트 정보와 프레임 동기화를 수행하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 시스템.
  11. 실시간 관제용 영상 정보 및 이벤트 분석용 영상 정보의 2가지 프로파일을 갖는 영상 정보를 생성하는 촬영 블록(110);
    통신망(120)을 통해 상기 영상 정보 중 상기 관제용 영상 정보를 수집하는 영상수집장치(130); 및
    상기 관제용 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 상기 통신망(120)을 통해 상기 이벤트 분석용 영상 정보를 수집하고 상기 이벤트 분석용 영상 정보로부터 추출되는 이벤트 정보를 동기화하여 합성하는 영상분석장치(140);
    를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화
  12. (a) 촬영 블록(110)이 실시간 관제용 영상 정보 및 이벤트 분석용 영상 정보의 2가지 프로파일을 갖는 영상 정보를 생성하는 단계;
    (b) 영상수집장치(130)가 통신망(120)을 통해 상기 영상 정보 중 상기 관제용 영상 정보를 수집하는 단계; 및
    (c) 영상분석장치(140)가 상기 관제용 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 상기 이벤트 분석용 영상 정보로부터 추출되는 이벤트 정보를 동기화하여 합성하는 단계;
    를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 방법.
  13. (a) 촬영 블록(110)이 실시간 관제용 영상 정보 및 이벤트 분석용 영상 정보의 2가지 프로파일을 갖는 영상 정보를 생성하는 단계;
    (b) 영상수집장치(130)가 통신망(120)을 통해 상기 관제용 영상 정보를 수집하는 단계; 및
    (c) 영상분석장치(140)가 상기 관제용 영상정보를 이용하여 스트리밍화되는 스트리밍 영상 정보와 상기 통신망(120)을 통해 수집되는 상기 이벤트 분석용 영상 정보로부터 추출되는 이벤트 정보를 동기화하여 합성하는 단계;
    를 포함하는 것을 특징으로 하는 시각 지능 기반 영상 관련 이벤트 동기화 방법.
KR1020210162502A 2021-11-23 2021-11-23 시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법 KR20230075872A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210162502A KR20230075872A (ko) 2021-11-23 2021-11-23 시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210162502A KR20230075872A (ko) 2021-11-23 2021-11-23 시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20230075872A true KR20230075872A (ko) 2023-05-31

Family

ID=86543378

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210162502A KR20230075872A (ko) 2021-11-23 2021-11-23 시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20230075872A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668303B1 (ko) 2015-05-15 2016-10-24 (주)클로버 이벤트 영상의 통합 관리시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668303B1 (ko) 2015-05-15 2016-10-24 (주)클로버 이벤트 영상의 통합 관리시스템

Similar Documents

Publication Publication Date Title
US9788017B2 (en) Video analytics with pre-processing at the source end
US8160129B2 (en) Image pickup apparatus and image distributing method
EP1879384B1 (en) Improved pre-alarm video buffer
US10609426B2 (en) Method and system for playing back recorded video
CN100446568C (zh) 视频监控设备及方法
JP2010136032A (ja) 映像監視システム
CN109155840B (zh) 运动图像分割装置及监视方法
CN102857786A (zh) 视频监视系统中的质量检查
US9948903B2 (en) Method for configuration of video stream output from a digital video camera
JP2020053768A (ja) 画像センサシステム、制御方法、ゲートウェイ装置及びコンピュータプログラム
JP4262023B2 (ja) 映像揺れ検出装置、その方法及びそのプログラム、並びに、カメラ映像選択装置
KR20230075872A (ko) 시각 지능 기반 영상 관련 이벤트 동기화 시스템 및 방법
US6845127B2 (en) Real time remote monitoring system and method using ADSL modem in reverse direction
JP2009200757A (ja) 映像データ処理装置、プログラム及び方法
KR101494537B1 (ko) 영상 감시 시스템에서 모니터링 채널 결정 방법 및 장치
JP4325596B2 (ja) ネットワーク監視カメラシステム
JP2007096412A (ja) 動画撮影装置及び動画送受信システム
TW201824850A (zh) 監視攝影機系統
KR102172955B1 (ko) 피티지 카메라를 이용한 영상 관제 방법, 영상 관제 장치 및 컴퓨터 프로그램
Sato et al. A new networked surveillance video system by combination of omni-directional and network controlled cameras
Georis et al. IP-distributed computer-aided video-surveillance system
JP2003102076A (ja) 監視システム
KR102580900B1 (ko) 이벤트 검출 기반 영상 저장 방법 및 장치
EP4195166A1 (en) Apparatus and method for transmitting images and apparatus and method for receiving images
KR20160069429A (ko) 메타데이터 기반 비디오 데이터의 전송조건 변경장치 및 방법