KR102315699B1 - 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램 - Google Patents

인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램 Download PDF

Info

Publication number
KR102315699B1
KR102315699B1 KR1020210124205A KR20210124205A KR102315699B1 KR 102315699 B1 KR102315699 B1 KR 102315699B1 KR 1020210124205 A KR1020210124205 A KR 1020210124205A KR 20210124205 A KR20210124205 A KR 20210124205A KR 102315699 B1 KR102315699 B1 KR 102315699B1
Authority
KR
South Korea
Prior art keywords
image data
event
server
computing device
artificial intelligence
Prior art date
Application number
KR1020210124205A
Other languages
English (en)
Inventor
황의석
우대근
박범재
Original Assignee
주식회사 티앤엠테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 티앤엠테크 filed Critical 주식회사 티앤엠테크
Priority to KR1020210124205A priority Critical patent/KR102315699B1/ko
Application granted granted Critical
Publication of KR102315699B1 publication Critical patent/KR102315699B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Image Analysis (AREA)

Abstract

인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램이 제공된다. 본 발명의 일 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 복수의 영상 데이터를 수집하는 단계, 기 설정된 영상 데이터 처리 룰에 따라 상기 복수의 영상 데이터를 처리하는 단계 및 상기 처리된 영상 데이터와 상기 처리된 영상 데이터를 분석함으로써 생성되는 분석 결과 정보를 전달하는 단계를 포함한다.

Description

인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR DETERMINING EVENT OCCURRENCE OF VIDEO DATA USING ARTIFICIAL INTELLIGENCE}
본 발명의 다양한 실시예는 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.
정보화 기술의 발전, 유비쿼터스 컴퓨팅의 도입과 함께, 현대사회는 각종 파이프나 물리적인 선으로 연결되는 공공서비스망(전기, 가스, 상하수도 등) 기반의 인프라를 넘어서 공공서비스, 컨텐츠와 새로운 부가서비스를 전달하여 높은 부가가치를 창출할 수 있는 첨단 정보통신망을 주목하고 있다.
또한, 사회가 발전하면서 범죄는 갈수록 지능화, 고속화되고 있으며, 흉포하고 동기가 없는 범죄들도 빈번해지고 있다. 이러한 범죄는 특성상 목격자나 증거를 찾아내기가 쉽지 않고 진술 확보에 있어서도 어려움이 많다.
CCTV(Closed-Circuit Television) 카메라는 이러한 상황에서 범죄를 감시하고, 사회의 안전문제를 개선하기 위해 도입되었다.
CCTV 카메라를 이용하면, 광범위한 영역을 대상으로 모니터 요원을 활용하여 실시간으로 영상을 모니터링하고 저장하면서 사건 발생 시 조치를 취하거나 사건 발생 후 저장된 영상을 검색하여 범죄발생의 증거물로 활용할 수 있다.
그러나, 종래의 CCTV 카메라의 경우, 특수한 목적(예: 안면인식, 침입탐지, 화재 및 사고 감시, 교통신호위반 등 차량 단속)에 따라 풀-세트(Full-set)으로 구성되기 때문에 타사의 CCTV 카메라와의 호환 불가로 초기 도입비용이나 확장 시 비용문제가 발생한다는 문제가 있다.
또한, 종래의 CCTV 카메라를 이용한 감시 시스템의 경우 폐쇄적인 시스템 및 애플리케이션 구조를 가지기 때문에 사용 용도의 변경이나 응용환경 적용이 어렵고, 제공사의 커스터마이징에만 의존해야 한다는 문제가 있다.
또한, 종래에는 구축형의 영상 분석 시스템을 적용하고 있으나, 이를 위해 시스템을 풀-세트로 구매해야 하기 비용의 부담이 있으며(특히, 실시간을 지원할수록 고비용), 유지보수 및 업그레이드에 부담이 가중된다는 문제가 있다.
한국공개특허 제10-2011-0060342호(2011.06.08).
본 발명이 해결하고자 하는 과제는 기기간 호환성을 확보함으로써 기존 CCTV 인프라를 연계 활용할 수 있는 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는 사용 목적 및 환경이 변경됨에 따라 자유롭게 용도 변경이나 응용환경 적용이 가능한 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 클라우드 서비스를 활용함으로써, 시스템을 풀-세트로 구매할 필요 없이 시스템의 유지 보수 및 업그레이드 가능한 영상 데이터 중계 방법, 장치 및 컴퓨터 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 복수의 영상 데이터를 수집하는 단계, 기 설정된 영상 데이터 처리 룰에 따라 상기 복수의 영상 데이터를 처리하는 단계 및 상기 처리된 영상 데이터와 상기 처리된 영상 데이터를 분석함으로써 생성되는 분석 결과 정보를 전달하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 처리하는 단계는, 상기 복수의 영상 데이터를 분석하여 상기 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터를 추출하는 단계 및 상기 추출된 하나 이상의 영상 데이터에 포함된 상기 객체의 속성을 분석하여 상기 분석된 객체의 속성에 대한 정보를 가리키는 분석 결과 정보를 포함하는 메타 데이터를 생성하는 단계를 포함하며, 상기 전달하는 단계는, 상기 추출된 하나 이상의 영상 데이터와 상기 메타 데이터를 전달하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 처리하는 단계는, 상기 복수의 영상 데이터를 분석하여 상기 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터를 추출하는 단계 및 상기 추출된 하나 이상의 영상 데이터 각각을 분할하여 복수의 단위 영상 데이터를 생성하고, 상기 복수의 단위 영상 데이터 중 상기 객체를 포함하는 영역에 대응되는 하나 이상의 단위 영상 데이터를 선택하는 단계를 포함하며, 상기 전달하는 단계는, 상기 처리된 영상 데이터 중 상기 선택된 하나 이상의 단위 영상 데이터만을 전달하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 처리하는 단계는, 상기 복수의 영상 데이터를 분석하여 상기 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터를 추출하는 단계, 상기 추출된 하나 이상의 영상 데이터 각각을 분할하여 복수의 단위 영상 데이터를 생성하고, 상기 복수의 단위 영상 데이터 중 상기 객체를 포함하지 않는 영역에 대응되는 하나 이상의 단위 영상 데이터를 선택하는 단계 및 상기 선택한 하나 이상의 단위 영상 데이터를 보정하여 상기 선택한 하나 이상의 단위 영상 데이터의 해상도를 격하시키는 단계를 포함하며, 상기 전달하는 단계는, 상기 선택한 하나 이상의 단위 영상 데이터의 해상도가 격하된 상기 하나 이상의 영상 데이터를 전달하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 처리하는 단계는, 상기 복수의 영상 데이터를 분석하여 상기 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터를 추출하는 단계 및 상기 추출한 하나 이상의 영상 데이터를 분석하여 상기 객체의 이벤트 발생 여부를 판단하는 단계를 포함하며, 상기 전달하는 단계는, 상기 객체의 이벤트가 발생한 것에 응답하여 이벤트별 클립을 생성하고, 상기 생성된 이벤트 클립과 상기 추출한 하나 이상의 영상 데이터 및 상기 분석 결과 정보를 동기화하여 전달하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 전달하는 단계는, 상기 처리된 영상 데이터와 상기 분석 결과 정보를 매칭하여 영상 데이터 내에 포함된 객체에 대한 이벤트 발생 여부를 분석 및 판단하는 서버로 전달하되, 상기 서버를 통해 상기 이벤트 발생 여부의 분석 및 판단하고자 하는 영상 데이터의 수에 기초하여 상기 처리된 영상 데이터 중 상기 이벤트 발생 여부를 분석 및 판단할 영상 데이터의 수를 결정하고, 상기 결정된 영상 데이터의 수만큼 상기 처리된 영상 데이터에 대한 이벤트 발생 여부를 판단하여 상기 서버로 전달하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 전달하는 단계는, 상기 처리된 영상 데이터에 포함된 객체에 대한 이벤트 발생 여부를 분석함으로써 생성된 상기 이벤트 발생 여부 및 상기 발생된 이벤트의 속성을 상기 처리된 영상 데이터 및 상기 분석 결과 정보와 동기화하여 서버로 전달하되, 상기 서버로 데이터를 전달하는 속도가 기 설정된 속도 미만인 경우, 상기 서버로 데이터를 전달하는 속도가 상기 기 설정된 속도 이상이 되도록 상기 이벤트 발생 여부를 분석할 영상 데이터의 수를 결정하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 전달하는 단계는, 상기 처리된 영상 데이터에 포함된 객체에 대한 이벤트 발생 여부를 분석함으로써 생성된 상기 이벤트 발생 여부 및 상기 발생된 이벤트의 속성을 상기 처리된 영상 데이터 및 상기 분석 결과 정보 동기화하여 서버로 전달하되, 기 저장된 영상 데이터 전송량 및 서버 이용량에 따른 비용 데이터에 기초하여 상기 서버로 전달되는 데이터의 수 및 상기 서버에서 처리하는 데이터의 수에 따른 비용이 최소가 되도록 상기 이벤트 발생 여부를 분석할 영상 데이터의 수를 결정하는 단계를 포함할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 본 발명의 일 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법을 수행할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 컴퓨터프로그램은, 하드웨어인 컴퓨터와 결합되어, 본 발명의 일 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장될 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 다양한 실시예에 따르면, 기기간 호환성을 확보함으로써 기존 CCTV 인프라를 연계 활용할 수 있다.
또한, 사용 목적 및 환경이 변경됨에 따라 자유롭게 용도 변경이나 응용환경 적용이 가능하다는 이점이 있다.
또한, 클라우드 서비스를 활용함으로써, 시스템을 풀-세트로 구매할 필요 없이 시스템의 유지 보수 및 업그레이드 가능하다는 이점이 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템을 도시한 도면이다.
도 2는 본 발명의 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템을 도시한 도면이다.
도 3은 본 발명의 또 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 장치의 하드웨어 구성도이다.
도 4는 본 발명의 또 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법의 순서도이다.
도 5는 다양한 실시예에서, 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 장치에 의해 처리된 영상 데이터를 예시적으로 도시한 도면이다.
도 6은 다양한 실시예에서, 복수의 영상 데이터 중계 장치가 적용된 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템을 도시한 도면이다.
도 7은 다양한 실시예에서, 이벤트 발생 시 알람을 제공하는 구성을 예시적으로 도시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템은 영상 데이터 중계 장치(100), 복수의 카메라 모듈(200) 및 서버(300)를 포함할 수 있다.
여기서, 도 1에 도시된 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템은 일 실시예에 따른 것이고, 그 구성 요소가 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.
일 실시예에서, 영상 데이터 중계 장치(100)는 복수의 카메라 모듈(200)(예: 소정의 지역, 영역에 구비되는 CCTV 카메라) 각각이 촬영 동작을 수행함으로써 생성되는 복수의 영상 데이터를 수집할 수 있고, 수집한 복수의 영상 데이터를 처리하여 서버(300)로 제공하는 영상 데이터 중계 서비스를 제공할 수 있다.
이때, 영상 데이터 중계 장치(100)는 복수의 카메라 모듈(200)로부터 실시간 수집되는 실시간 스트리밍 영상 데이터에 대한 1차 분석을 수행하여 객체 탐지 및 분류(예: 사람, 동물, 차량 및 기타 사물 등)를 수행할 수 있고, 수행 결과에 따라 추출된 객체와 관련된 정보를 포함하는 메타 데이터를 생성할 수 있다. 예를 들어, 영상 데이터 중계 장치(100)는 제1 인공지능 모델을 이용하여 영상 데이터 분석함으로써, 객체와 관련된 정보를 추출할 수 있다. 그러나, 이에 한정되지 않는다.
여기서, 제1 인공지능 모델은 객체와 관련된 정보, 이미지 등 다양한 데이터를 학습데이터로써 기 학습한 인공지능 모델일 수 있으나, 이에 한정되지 않는다.
다양한 실시예에서, 영상 데이터 중계 장치(100)는 복수의 카메라 모듈(200)로부터 수집되는 복수의 영상 데이터를 서버(300)로 전송하되, 복수의 영상 데이터 각각에 대한 객체 인식 여부에 따라 복수의 영상 데이터를 필터링하여 복수의 영상 데이터 중 하나 이상의 영상 데이터(예: 객체가 인식된 영상 데이터)만을 선택적으로 서버(300)로 전송할 수 있다.
다양한 실시예에서, 영상 데이터 중계 장치(100)는 복수의 카메라 모듈(200)로부터 수집되는 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터를 2차 분석하여 객체가 인식되는 하나 이상의 영상 데이터에 대한 이벤트 및 모션을 감지할 수 있고, 이벤트와 관련된 정보(예: 이벤트 발생 여부, 발생된 이벤트의 속성 등)를 포함하는 하나 이상의 영상 데이터를 서버(300)로 전달할 수 있다. 예를 들어, 영상 데이터 중계 장치(100)는 제2 인공지능 모델을 이용하여 영상 데이터 분석함으로써, 객체가 인식되는 하나 이상의 영상 데이터에 대한 이벤트 및 모션을 감지할 수 있고, 이벤트별 클립을 생성할 수 있으며, 영상 데이터 및 메타 데이터와 동기화하여 서버(300)로 전송할 수 있다.
여기서, 제2 인공지능 모델은 객체와 관련된 정보 및 객체로부터 발생되는 이벤트와 관련된 정보를 학습 데이터로써 기 학습한 모델일 수 있으나, 이에 한정되지 않는다.
일 실시예에서, 서버(300)는 영상 데이터 중계 장치(100)로부터 복수의 영상 데이터(또는 영상 데이터 중계 장치(100)에 의해 처리된 영상 데이터)를 제공받아 저장 및 관리할 수 있다. 예를 들어, 서버(300)는 영상 데이터 중계 장치(100)로부터 제공된 이벤트별 클립과 메타 데이터를 인덱싱하여 저장할 수 있다. 그러나, 이에 한정되지 않는다.
다양한 실시예에서, 서버(300)는 중복 제거 기능을 수행할 수 있고, 중복 제거 기능을 통해 기 저장된 복수의 영상 데이터 중 영상 데이터 중계 장치(100)로부터 제공된 복수의 영상 데이터와 중복되는 영상 데이터가 있는지 여부를 판단할 수 있고, 판단 결과에 따라 중복되는 영상 데이터를 제거할 수 있다.
다양한 실시예에서, 서버(300)는 영상 데이터 중계 장치(100)로부터 객체가 인식된 하나 이상의 영상 데이터를 제공받을 수 있으나, 객체가 인식되지 않은 하나 이상의 영상 데이터에 대하여 객체 인식 기능을 수행함으로써, 영상 데이터 중계 장치(100)가 누락한 영상 데이터를 검출하는 긍정오류(False Positive)를 식별하는 기능을 수행할 수 있다.
다양한 실시예에서, 서버(300)는 영상 데이터 중계 장치(100)로부터 제공된 복수의 영상 데이터를 2차 분석하여, 복수의 영상 데이터에 대한 이벤트 및 모션을 감지할 수 있다. 예를 들어, 서버(300)는 제2 인공지능 모델을 이용하여 복수의 영상 데이터를 분석함으로써 복수의 영상 데이터에 대한 이벤트 및 모션을 감지할 수 있다.
이때, 서버(300)는 영상 데이터 중계 장치(100)로부터 이벤트 발생 여부가 판단된 영상 데이터를 수집하는 경우(예: 영상 데이터 중계 장치(200)로부터 2차 분석된 영상 데이터를 수집하는 경우), 별도의 2차 분석 동작을 수행하지 않을 수 있다. 그러나, 이에 한정되지 않고, 모니터링 감시 등급, 안전 등급 등 모니터링하는 사용자의 설정 값에 따라 영상 데이터 중계 장치(200)로부터 2차 분석된 영상 데이터를 수집하더라도 반복적으로 2차 분석을 수행하여 이벤트 발생 여부를 판단할 수 있다.
도 2는 본 발명의 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템을 도시한 도면이다.
도 2를 참조하면, 본 발명의 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템에서의 영상 데이터 중계 장치(100)는 네트워크 스위치(21)를 조작을 통해 기존 CCTV 관제 인프라에 포함된 복수의 카메라 모듈(200)로부터 복수의 영상 데이터를 제공받을 수 있고, 기 설정된 영상 데이터 처리 룰에 따라 복수의 영상 데이터를 처리(예: 실시간 스트리밍 영상에 대한 이미지 처리와 1차 분석)할 수 있고, 복수의 영상 데이터 각각을 분석함으로써 추출되는 분석 결과 정보를 포함하는 메타 데이터를 생성할 수 있으며, 이를 상위 클라우드 시스템인 서버(300)로 전송할 수 있다. 그러나, 이에 한정되지 않는다.
서버(300)는 영상 데이터 중계 장치(100)로부터 전송된 DD영상 데이터 및 메타 데이터를 분석 및 판정할 수 있다. 여기서, 서버(300)는 MS 또는 AWS의 인공지능을 기반으로 하며, 데이터 분석 및 판정의 정확도를 지속적으로 향상시키기 위하여 룰 변경이 가능하도록 설계될 수 있다.
또한, 서버(300)는 인터페이스 플랫폼(Interface Platform)(25)을 통해 복수의 영상을 실시간으로 감시 및 모니터링하는 근무자의 근무자 단말(24)에 복수의 영상 데이터, 객체와 관련된 정보 및 이벤트와 관련된 정보를 제공하는 사용자 인터페이스(User Interface, UI)를 제공할 수 있다. 이때, 서버(300)는 UI를 통해 사용자가 요청하는 조건에 맞도록 영상 데이터를 분류 및 편집(예: 특정 조건 및 행위 검색, 이벤트 데이터 저장 및 구조화)하여 제공할 수 있다.
여기서, 인터페이스 플랫폼(25)은 사용자용 애플리케이션과 이를 통해 얻을 수 있는 사용자 입력을 중계하여 서버(300)에 연결하는 API로 이루어진 플랫폼 영역일 수 있다.
또한, 서버(300)는 복수의 영상 데이터에 대한 이벤트 발생 여부를 판단하고, 이벤트가 발생되는 것으로 판단되는 경우, 해당 영상 데이터를 모니터링하는 근무자 단말(24) 또는 관제실의 모니터링 장치(23)로 안내를 제공할 수 있다. 예를 들어, 도 7에 도시된 바와 같이 서버(300)는 복수의 영상 데이터를 분석하여 이벤트 발생이 감지되는 경우, 인터페이스 플랫폼(25)을 통해 근무자 단말(24) 또는 관제실의 모니터링 장치(23)로 이벤트와 관련된 정보(예: 객체 정보, 이벤트 정보(예: 침입, 배회, 유기, 싸움, 방화 또는 이러한 이벤트가 발생될 것으로 예상되는 징후 등), 이동 경로 등)를 포함하는 알림 정보를 제공할 수 있다.
이후, 서버(300)는 이벤트가 발생된 것으로 판단되는 영상 데이터와 알림 정보간의 링크(예: 도 7의 "바로가기" 링크)를 제공할 수 있고, 근무자로부터 해당 링크를 선택하는 사용자 입력을 얻는 경우, UI를 통해 이벤트가 발생된 것으로 판단되는 영상 데이터와 이벤트에 관련된 각종 정보를 출력할 수 있다.
이때, 서버(300)는 근무자로부터 기 설정된 알림 조건에 따라 검출된 이벤트가 알림 조건에 만족하는지 여부를 판단하고, 알림 조건에 맞는 것으로 판단되는 이벤트에 대해서만 알림 정보를 제공할 수 있다.
DVR/NVR(22)은 기존 CCTV 관제 인프라로부터 생성된 복수의 영상 데이터를 DVR/NVR(22)에 임시 저장 및 관리할 수 있고, 저장된 복수의 영상 데이터를 영상 데이터 모니터링 관제실(예: CCTV 관제실) 서버로 제공하여 CCTV 관제실에 구비되는 모니터링 장치(23)(예: 대시보드)에 복수의 영상 데이터 원본이 출력되도록 할 수 있다. 이하, 도 3을 참조하여, 본 발명의 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.
도 3은 본 발명의 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 장치의 하드웨어 구성도이다.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 영상 데이터 중계 장치(100)(이하, "컴퓨팅 장치(100)")는 프로세서(110) 및 메모리(120)를 포함할 수 있다. 다양한 실시예에서, 컴퓨팅 장치(100)는 네트워크 인터페이스(또는 통신 인터페이스)(미도시), 스토리지(미도시), 버스(bus)(미도시)를 더 포함할 수 있다.
일 실시예에서, 프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어할 수 있다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.
다양한 실시예에서, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 다양한 실시예에서, 프로세서(110)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예: 버스(bus) 등)를 포함할 수 있다.
다양한 실시예에서, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
일 실시예에서, 프로세서(110)는 메모리(120)에 저장된 하나 이상의 인스트럭션(instruction)을 실행함으로써, 도 4와 관련하여 설명될 방법(예: 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법)을 수행할 수 있다.
예를 들어, 프로세서(110)는 메모리(120)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 복수의 영상 데이터를 수집하는 단계, 기 설정된 영상 데이터 처리 룰에 따라 복수의 영상 데이터를 처리하는 단계 및 처리된 영상 데이터와 처리된 영상 데이터를 분석함으로써 생성되는 분석 결과 정보를 전달하는 단계를 포함하는 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법을 수행할 수 있다. 그러나, 이에 한정되지 않는다.
일 실시예에서, 메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장할 수 있다. 메모리(120)에는 프로세서(110)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(120)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
다양한 실시예에서, 본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 이하, 도 4을 참조하여, 컴퓨팅 장치(100)가 수행하는 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법에 대하여 설명하도록 한다.
도 4는 본 발명의 또 다른 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법의 순서도이다.
도 4를 참조하면, S110 단계에서, 컴퓨팅 장치(100)는 소정의 지역에 구비되는 복수의 카메라 모듈(200)로부터 복수의 영상 데이터를 수집할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 사용자로부터 영상 데이터 수집 요청을 입력받는 것에 응답하여 복수의 카메라 모듈(200)로부터 복수의 영상 데이터를 수집하는 방식, 기 설정된 단위 시간마다 복수의 카메라 모듈(200)로부터 복수의 영상 데이터를 수집하는 방식 중 어느 하나의 방식에 따라 복수의 영상 데이터를 수집할 수 있다. 그러나, 이에 한정되지 않는다.
여기서, 복수의 카메라 모듈(200)은 기존 CCTV 인프라에 기 설치되어 있던 CCTV 카메라일 수 있으나, 이에 한정되지 않는다.
여기서, 컴퓨팅 장치(100)는 소정의 지역에 구비되는 복수의 카메라 모듈(200)로부터 복수의 영상 데이터를 수집하는 것으로 설명하고 있으나, 이는 하나의 예시이며, 소정의 지역에 구비되는 사운드 모듈로부터 복수의 음성 데이터를 수집하거나, 소정의 지역에 구비되는 IoT 센서 모듈로부터 복수의 센서 데이터를 수집할 수 있다.
S120 단계에서, 컴퓨팅 장치(100)는 S110 단계에서 수집한 복수의 영상 데이터를 처리할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 기 설정된 영상 데이터 처리 룰에 따라 복수의 영상 데이터를 처리할 수 있다.
여기서, 영상 데이터 처리는 복수의 영상 데이터 중 불필요한 영상 데이터를 필터링하고, 필요한 영상 데이터를 분석하여 유의미한 정보(예: 객체 인식 정보 및 이벤트 정보 등)를 추출하는 과정일 수 있으나, 이에 한정되지 않는다.
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 영상 데이터를 1차 분석하여 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터를 추출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 객체와 관련된 정보, 이미지 등 다양한 데이터를 학습데이터로써 기 학습한 제1 인공지능 모델(예: 객체 인식 모델)을 이용하여 복수의 영상 데이터 각각을 분석함으로써, 복수의 영상 데이터 중 객체가 인식되는 영상 데이터를 선별할 수 있다.
이후, 컴퓨팅 장치(100)는 추출된 하나 이상의 영상 데이터에 포함된 객체의 속성을 분석하여 분석된 객체의 속성에 대한 정보를 가리키는 분석 결과 정보를 포함하는 메타 데이터를 생성할 수 있다.
예를 들어, 도 5에 도시된 바와 같이 컴퓨팅 장치(100)는 객체가 인식된 원본의 영상 데이터를 분석하여 영상 데이터 내에 포함된 객체의 움직임이나 형태와 같은 속성(예: 객체의 종류, 수, 객체가 가지는 특징, 움직임 등)을 감지할 수 있다. 또한, 컴퓨팅 장치(100)는 감지한 객체의 속성을 가리키는 메타 데이터를 생성할 수 있다. 그러나, 이에 한정되지 않는다.
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 영상 데이터에 대한 1차 분석 결과(예: 객체 인식 결과)에 따라 복수의 영상 데이터를 가공할 수 있다.
일례로, 컴퓨팅 장치(100)는 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터 각각을 분할하여 복수의 단위 영상 데이터를 생성하고, 복수의 단위 영상 데이터 중 객체를 포함하는 영역에 대응되는 하나 이상의 단위 영상 데이터를 선택할 수 있다.
이후, 컴퓨팅 장치(100)는 객체를 포함하는 영역에 대응되는 하나 이상의 단위 영상 데이터만을 잘라 객체 영상 데이터(객체를 포함하지 않는 영역에 대응되는 단위 영상 데이터가 삭제된 형태)를 생성할 수 있다.
다른 예로, 컴퓨팅 장치(100)는 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터 각각을 분할하여 복수의 단위 영상 데이터를 생성하고, 복수의 단위 영상 데이터 중 객체를 포함하지 않는 영역에 대응되는 하나 이상의 단위 영상 데이터를 선택할 수 있다.
이후, 컴퓨팅 장치(100)는 하나 이상의 영상 데이터 각각에 대하여 객체를 포함하지 않는 영역에 대응되는 하나 이상의 단위 영상 데이터를 영상 데이터의 용량이 낮아지는 방향으로 보정(예: 해상도를 격하, 무채색으로 화면 구성, 프레임 수 조절 등)할 수 있다
예를 들어, 컴퓨팅 장치(100)는 영상 데이터의 중요도에 따라 프레임 수를 조절할 수 있다. 예로, 객체가 인식된 부분의 영상은 해당 객체의 움직임을 판단하기 위하여 프레임 수를 줄이지 않거나, 상대적으로 많은 프레임을 서버로 전달할 수 있다. 반면, 객체가 인식되지 않는 것으로 확인된 부분의 영상은 프레임 수를 상대적으로 크게 줄여서 서버로 전달할 수 있다.
일 실시 예에서, 서버는 컴퓨팅 장치(100)로부터 전달된 영상에 대한 객체인식을 다시 수행할 수 있다. 해당 과정에서, 컴퓨팅 장치(100)가 인식하지 못한 객체 혹은 컴퓨팅 장치(100)에 저장된 인공지능 모델은 인식하지 않는 다른 종류의 객체(예를 들어, 컴퓨팅 장치(100)에는 사람을 인식하는 모델은 있으나, 동물이나 특정 사물을 인식하는 모델은 탑재되지 않을 수 있다)가 인식되는 경우, 컴퓨팅 장치(100)에 객체가 인식된 프레임 전후의 소정 시간범위의 영상을 다시 전송(예: 더 많은 프레임이나 높은 해상도 등으로)하도록 요청할 수도 있다.
일 실시 예에서, 컴퓨팅 장치(100)는 인식된 객체의 움직임에 따라 서버(300)로 전송되는 프레임 수를 조절할 수도 있다. 예를 들어, 컴퓨팅 장치(100)는 프레임 간 변화가 클수록 더 많은 프레임 수를 서버(300)로 전송할 수 있으나, 이에 제한되는 것은 아니다.
일 실시 예에서, 컴퓨팅 장치(100)는 전송되는 프레임의 간격에 기반하여 서버(300)로 소정의 정보를 전달할 수 있다. 예를 들어, 생략되는 프레임의 수에 기반한 코드 정보가 서버(300)로 전달될 수 있으며, 이를 통해 전송되는 데이터의 양을 줄일 수 있다. 구체적인 예로, 영상에서 프레임이 5프레임 간격으로 샘플링된 경우 인식된 객체가 없는 것으로, 프레임이 3프레임 간격으로 샘플링된 경우 상대적으로 중요성이 낮은 객체가 인식된 것으로, 프레임이 1프레임 간격으로 샘플링된 경우 상대적으로 중요성이 높은 객체가 인식된 것으로 하여, 서버는 전송된 프레임 넘버의 간격만으로 해당 프레임들에 포함된 객체의 종류를 판단할 수 있으나, 이에 제한되는 것은 아니다. 또한, 여러 프레임들의 간격에 기반하여 더 많은 정보가 전달될 수도 있다. 예를 들어, 3번 연속 1프레임 간격으로 샘플링된 영상이 수신되는 경우 서버(300)는 이를 헤더로 판단하고, 이후 전달되는 영상의 프레임 간격에 기반한 정보를 획득할 수 있다. 예를 들어, 헤더 이후에 3프레임 간격, 2프레임 간격, 5프레임 간격으로 샘플링된 프레임들이 각각 수신되는 경우 325에 대응하는 코드의 객체가 해당 영상에 포함된 것으로 판단할 수 있다. 이를 위한 코드 테이블은 사전에 서버와 컴퓨팅 장치 간 공유될 수 있다.
즉, 컴퓨팅 장치(100)는 복수의 영상 데이터를 서버(300)로 전달하기 위한 형태로 처리하여 전달하되, 객체가 인식되는 부분만을 추출하거나 객체가 인식되지 않는 부분의 해상도를 보정하여 전달하고자 하는 영상 데이터량을 최대한 줄임으로써, 서버(300)에서의 데이터 처리량과 서버(300)로 제공되는 데이터량 및 비용적인 문제 등을 완화시킬 수 있다.
S130 단계에서, 컴퓨팅 장치(100)는 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터에 대한 이벤트 발생 여부를 판단할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 S120 단계를 거쳐 추출된 하나 이상의 영상 데이터(예: 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터) 각각을 2차 분석하여 영상 데이터 내에 포함된 객체의 이벤트 발생 여부를 판단할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 객체에 대한 데이터 및 객체의 이벤트 발생과 관련된 데이터를 학습 데이터로써 기 학습한 제2 인공지능 모델(예: 이벤트 분석 모델)을 이용하여 하나 이상의 영상 데이터로부터 이벤트 발생 여부를 판단하고, 발생된 이벤트와 관련된 각종 정보를 추출할 수 있다. 그러나, 이에 한정되지 않는다.
다양한 실시예에서, 컴퓨팅 장치(100)는 서버(300)로부터 이벤트 발생 여부 판단 동작을 수행할 것을 가리키는 제어명령을 수신하는 경우, 제어명령에 응답하여 이벤트 발생 여부 판단 동작을 수행함으로써, 복수의 영상 데이터 중 객체가 인식된 하나 이상의 영상 데이터에 대한 이벤트 발생 여부를 판단할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 기 설정된 조건에 따라 복수의 영상 데이터 중 객체가 인식된 하나 이상의 영상 데이터에 대한 이벤트 발생 여부의 판단을 결정하거나, 이벤트 발생 여부의 판단 대상이 되는 영상 데이터의 수를 결정할 수 있다.
먼저, 컴퓨팅 장치(100)는 서버(300)(예: 이벤트 발생 여부를 감지 및 판단하는 역할을 수행하는 서버)를 통해 이벤트 발생 여부의 분석 및 판단하고자 하는 영상 데이터의 수에 기초하여 복수의 영상 데이터 중 이벤트 발생 여부를 분석 및 판단할 영상 데이터의 수를 결정하고, 결정된 영상 데이터의 수만큼 영상 데이터에 대한 이벤트 발생 여부를 판단할 수 있다.
예를 들어, 컴퓨팅 장치(100)는 서버(300)로 제공되는 영상 데이터량이 기준 데이터량 미만인 경우 즉, 서버(300)로 제공되는 영상 데이터량이 적어 서버(300)에서 수행하는 이벤트 발생 여부 판단 동작만으로 영상 데이터에 대한 이벤트 발생 여부를 판단하는 것이 충분한 것으로 판단되는 경우, 1차 분석(예: 객체 인식)된 영상 데이터에 대하여 2차 분석(예: 이벤트 발생 여부 판단)하지 않고(이벤트 발생 여부를 분석 및 판단할 영상 데이터의 수를 0으로 결정), 복수의 영상 데이터 중 객체를 인식하는 동작만을 수행하여 서버(300)로 제공할 수 있다.
한편, 컴퓨팅 장치(100)는 서버(300)로 제공되는 영상 데이터량이 기준 데이터량을 초과하는 경우, 객체가 인식된 하나 이상의 영상 데이터 중 일부의 영상 데이터에 대하여 이벤트 발생 여부를 판단하는 동작을 수행할 수 있다.
이때, 컴퓨팅 장치(100)는 서버(300)로 제공되는 영상 데이터 수와 기준 간의 차이값 즉, 전송되는 영상 데이터 중 기준 데이터량을 초과하는 수를 이벤트 발생 여부를 분석 및 판단할 영상 데이터의 수로 결정할 수 있다. 그러나, 이에 한정되지 않는다.
다음으로, 컴퓨팅 장치(100)는 복수의 영상 데이터 또는 복수의 영상 데이터 중 객체가 인식된 하나 이상의 영상 데이터를 서버(300)로 전달하는 속도와 기 설정된 속도 간의 차이에 따라 이벤트 발생 여부를 분석 및 판단할 영상 데이터의 수를 결정할 수 있다.
예를 들어, 컴퓨팅 장치(100)는 서버(300)로 데이터를 전달하는 속도가 기 설정된 속도 이상인 경우, 복수의 영상 데이터 또는 복수의 영상 데이터 중 객체가 인식된 하나 이상의 영상 데이터에 대한 이벤트 발생 여부를 분석 및 판단할 수 있다.
이때, 컴퓨팅 장치(100)는 서버(300)로 데이터를 전달하는 속도가 기 설정된 속도 이상이 되는 범위 내에 포함되도록 이벤트 발생 여부를 분석 및 판단할 영상 데이터의 수를 결정(최대값)할 수 있고, 결정된 영상 데이터의 수만큼 영상 데이터에 대한 이벤트 발생 여부를 판단할 수 있다.
한편, 컴퓨팅 장치(100)는 서버(300)로 데이터를 전달하는 속도가 기 설정된 속도 미만인 경우, 복수의 영상 데이터 또는 복수의 영상 데이터 중 객체가 인식된 하나 이상의 영상 데이터에 대한 이벤트 발생 여부를 분석 및 판단하는 동작을 수행하지 않거나, 서버(300)로 데이터를 전달하는 속도가 상기 기 설정된 속도 이상이 되도록 이벤트 발생 여부를 분석할 영상 데이터의 수를 결정할 수 있고, 결정된 영상 데이터의 수만큼 영상 데이터에 대한 이벤트 발생 여부를 판단할 수 있다.
다음으로, 컴퓨팅 장치(100)는 기 저장된 영상 데이터 전송량 및 서버 이용량에 따른 비용 데이터에 기초하여 이벤트 발생 여부를 분석 및 판단할 영상 데이터의 수를 결정할 수 있다.
일반적으로 데이터 전송량 및 서버 이용량에 따라 통신 비용과 서버 이용료가 증가하거나 감소할 수 있다. 특히, 클라우드 서버를 이용하는 경우, 클라우드 사용 비용이 상당하기 때문에, 비용 절감을 위하여 서버로 전송하여 처리하는 데이터량을 조절할 필요성이 있다.
즉, 컴퓨팅 장치(100)는 기 저장된 영상 데이터 전송량 및 서버 이용량에 따른 비용 데이터에 기초하여 서버(300)로 전달되는 데이터의 수 및 서버(300)에서 처리하는 데이터의 수에 따른 비용이 최소가 되도록 이벤트 발생 여부를 분석할 영상 데이터의 수를 결정할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 컴퓨팅 장치(100)의 성능에 따라 사전에 설정된 데이터 처리량(예: 컴퓨팅 장치(100)의 역량(컴퓨팅 파워), 초기 도입비용, 설치 및 유지관리비용 등 실질적인 문제에 의하여 초기에 조정된 값)에 기초하여 이벤트 발생 여부를 분석할 영상 데이터의 수를 결정할 수 있다. 그러나, 이에 한정되지 않고, 컴퓨팅 장치(100)가 복수의 영상 데이터에 대한 이벤트 발생 여부 동작을 수행할 것을 결정하거나 이벤트 발생 여부를 판단할 영상 데이터의 수를 결정하는 어떠한 방법이든 적용이 가능하다.
본 발명의 다양한 실시예에서, 컴퓨팅 장치(100)와 서버(300)는 복수의 영상 데이터를 분석하여 이벤트 발생 여부를 판단하되, 컴퓨팅 장치(100)를 통해 비교적 간단한 이벤트에 대한 분석(예: 사람이 넘어지는 이벤트)을 수행하도록 하고, 서버(300)를 통해 상대적으로 복잡한 이벤트에 대한 분석을 수행하도록 설정될 수 있다.
또한, 서로 다른 종류의 복수의 이벤트에 대하여, 컴퓨팅 장치(100)와 서버(300)가 서로 다른 종류의 이벤트를 감지하도록 설정할 수 있다. 이를 위해, 컴퓨팅 장치(100)와 서버(300)는 이벤트 감지라는 동일한 기능을 수행하되, 서로 다른 종류의 이벤트에 대한 정보를 학습 데이터로써 기 학습된 서로 다른 인공지능 모델을 이용할 수 있다.
또한, 컴퓨팅 장치(100)와 서버(300)가 동일한 대상에 대하여 반복적으로 이벤트에 대한 분석을 수행하도록 설정될 수 있다.
또한, 컴퓨팅 장치(100)가 복수의 영상 데이터 중 어느 하나 이상의 영상 데이터에 대한 이벤트 분석을 수행하도록 하고, 서버(300)가 컴퓨팅 장치(100)를 통해 이벤트 분석되지 않은 남은 영상 데이터에 대한 이벤트 분석을 수행하도록 설정될 수 있다.
또한, 컴퓨팅 장치(100)가 복수의 영상 데이터 중 객체가 인식된 하나 이상의 영상 데이터에 대한 이벤트 분석을 수행하고, 서버(300)가 컴퓨팅 장치(100)를 통해 이벤트 분석된 영상 데이터를 반복적으로 이벤트 분석하여 이벤트 분석 결과에 대한 검증을 수행하도록 설정될 수 있다. 그러나, 이에 한정되지 않고, 컴퓨팅 장치(100)와 서버(300)가 이벤트 발생 여부를 판단하는 기능을 수행하는 다양한 방법이 적용될 수 있다.
즉, 본 발명의 다양한 실시예에서는 컴퓨팅 장치(100)와 서버(300)의 데이터 처리량의 균형을 유지함으로써, 데이터 처리 속도, 비용 등을 최적화시킬 수 있다.
S140 단계에서, 컴퓨팅 장치(100)는 S120 및 S130 단계를 거쳐 처리된 영상 데이터와 처리된 영상 데이터를 분석함으로써 생성되는 분석 결과 정보를 서버(300)로 전달할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 영상 데이터 중 객체가 인식된 하나 이상의 영상 데이터와 해당 영상 데이터로부터 추출된 객체와 관련된 정보를 가리키는 메타 데이터를 함께 서버(300)로 전달할 수 있다.
또한, 컴퓨팅 장치(100)는 S120 단계를 거쳐 복수의 영상 데이터 각각이 가공된 경우(예: 객체가 인식된 단위 영상 데이터만이 추출되거나 객체가 인식되지 않은 단위 영상 데이터의 해상도가 조절된 형태), 가공된 영상 데이터를 서버(300)로 전달할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 서버(300)에 의한 요청 또는 기 설정된 조건에 따라 전체의 영상 데이터 또는 일부의 영상 데이터에 대하여 이벤트 발생 여부를 판단한 경우, 객체의 이벤트가 발생한 것에 응답하여 이벤트별 클립을 생성하고, 생성된 이벤트 클립과 영상 데이터 및 분석 결과 정보(메타 데이터)를 시간에 따라 동기화(예: 타임스탬프)하여 서버(300)로 전달할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 내부에 구비되는 임시 저장 장치(예: DVR)에 복수의 영상 데이터, 객체가 인식된 하나 이상의 영상 데이터, 메타 데이터 및 이벤트와 관련된 데이터를 저장할 수 있고, 서버(300)로부터 영상 데이터 제공 요청을 받는 것에 응답하여, 기 저장된 영상 데이터와 각종 자료를 전송할 수 있다.
전술한 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법은 도면에 도시된 순서도를 참조하여 설명하였다. 간단한 설명을 위해 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법은 일련의 블록들로 도시하여 설명하였으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 본 명세서에 도시되고 시술된 것과 상이한 순서로 수행되거나 또는 동시에 수행될 수 있다. 또한, 본 명세서 및 도면에 기재되지 않은 새로운 블록이 추가되거나, 일부 블록이 삭제 또는 변경된 상태로 수행될 수 있다.
본 발명의 일 실시예에 따른 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법에서는 기존 CCTV 관제 인프라에서의 복수의 카메라 모듈(200)로부터 영상 데이터를 수집하고, 이를 기 설정된 영상 데이터 처리 룰에 따라 처리하는 것을 기준으로 설명하였으나, 이에 한정되지 않고, 복수의 스피커(사운드) 모듈로부터 수집된 음성 형태의 데이터를 기 설정된 음성 데이터 처리 룰에 따라 처리하거나 복수의 IoT 기반의 센서들로부터 센싱된 센서 데이터를 수집하여 기 설정된 센서 데이터 처리 룰에 따라 처리할 수 있다. 이하, 도 6을 참조하여, 복수의 영상 데이터 중계 장치(100)가 적용된 형태에 대하여 설명하도록 한다.
도 6은 다양한 실시예에서, 복수의 영상 데이터 중계 장치가 적용된 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 시스템을 도시한 도면이다.
도 6을 참조하면, 본 발명의 다양한 실시예에 따른 영상 데이터 중계 시스템은 복수의 영상 데이터 중계 장치(100-1 내지 100-N)을 포함할 수 있다.
영상 데이터 중계 장치(100)는 일정 규모(예: 하나의 공장 및 건물 단위)의 CCTV 시스템을 총괄 제어하는 기능을 수행할 수 있는 바, 소정의 지역을 일정 규모의 영역으로 분할하고, 분할된 각각의 영역에 대한 CCTV 시스템을 제어하기 위하여 복수의 영상 데이터 중계 장치(100-1 내지 100-N)를 포함할 수 있다.
복수의 영상 데이터 중계 장치(100-1 내지 100-N) 각각은 제1 인공지능 모델(예: Darknet 기반의 객체 인식 모델) 및 제2 인공지능 모델 등(예: 모션 감지 등과 같은 이벤트 감지 모델)을 포함하는 다양한 인공지능 모델이 탑재될 수 있다.
이를 통해 복수의 영상 데이터 중계 장치(100-1 내지 100-N) 각각은 자체적으로 복수의 영상 데이터에 대한 1차 분석(예: 객체 인식)을 수행하거나 2차 분석(예: 이벤트 감지)을 수행할 수 있고, 이를 통해 추출된 결과 데이터를 정제 및 선별하여 서버(300)로 전송할 수 있다.
이때, 복수의 영상 데이터 중계 장치(100-1 내지 100-N) 각각은 설치 환경이나 사용자 및 관리자의 요청, 안전등급등 다양한 요소를 고려하여 최적의 기능을 수행할 수 있도록 서로 다른 기능을 수행하는 복수의 인공지능 모델 중 하나 이상의 인공지능 모델을 선택적으로 탑재할 수 있다.
또한, 복수의 영상 데이터 중계 장치(100-1 내지 100-N) 각각은 처리해야할 데이터량에 기초하여 동일한 인공지능 모델을 복수 개 탑재할 수 있다.
즉, 복수의 영상 데이터 중계 장치(100-1 내지 100-N)는 설치환경이나 상황에 따라 수행하는 역할 및 기능에 차이가 있을 수 있고, 수행하고자 하는 기능에 따라 서로 다른 인공지능 모델이 탑재될 수 있다.
예를 들어, 복수의 영상 데이터 중계 장치(100-1 내지 100-N) 중 제1 영상 데이터 중계 장치(100-1)는 제1 인공지능 모델만을 탑재하여 영상 데이터에 대한 객체 인식 기능만 수행할 수 있고, 제2 영상 데이터 중계 장치(100-2)는 제1 인공지능 모델 및 제2 인공지능 모델을 모두 탑재하여 영상 데이터에 대한 객체 인식 기능과 이벤트 발생 여부 판단 기능을 모두 수행할 수 있다. 그러나, 이에 한정되지 않고, 복수의 영상 데이터 중계 장치(100-1 내지 100-N) 각각에 서로 다른 기능을 수행하는 복수의 인공지능 모델이 모두 탑재될 수 있고, 설치환경이나 상황에 따라 이용하고자 하는 인공지능 모델만을 선택적으로 이용하는 방법 등 다양한 방법이 적용될 수 있다.
다양한 실시예에서, 복수의 영상 데이터 중계 장치(100-1 내지 100-N) 각각은 임베디드 리눅스 운영체제 및 GPU 프로그래밍(예: CUDA, OpenCL)을 기반으로, IP 카메라와 연동될 수 있는 RTSP(Real-Time Streaming Protocol) 서버일 수 있다.
서버(300)는 영상 데이터 스트리밍 서버 및 클라우드 서버일 수 있고, 영상 데이터 클립과 메타 데이터를 인덱싱 및 저장할 수 있다.
또한, 서버(300)는 복수의 영상 데이터를 모니터링하는 모니터링 서비스를 제공할 수 있고, 모니터링 서비스를 제공받는 사용자 및 장치에 대한 계정과 권한을 관리할 수 있다.
또한, 서버(300)는 인공지능 모델을 이용한 영상 데이터 분석을 위해 빅데이터를 수집할 수 있다.
서버(300)는 웹(Web) 기반의 관제 솔루션을 제공하는 애플리케이션(32)을 제공할 수 있다. 예를 들어, 서버(300)는 애플리케이션(32)을 통해 빌딩 관제 센터 서버(33)로 WEB/APP 서비스를 제공하여 단말을 통한 모니터링, 알림 및 제어 솔루션을 제공할 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100 : 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 장치(또는 컴퓨팅 장치)
200 : 카메라 모듈
300 : 서버

Claims (3)

  1. 컴퓨팅 장치에 의해 수행되는 방법에 있어서,
    복수의 영상 데이터를 수집하는 단계;
    기 설정된 영상 데이터 처리 룰에 따라 상기 복수의 영상 데이터를 처리하는 단계; 및
    상기 처리된 영상 데이터와 상기 처리된 영상 데이터를 분석함으로써 생성되는 분석 결과 정보를 전달하는 단계를 포함하며,
    상기 처리하는 단계는,
    상기 복수의 영상 데이터를 분석하여 상기 복수의 영상 데이터 중 객체가 인식되는 하나 이상의 영상 데이터를 추출하는 단계; 및
    상기 추출된 하나 이상의 영상 데이터에 포함된 상기 객체의 속성을 분석하여 상기 분석된 객체의 속성에 대한 정보를 가리키는 분석 결과 정보를 포함하는 메타 데이터를 생성하는 단계를 포함하고,
    상기 전달하는 단계는,
    상기 추출된 하나 이상의 영상 데이터와 상기 메타 데이터를 전송하되, 상기 추출된 하나 이상의 영상 데이터의 프레임 간격을 조절하여 소정의 정보를 전송하는 단계를 포함하며,
    상기 소정의 정보를 전송하는 단계는,
    제1 객체가 인식된 제1 영상 프레임의 프레임 간격이 상기 제1 객체보다 상대적으로 중요도가 낮은 제2 객체가 인식된 제2 영상 프레임의 프레임 간격보다 큰 값을 가지도록 샘플링하는 단계를 포함하고,
    상기 처리하는 단계는,
    상기 추출한 하나 이상의 영상 데이터를 분석하여 상기 객체의 이벤트 발생 여부를 판단하는 단계를 포함하며,
    상기 전달하는 단계는,
    상기 객체의 이벤트가 발생한 것에 응답하여 이벤트별 클립을 생성하고, 상기 생성된 이벤트 클립과 상기 추출한 하나 이상의 영상 데이터 및 상기 분석 결과 정보를 동기화하여 전달하는 단계를 포함하는,
    인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법.
  2. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    제1 항의 방법을 수행하는, 장치.
  3. 하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
KR1020210124205A 2020-06-26 2021-09-16 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램 KR102315699B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210124205A KR102315699B1 (ko) 2020-06-26 2021-09-16 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200078213A KR102305861B1 (ko) 2020-06-26 2020-06-26 인공지능을 이용한 영상 데이터 중계 방법, 장치 및 컴퓨터프로그램
KR1020210124205A KR102315699B1 (ko) 2020-06-26 2021-09-16 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200078213A Division KR102305861B1 (ko) 2020-06-26 2020-06-26 인공지능을 이용한 영상 데이터 중계 방법, 장치 및 컴퓨터프로그램

Publications (1)

Publication Number Publication Date
KR102315699B1 true KR102315699B1 (ko) 2021-10-21

Family

ID=77923011

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200078213A KR102305861B1 (ko) 2020-06-26 2020-06-26 인공지능을 이용한 영상 데이터 중계 방법, 장치 및 컴퓨터프로그램
KR1020210124204A KR102315698B1 (ko) 2020-06-26 2021-09-16 인공지능을 이용한 영상 데이터 샘플링 방법, 장치 및 컴퓨터프로그램
KR1020210124205A KR102315699B1 (ko) 2020-06-26 2021-09-16 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020200078213A KR102305861B1 (ko) 2020-06-26 2020-06-26 인공지능을 이용한 영상 데이터 중계 방법, 장치 및 컴퓨터프로그램
KR1020210124204A KR102315698B1 (ko) 2020-06-26 2021-09-16 인공지능을 이용한 영상 데이터 샘플링 방법, 장치 및 컴퓨터프로그램

Country Status (1)

Country Link
KR (3) KR102305861B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230085311A (ko) * 2021-12-07 2023-06-14 한국전자기술연구원 컴퓨터와 사람의 협업을 통한 동영상 반자동 편집을 위한 인공지능 기반 동영상 편집 추천 방법
KR102633147B1 (ko) * 2023-11-03 2024-02-02 주식회사 이투온 에지-클라우드 플랫폼 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230056482A (ko) * 2021-10-20 2023-04-27 한화비전 주식회사 영상 압축 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253742A (ja) * 2008-04-08 2009-10-29 Fujifilm Corp 画像処理システム、画像処理方法、およびプログラム
KR20110060342A (ko) 2009-11-30 2011-06-08 에스케이 텔레콤주식회사 위치기반 서비스를 이용한 cctv 카메라 장치와 안전관제 센터 서버, 그를 포함한 지능형 보안 시스템 및 그 방법
KR101178886B1 (ko) * 2012-04-09 2012-09-03 브이씨에이 테크놀러지 엘티디 고해상도 디지털 ptz 카메라, 이를 포함하는 감시 시스템 및 고해상도 디지털 ptz 카메라의 데이터 전송 방법
KR102119721B1 (ko) * 2019-10-23 2020-06-05 주식회사 넥스트케이 지능형 에지장치 및 그 장치의 구동방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253742A (ja) * 2008-04-08 2009-10-29 Fujifilm Corp 画像処理システム、画像処理方法、およびプログラム
KR20110060342A (ko) 2009-11-30 2011-06-08 에스케이 텔레콤주식회사 위치기반 서비스를 이용한 cctv 카메라 장치와 안전관제 센터 서버, 그를 포함한 지능형 보안 시스템 및 그 방법
KR101178886B1 (ko) * 2012-04-09 2012-09-03 브이씨에이 테크놀러지 엘티디 고해상도 디지털 ptz 카메라, 이를 포함하는 감시 시스템 및 고해상도 디지털 ptz 카메라의 데이터 전송 방법
KR102119721B1 (ko) * 2019-10-23 2020-06-05 주식회사 넥스트케이 지능형 에지장치 및 그 장치의 구동방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230085311A (ko) * 2021-12-07 2023-06-14 한국전자기술연구원 컴퓨터와 사람의 협업을 통한 동영상 반자동 편집을 위한 인공지능 기반 동영상 편집 추천 방법
WO2023106554A1 (ko) * 2021-12-07 2023-06-15 한국전자기술연구원 컴퓨터와 사람의 협업을 통한 동영상 반자동 편집을 위한 인공지능 기반 동영상 편집 추천 방법
KR102553519B1 (ko) * 2021-12-07 2023-07-10 한국전자기술연구원 컴퓨터와 사람의 협업을 통한 동영상 반자동 편집을 위한 인공지능 기반 동영상 편집 추천 방법
KR102633147B1 (ko) * 2023-11-03 2024-02-02 주식회사 이투온 에지-클라우드 플랫폼 시스템
KR102641534B1 (ko) * 2023-11-03 2024-02-27 주식회사 이투온 클라우드-에지 통합 플랫폼 시스템
KR102641536B1 (ko) * 2023-11-03 2024-02-27 주식회사 이투온 클라우드-에지 플랫폼
KR102643330B1 (ko) * 2023-11-03 2024-03-05 주식회사 이투온 에지 네트워크 클라우드 시스템

Also Published As

Publication number Publication date
KR102305861B1 (ko) 2021-09-28
KR102315698B1 (ko) 2021-10-21

Similar Documents

Publication Publication Date Title
KR102315699B1 (ko) 인공지능을 이용한 영상 데이터의 이벤트 발생 여부 판단 방법, 장치 및 컴퓨터프로그램
KR102414902B1 (ko) 카메라 설치 환경 및 목적에 따른 영상 데이터 분석을 위한 추천 인공지능 모델 제공방법
US11800063B2 (en) Camera listing based on comparison of imaging range coverage information to event-related data generated based on captured image
EP2688296B1 (en) Video monitoring system and method
CN109495533B (zh) 一种智能物联网管理系统及方法
US10192414B2 (en) System and method for overlap detection in surveillance camera network
CN108234171B (zh) 一种数据处理方法、系统以及装置
KR20220000493A (ko) 인공지능 모듈 플랫폼 서비스 제공 방법
KR20220000492A (ko) 인공지능을 이용한 cctv 영상 데이터 중계 방법
WO2015093687A1 (ko) 데이터 처리 시스템
KR20110038208A (ko) 스마트센서시스템에서 상황인지 기반 정보처리 방법
CN111988397A (zh) 一种基于边缘计算的防震减灾救灾方法和系统
KR102081577B1 (ko) Cctv를 활용한 지능형 화재 감지 시스템
KR20130047439A (ko) 정보 수집 장치 및 그 방법
CN106793155B (zh) 网络通道选择方法、装置及终端
JP2019087114A (ja) ロボット制御システム
CN113111215A (zh) 一种用户行为分析方法、装置、电子设备和存储介质
KR101679849B1 (ko) 이동 단말기를 이용한 자동 경보 방법 및 시스템
CN114765659B (zh) 扩展智能相机人脸检测范围的方法、装置、设备和介质
US20230188682A1 (en) System and method for tracking a region of interest
JP6091211B2 (ja) 撮像装置及び制御方法
CN114202738A (zh) 基于边缘计算和人工智能的电网监拍方法、装置及设备
JP6919778B2 (ja) 定置型録画装置及びその制御方法並びにコンピュータプログラム
KR20230030962A (ko) 폭행 상황 감지 방법 및 장치
CN117437565A (zh) 视频数据处理方法、装置、存储介质、设备及产品

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant