KR102110375B1 - 학습 전이 기반의 비디오 감시 방법 - Google Patents

학습 전이 기반의 비디오 감시 방법 Download PDF

Info

Publication number
KR102110375B1
KR102110375B1 KR1020180021997A KR20180021997A KR102110375B1 KR 102110375 B1 KR102110375 B1 KR 102110375B1 KR 1020180021997 A KR1020180021997 A KR 1020180021997A KR 20180021997 A KR20180021997 A KR 20180021997A KR 102110375 B1 KR102110375 B1 KR 102110375B1
Authority
KR
South Korea
Prior art keywords
learning
monitoring device
learning result
behavior
monitoring devices
Prior art date
Application number
KR1020180021997A
Other languages
English (en)
Other versions
KR20190101692A (ko
Inventor
이경석
Original Assignee
주식회사 삼알글로벌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 삼알글로벌 filed Critical 주식회사 삼알글로벌
Priority to KR1020180021997A priority Critical patent/KR102110375B1/ko
Publication of KR20190101692A publication Critical patent/KR20190101692A/ko
Application granted granted Critical
Publication of KR102110375B1 publication Critical patent/KR102110375B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법은 (a) 복수의 감시 장치들로부터 영상들을 수집하는 단계, (b) 상기 영상들로 기계학습을 수행하여 특정 감시 장치에 종속적이지 않고 객체인식을 포함하는 학습 결과물을 생성하는 단계 및 (c) 상기 복수의 감시 장치들 각각에 상기 학습 결과물을 전이하여 해당 감시 장치의 학습 내용을 갱신하는 단계를 포함한다. 일 실시예에서, 상기 (c) 단계는 상기 복수의 감시 장치들 각각의 동작 상태를 검출하여 상기 학습 결과물의 전이 시점을 결정하는 단계를 포함할 수 있고, 상기 (a) 단계 내지 상기 (c) 단계를 반복하여 상기 해당 감시 장치의 학습 내용을 특정 시점마다 반복적으로 갱신하는 단계를 더 포함할 수 있다. 본 발명의 일 실시예에 따르면, 클라우드 기반의 객체 학습을 통해 학습 결과물을 획득하고 적정 시점에 학습 전이하여 학습 효율성을 개선할 수 있다

Description

학습 전이 기반의 비디오 감시 방법{VIDEO WATCH METHOD BASED ON TRANSFER OF LEARNING}
본 발명은 비디오 감시 기술에 관한 것으로, 보다 상세하게는, 클라우드 기반의 객체 학습을 통해 학습 결과물을 획득하고 적정 시점에 학습 결과물을 전이하여 학습 효율성을 개선할 수 있는 학습 전이 기반의 비디오 감시 방법에 관한 관한 것이다.
영상의 객체 분석 기술은 감시 카메라를 이용하여 촬영된 영상데이터에서 객체를 인식하고 객체를 분석하여 영상 분석 과정에 활용할 수 있다. 종래의 영상의 객체 분석 기술은 구축된 영상 분석 알고리즘을 기반으로 영상에 있는 객체를 분석할 수 있으나, 영상 분석 장치가 대부분 저가형의 독립된 DVR(Digital Video Recorder)로 구현되어 영상 분석 알고리즘을 업데이트하는 과정에 제약 사항이 많아 학습 효율을 개선할 수 있는 기술 개발이 요구되고 있다.
한국공개특허 제10-2015-0112712호(2015.10.07)는 객체 행동패턴 CCTV 영상 분석서버에 관한 것으로, 마이크로프로세서로 구성된 주제어부, 영상분석 API, 객체인식모듈, 송수신부로 구성된 객체 행동패턴 CCTV 영상 분석서버에 있어서, 상기 영상분석 API는 디지탈감시카메라에서 촬영된 원본 영상데이터를 전송받아 주제어부 장기저장 메모리에 원본 영상데이터를 저장 및 객체인식모듈 해마신경망 메모리에 저장하며; 상기 송수신부는 네트워크망을 통해 연결된 통합방범센터 센터제어서버와의 전송 트래픽을 측정하여 주제어부로 전송하며; 상기 주제어부는 객체인식모듈에 수신된 원본 영상데이터를 상기 송수신부에서 측정된 트래픽 이하의 저화질 저용량으로 암호화 압축한 저용량영상압축파일을 네트워크망을 통해 통합방범센터 센터제어서버로 전송하며; 상기 객체인식모듈은 해마신경망 메모리에 수신된 원본 영상데이터를 중첩되게 X축 Y축으로 하나 이상으로 분할하여 X-Y좌표 값과 시간 데이터를 매칭시켜 디지털 줌 확대하여 분할영상을 저장하며; 상기 객체인식모듈은 각 각의 디지털 줌 확대된 분할영상 및 분할영상에 대해 객체인식 프로그램에 의해 객체인식 후 인식된 객체를 분류한 객체분류 영상을 주제어부로 전송하며; 상기 주제어부는 상기 객체분류 영상 및 상기 분할영상의 행동패턴을 분류한 행동패턴 영상에 대하여 장기저장 메모리에 저장되어 있는 위험객체 및 행동패턴과 비교하여 위험행동 우선순위 특징값을 부여하여 암호화 압축한 위험이벤트압축파일을 통합방범센터 센터제어서버로 전송하는 것을 특징으로 한다.
한국공개특허 제10-2015-0029006호(2015.03.17)는 비디오 감시 시스템을 위한 피처 이례들의 무감독 학습에 관한 것으로, 장면을 분석하기 위한 컴퓨터-구현 방법으로서, 상기 장면에서 객체에 대한 운동학적(kinematic) 및 피처 데이터를 수신하는 단계; 하나 또는 그 초과의 프로세서들을 통해, 수신된 데이터로부터 포지션-피처 벡터(position-feature vector)를 결정하는 단계; 상기 포지션-피처 벡터는 위치 및 상기 위치의 하나 또는 그 초과의 피처 값들을 표현함; 상기 포지션 피처-벡터에 대응하는 피처 맵을 리트리브(retrieve)하는 단계; 상기 피처 맵은 하나 또는 그 초과의 포지션-피처 클러스터들을 포함함; 적어도 상기 포지션 피처 벡터 및 상기 피처 맵에 기초하여 상기 객체에 대한 희소성 값(rareness value)을 결정하는 단계; 및 상기 희소성 값이 주어진 기준들을 충족하는 경우 상기 객체를 이례적인 것(anomalous)으로서 리포팅하는 단계를 포함한다.
한국공개특허 제10-2015-0112712호(2015.10.07) 한국공개특허 제10-2015-0029006호(2015.03.17)
본 발명의 일 실시예는 클라우드 기반의 객체 학습을 통해 학습 결과물을 획득하고 적정 시점에 학습 전이하여 학습 효율성을 개선할 수 있는 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법을 제공하고자 한다.
본 발명의 일 실시예는 학습 전이를 통한 영상 분석이 가능하도록 하여 저가형의 독립된 DVR(Digital Video Recorder)에서도 최신의 학습 결과를 원활하게 이용할 수 있도록 하는 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법을 제공하고자 한다.
실시예들 중에서, 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법은 (a) 복수의 감시 장치들로부터 영상들을 수집하는 단계, (b) 상기 영상들로 기계학습을 수행하여 특정 감시 장치에 종속적이지 않고 객체인식을 포함하는 학습 결과물을 생성하는 단계 및 (c) 상기 복수의 감시 장치들 각각에 상기 학습 결과물을 전이하여 해당 감시 장치의 학습 내용을 갱신하는 단계를 포함한다.
상기 (b) 단계는 상기 해당 감시 장치가 상기 영상들 각각에서 객체를 분류하여 상기 객체를 인식하도록 객체 분류 가중치를 제1 학습 결과요소로서 생성하는 단계를 포함할 수 있다.
상기 (b) 단계는 상기 객체에 관한 딥러닝을 통해 상기 객체 분류 가중치를 산출하는 단계를 더 포함할 수 있다.
상기 (b) 단계는 상기 해당 감시 장치가 상기 분류된 객체의 객체상태와 객체행위를 결정하여 객체 검색 메타데이터를 생성하도록 객체상태 결정트리와 객체행위 결정트리를 제2 학습 결과요소로서 생성하는 단계를 더 포함할 수 있다.
상기 (b) 단계는 상기 분류된 객체에 관해 계층적 군집 모델 클러스터링을 수행하여 상기 분류된 객체의 군집 단위를 구분할 수 있도록 상기 객체상태 결정트리와 상기 객체행위 결정트리를 생성하는 단계를 더 포함할 수 있다.
상기 (c) 단계는 상기 복수의 감시 장치들 각각의 동작 상태를 검출하여 상기 학습 결과물의 전이 시점을 결정하는 단계를 포함할 수 있다.
상기 (c) 단계는 상기 복수의 감시 장치들 각각에서 현재 수신되고 있는 영상을 분석하여 최근 객체 출현빈도를 상기 동작 상태로서 검출하는 단계를 더 포함할 수 있다.
상기 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법은 (d) 상기 (a) 단계 내지 상기 (c) 단계를 반복하여 상기 해당 감시 장치의 학습 내용을 특정 시점마다 반복적으로 갱신하는 단계를 더 포함할 수 있다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다 거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법은 클라우드 기반의 객체 학습을 통해 학습 결과물을 획득하고 적정 시점에 학습 전이하여 학습 효율성을 개선할 수 있다.
본 발명의 일 실시예에 따른 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법은 학습 전이를 통한 영상 분석이 가능하도록 하여 저가형의 독립된 DVR(Digital Video Recorder)에서도 최신의 학습 결과를 원활하게 이용할 수 있도록 지원할 수 있다.
도 1은 본 발명의 일 실시예에 따른 학습 전이 가능한 비디오 감시 시스템을 나타내는 도면이다.
도 2는 도 1에 있는 학습 전이 가능한 비디오 감시 장치의 구성을 나타내는 도면이다.
도 3은 도 2에 있는 프로세서의 기능 요소를 나타내는 블록도이다.
도 4는 도 3에 있는 프로세서가 학습 전이 프로시저를 실행하는 과정을 설명하기 위한 흐름도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다 거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에" 와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 일 실시예에 따른 학습 전이 가능한 비디오 감시 시스템을 나타내는 도면이다.
도 1을 참조하면, 학습 전이 가능한 비디오 감시 시스템(100)은 학습 전이 가능한 비디오 감시 장치(110) 및 복수의 감시 장치들(120)을 포함할 수 있다.
학습 전이 가능한 비디오 감시 장치(110)는 복수의 감시 장치들(120)과 네트워크를 통해 연결될 수 있는 컴퓨팅 장치에 해당한다. 일 실시예에서, 학습 전이 가능한 비디오 감시 장치(110)는 복수의 감시 장치들(120)로부터 수집된 영상들을 기초로 학습 결과물을 생성하여 해당 감시 장치에게 전이할 수 있다.
복수의 감시 장치들(120)은 학습 전이 가능한 비디오 감시 장치(110)와 네트워크를 통해 연결되어 학습 전이 가능한 비디오 감시 장치(110)에 영상을 제공할 수 있는 컴퓨팅 장치에 해당한다. 일 실시예에서, 복수의 감시 장치들(120) 각각은 실시간으로 생성되는 영상을 기 학습된 학습결과를 기초로 분석하여 객체행위를 분석 및 예측할 수 있고, 학습 전이 가능한 비디오 감시 장치(110)의 제어 하에 학습 전이 가능한 비디오 감시 장치(110)로부터 전이된 학습 결과물을 통해 학습결과를 갱신할 수 있다.
일 실시예에서, 복수의 감시 장치들(120) 각각은 아날로그 CCTV(closed circuit television) 카메라와 UHD(Ultra High Definition) CCTV 중 적어도 하나를 통해 구현될 수 있으나, 이에 제한되지는 않는다. 다른 일 실시예에서, 복수의 감시 장치들(120) 각각은 DVR(Digital Video Recorder) 또는 NVR(Network Video Recorder)로 구현될 수 있고, 디스크에 영상을 저장하거나 저장된 영상을 재생할 수 있는 분리형(stand-alone) 셋톱 박스나 PC에서 이용할 수 있는 소프트웨어를 포함할 수 있다. 또 다른 일 실시예에서, 복수의 감시 장치들(120) 각각은 상호 간에 유무선 통신망을 통하거나 전기적으로 연결된 CCTV 카메라와 DVR을 통해 구현될 수도 있다.
도 2는 도 1에 있는 학습 전이 가능한 비디오 감시 장치의 구성을 나타내는 도면이다.
도 2를 참조하면, 학습 전이 가능한 비디오 감시 장치(110)는 프로세서(210), 메모리(220), 사용자 입출력부(230), 네트워크 입출력부(240) 및 학습 데이터베이스(250)를 포함할 수 있다.
프로세서(210)는 도 4에 있는 학습 전이 프로시저를 실행할 수 있고, 이러한 과정에서 읽혀지거나 작성되는 메모리(220)를 관리할 수 있으며, 메모리(220)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄할 수 있다. 프로세서(210)는 학습 전이 가능한 비디오 감시 장치(110)의 동작 전반을 제어할 수 있고, 메모리(220), 사용자 입출력부(230), 네트워크 입출력부(240) 및 학습 데이터베이스(250)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있으며, 학습 전이 가능한 비디오 감시 장치(110)의 CPU(Central Processing Unit)로 구현될 수 있다.
메모리(220)는 SSD(Solid State Disk) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 학습 전이 가능한 비디오 감시 장치(110)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다. 이처럼, 메모리(220)는 휘발성 및 비휘발성 메모리로 구현될 수 있고, 만일 비휘발성 메모리로 구현되면 하이퍼링크를 통해 연결되도록 구현될 수 있다.
사용자 입출력부(230)은 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함하고, 예를 들어, 마우스, 트랙볼, 터치 패드, 그래픽 태블릿, 스캐너, 터치 스크린, 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(230)은 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 학습 전이 가능한 비디오 감시 장치(110)는 서버로서 수행될 수 있다.
네트워크 입출력부(240)은 네트워크를 통해 복수의 감시 장치들(120)과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network) 통신을 위한 어댑터를 포함할 수 있다.
학습 데이터베이스(250)는 학습결과를 누적하여 데이터베이스로서 포함할 수 있고, 일 실시예에서, 객체인식, 객체상태, 객체행위유형 및 객체행위예측 중 적어도 하나를 포함하는 기존 학습 결과물을 통해 기 학습된 학습모델을 저장할 수 있다.
도 3은 도 2에 있는 프로세서의 기능 요소를 나타내는 블록도이다.
도 3을 참조하면, 프로세서(210)는 영상 수집부(310), 학습 결과물 생성부(320), 학습 결과물 전이부(330) 및 제어부(340)를 포함할 수 있다.
영상 수집부(310)는 복수의 감시 장치들(120)로부터 영상들을 수집한다. 일 실시예에서, 영상 수집부(310)는 각각이 DVR을 포함하여 구현된 복수의 감시 장치들(120)로부터 특정 주기 또는 비주기적으로 영상을 수집하여 해당 감시 식별자와 연관시켜 특정 시간 구간 동안 보관할 수 있다.
학습 결과물 생성부(320)는 수집된 영상들로 기계학습을 수행하여 특정 감시 장치에 종속적이지 않고 객체인식을 포함하는 학습 결과물을 생성한다. 일 실시예에서, 학습 결과물 생성부(320)는 수집된 영상들 각각에서 인식된 적어도 하나의 객체에 관한 분석 결과를 가상학습 데이터로서 생성하여 클라우드 기반의 기계학습을 수행할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 객체인식을 포함하는 기존 학습 결과물로 기 학습된 학습모델을 기초로 인식된 적어도 하나의 객체에 관한 분석 결과를 학습하여 복수의 감시 장치들(120) 중 특정한 하나에 종속되지 않고 객체인식, 객체상태, 객체행위유형 및 객체행위예측 중 적어도 하나를 포함하는 학습 결과물을 생성할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 수집된 영상들이 기 설정된 특정 개수 이상이면 해당 특정 개수로 선별된 영상들을 기초로 학습을 진행할 수 있다.
학습 결과물 생성부(320)는 해당 감시 장치가 영상들 각각에서 객체를 분류하여 해당 객체를 인식하도록 객체 분류 가중치를 제1 학습 결과요소로서 생성할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 객체에 관한 딥러닝을 통해 객체 분류 가중치를 산출할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 수집된 영상들 각각에서 인식된 객체를 분석하여 객체인식에 관한 학습 데이터를 생성할 수 있고, 생성된 학습 데이터를 기초로 신경망 학습을 수행하여 학습 데이터베이스(250)에 저장된 복수의 학습모델들 각각의 객체인식 알고리즘을 갱신하여 객체 분류 가중치를 산출할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 갱신된 복수의 학습모델들 각각의 객체인식 알고리즘에 관한 성능 평가를 수행하여 가장 높은 성능 평점으로 산출된 특정 학습모델에 반영된 객체 분류 가중치를 제1 학습 결과요소로서 산출할 수 있다.
일 실시예에서, 학습 결과물 생성부(320)는 객체 분석 과정에서 영상에 출현된 적어도 하나의 객체를 인식할 수 있고, 인식된 적어도 하나의 객체 각각에 관한 형상 정보를 분석하여 각각의 객체종류(예를 들어, 사람이나 차량)를 분류하는 과정을 통해 객체인식에 관한 학습 데이터를 생성할 수 있다.
학습 결과물 생성부(320)는 해당 감시 장치가 분류된 객체의 객체상태와 객체행위를 결정하여 객체 검색 메타데이터를 생성하도록 객체상태 결정트리와 객체행위 결정트리를 제2 학습 결과요소로서 생성할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 분류된 객체에 관해 계층적 군집 모델 클러스터링을 수행하여 분류된 객체의 군집 단위를 구분할 수 있도록 객체상태 결정트리와 객체행위 결정트리를 생성할 수 있다. 일 실시예에서, 계층적 군집 모델 클러스터링은 학습 데이터 전체에 해당되는 단일 클러스터에서 분리 알고리즘에 의해 구분된 복수의 클러스터들로 클러스터링하여 복수의 클러스터들 각각을 개별 데이터들로 분리하는 분리형 계층적 클러스터링을 통해 구현될 수 있다.
일 실시예에서, 학습 결과물 생성부(320)는 수집된 영상들 각각에서 인식된 객체를 분석하여 객체상태에 관한 학습 데이터와 객체행위에 관한 학습 데이터를 생성할 수 있고, 생성된 객체상태 및 객체행위에 관한 학습 데이터를 기초로 신경망 학습을 수행하여 학습 데이터베이스(250)에 저장된 복수의 학습모델들 각각의 객체상태 알고리즘과 객체행위 알고리즘을 갱신하여 객체상태 결정트리와 객체행위 결정트리를 생성할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 갱신된 복수의 학습모델들 각각의 객체상태 알고리즘과 객체행위 알고리즘에 관한 성능 평가를 수행하여 가장 높은 성능 평점으로 산출된 특정 학습모델에 반영된 객체상태 결정트리와 객체행위 결정트리를 제2 학습 결과요소로서 결정할 수 있다.
일 실시예에서, 학습 결과물 생성부(320)는 객체 분석 과정에서 인식된 적어도 하나의 객체 각각에 관해 해당 객체의 사전 설정된 질의를 통해 객체상태(예를 들어, 사람이 가방을 착용)를 결정하는 과정을 통해 객체상태에 관한 학습 데이터를 생성할 수 있다. 여기에서, 질의 각각은 설계자 또는 사용자에 의해 객체종류 별로 상이하게 설정되어 학습 데이터베이스(250)에 저장 및 관리될 수 있고, 전체 형상에 관한 제1 질의(예를 들어, 인식되는 객체의 전체 형상이 기 저장된 적어도 하나의 전체 형상 중 하나와 매칭되는지에 관한 질의), 세부 형상에 관한 제2 질의(예를 들어, 인식되는 객체의 특정 부분(예를 들어, 얼굴)의 세부 형상이 기 저장된 적어도 하나의 세부 형상 중 하나와 매칭되는지에 관한 질의) 및 객체 특성에 관한 제3 질의(예를 들어, 인식되는 객체가 해당 객체종류와 연관된 객체 특성에 부합되는지에 관한 질의) 중 적어도 하나를 포함할 수 있다.
일 실시예에서, 학습 결과물 생성부(320)는 객체 분석 과정에서 인식된 적어도 하나의 객체 각각에 관해 일련의 연속적인 영상 프레임에서의 움직임 패턴을 분석하여 객체행위(예를 들어, 사람이 오른쪽으로 이동 중)를 결정하는 과정을 통해 객체행위에 관한 학습 데이터를 생성할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 특정 시간 구간 동안 연속되는 일련의 연속적인 영상 프레임에서 해당 객체의 주요 출연 여부를 기초로 해당 객체의 분석구간을 결정할 수 있고, 예를 들어, 객체의 출현 영역범위 및 객체의 출현 시간구간을 기초로 객체의 주요 출현 여부를 결정할 수 있다.
일 실시예에서, 학습 결과물 생성부(320)는 해당 감시 장치가 생성된 객체 검색 메타데이터를 기초로 해당 객체의 행동유형을 분류하고 객체의 향후행동을 예측하도록 행동 예측 가중치를 제3 학습 결과요소로서 생성할 수 있다. 학습 결과물 생성부(320)는 복수의 영상들 각각에서 연속되는 일련의 영상 프레임들을 분석하여 해당 객체의 행동유형(예를 들어, 주차장 이동)과 향후행동(예를 들어, 차로 이동하여 탑승)에 관한 학습 데이터를 생성할 수 있고, 생성된 행동유형과 향후행동에 관한 학습 데이터와 해당 객체에 생성된 객체 검색 메타데이터를 기초로 신경망 학습을 수행하여 알고리즘의 중간 층에 적용되는 행동 예측 가중치를 제3 학습 결과요소로서 생성할 수 있다. 일 실시예에서, 학습 결과물 생성부(320)는 해당 객체의 객체상태를 질의에 관한 답변에 따라 제1 문형으로 결정하고 객체행위를 움직임 패턴에 따라 제2 문형으로 결정하며 제1 및 제2 문형들을 포함하는 객체 검색 메타데이터를 생성할 수 있다.
일 실시예에서, 학습 결과물 생성부(320)는 객체 검색 메타데이터를 기초로 향후행동의 위험지수를 산출하여 기준 값 이상이면 해당 객체의 학습에 관한 가중치를 상향시킬 수 있다. 예를 들어, 학습 결과물 생성부(320)는 예측된 객체의 향후행동이 기 지정된 특정 시나리오에 정의된 특정 행동과 동일한 경우에는 해당 특정 행동과 연관되어 설정된 위험도를 가져와 위험지수로 결정할 수 있다.
일 실시예에서, 학습 결과물 생성부(320)는 수집된 복수의 영상들로 서로 다른 알고리즘이 포함된 복수의 학습모델들을 학습한 경우에는 기 저장된 성능 평가 알고리즘을 통해 복수의 학습모델들 각각에 관한 성능지수를 산출하여 상위 N(N은 2 이상의 자연수) 개의 학습모델들 또는 가장 높은 성능지수를 가지는 특정 학습모델을 해당 학습에 대한 최종적인 학습 결과물로 결정할 수 있다.
학습 결과물 전이부(330)는 복수의 감시 장치들(120) 각각에 학습 결과물을 전이하여 해당 감시 장치의 학습 내용을 갱신한다. 일 실시예에서, 학습 결과물 전이부(330)는 특정 감시 장치에 종속적이지 않은 학습 결과물로서 생성된 제1 내지 제3 학습 결과요소들을 복수의 감시 장치들(120) 중 네트워크를 통한 접속이 확인된 적어도 일부에게 선별적으로 전이하여 해당 감시 장치에 기 학습된 학습모델을 갱신할 수 있다.
학습 결과물 전이부(330)는 복수의 감시 장치들(120) 각각의 동작 상태를 검출하여 학습 결과물의 전이 시점을 결정할 수 있다. 일 실시예에서, 학습 결과물 전이부(330)는 복수의 감시 장치들(120) 각각으로부터 특정 주기로 수신된 가장 최근의 학습 전이 시각과 CPU 가동률이 각각 기 설정된 특정 시간 간격(예를 들어, 7일)보다 크고 기 설정된 기준 가동률(예를 들어, 30%)보다 작으면 학습 결과물의 전이를 결정할 수 있다.
학습 결과물 전이부(330)는 복수의 감시 장치들(120) 각각에서 현재 수신되고 있는 영상을 분석하여 최근 객체 출현빈도를 해당 동작 상태로서 검출할 수 있다. 일 실시예에서, 학습 결과물 전이부(330)는 복수의 감시 장치들(120) 각각으로부터 현재 수신되는 일련의 영상 프레임에서 임의의 객체의 움직임 빈도를 산출하여 최근 객체 출현빈도로 결정할 수 있고, 다른 일 실시예에서, 동일 객체의 움직임 빈도를 산출하여 최근 객체 출현빈도로 결정할 수 있으며, 또 다른 일 실시예에서, 객체 움직임과 무관하게 기 설정된 특정 객체종류(예를 들어, 사람)에 해당하는 객체의 출현빈도를 산출하여 최근 객체 출현빈도로 결정할 수 있다. 학습 결과물 전이부(330)는 복수의 감시 장치들(120) 중 적어도 하나의 최근 객체 출현빈도가 설계자 또는 사용자에 의해 설정된 기준 객체 출현빈도 미만의 값으로 검출되면 해당 검출 시점 또는 해당 검출 시점으로부터 특정 시간 후의 시점을 학습 결과물의 전이 시점으로 결정할 수 있다.
일 실시예에서, 학습 결과물 전이부(330)는 하기의 수학식 1을 기초로 해당 감시 장치의 최근의 특정 시간 구간 동안 연속되는 일련의 영상 프레임에 관한 최근 객체 출현빈도(a)를 산출할 수 있고, 기 설정된 기준 객체 출현빈도보다 작은지 여부에 따라 학습 결과물의 전이를 결정할 수 있다.
[수학식 1]
Figure 112018019204425-pat00001
(여기에서, a는 최근 객체 출현빈도를 의미하고, tav는 기 설정된 특정 변화도 이상의 움직임이 검출된 적어도 하나의 객체 각각의 출현 시간구간 평균값을 의미하며, t0는 기 설정된 기준 시간 구간 평균을 의미하고, aav는 기 설정된 특정 변화도 이상의 움직임이 검출된 적어도 하나의 객체 각각의 출현 영역범위 평균값을 의미하며, a0는 기 설정된 기준 영역범위 평균을 의미하고, m은 1 이상 2 이하의 자연수로서 해당 시간 구간에서 움직임이 검출된 객체의 객체유형 중에 사람이 포함되어 있는지 여부를 의미함(예를 들어, m=1: 움직인 객체의 객체종류 중 사람 없음, m=2: 움직인 객체의 객체종류 중 사람 있음)
일 실시예에서, 학습 결과물 전이부(330)는 N 개의 학습모델들이 해당 학습에 대한 학습 결과물로서 결정되었다면 해당 N 개의 학습모델들 각각과 연관된 하드웨어 사양 지수를 검출하고, 학습 결과물의 전이가 결정된 적어도 하나의 감시 장치 각각에 관해 감시 식별자를 기초로 해당 감시 장치의 하드웨어 사양을 검출하며, N 개의 학습모델들 중 검출된 하드웨어 사양과 매칭되면서 가장 높은 성능지수를 가지는 특정 학습모델을 선별하여 해당 감시 장치에 학습 결과물로서 전이할 수 있다.
학습 결과물 전이부(330)는 상기 영상 수집 단계, 학습 결과물의 생성 단계 및 학습 결과물의 전이 단계를 반복하여 해당 감시 장치의 학습 내용을 특정 시점마다 반복적으로 갱신할 수 있다. 일 실시예에서, 해당 감시 장치에 전이되는 학습 결과물은 기 서술된 것과 같이, 객체인식, 객체상태, 행동유형의 분류 및 향후행동의 예측에 관한 학습 결과를 포함할 수 있다. 이에 따라, 학습 결과물 전이부(330)는 복수의 감시 장치들(120) 각각의 학습 상태를 최신의 학습 결과물로 갱신할 수 있다.
제어부(340)는 프로세서(210)의 동작 전반을 제어할 수 있고, 영상 수집부(310), 학습 결과물 생성부(320) 및 학습 결과물 전이부(330) 간의 데이터 흐름을 제어할 수 있다.
도 4는 도 3에 있는 프로세서가 학습 전이 프로시저를 실행하는 과정을 설명하기 위한 흐름도이다.
도 4에서, 영상 수집부(310)는 복수의 감시 장치들(120)로부터 영상들을 수집한다(단계 S410). 학습 결과물 생성부(320)는 수집된 영상들로 기계학습을 수행하여 특정 감시 장치에 종속적이지 않고 객체인식을 포함하는 학습 결과물을 생성한다(단계 S420). 학습 결과물 전이부(330)는 복수의 감시 장치들(120) 각각에 학습 결과물을 전이하여 해당 감시 장치의 학습 내용을 갱신한다(단계 S430). 일 실시예에서, 프로세서(210)는 단계 S410 내지 단계 S430을 반복하여 해당 감시 장치의 학습 내용을 특정 시점마다 반복적으로 갱신할 수 있다.
일 실시예에서, 학습 전이 가능한 비디오 감시 장치(110)는 복수의 감시 장치들(120)로부터 영상을 수집하여 클라우드 기반의 객체 학습을 수행할 수 있고, 적정 시점마다 학습 결과물을 복수의 감시 장치들(120)에 업데이트하여 학습 효율성을 개선할 수 있다.
일 실시예에서, 복수의 감시 장치들(120)은 상기와 같은 단계들을 통해 학습 전이 가능한 비디오 감시 장치(110)로부터 학습 결과물이 전이되면 자신의 학습 내용을 갱신할 수 있고, 갱신된 학습모델을 기반으로 영상 분석을 수행할 수 있다. 일 실시예에서, 복수의 감시 장치들(120)은 학습 전이를 통해 제1 내지 제3 학습 결과요소들을 반영하여 학습모델을 갱신할 수 있고, 갱신된 학습모델을 기초로 영상에서 객체 분류를 통한 객체의 인식, 분류된 객체의 객체상태와 객체행위 결정, 객체상태와 객체행위로부터 객체 검색 메타데이터의 생성 및 객체 검색 메타데이터를 기반으로 객체의 행동유형 분류와 향후행동의 예측을 수행할 수 있다.
상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 통상의 기술자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 학습 전이 가능한 비디오 감시 시스템
110: 학습 전이 가능한 비디오 감시 장치
120: 복수의 감시 장치들
210: 프로세서 220: 메모리
230: 사용자 입출력부 240: 네트워크 입출력부
250: 학습 데이터베이스
310: 영상 수집부 320: 학습 결과물 생성부
330: 학습 결과물 전이부 340: 제어부

Claims (8)

  1. 복수의 감시 장치들과 네트워크를 통해 연결되는 비디오 감시 장치의 비디오 감시 방법에 있어서,
    (a) 상기 비디오 감시 장치에서 상기 복수의 감시 장치들로부터 영상들을 수집하는 단계;
    (b) 상기 비디오 감시 장치에서 상기 영상들 각각에서 인식된 적어도 하나의 객체에 관한 분석 결과를 학습하여 특정 감시 장치에 종속적이지 않고 객체인식, 객체상태, 객체행위유형 및 객체행위예측 중 적어도 하나를 포함하는 학습 결과물을 생성하는 단계; 및
    (c) 상기 비디오 감시 장치에서 상기 복수의 감시 장치들 각각에 상기 학습 결과물을 전이하여 해당 감시 장치의 학습 내용을 갱신하는 단계를 포함하고,
    상기 (c) 단계는
    상기 복수의 감시 장치들 각각의 동작 상태를 검출하여 상기 학습 결과물의 전이 시점을 결정하고,
    상기 복수의 감시 장치들 각각에서 현재 수신되고 있는 영상을 분석하여 최근 객체 출현빈도를 상기 동작 상태로서 검출하고,
    하기 수학식을 기초로 상기 최근 객체 출현빈도를 산출하는 것을 특징으로 하는 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법.
    [수학식]
    Figure 112019112616292-pat00006

    여기에서, a는 최근 객체 출현빈도를 의미하고, tav는 기 설정된 특정 변화도 이상의 움직임이 검출된 적어도 하나의 객체 각각의 출현 시간구간 평균값을 의미하며, t0는 기 설정된 기준 시간 구간 평균을 의미하고, aav는 기 설정된 특정 변화도 이상의 움직임이 검출된 적어도 하나의 객체 각각의 출현 영역범위 평균값을 의미하며, a0는 기 설정된 기준 영역범위 평균을 의미하고, m은 1 이상 2 이하의 자연수로서 해당 시간 구간에서 움직임이 검출된 객체의 객체유형 중에 사람이 포함되어 있는지 여부(예를 들어, m=1: 움직인 객체의 객체종류 중 사람 없음, m=2: 움직인 객체의 객체종류 중 사람 있음)를 의미한다.
  2. 제1항에 있어서, 상기 (b) 단계는
    상기 해당 감시 장치가 상기 영상들 각각에서 객체를 분류하여 상기 객체를 인식하도록 객체 분류 가중치를 제1 학습 결과요소로서 생성하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법.
  3. 제2항에 있어서, 상기 (b) 단계는
    상기 객체에 관한 딥러닝을 통해 상기 객체 분류 가중치를 산출하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법.
  4. 제2항에 있어서, 상기 (b) 단계는
    상기 해당 감시 장치가 상기 분류된 객체의 객체상태와 객체행위를 결정하여 객체 검색 메타데이터를 생성하도록 객체상태 결정트리와 객체행위 결정트리를 제2 학습 결과요소로서 생성하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법.
  5. 제4항에 있어서, 상기 (b) 단계는
    상기 분류된 객체에 관해 계층적 군집 모델 클러스터링을 수행하여 상기 분류된 객체의 군집 단위를 구분할 수 있도록 상기 객체상태 결정트리와 상기 객체행위 결정트리를 생성하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법.
  6. 삭제
  7. 삭제
  8. 제1항에 있어서,
    (d) 상기 (a) 단계 내지 상기 (c) 단계를 반복하여 상기 해당 감시 장치의 학습 내용을 특정 시점마다 반복적으로 갱신하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 수행 가능한 학습 전이 가능한 비디오 감시 방법.
KR1020180021997A 2018-02-23 2018-02-23 학습 전이 기반의 비디오 감시 방법 KR102110375B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180021997A KR102110375B1 (ko) 2018-02-23 2018-02-23 학습 전이 기반의 비디오 감시 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180021997A KR102110375B1 (ko) 2018-02-23 2018-02-23 학습 전이 기반의 비디오 감시 방법

Publications (2)

Publication Number Publication Date
KR20190101692A KR20190101692A (ko) 2019-09-02
KR102110375B1 true KR102110375B1 (ko) 2020-05-14

Family

ID=67951324

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180021997A KR102110375B1 (ko) 2018-02-23 2018-02-23 학습 전이 기반의 비디오 감시 방법

Country Status (1)

Country Link
KR (1) KR102110375B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102245403B1 (ko) * 2019-09-05 2021-04-27 주식회사 엘지유플러스 화면 자동 인식을 위한 셋톱박스의 동작 방법 및 그 셋톱박스
KR102412979B1 (ko) * 2020-05-29 2022-06-24 주식회사 올리브텍 영상 데이터의 실시간 저장 시스템에서 데이터의 위변조를 방지하는 데이터 관리 방법
US20240169249A1 (en) * 2021-03-15 2024-05-23 Riiid Inc. Method and apparatus for pre-training artificial intelligence models

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789690B1 (ko) * 2017-07-11 2017-10-25 (주)블루비스 딥 러닝 기반 보안 서비스 제공 시스템 및 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150029006A (ko) 2012-06-29 2015-03-17 비헤이버럴 레코그니션 시스템즈, 인코포레이티드 비디오 감시 시스템을 위한 피처 이례들의 무감독 학습
KR20150112712A (ko) 2014-06-05 2015-10-07 주식회사 성우음향정보통신 객체 행동패턴 cctv 영상 분석서버
KR20160096460A (ko) * 2015-02-05 2016-08-16 삼성전자주식회사 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
KR20170024715A (ko) * 2015-08-26 2017-03-08 삼성전자주식회사 객체 검출장치 및 그 객체 검출방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789690B1 (ko) * 2017-07-11 2017-10-25 (주)블루비스 딥 러닝 기반 보안 서비스 제공 시스템 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
충북대학교 조완선, 데이터 마이닝, 2016.08.. 출처:http://contents.kocw.or.kr/KOCW/document/2016/chungbuk/chowanseop/10.pdf*

Also Published As

Publication number Publication date
KR20190101692A (ko) 2019-09-02

Similar Documents

Publication Publication Date Title
JP7317919B2 (ja) 外観検索のシステムおよび方法
US10776665B2 (en) Systems and methods for object detection
JP6080940B2 (ja) 人物検索方法及びホーム滞留人物検索装置
Zhang et al. A new method for violence detection in surveillance scenes
US10140575B2 (en) Sports formation retrieval
US11663502B2 (en) Information processing apparatus and rule generation method
US20130121590A1 (en) Event detection apparatus and event detection method
Fan et al. Human fall detection using slow feature analysis
KR101563297B1 (ko) 영상에서 행동을 인식하는 방법 및 장치
CN106663196A (zh) 视频中的计算机显著人物识别
KR102110375B1 (ko) 학습 전이 기반의 비디오 감시 방법
KR101979375B1 (ko) 감시 영상의 객체 행동 예측 방법
US11734343B1 (en) Hyperzoom attribute analytics on the edge
US11900688B2 (en) People and vehicle analytics on the edge
WO2014146463A1 (zh) 一种基于隐结构推理的行为识别方法
CN114093022A (zh) 活动检测装置、活动检测系统及活动检测方法
CN117033956A (zh) 基于数据驱动的数据处理方法、系统、电子设备及介质
Kulbacki et al. Intelligent video monitoring system with the functionality of online recognition of people’s behavior and interactions between people
Yoganand et al. Face detection approach from video with the aid of KPCM and improved neural network classifier
Meena et al. Hybrid Neural Network Architecture for Multi-Label Object Recognition using Feature Fusion
US20230386185A1 (en) Statistical model-based false detection removal algorithm from images
US20240087365A1 (en) Systems and methods for identifying an object of interest from a video sequence
US20240078452A1 (en) Dataset generation system, server, and non-transitory computer-readable recording medium recording dataset generation program
US20230360402A1 (en) Video-based public safety incident prediction system and method therefor
Tawiah Video content analysis for automated detection and tracking of humans in CCTV surveillance applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right