KR102286675B1 - 동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템 - Google Patents

동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템 Download PDF

Info

Publication number
KR102286675B1
KR102286675B1 KR1020200150977A KR20200150977A KR102286675B1 KR 102286675 B1 KR102286675 B1 KR 102286675B1 KR 1020200150977 A KR1020200150977 A KR 1020200150977A KR 20200150977 A KR20200150977 A KR 20200150977A KR 102286675 B1 KR102286675 B1 KR 102286675B1
Authority
KR
South Korea
Prior art keywords
detection operation
risk detection
risk
machine learning
determination
Prior art date
Application number
KR1020200150977A
Other languages
English (en)
Inventor
황관홍
Original Assignee
(주)아이에스인텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이에스인텍 filed Critical (주)아이에스인텍
Priority to KR1020200150977A priority Critical patent/KR102286675B1/ko
Application granted granted Critical
Publication of KR102286675B1 publication Critical patent/KR102286675B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템에 관한 것이다. 동작 인식을 기반으로 한 방범 시스템 구현 방법은 CCTV(closed circuit television) 카메라에 의해 촬영된 영상에서 객체 동작 분석을 수행하는 단계와 객체 동작 분석을 기반으로 객체가 위험 상황인지 여부를 판단하는 단계를 포함할 수 있다.

Description

동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템{Method for implementing security system based on motion recognition and security system using the method}
본 발명은 동작 인식을 기반으로 한 방법 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템에 관한 것이다. 보다 상세하게는 위험 상황이 발생시 CCTV(closed circuit television) 카메라가 설치된 영역에서 특정 모션을 발생시켜 위험 상황에 대해 알리기 위한 동작 인식을 기반으로 한 방법 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템에 관한 것이다.
공공 CCTV 카메라는 각종 범죄예방, 교통 정보 수집 및 단속, 시설물 관리, 화재 예방 등 다양한 분야에서 활용되고 있다. 특히 CCTV 카메라가 각종 범죄 해결에서 큰 역할을 수행하면서 CCTV 카메라의 구축은 국내외적으로 증가하고 있다. 행정안전부에 따르면 국내 설치된 공공 CCTV 카메라의 절반정도가 방범과 관련된 CCTV 카메라이다. 이러한 사실은 방범 CCTV 카메라에 대한 국민들의 수요가 높으며, 방범 CCTV 카메라의 구축 확산이 국민들의 삶의 질 향상에 기여할 수 있음을 의미한다. 방범용 CCTV 카메라의 활용 증대는 경찰 인력을 보완하고 잠재적 범죄자의 범행의지를 약화시킴으로써 범죄 발생을 예방하고, 범죄 증거로 활용되어 범죄 해결에 도움이 되어 시민들의 치안에 대한 만족감 증대로 이어진다.
CCTV 카메라 구축과 관련된 정부의 지원으로서 삶의 질 향상을 위하여 범죄로부터 국민들의 불안감을 해소하는 것이 주요 국정과제로 지금까지 이어져 오고 있으며, CCTV 카메라는 스마트 도시 정책에서 도시 정보화 기반 시설로서 가장 기본이 되는 시설이다.
현재 CCTV 카메라는 단순히 범죄 현장을 촬영하는 역할만을 할 수 있으나 이러한 기본적인 촬영의 기능을 벋어나서 촬영된 결과를 기반으로 범죄 현장에 대한 분석하고 이를 바로 경찰로 전달하기 위한 다양한 방법들에 대한 연구가 이루어지고 있다.
CCTV 카메라의 기능이 단순 촬영에 그치는 것이 아니라 추가적인 분석을 통해 다양한 방범 효과를 가지는 기기로서 활용하기 위한 방법에 대한 연구가 필요하다.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 동작 인식을 기반으로 한 방범 시스템을 기반으로 위험에 처한 사람의 특정 동작을 인식하여 위험 상황의 발생을 인식하여 해당 지역에서 발생될 수 있는 범죄를 미리 예방하는 것을 목적으로 한다
또한, 본 발명은, 사용자의 동작을 기반으로 경찰과 같은 방범 동작을 수행하는 주체로 빠른 연결을 가능하도록 하고, 범죄자들의 범행을 중단시켜 범행을 하지 않도록 하는 예방 효과를 가지도록 하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 동작 인식을 기반으로 한 방범 시스템 구현 방법은 CCTV(closed circuit television) 카메라에 의해 촬영된 영상에서 객체 동작 분석을 수행하는 단계와 상기 객체 동작 분석을 기반으로 객체가 위험 상황인지 여부를 판단하는 단계를 포함할 수 있다.
한편, 상기 객체 동작 분석은 상기 촬영된 영상 상에서 포함된 제1 위험 감지 동작 및/또는 제2 위험 감지 동작에 대한 분석을 포함할 수 있다.
또한, 상기 제1 위험 감지 동작은 객체와 미리 약속된 위험 상황을 알리기 위해 미리 특정된 동작이고, 상기 제2 위험 감지 동작은 객체와 미리 약속되지 않은 위험 상황에서 발생되는 동작일 수 있다.
본 발명의 다른 태양에 따르면, 동작 인식을 기반으로 한 방범 시스템은 설정된 영역의 영상을 촬영하도록 구현된 카메라부와 상기 카메라 부에 의해 촬상된 영상에서 객체 동작 분석을 수행하고, 상기 객체 동작 분석을 기반으로 객체가 위험 상황인지 여부를 판단하도록 구현된 프로세서를 포함할 수 있다.
한편, 상기 객체 동작 분석은 상기 촬영된 영상 상에서 포함된 제1 위험 감지 동작 및/또는 제2 위험 감지 동작에 대한 분석을 포함할 수 있다.
또한, 상기 제1 위험 감지 동작은 객체와 미리 약속된 위험 상황을 알리기 위해 미리 특정된 동작이고, 상기 제2 위험 감지 동작은 객체와 미리 약속되지 않은 위험 상황에서 발생되는 동작일 수 있다.
본 발명에 의하면, 동작 인식을 기반으로 한 방범 시스템을 기반으로 위험에 처한 사람의 특정 동작이 인식되고 위험 상황이 인식되어 해당 지역에서 발생될 수 있는 범죄가 미리 예방될 수 있다.
또한, 본 발명에 의하면, 사용자의 동작을 기반으로 경찰과 같은 방범 동작을 수행하는 주체로 빠른 연결이 가능하도록 하고, 범죄자들이 범행을 중단하거나 범행을 하지 않도록 예방 효과를 가질 수 있다.
도 1은 본 발명의 실시예에 따른 방범 시스템을 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 위험 감지 동작을 인식하는 방법을 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 영상 분석 방법을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 방법 시스템의 동작 방법을 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 방범 시스템의 상황 판단 방법을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 제1 위험 감지 동작(위험 상황)의 결정 이후 방범 시스템의 동작을 나타낸 개념도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여 지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 방범 시스템을 나타낸 개념도이다.
도 1에서는 CCTV 카메라와 CCTV 카메라에서 촬상된 영상 정보를 처리하는 영상 처리 서버가 개시된다.
도 1을 참조하면, 복수의 CCTV 카메라(100)는 복수의 서로 다른 장소 각각에 설치되어 설정된 일정 영역을 촬상할 수 있다.
복수의 CCTV 카메라(100) 각각은 촬상된 영상을 영상 처리 장치(또는 영상 처리 서버)(150)로 전송할 수 있다. 영상 처리 서버는 복수의 CCTV 카메라(100)로부터 수신한 영상을 처리 및/또는 분석하여 복수의 CCTV 카메라(100) 각각에서 발생한 상황을 판단할 수 있다.
이러한 영상의 처리 및/또는 분석은 영상 처리 서버(150)뿐만 아니라, 복수의 CCTV 카메라(100) 각각에서도 자체적으로 수행될 수도 있다.
본 발명의 실시예에 따르면, CCTV 카메라 영상에 대한 분석을 통해 객체의 동작이 인식되고, 인식된 객체의 동작을 기반으로 위험 상황인지 여부가 빠르게 결정되어 위험 상황에 보다 빠르게 대응할 수 있다. 구체적으로 객체가 위험에 처한 경우, CCTV 카메라(100)의 촬상 영역 상에서 특정 동작을 할 수 있다. CCTV 카메라(100)를 통해 촬상된 영상의 분석을 통해 객체가 특정 동작을 하는 것으로 인식된 경우, 경찰서 서버와 같은 방범, 보안 업무를 하는 곳으로 현재 발생된 위험에 대한 정보가 전달되어 위험 상황에 즉각적으로 대응이 가능할 수 있다.
이하, 본 발명의 실시예에서는 객체가 현재 위험 상황임을 인식시키기 위한 동작을 위험 감지 동작이라는 용어로 표현한다. 이하, 본 발명의 실시예에서는 객체가 수행하는 위험 감지 동작을 인식하고 분석하기 위한 방법이 개시된다.
도 2는 본 발명의 실시예에 따른 위험 감지 동작을 인식하는 방법을 나타낸 개념도이다.
도 2에서 CCTV 카메라에 의해 촬영된 동작 중 위험 감지 동작은 제1 위험 감지 동작(210)과 제2 위험 감지 동작(220)으로 분류될 수 있다.
제1 위험 감지 동작(210)은 객체와 미리 약속된 위험 감지 동작으로서 객체가 특정 행위를 하는 경우, 위험 상황임을 알려주기 위한 동작이다. 예를 들어, 제1 위험 감지 동작(210)은 객체가 양손을 위로 들고 흔드는 동작일 수 있다. 제1 위험 감지 동작(210)은 홍보를 통해 미리 객체들에게 알려진 동작일 수 있다. 객체가 제1 위험 감지 동작(210)을 할 경우, CCTV 카메라에서 제1 위험 감지 동작(210)이 인식되고, 영상 처리 장치를 통해 또는 경찰서 서버와 같은 보안 방범 서버로 직접적으로 제1 위험 감지 동작(210)이 수행된 CCTV 카메라에 대한 정보(CCTV 카메라 위치 정보) 및/또는 CCTV 카메라에 의해 촬영된 영상 정보가 전달될 수 있다. 제1 위험 감지 동작(210)이 수행되는 경우, 바로 경찰이 CCTV 카메라의 설치 지역으로 출동할 수 있으므로, 별도의 설치된 위험벨을 통한 물리적인 접촉 동작 및/또는 영상 처리 서버를 통해 전달된 영상에 대한 관리자의 별도의 분석 없이도 쉽고 빠르게 위험 상황에 대해 알릴 수 있다.
제1 위험 감지 동작(210)에 대한 학습 방법은 다양한 학습 방법이 사용될 수 있다. 예를 들어, 제1 위험 감지 동작(210)을 포함하는 영상(제1 위험 감지 동작 포함 영상)과 제1 위험 감지 동작(210)을 포함하지 않는 영상(제1 위험 감지 동작 미포함 영상) 각각에 식별자가 부여되고 이를 기반으로 한 지도 학습이 수행될 수 있다. 또는 제1 위험 감지 동작 포함 영상만을 입력 영상으로 활용한 학습을 통해 제1 위험 감지 동작(210)을 수행하는 영상을 기반으로 한 머신 러닝 엔진이 생성될 수도 있다. 제1 위험 감지 동작(210)에 대한 학습 방법은 보다 구체적으로 후술된다.
제2 위험 감지 동작(220)은 사용자와 미리 약속되지 않은 동작으로서 별도의 영상 분석 알고리즘을 기반으로 한 범죄 행위/폭력 행위 관련 동작으로 판단된 동작일 수 있다. 예를 들어, 폭력 행위에 대해 학습된 머신 러닝 엔진을 기반으로 입력된 영상에 대한 분석이 수행되고, 해당 영상이 제2 위험 감지 동작(220)을 포함하는 영상으로 판단될 수 있다. 이러한 제2 위험 감지 동작(220)이 발생하는 경우에도 영상 처리 장치를 통해 또는 경찰서 서버와 같은 보안 방범 서버로 직접적으로 제2 위험 감지 동작(220)이 수행된 CCTV 카메라에 대한 정보 및/또는 CCTV 카메라에 의해 촬영된 영상 정보가 전달될 수 있다. 제2 위험 감지 동작(220)이 수행되는 경우, 바로 경찰이 CCTV 설치 지역으로 출동할 수 있으므로, 별도의 위험벨을 통한 물리적인 접촉 동작 없이도 쉽고 빠르게 위험 상황에 대해 알릴 수 있다.
제2 위험 감지 동작(220)에 대한 학습 방법은 다양한 학습 방법이 사용될 수 있다. 예를 들어, 범죄 행위를 포함하는 영상(범죄 영상), 범죄 행위를 포함하지 않는 영상(비범죄 영상)에 대한 식별자가 부여되고 이를 기반으로 한 지도 학습을 통해 머신 러닝에 대한 학습이 수행될 수 있다. 또는 제2 위험 감지 동작 포함 영상만을 입력 영상으로 활용한 학습을 통해 제2 위험 감지 동작(220)을 수행하는 영상을 기반으로 한 머신 러닝 엔진이 생성될 수도 있다.
제1 위험 감지 동작(210)과 제2 위험 감지 동작(220)이 탐지되고, 해당 동작의 신뢰도가 임계값 이상인 경우, 경찰이 출동할 수 있는데, 신뢰도는 제1 위험 감지 동작(210)과 제2 위험 감지 동작(220)이 발생한 상황이 실제 위험 상황인지 여부에 대한 수치값일 수 있다. 제1 위험 감지 동작(210)의 경우 미리 약속된 동작이므로 제2 위험 감지 동작(220)에 비하여 상대적으로 낮은 신뢰도를 설정하여 출동 여부를 결정할 수 있다.
도 3은 본 발명의 실시예에 따른 영상 분석 방법을 나타낸 개념도이다.
도 3에서는 영상 분석을 기반으로 제1 위험 감지 동작을 학습하기 위한 방법이 개시된다.
도 3을 참조하면, 제1 위험 감지 동작이 인식된 경우, 실제 위험 상황이 아닐 수도 있다. 예를 들어, 객체가 양손을 위로 들고 흔드는 동작이 제1 위험 감지 동작일 수 있다. 위험 상황이 아닌 경우에도 우연히 제1 위험 감지 동작과 동일한 동작을 수행하는 객체가 존재할 수도 있고, 이러한 경우, 불필요하게 위험하지 않은 상황에 대해서도 위험 상황이라는 판단을 내릴 수도 있다. 이러한 오판 상황을 방지하고, 위험 상황의 인식에 대한 신뢰도를 높이기 위한 방법이 개시된다.
이하, 본 발명에서는 실제 위험 상황에서 발생된 제1 위험 감지 동작은 제1 위험 감지 동작(위험 상황), 실제 위험 상황이 아닌 상황에서 발생된 제1 위험 감지 동작은 제1 위험 감지 동작(비위험 상황)이라는 용어로 표현된다.
본 발명에서는 복수의 머신러닝 엔진을 기반으로 우선적으로 제1 위험 감지 동작인지 여부가 판단되고, 이후, 제1 위험 감지 동작 중 제1 위험 감지 동작(위험 상황)이 결정될 수 있다.
우선 제1 위험 감지 동작인지 여부를 판단하기 위해 별도의 라벨링 없이 제1 위험 감지 동작에 대한 영상을 입력하여 머신러닝 엔진(1차 판단)(300)이 생성될 수 있다.
머신러닝 엔진(1차 판단)(300)은 입력된 영상이 제1 위험 감지 동작인지 아닌지 여부에 대한 학습만을 수행한 엔진일 수 있다.
다음으로 제1 위험 감지 동작 중 제1 위험 감지 동작(위험 상황)을 결정하기 위한 복수의 머신러닝 엔진 그룹이 학습될 수 있다.
복수의 머신러닝 엔진 그룹은 제1 머신러닝 엔진(2차 판단)(310), 제2 머신러닝 엔진(2차 판단)(320), 제3 머신러닝 엔진(2차 판단)(330)을 포함할 수 있다.
우선 제1 머신러닝 엔진(2차 판단)(310)에 별도의 식별자 없이 제1 위험 감지 동작(위험 상황)에 대한 영상 정보가 입력되고, 제1 머신러닝 엔진(2차 판단)(320)은 객체가 제1 위험 감지 동작을 수행하였고, 실제로 위험 상황인 경우에 대한 학습을 수행할 수 있다.
제2 머신러닝 엔진(2차 판단)(320)에 별도의 식별자 없이 제1 위험 감지 동작(비위험 상황)에 대한 영상 정보가 입력되고, 제2 머신러닝 엔진(2차 판단)(320)은 객체가 제2 위험 감지 동작을 수행하였으나, 실제로 위험 상황이 아닌 경우에 대한 학습을 수행할 수 있다.
제3 머신러닝 엔진(2차 판단)(330)에 식별자를 부여하여 제1 위험 감지 동작(위험 상황) 및 제2 위험 감지 동작(비위험 상황)에 대한 영상 정보가 입력되고, 제3 머신러닝 엔진(2차 판단)(330)은 제1 위험 감지 동작(위험 상황) 및 제1 위험 감지 동작(비위험 상황)의 분류를 위한 학습을 수행할 수 있다.
본 발명에서는 제1 머신러닝 엔진(2차 판단)(310), 제2 머신러닝 엔진(2차 판단)(320) 및 제3 머신러닝 엔진(2차 판단)(330) 각각을 기반으로 한 위험 상황 판단이 수행될 수 있다. 제1 머신러닝 엔진(2차 판단)(310), 제2 머신러닝 엔진(2차 판단)(320) 및 제3 머신러닝 엔진(2차 판단)(330) 각각을 기반으로 제1 위험 감지 동작(위험 상황) 및 제2 위험 감지 동작(비위험 상황)인지 여부가 각각 판단되고, 판단 결과가 종합되어 최종적으로 제1 위험 감지 동작이 실제 위험 상황에서 발생된 동작인지 여부를 결정할 수 있다.
구체적으로 CCTV 카메라를 기반으로 촬영된 영상은 머신러닝 엔진(1차 판단)(300)으로 입력되고 영상 중 제1 위험 감지 동작을 포함하는 영상이 분류되어 추출될 수 있다.
제1 위험 감지 동작에 대한 영상은 제1 머신러닝 엔진(2차 판단)(310), 제2 머신러닝 엔진(2차 판단)(320) 및 제3 머신러닝 엔진(2차 판단)(330) 각각으로 입력되고, 제1 머신러닝 엔진(2차 판단)(310), 제2 머신러닝 엔진(2차 판단)(320) 및 제3 머신러닝 엔진(2차 판단)(330) 각각에서 제1 위험 감지 동작(위험 상황), 제1 위험 감지 동작(비위험 상황)이 결정될 수 있다.
본 발명에서는 판단 민감도에 따라 최종적으로 제1 위험 감지 동작(위험 상황), 제1 위험 감지 동작(비위험 상황)을 결정할 수 있다.
예를 들어, 판단 민감도가 상대적으로 높게 설정된 경우, 제1 위험 감지 동작이 제1 머신러닝 엔진(2차 판단)(310)에서 제1 위험 감지 동작(위험 상황)으로 판단되고, 제2 머신러닝 엔진(2차 판단)(320)에서 제1 위험 감지 동작(비위험 상황)이 아닌 것으로 판단되고, 제3 머신러닝 엔진(2차 판단)(330)에서 제1 위험 감지 동작(위험 상황)으로 판단된 경우, 제1 위험 감지 동작이 최종적으로 제1 위험 감지 동작(위험 상황)으로 판단될 수 있다.
반대로, 판단 민감도가 상대적으로 낮게 설정된 경우, 제1 위험 감지 동작이 제1 머신러닝 엔진(2차 판단)(310) 또는 제3 머신러닝 엔진(2차 판단)(330)에서 제1 위험 감지 동작(위험 상황)으로 판단된 경우, 제2 머신러닝 엔진(2차 판단)(320)의 판단 결과와 상관없이 제1 위험 감지 동작이 최종적으로 제1 위험 감지 동작(위험 상황)으로 판단될 수 있다.
즉, 판단 민감도의 설정에 따라 2차 판단을 수행하는 머신러닝 엔진의 판단 결과 중 어떠한 머신러닝 엔진의 판단 결과를 활용할지 여부가 결정될 수 있다.
설정된 판단 민감도에 따라 제1 위험 감지 동작을 제1 위험 감지 동작(위험 상황)으로 판단시 활용되는 머신러닝 엔진 및/또는 머신러닝 엔진의 판단 결과는 다르게 설정될 수 있다.
또한 본 발명의 실시예에 따르면, 제1 위험 감지 동작(위험 상황)과 제1 위험 감지 동작(비위험 상황)을 판단함에 있어서 제1 위험 감지 동작을 수행시 주변 환경 정보가 추가적으로 고려될 수도 있다. 주변 환경 정보는 주변 객체의 존재 여부, 주변 객체의 수 및 촬영 시간에 대한 정보를 포함할 수 있다. 이때 주변 객체의 존재 여부 및 주변 객체의 수는 현재 제1 위험 감지 동작을 수행한 객체를 촬영한 CCTV 카메라의 임계 거리 내의 주변 카메라에서 촬상된 정보도 포함될 수 있다.
제2 위험 감지 동작으로 판단되지 않는 경우, 제1 위험 감지 동작을 수행한 객체에 대해서 제1 위험 감지 동작을 수행한 객체의 주변에 위치한 주변 객체의 존재 여부, 주변 객체의 수를 고려하여 주변 객체의 수가 임계 개수 이상인 경우, 제1 위험 감지 동작이 제1 위험 감지 동작(비위험 상황)으로 판단될 확률을 상대적으로 증가시킬 수 있다. 또한, 촬영 시간 대가 주변 사람들의 통행이 많은 시간대일 수혹 제1 위험 감지 동작(비위험 상황)으로 판단될 확률을 상대적으로 증가시켜 판단할 수도 있다.
도 4는 본 발명의 실시예에 따른 방법 시스템의 동작 방법을 나타낸 개념도이다.
도 4에서는 방법 시스템에서 2차적인 확인을 통하여 사용자가 위험 상황임을 확인하기 위한 절차가 개시된다.
도 4를 참조하면, CCTV 카메라(410)와 로고젝터(또는 프로젝터)(400)가 함께 설치될 수 있다. 이하, 설명의 편의상 로고젝터(또는 프로젝터)(400)는 상황 식별 정보 출력 장치라는 용어로 표현될 수 있다.
CCTV 카메라(410)에서 촬상된 영상에 제1 위험 감지 동작이 포함되는 경우, CCTV 카메라(410)는 상황 식별 정보 출력 장치(400)로 제1 상황 식별자(450)를 출력할 것을 요청하는 메시지를 전송할 수 있다. 제1 상황 식별자(450)는 CCTV의 위치를 객체가 보다 빠르게 판단하기 위한 용도로 사용될 수도 있다.
상황 식별 정보 출력 장치(400)는 제1 상황 식별자를 출력할 것을 요청하는 메시지를 수신하고, 상황 식별자를 특정면(예를 들어, 지면)에 출력할 수 있다. 예를 들어, 상황 식별 정보 출력 장치(400)가 로고 젝터인 경우, 로고 젝터는 특정 로고를 포함하는 LED(light emitting diode) 광을 제1 상황 식별자로서 지면에 출력할 수 있다.
상황 식별 정보 출력 장치(400)의 출력 이후, 제1 상황 식별자(450)로 객체가 이동하는 경우, CCTV 카메라(410)는 제1 상황 식별자 위에 위치한 객체를 인식하고 객체가 위험 상황임을 최종적으로 확인할 수 있다. 즉, 지면에 광을 기반으로 출력되는 제1 상황 식별자(450)는 1차 위험 감지 행동을 수행한 객체가 실제 위험에 빠진 상황인지를 추가적으로 확인하기 위한 가상의 버튼 역할을 수행할 수 있다.
위와 같은 제1 상황 식별자(450)를 활용한 2차 판단 절차는 머신 러닝 엔진의 판단 결과, 결과값이 상이한 경우에 추가적인 절차로서 사용될 수도 있다.
예를 들어, 제1 머신러닝 엔진(2차 판단)은 제1 위험 감지 동작(위험 상황)으로 판단하고, 제3 머신러닝 엔진(2차 판단)은 제1 위험 감지 동작(비위험 상황)으로 판단한 경우, 위험 상황에 대한 추가적인 확인 절차로서 위와 같은 추가 행동에 대한 판단을 기반으로 현재 상황이 실제 위험 상황인지 여부를 2차적으로 판단할 수도 있다.
제2 상황 식별자는 CCTV의 위치를 객체가 보다 빠르게 판단하기 위한 용도로 사용될 수도 있다. 객체는 CCTV의 위치를 알 수 없어서 제1 위험 감지 동작을 수행하지 못할 수 있다. 따라서, 상황 식별 정보 출력 장치(400)가 제1 위험 감지 동작을 감지한 이후 제1 상황 식별자를 출력하기 전 디폴트 상태에서는 제2 상황 식별자를 출력하여 CCTV의 위치를 알릴 수도 있다.
도 5는 본 발명의 실시예에 따른 방범 시스템의 상황 판단 방법을 나타낸 개념도이다.
도 5에서는 제1 위험 감지 동작으로 판단되지 않은 영상에 대한 추가적인 판단 방법이 개시된다.
도 5를 참조하면, 방범 시스템은 전술한 바와 같이 구체적으로 CCTV 카메라를 기반으로 촬영된 영상은 머신러닝 엔진(1차 판단)(500)으로 입력되고 영상 중 제1 위험 감지 동작을 포함하는 영상이 분류되어 추출될 수 있다.
이때, 머신러닝 엔진(1차 판단)(500)을 기초로 하되, 제1 위험 감지 동작에 대한 감지 정확도를 상대적으로 낮춘 머신러닝 엔진(1차 판단)(추가 판단)(550)이 별도로 위치할 수 있다.
머신러닝 엔진(1차 판단)(추가 판단)(550)은 머신러닝 엔진(1차 판단)(500)보다 명확하지 않은 제1 위험 감지 동작을 수행한 객체의 영상을 추가적으로 수신하여 학습된 머신러닝 엔진일 수 있다. 머신러닝 엔진(1차 판단)(추가 판단)(550)은 제1 위험 감지 동작을 불명확하게 한 경우에도 머신러닝 엔진(1차 판단)(500)보다 상대적으로 제1 위험 감지 동작이라는 판단을 내릴 가능성이 큰 머신러닝 엔진일 수 있다.
즉, 머신러닝 엔진(1차 판단)(500)을 통해 전달된 제1 위험 감지 동작은 머신 러닝(2차 판단) (510, 520, 530)으로 전달될 수 있을 뿐만 아니라, 머신러닝 엔진(1차 판단)(추가 판단)(550)은 별도로 독립적으로 머신러닝 엔진(1차 판단)(500)과 동일한 영상을 수신하고 제1 위험 감지 동작에 대한 판단을 수행할 수 있다.
머신러닝 엔진(1차 판단)(추가 판단)(550)에서 제1 위험 감지 동작으로 판단된 영상 중 머신러닝 엔진(1차 판단)(500)에서 제1 위험 감지 동작으로 판단된 영상을 제외하는 경우, 상대적으로 낮은 신뢰도의 제1 위험 감지 동작이 추출될 수 있다.
머신러닝 엔진(1차 판단)(추가 판단)(550)에서 제1 위험 감지 동작으로 판단된 영상 중 머신러닝 엔진(1차 판단)(500)에서 제1 위험 감지 동작으로 판단된 영상을 제외한 상대적으로 낮은 신뢰도의 제1 위험 감지 동작은 제1 위험 감지 동작(추가 판단 대상)(570)이라는 용어로 정의될 수 있다.
제1 위험 감지 동작(추가 판단 대상)(570)이 추출되는 경우, 제1 위험 감지 동작(추가 판단 대상)(570)을 수행한 객체에 대해서는 별도의 객체 트래킹을 통해 제2 위험 감지 동작이 수행되는지 여부를 판단할 수 있다. 제1 위험 감지 동작(추가 판단 대상)(570)을 수행한 객체는 별도의 트래킹 대상 객체로 분류하여 위험 상황에 빠지는지 여부에 대한 추가적으로 체크가 수행될 수 있다.
이러한 방법을 통해 감지 정확도가 상대적으로 낮게 설정된 별도의 머신러닝 엔진을 활용하여 판단이 잘못될 수 있는 동작에 대해 추가적으로 보완을 하도록 할 수 있다.
또한, 본 발명의 실시예에 따르면, 제1 위험 감지 동작(추가 판단 대상) 중 위험 동작인 경우에 대해 머신러닝 엔진(1차 판단)으로 피드백 되어 학습이 수행될 수 있다. 즉, 잘못 판단된 제1 위험 감지 동작 영상에 대해서는 피드백되어 제1 위험 감지 동작에 대한 보다 정확한 판단이 가능하도록 판단할 수 있다.
도 6은 본 발명의 실시예에 따른 제1 위험 감지 동작(위험 상황)의 결정 이후 방범 시스템의 동작을 나타낸 개념도이다.
도 6에서는 특정 CCTV 카메라에서 촬상된 영상이 제1 위험 감지 동작(위험 상황)인 경우, 이후 방범 시스템의 동작이 개시된다.
도 6을 참조하면, 제1 위험 감지 동작을 촬영한 촬영 CCTV 카메라를 기준으로 촬영 CCTV 카메라의 주변 CCTV 카메라로 해당 객체에 대한 정보를 전달하여 현재 상황에 대한 보다 구체적인 판단이 가능하도록 할 수 있다.
제1 위험 감지 동작을 촬영한 CCTV 카메라는 타겟 CCTV 카메라(600)라는 용어로 표현되고, 타겟 CCTV 카메라(600)의 주변에 임계 거리 내의 카메라는 주변 타겟 CCTV 카메라(650)라는 용어로 표현될 수 있다.
타겟 CCTV 카메라(600)에 의해 촬영된 영상을 통해 제1 위험 감지 동작을 수행한 타겟 객체(605)에 대한 정보와 타겟 객체(605)와 관련도가 높은 주변 객체에 대한 정보가 분석될 수 있다. 주변 타겟 CCTV 카메라(650)에서 촬상된 영상을 통해 타겟 객체와 관련도가 높은 주변 객체에 대한 정보가 분석할 수 있다.
타겟 객체(605), 주변 객체(610)에 대한 정보의 분석을 통해 타겟 객체(605), 주변 객체(610)의 특징 정보가 추출되고, 트래킹 객체로서 분류되어 타겟 객체(605)와 주변 객체(610)에 대한 트래킹이 수행될 수 있다.
이러한 방법을 통해 범죄 현장 및 가해자에 대한 정보가 보다 명확하게 확보되어 범죄 예방 및 범죄 해결에 도움이 될 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (6)

  1. 동작 인식을 기반으로 한 방범 시스템 구현 방법은,
    CCTV(closed circuit television) 카메라에 의해 촬영된 영상에서 객체 동작 분석을 수행하는 단계; 및
    상기 객체 동작 분석을 기반으로 객체가 위험 상황인지 여부를 판단하는 단계를 포함하되,
    상기 객체 동작 분석은 상기 촬영된 영상 상에서 포함된 제1 위험 감지 동작 및 제2 위험 감지 동작에 대한 분석을 포함하고,
    상기 제1 위험 감지 동작은 상기 객체와 미리 약속된 위험 상황을 알리기 위해 미리 특정된 동작이고,
    상기 제2 위험 감지 동작은 상기 객체와 미리 약속되지 않은 위험 상황에서 발생되는 동작이되,
    상기 제1 위험 감지 동작은 머신러닝 엔진(1차 판단)을 기반으로 판단되고,
    상기 머신러닝 엔진(1차 판단)은 입력된 영상이 상기 제1 위험 감지 동작인지 아닌지 여부에 대한 학습만을 수행한 엔진이고,
    머신러닝 엔진(2차 판단)은 상기 머신러닝 엔진(1차 판단)을 기반으로 판단된 상기 제1 위험 감지 동작을 제1 위험 감지 동작(위험 상황) 또는 제1 위험 감지 동작(비위험 상황)으로 결정하기 위해 구현되고,
    상기 머신러닝 엔진(2차 판단)은 서로 다른 학습 방법을 기반으로 학습된 복수의 머신러닝 엔진을 포함하고,
    상기 복수의 머신러닝 엔진의 판단 결과는 판단 민감도에 따라 최종적으로 상기 제1 위험 감지 동작을 상기 제1 위험 감지 동작(위험 상황) 또는 상기 제1 위험 감지 동작(비위험 상황)으로 결정하기 위해 사용되는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 복수의 머신러닝 엔진은 제1 머신러닝 엔진(2차 판단), 제2 머신러닝 엔진(2차 판단) 및 제3 머신러닝 엔진(2차 판단)을 포함하고,
    상기 제1 머신러닝 엔진(2차 판단)은 별도의 식별자 없이 상기 제1 위험 감지 동작(위험 상황)에 대한 영상 정보가 입력되어 학습되고,
    상기 제2 머신러닝 엔진(2차 판단)은 별도의 식별자 없이 상기 제1 위험 감지 동작(비위험 상황)에 대한 영상 정보가 입력되어 학습되고,
    상기 제3 머신러닝 엔진(2차 판단)은 제1 위험 감지 동작(위험 상황) 및 제2 위험 감지 동작(비위험 상황) 각각에 상기 식별자를 부여하여 상기 제1 위험 감지 동작(위험 상황) 및 상기 제2 위험 감지 동작(비위험 상황)에 대한 영상 정보가 입력되어 학습되는 것을 특징으로 하는 방법.
  3. 제2항에 있어서,
    상기 제1 위험 감지 동작(위험 상황)과 상기 제1 위험 감지 동작(비위험 상황)은 상기 제1 위험 감지 동작을 수행시 상기 객체의 주변 환경 정보를 추가적으로 고려하여 판단되고,
    상기 주변 환경 정보는 주변 객체의 존재 여부, 주변 객체의 수 및 촬영 시간에 대한 정보를 포함하고,
    상기 주변 객체의 존재 여부 및 상기 주변 객체의 수에 대한 정보는 현재 상기 제1 위험 감지 동작을 수행한 객체를 촬영한 CCTV 카메라의 임계 거리 내의 주변 카메라에서 촬상된 정보를 더 포함하는 것을 특징으로 하는 방법.
  4. 동작 인식을 기반으로 한 방범 시스템은,
    설정된 영역의 영상을 촬영하도록 구현된 카메라부;
    상기 카메라 부에 의해 촬상된 영상에서 객체 동작 분석을 수행하고, 상기 객체 동작 분석을 기반으로 객체가 위험 상황인지 여부를 판단하도록 구현된 프로세서를 포함하고,
    상기 객체 동작 분석은 상기 촬영된 영상 상에서 포함된 제1 위험 감지 동작 및 제2 위험 감지 동작에 대한 분석을 포함하고,
    상기 제1 위험 감지 동작은 상기 객체와 미리 약속된 위험 상황을 알리기 위해 미리 특정된 동작이고,
    상기 제2 위험 감지 동작은 상기 객체와 미리 약속되지 않은 위험 상황에서 발생되는 동작이되,
    상기 제1 위험 감지 동작은 머신러닝 엔진(1차 판단)을 기반으로 판단되고,
    상기 머신러닝 엔진(1차 판단)은 입력된 영상이 상기 제1 위험 감지 동작인지 아닌지 여부에 대한 학습만을 수행한 엔진이고,
    머신러닝 엔진(2차 판단)은 상기 머신러닝 엔진(1차 판단)을 기반으로 판단된 상기 제1 위험 감지 동작을 제1 위험 감지 동작(위험 상황) 또는 제1 위험 감지 동작(비위험 상황)으로 결정하기 위해 구현되고,
    상기 머신러닝 엔진(2차 판단)은 서로 다른 학습 방법을 기반으로 학습된 복수의 머신러닝 엔진을 포함하고,
    상기 복수의 머신러닝 엔진의 판단 결과는 판단 민감도에 따라 최종적으로 상기 제1 위험 감지 동작을 상기 제1 위험 감지 동작(위험 상황) 또는 상기 제1 위험 감지 동작(비위험 상황)으로 결정하기 위해 사용되는 것을 특징으로 하는 시스템.
  5. 제4항에 있어서,
    상기 복수의 머신러닝 엔진은 제1 머신러닝 엔진(2차 판단), 제2 머신러닝 엔진(2차 판단) 및 제3 머신러닝 엔진(2차 판단)을 포함하고,
    상기 제1 머신러닝 엔진(2차 판단)은 별도의 식별자 없이 상기 제1 위험 감지 동작(위험 상황)에 대한 영상 정보가 입력되어 학습되고,
    상기 제2 머신러닝 엔진(2차 판단)은 별도의 식별자 없이 상기 제1 위험 감지 동작(비위험 상황)에 대한 영상 정보가 입력되어 학습되고,
    상기 제3 머신러닝 엔진(2차 판단)은 제1 위험 감지 동작(위험 상황) 및 제2 위험 감지 동작(비위험 상황) 각각에 상기 식별자를 부여하여 상기 제1 위험 감지 동작(위험 상황) 및 상기 제2 위험 감지 동작(비위험 상황)에 대한 영상 정보가 입력되어 학습되는 것을 특징으로 하는 시스템.
  6. 제5항에 있어서,
    상기 제1 위험 감지 동작(위험 상황)과 상기 제1 위험 감지 동작(비위험 상황)은 상기 제1 위험 감지 동작을 수행시 상기 객체의 주변 환경 정보를 추가적으로 고려하여 판단되고,
    상기 주변 환경 정보는 주변 객체의 존재 여부, 주변 객체의 수 및 촬영 시간에 대한 정보를 포함하고,
    상기 주변 객체의 존재 여부 및 상기 주변 객체의 수에 대한 정보는 현재 상기 제1 위험 감지 동작을 수행한 객체를 촬영한 CCTV 카메라의 임계 거리 내의 주변 카메라에서 촬상된 정보를 더 포함하는 것을 특징으로 하는 시스템.
KR1020200150977A 2020-11-12 2020-11-12 동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템 KR102286675B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200150977A KR102286675B1 (ko) 2020-11-12 2020-11-12 동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200150977A KR102286675B1 (ko) 2020-11-12 2020-11-12 동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템

Publications (1)

Publication Number Publication Date
KR102286675B1 true KR102286675B1 (ko) 2021-08-06

Family

ID=77315015

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200150977A KR102286675B1 (ko) 2020-11-12 2020-11-12 동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템

Country Status (1)

Country Link
KR (1) KR102286675B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110130033A (ko) * 2010-05-27 2011-12-05 박용헌 행동패턴 데이터베이스를 이용한 능동형 영상감시 시스템 및 그 방법
KR101524922B1 (ko) * 2013-08-01 2015-06-01 주식회사 엘지유플러스 비상 알림을 위한 장치, 방법 및, 기록 매체

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110130033A (ko) * 2010-05-27 2011-12-05 박용헌 행동패턴 데이터베이스를 이용한 능동형 영상감시 시스템 및 그 방법
KR101524922B1 (ko) * 2013-08-01 2015-06-01 주식회사 엘지유플러스 비상 알림을 위한 장치, 방법 및, 기록 매체

Similar Documents

Publication Publication Date Title
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
US11010254B2 (en) System and method for prioritization of data file backups
KR101297295B1 (ko) 얼굴인식 보안 관제 시스템
KR101735684B1 (ko) 차량용 영상 기록 및 제공 장치와 이를 이용한 지역 정보 획득 장치 및 방법
US10863144B2 (en) System and method for protecting critical data on camera systems from physical attack
US20160019427A1 (en) Video surveillence system for detecting firearms
JP2007048277A (ja) バックトラック及び行動解析を用いる自動非対称性脅威検出
KR20190035186A (ko) 딥 러닝 기법을 활용한 지능형 무인 보안 시스템
KR101894399B1 (ko) 개인 정보 보호 기능을 포함한 모니터링 시스템 및 그 방법
KR101442669B1 (ko) 지능형 객체감지를 통한 범죄행위 판별방법 및 그 장치
KR101879444B1 (ko) Cctv 구동 방법 및 시스템
KR20230009523A (ko) 객체 검출 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
CN112288975A (zh) 一种事件预警的方法和装置
CN115783919A (zh) 电梯用电动车监控系统及方法
KR102233679B1 (ko) Ess 침입자 및 화재 감지 장치 및 방법
KR20210043960A (ko) IoT와 인공지능 기술을 이용한 행동인식 기반의 안전 감시 시스템 및 방법
KR20210013865A (ko) 생성적 대립 네트워크를 이용한 사람의 비정상 행동 탐지 시스템 및 방법
KR102046591B1 (ko) 영상 감시 시스템 및 영상 감시방법
KR102286675B1 (ko) 동작 인식을 기반으로 한 방범 시스템 구현 방법 및 이러한 방법을 사용하는 방범 시스템
Khodadin et al. An intelligent camera surveillance system with effective notification features
Ng et al. Surveillance system with motion and face detection using histograms of oriented gradients
KR20200056656A (ko) 액션 캠 모듈을 이용한 사람 및 사물 인식 시스템
CN113744443B (zh) 一种闸机通道防欺骗控制方法、装置、设备及存储介质
Mahmood Ali et al. Strategies and tools for effective suspicious event detection from video: a survey perspective (COVID-19)
Nair et al. i-Surveillance crime monitoring and prevention using neural networks

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant