KR102126498B1 - 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템 - Google Patents

영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템 Download PDF

Info

Publication number
KR102126498B1
KR102126498B1 KR1020190146899A KR20190146899A KR102126498B1 KR 102126498 B1 KR102126498 B1 KR 102126498B1 KR 1020190146899 A KR1020190146899 A KR 1020190146899A KR 20190146899 A KR20190146899 A KR 20190146899A KR 102126498 B1 KR102126498 B1 KR 102126498B1
Authority
KR
South Korea
Prior art keywords
body part
stage
image
female
risk situation
Prior art date
Application number
KR1020190146899A
Other languages
English (en)
Inventor
임성한
김솔람
백남철
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020190146899A priority Critical patent/KR102126498B1/ko
Application granted granted Critical
Publication of KR102126498B1 publication Critical patent/KR102126498B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0225Monitoring making use of different thresholds, e.g. for different alarm levels
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Emergency Management (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명에서는 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하는 단계, 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하고 분석하는 단계, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 움직임에 기반하여 1단계 위험상황으로 판단하는 단계, 상기 1단계 위험상황에 따른 알람을 발생시키고, 상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하는 단계, 상기 하나 이상의 객체의 움직임 변화량에 기반하여 2단계 위험상황으로 판단하는 단계 및 상기 2단계 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환하는 단계를 포함하여 위험상황을 감지하고 관리한다.

Description

영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템{APPARATUS, SYSTEM AND METHOD FOR DETECTING DANGEROUS SITUATION BASED ON IMAGE RECOGNITION}
본 발명은 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템에 관한 것으로서, 구체적으로 CCTV를 이용하여 수집된 영상에 대해 인공지능 알고리즘을 이용한 학습 기반으로 위험상황을 감지하는 방법, 위험상황을 관리하는 위험 관리 장치, 이를 이용한 위험상황 감지시스템에 관한 것이다.
정보통신기술의 발달로 인해, CCTV, IP cam, 블랙박스와 같은 영상 데이터, 음성 데이터 수집 장치가 널리 보급되고 있다. 이러한 장치들은 사회 및 개인의 안전을 위한 무인 감시 체계의 일부로서 사용될 수 있다. 현재 이러한 데이터 수집 장치는 이들로부터 녹화된 영상, 음성 데이터를 사후적으로 이용하여 문제를 확인하는 용도로 주로 사용되고 있다. 또한, 예를 들어 교통정보센터, 시민안전센터 등의 각 지자체 및 국가 관리센터, 기업의 보안관리센터 등에서는 실시간 CCTV 영상을 수집하지만, CCTV 영상을 분석하고 비상 상황의 발생을 인지하고 대응하기 위한 모니터링 요원을 필요로 한다.
그러나, 수십 개 내지 수만 개에 이르는 CCTV 모든 영상을 제한된 인력으로 커버하여 위험상황의 발생에 신속히 대응하는 데에는 한계가 있다.
따라서 수많은 음성, 영상 수집 장치를 활용하여 인간의 개입이 없이도 위험상황을 신속하게 감지하고, 또한 위험상황 감지의 정확도를 높여 효율적인 무인 감시 체계를 가능하도록 하는 방안이 필요하다.
대한민국 공개특허공보 제10-2010-0067540호(2010.06.21.공개).
본 발명은 위와 같은 필요성을 충족시키기 위하여 개발된 것으로서, 영상 인식에 대한 인공지능 알고리즘을 이용한 학습을 통해 객체, 객체의 움직임 및 위험상황을 감지하고 위험 단계에 따른 감시 기능을 수행하여 효율적인 무인 감시 체계를 구축하기 위한 영상 인식 기반의 위험상황 감지 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
위와 같은 과제를 달성하기 위하여 본 발명에서는, 영상 인식 기반의 위험상황 감지 방법은, 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하는 단계, 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하고 분석하는 단계, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 움직임에 기반하여 1단계 위험상황으로 판단하는 단계, 상기 1단계 위험상황에 따른 알람을 발생시키고, 상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하는 단계, 상기 하나 이상의 객체의 움직임 변화량에 기반하여 2단계 위험상황으로 판단하는 단계 및 상기 2단계 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환하는 단계;를 포함하는 것을 특징으로 하는 영상 인식 기반의 위험상황 감지 방법이 제공된다.
또한 본 발명에서는 상기한 과제를 달성하기 위하여, 영상 인식 기반의 위험 관리 장치는, 시각적, 청각적 알람을 출력하는 출력부, 복수의 영상 수집 장치와 데이터를 주고받는 통신부 및 위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하도록 제어하는 제어부를 포함하고, 상기 제어부는, 상기 통신부를 통해 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하여 분석하고, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 움직임에 기반하여 1단계 위험상황으로 판단하고, 상기 출력부를 통해 상기 1단계 위험상황에 따른 알람을 발생시키고, 상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하도록 제어하고, 상기 하나 이상의 객체의 움직임 변화량에 기반하여 2단계 위험상황으로 판단하고, 상기 출력부를 통해 상기 2단계 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환하도록 제어하는 것을 특징으로 하는 영상 인식 기반의 위험 관리 장치가 제공된다.
또한 본 발명에서는 각각의 감시 영역을 실시간으로 촬영하는 복수의 영상 수집 장치; 및 네트워크를 통해 상기 복수의 영상 수집 장치에 연결된 상기한 영상 인식 기반의 위험 관리 장치를 포함하는 영상 인식 기반의 위험상황 감지 시스템이 제공된다.
위와 같은 본 발명의 방법, 장치 및 시스템에 있어서, 1단계 위험상황으로 판단하는 단계는, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 남성 객체 및 여성 객체를 인식하는 단계, 상기 남성 객체의 신체 부위와 상기 여성 객체의 신체 부위를 구분하는 단계, 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는지 판단하는 단계 및 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는 경우 상기 1단계 위험상황으로 판단하는 단계를 포함할 수 있다.
또한 상기한 본 발명의 방법, 장치 및 시스템에 있어서, 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는지 판단하는 단계는, 상기 남성 객체 및 상기 여성 객체의 속도 및 이동 방향을 고려하여 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 접촉하는지 판단하는 단계를 포함할 수 있고, 더 나아가, 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하는 단계는, 상기 영상 수집 장치를 팬, 틸트, 줌 이동시켜 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하는 단계를 포함할 수도 있다.
상기한 본 발명의 방법, 장치 및 시스템에 있어서, 상기 2단계 위험상황으로 판단하는 단계는, 여성 객체의 속도 및 방향의 변화량을 계산하여, 상기 여성 객체의 속도 및 방향의 변화량이 미리 설정된 기준값보다 큰 경우 위험상황으로 판단하는 단계를 포함할 수 있고, 상기 여성 객체의 속도 및 방향의 변화량은 상기 영상 수집 장치의 모니터링 구역을 일정 거리 간격으로 가상의 셀로 구분하여 상기 여성 객체의 발을 기준으로 이동량 및 이동 방향에 따라 산출될 수 있으며, 상기 인공지능 알고리즘은 기계 학습, 신경망, 유전자, 딥러닝, 분류 알고리즘 중 적어도 하나를 포함할 수 있고, 상기 1단계 위험상황에 따른 알람과 상기 2단계 위험상황에 따른 알람은 시각적 또는 청각적으로 구분될 수 있다.
본 발명에 의하면, 인공지능 알고리즘을 이용하여 학습된 학습 모델을 이용하여 객체, 객체의 움직임 및 비상 상황에 대한 인식 정확도를 높일 수 있다.
또한, 본 발명에서는 위험 단계에 따라 구체적인 신체 움직임을 파악하도록 동작하여 감시를 강화함으로서 무인 감시의 정확도를 더욱 높이고, 효율적인 자원 사용을 가능하게 한다. 이를 통해, 안전의 사각지대를 줄이고, 성범죄 등의 강력 범죄를 감소시킬 수 있고, 효율적인 무인 감시 체계를 구축할 수 있게 되는 효과가 발휘된다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 위험상황 감지시스템의 개략도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 위험상황 감지를 위한 위험 관리 장치의 기능적 구성도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 기계 학습 기반의 위험상황 판단을 위한 흐름의 개략도를 도시한다.
도 4는 본 발명의 일 실시예에 따른 성범죄 위험상황 판단을 위한 객체 인식 분류를 도시한다.
도 5는 본 발명의 일 실시예에 따른 영상 인식 기반의 위험상황 감지 방법을 위한 동작의 흐름도를 도시한다.
도 6은 본 발명의 일 실시예에 따른 위험상황의 기계 학습을 위한 동작의 흐름도를 도시한다.
도 7은 본 발명의 일 실시예에 따른 영상 처리 및 분석을 위한 동작의 흐름도를 도시한다.
도 8은 본 발명의 일 실시예에 따른 성범죄 위험상황에 대한 위험상황 감지 동작의 흐름도를 도시한다.
도 9 및 도 10은 각각 본 발명의 일 실시예에 따른 CCTV 영상과 셀 기반의 객체 움직임 감지 예를 도시한다.
이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 하나의 실시예로서 설명되는 것이며, 이것에 의해 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지 않는다. 참고로 청구범위를 포함한 본 명세서의 개시내용에서 동일 참조 부호는 동일 구성 요소를 지칭한다. 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.
본 명세서에서 정의하는 위험상황이란, 안전사고의 발생 위험, 강도 또는 폭행 위험, 성범죄 위험 등 인간의 생명과 안전을 위협하는 현대 사회에서 발생하는 다양한 위험에 대해, 이러한 위험이 발생하거나 발생하기 전의 징후로 판단되는 다양한 상황을 포함하는 넓은 개념으로 이해되어야 한다.
도 1에는 본 발명의 일 실시예에 따른 위험상황 감지시스템(100)의 개략도가 도시되어 있다. 도 2에는 본 발명의 일 실시예에 따른 위험상황 감지를 위한 위험 관리 장치(110)의 기능적 구성도가 도시되어 있다. 이하 사용되는 '…부', '…기' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
위험상황 감지시스템(100)은 위험 관리 장치(110)와 네트워크(120)를 통해 위험 관리 장치(110)에 연결된 복수의 영상 수집 장치(130-1, …, 130-n)를 포함한다. 위험 관리 장치(110)는 네트워크(120)를 통해 복수의 영상 수집 장치(130-1, …, 130-n)에 의해 수집된 영상 데이터를 수신하고, 수집된 영상 데이터를 처리 및 분석하여 위험상황을 판단하고 그에 따른 알람 시스템을 가동하도록 제어하는 장치이다. 예를 들어, 도 2에 도시된 바와 같이 위험 관리 장치(110)는 위험 관리 장치(110)의 전반적인 동작을 제어하는 제어부(210), 사용자 명령을 입력받는 입력부(220), 소리, 화면을 출력하는 출력부(230), 데이터를 저장하는 저장부(240) 및 네트워크를 통해 복수의 영상 수집 장치와 데이터를 주고받는 통신부(250)를 포함할 수 있다.
제어부(210)는 위험 관리 장치(110)의 전반적인 동작을 제어한다. 제어부(210)는 통신부(250)를 통해 신호의 송수신을 제어한다. 또한, 제어부(210)는 저장부(240)에 데이터를 기록하고, 읽는다. 네트워크(120)를 통해 복수의 영상 수집 장치(130-1, …, 130-n)로부터 촬영된 영상 데이터를 수신하고, 이들 영상을 처리 및 분석하여 위험상황을 판단한다. 이를 위해, 제어부(210)는 영상처리 분석부(211) 및 위험상황 판단부(212)를 포함할 수 있다.
영상처리 분석부(211)는 통신부(250)를 통해 수신된 영상 데이터를 전 처리하여 노이즈를 제거할 수 있다. 예를 들어, 휘도가 너무 밝거나 어두운 경우 이를 보정하고, 노이즈 제거 작업 등을 수행할 수 있다. 또한 영상 데이터 중에서 불필요한 상하, 좌우 마진(margin) 측 영역을 제거하여 관심영역(region of interest, ROI)만을 추출하는 등 영상처리를 할 수 있다. 또한, 본 발명의 일 실시예에 따라, 영상처리 분석부(211)는 입력 영상 프레임 데이터의 픽셀별로 위치의 이동을 다르게 하여 이동시키는 영상 워핑(image warping)을 수행함에 따라 프레임 내 픽셀 간을 보간하여 복원 영상 데이터를 생성할 수 있다. 영상 워핑은 픽셀의 위치를 이동하는 기하학적 처리 중의 한 기법이다. 영상의 확대나 축소와 같은 기하학적 처리는 모든 픽셀에 대하여 일정한 규칙을 적용함으로써 균일한 반환 결과를 얻는다. 이에 비해, 영상 워핑은 픽셀별로 이동 정도를 달리할 수 있어서 고무판 위에 그려진 영상을 임의대로 구부리는 것과 같은 효과를 나타낼 수 있다. 영상 분석 처리가 실시간으로 이루어지기 위해서는, 입력되는 영상의 캡처 속도만큼 처리 속도도 빨라야 하는 기술적인 시간 제약이 있는데, 영상 워핑을 통해 이러한 문제를 해결할 수 있다. 즉, 객체의 움직임이 빨라 촬영한 영상의 화질이 좋지 못하여 왜곡되는 오류가 발생할 수 있으며, 이 경우 수집된 영상을 대상으로 영상 워핑을 적용하여 보정하여 오류를 제거함에 따라 복원할 수 있다. 복원된 영상을 대상으로 영상 분석이 이루어지면 입력 영상의 캡처 속도에 맞추어 빠른 속도로 영상 분석이 가능하다. 본 발명의 변형 예에서, 수집된 영상 데이터를 인공지능 알고리즘에 따른 학습의 학습 모델에 기반하여 오류를 제거하고 복원하는 처리가 수행될 수 있다.
영상처리 분석부(211)는 이와 같이 처리된 영상을 분석한다. 본 발명의 일 실시예에서, 영상처리 분석부(211)는 영상에서 객체를 검출한다. 이 때, 인공지능을 이용하여 객체를 검출할 수 있다. 예를 들어, 영상 수집 장치(130-n)를 통해 획득된 영상으로부터 움직이는 사람을 감지하고, 사람의 성별과 그들의 신체 움직임을 판단할 때 인공지능 알고리즘을 이용할 수 있다. 인공지능 알고리즘의 예로는 기계 학습, 신경망, 유전자, 딥러닝, 분류 알고리즘이 있는데, 이들 중 적어도 하나를 이용하여 학습을 통해 다양한 영상 데이터베이스를 통해 학습된 결과값을 이용하여 객체를 정확하게 인식할 수 있다. 신경망 알고리즘으로는, 예를 들어 CNN(convolution neural network) 방식 등이 있다.
영상처리 분석부(211)는 이와 같이 검출된 객체의 변화를 추적한다. 이 때, 고밀도 광학 흐름(dense optical flow) 기법을 이용하여 모션 캡쳐할 수 있다. 광학 흐름은 두 개의 연속된 영상 프레임 사이에 객체의 가시적인 동작 패턴을 의미한다. 객체의 가시적인 동작 패턴은 객체의 움직임으로 인해 발생한다.
위험상황 판단부(212)는 영상처리 분석부(211)의 영상 분석 결과를 기반으로 위험상황 여부를 판단한다. 예를 들어, 위험상황 판단부(212)는 영상처리 분석부(211)의 영상 분석 결과에 따라 특정 객체, 특히 여자 1인, 남자 1인이 있는지 여부, 그들 신체간의 거리가 미리 설정된 거리 이하인지, 예를 들어 그들 신체가 겹치는지 여부 등에 따라 위험상황(예를 들어, 성범죄)이 발생했는지의 여부를 판단("위험상황 판단")한다.
본 발명의 일 실시예에 따라, 위험상황 판단부(212)는 위험상황 판단의 정확성을 높이기 위해 위험상황은 단계적으로 설정할 수 있다. 예를 들어, 성범죄 상황에서 남자와 여자 객체의 신체가 겹치는 1단계 위험상황이 발생하면 알람을 발생시키고 해당 영역의 더욱 자세한 영상을 수집하고 해당 영상을 녹화 영상으로 따로 수집할 수 있다. 또한, 이후 여자 1인, 남자 1인의 이동 속도를 분석하여 일정 속도 이상인 경우 2단계 위험으로 판단할 수 있다. 이 경우 2단계 알람을 발생시키고, 사람이 직접 해당 상황을 보고 판단할 수 있도록 직접 모니터링으로 전환시킬 수 있다.
상술한 제어부(210)의 동작은 하나 이상의 프로세서(processor)에 의해 수행될 수 있다. 예를 들어, 영상처리 분석부(211) 및 위험상황 판단부(212)의 동작은 각각 별개의 하나 이상의 프로세서에 의해서 수행될 수도 있고, 동일한 프로세서에 의해 수행될 수도 있다. 영상처리 분석부(211) 및 위험상황 판단부(212)의 동작은 동일한 프로세서에서 별개의 소프트웨어 블록으로 구분되어 실행될 수 있다. 제어부(210)는 입력부(220), 출력부(230), 저장부(240) 및 통신부(250)와 연결되어 이들의 전반적인 동작을 제어할 수 있다.
입력부(220)는 사용자의 명령을 입력받는 인터페이스를 제공할 수 있다. 예를 들어, 입력부(220)는 키보드, 터치 패널, 버튼 입력 장치, 마우스, 펜 센서, 마이크 등 다양한 형태로 제공될 수 있다. 입력부(220)를 통한 사용자 입력은 제어부(210)로 전달되고, 제어부(210)에 의해 다양한 설정 변경으로 저장부(240)에 저장되거나, 출력부(230)로 관련 내용을 출력하도록 제어될 수 있다.
출력부(230)는 제어부(210)에 의해 처리된 정보, 통신부(250)를 통해 수신된 정보를 출력한다. 출력 형태는 음성 신호, 영상 신호, 진동 형태일 수 있다. 출력부(230)는 음성 신호 형태의 경고음 등을 출력하는 오디오, 화면에 다양한 문자, 이미지 등 영상 신호를 출력하는 디스플레이 등을 포함할 수 있다.
저장부(240)는 위험 관리 장치(110)에서 동작 수행을 위해 필요한 정보와 동작 수행에 따라 생성되는 정보가 저장된다. 저장부(240)는 통신부(250)를 통해 복수의 영상 수집 장치(130-1, …, 130-n)로부터 수집된 영상 데이터, 처리된 영상 데이터 등 수집, 처리된 다양한 데이터나, 위험상황 판단을 위한 다양한 설정, 판단 기준 등이 저장될 수 있다. 저장부(240)는 위험 관리 장치(110)에 포함된 메모리일 수도 있으나, 위험 관리 장치(110) 외부에 연결된 외부 저장 장치일 수도 있다.
통신부(250)는 네트워크(120)를 통해 복수의 영상 수집 장치(130-1, …, 130-n)와 연결된다. 통신부(250)는 네트워크(120)를 통해 연결된 복수의 영상 수집 장치(130-1, …, 130-n)로부터 수집된 영상을 수신하고, 제어부(210)로부터의 복수의 영상 수집 장치(130-1, …, 130-n)에 대한 제어 명령을 복수의 영상 수집 장치(130-1, …, 130-n)로 전송한다.
네트워크(120)는 복수의 단말 장치 및 서버와 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미한다. 예를 들어, 네트워크(120)는 RF, 3GPP(3rd generation partnership project) 네트워크, WiMax(world interoperability for microwave access) 네트워크, 인터넷(internet), LAN(local area network), Wireless LAN, WAN(wide area network), PAN(personal area network) 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성방송 네트워크, 아날로그 방송 네트워크, DMB(digital multimedia broadcasting) 네트워크 등이 포함되나, 이에 한정되지 않는다.
복수의 영상 수집 장치(130-1, …, 130-n)는 각각 할당된 감시 영역을 실시간으로 촬영하는 감시 카메라와 같은 장치 중 하나일 수 있다. 복수의 영상 수집 장치(130-1, …, 130-n) 각각은 팬, 틸트, 줌(Pan, Tilt, Zoom: PTZ)으로 구동될 수 있고, 객체를 자동 추적하여 근점 및 확대 촬영을 할 수 있도록 구성될 수 있다. 복수의 영상 수집 장치(130-1, …, 130-n) 각각에서 촬영되는 영역의 이미지가 각각 하나의 셀(cell)에 대응되도록 설정될 수 있다.
본 발명의 일 실시예에 따라 복수의 영상 수집 장치(130-1, …, 130-n) 각각은 디지털 비디오 카메라, 컬러 카메라, 흑백 카메라(monochrome camera), 카메라, 캠코더, PC 카메라, 웹캠, 적외선(IR) 비디오 카메라, 저조도 비디오 카메라, 감열식(thermal) 비디오 카메라, 폐쇄-회로 텔레비전(CCTV) 카메라, 팬, 틸트, 줌(PTZ) 카메라, 블랙박스 카메라, IP 캠 또는 비디오 센싱 장치 중 하나 또는 그 이상을 포함할 수 있다.
도 3에는 본 발명의 일 실시예에 따른 학습 기반의 위험상황 판단을 위한 흐름의 개략도가 도시되어 있다. 도 3을 참조하면, 예를 들어 제어부(210)에 의해 인공지능 알고리즘에 따른 학습 기반의 위험상황 판단이 수행될 수 있다.
먼저, 복수의 영상 수집 장치(130-1, …, 130-n)에 의해 수집된 영상 프레임으로부터 하나 이상의 객체가 추출된다. 객체는 실제 세계에 존재하는 자동차 등과 같은 사물과, 개, 고양이 등과 같은 동물, 성별이 구분되는 사람 등과 같이 다양하게 존재한다. 예를 들어, 이미지 프로세싱을 통해 영상 프레임으로부터 각각의 객체를 추출하고 구분할 수 있다.
그 다음, 추출된 객체가 어떤 객체인지 판단한다. 이 때, 인공지능 알고리즘을 이용하여 객체 데이터를 이용하여 추출된 객체 이미지와 실제 객체에 대한 데이터 셋을 이용하여 추출된 객체 이미지로부터 객체를 판단하는 학습을 수행한다. 이러한 인공지능 알고리즘에 따른 학습에 기반하여, 복수의 영상 수집 장치(130-1, …, 130-n)에 의해 수집된 영상 프레임으로부터 추출된 객체를 객체-A 또는 객체-B 등으로 판단한다. 예를 들어, 인공지능 알고리즘을 이용하여 학습된 학습 모델에 기반하여 추출된 객체 이미지가 사람으로 판단되고, 여자 1인과 남자 1인으로 판단될 수 있다.
다음으로, 판단된 객체에 각각 ID를 부여한다. 동일한 여성 객체이더라도 각기 다른 ID를 부여하여 별개의 객체로서 동작을 추적할 수 있다.
마지막으로, 객체에 대한 위험상황을 판단한다. 이 때, 위험상황에 대해 인공지능 알고리즘을 이용하여 학습된 학습 모델을 이용하여 각 객체의 동작 상태와 객체의 위험상황에 대한 데이터 셋을 이용하여 각 객체의 동작 상태로부터 객체가 위험상황인지 판단하는 학습을 수행한다. 이러한 학습 모델에 기반하여, 영상 프레임으로부터 추출된 객체 및 객체의 동작 상태로부터 특정 객체가 위험상환인지 판단한다. 예를 들어, 인공지능 알고리즘을 이용하여 학습된 학습 모델에 기반하여 여성 객체와 남성 객체의 신체가 겹치는 것으로 판단되는 경우 여성 객체에 대한 위험상황으로 판단할 수 있고, 그에 따른 알람 출력 등의 동작을 수행할 수 있다.
도 4에는 본 발명의 일 실시예에 따른 성범죄 위험상황 판단을 위한 객체 인식 분류가 도시되어 있다. 도면에 도시된 바와 같은 객체 인식과 위험상황 판단을 위한 기계 학습을 위해, 본 발명의 일 실시예에 따른 위험상황을 판단하는 방법은 전체 형상(성별 구분), 신체 부위, 부위별 세부 행동 분석을 통해 이루어질 수 있다. 인공지능 알고리즘에 기반하여 '객체-세부 부위-세부 행동'으로 구분하여 분석 구체화하고, '객체-세부 부위-세부 행동'에 대해 단계적으로 판단한다.
이러한 신체 부위별 변화 발생은 반드시 성범죄 영상이 아니어도 수집 가능하다. 따라서, 도 4에 도시된 바와 같이, 신체 부위별 변화 영상을 성범죄 영상이 아닌 일반 영상에서 수집하고 기계 학습을 위한 데이터를 구성함으로써, 학습 데이터 표본 수를 획기적으로 증가시키고 위험상황(예를 들어, 성범죄) 인식 학습 알고리즘의 정확도를 크게 향상시킬 수 있다. 예를 들어, 성범죄 위험상황 인식의 경우, 신체의 일부가 겹치는지 여부, 남자의 팔이 여자의 신체 부위 상에 일정 시간 이상 머무르는지 여부, 여자의 신체 방향이 틀어지는 지 여부, 여자가 몸을 웅크리는지 여부 등의 인자를 동시에 고려하여 비상상황을 판단할 수 있다. 인공지능 알고리즘을 이용한 위험상황에 대한 구체적인 학습을 통해 판단 인자들은 구체화 다양화될 수 있을 것이다.
도 5에는 본 발명의 일 실시예에 따른 영상 인식 기반의 위험상황 감지 방법을 위한 동작의 흐름도가 도시되어 있다. 영상 인식 기반의 위험상황 감지를 위한 위험 관리 장치(110)의 동작의 흐름이 도시되어 있다. 도 5를 참조하면, 영상 인식 기반의 위험상황 감지 방법은 위험상황 학습 단계(S501), 영상 처리 및 분석 단계(S503), 위험상황 감지 단계(S505) 및 위험상황 알림 단계(S507)를 포함한다.
먼저, 위험 관리 장치(110)는 신경망 알고리즘에 기반하여 위험상황을 학습한다(S501). 즉, 위험 관리 장치(110)는 위험상황에 관련된 객체, 신체 부위, 신체 동작과 관련하여 위험상황을 판단하기 위한 샘플 데이터를 구성하고, 인공지능 알고리즘을 이용하여 학습하여 알고리즘의 정확도를 측정하고 기계 학습을 진행할 수 있다. 구체적으로 도 6에 도시된 바와 같이 위험상황을 학습하기 위한 동작을 수행할 수 있다.
다음으로, 위험 관리 장치(110)는 수집된 영상 데이터를 처리 및 분석한다(S503). 즉, 위험 관리 장치(110)는 복수의 영상 수집 장치(130-1, …, 130-n)에 의해 수집된 영상 데이터로부터 영상 프레임을 추출하고, 프레임 데이터를 분석하여 프레임간 변화를 통해 움직이는 객체를 추출하고, 이미지 프로세싱을 통해 객체를 분석할 수 있다. 구체적으로 도 7에 도시된 바와 같이 수집된 영상을 처리하고 분석하는 동작을 수행할 수 있다.
그 다음, 위험 관리 장치(110)는 인공지능 알고리즘을 이용한 학습에 기반하여 위험상황을 감지한다(S505). 즉, 위험 관리 장치(110)는 인공지능 알고리즘을 이용하여 위험상황을 학습하고, 학습된 학습 모델에 기반하여 분석된 영상 데이터를 이용하여 위험상황을 판단할 수 있다. 위험상황을 판단하기 위해 객체의 전체적으로 객체의 성별을 구분하고, 구체적인 신체 부위의 움직임을 파악하여 움직임의 방향, 속도 등을 이용하여 위험상황을 판단한다. 객체와 세부 신체부위 판단을 모두 학습된 모델에 기반하여 수행할 수 있다. 구체적인 예를 들어, 도 8에 도시된 바와 같이 성범죄 위험상황을 판단하는 동작을 수행할 수 있다.
다음으로, 위험 관리 장치(110)는 감지된 위험상황에 대해 알림을 수행한다(S507). 즉, 위험 관리 장치(110)는 인공지능 알고리즘을 이용한 학습에 기반하여 영상 데이터로부터 위험상황을 판단하고 알람 등을 통해 위험상황을 알릴 수 있다. 예를 들어, 위험상황은 2단계 이상으로 정의될 수 있고, 1단계 위험상황으로 판단된 경우 1단계 위험 알람(경고음, 경고 방식이 달라질 수 있음)을 수행하고, 위험상황이 발생한 영역의 영상 수집 장치를 팬, 틸트, 줌을 조절하여 포커싱하고 해당 영상의 녹화 및 별도 저장을 수행할 수 있다. 1단계 위험상황인 경우 다시 단계 S501 내지 S505를 다시 수행할 수 있다. 이 때, 다시 2단계 위험상황인 것으로 판단된 경우 2단계 위험 알람을 수행하고, 구체적인 판단을 위해 직접 모니터링 모드로 전환할 수 있다. 구체적인 예를 들어, 도 8에 도시된 바와 같이 성범죄에 대한 2단계 위험상황을 판단하는 동작이 수행될 수 있다.
도 6에는 본 발명의 일 실시예에 따른 위험상황의 기계 학습을 위한 동작의 흐름도가 도시되어 있다. 이는 위험 관리 장치(110)의 위험상황 학습 단계(S501)에 대한 구체적인 예시적 동작의 흐름도에 해당할 수 있다. 도 6을 참조하면, 위험상황을 기계 학습하기 위한 동작은 샘플데이터 구성 단계(S601), 샘플데이터로 위험상황에 관련된 구성 요소 학습 단계(S603), 알고리즘 정확도 측정 단계(S605) 및 측정된 정확도가 기준값보다 큰지 판단 단계(S607)를 포함한다.
먼저, 위험상황을 학습하기 위한 샘플데이터 구성한다(S601). 위험상황에 관련된 구성요소, 예를 들어 사람의 성별, 사람의 신체부위(머리, 몸통, 팔, 허리, 다리 등)의 겹침(위치 정보, 형태 정보 등)을 영상 데이터로부터 분석하기 위한 관련 샘플 데이터를 구성한다.
다음으로, 샘플데이터를 이용하여 위험상황에 관련된 구성 요소를 학습한다(S603). 예를 들어, 입력된 영상 데이터로부터 사람의 성별이 남자인 경우의 특징과 여자인 경우의 특징을 신경망 알고리즘을 이용하여 기계 학습할 수 있다. 또한, 신체의 각 부위의 특징을 학습하고, 신체 부위가 겹치는 경우의 특징을 학습하도록 한다. 위험상황에 복수의 단계가 있는 경우 각 단계별로 구분하여 특징적인 구성 요소를 학습할 수 있다.
그 다음, 학습된 알고리즘의 정확도를 측정한다(S605). 샘플데이터는 주어진 영상 데이터에 대해 남성인지 여성인지, 신체의 어느 부위인지, 신체부위가 겹치는지 등에 대한 정답 쌍을 함께 구성하므로, 신경망 알고리즘을 이용하여 기계 학습된 결과 알고리즘의 정확도를 측정할 수 있다.
다음으로, 측정된 정확도가 기준값보다 큰지 판단한다(S607). 미리 설정된 기준값과 비교하여, 학습된 알고리즘의 정확도가 기준값보다 큰 경우 학습을 종료하고 학습된 알고리즘에 기반하여 위험상황을 판단하도록 할 수 있다. 반면, 학습된 알고리즘의 정확도가 기준값 이하인 경우 다시 샘플데이터로 위험상황에 관련된 구성 요소를 학습하는 단계(S603)으로 돌아가 기계 학습을 반복한다. 학습된 알고리즘에 기반한 위험상황 판단의 정확도를 높이기 위하여, 미리 설정된 기준 이상의 정확도를 보이는 경우에만 학습을 종료하도록 하는 것이다. 요구되는 정확도에 따라 기준값을 다르게 설정할 수 있다.
도 7에는 본 발명의 일 실시예에 따른 영상 처리 및 분석을 위한 동작의 흐름도가 도시되어 있다. 이는 위험 관리 장치(110)의 영상 처리 및 분석 단계(S503)에 대한 구체적인 예시적 동작의 흐름도일 수 있다. 도 7을 참조하면, 영상 처리 및 분석을 위한 동작은 영상 프레임 추출 단계(S701), 복수의 프레임 데이터 분석 단계(S703), 프레임 간 변화를 통해 객체 추출 단계(S705) 및 구체적인 객체 분석 단계(S707)를 포함한다.
먼저, 복수의 영상 수집 장치(130-1, …, 130-n)에 의해 수집된 영상 데이터로부터 영상 프레임을 추출한다(S701). 예를 들어, CCTV와 같은 영상 수집 장치로부터 수집되는 영상은 복수의 프레임으로 구성되고 각각의 프레임은 정지 이미지를 포함한다. 촬영된 영상에서 객체 등을 분석하기 위해 영상 프레임을 추출하는 작업이 필요하다.
다음으로, 복수의 프레임 데이터를 분석한다(S703). 예를 들어, 1초당 10 내지 15 프레임의 데이터를 추출하여 분석할 수 있다.
그 다음, 프레임 간 변화를 통해 객체를 추출한다(S705). 위험상황을 판단하기 위해서는 사람 등 움직이는 객체에만 관심이 있기 때문에, 프레임 간에 변화되는 움직이는 객체만을 관심 객체로 추출할 수 있다.
마지막으로, 구체적인 객체를 분석한다(S707). 이전 단계에서 관심 객체로 추출된 객체를 중심으로 구체적인 사람, 남녀 성별, 신체 부위 등 위험상황 판단에 필요한 구성 요소에 관한 객체를 분석한다. 이 때, 인공지능 알고리즘을 이용하여 학습된 학습 모델에 기반하여 구체적인 사람, 남녀 성별, 신체 부위가 겹치는지 여부, 이동 속도 등 위험상황 판단에 필요한 구성 요소에 관한 객체를 판단할 수 있다.
도 8에는 본 발명의 일 실시예에 따른 성범죄 위험상황에 대한 위험상황 감지 동작의 흐름도가 도시되어 있다. 이는 위험 관리 장치(110)의 위험상황 감지 단계(S505) 및 알림 단계(S507)에 대한 구체적인 예시적 동작의 흐름도일 수 있다. 도 8을 참조하면, 성범죄 위험상황에 대한 위험상황 감지 동작은 객체 인식 단계(S801), 여성 1인 존재 판단 단계(S803), 남성 1인 존재 판단 단계(S805), 여성과 남성의 움직임의 속도 및 방향 계산 단계(S807), 여성과 남성의 신체 겹침 여부 판단 단계(S809), 1단계 위험상황 판단 후 알람, CCTV 포커싱 및 영상 녹화 시작 단계(S811), 여성 움직임의 속도 및 방향 변화량 계산 단계(S813), 변화량이 기준값보다 큰지 여부 판단 단계(S815), 2단계 위험상황 판단 후 알람 단계(S817) 및 직접 모니터링 전환 단계(S819)를 포함한다. 도 8에 도시된 성범죄 위험상황에 대한 위험상황 감지 동작의 흐름은 예시적인 성범죄 위험상황 감지 동작일 뿐으로 판단의 정확도를 높이기 위한 다양한 동작으로 변형될 수 있으며, 도시된 예에 한정되는 것은 아니다.
먼저, 수집된 영상 데이터를 분석하여 객체를 인식한다(S801). 예를 들어, CCTV와 같은 영상 수집 장치로부터 수집되는 영상으로부터 도 7에 도시된 바와 같이 객체를 추출하고 인식할 수 있다.
다음으로, 객체에서 여성 1인이 존재하는지 판단하고(S803), 그 다음 남성 1인이 존재하는지 판단한다(S805). 반드시 여성 1인, 남성 1인이어야 하는 것은 아니고, 예시적인 판단 기준일 뿐이나, 여성 1인과 남성 1인이 있는 경우 성범죄가 일어나기 쉽다고 판단할 수 있다. 다른 예를 들어, 여성 1인과 복수의 남성 객체가 있는 경우도 위험상황으로 판단될 수 있다. 이 경우, S805 단계에서 남성이 존재하는지 여부를 판단하여 존재하는 경우 다음 단계(S807)로 이동하고, 그렇지 않은 경우 위험상황이 아니라고 판단하여 판단 알고리즘을 종료할 수 있다.
그 다음, 여성과 남성의 움직임의 속도 및 방향을 계산한다(S807). 예를 들어, CCTV 모니터링 구역을 일정 거리 간격으로 가상의 셀(cell)을 사전에 구분 설정하고, 셀 내에서 남자와 여자의 발을 기준으로 속도와 방향을 계산할 수 있다. 이를 위해서 여성과 남성의 구체적인 신체 부위를 구분하는 것이 선행되어야 한다. 즉, 여성 및 남성 객체가 인식된 후, 세부적으로 여성의 신체부위 및 남성의 신체부위(예를 들어, 발, 팔, 머리, 몸통, 허리 등)를 구체적으로 구분한다. 이에 따라, 셀 내에서 남자와 여자의 발을 기준으로 속도와 방향을 계산한다. 계산된 속도와 방향은 남자와 여자의 신체가 실제 겹치는 것인지, 화면 상에서만 겹친 가짜 겹침인지 판단하는데 이용될 수 있다. 따라서, 본 단계는 필수적인 단계는 아니며 필요에 따라 생략될 수 있다.
다음으로, 여성과 남성의 신체 겹침 여부를 판단한다(S809). 인공지능 알고리즘을 이용하여 기계 학습된 학습 모델 기반으로 신체 부위 별 위치, 겹침 여부를 판단할 수 있다. 구체적으로 구분된 여성의 신체부위 및 남성의 신체부위(예를 들어, 팔, 몸통 등)의 부위가 겹치는지 판단할 수 있다. 이 때, CCTV 모니터링 구역을 일정 거리 간격으로 설정된 가상의 셀에서 남자와 여자의 발을 기준으로 이동량과 이동 방향에 따라 계산된 속도와 방향을 이용하여 남자와 여자의 신체가 실제 접촉이 있는 것인지, 화면 상에서만 겹친 가짜 겹침인지 더 구체적으로 판단할 수 있다. 신체 접촉이 아닌 것으로 판단된 경우 위험상황이 아니라고 판단하여 판단 알고리즘을 종료한다.
그 다음, 여성과 남성의 신체 겹침으로 판단된 경우, 1단계 위험상황 판단 후 알람, CCTV 포커싱 및 영상 녹화를 시작한다(S811). 여성과 남성의 신체가 겹치는 것으로 판단된 경우 범죄의 초기 단계로 판단하여 1단계 위험상황으로 판단하고, 1단계 알람을 발생시킨다. 남성 및 여성이 위치한 지역을 모니터링하는 CCTV를 팬, 틸트, 줌 이동시켜 남성 및 여성 객체에 포커싱하도록 하고 영성 녹화를 시작한다. 이렇게 1단계 위험상황에서 수집된 녹화 영상은 별도로 저장 보관하도록 설정될 수 있다.
다음으로, 여성 움직임의 속도 및 방향 변화량 계산한다(S813). 신체접촉 이후 여성이 남성으로부터 멀어지고자하는 상황인지 판단하기 위해 여성의 움직임 속도 및 방향 변화량을 계산한다. S807 단계와 유사하게, CCTV 모니터링 구역을 일정 거리 간격으로 설정된 가상의 셀에서 여성의 발을 중심으로 한 이동 속도와 이동 방향의 변화량을 산출한다.
그 다음, 여성의 이동 속도 및 방향 변화량이 기준값보다 큰지 여부를 판단한다(S815). 신체접촉 이후 여성의 움직임 속도와 방향이 급격히 변하여 미리 설정된 기준값보다 큰 경우, 성범죄의 위험상황으로 판단할 수 있다. 여성의 움직임 속도와 방향의 변화량이 기준값 이하인 경우 위험상황이 아니라고 판단하여 판단 알고리즘을 종료할 수 있다. 다른 실시예에 따라, 이 경우 1단계 위험상황을 유지하면서 수회 여성의 움직임 속도와 방향의 변화를 모니터링하고, 해당 상황의 영상 녹화를 계속하도록 동작할 수 있다.
다음으로, 여성의 이동 속도 및 방향 변화량이 기준값보다 큰 것으로 판단된 경우, 2단계 위험상황 판단 후 알람을 발생시킨다(S817). 신체접촉 이후 여성의 움직임 속도와 방향이 급격히 변하여 미리 설정된 기준값보다 큰 경우, 성범죄의 2단계 위험상황으로 판단하여 2단계 알람을 발생시킬 수 있다. 2단계 알람은 시각적(다른 경고등 색) 또는 청각적(다른 소리)으로 1단계 알람과 구분될 수 있다.
마지막으로, 직접 모니터링으로 전환한다(S819). 성범죄 위험에 대한 2단계 위험상황으로 판단된 경우 정확한 판단이 필요한 위험상황인 것으로 보아 사람이 직접 판단할 수 있도록 직접 모니터링 모드로 전환한다. 사람이 실제 육안으로 판단하여 상황을 구체적으로 판단하고, 실제 위험상황이 일어나는 것으로 판단되면 유관 기관으로 신고하는 3단계 위험상황으로 발전시킬 수 있다. 이 때, CCTV를 통해 해당 구역에 위험상황 경보를 알리고 음성으로 가해자의 범죄 시도를 저지하는 음성을 출력할 수 있다.
도 9 및 도 10에는 각각 본 발명의 일 실시예에 따른 CCTV 영상과 셀 기반의 객체 움직임 감지 예가 도시되어 있다. 도 9를 참조하면, 본 발명의 일 실시예에 따른 실제 CCTV 수집 화면을 복수의 셀로 구분한 화면이 도시된다. 도 9는 No. 1 CCTV 구역에서 촬영된 화면을 도시하고, 좌측 상부의 2행, 2열의 셀에서부터 위험상황이 발생하여 6행, 7열 셀에서 위험상황이 종료된 경우의 셀 기반으로 객체의 속도 및 이동 방향을 계산할 수 있음을 보여준다.
도 10을 참조하면, 본 발명의 일 실시예에 따른 복수의 CCTV의 모니터링 구역에 따라 객체의 움직임을 트래킹(tracking)한 예가 도시된다. 도 10에 도시된 바와 같이, No. 7 CCTV 구역에서 위험상황 1단계가 발생한 이후, No. 7 및 No. 6의 중복 구역으로 이동하였고, No. 6 구역을 거쳐, No. 6 및 No. 2의 중복 구역으로 이동하였다. 이후, No. 2 구역을 거쳐, No. 2 및 No. 3 중복 구역으로 이동 후, No. 3 구역에서 사라졌다. 이 경우 주변의 No. 2, 4, 5 CCTV를 확인하게 된다. No. 4 구역에서 재발견되었고, No. 4 및 No. 5 중복 구역으로 이동한 뒤, No. 5 및 No. 9 중복 구역으로 이동하였다. No. 9에서 위험상황이 종료되었다. 위험상황이 종료되면 객체 움직임 트래킹과 녹화가 중단될 수 있다.
상술한 예시와 같이 CCTV 등의 영상 수집 장치를 이용하여 객체의 움직임을 파악하고, 셀 기반으로 객체의 움직임을 트래킹할 수 있다. 객체를 트래킹하기 위한 영상의 처리는 반드시 셀 기반으로 이루어지는 것은 아니며, 다양한 실시예들에 따라 변형될 수 있다.
본 발명의 영상 인식 기반의 위험상황 감지 방법 및 장치는 상술한 실시예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위 내에서 다양하게 변형하여 실시할 수 있다.
100: 위험상황 감지시스템
110: 위험 관리 장치
120: 네트워크
130: 영상 수십 장치
210: 제어부
220: 입력부
230: 출력부
240: 저장부
250: 통신부
211: 영상처리 분석부
212: 위험상황 판단부

Claims (10)

  1. 영상 인식 기반의 위험상황 감지 방법으로서,
    위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하는 단계; 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하고 분석하는 단계; 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 움직임에 기반하여 1단계 위험상황으로 판단하는 단계; 상기 1단계 위험상황에 따른 알람을 발생시키고, 상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하는 단계; 상기 하나 이상의 객체의 움직임 변화량에 기반하여 2단계 위험상황으로 판단하는 단계; 및 상기 2단계 위험상황에 따른 알람을 발생시키고 직접 모니터링 상태로 전환하는 단계;를 포함하며;
    상기 위험상황을 학습하는 단계는, 영상 데이터로부터 사람의 성별 및 사람의 신체부위의 겹침에 대한 샘플데이터를 구성하는 단계, 샘플데이터를 이용하여 사람의 성별이 남자인 경우의 특징, 사람의 성별이 여자인 경우의 특징, 신체 각 부위의 특징, 및 신체 부위가 겹치는 경우의 특징을 신경망 알고리즘을 이용하여 학습하는 단계, 알고리즘의 정확도를 측정하는 단계, 및 측정된 정확도가 기준값보다 큰 지를 판단하여, 학습된 알고리즘의 정확도가 기준값보다 큰 경우 학습을 종료하고 기준값 이하인 경우에는 신경망 알고리즘을 이용하여 학습하는 것을 반복하는 단계를 포함하며;
    상기 1단계 위험상황으로 판단하는 단계는, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 남성 객체 및 여성 객체를 인식하는 단계; 상기 남성 객체의 신체 부위와 상기 여성 객체의 신체 부위를 구분하는 단계; 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는지 판단하는 단계; 및 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는 경우 상기 1단계 위험상황으로 판단하는 단계를 포함하는데;
    상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는지 판단하는 단계에서는, 상기 영상 수집 장치의 모니터링 구역을 일정 거리 간격으로 구분된 가상의 셀에서 남성 객체의 발과 여성 객체의 발을 기준으로 이동량과 이동 방향에 따라 계산된 상기 남성 객체 및 상기 여성 객체의 속도 및 이동 방향을 고려하여, 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 접촉하는지 판단하며;
    상기 2단계 위험상황으로 판단하는 단계에서는, 상기 영상 수집 장치의 모니터링 구역을 일정 거리 간격으로 가상의 셀로 구분하여 상기 여성 객체의 발을 기준으로 상기 여성 객체의 이동 속도 및 이동 방향의 변화량을 계산하여, 상기 여성 객체의 이동 속도 및 이동 방향의 변화량이 미리 설정된 기준값보다 큰 경우 2단계 위험상황으로 판단하는 것을 특징으로 하는 영상 인식 기반의 위험상황 감지 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하는 단계는,
    상기 영상 수집 장치를 팬, 틸트, 줌 이동시켜 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하는 단계를 포함하는 것을 특징으로 하는 영상 인식 기반의 위험상황 감지 방법.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 인공지능 알고리즘은 기계 학습, 신경망, 유전자, 딥러닝, 분류 알고리즘 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 인식 기반의 위험상황 감지 방법.
  8. 제1항에 있어서,
    상기 1단계 위험상황에 따른 알람과 상기 2단계 위험상황에 따른 알람은 시각적 또는 청각적으로 구분되는 것을 특징으로 하는 영상 인식 기반의 위험상황 감지 방법.
  9. 영상 인식 기반의 위험 관리 장치로서,
    시각적, 청각적 알람을 출력하는 출력부;
    복수의 영상 수집 장치와 데이터를 주고받는 통신부; 및
    위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하도록 제어하는 제어부;를 포함하고,
    상기 제어부는, 상기 통신부를 통해 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하여 분석하고, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 움직임에 기반하여 1단계 위험상황으로 판단하고, 상기 출력부를 통해 상기 1단계 위험상황에 따른 알람을 발생시키고, 상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하도록 제어하고, 상기 하나 이상의 객체의 움직임 변화량에 기반하여 2단계 위험상황으로 판단하고, 상기 출력부를 통해 상기 2단계 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환하도록 제어하는데;
    상기 제어부는 영상 데이터로부터 사람의 성별 및 사람의 신체부위의 겹침에 대한 샘플데이터를 구성하는 단계, 샘플데이터를 이용하여 사람의 성별이 남자인 경우의 특징, 사람의 성별이 여자인 경우의 특징, 신체 각 부위의 특징, 및 신체 부위가 겹치는 경우의 특징을 신경망 알고리즘을 이용하여 학습하는 단계, 알고리즘의 정확도를 측정하는 단계, 및 측정된 정확도가 기준값보다 큰 지를 판단하여, 학습된 알고리즘의 정확도가 기준값보다 큰 경우 학습을 종료하고 기준값 이하인 경우에는 신경망 알고리즘을 이용하여 학습하는 것을 반복하는 단계를 포함하는 과정에 의해 위험상황을 학습하게 되고;
    상기 제어부는 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 남성 객체 및 여성 객체를 인식하는 단계; 상기 남성 객체의 신체 부위와 상기 여성 객체의 신체 부위를 구분하는 단계; 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는지 판단하는 단계; 및 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는 경우 상기 1단계 위험상황으로 판단하는 단계를 포함하는 과정에 의해 상기 1단계 위험상황으로 판단하게 되며;
    상기 제어부는 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는지 판단하는 단계에서, 상기 영상 수집 장치의 모니터링 구역을 일정 거리 간격으로 구분된 가상의 셀에서 남성 객체의 발과 여성 객체의 발을 기준으로 이동량과 이동 방향에 따라 계산된 상기 남성 객체 및 상기 여성 객체의 속도 및 이동 방향을 고려하여, 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 접촉하는지 판단하며;
    상기 제어부는 상기 2단계 위험상황으로 판단하는 단계에서, 상기 영상 수집 장치의 모니터링 구역을 일정 거리 간격으로 가상의 셀로 구분하여 상기 여성 객체의 발을 기준으로 상기 여성 객체의 이동 속도 및 이동 방향의 변화량을 계산하여, 상기 여성 객체의 이동 속도 및 이동 방향의 변화량이 미리 설정된 기준값보다 큰 경우 2단계 위험상황으로 판단하는 것을 특징으로 하는 영상 인식 기반의 위험 관리 장치.
  10. 영상 인식 기반의 위험상황 감지시스템으로서,
    각각의 감시 영역을 실시간으로 촬영하는 복수의 영상 수집 장치; 및
    네트워크를 통해 상기 복수의 영상 수집 장치에 연결된 위험 관리 장치를 포함하고,
    상기 위험 관리 장치는,
    시각적, 청각적 알람을 출력하는 출력부;
    복수의 영상 수집 장치와 데이터를 주고받는 통신부; 및
    위험상황에 관련된 영상 구성 요소를 인공지능 알고리즘을 이용하여 학습하도록 제어하는 제어부;를 포함하고,
    상기 제어부는, 상기 통신부를 통해 영상 수집 장치로부터 수집된 영상을 프레임 단위로 처리하여 분석하고, 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 움직임에 기반하여 1단계 위험상황으로 판단하고, 상기 출력부를 통해 상기 1단계 위험상황에 따른 알람을 발생시키고, 상기 영상 수집 장치를 상기 1단계 위험상황의 발생 장소에 포커싱하여 영상녹화를 시작하도록 제어하고, 상기 하나 이상의 객체의 움직임 변화량에 기반하여 2단계 위험상황으로 판단하고, 상기 출력부를 통해 상기 2단계 위험상황에 따른 알람을 발생시키고, 직접 모니터링 상태로 전환하도록 제어하는데;
    상기 제어부는 영상 데이터로부터 사람의 성별 및 사람의 신체부위의 겹침에 대한 샘플데이터를 구성하는 단계, 샘플데이터를 이용하여 사람의 성별이 남자인 경우의 특징, 사람의 성별이 여자인 경우의 특징, 신체 각 부위의 특징, 및 신체 부위가 겹치는 경우의 특징을 신경망 알고리즘을 이용하여 학습하는 단계, 알고리즘의 정확도를 측정하는 단계, 및 측정된 정확도가 기준값보다 큰 지를 판단하여, 학습된 알고리즘의 정확도가 기준값보다 큰 경우 학습을 종료하고 기준값 이하인 경우에는 신경망 알고리즘을 이용하여 학습하는 것을 반복하는 단계를 포함하는 과정에 의해 위험상황을 학습하게 되고;
    상기 제어부는 상기 학습된 알고리즘에 기반하여 상기 수집된 영상으로부터 남성 객체 및 여성 객체를 인식하는 단계; 상기 남성 객체의 신체 부위와 상기 여성 객체의 신체 부위를 구분하는 단계; 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는지 판단하는 단계; 및 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는 경우 상기 1단계 위험상황으로 판단하는 단계를 포함하는 과정에 의해 상기 1단계 위험상황으로 판단하게 되며;
    상기 제어부는 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 겹치는지 판단하는 단계에서, 상기 영상 수집 장치의 모니터링 구역을 일정 거리 간격으로 구분된 가상의 셀에서 남성 객체의 발과 여성 객체의 발을 기준으로 이동량과 이동 방향에 따라 계산된 상기 남성 객체 및 상기 여성 객체의 속도 및 이동 방향을 고려하여, 상기 남성 객체의 신체 일부와 상기 여성 객체의 신체 일부가 접촉하는지 판단하며;
    상기 제어부는 상기 2단계 위험상황으로 판단하는 단계에서, 상기 영상 수집 장치의 모니터링 구역을 일정 거리 간격으로 가상의 셀로 구분하여 상기 여성 객체의 발을 기준으로 상기 여성 객체의 이동 속도 및 이동 방향의 변화량을 계산하여, 상기 여성 객체의 이동 속도 및 이동 방향의 변화량이 미리 설정된 기준값보다 큰 경우 2단계 위험상황으로 판단하는 것을 특징으로 하는 영상 인식 기반의 위험상황 감지시스템.
KR1020190146899A 2019-11-15 2019-11-15 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템 KR102126498B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190146899A KR102126498B1 (ko) 2019-11-15 2019-11-15 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190146899A KR102126498B1 (ko) 2019-11-15 2019-11-15 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템

Publications (1)

Publication Number Publication Date
KR102126498B1 true KR102126498B1 (ko) 2020-06-25

Family

ID=71400182

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190146899A KR102126498B1 (ko) 2019-11-15 2019-11-15 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템

Country Status (1)

Country Link
KR (1) KR102126498B1 (ko)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112002094A (zh) * 2020-09-04 2020-11-27 贵州东冠科技有限公司 基于三角定位的小区人员管理方法
KR102275723B1 (ko) * 2020-09-18 2021-07-09 (주)지앤티솔루션 안전사고위험 알림 방법 및 장치
CN113266408A (zh) * 2021-06-21 2021-08-17 常州联力自动化科技有限公司 一种基于图像识别技术的支架下人员检测闭锁方法
KR102350668B1 (ko) * 2021-09-24 2022-01-12 주식회사 풍국 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법
KR20220057111A (ko) * 2020-10-29 2022-05-09 홍석훈 폭언 및 폭행 방지/신고 서비스 방법 및 시스템
KR102398010B1 (ko) 2021-10-06 2022-05-12 김기설 인공지능 알고리즘을 이용한 침입 예측 방법과 그 컴퓨터 프로그램
WO2022114406A1 (ko) * 2020-11-25 2022-06-02 주식회사 싸인텔레콤 영상기반의 핵심골격검출을 통한 안전관리 시스템
CN114694075A (zh) * 2022-04-07 2022-07-01 合肥工业大学 一种基于深度强化学习的危险行为识别方法
KR20220108341A (ko) * 2021-01-27 2022-08-03 재단법인 서울특별시 서울기술연구원 건설현장 고소작업 근로자 위험감지시스템 및 그 위험감지방법
KR20220113631A (ko) 2021-02-05 2022-08-16 호서대학교 산학협력단 위험 상황 감지 장치 및 위험 상황 감지 방법
KR20230004421A (ko) 2020-10-29 2023-01-06 주식회사 아디아랩 인공지능 기반의 이상행동 감지 시스템
KR20230087008A (ko) 2021-12-09 2023-06-16 (주)케이아이오티 스마트 폴을 이용한 위험상황 정보 처리장치
KR20230087656A (ko) 2021-12-09 2023-06-19 (주)케이아이오티 스마트 폴과 인공지능을 이용한 위험상황 정보 처리장치 및 처리방법
KR102596077B1 (ko) * 2022-08-30 2023-10-31 (주) 이론시스템 인공지능 기반 공공 화장실 및 우범 지역의 거동수상자 감지 및 판별 방법 및 시스템
CN117041502A (zh) * 2023-10-10 2023-11-10 湖南睿图智能科技有限公司 一种基于机器视觉的危险场景分析监测系统及方法
WO2024111816A1 (ko) * 2022-11-21 2024-05-30 주식회사 세이프모션 이미지 및 영상 기반의 상호 행동 인식 방법
KR102676020B1 (ko) * 2021-09-13 2024-06-18 주식회사 포딕스시스템 영상의 객체 간 상호작용행위 검출 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100067540A (ko) 2008-12-11 2010-06-21 한국철도기술연구원 역사내 우범 지역 감시 시스템
KR101572366B1 (ko) * 2014-03-26 2015-11-27 인하대학교 산학협력단 지능형 영상 감시 시스템을 위한 납치 상황 인식 방법
KR101841882B1 (ko) * 2017-10-12 2018-05-04 유가현 무인방범 시스템 및 방법
JP6581280B1 (ja) * 2018-11-28 2019-09-25 アースアイズ株式会社 監視装置、監視システム、監視方法、監視プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100067540A (ko) 2008-12-11 2010-06-21 한국철도기술연구원 역사내 우범 지역 감시 시스템
KR101572366B1 (ko) * 2014-03-26 2015-11-27 인하대학교 산학협력단 지능형 영상 감시 시스템을 위한 납치 상황 인식 방법
KR101841882B1 (ko) * 2017-10-12 2018-05-04 유가현 무인방범 시스템 및 방법
JP6581280B1 (ja) * 2018-11-28 2019-09-25 アースアイズ株式会社 監視装置、監視システム、監視方法、監視プログラム

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112002094A (zh) * 2020-09-04 2020-11-27 贵州东冠科技有限公司 基于三角定位的小区人员管理方法
KR102275723B1 (ko) * 2020-09-18 2021-07-09 (주)지앤티솔루션 안전사고위험 알림 방법 및 장치
KR102635497B1 (ko) * 2020-10-29 2024-03-12 홍석훈 폭언 및 폭행 방지/신고 서비스 방법 및 시스템
KR20230004421A (ko) 2020-10-29 2023-01-06 주식회사 아디아랩 인공지능 기반의 이상행동 감지 시스템
KR20220057111A (ko) * 2020-10-29 2022-05-09 홍석훈 폭언 및 폭행 방지/신고 서비스 방법 및 시스템
WO2022114406A1 (ko) * 2020-11-25 2022-06-02 주식회사 싸인텔레콤 영상기반의 핵심골격검출을 통한 안전관리 시스템
KR20220108341A (ko) * 2021-01-27 2022-08-03 재단법인 서울특별시 서울기술연구원 건설현장 고소작업 근로자 위험감지시스템 및 그 위험감지방법
KR102534767B1 (ko) * 2021-01-27 2023-05-18 재단법인 서울특별시 서울기술연구원 건설현장 고소작업 근로자 위험감지시스템 및 그 위험감지방법
KR20220113631A (ko) 2021-02-05 2022-08-16 호서대학교 산학협력단 위험 상황 감지 장치 및 위험 상황 감지 방법
KR102580434B1 (ko) * 2021-02-05 2023-09-20 호서대학교 산학협력단 위험 상황 감지 장치 및 위험 상황 감지 방법
CN113266408A (zh) * 2021-06-21 2021-08-17 常州联力自动化科技有限公司 一种基于图像识别技术的支架下人员检测闭锁方法
KR102676020B1 (ko) * 2021-09-13 2024-06-18 주식회사 포딕스시스템 영상의 객체 간 상호작용행위 검출 장치 및 방법
KR102350668B1 (ko) * 2021-09-24 2022-01-12 주식회사 풍국 드론을 이용한 인공지능 기반의 조경작업용 스마트 사용자 상황 감시 시스템 및 방법
KR102412862B1 (ko) 2021-10-06 2022-06-24 김기설 침입 경계 시스템
KR102398010B1 (ko) 2021-10-06 2022-05-12 김기설 인공지능 알고리즘을 이용한 침입 예측 방법과 그 컴퓨터 프로그램
KR102498352B1 (ko) 2021-10-06 2023-02-08 김기설 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템
KR102509570B1 (ko) 2021-10-06 2023-03-13 김기설 영상들과 전기 신호들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템
KR20230050277A (ko) 2021-10-06 2023-04-14 김기설 영상들과 진동들을 학습하는 인공지능을 이용한 제어 장치와 이를 포함하는 침입 경계 시스템
KR102412861B1 (ko) 2021-10-06 2022-06-23 김기설 인공지능을 이용한 제어 장치
KR20230087008A (ko) 2021-12-09 2023-06-16 (주)케이아이오티 스마트 폴을 이용한 위험상황 정보 처리장치
KR20230087656A (ko) 2021-12-09 2023-06-19 (주)케이아이오티 스마트 폴과 인공지능을 이용한 위험상황 정보 처리장치 및 처리방법
CN114694075B (zh) * 2022-04-07 2024-02-13 合肥工业大学 一种基于深度强化学习的危险行为识别方法
CN114694075A (zh) * 2022-04-07 2022-07-01 合肥工业大学 一种基于深度强化学习的危险行为识别方法
KR102596077B1 (ko) * 2022-08-30 2023-10-31 (주) 이론시스템 인공지능 기반 공공 화장실 및 우범 지역의 거동수상자 감지 및 판별 방법 및 시스템
WO2024111816A1 (ko) * 2022-11-21 2024-05-30 주식회사 세이프모션 이미지 및 영상 기반의 상호 행동 인식 방법
CN117041502A (zh) * 2023-10-10 2023-11-10 湖南睿图智能科技有限公司 一种基于机器视觉的危险场景分析监测系统及方法
CN117041502B (zh) * 2023-10-10 2023-12-08 湖南睿图智能科技有限公司 一种基于机器视觉的危险场景分析监测系统及方法

Similar Documents

Publication Publication Date Title
KR102126498B1 (ko) 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템
KR102553883B1 (ko) 비디오 감시 시스템에서 경보들을 발생시키는 방법
CN109040709B (zh) 视频监控方法及装置、监控服务器及视频监控系统
US11308777B2 (en) Image capturing apparatus with variable event detecting condition
CN108271082B (zh) 在视频管理系统中基于注视进行警报屏蔽的方法和系统
KR101442669B1 (ko) 지능형 객체감지를 통한 범죄행위 판별방법 및 그 장치
KR20210053534A (ko) 딥러닝기반 행동인식장치 및 그 장치의 구동방법
CN109377697A (zh) 一种密集摄像机头环境下快速报警处置方法
JP2007209008A (ja) 監視装置
RU2268497C2 (ru) Система и способ автоматизированного видеонаблюдения и распознавания объектов и ситуаций
KR102511287B1 (ko) 영상 기반 자세 예측 및 행동 검출 방법 및 장치
KR20210020723A (ko) 폭행 감지 기능을 구비한 cctv 촬영 장치 및 cctv 영상에 기초한 폭행 감지 방법
US20220122360A1 (en) Identification of suspicious individuals during night in public areas using a video brightening network system
Chang et al. Video surveillance for hazardous conditions using sensor networks
KR20200017594A (ko) 딥 러닝과 멀티 에이전트를 활용한 대규모 개체 식별 및 추적 방법
JP3910626B2 (ja) 監視装置
KR101075550B1 (ko) 이미지 센싱 에이전트 및 usn 복합형 보안 시스템
KR102128319B1 (ko) 팬틸트줌 카메라 기반의 영상 재생방법 및 장치
KR102077632B1 (ko) 로컬 영상분석과 클라우드 서비스를 활용하는 하이브리드 지능형 침입감시 시스템
KR20160093253A (ko) 영상 기반 이상 흐름 감지 방법 및 그 시스템
KR102564300B1 (ko) 체온 행동 패턴을 이용한 학교 폭력 예방 시스템
KR20200010690A (ko) 다수개의 카메라를 활용한 이동물체 연계추적시스템 및 방법
KR100536747B1 (ko) 팬/틸트/줌 카메라를 이용한 영상 보안 시스템 및 방법
KR20200010691A (ko) 이종 카메라를 활용한 인물인식 및 교통통제시스템
KR20230097854A (ko) 발전소내 작업자의 위험행동 인지방법 및 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant