KR20230078087A - 행동 인식 시스템 및 방법 - Google Patents

행동 인식 시스템 및 방법 Download PDF

Info

Publication number
KR20230078087A
KR20230078087A KR1020210165504A KR20210165504A KR20230078087A KR 20230078087 A KR20230078087 A KR 20230078087A KR 1020210165504 A KR1020210165504 A KR 1020210165504A KR 20210165504 A KR20210165504 A KR 20210165504A KR 20230078087 A KR20230078087 A KR 20230078087A
Authority
KR
South Korea
Prior art keywords
posture
behavior
information
recognition system
abnormal
Prior art date
Application number
KR1020210165504A
Other languages
English (en)
Inventor
박덕준
김성광
Original Assignee
주식회사 엘렉시
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘렉시 filed Critical 주식회사 엘렉시
Priority to KR1020210165504A priority Critical patent/KR20230078087A/ko
Publication of KR20230078087A publication Critical patent/KR20230078087A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

일 실시예에 의한 행동 인식 시스템은 적어도 하나의 동영상 촬영 장치 및, 동영상 촬영 장치로부터 동영상을 수신하여 프레임을 추출하고, 프레임에 포함된 객체별로 자세를 추론하고 추적하여, 객체 행위의 이상 여부를 판단하도록 구성되는 이상 행위 탐지 장치를 포함하도록 구성될 수 있다.

Description

행동 인식 시스템 및 방법{System and Method for Behavioral Recognition}
본 기술은 영상 분석 방법에 관한 것으로, 보다 구체적으로는 행동 인식 시스템 및 방법에 관한 것이다.
입력 동영상에서의 행동 인식은 동영상 내에서 객체를 검출하는 과정 및, 검출된 객에의 움직임 패턴을 학습하는 과정으로 이루어질 수 있다.
객체 검출은 영상이 주어질 때 영상 내에 존재하는 카테고리에 대해서 분류(Classification)와 지역화(Localization)를 수행하는 태스크를 의미한다.
그런데, 현재 움직임 패턴에 대한 학습은 골프 스윙, 공을 차는 행동, 야구 배트 스윙 등 패턴이 정해진 행동에 제한되어 있다.
따라서, 패턴이 정해져 있지 않은 행동을 인식하기 위해서는 수 초 이상의 시계열 정보가 필요하다. 그러므로, 동영상을 분석하여 행동 인식을 수행하기 위해서는 연산량이 많고 긴 처리 시간이 소요되어 인식된 행동에 실시간으로 대처하기 어려운 문제점이 있다.
본 기술의 실시예는 분석 대상 소스 데이터의 양을 최소화하면서도 객체의 행동을 정확하게 인식할 수 있는 행동 인식 시스템 및 방법을 제공할 수 있다.
본 기술의 일 실시예에 의한 행동 인식 시스템은 적어도 하나의 동영상 촬영 장치; 및 상기 동영상 촬영 장치로부터 동영상을 수신하여 프레임을 추출하고, 상기 프레임에 포함된 객체별로 자세를 추론하고 추적하여, 상기 객체 행위의 이상 여부를 판단하도록 구성되는 이상 행위 탐지 장치;를 포함하도록 구성될 수 있다.
본 기술의 일 실시예에 의한 행동 인식 방법은 적어도 하나의 동영상 촬영 장치와 네트워크를 통해 접속되는 이상 행위 탐지 장치를 포함하는 행동 인식 시스템의 동작 방법으로서, 상기 이상 행위 탐지 장치가, 상기 동영상 촬영 장치로부터 수신된 동영상으로부터 프레임을 추출하는 단계; 상기 이상 행위 탐지 장치가, 상기 프레임에 포함된 객체별로 자세를 추론하는 단계; 상기 이상 행위 탐지 장치가, 상기 객제별로 자세를 추적하는 단계; 및 상기 이상 행위 탐지 장치가, 상기 자세를 추적한 결과에 기초하여 상기 객체 행위의 이상 여부를 판단하는 단계;를 포함하도록 구성될 수 있다.
본 기술에 의하면 단시간 동안 수집된 2차원 이미지를 기초로 객체의 자세를 추론하고, 이로부터 이상 행동을 용이하고 고속으로 판단할 수 있다.
따라서, 객체의 이상 행동에 실시간으로 대처할 수 있다.
도 1은 일 실시예에 의한 행동 인식 시스템의 구성도이다.
도 2는 일 실시예에 의한 행동 검출 장치의 구성도이다.
도 3은 일 실시예에 의한 행동 검출 개념을 설명하기 위한 도면이다.
도 4는 일 실시예에 의한 행동 인식 방법을 설명하기 위한 흐름도이다.
도 5는 일 실시예에 의한 행동 인식 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 기술의 실시예를 보다 구체적으로 설명한다.
도 1은 일 실시예에 의한 행동 인식 시스템의 구성도이다.
도 1을 참조하면, 일 실시예에 의한 행동 인식 시스템(10)은 이상(Abnormal) 행위 탐지 장치(100) 및 이와 통신망을 통해 접속되는 적어도 하나의 동영상 촬영 장치(300)를 포함할 수 있다.
이상 행위 탐지 장치(100)는 적어도 하나의 촬영 장치(300)에서 촬영된 동영상을 네트워크(200)를 통해 수신하여 프레임을 추출하고 추출한 프레임에 포함된 객체별로 자세를 추론하고 추적하여 객체 행위의 이상 여부를 판단할 수 있다.
이상 행위 탐지 장치(100)는 프로세서(110), 메모리(120), 네트워크 인터페이스(NIF, 130), 사용자 인터페이스(UIF, 140), 스토리지(150) 및 행동 검출 장치(400)를 포함할 수 있다.
프로세서(110)는 이상 행위 탐지 장치(100)가 동작하는 데 필요한 다양한 제어 정보를 메모리(120), 네트워크 인터페이스(130), 사용자 인터페이스(140), 스토리지(1150) 및 행동 검출 장치(300)에 전달하도록 구성될 수 있다. 일 실시예에서, 프로세서(110)는 데이터 저장 장치(10)의 다양한 동작을 위해 제공되는 펌웨어에 따라 동작할 수 있다. 일 실시예에서, 프로세서(110)는 하드웨어 및 하드웨어 상에서 동작하는 소프트웨어가 조합된 형태일 수 있다.
메모리(120)는 이상 행위 탐지 장치(100)의 동작에 필요한 프로그램 코드, 예를 들어 펌웨어 또는 소프트웨어가 저장되고, 프로그램 코드들이 이용하는 코드 데이터 등이 저장되는 ROM 및 이상 행위 탐지 장치(100)의 동작에 필요한 데이터 또는 이상 행위 탐지 장치(100)에 의해 생성된 데이터를 저장하는 RAM을 포함할 수 있다.
네트워크 인터페이스(113)는 프로세서(111)의 제어에 따라 촬영 장치(300)로부터 영상 신호를 수신할 수 있다. 특히, 네트워크 인터페이스(130)는 촬영 장치(300)와 이상 행위 탐지 장치(100) 간의 물리적 연결을 제공할 수 있다.
사용자 인터페이스(140)는 사용자가 이상 행위 탐지 장치(100)에 접근할 수 있는 물리적 환경을 제공할 수 있도록 입력 장치 및 출력 장치를 포함할 수 있다.
스토리지(150)는 이상 행위 탐지 장치에서 다루는 데이터의 저장 매체일 수 있다.
행동 검출 장치(400)는 촬영 장치(300)로부터 제공되는 동영상을 프레임 단위로 구분하여 2차원 이미지를 획득하고, 2차원 이미지에 내의 객체의 자세를 추론한다. 그리고, 행동 검출 장치(400)는 객체별 자세를 설정된 시간 동안, 예를 들어 수 초 동안 추적하여 이상 행위 여부를 판단할 수 있다.
동영상을 분석하여 개체의 자세를 검출하기 위해서는 수 초 이상의 시계열 정보가 필요하고 연산량이 증가한다.
본 기술에 의한 행동 검출 장치(400)는 동영상을 소스 데이터로 하지 않고, 동영상을 프레임 단위로 구분한 2차원 이미지를 소스 데이터로 하여 객체의 자세를 추론한다.
2차원 이미지를 통해 자세를 추론하는 것은, 예를 들어 돌진하는 행동과 같이 짧은 시간 동안의 순간적인 행동을 판단하는 것으로, 사람이 한 장의 사진을 통해 행위를 판단하는 것과 유사한 효과를 얻을 수 있다.
객체의 행위는 시간적 연속성을 가지므로, 객체의 자세에 대한 수 초 동안의 시계열 정보를 통해 이상 행동 여부를 더욱 정확히 판단할 수 있다.
도 2는 일 실시예에 의한 행동 검출 장치의 구성도이다.
도 2를 참조하면, 일 실시예에 의한 행동 검출 장치(400)는 프레임 추출부(410), 자세 추론부(420), 자세 추적부(430) 및 행동 판단부(440)를 포함할 수 있다.
프레임 추출부(410)는 네트워크 인터페이스(130)를 통해 촬영 장치(300)로부터 제공되는 동영상 신호로부터, 시간 순서에 따라 프레임을 추출하도록 구성될 수 있다.
자세 추론부(420)는 시간 순서로 입력되는 프레임으로부터 적어도 하나의 객체 및 적어도 하나의 객체별 자세를 판단하도록 구성될 수 있다.
객체 검출을 위해, YOLO(You Only Look Once), SSD(Single Shot Detector) 등 대표적인 오픈소스 기반 객체 검출기를 기반으로, 객체 즉, 사람을 구분함과 함께, 구분된 객체별 자세 정보를 추론한다.
자세 정보를 추론하기 위해 자세 추론부(420)는 학습 데이터 중 사람 클래스를 세부적인 자세 클래스로 재 레이블링할 수 있다. 예를 들어, CNN(Convolutional Neural Network) 기반 자세 분류기를 학습하여 자세 학습모델을 생성하고, 검출된 객체의 자세를 자세 학습모델을 통해 추론하여 자세 클래스를 자동으로 재 레이블링할 수 있다. 이에 따라, 추론된 자세를 검출된 객체의 하위 클래스로 레이블링할 수 있다.
자세 추론부(420)에서 재 레이블링하는 자세 클래스는 쓰러짐, 달림, 서 있음, 앉아 있음, 웅크림, 걷고 있음, 싸우고 있음, 등 다양하게 세분화될 수 있고, 사람이 한 장의 사진을 통해 사진 속의 인물이 어떤 행위를 하는지를 판단하는 것과 유사한 과정으로 자세를 학습할 수 있다.
자세 추론부(420)는 검출된 객체의 클래스 이름, 위치 정보인 바운딩 박스(bounding box) 정보를 포함하는 객체별 추론 정보를 자세 추적부(430)로 출력할 수 있다.
자세 추적부(430)는 자세 추론부(420)로부터 객체별 추론 정보를 수신하고 축적하여 객체별 시계열 정보를 구성할 수 있다.
행동 판단부(440)는 객체별 시계열 정보를 바탕으로 객체의 이상 행동 여부를 판단할 수 있다. 예를 들어, 행동 판단부(440)는 규칙기반 인지 방식 및 LSTM(Long Short-Term Memory models)과 같은 순환 신경망 인지 방식 중 적어도 하나를 통해 객체의 행동이 사전에 정의된 이상행동인지 판단할 수 있다.
규칙기반 인지 방식의 예를 설명하면 다음과 같다. 돌진(dash)"과 같은 동작을 빠르게 달리는 동작으로 정의해 둔 경우, 재 레이블링한 자세 클래스에 "달림(run)"이 일정 회수 이상 추론된 경우 돌진이라고 판단할 수 있다.
순환 신경망 인지 방식의 예를 설명하면 다음과 같다. 바운딩 박스(bounding box)의 이동 패턴을 학습하여 "싸움"과 같은 자세를 구분하여 이상행위를 인지할 수 있다.
도 3은 일 실시예에 의한 행동 검출 개념을 설명하기 위한 도면이다.
자세 추론부(420)가 동영상의 프레임으로부터 획득한 객체(객체1, 객체2, …, 객체 N)별 추론 정보 즉, 검출된 객체별 자세 및 위치 정보인 바운딩 박스(bounding box)는 자세 추적부(430)로 제공되고, 자세 추적부(430)는 객체별 추론 정보를 설정된 시간, 예를 들어 수 초 동안 축적하여 객체별 시계열 정보(510, 520, 530)를 구성할 수 있다. 예를 들어, 객체 1에 대한 추론 정보는 시간 X로부터, , 객체 2에 대한 추론 정보는 시간 Y로부터, , 객체 N에 대한 추론 정보는 시간 Z로부터, 차례로 수집될 수 있다.
행동 판단부(440)는 객체별 시계열 정보(510, 520, 530)를 규칙 기반 및 순환 신경망 인지 방식 중 적어도 하나를 통해 인식하여 객체의 이상 행동 여부를 판단할 수 있다.
도 4는 일 실시예에 의한 행동 인식 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 이상 행위 탐지 장치(100)는 적어도 하나의 촬영 장치(300)로부터 동영상을 수신하고(S101), 이를 프레임 단위로 구분하여 2차원 이미지를 획득할 수 있다(S103).
이상 행위 탐지 장치(100)는 획득된 2차원 이미지에 포함된 객체의 자세를 추론하여 객체별 추론 정보를 생성할 수 있다(S105). 객체의 자세를 추론하기 위하여, 예시적으로 도 5와 같은 방식이 이용될 수 있으며 구체적인 방법을 후술하기로 한다.
이상 행위 탐지 장치는 객체별 추론 정보를 설정된 시간 동안, 예를 들어 수 초 동안 추적하여(S107) 이상 행위 여부를 판단할 수 있다(S109).
이상 행위 여부를 판단하기 위하여 이상 행위 탐지 장치는 설정된 시간 동안 수집한 객체별 추론 정보를 규칙기반 인지 방식 및 LSTM(Long Short-Term Memory models)과 같은 순환 신경망 인지 방식 중 적어도 하나에 적용할 수 있다.
도 5는 일 실시예에 의한 행동 인식 방법을 설명하기 위한 흐름도이다.
도 5를 참조하면, 이상 행위 탐지 장치(100)는 시간 순서로 입력되는 프레임으로부터 객체를 검출한다(S201). 객체 검출을 위해, YOLO(You Only Look Once), SSD(Single Shot Detector) 등 대표적인 오픈소스 기반 객체 검출기를 기반으로, 객체 즉, 사람을 구분할 수 있고, 이와 함께, 구분된 객체별 자세 정보를 분류한다(S203).
자세 정보를 분류, 즉 추론하기 위해 자세 이상 행위 탐지 장치(100)는 예를 들어, CNN(Convolutional Neural Network) 기반 자세 분류기를 학습하여 자세 학습모델을 생성하고, 검출된 객체의 자세를 자세 학습모델을 통해 추론하여 자세 클래스를 자동으로 재 레이블링할 수 있다.
자세 분류 결과는 검출된 객체의 클래스 이름 및 위치 정보(바운딩 박스x)와 함께 객체별 추론 정보로 출력될 수 있다(S205).
이와 같이, 본 기술에 의하면 동영상으로부터 추출한 2차원 이미지를 단시간 동안 분석하여 객체의 자세를 추론하고, 이로부터 이상 행동을 용이하고 고속으로 판단할 수 있다.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 기술은 하기 과제에 따른 과학기술정보통신부 정보통신진흥기금 인공지능식별추적시스템구축 사업의 일환으로 발명되었다.
[과제번호] A0713-21-1004
[부처명] 과학기술정보통신부
지원사업명] 2021년 인공지능식별추적시스템 구축 실증 및 검증 트랙 1
[지원과제명] AI인식 기반 차세대 공항 출입국 관리 시스템 개발 및 실증
[지원기관] 정보통신산업진흥원
[기여율] 100%
[주관/참여기관] SQI소프트(주)/ (주)엘렉시
[지원기간] 2021. 1. 1. ~ 2021. 12. 31.
 
10 : 행동 인식 시스템
100 : 이상 행위 탐지 장치
200 : 네트워크
300 : 촬영 장치

Claims (12)

  1. 적어도 하나의 동영상 촬영 장치; 및
    상기 동영상 촬영 장치로부터 동영상을 수신하여 프레임을 추출하고, 상기 프레임에 포함된 객체별로 자세를 추론하고 추적하여, 상기 객체 행위의 이상 여부를 판단하도록 구성되는 이상 행위 탐지 장치;
    를 포함하도록 구성되는 행동 인식 시스템.
  2. 제 1 항에 있어서,
    상기 이상 행위 탐지 장치는,
    상기 동영상으로부터 시간 순서에 따라 상기 프레임을 추출하는 프레임 추출부;
    상기 프레임 각각으로부터 적어도 하나의 객체를 검출하고, 상기 적어도 하나의 객체별 자세를 분류하여, 상기 객체별로 추론 정보를 출력하는 자세 추론부;
    설정된 시간 동안 상기 객체별로 상기 추론 정보를 축적하여 상기 객체별로 시계열 정보를 구성하는 자세 추적부; 및
    상기 시계열 정보에 기초하여 상기 객체의 이상 행동 여부를 판단하는 행동 판단부;
    를 포함하도록 구성되는 행동 인식 시스템.
  3. 제 1 항에 있어서,
    상기 자세 추론부는, CNN(Convolutional Neural Network) 기반 자세 분류기에 기초하여 상기 객체의 자세를 추론하고, 상기 추론된 자세를 상기 검출된 객체의 하위 클래스로 레이블링하도록 구성되는 행동 인식 시스템.
  4. 제 2 항에 있어서,
    상기 추론 정보는 상기 객체의 자세 정보 및 상기 객체의 위치 정보를 포함하도록 구성되는 행동 인식 시스템.
  5. 제 2 항에 있어서,
    상기 행동 판단부는 규칙기반 인지 방식 및 순환 신경망 인지 방식 중 적어도 하나를 통해 이상 행동 여부를 판단하는 행동 인식 시스템.
  6. 적어도 하나의 동영상 촬영 장치와 네트워크를 통해 접속되는 이상 행위 탐지 장치를 포함하는 행동 인식 시스템의 동작 방법으로서,
    상기 이상 행위 탐지 장치가, 상기 동영상 촬영 장치로부터 수신된 동영상으로부터 프레임을 추출하는 단계;
    상기 이상 행위 탐지 장치가, 상기 프레임에 포함된 객체별로 자세를 추론하는 단계;
    상기 이상 행위 탐지 장치가, 상기 객제별로 자세를 추적하는 단계; 및
    상기 이상 행위 탐지 장치가, 상기 자세를 추적한 결과에 기초하여 상기 객체 행위의 이상 여부를 판단하는 단계;
    를 포함하도록 구성되는 행동 인식 시스템의 동작 방법.
  7. 제 6 항에 있어서,
    상기 프레임을 추출하는 단계는, 상기 이상 행위 탐지 장치가 상기 동영상으로부터 시간 순서에 따라 상기 프레임을 추출하는 단계를 포함하는 행동 인식 시스템의 동작 방법.
  8. 제 6 항에 있어서,
    상기 자세를 추론하는 단계는,
    상기 이상 행위 탐지 장치가, 상기 프레임 각각으로부터 적어도 하나의 객체 및 상기 적어도 하나의 객체별 자세를 판단하는 단계; 및
    상기 객체별로 추론 정보를 출력하는 단계;
    를 포함하는 행동 인식 시스템의 동작 방법.
  9. 제 8 항에 있어서,
    상기 객체별 추론 정보는 상기 객체의 자세 정보 및 상기 객체의 위치 정보를 포함하도록 구성되는 행동 인식 시스템의 동작 방법.
  10. 제 6 항에 있어서,
    상기 자세를 추적하는 단계는,
    설정된 시간 동안 상기 객체별 자세 추론 정보를 축적하여 객체별 시계열 정보를 구성하는 단계를 포함하는 행동 인식 시스템의 동작 방법.
  11. 제 6 항에 있어서,
    상기 자세를 추론하는 단계는, CNN(Convolutional Neural Network) 기반 자세 분류기에 기초하여 상기 객체의 자세를 추론하고, 상기 추론된 자세를 상기 검출된 객체의 하위 클래스로 레이블링하는 단계를 포함하도록 구성되는 행동 인식 시스템의 동작 방법.
  12. 제 6 항에 있어서,
    상기 객체 행위의 이상 여부를 판단하는 단계는, 규칙기반 인지 방식 및 순환 신경망 인지 방식 중 적어도 하나를 통해 이상 여부를 판단하는 단계를 포함하는 행동 인식 시스템의 동작 방법.
KR1020210165504A 2021-11-26 2021-11-26 행동 인식 시스템 및 방법 KR20230078087A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210165504A KR20230078087A (ko) 2021-11-26 2021-11-26 행동 인식 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210165504A KR20230078087A (ko) 2021-11-26 2021-11-26 행동 인식 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20230078087A true KR20230078087A (ko) 2023-06-02

Family

ID=86755811

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210165504A KR20230078087A (ko) 2021-11-26 2021-11-26 행동 인식 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20230078087A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102628690B1 (ko) * 2023-07-04 2024-01-25 주식회사 클레버러스 이상행동 탐지 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102628690B1 (ko) * 2023-07-04 2024-01-25 주식회사 클레버러스 이상행동 탐지 시스템

Similar Documents

Publication Publication Date Title
US20200334472A1 (en) Movement state estimation device, movement state estimation method and program recording medium
US10007850B2 (en) System and method for event monitoring and detection
CN109165685B (zh) 基于表情和动作的监狱服刑人员潜在性风险监测方法和系统
JP5459674B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
US9805256B2 (en) Method for setting a tridimensional shape detection classifier and method for tridimensional shape detection using said shape detection classifier
CN109298785A (zh) 一种监测设备的人机联控系统及方法
CN109598229A (zh) 基于动作识别的监控系统及其方法
CN111126153B (zh) 基于深度学习的安全监测方法、系统、服务器及存储介质
KR102550964B1 (ko) 개인화 모델을 이용한 집중도 측정 장치 및 방법
EP3360077A1 (en) Method and system for classifying objects from a stream of images
Rodriguez et al. Deep learning applied to capacity control in commercial establishments in times of COVID-19
KR20230078087A (ko) 행동 인식 시스템 및 방법
CN110580708B (zh) 一种快速移动检测方法、装置及电子设备
CN104077571A (zh) 一种采用单类序列化模型的人群异常行为检测方法
JP2019215728A (ja) 情報処理装置、情報処理方法及びプログラム
Borges et al. Vision-based detection of unusual patient activity
CN114764895A (zh) 异常行为检测装置和方法
CN112818929B (zh) 一种人员斗殴检测方法、装置、电子设备及存储介质
CN109815921A (zh) 加氢站中活动类别的预测方法及装置
Deepak et al. Design and utilization of bounding box in human detection and activity identification
Borah et al. Animal Motion Tracking in Forest: Using Machine Vision Technology
CN113723355A (zh) 一种目标监控方法和装置、存储介质及电子装置
DipaliAmbadas et al. Raspberry Pi based Single object tracking using Bayesian filter example
Daniyal et al. Abnormal motion detection in crowded scenes using local spatio-temporal analysis
KR102592951B1 (ko) 손 위생 이행 확인을 위한 영상 분석 장치 및 영상 분석 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal