KR20230094446A - 시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템 - Google Patents

시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템 Download PDF

Info

Publication number
KR20230094446A
KR20230094446A KR1020210183640A KR20210183640A KR20230094446A KR 20230094446 A KR20230094446 A KR 20230094446A KR 1020210183640 A KR1020210183640 A KR 1020210183640A KR 20210183640 A KR20210183640 A KR 20210183640A KR 20230094446 A KR20230094446 A KR 20230094446A
Authority
KR
South Korea
Prior art keywords
user
viewpoint
recognition
action
recognizing
Prior art date
Application number
KR1020210183640A
Other languages
English (en)
Other versions
KR102658344B1 (ko
Inventor
김정호
김성흠
Original Assignee
한국전자기술연구원
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원, 숭실대학교산학협력단 filed Critical 한국전자기술연구원
Priority to KR1020210183640A priority Critical patent/KR102658344B1/ko
Publication of KR20230094446A publication Critical patent/KR20230094446A/ko
Application granted granted Critical
Publication of KR102658344B1 publication Critical patent/KR102658344B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 행동 인식 방법은, 영상을 획득하고, 획득한 영상으로부터 사용자의 시점을 인식하며, 인식된 시점에 따라 각기 다른 행동 인식 모델을 이용하여 사용자의 행동을 인식한다. 이에 의해, 카메라의 시점 또는 사람의 방향 변화에 따른 외형 변화가 발생하더라도 입력 영상으로부터 사람의 행동을 정확하게 인식할 수 있게 된다.

Description

시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템{Action recognition method and system using multiple classifiers according to viewpoints}
본 발명은 행동 인식 기술에 관한 것으로, 더욱 상세하게는 카메라의 시점 변화 또는 사용자의 방향 변화가 있는 경우에도 강인하게 사용자의 행동을 인식할 수 있는 방법 및 시스템에 관한 것이다.
도 1은 동일한 행동 데이터를 다양한 카메라 시점으로 촬영한 사진들이다. 도 1을 통해 짐작할 수 있듯이, 같은 행동에 대해서도 카메라의 시점 변화 또는 사람의 방향의 변화에 따라서 행동 인식을 위한 학습 데이터가 필요하다.
하지만, 여러 방향에 대한 학습 데이터를 하나의 행동 인식 모델이 동시에 학습할 경우, 같은 행동에 대해서 다양한 시점의 사람 영상이 획득 되므로 인식 성능이 높지 않다는 문제가 있다.
이에, 카메라의 시점 변화 또는 사람의 방향의 변화에 강인한 행동 인식 기술이 요청되고 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 카메라의 시점 또는 사람의 방향에 따른 외형 변화가 발생하더라도 입력 영상으로부터 사람의 행동을 정확하게 인식할 수 있는 방법 및 시스템을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 행동 인식 방법은, 영상을 획득하는 단계; 획득한 영상으로부터 사용자의 시점을 인식하는 단계; 및 인식된 시점에 따라, 각기 다른 행동 인식 모델을 이용하여 사용자의 행동을 인식하는 단계;를 포함한다.
행동 인식 단계는, 다수의 시점들 각각에 매칭되어 있는 행동 인식 모델들 중 인식된 시점에 매칭되어 있는 행동 인식 모델을 이용할 수 있다.
시점 인식 단계는, 입력되는 영상에서 사용자를 검출하고 검출된 사용자의 시점을 인식하도록 학습된 딥러닝 모델인 시점 인식 모델을 이용하여, 사용자의 시점을 인식할 수 있다.
시점 인식 모델은, 객체 인식 모듈에서 분류하는 객체의 클래스를 객체의 시점으로 변경하여 구현할 수 있다.
시점 인식 모델은, 사용자가 기준 시점을 향하는 상태로 취하는 행동들을 다수의 카메라들을 이용하여 다수의 시점들에서 촬영하여 생성한 영상들로 학습될 수 있다.
시점들은, 정해진 각도 만큼씩 떨어져 있을 수 있다.
본 발명의 실시예에 따른 행동 인식 방법은, 획득한 영상으로부터 사용자의 관절 정보를 생성하는 단계;를 더 포함할 수 있다.
행동 인식 단계는, 생성된 사용자의 관절 정보로부터 사용자의 행동을 인식할 수 있다.
관절 정보는, 획득된 영상으로부터 생성한 2D 관절 정보와 2D 관절 정보로부터 생성한 3D 관절 정보를 포함할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 행동 인식 시스템은, 영상을 획득하는 카메라; 카메라에 의해 획득한 영상으로부터 사용자의 시점을 인식하는 시점 인식부; 및 인식된 시점에 따라, 각기 다른 행동 인식 모델을 이용하여 사용자의 행동을 인식하는 행동 인식부;를 포함한다.
한편, 본 발명의 다른 실시예에 따른, 행동 인식 방법은, 영상으로부터 사용자의 시점을 인식하는 단계; 획득한 영상으로부터 사용자의 관절 정보를 생성하는 단계; 및 인식된 시점에 따라, 각기 다른 행동 인식 모델을 이용하여 사용자의 관절 정보로부터 사용자의 행동을 인식하는 단계;를 포함한다.
한편, 본 발명의 다른 실시예에 따른, 행동 인식 시스템은, 영상으로부터 사용자의 시점을 인식하는 시점 인식부; 획득한 영상으로부터 사용자의 관절 정보를 생성하는 관절 정보 생성부; 및 인식된 시점에 따라, 각기 다른 행동 인식 모델을 이용하여 사용자의 관절 정보로부터 사용자의 행동을 인식하는 행동 인식부;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 카메라의 시점 또는 사람의 방향 변화에 따른 외형 변화가 발생하더라도 입력 영상으로부터 사람의 행동을 정확하게 인식할 수 있게 된다.
도 1은 카메라 시점에 따른 행동 데이터,
도 2는 본 발명의 일 실시예에 따른 행동 인식 방법의 설명에 제공되는 흐름도,
도 3은 2D EDM과 3D EDM을 예시한 도면,
도 4는 다양한 시점으로 사용자를 촬영하여 획득한 학습 영상들, 그리고,
도 5는 본 발명의 다른 실시예에 따른 행동 인식 시스템의 블럭도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
하나의 시점에서 학습된 분류기(Classifier)의 경우 다른 시점에서 획득한 사용자의 행동을 인식할 경우 성공률이 현저히 떨어진다. 그러므로 이를 보완할 수 있는 시점 변화에 강인한 행동 인식을 위해, 본 발명의 실시예에서는 시점에 따라 구분되어 있는 다중 분류기를 이용한 행동 인식 방법을 제시한다.
도 2는 본 발명의 일 실시예에 따른 행동 인식 방법의 설명에 제공되는 흐름도이다.
자세 인식을 위해, 도시된 바와 같이, 먼저 카메라로 사용자를 촬영하여 영상을 획득한다(S110). 영상 획득을 위한 카메라의 대수에 대한 제한은 없다. 1대의 카메라를 이용하여도 무방하다.
다음, S110단계에서 획득된 영상을 이용하여 사용자의 관절 정보를 생성한다(S120).
S120단계에서는 'S110단계에서 획득된 영상을 분석하여 사용자의 2D 관절 정보를 생성하도록 학습된 딥러닝 모델인 2D 관절 생성 모델'과 '사용자의 2D 관절 정보를 3D 관절 정보로 변환하도록 학습된 딥러닝 모델인 변환 모델'을 이용하여, 2D 관절 정보와 3D 관절 정보를 각각 생성한다.
다음, 생성된 2D 관절 정보를 2D EDM(Euclidean Distance Matrix)로 변환하고, 3D 관절 정보는 3D EDM으로 변환한다. 도 3에는 2D EDM과 3D EDM을 예시하였다. 이후, 2D EDM과 3D EDM의 Upper Triangular 성분들을 각각 벡터화하여, 2D 관절 특징 벡터와 3D 관절 특징 벡터를 생성한다.
한편, S110단계에서 획득된 영상에서 사용자를 검출하고, 검출된 사용자의 시점(방향)을 인식한다(S130). 구체적으로, 사용자의 시점은 다음과 같이 구분하여 인식한다.
1) 사용자가 12시 방향을 바라보고 있을 때의 시점 : 0°
2) 사용자가 1.5시 방향을 바라보고 있을 때의 시점 : 45°
3) 사용자가 3시 방향을 바라보고 있을 때의 시점 : 90°
4) 사용자가 4.5시 방향을 바라보고 있을 때의 시점 : 135°
5) 사용자가 6시 방향을 바라보고 있을 때의 시점 : 180°
6) 사용자가 7.5시 방향을 바라보고 있을 때의 시점 : 225°
7) 사용자가 9시 방향을 바라보고 있을 때의 시점 : 270°
8) 사용자가 10.5시 방향을 바라보고 있을 때의 시점 : 315°
S120단계에서의 시점 인식은 'S110단계에서 획득된 영상에서 사용자를 검출하고, 검출된 사용자의 시점을 인식하도록 학습된 딥러닝 모델인 시점 인식 모델을 이용하여 수행된다.
시점 인식 모델은 기존의 객체 인식 모듈, 이를 테면, YOLO 모델을 활용하여 구형할 수 있는데, 객체 인식 모듈이 검출 후에 분류하는 객체의 클래스를 객체의 시점으로 취급한다면, 객체 인식 모듈로 시점 인식 모델을 구현할 수 있다.
그리고, S130단계에서 인식된 시점을 기초로 행동 인식 모델을 결정하고, 결정된 행동 인식 모델을 이용하여 S120단계에서 생성된 관절 정보로부터 사용자의 행동을 인식한다(S140).
여기서, 행동 인식 모델은 사용자의 관절 정보를 분석하여 사용자의 행동을 인식하도록 학습된 딥러닝 모델이다. 행동 인식 모델은 Random Forest를 이용한 행동 인식 분류기로 구현할 수 있지만, 그 밖의 다른 인공지능 모델을 이용하여 구현할 수 있음은 물론이다.
한편, 본 발명의 실시예에서 행동 인식 모델은 시점 마다 구분되어 있다. 즉, 행동 인식 모델은 전부 8개, 구체적으로, 1) 사용자의 시점이 0°인 경우에 사용자의 행동을 인식하기 위한 행동 인식 모델-1(RF), 2) 사용자의 시점이 45°인 경우에 사용자의 행동을 인식하기 위한 행동 인식 모델-2(RF45°), 3) 사용자의 시점이 90°인 경우에 사용자의 행동을 인식하기 위한 행동 인식 모델-3(RF90°), ..., 8) 사용자의 시점이 315°인 경우에 사용자의 행동을 인식하기 위한 행동 인식 모델-8(RF315°)로 구성된 다중 모델이다.
즉, S140단계에서는 인식된 방향에 매칭되어 있는 행동 인식 모델을 이용하여, 사용자의 관절 정보로부터 사용자의 자세를 인식한다고 할 수 있다.
본 발명의 실시예에서 이용되는 딥러닝 모델은, 1) S110단계에서 획득된 영상을 분석하여 사용자의 2D 관절 정보를 생성하는 2D 관절 생성 모델, 2) 사용자의 2D 관절 정보를 3D 관절 정보로 변환하는 변환 모델, 3) S110단계에서 획득된 영상을 분석하여 사용자의 시점을 인식하는 시점 인식 모델, 4) 사용자의 관절 정보를 분석하여 사용자의 행동을 인식하는 8개의 행동 인식 모델들이다.
이들은 모두 지도 학습을 통해 학습시킬 수 있다. 이하에서는, 시점 인식 모델을 학습시키기 위한 학습 데이터를 생성하는 과정에 대해 상세히 설명한다.
시점 인식 모델을 학습시키기 위한 학습 영상은, 8개의 시점(0°, 45°, 90°, ..., 315°)으로 사용자를 촬영할 수 있도록 설치된 8대의 카메라들을 이용하여 생성할 수 있다. 이 상태에서 사용자로 하여금 여러 가지 행동을 취하도록 유도하면, 각 행동에 대해 시점 별로 학습 영상을 획득할 수 있게 된다. 이와 같은 방법으로 획득한 학습 영상을 도 4에 예시하였다.
다음, 학습 영상들에 대한 라벨링 작업을 수행한다. 구체적으로, 학습 영상에서 사용자 영역을 나타내는 BBox(Bounding Box)에 대한 정보와 사용자의 시점(방향) 정보를 학습 영상에 라벨링하는 것이다. 라벨링된 학습 영상들은 시점 인식 모델의 학습에 활용된다.
도 5는 본 발명의 다른 실시예에 따른 행동 인식 시스템의 블럭도이다. 본 발명의 실시예에 따른 행동 인식 시스템은, 도시된 바와 같이, 카메라(210), 관절 정보 생성부(220), 시점 인식부(230) 및 행동 인식부(240)를 포함하여 구성된다.
카메라(210)는 사용자를 촬영하여 영상을 생성하고, 관절 정보 생성부(220)는 카메라(210)에서 생성된 영상으로부터 사용자의 관절 정보를 생성한다.
시점 인식부(230)는 카메라(210)에서 생성된 영상으로부터 사용자를 검출하고, 검출된 사용자의 시점을 인식한다.
행동 인식부(240)는 시점 인식부(230)에 의해 인식된 사용자의 시점을 기초로 8개의 행동 인식 모델들 중 하나를 선택하고, 선택된 행동 인식 모델을 이용하여 관절 정보 생성부(220)가 생성한 사용자의 관절 정보로부터 사용자의 행동을 인식한다.
지금까지, 시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템에 대해 바람직한 실시예를 들어 상세히 설명하였다.
위 실시예에서는 행동 인식을 위한 행동 인식 모델을 다중으로 설계하고, 입력 영상으로부터 사용자의 시점을 인식하여, 인식한 시점의 행동을 학습한 행동 인식 모델을 이용하여 행동을 인식함으로써, 시점 변화에 강인한 행동 인식이 가능하도록 하였다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
210 : 카메라
220 : 관절 정보 생성부
230 : 시점 인식부
240 : 행동 인식부

Claims (12)

  1. 영상을 획득하는 단계;
    획득한 영상으로부터 사용자의 시점을 인식하는 단계; 및
    인식된 시점에 따라, 각기 다른 행동 인식 모델을 이용하여 사용자의 행동을 인식하는 단계;를 포함하는 것을 특징으로 하는 행동 인식 방법.
  2. 청구항 1에 있어서,
    행동 인식 단계는,
    다수의 시점들 각각에 매칭되어 있는 행동 인식 모델들 중 인식된 시점에 매칭되어 있는 행동 인식 모델을 이용하는 것을 특징으로 하는 행동 인식 방법.
  3. 청구항 1에 있어서,
    시점 인식 단계는,
    입력되는 영상에서 사용자를 검출하고 검출된 사용자의 시점을 인식하도록 학습된 딥러닝 모델인 시점 인식 모델을 이용하여, 사용자의 시점을 인식하는 것을 특징으로 하는 행동 인식 방법.
  4. 청구항 3에 있어서,
    시점 인식 모델은,
    객체 인식 모듈에서 분류하는 객체의 클래스를 객체의 시점으로 변경하여 구현하는 것을 특징으로 하는 행동 인식 방법.
  5. 청구항 3에 있어서,
    시점 인식 모델은,
    사용자가 기준 시점을 향하는 상태로 취하는 행동들을 다수의 카메라들을 이용하여 다수의 시점들에서 촬영하여 생성한 영상들로 학습되는 것을 특징으로 하는 행동 인식 방법.
  6. 청구항 1에서,
    시점들은,
    정해진 각도 만큼씩 떨어져 있는 것을 특징으로 하는 행동 인식 방법.
  7. 청구항 1에 있어서,
    획득한 영상으로부터 사용자의 관절 정보를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 행동 인식 방법.
  8. 청구항 7에 있어서,
    행동 인식 단계는,
    생성된 사용자의 관절 정보로부터 사용자의 행동을 인식하는 것을 특징으로 하는 행동 인식 방법.
  9. 청구항 1에 있어서,
    관절 정보는,
    획득된 영상으로부터 생성한 2D 관절 정보와 2D 관절 정보로부터 생성한 3D 관절 정보를 포함하는 것을 특징으로 하는 행동 인식 방법.
  10. 영상을 획득하는 카메라;
    카메라에 의해 획득한 영상으로부터 사용자의 시점을 인식하는 시점 인식부; 및
    인식된 시점에 따라, 각기 다른 행동 인식 모델을 이용하여 사용자의 행동을 인식하는 행동 인식부;를 포함하는 것을 특징으로 하는 행동 인식 시스템.
  11. 영상으로부터 사용자의 시점을 인식하는 단계;
    획득한 영상으로부터 사용자의 관절 정보를 생성하는 단계; 및
    인식된 시점에 따라, 각기 다른 행동 인식 모델을 이용하여 사용자의 관절 정보로부터 사용자의 행동을 인식하는 단계;를 포함하는 것을 특징으로 하는 행동 인식 방법.
  12. 영상으로부터 사용자의 시점을 인식하는 시점 인식부;
    획득한 영상으로부터 사용자의 관절 정보를 생성하는 관절 정보 생성부; 및
    인식된 시점에 따라, 각기 다른 행동 인식 모델을 이용하여 사용자의 관절 정보로부터 사용자의 행동을 인식하는 행동 인식부;를 포함하는 것을 특징으로 하는 행동 인식 시스템.
KR1020210183640A 2021-12-21 2021-12-21 시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템 KR102658344B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210183640A KR102658344B1 (ko) 2021-12-21 2021-12-21 시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210183640A KR102658344B1 (ko) 2021-12-21 2021-12-21 시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20230094446A true KR20230094446A (ko) 2023-06-28
KR102658344B1 KR102658344B1 (ko) 2024-04-17

Family

ID=86994628

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210183640A KR102658344B1 (ko) 2021-12-21 2021-12-21 시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102658344B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190117838A (ko) * 2018-03-26 2019-10-17 한국전자통신연구원 객체 인식 시스템 및 그 방법
KR20200076276A (ko) * 2018-12-19 2020-06-29 전자부품연구원 관절 간 거리 정보를 이용한 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
KR20210053534A (ko) * 2019-11-04 2021-05-12 주식회사 넥스트케이 딥러닝기반 행동인식장치 및 그 장치의 구동방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190117838A (ko) * 2018-03-26 2019-10-17 한국전자통신연구원 객체 인식 시스템 및 그 방법
KR20200076276A (ko) * 2018-12-19 2020-06-29 전자부품연구원 관절 간 거리 정보를 이용한 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
KR20210053534A (ko) * 2019-11-04 2021-05-12 주식회사 넥스트케이 딥러닝기반 행동인식장치 및 그 장치의 구동방법

Also Published As

Publication number Publication date
KR102658344B1 (ko) 2024-04-17

Similar Documents

Publication Publication Date Title
Jiang et al. Skeleton aware multi-modal sign language recognition
Ruiz et al. Fine-grained head pose estimation without keypoints
Ballard Animat vision
Ranjan et al. Hyperface: A deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition
US10949649B2 (en) Real-time tracking of facial features in unconstrained video
CN110909651B (zh) 视频主体人物的识别方法、装置、设备及可读存储介质
Dibeklioglu et al. Like father, like son: Facial expression dynamics for kinship verification
Li et al. Cross-view activity recognition using hankelets
US8837786B2 (en) Face recognition apparatus and method
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
CN112528902B (zh) 一种基于3d人脸模型的视频监控动态人脸识别方法及装置
Kalbande et al. Lip reading using neural networks
Hafner et al. Cross-Modal Distillation for RGB-Depth Person Re-Identification
Weber et al. High-level geometry-based features of video modality for emotion prediction
Shah et al. Efficient portable camera based text to speech converter for blind person
Favaro et al. AdaBoost
JP2022095332A (ja) 学習モデル生成方法、コンピュータプログラム及び情報処理装置
Werman Affine invariants
KR20230094446A (ko) 시점에 따른 다중 분류기를 이용한 행동 인식 방법 및 시스템
KR102563522B1 (ko) 사용자의 얼굴을 인식하는 장치, 방법 및 컴퓨터 프로그램
Köser Affine Registration
Naikal et al. Joint detection and recognition of human actions in wireless surveillance camera networks
Sharma et al. Study and implementation of face detection algorithm using Matlab
Sultani et al. Action recognition in real-world videos
Li et al. Activity Recognition

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right