KR20230032712A - Apparatus and method for recognizing gait using noise reduction network - Google Patents

Apparatus and method for recognizing gait using noise reduction network Download PDF

Info

Publication number
KR20230032712A
KR20230032712A KR1020210115818A KR20210115818A KR20230032712A KR 20230032712 A KR20230032712 A KR 20230032712A KR 1020210115818 A KR1020210115818 A KR 1020210115818A KR 20210115818 A KR20210115818 A KR 20210115818A KR 20230032712 A KR20230032712 A KR 20230032712A
Authority
KR
South Korea
Prior art keywords
gait
joint model
noise
network
model data
Prior art date
Application number
KR1020210115818A
Other languages
Korean (ko)
Other versions
KR102636549B1 (en
Inventor
전문구
윤용상
김예찬
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020210115818A priority Critical patent/KR102636549B1/en
Publication of KR20230032712A publication Critical patent/KR20230032712A/en
Application granted granted Critical
Publication of KR102636549B1 publication Critical patent/KR102636549B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a gait recognition technology and more specifically, relates to a device and method for recognizing a gait based on a noise improvement network. According to an embodiment of the present invention, by removing a noise through the noise improvement network, a gait recognition performance can be efficiently improved. The device comprises: a gait information input part; a joint model extraction part; a preprocessing part; a joint model improvement part; a gait pattern extraction part; and a gait recognition part.

Description

노이즈 개선 네트워크 기반 보행 인식 장치 및 방법{APPARATUS AND METHOD FOR RECOGNIZING GAIT USING NOISE REDUCTION NETWORK}Noise enhancement network based gait recognition device and method {APPARATUS AND METHOD FOR RECOGNIZING GAIT USING NOISE REDUCTION NETWORK}

본 발명은 보행 인식 기술에 관한 것으로, 더욱 상세하게는 노이즈 개선 네트워크 기반의 보행 인식 장치 및 방법에 관한 것이다.The present invention relates to gait recognition technology, and more particularly, to a gait recognition device and method based on a noise reduction network.

생체인식 기술은 사람의 신원을 생리학적 특징 또는 행동적 특징을 기반으로 인식하는 기술로, 기존에는 출입 통제 영역에서 주로 이용되었다. 생체인식 기술은 최근 스마트 디바이스, 국방, 헬스케어, 핀테크 등의 다양한 분야에서 활용되고 있다. 특히, 생체인식 기술 중 보행 인식 기술은 코로나19 사태 이후 비대면, 비접촉 서비스가 주를 이루면서 높은 연평균 성장률을 보일 것으로 전망되고 있다. Biometrics technology is a technology that recognizes a person's identity based on physiological characteristics or behavioral characteristics, and has been mainly used in the area of access control in the past. Biometric technology has recently been used in various fields such as smart devices, national defense, healthcare, and fintech. In particular, gait recognition technology among biometric technologies is expected to show a high average annual growth rate as non-face-to-face and non-contact services dominate after the COVID-19 crisis.

보행 인식 기술은 RGB 데이터와 모션 흐름을 입력으로 하는 CNN 또는 RNN 딥 러닝 기술을 포함하고 있다. 그러나 딥 러닝 기술은 입력 정보로 학습 시에 비디오 프레임의 전체 영역을 사용하기 때문에 사람의 행동에 초점을 맞추어 지지 않을 수 있으며, 다양한 유형의 노이즈로 인해 성능 저하를 일으킬 수 있다. Gait recognition technology includes CNN or RNN deep learning technology that takes RGB data and motion flow as inputs. However, since deep learning technology uses the entire area of video frames for learning as input information, it may not be focused on human behavior and may cause performance degradation due to various types of noise.

본 발명의 배경기술은 대한민국 등록특허 제10-2101221 호에 게시되어 있다.The background art of the present invention is published in Korean Registered Patent No. 10-2101221.

본 발명은 비접촉식 입력 센서를 이용하여 보행 인식에 필요한 보행정보를 사람이 직접 취득하지 않고 자동으로 생성하는 노이즈 개선 네트워크 기반의 보행 인식 장치 및 방법을 제공한다.The present invention provides a gait recognition device and method based on a noise reduction network that automatically generates gait information necessary for gait recognition without a person directly acquiring it by using a non-contact input sensor.

본 발명은 노이즈 개선 네트워크를 통해 노이즈를 제거함으로써 보행 인식 성능을 효율적으로 높일 수 있는 노이즈 개선 네트워크 기반의 보행 인식 장치 및 방법을 제공한다.The present invention provides an apparatus and method for gait recognition based on a noise amelioration network capable of efficiently improving gait recognition performance by removing noise through the noise amelioration network.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved by the present invention is not limited to the above-mentioned technical problem, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

본 발명의 일 측면에 따르면, 노이즈 개선 네트워크 기반 보행 인식 장치가 제공된다.According to one aspect of the present invention, a noise reduction network-based gait recognition device is provided.

본 발명의 일 실시 예에 따른 노이즈 개선 네트워크 기반 보행 인식 장치는 비접촉식 센서를 통해 생성된 객체의 보행정보를 입력하는 보행정보입력부, 객체의 보행정보에서 관절 모델을 추출하고 관절 모델 데이터를 생성하는 관절모델추출부, 관절 모델 데이터에 대한 전처리를 수행하는 전처리부, 기학습된 노이즈 개선 네트워크를 이용하여 전처리된 관절 모델 데이터에서 개선된 관절 모델 데이터를 생성하는 관절모델개선부, 개선된 관절 모델 데이터를 기반으로 보행패턴을 추출하는 보행패턴추출부 및 보행패턴과 신원 특징과의 유사도 비교를 계산하여 보행 인식을 수행하는 보행인식부를 포함할 수 있다.An apparatus for gait recognition based on a noise-reducing network according to an embodiment of the present invention includes a gait information input unit for inputting gait information of an object generated through a non-contact sensor, and a joint for extracting a joint model from the gait information of an object and generating joint model data. A model extraction unit, a preprocessing unit that preprocesses joint model data, a joint model improvement unit that generates improved joint model data from preprocessed joint model data using a pre-learned noise improvement network, and an improved joint model data and a gait pattern extractor for extracting a gait pattern based on the gait pattern and a gait recognition unit for performing gait recognition by calculating a similarity comparison between the gait pattern and an identity feature.

본 발명의 다른 일 측면에 따르면, 노이즈 개선 네트워크 기반 보행 인식 방법이 제공된다.According to another aspect of the present invention, a noise reduction network-based gait recognition method is provided.

본 발명의 일 실시 예에 따른 노이즈 개선 네트워크 기반 보행 인식 방법은 비접촉식 센서를 통해 생성된 객체의 보행정보를 입력하는 단계, 객체의 보행정보에서 관절 모델을 추출하고 관절 모델 데이터를 생성하는 단계, 관절 모델 데이터에 대한 전처리를 수행하는 단계, 기학습된 노이즈 개선 네트워크를 이용하여 전처리된 관절 모델 데이터에서 개선된 관절 모델 데이터를 생성하는 단계, 개선된 관절 모델 데이터를 기반으로 보행패턴을 추출하는 단계 및 보행패턴과 신원 특징과의 유사도 비교를 계산하여 보행 인식을 수행하는 단계를 포함할 수 있다.A noise reduction network-based gait recognition method according to an embodiment of the present invention includes the steps of inputting gait information of an object generated through a non-contact sensor, extracting a joint model from the gait information of an object and generating joint model data, Performing preprocessing on model data, generating improved joint model data from preprocessed joint model data using a pre-learned noise improvement network, extracting a gait pattern based on the improved joint model data, and and performing gait recognition by calculating a similarity comparison between the gait pattern and the identity feature.

본 발명의 실시 예에 따르면, 비접촉식 입력 센서를 이용하여 보행 인식에 필요한 보행정보를 사람이 직접 취득하지 않고 자동으로 생성할 수 있다. According to an embodiment of the present invention, gait information necessary for gait recognition can be automatically generated using a non-contact input sensor without a person directly obtaining it.

또한, 본 발명의 실시 예에 따르면, 노이즈 개선 네트워크를 통해 노이즈를 제거함으로써 보행 인식 성능을 효율적으로 높일 수 있다.Also, according to an embodiment of the present invention, gait recognition performance can be efficiently improved by removing noise through a noise improvement network.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 설명 또는 청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the description of the present invention or the configuration of the invention described in the claims.

도 1 및 도 2는 노이즈 개선 네트워크 기반 보행 인식 장치를 설명하기 위한 도면들.
도 3은 노이즈 개선 네트워크 기반 보행 인식 방법을 설명하기 위한 도면.
도 4 및 도 5는 본 발명의 일 실시 예에 따른 노이즈 개선 네트워크 기반 보행 인식 장치의 보행 인식 성능을 예시한 도면들.
1 and 2 are diagrams for explaining a noise reduction network-based gait recognition device.
3 is a diagram for explaining a noise reduction network-based gait recognition method;
4 and 5 are diagrams illustrating gait recognition performance of the gait recognition device based on a noise reduction network according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and, therefore, is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, combined)" with another part, this is not only "directly connected", but also "indirectly connected" with another member in between. "Including cases where In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

도 1 및 도 2는 노이즈 개선 네트워크 기반 보행 인식 장치를 설명하기 위한 도면들이다.1 and 2 are diagrams for explaining a noise reduction network-based gait recognition device.

도 1을 참조하면, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 보행정보입력부(110), 관절모델추출부(120), 전처리부(130), 관절모델개선부(140), 보행패턴추출부(150) 및 보행인식부(160)를 포함한다. Referring to FIG. 1, the noise reduction network-based gait recognition device 100 includes a gait information input unit 110, a joint model extraction unit 120, a pre-processing unit 130, a joint model improvement unit 140, and a gait pattern extraction unit. (150) and a gait recognition unit (160).

보행정보입력부(110)는 비접촉식 센서를 통해 생성된 객체의 보행정보를 입력할 수 있다. 여기서, 비접촉식 센서는 라이다 센서, RGB 센서 중 적어도 하나를 포함할 수 있다. 예를 들어, 보행정보입력부(110)는 비접촉식 센서에서 측정되는 객체의 외형정보 또는 깊이정보에 기반하여 객체의 보행정보를 생성하고 입력할 수 있다. The gait information input unit 110 may input gait information of an object generated through a non-contact sensor. Here, the non-contact sensor may include at least one of a LiDAR sensor and an RGB sensor. For example, the gait information input unit 110 may generate and input gait information of an object based on shape information or depth information of an object measured by a non-contact sensor.

관절모델추출부(120)는 보행정보입력부(110)로부터 입력된 객체의 보행정보에서 관절 모델을 추출한다. 구체적으로, 관절모델추출부(120)는 객체의 보행정보에서 관절을 추정하여 관절 모델을 추출할 수 있다. 이 때, 관절모델추출부(120)는 컨볼루션 신경망(CNN)을 통해 객체의 보행정보에서 관절을 추정할 수 있다. 본 발명의 일 실시예에 따른 관절모델추출부(120)는 트랜스포머(Transformer) 네트워크를 이용하여 관절을 추정한다. 관절모델추출부(120)는 트랜스포머 네트워크를 통해 추정된 관절을 기반으로 객체의 관절 모델을 추출하고, 관절 모델 데이터를 생성할 수 있다. The joint model extraction unit 120 extracts a joint model from the gait information of the object input from the gait information input unit 110 . Specifically, the joint model extraction unit 120 may extract a joint model by estimating a joint from gait information of an object. At this time, the joint model extraction unit 120 may estimate the joint from the gait information of the object through a convolutional neural network (CNN). The joint model extraction unit 120 according to an embodiment of the present invention estimates a joint using a Transformer network. The joint model extraction unit 120 may extract a joint model of an object based on a joint estimated through a transformer network and generate joint model data.

전처리부(130)는 관절모델추출부(120)로부터 생성된 관절 모델 데이터에 대한 전처리를 수행한다. The preprocessor 130 performs preprocessing on the joint model data generated from the joint model extractor 120 .

예를 들어, 전처리부(130)는 관절 모델 데이터의 해상도, 데이터 형태 중 적어도 하나를 변경할 수 있다. 이 때, 전처리부(130)는 관절모델추출부(120)로부터 사용된 컨볼루션 신경망(CNN)의 네트워크 입력 양식에 따라 데이터의 해상도를 FHD에서 HD로 변경하거나, 데이터 형태를 W*H*3에서 B*3*W*H으로 변경할 수 있다. For example, the pre-processing unit 130 may change at least one of a resolution and a data type of joint model data. At this time, the pre-processing unit 130 changes the resolution of data from FHD to HD according to the network input format of the convolutional neural network (CNN) used from the joint model extraction unit 120, or changes the data format to W * H * 3 can be changed from to B*3*W*H.

또한, 전처리부(130)는 관절 모델 데이터에서 최소 단위 행동을 인식하기 위한 반복 영상을 생성할 수 있다. 여기서, 최소 단위 행동은 팔들기, 한걸음걷기, 앉기 등 행동의 지속 시간이 상당히 짧은 행동을 의미한다. 전처리부(130)는 행동의 지속시간이 짧은 객체의 보행정보에서 최소 단위 행동을 인식하기 위해 관절 모델 데이터를 최소 2회 이상 병합한 반복 영상을 생성할 수 있다. In addition, the pre-processing unit 130 may generate a repetitive image for recognizing minimum unit actions in the joint model data. Here, the minimum unit action means an action with a fairly short duration of action, such as raising an arm, walking one step, or sitting down. The pre-processing unit 130 may generate a repetitive image obtained by merging joint model data at least twice or more in order to recognize a minimum unit action from gait information of an object having a short action duration.

관절모델개선부(140)는 전처리된 관절 모델 데이터에서 기학습된 노이즈 개선 네트워크를 이용하여 노이즈를 제거한다. 여기서, 노이즈 개선 네트워크는 예측적으로 인코딩된 그래프 컨볼루션 네트워크인 PeGCN(Predicatively encoded graph convolutional network)를 이용할 수 있다. 구체적으로, PeGCN은 상호 정보(Mutual Information)를 활용하여 입력되는 원본 데이터 및 전처리된 데이터 사이의 의존성을 수치적으로 측정하여 노이즈 개선을 수행하는 네트워크로써, 학습을 통해 원본 데이터와 전처리된 데이터를 잠재 공간(Latent space)으로 매핑한 결과들의 공통 분모를 극대화하여 노이즈 개선을 수행한다. The joint model improvement unit 140 removes noise from the preprocessed joint model data by using a pre-learned noise improvement network. Here, the noise enhancement network may use a predictively encoded graph convolutional network (PeGCN), which is a predictively encoded graph convolutional network. Specifically, PeGCN is a network that performs noise improvement by numerically measuring the dependence between input original data and preprocessed data using mutual information. Noise improvement is performed by maximizing the common denominator of the mapping results into latent space.

이 때, 두 데이터 간의 상호 의존성을 측정할 수 있는 상호 정보는 아래의 수학식 1과 같이 정의할 수 있다. At this time, mutual information capable of measuring mutual dependence between the two data can be defined as in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서 x와 α는 각각 원본 데이터와 노이즈 데이터의 표현값으로, 두 표현값 사이의 상호 정보인 I(x; α

Figure pat00002
)를 최대화하여 노이즈에 강인한 기본 잠재 변수를 추출한다.Here, x and α are the expression values of the original data and the noise data, respectively, and I(x; α is the mutual information between the two expression values.
Figure pat00002
) to extract basic latent variables that are robust to noise.

도 2를 참조하면, PeGCN은 학습 시 원본 데이터 X(normal skeleton X)와 전처리된 관절 모델 영상인 노이즈 데이터 X'(noisy skeleton X')를 입력하여 두 데이터 사이의 공통 분모를 극대화한다. Referring to FIG. 2, PeGCN maximizes the common denominator between the two data by inputting original data X (normal skeleton X) and preprocessed joint model image, noise data X' (noisy skeleton X') during learning.

구체적으로, PeGCN은 그래프 컨볼루션 네트워크(GCN) 모듈

Figure pat00003
와 자기회귀(autoregressive) 모듈
Figure pat00004
로 구성되며,
Figure pat00005
는 입력되는 데이터를 잠재 공간(Latent space)으로 인코딩하고,
Figure pat00006
는 잠재 특징(Latent feature)인 α, α'을 추출한다.Specifically, PeGCN is a graph convolutional network (GCN) module
Figure pat00003
and the autoregressive module
Figure pat00004
consists of,
Figure pat00005
encodes the input data into a latent space,
Figure pat00006
extracts α and α′, which are latent features.

이 때, 그래프 컨볼루션 네트워크(GCN) 모듈

Figure pat00007
와 자기회귀(autoregressive) 모듈
Figure pat00008
은 모두 손실을 최적화하고 상호 정보를 최대화하도록 학습하며, 이 때 손실함수(
Figure pat00009
)는 아래 수학식 2와 같이 나타낼 수 있다. At this time, the graph convolution network (GCN) module
Figure pat00007
and the autoregressive module
Figure pat00008
both learn to optimize loss and maximize mutual information, at which time the loss function (
Figure pat00009
) can be expressed as in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00010
Figure pat00010

PeGCN은 손실을 최소화하여 상호 정보인 I(x; α

Figure pat00011
)를 최대화하지만, 보행 인식에 있어 보행 동작 클래스 식별을 수행해야 하므로 아래의 수학식 3과 같이 교차 엔트로피 손실 함수(
Figure pat00012
)를 이용한다. PeGCN minimizes the loss so that the mutual information I(x; α
Figure pat00011
) is maximized, but since gait motion class identification must be performed in gait recognition, the cross entropy loss function (as shown in Equation 3 below)
Figure pat00012
) is used.

[수학식 3][Equation 3]

Figure pat00013
Figure pat00013

여기서, C는 보행 동작 클래스(class)의 수이고. o는 추론 단계에서 분류 작업을 위해 완전히 연결된 네트워크의 출력값을 의미한다. 즉, PeGCN의 학습을 위한 총 손실 함수(

Figure pat00014
)는 교차 엔트로피 손실 함수(
Figure pat00015
)와 균형 가중치(λ를 사용한 손실 함수(
Figure pat00016
)의 합으로 나타낸다. Here, C is the number of walking motion classes. o denotes the output of the fully connected network for the classification task in the inference step. That is, the total loss function for learning PeGCN (
Figure pat00014
) is the cross entropy loss function (
Figure pat00015
) and the loss function using the balance weights (λ) (
Figure pat00016
) as the sum of

관절모델개선부(140)는 전처리된 관절 모델 데이터를 입력으로 하여 기학습된 PeGCN를 통해 노이즈가 제거된 개선된 관절 모델 데이터를 생성한다. The joint model improvement unit 140 takes the preprocessed joint model data as an input and generates improved joint model data from which noise is removed through pre-learned PeGCN.

다시 도 1을 참조하면, 보행패턴추출부(150)는 개선된 관절 모델 데이터를 기반으로 보행패턴을 추출한다. 구체적으로, 보행패턴추출부(150)는 개선된 관절 모델 데이터로부터 관절의 위치가 변하는 방향과 속도를 추적하여 신체의 움직임인 관절 특징을 추정하고, RGB영상으로부터 객체의 외형 특징을 추정한다. 보행패턴추출부(150)는 각각 추정한 관절 특징 및 외형 특징을 융합하여 최종적으로 복합적인 보행패턴을 추출한다.Referring back to FIG. 1 , the gait pattern extraction unit 150 extracts a gait pattern based on the improved joint model data. Specifically, the gait pattern extractor 150 tracks the direction and speed of the position of the joint from the improved joint model data to estimate the joint feature, which is the movement of the body, and estimates the external feature of the object from the RGB image. The gait pattern extraction unit 150 finally extracts a complex gait pattern by fusing the estimated joint characteristics and external appearance characteristics.

이 때, 보행패턴추출부(150)는 개선된 관절 모델 데이터에 포함된 객체가 복수이면서 서로 다른 객체가 겹쳤을(Occluded) 경우, 개선된 관절 모델 데이터에서 각 객체에 해당하는 관절들만 선별하여 영역을 분할한 후 관절 특징과 외형 특징을 추정 및 융합하여 보행패턴을 추출할 수 있다. At this time, the gait pattern extractor 150 selects only the joints corresponding to each object from the improved joint model data when a plurality of objects included in the improved joint model data and different objects are overlapped (Occluded), and After segmentation, the gait pattern can be extracted by estimating and converging joint features and external features.

보행인식부(160)는 보행패턴과 사전에 등록된 개인의 신원 특징과의 유사도 비교(Cosine similarity)를 계산하여 개인의 신원을 식별한다. 보행인식부(160)는 추출된 보행패턴과 기존에 등록된 개인의 보행패턴 사이의 유사도를 계산하여 가장 높은 유사도를 선택한다. 이 때, 보행인식부(160)는 선택된 유사도가 미리 설정된 임계값보다 크면 가장 높은 유사도에 대응하는 신원을 출력하고, 미리 설정된 임계값보다 작을 경우 신원미상으로 분류할 수 있다. The gait recognition unit 160 identifies an individual's identity by calculating a cosine similarity between the gait pattern and the identity characteristics of the individual registered in advance. The gait recognition unit 160 calculates the similarity between the extracted gait pattern and the previously registered individual gait pattern, and selects the highest similarity. At this time, the gait recognition unit 160 may output an identity corresponding to the highest degree of similarity if the selected similarity is greater than a preset threshold, and may classify the identity as unknown if it is less than the preset threshold.

도 3은 노이즈 개선 네트워크 기반 보행 인식 방법을 설명하기 위한 도면이다. 3 is a diagram for explaining a noise reduction network-based gait recognition method.

도 3을 참조하면, 단계 S310에서 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 비접촉식 센서를 통해 생성된 객체의 보행정보를 입력한다. 여기서, 비접촉식 센서는 라이다 센서, RGB 센서 중 적어도 하나를 포함할 수 있다. Referring to FIG. 3 , in step S310, the noise reduction network-based gait recognition apparatus 100 inputs gait information of an object generated through a non-contact sensor. Here, the non-contact sensor may include at least one of a LiDAR sensor and an RGB sensor.

노이즈 개선 네트워크 기반 보행 인식 장치(100)는 비접촉식 센서에서 측정되는 객체의 외형정보 또는 깊이정보에 기반하여 객체의 보행정보를 생성하고 입력할 수 있다.The noise reduction network-based gait recognition apparatus 100 may generate and input gait information of an object based on shape information or depth information of the object measured by the non-contact sensor.

단계 S320에서 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 보행정보입력부(110)로부터 입력된 객체의 보행정보에서 관절 모델을 추출한다. 구체적으로, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 객체의 보행정보에서 관절을 추정하여 관절 모델을 추출할 수 있다. 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 컨볼루션 신경망(CNN)을 통해 객체의 보행정보에서 관절을 추정하며, 이 때 트랜스포머(Transformer) 네트워크를 이용하여 관절을 추정한다. 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 트랜스포머 네트워크를 통해 추정된 관절을 기반으로 객체의 관절 모델을 추출하고, 관절 모델 데이터를 생성할 수 있다. In step S320, the noise reduction network-based gait recognition apparatus 100 extracts a joint model from the gait information of the object input from the gait information input unit 110. Specifically, the noise-reducing network-based gait recognition apparatus 100 may extract a joint model by estimating a joint from gait information of an object. The noise amelioration network-based gait recognition apparatus 100 estimates joints from gait information of an object through a convolutional neural network (CNN), and at this time, the joints are estimated using a transformer network. The noise amelioration network-based gait recognition apparatus 100 may extract a joint model of an object based on a joint estimated through a transformer network and generate joint model data.

단계 S330에서 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 관절모델추출부(120)로부터 생성된 관절 모델 데이터에 대한 전처리를 수행한다. In step S330, the noise-reducing network-based gait recognition apparatus 100 performs pre-processing on the joint model data generated from the joint model extractor 120.

여기서, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 관절 모델 데이터의 해상도, 데이터 형태 중 적어도 하나를 변경할 수 있다. Here, the noise reduction network-based gait recognition apparatus 100 may change at least one of a resolution and a data format of the joint model data.

또한, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 행동의 지속시간이 짧은 객체의 보행정보에서 최소 단위 행동을 인식하기 위해 관절 모델 데이터를 최소 2회 이상 병합한 반복 영상을 생성할 수 있다. In addition, the noise-reducing network-based gait recognition apparatus 100 may generate a repetitive image obtained by merging joint model data at least twice or more in order to recognize a minimum unit action from gait information of an object having a short action duration.

단계 S340에서 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 전처리된 관절 모델 데이터에서 기학습된 노이즈 개선 네트워크를 이용하여 노이즈를 제거한다. 여기서, 노이즈 개선 네트워크는 예측적으로 인코딩된 그래프 컨볼루션 네트워크인 PeGCN(Predicatively encoded graph convolutional network)를 이용할 수 있다. In step S340, the noise reduction network-based gait recognition apparatus 100 removes noise from the preprocessed joint model data by using the pre-learned noise reduction network. Here, the noise enhancement network may use a predictively encoded graph convolutional network (PeGCN), which is a predictively encoded graph convolutional network.

노이즈 개선 네트워크 기반 보행 인식 장치(100)는 전처리된 관절 모델 데이터를 입력으로 하여 기학습된 PeGCN를 통해 노이즈가 제거된 개선된 관절 모델 데이터를 생성한다. The noise-reducing network-based gait recognition apparatus 100 takes preprocessed joint model data as an input and generates improved joint model data from which noise is removed through pre-learned PeGCN.

단계 S350에서 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 개선된 관절 모델 데이터를 기반으로 보행패턴을 추출한다. 구체적으로, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 개선된 관절 모델 데이터로부터 관절의 위치가 변하는 방향과 속도를 추적하여 신체의 움직임인 관절 특징을 추정하고, RGB영상으로부터 객체의 외형 특징을 추정한다. 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 각각 추정한 관절 특징 및 외형 특징을 융합하여 최종적으로 복합적인 보행패턴을 추출한다.In step S350, the noise reduction network-based gait recognition apparatus 100 extracts a gait pattern based on the improved joint model data. Specifically, the noise-reducing network-based gait recognition apparatus 100 tracks the direction and speed of the position change of the joint from the improved joint model data to estimate the joint feature, which is the movement of the body, and estimates the external feature of the object from the RGB image. do. The noise-reducing network-based gait recognition apparatus 100 finally extracts a complex gait pattern by converging each estimated joint feature and external feature.

이 때, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 개선된 관절 모델 데이터에 포함된 객체가 복수이면서 서로 다른 객체가 겹쳤을(Occluded) 경우, 개선된 관절 모델 데이터에서 각 객체에 해당하는 관절들만 선별하여 영역을 분할한 후 관절 특징과 외형 특징을 추정 및 융합하여 보행패턴을 추출할 수 있다.At this time, the noise-reducing network-based gait recognition apparatus 100 detects only joints corresponding to each object in the improved joint model data when a plurality of objects included in the improved joint model data and different objects overlap each other. After selecting and dividing the region, the gait pattern can be extracted by estimating and converging joint and external features.

이 때, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 개선된 관절 모델 데이터에 포함된 객체가 복수일 경우, 개선된 관절 모델 데이터에서 객체 각각의 관절 모델에 대응하는 영역을 분할한 후 관절 특징과 외형 특징을 추출 및 융합하여 보행패턴을 추출할 수 있다. At this time, when there are a plurality of objects included in the improved joint model data, the noise reduction network-based gait recognition apparatus 100 divides a region corresponding to the joint model of each object in the improved joint model data, and then determines the joint characteristics and Gait patterns can be extracted by extracting and converging external features.

단계 S360에서 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 보행패턴과 사전에 등록된 개인의 신원 특징과의 유사도 비교(Cosine similarity)를 계산하여 개인의 신원을 식별한다. 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 추출된 보행패턴과 기존에 등록된 개인의 보행패턴 사이의 유사도를 계산하여 가장 높은 유사도를 선택한다. 이 때, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 선택된 유사도가 미리 설정된 임계값보다 크면 가장 높은 유사도에 대응하는 신원을 출력하고, 미리 설정된 임계값보다 작을 경우 신원미상으로 분류할 수 있다. In step S360, the noise-reducing network-based gait recognition apparatus 100 calculates a cosine similarity between the gait pattern and the previously registered identity characteristics of the individual to identify the individual's identity. The noise-reducing network-based gait recognition apparatus 100 calculates the similarity between the extracted gait pattern and the previously registered individual gait pattern, and selects the highest similarity. At this time, the noise amelioration network-based gait recognition apparatus 100 may output an identity corresponding to the highest similarity if the selected similarity is greater than a preset threshold, and may classify the identity as unknown if the selected similarity is less than the preset threshold.

도 4 및 도 5는 본 발명의 일 실시예에 따른 노이즈 개선 네트워크 기반 보행 인식 장치의 보행 인식 성능을 예시한 도면들이다. 4 and 5 are diagrams illustrating gait recognition performance of the gait recognition device based on a noise reduction network according to an embodiment of the present invention.

도 4를 참조하면, 노이즈 개선 네트워크 기반 보행 인식 장치(100)는 NTU-RGB+D 데이터 세트 및 Kinetics-Skeleton 데이터 세트를 이용하여 보행 인식 성능을 평가하였다. 여기서, NTU-RGB+D 데이터 세트는 관절 모델 기반 보행 동작과 관련하여 가장 큰 데이터 세트 중 하나로, 약 60개의 실내 활동에서의 보행 동작에서 추출한 약 56,000개의 샘플을 포함한다. 또한, NTU-RGB+D 데이터 세트는 40명의 지원자의 보행 동작을 세 가지 다른 각도(-45, 0, 45)에서 Microsoft Kinect v2를 이용하여 추출한 것으로, 크로스-뷰(cross-view) 및 크로스-서브젝트(cross-subject) 벤치마크 프로토콜로 나눌 수 있다. Kinetics-Skeleton 데이터 세트는 Kinetics 데이터 세트에서 생성된 대규모 보행 동작 데이터 세트로, 34,000개의 샘플을 포함한다. Referring to FIG. 4 , the noise reduction network-based gait recognition apparatus 100 evaluates gait recognition performance using the NTU-RGB+D data set and the Kinetics-Skeleton data set. Here, the NTU-RGB+D data set is one of the largest data sets in relation to joint model-based gait motions, and includes about 56,000 samples extracted from gait motions in about 60 indoor activities. In addition, the NTU-RGB+D data set was extracted using Microsoft Kinect v2 from three different angles (-45, 0, 45) of the walking motions of 40 volunteers, cross-view and cross-view. It can be divided into cross-subject benchmark protocols. The Kinetics-Skeleton data set is a large-scale gait motion data set generated from the Kinetics data set and contains 34,000 samples.

도 4의 (a) 내지 (c)를 참조하면, 노이즈가 존재하는 NTU-RGB+D 크로스-뷰(cross-view), 크로스-서브젝트(cross-subject) 및 Kinetics-Skeleton 데이터 세트를 이용하여 보행 동작을 인식한 결과, 노이즈 레벨이 증가하면 성능이 급격히 저하되는 다른 보행 인식 방법과 달리, PeGCN은 노이즈 레벨이 증가할수록 더 높은 보행 인식 성능을 나타내었으며, 모든 노이즈 레벨에서 다른 보행 인식 방법보다 높은 정확도를 기록하였다. 이를 통해, 본 발명의 일 실시 예에 따른 노이즈 개선 네트워크 기반 보행 인식 장치(100)의 보행 인식 성능이 우수함을 확인할 수 있다.Referring to (a) to (c) of FIG. 4, walking using NTU-RGB+D cross-view, cross-subject, and Kinetics-Skeleton data sets with noise As a result of motion recognition, unlike other gait recognition methods whose performance rapidly deteriorates as the noise level increases, PeGCN showed higher gait recognition performance as the noise level increased, and higher accuracy than other gait recognition methods at all noise levels. was recorded. Through this, it can be confirmed that the gait recognition performance of the noise-reducing network-based gait recognition apparatus 100 according to an embodiment of the present invention is excellent.

도 5를 참조하면, 노이즈 레벨에 따른 보행 동작의 정확도를 측정한 결과, PeGCN을 제외한 다른 방법은 노이즈 수준이 증가함에 따라 정확도가 크게 떨어지는 반면, PeGCN은 노이즈가 심한 환경(즉, 노이즈 레벨 13)에서도 90%의 정확도를 유지하였다. 이를 통해, 본 발명의 일 실시 예에 따른 노이즈 개선 네트워크 기반 보행 인식 장치(100)의 보행 인식 성능이 우수함을 확인할 수 있다. Referring to FIG. 5, as a result of measuring the accuracy of gait motion according to the noise level, the accuracy of other methods except PeGCN is greatly reduced as the noise level increases, whereas the PeGCN is in a noisy environment (i.e., noise level 13). 90% accuracy was maintained. Through this, it can be confirmed that the gait recognition performance of the noise-reducing network-based gait recognition apparatus 100 according to an embodiment of the present invention is excellent.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the scope of the present invention.

100 : 노이즈 개선 네트워크 기반 보행 인식 장치
110 : 보행정보입력부
120 : 관절모델추출부
130 : 전처리부
140 : 관절모델개선부
150 : 보행패턴추출부
160 : 보행인식부
100: Noise improvement network-based gait recognition device
110: gait information input unit
120: joint model extraction unit
130: pre-processing unit
140: joint model improvement unit
150: walking pattern extraction unit
160: gait recognition unit

Claims (11)

노이즈 개선 네트워크 기반 보행 인식 장치에 있어서,
비접촉식 센서를 통해 생성된 객체의 보행정보를 입력하는 보행정보입력부;
상기 객체의 보행정보에서 관절 모델을 추출하고 관절 모델 데이터를 생성하는 관절모델추출부;
상기 관절 모델 데이터에 대한 전처리를 수행하는 전처리부;
기학습된 노이즈 개선 네트워크를 이용하여 전처리된 상기 관절 모델 데이터에서 개선된 관절 모델 데이터를 생성하는 관절모델개선부;
상기 개선된 관절 모델 데이터를 기반으로 보행패턴을 추출하는 보행패턴추출부; 및
상기 보행패턴과 신원 특징과의 유사도 비교를 계산하여 신원을 식별하는 보행인식부를 포함하는 노이즈 개선 네트워크 기반 보행 인식 장치.
In the noise improvement network-based gait recognition device,
A gait information input unit for inputting gait information of an object generated through a non-contact sensor;
a joint model extraction unit for extracting a joint model from gait information of the object and generating joint model data;
a pre-processing unit performing pre-processing on the joint model data;
a joint model improvement unit for generating improved joint model data from the preprocessed joint model data using a pre-learned noise improvement network;
a gait pattern extraction unit for extracting a gait pattern based on the improved joint model data; and
A noise reduction network-based gait recognition device comprising a gait recognition unit configured to identify an identity by calculating a similarity comparison between the gait pattern and an identity feature.
제1항에 있어서,
상기 비접촉식 센서는
라이다 센서 및 RGB 센서 중 적어도 하나인 노이즈 개선 네트워크 기반 보행 인식 장치.
According to claim 1,
The non-contact sensor
A gait recognition device based on a noise amelioration network that is at least one of a LiDAR sensor and an RGB sensor.
제1항에 있어서,
상기 전처리부는
관절 모델 데이터의 해상도 및 형태 중 적어도 하나를 변경하는 노이즈 개선 네트워크 기반 보행 인식 장치.
According to claim 1,
The pre-processing unit
A noise amelioration network-based gait recognition device that changes at least one of resolution and shape of joint model data.
제1항에 있어서,
상기 보행패턴추출부는
상기 개선된 관절 모델 데이터에서 관절 특징과 외형 특징을 추정하고 융합하여 보행패턴을 추출하는 노이즈 개선 네트워크 기반 보행 인식 장치.
According to claim 1,
The gait pattern extraction unit
A noise-reducing network-based gait recognition device for estimating joint features and external features from the improved joint model data and extracting a gait pattern by fusion.
제1항에 있어서,
상기 보행인식부는
상기 유사도가 미리 설정된 임계값보다 클 경우 가장 높은 유사도에 대응하는 신원을 출력하고, 상기 유사도가 미리 설정된 임계값보다 작을 경우 신원미상으로 분류하는 노이즈 개선 네트워크 기반 보행 인식 장치.
According to claim 1,
The gait recognition unit
A noise-reducing network-based gait recognition device for outputting an identity corresponding to the highest similarity when the similarity is greater than a preset threshold and classifying the identity as unknown when the similarity is less than a preset threshold.
노이즈 개선 네트워크 기반 보행 인식 방법에 있어서,
비접촉식 센서를 통해 생성된 객체의 보행정보를 입력하는 단계;
상기 객체의 보행정보에서 관절 모델을 추출하고 관절 모델 데이터를 생성하는 단계;
상기 관절 모델 데이터에 대한 전처리를 수행하는 단계;
기학습된 노이즈 개선 네트워크를 이용하여 전처리된 상기 관절 모델 데이터에서 개선된 관절 모델 데이터를 생성하는 단계;
상기 개선된 관절 모델 데이터를 기반으로 보행패턴을 추출하는 단계; 및
상기 보행패턴과 신원 특징과의 유사도 비교를 계산하여 신원을 식별하는 단계를 포함하는 노이즈 개선 네트워크 기반 보행 인식 방법.
In the noise improvement network-based gait recognition method,
inputting gait information of an object generated through a non-contact sensor;
extracting a joint model from gait information of the object and generating joint model data;
performing pre-processing on the joint model data;
generating improved joint model data from the preprocessed joint model data using a pre-learned noise improvement network;
Extracting a gait pattern based on the improved joint model data; and
and identifying an identity by calculating a similarity comparison between the gait pattern and the identity feature.
제6항에 있어서,
상기 비접촉식 센서는
라이다 센서 및 RGB 센서 중 적어도 하나인 노이즈 개선 네트워크 기반 보행 인식 방법.
According to claim 6,
The non-contact sensor
Gait recognition method based on noise amelioration network that is at least one of lidar sensor and RGB sensor.
제6항에 있어서,
상기 관절 모델 데이터에 대한 전처리를 수행하는 단계는
관절 모델 데이터의 해상도 및 형태 중 적어도 하나를 변경하는 노이즈 개선 네트워크 기반 보행 인식 방법.
According to claim 6,
The step of performing preprocessing on the joint model data
A noise enhancement network-based gait recognition method that changes at least one of resolution and shape of joint model data.
상기 개선된 관절 모델 데이터를 기반으로 보행패턴을 추출하는 단계는
상기 개선된 관절 모델 데이터에서 관절 특징과 외형 특징을 추정하고 융합하여 보행패턴을 추출하는 노이즈 개선 네트워크 기반 보행 인식 방법.
The step of extracting a gait pattern based on the improved joint model data
A noise-reducing network-based gait recognition method for estimating joint features and external features from the improved joint model data and extracting a gait pattern by convergence.
상기 신원을 식별하는 단계는
상기 유사도가 미리 설정된 임계값보다 클 경우 가장 높은 유사도에 대응하는 신원을 출력하고, 상기 유사도가 미리 설정된 임계값보다 작을 경우 신원미상으로 분류하는 노이즈 개선 네트워크 기반 보행 인식 방법.
The step of identifying the identity is
A noise-reducing network-based gait recognition method for outputting an identity corresponding to the highest similarity when the similarity is greater than a preset threshold and classifying the identity as unknown when the similarity is less than a preset threshold.
제6항의 노이즈 개선 네트워크 기반 보행 인식 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.

A computer program that executes the noise reduction network-based gait recognition method of claim 6 and is recorded on a computer-readable recording medium.

KR1020210115818A 2021-08-31 2021-08-31 Apparatus and method for recognizing gait using noise reduction network KR102636549B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210115818A KR102636549B1 (en) 2021-08-31 2021-08-31 Apparatus and method for recognizing gait using noise reduction network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210115818A KR102636549B1 (en) 2021-08-31 2021-08-31 Apparatus and method for recognizing gait using noise reduction network

Publications (2)

Publication Number Publication Date
KR20230032712A true KR20230032712A (en) 2023-03-07
KR102636549B1 KR102636549B1 (en) 2024-02-14

Family

ID=85512308

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210115818A KR102636549B1 (en) 2021-08-31 2021-08-31 Apparatus and method for recognizing gait using noise reduction network

Country Status (1)

Country Link
KR (1) KR102636549B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729614A (en) * 2012-10-16 2014-04-16 上海唐里信息技术有限公司 People recognition method and device based on video images
KR101941994B1 (en) * 2018-08-24 2019-01-24 전북대학교산학협력단 System for pedestrian detection and attribute extraction based on a joint deep network
WO2020250046A1 (en) * 2019-06-14 2020-12-17 Wrnch Inc. Method and system for monocular depth estimation of persons

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729614A (en) * 2012-10-16 2014-04-16 上海唐里信息技术有限公司 People recognition method and device based on video images
KR101941994B1 (en) * 2018-08-24 2019-01-24 전북대학교산학협력단 System for pedestrian detection and attribute extraction based on a joint deep network
WO2020250046A1 (en) * 2019-06-14 2020-12-17 Wrnch Inc. Method and system for monocular depth estimation of persons

Also Published As

Publication number Publication date
KR102636549B1 (en) 2024-02-14

Similar Documents

Publication Publication Date Title
Youssif et al. Automatic facial expression recognition system based on geometric and appearance features
Murtaza et al. Analysis of face recognition under varying facial expression: a survey.
CN109685037B (en) Real-time action recognition method and device and electronic equipment
KR102132407B1 (en) Method and apparatus for estimating human emotion based on adaptive image recognition using incremental deep learning
Yang et al. Facial expression recognition based on dual-feature fusion and improved random forest classifier
KR101762010B1 (en) Method of modeling a video-based interactive activity using the skeleton posture datset
KR100988323B1 (en) Method and apparatus of recognizing detailed facial expression using facial expression information amplification
JP2017162409A (en) Recognizing device, and method, for facial expressions and motions
Danelakis et al. Action unit detection in 3 D facial videos with application in facial expression retrieval and recognition
JP6101470B2 (en) Facial expression analysis apparatus and facial expression analysis program
Zeng et al. Video‐driven state‐aware facial animation
KR102636549B1 (en) Apparatus and method for recognizing gait using noise reduction network
Paul et al. Face recognition using eyes, nostrils and mouth features
KR101956166B1 (en) Method and apparatus for detecting talking segments in a video sequence using visual cues
Rathee et al. Adaptive system to learn and recognize emotional state of mind
Monisha et al. A real-time embedded system for human action recognition using template matching
Ganguly et al. Depth based occlusion detection and localization from 3D face image
Bakheet A fuzzy framework for real-time gesture spotting and recognition
KR101556696B1 (en) Method and system for recognizing action of human based on unit operation
Moore et al. Facial expression recognition using spatiotemporal boosted discriminatory classifiers
Paul et al. Automatic adaptive facial feature extraction using CDF analysis
CN113052132A (en) Video emotion recognition method based on face key point track feature map
Chowdhury et al. A probabilistic approach to support Self-Organizing Map (SOM) driven facial expression recognition
Gossen Bayesian recognition of human identities from continuous visual features for safe and secure access in healthcare environments
Patil et al. Automatic recognition of facial expressions in image sequences: A review

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant