KR20100084066A - Gait recognition using contourlet transform and fuzzy lda - Google Patents

Gait recognition using contourlet transform and fuzzy lda Download PDF

Info

Publication number
KR20100084066A
KR20100084066A KR1020090003495A KR20090003495A KR20100084066A KR 20100084066 A KR20100084066 A KR 20100084066A KR 1020090003495 A KR1020090003495 A KR 1020090003495A KR 20090003495 A KR20090003495 A KR 20090003495A KR 20100084066 A KR20100084066 A KR 20100084066A
Authority
KR
South Korea
Prior art keywords
gait
image
fuzzy
recognition
lda
Prior art date
Application number
KR1020090003495A
Other languages
Korean (ko)
Inventor
전명근
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020090003495A priority Critical patent/KR20100084066A/en
Publication of KR20100084066A publication Critical patent/KR20100084066A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/478Contour-based spectral representations or scale-space representations, e.g. by Fourier analysis, wavelet analysis or curvature scale-space [CSS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: A method for recognizing a gait using coutourlet transform, fuzzy linear discriminate analysis, and fused algorithm are provided to extract an energy image based on a silhouette from a gait image and apply coutourlet and fuzzy-LDA to the image. CONSTITUTION: A silhouette based energy image is extracted from a gait image. The gait image is divided by a directional component by a coutourlet. A feature vector is generated from a sub image divided by a directional component using a fuzzy LDA(Linear Discriminate Analysis). Final gait recognition is performed by a fused method which effectively fuses matching maps generated by each band.

Description

컨투어렛 변환과 퍼지 선형판별분석기법을 이용한 걸음걸이 인식 방법{Gait Recognition using Contourlet Transform and Fuzzy LDA}Gait Recognition using Contourlet Transform and Fuzzy LDA}

본 발명에서는 걸음걸이 영상으로부터 실루엣 기반의 에너지 영상을 추출한 후 컨투어렛과 퍼지-LDA를 적용한 개인 확인 알고리즘을 제안한다. 제안된 방법은 우선적으로 걸음걸이 주기분석을 통해 실루엣 영상의 에너지를 얻는다. 다음 단계로, 컨투어렛에 의해 걸음걸이영상을 방향성분별로 분할한 후, 퍼지-LDA기법을 이용하여 방향성분별로 분할된 부영상에서 특징벡터를 각각 산출한다. 최종 단계에서는 각각의 대역별로 산출된 매칭도를 효과적으로 융합할 수 있는 융합기법을 이용하여 개인 확인이 이루어진다. 개발된 알고리즘은 다양한 걸음걸이 영상데이터에 적용하여 그 타당성을 보였다.The present invention proposes a personal identification algorithm using contour and fuzzy-LDA after extracting silhouette-based energy images from gait images. The proposed method first obtains the energy of silhouette image through gait periodic analysis. In the next step, the gait image is divided by the direction components by the contour, and the feature vectors are calculated from the sub-images divided by the direction components using the fuzzy-LDA technique. In the final step, personal identification is performed by using a fusion technique that can effectively fuse the matching degree calculated for each band. The developed algorithm is applied to various gait image data to show its validity.

최근 생체 인식 기술을 이용한 인증시스템에 대한 연구가 활발히 진행되고 있다. 얼굴, 지문, 홍채 등의 기존의 생체인식기술은 이미 많은 연구가 진행되어 실용화되고 있다. 하지만 이러한 기존의 생체 인식 방법은 인식을 위한 인위적인 환경이 요구될 뿐만 아니라 인식되어야할 대상이 인식을 위해 특정 행동을 강요받 는다는 문제점이 있다. 얼굴인식의 경우 원거리 영상에 대해서 인식률이 크게 저하된다는 문제점을 가지고 있으며, 홍채인식이나 지문인식의 경우 인식되어야 할 대상자가 센서 등에 눈이나 손가락을 가까이 대어야 인식이 가능하다. 하지만 걸음걸이 인식의 경우 카메라를 통해 인식되어야 할 대상자가 촬영되기만 하면 인식이 가능하다는 장점을 가지고 있다. 또한 다른 생체인식과는 달리 인식되어야 할 대상이 인식을 위해 어떤 강요도 받지 않고 인식할 수 있는 기술이다. 뿐만 아니라 최근 감시 카메라의 증가와 원거리 영상을 이용한 인식이 가능하다는 장점에서 걸음걸이 인식에 대한 관심이 크게 증가되고 있다.Recently, researches on authentication systems using biometrics technology have been actively conducted. Existing biometric technologies such as face, fingerprint and iris have already been studied and put into practical use. However, such a conventional biometric method not only requires an artificial environment for recognition, but also has a problem in that an object to be recognized is forced to a specific action for recognition. In the case of face recognition, there is a problem that the recognition rate is greatly lowered for the long distance image. In the case of iris recognition or fingerprint recognition, the subject to be recognized should touch the sensor or the eye close to the sensor. However, in the case of gait recognition, it is possible to recognize the subject only if it is photographed by the camera. In addition, unlike other biometrics, the object to be recognized is a technology that can be recognized without any force for recognition. In addition, the interest in gait recognition has increased significantly in recent years due to the increase in surveillance cameras and the recognition of the remote image.

기존에 제안된 걸음걸이 인식 기법은 각 개인의 특성을 나타낼 수 있는 특징으로 모션 정보, 걸음걸이 영상의 광류(Optical flow), 다리의 각도, 키와 보폭 등을 분석하여 인식에 사용하는 모델기반 방법과 걸음걸이 실루엣 영상 전체를 사용하여 하나의 패턴으로 사용하는 비모델 기반 방법으로 크게 구분될 수 있다. The proposed gait recognition technique is a feature that can represent the characteristics of each individual. It is a model-based method that analyzes motion information, optical flow of gait images, angle of legs, height and stride length, and uses it for recognition. And gait can be largely classified into a non-model-based method using the entire silhouette image as a pattern.

본 발명은 걸음걸이 영상으로부터 실루엣 기반의 에너지 영상을 추출한 후 컨투어렛과 퍼지-LDA를 적용한 개인확인 시스템을 제안한다. 본 발명에서 적용된 컨투어렛은 2차원 웨이블렛 변환과 같이 다중스케일(multiscale) 개념을 이용하여 영상을 주파수 대역별로 분할한 후, 방향성 필터뱅크(directional filter bank)를 이용하여 분할된 영역내에서 대역별 및 방향성분별로 영상을 얻는다. 이러한 다 해상도 및 다중 방향성 정보로 표현되는 컨투어렛은 2차원 웨이블렛에 비하여 자연영상의 주요 특징인 부드러운 윤곽선(smooth contour)을 효과적으로 표현할 수 있는 장점을 갖는다. 이에 본 발명에서는 걸음걸이에 대한 실루엣영상을 취득한 후 상술한 컨투어렛을 이용하여 걸음걸이 영상을 방향성분별로 분할한 후, 퍼지-LDA기법을 이용하여 방향성분별로 분할된 부영상에서 특징벡터를 구한 후, 최종 단계에서는 각각의 대역별로 산출된 매칭도를 효과적으로 융합할 수 있는 융합기법을 이용하여 걸음걸이 인식을 구현한다.The present invention proposes a personal identification system using contour and fuzzy-LDA after extracting silhouette-based energy images from gait images. The contourlet applied in the present invention divides an image by frequency band using a multiscale concept, such as a two-dimensional wavelet transform, and then, by band and in the divided region using a directional filter bank. Images are obtained for each directional component. Contourlet represented by such multi-resolution and multi-directional information has an advantage that can effectively express the smooth contour (smooth contour) that is the main feature of the natural image compared to the two-dimensional wavelet. Therefore, in the present invention, after the silhouette image of the gait is obtained, the gait image is divided by the direction components using the above-described contourlet, and then a feature vector is obtained from the sub-images divided by the direction components using the fuzzy-LDA technique. In the final stage, gait recognition is implemented using a fusion technique that can effectively fuse the matching degree calculated for each band.

본 발명의 목적은 걸음걸이 주기분석을 통해 실루엣 영상의 에너지를 얻는 방법과 컨투어렛에 의해 걸음걸이영상을 방향성분별로 분할한 후, 퍼지-LDA기법을 이용하여 방향성분별로 분할된 부영상에서 특징벡터를 구하는 방법과 아울러 대역별로 산출된 매칭도를 효과적으로 융합할 수 있는 융합 알고리즘에 의해 수행되는 걸음걸이 인식을 제공하여 우수한 성능의 걸음걸이 인식방법을 제공하는데 있다.An object of the present invention is to obtain the energy of the silhouette image through gait periodic analysis and to divide the gait image by the direction component by the contour, and then to the feature vector in the sub-image divided by the direction component using the fuzzy-LDA technique. In addition, the present invention provides a gait recognition method having excellent gait recognition by providing gait recognition performed by a fusion algorithm that can effectively fuse the matching degree calculated for each band.

본 발명에서는 개인마다 고유의 특성을 나타내는 걸음걸이를 이용하여 성능이 우수한 개인확인 알고리즘을 구현하기 위한 주요 수단으로서 컨투어렛 변환과 퍼지 선형판별분석기법을 적용하였다. 본 발명에서 상기한 과제를 해결하기 위한 수단을 살펴보면, 걸음걸이 영상으로부터 실루엣 기반의 에너지 영상을 추출하는 단계; 컨투어렛에 의해 걸음걸이영상을 방향성분별로 영상을 분할하는 단계; 퍼지-LDA기법을 이용하여 방향성분별로 분할된 부영상에서 특징벡터를 산출하는 단계; 각각의 대역별로 산출된 매칭도를 효과적으로 융합할 수 있는 융합기법에 의해 최종 걸음걸인 인식이 이루어지는 단계를 포함하여 이루어진다.In the present invention, the contour transform and the fuzzy linear discrimination analysis technique are applied as the main means for implementing the personal identification algorithm having excellent performance by using the gait exhibiting unique characteristics for each individual. Looking at the means for solving the above problems in the present invention, the step of extracting a silhouette-based energy image from the gait image; Dividing the gait image by direction components by a contour; Calculating a feature vector from sub-images divided by direction components using a fuzzy-LDA technique; A final step is recognized by a fusion method that can effectively fuse the matching degree calculated for each band.

본 발명에 따르면 걸음걸이 특징추출을 위해 방향성분별로 분해할 수 있는 컨투어렛 변환과 분해된 방향성분별 특징추출을 위해 적용된 퍼지 선형판별분석기법을 사용함과 아울러, 걸음걸이의 최종 인식을 위해 방향성분별로 산출된 유사도를 효과적으로 융합할 수 있는 융합 알고리즘에 의해 수행되는 인식방법을 제공하여 우수한 성능의 인식방법을 제공하는 효과가 있다.According to the present invention, a contour transform that can be decomposed by direction components for gait feature extraction and a fuzzy linear discriminant analysis method applied for feature extraction for each decomposed direction component, and also for each direction component for final recognition of gait There is an effect of providing a recognition method of excellent performance by providing a recognition method performed by a fusion algorithm that can effectively fuse the calculated similarity.

(1) 걸음걸이 영상으로부터 실루엣 기반의 에너지 영상을 추출하는 단계;(1) extracting a silhouette-based energy image from the gait image;

(2) 컨투어렛에 의해 걸음걸이영상을 방향성분별로 영상을 분할하는 단계;(2) dividing the gait image by direction components by a contour;

(3) 퍼지-LDA기법을 이용하여 방향성분별로 분할된 부영상에서 특징벡터를 산출하는 단계; (3) calculating a feature vector from sub-images divided by direction components using fuzzy-LDA technique;

(4) 각각의 대역별로 산출된 매칭도를 효과적으로 융합할 수 있는 융합기법에 의해 최종 걸음걸인 인식이 이루어지는 단계;(4) the step of the final step recognition by the fusion method that can effectively fuse the matching degree calculated for each band;

를 포함하여 이루어지는 것을 목적으로 하는 컨투어렛 변환과 퍼지 선형판별분석기법을 이용한 걸음걸이 인식 방법을 제공한다.The present invention provides a gait recognition method using a contour transform and fuzzy linear discriminant analysis technique.

1. 걸음걸이 에너지 영상 추출1. Gait Energy Video Extraction

걸음걸이 에너지영상은 걸음걸이 한 주기 동안의 실루엣영상의 평균을 통해 얻어진다. 실루엣 영상은 동일한 사람, 동일한 환경일지라도 촬영된 거리에 따라 다른 크기를 가지게 되는데 이러한 거리에 따른 변화를 줄이기 위해 일정한 영상의 크기로 재조정한다. 또한 걸음걸이 에너지 영상을 얻기 위해서는 보폭의 주기를 필요로 하게 되는데, 보폭 정보는 실루엣 하반신 영역의 실루엣 가로 폭에 의해 결정되며, 한 주기는 보폭의 크기가 최대일 때부터 다음 최대일 때까지를 의미한다. 이렇게 얻어진 정보를 통해 N번째 걸음 주기의 전체 프레임수를 NGait라 하고, N번째 주기간의 실루엣 영상을 SN={SN(1), ..., SN(NGait)}이라 표현하면 걸음걸이 에너지영상(GEI)은 아래 식 1과 같이 표현된다.The gait energy image is obtained from the average of the silhouette images during one gait cycle. Even if the silhouette image has the same person and the same environment, the silhouette image has a different size according to the photographed distance. The silhouette image is resized to a constant image size to reduce the change according to the distance. In addition, to obtain a gait energy image, the period of stride is required, and the stride length information is determined by the silhouette width of the lower part of the silhouette, and one period means from the maximum of the stride to the next maximum. do. Based on the information obtained, N Gait is the total number of frames in the Nth step, and S N = {S N (1), ..., S N (N Gait )}. The gait energy image GEI is expressed as in Equation 1 below.

Figure 112009002770616-PAT00001
(식 1)
Figure 112009002770616-PAT00001
(Equation 1)

또한 걸음걸이 에너지 영상 생성시 걸음걸이 주기 동안의 손, 발등의 변화에 강인한 특징 영상을 생성하기 위하여 상반신의 무게 중심의 X축을 기준으로 전체 영상의 합을 구하게 된다. 도 1에서는 상기한 방법에 의해 얻어진 걸음걸이 에너지영상을 나타냈다. 도 1에서 보는 바와 같이 사람의 신체모양과 관련된 정적인 특징과 걷는 습관이나 속도 등과 같이 신체 운동과 관련된 동적인 특징을 모두 포함하게 된다.In addition, when generating gait energy images, the sum of all images is obtained based on the X-axis of the center of gravity of the upper body to generate a feature image that is robust to changes in hands and insteps during the gait cycle. 1 shows a gait energy image obtained by the above method. As shown in FIG. 1, it includes all of the static features related to the body shape of a person and the dynamic features related to physical exercise such as walking habits and speed.

2. 2. 컨투어렛에On the contour 의한  by 에너지영상의Energy 분할 Division

컨투어렛은 2차원 웨이블렛 변환과 같이 다중스케일(multiscale) 개념을 이 용하여 영상을 주파수 대역별로 분할한 후, 방향성 필터뱅크(directional filter bank)를 이용하여 분할된 영역내에서 영상의 방향성 정보를 얻는다. 이러한 다 해상도 및 다중 방향성 정보로 표현되는 컨투어렛은 2차원 웨이블렛에 비하여 자연영상의 주요 특징인 부드러운 윤곽선(smooth contour)을 효과적으로 표현할 수 있다. 도 2에서는 컨투어렛 필터뱅크을 구성하기 위해 사용되는 방향성 필터를 나타냈다. 방향성 필터는 그림 2에서 보인 바와 같이 쐐기 모양의 주파수 분할을 갖는

Figure 112009002770616-PAT00002
개의 부대역(subband)을 생성하는
Figure 112009002770616-PAT00003
-레벨 이진 트리 분해(binary tree decomposition)를 통하여 효과적으로 구현할 수 있다. 여기서, 방향성 필터뱅크는
Figure 112009002770616-PAT00004
이며,
Figure 112009002770616-PAT00005
개의 실제 쐐기 모양의 주파수 대역이 존재한다. 부대역 0-3은 대부분 수평방향에 대응하는 반면, 부대역 4-7은 대부분 수직방향에 대응한다.The contourlet divides the image by frequency band using a multiscale concept, such as 2D wavelet transform, and then obtains the directional information of the image in the divided region using a directional filter bank. Contourlets represented by such multi-resolution and multi-directional information can effectively express smooth contours, which are the main features of natural images, compared to two-dimensional wavelets. 2 illustrates a directional filter used to construct a contour filter bank. Directional filters have a wedge shaped frequency division as shown in Figure 2.
Figure 112009002770616-PAT00002
Creating subbands
Figure 112009002770616-PAT00003
It can be implemented effectively through level binary tree decomposition. Here, the directional filter bank
Figure 112009002770616-PAT00004
,
Figure 112009002770616-PAT00005
There are four actual wedge shaped frequency bands. Subbands 0-3 mostly correspond to the horizontal direction, while subbands 4-7 mostly correspond to the vertical direction.

3. 퍼지 선형판별분석에 의한 특징추출3. Feature Extraction by Fuzzy Linear Discriminant Analysis

걸음걸이 에너지 영상은 매우 고차원의 패턴으로 표현되기 때문에 특징 추출과 분류를 위해서는 저차원의 데이터로 표현되는 것이 요구된다. LDA는 클래스 내의 분산을 나타내는 행렬(Within-Scatter Matrix)과 클래스 간 분산을 나타내는 행렬(Between-Scatter Matrix)의 비율이 최대가 되도록 하는 선형 변환 방법으로, 주성분분석기법은 영상 공간에서 저차원의 특징 공간으로의 선형 사영을 기초로 하므로 전체 데이터베이스의 모든 걸음걸이 에너지 영상을 최대화하는 사영 방향을 찾아낸다. 그러나 조명 조건과 외부 환경 변화로 생기는 원하지 않는 변화도 포함되 게 되므로 주성분분석기법은 저차원의 기저벡터로부터 복원을 하는 관점에서는 최적의 방법이지만 조명이나 외부 환경 변화가 있는 영상의 식별, 인식에서는 LDA기법이 우수한 인식성능을 나타내고 있다. 본 발명에서는 컨투어렛 변환된 걸음걸이 에너지 영상에 대하여 주성분분석기법을 적용하여 저차원으로 축소한 후 퍼지-LDA를 이용하여 특징벡터를 추출하는 방법을 사용한다.Since the gait energy image is represented by a very high dimensional pattern, it is required to be represented by low dimensional data for feature extraction and classification. LDA is a linear transformation method that maximizes the ratio between a class within a class (Within-Scatter Matrix) and a class between class (Between-Scatter Matrix). Principal Component Analysis is a low-dimensional feature in image space. Based on linear projection into space, it finds the projection direction that maximizes all gait energy images in the entire database. However, since unwanted changes caused by changes in lighting conditions and external environment are also included, Principal Component Analysis is the best method in terms of reconstruction from low-order basis vectors, but LDA for identification and recognition of images with changes in lighting or external environment. The technique shows excellent recognition performance. In the present invention, the contoured transformed gait energy image is reduced to a low dimension by applying a principal component analysis method, and then a feature vector is extracted using fuzzy-LDA.

걸음걸이 에너지영상(GEI)의 특징을 추출하기 위해 본 발명에서 적용된 퍼지-LDA 알고리즘은 주성분분석기법(PCA : Principal Component Analysis)에 의해 GEI의 입력차원을 축소한 후, 축소된 특징벡터와 퍼지소속도 함수를 이용하여 산출한다. 영상이 각각의 화소 값을 갖는 2차원 배열(n×n)이라고 가정하자. 영상

Figure 112009002770616-PAT00006
는 연속적인 행들의 연결로 의 벡터로서 고려된다. 그러면 N개 걸음걸이 영상의 학습 집합은
Figure 112009002770616-PAT00007
로 표시된다. 우선, 주성분 분석기법에 의한 축소된 걸음걸이 영상의 특징값을 구하기 위한 공분산 행렬을 정의하면 식 2와 같다.The fuzzy-LDA algorithm applied in the present invention to extract the features of gait energy image (GEI) is reduced the input dimension of the GEI by Principal Component Analysis (PCA), and then the reduced feature vector and fuzzy Calculation using the degree function. Assume that the image is a two-dimensional array (n × n) with respective pixel values. video
Figure 112009002770616-PAT00006
Is considered as a vector of concatenations of consecutive rows. Then the training set of the N steps video is
Figure 112009002770616-PAT00007
Is displayed. First, a covariance matrix for obtaining feature values of a reduced gait image by the principal component analysis method is defined as in Equation 2.

Figure 112009002770616-PAT00008
(식 2)
Figure 112009002770616-PAT00008
(Equation 2)

Figure 112009002770616-PAT00009
(식 3)
Figure 112009002770616-PAT00009
(Equation 3)

그러면, 공분산 행렬의 고유치와 고유벡터가 계산된다. 여기서 r개의 가장 큰 고유치에 대응하는 r개의 고유벡터를

Figure 112009002770616-PAT00010
라 하자. 영상의 집합 z에 대해서, 그것들의 대응되는 특징벡터
Figure 112009002770616-PAT00011
는 다음과 같이 Z를 PCA-변환된 공간으로 투영함으로서 얻어진다.Then, the eigenvalues and eigenvectors of the covariance matrix are calculated. Where r eigenvectors corresponding to r largest eigenvalues
Figure 112009002770616-PAT00010
Let's do it. For a set z of images, their corresponding feature vectors
Figure 112009002770616-PAT00011
Is obtained by projecting Z into the PCA-converted space as follows.

Figure 112009002770616-PAT00012
(식 4)
Figure 112009002770616-PAT00012
(Equation 4)

여기서

Figure 112009002770616-PAT00013
는 i번째
Figure 112009002770616-PAT00014
벡터이다.here
Figure 112009002770616-PAT00013
Is the i
Figure 112009002770616-PAT00014
Vector.

퍼지-LDA는 축소된 특징벡터와 퍼지 소속도 각각의 클래스의 평균값을 식 5와 같이 특징벡터와 퍼지 소속도를 이용하여 산출한다. Fuzzy-LDA calculates the average value of each class of reduced feature vector and fuzzy membership using the feature vector and fuzzy membership.

Figure 112009002770616-PAT00015
(식 5)
Figure 112009002770616-PAT00015
(Equation 5)

여기서

Figure 112009002770616-PAT00016
는 j번째 레벨된 샘플 집합의 i번째 클래스의 소속도이다. 위의 결과를 이용하여 퍼지 클래스간 분산 행렬
Figure 112009002770616-PAT00017
와 퍼지 클래스내 분산 행렬
Figure 112009002770616-PAT00018
는 각각 다음과 같이 정의한다.here
Figure 112009002770616-PAT00016
Is the membership of the i th class of the j th level sample set. Dispersion matrix between fuzzy classes using the above result
Figure 112009002770616-PAT00017
And distribution matrices in fuzzy classes
Figure 112009002770616-PAT00018
Are defined as follows.

Figure 112009002770616-PAT00019
(식 6)
Figure 112009002770616-PAT00019
(Equation 6)

Figure 112009002770616-PAT00020
(식 7)
Figure 112009002770616-PAT00020
(Equation 7)

상기 식에서, 여기서,

Figure 112009002770616-PAT00021
는 i번째 클래스
Figure 112009002770616-PAT00022
에서의 벡터의 수이고,
Figure 112009002770616-PAT00023
는 모든 특징벡터들의 평균값을 나타낸다. 최종적으로 최적의 퍼지 투영행렬
Figure 112009002770616-PAT00024
와 퍼지-LDA 방법에 의해 투영된 특징벡터는 각각 다음과 같이 계산된다.Where,
Figure 112009002770616-PAT00021
Is the i class
Figure 112009002770616-PAT00022
Is the number of vectors in,
Figure 112009002770616-PAT00023
Denotes an average value of all feature vectors. Finally the optimal fuzzy projection matrix
Figure 112009002770616-PAT00024
The feature vectors projected by and the fuzzy-LDA method are respectively calculated as follows.

Figure 112009002770616-PAT00025
(식 8)
Figure 112009002770616-PAT00025
(Expression 8)

Figure 112009002770616-PAT00026
(식 9)
Figure 112009002770616-PAT00026
(Eq. 9)

훈련영상과 검증영상에 대하여 퍼지-LDA를 이용하여 걸음걸이 영상의 특징을 추출한 후, 최종 인식단계에서는 훈련영상과 검증영상 간의 유클리디안 거리를 측정하여 매칭도를 얻게 된다.After the feature of gait image is extracted using fuzzy-LDA for the training image and the verification image, the matching degree is obtained by measuring the Euclidean distance between the training image and the verification image.

4. 융합 알고리즘에 의한 걸음걸이 인식4. Gait recognition by fusion algorithm

도 3에서는 융합 알고리즘에 의한 걸음걸이 인식을 수행하는 구성도를 나타냈다. 도 3에서 보는 바와 같이 걸음걸이 영상으로부터 실루엣 기반의 에너지 영상을 추출하는 단계(S1), 컨투어렛에 의해 걸음걸이영상을 방향성분별로 영상을 분할하는 단계(S2), 퍼지-LDA기법을 이용하여 방향성분별로 분할된 부영상에서 특징벡터를 산출하는 단계(S3), 각각의 대역별로 산출된 매칭도를 효과적으로 융합할 수 있는 융합기법에 의해 최종 걸음걸인 인식이 이루어지는 단계로 구성된다. 5에서는 제안된 걸음걸이 인식 알고리즘을 나타낸다. 도 3에서 보는 바와 같이 걸음걸이 영상을 컨투어렛 변환하는 영상 분해부, 각각의 방향성분별 영상의 특징을 추출하는 특징 추출부 및 대역별 매칭도를 융합하는 융합부로 구분된다.3 shows a configuration diagram of gait recognition by a fusion algorithm. As shown in FIG. 3, a step of extracting a silhouette-based energy image from a gait image (S1), dividing the gait image by direction components by a contour (S2), and using a fuzzy-LDA technique Comprising the step of calculating the feature vector from the sub-image divided by the direction component (S3), the final step is recognized by the fusion method that can effectively fuse the matching degree calculated for each band. 5 shows the proposed gait recognition algorithm. As shown in FIG. 3, an image decomposition unit for transforming a gait image to a contour is transformed, a feature extraction unit for extracting a feature of each direction component, and a fusion unit for fusion matching of bands.

대역별 최종 융합방법으로는 가중치합기법(weight sum rule)을 적용하였다. 각 대역별 매칭도를 융합하기에 앞서 매칭도 정규화 과정을 필요로 하게 되는데 Z-Score 정규화를 통해 매칭도를 정규화 하였다.     As a final fusion method for each band, a weight sum rule was applied. Prior to fusion of the matching degree for each band, the matching degree normalization process is required, and the matching degree is normalized through Z-Score normalization.

다음으로 이렇게 정규화된 각 클래스의 매칭도를 계산한 후 각 대역별 적절한 가중치를 부여한 매칭도의 합을 이용해 가장 우수한 유사도를 갖는 클래스를 선택함으로써 인식이 수행되게 되는데, 가중치합기법(weight sum rule)에 기반을 둔 의사결정은 모든 대역에 대한 각 클래스의 유사도의 합으로 계산된 대역별 출력 값을 식 10에 의해 계산한 후, 식 11에 의해 이들 중에서 가장 우수한 유사도를 갖는 클래스를 선택함으로써 수행된다.    Next, after calculating the matching degree of each normalized class, recognition is performed by selecting the class having the best similarity by using the sum of the matching weights that are appropriately weighted for each band, and the weight sum rule. Decision based on is performed by calculating the band-specific output value calculated by the sum of the similarities of each class for all bands by Eq. 10, and then selecting the class with the best similarity among them by Eq. .

Figure 112009002770616-PAT00027
(식 10)
Figure 112009002770616-PAT00027
(Eq. 10)

Figure 112009002770616-PAT00028
(식 11)
Figure 112009002770616-PAT00028
(Eq. 11)

5. 적용방법 및 걸음걸인 인식 결과5. Application method and step recognition result

본 발명에서는 퍼지-LDA에 의해 산출된 매칭도 외에 컨투어렛에 의해 얻어진 방향별 매칭도를 동시에 고려하여 걸음걸이의 인식률을 향상키는 방법을 구현한다. 이를 위해 컨투어렛에 의해 얻어진 다양한 방향성분을 갖는 부대역들 중에서 어떤 부대역을 사용할 것인가를 결정해야 한다.     The present invention implements a method of improving the recognition rate of the gait by simultaneously considering the matching degree by the direction obtained by the contour in addition to the matching degree calculated by the fuzzy-LDA. To this end, it is necessary to determine which subband to use among the various directional components obtained by the contour.

발명된 알고리즘 성능평가를 위해 사용된 영상은 세계적으로 널리 사용되는 NLPR DB로서, 이 걸음걸이 영상 DB는 총 20명으로부터 취득한 4세트로 구성되어 있다. 상기의 영상으로부터 한 걸음에 해당하는 걸음걸이 에너지 영상을 취득한 결과 총728개의 영상을 취득하였다. 이 중에서 한 사람당 3세트는 학습용으로 사용하였고 1세트 검증용으로 사용하였다.The image used for the performance evaluation of the algorithm is an NLPR DB which is widely used in the world, and the gait image DB is composed of four sets obtained from a total of 20 people. A gait energy image corresponding to one step was acquired from the above images, and a total of 728 images were acquired. Of these, three sets per person were used for learning and one set was used for verification.

도 4에서는 상기의 DB에 대하여 컨투어렛 변환을 통해 방향별 부대역으로 영상을 분해한 후 각각의 분해 영상에 대한 퍼지-LDA를 통한 인식률을 나타낸다. 실험에서 사용한 방향성 필터뱅크는

Figure 112009002770616-PAT00029
으로 총
Figure 112009002770616-PAT00030
개의 대역으로 영상을 분해하였다. 각각의 DB에서 대역별로 거의 동일한 패턴의 인식률 변화를 확인할 수 있었으며, 이를 통해 걸음걸이 에너지 영상에서의 컨투어렛을 통한 방향별 부대역 영역에서의 공통적인 특징을 확인할 수 있었다. 본 발명에서는 이러한 각각의 부대역중 인식률이 우수한 2, 6, 7의 부대역 영역을 선택해 융합하여 실험하였다.4 shows the recognition rate through fuzzy-LDA for each decomposition image after decomposing the image into subbands for each direction through contour transform on the DB. The directional filter bank used in the experiment
Figure 112009002770616-PAT00029
By gun
Figure 112009002770616-PAT00030
The image was decomposed into two bands. In each DB, we could see the change of recognition rate of the same pattern for each band, and through this, we could confirm the common features in the subband region by direction through the contour in the gait energy image. In the present invention, the subband regions of 2, 6, and 7 having excellent recognition rates among these subbands were selected and fused.

표 1에서는 걸음걸이 인식결과를 나타냈다. 표 1에서 보는 바와 같이 0°에서 촬영된 걸음걸이 영상은 PCA을 적용한 결과 89.35%, 퍼지-LDA를 적용한 결과 97.14%, 개발방법을 적용한 결과 9.96%의 인식률을 나타냈다. 45°에서 촬영된 걸음걸이 영상은 PCA을 적용한 결과 82.47%, 퍼지-LDA를 적용한 결과 92.98%, 개발방법을 적용한 결과 94.82%의 인식률을 나타냈다. 본 발명에 따르면 제안된 방법이 기존의 방법들에 비하여 우수한 것으로 나타났다. 또한, 방향별 부대역 영역의 인식률에서는 전체적으로 45°에서 획득된 경우 0°에서 획득된 영상에 비해 더 낮은 인식률을 보이는 것으로 확인되었지만, 융합 결과 인식률의 향상 면에서는 인 경우 보다 높은 인식률의 향상을 가져다주는 것을 확인할 수 있었다.Table 1 shows the gait recognition results. As shown in Table 1, the gait image captured at 0 ° showed recognition rate of 89.35% as a result of PCA, 97.14% as a result of fuzzy-LDA, and 9.96% as a result of development method. The gait image taken at 45 ° showed a recognition rate of 82.47% as a result of PCA, 92.98% as a result of fuzzy-LDA, and 94.82% as a result of the development method. According to the present invention, the proposed method is superior to the existing methods. In addition, the recognition rate of the subband region by direction is lower than the image obtained at 0 ° when obtained at 45 ° as a whole, but in terms of the improvement of the recognition rate as a result of fusion results in a higher recognition rate than I could confirm the giving.

{표1}{Table 1}

PCAPCA Fuzzy
LDA
Fuzzy
LDA
Contourlet
Fuzzy-LDA
Contour
Fuzzy-LDA
최종 인식률Final recognition rate

Figure 112009002770616-PAT00031
Figure 112009002770616-PAT00031
89.35%89.35% 97.14%97.14% LLLL 97.14%97.14% 97.96%97.96% 22 49.25%49.25% 66 55.20%55.20% 77 58.05%58.05%
Figure 112009002770616-PAT00032
Figure 112009002770616-PAT00032
82.47%82.47% 92.98%92.98% LLLL 92.98%92.98% 94.82%94.82%
22 29.45%29.45% 66 41.81%41.81% 77 42.63%42.63%

도 1은 걸음걸이 에너지 영상을 도시한 것이다.1 shows a gait energy image.

도 2는 컨투어렛 필터뱅크의 주파수 분할대역을 도시한 것이다2 shows a frequency division band of a contour filter bank.

도 3은 융합알고리즘에 의한 걸음걸이 진단과정을 도시한 흐름도이다.3 is a flowchart illustrating a gait diagnosis process by a fusion algorithm.

도 4는 컨투어렛 변환에 의해 얻어진 방향별 부대역 영역의 걸음걸이 인식률을 도시한 것이다.4 shows the gait recognition rate of the subband region for each direction obtained by the contour transform.

Claims (1)

(1) 걸음걸이 영상으로부터 실루엣 기반의 에너지 영상을 추출하는 단계;(1) extracting a silhouette-based energy image from the gait image; (2) 컨투어렛에 의해 걸음걸이영상을 방향성분별로 영상을 분할하는 단계;(2) dividing the gait image by direction components by a contour; (3) 퍼지-LDA기법을 이용하여 방향성분별로 분할된 부영상에서 특징벡터를 산출하는 단계; (3) calculating a feature vector from sub-images divided by direction components using fuzzy-LDA technique; (4) 각각의 대역별로 산출된 매칭도를 효과적으로 융합할 수 있는 융합기법에 의해 최종 걸음걸인 인식이 이루어지는 단계;(4) the step of the final step recognition by the fusion method that can effectively fuse the matching degree calculated for each band; 를 포함하여 이루어지는 것을 목적으로 하는 컨투어렛 변환과 퍼지 선형판별분석기법을 이용한 걸음걸이 인식 방법Gait Recognition Method using Contourlet Transform and Fuzzy Linear Discrimination
KR1020090003495A 2009-01-15 2009-01-15 Gait recognition using contourlet transform and fuzzy lda KR20100084066A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090003495A KR20100084066A (en) 2009-01-15 2009-01-15 Gait recognition using contourlet transform and fuzzy lda

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090003495A KR20100084066A (en) 2009-01-15 2009-01-15 Gait recognition using contourlet transform and fuzzy lda

Publications (1)

Publication Number Publication Date
KR20100084066A true KR20100084066A (en) 2010-07-23

Family

ID=42643601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090003495A KR20100084066A (en) 2009-01-15 2009-01-15 Gait recognition using contourlet transform and fuzzy lda

Country Status (1)

Country Link
KR (1) KR20100084066A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102697508A (en) * 2012-04-23 2012-10-03 中国人民解放军国防科学技术大学 Method for performing gait recognition by adopting three-dimensional reconstruction of monocular vision
CN102968779A (en) * 2012-12-03 2013-03-13 北方民族大学 Non-subsample Contourlet domain type MRI (Magnetic Resonance Imaging) image enhancing method based on FCM (Fuzzy C-means) cluster
US10540544B2 (en) 2017-11-22 2020-01-21 King Fahd University Of Petroleum And Minerals Method for identifying a subject using gait analysis
CN111428658A (en) * 2020-03-27 2020-07-17 大连海事大学 Gait recognition method based on modal fusion
CN112633058A (en) * 2020-11-05 2021-04-09 北京工业大学 Front gait recognition method based on feature fusion

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102697508A (en) * 2012-04-23 2012-10-03 中国人民解放军国防科学技术大学 Method for performing gait recognition by adopting three-dimensional reconstruction of monocular vision
CN102968779A (en) * 2012-12-03 2013-03-13 北方民族大学 Non-subsample Contourlet domain type MRI (Magnetic Resonance Imaging) image enhancing method based on FCM (Fuzzy C-means) cluster
CN102968779B (en) * 2012-12-03 2015-07-01 北方民族大学 Non-subsample Contourlet domain type MRI (Magnetic Resonance Imaging) image enhancing method based on FCM (Fuzzy C-means) cluster
US10540544B2 (en) 2017-11-22 2020-01-21 King Fahd University Of Petroleum And Minerals Method for identifying a subject using gait analysis
US10552671B2 (en) 2017-11-22 2020-02-04 King Fahd University Of Petroleum And Minerals Multi-kernel fuzzy local Gabor feature extraction method for automatic gait recognition
US10853633B2 (en) 2017-11-22 2020-12-01 King Fahd University Of Petroleum And Minerals Gait recognition system to identify walking subject
CN111428658A (en) * 2020-03-27 2020-07-17 大连海事大学 Gait recognition method based on modal fusion
CN111428658B (en) * 2020-03-27 2024-02-20 大连海事大学 Gait recognition method based on modal fusion
CN112633058A (en) * 2020-11-05 2021-04-09 北京工业大学 Front gait recognition method based on feature fusion
CN112633058B (en) * 2020-11-05 2024-05-31 北京工业大学 Feature fusion-based frontal gait recognition method

Similar Documents

Publication Publication Date Title
CN107463917B (en) Improved LTP and two-dimensional bidirectional PCA fusion-based face feature extraction method
CN102938065B (en) Face feature extraction method and face identification method based on large-scale image data
CN104778476B (en) A kind of image classification method
KR101993729B1 (en) FACE RECOGNITION Technique using Multi-channel Gabor Filter and Center-symmetry Local Binary Pattern
Rai et al. A gender classification system robust to occlusion using Gabor features based (2D) 2PCA
Mohamed et al. An improved LBP algorithm for avatar face recognition
Reddy et al. Ocularnet: deep patch-based ocular biometric recognition
KR20100084066A (en) Gait recognition using contourlet transform and fuzzy lda
Kumar et al. LBP based biometrie identification using the periocular region
Lefkovits et al. Applications of different CNN architectures for palm vein identification
Arai et al. Gait recognition method based on wavelet transformation and its evaluation with chinese academy of sciences (casia) gait database as a human gait recognition dataset
Xu et al. Face recognition using wavelets transform and 2D PCA by SVM classifier
Taha et al. Iris features extraction and recognition based on the local binary pattern technique
Bei et al. Gender recognition via fused silhouette features based on visual sensors
Amira et al. An automatic face recognition system based on wavelet transforms
Mráček et al. 3D face recognition on low-cost depth sensors
Murukesh et al. Secured authentication through integration of gait and footprint for human identification
Tafazzoli et al. Improving human gait recognition using feature selection
KR20180092453A (en) Face recognition method Using convolutional neural network and stereo image
Hong et al. Gait recognition using multi-bipolarized contour vector
CN112613430B (en) Gait recognition method based on deep migration learning
Satange et al. Composite feature extraction based on Gabor and Zernike moments for face recognition
Dey et al. Performance evaluation on image fusion techniques for face recognition
Nunes et al. Waveletfaces and linear regression classification for face recognition
Al-Rawi et al. Feature Extraction of Human Facail Expressions Using Haar Wavelet and Neural network

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application