KR101620556B1 - Method for Biometric Detection - Google Patents
Method for Biometric Detection Download PDFInfo
- Publication number
- KR101620556B1 KR101620556B1 KR1020140023681A KR20140023681A KR101620556B1 KR 101620556 B1 KR101620556 B1 KR 101620556B1 KR 1020140023681 A KR1020140023681 A KR 1020140023681A KR 20140023681 A KR20140023681 A KR 20140023681A KR 101620556 B1 KR101620556 B1 KR 101620556B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- joint
- head
- living body
- random points
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000001514 detection method Methods 0.000 title description 16
- 238000012706 support-vector machine Methods 0.000 claims abstract description 17
- 238000009826 distribution Methods 0.000 claims abstract description 9
- 210000002414 leg Anatomy 0.000 claims description 17
- 210000003127 knee Anatomy 0.000 claims description 9
- 210000003857 wrist joint Anatomy 0.000 claims description 5
- 210000000544 articulatio talocruralis Anatomy 0.000 claims description 4
- 210000000629 knee joint Anatomy 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 210000002310 elbow joint Anatomy 0.000 claims description 2
- 210000000707 wrist Anatomy 0.000 description 12
- 210000003423 ankle Anatomy 0.000 description 10
- 210000001503 joint Anatomy 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000001217 buttock Anatomy 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000004197 pelvis Anatomy 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명의 일 실시예는 깊이 정보를 이용해 적은 수의 특징점으로 생체의 관절 정보를 추정하는 것이 가능한 생체 인식 방법을 제공한다.
이를 위해 본 발명의 일 실시예에 따른 생체 인식 방법은 3D 센서를 이용해 대상의 깊이 영상을 생성하고, 깊이 값의 분포를 나타내는 히스토그램을 생성하는 단계(A), 상기 깊이 영상을 통해 배경을 분리하는 단계(B), 배경이 분리된 상기 깊이 영상에서 머리를 추정하여, 생체를 관심영역으로 지정하는 단계(C), 상기 관심영역에서 생체의 관절을 추출하는 단계(D), 상기 관심영역의 중심점을 기준으로 측지 거리 영상을 생성하는 단계(E), 상기 측지 거리 영상에 다수의 랜덤 포인트를 생성하는 단계(F) 및 상기 다수의 랜덤 포인트를 SVM(Support Vector Machine)에 입력하여, 생체의 관절 파트를 분류하는 단계(G)를 포함하는 포함하는 것을 특징으로 하는 생체 인식 방법을 개시한다.One embodiment of the present invention provides a biometric method capable of estimating joint information of a living body with a small number of feature points using depth information.
To this end, a biometric identification method according to an embodiment of the present invention includes generating a depth image of a subject using a 3D sensor, generating a histogram representing a distribution of depth values, separating the background through the depth image, A step (B) of estimating a head from the depth image from which the background is separated, designating a body as a region of interest (C), extracting a joint of the body in the region of interest (D) (F) generating a plurality of random points on the geodesic distance image, and inputting the plurality of random points to a SVM (Support Vector Machine) And a step (G) of sorting the parts.
Description
본 발명의 일 실시예는 생체 인식 방법에 관한 것이다.One embodiment of the present invention relates to a biometric method.
정보화 사회로 이행되는 과정에서 개인은 물론 특정 단체의 정보(이하 "개인 정보"라 한다)는 어느 자산보다도 중요한 가치를 지니게 되었다. 이렇게 중요한 개인 정보를 보호하기 위해서 각종 패스워드(password)가 사용되고, 기타 신분을 확인할 수 있는 기술이 절실히 요구되고 있다. 정보 보호 차원을 넘어서 신용카드, 현금카드, 전자 주민등록증 등 신분 확인을 필요로 하는 사회적 요구는 계속 확대되고 있으나 현재까지는 비밀번호 이외의 보조적인 신분 확인 방법이 없기 때문에 컴퓨터를 사용한 범죄 등 많은 사회적 문제점을 안고 있다. 최근에는 이러한 문제점을 해결할 수 있는 방법으로 지문, 홍채, 정맥의 모양 등 사람의 생체 정보를 이용하여 신원을 판별하는 생체 인식 기술이 주목 받고 있다.In the transition to the information society, the information of individuals as well as specific organizations (hereinafter referred to as "personal information") has more value than any assets. In order to protect such important personal information, various passwords are used and a technique for identifying other persons is urgently required. In addition to protecting information, social needs such as credit cards, cash cards, and electronic identification cards are still expanding. However, since there is no secondary identification method other than passwords, there are many social problems such as computer crime have. In recent years, a biometric technique for identifying an individual using biometric information of a person such as a fingerprint, iris, or vein has been attracting attention as a method for solving such problems.
본 발명의 일 실시예는 깊이 정보를 이용해 적은 수의 특징점으로 생체의 관절 정보를 추정하는 것이 가능한 생체 인식 방법을 제공한다.One embodiment of the present invention provides a biometric method capable of estimating joint information of a living body with a small number of feature points using depth information.
또한, 본 발명의 일 실시예는 깊이 정보만을 이용하므로 야간에서도 사용이 가능하고, 임베디드 기반의 시스템에서도 구동이 가능한 생체 인식 방법을 제공한다.In addition, one embodiment of the present invention provides a biometrics method that can be used at night and can be operated in an embedded-based system since only depth information is used.
본 발명의 일 실시예에 따른 생체 인식 방법은 3D 센서를 이용해 대상의 깊이 영상을 생성하고, 깊이 값의 분포를 나타내는 히스토그램을 생성하는 단계(A), 상기 깊이 영상을 통해 배경을 분리하는 단계(B), 배경이 분리된 상기 깊이 영상에서 머리를 추정하여, 생체를 관심영역으로 지정하는 단계(C), 상기 관심영역에서 생체의 관절을 추출하는 단계(D), 상기 관심영역의 중심점을 기준으로 측지 거리 영상을 생성하는 단계(E), 상기 측지 거리 영상에 다수의 랜덤 포인트를 생성하는 단계(F) 및 상기 다수의 랜덤 포인트를 SVM(Support Vector Machine)에 입력하여, 생체의 관절 파트를 분류하는 단계(G)를 포함한다.A biometric identification method according to an embodiment of the present invention includes generating a depth image of a subject using a 3D sensor, generating a histogram representing a distribution of depth values, separating a background through the depth image, (C) extracting the joints of the living body in the region of interest, (D) extracting the center of the region of interest from the center of the region of interest (F) generating a plurality of random points on the geodesic distance image, and inputting the plurality of random points to a SVM (Support Vector Machine) to generate a joint part of a living body (G). ≪ / RTI >
상기 (A)단계에서, 상기 깊이 영상을 응용프로그램에서 요구하는 형태로 변환하는 전처리 과정을 수행할 수 있다.In the step (A), a preprocessing process of converting the depth image into a form required by an application program may be performed.
상기 (C)단계에서, 상기 머리를 추정하는 방법은 상기 생체의 머리 지름을 계산하는 단계, 상기 생체의 머리 지름에 따라 2차원 머리 템플릿의 크기를 조절하는 단계, 챔퍼 거리 매칭(chamfer distance matching)을 수행하는 단계, 상기 생체의 머리 후보 영역을 추출하여, 3차원 머리 템플릿에 매칭하는 단계 및 상기 생체의 머리 위치 및 지름을 반환하는 단계를 포함할 수 있다.In the step (C), the method of estimating the head includes calculating the head diameter of the living body, adjusting the size of the two-dimensional head template according to the head diameter of the living body, chamfer distance matching, Extracting a head candidate region of the living body, matching the extracted region with the 3D head template, and returning the head position and diameter of the living body.
상기 챔퍼 거리 매칭을 수행하는 단계는 상기 배경이 분리된 깊이 영상에서, 경계선을 추출하는 단계, 거리 변환(distance transform) 영상을 생성하는 단계 및 상기 2차원 머리 템플릿에 매칭하는 단계를 포함할 수 있다.The step of performing the chamfer distance matching may include extracting a boundary line, generating a distance transform image, and matching the two-dimensional head template, with the background separated depth images .
상기 (F)단계에서, 상기 다수의 랜덤 포인트의 좌표는 상기 중심점을 원점으로 할 수 있다.In the step (F), the coordinates of the plurality of random points may be the origin of the center point.
상기 (F)단계에서, 상기 다수의 랜덤 포인트의 좌표는 기 설정된 상기 3D 센서와 대상의 거리에 적용하여 정규화 될 수 있다.In the step (F), the coordinates of the plurality of random points may be normalized by applying the predetermined distance to the 3D sensor and the object.
상기 (F)단계에서, 상기 SVM는 상기 관절 파트를 머리, 목, 몸통, 좌 어깨, 우 어깨, 좌 팔, 우파, 좌 엉덩이, 우 엉덩이, 좌 다리 및 우 다리로 분류할 수 있다.In step (F), the SVM may classify the joint part into a head, a neck, a torso, a left shoulder, a right shoulder, a left arm, a right, a left hip, a right hip, a left leg and a right leg.
상기 (G)단계 이후, 상기 관절 파트의 팔을 팔꿈치와 손목 관절로 분류하고, 다리를 무릎과 발목 관절로 분류하는 단계(H)를 더 포함할 수 있다.The method may further include, after the step (G), classifying the arm of the joint part into an elbow and a wrist joint, and classifying the leg into a knee and ankle joint.
상기 (H)단계는, 상기 팔로 분류된 관절 파트에 포함된 상기 랜덤 포인트들을 최소의 넓이로 감싸며, 2개의 단변과 2개의 장변으로 이루어진 사각형을 생성하는 단계, 상기 사각형의 일측 단변에 인접한 상기 랜덤 포인트들 중 상기 측지 거리 값이 가장 큰 포인트를 손목 관절로 분류하는 단계 및 상기 사각형의 중심으로부터 사각형의 타측 단변의 중심까지의 3/4인 포인트를 팔꿈치 관절로 분류하는 단계를 포함할 수 있다.Wherein the step (H) includes the steps of: generating a rectangle including two short sides and two long sides by wrapping the random points included in the joint part classified by the arm in a minimum width; Classifying the points having the greatest geodesic distance value into wrist joints and classifying the point that is 3/4 from the center of the quadrangle to the center of the other short side of the quadrangle into the elbow joints.
상기 (H)단계는 상기 다리로 분류된 관절 파트에 포함된 상기 랜덤 포인트들을 최소의 넓이로 감싸며, 2개의 단변과 2개의 장변으로 이루어진 사각형을 생성하는 단계, 상기 사각형의 일측 단변에 인접한 상기 랜덤 포인트들 중 상기 측지 거리 값이 가장 큰 포인트를 발목 관절로 분류하는 단계 및 상기 사각형의 중심으로부터 사각형의 타측 단변의 중심까지의 3/4인 포인트를 무릎 관절로 분류하는 단계를 포함할 수 있다.Wherein the step (H) includes the steps of creating a rectangle having two short sides and two long sides by wrapping the random points included in the joint part classified by the legs with a minimum width, Classifying the point having the greatest geodesic distance value into the ankle joints and classifying the points that are 3/4 from the center of the quadrangle to the center of the other side of the quadrangle into knee joints.
본 발명의 일 실시예에 따른 생체 인식 방법은 깊이 정보를 이용해 적은 수의 특징점으로 생체의 관절 정보를 추정하는 것이 가능하다.The biometric method according to an embodiment of the present invention can estimate the joint information of a living body with a small number of feature points using depth information.
또한, 본 발명의 일 실시예에 따른 생체 인식 방법은 깊이 정보만을 이용하므로 야간에서도 사용이 가능하고, 임베디드 기반의 시스템에서도 구동이 가능하다.In addition, the biometrics method according to an embodiment of the present invention uses only depth information, so that it can be used at night and can also be operated in an embedded-based system.
도 1은 본 발명의 일 실시예에 따른 생체 인식 방법 중 생체 검출을 나타낸 흐름도이다.
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 생체 인식 방법에서, 배경을 제거한 전, 후를 나타낸 이미지이다.
도 3은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 생체 검출 결과를 나타낸 이미지이다.
도 4는 본 발명의 일 실시예에 따른 생체 인식 방법 중 머리의 추정/검출 단계를 나타낸 흐름도이다.
도 5a는 본 발명의 일 실시예에 따른 생체 인식 방법에서 2차원 머리 템플릿을 나타낸 이미지고, 도 5b는 3차원 머리 템플릿을 나타낸 이미지이다.
도 6은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 머리 검출 결과를 나타낸 이미지이다.
도 7은 본 발명의 일 실시예에 따른 생체 인식 방법 중 관절의 추출 단계를 나타낸 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 측지 거리를 나타낸 이미지이다.
도 9는 본 발명의 일 실시예에 따른 생체 인식 방법에서, 랜덤 포인트의 좌표 변화를 나타낸 이미지이다.
도 10은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 대상의 깊이와 생체의 어깨 너비의 관계를 나타낸 그래프이다.
도 11은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 랜덤 포인트의 좌표의 정규화를 나타낸 그래프이다.
도 12는 본 발명의 일 실시예에 따른 생체 인식 방법에서, SVM를 통해 생체 관절이 분류된 결과를 나타낸 이미지이다.
도 13은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 팔(혹은 다리)을 팔꿈치(혹은 무릎)와 손목(혹은 발목) 관절로 분류하는 단계를 나타낸 흐름도이다.
도 14는 본 발명의 일 실시예에 따른 생체 인식 방법에서, 팔 관절 팔꿈치와 손목 관절로 분류하는 과정 및 결과를 나타낸 이미지이다.
도 15는 본 발명의 일 실시예에 따른 생체 인식 방법에서, 생체의 관절을 추출한 결과를 나타낸 이미지이다.FIG. 1 is a flowchart illustrating a biometric detection method according to an exemplary embodiment of the present invention.
FIGS. 2A and 2B are front and back images of a biometric method according to an exemplary embodiment of the present invention.
3 is an image showing a result of biometric detection in the biometric method according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating a head estimation / detection step of a biometric method according to an exemplary embodiment of the present invention.
FIG. 5A is an image showing a two-dimensional hair template in the biometric method according to an embodiment of the present invention, and FIG. 5B is an image showing a three-dimensional hair template.
6 is an image showing the result of head detection in the biometric method according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a joint extracting step in the biometric method according to an exemplary embodiment of the present invention.
8 is an image showing a geodesic distance in the biometric method according to an embodiment of the present invention.
9 is an image showing a coordinate change of a random point in the biometric method according to an embodiment of the present invention.
10 is a graph showing a relationship between a depth of a subject and a shoulder width of a living body in the biometric method according to an embodiment of the present invention.
11 is a graph showing normalization of coordinates of a random point in the biometric method according to an embodiment of the present invention.
12 is an image showing a result of classification of a living body joint through SVM in the biometric method according to an embodiment of the present invention.
FIG. 13 is a flowchart showing a step of classifying an arm (or a leg) into an elbow (or a knee) and a wrist (or ankle) joint in the biometric method according to an embodiment of the present invention.
FIG. 14 is an image showing a procedure and a result of classification into an arthroscopic elbow and a wrist joint in the biometric method according to an embodiment of the present invention.
FIG. 15 is an image showing a result of extracting a joint of a living body in the biometric method according to an embodiment of the present invention. FIG.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.
본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다. 또한, 본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 더불어, 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 더욱이, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급한 단계, 동작, 부재, 요소, 수치 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 단계, 동작, 부재, 요소, 수치 및 /또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다.As used herein, the term "and / or" includes any and all combinations of one or more of the listed items. In addition, the terminology used herein is for the purpose of describing particular embodiments only, and is not intended to be limiting of the invention. In addition, as used herein, the singular forms "a," "an," and "the" include plural referents unless the context clearly dictates otherwise. Furthermore, " comprise "and / or" comprising "as used herein specify the presence of stated steps, operations, elements, elements, numerical values and / But does not preclude the presence or addition of other steps, operations, elements, elements, numerical values and / or groups.
도 1은 본 발명의 일 실시예에 따른 생체 인식 방법 중 생체 검출을 나타낸 흐름도이고, 도 2a 및 도 2b는 본 발명의 일 실시예에 따른 생체 인식 방법에서, 배경을 제거한 전, 후를 나타낸 이미지이며, 도 3은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 생체 검출 결과를 나타낸 이미지이다.FIG. 1 is a flowchart illustrating a biometric detection method according to an exemplary embodiment of the present invention. FIGS. 2A and 2B illustrate an example of a biometric method according to an exemplary embodiment of the present invention. FIG. 3 is an image showing the result of biometric detection in the biometric method according to an embodiment of the present invention.
우선, 도 1을 참조하면, 3D 센서(예를 들면, 깊이 카메라 등)을 통해 입력된 깊이 이미지에 대해 노이즈(noise)를 감소시키고 이미지 사이즈 조절을 위한 전처리 단계(pre-operation)를 수행한다. 여기서, 전처리 공정은 노이즈 감쇠를 위해 평균필터를 수행하고 빠른 영상처리를 위해 입력된 깊이 이미지의 크기를 절반으로 줄인다.First, referring to FIG. 1, noise is reduced for a depth image input through a 3D sensor (for example, a depth camera, etc.) and a pre-operation for image size adjustment is performed. Here, the preprocessing process performs an average filter for noise attenuation and reduces the size of the input depth image in half for fast image processing.
그 후, 도 2a 및 도 2b를 참조하면, 생체(이하, 사람이라 명함) 검출을 위해 배경 제거 단계가 수행된다. 배경 제거 단계는 카메라가 일정 위치에서 고정되어 있다는 가정하에 수 초 정도 배경 모델 학습(background model learning)을 통해 수행된다. Thereafter, referring to Figs. 2A and 2B, a background removal step is performed to detect a living body (hereinafter referred to as a person). The background removal step is performed through background model learning for a few seconds, assuming that the camera is fixed at a certain position.
여기서, 배경 제거 알고리즘으로 사용된 것은 adaptive gaussian mixture model에 기반한 것으로 영상의 각 픽셀 값을 하나의 가우시안(Gaussian) 분포가 아닌 여러 개의 가우시안 혼합 분포를 이용하여 여러 프레임을 통해 확률적으로 배경을 구한 뒤 원본 영상과의 차를 통해 제거하는 방식이다. 따라서 배경 모델 학습 수행 시 사람이나 다른 움직이는 물체가 없어야 올바르게 학습 작업이 수행된다. The background removal algorithm is based on the adaptive gaussian mixture model. The background values of each pixel value of the image are obtained through several frames using several Gaussian mixture distributions rather than a single Gaussian distribution. It is a method to remove through the difference with the original image. Therefore, when learning the background model, there must be no human or other moving object to perform the learning work correctly.
즉, 배경 모델 학습 후 매 프레임마다 입력되는 깊이 이미지에서 배경 모델을 제거하게 되면 전경에 해당하는 깊이 이미지만 남게 되고, 나머지 배경에 해당하는 픽셀들은 모두 0으로 출력된다. 따라서, 카메라의 시야에 사람들이 들어올 경우 배경를 제거한 전경 이미지는 해당 사람들의 정보만을 담고 있다.That is, when the background model is removed from the depth image input every frame after learning the background model, only the depth image corresponding to the foreground remains, and all the pixels corresponding to the background are output as 0s. Therefore, when people enter the field of view of the camera, the foreground image with the background removed contains only the information of the person concerned.
이후, 도 3을 참조하면, 전경의 블럽(blob)들을 감싸는 사각형들을 구하며 해당 사각형들을 관심 영역(Region of interest, 이하, ROI로 명함)로 지정하게 되면 이것이 사람들의 ROI가 된다. Referring to FIG. 3, the rectangles surrounding the blobs of the foreground are obtained. When the rectangles are designated as regions of interest (hereinafter, referred to as ROIs), this is the ROI of the people.
이때, 전경의 블럽들 중 크기가 너무 작은 것들은 노이즈로 간주하여 제거한다. 하지만, 여기서, 두 사람 이상이 인접해 있을 경우 인접한 사람들의 ROI가 하나로 합쳐지는 경우가 발생한다. 이러한 경우에 대비하여 추출한 ROI에 대해 머리 검출 단계를 수행하게 된다. At this time, those of the foreground blurbs that are too small are regarded as noise and removed. However, here, when two or more people are adjacent to each other, the ROI of the adjacent persons may be combined into one. In this case, the head detection step is performed on the extracted ROI.
여기서, 머리 검출을 통해 얻은 사람의 얼굴 정보를 이용해 두 사람 이상이 하나의 ROI에 포함된 경우 각 사람에 대한 ROI로 분리한다. ROI에서 두 사람 이상의 얼굴이 검출될 경우, 인접한 두 얼굴 사이의 X축 중간 지점을 기준으로 나누어 ROI를 분리하게 된다.Here, if two or more people are included in one ROI using the face information of the person obtained through head detection, the ROI for each person is separated. When two or more faces are detected in the ROI, the ROI is divided by dividing the center of the X-axis between two adjacent faces.
도 4는 본 발명의 일 실시예에 따른 생체 인식 방법 중 머리의 추정/검출 단계를 나타낸 흐름도이고, 도 5a는 본 발명의 일 실시예에 따른 생체 인식 방법에서 2차원 머리 템플릿을 나타낸 이미지고, 도 5b는 3차원 머리 템플릿을 나타낸 이미지이며, 도 6은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 머리 검출 결과를 나타낸 이미지이다.FIG. 4 is a flowchart illustrating a method of estimating / detecting a head in a biometric method according to an exemplary embodiment of the present invention. FIG. 5A is a diagram illustrating an image of a two-dimensional head template in a biometric method according to an exemplary embodiment of the present invention, FIG. 5B is an image showing a three-dimensional head template, and FIG. 6 is an image showing a result of head detection in the biometric method according to an embodiment of the present invention.
다음은 도 4 내지 도 6을 참조하여, 상술한 머리 검출 단계를 설명한다.Next, with reference to Figs. 4 to 6, the above-described head detecting step will be described.
우선, 도4를 참조하면, 머리 검출 알고리즘은 변형된 템플릿 매칭(template matching) 기법인 챔퍼 거리 매칭(chamfer distance matching)을 이용하여 사람의 얼굴이라고 추정되는 위치를 찾는다. First, referring to FIG. 4, the head detection algorithm finds a position estimated to be a human face using a modified template matching technique called chamfer distance matching.
여기서, 챔퍼 거리 매칭의 경우도 템플릿 매칭과 같이 찾고자 하는 물체와 템플릿의 이미지 크기가 같아야 해당 물체를 찾을 수 있다. 그런데 카메라에 대한 사람의 상대적인 위치에 따라 사람의 얼굴의 크기가 바뀐다. 얼굴의 크기가 변하는 문제로 인해 고정된 크기의 템플릿으로는 해당 템플릿의 크기보다 작거나 큰 크기의 얼굴은 검출할 수 없는 문제가 발생한다. 이를 해결하기 위해 머리 검출 알고리즘에서는 사람이 존재하는 지점의 깊이 값을 구하고 해당 깊이 값을 통해 사람의 얼굴의 크기를 추정하여 템플릿의 크기를 조절한다. 이때 사람이 존재하는 지점의 깊이는 배경 제거를 수행한 입력 이미지의 깊이 히스토그램(histogram)을 통해 구하게 된다. 이러한 변형된 방법을 사용할 경우 기존의 방법보다 챔퍼 거리 매칭의 수행 횟수가 유동적으로 조절되어 빠른 연산의 이점이 있다.In the case of chamfer distance matching, the object to be searched can be found only when the image size of the template and the object to be searched are the same as the template matching. However, the size of a person's face changes depending on the relative position of the person to the camera. Due to the problem that the size of the face changes, a fixed size template can not detect a face that is smaller than or larger than the template size. To solve this problem, the head detection algorithm calculates the depth value of the point where the person exists and adjusts the size of the template by estimating the size of the human face through the depth value. In this case, the depth of the point where the person exists is obtained through the depth histogram of the input image subjected to the background removal. When this modified method is used, the number of chamfer distance matching is controlled more flexibly than the conventional method, which is advantageous in fast calculation.
또한, 도4를 참조하면, 머리 검출 알고리즘을 자세히 설명하면 다음과 같다.Referring to FIG. 4, the head detection algorithm will be described in detail.
우선, 배경이가 제거된 ROI 이미지에 대해 사람이 존재할 것이라 예상되는 곳의 깊이 값을 알아내기 위해 입력된 이미지의 깊이 값의 분포를 나타내는 히스토그램을 생성한다. 여기서, 배경이 제거되었기 때문에 ROI 이미지에는 카메라로부터 특정 거리에 있는 사람의 깊이 정보만이 포함되어 있다. 즉, 히스토그램에는 사람이 존재하는 거리에 해당하는 깊이에만 높은 값을 나타낸다. 이러한 사실을 이용하여 생성된 히스토그램에서 최대 높이 정보(local maximum)를 찾게 되면 사람이 존재할 것이라 예상되는 깊이를 찾을 수 있다.First, a histogram representing the distribution of the depth value of the input image is generated to determine the depth value at which a person is expected to exist for the ROI image from which the background has been removed. Here, since the background has been removed, the ROI image contains only the depth information of a person at a certain distance from the camera. That is, the histogram shows a high value only in the depth corresponding to the distance in which the person exists. Using this fact, we can find the depth at which the human is expected to exist if the local maximum is found in the generated histogram.
물론, 사람이 존재할 것이라 예상되는 거리의 깊이 정보를 이용하여 해당 거리에서의 사람 머리의 크기를 수식을 통해 예측할 수 있다. 본 발명의 일 실시예에서는 깊이 값에 따른 사람 머리의 크기는 3차식으로 되어 있으나 연산 속도를 위해 2차식으로 변형하였다. 다음 수학식 1은 깊이(z)를 통해 얼굴의 길이(h)를 구하는 식이다.Of course, using the depth information of the distance that a person is expected to be present, the size of the human head at the distance can be predicted through the equation. In an embodiment of the present invention, the size of the human head according to the depth value is cubic but is transformed into a quadratic expression for the computation speed. The following equation (1) is an expression for obtaining the length (h) of the face through the depth (z).
즉, 수학식 1을 통해 깊이 값에 따른 사람의 얼굴 길이를 추정하고, 이 정보를 이용하여 챔퍼 거리 매칭에 사용할 2D 템플릿(도 5a 참조)의 크기를 조절하게 된다. That is, the face length of a person according to the depth value is estimated through Equation 1, and the size of the 2D template (see FIG. 5A) to be used for chamfer distance matching is adjusted using this information.
여기서, 챔퍼 거리 매칭은 입력 이미지에 대해 경계(edge)만을 추출하여 거리 변환(distance transform)을 수행한 후, 거리 변환 이미지에 대해 템플릿 매칭(template matching)을 수행하여 찾고자 하는 형태의 물체를 검출한다. 즉, 챔퍼 거리 매칭은 일반적인 템플릿 매칭에 비교하여 찾고자 하는 물체의 형태에 변형에 대해서도 강인하게 검출할 수 있다는 장점이 있다.Here, the chamfer distance matching extracts only the edges of the input image, performs distance transform, performs template matching on the distance-transformed image, and detects an object of the type to be searched . That is, the chamfer distance matching has an advantage in that it can be detected robustly against deformation in the form of the object to be searched compared with a general template matching.
입력된 ROI 이미지에 대해 챔퍼 거리 매칭을 수행하여 사람의 머리라고 추정되는 지점들을 찾는다. 세부 단계로 우선 Canny edge detection 알고리즘을 통해 경계 이미지를 얻고, 경계 이미지에 대해 거리 변환을 수행한다. 그 후 거리 변환 이지미에 앞서 크기를 조절한 2D 템플릿으로 템플릿 매칭을 수행하여 사람의 머리라고 여겨지는 형태의 물체들을 검출한다. Perform chamfer distance matching on the input ROI image to find points that are supposed to be the human head. First, the boundary image is obtained through the Canny edge detection algorithm and the distance transformation is performed on the boundary image. Then, template matching is performed using a 2D template whose size is adjusted prior to the distance conversion image, so that objects of a type considered as a human head are detected.
사람의 머리라고 추정되는 후보들에 대해 최종적으로 깊이 정보를 포함한 3D 템플릿(도 5b 참조)과의 템플릿 매칭을 통해 사람의 머리임을 확인한다. 여기서, 상술한 바와 동일하게 3D 템플릿 매칭에서는 사람의 머리라 여겨지는 후보들의 ROI를 추출하여 ROI의 크기를 템플릿 크기와 같도록 조정한 후 매칭 작업을 수행한다.Finally, candidates estimated to be human heads are confirmed to be human heads through template matching with a 3D template including depth information (see FIG. 5B). In the 3D template matching as described above, ROIs of candidates considered as the human head are extracted, and the size of the ROI is adjusted to be equal to the template size, and the matching operation is performed.
마지막으로 검출된 머리들 중 너무 근접하여 머리 영역이 겹치는 경우에는 영역이 겹치는 머리들을 하나의 머리로 통합하는 작업을 수행한다. 결과적으로, 도 6과 같은 이미지를 출력할 수 있다.In the case where the head area is overlapped too close to the last detected head, the overlapping heads are integrated into one head. As a result, an image as shown in Fig. 6 can be output.
도 7은 본 발명의 일 실시예에 따른 생체 인식 방법 중 관절의 추출 단계를 나타낸 흐름도이고, 도 8은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 측지 거리를 나타낸 이미지이고, 도 9는 본 발명의 일 실시예에 따른 생체 인식 방법에서, 랜덤 포인트의 좌표 변화를 나타낸 이미지이고, 도 10은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 대상의 깊이와 생체의 어깨 너비의 관계를 나타낸 그래프이고, 도 11은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 랜덤 포인트의 좌표의 정규화를 나타낸 그래프이며, 도 12는 본 발명의 일 실시예에 따른 생체 인식 방법에서, SVM를 통해 생체 관절이 분류된 결과를 나타낸 이미지이다.FIG. 7 is a flowchart illustrating a joint extracting step in the biometric method according to an embodiment of the present invention. FIG. 8 is an image showing a geodesic distance in the biometric method according to an embodiment of the present invention, 10 is a view showing a relationship between a depth of a subject and a shoulder width of a living body in a biometric method according to an embodiment of the present invention. FIG. 11 is a graph illustrating normalization of coordinates of a random point in the biometric method according to an embodiment of the present invention. FIG. 12 is a graph showing the normalization of coordinates of a random point in the biometric method according to an embodiment of the present invention. This is an image showing the classification result of the bioartile joint.
다음은 도 7 내지 도 12를 참조하여, 본 발명의 일 실시예에 따른 생체 인식 방법 중 관절의 추출 단계를 설명한다.Next, with reference to FIGS. 7 to 12, the steps of extracting joints in the biometric method according to an embodiment of the present invention will be described.
관절 추출(Skeleton extraction) 알고리즘은 생체 검출로부터 입력 받은 사람 ROI에 대해 관절을 추출하며, 최종 결과로 각 ROI 내에 존재하는 사람의 관절 특징 포인트(예를 들면, 머리, 어깨, 팔꿈치 등)의 위치를 반환한다.The skeleton extraction algorithm extracts joints from the input ROI from the biometric detection and determines the position of the joint feature points (for example, head, shoulders, elbows, etc.) of a person existing in each ROI as a final result Return.
이후, 생체 검출로부터 사람 ROI에 관한 정보를 받아 ROI 내에 존재하는 사람의 관절 정보를 추정하게 된다. 여기서, 사람 ROI에 관한 정보는 ROI 이미지와 ROI에 존재하는 사람의 중심점 그리고 원본 이미지에서의 ROI의 원점좌표(ROI의 최 좌측 최 상위 점)로 구성되어 있다.Thereafter, information on the human ROI is obtained from the biometric detection, and the joint information of the person existing in the ROI is estimated. Here, the information on the human ROI is composed of the ROI image, the center point of the person existing in the ROI, and the origin coordinates (the leftmost uppermost point of the ROI) of the ROI in the original image.
이후, 입력 받은 ROI 이미지에 대해 사람의 중심점을 기준으로 한 측지 거리(geodesic distance)이미지를 생성한다. 여기서, 측지 거리(Geodesic distance)는 노드(node)로 구성된 공간내의 점으로 연결되는 최단 거리를 뜻한다. 따라서, 깊이 정보를 가지는 사람 ROI 이미지를 이용하여 몸의 중심점을 기준으로 측지 거리를 계산한다면 손끝이나 발끝에서 가장 높은 값을 나타낸다. 여기서, 측지 거리는 Dijkstra's algorithm을 이용하여 계산하였다. Then, a geodesic distance image based on the center point of the person is generated for the input ROI image. Here, the geodesic distance means a shortest distance to a point in a space formed by a node. Therefore, if the geodetic distance is calculated based on the center point of the body using the human ROI image having the depth information, the highest value is obtained at the fingertip or the toe. Here, the geodesic distance is calculated using Dijkstra's algorithm.
이후, 도 8과 같이 생성한 측지 거리 이미지에 대해 최소값과 최대값 사이를 60 단계로 나눈 측지 ISO 레벨(geodesic iso level) 이미지를 생성한다. 여기서, 측지 ISO 레벨 이미지를 생성하는 이유는 움직임의 변화가 적은 사람의 몸 중심점 주변보다 머리와 팔, 다리 등에 있는 특징점을 효과적으로 추출하기 위함이다.Thereafter, a geodesic iso level image is generated by dividing the generated geodetic distance image into a minimum value and a maximum value in 60 steps. Here, the reason why the geodetic ISO level image is generated is to effectively extract the feature points in the head, arm, leg, and the like from the vicinity of the center of the body of the person with less change of motion.
물론, 상기 60단계는 임의로 단계 수로 설정될 수 있으며, 본 발명에서, ISO 레벨의 수를 한정하는 것은 아니다.Of course, the step 60 may be arbitrarily set to the number of steps, and the present invention does not limit the number of ISO levels.
여기서, 도 8을 참조하면, 측지 ISO 레벨 이미지에서, 측지 거리가 멀수록 밝은 색을 나타낸다.Here, referring to FIG. 8, in the geo-level ISO level image, the farther the geodesic distance is, the lighter the color.
다음으로 생성한 측지 ISO 이미지에 임의로 200개의 랜덤 포인트들을 생성한다. 이때, 200개의 랜덤 포인트들은 측지 ISO 이미지에서 0이 아닌 값에서만 생성되도록 하였다. 생성된 200개의 랜덤 포인트들은 SVM(Support Vector Machine)에서 예측(prediction)의 입력 데이터로 사용될 것이다.Then randomly generate 200 random points in the next geodetic ISO image. At this time, 200 random points were generated only in non-zero values in the geodetic ISO image. The generated 200 random points will be used as input data for prediction in SVM (Support Vector Machine).
여기서, 상기 랜덤 포인트는 임의의 개수로 설정될 수 있음은 물론이며, 본 발명에서, 랜덤 포인트의 개수를 한정하는 것은 아니다.Here, the random points may be set to any number, and the number of random points is not limited in the present invention.
여기서, 측지 ISO 이미지를 사용해 생성한 200개의 랜덤 포인트들의 좌표는 모두 ROI의 최 좌측 최상위 점을 원점으로 좌표계가 설정되어 있다. 하지만, 이러한 좌표로 SVM을 학습(training)하고 예측(prediction)할 경우, 사람의 자세에 따라 ROI의 크기가 변경될 때마다 몸의 파트 좌표들의 일관성이 떨어지는 문제가 발생한다. 따라서, 사람 몸의 중심점을 원점으로 하는 좌표계로 변환하게 되면 움직임이 많은 팔과 다리를 제외한 다른 부분의 점들의 좌표는 큰 일관성을 보이기 때문에 좌표계를 변경하지 않았을 때보다 더 좋은 결과를 얻을 수 있다. 이러한 이유로, 도 9에 도시된 바와 같이 생체 검출로부터 얻은 사람 몸의 중심점을 원점으로 하도록 200개의 랜덤 포인트들의 좌표들에 중심점의 좌표를 빼주어 200개의 랜덤 포인트의 좌표계 변환을 수행한다.Here, the coordinates of the 200 random points generated using the geodetic ISO image are all set to the coordinate system with the origin at the leftmost uppermost point of the ROI. However, when SVM is trained and predicted with these coordinates, the consistency of the body part coordinates is degraded whenever the size of ROI is changed according to the human posture. Therefore, when the center of the human body is transformed into a coordinate system with the origin, the coordinates of the points other than the arms and legs having a lot of motion show a greater consistency, so that a better result can be obtained when the coordinate system is not changed. For this reason, coordinate transformation of 200 random points is performed by subtracting the coordinates of the center point from the coordinates of 200 random points so that the center point of the human body obtained from the biometric detection is the origin as shown in FIG.
또한, 영상 이미지에서 사람과 카메라 사이의 거리에 따라 사람의 ROI의 크기가 변경되기 때문에 같은 동작을 취하고 있어도 사람과 카메라 간의 거리에 따라 몸의 파트 별 좌표가 다르게 나타날 수 있다. 이러한 문제를 해결하기 위해 기준이 되는 크기를 설정하여 200개의 랜덤 포인트들의 좌표를 정규화(normalization) 후 SVM의 학습과 예측을 수행할 필요가 있다.In addition, since the size of ROI of a person changes according to the distance between a person and a camera in a video image, the coordinates of the parts of the body may be different depending on the distance between the person and the camera, even though the same operation is performed. In order to solve this problem, it is necessary to perform learning and prediction of SVM after normalization of coordinates of 200 random points by setting a reference size.
좌표의 정규화를 수행하기 위해서는 거리(depth)에 따른 사람의 신체 길이의 변화에 대한 관계를 알아야 한다. 그래서 거리와 어깨 넓이에 대한 관계식을 이용한다. 이로써, 도 10에 도시된 바와 같이, 어깨 넓이와 거리 간의 관계에 대한 실험 결과를 얻을 수 있다. 즉, 카메라에 대한 상대적 거리를 변화시키면서 OpenNI를 통해 알아낸 두 어깨 포인트 사이의 거리를 구해 다음과 같은 데이터를 얻는다. 또한, 엑셀의 추세선에 대한 방정식을 구해 거리와 어깨 넓이 사이의 관계식을 구한다. 이로써, 거리(y)와 어깨넓이(x)에 대해 정의한 수학식 2를 얻는다.In order to perform the normalization of the coordinates, it is necessary to know the relationship between the change of the person's body length according to the depth. So, we use the relationship between distance and shoulder width. As a result, as shown in FIG. 10, experimental results on the relationship between the shoulder width and the distance can be obtained. In other words, by changing the relative distance to the camera, we obtain the following data by calculating the distance between two shoulder points obtained through OpenNI. Also, calculate the equation for the trend line of Excel and obtain the relation between distance and shoulder width. Thereby, Equation (2) defined for the distance (y) and the shoulder width ( x ) is obtained.
여기서, 상기 수학식 2는 수식의 간결화 및 추세선의 위치가 데이터 분포에서 y축으로 위쪽에 치우쳐 그려져 이를 보정하고자 선형식을 x축으로 100만큼 내리기 위해 6,116에서 6,000으로 변경한다.In Equation (2), the simplification of the equation and the position of the trend line are shifted upward in the y- axis from the data distribution, and in order to correct it, the line format is changed from 6,116 to 6,000 to decrease by 100 in the x- axis.
상기 수학식 2를 바탕으로 ROI에서 생성한 200개의 랜덤 포인트들의 평균 거리 값을 구하여 이것으로 대략적인 사람의 어깨 넓이를 추정하였다. 그리고 기준 어깨 넓이가 12픽셀이 되도록 랜덤 포인트들의 좌표들을 정규화하였다. 실제적으로, 어깨 넓이를 10에서부터 40까지 변경하며 테스트한 결과 12에서 가장 좋은 결과를 나타내므로 이를 기준으로 설정한다. 이를 통해 다음의 수학식 3은 거리의 평균(z_avrg)에 200개의 랜덤 포인트들의 (x, y) 좌표에 대해 스케일링(scaling)해 주어야 하는 스케일 값을 정의한다.Based on Equation (2), an average distance value of 200 random points generated in the ROI is obtained, and an approximate shoulder width of a person is estimated. The coordinates of the random points were normalized so that the standard shoulder width was 12 pixels. In practice, the shoulder width is changed from 10 to 40 and the best result is obtained from the test result. Thus, the following equation (3) defines a scale value to be scaled for the ( x , y ) coordinates of 200 random points on the average of distance (z_avrg).
여기서, 거리의 평균(z_avrg) 값이 6,000 이상일 경우 스케일을 구할 수 없거나 또는, 음수가 되고, 6,000 이상의 경우에는 사람의 형체가 아주 작게 나타나기 때문에 거리의 평균(z_avrg)의 최대값을 5,800으로 제한한다.Here, since the scale can not be obtained if the average of the distance (z_avrg) is 6,000 or more, or negative, and the shape of the human being is 6000 or more, the maximum value of the distance average (z_avrg) is limited to 5,800 .
그 이후, depth(z)값에 대해서 스켈링을 수행하여, 다음의 수학식 4와 같이 정규화된 거리(z_norm)를 얻는다.Thereafter, scaling is performed on the depth (z) value to obtain a normalized distance z_norm as shown in Equation (4).
따라서, 상기 수학식들을 통해, 도 11에 도시된 바와 같이, 스켈링을 수행하여, 200개의 랜덤 포인트들의 분포는 어깨 넓이가 12픽셀인 ROI 이미지의 분포와 같도록 정규화된다.Thus, through the above equations, as shown in FIG. 11, scaling is performed so that the distribution of 200 random points is normalized to be equal to the distribution of the ROI image with 12 pixels of shoulder width.
이후, SVM 분류기(classifier)에 사람 ROI에서 생성한 200개의 랜덤 포인트들을 인풋으로 하여 분류를 수행하면 200개의 포인트들이 각각 속한 생체 관절 파트에 대한 결과로 출력된다. 이를 바탕으로 각 생체 관절 파트에 해당하는 점들의 중심 모멘트(central moment)를 구하면 생체 관절 파트의 특징 포인트를 구할 수 있다. 그러나, 손목과 발목의 경우 다른 생체 관절 파트에 비해 학습 데이터(training data)에 존재하는 포인트 수가 작아 분류 결과가 좋지 않아 다른 방법으로 위치를 추정하는 것이 바람직하다.Then, when classification is performed by inputting 200 random points generated in the human ROI to the SVM classifier, 200 points are output as a result of the bio-articulating part to which each 200 points belong. Based on this, the central points of the points corresponding to each bio-articulating part can be obtained, and the characteristic points of the bio-articulating part can be obtained. However, in the case of the wrist and ankle, it is preferable to estimate the position by other methods because the number of points existing in the training data is smaller than that of the other bio-articulated parts and the classification result is not good.
다시 말하면, 우선, 머리, 목, 몸통, 어깨 그리고 골반에 해당하는 관절 파트는 도 12에 도시된 바와 같이 분류된 포인트들의 각 파트 별 중심 모멘트를 이용하여 특징 포인트를 구한다.In other words, first, the joint part corresponding to the head, neck, torso, shoulder, and pelvis finds feature points using the center moments of the respective parts of the classified points as shown in FIG.
구체적으로 도 12에 도시된 바와 같은 분류 이미지에서 위치를 추정하고자 하는 생체 관절 파트의 색의 포인트들만 남도록 한다. 그리고 해당 파트의 포인트들의 중심 모멘트를 구하게 되면 해당 파트의 관절 포인트가 된다.Specifically, in the classification image as shown in FIG. 12, only the points of color of the bio-articulating part to be estimated are left. If the center moments of the points of the part are found, it becomes the joint point of the part.
여기서, 상기 머리, 목, 몸통, 어깨 그리고 골반은 ROI 이미지에서 움직임이 적기 때문에 중심 모멘트를 통해 관절 포인트를 추정하여도 좋은 결과를 얻을 수 있으나, 손목이나 발목은 상대적으로 움직임이 많고 학습 데이터에 존재하는 포인트의 개수가 상대적으로 작아 분류 결과가 좋지 못하여 관절 포인트가 다른 곳으로 튀는 현상이 발생한다. 이와 같은 현상을 해결하고자 손목은 팔꿈치와 같은 라벨(label)로, 발목은 무릎과 같은 라벨로 학습하고, 예측 결과에서 팔꿈치와 무릎의 포인트들의 정보와 측지 거리 정보를 조합하여 팔꿈치와 손목, 무릎과 발목의 관절 포인트를 찾아내었다. 구체적으로 다시 말하면, SVM 학습 시 머리, 목, 몸통, 좌우어깨, 좌우팔꿈치, 좌우손목, 좌우엉덩이, 좌우 무릎, 좌우 발목 총 15개의 생체 관절 파트 대신에 머리, 목, 몸통, 좌우 어깨, 좌우 팔, 좌우 엉덩이, 좌우 다리로 총 11개의 생체 관절 파트로 라벨의 개수를 줄여 학습 및 예측을 수행한다. Here, since the head, neck, torso, shoulder, and pelvis have less motion in the ROI image, it is possible to obtain a good result by estimating the joint point through the center moment, but the wrist or ankle has relatively many movements, The number of points is relatively small, so that the classification result is not good, and the joint point jumps to another place. To solve this problem, the wrist is learned with a label like an elbow, the ankle is learned with a label like a knee, and the information of the elbow and knee points and the information of the geodesic distance are combined in the prediction result. I found the joint point of the ankle. Specifically, in SVM learning, instead of the total of 15 joint parts of the body, head, neck, torso, left and right shoulders, left and right elbows, left and right wrists, left and right buttocks, left and right knees, left and right ankles, , Left and right buttocks, left and right legs, and a total of 11 pieces of bio-articulation to reduce the number of labels to perform learning and forecasting.
이후, 팔과 다리의 예측 결과에 측지 거리의 정보를 이용하여 팔에서 팔꿈치와 손목으로 관절 포인트를 분리하고, 다리에서 무릎과 발목을 관절 포인트를 분리하였다. 이와 같은 방법을 적용 시 SVM이 학습 및 예측할 클래스(class)의 개수가 줄었기 때문에 SVM 예측 연산시간이 줄어든다는 이점이 있다.Then, using the information of the geodesic distance in the predicted results of the arms and legs, the joint points were separated from the arms to the elbows and the wrists, and the joint points were separated from the legs at the knees and ankles. The advantage of this method is that the SVM prediction operation time is reduced because the SVM reduces the number of classes to be learned and predicted.
도 13은 본 발명의 일 실시예에 따른 생체 인식 방법에서, 팔(혹은 다리)을 팔꿈치(혹은 무릎)와 손목(혹은 발목) 관절로 분류하는 단계를 나타낸 흐름도이고, 도 14는 본 발명의 일 실시예에 따른 생체 인식 방법에서, 팔 관절 팔꿈치와 손목 관절로 분류하는 과정 및 결과를 나타낸 이미지이며, 도 15는 본 발명의 일 실시예에 따른 생체 인식 방법에서, 생체의 관절을 추출한 결과를 나타낸 이미지이다.FIG. 13 is a flowchart showing a step of classifying an arm (or a leg) into an elbow (or a knee) and a wrist (or ankle) joint in the biometric method according to an embodiment of the present invention, FIG. 15 is a view showing a result of extracting joints of a living body in a biometric method according to an embodiment of the present invention. FIG. 15 is a view illustrating a process of sorting an elbow and a wrist according to an embodiment of the present invention. Image.
최종적으로 도 13 내지 도 15를 참조하여, 본 발명의 일 실시예에 따른 생체 인식 방법에서 생체 관절을 추출하는 과정을 설명한다.Finally, with reference to FIGS. 13 to 15, a process of extracting a living body joint in the biometric method according to an embodiment of the present invention will be described. FIG.
도 13을 참조하면, 팔의 포인트로부터 팔꿈치와 손목의 관절 포인트를 추출하고 다리의 포인트로부터 무릎과 발목의 관절 포인트를 추출하는 알고리즘을 확인할 수 있다.Referring to FIG. 13, an algorithm for extracting the joint points of the elbow and the wrist from the point of the arm and extracting the joint points of the knee and ankle from the point of the leg can be confirmed.
구체적으로 설명하면, 상술한 바와 같이, 팔의 경우에는 생체 관절 파트 중 움직임이 가장 많아 팔로 분류된 점들이 머리에 종종 나타나는 경우가 있다. 따라서, 이러한 점들까지 포함하여 손목과 팔꿈치의 관절 포인트를 계산할 경우 큰 에러가 발생한다. 즉, 이러한 상황을 피하기 위해 팔로 분류된 포인트들 중 머리 주위의 일정 영역에 속하는 포인트들은 제거하는 것이 바람직하다.Specifically, as described above, in the case of an arm, there are cases where points in the head most frequently appear in the arms because the movement is the most among the joint parts of the body. Therefore, when calculating the joint points of the wrist and the elbow including such points, a large error occurs. That is, to avoid such a situation, it is desirable to remove points belonging to a certain area around the head among the points classified as the arms.
이후, 팔로 분류된 포인트들을 최소의 넓이로 감싸는 사각형을 구하게 되면 도 14에 도시된 이미지와 같은 형태로 나타난다.Thereafter, when a rectangle that wraps the points classified with the arms in the minimum width is obtained, the shape is the same as the image shown in FIG.
이후, 생성된 사각형에서 사각형의 짧은 길이의 두 단변의 중 일측 단변에 인접한 영역이 손목이고 반대편 타측 단변에 인접한 영역이 팔꿈치에 해당하는 것을 확인 할 수 있다. 여기서, 상기 측지 거리 정보를 이용하면 사각형의 두 짧은 단변 중 어디가 손목에 해당하는 지 알 수 있다. 즉, 사각형의 짧은 두 단변의 근처 포인트들 중 측지 거리의 값이 가장 큰 포인트가 손목의 관절 포인트가 된다. 그리고 팔꿈치의 관절 포인트는 사각형의 반대편 타측 단변의 중심과 사각형의 중심을 연결하는 선위에 존재하는 점들 중 하나로 선택된다. 여기서, 실험적으로 테스트한 결과 사각형중심에서 변의 중심까지 3/4되는 지점을 팔꿈치가 되도록 하는 것이 바람직하다. 물론, 이는 다리에서 무릎과 발목의 관절 포인트를 찾는 데에도 같은 방법을 적용 가능하다.Then, it can be confirmed that the region adjacent to one side of the shorter side of the shorter side of the rectangle in the generated rectangle corresponds to the elbow, and the region adjacent to the other side of the opposite side corresponds to the elbow. Here, if the geodesic distance information is used, it can be known which of the short short sides of the rectangle corresponds to the wrist. That is, the point having the greatest value of the geodesic distance among the nearby points of the short two short sides of the rectangle becomes the joint point of the wrist. And the joint point of the elbow is selected as one of the points existing on the line connecting the center of the rectangle and the center of the other short side opposite to the rectangle. Here, as a result of an experiment, it is preferable that the elbow be a point 3/4 from the center of the rectangle to the center of the side. Of course, this can be applied to find joint points of the knees and ankles in the legs.
이와 같이, 상술한 단계들을 모두 거치면, 도 15에 도시된 바와 같이, 최종적으로 생체의 관절을 추출한 결과를 나타낸 이미지를 얻을 수 있다.
As described above, if all of the above steps are performed, an image showing the result of finally extracting joints of a living body as shown in Fig. 15 can be obtained.
이상에서 설명한 것은 본 발명에 따른 생체 인식 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.The present invention is not limited to the above-described embodiment, but may be embodied in many other forms without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.
x; 어깨 넓이 y; 거리x; Shoulder width y; Street
Claims (10)
상기 깊이 영상을 통해 배경을 분리하는 단계(B);
배경이 분리된 상기 깊이 영상에서 머리를 추정하여, 생체를 관심영역으로 지정하는 단계(C);
상기 관심영역에서 생체의 관절을 추출하는 단계(D);
상기 관심영역의 중심점을 기준으로 측지 거리 영상을 생성하는 단계(E);
상기 측지 거리 영상에 다수의 랜덤 포인트를 생성하는 단계(F); 및
상기 다수의 랜덤 포인트를 SVM(Support Vector Machine)에 입력하여, 생체의 관절 파트를 분류하는 단계(G); 를 포함하고,
상기 (C)단계에서,
상기 머리를 추정하는 방법은
상기 생체의 머리 지름을 계산하는 단계;
상기 생체의 머리 지름에 따라 2차원 머리 템플릿의 크기를 조절하는 단계;
챔퍼 거리 매칭(chamfer distance matching)을 수행하는 단계;
상기 생체의 머리 후보 영역을 추출하여, 3차원 머리 템플릿에 매칭하는 단계; 및
상기 생체의 머리 위치 및 지름을 반환하는 단계; 를 포함하는 것을 특징으로 하는 생체 인식 방법.(A) generating a depth image of a subject using a 3D sensor and generating a histogram representing a distribution of depth values;
(B) separating the background through the depth image;
A step (C) of estimating a head in the depth image from which background is separated and designating a living body as a region of interest;
(D) extracting a joint of a living body in the region of interest;
(E) generating a geodesic distance image based on a center point of the ROI;
(F) generating a plurality of random points on the geodesic distance image; And
(G) inputting the plurality of random points to a SVM (Support Vector Machine) and classifying joint parts of a living body; Lt; / RTI >
In the step (C)
The method of estimating the head
Calculating a head diameter of the living body;
Adjusting a size of the two-dimensional hair template according to the head diameter of the living body;
Performing chamfer distance matching;
Extracting a head candidate region of the living body and matching it with a three-dimensional head template; And
Returning the head position and diameter of the living body; And a biometric identification method.
상기 (A)단계에서,
상기 깊이 영상을 응용프로그램에서 요구하는 형태로 변환하는 전처리 과정을 수행하는 것을 특징으로 하는 생체 인식 방법.The method according to claim 1,
In the step (A)
And a preprocessing step of converting the depth image into a form required by an application program is performed.
상기 챔퍼 거리 매칭을 수행하는 단계는
상기 배경이 분리된 깊이 영상에서, 경계선을 추출하는 단계;
거리 변환(distance transform) 영상을 생성하는 단계; 및
상기 2차원 머리 템플릿에 매칭하는 단계; 를 포함하는 것을 특징으로 하는 생체 인식 방법.The method according to claim 1,
Wherein performing the chamfer distance matching comprises:
Extracting a boundary line from the background image;
Generating a distance transform image; And
Matching the two-dimensional head template; And a biometric identification method.
상기 (F)단계에서,
상기 다수의 랜덤 포인트의 좌표는 상기 중심점을 원점으로 하는 것을 특징으로 하는 생체 인식 방법.The method according to claim 1,
In the step (F)
Wherein the coordinates of the plurality of random points are the origin of the center point.
상기 (F)단계에서,
상기 다수의 랜덤 포인트의 좌표는 기 설정된 상기 3D 센서와 대상의 거리에 적용하여 정규화 되는 것을 특징으로 하는 생체 인식 방법.6. The method of claim 5,
In the step (F)
Wherein the coordinates of the plurality of random points are normalized by applying the predetermined distance to the 3D sensor and the object.
상기 (F)단계에서,
상기 SVM는 상기 관절 파트를 머리, 목, 몸통, 좌 어깨, 우 어깨, 좌 팔, 우파, 좌 엉덩이, 우 엉덩이, 좌 다리 및 우 다리로 분류하는 것을 특징으로 하는 생체 인식 방법.The method according to claim 1,
In the step (F)
Wherein the SVM classifies the joint part into a head, a neck, a torso, a left shoulder, a right shoulder, a left arm, a right, a left hip, a right hip, a left leg and a right leg.
상기 (G)단계 이후,
상기 관절 파트의 팔을 팔꿈치와 손목 관절로 분류하고, 다리를 무릎과 발목 관절로 분류하는 단계(H)를 더 포함하는 것을 특징으로 하는 생체 인식 방법.8. The method of claim 7,
After the step (G)
Further comprising the step of classifying the arm of the joint part into an elbow and a wrist joint, and classifying the leg into a knee and an ankle joint (H).
상기 (H)단계는,
상기 팔로 분류된 관절 파트에 포함된 상기 랜덤 포인트들을 최소의 넓이로 감싸며, 2개의 단변과 2개의 장변으로 이루어진 사각형을 생성하는 단계;
상기 사각형의 일측 단변에 인접한 상기 랜덤 포인트들 중 상기 측지 거리 영상의 측지 거리 값이 가장 큰 포인트를 손목 관절로 분류하는 단계; 및
상기 사각형의 중심으로부터 사각형의 타측 단변의 중심까지의 3/4인 포인트를 팔꿈치 관절로 분류하는 단계를 포함하는 것을 특징으로 하는 생체 인식 방법.9. The method of claim 8,
The step (H)
Creating a rectangle with two short sides and two long sides, wrapping the random points included in the joint part classified with the arms in a minimum width;
Classifying a point having the largest geodesic distance value of the geodesic distance image as a wrist joint among the random points adjacent to one side of the quadrangle; And
And dividing the point, which is 3/4 from the center of the rectangle to the center of the other side of the rectangle, into an elbow joint.
상기 (H)단계는,
상기 다리로 분류된 관절 파트에 포함된 상기 랜덤 포인트들을 최소의 넓이로 감싸며, 2개의 단변과 2개의 장변으로 이루어진 사각형을 생성하는 단계;
상기 사각형의 일측 단변에 인접한 상기 랜덤 포인트들 중 상기 측지 거리 영상의 측지 거리 값이 가장 큰 포인트를 발목 관절로 분류하는 단계; 및
상기 사각형의 중심으로부터 사각형의 타측 단변의 중심까지의 3/4인 포인트를 무릎 관절로 분류하는 단계를 포함하는 것을 특징으로 하는 생체 인식 방법.9. The method of claim 8,
The step (H)
Creating a rectangle comprising two short sides and two long sides, wrapping the random points included in the joint part classified by the legs in a minimum width;
Classifying a point having the largest geodesic distance value of the geodesic distance image as an ankle joint among the random points adjacent to one side of the quadrangle; And
And classifying a point, which is 3/4 from the center of the rectangle to the center of the other side of the rectangle, into a knee joint.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140023681A KR101620556B1 (en) | 2014-02-27 | 2014-02-27 | Method for Biometric Detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140023681A KR101620556B1 (en) | 2014-02-27 | 2014-02-27 | Method for Biometric Detection |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150101858A KR20150101858A (en) | 2015-09-04 |
KR101620556B1 true KR101620556B1 (en) | 2016-05-12 |
Family
ID=54242895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140023681A KR101620556B1 (en) | 2014-02-27 | 2014-02-27 | Method for Biometric Detection |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101620556B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101723220B1 (en) * | 2016-05-16 | 2017-04-05 | 주식회사 고영로보틱스 | Method for recognizing position of body |
KR101723221B1 (en) * | 2016-05-16 | 2017-04-05 | 주식회사 고영로보틱스 | Method for recognizing motion of person's arm |
KR20190050551A (en) * | 2017-11-03 | 2019-05-13 | 전자부품연구원 | Apparatus and method for recognizing body motion based on depth map information |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008282110A (en) | 2007-05-09 | 2008-11-20 | Univ Of Tokyo | Method and apparatus for acquiring joint structure of object |
-
2014
- 2014-02-27 KR KR1020140023681A patent/KR101620556B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008282110A (en) | 2007-05-09 | 2008-11-20 | Univ Of Tokyo | Method and apparatus for acquiring joint structure of object |
Also Published As
Publication number | Publication date |
---|---|
KR20150101858A (en) | 2015-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2737434B1 (en) | Gait recognition methods and systems | |
Gunay et al. | Automatic age classification with LBP | |
DeCann et al. | Gait curves for human recognition, backpack detection, and silhouette correction in a nighttime environment | |
Do et al. | Real-time and robust multiple-view gender classification using gait features in video surveillance | |
Vasanth et al. | Facial expression recognition using SVM classifier | |
Jindal et al. | An obstacle detection method for visually impaired persons by ground plane removal using speeded-up robust features and gray level co-occurrence matrix | |
Raheja et al. | Hand gesture pointing location detection | |
Barbu | An automatic face detection system for RGB images | |
KR101620556B1 (en) | Method for Biometric Detection | |
Vasconcelos et al. | Methods to automatically build point distribution models for objects like hand palms and faces represented in images | |
Das | Human’s facial parts extraction to recognize facial expression | |
Dixit et al. | Face recognition using approximated bezier curve and supervised learning approach | |
Mousavi et al. | Three dimensional face recognition using svm classifier | |
Mukthineni et al. | Face authenticated hand gesture based human computer interaction for desktops | |
Sharrma et al. | Vision based static hand gesture recognition techniques | |
Jacques et al. | Head-shoulder human contour estimation in still images | |
CN109815786A (en) | A kind of gait recognition method based on Region Entropy feature | |
Paul et al. | Automatic adaptive facial feature extraction using CDF analysis | |
Lin et al. | Face detection algorithm based on multi-orientation gabor filters and feature fusion | |
Pratheepan et al. | Individual identification using gait sequences under different covariate factors | |
Putz-Leszczynska et al. | Gait biometrics with a Microsoft Kinect sensor | |
Mariappan et al. | A labVIEW design for frontal and non-frontal human face detection system in complex background | |
Poursaberi et al. | Modified multiscale vesselness filter for facial feature detection | |
Dixit et al. | A hybrid approach of face recognition using bezier curve | |
Jacques et al. | Improved head-shoulder human contour estimation through clusters of learned shape models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190502 Year of fee payment: 4 |