KR20110068688A - A three-dimensional figure measuring system for use in three dimension figures thing production - Google Patents

A three-dimensional figure measuring system for use in three dimension figures thing production Download PDF

Info

Publication number
KR20110068688A
KR20110068688A KR1020090125760A KR20090125760A KR20110068688A KR 20110068688 A KR20110068688 A KR 20110068688A KR 1020090125760 A KR1020090125760 A KR 1020090125760A KR 20090125760 A KR20090125760 A KR 20090125760A KR 20110068688 A KR20110068688 A KR 20110068688A
Authority
KR
South Korea
Prior art keywords
data
contour
recognition
dimensional
biometric
Prior art date
Application number
KR1020090125760A
Other languages
Korean (ko)
Inventor
김시경
최광진
Original Assignee
한국옐로우페이지주식회사
김시경
최광진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국옐로우페이지주식회사, 김시경, 최광진 filed Critical 한국옐로우페이지주식회사
Priority to KR1020090125760A priority Critical patent/KR20110068688A/en
Publication of KR20110068688A publication Critical patent/KR20110068688A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes

Abstract

PURPOSE: A three-dimensional figure measuring system for manufacturing three-dimensional figures is provided to offer more exact recognition rate than the existing measuring system. CONSTITUTION: A three-dimensional figure measuring system for manufacturing three-dimensional figures comprises the steps of: subdividing head data using a marker position; separating a cross section from points on the surface of the collected head data and abstracting a contour line; checking noise tip identification of an interesting area from a contour map obtained from the abstracted contour line, and abstracting the cross section contour line; compensating a centroid distance vector uniformly using a function abstracting and contour line searching application; and making a performance analysis and defining match points.

Description

3차원 형상물 제작을 위한 입체형상 측정 시스템{A three-dimensional figure measuring system for use in three dimension figures thing production}A three-dimensional figure measuring system for use in three dimension figures thing production}

본 발명은 3차원 형상물 제작을 위한 입체형상 측정시스템에 관한 것으로서, 보다 상세하게는 3차원의 입체로 된 형상물의 표면 형상 데이터로부터 3차원 형상물을 제작하기 위한 각종 데이터를 추출하는 입체형상 측정 방법을 제안하는 것이다. 이 방법은 등고선 데이터로부터 추출된 입체형상의 모양 서명에 의존한다. 따라서 등록 오리엔테이션에 따른 필요 없게 되었다. 모양 서명을 만드는데 번역 및 회전 경계 포인트의 센트로이드(Centroid) 거리를 계산하여 만들어진다. 모양 서명은 관심 지역을 선택한 모양을 서명 및 인증 기능을 벡터로 사용하여 이루어진다. The present invention relates to a three-dimensional shape measurement system for manufacturing a three-dimensional shape, and more particularly to a three-dimensional shape measurement method for extracting various data for manufacturing a three-dimensional shape from the surface shape data of the three-dimensional shape. I would suggest. This method relies on the three-dimensional shape signature extracted from the contour data. This eliminates the need for registration orientation. The shape signature is created by calculating the centroid distance of the translation and rotation boundary points. Shape signing is done using a signature and authentication function as a vector for the shape of the region of interest.

입체형상의 가장 일반적이고 대표적인 예시로, 생체인식이란 보통 사람들의 신체적 특성이나 행동의 특성 등을 통해 인식함을 뜻한다. 예전에는 사진이나 여권, 신분증 등으로 사람을 식별하곤 했다. 비슷한 예로 제한된 장소에 들어가기 위해서는 패스워드나 비밀번호 등을 알아야만 했다. 바이오메트릭스는 이러한 확인과 인증 절차를 생략하고 단지 그 사람이 누구인지 어떻게 행동하는 지만 보여 주면 되게끔 만들었다. 그 사람이 누구인지 라는 것은 개인의 신체적 혹은 유전적 특징을 유출해 내고 개개인만의 특징 있는 행동 패턴이나 기술을 뜻한다. 이런 생리학적인 양상에 속하는 지문, 얼굴, 손모양, 손바닥 문양, 귀, 홍채, 망막 등등을 조사 보고하고 있다. 목소리, 걷는 모양, 필체, 서명, 키입력패턴 인식과 같은 같은 행동적 생체 양상 등은 주의할 필요가 있다. As the most common and representative example of the three-dimensional shape, biometrics refers to the recognition through the physical characteristics and behavioral characteristics of ordinary people. In the past, people were identified by pictures, passports, and ID cards. Similarly, entering a restricted location would require knowing a password or password. Biometrics skips this verification and certification process and lets you just show who you are and how you behave. Who that person is is a person's physical or genetic traits, and it means his or her own distinctive behavioral patterns or skills. Fingerprints, faces, hands, palms, ears, irises, and retinas are included in this physiological aspect. Beware of behavioral biometric features such as voices, walking shapes, handwriting, signatures, and keystroke pattern recognition.

생체인식 시스템의 하드웨어와 소프트웨어 기술의 발전이 지속되면서 대중적인 시장에서의 가격 면에서도 경쟁력이 생겼다. 또한 컴퓨팅 파워, 네트워크 그리고 데이터베이스 시스템의 발전은 생체인식 시스템이 지리학적으로나 네트워크상에서 훨씬 광범위 하게 사용할 수 있게 해주었다. 오늘 날 많은 공공기관과 기업들이 생체인식 시스템을 사용하고 있다. 제조업자는 생체인식 시스템을 컴퓨터 장비들과 함께 공급하는 경우가 늘었다. 많은 제조업자들이 생체인식 시스템 옵션에 지문 센서를 장착한 키보드와 노트북을 공급하는 등 바이오메트릭 센서와 그에 해당하는 기기들을 포함 해서 공급한다.As hardware and software technologies in biometric systems continue to develop, they become competitive in terms of price in the mass market. In addition, advances in computing power, networks, and database systems have made biometric systems much more widely available geographically and on networks. Today, many public institutions and companies are using biometric systems. Manufacturers have increasingly supplied biometric systems with computer equipment. Many manufacturers offer biometric sensors and their devices, including keyboards and laptops with fingerprint sensors in biometric system options.

오늘날 보안의 중요성이 보다 커지면서 바이오메트릭는 카드나 패스워드 등 신분확인에 필요한 여러 증명서들을 잃어 버리거나 도둑 맞는 것에 대한 걱정을 덜게 해준다. 이 빠르고 쉬운 인식 장치는 열쇠, 카드, 비밀번호 보다 더 보안성이 높고 잃어버리거나 잊어 버리는 것을 방지 할 수 있다. 이러한 식별장치들은 시간이 지나도 비교적 바뀔 가능성이 거의 없기 때문이다.As security becomes more important today, biometrics make it easier to worry about losing or stealing multiple credentials, such as cards and passwords. This quick and easy recognition device is more secure than keys, cards and passwords and can be prevented from being lost or forgotten. Such devices are unlikely to change relatively over time.

그러나 생체인식장치가 여러 장점을 가지고 있긴 하지만 취약점과 한계점도 있다는 사실을 간과 해서는 안된다. 생체인식장치를 구축할 때 고려해야 할 사항에는 생체 특성의 구분과 독창성에 대한 등급, 사용자가 얼마나 쉽게 등록하고 재등록을 할 수 있는지, 템플릿과 데이터베이스 매니지먼트등이 있다. 그리고 생체인식장치는 결코 결점이 없는 완벽한 보안 장치가 될 수 없다. 생체인식장치를 통해 보안성, 편리함, 신용성등을 높이기 위해 많은 연구가 이루어 졌다. But while biometric devices have many advantages, it should not be overlooked that they also have vulnerabilities and limitations. Considerations for the construction of biometric devices include the identification of biometric characteristics and the level of originality, how easy a user can register and re-register, and template and database management. And a biometric device can never be a flawless security device. Many studies have been conducted to increase security, convenience, and reliability through biometric devices.

따라서, 본 발명은 상기한 생체인식시스템, 즉 입체형상 측정시스템이 가지는 단점을 보완하고자 안출한 것으로서, 본 발명자들이 개발한 표면학 데이터를 사용한 신기술 인식법을 활용한 3차원 형상물 제작을 위한 입체형상 측정시스템을 제공하는 것을 그 해결과제로 한다. Accordingly, the present invention has been made to compensate for the shortcomings of the above-described biometric system, that is, the three-dimensional shape measuring system, and the three-dimensional shape for the production of three-dimensional shape using the new technology recognition method using the surface data developed by the present inventors. The challenge is to provide a measurement system.

상기한 과제를 해결한 본 발명의 3차원 형상물 제작을 위한 입체형상 측정시스템은 마커포지션을 이용한 헤드데이터를 세분화하는 단계; 상기 수집된 헤드데이터의 표면상의 점들로부터 크로스섹션을 분리하여 윤곽선을 추출하는 단계; 상기 추출된 윤곽선으로부터 얻어지는 등고선 지도에서 관심지역의 기수 끝(Nose tip identification)을 확인하고, 크로스섹션 등고선을 추출하는 단계; 상기 등고선을 추출한 후, 기능 추출 등고선 검색 어플리케이션을 이용하여 센트로이드(centroid)거리 벡터를 균등하게 경계 스플라인 보간을 사용하여 보정하는 단계; 및 상기 센트로이드 거리 벡터를 보정한 후, 수행 분석을 하여 매치점수를 정의 하는 단계로 이루어진다. The three-dimensional shape measuring system for producing a three-dimensional object of the present invention solved the above problem is the step of subdividing the head data using the marker position; Extracting a contour by separating cross sections from points on the surface of the collected head data; Identifying a nose tip identification of a region of interest from a contour map obtained from the extracted contour, and extracting a cross-section contour; After extracting the contour, correcting the centroid distance vector using boundary spline interpolation using a function extraction contour search application; And correcting the centroid distance vector, and performing a performance analysis to define a match score.

여기서, 상기 크로스섹션 등고선의 추출은 하기의 식3 내지 5를 만족하는 것을 특징으로 한다. Here, the extraction of the cross section contour is characterized by satisfying the following Equations 3 to 5.

(식 4)(Equation 4)

Figure 112009077950517-PAT00001
Figure 112009077950517-PAT00001

A 영역에서 위와 같이 계산한다. Calculate as above in area A.

Centroid는 C=(Cx,Cy)로 하여Centroid is set to C = (Cx, Cy)

(식 5)(Eq. 5)

Figure 112009077950517-PAT00002
Figure 112009077950517-PAT00002

(식 6)(Equation 6)

Figure 112009077950517-PAT00003
Figure 112009077950517-PAT00003

여기서, 상기 기능 추출 등고선 검색 어플리케이션을 이용하여 센트로이드(centroid)거리 벡터는 하기 식 7에 따라 정의 되는 것을 특징으로 한다. In this case, the centroid distance vector using the function extraction contour search application is defined according to Equation 7 below.

(식 7)(Eq. 7)

Figure 112009077950517-PAT00004
Figure 112009077950517-PAT00004

(여기서, Cj=(Cjx, Cjy)는 Jth 등고선의 센트로이드이고, (Xji, Yji)는 경계선의 포인트이다.)(Where C j = (C jx , C jy ) is the centroid of the J th contour, and (X ji, Y ji ) is the point of the boundary.)

여기서, 상기 헤드데이터의 수집은 대상의 모형 이미지를 0에서 360도에 따른 선으로 표현하는 라돈 변환을 사용하는 것을 특징으로 한다. Here, the collection of the head data is characterized by using a Radon transform that represents the model image of the object as a line from 0 to 360 degrees.

본 발명에 따른 3차원 형상물 제작을 위한 입체형상 측정시스템은 종래의 입체형상 측정시스템을 개선한 것으로 본 발명의 입체형상 측정시스템을 적용할 경우 제도 평등 오류 속도를 4.563 % 달성하여 종래의 측정시스템보다 정확한 인식률을 제공하게 되며, 이를 이용한 3차원 형상물을 제작하는 보다 정확한 데이터를 구축할 수 있게 될 뿐만아니라, 이 데이터를 생체에 적용할 경우 각종 보안시스템 등에 바로 적용 가능한 효과가 있다.The three-dimensional shape measuring system for manufacturing a three-dimensional object according to the present invention is an improvement of the conventional three-dimensional shape measuring system. When the three-dimensional shape measuring system of the present invention is applied, the drafting error rate is 4.563%, which is higher than that of the conventional measuring system. Providing accurate recognition rate, it is possible not only to construct more accurate data for manufacturing a three-dimensional shape using this, but also when applied to the living body, there is an effect that can be directly applied to various security systems.

이하, 본 발명을 보다 상세히 설명하기로 한다. Hereinafter, the present invention will be described in more detail.

본 발명의 일실시예에 따라 도시된 도 1은 전형적인 입체형상 측정 시스템의 주요 구성요소를 도시한 것이다.1, shown in accordance with one embodiment of the present invention, illustrates the major components of a typical stereoscopic measurement system.

도 2는 ROC 그래프 모형의 예시를 도시한 것이다.2 illustrates an example of a ROC graph model.

도 3은 여러 생체인식 특성의 예시를 도시한 것이다.3 illustrates an example of several biometric features.

도 4는 외관상의 데이터 베이스에 따른 네가지 다른 자세를 도시한 것이다.4 shows four different postures according to an apparent database.

도 5는 3차원 얼굴에서의 랜드마크 마커(a) 및 마커와 정보가 제거된 3차원 형상(b)을 도시한 것이다.FIG. 5 shows a landmark marker (a) in a three-dimensional face and a three-dimensional shape (b) from which markers and information have been removed.

도 6은 크로스섹션 등고선을 마커와 정보가 제거된 3차원 형상에서 추출한 것이다.6 is a cross section contour extracted from a three-dimensional shape from which markers and information are removed.

도 7은 코끝확인 절차과정 데모를 도시한 것이다.7 shows a demonstrating nose tip procedure.

도 8은 4개의 선별된 등고선 기능 추출을 도시한 것이다.8 shows four selected contour function extractions.

도 9는 실사용자와 사기꾼간의 서로 다른 임계값 설정을 위한 데이터를 도시한 그래프이다.9 is a graph illustrating data for setting different threshold values between an actual user and a fraudster.

도 10은 수용자의 작업특성곡선(a)과 의사결정요류곡선(b)을 도시한 그래프이다.10 is a graph showing the work characteristic curve (a) and the decision flow curve (b) of the prisoner.

도 11은 본 발명의 다이아그램 흐름도이다.11 is a diagram flow diagram of the present invention.

도 12는 본 발명의 일실시예에 따른 라돈 변화를 도시한 것이다.12 illustrates a change in radon according to an embodiment of the present invention.

도 13은 본 발명의 일실시예에 따른 수집된 손이미지를 도시한 것이다.Figure 13 shows the collected hand image according to an embodiment of the present invention.

도 14는 본 발명의 일실시예에 따른 회색스케일 바이너리변환을 도시한 것이다.14 illustrates grayscale binary conversion according to an embodiment of the present invention.

도 15는 본 발명의 일실시예에 따라 손목 부분을 성공적으로 지운 후의 상태를 도시한 것이다.Figure 15 shows the state after successfully clearing the wrist portion in accordance with an embodiment of the present invention.

도 16은 본 발명의 일실시예에 따라 손목 부분을 지운 후, 센트로이드 거리를 계산하기 위한 일례를 도시한 것이다.16 illustrates an example for calculating the centroid distance after erasing the wrist part according to an embodiment of the present invention.

도 17은 본 발명의 일실시예에 따른 불변하는 기능의 압축된 포지션의 일예를 도시한 것이다.17 illustrates an example of a compressed position of an invariant function according to an embodiment of the present invention.

도 18은 본 발명의 일실시예에 따른 FAR과 FRR의 다른 입계값 분포(a) 및 ROD곡선(b)을 도시한 것이다.18 illustrates another grain boundary value distribution (a) and an ROD curve (b) of FAR and FRR according to an embodiment of the present invention.

도 19는 본 발명의 일실시예에 따른 플로우 다이아그램을 도시한 것이다.19 illustrates a flow diagram according to an embodiment of the present invention.

도 20은 본 발명의 일실시예에 따른 발과 관련된 X, Y, Z축을 도시한 것이다.20 illustrates X, Y, and Z axes associated with a foot in accordance with one embodiment of the present invention.

도 21은 본 발명의 일실시예에 따른 3가지 좌표축을 이용한 일반적인 힘측정판 데이터를 도시한 그래프이다.FIG. 21 is a graph illustrating general force measuring plate data using three coordinate axes according to an embodiment of the present invention.

도 22는 본 발명의 일실시예에 따른 웨이블렛이 소음제거하기 전의 Z축을 따른 걸음걸이 데이터를 도시한 것이다.FIG. 22 illustrates gait data along the Z-axis before the wavelet removes noise according to an embodiment of the present invention.

도 23은 본 발명의 일실시예에 따른 웨이블렛이 소음제거한 후의 Z축을 따른 걸음걸이 데이터를 도시한 것이다.FIG. 23 is a diagram illustrating gait data along the Z axis after the wavelet is noise canceled according to an embodiment of the present invention. FIG.

도 24는 본 발명의 일실시예에 따른 대상1의 X축의 3회 힘측정판 데이터를 도시한 그래프이다. 24 is a graph illustrating three times the force measurement plate data of the X axis of the object 1 according to an embodiment of the present invention.

도 25는 도 24에 대응하는 10 저장소 히스토그램을 도시한 것이다.FIG. 25 illustrates a ten store histogram corresponding to FIG. 24.

도 26은 본 발명의 일실시예에 따른 히스토그램 유사점을 찾는 절차 단계를 도시한 것이다.Figure 26 illustrates a procedural step of finding histogram similarities according to an embodiment of the present invention.

본 발명은 입체형상 측정 시스템으로 마커포지션을 이용한 헤드데이터를 세분화하는 단계; 상기 수집된 헤드데이터의 표면상의 점들로부터 크로스섹션을 분리하여 윤곽선을 추출하는 단계; 상기 추출된 윤곽선으로부터 얻어지는 등고선 지도에서 관심지역의 기수 끝(Nose tip identification)을 확인하고, 크로스섹션 등고선을 추출하는 단계; 상기 등고선을 추출한 후, 기능 추출 등고선 검색 어플리케이션을 이용하여 센트로이드(centroid)거리 벡터를 균등하게 경계 스플라인 보간을 사용하여 보정하는 단계; 및 상기 센트로이드 거리 벡터를 보정한 후, 수행 분석을 하여 매치점수를 정의 하는 단계로 이루어진다. The present invention comprises the steps of subdividing the head data using the marker position with a three-dimensional shape measurement system; Extracting a contour by separating cross sections from points on the surface of the collected head data; Identifying a nose tip identification of a region of interest from a contour map obtained from the extracted contour, and extracting a cross-section contour; After extracting the contour, correcting the centroid distance vector using boundary spline interpolation using a function extraction contour search application; And correcting the centroid distance vector, and performing a performance analysis to define a match score.

여기서, 상기 크로스섹션 등고선의 추출은 하기의 식3 내지 5를 만족한다. Here, the extraction of the cross section contours satisfies Equations 3 to 5 below.

(식 4)(Equation 4)

Figure 112009077950517-PAT00005
Figure 112009077950517-PAT00005

A 영역에서 위와 같이 계산한다. Calculate as above in area A.

Centroid는 C=(Cx,Cy)로 하여Centroid is set to C = (Cx, Cy)

(식 5)(Eq. 5)

Figure 112009077950517-PAT00006
Figure 112009077950517-PAT00006

(식 6)(Equation 6)

Figure 112009077950517-PAT00007
Figure 112009077950517-PAT00007

여기서, 상기 기능 추출 등고선 검색 어플리케이션을 이용하여 센트로이드(centroid)거리 벡터는 하기 식 6에 따라 정의 된다. Here, the centroid distance vector using the function extraction contour search application is defined according to Equation 6 below.

(식 7)(Eq. 7)

Figure 112009077950517-PAT00008
Figure 112009077950517-PAT00008

(여기서, Cj=(Cjx, Cjy)는 Jth 등고선의 센트로이드이고, (Xji, Yji)는 경계선의 포인트이다.)(Where C j = (C jx , C jy ) is the centroid of the J th contour, and (X ji, Y ji ) is the point of the boundary.)

여기서, 상기 헤드데이터의 수집은 대상의 모형 이미지를 0에서 360도에 따른 선으로 표현하는 라돈 변환을 사용한다. Here, the collection of the head data uses a radon transform that represents the model image of the object as a line from 0 to 360 degrees.

이하, 본 발명을 첨부도면을 참조하여 보다 상세히 설명하기로 한다. 특히, 하기의 설명에서는 입체형상을 가장 일반적이고 대표적이며 복잡한 형태를 갖는 생 체로 예시하고, 입체형상의 측정을 생체인식으로 대입하여 기술할 것임을 밝혀둔다. 단, 하기의 설명이 본 발명을 한정하는 것은 아니다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings. In particular, in the following description, it is exemplified that the three-dimensional shape will be illustrated as a living body having the most general, representative and complicated shape, and the measurement of the three-dimensional shape will be described by substituting the biometrics. However, the following description does not limit the present invention.

본 발명의 중요성은 신생체인식장치의 기술을 몇 가지 소개 하는데 있다. 여러 생체인식 요소인 얼굴, 손모양, 강제 프로필을 연구하고 이에 따른 기능 추출 방법 역시 개발되고 평가되고 있다.The importance of the present invention is to introduce some of the techniques of new biometric devices. Various biometric factors such as face, hand shape, and forced profile are studied and function extraction methods are also developed and evaluated.

본 발명은 생체인식시스템, 양식, 성능 인증에 대한 5개의 부분으로 이루어져 있다. 첫째로, 생체인식에 대한 간단한 소개가 있다. 보통의 생체인식시스템의 중요 부분에 대한 설명이 있다. 각 성능 분석에 대한 용어는 설명되어 있다. 생리학 특성과 행동 양식에 대한 특성 역시 간단하게 소개되었다. 또한 생체인식 시스템에 대한 장단점도 기술되었다.The present invention consists of five parts: biometric systems, forms, and performance certifications. First, there is a brief introduction to biometrics. There is a description of important parts of a normal biometric system. The terminology for each performance analysis is explained. Physiological and behavioral characteristics were also briefly introduced. The pros and cons of biometric systems have also been described.

둘째로, 3D 표면형상 데이터를 이용한 안면인식방법이 소개 된다. 1D 표면형상 과정이 소개되고 100개 대상을 통한 연구 결과도 소개 된다. Second, facial recognition method using 3D surface shape data is introduced. The 1D surface geometry process is introduced and the research results from 100 subjects are introduced.

셋째로, 손모양 인식을 위한 18개의 대상이 136의 낮은 해상도 이미지로 이루어 지는 것을 보여준다. 불변적특성을 라돈을 통해 이동하는 좋은 케이스를 보여준다. Third, 18 objects for hand recognition consist of 136 low resolution images. It shows a good case of moving invariant properties through radon.

넷째로, 압력에 민감한 메이트에 사람이 올라갔을 때 보여지는 그라운드 리액션 포스에 따른 생체인식장치에 대한 설명도 있다. 포스 프로필이 인증에 사용되며 막대그래프를 바탕으로 한 방법이 인식 결정에 사용된다.Fourth, there is a description of the biometric device according to the ground reaction force seen when a person climbs on a pressure sensitive mate. Force profiles are used for authentication, and histogram-based methods are used for recognition decisions.

다섯째로, 향후 연구에 대한 가이드라인과 이번 연구 결과와 방법에 대한 요약이 있다.Fifth, there are guidelines for future research and a summary of the results and methods of this study.

첫재, 생체인식 시스템에 대한 개요First, an overview of biometric systems

‘생체 인식 기술’이라는 용어에서 비롯된 '바이오메트릭스'는 최근에는 용어의 의미를 인간의 본질 중 하나 이상의 물리적 또는 행동 특성에 따라 생체인식을 위한 방법의 연구를 포함하도록 확대되었다. 생체 인식 시스템으로 기능을 설정하고 그 이전에 취득한 등록 데이터베이스와의 비교에서 여러 개인 데이터를 얻는다. 그 생체 인식 시스템의 개발에 기여하는 몇 가지 주요 측면인 견고성과 특수성이 있다. 견고성은 자동 측정을 위한 바이오메트릭의 일관성을 말한다. 견고성은 생체 인식 시스템의 보존성 및 안정성 기능이다. 특수성은 사용자 그룹에서 한 개인의 고유한 생체적 특징을 다른 사람들과 구분하는 걸 말한다. 한 예로 지문은 손 모양보다 더 구분이 쉽다.Biometrics, derived from the term 'biometric technology', has recently been expanded to include a study of methods for biometrics, meaning that the meaning of the term depends on one or more of the physical or behavioral characteristics of human nature. Set up the function with a biometric system and obtain several personal data in comparison with a previously acquired registration database. There are several key aspects that contribute to the development of the biometric system, robustness and specificity. Robustness refers to the consistency of biometrics for automated measurements. Robustness is a preservation and stability function of a biometric system. Specificity refers to the distinction of a person's unique biological characteristics from others in a group of users. For example, fingerprints are easier to distinguish than the shape of a hand.

생체 기능의 데이터는 대개 두 가지 상황에서 수행된다. 그 중 하나는 데이터가 알려진 사용자로 부터 오는 '닫힌 집합'작업이다. 다른 하나는 '공개 집합’으로 알려지지 않는 사용자로부터 올지도 모른다. 혹은 시스템이 위의 '옵션' 중 선택 사항이 없음 이라는 상황이 있다. 또한 생체 인식 시스템은 두 개의 서로 다른 모드 인증 (또는 검증)와 식별법에서 작동할 수 있다. 인증 모드에서는, ‘원 투 원 맵핑’이라는 사용자 인증을 요구하게 되며 이 경우에는 사용자가 어느 생체 인식 기능과 시스템의 하나 또는 그 이상을 제시하여 자신의 주장을 수락하거나 거부하는 자신의 정체성을 주장하고 있다. 식별 모드 시스템은 '많은 비교'중 하나를 수행하여 알려진 사용자의 집합에서 사람을 식별한다. 보통 생체 인식 시스템이 비슷하거나 매칭 점수에 따라 사용자의 인증에 대해 수락하거나 인증을 거부하기로 한 설정 인식 알고리즘은 다음과 같다.Biological function data is usually performed in two situations. One of them is the 'closed set' operation from which the data is known. The other may come from a user not known as the "public set." Or there is a situation where the system has no choice among the 'options' above. The biometric system can also operate on two different modes of authentication (or verification) and identification. In authentication mode, a user authentication called "one-to-one mapping" is required, in which case the user asserts his or her identity by presenting one or more of a biometric function and system to accept or reject his claim. have. The identification mode system identifies one from a set of known users by performing one of the 'many comparisons'. In general, a configuration recognition algorithm, in which a biometric system is similar or which accepts or rejects authentication of a user according to a matching score, is as follows.

생체 인식 시스템은 여러 신체 또는 행동 특성인 지문, 얼굴, 손모양, 홍채, 망막, 서명, 걸음걸이, 손바닥 지문, 음성, 귀, 손 정맥, 냄새, DNA 정보등을 통해 식별한다. 문학에서는 이것을 특성, 식별자 또는 양식이라고 한다. 자신의 한계에도 불구하고 <4>생체 인식 시스템은 기존의 보안 방법보다 쉽게 도난 당하지 않는다. 또한, 생체 인식 시스템도 필요에 따라 설계 및 암호를 기억하고 경감 시켜줌으로써 사용자의 편의를 강화했다.Biometric systems identify various physical or behavioral characteristics through fingerprints, faces, hands, irises, retinas, signatures, gait, palm prints, voice, ears, hand veins, odors, and DNA information. In literature this is called a characteristic, identifier or form. Despite their limitations, biometric systems are not easily stolen than conventional security measures. In addition, the biometric system enhances user convenience by memorizing and reducing the design and password as needed.

디지털 신호 처리의 발전은 지문, 음성, 손, 얼굴 데이터를 자동화 시스템에 적합하도록 하였다. 빠른 컴퓨터의 가용성 및 향상된 감지 기술은 컴퓨터 비전 및 통계적 패턴 인식에서 중요한 발전과 더불어 홍채, 망악, 걸음걸이 등에서 생체인식데이터에 보다 적합할 수 있도록 발전되었다. 또한 3D 모델링 및 그래픽은 손, 얼굴과 귀에의 다양한 이미지와 같은 3 차원 생체 인식 데이터 처리에 대한 길을 열어주었다.Advances in digital signal processing have made fingerprint, voice, hand and face data suitable for automated systems. Faster computer availability and improved detection technology have been developed to make it more suitable for biometric data in iris, mandala, gait, etc., with significant advances in computer vision and statistical pattern recognition. 3D modeling and graphics have also paved the way for processing 3-D biometric data such as various images of hands, faces and ears.

[생체인식 특성의 타입] [Types of Biometric Characteristics]

생체인식 특성에는 유전적 생리학적 그리고 행동적 특성이 있다. 각 특성에 관한 짧은 설명은 아래와 같다. Biometric properties include genetic physiological and behavioral properties. A brief description of each feature follows.

<유전학적 특성 > Genetic characteristics

부모로부터 물려 받은 머리색, 눈동자 색 등이 이에 포함 된다. 얼굴 골격 같은 경우 바뀌는 경우가 매우 힘들기 때문에 차별화 된 특성으로 이용하기 좋다.This includes hair color and eye color inherited from parents. In the case of facial skeleton, it is very difficult to change, so it is good to use as a differentiated characteristic.

<생리학적 특성>Physiological characteristics

이 특성은 ‘내가 누구인가’라는 질문의 답이다. 즉 사람이 가지고 있는 지문, 손모양, 홍채, 망막등의 패턴 등이 있다.This is the answer to the question 'Who am I?' That is, there are patterns such as fingerprints, hand shapes, irises, and retinas that a person has.

<행동학적 특성>Behavioral Characteristics

이 특성은 배우거나 훈련된 특성이다. 이러한 특성에는 음성, 사인, 걸음걸이 등이 있다. 이론에 따르면 이러한 특성은 바뀔 수도 있고 다시 배울 수도 있다. 그러나 보통의 경우 성인이 된 경우 이 특성들은 특별하고 엄격한 훈련이 없는 한 바뀌기 어렵다.This character is a learned or trained character. These characteristics include voice, sine, gait and so on. According to the theory, these characteristics can change or relearn. But in the general case of adulthood, these traits are difficult to change unless there is special and rigorous training.

모든 바이오메트릭스에는 유전학적, 생리학적, 행동학적 특성을 포함하고 있다. 일례로 사람이 손가락이나 얼굴을 생체인식 기기에 가져가 대는 행위에도 행동학적 특성이 있다. 기본적으로 대중적인 생체인식은 유전학적 특성에 기반한 생체인식 체제를 사용하고 있다. All biometrics include genetic, physiological and behavioral characteristics. For example, there is a behavioral characteristic when a person touches a finger or face to a biometric device. Basically, popular biometrics uses a biometric system based on genetics.

전형적인 생체인식 시스템의 구성요소를 첨부도면 도1을 참조하여 설명하기로 한다. Components of a typical biometric system will be described with reference to FIG. 1.

도 1 은 생체인식 시스템의 보편적인 흐름을 보여준다. 시스템은 아래와 같은 구성요소를 가지고 있다.1 shows the general flow of a biometric system. The system has the following components.

<데이터 습득><Data acquisition>

이 과정에서 생체인식 양상을 보여준다. 생체인식의 디지털방식으로 검색하고 포착하는 과정과 결과에 따른 데이터를 시그널 프로세싱 기능으로 전환한다. 데이터는 원격위치에서 포착되었을 경우 전환 되기 전에 압축되거나 코드화 된다.In this process, biometrics are shown. It converts the biometric digital search and capture process and the resulting data into signal processing. If data is captured at a remote location, it is compressed or coded before being converted.

<전송 채널><Transport channel>

이 과정은 근본적인 기능 구성간의 의사 소통 방법을 의미한다. 어떤 시스템은 자급식화 되어 있거나 기기안에 전송채널이 장착 되어 있다. 다른 시스템은 중앙 데이터 저장소에 여러 곳에서 모은 데이터를 저장하고 전송하는 방식을 택하고 있다. 전송 채널에 방해가 될 수 있는 시스템은 LAN, 개인 인터넷 혹은 일반적인 인터넷도 포함 된다. This process means a way of communicating between fundamental functional constructs. Some systems are self-contained or have a transmission channel in the unit. Other systems choose to store and transfer data collected from multiple locations in a central data store. Systems that can interfere with the transmission channel include the LAN, the private Internet or the general Internet.

<시그널 프로세싱><Signal Processing>

이 섹션에서 정리되지 않은 생체인식 데이터는 미리 포착한 템플릿과 매칭하게 되어있다. 세분화된 샘플과 자료들은 새로운 템플릿을 만드는데 쓰인다. 세분화란 백그라운드로부터 관련된 생체인식 데이터를 분리하는 것을 뜻한다. 신분증이나 인식증에 따라 새로 만들어진 템플릿은 매칭 알고리즘에 따라 하나나 그 이상의 관련 템플릿과 비교하게 된다. 매칭 알고리즘의 결과가 매치 점수가 되며 얼마나 템플릿이 서로 비슷한지를 뜻한다.In this section, the unorganized biometric data will be matched against a pre-captured template. Fine-grained samples and materials are used to create new templates. Segmentation means the separation of relevant biometric data from the background. Newly created templates based on ID or ID are compared with one or more related templates according to matching algorithms. The result of the matching algorithm is the match score and indicates how similar the templates are.

<결정방식><Decision method>

이것은 시그널 프로세싱의 마지막 단계로서 매치가 되는지 아닌지에 따른 여부를 결정하는 단계이다. 보통 경험한 적이 있는 임계값을 사용하거나 점수가 맞아 떨어지는 경우 새로운 매치가 발생된다. 소개된 결정방식은 일반적인 결정 방식의 한 예이다. 다른 경우 실수요자 필요요건에 따른 실수요자에 의해 결정되어진다.This is the final step in signal processing that determines whether or not a match is made. Normally, a new match will occur if you use a threshold you've experienced or if your score drops. The decision method introduced is an example of a general decision method. In other cases, it is determined by the real factor according to the real factor requirement.

[생체인식 시스템의 수행 평가][Performance Assessment of Biometric Systems]

인식시스템의 수행 평가는 보통 ‘성공적인 인식율’이나 ‘정확한 인지 율(Correct Recognition Rate)’에 따라 점수가 매겨진다(식 1). Performance evaluation of the recognition system is usually scored according to the 'successful recognition rate' or 'correct recognition rate' (Equation 1).

(식 1)(Equation 1)

CRR = 인식을 정확하게 사람 수 / 총 사람 * 100% CRR = the number of people correctly recognized / total people * 100%

생체인식이나 변별은 2가지 형태의 에러를 상충관계를 발견 하는 일이다. 1번째 에러는 실사용자가 시스템상의 문제로 거절당하거나(False Rejection), 일치하지 않거나 감지가 되지 않을 경우다. 2번째 경우 사기꾼이 실사용자로 받아 들여지는 (False Acceptance)이다. 이 두 가지의 에러는 결정임계값을 변화시키는 여러 요소로 작용할 수 있다. 좀 더 안전한 보안 시스템은 낮은 FA과 높은 FR을 지양하고 있다. 일반적으로 운영포인트를 완만하게 지나는 완성된 트레이드오프는 생체인식 수행을 식별하는데 쓰인다. 오인식률/타인수락률(False Acceptance Rate)과 본인거부률(False Rejection Rate’을 정의 하는 것은 다음과 같다(식 2, 3).Biometrics or discrimination is the discovery of a trade-off between two types of errors. The first error is when the real user is rejected for a system problem (False Rejection), does not match or is not detected. In the second case, a fraudster accepts a real user. These two errors can act as a factor in changing the threshold. More secure security systems avoid low FAs and high FRs. In general, completed tradeoffs that gently cross the operating point are used to identify biometric performance. The false acceptance rate / False Acceptance Rate and False Rejection Rate are defined as follows (Equations 2 and 3).

(식 2)(Equation 2)

FAR= 사기꾼을 승인한 숫자 / 총 사기꾼 * 100% FAR = number of authorized cheats / total cheats * 100%

(식 3)(Equation 3)

FRR= 실사용자를 거부한 숫자 / 총 실사용자 * 100% FRR = Number of actual users rejected / total actual users * 100%

수행능력은 수신자판단특성(Receiver Operating Characteristics)플롯으로 볼 수 있으며 FRR은 FAR에 대비해 결정임계값을 변화하는 요인이다. 도형1.2의 ROC 플롯을 보면 플롯의 왼쪽 하단이 바람직한 값으로서 두 가지 에러 요소를 최소화한 구역이다. 그러나 수행이 잘 된 시스템의 ROC 플롯은 대부분 왼쪽하단 코너에서 만나게 되는데 이것은 경쟁 체제를 선명하게 보여주는 것에 방해가 된다. 최 근에는 다양한 ROC 플롯과 수정된 평가방법 사용(Detection Error Tradeoff)플롯을 사용하고 있으며 이 플롯들은 보통의 편차 스케일을 사용했다. 이것은 수행능력이 높고 좀더 직선적인 곡선을 만들면서 왼쪽하단 코너에서 곡선을 이동하는데 영향을 끼쳤다. Performance can be viewed as a Receiver Operating Characteristics plot, and FRR is a factor that changes the threshold for FAR. Looking at the ROC plot in Figure 1.2, the lower left corner of the plot is the preferred value and the area that minimizes the two error components. However, the ROC plot of a well-performing system is mostly met in the lower left corner, which hinders a clear view of the competition system. Recently, a variety of ROC plots and a modified Error Error Offset plot were used, which used a normal deviation scale. This affected the movement of the curve in the lower left corner, creating a more straightforward curve with higher performance.

비록 완성된 DET나 ROC 곡선이 시스템에러 트레이드오프를 설명하는데 필요하지만 한 자리 숫자로 수행평가를 보고하는데 적합하다. 종종 FAR과 FRR이 같을 때 ROC 곡선에 나타나는 Equal Error Rate(EER)은 한 자리 숫자를 사용했다. Although a complete DET or ROC curve is needed to account for system error tradeoffs, it is suitable for reporting performance evaluations in single digits. Often the Equal Error Rate (EER), which appears on the ROC curve when FAR and FRR are equal, uses a single digit.

FRR과 FAR을 제외하고 생체인식시스템은 2가지 에러를 더 가지고 있다. 하나는 Failure to Capture(FTC)인데 이것은 시스템이 샘플의 특성을 포착하는데 실패한 경우이다. 이런 현상은 디지털 카메라에 이상이 있어 선명한 이미지를 포착하는데 실패하는 등의 경우에 일어날 수 있다. 다른 에러는 Failure to Enroll(FTE)인데 시스템에 성공적으로 들어갈 수 없는 사용자 비율을 상징한다. 사용자 훈련은 양질의 생체인식 데이터를 획득하는데 필요하다.(도 2 참조)Except for FRR and FAR, biometric systems have two more errors. One is Failure to Capture (FTC), which is when the system fails to capture the characteristics of the sample. This can happen when something is wrong with your digital camera and fails to capture clear images. Another error is Failure to Enroll (FTE), which represents the percentage of users who cannot successfully enter the system. User training is necessary to obtain good biometric data (see Figure 2).

[여러 다른 생체인식 세부원칙에 대한 간단한 설명(도 3 참조)][A brief description of the different biometrics detailed principles (see Figure 3)]

일반적으로 사용하는 생체인식 특성을 간단하게 소개한다.Here's a quick introduction to commonly used biometrics.

<얼굴> <Face>

얼굴은 사람들이 서로를 알아보는데 제일 많이 사용하는 생체적인 특징 이다. 제일 많이 쓰이는 안면인식 방법으로는 눈, 눈썹, 코, 입술, 턱 등의 얼굴 윤곽의 공간 배치나 기본적인 얼굴형 숫자의 조합 가중치를 바탕으로 한 얼굴 이미지 전체 분석이 있다<14>. 대중적인 시스템에서는 얼굴이미지를 얻을 때 몇 가지 제 안 사항이 있다. 고정된 심플한 배경과 통제된 조명이 그에 해당한다. 이 시스템에서는 다른 조명 환경에서나 다른 두가지 시선에서 얼굴 이미지가 포착되면 매칭하는데 어려움을 느낀다. 안면인식 시스템을 좀더 잘 하기 위해서는 자동적으로 원하는 이미지를 얼굴에서 포착 할 수 있고 그 이미지를 일반적인 뷰포인트에서 인식할 수 있게 해야한다.Faces are the most biological features people use to recognize each other. The most commonly used facial recognition methods are the spatial analysis of face contours such as eyes, eyebrows, nose, lips, and chin, and the overall analysis of face images based on the combined weight of basic facial figures. In popular systems there are several suggestions for obtaining face images. This includes a fixed simple background and controlled lighting. In this system, it is difficult to match when face images are captured in different lighting conditions or in two different eyes. To make a facial recognition system better, you need to be able to automatically capture the image you want on your face and to recognize it from a common viewpoint.

<지문><Fingerprint>

지문인식의 정확성은 매우 높다고 알려졌다.<16, 17> 지문은 손가락 끝의 표면에 나타나는 굴곡들의 패턴으로서 처음 7개월간의 태아 형성기에 만들어 진다. 널리 알려진대로 일란성 쌍둥이의 지문도 다를뿐만 아니라 개인의 각 열손가락의 지문 모두 다르다<18>. 현재 사용되는 지문인식시슴템은 범죄학에서도 쓰일 만큼 가격도 합리적이며 정확도도 높다. 개인의 여러 지문을 시스템으로 전송을 하는 것은 보다 광범위한 신분확인에 필요한 정보를 얻을 수 있다. 다만 한가지 문제점으로는 지문 인식 시스템은 많은 전상상의 정보와 자원을 필요로 하며 특히 신분확인 모드에서 더 그렇다.The accuracy of fingerprint recognition is known to be very high. <16, 17> Fingerprints are patterns of curves that appear on the surface of the fingertips and are produced during the first seven months of fetal formation. As is widely known, the fingerprints of identical twins are different as well as the fingerprints of each ten fingers of an individual. Currently used fingerprint recognition systems are reasonably priced and accurate enough to be used in criminology. Transmitting multiple fingerprints of an individual to the system can provide the information needed for wider identification. The only problem is that the fingerprint recognition system requires a lot of information and resources, especially in identification mode.

<손모양><Hand shape>

손모양 인식 시스템은 개인의 손 형태, 손바닥 사이즈, 손가락 길이와 넓이등을 잰 수치에 기반한다. 일반적인 손모양 인식 시스템은 세계적으로 여러군데에서 쓰이고 있다. 이 시스템의 기술은 매우 단순하고 다른 것과 비교했을 때 쉽게 사용할 수 있고 그닥 비싸지 않다. 그러나 손모양에 따른 분석은 그다지 다른점을 찾기가 어렵고 많은 숫자의 사람들을 상대로 하기엔 이 시스템을 사용할 수가 없다. 또한 성장기에 있는 아이들의 경우에는 이런 정보들이 변하기 때문에 사용할 수 없다. 덧붙여 각 개인의 보석 착용이나 손재주의 한계등은 정확한 손모양 정보에 방해가 된다.The hand recognition system is based on individual hand types, palm size, finger length and width. General hand recognition systems are used in many places around the world. The technology in this system is very simple and easy to use and inexpensive when compared to others. But hand-based analysis is very difficult to find, and you can't use this system to deal with a large number of people. Also, children who are growing up cannot use this information because it changes. In addition, each person's jewelry wearing or dexterity limits interfere with accurate hand shape information.

<손바닥 프린트><Palm print>

이것은 지문과 마찬가지로 사람의 손바닥에 있는 곡선과 언덕들의 패턴이다. 손바닥에 있는 프린트는 지문보다 더 넓은 공간이기 때문에 지문보다 더 정확하다. 사람의 손바닥에는 다른 모양의 손금이나 주름이 있는데 이것들은 저해상도 스캐너에서도 포착 할 수 있기 때문에 가격면에서도 싸다<21>. 따라서 고해상도의 스캐너로 이런 모든 손모양의 특징들을 포착하게 되면 정확도가 매우 높아진 생체인식 시스템이 만들어 진다.This is a pattern of curves and hills in the palm of a person, just like a print. The print on the palm is more accurate than the print because it is more space than the print. The palms of people have different shapes of palms and wrinkles, which are cheap in terms of price because they can be captured by low-resolution scanners. Thus, capturing all these hand features with a high resolution scanner creates a highly accurate biometric system.

<홍채><Iris>

홍채는 동공과 공막으로 둘러 쌓인 안구의 환상영역이다. 홍채의 특성과 모습은 태아기에 형성되며 생후 2년안에 그러한 점들이 안정화 된다. 복잡한 홍채의 특성들은 개인마다 다르기 때문에 사람을 인식하는데 큰 도움이 된다<22>. 근래에 만들어진 홍채기반 인식 시스템은 정확도에서나 속도면에서 매우 만족이 크고 큰스케일의 인식시스템에서도 사용할 수 있을 만큼의 홍채정보를 획득하고 있다. 각가의 홍채는 다르며 일란성 쌍둥이의 홍채 역시 다르다. 홍채기반 인식시스템은 굉장히 낮은 FAR을 다른 생체특성을 이용한 시스템에 비해 가지고 있고 FRR은 높은 편이다.The iris is an annular area of the eye surrounded by pupils and sclera. The characteristics and appearance of the iris form in the fetus and within two years of life these points stabilize. Complex iris characteristics can be very helpful in recognizing people because they vary from person to person. Recently, the iris-based recognition system is very satisfactory in terms of accuracy and speed, and acquires iris information that can be used in a large scale recognition system. Each iris is different, and identical irises are different. Iris-based recognition systems have very low FAR compared to other biometric systems, and FRR is high.

<음성><Voice>

음성은 생리학적, 행동학적 특성을 조합한 특성이다. 개인의 목소리중 생리학적인 특성은 성도, 입모양, 비강, 입술등 소리를 낼 때 쓰이는 모든 것들이다. 이런 생리학적인 특성들은 불변이지만 행동학적 특성들은 나이가 들어감에 따라 달라지며 의학적으로 볼 때 감기 등에 걸렸거나, 감정상태에 따라 바뀔 수 있다. 음성은 차별화 된 점이 많지 않고 큰 범위 내에서 쓰이기엔 알맞지 않다. 텍스트 기반 음성인식 시스템은 미리 결정한 문장을 소리내어 말할 때 인식할 수 있도록 한다. 반면 텍스트에 기반 하지 않는 음성인식 시스템은 스피커가 말하는 걸 분석하여 인식하는 것으로서 사기꾼들을 방지하기 용의하지만 디자인하기가 훨씬 어렵다. 음성인식시스템의 단점은 소음에 노출되어 있다는 것이다. 전화상으로 신분 확인을 하기에 적합하지만 음성 시그널은 커뮤니케이션 채널에서 그 질이 떨어진다.Negative is a combination of physiological and behavioral characteristics. The physiological characteristics of an individual's voice are all that is used to make sounds such as saints, mouth, nasal cavity, and lips. These physiological traits are immutable, but behavioral traits change with age and can be affected by a cold, or emotional state, in medical terms. Voice doesn't have much differentiation and is not suitable for use in a wide range. The text-based speech recognition system allows a predetermined sentence to be recognized when speaking aloud. Text-based speech recognition systems, on the other hand, are intended to prevent fraudsters by analyzing and recognizing what speakers are saying, but much harder to design. The disadvantage of speech recognition systems is that they are exposed to noise. It is suitable for identification on the phone, but voice signals are of poor quality in communication channels.

<걸음걸이><Walking>

사람의 걷는 모양을 뜻하며 단번에 알아보기가 힘든 생체특성 중 하나이다. 따라서 이것은 감시시스템에 매우 적합하다. 대부분의 걸음걸이 인식 알고리즘은 사람의 실루엣을 공간시간모형에 따라 분석해 내는 형식이다. 따라서 다양하고 좋은 인체 모델이 많이 있을수록 걸음걸이 인식시스템의 기능성도 높아진다. 몇 알고리즘에서는 옵틱 플로우를 이용하여 인체에 움직이는 포인트를 대입하여 개인의 걸음걸이를 판독해낸다<25>. 이 시스템은 기한이 지나도 개인을 식별하는데 쓰일 수 있다. 그러나 걸음걸이는 신발의 종류나 옷형태, 다리의 상태, 지면등에 영향을 받을 수 있다.It refers to the shape of a person's walking and is one of the biological characteristics that is difficult to recognize at a time. This is therefore very suitable for surveillance systems. Most gait recognition algorithms analyze human silhouette according to the space time model. Therefore, the more diverse and good human models, the higher the functionality of the gait recognition system. Some algorithms use optical flows to read individual steps by substituting moving points into the body <25>. This system can be used to identify individuals over time. However, gait can be affected by the type of shoe, the type of clothing, the condition of the legs, and the ground.

<귀><Ear>

귀는 안면인식과 종종 비교된다. 귀는 얼굴에 비해 몇 가지 장점이 있다. 측정 범위가 좁아지고 색상의 통일성이 높아지며, 얼굴에 비해 감정이나 표정변화에 영향을 덜 받는다. 안면인식 시스템에서는 조명과 포지션에 따라 결과가 달라질 수 있다. 이런 문제는 귀 인식시스템과 동일하지만 귀는 얼굴에 비해 작은 이미지이기 때문에 장점이 될 수 있다.Ears are often compared to facial recognition. Ears have several advantages over faces. The measurement range is narrowed, the color uniformity is increased, and it is less affected by emotion or facial expression than the face. In facial recognition systems, results may vary depending on lighting and position. This problem is the same as the ear recognition system, but it can be an advantage because the ear is a smaller image than the face.

[생체인식시스템의 장점][Benefits of biometric systems]

생체인식이 인기가 많아진 데는 이유가 있다.There is a reason that biometrics are becoming popular.

<편리한 인식><Convenient Recognition>

카드나 열쇠 비밀번호를 사용하는 것보다 훨씬 빠르고 간편하며 인식 과정 자체도 매끄럽다. 생체공학의 기술을 사용하면 잃어버리거나 잊어버릴 염려 없이 개인의 신체적 특성을 이용해 신분 확인이 가능하다. 많은 사용자들이 상대적으로 시간이 지나도 변하지 않는다.It's much faster and simpler than using a card or key password, and the recognition process itself is smooth. Bionic technology allows you to identify yourself using your physical characteristics without worrying about losing or forgetting. Many users remain relatively unchanged over time.

<강력한 보안 인식의 필요성>Need for Strong Security Awareness

암호나 비밀번호는 도둑맞기가 쉽다. 생체인식은 이런 위험성을 줄여준다. 현대사회에서는 컴퓨터나 신체적인 엑세스에 보다 강력한 보안성을 요구하며 생체인식 시스템은 카드나 암호에 비해 훨씬 안전하고 도둑맞을 염려가 적은 방법을 가지고 있다.Passwords and passwords are easy to be stolen. Biometrics reduce this risk. Modern society demands stronger security for computers and physical access, and biometric systems are much more secure and less susceptible to being stolen than cards and passwords.

<낮아지는 가격><Price lowering>

지난 여러 해 동안 하드웨워와 소프트웨어의 기술 발달로 생체인식시스템의 가격이 대중시장에서도 경쟁력이 있을 만큼 낮아졌다. 또한 컴퓨팅 파워, 네트워킹, 데이터베이스 시스템의 발달도 생체인식시스템이 보다 넓은 지역과 네트워크 영역에서 사용할 수 있도록 해주었다. In the last few years, advances in hardware and software have made biometrics prices competitively competitive in the mass market. In addition, advances in computing power, networking, and database systems have enabled biometric systems to be used in larger areas and networks.

<공공기관과 기업의 높은 채택><High adoption of public institutions and enterprises>

오늘날 많은 공공기관과 기업이 생체인식 시스템을 사용하고 있다. 9.11 사태 이후 공공 안전과 보안의 중요성이 대두되면서 생체인식에 대한 관심이 높아졌다. 제조업자들은 시스템을 공급할 때 컴퓨터 기기들을 함께 공급하는 경우를 늘렸다. 많은 기업들이 셍체인식 시스템 옵션에 생체인식 센서와 맞춤형 기기들은 포함시켜 공급해 왔다. 예로 키보드, 마우스, 노트북등에 바로 지문센서를 장착하여 판다.Many public institutions and corporations today use biometric systems. After September 11, public safety and security have emerged, raising interest in biometrics. Manufacturers have increased the supply of computer devices with their systems. Many companies have included biometric sensors and customized devices in their system options. For example, a fingerprint sensor is installed directly on a keyboard, mouse, or laptop.

[생체인식시스템의 장애][Biology of Biometric System]

이 시스템이 대중과 정부 모두에게 여러 장점이 있지만 보다 넓은 시장에서 사용하게 될 경우 문제점이 발생할 수 있다. 그러한 문제점들은 아래와 같다.While this system has many advantages for both the public and government, problems can arise when used in a wider market. Such problems are as follows.

<획득한 데이터상의 장애><Obstructions in acquired data>

장애가 있는 데이터는 센서에 문제가 있거나 환경요인에 따른 결과이다. 예를 들어 지문에 상처가 나거나 감기 걸린 목소리등이 노이지 데이터의 예가 될 수 있다. 장애가 있는 생체 인식 데이터는 이에 맞는 템플릿과 매치가 안 될수 있으므로 이것은 실사용자가 엑세스에 거부당하는 결과를 초래한다.The faulty data is a result of sensor problems or environmental factors. For example, noisy data can be a scarred fingerprint or a cold voice. This can result in the end user being denied access because the impaired biometric data may not match the appropriate template.

<인트라클래스 변화>Intraclass change

인트라 클래스의 변화의 주된 원인은 개인이 센서와 정확하지 않게 반응했거 나 생체적 특성들이 시간이 지남에 따라 변화할 때 생긴다. 이런 변화들은 모든 사용자들의 여러 템플릿 비교와 템플릿의 업데이트에 따라 해결할 수 있다<30>. 이러한 변화는 생리학적인 특성보다는 시간에 따라 다른 행동을 보일 수 있는 행동학적 특성에 더 많이 나타난다. 예로 개인의 스트레스 지수에 따라 음성 샘플에 들어있는 샘플과 인식 할 때 쓰이는 음성이 다른 결과를 보일 수 있다.The main cause of intraclass changes is when an individual reacts inaccurately with a sensor, or when biological characteristics change over time. These changes can be resolved by comparing the various templates of all users and updating the templates <30>. These changes are more likely to occur in behavioral properties that may exhibit different behaviors over time than physiological properties. For example, a sample included in a voice sample and a voice used for recognition may have different results according to an individual stress index.

<인트라 클래스 유사점>Intra Class Similarities

이것은 개인들간의 공통적으로 겹쳐지는 특성을 말한다<14>. 신분확인 시스템에 등록되는 사람들이 많아 질수록 각 개인간의 인터클래스유사점이 많아져 시스템상의 오류가 늘어날 수도 있다.This is a property that is commonly overlapping between individuals <14>. The more people registered in the identification system, the greater the interclass similarity between individuals, which can lead to more system errors.

<만능이 아니다><Not all-round>

생체인식시스템은 사용자로부터 사용 가능한 데이터를 뽑아내지 못할 수도 있다. 지문인식시스템의 경우 지문의 선들이 선명하지 못할 경우 개인의 데이터와 매치가 되지 않을 수 있다. 한 가지 생체적 특성을 이용할 경우 FTE(Failure to enroll)가 늘어난다. The biometric system may not be able to extract available data from the user. In the case of a fingerprint recognition system, if the lines of the fingerprint are not clear, it may not match the personal data. Using one biometric feature increases FTE (Failure to enroll).

<정보처리 상호운영 문제>Information Interoperability Issues

대부분의 생체인식시스템은 생체인식 데이터가 같은 센서를 사용해 비교된다고 생각하고 있고 이에 따라 다른 센서들간에서의 생체인식 데이터의 비교, 분석은 제한되어 있다. 예로 음성인식의 경우 2가지 다른 기술인 electret과 carbon-button에서 비교는 어렵다. 유사한 예로 지문은 센서 기술의 변화, 이미지 해상도, 측정장소, 부작용등 여러 센서 기술에 따라 변화 될 수 있다. 센서가 바뀔 때 마다 다시 재등록할 때 쓰이는 비용과 시간은 엄청나고 사용자의 편의에 큰 문제를 야기시킨다. 따라서 특징 추출과 매칭 알고리즘간의 상호운영이 다른 기기들에서도 상호운영 할 수 있도록 하는 기술은 앞으로 시간이 지남에 따라 더더욱 필요하게 된다.Most biometric systems consider biometric data to be compared using the same sensor, which limits the comparison and analysis of biometric data between different sensors. For example, speech recognition is difficult to compare in two different technologies, electret and carbon-button. Similarly, fingerprints can be changed by several sensor technologies, including changes in sensor technology, image resolution, measurement location, and adverse effects. Whenever the sensor changes, the cost and time used to re-register again is enormous and causes a big problem for the user's convenience. Therefore, a technique that enables interoperability between feature extraction and matching algorithms to interoperate with other devices becomes more necessary over time.

<사기공격>Fraud Attack

사기에는 개인의 생체특성을 고의로 잘못 입력해 인식상의 오류를 부르거나 가짜 생체특성을 만들어 다른 사람의 신분을 훔치는 행위이다. 이런 사기 행각에는 행동학적 특성인 시그니쳐, 음성이 쓰인다. 이런 사기 행각을 고발하는 몇 가지 방법이 있다. 신체적인 특성인 지문, 홍채 등을 이용할 때는 실시간 감지기 스켄을 사용하는 법이 있다. Fraud is the act of deliberately misleading an individual's biometrics, calling for cognitive errors, or stealing another's identity by creating fake biometrics. This fraudulent behavior uses signatures and voices, which are behavioral characteristics. There are several ways to report this fraud. When using physical characteristics such as fingerprint and iris, a real-time detector scan can be used.

[표면학 데이터를 사용한 신기술 인식법][New technology recognition method using surface data]

얼굴은 가장 쉽게 개인을 구분할 수 있는 방법이다. 별 노력을 하지 않아도 사람들은 다른 이들과 자신을 구별해 낼 수 있지만 안면인식 시스템은 생각보다 훨씬 어렵다. 여러 문제들은 이미지가 많이 있을 경우 가격이 올라가는 것도 포함한다. 인터 서브젝트와 인트라 서브젝트의 변화는 얼굴 이미지의 변화에 있다. 개인간의 비슷한 점은 인터 서브젝트의 변화에 책임이 있고 인트라 서브젝트는 사람의 나이, 머리 포즈, 빛, 다른 사물이나 사람의 존재등에 영향을 받는다.Faces are the easiest way to identify individuals. People can distinguish themselves from others without much effort, but facial recognition systems are much harder than they think. Problems include raising prices when there are many images. The change in the inter and intra subjects is in the change in the face image. Similarities between individuals are responsible for changing subjects, and intra subjects are influenced by a person's age, head pose, light, and the presence of other objects or people.

지난 몇 십년간 자동 안면인식은 널리 사용되었다. 이미지 프로세싱 패턴 인식, 컴퓨터 비전, 네트워크, 인공지능, 생체 인식등 많은 연구들이 활달하게 일어났다. 많은 연구자들은 여러 연구를 하면서 기계나 컴퓨터가 사람이 사람을 알 아보는 것처럼 인식을 할 수 있도록 노력했다.Automatic facial recognition has been widely used in the last few decades. Image processing pattern recognition, computer vision, networks, artificial intelligence, biometrics, etc., have all been active. Many researchers have worked through a number of studies to make machines and computers recognize people as if they knew people.

안면인식은 상업적으로나 보안성, 범죄학등에서 많이 쓰일 수 있다. 자동화 대중감시 시스템, 엑세스 컨트롤, 운전면허증, 신용카드 발급, ATM 사용권리, HCI 등 여러 장르에서 쓰인다.Facial recognition can be used commercially, in security, and in criminology. It is used in many genres, including automated public surveillance systems, access control, driver's licenses, credit card issuance, ATM rights, and HCI.

얼굴인식과정은 주어진 이미지에서 개인을 확인하는데 저장된 얼굴데이터들을 이용한다. 얼굴인식시스템은 시험용 이미지라 불리는 이미지로 갤러리 이미지에 모은 이미지 데이터와 비교분석해 인식해 나간다. 데이터 베이스상에서 제일 이미지가 매치되는 것이 시스템상의 이미지로 확인된다. 안면인식방법에는 입증과 확인 두가지 방법이 있다. 입증을 할 때는 개인의 특성을 바탕으로 시스템은 미리 확정된 알고리즘이나 결과 규칙에 따라 사용자를 비교하여 받아들이던지 거절하던지 결정한다. 확인의 경우는 모든 등록자들 중에서 제일 비슷하게 점수가 맞아 떨어지는 사람을 결정하는 방식이다. The face recognition process uses stored face data to identify an individual in a given image. The face recognition system recognizes by comparing and analyzing the image data collected in the gallery image as an image called a test image. The best match on the database is identified by the image on the system. There are two methods of facial recognition. When verifying, based on the characteristics of the individual, the system compares the user according to a predetermined algorithm or rules of outcome and decides whether to accept or reject it. In the case of verification, the method of determining who scores the most similarly among all the registrants is determined.

90년대 초반까지는 대부분의 연구들은 2차원 이미지에서 이루어졌다. 현재 새로운 기술들이 많이 생겨나서 인식률이 높아졌다. 안면인식기술에 대한 신속한 평가는 새로운 시스템 평가치가 되는 FERET, FRVT 2000, FRVT 2002, XM2VTS 프로토콜과 현존하는 소프트웨어 패키지인 FaceIt, FaceVACS, FaceSnap Recorder, Cognitec, Eyematic, Viisage, Identix등으로 이루어 진다. Until the early nineties, most of the work was done on two-dimensional images. Many new technologies have emerged, increasing recognition rates. The rapid assessment of facial recognition technology consists of the new system estimates FERET, FRVT 2000, FRVT 2002, XM2VTS protocols and existing software packages FaceIt, FaceVACS, FaceSnap Recorder, Cognitec, Eyematic, Viisage and Identix.

Brunelli와 Poggio에 따르면 얼굴인식에는 특징기반과 템플릿 기반 접급방법으로 나누어 진다. 첫 번째 접근법에는 그래프 매칭과 AAM(Active appearance model)을 사용하여 일반적인 특징에서 확연하게 구분되는 특징을 발견한다. 반면 템플릿 기반 방법에는 Eigenface<46>와 Fisherface를 사용하여 얼굴과 얼굴데이터템플릿간의 연관성을 찾아 얼굴을 인식하는 방법이다.According to Brunelli and Poggio, face recognition is divided into feature-based and template-based contact methods. The first approach uses graph matching and the AAM (Active appearance model) to find features that are distinct from common features. On the other hand, the template-based method uses Eigenface and Fisherface to recognize the face by finding the association between the face and the face data template.

대부분의 2차원 안면인식 시스템은 조명이나 포즈가 바뀌는데 민감하다. 이런 문제점들은 얼굴의 2차원적인 이미지가 완성되지 못한 정보를 가지고 있어서 나온다. 반면 3차원 스캔으로는 대상자의 얼굴을 완벽하게 읽어낼 수 있다. 2차원 카운터파트보다 3차원 이미지가 얼굴인식 성공률이 훨씬 높다는 건 잘 알려져 있는 사실이다. 3차원이미지 기술의 빠른 발전은 3차원얼굴인식에 대한 많은 관심을 불러 일으킨다.Most two-dimensional facial recognition systems are sensitive to lighting or pose changes. These problems arise because the two-dimensional image of the face has incomplete information. On the other hand, a three-dimensional scan can read the subject's face perfectly. It is well known that 3D images have much higher success rates than face counterparts. The rapid development of 3D image technology raises a lot of interest in 3D face recognition.

[3차원 안면인식과 인증 상태][3D Facial Recognition and Certification Status]

Bowyer는 그의 논문<49>에서 3차원 안면 인식 기술에 관한 조사를 소개했다. 몇 기술들은 2차원얼굴인식 기술인 Principal component Analysis과 같은 것에서 유래 되었다. 다른 기술은 3차원 안면인식 기술만의 고유한 것으로서 표면 매칭 방법, 프로파일 매칭 방법, 등거리변화법있다.Bowyer introduced a survey of three-dimensional face recognition technology in his paper. Some techniques are derived from such things as Principal component analysis, a two-dimensional face recognition technique. Other techniques are unique to 3D facial recognition technology, such as surface matching, profile matching, and equidistant variation.

Cartoux외 다수의 사람들은 주곡률에 근거한 이미지를 분석하여 얼굴의 좌우상칭에 대한 모형을 만들었다. 이 모형은 포즈를 표준화 하였다. 연구학자들은 대칭 모형과 얼굴 표면의 매치를 사용하는 방법은 100퍼세트 인식률을 가지고 있다고 했다.Cartoux et al. Modeled images of the left and right symmetry by analyzing images based on principal curvature. This model standardized the poses. Researchers say that the method of using a symmetric model with a face surface match has 100 sets of recognition rates.

<52>에서는 이미지의 세분화된 곡률에 근거하여 각 이미지의 크기는 메트릭 사이즈로 속성값을 가진다. 따라서 각 얼굴이 기능 공간에서 포인트가 되고 가장 근접한 이웃간의 매칭이 끝나게 된다. In <52>, the size of each image has an attribute value as a metric size based on the segmented curvature of the image. Thus each face becomes a point in the functional space and the matching between the nearest neighbors ends.

Nagamine 외 다수<53>는 5개의 기능 포인트를 사용하여 얼굴포즈를 표준화 했다. 전체를 다 사용하는 대신 얼굴 데이터를 통해 일치하는 다양한 곡선과 프로필을 이용해 인식을 수행하게 하여 비용문제도 절감할 수 있는 기술이다. 실험은 16개 대상과 각 대상 마다 10개의 이미지가 주어진다. 최고의 인식률은 수직프로파일 커브와 얼굴중앙부분을 통과하는 커브를 사용했을 때 발생한다. Nagamine et al. [53] standardized facial pose using five function points. Instead of using the whole, it is possible to reduce the cost problem by allowing recognition using various matching curves and profiles through face data. The experiment is given 16 subjects and 10 images for each subject. The best recognition rate occurs when using a vertical profile curve and a curve passing through the center of the face.

Achermann외 다수는 2차원 안면인식기술을 다양한 이미지와 함께 아이겐페이스와 HMM모델을 사용한다. 그들은 24명의 사람들과 한 명당 10개의 이미지를 바탕으로 한 데이터 베이스에서 2차원 안면인식 알고리즘을 통해 100퍼세트 인식률을 보여주었다. 다양한 이미지들의 볼록한 영역이 그 뜻과 Gaussian 굴곡에 의해 세분화되고 EGI(extended Gaussian image)가 각 볼록한 영역에 따라 만들어 진다. 인식과정은 EGI의 상관관계에 따라 이루어 진다. 실험은 캐나다국립리서치협회의 다양한 이미지 데이터셋에서 37개 세트의 이미지를 가지고 이루어 졌으면 100퍼센트 인식률을 보였다고 보고 되었다. 주성분 분석은 Hesher과 그 외 다수가 고유벡터와 이미지 사이즈를 <58>에서 사용했다. 6가지 다른 표정 모양이 37 대상에게 사용했다.Achermann et al. Use two-dimensional facial recognition techniques with eigenface and HMM models with various images. They showed a 100-perset recognition rate using a two-dimensional facial recognition algorithm in a database based on 24 people and 10 images per person. The convex regions of the various images are subdivided by their meaning and Gaussian curvature, and an extended Gaussian image (EGI) is created for each convex region. The recognition process is based on the correlation of EGI. The experiments were reported to have a 100 percent recognition rate if they had 37 images in the Canadian National Research Association's various image datasets. Principal component analysis used Hesher and many others in eigenvectors and image sizes. Six different facial expressions were used on 37 subjects.

Medioni와 Waupotitsch<60>는 수동적인 스테레오 센서에서 포착한 3차원 형상을 연구했다. 얼굴인식은 ICP(iterative closest point)를 사용해서 얼굴외관을 매치시켜 스테레오수동센서를 이용해 3차원형상을 구현한다. 100개의 대상을 관한 EER은 2퍼센트로 보고되고 각각 7개의 다른 포즈가 제공된다.Medioni and Waupotitsch (60) studied three-dimensional features captured by passive stereo sensors. Face recognition uses an ICP (iterative closest point) to match the face appearance to realize a three-dimensional shape using a stereo passive sensor. EERs for 100 subjects are reported at 2 percent and 7 different poses are provided each.

Moreno외 다수<61>는 Gaussian 굴곡에 근거한 세분화 된 3차원 얼굴인식을 사용하여 세분화된영역의 피쳐 벡터를 만들어 낸다. 그들은 60명의 사람들의 420개의 얼굴 메쉬를 나타내고 각 개인의 다른 표정과 포즈를 샘플링 해냈다. 이 정면 시선에 근거한 서브세트는 78퍼센트의 인식률을 보였다.Moreno et al. [61] generate segmented region feature vectors using segmented three-dimensional face recognition based on Gaussian curvature. They represented the 420 facial meshes of 60 people and sampled each person's different facial expressions and poses. This frontal based subset had a 78 percent recognition rate.

Pan 외 다수<62>는 Hausdorff 접근법과 PAC기반접근법을 사용하여 3차원 얼굴인식 해냈다. M2VTS데이터베이스에서 이미지를 가지고 그들은 3~5퍼센트의 EER을 Hausdorff 접근법과에서 발견했고 PCA 기반 접근법에서는 5~7퍼센트의 EER을 발견했다. Pan et al. [62] achieved three-dimensional face recognition using the Hausdorff approach and PAC-based approach. With images from the M2VTS database, they found three to five percent EERs with the Hausdorff approach and five to seven percent with the PCA-based approach.

Lu 외 다수<65>는 ICP기반 접근을 통한 3차원얼굴인식에 대한 보고를 했다. 이 실험에서 18명의 사람들의 이미지들은 각기 다른 실험적인 이미지와 변화된 포즈와 표정변화등으로 97퍼센트의 인식률을 보이는데 성공했다.Lu et al. (65) reported on three-dimensional face recognition through an ICP-based approach. In this experiment, images of 18 people succeeded in achieving 97 percent recognition rate, with different experimental images, altered poses and facial expressions.

Bronstein 외 다수는 <67> 얼굴표정에 관련하여 3차원얼굴인식을 하는 것을 보고했다. 이 아이디어는 3차원 얼굴 데이터를 eigenform이라는 것으로 변형 시키는 것으로서 이것은 모델화된 이미지를 변형하는 것으로서 일란성 쌍둥이도 구별해 낼 수 있다고 한다.Bronstein et al. Reported the three-dimensional face recognition in relation to facial expressions. The idea is to transform three-dimensional face data into what is called an eigenform, which can distinguish identical twins by transforming modeled images.

Lee외 다수<69>는 얼굴의 8가지 피쳐 포인트를 이용해 3차원 얼굴인식을 하는 방법을 제시했다. SVM(support vector machine)를 이용해 100명의 사람을 인식하는데 최고 인식률이 96퍼센트에 도달했다. 그들은 사이버웨어 센서를 사용하여 이미지를 등록하고 Genex센서를 통해 실험이미지를 포착했다.Lee et al. [69] presented a method for three-dimensional face recognition using eight feature points of a face. Using the support vector machine (SVM) to recognize 100 people, the highest recognition rate reached 96 percent. They used cyberware sensors to register images and captured experimental images with Genex sensors.

Russ외 다수는<71> 3차원 얼굴 데이터의 다양한 이미지를 Hausdorff 접근법 매칭을 통해 나타내는 것을 연구했다. ICP와 흡사한 인터액티브 등록 방식은 갤러 리 이미지에서 실험이미지를 찾아내는 알고리즘을 사용한다. 여러 면에서 시간과 장소의 상호관계를 복잡하지 않게 줄이는 연구가 진행되었다. FRGC버전 1에서는 연구결과가 나타났는데 모든 실험 이미지가 아닌 사람당 한 가지 실험 이미지를 사용하였다. 수행 중 최고 인식률은 98.5퍼센트에 달했고 93.5퍼센트의 확인이 0.1퍼센트의 FAR과 함께 나타났다.,Russ et al. [71] studied the representation of various images of three-dimensional face data through the Hausdorff approach matching. Similar to the ICP, the interactive registration method uses an algorithm for finding experimental images from gallery images. In many ways, research has been conducted to reduce the complexity of time and place. In FRGC version 1, the results were shown: one experimental image per person was used rather than all experimental images. The highest recognition rate in practice was 98.5 percent, with 93.5 percent confirmation with a 0.1 percent FAR.

Chang 외 다수<68>는 3차원얼굴인식 여러 영영을 통한 접근법이 소개 되었다. 이것은 코 주변에서 겹치는 영역이 ICP를 사용해서 매치되는 경우와 여러 3차원 매치의 결과가 연합되었다. 수행평가에서 이 연구는 FRGC버전2 데이터 세트를 사용했으면 400명의 사람들의 4000개의 이미지가 사용되었다. 이 실험에서 갤러리 이미지 중 중립적인 표정 한 개의 이미지가 사용되었으면 다른 이미지들은 실험용으로 사용되었고 92퍼센트의 인식률이 보고 되었다.Chang et al. [68] introduced a three-dimensional face recognition approach. This combined the case where the overlapping areas around the nose were matched using ICP and the results of several three-dimensional matches. In the performance assessment, this study used 4000 images of 400 people, using the FRGC version 2 data set. In this experiment, if one image of the neutral expression was used in the gallery images, the other images were used for the experiment and 92 percent recognition rate was reported.

본 발명의 목적은 표면 형상 데이터로부터 3 차원 얼굴 인증을 위한 새로운 방법을 제안하는 것이다. 이 방법은 등고선 데이터로부터 추출된 얼굴의 모양 서명에 의존한다. 따라서 등록 오리엔테이션에 따른 필요 없게 되었다. 모양 서명을 만드는데 번역 및 회전 경계 포인트의 Centroid 거리를 계산하여 만들어진다. 모양 서명은 관심 지역을 선택한 모양을 서명 및 인증 기능을 벡터로 사용하여 이루어진다. 이 제안에서 제도 평등 오류 속도는 4.563 %의 달성했다.It is an object of the present invention to propose a new method for three-dimensional face authentication from surface shape data. This method relies on the shape signature of the face extracted from the contour data. This eliminates the need for registration orientation. The shape signature is created by calculating the centroid distance of the translation and rotation boundary points. Shape signing is done using a signature and authentication function as a vector for the shape of the region of interest. In this proposal, the scheme equality error rate was achieved of 4.563%.

표면 형상 데이터를 본 발명에서 사용되는 모든 신체의 부분 집합을 몸 스캐 너를 사용하여 헤드데이터를 캡처하는 4 가지 자세가 포함된 스캔 데이터이다. 표면 이미지에는 귀구멍이나 콧구멍처럼 표면에 일부 특정 지역에 있는 표면의 이미지다. 또한 얼굴의 털 또한 크게 관심있는 분양이다. 그래서 머리 부분은 데이터 중에 플라스틱 재질의 커버와 함께 덮여있다. 이 연구에 사용된 대상은 총 100명 이다. 도4는 사람 한명당 4 가지 자세의 예를 보여준다. 데이터 부분은 마커 정보를 사용하여 구분한다. 각 대상의 갤러리 이미지를 한 개 사용하고 나머지 3개는 프로브로 사용된다. 후속섹션에서는 제안된 방법을 논의하게 된다.Surface shape data is scan data including four postures that capture head data using a body scanner on a subset of all the bodies used in the present invention. Surface images are images of surfaces in some specific area of the surface, such as ear or nostrils. Facial hair is also of great interest. So the head is covered with a plastic cover during the data. A total of 100 subjects were used in this study. 4 shows an example of four postures per person. Data parts are distinguished using marker information. One gallery image of each subject is used and the other three are used as probes. Subsequent sections will discuss the proposed method.

<본 발명의 방법><Method of the present invention>

기능을 추출하는 방법은 출발점에서 몸 전체의 표면 형상 데이터에서 헤드 데이터를 분리한다. 마커 및 마커 좌표 프로토콜 정보가 이 목적을 위해 사용된다. 헤드 데이터를 분리 한 후, 분리된 크로스 섹션을 z축 에 따라 등고선과 그 둥지 코 끝이자 수익 (ROI)의 영역을 선택하고 확인한다. Centroid 거리는 모양 서명을 선택한 등고선에서 계산된다. 표면의 등고선에서 Discrete Fourier 변환에서 데이터를 일으킨 변화의 효과를 제거하면 수행 최종 기능 벡터를 얻을 수 있다. 이 모든 기능 추출 과정은 Matlab로 이루어진다.The method of extracting the function separates the head data from the surface shape data of the whole body at the starting point. Marker and marker coordinate protocol information is used for this purpose. After separating the head data, the separated cross section is selected and identified along the z-axis for the contour line, its nest nose tip, and the area of return (ROI). Centroid distance is calculated from the contours selected for the shape signature. By removing the effect of the change that caused the data in the Discrete Fourier transform on the contours of the surface, we can obtain the final functional vector. All of this feature extraction is done in Matlab.

<마커포지션을 이용한 헤드데이터의 세분화><Segmentation of Head Data Using Marker Position>

표면 데이터는 ‘-ply’형식인 삼각형 표면 메쉬에서 읽을 수 있다. 표면이 점의 높이에 따라 색깔을 칠한다. 삼각형의 얼굴 색상을 보정한다. 마커 위치를 식별할 수 있는 색상 정보를 제공한다. 도 5의 (a)는 얼굴 표면에 마커 위치를 보여준다. 얼굴 표면에 녹색 색깔 마커 그림 번호가 매겨지고 마커 7 컬러 코드 데 이터의도 나머지 헤드데이터를 분리하는 데 사용될 수 있다. 도 5의 (b)는 분리된 헤드데이터를 보여준다.Surface data can be read from a triangular surface mesh of the form "-ply". The surface is colored according to the height of the point. Correct the face color of the triangle. Provides color information to identify the marker position. 5 (a) shows the marker position on the face surface. Green colored marker pictures are numbered on the face surface and marker 7 color coded data can also be used to separate the remaining head data. 5B shows the separated head data.

<윤곽선 추출><Contour Extraction>

표면상의 점들로부터 z축의 크로스 섹션은 분리 되었다. 간단한 인덱싱 작업이 이루어 진다. 도 6은 도 5로부터 윤곽선을 추출한 것을 보여준다. The z-axis cross section was separated from the points on the surface. Simple indexing works. FIG. 6 shows the contour extracted from FIG. 5.

<관심지역 선택 : 기수 끝 확인 (Nose tip identification)><Select a region of interest: Nose tip identification>

이번 방법은 일반적인 오리엔테이션처럼 데이터를 등록할 필요가 없다. 하지만 그것을 크로스섹션과 함께 작동 하려면 두 데이터 집합 사이에는 일대일 대응을 할 수 있어야 한다. 좀 더 정확하게 말하자면 교차 갤러리 이미지에서의 코 주변 지역 섹션과 눈 주변 지역 섹션과 일치하지 않는다. 인증을 위한 바른 등고선 선택은 공통의 관심 영역 (ROI)을 필요로 한다. 일상 생활에 대한 지식을 사용하여, 그것은 코와 눈썹의 아래 부분 사이의 지역을 이마에서 아마 대부분의 차별 기능을 보여주며 첫 번째 등고선 식별 끝을 포함한다. 그리고 단순하게 하기 위해서는 10 가지 이상의 등고선 지도에서 하나를 선택한다. 따라서 21 등고선이 전체 피쳐 추출을 위해 사용되었다.This way, you don't need to register the data like you would a normal orientation. But for it to work with cross-sections, there must be a one-to-one correspondence between the two data sets. More precisely, it does not match the area around the nose and the area around the eyes in the cross-gallery image. Correct contour selection for authentication requires a common area of interest (ROI). Using knowledge of everyday life, it shows the most distinctive features in the forehead of the area between the nose and the lower part of the eyebrows and includes the first contour identification end. And for simplicity, choose one from more than 10 contour maps. Therefore 21 contours were used for the full feature extraction.

코 끝을 식별 가능한 각 크로스 섹션 등고선을 막힌 다각형으로 가정하여 계산 시 C=(Cx,Cy)라고 한다. 그럼 centroid의 평균 가치 전체 C=(Cx,Cy)등고선 데이 터에 대한 계산이 이루어진다. 이 평균 centroid 지점으로 세로축이 평균 경계 지점의 거리에 위치해 계산된다. 최대 거리는 코끝에 해당한다. 도 7의 (a)와 (b)는 본 발명의 일예의 아이디어에 대한 설명을 보여준다. Centroid 용어는 어떤 개체의 모양의 기하학적 중심 즉, 위에 설명한 것처럼 대량의 중심이나 중력의 중심 이라고 할 수있다. It is assumed that C = (Cx, Cy) in the calculation, assuming that the nose tip is a blocked polygon for each identifiable cross section contour. The calculation is then done for the total C = (Cx, Cy) contour data of the mean value of centroids. This average centroid point is calculated by the vertical axis located at the distance of the average boundary point. The maximum distance corresponds to the tip of the nose. 7 (a) and 7 (b) show a description of an example idea of the present invention. Centroid terminology refers to the geometric center of the shape of an object, ie the center of mass or the center of gravity, as described above.

겹치지 않는 centroid의 닫힌 다각형 N 정점에 의해 정의된 (X, Y)의 영역과 아래와 같은 꼭지점의 관점에서 계산 할 수 있다.It can be computed from the point of view of (X, Y) defined by the non-overlapping centroid's closed polygon N vertices and the following vertices:

(식 4)(Equation 4)

Figure 112009077950517-PAT00009
Figure 112009077950517-PAT00009

A 영역에서 위와 같이 계산한다. Calculate as above in area A.

Centroid는 C=(Cx,Cy)로 하여Centroid is set to C = (Cx, Cy)

(식 5)(Eq. 5)

Figure 112009077950517-PAT00010
Figure 112009077950517-PAT00010

(식 6)(Equation 6)

Figure 112009077950517-PAT00011
Figure 112009077950517-PAT00011

다각형은 닫혀 있어야 하고 꼭지점(Xn,Yn)은 (X0,Y0)과 같아야 한다.The polygon must be closed and the vertices (Xn, Yn) must be equal to (X0, Y0).

<기능 추출><Feature Extraction>

기능 추출 등고선 검색 어플리케이션에 사용되어온 centroid 거리이다. 등고선 J에 대한 centroid 거리에 따라 하기 식 7로 정의 된다. The centroid distance that has been used in feature extraction contour search applications. The centroid distance for contour J is defined by Equation 7 below.

(식 7)(Eq. 7)

Figure 112009077950517-PAT00012
Figure 112009077950517-PAT00012

Cj≡(Cjx,Cjy)는 Jth등고선의 Centroid이고 (Xjx,Yjy)는 경계선의 포인트이다. 도 9에서는 계산된 centroid 거리의 예를 보여준다. Cj≡ (Cjx, Cjy) is the centroid of the Jth contour, and (Xjx, Yjy) is the boundary point. 9 shows an example of the calculated centroid distance.

비록 기능 벡터에서 centroid 거리를 사용할 수 있지만 추가적으로 볼 때 벡터 프로세싱의 경계 지점의 수를 갤러리 및 프로브 이미지에 대한 동등하지 않을 수 있다. 그래서 일단 centroid 거리 벡터를 균등하게 간격 256 포인트 경계 스플라인 보간을 사용하여 보정한다. 이러한 벡터의 크기 또한 DFT 경계 지점의 위치 변화에 대한 계정으로 이동하게 된다. 따라서 인증을 위한 최종 기능을 얻을 수 있게 된다.Although centroid distances can be used in functional vectors, in addition, the number of boundary points of vector processing may not be equivalent for gallery and probe images. So once the centroid distance vector is evenly calibrated using interval 256 point boundary spline interpolation. The magnitude of this vector also shifts to account for the change in position of the DFT boundary point. Thus, the final function for authentication can be obtained.

[<수행 분석][<Performance Analysis]

<매치 점수><Match score>

크로스 섹션은 256 길이마다 21개의 기능 벡터를 생산한다. 이것들은 불변 하는 기능이다. 256 * 21 매트릭스 Rij.는 기능벡터를 취합하면서 만든다. 매치 점수 0≤S≤1의 정의는 식 8과 같다.(도 8 참조)The cross section produces 21 function vectors every 256 lengths. These are immutable functions. The 256 * 21 matrix Rij. Is created by collecting the function vectors. The definition of the match score 0 ≦ S ≦ 1 is shown in Equation 8. (See FIG. 8).

(식 8)(Eq. 8)

Figure 112009077950517-PAT00013
Figure 112009077950517-PAT00013

P와 G 아래에 삽입한 프로브와 갤러리 이미지를 상징한다. 그리고 ‘/’는 매트릭스 구역을 상징한다.Symbolizes probe and gallery images inserted below P and G. And '/' stands for matrix area.

<결과><Result>

400개의 데이터 샘플들이 수집되었다.. 그 중 한 가지는 질이 낮아 사용하지 않는다. 각 샘플은 갤러리 데이터에서 대상 당 한 개 씩 가져가고 나머지는 프로브로 사용한다. 도 10에서 보여진 FAR과 FRR는 서로 다른 트레스홀드를 보여주고 있다. FAR은 0.91 지점에서 빠르게 감소한다.400 data samples were collected. One of them is of low quality and is not used. Each sample is taken one from the gallery data per subject and the rest is used as a probe. The FAR and FRR shown in FIG. 10 show different thresholds. FAR decreases rapidly at 0.91.

본 발명의 일예에 따른 방법은 데이터가 100 개인과 399의 전체 데이터 집합을 사용한다. 이 연구의 높은 숫자는 이전 연구 결과와 대부분 비교했다. 이 일의 지난 연구가 대부분이 확인에 대한 거라면 이번 일은 인증을 하는데 주력했다. EER는 데이터의 크기를 고려했을 때 인상적인 4.563 %이다. 인증의 오류율은 기하학적 표면을 기반으로 낮게 나올 것을 예상한다. 이런 일 뒤에 데이터 스파이크와 구멍의 존재 한다. 이러한 오류는 비교적 높은 EER의 주요 이유가 있다. 이러한 오류에 서 영향을 최소화 하기 위한 노력이 없다. 표 1의 다른 보고에는 신원 확인 / 인증 방법이 포함되어 있다. 이러한 내용은 "49”에서 요약 했다.The method according to an embodiment of the present invention uses 100 data sets and 399 full data sets. The high number of studies compared most with previous studies. If most of the past research on this work is about verification, this work has focused on certification. EER is an impressive 4.563% considering the size of the data. The error rate of the authentication is expected to come out low based on the geometric surface. This happens behind data spikes and holes. This error is the main reason for the relatively high EER. There is no effort to minimize the impact from these errors. Other reports in Table 1 include identity verification / authentication methods. This is summarized in "49".

하기의 표 1은 본 발명의 방법과 종래의 방법을 비교한 것이다.Table 1 below compares the method of the present invention with the conventional method.

Figure 112009077950517-PAT00014
Figure 112009077950517-PAT00014

이상에서 살펴본 바와 같이, 얼굴 인식은 지난 15년간 한 가장 널리 연구, 조사 되어 왔다. 2D 및 3D의 무리의 이미지를 기반으로 인식 방법을 제안하고 있다. 그러나 대형 데이터 집합은 매우 높은 성공률을 아직 달성했다. 이 장에서는 3차원 표면 형상 데이터를 기반으로 보고되었다. 여기서 제안된 방법은 인증 시 크로스섹션 등고 데이터를 활용하여 인증을 위한 기능인 포즈를 추출한다. 제안된 방법의 그래프 흐름을 도 11에서 볼 수 있다. 4.563 %의 EER이 100 개인의 집합 데이터에서 달성 되었다.As discussed above, face recognition has been the most widely studied and investigated for the last 15 years. A recognition method is proposed based on the image of a group of 2D and 3D. However, large data sets have yet to achieve very high success rates. This chapter reports on three-dimensional surface shape data. The proposed method extracts a pose, which is a function for authentication, by using cross-section contour data during authentication. The graph flow of the proposed method can be seen in FIG. 4.563% of EERs were achieved in the set data of 100 individuals.

[라돈 변형을 이용한 손모양 확인][Checking Hand Shape Using Radon Deformation]

인간의 여러 생리학적 및 행동 특성은 일반적으로 시간이 가도 변하지 않고 각 개인마다 고유의것이다. 이러한 생체 인식 기능에는 얼굴, 홍채, 지문, 손 기하학, 손바닥 지문 등이 있고 이를 보안 액세스에 사용하고 있다. 가장 널리 연구되는 생체 인식 특성에는 2D와 3D를 이용한 얼굴인식과 지문 인식이 있다. 얼굴의 경우 생체의 신뢰성 문제, 포즈 표현과 조명으로 인한 문제점이 있다. 지문은 수십 년 동안 가장 효과적인 생체 인식의 방법으로 사용되어 왔다. 그러나, 그것은 또한 대규모 그룹, 노인 및 공장 노동자등의 사용자들은 좋은 품질의 지문 이미지를 제공하지 못한다는 제약사항이 있다. 지문의 표면은 매우 작고 이나 베이거나 흉터 자국이 표면에 생겨 무결성을 훼손하면 시스템상에 문제가 생긴다 <75>. Many physiological and behavioral characteristics of humans generally do not change over time and are unique to each individual. These biometric features include faces, irises, fingerprints, hand geometries, and palm prints, which are used for secure access. The most widely studied biometric features are 2D and 3D face recognition and fingerprint recognition. In the case of the face, there are problems due to the reliability of the living body, pose expression and lighting. Fingerprints have been used as the most effective method of biometrics for decades. However, it also has the limitation that users of large groups, elderly and factory workers, etc. do not provide good quality fingerprint images. The surface of the fingerprint is very small, but if the cuts or scar marks on the surface compromise the integrity, problems with the system occur.

그 결과 다른 생체 특성들에 대한 관심이 증가 하고 있다. 최근의 연구에서는 인간의 걸음걸이와 홍채 패턴에 대해 많은 연구자가 생겨났다. 하지만 손 기하학의 단순함이 더 유리 했다. 인간의 손은 길이, 폭, 두께, 손바닥 모양, 모양과 손가락의 기하학적 특성을 사용한다. 손 이미지 수집에는 특별한 상관 조명이나 해상도에 필요없는 간단한 작업이다. 또한, 낮은 해상도 이미지도 손바닥 지문 인증 시스템에 사용할 수 있다. 반면 고해상도 이미지를 지문인식과 함께 검증 시스템에 사용할 수 있는 통합 식별 검증 시스템도 있다<77>. 몇몇 특허는 <78, 79, 80, 81> 손기하학의 특징을 사용해 개인 인증을 할 수 있게 하는 것이다<82>. 개인 인증을 효과적으로 하기 위해 손기하학 기능을 활용하여 부트 스트랩 기법을 사용한 시스템을 고안했다. 이와 유사한 시스템을 손 기하학 기능을 사용하여 <83>에서 설명하고 있다. 일부 관련 작업을 낮은 해상도 이미지를 사용하여 디지털 손이미지<77, 84, 85>에 나타난다. 고정된 구체에서 손 움직임을 제한하는 결과를 얻을 수 있을 때 사용된다. 이것은 또한 작은 크기의 데이터베이스 수집하는데 치우칠 수 있고 사기꾼이 가짜손을 사용해 쉽게 시스템으로 무단 침입할 수 있다<75>. As a result, there is a growing interest in other biometric properties. In recent studies, many researchers have developed the human gait and iris patterns. But the simplicity of hand geometry was more favorable. Human hands use length, width, thickness, palm shape, shape and geometrical characteristics of the fingers. Hand image acquisition is a simple task that does not require any special lighting or resolution. Low resolution images can also be used in palm fingerprint authentication systems. On the other hand, there is also an integrated identification verification system that can be used in verification systems with high-resolution images. Some patents allow for personal authentication using the features of hand geometry. In order to achieve effective personal authentication, we have designed a system using the bootstrap technique by utilizing the geometrical features. A similar system is described in <83> using the hand geometry function. Some related work appears in digital hand images <77, 84, 85> using low resolution images. It is used when it is possible to obtain a result of limiting hand movement on a fixed sphere. It can also be biased to collect small databases, and fraudsters can easily break into systems using fake hands.

웹 보안 시스템을 위한 방법은 <77> 손 도형에 대한 프로토 타입을 기반으로 개발 검증 시스템이다. 360장의 이미지로 구성된 이미지 세트를 테스트하고 2%의 FAR과 15%의 FRR 15%를 입수했다. <84>손 형상 검증 시스템은 20명에게서 200개 손이미지의 데이터베이스를 사용하여 신원 확인 및 검증에 10 % 아래의 오류 비율 97% 성공했다. Oden 외 다수는 <85>신원 확인 및 검증에 암시적 다항식을 사용한 시스템을 보고 했다. 그들은 신분확인에 95%의 성공과 검증의 99 %가 성공을 거둔 기하학적인 기능과 함께 자신의 방법을 결합했다. 그들이 사용하는 트레이닝 세트는 40개의 이미지로 구성되었다. Jain과 Duta <86>는 손가락의 등고선을 기반으로 한 검증 시스템을 개발했고 이 사이에 정렬 오류를 측정했다. 그들은 50명에게서 353 이미지를 가지고 실험했고 FAR 2 %와 3.5 %의 FRR를 보고했다. The method for a web security system is a development verification system based on prototypes of hand figures. We tested an image set consisting of 360 images and obtained 2% FAR and 15% FRR 15%. The hand shape verification system used a database of 200 hand images from 20 people, with a 97% error rate below 10% for identification and verification. Oden et al. Reported a system using implicit polynomials for identification and verification. They combined their method with identification, with 95% success and 99% of verification successful geometric features. The training set they use consisted of 40 images. Jain and Duta developed a verification system based on finger contours and measured alignment errors between them. They experimented with 353 images from 50 people and reported 2% FAR and 3.5% FRR.

<동기 부여><Motivation>

편리한 편집 시스템과 성능 좋은 확인 및 인증 시스템은 생체인식 중 인기 있는 손모양에서 비롯되었다. 이것의 이전 연구에는 길이, 폭, 두께, 기하학적 구성, 손바닥 모양, 모양 인식을 위한 손가락의 기하학등 여러 방식이 있다. 전형적인 방법인 Pegs(구체) 거의 항상 손의 위치를 수정하는 데 사용되며 해부학적 측정 기능으로 촬영하는 <77, 84, 86>데 쓰인다. <87>에서 손 개요 및 추출 기능에는 어떤 것이 아니라 검증 과정에서 역할을 분출하는 지점의 그룹에 의해 표시된다. 이 연구의 목적과 손 모양에 대한 위치를 확인하는 수단으로 <88> 높은 순서대로 Zernike 순간을 기반으로 제안한다. 그러나 이 연구에서 제안된 방식 기능을 손으로 모양을 추출하기 위한 라돈 변환을 사용한다. 손에서 손바닥은 매우 중요한 해부학적 기능을 가지고 있어 이 방법이 이용되고 있다. 손바닥의 질량의 중심과 경계 지점 간의 거리는 가운데 손가락 끝이 최대치 이다. 이 같은 사실은 라돈 변환을 위한 최적의 매개 변수를 찾기 위해 사용되며 한 차원 위치에서 불변하는 기능을 두 손의 실루엣에서 찾는다.A convenient editing system and a good identification and authentication system come from the popular hand shape of biometrics. Previous work has involved a variety of methods including length, width, thickness, geometry, palm shape, and finger geometry for shape recognition. Pegs, a typical method, are almost always used to correct the position of the hand and are used to shoot with anatomical measurements <77, 84, 86>. In the hand outline and extraction function, it is represented by a group of points that emits a role in the verification process. The purpose of this study is to suggest Zernike moments in high order as a means of confirming the position and position of the hand shape. However, we use the Radon transform to extract shapes by hand from the proposed method in this study. The palm of the hand has a very important anatomical function and this method is used. The distance between the center of the palm's mass and the boundary is the maximum at the tip of the middle finger. This fact is used to find the optimal parameters for the radon transformation and the ability of the two hands to look for functions that are invariant in one dimensional position.

<본 발명에 따른 일예의 방법><An example method according to the present invention>

페그를 사용하지 않는 손 모양이 인증 제도를 이 연구에서 제안했으며 이것은 라돈 변환을 사용하여 불변하는 기능 벡터 위치에 압축을 푼다. 라돈 변환은 간단하게 대상의 모형 이미지를 0에서 360도에 따른 선으로 표현하는 것이다. 하지만 라돈 변환 방향에 따라 최적의 촬영이 가능하다. 그 최적의 각도 위치에 의해 손바닥의 centroid와 가운데 손가락 끝을 찾아야 한다. 기능을 추출 과정의 여러 단계를 설명하느 부분도 이 섹션에 있다. 토론은 라돈 변환의 간단한 소개와 함께 시작된다.The non-peg handed authentication scheme was proposed in this study, which uses the Radon transform to decompress the invariant functional vector position. The radon transformation simply represents the model image of the object as a line from 0 to 360 degrees. However, depending on the direction of the radon transition, optimal shooting is possible. The optimal angular position should find the centroid of the palm and the tip of the middle finger. This section also describes the various steps of the feature extraction process. The discussion begins with a brief introduction of the radon transformation.

<라돈 변환><Radon transformation>

라돈 변환으로 유명한 오스트리아의 수학자 카를 요한 라돈 어거스트의 이름을 따서 지었다. Named after Austrian mathematician Karl Johan Radon August, famous for his radon transformation.

라돈의 한 주요 응용 프로그램을 변환 CAT 스캔이다. 또한 이미지의 라인을 자주 검색하는 데사용된다. 한 이미지 f(x, y)의 라돈 변환은 주어진 각도가 0으로서 주어진 각도를 따라 이미지를 투영하여 변환하고 결과 예측이 그 방향으로, 또는 다른 단어에서 픽셀의 농도의 핵심 라인을 합한 1차원 기능이다. One major application of radon is CAT scan conversion. It is also used to frequently search for lines of an image. The radon transformation of one image f (x, y) is a one-dimensional function in which the given angle is zero and transforms by projecting the image along the given angle and the resulting prediction sums the key lines of pixel concentration in that direction, or in another word. .

F(x, y)이미지의 라돈 변환은 θ 각도에서 다음의 식 9와 같이 정의 할 수 있다.The radon transformation of the F (x, y) image can be defined at Eq.

(식 9)(Eq. 9)

Figure 112009077950517-PAT00015
Figure 112009077950517-PAT00015

여기서, (x, y)가 공간을 상징하고 p는 θ각도의 좌표에서 반지름 거리에 있는 것을 상징한다. 공간좌표계와 매개 변수의 관계를 설명하는 것은 도 12의 (a)에서 보여준다.Here, (x, y) symbolizes space and p symbolizes the radial distance from the coordinates of θ angle. The relationship between the spatial coordinate system and the parameters is shown in FIG.

이 속성은 이미지의 라인을 감지 하는데 쓰인다<89>. 도 12의 (b)와 (c)에서 라인 감지를 보여준다. This property is used to detect lines in the image <89>. Line sensing in FIGS. 12 (b) and (c) is shown.

라돈 변환은 몇 가지 중요한 속성을 갖고 있다. 제일 중요한 속성은 선형성(식 10), 이동성(식 11), 회전성(식 12)이다.Radon transformation has several important properties. The most important attributes are linearity (Eq. 10), mobility (Eq. 11), and rotationality (Eq. 12).

(식 10)(Eq. 10)

Figure 112009077950517-PAT00016
Figure 112009077950517-PAT00016

(식 11)(Eq. 11)

Figure 112009077950517-PAT00017
Figure 112009077950517-PAT00017

(식 12)(Eq. 12)

Figure 112009077950517-PAT00018
Figure 112009077950517-PAT00018

<이미지 수집><Image Collection>

기능 추출 과정은 손 이미지를 수집하는 것과 함께 시작된다. 문서 스캐너는 어두운 배경에 있는 낮은 해상도 이미지를 수집하는 데 사용했다. 75 dpi 이미지를 8 비트 그레이 스케일 형식으로 촬영했다. 각각의 이미지는 638-876 픽셀 사이즈이다. 도 13에서는 대상의 이미지를 보여 준다. 하나의 피사체 촬영을 통해 18개를 대상으로 총136 이미지를 촬영했다. 그레이 스케일 이미지는 다음 이진 이미지 임계값에 의해 변환된다. 손목을 형태학 연산자를 사용하여 지운 다음 centroid를 계산하기 위해 손의 경계 끝을 추적한다. 이론적으로, centroid의 경계에 있는 최대 거리는 중간 손가락 끝부분이다. centroid와 함께 이러한 관점은 라돈 변환을 위한 최적의 각도를 결정하는 데 사용된다.The feature extraction process begins with collecting hand images. The document scanner was used to collect low resolution images on a dark background. 75 dpi images were taken in 8-bit grayscale format. Each image is 638-876 pixels in size. 13 shows an image of an object. A total of 136 images were taken of 18 subjects using a single subject. The gray scale image is then converted by the binary image threshold. The wrist is erased using morphological operators and then the end of the hand's boundary is traced to calculate the centroid. Theoretically, the maximum distance at the boundary of the centroid is the middle finger tip. Together with centroid, this view is used to determine the optimal angle for radon transformation.

<회색 스케일 바이너리(binary) 변환><Grayscale binary conversion>

도 14의 (b)는 도 14의 (a)의 샘플이미지의 강도에 대한 막대 그래프이다. (a)의 이미지는 막대그래프로 계산 되기 전에 먼저 (0,1)범위안에 들기 전에 이중 포맷으로 변환되었다. 임계값 설정은 쉬운편인데 어두운 배경을 바탕으로 이미지가 촬영 되었기 때문이다. 이미지를 보면 알 수 있듯이 회색 픽셀은 배경 쪽 이미지와 잘 구분되어 있다. 세기 간도는 0.15이다. 따라서 임계값은 T=0.15로 결정되었고 이 값은 데이터안의 모든 이미지에 적용된다. 어떤 세기 값이 T보다 많을 경우 값은 1로 표시되고 그 보다 낮을 경우 0으로 설정된다. 도14의 (c)는 바이너리 이미지를 보여준다. 어두운 배경으로 하얗게 점들이 박혀 있는게 보일 것이다. 이 점들은 손목을 지우는 동안 없앨 것이다.FIG. 14B is a bar graph of the intensity of the sample image of FIG. 14A. The image in (a) was converted to dual format before it was in the range (0,1) before it was calculated as a bar graph. Setting the threshold is easy because the image was shot against a dark background. As you can see from the image, the gray pixels are well separated from the background image. Century span is 0.15. Thus, the threshold was determined to be T = 0.15, which applies to all images in the data. If any intensity value is greater than T, the value is displayed as 1 and if it is lower than it, it is set to 0. Figure 14 (c) shows a binary image. You will see that the dots are white with a dark background. These dots will go away while you remove your wrist.

<손목 형태 지우기 과정><Clear wrist process>

손바닥의 centroid의 정확한 지점을 알아야 이 방법은 성공할 수 있다. 손 이미지로부터 손목 부분을 꼭 지워야 한다. 이것은 형태학 운영에서 할 수 있다. 형태학에서 이진 이미지를 하기 식 13과 같이 정의 한다.Knowing the exact location of the centroid of the palm of the hand can be a success. You must remove the wrist from the image of your hand. This can be done in morphological operations. In morphology, binary image is defined as in Equation 13.

(식 13)(Eq. 13)

Figure 112009077950517-PAT00019
Figure 112009077950517-PAT00019

형태학 오프닝에서 구성 요소보다 작은 회색 픽셀들을 지운다. 디스크 타입의 구성요소는 반지름 100안에서 선택한다.Erase gray pixels smaller than the component in the morphological opening. The component of the disc type is selected within radius 100.

손가락 끝 확인Fingertip check

이 방법에서 가운데 손가락 끝을 확인 하는 것은 중요한 과정이다. Centroid와 함께 손바닥 정중앙이며 라돈 변환의 각도 변수를 측정하는데 쓰인다. 즉 이 두 지점에서 어떤 방향으로 라인을 촬영해야하는지 핵심정보를 제공하는 것이다. 손바닥의 centroid 거리는 식 5와 식 6으로 계산된다. Centroid 최대거리는 손 경계선과 가운데 손가락 끝이다. 이 지점은 이후 섹션에서는 컨트롤 포인트라고 불린다.Checking the middle finger tip is an important process in this method. Together with Centroid, it is the center of the palm and is used to measure the angular parameters of the radon transformation. That is, it provides key information about which direction the line should be shot at these two points. The centroid distance of the palm is calculated by equations 5 and 6. The maximum centroid distance is the hand boundary and the middle finger tip. This point is called the control point in later sections.

이 포인트는 (CTRLx,CTRLy)로 상징된다. centroid거리를 계산하기 위해 먼저 손경계를 추적해야 한다. 경계선은 8개의 연결된 이웃을 이용하여 추적한다. 이 과정은 <90>에 자세히 묘사 되어 있다. 도 16의 (a)는 바이너리 손 이미지를 보여 준다. 도 16의 (b)에서는 centroid와 컨트롤 포인트가 빨간 점으로 마크 되어 있다. 컨트롤 포인트는 도 16의 (c)에서 보여진 것처럼 최대 centroid거리에 위치하고 있다. This point is symbolized by (CTRLx, CTRLy). To calculate the centroid distance, you first need to track your hand boundary. Boundaries are tracked using eight connected neighbors. This process is described in detail in <90>. Fig. 16A shows a binary hand image. In FIG. 16B, the centroid and the control point are marked with red dots. The control point is located at the maximum centroid distance as shown in FIG.

<특징벡터 추출><Feature Vector Extraction>

라돈 변환을 위한 최적의 각도를 간단하게 라인을 연결하는 경사를 계산(식 14)하여 찾을 수 있다 (Cx,Cy)&(CTRLx,CTRLy).이 것은 수학적으로도 계산할 수 있다.The optimal angle for the radon transform can be found by simply calculating the slope connecting the lines (Eq. 14) (Cx, Cy) & (CTRLx, CTRLy), which can be calculated mathematically.

(식 14)(Eq. 14)

Figure 112009077950517-PAT00020
Figure 112009077950517-PAT00020

바이너리 손 이미지의 라돈 변환 계산은 불변 기능 벡터 회전 줄 것이다. 하지만 포지션의 불변성은 다른 프로브 이미지에 변화가 오는 문제로 인해 얻을 수 없다. 이 문제는 식 6의 이동 속성을 사용하여 θoptimal을쓰고 (Cx,Cy)≡(X0,Y0)로 지정하다. 도 17에서는 두개의 다른 손 이미지를 계산된 기능등을 보여준다.Radon transform calculations of binary hand images will give invariant function vector rotation. However, position invariance cannot be achieved due to changes in other probe images. This problem is written using (Cx, Cy) ≡ (X0, Y0) with θoptimal using the shift property of Equation 6. In FIG. 17, two different hand images have been calculated.

[수행 분석][Performance Analysis]

<매치 점수><Match score>

기능 벡터를 위한 매치 점수는 아래의 식 15로 정의 되어진다.The match score for the function vector is defined by Equation 15 below.

(식 15)(Eq. 15)

Figure 112009077950517-PAT00021
Figure 112009077950517-PAT00021

여기서, X와 Y가 가각 갤러리와 프로브 기능 벡터를 나타낸다. Here, X and Y represent each gallery and a probe function vector.

<결과><Result>

총 136개의 이미지를 포착 했다. 한사람당 한 개의 갤러리 이미지를 남기고 총 118개의 프로브 이미지가 있다. FAR과 FRR의 다른 임계값 유통은 도 18의 (a)에서 보여준다. 그 교차점은 임계값 0.82이다. 도 18의 (b)에서는 ROD곡선을 보여줬다. EER은 임계값이 0.82일 경우 5.1%를 가지고 있다.A total of 136 images were captured. There are a total of 118 probe images leaving one gallery image per person. Another threshold distribution of FAR and FRR is shown in Figure 18 (a). The intersection is threshold 0.82. In FIG. 18B, the ROD curve is shown. EER has 5.1% when the threshold is 0.82.

<77>에서 360개의 이미지가 테스트 됐고 2%의 FAR과 15%의 FRR이 측정 되었다. <84>에서는 20명의 사람들의 200 손이미지를 테스트 해서 97%의 성공적인 신분확인과 에러율은 10% 미만인 것을 보고했다. 이 두가지 실험 모두 훌륭한 결과라고 할 수 있다. Oden 외 다수<85>는 40 이미지를 통한 확인 과정에서 95%의 성공율과 99% 인증과정 성공률을 보였다. 그러나 성공률은 높지만 인원수가 많지 않다. Jain과 Duta<86>는 353이미지를 가지고 손가락 등고선과 그 사이의 정렬 오류에 대한 측정을 통한 인증 시스템을 개발했다. 그들은 2%의 FAR과 3.5%의 FRR을 보고했다. 여기서 보여준 연구에서는 EER은 5.1%였다. <77>에서의 연구와 비교했을 때 FRR은 10% 미만이었다. 또한 <84>보다는 확인결과가 더 나았다. 그러나 <86>에서는 수준 높은 수행을 보여주었다. 이 연구에 쓰인 136 이미지 데이터세트는 평범했지만 비슷한 결과가 더 큰 데이터 세트에서도 보여지길 기대 한다. In <77> 360 images were tested and 2% FAR and 15% FRR were measured. In <84>, 200 hand images of 20 people were tested and reported that 97% of successful identification and error rates were less than 10%. Both of these experiments are excellent results. Oden et al. (85) showed a 95% success rate and a 99% success rate during the verification process using 40 images. However, the success rate is high but the number of people is not large. Jain and Duta have developed an authentication system that takes 353 images and measures finger contours and misalignments between them. They reported a 2% FAR and a 3.5% FRR. In the study shown here, the EER was 5.1%. FRR was less than 10% when compared to the study in <77>. Also, the verification result was better than that of <84>. However, <86> showed high performance. Although the 136 image dataset used in this study is mediocre, we expect similar results to be seen in larger datasets.

이상의 설명된 일예를 요약하면, 손모양에 따른 인증 시스템에 대한 신기술이 이번 장에서 소개 되었다. 가로, 세로 길이를 재는 대신 이 방법은 손모양에서 불변하는 여러 요소들을 감안했다. 또한 peg(구체) 없이도 수행 할 수 있도록 했다. 저해상도 이미지에 단순한 문서 스캐너로 5.1%밖에 안되는 인식오류율을 보였다. 제안된 방법에 대한 시각은 도에 나타나 있다. 134 이미지가 테스트 되었다. 그러나 수행 분석은 더 큰 데이터 세트를 필요로 한다.Summarizing the example described above, a new technology for handheld authentication systems is introduced in this chapter. Instead of measuring width and length, this method takes into account several factors that are invariant in hand shape. It can also be run without peg (sphere). A simple document scanner on low-resolution images showed a recognition error rate of only 5.1%. The perspective of the proposed method is shown in the figure. 134 images were tested. However, performance analysis requires larger data sets.

[포스 프로파일을 이용한 생체인식 시스템][Biometric System using Force Profile]

걸음걸이는 새로 각광받기 시작한 생체인식에 필요한 특성 중 하나이다. 모방하기 어렵거나 따라하기 어려운 것은 장점 중 하나이며, 이 특성은 사람들이 거리가 떨어져 있어도 사람들을 식별할 수 있는 유일한 특성이다. 걸음걸이 인식에 대한 연구는 간단하게 두개의 메인 클래스<91>로 나눌 수 있다. 첫번째는 상태공간방법으로서 걸음걸이가 몸의 순서대로 구성되어진 포즈이며 정적 포즈<92,93>를 관찰함으로서 얻어지는 인식 방법이다. Murase과 Sakai<92>는 서로 다른 걸음걸이를 고유공간에서 분별해 내는 템플릿 매칭 방법을 연구했다. Huang 외 다수<93>는 권위있는 분석을 더하여 연구를 했다. 두 번째 클래스는 시공간 방법이다. 시공간법은 동작들의 계속성<94, 95, 96>에 있다. <94>에서는 다른 사람들이 걸을 때 시공간 걸음걸이 패턴에 따라 커브 피팅 ‘스네이크’를 적용했다. Little과 Boyd<95>는 옵티컬 플로우의 빈도수와 양상 기능에 따른 걸음걸이의 변화를 이용했다. 최근에는 Shutler 외 다수<96>는 상태공간에서 시공간으로 넓게 걸음걸이 인식을 측정한다. 그리고 BenAbdelkader외 다수<91>은 움직이는 사람의 자기 유사성 이미지를 이요하여 측정하는 단계를 연구하고 있다. Gait is one of the characteristics required for newly recognized biometrics. Difficult to imitate or difficult to follow is one of its advantages, and this is the only one that can identify people even when they are far away. The study of gait recognition can be briefly divided into two main classes. The first is the state space method, which is a pose in which the gait is configured in the order of the body, and is a recognition method obtained by observing a static pose <92,93>. Murase and Sakai <92> studied a template matching method that distinguishes different steps in their own space. Huang et al. (93) have added authoritative analysis. The second class is space-time method. The space-time method is in the continuity of operations <94, 95, 96>. In <94>, he applied a curve fitting “snake” based on the space-time gait pattern when others walked. Little and Boyd <95> took advantage of changes in gait according to the frequency and pattern of optical flow. Recently, Shutler et al. [96] measure gait perception widely from state-space to space-time. BenAbdelkader et al. (91) are studying the steps of measuring and measuring the self-similar image of a moving person.

현존하는 걸음걸이 인식 알고리즘은 거리가 떨어져서 본인 확인을 하도록 디자인 되었다. 대부분의 걸음걸이 실루엣에 관한 연구는 움직이는 이미지에서 추출 되었다. 이런 이미지는 조절 된 환경에서 포착이 된다. 보는 각도에 대해서도 제안이 많은 연구이다. 그러나 최근 걸음걸이 인식에 새로운 접근법이 연구되었다. 이미지 센스에서 걷는 모양을 연구하기 보다는 이 새방법은 포스 프로파일이나 걷는 도중의 엑셀레이션을 연구한다. 포스 프로파일은 개인마다 다르다고 여겨진다. 인증을 위한 가속도계 데이터를 캡쳐하는데 가속도 센서를 사용한다<97>. 그리고 <98>에서는 포스 프로파일에서 추출한 몇 개의 걸음걸이와 복합적인 분류가 인식을 위해 사용되어 왔다.Existing gait recognition algorithms are designed to verify identity over distance. Most gait silhouettes have been extracted from moving images. These images are captured in a controlled environment. There are many proposals for viewing angles. Recently, however, a new approach to gait recognition has been studied. Rather than studying the shape of the walking in the image sense, the new method studies force profiles or walking acceleration. Force profiles are thought to vary from person to person. Accelerometers are used to capture accelerometer data for authentication <97>. In [98], several gait and complex classifications extracted from force profiles have been used for recognition.

힘측정판에서 비롯한 걸음걸이 프로파일을 본인 확인을 위한 방법으로 쓰는 것을 제안한다. 이 시스템의 장점은 다른 생체인식이 불가능 할 겨우 사람의 걸음걸이로 인증을 할 수 있도록 한다. 다른 장점으로는 이 인식 방법은 다른 생체 인식 방법보다 겸손한 인식방법이라는 것이다. 모든 개개인은 다른 걸음 걸이를 가지고 있다. 제안된 방법에서는 힘측정판에서 걸음걸이 데이터를 사용하여 많은 데이터를 수집했다. 힘 측정에 따라 세가지 다른 그라운드 리액션인 수직적, 수평적, 측면적인 측정이 가능하다. DWT의 도움을 받아 오염되지 않은 데이터 수집이 가능하다. 그 후 인식 목표를 위한 막대그래프의 유사점이 사용된다.It is suggested to use the gait profile from the force measurement board as a way to verify your identity. The advantage of this system is that it can be authenticated by human gait if no other biometrics are possible. Another advantage is that this recognition method is a modest recognition method than other biometric methods. Every individual has a different step. In the proposed method, a lot of data were collected using the gait data from the force measurement board. Depending on the force measurement, three different ground reactions are available: vertical, horizontal and lateral. With the help of DWT, data can be collected uncontaminated. Then the similarity of the histogram for the recognition goal is used.

[데이터 추출과 전처리][Data Extraction and Preprocessing]

<데이터 추출><Data extraction>

지상반응포스데이터를 AMTI힘측정판을 사용하여 추출했다. AMTI의 여러 플랫폼은 세계 여러 곳의 생체인식 연구소와 수백개의 걸음걸이를 바탕으로 만들어 졌다. 3차원의 공간에서 힘과 시간은 3개의 축을 중심으로 3개의 구성요소로 나뉠수 있다. 그러나 힘측정 플랫폼은 세개의 직교 세력과 반응하는 6개의 아웃풋을 제공하며 세개의 직교 순간은 플랫폼의 외관에서 반응한다. 좌표 시스템에서 세개의 표는 X, Y, Z로 불리고 연관된 힘과 시간은 Fx,Fy,Fz,과 Mx,My,Mz로 불린다. 이 힘플랫폼은 오른쪽 좌표 시스템에서 양성 Z 축이 밑으로 향하는 형식이다. 양성Y축은 수평적으로 앞을 향해 있고 양성X 축은 왼쪽으로 중심이 되어 양성Y쪽으로 보고 있다<99>. 이 좌표 시스템은 도 20에 나타나 있다. 이 도형에서 크로스는 Z축이 수직으로 밑으로 향한다는 뜻이다. Ground reaction force data was extracted using an AMTI force plate. Many of AMTI's platforms are built on biometric laboratories around the world and hundreds of steps. In three-dimensional space, force and time can be divided into three components around three axes. However, the force measurement platform provides six outputs that react with three orthogonal forces, and three orthogonal moments react in the platform's appearance. The three tables in the coordinate system are called X, Y, and Z, and the associated forces and times are called Fx, Fy, Fz, and Mx, My, Mz. This force platform is a positive Z-axis pointing down in the right coordinate system. The positive Y axis is horizontally forward and the positive X axis is centered to the left and looking towards positive Y (99). This coordinate system is shown in FIG. In this figure, cross means that the Z axis is vertically downwards.

3명의 남성과 3명의 여성으로 나이대는 22세에서 45세사이의 그룹이 이 연구에 참가했다. 이 연구의 목적은 각각의 대상들에게 실험에 들어가기 전에 연구목적에 대해 설명하는 것이다. 실험참가자들은 그들이 보통의 환경에서 안정적으로 걸을 수 있을만큼 연습했다. 각 참가자들은 똑같은 실험을 반복하여 3번의 깨끗한 실험결과가 나올 수 있게 했다. 처음 데이터 샘플은 등록 데이터로 쓰이고 나머지 두개는 인식 과정에서 쓰였다. 따라서 우리는 두번의 실질적인 실험과 10의 가짜 실험을 각 참가자마다 참여했고 총 12 실질적인 결과와 60 가짜 결과를 받았다. 이 데이터는 한국표준과학 연구원의 건강계측 그룹의 Motion Analysis Laboratory에서 수집했다.Three men and three women aged 22 to 45 years of age participated in the study. The purpose of this study is to explain the purpose of the study to each subject before entering the experiment. Participants practiced enough to walk steadily under normal conditions. Each participant repeated the same experiments, resulting in three clean experiments. The first data sample was used as registration data and the other two were used during the recognition process. Therefore, we participated in two substantive experiments and 10 fake experiments for each participant and received a total of 12 substantive results and 60 fake results. This data was collected from the Motion Analysis Laboratory of the Korean Institute of Standards and Science's Health Measurement Group.

<잔물결을 이용한 데이터 전처리><Data preprocessing using ripples>

힘측정판에서 X,Y,Z 축의 시그널이 담긴 것은 도 21에서 볼 수 있다. 세가지 방향에서 모든 데이터를 수집해 분석하거나 여러 시그널을 복합하여 분석하는 것이 가능하다. 그러나 우리의 연구 결과 Z축 데이터가 인식을 위한 데이터로 가장 적합하다는 것을 알았다. 이런 가공하지 않은 데이터는 주변 환경의 소음이나 전자기기나 디지털 컴퓨터에서 나오는 소리 때문에 오염될 가능성이 있다. 소음은 우리가 실질적인 인식 과정에 도달 하면 큰 문제가 된다. 그래서 우리는 잔물결 변환을 통해 데이터를 보호 하기로 했다. X의 개별적인 잔물결 변환 시그널은 다음과 같이 정의 한다.(식 16, 17, 18)In the force measurement plate, the signals of the X, Y, and Z axes can be seen in FIG. 21. It is possible to collect and analyze all data from three directions or to combine multiple signals. However, our study found that Z-axis data is the best data for recognition. This raw data can be contaminated by the noise of the surrounding environment or the sound from electronics or digital computers. Noise becomes a big problem once we reach the practical recognition process. So we decided to protect the data through the ripple transform. The individual ripple transform signals of X are defined as follows (Eqs. 16, 17, and 18).

(식 16)(Eq. 16)

Figure 112009077950517-PAT00022
Figure 112009077950517-PAT00022

웨이블렛 계수는 아래와 같이 정의 한다.The wavelet coefficient is defined as follows.

(식 17)(Eq. 17)

Figure 112009077950517-PAT00023
Figure 112009077950517-PAT00023

(식 18)(Eq. 18)

Figure 112009077950517-PAT00024
Figure 112009077950517-PAT00024

레벨5급의 웨이블릿은 ‘db4’를 사용하여 소음을 방지한다. 따라서 우리는 소음이 0일 경우 그 뜻은 하얀 Gaussian 소음이라고 알고 있다. 각 레벨의 임계값 분해는 부드러운 임계값으로 선택한다. 선택된 임계값은 RISK(Stein’s Unbiased Risk estimate)의 원리를 따른다. 만약 우리가 소음 시그널을 깨끗한 시그널과 화이트 노이즈를 합한 값으로 모델을 정하면 각 레벨의 상세계수는 클린시그널과 소음의 상세값과 중첩될 것이다. 화이트 Gaussian 소음과 부드러운 임계값을 적용하면 소음은 눈에 띄게 줄어 들 것이다. 도 22, 23은 일반적인 Z축의 걸음걸이 데이터와 소음제거 후의 데이터를 보여준다. Level 5 wavelets use ‘db4’ to prevent noise. So we know that if the noise is zero, it means white Gaussian noise. Threshold decomposition at each level is chosen with a smooth threshold. The selected threshold value follows the principle of Stein's Unbiased Risk estimate (RISK). If we model the noise signal as the sum of the clean signal and the white noise, the details of each level will overlap the clean signal and noise details. Applying white Gaussian noise and a soft threshold will reduce the noise noticeably. 22 and 23 show gait data of general Z-axis and data after noise reduction.

<인식 알고리즘><Recognition Algorithm>

막대 그래프는 Hi매핑하고 있으며 측정 된 데이터 샘플을 세고 있다. 그 데이터는 공통적인 부분이 없는 카타고리에 빠질 수도 있다. 따라서 만약 N이 샘플들의 총 숫자라면 K는 쓰레기통의 총 숫자이고 막대그래프 Hi는 하기 식 19와 같다.The bar graph is Hi-mapped and counts the measured data samples. The data may fall into categories that do not have anything in common. Therefore, if N is the total number of samples, then K is the total number of bins and histogram Hi is given by Eq.

(식 19)(Eq. 19)

Figure 112009077950517-PAT00025
Figure 112009077950517-PAT00025

보통의 데이터 막대그래프는 총 샘플 중에서 쓰레기통으로 가는 샘플의 숫자를 정상화 시킨다. 즉 정상화 된 막대그래프는 막대그래프에 대한 쓰레기통의 유통에 있다. 수학적으로 만약 ni가 ith의 개체수라면 이것의 정상화 된 막대그래프는 하기 식 20과 같다.Normal data histograms normalize the number of samples going to the trash out of the total samples. In other words, the normalized bar graph is in the distribution of waste bins to the bar graph. Mathematically, if ni is a population of ith, its normalized bar graph is given by Equation 20 below.

(식 20)(Eq. 20)

Figure 112009077950517-PAT00026
Figure 112009077950517-PAT00026

기능을 추출하기 위해 도 24, 25에서 보여준 것처럼 n 저장소 막대그래프를 Z축 판으로 정상화 시킨다. 히스토그램의 장점은 데이터 시그널의 진폭이며 따라서 이번 실험에서 도 24에서 본 것 처럼 위상지연은 인식 프로세스에서는 주요 관심사가 되지 않는다. N쓰레기통 히스토그램의 정상화란 모든 범위대에서의 데이터 샘플이 똑 같은 크기로 나눠지고 도 25에서 수직축에 보이는 값이 총 샘플 숫자에서 각 쓰레기통의 수를 백분율화 하는 것이다. 히스토그램은 세 번의 실험 모두 아주 비슷한 결과를 보였으면 이 것은 인식 시스템을 위해 좋은 방법이라는 것이다. 그에 따라 우리는 두 개의 히스토그램을 절대 거리의 면에서 가격 지수를 정의 내려야 한다.To extract the function, normalize the n reservoir histogram to the Z-axis plate, as shown in Figures 24 and 25. The advantage of the histogram is the amplitude of the data signal, so phase delay is not a major concern in the recognition process, as shown in Figure 24 in this experiment. Normalization of the N-trash histogram means that data samples in all ranges are divided into equal sizes, and the value shown on the vertical axis in FIG. 25 is the percentage of each bin in the total number of samples. If the histogram shows very similar results for all three experiments, this is a good method for the recognition system. Therefore, we need to define two histograms for the price index in terms of absolute distance.

(식 21)(Eq. 21)

Figure 112009077950517-PAT00027
Figure 112009077950517-PAT00027

Xi는 히스그램X의 정상적인 등록과정에서 쓰레기통으로 데이터가 빠지는 경우이고 Yi는 확인 과정에서 쓰레기통으로 데이터가 빠지는 경우이다. N은 히스토그램을 컴퓨팅 하는데 쓰인 쓰레기통 숫자이다. 거리 값 (d)는 2개의 가짜 데이터 샘플간의 비슷한 점수를 나타낸다. 두 개의 히스토그램이 유사 할수록 d 값은 작아진다. 실사용자의 시도 값이 사기꾼의 시도값보다 낮아야 정상이다. 도 26은 제시한 방법의 처리 절차에 대한 간단한 설명이다.Xi is a case where data is dropped into a trash bin during the normal registration of Histogram X, and Yi is a case where data is dropped into a trash bin during the verification process. N is the number of bins used to compute the histogram. The distance value (d) represents a similar score between two fake data samples. The more similar the two histograms, the smaller the value of d. It is normal that the actual user's attempt value is lower than the fraudster's attempt value. Figure 26 is a brief description of the processing procedure of the presented method.

<결과><Result>

제안한 방법의 수행을 분석하는 데 쓰이는 것은 FAR과 FRR이며 정의 내린 공식은 식 2와 식 3이다.FAR and FRR are used to analyze the performance of the proposed method, and the formulas defined are Equations 2 and 3.

FAR과 FRR이 낮게 나오 것은 인식능력이 뛰어나다는 걸 뜻한다. 테이블1은 FAR과 FRR이 서로 다른 쓰레기통 숫자에 대한 값을 가지고 있는 걸 보여준다. N=5, 10, 15, 20, 25. N=5, FAR은 3.33%이고 FRR은 16이다. 이 것은 히스토그램 방법에서 가장 좋은 결과를 보여 준다. 다른 중요한 관찰은 N=15 이거나 이상일 때는 인식률이 그다지 높지 않다는 것이다.(표 2 참조)Lower FAR and FRR mean better perception. Table 1 shows that FAR and FRR have values for different bin numbers. N = 5, 10, 15, 20, 25. N = 5, FAR is 3.33% and FRR is 16. This gives the best results from the histogram method. Another important observation is that recognition rates are not very high when N = 15 or above (see Table 2).

Figure 112009077950517-PAT00028
Figure 112009077950517-PAT00028

생체인식에 기반한 힘측정판은 걸음걸이 인증 시스템처럼 센서에 기반한 인증 모드로 실행할 수 있다. 시력에 기반한 걸음걸이 인식 시스템과는 달리 감시 카메라와 이미지를 사용해 사람들을 확인하고 그들의 걸음걸이나 힘측정판 생체 인식의 경우 제한된 엑세스 시스템으로 사용자 확인이 가능하다. 지문인식이나 안면인식 시스템을 사용할 수 없을 경우 힘측정 데이터는 가능한 옵션이다. 또한 이 시스템은 지문이나 얼굴 인식 시스템과 함께 사용할 수 있다. 여기에 소개된 힘측정 생체인식 시스템은 예전에 소개된 것보다 훨씬 간단하다. 이번에 우리가 사용한 기능은 한 개이지만 기존 연구에서는 3개의 다른 기능이 확인 절차 시 사용되었다. 더구나 기존의 것은 확인을 위해 복합적인 분류가 필요로 했다. 그러나 우리는 거리 측정에 기반한 간단한 히스토그램을 확인 절차에 사용하고 있다. 비록 그들의 분석이 우리의 2배가 되는 11개의 실험 대상을 통해 이루어 졌지만 우리의 성공적이 인식률은 더 높고 훨씬 큰 실험 그룹에서도 비슷한 결과가 나올 것이라 기대하고 있다. 이 논문에서 우리는 한 걸음 시그널만 분석했다. 여러 개의 걸음 데이터를 비슷하게 분석하면 더 성공적인 인식률이 나올 것이다.Biometric force-based force plates can be run in sensor-based authentication mode like a gait authentication system. Unlike vision-based gait recognition systems, surveillance cameras and images can be used to identify people and, in the case of their gait or force plate biometrics, users can be identified with a limited access system. Force measurement data is a viable option if fingerprint or facial recognition systems are not available. The system can also be used with fingerprint or facial recognition systems. The force measurement biometric system introduced here is much simpler than previously introduced. At this time, we used one function, but in the previous study, three different functions were used in the verification process. In addition, the existing ones required complex classification for identification. However, we use a simple histogram based on distance measurement for the verification process. Although their analysis was conducted on 11 doubled subjects, we expect similar results to be achieved in our more successful and much larger experimental groups. In this paper we analyzed only one step signal. A similar analysis of multiple steps data will yield a more successful recognition rate.

[개요][summary]

걸음걸이를 통한 생체인식 시스템에서 오늘 날 큰 이슈가 되는 것은 한걸음을 기반으로 인증 방법이다. 이 방법은 지상 반응 힘을 통해 힘 측정판에서 추출해 내는 것이다. 이 인식기술의 장점은 사용자가 쉽고 편리하게 사용할 수 있다는 것이다. 본 발명에서 우리는 한걸음을 기반으로 한 인증 방법에 대한 여러 증거 자료들을 제시 했다. 연구 결과는 2가지로 나눌 수 있다. 첫 번째는 소음제거 실험 데이터로서 웨이블렛을 사용하여 ‘db4’ 레벨 5까지 줄이는 법이다. 그다음 히스토그램은 개인의 발걸음을 확인해 냈다. 이번 실험 결과는 수가 적은 그룹에서는 고무적인 결과이다. 그러나 앞으로 더 큰 수의 그룹에서 여러 문제점, 예를 들면 다른 신발을 신는다거나 짐을 들고 있다는 등의 변수를 고려하는 실험이 필요하다. 또한 오류율을 줄이기 위한 알고리즘의 실행이 필요하다.A big issue today in biometric systems through gait is the one-step authentication method. This method extracts from the force plate through ground reaction forces. The advantage of this recognition technology is that the user can use it easily and conveniently. In the present invention, we present several evidences of the authentication method based on one step. The research results can be divided into two. The first is noise reduction test data, using wavelets to reduce db4 to level 5. The histogram then confirmed the individual's steps. The results are encouraging for a small group. In the future, however, experiments need to take into account variables such as problems with larger groups, such as wearing different shoes or carrying luggage. It is also necessary to run the algorithm to reduce the error rate.

[결론과 미래 나아갈 방향] [Conclusion and Direction to the Future]

본 발명은 생체인식 인증과 확인에 관한 것이다. 생체인식 인증.확인 사용자에 대해 지난 몇십년간 가장 많은 연구가 진행 되었다. 현재 컴퓨터, 그래픽, 네트워크, 데이터 베이스 시스템의 발전과 디지털 시그널 프로세싱의 발달은 생체인식 분야의 시장성을 높였다. 새로 떠오르는 생체인식 연구에는 걸음걸이, 귀, 그리고 발등이 있고 이런 특성들은 기존의 얼굴, 지문, 손모양등과 함께 연구되고 있다. The present invention relates to biometric authentication and verification. Biometric Authentication. Verification Users have been the most studied over the last few decades. Today, advances in computer, graphics, network, and database systems and digital signal processing have increased the market for biometrics. Emerging biometric research includes gait, ear, and instep, and these characteristics are being studied alongside existing face, fingerprint, and hand shapes.

본 발명에서는 세가지 신생체인식스켐이 세 가지 다른 분야에서 다뤄졌다. 생체인식 시스템에 대한 일반적인 소개가 처음 나왔다. 그 뒤 각 세 가지 방법이 뒤를 이어 소개 되었다. 생체인식 특성 중 이번 논문에서 소개 한 것은 얼굴, 손모양 그리고 포스 프로파일이다. 알고리즘이 제시되고 수행력이 평가 되었다.In the present invention, three new bioschemes have been dealt with in three different fields. A general introduction to biometric systems was first introduced. Each of these three methods was subsequently introduced. Among the biometric features introduced in this paper are face, hand and force profiles. Algorithms are presented and performance is evaluated.

2장에서는 3D 표면학을 적용한 신얼굴인식 기술에 대해 썼다. 이 방법은 얼굴 표면 데이터를 가지고 수평 모형에 등고선을 나누는 것이다. 그 뒤 코와 눈 사이의 지역을 사용하여 1차원적인 모양을 만들어 낸다. 이 디스크립터는 인증 절차 때 쓰인다. 테스트한 알고리즘은 100명의 사람들과 299개 ‘probe’이미지이다. 이 방법에서 EER (FAR과 FRR이 똑같을 때)은 4.563%를 보였고 이런 사이즈의 데이터세트에서는 아주 밝은 결과이다. 그러나 표면학에서는 소음이 오류율을 높이는 요소이다. In Chapter 2, I wrote about new face recognition technology using 3D surface theory. This method divides the contours into a horizontal model with face surface data. The area between the nose and the eye is then used to create a one-dimensional shape. This descriptor is used during the authentication process. The algorithm tested is 100 people and 299 "probe" images. In this method, EER (when FAR and FRR are the same) showed 4.563%, which is very bright for this size dataset. But in surface science, noise is a factor that increases error rates.

그 다음 장에서는 손에 관한 새로운 인증 기술이 소개 되었다. 서류 스캐너로 포착한 저해상도 손 이미지. Peg(구체)도 없고 불변기능 포즈 추출 방법으로 라돈 변환을 사용해 이진 손 모양을 포착한다. 이 방법은 18명의 사람들의 136 ‘probe’이미지를 사용해서 테스트 했다. 이 인식 방법은 EER이 5.1% 이다.The next chapter introduces a new authentication technique for hands. Low resolution hand image captured by a document scanner. It does not have a Peg and captures binary hands using the Radon transform as a method of extracting invariant poses. This method was tested using 136 "probe" images of 18 people. This recognition method has an EER of 5.1%.

포스프로파일(지상반응힘)도 4장에서 소개 되었다. 대상의 포스 프로파일이 그것인데 이는 사람이 압력에 민감한 매트위를 걸을 때 3가지 다른 축에서 포스를 재는 것이다. 포스 데이터 중 X축이 사용되면 웨이브렛 변환을 통해 소음제거를 한다. 그 뒤 소음 제거된 데이터를 계산한 히스토그램이 거리 인덱스가 된다. 인식 수행 과정에서는 다른 숫자의 쓰레기통이 사용된다. 제일 좋은 결과는 5개의 쓰레기통을 가진 FAR=3.33% 그리고 FRR=16%일 때이다.Phosphorus profile is also introduced in Chapter 4. The force profile of the subject is that, when a person walks on a pressure sensitive mat, the force is measured on three different axes. If the X-axis is used in the force data, noise reduction is performed through wavelet transformation. The histogram from which the noise-free data is calculated is then the distance index. Different numbers of bins are used in the recognition process. The best results are when FAR = 3.33% and FRR = 16% with five bins.

이번 연구에서 소개 된 생체인식 스캠은 결과들이 좋았다. 그러나 앞으로 더 개선해야 할 부부과 향후 연구에 대한 면이 분명히 있다. 얼굴인식과정에서 소음은 가장 큰 문제점이다. 3D 표면학 데이터를 이용한 이번 연구에서는 소음과 관련한 부분에 대해서는 어떤 시도도 없었다. 이 것은 수행력을 높이기 위해서 반드시 대두되어야 할 문제점이다. 덧붙여 수직 등고선과 수평 등고선이 복합되어 사용하게 되면 더 좋은 수행을 할 수 있을 것이다. The biometric scams presented in this study have good results. However, there are certain aspects of couples and future research that should be further improved. Noise is the biggest problem in the face recognition process. In this study, using 3D surface data, no attempt was made on noise. This is a problem that must be raised to improve performance. In addition, a combination of vertical and horizontal contours will provide better performance.

손모양 확인 방법에서는 손가락 길이, 넓이, 손바닥 넓이, 크기 등등 손기하학과 복합하여 좀 더 수행력을 높일 수 있다. 다른 잠재적인 연구에서는 손바닥 프린트와 손모양을 혼합하여 다기능 인식 방법을 연구할 수 있다. In the hand shape verification method, the finger length, width, palm width, size, etc. can be combined with hand geometry to improve performance. In another potential study, a mixture of palm prints and hand shapes can be used to study multifunctional recognition methods.

포스 프로파일은 시간과 함께 연구될 수 있다. 구두굽이 닿는 순간과 발가락이 떨어지는 순간을 포착하고 시간을 재서 인식 과정에 포함 시킬 수도 있다. 사람의 보폭 길이 역시 포스 프로파일에 포함 할 수 있다. 다른 가능성으로는 평지 걷기나 오르막 걷기, 내리막길 걷기 등 이 세가지의 포스 프로파일을 포착해서 만드는 것이다. 그러나 이런 실험은 디자인 하기가 매우 힘들다.The force profile can be studied with time. You can also capture and time your shoe heel and toe drop and include it in the recognition process. Human stride length can also be included in the force profile. Another possibility is to capture and create three force profiles: flat, uphill and downhill. However, these experiments are very difficult to design.

세 가지 신 생체인식양식이 이번 논문에서 다뤄졌다. 장래성 있는 결과도 포함되어 있고 이 것은 분명히 미래 연구에 기여할 것이다.Three new biometric patterns are discussed in this paper. Promising results are included and will certainly contribute to future research.

도 1은 전형적인 생체인식 시스템의 주요 구성요소를 도시한 것이다.1 illustrates the main components of a typical biometric system.

도 2는 ROC 그래프 모형의 예시를 도시한 것이다.2 illustrates an example of a ROC graph model.

도 3은 여러 생체인식 특성의 예시를 도시한 것이다.3 illustrates an example of several biometric features.

도 4는 외관상의 데이터 베이스에 따른 네가지 다른 자세를 도시한 것이다.4 shows four different postures according to an apparent database.

도 5는 3차원 얼굴에서의 랜드마크 마커(a) 및 마커와 정보가 제거된 3차원 형상(b)을 도시한 것이다.FIG. 5 shows a landmark marker (a) in a three-dimensional face and a three-dimensional shape (b) from which markers and information have been removed.

도 6은 크로스섹션 등고선을 마커와 정보가 제거된 3차원 형상에서 추출한 것이다.6 is a cross section contour extracted from a three-dimensional shape from which markers and information are removed.

도 7은 코끝확인 절차과정 데모를 도시한 것이다.7 shows a demonstrating nose tip procedure.

도 8은 4개의 선별된 등고선 기능 추출을 도시한 것이다.8 shows four selected contour function extractions.

도 9는 실사용자와 사기꾼간의 서로 다른 임계값 설정을 위한 데이터를 도시한 그래프이다.9 is a graph illustrating data for setting different threshold values between an actual user and a fraudster.

도 10은 수용자의 작업특성곡선(a)과 의사결정요류곡선(b)을 도시한 그래프이다.10 is a graph showing the work characteristic curve (a) and the decision flow curve (b) of the prisoner.

도 11은 본 발명의 다이아그램 흐름도이다.11 is a diagram flow diagram of the present invention.

도 12는 본 발명의 일실시예에 따른 라돈 변화를 도시한 것이다.12 illustrates a change in radon according to an embodiment of the present invention.

도 13은 본 발명의 일실시예에 따른 수집된 손이미지를 도시한 것이다.Figure 13 shows the collected hand image according to an embodiment of the present invention.

도 14는 본 발명의 일실시예에 따른 회색스케일 바이너리변환을 도시한 것이다.14 illustrates grayscale binary conversion according to an embodiment of the present invention.

도 15는 본 발명의 일실시예에 따라 손목 부분을 성공적으로 지운 후의 상태를 도시한 것이다.Figure 15 shows the state after successfully clearing the wrist portion in accordance with an embodiment of the present invention.

도 16은 본 발명의 일실시예에 따라 손목 부분을 지운 후, 센트로이드 거리를 계산하기 위한 일례를 도시한 것이다.16 illustrates an example for calculating the centroid distance after erasing the wrist part according to an embodiment of the present invention.

도 17은 본 발명의 일실시예에 따른 불변하는 기능의 압축된 포지션의 일예를 도시한 것이다.17 illustrates an example of a compressed position of an invariant function according to an embodiment of the present invention.

도 18은 본 발명의 일실시예에 따른 FAR과 FRR의 다른 입계값 분포(a) 및 ROD곡선(b)을 도시한 것이다.18 illustrates another grain boundary value distribution (a) and an ROD curve (b) of FAR and FRR according to an embodiment of the present invention.

도 19는 본 발명의 일실시예에 따른 플로우 다이아그램을 도시한 것이다.19 illustrates a flow diagram according to an embodiment of the present invention.

도 20은 본 발명의 일실시예에 따른 발과 관련된 X, Y, Z축을 도시한 것이다.20 illustrates X, Y, and Z axes associated with a foot in accordance with one embodiment of the present invention.

도 21은 본 발명의 일실시예에 따른 3가지 좌표축을 이용한 일반적인 힘측정판 데이터를 도시한 그래프이다.FIG. 21 is a graph illustrating general force measuring plate data using three coordinate axes according to an embodiment of the present invention.

도 22는 본 발명의 일실시예에 따른 웨이블렛이 소음제거하기 전의 Z축을 따른 걸음걸이 데이터를 도시한 것이다.FIG. 22 illustrates gait data along the Z-axis before the wavelet removes noise according to an embodiment of the present invention.

도 23은 본 발명의 일실시예에 따른 웨이블렛이 소음제거한 후의 Z축을 따른 걸음걸이 데이터를 도시한 것이다.FIG. 23 is a diagram illustrating gait data along the Z axis after the wavelet is noise canceled according to an embodiment of the present invention. FIG.

도 24는 본 발명의 일실시예에 따른 대상1의 X축의 3회 힘측정판 데이터를 도시한 그래프이다. 24 is a graph illustrating three times the force measurement plate data of the X axis of the object 1 according to an embodiment of the present invention.

도 25는 도 24에 대응하는 10 저장소 히스토그램을 도시한 것이다.FIG. 25 illustrates a ten store histogram corresponding to FIG. 24.

도 26은 본 발명의 일실시예에 따른 히스토그램 유사점을 찾는 절차 단계를 도시한 것이다.Figure 26 illustrates a procedural step of finding histogram similarities according to an embodiment of the present invention.

Claims (4)

마커포지션을 이용한 헤드데이터를 세분화하는 단계;Subdividing the head data using the marker position; 상기 수집된 헤드데이터의 표면상의 점들로부터 크로스섹션을 분리하여 윤곽선을 추출하는 단계;Extracting a contour by separating cross sections from points on the surface of the collected head data; 상기 추출된 윤곽선으로부터 얻어지는 등고선 지도에서 관심지역의 기수 끝(Nose tip identification)을 확인하고, 크로스섹션 등고선을 추출하는 단계;Identifying a nose tip identification of a region of interest from a contour map obtained from the extracted contour, and extracting a cross-section contour; 상기 등고선을 추출한 후, 기능 추출 등고선 검색 어플리케이션을 이용하여 센트로이드(centroid)거리 벡터를 균등하게 경계 스플라인 보간을 사용하여 보정하는 단계; 및After extracting the contour, correcting the centroid distance vector using boundary spline interpolation using a function extraction contour search application; And 상기 센트로이드 거리 벡터를 보정한 후, 수행 분석을 하여 매치점수를 정의 하는 단계로 이루어지는 것을 특징으로 하는 3차원 형상물 제작을 위한 입체형상 측정시스템.And correcting the centroid distance vector, and performing a performance analysis to define a match score. 3. 제 1 항에 있어서,The method of claim 1, 상기 크로스섹션 등고선의 추출은 하기의 식3 내지 5를 만족하는 것을 특징으로 하는 3차원 형상물 제작을 위한 입체형상 측정시스템.Extraction of the cross-section contour is a three-dimensional shape measurement system for producing a three-dimensional object, characterized in that the following formula 3 to 5. (식 4)(Equation 4)
Figure 112009077950517-PAT00029
Figure 112009077950517-PAT00029
A 영역에서 위와 같이 계산한다. Calculate as above in area A. Centroid는 C=(Cx,Cy)로 하여Centroid is set to C = (Cx, Cy) (식 5)(Eq. 5)
Figure 112009077950517-PAT00030
Figure 112009077950517-PAT00030
(식 6)(Equation 6)
Figure 112009077950517-PAT00031
Figure 112009077950517-PAT00031
제 1 항에 있어서,The method of claim 1, 상기 기능 추출 등고선 검색 어플리케이션을 이용하여 센트로이드(centroid)거리 벡터는 하기 식 7에 따라 정의 되는 것을 특징으로 하는 3차원 형상물 제작을 위한 입체형상 측정시스템.Centroid distance vector using the feature extraction contour search application is a three-dimensional shape measurement system for producing a three-dimensional object, characterized in that defined in accordance with Equation 7. (식 7)(Eq. 7)
Figure 112009077950517-PAT00032
Figure 112009077950517-PAT00032
(여기서, Cj=(Cjx, Cjy)는 Jth 등고선의 센트로이드이고, (Xji, Yji)는 경계선의 포인트이다.)(Where C j = (C jx , C jy ) is the centroid of the J th contour, and (X ji, Y ji ) is the point of the boundary.)
제 1 항에 있어서,The method of claim 1, 상기 헤드데이터의 수집은 대상의 모형 이미지를 0에서 360도에 따른 선으로 표현하는 라돈 변환을 사용하는 것을 특징으로 하는 3차원 형상물 제작을 위한 입체형상 측정시스템.The collection of the head data is a three-dimensional shape measurement system for producing a three-dimensional object, characterized in that for using the Radon transform to represent the model image of the object by a line from 0 to 360 degrees.
KR1020090125760A 2009-12-16 2009-12-16 A three-dimensional figure measuring system for use in three dimension figures thing production KR20110068688A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090125760A KR20110068688A (en) 2009-12-16 2009-12-16 A three-dimensional figure measuring system for use in three dimension figures thing production

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090125760A KR20110068688A (en) 2009-12-16 2009-12-16 A three-dimensional figure measuring system for use in three dimension figures thing production

Publications (1)

Publication Number Publication Date
KR20110068688A true KR20110068688A (en) 2011-06-22

Family

ID=44400881

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090125760A KR20110068688A (en) 2009-12-16 2009-12-16 A three-dimensional figure measuring system for use in three dimension figures thing production

Country Status (1)

Country Link
KR (1) KR20110068688A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778897A (en) * 2016-12-29 2017-05-31 西京学院 Plant species recognition methods twice based on COS distance and center profile distance
US10974537B2 (en) 2019-08-27 2021-04-13 Advanced New Technologies Co., Ltd. Method and apparatus for certificate identification

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778897A (en) * 2016-12-29 2017-05-31 西京学院 Plant species recognition methods twice based on COS distance and center profile distance
CN106778897B (en) * 2016-12-29 2019-10-11 西京学院 Plant species recognition methods twice based on COS distance and center profile distance
US10974537B2 (en) 2019-08-27 2021-04-13 Advanced New Technologies Co., Ltd. Method and apparatus for certificate identification

Similar Documents

Publication Publication Date Title
Oloyede et al. Unimodal and multimodal biometric sensing systems: a review
Unar et al. A review of biometric technology along with trends and prospects
Gafurov et al. Gait recognition using wearable motion recording sensors
Kataria et al. A survey of automated biometric authentication techniques
Labati et al. Touchless fingerprint biometrics
Bhanu et al. Human ear recognition by computer
CN107944356A (en) The identity identifying method of the hierarchical subject model palmprint image identification of comprehensive polymorphic type feature
Zhang et al. Advanced biometrics
Jain et al. Biometrics systems: anatomy of performance
Soltane et al. Multi-modal biometric authentications: concept issues and applications strategies
KR100775005B1 (en) User authentificatno system and method thereof
Nagwanshi Cyber-forensic review of human footprint and gait for personal identification
Deriche Trends and challenges in mono and multi biometrics
Choudhary Survey of different biometrics techniques
Tahmasebi et al. Robust intra-class distance-based approach for multimodal biometric game theory-based rank-level fusion of ear, palmprint and signature
Singha et al. Study and analysis on biometrics and face recognition methods
KR20110068688A (en) A three-dimensional figure measuring system for use in three dimension figures thing production
Agarwal et al. Human identification and verification based on signature, fingerprint and iris integration
Das et al. An Introduction to Biometric Authentication Systems
Kumar Hand image biometric based personal authentication system
Khokher et al. Footprint identification: Review of an emerging biometric trait
Gupta Advances in multi modal biometric systems: a brief review
Malik et al. An efficient retinal vessels biometric recognition system by using multi-scale local binary pattern descriptor
Li et al. Hand-based multimodal biometric fusion: A review
Cherry et al. Photoplethysmography Biometric Authentication using Convolutional Neural Network

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination