KR20220144186A - 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법 - Google Patents
개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법 Download PDFInfo
- Publication number
- KR20220144186A KR20220144186A KR1020210050542A KR20210050542A KR20220144186A KR 20220144186 A KR20220144186 A KR 20220144186A KR 1020210050542 A KR1020210050542 A KR 1020210050542A KR 20210050542 A KR20210050542 A KR 20210050542A KR 20220144186 A KR20220144186 A KR 20220144186A
- Authority
- KR
- South Korea
- Prior art keywords
- images
- neural network
- gait
- gait pattern
- classification model
- Prior art date
Links
- 230000005021 gait Effects 0.000 title claims abstract description 193
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000013528 artificial neural network Methods 0.000 claims abstract description 90
- 238000013145 classification model Methods 0.000 claims abstract description 85
- 230000033001 locomotion Effects 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 13
- 238000011176 pooling Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 210000003127 knee Anatomy 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 210000003423 ankle Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000004197 pelvis Anatomy 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/112—Gait analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/316—User authentication by observing the pattern of computer usage, e.g. typical user behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Dentistry (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Physiology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Social Psychology (AREA)
- Pathology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
사용자의 신체에 별도의 센서를 부착하지 않고 보행 중에 촬영된 영상들을 기반으로 개인별 보행패턴의 차이를 특징으로 활용하여 무구속, 무접촉 방식으로 개인별 생체 인증을 수행할 수 있는 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법이 개시된다. 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템은: 사용자의 보행 중에 연속 촬영되어 획득된 영상들을 기반으로 인공신경망 분류 모델에 의해 상기 사용자에 대한 인증을 수행하도록 구성되는 보행 패턴 기반 인증부;를 포함할 수 있다. 상기 보행 패턴 기반 인증부는: 상기 영상들 또는 상기 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하고; 그리고 상기 인공신경망 분류 모델의 출력값을 기반으로 상기 사용자에 대한 인증을 수행하도록 구성될 수 있다.
Description
본 발명은 생체 인증 기술에 관한 것으로, 보다 상세하게는 사용자의 신체에 별도의 센서를 부착하거나 지문/홍채 인식 등과 같은 별도의 인증 행위를 하지 않고, 보행 중에 촬영된 영상들을 기반으로 개인별 고유한 보행 패턴을 특징으로 활용하여 무구속, 무접촉 방식으로 개인별 생체 인증을 수행할 수 있는 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법에 관한 것이다.
생체인증은 개인마다 고유한 생체신호의 특성을 이용한 개인 식별 방법으로, 최근 인터넷 사용 증가와 해킹 기술의 고도화로 개인정보 유출 사례가 급증하면서 기존의 비밀번호와 열쇠 기반의 보안 체계를 대신하여 생체 인증 시스템에 대한 관심이 커지고 있다. 생체 인증 시스템은 스마트 폰의 잠금 해제뿐만 아니라 각종 통신, 금융, 공공기관 등에서 다양하게 이용되고 있다. 전 세계적으로 생체인식 기술에 대한 시장 규모는 점진적으로 증가하는 추세이며, 2021년에는 그 가치가 약 300억원에 달할 것으로 전망되고 있다.
종래의 생체 인증 기술은 예를 들어, 지문, 홍채 등을 인식하여 생체 인증을 수행하거나, 신체에 근전도 측정용 센서 등을 부착하여 생체 인증을 수행하는 방식이다. 이와 같은 종래의 생체 인증 방식은 사용자가 지문, 홍채 등을 인식하는 행위를 필요로 하거나, 사용자가 센서나 디바이스를 소지하여야 하는 불편함이 있는 등 사용상의 제약이 따른다.
본 발명은 사용자의 신체에 별도의 센서를 부착하지 않거나 지문/홍채 인식 등과 같은 별도의 인증 행위를 하지 않고, 보행 중에 촬영된 영상들을 기반으로 개인별 고유한 보행 패턴을 특징으로 활용하여 무구속, 무접촉 방식으로 개인별 생체 인증을 수행할 수 있는 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법을 제공하기 위한 것이다.
본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템은: 사용자의 보행 중에 연속 촬영되어 획득된 영상들을 기반으로 인공신경망 분류 모델에 의해 상기 사용자에 대한 인증을 수행하도록 구성되는 보행 패턴 기반 인증부를 포함할 수 있다.
상기 보행 패턴 기반 인증부는: 상기 영상들 또는 상기 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하고; 그리고 상기 인공신경망 분류 모델의 출력값을 기반으로 상기 사용자에 대한 인증을 수행하도록 구성될 수 있다.
상기 보행 패턴 기반 인증부는 상기 영상들에서 상기 사용자의 보행 패턴 특징을 추출하도록 구성되는 보행 패턴 특징 추출부를 포함할 수 있다.
상기 보행 패턴 특징 추출부는: 상기 영상들에서 각각 상기 사용자의 관절 위치들을 검출하고, 상기 관절 위치들 간의 관절 거리들을 추출하고; 그리고 상기 관절 거리들을 기반으로 특징 벡터를 생성하여 상기 보행 패턴 특징을 생성하도록 구성될 수 있다.
상기 보행 패턴 특징 추출부는 상기 관절 위치들 간의 유클리디안 거리들을 포함하는 특징 벡터를 생성하도록 구성될 수 있다.
상기 보행 패턴 특징 추출부는 상기 관절 거리들 간의 비율을 산출하여 상기 특징 벡터를 생성하도록 구성될 수 있다.
상기 보행 패턴 기반 인증부는 상기 영상들 또는 상기 영상들에서 관절 위치들이 검출된 관절 검출 영상들을 상기 인공신경망 분류 모델에 직접 입력하여 상기 사용자에 대한 인증을 수행하도록 구성될 수 있다.
본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템은: 보행자의 보행 동작을 촬영한 보행 영상들을 포함하는 학습 데이터를 기반으로 상기 인공신경망 분류 모델을 학습하도록 구성되는 모델 학습부;를 더 포함할 수 있다.
상기 모델 학습부는: 상기 보행 영상들, 상기 보행 영상들에서 관절 위치들이 검출된 관절 검출 영상 또는 상기 보행 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하고; 그리고 상기 인공신경망 분류 모델의 출력값을 보행자 정보와 비교하여 상기 인공신경망 분류 모델을 학습하도록 구성될 수 있다.
상기 인공신경망 분류 모델은 2차원 합성곱신경망 모델을 포함할 수 있다.
본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법은: 모델 학습부에 의해, 보행자의 보행 동작을 촬영한 보행 영상들을 포함하는 학습 데이터를 기반으로 상기 인공신경망 분류 모델을 학습하는 단계; 및 보행 패턴 기반 인증부에 의해, 사용자의 보행 중에 연속 촬영되어 획득된 영상들을 기반으로 인공신경망 분류 모델에 의해 상기 사용자에 대한 인증을 수행하는 단계를 포함할 수 있다.
상기 인공신경망 분류 모델을 학습하는 단계는: 상기 보행 영상들, 상기 보행 영상들에서 관절 위치들이 검출된 관절 검출 영상 또는 상기 보행 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하는 단계; 및 상기 인공신경망 분류 모델의 출력값을 보행자 정보와 비교하여 상기 인공신경망 분류 모델을 학습하는 단계;를 포함할 수 있다.
상기 인증을 수행하는 단계는: 상기 영상들 또는 상기 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하는 단계; 및 상기 인공신경망 분류 모델의 출력값을 기반으로 상기 사용자에 대한 인증을 수행하는 단계;를 포함할 수 있다.
상기 인증을 수행하는 단계는 상기 영상들에서 상기 사용자의 보행 패턴 특징을 추출하는 단계를 포함할 수 있다.
상기 보행 패턴 특징을 추출하는 단계는: 상기 영상들에서 각각 상기 사용자의 관절 위치들을 검출하고, 상기 관절 위치들 간의 관절 거리들을 추출하는 단계; 및 상기 관절 거리들을 기반으로 특징 벡터를 생성하여 상기 보행 패턴 특징을 생성하는 단계;를 포함할 수 있다.
상기 보행 패턴 특징을 추출하는 단계는 상기 관절 위치들 간의 유클리디안 거리들을 포함하는 특징 벡터를 생성하는 단계를 포함할 수 있다.
상기 보행 패턴 특징을 추출하는 단계는 상기 관절 거리들 간의 비율을 산출하여 상기 특징 벡터를 생성하는 단계를 포함할 수 있다.
상기 인증을 수행하는 단계는 상기 영상들 또는 상기 영상들에서 관절 위치들이 검출된 관절 검출 영상들을 상기 인공신경망 분류 모델에 직접 입력하여 상기 사용자에 대한 인증을 수행하는 단계를 포함할 수 있다.
본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법은: 검증부에 의해, 사용자의 보행 동작에 대해 획득된 영상들에서 추출된 보행 패턴을 기반으로 생체 인증에 의한 분류 결과를 이용하여 상기 인공신경망 분류 모델의 분류 정확도를 검증하는 단계를 더 포함할 수 있다.
본 발명의 실시예에 따르면, 상기 개인별 보행 패턴 기반의 생체 인증 방법을 실행하도록 컴퓨터로 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램이 제공될 수 있다.
본 발명의 실시예에 의하면, 사용자의 신체에 별도의 센서를 부착하지 않거나 지문/홍채 인식 등과 같은 별도의 인증 행위를 하지 않고, 보행 중에 촬영된 영상들을 기반으로 개인별 고유한 보행 패턴을 특징으로 활용하여 무구속, 무접촉 방식으로 개인별 생체 인증을 수행할 수 있는 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법이 제공된다.
도 1은 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템을 구성하는 인공신경망 분류 모델의 구성도이다.
도 3은 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법의 순서도이다.
도 4는 도 3의 단계 S130을 구체적으로 나타낸 순서도이다.
도 5는 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법에 의한 특징 추출의 예시도이다.
도 2는 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템을 구성하는 인공신경망 분류 모델의 구성도이다.
도 3은 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법의 순서도이다.
도 4는 도 3의 단계 S130을 구체적으로 나타낸 순서도이다.
도 5는 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법에 의한 특징 추출의 예시도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 명세서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 본 명세서에서 사용되는 '~부'는 적어도 하나의 기능이나 동작을 처리하는 단위로서, 예를 들어 소프트웨어, FPGA 또는 하드웨어 구성요소를 의미할 수 있다. '~부'에서 제공하는 기능은 복수의 구성요소에 의해 분리되어 수행되거나, 다른 추가적인 구성요소와 통합될 수도 있다. 본 명세서의 '~부'는 반드시 소프트웨어 또는 하드웨어에 한정되지 않으며, 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 이하에서는 도면을 참조하여 본 발명의 실시예에 대해서 구체적으로 설명하기로 한다.
본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법은 사용자의 보행 중에 연속 촬영되어 획득된 영상들 또는 영상들에서 추출된 보행 패턴 특징을 인공신경망 분류 모델에 입력하여 인공신경망 분류 모델의 출력값을 기반으로 사용자에 대한 생체 인증을 수행할 수 있다.
실시예에서, 인공신경망 분류 모델은 2차원 합성곱신경망 모델(CNN; convolutional neural network model)을 포함할 수 있다. 본 발명의 실시예에 의하면, 사용자의 신체에 별도의 센서를 부착하거나 지문/홍채 인식 등과 같은 별도의 인증 행위를 하지 않고, 보행 중에 촬영된 영상들을 기반으로 개인별 고유한 보행 패턴을 특징으로 활용하여 무구속, 무접촉 방식으로 개인별 생체 인증을 수행할 수 있다.
도 1은 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템의 구성도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템(100)은 모델 학습부(110), 영상 획득부(120), 보행 패턴 기반 인증부(130), 및 검증부(140)를 포함할 수 있다.
모델 학습부(110), 영상 획득부(120), 보행 패턴 기반 인증부(130), 및 검증부(140)는 적어도 하나의 프로세서(processor)를 포함하는 제어부(도시 생략됨)가 메모리(memory)에 저장된 보행 패턴 기반 생체 인증을 위한 프로그램을 실행시키는 것에 의해 기능이 구현될 수 있다.
모델 학습부(110)는 다양한 보행자들의 보행 동작을 촬영한 보행 영상들을 포함하는 학습 데이터를 기반으로 보행 패턴 분류 기반의 생체 인증을 위한 인공신경망 분류 모델을 학습할 수 있다.
모델 학습부(110)는 데이터베이스(112), 제1 특징 추출부(114), 및 인공신경망 모델 학습부(116)를 포함할 수 있다. 데이터베이스(112)에는 인공신경망 분류 모델의 학습을 위하여 다양한 보행자별로 획득된 보행 영상 프레임들이 저장될 수 있다.
각 보행자에 대한 보행 특징을 추출하기 위해, 보행자마다 수십여장의 보행 영상 프레임들을 획득하여 데이터베이스(112)에 저장하고, 데이터베이스(112)에 저장된 보행 영상 프레임들을 인공신경망 분류 모델의 학습에 활용할 수 있다.
학습에 활용되는 보행자들의 보행 영상들은 생체 인증이 수행될 영역에 출입 등이 허용된 하나 이상의 허가 보행자의 보행 동작을 촬영한 보행 영상을 포함할 수 있다.
제1 특징 추출부(114)는 허가 보행자와 관련된 보행 영상들에서 각각 보행 패턴의 특징을 추출할 수 있다. 보행 패턴의 특징은 예를 들어, 보행 영상에서 추출된 관절 위치들, 관절 거리들 및/또는 보행 영상에 관절 위치들이 검출된 관절 검출 영상들을 포함할 수 있다.
인공신경망 모델 학습부(116)는 제1 특징 추출부(114)에 의해 추출된 보행 패턴 특징을 기반으로 합성곱신경망 모델을 학습하여 인공신경망 분류 모델을 구축할 수 있다.
인공신경망 모델 학습부(116)는 보행 영상들 또는 보행 영상들에서 추출된 보행 패턴 특징을 인공신경망 분류 모델에 입력하고, 인공신경망 분류 모델의 출력값을 도출하여 사용자의 보행 패턴 특징을 학습할 수 있다.
영상 획득부(120)는 사용자의 보행 동작을 연속 촬영하여 영상들을 획득할 수 있다. 사용자의 보행 패턴에 의한 생체 인증을 위해, 영상 획득부(120)는 수 내지 수십여장의 연속된 영상 프레임들(예를 들어, 10개 내지 100개의 연속 촬영된 영상 프레임들)을 획득하여 보행 패턴 기반 인증부(130)로 전달할 수 있다.
실시예에서, 영상 획득부(120)는 예를 들어, 사용자의 보행 동작을 촬영하는 CCD(charge-coupled device) 카메라, CMOS(complementary metal-oxide-semiconductor) 카메라, 3차원 카메라 등과 같은 카메라로 구현될 수 있으나, 이에 한정되지 않으며 사용자의 보행 동작을 촬영할 수 있는 장치라면 특별히 제한되지 않고 모두 사용될 수 있다.
영상 획득부(120)는 생체 인증을 필요로 하는 인증 수행 영역의 주위 위치에 설치되어 인증 수행 영역을 향하여 보행하는 사용자의 보행 동작을 촬영하도록 배치될 수 있다. 인증 수행 영역은 예를 들어, 자동차 도어락 근접 영역, 주거단지/금융기관 등의 출입문과 근접한 영역 등이 있으나, 이에 한정되는 것은 아니다. 영상 획득부(120)에 의해 획득된 영상들은 보행 패턴 기반 인증부(130)로 입력될 수 있다.
보행 패턴 기반 인증부(130)는 사용자의 보행 중에 영상 획득부(120)에 의해 연속 촬영되어 획득된 영상들을 기반으로, 모델 학습부(110)에 의해 학습된 인공신경망 분류 모델에 의해 사용자에 대한 인증을 수행할 수 있다. 보행 패턴 기반 인증부(130)는 영상 획득부(120)에 의해 획득된 영상들 또는 영상들에서 추출된 보행 패턴 특징을 학습된 인공신경망 분류 모델에 입력하여, 인공신경망 분류 모델의 출력값(분류 결과)을 기반으로 사용자에 대한 인증을 수행할 수 있다.
도 2는 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템을 구성하는 인공신경망 분류 모델의 구성도이다. 도 1 및 도 2를 참조하면, 인공신경망 분류 모델(136)은 합성곱신경망 모델을 기반으로 할 수 있다. 합성곱신경망 모델은 다수의 컨볼루션층(convolution layer)(136a)과, 다수의 풀링층(pooling layer)(136b), 및 완전 연결층(fully connected layer)(136c)을 포함할 수 있다. 다수의 컨볼루션층(136a)은 보행 영상들 또는 이로부터 추출된 보행 특징들을 기반으로 합성곱 필터를 이용하여 시간 축 및/또는 공간 축 합성곱(convolution) 처리를 수행하여 합성곱 데이터(특징 맵)를 생성할 수 있다.
다수의 풀링층(136b)은 보행 영상들의 데이터 손실을 최소화하기 위하여 입력값의 특징을 최대한 부각시킬 수 있는 방향으로 학습하도록 풀링(pooling) 처리를 수행할 수 있다. 풀링층은 예를 들어, 최대 풀링(max pooling) 또는 평균 풀링(average pooling) 등의 풀링 처리를 수행할 수 있다.
완전 연결층(136c)은 보행 영상들로부터 추출된 특징들을 기반으로 보행자 분류의 역할을 수행할 수 있다. 완전 연결층(136c)은 사용자가 허가된 보행자에 해당하는지 여부를 분류하기 위해, 이전 단에서 도출된 결과를 1차원 배열로 풀어내어 마지막 출력으로 분류(classification)를 통해 사용자의 보행 동작이 허가된 보행자의 보행 동작인지 아닌지를 분류할 수 있다.
일 실시예에서, 보행 패턴 기반 인증부(130)는 제2 특징 추출부(보행 패턴 특징 추출부)(132)와, 분류부(134)를 포함할 수 있다. 제2 특징 추출부(132)는 사용자의 보행 동작을 촬영하여 획득된 영상들에서 사용자의 보행 패턴 특징을 추출할 수 있다. 제2 특징 추출부(132)는 모델 학습부(110)의 제1 특징 추출부(114)와 동일한 보행 패턴 특징을 추출하도록 설계될 수 있다.
제2 특징 추출부(132)는 영상들에서 각각 사용자의 관절 위치들을 검출하고, 영상들에서 검출된 관절 위치들 간의 관절 거리들을 추출한 후, 추출한 관절 거리들을 기반으로 사용자의 보행 동작을 나타내는 특징 벡터를 생성하여 보행 패턴 특징을 생성할 수 있다. 뿐만 아니라, 관절들 간의 관절 거리들과 함께, 관절들 간의 관절 각도들이 보행 패턴 특징에 추가로 포함되어 보행 패턴 기반의 생체 인증에 활용될 수도 있다.
본 발명의 일 실시예에서, 제2 특징 추출부(132)는 사용자의 보행 동작을 촬영하여 획득된 영상들에서 추출된 관절 위치들 간의 유클리디안 거리들(Euclidean distances), 및/또는 관절 거리들 간의 비율 등을 산출하여 특징 벡터를 생성할 수 있다.
제2 특징 추출부(132)에 의해 검출되는 관절 부위는 예를 들어, 어깨, 팔꿈치, 손목, 골반, 무릎, 발목 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 제2 특징 추출부(132)에 의해 산출되는 관절 거리들 간의 비율은 예를 들어, 어깨와 팔꿈치 간의 관절 거리에 대한 팔꿈치와 손목 간의 관절 거리의 비율, 골반과 무릎 간의 관절 거리에 대한 무릎과 발목 간의 관절 거리의 비율 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
도시된 예에서는 보행 패턴 기반 인증부(130)가 제2 특징 추출부(132)에 의해 영상에서 보행 패턴 특징을 추출하고, 추출된 보행 패턴 특징을 분류부(134)의 학습된 인공신경망 분류 모델에 적용하여 보행 패턴 기반의 생체 인증을 수행하도록 구현되지만, 본 발명의 다른 실시예에서, 보행 패턴 기반 인증부(130)는 영상들 또는 영상들에서 관절 위치들이 검출된 관절 검출 영상들(IMG)을 인공신경망 분류 모델에 직접 입력하여 사용자에 대한 인증을 수행할 수도 있다.
영상들이 직접 인공신경망 분류 모델에 입력되는 경우에는 제2 특징 추출부(132)가 생략될 수도 있다. 또한, 본 발명의 또 다른 실시예에서, 제2 특징 추출부(132)에 의해 영상들에서 각각 추출된 보행 패턴 특징들이 영상들과 함께 분류부(134)의 인공신경망 분류 모델에 적용되어 보행 패턴 기반의 생체 인증을 수행하도록 구현될 수도 있다.
검증부(140)는 사용자(새로 촬영한 보행자)의 영상에서 추출된 보행 패턴을 기반으로 생체 인증에 의한 분류 결과를 이용하여 인공신경망 분류 모델의 분류 정확도(학습 모델의 인증 성능)를 검증할 수 있다. 모델 학습부(110)는 검증부(140)에 의해 인공신경망 분류 모델의 분류 정확도가 설정된 분류 정확도 이상이 될 때까지 인공신경망 분류 모델을 학습할 수 있다.
상술한 바와 같은 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템에 의하면, 사용자의 신체에 별도의 센서를 부착하지 않거나 지문/홍채 인식 등과 같은 별도의 인증 행위를 하지 않고, 보행 중에 촬영된 영상들을 기반으로 개인별 고유한 보행 패턴을 특징으로 활용하여 무구속, 무접촉 방식으로 개인별 생체 인증을 수행할 수 있다.
즉, 본 발명의 실시예에 의하면, 인증시마다 사용자의 신체에 측정용 센서를 부착하거나 인증을 위한 디바이스를 소지해야 하는 번거로운 절차를 대신하여 일정 거리에 위치한 카메라 센서로 사용자의 보행 동작을 촬영하여 획득된 영상을 사용하여 보행 패턴 기반의 생체 인증을 수행함으로써 생체 인증 모방/도용의 위험을 줄일 수 있으며, 보안성과 실용성이 우수한 고성능 개인 인증 시스템을 제공할 수 있다.
본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 시스템은 자동차 키리스 도어락, 주거단지 내 출입문 인증, 금융기관 출입 인증이나 포스트 코로나 시대의 신속·정확한 동선 파악 등의 목적으로 활용될 수 있으며, 열거되지 않은 다양한 목적과 용도로 활용될 수도 있다.
도 3은 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법의 순서도이다. 이하에서 도 1 및 도 3을 참조하여 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법에 대해 설명한다. 모델 학습부(110)는 다양한 보행자들의 보행 동작을 촬영한 보행 영상들을 포함하는 학습 데이터를 기반으로 보행 패턴 분류 기반의 생체 인증을 위한 인공신경망 분류 모델을 학습할 수 있다(S110).
이때 각 보행자에 대한 보행 특징을 추출하기 위해, 보행자마다 수십여장의 보행 영상 프레임들을 획득하여 데이터베이스(112)에 저장하고, 데이터베이스(112)에 저장된 보행 영상 프레임들을 인공신경망 분류 모델의 학습에 활용할 수 있다.
학습에 활용되는 보행자들의 보행 영상들은 생체 인증이 수행될 영역에 출입 등이 허용된 하나 이상의 허가 보행자의 보행 동작을 촬영한 보행 영상을 포함할 수 있다.
모델 학습부(110)는 허가 보행자의 보행 영상들에서 각각 보행 패턴의 특징을 추출하여 추출된 보행 패턴 특징을 기반으로 합성곱신경망 모델을 학습하여 인공신경망 분류 모델을 구축할 수 있다. 인공신경망 분류 모델의 학습을 위해 보행 영상에서 추출되는 보행 패턴의 특징은 예를 들어, 보행 영상에서 추출된 관절 위치들, 관절 거리들 및/또는 보행 영상에 관절 위치들이 검출된 관절 검출 영상들을 포함할 수 있다.
모델 학습부(110)는 보행 영상들 또는 보행 영상들에서 추출된 보행 패턴 특징을 인공신경망 분류 모델에 입력하고, 인공신경망 분류 모델의 출력값을 도출하여 사용자의 보행 패턴 특징을 학습할 수 있다.
영상 획득부(120)는 사용자의 보행 동작을 연속 촬영하여 영상들을 획득할 수 있다(S120). 사용자의 보행 패턴에 의한 생체 인증을 위해, 영상 획득부(120)는 수 내지 수십여장의 연속된 영상 프레임들(예를 들어, 10개 내지 100개의 연속 촬영된 영상 프레임들)을 획득하여 보행 패턴 기반 인증부(130)로 전달할 수 있다.
영상 획득부(120)는 생체 인증을 필요로 하는 인증 수행 영역의 주위 위치에 설치되어 인증 수행 영역을 향하여 보행하는 사용자의 보행 동작을 촬영하도록 배치될 수 있다. 인증 수행 영역은 예를 들어, 자동차 도어락 근접 영역, 주거단지/금융기관 등의 출입문과 근접한 영역 등이 있으나, 이에 한정되는 것은 아니다. 영상 획득부(120)에 의해 획득된 영상들은 보행 패턴 기반 인증부(130)로 입력될 수 있다.
보행 패턴 기반 인증부(130)는 사용자의 보행 중에 영상 획득부(120)에 의해 연속 촬영되어 획득된 영상들을 기반으로, 모델 학습부(110)에 의해 학습된 인공신경망 분류 모델에 의해 사용자에 대한 보행 동작 기반의 생체 인증을 수행할 수 있다(S130). 보행 패턴 기반 인증부(130)는 영상 획득부(120)에 의해 획득된 영상들 또는 영상들에서 추출된 보행 패턴 특징을 학습된 인공신경망 분류 모델에 입력하여, 인공신경망 분류 모델의 출력값(분류 결과)을 기반으로 사용자에 대한 인증을 수행할 수 있다.
인공신경망 분류 모델은 합성곱신경망 모델을 기반으로 할 수 있다. 생체 인증을 수행하는 단계(S130)에서, 인공신경망 분류 모델은 다수의 컨볼루션층에 의해 보행 영상들 또는 이로부터 추출된 보행 특징들을 기반으로 시간 축 및/또는 공간 축 합성곱(convolution) 처리를 수행하여 합성곱 데이터(특징 맵)를 생성하는 단계와, 보행 영상들의 데이터 손실을 최소화하기 위하여 입력값의 특징을 최대한 부각시키도록 다수의 풀링층에 의해 풀링(pooling) 처리를 수행하는 단계를 수행할 수 있다.
또한, 생체 인증을 수행하는 단계(S130)에서, 인공신경망 분류 모델은 완전 연결층에 의해 보행 영상들로부터 추출된 특징들을 기반으로 보행자 분류를 수행하여 사용자의 보행 동작이 허가된 보행자의 보행 동작에 해당하는지 분류하는 단계를 더 수행할 수 있다.
검증부(140)는 사용자(새로 촬영한 보행자)의 영상에서 추출된 보행 패턴을 기반으로 생체 인증에 의한 분류 결과를 이용하여 인공신경망 분류 모델의 분류 정확도(학습 모델의 인증 성능)를 검증할 수 있다(S140). 인공신경망 분류 모델의 분류 정확도가 설정된 분류 정확도 이상이 될 때까지 인공신경망 분류 모델이 학습되면, 학습된 인공신경망 분류 모델을 기반으로 대상자의 보행에 따라 걸음거리 패턴을 기반으로 생체 인증을 수행할 수 있다.
도 4는 도 3의 단계 S130을 구체적으로 나타낸 순서도이다. 도 5는 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법에 의한 특징 추출의 예시도이다. 도 1, 도 3 내지 도 5를 참조하면, 제2 특징 추출부(132)는 다수의 영상(IMG)에서 각각 사용자의 관절들(예를 들어, 어깨, 팔꿈치, 손목, 골반, 무릎, 발목 등)에 해당하는 관절 위치들(10)을 검출하고(S132), 영상들에서 검출한 관절 위치들(10) 간의 관절 거리들(20)을 추출할 수 있다(S134).
제2 특징 추출부(132)는 추출한 관절 거리들(20)을 기반으로 특징 벡터를 생성하여 보행 패턴 특징을 생성할 수 있다(S136). 제2 특징 추출부(132)에 의해 추출된 보행 패턴 특징은 인공신경망 분류 모델에 입력될 수 있다. 인공신경망 분류 모델은 입력된 보행 패턴 특징에 따라 사용자의 생체 인증과 관련된 출력값을 생성하고, 이를 사용자 정보(보행자 정보)와 비교하여 사용자의 생체 인증을 수행할 수 있다(S138).
일 실시예에서, 제2 특징 추출부(132)는 관절 위치들(10) 간의 유클리디안 거리들, 및/또는 관절 거리들(20) 간의 비율(예를 들어, 어깨와 팔꿈치 간의 관절 거리에 대한 팔꿈치와 손목 간의 관절 거리의 비율, 골반과 무릎 간의 관절 거리에 대한 무릎과 발목 간의 관절 거리의 비율 등)을 산출하여 특징 벡터를 생성할 수 있다.
뿐만 아니라, 관절들 간의 관절 거리들과 함께, 관절들 간의 관절 각도들이 보행 패턴 특징에 추가로 포함되어 보행 패턴 기반의 생체 인증에 활용될 수도 있다. 본 발명의 다른 실시예에서, 보행 패턴 기반 인증부(130)는 영상들 또는 영상들에서 관절 위치들이 검출된 관절 검출 영상들을 인공신경망 분류 모델에 직접 입력하여 사용자에 대한 인증을 수행할 수도 있다.
도시된 예에서는 보행 패턴 기반 인증부(130)가 제2 특징 추출부(132)에 의해 영상에서 보행 패턴 특징을 추출하고, 추출된 보행 패턴 특징을 분류부(134)의 학습된 인공신경망 분류 모델에 적용하는 과정을 통해 보행 패턴 기반의 생체 인증이 수행되지만, 본 발명의 다른 실시예에서, 보행 패턴 기반 인증부(130)는 영상들 또는 영상들에서 관절 위치들이 검출된 관절 검출 영상들을 인공신경망 분류 모델에 직접 입력하여 사용자에 대한 인증을 수행할 수도 있다.
또한, 본 발명의 또 다른 실시예에서, 제2 특징 추출부(132)에 의해 영상들에서 각각 추출된 보행 패턴 특징들이 영상들과 함께 인공신경망 분류 모델에 적용되어 보행 패턴 기반의 생체 인증이 수행될 수도 있다.
상술한 바와 같은 본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법에 의하면, 사용자의 신체에 별도의 센서를 부착하지 않거나 지문/홍채 인식 등과 같은 별도의 인증 행위를 하지 않고, 보행 중에 촬영된 영상들을 기반으로 개인별 고유한 보행 패턴을 특징으로 활용하여 무구속, 무접촉 방식으로 개인별 생체 인증을 수행할 수 있다.
즉, 본 발명의 실시예에 의하면, 인증시마다 사용자의 신체에 측정용 센서를 부착하거나 인증을 위한 디바이스를 소지해야 하는 번거로운 절차를 대신하여 일정 거리에 위치한 카메라 센서로 사용자의 보행 동작을 촬영하여 획득된 영상을 사용하여 보행 패턴 기반의 생체 인증을 수행함으로써 생체 인증 모방/도용의 위험을 줄일 수 있으며, 보안성과 실용성이 우수한 고성능 개인 인증 시스템을 제공할 수 있다.
본 발명의 실시예에 따른 개인별 보행 패턴 기반의 생체 인증 방법은 자동차 키리스 도어락, 주거단지 내 출입문 인증, 금융기관 출입 인증이나 포스트 코로나 시대의 신속·정확한 동선 파악 등의 목적으로 활용될 수 있으며, 열거되지 않은 다양한 목적과 용도로 활용될 수도 있다.
이상에서 설명된 실시예들의 구성 중 적어도 일부는 하드웨어 구성요소, 소프트웨어 구성요소, 및/ 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(Digital Signal Processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.
처리 장치는 운영 체제 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는 처리 장치가 복수 개의 처리 요소(Processing Element) 및/또는 복수 유형의 처리요소를 포함할 수 있음을 이해할 것이다.
예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(Parallel Processor) 와 같은, 다른 처리 구성(Processing configuration)도 가능하다. 소프트웨어는 컴퓨터 프로그램(Computer Program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.
소프트웨어 및/ 또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody) 될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
100: 개인별 보행 패턴 기반의 생체 인증 시스템
110: 모델 학습부
112: 데이터베이스
114: 제1 특징 추출부
116: 인공신경망 모델 학습부
120: 영상 획득부
130: 보행 패턴 기반 인증부
132: 제2 특징 추출부
134: 분류부
136: 인공신경망 분류 모델
140: 검증부
110: 모델 학습부
112: 데이터베이스
114: 제1 특징 추출부
116: 인공신경망 모델 학습부
120: 영상 획득부
130: 보행 패턴 기반 인증부
132: 제2 특징 추출부
134: 분류부
136: 인공신경망 분류 모델
140: 검증부
Claims (17)
- 사용자의 보행 중에 연속 촬영되어 획득된 영상들을 기반으로 인공신경망 분류 모델에 의해 상기 사용자에 대한 인증을 수행하도록 구성되는 보행 패턴 기반 인증부;를 포함하고,
상기 보행 패턴 기반 인증부는:
상기 영상들 또는 상기 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하고; 그리고
상기 인공신경망 분류 모델의 출력값을 기반으로 상기 사용자에 대한 인증을 수행하도록 구성되는 개인별 보행 패턴 기반의 생체 인증 시스템. - 제1항에 있어서,
상기 보행 패턴 기반 인증부는 상기 영상들에서 상기 사용자의 보행 패턴 특징을 추출하도록 구성되는 보행 패턴 특징 추출부를 포함하는 개인별 보행 패턴 기반의 생체 인증 시스템. - 제2항에 있어서,
상기 보행 패턴 특징 추출부는:
상기 영상들에서 각각 상기 사용자의 관절 위치들을 검출하고, 상기 관절 위치들 간의 관절 거리들을 추출하고; 그리고
상기 관절 거리들을 기반으로 특징 벡터를 생성하여 상기 보행 패턴 특징을 생성하도록 구성되는 개인별 보행 패턴 기반의 생체 인증 시스템. - 제3항에 있어서,
상기 보행 패턴 특징 추출부는 상기 관절 위치들 간의 유클리디안 거리들을 포함하는 특징 벡터를 생성하도록 구성되는 개인별 보행 패턴 기반의 생체 인증 시스템. - 제3항 또는 제4항에 있어서,
상기 보행 패턴 특징 추출부는 상기 관절 거리들 간의 비율을 산출하여 상기 특징 벡터를 생성하도록 구성되는 개인별 보행 패턴 기반의 생체 인증 시스템. - 제1항에 있어서,
상기 보행 패턴 기반 인증부는 상기 영상들 또는 상기 영상들에서 관절 위치들이 검출된 관절 검출 영상들을 상기 인공신경망 분류 모델에 직접 입력하여 상기 사용자에 대한 인증을 수행하도록 구성되는 개인별 보행 패턴 기반의 생체 인증 시스템. - 제1항에 있어서,
보행자의 보행 동작을 촬영한 보행 영상들을 포함하는 학습 데이터를 기반으로 상기 인공신경망 분류 모델을 학습하도록 구성되는 모델 학습부;를 더 포함하고,
상기 모델 학습부는:
상기 보행 영상들, 상기 보행 영상들에서 관절 위치들이 검출된 관절 검출 영상 또는 상기 보행 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하고; 그리고
상기 인공신경망 분류 모델의 출력값을 보행자 정보와 비교하여 상기 인공신경망 분류 모델을 학습하는 개인별 보행 패턴 기반의 생체 인증 시스템. - 제1항에 있어서,
상기 인공신경망 분류 모델은 2차원 합성곱신경망 모델을 포함하는 개인별 보행 패턴 기반의 생체 인증 시스템. - 보행 패턴 기반 인증부에 의해, 사용자의 보행 중에 연속 촬영되어 획득된 영상들을 기반으로 인공신경망 분류 모델에 의해 상기 사용자에 대한 인증을 수행하는 단계;를 포함하고,
상기 인증을 수행하는 단계는:
상기 영상들 또는 상기 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하는 단계; 및
상기 인공신경망 분류 모델의 출력값을 기반으로 상기 사용자에 대한 인증을 수행하는 단계;를 포함하는 개인별 보행 패턴 기반의 생체 인증 방법. - 제9항에 있어서,
상기 인증을 수행하는 단계는 상기 영상들에서 상기 사용자의 보행 패턴 특징을 추출하는 단계를 포함하는 개인별 보행 패턴 기반의 생체 인증 방법. - 제10항에 있어서,
상기 보행 패턴 특징을 추출하는 단계는:
상기 영상들에서 각각 상기 사용자의 관절 위치들을 검출하고, 상기 관절 위치들 간의 관절 거리들을 추출하는 단계; 및
상기 관절 거리들을 기반으로 특징 벡터를 생성하여 상기 보행 패턴 특징을 생성하는 단계;를 포함하는 개인별 보행 패턴 기반의 생체 인증 방법. - 제11항에 있어서,
상기 보행 패턴 특징을 추출하는 단계는 상기 관절 위치들 간의 유클리디안 거리들을 포함하는 특징 벡터를 생성하는 단계를 포함하는 개인별 보행 패턴 기반의 생체 인증 방법. - 제11항에 있어서,
상기 보행 패턴 특징을 추출하는 단계는 상기 관절 거리들 간의 비율을 산출하여 상기 특징 벡터를 생성하는 단계를 포함하는 개인별 보행 패턴 기반의 생체 인증 방법. - 제9항에 있어서,
상기 인증을 수행하는 단계는 상기 영상들 또는 상기 영상들에서 관절 위치들이 검출된 관절 검출 영상들을 상기 인공신경망 분류 모델에 직접 입력하여 상기 사용자에 대한 인증을 수행하는 단계를 포함하는 개인별 보행 패턴 기반의 생체 인증 방법. - 제9항에 있어서,
모델 학습부에 의해, 보행자의 보행 동작을 촬영한 보행 영상들을 포함하는 학습 데이터를 기반으로 상기 인공신경망 분류 모델을 학습하는 단계;를 더 포함하고,
상기 인공신경망 분류 모델을 학습하는 단계는:
상기 보행 영상들, 상기 보행 영상들에서 관절 위치들이 검출된 관절 검출 영상들 또는 상기 보행 영상들에서 추출된 보행 패턴 특징을 상기 인공신경망 분류 모델에 입력하는 단계; 및
상기 인공신경망 분류 모델의 출력값을 보행자 정보와 비교하여 상기 인공신경망 분류 모델을 학습하는 단계;를 포함하는 개인별 보행 패턴 기반의 생체 인증 방법. - 제9항에 있어서,
상기 인공신경망 분류 모델은 2차원 합성곱신경망 모델을 포함하는 개인별 보행 패턴 기반의 생체 인증 방법. - 제9항 내지 제16항 중 어느 한 항에 기재된 개인별 보행 패턴 기반의 생체 인증 방법을 실행하도록 컴퓨터로 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210050542A KR102601940B1 (ko) | 2021-04-19 | 2021-04-19 | 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210050542A KR102601940B1 (ko) | 2021-04-19 | 2021-04-19 | 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220144186A true KR20220144186A (ko) | 2022-10-26 |
KR102601940B1 KR102601940B1 (ko) | 2023-11-14 |
Family
ID=83784330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210050542A KR102601940B1 (ko) | 2021-04-19 | 2021-04-19 | 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102601940B1 (ko) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101340085B1 (ko) * | 2012-11-14 | 2013-12-09 | 한국과학기술연구원 | 보행 패턴 생성 장치 및 방법 |
KR20200014461A (ko) * | 2018-07-31 | 2020-02-11 | 동국대학교 산학협력단 | 콘볼루션 신경망을 이용한 걸음걸이 기반 신원 인식 장치 및 방법 |
KR20200030947A (ko) * | 2018-09-13 | 2020-03-23 | 전자부품연구원 | 4d리깅정보 복원장치 및 방법 |
-
2021
- 2021-04-19 KR KR1020210050542A patent/KR102601940B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101340085B1 (ko) * | 2012-11-14 | 2013-12-09 | 한국과학기술연구원 | 보행 패턴 생성 장치 및 방법 |
KR20200014461A (ko) * | 2018-07-31 | 2020-02-11 | 동국대학교 산학협력단 | 콘볼루션 신경망을 이용한 걸음걸이 기반 신원 인식 장치 및 방법 |
KR20200030947A (ko) * | 2018-09-13 | 2020-03-23 | 전자부품연구원 | 4d리깅정보 복원장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102601940B1 (ko) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kusakunniran et al. | A new view-invariant feature for cross-view gait recognition | |
KR102483642B1 (ko) | 라이브니스 검사 방법 및 장치 | |
US9613428B2 (en) | Fingerprint authentication using stitch and cut | |
JP2017010543A (ja) | 顔認識方法及び装置 | |
JP2018508888A (ja) | モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法 | |
KR101647803B1 (ko) | 3차원 얼굴모델 투영을 통한 얼굴 인식 방법 및 시스템 | |
Alheeti | Biometric iris recognition based on hybrid technique | |
Parashar et al. | Intra-class variations with deep learning-based gait analysis: A comprehensive survey of covariates and methods | |
Zhang et al. | Robust multimodal recognition via multitask multivariate low-rank representations | |
KR102483650B1 (ko) | 사용자 인증 장치 및 방법 | |
Nagwanshi et al. | Biometric authentication using human footprint | |
Choras | Multimodal biometrics for person authentication | |
KR102279550B1 (ko) | 홍채를 위한 합성 코드를 이용한 인증 방법 및 인증 장치 | |
Hermosilla et al. | Thermal face recognition using local interest points and descriptors for HRI applications | |
KR102601940B1 (ko) | 개인별 보행 패턴 기반의 생체 인증 시스템 및 그 방법 | |
Sheth et al. | Gait Recognition Using Convolutional Neural Network. | |
Lee et al. | Human biometric identification through integration of footprint and gait | |
KR101718244B1 (ko) | 얼굴 인식을 위한 광각 영상 처리 장치 및 방법 | |
Inui et al. | Gait recognition in real environment using gait energy image generated by Mask R-CNN | |
Sharma et al. | Gait Recogniton System for Human Identification Using BPNN Classifier | |
Chopra et al. | Finger print and finger vein recognition using repeated line tracking and minutiae | |
Garud et al. | Fingerprint and Palmprint Recognition using neighborhood operation and FAST features | |
Ahmed et al. | Kinect-based human gait recognition using triangular gird feature | |
Bhattacharyya et al. | Analysis of Unique Gait patterns by extraction of salient features | |
Khan et al. | An efficient approach to extract singular points for fingerprint recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |