KR20200072784A - 사용자 인증 장치 및 방법 - Google Patents

사용자 인증 장치 및 방법 Download PDF

Info

Publication number
KR20200072784A
KR20200072784A KR1020180160757A KR20180160757A KR20200072784A KR 20200072784 A KR20200072784 A KR 20200072784A KR 1020180160757 A KR1020180160757 A KR 1020180160757A KR 20180160757 A KR20180160757 A KR 20180160757A KR 20200072784 A KR20200072784 A KR 20200072784A
Authority
KR
South Korea
Prior art keywords
nail
capillaries
feature values
feature
feature value
Prior art date
Application number
KR1020180160757A
Other languages
English (en)
Other versions
KR102159797B1 (ko
Inventor
박철수
하리야니
엄희상
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020180160757A priority Critical patent/KR102159797B1/ko
Publication of KR20200072784A publication Critical patent/KR20200072784A/ko
Application granted granted Critical
Publication of KR102159797B1 publication Critical patent/KR102159797B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • G06K9/00885
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

사용자 인증 장치는 상기 사용자의 손톱 모세혈관 영역을 촬영하는 촬영부; 촬영된 이미지로부터 상기 손톱 모세혈관의 이미지를 추출하고, 상기 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출한 후 상기 복수의 특징 값들을 연접하여(concatenated) 연접 특징 값을 생성하며, 상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치되는지 여부에 기초하여 상기 사용자의 인증 성공 여부를 결정하는 프로세서를 포함할 수 있다.

Description

사용자 인증 장치 및 방법{Apparatus and method for learning user's operation intention using artificial neural network}
본 발명은 본 발명은 사용자 인증 장치 및 방법에 관한 것이다.
지문은 인증 시스템에서 사용되는 가장 오래된 생체 인식 방법으로서 보안 영역에서 널리 구현되었다. 그러나 손의 땀이나 젖은 손가락과 같은 손가락의 상태와 같은 몇 가지 문제가 있는 경우 지문의 정확도를 떨어뜨릴 수 있다. 피검자가 지문 스캐너에서 손가락을 누를 필요가 있기 때문에 위조 가능성과 같은 보안 문제도 있다.
이러한 종래의 지문 방식의 사용자 인증 방법은 보안 및 사용자의 손가락 상태에 따라 인증 문제가 발생하는 바, 이를 해결하기 위한 새로운 사용자 인증 방법을 제안하고자 한다.
본 발명에서 이루고자 하는 기술적 과제는 사용자 인증 장치를 제공하는 데 있다.
본 발명에서 이루고자 하는 다른 기술적 과제는 사용자 인증 방법을 제공하는 데 있다.
본 발명에서 이루고자 하는 또 다른 기술적 과제는 사용자 인증 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기의 기술적 과제를 달성하기 위한, 사용자 인증 장치는, 상기 사용자의 손톱 모세혈관 영역을 촬영하는 촬영부; 촬영된 이미지로부터 상기 손톱 모세혈관의 이미지를 추출하고, 상기 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출한 후 상기 복수의 특징 값들을 연접하여(concatenated) 연접 특징 값을 생성하며, 상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치되는지 여부에 기초하여 상기 사용자의 인증 성공 여부를 결정하는 프로세서를 포함할 수 있다. 상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 포함할 수 있다. 상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값 및 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 더 포함할 수 있다. 상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 크기에 대한 특징 값 더 포함할 수 있다.
상기 프로세서는 소정의 딥러닝 알고리즘을 이용하여 상기 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출할 수 있다. 상기 프로세서는 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 연접하여(concatenation) 상기 연접 특징 값을 생성할 수 있다. 상기 프로세서는 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값 및 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 연접하여 상기 연접 특징 값을 생성할 수 있다.
상기 촬영부는 현미경 카메라를 포함할 수 있다. 상기 프로세서는 상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치하는 경우에 상기 사용자의 인증이 성공인 것으로 결정할 수 있다. 상기 생성된 연접 특징 값은 상기 복수의 특징 값들을 스태킹(stacking)한 하나의 벡터로 표현될 수 있다.
상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 사용자 인증 방법은 사용자의 손톱 모세혈관 영역을 촬영하는 단계; 촬영된 이미지로부터 상기 손톱 모세혈관의 이미지를 추출하는 단계; 상기 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출하는 단계; 상기 복수의 특징 값들을 연접하여(concatenated) 연접 특징 값을 생성하는 단계; 및 상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치되는지 여부에 기초하여 상기 사용자의 인증 성공 여부를 결정하는 단계를 포함할 수 있다.
상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 포함할 수 있다.
상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값 및 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 더 포함할 수 있다.
상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 크기에 대한 특징 값 더 포함할 수 있다.
상기 복수의 특징 값은 소정의 딥러닝 알고리즘을 이용하여 상기 추출된 손톱 모세혈관 이미지로부터 추출될 수 있다.
상기 연접 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 연접하여(concatenation) 생성된 것일 수 있다.
상기 연접 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값 및 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 연접하여 생성한 것일 수 있다. 상기 사용자의 손톱 모세혈관 영역의 촬영은 현미경 카메라에 의해 수행될 수 있다. 상기 생성된 연접 특징 값은 상기 복수의 특징 값들을 스태킹(stacking)한 하나의 벡터로 표현될 수 있다.
상기 결정 단계는 상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치하는 경우에 상기 사용자의 인증이 성공인 것으로 결정하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따라, 사용자의 손톱 모세혈관에 대한 특징을 이용하여 사용자 인증을 수행함으로써 기존의 지문으로 사용자 인증하는 경우보다 인증의 정확도가 높아지고 사용자의 편의성도 좋아지게 된다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 인공신경망의 계층 구조(layer structure)를 예시한 도면이다.
도 2는 손톱 모세혈관 영역에 대한 측정을 도시한 도면이다.
도 3은 본 발명에 따른 사용자 인증 장치(300)의 블록도를 예시한 도면이다.
도 4는 본 발명에 따른 사용자 인증 방법의 흐름도를 예시한 도면이다.
도 5는 본 발명에 따른 사용자 인증 방법의 구체적인 흐름도를 예시한 도면이다.
도 6은 딥러닝 알고리즘을 이용하여 손톱 모세혈관의 특징에 대한 훈련(training) 및 테스팅(testing) 하는 방법을 설명한 도면이다.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.
딥러닝이란 인간의 신경망(Neural Network) 이론을 이용한 인공신경망(Artificial Neural Network, ANN)의 일종으로, 계층 구조(Layer Structure)로 구성하면서 입력층(Input layer)과 출력층(Output layer) 사이에 하나 이상의 숨겨진 층(Hidden layer)(이하, 중간층이라 지칭함)을 갖고 있는 심층 신경망(Deep Neural Network, DNN)을 지칭하는 기계학습(Machine Learning) 모델 또는 알고리즘의 집합입니다. 간단히 말하면, 딥러닝(Deep Learning)은 심층 계층을 가진 인공신경망이라 할 수 있다.
사람의 뇌는 250억 개의 신경세포로 구성되어 있다고 추정됩니다. 뇌는 신경세포로 이루어지며, 각각의 신경세포(뉴런, Neuron)는 신경망을 구성하는 신경세포 1개를 지칭한다. 신경세포는 1개의 세포체(cell body)와 세포체의 돌기인 1개의 축삭(Axon or nurite) 및 보통 여러 개의 수상돌기(dendrite or protoplasmic process)를 포함하고 있다. 이러한 신경세포들 간의 정보 교환은 시냅스라고 부르는 신경세포 간의 접합부를 통하여 전달됩니다. 신경세포 하나만 떼어 놓고 보면 매우 단순하지만, 이러한 신경세포들이 모이면 인간의 지능을 지닐 수 있다. 수상돌기에서 다른 신경세포들이 보내는 신호를 전달받는 부분(Input)이고 축색돌기는 세포체로부터 아주 길게 뻗어가는 부분으로 다른 신경세포에 신호를 전달하는 부분(Output)이다. 신경세포들 사이의 신호를 전달해주는 축색돌기와 수상돌기 간을 연결해주는 시냅스라는 연결부가 있는데, 신경세포의 신호를 무조건 전달하는 것이 아니라, 신호 강도가 일정한 값(임계치, Threshold) 이상이 되어야 신호를 전달하는 것이다. 즉, 각 시냅스마다 연결강도가 다를 뿐만 아니라 신호를 전달할지 말지를 결정하게 되는 것이다.
인공지능의 한 분야인 인공신경망(ANN)은 생물학(통상 인간)의 뇌 구조(신경망)를 모방하여 모델링한 수학적 모델이다. 즉, 인공신경망은 이러한 생물학적 신경세포의 정보처리 및 전달 과정을 모방하여 구현한 것이다. 인간의 뇌가 문제를 해결하는 방식과 유사하게 구현한 것으로서 신경망은 각 신경세포가 독립적으로 동작하는 하기 때문에 병렬성이 뛰어나다. 또한 많은 연결선에 정보가 분산되어 있어서 몇몇 신경세포에 문제가 발생해도 전체에 큰 영향을 주지 않으므로 일정 수준의 오류에 강하고 주어진 환경에 대한 학습 능력을 갖고 있다.
심층신경망(Deep neural network)는 인공신경망의 후손이라 볼 수 있으며, 기존의 한계를 뛰어넘어서 과거에 수많은 인공 지능 기술이 실패를 겪었던 영역에 성공 사례를 거두고 인공신경망의 최신 버전이다. 생물학적 신경망을 모방하여 인공신경망을 모델링한 내용을 살펴보면 처리 단위(Processing unit) 측면에서는 생물적인 뉴런(neurons)이 노드(nodes)로, 연결성(Connections)은 시냅스(Synapse)가 가중치(weights)로 다음 표 1과 같이 모델링 되었다.
생물학적 신경망 인공신경망
세포체 노드(node)
수상돌기 입력(input)
축삭(Axon) 출력(output)
시냅스 가중치(weight)
도 1은 인공신경망의 계층 구조(layer structure)를 예시한 도면이다.
인간의 생물학적 신경세포가 하나가 아닌 다수가 연결되어 의미 있는 작업을 하듯, 인공신경망의 경우도 개별 뉴런들을 서로 시냅스를 통해 서로 연결시켜서 복수개의 계층(layer)이 서로 연결되어 각 층간의 연결 강도는 가중치로 수정(update) 가능합니다. 이와 같이 다층 구조와 연결강도로 학습과 인지를 위한 분야에 활용됩니다.
각 노드들은 가중치가 있는 링크들로 연결되어 있고, 전체 모델은 가중치를 반복적으로 조정하면서 학습을 한다. 가중치는 장기 기억을 위한 기본 수단으로서 각 노드들의 중요도를 표현한다. 간단히 이야기하면, 인공신경망은 이들 가중치를 초기하고 훈련시킬 데이터 세트로 가중치를 갱신하여 조정하여 전체 모델을 훈련시키는 것입니다. 훈련이 완료된 후에 새로운 입력값이 들어오면 적절한 출력값을 추론해 내게 된다. 인공신경망의 학습원리는 경험의 일반화로부터 지능이 형성되는 과정이라고 보면 되고 bottom-up 방식으로 이루어지게 된다. 도 2에서 중간층이 2개 이상(즉 5~10개)일 경우를 층이 깊어진다고 보고 심층신경망(Deep Neural Netowkr)이라 하며, 이러한 심층신경망을 통해서 이루어진 학습과 추론 모델을 딥러닝이라고 지칭할 수 있다.
인공신경망은 입력과 출력을 제외하고 하나의 중간계층(통상적으로 은닉계층, 'hidden layer'라 지칭함)을 가지고 있어도 어느 정도의 역할을 수행할 수 있지만, 문제의 복잡도가 커지면 노드의 수 또는 계층의 수를 증가시켜야 한다. 이 중에서 계층의 수를 증가시켜 다층구조 모델을 가져가는 것이 효과적인데, 효율적인 학습이 불가능하고 네트워크를 학습하기 위한 계산량이 많다는 한계로 인해 활용 범위가 제한적이다.
그러나, 위와 같이 기존의 한계점이 극복됨으로써, 인공신경망은 깊은 구조(Deep Structure)를 가져갈 수 있게 되었습니다. 이로 인해 복잡하고 표현력 높은 모델을 구축할 수 있게 되어 음성인식, 얼굴인식, 물체인식, 문자인식 등 다양한 분야에서 획기적인 결과들이 발표되고 있다.
심층 신경망(Deep Neural Network, DNN)은 입력층(input layer)과 출력층(output layer) 사이에 여러 개의 은닉층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다. 심층 신경망은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다. 예를 들어, 물체 식별 모델을 위한 심층 신경망 구조에서는 각 물체가 영상의 기본적 요소들의 계층적 구성으로 표현될 수 있다. 이때, 추가 계층들은 점진적으로 모인 하위 계층들의 특징들을 규합시킬 수 있다. 심층 신경망의 이러한 특징은, 비슷하게 수행된 인공신경망에 비해 더 적은 수의 유닛(unit, node)들 만으로도 복잡한 데이터를 모델링할 수 있게 해준다.
이전의 심층 신경망들은 보통 앞먹임 신경망으로 설계되어 왔지만, 최근의 연구들은 심층 학습 구조들을 순환 신경망(Recurrent Neural Network, RNN)에 성공적으로 적용했다. 일례로 언어 모델링(language modeling) 분야에 심층 신경망 구조를 적용한 사례 등이 있다. 합성곱 신경망(Convolutional Neural Network, CNN)의 경우에는 컴퓨터 비전(computer vision) 분야에서 잘 적용되었을 뿐만 아니라, 각각의 성공적인 적용 사례에 대한 문서화 또한 잘 되어 있다. 더욱 최근에는 합성곱 신경망이 자동음성인식(Automatic Speech Recognition, ASR)을 위한 음향 모델링(acoustic modeling) 분야에 적용되었으며, 기존의 모델들 보다 더욱 성공적으로 적용되었다는 평가를 받고 있다. 심층 신경망은 표준 오류역전파 알고리즘으로 학습될 수 있다. 이때, 가중치(weight)들은 아래의 등식을 이용한 확률적 경사 하강법(stochastic gradient descent)을 통하여 갱신될 수 있다.
이하, 본 발명에 따른 사용자의 인증 방법 및 사용자 인증 장치에 대해 설명한다.
손톱 모세혈관(Nailfold Capillary)은 작은 모세혈관으로 손톱 밑 혹은 주위에 놓여 있으며 피부 표면 바로 아래에서 평행하게 움직인다. 손톱 모세혈관 간의 거리, 손톱 모세혈관의 크기, 모양, 방향 등은 다른 사람을 구별하는 데 사용할 수 있는 형태학적 특징이 있다. 손톱 모세혈관은 피부 아래에 놓이기 때문에 땀이나 젖은 손가락과 같은 손가락의 외부 상태에 영향을 받지 않는다. 즉, 손가락 안쪽에 있기 때문에 더 안전하고 쉽게 복사 할 수 없다. 또한, 손톱 모세 혈관을 통해 흐르는 혈액 세포의 비디오를 바탕으로 추정된 백혈구 수 (WBC)에 의해 면역 수준을 알 수 있다. 따라서, 피를 흘리게 하거나 손가락 찌름 없이 면역 수준을 보다 편안하게 측정할 수 있다.
본 발명의 아이디어는 더 정확하고 견고한 시스템을 얻기 위해 인증 시스템을 위한 특징으로 손톱 모세혈관의 형태학의 하이브리드 시스템 조합을 구축하는 것입니다. 이러한 인증 시스템은 또한 손톱 모세혈관 내부의 혈액 흐름을 기록하는 백혈구(WBC) 사용량을 추정하여 면역 수준을 추정 할 수 있다.
도 2는 손톱 모세혈관 영역에 대한 측정을 도시한 도면이다.
도 2를 참조하면, 손톱 모세혈관 영역(nailfold capillary area)은 일 예로서 손톱 위의 영역(210)일 수 있다. 사용자 인증 장치는 손톱 모세혈관 영역(210)을 촬영하여 손톱 모세혈관에 대한 이미지(220)를 추출할 수 있다. 사용자 인증 장치는 추출된 손톱 모세혈관에 대한 이미지에 기초하여 면역 레벨 측정(예를 들어, 백혈구 수를 추정)할 수 있다. 또한, 추출된 손톱 모세혈관에 대한 이미지는 도 2에 도시된 바와 같이 인증 시스템으로 전송될 수 있다.
도 3은 본 발명에 따른 사용자 인증 장치(300)의 블록도를 예시한 도면이다.
도 3을 참조하면, 사용자 인증 장치(300)는 촬영부(310), 프로세서(320) 및 통신부(330)를 포함할 수 있다. 촬영부(310)는 사용자의 손톱 모세혈관 영역을 촬영할 수 있다. 촬영부(310)는 사용자의 손톱 모세혈관 영역을 촬영하기 위하여 현미경 카메라일 수 있다. 촬영부(310)는 사용자의 손톱 모세혈관 영역을 촬영하여 손톱 모세혈관 이미지를 생성 혹은 출력할 수 있다.
프로세서(320)는 촬영된 이미지로부터 상기 손톱 모세혈관의 이미지를 추출하고, 상기 추출된 손톱 모세혈관 이미지로부터 손톱 모세혈관에 대한 복수의 특징 값을 추출한 후 복수의 특징 값들을 연접하여(concatenated) 연접 특징 값을 생성할 수 있다. 여기서, 손톱 모세혈관에 대한 복수의 특징 값은 손톱 모세혈관의 모양에 대한 특징 값, 손톱 모세혈관들 간의 거리에 대한 특징 값, 손톱 모세혈관의 방향(orientation)에 대한 특징 값 및 손톱 모세혈관의 크기에 대한 특징 값 중에서 2개 이상의 특징 값 일 수 있다.
프로세서(320)는 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치되는지 여부에 기초하여 상기 사용자의 인증 성공 여부를 결정할 수 있다. 프로세서(320)는 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치하는 경우에 사용자의 인증이 성공인 것으로 결정할 수 있다. 이와 달리, 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치하지 않으면, 프로세서(320)는 사용자 인증이 실패 혹은 인증되지 않은 것으로 판단할 수 있다. 앞서 언급한 미리 정의된 데이터 베이스에서는 후술한다.
프로세서(320)는 소정의 딥러닝 알고리즘을 이용하여 상기 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출할 수 있다. 그리고, 프로세서(320)는 연접 특징 값을 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 연접하여(concatenation) 생성할 수 있다. 프로세서(320)는 연접 특징 값을 손톱 모세혈관의 모양에 대한 특징 값, 손톱 모세혈관들 간의 거리에 대한 특징 값 및 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 연접하여 생성한 것인, 사용자 인증 장치.
본 발명에서는 연접 특징 값과 데이터베이스에 저장된 특징 값을 비교하였으나, 추출한 손톱 모세혈관에 대한 각각의 특징 값과 데이터베이스에 저장된 특징 값을 비교하여 사용자 인증 성공 여부가 결정될 수 있다. 즉, 손톱 모세혈관에서 추출된 어느 하나의 특징 값이 데이터베이스에 저장된 특징 값과 일치하면 사용자 인증이 성공인 것으로 결정될 수도 있다.
도 4는 본 발명에 따른 사용자 인증 방법의 흐름도를 예시한 도면이다.
도 4를 참조하면, 사용자 인증 장치의 촬영부(310)는 사용자의 손톱 모세혈관 영역을 촬영할 수 있다. 촬영부(310)는 현미경 카메라로서 사용자의 손톱 모세혈관 영역을 촬영할 수 있다.
프로세서(320)는 촬영된 이미지로부터 사용자의 손톱 모세혈관의 이미지를 추출하고, 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출할 수 있다. 프로세서(320)는 복수의 특징 값을 소정의 딥러닝 알고리즘을 이용하여 상기 추출된 손톱 모세혈관 이미지로부터 추출할 수 있다.
여기서, 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값, 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값 및 상기 손톱 모세혈관의 크기에 대한 특징 값을 포함할 수 있다.
프로세서(320)는 사용자의 손톱 모세혈관에 대한 복수의 특징 값들을 연접하여(concatenated) 연접 특징 값을 생성할 수 있다. 특징 연접은 손톱 모세혈관에 대한 복수의 특징 값들을 스태킹(stacking)하여 하나의 특징 벡터로 만드는 것을 의미하여, 특징 연접을 통하여 더 나은 특징 값을 얻을 수 있다.
이후, 프로세서(320)는 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치되는지 여부에 기초하여 상기 사용자의 인증 성공 여부를 결정할 수 있다. 상기 결정 단계에서, 프로세서(320)는 상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치하는 경우에 상기 사용자의 인증이 성공인 것으로 결정할 수 있다.
본 발명에서는 연접 특징 값과 데이터베이스에 저장된 특징 값을 비교하였으나, 추출한 손톱 모세혈관에 대한 각각의 특징 값과 데이터베이스에 저장된 특징 값을 비교하여 사용자 인증 성공 여부가 결정될 수 있다. 즉, 손톱 모세혈관에서 추출된 어느 하나의 특징 값이 데이터베이스에 저장된 특징 값과 일치하면 사용자 인증이 성공인 것으로 결정될 수도 있다.
도 5는 본 발명에 따른 사용자 인증 방법의 구체적인 흐름도를 예시한 도면이다.
도 5를 참조하면, 사용자는 사용자의 인증 장치(300)의 손가락 구멍에 손가락을 넣는다. 사용자의 인증 장치(300)의 촬영부(310)는 사용자의 손톱 부위를 촬영한다. 즉, 촬영부(310)는 사용자의 손톱 모세혈관 영역을 촬영한다. 프로세서(320)는 촬영된 이미지에 대해 전처리(pre-processing)를 수행한다. 전처리는 촬영된 이미지의 녹색 채널을 획득하고 모션 보정을 수행하는 과정을 포함한다.
프로세서(320)는 소정의 딥러닝 알고리즘을 이용하여 사용자의 손톱 모세혈관을 인식하고, 혈류를 측정할 수 있다. 이후, 프로세서(320)는 상술한 바와 같이 손톱 모세혈관에 대한 다양한 특징 값들을 추출할 수 있다.
프로세서(320)는 생성된 연접 특징 값 혹은 손톱 모세혈관에 대한 각각의 특징 값과 데이터베이스에 저장 혹은 등록되어 있는 연접 특징 값 혹은 각각의 특징 값과 비교하여 사용자를 식별할 수 있다. 이후, 프로세서(320)는 사용자 인증 결과를 저장한다.
사용자 인증 결과가 성공인 경우에, 통신부(330)는 사용자 인증 결과와 손톱 모세혈관에 대해 측정된 값들을 외부 클라우드로 전송할 수 있다.
외부 클라우드는 수신한 손톱 모세혈관에 대해 측정된 값들을 백혈수 수를 추정하고, 유량 추정 알고리즘을 사용하여 혈류의 간격을 계산할 수 있다. 외부 클라우드는 백혈구 수 (WBC count) 결과는 데이터베이스에 저장하고, 관련 사용자의 스마트 폰 등으로 전송할 수 있다. 외부 클라우드는 측정된 백혈구 수의 정보에 기초하여 백혈구 수치에 따른 건강 상태 분류를 생성하고, 본 사용자에 대한 건강 상태에 대한 정보를 저장할 수 있다.
도 6은 딥러닝 알고리즘을 이용하여 손톱 모세혈관의 특징에 대한 훈련(training) 및 테스팅(testing) 하는 방법을 설명한 도면이다.
도 6의 위 측에 도시된 도면을 참조하면, 프로세서(320)는 소정의 사용자에 대한 손톱 모세혈관에 대한 이미지를 훈련 데이터세트로 정한다. 그리고, 프로세서(320)는 손톱 모세혈관의 위치를 찾는 것을 훈련한다. 프로세서(320)는 다시 딥러닝 알고리즘을 이용하여 손톱 모세혈관의 위치를 찾는다. 프로세서(320)는 손톱 모세혈관이 추출된 segmented image로부터 특징 값들을 추출한다.
이러한 특징 값들에는 손톱 모세혈관에 대한 모양 특징(shape feature), 손톱 모세혈관에 대한 방향 특징(orientation feature), 손톱 모세혈관 간의 거리 특징(distance feature) 등이 있을 수 있다. 프로세서(320)는 이들 특징 값들을 연접하여 연접 특징 값을 생성하고, 라벨링하여 데이터베이스에 특징 값으로 저장한다. 이러한 방식으로, 프로세서(320)는 딥러닝 알고리즘에 대한 훈련 과정을 수행한다.
도 6의 아래 측에 도시된 도면을 참조하면, 프로세서(320)는 촬영부(310)로부터 촬영된 소정의 사용자에 대한 손톱 모세혈관에 대한 이미지를 딥러닝 알고리즘을 이용하여 손톱 모세혈관의 이미지를 추출한다. 프로세서(320)는 손톱 모세혈관이 추출된 segmented image로부터 특징 값들을 추출한다.
이러한 특징 값들에는 마찬가지로 손톱 모세혈관에 대한 모양 특징(shape feature), 손톱 모세혈관에 대한 방향 특징(orientation feature), 손톱 모세혈관 간의 거리 특징(distance feature) 등이 있을 수 있다. 프로세서(320)는 이들 특징 값들을 연접하여 연접 특징 값을 생성한다. 이후, 사용자 인증을 위하여, 생성된 연접 특징 값이 데이터베이스에 저장되어 있는 연접 특징 값과 일치하는지 여부를 판단한다. 만약 일치한다면, 프로세서(320)는 사용자 인증이 성공한 것으로 판단하게 되어 access를 허가하고, 그렇지 않으면 access를 허가하지 않는다.
이상에서 설명한 바와 같이, 사용자의 의도 인식을 머신러닝 알고리즘을 모델을 사용하여 디바이스를 조작할 때 발생하는 오류를 줄이기 위한 학습하는 방법과 이를 위한 학습 장치를 제안하였다.
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
프로세서(320)는 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있다. 한편, 프로세서(320)는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. 하드웨어를 이용하여 본 발명의 실시예를 구현하는 경우에는, 본 발명을 수행하도록 구성된 ASICs(application specific integrated circuits) 또는 DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays) 등이 프로세서(320)에 구비될 수 있다.
본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (21)

  1. 사용자 인증 장치에 있어서,
    상기 사용자의 손톱 모세혈관 영역을 촬영하는 촬영부;
    촬영된 이미지로부터 상기 손톱 모세혈관의 이미지를 추출하고,
    상기 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출한 후 상기 복수의 특징 값들을 연접하여(concatenated) 연접 특징 값을 생성하며,
    상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치되는지 여부에 기초하여 상기 사용자의 인증 성공 여부를 결정하는 프로세서를 포함하는, 사용자 인증 장치.
  2. 제 1항에 있어서,
    상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 포함하는, 사용자 인증 장치.
  3. 제 1항에 있어서,
    상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값 및 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 더 포함하는, 사용자 인증 장치.
  4. 제 3항에 있어서,
    상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 크기에 대한 특징 값 더 포함하는, 사용자 인증 장치.
  5. 제 1항에 있어서,
    상기 프로세서는 소정의 딥러닝 알고리즘을 이용하여 상기 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출하는, 사용자 인증 장치.
  6. 제 2항에 있어서,
    상기 프로세서는 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 연접하여(concatenation) 상기 연접 특징 값을 생성하는, 사용자 인증 장치.
  7. 제 3항에 있어서,
    상기 프로세서는 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값 및 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 연접하여 상기 연접 특징 값을 생성하는, 사용자 인증 장치.
  8. 제 1항에 있어서,
    상기 촬영부는 현미경 카메라를 포함하는, 사용자 인증 장치.
  9. 제 1항에 있어서,
    상기 프로세서는 상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치하는 경우에 상기 사용자의 인증이 성공인 것으로 결정하는, 사용자 인증 장치.
  10. 제 1항에 있어서,
    상기 생성된 연접 특징 값은 상기 복수의 특징 값들을 스태킹(stacking)한 하나의 벡터로 표현되는, 사용자 인증 장치.
  11. 사용자의 손톱 모세혈관 영역을 촬영하는 단계;
    촬영된 이미지로부터 상기 손톱 모세혈관의 이미지를 추출하는 단계;
    상기 추출된 손톱 모세혈관 이미지로부터 상기 손톱 모세혈관에 대한 복수의 특징 값을 추출하는 단계;
    상기 복수의 특징 값들을 연접하여(concatenated) 연접 특징 값을 생성하는 단계; 및
    상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치되는지 여부에 기초하여 상기 사용자의 인증 성공 여부를 결정하는 단계를 포함하는, 사용자 인증 방법.
  12. 제 11항에 있어서,
    상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 포함하는, 사용자 인증 방법.
  13. 제 11항에 있어서,
    상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값 및 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 더 포함하는, 사용자 인증 방법.
  14. 제 13항에 있어서,
    상기 손톱 모세혈관에 대한 복수의 특징 값은 상기 손톱 모세혈관의 크기에 대한 특징 값 더 포함하는, 사용자 인증 방법.
  15. 제 11항에 있어서,
    상기 복수의 특징 값은 소정의 딥러닝 알고리즘을 이용하여 상기 추출된 손톱 모세혈관 이미지로부터 추출되는, 사용자 인증 방법.
  16. 제 11항에 있어서,
    상기 연접 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값 및 상기 손톱 모세혈관들 간의 거리에 대한 특징 값을 연접하여(concatenation) 생성된 것인, 사용자 인증 방법.
  17. 제 11항에 있어서,
    상기 연접 특징 값은 상기 손톱 모세혈관의 모양에 대한 특징 값, 상기 손톱 모세혈관들 간의 거리에 대한 특징 값 및 상기 손톱 모세혈관의 방향(orientation)에 대한 특징 값을 연접하여 생성한 것인, 사용자 인증 방법.
  18. 제 11항에 있어서,
    상기 사용자의 손톱 모세혈관 영역의 촬영은 현미경 카메라에 의해 수행되는, 사용자 인증 방법.
  19. 제 11항에 있어서,
    상기 결정 단계는 상기 생성된 연접 특징 값이 미리 정의된 데이터베이스에 포함되어 있는 연접 특징 값과 일치하는 경우에 상기 사용자의 인증이 성공인 것으로 결정하는 단계를 포함하는, 사용자 인증 방법.
  20. 제 11항에 있어서,
    상기 생성된 연접 특징 값은 상기 복수의 특징 값들을 스태킹(stacking)한 하나의 벡터로 표현되는, 사용자 인증 방법.
  21. 제 11항 내지 제 20항 중 어느 한 항에 기재된 사용자 인증 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020180160757A 2018-12-13 2018-12-13 사용자 인증 장치 및 방법 KR102159797B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180160757A KR102159797B1 (ko) 2018-12-13 2018-12-13 사용자 인증 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180160757A KR102159797B1 (ko) 2018-12-13 2018-12-13 사용자 인증 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200072784A true KR20200072784A (ko) 2020-06-23
KR102159797B1 KR102159797B1 (ko) 2020-09-23

Family

ID=71138159

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160757A KR102159797B1 (ko) 2018-12-13 2018-12-13 사용자 인증 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102159797B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230100842A (ko) * 2021-12-28 2023-07-06 광운대학교 산학협력단 손톱주름 모세혈관 속 백혈구의 수를 산출하기 위한 뉴로모픽 컴퓨팅 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751835A (en) * 1995-10-04 1998-05-12 Topping; Allen Method and apparatus for the automated identification of individuals by the nail beds of their fingernails
KR20020002183A (ko) * 2000-06-29 2002-01-09 김윤석 손톱 조상의 패턴에 의한 개인 인증 방법
KR20180052900A (ko) * 2016-11-11 2018-05-21 삼성전자주식회사 지문 영상을 이용한 사용자 인증 방법 및 사용자 인증을 위한 부호화 모델 생성 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751835A (en) * 1995-10-04 1998-05-12 Topping; Allen Method and apparatus for the automated identification of individuals by the nail beds of their fingernails
KR20020002183A (ko) * 2000-06-29 2002-01-09 김윤석 손톱 조상의 패턴에 의한 개인 인증 방법
KR20180052900A (ko) * 2016-11-11 2018-05-21 삼성전자주식회사 지문 영상을 이용한 사용자 인증 방법 및 사용자 인증을 위한 부호화 모델 생성 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230100842A (ko) * 2021-12-28 2023-07-06 광운대학교 산학협력단 손톱주름 모세혈관 속 백혈구의 수를 산출하기 위한 뉴로모픽 컴퓨팅 장치

Also Published As

Publication number Publication date
KR102159797B1 (ko) 2020-09-23

Similar Documents

Publication Publication Date Title
CN109902546B (zh) 人脸识别方法、装置及计算机可读介质
KR102450374B1 (ko) 데이터 인식 및 트레이닝 장치 및 방법
CN108388876A (zh) 一种图像识别方法、装置以及相关设备
KR20180057096A (ko) 표정 인식과 트레이닝을 수행하는 방법 및 장치
KR20210085867A (ko) 사용자의 혈압을 추정하기 위한 장치 및 방법
US10610109B2 (en) Emotion representative image to derive health rating
Giorgi et al. Try walking in my shoes, if you can: Accurate gait recognition through deep learning
KR20210067815A (ko) 사용자의 건강 상태를 측정하기 위한 방법 및 이를 위한 장치
Cheng et al. Classification of long sequential data using circular dilated convolutional neural networks
CN110705428B (zh) 一种基于脉冲神经网络的脸部年龄识别系统及方法
KR102274581B1 (ko) 개인화된 hrtf 생성 방법
CN114469120A (zh) 一种基于相似度阈值迁移的多尺度Dtw-BiLstm-Gan心电信号生成方法
Aguilera et al. Blockchain cnn deep learning expert system for healthcare emergency
Oyedotun et al. Banknote recognition: investigating processing and cognition framework using competitive neural network
KR102159797B1 (ko) 사용자 인증 장치 및 방법
Fernando et al. Face recognition system using deep neural network with convolutional neural networks
Raja et al. IRIS recognition system using neural network and genetic algorithm
KR20200072781A (ko) 백혈구 계수 장치 및 방법
CN117009863A (zh) 免疫组库分类方法、装置、设备和存储介质
Deng et al. View-invariant gait recognition based on deterministic learning and knowledge fusion
CN116109853A (zh) 任务处理模型训练、任务处理方法、装置及设备
CN116648700A (zh) 音频数据转录训练学习算法标识图像数据中可见医疗设备
Tunç et al. Development of face recognition system by using deep learning and face-net algorithm in the operations processes
KR102535632B1 (ko) 사용자 인증 시 사용자 정보 유출을 방지하기 위한 방법 및 장치
KR102662987B1 (ko) 손톱주름 모세혈관 속 백혈구의 수를 산출하기 위한 뉴로모픽 컴퓨팅 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right