KR102206054B1 - 지문 처리 방법 및 그 전자 장치 - Google Patents

지문 처리 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR102206054B1
KR102206054B1 KR1020140055688A KR20140055688A KR102206054B1 KR 102206054 B1 KR102206054 B1 KR 102206054B1 KR 1020140055688 A KR1020140055688 A KR 1020140055688A KR 20140055688 A KR20140055688 A KR 20140055688A KR 102206054 B1 KR102206054 B1 KR 102206054B1
Authority
KR
South Korea
Prior art keywords
fingerprint
electronic device
sensor
information
finger
Prior art date
Application number
KR1020140055688A
Other languages
English (en)
Other versions
KR20150128377A (ko
Inventor
이승은
나보연
정철호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140055688A priority Critical patent/KR102206054B1/ko
Priority to US14/708,771 priority patent/US10528711B2/en
Publication of KR20150128377A publication Critical patent/KR20150128377A/ko
Application granted granted Critical
Publication of KR102206054B1 publication Critical patent/KR102206054B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

본 발명의 다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 지문 검출 시점에 상기 전자 장치의 상황 정보에 기반하여 비교 기준 값 정보를 결정하는 동작과, 상기 비교 기준 값 정보에 따라서 상기 검출한 지문에 대응하는 지문을 인식하는 동작을 포함할 수 있다. 전자 장치의 동작 방법에 있어서 상술한 방법에 한정하지 않고 본 발명의 동일 또는 유사한 범위에서 다른 실시 예가 가능하다.

Description

지문 처리 방법 및 그 전자 장치{METHOD FOR PROCESSING FINGERPRINT AND ELECTRONIC DEVICE THEREOF}
본 발명의 다양한 실시 예는 검출된 지문을 인식하는 방법 및 그 전자 장치에 관한 것이다.
전자 장치에서 지문인식 기능을 제공하기 위하여, 통상 하나 이상의 손가락을 지정하여 지문을 입력하고, 이를 참조용 지문으로 등록하거나 혹은 참조용 지문에서 추출한 특징정보를 등록하여 저장한다. 지문은 피부의 상태, 표면에 눌린 정도 등에 따라서 지문이미지의 변형이 발생하기 때문에 하나의 손가락 지문에 대해서 여러 번 스캔을 하여 다양한 변형에 대응할 수 있도록 복수 개의 참조용 지문 이미지 혹은 복수 개의 특징 정보를 기록할 수 있다.
예를 들어, 띠형 스캔방식 센서의 경우에는 손가락을 긁는 방식이므로, 통상 띠는 전자장치에 가로 방향으로 배치되고, 손가락은 가로가 배열된 방향의 직교방향, 즉, 위에서 아래 방향으로 손가락을 긁어서 지문패턴을 입력 받는다. 따라서 참조지문 등록과 인증을 위한 지문의 입력 시에 손가락을 긁는 방향, 즉 입력방향이 일치해야 인식이 용이하다.
다른 방식의 센서들을 이용하는 경우에도, 지문을 등록하여 지문인식기기를 통해 사용자 지문 인증을 할 때, 정방향으로 지문을 등록해 놓은 후, 인증 또한 동일하게 정방향으로 손가락을 인증 장치에 인식시키는 방법으로 진행하게 된다. 즉 새로운 지문을 저장, 등록을 할 때도 소정의 정방향(예: 수직방향)으로 손가락을 놓거나 드래그하고, 인증을 위해 지문을 입력할 때에도 인식률이 높이고 오동작을 줄이기 위해 등록할 때와 같은 손동작과 손가락 방향으로 입력해야 한다. 그리고 지문 인증 성공률을 높이기 위해 지문을 등록하여 reference 지문을 저장할 때, 여러 손가락 별로 반복해서 등록하여 비슷하게 등록, 저장되는 지문의 양이 매우 많다.
종래의 기술은 휴대폰과 같이 한 손으로 제어가 가능한 이동 기기에서 지문 인식을 적용할 경우에 문제가 된다. 예를 들어 참조 지문 등록시 왼손으로 휴대폰을 잡고, 오른손 엄지의 지문을 정방향으로 입력할 수 있다. 반면 지문인식을 통한 인증을 하기 위해 오른손으로 휴대폰을 쥐고, 오른손 엄지로 지문 입력을 하는 경우가 있다. 이에 따르면, 참조 지문 등록을 위한 지문 입력과 인증을 위한 지문 입력시 서로 손동작이나 지문 입력 방향이 상이하기 때문에 입력되는 지문들의 특징이 달라질 수 있으므로, 지문 인식률이 낮아지고, 인식 오류가 자주 발생하게 된다. 결국 지문 등록 시 취했던 정방향(수직방향)의 지문 입력을 위해 한 손으로 단말을 잡고 다른 손의 손가락의 지문을 입력하거나, 단말을 내려 놓고 지문을 입력하여 인증을 해야 하는 어려움이 있다. 또한 동일 기기를 다 수의 사용자가 이용할 경우 등록되어있는 지문의 수가 한 사람의 지문 정보량보다 급격히 증가한다. 따라서 인증을 위해 입력되는 지문정보만으로 등록되어 있는 다 수 사람의 각 손가락 별 다수의 지문들과 인증 프로세스를 진행하면 인식률의 저하뿐 아니라 처리하는 속도 저하 역시 자명하다.
다양한 실시 예에 따르면, 전자 장치에서 지문으로 사용자 인증을 할 때, 사용자가 단말을 잡고 있는 파지 형태에 따라서, 전자 장치의 방향, 전자 장치의 움직임 중 하나 이상의 정보를 이용하여 인증을 위해 입력될 수 있는 손가락 또는 입력 방향 중 한 가지 이상을 예측하여 입력 가능성 있는 지문 후보들의 우선 순위를 정하거나 하나 이상의 후보를 추출한 후 입력되는 지문과 인증을 수행함으로써 지문 인식률을 높여 인증 오류를 줄이고, 매우 많은 수의 비교 대상이 되는 지문 중에서 우선순위 별, 혹은 후보군 별로 먼저 비교하도록 결정할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 지문을 검출하는 시점에 상기 전자 장치의 상황 정보를 결정하는 동작, 상기 상황 정보에 기반하여, 복수의 지문이 포함된 비교군 정보를 선택하는 동작, 및 상기 검출된 지문 및 상기 선택된 비교군 정보에 기반하여, 지문을 인식하는 동작을 포함하고, 상기 상황 정보는, 상기 전자 장치를 파지한 손의 방향에 대한 정보 또는 상기 전자 장치가 사용자의 신체에 착용된 위치에 대한 정보를 포함할 수 있다.
다양한 실시 예에 따르면 전자 장치는, 지문을 검출하는 지문 인식 센서, 및 프로세서를 포함하고, 상기 프로세서는, 지문을 검출하는 시점에 상기 전자 장치의 상황 정보를 결정하고, 상기 상황 정보에 기반하여, 복수의 지문이 포함된 비교군 정보를 선택하고, 상기 검출된 지문 및 상기 선택된 비교군 정보에 기반하여, 지문을 인식하고, 상기 상황 정보는, 상기 전자 장치를 파지한 손의 방향에 대한 정보 또는 상기 전자 장치가 사용자의 신체에 착용된 위치에 대한 정보를 포함할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 파지 형태, 전자 장치의 방향 또는 전자 장치의 움직임과 같은 정보를 이용하여 검출한 지문을 비교하는 비교군을 결정함으로써 지문을 인식하는 인증 처리 속도 향상을 기대할 수 있다. 또한 지문 인식 가능성이 없는 손가락을 판별함으로써 이에 해당하는 사용자의 지문은 비교 대상이 되는 지문에서 제외할 수 있으므로, 정당하지 않은 사용자의 지문을 정당한 사용자의 것으로 오인식할 확률을 줄일 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 본 발명의 다양한 실시 예도 1은 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 본 발명의 다양한 실시 예들에 따른 전자 장치의 블록 도면이다.
도 3은 다양한 실시 예에 따른 전자 장치에서 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
도 4는 다양한 실시 예에 따른 전자 장치에서 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
도 5는 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
도 6은 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
도 7은 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
도 8은 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
도 9는 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
도 10은 다양한 실시 예에 따른 전자 장치에서 지문 검출 시점에 전자 장치의 움직임을 기반으로, 검출한 지문을 처리하는 도면이다.
도 11은 다양한 실시 예에 따른 전자 장치에서 지문 검출 시점에 전자 장치의 움직임을 기반으로, 검출한 지문을 처리하는 도면이다.
도 12은 다양한 실시 예에 따른 전자 장치에서 전자 장치의 움직임을 기반으로, 검출한 지문을 처리하는 도면이다.
도 13은 다양한 실시 예에 따른 전자 장치에서 전자 장치의 움직임을 기반으로, 검출한 지문을 처리하는 도면이다.
도 14는 다양한 실시 예를 수행하는 전자 장치에서 프로세서의 동작을 도시하는 도면이다.
도 15는 다양한 실시 예를 수행하는 전자 장치에서 상황 정보를 기반으로 검출한 지문을 비교하는 동작의 흐름을 도시한다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 설명한다.
본 발명의 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예가 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호를 사용할 수 있다.
본 발명의 다양한 실시 예 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 ‘또는’ 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, ‘A 또는 B’는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시 예에서 ‘제1’, ’제2’, ’첫째’ 또는 ’둘째’등의 표현들이 본 발명의 다양한 구성 요소들을 수식할 수 있지만, 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 또한, 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다.
본 발명의 다양한 실시 예에서 어떤 구성요소가 다른 구성요소에 ‘연결되어’ 있다거나 ‘접속되어’ 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 ‘직접 연결되어’ 있다거나 ‘직접 접속되어’ 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다른 것으로 명시하지 않는 한 복수의 표현을 포함할 수 있다. 또한 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 통신 기능을 포함한 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smartwatch)), 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 또는 산업용 또는 가정용 로봇, 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector) 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 1을 참조하면, 전자 장치 101는 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 또는 통신 인터페이스 160 중에서 적어도 하나를 포함할 수 있다.
버스 110는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신 신호(예: 제어 메시지)를 전달하는 회로일 수 있다.
프로세서 120는, 예를 들면, 버스 110를 통해 전술한 다른 구성요소들(예: 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 또는 통신 인터페이스 160)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
프로세서 120은 전자 장치 101에 적어도 하나 이상 포함되어 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 프로세서 120은 하나 이상의 어플리케이션 프로세서(AP: application processor) 및 하나 이상의 마이크로 컨트롤러(MCU: micro controller unit))을 포함할 수 있다. 다른 실시 예에 따르면, 프로세서 210은 어플리케이션으로서 하나 이상의 마이크로 컨트롤러를 포함하거나, 하나 이상의 마이크로 컨트롤러와 기능적으로 연결될 수 있다. 도 1에서는, AP와 MCU는 하나의 IC 패키지에 포함될 수 있고, 별도로 구성되어 서로 다른 IC 패키지 내에 각각 포함될 수 있다. 한 실시 예에 따르면, MCU는 AP의 IC 패키지에 포함되어 하나의 IC 패키지로 구성될 수도 있다. 프로세서 210의 구성 요소로 AP 또는 MCU를 포함하는 것으로 도시하고 있지만 이는 명확한 이해를 위한 실시 예로서, 프로세서 120이 AP 및/또는 MCU 동작을 수행할 수도 있음은 자명하다.
AP는 운영체제 또는 응용 프로그램(또는 어플리케이션)을 구동하여 AP에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
MCU는 지정된 동작을 수행하도록 설정된 프로세서일 수 있다. 한 실시 예에 따르면, MCU는 하나 이상의 지정된 모션 센서(예: 자이로 센서, 가속도 센서 또는 지자기 센서)를 통해서 센싱 정보를 획득할 수 있고, 획득한 센싱 정보를 비교할 수 있고, 전자 장치 101의 데이터베이스를 참고하여 지정된 센서의 동작 상태를 결정할 수 있다.
한 실시 예에 따르면, AP 또는 MCU는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 또는 MCU는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
메모리 130(예: 메모리 230)는, 프로세서 120 또는 다른 구성요소들(예: 입출력 인터페이스 140, 디스플레이 150, 통신 인터페이스 160으로부터 수신되거나 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리 130는, 예를 들면, 커널 131, 미들웨어 132, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 어플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 상술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 미들웨어 132, API 133 또는 어플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 110, 프로세서 120 또는 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 커널 131은 미들웨어 132, API 133 또는 어플리케이션 134이 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어 132는 API 133 또는 어플리케이션 134이 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어 132는 어플리케이션 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, 어플리케이션 134 중 적어도 하나의 어플리케이션에 전자 장치 101의 시스템 리소스(예: 버스 110, 프로세서 120 또는 메모리 130 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
API 133는 어플리케이션 134이 커널 131 또는 미들웨어 132에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
어플리케이션(또는 프로세서) 134는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 어플리케이션(또는 프로세서) 134는 전자 장치 101와 외부 전자 장치(예: 전자 장치 102 또는 전자 장치 104) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 정보 교환과 관련된 어플리케이션은, 예를 들어, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다. 상술한 어플리케이션들의 예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치 101 의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치 101와 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다. 다양한 실시 예에 따르면, 어플리케이션 134은 외부 전자 장치(예: 전자 장치 102 또는 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션 134은 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 134은 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 상기 어플리케이션 134은 전자 장치 101에 지정된 어플리케이션 또는 외부 전자 장치(예: 서버 106 또는 전자 장치 104)로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다. 지문 인식 프로그램 135는 어플리케이션 134에 포함되어 제공할 수 있고, 또는 별도의 프로그램으로 메모리 130에 저장될 수 있다.
지문 인식 프로그램 135는, 프로세서 120의 제어를 기반으로 전자 장치 101과 기능적으로 연결된 적어도 하나의 장치를 제어하여 지문 인식 센서 170을 통해서 검출한 지문을 인식하는 동작을 수행할 수 있다. 이하 설명하는 지문 인식 프로그램 135의 동작은 프로세서 120의 제어를 기반으로 수행하는 동작일 수 있다.
지문 인식 프로그램 135는, 지문 검출 시점에 상기 전자 장치의 상황 정보에 기반하여 비교 기준 값 정보를 결정하고, 상기 비교 기준 값 정보에 따라서 상기 검출한 지문에 대응하는 지문을 인식할 수 있다. 지문 인식 프로그램 135는, 상기 전자 장치의 모션, 포즈, 움직임에 대한 정보 중 적어도 하나 또는 상기 모션, 포즈 움직임을 기반으로 지정된 모드를 상기 상황 정보로 결정할 수 있다. 지문 인식 프로그램 135는, 상기 전자 장치에 포함된 가속도 센서, 기울기 센서, 제스처 센서, 자이로 센서, 그립 센서, 터치 센서, 조도 센서, 생체 센서 중에서 적어도 하나를 통해서 상기 모션에 대한 정보, 상기 포즈에 대한 정보 또는 상기 움직임에 대한 정보를 획득할 수 있다. 지문 인식 프로그램 135는, 상기 전자 장치를 파지한 손의 방향 또는 상기 전자 장치가 사용자의 신체에 착용된 위치에 대한 정보를 상기 상황 정보로 결정할 수 있다. 지문 인식 프로그램 135는, 상기 전자 장치에 포함된 가속도 센서, 기울기 센서, 제스처 센서, 자이로 센서, 그립 센서, 터치 센서, 조도 센서, 생체 센서 중에서 적어도 하나를 통해서 상기 전자 장치의 움직임을 기반으로 결정하거나, 또는 상기 전자 장치에 포함된 생체 센서를 기반으로 상기 파지한 손의 방향 또는 상기 착용된 위치를 결정할 수 있다. 지문 인식 프로그램 135는, 상기 검출한 지문을 입력한 사용자의 손의 방향에 대해서 결정한 정보를 상황 정보에 포함할 수 있다. 지문 인식 프로그램 135는, 상기 전자 장치의 모션, 포즈 움직임에 대한 정보를 기반으로 상기 손의 방향에 대해서 결정한 정보를 결정할 수 있다. 지문 인식 프로그램 135는, 상기 지문 검출 시점 이전에 저장된 적어도 하나의 지문의 이미지 또는 지문의 이미지를 포함하는 적어도 하나의 카테고리에 대한 정보를 상기 비교 기준 값 정보에 포함할 수 있다. 지문 인식 프로그램 135는, 문지르는 방식의 지문 인식 센서의 경우 손가락을 문지르는 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 상기 카테고리를 구분할 수 있다. 지문 인식 프로그램 135는, 터치 방식의 지문 인식 센서의 경우 손가락 끝 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 구분할 수 있다. 지문 인식 프로그램 135는, 상기 지문의 이미지 또는 상기 카테고리의 우선 순위를 지정하여 상기 비교 기준 값 정보에 포함할 수 있다.
입출력 인터페이스 140은, 인/출력 장치(예: 가속도 센서, 자이로 센서와 같은 다양한 센서들 및/또는 키보드 또는 터치 스크린과 같은 장치)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 버스 110를 통해 프로세서 120, 메모리 130, 또는 통신 인터페이스 160에 전달할 수 있다. 예를 들면, 입출력 인터페이스 140은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 프로세서 120으로 제공할 수 있다. 또한, 입출력 인터페이스 140은, 예를 들면, 버스 110을 통해 프로세서 120, 메모리 130, 또는 통신 인터페이스 160으로부터 수신된 명령 또는 데이터를 출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 입출력 인터페이스 140은 프로세서 120를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
디스플레이 150은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다. 또한 디스플레이 150은 입력 수단을 디스플레이에 터치 또는 근접 터치하여 명령을 입력하는 터치 스크린으로 구성될 수도 있다.
통신 인터페이스 160(예: 통신 모듈 220)은 전자 장치 101와 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 통신 인터페이스 160은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 외부 장치와 통신할 수 있다. 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
지문 감지 센서 170은, 전자 장치 101의 지정된 위치에 포함되어, 사용자의 손가락의 지문 면에 대응하는 지문을 획득하는 동작을 수행할 수 있다. 지문 인식 센서 170은 띠 형태를 가지고 사용자의 손가락을 문지르는 동작을 통해서 지문을 획득하거나, 일정 크기 이상의 면적을 가지고 접촉된 손가락 면적에 대응하는 지문을 획득하거나 혹은 상기 지문 인식 센서에 근접한 지문이미지를 광학적으로 획득할 수 있다. 지문 감지 센서 170은 전자 장치 101의 지정된 위치에 포함된 지문 감지 센서 301또는 디스플레이 150에 인셀(in-cell) 방식으로 포함된 지문 감지부(또는 지문 감지 영역, 용어의 통일을 위해서 지문 감지 센서로 표현할 수 있다.) 를 통해서 입력되는 지문을 검출할 수 있다. 일실시 예에 따르면, 지문 감지 센서 170은, 광학식, 열감지식, 축전식, 전기장식, 반도체식 지문 감지 센서 중 하나 이상일 수 있다. 광학식 센서는 내부광원에서 손가락지문부에 빛을 비추고, 반사된 빛을 CMS 이미지 센서로 읽는다. 열감지식 센서는 센서의 크기가 작고, 융선이 센서와 닿는 부분과 닿지 않은 부분의 온도 차이를 이용해 지문영상을 얻어내는 방식으로 동작한다. 센서부는 작은 바(bar) 형태로 구성돼 있으며, 손가락을 센서 면에 긁음으로써 전체 지문영상을 얻을 수 있다. 축전식 센서는 센서와 접촉되는 융선부와 골간의 대전되는 전기량의 차이를 이용해 지문영상을 얻어내는 센서이다. 전기장식 센서는 전기장을 형성한 센서부에 융선부 접촉시 전기장의 변화를 감지해 이를 지문영상으로 변환하는 센서로서 표면이 오염된 지문에 강한 특성을 가지고 있다. 반도체식 센서는 불투명판에 센서가 연결되어 있는 방식이다.
지문 감지 센서 170은, 전자 장치 101의 디스플레이 150이 포함된 면을 전면으로 정의하는 경우 전자 장치 101의 전면, 측면(예: 상측면, 하측면, 좌측면, 또는 우측면), 후면 중에서 적어도 하나의 면에 적어도 하나의 지문 감지 센서를 포함할 수 있다. 전자 장치 101에 포함되는 지문 감지 센서 301은 사용자가 손가락을 지문 감지 센서 301에 일정한 방향으로 스와이프(swipe)하는 경우 획득하는 둘 이상의 띠 형식으로 된 이미지를 합성, 조합, 병합, 수정하여 완성된 지문을 결정할 수 있고, 또는 사용자의 손가락을 터치하는 경우, 지문 감지 센서(미도시)에 접촉된 손가락 면의 이미지를 적어도 하나 획득하여 완성된 지문을 결정할 수 있고, 또는 접촉된 손가락 면의 이미지를 둘 이상 획득하여 합성, 조합, 병합, 수정된 이미지를 완성된 지문으로 결정할 수 있다. 더하여, 지문 감지 센서 170이 전자 장치 101의 디스플레이 150에 포함되는 경우(예: 인셀 방식의 지문 감지부) 전자 장치 101은 디스플레이 150의 지정된 영역에 대응하는 지문 감지 센서 170을 활성시킬 수 있다. 전자 장치 101은 활성된 지문 감지 센서 170에 접촉되거나 근접한 손가락 면에 대응하는 이미지를 적어도 하나 획득하여 완성된 지문을 결정할 수 있고, 또는 접촉되거나 근접한 손가락 면의 이미지를 둘 이상 획득하여 합성, 조합, 병합, 수정된 이미지를 완성된 지문으로 결정할 수 있다.
상황 감지 센서 180은 전자 장치 101에 포함된 적어도 하나의 센서로 구성된 센서 모듈을 통해서 전자 장치 101의 모션, 제스처, 움직임과 같은 정보를 획득할 수 있다. 전자 장치 101이 포함하는 센서는, 제스처 센서, 자이로 센서, 기압 센서, 가속도 센서, 근접 센서, 그립 센서, 터치 센서, 생체 센서, 지자기 센서, 이미지 센서들 중에서 적어도 하나를 포함할 수 있다. 상황 감지 센서 180은 센서 모듈을 통해서 전자 장치 101이 파지된 상태, 지문 인식 센서 170을 통해서 지문을 검출하는 시점의 전자 장치 101의 모션, 제스처, 움직임에 대한 정보를 획득할 수 있다.
본 발명의 한 실시 예에 따르면, 네트워크 162는 통신 네트워크(telecommunications network)일 수 있다. 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 101와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션 134, 어플리케이션 프로그래밍 인터페이스 133, 미들웨어 132, 커널 131 또는 통신 인터페이스 160 중 적어도 하나에서 지원될 수 있다.
한 실시예에 따르면, 상기 서버 106는 상기 전자 장치 101에서 구현되는 동작(또는, 기능)들 중 적어도 하나의 동작을 수행함으로써, 상기 전자 장치 101의 구동을 지원할 수 있다. 예를 들면, 상기 서버 106는 상기 전자 장치 101에서 이하 후술되는 볼 발명의 다양한 실시 예를 수행하도록 제어하는 프로세서 120 또는 다양한 실시 예를 수행하도록 지정된 특정 모듈을 지원할 수 있는 서버 모듈(또는 서버 프로세서, 미도시)을 포함할 수 있다. 예컨대, 서버 모듈은 프로세서 120 또는 특정 모듈의 적어도 하나의 구성요소를 포함하여, 프로세서 120 또는 특정 모듈이 수행하는 동작들 중 적어도 하나의 동작을 수행(예: 대행)할 수 있다. 서버 모듈은 서버 106에 포함될 수 있다.
도 2는, 본 발명의 다양한 실시 예들에 따른 전자 장치의 블록 도면이다.
전자 장치 201은, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 구성할 수 있고, 또는 전자 장치 101의 전체 또는 일부의 구성을 확장할 수 있다. 도 2를 참조하면, 전자 장치 201는 적어도 하나의 프로세서 210, 통신 모듈 220, SIM(subscriber identification module) 카드 224, 메모리 230, 센서 모듈 240, 입력 장치 250, 디스플레이 260, 인터페이스 270, 오디오 모듈 280, 카메라 모듈 291, 전력관리 모듈 295, 배터리 296, 인디케이터 297 및 모터 298 를 포함할 수 있다.
프로세서 210은 전자 장치 101에 적어도 하나 이상 포함되어 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 프로세서 210은 하나 이상의 어플리케이션 프로세서(AP: application processor) 및 하나 이상의 마이크로 컨트롤러(MCU: micro controller unit))을 포함할 수 있다. 다른 실시 예에 따르면, 프로세서 210은 어플리케이션으로서 하나 이상의 마이크로 컨트롤러를 포함하거나, 하나 이상의 마이크로 컨트롤러와 기능적으로 연결될 수 있다. 도 1에서는, AP와 MCU는 하나의 IC 패키지에 포함될 수 있고, 별도로 구성되어 서로 다른 IC 패키지 내에 각각 포함될 수 있다. 한 실시 예에 따르면, MCU는 AP의 IC 패키지에 포함되어 하나의 IC 패키지로 구성될 수도 있다. 프로세서 210의 구성 요소로 AP 또는 MCU를 포함하는 것으로 도시하고 있지만 이는 명확한 이해를 위한 실시 예로서, 프로세서 210이 AP 및/또는 MCU 동작을 수행할 수도 있음은 자명하다.
AP는 운영체제 또는 응용 프로그램(또는 어플리케이션)을 구동하여 AP에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
MCU는 지정된 동작을 수행하도록 설정된 프로세서일 수 있다. 한 실시 예에 따르면, MCU는 하나 이상의 지정된 모션 센서(예: 자이로 센서 140b, 가속도 센서 140e 또는 지자기 센서 140p)를 통해서 센싱 정보를 획득할 수 있고, 획득한 센싱 정보를 비교할 수 있고, 전자 장치 101의 데이터베이스를 참고하여 지정된 센서(예: 지자기 센서 140p)의 동작 상태를 결정할 수 있다. 더하여, 도 1에서는, MCU와 센서 모듈 140의 구성요소들이 MCU와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, MCU가 전술한 센서 모듈 140의 구성요소들의 적어도 일부(예: 자이로 센서 140b, 가속도 센서 140e 및 지자기 센서 140p 중에서 적어도 하나)를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, AP 또는 MCU는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 또는 MCU는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈 220(예: 통신 인터페이스 160)은 전자 장치 101과 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 102, 전자 장치 104 또는 서버 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 통신 모듈 220은 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227, NFC 모듈 228 및 RF(radio frequency) 모듈 229를 포함할 수 있다.
셀룰러 모듈 221은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 셀룰러 모듈 221은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 224)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 221은 AP 210가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 셀룰러 모듈 221은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
본 발명의 한 실시 예에 따르면, 셀룰러 모듈 221은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 셀룰러 모듈 221은, 예를 들면, SoC로 구현될 수 있다. 도 2에서는 셀룰러 모듈221(예: 커뮤니케이션 프로세서), 메모리 230 또는 전력관리 모듈 295 등의 구성요소들이 AP 210와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, AP 210가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈221)를 포함하도록 구현될 수 있다.
본 발명의 한 실시 예에 따르면, AP 210 또는 셀룰러 모듈 221(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 210 또는 셀룰러 모듈 221은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
Wifi 모듈 223, BT 모듈 225, GPS 모듈 327 또는 NFC 모듈 228 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 221에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 223에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
RF 모듈 229는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기RF 모듈 229는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈 229는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 및 NFC 모듈 228이 하나의 RF 모듈 229을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
SIM 카드 224는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드 224는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리 230(예: 메모리 130)는 내장 메모리 232 또는 외장 메모리 234를 포함할 수 있다. 내장 메모리 232는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 내장 메모리 232는 Solid State Drive (SSD)일 수 있다. 외장 메모리 234는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 외장 메모리 234는 다양한 인터페이스를 통하여 전자 장치 201과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 전자 장치 201는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
센서 모듈 240은 물리량을 계측하거나 전자 장치 201의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 240은, 예를 들면, 제스처 센서 240A, 자이로 센서 240B, 기압 센서 240C, 마그네틱 센서 240D, 가속도 센서 240E, 그립 센서 240F, 근접 센서 240G, color 센서 240H(예: RGB(red, green, blue) 센서), 생체 센서 240I, 온/습도 센서 240J, 조도 센서 240K 또는 UV(ultra violet) 센서 240M, 지자기 센서 240P, 지문 감지 센서 240Q 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈 240은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 센서 모듈 240은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
입력 장치250은 터치 패널(touch panel) 252, (디지털) 펜 센서(pen sensor) 254, 키(key) 256 또는 초음파(ultrasonic) 입력 장치 258를 포함할 수 있다. 터치 패널 252은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 검출할 수 있다. 또한, 터치 패널 252은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 검출이 가능하다. 터치 패널 252은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널 252은 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서 254는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 검출용 쉬트(sheet)를 이용하여 구현될 수 있다. 키 256는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 초음파(ultrasonic) 입력 장치 258는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 201에서 마이크(예: 마이크 288)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 검출이 가능하다. 한 실시 예에 따르면, 전자 장치 201는 통신 모듈 220를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이 260(예: 디스플레이 150)은 패널 262, 홀로그램 장치 264 또는 프로젝터 266을 포함할 수 있다. 패널 262은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널 262은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 262은 터치 패널 252과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 264은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 266는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치 201의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 260은 패널 262, 홀로그램 장치 264, 또는 프로젝터 266를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스 270는, 예를 들면, HDMI(high-definition multimedia interface) 372, USB(universal serial bus) 274, 광 인터페이스(optical interface) 276 또는 D-sub(D-subminiature) 278를 포함할 수 있다. 인터페이스 270는, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스 270는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈280은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 280의 적어도 일부 구성요소는, 예를 들면, 도 1에 도시된 입출력 인터페이스 140에 포함될 수 있다. 오디오 모듈280은, 예를 들면, 스피커 282, 리시버 284, 이어폰 286 또는 마이크 288 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 카메라 모듈 291은, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
전력 관리 모듈 295은, 전자 장치 201의 전력을 관리할 수 있다. 도시하고 있지는 않지만, 전력 관리 모듈 295는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. 다양한 실시 예에 따르면, PMIC는 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다.
한 실시 예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리 296의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리 296는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 전자 장치 201에 전원을 공급할 수 있다. 배터리 296는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터 297는 전자 장치 201 혹은 그 일부(예: AP 210)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태(SOC: State Of Charge) 등을 표시할 수 있다. 모터 298는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 전자 장치 201는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 전술한 구성 요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
전자 장치 101은 지문 정보를 기반으로 보안 인증 절차를 수행함에 있어서, 지문 감지 센서 170에서 입력받은 지문(예: 지문에 대응하는 지문신호, 지문 이미지, 지문에 대응하는 특징 정보)을 전자 장치 101의 메모리 130, 전자 장치 102의 메모리(미도시), 전자 장치 104의 메모리(미도시), 또는 서버 106의 메모리(미도시) 중 적어도 하나 이상의 메모리에 저장된, 적어도 하나의 지문에 대응하는 이미지(이하 지문의 이미지 ? 예: 지문에 대응하는 지문신호, 지문 이미지, 지문에 대응하는 특징 정보)와 비교할 수 있고, 입력되는 지문 또는 지문의 지정된 특징 영역과 일치하는 지문을 결정할 수 있다. 전자 장치 101은 지문 인식 센서 170으로 입력된 지문을 상기 메모리에 저장된 지문의 이미지와 비교함에 있어서 전자 장치 101의 상황 정보를 기반으로 결정된 비교 기준 값 정보에 따라서 비교할 수 있다. 여기에서 비교 기준 값 정보는 전자 장치 101의 상황 정보를 기반으로 상기 메모리에 저장된 지문의 이미지의 우선 순위 또는 상기 메모리에 저장된 지문의 이미지가 포함된 카테고리의 우선 순위에 대한 정보일 수 있고, 이하 비교군 정보로 표현할 수 있다. 더하여 비교군 정보는 지문의 이미지 또는 지문의 이미지를 포함하는 카테고리에 대한 우선 순위 정보인 것으로 설명했지만, 우선 순위에 대한 정보에 한정하지 않고, 지문의 이미지 또는 지문의 이미지를 포함하는 카테고리 정보일 수도 있음은 자명하다. 전자 장치 101은 다양한 방법으로 지문의 이미지를 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 인식 센서 170이 전자 장치 101의 지정된 위치(예: 버튼의 일부로 포함될 수도 있다.)에 위치할 수 있다. 지문 인식 센서 170은 손가락을 접촉하는 경우, 접촉된 지문 면에 대응하는 지문을 획득하는 방식일 수 있고, 광학식 방식으로, 접촉하거나 근접한 지문 이미지를 획득하는 방식일 수도 있으며, 지문 인식 센서 170에 손가락을 일정한 방향으로 스와이프(swipe, 문지르다)하여 지문을 획득하는 방식일 수 있다. 더하여, 지문 인식 센서 170에 손가락을 일정한 방향으로 문질러서 지문을 획득하는 방식의 경우, 손가락을 지문 신식 센서 170에 제1 방향으로 문질러서 획득한 지문의 이미지와 손가락을 제2 방향으로 문질러서 획득한 지문을 획득할 수 있고 획득한 지문의 이미지를 구분된 카테고리에 포함할 수 있다. 다양한 실시 예에 따르면, 전자 장치 101은 지문 인식 센서 170이 디스플레이 150에 인셀 방식으로 포함될 수 있다. 전자 장치 101은 디스플레이 150의 지정된 영역에 활성된 지문 인식 센서 170에 손가락의 지문 면을 접촉하거나 근접한 상태에서 지문을 획득할 수 있고, 또는 지문 연을 접촉한 상태에서 드래그(또는 끌기)하는 도중에 지문을 획득할 수 있다. 전자 장치 101은 지문 면을 디스플레이 150에 접촉한 상태에서 획득한 지문의 이미지와 디스플레이 150에 접촉한 상태에서 드래그 중에 획득한 지문의 이미지를 구분된 카테고리에 포함할 수 있다. 전자 장치 101은 상황 감지 센서 180를 통해 얻은 상황 정보를 기반으로 지문 인식 센서 170을 통해서 획득한 지문의 이미지를 통해서, 왼손의 손가락에 해당하는 지문인지, 오른손의 손가락에 해당하는 지문인지, 성인의 손에 해당하는 지문인지 또는 어린 아이의 손에 해당하는 지문인지 여부를 결정할 수 있고, 지문의 이미지를 결정한 지문의 타입에 따라서 구분된 카테고리에 포함할 수 있다. 전자 장치 101은 상술한 다양한 방식의 지문 인식 센서 중에서 적어도 하나의 방식을 사용하는 지문 인식 센서를 포함할 수 있고, 전자 장치 101에서 지문 인식 센서 170을 통해서 지문의 이미지에 대하여 전자 장치 101에 설정된 지문의 이미지를 획득하는 방식, 사용자의 선택, 지문의 사이즈와 같은 정보를 기반으로 적어도 하나의 지정된 카테고리에 지문의 이미지를 포함할 수 있다.
전자 장치 101은 획득한 지문(또는 지문 정보)을 기반으로 보안 인증 절차(예: 보안 설정 해제를 위한 인증 절차)를 수행할 수 있다. 전자 장치 101에서 수행하는 보안 인증 절차는, 지문 인식 센서 170에 입력되는 지문(또는 지문의 지정된 특징 영역)이 전자 장치 101에 설정된 적어도 하나의 지정된 프로필(예: 특정 사용자의 프로필, 사용자 그룹 프로필)에 대응하는 지문과 일치(또는 지문의 지정된 특징 영역과 일치)하는지 여부를 결정할 수 있다. 여기에서 지정된 프로필은, 지정된 사용자의 ID, 성별, 연락처(예: 전화번호), 사진, 나이, 적어도 하나의 지문, 사용 가능하도록 허가된 전자 장치 101의 기능 중에서 적어도 하나로 구성된 사용자 프로필을 포함할 수 있다. 더하여, 지정된 프로필은, 적어도 하나의 사용자 프로필을 기반으로, SMS의 지인 관계, 가족 관계와 같은 정보 중 적어도 하나로 구성된 사용자 그룹 프로필을 포함할 수 있다. 전자 장치 101은 하나의 프로필에서 보안 인증에 사용되는 지문을 설정하는 경우, 전자 장치 101은 설정 시점에 지문 인식 센서 170을 통해서 입력한 지문 또는 메모리 130, 전자 장치 102의 메모리(미도시), 전자 장치 104의 메모리(미도시), 또는 서버 106의 메모리(미도시) 중 적어도 하나 이상의 메모리에 저장된 지문의 이미지 중에서 선택한 복수의 지문을 해당 프로필의 보안 인증 코드로 결정할 수 있다. 전자 장치 101은 하나의 사용자 프로필에 둘 이상의 지문을 보안 인증 코드로 설정할 수 있다. 보안 인증 코드는 보안을 해제 또는 보안을 설정하는 코드일 수 있다. 전자 장치 101은 보안 인증 절차를 수행함에 있어서, 입력된 지문을 전자 장치 101의 상기 메모리에 저장된 비교군 정보를 기반으로 적어도 하나의 지문의 이미지와 비교할 수 있다. 전자 장치 101은 상기 메모리 에 저장된 비교군 정보의 우선 순위를 결정함에 있어서, 전자 장치 101에 지문을 입력하는 시점에 결정한 전자 장치 101의 상황 정보를 기반으로 비교군 정보의 우선 순위를 결정할 수 있다.
다른 실시 예에 따르면, 전자 장치 101은 획득한 지문(또는 지문 정보)을 기반으로 특정 사용자의 특정 손가락 지문에 대응하는 소정의 기능을 수행할 수 있다. 예컨대, 각각의 손가락 지문을 인식할 때마다 다른 애플리케이션을 구동하거나, 지문마다 다른 사이트의 ID와 패스워드를 대신 입력하는 기능을 수행하거나, 혹은 손가락마다 볼륨 증감인 TV 채널 증감과 같은 기능을 수행토록 할 수도 있다.
이하에서, 전자 장치 101의 상황 정보를 결정하는 동작, 상황 정보를 기반으로 비교군 정보를 결정하는 동작 및/또는 전자 장치 101을 제어하는 다양한 실시 예를 도면을 참조하여 설명할 수 있다.
도 3은 다양한 실시 예에 따른 전자 장치에서 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 지문 인식 센서 301을 통해서 적어도 하나의 손가락에 대응하는 지문의 이미지를 획득하는 시점에 전자 장치 101의 상황 정보를 획득할 수 있다. 전자 장치 101은 획득한 상황 정보를 기반으로 지문 인식 센서 301을 통해서 획득한 지문 이미지와 비교할 비교군 정보를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 인식 센서 301을 통해서 손가락의 지문을 인식하는 시점에 전자 장치 101이 세로 모드(예: 전자 장치 101이 세로로 길게 위치한 상태)로 동작하고 있는 것을 결정할 수 있다. 전자 장치 101의 상황 정보는, 전자 장치 101에 포함된 적어도 하나의 센서를 통해서 획득한 전자 장치 101의 위치, 자세(예: 포즈 또는 포지션), 움직임에 대한 정보를 기반으로 결정할 수 있다. 전자 장치 101에 포함되는 센서는 도 2에 표시된 센서 모듈 240 중에서 적어도 하나의 센서를 포함할 수 있고, 전자 장치 101에 포함되는 센서는 하나의 센서 모듈 또는 적어도 하나의 센서를 포함하는 둘 이상의 센서 모듈로 포함될 수 있다. 전자 장치 101은 세로 모드로 동작 중에 지문 인식 센서 301을 통해서 지문의 이미지를 획득하는 경우, 세로 모드에 지정된 비교군 정보에 따라서 지문의 이미지에 포함된 지문과 매칭되는 지문을 검색할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 세로 모드(vertical mode, portrait mode)에서 디스플레이 150의 하단에 포함된 스와이프 방식의 지문 인식 센서 301에 손가락을 위에서 아래 방향 303으로 문질러서(예: 지문 인식 센서 301을 기준으로 손가락의 지문 면을 아래로부터 위로(예: 손가락의 지문 면에서 손가락 끝 방향을 위로, 손바닥 방향을 아래로 정한 경우) 인식시키는 동작으로) 획득되는 지문을 보안 인증 코드로 설정할 수 있다. 예컨대, 스와이프 방식의 지문 인식 센서 301에 손가락을 위에서 아래 방향 303으로 문질러서 획득되는 지문은, 지문의 이미지 310과 같이 지문 인식 센서 301에 인식된 손가락의 지문 면에 대하여 지문 인식 센서 301에서 획득한 1회 이상 반복하여 입력된 하나의 지문의 일부 또는 전부를 조합, 병합, 또는 수정하여 획득(예: 지문의 일부를 획득한 순서에 따라서 제1 부분 311, 제2 부분 313, 제3 부분 315와 같이 적층 방식으로 생성할 수 있다.)한 지문일 수 있다. 전자 장치 101은 세로 모드 상태 및/또는 스와이프 방식의 지문 인식 센서 301에 손가락을 위에서 아래 방향 303으로 문지르는 동작을 감지하는 경우, 전자 장치 101은 스와이프 방식의 지문 인식 센서 301에 손가락을 위에서 아래 방향 303으로 문지르는 동작으로 획득하여 사전에 등록한 참조 지문의 이미지에 대응하는 카테고리를 비교군 정보의 상위 우선 순위(예: 제1 순위)로 결정할 수 있다. 더하여, 전자 장치 101은 세로 모드에서 지문 인식 센서 301에 지문을 입력하는 경우, 스와이프 방식의 지문 인식 센서 301에 손가락을 위에서 아래 방향 303으로 문지르는 동작으로 획득한 지문의 이미지에 대응하는 카테고리를 비교군 정보의 상위 우선 순위(예: 제1 순위)로 결정함에 있어서, 전자 장치 101이 세로 모드인 상태에서 지문 인식 센서 301에 손가락을 위에서 아래 방향 303으로 문지르는 동작으로 지문을 입력한 이력이 있거나. 또는 지문 인식 센서 301에 손가락을 위에서 아래 방향 303으로 문지르는 동작으로 입력한 지문을 보안 인증 코드로 설정한 이력이 있는 경우에 대한 정보를 기반으로 결정할 수 있다. 전자 장치 101은 지문 감지 센서 301을 통해서 획득한 지문을 제1 순위 카테고리에 포함된 이미지의 지문과 비교할 수 있다. 전자 장치 101은 획득한 지문과 일치하는 제1 순위 카테고리에 포함된 이미지의 지문을 결정하지 못한 경우, 비교군 정보의 제1 순위 다음 순위로 지정된 카테고리 또는 제1 순위 다음 순위로 지정된 이미지의 지문과 비교할 수 있다. 상술한 설명에서 전자 장치 101은 지문 인식 센서 301에 손가락을 위에서 아래 방향 303으로 문지르는 동작에 대한 실시 예를 기준으로 설명하고 있지만, 이에 한정하지 않고, 지문 인식 센서 201에 손가락을 아래에서 위로(예: 손가락의 지문 면에서 손가락 끝 방향을 위로, 손바닥 방향을 아래로 정한 경우) 문지르는 동작으로 지문을 획득할 수 있다. 전자 장치 101은 비교군 정보를 결정하는 시점(예: 지문 인식 센서 301을 통해서 지문을 획득하는 시점)에 비교군 정보를 결정할 수 있고, 전자 장치 101이 세로 모드인 상태에서 지문 인식 센서 301에 손가락을 아래에서 위 방향 303으로 문지르는 동작으로 입력한 지문의 이미지에 대응하는 카테고리를 비교군 정보의 상위 우선 순위(예: 제1 순위)로 결정할 수 있다. 전자 장치 101은 지문 인식 센서 301을 통해서 획득한 지문을 비교군 정보의 우선 순위에 따라서 비교할 수 있다. 전자 장치 101은 세로 모드인 상태에서 획득한 지문을 지문 인식 센서 301에 손가락을 위에서 아래로 문질러 획득한 지문의 이미지에 대응하는 카테고리를 제1 순위로 비교하는 경우, 해당하는 메시지(예: "위에서 아래로 문지르는 방식으로 지문을 입력하였습니다. 해당 카테고리의 지문 정보와 우선 비교합니다")를 출력할 수 있다. 도 3에서 상술한 실시 예에 따르면, 전자 장치 101은 지문 인식 센서 301을 통해서 손가락을 문질러서 지문을 획득하는 방법에 있어서, 손가락의 지문 면에서 손가락 끝 방향을 위로, 손바닥 방향을 아래로 정한 상태에서, 손가락을 지문 인식 센서 301의 위에서 아래로 또는 아래에서 위로 문지르는 방식으로 설명하고 있다. 하지만 이에 한정하지 않고, 손가락을 지문 인식 센서 301에 상하 방향이 아닌 좌우 방향으로 문지르는 방식으로 지문을 획득할 수도 있음은 자명하다.
전자 장치 101은 스와이프 방식의 지문 인식 센서 301에 손가락을 문지르는 동작의 방향을 감지하는 동작은 다양한 방식으로 감지할 수 있다. 한 예로 지문 인식 센서 301과 터치센서나 근접센서가 내장된 디스플레이 150를 이용할 수 있다. 즉, 위에서 아래로 손가락을 문지르는 경우 우선 디스플레이 160에서 터치가 발생한 후 연속적으로 지문 인식 센서에서 지문을 획득할 수 있다. 반대로 아래에서 위로 손가락을 문지르는 경우에는 지문 인식 센서에서 먼저 지문이 입력되고, 이후 디스플레이에서 터치신호가 발생할 수 있다. 일 실시 예에 따르면 터치신호와 지문 입력 신호 간 종료 순서에 의해서도 손가락을 문지르는 방향을 판단할 수도 있다. 즉, 위에서 아래로 손가락을 문질러서 지문을 입력하는 경우에는 디스플레이 150의 터치 신호가 종료된 후, 지문 인식 센서 301에서 입력 신호가 종료된다. 이러한 예 이외에도 지문 인식 센서와 인접한 베젤부에 터치 센서를 장착하여, 문지르거나 터치한 방향을 판단할 수도 있고, 광학적인 방식으로 손가락 끝과 손바닥 방향을 형상으로 판단할 수도 있다.
일 실시 예에 따르면. Swipe 지문 인식 센서는 문지르는 방향에 따라 이미지의 조합 순서가 달라질 수 있다. 예를 들어 위에서 아래 방향으로 문지른 경우 손가락 지문의 입력 순서는 제1 부분 311, 제2 부분 313, 제3 부분 315, … 의 순서로 생성할 수 있다. 반면, 아래에서 위로 문지른 경우에는 (예: 지문의 일부를 획득한 순서에 따라서 제3 부분 315, 제2 부분 313, 제1 부분 311와 같이 적층 방식으로 생성할 수 있다. 즉, 아래에서 위로 문지르는 경우에는 블록의 적층 순서가 다르기 때문에, 상하 반전된 지문이 입력될 수 있다. 일 실시 예에 따르면, 하나의 블록이 여러 개의 스캔라인으로 구성되는 경우에는 이미지 블록들의 적층 순서에 따라, 비정상적인 지문이 입력될 수도 있다.
도 4는 다양한 실시 예에 따른 전자 장치에서 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 상황 정보를 기반으로 전자 장치 101이 가로 모드(예: 전자 장치 101이 가로로 길게 위치한 상태- horizontal mode, landscape mode)로 동작하고 있는 것을 결정할 수 있다. 전자 장치 101은 적어도 하나의 센서를 통해서 전자 장치 101이 가로 모드인 것으로 결정할 수 있고, 가로 모드 상태에서 지문 인식 센서 401에 입력되는 지문을 획득할 수 있다. 전자 장치 101은 획득한 지문과 매칭되는 지문의 이미지를 결정하기 위해서 가로 모드 상태에서 지문 인증에 사용되는 비교군 정보를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 비교군 정보를 결정함에 있어서, 전자 장치 101의 보안 인증 설정을 위해 참조용 지문 인증 코드를 입력하는 시점에 지정된 지문의 상황정보(예: 전자 장치 회전 상태, 지문 인증 방향 중 하나 이상)에 대응하는 카테고리를 지문의 이미지를 비교군 정보의 상위 우선 순위(예: 제1 순위)로 결정할 수 있다. 예컨대, 전자 장치 101이 가로 모드인 상태에서 지문 인식 센서 401을 통해서 도 4에 도시된 바와 같이 지문 인식 센서 401을 통해서 손가락을 우에서 좌로 문지르는 동작으로 지문을 인식시킴으로써 지문의 이미지 410을 획득할 수 있다. 전자 장치 101은 획득한 지문과 비교하기 위한 비교군 정보를 결정함에 있어서, 참조 지문 등록시, 전자 장치 101이 가로 모드인 상태에서 입력된 참조 지문의 이미지 또는 우에서 좌로 입력된 참조 지문의 이미지에 대응하는 카테고리를 비교군 정보의 상위 우선 순위로 결정할 수 있다.
가로 모드는 디스플레이에 표시되는 정보가 회전된 각도에 따라 도 3의 상태에서 시계방향으로 90도 회전한 경우와 270도 회전한 경우가 있으므로 이러한 단말 혹은 디스플레이되는 정보의 회전 정보를 이용하여 비교군 정보의 상위 우선 순위를 결정할 수도 있다.
또 다른 실시 예에 따르면, 전자 장치 101은 비교군 정보에 따라서 전자 장치 101의 지문 인식 센서 401을 통해서 입력한 지문의 이미지 410을 비교함에 있어서, 지문의 표시 방법(예: 배치 각도, 사이즈)이 다른(예: 도 3에 표시된 지문의 이미지 310 참조) 지문의 이미지와 비교할 수 있다. 예컨대, 전자 장치 101은 지문의 이미지 310와 지문의 이미지 410의 지문 또는 지문의 지정된 특징 영역을 비교하기 위해서 지문의 이미지 410을 지문의 이미지 310을 기반으로 회전할 수 있다. 예컨대 우에서 좌로 지문을 입력한 경우, 손가락 지문의 입력 순서는 제1 부분 411, 제2 부분 413, 제3 부분 415이며, 이를 적층하여 지문의 이미지 410을 얻을 수 있다. 따라서 지문 이미지 310과 같이 손가락 끝(fingertip)이 위쪽으로 향하는 참조 지문과 대조하기 위해서는 지문 이미지 410을 시계방향으로 90도 가량 회전시켜서 대조를 보다 용이하게 진행할 수도 있다.
이에 한정하지 않고, 전자 장치 101은 입력한 지문의 이미지 410을 기반으로 비교군 정보에 따른 지문의 이미지 310을 회전할 수 있음은 자명하다. 전자 장치 101은 비교군 이미지에 포함된 지문의 형태를 기반으로 변경된 이미지의 지문을 비교군 이미지의 지문과 비교할 수 있고, 또는 획득한 지문을 획득한 지문의 형태를 기반으로 변경된 비교군 이미지의 지문과 비교할 수 있다. 전자 장치 101은 가로 모드에서 획득한 지문을 지문 인식 센서 301에 손가락을 우에서 좌로 문질러 획득한 지문의 이미지에 대응하는 카테고리를 제1 순위로 비교하는 경우, 해당하는 메시지(예: "우에서 좌로 문지르는 방식으로 지문을 입력하였습니다. 해당 카테고리의 지문 정보와 우선 비교합니다")를 출력할 수 있다.
도 5는 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 전자 장치 101이 사용자의 신체와 접촉된 상태(예: 파지 또는 착용된 상태)를 결정할 수 있는 적어도 하나의 센서를 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 101의 파지 또는 착용된 상태를 결정하는 모듈로서, 그립 센서 240F, 근접 센서 240G, 생체 센서 240I, 조도 센서 240K, 터치 센서(또는 터치 패널) 중 적어도 하나 또는 둘 이상 연동하는 센서를 포함할 수 있다. 전자 장치 101은 파지 또는 착용된 상태를 결정하는 센서를 포함하는 경우, 각각의 센서를 구분된 센서 모듈로서 포함할 수 있고, 둘 이상의 센서를 하나의 센서 모듈에 포함할 수 있다. 전자 장치 101은 적어도 하나의 센서 모듈을 포함하여, 전자 장치 101의 파지 또는 착용 상태에 대한 정보를 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은, 지정된 위치(예: 좌측 또는 우측과 같은 테두리 영역, 또는 전자 장치 101의 후면일 수 있다.)에 전자 장치 101의 파지를 감자할 수 있는 적어도 하나의 센서(예: 그립 센서 240F, 터치 센서)를 포함할 수 있다. 전자 장치 101은 센서를 기반으로 전자 장치 101이 파지된 상황을 결정할 수 있다. 예컨대, 전자 장치 101은 도 5와 같이 사용자의 왼쪽 손에 파지된 경우, 그립 센서 503, 그립 센서 505 및/또는 그립 센서 507을 통해서 손가락이나 손의 접촉 위치를 판별할 수 있으므로, 전자 장치 101이 사용자의 왼쪽 손으로 파지된 상황을 판단할 수 있다. 더하여, 전자 장치 101은 사용자가 전자 장치 101의 지정된 위치(예: 전자 장치 101의 절반을 기준으로 상단 또는 하단)를 파지했는지 결정할 수 있다. 전자 장치 101은 전면 디스플레이 150의 하단 테두리 영역에 지문 인식 센서 501을 포함할 수 있고, 전자 장치 101의 하단을 사용자의 왼쪽 손으로 파지한 상황을 판단할 수 있다. 전자 장치 101은 지문 인식 센서 501을 통해서 지문이 인식되는 것을 감지할 수 있고, 비교군 정보에 따라서 검출한 지문과 일치하는 지문을 결정할 수 있다. 예컨대, 전자 장치 101은 사용자의 왼손으로 전자 장치 101의 하단이 파지된 경우, 왼손 엄지 손가락이나 오른 손의 손가락들의 지문으로 입력이 용이한 반면, 왼손 엄지를 제외한 나머지 손가락으로는 지문입력이 어렵거나 불가능한 것으로 판단할 수 있다. 이에 따라 전자 장치 101에서 사용자의 왼손으로 전자 장치 101의 하단이 파지된 것으로 결정하는 경우, 지문 인식 센서 501을 통해서 검출한 지문을 전자 장치 101의 비교군 정보에 따라서 메모리 130, 전자 장치 102의 메모리(미도시), 전자 장치 104의 메모리(미도시), 또는 서버 106의 메모리(미도시) 중 적어도 하나 이상의 메모리에서 지문 인식 센서 501을 통해서 입력된 왼쪽 손의 엄지 손가락에 대응하는 지문의 이미지가 포함된 카테고리의 이미지들과 비교할 수 있다. 한 실시 예에 따르면 전자 장치 101은 비교군 정보에 따라서 검출한 지문을 비교하는 카테고리 정보를 사용자에게 고지(예: 디스플레이 150에 표시)할 수 있다. 전자 장치 101은 검출된 지문을 지문 인식 센서 501을 통해서 입력된 왼쪽 손의 엄지 손가락에 대응하는 지문의 이미지가 포함된 카테고리의 지문들과 비교하여 일치하는 지문을 결정하지 못한 경우, 비교군 정보에 따라서 다음 우선 순위의 지문의 이미지들과 검출된 지문(예: 오른 손의 손가락들의 지문)을 비교할 수 있다. 전자 장치 101은 검출된 지문과 비교하는 비교군(예: 검출한 지문과 비교한 지문의 이미지와 다른 카테고리, 다른 카테고리에 포함된 지문의 이미지)이 변경된 경우, 변경된 카테고리 또는 지문의 이미지에 대한 정보를 사용자에게 고지(예: 디스플레이 150에 표시)할 수 있다.
한 실시 예에 따르면, 전자 장치 101은 손가락의 문지름 방향에 따라 지문 인식 센서를 통해 입력되는 지문의 방향을 감지하고, 이에 따라 유사한 상황에서 입력된 지문의 이미지가 포함된 카테고리의 참조 이미지들과 비교할 수도 있다. 예컨대 도 5에서 전자 장치 101의 하단을 왼손으로 쥐고, 왼손의 엄지 손가락을 지문 인식 센서 501에 문지르는 경우, 상기 엄지 손가락은 곡선의 궤적을 그리며, 손가락의 우측부터 접촉이 발생하게 된다. 따라서 전자 장치 101 하단을 왼손으로 쥔 것으로 전자 장치 101이 판단하는 경우, 이러한 조건에서 기존에 입력되었던 참조 지문들로 이뤄진 비교군에 최우선 순위를 줌으로써, 전자 장치 101에서 입력한 지문을 우선적으로 대조할 수도 있다.
도 6은 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 지정된 위치의 적어도 하나의 센서(예: 전자 장치 101의 테두리 영역에 포함된 또는 전자 장치 101의 후면에 포함된 그립 센서, 터치 센서)를 통해서 전자 장치 101의 상단(예: 전자 장치 101의 세로 방향을 기분으로 상단 및 하단으로 구분한 경우)을 사용자의 왼손으로 파지한 것을 결정할 수 있다. 일 실시 예에 따르면, 전자 장치 101은 사용자의 왼손으로 전자 장치 101의 상단을 파지한 상태에서 지문 인식 센서 601을 통해서 지문을 검출하는 경우, 사용자의 오른손의 손가락 지문을 입력한 것으로 결정할 수 있다.
다른 실시 예에 따르면, 왼손으로 전자 장치 101을 쥐고 있을 때, 해당 접촉 위치를 근거로 왼손 엄지 손가락이 지문 인식 센서 601에 접촉하기 어려운 것으로 판단되고, 지문 인식 센서 601을 통해서 지문을 검출하는 경우, 사용자의 오른손의 손가락 지문을 입력한 것으로 결정할 수 있다.
다양한 실시 예에 따르면, 도 7에서 왼손 엄지 손가락은 디스플레이에 접촉하거나 근접하지 않을 수도 있으며, 전자 장치 101의 좌측 베젤이나 그립 센서 603에 접촉할 수도 있다.
전자 장치 101은 검출한 지문을 비교하는 비교군 정보를 결정함에 있어서, 오른손 지문에 대응하는 지문의 이미지를 비교군 정보로 결정할 수 있고, 또는 오른손 지문에 대응하는 지문의 이미지를 비교군 정보의 상위 우선 순위(예: 제1 순위)로 결정할 수 있다. 전자 장치 101은 검출한 지문을 비교군 정보에 따라서 적어도 하나의 지문의 이미지와 비교할 수 있다.
도 7은 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 디스플레이 150의 지정된 일부에 활성된 지문 인식 센서를 통해서 대응하는 영역의 디스플레이 150에 접촉된 손가락의 지문을 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 테두리 영역 또는 전자 장치 101의 후면에 위치한 센서들 중에서 적어도 하나를 통해서 전자 장치 101이 파지된 손(예: 왼손 또는 오른손)을 감지할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 전자 장치 101의 지정된 위치의 적어도 하나의 센서를 이용하여 사용자의 손과 손가락이 전자 장치 101과 접촉한 위치, 접촉 면적의 형태, 또는 접촉 위치들의 상대적 배치 형태 중 하나 이상을 기반으로 파지한 손이 왼손인지 오른 손인지 판단할 수 있고, 파지된 형태를 결정할 수 있으며, 디스플레이 150의 지정된 위치(예: 전자 장치 101의 지문 인식 센서가 활성화된 영역 703)에 손가락(예: 엄지 손가락)을 접촉된 것을 감지할 수 있고, 접촉된 지문 면의 지문을 검출할 수 있다.
일 실시 예에 따르면, 전자 장치 101은 비교군 정보를 결정함에 있어서, 전자 장치 101을 파지한 것이 왼손인 것으로 판단되고, 손가락의 파지형태가 손바닥이 전자 장치 뒷면을 감싸쥔 것으로 판단되며, 지문 감지 센서가 활성화된 영역 703이 디스플레이이면, 이에 대응하여 왼손 엄지 손가락이나 오른손의 손가락들에 대응하는 지문의 이미지를 비교군 정보로 결정할 수 있다. 따라서 전자 장치 101은 비교군 정보에 따라서 왼손의 엄지 손가락으로 입력되었던 참조 지문의 이미지와 지문 감지 센서 703을 통해서 입력한 지문을 비교할 수 있다
다른 실시 예에 따르면, 전자 장치 101의 우측 베젤에 1개소, 좌측 배젤에 2개소 이상 접촉이 감지되고, 손바닥이 디스플레이에 접촉하거나 근접한 것을 감지한 상태에서 지문 감지 센서가 활성화된 영역 703을 통해 지문이 입력되는 경우에는 왼손 손가락의 손가락들에 대응하는 참조 지문의 이미지를 비교군 정보로 결정할 수 있다. 즉, 왼손으로 바닥에 놓인 스마트 폰의 좌우측 베젤을 잡아 들어 올린 후, 왼손 인지나 중지의 지문을 입력하는 경우에 해당한다.
도 8은 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 테두리 영역 또는 전자 장치 101의 후면에 위치하는 적어도 하나의 센서를 통해서 전자 장치 101이 파지된 상황에 대한 정보를 결정할 수 있다. 전자 장치 101은 파지된 상황에 대한 정보를 기반으로 전자 장치 101에서 활성시키는 지문 인식 센서를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 후면에 위치한 적어도 하나의 센서(예: 그립 센서 또는 터치 센서)에 접촉되는 사용자의 신체(예: 왼손의 지정된 손가락의 일부)가 접촉되는 상황을 기반으로 전자 장치 101의 파지 상태를 결정할 수 있다. 예컨대, 전자 장치 101은 후면에 위치하여 전자 장치 101의 파지 상태를 감지하는 센서에 사용자의 왼손 손가락 일부가 접촉된 상황(예: 접촉 영역 803, 805, 807 및/또는 809)을 통해서 전자 장치 101이 사용자의 왼손으로 파지된 것으로 결정할 수 있다.
한 실시 예에 따르면 전자 장치 101은 파지 상황을 기반으로 사용자가 지문은 인식시킬 것으로 예상하는(예: 기 저장된 정보를 기반으로 결정하는) 지문 인식 센서를 결정할 수 있다. 예컨대, 전자 장치 101은 파지된 상황에 대해서 획득한 정보(예: 센서를 통해서 획득한 접촉 영역 803, 805, 807 및/또는 809)를 기반으로 디스플레이 150에서 사용자가 손가락을 접촉할 것으로 예상되는 지정된 영역(예: 지문 인식 영역 811 및/또는 지문 인식 영역 813)에 대응하는 지문 인식 센서 및/또는 지문 인식 센서 801을 결정할 수 있다. 하나의 실시 예에 따르면 상기 결정된 하나 이상의 지문 인식 센서를 미리 활성화시킬 수도 있다. 하나의 실시 예에 따르면, 상기 지문 인식 센서를 미리 활성화시키는 경우로는 특정한 상태(예: 지문인식 기능이 필요한 애플리케이션이 동작하는 상태, sleep 모드나 lock screen 상태에서 하나 이상의 센서를 통해 터치나 근접 신호가 입력된 경우 중 하나 이상)에 기반하여 동작시킬 수 있다.
전자 장치 101은 활성시킨 지문 인식 센서들 중에서 적어도 하나에서 지문을 검출할 수 있다. 전자 장치 101은 지문을 검출한 지문 인식 센서를 기반으로 비교군 정보를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 사용자의 왼손으로 전자 장치 101을 파지한 상태에서 지문 인식 영역 811을 통해서 지문을 검출하는 경우, 사용자의 왼손 엄지 손가락으로 지문을 입력한 것으로 결정할 수 있다. 전자 장치 101은 왼손 엄지 손가락의 지문의 이미지 또는 왼손 엄지 손가락의 지문의 이미지를 포함하는 카테고리를 비교군 정보로 결정할 수 있고, 지문 인식 영역 811에서 검출한 지문과 비교할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 사용자의 왼손으로 전자 장치 101을 파지한 상태에서 지문 인식 영역 811을 통해서 지문을 검출하는 경우, 사용자의 왼손 엄지 손가락 혹은 오른손의 손가락으로 지문을 입력한 것으로 판단하고, 전자 장치 101은 왼손 엄지 손가락의 참조 지문 이미지, 혹은 오른손 손가락들의 참조 지문의 이미지나 상기 참조 지문의 이미지를 포함하는 카테고리를 비교군 정보로 결정할 수 있고, 지문 인식 영역 811에서 검출한 지문과 비교할 수 있다.도 9는 다양한 실시 예에 따른 전자 장치에서 전자 장치가 사용자의 신체와 접촉된 상황 정보를 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 테두리 영역 또는 전자 장치 101의 후면에 위치한 적어도 하나의 센서를 기반으로 전자 장치 101이 파지되는 상황에 대한 정보를 획득할 수 있다. 전자 장치 101은 설정된 정보를 기반으로 전자 장치 101을 파지하는 사용자의 손을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 테두리 영역 또는 전자 장치 101의 후면에 위치한 센서에 접촉한 사용자의 신체의 면적을 기반으로 접촉된 면적의 적어도 일부가 지정된 영역보다 큰 경우 전자 장치 101을 파지한 사용자가 성인인 것으로 결정할 수 있다. 더하여, 전자 장치 101은 지문 인식 센서에 입력되는 지문의 사이즈를 기반으로 입력된 지문의 사이즈가 지정된 사이즈보다 큰 경우 성인의 지문이 입력된 것으로 결정할 수 있다.
한 실시 예에 따르면, 전자 장치 101에는 성인인 Jay이 전자 장치 101을 파지하는 상황에 대한 정보, Jay의 지문과 아이인 Sally가 전자 장치 101을 파지하는 상황에 대한 정보, Sally의 지문이 설정된 상태일 수 있다. 전자 장치 101은 지문 인식 시점에 전자 장치 101의 파지 상황을 기반으로 Jay 또는 Sally가 파지한 상황을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 Sally가 전자 장치 101을 파지한 것으로 결정하는 경우, 지문 인식 영역 911을 통해서 검출한 지문 913을 Sally의 지문으로 결정된 비교군 정보와 비교할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 지문 인식 영역 901에 입력되는 지문 903을 기반으로 검출한 지문 903이 성인의 지문인 것으로 결정할 수 있고, 성인으로 설정된 Jay의 지문을 비교군 정보로 결정할 수 있다. 전자 장치 101은 검출한 지문 903을 비교군 정보에 따라서 Jay의 지문과 비교할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 도 9에 도시된 Jay의 손과 같이 왼손으로 전자 장치 101을 파지한 상황에서 디스플레이 150의 왼쪽 테두리 영역에 활성된 지문 인식 센서 901에서 지문을 검출하는 경우, 전자 장치 101은 Jay의 왼손의 손가락에 대응하는 지문의 이미지를 비교군 정보(또는 비교군 정보의 상위 우선 순위)에 포함할 수 있다.
도 10은 다양한 실시 예에 따른 전자 장치에서 지문 검출 시점에 전자 장치의 움직임을 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 적어도 하나의 센서(예: 가속도 센서, 자이로스코프, 지자기 센서, 제스처 센서 또는 근접 센서)를 포함하여 전자 장치 101의 움직임에 대한 정보를 획득할 수 있다.
일 실시 예에 따르면, 전자 장치의 움직임에 대한 정보는 단말의 정적인 포즈 상태(예: pitch, yaw, roll 정보)일 수도 있고, 회전, 틸트, 모션, 제스처와 같은 동적인 상태일 수도 있다. 다른 실시 예에 따르면, 상기 정적인 포즈 상태와 동적인 상태 모두를 포함할 수도 있다.
전자 장치 101은 지문 인식 센서 1001을 통해서 지문을 검출하는 시점에 전자 장치 101의 움직임에 대한 정보를 획득할 수 있다. 전자 장치 101은 지문 인식 센서 1001을 통해서 지문을 검출하는 시점 혹은 지문 검출 이전 소정의 시간 내에 획득한 전자 장치 101의 움직임 정보를 기반으로 비교군 정보를 결정할 수 있다.
한 실시 예에 따르면, 전자 장치 101은 손가락의 지문 면을 지문 인식 센서에 문지르는 방식이나 터치를 통해서 지문을 검출하는 시점 혹은 상기 지문 검출 시점 이전 소정의 시간 내에 발생한 전자 장치 101의 움직임에 대한 정보를 획득할 수 있다. 예컨대, 상기 지문 검출 시점 이전 소정의 시간 내에 전자 장치 101이 세로 모드인 상태에서 정면(예: 디스플레이 150이 위치한 면)을 기준으로 오른쪽으로 회전하며 움직이는 상황 1005을 감지할 수 있다.
다른 실시 예에 따르면 전자 장치 101은 지문 검출 시점에 전자 장치 101이 세로 모드인 상태에서 정면(예: 디스플레이 150이 위치한 면)을 기준으로 오른쪽으로 틸트되어 있는 단말기의 포즈를 감지할 수 있다.
다양한 실시 예에 따르면 전자 장치 101은 상황 1005를 전자 장치 101이 사용자의 오른손으로 파지된 상태에서 지문 인식 센서 1001에 사용자의 손가락을 지정된 방향 1003으로 문지르며 지문을 인식 시킨 것으로 결정할 수 있다. 전자 장치 101은 검출한 지문을 비교하는 비교군 정보를 결정함에 있어서, 도 4의 지문의 이미지 410과 같이 오른손으로 파지된 상태에서 입력된 지문(예: 엄지 손가락의 지문)에 대응하는 지문의 이미지를 비교군 정보로 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101이 방향 1005와 반대의 방향으로 회전하는 경우, 전자 장치 101은 사용자의 왼손으로 파지된 상태에서 왼손의 엄지 손가락으로 지문을 인식 시킨 것으로 결정할 수 있고, 왼손의 엄지 손가락에 대한 지문의 이미지를 비교군 정보로 결정할 수 있을 것이다. 전자 장치 101은 지문 인식 센서 1001과 같이 문질러 지문을 검출하는 방식에 한정하지 않고, 디스플레이 150과 연동하거나 베젤이나 키에 장착된 터치방식의 지문 인식 센서를 통해서 검출하는 지문에도 적용할 수 있음은 자명하다.
도 11은 다양한 실시 예에 따른 전자 장치에서 지문 검출 시점에 전자 장치의 움직임을 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 지정된 위치(예: 전자 장치 101의 후면)에 손가락의 지문 면을 접촉하여 지문을 검출하는 지문 인식 센서 1101을 포함할 수 있다. 전자 장치 101은 사용자의 손으로 파지된 상태에서 전자 장치 101의 후면에 위치한 터치 방식의 지문 인식 센서 1001에 접촉된 손가락의 지문 1103을 검출할 수 있다. 전자 장치 101은 지문을 검출하는 시점에 전자 장치 101이 디스플레이 150이 위치한 전자 장치 101의 전면 방향으로 기울어지는 상황 1105을 결정할 수 있다. 전자 장치 101은 상황 1105를 결정하는 경우, 전자 장치 101의 후면에 위치한 지문 인식 센서 1101를 통해서 입력한 지문의 이미지 또는 카테고리를 비교군 정보로 결정할 수 있다.
도 12은 다양한 실시 예에 따른 전자 장치에서 전자 장치의 움직임을 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 지문을 검출하는 모드에서 전자 장치 101의 움직임을 통해서 전자 장치 101이 착용된 상태를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 착용 가능한 전자 장치(예: 손목 시계 형태의 장치)일 수 있다. 한 실시 예에 따르면, 전자 장치 101은 사용자의 왼쪽 손목에 착용된 상태에서 사용자에 의해 왼손 손목에 장착되었음을 사용자 인터페이스를 통해 전자 장치 101에 설정할 수 있고, 이후 지문이 입력되면, 상기 지문이 사용자의 오른손의 손가락에 대응하는 지문으로 결정할 수 있다. 전자 장치 101은 오른쪽 손의 손가락의 지문으로 등록된 지문의 이미지 또는 오른쪽 손가락의 지문으로 등록된 지문의 이미지를 포함하는 카테고리를 비교군 정보로 결정할 수 있고, 전자 장치 101에서 검출한 지문을 비교군 정보에 따라서 비교할 수 있다.
다른 실시 예에 따르면, 전자 장치 101은 사용자의 왼쪽 손목에 착용된 상태에서 오른쪽 손의 손가락을 지문을 입력하기 위해 전자 장치 101을 착용한 왼쪽 손목을 들어 올리는 동작 1201을 검출할 수 있다. 전자 장치 101은 적어도 하나의 센서(예: 가속도 센서, 지자기 센서, 제스처 센서 등)를 통해서 전자 장치 101을 들어 올리는 동작에 대응하는 정보를 획득할 수 있다. 전자 장치 101은 획득한 정보를 기반으로 전자 장치 101이 사용자의 왼쪽 손목에 착용된 상태를 결정할 수 있다. 예컨대 사람의 왼팔과 오른팔은 관절에 의해 운동이 가능한 영역과 방향이 서로 다르므로 이러한 운동 영역 차이를 판별함으로써 어느 손목에 전자 장치 101을 장착하였는지 판별할 수 있다. 전자 장치 101은 입력되는 지문이 사용자의 오른손의 손가락에 대응하는 지문으로 결정할 수 있다. 전자 장치 101은 오른쪽 손의 손가락의 지문으로 등록된 지문의 이미지 또는 오른쪽 손가락의 지문으로 등록된 지문의 이미지를 포함하는 카테고리를 비교군 정보로 결정할 수 있고, 전자 장치 101에서 검출한 지문을 비교군 정보에 따라서 비교할 수 있다.
도 13은 다양한 실시 예에 따른 전자 장치에서 전자 장치의 움직임을 기반으로, 검출한 지문을 처리하는 도면이다.
전자 장치 101은 기능적으로 연결된 적어도 하나의 센서(예: 혈관의 파동을 감지하는 센서와 같은 생체 센서, 맥파 센서, 심전도 센서)를 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 사용자의 왼쪽 손목에 착용된 상태일 수 있다. 전자 장치 101은 착용된 사용자의 왼쪽 손목에 위치한 혈관을 기반으로 획득하는 정보를 통해서 사용자의 왼쪽 손목에 착용된 것으로 결정할 수 있고, 전자 장치 101에 입력되는 지문은 사용자의 오른손의 손가락에 대응하는 지문으로 결정할 수 있다. 예컨대, 동일한 사용자일지라도 왼손의 손목과 오른손의 손목에 장착한 생체 센서를 통해 입력되는 신호 강도는 혈관 분포도에 따라 다를 수 있다. 따라서 기측정된 장착부위별 신호 강도를 통해 입력 위치를 판별할 수도 있다.
전자 장치 101은 디스플레이 150과 연동된 지문 인식 영역 1301을 통해서 검출하는 지문을 오른손의 손가락으로 입력된 지문의 이미지 또는 오른손의 손가락으로 입력된 지문의 이미지가 포함된 카테고리의 비교군 정보에 따라서 비교할 수 있다. 전자 장치 101은 비교군 정보에 포함된 지문의 이미지에 대응하는 정보 1303을 출력할 수 있다.
도 14는 다양한 실시 예를 수행하는 전자 장치에서 프로세서의 동작을 도시하는 도면이다.
전자 장치 101은 프로세서 120을 통해서 기능적으로 연동된 적어도 하나의 장치를 제어할 수 있고, 설정된 정보를 기반으로 다양한 실시 예를 수행할 수 있다. 상황 결정 프로세스 1401에서 프로세서 120은 전자 장치 101에 포함된 적어도 하나의 센서(예: 상황 감지 센서 180)을 통해서 전자 장치 101의 포즈 또는 움직임에 대한 상황을 결정할 수 있다. 상황 감지 센서 180은 전자 장치 101의 센서 모듈 240에 포함된 센서들 중에서 적어도 하나를 포함할 수 있다.
비교 정보 결정 프로세스 1403에서 프로세서 120은 전자 장치 101의 상황 정보를 기반으로 전자 장치 101의 지문 인식 센서 170으로부터 검출한 지문을 비교할 비교군 정보를 결정할 수 있다. 한 실시 예에 따르면, 프로세스 120은 상황 결정 프로세스 1401에서 전자 장치 101의 파지 상태, 전자 장치 101에 포함된 지문 인식 센서의 활성 상태, 전자 장치 101의 모션 정보, 전자 장치 101의 움직임 정보와 같은 다양한 정보를 기반으로 획득한 결정한 전자 장치 101의 상황 정보를 통해서 비교군 정보를 결정할 수 있다. 전자 장치 101은 결정한 비교군 정보에 대한 정보를 전자 장치 101에서 출력(예: 디스플레이 150에 출력)할 수 있다.
지문 인식 프로세스 1405에서 프로세서 120은 지문 인식 센서 170을 통해서 사용자의 손가락의 지문을 검출할 수 있다. 지문 인식 센서 170은 전자 장치 101에 적어도 하나 포함될 수 있고, 지문 인식 센서 170을 통해서 검출한 지문을 전자 장치 101의 메모리 130, 전자 장치 102의 메모리(미도시), 전자 장치 104의 메모리(미도시), 또는 서버 106의 메모리(미도시) 중 적어도 하나 이상의 메모리에 포함된 기 입력된 지문의 이미지 또는 상기 메모리에 저장된 지문의 이미지와 비교할 수 있다.
지문 비교 프로세스 1407에서 프로세서 120은 지문 인식 센서 170을 통해서 검출한 지문과 비교 정보 결정 프로세스 1403에서 결정한 비교군 정보에 대응하는 지문의 이미지를 비교할 수 있다. 프로세서 120은 비교군 정보에 대응하는 지문의 이미지를 기반으로, 검출한 지문과 동일하거나 가장 유사한 상황에서 수집된 참조 지문의 이미지 또는 검출한 지문의 지정된 특정 영역과 동일하거나 유사한 영역을 포함하는 지문의 이미지를 결정할 수 있다. 여기에서, 검출한 지문의 지정된 특정 영역은 고유의 모양 또는 패턴을 보이는 융선과 같은 특징점이 위치한 영역일 수 있다. 또는 사용자의 선택으로 지문의 일부 영역을 특정 영역으로 설정할 수도 있다. 전자 장치 101은 지문 인식 센서 170을 통해서 지문을 검출하는 경우, 지문의 이미지에서 특정 영역을 결정할 수 있고, 특정 영역을 비교군에 포함된 지문의 이미지에 포함된 특정 영역과 비교할 수 있다. 프로세서 120은 비교 결과를 디스플레이 150을 통해서 출력할 수 있다.
다양한 실시 예에 따르면, 프로세서 120은, 지문 검출 시점에 상기 전자 장치의 상황 정보에 기반하여 비교 기준 값 정보를 결정하고, 상기 비교 기준 값 정보에 따라서 상기 검출한 지문에 대응하는 지문을 인식할 수 있다. 여기에서, 비교 기준 값 정보는 전자 장치 101이 가로 모드인지, 또는 세로 모드인지, 전자 장치 101이 파지된 위치는 어디인지, 전자 장치 101을 파지한 사용자가 누구인지에 따라서 지문이 입력되는 방식을 예측하도록 지정된 데이터베이스(얘: 사용자 프로필 또는 사용자 그룹 프로필과 같은 프로필을 포함할 수 있다.)일 수 있고, 비교군 정보의 적어도 일부를 포함할 수 있다. 프로세서 120은, 상기 전자 장치의 모션, 포즈, 움직임에 대한 정보 중 적어도 하나 또는 상기 모션, 포즈 움직임을 기반으로 지정된 모드를 상기 상황 정보로 결정할 수 있다. 프로세서 120은, 상기 전자 장치에 포함된 가속도 센서, 기울기 센서, 제스처 센서, 자이로 센서, 그립 센서, 터치 센서, 조도 센서, 생체 센서 중에서 적어도 하나를 통해서 상기 모션에 대한 정보, 상기 포즈에 대한 정보 또는 상기 움직임에 대한 정보를 획득할 수 있다. 프로세서 120은, 상기 전자 장치를 파지한 손의 방향 또는 상기 전자 장치가 사용자의 신체에 착용된 위치에 대한 정보를 상기 상황 정보로 결정할 수 있다. 프로세서 120은, 상기 전자 장치에 포함된 가속도 센서, 기울기 센서, 제스처 센서, 자이로 센서, 그립 센서, 터치 센서, 조도 센서, 생체 센서 중에서 적어도 하나를 통해서 상기 전자 장치의 움직임을 기반으로 결정하거나, 또는 상기 전자 장치에 포함된 생체 센서를 기반으로 상기 파지한 손의 방향 또는 상기 착용된 위치를 결정할 수 있다. 프로세서 120은, 상기 검출한 지문을 입력한 사용자의 손의 방향에 대해서 결정한 정보를 상황 정보에 포함할 수 있다. 프로세서 120은, 상기 전자 장치의 모션, 포즈 움직임에 대한 정보를 기반으로 상기 손의 방향에 대해서 결정한 정보를 결정할 수 있다. 프로세서 120은, 상기 지문 검출 시점 이전에 저장된 적어도 하나의 지문의 이미지 또는 지문의 이미지를 포함하는 적어도 하나의 카테고리에 대한 정보를 상기 비교 기준 값 정보에 포함할 수 있다. 하나의 실시 예에 따르면 프로세서 120은, 문지르는 방식의 지문 인식 센서의 경우 손가락을 문지르는 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 상기 카테고리를 구분할 수 있다. 프로세서 120은, 터치 방식의 지문 인식 센서의 경우 손가락 끝 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 구분할 수 있다. 다른 실시 예에 따르면 프로세서 120은, 터치 방식의 지문 인식 센서의 경우 손가락 끝의 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 상기 카테고리를 구분할 수 있다. 프로세서 120은, 상기 지문의 이미지 또는 상기 카테고리의 우선 순위를 지정하여 상기 비교 기준 값 정보에 포함할 수 있다.
상술한 바와 같이 전자 장치 101이 수행하는 것으로 설명하는 다양한 실시 예는 도 14와 같이 프로세서 120의 동작을 통해서 수행하는 것일 수 있고, 다양한 실시 예를 수행하도록 지정된 모듈(예: 마이크로 컨트롤러, MCU)를 통해서 수행하는 것일 수 있다. 이하에서 전자 장치 101 또는 프로세서 120이 수행하는 것으로 설명하는 다양한 실시 예에도 마찬가지로 적용할 수 있음은 자명하다.
도 15는 다양한 실시 예를 수행하는 전자 장치에서 상황 정보를 기반으로 검출한 지문을 비교하는 동작의 흐름을 도시한다.
동작 1501에서 전자 장치 101은 지문 인식 센서 170을 통해서 적어도 하나의 손가락에 대응하는 지문을 검출할 수 있다. 전자 장치 101은 지문을 검출함에 있어서, 전자 장치 101에 포함된 문지르는 방식으로 지문을 획득하는 지문 인식 센서, 접촉한 상태에서 지문을 획득하는 지문 인식 센서, 또는 디스플레이 150와 연동하여 디스플레이 150에 접촉된 손가락의 지문 면에서 지문을 획득하는 지문 인식 센서와 같은 다양한 지문 인식 센서를 통해서 지문을 검출할 수 있다.
동작 1503에서 전자 장치 101은 지문 인식 시점에 전자 장치 101의 상황 정보를 획득할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 지문 인식 시점 이전 소정 시간 내에 발생한 상황정보를 이용할 수 있다. 즉, 지문 인식 시점 이전에 발생한 움직임 정보를 이용할 수도 있다.
지문 인식 시점은 전자 장치 101이 지문 인식 센서 170을 통해서 지문을 검출하는 시점일 수 있고, 지문은 검출하는 지문 검출 모드일 수 있고, 검출한 지문을 기반으로 보안 인증 절차를 수행하는 보안 인증 모드일 수도 있다. 전자 장치 101은 지문을 검출하는 시점에 전자 장치 101에 포함된 적어도 하나의 센서를 기반으로 전자 장치 101의 모션, 전자 장치 101의 포즈, 전자 장치 101의 움직임에 대한 정보를 획득할 수 있고, 기 지정된 적어도 하나의 상황을 결정할 수 있다.
동작 1505에서 전자 장치 101은 결정한 전자 장치 101의 상황을 기반으로 전자 장치 101의 지문 인식 센서 170을 통해서 검출한 지문을 비교할 비교군 정보를 결정할 수 있다. 전자 장치 101은 메모리 130, 전자 장치 102의 메모리(미도시), 전자 장치 104의 메모리(미도시), 또는 서버 106의 메모리(미도시) 중 적어도 하나 이상의 메모리에 적어도 하나의 지문의 이미지를 저장할 수 있고, 이미지에 포함된 지문의 특징 또는 지문의 이미지를 획득한 방식에 따라서 지문의 이미지를 적어도 하나의 카테고리에 포함할 수 있다. 전자 장치 101은 상황 정보를 기반으로 지정된 지문의 이미지 또는 카테고리를 비교군 정보로 결정할 수 있다.
더하여, 전자 장치 101은 지문 인식 센서 170을 통해서 획득한 지문을 비교군 정보에 따라서 지정된 지문의 이미지 또는 카테고리의 이미지에 포함된 지문과 비교할 수 있다. 전자 장치 101은 비교군 정보의 우선 순위에 따라서 검출된 지문을 비교할 수 있고, 동일한 지문을 결정하지 못한 경우, 비교군 정보의 후 순위 지문의 이미지 또는 상기 메모리에 포함된 지문의 이미지와 비교하는 동작을 수행할 수 있다.
하나의 실시 예에 따르면, 상기 메모리에 저장된 지문 이미지는 지문 등록시 입력되었던 참조 지문일 수도 있다. 다양한 실시 예에 따르면, 상기 참조 지문은 보안 인증 절차를 위하여 입력되었던 동일한 손가락의 지문으로 갱신될 수 있다.
전자 장치 101은 동작 1505를 수행하면 도 15의 실시 예를 종료할 수 있다.
전자장치 101이 수행하는 다양한 실시 예는 프로세서 120의 제어에 의해서 수행하는 동작일 수 있다. 더하여, 전자 장치 101은 본 발명의 다양한 실시 예들을 제어하도록 프로그래밍 된, 프로세서 120와 별도의 모듈을 포함할 수 있다. 본 발명의 다양한 실시 예들을 제어하도록 프로그래밍 된 별도의 모듈은 프로세서 120의 제어에 의해서 동작할 수도 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 전술한 구성 요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
다양한 실시 예에 따르면, 본 발명의 청구항 및/또는 명세서에 기재된 다양한 실시 예에 따른 장치, 방법의 적어도 일부는, 하드웨어, 소프트웨어, 펌웨어, 또는 하드웨어, 소프트웨어 및 펌웨어 중 하나 또는 둘 이상의 조합을 포함하는 형태(예: 모듈 또는 유닛)을 의미하거나 또는 구현될(implemented) 수 있다.‘모듈’은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. ‘모듈’은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. 더하여, ‘모듈’은 본 발명의 다양한 실시 예에서 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. ‘모듈’은 기계적으로 또는 전자적으로 구현될 수 있다. 예컨대, ‘모듈’은 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다. 더하여 ‘모듈’은 하나 이상의 프로그램(또는 프로그래밍 모듈, 어플리케이션)을 저장하는 컴퓨터 판독 가능 저장 매체(또는 컴퓨터로 읽을 수 있는 저장 매체)로 제공될 수 있다. 예컨대, 소프트웨어는 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 하나 이상의 프로그램은, 전자 장치로 하여금, 본 발명의 청구항 및/또는 명세서에 기재된 실시 예에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함할 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 220)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 230)가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서220에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시(flash) 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치, 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)가 포함될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
더하여, 전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 전자 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 휴대용 전자 장치에 접속할 수도 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시 예에 대한 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시 예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
101: 전자 장치 150: 디스플레이
170: 지문 인식 센서 240: 센서 모듈

Claims (22)

  1. 전자 장치의 동작 방법에 있어서,
    지문을 검출하는 시점에 상기 전자 장치의 상황 정보를 결정하는 동작;
    상기 상황 정보에 기반하여, 복수의 지문이 포함된 비교군 정보를 선택하는 동작; 및
    상기 검출된 지문 및 상기 선택된 비교군 정보에 기반하여, 지문을 인식하는 동작을 포함하고,
    상기 상황 정보는, 상기 전자 장치를 파지한 손의 방향에 대한 정보 또는 상기 전자 장치가 사용자의 신체에 착용된 위치에 대한 정보를 포함하는 방법.
  2. 제1항에 있어서,
    상기 상황 정보는, 상기 전자 장치의 모션, 포즈, 움직임에 대한 정보 중 적어도 하나 또는 상기 모션, 포즈 움직임을 기반으로 지정된 모드에 대한 정보인 방법.
  3. 제2항에 있어서,
    상기 모션에 대한 정보, 상기 포즈에 대한 정보 또는 상기 움직임에 대한 정보는, 상기 전자 장치에 포함된 가속도 센서, 기울기 센서, 제스처 센서, 자이로 센서, 그립 센서, 터치 센서, 조도 센서, 생체 센서 중에서 적어도 하나를 통해서 획득한 정보인 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 파지한 손의 방향 또는 상기 착용된 위치에 대한 정보는, 상기 전자 장치에 포함된 가속도 센서, 기울기 센서, 제스처 센서, 자이로 센서, 그립 센서, 터치 센서, 조도 센서, 생체 센서 중에서 적어도 하나를 통해서 상기 전자 장치의 움직임을 기반으로 결정하거나, 또는 상기 전자 장치에 포함된 생체 센서를 기반으로 결정하는 방법.
  6. 제1항에 있어서,
    상황 정보는, 상기 검출한 지문을 입력한 사용자의 손의 방향에 대해서 결정한 정보를 포함하는 방법.
  7. 제6항에 있어서,
    상기 손의 방향에 대해서 결정한 정보는,
    상기 전자 장치의 모션, 포즈 움직임에 대한 정보를 기반으로 결정하는 방법.
  8. 제1항에 있어서,
    상기 비교군 정보는, 상기 지문 검출 시점 이전에 저장된 적어도 하나의 지문의 이미지 또는 지문의 이미지를 포함하는 적어도 하나의 카테고리에 대한 정보를 포함하는 방법.
  9. 제8항에 있어서,
    상기 카테고리는, 문지르는 방식의 지문 인식 센서의 경우 손가락을 문지르는 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 구분된 방법.
  10. 제8항에 있어서,
    상기 카테고리는, 터치 방식의 지문 인식 센서의 경우 손가락 끝 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 구분된 방법.
  11. 제8항에 있어서,
    상기 비교군 정보는, 상기 지문의 이미지 또는 상기 카테고리의 우선 순위가 지정된 정보인 방법.
  12. 전자 장치에 있어서,
    지문을 검출하는 지문 인식 센서; 및
    프로세서를 포함하고,
    상기 프로세서는,
    지문을 검출하는 시점에 상기 전자 장치의 상황 정보를 결정하고,
    상기 상황 정보에 기반하여, 복수의 지문이 포함된 비교군 정보를 선택하고,
    상기 검출된 지문 및 상기 선택된 비교군 정보에 기반하여, 지문을 인식하고,
    상기 상황 정보는, 상기 전자 장치를 파지한 손의 방향에 대한 정보 또는 상기 전자 장치가 사용자의 신체에 착용된 위치에 대한 정보를 포함하는 전자 장치.
  13. 제12항에 있어서,
    상기 프로세서는, 상기 전자 장치의 모션, 포즈, 움직임에 대한 정보 중 적어도 하나 또는 상기 모션, 포즈 움직임을 기반으로 지정된 모드를 상기 상황 정보로 결정하는 장치.
  14. 제13항에 있어서,
    상기 프로세서는, 상기 전자 장치에 포함된 가속도 센서, 기울기 센서, 제스처 센서, 자이로 센서, 그립 센서, 터치 센서, 조도 센서, 생체 센서 중에서 적어도 하나를 통해서 상기 모션에 대한 정보, 상기 포즈에 대한 정보 또는 상기 움직임에 대한 정보를 획득하는 장치.
  15. 삭제
  16. 제14항에 있어서,
    상기 프로세서는, 상기 전자 장치에 포함된 가속도 센서, 기울기 센서, 제스처 센서, 자이로 센서, 그립 센서, 터치 센서, 조도 센서, 생체 센서 중에서 적어도 하나를 통해서 상기 전자 장치의 움직임을 기반으로 결정하거나, 또는 상기 전자 장치에 포함된 생체 센서를 기반으로 상기 파지한 손의 방향 또는 상기 착용된 위치를 결정하는 장치.
  17. 제12항에 있어서,
    상기 프로세서는, 상기 검출한 지문을 입력한 사용자의 손의 방향에 대해서 결정한 정보를 상황 정보에 포함하는 장치.
  18. 제17항에 있어서,
    상기 프로세서는, 상기 전자 장치의 모션, 포즈 움직임에 대한 정보를 기반으로 상기 손의 방향에 대해서 결정한 정보를 결정하는 장치.
  19. 제12항에 있어서,
    상기 프로세서는, 상기 지문 검출 시점 이전에 저장된 적어도 하나의 지문의 이미지 또는 지문의 이미지를 포함하는 적어도 하나의 카테고리에 대한 정보를 상기 비교군 정보에 포함하는 장치.
  20. 제19항에 있어서,
    상기 프로세서는, 문지르는 방식의 지문 인식 센서의 경우 손가락을 문지르는 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 상기 카테고리를 구분하는 장치.
  21. 제19항에 있어서,
    상기 프로세서는, 터치 방식의 지문 인식 센서의 경우 손가락 끝 방향, 지문을 입력한 손의 방향, 지문을 입력한 손가락 중 적어도 하나를 기반으로 상기 카테고리를 구분하는 장치.
  22. 제19항에 있어서,
    상기 프로세서는, 상기 지문의 이미지 또는 상기 카테고리의 우선 순위를 지정하여 상기 비교군 정보에 포함하는 장치.
KR1020140055688A 2014-05-09 2014-05-09 지문 처리 방법 및 그 전자 장치 KR102206054B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140055688A KR102206054B1 (ko) 2014-05-09 2014-05-09 지문 처리 방법 및 그 전자 장치
US14/708,771 US10528711B2 (en) 2014-05-09 2015-05-11 Method for processing fingerprint and electronic device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140055688A KR102206054B1 (ko) 2014-05-09 2014-05-09 지문 처리 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20150128377A KR20150128377A (ko) 2015-11-18
KR102206054B1 true KR102206054B1 (ko) 2021-01-21

Family

ID=54368078

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140055688A KR102206054B1 (ko) 2014-05-09 2014-05-09 지문 처리 방법 및 그 전자 장치

Country Status (2)

Country Link
US (1) US10528711B2 (ko)
KR (1) KR102206054B1 (ko)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9141863B2 (en) * 2008-07-21 2015-09-22 Facefirst, Llc Managed biometric-based notification system and method
US9405968B2 (en) * 2008-07-21 2016-08-02 Facefirst, Inc Managed notification system
WO2014200485A1 (en) * 2013-06-13 2014-12-18 Intel Corporation Techniques for user authentication on a computing device via pattern recognition
US9734787B2 (en) * 2014-12-31 2017-08-15 Htc Corporation Method for operating mobile electronic device, mobile electronic device, and computer readable medium using the same
JP6104955B2 (ja) * 2015-01-30 2017-03-29 京セラドキュメントソリューションズ株式会社 画像処理システム及び画像処理方法
US10359849B2 (en) * 2015-04-14 2019-07-23 Jose Antonio DELMAR LISSA Portable communication device for transmitting touch-generated messages
US10019562B2 (en) * 2015-07-17 2018-07-10 Motorola Mobility Llc Biometric authentication matching using grip detection
US9977887B2 (en) * 2015-09-17 2018-05-22 Sony Mobile Communications Inc. Electronic device and method for validation of a trusted user
CN106909825B (zh) * 2015-12-23 2020-10-27 北京奇虎科技有限公司 解锁的处理方法和装置
US9760758B2 (en) * 2015-12-30 2017-09-12 Synaptics Incorporated Determining which hand is being used to operate a device using a fingerprint sensor
CN106716297B (zh) 2015-12-31 2019-11-05 华为技术有限公司 一种指纹识别的方法、装置及触摸屏终端
WO2017113347A1 (en) * 2015-12-31 2017-07-06 Shanghai Oxi Technology Co., Ltd Health status detecting system and method for detecting health status
TWI614694B (zh) * 2016-01-21 2018-02-11 友達光電股份有限公司 指紋感測裝置
CN107133551B (zh) * 2016-02-29 2020-06-19 北京小米移动软件有限公司 指纹验证方法及装置
CN105740690B (zh) * 2016-03-14 2018-01-19 广东欧珀移动通信有限公司 一种解锁方法及移动终端
CN107534700B (zh) * 2016-03-14 2021-02-09 华为技术有限公司 一种用于终端的信息输入方法及终端
US10209821B2 (en) * 2016-04-05 2019-02-19 Google Llc Computing devices having swiping interfaces and methods of operating the same
US20170344777A1 (en) * 2016-05-26 2017-11-30 Motorola Mobility Llc Systems and methods for directional sensing of objects on an electronic device
CN106096358B (zh) * 2016-05-30 2019-04-26 Oppo广东移动通信有限公司 一种解锁控制方法及移动终端
CN106022069B (zh) * 2016-05-30 2019-08-20 Oppo广东移动通信有限公司 一种解锁控制方法及移动终端
CN105912918B (zh) * 2016-06-17 2019-04-02 Oppo广东移动通信有限公司 一种指纹解锁方法及终端
KR102575672B1 (ko) * 2016-07-06 2023-09-07 삼성전자주식회사 전자 장치 및 그 동작 방법
CN107656665A (zh) 2016-07-25 2018-02-02 印象认知(北京)科技有限公司 基于显示屏的指纹采集控制方法、装置及电子设备
KR102608994B1 (ko) * 2016-07-28 2023-12-06 삼성전자주식회사 생체 인증을 이용한 결제 방법 및 이를 수행하는 전자 장치
JP6734152B2 (ja) * 2016-08-29 2020-08-05 京セラ株式会社 電子機器、制御装置、制御プログラム及び電子機器の動作方法
EP3531241A4 (en) * 2016-10-24 2019-11-20 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
US10405034B1 (en) * 2016-11-14 2019-09-03 Cox Communications, Inc. Biometric access to personalized services
KR102574772B1 (ko) 2016-12-12 2023-09-05 삼성전자주식회사 생체 데이터를 등록 및 인증하기 위한 방법 및 그 전자 장치
KR102587735B1 (ko) * 2017-01-09 2023-10-12 삼성디스플레이 주식회사 보안 장치 및 이를 포함하는 표시 장치
US10904435B2 (en) 2017-02-03 2021-01-26 Hewlett-Packard Development Company, L.P. Biometrics to launch a camera application
KR20180097360A (ko) 2017-02-23 2018-08-31 삼성전자주식회사 복수의 생체 센서를 이용하여 인증을 수행하기 위한 전자 장치 및 그의 동작 방법
CN107391983B (zh) 2017-03-31 2020-10-16 创新先进技术有限公司 一种基于物联网的信息处理方法及装置
KR102316278B1 (ko) * 2017-04-07 2021-10-22 삼성전자 주식회사 지문 정보를 저장하기 위한 전자 장치 및 방법
EP3455768B1 (en) * 2017-05-17 2021-11-03 Shenzhen Goodix Technology Co., Ltd. Optical fingerprint sensor with non-touch imaging capability
US10296772B2 (en) * 2017-06-22 2019-05-21 Synaptics Incorporated Biometric enrollment using a display
KR102026941B1 (ko) * 2017-12-19 2019-09-30 스타텍 주식회사 후면에 지문인식센서를 구비한 스마트폰의 제어방법
KR102489337B1 (ko) * 2018-01-17 2023-01-19 삼성디스플레이 주식회사 디스플레이 장치
CN108171858A (zh) * 2018-02-13 2018-06-15 南京东屋电气有限公司 一种带有分离式红外图像采集装置的汽车门锁
US10140502B1 (en) * 2018-02-13 2018-11-27 Conduit Ltd Selecting data items using biometric features
EP3752938A4 (en) * 2018-02-16 2021-11-03 Fingerprint Cards AB AUTHENTICATION PROCEDURE FOR AN ELECTRONIC DEVICE
US20190377921A1 (en) * 2018-06-07 2019-12-12 Himax Technologies Limited Fingerprint identification system and fingerprint identification method
US10990260B2 (en) 2018-08-23 2021-04-27 Motorola Mobility Llc Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
KR20200060018A (ko) 2018-11-22 2020-05-29 삼성전자주식회사 지문과 관련된 정보를 획득하기 위한 전자 장치 및 방법
CN109375714A (zh) * 2018-12-14 2019-02-22 上海摩软通讯技术有限公司 全屏识别指纹的终端及终端全屏识别指纹的方法
US10890982B2 (en) * 2018-12-18 2021-01-12 Samsung Electronics Co., Ltd. System and method for multipurpose input device for two-dimensional and three-dimensional environments
CN109740520B (zh) * 2018-12-29 2020-12-22 Oppo广东移动通信有限公司 指纹识别方法及相关设备
KR102629414B1 (ko) * 2019-01-17 2024-01-26 삼성전자주식회사 드래그 입력에 기반하여 지문을 인식하기 위한 전자 장치 및 방법
CN111611826B (zh) * 2019-02-25 2023-08-08 北京小米移动软件有限公司 指纹识别方法及装置
KR102045417B1 (ko) * 2019-03-08 2019-11-15 조재민 고령자용 지문 인식 장치 및 그 방법
US20220300589A1 (en) * 2021-03-16 2022-09-22 Motorola Mobility Llc Electronic Devices and Corresponding Methods for Enrolling Fingerprint Data and Unlocking an Electronic Device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100780358B1 (ko) * 2007-01-12 2007-11-30 삼성전자주식회사 휴대용 단말기의 입출력 화면의 변경 장치 및 방법
US20140041020A1 (en) * 2011-12-13 2014-02-06 Jian Zhao Orientation aware authentication on mobile platforms

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8172702B2 (en) * 2000-06-16 2012-05-08 Skyhawke Technologies, Llc. Personal golfing assistant and method and system for graphically displaying golf related information and for collection, processing and distribution of golf related data
CN100568250C (zh) * 2004-11-12 2009-12-09 皇家飞利浦电子股份有限公司 用于提供用户识别和认证的用户接口及其方法
KR100825773B1 (ko) 2005-08-23 2008-04-28 삼성전자주식회사 방향 추정 방법 및 장치
US7818290B2 (en) * 2006-06-14 2010-10-19 Identity Metrics, Inc. System to associate a demographic to a user of an electronic system
US7979743B2 (en) * 2008-07-28 2011-07-12 International Business Machines Corporation Determining correctness of job plans in a stream processing application
KR20100024589A (ko) * 2008-08-26 2010-03-08 엘지전자 주식회사 단말기 및 그 제어 방법
US9928379B1 (en) * 2008-09-08 2018-03-27 Steven Miles Hoffer Methods using mediation software for rapid health care support over a secured wireless network; methods of composition; and computer program products therefor
KR20100041562A (ko) * 2008-10-14 2010-04-22 (주) 위트젠 인증 대상자의 얼굴 인식과 지문 인식을 통한 사용자 인증 수행 방법 및 시스템
US20100237991A1 (en) * 2009-03-17 2010-09-23 Prabhu Krishnanand Biometric scanning arrangement and methods thereof
US20110202453A1 (en) * 2010-02-15 2011-08-18 Oto Technologies, Llc System and method for mobile secure transaction confidence score
US9049983B1 (en) * 2011-04-08 2015-06-09 Amazon Technologies, Inc. Ear recognition as device input
US8699762B2 (en) * 2011-05-13 2014-04-15 Moon J. Kim Multi-sided card having a resistive fingerprint imaging array
US8557513B2 (en) * 2011-06-27 2013-10-15 Biocrine Ab Methods for treating and/or limiting development of diabetes
US9264233B2 (en) * 2011-06-27 2016-02-16 Hatch, Inc. System and method for a log-in procedure for non-readers
CA2874904A1 (en) * 2012-07-09 2014-01-16 Genentech, Inc. Immunoconjugates comprising anti-cd22 antibodies
US9218472B2 (en) * 2012-12-20 2015-12-22 Google Technology Holdings LLP Piezo based fingerprint sensor structure
US9275212B2 (en) * 2012-12-26 2016-03-01 Cellco Partnership Secure element biometric authentication system
US9020567B2 (en) * 2013-04-05 2015-04-28 Blackberry Limited Authentication using fingerprint sensor in gesture path
US10147131B2 (en) * 2013-07-02 2018-12-04 Boku, Inc. Merchant hosted checkout at a merchant server
US9086855B2 (en) * 2013-11-04 2015-07-21 Google Technology Holdings LLC Electronic device with orientation detection and methods therefor
US9412002B2 (en) * 2013-12-26 2016-08-09 Intel Corporation Wearable electronic device having a fingerprint identification display
KR20150111632A (ko) * 2014-03-26 2015-10-06 삼성전자주식회사 지문 인식 방법 및 그 전자 장치
US20150294516A1 (en) * 2014-04-10 2015-10-15 Kuo-Ching Chiang Electronic device with security module

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100780358B1 (ko) * 2007-01-12 2007-11-30 삼성전자주식회사 휴대용 단말기의 입출력 화면의 변경 장치 및 방법
US20140041020A1 (en) * 2011-12-13 2014-02-06 Jian Zhao Orientation aware authentication on mobile platforms

Also Published As

Publication number Publication date
KR20150128377A (ko) 2015-11-18
US10528711B2 (en) 2020-01-07
US20150324570A1 (en) 2015-11-12

Similar Documents

Publication Publication Date Title
KR102206054B1 (ko) 지문 처리 방법 및 그 전자 장치
US10929632B2 (en) Fingerprint information processing method and electronic device supporting the same
KR102501243B1 (ko) 전자 장치 및 그의 동작 방법
US10740586B2 (en) Electronic device with touch sensor and driving method therefor
KR102177150B1 (ko) 지문인식 장치 및 방법
US9946861B2 (en) Method for processing fingerprint and electronic device thereof
US10425409B2 (en) Method and apparatus for connecting between electronic devices using authentication based on biometric information
KR102552312B1 (ko) 복수의 지문 센싱 모드를 갖는 전자 장치 및 그 제어 방법
KR102264808B1 (ko) 지문 처리 방법 및 그 전자 장치
US9823762B2 (en) Method and apparatus for controlling electronic device using touch input
KR102564267B1 (ko) 전자 장치 및 그 동작 방법
US10956734B2 (en) Electronic device providing iris recognition based on proximity and operating method thereof
EP3358455A1 (en) Apparatus and method for controlling fingerprint sensor
KR102265244B1 (ko) 디스플레이를 제어하는 전자 장치 및 방법
KR20180044129A (ko) 전자 장치 및 전자 장치의 지문 정보 획득 방법
US10547716B2 (en) Electronic device for detecting opening and closing of cover device and method of operating same
EP3012719A1 (en) Display control method and protective cover in electronic device
US10037135B2 (en) Method and electronic device for user interface
KR102497477B1 (ko) 개인 정보를 보호하기 위한 방법 및 그 전자 장치
US20150234757A1 (en) Security information inputting/outputting method and electronic device adapted to the method
US10438525B2 (en) Method of controlling display of electronic device and electronic device thereof
KR102513147B1 (ko) 전자 장치 및 그의 터치 입력 인식 방법
KR102305114B1 (ko) 데이터 처리 방법 및 그 전자 장치
KR20160022541A (ko) 지문 인식 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right