KR20150146236A - 지문 처리 방법 및 그 전자 장치 - Google Patents

지문 처리 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20150146236A
KR20150146236A KR1020140076519A KR20140076519A KR20150146236A KR 20150146236 A KR20150146236 A KR 20150146236A KR 1020140076519 A KR1020140076519 A KR 1020140076519A KR 20140076519 A KR20140076519 A KR 20140076519A KR 20150146236 A KR20150146236 A KR 20150146236A
Authority
KR
South Korea
Prior art keywords
fingerprint
display
electronic device
recognition sensor
processor
Prior art date
Application number
KR1020140076519A
Other languages
English (en)
Other versions
KR102264808B1 (ko
Inventor
조정호
정도형
김재엽
민기홍
백승걸
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140076519A priority Critical patent/KR102264808B1/ko
Priority to US14/738,086 priority patent/US9733740B2/en
Publication of KR20150146236A publication Critical patent/KR20150146236A/ko
Priority to US15/643,665 priority patent/US10452178B2/en
Priority to US16/555,092 priority patent/US10768736B2/en
Application granted granted Critical
Publication of KR102264808B1 publication Critical patent/KR102264808B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명의 다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 디스플레이와 연동하는 지문 인식 센서로 지문을 획득하는 동작과, 상기 지문을 기반으로 상기 디스플레이에 객체를 표시하는 동작을 포함할 수 있다. 전자 장치의 동작 방법에 있어서 상술한 방법에 한정하지 않고 본 발명의 동일 또는 유사한 범위에서 다른 실시 예가 가능하다.

Description

지문 처리 방법 및 그 전자 장치{METHOD FOR PROCESSING FINGERPRINT AND ELECTRONIC DEVICE THEREOF}
본 발명의 다양한 실시 예는 검출한 지문을 처리하는 방법 및 그 전자 장치에 관한 것이다.
이동통신 기술이 발전함에 따라 전자 장치는 스마트 폰, 착용 가능한 디바이스, 태블릿 PC 등 다양한 형태로 제공되고 전자 장치 간의 통신 시스템을 통해서 다양한 데이터를 송수신할 수 있다. 전자 장치는 전화 기능, 메시지 기능, 알람 기능과 같은 다양한 기능을 제공할 수 있다.
전자 장치는 기능을 제공함에 있어서, 지정된 패스 코드를 입력한 경우 선택한 기능을 제공하도록 설정할 수 있고, 사용자의 지정된 지문 정보를 입력하여 상술한 패스 코드로 설정할 수 있다. 전자 장치는 사용자의 지문 정보를 입력함에 있어서, 전자 장치의 지정된 위치에 포함된 지문 인식 센서에 접촉한 손가락의 지문 정보를 획득할 수 있다.
전자 장치는 지문 인식 센서를 포함하는 경우, 지문 인식 센서로 검출한 지문을 전자 장치의 보안을 설정하거나 설정된 보안을 해제하는 보안 키로 사용할 수 있다. 전자 장치는 특정 위치에 포함된 지문 인식 센서를 기반으로, 지문을 검출하는 동작 및/또는 검출하는 지문을 전자 장치에서 제공하는 기능과 연동하는 방법 및 전자 장치를 제공할 수 있다.
다양한 실시 예에 따르면 전자 장치는, 객체를 표시하는 디스플레이, 상기 디스플레이와 연동하여 지문을 인식하는 지문 인식 센서 및 상기 지문 인식 센서로 획득한 지문을 기반으로 상기 디스플레이의 객체 표시를 제어하는 적어도 하나의 프로세서를 포함할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 디스플레이와 연동하는 지문 인식 센서로 지문을 획득하는 동작, 및 상기 지문을 기반으로 상기 디스플레이에 객체를 표시하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 전자 장치는 디스플레이와 연결된 지문 인식 센서를 기반으로 디스플레이를 터치하는 경우, 지문을 검출하는 동작과 함께 디스플레이를 통해서 다양한 사용자 인터페이스를 제공할 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는, 다양한 실시 예들에 따른 전자 장치의 블록 도면이다.
도 3은 다양한 실시 예에 따른 전자 장치에서 지문 인식 센서 170을 활성시키는 동작을 도시한다.
도 4는 다양한 실시 예에 따른 전자 장치 101에서 지문 인식 센서를 통해서 지문을 입력하는 도면이다.
도 5는 다양한 실시 예에 따른 전자 장치에서 검출하는 지문을 기반으로 이벤트를 실행하는 동작의 흐름도이다.
도 6은 다양한 실시 예에 따른 전자 장치에서 검출되는 지문을 기반으로 지정된 애플리케이션을 호출하는 도면이다.
도 7은 다양한 실시 예에 따른 전자 장치에서 검출하는 지문의 회전을 기반으로 객체를 선택하는 도면이다.
도 8은 다양한 실시 예에 따른 전자 장치에서 검출하는 지문의 방향을 기반으로 객체를 선택하는 도면이다.
도 9는 다양한 실시 예에 따른 전자 장치에서 검출하는 지문을 기반으로 객체를 선택하는 동작의 흐름도이다.
도 10은 다양한 실시 예에 따른 전자 장치에서 검출한 지문을 기반으로 결정한 적어도 하나의 객체를 표시하는 도면이다.
도 11은 다양한 실시 예에 따른 전자 장치에서 검출한 지문을 기반으로 결정한 적어도 하나의 객체를 표시하는 동작의 흐름도이다.
도 12는 다양한 실시 예에 따른 전자 장치에서 디스플레이에 표시된 객체를 선택하는 동작을 도시한다.
도 13은 다양한 실시 예에 따른 전자 장치에서 지문 입력 영역을 통해서 지문을 검출하는 동작을 도시한다.
이하, 본 발명의 다양한 실시 예를 첨부된 도면과 관련하여 기재된다.
본 발명의 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예가 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호를 사용할 수 있다.
본 발명의 다양한 실시 예 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 ‘또는’,’적어도 하나’ 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, ‘A 또는 B’, ‘A 및/또는 B 중 적어도 하나’는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시 예에서 ‘제1’, ’제2’, ’첫째’ 또는 ’둘째’등의 표현들이 본 발명의 실시 예에서 다양한 구성 요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 에를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 더하여, 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 발명의 다양한 실시 예에서 어떤 구성요소가 다른 구성요소에 ‘연결되어’ 있다거나 ‘접속되어’ 있다고 언급된 때에는, 어떤 구성 요소가 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 어떤 구성 요소와 다른 구성 요소 사이에 새로운 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 ‘직접 연결되어’ 있다거나 ‘직접 접속되어’ 있다고 언급된 때에는, 어떤 구성 요소와 다른 구성 요소 사이에 새로운 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다른 것으로 명시하지 않는 한 복수의 표현을 포함할 수 있다. 더하여, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 지문 인식 센서가 포함된 장치일 수 있다. 예를 들면, 전자 장치는 통신 기능을 포함한 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smartwatch)) 중 어느 하나일 수 있고, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 전자 액자와 같은 스마트 가전 제품(smart home appliance) 중에서 어느 하나일 수 있고, 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 또는 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중에서 어느 하나일 수 있고, 및/또는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector) 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 1을 참조하면, 전자 장치 101는 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 또는 통신 인터페이스 160 중에서 적어도 하나를 포함할 수 있다.
버스 110는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신 신호(예: 제어 메시지)를 전달하는 회로일 수 있다.
프로세서 120는, 예를 들면, 버스 110를 통해 전술한 다른 구성요소들(예: 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 또는 통신 인터페이스 160)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
프로세서 120은 전자 장치 101에 적어도 하나 이상 포함되어 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 프로세서 120은 하나 이상의 어플리케이션 프로세서(AP: application processor) 및 하나 이상의 마이크로 컨트롤러(MCU: micro controller unit))을 포함할 수 있다. 다른 실시 예에 따르면, 프로세서 210은 어플리케이션으로서 하나 이상의 마이크로 컨트롤러를 포함하거나, 하나 이상의 마이크로 컨트롤러와 기능적으로 연결될 수 있다. 도 1에서는, AP와 MCU는 하나의 IC 패키지에 포함될 수 있고, 별도로 구성되어 서로 다른 IC 패키지 내에 각각 포함될 수 있다. 한 실시 예에 따르면, MCU는 AP의 IC 패키지에 포함되어 하나의 IC 패키지로 구성될 수도 있다. 프로세서 210의 구성 요소로 AP 또는 MCU를 포함하는 것으로 도시하고 있지만 이는 명확한 이해를 위한 실시 예로서, 프로세서 120이 AP 및/또는 MCU 동작을 수행할 수도 있음은 자명하다.
AP는 운영체제 또는 응용 프로그램(또는 어플리케이션)을 구동하여 AP에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
MCU는 지정된 동작을 수행하도록 설정된 프로세서일 수 있다. 한 실시 예에 따르면, MCU는 하나 이상의 지정된 모션 센서(예: 자이로 센서, 가속도 센서 또는 지자기 센서)를 통해서 센싱 정보를 획득할 수 있고, 획득한 센싱 정보를 비교할 수 있고, 전자 장치 101의 데이터베이스를 참고하여 지정된 센서의 동작 상태를 결정할 수 있다.
한 실시 예에 따르면, AP 또는 MCU는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 또는 MCU는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
메모리 130(예: 메모리 230)는, 프로세서 120 또는 다른 구성요소들(예: 입출력 인터페이스 140, 디스플레이 150, 통신 인터페이스 160으로부터 수신되거나 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리 130는, 예를 들면, 커널 131, 미들웨어 132, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 어플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 상술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 미들웨어 132, API 133 또는 어플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 110, 프로세서 120 또는 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 커널 131은 미들웨어 132, API 133 또는 어플리케이션 134이 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어 132는 API 133 또는 어플리케이션 134이 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어 132는 어플리케이션 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, 어플리케이션 134 중 적어도 하나의 어플리케이션에 전자 장치 101의 시스템 리소스(예: 버스 110, 프로세서 120 또는 메모리 130 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
API 133는 어플리케이션 134이 커널 131 또는 미들웨어 132에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
어플리케이션(또는 프로세서) 134는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 어플리케이션(또는 프로세서) 134는 전자 장치 101와 외부 전자 장치(예: 전자 장치 102 또는 전자 장치 104) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 정보 교환과 관련된 어플리케이션은, 예를 들어, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다. 상술한 어플리케이션들의 예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치 101 의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치 101와 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다. 다양한 실시 예에 따르면, 어플리케이션 134은 외부 전자 장치(예: 전자 장치 102 또는 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션 134은 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 134은 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 상기 어플리케이션 134은 전자 장치 101에 지정된 어플리케이션 또는 외부 전자 장치(예: 서버 106 또는 전자 장치 104)로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다. 지문 처리 프로그램 135는 어플리케이션 134에 포함되어 제공할 수 있고, 또는 별도의 프로그램으로 메모리 130에 저장될 수 있다.
입출력 인터페이스 140은, 인/출력 장치(예: 가속도 센서, 자이로 센서와 같은 다양한 센서들 및/또는 키보드 또는 터치 스크린과 같은 장치)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 버스 110를 통해 프로세서 120, 메모리 130, 또는 통신 인터페이스 160에 전달할 수 있다. 예를 들면, 입출력 인터페이스 140은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 프로세서 120으로 제공할 수 있다. 또한, 입출력 인터페이스 140은, 예를 들면, 버스 110을 통해 프로세서 120, 메모리 130, 또는 통신 인터페이스 160으로부터 수신된 명령 또는 데이터를 출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 입출력 인터페이스 140은 프로세서 120를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
디스플레이 150은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다. 또한 디스플레이 150은 입력 수단을 디스플레이에 터치 또는 근접 터치하여 명령을 입력하는 터치 스크린으로 구성될 수도 있다.
통신 인터페이스 160(예: 통신 모듈 220)은 전자 장치 101와 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 통신 인터페이스 160은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 외부 장치와 통신할 수 있다. 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
본 발명의 한 실시 예에 따르면, 네트워크 162는 통신 네트워크(telecommunications network)일 수 있다. 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 101와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션 134, 어플리케이션 프로그래밍 인터페이스 133, 미들웨어 132, 커널 131 또는 통신 인터페이스 160 중 적어도 하나에서 지원될 수 있다.
한 실시예에 따르면, 상기 서버 106는 상기 전자 장치 101에서 구현되는 동작(또는, 기능)들 중 적어도 하나의 동작을 수행함으로써, 상기 전자 장치 101의 구동을 지원할 수 있다. 예를 들면, 상기 서버 106는 상기 전자 장치 101에서 이하 후술되는 볼 발명의 다양한 실시 예를 수행하도록 제어하는 프로세서 120 또는 다양한 실시 예를 수행하도록 지정된 특정 모듈을 지원할 수 있는 서버 모듈(예: 서버 컨트롤러, 또는 서버 프로세서, 미도시)을 포함할 수 있다. 예컨대, 서버 모듈은 프로세서 120 또는 특정 모듈의 적어도 하나의 구성요소를 포함하여, 프로세서 120 또는 특정 모듈이 수행하는 동작들 중 적어도 하나의 동작을 수행(예: 대행)할 수 있다. 다양한 실시 예에 따르면, 서버 모듈은 도 1의 지문 처리 서버 모듈 108로 나타낼 수 있다. 지문 처리 서버 모듈 108은 전자 장치 101로부터 지문 정보(예: 지문 이미지)를 수신할 수 있다. 지문 처리 서버 모듈 108은 서버 106이 수신한 지문 정보와 서버 106에 포함된 적어도 하나의 지문 정보를 비교할 수 있고, 수신한 지문 정보의 지문과 매칭되는 지문을 결정할 수 있다. 지문 처리 서버 모듈 108은 결정한 지문의 지문 정보를 전자 장치 101에 송신할 수 있고, 또는 서버 106에 포함된 지문 정보를 전자 장치 101에 송신할 수 있다.
상기 지문 인식 센서 170은 전자 장치 101에 입력되는 하나 또는 그 이상의 지문 정보를 획득할 수 있고, 지정된 방법에 따라서 획득한 지문 정보를 처리할 수 있다. 지문 인식 센서 170은 지문을 가지는 입력 수단(예: 손가락)으로 디스플레이 150의 표면(예: 직접 터치 간접 터치를 통해 입력할 수 있는 터치 스크린)에 접촉(또는 터치)함으로써 접촉된 영역의 적어도 일부 영역에 대응하는 지문 정보를 획득할 수 있다. 지문 인식 센서 170은 디스플레이 150의 표면에 위치할 수 있다. 지문 인식 센서 170은 디스플레이 150의 표면 전체 영역 또는 지정된 일부 영역에 구현될 수 있고, 지문 인식 센서 170의 전체 영역 또는 지문 인식 센서 170의 일부 영역을 지정하여 지정된 영역에서 지문 정보를 획득하도록 제어할 수 있다. 이하 설명에서 지문 인식 센서 170의 지정된 적어도 일부 영역을 지문 감지 영역으로 표현할 수 있다. 이하 설명에서 '지문 감지 영역을 표시' 또는 지문 감지 영역을 표시하다'와 같은 표현은 전자 장치 101에서 지문 인식 센서 170의 지정된 지문 감지 영역에 대한 정보를 디스플레이 150에 표시하는 동작일 수 있다.
지문 인식 센서 170의 동작은 프로세서 120이 수행할 수 있고, 프로세서 120이 지문 인식 센서 170을 제어하여 수행할 수도 있다. 후술하는 도 2 내지 도 13을 통하여 상기 연동 모듈 170에 대한 추가적인 정보를 제공할 수 있다.
도 2는, 본 발명의 다양한 실시 예들에 따른 전자 장치의 블록 도면이다.
전자 장치 201은, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 구성할 수 있고, 또는 전자 장치 101의 전체 또는 일부의 구성을 확장할 수 있다. 도 2를 참조하면, 전자 장치 201는 적어도 하나의 프로세서 210, 통신 모듈 220, SIM(subscriber identification module) 카드 224, 메모리 230, 센서 모듈 240, 입력 장치 250, 디스플레이 260, 인터페이스 270, 오디오 모듈 280, 카메라 모듈 291, 전력관리 모듈 295, 배터리 296, 인디케이터 297 및 모터 298 를 포함할 수 있다.
프로세서 210은 전자 장치 101에 적어도 하나 이상 포함되어 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 프로세서 210은 하나 이상의 어플리케이션 프로세서(AP: application processor) 및 하나 이상의 마이크로 컨트롤러(MCU: micro controller unit))을 포함할 수 있다. 다른 실시 예에 따르면, 프로세서 210은 어플리케이션으로서 하나 이상의 마이크로 컨트롤러를 포함하거나, 하나 이상의 마이크로 컨트롤러와 기능적으로 연결될 수 있다. 도 1에서는, AP와 MCU는 하나의 IC 패키지에 포함될 수 있고, 별도로 구성되어 서로 다른 IC 패키지 내에 각각 포함될 수 있다. 한 실시 예에 따르면, MCU는 AP의 IC 패키지에 포함되어 하나의 IC 패키지로 구성될 수도 있다. 프로세서 210의 구성 요소로 AP 또는 MCU를 포함하는 것으로 도시하고 있지만 이는 명확한 이해를 위한 실시 예로서, 프로세서 210이 AP 및/또는 MCU 동작을 수행할 수도 있음은 자명하다.
AP는 운영체제 또는 응용 프로그램(또는 어플리케이션)을 구동하여 AP에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
MCU는 지정된 동작을 수행하도록 설정된 프로세서일 수 있다. 한 실시 예에 따르면, MCU는 하나 이상의 지정된 모션 센서(예: 자이로 센서 140b, 가속도 센서 140e 또는 지자기 센서 140p)를 통해서 센싱 정보를 획득할 수 있고, 획득한 센싱 정보를 비교할 수 있고, 전자 장치 101의 데이터베이스를 참고하여 지정된 센서(예: 지자기 센서 140p)의 동작 상태를 결정할 수 있다. 더하여, 도 1에서는, MCU와 센서 모듈 140의 구성요소들이 MCU와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, MCU가 전술한 센서 모듈 140의 구성요소들의 적어도 일부(예: 자이로 센서 140b, 가속도 센서 140e 및 지자기 센서 140p 중에서 적어도 하나)를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, AP 또는 MCU는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 또는 MCU는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈 220(예: 통신 인터페이스 160)은 전자 장치 101과 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 102, 전자 장치 104 또는 서버 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 통신 모듈 220은 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227, NFC 모듈 228 및 RF(radio frequency) 모듈 229를 포함할 수 있다.
셀룰러 모듈 221은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 셀룰러 모듈 221은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 224)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 221은 AP 210가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 셀룰러 모듈 221은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
본 발명의 한 실시 예에 따르면, 셀룰러 모듈 221은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 셀룰러 모듈 221은, 예를 들면, SoC로 구현될 수 있다. 도 2에서는 셀룰러 모듈221(예: 커뮤니케이션 프로세서), 메모리 230 또는 전력관리 모듈 295 등의 구성요소들이 AP 210와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, AP 210가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈221)를 포함하도록 구현될 수 있다.
본 발명의 한 실시 예에 따르면, AP 210 또는 셀룰러 모듈 221(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 210 또는 셀룰러 모듈 221은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
Wifi 모듈 223, BT 모듈 225, GPS 모듈 327 또는 NFC 모듈 228 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 221에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 223에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
RF 모듈 229는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기RF 모듈 229는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈 229는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 및 NFC 모듈 228이 하나의 RF 모듈 229을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
SIM 카드 224는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드 224는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리 230(예: 메모리 130)는 내장 메모리 232 또는 외장 메모리 234를 포함할 수 있다. 내장 메모리 232는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 내장 메모리 232는 Solid State Drive (SSD)일 수 있다. 외장 메모리 234는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 외장 메모리 234는 다양한 인터페이스를 통하여 전자 장치 201과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 전자 장치 201는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
센서 모듈 240은 물리량을 계측하거나 전자 장치 201의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 240은, 예를 들면, 제스처 센서 240A, 자이로 센서 240B, 기압 센서 240C, 마그네틱 센서 240D, 가속도 센서 240E, 그립 센서 240F, 근접 센서 240G, color 센서 240H(예: RGB(red, green, blue) 센서), 생체 센서 240I, 온/습도 센서 240J, 조도 센서 240K 또는 UV(ultra violet) 센서 240M중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈 240은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 센서 모듈 240은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
입력 장치250은 터치 패널(touch panel) 252, (디지털) 펜 센서(pen sensor) 254, 키(key) 256 또는 초음파(ultrasonic) 입력 장치 258를 포함할 수 있다. 터치 패널 252은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 검출할 수 있다. 또한, 터치 패널 252은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 검출이 가능하다. 터치 패널 252은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널 252은 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서 254는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 검출용 쉬트(sheet)를 이용하여 구현될 수 있다. 키 256는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 초음파(ultrasonic) 입력 장치 258는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 201에서 마이크(예: 마이크 288)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 검출이 가능하다. 한 실시 예에 따르면, 전자 장치 201는 통신 모듈 220를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이 260(예: 디스플레이 150)은 패널 262, 홀로그램 장치 264 또는 프로젝터 266을 포함할 수 있다. 패널 262은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널 262은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 262은 터치 패널 252과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 264은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 266는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치 201의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 260은 패널 262, 홀로그램 장치 264, 또는 프로젝터 266를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스 270는, 예를 들면, HDMI(high-definition multimedia interface) 372, USB(universal serial bus) 274, 광 인터페이스(optical interface) 276 또는 D-sub(D-subminiature) 278를 포함할 수 있다. 인터페이스 270는, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스 270는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈280은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 280의 적어도 일부 구성요소는, 예를 들면, 도 1에 도시된 입출력 인터페이스 140에 포함될 수 있다. 오디오 모듈280은, 예를 들면, 스피커 282, 리시버 284, 이어폰 286 또는 마이크 288 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 카메라 모듈 291은, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
전력 관리 모듈 295은, 전자 장치 201의 전력을 관리할 수 있다. 도시하고 있지는 않지만, 전력 관리 모듈 295는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. 다양한 실시 예에 따르면, PMIC는 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다.
한 실시 예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리 296의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리 296는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 전자 장치 201에 전원을 공급할 수 있다. 배터리 296는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터 297는 전자 장치 201 혹은 그 일부(예: AP 210)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태(SOC: State Of Charge) 등을 표시할 수 있다. 모터 298는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 전자 장치 201는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 전술한 구성 요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시 예에 따른 전자 장치에서 지문 인식 센서 170을 활성시키는 동작을 도시한다.
다양한 예에 따르면, 전자 장치 101은 디스플레이 150(예: 터치 스크린)의 터치 입력부(예: 터치 패널 252)의 표면과 연동되는 지문 인식 센서 170을 활성시킬 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150의 전부 또는 일부에 지문 인식 센서 170을 포함할 수 있고, 지문을 입력하도록 설정된 객체를 선택하는 경우, 지문 인식 센서 170을 활성시킬 수 있다. 전자 장치 101은 활성된 지문 인식 센서 170에 대응하는 디스플레이 150의 지정된 영역 301을 표시할 수 있다. 전자 장치 101의 동작에 있어서, 활성된 지문 인식 센서 170을 통해서 입력되는 사용자의 지문을 검출하고, 입력된 지문을 기반으로 인증 과정을 수행하는 동작을 지문 입력 모드로 설명할 수 있다. 전자 장치 101은 디스플레이 150의 지정된 위치에 둘 이상의 지문 인식 센서 170을 포함할 수도 있다. 전자 장치 101은 전자 장치의 파지 상태(예: 가로 모드 또는 세로 모드) 또는 디스플레이 150에 터치 입력되는 위치와 같이 전자 장치 101에 설정된 정보(예: 설정 정보)를 기반으로 디스플레이 150에 포함된 둘 이상의 지문 인식 센서 170 중에서 활성시킬 센서를 결정할 수 있다. 전자 장치 101은 지문 입력 모드를 호출하는 시점에, 전자 장치의 상황 정보(예: 전자 장치 101의 파지 상태, 또는 디스플레이 150에서 선택된 객체에 대한 정보)를 기반으로 지정된 지문 인식 센서 170을 활성시킬 수 있다. 전자 장치 101은 활성된 지문 인식 센서 170에 대응하는 디스플레이 150의 영역 301을 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 인식 센서 170의 일부를 활성시킬 수 있다. 예컨대, 전자 장치 101은 디스플레이 150의 전체 영역에 대응하여 터치되는 입력 수단(예: 손가락)의 지문을 검출할 수 있도록 지문 인식 센서 170을 포함할 수 있고, 또는 디스플레이 150의 일부 영역에 대응하여 지문 입력 센서 170을 포함할 수 있다. 전자 장치 101은 설정 정보를 기반으로 지문 감지 센서 170의 지정된 일부를 활성시킬 수 있다. 전자 장치 101은 지문 인식 센서 170의 활성된 영역에 대응하는 디스플레이 150의 영역 301을 표시할 수 있다. 이하 설명에서 디스플레이 150에 표시된 지문 인식 센서 170의 활성된 영역을 지문 입력 영역으로 표현할 수 있다.
전자 장치 101은 디스플레이 150의 동작 및 디스플레이 150과 연동되는 지문 인식 센서 170의 동작에 있어서, 일반 모드(예: 지문 인식 센서 170의 비활성 상태)인 경우, 전자 장치 101의 디스플레이 150을 통상적인 방식(예; 터치 스크린)으로 동작할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 표시된 객체 303과 같이 지문 인식 센서 170의 위치와 적어도 일부가 중복되는 위치의 객체를 터치하는 경우, 지문 인식 센서 170이 비활성된 상태에서는 터치에 대응하여 객체 303을 선택한 것으로 처리할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 입력 모드에서 디스플레이 150에 표시된 객체 303의 위치와 적어도 일부가 중복되는 위치에 지문 인식 센서 170을 활성시킬 수 있고, 활영된 영역을 디스플레이 150에 입력 영역 301로 표시할 수 있다. 전자 장치 101은 입력 영역을 터치하는 경우, 지문 인식 센서 170을 통해서 입력 수단(예: 손가락)의 지문을 검출할 수 있다. 더하여 전자 장치 101은 디스플레이 150에 표시된 입력 영역 301과 객체 303이 적어도 일부 중복되는 경우, 설정 정보를 기반으로 객체 303의 선택 동작과 지문 인식 동작을 함께 수행할 수 있다.
도 4는 다양한 실시 예에 따른 전자 장치 101에서 지문 인식 센서를 통해서 지문을 입력하는 도면이다.
전자 장치 101은 지문 인식 모드에서 동작하는 경우, 전자 장치 101의 지문 인식 센서 170을 활성시킬 수 있고 지문 인식 센서 170에 대응하는 디스플레이 150의 위치에 입력 영역을 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 선택한 객체 403에 대응하는 이벤트가 특정 지문으로 지정된 사용자를 인증하는 경우 실행되도록 설정(보안 설정)된 상태일 수 있다. 전자 장치 101은 객체 403을 선택된 것을 확인하는 경우, 지문 입력 모드를 호출할 수 있다. 전자 장치 101은 지문 입력 모드를 호출하는 경우, 지문 인식 센서 170을 활성시킬 수 있고, 활성된 지문 인식 센서 170에 대응하는 디스플레이 150의 위치에 입력 영역 401을 표시할 수 있다. 전자 장치 101은 지문 인식 센서 170을 일부를 활성시키는 경우 선택된 객체의 위치를 기반으로 활성시키는 지문 인식 센서 170의 영역을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에서 선택된 객체 403과 적어도 일부가 중첩되지 않는 위치의 지문 인식 센서 170를 활성시킬 수 있고, 또는 선택된 객체 403과 적어도 일부가 중첩되도록 활성시키는 지문 인식 센서 170을 결정할 수 있다. 전자 장치 101은 활성된 지문 인식 센서 170의 위치에 대응하는 디스플레이 150의 위치에 입력 영역 401을 표시할 수 있다. 전자 장치 101은 입력 영역 401에 터치되는 입력 수단의 지문을 검출할 수 있다. 전자 장치 101은 검출한 지문과 매칭되는 특정 사용자를 확인할 수 있고, 확인된 사용자가 객체 403에 대응하는 이벤트를 실행하도록 인증된 사용자인 경우 이벤트를 실행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 지문 입력 모드를 호출함에 있어서, 보안 설정된 이벤트를 호출(예: 이벤트에 대응하는 지정된 객체 403을 선택함으로써 이벤트를 호출)하는 경우에 한정하지 않고, 설정 정보를 기반으로 지정된 입력을 확인하는 경우 지문 입력 모드를 호출할 수 있다. 예컨대, 전자 장치 101은 디스플레이 150의 특정 영역을 입력 수단(예: 손가락)으로 지정된 시간(예: 2초) 이상 터치하는 경우 지문 인식 센서 170을 활성시키고 지문 입력 영역 401을 표시할 수 있다. 전자 장치 101은 디스플레이 150에서 터치를 검출한 위치에 해당하는 지문 인식 센서 170을 활성시킬 수 있고, 또는 설정 정보에 지정된 위치에 해당하는 지문 인식 센서 170을 활성시킬 수 있다. 전자 장치 101은 활성된 지문 인식 센서 170에 대응하는 디스플레이 150에 입력 영역을 표시할 수 있다. 또는 전자 장치 101은 마이크 288을 통해서 입력되는 지정된 음성을 검출하는 경우, 지정된 위치의 지문 인식 센서 170을 활성시키고 지문 입력 영역 401을 표시할 수 있다.
도 5는 다양한 실시 예에 따른 전자 장치에서 검출하는 지문을 기반으로 이벤트를 실행하는 동작의 흐름도이다.
동작 501을 참조하면, 전자 장치 101은 지문 입력 모드를 수행할 수 있다. 전자 장치 101은 지문 입력 모드를 호출함에 있어서, 전자 장치에서 검출하는 입력이 기 설정된 지문 입력을 호출하는 입력인 경우 전자 장치 101의 지문 인식 센서 170을 활성시킬 수 있다. 한 실시 예에 따르면 전자 장치 101은 적어도 하나의 이벤트를 호출하는 입력을 검출하는 경우, 호출된 이벤트가 지문 정보를 기반으로 보안 설정된 것을 확인할 수 있다. 전자 장치 101은 보안 인증을 위해서 전자 장치 101의 지문 인식 센서 170을 활성시킬 수 있다. 전자 장치 101은 선택한 객체를 기반으로 지문 입력 모드를 호출하는 것에 한정하지 않고, 전자 장치 101에 설정된 정보를 기반으로 지정된 입력을 검출하는 경우, 직접 지문 입력 모드를 호출할 수도 있을 것이다.
동작 503은 활성된 지문 인식 센서 170의 위치를 디스플레이 150에 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101의 지문 인식 센서 170은 터치 스크린으로 구성된 디스플레이 150와 기기적으로 연동하도록 위치할 수 있다. 예컨대, 전자 장치 101은 디스플레이 150의 표면을 입력 수단(예: 손가락)으로 터치하는 입력을 기반으로 디스플레이 150에 표시된 객체를 선택할 수 있다. 전자 장치 101은 디스플레이 150의 표면에 접촉된 입력 수단의 지문을 획득하도록, 디스플레이 150의 표면 아래에 실장될 수 있고, 활성된 지문 인식 센서 170의 영역에 대응하는 디스플레이 150의 위치를 지문 입력 영역으로 표시할 수 있다.
동작 507에서 전자 장치 101은 지문 인식 센서 170을 통해서 검출하는 지문을 기반으로 보안 인증 절차를 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150의 지문 입력 영역에 활성된 지문 인식 센서 170을 통해서 접촉된 입력 수단의 지문을 획득할 수 있다. 전자 장치 101은 지문 입력 영역에 접촉되는 입력 수단의 터치를 처리함에 있어서, 지문 입력 영역에 입력 수단을 접촉하는 동작에서 지문 입력 영역과 중복되는 객체를 터치하는 경우, 설정 정보를 기반으로 객체를 선택한 것으로 처리하지 않을 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 지문 입력 영역에 접촉된 입력 수단의 지문을 지문 인식 센서 170을 통해서 획득하는 시점에 지문 입력 영역 내에서 터치되어 선택된 객체에 해당하는 이벤트를 호출할 수도 있을 것이다. 더하여, 전자 장치 101은 지문 인식 센서 170을 통해서 지문을 검출하는 경우, 지정된 보안 인증 절차를 수행하는 것에 한정하지 않고, 전자 장치 101에 포함된 적어도 하나의 애플리케이션과 연동하여 동작할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 입력 모드를 호출하여 지문 인식 센서 170을 통해서 지정된 지문을 검출할 수 있고, 검출한 지문 또는 설정 정보를 기반으로 이벤트를 호출하도록 설정된 객체, 또는 적어도 하나의 객체를 포함하는 폴더 타입의 객체를 디스플레이 150에 표시하도록 제어할 수도 있다.
전자 장치 101은 동작 507을 수행하면 도 5의 실시 예를 종료할 수 있다.
도 6은 다양한 실시 예에 따른 전자 장치에서 검출되는 지문을 기반으로 지정된 애플리케이션을 호출하는 도면이다.
전자 장치 101은 설정 정보를 기반으로 지문 입력 모드를 호출할 수 있다. 더하여, 전자 장치 101은 지문 입력 모드와 적어도 하나의 애플리케이션을 연동하여 수행하도록 설정할 수 있다. 한 실시 예에 따르면 전자 장치 101은 디스플레이 150에 표시된 지문 입력 영역에 입력 수단이 접촉되는 것을 감지하는 경우, 지문 인식 센서 170을 통해서 입력 수단의 지문을 검출할 수 있다. 전자 장치 101은 지문을 검출하는 경우, 디스플레이 150의 지문 입력 영역으로부터 지정된 거리(예: 지문 입력 영역으로부터 1cm 이내)에 적어도 하나의 애플리케이션을 호출하는 객체를 표시할 수 있다. 전자 장치 101은 객체를 표시함에 있어서, 적어도 하나의 객체를 포함하는 폴터 타입의 객체(이하 폴더)를 표시할 수 있음은 자명하다.
도 6을 참조하면, 전자 장치 101은 지문 인식 센서 170을 통해서 검출한 지문을 기반으로 디스플레이 150의 지문 입력 영역 601로부터 지정된 거리에 적어도 하나의 객체(예: game 폴더, util 폴더, edu 폴더, bank 폴더, map 폴더 또는 sns 폴더)를 표시할 수 있다. 전자 장치 101은 지문 입력 영역 601을 기반으로 배치된 객체들 중에서 적어도 하나의 객체를 선택할 수 있고, 선택한 객체가 폴더인 경우 폴더가 포함하는 객체들을 디스플레이 150의 지정된 영역 603에 표시할 수 있다.
전자 장치 101은 지문 인식 센서 170을 통해서 검출한 지문을 기반으로 디스플레이 150에 객체를 표시함에 있어서, 검출한 지문에 대응하는 사용자 정보에 설정된 객체를 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101의 디스플레이 150에 표시된 game 폴더, util 폴더, edu 폴더, bank 폴더, map 폴더 또는 sns 폴더는 디스플레이 150의 지문 입력 영역 601에 접촉된 입력 수단이 Joseph으로 등록된 사용자의 오른손 검지 손가락 지문인 경우 표시하도록 설정된 객체일 수 있다. 전자 장치 101은
도 7은 다양한 실시 예에 따른 전자 장치에서 검출하는 지문의 회전을 기반으로 객체를 선택하는 도면이다.
전자 장치 101은 지문 입력 영역에 접촉된 상태의 손가락이 회전하는 것을 감지할 수 있다. 한 실시 예에 따르면, 사용자가 디스플레이 150의 지문 입력 영역에 접촉한 손가락을 회전하는 경우, 전자 장치 101은 지문 인식 센서 170을 통해서 디스플레이 150의 표면에 접촉된 손가락의 접촉면이 변하는 것(예: 회전)을 검출할 수 있다. 전자 장치 101은 디스플레이 150에 접촉된 손가락의 접촉면의 변화가 시계 방향으로 진행되는지 또는 반 시계 방향으로 진행되는지 여부를 지문 인식 센서 170을 통해서 결정할 수 있다.
도 7을 참조하면, 전자 장치 101은 디스플레이 150에 표시된 지문 입력 영역을 기반으로 배치된 객체들 중에서 12시 방향에 표시된 폴더(예: game 폴더, 도 6 참조)가 포함한 객체들을 디스플레이 150의 지정된 영역(예: 도 6의 영역 603에 표시할 수 있다. 전자 장치 101은 디스플레이 150에 표시된 지문 입력 영역에 접촉된 손가락을 시계 방향으로 회전되는 것을 감지할 수 있다. 전자 장치 101은 디스플레이 150의 지문 입력 영역을 기반으로 배치된 적어도 하나의 객체들을 시계 방향 또는 반 시계 방향으로 이동할 수 있고, 이동된 상태에서 12시 방향에 위치한 폴더를 선택할 수 있다. 전자 장치 101은 선택한 폴더(예: sns 폴더 707)가 포함하는 객체들을 디스플레이 150의 지정된 영역 705에 표시할 수 있다. 전자 장치 101은 디스플레이 150의 지문 입력 영역에 접촉된 손가락이 회전하는 것을 검출하는 것에 대응하여 지문 입력 영역을 기반으로 배치된 객체들을 이동할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150의 지문 입력 영역에 접촉된 손가락의 회전 각도를 지문 인식 센서 170을 통해서 결정할 수 있다. 전자 장치 101은 데이터베이스를 기반으로 손가락의 회전 각도에 대응하여 지정된 각도만큼 지문 입력 영역을 기반으로 배치된 객체들을 이동할 수 있다. 전자 장치 101은 디스플레이 150의 지문 입력 영역에 접촉한 손가락의 회전을 감지함에 있어서, 지문 인식 센서 170을 통해서 감지하는 것에 한정하지 않고, 디스플레이 150의 터치 패널을 통해서 감지할 수도 있을 것이다.
도 8은 다양한 실시 예에 따른 전자 장치에서 검출하는 지문의 방향을 기반으로 객체를 선택하는 도면이다.
전자 장치 101은 지문 입력 영역에서 접촉된 상태의 손가락이 회전하는 것을 감지할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 인식 센서 170을 통해서 검출한 지문을 기반으로 전자 장치 101의 디스플레이 150에 표시된 지문 입력 영역 801에 입력 수단이 접촉한 상태를 확인할 수 있다. 전자 장치 101은 지문 인식 센서 170을 통해서 획득한 지문의 형태를 기반으로 지문 입력 영역 801에 접촉된 손가락의 끝 부분이 가리키는 방향에 위치한 객체를 선택할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 인식 센서 170을 통해서 디스플레이 150의 지문 입력 영역 801에 접촉된 손가락의 지문을 검출할 수 있다. 전자 장치 101은 지문 인식 센서 17을 통해서 검출한 지문의 형태를 기반으로 지문 입력 영역 801에 접촉된 손가락이 가리키는 방향을 결정할 수 있다. 예컨대, 전자 장치 101은 도 6의 지문 입력 영역 601에 접촉된 손가락의 경우, 전자 장치의 상단(예: 북쪽, 또는 12시 방향)을 가리키는 것으로 결정할 수 있다. 전자 장치 101은 디스플레이 150의 지문 입력 영역 801에 접촉된 지문의 형태가 변하는 것을 검출할 수 있다. 한 실시 예에 따르면, 사용자가 전자 장치 101의 디스플레이 150에 표시된 지문 입력 영역에 손가락을 접촉한 상태에서 손가락을 회전하는 경우, 전자 장치 101은 지문 감지 센서 170을 통해서 검출한 지문의 상태가 변하는 것을 확인할 수 있다. 전자 장치 101은 지문 감지 센서 170을 통해서 검출한 지문이 변하는 것을 감지하는 경우, 설정 정보를 기반으로 지정된 시간 간격으로 또는 일정 변화 이상을 감지하는 경우에 대응하는 지문을 검출할 수 있다. 전자 장치 101은 검출한 지문을 기반으로 대응하는 손가락의 방향을 결정할 수 있다. 전자 장치 101은 지문의 방향(예: 손가락의 방향)이 가리기는 위치에 해당하는 객체(예: sns 폴더)를 선택할 수 있다.전자 장치 101은 디스플레이 150의 지정된 영역 805에 선택한 sns 폴더가 포함하는 객체를 표시할 수 있다. 전자 장치 101은 디스플레이 150의 지문 입력 영역에 접촉한 손가락의 방향을 감지함에 있어서, 지문 인식 센서 170을 통해서 감지하는 것에 한정하지 않고, 디스플레이 150의 터치 패널을 통해서 감지할 수도 있을 것이다.
도 9는 다양한 실시 예에 따른 전자 장치에서 검출하는 지문을 기반으로 객체를 선택하는 동작의 흐름도이다.
동작 901을 참조하면, 전자 장치 101은 지문 입력 모드를 기반으로 지문 인식 센서 170을 통해서 지문을 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150의 지문 입력 영역에 접촉된 손가락의 지문을 지문 인식 센서 170을 통해서 검출할 수 있다.
동작 903을 참조하면, 전자 장치 101은 검출한 지문을 기반으로 적어도 하나의 객체를 디스플레이 150에 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 검출한 지문을 기반으로 디스플레이 150에 표시하도록 지정된 적어도 한의 객체를 결정할 수 있고, 결정된 객체를 디스플레이 150에 표시할 수 있다. 전자 장치 101은 결정한 객체를 표시함에 있어서, 지문 입력 영역을 기준으로 지정된 위치(예: 2cm 이내)에 적어도 하나의 객체를 표시할 수 있다. 여기에서 객체는 애플리케이션과 연동하는 아이콘, 텍스트, 이모티콘, 폴더과 같이 디스플레이 150에 표시 가능한 그래픽 인터페이스일 수 있다.
동작 905를 참조하면, 전자 장치 101은 지문 인식 센서 170을 통해서 입력된 지문의 형태가 변경되는 것을 검출할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150의 지문 입력 영역에 접촉된 손가락의 접촉면을 기준으로 손가락을 회전하는 동작을 검출할 수 있다. 전자 장치 101은 지문 인식 센서 170을 통해서 입력된 지문이 회전하는 것을 검출하는 경우, 지정된 시간마다 또는 지정된 변화량 이상 변하는 경우에 지문 인식 센서 170을 통해서 지문을 획득할 수 있다.
동작 907을 참조하면, 전자 장치 101은 회전된 지문을 기반으로 디스플레이 150에 표시된 객체들 중에서 적어도 하나의 객체를 선택할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 획득한 지문을 기반으로 입력 수단의 특정 위치(예: 손가락의 끝)가 가리키는 방향을 결정할 수 있다. 전자 장치 101은 디스플레이 150에 표시된 객체들 중에서 지문을 기반으로 결정한 방향에 위치한 객체를 선택할 수 있다. 또는 전자 장치 101은 획득한 지문이 회전한 정도(예: 각도)를 확인할 수 있고, 지문이 회전한 정보를 기반으로 지문 입력 영역 주위에 배치된 객체들을 시계방향 또는 반 시계 방향으로 이동할 수 있다. 전자 장치 101은 객체들의 이동 후에 특정 위치(예: 전자 장치 101의 상측 또는 12시 방향)의 객체를 선택할 수 있다.
전자 장치 101은 동작 907을 수행하면 도 9의 실시 예를 종료할 수 있다.
도 10은 다양한 실시 예에 따른 전자 장치에서 검출한 지문을 기반으로 결정한 적어도 하나의 객체를 표시하는 도면이다.
전자 장치 101은 디스플레이 150에 적어도 하나의 객체를 표시한 상태일 수 있다. 전자 장치 101은 지문 입력 모드를 통해서 특정 지문을 검출할 수 있다. 전자 장치 101은 지문 입력 모드에서 지문을 검출하도록 구성된 지문 입력 영역 1001을 디스플레이 150에 표시할 수 있다. 전자 장치 101은 지문 입력 영역 1001에 접촉되는 입력 수단의 지문을 지문 인식 센서 170을 통해서 획득할 수 있다. 전자 장치 101은 검출한 지문과 일치하는 지문의 이미지를 전자 장치 101의 데이터베이스에서 확인할 수 있다. 전자 장치 101은 확인된 지문(또는 지문의 이미지)에 설정된 또는 지문에 대응하는 사용자로 설정된 설정 정보를 기반으로 적어도 하나의 객체를 결정할 수 있다. 전자 장치 101은 결정한 객체를 디스플레이 150의 지정된 위치에 표시할 수 있다. 전자 장치 101은 지문을 기반으로 표시할 객체를 결정함에 있어서, 애플리케이션 또는 전자 장치 101에서 발생 가능한 이벤트와 연결된 아이콘 1003, 적어도 하나의 아이콘을 포함하는 폴더 1005와 같은 다양한 타입의 객체일 수 있다. 더하여, 전자 장치 101에 표시하도록 결정한 객체는 지문을 통해서 지정된 보안 인증을 수행하는 경우 표시하도록 숨겨진 객체일 수 있다. 더하여, 전자 장치 101에 표시하도록 결정한 객체는 선택함으로써 객체와 연결된 애플리케이션 또는 이벤트를 호출할 수 있고, 적어도 하나의 보안 키(예: 지문, 패스워드, 음성 등으로 설정된 보안 키)를 통해서 보안 인증을 수행하도록 설정된 객체일 수도 있다.
도 11은 다양한 실시 예에 따른 전자 장치에서 검출한 지문을 기반으로 결정한 적어도 하나의 객체를 표시하는 동작의 흐름도이다.
동작 1101을 참조하면, 전자 장치 101은 디스플레이 150에 표시한 지문 입력 영역에 접촉하는 입력 수단의 지문을 검출할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 입력 모드에서 전자 장치 101의 지문 인식 센서 170을 통해서 지문을 검출할 수 있다. 전자 장치 101은 디스플레이 150과 연동하는 지문 인신 센서 170의 영역을 디스플레이 150에 표시할 수 있다.
동작 1103을 참조하면, 전자 장치 101은 입력된 지문을 기반으로 적어도 하나의 객체를 결정할 수 있고, 결정한 객체를 디스플레이 150에 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 표시되지 않도록 결정된 객체들 중에서 검출한 지문에 대응하여 설정된 적어도 하나의 객체를 결정할 수 있고, 결정한 객체를 디스플레이 150에 표시할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 검출한 지문을 기반으로 보안 인증 절차를 수행할 수 있고, 검출한 지문이 보안 설정을 해제하는 보완 키(예: 패스워드)와 일치하는 경우, 보안 상태에서 숨겨진 적어도 하나의 객체를 디스플레이 150에 표시할 수 있다.
전자 장치 101은 동작 1103을 수행하면 도 11의 실시 예를 종료할 수 있다.
도 12는 다양한 실시 예에 따른 전자 장치에서 디스플레이에 표시된 객체를 선택하는 동작을 도시한다.
전자 장치 101은 디스플레이 150에 보안 설정된 애플리케이션 또는 전자 장치 101에서 보안 설정된 이벤트와 연결된 적어도 하나의 객체 1203을 표시할 수 있다. 한 실시 예에 따르면 전자 장치 101은 디스플레이 150에 보안 설정된 애플리케이션 또는 보안 설정된 이벤트와 연결된 객체 1203을 표시함에 있어서, 보안 설정된 상태임을 나타내는 그래픽 인터페이스 1205를 표시할 수 있다. 전자 장치 101은 디스플레이 150에서 보한 설정된 객체 1203을 선택하여 표시된 지문 입력 영역 1201으로 이동하는 동작을 검출할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 표시된 보안 설정된 객체 1203을 입력 수단으로 터치하여 선택하는 동작을 검출할 수 있다. 전자 장치 101은 디스플레이 150에 표시된 보안 설정된 객체 1203을 터치한 상태에서 입력 수단을 드래그하여 지문 입력 영역 1201로 이동하는 동작 1207을 검출할 수 있고, 지문 입력 영역에서 입력 수단을 터치 해제하는 동작을 검출할 수 있다. 전자 장치 101은 디스플레이 150의 지문 입력 영역 1201에서 입력 수단을 검출하는 시점에 입력 지문 입력 영역 1201과 중복되는 입력 수단의 접촉면에 대응하는 지문을 검출할 수 있다. 전자 장치 101은 입력 수단을 지문 입력 영역 1201에서 터치 해제하는 시점에 지문을 사용하여 보안 설정된 객체 1203에 해당하는 보안 인증 절차를 수행할 수 있고, 보안을 해제한 경우, 보안 설정된 객체 1203에 해당하는 애플리케이션 또는 이벤트를 호출할 수 있다.
도 13은 다양한 실시 예에 따른 전자 장치에서 지문 입력 영역을 통해서 지문을 검출하는 동작을 도시한다.
전자 장치 101은 디스플레이 150에 접촉된 입력 수단의 접촉면이 지문 감지 영역 1301과 중첩되는 것을 확인할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 표시된 객체들 중에서 선택한 객체를 지문 입력 영역으로 이동하는 드래그 동작을 검출할 수 있다. 전자 장치 101은 선택한 객체를 드래그하는 중에 디스플레이 150에 접촉한 입력 수단의 접촉면이 지문 입력 영역에 중복되는 경우 접촉면에 대응하는 제 1 지문 1303을 획득할 수 있다. 전자 장치 101은 지문 입력 영역 1301에 중복된 입력 수단의 접촉면이 변경되는 것을 검출하는 경우 적어도 하나의 제 2 지문 1305을 추가로 검출할 수 있다. 전자 장치 101은 지문으로 보안 설정된 보안 인증 절차에 검출한 지문을 사용함에 있어서, 제 1 지문 1303 및/또는 제 2 지문 1305를 기반으로 제 3 지문을 생성하여 보안 인증 절차를 수행할 수 있다. 전자 장치 101은 제 1 지문 1303 및/또는 제 2 지문 1305를 기반으로 제 3 지문을 생성함에 있어서, 조합, 병합, 수정, 삭제, 확대 축소와 같은 다양한 방법을 적용할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 지문 입력 모드를 수행하는 동작과, 터치 스크린에 위치한 지문 감지 센서의 적어도 일부에 대응하는 위치를 상기 터치 스크린에 표시하는 동작과, 상기 적어도 일부에 입력된 지문을 기반으로 상기 지문 입력 모드를 수행하는 시점에 선택된 컨텐츠를 실행하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 디스플레이와 연동하는 지문 인식 센서로 지문을 획득하는 동작과, 상기 지문을 기반으로 상기 디스플레이에 객체를 표시하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 지문 인식 센서는, 상기 디스플레이에 접촉된 입력 수단의 접촉면에 대응하는 상기 지문을 획득할 수 있다. 다양한 실시 예에 따르면, 상기 표시하는 동작은, 상기 지문을 기반으로 적어도 하나의 숨겨진 객체 확인하는 동작과, 상기 숨겨진 객체를 상기 디스플레이에 표시하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 표시하는 동작은, 상기 디스플레이에서 상기 지문을 검출한 위치를 기준으로 특정 거리 내에 적어도 하나의 상기 객체를 표시하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 표시하는 동작은, 상기 지문 인식 센서에 대응하는 상기 디스플레이의 적어도 일부 영역을 표시하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 지문의 회전을 검출하는 동작과, 상기 회전된 지문을 기반으로, 상기 디스플레이에 표시된 상기 객체 중 적어도 하나를 선택하는 동작을 더 포함할 수 있다. 다양한 실시 예에 따르면, 상기 지문을 기반으로 특정 방향을 결정하는 동작과, 상기 객체 중에서 상기 방향의 연장선에 위치한 객체를 선택하는 동작을 더 포함할 수 있다. 다양한 실시 예에 따르면, 상기 지문의 회전을 검출하는 동작과, 상기 지문의 회전을 기반으로, 상기 디스플레이에 표시된 상기 객체 중 적어도 하나의 위치를 변경하는 동작을 더 포함할 수 있다. 다양한 실시 예에 따르면, 상기 변경하는 동작은, 상기 지문의 회전 방향을 기반으로, 상기 객체 중 적어도 하나를 시계 방향 또는 반 시계방향으로 이동하는 동작을 포함할 수 있다. 다양한 실시 예에 따르면, 상기 지문을 획득한 시점 이전 또는 이후에 선택된 객체에 대응하는 이벤트의 보안 인증 동작에 상기 획득한 지문을 사용하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 지문 인식 센서로 지문을 획득하는 동작, 및 상기 지문을 기반으로 디스플레이의 객체 표시를 제어하는 동작을 수행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장매체를 포함할 수 있다.
전자장치 101이 수행하는 다양한 실시 예는 프로세서 120의 제어에 의해서 수행하는 동작일 수 있다. 더하여, 전자 장치 101은 본 발명의 다양한 실시 예들을 제어하도록 프로그래밍 된, 프로세서 120와 별도의 모듈을 포함할 수 있다. 본 발명의 다양한 실시 예들을 제어하도록 프로그래밍 된 별도의 모듈은 프로세서 120의 제어에 의해서 동작할 수도 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 전술한 구성 요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
다양한 실시 예에 따르면, 본 발명의 청구항 및/또는 명세서에 기재된 다양한 실시 예에 따른 장치, 방법의 적어도 일부는, 하드웨어, 소프트웨어, 펌웨어, 또는 하드웨어, 소프트웨어 및 펌웨어 중 하나 또는 둘 이상의 조합을 포함하는 형태(예: 모듈 또는 유닛)을 의미하거나 또는 구현될(implemented) 수 있다.‘모듈’은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. ‘모듈’은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. 더하여, ‘모듈’은 본 발명의 다양한 실시 예에서 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. ‘모듈’은 기계적으로 또는 전자적으로 구현될 수 있다. 예컨대, ‘모듈’은 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있고, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행할 수 있다. 더하여 ‘모듈’은 하나 이상의 프로그램(또는 프로그래밍 모듈, 어플리케이션)을 저장하는 컴퓨터 판독 가능 저장 매체(또는 컴퓨터로 읽을 수 있는 저장 매체)로 제공될 수 있다. 예컨대, 소프트웨어는 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 하나 이상의 프로그램은, 전자 장치로 하여금, 본 발명의 청구항 및/또는 명세서에 기재된 실시 예에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함할 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 120)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 230)가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서220에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시(flash) 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치, 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)가 포함될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
더하여, 전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 전자 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 휴대용 전자 장치에 접속할 수도 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시 예에 대한 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시 예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
101: 전자 장치 120: 프로세서
170: 지문 인식 센서

Claims (20)

  1. 전자 장치에 있어서,
    객체를 표시하는 디스플레이;
    상기 디스플레이와 연동하여 지문을 인식하는 지문 인식 센서; 및
    상기 지문 인식 센서로 획득한 지문을 기반으로 상기 디스플레이의 객체 표시를 제어하는 적어도 하나의 프로세서를 포함하는 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는, 상기 디스플레이에 접촉된 입력 수단의 접촉면에 대응하는 상기 지문을 획득하도록 제어하는 장치.
  3. 제 1 항에 있어서,
    상기 프로세서는, 상기 지문을 기반으로 적어도 하나의 숨겨진 객체를 상기 디스플레이에 표시하도록 제어하는 장치.
  4. 제 1 항에 있어서,
    상기 프로세서는, 상기 디스플레이에서 상기 지문을 검출한 위치를 기준으로 특정 거리 내에 적어도 하나의 상기 객체를 표시하도록 제어하는 장치.
  5. 제 1 항에 있어서,
    상기 프로세서는, 상기 지문 인식 센서에 대응하는 상기 디스플레이의 적어도 일부 영역을 표시하도록 제어하는 장치.
  6. 제 1 항에 있어서,
    상기 프로세서는, 획득한 상기 지문을 기반으로 결정한 방향 또는 상기 지문의 회전을 기반으로, 상기 디스플레이에 표시된 상기 객체 중 적어도 하나를 선택하는 장치.
  7. 제 1 항에 있어서,
    상기 프로세서는, 상기 지문의 회전을 감지하고, 상기 회전을 기반으로 상기 디스플레이에 표시된 상기 객체 중 적어도 하나의 위치를 변경하도록 제어하는 장치.
  8. 제 7 항에 있어서,
    상기 프로세서는, 상기 지문의 회전 방향을 기반으로, 상기 객체 중 적어도 하나를 시계 방향 또는 반 시계방향으로 이동하는 장치.
  9. 제 1 항에 있어서,
    상기 프로세서는, 획득한 상기 지문을 획득한 시점 이전 또는 이후에 선택된 객체에 대응하는 이벤트의 보안 인증 동작에 사용하는 장치.
  10. 지문 인식 센서로 지문을 획득하는 동작; 및
    상기 지문을 기반으로 디스플레이의 객체 표시를 제어하는 동작을 수행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장매체.
  11. 전자 장치의 동작 방법에 있어서,
    디스플레이와 연동하는 지문 인식 센서로 지문을 획득하는 동작; 및
    상기 지문을 기반으로 상기 디스플레이에 객체를 표시하는 동작을 포함하는 방법.
  12. 제 11 항에 있어서,
    상기 지문 인식 센서는, 상기 디스플레이에 접촉된 입력 수단의 접촉면에 대응하는 상기 지문을 획득하는 방법.
  13. 제 11 항에 있어서,
    상기 표시하는 동작은, 상기 지문을 기반으로 적어도 하나의 숨겨진 객체 확인하는 동작; 및
    상기 숨겨진 객체를 상기 디스플레이에 표시하는 동작을 포함하는 방법.
  14. 제 11 항에 있어서,
    상기 표시하는 동작은, 상기 디스플레이에서 상기 지문을 검출한 위치를 기준으로 특정 거리 내에 적어도 하나의 상기 객체를 표시하는 동작을 포함하는 방법.
  15. 제 11 항에 있어서,
    상기 표시하는 동작은, 상기 지문 인식 센서에 대응하는 상기 디스플레이의 적어도 일부 영역을 표시하는 동작을 포함하는 방법.
  16. 제 11 항에 있어서,
    상기 지문의 회전을 검출하는 동작; 및
    상기 회전된 지문을 기반으로, 상기 디스플레이에 표시된 상기 객체 중 적어도 하나를 선택하는 동작을 더 포함하는 방법..
  17. 제 11 항에 있어서,
    상기 지문을 기반으로 특정 방향을 결정하는 동작; 및
    상기 객체 중에서 상기 방향의 연장선에 위치한 객체를 선택하는 동작을 더 포함하는 방법.
  18. 제 11 항에 있어서,
    상기 지문의 회전을 검출하는 동작; 및
    상기 지문의 회전을 기반으로, 상기 디스플레이에 표시된 상기 객체 중 적어도 하나의 위치를 변경하는 동작을 더 포함하는 방법.
  19. 제 18 항에 있어서,
    상기 변경하는 동작은, 상기 지문의 회전 방향을 기반으로, 상기 객체 중 적어도 하나를 시계 방향 또는 반 시계방향으로 이동하는 동작을 포함하는 방법.
  20. 제 11 항에 있어서,
    상기 지문을 획득한 시점 이전 또는 이후에 선택된 객체에 대응하는 이벤트의 보안 인증 동작에 상기 획득한 지문을 사용하는 동작을 더 포함하는 방법.
KR1020140076519A 2014-06-23 2014-06-23 지문 처리 방법 및 그 전자 장치 KR102264808B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140076519A KR102264808B1 (ko) 2014-06-23 2014-06-23 지문 처리 방법 및 그 전자 장치
US14/738,086 US9733740B2 (en) 2014-06-23 2015-06-12 Method of processing fingerprint and electronic device thereof
US15/643,665 US10452178B2 (en) 2014-06-23 2017-07-07 Method of processing fingerprint and electronic device thereof
US16/555,092 US10768736B2 (en) 2014-06-23 2019-08-29 Method of processing fingerprint and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140076519A KR102264808B1 (ko) 2014-06-23 2014-06-23 지문 처리 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20150146236A true KR20150146236A (ko) 2015-12-31
KR102264808B1 KR102264808B1 (ko) 2021-06-14

Family

ID=54869938

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140076519A KR102264808B1 (ko) 2014-06-23 2014-06-23 지문 처리 방법 및 그 전자 장치

Country Status (2)

Country Link
US (3) US9733740B2 (ko)
KR (1) KR102264808B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018093053A1 (ko) * 2016-11-15 2018-05-24 삼성전자 주식회사 전자 장치 및 전자 장치의 화면 제공 방법
KR20180089133A (ko) * 2017-01-31 2018-08-08 삼성전자주식회사 디스플레이 제어 방법 및 전자 장치
KR20180090503A (ko) * 2017-02-03 2018-08-13 삼성전자주식회사 지문 센서를 제어하기 위한 장치 및 그 방법
US10366272B2 (en) 2016-04-19 2019-07-30 Samsung Electronics Co. Ltd Electronic device supporting fingerprint verification and method for operating the same
US10482309B2 (en) 2016-07-25 2019-11-19 Vkansee (Beijing) Technology Co., Ltd. Method and apparatus for controlling fingerprint acquisition based on a display screen and electronic device
US10635879B2 (en) 2016-11-09 2020-04-28 Samsung Electronics Co., Ltd. Method of displaying user interface related to user authentication and electronic device for implementing same
KR20200072116A (ko) * 2018-12-12 2020-06-22 삼성전자주식회사 도전성 패턴이 실장된 지문인식 모듈을 포함하는 전자 장치
US10824840B2 (en) 2016-04-19 2020-11-03 Samsung Electronics Co., Ltd Electronic device supporting fingerprint verification and method for operating the same

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102367550B1 (ko) * 2014-09-02 2022-02-28 삼성전자 주식회사 생체 신호를 이용한 카메라 모듈의 제어
KR102290892B1 (ko) * 2014-12-12 2021-08-19 엘지전자 주식회사 이동단말기 및 그것의 제어방법
US9817956B2 (en) * 2014-12-12 2017-11-14 Excalibur Ip, Llc User authentication and data encryption
US9734787B2 (en) * 2014-12-31 2017-08-15 Htc Corporation Method for operating mobile electronic device, mobile electronic device, and computer readable medium using the same
CN104536766B (zh) * 2015-01-09 2018-01-26 京东方科技集团股份有限公司 一种电子设备的控制方法及电子设备
US9738258B2 (en) * 2015-02-25 2017-08-22 Lauren Catherine Masucci Method of managing an electronic control unit of an automobile through an integrated fingerprint recognition system
JP2018515867A (ja) * 2015-04-03 2018-06-14 ハロバンド エルエルシーHaloband Llc タッチスクリーンの操作性を改善するためのシステム及び方法
KR20160136013A (ko) * 2015-05-19 2016-11-29 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10977476B2 (en) 2015-06-01 2021-04-13 Beijing Boe Optoelectronics Technology Co., Ltd. Dermatoglyphics data acquisition device, acquisition method thereof and display device
CN104881238A (zh) * 2015-06-25 2015-09-02 京东方科技集团股份有限公司 一种触控显示装置及其触控方法
US10860699B2 (en) * 2015-09-03 2020-12-08 Lg Electronics Inc. Terminal device and method for performing user authentication by means of biometric data
CN108427932B (zh) * 2015-10-19 2021-07-02 Oppo广东移动通信有限公司 指纹图像的识别方法及装置
US10846505B2 (en) * 2015-10-29 2020-11-24 Lg Electronics Inc. Mobile terminal and operating method therefor
CN107209620B (zh) * 2015-12-15 2020-03-20 华为技术有限公司 一种电子设备和指纹识别方法
CN105786312A (zh) * 2016-02-25 2016-07-20 宇龙计算机通信科技(深圳)有限公司 应用图标的整理方法、应用图标的整理装置和终端
CN105740690B (zh) * 2016-03-14 2018-01-19 广东欧珀移动通信有限公司 一种解锁方法及移动终端
US10325139B2 (en) * 2016-05-13 2019-06-18 Fingerprint Cards Ab Fingerprint authentication with parallel processing
US20170373992A1 (en) * 2016-06-22 2017-12-28 Clickatell Corporation Digital interaction process automation
KR102575672B1 (ko) * 2016-07-06 2023-09-07 삼성전자주식회사 전자 장치 및 그 동작 방법
US10810289B2 (en) * 2016-08-15 2020-10-20 Fisher-Rosemount Systems, Inc. Apparatuses, systems, and methods for providing access security in a process control system
CN106250774A (zh) * 2016-08-16 2016-12-21 三星电子(中国)研发中心 主设备和辅助设备及其操作的处理方法
KR101770521B1 (ko) * 2016-08-26 2017-09-05 한양대학교 산학협력단 정전용량 인셀 터치 패널 및 이에 있어서 리드아웃 방법
KR102020638B1 (ko) * 2016-09-20 2019-11-04 삼성전자주식회사 가이드를 통해 지문 정보를 입력받는 장치 및 방법
DE102016119844B4 (de) * 2016-10-18 2024-07-25 Preh Gmbh Fingerabdrucksensor mit Rotationsgestenfunktionalität
EP3531241A4 (en) * 2016-10-24 2019-11-20 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
KR102564267B1 (ko) * 2016-12-01 2023-08-07 삼성전자주식회사 전자 장치 및 그 동작 방법
KR20180081380A (ko) * 2017-01-06 2018-07-16 삼성전자주식회사 지문을 감지하는 전자 장치 및 방법
WO2018176200A1 (zh) * 2017-03-27 2018-10-04 深圳市汇顶科技股份有限公司 指纹操作的提示方法及电子设备
KR102386132B1 (ko) 2017-03-30 2022-04-13 엘지전자 주식회사 전자장치
KR102316278B1 (ko) * 2017-04-07 2021-10-22 삼성전자 주식회사 지문 정보를 저장하기 위한 전자 장치 및 방법
CN107194324A (zh) * 2017-04-28 2017-09-22 广东欧珀移动通信有限公司 指纹识别区域显示方法及相关产品
KR102325418B1 (ko) 2017-05-02 2021-11-10 후아웨이 테크놀러지 컴퍼니 리미티드 알림 처리 방법 및 전자 기기
CN107480610A (zh) * 2017-07-31 2017-12-15 广东欧珀移动通信有限公司 指纹识别方法及相关产品
JP7092984B2 (ja) * 2017-12-01 2022-06-29 富士通株式会社 生体画像処理装置、生体画像処理方法、及び生体画像処理プログラム
US11250113B2 (en) * 2018-01-04 2022-02-15 Suprema Inc. Fingerprint image acquisition apparatus and method for user authentication
US11092998B1 (en) * 2018-01-12 2021-08-17 Snap Inc. Eyewear device with fingerprint sensor for user input
KR102496531B1 (ko) 2018-01-24 2023-02-07 삼성전자주식회사 지문 인식을 위한 방법, 전자 장치 및 저장 매체
CN108089767B (zh) * 2018-01-25 2021-01-08 维沃移动通信有限公司 一种指纹识别区域的划分方法及移动终端
CN110096320B (zh) * 2018-01-29 2023-09-29 华为技术有限公司 认证窗口的显示方法和装置
KR102488699B1 (ko) 2018-02-27 2023-01-17 삼성전자주식회사 전자 장치 및 그 지문 인증 인터페이스 방법
WO2019183786A1 (zh) * 2018-03-26 2019-10-03 华为技术有限公司 一种提示信息的显示方法及电子设备
US11354391B2 (en) * 2018-07-30 2022-06-07 Qualcomm Incorporated Power saving in device with ultrasonic fingerprint sensors
US11328537B2 (en) 2018-08-09 2022-05-10 Fingerprint Cards Anacatum Ip Ab Method of multi-finger enrollment for a user
US10990260B2 (en) * 2018-08-23 2021-04-27 Motorola Mobility Llc Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
KR102544320B1 (ko) 2018-10-22 2023-06-19 삼성전자 주식회사 전자 장치 및 전자 장치의 제어 방법
US11250114B2 (en) * 2018-10-25 2022-02-15 Massachusetts Mutual Life Insurance Company Authentication device for virtual assistant systems
KR102652361B1 (ko) 2019-02-08 2024-03-29 삼성전자주식회사 콘텐트 공유 방법 및 그 전자 장치
CN110287674A (zh) * 2019-06-28 2019-09-27 Oppo广东移动通信有限公司 加密解密方法、电子设备及非易失性计算机可读存储介质
CN110276190B (zh) * 2019-06-28 2021-06-15 Oppo广东移动通信有限公司 指纹识别方法及相关产品
EP3991017A1 (en) * 2019-06-28 2022-05-04 Telefonaktiebolaget LM Ericsson (publ) Control of user profiles based on biometrical user authentication in an electronic user device
US11270095B2 (en) * 2019-08-21 2022-03-08 Novatek Microelectronics Corp. Electronic circuit having display driving function, touch sensing function and fingerprint sensing function
US11551466B2 (en) * 2019-08-21 2023-01-10 Novatek Microelectronics Corp. Control circuit and related method for controlling display panel
CN112987987A (zh) * 2019-12-13 2021-06-18 华为技术有限公司 一种应用图标的显示方法及电子设备
CN114981806A (zh) * 2020-01-10 2022-08-30 株式会社半导体能源研究所 电子设备及程序
WO2021145285A1 (ja) * 2020-01-17 2021-07-22 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラム
CN113467961A (zh) * 2020-03-30 2021-10-01 华为技术有限公司 复制粘贴的方法、电子设备及系统
US11381676B2 (en) * 2020-06-30 2022-07-05 Qualcomm Incorporated Quick launcher user interface
US11334654B2 (en) * 2020-10-14 2022-05-17 Bank Of America Corporation Dynamic enhanced security based on biometric authentication
WO2023129174A1 (en) * 2021-12-29 2023-07-06 Google Llc Single gesture authentication and application execution
EP4322034A1 (en) * 2022-08-09 2024-02-14 Thales Dis France Sas Method for managing a biometric pattern in a card

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101231216B1 (ko) * 2012-07-13 2013-02-07 주식회사 베프스 지문 인식을 이용한 휴대용 저장 장치 및 그 제어 방법
KR20140046888A (ko) * 2012-10-11 2014-04-21 크루셜텍 (주) 터치 스크린 내에 지문 인식 영역을 포함하는 사용자 단말기

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US283772A (en) * 1883-08-28 Button
BR112014028774B1 (pt) * 2012-05-18 2022-05-10 Apple Inc Método, dispositivo eletrônico, meio de armazenamento legível por computador e aparelho de processamento de informações
WO2015140600A1 (en) * 2014-03-21 2015-09-24 Sony Corporation Electronic device with display-based fingerprint reader
KR102564267B1 (ko) * 2016-12-01 2023-08-07 삼성전자주식회사 전자 장치 및 그 동작 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101231216B1 (ko) * 2012-07-13 2013-02-07 주식회사 베프스 지문 인식을 이용한 휴대용 저장 장치 및 그 제어 방법
KR20140046888A (ko) * 2012-10-11 2014-04-21 크루셜텍 (주) 터치 스크린 내에 지문 인식 영역을 포함하는 사용자 단말기

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366272B2 (en) 2016-04-19 2019-07-30 Samsung Electronics Co. Ltd Electronic device supporting fingerprint verification and method for operating the same
US10824840B2 (en) 2016-04-19 2020-11-03 Samsung Electronics Co., Ltd Electronic device supporting fingerprint verification and method for operating the same
US11763593B2 (en) 2016-04-19 2023-09-19 Samsung Electronics Co., Ltd Electronic device supporting fingerprint verification and method for operating the same
US10482309B2 (en) 2016-07-25 2019-11-19 Vkansee (Beijing) Technology Co., Ltd. Method and apparatus for controlling fingerprint acquisition based on a display screen and electronic device
US10635879B2 (en) 2016-11-09 2020-04-28 Samsung Electronics Co., Ltd. Method of displaying user interface related to user authentication and electronic device for implementing same
WO2018093053A1 (ko) * 2016-11-15 2018-05-24 삼성전자 주식회사 전자 장치 및 전자 장치의 화면 제공 방법
KR20180054200A (ko) * 2016-11-15 2018-05-24 삼성전자주식회사 전자 장치 및 전자 장치의 화면 제공 방법
US10990207B2 (en) 2016-11-15 2021-04-27 Samsung Electronics Co., Ltd Electronic device and screen provision method of electronic device
KR20180089133A (ko) * 2017-01-31 2018-08-08 삼성전자주식회사 디스플레이 제어 방법 및 전자 장치
KR20180090503A (ko) * 2017-02-03 2018-08-13 삼성전자주식회사 지문 센서를 제어하기 위한 장치 및 그 방법
KR20200072116A (ko) * 2018-12-12 2020-06-22 삼성전자주식회사 도전성 패턴이 실장된 지문인식 모듈을 포함하는 전자 장치

Also Published As

Publication number Publication date
US9733740B2 (en) 2017-08-15
KR102264808B1 (ko) 2021-06-14
US20170308215A1 (en) 2017-10-26
US20150371073A1 (en) 2015-12-24
US10768736B2 (en) 2020-09-08
US10452178B2 (en) 2019-10-22
US20190384440A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
KR102264808B1 (ko) 지문 처리 방법 및 그 전자 장치
US9922179B2 (en) Method and apparatus for user authentication
KR102171082B1 (ko) 지문 처리 방법 및 그 전자 장치
KR102503937B1 (ko) 전자 장치의 사용자 인터페이스 제공 방법 및 장치
US9762575B2 (en) Method for performing communication via fingerprint authentication and electronic device thereof
EP2905693B1 (en) Method and apparatus for controlling flexible display and electronic device adapted to the method
KR102227440B1 (ko) 전자 장치 및 그 동작 방법
KR102213190B1 (ko) 홈스크린 구성 방법 및 이를 이용한 전자 장치
KR20150099297A (ko) 전자장치의 화면 표시 방법
KR20150108216A (ko) 입력 처리 방법 및 그 전자 장치
AU2015202698B2 (en) Method and apparatus for processing input using display
EP2958006A1 (en) Electronic device and method for controlling display
EP3012719A1 (en) Display control method and protective cover in electronic device
KR20160009915A (ko) 데이터 처리 방법 및 그 전자 장치
KR20150135837A (ko) 디스플레이 운용 전자장치 및 방법
US10037135B2 (en) Method and electronic device for user interface
KR20160017904A (ko) 전자장치의 화면 표시 방법
KR20150085351A (ko) 입력 처리 방법 및 그 전자 장치
KR20150064354A (ko) 입력 처리 방법 및 그 전자 장치
KR102274944B1 (ko) 오브젝트를 식별하는 전자 장치 및 방법
KR20160031196A (ko) 전자 장치의 디스플레이 제어 방법 및 그 전자 장치
KR102353498B1 (ko) 기능 제공 방법 및 그 전자 장치
KR102332468B1 (ko) 기능 제어 방법 및 그 전자 장치
KR20150105005A (ko) 데이터 처리 방법 및 그 전자 장치
KR20150092640A (ko) 잠금 기능 제어 방법 및 그 전자 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant