KR102220447B1 - 입력 처리 방법 및 그 전자 장치 - Google Patents

입력 처리 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR102220447B1
KR102220447B1 KR1020140005128A KR20140005128A KR102220447B1 KR 102220447 B1 KR102220447 B1 KR 102220447B1 KR 1020140005128 A KR1020140005128 A KR 1020140005128A KR 20140005128 A KR20140005128 A KR 20140005128A KR 102220447 B1 KR102220447 B1 KR 102220447B1
Authority
KR
South Korea
Prior art keywords
input
information
electronic device
screen
fingerprint
Prior art date
Application number
KR1020140005128A
Other languages
English (en)
Other versions
KR20150085351A (ko
Inventor
김건수
강두석
염동현
윤필주
최보근
전용준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140005128A priority Critical patent/KR102220447B1/ko
Priority to EP15151155.7A priority patent/EP2897038B1/en
Priority to US14/598,190 priority patent/US9489127B2/en
Publication of KR20150085351A publication Critical patent/KR20150085351A/ko
Application granted granted Critical
Publication of KR102220447B1 publication Critical patent/KR102220447B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

본 발명의 한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 디스플레이 스크린에 입력되는 정보 및 지문 감지 센서에 입력되는 지문 정보를 획득하는 동작과, 획득한 상기 스크린에 입력되는 정보 및 상기 지문 정보의 결합에 매칭되는 명령을 수행하는 동작을 포함할 수 있다. 전자 장치의 동작 방법에 있어서 상술한 방법에 한정하지 않고 본 발명의 동일 또는 유사한 범위에서 다른 실시 예가 가능하다.

Description

입력 처리 방법 및 그 전자 장치{METHOD FOR PROCESSING INPUTTING DATA AND AN ELECTRONIC DEVICE THEREOF}
본 발명의 다양한 실시 예는 전자 장치에 입력된 데이터를 처리하는 방법 및 그 전자 장치에 관한 것이다.
정보 통신 기술 및 반도체 기술의 발전으로 각종 전자 장치들이 다양한 입력 장치에 입력된 정보를 토대로 장치의 기능을 수행할 수 있다. 디스플레이를 통해서 전자 장치의 동작 상태를 표시할 수도 있고, 디스플레이가 터치 스크린에 입력되는 정보를 통해 입력 가능한 터치 디스플레이인 경우 지정된 스크린에 입력되는 정보를 입력하여 전자 장치의 기능을 수행할 수 있다. 또한 지문 감지 센서를 통해서 전자 장치에 사용자 정보를 입력하거나 또는 입력한 지문 정보에 지정된 전자 장치의 기능을 수행할 수 있다.
전자 장치에서 지문 감지 센서를 통해서 입력된 지문 정보는 기존에 입력된 지문 정보와의 일치 여부를 확인하는 수단으로만 사용되어 왔으며,지문 정보를 활용할 수 있는 방법이 제한적일 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치에 입력된 지문 정보 및 하나 또는 그 이상의 입력 정보를 결합하여 다양한 서비스를 제공할 수 있다.
본 발명의 다양한 실시 예에 따르면, 예컨대, 전자 장치의 동작 방법에 있어서, 디스플레이 스크린에 입력되는 정보 및 지문 감지 센서에 입력되는 지문 정보를 획득하는 동작과, 상기 획득한 동작에 따른 명령을 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면 전자 장치는, 스크린에 입력되는 정보 및 지문 정보 및 상기 스크린에 입력되는 정보 및 지문 정보의 결합에 대응하여 설정된 명령이 저장된 메모리, 상기 스크린에 입력되는 정보 및 지문 감지 센서에 입력되는 상기 지문 정보를 획득하는 동작과, 득한 상기 스크린에 입력되는 정보 및 상기 지문 정보의 결합에 매칭되는 상기 명령을 수행하는 입력 처리 모듈, 및 상기 입력 처리 모듈을 제어하는 하나 또는 그 이상의 프로세서를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치에 입력되는 지문 정보를 디스플레이에 입력되는 지정된 동작(예: 디스플레이의 스크린에 입력되는 정보)과 결합하여 전자 장치의 기능을 수행하도록 제어하는 명령을 다양화할 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치 101에 대한 블록도 100을 도시한다.
도 2는 다양한 실시 예에 따른 전자 장치 101에서 입력 처리 모듈 105를 도시한다.
도 3a 및 도 3b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
도 4a 및 도 4b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
도 5a 내지 도 5c는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
도 6a 및 도 6b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 수행할 수 있다.
도 7a 및 도 7b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
도 8a 및 도 8b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
도 9는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
도 10a 내지 도 10d는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작의 흐름도이다.
도 11은 다양한 실시 예들에 따른 하드웨어 1100의 블록도를 도시한다.
본 발명의 다양한 실시 예 중에서 하나로서 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있으나, 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있다. 따라서, 본 발명의 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용되었다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 발명의 다양한 실시 예들에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 발명의 다양한 실시 예 가운데 사용될 수 있는“포함한다,”“포함할 수 있다” 등의 표현은 발명된 해당 기능, 동작, 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작, 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory) 또는 스마트 와치(smartwatch) 중의 적어도 하나를) 포함할 수 있다.
다른 실시 예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중의 적어도 하나를 포함할 수 있다.,
어떤 실시 예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 또는 보안 기기 중의 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는, 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 등) 중의 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. 이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 포함하여 지칭할 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치 101에 대한 블록도 100을 도시한다.
도 1을 참조하면, 상기 전자 장치 101은 입력 처리 모듈 105, 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 디스플레이 모듈 150, 또는 통신 인터페이스 160을 포함할 수 있다.
입력 처리 모듈 105는 사용자에 의해서 디스플레이 모듈 150의 스크린에 입력되는 정보 및 지문 감지 센서 311에 입력되는 지문 정보를 입력한 제 1 정보에 대응하여 전자 장치 101에서 수행할 수 있는 기능을 설정할 수 있고, 설정된 설정 정보를 데이터베이스에 저장할 수 있다. 입력 처리 모듈은 하나 또는 그 이상의 스크린에 입력되는 정보 및 하나 또는 그 이상의 지문 정보를 조합하여 설정된 하나 또는 그 이상의 설정 정보를 데이터베이스에 포함할 수 있고, 하나의 설정 정보는 전자 장치 101에서 수행할 수 있는 하나 또는 그 이상의 기능을 지정하여 제어하도록 설정될 수 있다.
입력 처리 모듈 105는 디스플레이 모듈 150의 스크린에 입력되는 정보 및 지문 감지 센서에 입력되는 지문 정보를 획득하는 동작과, 획득한 스크린에 입력되는 정보 및 지문 정보의 결합에 매칭되는 명령을 수행할 수 있다. 입력 처리 모듈 105는 획득한 스크린에 입력되는 정보 및 지문 정보의 결합이 스크린에 입력되는 기준 정보 및 기준 지문 정보의 결합에 대응하는지 결정하는 동작과, 획득한 스크린에 입력되는 정보 및 지문 정보의 결합에 지정된 전자 장치의 기능을 수행할 수 있다. 입력 처리 모듈 105는 스크린에 입력되는 정보 및 지문 정보는 동일한 입력 수단으로 입력하는 스크린에 입력되는 정보 및 지문 정보를 획득할 수 있다. 입력 처리 모듈 105는 입력 수단을 디스플레이에 터치, 드래그, 터치 해제하는 제스처 중에서 하나 또는 그 이상으로 스크린에 입력되는 정보를 구성할 수 있다. 입력 처리 모듈 105는 지문 정보 및 스크린에 입력되는 정보가 입력되는 순서를 구분하여 결정한 명령을 수행할 수 있다. 입력 처리 모듈 105는 지문 정보 및 스크린에 입력되는 정보에 스크린에 입력되는 정보가 입력된 시간 정보를 추가로 포함하여 결정한 명령을 수행하는 모듈. 입력 처리 모듈 105는 철자, 문자, 문자열, 숫자, 기호, 도형, 문양 중에서 하나 또는 그 이상의 조합으로 디스플레이에 드래그로 그려진 스크린에 입력되는 정보를 결정할 수 있다. 입력 처리 모듈 105는 하나 또는 그 이상의 가상의 영역으로 구분된 디스플레이의 한 영역 또는 그 이상의 영역에서 수행되는 드래그의 궤적 정보, 드래그가 수행되는 시간 정보 및 드래그 길이 정보 중에서 하나 또는 그 이상에 대한 정보를 스크린에 입력되는 정보로 결정할 수 있다. 입력 처리 모듈 105는 디스플레이에 드래그 중인 입력 수단을 터치 해제하고 지정된 시간 내에 재터치하여 드래그 동작을 계속 수행하는 경우, 터치 해제하지 않은 것으로 스크린에 입력되는 정보를 결정할 수 있다. 입력 처리 모듈 105는 드래그 방향의 변화하는 경우, 변화 횟수 및, 변화 각도 중에서 하나 또는 그 이상에 대한 정보를 스크린에 입력되는 정보로 결정할 수 있다. 입력 처리 모듈 105는 디스플레이의 스크린에 입력되는 정보를 참조하여 지문 정보의 기울기를 재설정할 수 있다.
상기 버스 110은 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서 120은, 예를 들면, 상기 버스 110을 통해 전술한 다른 구성요소들(예: 상기 메모리 130, 상기 입출력 인터페이스 140, 상기 디스플레이 모듈 150, 상기 통신 인터페이스 160 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 메모리 130(예: 메모리 125)는, 상기 프로세서 120 또는 다른 구성요소들(예: 상기 입출력 인터페이스 140, 상기 디스플레이 모듈 150, 상기 통신 인터페이스 160등)로부터 수신되거나 상기 프로세서 120또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리 130은, 예를 들면, 커널 131, 미들웨어 132, 애플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 애플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어 132, 상기 API 133 또는 상기 애플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널 131은 상기 미들웨어 132, 상기 API 133 또는 상기 애플리케이션 134에서 상기 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어 132는 상기 API 133 또는 상기 애플리케이션 134이 상기 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어 132는 상기 (다수의) 애플리케이션들 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 (다수의) 애플리케이션들 134들 중 적어도 하나의 애플리케이션에 상기 전자 장치 101의 시스템 리소스(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 로드 밸런싱을 수행할 수 있다.
상기 API 133은 상기 애플리케이션 134이 상기 커널 131 또는 상기 미들웨어 132에서 제공하는 기능을 제어할 수 있는 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수를 포함할 수 있다.
상기 입출력 인터페이스 140은, 예를 들면, 사용자로부터 명령 또는 데이터를 입력 받아 상기 버스 110을 통해 상기 프로세서 120 또는 상기 메모리 130에 전달할 수 있다. 상기 디스플레이 모듈 150은 사용자에게 화상, 영상 또는 데이터 등을 표시할 수 있다. 한 실시 예에 따르면, 상기 디스플레이 모듈 150이 터치 스크린 패널로 제공되는 경우 상기 디스플레이 모듈 150을 터치(touch) 또는 호버링(hovering)(예: 간접 터치 입력)하는 스크린에 입력되는 정보를 통해서 명령을 입력할 수 있다.
상기 통신 인터페이스 160은 상기 전자 장치 101와 보조 전자 장치 102 또는 전자 장치 104 또는 서버 164 간의 통신을 연결할 수 있다. 상기 통신 인터페이스 160은 소정의 근거리 통신 프로토콜(예: Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication) 또는 소정의 네트워크 통신(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등) 162를 지원할 수 있다. 상기 전자 장치 102, 104 각각은 상기 전자 장치 101와 동일한 (예: 같은 타입의) 장치이거나 또는 다른 (예: 다른 타입의) 장치일 수 있다.
도 2는 다양한 실시 예에 따른 전자 장치 101에서 입력 처리 모듈 105를 도시한다.
도 2를 참조하면, 입력 처리 모듈 105는 감지 모듈 210, 결정 모듈 220, 제공 모듈 230 중에서 하나 또는 그 이상의 모듈을 포함할 수 있다. 이하 설명하는 각각의 모듈은 설명하는 동작을 수행하는 물리적으로 구성된 하드웨어를 나타낼 수 있고, 또는 설명하는 동작을 수행하는 논리 데이터로 구성된 소프트웨어일 수도 있다.
이하에서 각각의 모듈에 대한 다양한 실시 예를 설명한다.
감지 모듈 210은 전자 장치 101에 포함된 하나 또는 그 이상의 디스플레이 모듈 150을 통해서 입력되는 스크린에 입력되는 정보 및 하나 또는 그 이상의 지문 감지 센서 311을 통해서 입력되는 지문 정보를 감지할 수 있다.
결정 모듈 220은 디스플레이 모듈 150을 통해서 획득한 스크린에 입력되는 정보 및 지문 감지 센서 311을 통해서 획득한 지문 정보를 전자 장치 101에 저장된 데이터베이스의 매칭되는 설정 정보를 결정할 수 있다. 상술한 매칭되는 정보는 획득한 스크린에 입력되는 정보 및 지문 정보에 대응하여 전자 장치 101의 기능을 수행하도록 설정된 정보일 수 있다.
제공 모듈 230은 설정 정보에 대응하는 전자 장치 101의 지정된 기능을 제공할 수 있다. 제공 모듈은 설정 정보에 따라서 전자 장치 101의 기능을 수행할 수 있고, 전자 장치 101에서 수행하는 기능에 대한 화면 구성을 디스플레이 모듈 150에 표시할 수 있다.
도 3a 및 도 3b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
전자 장치 101은 지정된 위치에 하나 또는 그 이상의 디스플레이 모듈 150 및 하나 또는 그 이상의 지문 감지 센서 311을 포함할 수 있다. 다양한 실시 예에 따르면, 전자 장치 101에 포함된 지문 감지 센서 311의 위치는 입력 수단으로 디스플레이 모듈 150에 입력 후 연속해서 지문 정보 인식 센서 311에 입력할 수 있도록 디스플레이 모듈 150의 하단 지정된 위치에 포함될 수 있다. 또는 전자 장치 101에 포함된 지문 감지 센서(미도시) 의 위치는 입력수단으로 디스플레이 모듈 150의 영역과 함께 위치할 수도 있다, 또는 전자 장치 101에 포함된 지문 감지 센서(미도시) 의 위치는 입력수단으로 전자 장치 101의 상단, 측면 또는 후면과 같이 전자 장치 101의 다양한 위치에 포함될 수 있다.
전자 장치 101은 디스플레이 모듈 150의 지정된 위치에 대한 입력을 시점으로 하여 지문 감지 센서 311을 거치는 미리 정의된 형태의 입력에 대응하는 전자 장치 101의 기능을 수행할 수 있다.
한 실시 예에 따르면, 전자 장치 101은 직접 터치 및/또는 간첩 터치(예: 호버링)를 통해서 디스플레이 모듈 150에 드래그(예: 터치, 드래그, 터치 해제)하는 동작으로 명령을 입력할 수 있다. 또한 전자 장치 101은 디스플레이 모듈 150에 명령을 입력하는 동작 및 지문 감지 센서 311을 통해 입력된 지문 정보를 인증하는 동작을 조합하여 전자 장치 101의 하나 또는 그 이상의 기능을 수행하도록 제어할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 3a를 참조하여 설명한다.
도 3a를 참조하면, 전자 장치 101은 디스플레이 모듈 150을 하나 또는 그 이상의 가상의 영역(예: 'A 영역', 'B 영역' 및 'C 영역')으로 구분할 수 있고, 전자 장치 101은 구분된 가상의 영역 중의 하나의 영역에서 시작되는 드래그 입력을 감지할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 가상의 'A 영역', 'B 영역' 및 'C 영역'으로 구분된 디스플레이 모듈 150에서 'A 영역'의 지정된 위치를 터치하여 지정된 형태의 드래그 동작(예: 아래 방향으로 드래그)을 수행하고, 연속해서 지문 감지 센서 311에 입력 수단(예: 오른손의 검지 손가락)을 인식시키는 제 1 입력 313을 감지할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 가상의 'A 영역', 'B 영역' 및 'C 영역'으로 구분된 디스플레이 모듈 150에서 'B 영역'의 지정된 위치를 터치하여 지정된 형태의 드래그 동작(예: 아래 방향으로 드래그)을 수행하고, 연속해서 지문 감지 센서 311에 입력 수단(예: 오른손의 검지 손가락)을 인식시키는 제 2 입력 315를 감지할 수 있다. 전자 장치 101은 제 1 입력 313을 감지한 경우 제 1 입력 313에 대응하는 지정된 제 1 기능을 수행할 수 있고, 제 2 입력 315를 감지한 경우 제 2 입력 315에 대응하는 지정된 2 기능을 수행할 수 있다. 상술한 바와 같이 전자 장치 101은 디스플레이 모듈 150에서 드래그 동작이 시작된 영역을 구분할 수 있고, 드래그 동작이 시작된 위치에 따라서 설정된 동작을 수행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150에서 감지한 입력이 동일 또는 유사한 형태의 입력인 것으로 결정한 경우, 지문 감지 센서 311에서 인식하는 지문 정보에 따라서 지정된 동작을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 가상의 'A 영역', 'B 영역' 및 'C 영역'으로 구분된 디스플레이 모듈 150에서 'A 영역'의 지정된 위치를 터치하여 지정된 형태의 드래그 동작(예: 아래 방향으로 드래그)을 수행하고, 연속해서 지문 감지 센서 311에 입력 수단(예: 오른손 엄지 손가락)의 제 1 지문 정보를 인식시키는 제 3 입력을 감지할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 가상의 'A 영역', 'B 영역' 및 'C 영역'으로 구분된 디스플레이 모듈 150에서 'A 영역'의 지정된 위치를 터치하여 지정된 형태의 드래그 동작(예: 아래 방향으로 드래그)을 수행하고, 연속해서 지문 감지 센서 311에 입력 수단(예: 오른손 검지 손가락)의 제 2 지문 정보를 인식시키는 제 4 입력을 감지할 수 있다. 전자 장치 101은 지문 감지 센서 311로 획득한 제 1 지문 정보 및 제 2 지문 정보로 동일 또는 유사한 디스플레이 모듈 150의 지정된 드래그 입력을 포함하는 제 3 입력 및 제 4 입력을 구분하여 각각의 입력에 지정된 동작을 수행할 수 있다. 상술한 바와 같이 전자 장치 101은 제 3 입력을 감지한 경우 제 3 입력에 대응하는 지정된 제 3 기능을 수행할 수 있고, 제 4 입력을 감지한 경우 제 4 입력에 대응하는 지정된 제 4 기능을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 3b를 참조하여 설명한다.
도 3b를 참조하면, 전자 장치 101은 전자 장치 101은 디스플레이 모듈 150을 하나 또는 그 이상의 가상의 영역(예: 'A 영역', 'B 영역' 및 'C 영역')으로 구분하는 경우, 전자 장치 101은 디스플레이 모듈 150의 구분된 가상의 영역 중의 하나의 영역의 일정 위치를 터치하여 드래그하는 입력이 시작되는 위치를 감지할 수 있고, 상술한 드래그 입력을 시작하는 터치 동작이 입력된 영역으로 각각의 입력을 구분할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 가상의 'A 영역', 'B 영역' 및 'C 영역'으로 구분된 디스플레이 모듈 150에서 'A 영역'의 지정된 위치를 터치하여 지정된 형태의 드래그 동작(예: 아래 방향으로 드래그)을 수행하고, 연속해서 지문 감지 센서 311에 입력 수단(예: 오른손 엄지 손가락)의 제 1 지문 정보를 인식시키는 제 1 입력을 감지할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 가상의 'A 영역', 'B 영역' 및 'C 영역'으로 구분된 디스플레이 모듈 150에서 'A 영역'의 지정된 위치를 터치하여 입력을 시작하고, 'B 영역' 또는 'C 영역'으로 드래그한 후 연속해서 지문 감지 센서 311에 입력 수단(예: 오른손 엄지 손가락)의 제 1 지문 정보를 인식시키는 제 2 입력을 감지할 수 있다. 전자 장치 101은 상술한 두 실시 예를 참조하면, 하나 또는 그 이상의 가상의 영역(예: 'A 영역', 'B 영역' 및 'C 영역')으로 구분된 디스플레이의 동일한 입력 시작 영역 'A 영역'에서 시작된 입력 및 감지한 지문 정보에 대응하여 동일한 입력으로 결정할 수 있고, 전자 장치 101에서 상술한 제 1 입력 및 제 2 입력에 대응하여 동일한 기능을 수행할 수 있다.
도 4a 및 도 4b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
전자 장치 101은 지문 감지 센서 311에 입력 수단이 감지되기 전의 디스플레이 모듈 150에서 입력되는 드래그 동작의 길이에 따라서 지정된 동작을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 4a를 참조하여 설명한다.
도 4a를 참조하면, 전자 장치 101은 디스플레이 모듈 150의 지정된 위치를 터치하여 드래그 입력을 시작할 수 있고, 지정된 형태의 드래그 동작 이후 연속해서 지문 감지 센서 311에 입력 수단을 인식시킬 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 감지 센서 311에 입력되기 전 디스플레이 모듈 150에서 입력된 드래그 동작의 길이를 감지할 수 있다. 예를 들어, 전자 장치 101은 입력 수단(예: 오른손 검지 손가락)으로 디스플레이 모듈 150의 일정 위치를 터치 한 후 아래 방향으로 드래그 동작을 수행하여 지문 감지 센서 311에 입력 수단(예: 오른손 검지 손가락)을 인식시키는 제 1 입력 401을 수행할 수 있다. 전자 장치 101은 제 1 입력에서 지문 감지 센서 311에 입력 수단을 인식시키기 전 디스플레이 모듈 150에 입력된 드래그 동작의 길이 403을 감지할 수 있다. 전자 장치 101은 드래그 동작의 길이 403 및 입력된 지문 감지 센서 311에 입력된 지문 정보에 대응하여 설정된 전자 장치 101의 기능을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 4b를 참조하여 설명한다.
전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 입력된 동작에 대응하는 기능을 수행할 수 있다. 전자 장치 101은 입력 수단을 지문 감지 센서 311에 인식시키기 전 디스플레이 모듈 150에 드래그한 입력의 길이를 감지할 수 있고, 전자 장치 101은 디스플레이 모듈 150에 드래그한 입력의 길이 411 및 지문 감지 센서 311에 입력된 지문 정보에 대응하는 전자 장치 101의 기능을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 도 4a를 참조하여 디스플레이 모듈 150에서 제 1 입력 401을 수행한 입력 수단과 동일한 입력 수단으로 제 1 입력의 드래그 동작 시작 위치와 동일한 위치를 터치하고 제 1 입력의 드래그 동작보다 긴 길이의 드래그 동작을 수행한 후 지문 감지 센서 311에 입력 수단을 인식시키는 제 2 입력 411을 수행할 수 있다. 전자 장치 101은 제 1 입력의 드래그 입력 길이 및 제 2 입력의 드래그 입력 길이를 참조하여 제 1 입력 및 제 2 입력에 대응하여 수행하는 전자 장치 101의 기능이 다른 것으로 결정할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 드래그하는 입력 및 지문 감지 센서 311에 입력한 지문 정보를 참조하여 수행하는 전자 장치 101의 기능을 설정함에 있어서, 디스플레이 모듈 150에 입력되는 드래그 동작의 길이를 둘 이상의 범위를 정하여 설정할 수 있다.
도 5a 내지 도 5c는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 입력함에 있어서, 다양한 실시 예 중의 하나로 가상의 좌표계를 설정할 수 있고, 설정한 가상의 좌표계를 기준으로 디스플레이 모듈 150에 드래그 입력 방향 및/또는 지문 감지 센서 311에 입력 수단을 인식시키는 방향을 감지할 수 있다. 여기에서, 전자 장치 101에 설정되는 가상의 좌표계(예: 도 5a 내지 도 5c에서 가상의 좌표계 500)에 대한 한 실시 예는 지정된 기준 각도를 기준으로 호도법(radian)을 기반으로 각도를 측정하는 좌표계일 수 있다. 전자 장치 101은 디스플레이 모듈 150에 드래그하는 방향(또는 각도, 이하 동일) 및/또는 드래그 입력 방향의 변화, 지문 감지 센서 311에 입력 수단을 인식시키는 방향을 감지한 결과에 대응하여 설정된 전자 장치 101의 기능을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 5a를 참조하여 설명한다.
도 5a를 참조하면, 전자 장치 101은 전자 장치 101의 디스플레이 모듈 150 및/또는 지문 감지 센서 311에 설정된 가상의 좌표계 500을 기준으로 디스플레이 모듈 150에 입력되는 드래그 입력 및/또는 지문 감지 센서 311에 입력되는 지문 정보 입력의 입력 진행 방향을 감지할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 도 5a의 입력 501과 같이 지문 감지 센서 311에 수직 방향으로 입력 수단을 인식하도록 디스플레이 모듈 150의 지정된 위치를 터치하여 시작하는 드래그 동작을 수행할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 입력되는 드래그 동작의 진행 방향 및/또는 지문 감지 센서 311에 입력되는 지문 정보 인식 동작의 진행 방향을 결정할 수 있다. 예를 들어, 전자 장치 101은 결정한 입력 501의 진행 방향이 90도(단위: 각도, °) 502의 각도에 대응하는 전자 장치 101의 기능을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 5b를 참조하여 설명한다.
도 5b를 참조하면, 전자 장치 101은 전자 장치 101의 디스플레이 모듈 150 및/또는 지문 감지 센서 311에 설정된 가상의 좌표계 500을 기준으로 디스플레이 모듈 150에 입력되는 드래그 입력 및/또는 지문 감지 센서 311에 입력되는 지문 정보 입력의 입력 진행 방향을 감지할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 도 5b의 입력 503과 같이 지문 감지 센서 311의 좌측 및 상측 대각선 방향에서 지정된 각도를 가지고 입력 수단을 인식하도록 디스플레이 모듈 150의 지정된 위치를 터치하여 시작되는 드래그 동작을 수행할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 입력되는 드래그 동작의 진행 방향 및/또는 지문 감지 센서 311에 입력되는 지문 정보 인식 동작의 진행 방향을 결정할 수 있다. 예를 들어, 전자 장치 101은 결정한 입력 503의 진행 방향이 x도(예: 120도) 504의 각도에 대응하는 전자 장치 101의 기능을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 5c를 참조하여 설명한다.
도 5c를 참조하면, 전자 장치 101은 전자 장치 101의 디스플레이 모듈 150 및/또는 지문 감지 센서 311에 설정된 가상의 좌표계 500을 기준으로 디스플레이 모듈 150에 입력되는 드래그 입력 및/또는 지문 감지 센서 311에 입력되는 지문 정보 입력의 입력 진행 방향을 감지할 수 있다. 전자 장치 101 디스플레이 모듈 150에 입력되는 드래그 입력의 진행 방향이 한번 또는 그 이상 변화되는 경우, 변화된 드래그 방향을 감지할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 도 5c의 입력 505와 같이 디스플레이 모듈 150의 지정된 위치에서 시작된 드래그 동작이 입력되는 방향이 한 번 또는 그 이상 변하는 것을 감지할 수 있다. 예를 들어, 전자 장치 101은 디스플레이 모듈 150의 지정된 위치를 터치하여 좌측 하단 방향으로 드래그 동작을 수행할 수 있고, 수행 중인 드래그 동작의 진행 방향을 변경(예: y도 변경 506)하여 수행하는 드래그 입력을 감지할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 입력 중인 드래그 동작의 진행 방향이 변경되고, 변경된 진행 방향으로 입력되는 드래그 동작을 감지할 수 있다. 전자 장치 101은 드래그 동작에 연속해서 지문 감지 센서 311에 입력되는 입력 수단의 지문 정보를 감지할 수 있고, 진행 방향이 변경된 드래그 입력 및 입력된 지문 정보를 참조하여 대응하는 전자 장치 101의 기능을 수행할 수 있다.
도 6a 및 도 6b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 수행할 수 있다.
전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311의 입력을 참조하여 지정된 전자 장치 101의 기능을 수행함에 있어서, 디스플레이 모듈 150에 입력되는 하나 또는 그 이상의 정보를(예: 패턴) 구분하여 전자 장치 101의 기능을 설정할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 6a를 참조하여 설명한다.
도 6a를 참조하면, 전자 장치 101은 입력 수단으로 디스플레이 모듈 150에 지정된 패턴의 드래그 입력을 수할 수 있고, 드래그 입력에 연속해서 지문 감지 센서 311에 입력 수단의 지문 정보를 입력하는 동작을 수행할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 입력된 정보 및/또는 지문 감지 센서 311에 입력된 지문 정보를 참조하여 지정된 전자 장치 101의 기능을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150에 입력되는 패턴을 감지할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 입력된 정보가 전자 장치 101의 메모리 130에 지정된 패턴인지 여부를 결정할 수 있다. 예를 들어, 전자 장치 101은 입력 수단으로 디스플레이 모듈 150에 입력하는 정보(예: 'ㄴ' 형태의 패턴)을 감지할 수 있고, 연속해서 지문 정보 인식 모듈 311에 입력하는 지문 정보를 획득할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 입력된 'ㄴ' 형태의 패턴에 대응하는 '제 1 웹 페이지(web page)'를 표시하기 위한 하나 또는 그 이상의 프로그램을 실행할 수 있고, 디스플레이 모듈 150에 '제 1 웹 페이지'를 표시할 수 있다. 전자 장치 101에서 디스플레이 모듈 150을 통한 입력에 대응하여 메모리에 기 설정된 패턴은 예컨대, 철자, 문자, 문자열, 숫자, 기호, 도형, 문양 중에서 하나 또는 그 이상의 조합으로 결정할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 6b를 참조하여 설명한다.
도 6b를 참조하면, 전자 장치 101은 디스플레이 모듈 150을 통한 드래그 입력 및 지문 감지 센서 311을 통한 지문 정보 입력을 참조하여 전자 장치 101의 지정된 기능을 결정함에 있어서, 디스플레이 모듈 150에 입력되는 정보를 참조하여 전자 장치 101의 지정된 기능을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 입력 수단으로 디스플레이 모듈 150에 입력하는 정보(예: 숫자 '5' 형태의 패턴)을 감지할 수 있고, 연속해서 지문 정보 인식 모듈 311에 입력하는 지문 정보를 획득할 수 있다.
전자 장치 101은 입력되는 숫자 '5'에 대한 정보를 획득함에 있어서 입력 수단으로 디스플레이 모듈 150에 터치하여 드래그하는 도중에 한번 또는 그 이상 입력 수단을 디스플레이 모듈 150에서 터치 해제하는 동작을 감지할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 숫자 '5'의 정보를 드래그 입력 611 도중에 입력 수단을 터치 해제한 후 입력 수단으로 디스플레이 모듈 150을 다시 터치 및 드래그 613하여 입력 중이던 숫자 '5'의 패턴 입력을 완성할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 드래그 입력 도중에 터치 해제 후 다시 터치 동작을 감지하는 경우, 터치 해제를 감지하고 다시 터치한 것을 감지한 시간 간격이 전자 장치 101에 지정된 시간 간격보다 짧은지 여부를 결정할 수 있고, 터치 해제를 감지하고 다시 터치한 것을 감지한 시간 간격이 전자 장치 101에 지정된 시간 간격보다 짧은 경우 해당 터치 및 드래그 입력이 터치 해제 전의 숫자 '5'의 패턴을 그리는 입력에 연속된 입력으로 결정할 수 있다. 전자 장치 101은 입력 수단으로 디스플레이 모듈 150에 지정된 패턴(예: 숫자 '5')을 입력하고 연속해서 지문 감지 센서 311에 입력 수단의 지문 정보를 인식할 수 있고, 전자 장치 101은 입력된 숫자 '5' 및 지문 정보에 대응하는 전자 장치 101의 지정된 기능을 수행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 지문 감지 센서 311에 지문 정보를 입력하기 직전의 디스플레이 모듈 150에 입력되는 지정된 패턴의 드래그 동작(예: 지문 감지 센서 311에 입력 수단의 지문 정보를 입력하기 위해서 이동하는 동안의 드래그 동작 615)은 디스플레이 모듈 150에 입력되는 패턴 및 지문 정보를 기반으로 전자 장치 101의 기능을 결정하는데 참조하지 않도록 설정할 수 있다.
도 7a 및 도 7b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
전자 장치 101은 디스플레이 모듈 150에 입력되는 패턴 및 지문 감지 센서 311에 입력되는 지문 정보를 참조하여 대응하는 명령을 결정함에 있어서, 디스플레이 모듈 150을 터치하는 시점부터 지문 감지 센서 311에 지문 정보를 입력하는 시점까지 걸리는 시간을 참조하여 입력에 대응하는 전자 장치 101의 지정된 기능을 결정할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 7a를 참조하여 설명한다.
도 7a를 참조하면, 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311을 통한 입력 및 입력에 소요되는 시간 정보를 추가로 포함하여 대응하는 명령을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에서 수행되는 제 1 입력 701이 '3 초'를 기준으로 '3 초' 이내에 수행되는 경우 상술한 제 1 입력 701에 대응하는 전자 장치 101의 기능(예: 제 1 프로그램 호출)을 수행하는 것으로 설정될 수 있다. 전자 장치 101은 제 1 입력 701을 참조하여 입력 수단으로 디스플레이 모듈 150의 지정된 위치를 터치하여 시작하는 드래그 입력 및 드래그 입력의 패턴을 감지할 수 있다. 전자 장치 101은 드래그 동작을 수행하고 지문 감지 센서 311에 입력 수단의 지문 정보를 인식시키기까지 소비되는 시간(예: '2초')을 확인할 수 있다. 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 수행하는 제 1 입력 701이 '3초' 이내에 완료된 것을 결정할 수 있고, 지정된 제 1 프로그램을 호출할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에서 수행되는 전자 장치 101에서 제 1 입력과 동일한 입력으로 결하는 제 2 입력(미도시)이 '3 초'를 기준으로 '3 초'를 넘겨 수행되는 경우 상술한 제 2 입력(미도시)에 대응하는 전자 장치 101의 기능(예: 제 2 프로그램 호출)을 수행하는 것으로 설정될 수 있다. 전자 장치 101은 제 2 입력(미도시)을 참조하여 입력 수단으로 디스플레이 모듈 150의 지정된 위치를 터치하여 시작하는 드래그 입력 및 드래그 입력의 패턴을 감지할 수 있다. 전자 장치 101은 드래그 동작을 수행하고 지문 감지 센서 311에 입력 수단의 지문 정보를 인식시키기까지 소비되는 시간(예: '5초')을 확인할 수 있다. 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 수행하는 제 2 입력(미도시)이 '3초'를 넘겨 완료된 것을 결정할 수 있고, 지정된 제 2 프로그램을 호출할 수 있다.
전자 장치 101은 디스플레이 모듈 150에 지정된 패턴의 드래그 입력, 지문 감지 센서 311에 입력되는 지문 정보 및 상술한 드래그 입력 및 지문 정보 입력에 소요되는 시간을 확인할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 입력되는 동일 또는 유사한 드래그 입력 및 동일한 입력 수단으로 지문 정보 인식 센서 311에 동일한 지문 정보를 입력함에도 불구하고, 상술한 제 2 입력(미도시)을 완료하는 시간에 따라서 전자 장치 101의 다른 기능을 수행할 수도 있다.
상술한 도 7a의 다양한 실시 예에 따르면, 전자 장치 101은 '3초'를 기준으로 '3초' 이내에 완료되는 제 2 입력(미도시) 및 '3초'를 넘겨 완성되는 제 2 입력(미도시)을 구분하여 설명하고 있다. 전자 장치 101은 상술한 기준 시간을 정하여 제 2 입력(미도시)에 대응하는 전자 장치 101의 기능을 결정하는 것에 한정하지 않고, 디스플레이 모듈 150 및 지문 감지 센서 311에 수행된 제 2 입력(미도시)이 하나 또는 그 이상의 지정된 시간 범위(예: 1초~3초, 3초~5초, 5초~7초)중에 하나에 포함되는지 여부에 따라서 지정된 시간 범위에 대응하는 전자 장치 101의 기능을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 7b를 참조하여 설명한다.
도 7b를 참조하면, 전자 장치 101은 디스플레이 모듈 150에 터치를 유지하는 시간 및 지문 감지 센서 311에 입력되는 지문 정보를 참조하여 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150에 터치한 후 지문 감지 센서 311에 지문 정보를 인식시키는 시간 간격(예: 디스플레이 모듈 150에 터치를 유지한 시간)에 대응하여 수행하는 전자 장치 101의 기능을 설정할 수 있다. 전자 장치 101은 디스플레이 모듈 150 및 지문 정보 장치를 통해서 수행되는 입력 711의 수행 완료 시간이 '2 초 713'인 것으로 결정할 수 있고, 설정 정보를 참조하여 '2 초 713'에 대응하는 전자 장치 101의 지정된 기능(예: 제 1 프로그램 호출)을 수행할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150에 터치를 유지하는 시간 및 지문 감지 센서 311에 입력된 지문 정보에 대응하여 전자 장치 101에서 수행하는 지정된 기능을 설정한 경우, 도 7a의 제 1 입력 701에서 디스플레이 모듈 150에 입력된 패턴이 입력 711에서 디스플레이 모듈 150에 입력된 패턴과 다르더라도 지문 감지 센서 311에 입력된 지문 정보가 동일한 지문 정보인 것으로 결정하고, 디스플레이 모듈 150에 터치를 유지한 시간이 동일(예: '2 초')한 것으로 결정되면 입력 711에 대응하여 지정된 제 1 프로그램을 호출하는 동작을 수행할 수 있다.
도 8a 및 도 8b는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
이하에서 본 발명의 다양한 실시 예를 도 8a를 참조하여 설명한다.
전자 장치 101은 상술한 다양한 실시 예를 참조하면, 디스플레이 모듈 150을 터치하여 지정된 패턴을 드래그 입력할 수 있고, 연속해서 지문 감지 센서 311에 지문 정보를 입력하는 순서를 추가로 더 포함하여 대응하는 전자 장치 101의 기능을 설정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150에 지정된 제 1 스크린에 입력되는 정보를 입력하고, 지정된 손가락의 제 1 지문 정보를 입력하는 경우 대응하는 기능을 설정함에 있어서, 제 1 스크린에 입력되는 정보 입력 후 제 1 지문 정보를 입력하는 경우와 제 1 지문 정보를 입력한 후 제 1 스크린에 입력되는 정보를 입력하는 경우에 수행하는 가능을 다르게 설정할 수 있다.
한 실시 예에 따르면, 전자 장치 101은 지문 감지 센서 311에 입력 수단의 지문 정보를 입력한 후에 연속해서 가상의 'A 영역', 'B 영역' 및 'C 영역'으로 구분된 디스플레이 모듈 150의 'A 영역'의 지정된 위치까지 드래그 입력할 수 있고, 입력 수단을 터치 해제할 수 있다. 전자 장치 101은 입력된 지문 정보, 연속해서 수행된 디스플레이 모듈 150에 드래그 동작 및 'A 영역'에서의 터치 해제 동작 801에 대응하여 전자 장치 101에 설정된 지정된 기능이 전자 장치 101의 카메라 촬영 모드인 경우 해당 카메라 ?k영 모드를 수행할 수 있다. 전자 장치 101은 상술한 카메라 촬영 모드의 지문 정보 입력 및 스크린에 입력되는 정보 입력에서 순서를 벼경하여 스크린에 입력되는 정보를 입력한 후 지문 정보를 입력한 경우에는 카메라 촬영 모드가 아닌 전자 장치 101에 설정된 지정된 동작을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 8b를 참조하여 설명한다.
도 8b를 참조하면, 전자 장치 101은 지문 감지 센서 311에 입력 수단의 지문 정보를 입력한 후에 연속해서 디스플레이 모듈 150에 지정된 패턴을 드래그 입력할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 감지 센서 311에 입력 수단의 지문 정보를 입력할 수 있고, 연속해서 디스플레이 모듈 150에 지정된 패턴(예: 입력 811의 별표 형태의 패턴)을 드래그 입력할 수 있고, 지정된 패턴의 드래그 입력을 완료한 후 디스플레이 모듈 150에서 입력 수단을 터치 해제할 수 있다. 전자 장치 101은 지문 감지 센서 311에 지문 정보를 입력하고 연속해서 디스플레이 모듈 150에 입력된 입력 811에 대응하여 전자 장치 101에 설정된 지정된 기능을 수행할 수 있다. 전자 장치 101은 지ㅓㅇ된 패턴으로 별표 형태의 패턴 뿐만 아니라 삼각형, 사각형, 원 또는 사용자가 입력한 다양한 기하학적 패턴을 정하여 설정할 수도 있다.
도 9는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작을 도시한다.
전자 장치 101은 디스플레이 모듈 150에 수행되는 드래그 입력과 조합하여 지문 감지 센서 311에 입력되는 지문 정보를 획득함에 있어서, 디스플레이 모듈 150에 수행되는 드래그 입력을 참조하여 지문 감지 센서 311에 입력된 지문 정보를 재설정할 수 있다.
도 9의 (a)를 참조하면, 전자 장치 101은 디스플레이 모듈 150에 수행되는 드래그 입력을 감지할 수 있다. 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 수행되는 입력 901을 참조하여 지문 감지 센서 311에 입력되는 지문 정보의 기울기를 결정할 수 있다. 예를 들어, 전자 장치 101은 디스플레이 모듈 150에 수행된 드래그 입력의 궤적을 획득할 수 있고, 디스플레이 모듈 150에 설정된 가상의 좌표를 참조하여 드래그 입력의 기울기 및/또는 기울기의 변화를 결정할 수 있다. 전자 장치 101은 디스플레이 모듈 150에 수행된 드래그 입력에 연속해서 지문 감지 센서 311에 입력된 지문 정보의 기울기를 결정함에 있어서 상술한 드래그 입력의 기울기 또는 지문 감지 센서 311에 지문 정보가 입력되기 직전에 획득한 기울기의 변화를 기반으로 결정할 수 있다.
도 9의 (b)를 참조하면, 전자 장치 101은 상술한 입력 901의 드래그 동작에서 결정한 기울기 905를 획득한 지문 정보 903에 적용하여 지문 정보 903의 기울기를 재설정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150의 스크린에 입력되는 정보가 입력된 기울기 또는 기울기의 변화를 기반으로 입력한 지문 정보의 기울기를 결정할 수 있고, 전자 장치 101은 입력한 지문 정보를 전자 장치 101에서 감지할 수 있는 범위의 기울기로 회전할 수 있다. 전자 장치 101은 재설정한 지문 정보 907을 전자 장치 101에 설정된 하나 또는 그 이상의 지문 정보와 비교할 수 있다.
도 10a 내지 도 10d는 다양한 실시 예에 따른 전자 장치 101에서 입력을 처리하는 동작의 흐름도이다.
전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 입력되는 정보를 참조하여 입력된 정보에 대응하여 전자 장치 101에 설정된 지정된 기능을 수행할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 10a를 참조하여 설명한다.
동작 1001에서 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 입력된 정보를 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 입력 수단으로 디스플레이 모듈 150에 터치를 유지한 채 드래그하여 지정된 패턴을 그리는 드래그 입력에 대한 스크린에 입력되는 정보를 획득할 수 있고, 지문 감지 센서 311에 입력되는 입력 수단의 지문 정보를 획득할 수 있다. 전자 장치 101은 스크린에 입력되는 정보 및 지문 정보를 획득함에 있어서, 지문 정보가 먼저 입력되고 연속해서 스크린에 입력되는 정보가 입력되는지, 스크린에 입력되는 정보가 입력되고 연속해서 지문 정보가 입력되는지, 스크린에 입력되는 정보 입력 중에 디스플레이 모듈 150에서 한 번 또는 그 이상 입력 수단의 터치 해제 및 재터치(및 드래그 입력)를 감지하는 경우 그 횟수, 스크린에 입력되는 정보 입력 중에 한 번 또는 그 이상의 드래그 입력의 방향을 전환을 감지하는 경우 그 횟수, 디스플레이 모듈 150의 스크린에 입력되는 정보를 입력하는 시간 중에서 하나 또는 그 이상의 정보를 획득할 수 있다.
동작 1003에서 전자 장치 101은 획득한 스크린에 입력되는 정보 및 지문 정보를 참조하여 전자 장치 101에 설정된 명령을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 스크린에 입력되는 정보에 포함된 패턴 및 지문 정보의 지문 정보와 매칭되는 전자 장치 101의 지정된 기능 수행 명령을 전자 장치 101의 메모리 130에서 결정할 수 있고, 결정한 동작을 수행할 수 있다.
다른 실시 예에 따르면, 전자 장치 101은 획득한 스크린에 입력되는 정보 및 지문 정보에 대응하여 수행하는 전자 장치 101의 기능을 결정함에 있어서 동일한 패턴 입력으로 결정할 수 있는 스크린에 입력되는 정보 및 동일한 지문 정보로 결정할 수 있는 지문 정보를 획득하는 경우 스크린에 입력되는 정보를 입력하고 연속해서 지문 정보를 입력하는지 또는 지문 정보를 입력하고 연속해서 스크린에 입력되는 정보를 입력하는지를 구분하여 전자 장치 101의 다른 기능을 수행하도록 설정할 수 있다.
다른 실시 예에 따르면, 전자 장치 101은 획득한 스크린에 입력되는 정보 및 지문 정보에 디스플레이 모듈 150에 터치를 유지한 상태에서 수행하는 드래그 입력 시간 정보를 참조하여 대응하는 전자 장치 101의 기능을 결정할 수 있다. 전자 장치 101은 설정 정보를 참조하여 스크린에 입력되는 정보, 지문 정보 및 시간 정보에 매칭되는 전자 장치 101의 기능을 결정함에 있어서, 디스플레이 모듈 150에 입력되는 드래그 입력의 패턴은 고려하지 않는 상태에서 디스플레이 모듈 150에 터치가 유지되는 시간 및 지문 정보와 매칭되는 전자 장치 101의 기능을 결정할 수 있고, 디스플레이 모듈 150에 입력되는 드래그 입력의 패턴, 디스플레이 모듈 150에 터치가 유지되는 시간 및 지문 정보를 모두 참조하여 매칭되는 전자 장치 101의 기능을 결정할 수도 있다.
전자 장치 101은 동작 1003을 수행하면 도 10a의 실시 예를 종료할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 10b를 참조하여 설명한다.
동작 1011에서 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 입력된 정보를 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 입력 수단으로 디스플레이 모듈 150에 터치를 유지한 채 드래그하여 지정된 패턴을 그리는 드래그 입력에 대한 스크린에 입력되는 정보를 획득할 수 있고, 지문 감지 센서 311에 입력되는 입력 수단의 지문 정보를 획득할 수 있다. 전자 장치 101은 스크린에 입력되는 정보 및 지문 정보를 획득함에 있어서, 지문 정보가 먼저 입력되고 연속해서 스크린에 입력되는 정보가 입력되는지, 스크린에 입력되는 정보가 입력되고 연속해서 지문 정보가 입력되는지, 스크린에 입력되는 정보 입력 중에 디스플레이 모듈 150에서 한 번 또는 그 이상 입력 수단의 터치 해제 및 재터치(및 드래그 입력)를 감지하는 경우 그 횟수, 스크린에 입력되는 정보 입력 중에 한 번 또는 그 이상의 드래그 입력의 방향을 전환을 감지하는 경우 그 횟수, 디스플레이 모듈 150의 스크린에 입력되는 정보를 입력하는 시간 중에서 하나 또는 그 이상의 정보를 획득할 수 있다.
동작 1013에서 전자 장치 101은 전자 장치 101의 데이터베이스를 참조하여 획득한 스크린에 입력되는 정보 및 획득한 지문 정보와 매칭되는 설정 정보를 결정할 수 있다. 여기에서 상술한 설정 정보는 전자 장치 101의 디스플레이 모듈 150에 입력한 지정된 스크린에 입력되는 정보 및 지문 감지 센서에 입력한 지정된 지문 정보를 조합한 스크린에 입력되는 정보 및 지문 정보에 전자 장치 101에서 수행할 수 있는 하나 또는 그 이상의 기능을 지정하여 전자 장치 101의 데이터베이스에 저장된 정보를 의미할 수 있다. 전자 장치 101은 데이터베이스에 하나 또는 그 이상의 설정 정보를 포함할 수 있다. 전자 장치 101은 획득한 스크린에 입력되는 정보 및 획득한 지문 정보와 매칭되는 설정 정보를 결정한 경우 동작 1015를 수행할 수 있고, 매칭되는 설정 정보를 결정하지 못한 경우 도 10b의 동작을 종료할 수 있다.
동작 1015에서 전자 장치 101은 결정한 설정 정보에 따라서 전자 장치 101의 지정된 동작을 수행할 수 있다. 전자 장치 101은 전자 장치 101의 디스플레이 모듈 150에 결정한 설정 정보에 대응하여 수행하는 전자 장치 101의 지정된 동작에 대한 화면 구성을 표시할 수 있다.
전자 장치 101은 동작 1015를 수행하면 도 10b의 실시 예를 종료할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 10c를 참조하여 설명한다.
동작 1021에서 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 입력된 정보를 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 입력 수단으로 디스플레이 모듈 150에 터치를 유지한 채 드래그하여 지정된 패턴을 그리는 드래그 입력에 대한 스크린에 입력되는 정보를 획득할 수 있고, 지문 감지 센서 311에 입력되는 입력 수단의 지문 정보를 획득할 수 있다. 전자 장치 101은 스크린에 입력되는 정보 및 지문 정보를 획득함에 있어서, 지문 정보가 먼저 입력되고 연속해서 스크린에 입력되는 정보가 입력되는지, 스크린에 입력되는 정보가 입력되고 연속해서 지문 정보가 입력되는지, 스크린에 입력되는 정보 입력 중에 디스플레이 모듈 150에서 한 번 또는 그 이상 입력 수단의 터치 해제 및 재터치(및 드래그 입력)를 감지하는 경우 그 횟수, 스크린에 입력되는 정보 입력 중에 한 번 또는 그 이상의 드래그 입력의 방향을 전환을 감지하는 경우 그 횟수, 디스플레이 모듈 150의 스크린에 입력되는 정보를 입력하는 시간 중에서 하나 또는 그 이상의 정보를 획득할 수 있다.
동작 1023에서 전자 장치 101은 디스플레이 모듈 150의 스크린에 입력되는 정보를 참조하여 지문 감지 센서 311에 입력된 지문 정보의 기울기를 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150의 스크린에 입력되는 정보를 입력하고 연속해서 지문 감지 센서 311에 지문 정보를 입력한 경우 지문 정보를 입력하기 전 디스플레이 모듈 150의 스크린에 입력되는 정보의 기울기를 지문 감지 센서 311에 입력된 지문 정보의 기울기에 적용할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 지문 감지 센서 311에 지문 정보를 입력하고 연속해서 디스플레이 모듈 150의 스크린에 입력되는 정보를 입력한 경우, 지문 정보를 입력한 후 디스플레이 모듈 150의 스크린에 입력되는 정보의 기울기를 지문 감지 센서에 입력된 지문 정보의 기울기에 적용할 수 있다.
동작 1025에서 전자 장치 101은 디스플레이 모듈 150의 스크린에 입력되는 정보를 참조하여 지문 감지 센서 311에 입력된 지문 정보를 재설정(보정)할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 지문 감지 센서 311에 입력된 지문 정보와 동일 또는 유사한 전자 장치 101에 저장된 지문 정보를 결정하지 못한 경우, 디스플레이 모듈 150의 스크린에 입력되는 정보를 참조하여 결정된 지문 정보의 기울기를 전자 장치 101에서 지문 정보를 감지할 수 있는 기울기로 재설정할 수 있다. 전자 장치 101은 지문 감지 센서 311에 입력된 지문 정보를 시계 방향 또는 반시계 방향으로 회전하여 지문 정보의 기울기를 보정할 수 있다.
동작 1027에서 전자 장치 101은 획득한 스크린에 입력되는 정보 및 지문 정보를 참조하여 전자 장치 101에 설정된 명령을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 스크린에 입력되는 정보에 포함된 패턴 및 지문 정보의 지문 정보와 매칭되는 전자 장치 101의 지정된 기능 수행 명령을 전자 장치 101의 메모리 130에서 결정할 수 있고, 결정한 동작을 수행할 수 있다.
다른 실시 예에 따르면, 전자 장치 101은 획득한 스크린에 입력되는 정보 및 지문 정보에 대응하여 수행하는 전자 장치 101의 기능을 결정함에 있어서 동일한 패턴 입력으로 결정할 수 있는 스크린에 입력되는 정보 및 동일한 지문 정보로 결정할 수 있는 지문 정보를 획득하는 경우 스크린에 입력되는 정보를 입력하고 연속해서 지문 정보를 입력하는지 또는 지문 정보를 입력하고 연속해서 스크린에 입력되는 정보를 입력하는지를 구분하여 전자 장치 101의 다른 기능을 수행하도록 설정할 수 있다.
다른 실시 예에 따르면, 전자 장치 101은 획득한 스크린에 입력되는 정보 및 지문 정보에 디스플레이 모듈 150에 터치를 유지한 상태에서 수행하는 드래그 입력 시간 정보를 참조하여 대응하는 전자 장치 101의 기능을 결정할 수 있다. 전자 장치 101은 설정 정보를 참조하여 스크린에 입력되는 정보, 지문 정보 및 시간 정보에 매칭되는 전자 장치 101의 기능을 결정함에 있어서, 디스플레이 모듈 150에 입력되는 드래그 입력의 패턴은 고려하지 않는 상태에서 디스플레이 모듈 150에 터치가 유지되는 시간 및 지문 정보와 매칭되는 전자 장치 101의 기능을 결정할 수 있고, 디스플레이 모듈 150에 입력되는 드래그 입력의 패턴, 디스플레이 모듈 150에 터치가 유지되는 시간 및 지문 정보를 모두 참조하여 매칭되는 전자 장치 101의 기능을 결정할 수도 있다.
전자 장치 101은 동작 1003을 수행하면 도 10b의 실시 예를 종료할 수 있다.
이하에서 본 발명의 다양한 실시 예를 도 10c를 참조하여 설명한다.
동작 1031에서 전자 장치 101은 디스플레이 모듈 150 및 지문 감지 센서 311에 입력된 정보를 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 입력 수단으로 디스플레이 모듈 150에 터치를 유지한 채 드래그하여 지정된 패턴을 그리는 드래그 입력에 대한 스크린에 입력되는 정보를 획득할 수 있고, 지문 감지 센서 311에 입력되는 입력 수단의 지문 정보를 획득할 수 있다. 전자 장치 101은 스크린에 입력되는 정보 및 지문 정보를 획득함에 있어서, 지문 정보가 먼저 입력되고 연속해서 스크린에 입력되는 정보가 입력되는지, 스크린에 입력되는 정보가 입력되고 연속해서 지문 정보가 입력되는지, 스크린에 입력되는 정보 입력 중에 디스플레이 모듈 150에서 한 번 또는 그 이상 입력 수단의 터치 해제 및 재터치(및 드래그 입력)를 감지하는 경우 그 횟수, 스크린에 입력되는 정보 입력 중에 한 번 또는 그 이상의 드래그 입력의 방향을 전환을 감지하는 경우 그 횟수, 디스플레이 모듈 150의 스크린에 입력되는 정보를 입력하는 시간 중에서 하나 또는 그 이상의 정보를 획득할 수 있다.
동작 1033에서 전자 장치 101은 데이터베이스를 참조하여, 획득한 지문 정보와 매칭되는 데이터베이스의 지문 정보에서 검색할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 하나 또는 그 이상의 지문 정보를 지문 감지 센서 311을 통해서 입력받을 수 있고, 입력받은 하나 또는 그 이상의 지문 정보 및/또는 스크린에 입력되는 정보를 조합한 설정 정보에 대응하여 전자 장치 101에서 수행할 수 있는 하나 또는 그 이상의 기능을 지정하여 설정 정보로 저장할 수 있다. 전자 장치 101은 지문 감지 센서 311을 통해서 획득한 지문 정보를 데이터베이스에 저장된 하나 또는 그 이상의 지문 정보와 비교하여 매칭되는 지문 정보를 결정할 수 있다. 전자 장치 101은 매칭되는 지문 정보를 결정한 경우 동작 1039를 결정할 수 있고, 매칭되는 지문 정보를 결정하지 못한 경우 동작 1035를 수행할 수 있다.
동작 1035에서 전자 장치 101은 획득한 스크린에 입력되는 정보를 참조하여 지문 감지 센서 311에 입력된 지문 정보의 기울기를 보정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 모듈 150의 스크린에 입력되는 정보를 입력하고 연속해서 지문 감지 센서 311에 지문 정보를 입력한 경우 지문 정보를 입력하기 전 디스플레이 모듈 150의 스크린에 입력되는 정보의 기울기를 지문 감지 센서 311에 입력된 지문 정보의 기울기에 적용할 수 있다. 다른 실시 예에 따르면, 전자 장치 101은 지문 감지 센서 311에 지문 정보를 입력하고 연속해서 디스플레이 모듈 150의 스크린에 입력되는 정보를 입력한 경우, 지문 정보를 입력한 후 디스플레이 모듈 150의 스크린에 입력되는 정보의 기울기를 지문 감지 센서에 입력된 지문 정보의 기울기에 적용할 수 있다. 전자 장치 101은 데이터베이스에 저장된 지문 정보를 참조하여 획득한 지문 정보와 동일 또는 유사한 지문 정보를 결정하지 못한 경우, 디스플레이 모듈 150의 스크린에 입력되는 정보를 참조하여 결정된 지문 정보의 기울기를 전자 장치 101에서 지문 정보를 감지할 수 있는 기울기로 재설정할 수 있다. 전자 장치 101은 지문 감지 센서 311에 입력된 지문 정보를 시계 방향 또는 반시계 방향으로 회전하여 지문 정보의 기울기를 보정할 수 있다.
동작 1039에서 전자 장치 101은 보정된 지문 정보 및 획득한 스크린에 입력되는 정보에 매칭되는 설정 정보를 결정할 수 있고, 설정 정보에 대응하여 전자 장치 101에 지정된 기능을 수행할 수 있다. 전자 장치 101은 전자 장치 101의 디스플레이 모듈 150에 결정한 설정 정보에 대응하여 수행하는 전자 장치 101의 지정된 동작에 대한 화면 구성을 표시할 수 있다.
전자 장치 101은 동작 1039를 수행하면 도 10d의 실시 예를 종료할 수 있다.
도 11은 다양한 실시 예들에 따른 하드웨어 1100의 블록도를 도시한다.
상기 하드웨어 1100은, 예를 들면, 도 1에 도시된 전자 장치 111의 전체 또는 일부를 구성할 수 있다. 도 11을 참조하면, 상기 하드웨어 1100은 하나 이상의 프로세서1110, SIM(subscriber identification module) 카드 1114, 메모리 1120, 통신 모듈 1130, 센서 모듈 1140, 사용자 입력 모듈 1150, 디스플레이 1160, 인터페이스 1170, 오디오 코덱 1180, 카메라 모듈 1191, 전력관리 모듈 1195, 배터리 1196, 인디케이터 1197 또는 모터 1198 를 포함할 수 있다.
상기 프로세서 1110(예: 상기 프로세서 120)는 하나 이상의 애플리케이션 프로세서(AP: application processor) 1111 또는 하나 이상의 커뮤니케이션 프로세서(CP: communication processor) 1113을 포함할 수 있다. 상기 프로세서1110은, 예를 들면, 도 1에 도시된 프로세서120일 수 있다. 도 11에서는 상기 AP 1111 및 상기 CP 1113가 프로세서 1110 내에 포함된 것으로 도시되었으나, 상기 AP 1111 와 상기 CP 1113은 서로 다른 IC 패키지들 내에 각각 포함될 수 있다. 한 실시 예에서는 상기 AP 1111 및 상기 CP 1113은 하나의 IC 패키지 내에 포함될 수 있다.
상기 AP 1111은 운영체제 또는 응용 애플리케이션을 구동하여 상기 AP 1111에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어하고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 1111은, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 상기 프로세서 1110은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 CP 1113은 상기 하드웨어 1100을 포함하는 전자 장치(예: 상기 전자 장치 111)와 네트워크로 연결된 다른 전자 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. 상기 CP 1113은, 예를 들면, SoC로 구현될 수 있다. 한 실시 예에 따르면, 상기 CP 1113은 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다. 상기 CP 1113은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 1114)을 이용하여 통신 네트워크 내에서 단말의 구별 및 인증을 수행할 수 있다. 또한, 상기 CP 1113은 사용자에게 음성 통화, 영상 통화, 텍스트 메시지 또는 패킷 데이터(packet data) 등의 서비스들을 제공할 수 있다.
또한, 상기CP 1113은 상기 통신 모듈 1130의 데이터 송수신을 제어할 수 있다. 도 11에서는, 상기 CP 1113, 상기 전력관리 모듈 1195 또는 상기 메모리1120 등의 구성요소들이 상기 AP 1111와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, 상기 AP 1111가 전술한 구성요소들의 적어도 일부(예: 상기 CP 1113)를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, 상기 AP 1111 또는 상기 CP 1113은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 1111 또는 상기 CP 1113은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 SIM 카드1114는 가입자 식별 모듈을 구현한 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 1114는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 1120은 내장 메모리 1122 또는 외장 메모리 1124를 포함할 수 있다. 상기 메모리1120은, 예를 들면, 도 1에 도시된 메모리130일 수 있다. 상기 내장 메모리 1122는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 상기 내장 메모리 1122는 Solid State Drive (SSD)의 형태를 취할 수도 있다. 상기 외장 메모리 1124는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다.
상기 통신 모듈 1130은 무선 통신 모듈 1131 또는 RF 모듈 1134를 포함할 수 있다. 상기 통신 모듈 1130은, 예를 들면, 도 1에 도시된 통신 모듈170일 수 있다. 상기 무선 통신 모듈 1131은, 예를 들면, WiFi 1133, BT(bluetooth) 1135, GPS 1137 또는 NFC(near field communication) 1139를 포함할 수 있다. 예를 들면, 상기 무선 통신 모듈 1131은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가적으로 또는 대체적으로, 상기 무선 통신 모듈 1131은 상기 하드웨어 1100을 네트워크(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)와 연결시키기 위한 네트워크 인터페이스(예: LAN card) 또는 모뎀 등을 포함할 수 있다.
상기 RF 모듈 1134는 데이터의 송수신, 예를 들면, RF 신호 또는 호출된 전자 신호의 송수신을 담당할 수 있다. 상기RF 모듈1134는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈1134는 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다.
상기 센서 모듈 1140은, 예를 들면, 제스쳐 센서 1140A, 자이로 센서 1140B, 기압 센서 1140C, 마그네틱 센서 1140D, 가속도 센서 1140E, 그립 센서 1140F, 근접 센서 1140G, RGB(red, green, blue) 센서 1140H, 생체 센서 1140I, 온/습도 센서 1140J, 조도 센서 1140K 또는 UV(ultra violet) 센서 1140M중의 적어도 하나를 포함할 수 있다. 상기 센서 모듈 1140은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 추가적으로/대체적으로, 상기 센서 모듈 1140은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시) 또는 지문 센서 등을 포함할 수 있다. 상기 센서 모듈1140은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.
상기 사용자 입력 모듈 1150은 터치 패널(touch panel) 1152, (디지털) 펜 센서(pen sensor) 1154, 키(key) 1156 또는 초음파 입력 장치 1158을 포함할 수 있다. 상기 사용자 입력 모듈 1150은, 예를 들면, 도 1에 도시된 입출력 인터페이스 140일수 있다. 상기 터치 패널 1152는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 1152는 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우, 직접 터치뿐만 아니라 근접 인식도 가능하다. 상기 터치 패널 1152는 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널1152는 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 1154는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키1156로서, 예를 들면, 키패드 또는 터치 키가 이용될 수 있다. 상기 초음파 입력 장치1158은 초음파 신호를 발생하는 펜을 통해, 단말에서 마이크(예: 마이크 1188)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시 예에 따르면, 상기 하드웨어 1100은 상기 통신 모듈 1130을 이용하여 이와 연결된 외부 장치(예: 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 1160은 패널 1162 또는 홀로그램 1164를 포함할 수 있다. 상기 디스플레이 1160은, 예를 들면, 도 1에 도시된 디스플레이 모듈 150일 수 있다. 상기 패널 1162는, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널1162는, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널1162는 상기 터치 패널 1152과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램1164는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 한 실시 예에 따르면, 상기 디스플레이 1160은 상기 패널 1162 또는 상기 홀로그램 1164를 제어하기 위한 제어회로를 더 포함할 수 있다.
상기 인터페이스 1110은, 예를 들면, HDMI(high-definition multimedia interface) 1112, USB(universal serial bus) 1114, 프로젝터 1116 또는 D-sub(D-subminiature) 1118을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스1110은, 예를 들면, SD(secure Digital)/MMC(multi-media card)(미도시) 또는 IrDA(infrared data association, 미도시)를 포함할 수 있다.
상기 오디오 코덱 1180은 음성과 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 코덱 1180은, 예를 들면, 스피커 1182, 리시버 1184, 이어폰 1186 또는 마이크 1188 등을 통해 입력 또는 출력되는 음성 정보를 변환시킬 수 있다.
상기 카메라 모듈 1191은 화상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 렌즈 또는 후면 렌즈), ISP(image signal processor, 미도시) 또는 플래쉬 LED(flash LED, 미도시)를 포함할 수 있다.
상기 전력관리 모듈 1195는 상기 하드웨어 1100의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력관리 모듈 1195는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 게이지(battery fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리1196의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리1196은 전기를 생성하여 전원을 공급할 수 있고, 예를 들면, 충전식 전지(rechargeable battery)일 수 있다.
상기 인디케이터 1197은 상기 하드웨어 1100 혹은 그 일부(예: 상기 AP 1111)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터1198은 전기적 신호를 기계적 진동으로 변환할 수 있다. 상기 MCU 1199는, 상기 센서 모듈 1140을 제어할 수 있다.
도시되지는 않았으나, 상기 하드웨어1100은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다. 본 발명의 다양한 실시 예에 따른 하드웨어의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 하드웨어는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 하드웨어의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명의 청구항 및/또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금, 본 발명의 청구항 및/또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM, Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM, Compact Disc-ROM), 디지털 다목적 디스크(DVDs, Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 전자 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 휴대용 전자 장치에 접속할 수도 있다.
본 발명의 다양한 실시 예에 사용된 용어“모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시 예에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 애플리케이션 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 1111)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 1120가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서 1111에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 애플리케이션, 루틴, 명령어 세트 (sets of instructions) 및/또는 프로세스 등을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 애플리케이션 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 애플리케이션 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
그리고 본 명세서와 도면에 발명된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 발명된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
101: 전자 장치 105: 입력 처리 모듈
150: 디스플레이 311: 지문 감지 모듈

Claims (22)

  1. 전자 장치의 동작 방법에 있어서,
    디스플레이 스크린에서 드래그 입력을 감지하고, 손가락 센서가 배치된 위치에서 시작하거나 종료되는 드래그 입력을 감지하는 동작;
    검출된 드래그 입력에 기초하여 디스플레이 스크린에 입력되는 정보 및 지문 감지 센서에 입력되는 지문 정보를 획득하는 동작;
    획득한 상기 스크린에 입력되는 정보 및 상기 지문 정보의 결합에 매칭되는 명령을 수행하는 동작을 포함하는 방법.
  2. 제 1 항에 있어서, 상기 명령을 수행하는 동작은,
    획득한 상기 스크린에 입력되는 정보 및 상기 지문 정보의 결합이 스크린에 입력되는 기준 정보 및 기준 지문 정보의 결합에 대응하는지 결정하는 동작; 및
    대응하는 경우, 획득한 상기 스크린에 입력되는 정보 및 상기 지문 정보의 결합에 대응하는 상기 전자 장치의 지정된 기능을 수행하는 동작을 포함하는 방법.
  3. 제 1 항에 있어서,
    상기 스크린에 입력되는 정보 및 상기 지문 정보는 동일한 입력 수단으로 입력하는 방법.
  4. 제 1 항에 있어서, 상기 스크린에 입력되는 정보는,
    입력 수단을 상기 디스플레이에 터치, 드래그, 터치 해제하는 제스처 중에서 하나 또는 그 이상으로 구성하는 방법.
  5. 제 1 항에 있어서, 상기 명령을 수행하는 동작은,
    상기 지문 정보 및 상기 스크린에 입력되는 정보가 입력되는 순서를 구분하여 결정한 상기 명령을 수행하는 동작 더 포함하는 방법.
  6. 제 1 항에 있어서, 상기 명령을 수행하는 동작은,
    상기 지문 정보 및 상기 스크린에 입력되는 정보에 상기 스크린에 입력되는 정보가 입력된 시간 정보를 추가로 포함하여 결정한 상기 명령을 수행하는 동작을 더 포함하는 방법.
  7. 제 1 항에 있어서, 상기 스크린에 입력되는 정보는,
    철자, 문자, 문자열, 숫자, 기호, 도형, 문양 중에서 하나 또는 그 이상의 조합으로 상기 디스플레이에 그려진 정보인 방법.
  8. 제 1 항에 있어서, 상기 스크린에 입력되는 정보는,
    하나 또는 그 이상의 가상의 영역으로 구분된 상기 디스플레이의 한 영역 또는 그 이상의 영역에서 수행되는 상기 드래그의 궤적 정보, 상기 드래그가 수행되는 시간 정보, 상기 드래그 길이 정보 및 상기 디스플레이에서 인지된 최초 입력 위치로부터 상기 지문 감지 센서까지의 거리 중에서 하나 또는 그 이상에 대한 정보인 방법.
  9. 제 1 항에 있어서, 상기 스크린에 입력되는 정보는,
    상기 디스플레이에 드래그 중인 입력 수단을 해제하고 지정된 시간 내에 재터치하여 드래그 동작을 계속 수행하는 경우, 상기 입력 수단을 해제하지 않은 것으로 결정하는 방법.
  10. 제 1 항에 있어서, 상기 스크린에 입력되는 정보는,
    상기 드래그 방향의 변화하는 경우, 상기 변화 횟수 또는, 변화 각도 중에서 하나 또는 그 이상에 대한 정보로 판단하는 방법.
  11. 제 1 항에 있어서, 상기 지문 정보는,
    상기 디스플레이의 스크린에 입력되는 정보를 참조하여 상기 지문 정보의 기울기를 재설정한 정보를 더 포함하는 방법.
  12. 전자 장치에 있어서,
    손가락 센서를 포함하는 적어도 하나의 센서;
    디스플레이 스크린에 입력되는 정보 및 지문 정보와 상기 디스플레이 스크린에 입력되는 정보 및 지문 정보의 결합에 대응하여 설정된 명령이 저장된 메모리;
    상기 디스플레이 스크린에 입력되는 정보 및 지문 감지 센서에 입력되는 상기 지문 정보를 획득하는 동작과, 상기 스크린에 입력되는 정보 및 상기 지문 정보의 결합에 매칭되는 상기 명령을 수행하는 입력 처리 모듈; 및
    상기 입력 처리 모듈을 제어하는 하나 또는 그 이상의 프로세서를 포함하고,
    상기 프로세서는 디스플레이 스크린에서 드래그 입력을 감지하고, 상기 손가락 센서가 배치된 위치에서 시작하거나 종료되는 드래그 입력을 감지하는 전자 장치.
  13. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    획득한 상기 스크린에 입력되는 정보 및 상기 지문 정보의 결합이 스크린에 입력되는 기준 정보 및 기준 지문 정보의 결합에 대응하는지 결정하는 동작과, 획득한 상기 스크린에 입력되는 정보 및 상기 지문 정보의 결합에 대응하는 상기 전자 장치의 지정된 기능을 수행하는 전자 장치.
  14. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    상기 스크린에 입력되는 정보 및 상기 지문 정보는 동일한 입력 수단으로 입력하는 상기 스크린에 입력되는 정보 및 상기 지문 정보를 획득하는 전자 장치.
  15. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    입력 수단을 상기 디스플레이에 터치, 드래그, 터치 해제하는 제스처 중에서 하나 또는 그 이상으로 상기 스크린에 입력되는 정보를 구성하는 전자 장치.
  16. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    상기 지문 정보 및 상기 스크린에 입력되는 정보가 입력되는 순서를 구분하여 결정한 상기 명령을 수행하는 전자 장치.
  17. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    상기 지문 정보 및 상기 스크린에 입력되는 정보에 상기 스크린에 입력되는 정보가 입력된 시간 정보를 추가로 포함하여 결정한 상기 명령을 수행하는 전자 장치.
  18. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    철자, 문자, 문자열, 숫자, 기호, 도형, 문양 중에서 하나 또는 그 이상의 조합으로 상기 디스플레이에 상기 드래그로 그려진 상기 스크린에 입력되는 정보를 결정하는 전자 장치.
  19. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    하나 또는 그 이상의 가상의 영역으로 구분된 상기 디스플레이의 한 영역 또는 그 이상의 영역에서 수행되는 상기 드래그의 궤적 정보, 상기 드래그가 수행되는 시간 정보 및 상기 드래그 길이 정보 및 상기 디스플레이에서 인지된 최초 입력 위치로부터 상기 지문 감지 센서까지의 거리 중에서 하나 또는 그 이상에 대한 정보를 상기 스크린에 입력되는 정보로 결정하는 전자 장치.
  20. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    상기 디스플레이에 드래그 중인 입력 수단을 터치 해제하고 지정된 시간 내에 재터치하여 드래그 동작을 계속 수행하는 경우, 상기 터치 해제하지 않은 것으로 상기 스크린에 입력되는 정보를 결정하는 전자 장치.
  21. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    상기 드래그 방향의 변화하는 경우, 상기 변화 횟수 및, 변화 각도 중에서 하나 또는 그 이상에 대한 정보를 상기 스크린에 입력되는 정보로 결정하는 전자 장치.
  22. 제 12 항에 있어서, 상기 입력 처리 모듈은,
    상기 디스플레이의 스크린에 입력되는 정보를 참조하여 상기 지문 정보의 기울기를 재설정하는 전자 장치.
KR1020140005128A 2014-01-15 2014-01-15 입력 처리 방법 및 그 전자 장치 KR102220447B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140005128A KR102220447B1 (ko) 2014-01-15 2014-01-15 입력 처리 방법 및 그 전자 장치
EP15151155.7A EP2897038B1 (en) 2014-01-15 2015-01-14 Method for processing input and electronic device thereof
US14/598,190 US9489127B2 (en) 2014-01-15 2015-01-15 Method for processing input and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140005128A KR102220447B1 (ko) 2014-01-15 2014-01-15 입력 처리 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20150085351A KR20150085351A (ko) 2015-07-23
KR102220447B1 true KR102220447B1 (ko) 2021-02-25

Family

ID=52396458

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140005128A KR102220447B1 (ko) 2014-01-15 2014-01-15 입력 처리 방법 및 그 전자 장치

Country Status (3)

Country Link
US (1) US9489127B2 (ko)
EP (1) EP2897038B1 (ko)
KR (1) KR102220447B1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102192159B1 (ko) * 2013-07-25 2020-12-16 삼성전자주식회사 디스플레이 방법 및 그 방법을 처리하는 전자 장치
KR102171082B1 (ko) * 2014-02-06 2020-10-28 삼성전자주식회사 지문 처리 방법 및 그 전자 장치
KR102475820B1 (ko) * 2015-07-07 2022-12-08 삼성메디슨 주식회사 의료 영상 처리 장치 및 그 동작방법
CN105184228A (zh) * 2015-08-13 2015-12-23 小米科技有限责任公司 移动设备及其屏幕模组、指纹采集方法、装置及电子设备
CN106570442B (zh) * 2015-10-09 2021-05-14 小米科技有限责任公司 指纹识别方法及装置
CN106709405B (zh) * 2015-11-16 2021-01-01 小米科技有限责任公司 移动设备及其屏幕模组、指纹采集方法、装置及电子设备
KR20180046609A (ko) * 2016-10-28 2018-05-09 삼성전자주식회사 홀 영역을 가지는 전자 장치 및 전자 장치의 홀 영역 제어방법
CN107292161A (zh) * 2017-06-27 2017-10-24 姚新波 一种可变指纹数字动态密码的组成方法
CN108415643B (zh) * 2018-03-16 2020-08-04 维沃移动通信有限公司 一种图标显示方法及终端
CN109976615B (zh) * 2019-03-28 2021-03-12 Oppo广东移动通信有限公司 指纹图像处理方法及相关装置
JP2024014590A (ja) * 2022-07-22 2024-02-01 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072758A (ja) * 2004-09-02 2006-03-16 Mitsubishi Electric Corp 指紋照合装置
US20130129162A1 (en) * 2011-11-22 2013-05-23 Shian-Luen Cheng Method of Executing Software Functions Using Biometric Detection and Related Electronic Device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289649B1 (en) * 2000-08-10 2007-10-30 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint imager
US20040085300A1 (en) * 2001-05-02 2004-05-06 Alec Matusis Device and method for selecting functions based on intrinsic finger features
KR101270379B1 (ko) 2006-10-18 2013-06-05 삼성전자주식회사 잠금 장치를 구비한 휴대용 단말기의 기능실행 방법
KR101549556B1 (ko) * 2009-03-06 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
KR101549557B1 (ko) * 2009-03-10 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8224392B2 (en) * 2009-04-29 2012-07-17 Lg Electronics Inc. Mobile terminal capable of recognizing fingernail touch and method of controlling the operation thereof
TW201113741A (en) * 2009-10-01 2011-04-16 Htc Corp Lock-state switching method, electronic apparatus and computer program product
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
KR101136153B1 (ko) * 2010-02-19 2012-04-16 성균관대학교산학협력단 지문 인식 또는 멀티 터치가 가능한 센서 그리드 방식의 투명 패널 사용자 입력 장치, 사용자 지문 인식 방법, 및 사용자 터치 인식 방법
KR20110103598A (ko) 2010-03-15 2011-09-21 주식회사 엘지유플러스 단말기의 잠금 해제 시스템 및 방법
KR20130008424A (ko) 2011-07-12 2013-01-22 삼성전자주식회사 휴대 단말기에서 바로 가기 기능을 실행하는 장치 및 방법
US20140003683A1 (en) * 2012-06-29 2014-01-02 Apple Inc. Far-Field Sensing for Rotation of Finger
US9710092B2 (en) * 2012-06-29 2017-07-18 Apple Inc. Biometric initiated communication
US9898642B2 (en) * 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072758A (ja) * 2004-09-02 2006-03-16 Mitsubishi Electric Corp 指紋照合装置
US20130129162A1 (en) * 2011-11-22 2013-05-23 Shian-Luen Cheng Method of Executing Software Functions Using Biometric Detection and Related Electronic Device

Also Published As

Publication number Publication date
EP2897038B1 (en) 2017-08-23
US20150199555A1 (en) 2015-07-16
EP2897038A1 (en) 2015-07-22
KR20150085351A (ko) 2015-07-23
US9489127B2 (en) 2016-11-08

Similar Documents

Publication Publication Date Title
KR102220447B1 (ko) 입력 처리 방법 및 그 전자 장치
KR102264808B1 (ko) 지문 처리 방법 및 그 전자 장치
KR102171082B1 (ko) 지문 처리 방법 및 그 전자 장치
KR102187255B1 (ko) 전자 장치의 디스플레이 방법 및 그 전자 장치
US9983767B2 (en) Apparatus and method for providing user interface based on hand-held position of the apparatus
US20150074418A1 (en) Method and apparatus for outputting recognized error of sensor in electronic device
US20150324004A1 (en) Electronic device and method for recognizing gesture by electronic device
US20160054821A1 (en) Electronic device and method for operating electronic device by electronic pen
KR102213190B1 (ko) 홈스크린 구성 방법 및 이를 이용한 전자 장치
US10949019B2 (en) Electronic device and method for determining touch coordinate thereof
EP2958006A1 (en) Electronic device and method for controlling display
KR102126568B1 (ko) 입력 데이터 처리 방법 및 그 전자 장치
KR102140290B1 (ko) 입력 처리 방법 및 그 전자 장치
KR102250780B1 (ko) 보안을 제어하기 위한 방법 및 그 전자 장치
KR102206060B1 (ko) 전자 장치의 효과 디스플레이 방법 및 그 전자 장치
KR20150111632A (ko) 지문 인식 방법 및 그 전자 장치
KR20150135837A (ko) 디스플레이 운용 전자장치 및 방법
US10037135B2 (en) Method and electronic device for user interface
KR20160036927A (ko) 고스트 터치 저감을 위한 방법 및 그 전자 장치
US20150220171A1 (en) Method for processing input and electronic device thereof
KR102332468B1 (ko) 기능 제어 방법 및 그 전자 장치
KR102220766B1 (ko) 메시지를 구성하는 전자 장치와 방법 및 메시지를 수신하여 실행하는 웨어러블 전자 장치와 방법
KR102241831B1 (ko) 전자 장치 및 이의 운영 방법
KR102246270B1 (ko) 전자 장치 및 그 연동 방법
KR20150105005A (ko) 데이터 처리 방법 및 그 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right