KR102206394B1 - 전자 장치 및 전자 장치의 작업 설정 방법 - Google Patents

전자 장치 및 전자 장치의 작업 설정 방법 Download PDF

Info

Publication number
KR102206394B1
KR102206394B1 KR1020130157002A KR20130157002A KR102206394B1 KR 102206394 B1 KR102206394 B1 KR 102206394B1 KR 1020130157002 A KR1020130157002 A KR 1020130157002A KR 20130157002 A KR20130157002 A KR 20130157002A KR 102206394 B1 KR102206394 B1 KR 102206394B1
Authority
KR
South Korea
Prior art keywords
fingerprint
area
task
electronic device
application
Prior art date
Application number
KR1020130157002A
Other languages
English (en)
Other versions
KR20150070599A (ko
Inventor
이혜미
김현경
김대성
안유미
안지현
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020130157002A priority Critical patent/KR102206394B1/ko
Priority to PCT/KR2014/012446 priority patent/WO2015093834A1/en
Priority to EP14873059.1A priority patent/EP3084575B1/en
Priority to CN201480069015.1A priority patent/CN105830013B/zh
Priority to US14/573,695 priority patent/US10037134B2/en
Publication of KR20150070599A publication Critical patent/KR20150070599A/ko
Application granted granted Critical
Publication of KR102206394B1 publication Critical patent/KR102206394B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 기술에 따른 전자 장치의 작업 설정 방법은 지문 인식을 이용한 전자 장치의 작업 설정 방법에 있어서, 적어도 하나 이상의 사용자가 선택할 수 있는 아이템을 포함하는 제 1 영역 및 상기 적어도 하나 이상의 아이템의 조합으로 수행될 기능을 표시하는 제 2 영역을 표시하는 단계; 상기 제 1 영역에서 상기 제 2 영역으로 상기 적어도 하나의 아이템을 이동시키는 터치 이벤트를 감지하는 단계; 상기 터치 이벤트를 발생시킨 손가락의 지문을 확인하는 단계; 및 상기 이동된 적어도 하나 이상의 아이템 및 상기 확인된 지문을 조합하여 작업을 설정하는 단계를 포함할 수 있다.

Description

전자 장치 및 전자 장치의 작업 설정 방법{Electronic Device And Method for Setting Task Of The Same}
본 발명은 지문 인식을 이용한 전자 장치의 작업 설정 방법 및 이를 이용하는 전자 장치에 관한 것이다.
최근 지문 인식 장치를 포함하는 전자 장치가 증가하는 추세이다. 지문은 소지의 불편함이 없고 도용 또는 모조의 위험성이 적고 잘 변하지 않는다는 장점이 있다.
한편, 반복적이고 자주 사용하는 작업(task)을 바로 가기(shortcut)로 설정할 수 있다. 그러나, 반복적이고 자주 사용하는 작업을 바로 가기로 등록 설정하기 위해 복잡한 과정을 거쳐야만 하는 문제점이 있다.
본 발명은 지문 인식을 이용한 작업 설정 방법 및 이 방법을 이용하는 전자 장치를 제공한다.
본 발명의 일 실시예에 따른 전자 장치의 작업 설정 방법은 지문 인식을 이용한 전자 장치의 작업 설정 방법에 있어서, 적어도 하나 이상의 사용자가 선택할 수 있는 아이템을 포함하는 제 1 영역 및 상기 적어도 하나 이상의 아이템의 조합으로 수행될 기능을 표시하는 제 2 영역을 표시하는 단계; 상기 제 1 영역에서 상기 제 2 영역으로 상기 적어도 하나의 아이템을 이동시키는 터치 이벤트를 감지하는 단계; 상기 터치 이벤트를 발생시킨 손가락의 지문을 확인하는 단계; 및 상기 이동된 적어도 하나 이상의 아이템 및 상기 확인된 지문을 조합하여 작업을 설정하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 전자 장치는 표시부; 사용자 입력부; 지문 인식부; 및 적어도 하나 이상의 사용자가 선택할 수 있는 아이템을 포함하는 제 1 영역 및 상기 적어도 하나 이상의 아이템의 조합으로 수행될 동작을 표시하는 제 2 영역을 상기 표시부에 표시하게 제어하고, 상기 사용자 입력부를 통해 상기 제 1 영역에서 상기 제 2 영역으로 상기 적어도 하나의 아이템을 이동시키는 터치 이벤트를 감지하고, 상기 지문 인식부를 통해 상기 터치 이벤트를 발생시킨 손가락의 지문을 확인하며, 상기 이동된 적어도 하나 이상의 아이템 및 상기 확인된 지문을 조합하여 작업을 설정하는 제어부를 포함할 수 있다.
본 발명에 따른 전자 장치 및 전자 장치의 작업 설정 방법은 지문 인식을 이용한 반복적이고 자주 사용하는 작업의 바로 가기 등록을 설정함으로써, 사용자가 작업을 편리하게 이용할 수 있다.
도 1은 본 발명의 실시예에 따른 전자 장치의 개략적인 블록도이다.
도 2는 본 발명의 실시예에 따른 작업 설정 방법을 나타내는 순서도이다.
도 3은 본 발명의 실시예에 따른 사전에 등록된 지문이 있는 경우 전자 장치의 작업 설정 방법을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 사전에 등록된 지문이 있는 경우 전자 장치의 통신 채널 작업 설정 방법을 나타내는 도면이다.
도 5a 내지 도 5b는 본 발명의 실시예에 따른 사전에 등록된 지문이 없는 경우 전자 장치의 작업 설정 방법을 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 전자 장치의 설정된 작업을 실행하는 방법을 나타내는 도면이다.
이하, 첨부된 도면들을 참조하여 다양한 실시예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 발명의 다양한 실시 예들에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
도 1은 본 발명의 일 실시예에 따른 전자 장치(100)의 구성을 나타내는 블록도이다.
본 발명의 실시예에 따른 전자 장치(100)의 구성은 스마트 폰(Smart Phone)에 적용될 수 있으나, 이에 한정되지 않고 다양한 장치에 적용될 수 있다. 예를 들어, 전자 장치(100)의 구성은 태블릿 PC(Tablet PC), PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC(Laptop Personal Computer) 및 손목 시계(Wrist watch), HMD(Head-Mounted Display)와 같은 웨어러블 기기(Wearable device) 등에도 적용될 수 있다.
전자 장치(100)는 표시부(110), 사용자 입력부(120), 통신부(130), 저장부(140), 오디오부(150) 및 제어부(160)를 포함할 수 있다.
표시부(110)는 영상 또는 데이터를 사용자에게 표시하는 기능을 수행할 수 있다. 표시부(110)는 표시 패널을 포함할 수 있다. 표시 패널에는, 예를 들어, LCD(Liquid-Crystal Display) 또는 AM-OLED(Active-Matrix Organic Light-Emitting Diode) 등이 이용될 수 있다. 이때, 표시부(110)는 표시 패널을 제어하는 컨트롤러를 더 포함할 수 있다. 표시 패널은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다.
한편, 표시부(110)는 터치 패널(121)과 결합되어 터치 스크린의 형태로 제공될 수 있다. 예를 들어, 터치 스크린은 표시 패널과 터치 패널이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다.
표시부(110)는 제어부(160) 제어 하에, 조건 영역 및 작업 설정 영역을 표시할 수 있다.
사용자 입력부(120)는 사용자로부터 다양한 명령어를 입력 받을 수 있다. 사용자 입력부(120)는, 예를 들면, 터치 패널(121), 펜 센서(122) 또는 키(123) 중 적어도 하나 이상을 포함할 수 있다.
터치 패널(121)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 사용자에 의한 터치 입력을 인식할 수 있다. 터치 패널(121)은 컨트롤러(미도시)를 더 포함할 수도 있다. 한편, 정전식의 경우에는 직접 터치 외에 근접 인식도 가능할 수 있다. 터치 패널(121)은 택타일 레이어(Tactile Layer)를 더 포함할 수도 있다. 이 경우, 터치 패널(121)은 사용자에게 촉각 반응을 제공할 수 있다. 펜 센서(122)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일한 방식으로 별도의 펜 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 키(123)에는, 예를 들어, 기계(Mechanical) 키 또는 터치 키 등이 있을 수 있다. 기계 키에는, 예를 들어, 전자 장치(100)의 일측(side)에 구비되어 푸쉬 시에 전자 장치(100)의 디스플레이를 온 시키는 전원 버튼, 전자 장치(100)의 다른 일측에 위치하여 푸쉬 시에 볼륨을 제어하는 하나 이상의 볼륨 버튼, 전자 장치(100)의 표시부(110)의 하단의 중앙에 구비되어 푸쉬 시에 홈 스크린 화면으로 이동시키는 홈 버튼 중 적어도 하나를 포함할 수 있다. 터치 키에는, 예를 들어, 전자 장치(100)의 표시부(110)의 하단의 일면에 구비되어, 터치 시에 현재 표시 중인 컨텐츠와 관련된 메뉴를 제공하는 메뉴 키, 전자 장치(100)의 표시부(110)의 하단의 다른 일면에 구비되어, 터치 시에 현재 표시 중인 화면의 이전 화면으로 복귀하는 기능을 제공하는 복귀 키 중 적어도 하나를 포함할 수 있다.
통신부(130)는 이동 통신부(131), 무선 인터넷부(132), 근거리 통신부(133) 및 위치 정보부(134) 중 적어도 하나 이상을 포함할 수 있다.
이동 통신부(131)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷부(132)는 무선 인터넷 접속을 위한 기능을 수행한다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신부(133)는 근거리 통신을 위한 기능을 수행한다. 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치 정보부(134)은 이동 단말기의 위치를 획득하거나 확인하기 위한 기능을 수행한다. 위치 정보부(134)은 범지구적 위성항법시스템(Global Navigation Satellite System, GNSS)를 이용하여 위치 정보를 획득할 수 있다. 여기서, 범지구적 위성항법시스템(GNSS)은 지구를 공전하여 무선 항법 수신기들의 소정의 타입들이 지표면 또는 지표면 근처의 그들의 위치를 결정할 수 있는 기준 신호들을 보내는 무선 항법위성시스템들을 설명하기 위해 이용되는 용어이다. 상기 범지구적 위성항법시스템(GNSS)에는 미국에서 운영하는 GPS(Global Position System), 유럽에서 운영하는 갈릴레오(Galileo), 러시아에서 운영하는 GLONASS(Global Orbiting Navigational Satellite System), 중국에서 운영하는 COMPASS 및 일본에서 운영하는 QZSS(Quasi-Zenith Satellite System) 등이 있다.
추가적으로 통신부(130)는 전자 장치(100)를 네트워크(예로, Internet, LAN(Local Area Network), WAN(Wire Area Network), Telecommunication Network, Cellular Network, Satellite Network 또는 POTS(Plain Old Telephone Service) 등과 연결시키기 위한 네트워크 인터페이스(예로, LAN card) 또는 모뎀 등을 포함할 수 있다.
저장부(140)는 내장 메모리(Internal Memory) 및 외장 메모리(External Memory) 중 적어도 하나 이상을 포함할 수 있다.
내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 제어부(160)는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 제어부(160)는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다.
외장 메모리는 CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나 이상을 포함할 수 있다.
저장부(140)는 전자 장치(100)의 자원을 제어하는 운영체제 및 어플리케이션의 동작을 위한 응용 프로그램 등을 저장할 수 있다. 운영체제는 커널, 미들웨어, API 등을 포함할 수 있다. 예를 들어, 운영체제로는 안드로이드(Android), iOS, 윈도우즈(Windows), 심비안(Symbian), 타이젠(Tizen) 또는 바다(Bada) 운영 체제가 이용될 수 있다.
커널은 자원을 관리할 수 있는 시스템 리소스 매니저 및 디바이스 드라이버를 포함할 수 있다. 리소스 매니저는, 예를 들어, 제어부 관리부, 메모리부 관리부 또는 파일 시스템 관리부 등을 포함할 수 있으며, 시스템 리소스의 제어, 할당 또는 회수 등의 기능을 수행할 수 있다. 디바이스 드라이버는 전자 장치(100)의 다양한 구성요소들을 소프트웨어적으로 접근하여 제어할 수 있도록 한다. 이를 위하여, 디바이스 드라이버는 인터페이스와 각 하드웨어 업체가 제공하는 개별 드라이버 모듈 부분으로 구분될 수 있다. 디바이스 드라이버는, 예를 들어, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, Wi-Fi 드라이버, 오디오 드라이버 또는 IPC(Inter-Process Communication) 드라이버 중 적어도 하나를 포함할 수 있다.
미들웨어는 다양한 어플리케이션들에서 공통적으로 필요한 기능을 제공하기 위해 미리 구현해 놓은 복수의 모듈들을 포함하여 구성될 수 있다. 미들웨어는 어플리케이션에서 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API를 통해 공통적으로 필요한 기능을 제공할 수 있다. 미들웨어는, 예컨대, 어플리케이션 매니저(Application Manager), 윈도우 매니저(Window Manager), 멀티미디어 매니저(Multimedia Manager), 리소스 매니저(Resource Manager), 파워 매니저(Power Manager), 데이터베이스 매니저(Database Manager) 또는 패키지 매니저(package manager) 중 적어도 하나 이상을 포함할 수 있다. 또한, 미들웨어는 구현 예에 따라, 연결 매니저(Connectivity Manager), 통지 매니저(Notification Manager), 위치 매니저(Location Manager), 그래픽 매니저(Graphic Manager) 또는 보안 매니저(Security Manager) 중 적어도 하나를 포함할 수 있다. 또한, 미들웨어는 구현 예에 따라, 런타임 라이브러리(Runtime Library) 또는 기타 라이브러리 모듈들을 포함할 수 있다. 런타임 라이브러리는, 어플리케이션이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈이다. 예컨대, 런타임 라이브러리는 입출력, 메모리 관리 또는 산술 함수에 대한 기능 등을 수행할 수 있다. 미들웨어는 전술한 내부 구성요소 모듈들의 다양한 기능 조합을 통해 새로운 미들웨어 모듈을 생성하여 사용할 수도 있다. 한편, 미들웨어는 차별화된 기능을 제공하기 위해 운영체제의 종류별로 특화된 모듈을 제공할 수도 있다.
API는, API 프로그래밍 함수들의 집합으로, 운영체제에 따라 다른 구성으로 제공될 수 있다. 예컨대, 안드로이드 또는 iOS의 경우, 예를 들면, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(Tizen)의 경우, 예를 들면, 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션은 응용 프로그램을 이용하여 적어도 하나 이상의 기능을 수행할 수 있다. 어플리케이션은, 예를 들면, 프리로드 어플리케이션(Preloaded Application) 또는 제 3자 어플리케이션(Third Party Application)로 구분될 수 있다. 어플리케이션에는, 예를 들어, 홈 화면을 실행하는 홈 어플리케이션, 다이얼러(Dialer) 어플리케이션, SMS(Short Message Server)/MMS(Multi-media Message Service) 어플리케이션, IM(Instant Message) 어플리케이션, 브라우저(Browser) 어플리케이션, 카메라 어플리케이션, 알람(Alarm) 어플리케이션, 컨택츠(Contacts (or address book)) 어플리케이션, 음성 다이얼(Voice dial) 어플리케이션, 이메일(email) 어플리케이션, 달력 어플리케이션, 미디어 플레이어(Media Player), 앨범 어플리케이션 및 시계 어플리케이션 등이 있을 수 있다.
지문인식부(150)는 사용자마다 고유의 특성 차이를 나타내는 손가락 지문 이미지(또는 지문의 영상 정보)를 획득하는 입력 영상 장치일 수 있다. 지문 이미지에 대한 센싱 데이터는 광학식, 반도체식, 초음파 방식 또는 비접촉식 등의 방식으로 획득될 수 있다.
광학식 지문 인식 센서는, 예를 들어, 프리즘, 광원, 렌즈 또는 CCD(charge-Coupled Device) 등을 포함할 수 있다. 광학식 지문 인식 센서는 프리즘에 지문이 접촉되는 경우 광원이 프리즘에 빛을 비추고, 렌즈는 프리즘을 통해 반사되는 빛을 수집하고, CCD는 수집된 빛을 지문 이미지로서 획득할 수 있다.
반도체식 지문 인식 센서는 열감지식 지문 인식 센서, 축전식 지문 인식 센서 또는 전기장식 지문 인식 센서 등이 있을 수 있다. 반도체식 지문 인식 센서는 소형화가 가능하여 개인이 사용하는 응용 제품에 사용될 수 있다. 열감지식 지문 인식 센서는 지문의 접촉 부위와 비접촉 부위의 온도 차이에 의해 온도 분포를 지문 이미지로 획득하는 방식의 지문인식 센서일 수 있다. 축전식 지문 인식 센서는 접촉된 지문의 융선 간 대전되는 전하량 또는 정전 용량의 차이를 지문 이미지로 획득하는 방식의 지문 인식 센서일 수 있다. 전기장식 지문 인식 센서는 센서에 접촉되는 지문 또는 지문 주변에 형성되는 전기장으로부터 지문 영상 정보를 획득하는 방식의 지문 인식 센서일 수 있다.
한편, 지문인식부(150)는 제어부(160)의 적어도 일부를 포함하여 구성될 수도 있다. 예를 들어, 지문인식부(150)는 지문 이미지를 획득하는 동작 외에 지문 이미지를 보정하거나, 지문 이미지의 특징을 산출하는 등의 동작을 포함할 수도 있다. 이 경우, 지문인식부(150)는 하드웨어 모듈 및 소프트웨어 모듈을 가지는 기능적 모듈이 될 수 있다.
이러한, 지문인식부(150)는 전자 장치(100)의 하우징의 일 면에 장착될 수 있다. 예를 들어, 지문인식부(150)는 전자 장치(100)의 터치 패널(121)에 결합된 구조를 가질 수도 있다. 지문인식부(150)는 터치 패널(121) 및 표시부(110)에 적층되어, 지문과 접촉될 수 있는 지문 인식 센서의 일 면이 터치 패널(121) 상에 노출되어 있는 구조를 가질 수 있다.
제어부(160)는 운영체제 및 응용 프로그램을 구동하여, 제어부(160)에 연결된 다수의 하드웨어 및 소프트웨어 구성요소들을 제어하고 멀티 미디어 데이터를 포함하는 각종 데이터 처리 및 연산을 수행할 수 있다. 제어부(160)는, 예를 들어, SoC(System on Chip)으로 구현될 수 있으며, GPU(Graphic Processing Unit)을 더 포함할 수도 있다.
제어부(160)는 표시부(110)가 사용자가 지정할 수 있는 아이템을 포함하는 제 1 영역 및 아이템의 조합으로 수행될 동작을 표시하는 제 2 영역을 표시할 수 있게 한다.
예를 들어, 제 1 영역은 사용자가 수행하고자 하는 조건(condition)(예를 들어, 작업 목록, 사용자가 지정할 수 있는 아이템)을 포함하는 영역이다. 일 실시예에서, 사용자가 지정할 수 있는 아이템은 사용자가 수행하고자 하는 조건일 수 있다. 제 1 영역은 사용자가 수행하고자 하는 조건이 포함된 조건 영역일 수 있다. 예를 들어, 조건 영역은 적어도 하나 이상의 작업 수행 주체(subject)가 표시되는 영역 및 작업 수행 객체(object)가 표시되는 영역을 포함할 수 있다. 작업 수행 주체가 표시되는 영역은 예를 들어, 적어도 하나 이상의 작업을 수행하는 애플리케이션 목록, 통신 채널 목록(예를 들어, 전화, 메시지, 이메일, SNS) 및 전자 장치의 기능 목록(예를 들어, 사진 촬영, 검색, 음악 듣기, 네비게이션)을 표시할 수 있다. 작업 수행 객체가 표시되는 영역은 작업을 수행할 대상을 표시한다. 작업 수행 객체가 표시되는 예들 들어, 사람 이름, 위치, 파일 이름 등을 포함할 수 있다.
아이템의 조합으로 수행될 동작을 표시하는 제 2 영역은 사용자가 선택한 조건을 표시하고 사용자의 지문을 인식하는 영역으로서, 사용자가 조건 영역에서 조건(또는 작업 목록)을 작업 설정 영역으로 터치 이벤트를 발생시키면 선택된 조건으로 생성될 작업을 표시할 수 있다. 일 실시예에서, 사용자가 지정할 수 있는 아이템은 사용자가 수행하고자 하는 조건일 수 있다. 제 2 영역은 사용자가 수행하고자 하는 조건으로 생성될 작업이 표시되는 작업 설정 영역일 수 있다. 예를 들어, 사용자가 조건 영역에서 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 작업 설정 영역으로 터치 이벤트를 발생시키는 동작은 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 작업 설정 영역으로 드래그(drag) 또는 스와이프(swipe)하는 동작일 수 있다. 예를 들어, 전자 장치(100)는 조건(또는 작업 목록)을 작업 설정 영역으로 드래그(drag) 또는 스와이프(swipe)하는 동작을 감지하여 사용자의 지문을 인식할 수 있다.
예를 들어, 전자 장치(100)는 조건 영역에서 작업 설정 영역으로 적어도 하나의 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 이동하는 동안에 사용자의 손가락 지문을 감지하거나, 조건 영역에서 작업 설정 영역으로 적어도 하나의 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)이 이동이 완료된 경우 사용자의 손가락 지문을 감지하거나, 조건 영역에서 적어도 하나의 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 터치할 때 사용자의 손가락 지문을 감지할 수 있다. 일 실시예에서, 전자 장치(100)는 터치 이벤트를 발생시킨 손가락의 지문이 복수 개인 경우 최종적으로 터치 이벤트를 발생시킨 손가락을 지문으로 감지할 수 있다. 터치 패널(121)은 조건 영역에서 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 선택하여 작업 설정 영역으로 이동하는 터치 이벤트를 감지하여 감지된 신호를 제어부(160)에 전송할 수 있다.
사용자가 조건 영역에서 작업 수행 주체 및 작업 수행 객체를 선택하는 터치 이벤트를 발생시키면, 터치 패널(121)은 터치 이벤트를 감지할 수 있다. 예를 들어, 터치 이벤트는 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 작업 설정 영역으로 드래그(drag) 또는 스와이프(swipe)하는 동작일 수 있다. 터치 패널(121)에서 감지된 터치 이벤트는 제어부(160)로 전송될 수 있다.
지문 인식부(150)는 터치 이벤트를 발생시킨 손가락의 지문을 감지하여 제어부(160)로 전송할 수 있다.
사용자가 조건 영역에서 작업 수행 주체 및 작업 수행 객체를 선택하는 터치 이벤트를 발생시키면, 지문 인식부(150)는 터치 이벤트를 발생시킨 손가락의 지문을 감지할 수 있다. 예를 들어, 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 작업 설정 영역으로 드래그(drag) 또는 스와이프(swipe)하는 터치 이벤트를 발생시킨 손가락이 좌/우 또는 몇 번째 손가락의 지문인지 감지할 수 있다.
제어부(160)는 지문 인식부(160)에서 감지된 터치 이벤트를 발생시킨 손가락의 지문이 사전에 등록된 지문인지 판단한다. 저장부(140)는 사전에 등록된 지문을 저장할 수 있다. 제어부(160)가 사전에 등록된 지문인지 판단하기 위해 저장부(140)에 저장된 기 등록된 지문을 저장부(140)에서 수신할 수 있다.
감지된 지문이 사전에 등록되어 있으면, 제어부(160)는 선택된 조건 및 감지된 지문을 조합하여 작업을 설정한다. 예들 들어, 선택(또는 이동)된 조건 및 감지된 지문을 조합하여 작업을 설정하는 것은 바로 가기(shortcut)를 설정하는 것으로, 감지된 지문이 전자 장치(100)에 입력되면 선택된 작업 수행 주체가 선택된 작업 객체를 실행할 수 있도록 작업을 설정하는 것이다.
예를 들어, 지문 인식부(150)는 조건 영역에서 작업 설정 영역으로 터치 이벤트를 발생시킨 하나 이상의 지문을 감지할 수 있다. 제어부(160)는 조건 영역에서 작업 설정 영역으로 터치 이벤트를 발생시킨 지문이 하나 이상인 경우에는 최종적으로 터치 이벤트를 발생시킨 지문을 감지된 지문으로 판단할 수 있다. 제어부(160)는 설정된 작업을 표시부(110)에 표시한다. 예를 들어, 제어부(160)가 표시하는 설정된 작업은 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 감지된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시부(110)에 표시하는 것일 수 있다.
감지된 지문이 사전에 등록되어 있지 않으면, 제어부(160)는 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 식별하기 위한 지문 등록을 제어할 수 있다.
예를 들어, 제어부(160)는 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)으로 생성될 작업을 확인한다. 제어부(160)는 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 감지된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시부(110)에 표시할 수 있다. 또는, 제어부(160)는 선택된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 감지된 지문을 조합하여 생성된 작업을 확인할 수 있다. 제어부(160)는 지문 등록을 위한 가이드 화면을 표시부(110)에 표시할 수 있게 한다. 지문 등록을 위한 가이드 화면은 사용자가 조건 식별을 위한 지문 등록을 위해 필요한 사용자 인터페이스(User Interface)일 수 있다. 예를 들어, 사용자는 지문 등록을 위한 가이드 화면에 따라 지문 인식부(150)에 적어도 하나 이상의 드래그(drag), 스와이프(swipe) 및 터치(touch)와 같은 지문 등록 동작을 수행할 수 있다. 제어부(160)는 사용자의 지문 등록 동작을 감지하여 사용자의 지문을 등록할 수 있다. 제어부(160)는 등록된 지문을 저장부(140)에 저장할 수 있게 한다.
제어부(160)는 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 등록된 지문을 조합하여 작업을 설정할 수 있다. 예들 들어, 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 등록된 지문을 조합하여 작업을 설정하는 것은 바로 가기(shortcut)를 설정하는 것으로, 등록된 지문이 지문 인식부(150)에 입력되면 선택된 작업 수행 주체가 선택된 작업 객체를 실행할 수 있도록 작업을 설정하는 것이다. 제어부(160)는 설정된 작업을 표시부(110)에 표시한다. 예를 들어, 제어부(160)는 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 등록된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시부(110)에 표시할 수 있다.
도 2는 본 발명의 실시예에 따른 전자 장치(100)의 작업 설정 방법이다.
전자 장치(100)는 201 단계에서, 제 1 영역 및 제 2 영역을 표시한다. 예를 들어, 조건 영역은 사용자가 수행하고자 하는 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 포함하는 영역이다. 예를 들어, 조건 영역은 적어도 하나 이상의 작업 수행 주체(subject)가 표시되는 영역 및 작업 수행 객체(subject)가 표시되는 영역을 포함할 수 있다. 예를 들어, 제 1 영역은 사용자가 수행하고자 하는 조건(condition)(예를 들어, 작업 목록, 사용자가 지정할 수 있는 아이템)을 포함하는 영역이다. 일 실시예에서, 사용자가 지정할 수 있는 아이템은 사용자가 수행하고자 하는 조건일 수 있다. 제 1 영역은 사용자가 수행하고자 하는 조건이 포함된 조건 영역일 수 있다. 아이템의 조합으로 수행될 동작을 표시하는 제 2 영역은 사용자가 선택한 조건을 표시하고 사용자의 지문을 인식하는 영역으로서, 사용자가 조건 영역에서 조건(또는 작업 목록)을 작업 설정 영역으로 터치 이벤트를 발생시키면 선택된 조건으로 생성될 작업을 표시할 수 있다. 일 실시예에서, 사용자가 지정할 수 있는 아이템은 사용자가 수행하고자 하는 조건일 수 있다. 제 2 영역은 사용자가 수행하고자 하는 조건으로 생성될 작업이 표시되는 작업 설정 영역일 수 있다.작업 수행 주체가 표시되는 영역은 예를 들어, 적어도 하나 이상의 작업을 수행하는 애플리케이션 목록, 통신 채널 목록(예를 들어, 전화, 메시지, 이메일, SNS) 및 전자 장치의 기능 목록(예를 들어, 사진 촬영, 검색, 음악 듣기, 네비게이션)을 표시할 수 있다.
작업 수행 객체가 표시되는 영역은 작업을 수행할 대상을 표시한다. 작업 수행 객체가 표시되는 예들 들어, 사람 이름, 위치, 파일 이름 등을 포함할 수 있다.
제 2 영역은 사용자가 선택한 조건을 표시하고 사용자의 지문을 인식하는 영역으로서, 사용자가 제 1 영역에서 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 제 2 영역으로 터치 이벤트를 발생시키면 선택된 조건으로 생성될 작업을 표시할 수 있다. 예를 들어, 사용자가 제 1 영역에서 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 제 2 영역으로 터치 이벤트를 발생시키는 동작은 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 제 2 영역으로 드래그(drag) 또는 스와이프(swipe)하는 동작일 수 있다.
예를 들어, 제 2 영역은 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 제 2 영역으로 드래그(drag) 또는 스와이프(swipe)하는 동작을 감지하여 사용자의 지문을 인식할 수 있다.
예를 들어, 전자 장치(100)는 제 1 영역에서 제 2 영역으로 적어도 하나의 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 이동하는 동안에 사용자의 손가락 지문을 감지하거나, 제 1 영역에서 제 2 영역으로 적어도 하나의 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)이 이동이 완료된 경우 사용자의 손가락 지문을 감지하거나, 제 1 영역에서 적어도 하나의 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 터치할 때 사용자의 손가락 지문을 감지할 수 있다. 일 실시예에서, 전자 장치(100)는 터치 이벤트를 발생시킨 손가락의 지문이 복수 개인 경우 최종적으로 터치 이벤트를 발생시킨 손가락을 지문으로 감지할 수 있다.
전자 장치(100)는 203 단계에서, 제 1 영역에서 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 선택하여 제 2 영역으로 이동하는 터치 이벤트를 감지할 수 있다.
사용자가 제 1 영역에서 작업 수행 주체 및 작업 수행 객체를 선택하는 터치 이벤트를 발생시키면, 전자 장치(100)는 터치 이벤트를 감지할 수 있다. 예를 들어, 터치 이벤트는 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)을 제 2 영역으로 드래그(drag) 또는 스와이프(swipe)하는 동작일 수 있다.
전자 장치(100)는 205 단계에서, 터치 이벤트를 발생시킨 손가락의 지문을 감지한다.
사용자가 제 1 영역에서 작업 수행 주체 및 작업 수행 객체를 선택하는 터치 이벤트를 발생시키면, 전자 장치(100)는 터치 이벤트를 발생시킨 손가락의 지문을 감지할 수 있다. 예를 들어, 조건(또는 작업 목록)을 작업 설정 영역으로 드래그(drag) 또는 스와이프(swipe)하는 터치 이벤트를 발생시킨 손가락이 좌/우 또는 몇 번째 손가락의 지문인지 감지할 수 있다.
전자 장치(100)는 207 단계에서, 터치 이벤트를 발생시킨 손가락의 감지된 지문이 사전에 등록된 지문인지 판단한다.
전자 장치(100)는 지문인식부(150)를 이용하여 사용자의 지문을 미리 등록시킬 수 있다. 전자 장치(100)는 207 단계에서, 미리 등록된 지문과 감지된 지문을 비교하여 감지된 지문이 미리 등록되어 있는지 판단할 수 있다.
감지된 지문이 사전에 등록되어 있으면, 전자 장치(100)는 209 단계에서, 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 감지된 지문을 조합하여 작업을 설정한다. 예들 들어, 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 감지된 지문을 조합하여 작업을 설정하는 것은 바로 가기(shortcut)를 설정하는 것으로, 감지된 지문이 전자 장치(100)에 입력되면 선택된 작업 수행 주체가 선택된 작업 객체를 실행할 수 있도록 작업을 설정하는 것이다.
예를 들어, 제 1 영역에서 제 2 영역으로 터치 이벤트를 발생시킨 지문은 하나 이상일 수 있다. 전자 장치(100)는 제 1 영역에서 제 2 영역으로 터치 이벤트를 발생시킨 지문이 하나 이상인 경우에는 최종적으로 터치 이벤트를 발생시킨 지문을 감지된 지문으로 판단할 수 있다.
전자 장치(100)는 211 단계에서, 설정된 작업을 표시한다. 예를 들어, 전자 장치(100)가 표시하는 설정된 작업은 선택(또는 이동)된 조건 및 감지된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시하는 것일 수 있다.
감지된 지문이 사전에 등록되어 있지 않으면, 전자 장치(100)는 213 단계에서, 선택(또는 이동)된 조건을 식별하기 위한 지문을 등록한다. 선택(또는 이동)된 조건을 식별하기 위한 지문 등록 단계는 선택된 조건으로 생성될 작업을 확인하는 단계, 지문 등록을 위한 가이드 화면 표시 단계 및 지문 등록 단계를 포함할 수 있다.
예를 들어, 전자 장치(100)는 215 단계에서, 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)으로 생성될 작업을 확인한다. 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)으로 생성될 작업을 확인하는 것은 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 감지된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시하여 확인하는 것일 수 있다. 또는, 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)으로 생성될 작업을 확인하는 것은 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 감지된 지문을 조합하여 생성된 작업을 확인하는 것일 수 있다. 전자 장치(100)는 217 단계에서, 지문 등록을 위한 가이드 화면을 표시한다. 지문 등록을 위한 가이드 화면은 사용자가 조건 식별을 위한 지문 등록을 위해 필요한 사용자 인터페이스(User Interface)일 수 있다. 예를 들어, 사용자는 217 단계에서 지문 등록을 위한 가이드 화면에 따라 지문 인식부(150)에 적어도 하나 이상의 드래그(drag), 스와이프(swipe) 및 터치(touch) 와 같은 지문 등록 동작을 수행할 수 있다. 전자 장치(100)는 219 단계에서, 사용자가 지문 등록을 위한 가이드 화면에 따라 지문 등록 동작을 감지하여 사용자의 지문을 등록할 수 있다.
전자 장치(100)는 221 단계에서, 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 등록된 지문을 조합하여 작업을 설정할 수 있다.
예들 들어, 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템) 및 등록된 지문을 조합하여 작업을 설정하는 것은 바로 가기(shortcut)를 설정하는 것으로, 등록된 지문이 전자 장치(100)에 입력되면 선택된 작업 수행 주체가 선택된 작업 객체를 실행할 수 있도록 작업을 설정하는 것이다.
전자 장치(100)는 223 단계에서, 설정된 작업을 표시한다. 예를 들어, 전자 장치(100)가 표시하는 설정된 작업은 선택(또는 이동)된 조건(또는 작업 목록, 사용자가 지정할 수 있는 아이템)및 등록된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시하는 것일 수 있다.
도 3은 본 발명의 실시예에 따른 사전에 등록된 지문이 있는 경우 전자 장치(100)의 작업 설정 방법을 나타내는 도면이다.
도 3내지 도 6에 개시된 조건 영역은 상술한 바와 같이 제 1 영역, 작업 설정 영역은 제 2 영역, 조건은 작업 목록 또는 사용자가 지정할 수 있는 아이템과 동일하다.
A 화면에서, 전자 장치(100)는 조건 영역(301) 및 작업 설정 영역(302)을 표시할 수 있다. 조건 영역(301)은 작업 설정 영역(302)을 중심으로 상단에는 작업 수행 주체가 표시되는 영역, 하단에는 작업 수행 객체가 표시되는 영역을 포함할 수 있다.
작업 수행 주체가 표시되는 영역은 예를 들어, 적어도 하나 이상의 작업을 수행하는 애플리케이션 목록 및 전자 장치의 기능 목록(예를 들어, 사진 촬영, 검색, 음악 듣기, 네비게이션)을 표시할 수 있다. 작업 수행 객체가 표시되는 영역은 작업을 수행할 대상을 표시한다. 작업 수행 객체가 표시되는 예들 들어, 사람 이름, 위치, 파일 이름 등을 포함할 수 있다.
B 화면에서, 사용자가 선택한 조건을 작업 설정 영역(302)에 표시할 수 있다. 작업 설정 영역(302)은 사용자가 선택한 조건을 표시하고 사용자의 지문을 인식하는 영역으로서, 사용자가 조건 영역에서 조건(또는 작업 목록)을 작업 설정 영역으로 터치 이벤트를 발생시키면 선택된 조건으로 생성될 작업을 표시할 수 있다. 작업 설정 영역(302)은 선택된 조건 및 감지된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시할 수 있다.
예를 들어, “사진 찍기(take a photo)”, “찾기(find)”, “음악 듣기(listen)”, “네비게이션(navigation)”과 같은 전자 장치의 기능 목록이 표시된 적어도 하나 이상의 작업 수행 주체를 포함하는 조건 영역에서, 사용자가 “네비게이션(navigation)”을 선택하면, 전자 장치(100)는 작업 설정 영역(302)에 작업 수행 주체로 표시할 수 있다.
“길동이 집(Gildong`s House)”, “김(Kim)”, “앨리스(Alice)”, “길동이(Gildong)”와 같이 위치 또는 사람 이름이 표시된 적어도 하나 이상의 작업 수행 객체를 포함하는 조건 영역에서, 사용자가 “길동이 집(Gildong`s House)”을 선택하면, 전자 장치(100)는 작업 설정 영역(302)에 작업 수행 객체로 표시할 수 있다.
이때, 감지된 지문이 사전에 등록되어 있으면, 전자 장치(100)는 선택된 조건 및 감지된 지문을 조합하여 작업을 설정한다. 작업 설정 영역(302)은 선택된 작업 수행 주체, 작업 수행 객체 및 조건을 식별할 손가락 지문을 표시할 수 있다.
예를 들어, 지문인식부(150)에서 조건 영역에서 작업 설정 영역으로 터치 이벤트를 발생시킨 하나 이상의 지문을 감지되면 조건 영역에서 작업 설정 영역으로 최종적으로 터치 이벤트를 발생시킨 지문을 감지된 지문을 작업 설정 영역(302)에 표시할 수 있다. A 화면 및 B 화면에서, 사용자는 검지(Index Finger)를 이용하여 조건 영역의 작업 목록을 작업 설정 영역으로 이동하는 터치 이벤트를 발생시켰으므로 조건 식별을 위한 손가락 지문을 검지로 표시한다.
사용자가 바로 가기(shortcut) 기능을 수행할 때, 검지를 이용하여 지문 인식을 수행하면 전자 장치(100)는 “길동이 집(Gildong`s House)”을 “네비게이션(navigation)”하는 동작을 수행할 수 있다.
도 4는 본 발명의 실시예에 따른 사전에 등록된 지문이 있는 경우 전자 장치(100)의 통신 채널 작업 설정 방법을 나타내는 도면이다.
C 화면에서, 전자 장치(100)는 조건 영역(401) 및 작업 설정 영역(402)을 표시할 수 있다. 조건 영역(401)은 작업 설정 영역(402)을 중심으로 상단에는 작업 수행 주체가 표시되는 영역, 하단에는 작업 수행 객체가 표시되는 영역을 포함할 수 있다.
작업 수행 주체가 표시되는 영역은 예를 들어, 통신 채널 목록(예를 들어, 전화, 메시지, 이메일, SNS)을 표시할 수 있다. 작업 수행 객체가 표시되는 영역은 작업을 수행할 대상을 표시한다. 작업 수행 객체가 표시되는 예들 들어, 사람 이름을 포함할 수 있다.
D 화면에서, 사용자가 선택한 조건을 작업 설정 영역(402)에 표시할 수 있다. 작업 설정 영역(402)은 사용자가 선택한 조건을 표시하고 사용자의 지문을 인식하는 영역으로서, 사용자가 조건 영역에서 조건(또는 작업 목록)을 작업 설정 영역으로 터치 이벤트를 발생시키면 선택된 조건으로 생성될 작업을 표시할 수 있다. 작업 설정 영역(302)은 선택된 조건 및 감지된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시할 수 있다.
예를 들어, “메시지(Message, MSG)”, “이메일(Email), “챗온(Chaton, 예를 들어, SNS)”과 같은 통신 채널 목록이 표시된 적어도 하나 이상의 작업 수행 주체를 포함하는 조건 영역에서, 사용자가 “챗온(Chaton)”을 선택하면, 전자 장치(100)는 작업 설정 영역(402)에 작업 수행 주체(예를 들어, 통신 채널의 주체)로 표시할 수 있다.
“김(Kim)”, “앨리스(Alice)”, “길동이(Gildong)”와 같이 위치 또는 사람 이름이 표시된 적어도 하나 이상의 작업 수행 객체를 포함하는 조건 영역에서, 사용자가 “길동이(Gildong)”을 선택하면, 전자 장치(100)는 작업 설정 영역(402)에 작업 수행 객체로 표시할 수 있다.
이때, 감지된 지문이 사전에 등록되어 있으면, 전자 장치(100)는 선택된 조건 및 감지된 지문을 조합하여 작업을 설정한다. 작업 설정 영역(402)은 선택된 작업 수행 주체, 작업 수행 객체 및 조건을 식별할 손가락 지문을 표시할 수 있다.
예를 들어, 지문인식부(150)에서 조건 영역에서 작업 설정 영역으로 터치 이벤트를 발생시킨 하나 이상의 지문을 감지되면 조건 영역에서 작업 설정 영역으로 최종적으로 터치 이벤트를 발생시킨 지문을 감지된 지문을 작업 설정 영역(402)에 표시할 수 있다. C 화면 및 D 화면에서, 사용자는 검지(Index Finger)를 이용하여 조건 영역의 작업 목록을 작업 설정 영역으로 이동하는 터치 이벤트를 발생시켰으므로 조건 식별을 위한 손가락 지문을 검지로 표시한다.
사용자가 바로 가기(shortcut) 기능을 수행할 때, 검지를 이용하여 지문 인식을 수행하면 전자 장치(100)는 “길동이(Gildong)”에게 “챗온(Chaton)”하는 동작을 수행할 수 있다.
도 5a 및 도 5b는 본 발명의 실시예에 따른 사전에 등록된 지문이 없는 경우 전자 장치(100)의 작업 설정 방법을 나타내는 도면이다.
E 화면에서, 전자 장치(100)는 조건 영역(501) 및 작업 설정 영역(502)을 표시할 수 있다. 조건 영역(501)은 작업 설정 영역(502)을 중심으로 상단에는 작업 수행 주체가 표시되는 영역, 하단에는 작업 수행 객체가 표시되는 영역을 포함할 수 있다.
작업 수행 주체가 표시되는 영역은 예를 들어, 적어도 하나 이상의 작업을 수행하는 애플리케이션 목록 및 전자 장치의 기능 목록(예를 들어, 사진 촬영, 검색, 음악 듣기, 네비게이션)을 표시할 수 있다. 작업 수행 객체가 표시되는 영역은 작업을 수행할 대상을 표시한다. 작업 수행 객체가 표시되는 예들 들어, 사람 이름, 위치, 파일 이름 등을 포함할 수 있다.
F 화면에서, 사용자가 선택한 조건을 작업 설정 영역(502)에 표시할 수 있다. 작업 설정 영역(502)은 사용자가 선택한 조건을 표시하고 사용자의 지문을 인식하는 영역으로서, 사용자가 조건 영역에서 조건(또는 작업 목록)을 작업 설정 영역으로 터치 이벤트를 발생시키면 선택된 조건으로 생성될 작업을 표시할 수 있다. 작업 설정 영역(502)은 선택된 조건 및 감지된 지문을 조합하여 생성된 바로 가기(shortcut)를 표시할 수 있다.
예를 들어, “사진 찍기(take a photo)”, “찾기(find)”, “음악 듣기(listen)”, “네비게이션(navigation)”과 같은 전자 장치의 기능 목록이 표시된 적어도 하나 이상의 작업 수행 주체를 포함하는 조건 영역에서, 사용자가 “네비게이션(navigation)”을 선택하면, 전자 장치(100)는 작업 설정 영역(502)에 작업 수행 주체로 표시할 수 있다.
“길동이 집(Gildong`s House)”, “김(Kim)”, “앨리스(Alice)”, “길동이(Gildong)”와 같이 위치 또는 사람 이름이 표시된 적어도 하나 이상의 작업 수행 객체를 포함하는 조건 영역에서, 사용자가 “길동이 집(Gildong`s House)”을 선택하면, 전자 장치(100)는 작업 설정 영역(502)에 작업 수행 객체로 표시할 수 있다.
이때, 감지된 지문이 사전에 등록되어 없으면, 전자 장치(100)는 선택된 조건 및 감지된 지문을 조합하여 작업을 확인한다(503). 작업 설정 영역(502)은 선택된 작업 수행 주체 및 작업 수행 객체 표시할 수 있다. 사용자가 선택된 작업 수행 주체 및 작업 수행 객체 확인(503)하면, 전자 장치(100)는 G 화면에서, 지문 등록을 위한 가이드 화면을 표시한다. 지문 등록을 위한 가이드 화면은 사용자가 조건 식별을 위한 지문 등록을 위해 필요한 사용자 인터페이스(User Interface, 504)일 수 있다. 사용자는 사용자 인터페이스(504)에 따라 등록할 손가락을 선택할 수 있다.
H 화면에서, 지문 등록을 위한 가이드 화면에 따라 지문인식부(150)에 적어도 하나 이상의 드래그(drag), 스와이프(swipe) 및 터치(touch) 와 같은 지문 등록 동작을 수행할 수 있다(505). 전자 장치(100)는 사용자가 지문 등록을 위한 가이드 화면에 따라 지문 등록 동작을 감지하여 사용자의 지문을 등록할 수 있다.
I 화면에서, 전자 장치(100)는 선택된 조건 및 등록된 지문을 조합하여 작업을 설정할 수 있다. 사용자는 검지(Index Finger)를 이용하여 지문을 등록하였으므로 조건 식별을 위한 손가락 지문을 검지로 표시한다.
사용자가 바로 가기(shortcut) 기능을 수행할 때, 검지를 이용하여 지문 인식을 수행하면 전자 장치(100)는 “길동이 집(Gildong`s House)”을 “네비게이션(navigation)”하는 동작을 수행할 수 있다.
도 6은 본 발명의 실시예에 따른 전자 장치(100)의 설정된 작업을 실행하는 방법을 나타내는 도면이다.
J 화면에서, 전자 장치(100)는 사용자의 지문을 인식할 수 있는 영역(602)을 포함하는 바로 가기(Shortcut) 기능 실행을 위한 사용자 인터페이스(601)를 표시할 수 있다. 사용자의 지문을 인식할 수 있는 영역(602)에 사용자는 지문 인식을 위한 동작을 수행할 수 있다.
K 화면에서, 사용자가 지문 인식을 위한 동작을 수행하면, 조건 식별을 위한 지문인지 판단하여 미리 설정된 작업을 수행할 수 있다. J 및 K 화면에서, 사용자가 검지 손가락을 이용하여 지문 인식 동작을 수행하면, 전자 장치(100)는 “길동이(Gildong)”에게 “챗온(Chaton)”하는 동작을 바로 가기 기능을 수행하도록 작업을 설정하였다.
그리고 본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 지문 인식을 이용한 전자 장치의 작업 설정 방법에 있어서,
    사용자가 작업을 실행하기 위해 선택할 수 있는 적어도 하나 이상의 애플리케이션을 포함하는 제 1 엔드 영역 및 사용자가 상기 작업을 실행하기 위해 선택할 수 있는 적어도 하나의 오브젝트를 포함하는 제 2 엔드 영역을 포함하는 제 1 영역, 및 상기 선택된 적어도 하나의 애플리케이션을 표시하는 제 2 영역을 표시하는 단계;
    상기 적어도 하나의 애플리케이션 및 상기 적어도 하나의 오브젝트를 각각 상기 제 1 엔드 영역 및 상기 제 2 엔드 영역에서 상기 제 2 영역으로 이동시키는 터치 이벤트를 감지하는 단계;
    상기 터치 이벤트가 감지되는 것에 응답하여, 상기 적어도 하나의 애플리케이션 및 상기 적어도 하나의 객체를 상기 제 2 영역에 표시하는 단계;
    상기 터치 이벤트를 발생시킨 손가락의 지문을 확인하는 단계; 및
    상기 적어도 하나 이상의 애플리케이션, 상기 적어도 하나 이상의 오브젝트 및 상기 확인된 지문을 조합하여 상기 작업을 설정하는 단계를 포함하는 전자 장치의 작업 설정 방법.
  2. 제 1항에 있어서,
    상기 적어도 하나 이상의 애플리케이션은 상기 작업 실행의 적어도 하나 이상의 주체(subject)를 포함하는 전자 장치의 작업 설정 방법.
  3. 제 2항에 있어서,
    상기 확인된 지문이 사전에 등록되어 있는지 판단하는 단계; 및
    상기 확인된 지문이 사전에 등록되어 있으면 상기 적어도 하나 이상의 애플리케이션, 상기 적어도 하나 이상의 오브젝트 및 상기 확인된 지문을 조합하여 상기 작업을 설정하는 단계를 포함하는 전자 장치의 작업 설정 방법.
  4. 제 3항에 있어서,
    상기 감지된 지문이 사전에 등록되어 있지 않으면 상기 적어도 하나 이상의 애플리케이션 및 상기 적어도 하나 이상의 오브젝트를 확인하기 위한 지문을 등록하는 단계; 및
    상기 적어도 하나 이상의 애플리케이션, 상기 적어도 하나 이상의 오브젝트 및 상기 등록된 지문을 조합하여 상기 작업을 설정하는 단계를 더 포함하는 전자 장치의 작업 설정 방법.
  5. 제 4항에 있어서,
    상기 지문을 등록하는 단계는
    상기 이동된 적어도 하나 이상의 아이템을 조합하여 생성될 작업을 확인하는 단계;
    지문 등록을 위한 가이드 화면을 표시하는 단계; 및
    지문 등록을 위한 터치 이벤트를 감지하여 상기 지문을 등록하는 단계를 포함하는 전자 장치의 작업 설정 방법.
  6. 제 2항에 있어서,
    상기 터치 이벤트를 발생시킨 손가락의 지문을 확인하는 단계는
    상기 제 1 영역에서 상기 제 2 영역으로 상기 적어도 하나의 애플리케이션 및 상기 적어도 하나 이상의 오브젝트를 이동하는 동안의 손가락의 지문을 감지하는 단계;
    상기 제 1 영역에서 상기 제 2 영역으로 상기 적어도 하나의 애플리케이션 및 상기 적어도 하나 이상의 오브젝트의 이동이 완료된 경우 손가락의 지문을 감지하는 단계; 및
    상기 제 1 영역에서 상기 적어도 하나의 애플리케이션 및 상기 적어도 하나 이상의 오브젝트를 터치할 때 손가락의 지문을 감지하는 단계 중 적어도 하나 이상을 포함하는 전자 장치의 작업 설정 방법.
  7. 제 2항에 있어서,
    상기 터치 이벤트를 발생시킨 손가락의 지문을 확인하는 단계는
    상기 터치 이벤트를 발생시킨 손가락의 지문이 복수 개인 경우 최종적으로 상기 터치 이벤트를 발생시킨 손가락을 지문으로 감지하는 전자 장치의 작업 설정 방법.
  8. 삭제
  9. 제 2항에 있어서,
    상기 설정된 작업을 상기 제 2 영역에 표시하는 단계를 더 포함하는 전자 장치의 작업 설정 방법.
  10. 제 9항에 있어서,
    상기 설정된 작업을 상기 제 2 영역에 표시하는 단계는
    상기 작업 수행의 주체가 되는 애플리케이션 및 상기 작업 수행의 객체가 되는 오브젝트를 조합하여 생성될 작업을 표시하고, 상기 확인된 지문을 상기 생성될 작업을 식별하기 위한 색인으로 표시하는 단계를 포함하는 전자 장치의 작업 설정 방법.
  11. 표시부;
    사용자 입력부;
    지문 인식부; 및
    사용자가 작업을 실행하기 위해 선택할 수 있는 적어도 하나 이상의 애플리케이션을 포함하는 제 1 엔드 영역 및 사용자가 상기 작업을 실행하기 위해 선택할 수 있는 적어도 하나의 오브젝트를 포함하는 제 2 엔드 영역을 포함하는 제 1 영역, 및 상기 선택된 적어도 하나의 애플리케이션을 표시하는 제 2 영역을 상기 표시부에 표시하도록 제어하고, 상기 사용자 입력부를 통해 상기 적어도 하나의 애플리케이션 및 상기 적어도 하나의 오브젝트를 각각 상기 제 1 엔드 영역 및 상기 제 2 엔드 영역에서 상기 제 2 영역으로 이동시키는 터치 이벤트를 감지하고, 상기 터치 이벤트가 감지되는 것에 응답하여, 상기 적어도 하나의 애플리케이션 및 상기 적어도 하나의 객체를 상기 제 2 영역에 상기 표시부에 표시하도록 제어하며, 상기 지문 인식부를 통해 상기 터치 이벤트를 발생시킨 손가락의 지문을 확인하고, 상기 적어도 하나 이상의 애플리케이션, 상기 적어도 하나 이상의 오브젝트 및 상기 확인된 지문을 조합하여 상기 작업을 설정하는 제어부를 포함하는 전자 장치.
  12. 제11항에 있어서,
    상기 적어도 하나 이상의 애플리케이션은 상기 작업 실행의 적어도 하나 이상의 주체(subject)를 포함하는 전자 장치.
  13. 제12항에 있어서,
    상기 제어부는
    상기 확인된 지문이 사전에 등록되어 있는지 판단하고, 상기 확인된 지문이 사전에 등록되어 있으면 상기 적어도 하나 이상의 애플리케이션, 상기 적어도 하나 이상의 오브젝트 및 상기 확인된 지문을 조합하여 상기 작업을 설정하는 전자 장치.
  14. 제 13항에 있어서,
    상기 제어부는
    상기 감지된 지문이 사전에 등록되어 있지 않으면 상기 적어도 하나 이상의 애플리케이션 및 상기 적어도 하나 이상의 오브젝트를 확인하기 위해 상기 지문 인식부를 통해 지문을 등록하게 제어하고, 상기 적어도 하나 이상의 애플리케이션, 상기 적어도 하나 이상의 오브젝트 및 상기 등록된 지문을 조합하여 상기 작업을 설정하는 전자 장치.
  15. 제 14항에 있어서,
    상기 제어부는
    상기 이동된 적어도 하나 이상의 조건을 조합하여 생성될 작업을 확인하며, 지문 등록을 위한 가이드 화면을 상기 표시부에 출력하게 제어하고, 지문 등록을 위한 터치 이벤트를 상기 지문 인식부로부터 감지하여 상기 지문을 등록하는 전자 장치.
  16. 제 12항에 있어서,
    상기 제어부는
    상기 제 1 영역에서 상기 제 2 영역으로 상기 적어도 하나의 애플리케이션, 상기 적어도 하나 이상의 오브젝트를 이동하는 동안의 손가락의 지문을 상기 터치 이벤트를 발생시킨 손가락의 지문으로 상기 지문 인식부를 통해 감지하거나, 상기 제 1 영역에서 상기 제 2 영역으로 상기 적어도 하나의 애플리케이션, 상기 적어도 하나 이상의 오브젝트의 이동이 완료된 경우 손가락의 지문을 상기 터치 이벤트를 발생시킨 손가락의 지문으로 상기 지문 인식부를 통해 감지하거나, 상기 제 1 영역에서 상기 적어도 하나의 애플리케이션, 상기 적어도 하나 이상의 오브젝트를 터치할 때 손가락의 지문을 상기 터치 이벤트를 발생시킨 손가락의 지문으로 상기 지문 인식부를 통해 감지하는 전자 장치.
  17. 제 12항에 있어서,
    상기 제어부는
    상기 터치 이벤트를 발생시킨 손가락의 지문이 복수 개인 경우 최종적으로 상기 터치 이벤트를 발생시킨 손가락을 지문으로 감지하는 전자 장치.
  18. 삭제
  19. 제 12항에 있어서,
    상기 제어부는
    상기 설정된 작업을 상기 제 2 영역에 표시하게 제어하는 전자 장치.
  20. 제 19항에 있어서,
    상기 제어부는
    상기 작업 수행의 주체가 되는 애플리케이션 및 상기 작업 수행의 객체가 되는 오브젝트를 조합하여 생성될 작업을 상기 제 2 영역에 표시하게 제어하고, 상기 확인된 지문을 상기 생성될 작업을 식별하기 위한 색인으로 상기 제 2 영역에 표시하게 제어하는 전자 장치.
KR1020130157002A 2013-12-17 2013-12-17 전자 장치 및 전자 장치의 작업 설정 방법 KR102206394B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020130157002A KR102206394B1 (ko) 2013-12-17 2013-12-17 전자 장치 및 전자 장치의 작업 설정 방법
PCT/KR2014/012446 WO2015093834A1 (en) 2013-12-17 2014-12-17 Electronic device and task configuring method of electronic device
EP14873059.1A EP3084575B1 (en) 2013-12-17 2014-12-17 Electronic device and task configuring method of electronic device
CN201480069015.1A CN105830013B (zh) 2013-12-17 2014-12-17 电子装置和电子装置的任务配置方法
US14/573,695 US10037134B2 (en) 2013-12-17 2014-12-17 Electronic device and task configuring method of electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130157002A KR102206394B1 (ko) 2013-12-17 2013-12-17 전자 장치 및 전자 장치의 작업 설정 방법

Publications (2)

Publication Number Publication Date
KR20150070599A KR20150070599A (ko) 2015-06-25
KR102206394B1 true KR102206394B1 (ko) 2021-01-22

Family

ID=53368439

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130157002A KR102206394B1 (ko) 2013-12-17 2013-12-17 전자 장치 및 전자 장치의 작업 설정 방법

Country Status (5)

Country Link
US (1) US10037134B2 (ko)
EP (1) EP3084575B1 (ko)
KR (1) KR102206394B1 (ko)
CN (1) CN105830013B (ko)
WO (1) WO2015093834A1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10817096B2 (en) 2014-02-06 2020-10-27 Apple Inc. Force sensor incorporated into display
KR102045169B1 (ko) 2013-02-08 2019-11-14 애플 인크. 용량성 감지에 기초한 힘 결정
US9671889B1 (en) 2013-07-25 2017-06-06 Apple Inc. Input member with capacitive sensor
AU2015217268B2 (en) 2014-02-12 2018-03-01 Apple Inc. Force determination employing sheet sensor and capacitive array
US10846505B2 (en) 2015-10-29 2020-11-24 Lg Electronics Inc. Mobile terminal and operating method therefor
KR102401009B1 (ko) * 2015-11-27 2022-05-24 엘지전자 주식회사 이동 단말기
US10007343B2 (en) * 2016-03-31 2018-06-26 Apple Inc. Force sensor in an input device
KR102622021B1 (ko) * 2016-08-03 2024-01-08 삼성전자 주식회사 지문 센서를 갖는 전자 장치
KR102616793B1 (ko) 2016-11-15 2023-12-26 삼성전자 주식회사 전자 장치 및 전자 장치의 화면 제공 방법
EP3416050B1 (en) * 2016-12-26 2022-01-26 Shenzhen Goodix Technology Co., Ltd. Method and device for guiding fingerprint recognition
KR20180081380A (ko) * 2017-01-06 2018-07-16 삼성전자주식회사 지문을 감지하는 전자 장치 및 방법
CN106774689B (zh) * 2017-03-07 2023-11-17 Oppo广东移动通信有限公司 显示屏、显示屏组件及终端
US10615239B2 (en) 2017-03-07 2020-04-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Integration of display screen and optical fingerprint sensor
CN107172278A (zh) * 2017-05-12 2017-09-15 维沃移动通信有限公司 一种认证交互方法及移动终端
CN109151099A (zh) * 2017-06-28 2019-01-04 北京小米移动软件有限公司 电子设备
CN107589893A (zh) * 2017-09-21 2018-01-16 上海联影医疗科技有限公司 一种数据加载方法、装置及终端
CN108845732A (zh) * 2018-05-30 2018-11-20 维沃移动通信有限公司 一种信息显示方法及终端设备
US10866683B2 (en) 2018-08-27 2020-12-15 Apple Inc. Force or touch sensing on a mobile device using capacitive or pressure sensing
CN109564624B (zh) * 2018-10-31 2020-09-11 深圳市汇顶科技股份有限公司 辨识指纹Logo的方法、装置和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009120925A2 (en) 2008-03-28 2009-10-01 Sprint Communications Company L.P. Operating a mobile communications device
US20100225607A1 (en) 2009-03-06 2010-09-09 Lg Electronics Inc. Mobile terminal and method of controlling the mobile terminal

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3014286B2 (ja) * 1994-12-16 2000-02-28 インターナショナル・ビジネス・マシーンズ・コーポレイション 直接操作のための補助装置及び方法
JP2004334788A (ja) * 2003-05-12 2004-11-25 Minoru Ikeda 個人認証システム、認証装置、個人認証方法、プログラム、および、記録媒体
KR100693592B1 (ko) 2003-10-21 2007-03-14 주식회사 팬택 지문인식을 이용한 키 설정/실행 방법 및 그를 이용한무선통신 단말기
US20050085217A1 (en) 2003-10-21 2005-04-21 Chae-Yi Lim Method for setting shortcut key and performing function based on fingerprint recognition and wireless communication terminal using thereof
US7697729B2 (en) * 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
KR100856203B1 (ko) 2006-06-27 2008-09-03 삼성전자주식회사 지문 인식 센서를 이용한 사용자 입력 장치 및 방법
US8023700B2 (en) 2007-07-26 2011-09-20 Nokia Corporation Apparatus, method, computer program and user interface for enabling access to functions
US8228300B2 (en) 2008-03-28 2012-07-24 Sprint Communications Company L.P. Physical feedback to indicate object directional slide
US20100265204A1 (en) * 2009-04-21 2010-10-21 Sony Ericsson Mobile Communications Ab Finger recognition for authentication and graphical user interface input
US8390584B1 (en) * 2009-10-13 2013-03-05 Intuit Inc. Digit aware touchscreen
US9348985B2 (en) 2011-11-23 2016-05-24 Elwha Llc Behavioral fingerprint controlled automatic task determination
WO2013114482A1 (ja) * 2012-02-03 2013-08-08 Necカシオモバイルコミュニケーションズ株式会社 端末装置及び処理方法並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009120925A2 (en) 2008-03-28 2009-10-01 Sprint Communications Company L.P. Operating a mobile communications device
US20100225607A1 (en) 2009-03-06 2010-09-09 Lg Electronics Inc. Mobile terminal and method of controlling the mobile terminal

Also Published As

Publication number Publication date
WO2015093834A1 (en) 2015-06-25
CN105830013A (zh) 2016-08-03
EP3084575B1 (en) 2019-10-02
CN105830013B (zh) 2019-12-03
EP3084575A1 (en) 2016-10-26
EP3084575A4 (en) 2017-09-20
KR20150070599A (ko) 2015-06-25
US10037134B2 (en) 2018-07-31
US20150169163A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
KR102206394B1 (ko) 전자 장치 및 전자 장치의 작업 설정 방법
KR102182297B1 (ko) 지문을 인식하는 방법 및 이를 제공하는 휴대 단말기
US9952681B2 (en) Method and device for switching tasks using fingerprint information
CN110276007B (zh) 用于提供信息的装置和方法
KR101713167B1 (ko) 폴더블 디바이스 및 그 제어 방법
US9235746B2 (en) Electronic device including fingerprint identification sensor, methods for performing user authentication and registering user's fingerprint in electronic device including fingerprint identification sensor, and recording medium recording program for executing the methods
US20150113633A1 (en) Electronic device and authentication method using password thereof
US20140101617A1 (en) Method and apparatus for generating task recommendation icon in a mobile device
KR102157327B1 (ko) 이미지 형식의 객체를 텍스트 형식으로 변환하는 전자 장치 및 방법
KR20150018349A (ko) 휴대 단말기 및 휴대 단말기의 지문 입력 가이드 정보를 제공하는 방법, 및 이 방법을 실행하기 위한 프로그램이 기록되어 있는 비휘발성 기록매체
US9584644B2 (en) Electronic device and method for handling incoming call of the same
US10908701B2 (en) Electronic device and method for capturing multimedia content
US20130169556A1 (en) Mobile terminal and control method thereof
US9398234B2 (en) Electronic device and method for processing image thereof
US20150019522A1 (en) Method for operating application and electronic device thereof
CN114466102A (zh) 显示应用界面的方法、电子设备以及交通信息显示系统
CN111656347B (zh) 一种项目的显示方法及终端
US20150373184A1 (en) Mobile terminal and control method thereof
KR20150096832A (ko) 연락처를 검색하는 방법 이를 제공하는 전자 장치
KR102138728B1 (ko) 전자 장치 및 전자 장치의 태그 정보 처리 방법
KR102584981B1 (ko) 포스 입력에 따른 화면 출력 방법 및 이를 지원하는 전자 장치
US20150095779A1 (en) Electronic device and method for providing contents of the same
KR101332661B1 (ko) 인식 대상 영역을 설정할 수 있는 단말기
KR20150022597A (ko) 필기체 입력 방법 및 그 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant