KR20170134226A - 전자 디바이스 상에서 오브젝트들의 지향성 감지를 위한 시스템들 및 방법들 - Google Patents

전자 디바이스 상에서 오브젝트들의 지향성 감지를 위한 시스템들 및 방법들 Download PDF

Info

Publication number
KR20170134226A
KR20170134226A KR1020170063485A KR20170063485A KR20170134226A KR 20170134226 A KR20170134226 A KR 20170134226A KR 1020170063485 A KR1020170063485 A KR 1020170063485A KR 20170063485 A KR20170063485 A KR 20170063485A KR 20170134226 A KR20170134226 A KR 20170134226A
Authority
KR
South Korea
Prior art keywords
biometric authentication
proximity sensors
swipe direction
electronic device
sensor
Prior art date
Application number
KR1020170063485A
Other languages
English (en)
Inventor
수디르 씨. 비사
비베크 케이. 탸기
더글러스 에이. 로트너
Original Assignee
모토로라 모빌리티 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모토로라 모빌리티 엘엘씨 filed Critical 모토로라 모빌리티 엘엘씨
Publication of KR20170134226A publication Critical patent/KR20170134226A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1671Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • H04W12/065Continuous authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/65Environment-dependent, e.g. using captured environmental data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/68Gesture-dependent or behaviour-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

시스템들 및 방법들은 전자 디바이스 상에서 오브젝트의 스와이프 방향을 결정하고 결정된 스와이프 방향에 응답하여 액션들의 수행을 가능하게 한다. 스와이프 방향은 전자 디바이스의 바이오메트릭 인증 센서에 대해 결정될 수 있다. 특정 양태들에 따르면, 오브젝트의 존재를 나타내는 신호들은 근접 센서(들) 및/또는 바이오메트릭 인증 센서로부터 수신될 수 있다. 오브젝트의 스와이프 방향은 그 신호들에 기초하여 결정될 수 있다. 스와이프 방향을 결정한 것에 응답하여 전자 디바이스 상에서 액션이 수행될 수 있다. 전자 디바이스의 개선된 사용자 경험은 이들 시스템들 및 방법들의 이용을 통해 발생할 수 있다.

Description

전자 디바이스 상에서 오브젝트들의 지향성 감지를 위한 시스템들 및 방법들{SYSTEMS AND METHODS FOR DIRECTIONAL SENSING OF OBJECTS ON AN ELECTRONIC DEVICE}
본 출원은 일반적으로는 전자 디바이스 상에서 오브젝트들의 지향성 감지에 관한 것이다. 특히, 본 출원서는 전자 디바이스의 바이오메트릭 인증 센서에 대한 오브젝트의 스와이프 방향을 결정하고 결정된 스와이프 방향에 응답하여 전자 디바이스 상에서 액션을 수행하는 것에 관한 것이다.
스마트폰들 및 태블릿 컴퓨터들과 같은 전자 디바이스들은 유비쿼터스화되어 왔다. 전형적인 전자 디바이스는 식별 및 액세스 제어에 이용될 수 있는 바이오메트릭 인증 센서를 포함한다. 예를 들면, 사용자는 엄지손가락 또는 다른 손가락과 같은 손가락을 바이오메트릭 인증 센서에 터치하여 전자 디바이스를 언록킹할 수 있다. 바이오메트릭 인증 센서는 지문을 캡처하여 사용자가 전자 디바이스에 액세스하도록 인가되어 있는지를 결정할 수 있다. 사용자가 인가되어 있다면, 전자 디바이스는 언록킹될 수 있다. 사용자가 인가되어 있지 않다면, 전자 디바이스는 록킹되어 있는 채로 유지될 수 있다.
전자 디바이스가 언록킹될 때, 사용자는 신속하게 액션들을 수행하기를 원하지만, 사용자는 언록킹 프로세스가 완료될 때까지 대기해야 한다. 예를 들면, 사용자는 전자 디바이스 상에서 특정 어플리케이션을 즉시 이용하고 싶지만, 언록킹 프로세스가 종료될 때가지 기다려야 하고, 그런 후에 어플리케이션을 시작해야 한다. 이것은 사용자가 전자 디바이스 상에서 정보 및 어플리케이션들로의 즉각적인 액세스를 가지도록 익숙해져 있기 때문에 사용자를 좌절하게 하는 것일 수 있다. 또한, 전자 디바이스가 록킹되어 있는 때에 정보를 표시하기 위한 항상 켜진 디스플레이를 전자 디바이스가 가질 수 있다. 그러한 전자 디바이스의 사용자가 디스플레이 상에서 정보를 볼 수 있으면서도, 사용자는 다른 액션들을 수행할 수 있기에 앞서서 여전히 전자 디바이스를 언록킹해야 한다.
따라서, 이들 관심사들을 다루고, 바이오메트릭 인증 센서들을 구비하는 전자 디바이스들에 대한 사용자 경험을 개선하는 시스템들 및 방법들에 대한 기회가 있다.
하나의 실시예에서, 방법은 전자 디바이스의 프로세서에서 하나 이상의 근접 센서들로부터 하나 이상의 신호들을 수신하는 단계 - 하나 이상의 신호들은 오브젝트의 존재를 나타내며, 하나 이상의 근접 센서들은 전자 디바이스의 바이오메트릭 인증 센서에 인접됨 -; 프로세서를 이용하여, 하나 이상의 신호들에 기초하여 바이오메트릭 인증 센서에 대한 오브젝트의 스와이프 방향을 결정하는 단계; 및 프로세서를 이용하여, 스와이프 방향을 결정하는 단계에 응답하여, 전자 디바이스 상에서 액션을 수행하는 단계를 포함한다. 스와이프 방향을 결정하는 단계는 하나 이상의 근접 센서들로부터 수신된 하나 이상의 신호들의 순서에 기초하여 스와이프 방향을 부여하는 단계를 포함할 수 있다. 스와이프 방향을 결정하는 단계는 하나 이상의 근접 센서들로부터 수신된 하나 이상의 신호들, 및 바이오메트릭 인증 센서로부터의 제2 신호의 순서에 기초하여 스와이프 방향을 부여하는 단계를 포함할 수 있다.
또 하나의 실시예에서, 전자 디바이스는 바이오메트릭 인증 센서, 각각이 바이오메트릭 인증 센서에 인접하여 있고 오브젝트의 존재를 나타내는 신호를 출력하도록 적응된 하나 이상의 근접 센서들, 및 바이오메트릭 인증 센서 및 하나 이상의 근접 센서들과 동작가능하게 결합되는 프로세서를 포함하고, 프로세서는 하나 이상의 근접 센서들로부터의 신호에 기초하여 바이오메트릭 인증 센서에 대한 오브젝트의 스와이프 방향을 결정하며, 스와이프 방향을 결정한 것에 응답하여 전자 디바이스 상에서 액션을 수행한다. 프로세서는 하나 이상의 근접 센서들로부터 수신된 하나 이상의 신호들의 순서에 기초하여 스와이프 방향을 부여함으로써 스와이프 방향을 결정한다. 프로세서는 하나 이상의 근접 센서들로부터 수신된 하나 이상의 신호들 및 바이오메트릭 인증 센서로부터 수신된 제2 신호의 순서에 기초하여 스와이프 방향을 부여함으로써 스와이프 방향을 결정한다.
이하의 상세한 설명과 함께, 유사한 참조번호들은 분리된 뷰들 전체에 걸쳐 동일하거나 기능적으로 유사한 구성요소들을 지칭하는 첨부된 도면들은 명세서에 포함되고 그 일부를 형성하며, 청구된 실시예들을 포함하는 개념들의 실시예들을 추가적으로 예시하며 이들 실시예들의 다양한 원리들 및 장점들을 설명하도록 기능한다.
도 1은 일부 실시예들에 따라, 전자 디바이스에 포함된 지향성 감지 시스템의 블록도.
도 2 내지 10은 일부 실시예들에 따라, 전자 디바이스에 포함된 근접 센서(들) 및 바이오메트릭 인증 센서의 배열들의 개략적인 표현도.
도 11은 일부 실시예들에 따라, 스와이프 방향의 결정 및 스와이프 방향에 응답한 액션의 수행을 도시하는 흐름도.
도 12는 일부 실시예들에 따라, 스와이프 방향의 결정, 사용자의 인증, 및 스와이프 방향에 응답하거나 사용자의 인증에 기초한 액션의 수행을 도시하는 흐름도.
도 13은 일부 실시예들에 따라, 스와이프 방향의 결정, 스와이프 방향에 응답한 액션의 수행, 및 액션을 뒤따르는 사용자의 인증을 도시하는 흐름도.
도 14는 일부 실시예들에 따라, 미리 결정된 기간 동안 센서로부터 신호들 중 하나를 무시하는 것을 포함하는 스와이프 방향의 결정을 도시하는 흐름도.
도 1은 실시예들이 구현될 수 있는 전자 디바이스에 포함된 지향성 감지 시스템(100)을 예시하고 있다. 지향성 감지 시스템(100)은 하나 이상의 근접 센서들(106) 및/또는 바이오메트릭 인증 센서(108)로부터 신호들을 수신하고 처리하여 바이오메트릭 인증 센서(108)에 대한 오브젝트의 스와이프 방향을 결정하며, 스와이프 방향을 결정한 것에 응답하여 전자 디바이스 상에서 하나 이상의 액션들을 수행할 수 있다. 하나 이상의 신호들의 순서는 스와이프 방향을 결정하는데 활용될 수 있다. 지향성 감지 시스템(100)은 메모리(104), 하나 이상의 근접 센서들(106), 및 바이오메트릭 인증 센서(108)와 통신 상태에 있는 프로세서(102)를 포함할 수 있다. 실시예들에서, 지향성 감지 시스템(100)은 이산 로직으로 구현될 수 있다. 예를 들면, 근접 센서들(106) 및 바이오메트릭 인증 센서(108)는 단독 센서로서 구현될 수도 있다.
바이오메트릭 인증 센서(108)와 함께 오브젝트의 스와이프 방향을 결정함으로써, 지향성 감지 시스템(100)은 사용자의 단순한 인증 대신에, 사용자의 인증에 덧붙여 전자 디바이스 상에서 하나 이상의 액션들이 수행될 수 있게 할 수 있다. 또한, 지향성 감지 시스템(100)은 사용자가 태스크들을 더 신속하게 수행할 수 있게 하고 어플리케이션들로의 더 빠르고 더 안전한 액세스를 가질 수 있게 한다. 지향성 감지 시스템(100)은 또한 네비게이션 목적을 위해, 예를 들면 전자 디바이스 상에서 실행되는 어플리케이션을 네비게이션하는데 조이스틱을 대체하는데 활용될 수 있다. 그러므로, 사용자는 더 나은 경험을 가질 수 있고 전자 디바이스의 동작에 더 만족될 수 있다. 다른 잇점들 및 효율들이 예상되는 것은 자명하다.
전자 디바이스는 정지형 또는 휴대형일 수 있고, 예를 들면 스마트폰, 셀룰러 폰, 개인휴대단말기(PDA), 태블릿 컴퓨터, 랩탑 컴퓨터, 데스크탑 컴퓨터, 네트워킹된 텔레비전 세트 등일 수 있다. 전자 디바이스의 메모리(104)의 소프트웨어는 하나 이상의 분리된 프로그램들 또는 어플리케이션들을 포함할 수 있다. 프로그램들은 논리적 함수들을 구현하기 위한 실행가능한 명령들의 순서화된 리스팅들을 가질 수 있다. 소프트웨어는 구글 인크의 안드로이드, 애플 인크의 아이오에스, 또는 마이크로소프트 사의 윈도우즈 폰 및 윈도우즈 10 모바일과 같이, 전자 디바이스의 적합한 오퍼레이팅 시스템을 포함할 수 있다. 오퍼레이팅 시스템은 다른 컴퓨터 프로그램들의 실행을 실질적으로 제어하고, 스케줄링, 입력-출력 제어, 파일 및 데이터 관리, 메모리 관리, 및 통신 제어 및 관련된 서비스들을 제공한다.
전자 디바이스는 예를 들면, 네트워크를 통해 데이터를 전송하고 수신하는 트랜시버(도시되지 않음)를 포함할 수 있다. 트랜시버는 무선 및/또는 유선 접속을 통해 데이터를 수신하고 송신하도록 적응될 수 있다. 트랜시버는 IEEE 802.11 표준 또는 다른 표준들에 따라 기능할 수 있다. 특히, 트랜시버는 전자 디바이스를 추가적인 디바이스들 또는 컴포넌트들에 통신가능하게 접속하도록 하나 이상의 셀 사이트들 또는 기지국들을 포함하는 와이드 영역 네트워크와 통신하게 구성된 WWAN 트랜시버일 수 있다. 또한, 트랜시버는 로컬 영역 네트워크들 및/또는 블루투스 네트워크와 같은 개인 영역 네트워크들에 전자 디바이스를 접속하도록 구성된 WLAN 및/또는 WPAN 트랜시버일 수 있다.
전자 디바이스는 또한 키들, 버튼들, 라이트들, LED들, 커서 제어 디바이스들, 햅틱 디바이스들 등과 같이, 추가적인 I/O 컴포넌트들(도시되지 않음)을 포함할 수 있다. 디스플레이 및 추가적인 I/O 컴포넌트들은 사용자 인터페이스의 부분들(예를 들면 정보를 사용자에게 프리젠팅하거나 사용자로부터 입력들을 수신하는 것과 연관된 전자 디바이스의 부분들)을 형성하는 것으로 간주될 수 있다. 일부 실시예들에서, 디스플레이는 전기영동 디스플레이들, 전자 종이, 폴리LED 디스플레이들, OLED 디스플레이들, AMOLED 디스플레이들, 액정 디스플레이들, 전기습윤 디스플레이들, 회전 볼 디스플레이들, 세그먼팅된 디스플레이들, 다이렉트 구동 디스플레이들, 패시브-매트릭스 디스플레이들, 액티브-매트릭스 디스플레이들, 렌티큘러(lenticular) 장벽들, 및/또는 다른 것들과 같은 표시 기술들의 하나 또는 조합들로 구성된 터치스크린 디스플레이이다. 또한, 디스플레이는 사용자에 의해 뷰잉가능한 표시 섹션 상에 중첩된 얇고 투명한 터치 센서 컴포넌트를 포함할 수 있다. 예를 들면, 그러한 디스플레이들은 용량성 터치 스크린들, 저항성 터치 스크린들, 표면 음향파(SAW) 터치 스크린들, 광학 이미징 터치 스크린들, 등을 포함한다.
근접 센서(들)(106) 및 바이오메트릭 인증 센서(108)는 사용자의 액세스 편이를 위해 전자 디바이스 상에 배치될 수 있다. 예를 들면, 근접 센서(들)(106) 및 바이오메트릭 인증 센서(108)는 사용자가 전자 디바이스를 잡을 때 하나 이상의 손가락들을 내려놓는 전자 디바이스의 후방부 상에 배치될 수 있다. 또 하나의 예로서, 근접 센서(들)(106) 및 바이오메트릭 인증 세서(108)는 전자 디바이스의 디스플레이 주위의 베젤 영역 상에 배치될 수 있다. 바이오메트릭 인증 센서(108)는 예를 들면 지문 센서일 수 있다. 따라서, 전자 디바이스가 사용자를 인증하여 전자 디바이스로의 액세스를 허용할 수 있도록 하기 위해, 엄지 손가락 또는 다른 손가락과 같은 오브젝트가 바이오메트릭 인증 센서(108) 상에 놓여질 수 있다.
근접 센서들(106)은 미리 결정된 거리에서 오브젝트의 근접도를 검출할 수 있다. 실시예들에서, 근접 센서들(106)은 하나 이상의 발광 다이오드들, 및 발광 다이오드들에 의해 방출된 에너지에 대응하는 반사된 에너지를 수신하는 하나 이상의 수광 다이오드들을 포함할 수 있다. 예를 들면, 발광 다이오드로부터의 적외선 광이 방출되고, 수광 다이오드는 오브젝트로부터 반사된 응답을 수신할 수 있다. 실시예들에서, 근접 센서들(106)은 전자 디바이스가 주머니 또는 가방 안에 있는 때와 같이, 요구되지 않는 오브젝트들의 검출을 최소화하거나 제거하기 위해, 오브젝트가 사람과 같은 생물학적 유기체의 일부인지 여부를 결정할 수 있다.
도 2-10은 수 개의 실시예들에 따라 전자 디바이스 상에서 하나 이상의 근접 센서들(106) 및 바이오메트릭 인증 센서(108, 도면들에서 "BAS"로 표시됨)의 예로 든 배열들을 예시하고 있다. 특히, 도 2-6은 복수의 근접 센서들(106)을 구비한 바이오메트릭 인증 센서(108)의 예로 든 배열들을 예시하고 있고, 도 7-10은 단일 근접 센서(106)를 구비하는 바이오메트릭 인증 센서(108)의 예로 든 배열들을 예시하고 있다. 지향성 감지 시스템(100)은 근접 센서(들)(106) 및/또는 바이오메트릭 인증 센서(108)로부터 신호들을 활용하여 바이오메트릭 인증 센서(108)에 대한 오브젝트의 스와이프 방향을 결정할 수 있다.
유의할 점은, 도 2-10에 예시된 바와 같은 근접 센서(들)(106) 및 바이오메트릭 인증 센서(108)의 형태들은 단지 예로 든 것이고 임의의 적합한 형태일 수 있다는 점이다. 유의할 점은, 도 2-10에 예시된 바와 같은 근접 센서(들)(106) 및 바이오메트릭 인증 센서(108)의 배열들 및 오리엔테이션들은 또한 단지 예로 든 것이라는 점이다. 예를 들면, 도 2-10은 근접 센서(들)(106)가 바이오메트릭 인증 센서(108)의 주변부 주위에서 다양한 0, 45, 90, 및 180도 위치들에 있다고 예시되어 있지만, 근접 센서(들)(106)는 임의의 적합한 로케이션에 배치될 수 있다. 설명의 용이함을 위해, 이하의 개시는 바이오메트릭 인증 센서(108)에 대한 기본 방향의 측면에서, 즉 위에 대해서는 북쪽(N) , 우측에 대해서는 동쪽(E), 아래에 대해서는 남쪽(S), 및 좌측에 대해서는 서쪽(W)으로, 근접 센서(들)(106) 및 스와이프 방향들의 로케이션들을 표시할 것이다. 예를 들면, N으로부터 S로의 스와이프 방향은 오브젝트가 바이오메트릭 인증 센서(108)의 최상부로부터 기저부로 이동했다는 것을 나타내고, W로부터 E로의 스와이프 방향은 오브젝트가 바이오메트릭 인증 센서(108)의 좌측에서 우측으로 이동했다는 것을 나타낸다.
지향성 감지 시스템(100)에 의해 결정될 수 있는 스와이프 방향들은 근접 센서들(106)의 개수에 좌우될 수 있다. 예를 들면, 도 2에서, 지향성 감지 시스템(100)은 바이오메트릭 인증 센서(108)의 4개의 측면들 상에 배치된 4개의 근접 센서들(106)을 포함한다. 도 3-6에서, 지향성 감지 시스템(100)은 바이오메트릭 인증 센서(108)의 2개의 측면들 상에 배치되는 2개의 근접 센서들(106)을 포함한다. 도 3-6에 도시되어 있지 않지만, 실시예들은 바이오메트릭 인증 센서(108)의 반대 측면들, 예를 들면 N 및 S, 또는 E 및 W상에 배치될 수 있는 2개의 근접 센서들(106)을 포함할 수 있을 것으로 사료된다. 도 7-10에서, 지향성 감지 시스템(100)은 바이오메트릭 인증 센서(108)의 하나의 측면 상에 배치된 단일 근접 센서(106)를 포함한다. 도 3-10의 배열들은 예를 들면 도 2에 예시된 배열에 비해, 전자 디바이스에 포함된 부품들의 개수를 감소시키는데 활용될 수 있다.
이들 배열들에서, 지향성 감지 시스템(100)은 근접 센서(들)(106) 및/또는 바이오메트릭 인증 센서(108)로부터의 신호들에 기초하여, 복수의 방향들, 예를 들면 N에서 S로, S에서 N으로, E에서 W로, W에서 E로, 등등으로 오브젝트의 스와이프 방향을 결정할 수 있다. 결정된 스와이프 방향은 일부 실시예들에서, 또한 비-선형 방향들, 예를 들면 N에서 E로, S에서 W로, E에서 S로, 등으로 될 수 있다. 신호들은 오브젝트가 특정 센서에 의해 검출되었다는 것, 오브젝트가 특정 센서를 향해 또는 이격되도록 이동하고 있는지 여부, 및/또는 오브젝트가 특정 센서를 활성화시켰는지 여부를 나타낼 수 있다. 예를 들면, 오브젝트의 스와이프 방향은 오브젝트를 검출하거나 근접 센서(들)(106)로 또는 그로부터 이격되는 오브젝트의 이동을 검출하는 근접 센서(들)(106)와 조합하여, 오브젝트에 의해 활성화되고 있는 바이오메트릭 인증 센서(108)에 기초하여 결정될 수 있다.
도 11-14는 지향성 감지 시스템(100)을 이용하여, 하나 이상의 근접 센서들(106) 및/또는 바이오메트릭 인증 센서(108)로부터 신호들을 수신하고 처리하여 오브젝트의 스와이프 방향을 결정하고, 스와이프 방향을 결정한 것에 응답하여 전자 디바이스 상에서 하나 이상의 액션들을 수행하는 것과 관련된 각 방법들(200, 300, 400, 500)의 실시예들을 예시하고 있다. 일반적으로, 실시예들에 따른 컴퓨터 프로그램 제품은 컴퓨터-판독가능 프로그램 코드가 그 내부에 실시된 컴퓨터 이용가능 저장 매체(예를 들면, 표준 랜덤 액세스 메모리(RAM), 광학 디스크, 범용 직렬 버스(USB) 드라이브, 등)를 포함하고, 여기에서 컴퓨터-판독가능 프로그램 코드는 이하에 기재된 방법들을 구현하도록 프로세서(예를 들면, 오퍼레이팅 시스템과 관련하여 작동함)에 의해 실행되도록 적응된다. 이러한 측면에서, 프로그램 코드는 임의의 원하는 언어로 구현될 수 있고, 기계 코드, 어셈블리 코드, 바이트 코드, 해석가능한 소스 코드 등(예를 들면, C, C++, 자바, 액션스크립트, 오브젝티브-C, 자바스크립트, CSS, XML, 및/또는 다른 것들을 통함)으로 구현될 수 있다.
지향성 감지 시스템(100)의 근접 센서(들)(106) 및/또는 바이오메트릭 인증 센서(108)는 각각 도 11-13에 도시된 방법(200, 300, 400)의 단계(202, 302, 402)에서와 같이 오브젝트가 검출되었는지 여부를 결정할 수 있다. 통상, 검출된 오브젝트는 사용자의 엄지손가락 또는 다른 손가락일 수 있다. 오브젝트가 단계(202, 302, 402)에서 검출되지 않는다면, 방법(200, 300, 400)은 오브젝트가 검출되는지를 결정하도록 단계(202, 302, 402)에서 유지될 수 있다. 그러나, 오브젝트가 단계(202, 302, 402)에서 검출된다면, 방법(200, 300, 400)은 단계(204, 304, 404)로 계속될 수 있다.
지향성 감지 시스템(100)은 각각 방법(200, 300, 400)의 단계(204, 304, 404)에서와 같이, 근접 센서(들)(106) 및/또는 바이오메트릭 인증 센서(108)로부터 하나 이상의 신호들을 수신할 수 있다. 일부 실시예들에서, 근접 센서(들)(106) 및/또는 바이오메트릭 인증 센서(108)로부터의 각 신호들은 오브젝트들이 검출되었던 순서대로 수신될 수 있다. 다른 실시예들에서, 단계(204, 304, 404)에서 수신된 신호들은 검출된 오브젝트가 근접 센서(들)(106)로부터 이격되게 이동하고 있는지 여부 및/또는 바이오메트릭 인증 센서(108)가 활성화되었는지 여부를 나타낼 수 있다.
스와이프 방향은 방법(200, 300, 400)의 단계(206, 306, 406)에서 각각 지향성 감지 시스템(100)에 의해 결정될 수 있다. 일부 실시예들에서, 스와이프 방향을 결정하는 것은 단계(204, 304, 404)에서 수신된 신호들의 순서에 기초하여 스와이프 방향을 부여하는 것을 포함할 수 있다. 예를 들면, 도 2에 예시된 배열에서, W 근접 센서(106)가 오브젝트를 감지하고, 이어서 E 근접 센서(106)가 오브젝트를 감지한다면, 단계(204, 304, 404)에서 수신된 신호들은 W 근접 센서(106)로부터의 신호, 이어서 E 근접 센서(106)로부터의 신호이다. 부여된 스와이프 방향은 단계(206, 306, 406)에서 W에서 E로 인 것으로 결정될 수 있다.
도 2에 예시된 배열에 대한 또 하나의 예로서, S 근접 센서(106)가 오브젝트를 감지하고, 바이오메트릭 인증 센서(108)가 활성화되며, N 근접 센서(106)가 오브젝트를 감지하는 경우에, 스와이프 방향은 단계(206, 306, 406)에서 S에서 N으로 인 것으로 결정될 수 있다. 이 경우에, 단계(204, 304, 404)에서 수신된 신호들은 S 근접 센서(106)로부터의 신호, 이어서 바이오메트릭 인증 센서(108)로부터의 신호, 이어서 N 근접 센서(106)로부터의 신호이다. 도 2에 예시된 배열에 대한 추가적인 예로서, S 근접 센서(106)가 오브젝트를 감지하고 이어서 W 근접 센서(106)가 오브젝트를 감지하는 경우에, 단계(204, 304, 404)에서 수신된 신호들은 S 근접 센서(106)로부터의 신호, 이어서 W 근접 센서(106)로부터의 신호이다. 부여된 스와이프 방향은 단계(206, 306, 406)에서 S에서 W로인 것으로 결정될 수 있다. 또 하나의 예로서, 도 9에 예시된 배열에서, 근접 센서(106)는 오브젝트를 검출하고, 이어서 바이오메트릭 인증 센서(108)가 활성화될 수 있다. 이 경우에, 단계(204, 304, 404)에서 수신된 신호들은 근접 센서(106)로부터의 신호, 이어서 바이오메트릭 인증 센서(108)로부터의 신호이다. 단계(206, 306, 406)에서, 부여된 스와이프 방향은 S에서 N으로인 것으로 결정될 수 있다.
도 2에 예시된 배열에 대한 추가적인 예는 단계(204, 304, 404)에서 수신된 신호들의 순서는 N 근접 센서(106)로부터의 신호, 바이오메트릭 인증 센서(108)로부터의 신호, E 근접 센서(106)로부터의 신호, 및 S 근접 센서(106)로부터의 신호인 경우를 포함한다. 이 경우에, 부여된 스와이프 방향은 단계(206, 306 406)에서, N에서 E로 S로인 것으로 결정될 수 있다. 하나의 실시예에서, 부여된 스와이프 방향은 또한 단계(206, 306, 406)에서 바이오메트릭 인증 센서(108)의 활성화를 포함할 수 있고, 따라서 N에서 BAS로 E로 S로 인 것으로 결정될 수 있다. 또 하나의 실시예에서, 바이오메트릭 인증 센서(108)는 단계(204, 304, 404)에서 수신된 신호들의 순서가 N 근접 센서(106)로부터의 신호, 바이오메트릭 인증 센서(108)로부터의 제1 신호, E 근접 센서(106)로부터의 신호, 바이오메트릭 인증 센서(108)로부터의 제2 신호, 및 S 근접 센서(106)로부터의 신호가 되도록, 2번 활성화될 수 있다. 이 경우에, 부여된 스와이프 방향은 단계(206, 306, 406)에서 N에서 BAS로 E로 BAS로 S로인 것으로 결정될 수 있다. 일부 실시예들에서, 사용자는 바이오메트릭 인증 센서(108)의 활성화들 중 하나 동안에 인증될 수 있다.
추가 예들은 근접 센서들(106)이 바이오메트릭 인증 센서(108)의 반대 측면들 상에 배치되어 있는 경우를 포함한다. 예를 들면, 바이오메트릭 인증 센서(108) 주위에 배열된 2개의 근접 센서들(106), 즉 N 근접 센서(106) 및 S 근접 센서(106)가 있을 수 있다. 단계(204, 304, 404)에서 수신된 신호들의 순서가 N 근접 센서(106)로부터의 신호, 바이오메트릭 인증 센서(108)로부터의 신호, 및 S 근접 센서(106)로부터의 신호인 경우에, 단계(206, 306, 406)에서 부여된 스와이프 방향은 N에서 S인 것으로 결정될 수 있다. 하나의 실시예에서, 단계(206, 306, 406)에서 부여된 스와이프 방향은 또한 바이오메트릭 인증 센서(108)의 활성화를 포함할 수 있고 따라서 N에서 BAS로 S로 인 것으로 결정될 수 있다.
또 하나의 예로서, 바이오메트릭 인증 센서(108) 주위에 배열된 2개의 근접 센서들(106), 즉 W 근접 센서(106) 및 E 근접 센서(106)가 있을 수 있다. 단계(204, 304, 404)에서 수신된 신호들의 순서가 바이오메트릭 인증 센서(108)로부터의 신호, W 근접 센서(106)로부터의 신호, 및 E 근접 센서(106)로부터의 신호인 경우에, 단계(206, 306, 406)에서 부여된 스와이프 방향은 W에서 E인 것으로 결정될 수 있다. 이 경우에, 바이오메트릭 인증 센서(108)의 활성화는 사용자 인증을 위한 것일 수 있다. 하나의 실시예에서, 단계(206, 306, 406)에서 부여된 스와이프 방향은 또한 바이오메트릭 인증 센서(108)의 활성화를 포함할 수 있고 따라서 BAS에서 W로 E로인 것으로 결정될 수 있다. 또 하나의 실시예에서, 단계(204, 304, 404)에서 수신된 신호들의 순서가 바이오메트릭 인증 센서(108)로부터의 제1 신호, W 근접 센서(106)로부터의 신호, 바이오메트릭 인증 센서(108)로부터의 제2 신호, 및 E 근접 센서(106)로부터의 신호가 되도록, 바이오메트릭 인증 센서(108)는 2번 활성화될 수 있다. 이 경우에, 단계(206, 306, 406)에서 부여된 스와이프 방향은 W에서 E인 것으로 결정될 수 있고, 사용자는 바이오메트릭 인증 센서(108)의 활성화들 중 하나 동안에 인증될 수 있고, 바이오메트릭 인증 센서(108)의 나머지 활성화는 무시될 수 있다.
또 하나의 예로서, 도 9에 예시된 배열에서, 바이오메트릭 인증 센서(108)가 활성화되고, 이어서 근접 센서(106)가 오브젝트를 검출한다. 이 경우에 단계(204, 304, 404)에 수신된 신호들은 바이오메트릭 인증 센서(108)로부터의 신호, 이어서 근접 센서(106)로부터의 신호이다. 단계(206, 306, 406)에서, 부여된 스와이프 방향은 S를 향한 것으로 결정될 수 있다. 실시예들에서, 부여된 스와이프 방향은 단계(206, 306, 406)에서 N에서 S로, 또는 BAS에서 S로 인 것으로 결정될 수 있다.
추가 예로서, 도 7에 예시된 배열에서, 근접 센서(106)가 오브젝트를 검출하고, 이어서 바이오메트릭 인증 센서(108)가 활성화된다. 이 경우에 단계(204, 304, 404)에서 수신된 신호들은 근접 센서(106)로부터의 신호, 이어서 바이오메트릭 인증 센서(108)로부터의 신호이다. 단계(206, 306, 406)에서, 부여된 스와이프 방향은 N에서 이격되는 것으로 결정될 수 있다. 실시예들에서, 부여된 스와이프 방향은 단계(206, 306, 406)에서 N에서 S로, 또는 N에서 BAS로 인 것으로 결정될 수 있다.
다른 실시예들에서, 스와이프 방향을 결정하는 것은 단계(204, 304, 404)에서 수신된 신호들의 순서, 및 오브젝트가 센서를 향해 또는 이격되게 이동하고 있는 것을 나타내는지 여부에 기초하여 스와이프 방향을 부여하는 것을 포함할 수 있다. 예를 들면, 도 3에 예시된 배열에 대해, N 근접 센서(106)는 오브젝트가 그로부터 이격되게 이동하고 있다는 것을 감지할 수 있다. 단계(204, 304, 404)에서 수신된 신호는 오브젝트가 N 근접 센서(106)로부터 이격되게 이동하고 있다는 것을 나타내고, 부여된 스와이프 방향은 단계(206, 306, 406)에서 N에서 S인 것으로 결정될 수 있다. 또 하나의 예로서, 도 6에 예시된 배열에 대해, E 근접 센서(106)는 오브젝트가 그로부터 이격되게 이동하고 있다고 감지하고 S 근접 센서(106)는 오브젝트가 그로부터 이격되게 이동하고 있다고 감지하는 경우에, 단계(204, 304, 404)에서 E 근접 센서(106) 및 S 근접 센서(106)로부터 수신된 신호들은 이들 이동들을 나타내는 신호들이다. 부여된 스와이프 방향은 단계(206, 306, 406)에서 E에서 N으로 인 것으로 결정될 수 있다. 추가적인 예로서, 도 10에 예시된 배열에 대해, 근접 센서(106)는 오브젝트가 그를 향해 이동하고 있는 것으로 감지할 수 있다. 단계(204, 304, 404)에서 수신된 신호는 오브젝트가 근접 센서(106)를 향해 이동하고 있다고 나타내고, 부여된 스와이프 방향은 단계(206, 306, 406)에서 W에서 E로 인 것으로 결정될 수 있다.
스와이프 방향을 결정하기 위한 단계(206, 306, 406)의 추가 실시예는 도 14의 방법(500)에 도시되어 있다. 단계(502)에서, 근접 센서(들)(106) 및/또는 바이오메트릭 인증 센서(108)로부터의 신호들 중 적어도 하나는 미리 결정된 시간 동안 무시될 수 있다. 신호들 중 하나를 무시하는 것은 사용자에 의한 단지 의도적인 스와이프들만이 검출되도록 오브젝트의 오류 검출을 최소화하거나 제거할 수 있다. 예를 들면, 사용자가 전자 디바이스를 잡을 때, 사용자의 손가락은 통상 S 방향으로부터 온다(즉, 전자 디바이스의 기저부로부터 위로). 이 경우에서, 사용자의 손가락(손가락 끝을 포함함) 및/또는 손바닥은 도 2, 5, 6 및 9에 예시된 배열들과 같이, S 근접 센서(106)를 덮을 수 있지만, 사용자는 스와이프를 수행하려는 것이 아닐 수 있다. 이 경우에, S 근접 센서(106)로부터의 신호들은 스와이프가 의도하지 않게 검출되지 않도록, 미리 결정된 기간 동안 무시된다.
나머지 무시되지 않은 근접 센서(들)(106) 및 바이오메트릭 인증 센서(108)로부터의 신호들은 단계(504)에서 스와이프 방향을 부여하는데 이용될 수 있다. 예를 들면, 도 2에 예시된 배열에 대해, S 근접 센서(106)가 오브젝트를 검출하고, 이어서 E 근접 센서(106)가 오브젝트를 검출하며, 이어서 W 근접 센서(106)로부터의 신호가 뒤따른다. 이 경우에, S 근접 센서(106)로부터의 신호가 단계(502)에서 무시되고 E 근접 센서(106), 이어서 W 근접 센서(106)로부터의 신호들이 수신된다. 부여된 스와이프 방향은 단계(504)에서 E에서 W로 인 것으로 결정될 수 있다. 또 하나의 예로서, 도 5에 예시된 배열에 대해, S 근접 센서(106)는 오브젝트를 검출할 수 있다. S 근접 센서(106)로부터의 신호는 미리 결정된 기간 동안 무시될 수 있다. 미리 결정된 기간이 경과된 이후에, S 근접 센서(106)는 오브젝트가 그로부터 이격되게 이동하고 있다고 감지하고 이러한 이동을 나타내는 신호를 송신할 수 있다. 이 경우에, 미리 결정된 기간이 경과되었으므로 사용자의 스와이프 동작들이 의도적이라고 추정할 수 있기 때문에, 부여된 스와이프 방향은 S에서 N으로 인 것으로 결정될 수 있다.
도 11-13으로 돌아가면, 방법(200, 300, 400)은 스와이프 방향이 결정된 이후에 계속될 수 있다. 도 11의 방법(200)에 도시된 실시예에서, 결정된 스와이프 방향에 응답하여 단계(208)에서 전자 디바이스 상에서 액션이 수행될 수 있다. 하나 이상의 액션들이 단계(208)에서 수행될 수 있다. 일부 실시예들에서, 사용자가 바이오메트릭 인증 센서(108)를 통해 인증된 이후에, 액션(들)이 단계(208)에서 수행될 수 있다. 다른 실시예들에서, 사용자가 바이오메트릭 인증 센서(108)를 통해 인증되지 않거나 오브젝트가 바이오메트릭 인증 센서(108)를 활성화시키지 않고서도, 단계(208)에서 액션(들)이 수행될 수 있다. 예를 들면, 인증을 필요로 하지 않는 비-보안성 어플리케이션이 액션으로서 실행될 수 있다.
액션들은 예를 들면, 어플리케이션(예를 들면, 이메일)을 열기, 전화 번호(예를 들면, 미리-저장된 전화번호 리스트로부터)를 호출하기, 미리 결정된 텍스트 메시지 또는 이메일(예를 들면, 통지들에 응답하여)을 전송하기, 전자 디바이스 상에서 카메라로 사진을 찍기, 통지들을 안전하게 미리보기, 전자 디바이스 상에서 호출들 또는 다른 소리들을 들리지 않게 하기, 또는 또 하나의 액션을 포함할 수 있다. 단계(208)에서 액션이 수행된 이후에, 방법(200)은 완료될 수 있다.
도 12의 방법(300)에 도시된 실시예에서, 단계(308)에서 사용자가 바이오메트릭 인증 센서(108)를 통해 인증되었는지 여부가 결정될 수 있다. 사용자가 단계(308)에서 인증되지 않는다면, 방법(300)은 단계(302)로 리턴하여, 오브젝트가 검출되었는지 여부를 결정할 수 있다. 그러나, 사용자가 단계(308)에서 인증된다면, 방법(300)은 단계(310)로 계속될 수 있다. 단계(310)에서, 결정된 스와이프 방향에 응답하여, 그리고/또는 인증에 기초하여 전자 디바이스 상에서 액션이 수행될 수 있다. 단계(310)에서 수행된 허용가능한 액션들은 인증되었던 사용자에 기초하여 제한될 수 있다. 예를 들면, 특정 사용자(예를 들면, 어린이)는 전자 디바이스 상의 모든 어플리케이션들로의 액세스를 가지도록 허용되지 않을 수 있다. 이 사용자가 단계(308)에서 인증될 때, 단계(310)에서 수행된 허용가능한 액션들은 단지 이 사용자가 액세스하려는 어플리케이션을 여는 것만을 포함할 수 있다. 또 하나의 예로서, 사용자가 단계(308)에서 인증된 이후에, 단계(310)에서 수행되는 허용가능한 액션들은 근접 센서(들)(106) 및/또는 인증 센서(108)를 안전한 조이스틱으로 이용하는 것을 포함할 수 있다. 이러한 시나리오에서, 사용자는 전자 디바이스 상에서 모든 방향들로, 예를 들면 N, NE, E, SE, S, SW, W, 및 NW로 네비게이팅할 수 있다. 액션이 단계(310)에서 수행된 이후에, 방법(300)이 완료될 수 있다.
도 13의 방법(400)에 도시된 실시예에서, 단계(408)에서 결정된 스와이프 방향에 기초하여 전자 디바이스 상에서 액션이 수행될 수 있다. 이러한 실시예에서, 액션은 예를 들면 인증 목적을 위해 허용된 특정 자격증명들을 결정하는 것을 포함할 수 있다. 단계(410)에서, 사용자가 바이오메트릭 인증 센서(108)를 통해 인증되었는지 여부가 결정될 수 있다. 단계(410)에서의 인증은 사용자를, 단계(408)에서 결정된 특정 자격증명들과 비교할 수 있다. 예를 들면, 특정 사용자는, 단계(408)에서 수행된 액션이 회사 네트워크에 대한 자격증명들을 활용할 수 있도록, 특정 방향으로 스와이프할 수 있다. 이러한 예에서, 단계(410)에서, 사용자는 이들 자격증명들에 대해 인증될 수 있다. 사용자가 단계(410)에서 인증되지 않는다면, 방법(400)은 단계(402)로 리턴하여, 오브젝트가 검출되었는지 여부를 결정한다. 그러나, 사용자가 단계(410)에서 인증된다면, 방법(400)이 완료된다.
그러므로, 이전 개시로부터, 전자 디바이스 상에서 오브젝트들의 지향성 감지를 위한 시스템들 및 방법들이 사용자 경험을 개선하도록 수행될 수 있다는 것은 명백하다할 것이다. 시스템들 및 방법들은 사용자가 전자 디바이스의 동작에 더 만족될 수 있게 할 수 있다.
본 개시는 그 진실하고 의도되며 명백한 범주 및 사상을 제한하려기보다는 기술에 따라 다양한 실시예들을 만들고 이용하는 방법을 설명하려는 것이다. 이전의 설명은 소모적이거나 개시된 정확한 형태로 제한되게 하려는 것은 아니다. 상기 사상들을 감안하여 변형 또는 변동들이 가능하다. 실시예(들)는 기재된 기술의 원리 및 그 실제 어플리케이션의 최상의 예시를 제공하고, 본 기술분야의 통상의 기술자가 다양한 실시예들에서, 그리고 예상되는 특정 이용에 적합한 다양한 변형들로 기술을 활용할 수 있도록 선택되고 기재되었다. 모든 그러한 변형들 및 변동들은, 이들이 공정하게 합법적으로 그리고 공평하게 자격이 주어지는 그 폭에 따라 해석될 때, 본 특허 출원의 계류 동안에 보정될 수 있는 첨부된 청구항들 및 그 등가물들에 의해 결정된 실시예들의 범위 내에 있다.

Claims (20)

  1. 방법으로서,
    전자 디바이스의 프로세서에서 하나 이상의 근접 센서들로부터 하나 이상의 신호들을 수신하는 단계 - 상기 하나 이상의 신호들은 오브젝트의 존재를 나타내며, 상기 하나 이상의 근접 센서들은 상기 전자 디바이스의 바이오메트릭 인증 센서에 인접됨 -;
    상기 프로세서를 이용하여, 상기 하나 이상의 신호들에 기초하여 상기 바이오메트릭 인증 센서에 대한 상기 오브젝트의 스와이프 방향(swipe direction)을 결정하는 단계; 및
    상기 프로세서를 이용하여, 상기 스와이프 방향을 결정하는 단계에 응답하여, 상기 전자 디바이스 상에서 액션을 수행하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 스와이프 방향을 결정하는 단계는 상기 프로세서를 이용하여, 상기 하나 이상의 근접 센서들로부터 수신된 상기 하나 이상의 신호들의 순서에 기초하여 상기 스와이프 방향을 부여하는 단계를 포함하는 방법.
  3. 제1항에 있어서, 상기 스와이프 방향을 결정하는 단계는,
    상기 프로세서를 이용하여, 미리 결정된 기간 동안 상기 하나 이상의 근접 센서들 중 하나로부터의 상기 하나 이상의 신호들 중 하나를 무시하는 단계; 및
    상기 프로세서를 이용하여, 상기 무시된 신호를 제외하고, 상기 하나 이상의 근접 센서들로부터 수신된 상기 하나 이상의 신호들의 순서에 기초하여 상기 스와이프 방향을 부여하는 단계
    를 포함하는 방법.
  4. 제1항에 있어서, 상기 스와이프 방향을 결정하는 단계는 상기 프로세서를 이용하여, 상기 오브젝트가 상기 하나 이상의 근접 센서를 향해 또는 그로부터 이격되게 이동하고 있다는 것을 상기 하나 이상의 신호들이 나타내는지에 기초하여 상기 스와이프 방향을 부여하는 단계를 포함하는 방법.
  5. 제1항에 있어서, 상기 하나 이상의 신호들을 수신하는 단계는 상기 프로세서에서 상기 하나 이상의 근접 센서들로부터의 상기 하나 이상의 신호들, 및 상기 바이오메트릭 인증 센서로부터의 제2 신호를 수신하는 단계를 포함하고, 상기 제2 신호는 상기 바이오메트릭 인증 센서의 활성화를 나타내는 방법.
  6. 제5항에 있어서, 상기 스와이프 방향을 결정하는 단계는 상기 프로세서를 이용하여, 상기 하나 이상의 근접 센서들로부터 수신된 상기 하나 이상의 신호들 및 상기 바이오메트릭 인증 센서로부터 수신된 상기 제2 신호의 순서에 기초하여 상기 스와이프 방향을 부여하는 단계를 포함하는 방법.
  7. 제5항에 있어서, 상기 스와이프 방향을 결정하는 단계는,
    상기 프로세서를 이용하여, 상기 하나 이상의 근접 센서들 중 하나로부터의 상기 하나 이상의 신호들 중 하나, 또는 상기 바이오메트릭 인증 센서로부터의 상기 제2 신호를 미리 결정된 기간 동안 무시하는 단계; 및
    상기 프로세서를 이용하여, 상기 무시된 신호를 제외하고, 상기 하나 이상의 근접 센서들로부터 수신된 상기 하나 이상의 신호들 또는 상기 바이오메트릭 인증 센서로부터 수신된 상기 제2 신호의 순서에 기초하여 상기 스와이프 방향을 부여하는 단계
    를 포함하는 방법.
  8. 제1항에 있어서,
    상기 하나 이상의 근접 센서들은 각각이 상기 바이오메트릭 인증 센서의 상이한 측면에 인접한 복수의 근접 센서들을 포함하고,
    상기 하나 이상의 신호들을 수신하는 단계는 상기 프로세서에서 상기 복수의 근접 센서들로부터 상기 하나 이상의 신호들을 수신하는 단계를 포함하는 방법.
  9. 제1항에 있어서, 상기 하나 이상의 근접 센서들 각각은 발광 다이오드 및 수광 다이오드를 구비하는 적외선 센서를 포함하는 방법.
  10. 제1항에 있어서, 상기 바이오메트릭 인증 센서는 지문 센서를 포함하는 방법.
  11. 전자 디바이스로서,
    바이오메트릭 인증 센서;
    각각이 상기 바이오메트릭 인증 센서에 인접하여 있고 오브젝트의 존재를 나타내는 신호를 출력하도록 구성된 하나 이상의 근접 센서들; 및
    상기 바이오메트릭 인증 센서 및 상기 하나 이상의 근접 센서들과 동작가능하게 결합되는 프로세서
    를 포함하고,
    상기 프로세서는 상기 하나 이상의 근접 센서들로부터의 신호에 기초하여 상기 바이오메트릭 인증 센서에 대한 상기 오브젝트의 스와이프 방향을 결정하고, 상기 프로세서는 상기 스와이프 방향을 결정한 것에 응답하여 상기 전자 디바이스 상에서 액션을 수행하는 전자 디바이스.
  12. 제11항에 있어서, 상기 프로세서는 상기 하나 이상의 근접 센서들로부터 수신된 상기 하나 이상의 신호들의 순서에 기초하여 상기 스와이프 방향을 부여함으로써 상기 스와이프 방향을 결정하는 전자 디바이스.
  13. 제11항에 있어서, 상기 프로세서는,
    상기 하나 이상의 근접 센서들 중 하나로부터의 하나 이상의 신호들 중 하나를 미리 결정된 기간동안 무시하고,
    상기 무시된 신호를 제외하고, 상기 하나 이상의 근접 센서들로부터 수신된 상기 하나 이상의 신호들의 순서에 기초하여 상기 스와이프 방향을 부여함으로써 상기 스와이프 방향을 결정하는 전자 디바이스.
  14. 제11항에 있어서, 상기 프로세서는 상기 오브젝트가 상기 하나 이상의 근접 센서들을 향해 또는 그로부터 이격되게 이동하고 있다는 것을 상기 하나 이상의 신호들이 나타내는지에 기초하여 상기 스와이프 방향을 부여함으로써 상기 스와이프 방향을 결정하는 전자 디바이스.
  15. 제11항에 있어서, 상기 바이오메트릭 인증 센서는 상기 바이오메트릭 인증 센서의 활성화를 나타내는 제2 신호를 출력하도록 구성된 전자 디바이스.
  16. 제15항에 있어서, 상기 프로세서는 상기 하나 이상의 근접 센서들로부터 수신된 상기 하나 이상의 신호들 및 상기 바이오메트릭 인증 센서로부터 수신된 상기 제2 신호의 순서에 기초하여 상기 스와이프 방향을 부여함으로써 상기 스와이프 방향을 결정하는 전자 디바이스.
  17. 제15항에 있어서, 상기 프로세서는,
    상기 하나 이상의 근접 센서들 중 하나로부터의 상기 하나 이상의 신호들 중 하나 또는 상기 바이오메트릭 인증 센서로부터의 상기 제2 신호를 미리 결정된 기간동안 무시하고; 및
    상기 무시된 신호를 제외하고, 상기 하나 이상의 근접 센서들로부터 수신된 상기 하나 이상의 신호들 또는 상기 바이오메트릭 인증 센서로부터 수신된 상기 제2 신호의 순서에 기초하여 상기 스와이프 방향을 부여함으로써 상기 스와이프 방향을 결정하는 전자 디바이스.
  18. 제11항에 있어서, 상기 하나 이상의 근접 센서들은 각각이 상기 바이오메트릭 인증 센서의 상이한 측면에 인접하는 복수의 근접 센서들을 포함하는 전자 디바이스.
  19. 제11항에 있어서, 상기 하나 이상의 근접 센서들 각각은 발광 다이오드 및 수광 다이오드를 구비하는 적외선 센서를 포함하는 전자 디바이스.
  20. 제11항에 있어서, 상기 바이오메트릭 인증 센서는 지문 센서를 포함하는 전자 디바이스.
KR1020170063485A 2016-05-26 2017-05-23 전자 디바이스 상에서 오브젝트들의 지향성 감지를 위한 시스템들 및 방법들 KR20170134226A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/165,703 US20170344777A1 (en) 2016-05-26 2016-05-26 Systems and methods for directional sensing of objects on an electronic device
US15/165,703 2016-05-26

Publications (1)

Publication Number Publication Date
KR20170134226A true KR20170134226A (ko) 2017-12-06

Family

ID=59009503

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170063485A KR20170134226A (ko) 2016-05-26 2017-05-23 전자 디바이스 상에서 오브젝트들의 지향성 감지를 위한 시스템들 및 방법들

Country Status (4)

Country Link
US (1) US20170344777A1 (ko)
EP (1) EP3249878B1 (ko)
KR (1) KR20170134226A (ko)
CN (1) CN107437015B (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389203B (zh) * 2015-10-19 2017-11-17 广东欧珀移动通信有限公司 一种指纹识别设备的调用方法、装置及移动终端
WO2019026925A1 (ja) * 2017-08-01 2019-02-07 パナソニックIpマネジメント株式会社 個人認証装置
JP6724259B2 (ja) * 2017-10-31 2020-07-15 富士フイルム株式会社 操作装置、その作動方法および作動プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100136649A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 휴대단말기의 근접 센서를 이용한 사용자 인터페이스 구현 방법 및 장치
US20130076485A1 (en) * 2011-09-22 2013-03-28 Scott Mullins Electronic Device with Multimode Fingerprint Reader

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203347B2 (en) * 2001-06-27 2007-04-10 Activcard Ireland Limited Method and system for extracting an area of interest from within a swipe image of a biological surface
US8276816B2 (en) * 2007-12-14 2012-10-02 Validity Sensors, Inc. Smart card system with ergonomic fingerprint sensor and method of using
US10146989B2 (en) * 2009-09-09 2018-12-04 Htc Corporation Methods for controlling a hand-held electronic device and hand-held electronic device utilizing the same
WO2011070554A2 (en) * 2009-12-13 2011-06-16 Ringbow Ltd. Finger-worn input devices and methods of use
JP5023193B2 (ja) * 2010-06-28 2012-09-12 株式会社東芝 情報処理装置
CN103076960A (zh) * 2011-10-26 2013-05-01 华为终端有限公司 控制屏幕显示方向的方法及其终端
US20130129162A1 (en) * 2011-11-22 2013-05-23 Shian-Luen Cheng Method of Executing Software Functions Using Biometric Detection and Related Electronic Device
CN102681777A (zh) * 2012-04-23 2012-09-19 华为终端有限公司 点亮屏幕的方法与移动终端
KR102088382B1 (ko) * 2012-09-07 2020-03-12 삼성전자주식회사 애플리케이션 실행 방법, 콘텐트 공유 제어 방법 및 디스플레이 장치
EP2717474A1 (en) * 2012-10-02 2014-04-09 Thomson Licensing Multiple function arrangement for electronic apparatus and method thereof
CN103869947B (zh) * 2012-12-14 2017-11-28 联想(北京)有限公司 控制电子设备的方法及电子设备
KR101398141B1 (ko) * 2013-02-08 2014-05-20 엘지전자 주식회사 이동 단말기
WO2014157897A1 (en) * 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Method and device for switching tasks
US20140359757A1 (en) * 2013-06-03 2014-12-04 Qualcomm Incorporated User authentication biometrics in mobile devices
KR102110206B1 (ko) * 2013-08-05 2020-05-13 엘지전자 주식회사 단말기 및 이의 제어방법
US20150078586A1 (en) * 2013-09-16 2015-03-19 Amazon Technologies, Inc. User input with fingerprint sensor
US9411446B2 (en) * 2013-11-04 2016-08-09 Google Technology Holdings LLC Electronic device with a touch sensor and method for operating the same
KR102206054B1 (ko) * 2014-05-09 2021-01-21 삼성전자주식회사 지문 처리 방법 및 그 전자 장치
US9465930B2 (en) * 2014-08-29 2016-10-11 Dropbox, Inc. Fingerprint gestures
KR102334263B1 (ko) * 2014-11-18 2021-12-03 삼성전자주식회사 지문 센서를 구동하는 방법 및 전자 장치
KR20160061163A (ko) * 2014-11-21 2016-05-31 삼성전자주식회사 지문 등록 및 인증 방법 및 이를 제공하는 전자 장치
KR102277453B1 (ko) * 2015-02-05 2021-07-14 삼성전자주식회사 터치 센서를 구비한 전자 장치 및 그 구동 방법
JP6756087B2 (ja) * 2015-03-10 2020-09-16 カシオ計算機株式会社 生体認証装置およびその駆動制御方法
KR102093196B1 (ko) * 2015-04-16 2020-04-14 삼성전자주식회사 지문 인식 기반 조작 방법 및 장치
US20160364600A1 (en) * 2015-06-10 2016-12-15 Microsoft Technology Licensing, Llc Biometric Gestures
US9741188B2 (en) * 2015-07-15 2017-08-22 Ford Global Technologies, Llc Mobile device case
CN105094611B (zh) * 2015-07-23 2019-03-26 京东方科技集团股份有限公司 显示装置、显示方法
CN105184228A (zh) * 2015-08-13 2015-12-23 小米科技有限责任公司 移动设备及其屏幕模组、指纹采集方法、装置及电子设备
US20170064073A1 (en) * 2015-09-01 2017-03-02 Qualcomm Incorporated Controlling one or more proximate devices via a mobile device based on one or more detected user actions while the mobile device operates in a low power mode
US10402616B2 (en) * 2015-10-21 2019-09-03 Motorola Mobility Llc Fingerprint sensor with proximity detection, and corresponding devices, systems, and methods

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100136649A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 휴대단말기의 근접 센서를 이용한 사용자 인터페이스 구현 방법 및 장치
US20130076485A1 (en) * 2011-09-22 2013-03-28 Scott Mullins Electronic Device with Multimode Fingerprint Reader

Also Published As

Publication number Publication date
EP3249878A1 (en) 2017-11-29
EP3249878B1 (en) 2022-09-28
US20170344777A1 (en) 2017-11-30
CN107437015B (zh) 2021-03-12
CN107437015A (zh) 2017-12-05

Similar Documents

Publication Publication Date Title
KR102578253B1 (ko) 전자 장치 및 전자 장치의 지문 정보 획득 방법
US20220100841A1 (en) Authenticated device used to unlock another device
KR102127308B1 (ko) 지문 식별을 사용하는 조작 방법 및 장치, 및 모바일 단말
KR102561736B1 (ko) 터치 디스플레이를 가지는 전자 장치 및 이의 지문을 이용한 기능 실행 방법
US9823762B2 (en) Method and apparatus for controlling electronic device using touch input
KR102123092B1 (ko) 지문 인식 방법 및 그 전자 장치
KR102199806B1 (ko) 곡형 디스플레이 모듈을 갖는 전자 장치 및 그 운용 방법
CN106133748B (zh) 用于基于指纹传感器输入来操纵用户界面的设备、方法和图形用户界面
US20180181733A1 (en) Smart watch and method for controlling same
EP3482345B1 (en) Implementation of biometric authentication with detection and display of an error indication
EP3420439B1 (en) Motion-based configuration of a multi-user device
US11636192B2 (en) Secure login with authentication based on a visual representation of data
WO2016201037A1 (en) Biometric gestures
KR20150128377A (ko) 지문 처리 방법 및 그 전자 장치
JP2020504407A (ja) 指紋識別に基づくアプリケーションの起動方法および装置
CN103150109A (zh) 用于web页面的触摸事件模型
CN107451439B (zh) 用于计算设备的多功能按钮
KR20180051782A (ko) 사용자 인증과 관련된 사용자 인터페이스 표시 방법 및 이를 구현한 전자 장치
CN107924286B (zh) 电子设备及电子设备的输入方法
CN107437015B (zh) 用于电子设备上的物体的方向感测的系统和方法
KR20150017150A (ko) 터치 스크린을 구비한 전자기기 및 그 운영 방법
CN109614787A (zh) 解锁控制方法、装置、移动终端及存储介质
KR102616793B1 (ko) 전자 장치 및 전자 장치의 화면 제공 방법
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
KR20140010205A (ko) 터치스크린을 포함하는 단말을 이용한 마우스 기능의 제공 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application