KR20190050779A - 생체 인식 센서를 이용하여 디스플레이 방향을 제어하는 방법, 장치 및 제품 - Google Patents

생체 인식 센서를 이용하여 디스플레이 방향을 제어하는 방법, 장치 및 제품 Download PDF

Info

Publication number
KR20190050779A
KR20190050779A KR1020197006074A KR20197006074A KR20190050779A KR 20190050779 A KR20190050779 A KR 20190050779A KR 1020197006074 A KR1020197006074 A KR 1020197006074A KR 20197006074 A KR20197006074 A KR 20197006074A KR 20190050779 A KR20190050779 A KR 20190050779A
Authority
KR
South Korea
Prior art keywords
biometric
content
orientation
electronic device
portable
Prior art date
Application number
KR1020197006074A
Other languages
English (en)
Other versions
KR102572582B1 (ko
Inventor
제프리 엠 트립
Original Assignee
인텔 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코포레이션 filed Critical 인텔 코포레이션
Publication of KR20190050779A publication Critical patent/KR20190050779A/ko
Application granted granted Critical
Publication of KR102572582B1 publication Critical patent/KR102572582B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • H04M1/72569
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1671Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • G06K9/00006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • H04M1/72583
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

디스플레이 장치가 콘텐츠를 표시하고 있는 방향을 결정하기 위해 생체 인식 콘텐츠를 사용하는 휴대용 전자 장치에 대한 제조 방법, 시스템 및 제품이 개시된다. 예시적인 전자 장치는 디스플레이 장치, 생체 인식 샘플을 캡처하는 생체 인식 센서, 및 생체 인식 샘플에 기초하여 사용자에 대한 장치 방향을 결정하기 위한 방향 결정 툴을 포함한다. 예시적인 장치는 또한 디스플레이 장치와 휴대용 전자 장치 중 적어도 한 장치의 장치 방향의 결정에 기초하여, 휴대용 전자 장치의 디스플레이 장치가 콘텐츠를 표시하는 콘텐츠 방향을 변경하는 방향 조정 툴을 더 포함한다. 일부 예에서, 생체 인식 센서는 지문 센서 또는 이미지 센서이다.

Description

생체 인식 센서를 이용하여 디스플레이 방향을 제어하는 방법, 장치 및 제품
본 개시는 일반적으로 휴대용 전자 장치에 관한 것으로, 보다 구체적으로는 생체 인식 센서를 이용하여 휴대용 전자 장치의 디스플레이 방향을 제어하는 것에 관한 것이다.
디스플레이를 구비한 휴대용 전자 장치는 통상적으로 콘텐츠/정보가 디스플레이 장치 상에 표시되는 방향을 변경할 수 있다. 휴대용 전자 장치에 설치된 배치상태 센서(positin sensor)는 장치의 배치상태(position) 또는 방향을 식별하기 위한 하나 이상의 기법을 이용한다. 이러한 기법은 움직임 센서, 중력 센서, 가속도계, 자기장 센서, 이미징 센서 등을 포함할 수 있다. 배치상태 센서에 의해 획득된 배치상태 결정 정보에 반응하여, 디스플레이 장치 제어기는 정보가 디스플레이/스크린 상에 표시되는 방향을 제어한다. 따라서, 사용자가 휴대용 전자 장치를 상향(upright orientation)으로 들고 있는 경우, 디스플레이 장치 제어기는 정보가 디스플레이/스크린 상에서 상향(수직 방향)으로 표시되도록 한다. 사용자가 휴대용 전자 장치를 수평 방향(예컨대, 수직 배치상태로부터 약 90°)으로 돌려놓은 상태로 들고 있는 경우에는, 디스플레이 장치 제어기는 정보가 디스플레이/스크린 상에서 수평 방향(가로 방향)으로 표시되도록 한다.
도 1은 생체 인식 정보를 이용하여 디스플레이 장치 상에 정보가 표시되는 방향을 제어하는 예시적인 생체 인식 기반 디스플레이 방향 제어기를 구비한 예시적인 휴대용 전자 장치의 블록도이다.
도 2는 도 1의 예시적인 생체 인식 기반 방향 제어기의 블록도이다.
도 3은 제1 방향, 제2 방향, 제3 방향 및 제4 방향으로 나타낸 도 1의 예시적인 휴대용 전자 장치의 개략도이다.
도 4a는 사용자에 대해 제1(상향 수직) 방향으로 위치하는 도 1의 예시적인 휴대용 전자 장치의 개략도이다.
도 4b는 사용자에 대해 제2(좌측면이 위쪽을 향하는 수평) 방향으로 위치하는 도 1의 예시적인 휴대용 전자 장치의 개략도이다.
도 4c는 사용자에 대해 제3(거꾸로의 수직) 방향으로 위치하는 도 1의 예시적인 휴대용 전자 장치의 개략도이다.
도 4d는 사용자에 대해 제4(우측면이 위쪽을 향하는 수평) 방향으로 위치하는 도 1의 예시적인 휴대용 전자 장치의 개략도이다.
도 5는 예시적인 생체 트레이닝 데이터 세트이다.
도 6a는 사용자에 대해 제1 방향으로 위치하는 도 2의 예시적인 휴대용 전자 장치의 개략도이다.
도 6b는 사용자에 대해 제2 방향으로 위치하는 도 1의 예시적인 휴대용 전자 장치의 개략도이다.
도 6c는 사용자에 대해 제3 방향으로 위치하는 도 1의 예시적인 휴대용 전자 장치의 개략도이다.
도 6d는 사용자에 대해 제4 방향으로 위치하는 도 1의 예시적인 휴대용 전자 장치의 개략도이다.
도 7은 도 2의 예시적인 생체 인식 기반 방향 제어기를 구현하도록 실행될 수 있는 예시적인 머신 판독 가능 명령들을 나타내는 예시적인 흐름도이다.
도 8은 도 2의 예시적인 생체 인식 기반 방향 제어기를 구현하도록 실행될 수 있는 예시적인 머신 판독 가능 명령들을 나타내는 흐름도이다.
도 9는 도 1 및 도 2의 예시적인 생체 인식 기반 방향 제어기를 구비한 예시적인 휴대용 전자 장치를 구현하도록 실행될 수 있는 예시적인 머신 판독 가능 명령들을 나타내는 흐름도이다.
도 10은 도 1 및 도 2의 예시적인 휴대용 전자 장치 및 예시적인 생체 인식 기반 방향 제어기를 구현하도록 도 7, 8 및/또는 9의 명령들을 실행할 수 있는 예시적인 프로세서 플랫폼의 블록도이다.
도면들은 실제 축척대로 도시된 것이 아니다. 가능하다면, 동일한 참조 번호는 도면(들) 및 첨부된 설명 전체에 걸쳐서 동일하거나 유사한 부분을 지칭하는 데 사용될 것이다.
디스플레이 장치를 구비한 휴대용 전자 장치는 디스플레이 장치 상에 표시되는 정보의 방향을 제어하도록 구성된 하드웨어/소프트웨어를 포함한다. 휴대용 전자 장치에 설치된(또는 통합된) 배치상태 센서는 전자 장치의 배치상태 또는 방향을 식별하기 위한 하나 이상의 기법을 이용한다. 이러한 기법은 움직임 센서, 가속도계, 자기장 센서, 중력 센서 등을 포함할 수 있다. 디스플레이 장치 제어기는 배치상태 센서에 의해 제공되는 배치상태 정보를 이용하여 정보가 디스플레이 장치 상에 디스플레이/표시되는 방향을 제어한다. 따라서, 사용자가 휴대용 전자 장치를 수직 상향(vertical upright orientation)으로 들고 있는 경우, 디스플레이 장치 제어기는 디스플레이된 콘텐츠/정보가 수직으로, 즉 상향 배치상태로 표시되게 한다. 사용자가 휴대용 전자 장치를 우측으로 돌려서 수평 방향으로 들고 있는 경우, 디스플레이 장치 제어기는 디스플레이된 정보가 우측으로 돌려져서 수평 방향으로 보이게 한다.
유감스럽게도, 디스플레이 장치 상에 표시된 정보의 방향을 제어하기 위한 기존의 방법 및 기술은 때로는 불편하고 심지어 사용자의 시청 경험을 떨어뜨릴 수 있다. 특히, 일부 휴대용 전자 장치는 임계 기간 동안 사용하지 않을 때 배터리 절약형 잠금 모드로 들어가도록 구성되어 있다. 이러한 장치는 하나 이상의 입력 장치에 제공된 입력 정보를 시간에 따라 모니터링하도록 구성된다. 임계 시간 동안 입력 정보가 없는 경우, 운영 체제는 잠금 모드로 들어가며, 이 잠금 모드에서는 표시 화면이 꺼져서 사용자가 장치에 액세스할 수 없다. 후속하여 전자 장치의 잠금을 해제하기 위해, 사용자는 입력 장치를 활성화(예컨대, 버튼 누르기)함으로써 보안 검증 메시지가 화면 상에 디스플레이되게 한다. 일부 장치에서, 보안 검증 메시지는 사용자에게, 장치에 의해 검증될 때 장치로 하여금 잠금 해제되게 하고 사용자가 액세스할 수 있게 하는 보안 정보(예컨대, 숫자 코드, 스와이프 패턴, 지문 검증)를 제공하도록 지시한다. 일부 휴대용 전자 장치에서, 보안 디스플레이 메시지의 방향은 전자 장치가 현재 취하고 있는 자세에 관계없이 수직 상향/배치상태로 디스플레이하도록 설정된다. 따라서, 보안 검증 메시지가 디스플레이될 때 사용자가 장치를 수평 배치상태로 들고 있으면, 사용자는 보안/인증 코드를 입력하기 위해 장치를 다시 수직 상향/배치상태로 돌려야 한다.
일부 기존의 전자 장치에서, 디스플레이되는 보안 메시지의 방향은, 전자 장치가 사용자의 비활동으로 인해 잠겨졌을 때의 전자 장치의 방향과 매칭되는 방향으로 나타나도록 설정된다. 따라서 정보가 (사용자 입력이 없음으로 인해) 장치가 비활성화되었을 때에 정보가 수평 배치상태로 표시되고 있으면, 사용자가 이후에 장치를 다시 활성화하려고 시도할 때(예컨대, 장치의 입력을 누를 때) 보안 검증 메시지도 수평 배치상태로 디스플레이될 것이다. 그러나, 전자 장치가 비활성인 동안 사용자가 전자 장치의 방향을 바꾸었을 수 있으며, 이 때문에 보안 검증 메시지가 장치/사용자의 현재 방향/배치상태와 정렬되지 않은 방향/배치상태로 나타날 수 있다. 그러한 상황에서, 사용자는 디스플레이 방향과 매칭되는 방향으로 전자 장치를 돌리는 것 및/또는 디스플레이된 메시지의 방향을 재설정하기 위해 장치를 움직이거나/흔들어서 움직임/배치상태 센서를 수동으로 활성화하는 것을 해야 한다. 사용자의 시청 습관에 따라, 배치상태 센서의 수동 작동 및/또는 전자 장치의 방향 재설정이 하루에 여러 번 심지어 한 시간에도 여러 번 요구될 수 있으며, 이는 사용자를 더욱 불편하게 한다.
일부 휴대용 전자 장치는 필요에 따라 현재 장치가 취하고 있는 배치상태와 매칭되도록 디스플레이 방향을 변경하도록 구성된다. 따라서, 사용자가 장치를 수직 방향에서 수평 방향으로 바꿀 때, 디스플레이는 수직 방향에서 수평 방향으로 자동으로 변하며, 그 반대의 경우도 마찬가지이다. 그러나, 기존의 배치상태 센서는 장치의 방향의 변화를 항상 적절히 검출하지는 못하기 때문에, 새로운 배치상태가 감지될 때까지 장치를 수동으로 흔들도록 사용자에게 요구할 수 있다. 유감스럽게도, 배치상태 센서가 움직임에 대해 과잉반응하여, 휴대용 전자 장치의 방향과 매칭되는 방향으로 확정되기 전에 디스플레이가 여러 방향 사이에서 오락가락하게 될 수도 있다. 이러한 상황에서, 사용자는 배치상태 센서가 적절한 방향으로 확정되고 그에 따라 디스플레이 방향을 조정할 수 있을 때까지 기다릴 수 밖에 없다. 디스플레이가 확정되도록 기다려야 하는 것 또한 사용자 불만을 야기할 수 있다. 따라서, 전자 장치의 방향에 기초하여 디스플레이 방향을 조정하기 위한 개선된 방법, 장치 및 제품이 요구된다.
본 명세서에 개시된 방법, 장치 및 제품은 생체 인식 정보(예컨대, 지문, 얼굴 이미지 등)에 기초하여 사용자에 대한 휴대용 전자 장치의 방향을 결정한다. 본 명세서에 개시된 기술을 이용하는 휴대용 전자 장치는, 사용자로부터 생체 인식 정보를 수집하도록 구성된 생체 인식 센서를 포함한다. 생체 인식 정보는 사용자에 대한 장치의 방향을 식별하는 데 사용된다. 일부 예들에서, 지문 센서는 사용자의 지문을 수집하고, 지문은 휴대용 전자 장치의 방향을 식별하는 데 사용된다. 그 다음에 디스플레이가 현재 정보를 디스플레이되게 하는 방향이 결정된다. 장치 방향과 디스플레이 방향 간의 정렬이 확인되면, 디스플레이 방향 재설정이 수행되지 않는다. 정렬이 확인되지 않으면 디스플레이 방향을 재설정이 수행된다. 일부 예들에서, 사용자가 전자 장치의 입력을 눌러 전자 장치를 활성화 시키려고 할 때 지문이 수집된다. 전자 장치는 지문의 방향을 이전에 캡처된 지문 세트와 비교하고, 이 비교에 기초하여, 장치의 방향이 디스플레이의 현재 방향과 정렬되는지를 판정한다. 그런 다음 이 판정에 따라 디스플레이 방향이 조정된다. 일부 예에서, 휴대용 전자 장치의 방향은 장치 상에 배치된 이미지 센서(예컨대, 카메라)에 의해 수집된 사용자의 이미지에 기초한다. 사용자에 대한 장치의 방향을 결정하기 위해 안면 인식 기술이 이미지에 적용된다. 장치 방향과 디스플레이 방향의 후속 비교에 따라, 전자 장치는 디스플레이 방향을 적절한 배치상태로 향하게 하거나 또는 조정한다. 따라서, 디스플레이 방향을 조정하기 위해 전자 장치를 수동으로 움직일 필요가 없어지고/없어지거나 크게 줄어들어, 사용자의 시청/상호 작용 경험을 향상시킬 수 있다. 휴대용 전자 장치에서 디스플레이 방향을 조정하기 위해 생체 인식을 사용하는 다른 장점은 도면을 참조하여 아래에서 설명된다.
도 1은 예시적인 디스플레이 장치(104)가 정보를 표시하는 방향을 제어하기 위해 생체 인식 정보를 이용하는 예시적인 생체 인식 기반 방향 제어기(102)를 구비한 예시적인 휴대용 전자 장치(100)의 블록도이다. 일부 예에서, 휴대용 전자 장치(100)는 생체 인식 기반 방향 제어기(102), 디스플레이 장치(104), 예시적인 디스플레이 장치 제어기(106), 예시적인 배치상태/입력 기반 방향 제어기(108), 예시적인 제1 생체 인식 센서(110), 예시적인 제2 생체 인식 센서(112), 예시적인 제3 생체 인식 센서(114), 예시적인 배치상태/움직임 센서(116), 예시의 프로세서(118), 예시적인 입력 장치(120), 예시적인 통신 장치(122), 예시적인 메모리 장치(124), 예시적인 제1 통신 버스(128)에 결합된 예시적인 스피커(126)를 포함한다. 이 예의 프로세서(118)는 입력 장치들(120), 통신 장치(들)(122) 및/또는 메모리 장치(들)(124) 중 임의의 것으로부터 콘텐츠 및/또는 명령을 수신한다. 일부 예에서, 프로세서(118)는 콘텐츠/정보를 디스플레이 장치 제어기(106)로 전송한다. 디스플레이 장치 제어기(106)는 콘텐츠/정보를 디스플레이 장치(104) 상에 표시하기에 적합한 포맷으로 변환하고, 그 후, 변환된 콘텐츠를 배치상태/입력 기반 방향 제어기(108)로 전송한다. 배치상태/입력 기반 방향 제어기(108)는, 배치상태/움직임 센서(116)에 의해 제공된 입력에 기초하여 또는 입력 장치들(120) 중 임의의 장치를 통해 사용자에 의해 입력된 제어 명령에 의해, 디스플레이 장치(102) 상에 콘텐츠/정보가 제공되는 방향(이하, "디스플레이 방향"이라 함)을 제어한다. 일부 예에서, 사용자는 디스플레이 장치(104) 상에 표시된 잠금 명령을 선택하거나 입력 장치들(120) 중 하나를 작동시킴으로써 디스플레이 방향을 특정 방향으로 고정시킬 수 있다. 일부 경우에, 디스플레이 장치(104)는 터치 센서를 구비한 터치스크린이며, 따라서 디스플레이 장치(104)를 터치함으로써 입력 정보가 입력될 수 있다.
일부 예에서, 예시적인 제1, 제2 및/또는 제3 생체 인식 센서(110, 112, 114)는 사용자로부터 수집된 생체 인식 샘플을 예시적인 생체 인식 기반 방향 제어기(102)에 공급한다. 예시적인 생체 인식 기반 방향 제어기(102)는 생체 인식 샘플을 사용하여 사용자에 대한 예시적인 휴대용 전자 장치(100)의 방향("장치 방향"이라 함)을 결정한다. 또한, 생체 인식 기반 방향 제어기(102)는, 센서들에 의해 수집된 생체 인식 데이터에 기초하여, 디스플레이 장치(104)가 현재 콘텐츠/정보를 표시하고 있는 방향("콘텐츠 방향"이라 함)을 결정한다. 장치(예컨대, 하우징) 방향이 콘텐츠 방향과 매칭되지 않으면, 생체 인식 기반 방향 제어기(108)는 콘텐츠 방향을 변경하라는 명령을 배치상태/입력 기반 방향 제어기(108)로 전송한다. 배치상태/입력 기반 방향 제어기(108)는 콘텐츠 방향을 변경함으로써 명령에 응답한다. 일부 예에서, 생체 인식 기반 방향 제어기(102)에 의해 전송된 명령은 디스플레이된 콘텐츠가 변경되어야 할 방향을 나타낸다. 일부 예에서, 배치상태/입력 기반 방향 제어기(108)는 디스플레이 장치(104)에 의해 사용되고 있는 콘텐츠 방향을 식별하는 정보를 생체 인식 기반 방향 제어기(102)로 전송한다. 일부 예에서, 콘텐츠 방향 정보는 비-생체 인식 기반 정보(예컨대, 배치상태/움직임)에 기초하여 콘텐츠 방향이 변경될 때마다 생체 인식 기반 방향 제어기(102)로 전송되어, 생체 인식 기반 제어기(102)가 현재 콘텐츠 방향을 계속해서 통지받도록 한다.
도 2는 도 1의 예시적인 생체 인식 기반 방향 제어기(102)의 블록도이다. 일부 예에서, 생체 인식 기반 방향 제어기(102)는 예시적인 제2 통신 버스(212)에 연결되는 예시적인 생체 인식 데이터 프로세서(202), 예시적인 생체 인식 데이터 저장부(204), 예시적인 방향 결정 툴(206), 예시 방향 조정 툴(208), 예시적인 트레이닝 데이터 빌더(210)를 포함한다. 일부 예에서, 트레이닝 데이터 빌더(210)는 생체 인식 트레이닝 데이터 세트를 구축하는 데 사용하기 위해 사용자로부터 생체 인식 샘플들을 수집하도록 구성된다. 수집되는 생체 인식 트레이닝 데이터 세트는 샘플을 수집하는 데 사용되는 생체 인식 센서의 유형에 따라 다르다. 일부 예에서, 제1 생체 인식 센서(110)(도 1 참고)는 지문 센서이고 생체 인식 트레이닝 데이터 세트는 지문 세트를 포함한다. 일부 예에서, 제2 생체 인식 센서(112)(도 1 참고)는 이미지 센서(예컨대, 카메라)이고, 생체 인식 트레이닝 데이터 세트는 얼굴 이미지 세트를 포함한다. 일부 예에서, 프로세서(118)(도 1 참고)는 휴대용 전자 장치(100) 상에서 이용 가능한 생체 인식 센서의 유형(예컨대, 제1 생체 인식 센서(110), 제2 생체 인식 센서(112), 제3 생체 인식 센서(114))(도 1 참고)에 대해 생체 인식 트레이닝 데이터 빌더(210)에게 통지하도록 구성되며, 생체 인식 트레이닝 데이터 빌더(210)는 이용 가능한 유형의 생체 인식 센서들 중 어느 것이 디스플레이를 제어하는 데 사용하기에 바람직한지를 지시하도록 사용자에게 문의하는 프롬프트(디스플레이 장치(104) 또는 예시적인 스피커(126)에 의해 제시됨)를 생성하도록 구성된다. 사용자의 선택에 응답하여, 생체 인식 트레이닝 데이터 빌더(210)는 생체 인식 트레이닝 데이터 세트를 생성하는 데 사용하기 위한 생체 인식 트레이닝 데이터의 수집을 시작한다. 일부 예에서, 생체 인식 트레이닝 데이터 빌더(210)는 이용 가능한 생체 인식 센서의 유형들 각각에 대응하는 다수의 생체 인식 트레이닝 데이터 세트를 구축하도록 구성된다. 구축될 생체 인식 트레이닝 데이터의 유형에 따라, 예시적인 생체 인식 트레이닝 데이터 빌더(210)는 예시적인 디스플레이 장치(104)(도 1 참고) 상에 또는 예시적인 스피커(126)(도 1 참고)를 통해 사용자에게 제시할 프롬프트를 생성한다. 프롬프트는 사용자에게 예시적인 휴대용 전자 장치(100)를 다양한 방향으로 들고 이들 방향에 기초하여 생체 인식 샘플을 제공하도록 지시한다.
도 3은 예시적인 휴대용 장치(100)를 4개의 예시적인 방향으로 나타낸 4개의 개략도이다. 일부 예에서, 휴대용 장치(100)의 한 면에 디스플레이 장치/스크린(104), 예시적인 지문 센서(110), 예시적인 스피커(126) 및 예시적인 이미지 센서(112)가 배치된다. 또한, 지문 센서(110)는 휴대용 전자 장치(100)에 입력을 제공하기 위해 사용자가 누를 수 있는 입력 버튼으로서 동작한다. 제1 장치 방향/배치상태(302)는 상향(upright orientation)이다. 상향으로 있을 때, 휴대용 장치(100)의 높이는 휴대용 장치(100)의 폭보다 길다. 이 방향에서, 휴대용 장치(100)의 제1 측면(측면 1)은 바닥에 있고, 휴대용 장치(100)의 제2 측면(측면 2)은 우측에 있으며, 제3 측면(측면 3)은 상단에 있고, 제4 측면(측면 4)은 좌측에 있다. 일부 예에서, 제1 방향/배치상태(302)는, 수직 상향 배치상태로부터 225°와 315° 사이에서 연장되는 제1 호(arc)(310) 내에 있는 회전 배치상태까지의 장치의 임의의 회전을 포함한다. 제2 방향(304)은 수평(horisontal) 방향이다. 제2 방향으로 있을 때, 휴대용 장치(100)의 폭은 휴대용 장치(100)의 높이보다 길고 휴대용 장치(100)는 제1 방향에 대해 시계 방향으로 90도 회전한다. 따라서, 휴대용 장치(100)의 제1 측면(측면 1)은 제2 방향으로 좌측에 있고, 제2 측면(측면 2)은 바닥에 있으며, 제3 측면(측면 3)은 우측에 있고, 제4 측면(측면 4)은 상단에 있다. 일부 예에서, 제2 방향/배치상태(304)는 315°와 45° 사이에서 연장되는 제2 호(315)를 따르는 휴대용 장치(100)의 임의의 회전을 포함한다. 제3 방향(306)은 휴대용 장치(100)의 높이가 휴대용 장치(100)의 폭보다 길고 휴대용 장치(100)가 제1 방향에 대해 거꾸로 뒤집힌(upside down) 방향이다. 제3 방향(306)에서, 휴대용 장치의 제1 측면(측면 1)은 상단에 있고, 제2 측면(측면 2)은 좌측에 있으며, 제3 측면(측면 3)은 바닥에 있고, 제4 측면(측면 4)은 우측에 있다. 일부 예에서, 제3 방향/배치상태(306)는 45°에서 135°까지 연장되는 제3 호(320)를 따르는 휴대용 장치(100)의 임의의 회전을 포함한다. 제4 방향(308)은 장치의 폭이 휴대용 장치(100)의 높이보다 길고, 휴대용 장치(100)는 시계 방향으로 제3 방향으로부터 90도 회전된 수평 배치상태이다. 제4 방향(308)에서, 휴대용 장치(100)의 제1 측면(측면 1)은 우측에 있고, 제2 측면(측면 2)은 상단에 있으며, 제3 측면(측면 3)은 좌측에 있고, 제4 영역 측면(측면 4)은 바닥에 있다. 일부 예에서, 제4 방향/배치상태(306)는 135°와 225° 사이에서 연장되는 제4 호(325)를 따른 휴대용 장치(100)의 임의의 회전을 포함한다.
생체 인식 트레이닝 데이터 수집 프로세스 동안, 생체 인식 트레이닝 데이터 빌더(210)에 의해 생성된 프롬프트는 사용자에게 휴대용 전자 장치(100)를 제1 방향(302)으로 위치시키고 이 방향으로 있을 때 사용자의 손가락을 지문 센서(110) 상에 놓도록 지시한다. 또한, 도 4a,도 4b,도 4c 및 도 4d는 각각의 제1, 제2, 제3 및 제4 방향(302, 304, 306, 308)을 제각기 취하는 예시적인 휴대용 전자 장치(100)와, 휴대용 전자 장치(100)의 표면에 배치된 예시적인 지문 센서(110) 상의 사용자의 손가락의 위치를 나타낸다. 이러한 일부 실시예에서, 트레이닝 데이터 빌더(210)에 의해 생성된 제1 프롬프트는, 휴대용 전자 장치(100)를 제1 방향(302)으로 위치시키고 사용자가 제1 방향으로 휴대용 장치(100)를 사용할 때 손가락을 두는 방향과 동일한 방향으로 사용자의 손가락을 버튼 상에 놓도록 지시한다. 그 다음에, 생체 인식 데이터 빌더(210)는 휴대용 전자 장치를 제1 방향(302)으로 들고 있는 동안 사용자의 손가락이 지문 센서/입력 버튼(110) 상에 위치할 때 감지되는 지문(생체 인식 샘플)을 수집한다(도 4a 참고). 일부 예에서, 장치의 회전을 처리하기 위해, 트레이닝 데이터 빌더(210)는 휴대용 장치(100)를 제1, 제2, 제3 및 제4 호(310, 315, 320 및 325) 내의 다양한 위치로 회전시키고, 각 위치에서 지문을 수집한다. 일부 예에서, 생체 인식 샘플은 장치가 하나의 방향(예컨대, 제1 방향)으로 유지될 때 사용자로부터 수집되고, 트레이닝 데이터 빌더(210)가 수집된 생체 인식 샘플을 제1 방향과 상관시킨다. 또한, 일부 그러한 예에서, 트레이닝 데이터 빌더(210)는 수집된 생체 인식 샘플을 사용하여 다른 방향에 대응하는 생체 인식 샘플 세트를 도출한다. 예를 들어, 트레이닝 데이터 빌더(210)는 수집된 생체 인식 샘플을 나머지 방향/배치상태 각각으로 회전시키고, 각각의 그러한 방향으로 회전한 생체 인식 샘플을 저장하고 대응하는 방향 식별자를 저장한다.
또한, 예시적인 생체 인식 트레이닝 데이터 세트(500)를 도시한 도 5를 참조하면, 예시적인 생체 인식 트레이닝 데이터 빌더(210)(도 2 참고)는 예시적인 생체 인식 데이터 저장부(304)에 지문을 제1 생체 인식 데이터 세트(502)로서 저장하게하고, 또한 제1 장치 방향 식별자(504)를 생체 인식 데이터 저장부(204) 내의 제1 생체 인식 데이터 세트와 연관지운다. 일부 예에서, 트레이닝 데이터 빌더(210)는 또한 예시적인 생체 인식 데이터 프로세서(202)(도 2 참고)로 하여금 제1 수집된 지문을 처리하게 한다. 생체 인식 데이터 프로세서(202)는 대응하는 생체 인식 데이터 세트에 저장된 생체 인식 데이터로부터 특징(예컨대, f1, f2, f3)을 추출함으로써 수집된 생체 인식 데이터(예컨대, 지문)를 처리하도록 구성된다. 추출된 특징(fl, f2, f3)은 그 후 대응하는 생체 인식 데이터 세트(502)의 일부로서 저장된다. 생체 인식 데이터 프로세서(304)에 의해 추출되는 특징(f1, f2, f3)은 수집된 생체 인식 데이터의 유형에 의존한다(예컨대, 지문으로부터 추출된 특징은 지문의 패턴과 관련될 수 있고, 얼굴 이미지로부터 추출된 특징은 얼굴 이미지에 나타나는 얼굴의 특징부(aspects) 사이의 거리와 관련될 수 있다). 일부 이러한 예에서, 예시적인 생체 인식 트레이닝 데이터 빌더(210)는 사용자에게 예시적인 휴대용 전자 장치(100)를 제2 방향(302)(도 4b 참고)으로 위치시키고 정상적인 동작 동안에 버튼을 누를 때 사용자가 손가락을 놓을 지문 센서/입력 버튼(110)(도 1 참고)에 사용자의 손가락을 위치시키도록 지시하는 제2 프롬프트를 생성한다. 사용자는 지시에 따라 다시 응답하고 제2 방향에 대응하는 제2 생체 인식 데이터 세트(506)가 수집된다. 생체 인식 트레이닝 데이터 빌더(210)는 제2 장치 방향 식별자(508)를 생체 인식 데이터 저장부(204) 내의 제2 생체 인식 데이터 세트(508)와 연관지운다. 생체 인식 트레이닝 데이터 빌더(210)는 제3 및 제4 방향(306, 308)(도 4c 및 도 4d 참고) 각각에 대응하는 생체 인식 데이터 세트(512, 514)가 수집되어 처리되고 대응하는 장치 방향 식별자(514, 516)와 연관지어질 때까지 이런 식으로 계속하여, 완전히 채워진 생체 인식 트레이닝 데이터 세트(500)를 생성한다. 일부 예에서, 사용자는, 휴대용 전자 장치(100)가 상이한 방향(302, 304, 306, 308)으로 위치할 때 사용자가 상이한 손가락을 이용하여 휴대용 전자 장치(100)를 조작하는지 여부에 따라, 상이한 손가락을 이용하여 상이한 방향(302, 304, 306, 308)에 대응하는 생체 인식 데이터 세트(502, 506, 510, 512)를 생성할 수 있다.
또한, 도 6a, 도 6b, 도 6c 및 도 6d는 각각의 제1, 제2, 제3 및 제4 방향(302, 304, 306, 308)을 제각기 취하는 예시적인 휴대용 전자 장치(100)와, 사용자가 대응하는 방향으로 휴대용 전자 장치(100)를 들고 있는 동안 디스플레이 상에 캡처된 대응하는 얼굴 이미지를 도시한 것이다. 일부 예에서, 제1, 제2 및 제3 생체 인식 센서(110,112,114) 중 임의의 것이 이미지 센서로서 구현될 수 있고 생체 인식 데이터 세트(500)(도 5 참고)를 구성하는 데 사용되는 생체 인식 샘플이 얼굴 이미지 세트를 구성한다. 일부 그러한 예에서, 예시적인 생체 인식 트레이닝 데이터 빌더(210)에 의해 생성된 프롬프트는 사용자에게 휴대용 전자 장치(100)를 제1, 제2, 제3 및 제4 방향(302, 304, 306, 308)의 세트 각각으로 들도록 지시한다. 프롬프트는 또한 휴대용 전자 장치(100)가 적절한 방향으로 위치할 때 사용자에게 입력을 선택하여(예컨대, 지문 센서/입력 버튼(110)을 누르거나, 디스플레이/터치스크린(104)을 터치하는 등) 경보(alert) 신호를 제공하도록 지시할 수 있다. 경보 신호가 수신되면, 생체 인식 트레이닝 데이터 빌더(210)는 휴대용 전자 장치(100)의 표면/정면에 배치된 이미지 센서/카메라(112)를 작동시킨다. 센서 작동 동안 캡처된 이미지는 그 후 휴대용 전자 장치(100)가 이미지 캡처 시에 위치하는 방향에 대응하는 제1, 제2, 제3 또는 제4 생체 인식 데이터 세트(502, 506, 510, 512)(의 적어도 일부)로서 저장된다.
생체 인식 트레이닝 데이터 세트(500)가 채워진 후, 생체 인식 기반 방향 제어기(102)는 예시적인 디스플레이 장치(104) 상에 표시된 정보의 방향을 제어하기 시작한다. 일부 예에서, 예시적인 방향 결정 툴(206)은 제1, 제2 및/또는 제3 생체 인식 입력(110, 112, 114) 및 생체 인식 데이터 저장소(204)(예컨대, 생체 인식 데이터 세트, 장치 방향 식별자)로부터 입력 데이터(예컨대, 생체 인식 샘플)를 수신한다. 방향 결정 툴(206)은 수신된 데이터를 이용하여 장치 방향을 결정한다. 일부 예에서, 방향 결정 툴(206)은 제1, 제2 또는 제3 생체 인식 센서(110, 112, 114) 중 하나로부터 수신된 생체 인식 샘플을 생체 인식 데이터 저장부(204)에 저장된 제1 생체 인식 데이터 세트와 비교하여 생체 인식 샘플과 연관된 장치 방향을 결정한다. 제1 생체 인식 데이터 세트가 생체 인식 샘플과 매칭되면, 제1 생체 인식 데이터 세트와 연관된 장치 방향 식별자가 생체 인식 데이터 저장부로부터 추출된다. 예를 들어, 제1 생체 인식 데이터 세트(502)(도 5 참고)가 제1 방향과 연관되면, 대응하는 장치 방향 식별자는 제1 방향을 식별할 것이다. 제1 생체 인식 데이터 세트(502)가 생체 인식 샘플과 매칭되지 않으면, 방향 결정 툴(206)은 생체 인식 샘플을 생체 인식 데이터 저장부(204)에 저장된 제2 생체 인식 데이터 세트(504)(도 5 참고)와 비교하는 식으로, 생체 측정 샘플이 모든 생체 인식 데이터 세트(502, 506, 510, 512)와 비교되고, 매칭이 발견될 때까지 계속된다. 일부 예에서, 방향 결정 툴(206)은 생체 인식 샘플을 생체 인식 트레이닝 데이터(500)와 비교하기 전에 생체 인식 데이터 프로세서(202)에 의해 생체 인식 샘플을 처리하게 한다. 일부 이러한 예에서, 생체 인식 데이터 프로세서(202)는 생체 인식 샘플로부터 관련 특징을 추출함으로써 생체 인식 샘플을 처리한다. 그 다음에, 방향 결정 툴(206)이 매칭이 식별될 때까지 생체 인식 샘플로부터 추출된 특징을 생체 인식 데이터 세트(502, 506, 510, 512)에 포함된 특징과 비교한다.
예시적인 방향 결정 툴(206)은 매칭되는 생체 인식 데이터 세트에 대응하는 장치 방향 식별자를 예시적인 통신 버스(312)를 통해 예시적인 방향 조정 툴(208)로 전송한다. 방향 조정 툴(208)은 장치 방향 식별자를 현재 예시적인 디스플레이 장치(104) 상에 정보가 표시되고 있는 방향을 나타내는 콘텐츠 방향 식별자와 비교한다. 일부 예에서, 방향 조정 툴(208)은 전술한 바와 같이 배치상태/입력 기반 방향 제어기(108)(도 1 참고)로부터 콘텐츠 방향 식별자를 획득한다. 비교 결과가 매칭되면, 디스플레이 장치(104)는 현재 예시적인 휴대용 전자 장치(100)가 위치하는 것과 동일한 방향으로 정보를 표시하고 있는 것이다. 그 결과, 방향 조정 툴(208)은 콘텐츠 방향을 조정하지 않는다. 비교 결과가 매칭되지 않으면, 디스플레이 장치(104)는 현재 장치 방향과 다른 방향으로 정보를 표시하고 있는 것이다. 매칭되지 않는 것에 응답하여, 방향 조정 툴(208)은 콘텐츠 방향을 장치 방향과 동일하도록 변경한다. 일부 예에서, 방향 조정 툴(208)은 장치 방향 식별자를 예시적인 배치상태/입력 기반 방향 제어기(108)(도 1 참고)로 전송함으로써 콘텐츠 방향을 변경/조정한다. 배치상태/입력 기반 방향 제어기(108)는 장치 방향 식별자를 수신하면, 콘텐츠 방향을 장치 방향 식별자가 나타내는 방향과 매칭되도록 변경한다.
본 명세서에 개시된 생체 인식 방향 제어기(102)(도 1 및 도 2 참고)를 구비한 예시적인 휴대용 전자 장치(104)(도 1 참고)는 휴대용 전화기, 태블릿 장치, 게임 장치, 하이브리드 랩톱/태블릿 장치 및/또는 디스플레이할 정보가 표시되는 디스플레이/스크린을 구비한 임의의 다른 휴대용 장치로서 구현될 수 있다. 본 명세서에 개시된 예시적인 휴대용 전자 장치(104)는 예시적인 배치상태/입력 기반 방향 제어기(108)(도 2 참고)를 포함한다. 따라서, 휴대용 전자 장치(100)는 디스플레이 상에 표시되는 정보의 방향 기반 제어 및/또는 배치상태/입력 기반 제어 중 하나(또는 조합)에 의존할 수 있다. 이러한 특징은 설정 메뉴에서 사용자 선택에 맡길 수 있다. 또한, 휴대용 전자 장치(104)는 대신에 배치상태/입력 기반 방향 제어기(108) 없이 구현될 수도 있다. 일부 그러한 예에서, 휴대용 장치(104)는 디스플레이 장치(104) 상에 표시된 정보의 방향을 제어하기 위해 방향 기반 제어기(102)에만 의존할 것이다. 또한, 일부 그러한 예에서, 방향 기반 제어기(102)는 예시적인 디스플레이 장치 제어기(106)로부터 디스플레이를 위해 표시될 정보를 수신하고, 생체 인식 정보에 기초하여 디스플레이할 정보를 적절히 배향하고, 배향된 정보를 예시적인 디스플레이 장치(104)에 제공하도록 구성될 것이다.
예시적인 제1, 제2 및 제3 생체 인식 센서(110, 112, 114)는 지문 센서, 이미지 센서/카메라, 음성 센서, 체온 센서 등과 같이 생체 인식 데이터를 감지할 수 있는 임의의 센서를 사용하여 구현될 수 있다. 또한, 예시적인 생체 인식 데이터 프로세서(202)는 이미지 데이터, 음성 데이터, 온도 데이터, 지문 데이터 및 실제로 제1, 제2 및 제3 생체 인식 센서(110,112,114)에 의해 공급된 임의의 생체 인식 데이터를 처리/분석하도록 구성될 수 있다. 또한 예시적인 방향 결정 툴(206)은 사용자로부터 수집된 생체 인식 데이터 샘플과 비교하여 매칭을 발견하는 데 필요한 임의의 안면 인식 알고리즘, 음성 인식 알고리즘, 지문 매칭 알고리즘, 온도 알고리즘을 수행하도록 구성될 수 있다. 제1, 제2 또는 제3 생체 인식 센서(110, 112, 114) 중 어느 하나가 마이크로폰 및 음성 인식 알고리즘을 포함하도록 구성되는 일부 예에서, 생체 인식 트레이닝 데이터 세트는 사용자가 제1 방향, 제2 방향, 제3 방향 및 제4 방향을 표현하는 단어를 말할 때의 사용자의 음성 패턴을 포함할 수 있다.
휴대용 전자 장치(100)를 구현하는 예시적인 방식이 도 1에 도시되어 있고, 생체 인식 기반 방향 제어기(102)를 구현하는 예시적인 방식이 도 2에 도시되어 있지만, 도 1 및 도 2에 도시된 요소들, 프로세스들 및/또는 장치들 중 하나 이상은 임의의 다른 방식으로 조합, 분할, 재배치, 생략, 제거 및/또는 구현될 수 있다. 또한, 예시적인 디스플레이 장치(104), 예시적인 디스플레이 장치 제어기(106), 예시적인 배치상태/입력 기반 방향 제어기(108), 예시적인 제1 생체 인식 센서(110), 예시적인 제2 생체 인식 센서(112), 예시적인 제3 생체 인식 센서(114), 예시적인 배치상태/움직임 센서(116), 예시적인 프로세서(118), 예시적인 입력 장치(들)(120), 예시적인 통신 장치(들)(122), 예시적인 메모리 장치(들)(124), 예시적인 스피커(126), 예시적인 제1 통신 버스(128), 예시적인 생체 인식 데이터 프로세서(202), 예시적인 생체 인식 데이터 저장부(204), 예시적인 방향 결정 툴(206), 예시적인 방향 조정 툴(208), 예시적인 트레이닝 데이터 빌더(210), 예시적인 제2 통신 버스(212) 및/또는 보다 일반적으로는 도 1의 예시적인 휴대용 전자 장치 및/또는 보다 일반적으로는 도 1 및 도 2의 예시적인 생체 인식 기반 방향 제어기(102)는 하드웨어, 소프트웨어, 펌웨어 및/또는 하드웨어, 소프트웨어 및/또는 펌웨어의 임의의 조합에 의해 구현될 수 있다. 따라서, 예를 들어 예시적인 디스플레이 장치(104), 예시적인 디스플레이 장치 제어기(106), 예시적인 배치상태/입력 기반 방향 제어기(108), 예시적인 제1 생체 인식 센서(110), 예시적인 제2 생체 인식 센서(112), 예시적인 제3 생체 인식 센서(114), 예시적인 배치상태/움직임 센서(116), 예시적인 프로세서(118), 예시적인 입력 장치(들)(120), 예시적인 통신 장치(들)(122), 예시적인 메모리 장치(들)(124), 예시적인 스피커(126), 예시적인 제1 통신 버스(128), 예시적인 생체 인식 데이터 프로세서(202), 예시적인 생체 인식 데이터 저장부(204), 예시적인 방향 결정 툴(206), 예시적인 방향 조정 툴(208), 예시적인 트레이닝 데이터 빌더(210), 예시적인 제2 통신 버스(212) 및/또는 보다 일반적으로는 도 1의 예시적인 휴대용 전자 장치 및/또는 보다 일반적으로는 도 2의 예시적인 생체 인식 기반 방향 제어기(102)는 하나 이상의 아날로그 또는 디지털 회로(들), 로직 회로들, 프로그램가능형 프로세서(들), ASIC(s)(application specific integrated circuit(s)), PLD(s)(programmable logic device(s)) 및/또는 FPLD(s)(field programmable logic device(s))에 의해 구현될 수 있다.
순전히 소프트웨어 및/또는 펌웨어 구현을 커버하도록 본 출원의 장치 또는 시스템 청구항을 해석하는 경우, 예시적인 휴대용 전자 장치(100), 생체 인식 기반 방향 제어기(102), 예시적인 디스플레이 장치(104), 예시적인 디스플레이 장치 제어기(106), 예시적인 배치상태/입력 기반 방향 제어기(108), 예시적인 제1 생체 인식 센서(110), 예시적인 제2 생체 인식 센서(112), 예시적인 제3 생체 인식 센서(114), 예시적인 배치상태/움직임 센서(116), 예시적인 프로세서(118), 예시적인 입력 장치(들)(120), 예시적인 통신 장치(들)(122), 예시적인 메모리 장치(들)(124), 예시적인 스피커(126), 예시적인 제1 통신 버스(128), 예시적인 생체 인식 데이터 프로세서(202), 예시적인 생체 인식 데이터 저장부(204), 예시적인 방향 결정 툴(206), 예시적인 방향 조정 툴(208), 예시적인 제2 통신 버스(212), 및 예시적인 트레이닝 데이터 빌더(210)는 본 명세서에서 소프트웨어 및/또는 펌웨어를 저장하는 메모리, DVD(digital versatile disk), CD(compact disk), 블루레이 디스크 등과 같은 유형의(tangible) 컴퓨터 판독 가능 저장 장치 또는 저장 디스크를 포함하도록 명시적으로 정의된다. 또한, 도 1의 예시적인 휴대용 전자 장치(102) 및 도 2의 예시적인 생체 인식 기반 방향 제어기(102)는 도 1 및 도 2에 도시된 것에 더하여 또는 그 대신에 하나 이상의 요소, 프로세스 및/또는 장치를 포함할 수 있으며/또는 도시된 요소들, 프로세스들 및 장치들 모두 또는 둘 이상 포함할 수 있다.
도 1의 예시적인 휴대용 전자 장치(100) 및 도 2의 예시적인 생체 인식 기반 방향 제어기(102)를 구현하기 위한 예시적인 머신 판독 가능 명령어를 나타내는 흐름도가 도 7, 8 및 9에 도시되어 있다. 이들 예에서, 머신 판독 가능 명령어들은 도 10과 관련하여 후술하는 예시적인 프로세서 플랫폼(1000)에 도시된 프로세서(118)와 같은 프로세서에 의해 실행하기 위한 프로그램(들)을 포함한다. 프로그램(들)은 CD-ROM, 플로피 디스크, 하드 드라이브, DVD(digital versatile disk), 블루레이 디스크 또는 프로세서(118)와 연관된 메모리와 같은 유형의(tangible) 컴퓨터 판독 가능 저장 매체에 저장된 소프트웨어로 구현될 수 있지만, 전체 프로그램 및/또는 그 일부는 프로세서(118) 이외의 장치에 의해 실행될 수 있고/또는 펌웨어 또는 전용 하드웨어로 구현될 수 있다. 또한, 도 7 내지 도 9에 도시된 흐름도를 참조하여 예시적인 프로그램이 설명되지만, 도 1의 예시적인 휴대용 전자 장치(100) 및 도 2의 생체 인식 방향 제어기(102)를 구현하는 다른 많은 방법들이 이용될 수도 있다. 예를 들어, 블록들의 실행 순서가 변경될 수도 있고/또는 설명된 블록들 중 일부는 변경, 제거 또는 결합될 수도 있다.
전술한 바와 같이, 도 7, 도 8 및 도 9의 실시예는 하드 디스크 드라이브, 플래시 메모리, ROM, CD, DVD, 캐시, RAM 및/또는 정보가 임의의 지속 기간(예컨대, 장시간 동안, 영구적으로, 짧은 순간 동안, 일시적으로 버퍼링되는 동안 및/또는 정보의 캐싱 동안) 저장되는 임의의 다른 저장 장치 또는 저장 디스크와 같은 유형의 컴퓨터 판독가능 저장 매체에 저장된 코딩된 명령어(예컨대, 컴퓨터 및/또는 머신 판독 가능 명령어)를 사용하여 구현될 수 있다. 본 명세서에 사용된 유형의(tangible) 컴퓨터 판독 가능 저장 매체라는 용어는, 임의의 타입의 컴퓨터 판독 가능 저장 장치 및/또는 저장 디스크를 포함하고 전파 신호 및 전송 매체를 배제하도록 명시적으로 정의된다. 본 명세서에 사용된 "유형의 컴퓨터 판독 가능 저장 매체" 및 "유형의 머신 판독 가능 저장 매체"는 혼용된다.
이에 더하여 또는 이에 갈음하여, 도 7, 도 8 및 도 9의 예시적인 프로세스는, 하드 디스크 드라이브, 플래시 메모리, 컴팩트 디스크, 디지털 다용도 디스크, 캐시, 랜덤 액세스 메모리 및/또는 정보가 임의의 지속 기간 동안(예컨대, 장시간 동안, 영구적으로, 짧은 순간 동안, 일시적으로 버퍼링되는 동안 및/또는 정보의 캐싱 동안) 저장되는 임의의 다른 저장 장치 또는 저장 디스크와 같은 비일시적인 컴퓨터 및/또는 머신 판독가능 매체에 저장된 코딩된 명령어(예컨대, 컴퓨터 및/또는 머신 판독 가능 명령어)를 사용하여 구현될 수 있다. 본 명세서에 사용된 비일시적인(non-transitory) 컴퓨터 판독 가능 매체라는 용어는, 임의의 타입의 컴퓨터 판독 가능 저장 장치 및/또는 저장 디스크를 포함하고 전파 신호 및 전송 매체를 배제하도록 명시적으로 정의된다. 본 명세서에 사용된 "적어도"란 표현은 청구항의 전제부에서 전환어로 사용될 때, "포함"이란 용어가 비제한적(open-ended)인 것과 동일한 방식으로 비제한적이다.
도 7의 프로그램(700)은 도 1 및 도 2의 예시적인 생체 인식 방향 기반 제어기(100)에 의해 수행되는 예시적인 동작들을 제공하며 블록 702에서 시작하는데, 여기서, 예시적인 트레이닝 데이터 빌더(210)(도 2 참고)가 사용자에게 휴대용 전자 장치(100)(도 1 참고)를 가능한 방향들 중 한 방향(예컨대, 제1 방향(302)(도 3 참고), 제2 방향(304)(도 3 참고), 제3 방향(306)(도 3 참고), 제4 방향(308)(도 3 참고) 등)으로 들도록 지시하고, 사용자에게 그 방향으로 휴대용 장치(100)를 들고 있는 동안 생체 인식 샘플을 제공하도록 지시하는 프롬프트를 생성한다. 일부 예에서는, 트레이닝 데이터 빌더(210)가 예시적인 프로세서(118)(도 1 참고)로부터의 신호에 응답하여 프롬프트를 생성한다. 일부 예에서, 프로세서(118)는 신호를 전송하고, 추가적으로 트레이닝 데이터 빌더(210)에게 예시적인 세트의 제1, 제2, 제3 생체 인식 센서(110, 112, 114) 중 어느 것을 생체 인식 트레이닝 데이터를 구축하는 데 사용할 것인지에 관한 사용자의 선호에 대해 통지한다. 일부 예에서, 프로세서(118)는 신호를 전송하고 트레이닝 데이터 빌더(210)에게 사용자가 트레이닝 데이터 빌더(210)를 활성화하기로 선택했지만 사용자가 선호하는 생체 인식 센서에 관한 정보를 제공하지 않음을 통지한다. 그러한 일부 예에서, 트레이닝 데이터 빌더(210)가 사용자에게 휴대용 전자 장치를 한 방향으로 들도록 지시하는 프롬프트를 생성하기 전에, 트레이닝 데이터 빌더(210)는 콘텐츠 방향을 제어하는 데 사용될 수 있는 모든 이용 가능한 센서(예컨대, 제1, 제2 및 제3 생체 인식 센서(110, 112, 114))를 나타내는 프롬프트를 생성한다. 그 다음에, 사용자는 생체 인식 센서(110,112,114) 중 하나를 선택할 수 있고, 트레이닝 데이터 빌더(210)는 사용자의 선택에 기초하여 프롬프트/지시를 생성한다(예컨대, 지문 센서(110)가 선택되면, 지문을 제공하라는 지시를 갖는 프롬프트가 생성되고, 이미지 센서(112)가 선택되면, 이미지를 제공하라는 지시를 갖는 프롬프트가 생성되거나 한다). 일부 예에서는, 사용자 선호에 기초하여 사용자가 켜거나 끌 수 있는 장치 설정 메뉴에 사용자가 생체 인식 정보를 이용하여 콘텐츠 방향을 제어할 수 있는 기능이 포함된다.
장치를 한 방향으로 들고 생체 인식 데이터를 제공하라는 프롬프트가 생성된 후에, 예시적인 제1, 제2 및 제3 생체 인식 센서(110, 112, 114) 중 선택된 하나의 센서가 생체 인식 데이터를 캡처하고 생체 인식 데이터를 예시적인 트레이닝 데이터 빌더(210)에게 제공한다(블록 704). 트레이닝 데이터 빌더(210)는 생체 인식 데이터를 생체 인식 데이터 저장부(204)(도 2 참고)에 제1 생체 인식 데이터 세트(502)(도 5 참고)로서 저장하고(블록 706), 예시적인 생체 인식 데이터 프로세서(202)(도 2 참고)로 하여금 생체 인식 데이터로부터 생체 인식 데이터 세트(502)의 일부로서 또한 저장되는 특징들을 추출하게 한다(블록 708). 또한, 트레이닝 데이터 빌더(210)는 생체 인식 데이터 캡처시에 장치의 방향에 대응하는 장치 방향 식별자(504)를 생체 인식 데이터 저장부 내의 생체 인식 데이터와 연관시키고(블록 710), 프로그램(700)은 종료된다. 트레이닝 데이터 빌더(210)는 생체 인식 트레이닝 데이터 세트(500)가 완전히 채워질 때까지(예컨대, 생체 인식 데이터가 모든 가능한 방향에 대해 수집될 때까지) 휴대용 전자 장치의 각각의 가능한 방향에 대해 프로그램(700)을 반복한다.
도 8의 프로그램(800) 도 1 및 도 2의 예시적인 방향 기반 제어기(102)에 의해 수행되는 예시적인 동작을 제공하며, 블록(802)에서 시작하는데, 여기서 예시적인 방향 결정 툴(206)(도 2 참고)이 제1, 제2 및/또는 제3 생체 인식 입력부(110, 112, 114)로부터 입력 데이터(예컨대, 생체 인식 샘플)를 수신하고, 생체 인식 데이터 저장부(204)로부터 입력 데이터(예컨대, 생체 인식 데이터 세트(502, 506, 510, 512), 장치 방향 식별자(504, 508, 514, 516))를 수신한다. 방향 결정 툴(206)이 생체 인식 데이터 프로세서에 의해 생체 인식 샘플을 처리하게 한다(블록 804). 일부 예에서, 생체 인식 데이터 프로세서는 생체 인식 샘플로부터 관련 특징들을 추출함으로써 생체 인식 샘플을 처리한다. 생체 인식 샘플이 처리된 후, 카운터 i가 1로 설정된다(i=1)(블록 806). 카운터 i가 설정된 후, 방향 결정 툴(206)이 생체 인식 샘플(및 그로부터 추출된 특징)을 예시적인 생체 인식 데이터 저장부(204)에 저장된 i번째 생체 인식 데이터 세트와 비교한다(도 2 참고)(블록(808)). 그 다음에, 방향 결정 툴(206)이 i번째의 생체 인식 데이터 세트가 생체 인식 샘플과 매칭되는지 여부를 판정한다(블록 810). i번째 생체 인식 데이터 세트가 생체 인식 샘플과 매칭되지 않으면, 방향 결정 툴(206)은 카운터 i를 증분시키고(블록 812), 그 다음에 전술한 바와 같이 생체 인식 샘플을 또 다른 생체 인식 데이터 세트(예컨대, i번째 생체 인식 데이터 세트)와 비교한다(블록 808). 매칭이 발견되면, 생체 인식 데이터 저장부로부터 i번째 생체 인식 데이터 세트와 관련된 장치 방향이 추출된다(블록 814). 그 다음에, 방향 조정 툴(208)이 추출된 장치 방향 식별자를 콘텐츠 방향 식별자와 비교한다(블록 816). 전술한 바와 같이, 콘텐츠 방향 식별자는 예시적인 배치상태/입력 기반 방향 제어기(108)(도 1 참고)에 의해 제공될 수 있고, 디스플레이가 현재 정보/데이터를 표시하고 있는 콘텐츠 방향을 식별한다. 비교 결과가 매칭이면(블록 818), 예시적인 디스플레이 장치(104)(도 1 참고)가 휴대용 전자 장치(100)의 방향과 정렬되는 방향으로 정보/데이터를 표시하고 있는 것이므로 조정이 필요하지 않고, 프로그램은 블록(802)으로 되돌아가 다른 생체 인식 샘플이 수신되기를 기다린다. 비교 결과가 매칭이 아니면, 디스플레이 장치(104)는 휴대용 전자 장치(100)의 방향과 정렬되지 않는 방향으로 정보/데이터를 표시하고 있는 것이다. 따라서, 방향 조정 툴(208)이 장치 방향과 매칭되도록 콘텐츠 방향을 조정/변경한다. 일부 예에서, 조정은 장치 방향 식별자를 배치상태/입력 기반 방향 제어기(108)로 전송함으로써 이루어진다. 배치상태/입력 기반 방향 제어기(108)는 장치 방향 식별자를 수신하면, 콘텐츠 방향을 장치 방향 식별자에 의해 표현된 방향과 매칭되도록 변경한다. 그 다음에, 프로그램은, 전술한 바와 같이 방향 결정 툴(206)이 다음 생체 인식 샘플의 수신을 기다리는 블록(802)으로 되돌아간다. 프로그램(800)은 상술한 방식으로 계속 실행함으로써, 입력되는 생체 인식 샘플을 처리하고, 필요에 따라 콘텐츠 방향을 조정한다.
도 9의 프로그램(900)은 휴대용 전자 장치(100)가 잠금 모드에 있고 디스플레이 장치/스크린이 어두울(dark) 때의 예시적인 휴대용 전자 장치(100)(도 1 참고)에 의해 수행되는 예시적인 동작들을 제공한다. 프로그램(900)은 블록(902)에서 시작하며, 여기서 예시적인 방향 결정 툴(206)이 입력 데이터(예컨대, 생체 인식 샘플)가 제1, 제2 또는 제3 생체 인식 센서들(110, 112, 114)(도 1 참고) 중 하나로부터 수신되었는지 여부를 판단한다. 생체 인식 샘플이 아직 수신되지 않은 경우, 방향 결정 툴(206)은 블록(902)으로 되돌아가고 생체 인식 샘플이 수신되었는지 여부를 다시 판단한다. 이 예에서, 생체 인식 샘플이 수신되면, 방향 결정 툴(206)이 생체 인식 샘플을 사용하여 장치 방향 식별자를 획득하고, 필요한 경우 콘텐츠 방향을 조정하는 데 사용하기 위해 방향 조절 툴(208)에 제공한다(블록 804). 그 다음에, 휴대용 전자 장치는 디스플레이 장치로 하여금 장치 방향에 대응하는 콘텐츠 방향과 매칭되는 방향으로 보안 검증 메시지(예컨대, 화면 잠금 해제)를 표시하게 하고(블록 906), 프로그램(900)이 종료된다. 프로그램(900)의 동작에 기초하여, 휴대용 전자 장치가 잠금 모드에 들어간 경우, 보안 검증 메시지는 사용자가 휴대용 전자 장치(100)를 잠금 해제하려고 시도할 때의 휴대용 전자 장치(100)의 방향과 정렬되는 방향으로 디스플레이된다. 따라서, 보안 검증 코드가 입력될 때까지 사용자가 휴대용 전자 장치(100)의 방향을 수동으로 변경할 필요가 없어진다. 일부 예에서, 블록(904)에서 움직임/배치상태 센서(116)에 포함된 내부 자이로스코프가 장치 방향을 결정하고, 블록(906)에서 보안 검증 메시지가 장치 방향과 매칭되는 방향으로 표시된다. 일부 예에서, 보안 검증 메시지는 사용자가 숫자(또는 임의의 다른 유형) 코드를 입력할 수 있는 단순한 잠금 해제 화면이다. 일부 예에서, 보안 검증 메시지는 단순히 사용자 인터페이스 디스플레이다. 이러한 예에서, 사용자는 다른 방향의 사용자 인터페이스 대신에 장치의 전원이 켜질 때의 장치 방향과 매칭되는 사용자 인터페이스를 제공받는다.
도 10은 도 1의 휴대용 전자 장치(100)를 구현하도록 도 7 내지 도 9의 명령들을 실행할 수 있는 예시적인 프로세서 플랫폼(1000)의 블록도이다. 도시된 예의 프로세서 플랫폼(1000)은 프로세서(118)를 포함한다. 도시된 예의 프로세서(118)는 하드웨어이다. 예를 들어, 프로세서(118)는 임의의 원하는 패밀리 또는 제조업체로부터의 하나 이상의 집적 회로, 논리 회로, 마이크로프로세서 또는 제어기에 의해 구현될 수 있다. 일부 예에서, 프로세서(118)는 예시적인 프로세서(118)(도 1 참고), 예시적인 배치상태/입력 기반 방향 제어기(108)(도 1 참고, 예시적인 디스플레이 장치 제어기(206)(도 2 참고), 예시적인 생체 인식 데이터 프로세서(202)(도 2 참고), 예시적인 생체 인식 기반 제어기(102)(도 2 참고)(도 2 참고), 예시적인 방향 조정 툴(208)(도 2 참고), 예시적인 생체 인식 트레이닝 데이터 빌더(210)(도 2 참고), 예시적인 방향 결정 툴(206) 및 예시적인 생체 인식 데이터 프로세서(202)(도 2 참고)를 구현하도록 사용될 수 있다.
도시된 예의 프로세서(118)는 로컬 메모리(1013)(예컨대, 캐시)를 포함한다. 도시된 예의 프로세서(118)는 버스(1018)를 통해 휘발성 메모리(1014) 및 비휘발성 메모리(1016)를 포함하는 메인 메모리와 통신한다. 휘발성 메모리(1014)는 동기식 동적 랜덤 액세스 메모리(SDRAM), 동적 랜덤 액세스 메모리(DRAM), RAMBUS 동적 랜덤 액세스 메모리(RDRAM) 및/또는 임의의 다른 유형의 랜덤 액세스 메모리 장치에 의해 구현될 수 있다. 비휘발성 메모리(1016)는 플래시 메모리 및/또는 임의의 다른 바람직한 유형의 메모리 장치에 의해 구현될 수 있다. 메인 메모리(1014, 1016)에 대한 액세스는 메모리 제어기에 의해 제어된다. 일부 예에서, 휘발성 메모리(1014) 및 비휘발성 메모리(1016)는 예시적인 메모리 장치들(124)(도 1 참고) 및 예시적인 생체 인식 데이터 저장부(204)(도 2 참고)를 구현하는 데 사용될 수 있다.
도시된 예의 프로세서 플랫폼(1000)은 또한 인터페이스 회로(1020)를 포함할 수 있다. 인터페이스 회로(1020)는 이더넷 인터페이스, 범용 직렬 버스(USB) 및/또는 PCI 익스프레스 인터페이스와 같은 임의의 유형의 인터페이스 표준에 의해 구현될 수 있다. 일부 예에서, 인터페이스 회로는 예시적인 제1 통신 버스(128)(도 1 참고) 또는 예시적인 제2 통신 버스(212)를 구현하는 데 사용될 수 있다.
도시된 예에서, 하나 이상의 입력 장치(1022)가 인터페이스 회로(1020)에 연결된다. 입력 장치(1022)는 예시적인 입력 장치(120), 예시적인 제1, 제2 및 제3 생체 인식 센서(110, 112, 114) 및 디스플레이/터치스크린(104) 중 임의의 것을 구현하는 데 사용될 수 있다.
하나 이상의 출력 장치(1024)가 도시된 예시의 인터페이스 회로(1020)에 또한 연결될 수 있다. 출력 장치(1024)는, 예를 들어, 디스플레이 장치(예컨대, 발광 다이오드(LED), 유기 발광 다이오드(OLED), 액정 디스플레이, 발광 다이오드(LED))에 의해 구현될 수 있다. 따라서, 도시된 예의 인터페이스 회로(1020)는 통상적으로 그래픽 드라이버 카드, 그래픽 드라이버 칩 또는 그래픽 드라이버 프로세서를 포함한다. 출력 장치(1024)는 예시적인 디스플레이/터치스크린(104)(도 1 참고) 및 예시적인 스피커(126)를 구현하는 데 사용될 수 있다.
도시된 예의 인터페이스 회로(1020)는 또한 네트워크(1026)(예컨대, 이더넷 접속, 디지털 가입자 회선(DSL), 전화선, 동축 케이블, 셀룰러 전화 시스템, 저전력 무선 영역 네트워크 등)를 통해 외부 머신(예컨대, 임의의 종류의 컴퓨팅 장치)과의 데이터의 교환을 용이하게 하기 위해 송신기, 수신기, 트랜시버, 모뎀 및/또는 네트워크 인터페이스 카드와 같은 통신 장치를 포함한다. 일부 예에서, 예시적인 인터페이스 회로(1020)는 예시적인 통신 장치(122)(도 2 참고)를 구현하는 데 사용될 수 있다.
도시된 실시예의 프로세서 플랫폼(1000)은 또한 소프트웨어 및/또는 데이터를 저장하기 위한 하나 이상의 대용량 저장 장치(1028)를 포함한다. 이러한 대용량 저장 장치(1028)의 예는 플로피 디스크 드라이브, 하드 드라이브 디스크, 콤팩트 디스크 드라이브, 블루레이 디스크 드라이브, RAID 시스템 및 DVD(digital versatile disk) 드라이브를 포함한다. 일부 예에서, 대용량 저장 장치(1028)는 예시적인 메모리 장치(124) 및 예시적인 생체 인식 데이터 저장부(204)를 구현하는 데 사용될 수 있다.
도 7 내지 도 9의 코딩된 명령들(1032)은 대용량 저장 장치(1028), 휘발성 메모리(1014), 비휘발성 메모리(1016), 및/또는 CD 또는 DVD와 같은 착탈식의 유형의(tangible) 컴퓨터 판독 가능 저장 매체에 저장될 수 있다.
전술한 내용으로부터, 본 명세서에 개시된 방법, 장치 및 제품은 콘텐츠/정보가 디스플레이 장치 상에 표시되는 방향의 생체 인식 기반 제어를 제공함을 알 수 있을 것이다. 본 명세서에 개시된 예시적인 방법, 장치 및 제품은 사용자로부터 수집된 생체 인식 데이터를 이용하여 디스플레이 장치 상에 표시된 정보의 방향을 변경하는 데 사용된다. 본 명세서에 개시된 예시적인 방법, 시스템, 장치 및 제품은 다양한 이점을 제공한다. 예를 들어, 그러한 방법, 장치 및 제품 중 일부는 장치의 방향의 변화를 추적하는 보다 안정적이고 정확한 방법을 제공함으로써 휴대용 장치와의 사용자 상호 작용을 향상시키고, 그 결과, 디스플레이 상에 표시된 정보의 방향을 더 잘 제어할 수 있다. 결과적으로, 사용자는 콘텐츠 방향이 조정되기 전에 휴대용 장치 내의 배치상태 또는 움직임 센서가 배치상태 변화를 검출할 때까지 기다릴 필요가 없고, 대신에 지문, 음성 단어 또는 다른 생체 인식 데이터를 제공할 수 있다. 일부 예에서는, 예를 들어, 지문을 사용하여 방향을 제어하는 경우, 사용자가 입력 버튼을 터치할 때마다 지문이 제공되므로 사용자는 방향 제어를 수행하기 위해 생체 인식 데이터를 제공하는 어떠한 추가 단계도 취할 필요가 없다. 예를 들어, 얼굴 이미지를 사용하여 장치를 제어하는 경우, 사용자의 얼굴을 자동으로 스캔하여 카메라의 사용자에 대한 장치의 방향을 결정하도록 카메라가 구성될 수 있으므로 사용자는 생체 인식 데이터를 제공하기 위한 어떠한 추가 조치도 취할 필요가 없다. 또한, 일부 예에서, 휴대용 장치(100)는 배치상태/움직임 센서 및 생체 인식 센서 모두를 포함하도록 구성될 수 있다. 일부 이러한 예에서, 배치상태/움직임 센서는 임의의 움직임이 검출될 때마다 생체 인식 기반 방향 제어기(102)에 신호를 제공하도록 구성될 수 있다. 이에 응답하여, 생체 인식 기반 방향 제어기(102)는 사용자의 안면 이미지를 검출하고 이어서 이미지를 이용하여 디스플레이 방향이 변경될 필요가 있는지 여부를 결정하도록 구성될 수 있다. 일부 이러한 예에서, 생체 인식 기반 방향 제어기(102)는 사용자에게 지문을 제공하도록 지시하는 프롬프트를 디스플레이 장치(104) 상에 디스플레이하게 할 수 있다. 그러면 생체 인식 기반 방향 제어기(102)는 지문을 사용하여 디스플레이 방향이 변경될 필요가 있는지 여부를 결정할 수 있다. 따라서, 본 명세서에 개시된 생체 인식 기반 방향 제어기(102)는 배치상태/입력 기반 방향 제어기(108)에 의해 제공되는 방향 제어를 보충할 수 있다. 더욱이, 본 명세서에 개시된 생체 인식 기반 방향 툴(102)은, 휴대용 장치가 사용자가 장치의 콘텐츠에 액세스할 수 없는 잠금 모드에 있을 때 사용될 수 있다. 그 결과, 사용자가 휴대용 전자 장치의 잠금을 해제하기 위해 버튼을 누를 때, 사용자의 지문이 검출되어 콘텐츠 방향에 대한 조정이 필요한지 여부를 결정하는 데 사용된다. 일부 예에서 보안 검증 메시지가 표시되기 전에 조정이 이루어져서 보안 검증 메시지가 장치 방향과 매칭되는 방향으로 나타나도록 한다. 또한, 본 명세서에 개시된 생체 인식 기반 방향 방법은 사용자가 휴대용 장치를 콘텐츠 방향과 매칭되는 방향으로 이동시킬 필요성을 제거하고 배치상태/움직임 센서를 활성화하기 위해 휴대용 전자 장치를 주기적으로 흔들 필요가 없게 함으로써 휴대용 전자 장치와의 사용자 상호작용을 향상시킨다. 또한, 본 명세서에 개시된 생체 인식 기반 방향 제어기는 수집된 생체 인식 데이터에 기초하여 사용자의 신원을 인증하는 데 사용될 수 있어, 휴대용 장치의 잠금을 해제하려고 시도할 때 사용자가 보안 코드를 입력할 필요가 없게 한다.
복수의 방법, 장치, 및 제품이 본 명세서에 개시된다. 예 1은 디스플레이 장치와, 생체 인식 샘플을 캡처하는 생체 인식 센서와, 방향 결정 툴을 포함하는 휴대용 전자 장치이다. 방향 결정 툴은 생체 인식(biometric) 샘플에 기초하여 사용자에 대한 상기 디스플레이 장치와 상기 휴대용 전자 장치 중 적어도 한 장치의 장치 방향을 결정한다. 예 1의 휴대용 전자 장치는 또한 상기 디스플레이 장치와 상기 휴대용 전자 장치 중 상기 적어도 한 장치의 장치 방향의 결정에 기초하여, 상기 휴대용 전자 장치의 상기 디스플레이 장치가 콘텐츠를 표시하는 콘텐츠 방향을 변경하는 방향 조정 툴을 포함한다.
예 2는, 상기 생체 인식 센서가 지문 센서와 이미지 센서 중 적어도 하나인, 예 1의 휴대용 전자 장치이다.
예 3은, 상기 휴대용 전자 장치가 휴대용 전화기 또는 하이브리드 태블릿/랩탑 장치 중 적어도 하나인, 예 1의 휴대용 전자 장치이다.
예4는, 상기 생체 인식 센서가 상기 휴대용 전자 장치의 상기 디스플레이 장치를 활성화하라는 입력 명령에 응답하여 상기 생체 인식 샘플을 캡처하는, 예 1의 휴대용 전자 장치이다.
예 5는, 생체 인식 트레이닝 툴을 더 포함하는, 예 1의 휴대용 전자 장치이다. 상기 생체 인식 트레이닝 툴은 복수의 생체 인식 데이터 세트 및 대응하는 장치 방향 식별자를 저장한다. 예 5에서, 상기 방향 결정 툴은 상기 생체 인식 샘플을 상기 생체 인식 데이터 세트 중 적어도 하나와 비교한 것에 기초하여 상기 장치 방향을 결정한다.
예 6은, 상기 방향 조정 툴이 상기 콘텐츠 방향을 나타내는 콘텐츠 방향 식별자를 저장하는, 예 5의 휴대용 전자 장치이다.
예 7은, 상기 방향 조정 툴이 상기 콘텐츠 방향 식별자를 장치 방향 식별자와 비교하는, 예 6의 휴대용 전자 장치이다. 상기 장치 방향 식별자는 상기 생체 인식 데이터 세트 중 매칭되는 하나에 대응한다. 예 7에서, 상기 방향 조정 툴은 상기 콘텐츠 방향 식별자가 상기 장치 방향 식별자와 매칭되지 않는 경우에 상기 콘텐츠 방향을 변경한다.
예 8은, 생체 인식 정보에 기초하여 디스플레이 장치가 콘텐츠를 표시하는 콘텐츠 방향을 변경하는 방법이며, 생체 인식 센서에 의해, 생체 인식 샘플을 캡처하는 단계와, 명령을 실행하는 적어도 하나의 프로세서에 의해, 상기 생체 인식 샘플을 저장된 생체 인식 데이터 세트와 비교하는 단계를 포함한다. 상기 생체 인식 데이터 세트는 휴대용 장치 방향에 대응한다. 예 8은 또한, 상기 생체 인식 샘플을 상기 생체 인식 데이터 세트와 비교한 것에 기초하여, 상기 콘텐츠 방향을 변경하는 단계를 포함한다.
예 9는, 상기 생체 인식 데이터 세트가 제1 생체 인식 데이터 세트인, 예 8의 방법이다. 상기 방법은, 복수의 휴대용 장치 방향 중 제각기의 방향과 연관된 복수의 생체 인식 데이터 세트를 캡처하는 단계와, 상기 복수의 생체 인식 데이터 세트를 상기 복수의 휴대용 장치 방향 중 제각기의 방향을 나타내는 복수의 휴대용 장치 방향 식별자와 연관지어 저장하는 단계를 더 포함한다.
예 10은, 상기 사용자에 대한 제1 휴대용 장치 방향으로 상기 휴대용 전자 장치를 유지하면서 상기 복수의 생체 인식 데이터 세트 중 제1 생체 인식 데이터 세트를 입력하도록 사용자에게 지시하는 단계를 더 포함하는, 예 9의 방법이다.
예 11은, 상기 생체 인식 샘플을 상기 생체 인식 데이터 세트와 비교하는 단계가, 상기 복수의 생체 인식 데이터 세트 중 제1 생체 인식 데이터 세트를 식별하는 단계를 포함하는, 예 9의 방법이다. 상기 제1 생체 인식 데이터 세트는 상기 생체 인식 샘플에 매칭되고, 상기 방법은 또한 상기 제1 생체 인식 샘플에 대응하는 제1 휴대용 장치 방향 식별자를 현재의 휴대용 장치 방향으로서 저장하는 단계를 포함한다.
예 12는, 상기 콘텐츠 방향을 변경하는 단계가 상기 현재의 휴대용 장치 방향을 상기 콘텐츠 방향과 비교하는 단계를 포함하는, 예 11의 방법이다. 또한, 예 12의 방법은 또한, 상기 현재의 휴대용 장치 방향과 상기 콘텐츠 방향이 다른 경우에, 상기 콘텐츠 방향을 상기 현재의 휴대용 장치 방향과 매칭되도록 변경하는 단계를 포함한다.
예 13은, 상기 콘텐츠 방향이 제1 콘텐츠 방향이고, 상기 제1 콘텐츠 방향을 변경하는 것은 상기 제1 콘텐츠 방향으로부터 제2 콘텐츠 방향으로 변경하는 것을 포함하는, 예 8의 방법이다.
예 14는, 실행될 경우에 머신으로 하여금 적어도, 생체 인식 샘플에 기초하여, 휴대용 장치가 사용자에 대해 배향되는 휴대용 장치 방향을 식별하게 하고, 상기 휴대용 장치 방향을 상기 휴대용 장치의 디스플레이 장치가 현재 콘텐츠를 표시하고 있는 콘텐츠 방향과 비교하게 하는 명령어를 포함하는 유형의(tangible) 머신 판독가능한 저장 매체이다. 상기 명령어는 또한 상기 머신으로 하여금, 상기 휴대용 장치 방향을 상기 콘텐츠 방향과 비교한 것에 기초하여 상기 콘텐츠 방향을 변경하게 한다.
예 15는, 상기 휴대용 장치 방향을 식별하게 하는 명령어가, 상기 생체 인식 샘플을 복수의 생체 인식 데이터 세트와 비교하는 것과, 상기 생체 인식 샘플에 매칭되는 상기 생체 인식 데이터 세트에 대응하는 휴대용 장치 방향 식별자를 식별하는 것을 포함하는, 예 14의 유형의 머신 판독가능한 저장 매체이다.
예 16은, 상기 휴대용 장치 방향을 상기 콘텐츠 방향과 비교하는 것이 상기 휴대용 장치 방향 식별자를 현재 시간에서의 상기 콘텐츠 방향을 나타내는 콘텐츠 방향 식별자와 비교하는 것을 포함하는, 예 15의 유형의 머신 판독가능한 저장 매체이다.
예 17은, 상기 콘텐츠 방향이 상기 콘텐츠 방향 식별자가 상기 휴대용 장치 방향 식별자와 매칭되지 않는 경우에 변경되는, 예 16의 유형의 머신 판독가능한 저장 매체이다.
예 18은, 상기 콘텐츠 방향이 상기 콘텐츠 방향 식별자가 상기 휴대용 장치 방향 식별자와 매칭되는 경우에 변경되지 않는, 예 16의 유형의 머신 판독가능한 저장 매체이다.
예 19는, 상기 휴대용 장치 방향이 복수의 휴대용 장치 방향 중 제1 휴대용 장치 방향인, 예 14의 유형의 머신 판독가능한 저장 매체이다. 예 19에서, 상기 명령어는 상기 머신으로 하여금, 상기 휴대용 장치를 상기 제1 휴대용 장치 방향을 포함하는 복수의 대응하는 휴대용 장치 방향으로 유지하면서 생체 인식 트레이닝 데이터를 제공하도록 사용자에게 지시하게 하고, 상기 제1 휴대용 장치 방향을 포함하는 상기 휴대용 장치 방향에 대응하는 상기 생체 인식 트레이닝 데이터의 적어도 일부 특징을 대응하는 생체 인식 데이터 세트로서 저장하게 한다.
예 20은, 상기 생체 인식 샘플은 지문 센서와 이미지 센서 중 적어도 하나인 상기 생체 인식 센서에 의해 캡처된 것인, 예 14의 유형의 머신 판독가능한 저장 매체이다.
예 21은, 상기 휴대용 전자 장치는 휴대용 전화기 또는 하이브리드 태블릿/랩톱 장치 중 적어도 하나인, 예 1 또는 예 2의 휴대용 전자 장치이다.
예 22는, 상기 생체 인식 센서가 상기 휴대용 전자 장치의 상기 디스플레이 장치를 활성화시키는 입력 명령에 응답하여 상기 생체 인식 샘플을 캡처하는, 예 1 내지 3 중 어느 하나의 휴대용 전자 장치이다.
예 23은, 생체 인식 트레이닝 툴을 더 포함하는, 예 1 내지 4 중 어느 하나의 휴대용 전자 장치이다. 생체 인식 트레이닝 툴은 복수의 생체 인식 데이터 세트 및 대응하는 장치 방향 식별자를 저장한다. 예 23에서, 방향 결정 툴은 상기 생체 인식 샘플을 상기 생체 인식 데이터 세트 중 적어도 하나와 비교한 것에 기초하여 상기 장치 방향을 결정한다.
예 24는, 상기 방향 조정 툴이 상기 콘텐츠 방향을 나타내는 콘텐츠 방향 식별자를 저장하는, 예 1 내지 6 중 어느 하나의 휴대용 전자 장치이다.
예 25는, 상기 방향 조정 툴이 상기 콘텐츠 방향 식별자를 장치 방향 식별자와 비교하는, 예 24의 휴대용 전자 장치이다. 예 25에서, 장치 방향 식별자는 생체 인식 데이터 세트 중 매칭되는 하나에 대응하고, 상기 방향 조정 툴은 상기 콘텐츠 방향 식별자가 상기 장치 방향 식별자와 매칭되지 않을 때 상기 콘텐츠 방향을 변경한다.
예 26은, 상기 콘텐츠 방향이 제1 콘텐츠 방향이고, 상기 제1 콘텐츠 방향의 변경이 상기 제1 콘텐츠 방향으로부터 제2 콘텐츠 방향으로 변경하는 것을 포함하는, 예 8 내지 11 중 어느 하나의 방법이다.
예 27은, 상기 휴대용 장치 방향을 상기 콘텐츠 방향과 비교하는 것은 상기 휴대용 장치 방향 식별자를 현재 시간에 상기 콘텐츠 방향을 나타내는 콘텐츠 방향 식별자와 비교하는 것을 포함하는, 예 15의 유형의 머신 판독가능 저장 매체이다.
예 28은, 상기 콘텐츠 방향 식별자가 상기 휴대용 장치 방향 식별자와 매칭되지 않을 때 상기 콘텐츠 방향이 변경되는, 예 16의 유형의 머신 판독가능 저장 매체이다.
예 29는, 상기 생체 인식 센서가 지문 센서와 이미지 센서 중 적어도 하나인, 예 14 내지 19 중 어느 하나의 유형의 머신 판독가능 저장 매체이다.
예 30은, 실행될 경우에 머신으로 하여금 예 8 내지 11 중 어느 하나의 방법을 수행하게 하는 코드를 포함하는 머신 판독가능 매체이다.
예 31은, 콘텐츠를 디스플레이하는 수단과, 생체 인식 샘플을 캡처하는 수단과, 상기 생체 인식 샘플에 기초하여 사용자에 대한 상기 휴대용 전자 장치의 장치 방향을 결정하는 수단과, 상기 휴대용 전자 장치의 장치 방향의 결정에 기초하여, 상기 콘텐츠가 디스플레이되는 콘텐츠 방향을 변경하는 수단을 포함하는 휴대용 전자 장치이다.
예 32는, 상기 생체 인식 샘플은 지문과 이미지 중 적어도 하나인, 예 31의 휴대용 전자 장치이다.
예 33은, 상기 휴대용 전자 장치는 휴대용 전화기 또는 하이브리드 태블릿/랩탑 장치 중 적어도 하나인, 예 31 또는 32의 휴대용 전자 장치이다.
예 34는, 상기 생체 인식 샘플은 콘텐츠를 디스플레이하는 수단을 활성화하라는 입력 명령에 응답하여 캡처되는, 예 31 또는 32의 휴대용 전자 장치이다.
예 35는, 복수의 생체 인식 데이터 세트 및 대응하는 장치 방향 식별자를 저장하는 수단을 더 포함하며, 상기 사용자에 대한 상기 휴대용 전자 장치의 장치 방향을 결정하는 수단은, 상기 생체 인식 샘플을 상기 생체 인식 데이터 세트 중 적어도 하나와 비교한 것에 기초하여 상기 휴대용 전자 장치의 장치 방향을 결정하는, 예 31 또는 32의 휴대용 전자 장치이다.
예 36은, 상기 콘텐츠 방향을 변경하는 수단이 상기 콘텐츠 방향 식별자를 장치 방향 식별자와 비교하는, 예 35의 휴대용 전자 장치이다. 예 36에서, 장치 방향 식별자는 상기 생체 인식 데이터 세트 중 매칭되는 하나의 데이터 세트에 대응하고, 상기 콘텐츠 방향을 변경하는 수단은 상기 콘텐츠 방향 식별자가 상기 장치 방향 식별자와 매칭되지 않을 때 상기 콘텐츠 방향을 변경한다.
예 37은, 실행될 경우에, 임의의 선행하는 예에 청구된 방법을 구현하거나 장치를 실현하는 머신 판독가능 명령어를 포함하는 머신 판독가능 저장 장치이다.
예 38은, 디스플레이 장치와, 생체 인식 샘플을 캡처하는 생체 인식 센서와, 생체 인식 샘플에 기초하여, 콘텐츠가 사용자에 대해 디스플레이 장치 상에 표시되는 제1 콘텐츠 방향을 결정하는 방향 결정 툴을 포함하는 휴대용 전자 장치이다. 휴대용 장치는 또한 제1 콘텐츠 방향의 결정에 기초하여 제1 콘텐츠 방향을 제2 콘텐츠 방향으로 변경하는 방향 조정 툴을 포함한다.
특정 예시 방법, 장치 및 제품이 본 명세서에 개시되었지만, 본 특허의 적용 범위는 이에 제한되지 않는다. 오히려, 본 특허는 본 특허의 청구 범위 내에 포함되는 모든 방법, 장치 및 제품을 커버한다.

Claims (25)

  1. 휴대용 전자 장치로서,
    디스플레이 장치와,
    생체 인식(biometric) 샘플을 캡처하는 생체 인식 센서와,
    생체 인식 샘플에 기초하여 사용자에 대한 상기 디스플레이 장치와 상기 휴대용 전자 장치 중 적어도 한 장치의 장치 방향을 결정하는 방향 결정 툴과,
    상기 디스플레이 장치와 상기 휴대용 전자 장치 중 상기 적어도 한 장치의 장치 방향의 결정에 기초하여, 상기 휴대용 전자 장치의 상기 디스플레이 장치가 콘텐츠를 표시하는 콘텐츠 방향을 변경하는 방향 조정 툴을 포함하는
    휴대용 전자 장치.
  2. 제1항에 있어서,
    상기 생체 인식 센서는 지문 센서와 이미지 센서 중 적어도 하나인
    휴대용 전자 장치.
  3. 제1항에 있어서,
    상기 휴대용 전자 장치는 휴대용 전화기와 하이브리드 태블릿/랩탑 장치 중 적어도 하나인
    휴대용 전자 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 생체 인식 센서는 상기 휴대용 전자 장치의 상기 디스플레이 장치를 활성화하라는 입력 명령에 응답하여 상기 생체 인식 샘플을 캡처하는
    휴대용 전자 장치.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 휴대용 전자 장치는 생체 인식 트레이닝 툴을 더 포함하고,
    상기 생체 인식 트레이닝 툴은 복수의 생체 인식 데이터 세트 및 대응하는 장치 방향 식별자를 저장하며,
    상기 방향 결정 툴은 상기 생체 인식 샘플을 상기 생체 인식 데이터 세트 중 적어도 하나와 비교한 것에 기초하여 상기 장치 방향을 결정하는
    휴대용 전자 장치.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 방향 조정 툴은 상기 콘텐츠 방향을 나타내는 콘텐츠 방향 식별자를 저장하는
    휴대용 전자 장치.
  7. 제6항에 있어서,
    상기 방향 조정 툴은 상기 콘텐츠 방향 식별자를 장치 방향 식별자와 비교하고, 상기 장치 방향 식별자는 상기 생체 인식 데이터 세트 중 매칭되는 하나에 대응하며, 상기 방향 조정 툴은 상기 콘텐츠 방향 식별자가 상기 장치 방향 식별자와 매칭되지 않는 경우에 상기 콘텐츠 방향을 변경하는
    휴대용 전자 장치.
  8. 생체 인식 정보에 기초하여 디스플레이 장치가 콘텐츠를 표시하는 콘텐츠 방향을 변경하는 방법으로서,
    생체 인식 센서에 의해, 생체 인식 샘플을 캡처하는 단계와,
    명령어를 실행하는 적어도 하나의 프로세서에 의해, 상기 생체 인식 샘플을 저장된 생체 인식 데이터 세트 - 상기 생체 인식 데이터 세트는 휴대용 장치 방향에 대응함 - 와 비교하는 단계와,
    상기 생체 인식 샘플을 상기 생체 인식 데이터 세트와 비교한 것에 기초하여, 상기 콘텐츠 방향을 변경하는 단계를 포함하는
    방법.
  9. 제8항에 있어서,
    상기 생체 인식 데이터 세트는 제1 생체 인식 데이터 세트이고,
    상기 방법은,
    복수의 휴대용 장치 방향 중 제각기의 방향과 연관된 복수의 생체 인식 데이터 세트를 캡처하는 단계와,
    상기 복수의 생체 인식 데이터 세트를 상기 복수의 휴대용 장치 방향 중 제각기의 방향을 나타내는 복수의 휴대용 장치 방향 식별자와 연관지어 저장하는 단계를 더 포함하는
    방법.
  10. 제9항에 있어서,
    상기 사용자에 대한 제1 휴대용 장치 방향으로 상기 휴대용 전자 장치를 유지하면서 상기 복수의 생체 인식 데이터 세트 중 제1 생체 인식 데이터 세트를 입력하도록 사용자에게 지시하는 단계를 더 포함하는
    방법.
  11. 제9항에 있어서,
    상기 생체 인식 샘플을 상기 생체 인식 데이터 세트와 비교하는 단계는,
    상기 복수의 생체 인식 데이터 세트 중 상기 생체 인식 샘플에 매칭되는 제1 생체 인식 데이터 세트를 식별하는 단계와,
    상기 제1 생체 인식 샘플에 대응하는 제1 휴대용 장치 방향 식별자를 현재의 휴대용 장치 방향으로서 저장하는 단계를 포함하는
    방법.
  12. 제11항에 있어서,
    상기 콘텐츠 방향을 변경하는 단계는,
    상기 현재의 휴대용 장치 방향을 상기 콘텐츠 방향과 비교하는 단계와,
    상기 현재의 휴대용 장치 방향과 상기 콘텐츠 방향이 다른 경우에, 상기 콘텐츠 방향을 상기 현재의 휴대용 장치 방향과 매칭되도록 변경하는 단계를 포함하는
    방법.
  13. 제8항 내지 제11항 중 어느 한 항에 있어서,
    상기 콘텐츠 방향은 제1 콘텐츠 방향이고, 상기 제1 콘텐츠 방향을 변경하는 것은 상기 제1 콘텐츠 방향으로부터 제2 콘텐츠 방향으로 변경하는 것을 포함하는
    방법.
  14. 명령어를 포함하는 유형의(tangible) 머신 판독가능한 저장 매체로서,
    상기 명령어는, 실행될 경우에, 머신으로 하여금 적어도,
    생체 인식 샘플에 기초하여, 휴대용 장치가 사용자에 대해 배향되는 휴대용 장치 방향을 식별하게 하고,
    상기 휴대용 장치 방향을 상기 휴대용 장치의 디스플레이 장치가 현재 콘텐츠를 표시하고 있는 콘텐츠 방향과 비교하게 하며,
    상기 휴대용 장치 방향을 상기 콘텐츠 방향과 비교한 것에 기초하여 상기 콘텐츠 방향을 변경하게 하는
    유형의 머신 판독가능한 저장 매체.
  15. 제14항에 있어서,
    상기 휴대용 장치 방향을 식별하게 하는 명령어는, 상기 생체 인식 샘플을 복수의 생체 인식 데이터 세트와 비교하는 것과, 상기 생체 인식 샘플에 매칭되는 상기 생체 인식 데이터 세트에 대응하는 휴대용 장치 방향 식별자를 식별하는 것을 포함하는
    유형의 머신 판독가능한 저장 매체.
  16. 제15항에 있어서,
    상기 휴대용 장치 방향을 상기 콘텐츠 방향과 비교하는 것은 상기 휴대용 장치 방향 식별자를 현재 시간에서의 상기 콘텐츠 방향을 나타내는 콘텐츠 방향 식별자와 비교하는 것을 포함하는
    유형의 머신 판독가능한 저장 매체.
  17. 제16항에 있어서,
    상기 콘텐츠 방향은 상기 콘텐츠 방향 식별자가 상기 휴대용 장치 방향 식별자와 매칭되지 않는 경우에 변경되는
    유형의 머신 판독가능한 저장 매체.
  18. 제16항에 있어서,
    상기 콘텐츠 방향은 상기 콘텐츠 방향 식별자가 상기 휴대용 장치 방향 식별자와 매칭되는 경우에 변경되지 않는
    유형의 머신 판독가능한 저장 매체.
  19. 제14항 내지 제16항 중 어느 한 항에 있어서,
    상기 휴대용 장치 방향은 복수의 휴대용 장치 방향 중 제1 휴대용 장치 방향이고, 상기 명령어는 상기 머신으로 하여금,
    상기 휴대용 장치를 상기 제1 휴대용 장치 방향을 포함하는 복수의 대응하는 휴대용 장치 방향들로 유지하면서 생체 인식 트레이닝 데이터를 제공하도록 사용자에게 지시하게 하고,
    상기 제1 휴대용 장치 방향을 포함하는 상기 휴대용 장치 방향들에 대응하는 상기 생체 인식 트레이닝 데이터의 적어도 일부 특징을 대응하는 생체 인식 데이터 세트로서 저장하게 하는
    유형의 머신 판독가능한 저장 매체.
  20. 제14항 내지 제17항 중 어느 한 항에 있어서,
    상기 생체 인식 샘플은 지문 센서와 이미지 센서 중 적어도 하나인 생체 인식 센서에 의해 캡처된 것인
    유형의 머신 판독가능한 저장 매체.
  21. 휴대용 전자 장치로서,
    콘텐츠를 디스플레이하는 수단과,
    생체 인식 샘플을 캡처하는 수단과,
    상기 생체 인식 샘플에 기초하여, 사용자에 대한 상기 휴대용 전자 장치의 장치 방향을 결정하는 수단과,
    상기 휴대용 전자 장치의 장치 방향의 결정에 기초하여, 상기 콘텐츠가 디스플레이되는 콘텐츠 방향을 변경하는 수단을 포함하는
    휴대용 전자 장치.
  22. 제21항에 있어서,
    상기 생체 인식 샘플은 지문과 이미지 중 적어도 하나인
    휴대용 전자 장치.
  23. 제21항 또는 제22항에 있어서,
    상기 휴대용 전자 장치는 휴대용 전화기 또는 하이브리드 태블릿/랩탑 장치 중 적어도 하나인
    휴대용 전자 장치.
  24. 제21항 또는 제22항에 있어서,
    상기 생체 인식 샘플은 콘텐츠를 디스플레이하는 수단을 활성화하라는 입력 명령에 응답하여 캡처되는
    휴대용 전자 장치.
  25. 제21항 또는 제22항에 있어서,
    복수의 생체 인식 데이터 세트 및 대응하는 장치 방향 식별자를 저장하는 수단을 더 포함하며,
    상기 사용자에 대한 상기 휴대용 전자 장치의 장치 방향을 결정하는 수단은, 상기 생체 인식 샘플을 상기 생체 인식 데이터 세트 중 적어도 하나와 비교한 것에 기초하는
    휴대용 전자 장치.
KR1020197006074A 2016-09-30 2017-08-23 생체 인식 센서를 이용하여 디스플레이 방향을 제어하는 방법, 장치 및 제품 KR102572582B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/282,412 US10055818B2 (en) 2016-09-30 2016-09-30 Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display
US15/282,412 2016-09-30
PCT/US2017/048226 WO2018063599A1 (en) 2016-09-30 2017-08-23 Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display

Publications (2)

Publication Number Publication Date
KR20190050779A true KR20190050779A (ko) 2019-05-13
KR102572582B1 KR102572582B1 (ko) 2023-08-29

Family

ID=61759004

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197006074A KR102572582B1 (ko) 2016-09-30 2017-08-23 생체 인식 센서를 이용하여 디스플레이 방향을 제어하는 방법, 장치 및 제품

Country Status (6)

Country Link
US (2) US10055818B2 (ko)
EP (1) EP3520381B1 (ko)
JP (1) JP7077305B2 (ko)
KR (1) KR102572582B1 (ko)
CN (1) CN109644218A (ko)
WO (1) WO2018063599A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10372406B2 (en) * 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10055818B2 (en) 2016-09-30 2018-08-21 Intel Corporation Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display
KR102655187B1 (ko) * 2017-02-15 2024-04-05 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN107301027A (zh) * 2017-06-19 2017-10-27 广东欧珀移动通信有限公司 屏幕色温调节方法、装置及其设备
US10764511B1 (en) * 2019-03-27 2020-09-01 Lenovo (Singapore) Pte. Ltd. Image version selection based on device orientation
CN110557503B (zh) * 2019-08-14 2021-06-08 海信电子科技(武汉)有限公司 屏幕显示方向切换处理方法、装置及终端设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130083235A (ko) * 2012-01-12 2013-07-22 엘지전자 주식회사 이동 단말기 및 이의 제어방법

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931596B2 (en) * 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US20040201595A1 (en) * 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
CN101506760A (zh) * 2005-05-27 2009-08-12 夏普株式会社 显示装置
KR100780358B1 (ko) * 2007-01-12 2007-11-30 삼성전자주식회사 휴대용 단말기의 입출력 화면의 변경 장치 및 방법
US20080266326A1 (en) * 2007-04-25 2008-10-30 Ati Technologies Ulc Automatic image reorientation
KR101546774B1 (ko) * 2008-07-29 2015-08-24 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
US8686953B2 (en) * 2008-09-12 2014-04-01 Qualcomm Incorporated Orienting a displayed element relative to a user
US20140043231A1 (en) * 2011-04-20 2014-02-13 Nec Casio Mobile Communications, Ltd. Information display device, control method, and program
US20130286049A1 (en) * 2011-12-20 2013-10-31 Heng Yang Automatic adjustment of display image using face detection
US9342143B1 (en) * 2012-04-17 2016-05-17 Imdb.Com, Inc. Determining display orientations for portable devices
AU2013205535B2 (en) * 2012-05-02 2018-03-15 Samsung Electronics Co., Ltd. Apparatus and method of controlling mobile terminal based on analysis of user's face
KR101710771B1 (ko) 2012-05-18 2017-02-27 애플 인크. 지문 센서 입력에 기초하여 사용자 인터페이스를 조작하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR20130136173A (ko) 2012-06-04 2013-12-12 삼성전자주식회사 지문 기반 단축키를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US9244499B2 (en) * 2012-06-08 2016-01-26 Apple Inc. Multi-stage device orientation detection
TWI481446B (zh) * 2012-09-17 2015-04-21 Univ Nat Taiwan 數位微流體操控裝置及操控方法
US9123142B2 (en) * 2012-10-02 2015-09-01 At&T Intellectual Property I, L.P. Adjusting content display orientation on a screen based on user orientation
CN103813075A (zh) * 2012-11-07 2014-05-21 联想(北京)有限公司 一种提醒方法和电子设备
US20140160019A1 (en) * 2012-12-07 2014-06-12 Nvidia Corporation Methods for enhancing user interaction with mobile devices
US9367898B2 (en) * 2013-09-09 2016-06-14 Intel Corporation Orientation of display rendering on a display based on position of user
US9536130B2 (en) 2013-12-30 2017-01-03 Google Technology Holdings LLC Electronic device with a fingerprint reader and method for operating the same
WO2015164584A1 (en) * 2014-04-23 2015-10-29 Google Inc. User interface control using gaze tracking
KR20150130188A (ko) * 2014-05-13 2015-11-23 삼성전자주식회사 지문 인식을 이용한 휴대 단말장치의 제어 방법 및 그 휴대 단말 장치
US10228766B2 (en) * 2014-09-12 2019-03-12 Microsoft Technology Licensing, Llc Enhanced Display Rotation
KR20160100771A (ko) * 2015-02-16 2016-08-24 주식회사 퓨처플레이 지문 인식에 따른 인터페이스 제공 방법
US10229657B2 (en) * 2015-06-17 2019-03-12 International Business Machines Corporation Fingerprint directed screen orientation
JP6140773B2 (ja) 2015-06-26 2017-05-31 京セラ株式会社 電子機器及び電子機器の動作方法
CN105159455B (zh) * 2015-08-28 2019-02-01 宇龙计算机通信科技(深圳)有限公司 一种基于生物样本特征的控制方法及装置
US10055818B2 (en) 2016-09-30 2018-08-21 Intel Corporation Methods, apparatus and articles of manufacture to use biometric sensors to control an orientation of a display

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130083235A (ko) * 2012-01-12 2013-07-22 엘지전자 주식회사 이동 단말기 및 이의 제어방법

Also Published As

Publication number Publication date
CN109644218A (zh) 2019-04-16
EP3520381B1 (en) 2023-09-27
EP3520381A4 (en) 2020-06-17
EP3520381A1 (en) 2019-08-07
KR102572582B1 (ko) 2023-08-29
JP2020501172A (ja) 2020-01-16
JP7077305B2 (ja) 2022-05-30
US20180096460A1 (en) 2018-04-05
US10055818B2 (en) 2018-08-21
US20190005620A1 (en) 2019-01-03
WO2018063599A1 (en) 2018-04-05
US10699379B2 (en) 2020-06-30

Similar Documents

Publication Publication Date Title
KR20190050779A (ko) 생체 인식 센서를 이용하여 디스플레이 방향을 제어하는 방법, 장치 및 제품
JP6542324B2 (ja) 注視決定とデバイス入力との使用
US9547760B2 (en) Method and system for authenticating user of a mobile device via hybrid biometics information
US9049983B1 (en) Ear recognition as device input
KR101696602B1 (ko) 제스처를 이용한 생체 인증
EP3143545B1 (en) Electronic device with method for controlling access to the same
US8560004B1 (en) Sensor-based activation of an input device
US9239917B2 (en) Gesture controlled login
US20170243063A1 (en) Authentication method, electronic device, and storage medium
US10586031B2 (en) Biometric authentication of a user
JP2017509062A (ja) 電子機器の制御方法
JP2013186851A (ja) セキュリティを解除するための情報の入力が要求される情報処理装置及びログイン方法
US20150220159A1 (en) System and method for control of a device based on user identification
JP2018525696A5 (ko)
US20190258788A1 (en) Electronic device and control method thereof
US20170351911A1 (en) System and method for control of a device based on user identification
US11301706B2 (en) Method of authenticating a user
KR20170109808A (ko) 본인 인증 방법 및 이를 수행하는 사용자 단말
US10489571B2 (en) Information processing apparatus determining propriety of use based on authentication result of fingerprint authentication process, control method therefor, and storage medium storing control program therefor
JP6841549B2 (ja) 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム
US20130064433A1 (en) Electronic device and turning on or unlocking method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant