KR20210035277A - 얼굴 인식 방법 및 장치 - Google Patents

얼굴 인식 방법 및 장치 Download PDF

Info

Publication number
KR20210035277A
KR20210035277A KR1020217005781A KR20217005781A KR20210035277A KR 20210035277 A KR20210035277 A KR 20210035277A KR 1020217005781 A KR1020217005781 A KR 1020217005781A KR 20217005781 A KR20217005781 A KR 20217005781A KR 20210035277 A KR20210035277 A KR 20210035277A
Authority
KR
South Korea
Prior art keywords
face recognition
state
face
recognition
mobile terminal
Prior art date
Application number
KR1020217005781A
Other languages
English (en)
Inventor
량 후
제 쉬
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20210035277A publication Critical patent/KR20210035277A/ko

Links

Images

Classifications

    • G06K9/00228
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/987Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/60Aspects of automatic or semi-automatic exchanges related to security aspects in telephonic communication systems
    • H04M2203/6054Biometric subscriber identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Telephone Function (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 출원의 실시예는 얼굴 인식 방법 및 장치를 제공한다. 상기 방법은 얼굴 인식에 실패하면, 이동 단말의 제1 상태를 검출하는 단계; 상기 이동 단말의 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 단계; 상기 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하는 단계; 상기 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링하는 단계를 포함한다. 이러한 방식으로, 이동 단말의 전력 소모를 줄일 수 있고, 동작을 단순화할 수 있으며, 얼굴 인식의 성공률을 향상시킬 수 있으며, 사용자 경험을 향상시킬 수 있다.

Description

얼굴 인식 방법 및 장치
본 출원은 단말 기술 분야에 관한 것이며, 특히 얼굴 인식 방법 및 장치에 관한 것이다.
얼굴 인식 기술의 발달로 얼굴 인식 잠금 해제가 점차 다양한 단말 장치에 적용되고 있다. 예를 들어, 사용자가 이동 단말을 사용하는 경우, 얼굴 인식 결과가 미리 설정된 임계 값을 충족하는 경우, 사용자는 모바일 장치 잠금 해제, 해당 허가로 운영 체제에 액세스, 또는 신청을 위한 액세스 허가 획득과 같은 해당 작업 허가를 획득한다. 대안으로, 얼굴 인식 결과가 미리 설정된 임계 값을 충족하지 못하는 경우 사용자는 해당 작업 허가를 얻을 수 없다. 예를 들어 잠금 해제가 실패하거나 액세스가 거부된다. 얼굴 인식 잠금 해제 과정에서 사용자는 먼저 얼굴 인식 과정을 트리거링해야 한다. 일반적인 트리거링 방식은 전원 버튼 또는 다른 버튼을 탭하거나, 이동 단말을 들어 화면을 켜거나, 음성 어시스턴트를 사용하여 얼굴 인식 프로세스를 트리거링하는 것 등일 수 있다.
얼굴 인식 잠금 해제 과정에서 사용자가 들고 있는 이동 단말의 각도나 얼굴과 이동 단말 사이의 거리 등의 이유로 카메라가 적절한 얼굴 이미지를 수집하지 못할 수 있다. 이로 인해 얼굴 잠금 해제는 실패한다. 얼굴 인식 잠금 해제에 실패하면 사용자는 다시 검증을 수행해야 한다. 그러나 기존 이동 단말의 전력 소모 등의 이유로 얼굴 인식 실패 후 연속 인식이 수행되지 않는다. 결론적으로, 사용자는 잠금 해제를 수행하기 위해 얼굴 인식을 다시 능동적으로 트리거링해야 한다. 얼굴 인식을 다시 트리거링하려면 사용자는 전원 버튼 또는 다른 버튼을 다시 누르거나, 이동 단말을 내려놓은 후 다시 이동 단말을 들거나, 음성 어시스턴트를 사용하여 명령을 다시 보내야 한다. 이러한 작업은 충분히 부드럽지 않고 비교적 복잡하다. 또한 얼굴 인식이 여전히 실패할 수 있다. 이것은 사용에 불편을 초래한다.
이를 고려하여 본 출원의 실시예들은 얼굴 인식 잠금 해제를 자동으로 트리거링하고 이동 단말의 상태에 기초하여 자세 조정 프롬프트를 제공하는 얼굴 인식 방법 및 장치를 제공한다. 이는 운영을 단순화하고 얼굴 인식의 성공률을 높이며 사용자의 사용 경험을 향상시킨다.
제1 관점에 따라, 본 출원의 실시예는 얼굴 인식 방법을 제공하며, 상기 방법은: 얼굴 인식을 트리거링하는 단계; 상기 얼굴 인식에 실패하면 이동 단말의 제1 상태를 검출하는 단계; 상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 단계; 상기 이동 단말의 제2 상태를 검출하는 단계; 및 상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 상기 자세 조정이 발생하면 상기 얼굴 인식을 자동으로 트리거링하는 단계를 포함한다.
가능한 구현에서, 상기 얼굴 인식을 트리거링하는 단계는: 사용자의 얼굴 이미지를 수집하고, 상기 얼굴 이미지를 미리 저장된 얼굴 이미지와 비교하는 단계를 포함한다. 트리거링 방법에는 여러 가지가 있다. 예를 들어, 사용자는 전원 버튼, 볼륨 버튼 또는 다른 버튼을 포함하는 이동 단말의 버튼을 탭할 수 있거나; 또는 얼굴 인식을 트리거링하기 위해 디스플레이를 터치하여 디스플레이를 조명하거나; 또는 센서 감지를 통해 얼굴 인식을 트리거링하기 위해 이동 단말을 집어 올 수 있거나; 또는 얼굴 인식을 트리거링하기 위해 음성 어시스턴트를 사용하여 얼굴 인식의 음성 명령을 전송할 수 있다.
다른 가능한 구현에서, 상기 얼굴 이미지는 얼굴 픽처 또는 비디오를 포함한다.
다른 가능한 구현에서, 상기 미리 저장된 얼굴 이미지는 상기 이동 단말의 메모리에 저장되거나 상기 이동 단말과 통신할 수 있는 서버에 저장된다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 얼굴 인식 방법은: 상기 얼굴 인식에 성공하면, 상기 이동 단말의 작동 허가를 획득하는 단계를 더 포함한다.
다른 가능한 구현에서, 상기 이동 단말의 작동 허가를 획득하는 단계는: 상기 이동 단말을 잠금 해제하는 단계, 상기 이동 단말에 설치된 애플리케이션에 대한 접근 허가를 획득하는 단계, 또는 상기 이동 단말에 저장된 데이터에 대한 접근 허가를 획득하는 단계중 어느 하나를 포함한다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 얼굴 인식 방법은: 상기 얼굴 인식에 실패하면, 다음의 인증 모드: 비밀번호 확인, 제스처 인식, 지문 인식, 홍채 인식, 및 성문 인식 중 어느 하나에서 검증을 수행하는 단계를 더 포함한다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 얼굴 인식 방법은: 상기 얼굴 인식에 실패하면, 얼굴 인식을 다시 수행하기 위한 조건이 충족되는지를 판정하는 단계; 및 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되면 자동으로 얼굴 인식을 다시 트리거링하거나, 또는 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되지 않으면 다음의 인증 모드: 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식, 및 성문 인식 중 어느 하나에서 검증을 수행하는 단계를 더 포함한다.
다른 가능한 구현에서, 상기 얼굴 인식을 다시 수행하기 위한 조건은: 얼굴 인식 실패의 횟수가 미리 설정된 임계 값보다 적음을 의미한다.
다른 가능한 구현에서, 상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 단계는: 상기 이동 단말이 상기 제1 상태에 기초하여 상기 얼굴 인식 실패의 원인을 분석하고, 미리 설정된 데이터베이스에서 상기 원인에 대응하는 솔루션을 찾아내고, 상기 솔루션에 기초하여 상기 자세 조정 프롬프트를 제공하는 단계를 포함한다.
다른 가능한 구현에서, 상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하는 단계는: 상기 제1 상태에 대한 상기 제2 상태의 변화가 상기 자세 조정 프롬프트의 내용과 동일한지를 판정하는 단계를 포함한다.
다른 가능한 구현에서, 상기 자세 조정 프롬프트는 다음 프롬프트 모드: 텍스트, 픽처, 음성, 비디오, 조명 또는 진동 중 임의의 조합을 포함한다.
다른 가능한 구현에서, 상기 제1 상태는 상기 얼굴 인식이 실패할 때 상기 이동 단말과 상기 사용자의 얼굴 사이의 제1 거리이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 이동 단말과 상기 사용자의 얼굴 사이의 제2 거리이다.
다른 가능한 구현에서, 상기 제1 상태는 상기 얼굴 인식에 실패하면 상기 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면의 제1 틸트 각이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면의 제2 틸트 각이다.
제2 관점에 따라, 본 출원의 실시예는 카메라, 프로세서, 메모리 및 센서를 포함하는 장치를 제공하며, 상기 프로세서는: 얼굴 인식을 트리거링하고, 상기 카메라에 사용자의 얼굴 이미지를 수집하도록 지시하고, 상기 얼굴 이미지를 상기 메모리에 미리 저장된 얼굴 이미지와 비교하고; 상기 얼굴 인식에 실패하면, 상기 센서에 상기 장치의 제1 상태를 검출하도록 지시하고; 상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하고; 상기 센서에 상기 장치의 제2 상태를 검출하도록 지시하며; 그리고 상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 상기 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링하도록 구성되어 있다.
다른 가능한 구현에서, 상기 얼굴 이미지는 얼굴 픽처 또는 비디오를 포함한다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세서는 상기 얼굴 인식에 성공하면 상기 장치의 작동 허가를 획득하도록 추가로 구성되어 있다.
다른 가능한 구현에서, 상기 장치의 작동 허가를 획득하는 것은 다음: 상기 장치를 잠금 해제하는 것, 상기 장치에 설치된 애플리케이션에 대한 접근 허가를 획득하는 것, 또는 상기 장치에 저장된 데이터에 대한 접근 허가를 획득하는 것 중 어느 하나를 포함한다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세서는: 상기 얼굴 인식에 실패하면 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식, 성문 인식 인증 모드 중 어느 하나에서 검증을 수행하도록 추가로 구성되어 있다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세서는: 상기 얼굴 인식에 실패하면, 얼굴 인식을 다시 수행하기 위한 조건이 충족되는지를 판정하며; 그리고 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되면 자동으로 얼굴 인식을 다시 트리거링하거나, 또는 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되지 않으면 다음의 인증 모드: 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식, 및 성문 인식 중 어느 하나에서 검증을 수행하도록 추가로 구성되어 있다.
다른 가능한 구현에서, 상기 얼굴 인식을 다시 수행하기 위한 조건은: 얼굴 인식 실패의 횟수가 미리 설정된 임계 값보다 적음을 의미한다.
다른 가능한 구현에서, 상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 것은: 상기 제1 상태에 기초하여 상기 얼굴 인식 실패의 원인을 분석하고, 미리 설정된 데이터베이스에서 상기 원인에 대응하는 솔루션을 찾아내고, 상기 솔루션에 기초하여 상기 자세 조정 프롬프트를 제공하는 것을 포함한다.
다른 가능한 구현에서, 상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하는 것은: 상기 제1 상태에 대한 상기 제2 상태의 변화가 상기 자세 조정 프롬프트의 내용과 동일한지를 판정하는 것을 포함한다.
다른 가능한 구현에서, 상기 자세 조정 프롬프트는 다음 프롬프트 모드: 텍스트, 픽처, 음성, 비디오, 조명 또는 진동 중 임의의 조합을 포함한다.
다른 가능한 구현에서, 상기 제1 상태는 상기 얼굴 인식이 실패할 때 상기 장치와 상기 사용자의 얼굴 사이의 제1 거리이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 장치와 상기 사용자의 얼굴 사이의 제2 거리이다.
다른 가능한 구현에서, 상기 장치는 디스플레이를 더 포함한다. 상기 제1 상태는 상기 얼굴 인식에 실패하면 상기 디스플레이가 수평면을 기준으로 위치하는 평면의 제1 틸트 각이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 디스플레이가 수평면을 기준으로 위치하는 평면의 제2 틸트 각이다.
제3 관점에 따라, 본 출원의 실시예는 얼굴 인식 유닛, 프로세싱 유닛, 프롬프팅 유닛 및 상태 검출 유닛을 포함하는 장치를 제공하며, 상기 프로세싱 유닛은 얼굴 인식을 트리거링하도록 구성되고; 상기 얼굴 인식 유닛은: 사용자의 얼굴 이미지를 수집하고, 상기 얼굴 이미지를 미리 저장된 얼굴 이미지와 비교하도록 구성되고; 상기 상태 검출 유닛은 상기 얼굴 인식에 실패하면, 상기 장치의 제1 상태를 검출하도록 구성되고; 상기 프롬프팅 유닛은 상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하도록 구성되고; 상기 상태 검출 유닛은 상기 장치의 제2 상태를 검출하도록 추가로 구성되며; 그리고 상기 프로세싱 유닛은: 상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 상기 자세 조정이 발생하면 상기 얼굴 인식을 자동으로 트리거링하도록 구성되어 있다.
다른 가능한 구현에서, 상기 얼굴 이미지는 얼굴 픽처 또는 비디오를 포함한다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세싱 유닛은: 상기 얼굴 인식에 성공하면 상기 장치의 작동 허가를 획득하도록 추가로 구성되어 있다.
다른 가능한 구현에서, 상기 장치의 작동 허가를 획득하는 것은 다음: 상기 장치를 잠금 해제하는 것, 상기 장치에 설치된 애플리케이션에 대한 접근 허가를 획득하는 것, 또는 상기 장치에 저장된 데이터에 대한 접근 허가를 획득하는 것 중 어느 하나를 포함한다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세싱 유닛은: 상기 얼굴 인식에 실패하면 다음의 인증 모드: 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식, 및 성문 인식 중 어느 하나에서 검증을 수행하도록 추가로 구성되어 있다.
다른 가능한 구현에서, 상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세싱 유닛은: 상기 얼굴 인식에 실패하면 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되는지를 판정하고; 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되지 않으면 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식 및 성문 인식 중 어느 하나에서 검증을 수행하도록 추가로 구성되어 있거나; 또는 상기 얼굴 인식 유닛은: 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되면 자동으로 얼굴 인식을 다시 트리거링하도록 구성되어 있다.
다른 가능한 구현에서, 상기 얼굴 인식을 다시 수행하기 위한 조건은 얼굴 인식 실패의 횟수가 미리 설정된 임계 값보다 적음을 의미한다.
다른 가능한 구현에서, 상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 것은: 상기 제1 상태에 기초하여 상기 얼굴 인식 실패의 원인을 분석하고, 미리 설정된 데이터베이스에서 상기 원인에 대응하는 솔루션을 찾아내고, 상기 솔루션에 기초하여 상기 자세 조정 프롬프트를 제공하는 것을 포함한다.
다른 가능한 구현에서, 상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하는 것은: 상기 제1 상태에 대한 상기 제2 상태의 변화가 상기 자세 조정 프롬프트의 내용과 동일한지를 판정하는 것을 포함한다.
다른 가능한 구현에서, 상기 자세 조정 프롬프트는 다음 프롬프트 모드: 텍스트, 픽처, 음성, 비디오, 조명 또는 진동 중 임의의 조합을 포함한다.
다른 가능한 구현에서, 상기 제1 상태는 상기 얼굴 인식이 실패할 때 상기 이동 단말과 상기 사용자의 얼굴 사이의 제1 거리이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 이동 단말과 상기 사용자의 얼굴 사이의 제2 거리이다.
다른 가능한 구현에서, 상기 제1 상태는 상기 얼굴 인식에 실패하면 상기 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면의 제1 틸트 각이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면의 제2 틸트 각이다.
제4 관점에 따라, 본 출원의 실시예는 컴퓨터 저장 매체를 제공하며, 상기 컴퓨터 저장 매체는 명령을 저장한다. 상기 명령이 이동 단말에서 실행될 때, 상기 이동 단말은 제1항 내지 제14항 중 어느 한 항에 따른 방법을 수행할 수 있다.
제5 관점에 따라, 본 출원의 실시예는 명령을 포함하는 컴퓨터 프로그램 제품을 제공한다. 상기 컴퓨터 프로그램 제품이 이동 단말에서 실행될 때, 상기 이동 단말은 제1항 내지 제14항 중 어느 한 항에 따른 방법을 수행할 수 있다.
도 1은 본 출원의 실시예에 따른 이동 전화를 사용하여 얼굴 인식을 수행하는 개략도이다.
도 2는 본 출원의 실시예에 따른 이동 전화의 하드웨어 구조의 개략도이다.
도 3은 본 출원의 일 실시예에 따른 얼굴 인식을 트리거링하는 방법의 흐름도이다.
도 4는 본 출원의 실시예에 따른 이동 단말의 틸트 각의 개략도이다.
도 5는 본 출원의 일 실시예에 따른 얼굴 인식을 통한 이동 단말 잠금 해제 방법의 흐름도이다.
도 6은 본 애플리케이션의 일 실시예에 따라 얼굴 인식을 통해 애플리케이션에 대한 접근 허가를 획득하는 방법의 흐름도이다.
도 7은 본 출원의 일 실시예에 따른 얼굴 인식을 통해 일부 데이터에 대한 접근 허가를 획득하는 방법의 흐름도이다.
도 8은 본 출원의 일 실시예에 따른 얼굴 인식을 통한 이동 단말 잠금 해제 방법의 흐름도이다.
도 9는 본 출원의 일 실시예에 따른 얼굴 인식을 통한 이동 단말 잠금 해제의 개략도이다.
도 10은 본 출원의 일 실시예에 따른 얼굴 인식을 통해 이동 단말을 잠금 해제하는 다른 방법의 흐름도이다.
도 11은 본 출원의 일 실시예에 따른 얼굴 인식을 통한 이동 단말 잠금 해제의 또 다른 개략도이다.
도 12는 본 출원의 일 실시예에 따른 얼굴 인식을 통한 이동 단말 잠금 해제 방법의 흐름도이다.
도 13은 본 출원의 실시예에 따른 장치의 개략적인 구조도이다.
도 14는 본 출원의 실시예에 따른 다른 장치의 개략적인 구조도이다.
얼굴 인식은 사람의 얼굴 특징 정보를 기반으로 신원을 인식하는 생체 인식 기술이다. 이동 단말의 카메라는 사용자의 얼굴이 포함된 픽처 또는 동영상을 수집하고, 미리 저장된 얼굴 픽처 또는 동영상과 특징적인 면에서 비교할 수 있다. 둘 사이의 매칭 정도가 미리 설정된 임계 값보다 크면 얼굴 인식에 성공하고 해당 작업 허가를 사용자에게 할당할 수 있다. 예를 들어, 사용자는 이동 단말의 잠금을 해제하거나 해당 허가로 운영 체제에 액세스하거나 애플리케이션에 대한 액세스 허가를 얻거나 일부 데이터에 대한 액세스 허가를 얻을 수 있다. 둘 사이의 매칭 정도가 미리 설정된 임계 값 미만이면 얼굴 인식에 실패하고 사용자는 해당 작업 허가를 얻을 수 없다. 예를 들어 잠금 해제에 실패하거나 애플리케이션 또는 일부 데이터에 대한 액세스가 거부된다. 얼굴 인식은 다른 인증 모드, 예를 들어 암호 확인, 제스처 인식, 지문 인식, 홍채 인식 또는 성문 인식과 조합하여 대안으로 수행될 수 있음을 이해할 수 있다. 특정 구현 중에, 얼굴 인식 기술은 일부 알고리즘, 예를 들어, 특징점 추출, 3D 모델링, 국부 확대, 자동 노출 조정 및 적외선 검출과 결합될 수 있다.
본 출원의 실시예에서 이동 단말은 이동 전화, 태블릿 컴퓨터, 웨어러블 장치, 노트북 컴퓨터, 퍼스널 디지털 어시스턴트(Personal Digital Assistant, PDA), 증강 현실(AR) 장치/가상 현실(VR) 장치 또는 차량 탑재 장치와 같은 임의의 형태의 이동 단말일 수 있음을 이해할 수 있다. 본 출원의 일부 실시예에서, 이동 단말을 설명하기 위한 예로서 이동 전화가 사용된다. 이들 실시예는 다른 이동 단말에도 적용 가능하다는 것을 이해할 수 있다.
도 1은 아동 전화를 이용하여 얼굴 인식을 수행하는 개략도이다. 사용자 1은 이동 전화(200)를 들고서 얼굴 인식을 수행한다. 이동 전화(200)는 디스플레이(203) 및 카메라(204)를 포함한다. 활성화된 후, 카메라(204)는 사용자 1의 얼굴 픽처 또는 비디오를 수집하도록 구성될 수 있다. 디스플레이(203)는 수집 인터페이스를 표시할 수 있다. 수집 인터페이스는 촬영 인터페이스일 수 있으며, 사용자 1의 얼굴 촬영 효과를 표시하도록 구성된다.
얼굴 인식이 수행되면, 사용자 1은 먼저 얼굴 인식을 트리거링한다. 트리거링 방법에는 여러 가지가 있다. 예를 들어, 사용자 1은 전원 버튼, 볼륨 버튼 또는 다른 버튼을 포함하는 이동 전화(200)의 버튼을 탭할 수 있거나; 또는 디스플레이(203)를 터치하여 디스플레이(203)를 점등시켜 얼굴 인식을 트리거링할 수 있거나; 또는 이동 전화(200)를 집어 올려 센서 감지를 통해 얼굴 인식을 트리거링할 수 있거나; 또는 얼굴 인식을 트리거링하기 위해 음성 어시스턴트를 사용하여 얼굴 인식의 음성 명령을 전송할 수 있다.
얼굴 인식이 트리거링된 후, 이동 전화(200)는 사용자 1의 얼굴 이미지를 수집할 수 있다. 구체적으로, 전면 카메라(204)는 사용자 1의 얼굴을 촬영하는 데 사용될 수 있다. 본 출원의 실시예는 얼굴 픽처 또는 비디오를 포함할 수 있다. 선택적으로, 수집된 픽처 또는 동영상이 디스플레이(203)에 표시될 수 있다. 사용자 1의 얼굴 이미지를 수집한 후, 이동 전화(200)는 미리 저장된 얼굴 이미지를 사용하여 비교를 수행하여 사용자 1가 얼굴 인식을 통과하는지를 판정함으로써 해당 작업 허가를 획득할 수 있다. 미리 저장된 얼굴 이미지는 이동 전화(200)의 메모리에 미리 저장되어 있거나, 이동 전화(200)와 통신할 수 있는 서버 또는 데이터베이스에 미리 저장되어 있을 수 있음을 이해할 수 있다. 여기에서 "대응하는 작동 허가"는 이동 전화(200)의 잠금을 해제하거나, 상응하는 허가로 운영 체제에 액세스하거나, 일부 애플리케이션에 대한 접근 허가를 얻거나, 일부 데이터에 대한 접근 허가를 획득하는 등의 것일 수 있다. 본 출원의 일부 실시예에서, 이동 전화(200)의 잠금 해제는 얼굴 인식 통과의 결과로 사용된다. 실시예에서, 다른 대응하는 작동 허가를 획득하는 것도 얼굴 인식 통과의 결과로서 사용될 수 있다는 것을 이해할 수 있을 것이다. 본 명세서에서 "얼굴 인식 통과"는 얼굴 인식 성공이라고도 할 수 있으며, 이동 전화(200)에서 수집한 사용자 1의 얼굴 이미지와 이미 저장되어 있는 얼굴 이미지의 매칭 정도가 미리 설정된 임계 값보다 크다는 것을 의미하며, 반드시 완전 일치는 아니다. 예를 들어, 미리 설정된 임계 값은 두 가지 특징점의 80%가 서로 일치하는 것일 수 있으며, 미리 설정된 임계 값은 사용자 1의 작동 장소 및 획득 허가과 같은 요인에 따라 동적으로 조정될 수 있다.
도 2는 이동 전화(200)의 하드웨어 구조의 개략도이다. 이동 전화(200)는 프로세서(201), 메모리(202), 디스플레이(203), 카메라(204), I/O 장치(205), 센서(206), 전원 공급 장치(207), 블루투스 장치(208), 위치 결정 장치(209), 오디오 회로(210), Wi-Fi 장치(211), 무선 주파수 회로(212) 등을 포함할 수 있다. 구성 요소는 하나 이상의 통신 버스 또는 신호 케이블을 사용하여 서로 통신한다. 이동 전화(200)는 얼굴 인식을 구현할 수 있는 모바일 장치의 일례일 뿐이며, 이동 전화(200)의 구조에 제한을 두지 않는다는 점을 이해할 수 있다. 이동 전화(200)는 도 1에 도시된 것보다 많거나 적은 구성 요소를 가질 수 있거나, 2 개 이상의 구성 요소를 결합하거나 구성 요소의 구성 또는 배열이 다를 수 있다. 이동 전화(200)에서 실행되는 운영 체제는 iOS®, Android®, Microsoft®, DOS, Unix, Linux 또는 다른 운영 체제를 포함하지만 이에 제한되지는 않는다.
프로세서(201)는 단일 프로세서 또는 프로세싱 유닛, 복수의 프로세서, 복수의 프로세싱 유닛, 또는 하나 이상의 다른 적절하게 구성된 컴퓨팅 요소를 포함한다. 예를 들어, 프로세서(201)는 마이크로프로세서, 중앙 프로세싱 유닛(central processing unit, CPU), 주문형 집적 회로(application-specific integrated circuit, ASIC), 디지털 신호 프로세서(digital signal processor, DSP) 또는 이러한 장치들의 조합일 수 있다. 선택적으로, 프로세서(201)는 애플리케이션 프로세서와 모뎀을 통합할 수 있다. 애플리케이션 프로세서는 주로 운영 체제, 사용자 인터페이스, 애플리케이션 등을 처리한다. 모뎀은 주로 무선 통신을 처리한다. 프로세서(201)는 이동 전화(200)의 제어 센터이며, 다양한 인터페이스 및 회선을 이용하여 이동 전화(200)의 각 부분에 직간접적으로 연결되어, 메모리(202)에 저장된 소프트웨어 프로그램 또는 명령어 집합을 실행 또는 실행하며, 메모리(202)에 저장된 데이터를 호출하여 이동 전화(200)의 다양한 기능을 수행하고 데이터를 처리하여 모바일 폰(200)에 대한 전반적인 모니터링을 수행한다.
메모리(202)는 이동 전화(200)에서 사용할 수 있는 전자 데이터, 예를 들어 운영체제, 애플리케이션, 애플리케이션에 의해 생성된 데이터, 예를 들어, 텍스트, 픽처, 오디오, 비디오, 장치 설정 및 사용자 선호도, 연락처 목록 및 통신 기록, 메모 및 일정, 생체 측정 데이터, 데이터 구조 또는 데이터베이스와 같은 다양한 문서를 저장할 수 있다. 메모리(202)는 임의의 유형의 메모리, 예를 들어 랜덤 액세스 메모리, 읽기 전용 메모리, 플래시 메모리, 제거 가능한 메모리, 또는 다른 유형의 저장 요소 또는 이러한 장치의 조합으로 구성될 수 있다. 본 애플리케이션의 일부 실시예에서, 메모리(200)는 얼굴 인식시 미리 설정된 얼굴 이미지와 수집된 얼굴 이미지를 비교하기 위해 미리 설정된 얼굴 이미지를 저장하도록 구성될 수 있다.
디스플레이(203)는 사용자가 입력한 정보 또는 사용자에게 제공되는 정보 및 이동 전화(200)의 다양한 인터페이스를 표시하도록 구성될 수 있다. 일반적인 디스플레이 유형은 액정 디스플레이(liquid crystal display, LCD), 유기 발광 다이오드(organic light-emitting diode, OLED) 등을 포함한다. 선택적으로, 디스플레이(203)는 사용을 위해 터치 패널과 더 통합될 수 있다. 터치 패널은 접촉 여부를 검출하고, 접촉의 압력 값, 이동 속도, 이동 방향, 위치 정보 등을 검출할 수 있다. 터치 패널의 검출 모드는 정전 용량 방식, 저항성 방식, 적외선 방식, 탄성 표면파 방식 등을 포함하나 이에 한정되지 않는다. 터치 패널에서 또는 그 근처에서 터치 동작을 검출한 후, 터치 패널은 터치 동작을 프로세서(201)로 전송하여 터치 이벤트의 종류를 결정한다. 그런 다음, 프로세서(201)는 터치 이벤트의 유형에 기초하여 디스플레이(203)에 대응하는 시각적 출력을 제공한다. 시각적 출력에는 텍스트, 그래픽, 아이콘, 비디오 및 이들의 조합이 포함된다.
카메라(204)는 픽처 또는 동영상을 촬영하도록 구성된다. 선택적으로, 카메라(204)는 전면 카메라와 후면 카메라로 구분될 수 있으며, 플래시와 같은 다른 구성 요소와 함께 사용된다. 본 출원의 일부 실시예에서, 전면 카메라는 사용자 1의 얼굴 이미지를 수집하는 데 사용될 수 있다. 본 출원의 일부 실시예에서, RGB 카메라, 적외선 카메라, ToF(Time of Flight) 카메라 및 구조 광 구성 요소가 얼굴 인식을 위한 이미지를 수집하기 위해 사용될 수 있다.
I/O 장치(205), 즉 입/출력 장치는 사용자 또는 다른 장치에 의해 전송된 데이터 및 명령을 수신할 수 있고, 데이터 또는 명령을 사용자 또는 다른 장치로 출력할 수도 있다. I/O 장치(205)는 다양한 버튼, 인터페이스, 키보드, 터치 입력 장치, 터치 패드 및 마우스와 같은 이동 전화(200)의 구성 요소를 포함한다. 넓은 의미에서 I/O 장치는 또한 도 2에 도시된 디스플레이(203), 카메라(204), 오디오 회로(210) 등을 포함할 수 있다.
이동 전화(200)는 하나 이상의 센서(206)를 포함할 수 있다. 센서(206)는 이미지, 압력, 빛, 접촉, 열, 자기, 움직임, 상대 운동 등을 포함하지만 이에 제한되지 않는 임의의 유형의 속성을 감지하도록 구성될 수 있다. 예를 들어, 센서(206)는 이미지 센서, 온도계, 습도계, 근접 센서, 적외선 센서, 가속도계, 각속도 센서, 중력 센서, 자이로스코프, 자력계 또는 심박수 감지기일 수 있다. 본 출원의 일부 실시예에서, 사용자 1과 이동 전화(200) 사이의 거리, 각도 또는 상대적 위치는 근접 센서, 거리 센서, 적외선 센서, 중력 센서, 자이로스코프, 또는 다른 유형의 센서를 사용해서 검출될 수 있다.
전원(207)은 이동 전화(200) 및 이동 전화(200)의 구성 요소에 전력을 공급할 수 있다. 전원(207)은 하나 이상의 충전식 배터리, 비 충전식 배터리, 또는 유선/무선 방식으로 이동 전화(200)에 연결된 외부 전원 공급 장치일 수 있다. 선택적으로, 전원(207)은 전력 관리 시스템, 오류 감지 시스템 및 전력 변환 시스템과 같은 관련 장치를 더 포함할 수 있다.
블루투스 장치(208)는 블루투스 프로토콜을 사용하여 이동 전화(200)와 다른 장치 사이의 데이터 교환을 구현하도록 구성된다. 이동 전화(200)는 NFC 장치와 같은 다른 근거리 통신 장치를 더 포함할 수 있음을 이해할 수 있다.
포지셔닝 장치(209)는 이동 전화(200)에 대한 지리적 위치 정보 및 이동 전화(200)에 설치된 애플리케이션을 제공할 수 있다. 포지셔닝 장치(209)는 GPS, BeiDou 위성 내비게이션 시스템 또는 GLONASS와 같은 포지셔닝 시스템일 수 있다. 선택적으로, 포지셔닝 장치(209)는 보조 글로벌 포지셔닝 시스템(auxiliary global positioning system, AGPS)를 더 포함하고, 기지국 또는 Wi-Fi 액세스 포인트 등에 기초하여 보조 포지셔닝을 수행한다.
오디오 회로(210)는 오디오 신호 처리, 입력 및 출력과 같은 기능을 수행할 수 있으며, 스피커(210-1), 마이크로폰(210-2) 및 다른 오디오 프로세싱 유닛을 포함할 수 있다.
Wi-Fi 장치(211)는 Wi-Fi 관련 표준 프로토콜을 따르는 네트워크 액세스를 이동 전화(200)에 제공하도록 구성된다. 예를 들어, 이동 전화(200)는 Wi-Fi 장치(211)를 이용하여 Wi-Fi 액세스 포인트에 접속하여 네트워크에 접속할 수 있다.
무선 주파수 회로(Radio Frequency, RF)(212)는: 정보를 수신 및 전송하거나, 호출 프로세스에서 신호를 수신 및 전송하고, 전기 신호를 전자기 신호로 변환하거나 전자기 신호를 전기 신호로 변환하고, 전자기 신호를 사용하여 통신 네트워크 및 다른 통신 장치와 통신하도록 구성될 수 있다. 무선 주파수 회로(212)의 구조는 안테나 시스템, 무선 주파수 트랜시버, 하나 이상의 증폭기, 튜너, 하나 이상의 발진기, 디지털 신호 프로세서, 코덱 칩셋, 가입자 식별 모듈(Subscriber Identity Module, SIM) 카드 등이 있다. 무선 주파수 회로(212)는 무선 통신을 통해 네트워크 및 다른 장치와 통신할 수 있다. 네트워크는 예를 들어 인터넷, 인트라넷 및/또는 무선 네트워크(예를 들어, 셀룰러 전화 네트워크, 무선 근거리 통신망 및/또는 대도시 지역 네트워크)이다. 무선 통신은 이동 통신을 위한 글로벌 시스템, 향상된 데이터 GSM 환경, 고속 다운링크 패킷 액세스, 고속 업링크 패킷 액세스, 광대역 코드 분할 다중 액세스, 코드 분할 다중 액세스, 시분할 다중 액세스, Bluetooth, 무선 충실도(예를 들어, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 및/또는 IEEE 802.11n), 인터넷 음성 프로토콜, WiMAX, e-메일 프로토콜(예를 들어, 인터넷 메시지 액세스 프로토콜(internet message access protocol, IMAP) 및/또는 우체국 프로토콜(post office protocol, POP)), 인스턴트 메시징(예를 들어, 확장 가능한 메시징 및 현재 상태 프로토콜(internet message access protocol, XMPP), 인스턴트 메시징 및 프레즌스 레버레이징 확장을 위한 세션 시작 프로토콜(session initiation protocol for instant messaging and presence leveraging extensions, SIMPLE) 및 인스턴트 메시징 및 프레즌스 서비스(instant messaging and presence service, IMPS) 및/또는 SMS(단문 메시지 서비스) 또는 기타 적절한 통신 프로토콜을 포함하되 제한되지 않는, 본 출원의 출원일에 개발되지 않은 프로토콜을 포함하는 다양한 통신 표준, 프로토콜 및 기술을 사용할 수 있다.
도 2에 도시되지는 않았지만, 이동 전화(200)는 다른 구성 요소를 더 포함할 수 있다. 자세한 내용은 여기에서 설명하지 않는다.
이동 전화(200)를 이용하여 얼굴 인식을 수행하는 경우, 사용자 1이 이동 전화(200)를 서로 다른 각도와 거리로 잡고 있기 때문에 이동 전화(200)는 적절한 얼굴 이미지를 수집하지 못할 수 있다. 이로 인해 얼굴 인식 실패가 발생한다. 예를 들어, 사용자 1의 얼굴이 이동 전화(200)에 너무 가까워지면 얼굴 이미지가 불완전하다. 또는 사용자 1의 얼굴이 이동 전화(200)에서 너무 멀어지면 얼굴 이미지의 세부 사항을 인식할 수 없다. 대안으로, 사용자 1가 들고 있는 이동 전화(200)가 지나치게 기울어진 경우, 왜곡, 변형 또는 얼굴 이미지 손실이 발생한다. 대안으로, 사용자 1가 위치한 환경이 너무 어둡거나 너무 밝은 경우, 얼굴 이미지의 노출 또는 대비가 인식 가능한 범위를 초과한다.
이동 전화(200)의 전력이 제한되어 있어 전력 소모 감소를 고려하여 얼굴 인식에 실패한 후, 이동 전화(200)는 계속해서 얼굴 인식을 수행하지 않고, 사용자 1은 얼굴 인식을 다시 트리거링해야 하며, 즉, 전술한 트리거링 프로세스를 반복한다. 이로 인해 작업이 불편하게 된다. 또한 얼굴 인식이 다시 트리거링된 후에도 인식이 여전히 실패할 수 있다.
도 3은 본 출원의 일 실시예에 따른 얼굴 인식을 트리거링하는 방법을 도시한다. 이 방법은 얼굴 인식 실패 후 사용자가 자세 조정을 수행하는지를 판정하여 얼굴 인식을 자동으로 트리거링할지를 판정하는 데 사용된다. 이 방법에는 다음 단계가 포함된다.
S301: 얼굴 인식에 실패하면 이동 단말의 제1 상태를 검출한다.
선택적으로, 단계 S301 이전에, 단계 S300(얼굴 인식 트리거링)이 더 수행될 수 있다. 트리거링 방법에는 여러 가지가 있다. 예를 들어, 사용자는 전원 버튼, 볼륨 버튼 또는 다른 버튼을 포함하는 이동 전화(200)의 버튼을 탭할 수 있거나; 또는 디스플레이(203)를 터치하여 디스플레이(203)를 점등시켜 얼굴 인식을 트리거링할 수 있거나; 또는 센서 감지를 통해 얼굴 인식을 트리거링하기 위해 이동 전화(200)를 집어 올 수 있거나; 또는 얼굴 인식을 트리거링하기 위해 음성 어시스턴트를 사용하여 얼굴 인식의 음성 명령을 전송할 수 있다. 이하의 실시예의 방법이 수행되기 전에 S300이 먼저 수행될 수 있음을 이해할 수 있다. 선택적으로, 얼굴 인식을 트리거링하는 것은 얼굴 인식을 수행하기 위해 얼굴 인식과 관련된 카메라 및 다른 기능을 가능하게 할 수 있다.
얼굴 인식이 트리거링된 후 이동 단말(예를 들어, 이동 전화 200)은 사용자에 대한 얼굴 인식을 수행하고, 예를 들어 사용자의 얼굴 이미지를 수집하고, 수집된 얼굴 이미지와 미리 저장된 얼굴 이미지를 비교하며; 사용자가 얼굴 인식을 통과하는지, 즉 얼굴 인식에 성공하는지를 판정한다. 얼굴 인식에 성공하면, 사용자는 해당 이동 단말 작동 허가를 획득할 수 있는데, 예를 들어, 이동 단말을 잠금 해제하고, 해당 허가로 운영 체제에 액세스하고, 일부 애플리케이션에 대한 액세스 허가를 획득하거나, 일부 데이터에 대한 액세스 허가를 획득할 수 있다. 얼굴 인식에 실패하면 사용자는 해당 이동 단말 조작 허가를 획득할 수 없다. 용어 "언제"는 "만약", "이후", "판정에 대한 응답으로" 또는 "검출에 대한 응답으로"로 해석될 수 있다. 본 명세서에서 설명하는 "얼굴 인식에 실패하면 이동 단말의 상태를 검출한다"는 얼굴 인식에 실패하면 이동 단말의 상태를 검출할 수 있거나, 또는 얼굴 인식 실패 후 이동 단말의 상태를 검출(예를 들어, 얼굴 인식 실패 후 두 번째로 이동 단말의 상태를 검출)할 수 있음을 이해할 수 있다.
이동 단말의 제1 상태는 얼굴 인식에 실패할 때의 이동 단말의 상태일 수 있다. 이동 단말의 제1 상태를 검출하는 것은 구체적으로 얼굴 인식이 실패할 때 단말 센서를 이용하여 이동 단말의 틸트 각, 이동 단말과 사용자 얼굴 사이의 거리, 이동 단말 주변 환경의 밝기의 상태를 센서를 이용하여 검출하는 것일 수 있다. 예를 들어, 근접 센서, 거리 센서, 중력 센서, 자이로스코프, 광학 센서 또는 적외선 센서와 같은 임의의 적절한 센서가 이동 단말의 상태를 검출하는데 사용될 수 있음을 이해할 수 있다.
본 출원의 실시예에서 이동 단말과 사용자의 얼굴 사이의 거리는 이동 단말의 전면 카메라와 사용자의 얼굴 사이의 거리일 수 있으며, 예를 들어, 이동 전화의 전면 카메라와 사용자의 비강 끝 사이의 거리일 수 있다. 본 출원의 실시예에서 설명된 틸트 각은 이동 단말의 디스플레이가 사용자가 이동 단말을 수직으로 사용하는 경우(예를 들어, 똑바로 서 있거나 똑바로 앉아 있는 경우) 수평면(또는 접지면)에 대해 위치하는 평면이 이루는 각도에 포함되는 90도 이하의 각도(도 4에 도시된 바와 같음)일 수 있다. 틸트 각이 작을수록 얼굴 인식시 영상 수집이 더 어렵다는 것을 알 수 있다. 즉, 사용자가 들고 있는 이동 단말을 지나치게 기울이면 얼굴 인식에 실패할 수 있다. 이동 단말(예를 들어 시중에 나와 있는 대부분의 이동 전화)의 모양이 직사각형의 직육면체일 때, 이동 단말의 디스플레이가 위치하는 평면은 또한 이동 단말이 위치하는 평면으로 이해될 수 있음을 알 수 있다.
S302: 이동 단말의 제1 상태에 기초하여 자세 조정 프롬프트를 제공한다.
얼굴 인식에 실패하면 이동 단말의 제1 상태를 검출한 후, 이동 단말은 제1 상태에 기초하여 자세 조정 프롬프트를 제공한다. 선택적으로, 이동 단말은 제1 상태에 기초하여 얼굴 인식 실패의 원인을 분석한다. 예를 들어, 제1 상태는 사용자가 들고 있는 이동 단말이 지나치게 기울어져 결과적으로 얼굴 인식에 실패하는 것이거나; 또는 제1 상태는 사용자의 얼굴이 이동 단말에 너무 가깝거나 너무 멀어서 결과적으로 얼굴 인식에 실패하는 것이다. 선택적으로, 이동 단말은 얼굴 인식 실패의 원인을 파악한 후 이미 설정된 데이터베이스에서 그 원인에 해당하는 솔루션을 찾아내어 대응하는 자세 조정 프롬프트를 제공할 수 있다. 예를 들어, 사용자의 얼굴이 이동 단말에서 너무 멀어서 얼굴 인식에 실패한 경우, 이동 단말은 자세 조정 프롬프트 "이동 전화를 더 가까이 이동시키세요"를 제공할 수 있거나, 또는 자세 조정 프롬프트 "이동 전화가 얼굴에서 너무 멀리 떨어져 있습니다"를 제공할 수 있다. 다른 예로, 사용자가 들고 있는 이동 단말이 지나치게 기울어져 얼굴 인식에 실패한 경우, 이동 단말은 자세 조정 프롬프트 "이동 전화를 수직으로 잡아주세요"를 제공하거나 자세 조정 프롬프트 "이동 전화가 과도하게 기울어져 있습니다"를 제공할 수 있다.
자세 조정 프롬프트는 텍스트, 픽처, 음성 또는 비디오와 같은 임의의 형태의 프롬프트 또는 이들 형태의 조합일 수 있음을 이해할 수 있다. 예를 들어, 이동 단말의 디스플레이 화면에는 자세 조정 프롬프트의 내용이 표시될 수 있다. 또는 화자가 자세 조정 프롬프트의 내용을 재생한다. 대안으로, 자세 조정 프롬프트는 이동 단말의 조명 디스플레이 또는 진동과 같은 임의의 형태의 프롬프트이거나 이들 형태의 조합일 수 있다. 예를 들어, 이동 단말의 LED 표시등은 특정 색상으로 빛을 발하거나 일정 시간 동안 켜지거나 깜박인다. 대안으로, 이동 단말은 대응하는 자세 조정 프롬프트를 나타내기 위해 여러 번 진동한다.
선택적으로, 단계 S302는 생략될 수 있으며, 다시 말해, 자세 조정 프롬프트가 제공되지 않는다. 단계 S301이 수행된 후 바로 단계 S303이 수행된다. 유사하게, 다음 실시예에서, 자세 조정 프롬프트를 제공하는 단계도 생략될 수 있다.
S303: 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
자세 조정 프롬프트가 제공된 후, 이동 단말의 상태(즉, 제2 상태)를 다시 검출하여 자세 조정이 발생하는지를 판정할 수 있다. S303은 세 단계로 나눌 수 있다: (1) 이동 단말의 제2 상태를 검출하고; (2) 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하며; (3) 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다. 선택적으로, 자세 조정이 제공된 후 동시에 또는 일정 기간 내에, 센서를 사용하여 이동 단말의 상태를 다시 검출하여 제1 상태에 대한 대응 변화가 있는지를 판정함으로써 자세 조정이 발생하는지를 판정할 수 있다. 사용자 입장에서 사용자가 자세 조정을 한다면 제1 상태에 비해 이동 단말의 제2 상태가 그에 따라 변한다는 것을 의미한다. 예를 들어, 이동 단말의 제1 상태가 이동 단말과 사용자의 얼굴 사이의 거리가 30cm인 경우 이동 단말이 너무 멀어서 얼굴 인식에 실패한다. 제2 상태는 이동 단말과 사용자 얼굴 사이의 거리가 20cm라는 것이다. 거리가 더 가까우므로, 다시 말해, 제2 상태가 제1 상태에 대해 그에 따라 변경되므로 자세 조정이 발생한다.
선택적으로, 자세 조정이 발생하면 자세 조정 내용이 자세 조정 프롬프트 내용과 동일한지를 더 판정할 수 있다. 내용이 동일하면 얼굴 인식이 자동으로 다시 트리거링된다. 자세 조정 프롬프트의 내용은 S302 단계에서 얼굴 인식 실패의 원인 분석 시 데이터베이스로부터 획득한 대응하는 솔루션일 수 있다. 예를 들어, 자세 조정 프롬프트가 "이동 전화를 더 가까이 이동시키세요"인 경우, 이동 단말의 제2 상태에 따라 이동 전화를 더 가까이 이동시키는 자세 조정이 발생하는지를 판정할 수 있다. 그렇다면 얼굴 인식이 자동으로 실행된다. 다른 예로, 자세 조정 프롬프트가 "이동 전화를 수직으로 잡아주세요"인 경우, 이동 단말의 제2 상태에 기초하여 이동 전화를 수직으로 잡고 있는지를 판정할 수 있는 자세 조정을 판정할 수 있으므로, 이동 전화의 디스플레이가 위치하는 평면이 수평면에 수직이거나 디스플레이가 위치하는 평면과 수평면 사이의 사이 각(included angel)이 인식 가능한 범위에 도달한다. 그렇다면 얼굴 인식이 자동으로 실행된다.
얼굴 인식을 자동으로 트리거링하는 것은 사용자가 S300에서 얼굴 인식 트리거링 방법을 수행할 필요가 없지만, 얼굴 인식을 트리거링하는 조건으로 자세 조정을 사용하여 이동 단말이 얼굴 인식을 다시 수행하는 것을 의미한다. 선택적으로, 얼굴 인식을 자동으로 트리거링하는 것은 얼굴 인식과 관련된 전면 카메라 및 다른 기능을 자동으로 활성화하여 얼굴 인식을 다시 수행하는 것일 수 있다.
전술한 실시예에서 센서는 이동 단말의 상태 변화를 감지하여 해당 자세 조정 동작이 발생하는지를 판정하여 얼굴 인식을 다시 수행할지를 판정한다. 자세 조정 기반의 얼굴 인식 기상 방식(facial recognition wake-up method)은 이동 단말의 전력 소모를 줄일 뿐만 아니라 보다 간편하고 편리한 얼굴 인식 기상 방식을 제공하며 자세 조정 프롬프트를 활용하여 얼굴 인식 성공률을 더욱 향상시킨다.
도 5는 본 출원의 일 실시예에 따른 얼굴 인식을 통한 이동 단말 잠금 해제 방법을 나타낸다. 이 방법에는 다음 단계가 포함된다.
S501: 얼굴 인식을 트리거링한다. 선택적으로 얼굴 인식에 성공하면 이동 단말이 잠금 해제된다.
S502: 얼굴 인식에 실패하면 이동 단말의 제1 상태를 검출한다.
S503: 이동 단말의 제1 상태에 기초하여 자세 조정 프롬프트를 제공한다.
S504: 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다. S303과 유사하게, S504는 세 단계로 나뉠 수 있다: (1) 이동 단말의 제2 상태를 검출하고; (2) 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고; (3) 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
S505: 얼굴 인식에 성공하면 이동 단말을 잠금 해제한다.
이 실시예의 일부 단계는 전술한 실시예의 단계와 유사하며, 세부 사항은 설명되지 않는다.
이동 전화(200)에 설치된 일부 애플리케이션의 경우, 애플리케이션에 액세스 할 때 애플리케이션에 대한 액세스 허가를 얻기 위해서는 사용자 신원을 확인해야 한다. 도 6은 본 애플리케이션의 일 실시예에 따른 얼굴 인식을 통해 애플리케이션에 대한 접근 허가를 획득하는 방법을 나타낸다. 이 방법에는 다음 단계가 포함된다.
S601: 얼굴 인식을 트리거링한다. 선택적으로 얼굴 인식에 성공하면 애플리케이션에 대한 액세스 허가를 획득한다.
S602: 얼굴 인식에 실패하면 이동 단말의 제1 상태를 검출한다.
S603: 이동 단말의 제1 상태에 기초하여 자세 조정 프롬프트를 제공한다.
S604: 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다. S303과 유사하게, S604는 또한 세 단계로 나눌 수 있다: (1) 이동 단말의 제2 상태를 검출하고; (2) 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고; (3) 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
S605: 얼굴 인식에 성공하면 애플리케이션에 대한 액세스 허가를 획득한다.
이동 전화(200)에 저장된 일부 데이터(예를 들어, 개인 픽처 또는 개인 메모)에 액세스할 경우 사용자의 신원을 확인해야 한다. 도 7은 본 출원의 일 실시예에 따른 얼굴 인식을 통해 일부 데이터에 대한 접근 허가를 획득하는 방법을 나타낸다. 이 방법에는 다음 단계가 포함된다.
S701: 얼굴 인식을 트리거링한다. 선택적으로 얼굴 인식에 성공하면 데이터에 대한 액세스 허가를 획득한다.
S702: 얼굴 인식에 실패하면 이동 단말의 제1 상태를 검출한다.
S703: 이동 단말의 제1 상태에 기초하여 자세 조정 프롬프트를 제공한다.
S704: 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다. S303과 유사하게, S704는 (1) 이동 단말의 제2 상태를 검출하고; (2) 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고; (3) 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
S705: 얼굴 인식에 성공하면 데이터에 대한 액세스 허가를 획득한다.
도 8은 얼굴 인식을 통한 이동 단말 잠금 해제의 예를 도시한다. 이동 단말이 사용자의 얼굴에 너무 가깝거나 너무 멀리 떨어져 있는 경우 자동으로 얼굴 인식을 트리거링하는 방법은 다음과 같은 단계를 포함한다.
S801: 얼굴 인식을 트리거링한다. 선택적으로 얼굴 인식에 성공하면 이동 단말이 잠금 해제된다.
S802: 얼굴 인식에 실패하면 이동 단말과 사용자 얼굴 사이의 제1 거리를 검출한다.
얼굴 인식 실패의 원인은 이동 단말이 사용자의 얼굴에 너무 가깝거나 너무 멀리 있기 때문일 수 있다.
S803: 검출된 이동 단말과 사용자 얼굴 사이의 제1 거리에 기초하여, 이동 단말과 사용자 얼굴 사이의 거리를 조정하기 위한 자세 조정 프롬프트를 제공한다.
제1 거리는 이동 단말과 사용자의 얼굴 사이의 거리로서 얼굴 인식에 실패하면 센서에 의해 검출되는 거리일 수 있다. 거리가 너무 가까우면 거리를 연장하기 위한 제스처 조정 프롬프트가 제공될 수 있다. 거리가 너무 멀면 거리를 단축하기 위한 제스처 조정 프롬프트가 제공될 수 있다.
S804: 검출된 이동 단말과 사용자 얼굴 사이의 제2 거리에 기초하여 자세 조정이 발생하는지를 판정하고, 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
이동 단말이 자세 조정 프롬프트를 제공한 후 센서는 이동 단말과 사용자 얼굴 사이의 제2 거리를 검출한다. 제2 거리는 제1 거리와 비교된다. 대응하는 변경이 발생하면 자세 조정이 발생한 것으로 판정한다. 예를 들어, 자세 조정 프롬프트가 거리를 연장하는 경우, 제2 거리가 제1 거리보다 크면 자세 조정이 발생한 것으로 판정한다. S303과 유사하게, S804는 세 단계로 나눌 수 있다: (1) 이동 단말과 사용자의 얼굴 사이의 제2 거리를 검출하고; (2) 이동 단말과 사용자 얼굴 사이의 제2 거리에 기초하여 자세 조정이 발생하는지를 판정하고; (3) 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
S805: 얼굴 인식에 성공하면 이동 단말을 잠금 해제한다.
도 9는 얼굴 인식을 통한 이동 단말 잠금 해제의 개략도이다. 사용자 1은 얼굴 인식을 트리거링하여 이동 전화(200)의 잠금을 해제한다. 이동 전화(200)는 처음에는 위치 A에 위치한다고 가정한다. 이 경우, 이동 전화(200)와 사용자 1의 얼굴 사이의 거리가 제1 거리이다. 예를 들어, 제1 거리가 지나치게 가까우면, 예를 들어, 제1 거리가 10cm이면, 이동 전화(200)는 적절한 얼굴 이미지를 수집하지 못하여 얼굴 인식 잠금 해제가 실패할 수 있다.
얼굴 인식에 실패하면, 이동 전화(200)의 센서는 이동 전화(200)와 사용자의 얼굴 사이의 제1 거리(1)를 검출할 수 있다. 제1 거리에 기초하여 이동 전화(200)는 원인을 판정할 수 있다. 얼굴 인식 실패는 이동 전화(200)가 사용자 1의 얼굴에 너무 가까워서 거리를 연장하기 위한 자세 조정 프롬프트를 제공하는 것이다. 예를 들어, 이동 전화(200)의 디스플레이 화면에 "이동 전화를 더 멀리 이동시키세요"라는 메시지가 표시되거나, "이동 전화를 더 멀리 이동시키세요"라는 메시지를 재생하기 위해 스피커가 사용된다. 선택적으로 자세 조정 프롬프트를 제공하는 단계는 생략될 수 있다.
그런 다음, 이동 전화(200)의 센서는 이동 전화(200)와 사용자 1의 얼굴 사이의 제2 거리를 검출할 수 있다. 선택적으로, 사용자 1은 자세 조정 프롬프트에 기초하여 이동 전화(200)를 더 멀리 이동시킨다. 이때 이동 전화(200)가 B 위치에 있다고 가정하면 이동 전화(200)와 사용자 1의 얼굴 사이의 거리가 제2 거리가 된다. 제2 거리는 20 센티미터라고 가정한다. 제2 거리가 제1 거리보다 크고 거리 연장을 위한 자세 조정 프롬프트를 충족하기 때문에 자세 조정이 발생한 것으로 판정된다. 따라서, 이동 전화(200)는 전면 카메라가 자동으로 얼굴 인식을 트리거링하도록 할 수 있다. 이동 전화(200)가 사용자 1의 얼굴에서 제2 거리에 있을 때 이동 전화(200)가 적절한 얼굴 이미지를 수집할 수 있고, 미리 저장된 얼굴 이미지와 비교하여 얻은 매칭 정도가 설정된 임계 값보다 큰 경우 얼굴 인식에 성공한 것이다. 얼굴 인식에 성공하면 이동 전화(200)의 잠금을 해제할 수 있다.
도 10은 얼굴 인식을 통한 이동 단말 잠금 해제의 예를 보여준다. 사용자가 들고 있는 이동 단말이 지나치게 기울어진 경우 얼굴 인식을 자동으로 트리거링하는 방법은 다음과 같은 단계를 포함한다.
S1001: 얼굴 인식을 트리거링한다. 선택적으로 얼굴 인식에 성공하면 이동 단말이 잠금 해제된다.
S1002: 얼굴 인식에 실패하면, 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제1 틸트 각을 검출한다.
얼굴 인식 실패의 가능한 원인은 틸트 각이 너무 작기 때문이다. 따라서 적절한 얼굴 이미지를 수집할 수 없다.
S1003: 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제1 틸트 각을 검출하여, 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면이 이루는 각도를 조정하기 위한 자세 조정 프롬프트를 제공한다.
제1 틸트 각은 이동 단말의 디스플레이가 수평면에 대해 위치하는 평면이 이루는 각도에 포함되는 90도 이하의 각도로서, 얼굴 인식에 실패할 때 센서에 의해 검출되는 각도일 수 있다.
S1004: 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제2 틸트 각을 검출하여 자세 조정이 발생하는지를 판정하고, 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
이동 단말이 자세 조정 프롬프트를 제공한 후, 센서는 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제2 틸트 각을 검출한다. 제2 틸트 각은 제1 틸트 각과 비교된다. 대응하는 변경이 발생하면 자세 조정이 발생한 것으로 판정한다. 예를 들어, 자세 조정 프롬프트가 이동 전화를 수직으로 들고 있는 경우(틸트 각을 높이는 것과 동일하다), 제2 틸트 각이 제1 틸트 각보다 크면 자세 조정이 발생한 것으로 판정한다.
S303과 유사하게, S1004는 3 단계로 나눌 수 있다: (1) 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제2 틸트 각을 검출하고; (2) 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제2 틸트 각에 기초하여 자세 조정이 발생하는지를 판정하고; (3) 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
S1005: 얼굴 인식에 성공하면 이동 단말을 잠금 해제한다.
도 11은 얼굴 인식을 통한 이동 단말 잠금 해제의 개략도이다. 사용자 1은 얼굴 인식을 트리거링하여 이동 전화(200)의 잠금을 해제한다. 이동 전화(200)는 처음에 위치 A에 위치한다고 가정한다. 이 경우, 이동 전화(200)의 디스플레이가 수평면을 기준으로 위치하는 평면이 이루는 각도가 제1 틸트 각이다. 예를 들어, 이동 전화(200)가 지나치게 기울어진 경우, 즉 제1 틸트 각이 너무 작으면, 예를 들어 제1 틸트 각이 40도이면 이동 전화(200)는 적절한 얼굴 이미지를 수집하지 못할 수 있다. 결과적으로 얼굴 인식 잠금 해제가 실패한다.
얼굴 인식에 실패하면, 이동 전화(200)의 센서는 이동 전화(200)의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제1 틸트 각을 검출할 수 있다. 제1 틸트 각에 기초하여, 이동 전화(200)는 얼굴 인식 실패의 원인은 이동 전화(200)의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제1 틸트 각이 지나치게 작기 때문이라고 판정할 수 있다. 따라서 틸트 각을 높이기 위한 자세 조정 프롬프트를 제공한다. 예를 들어, 이동 전화(200)의 디스플레이 화면에 "이동 전화를 수직으로 잡아주세요"라는 메시지가 표시되거나, 스피커를 사용하여 "이동 전화를 수직으로 잡아주세요"라는 메시지가 재생된다. 선택적으로 자세 조정 프롬프트를 제공하는 단계는 생략될 수 있다.
그런 다음, 이동 전화(200)의 센서는 이동 전화(200)의 디스플레이가 수평면을 기준으로 위치하는 평면이 이루는 제2 틸트 각을 검출할 수 있다. 선택적으로, 사용자 1은 자세 조정 프롬프트에 기초하여 이동 전화(200)의 틸트 각을 조정한다. 이 경우, 이동 전화(200)가 B 위치에 있다고 가정하면, 이동 전화(200)의 디스플레이가 수평면을 기준으로 위치하는 평면이 이루는 각도가 제2 틸트 각이다. 제2 틸트 각은 80도라고 가정한다. 제2 틸트 각이 제1 틸트 각보다 크고 틸트 각을 높이기 위한 자세 조정 프롬프트를 충족하기 때문에 자세 조정이 발생한 것으로 판정된다. 따라서, 이동 전화(200)는 전면 카메라가 자동으로 얼굴 인식을 트리거링하도록 할 수 있다. 이동 전화(200)의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 제2 틸트 각이 형성될 때 적절한 얼굴 이미지를 수집할 수 있고, 이미 저장되어 있는 얼굴 이미지와 비교하여 얻은 매칭 정도는 설정된 임계 값보다 크고, 얼굴 인식에 성공한다. 얼굴 인식에 성공하면 이동 전화(200)의 잠금을 해제할 수 있다.
얼굴 인식에 실패한 경우, 이동 단말과 사용자의 얼굴 사이의 제1 거리 및 이동 단말의 디스플레이가 수평면에 대해 위치하는 평면에 의해 형성되는 제1 틸트 각이 대안으로 검출될 수 있다는 것을 이해될 수 있다. 그런 다음 거리와 틸트 각을 모두 조정하기 위한 자세 조정 프롬프트가 제공된다. 자세 조정이 발생하는지는 검출된 이동 단말과 사용자의 얼굴 사이의 제2 거리 및 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 감지된 제2 틸트 각에 기초하여 결정된다. 자세 조정이 발생하면 얼굴 인식이 자동으로 실행된다. 얼굴 인식에 성공하면 이동 단말이 잠금 해제된다.
전술한 실시예에서, 얼굴 인식은 다른 인증 모드, 예를 들어 비밀번호 확인, 제스처 인식, 지문 인식, 홍채 인식 또는 성문 인식과 조합하여 사용될 수 있음을 이해할 수 있다. 예를 들어, 얼굴 인식을 이용한 이동 단말 잠금 해제 실패 횟수가 특정 임계 값(예를 들어, 3 회)에 도달하면 다른 인증 모드를 사용하여 이동 단말을 잠금 해제할 수 있다.
도 12는 다음 단계를 포함하는 얼굴 인식을 통한 이동 단말 잠금 해제의 개략도이다.
S1201: 얼굴 인식을 트리거링한다.
S1202: 얼굴 인식이 성공인지를 판정한다. 선택적으로 얼굴 인식에 성공하면 이동 단말이 잠금 해제된다. 절차가 종료된다.
S1203: 얼굴 인식에 실패하면 얼굴 인식을 다시 수행하기 위한 조건이 충족되는지를 판정한다. 선택적으로, 얼굴 인식을 다시 수행하기 위한 조건이 충족된다는 것은 얼굴 인식 실패의 횟수가 미리 설정된 임계 값 미만이라는 것이다. 예를 들어, 미리 설정된 임계 값이 3 회이면 얼굴 인식 횟수가 3 회 미만인지를 판정한다. 예이면 S1204가 수행된다. 횟수가 3 회 이상이면 얼굴 인식을 다시 수행하기 위한 조건이 충족되지 않는다. 얼굴 인식을 다시 수행하기 위한 조건이 충족되지 않으면 절차가 종료되거나 다른 잠금 해제 모드가 사용되고, 예를 들어, 비밀번호 검증이 수행된다.
S1204: 얼굴 인식을 다시 수행하기 위한 조건이 충족되면 이동 단말의 제1 상태를 검출한다. 제1 상태는 이동 단말과 사용자의 얼굴 사이의 제1 거리일 수 있거나, 또는 얼굴 인식에 실패하면 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면에 의해 형성되는 제1 틸트 각 등일 수 있다. 이동 단말은 임의의 적절한 센서를 이용하여 이동 단말의 제1 상태를 검출할 수 있다.
S1205: 이동 단말의 제1 상태에 기초하여 자세 조정 프롬프트를 제공한다.
S1206: 이동 단말의 제2 상태를 검출한다.
S1207 : 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정한다. 자세 조정이 발생하지 않으면 절차가 종료된다.
S1208 : 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다.
S1209 : 얼굴 인식에 성공하면 이동 단말을 잠금 해제한다. 절차가 종료된다. 얼굴 인식이 여전히 실패하면 S1203으로 돌아가서 얼굴 인식을 다시 수행하기 위한 조건이 충족되는지를 계속 판정한다.
도 13을 참조하면, 본 출원의 실시예는 카메라(131), 프로세서(132), 메모리(133) 및 센서(134)를 포함하는 장치를 제공한다. 사용자가 얼굴 인식을 트리거링한 후, 프로세서(132)는 카메라(131)에 얼굴 이미지를 수집하도록 지시한다. 프로세서(132)는 수집된 이미지와 미리 저장된 이미지 사이의 매칭 정도를 결정한다. 매칭 정도가 미리 설정된 임계 값보다 크면, 프로세서(132)는 얼굴 인식이 성공한 것으로 판정하고 해당 동작 권한을 사용자에게 부여한다. 매칭 정도가 미리 설정된 임계 값 미만인 경우, 프로세서(132)는 얼굴 인식에 실패한 것으로 판정하고 해당 동작 권한을 사용자에게 부여하지 않는다.
얼굴 인식에 실패하면, 프로세서(132)는 센서(134)에 장치의 제1 상태를 검출하도록 지시한다. 제1 상태는 얼굴 인식에 실패하면 장치의 상태일 수 있다. 구체적으로, 장치의 틸트 각, 장치와 사용자의 얼굴 사이의 거리 등을 검출할 수 있다. 프로세서(132)는 제1 상태에 기초하여 자세 조정 프롬프트를 제공한다. 자세 조정 프롬프트는 디스플레이, 스피커 등의 컴포넌트를 이용하여 사용자에게 출력될 수 있다.
자세 조정 프롬프트를 제공한 후, 프로세서(132)는 자세 조정이 발생하는지를 판정하기 위해 센서(134)에 장치의 제2 상태를 검출하도록 지시한다. 자세 조정이 발생한 것으로 판정되면, 프로세서(132)는 얼굴 인식을 트리거링한다.
특정 구현에 대해서는 전술한 방법 실시예를 참조하고, 자세한 내용은 여기서 설명하지 않는다.
또한, 본 출원의 실시예는 프로세서, 메모리 및 하나 이상의 프로그램을 포함하는 장치를 제공한다. 하나 이상의 프로그램은 메모리에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성된다. 하나 이상의 프로그램은 명령을 포함한다. 이 명령은 얼굴 인식이 실패할 때 장치의 제1 상태를 검출하는 데 사용된다. 제1 상태에 따라 자세 조정 프롬프트를 제공한다. 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다. 구체적인 구현에 대해서는 전술한 방법 실시예를 참조한다.
또한, 본 출원의 실시예는 컴퓨터 소프트웨어 명령어를 저장하도록 구성된 저장 매체 또는 컴퓨터 프로그램 제품을 제공한다. 이 명령은 얼굴 인식이 실패할 때 이동 단말의 제1 상태를 검출하는 데 사용된다. 이동 단말의 제1 상태에 기초하여 자세 조정 프롬프트를 제공하고; 이동 단말의 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링한다. 구체적인 구현에 대해서는 전술한 방법 실시예를 참조한다.
또한, 도 14를 참조하면, 본 출원의 실시예는 얼굴 인식 유닛(141), 프로세싱 유닛(142), 프롬프팅 유닛(143) 및 상태 검출 유닛(144)을 포함하는 장치를 제공한다.
사용자가 얼굴 인식을 트리거링한 후, 얼굴 인식 유닛(141)은 사용자의 얼굴 이미지를 수집하여 미리 저장된 얼굴 이미지와 비교할 수 있다. 프로세싱 유닛(142)은 수집된 영상과 이미 저장되어 있는 영상의 매칭 정도를 판정한다. 매칭 정도가 미리 설정된 임계 값보다 크면 프로세싱 유닛(142)은 얼굴 인식에 성공한 것으로 판정하고 해당 동작 허가를 사용자에게 부여한다. 매칭 정도가 미리 설정된 임계 값 미만인 경우, 프로세싱 유닛(142)은 얼굴 인식에 실패한 것으로 판정하고 사용자에게 해당 동작 허가를 부여하지 않는다.
얼굴 인식에 실패하면 상태 검출 유닛(144)은 장치의 제1 상태를 검출한다. 제1 상태는 얼굴 인식에 실패하면 장치의 상태일 수 있다. 구체적으로, 장치의 틸트 각, 장치와 사용자의 얼굴 사이의 거리 등을 검출할 수 있다. 프롬프트 유닛(143)은 제1 상태에 기초하여 자세 조정 프롬프트를 제공한다. 자세 조정 프롬프트는 디스플레이, 스피커 등의 컴포넌트를 이용하여 사용자에게 출력될 수 있다.
자세 조정 프롬프트가 제공된 후, 상태 검출 유닛(144)은 자세 조정이 발생하는지를 판정하기 위해 장치의 제2 상태를 검출한다. 자세 조정이 발생한 것으로 판정되면 얼굴 인식 유닛(141)은 자동으로 얼굴 인식을 트리거링한다.
구체적인 구현에 대해서는 전술한 방법 실시예를 참조한다.
구현에 관한 전술한 설명은 편리하고 간단한 설명을 위해 전술한 기능 모듈의 분할이 예시를 위한 예로서 취해진 것을 당업자가 이해할 수 있게 한다. 실제 적용에 있어서, 전술한 기능은 서로 다른 모듈에 할당되어 필요에 따라 구현될 수 있고, 즉, 장치의 내부 구조가 서로 다른 기능 모듈로 분할되어 전술한 기능의 전부 또는 일부를 구현할 수 있다.
본 출원에서 제공되는 여러 실시예에서, 개시된 장치 및 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 예를 들어, 설명된 장치 실시예는 단지 예일 뿐이다. 예를 들어, 모듈 또는 단위 분할은 단순히 논리적 기능 분할이며 실제 구현에서는 다른 분할일 수 있다. 예를 들어, 복수의 유닛 또는 구성 요소가 다른 장치에 결합되거나 통합될 수 있거나, 일부 기능이 무시되거나 수행되지 않을 수 있다. 또한, 표시되거나 논의된 상호 결합 또는 직접 결합 또는 통신 연결은 일부 인터페이스를 통해 구현될 수 있다. 장치 또는 유닛 간의 간접 결합 또는 통신 연결은 전자적, 기계적 또는 다른 형태로 구현될 수 있다.
별도의 부분으로 설명된 단위는 물리적으로 분리될 수도 있고 그렇지 않을 수도 있으며, 유닛으로 표시된 부분은 하나 이상의 물리적 유닛일 수도 있고, 한 위치에 있을 수도 있고, 다른 위치에 분산될 수도 있다. 일부 또는 모든 유닛은 실시예의 솔루션의 목적을 달성하기 위해 실제 요건에 기초하여 선택될 수 있다.
또한, 본 출원의 실시예에서의 기능 유닛은 하나의 프로세싱 유닛에 통합될 수 있거나, 각각의 유닛이 물리적으로 단독으로 존재할 수 있거나, 둘 이상의 유닛이 하나의 유닛에 통합될 수 있다. 통합 유닛은 하드웨어의 형태로 구현될 수 있거나 소프트웨어 기능 유닛의 형태로 구현될 수 있다.
통합 유닛이 소프트웨어 기능 유닛의 형태로 구현되어 독립적인 제품으로 판매 또는 사용되는 경우, 통합 유닛은 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해를 바탕으로 본 출원의 본질적인 기술적 솔루션, 또는 종래 기술에 기여하는 부분, 또는 기술적 솔루션의 전부 또는 일부는 소프트웨어 제품의 형태로 구현될 수 있다. 소프트웨어 제품은 저장 매체에 저장되며 장치(단일 칩 마이크로 컴퓨터, 칩 등일 수 있음) 또는 프로세서(processor)가 방법의 모든 단계 또는 일부 단계를 수행하도록 지시하는 여러 명령을 포함한다. 본 출원의 실시예에서 설명된다. 전술한 저장 매체에는 USB 플래시 드라이브, 이동식 하드 디스크, 읽기 전용 메모리(read-only memory, ROM), 랜덤 액세스 메모리(random access memory, RAM)자기 디스크 또는 광디스크와 같은 프로그램 코드를 저장할 수 있는 모든 매체가 포함된다.
전술한 설명은 본 출원의 특정 구현일 뿐이며 본 출원의 보호 범위를 제한하려는 것은 아니다. 본 출원에 개시된 기술 범위 내에서 당업자에 의해 용이하게 파악된 모든 변형 또는 대체는 본 출원의 보호 범위 내에 속한다. 따라서 본 출원의 보호 범위는 청구 범위의 보호 범위에 따른다.

Claims (40)

  1. 얼굴 인식 방법으로서,
    얼굴 인식을 트리거링하는 단계;
    상기 얼굴 인식에 실패하면 이동 단말의 제1 상태를 검출하는 단계;
    상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 단계;
    상기 이동 단말의 제2 상태를 검출하는 단계; 및
    상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 상기 자세 조정이 발생하면 상기 얼굴 인식을 자동으로 트리거링하는 단계
    를 포함하는 얼굴 인식 방법.
  2. 제1항에 있어서,
    상기 얼굴 인식을 트리거링하는 단계는:
    사용자의 얼굴 이미지를 수집하는 단계, 및 상기 얼굴 이미지를 미리 저장된 얼굴 이미지와 비교하는 단계
    를 포함하는, 얼굴 인식 방법.
  3. 제2항에 있어서,
    상기 얼굴 이미지는 얼굴 픽처 또는 비디오를 포함하는, 얼굴 인식 방법.
  4. 제2항에 있어서,
    상기 미리 저장된 얼굴 이미지는 상기 이동 단말의 메모리에 저장되거나 상기 이동 단말과 통신할 수 있는 서버에 저장되는, 얼굴 인식 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 얼굴 인식 방법은:
    상기 얼굴 인식에 성공하면, 상기 이동 단말의 작동 허가를 획득하는 단계
    를 더 포함하는 얼굴 인식 방법.
  6. 제5항에 있어서,
    상기 이동 단말의 작동 허가를 획득하는 단계는:
    상기 이동 단말을 잠금 해제하는 단계, 상기 이동 단말에 설치된 애플리케이션에 대한 접근 허가를 획득하는 단계, 또는 상기 이동 단말에 저장된 데이터에 대한 접근 허가를 획득하는 단계
    중 어느 하나를 포함하는, 얼굴 인식 방법.
  7. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 얼굴 인식 방법은:
    상기 얼굴 인식에 실패하면, 다음의 인증 모드: 비밀번호 확인, 제스처 인식, 지문 인식, 홍채 인식, 및 성문 인식 중 어느 하나에서 검증을 수행하는 단계
    를 더 포함하는 얼굴 인식 방법.
  8. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 얼굴 인식 방법은:
    상기 얼굴 인식에 실패하면, 얼굴 인식을 다시 수행하기 위한 조건이 충족되는지를 판정하는 단계; 및
    상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되면 자동으로 얼굴 인식을 다시 트리거링하거나, 또는 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되지 않으면 다음의 인증 모드: 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식, 및 성문 인식 중 어느 하나에서 검증을 수행하는 단계
    를 더 포함하는 얼굴 인식 방법.
  9. 제8항에 있어서,
    상기 얼굴 인식을 다시 수행하기 위한 조건은: 얼굴 인식 실패의 횟수가 미리 설정된 임계 값보다 적음을 포함하는, 얼굴 인식 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 단계는:
    상기 이동 단말이 상기 제1 상태에 기초하여 상기 얼굴 인식 실패의 원인을 분석하고, 미리 설정된 데이터베이스에서 상기 원인에 대응하는 솔루션을 찾아내고, 상기 솔루션에 기초하여 상기 자세 조정 프롬프트를 제공하는 단계
    를 포함하는, 얼굴 인식 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하는 단계는:
    상기 제1 상태에 대한 상기 제2 상태의 변화가 상기 자세 조정 프롬프트의 내용과 동일한지를 판정하는 단계
    를 포함하는, 얼굴 인식 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 자세 조정 프롬프트는 다음 프롬프트 모드:
    텍스트, 픽처, 음성, 비디오, 조명 또는 진동
    중 임의의 조합을 포함하는, 얼굴 인식 방법.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 제1 상태는 상기 얼굴 인식이 실패할 때 상기 이동 단말과 상기 사용자의 얼굴 사이의 제1 거리이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 이동 단말과 상기 사용자의 얼굴 사이의 제2 거리인, 얼굴 인식 방법.
  14. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 제1 상태는 상기 얼굴 인식에 실패하면 상기 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면의 제1 틸트 각이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면의 제2 틸트 각인, 얼굴 인식 방법.
  15. 카메라, 프로세서, 메모리 및 센서를 포함하는 장치로서,
    상기 프로세서는:
    얼굴 인식을 트리거링하고, 상기 카메라에 사용자의 얼굴 이미지를 수집하도록 지시하고, 상기 얼굴 이미지를 상기 메모리에 미리 저장된 얼굴 이미지와 비교하고;
    상기 얼굴 인식에 실패하면, 상기 센서에 상기 장치의 제1 상태를 검출하도록 지시하고;
    상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하고;
    상기 센서에 상기 장치의 제2 상태를 검출하도록 지시하며; 그리고
    상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 상기 자세 조정이 발생하면 자동으로 얼굴 인식을 트리거링하도록 구성되어 있는, 장치.
  16. 제15항에 있어서,
    상기 얼굴 이미지는 얼굴 픽처 또는 비디오를 포함하는, 장치.
  17. 제15항 또는 제16항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세서는 상기 얼굴 인식에 성공하면 상기 장치의 작동 허가를 획득하도록 추가로 구성되어 있는, 장치.
  18. 제17항에 있어서,
    상기 장치의 작동 허가를 획득하는 것은 다음:
    상기 장치를 잠금 해제하는 것, 상기 장치에 설치된 애플리케이션에 대한 접근 허가를 획득하는 것, 또는 상기 장치에 저장된 데이터에 대한 접근 허가를 획득하는 것
    중 어느 하나를 포함하는, 장치.
  19. 제15항 또는 제16항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세서는:
    상기 얼굴 인식에 실패하면 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식, 성문 인식 인증 모드
    중 어느 하나에서 검증을 수행하도록 추가로 구성되어 있는, 장치.
  20. 제15항 또는 제16항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세서는:
    상기 얼굴 인식에 실패하면, 얼굴 인식을 다시 수행하기 위한 조건이 충족되는지를 판정하며; 그리고
    상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되면 자동으로 얼굴 인식을 다시 트리거링하거나, 또는 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되지 않으면 다음의 인증 모드: 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식, 및 성문 인식 중 어느 하나에서 검증을 수행하도록 추가로 구성되어 있는, 장치.
  21. 제20항에 있어서,
    상기 얼굴 인식을 다시 수행하기 위한 조건은: 얼굴 인식 실패의 횟수가 미리 설정된 임계 값보다 적음을 포함하는, 장치.
  22. 제15항 내지 제21항 중 어느 한 항에 있어서,
    상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 것은:
    상기 제1 상태에 기초하여 상기 얼굴 인식 실패의 원인을 분석하고, 미리 설정된 데이터베이스에서 상기 원인에 대응하는 솔루션을 찾아내고, 상기 솔루션에 기초하여 상기 자세 조정 프롬프트를 제공하는 것
    을 포함하는, 장치.
  23. 제15항 내지 제22항 중 어느 한 항에 있어서,
    상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하는 것은:
    상기 제1 상태에 대한 상기 제2 상태의 변화가 상기 자세 조정 프롬프트의 내용과 동일한지를 판정하는 것
    을 포함하는, 장치.
  24. 제15항 내지 제23항 중 어느 한 항에 있어서,
    상기 자세 조정 프롬프트는 다음 프롬프트 모드:
    텍스트, 픽처, 음성, 비디오, 조명 또는 진동
    중 임의의 조합을 포함하는, 장치.
  25. 제15항 내지 제24항 중 어느 한 항에 있어서,
    상기 제1 상태는 상기 얼굴 인식이 실패할 때 상기 장치와 상기 사용자의 얼굴 사이의 제1 거리이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 장치와 상기 사용자의 얼굴 사이의 제2 거리인, 장치.
  26. 제15항 내지 제24항 중 어느 한 항에 있어서,
    상기 장치는 디스플레이를 더 포함하고, 상기 제1 상태는 상기 얼굴 인식에 실패하면 상기 디스플레이가 수평면을 기준으로 위치하는 평면의 제1 틸트 각이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 디스플레이가 수평면을 기준으로 위치하는 평면의 제2 틸트 각인, 장치.
  27. 얼굴 인식 유닛, 프로세싱 유닛, 프롬프팅 유닛 및 상태 검출 유닛을 포함하는 장치로서,
    상기 프로세싱 유닛은 얼굴 인식을 트리거링하도록 구성되고;
    상기 얼굴 인식 유닛은: 사용자의 얼굴 이미지를 수집하고, 상기 얼굴 이미지를 미리 저장된 얼굴 이미지와 비교하도록 구성되고;
    상기 상태 검출 유닛은 상기 얼굴 인식에 실패하면, 상기 장치의 제1 상태를 검출하도록 구성되고;
    상기 프롬프팅 유닛은 상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하도록 구성되고;
    상기 상태 검출 유닛은 상기 장치의 제2 상태를 검출하도록 추가로 구성되며; 그리고
    상기 프로세싱 유닛은: 상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하고, 상기 자세 조정이 발생하면 상기 얼굴 인식을 자동으로 트리거링하도록 구성되어 있는, 장치.
  28. 제27항에 있어서,
    상기 얼굴 이미지는 얼굴 픽처 또는 비디오를 포함하는, 장치.
  29. 제27항 또는 제28항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세싱 유닛은: 상기 얼굴 인식에 성공하면 상기 장치의 작동 허가를 획득하도록 추가로 구성되어 있는, 장치.
  30. 제29항에 있어서,
    상기 장치의 작동 허가를 획득하는 것은 다음:
    상기 장치를 잠금 해제하는 것, 상기 장치에 설치된 애플리케이션에 대한 접근 허가를 획득하는 것, 또는 상기 장치에 저장된 데이터에 대한 접근 허가를 획득하는 것
    중 어느 하나를 포함하는, 장치.
  31. 제27항 또는 제28항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세싱 유닛은:
    상기 얼굴 인식에 실패하면 다음의 인증 모드: 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식, 및 성문 인식 중 어느 하나에서 검증을 수행하도록 추가로 구성되어 있는, 장치.
  32. 제27항 또는 제28항에 있어서,
    상기 얼굴 인식을 자동으로 트리거링한 후, 상기 프로세싱 유닛은: 상기 얼굴 인식에 실패하면 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되는지를 판정하고; 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되지 않으면 비밀번호 인증, 제스처 인식, 지문 인식, 홍채 인식 및 성문 인식 중 어느 하나에서 검증을 수행하도록 추가로 구성되어 있거나; 또는
    상기 얼굴 인식 유닛은: 상기 얼굴 인식을 다시 수행하기 위한 조건이 충족되면 자동으로 얼굴 인식을 다시 트리거링하도록 구성되어 있는, 장치.
  33. 제32항에 있어서,
    상기 얼굴 인식을 다시 수행하기 위한 조건은 얼굴 인식 실패의 횟수가 미리 설정된 임계 값보다 적음을 포함하는, 장치.
  34. 제27항 내지 제33항 중 어느 한 항에 있어서,
    상기 제1 상태에 기초하여 자세 조정 프롬프트를 제공하는 것은:
    상기 제1 상태에 기초하여 상기 얼굴 인식 실패의 원인을 분석하고, 미리 설정된 데이터베이스에서 상기 원인에 대응하는 솔루션을 찾아내고, 상기 솔루션에 기초하여 상기 자세 조정 프롬프트를 제공하는 것
    을 포함하는, 장치.
  35. 제27항 내지 제34항 중 어느 한 항에 있어서,
    상기 제2 상태에 기초하여 자세 조정이 발생하는지를 판정하는 것은:
    상기 제1 상태에 대한 상기 제2 상태의 변화가 상기 자세 조정 프롬프트의 내용과 동일한지를 판정하는
    것을 포함하는, 장치.
  36. 제27항 내지 제35항 중 어느 한 항에 있어서,
    상기 자세 조정 프롬프트는 다음 프롬프트 모드:
    텍스트, 픽처, 음성, 비디오, 조명 또는 진동
    중 임의의 조합을 포함하는, 장치.
  37. 제27항 내지 제36항 중 어느 한 항에 있어서,
    상기 제1 상태는 상기 얼굴 인식이 실패할 때 상기 이동 단말과 상기 사용자의 얼굴 사이의 제1 거리이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 이동 단말과 상기 사용자의 얼굴 사이의 제2 거리인, 장치.
  38. 제27항 내지 제36항 중 어느 한 항에 있어서,
    상기 제1 상태는 상기 얼굴 인식에 실패하면 상기 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면의 제1 틸트 각이고, 상기 제2 상태는 상기 자세 조정 프롬프트가 제공된 후 상기 이동 단말의 디스플레이가 수평면을 기준으로 위치하는 평면의 제2 틸트 각인, 장치.
  39. 컴퓨터 저장 매체로서,
    상기 컴퓨터 저장 매체는 명령을 저장하고, 상기 명령이 이동 단말에서 실행될 때, 상기 이동 단말은 제1항 내지 제14항 중 어느 한 항에 따른 방법을 수행할 수 있는, 컴퓨터 저장 매체.
  40. 명령을 포함하는 컴퓨터 프로그램 제품으로서,
    상기 컴퓨터 프로그램 제품이 이동 단말에서 실행될 때, 상기 이동 단말은 제1항 내지 제14항 중 어느 한 항에 따른 방법을 수행할 수 있는, 컴퓨터 프로그램 제품.
KR1020217005781A 2018-08-28 2018-08-28 얼굴 인식 방법 및 장치 KR20210035277A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/102680 WO2020041971A1 (zh) 2018-08-28 2018-08-28 一种人脸识别的方法及装置

Publications (1)

Publication Number Publication Date
KR20210035277A true KR20210035277A (ko) 2021-03-31

Family

ID=69644752

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217005781A KR20210035277A (ko) 2018-08-28 2018-08-28 얼굴 인식 방법 및 장치

Country Status (6)

Country Link
US (1) US20210201001A1 (ko)
EP (1) EP3819810A4 (ko)
JP (1) JP7203955B2 (ko)
KR (1) KR20210035277A (ko)
CN (1) CN112639801A (ko)
WO (1) WO2020041971A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11941629B2 (en) * 2019-09-27 2024-03-26 Amazon Technologies, Inc. Electronic device for automated user identification
EP4124027A1 (en) * 2020-03-18 2023-01-25 NEC Corporation Program, mobile terminal, authentication processing device, image transmission method, and authentication processing method
KR102589834B1 (ko) * 2021-12-28 2023-10-16 동의과학대학교 산학협력단 치매 스크리닝 디퓨저 장치
WO2023149708A1 (en) * 2022-02-01 2023-08-10 Samsung Electronics Co., Ltd. Method and system for a face detection management
CN114694282A (zh) * 2022-03-11 2022-07-01 深圳市凯迪仕智能科技有限公司 一种基于智能锁的语音互动的方法及相关装置
CN114863510B (zh) * 2022-03-25 2023-08-01 荣耀终端有限公司 一种人脸识别方法和装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100467152B1 (ko) * 2003-11-25 2005-01-24 (주)버뮤다정보기술 얼굴인식시스템에서 개인 인증 방법
CN101771539B (zh) * 2008-12-30 2012-07-04 北京大学 一种基于人脸识别的身份认证方法
US20140133713A1 (en) * 2011-12-29 2014-05-15 Intel Corporation Method, Apparatus, and Computer-Readable Recording Medium for Authenticating a User
CN102760042A (zh) * 2012-06-18 2012-10-31 惠州Tcl移动通信有限公司 一种基于图片脸部识别进行解锁的方法、系统及电子设备
US20170013464A1 (en) * 2014-07-10 2017-01-12 Gila FISH Method and a device to detect and manage non legitimate use or theft of a mobile computerized device
JP2016081071A (ja) 2014-10-09 2016-05-16 富士通株式会社 生体認証装置、生体認証方法及びプログラム
JP6418033B2 (ja) 2015-03-30 2018-11-07 オムロン株式会社 個人識別装置、識別閾値設定方法、およびプログラム
CN104898832B (zh) * 2015-05-13 2020-06-09 深圳彼爱其视觉科技有限公司 一种基于智能终端的3d实时眼镜试戴方法
JP6324939B2 (ja) 2015-11-05 2018-05-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびログイン制御方法
US10210318B2 (en) * 2015-12-09 2019-02-19 Daon Holdings Limited Methods and systems for capturing biometric data
CN106886697A (zh) * 2015-12-15 2017-06-23 中国移动通信集团公司 认证方法、认证平台、用户终端及认证系统
CN105389575A (zh) * 2015-12-24 2016-03-09 北京旷视科技有限公司 生物数据的处理方法和装置
WO2017208519A1 (ja) 2016-05-31 2017-12-07 シャープ株式会社 生体認証装置、携帯端末装置、制御プログラム
CN107016348B (zh) * 2017-03-09 2022-11-22 Oppo广东移动通信有限公司 结合深度信息的人脸检测方法、检测装置和电子装置
CN107463883A (zh) 2017-07-18 2017-12-12 广东欧珀移动通信有限公司 生物识别方法及相关产品
CN107818251B (zh) 2017-09-27 2021-03-23 维沃移动通信有限公司 一种人脸识别方法及移动终端
CN107679514A (zh) * 2017-10-20 2018-02-09 维沃移动通信有限公司 一种人脸识别方法及电子设备
CN108090340B (zh) * 2018-02-09 2020-01-10 Oppo广东移动通信有限公司 人脸识别处理方法、人脸识别处理装置及智能终端
CN108319837A (zh) * 2018-02-13 2018-07-24 广东欧珀移动通信有限公司 电子设备、人脸模板录入方法及相关产品

Also Published As

Publication number Publication date
EP3819810A4 (en) 2021-08-11
JP2021535503A (ja) 2021-12-16
EP3819810A1 (en) 2021-05-12
JP7203955B2 (ja) 2023-01-13
US20210201001A1 (en) 2021-07-01
CN112639801A (zh) 2021-04-09
WO2020041971A1 (zh) 2020-03-05

Similar Documents

Publication Publication Date Title
JP7203955B2 (ja) 顔認識方法および装置
CN108960209B (zh) 身份识别方法、装置及计算机可读存储介质
US10068130B2 (en) Methods and devices for querying and obtaining user identification
US9049983B1 (en) Ear recognition as device input
WO2017181769A1 (zh) 一种人脸识别方法、装置和系统、设备、存储介质
CN105281906B (zh) 安全验证方法及装置
KR102488563B1 (ko) 차등적 뷰티효과 처리 장치 및 방법
MX2013000363A (es) Acceso de camara de cierre superior.
CN110059686B (zh) 字符识别方法、装置、设备及可读存储介质
US10038834B2 (en) Video call method and device
CA2861851C (en) Methods and devices to determine a preferred electronic device
CN110096865B (zh) 下发验证方式的方法、装置、设备及存储介质
CN111510482B (zh) 失败网络请求的确定方法、装置及计算机存储介质
EP4113452A1 (en) Data sharing method and device
US20220012317A1 (en) Systems and methods for providing a continuous biometric authentication of an electronic device
CN111241499B (zh) 应用程序登录的方法、装置、终端及存储介质
US11617055B2 (en) Delivering information to users in proximity to a communication device
CN110909264A (zh) 信息处理方法、装置、设备及存储介质
KR20190135794A (ko) 이동 단말기
CN116418771A (zh) 消息显示方法、消息处理方法、装置及电子设备
CN114143280B (zh) 会话显示方法、装置、电子设备及存储介质
CN114356182B (zh) 物品定位方法、装置、设备及存储介质
CN111131619B (zh) 账号切换处理的方法、装置及系统
CN112765571A (zh) 权限管理方法、系统、装置、服务器及存储介质
CN112116682B (zh) 信息展示页面的封面图片生成方法、装置、设备及系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application