KR102387492B1 - Method for facial authentication of a wearer of a watch - Google Patents

Method for facial authentication of a wearer of a watch Download PDF

Info

Publication number
KR102387492B1
KR102387492B1 KR1020190141761A KR20190141761A KR102387492B1 KR 102387492 B1 KR102387492 B1 KR 102387492B1 KR 1020190141761 A KR1020190141761 A KR 1020190141761A KR 20190141761 A KR20190141761 A KR 20190141761A KR 102387492 B1 KR102387492 B1 KR 102387492B1
Authority
KR
South Korea
Prior art keywords
wearer
face
watch
optical sensor
images
Prior art date
Application number
KR1020190141761A
Other languages
Korean (ko)
Other versions
KR20200054883A (en
Inventor
에도아르도 프란치
알랭-세르쥬 포레
Original Assignee
띠쏘 에스.에이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 띠쏘 에스.에이 filed Critical 띠쏘 에스.에이
Publication of KR20200054883A publication Critical patent/KR20200054883A/en
Priority to KR1020210107309A priority Critical patent/KR20210103998A/en
Application granted granted Critical
Publication of KR102387492B1 publication Critical patent/KR102387492B1/en

Links

Images

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04BMECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
    • G04B47/00Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece
    • G04B47/06Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece with attached measuring instruments, e.g. pedometer, barometer, thermometer or compass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • G04G21/025Detectors of external physical values, e.g. temperature for measuring physiological data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Social Psychology (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 시계 (1) 의 착용자의 안면 인식을 위한 방법에 관한 것으로서, 하기 단계들:
- 착용자에 의해 수행된 적어도 하나의 트리거링 움직임/제스처의 검출 (11) 의 서브단계를 포함하는 인증 프로세스의 개시 (10);
- 광학 센서 (3) 의 정면에서 한 방향으로부터 다른 방향으로 피봇하는 착용자의 안면에 대한 이미지들의 적어도 하나의 시퀀스의 캡처 (13);
- 상기 이미지들의 적어도 하나의 시퀀스의 각각의 이미지와 연관된 안면의 표면 기하학적 데이터의 획득 (17);
- 이미지들의 상기 캡처된 적어도 하나의 시퀀스로부터 및 상기 획득된 표면 기하학적 데이터로부터 착용자의 안면의 3 차원 모델의 생성 (18);
- 3 차원 모델에 기초하여 검출된 시계 (1) 의 착용자의 안면의 특징인 복수의 피처들에 대한, 식별 데이터에 기초하여 생성된 식별 인덱스의 결정 (19); 및
- 식별 인덱스가 참조 식별 인덱스보다 더 크면, 착용자의 식별 (21) 을 포함한다.
The present invention relates to a method for face recognition of a wearer of a watch (1), comprising the steps of:
- initiation (10) of an authentication process comprising the substep of detection (11) of at least one triggering movement/gesture performed by the wearer;
- capture ( 13 ) of at least one sequence of images of the wearer's face pivoting from one direction to another in front of the optical sensor ( 3 );
- obtaining (17) surface geometric data of the face associated with each image of said at least one sequence of images;
- generating ( 18 ) a three-dimensional model of the wearer's face from said captured at least one sequence of images and from said obtained surface geometric data;
- determination ( 19 ) of an identification index generated on the basis of the identification data for a plurality of features characteristic of the face of the wearer of the watch ( 1 ) detected on the basis of a three-dimensional model; and
- if the identification index is greater than the reference identification index, include the identification 21 of the wearer.

Description

시계의 착용자의 안면 인식을 위한 방법{METHOD FOR FACIAL AUTHENTICATION OF A WEARER OF A WATCH}METHOD FOR FACIAL AUTHENTICATION OF A WEARER OF A WATCH

본 발명은 시계의 착용자의 안면 인식을 위한 방법에 관한 것이다.The present invention relates to a method for facial recognition of a wearer of a watch.

본 발명은 또한 이 방법을 구현하는 시계 뿐만 아니라 컴퓨터 프로그램에 관한 것이다.The invention also relates to a computer program as well as a watch implementing this method.

시계는 착용자가 사용할 수 있는 일련의 기능들을 포함한다. 이러한 기능들은 시간 또는 날짜 조정 뿐만 아니라 착용자에게 고유하고 개인화된 서비스들에 액세스하는데 유용한 기밀 또는 프라이빗 데이터의 사용에 관련될 수 있다. 이 데이터는 예를 들어, 키들, 인증서들, 인증 코드들, 회사의 사설 네트워크에 시계의 안전한 접속을 수행할 수 있는 패스워드들 및 개인 코드들, 뱅크 서버와 같은 보안 서버들에 의한 인증 또는 암호화된 이메일들 및/또는 서명된 이메일들의 전송 및 수신을 위한 보안 메시징 서비스이다. 그 결과, 이러한 시계의 기능들의 사용에 액세스를 보장할 수 있는 것이 중요함을 이해해야 한다.A watch includes a set of functions that can be used by the wearer. These functions may relate to time or date adjustments as well as the use of confidential or private data useful for accessing services that are unique and personalized to the wearer. This data may be encrypted or authenticated by secure servers such as, for example, keys, certificates, authentication codes, passwords and personal codes capable of performing the watch's secure connection to the company's private network, and secure servers such as bank servers. A secure messaging service for sending and receiving emails and/or signed emails. As a result, it should be understood that it is important to be able to ensure access to the use of these watch functions.

이를 위해, 인증 방법은 종래 기술에 공지되어 있으며, PIN 유형의 비밀 코드를 입력하는 것에 의해 시계의 이들 기능의 사용에 대한 액세스를 보장하도록 설계되었다.To this end, authentication methods are known from the prior art and are designed to ensure access to the use of these functions of the watch by entering a secret code of the PIN type.

그러나, 이러한 인증 방법들은 시계 착용자가 비밀 코드를 입력하는 것이 제 3 자에 의해 비교적 쉽게 관찰될 수 있기 때문에 완전히 만족스럽지는 않다. 이 메커니즘은 또한 비밀 코드를 착용한 사람이 암기해야 하기 때문에, 이는 당황스러운 상황이 될 수도 있다.However, these authentication methods are not entirely satisfactory as the watch wearer entering the secret code can be observed relatively easily by a third party. This can be an embarrassing situation, as the mechanism also has to be memorized by the person wearing the secret code.

따라서, 특히 종래 기술의 단점들을 갖지 않는 대안의 솔루션에 대한 필요가 있음이 이해된다.Accordingly, it is understood that there is a need for an alternative solution that does not particularly have the drawbacks of the prior art.

본 발명의 목적은 또한 구현하기에 용이한, 착용자의 강건하고 견고한 인증을 제안하는, 시계의 착용자의 안면 인식을 위한 방법을 제안하는 것이다.It is also an object of the present invention to propose a method for face recognition of a wearer of a watch, which is easy to implement, which offers robust and robust authentication of the wearer.

이 목적을 위하여, 본 발명은 시계의 착용자의 안면 인식에 대한 방법에 관한 것으로, 하기의 단계들:For this purpose, the present invention relates to a method for facial recognition of a wearer of a watch, comprising the steps of:

- 착용자에 의해 수행된 적어도 하나의 트리거링 움직임/제스처의 검출의 서브단계를 포함하는 인증 프로세스의 개시;- initiation of an authentication process comprising a substep of detection of at least one triggering movement/gesture performed by the wearer;

- 광학 센서의 정면에서 한 방향으로부터 다른 방향으로 피봇하는 착용자의 안면에 대한 이미지들의 적어도 하나의 시퀀스의 캡처;- capture of at least one sequence of images of the wearer's face pivoting from one direction to another in front of the optical sensor;

- 상기 이미지들의 적어도 하나의 시퀀스의 각각의 이미지와 연관된 안면의 표면 기하학적 데이터의 획득;- acquisition of surface geometric data of the face associated with each image of said at least one sequence of images;

- 상기 이미지들의 캡처된 적어도 하나의 시퀀스로부터 및 상기 획득된 기하학적 데이터로부터 착용자의 안면의 3 차원 모델의 생성;- generation of a three-dimensional model of the wearer's face from the captured at least one sequence of images and from the obtained geometric data;

-3 차원 모델에 기초하여 검출된 시계의 착용자의 안면의 특징인 복수의 피처들에 대한, 식별 데이터에 기초하여 생성된 식별 인덱스의 결정; 및- determination of an identification index generated on the basis of the identification data for a plurality of features characteristic of the wearer's face of the watch detected on the basis of the three-dimensional model; and

- 식별 인덱스가 참조 식별 인덱스보다 더 크면, 착용자의 식별을 포함한다.- if the identification index is greater than the reference identification index, include the identification of the wearer;

다른 실시형태들에 있어서:In other embodiments:

- 개시의 단계는 광학 센서의 반대편에 위치된 착용자의 안면이 생체에 속한다고 결정하는 서브단계를 포함하고;- the step of initiating comprises a substep of determining that the wearer's face located opposite the optical sensor belongs to the living body;

- 이 안면이 광학 센서의 정면에서 한 방향으로부터 다른 방향으로 피봇할 때, 착용자의 안면을 형성하는 모든 부분들의 복수의 이미지들의 획득의 서브단계를 포함하고;- the substep of acquiring a plurality of images of all parts forming the wearer's face when the face pivots from one direction to another in front of the optical sensor;

- 획득의 서브단계는 2 개의 상이한 광 노출들을 갖는 안면의 각각 동일한 부분에 대해 적어도 2 개의 이미지들을 캡처하는 캡처 단계를 포함하며, 하나의 노출은 가시광에 대한 것이고 하나의 노출은 적외선 광에 대한 것이며; - the sub-step of acquiring comprises a capturing step of capturing at least two images for each same part of the face having two different light exposures, one exposure for visible light and one exposure for infrared light ;

- 획득하는 서브단계는:- The sub-steps to be obtained are:

■ 안정적인 또는 실질적으로 안정적인 위치에 있는 시계;■ A watch in a stable or substantially stable position;

■ 이미지들의 적어도 하나의 시퀀스의 각각의 이미지에 포함되도록 하기 위하여 광학 센서에 대해 최적의 위치에 있는 착용자의 안면■ the wearer's face optimally positioned with respect to the optical sensor for inclusion in each image of at least one sequence of images;

을 유지하는 것을 목표로 하기 위하여 시계의 착용자에게 시각적 및/또는 사운드 가이딩하는 단계를 포함한다,visual and/or sound guiding to the wearer of the watch with the goal of maintaining

- 획득 단계는 캡처 단계와 동시에 또는 실질적으로 동시에 수행되며;- the acquiring step is performed simultaneously or substantially simultaneously with the capturing step;

- 결정 단계는 이 식별 데이터 간의 대응을 결정하기 위해 3 차원 모델로부터 유래하는 식별 데이터가 참조 3 차원 모델에 대해 사전-기록된 식별 데이터와 비교되는 프로세싱의 서브단계를 포함하고;- the determining step comprises a sub-step of processing wherein identification data originating from the three-dimensional model is compared with identification data pre-recorded against a reference three-dimensional model to determine correspondence between the identification data;

- 상기 적어도 하나의 트리거링 움직임/제스처는 이 시계의 광학 센서의 반대편에 있는 착용자의 안면의 위치결정 동안 시계를 포함하는 착용자의 신체의 부분에 의해 수행된다.- said at least one triggering movement/gesture is performed by the part of the wearer's body comprising the watch during positioning of the wearer's face opposite the optical sensor of the watch.

본 발명은 또한 이 방법을 구현하는 특히 스마트한 시계에 관한 것이고, 이 시계는 프로세싱 유닛, 광학 센서, 적어도 하나의 광원 및 행동적 및/또는 생리적 센서들을 포함하고, 상기 프로세싱 유닛은 광학 센서에, 상기 적어도 하나의 광원에, 그리고 행동적 및/또는 생리적 센서들에 접속된다.The invention also relates to a particularly smart watch embodying this method, said watch comprising a processing unit, an optical sensor, at least one light source and behavioral and/or physiological sensors, said processing unit to the optical sensor; connected to said at least one light source and to behavioral and/or physiological sensors.

본 발명은 또한 컴퓨터 프로그램이 시계의 프로세싱 유닛에 의해 실행될 때 이 방법의 단계들의 실행에 대한 프로그램 코드 명령들을 포함하는 상기 컴퓨터 프로그램에 관한 것이다.The invention also relates to a computer program comprising program code instructions for the execution of the steps of the method when the computer program is executed by a processing unit of a clock.

다른 특징들 및 이점들은, 첨부 도면들을 참조하여, 어떠한 방식으로든 제한하지 않고 정보제공의 목적으로, 하기에서 주어지는 설명으로부터 분명해질 것이다.
- 도 1 은 본 발명의 실시형태에 따라 시계의 착용자의 안면 인식을 위한 방법에 관한 플로우차트를 도시한다.
- 도 2 는 본 발명의 실시형태에 따라 이 방법을 구현하는 시계를 도시한다.
Other features and advantages will become apparent from the description given below, for informational purposes and without limitation in any way, with reference to the accompanying drawings.
1 shows a flow chart relating to a method for facial recognition of a wearer of a watch according to an embodiment of the present invention;
- Figure 2 shows a watch implementing this method according to an embodiment of the invention;

도 1 은 시계 (1) 의 착용자의 안면 인식을 위한 방법을 예시한다. 이 방법은 특히 광학 센서 (3) 를 사용하여 수행되는 착용자의 안면의 3 차원 모델링/표현에 기초하여 시계 (1) 의 착용자에 대한 확실한 인증을 수행하는 것을 목표로 한다.1 illustrates a method for facial recognition of a wearer of a watch 1 . This method aims in particular to perform reliable authentication of the wearer of the watch 1 on the basis of a three-dimensional modeling/representation of the wearer's face performed using the optical sensor 3 .

이러한 방법은 시계 (1), 특히 스마트 워치에 의해 구현된다. 도 2 에 예시된 이러한 시계 (1) 는 비배타적이고 비제한적인 방식으로 하기:This method is implemented by the watch 1 , in particular a smart watch. This watch 1 illustrated in FIG. 2 is in a non-exclusive and non-limiting manner:

- 프로세싱 유닛 (2);- processing unit (2);

- 광학 센서 (3);- optical sensor (3);

- 제 1 아날로그 디스플레이 컴포넌트 및 제 2 디지털 및/또는 영숫자 디스플레이 컴포넌트가 제공된 하이브리드 디스플레이 다이얼 (4);- a hybrid display dial 4 provided with a first analog display component and a second digital and/or alphanumeric display component;

- 발광 다이오드 또는 레이저 다이오드 타입의 제 1 광원 (5);- a first light source 5 of light-emitting diode or laser diode type;

- 적외선 타입의 제 2 광원 (6);- a second light source 6 of the infrared type;

- 사진 플래시로서 사용되도록 설계된 제 3 광원 (7);- a third light source (7) designed to be used as a photographic flash;

- 스피커와 같은 사운드 인터페이스;- Sound interface such as speaker;

- 통신 인터페이스;- communication interface;

- 행동적 또는 생리적 움직임; 및- behavioral or physiological movements; and

- 행동적 및/또는 생리적 센서들 (8) 을 포함한다.- contains behavioral and/or physiological sensors (8).

시계 (1) 의 프로세싱 유닛 (2) 은 물리적 및 소프트웨어 리소스들, 특히 메모리 엘리먼트와 협력하는 적어도 하나의 프로세서를 포함한다. 이들 메모리 엘리먼트들은 착용자의 안면에 대한 참조 3 차원 모델, 참조 3 차원 모델에 포함된 착용자의 안면의 특징인 피처에 대한 정보 데이터, 및 참조 식별 인덱스를 포함한다. 이러한 프로세싱 유닛 (2) 은 그중에서도 광학 센서 (3) 에, 디스플레이 다이얼 (4) 에, 제 1, 제 2 및 제 3 광원들 (5, 6, 7) 에, 사운드 인터페이스에, 통신 모듈에, 및 움직임에 그리고 환경적, 행동적 및/또는 생리적 센서들 (8) 에 연결/접속된다.The processing unit 2 of the clock 1 comprises at least one processor cooperating with physical and software resources, in particular a memory element. These memory elements include a reference three-dimensional model for the wearer's face, information data for features characteristic of the wearer's face included in the reference three-dimensional model, and a reference identification index. This processing unit 2 is connected inter alia to the optical sensor 3 , the display dial 4 , the first, second and third light sources 5 , 6 , 7 , the sound interface, the communication module, and connected/connected to movement and to environmental, behavioral and/or physiological sensors 8 .

이 시계 (1) 에서, 매트릭스 이미지 센서라 불리는 광학 센서 (3) 는 예를 들어 CCD 기술 (전하 전달 기술) 또는 CMOS 라 불리는 기술을 갖는 센서들을 포함할 수 있다. 이러한 센서는 감광성 이미지 포인트 (또는 픽셀) 의 매트릭스를 포함한다. 이 포인트들의 매트릭스는 또한, "픽셀 매트릭스" 로 지칭되고 광에 매우 우수한 감도를 갖는 NxM 유닛 픽셀들을 포함한다. 일 대안에서, 이러한 센서 (3) 는 종래의 포토사이트 대신에 광에 민감한 유기 필름을 포함할 수 있다. 이러한 광학 센서 (3) 는 또한 아날로그-디지털 변환기를 포함한다. 이 광학 센서 (3) 는 "자동 포커싱 기능", 또한 자동적인 "줌" 기능 뿐만 아니라 적외선 이미지들을 캡처하는 기능을 구현할 수 있다. 또한, 이 광학 센서 (3) 는 착용자의 안면과 같은 3 차원의 장면을 실시간으로 측정하기 위하여 운행 시간 (TOF; Time of Flight) 의 원리에 따라 동작할 수 있으며, 이 경우, 광학 센서 (3) 는 불필요한 주변광을 제거하기 위하여 적외선의 대역 통과 필터를 포함할 수 있다.In this field of view 1 , the optical sensor 3 called a matrix image sensor may include sensors having a technology called CCD technology (charge transfer technology) or CMOS, for example. Such a sensor comprises a matrix of photosensitive image points (or pixels). This matrix of points is also referred to as the "pixel matrix" and contains NxM unit pixels which have very good sensitivity to light. In one alternative, such a sensor 3 may comprise a light-sensitive organic film instead of a conventional photosite. This optical sensor 3 also includes an analog-to-digital converter. This optical sensor 3 can implement an "auto-focusing function" and also an automatic "zoom" function as well as a function of capturing infrared images. In addition, the optical sensor 3 may operate according to the principle of time of flight (TOF) in order to measure a three-dimensional scene such as a wearer's face in real time, in this case, the optical sensor 3 may include an infrared band-pass filter to remove unnecessary ambient light.

또한, 행동적 센서들 (8) 은 예를 들어 착용자에 의해 수행되는 움직임 또는 제스처와 같은 시계 (1) 의 착용자의 모든 유형의 행동 특성을 측정할 수 있다. 이를 위하여, 이들 행동적 센서들 (8) 은 가속도계들 및/또는 자이로스코프들을 연관시키는 복수의 축들에 따라 각속도 및 선형 가속도들을 검출가능한, 가속도계의 하나 이상의 관성 센서들, 자이로스코프 또는 미니에이처 다중축 자이로미터 타입, 이를 테면, MEMS 기술을 이용하여 제조된 다중축 센서들을 포함할 수 있다. 생리적 센서 (8) 와 관련하여, 이들은 예를 들어 맥박, 피부 임피던스, 혈압, 호흡 레이트, 호흡 부정맥, 피부 온도, 땀 레이트, 신체의 적외선 방사, 혈액의 산소 포화도 또는 혈류와 같은 착용자의 조직의 기능성에 대한 파라미터들을 측정할 수 있다. 시계 (1) 는 또한 예를 들어 이를 테면, 온도, 대기압 등의 환경 파라미터를 측정하도록 특별히 구성된 환경 센서를 포함할 수 있다.Furthermore, the behavioral sensors 8 can measure all types of behavioral characteristics of the wearer of the watch 1 , such as, for example, movements or gestures performed by the wearer. To this end, these behavioral sensors 8 are one or more inertial sensors of the accelerometer, gyroscope or miniature multiple, capable of detecting angular velocity and linear accelerations along a plurality of axes associating the accelerometers and/or gyroscopes. It may include an axial gyrometer type, such as multi-axis sensors manufactured using MEMS technology. With respect to the physiological sensors 8 , these are functionalities of the wearer's tissue, such as, for example, pulse, skin impedance, blood pressure, respiration rate, respiratory arrhythmias, skin temperature, sweat rate, infrared radiation of the body, oxygen saturation of the blood or blood flow. parameters can be measured. The watch 1 may also comprise an environmental sensor specially configured to measure an environmental parameter, such as, for example, temperature, atmospheric pressure, or the like.

이러한 방법은 착용자에 의해 수행된 적어도 하나의 트리거링 움직임/제스처의 검출의 서브단계 (11) 를 포함하는 인증 프로세스의 개시의 단계 (10) 를 포함한다. 이 상기 적어도 하나의 트리거링 움직임/제스처가 이 시계 (1) 의 광학 센서 (3) 의 반대편에 있는 착용자의 안면의 위치결정 동안 시계를 포함하는 착용자의 신체의 부분에 의해 수행된다. 이러한 단계 (10) 는 아래 설명된 이 단계 (10) 의 검출 및 결정의 서브 단계 (11, 12) 의 구현에 의해 충족되는 특정 조건 하에서 인증 프로세스를 개시하는 것을 목표로 한다.This method comprises a step (10) of initiation of an authentication process comprising a substep (11) of detection of at least one triggering movement/gesture performed by the wearer. This said at least one triggering movement/gesture is carried out by the part of the wearer's body comprising the watch during positioning of the wearer's face opposite the optical sensor 3 of this watch 1 . This step (10) aims to initiate the authentication process under certain conditions satisfied by the implementation of the substeps (11, 12) of the detection and determination of this step (10) described below.

검출의 서브단계 (11) 는 착용자가 실제로, 시작되려 하는 인증 프로세스에 대해 담당하도록 보장하는 것에 의해 시계 (1) 의 착용자를 미리 식별할 수 있게 한다. 이를 위해, 착용자가 인증되기를 원할 때, 착용자는 예를 들어 시계 (1) 가 제공된 착용자의 팔 및/또는 착용자 손목의 적어도 하나의 미리 정의된 움직임/제스처를 실행한다. 이 상기 적어도 하나의 움직임/제스처는 그 후, 착용자에 의해 실행된 이 상기 적어도 하나의 움직임/제스처를 캡처한 행동적 센서로부터 유래하는 측정 데이터의 적어도 하나의 피스 상에서, 착용자에 의해 수행된 프로세싱의 여러 동작들이 수행된 후에 프로세싱 유닛 (2) 에 의해 식별된다. 이들 동작은 특히 상기 적어도 하나의 측정 데이터를 하나 이상의 참조 임계값과 비교하는 것을 포함한다.The sub-step 11 of detection makes it possible to identify in advance the wearer of the watch 1 by ensuring that the wearer is, in fact, responsible for the authentication process that is about to begin. To this end, when the wearer wishes to be authenticated, the wearer executes at least one predefined movement/gesture, for example of the wearer's arm and/or the wearer's wrist provided with the watch 1 . This at least one movement/gesture is then performed by the wearer on at least one piece of measurement data originating from a behavioral sensor that captured this at least one movement/gesture of processing performed by the wearer. It is identified by the processing unit 2 after several operations have been performed. These operations include in particular comparing the at least one measurement data to one or more reference thresholds.

위에 언급된 바와 같이, 이 단계 (10) 는 또한 광학 센서 (3) 의 반대편에 위치된 착용자의 안면이 생체에 속한다는 결정의 서브단계 (12) 를 포함한다. 이러한 서브단계 (12) 는 센서의 반대편에 위치한 안면이 예를 들어 사진, 비디오 또는 사진에 포함될 수 있는 안면의 재현이 아닌 인증을 원하는 시계 착용자의 안면임을 효율적으로 검증하는 것을 목표로 한다. 이러한 서브단계 (12) 동안, 프로세싱 유닛 (2) 은 적어도 하나의 측정 데이터의 피스를 하나 이상의 참조 임계값들과 비교하기 위하여 광학 센서 (3) 의 반대편에 위치된 안면에서 수행되는 적어도 하나의 생리적 측정 데이터의 피스에 대한 다양한 프로세싱 동작을 수행한다. 이 측정은 이 안면으로 유래하는 적외선 방사의 방출, 사진 플래시 역할을 하는 제 3 광원 (6) 에 노출된 후의 이 안면의 적어도 하나의 눈에서의 동공의 사이즈에서의 변동, 눈꺼풀 깜박임의 검출에 기초하여 확립될 수 있다.As mentioned above, this step 10 also includes a substep 12 of determining that the wearer's face located opposite the optical sensor 3 belongs to the living body. This sub-step 12 aims to efficiently verify that the face opposite the sensor is the face of the watch wearer who wants authentication, rather than a reproduction of the face that may be included in a photograph, video or photograph, for example. During this substep 12 , the processing unit 2 performs at least one physiological function performed on the face located opposite the optical sensor 3 for comparing the at least one piece of measurement data to one or more reference thresholds. Perform various processing operations on pieces of measurement data. This measurement is based on the emission of infrared radiation originating from this face, a change in the size of the pupil in at least one eye of this face after exposure to a third light source 6 serving as a photographic flash, the detection of blinking of the eyelids. can be established by

이 결정의 서브단계 (12) 는 검출의 서브단계 (11) 와 동시에 또는 실질적으로 동시에 구현될 수 있음에 유의한다.Note that this substep 12 of determining may be implemented simultaneously or substantially simultaneously with the substep 11 of detection.

개시 단계 (10) 가 수행되었다면, 방법은 그 후, 광학 센서 (3) 의 정면에서 한 방향으로부터 다른 방향으로 피봇하는 착용자의 안면에 대한 이미지들의 적어도 하나의 시퀀스의 캡처하는 단계 (13) 를 수행하는 것을 포함한다. 보다 구체적으로, 이 단계 (13) 는 이 안면이 광학 센서 (3) 의 정면에서 한 방향으로부터 다른 방향으로 피봇할 때, 착용자의 안면을 형성하는 모든 부분들의 복수의 이미지들의 획득의 서브단계 (14) 를 포함한다. 광학 센서 (3) 의 정면의 착용자의 안면의 피봇은 안면을 형성하는 모든 부분이 포착되는 방식으로 수행된다는 것이 이해된다. 이 서브단계 (14) 는 2 개의 상이한 광 노출들을 갖는 안면의 각각 동일한 부분에 대해 적어도 2 개의 이미지들을 캡처하는 캡처 단계 (15) 를 포함하며, 하나의 노출은 가시광에 대한 것이고 하나의 노출은 적외선 광에 대한 것이다.If the initiating step 10 has been performed, the method then performs a capturing step 13 of at least one sequence of images of the wearer's face pivoting from one direction to another in front of the optical sensor 3 . includes doing More specifically, this step 13 is a substep 14 of acquiring a plurality of images of all parts forming the wearer's face when this face pivots from one direction to another in the front of the optical sensor 3 . ) is included. It is understood that the pivoting of the wearer's face in front of the optical sensor 3 is performed in such a way that all parts forming the face are captured. This substep 14 comprises a capturing step 15 of capturing at least two images for each same part of the face having two different light exposures, one exposure to visible light and one exposure to infrared light. It's about light.

이러한 조건에서, 이 서브단계 (14) 는 착용자의 안면의 이미지들의 적어도 2 개의 시퀀스들을 획득하게 하며, 이 안면의 이미지들의 제 1 시퀀스의 표면은 가시광에 의해 조명되고, 안면의 이미지들의 제 2 시퀀스의 표면은 적외선에 의해 조명된다.In this condition, this substep 14 causes to obtain at least two sequences of images of the wearer's face, the surface of the first sequence of images of which is illuminated by visible light, and the second sequence of images of the face its surface is illuminated by infrared light.

가시광선에 노출된 안면을 포함하는 이미지들의 사용은 이들 이미지에서 안면의 피부색 또는 질감에 대한 안면의 특징인 피처의 검출을 용이하게 한다. 적외선 광에 노출된 안면을 포함하는 이미지들의 사용은 가시광에서 캡처된 안면의 이미지들의 사용보다 조명 조건에 덜 의존적이기 때문에 바람직하다.The use of images comprising a face exposed to visible light facilitates the detection of features characteristic of the face relative to the skin color or texture of the face in these images. The use of images comprising a face exposed to infrared light is preferred because it is less dependent on lighting conditions than the use of images of the face captured in visible light.

이러한 서브단계 (14) 는:These sub-steps (14) are:

- 안정적인 또는 실질적으로 안정적인 위치에 있는 시계 (1); 및/또는 - a watch in a stable or substantially stable position (1); and/or

- 이미지들의 적어도 하나의 시퀀스의 각각의 이미지에 포함되도록 하기 위하여 광학 센서 (3) 에 대해 최적의 위치에 있는 착용자의 안면- the wearer's face in an optimal position with respect to the optical sensor 3 in order to be included in each image of at least one sequence of images

을 유지하는 것을 목표로 하기 위하여 시계 (1) 의 착용자에게 시각적 및/또는 사운드 가이딩하는 단계 (16) 를 포함한다.visual and/or sound guiding (16) to the wearer of the watch (1) with the aim of maintaining

이 서브단계 (14) 동안, 프로세싱 유닛 (2) 은 각각의 캡처된 이미지들의 시퀀스의 각각의 이미지에서의 착용자의 안면의 유지에 기여하기 위하여 광학 센서 (3) 의 포커싱 및 "줌"의 기능을 제어할 수 있다.During this substep 14 , the processing unit 2 controls the focusing and “zooming” functions of the optical sensor 3 in order to contribute to the maintenance of the wearer's face in each image of the respective captured sequence of images. can be controlled

그 후, 이 방법은 착용자의 안면에 대한 이미지들의 적어도 하나의 시퀀스의 캡처 단계를 구현하는 동안 상기 적어도 하나의 시퀀스의 각각의 이미지와 연관된 안면의 표면 기하학적 데이터의 획득 단계 (17) 를 포함한다. 이 단계 (17) 동안, 착용자의 안면이 광학 센서 (3) 정면에서 한 방향에서 다른 방향으로 피봇할 때, 이 기하학적 데이터는 제 1 및 제 2 시퀀스에 포함된 각각의 획득된 이미지에 대해 생성된다. 보다 구체적으로, 착용자의 안면의 피봇 동안, 레이저 타입의 구조화된 광의 빔은 따라서, 안면의 이들 부분들 각각의 3 차원 형상을 스캔하는 방식으로, 제 1 및 제 2 시퀀스들의 각각의 이미지에 존재하는 안면의 각각의 캡처된 부분 상에 투사된다.Thereafter, the method comprises a step of acquiring (17) surface geometric data of the face associated with each image of the at least one sequence while implementing the step of capturing at least one sequence of images of the wearer's face. During this step 17 , when the wearer's face pivots in front of the optical sensor 3 from one direction to another, this geometric data is generated for each acquired image comprised in the first and second sequences. . More specifically, during pivoting of the wearer's face, a beam of structured light of laser type is thus present in each image of the first and second sequences in such a way as to scan the three-dimensional shape of each of these parts of the face. It is projected onto each captured part of the face.

이러한 획득 단계 (17) 는 캡처 단계 (13) 와 동시에 또는 실질적으로 동시에 수행된다. 그 후, 제 1 및 제 2 시퀀스의 이미지는 이미지들 각각과 연관된 대응하는 기하학적 데이터와 함께 프로세싱 유닛 (2) 의 메모리 엘리먼트들에 아카이브된다.This acquisition step 17 is performed simultaneously or substantially simultaneously with the capture step 13 . Thereafter, the images of the first and second sequences are archived in memory elements of the processing unit 2 together with the corresponding geometric data associated with each of the images.

그 후, 본 방법은 적어도 하나의 캡처된 이미지들의 시퀀스로부터 및 획득된 기하학적 데이터로부터 착용자의 안면의 3 차원 모델의 생성 단계 (18) 를 포함한다. 이 단계 (18) 동안, 프로세싱 유닛 (2) 은 이미지들의 적어도 하나의 시퀀스 및 기하학적 데이터에 기초하여 착용자의 안면의 3 차원 모델의 구성 알고리즘을 구현한다. 이러한 알고리즘은 이들이 포함할 수 있는 결함들, 이를 테면, 피크, 트로프, 또는 원하지 않는 부분의 존재, 이를 테면, 헤어 또는 옷, 또는 안면에 존재하는 악세서리들을 수정하기 위하여, 제 1 및 제 2 시퀀스의 이미지들의 전처리 단계를 포함할 수 있다. 따라서, 이 안면은 피크의 제거, 트로프의 충전 및 안면의 유용한 부분의 분할에 의한 결함의 수정을 포함할 수 있다. 이를 위해 노이즈를 제거하기 위해 입력에서 각각의 이미지에 2 차원 메디안 필터를 적용할 수 있다. 이 노이즈는 이웃과 코히어런트하지 않는 픽셀의 형태일 수 있다. 그 후 이 단계는 입을 열때 매우 간단하게 또는 홍채 또는 눈썹과 같은 안면의 어두운 영역에 의해 구조화된 광의 흡수로부터 유래하는 스로트들을 채우기 위하여 2차원 보간의 적용을 포함할 수 있다. 이들 각각의 시퀀스들 및 대응하는 기하학적 데이터에 대해 획득된 이미지에 기초하여, 3 차원 모델은 3 차원 메싱 프로세스의 구현에 의해 특히 생성된다.Thereafter, the method comprises a step 18 of generating ( 18 ) a three-dimensional model of the wearer's face from the obtained geometric data and from the sequence of at least one captured images. During this step 18 , the processing unit 2 implements an algorithm for construction of a three-dimensional model of the wearer's face on the basis of geometric data and at least one sequence of images. Such an algorithm uses the first and second sequences to correct defects that they may contain, such as peaks, troughs, or the presence of unwanted parts, such as hair or clothing, or accessories present on the face. It may include a preprocessing step of the images. Thus, this facet may include removal of peaks, filling of troughs, and correction of defects by segmentation of useful parts of the face. To do this, we can apply a 2D median filter to each image at the input to remove the noise. This noise may be in the form of pixels that are not coherent with their neighbors. This step can then involve the application of two-dimensional interpolation to fill the throats resulting from absorption of structured light by very simple opening of the mouth or by dark areas of the face such as the iris or eyebrows. On the basis of the images obtained for each of these sequences and the corresponding geometric data, a three-dimensional model is generated in particular by implementation of a three-dimensional meshing process.

본 방법은 그 후, 3 차원 모델에 기초하여 검출된 시계 (1) 의 착용자의 안면의 특징인 복수의 피처들에 대한, 식별 데이터에 기초하여 생성된 식별 인덱스의 결정 단계 (19) 를 포함한다. 안면의 포인트 특징이라고도 하는 안면의 특징인 피처들의 안면의 구조를 3 차원으로 분석할 수 있게 한다. 즉, 이들 특징적인 피처들은 높이, 폭 및 깊이로 디스패치된 특징의 피처들의 세트로서 안면을 해석할 수 있게 한다. 이러한 특징의 피처들은:The method then comprises a determining step 19 of an identification index generated on the basis of the identification data for a plurality of features characteristic of the face of the wearer of the watch 1 detected on the basis of the three-dimensional model . It enables three-dimensional analysis of the facial structure of features that are features of the face, also called point features of the face. That is, these characteristic features make it possible to interpret the face as a set of features of the feature dispatched by height, width and depth. Features of these characteristics are:

- 안면의 기하학성에 대해;- about the geometry of the face;

- 안면의 표면의 부분들의 기하학성에 대해;- on the geometry of parts of the surface of the face;

- 안면의 부분의 상대적 위치들에 대해; - for the relative positions of parts of the face;

- 피부 또는 안면의 이 피부의 영역들의 질감에 대해;- about the texture of the skin or areas of this skin of the face;

- 피부의 또는 안면의 이 피부의 영역들의 색조/컬러에 대해- about the tone/color of these areas of skin on the skin or on the face

비제한적이고 비배타적 방식일 수 있다.It may be in a non-limiting and non-exclusive manner.

예를 들어, 이들 특징의 피처들은 주름, 턱, 주근깨, 흉터, 입술, 입술 모서리, 코, 코 끝, 귀, 귀 끝, 눈 사이의 거리, 코의 융부들 사이의 거리, 코마루 사이의 거리, 턱의 거리 등일 수 있다.For example, features of these features include wrinkles, chin, freckles, scars, lips, corners of lips, nose, tip of nose, ear, tip of ear, distance between eyes, distance between ridges of nose, distance between ridges , the distance between the jaws, and the like.

바람직하게는, 식별 인덱스의 결정을 위해 고려되는 안면의 이러한 특징의 피처들은 안면의 표현 동안 안정하게 유지되는 착용자의 안면의 영역/구역에 포함된다.Preferably, features of this characteristic of the face that are taken into account for the determination of the identification index are comprised in the region/region of the wearer's face that remains stable during the representation of the face.

이 단계 (19) 동안, 프로세싱하는 단계 (20) 가 구현되며, 이 단계 동안, 3 차원 모델로부터 유래하는 식별 데이터가 이 식별 데이터 간의 대응을 결정하기 위해 유닛 (2) 의 메모리 엘리먼트들에 사전 기록된 식별 데이터와 비교된다. 이 비교 결과에 따라, 식별 인덱스는 프로세싱 유닛 (2) 에 의해 생성된다. 프로세싱의 이 서브단계 (20) 는 이 구현을 위하여 제한된 구성가능한 수의 식별 데이터의 피스들의 사용을 포함할 수 있다. 이러한 수는 이러한 인증 방법을 수행하는 신속성에 비해 이 방법을 제공하는데 원하는 견고성에 따라 파라미터화될 수 있다.During this step 19 , a processing step 20 is implemented, during which identification data originating from the three-dimensional model is pre-written in the memory elements of the unit 2 to determine correspondence between these identification data. compared with the identified identification data. According to the result of this comparison, an identification index is generated by the processing unit 2 . This sub-step 20 of processing may involve the use of a limited configurable number of pieces of identification data for this implementation. This number can be parameterized according to the robustness desired to provide this method compared to the speed of performing this authentication method.

따라서, 이 방법은 식별 인덱스가 참조 식별 인덱스보다 더 크면, 착용자의 식별 단계 (21) 를 포함한다. 이 참조 인덱스는 생성 단계 (18) 동안 구성된 착용자의 안면의 3 차원 모델의 식별 데이터와, 착용자의 안면의 참조 3 차원 모델에 상대되는 프로세싱 유닛 (2) 의 메모리 엘리먼트들에 사전 기록된 식별 데이터 사이의 대응성을 검증할 수 있게 한다. 다시 말해, 결정된 식별 인덱스가 참조 식별 인덱스보다 더 클 때, 생성된 3 차원 모델은 착용자의 안면의 참조 3 차원 모델과 상당한 수의 유사도를 갖는다. 반대로, 결정된 식별 인덱스가 참조 식별 인덱스 이하일 때, 생성된 3 차원 모델과 참조 3 차원 모델 사이의 유사도의 수가 충분하지 않아서 그 결과 착용자가 식별되지 않는다. 이 경우, 착용자에게 착용자가 식별되지 않았음을 알려주는 시각적 및/또는 사운드 메시지가 착용자에게 브로드캐스트될 수 있다.Accordingly, the method comprises a step 21 of identifying the wearer if the identification index is greater than the reference identification index. This reference index is located between the identification data of the three-dimensional model of the wearer's face constructed during the generating step 18 and the identification data pre-recorded in memory elements of the processing unit 2 relative to the reference three-dimensional model of the wearer's face. to verify the responsiveness of In other words, when the determined identification index is larger than the reference identification index, the generated 3D model has a significant number of similarities to the reference 3D model of the wearer's face. Conversely, when the determined identification index is equal to or less than the reference identification index, the number of similarities between the generated 3D model and the reference 3D model is not sufficient, and as a result, the wearer is not identified. In this case, a visual and/or sound message may be broadcast to the wearer informing the wearer that the wearer has not been identified.

본 발명은 또한 컴퓨터 프로그램이 시계 (1) 의 프로세싱 유닛 (2) 에 의해 실행될 때 이 방법의 단계들 10 내지 21 의 실행에 대한 프로그램 코드 명령들을 포함하는 상기 컴퓨터 프로그램에 관한 것이다.The invention also relates to a computer program comprising program code instructions for the execution of steps 10 to 21 of the method when the computer program is executed by the processing unit (2) of the clock (1).

Claims (10)

시계 (1) 의 착용자의 안면 인식을 위한 방법으로서,
하기 단계들:
- 상기 착용자에 의해 수행된 적어도 하나의 트리거링 움직임/제스처의 검출 (11) 의 서브단계 및 광학 센서 (3) 의 반대편에 위치된 상기 착용자의 안면이 생체에 속한다고 결정하는 (12) 서브단계를 포함하는 인증 프로세스의 개시 (10);
- 상기 광학 센서 (3) 의 정면에서 한 방향으로부터 다른 방향으로 피봇하는 상기 착용자의 안면에 대한 이미지들의 적어도 하나의 시퀀스의 캡처 (13);
- 상기 적어도 하나의 시퀀스의 각각의 이미지와 연관된 안면의 표면 기하학적 데이터의 획득 (17);
- 이미지들의 캡처된 상기 적어도 하나의 시퀀스로부터 및 획득된 상기 표면 기하학적 데이터로부터 상기 착용자의 안면의 3 차원 모델의 생성 (18);
- 상기 3 차원 모델에 기초하여 검출된 상기 시계 (1) 의 상기 착용자의 안면의 특징인 복수의 피처들에 대한, 식별 데이터에 기초하여 생성된 식별 인덱스의 결정 (19); 및
- 상기 식별 인덱스가 참조 식별 인덱스보다 더 크면, 상기 착용자의 식별 (21) 을 포함하고,
상기 착용자의 안면이 생체에 속한다고 결정하는 (12) 서브단계를 위한 생리적 측정은: (i) 상기 착용자의 안면으로 유래하는 적외선 방사의 방출, (ii) 사진 플래시 역할을 하는 제 3 광원 (6) 에 노출된 후의 상기 착용자의 안면의 적어도 하나의 눈에서의 동공의 사이즈에서의 변동, 및 (iii) 눈꺼풀 깜박임의 검출 중 적어도 하나에 기초하여 확립되는, 시계 (1) 의 착용자의 안면 인식을 위한 방법.
A method for facial recognition of a wearer of a watch (1), comprising:
The following steps:
- a substep of detection (11) of at least one triggering movement/gesture performed by the wearer and a substep of (12) of determining that the face of the wearer located opposite the optical sensor (3) belongs to the living body; initiation of an authentication process comprising (10);
- capture (13) of at least one sequence of images of the wearer's face pivoting from one direction to another in front of the optical sensor (3);
- acquiring (17) surface geometric data of the face associated with each image of said at least one sequence;
- generating ( 18 ) a three-dimensional model of the wearer's face from the captured at least one sequence of images and from the surface geometric data obtained;
- determination (19) of an identification index generated on the basis of identification data for a plurality of features characteristic of the face of the wearer of the watch (1) detected on the basis of the three-dimensional model; and
- if the identification index is greater than the reference identification index, comprising an identification (21) of the wearer,
Physiological measurements for substep (12) of determining that the wearer's face belongs to the living body include: (i) emission of infrared radiation originating into the wearer's face, (ii) a third light source serving as a photographic flash (6) a change in the size of the pupil in at least one eye of the wearer's face after exposure to way for.
삭제delete 제 1 항에 있어서,
상기 캡처 (13) 의 단계는 이 안면이 상기 광학 센서 (3) 의 정면에서 한 방향으로부터 다른 방향으로 피봇할 때, 상기 착용자의 안면을 형성하는 모든 부분들의 복수의 이미지들의 획득 (14) 의 서브단계를 포함하는, 시계 (1) 의 착용자의 안면 인식을 위한 방법.
The method of claim 1,
The step of capturing ( 13 ) is a sub of acquiring ( 14 ) a plurality of images of all parts forming the face of the wearer when this face pivots from one direction to another in front of the optical sensor ( 3 ). A method for facial recognition of a wearer of a watch (1), comprising the steps of:
제 3 항에 있어서,
상기 획득 (14) 의 서브단계는 2 개의 상이한 광 노출들을 갖는 안면의 각각 동일한 부분에 대해 적어도 2 개의 이미지들의 각각의 캡처 (15) 의 단계를 포함하며, 하나의 노출은 가시광에 대한 것이고, 하나의 노출은 적외선 광에 대한 것인, 시계 (1) 의 착용자의 안면 인식을 위한 방법.
4. The method of claim 3,
Said substep of acquisition 14 comprises a step of respective capture 15 of at least two images for each identical part of the face having two different light exposures, one exposure for visible light and one wherein the exposure of is to infrared light.
제 3 항에 있어서,
상기 획득 (14) 의 서브단계는:
- 안정적인 위치에 있는 상기 시계 (1); 및/또는
- 안면이 상기 이미지들의 적어도 하나의 시퀀스의 각각의 이미지에 포함되도록 하기 위하여 상기 광학 센서 (3) 에 대해 최적의 위치에 있는 상기 착용자의 안면
을 유지하는 것을 목표로 하기 위하여 상기 시계 (1) 의 상기 착용자의 시각적 및/또는 사운드 가이딩 (16) 의 단계를 포함하는, 시계 (1) 의 착용자의 안면 인식을 위한 방법.
4. The method of claim 3,
The sub-steps of the acquisition (14) are:
- said watch (1) in a stable position; and/or
- the wearer's face in an optimal position with respect to the optical sensor 3 so that the face is included in each image of the at least one sequence of images
A method for facial recognition of a wearer of a watch (1) comprising the step of visual and/or sound guiding (16) of said wearer of said watch (1) to aim at maintaining
제 1 항에 있어서,
상기 획득 (17) 의 단계는 상기 캡처 (13) 의 단계와 동시에 수행되는, 시계 (1) 의 착용자의 안면 인식을 위한 방법.
The method of claim 1,
The method for facial recognition of a wearer of a watch (1), wherein the step of acquiring (17) is performed concurrently with the step of capturing (13).
제 6 항에 있어서,
상기 결정 (19) 의 단계는 이 식별 데이터 간의 대응을 결정하기 위해 상기 3 차원 모델로부터 유래하는 상기 식별 데이터가 참조 3 차원 모델에 대해 사전-기록된 식별 데이터와 비교되는 프로세싱 (20) 의 서브단계를 포함하는, 시계 (1) 의 착용자의 안면 인식을 위한 방법.
7. The method of claim 6,
The step of determining (19) is a substep of processing (20) wherein the identification data derived from the three-dimensional model is compared with identification data pre-recorded against a reference three-dimensional model to determine correspondence between these identification data. A method for facial recognition of a wearer of a watch (1) comprising:
제 7 항에 있어서,
상기 적어도 하나의 트리거링 움직임/제스처가 이 시계 (1) 의 상기 광학 센서 (3) 의 반대편에 있는 상기 착용자의 안면의 위치결정 동안 상기 시계 (1) 를 포함하는 상기 착용자의 신체의 부분에 의해 수행되는, 시계 (1) 의 착용자의 안면 인식을 위한 방법.
8. The method of claim 7,
said at least one triggering movement/gesture performed by a part of the wearer's body comprising said watch (1) during positioning of said wearer's face opposite said optical sensor (3) of said watch (1) A method for facial recognition of a wearer of a watch (1).
제 1 항 및 제 3 항 내지 제 8 항 중 어느 한 항에 기재된 방법을 구현하는 시계 (1) 로서,
프로세싱 유닛 (2), 광학 센서 (3), 적어도 하나의 광원 (5, 6, 7) 및 행동적 및/또는 생리적 센서들 (8) 을 포함하고, 상기 프로세싱 유닛 (2) 은 상기 광학 센서 (3) 에, 상기 적어도 하나의 광원 (5, 6, 7) 에, 그리고 상기 행동적 및/또는 생리적 센서들 (8) 에 접속되는, 시계 (1).
9. A watch (1) embodying the method according to any one of claims 1 and 3 to 8, comprising:
a processing unit (2), an optical sensor (3), at least one light source (5, 6, 7) and behavioral and/or physiological sensors (8), said processing unit (2) comprising said optical sensor ( 3) a watch (1) connected to the at least one light source (5, 6, 7) and to the behavioral and/or physiological sensors (8).
컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은, 상기 컴퓨터 프로그램이 시계 (1) 의 프로세싱 유닛 (2) 에 의해 실행될 때 제 1 항 및 제 3 항 내지 제 8 항 중 어느 한 항에 기재된 방법의 실행에 대한 프로그램 코드 명령들을 포함하는, 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored on a computer-readable storage medium, comprising:
The computer program comprises program code instructions for the execution of the method according to any one of claims 1 and 3 to 8 when the computer program is executed by a processing unit (2) of a clock (1). , a computer program stored on a computer-readable storage medium.
KR1020190141761A 2018-11-09 2019-11-07 Method for facial authentication of a wearer of a watch KR102387492B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210107309A KR20210103998A (en) 2018-11-09 2021-08-13 Method for facial authentication of a wearer of a watch

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18205295.1 2018-11-09
EP18205295.1A EP3651057B1 (en) 2018-11-09 2018-11-09 Procedure for facial authentication of a wearer of a watch

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210107309A Division KR20210103998A (en) 2018-11-09 2021-08-13 Method for facial authentication of a wearer of a watch

Publications (2)

Publication Number Publication Date
KR20200054883A KR20200054883A (en) 2020-05-20
KR102387492B1 true KR102387492B1 (en) 2022-04-15

Family

ID=64277504

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190141761A KR102387492B1 (en) 2018-11-09 2019-11-07 Method for facial authentication of a wearer of a watch
KR1020210107309A KR20210103998A (en) 2018-11-09 2021-08-13 Method for facial authentication of a wearer of a watch

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210107309A KR20210103998A (en) 2018-11-09 2021-08-13 Method for facial authentication of a wearer of a watch

Country Status (5)

Country Link
US (1) US11977615B2 (en)
EP (1) EP3651057B1 (en)
JP (1) JP2020077412A (en)
KR (2) KR102387492B1 (en)
CN (1) CN111177677A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111724571B (en) * 2020-08-07 2022-11-04 新疆爱华盈通信息技术有限公司 Smart watch, temperature measurement method using smart watch, and body temperature monitoring system
CN114419718B (en) * 2022-03-10 2022-08-02 荣耀终端有限公司 Electronic equipment and face recognition method
CN115165115B (en) * 2022-09-07 2023-07-04 中亿(深圳)信息科技有限公司 Body temperature measuring method and device of intelligent watch, medium and wearable device
CN118536102A (en) * 2024-07-24 2024-08-23 武汉大学 Intelligent user authentication method, equipment and software product based on acoustic sensing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130286161A1 (en) * 2012-04-25 2013-10-31 Futurewei Technologies, Inc. Three-dimensional face recognition for mobile devices
JP2016051482A (en) * 2014-08-28 2016-04-11 ケビン・アラン・チューシーKevin Alan Tussy Methods of enrolling and authenticating user in authentication system, facial authentication system, and methods of authenticating user in authentication system
US20160285865A1 (en) 2013-09-20 2016-09-29 Asmag-Holding Gmbh Authentication system for a mobile data terminal

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005020030A2 (en) * 2003-08-22 2005-03-03 University Of Houston Multi-modal face recognition
CN104200145B (en) * 2007-09-24 2020-10-27 苹果公司 Embedded verification system in electronic device
DE102011054658A1 (en) * 2011-10-20 2013-04-25 Bioid Ag Method for distinguishing between a real face and a two-dimensional image of the face in a biometric capture process
US8959616B2 (en) * 2012-10-25 2015-02-17 2236008 Ontario Inc. System and method for accessing a restricted object
KR102136836B1 (en) 2013-09-09 2020-08-13 삼성전자주식회사 Wearable device performing user authentication by using bio-signals and authentication method of the wearable device
US9794542B2 (en) * 2014-07-03 2017-10-17 Microsoft Technology Licensing, Llc. Secure wearable computer interface
US11256792B2 (en) * 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
CN105095715A (en) 2015-06-30 2015-11-25 国网山东莒县供电公司 Identity authentication method of electric power system network
RU2691195C1 (en) * 2015-09-11 2019-06-11 Айверифай Инк. Image and attribute quality, image enhancement and identification of features for identification by vessels and individuals, and combining information on eye vessels with information on faces and/or parts of faces for biometric systems
CN105654048A (en) 2015-12-30 2016-06-08 四川川大智胜软件股份有限公司 Multi-visual-angle face comparison method
US10210381B1 (en) * 2017-08-01 2019-02-19 Apple Inc. Multiple enrollments in facial recognition
CN108594995A (en) 2018-04-13 2018-09-28 广东小天才科技有限公司 Electronic equipment operation method based on gesture recognition and electronic equipment
CN108764180A (en) 2018-05-31 2018-11-06 Oppo广东移动通信有限公司 Face identification method, device, electronic equipment and readable storage medium storing program for executing
CN108765869A (en) 2018-05-31 2018-11-06 深圳市零度智控科技有限公司 Children's safety wrist-watch based on recognition of face
US10303866B1 (en) * 2018-06-03 2019-05-28 Apple Inc. Automatic retries for facial recognition
US10769414B2 (en) * 2018-06-03 2020-09-08 Apple Inc. Robust face detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130286161A1 (en) * 2012-04-25 2013-10-31 Futurewei Technologies, Inc. Three-dimensional face recognition for mobile devices
US20160285865A1 (en) 2013-09-20 2016-09-29 Asmag-Holding Gmbh Authentication system for a mobile data terminal
JP2016051482A (en) * 2014-08-28 2016-04-11 ケビン・アラン・チューシーKevin Alan Tussy Methods of enrolling and authenticating user in authentication system, facial authentication system, and methods of authenticating user in authentication system

Also Published As

Publication number Publication date
US11977615B2 (en) 2024-05-07
KR20210103998A (en) 2021-08-24
KR20200054883A (en) 2020-05-20
EP3651057B1 (en) 2023-06-14
CN111177677A (en) 2020-05-19
JP2020077412A (en) 2020-05-21
EP3651057A1 (en) 2020-05-13
US20200151307A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
KR102387492B1 (en) Method for facial authentication of a wearer of a watch
EP3362946B1 (en) Eye pose identification using eye features
EP3414742B1 (en) Optimized object scanning using sensor fusion
JP6025690B2 (en) Information processing apparatus and information processing method
CN104243800B (en) Control device and storage medium
KR20190129826A (en) Biometrics methods and apparatus, systems, electronic devices, storage media
WO2020071008A1 (en) Biometric authentication system, biometric authentication method, and program
US20140254939A1 (en) Apparatus and method for outputting information on facial expression
KR20170019779A (en) Method and Apparatus for detection of 3D Face Model Using Portable Camera
JP2004320287A (en) Digital camera
JP2004317699A (en) Digital camera
JPWO2014128773A1 (en) Gesture registration device, gesture registration program, and gesture registration method
JP2015088096A (en) Information processor and information processing method
JP2004320286A (en) Digital camera
JP2015088095A (en) Information processor and information processing method
EP3572029B1 (en) Device for analysing a dental situation
JP2015088098A (en) Information processor and information processing method
JPWO2009004916A1 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
JP2004320285A (en) Digital camera
EP3796866A1 (en) Method for analysing a dental situation
KR20190119212A (en) System for performing virtual fitting using artificial neural network, method thereof and computer recordable medium storing program to perform the method
JP2005149370A (en) Imaging device, personal authentication device and imaging method
JP3970573B2 (en) Facial image recognition apparatus and method
KR101053253B1 (en) Apparatus and method for face recognition using 3D information
JP2022120681A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2021101002108; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20210813

Effective date: 20220125

GRNO Decision to grant (after opposition)
GRNT Written decision to grant