KR102641806B1 - Method and apparatus for authenticating user of wearable device - Google Patents

Method and apparatus for authenticating user of wearable device Download PDF

Info

Publication number
KR102641806B1
KR102641806B1 KR1020230091865A KR20230091865A KR102641806B1 KR 102641806 B1 KR102641806 B1 KR 102641806B1 KR 1020230091865 A KR1020230091865 A KR 1020230091865A KR 20230091865 A KR20230091865 A KR 20230091865A KR 102641806 B1 KR102641806 B1 KR 102641806B1
Authority
KR
South Korea
Prior art keywords
user
signal
feature vector
photoplethysmographic signal
photoplethysmographic
Prior art date
Application number
KR1020230091865A
Other languages
Korean (ko)
Inventor
이의철
석채린
송영도
안병선
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Application granted granted Critical
Publication of KR102641806B1 publication Critical patent/KR102641806B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof

Abstract

일 측면에 따른 컴퓨팅 장치는, 적어도 하나의 메모리; 및 적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는, 상기 사용자의 광용적맥파 신호(PPG signal)를 이용하여 상기 사용자의 상기 웨어러블 디바이스 착용 여부를 결정하고, 상기 사용자가 상기 웨어러블 디바이스를 착용중인 것으로 결정된 것에 응답하여, 상기 광용적맥파 신호를 가공함으로써 가공된 광용적맥파 신호를 생성하며, 딥러닝 모델의 입력 데이터로써 상기 가공된 광용적맥파 신호를 입력하고, 출력 데이터로써 상기 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하여 상기 사용자를 인증한다.A computing device according to one aspect includes at least one memory; and at least one processor, wherein the at least one processor determines whether the user is wearing the wearable device using a photoplethysmographic signal (PPG signal) of the user, and determines whether the user is wearing the wearable device. In response to being determined to be worn, a processed photoplethysmographic signal is generated by processing the photoplethysmographic signal, inputting the processed photoplethysmographic signal as input data of a deep learning model, and using the processed photoplethysmographic signal as output data. The similarity between the photoplethysmographic signal and the photoplethysmographic signal of a previously registered user is calculated to authenticate the user.

Description

웨어러블 디바이스의 사용자를 인증하는 방법 및 장치 {Method and apparatus for authenticating user of wearable device}Method and apparatus for authenticating user of wearable device {Method and apparatus for authenticating user of wearable device}

본 개시는, 웨어러블 디바이스의 사용자를 인증하는 방법 및 장치에 관한다. 보다 구체적으로는, 광용적맥파(PPG; Photoplethysmography) 신호를 이용하여 웨어러블 디바이스의 사용자를 인증하는 방법 및 장치에 관한다.This disclosure relates to a method and device for authenticating a user of a wearable device. More specifically, it relates to a method and device for authenticating a user of a wearable device using a photoplethysmography (PPG) signal.

근래에는 다양한 종류의 웨어러블 디바이스들이 개발되어 사용되고 있다. 통신 기능을 구비하고, 다양한 사용자 편의 기능을 제공하는 손목 착용형 스마트 워치 또는 사용자가 특정 화면을 보고 그에 따른 정보를 처리할 수 있는 스마트 글라스 등을 그 예로 들 수 있다.Recently, various types of wearable devices have been developed and used. Examples include a wrist-worn smart watch that has a communication function and provides various user convenience functions, or smart glasses that allow the user to view a specific screen and process information accordingly.

이와 같은 웨어러블 디바이스들은 개인 정보를 저장 및 처리하고, 금융 거래 또는 결제 수단으로도 이용될 수 있으므로, 인증된 사용자만이 웨어러블 디바이스를 사용할 수 있도록 하는 기술이 필요하다. 또한, 웨어러블 디바이스의 특성상 인증된 사용자뿐만이 아니라 외부인도 접근이 용이하므로, 간편하면서도 정확한 사용자 인증 방법이 필요한 실정이다.Since such wearable devices store and process personal information and can also be used as a financial transaction or payment method, technology is needed to allow only authorized users to use the wearable device. In addition, due to the nature of wearable devices, not only authenticated users but also outsiders can easily access them, so a simple and accurate user authentication method is needed.

종래에는, 지문 인식, 홍채 인식, 정맥 인식 등을 통하여 웨어러블 디바이스의 사용자를 인증하였다. 다만, 위와 같은 인증 방법들은 사용자의 인증을 위해 사용자에게 추가적인 행동이 필요하였다. 또한, 종래의 광용적맥파를 이용하여 웨어러블 디바이스의 사용자를 인증하는 기술은 사용자 등록을 위한 특징 추출에 소요되는 기간이 오래 걸린다는 문제점이 있었다.Conventionally, users of wearable devices were authenticated through fingerprint recognition, iris recognition, vein recognition, etc. However, the above authentication methods required additional actions from the user to authenticate the user. In addition, the conventional technology for authenticating users of wearable devices using photoplethysmography had the problem that it took a long time to extract features for user registration.

이에 본 발명은, 위와 같은 문제를 해결하고자, 광용적맥파를 이용하여 웨어러블 디바이스의 사용자에게 추가적인 행동을 요구하지 않고, 짧은 시간 내에 웨어러블 디바이스의 사용자를 인증하는 방법을 제공하고자 한다.Accordingly, in order to solve the above problem, the present invention seeks to provide a method for authenticating the user of a wearable device within a short period of time without requiring additional actions from the user of the wearable device using photoplethysmography.

웨어러블 디바이스의 사용자를 인증하는 방법 및 장치를 제공하는데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.The object is to provide a method and device for authenticating a user of a wearable device. Additionally, the object is to provide a computer-readable recording medium on which a program for executing the method on a computer is recorded. The technical challenges to be solved are not limited to those described above, and other technical challenges may exist.

본 개시의 일 측면에 따르면, 웨어러블 디바이스의 사용자를 인증하는 방법에 있어서, 상기 사용자의 광용적맥파 신호(PPG signal)를 이용하여 상기 사용자의 상기 웨어러블 디바이스 착용 여부를 결정하는 단계; 상기 사용자가 상기 웨어러블 디바이스를 착용중인 것으로 결정된 것에 응답하여 상기 광용적맥파 신호를 가공함으로써 가공된 광용적맥파 신호를 생성하는 단계; 및 딥러닝 모델의 입력 데이터로써 상기 가공된 광용적맥파 신호를 입력하고, 출력 데이터로써 상기 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하여 상기 사용자를 인증하는 단계;를 포함하는, 방법.을 제공할 수 있다.According to one aspect of the present disclosure, a method of authenticating a user of a wearable device includes: determining whether the user is wearing the wearable device using a photoplethysmographic signal (PPG signal) of the user; generating a processed photoplethysmographic signal by processing the photoplethysmographic signal in response to determining that the user is wearing the wearable device; And inputting the processed photoplethysmographic signal as input data of a deep learning model, and calculating the similarity between the processed photoplethysmographic signal and the photoplethysmographic signal of a pre-registered user as output data to authenticate the user. A method including ; can be provided.

본 개시의 다른 측면에 따른 컴퓨팅 장치는, 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램을 실행하는 적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는, 상기 사용자의 광용적맥파 신호(PPG signal)를 이용하여 상기 사용자의 상기 웨어러블 디바이스 착용 여부를 결정하고, 상기 사용자가 상기 웨어러블 디바이스를 착용중인 것으로 결정된 것에 응답하여, 상기 광용적맥파 신호를 가공함으로써 가공된 광용적맥파 신호를 생성하며, 딥러닝 모델의 입력 데이터로써 상기 가공된 광용적맥파 신호를 입력하고, 출력 데이터로써 상기 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하여 상기 사용자를 인증할 수 있다.A computing device according to another aspect of the present disclosure includes a memory storing at least one program; and at least one processor executing the at least one program, wherein the at least one processor determines whether the user is wearing the wearable device using a photoplethysmographic signal (PPG signal) of the user. , In response to determining that the user is wearing the wearable device, generating a processed photoplethysmographic signal by processing the photoplethysmographic signal, and inputting the processed photoplethysmographic signal as input data of a deep learning model. And, as output data, the similarity between the processed photoplethysmographic signal and the photoplethysmographic signal of a pre-registered user can be calculated to authenticate the user.

본 개시의 또 다른 측면에 따른 컴퓨터로 읽을 수 있는 기록매체는 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.A computer-readable recording medium according to another aspect of the present disclosure includes a recording medium recording a program for executing the above-described method on a computer.

웨어러블 디바이스의 사용자가 웨어러블 디바이스를 착용하고 있는 동안 지속적, 비자각적으로 광용적맥파 신호를 추출하고, 추출한 신호를 사용자 인증에 필요한 데이터로 활용하여 보안성을 높일 수 있다.Security can be improved by continuously and non-consciously extracting photoplethysmographic signals while the wearable device user is wearing the wearable device, and using the extracted signals as data required for user authentication.

또한, 사용자에게 별도의 행동을 요구하지 않고, 원격 광용적맥파 신호를 이용함으로써, 사용자에게 편의를 제공할 수 있다.Additionally, convenience can be provided to the user by using a remote photoplethysmographic signal without requiring any additional action from the user.

또한, 광용적맥파 센서만을 사용하므로, 사용자 인증 시 별도의 센서를 요구하지 않을 수 있다.Additionally, since only the photoplethysmographic sensor is used, a separate sensor may not be required for user authentication.

실시예들에 의한 효과가 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 본 발명의 기재로부터 당해 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the examples are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the present invention.

도 1은 일 실시예에 따른 웨어러블 디바이스의 사용자를 인증하는 방법의 일 예를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 웨어러블 디바이스의 사용자를 인증하는 장치의 일 예를 설명하기 위한 구성도이다.
도 3은 일 실시예에 따른 웨어러블 디바이스의 사용자를 인증하는 방법의 일 예를 설명하기 위한 흐름도이다.
도 4는 일 실시예에 따른 광용적맥파 신호의 경향성을 제거하는 일 예를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 광용적맥파 신호를 복수의 제1 서브 신호들로 분리하는 일 예를 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 복수의 제1 서브 신호들을 보간하여 동일한 주기를 갖는 복수의 제2 서브 신호들을 생성하는 일 예를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 제2 서브 신호들을 이용하여 가공된 광용적맥파 신호를 생성하는 일 예를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 딥러닝 모델을 이용하여 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하는 일 예를 설명하기 위한 도면이다.
FIG. 1 is a diagram illustrating an example of a method for authenticating a user of a wearable device according to an embodiment.
FIG. 2 is a configuration diagram illustrating an example of a device for authenticating a user of a wearable device according to an embodiment.
FIG. 3 is a flowchart illustrating an example of a method for authenticating a user of a wearable device according to an embodiment.
FIG. 4 is a diagram illustrating an example of removing the tendency of a photoplethysmographic signal according to an embodiment.
FIG. 5 is a diagram illustrating an example of separating a photoplethysmographic signal into a plurality of first sub-signals according to an embodiment.
FIG. 6 is a diagram illustrating an example of generating a plurality of second sub-signals having the same period by interpolating a plurality of first sub-signals according to an embodiment.
FIG. 7 is a diagram illustrating an example of generating a processed photoplethysmographic signal using second sub-signals according to an embodiment.
FIG. 8 is a diagram illustrating an example of calculating the similarity between a photoplethysmography signal processed using a deep learning model according to an embodiment and a photoplethysmography signal of a pre-registered user.

본 개시는 다양하게 변환하여 실시할 수 있고, 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 기재한다. 본 개시의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조해 명확해질 것이다.The present disclosure can be implemented in various ways and can have various embodiments, and specific embodiments are illustrated in the drawings and described in the detailed description. The effects and features of the present disclosure and methods for achieving them will become clear with reference to the embodiments described in detail below along with the drawings.

실시 예들에서 사용되는 용어는 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments are general terms that are currently widely used as much as possible, but may vary depending on the intention or precedent of a technician working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the relevant description. Therefore, terms used in the specification should be defined based on the meaning of the term and the overall content of the specification, not just the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "~ 유닛", "~ 모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "~ unit" and "~ module" described in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software.

또한, 명세서에서 사용되는 "제 1" 또는 "제 2" 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다.Additionally, terms including ordinal numbers such as “first” or “second” used in the specification may be used to describe various components, but the components should not be limited by the terms. The above terms may be used for the purpose of distinguishing one component from another component.

또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 편의를 위하여 임의로 나타낸 것으로, 본 개시는 반드시 도시된 바에 한정되지 않는다.Additionally, in the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience, and the present disclosure is not necessarily limited to what is shown.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다. 그러나 실시 예는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 예에 한정되지 않는다.Hereinafter, the present disclosure will be described in detail with reference to the attached drawings. However, the embodiments may be implemented in various different forms and are not limited to the examples described herein.

도 1은 일 실시예에 따른 웨어러블 디바이스의 사용자를 인증하는 방법의 일 예를 설명하기 위한 도면이다.FIG. 1 is a diagram illustrating an example of a method for authenticating a user of a wearable device according to an embodiment.

도 1을 참조하면, 사용자(110)의 웨어러블 디바이스(120)를 이용하여 광용적맥파 신호(130)를 추출하고, 추출한 광용적맥파 신호(130)를 이용하여 사용자를 인증하는 방법의 일 예가 도시되어 있다.Referring to FIG. 1, an example of a method of extracting a photoplethysmography signal 130 using the wearable device 120 of the user 110 and authenticating the user using the extracted photoplethysmography signal 130 is shown. It is done.

예를 들어, 사용자(110)의 특정 신체 부위에서 광용적맥파 신호(130)를 추출하고, 추출한 광용적맥파 신호(130)를 이용하여 사용자(110)를 인증할 수 있다. 예를 들어, 사용자(110)의 얼굴에서 광용적맥파 신호(130)를 추출할 수 있으나, 광용적맥파 신호(130)를 추출하는 신체 부위는 얼굴뿐 아니라 손목, 팔, 다리 등 다른 신체 부위일 수 있다.For example, the photoplethysmographic signal 130 may be extracted from a specific body part of the user 110, and the user 110 may be authenticated using the extracted photoplethysmographic signal 130. For example, the photoplethysmographic signal 130 may be extracted from the face of the user 110, but the body part from which the photoplethysmographic signal 130 is extracted may be other body parts such as the wrist, arm, and leg as well as the face. You can.

또한, 광용적맥파 신호(130)를 추출하는 신체 부위에 따라 피부의 상태(예를 들어, 빛의 세기, 온도, 움직임 등)가 달라질 수 있으므로, 달라지는 신체 부위에 따라 광용적맥파 신호(130)를 추출하는 방법도 달라질 수 있다.In addition, since the condition of the skin (e.g., light intensity, temperature, movement, etc.) may vary depending on the body part from which the photoplethysmographic signal 130 is extracted, the photoplethysmographic signal 130 may be generated depending on the different body part. The method of extracting may also vary.

또한, 도 1에는 사용자(110)의 손목에 착용하는 워치 형태의 웨어러블 디바이스만 도시하였으나, 이는 설명의 편의를 위한 것이고, 웨어러블 디바이스는 워치뿐 아니라, 반지, 팔찌, 발찌, 목걸이, 귀걸이, 안경 등을 포함할 수 있다.In addition, Figure 1 shows only a watch-shaped wearable device worn on the wrist of the user 110, but this is for convenience of explanation, and wearable devices include not only watches, but also rings, bracelets, anklets, necklaces, earrings, glasses, etc. may include.

도 2는 일 실시예에 따른 웨어러블 디바이스의 사용자를 인증하는 장치의 일 예를 설명하기 위한 구성도이다.FIG. 2 is a configuration diagram illustrating an example of a device for authenticating a user of a wearable device according to an embodiment.

도 2를 참조하면, 장치(200)는 통신부(210), 프로세서(220), 메모리(230) 및 센서부(240)를 포함할 수 있다. 도 2의 장치(200)에는 실시예와 관련된 구성요소들 만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자에게 자명하다.Referring to FIG. 2 , the device 200 may include a communication unit 210, a processor 220, a memory 230, and a sensor unit 240. In the device 200 of FIG. 2, only components related to the embodiment are shown. Therefore, it is obvious to those skilled in the art that other general-purpose components may be included in addition to the components shown in FIG. 2.

장치(200)는, 스마트폰, 가전기기, 카메라가 탑재된 디바이스 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있다. 또한, 장치(200)는 데이터 프로세싱 기능을 구비한 시계, 팔찌, 발찌, 안경, 헤어 밴드 및 반지 등의 웨어러블 디바이스일 수 있다. 다만, 이에 한정되는 것은 아니다. Device 200 may be a smartphone, a home appliance, a device equipped with a camera, and other mobile or non-mobile computing devices. Additionally, the device 200 may be a wearable device such as a watch, bracelet, anklet, glasses, hair band, or ring equipped with a data processing function. However, it is not limited to this.

통신부(210)는 외부 서버 또는 외부 장치와 유선/무선 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(210)는 외부 서버 또는 외부 장치와의 통신을 위한 근거리 통신부(미도시) 및 이동 통신부(미도시) 등을 포함할 수 있다.The communication unit 210 may include one or more components that enable wired/wireless communication with an external server or external device. For example, the communication unit 210 may include a short-range communication unit (not shown) and a mobile communication unit (not shown) for communication with an external server or external device.

예를 들어, 통신부(210)는 센서부(240)가 획득한 사용자의 광용적맥파 신호 또는 다른 생체 정보를 수신할 수 있다.For example, the communication unit 210 may receive the user's photoplethysmographic signal or other biometric information acquired by the sensor unit 240.

메모리(230)는 장치(200) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다.The memory 230 is hardware that stores various data processed within the device 200, and can store programs for processing and control of the processor 220.

예를 들어, 메모리(230)에는 센서부(240) 로부터 획득한 광용적맥파 신호 또는 기타 생체 정보, 프로세서(220)의 동작에 따라 생성된 데이터 등 다양한 데이터가 저장될 수 있다. 또한, 메모리(230)에는 운영체제(OS)와 적어도 하나의 프로그램(예를 들어, 프로세서(220)가 동작하는데 필요한 프로그램 등)이 저장될 수 있다.For example, the memory 230 may store various data, such as a photoplethysmographic wave signal or other biometric information obtained from the sensor unit 240, or data generated according to the operation of the processor 220. Additionally, the memory 230 may store an operating system (OS) and at least one program (eg, a program necessary for the processor 220 to operate, etc.).

메모리(230)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다.The memory 230 includes random access memory (RAM) such as dynamic random access memory (DRAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), CD- It may include ROM, Blu-ray or other optical disk storage, a hard disk drive (HDD), a solid state drive (SSD), or flash memory.

센서부(240)는 적어도 하나 이상의 센서를 포함할 수 있다. 예를 들면, 센서부(240)는, PPG 센서, 적외선 센서, LED 센서, 정전 센서 등을 포함할 수 있으며, 이에 한정되지 아니한다.The sensor unit 240 may include at least one sensor. For example, the sensor unit 240 may include a PPG sensor, an infrared sensor, an LED sensor, an electrostatic sensor, etc., but is not limited thereto.

센서부(240)는 다양한 정보를 획득하는데 이용될 수 있다. 예를 들어, 센서부(240)는 사용자를 인증하기 위한 정보를 획득하는데 이용될 수 있다. 일 예시로, 센서부(240)는 사용자의 광용적맥파 신호를 획득할 수 있다. 다른 예시로, 센서부(240)는 지문 정보, 얼굴 정보, 음성 정보, 홍채 정보, 심전도 정보 등을 획득할 수 있으며, 이에 한정되지 아니하고 다양한 생체 정보를 획득할 수 있다.The sensor unit 240 can be used to obtain various information. For example, the sensor unit 240 may be used to obtain information for authenticating a user. As an example, the sensor unit 240 may acquire the user's photoplethysmographic signal. As another example, the sensor unit 240 may acquire fingerprint information, face information, voice information, iris information, electrocardiogram information, etc., but is not limited to this and may acquire various biometric information.

프로세서(220)는 장치(200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(220)는 메모리(230)에 저장된 프로그램들을 실행함으로써, 입력부(미도시), 디스플레이(미도시), 통신부(210), 메모리(230), 센서부(240) 등을 전반적으로 제어할 수 있다.The processor 220 controls the overall operation of the device 200. For example, the processor 220 executes programs stored in the memory 230 to overall manage the input unit (not shown), display (not shown), communication unit 210, memory 230, sensor unit 240, etc. It can be controlled with .

프로세서(220)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The processor 220 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), controllers, and microcontrollers. It may be implemented using at least one of micro-controllers, microprocessors, and other electrical units for performing functions.

프로세서(220)는, 메모리(230)에 저장된 프로그램들을 실행함으로써, 장치(200)의 동작을 제어할 수 있다. 일 예로, 프로세서(220)는 도 3 내지 도 8을 참조하여 서술하는, 웨어러블 디바이스의 사용자를 인증하는 방법 중 적어도 일부를 수행할 수 있다.The processor 220 may control the operation of the device 200 by executing programs stored in the memory 230. As an example, the processor 220 may perform at least part of the method for authenticating a user of a wearable device described with reference to FIGS. 3 to 8 .

다시 말해, 프로세서(220)는, 사용자의 광용적맥파 신호(PPG signal)를 이용하여 사용자의 웨어러블 디바이스 착용 여부를 결정하고, 사용자가 웨어러블 디바이스를 착용중인 것으로 결정된 것에 응답하여 광용적맥파 신호를 가공함으로써 가공된 광용적맥파 신호를 생성하며, 딥러닝 모델의 입력 데이터로써 가공된 광용적맥파 신호를 입력하고, 출력 데이터로써 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하여 사용자를 인증할 수 있다.In other words, the processor 220 uses the user's photoplethysmographic signal (PPG signal) to determine whether the user is wearing the wearable device, and processes the photoplethysmographic signal in response to determining that the user is wearing the wearable device. By doing so, a processed photoplethysmographic signal is generated, the processed photoplethysmographic signal is input as input data of the deep learning model, and the similarity between the processed photoplethysmographic signal and the already registered user's photoplethysmographic signal is calculated as output data. You can calculate and authenticate the user.

먼저, 프로세서(220)는 사용자의 광용적맥파 신호(PPG signal)를 이용하여 사용자의 웨어러블 디바이스 착용 여부를 결정할 수 있다.First, the processor 220 can determine whether the user is wearing a wearable device using the user's photoplethysmographic signal (PPG signal).

또한, 프로세서(220)는 사용자가 웨어러블 디바이스를 착용중인 것으로 결정된 것에 응답하여 광용적맥파 신호를 가공함으로써 가공된 광용적맥파 신호를 생성할 수 있다.Additionally, the processor 220 may generate a processed photoplethysmography signal by processing the photoplethysmographic signal in response to determining that the user is wearing a wearable device.

예를 들어, 프로세서(220)는 광용적맥파 신호의 SNR(Signal to Noise Ratio) 값을 산출하고, SNR 값이 기 설정된 임계 값 이상인 광용적맥파 신호를 추출하고, 추출된 광용적맥파 신호의 경향성을 제거할 수 있다. 또한, 프로세서(220)는 경향성이 제거된 광용적맥파 신호를 복수의 제1 서브 신호들로 분리하고, 제1 서브 신호들을 보간하여 동일한 주기를 갖는 복수의 제2 서브 신호들을 생성하며, 적어도 둘 이상의 제2 서브 신호들을 이용하여 적어도 하나의 가공된 광용적맥파 신호를 생성할 수 있다.For example, the processor 220 calculates the SNR (Signal to Noise Ratio) value of the photoplethysmographic signal, extracts the photoplethysmographic signal whose SNR value is greater than or equal to a preset threshold, and trends the extracted photoplethysmographic signal. can be removed. Additionally, the processor 220 separates the photoplethysmography signal from which the tendency has been removed into a plurality of first sub-signals, interpolates the first sub-signals to generate a plurality of second sub-signals having the same period, and generates at least two sub-signals. At least one processed photoplethysmographic signal can be generated using the above second sub-signals.

여기에서, 딥러닝 모델은 제1 모델 및 제2 모델을 포함할 수 있다. 예를 들어, 제1 모델은, 가공된 광용적맥파 신호에서 제1 특징벡터를 추출할 수 있다. 또한, 제2 모델은, 제1 특징벡터와 제2 특징벡터의 차이를 계산하고, 차이를 나타내는 제3 특징벡터를 생성하고, 제3 특징벡터를 이용하여 사용자의 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호 사이의 유사도를 산출할 수 있다. 여기에서, 제2 특징벡터는, 기 등록된 사용자의 광용적맥파 신호에서 추출한 특징벡터일 수 있다. 예를 들어, 프로세서(220)는 제1 특징벡터와 제2 특징벡터 간의 차이를 나타내는 제3 특징벡터를 생성하고, 제2 모델은 제3 특징벡터를 이용하여 사용자의 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호 사이의 유사도를 산출할 수 있다.Here, the deep learning model may include a first model and a second model. For example, the first model may extract the first feature vector from the processed photoplethysmographic signal. In addition, the second model calculates the difference between the first feature vector and the second feature vector, generates a third feature vector representing the difference, and uses the third feature vector to match the user's photoplethysmographic signal and the previously registered The similarity between the user's photoplethysmographic signals can be calculated. Here, the second feature vector may be a feature vector extracted from the photoplethysmography signal of a previously registered user. For example, the processor 220 generates a third feature vector indicating the difference between the first feature vector and the second feature vector, and the second model uses the third feature vector to register the user's photoplethysmography signal and the second model. The similarity between the user's photoplethysmographic signals can be calculated.

또한, 프로세서(220)는 유사도가 기 설정된 범위에 포함되는지 여부를 결정하고, 유사도가 기 설정된 범위에 포함되는 것으로 결정된 것에 응답하여 사용자를 인증할 수 있다.Additionally, the processor 220 may determine whether the similarity is within a preset range and authenticate the user in response to determining that the similarity is within the preset range.

여기에서, 딥러닝 모델은 학습 데이터로써, 갱신되는 인증된 사용자의 제1 특징벡터를 이용하여 재학습될 수 있다. 또한, 제2 특징벡터는 인증된 사용자의 제1 특징벡터에 기초하여 갱신될 수 있다. 또한, 제2 모델은, 웨어러블 디바이스가 계속적으로 수신하는 광용적맥파 신호로부터 추출된 제1 특징벡터와 갱신된 제2 특징벡터의 차이를 계산하고, 차이를 나타내는 제3 특징벡터를 생성할 수 있다.Here, the deep learning model can be retrained using the updated first feature vector of the authenticated user as learning data. Additionally, the second feature vector may be updated based on the first feature vector of the authenticated user. Additionally, the second model may calculate the difference between the first feature vector extracted from the photoplethysmographic signal continuously received by the wearable device and the updated second feature vector, and generate a third feature vector representing the difference. .

도 3은 일 실시예에 따른 웨어러블 디바이스의 사용자를 인증하는 방법의 일 예를 설명하기 위한 흐름도이다.FIG. 3 is a flowchart illustrating an example of a method for authenticating a user of a wearable device according to an embodiment.

도 3을 참조하면, 웨어러블 디바이스의 사용자를 인증하는 방법은 단계 310 내지 330을 포함할 수 있다. 다만, 이에 제한되는 것은 아니고, 도 3에 도시되는 단계들 외에 다른 범용적인 단계들이 웨어러블 디바이스의 사용자를 인증하는 방법에 더 포함될 수 있다. 또한, 도 1 및 도 2를 참조하여 상술한 바와 같이, 도 3에 도시된 흐름도의 단계들 중 적어도 하나는 프로세서(220)에서 처리될 수 있다.Referring to FIG. 3, a method for authenticating a user of a wearable device may include steps 310 to 330. However, it is not limited to this, and other general steps in addition to the steps shown in FIG. 3 may be further included in the method of authenticating a user of a wearable device. Additionally, as described above with reference to FIGS. 1 and 2, at least one of the steps in the flowchart shown in FIG. 3 may be processed by the processor 220.

단계 310에서 프로세서(220)는 사용자의 광용적맥파 신호를 이용하여 사용자의 웨어러블 디바이스 착용 여부를 결정할 수 있다.In step 310, the processor 220 may determine whether the user is wearing a wearable device using the user's photoplethysmographic signal.

예를 들어, 프로세서(220)는 센서부(240)가 감지하는 사용자의 광용적맥파 신호 유무에 따라 사용자가 웨어러블 디바이스를 착용하고 있는지 여부를 결정할 수 있다. 일 예시로, 센서부(240)가 사용자의 광용적맥파 신호를 감지하면, 프로세서(220)는 사용자가 웨어러블 디바이스를 착용하고 있는 것으로 결정할 수 있다. 다른 예시로, 센서부(240)가 사용자의 광용적맥파 신호를 감지하지 못하면, 프로세서(220)는 사용자가 웨어러블 디바이스를 착용하고 있지 아니한 것으로 결정할 수 있다. 프로세서(220)가 사용자가 웨어러블 디바이스를 착용하고 있지 아니한 것으로 결정한 때에는, 센서부(240)는 다시 사용자의 광용적맥파 신호를 탐지할 수 있다.For example, the processor 220 may determine whether the user is wearing a wearable device based on the presence or absence of the user's photoplethysmographic signal detected by the sensor unit 240. As an example, when the sensor unit 240 detects the user's photoplethysmographic signal, the processor 220 may determine that the user is wearing a wearable device. As another example, if the sensor unit 240 does not detect the user's photoplethysmographic signal, the processor 220 may determine that the user is not wearing the wearable device. When the processor 220 determines that the user is not wearing the wearable device, the sensor unit 240 can detect the user's photoplethysmographic signal again.

또한, 프로세서(220)는 센서부(240)가 감지하는 사용자의 움직임에 따라 사용자가 웨어러블 디바이스를 착용하고 있는지 여부를 결정할 수 있다. 예를 들어, 센서부(240)가 사용자의 움직임을 감지하고, 사용자의 광용적맥파 신호도 감지하면, 프로세서(220)는 사용자가 웨어러블 디바이스를 착용하고 있는 것으로 결정할 수 있다.Additionally, the processor 220 may determine whether the user is wearing a wearable device according to the user's movement detected by the sensor unit 240. For example, if the sensor unit 240 detects the user's movement and also detects the user's photoplethysmography signal, the processor 220 may determine that the user is wearing a wearable device.

다시, 도 3을 참조하면, 단계 320에서 프로세서(220)는 사용자가 웨어러블 디바이스를 착용중인 것으로 결정된 것에 응답하여 광용적맥파 신호를 가공함으로써 가공된 광용적맥파 신호를 생성할 수 있다.Referring again to FIG. 3 , in step 320, the processor 220 may generate a processed photoplethysmography signal by processing the photoplethysmographic signal in response to determining that the user is wearing a wearable device.

먼저, 프로세서(220)는 광용적맥파 신호의 SNR(Signal to Noise Ratio) 값을 산출하고, SNR 값이 기 설정된 임계 값 이상인 광용적맥파 신호를 추출할 수 있다.First, the processor 220 may calculate the Signal to Noise Ratio (SNR) value of the photoplethysmographic signal and extract the photoplethysmographic signal whose SNR value is greater than or equal to a preset threshold.

예를 들어, 프로세서(220)는 수학식 1을 이용하여 광용적맥파 신호의 SNR 값을 산출할 수 있다. 수학식 1은 다음과 같다.For example, the processor 220 may calculate the SNR value of the photoplethysmographic signal using Equation 1. Equation 1 is as follows:

여기에서, 는 광용적맥파 신호를 퓨리에 변환(Fourier transform)을 이용하여 주파수 대역대로 변환한 때 Power 값을 의미한다. 또한, 는 심박 대역에 해당하는 0.8 내지 3Hz(약 50 내지 180bpm)에서 광용적맥파 신호의 최대 Power 값이고, 은 전체 주파수 대역에서 광용적맥파 신호의 Power 값들을 합한 값을 의미한다.From here, means the power value when the photoplethysmographic signal is converted to a frequency band using Fourier transform. also, is the maximum power value of the photoplethysmographic signal at 0.8 to 3 Hz (about 50 to 180 bpm) corresponding to the heart rate band, means the sum of the power values of the photoplethysmographic signal in the entire frequency band.

프로세서(220)는 수학식 1을 이용하여 산출한 SNR 값이 기 설정된 임계 값 이상인 광용적맥파 신호만을 추출할 수 있다. 여기에서, 기 설정된 임계 값은, 0.8일 수 있으나, 이에 한정되지 아니한다. 따라서, 프로세서(220)는 수학식 1을 이용하여 산출한 SNR 값이 0.8 이상인 광용적맥파 신호만을 추출할 수 있다.The processor 220 can extract only photoplethysmographic signals whose SNR value calculated using Equation 1 is equal to or greater than a preset threshold. Here, the preset threshold may be 0.8, but is not limited thereto. Therefore, the processor 220 can extract only photoplethysmographic signals whose SNR value calculated using Equation 1 is 0.8 or more.

또한, 프로세서(220)는 추출된 광용적맥파 신호의 경향성을 제거할 수 있다.Additionally, the processor 220 may remove the tendency of the extracted photoplethysmographic signal.

이하, 도 4를 참조하여, 프로세서(220)가 추출된 광용적맥파 신호의 경향성을 제거하는 일 예를 설명한다.Hereinafter, with reference to FIG. 4, an example in which the processor 220 removes the tendency of the extracted photoplethysmography signal will be described.

도 4는 일 실시예에 따른 프로세서(220)가 광용적맥파 신호의 경향성을 제거하는 일 예를 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating an example in which the processor 220 removes the tendency of a photoplethysmographic wave signal according to an embodiment.

도 4를 참조하면, 프로세서(220)는 추출된 광용적맥파 신호(410)를 경향성이 제거된 광용적맥파 신호(420)로 가공할 수 있다.Referring to FIG. 4, the processor 220 may process the extracted photoplethysmography signal 410 into a photoplethysmography signal 420 from which the tendency has been removed.

여기에서, 경향성 제거는, 시계열 데이터의 선형 추세를 제거하는 데이터 가공 방법의 하나일 수 있다. 경향성이 제거된 신호는 전체적인 변화가 감소하여, 해당 신호의 최대, 최소값을 정확하고 쉽게 찾을 수 있다. 또한, 도 4에 도시된 추출된 광용적맥파 신호(410) 및 경향성이 제거된 광용적맥파 신호(420) 그래프들의 가로축은 시간(초), 세로축은 진폭(밀리미터)를 의미할 수 있다.Here, trend removal may be one of the data processing methods that removes the linear trend of time series data. The overall change of a signal from which the trend has been removed is reduced, making it possible to accurately and easily find the maximum and minimum values of the signal. In addition, the horizontal axis of the graphs of the extracted photoplethysmographic signal 410 and the detrended photoplethysmographic signal 420 shown in FIG. 4 may represent time (seconds), and the vertical axis may represent amplitude (millimeter).

프로세서(220)는 추출된 광용적맥파 신호(410)의 경향성을 제거하기 위해, Detrending 연산을 이용할 수 있다. 프로세서(220)는 Detrending 연산을 이용하여 경향성이 제거된 광용적맥파 신호(420)를 정규화 시켜 평균이 0인 광용적맥파 신호를 생성한다. 따라서, 프로세서(220)는 정규화를 거친 광용적맥파 신호의 최대, 최소값을 정확하고 쉽게 찾을 수 있다.The processor 220 may use a detrending operation to remove the tendency of the extracted photoplethysmographic signal 410. The processor 220 normalizes the photoplethysmography signal 420 from which the trend has been removed using a detrending operation to generate a photoplethysmographic signal with an average of 0. Accordingly, the processor 220 can accurately and easily find the maximum and minimum values of the normalized photoplethysmographic signal.

또한, 프로세서(220)는 경향성이 제거된 광용적맥파 신호를 복수의 제1 서브 신호들로 분리할 수 있다.Additionally, the processor 220 may separate the photoplethysmography signal from which the tendency has been removed into a plurality of first sub-signals.

이하, 도 5를 참조하여, 프로세서(220)가 경향성이 제거된 광용적맥파 신호를 복수의 제1 서브 신호들로 분리하는 일 예를 설명한다.Hereinafter, with reference to FIG. 5 , an example in which the processor 220 separates the photoplethysmography signal from which the tendency has been removed into a plurality of first sub-signals will be described.

도 5는 일 실시예에 따른 프로세서(220)가 광용적맥파 신호를 복수의 제1 서브 신호들로 분리하는 일 예를 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating an example in which the processor 220 separates a photoplethysmographic wave signal into a plurality of first sub-signals according to an embodiment.

도 5를 참조하면, 프로세서(220)는 경향성이 제거된 광용적맥파 신호(510)를 제1 서브 신호(520)들로 분리할 수 있다.Referring to FIG. 5 , the processor 220 may separate the photoplethysmography signal 510 from which the tendency has been removed into first sub-signals 520 .

여기에서, 제1 서브 신호(520)는, 단일 주기 신호, 즉 하나의 주기를 갖는 신호를 의미한다. 또한, 도 5에 도시된 경향성이 제거된 광용적맥파 신호(510) 그래프의 가로축은 시간(초), 세로축은 진폭(밀리미터)를 의미하며, 제1 서브 신호(520) 그래프의 가로축은 샘플의 수(개), 세로축은 진폭(밀리미터)를 의미할 수 있다.Here, the first sub-signal 520 refers to a single period signal, that is, a signal with one period. In addition, the horizontal axis of the graph of the photoplethysmographic signal 510 from which the trend shown in FIG. 5 has been removed represents time (seconds), the vertical axis represents amplitude (millimeter), and the horizontal axis of the graph of the first sub-signal 520 represents the sample. The number (units) and the vertical axis may indicate amplitude (millimeter).

예를 들어, 프로세서(220)는 경향성이 제거되고, 정규화를 거친 광용적맥파 신호의 아래쪽에 존재하는 변곡점, 즉, 광용적맥파 신호의 피크(Peak) 값들을 검출하여 단일 주기 신호들로 분리한다. 다시 말해, 프로세서(220)는 경향성이 제거된 광용적맥파 신호(510)의 피크 값들을 검출하고, 인접한 두 개의 피크 값들 사이의 신호를 제1 서브 신호(520)로 분리한다.For example, the processor 220 detects the inflection points that exist below the normalized photoplethysmographic signal from which the tendency has been removed, that is, the peak values of the photoplethysmographic signal and separates them into single period signals. . In other words, the processor 220 detects peak values of the photoplethysmographic signal 510 from which the tendency has been removed, and separates the signal between two adjacent peak values into the first sub-signal 520.

여기에서, 프로세서(220)는 파라미터를 설정하여 피크 값들을 검출할 수 있다. 예를 들어, 프로세서(220)는 최소거리 및 최소값을 파라미터로 사용하여 피크 값들을 검출할 수 있다.Here, the processor 220 can set parameters and detect peak values. For example, the processor 220 may detect peak values using the minimum distance and minimum value as parameters.

프로세서(220)는 제1 서브 신호들을 보간하여 동일한 주기를 갖는 복수의 제2 서브 신호들을 생성할 수 있다.The processor 220 may generate a plurality of second sub-signals having the same period by interpolating the first sub-signals.

이하, 도 6을 참조하여, 프로세서(220)가 제1 서브 신호들을 보간하여 동일한 주기를 갖는 복수의 제2 서브 신호들을 생성하는 방법의 일 예를 설명한다.Hereinafter, with reference to FIG. 6, an example of a method in which the processor 220 interpolates first sub-signals to generate a plurality of second sub-signals having the same period will be described.

도 6은 일 실시예에 따른 프로세서(220)가 복수의 제1 서브 신호들을 보간하여 동일한 주기를 갖는 복수의 제2 서브 신호들을 생성하는 일 예를 설명하기 위한 도면이다.FIG. 6 is a diagram illustrating an example in which the processor 220 according to an embodiment generates a plurality of second sub-signals having the same period by interpolating a plurality of first sub-signals.

도 6을 참조하면, 프로세서(220)는 제1 서브 신호(620)들을 보간신호(630)들로 보간하여 제2 서브 신호(610)들을 생성할 수 있다.Referring to FIG. 6, the processor 220 may generate second sub-signals 610 by interpolating the first sub-signals 620 into interpolation signals 630.

여기에서, 도 6에 도시된 그래프의 상단 가로축은 제2 서브 신호(610)의 샘플 수(개), 하단 가로축은 제1 서브 신호(620)의 샘플 수(개), 세로축은 진폭(밀리미터)를 의미할 수 있다.Here, the upper horizontal axis of the graph shown in FIG. 6 is the number of samples of the second sub-signal 610, the lower horizontal axis is the number of samples of the first sub-signal 620, and the vertical axis is the amplitude (millimeter). It can mean.

사용자의 심박수는 각 심박마다 차이가 있으므로, 사용자의 광용적맥파 신호의 각 주기마다도 차이가 있다. 각 주기마다 차이가 있는 경우에는, 각 주기들의 동일한 지점에서 평균값을 구할 수 없으므로, 동일한 주기를 갖는 신호가 필요하다.Since the user's heart rate is different for each heartbeat, there is also a difference for each cycle of the user's photoplethysmographic signal. If there is a difference for each period, the average value cannot be obtained at the same point in each period, so a signal with the same period is needed.

따라서, 프로세서(220)는 보간법을 이용하여 동일한 길이의 신호, 즉, 동일한 주기의 제2 서브 신호(610)를 생성한다. 여기에서, 프로세서(220)는 2차 스플라인 보간법을 이용하여 제2 서브 신호(610)를 생성할 수 있다. 2차 스플라인 보간법은, 복수의 데이터 포인트들을 통해 곡선을 형성하는 보간법으로써, 각 데이터 포인트들 사이에서 보간되는 값들을 추정하는 방법이다. 다만, 프로세서(220)가 이용하는 보간법의 예는 이에 한정되지 아니한다.Accordingly, the processor 220 uses interpolation to generate a signal of the same length, that is, a second sub-signal 610 of the same period. Here, the processor 220 may generate the second sub-signal 610 using quadratic spline interpolation. Quadratic spline interpolation is an interpolation method that forms a curve through a plurality of data points and is a method of estimating values interpolated between each data point. However, examples of the interpolation method used by the processor 220 are not limited to this.

또한, 프로세서(220)는 적어도 둘 이상의 제2 서브 신호들을 이용하여 적어도 하나의 가공된 광용적맥파 신호를 생성할 수 있다.Additionally, the processor 220 may generate at least one processed photoplethysmography signal using at least two or more second sub-signals.

이하, 도 7을 참조하여, 프로세서(220)가 제2 서브 신호들을 이용하여 가공된 광용적맥파 신호를 생성하는 일 예를 설명한다.Hereinafter, with reference to FIG. 7 , an example in which the processor 220 generates a processed photoplethysmographic signal using the second sub-signals will be described.

도 7은 일 실시예에 따른 제2 서브 신호들을 이용하여 가공된 광용적맥파 신호를 생성하는 일 예를 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating an example of generating a processed photoplethysmographic signal using second sub-signals according to an embodiment.

도 7을 참조하면, 프로세서(220)는 복수의 제2 서브 신호(710)들을 이용하여 하나의 가공된 광용적맥파 신호(720)를 생성할 수 있다.Referring to FIG. 7 , the processor 220 may generate one processed photoplethysmography signal 720 using a plurality of second sub-signals 710.

여기에서, 도 7에 도시된 그래프의 가로축은 가공된 광용적맥파 신호(720)의 샘플 수(개), 세로축은 진폭(cm)을 의미할 수 있다.Here, the horizontal axis of the graph shown in FIG. 7 may indicate the number of samples of the processed photoplethysmography signal 720, and the vertical axis may indicate the amplitude (cm).

예를 들어, 프로세서(220)는 복수의 제2 서브 신호(710)들을 겹쳐 평균을 산출하여 하나의 가공된 광용적맥파 신호(720)를 생성할 수 있다. 여기에서, 프로세서(220)는 다섯 개의 제2 서브 신호(710)들을 겹쳐 하나의 가공된 광용적맥파 신호(720)를 생성할 수 있으나, 제2 서브 신호(710)들의 수는 이에 한정되지 아니한다.For example, the processor 220 may generate one processed photoplethysmography signal 720 by overlapping the plurality of second sub-signals 710 and calculating an average. Here, the processor 220 may generate one processed photoplethysmographic signal 720 by overlapping five second sub-signals 710, but the number of second sub-signals 710 is not limited thereto. .

예를 들어, 프로세서(220)는 앙상블 평균을 이용하여 복수의 제2 서브 신호(710)들의 평균을 산출할 수 있다. 여기에서, 앙상블 평균이란, 광용적맥파 신호의 시간 축을 고정시킨 상태에서 복수의 표본 평균을 산출하는 것을 의미한다. 또한, 프로세서(220)는 수학식 2를 이용하여 복수의 제2 서브 신호(710)들의 앙상블 평균을 산출할 수 있다. 수학식 2는 다음과 같다.For example, the processor 220 may calculate the average of the plurality of second sub-signals 710 using ensemble average. Here, the ensemble average means calculating a plurality of sample averages while fixing the time axis of the photoplethysmographic signal. Additionally, the processor 220 may calculate the ensemble average of the plurality of second sub-signals 710 using Equation 2. Equation 2 is as follows:

여기에서, 는 생성되는 가공된 광용적맥파 신호(720)를 의미하고, 은 겹쳐지는 제2 서브 신호(710)의 수를 의미하고, 는 제2 서브 신호(710)의 주기를 의미하고, 은 가공된 광용적맥파 신호(720)의 번째 샘플을 의미한다.From here, refers to the generated processed photoplethysmographic signal 720, means the number of overlapping second sub-signals 710, means the period of the second sub-signal 710, of the processed photoplethysmographic signal (720) refers to the second sample.

따라서, 프로세서(220)는 수학식 2를 이용하여 복수의 제2 서브 신호(710)들의 평균을 산출하고, 산출된 평균을 나타내는 하나의 가공된 광용적맥파 신호(720)를 생성할 수 있다.Accordingly, the processor 220 may calculate the average of the plurality of second sub-signals 710 using Equation 2 and generate one processed photoplethysmographic signal 720 representing the calculated average.

다시, 도 3을 참조하면, 단계 330에서 프로세서(220)는 딥러닝 모델의 입력 데이터로써 가공된 광용적맥파 신호를 입력하고, 출력 데이터로써 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하여 사용자를 인증할 수 있다.Referring again to FIG. 3, in step 330, the processor 220 inputs the processed photoplethysmographic signal as input data of the deep learning model, and inputs the processed photoplethysmographic signal and the pre-registered user's photoplethysmographic signal as output data. The user can be authenticated by calculating the similarity of the pulse wave signal.

예를 들어, 프로세서(220)는 유사도가 기 설정된 범위에 포함되는지 여부를 결정하고, 유사도가 기 설정된 범위에 포함되는 것으로 결정된 것에 응답하여 사용자를 인증할 수 있다.For example, the processor 220 may determine whether the similarity is within a preset range and authenticate the user in response to determining that the similarity is within the preset range.

여기에서, 딥러닝 모델은, 제1 모델 및 제2 모델을 포함할 수 있다. 예를 들어, 제1 모델은 가공된 광용적맥파 신호에서 제1 특징벡터를 추출할 수 있다. 예를 들어, 제2 모델은 제1 특징벡터와 제2 특징벡터의 차이를 계산하고, 차이를 나타내는 제3 특징벡터를 생성할 수 있다. 또한, 제2 모델은 제3 특징벡터를 이용하여 사용자의 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호 사이의 유사도를 산출할 수 있다. 여기에서, 제2 특징벡터는, 기 등록된 사용자의 광용적맥파 신호에서 추출한 특징벡터일 수 있다. 예를 들어, 프로세서(220)는 제1 특징벡터와 제2 특징벡터 간의 차이를 나타내는 제3 특징벡터를 생성하고, 제2 모델은 제3 특징벡터를 이용하여 사용자의 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호 사이의 유사도를 산출할 수 있다.Here, the deep learning model may include a first model and a second model. For example, the first model may extract the first feature vector from the processed photoplethysmographic signal. For example, the second model may calculate the difference between the first feature vector and the second feature vector and generate a third feature vector representing the difference. Additionally, the second model may calculate the similarity between the user's photoplethysmographic signal and the photoplethysmographic signal of a pre-registered user using the third feature vector. Here, the second feature vector may be a feature vector extracted from the photoplethysmography signal of a previously registered user. For example, the processor 220 generates a third feature vector indicating the difference between the first feature vector and the second feature vector, and the second model uses the third feature vector to register the user's photoplethysmography signal and the second model. The similarity between the user's photoplethysmographic signals can be calculated.

이하, 도 8을 참조하여, 프로세서(220)가 딥러닝 모델을 이용하여 사용자를 인증하는 방법의 일 예를 설명한다.Hereinafter, with reference to FIG. 8, an example of a method by which the processor 220 authenticates a user using a deep learning model will be described.

도 8은 일 실시예에 따른 딥러닝 모델을 이용하여 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하는 일 예를 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating an example of calculating the similarity between a photoplethysmographic wave signal processed using a deep learning model and a photoplethysmographic signal of a pre-registered user, according to an embodiment.

도 8을 참조하면, 프로세서(220)는 딥러닝 모델(820)의 입력 데이터로써 가공된 광용적맥파 신호(810)를 입력하고, 출력 데이터로써 유사도(830)를 획득한다.Referring to FIG. 8, the processor 220 inputs the processed photoplethysmographic signal 810 as input data of the deep learning model 820 and obtains the similarity 830 as output data.

먼저, 딥러닝 모델(820)은 제1 모델 및 제2 모델을 포함할 수 있다. 여기에서, 제1 모델 및 제2 모델은 각각 하나의 딥러닝 모델을 의미하는 것이 아니고, 하나의 딥러닝 모델(820)의 일부 구성 또는 일부 파트들로써 각각 상이한 동작을 할 수 있다. 예를 들어, 제1 모델은 수개의 1차원 컨볼루션 레이어를 쌓은 형태일 수 있으며, 제2 모델은 수개의 리니어 레이어를 쌓은 형태일 수 있다.First, the deep learning model 820 may include a first model and a second model. Here, the first model and the second model do not each mean one deep learning model, but may each perform different operations as partial components or parts of one deep learning model 820. For example, the first model may be a stack of several one-dimensional convolutional layers, and the second model may be a stack of several linear layers.

예를 들어, 제1 모델은 가공된 광용적맥파 신호에서 제1 특징벡터를 추출할 수 있다. 다시 말해, 프로세서(220)가 딥러닝 모델(820)의 입력 데이터로써 도 4 내지 도 7을 참조하여 상술한 가공된 광용적맥파 신호(810)를 입력하면, 제1 모델은 가공된 광용적맥파 신호(810)를 가공된 광용적맥파 신호(810)의 특징을 표현하는 제1 특징벡터를 생성할 수 있다.For example, the first model may extract the first feature vector from the processed photoplethysmographic signal. In other words, when the processor 220 inputs the processed photoplethysmographic signal 810 described above with reference to FIGS. 4 to 7 as input data of the deep learning model 820, the first model is the processed photoplethysmographic pulse wave. A first feature vector expressing the characteristics of the photoplethysmographic signal 810 processed from the signal 810 may be generated.

예를 들어, 제2 모델은 제1 특징벡터와 제2 특징벡터의 차이를 계산할 수 있다. 여기에서, 제2 특징벡터는 기 등록된 사용자의 광용적맥파 신호에서 추출한 특징벡터일 수 있으며, 제2 모델에 기 저장된 특징벡터일 수 있다.For example, the second model may calculate the difference between the first feature vector and the second feature vector. Here, the second feature vector may be a feature vector extracted from the photoplethysmographic signal of a pre-registered user, or may be a feature vector previously stored in the second model.

일 예로서, 제2 모델은 제1 특징벡터와 제2 특징벡터의 차이를 나타내는 제3 특징벡터를 생성할 수 있으며, 제3 특징벡터를 이용하여 사용자의 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호 사이의 유사도를 산출할 수 있다. 다른 예로서, 프로세서(220)가 제1 특징벡터와 제2 특징벡터 간의 차이를 나타내는 제3 특징벡터를 생성하고, 제2 모델은 제3 특징벡터를 이용하여 사용자의 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호 사이의 유사도를 산출할 수 있다. 여기에서, 제2 모델은 소정의 함수를 이용하여 유사도(830)를 0 내지 1 사이의 값으로 출력할 수 있다.As an example, the second model may generate a third feature vector representing the difference between the first feature vector and the second feature vector, and use the third feature vector to match the user's photoplethysmography signal and the previously registered user's photoplethysmographic signal. Similarity between photoplethysmographic signals can be calculated. As another example, the processor 220 generates a third feature vector indicating the difference between the first feature vector and the second feature vector, and the second model is previously registered with the user's photoplethysmographic signal using the third feature vector. The similarity between the user's photoplethysmographic signals can be calculated. Here, the second model can output the similarity 830 as a value between 0 and 1 using a predetermined function.

예를 들어, 프로세서(220)는 출력된 유사도(830)가 기 설정된 범위에 포함되는지 여부를 결정하고, 출력된 유사도(830)가 기 설정된 범위에 포함되는 것으로 결정된 것에 응답하여 사용자를 인증할 수 있다. 여기에서, 기 설정된 범위는, 0.7 내지 1 사이의 범위를 의미할 수 있으나, 이에 한정되지 아니한다.For example, the processor 220 may determine whether the output similarity 830 is within a preset range and authenticate the user in response to determining that the output similarity 830 is within the preset range. there is. Here, the preset range may mean a range between 0.7 and 1, but is not limited thereto.

예를 들어, 딥러닝 모델은 학습 데이터로써, 갱신되는 인증된 사용자의 제1 특징벡터를 이용하여 재학습될 수 있다. 다시 말해, 딥러닝 모델은 프로세서(220)가 사용자를 인증한 근거가 된 제1 특징벡터를 학습 데이터로 갱신하여 재학습될 수 있다.For example, a deep learning model can be retrained using the updated first feature vector of an authenticated user as training data. In other words, the deep learning model can be retrained by updating the first feature vector on which the processor 220 authenticated the user with learning data.

예를 들어, 제2 특징벡터는 인증된 사용자의 제1 특징벡터에 기초하여 갱신될 수 있다. 다시 말해, 프로세서(220)는 사용자를 인증한 근거가 된 제1 특징벡터를 이후의 사용자 인증 과정에서 제2 특징벡터로 이용할 수 있다.For example, the second feature vector may be updated based on the first feature vector of the authenticated user. In other words, the processor 220 can use the first feature vector that served as the basis for authenticating the user as the second feature vector in the subsequent user authentication process.

일 예시로, 제2 모델은 웨어러블 디바이스가 계속적으로 수신하는 광용적맥파 신호로부터 추출된 제1 특징벡터와 갱신된 제2 특징벡터의 차이를 계산하고, 차이를 나타내는 제3 특징벡터를 생성할 수 있다. 다시 말해, 프로세서(220)는 사용자의 인증 요청이 없는 경우에도, 계속적으로 사용자의 광용적맥파 신호를 추출하여 제1 특징벡터 및 제3 특징벡터를 생성함으로써 사용자 인증 과정을 인증된 사용자에게 최적화할 수 있다.As an example, the second model may calculate the difference between the first feature vector extracted from the photoplethysmographic signal continuously received by the wearable device and the updated second feature vector, and generate a third feature vector representing the difference. there is. In other words, even when there is no user authentication request, the processor 220 continuously extracts the user's photoplethysmographic signal and generates the first feature vector and the third feature vector to optimize the user authentication process for the authenticated user. You can.

다른 예시로, 프로세서(220)는 웨어러블 디바이스가 계속적으로 수신하는 광용적맥파 신호로부터 추출된 제1 특징벡터와 갱신된 제2 특징벡터의 차이를 나타내는 제3 특징벡터를 생성하고, 제2 모델은 제3 특징벡터를 이용하여 사용자 인증 과정을 인증된 사용자에게 최적화할 수 있다.As another example, the processor 220 generates a third feature vector representing the difference between the first feature vector extracted from the photoplethysmographic signal continuously received by the wearable device and the updated second feature vector, and the second model is The user authentication process can be optimized for authenticated users by using the third feature vector.

상술한 바에 따르면, 본 발명은 접촉식 장치를 이용하지 않고도 웨어러블 디바이스의 사용자를 인증할 수 있다. According to the above description, the present invention can authenticate a user of a wearable device without using a contact device.

또한, 본 발명은, 계속적으로 광용적맥파를 추출하여 최신화함으로써 인증된 사용자에게 최적화된 사용자 인증 과정을 제공할 수 있다.Additionally, the present invention can provide an optimized user authentication process to authenticated users by continuously extracting and updating photoplethysmography.

한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. Additionally, the data structure used in the above-described method can be recorded on a computer-readable recording medium through various means. The computer-readable recording media includes storage media such as magnetic storage media (e.g., ROM, RAM, USB, floppy disk, hard disk, etc.) and optical read media (e.g., CD-ROM, DVD, etc.) do.

본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 하며, 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점을 포함하는 것으로 해석되어야 할 것이다.Those skilled in the art related to the present embodiment will understand that the above-described substrate can be implemented in a modified form without departing from the essential characteristics. Therefore, the disclosed methods should be considered from an explanatory rather than a limiting perspective, and the scope of rights is indicated in the claims, not the foregoing description, and should be interpreted to include all differences within the equivalent scope.

110: 사용자
120: 웨어러블 디바이스
130: 광용적맥파 신호
110: user
120: Wearable device
130: Photoplethysmographic signal

Claims (7)

웨어러블 디바이스의 사용자를 인증하는 방법에 있어서,
상기 사용자의 광용적맥파 신호(PPG signal)를 이용하여 상기 사용자의 상기 웨어러블 디바이스 착용 여부를 결정하는 단계;
상기 사용자가 상기 웨어러블 디바이스를 착용중인 것으로 결정된 것에 응답하여 상기 광용적맥파 신호를 가공함으로써 가공된 광용적맥파 신호를 생성하는 단계; 및
딥러닝 모델의 입력 데이터로써 상기 가공된 광용적맥파 신호를 입력하고, 출력 데이터로써 상기 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하여 상기 사용자를 인증하는 단계;를 포함하고,
상기 딥러닝 모델은 제1 모델 및 제2 모델을 포함하고,
상기 제1 모델은 상기 가공된 광용적맥파 신호에서 제1 특징벡터를 추출하고,
상기 제2 모델은 상기 제1 특징벡터와 상기 기 등록된 사용자의 광용적맥파 신호에서 추출한 제2 특징벡터 간의 차이를 계산하고, 상기 차이를 나타내는 제3 특징벡터를 생성하며, 상기 제3 특징벡터를 이용하여 상기 유사도를 산출하는, 방법.
In a method for authenticating a user of a wearable device,
determining whether the user is wearing the wearable device using the user's photoplethysmographic signal (PPG signal);
generating a processed photoplethysmographic signal by processing the photoplethysmographic signal in response to determining that the user is wearing the wearable device; and
Inputting the processed photoplethysmographic signal as input data of a deep learning model, and calculating a similarity between the processed photoplethysmographic signal and the photoplethysmographic signal of a pre-registered user as output data to authenticate the user; Including,
The deep learning model includes a first model and a second model,
The first model extracts a first feature vector from the processed photoplethysmographic signal,
The second model calculates a difference between the first feature vector and a second feature vector extracted from the photoplethysmographic signal of the registered user, generates a third feature vector representing the difference, and the third feature vector A method of calculating the similarity using .
제1항에 있어서,
상기 가공된 광용적맥파 신호를 생성하는 단계는,
상기 광용적맥파 신호의 SNR(Signal to Noise Ratio) 값을 산출하고, 상기 SNR 값이 기 설정된 임계 값 이상인 상기 광용적맥파 신호를 추출하는 단계;
상기 추출된 광용적맥파 신호의 경향성을 제거하는 단계;
상기 경향성이 제거된 광용적맥파 신호를 복수의 제1 서브 신호들로 분리하는 단계;
상기 제1 서브 신호들을 보간하여 동일한 주기를 갖는 복수의 제2 서브 신호들을 생성하는 단계; 및
적어도 둘 이상의 상기 제2 서브 신호들을 이용하여 적어도 하나의 상기 가공된 광용적맥파 신호를 생성하는 단계;
를 포함하는, 방법.
According to paragraph 1,
The step of generating the processed photoplethysmographic signal is,
Calculating a signal to noise ratio (SNR) value of the photoplethysmographic signal and extracting the photoplethysmographic signal whose SNR value is equal to or greater than a preset threshold;
removing the tendency of the extracted photoplethysmographic signal;
separating the photoplethysmographic signal from which the tendency has been removed into a plurality of first sub-signals;
generating a plurality of second sub-signals having the same period by interpolating the first sub-signals; and
generating at least one of the processed photoplethysmographic signals using at least two of the second sub-signals;
Method, including.
제1항에 있어서,
상기 인증하는 단계는,
상기 유사도가 기 설정된 범위에 포함되는지 여부를 결정하고, 상기 유사도가 상기 기 설정된 범위에 포함되는 것으로 결정된 것에 응답하여 상기 사용자를 인증하는 단계;
를 포함하는, 방법.
According to paragraph 1,
The authentication step is,
determining whether the similarity is within a preset range and authenticating the user in response to determining that the similarity is within the preset range;
Method, including.
제1항에 있어서,
상기 딥러닝 모델은 학습 데이터로써, 갱신되는 상기 인증된 사용자의 상기 제1 특징벡터를 이용하여 재학습되는, 방법.
According to paragraph 1,
The method wherein the deep learning model is retrained using the updated first feature vector of the authenticated user as learning data.
제1항에 있어서,
상기 제2 특징벡터는 상기 인증된 사용자의 상기 제1 특징벡터에 기초하여 갱신되고,
상기 제2 모델은,
상기 웨어러블 디바이스가 계속적으로 수신하는 광용적맥파 신호로부터 추출된 제1 특징벡터와 상기 갱신된 제2 특징벡터의 차이를 계산하고, 상기 차이를 나타내는 제3 특징벡터를 생성하는, 방법.
According to paragraph 1,
The second feature vector is updated based on the first feature vector of the authenticated user,
The second model is,
A method for calculating a difference between a first feature vector extracted from a photoplethysmographic signal continuously received by the wearable device and the updated second feature vector, and generating a third feature vector representing the difference.
웨어러블 디바이스의 사용자를 인증하는 장치에 있어서,
적어도 하나의 프로그램이 저장된 메모리; 및
상기 적어도 하나의 프로그램을 실행하는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
상기 사용자의 광용적맥파 신호(PPG signal)를 이용하여 상기 사용자의 상기 웨어러블 디바이스 착용 여부를 결정하고,
상기 사용자가 상기 웨어러블 디바이스를 착용중인 것으로 결정된 것에 응답하여, 상기 광용적맥파 신호를 가공함으로써 가공된 광용적맥파 신호를 생성하며,
딥러닝 모델의 입력 데이터로써 상기 가공된 광용적맥파 신호를 입력하고, 출력 데이터로써 상기 가공된 광용적맥파 신호와 기 등록된 사용자의 광용적맥파 신호의 유사도를 산출하여 상기 사용자를 인증하고,
상기 딥러닝 모델은 제1 모델 및 제2 모델을 포함하고,
상기 제1 모델은 상기 가공된 광용적맥파 신호에서 제1 특징벡터를 추출하고,
상기 제2 모델은 상기 제1 특징벡터와 상기 기 등록된 사용자의 광용적맥파 신호에서 추출한 제2 특징벡터 간의 차이를 계산하고, 상기 차이를 나타내는 제3 특징벡터를 생성하며, 상기 제3 특징벡터를 이용하여 상기 유사도를 산출하는, 장치.
In a device for authenticating a user of a wearable device,
a memory in which at least one program is stored; and
At least one processor executing the at least one program,
The at least one processor,
Determine whether the user is wearing the wearable device using the user's photoplethysmographic signal (PPG signal),
In response to determining that the user is wearing the wearable device, generating a processed photoplethysmography signal by processing the photoplethysmographic signal,
Inputting the processed photoplethysmographic signal as input data of a deep learning model, and calculating the similarity between the processed photoplethysmographic signal and the photoplethysmographic signal of a pre-registered user as output data to authenticate the user;
The deep learning model includes a first model and a second model,
The first model extracts a first feature vector from the processed photoplethysmographic signal,
The second model calculates a difference between the first feature vector and a second feature vector extracted from the photoplethysmographic signal of the registered user, generates a third feature vector representing the difference, and the third feature vector A device for calculating the similarity using .
제1항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program for executing the method of claim 1 on a computer.
KR1020230091865A 2023-05-16 2023-07-14 Method and apparatus for authenticating user of wearable device KR102641806B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020230062953 2023-05-16
KR20230062953 2023-05-16

Publications (1)

Publication Number Publication Date
KR102641806B1 true KR102641806B1 (en) 2024-02-28

Family

ID=90052806

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230091865A KR102641806B1 (en) 2023-05-16 2023-07-14 Method and apparatus for authenticating user of wearable device

Country Status (1)

Country Link
KR (1) KR102641806B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190107616A (en) * 2019-08-30 2019-09-20 엘지전자 주식회사 Artificial intelligence apparatus and method for generating named entity table
KR20220107725A (en) * 2021-01-26 2022-08-02 (주)이플마인드 Wearable device, control method and computer program that perform control in consideration of whether the device is worn or not

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190107616A (en) * 2019-08-30 2019-09-20 엘지전자 주식회사 Artificial intelligence apparatus and method for generating named entity table
KR20220107725A (en) * 2021-01-26 2022-08-02 (주)이플마인드 Wearable device, control method and computer program that perform control in consideration of whether the device is worn or not

Similar Documents

Publication Publication Date Title
US9946942B2 (en) Method, apparatus and system for biometric identification
Bidgoly et al. A survey on methods and challenges in EEG based authentication
US10646168B2 (en) Drowsiness onset detection
EP3171248B1 (en) Gesture recognition method, apparatus and wearable device
EP3189779A2 (en) Electrocardiogram (ecg) authentication method and apparatus
JP6608824B2 (en) System and method for determining sleep stage based on sleep cycle
EP2983109A2 (en) User authentication method and apparatus based on fingerprint and electrocardiogram (ECG) signal
US9613197B2 (en) Biometric user authentication system and a method therefor
CN107028603B (en) Apparatus and method for detecting diabetes in a human body using pulse palpation signals
JP2012212362A (en) Information processing apparatus, information processing method, and program
Islam et al. HBS: a novel biometric feature based on heartbeat morphology
Tabei et al. A novel personalized motion and noise artifact (MNA) detection method for smartphone photoplethysmograph (PPG) signals
US9672339B2 (en) Electro-biometric authentication
KR20180082948A (en) Method and apparatus for authenticating a user using an electrocardiogram signal
Hasan et al. Gait recognition with wearable sensors using modified residual block-based lightweight cnn
KR102641806B1 (en) Method and apparatus for authenticating user of wearable device
Zhang et al. Artificial intelligence in physiological characteristics recognition for internet of things authentication
WO2018112799A1 (en) Visual evoked potential-based identity verification method and device
Mesin et al. A low cost ECG biometry system based on an ensemble of support vector machine classifiers
US11266346B2 (en) Method and apparatus for determining sleep state using biometric information and motion information
KR102547612B1 (en) A method for generating heart rate variability inforamtion related to an external object using a plurality filters and an electronic device thereof
Li et al. Hiding Your Signals: A Security Analysis of PPG-based Biometric Authentication
Progonov et al. Heartbeat-based authentication on smartwatches in various usage contexts
Bui et al. A biometric modality based on the seismocardiogram (SCG)
Karimian How to attack PPG biometric using adversarial machine learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant