KR20240054466A - Method of certifying identity using face video and apparatus using the same - Google Patents

Method of certifying identity using face video and apparatus using the same Download PDF

Info

Publication number
KR20240054466A
KR20240054466A KR1020220134295A KR20220134295A KR20240054466A KR 20240054466 A KR20240054466 A KR 20240054466A KR 1020220134295 A KR1020220134295 A KR 1020220134295A KR 20220134295 A KR20220134295 A KR 20220134295A KR 20240054466 A KR20240054466 A KR 20240054466A
Authority
KR
South Korea
Prior art keywords
user
identity
user device
identity authentication
interface
Prior art date
Application number
KR1020220134295A
Other languages
Korean (ko)
Inventor
박대희
Original Assignee
(주)플렉시스
박대희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)플렉시스, 박대희 filed Critical (주)플렉시스
Priority to KR1020220134295A priority Critical patent/KR20240054466A/en
Publication of KR20240054466A publication Critical patent/KR20240054466A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은, 얼굴 영상을 사용하는 신원 인증을 위한 사용자 인터페이스 제공 방법으로서, 상기 방법은, 프로세서에 의해 구현되는 얼굴 영상을 사용하는 신원 인증 방법으로, 사용자의 신원 인증 요청을 유저 기기로부터 수신하는 단계, 상기 사용자의 신원 인증 요청에 응답하여, 상기 유저 기기로부터 상기 사용자의 영상을 수신하는 단계, 상기 수신된 영상의 얼굴 근육을 기반으로 상기 사용자의 신원을 판별하는 단계, 판별된 상기 사용자의 신원을 상기 유저 기기에 제공하는 단계를 포함하도록 구성된다.The present invention is a method of providing a user interface for identity authentication using a face image, the method comprising: receiving a user's identity authentication request from a user device; , in response to a request for identity authentication of the user, receiving an image of the user from the user device, determining the identity of the user based on the facial muscles of the received image, and determining the identified identity of the user. It is configured to include the step of providing to the user device.

Description

얼굴 영상을 사용하는 신원 인증 방법 및 이를 이용한 장치{METHOD OF CERTIFYING IDENTITY USING FACE VIDEO AND APPARATUS USING THE SAME}Identity authentication method using face image and device using same {METHOD OF CERTIFYING IDENTITY USING FACE VIDEO AND APPARATUS USING THE SAME}

본 발명은 얼굴 영상을 사용하는 신원 인증 방법 및 이를 이용한 장치에 관한 것이다. The present invention relates to an identity authentication method using a face image and a device using the same.

신원 인증의 방법에는 비밀번호, 패턴, 지문인식, 얼굴인식, 음성인식 등이 존재한다. 이때, 얼굴 인식의 경우 변경이 불가능하고 비밀번호 및 패턴 노출과 같은 해킹 위험도가 적어 은행이나 결재 인증 등 금융 거래에서 사용되고 있다.Identity authentication methods include passwords, patterns, fingerprint recognition, face recognition, and voice recognition. At this time, in the case of face recognition, it cannot be changed and the risk of hacking such as password and pattern exposure is low, so it is used in financial transactions such as banking and payment authentication.

하지만, 최근 등장하는 딥페이크와 같이 다른 사용자의 얼굴을 흉내내는 기술로 인해 단순 얼굴 인식의 방식 인증으로는 보안의 안전성에 문제가 제기되고 있다.However, due to the recent emergence of technologies that imitate other users' faces, such as deepfake, problems are being raised about the security of simple facial recognition authentication.

발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The technology behind the invention has been written to facilitate easier understanding of the invention. It should not be understood as an admission that matters described in the technology underlying the invention exist as prior art.

기술의 발전으로 인한 얼굴 인식의 보안 안정성이 떨어지는 문제가 있다.There is a problem with the security stability of facial recognition being reduced due to technological advancements.

이에, 사용자가 비밀번호를 말할 때 입술 근처의 근육 움직임을 감지하여 사용자를 판별하는 방법이 요구된다.Accordingly, a method is required to identify the user by detecting muscle movement near the lips when the user says the password.

그 결과, 본 발명의 발명자들은, 사용자가 말할 때 근육의 움직임을 기반으로 얼굴 영상을 사용하는 신원 인증 방법 및 이를 이용한 장치를 개발하고자 하였다.As a result, the inventors of the present invention sought to develop an identity authentication method and a device using the same using facial images based on muscle movements when the user speaks.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법이 제공된다. 상기 방법은, 사용자의 신원 인증 요청을 유저 기기로부터 수신하는 단계; 상기 사용자의 신원 인증 요청에 응답하여, 상기 유저 기기로부터 상기 사용자의 영상을 수신하는 단계; 상기 수신된 영상의 얼굴 근육을 기반으로 상기 사용자의 신원을 판별하는 단계; 판별된 상기 사용자의 신원을 상기 유저 기기에 제공하는 단계;를 포함하도록 구성된다. In order to solve the problems described above, a method for providing a user interface according to an embodiment of the present invention is provided. The method includes receiving a user's identity authentication request from a user device; In response to the user's identity authentication request, receiving the user's image from the user device; determining the user's identity based on facial muscles in the received image; It is configured to include; providing the determined identity of the user to the user device.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

본 발명은 사람이 발음할 때 움직이는 근육들의 변화를 판별 기준으로 하여 얼굴 인식의 정확성과 보안강도를 높일 수 있다.The present invention can increase the accuracy and security of face recognition by using changes in muscles that move when a person pronounces pronunciation as a criterion.

또한, 본 발명은 사용자가 발음을 할 때 얼굴의 모든 근육 부위의 변화를 처리하지 않고 변화값이 높은 부위만 사용하여 처리 속도를 높일 수 있다. Additionally, the present invention can increase processing speed by using only the areas with high change values instead of processing changes in all muscle areas of the face when the user pronounces pronunciation.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.The effects according to the present invention are not limited to the details exemplified above, and further various effects are included within the present invention.

도 1은 본 발명의 실시예에 따른 얼굴 영상을 사용하는 신원 인증 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 디바이스의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 서버의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 얼굴 영상을 사용하는 신원 인증 서버의 순서도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 사용자 신원 인증을 위한 사용자 인터페이스 제공 방법의 예시도이다.
1 is a schematic diagram of an identity authentication system using a face image according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of a user device according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of a user interface providing server according to an embodiment of the present invention.
Figure 4 is a flowchart of an identity authentication server using a face image according to an embodiment of the present invention.
5 and 6 are exemplary diagrams of a method of providing a user interface for user identity authentication according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. The present embodiments only serve to ensure that the disclosure of the present invention is complete and are within the scope of common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, similar reference numbers may be used for similar components.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, a first component may be renamed a second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed to the first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것 만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression “configured to” depends on the situation, for example, “suitable for,” “having the capacity to.” ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware. Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as generally understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or fully combined or combined with each other, and as can be fully understood by those skilled in the art, various technical interconnections and operations are possible, and each embodiment may be implemented independently of each other. It may be possible to conduct them together due to a related relationship.

본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of this specification, terms used in this specification will be defined below.

도 1은 본 발명의 실시예에 따른 얼굴 영상을 사용하는 신원 인증 시스템의 개략도이다.1 is a schematic diagram of an identity authentication system using a face image according to an embodiment of the present invention.

도 1을 참조하면, 사용자 신원 인증 시스템(1000)은 유저 기기(100) 및 사용자 인터페이스 제공 서버(200)(이하, 사용자 신원 인증 서버(200))를 포함한다. Referring to FIG. 1, the user identity authentication system 1000 includes a user device 100 and a user interface providing server 200 (hereinafter, user identity authentication server 200).

사용자 신원 인증 시스템(1000)은 사용자에 대한 신원 인증 요청에 응답하여 사용자의 신원을 판별할 수 있도록 한다. 이때, 사용자 신원 인증 시스템(1000)은 사용자에 대한 영상을 수신할 수 있다. 구체적으로, 사용자 신원 인증 시스템(1000)의 사용자 신원 인증 서버(200)는 사용자가 소지한 유저 기기(200)로 사용자 영상 입력 인터페이스를 제공할 수 있으며, 유저 기기(200)로 사용자의 신원 판별 결과 제공 인터페이스를 제공할 수 있다. 여기서, 유저 기기(100)는 영상을 촬영 및 출력할 수 있는 전자 장치로서, 스마트폰, 태블릿 PC, PC, 노트북 등을 포함할 수 있다.The user identity authentication system 1000 is capable of determining the user's identity in response to an identity authentication request for the user. At this time, the user identity authentication system 1000 may receive an image of the user. Specifically, the user identity authentication server 200 of the user identity authentication system 1000 may provide a user image input interface to the user device 200 possessed by the user, and the user's identity determination result may be performed by the user device 200. A provision interface can be provided. Here, the user device 100 is an electronic device capable of capturing and outputting images, and may include a smartphone, tablet PC, PC, laptop, etc.

도 2는 본 발명의 일 실시예에 따른 사용자 디바이스의 구성을 나타낸 블록도이다.Figure 2 is a block diagram showing the configuration of a user device according to an embodiment of the present invention.

도 2를 참조하면, 사용자 디바이스(100)는 메모리 인터페이스(110), 하나 이상의 프로세서(120) 및 주변 인터페이스(130)를 포함할 수 있다. 사용자 디바이스(100) 내의 다양한 컴포넌트들은 하나 이상의 통신 버스 또는 신호 라인에 의해 연결될 수 있다.Referring to FIG. 2 , the user device 100 may include a memory interface 110, one or more processors 120, and a peripheral interface 130. Various components within user device 100 may be connected by one or more communication buses or signal lines.

메모리 인터페이스(110)는 메모리(150)에 연결되어 프로세서(120)로 다양한 데이터를 전할 수 있다. 여기서, 메모리(150)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory interface 110 is connected to the memory 150 and can transmit various data to the processor 120. Here, the memory 150 is a flash memory type, hard disk type, multimedia card micro type, card type memory (e.g. SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage, and cloud. , It may include at least one type of storage medium among the blockchain database.

다양한 실시예에서, 메모리(150)는 운영 체제(151), 통신 모듈(152), 그래픽 사용자 인터페이스 모듈(GUI)(153), 센서 처리 모듈(154), 전화 모듈(155) 및 애플리케이션 모듈(156) 중 적어도 하나 이상을 저장할 수 있다. 구체적으로, 운영 체제(151)는 기본 시스템 서비스를 처리하기 위한 명령어 및 하드웨어 작업들을 수행하기 위한 명령어를 포함할 수 있다. 통신 모듈(152)은 다른 하나 이상의 디바이스, 컴퓨터 및 서버 중 적어도 하나와 통신할 수 있다. 그래픽 사용자 인터페이스 모듈(GUI)(153)은 그래픽 사용자 인터페이스를 처리할 수 있다. 센서 처리 모듈(154)은 센서 관련 기능(예를 들어, 하나 이상의 마이크(192)를 이용하여 수신된 음성 입력을 처리함)을 처리할 수 있다. 전화 모듈(155)은 전화 관련 기능을 처리할 수 있다. 애플리케이션 모듈(156)은 사용자 애플리케이션의 다양한 기능들, 예컨대 전자 메시징, 웹 브라우징, 미디어 처리, 탐색, 이미징, 기타 프로세스 기능을 수행할 수 있다. 아울러, 사용자 디바이스(100)는 메모리(150)에 어느 한 종류의 서비스와 연관된 하나 이상의 소프트웨어 애플리케이션(156-1, 156-2)을 저장할 수 있다. 이때, 어플리케이션(156-1)은 유저 기기(100)에 판별된 사용자의 신원 결과를 제공할 수 있다. 여기서, 어플리케이션(156-1)은 사용자의 얼굴 영상의 근육을 기반으로 사용자의 신원을 판별할 수 있다.In various embodiments, memory 150 includes operating system 151, communications module 152, graphical user interface module (GUI) 153, sensor processing module 154, telephony module 155, and application module 156. ) can be stored. Specifically, the operating system 151 may include instructions for processing basic system services and instructions for performing hardware tasks. The communication module 152 may communicate with at least one of one or more other devices, computers, and servers. The graphical user interface module (GUI) 153 can process a graphical user interface. Sensor processing module 154 may process sensor-related functions (eg, processing voice input received using one or more microphones 192). The phone module 155 can process phone-related functions. Application module 156 may perform various functions of a user application, such as electronic messaging, web browsing, media processing, navigation, imaging, and other processing functions. In addition, the user device 100 may store one or more software applications 156-1 and 156-2 associated with one type of service in the memory 150. At this time, the application 156-1 may provide the user device 100 with the determined user's identity result. Here, the application 156-1 can determine the user's identity based on the muscles of the user's face image.

다양한 실시예에서, 메모리(150)는 디지털 어시스턴트 클라이언트 모듈(157)(이하, DA 클라이언트 모듈)을 저장할 수 있으며, 그에 따라 디지털 어시스턴트의 클라이언트 측의 기능을 수행하기 위한 명령어 및 다양한 사용자 데이터(158)(예. 사용자 맞춤형 어휘 데이터, 선호도 데이터, 사용자의 전자 주소록, 할 일 목록, 쇼핑 리스트 등과 같은 기타 데이터)를 저장할 수 있다. In various embodiments, memory 150 may store a digital assistant client module 157 (hereinafter referred to as DA client module), thereby storing various user data 158 and instructions for performing client-side functions of the digital assistant. (e.g. user-customized vocabulary data, preference data, and other data such as the user's electronic address book, to-do list, shopping list, etc.).

한편, DA 클라이언트 모듈(157)은 사용자 디바이스(100)에 구비된 다양한 사용자 인터페이스(예. I/O 서브시스템(140))를 통해 사용자의 음성 입력, 텍스트 입력, 터치 입력 및/또는 제스처 입력을 획득할 수 있다. Meanwhile, the DA client module 157 receives the user's voice input, text input, touch input, and/or gesture input through various user interfaces (e.g., I/O subsystem 140) provided in the user device 100. It can be obtained.

또한, DA 클라이언트 모듈(157)은 시청각적, 촉각적 형태의 데이터를 출력할 수 있다. 예를 들어, DA 클라이언트 모듈(157)은 음성, 소리, 알림, 텍스트 메시지, 메뉴, 그래픽, 비디오, 애니메이션 및 진동 중 적어도 둘 하나 이상의 조합으로 이루어진 데이터를 출력할 수 있다. 아울러, DA 클라이언트 모듈(157)은 통신 서브시스템(180)을 이용하여 디지털 어시스턴트 서버(미도시)와 통신할 수 있다.Additionally, the DA client module 157 can output data in audiovisual and tactile forms. For example, the DA client module 157 may output data consisting of a combination of at least two or more of voice, sound, notification, text message, menu, graphics, video, animation, and vibration. In addition, the DA client module 157 can communicate with a digital assistant server (not shown) using the communication subsystem 180.

다양한 실시예에서, DA 클라이언트 모듈(157)은 사용자 입력과 연관된 상황(context)을 구성하기 위하여 다양한 센서, 서브시스템 및 주변 디바이스로부터 사용자 디바이스(100)의 주변 환경에 대한 추가 정보를 수집할 수 있다. 예를 들어, DA 클라이언트 모듈(157)은 사용자 입력과 함께 상황 정보를 디지털 어시스턴트 서버에 제공하여 사용자의 의도를 추론할 수 있다. 여기서, 사용자 입력에 동반될 수 있는 상황 정보는 센서 정보, 예를 들어, 광(lighting), 주변 소음, 주변 온도, 주변 환경의 이미지, 비디오 등을 포함할 수 있다. 다른 예를 들어, 상황 정보는 사용자 디바이스(100)의 물리적 상태(예. 디바이스 배향, 디바이스 위치, 디바이스 온도, 전력 레벨, 속도, 가속도, 모션 패턴, 셀룰러 신호 강도 등)을 포함할 수 있다. 또 다른 예를 들어, 상황 정보는 사용자 디바이스(100)의 소프트웨어 상태에 관련된 정보(예. 사용자 디바이스(100)에서 실행 중인 프로세스, 설치된 프로그램, 과거 및 현재 네트워크 활동성, 백그라운드 서비스, 오류 로그, 리소스 사용 등)를 포함할 수 있다. In various embodiments, DA client module 157 may collect additional information about the surrounding environment of user device 100 from various sensors, subsystems, and peripheral devices to construct a context associated with user input. . For example, the DA client module 157 may infer the user's intention by providing context information along with user input to the digital assistant server. Here, context information that may accompany the user input may include sensor information, for example, lighting, ambient noise, ambient temperature, images of the surrounding environment, video, etc. As another example, the context information may include the physical state of the user device 100 (e.g., device orientation, device location, device temperature, power level, speed, acceleration, motion pattern, cellular signal strength, etc.). As another example, context information may include information related to the software status of the user device 100 (e.g., processes running on the user device 100, installed programs, past and present network activity, background services, error logs, resource usage). etc.) may be included.

다양한 실시예에서, 메모리(150)는 추가 또는 삭제된 명령어를 포함할 수 있으며, 나아가 사용자 디바이스(100)도 도 2에 도시된 구성 외에 추가 구성을 포함하거나, 일부 구성을 제외할 수도 있다. In various embodiments, the memory 150 may include added or deleted instructions, and further, the user device 100 may also include additional components other than those shown in FIG. 2 or exclude some components.

프로세서(120)는 사용자 디바이스(100)의 전반적인 동작을 제어할 수 있으며, 메모리(150)에 저장된 어플리케이션 또는 프로그램을 구동하여 미래 재무 상태 제공 인터페이스를 구현하기 위한 다양한 명령들을 수행할 수 있다. The processor 120 can control the overall operation of the user device 100 and execute various commands to implement an interface for providing future financial status by running an application or program stored in the memory 150.

프로세서(120)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(120)는 NPU(Neural Processing Unit)과 같은 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. The processor 120 may correspond to a computing device such as a Central Processing Unit (CPU) or an Application Processor (AP). Additionally, the processor 120 may be implemented in the form of an integrated chip (IC) such as a system on chip (SoC) in which various computing devices such as a neural processing unit (NPU) are integrated.

주변 인터페이스(130)는 다양한 센서, 서브 시스템 및 주변 디바이스와 연결되어, 사용자 디바이스(100)가 다양한 기능을 수행할 수 있도록 데이터를 제공해 줄 수 있다. 여기서, 사용자 디바이스(100)가 어떠한 기능을 수행한다는 것은 프로세서(120)에 의해 수행되는 것으로 이해될 수 있다. The peripheral interface 130 is connected to various sensors, subsystems, and peripheral devices and can provide data so that the user device 100 can perform various functions. Here, the user device 100 performing a certain function may be understood as being performed by the processor 120.

주변 인터페이스(130)는 모션 센서(160), 조명 센서(광 센서)(161) 및 근접 센서(162)로부터 데이터를 제공받을 수 있으며, 이를 통해, 사용자 디바이스(100)는 배향, 광, 및 근접 감지 기능 등을 수행할 수 있다. 다른 예를 들어, 주변 인터페이스(130)는 기타 센서들(163)(포지셔닝 시스템-GPS 수신기, 온도 센서, 생체인식 센서)로부터 데이터를 제공받을 수 있으며, 이를 통해 사용자 디바이스(100)가 기타 센서들(163)과 관련된 기능들을 수행할 수 있다.The peripheral interface 130 may receive data from the motion sensor 160, the light sensor (light sensor) 161, and the proximity sensor 162, through which the user device 100 can determine orientation, light, and proximity. It can perform detection functions, etc. For another example, the peripheral interface 130 may receive data from other sensors 163 (positioning system-GPS receiver, temperature sensor, biometric sensor), through which the user device 100 may use other sensors. Functions related to (163) can be performed.

다양한 실시예에서, 사용자 디바이스(100)는 주변 인터페이스(130)와 연결된 카메라 서브시스템(170) 및 이와 연결된 광학 센서(171)를 포함할 수 있으며, 이를 통해 사용자 디바이스(100)는 사진 촬영 및 비디오 클립 녹화 등의 다양한 촬영 기능을 수행할 수 있다. 이때, 사용자 디바이스(100)는 촬영된 비디오 클립을 사용자 신원 인증 서버(200)로 송신할 수 있다.In various embodiments, the user device 100 may include a camera subsystem 170 connected to the peripheral interface 130 and an optical sensor 171 connected thereto, through which the user device 100 can take photos and video. You can perform various shooting functions such as clip recording. At this time, the user device 100 may transmit the captured video clip to the user identity authentication server 200.

다양한 실시예에서, 사용자 디바이스(100)는 주변 인터페이스(130)와 연결된 통신 서브 시스템(180)을 포함할 수 있다. 통신 서브 시스템(180)은 하나 이상의 유/무선 네트워크로 구성되며, 다양한 통신 포트, 무선 주파수 송수신기, 광학 송수신기를 포함할 수 있다.In various embodiments, user device 100 may include a communication subsystem 180 coupled with a peripheral interface 130. The communication subsystem 180 consists of one or more wired/wireless networks and may include various communication ports, radio frequency transceivers, and optical transceivers.

다양한 실시예에서, 사용자 디바이스(100)는 주변 인터페이스(130)와 연결된 오디오 서브 시스템(190)을 포함하며, 이러한 오디오 서브 시스템(190)은 하나 이상의 스피커(191) 및 하나 이상의 마이크(192)를 포함함으로써, 사용자 디바이스(100)는 음성 작동형 기능, 예컨대 음성 인식, 음성 복제, 디지털 녹음, 및 전화 기능 등을 수행할 수 있다.In various embodiments, user device 100 includes an audio subsystem 190 coupled to a peripheral interface 130, which includes one or more speakers 191 and one or more microphones 192. By doing so, user device 100 can perform voice-activated functions, such as voice recognition, voice duplication, digital recording, and telephony functions.

다양한 실시예에서, 사용자 디바이스(100)는 주변 인터페이스(130)와 연결된 I/O 서브시스템(140)을 포함할 수 있다. 예를 들어, I/O 서브시스템(140)은 터치 스크린 제어기(141)를 통해 사용자 디바이스(100)에 포함된 터치 스크린(143)을 제어할 수 있다. 일 예로서, 터치 스크린 제어기(141)는 정전용량형, 저항형, 적외형, 표면 탄성파 기술, 근접 센서 어레이 등과 같은 복수의 터치 감지 기술 중 어느 하나의 기술을 사용하여 사용자의 접촉 및 움직임 또는 접촉 및 움직임의 중단을 검출할 수 있다. 다른 예를 들어, I/O 서브시스템(140)은 기타 입력 제어기(들)(142)를 통해 사용자 디바이스(100)에 포함된 기타 입력/제어 디바이스(144)를 제어할 수 있다. 일 예로서, 기타 입력 제어기(들)(142)은 하나 이상의 버튼, 로커 스위치(rocker switches), 썸 휠(thumb-wheel), 적외선 포트, USB 포트 및 스타일러스 등과 같은 포인터 디바이스를 제어할 수 있다.In various embodiments, user device 100 may include an I/O subsystem 140 coupled with a peripheral interface 130. For example, the I/O subsystem 140 may control the touch screen 143 included in the user device 100 through the touch screen controller 141. As an example, the touch screen controller 141 uses any one of a plurality of touch sensing technologies such as capacitive, resistive, infrared, surface acoustic wave technology, proximity sensor array, etc. to detect the user's touch and movement or contact. and cessation of movement can be detected. As another example, the I/O subsystem 140 may control other input/control devices 144 included in the user device 100 through other input controller(s) 142. As an example, other input controller(s) 142 may control one or more buttons, rocker switches, thumb-wheels, infrared ports, USB ports, and pointer devices such as a stylus.

도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 서버의 구성을 나타낸 블록도이다.Figure 3 is a block diagram showing the configuration of a user interface providing server according to an embodiment of the present invention.

도 3을 참조하면, 사용자 신원 인증 서버(200)는 통신 인터페이스(210), 메모리(220), I/O 인터페이스(230) 및 프로세서(240)를 포함할 수 있으며, 각 구성은 하나 이상의 통신 버스 또는 신호 라인을 통해 서로 통신할 수 있다.Referring to FIG. 3, the user identity authentication server 200 may include a communication interface 210, a memory 220, an I/O interface 230, and a processor 240, and each component may include one or more communication buses. Alternatively, they can communicate with each other through signal lines.

통신 인터페이스(210)는 유/무선 통신 네트워크를 통해 유저 기기(100)와 연결되어 데이터를 주고받을 수 있다. 예를 들어, 통신 인터페이스(210)는 유저 기기(100)로부터 사용자의 영상을 수신할 수 있다. 이때, 사용자의 영상은 사용자가 비밀번호를 발음하는 영상일 수 있다.The communication interface 210 can be connected to the user device 100 through a wired/wireless communication network to exchange data. For example, the communication interface 210 may receive the user's image from the user device 100. At this time, the user's video may be a video of the user pronouncing the password.

한편, 이러한 데이터의 송수신을 가능하게 하는 통신 인터페이스(210)는 통신 포드(211) 및 무선 회로(212)를 포함하며, 여기 유선 통신 포트(211)는 하나 이상의 유선 인터페이스, 예를 들어, 이더넷, 범용 직렬 버스(USB), 파이어와이어 등을 포함할 수 있다. 또한, 무선 회로(212)는 RF 신호 또는 광학 신호를 통해 외부 디바이스와 데이터를 송수신할 수 있다. 아울러, 무선 통신은 복수의 통신 표준, 프로토콜 및 기술, 예컨대 GSM, EDGE, CDMA, TDMA, 블루투스, Wi-Fi, VoIP, Wi-MAX, 또는 임의의 기타 적합한 통신 프로토콜 중 적어도 하나를 사용할 수 있다. Meanwhile, the communication interface 210 that enables transmission and reception of such data includes a communication pod 211 and a wireless circuit 212, where the wired communication port 211 is connected to one or more wired interfaces, for example, Ethernet, May include Universal Serial Bus (USB), Firewire, etc. Additionally, the wireless circuit 212 can transmit and receive data with an external device through RF signals or optical signals. Additionally, wireless communications may use at least one of a plurality of communication standards, protocols and technologies, such as GSM, EDGE, CDMA, TDMA, Bluetooth, Wi-Fi, VoIP, Wi-MAX, or any other suitable communication protocol.

메모리(220)는 사용자 신원 인증 서버(200)에서 사용되는 다양한 데이터가 저장될 수 있다. 예를 들어, 메모리(220)는 사용자가 인증을 등록할 때 비밀번호를 발음하는 영상을 포함한 사용자에 대한 데이터가 저장될 수 있다.The memory 220 may store various data used in the user identity authentication server 200. For example, the memory 220 may store data about the user, including an image of the user pronouncing the password when registering authentication.

다양한 실시예에서, 메모리(220)는 각종 데이터, 명령 및 정보를 저장할 수 있는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 예를 들어, 메모리(220)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.In various embodiments, memory 220 may include volatile or non-volatile recording media capable of storing various data, instructions, and information. For example, the memory 220 may be a flash memory type, hard disk type, multimedia card micro type, card type memory (e.g. SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage storage. , cloud, or blockchain database may include at least one type of storage medium.

다양한 실시예에서, 메모리(220)는 운영 체제(221), 통신 모듈(222), 사용자 인터페이스 모듈(223) 및 하나 이상의 애플리케이션(224) 중 적어도 하나의 구성을 저장할 수 있다. In various embodiments, memory 220 may store configuration of at least one of operating system 221, communication module 222, user interface module 223, and one or more applications 224.

운영 체제(221)(예. LINUX, UNIX, MAC OS, WINDOWS, VxWorks 등의 내장형 운영 체제)는 일반적인 시스템 작업(예. 메모리 관리, 저장 디바이스 제어, 전력 관리 등)를 제어하고 관리하기 위한 다양한 소프트웨어 컴포넌트 및 드라이버를 포함할 수 있으며, 다양한 하드웨어, 펌웨어, 및 소프트웨어 컴포넌트 간의 통신을 지원할 수 있다.Operating system 221 (e.g., embedded operating system such as LINUX, UNIX, MAC OS, WINDOWS, VxWorks, etc.) is a variety of software to control and manage common system tasks (e.g., memory management, storage device control, power management, etc.) It may contain components and drivers and may support communication between various hardware, firmware, and software components.

통신 모듈(223)은 통신 인터페이스(210)를 통해 다른 디바이스와 통신을 지원할 수 있다. 통신 모듈(220)은 통신 인터페이스(210)의 유선 통신 포트(211) 또는 무선 회로(212)에 의해 수신되는 데이터를 처리하기 위한 다양한 소프트웨어 구성 요소들을 포함할 수 있다.The communication module 223 may support communication with other devices through the communication interface 210. The communication module 220 may include various software components for processing data received by the wired communication port 211 or the wireless circuit 212 of the communication interface 210.

사용자 인터페이스 모듈(223)은 I/O 인터페이스(230)를 통해 키보드, 터치 스크린, 마이크 등으로부터 사용자의 요청 또는 입력을 수신하고, 디스플레이 상에 사용자 인터페이스를 제공할 수 있다.The user interface module 223 may receive a user's request or input from a keyboard, touch screen, microphone, etc. through the I/O interface 230 and provide a user interface on the display.

애플리케이션(224)은 하나 이상의 프로세서(240)에 의해 실행되도록 구성되는 프로그램 또는 모듈을 포함할 수 있다. 여기서, 추천 종목 제공을 제공하기 위한 애플리케이션은 서버 팜(server farm) 상에서 구현될 수 있다.Applications 224 may include programs or modules configured to be executed by one or more processors 240 . Here, an application for providing recommended items may be implemented on a server farm.

I/O 인터페이스(230)는 미래 재무 상태 제공 서버(200)의 입출력 디바이스(미도시), 예컨대 디스플레이, 키보드, 터치 스크린 및 마이크 중 적어도 하나를 사용자 인터페이스 모듈(223)과 연결할 수 있다. I/O 인터페이스(230)는 사용자 인터페이스 모듈(223)과 함께 사용자 입력(예. 음성 입력, 키보드 입력, 터치 입력 등)을 수신하고, 수신된 입력에 따른 명령을 처리할 수 있다. The I/O interface 230 may connect at least one of input/output devices (not shown) of the future financial status providing server 200, such as a display, keyboard, touch screen, and microphone, to the user interface module 223. The I/O interface 230 may receive user input (eg, voice input, keyboard input, touch input, etc.) together with the user interface module 223 and process commands according to the received input.

프로세서(240)는 통신 인터페이스(210), 메모리(220) 및 I/O 인터페이스(230)와 연결되어 미래 재무 상태 제공 서버(200)의 전반적인 동작을 제어할 수 있으며, 메모리(220)에 저장된 애플리케이션 또는 프로그램을 통해 추천 종목 제공을 위한 다양한 명령들을 수행할 수 있다. The processor 240 is connected to the communication interface 210, memory 220, and I/O interface 230 to control the overall operation of the future financial status providing server 200, and the application stored in the memory 220. Alternatively, various commands to provide recommended items can be executed through the program.

프로세서(240)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(240)는 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. 또는 프로세서(240)는 NPU(Neural Processing Unit)과 같이 인공 신경망 모델을 계산하기 위한 모듈을 포함할 수 있다.The processor 240 may correspond to a computing device such as a Central Processing Unit (CPU) or an Application Processor (AP). Additionally, the processor 240 may be implemented in the form of an integrated chip (IC) such as a system on chip (SoC) in which various computing devices are integrated. Alternatively, the processor 240 may include a module for calculating an artificial neural network model, such as a Neural Processing Unit (NPU).

다양한 실시예에서, 프로세서(240)는 유저 기기(100)에서 사용자에 대한 신원 인증 요청을 수신할 수 있다. 이때, 프로세서(240)는 메모리(220)로부터 해당 사용자가 신원 등록할 때 발음하는 영상을 포함한 사용자에 대한 데이터를 수신할 수 있다. In various embodiments, processor 240 may receive an identity authentication request for a user from user device 100 . At this time, the processor 240 may receive data about the user, including an image of the user's pronunciation when registering his or her identity, from the memory 220.

프로세서(240)는 유저 기기(100)에서 적어도 하나의 사용자가 비밀번호를 발음하는 영상을 수신할 수 있다. 이때, 사용자가 발음하는 비밀번호는 사용자가 신원 등록할 때 발음했던 비밀번호와 동일할 수 있다.The processor 240 may receive an image of at least one user pronouncing a password from the user device 100. At this time, the password pronounced by the user may be the same as the password pronounced when the user registered his/her identity.

프로세서(240)는 신원 등록할 때 발음하는 영상의 근육 움직임과 수신된 비밀번호를 발음하는 영상의 근육 움직임을 비교하여 사용자의 신원이 동일한 지 판별할 수 있다. The processor 240 may determine whether the user's identity is the same by comparing the muscle movements of the image of the user pronouncing the user's identity when registering the user's identity with the muscle movements of the image of the person pronouncing the received password.

더욱 자세하게는, 프로세서(240)는 각 영상에 대해 얼굴의 근육별 랜드마크를 도출할 수 있다. 이때, 프로세서(240)는 근육의 특성을 고려하여 랜드마크를 도출할 수 있다. 여기서, 프로세서(240)는 복수의 랜드마크 사이의 거리 변화량을 판단할 수 있다. 이때, 프로세서(240)는 랜드마크 사이의 거리 변화량이 큰 곳의 움직임만 한정하여 사용할 수 있다. 예를 들어, 프로세서(240)는 영상에서 사용자가 발음할 때 움직임이 큰 입술 끝과 광대에 걸처있는 소관골근의 움직임만 한정하여 사용하고, 발음할 때 움직임이 적은 코 끝과 턱 관절에 위치한 교근의 움직임은 제외할 수 있다. 또한 프로세서(240)는 얼굴 좌우 대칭을 고려하여 한쪽 얼굴 면의 랜드마크의 움직임만 한정하여 사용할 수 있다.In more detail, the processor 240 can derive landmarks for each muscle of the face for each image. At this time, the processor 240 may derive a landmark by considering the characteristics of the muscle. Here, the processor 240 may determine the amount of change in distance between a plurality of landmarks. At this time, the processor 240 can only use movements limited to areas where the amount of change in distance between landmarks is large. For example, the processor 240 uses only the movements of the small zygomaticus muscle located across the lip and cheekbones, which move greatly when the user pronounces in the image, and the masseter muscle located at the tip of the nose and the jaw joint, which moves less during pronunciation. movements can be excluded. Additionally, the processor 240 can use only the movement of landmarks on one side of the face in consideration of facial symmetry.

여기서, 프로세서(240)는 신원 등록할 때 비밀번호를 발음하는 영상의 시간대비 변화량과 신원 인증을 요구할 때 비밀번호를 발음하는 영상의 시간대비 변화량을 분석하여 등록된 신원과 동일한 신원인지 판별할 수 있다.Here, the processor 240 can determine whether the identity is the same as the registered identity by analyzing the amount of change compared to time in the video pronouncing the password when registering the identity and the amount of change compared to time in the video pronouncing the password when requesting identity authentication.

프로세서(240)는 판별된 사용자의 신원 결과를 유저 기기(100)로 제공할 수 있다.The processor 240 may provide the determined user's identity result to the user device 100.

지금까지 본 발명의 일 실시예에 따른 미래 재무 상태 제공 서버(200)의 구성에 대하여 설명하였다. 이하에서는 상술한 미래 재무 상태 제공 서버(200)를 통해 미래 재무 상태 제공을 위한 사용자 인터페이스 제공 방법에 대하여 설명하도록 한다.So far, the configuration of the future financial status providing server 200 according to an embodiment of the present invention has been described. Hereinafter, a method of providing a user interface for providing future financial status through the future financial status providing server 200 described above will be described.

도 4는 본 발명의 실시예에 따른 사용자 신원 인증을 위한 사용자 인터페이스 제공 방법의 순서도이고, 도 5 및 도 6은 본 발명의 실시예에 따른 사용자 신원 인증을 위한 사용자 인터페이스 제공 방법의 예시도이다.Figure 4 is a flow chart of a method of providing a user interface for user identity authentication according to an embodiment of the present invention, and Figures 5 and 6 are exemplary diagrams of a method of providing a user interface for user identity authentication according to an embodiment of the present invention.

도 4를 참조하면, 사용자 신원 인증 서버(200)는 유저 기기(100)에서 사용자에 대한 신원 인증 요청을 수신할 수 있다. 이때, 미래 재무 상태 제공 서버(200)는 메모리(220)로부터 해당 사용자가 신원 등록할 때 발음하는 영상을 포함한 사용자에 대한 데이터를 수신할 수 있다. Referring to FIG. 4, the user identity authentication server 200 may receive an identity authentication request for the user from the user device 100. At this time, the future financial status providing server 200 may receive data about the user, including an image of the user's pronunciation when registering his or her identity, from the memory 220.

미래 재무 상태 제공 서버(200)는 유저 기기(100)에서 적어도 하나의 사용자가 비밀번호를 발음하는 영상을 수신할 수 있다. 이때, 사용자가 발음하는 비밀번호는 사용자가 신원 등록할 때 발음했던 비밀번호와 동일할 수 있다.The future financial status providing server 200 may receive an image of at least one user pronouncing a password from the user device 100 . At this time, the password pronounced by the user may be the same as the password pronounced when the user registered his/her identity.

미래 재무 상태 제공 서버(200)는 신원 등록할 때 발음하는 영상의 근육 움직임과 수신된 비밀번호를 발음하는 영상의 근육 움직임을 비교하여 사용자의 신원이 동일한 지 판별할 수 있다. The future financial status providing server 200 may determine whether the user's identity is the same by comparing the muscle movements of the image of the user pronouncing the user's identity when registering the user's identity with the muscle movements of the video of the user's voice pronouncing the received password.

더욱 자세하게는, 도 5의 (a)를 참조하면, 미래 재무 상태 제공 서버(200)는 각 영상에 대해 얼굴의 근육별 랜드마크를 도출할 수 있다. 이때, 미래 재무 상태 제공 서버(200)는 근육의 특성을 고려하여 랜드마크를 도출할 수 있다. 여기서, 미래 재무 상태 제공 서버(200)는 복수의 랜드마크 사이의 거리 변화량을 판단할 수 있다. 이때, 미래 재무 상태 제공 서버(200)는 랜드마크 사이의 거리 변화량이 큰 곳의 움직임만 한정하여 사용할 수 있다. 예를 들어, 도 5의 (b)를 참조하면, 미래 재무 상태 제공 서버(200)는 영상에서 사용자가 발음할 때 움직임이 큰 입술 끝과 광대에 걸처있는 소관골근의 움직임만 한정하여 사용하고, 발음할 때 움직임이 적은 코 끝과 턱 관절에 위치한 교근의 움직임은 제외할 수 있다. 또한 미래 재무 상태 제공 서버(200)는 얼굴 좌우 대칭을 고려하여 한쪽 얼굴 면의 랜드마크의 움직임만 한정하여 사용할 수 있다.In more detail, referring to (a) of FIG. 5, the future financial status providing server 200 may derive landmarks for each muscle of the face for each image. At this time, the future financial status providing server 200 may derive a landmark by considering the characteristics of the muscle. Here, the future financial status providing server 200 may determine the amount of change in distance between a plurality of landmarks. At this time, the future financial status providing server 200 can be used only in areas where the amount of change in distance between landmarks is large. For example, referring to (b) of FIG. 5, the future financial status providing server 200 uses only the movements of the small zygomaticus muscle across the tip of the lips and cheekbones, which move greatly when the user pronounces in the video, Movement of the masseter muscle located at the tip of the nose and jaw joint, which moves less during pronunciation, can be excluded. In addition, the future financial status providing server 200 can use only the movement of landmarks on one side of the face in consideration of facial symmetry.

여기서, 미래 재무 상태 제공 서버(200)는 신원 등록할 때 비밀번호를 발음하는 영상의 시간대비 변화량과 신원 인증을 요구할 때 비밀번호를 발음하는 영상의 시간대비 변화량을 분석하여 등록된 신원과 동일한 신원인지 판별할 수 있다. 예를 들어 도 6을 참조하면, L1은 해당 사용자가 신원 등록할 때 비밀번호를 발음하는 영상의 시간대비 변화량, L2는 해당 사용자가 신원 요청할 때 비밀번호를 발음하는 영상의 시간대비 변화량, L3는 임의의 사용자가 같은 비밀번호를 발음하는 영상의 시간대비 변화량이다. 이때, L1 과 L2의 흐름은 비슷하게 진행되지만, L3의 흐름은 유사하지 않게 진행된다. 그러므로, 미래 재무 상태 제공 서버(200)는 L1 과 L2는 같은 사용자로 판별하고, L1과 L3는 다른 사용자로 판별할 수 있다.Here, the future financial status provision server 200 analyzes the change over time in the video pronouncing the password when registering an identity and the change over time in the video pronouncing the password when requesting identity authentication to determine whether the identity is the same as the registered identity. can do. For example, referring to Figure 6, L1 is the amount of change compared to time in the video of the user pronouncing the password when registering his/her identity, L2 is the amount of change compared to time of the video of the user pronouncing the password when requesting his/her identity, and L3 is the random amount of change over time. This is the amount of change over time in the video of the user pronouncing the same password. At this time, the flows of L1 and L2 proceed similarly, but the flow of L3 proceeds dissimilarly. Therefore, the future financial status providing server 200 may determine that L1 and L2 are the same user, and that L1 and L3 are different users.

다시 도 4를 참조하면, 미래 재무 상태 제공 서버(200)는 판별된 사용자의 신원 결과를 유저 기기(100)로 제공할 수 있다.Referring again to FIG. 4 , the future financial status providing server 200 may provide the determined user's identity result to the user device 100 .

이상 첨부된 도면을 참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be modified and implemented in various ways without departing from the technical spirit of the present invention. there is. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

100: 유저 기기
110: 메모리 인터페이스 120: 프로세서
130: 주변 인터페이스 140: I/O 서브 시스템
141: 터치 스크린 제어기 142: 기타 입력 제어기
143: 터치 스크린
144: 기타 입력 제어 디바이스
150: 메모리 151: 운영 체제
152: 통신 모듈 153: GUI 모듈
154: 센서 처리 모듈 155: 전화 모듈
156: 애플리케이션들
156-1, 156-2: 애플리케이션
157: 디지털 어시스턴트 클라이언트 모듈
158: 사용자 데이터
160: 모션 센서 161: 조명 센서
162: 근접 센서 163: 기타 센서
170: 카메라 서브 시스템 171: 광학 센서
180: 통신 서브 시스템
190: 오디오 서브 시스템
191: 스피커 192: 마이크
200: 추천 종목 제공 서버
210: 통신 인터페이스
211: 유선 통신 포트 212: 무선 회로
220: 메모리
221: 운영 체제 222: 통신 모듈
223: 사용자 인터페이스 모듈 224: 애플리케이션
230: I/O 인터페이스 240: 프로세서
100: User device
110: memory interface 120: processor
130: peripheral interface 140: I/O subsystem
141: Touch screen controller 142: Other input controller
143: touch screen
144: Other input control devices
150: Memory 151: Operating system
152: Communication module 153: GUI module
154: sensor processing module 155: phone module
156: Applications
156-1, 156-2: Application
157: Digital assistant client module
158: User data
160: motion sensor 161: light sensor
162: Proximity sensor 163: Other sensors
170: Camera subsystem 171: Optical sensor
180: Communication subsystem
190: Audio subsystem
191: Speaker 192: Microphone
200: Server providing recommended items
210: communication interface
211: wired communication port 212: wireless circuit
220: memory
221: operating system 222: communication module
223: User interface module 224: Application
230: I/O interface 240: processor

Claims (1)

프로세서에 의해 구현되는 얼굴 영상을 사용하는 신원 인증 방법으로,
사용자의 신원 인증 요청을 유저 기기로부터 수신하는 단계;
상기 사용자의 신원 인증 요청에 응답하여, 상기 유저 기기로부터 상기 사용자의 영상을 수신하는 단계;
상기 수신된 영상의 얼굴 근육을 기반으로 상기 사용자의 신원을 판별하는 단계;
판별된 상기 사용자의 신원을 상기 유저 기기에 제공하는 단계; 를 포함하는, 얼굴 영상을 사용하는 신원 인증 방법.
An identity authentication method using a facial image implemented by a processor,
Receiving a user's identity authentication request from the user device;
In response to the user's identity authentication request, receiving the user's image from the user device;
determining the user's identity based on facial muscles in the received image;
providing the determined identity of the user to the user device; An identity authentication method using a face image, including.
KR1020220134295A 2022-10-18 2022-10-18 Method of certifying identity using face video and apparatus using the same KR20240054466A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220134295A KR20240054466A (en) 2022-10-18 2022-10-18 Method of certifying identity using face video and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220134295A KR20240054466A (en) 2022-10-18 2022-10-18 Method of certifying identity using face video and apparatus using the same

Publications (1)

Publication Number Publication Date
KR20240054466A true KR20240054466A (en) 2024-04-26

Family

ID=90883286

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220134295A KR20240054466A (en) 2022-10-18 2022-10-18 Method of certifying identity using face video and apparatus using the same

Country Status (1)

Country Link
KR (1) KR20240054466A (en)

Similar Documents

Publication Publication Date Title
US20220004611A1 (en) Identifying and authenticating users based on passive factors determined from sensor data
US20230156002A1 (en) Authenticating a user device via a monitoring device
US10867025B2 (en) Opportunistically collecting sensor data from a mobile device to facilitate user identification
CN107077551B (en) Scalable authentication process selection based on sensor input
US10200360B2 (en) Authentication using physical interaction characteristics
US20150358333A1 (en) Geo-location and biometric presence security
US10353495B2 (en) Personalized operation of a mobile device using sensor signatures
US9826083B2 (en) Automatic delegation control for device sharing
JP2017515178A (en) Continuous authentication with mobile devices
US9686274B2 (en) Informed implicit enrollment and identification
US10878071B2 (en) Biometric authentication anomaly detection
US11290450B2 (en) Systems and methods for automatically performing secondary authentication of primary authentication credentials
US20160294835A1 (en) Initiating a Secure Action Via Physical Manipulation
WO2021159669A1 (en) Secure system login method and apparatus, computer device, and storage medium
US20200019688A1 (en) Voice activated authentication
KR102404763B1 (en) Method and system for personal identification using homomorphic encryption
CN111597529A (en) Method, system and storage medium for continuous identity authentication of individuals
KR20240054466A (en) Method of certifying identity using face video and apparatus using the same
EP3757818B1 (en) Systems and methods for automatic service activation on a computing device
KR20240065364A (en) Method for safety detection of worker using video and apparatus using the same
US11803393B2 (en) Systems and methods for automatic service activation on a computing device
US20220309253A1 (en) Method for providing remote service capable of multilingual input and server performing the same
KR102323232B1 (en) Method and System for Activating Voice Commands of a Smart Display Device based on a Vision-based Mechanism
US20230315824A1 (en) Application operation management and authentication
US20210209217A1 (en) Method and system for authentication using mobile device id based two factor authentication