KR20240054466A - Method of certifying identity using face video and apparatus using the same - Google Patents
Method of certifying identity using face video and apparatus using the same Download PDFInfo
- Publication number
- KR20240054466A KR20240054466A KR1020220134295A KR20220134295A KR20240054466A KR 20240054466 A KR20240054466 A KR 20240054466A KR 1020220134295 A KR1020220134295 A KR 1020220134295A KR 20220134295 A KR20220134295 A KR 20220134295A KR 20240054466 A KR20240054466 A KR 20240054466A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- identity
- user device
- identity authentication
- interface
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000004044 response Effects 0.000 claims abstract description 4
- 210000001097 facial muscle Anatomy 0.000 claims abstract description 3
- 230000001815 facial effect Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 32
- 230000033001 locomotion Effects 0.000 description 18
- 210000003205 muscle Anatomy 0.000 description 15
- 230000008859 change Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000001352 masseter muscle Anatomy 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 210000000216 zygoma Anatomy 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/45—Structures or tools for the administration of authentication
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명은, 얼굴 영상을 사용하는 신원 인증을 위한 사용자 인터페이스 제공 방법으로서, 상기 방법은, 프로세서에 의해 구현되는 얼굴 영상을 사용하는 신원 인증 방법으로, 사용자의 신원 인증 요청을 유저 기기로부터 수신하는 단계, 상기 사용자의 신원 인증 요청에 응답하여, 상기 유저 기기로부터 상기 사용자의 영상을 수신하는 단계, 상기 수신된 영상의 얼굴 근육을 기반으로 상기 사용자의 신원을 판별하는 단계, 판별된 상기 사용자의 신원을 상기 유저 기기에 제공하는 단계를 포함하도록 구성된다.The present invention is a method of providing a user interface for identity authentication using a face image, the method comprising: receiving a user's identity authentication request from a user device; , in response to a request for identity authentication of the user, receiving an image of the user from the user device, determining the identity of the user based on the facial muscles of the received image, and determining the identified identity of the user. It is configured to include the step of providing to the user device.
Description
본 발명은 얼굴 영상을 사용하는 신원 인증 방법 및 이를 이용한 장치에 관한 것이다. The present invention relates to an identity authentication method using a face image and a device using the same.
신원 인증의 방법에는 비밀번호, 패턴, 지문인식, 얼굴인식, 음성인식 등이 존재한다. 이때, 얼굴 인식의 경우 변경이 불가능하고 비밀번호 및 패턴 노출과 같은 해킹 위험도가 적어 은행이나 결재 인증 등 금융 거래에서 사용되고 있다.Identity authentication methods include passwords, patterns, fingerprint recognition, face recognition, and voice recognition. At this time, in the case of face recognition, it cannot be changed and the risk of hacking such as password and pattern exposure is low, so it is used in financial transactions such as banking and payment authentication.
하지만, 최근 등장하는 딥페이크와 같이 다른 사용자의 얼굴을 흉내내는 기술로 인해 단순 얼굴 인식의 방식 인증으로는 보안의 안전성에 문제가 제기되고 있다.However, due to the recent emergence of technologies that imitate other users' faces, such as deepfake, problems are being raised about the security of simple facial recognition authentication.
발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The technology behind the invention has been written to facilitate easier understanding of the invention. It should not be understood as an admission that matters described in the technology underlying the invention exist as prior art.
기술의 발전으로 인한 얼굴 인식의 보안 안정성이 떨어지는 문제가 있다.There is a problem with the security stability of facial recognition being reduced due to technological advancements.
이에, 사용자가 비밀번호를 말할 때 입술 근처의 근육 움직임을 감지하여 사용자를 판별하는 방법이 요구된다.Accordingly, a method is required to identify the user by detecting muscle movement near the lips when the user says the password.
그 결과, 본 발명의 발명자들은, 사용자가 말할 때 근육의 움직임을 기반으로 얼굴 영상을 사용하는 신원 인증 방법 및 이를 이용한 장치를 개발하고자 하였다.As a result, the inventors of the present invention sought to develop an identity authentication method and a device using the same using facial images based on muscle movements when the user speaks.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법이 제공된다. 상기 방법은, 사용자의 신원 인증 요청을 유저 기기로부터 수신하는 단계; 상기 사용자의 신원 인증 요청에 응답하여, 상기 유저 기기로부터 상기 사용자의 영상을 수신하는 단계; 상기 수신된 영상의 얼굴 근육을 기반으로 상기 사용자의 신원을 판별하는 단계; 판별된 상기 사용자의 신원을 상기 유저 기기에 제공하는 단계;를 포함하도록 구성된다. In order to solve the problems described above, a method for providing a user interface according to an embodiment of the present invention is provided. The method includes receiving a user's identity authentication request from a user device; In response to the user's identity authentication request, receiving the user's image from the user device; determining the user's identity based on facial muscles in the received image; It is configured to include; providing the determined identity of the user to the user device.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.
본 발명은 사람이 발음할 때 움직이는 근육들의 변화를 판별 기준으로 하여 얼굴 인식의 정확성과 보안강도를 높일 수 있다.The present invention can increase the accuracy and security of face recognition by using changes in muscles that move when a person pronounces pronunciation as a criterion.
또한, 본 발명은 사용자가 발음을 할 때 얼굴의 모든 근육 부위의 변화를 처리하지 않고 변화값이 높은 부위만 사용하여 처리 속도를 높일 수 있다. Additionally, the present invention can increase processing speed by using only the areas with high change values instead of processing changes in all muscle areas of the face when the user pronounces pronunciation.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.The effects according to the present invention are not limited to the details exemplified above, and further various effects are included within the present invention.
도 1은 본 발명의 실시예에 따른 얼굴 영상을 사용하는 신원 인증 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 디바이스의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 서버의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 얼굴 영상을 사용하는 신원 인증 서버의 순서도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 사용자 신원 인증을 위한 사용자 인터페이스 제공 방법의 예시도이다.1 is a schematic diagram of an identity authentication system using a face image according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of a user device according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of a user interface providing server according to an embodiment of the present invention.
Figure 4 is a flowchart of an identity authentication server using a face image according to an embodiment of the present invention.
5 and 6 are exemplary diagrams of a method of providing a user interface for user identity authentication according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. The present embodiments only serve to ensure that the disclosure of the present invention is complete and are within the scope of common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, similar reference numbers may be used for similar components.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.
본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, a first component may be renamed a second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed to the first component.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것 만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression “configured to” depends on the situation, for example, “suitable for,” “having the capacity to.” ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware. Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as generally understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or fully combined or combined with each other, and as can be fully understood by those skilled in the art, various technical interconnections and operations are possible, and each embodiment may be implemented independently of each other. It may be possible to conduct them together due to a related relationship.
본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of this specification, terms used in this specification will be defined below.
도 1은 본 발명의 실시예에 따른 얼굴 영상을 사용하는 신원 인증 시스템의 개략도이다.1 is a schematic diagram of an identity authentication system using a face image according to an embodiment of the present invention.
도 1을 참조하면, 사용자 신원 인증 시스템(1000)은 유저 기기(100) 및 사용자 인터페이스 제공 서버(200)(이하, 사용자 신원 인증 서버(200))를 포함한다. Referring to FIG. 1, the user
사용자 신원 인증 시스템(1000)은 사용자에 대한 신원 인증 요청에 응답하여 사용자의 신원을 판별할 수 있도록 한다. 이때, 사용자 신원 인증 시스템(1000)은 사용자에 대한 영상을 수신할 수 있다. 구체적으로, 사용자 신원 인증 시스템(1000)의 사용자 신원 인증 서버(200)는 사용자가 소지한 유저 기기(200)로 사용자 영상 입력 인터페이스를 제공할 수 있으며, 유저 기기(200)로 사용자의 신원 판별 결과 제공 인터페이스를 제공할 수 있다. 여기서, 유저 기기(100)는 영상을 촬영 및 출력할 수 있는 전자 장치로서, 스마트폰, 태블릿 PC, PC, 노트북 등을 포함할 수 있다.The user
도 2는 본 발명의 일 실시예에 따른 사용자 디바이스의 구성을 나타낸 블록도이다.Figure 2 is a block diagram showing the configuration of a user device according to an embodiment of the present invention.
도 2를 참조하면, 사용자 디바이스(100)는 메모리 인터페이스(110), 하나 이상의 프로세서(120) 및 주변 인터페이스(130)를 포함할 수 있다. 사용자 디바이스(100) 내의 다양한 컴포넌트들은 하나 이상의 통신 버스 또는 신호 라인에 의해 연결될 수 있다.Referring to FIG. 2 , the
메모리 인터페이스(110)는 메모리(150)에 연결되어 프로세서(120)로 다양한 데이터를 전할 수 있다. 여기서, 메모리(150)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The
다양한 실시예에서, 메모리(150)는 운영 체제(151), 통신 모듈(152), 그래픽 사용자 인터페이스 모듈(GUI)(153), 센서 처리 모듈(154), 전화 모듈(155) 및 애플리케이션 모듈(156) 중 적어도 하나 이상을 저장할 수 있다. 구체적으로, 운영 체제(151)는 기본 시스템 서비스를 처리하기 위한 명령어 및 하드웨어 작업들을 수행하기 위한 명령어를 포함할 수 있다. 통신 모듈(152)은 다른 하나 이상의 디바이스, 컴퓨터 및 서버 중 적어도 하나와 통신할 수 있다. 그래픽 사용자 인터페이스 모듈(GUI)(153)은 그래픽 사용자 인터페이스를 처리할 수 있다. 센서 처리 모듈(154)은 센서 관련 기능(예를 들어, 하나 이상의 마이크(192)를 이용하여 수신된 음성 입력을 처리함)을 처리할 수 있다. 전화 모듈(155)은 전화 관련 기능을 처리할 수 있다. 애플리케이션 모듈(156)은 사용자 애플리케이션의 다양한 기능들, 예컨대 전자 메시징, 웹 브라우징, 미디어 처리, 탐색, 이미징, 기타 프로세스 기능을 수행할 수 있다. 아울러, 사용자 디바이스(100)는 메모리(150)에 어느 한 종류의 서비스와 연관된 하나 이상의 소프트웨어 애플리케이션(156-1, 156-2)을 저장할 수 있다. 이때, 어플리케이션(156-1)은 유저 기기(100)에 판별된 사용자의 신원 결과를 제공할 수 있다. 여기서, 어플리케이션(156-1)은 사용자의 얼굴 영상의 근육을 기반으로 사용자의 신원을 판별할 수 있다.In various embodiments,
다양한 실시예에서, 메모리(150)는 디지털 어시스턴트 클라이언트 모듈(157)(이하, DA 클라이언트 모듈)을 저장할 수 있으며, 그에 따라 디지털 어시스턴트의 클라이언트 측의 기능을 수행하기 위한 명령어 및 다양한 사용자 데이터(158)(예. 사용자 맞춤형 어휘 데이터, 선호도 데이터, 사용자의 전자 주소록, 할 일 목록, 쇼핑 리스트 등과 같은 기타 데이터)를 저장할 수 있다. In various embodiments,
한편, DA 클라이언트 모듈(157)은 사용자 디바이스(100)에 구비된 다양한 사용자 인터페이스(예. I/O 서브시스템(140))를 통해 사용자의 음성 입력, 텍스트 입력, 터치 입력 및/또는 제스처 입력을 획득할 수 있다. Meanwhile, the
또한, DA 클라이언트 모듈(157)은 시청각적, 촉각적 형태의 데이터를 출력할 수 있다. 예를 들어, DA 클라이언트 모듈(157)은 음성, 소리, 알림, 텍스트 메시지, 메뉴, 그래픽, 비디오, 애니메이션 및 진동 중 적어도 둘 하나 이상의 조합으로 이루어진 데이터를 출력할 수 있다. 아울러, DA 클라이언트 모듈(157)은 통신 서브시스템(180)을 이용하여 디지털 어시스턴트 서버(미도시)와 통신할 수 있다.Additionally, the
다양한 실시예에서, DA 클라이언트 모듈(157)은 사용자 입력과 연관된 상황(context)을 구성하기 위하여 다양한 센서, 서브시스템 및 주변 디바이스로부터 사용자 디바이스(100)의 주변 환경에 대한 추가 정보를 수집할 수 있다. 예를 들어, DA 클라이언트 모듈(157)은 사용자 입력과 함께 상황 정보를 디지털 어시스턴트 서버에 제공하여 사용자의 의도를 추론할 수 있다. 여기서, 사용자 입력에 동반될 수 있는 상황 정보는 센서 정보, 예를 들어, 광(lighting), 주변 소음, 주변 온도, 주변 환경의 이미지, 비디오 등을 포함할 수 있다. 다른 예를 들어, 상황 정보는 사용자 디바이스(100)의 물리적 상태(예. 디바이스 배향, 디바이스 위치, 디바이스 온도, 전력 레벨, 속도, 가속도, 모션 패턴, 셀룰러 신호 강도 등)을 포함할 수 있다. 또 다른 예를 들어, 상황 정보는 사용자 디바이스(100)의 소프트웨어 상태에 관련된 정보(예. 사용자 디바이스(100)에서 실행 중인 프로세스, 설치된 프로그램, 과거 및 현재 네트워크 활동성, 백그라운드 서비스, 오류 로그, 리소스 사용 등)를 포함할 수 있다. In various embodiments,
다양한 실시예에서, 메모리(150)는 추가 또는 삭제된 명령어를 포함할 수 있으며, 나아가 사용자 디바이스(100)도 도 2에 도시된 구성 외에 추가 구성을 포함하거나, 일부 구성을 제외할 수도 있다. In various embodiments, the
프로세서(120)는 사용자 디바이스(100)의 전반적인 동작을 제어할 수 있으며, 메모리(150)에 저장된 어플리케이션 또는 프로그램을 구동하여 미래 재무 상태 제공 인터페이스를 구현하기 위한 다양한 명령들을 수행할 수 있다. The
프로세서(120)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(120)는 NPU(Neural Processing Unit)과 같은 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. The
주변 인터페이스(130)는 다양한 센서, 서브 시스템 및 주변 디바이스와 연결되어, 사용자 디바이스(100)가 다양한 기능을 수행할 수 있도록 데이터를 제공해 줄 수 있다. 여기서, 사용자 디바이스(100)가 어떠한 기능을 수행한다는 것은 프로세서(120)에 의해 수행되는 것으로 이해될 수 있다. The
주변 인터페이스(130)는 모션 센서(160), 조명 센서(광 센서)(161) 및 근접 센서(162)로부터 데이터를 제공받을 수 있으며, 이를 통해, 사용자 디바이스(100)는 배향, 광, 및 근접 감지 기능 등을 수행할 수 있다. 다른 예를 들어, 주변 인터페이스(130)는 기타 센서들(163)(포지셔닝 시스템-GPS 수신기, 온도 센서, 생체인식 센서)로부터 데이터를 제공받을 수 있으며, 이를 통해 사용자 디바이스(100)가 기타 센서들(163)과 관련된 기능들을 수행할 수 있다.The
다양한 실시예에서, 사용자 디바이스(100)는 주변 인터페이스(130)와 연결된 카메라 서브시스템(170) 및 이와 연결된 광학 센서(171)를 포함할 수 있으며, 이를 통해 사용자 디바이스(100)는 사진 촬영 및 비디오 클립 녹화 등의 다양한 촬영 기능을 수행할 수 있다. 이때, 사용자 디바이스(100)는 촬영된 비디오 클립을 사용자 신원 인증 서버(200)로 송신할 수 있다.In various embodiments, the
다양한 실시예에서, 사용자 디바이스(100)는 주변 인터페이스(130)와 연결된 통신 서브 시스템(180)을 포함할 수 있다. 통신 서브 시스템(180)은 하나 이상의 유/무선 네트워크로 구성되며, 다양한 통신 포트, 무선 주파수 송수신기, 광학 송수신기를 포함할 수 있다.In various embodiments,
다양한 실시예에서, 사용자 디바이스(100)는 주변 인터페이스(130)와 연결된 오디오 서브 시스템(190)을 포함하며, 이러한 오디오 서브 시스템(190)은 하나 이상의 스피커(191) 및 하나 이상의 마이크(192)를 포함함으로써, 사용자 디바이스(100)는 음성 작동형 기능, 예컨대 음성 인식, 음성 복제, 디지털 녹음, 및 전화 기능 등을 수행할 수 있다.In various embodiments,
다양한 실시예에서, 사용자 디바이스(100)는 주변 인터페이스(130)와 연결된 I/O 서브시스템(140)을 포함할 수 있다. 예를 들어, I/O 서브시스템(140)은 터치 스크린 제어기(141)를 통해 사용자 디바이스(100)에 포함된 터치 스크린(143)을 제어할 수 있다. 일 예로서, 터치 스크린 제어기(141)는 정전용량형, 저항형, 적외형, 표면 탄성파 기술, 근접 센서 어레이 등과 같은 복수의 터치 감지 기술 중 어느 하나의 기술을 사용하여 사용자의 접촉 및 움직임 또는 접촉 및 움직임의 중단을 검출할 수 있다. 다른 예를 들어, I/O 서브시스템(140)은 기타 입력 제어기(들)(142)를 통해 사용자 디바이스(100)에 포함된 기타 입력/제어 디바이스(144)를 제어할 수 있다. 일 예로서, 기타 입력 제어기(들)(142)은 하나 이상의 버튼, 로커 스위치(rocker switches), 썸 휠(thumb-wheel), 적외선 포트, USB 포트 및 스타일러스 등과 같은 포인터 디바이스를 제어할 수 있다.In various embodiments,
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 서버의 구성을 나타낸 블록도이다.Figure 3 is a block diagram showing the configuration of a user interface providing server according to an embodiment of the present invention.
도 3을 참조하면, 사용자 신원 인증 서버(200)는 통신 인터페이스(210), 메모리(220), I/O 인터페이스(230) 및 프로세서(240)를 포함할 수 있으며, 각 구성은 하나 이상의 통신 버스 또는 신호 라인을 통해 서로 통신할 수 있다.Referring to FIG. 3, the user
통신 인터페이스(210)는 유/무선 통신 네트워크를 통해 유저 기기(100)와 연결되어 데이터를 주고받을 수 있다. 예를 들어, 통신 인터페이스(210)는 유저 기기(100)로부터 사용자의 영상을 수신할 수 있다. 이때, 사용자의 영상은 사용자가 비밀번호를 발음하는 영상일 수 있다.The
한편, 이러한 데이터의 송수신을 가능하게 하는 통신 인터페이스(210)는 통신 포드(211) 및 무선 회로(212)를 포함하며, 여기 유선 통신 포트(211)는 하나 이상의 유선 인터페이스, 예를 들어, 이더넷, 범용 직렬 버스(USB), 파이어와이어 등을 포함할 수 있다. 또한, 무선 회로(212)는 RF 신호 또는 광학 신호를 통해 외부 디바이스와 데이터를 송수신할 수 있다. 아울러, 무선 통신은 복수의 통신 표준, 프로토콜 및 기술, 예컨대 GSM, EDGE, CDMA, TDMA, 블루투스, Wi-Fi, VoIP, Wi-MAX, 또는 임의의 기타 적합한 통신 프로토콜 중 적어도 하나를 사용할 수 있다. Meanwhile, the
메모리(220)는 사용자 신원 인증 서버(200)에서 사용되는 다양한 데이터가 저장될 수 있다. 예를 들어, 메모리(220)는 사용자가 인증을 등록할 때 비밀번호를 발음하는 영상을 포함한 사용자에 대한 데이터가 저장될 수 있다.The
다양한 실시예에서, 메모리(220)는 각종 데이터, 명령 및 정보를 저장할 수 있는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 예를 들어, 메모리(220)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.In various embodiments,
다양한 실시예에서, 메모리(220)는 운영 체제(221), 통신 모듈(222), 사용자 인터페이스 모듈(223) 및 하나 이상의 애플리케이션(224) 중 적어도 하나의 구성을 저장할 수 있다. In various embodiments,
운영 체제(221)(예. LINUX, UNIX, MAC OS, WINDOWS, VxWorks 등의 내장형 운영 체제)는 일반적인 시스템 작업(예. 메모리 관리, 저장 디바이스 제어, 전력 관리 등)를 제어하고 관리하기 위한 다양한 소프트웨어 컴포넌트 및 드라이버를 포함할 수 있으며, 다양한 하드웨어, 펌웨어, 및 소프트웨어 컴포넌트 간의 통신을 지원할 수 있다.Operating system 221 (e.g., embedded operating system such as LINUX, UNIX, MAC OS, WINDOWS, VxWorks, etc.) is a variety of software to control and manage common system tasks (e.g., memory management, storage device control, power management, etc.) It may contain components and drivers and may support communication between various hardware, firmware, and software components.
통신 모듈(223)은 통신 인터페이스(210)를 통해 다른 디바이스와 통신을 지원할 수 있다. 통신 모듈(220)은 통신 인터페이스(210)의 유선 통신 포트(211) 또는 무선 회로(212)에 의해 수신되는 데이터를 처리하기 위한 다양한 소프트웨어 구성 요소들을 포함할 수 있다.The
사용자 인터페이스 모듈(223)은 I/O 인터페이스(230)를 통해 키보드, 터치 스크린, 마이크 등으로부터 사용자의 요청 또는 입력을 수신하고, 디스플레이 상에 사용자 인터페이스를 제공할 수 있다.The
애플리케이션(224)은 하나 이상의 프로세서(240)에 의해 실행되도록 구성되는 프로그램 또는 모듈을 포함할 수 있다. 여기서, 추천 종목 제공을 제공하기 위한 애플리케이션은 서버 팜(server farm) 상에서 구현될 수 있다.
I/O 인터페이스(230)는 미래 재무 상태 제공 서버(200)의 입출력 디바이스(미도시), 예컨대 디스플레이, 키보드, 터치 스크린 및 마이크 중 적어도 하나를 사용자 인터페이스 모듈(223)과 연결할 수 있다. I/O 인터페이스(230)는 사용자 인터페이스 모듈(223)과 함께 사용자 입력(예. 음성 입력, 키보드 입력, 터치 입력 등)을 수신하고, 수신된 입력에 따른 명령을 처리할 수 있다. The I/
프로세서(240)는 통신 인터페이스(210), 메모리(220) 및 I/O 인터페이스(230)와 연결되어 미래 재무 상태 제공 서버(200)의 전반적인 동작을 제어할 수 있으며, 메모리(220)에 저장된 애플리케이션 또는 프로그램을 통해 추천 종목 제공을 위한 다양한 명령들을 수행할 수 있다. The
프로세서(240)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(240)는 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. 또는 프로세서(240)는 NPU(Neural Processing Unit)과 같이 인공 신경망 모델을 계산하기 위한 모듈을 포함할 수 있다.The
다양한 실시예에서, 프로세서(240)는 유저 기기(100)에서 사용자에 대한 신원 인증 요청을 수신할 수 있다. 이때, 프로세서(240)는 메모리(220)로부터 해당 사용자가 신원 등록할 때 발음하는 영상을 포함한 사용자에 대한 데이터를 수신할 수 있다. In various embodiments,
프로세서(240)는 유저 기기(100)에서 적어도 하나의 사용자가 비밀번호를 발음하는 영상을 수신할 수 있다. 이때, 사용자가 발음하는 비밀번호는 사용자가 신원 등록할 때 발음했던 비밀번호와 동일할 수 있다.The
프로세서(240)는 신원 등록할 때 발음하는 영상의 근육 움직임과 수신된 비밀번호를 발음하는 영상의 근육 움직임을 비교하여 사용자의 신원이 동일한 지 판별할 수 있다. The
더욱 자세하게는, 프로세서(240)는 각 영상에 대해 얼굴의 근육별 랜드마크를 도출할 수 있다. 이때, 프로세서(240)는 근육의 특성을 고려하여 랜드마크를 도출할 수 있다. 여기서, 프로세서(240)는 복수의 랜드마크 사이의 거리 변화량을 판단할 수 있다. 이때, 프로세서(240)는 랜드마크 사이의 거리 변화량이 큰 곳의 움직임만 한정하여 사용할 수 있다. 예를 들어, 프로세서(240)는 영상에서 사용자가 발음할 때 움직임이 큰 입술 끝과 광대에 걸처있는 소관골근의 움직임만 한정하여 사용하고, 발음할 때 움직임이 적은 코 끝과 턱 관절에 위치한 교근의 움직임은 제외할 수 있다. 또한 프로세서(240)는 얼굴 좌우 대칭을 고려하여 한쪽 얼굴 면의 랜드마크의 움직임만 한정하여 사용할 수 있다.In more detail, the
여기서, 프로세서(240)는 신원 등록할 때 비밀번호를 발음하는 영상의 시간대비 변화량과 신원 인증을 요구할 때 비밀번호를 발음하는 영상의 시간대비 변화량을 분석하여 등록된 신원과 동일한 신원인지 판별할 수 있다.Here, the
프로세서(240)는 판별된 사용자의 신원 결과를 유저 기기(100)로 제공할 수 있다.The
지금까지 본 발명의 일 실시예에 따른 미래 재무 상태 제공 서버(200)의 구성에 대하여 설명하였다. 이하에서는 상술한 미래 재무 상태 제공 서버(200)를 통해 미래 재무 상태 제공을 위한 사용자 인터페이스 제공 방법에 대하여 설명하도록 한다.So far, the configuration of the future financial
도 4는 본 발명의 실시예에 따른 사용자 신원 인증을 위한 사용자 인터페이스 제공 방법의 순서도이고, 도 5 및 도 6은 본 발명의 실시예에 따른 사용자 신원 인증을 위한 사용자 인터페이스 제공 방법의 예시도이다.Figure 4 is a flow chart of a method of providing a user interface for user identity authentication according to an embodiment of the present invention, and Figures 5 and 6 are exemplary diagrams of a method of providing a user interface for user identity authentication according to an embodiment of the present invention.
도 4를 참조하면, 사용자 신원 인증 서버(200)는 유저 기기(100)에서 사용자에 대한 신원 인증 요청을 수신할 수 있다. 이때, 미래 재무 상태 제공 서버(200)는 메모리(220)로부터 해당 사용자가 신원 등록할 때 발음하는 영상을 포함한 사용자에 대한 데이터를 수신할 수 있다. Referring to FIG. 4, the user
미래 재무 상태 제공 서버(200)는 유저 기기(100)에서 적어도 하나의 사용자가 비밀번호를 발음하는 영상을 수신할 수 있다. 이때, 사용자가 발음하는 비밀번호는 사용자가 신원 등록할 때 발음했던 비밀번호와 동일할 수 있다.The future financial
미래 재무 상태 제공 서버(200)는 신원 등록할 때 발음하는 영상의 근육 움직임과 수신된 비밀번호를 발음하는 영상의 근육 움직임을 비교하여 사용자의 신원이 동일한 지 판별할 수 있다. The future financial
더욱 자세하게는, 도 5의 (a)를 참조하면, 미래 재무 상태 제공 서버(200)는 각 영상에 대해 얼굴의 근육별 랜드마크를 도출할 수 있다. 이때, 미래 재무 상태 제공 서버(200)는 근육의 특성을 고려하여 랜드마크를 도출할 수 있다. 여기서, 미래 재무 상태 제공 서버(200)는 복수의 랜드마크 사이의 거리 변화량을 판단할 수 있다. 이때, 미래 재무 상태 제공 서버(200)는 랜드마크 사이의 거리 변화량이 큰 곳의 움직임만 한정하여 사용할 수 있다. 예를 들어, 도 5의 (b)를 참조하면, 미래 재무 상태 제공 서버(200)는 영상에서 사용자가 발음할 때 움직임이 큰 입술 끝과 광대에 걸처있는 소관골근의 움직임만 한정하여 사용하고, 발음할 때 움직임이 적은 코 끝과 턱 관절에 위치한 교근의 움직임은 제외할 수 있다. 또한 미래 재무 상태 제공 서버(200)는 얼굴 좌우 대칭을 고려하여 한쪽 얼굴 면의 랜드마크의 움직임만 한정하여 사용할 수 있다.In more detail, referring to (a) of FIG. 5, the future financial
여기서, 미래 재무 상태 제공 서버(200)는 신원 등록할 때 비밀번호를 발음하는 영상의 시간대비 변화량과 신원 인증을 요구할 때 비밀번호를 발음하는 영상의 시간대비 변화량을 분석하여 등록된 신원과 동일한 신원인지 판별할 수 있다. 예를 들어 도 6을 참조하면, L1은 해당 사용자가 신원 등록할 때 비밀번호를 발음하는 영상의 시간대비 변화량, L2는 해당 사용자가 신원 요청할 때 비밀번호를 발음하는 영상의 시간대비 변화량, L3는 임의의 사용자가 같은 비밀번호를 발음하는 영상의 시간대비 변화량이다. 이때, L1 과 L2의 흐름은 비슷하게 진행되지만, L3의 흐름은 유사하지 않게 진행된다. 그러므로, 미래 재무 상태 제공 서버(200)는 L1 과 L2는 같은 사용자로 판별하고, L1과 L3는 다른 사용자로 판별할 수 있다.Here, the future financial
다시 도 4를 참조하면, 미래 재무 상태 제공 서버(200)는 판별된 사용자의 신원 결과를 유저 기기(100)로 제공할 수 있다.Referring again to FIG. 4 , the future financial
이상 첨부된 도면을 참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be modified and implemented in various ways without departing from the technical spirit of the present invention. there is. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.
100: 유저 기기
110: 메모리 인터페이스
120: 프로세서
130: 주변 인터페이스
140: I/O 서브 시스템
141: 터치 스크린 제어기
142: 기타 입력 제어기
143: 터치 스크린
144: 기타 입력 제어 디바이스
150: 메모리
151: 운영 체제
152: 통신 모듈
153: GUI 모듈
154: 센서 처리 모듈
155: 전화 모듈
156: 애플리케이션들
156-1, 156-2: 애플리케이션
157: 디지털 어시스턴트 클라이언트 모듈
158: 사용자 데이터
160: 모션 센서
161: 조명 센서
162: 근접 센서
163: 기타 센서
170: 카메라 서브 시스템
171: 광학 센서
180: 통신 서브 시스템
190: 오디오 서브 시스템
191: 스피커
192: 마이크
200: 추천 종목 제공 서버
210: 통신 인터페이스
211: 유선 통신 포트
212: 무선 회로
220: 메모리
221: 운영 체제
222: 통신 모듈
223: 사용자 인터페이스 모듈
224: 애플리케이션
230: I/O 인터페이스
240: 프로세서100: User device
110: memory interface 120: processor
130: peripheral interface 140: I/O subsystem
141: Touch screen controller 142: Other input controller
143: touch screen
144: Other input control devices
150: Memory 151: Operating system
152: Communication module 153: GUI module
154: sensor processing module 155: phone module
156: Applications
156-1, 156-2: Application
157: Digital assistant client module
158: User data
160: motion sensor 161: light sensor
162: Proximity sensor 163: Other sensors
170: Camera subsystem 171: Optical sensor
180: Communication subsystem
190: Audio subsystem
191: Speaker 192: Microphone
200: Server providing recommended items
210: communication interface
211: wired communication port 212: wireless circuit
220: memory
221: operating system 222: communication module
223: User interface module 224: Application
230: I/O interface 240: processor
Claims (1)
사용자의 신원 인증 요청을 유저 기기로부터 수신하는 단계;
상기 사용자의 신원 인증 요청에 응답하여, 상기 유저 기기로부터 상기 사용자의 영상을 수신하는 단계;
상기 수신된 영상의 얼굴 근육을 기반으로 상기 사용자의 신원을 판별하는 단계;
판별된 상기 사용자의 신원을 상기 유저 기기에 제공하는 단계; 를 포함하는, 얼굴 영상을 사용하는 신원 인증 방법.An identity authentication method using a facial image implemented by a processor,
Receiving a user's identity authentication request from the user device;
In response to the user's identity authentication request, receiving the user's image from the user device;
determining the user's identity based on facial muscles in the received image;
providing the determined identity of the user to the user device; An identity authentication method using a face image, including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220134295A KR20240054466A (en) | 2022-10-18 | 2022-10-18 | Method of certifying identity using face video and apparatus using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220134295A KR20240054466A (en) | 2022-10-18 | 2022-10-18 | Method of certifying identity using face video and apparatus using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240054466A true KR20240054466A (en) | 2024-04-26 |
Family
ID=90883286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220134295A KR20240054466A (en) | 2022-10-18 | 2022-10-18 | Method of certifying identity using face video and apparatus using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240054466A (en) |
-
2022
- 2022-10-18 KR KR1020220134295A patent/KR20240054466A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220004611A1 (en) | Identifying and authenticating users based on passive factors determined from sensor data | |
US20230156002A1 (en) | Authenticating a user device via a monitoring device | |
US10867025B2 (en) | Opportunistically collecting sensor data from a mobile device to facilitate user identification | |
CN107077551B (en) | Scalable authentication process selection based on sensor input | |
US10200360B2 (en) | Authentication using physical interaction characteristics | |
US20150358333A1 (en) | Geo-location and biometric presence security | |
US10353495B2 (en) | Personalized operation of a mobile device using sensor signatures | |
US9826083B2 (en) | Automatic delegation control for device sharing | |
JP2017515178A (en) | Continuous authentication with mobile devices | |
US9686274B2 (en) | Informed implicit enrollment and identification | |
US10878071B2 (en) | Biometric authentication anomaly detection | |
US11290450B2 (en) | Systems and methods for automatically performing secondary authentication of primary authentication credentials | |
US20160294835A1 (en) | Initiating a Secure Action Via Physical Manipulation | |
WO2021159669A1 (en) | Secure system login method and apparatus, computer device, and storage medium | |
US20200019688A1 (en) | Voice activated authentication | |
KR102404763B1 (en) | Method and system for personal identification using homomorphic encryption | |
CN111597529A (en) | Method, system and storage medium for continuous identity authentication of individuals | |
KR20240054466A (en) | Method of certifying identity using face video and apparatus using the same | |
EP3757818B1 (en) | Systems and methods for automatic service activation on a computing device | |
KR20240065364A (en) | Method for safety detection of worker using video and apparatus using the same | |
US11803393B2 (en) | Systems and methods for automatic service activation on a computing device | |
US20220309253A1 (en) | Method for providing remote service capable of multilingual input and server performing the same | |
KR102323232B1 (en) | Method and System for Activating Voice Commands of a Smart Display Device based on a Vision-based Mechanism | |
US20230315824A1 (en) | Application operation management and authentication | |
US20210209217A1 (en) | Method and system for authentication using mobile device id based two factor authentication |