KR101457377B1 - User authetication method based on mission gesture recognition, and computer-readable recording medium with user authetication program based on mission gesture recognition - Google Patents

User authetication method based on mission gesture recognition, and computer-readable recording medium with user authetication program based on mission gesture recognition Download PDF

Info

Publication number
KR101457377B1
KR101457377B1 KR1020110144140A KR20110144140A KR101457377B1 KR 101457377 B1 KR101457377 B1 KR 101457377B1 KR 1020110144140 A KR1020110144140 A KR 1020110144140A KR 20110144140 A KR20110144140 A KR 20110144140A KR 101457377 B1 KR101457377 B1 KR 101457377B1
Authority
KR
South Korea
Prior art keywords
user
gesture
mission
motion vector
data
Prior art date
Application number
KR1020110144140A
Other languages
Korean (ko)
Other versions
KR20130093757A (en
Inventor
김종성
Original Assignee
김종성
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김종성 filed Critical 김종성
Priority to KR1020110144140A priority Critical patent/KR101457377B1/en
Priority to PCT/KR2012/010656 priority patent/WO2013100430A1/en
Publication of KR20130093757A publication Critical patent/KR20130093757A/en
Application granted granted Critical
Publication of KR101457377B1 publication Critical patent/KR101457377B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Abstract

본 발명은 미션실행 제스처를 인식하여 사용자를 인증하는 기술에 관한 것이다. 본 발명의 미션실행 제스처 인식을 이용한 사용자 인증방법은, 미리 설정된 하나 이상의 오브젝트의 제스처를 나타내는 패스워드 또는 패스문구를 디스플레이 장치의 UI 화면으로 출력하는 단계; 디스플레이 장치에 구비된 촬상장치에 의해 촬영된 촬영데이터를 수신하여, 촬영데이터에서 각 오브젝트로 분할된 오브젝트 데이터를 추출하는 단계; 각 오브젝트 데이터에서 추출된 동선과 기저장된 패스워드 또는 패스문구 상의 오브젝트별 제스처의 동선과 매칭 여부를 판단하여 모든 오브젝트 상에서 매칭될 경우 사용자에 대한 인증 처리를 수행하는 단계;를 포함하여 이루어진다.The present invention relates to a technique for recognizing a mission execution gesture to authenticate a user. A user authentication method using the mission execution gesture recognition method of the present invention includes: outputting a password or a pass phrase indicating a gesture of at least one object set in advance to a UI screen of a display device; Receiving shooting data shot by an imaging device provided in a display device and extracting object data divided into respective objects from shooting data; Judging whether a copper wire extracted from each object data matches with a copper wire of a gesture according to an object on the pre-stored password or pass phrase, and performing authentication processing for the user when matching is performed on all objects.

Description

미션실행 제스처 인식을 이용한 사용자 인증방법, 및 미션실행 제스처 인식을 이용한 사용자 인증 프로그램을 기록한 컴퓨터로 판독가능한 기록매체{User authetication method based on mission gesture recognition, and computer-readable recording medium with user authetication program based on mission gesture recognition}TECHNICAL FIELD [0001] The present invention relates to a user authentication method using a mission execution gesture recognition, and a user authentication program using a mission execution gesture recognition, mission gesture recognition}

본 발명은 미션실행 제스처 인식을 이용한 사용자 인증 기술에 관한 것이다. 특히, 키 입력이나 음성입력을 이용하여 사용자를 인식하는 종래의 기술에서 다른 사용자에게 인식방식이 노출되어 모방 및 변조에 의해 보안이 취약해지고 하드웨어 장치가 수반되어야 한다는 문제점을 해결하기 위하여 사용자 오브젝트의 미션실행 제스처를 인식하여 사용자를 인증하는 기술에 관한 것이다.
The present invention relates to user authentication techniques using mission-aware gesture recognition. In particular, in order to solve the problem that a recognition method is exposed to another user by using a key input or a voice input to recognize a user, security is weakened by imitation and modulation, and a hardware device must be accompanied, And a technique for recognizing the execution gesture and authenticating the user.

종래, 인터넷 또는 개인 단말에서 사용자 인증은 인터넷 서비스 제공 사업자 또는 개인 단말의 설정으로 개별적으로 인증이 수행되었다. 이러한 경우에 일반적으로 사용자는 미리 설정된 숫자와 문자의 조합에 따라 계정에 따른 비밀번호 입력 방식이 사용되어왔다. 또한 최근에는 음성 입력방식을 통한 사용자 인식이나 지문 인식을 통한 방법도 많이 쓰이고 있다.Conventionally, in the Internet or personal terminal, the user authentication is individually performed by the setting of the Internet service provider or the personal terminal. In this case, generally, the user has used a password inputting method according to the account according to a combination of preset numbers and characters. In recent years, there are also many methods through user recognition through fingerprint input or fingerprint recognition.

그러나 전자의 비밀번호 입력 방식의 경우 해킹이나 부주의한 관리 등으로 인하여 다른 사용자에 대한 노출의 위험성이 높고 일단 노출되면 부정사용에 의해 개인정보가 유출되는 것을 막기가 곤란하다. 또한, 후자의 음성 입력 방식 내지는 지문 인식을 위한 방식은 별도의 입력 장치와 같은 하드웨어적인 기구 구성이 반드시 수반되어야 한다는 단점이 있다.However, in the case of an electronic password input method, there is a high risk of exposure to other users due to hacking or careless management, and once exposed, it is difficult to prevent leakage of personal information due to fraudulent use. In addition, the latter voice input method or fingerprint recognition method has a disadvantage in that a hardware structure such as a separate input device must be accompanied.

이에 따라 해당 기술분야에 있어서는 부정사용자에 의한 불법적인 사용자 인증을 방지하고, 소프트웨어적인 구성을 이용함으로써 사용자에 대한 인증 및 인증에 따른 개인적 데이터에 대한 사용권한을 사용자 특성에 맞도록 설계하기 위한 기술개발이 절실히 요구되고 있다.
Accordingly, in the related art, illegal user authentication by an unauthorized user is prevented, and technology for designing a usage right for personal data according to user authentication and authentication by using a software configuration is developed Is desperately required.

[관련기술문헌][Related Technical Literature]

1. 글로벌 인증 연속성 특징 및 그 실행 방법(특허출원 10-2004-0094524호)1. Global Authentication Continuity Features and Implementation Method (Patent Application No. 10-2004-0094524)

2. 음성 인증 장치, 음성 인증 시스템 및 음성 인증 방법(특허출원 10-2006-7012391호)
2. Voice Authentication Device, Voice Authentication System, and Voice Authentication Method (Patent Application No. 10-2006-7012391)

본 발명의 목적은 키 입력이나 음성입력을 이용하여 사용자를 인식하는 종래의 기술에서 다른 사용자에게 인식방식이 노출되어 모방 및 변조에 의해 보안이 취약해지고 하드웨어 장치가 수반되어야 한다는 문제점을 해결하기 위하여 사용자 오브젝트의 미션실행 제스처를 인식하여 사용자를 인증하는 기술을 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for recognizing a user by using a key input or a voice input in order to solve a problem that a recognition method is exposed to another user and security is weakened by imitation and modulation, And a technique for authenticating a user by recognizing a mission execution gesture of an object.

이러한 과제를 달성하기 위한 본 발명에 따른 미션실행 제스처 인식을 이용한 사용자 인증방법은, 미리 설정된 하나 이상의 오브젝트의 제스처를 포함하는 미션을 사용자에게 출력하는 제 1 단계; 촬상장치에 의해 생성된 촬영데이터를 획득하는 제 2 단계; 촬영데이터로부터 각 오브젝트로 분할된 오브젝트 데이터를 추출하는 제 3 단계; 오브젝트 데이터로부터 촬영데이터의 오브젝트별 제스처의 동선을 추출하는 제 4 단계; 미션에 대하여 사용자에 대해 미리 저장된 오브젝트별 제스처의 동선 정보를 획득하는 제 5 단계; 촬영데이터의 오브젝트별 제스처의 동선과 미리 저장된 오브젝트별 제스처의 동선 정보를 비교하는 제 5 단계; 비교 결과에 따라 사용자 인증 여부를 판단하는 제 6 단계;를 포함하여 구성된다. 이때, 본 발명은 사용자별로 미션을 요청하고 미션에 대응되는 촬영데이터를 획득한 후, 촬영데이터로부터 오브젝트별 제스처의 동선 정보를 추출하여 미리 저장하는 제 0 단계;를 더 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a method for authenticating a user using a mission-execution gesture recognition, the method comprising: a first step of outputting a mission including a gesture of at least one object set in advance to a user; A second step of acquiring image pickup data generated by the image pickup apparatus; A third step of extracting object data divided into respective objects from photographed data; A fourth step of extracting a copper wire of a gesture per object of photographed data from the object data; A fifth step of acquiring copper line information of a gesture per object stored in advance for the user with respect to the mission; A fifth step of comparing a copper wire of the gesture of the photographic data with the copper wire information of the gesture of each object previously stored; And a sixth step of determining whether the user is authenticated according to the comparison result. In this case, the method may further include requesting a mission for each user, acquiring shooting data corresponding to the mission, extracting the moving-line information of the object-specific gesture from the shooting data, and storing it in advance.

한편, 본 발명의 미션실행 제스처 인식을 이용한 사용자 인증방법에서, 제 4 단계는, 오브젝트 데이터 각각에 대해 촬영시간의 흐름에 따른 이동벡터를 추출하는 제 4a 단계와, 오브젝트 데이터 각각으로부터 추출된 이동벡터의 동선에 기초하여 오브젝트별 제스처의 동선을 획득하는 제 4b 단계를 포함하여 구성되는 것이 바람직하다. 또한, 제 3 단계의 오브젝트별 제스처는, 촬영데이터에서 미션실행을 위해서 이루어지는 얼굴의 움직임, 눈 깜박임, 고개돌림, 입 모양의 움직임, 미리 설정된 시간에 반응하는 손가락 움직임, 외부 부착물 움직임 중에서 하나 이상을 포함하여 구성되는 것이 바람직하다.Meanwhile, in the user authentication method using the mission-execution gesture recognition of the present invention, the fourth step includes a step 4a of extracting a motion vector according to the flow of photographing time with respect to each of the object data, And acquiring a copper wire of the gesture per object based on the copper wire of the object. In addition, the object-by-object gesture in the third step includes at least one of face movement, eye flicker, head turning, mouth movement, finger movement in response to a preset time, And the like.

이러한 과제를 달성하기 위한 본 발명에 따른 컴퓨터로 판독가능한 기록매체에 기록된 미션실행 제스처 인식을 이용한 사용자 인증 프로그램은, 미리 설정된 하나 이상의 오브젝트의 제스처를 포함하는 미션을 사용자에게 출력하도록 제어하는 인증UI 구현수단(21a); 촬상장치에 의해 생성된 촬영데이터로부터 각 오브젝트로 분할된 오브젝트 데이터를 추출하는 오브젝트 인식수단(21c); 미션에 대하여 사용자별로 오브젝트별 제스처의 동선 정보를 미리 저장하고 있는 저장부(22); 오브젝트 데이터에서 추출된 동선과 저장부(22)에 사용자에 대해 미리 저장된 오브젝트별 제스처의 동선 정보를 비교하여, 비교 결과로부터 사용자 인증 여부를 판단하는 인증판단 수단(21e);을 구비하여 이루어진다.According to another aspect of the present invention, there is provided a user authentication program for use in recognition of a mission-execution gesture recorded on a computer-readable recording medium, the program comprising an authentication UI for controlling a user to output a mission including a gesture of one or more objects Implementation means 21a; Object recognizing means (21c) for extracting object data divided into respective objects from the photographic data generated by the image pickup apparatus; A storage unit (22) for storing movement information of a gesture per object for each user in advance for the mission; And authentication determination means (21e) for comparing the copper wire extracted from the object data with the copper wire information of the object-specific gesture stored in advance in the storage unit (22) and determining whether or not the user is authenticated based on the comparison result.

이때, 사용자 인증 프로그램은, 오브젝트 데이터 각각에 대해 촬영시간의 흐름에 따른 이동벡터를 추출한 뒤, 인증판단 수단(21e)에 의해 추출된 이동벡터의 동선을 이용하여 사용자에 대해 미리 저장된 오브젝트별 제스처의 동선 정보와 비교 판단하도록 하는 이동벡터 분석수단(21d);을 더 구비하여 이루어질 수 있다. 또한, 사용자 인증 프로그램은, 촬영데이터 수신 전에 촬상장치에 대해 미리 설정된 오브젝트 별로 분할된 오토포커싱이 수행되도록 제어하는 분할포커싱 수단(21b);을 더 구비하여 이루어질 수 있다.
At this time, the user authentication program extracts a motion vector according to the flow of photographing time with respect to each of the object data, and then, using the motion vector of the motion vector extracted by the authentication determination means 21e, And motion vector analysis means (21d) for comparing and judging the motion vector information with the motion vector information. In addition, the user authentication program may further comprise split focus means (21b) for controlling the autofocus, which is divided for each object previously set for the image pickup apparatus, to be performed before the image pickup data is received.

본 발명에 따르면, 키 입력 또는 음성입력과 같은 가시적인 입력 수단 없이 사용자별로 설정된 패스 문자 내지는 패스문구에 대한 입력을 통해 타 사용자에 의한 부정사용을 예방할 수 있는 효과를 제공한다.According to the present invention, illegal use by other users can be prevented through inputting pass characters or pass phrases set for each user without visible input means such as key input or voice input.

즉, 사용자의 입, 눈, 얼굴, 손가락 등과 같은 신체 일부 내지는 사용자가 소지한 부착물 등을 객체화(오브젝트화)하고 오브젝트 별로 제스처를 취하거나 제스처들의 조합으로 사용자를 식별하도록 함으로써, 가시적인 키 입력 또는 음성 입력 없이 사용자에 대한 인증을 수행이 가능하도록 하여 개인의 보안을 강화하는데 효과적이다.
That is, by visualizing (body) a part of a body such as a mouth, a face, a finger, etc. of a user, or attachments possessed by a user, and taking a gesture for each object or identifying a user by a combination of gestures, It is effective to enhance the security of the individual by allowing the user to be authenticated without voice input.

[도 1]은 본 발명에 따른 미션실행 제스처 인식을 이용한 사용자 인증방법이 구현되는 전체 시스템을 나타내는 도면.
[도 2]는 본 발명에 따른 전체 시스템에서 디스플레이 장치와 촬상장치를 설명하기 위한 도면.
[도 3]은 본 발명에 따른 미션실행 제스처 인식을 이용한 사용자 인증방법의 일 실시예를 나타내는 흐름도.
[도 4]는 본 발명에 따른 미션실행 제스처 인식을 이용한 사용자 인증방법의 다른 실시예를 나타내는 흐름도이다.
1 illustrates an overall system in which a user authentication method using mission-aware gesture recognition is implemented in accordance with the present invention.
2 is a diagram for explaining a display device and an imaging device in the entire system according to the present invention.
FIG. 3 is a flowchart illustrating an embodiment of a user authentication method using the mission-execution gesture recognition according to the present invention.
4 is a flowchart illustrating another embodiment of a user authentication method using the mission-execution gesture recognition according to the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

[도 1]은 본 발명에 따른 미션실행 제스처 인식을 이용한 사용자 인증방법이 구현되는 전체 시스템을 나타내는 도면이다. 1 is a diagram illustrating an entire system in which a user authentication method using a mission-execution gesture recognition according to the present invention is implemented.

[도 1]을 참조하여 살펴보면, 본 발명의 미션실행 제스처 인식을 이용한 사용자 인증방법이 구현되는 전체 시스템은 촬상장치(11)를 구비한 디스플레이 장치(10), 그리고 제스처 인증모듈(21)과 저장부(22)를 구비한 인증장치(20)를 포함한다. 여기서 인증장치(20)는 디스플레이 장치(10)와 로컬 영역에서 데이터 버스로 연결되거나, 디스플레이 장치(10)와 네트워크를 통한 데이터 케이블로 연결된 외부 서버로 형성될 수 있다.1, the entire system in which the user authentication method using the mission execution gesture recognition of the present invention is implemented includes a display device 10 having an image capture device 11, a gesture authentication module 21, And an authentication unit (20) having a unit (22). Here, the authentication device 20 may be formed of a data bus in the local area with the display device 10, or an external server connected to the display device 10 through a data cable via a network.

한편, 제스처 인증모듈(21)은 인증UI 구현수단(21a), 분할포커싱 수단(21b), 오브젝트 인식수단(21c), 이동벡터 분석수단(21d), 인증판단 수단(21e)을 구비한다.The gesture authentication module 21 includes an authentication UI implementation unit 21a, a split focusing unit 21b, an object recognition unit 21c, a motion vector analysis unit 21d and an authentication determination unit 21e.

인증UI 구현수단(21a)은 사용자의 인증(로그인) 요청에 대응하여 저장부(22)에 저장된 미리 설정된 오브젝트별 제스처를 나타내는 미션(mission)을 사용자의 아이디 별로 지정하거나 랜덤 방식으로 디스플레이 장치(10)의 UI 화면으로 출력한다. 여기서, 미션은 인증을 바라는 사용자가 수행해야 할 특정의 작업으로서, 특정의 패스워드(password)나 패스문구(passphrase)를 읽는 것이거나, 특정의 신체 동작을 따라하는 것이거나, 혹은 이들의 조합이 가능하다. 예를 들어, 아래의 사항이 미션이 될 수 있다.The authentication UI implementing means 21a designates a mission representing a predetermined object-based gesture stored in the storage unit 22 in correspondence with a user's authentication (login) request for each user's ID, ) To the UI screen. Here, the mission is a specific task that a user who wishes to authenticate can perform, such as reading a specific password or passphrase, following a specific body motion, or a combination thereof Do. For example, the following may be missions.

(1) 아래의 단어를 읽으세요.(1) Please read the following words.

(2) 아래의 문장을 읽으세요.(2) Please read the following sentence.

(3) 얼굴 오른쪽에 검지손가락을 대고 아래의 단어를 읽으세요.(3) Put your index finger on the right side of the face and read the words below.

(4) 고개를 좌우로 돌리세요.(4) Turn your head to the left and right.

(5) 자동차 열쇠를 위 아래로 흔드세요.(5) Shake the car key up and down.

또한, 본 발명에서 오브젝트(objects)는 사용자의 입, 눈, 얼굴, 손가락 등과 같은 신체 일부, 사용자가 소지한 부착물 등으로 지정될 수 있다. 여기서, 오브젝트별 제스처는 기본적으로는 미션에 대응하여 행동하는 전체적인 얼굴의 움직임의 인식을 목적으로 한다. 추가로, 얼굴의 움직임은 쉽게 따라할 수 있으므로 사용자 인증에 대한 보안 강화라는 측면에서 얼굴의 움직임에 하나의 문자 또는 연속된 문자열로 형성된 패스 문자 또는 패스문구를 읽는 입 모양의 움직임을 추가하여 구현할 수 있다. 그 밖에, 얼굴의 움직임에 특정 시간에 반응하는 눈 깜박임, 특정 시간에 반응하는 좌우상하의 고개돌림, 패스워드 또는 패스문구 상의 설명으로 제시되는 미리 설정된 시간에 반응하는 외부 부착물(손가락/기타 물건)의 움직임 등으로 구현될 수 있다.Also, in the present invention, objects can be designated as parts of the user's mouth, eyes, face, fingers and the like, attachments carried by the user, and the like. Here, the object gesture is basically aimed at recognizing the movement of the entire face acting in response to the mission. In addition, since face movements can be easily followed, it can be implemented by adding mouth-shaped movements that read a pass character or pass phrase formed by a single character or a continuous string in face movement in terms of enhancing security for user authentication have. In addition, the movement of external attachments (fingers / other objects) responding to the preset time presented in the description on the password or pass phrase, the blinking of the eyes reacting to the movement of the face at a specific time, Or the like.

분할포커싱 수단(21b)은 디스플레이 장치(10)의 촬상장치(11)를 제어함으로써 사용자 인증을 위해 미리 설정된 오브젝트별 분할된 오토포커싱이 이루어지도록 제어명령을 전송한다.The split focusing means 21b controls the image pickup device 11 of the display device 10 to transmit a control command so as to perform auto focusing for each object previously set for user authentication.

오브젝트 인식수단(21c)은 분할포커싱 수단(21b)에 의한 미리 설정된 오브젝트별 분할된 오토포커싱이 수행된 상태에서의 촬상장치(11)에 의해 촬영된 촬영데이터를 수신한 뒤, 촬영데이터로부터 각 오토포커싱된 오브젝트로 분할된 개별적 오브젝트 데이터를 추출한다.The object recognizing means 21c receives the photographic data photographed by the image pickup device 11 in a state in which the pre-set divided auto focusing for each object is performed by the split focusing means 21b, And extracts individual object data divided into focused objects.

이동벡터 분석수단(21d)은 오브젝트 인식수단(21c)에 의해 추출된 각 오브젝트 데이터에 대해 촬영시간의 흐름에 따른 픽셀들의 변화를 이용해 이동벡터를 추출한다.The motion vector analyzing means 21d extracts a motion vector for each object data extracted by the object recognizing means 21c by using a change of pixels according to the shooting time.

인증판단 수단(21e)은 각 오브젝트 데이터에서 추출된 이동벡터의 동선 각각을 인증UI 구현수단(21a)에 의해 저장부(22)에 기저장된 패스워드 또는 패스문구 상의 오브젝트별 제스처의 동선과의 매칭 여부를 판단한다.The authentication judging means 21e judges whether or not each copper wire of the motion vector extracted from each object data is matched with the password stored in the storage unit 22 by the authentication UI implementing means 21a or the copper wire of the gesture per object on the pass phrase .

이에 따라, 인증판단 수단(21e)은 패스워드 또는 패스문구 상의 오브젝트별 제스처의 동선과 그 추출된 이동벡터의 동선이 모든 오브젝트에서 매칭된 경우, 사용자에 대한 인증 처리를 수행한다.
Accordingly, the authentication determination means 21e performs authentication processing for the user when the copper wire of the gesture per object on the password or pass phrase and the copper wire of the extracted movement vector are matched in all the objects.

[도 2]는 [도 1]의 디스플레이 장치(10)와 촬상장치(11)를 설명하기 위한 도면이다. [도 1] 및 [도 2]을 참조하면, 디스플레이 장치(10)의 전면 상단에는 촬상장치(11)가 고정형 또는 탈부착형으로 형성된다. 여기서, 촬상장치(11)는 사용자에 대해 영역을 설정하여 촬영을 수행한다. 즉, 촬상장치(11)는 [도 2]에 도시된 바와 같이, 원형, 사각형, 그 밖의 형상으로 형성된 특정 영역(A)에 대해서 촬영을 수행하여 촬영된 데이터를 디스플레이 장치(10)로 실시간 출력되도록 설정된다.Fig. 2 is a view for explaining the display device 10 and the image pickup device 11 of Fig. 1. Referring to FIGS. 1 and 2, an imaging device 11 is formed at the top of the front of the display device 10 in a fixed or detachable manner. Here, the imaging apparatus 11 sets an area for the user and performs shooting. That is, as shown in Fig. 2, the imaging apparatus 11 photographs a specific area A formed in a circular shape, a quadrangle shape, or other shape, and outputs the photographed data to the display device 10 in real time .

여기서 디스플레이 장치(10)로 출력되는 영상은 [도 2c]와 같을 수 있으며, 이 경우, 분할포커싱 수단(21b)의 제어에 따른 미리 설정된 오브젝트별 분할된 오토포커싱에 따라 제 1 포커스(f1), 제 2 포커스(f2), 제 3 포커스(f3) 내지 제 n 포커스(fn, n은 4 이상의 자연수) 등과 같이 디스플레이 장치(10)로 출력시 함께 구현될 수 있다.Here, the image output to the display device 10 may be as shown in FIG. 2C. In this case, the first focuses f1, The second focus f2, the third focus f3 to the n-th focus (fn, n is a natural number of 4 or more), or the like.

여기서, 제 1 포커스(f1)는 사용자의 눈, 제 2 포커스(f2)는 사용자의 입, 제 3 포커스(f3)는 사용자의 얼굴로 분할포커싱 수단(21b)에 의해 자동 지정될 수 있다. 추가로, 손이나 사용자가 소지한 물건 등의 부착물을 영역(A) 상에 위치시킬 경우, 분할포커싱 수단(21b)에 의해 오토포커싱이 수행될 수 있다.Here, the first focus f1 may be automatically designated by the split focus means 21b as the user's eye, the second focus f2 as the user's mouth, and the third focus f3 as the user's face. In addition, when an attachment such as a hand or an item carried by a user is placed on the area A, autofocusing can be performed by the split focusing means 21b.

[도 3]은 본 발명에 따른 미션실행 제스처 인식을 이용한 사용자 인증방법을 나타내는 흐름도이다. [도 1] 내지 [도 3]을 참조하면, 인증장치(20)는 미리 설정된 오브젝트별 제스처를 나타내는 패스워드 또는 패스문구를 디스플레이 장치(10)의 UI 화면으로 출력한다(S1).3 is a flowchart illustrating a user authentication method using the mission-execution gesture recognition according to the present invention. Referring to FIG. 1 to FIG. 3, the authentication device 20 outputs a password or a pass phrase indicating a predetermined object-based gesture to the UI screen of the display device 10 (S1).

단계(S1) 이후, 인증장치(20)는 디스플레이 장치(10)의 촬상장치(11) 상에 미리 설정된 오브젝트별로 분할된 오토포커싱이 수행되도록 제어한 뒤, 미리 설정된 오브젝트별 분할된 오토포커싱이 수행된 상태에서의 촬상장치(11)에 의해 촬영된 촬영데이터를 수신한다(S2).After the step S1, the authentication device 20 controls the image sensing device 11 of the display device 10 to perform auto focusing which is divided for each object previously set on the image sensing device 11, (Step S2). [0031] As shown in Fig.

단계(S2) 이후, 인증장치(20)는 촬영데이터로부터 각 오토포커싱된 오브젝트로 분할된 개별적 오브젝트 데이터를 추출한다(S3).After step S2, the authentication device 20 extracts individual object data segmented into individual autofocused objects from the photographic data (S3).

단계(S3) 이후, 인증장치(20)는 각 오브젝트 데이터에 대해 촬영시간의 흐름에 따른 픽셀들의 변화를 이용해 이동벡터를 추출한다(S4).After step S3, the authentication device 20 extracts a motion vector for each object data using the change of the pixels according to the shooting time flow (S4).

단계(S4) 이후, 인증장치(20)는 각 오브젝트 데이터에서 추출된 이동벡터를 단계(S1)에서의 패스워드 또는 패스문구 상의 오브젝트별 제스처의 동선과 매칭 여부를 판단한다(S5).After step S4, the authentication device 20 determines whether the motion vector extracted from each object data is matched with the motion vector of the gesture of each object on the pass phrase or pass phrase in step S1 (S5).

단계(S5) 이후, 인증장치(20)는 패스워드 또는 패스문구 상의 오브젝트별 제스처의 동선이 추출된 이동벡터의 동선과 모든 오브젝트 상에서 매칭된 경우, 사용자에 대한 인증 처리를 수행한다(S6).
After step S5, the authentication device 20 performs an authentication process for the user (S6) if the motion of the object-based gesture on the password or pass phrase matches the motion vector of the extracted motion vector on all objects.

[도 4]는 본 발명의 다른 실시예에 따른 미션실행 제스처 인식을 이용한 사용자 인증방법을 나타내는 흐름도이다. [도 1] 내지 [도 4]를 참조하면, 인증장치(20)는 사용자에 대한 미리 설정된 영역(A)에 대해 디스플레이 장치(10)의 촬상장치(11)를 제어하여 사용자에 대해 미리 설정된 영역(A)에 해당하는 영상데이터를 촬영하도록 한 뒤, 그 촬영된 영상데이터 및 저장 요청을 수신한다(S11). 여기서 촬영된 영상데이터는 정적인 사진이미지 일 수 있다.4 is a flowchart illustrating a method of authenticating a user using a mission-execution gesture recognition according to another embodiment of the present invention. Referring to FIGS. 1 to 4, the authentication device 20 controls the image capture device 11 of the display device 10 with respect to a predetermined area A for the user, (A), and receives the photographed image data and a storage request (S11). The photographed image data may be static photographic images.

단계(S11) 이후, 인증장치(20)는 사용자의 입 모양 움직임, 눈 깜빡임, 고개 돌림, 손가락의 움직임 중 하나 이상의 제스처를 포함하는 패스워드 또는 패스문구를 디스플레이 장치(10)의 UI 화면으로 출력하도록 제어한다(S12). 여기서, 패스워드 또는 패스문구는 입 모양 움직임 제스처 단독을 의미하는 데이터로 형성될 수 있으며, 눈 깜박임, 고개 돌림, 손가람 움직임으로 대체되거나 입 모양 움직임 제스처와 각 제스처의 시간의 흐름에 따른 메타데이터를 추가한 형태의 데이터로 제공될 수 있다.After step S11, the authentication device 20 outputs a password or pass phrase including one or more gestures of the user's mouth motion, eye flicker, head turning, and finger motion to the UI screen of the display device 10 (S12). Here, the password or the pass phrase may be formed of data indicating the mouth-shaped motion gesture alone, and may be replaced with eye flicker, head turning, hand movements, or a mouth-shaped movement gesture and metadata according to the time of each gesture And can be provided as one type of data.

보다 구체적인 실시예로, 패스워드 또는 패스문구는 얼굴을 인식하는 방법(미션실행 제스처)에 대해서 광범위하게 정의될 수 있으며, 사용자의 얼굴 상의 입모양, 눈 깜박임의 변화, 손가락 등을 입에 대도록 하는 것과 같은 얼굴 외적인 부분의 미리 설정된 영역(A)으로의 추가 등으로 정의될 수 있다.In a more specific embodiment, the password or pass phrase may be broadly defined for a method of recognizing a face (mission execution gesture), such as changing a mouth shape, a change in eye flicker on a user's face, The addition of a part outside the same face to a predetermined area A, and the like.

한편, 패스워드 또는 패스문구는 단어나 문장 외에도 다양하게 구현될 수 있으며, 사용자의 제스처를 설명할 수 있는 다양한 표현 행위가 다 포함될 수 있다. 예컨대, "오른쪽 입고리에 검지를 대고 주어진 단어를 읽으세요", "앞에 보여지는 얼굴(아바타)을 따라 해주세요" 등으로도 제시될 수 있다.Meanwhile, the password or pass phrase may be variously implemented in addition to the word or sentence, and may include various expressive actions that can explain the user's gesture. For example, it can be presented as "read the given word with the index finger on the right side" and "follow the face (avatar) shown before".

단계(S12) 이후, 인증장치(20)는 디스플레이 장치(10)의 촬상장치(11)로 사용자의 입 부분, 눈 부분, 얼굴 부분 및 손가락 부분 중 적어도 하나 이상에 대한 대한 오토포커싱이 수행되도록 제어한 뒤, 오토포커싱이 수행되어 촬영된 촬영데이터를 수신한다(S13).After step S12, the authentication device 20 controls the imaging device 11 of the display device 10 so as to perform autofocusing on at least one of the mouth part, eye part, face part and finger part of the user After that, auto focusing is performed and photographed photographic data is received (S13).

단계(S13) 이후, 인증장치(20)는 단계(S13)의 촬영데이터로부터 사용자의 입 부분, 눈 부분, 얼굴 부분, 손가락 부분 중 하나 이상의 움직임을 분석하여 이동벡터를 추출한다(S14).After step S13, the authentication device 20 extracts a motion vector by analyzing motion of at least one of the mouth part, eye part, face part, and finger part of the user from the photographic data of step S13 (S14).

단계(S14) 이후, 인증장치(20)는 단계(S14)에서 추출된 사용자의 입 부분, 눈 부분, 얼굴 부분, 손가락 부분 중 하나 이상의 움직임을 나타내는 이동벡터의 동선 각각을 저장부(22)에 기저장된 패스워드 또는 패스문구를 나타내는 제스처의 동선과의 비교를 통해 매칭 여부를 판단한다(S15).After step S14, the authentication device 20 stores each of the motion vectors of the motion vector representing the motion of at least one of the mouth part, eye part, face part, and finger part of the user extracted in step S14 to the storage part 22 The comparison is made with the gesture copper line representing the stored password or the pass phrase to judge whether or not the matching is performed (S15).

단계(S15) 이후, 인증장치(20)는 각 추출된 이동벡터의 동선과 기저장된 패스워드 또는 패스문구를 나타내는 제스처의 동선이 모두 매칭된 경우, 사용자에 대한 인증 처리를 수행한다(S16).After step S15, the authentication device 20 performs an authentication process for the user when both the copper wire of the extracted motion vector and the copper wire of the gesture indicating the stored password or the pass phrase are matched (S16).

여기서, 인증장치(20)는 단계(S11)에서의 저장부(22)에 저장된 초기 영상데이터에 대한 사용자의 사용권한을 부여함으로써, 단계(S11)에서의 초기 영상데이터를 저장부(22)에 저장한다(S17).Here, the authentication apparatus 20 grants the user's right to use the initial image data stored in the storage unit 22 in step S11, and stores the initial image data in step S11 in the storage unit 22 (S17).

본 발명은 패스워드 또는 패스문구 상의 특정 단어 내지 문장을 읽을 때의 사용자의 동적인 입 모양 추적을 사용자에 대한 인증 수단으로 주로 사용한다. 이 경우, 소리없이 패스워드 입력 기능에 대한 구현이 가능하며, 주변에 노출될 가능성도 감소할 수 있으며, 단계(S16)에서의 인증이 완료될 경우 단계(11)에서 저장된 초기 영상데이터에 대한 삭제, 복사, 편집, 네트워크를 통한 외부로의 전송 등과 같은 사진 이용에 대한 관한 설정에 사용됨으로써, 개인 정보에 대한 보안 강화를 수행할 수 있는 기능을 수행할 수 있다.
The present invention mainly uses a dynamic mouth-shape tracking of a user when reading a specific word or sentence on a password or pass phrase as an authentication means for a user. In this case, it is possible to implement the password input function without sound, and the possibility of exposure to the surroundings can be reduced. When the authentication in step S16 is completed, the initial image data stored in step 11 is deleted, Such as copying, editing, transmission to the outside via a network, and the like, so that it is possible to perform a function of performing security enhancement on personal information.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) .

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers skilled in the art to which the present invention pertains.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
As described above, preferred embodiments of the present invention have been disclosed in the present specification and drawings, and although specific terms have been used, they have been used only in a general sense to easily describe the technical contents of the present invention and to facilitate understanding of the invention , And are not intended to limit the scope of the present invention. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

10: 디스플레이 장치
11: 촬상장치
20: 인증장치
21: 제스처 인증모듈
21a: 인증UI 구현수단
21b: 분할포커싱 수단
21c: 오브젝트 인식수단
21d: 이동벡터 분석수단
21e: 인증판단 수단
22: 저장부
10: Display device
11: Imaging device
20: Authentication device
21: Gesture authentication module
21a: Authentication UI implementation means
21b: split focusing means
21c: Object recognition means
21d: Moving vector analysis means
21e: authentication determination means
22:

Claims (7)

미리 설정된 하나 이상의 오브젝트의 제스처를 포함하는 미션을 사용자에게 출력하는 제 1 단계;
촬상장치에 의해 생성된 촬영데이터를 획득하는 제 2 단계;
상기 촬영데이터로부터 사용자의 신체 구성요소를 포함하는 복수의 오브젝트 별로 분할된 복수의 오브젝트 데이터를 추출하는 제 3 단계;
상기 분할된 오브젝트 데이터 각각에 대해 촬영시간의 흐름에 따른 이동벡터를 추출함으로써 상기 추출된 이동벡터의 동선에 기초하여 상기 오브젝트별 제스처의 동선을 획득하는 제 4 단계;
상기 미션에 대하여 상기 사용자에 대해 사용자 인증을 위해 미리 저장된 오브젝트별 제스처의 동선 정보를 획득하는 제 5 단계;
상기 촬영데이터로부터 획득된 오브젝트별 제스처의 동선과 상기 미리 저장된 오브젝트별 제스처의 동선 정보를 비교하는 제 6 단계;
상기 비교 결과에 따라 사용자 인증 여부를 판단하는 제 7 단계;
를 포함하여 구성되는 미션실행 제스처 인식을 이용한 사용자 인증방법.
A first step of outputting a mission including a gesture of one or more predetermined objects to a user;
A second step of acquiring image pickup data generated by the image pickup apparatus;
A third step of extracting a plurality of pieces of object data divided for each of a plurality of objects including a user's body component from the captured data;
A fourth step of acquiring a motion line of the object-based gesture on the basis of the motion vector of the extracted motion vector by extracting a motion vector according to a photographing time flow for each of the divided object data;
A fifth step of acquiring copper information of a gesture per object stored in advance for user authentication with respect to the mission;
A sixth step of comparing the copper wire of the gesture per object obtained from the photographic data with the copper wire information of the gesture pertaining to the pre-stored object;
Determining whether the user is authenticated according to the comparison result;
And a user authentication method using the mission execution gesture recognition.
청구항 1에 있어서,
사용자별로 상기 미션을 요청하고 상기 미션에 대응되는 촬영데이터를 획득한 후, 상기 촬영데이터로부터 오브젝트별 제스처의 동선 정보를 추출하여 미리 저장하는 제 0 단계;
를 더 포함하여 구성되는 미션실행 제스처 인식을 이용한 사용자 인증방법.
The method according to claim 1,
A 0th step of requesting the mission for each user and acquiring photographic data corresponding to the mission, extracting copper line information of a gesture per object from the photographic data, and storing the copper line information in advance;
And a user authentication method using the mission execution gesture recognition.
삭제delete 청구항 1에 있어서,
상기 제 3 단계의 상기 오브젝트별 제스처는, 상기 촬영데이터에서 상기 미션실행을 위해서 이루어지는 얼굴의 움직임, 눈 깜박임, 고개돌림, 입 모양의 움직임, 미리 설정된 시간에 반응하는 손가락 움직임, 외부 부착물 움직임 중에서 하나 이상을 포함하여 구성되는 것을 특징으로 하는 미션실행 제스처 인식을 이용한 사용자 인증방법.
The method according to claim 1,
Wherein the object-specific gesture in the third step includes a step of selecting one of the face movement, eye flicker, head turning, mouth movement, finger movement in response to a preset time, The method of claim 1, further comprising:
미리 설정된 하나 이상의 오브젝트의 제스처를 포함하는 미션을 사용자에게 출력하는 인증UI 구현수단(21a);
촬상장치에 의해 생성된 촬영데이터로부터 사용자의 신체 구성요소를 포함하는 복수의 오브젝트 별로 분할된 복수의 오브젝트 데이터를 추출하는 오브젝트 인식수단(21c);
상기 분할된 오브젝트 데이터 각각에 대해 촬영시간의 흐름에 따른 이동벡터를 추출함으로써 상기 추출된 이동벡터의 동선에 기초하여 상기 오브젝트별 제스처의 동선을 획득하는 이동벡터 분석수단(21d);
사용자 인증을 위해 상기 미션에 대하여 사용자별로 오브젝트별 제스처의 동선 정보를 미리 저장하고 있는 저장부(22);
상기 이동벡터 분석수단(21d)에 의해 획득된 상기 오브젝트별 제스처의 동선과 상기 저장부(22)에 상기 사용자에 대해 미리 저장된 오브젝트별 제스처의 동선 정보를 비교하여, 상기 비교 결과로부터 사용자 인증 여부를 판단하는 인증판단 수단(21e);
을 구비하는 미션실행 제스처 인식을 이용한 사용자 인증 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
An authentication UI implementing means (21a) for outputting a mission including a gesture of at least one object set in advance to a user;
Object recognizing means (21c) for extracting a plurality of object data divided for each of a plurality of objects including a user's body component from the image pickup data generated by the image pickup apparatus;
Motion vector analysis means (21d) for obtaining a motion vector of the object-based gesture based on the motion vector of the extracted motion vector by extracting a motion vector according to the flow of shooting time with respect to each of the divided object data;
A storage unit (22) for storing movement information of a gesture per object for each user in advance for user authentication;
Compares the copper wire of the gesture per object obtained by the motion vector analysis means 21d with the copper wire information of the object gesture stored in advance in the storage unit 22 with respect to the user, An authentication judgment means 21e for judging;
And a user authentication program that uses the mission execution gesture recognition.
삭제delete 청구항 5에 있어서,
상기 사용자 인증 프로그램은,
상기 촬영데이터 수신 전에 상기 촬상장치에 대해 미리 설정된 오브젝트 별로 분할된 오토포커싱이 수행되도록 제어하는 분할포커싱 수단(21b);
을 더 구비하는 미션실행 제스처 인식을 이용한 사용자 인증 프로그램을 기록한 컴퓨터로 판독가능한 기록매체.
The method of claim 5,
The user authentication program includes:
A split focusing means (21b) for controlling to perform autofocusing, which is divided for each object previously set in the image pickup apparatus, before receiving the image pickup data;
And a user authentication program that uses the mission execution gesture recognition.
KR1020110144140A 2011-12-28 2011-12-28 User authetication method based on mission gesture recognition, and computer-readable recording medium with user authetication program based on mission gesture recognition KR101457377B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110144140A KR101457377B1 (en) 2011-12-28 2011-12-28 User authetication method based on mission gesture recognition, and computer-readable recording medium with user authetication program based on mission gesture recognition
PCT/KR2012/010656 WO2013100430A1 (en) 2011-12-28 2012-12-11 Method for authenticating user using mission execution gesture recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110144140A KR101457377B1 (en) 2011-12-28 2011-12-28 User authetication method based on mission gesture recognition, and computer-readable recording medium with user authetication program based on mission gesture recognition

Publications (2)

Publication Number Publication Date
KR20130093757A KR20130093757A (en) 2013-08-23
KR101457377B1 true KR101457377B1 (en) 2014-11-03

Family

ID=48697825

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110144140A KR101457377B1 (en) 2011-12-28 2011-12-28 User authetication method based on mission gesture recognition, and computer-readable recording medium with user authetication program based on mission gesture recognition

Country Status (2)

Country Link
KR (1) KR101457377B1 (en)
WO (1) WO2013100430A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101464446B1 (en) * 2013-10-07 2014-11-24 재단법인대구경북과학기술원 Method for user vertification using face recognition and head pose estimation and apparatus thereof
CN104808914B (en) * 2014-01-27 2018-10-12 联想(北京)有限公司 Information processing method and electronic equipment
US10613687B2 (en) 2014-01-13 2020-04-07 Beijing Lenovo Software Ltd. Information processing method and electronic device
US9811649B2 (en) * 2014-11-13 2017-11-07 Intel Corporation System and method for feature-based authentication
US10204265B2 (en) 2016-01-11 2019-02-12 Electronics And Telecommunications Research Institute System and method for authenticating user
KR102444011B1 (en) * 2021-09-17 2022-09-16 사십오센티미터 주식회사 System and method for validating actual sales of online treaded products

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100066352A (en) * 2008-12-08 2010-06-17 한국전자통신연구원 Apparatus for contest awareness and method using the same
KR20110003146A (en) * 2009-07-03 2011-01-11 한국전자통신연구원 Apparatus for econgnizing gesture, robot system using the same and method for econgnizing gesture using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100713494B1 (en) * 2005-06-20 2007-04-30 삼성전자주식회사 Method for authenticating user using camera module and mobile communication terminal therefor
KR20070045765A (en) * 2005-10-28 2007-05-02 엘지전자 주식회사 Mobile communication terminal authenticating user using movement sensing function and the method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100066352A (en) * 2008-12-08 2010-06-17 한국전자통신연구원 Apparatus for contest awareness and method using the same
KR20110003146A (en) * 2009-07-03 2011-01-11 한국전자통신연구원 Apparatus for econgnizing gesture, robot system using the same and method for econgnizing gesture using the same

Also Published As

Publication number Publication date
WO2013100430A1 (en) 2013-07-04
KR20130093757A (en) 2013-08-23

Similar Documents

Publication Publication Date Title
US11310223B2 (en) Identity authentication method and apparatus
CN108804884B (en) Identity authentication method, identity authentication device and computer storage medium
JP6282715B2 (en) Method for controlling access to computer system by performing authentication, computer program, and computer-readable recording medium
CN111886842B (en) Remote user authentication using threshold-based matching
KR101457377B1 (en) User authetication method based on mission gesture recognition, and computer-readable recording medium with user authetication program based on mission gesture recognition
US20180293771A1 (en) Systems and methods for creating, sharing, and performing augmented reality
CN105868677B (en) Living body face detection method and device
US20170185760A1 (en) Face-Controlled Liveness Verification
KR20190129826A (en) Biometrics methods and apparatus, systems, electronic devices, storage media
JP7006584B2 (en) Biometric data processing device, biometric data processing system, biometric data processing method, biometric data processing program, storage medium for storing biometric data processing program
US10339334B2 (en) Augmented reality captcha
JP2021099802A (en) Method and system for verifying users
US9183430B2 (en) Portable electronic apparatus and interactive human face login method
CN114612986A (en) Detection method, detection device, electronic equipment and storage medium
Tariq et al. Am I a real or fake celebrity? Evaluating face recognition and verification APIs under deepfake impersonation attack
EP3528152A1 (en) Method and apparatus for user authentication
US20220245963A1 (en) Method, apparatus and computer program for authenticating a user
CN111160251B (en) Living body identification method and device
KR20140134844A (en) Method and device for photographing based on objects
WO2018122960A1 (en) Photographer identification system, photographer identification method, and program
US11636186B1 (en) Location-based augmented reality (AR) administration and management
EP4113334A1 (en) Method and system for automatic proofing of a remote recording
JP6103706B2 (en) Authentication processing apparatus and authentication processing method
Sun Security and Privacy Solutions for Camera and Camera Based Authentication
Minakova et al. Implementing Open Source Biometric Face Authentication for Multi-factor Authentication Procedures

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20130622

Effective date: 20140731

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180929

Year of fee payment: 5