KR102094488B1 - Apparatus and method for user authentication using facial emg by measuring changes of facial expression of hmd user - Google Patents

Apparatus and method for user authentication using facial emg by measuring changes of facial expression of hmd user Download PDF

Info

Publication number
KR102094488B1
KR102094488B1 KR1020180072526A KR20180072526A KR102094488B1 KR 102094488 B1 KR102094488 B1 KR 102094488B1 KR 1020180072526 A KR1020180072526 A KR 1020180072526A KR 20180072526 A KR20180072526 A KR 20180072526A KR 102094488 B1 KR102094488 B1 KR 102094488B1
Authority
KR
South Korea
Prior art keywords
user
facial
emg
expression
personal authentication
Prior art date
Application number
KR1020180072526A
Other languages
Korean (ko)
Other versions
KR20200000552A (en
Inventor
임창환
차호승
최성준
김호담
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020180072526A priority Critical patent/KR102094488B1/en
Publication of KR20200000552A publication Critical patent/KR20200000552A/en
Application granted granted Critical
Publication of KR102094488B1 publication Critical patent/KR102094488B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00268
    • G06K9/00288
    • G06K9/00302
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)

Abstract

HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치 및 방법이 제시된다. 일 실시예에 따른 사용자의 개인 인증 장치는, 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하는 입력부; 및 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류하는 분류부를 포함하고, 상기 분류기를 통해 분류된 사용자를 인식함에 따라 사용자의 개인 인증을 수행할 수 있다. A user's personal authentication device and method using the measured EMG when a facial expression change of a HMD wearer is presented. The personal authentication device of a user according to an embodiment includes: an input unit that acquires an EMG signal of the face according to a change in the facial expression of the user; And a classifying unit for classifying facial expressions and users using a classifier previously learned according to facial expressions from the obtained EMG signal of the facial unit, and performing personal authentication of the user by recognizing a user classified through the classifier.

Description

HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치 및 방법{APPARATUS AND METHOD FOR USER AUTHENTICATION USING FACIAL EMG BY MEASURING CHANGES OF FACIAL EXPRESSION OF HMD USER}A user's personal authentication device and method using the measured EMG when the facial expression of an HMD wearer changes {APPARATUS AND METHOD FOR USER AUTHENTICATION USING FACIAL EMG BY MEASURING CHANGES OF FACIAL EXPRESSION OF HMD USER}

아래의 실시예들은 안면부 근전도를 이용한 사용자 인증 기술에 관한 것으로, 더욱 상세하게는, HMD(Head-Mounted Display) 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치 및 방법에 관한 것이다. The following embodiments relate to a user authentication technology using EMG on the face, and more particularly, to a personal authentication device and method of a user using EMG measured when a facial expression change of a HMD (Head-Mounted Display) wearer is changed.

사용자 인증 기술은 사용자 스스로 설정해 놓은 비밀번호나 사용자의 고유한 생체신호 특성을 이용해 사용자의 신원을 확인하는 기술이다. 인터넷 보급과 스마트 폰(smart phone), 태블릿 컴퓨터(tablet PC) 등의 디바이스(device) 발달로 인해 무수한 정보를 어디서나 쉽게 접근할 수 있게 되었지만, 개인정보 유출 등 보안의 악화로 보다 안전한 사용자 인증 기술 개발이 요구되고 있다. The user authentication technology is a technology that verifies the user's identity using a password set by the user himself or the user's unique biosignal characteristics. Due to the spread of the Internet and the development of devices such as smart phones and tablet PCs, it has been possible to easily access innumerable information from anywhere. This is required.

예컨대 비밀번호 방식 사용자 인증 기술은 사용자와 서버가 미리 설정해 놓은 지식에 대해 서로 확인하는 방식으로 타 인증 방식에 비해 구축비용이 적고 사용하기 편리하나, 여러 인증 시스템에 동일한 지식을 사용하는 특성과 기억하기 쉽게 자신의 정보와 유사하게 작성된다는 특성으로 인해 보안이 취약하다는 단점이 있다. For example, the password-based user authentication technology checks each other's knowledge set in advance by the user and the server, and it is easier to use and less expensive to build than other authentication methods, but it is easy to remember and use the same knowledge for multiple authentication systems. The disadvantage is that security is weak due to the characteristics that it is written similar to one's own information.

반면, 생체 기반 인증방식은 사용자의 고유 생체정보를 이용하여 인증하는 방식으로, 비밀번호 방식처럼 지식을 기억하거나 보안카드처럼 소지해야 할 매체가 필요 없기 때문에 편리한 장점이 있다. 현재 생체신호 기반 사용자 인증 기술은 지문인식, 얼굴인식, 홍채인식, 정맥인식 등이 활용되고 있다. On the other hand, the biometric-based authentication method is a method of authenticating using the user's unique biometric information, which is convenient because it does not require a medium to remember or carry a security card like a password method. Currently, fingerprint recognition, face recognition, iris recognition, and vein recognition are used as the user authentication technology based on bio-signals.

한편 근전도는 근육의 움직임에 따라 발생하는 전기 신호로, 장애인의 휠체어 컨트롤, 로봇 의수 컨트롤, 마비된 상지 및 하지 재활 로봇을 위한 근전도 기반 인터페이스가 개발되어 왔다. 또한, 최근에는 안면부 근전도를 활용한 표정인식 기술이 개발되고 있다. 그러나 카메라를 주로 이용한 표정인식 기술은 HMD를 활용하는 VR(Virtual Reality)/AR(Augmented Reality) 환경에서 사용자의 얼굴이 VR/AR 기기에 가려져 사용할 수 없다. On the other hand, EMG is an electrical signal generated according to muscle movement, and EMG-based interfaces have been developed for wheelchair control of the disabled, robot prosthesis control, paralyzed upper and lower limb rehabilitation robots. In addition, facial recognition technology using facial electromyography has recently been developed. However, the facial recognition technology mainly using the camera cannot be used because the user's face is obscured by the VR / AR device in a VR (Virtual Reality) / AR (Augmented Reality) environment using HMD.

Cannan, J., & Hu, H. (2013, July). Automatic user identification by using forearm biometrics. In Advanced Intelligent Mechatronics (AIM), 2013 IEEE/ASME International Conference on (pp. 710-715). IEEE. Cannan, J., & Hu, H. (2013, July). Automatic user identification by using forearm biometrics. In Advanced Intelligent Mechatronics (AIM), 2013 IEEE / ASME International Conference on (pp. 710-715). IEEE. Yamaba, H., Kurogi, T., Aburada, K., Kubota, S. I., Katayama, T., Park, M., & Okazaki, N. (2017). On applying support vector machines to a user authentication method using surface electromyogram signals. Artificial Life and Robotics, 1-7. Yamaba, H., Kurogi, T., Aburada, K., Kubota, S. I., Katayama, T., Park, M., & Okazaki, N. (2017). On applying support vector machines to a user authentication method using surface electromyogram signals. Artificial Life and Robotics, 1-7.

실시예들은 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치 및 방법에 관하여 기술하며, 보다 구체적으로 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행하는 기술을 제공한다. The embodiments describe the user's personal authentication device and method using the EMG measured when the facial expression of the HMD wearer changes, and more specifically, perform the user's personal authentication using the measured EMG measured by the HMD wearer when the facial expression changes. Provides the technology to

실시예들은 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하여 표정 및 사용자를 분류함으로써 빠르고 정확하게 사용자를 인증할 수 있으며, 카메라를 주로 이용한 표정인식 기술의 경우 HMD를 활용하는 VR/AR 환경에서 사용자의 얼굴이 VR/AR 기기에 가려져 사용할 수 없으나, 센싱을 통해 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행할 수 있다. Embodiments can quickly and accurately authenticate the user by acquiring the EMG signal of the facial part according to the user's facial expression change and classifying the expression and the user, and in the case of facial recognition technology mainly using a camera, a user in a VR / AR environment using HMD The face of the screen cannot be used because it is hidden by the VR / AR device, but the user's personal authentication can be performed using the EMG measured on the face when the facial expression of the HMD wearer changes through sensing.

일 실시예에 따른 사용자의 개인 인증 장치는, 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하는 입력부; 및 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류하는 분류부를 포함하고, 상기 분류기를 통해 분류된 사용자를 인식함에 따라 사용자의 개인 인증을 수행할 수 있다. The personal authentication device of a user according to an embodiment includes: an input unit that acquires an EMG signal of the face according to a change in the facial expression of the user; And a classifying unit for classifying facial expressions and users using a classifier previously learned according to facial expressions from the obtained EMG signal of the facial unit, and performing personal authentication of the user by recognizing a user classified through the classifier.

획득한 상기 안면부 근전도 신호에서 특징을 추출하는 특징 추출부; 및 상기 분류부에서 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류함에 따라 사용자를 인식하는 사용자 인식부를 더 포함하고, 상기 분류부는, 상기 특징 추출부에서 추출된 특징을 상기 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류할 수 있다. A feature extraction unit for extracting features from the acquired EMG signal of the face portion; And a user recognition unit for recognizing a user by classifying facial expressions using a classifier pre-trained according to an expression in the EMG signal obtained from the classification unit, wherein the classification unit extracts features from the feature extraction unit. According to the facial expression, the facial expression may be classified using a classifier previously learned.

상기 특징 추출부는, 대역통과필터를 사용하여 전처리를 수행한 후, 소정의 윈도우의 크기를 옮겨가며 특징을 추출하고, 상기 분류부는, 기계 학습 알고리즘 중 하나인 LDA(Linear Discriminant Analysis)를 사용하여 표정 및 사용자를 분류하며, 상기 사용자 인식부는, 다수결 투표를 사용하여 현재 시점까지의 가장 많이 분류된 결과를 최종 사용자로 인식함에 따라 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행할 수 있다. The feature extracting unit, after performing pre-processing using a bandpass filter, extracts a feature by moving a size of a predetermined window, and the classification unit expresses an expression using Linear Discriminant Analysis (LDA), one of machine learning algorithms. And classifying the user, and the user recognition unit recognizes the most classified result up to the current point in time by using a majority vote, thereby using the facial EMG measured when the facial expression of the HMD wearer changes to authenticate the user. You can do

다른 실시예에 따른 사용자의 개인 인증 방법은 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하는 단계; 및 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류하는 단계를 포함하고, 상기 분류기를 통해 분류된 사용자를 인식함에 따라 사용자의 개인 인증을 수행할 수 있다. According to another embodiment of the present invention, a user's personal authentication method includes acquiring an EMG signal on the face according to a change in the facial expression of the user; And classifying the facial expression and the user using a classifier previously learned according to the facial expression from the obtained EMG signal of the face, and performing personal authentication of the user by recognizing the classified user through the classifier.

획득한 상기 안면부 근전도 신호에서 특징을 추출하는 단계; 및 상기 분류부에서 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류함에 따라 사용자를 인식하는 단계를 더 포함하고, 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류하는 단계는, 상기 특징 추출부에서 추출된 특징을 상기 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류할 수 있다. Extracting a feature from the acquired EMG signal of the face; And recognizing a user by classifying facial expressions using a classifier previously learned according to facial expressions from the EMG signal obtained from the classification unit, and classifying the classifiers previously learned according to facial expressions from the EMG signal of the facial unit. The step of classifying the facial expressions and the user may classify the facial expressions using the classifiers previously learned according to the facial expressions of the features extracted by the feature extraction unit.

실시예들에 따르면 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행하는 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치 및 방법을 제공할 수 있다. According to embodiments, a personal authentication device and method for a user using a measured EMG when a facial expression change of a HMD wearer is performed using a facial EMG measured when a facial expression change of the HMD wearer is changed can be provided. .

실시예들에 따르면 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하여 표정 및 사용자를 분류함으로써 빠르고 정확하게 사용자를 인증할 수 있으며, 카메라를 주로 이용한 표정인식 기술의 경우 HMD를 활용하는 VR/AR 환경에서 사용자의 얼굴이 VR/AR 기기에 가려져 사용할 수 없으나, 센싱을 통해 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행할 수 있다. According to embodiments, a user can quickly and accurately authenticate a user by acquiring an EMG signal on the face according to a user's facial expression change and classifying the expression and the user, and in the case of facial recognition technology mainly using a camera, VR / AR environment using HMD The user's face cannot be used because it is hidden by the VR / AR device, but the user's personal authentication can be performed using the EMG measured on the face when the facial expression of the HMD wearer changes through sensing.

도 1은 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치의 구조를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 표정 사진의 예를 나타내는 도면이다.
도 3은 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 실험 방법을 설명하는 도면이다.
도 4는 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 방법을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 교차 검증 수행 방법을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 센서 배치도의 예를 나타내는 도면이다.
1 is a view for explaining the structure of the user's personal authentication device using the measured EMG when the facial expression change of the HMD wearer according to an embodiment.
2 is a view showing an example of a facial expression photograph according to an embodiment.
3 is a diagram illustrating a user's personal authentication test method using EMG measured when a facial expression of a HMD wearer is changed according to an embodiment.
FIG. 4 is a diagram for explaining a user's personal authentication method using EMG measured when a facial expression of an HMD wearer changes according to an embodiment.
5 is a view for explaining a method of performing cross verification according to an embodiment.
6 is a view showing an example of a sensor layout according to an embodiment.

이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Hereinafter, embodiments will be described with reference to the accompanying drawings. However, the described embodiments may be modified in various other forms, and the scope of the present invention is not limited by the embodiments described below. In addition, various embodiments are provided to more fully describe the present invention to those skilled in the art. The shape and size of elements in the drawings may be exaggerated for a more clear description.

본 발명은 안면부 근전도(Electromyograph: EMG)를 이용한 사용자 인증 기술에 관한 것이다. 최근 근전도 기반 인터페이스는 VR/AR 등 헤드 마운트 디스플레이 환경(Head-Mounted Display: HMD) 발전에 따라 크게 각광 받고 있다. 특히, 안면부 근전도 기반 표정 표정인식 기술은 사용자의 얼굴이 가려져 카메라 기반 표정인식 기술을 사용할 수 없기 때문에 VR/AR 응용에 적극적으로 활용될 것으로 기대된다. The present invention relates to a user authentication technology using an electromyography (Electromyograph: EMG). Recently, the EMG-based interface has been spotlighted by the development of Head-Mounted Display (HMD) such as VR / AR. In particular, since facial expressions based on EMG facial expressions cannot be used for camera-based facial expression recognition because the user's face is obscured, it is expected to be actively utilized in VR / AR applications.

본 발명의 실시예들은 안면부 근전도 기반 표정인식 인터페이스뿐만 아니라, 다른 근육 머신 인터페이스의 심리스한 사용을 위하여 사용자의 안면부 근전도로 활용한 사용자 인증 기술을 제공할 수 있다. 생체 인식 기술 중에서 근전도(EMG) 신호는 사용자마다 진동수 및 파형이 다르고, 근육의 수축 및 이완된 정도에 따라 다르기 때문에 근전도 신호를 자동화된 장치로 측정한다면 개인을 인증 또는 식별하는데 유용하게 사용될 수 있다.Embodiments of the present invention can provide a user authentication technology utilized as a user's facial electromyography for seamless use of other muscle machine interfaces as well as a facial EMG-based facial expression recognition interface. Among the biometric technologies, since the EMG signal varies according to the frequency and waveform of each user and the degree of contraction and relaxation of the muscle, the EMG signal can be usefully used to authenticate or identify an individual if the EMG signal is measured with an automated device.

특히, 안면부 근전도를 활용한 사용자 인증 연구는 진행된 적이 없으며, 팔 부위의 근전도를 활용한 사용자 인증 연구가 소규모 진행되었다. 아래 표와 같이, 사용자 인증을 위한 제스처 등록 시간이 상당히 걸리며, 또한 사용자 인증 정확도가 높지 않은 것을 확인할 수 있다. In particular, no user authentication studies have been conducted using EMG on the face, and a small user authentication study using EMG on the arm has been conducted. As shown in the table below, it can be confirmed that the gesture registration time for user authentication takes considerably and the accuracy of user authentication is not high.

표 1은 근전도 기반 사용자 인증 연구의 비교를 나타낸다. Table 1 shows a comparison of EMG-based user authentication studies.

[표 1][Table 1]

Figure 112018061876797-pat00001
Figure 112018061876797-pat00001

표 1에 도시된 바와 같이, 기존 연구들(비특허문헌 1 및 비특허문헌 2)은 다른 부위의 근전도를 활용한 사용자 인증 결과로써, 안면부에서 얻은 근전도와 비교하기는 힘드나 전체적으로 인증을 위한 제스처 등록시간이 오래 걸리며, 인증 정확도도 낮은 것을 확인할 수 있다. As shown in Table 1, the existing studies (non-patent document 1 and non-patent document 2) are user authentication results using electromyography of other parts, which is difficult to compare with the electromyogram obtained from the face, but gesture registration for authentication as a whole. It can be seen that it takes a long time and the authentication accuracy is low.

본 발명에서는 이러한 제스처 등록시간을 이전 연구들보다 줄이고 정확도를 향상할 수 있는 사용자 인증 기술을 제공한다. The present invention provides a user authentication technology that can reduce the gesture registration time than previous studies and improve accuracy.

도 1은 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치의 구조를 설명하기 위한 도면이다. 1 is a view for explaining the structure of the user's personal authentication device using the measured EMG when the facial expression change of the HMD wearer according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치(100)는 입력부(110) 및 분류부(130)를 포함하여 이루어질 수 있으며, 실시예에 따라 특징 추출부(120) 및 사용자 인식부(140)를 더 포함하여 이루어질 수 있다. Referring to FIG. 1, a personal authentication device 100 of a user using EMG measured when a facial expression of a HMD wearer changes according to an embodiment may include an input unit 110 and a classification unit 130, and is implemented. According to an example, the feature extraction unit 120 and the user recognition unit 140 may be further included.

입력부(110)는 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득할 수 있다. The input unit 110 may obtain the EMG signal of the face according to a change in the facial expression of the user.

특징 추출부(120)는 획득한 안면부 근전도 신호에서 특징을 추출할 수 있다. 여기서, 특징 추출부(120)는 대역통과필터를 사용하여 전처리를 수행한 후, 소정의 윈도우의 크기를 옮겨가며 특징을 추출할 수 있다. The feature extraction unit 120 may extract features from the acquired EMG signal of the face. Here, the feature extraction unit 120 may perform a pre-processing using a band pass filter, and then extract a feature by moving the size of a predetermined window.

분류부(130)는 획득한 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류할 수 있다. 다시 말하면, 분류부(130)는 특징 추출부(120)에서 추출된 특징을 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류할 수 있다. 이 때, 분류부(130)는 기계 학습 알고리즘 중 하나인 LDA(Linear Discriminant Analysis)를 사용하여 표정 및 사용자를 분류할 수 있다. The classification unit 130 may classify the facial expression and the user using a classifier previously learned according to the facial expression from the acquired EMG signal. In other words, the classification unit 130 may classify the facial expressions using the classifiers previously learned according to the facial expressions of the features extracted from the feature extraction unit 120. At this time, the classification unit 130 may classify facial expressions and users using Linear Discriminant Analysis (LDA), which is one of the machine learning algorithms.

그리고 사용자 인식부(140)는 분류기를 통해 분류된 사용자를 인식함에 따라 사용자의 개인 인증을 수행할 수 있는 것으로, 분류부(130)에서 획득한 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류함에 따라 사용자를 인식할 수 있다. In addition, the user recognition unit 140 is capable of performing personal authentication of the user by recognizing the user classified through the classifier, and uses the classifier previously learned according to the facial expression from the EMG signal obtained from the classification unit 130. By classifying facial expressions, the user can be recognized.

보다 구체적으로, 사용자 인식부(140)는 다수결 투표를 사용하여 현재 시점까지의 가장 많이 분류된 결과를 최종 사용자로 인식함에 따라 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행할 수 있다. More specifically, the user recognition unit 140 uses the majority vote to recognize the most classified result up to the current time as the end user, so that the user's personal authentication is performed using the EMG measured at the face expression change of the HMD wearer's face expression. You can do

도 2는 일 실시예에 따른 표정 사진의 예를 나타내는 도면이다. 2 is a view showing an example of a facial expression photograph according to an embodiment.

도 2에 도시된 바와 같이, 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 실험을 위해, 실험에 사용되는 표정 사진은 예컨대 Radboud aces Database에서 감정을 잘 전달하는 것으로 평가 받은 사진 자극을 이용할 수 있으며, 깨물기, 키스, 찡그림 등의 표정은 연구자가 직접 촬영하여 사용하여 실험할 수 있다. As shown in FIG. 2, for the personal authentication experiment of the user using the EMG measured when the facial expression changes of the HMD wearer according to an embodiment, the facial expression picture used in the experiment, for example, delivers emotion well in the Radboud aces Database Photo stimuli that have been evaluated as being available can be used, and facial expressions such as biting, kissing, and frowning can be experimented with by directly photographing and using them.

도 3은 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 실험 방법을 설명하는 도면이다. 3 is a diagram illustrating a user's personal authentication test method using EMG measured when a facial expression of a HMD wearer is changed according to an embodiment.

예를 들어 총 15명의 사용자(310)에게, 도 3에 도시된 바와 같이, HMD 형태의 배열로 전극을 부착하여 생체 신호 측정 장비인 Biosemi를 활용하여 안면부 근전도를 측정할 수 있다. For example, to a total of 15 users 310, as shown in FIG. 3, electrodes can be attached to the HMD type array to measure the EMG of the facial area using Biosemi, a bio-signal measurement device.

먼저, 사용자(310)는 안면에 복수의 센서들을 부착한 후 디스플레이 장치를 향하여 위치할 수 있다. 이후, 디스플레이 장치를 통해 사용자(310)에게 시작 버튼의 누름을 안내(321)할 수 있다. 이 때, 디스플레이 장치의 디스플레이부를 통해 글자 등으로 시작 버튼의 누름을 안내(321)하거나 스피커를 통해 음성으로 안내할 수 있으며, 디스플레이부 및 스피커를 통해 동시에 안내할 수도 있다. First, the user 310 may be positioned toward the display device after attaching a plurality of sensors to the face. Thereafter, the user 310 may be guided by pressing the start button 321 through the display device. At this time, the pressing of the start button with a letter or the like may be guided 321 through the display unit of the display device or may be guided by voice through the speaker, or simultaneously through the display unit and the speaker.

사용자(310)가 시작 버튼을 누르면 디스플레이 장치를 통해 11개의 표정 중 1개가 무작위로 선택되어 특정 표정(322)이 제시되고, 피험자인 사용자(310)는 3초간 제시된 특정 표정(322)을 따라서 표정을 짓는다. 여기에서는 11개의 표정이 예시로써 사용되었으나, 표정의 개수는 변경될 수 있다. When the user 310 presses the start button, one of 11 facial expressions is randomly selected through the display device, and a specific facial expression 322 is presented, and the user 310 as a subject follows the specific facial expression 322 presented for 3 seconds. Build Here, 11 facial expressions were used as examples, but the number of facial expressions may be changed.

이 때, 디스플레이 장치를 통해 사용자(310)에게 표정 휴식기를 안내(323)할 수 있다. 예를 들어 디스플레이 장치의 디스플레이부를 통해 글자 등으로 표정 휴식기를 안내(323)하거나 스피커를 통해 음성으로 안내할 수 있으며, 디스플레이부 및 스피커를 통해 동시에 안내할 수도 있다. In this case, the facial expression rest period may be guided 323 to the user 310 through the display device. For example, the facial expression rest may be guided 323 by letters or the like through the display unit of the display device, or may be guided by voice through the speaker, or simultaneously through the display unit and the speaker.

11개의 표정을 한번씩 짓는 것을 1회의 실험으로 하여 10회 반복하여 데이터베이스(DB)를 생성할 수 있다. It is possible to create a database (DB) by repeating 10 times by making 11 facial expressions one time.

아래에서는 안면부 근전도 특징 추출 및 성능 평가 방법에 대해 보다 구체적으로 설명한다. Hereinafter, the method of extracting the EMG feature of the face and evaluating the performance will be described in more detail.

근전도는 일반적으로 시간 영역과 주파수 영역에서 분석이 이루어진다. 본 발명에서는 사용자 인증 알고리즘의 실시간 처리를 위하여 시간 영역에서의 근전도 분석 방법을 사용하였으며, 다음의 12가지 기존의 일반적인 특징(approximate entropy(ApEn), cepstral coefficients(CC), difference absolute standard deviation value(DASDV), integral absolute value(IAV), mean absolute value(MAV), modified mean absolute value 1(MAV1), modified mean absolute value 2(MAV2), maximum fractal length(MFL), root mean square(RMS), sample entropy(SampEn), v-order(V), waveform length(WL))들을 계산하였다. 단일 특징을 기반으로 한 분류 알고리즘보다 다중 특징을 기반으로 한 분류 알고리즘의 성능이 좋기 때문에 본 발명에서는 추출된 단일 특징들을 2-4가지씩 서로 다른 모든 조합으로 구성하여 안면부 근전도 신호에 최적화된 특징 조합을 찾아내었다. EMG is generally analyzed in the time domain and frequency domain. In the present invention, the EMG analysis method in the time domain was used for real-time processing of the user authentication algorithm, and the following 12 existing general characteristics (approximate entropy (ApEn), cepstral coefficients (CC), difference absolute standard deviation value (DASDV) ), integral absolute value (IAV), mean absolute value (MAV), modified mean absolute value 1 (MAV1), modified mean absolute value 2 (MAV2), maximum fractal length (MFL), root mean square (RMS), sample entropy (SampEn), v-order (V), and waveform length (WL) were calculated. Since the performance of a classification algorithm based on multiple features is better than a classification algorithm based on a single feature, in the present invention, the extracted single features are composed of 2-4 different combinations of all the different features to optimize the combination of features optimized for the EMG signal. I found it.

(A) ApEn(A) ApEn

신호의 근사 엔트로피를 나타내는 특징으로 다음의 식으로 정의된다.The characteristic representing the approximate entropy of a signal is defined by the following equation.

[수학식 1][Equation 1]

Figure 112018061876797-pat00002
Figure 112018061876797-pat00002

(B) CC(B) CC

신호의 셉스트랄 계수를 나타내며 다음의 식으로 정의된다.It represents the astral coefficient of the signal and is defined by the following equation.

[수학식 2][Equation 2]

Figure 112018061876797-pat00003
Figure 112018061876797-pat00003

(C) DASDV(C) DASDV

절대차분표준편차로 인접한 두 샘플 간의 표준편차의 차이를 나타내며 다음의 식으로 정의된다.It represents the difference between the standard deviations between two adjacent samples as the absolute difference standard deviation, and is defined by the following equation.

[수학식 3][Equation 3]

Figure 112018061876797-pat00004
Figure 112018061876797-pat00004

(D) IAV(D) IAV

일정시간 동안의 신호의 절대값을 적분한 것으로, 다음의 식으로 정의된다.It is an integral of the absolute value of a signal for a certain period of time and is defined by

[수학식 4][Equation 4]

Figure 112018061876797-pat00005
Figure 112018061876797-pat00005

(E) MAV(E) MAV

평균절대값을 나타내는 특징으로 다음의 식으로 정의된다.It is a feature representing the average absolute value and is defined by the following equation.

[수학식 5][Equation 5]

Figure 112018061876797-pat00006
Figure 112018061876797-pat00006

(F) MAV1(F) MAV1

변형된 절대값 평균1을 나타내는 특징으로 다음의 식으로 정의된다.It is a characteristic representing the modified absolute value average 1 and is defined by the following equation.

[수학식 6][Equation 6]

Figure 112018061876797-pat00007
Figure 112018061876797-pat00007

(G) MAV2(G) MAV2

변형된 절대값 평균1을 나타내는 특징으로 다음의 식으로 정의된다.It is a characteristic representing the modified absolute value average 1 and is defined by the following equation.

[수학식 7][Equation 7]

Figure 112018061876797-pat00008
Figure 112018061876797-pat00008

(H) MFL(H) MFL

최대 프랙탈 길이를 나타내는 특징으로 다음의 식으로 정의된다.It is a feature representing the maximum fractal length and is defined by the following equation.

[수학식 8][Equation 8]

Figure 112018061876797-pat00009
Figure 112018061876797-pat00009

(I) RMS(I) RMS

신호의 제곱평균제곱근을 나타내며 다음의 식으로 정의된다.It represents the square root of the square mean of the signal and is defined by the following equation.

[수학식 9][Equation 9]

Figure 112018061876797-pat00010
Figure 112018061876797-pat00010

(J) SampEn(J) SampEn

샘플 엔트로피를 나타내는 특징으로 다음의 식으로 정의된다.A characteristic representing sample entropy is defined by the following equation.

[수학식 10][Equation 10]

Figure 112018061876797-pat00011
Figure 112018061876797-pat00011

(K) V(K) V

V 차수는 근 수축력을 나타내는 특징으로 다음의 식으로 정의된다.The V-order is a characteristic representing muscle contractility and is defined by the following equation.

[수학식 11][Equation 11]

Figure 112018061876797-pat00012
Figure 112018061876797-pat00012

(L) WL(L) WL

신호의 길이를 나타내며 다음의 식으로 정의된다.It represents the length of the signal and is defined by the following equation.

[수학식 12][Equation 12]

Figure 112018061876797-pat00013
Figure 112018061876797-pat00013

도 4는 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 방법을 설명하기 위한 도면이다. FIG. 4 is a diagram for explaining a user's personal authentication method using EMG measured when a facial expression of an HMD wearer changes according to an embodiment.

도 4를 참조하면, 일 실시예에 따른 사용자의 개인 인증 방법은 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하는 단계, 및 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류하는 단계를 포함하고, 상기 분류기를 통해 분류된 사용자를 인식함에 따라 사용자의 개인 인증을 수행할 수 있다. Referring to FIG. 4, the user's personal authentication method according to an embodiment may include acquiring a facial EMG signal according to a change in a user's facial expression, and using a classifier previously learned according to an expression from the acquired EMG signal. It includes the step of classifying the facial expression and the user, and can recognize the user classified by the classifier to perform the user's personal authentication.

또한, 일 실시예에 따른 사용자의 개인 인증 방법은 획득한 상기 안면부 근전도 신호에서 특징을 추출하는 단계, 및 상기 분류부에서 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류함에 따라 사용자를 인식하는 단계를 더 포함할 수 있다. In addition, the user's personal authentication method according to an embodiment extracts a feature from the acquired EMG signal of the facial part, and uses the classifier previously learned according to the expression from the EMG signal of the facial part to obtain an expression. The classification may further include recognizing a user.

일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 방법은 도 1에서 설명한 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치(100)를 이용하여 보다 구체적으로 설명할 수 있다. 일 실시예에 따른 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치(100)는 입력부(110) 및 분류부(130)를 포함하여 이루어질 수 있으며, 실시예에 따라 특징 추출부(120) 및 사용자 인식부(140)를 더 포함하여 이루어질 수 있다. The personal authentication method of the user using the measured EMG when the facial expression changes of the HMD wearer according to an embodiment is the personal authentication device of the user using the measured EMG when the facial expression changes of the HMD wearer according to the embodiment described in FIG. 100). The personal authentication device 100 of the user using the EMG measured when the facial expression of the HMD wearer changes according to an embodiment may include an input unit 110 and a classification unit 130, and a feature extraction unit according to an embodiment 120 and the user recognition unit 140 may be further included.

먼저, 입력부(110)는 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득할 수 있다. 예컨대 입력부(110)는 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행할 수 있다. First, the input unit 110 may obtain an EMG signal of the face according to a change in the facial expression of the user. For example, the input unit 110 may perform personal authentication of the user by using the EMG measured on the face when the facial expression of the HMD wearer changes.

특징 추출부(120)를 통해 안면부 근전도 신호에서 특징을 추출하기 이전에, 대역통과필터를 사용하여 전처리(410)를 수행한 후, 소정의 윈도우의 크기를 옮겨가며 윈도우를 추출(420)하고, 특징을 추출(430)할 수 있다. 그리고 특징 추출부(120)는 획득한 안면부 근전도 신호에서 특징을 추출(420)할 수 있다. Before extracting features from the EMG signal of the facial part through the feature extraction unit 120, after performing the pre-processing 410 using a band pass filter, the window is extracted while moving the size of a predetermined window (420), Features may be extracted (430). In addition, the feature extraction unit 120 may extract the feature from the acquired EMG signal of the face unit 420.

예를 들어, 대역통과필터(20-450 Hz)를 사용하여 전처리를 수행(410)한 후, 0.1초 윈도우의 크기를 0.05초씩 옮겨가며(420), 위에서 기술한 12가지의 특징들을 추출(430)할 수 있다. For example, after performing pre-processing using a bandpass filter (20-450 Hz) (410), the size of the window of 0.1 sec is shifted by 0.05 sec (420), and the 12 features described above are extracted (430). )can do.

이러한 특징은 앞에서 설명한 12가지 특징 중 복수의 조합으로 사용함으로써 높은 정확도를 달성할 수 있으며, 특히, 4개의 특징(ApEn, V, MAV2, CC)을 사용하였을 때 사용자 인식성이 가장 높은 96.83%의 정확도를 나타낸다. 이는 아래에서 실험을 통해 검증하였다. These features can achieve high accuracy by using a combination of a plurality of the 12 features described above. In particular, when 4 features (ApEn, V, MAV2, CC) are used, 96.83% of the highest user recognition is achieved. Indicate accuracy. This was verified through experiments below.

분류부(130)는 획득한 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류(440)할 수 있다. 다시 말하면, 분류부(130)는 특징 추출부(120)에서 추출된 특징을 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류할 수 있다. 이 때, 분류부(130)는 기계 학습 알고리즘 중 하나인 LDA(Linear Discriminant Analysis)를 사용하여 표정 및 사용자를 분류(440)할 수 있다. The classification unit 130 may classify the facial expression and the user using the classifier previously learned according to the facial expression from the acquired EMG signal of the facial part 440. In other words, the classification unit 130 may classify the facial expressions using the classifiers previously learned according to the facial expressions of the features extracted from the feature extraction unit 120. At this time, the classification unit 130 may classify the facial expression and the user 440 using Linear Discriminant Analysis (LDA), which is one of the machine learning algorithms.

이후, 성능 평가를 수행할 수 있다. Thereafter, performance evaluation may be performed.

사용자 인식부(140)는 분류기를 통해 분류된 사용자를 인식함에 따라 사용자의 개인 인증을 수행할 수 있는 것으로, 분류부(130)에서 획득한 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류함에 따라 사용자를 인식할 수 있다. 보다 구체적으로, 사용자 인식부(140)는 다수결 투표를 사용(450)하여 현재 시점까지의 가장 많이 분류된 결과를 최종 사용자로 인식함에 따라 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행할 수 있다. The user recognition unit 140 may perform personal authentication of the user by recognizing the user classified through the classifier, and uses the classifier previously learned according to the facial expression from the EMG signal obtained from the classification unit 130. Users can be recognized by classifying facial expressions. More specifically, the user recognition unit 140 uses a majority vote 450 to recognize the most classified result up to the current time as the end user, so that the user uses the EMG measured on the face when the facial expression change of the HMD wearer is changed. Can perform personal authentication.

도 5는 일 실시예에 따른 교차 검증 수행 방법을 설명하기 위한 도면이다. 5 is a view for explaining a method of performing cross verification according to an embodiment.

도 4 및 도 5를 참조하면, 교차 검증을 수행(460)하여 사용자별 10개의 데이터베이스(DB) 중 훈련 DB(Train DB)는 4개, 테스트 DB(Test DB)는 6개를 사용하여 표정별 피험자 인식 정확도를 계산할 수 있다. Referring to FIGS. 4 and 5, cross-validation is performed (460), and among 10 databases (DB) for each user, 4 training DBs and 6 test DBs are used to identify each expression. The subject recognition accuracy can be calculated.

안면부 근전도 신호에 최적화된 특징을 선정하기 위해, 위에서 설명한 12개의 단일 특징들을 2-4가지 조합하여 구성 가능한 모든 경우의 수에 대하여 인식 정확도를 계산하여 안면부 근전도 신호를 기반으로 한 사용자 개인인증에 최적화된 특징을 선정할 수 있다. In order to select the features optimized for the EMG signal, the recognition accuracy is calculated for the number of all cases that can be configured by combining 2 to 12 single features described above to optimize the user's personal authentication based on the EMG signal. Selected features can be selected.

실험 결과, 표 1 내지 표 4는 ‘행복’을 기준으로 가장 높은 사용자 인식 정확도를 나타낸 상위 10개의 특징 조합을 나타낸 것이다. As a result of the experiment, Tables 1 to 4 show the top 10 feature combinations showing the highest user recognition accuracy based on 'happiness'.

표 1은 정확도가 높은 상위 10개의 특징 조합(특징 1개)을 나타낸다. Table 1 shows the top 10 feature combinations (one feature) with high accuracy.

[표 1][Table 1]

Figure 112018061876797-pat00014
Figure 112018061876797-pat00014

표 2는 정확도가 높은 상위 10개의 특징 조합(특징 2개)을 나타낸다. Table 2 shows the top 10 feature combinations (2 features) with high accuracy.

[표 2][Table 2]

Figure 112018061876797-pat00015
Figure 112018061876797-pat00015

표 3은 정확도가 높은 상위 10개의 특징 조합(특징 3개)을 나타낸다. Table 3 shows the top 10 feature combinations (3 features) with high accuracy.

[표 3][Table 3]

Figure 112018061876797-pat00016
Figure 112018061876797-pat00016

표 4는 정확도가 높은 상위 10개의 특징 조합(특징 4개)을 나타낸다. Table 4 shows the top 10 feature combinations (4 features) with high accuracy.

[표 4][Table 4]

Figure 112018061876797-pat00017
Figure 112018061876797-pat00017

표 1 내지 표 4를 참조하면, 4개의 특징(ApEn, V, MAV2, CC)을 사용하였을 때 가장 높은 96.83%의 정확도를 나타내었다.Referring to Table 1 to Table 4, when using four features (ApEn, V, MAV2, CC) it showed the highest accuracy of 96.83%.

표 5는 표정에 따른 사용자 인식 정확도 결과를 나타낸다. 보다 구체적으로, 표 5는 4개의 특징(ApEn, V, MAV2, CC)을 사용하였을 때 20회 반복 수행에서 11개 표정에 대한 사용자 인식 정확도를 나타내었다. 이는 상술한 바와 같이 실험 결과를 통해 입증되었다. Table 5 shows the results of user recognition accuracy according to facial expressions. More specifically, Table 5 shows user recognition accuracy for 11 facial expressions in 20 iterations when four features (ApEn, V, MAV2, and CC) are used. This was verified through experimental results as described above.

[표 5][Table 5]

Figure 112018061876797-pat00018
Figure 112018061876797-pat00018

각각의 표정에 대해서 평균 71.00 ~ 96.83%의 정확도로 15명의 사용자를 인식하였고, ‘행복’에서 가장 높은 96.83%의 정확도를 나타내었다. For each expression, 15 users were recognized with an average accuracy of 71.00 to 96.83%, and the highest accuracy in 'happiness' was 96.83%.

표 6은 훈련(Train) DB 개수 변화에 따른 표정별 사용자 인식 정확도 결과를 나타낸다. 보다 구체적으로, 표 6은 훈련(Train) DB 사용 개수에 따른 10회 반복수행의 사용자 인식 평균 정확도를 나타낸 것이다. Table 6 shows the results of user recognition accuracy for each expression according to the number of training DB changes. More specifically, Table 6 shows the average accuracy of user recognition of 10 iterations according to the number of training DBs used.

[표 6][Table 6]

Figure 112018061876797-pat00019
Figure 112018061876797-pat00019

이에 따라, 안면부 근전도에 최적화된 특징 조합을 확인할 수 있다. Accordingly, it is possible to confirm the feature combination optimized for the EMG of the face.

본 발명의 실시예들에 따르면 안면부 근전도를 활용한 사용자 인증 방법을 제공할 수 있다. 따라서, HDM 환경 안면부 근전도 인터페이스에 본 실시예에 따른 방법이 효과적으로 활용될 것이다. According to embodiments of the present invention, a user authentication method using an electromyography of the face may be provided. Therefore, the method according to the present embodiment will be effectively used for the EMG interface of the facial part of the HDM environment.

도 6은 일 실시예에 따른 센서 배치도의 예를 나타내는 도면이다. 6 is a view showing an example of a sensor layout according to an embodiment.

도 6을 참조하면, 색상으로 표시된 부분에 센서를 부착할 수 있다. 이 때, 동일한 색상으로 표시된 곳에 부착된 2개 센서의 전위 차이를 각각의 신호로 사용할 수 있다.Referring to FIG. 6, a sensor may be attached to a colored portion. At this time, the potential difference between the two sensors attached to the same color can be used as each signal.

사용자의 표정 근전도 신호에서 12가지 종류의 특징이 추출되며, 추출된 특징을 사용하여 분류기를 학습할 수 있다.Twelve types of features are extracted from the user's facial expression EMG signal, and the classifier can be trained using the extracted features.

이상과 같이, 실시예들에 따르면 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행하는 HMD 착용자의 얼굴 표정 변화 시 측정된 근전도를 이용한 사용자의 개인 인증 장치 및 방법을 제공할 수 있다. 실시예들에 따르면 사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하여 표정 및 사용자를 분류함으로써 빠르고 정확하게 사용자를 인증할 수 있으며, 카메라를 주로 이용한 표정인식 기술의 경우 HMD를 활용하는 VR/AR 환경에서 사용자의 얼굴이 VR/AR 기기에 가려져 사용할 수 없으나, 센싱을 통해 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행할 수 있다. As described above, according to the embodiments, the HMD wearer's personal authentication device and method using the measured EMG when the facial expression change of the HMD wearer performs personal authentication of the user using the measured facial EMG when the facial expression changes of the HMD wearer Can provide. According to embodiments, the user can quickly and accurately authenticate the user by acquiring the EMG signal of the facial part according to the change in the facial expression of the user and classifying the facial expression and the user. In, the user's face cannot be used because it is hidden by the VR / AR device, but the user's personal authentication can be performed using the EMG measured in the face when the facial expression of the HMD wearer changes through sensing.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and / or combinations of hardware components and software components. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor (micro signal processor), a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include. For example, a processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodied in The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and constructed for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (5)

사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하는 입력부;
획득한 상기 안면부 근전도 신호에서 특징을 추출하는 특징 추출부;
획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류하는 분류부; 및
상기 분류부에서 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류함에 따라 사용자를 인식하는 사용자 인식부
를 포함하고,
상기 특징 추출부는,
대역통과필터를 사용하여 전처리를 수행한 후, 소정의 윈도우의 크기를 옮겨가며 특징을 추출하고, approximate entropy(ApEn), cepstral coefficients(CC), difference absolute standard deviation value(DASDV), integral absolute value(IAV), mean absolute value(MAV), modified mean absolute value 1(MAV1), modified mean absolute value 2(MAV2), maximum fractal length(MFL), root mean square(RMS), sample entropy(SampEn), v-order(V) 및 waveform length(WL)의 단일 특징 중 복수 개의 서로 다른 조합으로 구성하여 상기 안면부 근전도 신호에 최적화된 특징 조합을 찾으며,
상기 분류기를 통해 분류된 사용자를 인식함에 따라 사용자의 개인 인증을 수행하는, 사용자의 개인 인증 장치.
An input unit for acquiring an EMG signal of the face according to a change in the facial expression of the user;
A feature extraction unit for extracting features from the acquired EMG signal of the face portion;
A classification unit for classifying facial expressions and users by using a classifier previously learned according to facial expressions from the acquired EMG signal of the facial unit; And
A user recognition unit that recognizes a user by classifying facial expressions using a classifier previously learned according to facial expressions from the EMG signal obtained from the classification unit
Including,
The feature extraction unit,
After performing pre-processing using a bandpass filter, characteristics are extracted by moving the size of a predetermined window, approximate entropy (ApEn), cepstral coefficients (CC), difference absolute standard deviation value (DASDV), integral absolute value ( IAV), mean absolute value (MAV), modified mean absolute value 1 (MAV1), modified mean absolute value 2 (MAV2), maximum fractal length (MFL), root mean square (RMS), sample entropy (SampEn), v- It is composed of a plurality of different combinations of single features of order (V) and waveform length (WL) to find a feature combination optimized for the EMG signal of the face,
The user's personal authentication device performs personal authentication of the user according to the recognition of the user classified through the classifier.
제1항에 있어서,
상기 분류부는,
상기 특징 추출부에서 추출된 특징을 상기 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류하는 것
을 특징으로 하는, 사용자의 개인 인증 장치.
According to claim 1,
The classification unit,
Classifying facial expressions using a classifier previously learned according to the facial expressions extracted from the feature extraction unit
Characterized in that, the user's personal authentication device.
제1항에 있어서,
상기 분류부는,
기계 학습 알고리즘 중 하나인 LDA(Linear Discriminant Analysis)를 사용하여 표정 및 사용자를 분류하며,
상기 사용자 인식부는,
다수결 투표를 사용하여 현재 시점까지의 가장 많이 분류된 결과를 최종 사용자로 인식함에 따라 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행하는 것
을 특징으로 하는, 사용자의 개인 인증 장치.
According to claim 1,
The classification unit,
We classify facial expressions and users using LDA (Linear Discriminant Analysis), one of the machine learning algorithms.
The user recognition unit,
Using the majority vote to recognize the most classified results up to the present time as the end user, performing personal authentication of the user by using the EMG measured in the face when the facial expression of the HMD wearer changes
Characterized in that, the user's personal authentication device.
사용자의 얼굴 표정 변화에 따라 안면부 근전도 신호를 획득하는 단계;
획득한 상기 안면부 근전도 신호에서 특징을 추출하는 단계;
획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류하는 단계; 및
상기 분류하는 단계에서 획득한 상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류함에 따라 사용자를 인식하는 단계
를 포함하고,
상기 안면부 근전도 신호에서 특징을 추출하는 단계는,
대역통과필터를 사용하여 전처리를 수행한 후, 소정의 윈도우의 크기를 옮겨가며 특징을 추출하고, approximate entropy(ApEn), cepstral coefficients(CC), difference absolute standard deviation value(DASDV), integral absolute value(IAV), mean absolute value(MAV), modified mean absolute value 1(MAV1), modified mean absolute value 2(MAV2), maximum fractal length(MFL), root mean square(RMS), sample entropy(SampEn), v-order(V) 및 waveform length(WL)의 단일 특징 중 복수 개의 서로 다른 조합으로 구성하여 상기 안면부 근전도 신호에 최적화된 특징 조합을 찾으며,
상기 분류기를 통해 분류된 사용자를 인식함에 따라 사용자의 개인 인증을 수행하는, 사용자의 개인 인증 방법.
Acquiring an EMG signal on the face according to a change in the facial expression of the user;
Extracting a feature from the acquired EMG signal of the face;
Classifying an expression and a user using a classifier previously learned according to an expression from the acquired EMG signal of the facial part; And
Recognizing a user by classifying facial expressions using a pre-trained classifier according to facial expressions from the EMG signal obtained in the classification step
Including,
The step of extracting features from the EMG signal of the face portion,
After performing pre-processing using a bandpass filter, characteristics are extracted by moving the size of a predetermined window, approximate entropy (ApEn), cepstral coefficients (CC), difference absolute standard deviation value (DASDV), integral absolute value ( IAV), mean absolute value (MAV), modified mean absolute value 1 (MAV1), modified mean absolute value 2 (MAV2), maximum fractal length (MFL), root mean square (RMS), sample entropy (SampEn), v- It is composed of a plurality of different combinations of single features of order (V) and waveform length (WL) to find a feature combination optimized for the EMG signal of the face,
A user's personal authentication method, wherein the user's personal authentication is performed by recognizing a user classified through the classifier.
제4항에 있어서,
상기 안면부 근전도 신호에서 표정에 따라 미리 학습된 분류기를 이용하여 표정 및 사용자를 분류하는 단계는,
상기 특징을 추출하는 단계에서 추출된 특징을 상기 표정에 따라 미리 학습된 분류기를 이용하여 표정을 분류하고,
상기 사용자를 인식하는 단계는,
다수결 투표를 사용하여 현재 시점까지의 가장 많이 분류된 결과를 최종 사용자로 인식함에 따라 HMD 착용자의 얼굴 표정 변화 시 측정된 안면부 근전도를 이용하여 사용자의 개인 인증을 수행하는 것
을 특징으로 하는, 사용자의 개인 인증 방법.
According to claim 4,
In the facial EMG signal, the step of classifying the expression and the user using a classifier previously learned according to the expression,
The feature extracted in the step of extracting the feature is to classify the expression using a classifier previously learned according to the expression,
Recognizing the user,
Using the majority vote to recognize the most classified results up to the present time as the end user, performing personal authentication of the user by using the EMG measured in the face when the facial expression of the HMD wearer changes
Characterized in that, the user's personal authentication method.
KR1020180072526A 2018-06-25 2018-06-25 Apparatus and method for user authentication using facial emg by measuring changes of facial expression of hmd user KR102094488B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180072526A KR102094488B1 (en) 2018-06-25 2018-06-25 Apparatus and method for user authentication using facial emg by measuring changes of facial expression of hmd user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180072526A KR102094488B1 (en) 2018-06-25 2018-06-25 Apparatus and method for user authentication using facial emg by measuring changes of facial expression of hmd user

Publications (2)

Publication Number Publication Date
KR20200000552A KR20200000552A (en) 2020-01-03
KR102094488B1 true KR102094488B1 (en) 2020-03-27

Family

ID=69155477

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180072526A KR102094488B1 (en) 2018-06-25 2018-06-25 Apparatus and method for user authentication using facial emg by measuring changes of facial expression of hmd user

Country Status (1)

Country Link
KR (1) KR102094488B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102232731B1 (en) 2020-11-27 2021-03-26 (주)소프트젠 System for treating tic disorder using virtual reality technology
US20230162531A1 (en) * 2021-11-22 2023-05-25 Microsoft Technology Licensing, Llc Interpretation of resonant sensor data using machine learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180107275A1 (en) * 2015-04-13 2018-04-19 Empire Technology Development Llc Detecting facial expressions

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101685457B1 (en) * 2015-02-17 2016-12-13 인하대학교산학협력단 A Human Identification Method based on Gait Cycle Using EMG signal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180107275A1 (en) * 2015-04-13 2018-04-19 Empire Technology Development Llc Detecting facial expressions

Also Published As

Publication number Publication date
KR20200000552A (en) 2020-01-03

Similar Documents

Publication Publication Date Title
US20230040023A1 (en) Biometric system
Ahmed et al. DTW-based kernel and rank-level fusion for 3D gait recognition using Kinect
KR102367481B1 (en) Method and device to authenticate living body
Sharif et al. An overview of biometrics methods
Komeili et al. Feature selection for nonstationary data: Application to human recognition using medical biometrics
KR20170091318A (en) Authentication apparatus and method based on electrocardiographic signals
KR102094488B1 (en) Apparatus and method for user authentication using facial emg by measuring changes of facial expression of hmd user
Omoyiola Overview of biometric and facial recognition techniques
Traore et al. State of the art and perspectives on traditional and emerging biometrics: A survey
Gawande et al. Biometric-based security system: Issues and challenges
Ghosh et al. Symptoms-based biometric pattern detection and recognition
Ríos-Sánchez et al. gb2sμMOD: A MUltiMODal biometric video database using visible and IR light
Yin et al. Fusion of face recognition and facial expression detection for authentication: a proposed model
Perwej An Empirical Investigation of Human Identity Verification Methods
Senarath et al. BehaveFormer: A Framework with Spatio-Temporal Dual Attention Transformers for IMU-enhanced Keystroke Dynamics
KR102021491B1 (en) Apparatus and method for user authentication
Ezz et al. Challenge-response emotion authentication algorithm using modified horizontal deep learning
Kumar Hand image biometric based personal authentication system
Ricanek Beyond recognition: the promise of biometric analytics
Pareek et al. MyoTrack: Tracking subject participation in robotic rehabilitation using sEMG and IMU
Kocaman et al. On ear biometrics
Mohan et al. A nature‐inspired meta‐heuristic paradigm for person identification using multimodal biometrics
Bernhardt et al. Detecting emotions from everyday body movements
AU2021104106A4 (en) A brain computer interface (bci) based system and method for characterizing behavior state of a subject
Khellat-Kihel et al. Face recognition “on the move” combining incomplete information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant