KR102611467B1 - An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same - Google Patents

An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same Download PDF

Info

Publication number
KR102611467B1
KR102611467B1 KR1020230092171A KR20230092171A KR102611467B1 KR 102611467 B1 KR102611467 B1 KR 102611467B1 KR 1020230092171 A KR1020230092171 A KR 1020230092171A KR 20230092171 A KR20230092171 A KR 20230092171A KR 102611467 B1 KR102611467 B1 KR 102611467B1
Authority
KR
South Korea
Prior art keywords
user
processor
eye
signal
electronic device
Prior art date
Application number
KR1020230092171A
Other languages
Korean (ko)
Other versions
KR20230121964A (en
Inventor
지지 마틴
에버트 브라이언
샤키 휴
이기태
Original Assignee
에어런딜 모바일 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에어런딜 모바일 인코포레이티드 filed Critical 에어런딜 모바일 인코포레이티드
Priority to KR1020230092171A priority Critical patent/KR102611467B1/en
Publication of KR20230121964A publication Critical patent/KR20230121964A/en
Priority to KR1020230172456A priority patent/KR102646298B1/en
Application granted granted Critical
Publication of KR102611467B1 publication Critical patent/KR102611467B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/324Power saving characterised by the action undertaken by lowering clock frequency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/78Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure storage of data
    • G06F21/79Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure storage of data in semiconductor storage media, e.g. directly-addressable memories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Collating Specific Patterns (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시(present disclosure)의 다양한 실시 예들은 생체인식기술 등을 활용하여 기존기술보다 더 개선되고 편리한 사용자 식별, 인증, 암호화와 관련된 전자장치 및 그의 동작 방법에 관한 것이다.
전자장치의 동작 방법은, 무의식적인 안구 움직임(involuntary eye movement)을 포함하는 사용자의 안구 움직임을 획득(capture)하고, 상기 획득(capture)된 무의식적인 안구 움직임에 기초하여 상기 사용자를 식별하기 위한 고유패턴을 생성하고, 상기 고유패턴을 보안영역의 비휘발성 저장장치에 저장하고, 상기 저장된 고유패턴에 기초하여 상기 전자장치로 상기 사용자를 인증하는 동작을 포함할 수 있다. 다양한 다른 실시 예들도 가능할 수 있다.
Various embodiments of the present disclosure relate to electronic devices and operating methods related to user identification, authentication, and encryption that are more improved and convenient than existing technologies by utilizing biometric recognition technology, etc.
A method of operating an electronic device includes capturing a user's eye movements, including involuntary eye movements, and identifying the user based on the captured involuntary eye movements. It may include generating a pattern, storing the unique pattern in a non-volatile storage device in a security area, and authenticating the user with the electronic device based on the stored unique pattern. Various other embodiments may also be possible.

Description

생체 인식 기술을 활용한 사용자 식별, 인증 및 암호화 장치 및 그의 동작 방법{AN APPARATUS RELATED TO USER IDENTIFICATION, AUTHENTICATION, ENCRYPTION USING BIOMETRICS TECHNOLOGY AND METHOD FOR OPERATION THE SAME}User identification, authentication and encryption device using biometric technology and method of operation thereof

본 발명은 일반적으로 사용자 식별, 인증, 암호화와 관련된 전자 장치 및 그의 동작 방법에 관한 것이다. 특히, 다양한 생체인식기술을 활용한 사용자 식별, 인증, 암호화와 관련된 전자 장치 및 그의 동작 방법에 관한 것이다.The present invention generally relates to electronic devices and methods of operating the same related to user identification, authentication, and encryption. In particular, it relates to electronic devices and operating methods related to user identification, authentication, and encryption using various biometric technologies.

전자장치와 데이터베이스로의 사용자 접속은 주로 로그인 이름과 비밀번호를 통해 이루어진다. 최근, 랩탑 컴퓨터와 스마트폰 등과 같은 휴대용 전자장치의 사용이 증가하면서, 허가된 사용과 잘못된 데이터 사용에 대한 위험을 줄이기 위해 전자장치와 사용자에 대한 정확한 인증의 필요성은 더욱 중요해지고 있다. 예를 들어, 많은 종류의 헬스케어 전자장치가 출현함에 따라, 모바일 헬스케어 전자장치에 획득된 건강 데이터의 프라이버시는 중요해 지고 있다. 또한, 모바일 전자장치를 사용한 은행업무와 지불(payment)이 증가함에 따라, 인증된 사용의 중요성이 증가하고 있다.User access to electronic devices and databases is primarily achieved through login names and passwords. Recently, as the use of portable electronic devices such as laptop computers and smartphones has increased, the need for accurate authentication of electronic devices and users has become more important to reduce the risk of unauthorized use and misuse of data. For example, as many types of healthcare electronic devices emerge, the privacy of health data acquired on mobile healthcare electronic devices is becoming important. Additionally, as banking and payments using mobile electronic devices increase, the importance of authenticated use is increasing.

본 개시(present disclosure)에서는 생체인식기술 등을 활용하여 기존기술보다 더 개선되고 편리한 사용자 식별, 인증, 암호화와 관련된 전자장치 및 그의 동작 방법을 제공하고자 한다.This present disclosure seeks to provide electronic devices and operating methods related to user identification, authentication, and encryption that are more improved and convenient than existing technologies by utilizing biometric recognition technology, etc.

로컬 전자장치의 사용을 위한 사용자 인증은 종종 원거리의 서버에 의해 수행된다. 로컬 전자장치의 소프트웨어 응용프로그램은 종종 사용자의 로그인 이름과 비밀번호를 저장하여 전자장치와 소프트웨어 응용프로그램의 사용을 쉽게 해준다. 사용자와 사용자의 로그인 이름과 비밀번호를 보호하여 사용자의 전자장치에 대한 접근을 보호하는 것이, 전자장치를 분실하거나 도난당했을 때 더욱 중요해 진다. 전자장치를 신용카드 거래와 같이 지불수단으로 사용되고 있는 지금의 상황에서는 사용자 전자장치의 로컬 접근을 보호하는 것이 더욱 더 중요해지고 있다.User authentication for use of local electronic devices is often performed by a remote server. Software applications on local electronic devices often store the user's login name and password to facilitate use of the electronic device and software applications. Protecting access to your electronic devices by protecting you and your login names and passwords becomes even more important when your electronic devices are lost or stolen. In today's situation where electronic devices are being used as a means of payment, such as credit card transactions, protecting local access to user electronic devices is becoming more and more important.

모바일 전자장치의 더 강화된 보호를 제공하기 위한 사용자 인증을 위해 생체측정이 이용된다. 생체측정은 해부학적인 접근(예를 들어, 신체적인 형태 즉 지문, 홍채스캔, 혈관, 얼굴스캔, DNA 등)과 행위적인 접근(타이핑 또는 키스트로크, 손글씨 서명, 음성 또는 억양)이 있다. 예를 들어, 지문과 같은 사용자의 해부학적인 면은 사용자의 로컬 인증과 전자장치의 접근 제어에 이용된다.Biometrics are used for user authentication to provide enhanced protection of mobile electronic devices. There are two approaches to biometrics: anatomical (e.g. physical form, such as fingerprints, iris scans, blood vessels, facial scans, DNA, etc.) and behavioral approaches (typing or keystrokes, handwritten signatures, voice or intonation). For example, aspects of the user's anatomy, such as fingerprints, are used for local authentication of the user and for access control to electronic devices.

본 개시(present disclosure)의 일 실시 예의 전자장치의 동작 방법은, 모션센서(motion sensor)로부터 사용자 신체의 부분에서 모션신호를 수집하고, 상기 모션신호로부터 원치 않는 신호를 필터링 하고, 상기 필터링된 모션신호로부터 신경근육 마이크로 모션(neuro-muscular micro- motion) 데이터를 추출하고, 상기 신경근육 마이크로 모션 데이터를 신호처리와 피쳐추출을 수행하여 고유한 특성을 추출하고, 상기 고유한 특성을 기초로 신경역학적 식별자(neuro-mechanical identifier) 생성을 수행한다. A method of operating an electronic device according to an embodiment of the present disclosure includes collecting a motion signal from a part of the user's body from a motion sensor, filtering unwanted signals from the motion signal, and filtering the filtered motion signal. Neuro-muscular micro-motion data is extracted from the signal, unique characteristics are extracted by performing signal processing and feature extraction on the neuro-muscular micro-motion data, and neuro-mechanical analysis is performed based on the unique characteristics. Perform identifier (neuro-mechanical identifier) generation.

본 개시(present disclosure)의 일 실시 예의 인증된 사용자를 국부적으로 인증하고 전자장치에 대한 접근을 제어하는 방법은, 상기 전자장치를 사용하여 사용자의 신체 부분에서 감지된 마이크로 모션 신호에 응답하여 사용자를 위한 신경역학적 지문을 생성하고, A method of locally authenticating an authenticated user and controlling access to an electronic device in one embodiment of the present disclosure includes using the electronic device to detect a user in response to a micro-motion signal detected from a part of the user's body. Generating a neurodynamic fingerprint for

인증된 사용자 교정 파라미터에 응답하여 상기 신경역학적 지문의 일치 비율을 생성하고, 상기 일치비율에 응답하여 상기 전자장치에 대한 사용자 접근 제어를 수행한다.A matching rate of the neurodynamic fingerprint is generated in response to an authenticated user calibration parameter, and user access control to the electronic device is performed in response to the matching rate.

본 개시(present disclosure)의 일 실시 예의 전자장치의 동작 방법은, 무의식적인 안구 움직임(involuntary eye movement)을 포함하는 사용자의 안구 움직임을 획득(capture)하고, 상기 획득(capture)된 무의식적인 안구 움직임에 기초하여 상기 사용자를 식별하기 위한 고유패턴을 생성하고, 상기 고유패턴을 보안영역의 비휘발성 저장장치에 저장하고, 상기 저장된 고유패턴에 기초하여 상기 전자장치로 상기 사용자 인증을 수행한다.A method of operating an electronic device according to an embodiment of the present disclosure includes capturing a user's eye movement, including an involuntary eye movement, and capturing the captured involuntary eye movement. Based on this, a unique pattern for identifying the user is generated, the unique pattern is stored in a non-volatile storage device in a security area, and the user authentication is performed with the electronic device based on the stored unique pattern.

생체인식기술 등을 활용하여 기존기술보다 더 개선되고 편리한 사용자 식별, 인증, 암호화 기와 관련된 전자장치 및 그의 동작 방법을 제공한다.By utilizing biometric recognition technology, etc., we provide electronic devices and operation methods related to user identification, authentication, and encryption that are more improved and convenient than existing technologies.

도 1은 식별방법의 범주를 도시한다.
도 2는 일 실시 예에 따른 전자장치들의 동작환경에 대한 블록도를 도시한다.
도 3은 일 실시 예에 따른 전자장치의 구성에 대한 블록도를 도시한다.
도 4 는 일 실시 예에 따른 신경지문 활용예시를 도시한다.
도 5a 내지 도 5f는 일 실시 예에 따른 신경역학적 식별자 생성 방법을 예시적으로 보여주는 순서도 또는 동작의 흐름을 도시한다.
도 6은 일 실시 예에 따른 사용자별 푸앵카레의 위상 도표를 도시한다.
도 7은 일 실시 예에 따른 서로 다른 사용자의 캡스트럼(CEPSTRUM) 분석결과를 도시한다.
도 8은 일 실시 예에 따른 신경안구 식별자 생성 방법을 예시적으로 보여주는 순서도이다.
도 9는 사람의 두개골의 안구의 단면도를 도시한다.
도 10a 내지 도 10c는 다양한 안구 움직임을 유발하는 안구와 연결된 다양한 근육의 다이어그램을 도시한다.
도 11은 무의식적 안구 움직임을 획득하기 위한 프로세스의 다이어그램을 도시한다.
도 12a 및 도 12b는 사용자의 일정시간 동안 물체를 고정하는 것에 응답하여 원추세포대의 영역에 걸친 무의식적 안구 움직임 그래프를 갖는 망막의 확대된 부분의 다이어그램을 도시한다.
도 13a 내지 도 13c는 사용자 식별 및 인증을 위해 사용될 수 있는 무의식적 안구 움직임의 다양한 조합의 다이어그램을 도시한다.
도 14a 내지 도 14c는 무의식적 안구 움직임을 검출하는데 사용될 수 있는 안구의 비디오 이미지에서 유관으로 관찰될 수 있는 특징에 대한 다이어그램을 도시한다.
도 15는 사용자의 무의식적 안구 움직임 신호를 직접 생성하기 위한 안전도기록(electrooculography) 시스템의 블록도를 도시한다.
도 16a는 사용자의 안구 움직임 이미지를 획득하는데 사용될 수 있는 비디오 카메라를 구비한 전자장치의 다이어그램을 도시한다.
도 16b는 사용자의 안구 움직임 이미지를 획득하는데 사용될 수 있는 도 16a에 도시된 비디오 카메라를 구비한 전자장치의 블록도를 도시한다.
도 17a 및 도 17b는 사용자 안구 움직임의 이미지를 획득하는데 사용될 수 있는 비디오 카메라를 구비한 전자안경의 다이어그램을 도시한다.
도 18a 및 도 18b는 사용자의 안구 움직임의 이미지를 획득하는데 사용될 수 있는 비디오 카메라를 갖는 VR기기의 다이어그램을 도시한다.
도 19a는 사용자의 안구 움직임에 관한 데이터 획득을 돕는 이미터 장치를 갖는 콘택트 렌즈를 포함한 안구의 다이어그램을 도시한다.
도 19b 내지 도 19d는 사용자의 안구 움직임에 관한 데이터 획득을 돕는 데 사용될 수 있는 다양한 이미터 장치를 갖는 콘택트 렌즈의 다이어그램을 도시한다.
도 19e는 능동 이미터 장치의 기능 블록도를 도시한다.
도 19f는 사용자의 안구 움직임에 관한 데이터를 획득하는데 사용될 수 있는 안구에 장착된 콘택트 렌즈 근처의 감지장치의 측면도를 도시한다.
도 20a 및 도 20b는 건물구조물의 접근 제어를 위해 부착되어 안구 움직임을 획득하는 장치를 도시한다.
도 21a 및 도 21b는 사용자를 시스템에 인증하기 위한 독립적인 안구스캐너를 도시한다.
Figure 1 shows categories of identification methods.
Figure 2 shows a block diagram of the operating environment of electronic devices according to an embodiment.
Figure 3 shows a block diagram of the configuration of an electronic device according to an embodiment.
Figure 4 shows an example of using neural fingerprints according to an embodiment.
FIGS. 5A to 5F illustrate a flowchart or flow of operations exemplarily showing a method for generating a neurodynamic identifier according to an embodiment.
Figure 6 shows a Poincaré phase diagram for each user according to an embodiment.
Figure 7 shows CEPSTRUM analysis results of different users according to an embodiment.
Figure 8 is a flowchart illustrating a method for generating a neural eye identifier according to an embodiment.
Figure 9 shows a cross-sectional view of the eyeball of a human skull.
Figures 10A-10C show diagrams of various muscles associated with the eye causing various eye movements.
Figure 11 shows a diagram of the process for acquiring involuntary eye movements.
Figures 12A and 12B show diagrams of an enlarged portion of the retina with a graph of involuntary eye movements over the area of the cone cells in response to the user fixating an object for a period of time.
13A-13C show diagrams of various combinations of involuntary eye movements that can be used for user identification and authentication.
14A-14C show diagrams of features that can be relevantly observed in video images of the eye that can be used to detect involuntary eye movements.
Figure 15 shows a block diagram of an electrooculography system for directly generating a user's involuntary eye movement signal.
Figure 16A shows a diagram of an electronic device with a video camera that can be used to obtain images of eye movements of a user.
FIG. 16B shows a block diagram of an electronic device with the video camera shown in FIG. 16A that can be used to obtain images of eye movements of a user.
17A and 17B show diagrams of an electronic eyeglasses with a video camera that can be used to acquire images of a user's eye movements.
Figures 18A and 18B show diagrams of a VR device with a video camera that can be used to obtain images of the user's eye movements.
Figure 19A shows a diagram of an eye containing a contact lens with an emitter device that helps obtain data regarding the user's eye movements.
19B-19D show diagrams of contact lenses with various emitter devices that can be used to help obtain data regarding a user's eye movements.
Figure 19E shows a functional block diagram of an active emitter device.
FIG. 19F shows a side view of a sensing device near an eye-mounted contact lens that can be used to obtain data regarding a user's eye movements.
Figures 20a and 20b show a device for acquiring eye movements attached for access control of a building structure.
Figures 21A and 21B show an independent eye scanner for authenticating a user to the system.

본 개시(present disclosure)의 실시 예 들에 대한 다음의 상세한 설명에서, 충분한 이해를 위한 많은 구체적인 상세와 다양한 예시들이 전개된다. 해당 기술이 속하는 분야에서의 통상의 기술자들에게는 이러한 구체적인 상세함이 없이도 실시될 수 있고 본 개시의 범위 내에서 다양한 변경이나 수정을 하여 실시될 수 있음도 명확하고 분명하다. 특정한 예시에서는, 본 개시의 실시 예들을 불필요하도록 모호하게 하지 않기 위해, 잘 알려진 방법, 절차, 컴포넌트(부품, 부분), 기능, 회로, 잘 알려지거나 전형적인 상세한 내용에 대해서는 자세히 기술하지 않았다.In the following detailed description of embodiments of the present disclosure, numerous specific details and various examples are set forth for thorough understanding. It is clear and obvious to those skilled in the art that the present invention can be practiced without these specific details and can be practiced with various changes or modifications within the scope of the present disclosure. In certain instances, well-known methods, procedures, components (parts, parts), functions, circuits, well-known or typical details have not been described in detail so as not to unnecessarily obscure the embodiments of the present disclosure.

본 개시(present disclosure)에서 기술된 용어, 단어, 표현은 단순히 본 개시의 실시 예들을 설명하기 위함이고 본 개시의 범위를 제한하려는 것은 아니다. 다르게 정의되지 않았다면, 기술 및 과학 용어를 포함한 모든 표현(또는 용어)은 해당 기술이 속하는 분야에서의 통상의 기술자들이 이해하는 것과 문맥상 같거나 유사한 의미를 가질 수 있다. 경우에 따라서는, 표현(또는 용어)에 대해 본 개시(present disclosure)에서 정의되어 있다 하더라도, 본 개시의 실시 예의 범위를 제한하거나 배제되도록 해석되지는 않는다.The terms, words, and expressions described in the present disclosure are intended to simply describe embodiments of the present disclosure and are not intended to limit the scope of the present disclosure. Unless otherwise defined, all expressions (or terms), including technical and scientific terms, may have the same or similar meaning in context as understood by those skilled in the art in the field to which the technology pertains. In some cases, even if expressions (or terms) are defined in the present disclosure, they are not construed to limit or exclude the scope of embodiments of the present disclosure.

본 개시(present disclosure)와 연관된 실시 예 들은 장치, 방법, 서버-클라이언트 장치 및/또는 방법, 장치 및/또는 방법의 협동, 칩셋, 컴퓨터 프로그램 또는 상기 기술된 것들의 어느 조합 등으로 구현될 수 있다. 따라서, 실시 예는 전체 하드웨어(칩셋 포함)로 구현되거나, 전체 소프트웨어(펌웨어, 소프트웨어의 어떠한 형태 등)로 구현되거나 소프트웨어와 하드웨어가 결합된 형태로 구현될 수 있다. 소프트웨어와 하드웨어 형태는 모듈, 유닛(부 또는 구성단위), 컴포넌트(부품, 부분), 블록, 구성요소, 멤버(member), 시스템, 서브시스템 등으로 기술될 수 있다. 또한 본 실시 예는 미디어에 구현된 컴퓨터에서 사용 가능한 프로그램 코드(컴퓨터 파일을 포함)의 형태로 구현될 수도 있다.Embodiments associated with the present disclosure may be implemented as a device, method, server-client device and/or method, device and/or method collaboration, chipset, computer program, or any combination of the above-described, etc. . Accordingly, the embodiment may be implemented as entire hardware (including chipsets), as entire software (firmware, any form of software, etc.), or as a combination of software and hardware. Software and hardware forms can be described as modules, units (parts or components), components (parts, parts), blocks, components, members, systems, subsystems, etc. Additionally, this embodiment may be implemented in the form of program code (including computer files) usable on a computer implemented in media.

"하나의 실시 예", "일 실시 예", "실시 예", "어떤 실시 예", "하나의 예시", "예시"라는 표현은 본 개시의 예 또는 실시 예와 연관되어 기술된 특정특징, 구조 또는 특성을 의미할 수 있다. 따라서, 본 명세서에서 사용된 이러한 표현은 모두 반드시 동일한 실시 예 또는 예를 지칭하는 것은 아니다. 또한, 특정기능, 구조 또는 특성은 하나 이상의 실시 예 또는 예에서 임의의 적절한 조합 및/또는 서브 조합으로 조합될 수 있다.The expressions “one embodiment,” “one embodiment,” “an embodiment,” “an embodiment,” “one example,” and “example” refer to specific features described in connection with an example or embodiment of the present disclosure. , may mean structure or characteristics. Accordingly, these expressions used herein do not necessarily all refer to the same embodiment or example. Additionally, specific functions, structures or characteristics may be combined in any suitable combination and/or sub-combination in one or more embodiments or examples.

단수 형태의 "하나" 또는 "한"이라는 표현은 본문에서 분명하게 다른 뜻으로 표현되지 않는 한 복수 형태를 포함할 수 있다. 예를 들어 "한 센서"는 하나 또는 복수 개의 센서들을 나타낼 수 있다.The expression “one” or “one” in the singular form may include the plural form unless the text clearly states otherwise. For example, “a sensor” may refer to one or multiple sensors.

어떤 경우, "제 1", "제 2", "첫째", "둘째", "첫 번째" 또는 "두 번째" 등의 표현은 다양한 구성요소를 설명하기 위해서 사용되었지만, 이들 구성요소는 이러한 표현에 의해 제한되지 않는다. 이러한 표현은 한 구성요소를 다른 구성요소와 구별하기 위해 사용될 수 있고 구성요소들의 순서 또는 중요도와는 무관할 수 있다. 예를 들어, 제 1 센서는 제 2 센서로 지칭 될 수 있고, 마찬가지로, 제 2 센서는 제 1 센서로 지칭 될 수 있다. 첫 번째 센서와 두 번째 센서는 둘 다 센서지만 동일한 센서가 아닐 수 있다.In some cases, the expressions "first", "second", "first", "second", "first" or "second" are used to describe various elements, but these elements are not defined by these expressions. is not limited by These expressions may be used to distinguish one component from another and may be independent of the order or importance of the components. For example, a first sensor may be referred to as a second sensor, and likewise, a second sensor may be referred to as a first sensor. The first sensor and the second sensor are both sensors, but may not be the same sensor.

"및/또는"이라는 표현은 하나 또는 그 이상의 열거된 항목들의 가능한 모든 조합을 포함할 수 있다. 예를 들어, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A 또는 B 중 하나 또는 그 이상", "A 및 B 중 하나 또는 그 이상", "A 및/또는 B", "A 및/또는 B 중 적어도 하나" 또는 "A 및/또는 B 중 하나 또는 그 이상"이라는 표현은 "적어도 하나의 A를 포함", "적어도 하나의 B를 포함", 또는 "적어도 하나의 A 및 적어도 하나의 B를 모두 포함"하는 경우를 모두 나타낼 수 있다.The expression “and/or” can include any possible combination of one or more listed items. For example, “A or B”, “at least one of A and B”, “at least one of A or B”, “one or more of A or B”, “one or more of A and B”, The expressions “A and/or B”, “at least one of A and/or B” or “one or more of A and/or B” mean “include at least one A”, “include at least one B” ", or "contains both at least one A and at least one B".

"있다(가진다)", "있는(가지는)", "있을 수 있다(가질 수 있다)", "포함한다", "포함하는", "포함할 수 있다", "구성된다", "구성되는", 또는 "구성될 수 있다" 또는 "포함하다"라는 표현은 구성요소, 특징, 단계, 동작, 기능, 수치적인 값, 컴포넌트(부품, 부분)들, 멤버 또는 이들의 조합이 있음(presence)을 나타내지만, 구성요소, 특징, 단계, 동작, 기능, 수치적인 값, 컴포넌트(부품, 부분)들, 멤버 또는 이들의 조합의 하나 또는 그 이상의 부가(addition) 또는 있음(presence)을 배제하는 것은 아니다. 예를 들어, 구성요소들의 리스트(list)로 구성된 방법 또는 장치는 반드시 이 구성요소들로 만으로 구성된 것으로 한정되는 것이 아니라, 상기 방법 또는 장치에 명시적으로 리스트(list) 되지 않은 구성요소를 포함할 수 있다.“is (have)”, “is (have)”, “may be (have)”, “includes”, “includes”, “may include”, “consists of”, “consisted of” The expression ", or "may consist of" or "includes" refers to the presence of components, features, steps, operations, functions, numerical values, components (parts, parts), members, or combinations thereof. indicates, but excludes the addition or presence of one or more components, features, steps, operations, functions, numerical values, components (parts, parts), members, or combinations thereof. no. For example, a method or device consisting of a list of components is not necessarily limited to consisting of only these components, but may include components not explicitly listed in the method or device. You can.

어떤 구성요소가 다른 구성요소에 "연결되어(connected to)"있거나 "결합되어(coupled to or coupled with)"되어 있다고 할 때는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 적어도 하나 또는 그 이상의 또 다른 구성요소를 통하여 연결되거나 결합되었다고 할 수 있다. 반면, 어떤 구성요소가 다른 구성요소와 "직접적으로 연결되어" 있거나 "직접적으로 결합되어" 있다고 할 때는, 또 다른 구성요소를 통하지 않고 연결되거나 결합되었다고 할 수 있다.When a component is said to be “connected to” or “coupled to or coupled with” another component, it means that the component is directly connected to, or at least one or more of, the other components. It can be said to be connected or combined through other components above. On the other hand, when a component is said to be “directly connected” or “directly coupled” to another component, it can be said to be connected or combined without going through another component.

본 개시(present disclosure)에서, 사용자 식별, 인증, 암호화와 관련된 다양한 종류의 전자장치 및 그의 동작방법에 대한 실시 예가 기술된다.In the present disclosure, embodiments of various types of electronic devices and operating methods related to user identification, authentication, and encryption are described.

일 실시 예에서, 전자장치는 스마트폰, 태블릿 컴퓨터, 전화기, 이동전화기, 전화기, 전자책 리더(e-book reader), 네비게이션장치, 데스크탑 컴퓨터, 랩탑 컴퓨터, 워크스테이션 컴퓨터 서버 컴퓨터, 카메라, 캠코더, 전자펜, 무선 통신장비, 액세스포인트(AP or 무선공유기), 프로젝터, 전자보드, 복사기, 시계, 안경, 헤드마운트장치, 무선 헤드셋/이어폰, 전자옷, 다양한 종류의 웨어러블장치, TV, DVD 플레이어, 오디오 플레이어, 디지털 멀티미디어 플레이어, 전자 액자, 셋탑박스, TV 박스, 게임기, 리모트컨트롤러, 은행의 ATM, 지불시스템 장치(POS, 카드리더 포함), 냉장고, 오픈, 전자렌지, 에어컨, 진공청소기, 세탁기, 식기세척기, 공기청정기, 홈오토메이션 제어장치, 스마트홈 장치, 다양한 종류의 가전기기, 보안제어 장치, 전자 잠금/열림 장치(열쇠, 자물쇠 포함), 전자 서명 수신장치, 다양한 종류의 보안시스템 장치, 혈압측정장치, 혈당모니터링장치, 심박모니터링장치, 체온측정장치, 자기공명영상장치, 컴퓨터단층촬영장치, 다양한 종류의 의료측정장치, 다양한 종류의 의료장치, 수도계량기, 전기계량기, 가스계량기, 전자파계량기, 온도계, 다양한 종류의 측정장치, 인공지능(AI) 장치, 인공지능 스피커, 인공지능 로봇, 다양한 종류의 사물인터넷 장치 또는 이와 유사한 것일 수 있다.In one embodiment, the electronic device includes a smartphone, tablet computer, telephone, mobile phone, telephone, e-book reader, navigation device, desktop computer, laptop computer, workstation computer, server computer, camera, camcorder, Electronic pens, wireless communication equipment, access points (AP or wireless router), projectors, electronic boards, copiers, watches, glasses, head mount devices, wireless headsets/earphones, electronic clothing, various types of wearable devices, TVs, DVD players, Audio players, digital multimedia players, electronic picture frames, set-top boxes, TV boxes, game consoles, remote controllers, bank ATMs, payment system devices (including POS and card readers), refrigerators, openers, microwave ovens, air conditioners, vacuum cleaners, washing machines, Dishwashers, air purifiers, home automation control devices, smart home devices, various types of home appliances, security control devices, electronic locking/unlocking devices (including keys and locks), electronic signature receiving devices, various types of security system devices, blood pressure Measuring devices, blood sugar monitoring devices, heart rate monitoring devices, body temperature measuring devices, magnetic resonance imaging devices, computed tomography devices, various types of medical measuring devices, various types of medical devices, water meters, electricity meters, gas meters, electromagnetic wave meters, It may be a thermometer, various types of measuring devices, artificial intelligence (AI) devices, artificial intelligence speakers, artificial intelligence robots, various types of Internet of Things devices, or similar things.

전자장치는 하나 또는 그 이상의 전술한 장치들의 조합 또는 부분일 수 있다. 일 실시 예에서는, 전자장치는 가구, 건물, 구조물 또는 기계(운송수단, 자동차, 비행기 또는 선박을 포함)의 부분이거나 임베디드보드, 칩셋, 컴퓨터 파일 또는 어떤 종류의 센서등의 형태일 수 있다. 본 개시의 전자장치는 전술한 장치들에 한정되지 않고 기술개발이 발전함에 따라 새로운 형태의 전자장치일 수 있다.The electronic device may be a combination or part of one or more of the above-described devices. In one embodiment, an electronic device may be part of a piece of furniture, building, structure, or machine (including a vehicle, automobile, airplane, or ship), or may be in the form of an embedded board, chipset, computer file, or sensor of any kind. The electronic device of the present disclosure is not limited to the above-mentioned devices and may be a new type of electronic device as technological development advances.

도 1은 식별방법의 범주를 도시한 도면이다.1 is a diagram showing the categories of identification methods.

도 1을 참조하면, 다양한 알려진 해부학적(Anatomical) 및 행위적(Behavioral) 식별방법을 확인할 수 있다. 행위적 식별 방법은 사용자의 행위나 습관과 관련이 있다. 알려진 해부학적 식별 방법은 지문, 홍채 안구 스캔, 혈관, 안면 스캔 및/또는 DNA와 같은 사용자의 신체적 특징과 관련되어 있다.Referring to Figure 1, various known anatomical and behavioral identification methods can be identified. Behavioral identification methods are related to the user's actions or habits. Known anatomical identification methods involve physical characteristics of the user, such as fingerprints, iris eye scans, blood vessels, facial scans, and/or DNA.

어떤 사용자 동작 (Motion)은 습관적이거나 사용자 동작 레퍼토리의 일부이다. 예를 들어, 문서에 서명하는 것은 사용자의 행위 습관을 만들어가는 동작(Motion)이다. 일반적으로 필기구를 사용하여 서명을 하는 동작은 매크로 모션(Macro motion) 또는 큰 규모 모션(Large scale motion)이다. 이러한 동작은 대부분 사용자의 의식 또는 의도에 따른 움직임이므로 의도적인 동작(voluntary movement)이라고 할 수 있다. 예를 들어, 서명된 서명의 큰 움직임으로부터, 서명을 한 사람이 왼손잡이인지 또는 오른 손잡이인지를 눈으로 결정할 수 있다.Some user movements are habitual or part of the user's movement repertoire. For example, signing a document is a motion that creates a user's behavioral habits. In general, the motion of signing using a writing instrument is a macro motion or large scale motion. Since most of these movements are movements based on the user's consciousness or intention, they can be called voluntary movements. For example, from the large movements of a signed signature, one can determine by eye whether the person signing the letter is left-handed or right-handed.

이러한 큰 동작이 유용할 수도 있지만, 사용자가 서명하거나 다른 동작을 만들거나 단순히 동작을 하지 않을 때 만드는 매우 작은 동작인 마이크로 모션(Micro motion) 이 있다. 이러한 마이크로 모션은 신경에서 유도되거나 신경에 기반을 두고 눈에 보이지 않는다. 따라서 사용자의 의식이나 의도에 따른 동작이 아닌 무의식적인 움직임(involuntary movement)에 속한다. 사용자의 이러한 마이크로 모션은 각각의 인간의 고유한 신경근 해부학에 기인하며, 본 개시(present disclosure)에서 신경유도 마이크로 모션(neuro-derived micro motion)으로도 지칭 될 수 있다. 이 마이크로 모션은, 또한, 개인의 운동 피질에서 손까지의 모터 제어 과정과 연결되어 있다. 적어도 하나 이상의 센서, 신호 처리 알고리즘 및/또는 필터를 사용하여 사용자의 신경유도 마이크로 모션을 포함하는 전자 신호("모션 신호"및 "마이크로 모션 신호")를 획득할 수 있다. 특히 관심의 대상은 모션 신호 내에서 사용자의 마이크로 모션을 나타내는 마이크로 모션 전자 신호이다While these large motions can be useful, there are also micro motions, which are very small motions that a user creates when they sign, make another motion, or simply do nothing. These micro-motions are neurally derived or neurally based and are invisible to the eye. Therefore, it belongs to involuntary movement, not movement based on the user's consciousness or intention. These micro-motions of the user are due to the unique neuromuscular anatomy of each human and may also be referred to as neuro-derived micro-motions in the present disclosure. These micromotions are also linked to motor control processes from the individual's motor cortex to the hands. At least one sensor, signal processing algorithm, and/or filter may be used to obtain an electronic signal (“motion signal” and “micro motion signal”) including the user's neurally induced micro-motion. Of particular interest are micro-motion electronic signals, which represent the user's micro-motions within the motion signal.

사용자의 마이크로 모션은 뇌 또는 기타 인체의 신경계의 운동 활동에 대한 대뇌 피질 및 피질 하부 제어와 관련이 있다. 기계적 필터처럼 개인의 특정한 해부학적 근골격계는 사용자의 마이크로 모션에 영향을 미칠 수 있으며 사용자의 마이크로 모션을 포함하는 동작 신호에 기여할 수 있다. 이렇게 기여된 신호는 신경 신호에 의한 근육의 동작 신호로 신경근육톤(neuro muscular tone)이라고 할 수 있다. 사용자로부터 획득된 모션 신호는 사용자의 인체에 존재하는 뇌 및 고유 수용체를 포함하는 고유 수용 제어 루프의 일부를 반영 할 수도 있다.The user's micro-motions are related to cortical and subcortical control of motor activity in the brain or other nervous systems of the body. Like mechanical filters, an individual's specific anatomy and musculoskeletal system can influence the user's micro-motions and contribute to motion signals containing the user's micro-motions. This contributed signal is a muscle operation signal caused by a nerve signal and can be called neuromuscular tone. Motion signals obtained from the user may reflect part of a proprioceptive control loop that includes the brain and proprioceptors present in the user's body.

모션 신호가 사용자의 마이크로 모션을 나타내는 마이크로 모션 신호에 대해 적절히 분석될 때, 결과 데이터는 독창적이고 안정된 생리학적 식별자, 특히 신경학적 식별자를 생성 할 수 있으며 이 식별자는 암호화되지 않은 서명으로 사용될 수 있다. 이 고유한 식별자는 사용자의 신경역학지문(Neuro-Mechanical Fingerprint)이라고 할 수 있다. 신경역학지문은 또한 본 개시에서 "신경지문 (NeuroFingerPrints, NFP)"이라는 용어로 사용될 수 있다.When motion signals are properly analyzed for micro-motion signals representing the user's micro-motions, the resulting data can generate unique and stable physiological identifiers, especially neurological identifiers, which can be used as unencrypted signatures. This unique identifier can be called the user's neuro-mechanical fingerprint. Neurodynamic fingerprints may also be used in this disclosure by the term “NeuroFingerPrints (NFP).”

도 2는 본 개시(present disclosure)의 일 실시 예에 따른 전자장치들의 동작환경을 나타내는 블록도 이다.Figure 2 is a block diagram showing the operating environment of electronic devices according to an embodiment of the present disclosure.

도 2에 도시된 바와 같이, 전자장치(201)는, 프로세싱 유닛(210), 센서(220), 입출력 인터페이스(230), 디스플레이(240), 신경지문(NFP)가속기(250), 메모리(260), 파워 시스템(270), 통신 인터페이스(280)등을 포함할 수 있다.As shown in FIG. 2, the electronic device 201 includes a processing unit 210, a sensor 220, an input/output interface 230, a display 240, a neural fingerprint (NFP) accelerator 250, and a memory 260. ), power system 270, communication interface 280, etc.

이는 단지 본 개시의 실시 예의 하나의 예시라는 것으로 이해될 수 있다. 전자장치(201, 202, 203, 204, 205)는 도시된 수보다 더 많거나 더 적은 구성요소들로 이루어질 수 있으며, 두 개 또는 그 이상의 구성요소가 결합되어 이루어지거나, 구성요소의 설정이나 배치는 다르게 구성될 수도 있다. 도시된 다양한 구성요소는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 전자장치(201, 202, 203, 204, 205)들은 네트워크(206) 또는 통신인터페이스(280)를 통해서 서로 연결될 수 있다. It can be understood that this is just one example of an embodiment of the present disclosure. The electronic devices 201, 202, 203, 204, and 205 may be composed of more or fewer components than the number shown, and may be composed of two or more components combined, or may be configured by setting or arranging the components. may be configured differently. The various components shown may be implemented in hardware, software, or a combination of hardware and software. Electronic devices 201, 202, 203, 204, and 205 may be connected to each other through a network 206 or a communication interface 280.

프로세싱 유닛(210)은, 적어도 하나의 중앙처리장치(Central Processing Unit)를 포함할 수 있고 상기 적어도 하나의 중앙처리장치는 하나 또는 그 이상의 프로세싱 코어를 포함할 수 있다. 상기 프로세싱 유닛(210)은 중장처리 장치 외에도 적어도 하나 이상의 보조프로세서, 통신전용 프로세서, 신호처리 프로세서, 그래픽 처리 프로세서, 저전력의 센서 컨트롤 프로세서 또는 특수 목적의 컨트롤러를 포함할 수 있다. 또한 다양한 계층 구조의 내부 휘발성 및 비휘발성 메모리들을 구비하여 전자장치의 초기 부팅 동작, 외부 전자장치와의 통신을 위한 동작, 외부 전자장치로부터 초기 부팅 또는 로딩 관련 프로그램을 다운로드하는 동작, 인터럽트 동작, 프로그램 실행중의 성능향상을 위한 동작 등의 기능을 수행할 수 있다. 상기 프로세싱유닛은 프로그램 형태의 명령어를 메모리, 통신모듈 등을 통해 수신하여, 수신된 명령어를 해독하고, 해독된 명령어에 따른 연산, 데이터 처리, 결과 저장, 연관된 주변장치를 제어하는 동작 수행을 통해 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행할 수 있다. 상기 프로세싱 유닛은, 통상의 기술자들에 의해, 프로세서(processor), 애플리케이션 프로세서(Application Processor, AP), 중앙처리장치(Central Processing Unit, CPU), MCU(Micro Controller Unit), 컨트롤러(Controller) 등으로 혼용되어 사용되는 경우가 종종 있다.The processing unit 210 may include at least one central processing unit, and the at least one central processing unit may include one or more processing cores. In addition to the heavy processing unit, the processing unit 210 may include at least one auxiliary processor, a communication-only processor, a signal processing processor, a graphics processing processor, a low-power sensor control processor, or a special-purpose controller. In addition, it is equipped with internal volatile and non-volatile memories of various hierarchical structures to perform initial booting operations of electronic devices, operations for communication with external electronic devices, operations for downloading initial booting or loading-related programs from external electronic devices, interrupt operations, and program operations. It can perform functions such as operations to improve performance during execution. The processing unit receives commands in the form of programs through memory, communication modules, etc., decodes the received commands, performs operations according to the decoded commands, processes data, stores results, and controls related peripheral devices. It can perform identification, authentication, encryption, or functions utilizing fingerprints (NFP). The processing unit is classified into a processor, an application processor (AP), a central processing unit (CPU), a micro controller unit (MCU), a controller, etc. by those skilled in the art. They are often used interchangeably.

센서(220)는, 전자장치의 상태, 물리량 등을 감지하거나 계측하여 전기신호로 변환할 수 있다. 상기 센서(220)는 광학센서, RGB센서, IR센서, UV센서, 지문센서, 근접센서, 나침반, 가속도 센서, 자이로 센서, 기압계, 그립센서, 마그네틱센서, 홍채센서, GSR(Galvanic Skin Response)센서, 뇌전도(EEG, Electroencephalography)센서 등을 포함할 수 있다. 상기 센서(220)는 사용자 신체의 부분에서 모션신호를 수집하여 전자장치의 프로세싱 유닛(210), 신경지문(NFP) 가속기(250) 등을 포함한 전자장치(201)의 적어도 하나의 구성요소에 전달하여 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행할 수 있다.The sensor 220 can detect or measure the state and physical quantities of an electronic device and convert them into electrical signals. The sensor 220 includes an optical sensor, RGB sensor, IR sensor, UV sensor, fingerprint sensor, proximity sensor, compass, acceleration sensor, gyro sensor, barometer, grip sensor, magnetic sensor, iris sensor, and GSR (Galvanic Skin Response) sensor. , may include an electroencephalography (EEG) sensor, etc. The sensor 220 collects motion signals from parts of the user's body and transmits them to at least one component of the electronic device 201, including the processing unit 210 of the electronic device and the neural fingerprint (NFP) accelerator 250. Thus, identification, authentication, encryption, or functions using these related to neural fingerprint (NFP) can be performed.

입출력인터페이스(230)는, 사용자 또는 전자장치(201)의 외부로부터 신호 및/또는 명령을 포함한 입력형태로 받아 전자장치 내부로 전달하는 입력 인터페이스와, 사용자 또는 전자장치(201)의 외부로 신호 또는 명령을 포함한 출력의 형태로 변환하는 인터페이스 역할을 수행할 수 있다. 예를 들어, 입력 버튼, LED, 진동모터, 다양한 시리얼 인터페이스(예를 들어, USB(Universal Serial Bus), UART(Universal asynchronous receiver/transmitter), HDMI(High Definition Multimedia Interface), MHL(Mobile High-definition Link), IrDA(Infra-red Data Association)등)등을 포함할 수 있다.The input/output interface 230 is an input interface that receives inputs including signals and/or commands from the user or the outside of the electronic device 201 and transmits them to the inside of the electronic device, and sends signals or commands to the outside of the user or the electronic device 201. It can serve as an interface that converts output including commands. For example, input buttons, LEDs, vibration motors, various serial interfaces (e.g. USB (Universal Serial Bus), UART (Universal asynchronous receiver/transmitter), HDMI (High Definition Multimedia Interface), MHL (Mobile High-definition Interface) Link), IrDA (Infra-red Data Association), etc.).

디스플레이(240)는, 사용자에게 이미지, 텍스트, 비디오 등의 각종 콘텐츠를 표시할 수 있다. 상기 디스플레이(240)는 액정디스플레이(Liquid Crystal Display, LCD), 유기발광다이오드(Organic Light Emitting Diode, OLED) 디스플레이 또는 홀로그램 출력장치 일 수 있다. 상기 디스플레이(355)는 디스플레이 구동회로(DDI), 디스플레이 패널을 포함할 수 있으며, 디스플레이 구동회로는 프로세싱 유닛(301)으로부터 전달받은 영상 정보에 대응하는 영상 구동신호를 디스플레이 패널에 전달하여 미리 설정된 프레임 레이트(Frame Rate)에 따라 영상을 표시할 수 있다. 디스플레이 구동회로는 IC 형태로 구현될 수 있으며 영상정보를 저장할 수 있는 비디오 메모리, 이미지 프로세싱 유닛, 디스플레이 타이밍 컨트롤러, 멀티플렉서등의 구성요소를 포함할 수 있다. 상기 디스플레이(240)는 터치 스크린, 전자펜 입력 패널, 지문센서, 압력센서등의 입력기능을 수행하는 장치 및/또는 햅틱 피드백등의 출력장치등을 포함할 수 있다. 상기 전자장치(201)의 사양에 따라서 상기 디스플레이(240)는 선택적으로 구비되지 않을 수도 있으며, 매우 간단한 형태의 적어도 하나의 발광다이오드(Light Emitting Diode)로 구성될 수 있다. 상기 디스플레이(220)는 사용자 신체의 부분에서 모션신호를 수집하기 위하여 사용자에게 상기 전자장치(201)에 사용자의 신체 일부를 접촉을 하는 위치, 모션신호의 획득 시작 상태, 모션신호의 획득 중인 상태, 모션신호의 획득 완료 상태등의 수집시작 상태등을 표시하는 기능을 수행하여 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행할 수 있다.The display 240 can display various contents such as images, text, and video to the user. The display 240 may be a liquid crystal display (LCD), an organic light emitting diode (OLED) display, or a hologram output device. The display 355 may include a display driving circuit (DDI) and a display panel, and the display driving circuit transmits an image driving signal corresponding to the image information received from the processing unit 301 to the display panel to display a preset frame. Video can be displayed according to the frame rate. The display driving circuit may be implemented in the form of an IC and may include components such as a video memory capable of storing image information, an image processing unit, a display timing controller, and a multiplexer. The display 240 may include a device that performs input functions such as a touch screen, an electronic pen input panel, a fingerprint sensor, and a pressure sensor, and/or an output device such as haptic feedback. Depending on the specifications of the electronic device 201, the display 240 may not be optionally provided, and may be composed of at least one very simple light emitting diode. In order to collect a motion signal from a part of the user's body, the display 220 shows the user a position where a part of the user's body touches the electronic device 201, a state in which motion signal acquisition begins, a state in which a motion signal is being acquired, By performing the function of displaying the collection start state, such as the acquisition completion state of the motion signal, identification, authentication, encryption, or functions utilizing these related to neural fingerprint (NFP) can be performed.

신경지문가속기(250)는, 사용자의 신체 일부에서 획득된 신호를 처리하는 연산 수행의 속도를 높이거나 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행하는 데 있어서의 연산의 일부 또는 전체를 수행하여 전체적인 시스템의 성능을 높이는 기능을 수행한다.The neural fingerprint accelerator 250 is used to speed up the performance of calculations that process signals obtained from parts of the user's body, or to perform identification, authentication, encryption, or functions utilizing neural fingerprints (NFP). It performs some or all of the functions to improve the performance of the overall system.

메모리(260)는, 휘발성 메모리(262) (예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM) 또는 SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(264) (예를 들어, NOR 플래쉬 메모리, NAND 플래쉬 메모리, EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), HDD(Hard Disk Drive), SSD(Solid State Drive), SD(Secure Digital) 카드 메모리, 마이크로 SD 메모리, MMC(Multimedia Card) 메모리 등) 중 적어도 하나 이상을 포함할 수 있다. 비휘발성 메모리(264)에는 적어도 하나 이상의 부트로더, 운영체제(291), 통신기능(292) 라이브러리, 디바이스 드라이버(293), 신경지문(NFP) 라이브러리(294), 애플리케이션(295), 사용자 데이터(296)등을 저장할 수 있다. 휘발성 메모리(262)에는 전자장치에 전원이 인가되어 동작하기 시작한다. 프로세싱 유닛(210)은 비휘발성 메모리에 저장된 프로그램들 또는 데이터들을 휘발성 메모리(2620)에 로드하는 동작을 수행하고, 전자장치의 동작 중에 프로세싱 유닛(210)과 인터페이스하는 일련의 동작을 통해 메인 메모리의 역할을 수행할 수 있다. Memory 260 includes volatile memory 262 (e.g., Dynamic RAM (DRAM), Static RAM (SRAM), or Synchronous Dynamic RAM (SDRAM), etc.), non-volatile memory 264 (e.g., NOR flash) Memory, NAND flash memory, EPROM (Erasable and Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), HDD (Hard Disk Drive), SSD (Solid State Drive), SD (Secure Digital) card memory, micro SD memory, MMC (Multimedia Card, memory, etc.) may be included. The non-volatile memory 264 includes at least one bootloader, operating system 291, communication function (292) library, device driver 293, neural fingerprint (NFP) library 294, application 295, and user data 296. ), etc. can be saved. Power is applied to the volatile memory 262 and the electronic device begins to operate. The processing unit 210 performs an operation of loading programs or data stored in the non-volatile memory into the volatile memory 2620, and processes the main memory through a series of operations that interface with the processing unit 210 during the operation of the electronic device. can perform its role.

파워시스템(270)은, 전자장치(201)에 전력을 공급하고 제어하고 관리하는 등의 역할을 수행할 수 있다. 파워시스템은 PMIC(Power Management Integrated Circuit), 배터리(272), 충전 IC, 연료 게이지(Fuel Gauge)등을 포함할 수 있다. 파워시스템은 교류 또는 직류 전원을 입력으로 받을 수 있다. 공급된 전원을 배터리(272)에 충전할 수 있는 유선 충전, 무선 충전기능을 포함할 수 있다.The power system 270 may perform functions such as supplying power to the electronic device 201, controlling and managing it. The power system may include a Power Management Integrated Circuit (PMIC), a battery 272, a charging IC, a fuel gauge, etc. The power system can receive alternating current or direct current power as input. It may include wired charging and wireless charging functions that can charge the supplied power to the battery 272.

무선통신인터페이스(280)는, 예를 들어, 셀룰러 통신, 와이파이 통신, 블루투스, GPS, RFID, NFC 등을 포함할 수 있고 무선통신을 위한 RF부를 구성할 수 있다. RF부는 트랜시버(Transceiver), PAM(Power Amp Module), 주파수 필터, LNA(Low Noise Amplifier) 또는 안테나 등을 포함할 수 있다.The wireless communication interface 280 may include, for example, cellular communication, Wi-Fi communication, Bluetooth, GPS, RFID, NFC, etc. and may configure an RF unit for wireless communication. The RF unit may include a transceiver, PAM (Power Amp Module), frequency filter, LNA (Low Noise Amplifier), or antenna.

도 3는 본 개시(present disclosure)의 일 실시 예에 따른 전자장치의 구성을 나타내는 블록도이다.Figure 3 is a block diagram showing the configuration of an electronic device according to an embodiment of the present disclosure.

도 3에 도시한 바와 같이, 전자장치(300)는, 프로세싱 유닛(301), 카메라(350), 입출력 인터페이스(353), 햅틱피드백 컨트롤러(354), 디스플레이(355), 근거리무선통신(356), 외장 메모리 슬롯(357), 센서(370), 메모리(390), 파워 시스템(358), 클락 소스(361), 오디오 회로(362), SIM 카드(363), 무선통신 프로세서(364), RF 회로(365), 신경지문(NFP)가속기(366) 등을 포함할 수 있다. As shown in FIG. 3, the electronic device 300 includes a processing unit 301, a camera 350, an input/output interface 353, a haptic feedback controller 354, a display 355, and short-range wireless communication 356. , external memory slot 357, sensor 370, memory 390, power system 358, clock source 361, audio circuit 362, SIM card 363, wireless communication processor 364, RF It may include a circuit 365, a neural fingerprint (NFP) accelerator 366, etc.

이는 단지 본 개시의 실시 예의 하나의 예시라는 것으로 이해될 수 있다. 전자장치는 도시된 수보다 더 많거나 더 적은 구성요소로 이루어질 수 있으며, 두 개 또는 그 이상의 구성요소가 결합되어 이루어지거나, 구성요소의 설정이나 배치는 다르게 구성될 수도 있다. 도시된 다양한 구성요소는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어 모두로 구현될 수 있다.It can be understood that this is just one example of an embodiment of the present disclosure. An electronic device may be composed of more or fewer components than the number shown, may be composed of two or more components combined, or may have different settings or arrangements of components. The various components shown may be implemented in hardware, software, or both hardware and software.

프로세싱 유닛(301)은, 적어도 하나의 중앙처리 장치(Central Processing Unit)(302)를 포함할 수 있고 상기 적어도 하나의 중앙처리장치는 하나 또는 그 이상의 프로세싱 코어를 포함할 수 있다. 상기 프로세싱 유닛(301)은 중장처리 장치 외에도 적어도 하나 이상의 보조프로세서, 통신전용 프로세서, 신호처리 프로세서, 그래픽 처리 프로세서, 저전력의 센서 컨트롤 프로세서 또는 특수 목적의 컨트롤러를 포함할 수 있다. 상기 프로세싱 유닛(301)은 반도체 칩(Chip)의 형태로, 다양한 구성요소를 포함하여 SoC(System On Chip)로 구현될 수 있다. 일 실시 예에서, 상기 프로세싱 유닛(301)은 GPU (Graphics Processing Unit) (320), 디지털신호처리(DSP, Digital Signal Processing) (321), 인터럽트 컨트롤러(322), 카메라 인터페이스(323), 클락 컨트롤러(324), 디스플레이 인터페이스 (325), 센서코어(326), 위치 컨트롤러(327), 보안 가속기(328), 멀티미디어 인터페이스(329), 메모리 컨트롤러(330), 주변장치 인터페이스(331), 통신/커넥티비티(332), 내부메모리(340)등을 포함할 수 있다. 또한, 다양한 계층 구조의 내부 휘발성 및 비휘발성 메모리들을 구비하여 전자장치의 초기 부팅 동작, 외부 전자장치와의 통신을 위한 동작, 외부 전자장치로부터 초기 부팅 또는 로딩 관련 프로그램을 다운로드하는 동작, 인터럽트 동작, 프로그램 실행중의 성능향상을 위한 동작 등의 기능을 수행할 수 있다. 상기 프로세싱 유닛(301)은 프로그램 형태의 명령어를 메모리(390), 통신/커넥티비티(332) 또는 무선통신프로세서(364) 등을 통해 수신하여, 수신된 명령어를 해독하고, 해독된 명령어에 따른 연산, 데이터 처리, 결과 저장, 연관된 주변장치를 제어하는 동작 수행을 통해 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행할 수 있다. 상기 프로세싱 유닛은, 통상의 기술자들에 의해, 프로세서(processor), 애플리케이션 프로세서(Application Processor, AP), 중앙처리장치(Central Processing Unit, CPU), MCU(Micro Controller Unit), 컨트롤러(Controller) 등으로 혼용되어 사용되는 경우가 종종 있다. The processing unit 301 may include at least one central processing unit 302, and the at least one central processing unit may include one or more processing cores. In addition to the heavy processing unit, the processing unit 301 may include at least one auxiliary processor, a communication-only processor, a signal processing processor, a graphics processing processor, a low-power sensor control processor, or a special-purpose controller. The processing unit 301 is in the form of a semiconductor chip and may be implemented as a System On Chip (SoC) including various components. In one embodiment, the processing unit 301 includes a GPU (Graphics Processing Unit) 320, a digital signal processing (DSP) 321, an interrupt controller 322, a camera interface 323, and a clock controller. (324), display interface (325), sensor core (326), location controller (327), security accelerator (328), multimedia interface (329), memory controller (330), peripheral device interface (331), communication/connectivity (332), internal memory (340), etc. In addition, it is equipped with internal volatile and non-volatile memories of various hierarchical structures to perform initial booting operations of electronic devices, operations for communication with external electronic devices, operations for downloading initial booting or loading-related programs from external electronic devices, interrupt operations, It can perform functions such as operations to improve performance during program execution. The processing unit 301 receives instructions in the form of a program through the memory 390, communication/connectivity 332, or wireless communication processor 364, decodes the received instructions, and performs operations according to the decoded instructions. It is possible to perform identification, authentication, encryption, or functions utilizing neural fingerprints (NFP) by processing data, storing results, and performing operations to control associated peripheral devices. The processing unit is classified into a processor, an application processor (AP), a central processing unit (CPU), a micro controller unit (MCU), a controller, etc. by those skilled in the art. They are often used interchangeably.

중앙처리장치(302)는, 적어도 하나 이상의 프로세서 코어(304, 305, 306)를 포함할 수 있다. 상기 중앙처리장치(302)는 상대적으로 전력소모가 적은 프로세서 코어들과 전력소모는 많으나 고성능의 프로세서 코어를 함께 포함할 수 있고 복수개의 코어들을 묶어 제1클러스터(303), 제2클러스터(314)등의 적어도 하나 이상의 클러스터들을 포함할 수 있다. 이러한 구조는 멀티코어 환경에서 계산량, 소모전류등을 고려하여 동적으로 코어를 할당함으로써 전자장치의 성능과 전력소모의 이득을 향상시키기 위해 사용되고 있는 기술이라고 할 수 있다. 프로세서 코어는 보안 강화를 위한 기술이 적용되어 있을 수 있다. 잘 알려진 모바일 프로세서 중 하나인 ARM®사의 프로세서에서는, 이러한 보안기술을 자사의 프로세서에 탑재하여 TrustZone®이라고 명명하고 있다. 예를 들어, 하나의 물리적인 프로세서 코어인 제1코어(304)는 일반모드(307)와 보안모드(308)로 나뉘어 동작할 수 있다. 프로세서의 레지스터와 인터럽트 처리등이 분리되어, 보안이 요구되는 자원(예를 들어, 주변장치 또는 메모리영역 등)에 대한 접근을 보안모드에서만 접근 가능하도록 할 수 있다. 모니터 모드(313)는 일반모드(307)와 보안모드(308)간의 모드전환이 될 수 있도록 하는 역할을 한다. 일반모드(307)에서 특별한 명령어를 통해서 보안모드(308)로 전환되거나 또는 인터럽트등의 발생으로 일반모드(307)에서 보안모드(308)로 전환될 수 있다. 일반모드(307)와 보안모드(308)에서 수행되는 애플리케이션은 각각의 모드에서 수행되는 애플리케이션에 영향을 끼칠 수 없도록 분리되어 있어, 높은 신뢰성이 요구되는 애플리케이션을 보안모드(308)에서 수행하게 함으로써 보안신뢰성을 높일 수 있다. 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행하는 데 있어서의 연산의 일부를 보안모드(308)에서 동작할 수 있도록 하여 보안성을 높일 수 있다.The central processing unit 302 may include at least one processor core 304, 305, or 306. The central processing unit 302 may include processor cores with relatively low power consumption and high-performance processor cores with high power consumption, and a plurality of cores are grouped into a first cluster 303 and a second cluster 314. It may include at least one or more clusters such as: This structure can be said to be a technology used to improve the performance and power consumption of electronic devices by dynamically allocating cores in consideration of calculation amount and current consumption in a multi-core environment. The processor core may be equipped with technology to enhance security. ARM® processor, one of the well-known mobile processors, has installed this security technology into its processor and named it TrustZone®. For example, the first core 304, which is one physical processor core, may operate in a normal mode 307 and a security mode 308. Since the processor's registers and interrupt processing are separated, access to resources that require security (for example, peripheral devices or memory areas, etc.) can be accessed only in security mode. The monitor mode 313 serves to enable mode switching between the normal mode 307 and the security mode 308. The normal mode 307 can be converted to the security mode 308 through a special command, or the normal mode 307 can be converted to the security mode 308 due to an interrupt, etc. Applications running in the normal mode (307) and security mode (308) are separated so that they cannot affect the applications running in each mode, so applications that require high reliability are run in the security mode (308), thereby improving security. Reliability can be increased. Security can be improved by allowing some of the calculations in performing identification, authentication, encryption, or functions utilizing these related to neural fingerprint (NFP) to be operated in the security mode 308.

카메라(350)는, 이미지를 획득하기 위한 렌즈, 광학센서, 이미지 처리 프로세서(ISP) 등을 포함할 수 있으며, 정지영상 및 동영상을 획득할 수 있다. 다양한 기능을 제공하기 위해 복수의 카메라(제1카메라(351), 제2카메라(352) 등)를 포함할 수 있다.The camera 350 may include a lens, an optical sensor, an image processing processor (ISP), etc. for acquiring images, and can acquire still images and moving images. It may include a plurality of cameras (first camera 351, second camera 352, etc.) to provide various functions.

입출력인터페이스(353)는, 사용자 또는 전자장치(300)의 외부로부터 신호 및/또는 명령을 포함한 입력형태로 받아 전자장치 내부로 전달하는 입력 인터페이스와, 사용자 또는 전자장치(300)의 외부로 신호 또는 명령을 포함한 출력의 형태로 변환하는 인터페이스 역할을 수행할 수 있다. 예를 들어, 입력 버튼, LED, 진동모터, 다양한 시리얼 인터페이스(예를 들어, USB(Universal Serial Bus), UART(U Universal asynchronous receiver/transmitter), HDMI(High Definition Multimedia Interface), MHL(Mobile High-definition Link), IrDA(Infra-red Data Association)등)등을 포함할 수 있다.The input/output interface 353 is an input interface that receives inputs including signals and/or commands from the user or the outside of the electronic device 300 and transmits them to the inside of the electronic device, and transmits signals or commands to the outside of the user or the electronic device 300. It can serve as an interface that converts output including commands. For example, input buttons, LEDs, vibration motors, various serial interfaces (e.g., USB (Universal Serial Bus), UART (U Universal asynchronous receiver/transmitter), HDMI (High Definition Multimedia Interface), MHL (Mobile High- definition Link), IrDA (Infra-red Data Association), etc.).

햅틱피드백 컨트롤러(354)는, 사용자에게 촉각을 통해 특정한 감각을 느낄 수 있는 기능을 제공하기 위해, 예를 들어 액추에이터(actuator)로 불려지는 진동모터를 포함하여 사용자에게 진동을 느끼게 하여 촉각을 제공할 수 있다.The haptic feedback controller 354 includes, for example, a vibration motor called an actuator to provide the user with the ability to feel a specific sensation through tactile sensation by causing the user to feel vibration. You can.

디스플레이(터치센서티브 디스플레이)(355)는, 사용자에게 이미지, 텍스트, 비디오 등의 각종 콘텐츠를 표시할 수 있다. 상기 디스플레이(355)는 액정디스플레이(Liquid Crystal Display, LCD), 유기발광다이오드(Organic Light Emitting Diode, OLED)디스플레이 또는 홀로그램 출력장치 일 수 있다. 상기 디스플레이(355)는 디스플레이 구동회로(DDI), 디스플레이 패널을 포함할 수 있으며, 디스플레이 구동회로는 프로세싱 유닛(301)으로부터 전달받은 영상 정보에 대응하는 영상 구동신호를 디스플레이 패널에 전달하여 미리 설정된 프레임 레이트(Frame Rate)에 따라 영상을 표시할 수 있다. 디스플레이 구동회로는 IC 형태로 구현될 수 있으며 영상정보를 저장할 수 있는 비디오 메모리, 이미지 프로세싱 유닛, 디스플레이 타이밍 컨트롤러, 멀티플렉서등의 구성요소를 포함할 수 있다. 상기 전자장치(300)의 사양에 따라서 상기 디스플레이(355)는 선택적으로 구비되지 않을 수도 있으며, 매우 간단한 형태의 적어도 하나의 발광다이오드(Light Emitting Diode)로 구성될 수 있다. 상기 디스플레이(355)는 터치 스크린, 전자펜 입력 패널, 지문센서, 압력센서등의 입력기능을 수행하는 장치 및/또는 햅틱 피드백등의 출력장치등을 더 포함할 수 있다. 상기 디스플레이(355)는 사용자 신체의 부분에서 모션신호를 수집하기 위하여 사용자에게 상기 전자장치(300)에 사용자의 신체 일부를 접촉을 하는 위치, 모션신호의 획득 시작 상태, 모션신호의 획득 중인 상태, 모션신호의 획득 완료 상태등의 수집시작 상태등을 표시하는 기능을 수행하여 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행할 수 있다.The display (touch-sensitive display) 355 can display various contents such as images, text, and video to the user. The display 355 may be a liquid crystal display (LCD), an organic light emitting diode (OLED) display, or a hologram output device. The display 355 may include a display driving circuit (DDI) and a display panel, and the display driving circuit transmits an image driving signal corresponding to the image information received from the processing unit 301 to the display panel to display a preset frame. Video can be displayed according to the frame rate. The display driving circuit may be implemented in the form of an IC and may include components such as a video memory capable of storing image information, an image processing unit, a display timing controller, and a multiplexer. Depending on the specifications of the electronic device 300, the display 355 may not be optionally provided, and may be composed of at least one very simple light emitting diode. The display 355 may further include a device that performs input functions such as a touch screen, an electronic pen input panel, a fingerprint sensor, and a pressure sensor, and/or an output device such as haptic feedback. In order to collect a motion signal from a part of the user's body, the display 355 shows the user a position where a part of the user's body touches the electronic device 300, a state in which motion signal acquisition begins, a state in which a motion signal is being acquired, By performing the function of displaying the collection start state, such as the acquisition completion state of the motion signal, identification, authentication, encryption, or functions utilizing these related to neural fingerprint (NFP) can be performed.

근거리무선통신(356)은, 전자장치(300)와 가까운 거리에 있는 다른 전자장치들과 통신을 수행을 하기 위해, 예를 들어, NFC(Near Field Communication), RFID(Radio Frequency Identification), MST(Magetic Secure Transmission)등을 포함할 수 있다.The short-range wireless communication 356 uses, for example, Near Field Communication (NFC), Radio Frequency Identification (RFID), and MST (Near Field Communication) to perform communication with other electronic devices located close to the electronic device 300. Magetic Secure Transmission), etc.

외장메모리슬롯(257)은, 전자장치(300)의 저장공간의 확장을 할 수 있도록 메모리 카드(예를 들어, SD 카드, Micro SD카드 등)등을 장착할 수 있는 인터페이스를 포함할 수 있다.The external memory slot 257 may include an interface for mounting a memory card (eg, SD card, Micro SD card, etc.) to expand the storage space of the electronic device 300.

파워시스템(358)은, 전자장치(300)에 전력을 공급하고 제어하고 관리하는 등의 역할을 수행할 수 있다. 파워시스템은 PMIC(Power Management Integrated Circuit), 배터리(359), 충전IC(360), 연료 게이지(Fuel Gauge)등을 포함할 수 있다. 파워시스템은 교류 또는 직류 전원을 입력으로 받을 수 있다. 공급된 전원을 배터리(359)에 충전할 수 있는 유선 충전, 무선 충전기능을 포함할 수 있다. The power system 358 may perform roles such as supplying power to, controlling, and managing the electronic device 300. The power system may include a Power Management Integrated Circuit (PMIC), a battery 359, a charging IC 360, a fuel gauge, etc. The power system can receive alternating current or direct current power as input. It may include wired charging and wireless charging functions that can charge the supplied power to the battery 359.

클락소스(361)는, 전자장치(300)의 동작에 기준이 되는 시스템 클락(clock), RF 신호 송수신을 위한 주파수 발진기를 적어도 하나 이상 포함할 수 있다. The clock source 361 may include a system clock that serves as a standard for the operation of the electronic device 300 and at least one frequency oscillator for transmitting and receiving RF signals.

오디오 회로(362)는, 오디오 입력부(예를 들어, 마이크)과 오디오 출력부(리시버, 스피커 등), 오디오 신호와 전기신호 간의 변환을 수행하는 코덱(Codec)을 포함할 수 있고, 이를 통해 사용자와 전자장치간의 인터페이스를 제공할 수 있다. 오디오 입력부를 통해 획득된 오디오 신호를 아날로그 전기신호로 변환하여 샘플링을 수행하여 디지털 데이터화하여 전자장치(300)내의 다른 구성요소(예를 들어, 프로세싱 유닛)로 전달하여 오디오 처리를 수행할 수 있고, 전자장치(300)내의 다른 구성요소로부터 전달받은 디지털 오디오 데이터를 아날로그 전기신호로 변환하여 오디오 출력부를 통해 오디오 신호를 발생시킬 수 있다.The audio circuit 362 may include an audio input unit (e.g., microphone), an audio output unit (receiver, speaker, etc.), and a codec that performs conversion between audio signals and electrical signals, through which the user It can provide an interface between and electronic devices. The audio signal acquired through the audio input unit can be converted into an analog electrical signal, sampled, converted into digital data, and transmitted to other components (e.g., a processing unit) in the electronic device 300 to perform audio processing, Digital audio data received from other components within the electronic device 300 can be converted into analog electrical signals and an audio signal can be generated through an audio output unit.

SIM 카드((63)는, 셀룰라 통신에서 가입자를 식별하기 위한 것으로 가입자 식별모듈(Subscriber Identification Module)을 구현한 IC 카드이다. 전자장치(310)에 구비된 슬롯에 SIM 카드를 장착하는 경우가 대부분이며, 전자장치의 종류에 따라서는 전자장치 내부에 결합된 형식의 임베디드 SIM의 형태로도 구현될 수 있다. SIM카드에는 각자의 고유한 번호가 기록될 수 있으며 고정된 번호인 ICCI(Integrated Circuit Card Identifier)와 가입자 회선마다 달라지는 IMSI(International Mobile Subscriber Identity) 정보를 포함할 수 있다.The SIM card (63) is an IC card that implements a subscriber identification module for identifying subscribers in cellular communication. In most cases, the SIM card is mounted in the slot provided in the electronic device 310. Depending on the type of electronic device, it can also be implemented in the form of an embedded SIM combined inside the electronic device. Each SIM card can have its own unique number recorded and a fixed number called ICCI (Integrated Circuit Card). Identifier) and IMSI (International Mobile Subscriber Identity) information that varies for each subscriber line.

무선통신프로세서(364)는, 예를 들어, 셀룰러 통신, 와이파이 통신, 블루투스, GPS 등을 포함할 수 있다. 상기 무선통신프로세서(364)를 통해서 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 네트워크를 통해 적어도 하나 이상의 다른 전자장치(서버 포함)등과의 협력을 통해 수행할 수 있다.The wireless communication processor 364 may include, for example, cellular communication, Wi-Fi communication, Bluetooth, GPS, etc. Through the wireless communication processor 364, identification, authentication, encryption, or functions utilizing them related to neural fingerprint (NFP) can be performed through cooperation with at least one other electronic device (including a server) through a network.

RF 회로(365)는, 트랜시버(Transceiver), PAM(Power Amp Module), 주파수 필터, LNA(Low Noise Amplifier) 또는 안테나 등을 포함할 수 있다. 무선통신프로세서와 프로세싱 유닛과 제어정보 및 사용자 데이터를 교환하여 무선환경으로 무선주파수를 통해 송수신을 수행할 수 있다. The RF circuit 365 may include a transceiver, a power amplifier module (PAM), a frequency filter, a low noise amplifier (LNA), or an antenna. By exchanging control information and user data with the wireless communication processor and processing unit, transmission and reception can be performed through radio frequencies in a wireless environment.

신경지문가속기(366)는, 사용자의 신체 일부에서 획득된 신호를 처리하는 연산 수행의 속도를 높이거나 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행하는 데 있어서의 연산의 일부 또는 전체를 수행하여 전체적인 시스템의 성능을 높이는 기능을 수행한다.The neural fingerprint accelerator 366 is used to speed up the performance of calculations that process signals obtained from parts of the user's body, or to perform identification, authentication, encryption, or functions utilizing neural fingerprints (NFP). It performs some or all of the functions to improve the performance of the overall system.

센서(370)는, 전자장치의 상태, 물리량 등을 감지하거나 계측하여 전기신호로 변환할 수 있다. 상기 센서(370)는 나침반(371), 광학센서(372), 지문센서(373), 근접센서(374), 자이로 센서(375), RGB센서(376), 기압계(378), UV센서(379), 그립센서(380), 마그네틱센서(381), 가속도 센서(382), 홍채센서(383)등을 포함할 수 있다. 상기 센서(370)은 도면에는 표시되지 않은 IR센서, GSR(Galvanic Skin Response)센서, 뇌전도(EEG, Electroencephalography)센서 등을 더 포함할 수 있다.The sensor 370 can detect or measure the state and physical quantities of an electronic device and convert them into electrical signals. The sensor 370 includes a compass 371, an optical sensor 372, a fingerprint sensor 373, a proximity sensor 374, a gyro sensor 375, an RGB sensor 376, a barometer 378, and a UV sensor 379. ), a grip sensor 380, a magnetic sensor 381, an acceleration sensor 382, an iris sensor 383, etc. The sensor 370 may further include an IR sensor, a Galvanic Skin Response (GSR) sensor, an Electroencephalography (EEG) sensor, etc., which are not shown in the drawing.

상기 센서(370)는 사용자 신체의 부분에서 모션신호를 수집하여 전자장치의 프로세싱 유닛(301), 신경지문(NFP) 가속기(366) 등을 포함한 전자장치(300)의 적어도 하나의 구성요소에 전달하여 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행할 수 있다.The sensor 370 collects motion signals from parts of the user's body and transmits them to at least one component of the electronic device 300, including the processing unit 301 of the electronic device and the neural fingerprint (NFP) accelerator 366. Thus, identification, authentication, encryption, or functions utilizing them related to neural fingerprint (NFP) can be performed.

메모리(390)는, 휘발성 메모리(391) (예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM) 또는 SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(392) (예를 들어, NOR 플래쉬 메모리, NAND 플래쉬 메모리, EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), HDD(Hard Disk Drive), SSD(Solid State Drive), SD(Secure Digital) card 메모리, Micro SD 메모리, MMC(Multimedia Media Card) 메모리 등) 중 적어도 하나 이상을 포함할 수 있다. 비휘발성 메모리(392)에는 적어도 하나 이상의 부트로더, 운영체제(393), 통신기능(394) 라이브러리, 디바이스 드라이버(395), 신경지문(NFP) 라이브러리(396), 애플리케이션(397), 사용자 데이터(398)등을 저장할 수 있다. 휘발성 메모리(391)에는 전원이 인가되어 동작하기 시작하며, 비휘발성에 저장된 프로그램들 또는 데이터들을 프로세싱 유닛(301)등이 로드하는 동작을 수행하여 전자장치의 동작 중에 프로세싱 유닛(301)과 인터페이스하는 일련의 동작을 통해 메인 메모리의 역할을 수행할 수 있다. The memory 390 includes volatile memory 391 (e.g., Dynamic RAM (DRAM), Static RAM (SRAM), or Synchronous Dynamic RAM (SDRAM), etc.), non-volatile memory 392 (e.g., NOR flash) Memory, NAND flash memory, EPROM (Erasable and Programmable ROM), EEPROM (Electrically Erasable and Programmable ROM), HDD (Hard Disk Drive), SSD (Solid State Drive), SD (Secure Digital) card memory, Micro SD memory, MMC (Multimedia Media Card, memory, etc.) may be included. The non-volatile memory 392 includes at least one bootloader, operating system 393, communication function library 394, device driver 395, neural fingerprint (NFP) library 396, application 397, and user data 398. ), etc. can be saved. The volatile memory 391 starts operating when power is applied, and the processing unit 301, etc., performs an operation of loading programs or data stored in non-volatile memory, thereby interfacing with the processing unit 301 during the operation of the electronic device. It can perform the role of main memory through a series of operations.

전자장치(300)는, 사용자 신체의 일부분으로부터 센서(370)를 통해 신호를 획득할 수 있고, 획득된 신호를 프로세싱유닛(301), 신경지문가속기(366), 메모리(390) 중 적어도 하나 이상의 상호 동작을 통해 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능을 수행할 수 있다. 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능은 상기 전자장치(300)가 독자적으로 수행할 수 있고, 네트워크를 통해 적어도 하나 이상의 다른 전자장치(서버 포함)등과의 협력을 통해 수행할 수 있다. The electronic device 300 may acquire a signal from a part of the user's body through the sensor 370, and transmit the acquired signal to at least one of the processing unit 301, the neural fingerprint accelerator 366, and the memory 390. Through mutual operation, identification, authentication, encryption, or functions related to neural fingerprint (NFP) can be performed. Identification, authentication, encryption, or functions related to neural fingerprint (NFP) can be performed independently by the electronic device 300, and through cooperation with at least one other electronic device (including a server) through a network. It can be done.

도 4는 일 실시 예에 따른 신경지문(NFP) 활용예시를 나타내는 도면이다.Figure 4 is a diagram showing an example of using neural fingerprint (NFP) according to an embodiment.

도 4를 참조하면, 사용자가 전자장치를 손으로 잡고 있을 때, 사람의 손의 움직임에 대한 모션신호를 전자장치의 센서에 의해 획득하여 전기신호로 변환하고, 변환된 신호에서 신경유도 마이크로 모션(neuro-derived micro motion) 또는 신경근육톤(neuro muscular tone)을 추출할 수 있다. Referring to FIG. 4, when a user holds an electronic device with his or her hand, a motion signal for the movement of the person's hand is acquired by the sensor of the electronic device and converted into an electrical signal, and nerve-induced micro-motion (neural-induced micro-motion) is generated from the converted signal. Neuro-derived micro motion or neuromuscular tone can be extracted.

추출된 신경유도 마이크로 모션 또는 신경근육톤을 적절히 분석할 경우, 독창적이고 안정된 생리학적 식별자, 특히 신경학적 식별자를 생성할 수 있으며 이는 사용자별로 고유한 신경지문(NFP) 식별자라고 할 수 있다. 즉, 사용자의 전자장치의 파지에 의해 신경지문을 인식할 수 있으며 이를 통해 전자장치의 보안영역에 기 저장된 사용자의 신경지문과의 비교를 수행하여 허가된 사용자인지 여부를 판단하고, 허가된 사용자인 경우를 판단할 수 있다. If the extracted neurally induced micro-motion or neuromuscular tone is properly analyzed, a unique and stable physiological identifier, especially a neurological identifier, can be generated, which can be called a neural fingerprint (NFP) identifier unique to each user. In other words, the neural fingerprint can be recognized by holding the user's electronic device, and through this, a comparison is made with the user's neural fingerprint already stored in the security area of the electronic device to determine whether the user is an authorized user. The case can be judged.

세부적으로는, 모션센서(motion sensor)로부터 사용자 신체의 부분에서 모션신호를 수집하고, 상기 모션신호로부터 원치 않는 신호를 필터링하고, 상기 필터링된 모션신호로부터 신경근육 마이크로 모션(neuro-muscular micro- motion) 데이터를 추출하고, 상기 신경근육 마이크로 모션 데이터를 신호처리와 피쳐 추출을 수행하여 고유한 특성을 추출하고, 상기 고유한 특성을 기초로 신경역학적 식별자(neuro-mechanical identifier) 생성을 수행할 수 있다. In detail, motion signals are collected from parts of the user's body from a motion sensor, unwanted signals are filtered from the motion signals, and neuro-muscular micro-motion is generated from the filtered motion signals. ) Data can be extracted, unique characteristics can be extracted by performing signal processing and feature extraction on the neuromuscular micro-motion data, and neuro-mechanical identifier generation can be performed based on the unique characteristics. .

또한, 인증된 사용자를 국부적으로 인증하고 전자장치에 대한 접근을 제어하기 위해, 상기 전자장치를 사용하여 사용자의 신체 부분에서 감지된 마이크로 모션 신호에 응답하여 사용자를 위한 신경역학적 지문을 생성하고, 인증된 사용자 교정 파라미터에 응답하여 상기 신경역학적 지문의 일치 비율을 생성하고, 상기 일치 비율에 응답하여 상기 전자장치에 대한 사용자 접근 제어를 수행할 수 있다. 이러한 동작들은 신용카드 결재, 의료장치의 의료정보 수집 및 가공, 보안칩셋의 인증키등의 인증 또는 암호화 수단, 클라우드 환경에서의 사용자 로그인 등의 인증 또는 암호화, 웨어러블 장치에 탑재되어 인증 또는 암호화, 각종 잠금장치(도어락, 화면잠금 해제, 자동차의 키, 각종 장치의 잠금해제)의 해제등의 분야에 다양하게 활용될 수 있다. Additionally, the electronic device may be used to generate a neurodynamic fingerprint for the user in response to micro-motion signals detected from parts of the user's body, to locally authenticate the authenticated user and control access to the electronic device. A matching rate of the neurodynamic fingerprint may be generated in response to the user calibration parameter, and user access control to the electronic device may be performed in response to the matching rate. These operations include credit card payment, collection and processing of medical information from medical devices, authentication or encryption methods such as authentication keys of security chipsets, authentication or encryption such as user login in a cloud environment, authentication or encryption by being mounted on wearable devices, and various other methods. It can be used in a variety of fields, such as unlocking locks (door locks, screen unlocks, car keys, and unlocking various devices).

도 5a 내지 5f는 일 실시 예에 따른 신경역학적 식별자 생성 방법을 예시적으로 나타내는 순서도 또는 동작의 흐름에 대한 도시이다. 도 6은 일 실시 예에 따른 사용자별 푸앵카레의 위상 도표를 나타내는 그래프이다. 도 7은 일 실시 예에 따른 서로 다른 사용자의 캡스트럼(Cepstrum) 분석결과를 나타내는 그래프이다. 이해를 돕기 위해 도 5a 내지 도 5f는 도 3에 도시된 전자장치를 가정하여 설명하기로 한다. 5A to 5F are flowcharts or flow diagrams illustrating a method for generating a neurodynamic identifier according to an exemplary embodiment. Figure 6 is a graph showing a Poincaré phase diagram for each user according to an embodiment. Figure 7 is a graph showing Cepstrum analysis results of different users according to an embodiment. To facilitate understanding, FIGS. 5A to 5F will be described assuming the electronic device shown in FIG. 3.

도 5a를 참조하면, 전자장치(300)는 모션센서(motion sensor)로부터 사용자 신체의 부분에서 모션신호를 수집할 수 있다(510). 상기 모션센서는 사용자의 움직임이나 진동을 감지할 수 있는 센서를 포함할 수 있다. 예를 들어 모션센서는 나침반(371), 자이로센서(375), 가속도 센서(382), 카메라(350), 광학센서, 테치센서티브 디스플레이(355)의 터치센서등 일 수 있다. 전자장치는 사용자의 신체 일부분과 접촉된 부분에서 발생하는 움직임, 진동등을 감지하여 모션센서등을 통해 전기적 신호로 변환하고 샘플링과 양자화를 거쳐 신호처리 가능한 디지털 신호로 변환을 수행할 수 있다. 상기 모션센서로 카메라를 구동시킬 경우 안구 움직임 신호를 수집할 수 있다. 상기 모션센서는 미리 정해진 시간 범위(예를 들어, 5, 10, 20, 30초 등)에 걸쳐, 미리 정해진 샘플링 주파수로 샘플링하여 신호를 수집할 수 있다.Referring to FIG. 5A, the electronic device 300 can collect motion signals from parts of the user's body from a motion sensor (510). The motion sensor may include a sensor capable of detecting the user's movement or vibration. For example, the motion sensor may be a compass 371, a gyro sensor 375, an acceleration sensor 382, a camera 350, an optical sensor, or a touch sensor of a touch-sensitive display 355. Electronic devices can detect movement and vibration that occur in parts of the user's body that are in contact, convert them into electrical signals through motion sensors, and convert them into digital signals that can be processed through sampling and quantization. When the camera is driven using the motion sensor, eye movement signals can be collected. The motion sensor may collect signals by sampling at a predetermined sampling frequency over a predetermined time range (eg, 5, 10, 20, 30 seconds, etc.).

샘플링 주파수는, 신경에서 유도되거나 신경에 기반을 둔 인간의 고유한 신경근 해부학에 기인하는 신경 근육 마이크로 모션의 주파수가 주로 관찰되는 주파수 범위인 3Hz에서 30Hz를 고려하여, 예를 들어, 30Hz 주파수의 두 배 이상인 60Hz, 200Hz, 250Hz, 330Hz 등이 될 수 있다. 주로 관찰되는 주파수의 범위는 신경지문을 사용하는 애플리케이션에 따라 다르게 주파수 범위를 정하여 관찰할 수 있고, 또한 정확도나 성능 향상등을 위해 필요한 다른 주파수 범위의 신호를 사용할 수도 있다. 상기 모션센서는 디지털 신호의 품질을 높이기 위해 노이즈를 제거하거나 신호 품질을 개선하는 동작을 더 수행할 수도 있다. 전자장치(300)가 휴대용 기기로 구현될 경우에는 전력소모의 문제가 중요해 질 수 있다. 이를 위해 전자장치(300)는 슬립모드로 동작할 수 있고, 전자장치(300)는 수집되어 디지털로 변환된 모션신호를 센서코어(326)를 통해 프로세싱 유닛(301)으로 전달받을 수 있다. 상기 센서코어(326)는 모션센서로 부터 전달받은 디지털 신호의 품질을 높이기 위해 노이즈를 제거하거나 신호를 품질을 개선하는 동작을 더 수행할 수도 있다. 프로세싱 유닛은 상기 전자장치(300)의 전력소모의 효율성을 높이기 위해 종종 슬립모드에 진입하는 동작을 할 수 있다. 일반적으로 슬립모드에서는 최소한의 전력소모를 위해 상기 전자장치(300)내의 일부 구성요소들의 전력을 차단하거나, 저전력모드로의 전환하거나, 동작 클락의 주파수를 낮추는 등의 다양한 방법들이 적용될 수 있다. 상기 프로세싱 유닛(301)이 슬립모드에 진입할 경우 전력 소모의 효율은 높아진다고 할 수 있으나, 사용자와 전자기기간의 상호 응답 측면에서는 지연이 발생 할 수 있기 때문에, 상기 센서코어(326)와 같은 보조프로세서가 프로세싱 유닛 내부 또는 전자장치에 구비될 수 있다. 상기 프로세싱 유닛(301)이 슬립모드에 진입하더라도, 상기 센서코어(326)는 상기 센서(370)들로부터 신호감지를 관찰하여, 상시 프로세싱 유닛(301)의 처리가 요구되는 상황으로 판단되는 경우, 버스 또는 인터럽트 신호를 통해 상기 프로세싱 유닛(301)의 슬립모드에서 깨어날 수 있도록 하는 동작을 수행할 수 있다. 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능은 보안이 요구되는 동작이라고 할 수 있다. 이 경우 상기 모션센서의 데이터 수집을 제어하는 동작은 예를 들어, 상기 프로세서 유닛(301) 내의 제1코어(304)는 보안모드(308)로 전환되어 동작할 수 있다. 상기 모션센서 또는 상기 센서코어(326)에 의해 버스 또는 인터럽트를 통해 전달되는 신호는 모니터모드(313)에 입력되어 상기 제1 코어(304)를 보안모드(308)로 전환하게 할 수 있다. 보안모드(308)로 진입한 코어는 기 설정된 보안모드에서만 접근 가능한 전자장치의 시스템 자원을 접근하거나 제어할 수 있다. The sampling frequency was, for example, between 3 and 30 Hz, taking into account the frequency range of 3 Hz to 30 Hz, which is the frequency range in which the frequencies of neuromuscular micromotions resulting from the unique neuromuscular anatomy of humans, either nerve-derived or nerve-based, are predominantly observed. It can be 60Hz, 200Hz, 250Hz, 330Hz, etc., which is twice as much. The mainly observed frequency range can be observed by determining a different frequency range depending on the application using the neural fingerprint, and signals of other frequency ranges can also be used to improve accuracy or performance. The motion sensor may further perform operations to remove noise or improve signal quality to increase the quality of the digital signal. When the electronic device 300 is implemented as a portable device, the issue of power consumption may become important. To this end, the electronic device 300 can operate in a sleep mode, and the electronic device 300 can receive the collected and digitally converted motion signal to the processing unit 301 through the sensor core 326. The sensor core 326 may further perform operations to remove noise or improve signal quality in order to increase the quality of the digital signal received from the motion sensor. The processing unit may frequently enter a sleep mode to increase the efficiency of power consumption of the electronic device 300. In general, in sleep mode, various methods can be applied, such as cutting off the power of some components in the electronic device 300, switching to a low power mode, or lowering the frequency of the operating clock to minimize power consumption. When the processing unit 301 enters the sleep mode, the efficiency of power consumption can be said to increase, but since there may be a delay in the mutual response between the user and the electronic device, an auxiliary processor such as the sensor core 326 It may be provided inside the processing unit or in the electronic device. Even if the processing unit 301 enters the sleep mode, the sensor core 326 observes signal detection from the sensors 370 and determines that continuous processing by the processing unit 301 is required. An operation may be performed to wake up the processing unit 301 from the sleep mode through a bus or an interrupt signal. Neural fingerprint (NFP)-related identification, authentication, encryption, or functions utilizing these can be said to be operations that require security. In this case, the operation of controlling data collection of the motion sensor may be performed by, for example, switching the first core 304 in the processor unit 301 to the security mode 308. A signal transmitted through a bus or interrupt by the motion sensor or the sensor core 326 can be input to the monitor mode 313 to switch the first core 304 to the security mode 308. The core that has entered the security mode 308 can access or control system resources of the electronic device that are accessible only in the preset security mode.

전자장치(300)는, 상기 모션센서로부터 수집된 모션신호로부터 신경근육 마이크로 모션 데이터를 추출할 수 있다(520). 모션신호로부터 신호를 추출하는 동작은 프로세싱 유닛(301)의 중앙처리장치(302)에서 모두 처리하거나, GPU(320), 디지털신호처리(DSP) (321), 신경지문(NFP)가속기 등과 협력하여 신호를 추출할 수 있다. The electronic device 300 may extract neuromuscular micro-motion data from the motion signal collected from the motion sensor (520). The operation of extracting signals from motion signals is either processed by the central processing unit 302 of the processing unit 301, or in cooperation with GPU 320, digital signal processing (DSP) 321, neural fingerprint (NFP) accelerator, etc. Signals can be extracted.

수집된 모션신호로부터 마이크로 모션 데이터 추출을 위해 불필요한 신호를 제거하는 필터링을 수행할 수 있다(522). 불필요한 신호들은 예를 들어, 잡음, 매크로 모션 신호, 중력으로 인한 왜곡 등을 포함할 수 있다. 모션센서로부터 획득된 신호에 있어서, 신호 수집 초기 또는 신호 수집 마지막 부분의 일정 기간(예를 들어, 약 1~2초까지)의 신호는 사용자의 매크로 모션의 신호가 매우 많이 포함될 수 있고 전자장치의 흔들림이 있을 수 있으므로 모두 버릴 수 있다. 전자장치가 충전 중인 경우에 수집된 신호에 있어서는 전원 잡음이 발생할 수 있으므로 전원잡음으로 인한 특성을 고려하여 신호의 필터링을 할 수 있다. 신경에서 유도되거나 신경에 기반을 둔 인간의 고유한 신경근 해부학에 기인하는 신경 근육 마이크로 모션의 주파수는 주로 3Hz 에서 30Hz의 범위에 관찰된다. 따라서 수집된 모션신호로부터 3Hz에서 30Hz 또는 4Hz에서 30Hz범위의 신호를 신호처리알고리즘을 수행하여 추출할 수 있다. 제거해야 할 원치 않는 신호의 특성에 따라 신호처리알고리즘의 대역 필터의 차단주파수에 대한 변경을 가할 수 있다. 예를 들어, 일 실시 예에서는 4Hz에서 30Hz 범위의 신호를 추출할 수 있고, 다른 일 실시 예에서는 8Hz에서 30Hz 범위의 신호를 추출할 수 있다. 또 다른 일 실시 예에서는, 4Hz에서 12Hz 또는 8Hz에서 12Hz 범위의 신호를 추출할 수 있다. To extract micro motion data from the collected motion signals, filtering can be performed to remove unnecessary signals (522). Unwanted signals may include, for example, noise, macro motion signals, distortion due to gravity, etc. In signals obtained from a motion sensor, signals for a certain period of time (e.g., up to about 1 to 2 seconds) at the beginning of signal collection or at the end of signal collection may contain a large amount of signals of the user's macro motion and may contain a large amount of signals of the user's macro motion. There may be some shaking, so you can throw it all away. Since power noise may occur in signals collected when an electronic device is charging, the signal can be filtered taking into account the characteristics caused by power noise. The frequency of neuromuscular micromotions, which are either nerve-derived or nerve-based and result from the unique neuromuscular anatomy of humans, are primarily observed in the range of 3 Hz to 30 Hz. Therefore, signals in the range of 3Hz to 30Hz or 4Hz to 30Hz can be extracted from the collected motion signals by performing a signal processing algorithm. Depending on the characteristics of the unwanted signal to be removed, the cutoff frequency of the band filter of the signal processing algorithm can be changed. For example, in one embodiment, signals in the range of 4Hz to 30Hz may be extracted, and in another embodiment, signals in the range of 8Hz to 30Hz may be extracted. In another embodiment, signals in the range of 4Hz to 12Hz or 8Hz to 12Hz may be extracted.

일 실시 예에서는, 수집된 모션신호로부터 매크로 모션(사용자 신체의 큰 움직임, 팔을 움직이거나 걷는 동작, 달리기, 조깅, 손동작 등의 큰 규모의 움직임)을 제거하기 위해 마이크로 모션의 작은 신호 진폭으로부터 분리하여 분류하는 신호 해석 방법을 사용할 수 있다. 예를 들어, "Time Series Classification Using Gaussian Mixture Models of Reconstructed Phase Spaces"(by Richard J. Povinelli et al., IEEE Transactions on Knowledge and Data Engineering, Vol. 16 , No. 6, June 2004 )의 해석 방법, 또는 자발적인 움직임으로 인한 신호의 분리를 위해 "Estimation of Physiological Tremor from Accelerometers for Real-Time Applications" (by Kalyana C. Veluvolu et al., Sensors 2011, vol. 11, pages 3020-3036, attached hereto in the appendix)의 해석 방법을 사용하여 매크로 모션 신호를 제거하고 마이크로 모션 신호를 추출 할 수 있다.In one embodiment, macro motion (large scale movements of the user's body, arm movements, walking, running, jogging, hand movements, etc.) is separated from the small signal amplitude of the micro motion to remove it from the collected motion signals. A signal analysis method that classifies signals can be used. For example, the interpretation method in "Time Series Classification Using Gaussian Mixture Models of Reconstructed Phase Spaces" (by Richard J. Povinelli et al., IEEE Transactions on Knowledge and Data Engineering, Vol. 16, No. 6, June 2004); Or, for separation of signals due to voluntary movement, see "Estimation of Physiological Tremor from Accelerometers for Real-Time Applications" (by Kalyana C. Veluvolu et al., Sensors 2011, vol. 11, pages 3020-3036, attached hereto in the appendix )'s analysis method can be used to remove macro motion signals and extract micro motion signals.

전자장치(300)는, 추출된 신경근육 마이크로 모션 데이터에서 고유한 특성을 추출할 수 있다(530). 푸앵카레의 위상 정보, 캡스트럼(CEPSTRUM) 분석, 혼돈분석(Chaos analytics)의 발산지수(Lyapunov exponent)를 활용한 분석, Reconstructed Phase Space(RPS)를 기반으로 한 분석 등과 각종의 신호처리 기술 등을 통한 성분들의 적어도 하나 이상의 선형조합으로도 고유한 특성 값들이 구성될 수 있다. 도 6에 도시된 바와 같이, 사용자 별 푸앵카레의 위상 도표를 보면, 사용자 별로(610, 620, 630, 640) 각각 고유하고 상이한 신호패턴을 갖고 있고 각 사용자 별 패턴의 질량 중심(612, 622, 632, 642)도 각 사용자 별 고유하고 상이한 것을 알 수 있다. 이때 마이크로 모션 데이터에서 사용자 별 고유한 특성을 추출하기 위해 신호처리와 피쳐추출(feature extraction)을 수행할 수 있다(532). 각 사용자 별 마이크로 모션 내의 은닉되어 있는 패턴을 추출하기 위해서는 신호의 스펙트럼 분석, 신호의 역스펙트럼 분석 등을 통해 검출될 수 있다. 예를 들어, 잘 알려진 캡스트럼(CEPSTRUM) 분석을 통해 반복되는 주기의 패턴과 주파수 간격을 감지할 수 있다. 도 7에서, 일 실시 예의 서로 다른 사용자의 캡스트럼(CEPSTRUM) 분석결과를 보면, 사용자1(710)에서 추출된 5개의 캡스트럼 진폭(CEPSTRUM Amplitude) 피크값(P1, P2, P3, P4, P5)과 사용자 2(720)에서 추출된 5개의 캡스트럼 진폭(CEPSTRUM Amplitude) 피크값(P1, P2, P3, P4, P5)이 서로 다르고, 사용자1(710)에서 추출된 5개의 큐프렌시(Quefrency) (F1, F2, F3, F4, F5)와 사용자 2(720)에서 추출된 5개의 큐프렌시(Quefrency) (F1, F2, F3, F4, F5)의 값과 간격이 다른 사용자 별 고유한 특성을 보여 주고 있는 것을 알 수 있어, 이러한 결과를 사용자별로 고유한 패턴 정보에 포함할 수 있다. The electronic device 300 may extract unique characteristics from the extracted neuromuscular micro-motion data (530). Poincaré's phase information, CEPSTRUM analysis, analysis using the Lyapunov exponent of chaos analytics, analysis based on Reconstructed Phase Space (RPS), and various signal processing technologies. Unique characteristic values can be composed of at least one linear combination of components. As shown in Figure 6, looking at the Poincaré phase diagram for each user, each user (610, 620, 630, 640) has a unique and different signal pattern, and the center of mass of the pattern for each user (612, 622, 632) , 642) can also be seen to be unique and different for each user. At this time, signal processing and feature extraction can be performed to extract unique characteristics for each user from the micro motion data (532). In order to extract hidden patterns within each user's micro-motion, they can be detected through signal spectrum analysis, signal inverse spectrum analysis, etc. For example, the well-known CEPSTRUM analysis can detect patterns of repeating cycles and frequency intervals. In FIG. 7, looking at the CEPSTRUM analysis results of different users in one embodiment, five CEPSTRUM amplitude peak values (P1, P2, P3, P4, P5) extracted from user 1 (710) ) and the five CEPSTRUM Amplitude peak values (P1, P2, P3, P4, P5) extracted from user 2 (720) are different from each other, and the five cuprency extracted from user 1 (710) are different from each other. Quefrency (F1, F2, F3, F4, F5) and the five Quefrency (F1, F2, F3, F4, F5) extracted from user 2 (720) are unique to each user with different values and intervals. Since it can be seen that it is showing certain characteristics, these results can be included in the unique pattern information for each user.

전자장치(300)는, 상기 신경근육 마이크로 모션 데이터에서 신경역학적 식별자를 생성할 수 있다(540). 일 실시 예에서, 상기 추출된 신경근육 마이크로 모션 데이터에서 고유한 특성을 추출(530)하는 동작에의 결과값들의 집합을 다차원의 값을 갖는 자료구조 형태로 신경역학적 식별자로 생성하여 비휘발성 메모리에 저장한다. 상기 신경역학적 식별자는 사용자별로 고유한 신경지문으로 불려질 수 있다. The electronic device 300 may generate a neuromechanical identifier from the neuromuscular micro-motion data (540). In one embodiment, a set of result values from the operation of extracting (530) unique characteristics from the extracted neuromuscular micro-motion data is generated as a neuromechanical identifier in the form of a data structure with multidimensional values and stored in non-volatile memory. Save. The neurodynamic identifier may be referred to as a neural fingerprint unique to each user.

일 실시 예에서, 신경역학적 식별자 생성 방법(510, 520, 530, 540)의 동작 수행 시 상기 동작들은, 전자장치(300)는 고성능의 프로세서 코어의 클러스터(예를 들어, 제1 클러스터(303)가 고성능 코어들의 클러스터일 경우, 제1 클러스터(303)를 할당 )에 할당되어 수행될 수 있다. In one embodiment, when performing the operations of the neurodynamic identifier generation method 510, 520, 530, and 540, the electronic device 300 uses a cluster of high-performance processor cores (e.g., the first cluster 303). If is a cluster of high-performance cores, the first cluster 303 may be assigned to ) and performed.

일 실시 예에서, 신경역학적 식별자 생성 방법(510, 520, 530, 540)의 동작 수행 시 상기 동작들은, 상기 프로세서 유닛(301) 내의 코어의 보안모드 (예를 들어, 상기 동작들이 제1코어(304)에 할당되는 경우 보안모드(308)로 전환)로 전환되어 동작할 수 있다. 보안모드(308)로 진입한 코어는 기 설정된 보안모드에서만 접근 가능한 전자장치의 시스템 자원을 접근하거나 제어하여, 상기 신경역학적 식별자 생성 방법(510, 520, 530, 540)의 동작을 수행할 수 있다. In one embodiment, when performing the operations of the neurodynamic identifier generation method (510, 520, 530, 540), the operations are performed in the security mode of the core in the processor unit 301 (e.g., the operations are performed in the first core ( When assigned to 304), it can be switched to the security mode (308) and operated. The core that has entered the security mode 308 can access or control system resources of the electronic device that are accessible only in the preset security mode and perform the operations of the neurodynamic identifier generation method 510, 520, 530, and 540. .

일 실시 예에서, 신경역학적 식별자 생성 방법(510, 520, 530, 540)의 동작 수행시 상기 동작들의 수행이 시작될 때, 전자장치(300)가 슬립모드 상태에 있는 경우, 센서코어(326)에서 센서(370)들로부터의 신호를 감지하고 버스 또는 인터럽트 신호를 통해 상기 프로세싱 유닛(301)의 슬립모드에서 깨어날 수 있도록 하여, 상기 신경역학적 식별자 생성 방법(510, 520, 530, 540)의 동작을 수행할 수 있다. In one embodiment, when performing the operations of the neuromechanical identifier generation method 510, 520, 530, and 540, when the electronic device 300 is in a sleep mode when the operations begin, the sensor core 326 By detecting signals from the sensors 370 and waking up the processing unit 301 from the sleep mode through a bus or an interrupt signal, the operation of the neurodynamic identifier generation method 510, 520, 530, and 540 is performed. It can be done.

일 실시 예에서, 신경역학적 식별자 생성 방법(510, 520, 530, 540)의 동작 수행시 상기 동작들은, 모션센서로 카메라 또는 광학센서를 구동하여 안구의 움직임 신호를 수집하여 신경역학적 식별자(예를 들어, 신경안구 식별자)를 생성할 수 있다.In one embodiment, when performing the operations of the neuromechanical identifier generation method (510, 520, 530, 540), the operations collect eye movement signals by driving a camera or optical sensor with a motion sensor to generate a neuromechanical identifier (e.g. For example, a neural eye identifier) can be generated.

도 5b를 참조하면, 전자장치(300)는 전자장치(300) 내부의 센서로부터 전자장치(300)의 외부로부터 접촉 또는 근거리로부터 신호를 센싱(551)할 수 있다. 외부 신호 발생원(550)으로는 사람의 뇌의 작용으로 인하여 신경을 통해 유도된 근육의 움직임을 발생시키는 신체의 일부분일 수 있고, 전자장치(300)와 근거리에 위치한 신호를 발생시키는 물체일 수 있다. Referring to FIG. 5B, the electronic device 300 may sense a signal (551) from a sensor inside the electronic device 300, a signal from outside the electronic device 300, or from a short distance. The external signal generator 550 may be a part of the body that generates muscle movement induced through nerves due to the action of the human brain, or may be an object that generates a signal located in close proximity to the electronic device 300. .

센서는 사람의 신체로부터 접촉 또는 근거리의 비접촉을 통해 신호를 센싱(551)할 수 있으며, 도 3의 센서(370)의 일부 또는 전체로 구성될 수 있거나 센서(370)을 구성하는 센서들의 적어도 하나 이상의 조합으로 구성되어 실시될 수 있다. 또한 센서(370)에 기술되지 않는 센서들을 포함할 수 있다. 센서에서는 측정되는 신호를 전기적인 신호로 변환하여 디지털 기술을 활용하여 미리 설정된 샘플링 주파수에 의해 신호의 샘플링과 양자화를 수행하여 디지털 처리에 용이한 디지털 신호로 변환하는 기능을 수행한다. 이때 샘플링 주파수는, 신경에서 유도되거나 신경에 기반을 둔 인간의 고유한 신경근 해부학에 기인하는 신경 근육 마이크로 모션의 주파수가 주로 관찰되는 주파수 범위인 3Hz에서 30Hz를 고려하여, 예를 들어, 30Hz 주파수의 두 배 이상인 60Hz, 200Hz, 250Hz, 330Hz 등이 될 수 있다. 주로 관찰되는 주파수의 범위는 신경지문을 사용하는 애플리케이션에 따라 다르게 주파수 범위를 정하여 관찰할 수 있고, 또한 정확도나 성능 향상등을 위해 필요한 다른 주파수 범위의 신호를 사용할 수도 있다. 상기 모션센서는 디지털 신호의 품질을 높이기 위해 노이즈를 제거하거나 신호 품질을 개선하는 동작을 더 수행할 수도 있다. 전자장치(300)가 휴대용 기기로 구현될 경우에는 전력소모의 문제가 중요해 질 수 있다. 이를 위해 전자장치(300)는 슬립모드로 동작할 수 있고, 전자장치(300)는 수집되어 디지털로 변환된 모션신호를 센서코어(326)를 통해 프로세싱 유닛(301)으로 전달받을 수 있다. 상기 센서코어(326)는 모션센서로부터 전달받은 디지털 신호의 품질을 높이기 위해 노이즈를 제거하거나 신호를 품질을 개선하는 동작을 더 수행할 수도 있다. 프로세싱 유닛은 상기 전자장치(300)의 전력소모의 효율성을 높이기 위해 종종 슬립모드에 진입하는 동작을 할 수 있다. 일반적으로 슬립모드에서는 최소한의 전력소모를 위해 상기 전자장치(300)내의 일부 구성요소들의 전력을 차단하거나, 저전력모드로 전환하거나, 동작 클락의 주파수를 낮추는 등의 다양한 방법들이 적용될 수 있다. 상기 프로세싱 유닛(301)이 슬립모드에 진입할 경우 전력 소모의 효율은 높아진다고 할 수 있으나, 사용자와 전자기기간의 상호 응답 측면에서는 지연이 발생 할 수 있기 때문에, 상기 센서코어(326)와 같은 보조프로세서가 프로세싱 유닛 내부 또는 전자장치에 구비될 수 있다. 상기 프로세싱 유닛(301)이 슬립모드에 진입하더라도, 상기 센서코어(326)는 상기 센서(370)들로부터 신호감지를 관찰하여, 상시 프로세싱 유닛(301)의 처리가 요구되는 상황으로 판단되는 경우, 버스 또는 인터럽트 신호를 통해 상기 프로세싱 유닛(301)의 슬립모드에서 깨어날 수 있도록 하는 동작을 수행할 수 있다. 신경지문(NFP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능은 보안이 요구되는 동작이라고 할 수 있다. 이 경우 상기 모션센서의 데이터 수집을 제어하는 동작은 예를 들어, 상기 프로세서 유닛(301) 내의 제1코어(304)는 보안모드(308)로 전환되어 동작할 수 있다. 상기 모션센서 또는 상기 센서코어(326)에 의해 버스 또는 인터럽트를 통해 전달되는 신호는 모니터모드(313)에 입력되어 상기 제1 코어(304)를 보안모드(308)로 전환하게 할 수 있다. 보안모드(308)로 진입한 코어는 기 설정된 보안모드에서만 접근 가능한 전자장치의 시스템 자원을 접근하거나 제어할 수 있다. The sensor can sense a signal 551 through contact or non-contact at close range from the human body, and may be comprised of part or all of the sensor 370 of FIG. 3 or at least one of the sensors constituting the sensor 370. It can be implemented by consisting of a combination of the above. It may also include sensors not described in sensor 370. The sensor converts the measured signal into an electrical signal, performs sampling and quantization of the signal at a preset sampling frequency using digital technology, and converts it into a digital signal that is easy to digitally process. The sampling frequency at this time is 3 Hz to 30 Hz, taking into account the frequency range in which the frequencies of neuromuscular micromotions, which are derived from nerves or are neuromuscular based on the unique neuromuscular anatomy of humans, are mainly observed, for example, a frequency of 30 Hz. It can be more than double 60Hz, 200Hz, 250Hz, 330Hz, etc. The mainly observed frequency range can be observed by determining a different frequency range depending on the application using the neural fingerprint, and signals of other frequency ranges can also be used to improve accuracy or performance. The motion sensor may further perform operations to remove noise or improve signal quality to increase the quality of the digital signal. When the electronic device 300 is implemented as a portable device, the issue of power consumption may become important. To this end, the electronic device 300 can operate in a sleep mode, and the electronic device 300 can receive the collected and digitally converted motion signal to the processing unit 301 through the sensor core 326. The sensor core 326 may further perform operations to remove noise or improve signal quality in order to increase the quality of the digital signal received from the motion sensor. The processing unit may frequently enter a sleep mode to increase the efficiency of power consumption of the electronic device 300. In general, in sleep mode, various methods can be applied, such as turning off the power of some components in the electronic device 300, switching to a low power mode, or lowering the frequency of the operating clock to minimize power consumption. When the processing unit 301 enters the sleep mode, the efficiency of power consumption can be said to increase, but since there may be a delay in the mutual response between the user and the electronic device, an auxiliary processor such as the sensor core 326 It may be provided inside the processing unit or in the electronic device. Even if the processing unit 301 enters the sleep mode, the sensor core 326 observes signal detection from the sensors 370 and determines that continuous processing by the processing unit 301 is required. An operation may be performed to wake up the processing unit 301 from the sleep mode through a bus or an interrupt signal. Neural fingerprint (NFP)-related identification, authentication, encryption, or functions utilizing these can be said to be operations that require security. In this case, the operation of controlling data collection of the motion sensor may be performed by, for example, switching the first core 304 in the processor unit 301 to the security mode 308. A signal transmitted through a bus or interrupt by the motion sensor or the sensor core 326 can be input to the monitor mode 313 to switch the first core 304 to the security mode 308. The core that has entered the security mode 308 can access or control system resources of the electronic device that are accessible only in the preset security mode.

전처리(552) 과정에서는, 센서로부터 센싱(551)되어 획득된 신호 또는 저장장치(557)에 저장된 데이터를 이후 단계에서 처리의 성능과 효율을 높이기 위해 사전 처리과정을 수행한다. 신호 획득 초기와 마지막 부분의 일정 구간의 신호를 제거하거나, 노이즈 성분을 억제하거나, 처리에 불필요하다고 판단되는 특징의 성분 등을 억제할 수 있다. 또한 불필요하게 중복되는 성분이나, 신호 간의 상관관계가 높은 경우의 성분은 불필요할 수 있으므로 신호 성분을 억제할 수 있다. 또한, 신호가 활용되는 애플리케이션에 기반하여, 디지털 필터 혹은 차원축소기법등을 통해 저차원의 부분공간으로 압축을 수행할 수 있다. 불필요한 신호들은 예를 들어, 잡음, 매크로 모션 신호, 중력으로 인한 왜곡 등을 포함할 수 있다. 센서로부터 획득된 신호에 있어서, 신호 수집 초기 또는 신호 수집 마지막 부분의 일정 기간(예를 들어, 약 1~2초까지)의 신호는 사용자의 매크로 모션의 신호가 매우 많이 포함될 수 있고 전자장치의 흔들림이 있을 수 있으므로 모두 버릴 수 있다. 전자장치가 충전 중인 경우에 수집된 신호에 있어서는 전원 잡음이 발생할 수 있으므로 전원잡음으로 인한 특성을 고려하여 신호의 필터링을 할 수 있다. 신경에서 유도되거나 신경에 기반을 둔 인간의 고유한 신경근 해부학에 기인하는 신경 근육 마이크로 모션의 주파수는 주로 3Hz에서 30Hz의 범위에 관찰된다. 따라서 수집된 모션신호로부터 3Hz에서 30Hz 또는 4Hz에서 30Hz범위의 신호를 신호처리알고리즘을 수행하여 추출할 수 있다. 제거해야 할 원치 않는 신호의 특성에 따라 신호처리알고리즘의 대역 필터의 차단주파수에 대한 변경을 가할 수 있다. 예를 들어, 일 실시 예에서는 4Hz에서 30Hz 범위의 신호를 추출할 수 있고, 다른 일 실시 예에서는 8Hz에서 30Hz 범위의 신호를 추출할 수 있다. 또 다른 일 실시 예에서는, 4Hz에서 12Hz 또는 8Hz에서 12Hz 범위의 신호를 추출할 수 있다. 일 실시 예에서는, 수집된 신호로부터 매크로 모션(사용자 신체의 큰 움직임, 팔을 움직이거나 걷는 동작, 달리기, 조깅, 손동작등의 큰 규모의 움직임)을 제거하기 위해 마이크로 모션의 작은 신호 진폭으로부터 분리하여 분류하는 신호 해석 방법을 사용할 수 있다. 전처리(552) 과정에서는 센서로부터 수집된 신호로부터 신경근육 마이크로 모션과 관련된 신호를 추출할 수 있다. 센서로 부터 획득된 신호로부터의 신경근육 마이크로 모션과 관련된 신호를 추출하는 동작은 프로세싱 유닛(301)의 중앙처리장치(302)에서 모두 처리하거나, GPU(320), 디지털신호처리(DSP) (321), 신경지문(NFP)가속기 등과 협력하여 신호를 추출할 수 있다. In the pre-processing 552 process, a pre-processing process is performed on the signal acquired by sensing 551 from the sensor or the data stored in the storage device 557 to increase the performance and efficiency of processing at a later stage. It is possible to remove signals in a certain section at the beginning and end of signal acquisition, suppress noise components, or suppress components of features that are deemed unnecessary for processing. Additionally, unnecessarily overlapping components or components in cases where the correlation between signals is high may be unnecessary, so signal components can be suppressed. Additionally, based on the application in which the signal is utilized, compression can be performed into a low-dimensional subspace through digital filters or dimensionality reduction techniques. Unwanted signals may include, for example, noise, macro motion signals, distortion due to gravity, etc. In the signal acquired from the sensor, the signal for a certain period of time (e.g., up to about 1 to 2 seconds) at the beginning of signal collection or at the end of signal collection may contain a large amount of the signal of the user's macro motion and the shaking of the electronic device. There may be some, so you can discard them all. Since power noise may occur in signals collected when an electronic device is charging, the signal can be filtered taking into account the characteristics caused by power noise. The frequency of neuromuscular micromotions, which are either nerve-derived or nerve-based and result from the unique neuromuscular anatomy of humans, are primarily observed in the range of 3 Hz to 30 Hz. Therefore, signals in the range of 3Hz to 30Hz or 4Hz to 30Hz can be extracted from the collected motion signals by performing a signal processing algorithm. Depending on the characteristics of the unwanted signal to be removed, the cutoff frequency of the band filter of the signal processing algorithm can be changed. For example, in one embodiment, signals in the range of 4Hz to 30Hz may be extracted, and in another embodiment, signals in the range of 8Hz to 30Hz may be extracted. In another embodiment, signals in the range of 4Hz to 12Hz or 8Hz to 12Hz may be extracted. In one embodiment, in order to remove macro motion (large scale movements of the user's body, arm movement, walking, running, jogging, hand movements, etc.) from the collected signals, the micro motion is separated from the small signal amplitude. Signal analysis methods can be used to classify. In the preprocessing 552 process, signals related to neuromuscular micro-motion can be extracted from signals collected from the sensor. The operation of extracting signals related to neuromuscular micro-motion from signals acquired from sensors is all processed by the central processing unit 302 of the processing unit 301, GPU 320, or digital signal processing (DSP) 321. ), the signal can be extracted in cooperation with the neural fingerprint (NFP) accelerator.

피쳐추출(553) 과정에서는 전처리(552) 과정을 통해 전달된 신호 성분에서 의미가 있는 고유한 특성들을 추출하는 과정을 수행한다. 이러한 특성들은 사용자의 특징을 명백하게 구분할 수 있는 수학적 속성을 갖는 측정 가능한 다차원의 벡터 형태의 자료구조 형태의 값을 갖을 수 있고 편의상 피쳐벡터로 불리우기도 한다. 푸앵카레의 위상 정보, 캡스트럼(CEPSTRUM) 분석, 혼돈분석(Chaos analytics)의 발산지수(Lyapunov exponent)를 활용한 분석, Reconstructed Phase Space(RPS)를 기반으로 한 분석 등과 각종의 신호처리 기술 등을 통한 성분들의 적어도 하나 이상의 선형조합으로도 피쳐벡터가 구성될 수 있다. 도 6에 도시된 바와 같이, 사용자 별 푸앵카레의 위상 도표를 보면, 사용자 별로(610, 620, 630, 640) 각각 고유하고 상이한 신호패턴을 갖고 있고 각 사용자 별 패턴의 질량 중심(612, 622, 632, 642)도 각 사용자 별 고유하고 상이한 것을 알 수 있다. 각 사용자 별 마이크로 모션 내의 은닉되어 있는 패턴을 추출하기 위해서는 신호의 스펙트럼 분석, 신호의 역스펙트럼 분석 등을 통해 검출될 수 있다. 예를 들어, 잘 알려진 캡스트럼(CEPSTRUM) 분석을 통해 반복되는 주기의 패턴과 주파수 간격을 감지할 수 있다. 도 7에서, 일 실시 예의 서로 다른 사용자의 캡스트럼(CEPSTRU 분석결과를 보면, 사용자1(710)에서 추출된 5개의 캡스트럼 진폭(CEPSTRUM Amplitude) 피크값(P1, P2, P3, P4, P5)와 사용자 2(720)에서 추출된 5개의 캡스트럼 진폭(CEPSTRUM 폭) 피크값(P1, P2, P3, P4, P5)이 서로 다르고, 사용자1(710)에서 추출된 5개의 큐프렌시(Quefrency) (F1, F2, F3, F4, F5)와 사용자 2(720)에서 추출된 5개의 큐프렌시(Quefrency) (F1, F2, F3, F4, F5)의 값과 간격이 다른 사용자 별 고유한 특성을 보여 주고 있는 것을 알 수 있어, 이러한 결과를 사용자 별로 고유한 패턴 정보인 피쳐벡터에 포함할 수 있다. 피쳐벡터는 다음 단계의 학습(553)을 위한 훈련데이터로 사용이 된다. 훈련데이터에만 학습알고리즘 성능이 우수하지 않고, 일반 데이터에도 일반화가 잘 되는지 여부를 위한 테스트 데이터가 필요하다. 저장장치(557)는 사전에 개발되어 검증된 테스트 데이터로 쓰일 테스트 피쳐벡터도 사전에 준비되어 있어서 다음 단계인 학습(553) 단계로 흐름의 제어가 넘어갈 수 있다. In the feature extraction (553) process, a process of extracting unique meaningful characteristics from signal components transmitted through the preprocessing (552) process is performed. These characteristics can have values in the form of a measurable multidimensional vector-type data structure with mathematical properties that can clearly distinguish user characteristics, and are also called feature vectors for convenience. Poincaré's phase information, CEPSTRUM analysis, analysis using the Lyapunov exponent of chaos analytics, analysis based on Reconstructed Phase Space (RPS), and various signal processing technologies. A feature vector can be composed of at least one linear combination of components. As shown in Figure 6, looking at the Poincaré phase diagram for each user, each user (610, 620, 630, 640) has a unique and different signal pattern, and the center of mass of the pattern for each user (612, 622, 632) , 642) can also be seen to be unique and different for each user. In order to extract hidden patterns within each user's micro-motion, they can be detected through signal spectrum analysis, signal inverse spectrum analysis, etc. For example, the well-known CEPSTRUM analysis can detect patterns of repeating cycles and frequency intervals. In FIG. 7, looking at the CEPSTRU analysis results of different users in one embodiment, five CEPSTRUM amplitude peak values (P1, P2, P3, P4, P5) extracted from user 1 (710) and the five cepstrum amplitude (CEPSTRUM width) peak values (P1, P2, P3, P4, P5) extracted from user 2 (720) are different from each other, and the five cepstrum amplitude (CEPSTRUM width) peak values (P1, P2, P3, P4, P5) extracted from user 1 (710) are different. ) (F1, F2, F3, F4, F5) and the five Quefrencies (F1, F2, F3, F4, F5) extracted from User 2 (720), each with different values and intervals unique to each user. It can be seen that it shows the characteristics, so these results can be included in the feature vector, which is unique pattern information for each user. The feature vector is used as training data for the next step of learning (553). Only for training data. The performance of the learning algorithm is not excellent, and test data is needed to determine whether it generalizes well to general data. The storage device 557 also has test feature vectors prepared in advance to be used as test data that have been developed and verified in advance, so the next Control of the flow can be transferred to the learning stage (553).

학습(554) 단계에서는 추출된 피쳐벡터와 미리 준비된 테스트 피쳐벡터를 입력으로 사용하여 피쳐벡터를 가장 잘 표현할 수 있는 모델을 선택하고 모델을 예측하는 단계이다. 이러한 학습 단계는 일반적으로 지도학습(Supervised learning)과 비지도학습(unsupervised learning), 강화학습(Reinforcement learning)등으로 크게 분류될 수 있고 더 구체적으로는 k-최근접 이웃(k-Neareast Neighbors), 선형회기(Linear Regression), 로지스틱 회기(Logistic Regression), 서포트 벡터 머신(Support Vector Machine, SVM), 결정트리(Decision Tree, 랜덤 포레스트(Random Forestes), 신경망(Neural Network), k-평균(k-Means), 계층 군집 분석(Hierachical Cluster Analysis, HCA), 기댓값 최대화(Extraction Maximization), 주성분 분석(Principle Component Analysis, PCA), 커널 PCA(Kernal PCA), 지역적 선형 임베딩(Locally-Linear Embedding, LLE), t-SNE(t-distributed Stochastic Neighbor Embedding), 어프라이어리(Apriori), 이클렛(Eclat) 등의 알고리즘이 존재한다. 학습(554) 단계에서는 상기 다양한 알고리즘을 포함하여 적어도 하나 이상의 학습 알고리즘의 조합을 통해 학습을 수행하여 모델 예측을 수행한다. 단일의 모델 예측 알고리즘을 사용할 수도 있으며, 여러가지 알고리즘들의 조합을 통해 더 우수한 성능을 갖게 할 수 있는 앙상블 학습 방법을 수행할 수도 있다. 각 알고리즘들의 결과에 미리 설정된 가중치를 적용한 최종 점수를 부과하여 최종 모델을 예측할 수 있다. 추출된 피쳐벡터들과 학습을 통해 선택된 모델들과 모델들의 파라미터들의 적어도 하나 이상의 조합을 저장장치에 저장하여 사용자 별로 구별이 가능한 신경지문으로 사용될 수 있다.In the learning 554 step, the extracted feature vector and a pre-prepared test feature vector are used as input to select a model that can best express the feature vector and predict the model. These learning steps can generally be broadly classified into supervised learning, unsupervised learning, reinforcement learning, etc., and more specifically, k-Nearest Neighbors, Linear Regression, Logistic Regression, Support Vector Machine (SVM), Decision Tree, Random Forestes, Neural Network, k-means Means), Hierarchical Cluster Analysis (HCA), Extraction Maximization, Principal Component Analysis (PCA), Kernel PCA, Locally-Linear Embedding (LLE), There are algorithms such as t-SNE (t-distributed Stochastic Neighbor Embedding), Apriori, Eclat, etc. In the learning 554 step, a combination of at least one learning algorithm including the various algorithms above Model prediction is performed by performing learning through. A single model prediction algorithm can be used, or an ensemble learning method that can achieve better performance through a combination of various algorithms can be performed. The results of each algorithm The final model can be predicted by imposing a final score with preset weights applied. The extracted feature vectors, the models selected through learning, and at least one combination of the models' parameters are stored in a storage device to distinguish neural data for each user. Can be used as a fingerprint.

평가(555) 단계에서는 훈련 피쳐벡터로부터 선택된 모델에 대한 평가를 수행할 수 있다. 이때 아직 사용되지 않은 피쳐벡터에 대해서는 어느 정도의 성능이 나오는지 일반화 오차를 추정하기 위해 테스트 피쳐벡터를 사용할 수 있다. 경우에 따라서는 모델 선택을 위한 학습 단계에서도 테스트 피쳐벡터의 전부 또는 일부를 사용할 수도 있다. 이 경우에는 테스트 피쳐벡터에 대한 복수의 집합 형태로 미리 저장장치에 저장되어 구비되어 있을 수 있다. 그 성능이 요구된 수준을 만족할 경우 학습단계에서 선택된 모델과 모델 파라미터를 향후 새로운 미래의 데이터를 예측하는데 사용할 수 있게 된다.In the evaluation step 555, the model selected from the training feature vector can be evaluated. At this time, the test feature vector can be used to estimate the generalization error to determine the level of performance for feature vectors that have not yet been used. In some cases, all or part of the test feature vector may be used in the learning stage for model selection. In this case, the test feature vectors may be stored in advance in a storage device in the form of a plurality of sets. If the performance meets the required level, the model and model parameters selected in the learning stage can be used to predict new future data.

결정(556) 단계에서는 학습단계에서 선택된 모델 또는 모델 파라미터를 사용하여 신규로 센싱된 데이터에 대해 모델을 예측하여 신규 데이터에 대한 결정을 내릴 수 있다. 도 5b의 단계는 경우에 따라 단계의 진행 순서가 다르게 수행될 수도 있다. 도 5b의 과정을 통해 학습이 완료되어 신경지문에 대한 선택된 모델들과 모델 파라미터 데이터가 준비된 경우에는, 센서등의 장치로부터 신호를 센싱하고(551), 전처리를 수행하고(552), 전처리 된 신호 데이터로부터 피쳐벡터를 추출하고(553), 미리 선택된 예측모델을 통해서 결정(575) 단계를 수행할 수 있게 된다. 전자장치(300)의 허가된 사용자에 대한 신경지문에 이미 학습되어 예측 모델들이 선택되고, 예측 모델들에 대한 파라미터가 결정되어 있는 경우에는, 결정(556)단계에서 학습된 모델인지 여부에 대한 일치 비율(Match Percentage)이 특정 수치 이상이 되어 허가된 사용자의 신경지문인지를 판단할 수 있게 된다. 만일 신규로 센싱된 신경지문과 연관된 데이터가 일치 비율(Match Percentage)이 특정 수치보다 낮은 경우는 허가된 사용자의 신경지문이 아닌지를 판단할 수 있게 된다. 결정(556) 단계의 결과를 디스플레이를 통해 보고하거나, 인증의 결과를 애플리케이션에 알려주어 원하지 않는 전자기기의 사용을 차단할 수 있다.In the decision 556 step, a decision can be made about the new data by predicting a model for the newly sensed data using the model or model parameters selected in the learning step. The steps in FIG. 5B may be performed in a different order depending on the case. When learning is completed through the process of Figure 5b and the selected models and model parameter data for the neural fingerprint are prepared, a signal is sensed from a device such as a sensor (551), preprocessing is performed (552), and the preprocessed signal is A feature vector can be extracted from the data (553), and a decision (575) step can be performed through a pre-selected prediction model. If prediction models have already been learned and selected from the neural fingerprint of an authorized user of the electronic device 300, and parameters for the prediction models are determined, there is a match as to whether it is a learned model in the decision step 556. When the match percentage exceeds a certain number, it becomes possible to determine whether it is the neural fingerprint of an authorized user. If the match percentage of the data associated with the newly sensed neural fingerprint is lower than a certain value, it can be determined whether it is the neural fingerprint of an authorized user. The result of the decision 556 step can be reported through the display, or the result of authentication can be notified to the application to block the use of unwanted electronic devices.

일 실시 예에서, 신경역학적 식별자 생성 방법의 동작(551, 552, 553, 554, 555, 556) 수행시, 각 동작의 전체 또는 일부에 있어서, 전자장치(300)는 고성능의 프로세서 코어의 클러스터(예를 들어, 제1 클러스터(303)가 고성능 코어들의 클러스터일 경우, 제1 클러스터(303)를 할당 )에 할당되어 수행될 수 있다. In one embodiment, when performing operations 551, 552, 553, 554, 555, and 556 of the neurodynamic identifier generation method, in all or part of each operation, the electronic device 300 uses a cluster of high-performance processor cores ( For example, if the first cluster 303 is a cluster of high-performance cores, the first cluster 303 may be assigned to and performed.

일 실시 예에서, 신경역학적 식별자 생성 방법의 동작(551, 552, 553, 554, 555, 556) 수행시, 각 동작의 전체 또는 일부에 있어서, 상기 프로세서 유닛(301) 내의 코어의 보안모드 (예를 들어, 상기 동작들이 제1코어(304)에 할당되는 경우 보안모드(308)로 전환)로 전환되어 동작할 수 있다. 보안모드(308)로 진입한 코어는 기 설정된 보안모드에서만 접근 가능한 전자장치의 시스템 자원을 접근하거나 제어하여, 상기 신경역학적 식별자 생성의 동작을 수행할 수 있다. In one embodiment, when performing operations 551, 552, 553, 554, 555, and 556 of the neurodynamic identifier generation method, in all or part of each operation, the security mode of the core within the processor unit 301 (e.g. For example, when the above operations are assigned to the first core 304, the operation may be switched to the security mode 308). The core that has entered the security mode 308 can access or control system resources of the electronic device that are accessible only in the preset security mode and perform the operation of generating the neurodynamic identifier.

일 실시 예에서, 신경역학적 식별자 생성 방법의 동작(551, 552, 553, 554, 555, 556) 수행시, 각 동작의 전체 또는 일부에 있어서, 상기 동작들의 수행이 시작될 때, 전자장치(300)가 슬립모드 상태에 있는 경우, 센서코어(326)에서 센서(370)들로 부터의 신호를 감지하고 버스 또는 인터럽트 신호를 통해 상기 프로세싱 유닛(301)의 슬립모드에서 깨어날 수 있도록 하여, 상기 신경역학적 식별자 생성의 동작을 수행할 수 있다. In one embodiment, when performing the operations 551, 552, 553, 554, 555, and 556 of the method for generating a neurodynamic identifier, in all or part of each operation, when performance of the operations begins, the electronic device 300 When in a sleep mode, the sensor core 326 detects signals from the sensors 370 and wakes up from the sleep mode of the processing unit 301 through a bus or an interrupt signal, so that the neurodynamic The operation of creating an identifier can be performed.

일 실시 예에서, 신경역학적 식별자 생성 방법의 동작(551, 552, 553, 554, 555, 556) 수행시, 각 동작의 전체 또는 일부에 있어서, 상기 센싱(551)은 카메라 또는 광학센서를 구동하여 안구의 움직임 신호를 수집하여 신경역학적 식별자(예를 들어, 신경안구 식별자)를 생성할 수 있다.In one embodiment, when performing operations 551, 552, 553, 554, 555, and 556 of the neurodynamic identifier generation method, in all or part of each operation, the sensing 551 operates a camera or optical sensor. Eye movement signals may be collected to generate a neuromechanical identifier (e.g., neuro-ocular identifier).

도 5c를 참조하면, 전자장치(300)의 센서 등의 장치로부터 사용자 신체의 부분에서 감지된 전기적인 신호를 미리 설정된 구간 동안에 미리 설정된 샘플링 주파수로 신호의 샘플링과 양자화를 수행하여 전자장치가 처리할 수 있는 디지털 신호로 생성하고(570), 신호의 처음 부분 또는 마지막 부분의 일정 구간의 데이터를 제거하고 잡음, 중력에 의한 신호성분, 의도적인 동작에 의한 신호성분들을 억제하고(571), 다양한 방법 또는 알고리즘의 적어도 하나 이상의 조합을 통해 사용자의 신경근육 기능과 연관되어 사용자를 구별할 수 있는 특징을 나타내는 수학적인 성질을 포함한 미리 설정된 측정가능한 피쳐벡터를 추출하고(572), 추출된 피쳐벡터로 부터 하나 이상의 학습 알고리즘의 조합을 선택하고 앙상블 방법으로 예측 모델들을 선택하고 선택된 에측 모델들의 파라미터를 추출하고(573), 미리 준비된 테스트 피쳐벡터를 통해 선택되고 선택된 예측모델들의 성능을 평가하여(574) 최종 모델을 결정한다. 추출된 피쳐벡터들과 학습을 통해 선택된 모델들과 모델들의 파라미터들의 적어도 하나 이상의 조합을 저장장치에 저장하여 사용자 별로 구별이 가능한 신경지문으로 사용될 수 있다. 도 5c의 단계는 경우에 따라 단계를 일부 단계를 생략하고 수행될 수 있다. 도 5c의 과정을 통해 학습이 완료되어 선택된 모델들과 모델 파라미터 데이터가 준비된 경우에는, 센서등의 장치로 부터 신호를 센싱하고(570), 전처리를 수행하고(571), 전처리된 신호 데이터로 부터 피쳐벡터를 추출하고(572), 미리 선택된 예측모델을 통해서 예측 또는 결정(575)을 수행할 수 있게 된다. 예측 또는 결정(575) 단계에서는 학습단계에서 선택된 모델 또는 모델 파라미터를 사용하여 신규로 센싱된 데이터에 대해 모델을 예측하여 신규 데이터에 대한 결정을 내릴 수 있다. 전자장치(300)의 허가된 사용자에 대한 신경지문에 이미 학습되어 예측 모델들이 선택되고, 예측 모델들에 대한 파라미터가 결정되어 있는 경우에는, 예측 또는 결정(575)단계에서 학습된 모델인지 여부에 대한 일치 비율(Match Percentage)이 특정 수치 이상이 되어 허가된 사용자의 신경지문인지를 판단할 수 있게 된다. 만일 신규로 센싱된 신경지문과 연관된 데이터가 일치 비율(Match Percentage)이 특정 수치보다 낮은 경우는 허가된 사용자의 신경지문이 아닌지를 판단할 수 있게 된다. 예측 또는 결정(575) 단계의 결과를 디스플레이를 통해 보고하거나, 인증의 결과를 애플리케이션에 알려주어 원하지 않는 전자기기의 사용을 차단할 수 있다.Referring to FIG. 5C, the electronic device processes the electrical signal detected from a part of the user's body from a device such as a sensor of the electronic device 300 by sampling and quantizing the signal at a preset sampling frequency during a preset period. Generate a digital signal that can be used (570), remove data from a certain section of the first or last part of the signal, suppress signal components due to noise, gravity, and intentional actions (571), and use various methods. Or, through at least one combination of algorithms, a preset measurable feature vector containing mathematical properties representing characteristics that can be associated with the user's neuromuscular function and distinguishing the user is extracted (572), and from the extracted feature vector Select a combination of one or more learning algorithms, select prediction models using the ensemble method, extract parameters of the selected prediction models (573), select through pre-prepared test feature vectors, and evaluate the performance of the selected prediction models (574) to obtain a final result. Decide on a model. At least one combination of the extracted feature vectors, the models selected through learning, and the parameters of the models can be stored in a storage device and used as a neural fingerprint that can be distinguished for each user. The step of FIG. 5C may be performed by omitting some steps in some cases. When learning is completed through the process of Figure 5c and the selected models and model parameter data are prepared, a signal is sensed from a device such as a sensor (570), preprocessing is performed (571), and A feature vector can be extracted (572), and a prediction or decision (575) can be made through a pre-selected prediction model. In the prediction or decision step 575, a decision can be made about the new data by predicting a model for newly sensed data using the model or model parameters selected in the learning step. If prediction models have already been selected from the neural fingerprint of an authorized user of the electronic device 300 and parameters for the prediction models have been determined, whether it is a learned model is determined in the prediction or decision step 575. When the match percentage exceeds a certain number, it becomes possible to determine whether it is the neural fingerprint of an authorized user. If the match percentage of the data associated with the newly sensed neural fingerprint is lower than a certain value, it can be determined whether it is the neural fingerprint of an authorized user. The results of the prediction or decision 575 step can be reported through the display, or the results of authentication can be notified to the application to block the use of unwanted electronic devices.

도 5a 내지 도 5c의 방법에 의해 생성된 신경지문은 전자기기의 사용자 인증, 사용자의 접근제어, 데이터의 암호화(Encryption) 또는 복호화(Decryption), 사용자의 건강에 대한 변화를 감지하는 등의 용도로 활용될 수 있다. 신경지문을 센싱하는 센서를 카메라등의 광학 센서를 통해 안구의 무의식적인 움직임을 센싱하여 활용할 경우에는, 안구의 움직임을 통해 신경지문을 추출하여 신경지문을 활용한 사용자 식별, 인증, 암호화 등에 활용할 수 있다. The neural fingerprint generated by the method of FIGS. 5A to 5C is used for user authentication of electronic devices, user access control, data encryption or decryption, and detecting changes in the user's health. It can be utilized. If a sensor that senses neural fingerprints is used to sense involuntary eye movements through an optical sensor such as a camera, neural fingerprints can be extracted through eye movements and used for user identification, authentication, and encryption using neural fingerprints. there is.

도 5d를 참조하면, 도 5a 내지 도 5c의 방법에 의해 신경지문 또는 신경역학지문(Neuro-mechanical fingerprint)을 생성(576)하고, 사용자로 부터 획득된 신호에 대응되는 신경역학적지문의 일치 비율을 생성(577)하고, 일치 비율에 대응하여 사용자의 전자장치에 대한 접근을 제어(578)하고, 일치 비율이 접근수준의 이상의 값을 갖는 경우, 사용자를 인증된 사용자로 식별하고, 인증된 사용자의 전자장치에 대한 접근을 허가(579)하고, 일치 비율이 미리 설정된 수준보다 작은 값을 갖는 경우 인증된 사용자에 대한 훈련과 학습을 다시 수행하여 예측 모델들의 선택과 선택된 모델들의 파라미터의 업데이트를 수행(580)할 수 있다. 일치 비율을 여러구간으로 나누어, 구간별로 훈련과 학습을 재수행해야 하는 단계를 구분할 수 있다. 일치 비율이 제1 특정구간에 속할 경우 사용자에게 표시하지 않고 전자기기 자발적으로 훈련과 학습을 재수행 하여 신경지문과 연관된 파라미터 등의 값을 갱신할 수 있다. 일치 비율이 제2 특정구간에 속할 경우에는 사용자에게 훈련과 학습의 재수행이 필요하다고 디스플레이나 입출력 장치를 통해 표시하거나 알려줄 수 있다. 이때 제1특정구간과 제2 특정구간의 설정은 다양한 조합에 의해 미리 설정될 수 있다. Referring to FIG. 5D, a neural fingerprint or a neuro-mechanical fingerprint is generated (576) by the method of FIGS. 5A to 5C, and the match rate of the neuro-mechanical fingerprint corresponding to the signal obtained from the user is calculated. Generate (577) and control access to the user's electronic device in response to the match rate (578). If the match rate has a value higher than the access level, identify the user as an authenticated user, and control the access to the user's electronic device in response to the match rate (578). Access to the electronic device is permitted (579), and if the match rate is lower than the preset level, training and learning are performed again for the authenticated user to select prediction models and update the parameters of the selected models ( 580) You can. By dividing the match rate into several sections, you can distinguish the stage at which training and learning must be re-performed for each section. If the match rate falls within the first specific section, the electronic device can voluntarily re-perform training and learning without displaying it to the user, thereby updating values such as parameters related to the neural fingerprint. If the match rate falls within the second specific section, the user may be displayed or notified through a display or input/output device that training and learning need to be re-performed. At this time, the settings of the first specific section and the second specific section can be set in advance through various combinations.

도 5e를 참조하면, 건물이나 기계 등의 구조물의 문(Door) 또는 건물이나 기계 등의 구조물의 일부분에 부착된 전자장치의 센서를 사용하여 사용자의 신체 일부로부터 도 5a 내지 도 5c의 방법에 의해 신경지문 또는 신경역학지문(Neuro-mechanical fingerprint)을 생성(581)하고, 문(Door) 또는 건물이나 기계 등의 구조물의 일부분에 부착된 전자장치의 센서로부터 사용자의 신체 일부로부터 동작신호를 획득(582)하고, 사용자로부터 획득된 신호를 신경역학적지문을 위한 신호와 사용자의 의도적인 제스쳐 동작의 구분을 수행(583)하고, 신경역학적지문의 일치 비율과 의도적인 제스쳐의 동작이 기설정 된 동작인지 판단(584)하고, 의도적인 제스쳐 동작이 기설정 된 동작이고, 신경역학적지문의 일치 비율이 접근수준의 이상의 값을 갖는 경우, 사용자를 인증된 사용자로 식별하고 제스쳐 동작에 따른 문열림 또는 잠금을 수행(580)할 수 있다. 이때 기설정 된 동작이 잠금 제스쳐 이면 잠금을 수행하고 기설정 된 동작이 열림 동작인 경우 열림을 수행할 수 있다. 신경역학적지문의 일치 비율이 접근수준보다 낮은 값을 갖는 경우는 접근을 허가하지 않을 수 있다.Referring to FIG. 5E, data is detected from a part of the user's body using the method of FIGS. 5A to 5C using a sensor of an electronic device attached to a door of a structure such as a building or a machine, or a part of a structure such as a building or a machine. Generates a neural fingerprint or neuro-mechanical fingerprint (581) and obtains an operation signal from a part of the user's body from a sensor of an electronic device attached to a door or part of a structure such as a building or machine ( 582), the signal obtained from the user is differentiated between the signal for the neurodynamic fingerprint and the user's intentional gesture movement (583), and the match rate of the neuromechanical fingerprint and whether the intentional gesture operation is a preset operation is performed. In judgment 584, if the intentional gesture action is a preset action and the match rate of the neurodynamic fingerprint has a value higher than the access level, the user is identified as an authenticated user and the door is opened or locked according to the gesture action. You can perform (580). At this time, if the preset action is a locking gesture, locking can be performed, and if the preset action is an opening action, opening can be performed. If the match rate of the neurodynamic fingerprint is lower than the access level, access may not be granted.

도 5f를 참조하면, 전자장치의 센서를 사용하여 사용자의 신체 일부로부터 도 5a 내지 도 5c의 방법에 의해 신경지문 또는 신경역학지문(Neuro-mechanical fingerprint)을 생성(586)하고, 신경역학적지문의 값의 전부 또는 일부분의 조합으로 암호화키를 생성(587)하고, 암호화키를 이용하여 전자장치의 데이터에 대한 암호화(Encryption)를 수행하여 저장장치에 저장(588)하고, 암호화된 데이터의 접근을 인증된 사용자의 신경역학적지문의 값을 이용하여 접근(589)을 수행할 수 있다. Referring to FIG. 5F, a neural fingerprint or neuro-mechanical fingerprint is generated 586 from a part of the user's body using the sensor of the electronic device by the method of FIGS. 5A to 5C, and the neuro-mechanical fingerprint is generated (586). Generate an encryption key using a combination of all or part of the value (587), perform encryption on the data of the electronic device using the encryption key and store it in a storage device (588), and provide access to the encrypted data. Access 589 can be performed using the value of the authenticated user's neurodynamic fingerprint.

도 8은 일 실시 예에 따른 신경안구 식별자 생성 방법을 예시적으로 보여주는 순서도 이다. 이해를 돕기 위해 도 8은 도 3에 도시된 전자장치를 가정하여 설명하기로 한다.Figure 8 is a flow chart illustrating a method for generating a neural eye identifier according to an embodiment. To facilitate understanding, FIG. 8 will be described assuming the electronic device shown in FIG. 3.

도 8에 도시된 바와 같이, 전자장치(300)는 광학센서(예를 들어, RGB센서(376), 홍채센서(383), 카메라(350) 등)로 사용자 안구의 움직임의 영상을 획득하고 안구의 움직임 신호를 추출하여 샘플링과 양자화를 거쳐 신호처리 가능한 디지털 신호로 변환을 수행할 수 있다. 상기 안구 움직임을 수집하기 위해 미리 정해진 시간 범위(예를 들어, 5, 10, 20, 30초 등)에 걸쳐, 미리 정해진 샘플링 주파수로 샘플링하여 신호를 수집할 수 있다. 샘플링 주파수는, 신경에서 유도되거나 신경에 기반을 둔 인간의 고유한 신경근 해부학에 기인하는 무의식적 안구 움직임의 주파수가 주로 관찰되는 주파수 범위인 3Hz에서 30Hz를 고려하여, 예를 들어, 30Hz 주파수의 두 배 이상인 60Hz, 200Hz, 250Hz, 330Hz 등이 될 수 있다. 주로 관찰되는 주파수의 범위는 애플리케이션에 따라 다르게 주파수 범위를 정하여 관찰할 수 있고, 또한 정확도나 성능향상등을 위해 필요한 다른 주파수 범위의 신호를 사용할 수도 있다. 상기 광학센서는 디지털 신호의 품질을 높이기 위해 노이즈를 제거하거나 신호 품질을 개선하는 동작을 더 수행할 수도 있다. 전자장치(300)가 휴대용 기기로 구현될 경우에는 전력소모의 문제가 중요해 질 수 있다. 이를 위해 전자장치는 슬립모드로 동작할 수 있고, 전자장치(300)는 수집되고 디지털로 변환된 안구 움직임 신호를 센서코어(326)를 통해 프로세싱 유닛(301)으로 전달받을 수 있다. 상기 센서코어(326)는 광학센서로부터 전달받은 디지털 신호의 품질을 높이기 위해 노이즈를 제거하거나 신호를 품질을 개선하는 동작을 더 수행할 수도 있다. 프로세싱 유닛은 상기 전자장치(300)의 전력소모의 효율성을 높이기 위해 종종 슬립모드에 진입하는 동작을 할 수 있다. 일반적으로 슬립모드에서는 최소한의 전력소모를 위해 상기 전자장치(300)내의 일부 구성요소들의 전력을 차단하거나, 저전력모드로의 전환하거나, 동작 클락의 주파수를 낮추는 등의 다양한 방법들이 적용될 수 있다. 상기 프로세싱 유닛(301)이 슬립모드에 진입할 경우 전력 소모의 효율은 높아진다고 할 수 있으나, 사용자와 전자기기간의 상호 응답 측면에서는 지연이 발생 할 수 있기 때문에, 상기 센서코어(326)와 같은 보조프로세서가 프로세싱 유닛 내부 또는 전자장치에 구비될 수 있다. 상기 프로세싱 유닛(301)이 슬립모드에 진입하더라도, 상기 센서코어(326)는 상기 센서(370)들로부터 신호감지를 관찰하여, 상시 프로세싱 유닛(301)의 처리가 요구되는 상황으로 판단되는 경우, 버스 또는 인터럽트 신호를 통해 상기 프로세싱 유닛(301)의 슬립모드에서 깨어날 수 있도록 하는 동작을 수행할 수 있다. 신경지문(NFP) 또는 신경안구지문(NEP)과 연관된 식별, 인증, 암호화 또는 이들을 활용한 기능은 보안이 요구되는 동작이라고 할 수 있다. 이 경우 상기 광학센서의 데이터 수집을 제어하는 동작은 예를 들어, 상기 프로세서 유닛(301) 내의 제1코어(304)는 보안모드(308)로 전환되어 동작할 수 있다. 상기 모션센서 또는 상기 센서코어(326)에 의해 버스 또는 인터럽트를 통해 전달되는 신호는 모니터모드(313)에 입력되어 상기 제1 코어(304)를 보안모드(308)로 전환하게 할 수 있다. 보안모드(308)로 진입한 코어는 기 설정된 보안모드에서만 접근 가능한 전자장치의 시스템 자원을 접근하거나 제어할 수 있다. As shown in FIG. 8, the electronic device 300 acquires an image of the user's eye movement using an optical sensor (e.g., RGB sensor 376, iris sensor 383, camera 350, etc.) and The motion signal can be extracted and converted into a digital signal that can be processed through sampling and quantization. In order to collect the eye movements, signals may be collected by sampling at a predetermined sampling frequency over a predetermined time range (eg, 5, 10, 20, 30 seconds, etc.). The sampling frequency is, for example, twice the 30 Hz frequency, taking into account 3 Hz to 30 Hz, the frequency range in which the frequency of involuntary eye movements, either neurally derived or neurally based and due to the unique neuromuscular anatomy of humans, is predominantly observed. It can be 60Hz, 200Hz, 250Hz, 330Hz, etc. The mainly observed frequency range can be observed by determining a different frequency range depending on the application, and signals of other frequency ranges can also be used for accuracy or performance improvement. The optical sensor may further perform operations to remove noise or improve signal quality to increase the quality of the digital signal. When the electronic device 300 is implemented as a portable device, the issue of power consumption may become important. To this end, the electronic device can operate in a sleep mode, and the electronic device 300 can receive the collected and digitally converted eye movement signal to the processing unit 301 through the sensor core 326. The sensor core 326 may further perform operations to remove noise or improve signal quality in order to increase the quality of the digital signal received from the optical sensor. The processing unit may frequently enter a sleep mode to increase the efficiency of power consumption of the electronic device 300. In general, in sleep mode, various methods can be applied, such as cutting off the power of some components in the electronic device 300, switching to a low power mode, or lowering the frequency of the operating clock to minimize power consumption. When the processing unit 301 enters the sleep mode, the efficiency of power consumption can be said to increase, but since there may be a delay in the mutual response between the user and the electronic device, an auxiliary processor such as the sensor core 326 It may be provided inside the processing unit or in the electronic device. Even if the processing unit 301 enters the sleep mode, the sensor core 326 observes signal detection from the sensors 370 and determines that continuous processing by the processing unit 301 is required. An operation may be performed to wake up the processing unit 301 from the sleep mode through a bus or an interrupt signal. Identification, authentication, encryption, or functions utilizing neural fingerprints (NFPs) or neural eye fingerprints (NEPs) can be considered secure operations. In this case, the operation of controlling data collection of the optical sensor may be performed by, for example, switching the first core 304 in the processor unit 301 to the security mode 308. A signal transmitted through a bus or interrupt by the motion sensor or the sensor core 326 can be input to the monitor mode 313 to switch the first core 304 to the security mode 308. The core that has entered the security mode 308 can access or control system resources of the electronic device that are accessible only in the preset security mode.

전자장치(300)는, 상기 광학센서로부터 수집된 안구 움직임 신호로부터 무의식적 안구 움직임 데이터를 추출할 수 있다(820). 안구 움직임 신호로부터의 신호를 추출하는 동작은 프로세싱 유닛(301)의 중앙처리장치(302)에서 모두 처리하거나, GPU(320), 디지털신호처리(DSP) (321), 신경지문(NFP)가속기 등과 협력하여 신호를 추출할 수 있다. 수집된 안구 움직임 신호로부터 무의식적 안구 움직임 데이터 추출을 위해 불필요한 신호를 제거하는 필터링을 수행할 수 있다(822). 불필요한 신호들은 예를 들어, 잡음, 의식적인 안구 움직임 신호, 매크로 모션 신호, 중력으로 인한 왜곡 등을 포함할 수 있다. 광학센서로부터 획득된 신호에 있어서, 신호 수집 초기 또는 신호 수집 마지막 부분의 일정 기간(예를 들어, 약 1~2초까지)신호는 사용자의 의식적인 안구 움직임 신호 또는 매크로 모션의 신호가 매우 많이 포함될 수 있고 전자장치의 흔들림이 있을 수 있으므로 모두 버릴 수 있다. 전자장치가 충전 중인 경우에 수집된 신호에 있어서는 전원 잡음이 발생할 수 있으므로 전원잡음으로 인한 특성을 고려하여 신호의 필터링을 할 수 있다. 신경에서 유도되거나 신경에 기반을 둔 인간의 고유한 신경근 해부학에 기인하는 무의식적 안구 움직임의 주파수는 주로 3Hz 에서 30Hz의 범위에 관찰된다. 따라서 수집된 안구 움직임 신호로부터 3Hz에서 30Hz 또는 4Hz에서 30Hz범위의 신호를 신호처리알고리즘을 수행하여 추출할 수 있다. 제거해야 할 원치 않는 신호의 특성에 따라 신호처리알고리즘의 대역 필터의 차단주파수에 대한 변경을 가할 수 있다. 예를 들어, 일 실시 예에서는 4Hz에서 30Hz 범위의 신호를 추출할 수 있고, 다른 일 실시 예에서는 8Hz에서 30Hz 범위의 신호를 추출할 수 있다. 또 다른 일 실시 예에서는, 4Hz에서 12Hz 또는 8Hz에서 12Hz 범위의 신호를 추출할 수 있다. The electronic device 300 may extract involuntary eye movement data from the eye movement signal collected from the optical sensor (820). The operation of extracting signals from eye movement signals is all processed by the central processing unit 302 of the processing unit 301, or by GPU 320, digital signal processing (DSP) 321, neural fingerprint (NFP) accelerator, etc. Signals can be extracted collaboratively. To extract unconscious eye movement data from the collected eye movement signals, filtering to remove unnecessary signals can be performed (822). Unwanted signals may include, for example, noise, conscious eye movement signals, macro motion signals, distortion due to gravity, etc. In signals obtained from optical sensors, the signal for a certain period of time (e.g., up to about 1 to 2 seconds) at the beginning or end of signal collection may contain a large amount of signals of the user's conscious eye movement or macro motion. It can be discarded altogether as there may be shaking of the electronic device. Since power noise may occur in signals collected when an electronic device is charging, the signal can be filtered taking into account the characteristics caused by power noise. The frequency of involuntary eye movements, which are either neurally derived or neurally based and due to the unique neuromuscular anatomy of humans, is mainly observed in the range of 3 Hz to 30 Hz. Therefore, signals in the range of 3Hz to 30Hz or 4Hz to 30Hz can be extracted from the collected eye movement signals by performing a signal processing algorithm. Depending on the characteristics of the unwanted signal to be removed, the cutoff frequency of the band filter of the signal processing algorithm can be changed. For example, in one embodiment, signals in the range of 4Hz to 30Hz may be extracted, and in another embodiment, signals in the range of 8Hz to 30Hz may be extracted. In another embodiment, signals in the range of 4Hz to 12Hz or 8Hz to 12Hz may be extracted.

일 실시 예에서는, 수집된 안구 움직임 신호로부터 의식적인 안구 움직임 신호를 제거하기 위해 무의식적 안구 움직임의 작은 신호 진폭으로부터 분리하여 분류하는 신호 해석 방법을 사용할 수 있다. 예를 들어, "Time Series Classification Using Gaussian Mixture Models of Reconstructed Phase Spaces"(by Richard J. Povinelli et al., IEEE Transactions on Knowledge and Data Engineering, Vol. 16 , No. 6, June 2004 )의 해석 방법, 또는 자발적인 움직임으로 인한 신호의 분리를 위해 "Estimation of Physiological Tremor from Accelerometers for Real-Time Applications" (by Kalyana C. Veluvolu et al., Sensors 2011, vol. 11, pages 3020-3036, attached hereto in the appendix)의 해석 방법을 사용하여 의식적인 안구 움직임 신호를 제거하고 무의식적인 안구 움직임 신호를 추출 할 수 있다.In one embodiment, a signal analysis method that separates and classifies small signal amplitudes of unconscious eye movements may be used to remove conscious eye movement signals from the collected eye movement signals. For example, the interpretation method in "Time Series Classification Using Gaussian Mixture Models of Reconstructed Phase Spaces" (by Richard J. Povinelli et al., IEEE Transactions on Knowledge and Data Engineering, Vol. 16, No. 6, June 2004); Or, for separation of signals due to voluntary movement, see "Estimation of Physiological Tremor from Accelerometers for Real-Time Applications" (by Kalyana C. Veluvolu et al., Sensors 2011, vol. 11, pages 3020-3036, attached hereto in the appendix )'s interpretation method can be used to remove conscious eye movement signals and extract unconscious eye movement signals.

전자장치는, 추출된 무의식적 안구 움직임 데이터에서 고유한 특성을 추출할 수 있다(830). The electronic device may extract unique characteristics from the extracted involuntary eye movement data (830).

전자장치는, 상기 무의식적 안구 움직임 데이터에서 신경안구 식별자를 생성할 수 있다(840). 일 실시 예에서, 상기 추출된 무의식적 안구 움직임 데이터에서 고유한 특성을 추출(830)하는 동작에의 결과값들의 집합을 다차원의 값을 갖는 자료구조 형태로 신경안구 식별자로 생성하여 비휘발성 메모리에 저장한다. The electronic device may generate a neural eye identifier from the involuntary eye movement data (840). In one embodiment, a set of result values from the operation of extracting (830) unique characteristics from the extracted involuntary eye movement data is generated as a neural eye identifier in the form of a data structure with multidimensional values and stored in non-volatile memory. do.

일 실시 예에서, 신경안구 식별자 생성 방법(810, 820, 830, 840)의 동작 수행시 상기 동작들은, 전자장치(300)는 고성능의 프로세서 코어의 클러스터(예를 들어, 제1 클러스터(303)가 고성능 코어들의 클러스터일 경우, 제1 클러스터(303)를 할당 )에 할당되어 수행될 수 있다. In one embodiment, when performing the operations of the neural eye identifier generation method 810, 820, 830, and 840, the electronic device 300 uses a cluster of high-performance processor cores (e.g., the first cluster 303). If is a cluster of high-performance cores, the first cluster 303 may be assigned to ) and performed.

일 실시 예에서, 신경안구 식별자 생성 방법(810, 820, 830, 840)의 동작 수행시 상기 동작들은, 상기 프로세서 유닛(301) 내의 코어의 보안모드 (예를 들어, 상기 동작들이 제1코어(304)에 할당되는 경우 보안모드(308)로 전환)로 전환되어 동작할 수 있다. 보안모드(308)로 진입한 코어는 기 설정된 보안모드에서만 접근 가능한 전자장치의 시스템 자원을 접근하거나 제어하여, 상기 신경안구 식별자 생성 방법(810, 820, 830, 840)의 동작을 수행할 수 있다.In one embodiment, when performing the operations of the neural eye identifier generation method (810, 820, 830, 840), the operations are performed in a security mode of a core in the processor unit 301 (e.g., the operations are performed in the first core ( When assigned to 304), it can be switched to the security mode (308) and operated. The core that has entered the security mode 308 can access or control system resources of the electronic device that are accessible only in the preset security mode and perform the operations of the neural eye identifier generation method (810, 820, 830, 840). .

일 실시 예에서, 신경안구 식별자 생성 방법(810, 820, 830, 840)의 동작 수행 시 상기 동작 수행 시 상기 동작들의 수행이 시작될 때, 전자장치(300)가 슬립모드 상태에 있는 경우, 센서코어(326)에서 센서(370)들로 부터의 신호를 감지하고 버스 또는 인터럽트 신호를 통해 상기 프로세싱 유닛(301)의 슬립모드에서 깨어날 수 있도록 하여, 상기 신경안구 식별자 생성 방법(810, 820, 830, 840)의 동작을 수행할 수 있다. In one embodiment, when performing the operation of the neural eye identifier generation method (810, 820, 830, 840), when performing the operation, when the electronic device 300 is in a sleep mode, the sensor core At 326, a signal from the sensors 370 is detected and the processing unit 301 is woken up from the sleep mode through a bus or an interrupt signal, and the neural eye identifier generation method (810, 820, 830, 840) operations can be performed.

일 실시 예에서, 신경안구 식별자 생성방법은 도 5a 내지 도 5c의 방법 중에서 센싱 부분을 광학센서 또는 카메라를 이용하여 신경지문 또는 신경역학지문(Neuro-mechanical fingerprint)을 생성하는 방법과 동일하게 생성할 수 있다.In one embodiment, the method of generating a neural eye identifier is generated in the same way as the method of generating a neural fingerprint or neuro-mechanical fingerprint using the sensing portion of the method of FIGS. 5A to 5C using an optical sensor or camera. You can.

도 9는 사람의 두개골 내에 위치한 안구의 단면도를 도시한다.Figure 9 shows a cross-sectional view of the eyeball located within the human skull.

도 9을 참조하면, 두개골(902) 내의 사람의 안구(Eyeball)(900)에 대한 단면도가 도시되어 있다. 사람의 안구(900)는 복수의 근육에 의해 두개골(902) 내에서 이동할 수 있는 불완전한 구형(imperfect glob)이다. 두개골(902) 내의 사람의 안구(900)의 위치 변화의 작용 또는 프로세스는 안구 움직임(eye movement) 또는 안구 모션(eye motion)으로 지칭된다.9, a cross-sectional view of a human eyeball 900 within a skull 902 is shown. The human eye 900 is an imperfect glob that can be moved within the skull 902 by a plurality of muscles. The act or process of changing the position of a person's eye 900 within the skull 902 is referred to as eye movement or eye motion.

안구(900)는 뇌에 의한 처리를 위해 컬러 이미지를 획득하기 위해 상호 작용하는 망막(retina)(910), 동공(pupil)(912), 홍채(iris)(914), 중심와(fovea)(916) 및 수정체(lens)(918)를 포함한다. 안구의 각막(cornea)(922)은 동공(912), 홍채(914) 및 수정체(918)를 통해 망막(910)으로 상이 맺히도록 한다. 동공(912)은 망막(910)에 의해 수용된 광량을 조절하기 위해 그 직경을 변경한다. 안구의 망막(910)은 두 가지 종류의 광 수용체인, 간상(rod) 세포 및 원추(cone) 세포를 포함한다. 망막에는 약 1억 2천만 개의 원추(cone)세포와 6 ~ 7백만 개의 간상(rod)세포가 있다. 간상세포는 망막 중심부 또는 황반 (망막 중심)이라고 불리는 망막의 간상세포가 없는 영역에 집중되어 있어 최대의 시력과 색감을 제공한다. 원추세포는 망막(910)의 다른 곳보다 작고 밀집되어 있다. 신경(926)은 안구에 결합 된 신경 섬유의 케이블로서, 망막의 간상세포 및 원추세포로부터 전기 신호를 뇌로 전달한다. 시신경이 망막을 통해 안구를 떠나는 지점에는 간상세포와 원추세포가 없다. 따라서, 시신경은 망막에서 "사각 지대"를 형성한다.The eye 900 has a retina 910, a pupil 912, an iris 914, and a fovea 916 that interact to acquire a color image for processing by the brain. ) and a lens 918. The cornea 922 of the eye directs images to the retina 910 through the pupil 912, iris 914, and lens 918. Pupil 912 changes its diameter to adjust the amount of light received by retina 910. The eye's retina 910 includes two types of photoreceptors: rod cells and cone cells. There are about 120 million cone cells and 6 to 7 million rod cells in the retina. Rod cells are concentrated in the rod-free area of the retina, called the central retina or macula (center of the retina), providing maximum vision and color. Cone cells are smaller and more densely packed than elsewhere in the retina 910. Nerve 926 is a cable of nerve fibers coupled to the eye and transmits electrical signals from the rods and cones of the retina to the brain. There are no rods or cones at the point where the optic nerve leaves the eye through the retina. Thus, the optic nerve forms a “blind spot” in the retina.

도 10a 내지 도 10c는 안구의 다양한 안구 운동을 유발하는, 안구에 연결된 다양한 근육을 나타내는 다이어그램이다.10A-10C are diagrams showing various muscles connected to the eye that cause various eye movements.

도 10a에서, 좌측 직근(1001L)과 우측 직근(1001R)은 화살표(1011)에 의해 도시된 바와 같이 안구(900)를 좌우로 수평으로 움직이게 한다. In Figure 10A, the left rectus muscle 1001L and the right rectus muscle 1001R move the eye 900 horizontally from side to side as shown by arrows 1011.

도 10b에서, 상부 선상의 상직근(1001T)과 하부의 하직근(1001B)은 화살표(212)에 의해 도시된 바와 같이 안구(9100)를 위쪽과 아래쪽으로 움직이게 한다. In FIG. 10B, the superior rectus 1001T on the upper line and the inferior rectus 1001B on the lower line move eye 9100 upward and downward as shown by arrow 212.

도 10c에서, 상부 경사 근육(1002S) 및 하부 경사 근육(1002I)은 굴곡된 화살표(1013)에 의해 도시된 바와 같이 안구(900)를 굴리며 움직이게 한다. 이들 근육은 인간의 의지에 따라 자발적인 안구 움직임을 일으킬 수 있으며, 인간이 알지도 못하는 무의식적인 안구 움직임이 발생할 수 있다. 안구(900) 주위의 다른 근육들은 또한 자발적이고 무의식적인 안구 움직임에 기여할 수 있다. 근육은 뇌를 포함한 신체의 신경계의 통제하에 있다.In Figure 10C, the superior oblique muscle 1002S and the inferior oblique muscle 1002I cause eye 900 to roll and move as shown by curved arrow 1013. These muscles can cause voluntary eye movements according to the human will, and involuntary eye movements that the human is not even aware of can occur. Other muscles around the eye 900 can also contribute to voluntary and involuntary eye movements. Muscles are under the control of the body's nervous system, including the brain.

무의식적인 안구 움직임은 자발적인 안구 움직임과 달리 안과 의사에 의해 관찰될 때 종종 병리학적인 것으로 간주된다. 그러나, 눈이 어떤 대상에 고정되어 있는 경우 정상적, 생리학적, 미세한 무의식적 움직임이 일어나는 것이 종종 더 자주 관찰된다. 이러한 아주 작은 무의식적인 안구 움직임은 안구 내 망막 표면의 초점 지점에서 간상세포와 원추세포의 피로를 방지하기 위한 신체의 정상적인 생리 기능이다. 무의식적인 안구 움직임은 일반적으로 교란으로 간주되거나 연구 목적으로 분석되어 왔다.Involuntary eye movements, unlike voluntary eye movements, are often considered pathological when observed by an ophthalmologist. However, it is more often observed that normal, physiological, subtle involuntary movements occur when the eyes are fixed on an object. These tiny, involuntary eye movements are a normal physiological function of the body to prevent fatigue of rods and cones at focal points on the retinal surface within the eye. Involuntary eye movements have generally been considered disturbances or analyzed for research purposes.

인간 안구(900)의 망막(910)은 다양한 목적으로 스캔 될 수 있다. 눈의 망막 해부학적 이차원 지도를 획득하는 망막 스캐너가 알려져 있다. 망막 스캐너는 무의식적인 안구 움직임을 측정하기 위한 것이 아니다.The retina 910 of the human eye 900 may be scanned for a variety of purposes. Retinal scanners are known that obtain two-dimensional maps of the retinal anatomy of the eye. Retinal scanners are not intended to measure involuntary eye movements.

각종 안구 추적 시스템은 다양한 목적을 위해 의식적인 안구 움직임을 검출하기 위해 사용되어 왔다. 예를 들어, 게임용 가상 현실 헤드셋은 비디오 게임의 게임 플레이에서 의식적인 안구 움직임을 추적할 수 있다. 또 다른 예로 군대 시스템의 헤드업 디스플레이(Heads-up Display)는 군사 목적을 위해 의식적인 안구 움직임을 추적할 수 있다. 그러나 안구 추적 시스템은 중심와의 시야 및 피사체의 초점 주시(focal attention)를 평가하기 위한 것으로, 무의식적인 안구 움직임이 방해가 되거나 연구 목적으로만 사용된 경우이어서, 무의식적인 안구 움직임을 측정하지 않았다.Various eye tracking systems have been used to detect conscious eye movements for various purposes. For example, a gaming virtual reality headset can track conscious eye movements during gameplay of a video game. As another example, heads-up displays in military systems can track conscious eye movements for military purposes. However, the eye tracking system was designed to evaluate the foveal field of view and the subject's focal attention, and involuntary eye movements were either disruptive or were used only for research purposes, so involuntary eye movements were not measured.

빛(광자)에 대한 망막 민감도는 안구 모션(안구 움직임), 안구 근육 및 특정한 뇌의 배선(wiring)에 의한 전체 시스템의 통합에 의한 유전 인자에 의해 정의된다. 안구(900)의 아주 작은 무의식적 안구 움직임은 인체의 정상적인 생리 기능이다. 임의의 신경학적으로 조정 과정은 개인에게 고유한 특징을 생성할 것이고, 따라서 한 개인을 다른 개인으로부터 식별하는데 잠재적으로 유용할 수 있다. 따라서, 안구(900)의 무의식적 안구 움직임은 개인에게 고유하고, 사용자 식별과 사용자 인증에 사용될 수 있다.Retinal sensitivity to light (photons) is defined by genetic factors, including eye movements, eye muscles, and the integration of the entire system by specific brain wiring. Very small involuntary eye movements of the eyeball 900 are a normal physiological function of the human body. Any neurologically coordinated process will create characteristics that are unique to an individual and thus potentially useful in identifying one individual from another. Accordingly, involuntary eye movements of eye 900 are unique to an individual and can be used for user identification and user authentication.

도 11은 안구의 무의식적인 안구 움직임을 획득하기 위한 고정 프로세서의 다이어그램이다. 이해를 돕기 위해 도 9에 도시된 안구의 단면도와 함께 설명하기로 한다.Figure 11 is a diagram of a fixation processor for acquiring involuntary eye movements of the eye. To facilitate understanding, the description will be made along with a cross-sectional view of the eye shown in FIG. 9.

도 11을 참조하면, 안구(900)의 작거나 미세한 무의식적인 안구 움직임은 목적물의 이미지에 눈을 고정하는 과정에 의해 획득될 수 있다. 목적물 이미지는 안구(900)의 망막(910)상의 망막 이미지(1102)가 될 수 있다. 목적물 이미지는 디스플레이 장치(1110)상의 목적물(1104)에 의해 생성될 수 있다. 사용자는 디스플레이 디바이스(1110)상의 타겟(1104)을 일정 시간 (예를 들어, 10 초 내지 15 초) 동안 응시하거나 고정한다. 무의식적인 움직임은 육안으로 직접 관찰하여 볼 때 너무 작고 포착하기 힘들다. 비디오 카메라(1112)는 고정하는 과정 동안 안구(900)의 움직임의 일련의 이미지를 획득한다.Referring to FIG. 11, small or subtle involuntary eye movements of the eyeball 900 can be obtained through the process of fixing the eyes on an image of an object. The object image may be a retinal image 1102 on the retina 910 of the eye 900. The object image may be generated by the object 1104 on the display device 1110. The user gazes or fixates on target 1104 on display device 1110 for a period of time (eg, 10 to 15 seconds). Involuntary movements are too small and difficult to capture when observed directly with the naked eye. Video camera 1112 acquires a series of images of the movement of eye 900 during the fixation process.

고정 과정(fixation process) 동안 의식적인 눈 움직임을 획득하는 것을 방지하기 위해, 카메라(1112)를 안구(900)에 연결시킬 수 있다. 그러나, 이것은 인증 목적으로는 비실용적이다. 의식적인 안구 움직임은 촬영된 안구 움직임 데이터로부터 실질적으로 걸러내어 무의식적인 안구 움직임 데이터를 생성할 수 있다.To prevent acquiring conscious eye movements during the fixation process, a camera 1112 can be connected to the eye 900. However, this is impractical for authentication purposes. Conscious eye movements can be substantially filtered out from the captured eye movement data to generate unconscious eye movement data.

또한, 미세한 무의식적인 안구 움직임 (본 개시에서는 무의식적인 안구의 마이크로 모션이라고도 함)이 일반적으로는 고정 과정(fixation process) 중에 획득되지만, 눈이 보기 위해 움직이는 때에도 큰 규모의 의식적인 안구 움직임을 통해서도, 관심부분의 초점지점에 관계없이, 획득될 수 있다. 비디오 카메라는 작은 규모 또는 미세한 무의식적인 안구 움직임을 포함하는 큰 규모의 안구 움직임의 이미지 시퀀스를 획득하는데 사용할 수 있다. 미세한 무의식적 안구 움직임은, 무의식적인 움직임과 의식적인 움직임을 모두 포함하여 획득된 이미지 시퀀스에서 추출될 수 있다.Additionally, although fine involuntary eye movements (also referred to in this disclosure as involuntary micro-motions of the eye) are generally acquired during the fixation process, large-scale conscious eye movements are also achieved when the eyes move to see. Regardless of the focal point of the part of interest, it can be obtained. Video cameras can be used to acquire image sequences of small-scale or large-scale eye movements, including subtle involuntary eye movements. Subtle involuntary eye movements can be extracted from acquired image sequences, including both involuntary and conscious movements.

도 12a 및 도 12b는 일정시간 동안 타겟을 고정하는 사용자에 응답하여 원추세포대의 영역에 걸친 무의식적 안구 움직임 그래프를 갖는 망막의 확대된 부분의 다이어그램이다. 도 15는 사용자의 무의식적 안구 움직임 신호를 직접 생성하기 위한 안전도기록(electrooculography) 시스템의 블록도이다. 도 16b는 사용자의 안구 움직임 이미지를 획득하는데 사용될 수 있는 도 16a에 도시된 비디오 카메라를 구비한 전자장치의 블록도이다. 도 16b의 전자장치(1600)는 도 2의 전자장치(200) 또는 도 3의 전자장치(300)일 수 있으며 도 2의 전자장치(200)와 도 3의 전자장치(300)의 구성 부분의 일부의 조합 또는 전부를 포함하거나 본 개시(present disclosure)에 도시 되지 않은 구성요소를 포함할 수 있다. 이해를 돕기 위해 전자장치(1600)는 도 12a 및 도 12b와 이를 이용한 도 15의 시스템을 함께 설명하기로 한다.Figures 12A and 12B are diagrams of an enlarged portion of the retina with graphs of involuntary eye movements over the area of the cone cells in response to the user fixating a target for a period of time. Figure 15 is a block diagram of an electrooculography system for directly generating a user's involuntary eye movement signal. FIG. 16B is a block diagram of an electronic device equipped with the video camera shown in FIG. 16A that can be used to obtain an image of a user's eye movements. The electronic device 1600 of FIG. 16B may be the electronic device 200 of FIG. 2 or the electronic device 300 of FIG. 3, and may be a component of the electronic device 200 of FIG. 2 and the electronic device 300 of FIG. 3. It may include a combination of some or all of them, or may include components not shown in the present disclosure. To facilitate understanding, the electronic device 1600 will be described together with FIGS. 12A and 12B and the system of FIG. 15 using the same.

도 12a에서, 원추형 영역(1200)은 망막(910)의 중앙 중심와의 확대된 부분으로 도시되어 있다. 도 12a는 또한 사용자가 약 10초간의 목적물에 고정하는 것에 대응하는 원추형 영역의 무의식적인 안구 움직임의 그래프를 도시한다. 도 12a는 망막(910)의 약 5 미크론 직경 내의 복수의 원추를 나타낸다.In Figure 12A, cone-shaped area 1200 is shown as an enlarged portion of the central fovea of retina 910. Figure 12a also shows a graph of involuntary eye movements in the cone-shaped area corresponding to a user's fixation on an object for approximately 10 seconds. FIG. 12A shows a plurality of cones within about 5 microns in diameter of retina 910.

무의식적인 안구의 움직임은 사용자가 정지된 물체에 고정하는 동작 여부에 관계없이 존재한다. 다양한 종류의 안구 움직임을 포함한 미세한 무의식적 안구 움직임은 사용자를 식별하는데 사용할 수 있다.Involuntary eye movements exist regardless of whether the user fixates on a stationary object. Subtle involuntary eye movements, including various types of eye movements, can be used to identify users.

도 12a에서는, 단속성운동(saccade, 미세한 단속성 운동이라고도 함) (1201A-1201F), 곡선 형상의 드리프트(1203A-1202E) 및 지그재그 형상의 떨림(1203A-1203E)을 포함한, 작은 무의식적 안구 움직임의 다양한 종류를 도시한다. 12A shows small involuntary eye movements, including saccades (also known as fine saccades) (1201A-1201F), curved drifts (1203A-1202E), and zigzag tremors (1203A-1203E). Shows various types.

도 12b는 단속성운동(1201F), 곡선 형태의 드리프트(1202E) 및 지그재그 형상의 떨림(1203E)의 확대도를 도시한다. 상기 지그재그 형상의 떨림(1203E)은 상기 곡선 형상의 드리프트(1202E)에 겹쳐졌다. Figure 12B shows an enlarged view of a saccade 1201F, a curved drift 1202E, and a zigzag shaped tremor 1203E. The zigzag-shaped tremor 1203E was superimposed on the curve-shaped drift 1202E.

드리프트 안구 움직임(1202A-1202E)은 눈이 특히 어떤 것에도 초점을 맞추지 않을 때 어떤 정확한 목표가 없는 랜덤한 자취와 같다. 이러한 안구 움직임은 20~40 Hz 정도의 주파수를 갖는 방향을 바꾸며 작은 진폭의 특징을 갖는다. 떨리는 안구의 움직임은 매우 작은 진폭 (예를 들어, 0.2 내지 2-3 도의 각도) 및 높은 주파수 (예를 들어, 40Hz 내지 150Hz, 90Hz가 전형적인 값)에 의해 특징 지워진다. 상기 단속성운동의 안구 움직임은 15-20도 각도 사이의 진폭, 빠른 움직임(200-500도/초) 및 비교적 낮은 주파수(예를 들어, 0.1Hz 내지 1-5Hz)를 특징으로 한다Drift eye movements (1202A-1202E) are like random traces without any precise target when the eyes are not focused on anything in particular. These eye movements change direction with a frequency of about 20 to 40 Hz and are characterized by small amplitude. Trembling eye movements are characterized by very small amplitudes (for example, an angle of 0.2 to 2-3 degrees) and high frequencies (for example, from 40 Hz to 150 Hz, 90 Hz is a typical value). The saccadic eye movements are characterized by amplitudes between angles of 15-20 degrees, rapid movements (200-500 degrees per second), and relatively low frequencies (e.g., 0.1 Hz to 1-5 Hz).

미세한 무의식적 안구 움직임은 안구 내 망막 표면상의 초점에서 간상 및 원추의 피로를 방지하기 위한 신체의 정상적인 생리적 기능이다. 눈의 망막에 있는 대상이나 물체의 이미지는 무의식적인 안구 움직임으로 인해 끊임없이 움직인다. 드리프트 안구 움직임(1202A-1202E)은 이미지가 중심부의 중심으로부터 바깥쪽으로 천천히 드리프트 되도록 한다. 드리프트 안구 움직임은 단속성 안구 움직임의 시작 시 종료된다. 단속성운동의 안구 움직임(1201A-1201F)은 이미지를 중심와를 향해 다시 가져온다. 드리프트 안구 움직임(1202A-1202E)에 중첩된 떨림 안구 움직임(1203A-1203E)은, 응시하거나 물체를 고정할 때, 단일 원추의 피로를 방지하기 위해 복수의 원추를 가로 지르는 진폭을 갖는다. Subtle involuntary eye movements are a normal physiological function of the body to prevent fatigue of the rods and cones in focus on the retinal surface within the eye. The image of an object or object on the retina of the eye constantly moves due to involuntary eye movements. Drift eye movements (1202A-1202E) cause the image to slowly drift outward from the central center. Drift eye movements end at the beginning of saccadic eye movements. Saccadic eye movements (1201A-1201F) bring the image back toward the fovea. Tremor eye movements 1203A-1203E superimposed on drift eye movements 1202A-1202E have amplitudes that span multiple cones to prevent fatigue of a single cone when gazing or fixating an object.

이러한 작은 무의식적인 안구 움직임은 망막 피로를 방지하는 것으로 생각된다. 망막 피로는 망막 세포에 의해 광자를 획득하는 데 필수적인 몇 가지 중요한 생화학 물질의 고갈이다. 작은 무의식적인 안구 움직임은 육안으로는 감지할 수 없다. 그러나, 도 11 및 도 16b와 같이 눈의 움직임을 기록하기에 충분한 속도의 망막 스캐너 및 비디오 카메라로 무의식적인 안구의 움직임을 획득하고 감지/주시/인식할 수 있다.These small, involuntary eye movements are thought to prevent retinal fatigue. Retinal fatigue is the depletion of several important biochemical substances essential for photon acquisition by retinal cells. Small involuntary eye movements cannot be detected by the human eye. However, as shown in FIGS. 11 and 16B, involuntary eye movements can be acquired and detected/watched/recognized using a retina scanner and a video camera with a speed sufficient to record eye movements.

무의식적인 안구 모션 또는 움직임은 적외선 발광 다이오드 (LED), 동공 스캐닝 방법, 심지어 굴절계를 사용하는 것과 같은 다양한 수단 또는 방법에 의해, 적절한 시간 또는 주파수 및 무의식적인 안구 모션 또는 움직임을 획득하기 위한 변위해상도를 수정함으로써, 감지 될 수 있다.Involuntary eye motions or movements can be measured by various means or methods, such as using infrared light-emitting diodes (LEDs), pupil scanning methods, or even refractometers, with appropriate time or frequency and displacement resolution to acquire involuntary eye motions or movements. By modifying it, it can be detected.

무의식적인 안구 움직임은 무의식적인 안구 움직임을 나타내는 안전도기록 (electroculogram : EOG)을 생성하기에 충분한 감도를 갖는 안전도기록을 사용하여 선택적으로 감지될 수 있다. 원시 EOG 신호는 안구 각막과 망막 사이의 쌍극자에서 발생한다.Involuntary eye movements can be selectively detected using an electroculogram (EOG) with sufficient sensitivity to generate an electroculogram (EOG) representing involuntary eye movements. The raw EOG signal originates from the dipole between the eye's cornea and retina.

전기 신호는 눈이 안구 움직임을 발생하게 할 때 안구 운동 근육에서 발생한다. 안구 운동 근육에서 발생된 이러한 전기 신호는 눈의 근전도 (EMG)와 유사한 눈 움직임을 나타내는 것으로 감지 될 수 있다. Electrical signals occur in the oculomotor muscles when the eyes cause eye movements. These electrical signals generated from the oculomotor muscles can be detected as representing eye movements, similar to the electromyography (EMG) of the eye.

도 15를 참조하면, 안전도기록은 망막 (접지)과 눈의 각막 사이의 전위차 (전압)를 측정함으로써 전기 신호를 감지하는 것을 포함한다. 일반적으로 전극은 눈 주위에 배치되어 하나 이상의 접지 전극에 대해 위, 아래, 왼쪽 및 오른쪽 전압을 측정한다. 수평 눈 움직임을 나타내는 신호를 생성하기 위해 좌우 전압 측정 간의 차이를 만들 수 있다. 상향 및 하향 전압 측정의 차이는 수직 눈 움직임을 나타내는 신호를 생성하기 위해 만들어질 수 있다. 신호 처리가 이루어지기 전에 신호를 증폭하고 필터링 할 수 있다. 아날로그 신호는 디지털 신호로 변환되어 디지털 신호 처리가 사용자의 무의식적인 안구 운동에서 패턴에 대한 EOG 신호를 분석 할 수 있다.Referring to Figure 15, safety recording involves detecting electrical signals by measuring the potential difference (voltage) between the retina (ground) and the cornea of the eye. Typically, electrodes are placed around the eye to measure voltage up, down, left, and right relative to one or more ground electrodes. The difference between left and right voltage measurements can be made to generate a signal representing horizontal eye movements. The difference between upward and downward voltage measurements can be made to generate a signal indicative of vertical eye movement. Signals can be amplified and filtered before signal processing occurs. The analog signal is converted to a digital signal so that digital signal processing can analyze the EOG signal for patterns in the user's involuntary eye movements.

무의식적인 안구 움직임 패턴은 상기 개인의 특정한 신경-근육-망막 해부체와 관련되기 때문에 개인의 생리학적 생체 인식을 수행하는 방법으로서 이용된다. 안구의 무의식적인 안구 움직임의 미세 동작을 획득하면 개인에게 고유한 패턴을 추출 할 수 있으며 개인의 신원을 인증하는 데 사용할 수 있다. 추출된 패턴을 분석하여 각 개인의 고유한 식별자를 제공하는 특징을 추출할 수 있다. 일 실시 예에서, 동공은 고속의 고해상도 카메라를 사용하여 식별되고 추적될 수 있다. 이미지는 이미지 처리 소프트웨어를 실행하는 프로세서로 처리되어 사용자를 고유하게 식별하는 무의식적인 안구 움직임에서 피쳐(feature)를 추출할 수 있다.Involuntary eye movement patterns are used as a way to perform physiological biometrics of an individual because they are associated with that individual's specific neuro-muscular-retinal anatomy. Obtaining microscopic movements of the eye's involuntary eye movements can extract patterns that are unique to an individual and can be used to authenticate an individual's identity. By analyzing the extracted patterns, features that provide a unique identifier for each individual can be extracted. In one embodiment, pupils can be identified and tracked using high-speed, high-resolution cameras. The images can be processed by a processor running image processing software to extract features from involuntary eye movements that uniquely identify the user.

무의식적인 안구 움직임은 독자적인 인증 방법 또는 안구의 망막 해부학 이미지를 획득하는 망막 스캐너와 함께 사용될 수 있다. 무의식적인 안구 움직임은 안구의 홍채 해부학 이미지를 획득하는 홍채 스캐너와 함께 인증 방법으로 사용할 수도 있다. 무의식적인 안구 움직임은 안구 해부학 이미지를 촬영하는 망막 및/또는 홍채 스캐너와 함께 인증 방법으로 사용할 수도 있다.Involuntary eye movements can be used as a standalone authentication method or in conjunction with a retinal scanner to acquire images of the eye's retinal anatomy. Involuntary eye movements can also be used as an authentication method in conjunction with an iris scanner that acquires images of the eye's iris anatomy. Involuntary eye movements can also be used as an authentication method in conjunction with retina and/or iris scanners that take images of the eye anatomy.

무의식적인 안구 움직임 및 망막 및/또는 홍채를 사용하여 이중 또는 삼중 인증을 제공할 수 있다. 망막 및 홍채 스캐닝 기술에는 신경학적 요소가 포함되어 있지 않다. 망막 스캐닝 기술은 이차원 (2D) 스캔 이미지를 기반으로 인증을 수행하기 위해 망막의 해부학적 구조를 단순히 매핑한다. 무의식적인 안구 움직임은 현재의 안구 스캐닝 기술에 생체학적 생체 파라미터를 추가할 수 있다. Involuntary eye movements and the retina and/or iris can be used to provide two- or three-factor authentication. Retinal and iris scanning techniques do not involve a neurological component. Retinal scanning technology simply maps the anatomy of the retina to perform authentication based on two-dimensional (2D) scanned images. Involuntary eye movements can add biological parameters to current eye scanning techniques.

버크(Birk) 등이 출원 한 미국 특허공보 제 2014/0331315 호는, 인증 프로토콜에서 사용하기 위해 안구 움직임으로부터 생체 측정 파라미터를 도출하는 방법을 개시한다. 초록에 기술 된 "사용자에게 알려진 암호 또는 다른 정보", "디스플레이에 내장 된 정보 조각을 시각적으로 파악 "와 같은 눈의 초점을 활발하게 움직이는 행동 레퍼토리에 기초한 눈 움직임과 같은 종래의 인증 방법을 결합하고 있다. 버크(Birk)의 행동 레퍼토리는 안구 운동의 경로이거나, 사용자가 알고 있는 비밀번호나 코드와 일치하는 일련의 숫자/문자를 순차적으로 위치시키는 사용자의 안구 운동의 특징 일 수 있다고 한다.US Patent Publication No. 2014/0331315, filed by Birk et al., discloses a method for deriving biometric parameters from eye movements for use in an authentication protocol. Combining conventional authentication methods, such as eye movements based on a repertoire of actions that actively focus the eyes, such as "a password or other information known to the user" and "visually grasping a piece of information embedded in the display," as described in the abstract, there is. Birk's behavioral repertoire may be a path of eye movements or a characteristic of the user's eye movements that sequentially places a series of numbers/letters that match a password or code the user knows.

버크(Birk)는 의식적 및 무의식적인 두 가지 유형의 안구 움직임이 있음을 인지하고 있다. 그러나, 버크(Birk)는 유일하고 능동적이고 의식적인 안구 움직임을 인식 기술의 입력으로 사용한다고 기술하고 있다. 버크(Birk)는 필수적으로 정의된 그리드를 사용하는데, 사용자 눈은 특정 순서를 갖고 돌아 다니면서 인식되어야 한다. 버크(Birk)는 사용자의 특정한 동작(습관)의 레퍼토리를 이용하고 있다.Birk recognizes that there are two types of eye movements: conscious and unconscious. However, Birk describes using unique, active, conscious eye movements as input to recognition techniques. Birk essentially uses a defined grid, which the user's eyes must move around in a specific order to be recognized. Birk taps into the user's repertoire of specific behaviors (habits).

버크(Birk)와는 대조적으로, 본 개시의 실시 예에서는 뇌간 및 대뇌 피질에 의해 제어되는 보통의 생리학적 눈의 무의식적인 움직임만을 이용한다. 실시 예에 의해 획득된 무의식적인 안구 움직임은 사용자가 하는 일에 기초하지 않고 사용자가 무엇인지에 기초하는 것이다.In contrast to Birk, embodiments of the present disclosure utilize only normal physiological involuntary eye movements controlled by the brainstem and cerebral cortex. The involuntary eye movements achieved by embodiments are not based on what the user does, but rather on what the user is.

Mikio Kamada에게 2004 년 8 월 31 일에 허여된 미국 특허 제 6,785,406 호 (이하, 카마다(Kamada))는, 이미지나 다른 신체 부위가 아닌, 안구의 움직임 및 홍채 수축을 이용하여 사용자로부터 데이터가 수집되도록 하는 홍채 인증 장치를 기술하고 있다. 카마다(Kamada)에서 사용되는 안구 움직임은 머리가 움직이는 동안 대상을 볼 때 눈-머리 좌표를 보장하는 눈의 전정 제어와 관련된 동작을 이용한다. 카마다(Kamada)는 또한 옵토키네틱 안진증(Optokinetic Nystagmus) 안구 동작을 사용하는데, 이는 대상이 시야에서 벗어나 망막의 중심을 다시 중심으로 가져 오는 큰 큐모의 단속성운동이다.U.S. Patent No. 6,785,406, issued August 31, 2004 to Mikio Kamada (hereinafter referred to as Kamada), collects data from users using eye movements and iris contraction, rather than images or other body parts. It describes an iris authentication device that makes it possible. The eye movements used in Kamada utilize movements associated with the vestibular control of the eyes to ensure eye-head coordinates when looking at an object while the head is moving. Kamada also uses the optokinetic nystagmus eye movement, which is a large saccadic movement in which an object moves out of the field of view and brings the center of the retina back to the center.

카마다(Kamada)에 기재된 안구 동작은 망막 피로 및 사용자 특유의 미동 동작과 관련이 없다. 카마다(Kamada)에 기술된 안구 동작은 반사적인 동작이다. 카마다(Kamada)는 사용자를 식별하는 데 안구 움직임을 사용하지 않고 획득된 데이터가 실제 사용자로부터 획득된 것인지 여부를 확인한다. 카마다(Kamada)에서 설명한 안구 동작은 사용자 별로 다르므로 반사적이기 때문에 사용자를 식별하는 데 사용할 수 없으므로 무릎 반사와 같으며 무릎 반사와 같은 모든 사람에게 서 나타나는 것이다. 카마다(Kamada)에서는 서로 다른 정도의 수준이 인정될 수 있지만, 신원을 제공하기 위해 개인을 구별할 만큼 충분하지는 않다.The eye movements described by Kamada are not related to retinal fatigue and user-specific fine movements. The eye movements described by Kamada are reflex movements. Kamada does not use eye movements to identify users and verifies whether the data obtained is from real users. The eye movements described by Kamada are different for each user and are reflexive, so they cannot be used to identify the user, so they are like the knee reflex and appear in everyone like the knee reflex. In Kamada, different degrees of detachment may be recognized, but not sufficiently to distinguish individuals to provide identity.

2014 년 12 월 12 일에 Brandon Lousi Migdal에게 허여된 미국 특허 제 8,899,748 호는 개인의 전정 조절 (평형)과 관련된 안구 안진 운동을 검출하는 방법을 기술한다. 그러나, 전정 안진 안구 움직임은 수직 또는 수평 안구 동작일 수 있으며 일반적인 위치 반사로 시작된다. 더욱이, 전정 안진 안구 움직임은 본 개시의 실시 예에 의해 개개인을 구별하는데 유용한 무의식적 안구 운동의 정밀한 세분성이 결여되어 있다.U.S. Patent No. 8,899,748, issued to Brandon Lousi Migdal on December 12, 2014, describes a method for detecting ocular nystagmus movements associated with vestibular control (equilibrium) in an individual. However, vestibular nystagmus eye movements can be vertical or horizontal eye movements and are initiated by a common position reflex. Moreover, vestibular nystagmus eye movements lack the fine granularity of involuntary eye movements useful for differentiating individuals according to embodiments of the present disclosure.

2015 년 11 월 24 일에 James R. Bergen에게 허여 된 미국 특허 제 9,195,890 호 (이하, 베르겐(Bergen))는 홍채 화상 비교에 기초한 생체 인식 방법을 개시한다. 베르겐(Bergen)의 비교는 눈의 홍채에서 추출된 독특한 해부학적 특징을 기반으로 한다. 홍채의 특징은 베르겐(Bergen)이 다양하고 세부적으로 묘사하고 있다. 조리개를 저장된 홍채 패턴에 정렬하고 일치시키려면, 베르겐(Bergen)은 다른 이미지 왜곡을 보정할 뿐 아니라 틸트/위치 및 모션을 보정해야 한다. 베르겐(Bergen)에서 언급한 안구 운동은 큰 규모이며 베르겐(Bergen)의 홍채 인식 시스템에서 품질 데이터를 수집하는 데 방해가 되기 때문에 바람직하지 않다 이것은 본 개시의 실시 예와는 상반된다고 할 수 있다.U.S. Patent No. 9,195,890 (Bergen), issued November 24, 2015 to James R. Bergen, discloses a biometric identification method based on iris image comparison. Bergen's comparison is based on unique anatomical features extracted from the iris of the eye. The characteristics of the iris are described in various detail by Bergen. To align and match the aperture to the stored iris pattern, Bergen must compensate for tilt/position and motion, as well as correcting other image distortions. The eye movements mentioned in Bergen are large and undesirable because they interfere with the collection of quality data in Bergen's iris recognition system. This can be said to be contrary to the embodiment of the present disclosure.

Schonberg 등에게 허여 된 미국 특허 제 7,336,806 호는(이하 숀버그(Schonberg)), 고리 둘레가 열쇠인 사용자의 홍채 기반 인식을 개시한다. 숀 버그 (Schonberg)는 안구 동작을 포함한 다른 특징들을 제거되어야 할 잡음으로 간주하고 있다.US Patent No. 7,336,806, issued to Schonberg et al. (hereinafter Schonberg), discloses iris-based recognition of a user where ring circumference is the key. Schonberg considers other features, including eye movements, as noise that should be removed.

Kiderman 등에게 허여 된 미국 특허 제7,665,845 호는(이하 키더만(Kiderman)), 경량 고글을 기반으로 한 비디오 오큘로 그래픽 (VOG) 시스템을 설명한다. 키더만(Kiderman)의 고글은 측정 장비의 무게로 인해 임상 측정을 방해하지 않도록 고안되었다. 그러나, 키더만(Kiderman)은 본 개시의 실시 예에서 관심의 대상인 무의식적인 안구 움직임을 사용하는 것을 개시하지 않고 있다. 더욱이, 본 개시의 실시 예와 관련하여 공간 해상도에 대한 명백한 요구도 없다.U.S. Patent No. 7,665,845, issued to Kiderman et al. (Kiderman), describes a video occulo graphics (VOG) system based on lightweight goggles. Kiderman's goggles were designed so that the weight of the measuring device would not interfere with clinical measurements. However, Kiderman does not disclose the use of involuntary eye movements, which is the subject of interest in embodiments of the present disclosure. Moreover, there is no explicit need for spatial resolution with respect to embodiments of the present disclosure.

안전도기록(Electrooculography)은 무의식적인 안구의 움직임 신호를 직접 생성할 수 있다. 획득된 비디오 이미지를 사용하여 안구 움직임을 추적할 때, 비디오 이미지에서 안구의 가시적인 특징이 사용된다. 패턴 인식은 비디오 이미지의 각각의 이미지에서 가시적 인 특징을 검출하는데 사용될 수 있다.Electrooculography can directly generate involuntary eye movement signals. When tracking eye movements using acquired video images, visible features of the eye in the video image are used. Pattern recognition can be used to detect visible features in each image of a video image.

도 14a 내지 도 14c는 무의식적 안구 움직임을 검출하는데 사용될 수 있는 안구의 비디오 이미지에서 볼 수 있는 특징에 대한 다이어그램이다.14A-14C are diagrams of features visible in video images of the eye that can be used to detect involuntary eye movements.

도 14a를 참조하면, 안구의 이미지의 가시적인 특징은 홍채(914), 동공(912) 또는 중심와(916)일 수 있다. 에지 검출은 안구(900)의 비디오 이미지로부터 무의식적인 안구 움직임을 추적하는데 사용될 수 있다 사용자가 목적물을 고정하는 동안 획득될 수 있다. 엣지 검출은 홍채(1414)의 둘레(614), 동공(912)의 둘레(1412), 또는 중심부와(916)의 위치로부터 수행될 수 있다.Referring to Figure 14A, the visible features of the image of the eye may be the iris 914, the pupil 912, or the fovea 916. Edge detection can be used to track involuntary eye movements from video images of the eye 900 that can be obtained while the user fixates an object. Edge detection may be performed from the location of the perimeter 614 of the iris 1414, the perimeter 1412 of the pupil 912, or the fovea 916.

도 14b에 도시된 바와 같이, 홍채(914)의 둘레(1414)는 잘 정의되고 일관성이 있기 때문에 무의식적인 안구 움직임을 추적하는데 유용하다. 동공(912)의 둘레(1412)는, 선택적으로, 무의식적인 안구 움직임을 추적하는데 사용될 수 있다. 그러나, 동공의 크기와 위치는 광도에 따라 변한다.As shown in Figure 14B, the perimeter 1414 of the iris 914 is well defined and consistent, making it useful for tracking involuntary eye movements. The perimeter 1412 of the pupil 912 may, optionally, be used to track involuntary eye movements. However, the size and position of the pupil change depending on the light intensity.

도 14c에 도시된 바와 같이, 중심와(916)는 선택적으로 무의식적 안구 움직임을 추적하는데 사용될 수 있다. 그러나, 중심와(916)를 추적하는 것은 전형적으로 안구(900)의 망막(910)을 조명하기 위해 수정체(918)를 통해 빛나는 광원을 필요로 한다.As shown in Figure 14C, fovea 916 can optionally be used to track involuntary eye movements. However, tracking the fovea 916 typically requires a light source shining through the lens 918 to illuminate the retina 910 of the eye 900.

도 13a 내지 도 13c는 사용자 식별 및 인증을 위해 사용될 수 있는 무의식적 안구 움직임의 다양한 조합을 나타내는 다이어그램이다. 도 15는 사용자의 무의식적 안구 움직임 신호를 직접 생성하기 위한 안전도기록(electrooculography) 시스템의 블록도이다. 이해를 돕기 위해 도 13a 내지 도 13c와 이를 이용한 도 15의 시스템을 함께 설명하기로 한다. 13A-13C are diagrams illustrating various combinations of involuntary eye movements that may be used for user identification and authentication. Figure 15 is a block diagram of an electrooculography system for directly generating a user's involuntary eye movement signal. To facilitate understanding, FIGS. 13A to 13C and the system of FIG. 15 using them will be described together.

도 13a에서, 단속성운동의 궤적, 드리프트 및 떨림을 포함한 3 가지 유형의 무의식적인 안구 움직임이 각 사용자의 고유 식별자를 결정하는 데 사용될 수 있다. 일 실시 예에서, 각 사용자를 고유하게 식별하기 위해 3개의 모든 무의식적인 안구 움직임으로부터 특징이 추출된다. 이 시스템은 각 사용자에 대해 동일한 기능을 계속해서 반복해서 추출한다.In Figure 13A, three types of involuntary eye movements, including saccadic trajectories, drifts, and tremors, can be used to determine each user's unique identifier. In one embodiment, features are extracted from all three involuntary eye movements to uniquely identify each user. The system extracts the same features over and over again for each user.

도 13b에서, 단속성운동의 궤적 및 드리프트와 같은 2개의 무의식적인 안구 움직임이 각 사용자의 고유 식별자를 결정하는데 사용될 수 있다. 다른 실시 예에서는, 특징들은 각 사용자를 고유하게 식별하도록 단속성운동의 궤적들 및 드리프트로 부터 추출된다. 이 시스템은 각 사용자에 대해 동일한 기능을 계속해서 반복해서 추출한다.In Figure 13B, two involuntary eye movements, such as saccade trajectory and drift, can be used to determine each user's unique identifier. In another embodiment, features are extracted from saccade trajectories and drifts to uniquely identify each user. The system extracts the same features over and over again for each user.

도 13c에서, 떨림 성분과 같은 하나의 무의식적인 안구 움직임은 각 사용자의 고유 식별자를 결정하는데 사용될 수 있다. 또 다른 실시 예에서는, 각 사용자를 고유하게 식별하기 위해 안구 움직임의 떨림 성분으로부터 피쳐가 추출된다. 이 시스템은 각 사용자에 대해 동일한 기능을 계속해서 반복해서 추출한다.In Figure 13C, a single involuntary eye movement, such as a tremor component, can be used to determine each user's unique identifier. In another embodiment, features are extracted from the tremor component of eye movements to uniquely identify each user. The system extracts the same features over and over again for each user.

도 15를 참조하면, 사용자(1599)의 무의식적인 안구의 움직임 신호를 직접 생성하는 안전도기록 시스템(1500)의 예시를 도시하고 있다. 복수의 전극 (1501A-1501E)은 안구 움직임 중의 각 안구의 전압을 획득하도록 사용자의 머리/얼굴 주변의 눈 부위에 위치한다. 전극은 사용자의 머리/얼굴의 표면에 전극을 연결하기 위해 후드 또는 얼굴 수신 장치의 일부일 수 있다. 전극(1501A-1501B)은 안구(900)의 상하 움직임을 획득한다. 전극(1501C-1501D)은 안구(900)의 좌우 움직임을 획득한다. 하나 이상의 전극(1501E)은 각 전극(1501 -1501D)에 접지 또는 제로 전압 레퍼런스를 제공한다.Referring to FIG. 15 , an example of a safety recording system 1500 that directly generates an unconscious eye movement signal of a user 1599 is shown. A plurality of electrodes 1501A-1501E are located in the eye area around the user's head/face to obtain the voltage of each eye during eye movement. The electrodes may be part of a hood or facial receiving device to connect the electrodes to the surface of the user's head/face. Electrodes 1501A-1501B acquire the up and down movement of the eyeball 900. Electrodes 1501C-1501D acquire left and right movements of the eye 900. One or more electrodes 1501E provide a ground or zero voltage reference to each electrode 1501 - 1501D.

전극(1501A-1501D)은, 고정 과정(fixation process) 동안 발생되는 무의식적인 안구 움직임을, 하나 이상의 접지 전극(1501E)에 대해 상하, 좌우, 및 전압을 측정한다.Electrodes 1501A-1501D measure involuntary eye movements occurring during the fixation process up and down, left and right, and voltage relative to one or more ground electrodes 1501E.

필터링이 있거나 없는 전극(1501A-1501B)의 상측 및 하측 전압은 차동 증폭기(1504A)의 음 및 양 입력에 연결되어 상측 및 하측 전압 간의 차이를 증폭 및 계산한다. 이는 수직 안구 움직임 신호를 형성한다. 수직 안구 움직임 신호는 노이즈 및 다른 원치 않는 신호를 제거하여 수직 안구 움직임 신호를 추가적으로 강화하기 위해 아날로그 필터(1506A)에 연결될 수 있다. 필터링된 수직 안구 움직임 신호, 즉 아날로그 신호는 아날로그 형태를 디지털 형태의 신호로 변환하기 위해 A/D 컨버터 (1508A)에 연결될 수 있다. 디지털 필터링된 수직 안구 움직임 신호는 디지털 신호 프로세서(1510)의 제 1 병렬 디지털 입력에 연결될 수 있다. 다른 실시 예에서, 신호 프로세서는 혼합된 아날로그 및 디지털 신호를 지원하도록 제조될 수 있다. 따라서, 신호 처리기 (1510)는 포함될 수 있다.The upper and lower voltages of electrodes 1501A-1501B with or without filtering are connected to the negative and positive inputs of differential amplifier 1504A to amplify and calculate the difference between the upper and lower voltages. This forms a vertical eye movement signal. The vertical eye movement signal may be coupled to an analog filter 1506A to further enhance the vertical eye movement signal by removing noise and other unwanted signals. The filtered vertical eye movement signal, i.e., analog signal, may be connected to an A/D converter 1508A to convert the analog form to a digital form signal. The digitally filtered vertical eye movement signal may be coupled to a first parallel digital input of digital signal processor 1510. In another embodiment, a signal processor may be manufactured to support mixed analog and digital signals. Accordingly, a signal processor 1510 may be included.

유사하게, 필터링이 있거나 없는 필터링된 전극(1501C-1501D)의 좌측 및 우측 전압은 차동 증폭기(1504B)의 음 및 양 입력에 연결되어 좌우 전압 간의 차이를 증폭 및 계산한다. 이는 수평 안구 움직임 신호를 형성한다. 수평 안구 움직임 신호는 노이즈 및 다른 원치 않는 신호를 제거하여 수평 안구 움직임 신호를 추가적으로 강화하기 위해 아날로그 필터(1506B)에 연결될 수 있다. 필터링된 수평 안구 움직임 신호, 즉 아날로그 신호는 아날로그 형태를 디지털 형태의 신호로 변환하기 위해 A/D 컨버터(1508B)에 연결된다. 디지털 필터링된 수평 안구 움직임 신호는 디지털 신호 프로세서(1510)의 제 2 병렬 디지털 입력에 연결될 수 있다.Similarly, the left and right voltages of the filtered electrodes 1501C-1501D, with or without filtering, are connected to the negative and positive inputs of differential amplifier 1504B to amplify and calculate the difference between the left and right voltages. This forms a horizontal eye movement signal. The horizontal eye movement signal may be coupled to an analog filter 1506B to further enhance the horizontal eye movement signal by removing noise and other unwanted signals. The filtered horizontal eye movement signal, i.e., analog signal, is connected to an A/D converter 1508B to convert the analog form to a digital form signal. The digitally filtered horizontal eye movement signal may be coupled to a second parallel digital input of digital signal processor 1510.

디지털 신호 프로세서(1510)는 디지털 필터링된 수평 안구 움직임 신호 및 디지털 필터링된 수직 안구 움직임 신호 모두를 사용하여 디지털 신호 처리를 수행하여 사용자의 무의식적인 안구 움직임으로부터 분석하고, 특징을 추출하고, 고유한 식별 패턴을 생성한다. 이 경우, 무의식적인 안구 움직임의 고유한 식별 패턴은 비디오 카메라 또는 스캐너를 사용하고 이미지를 분석없이 사용자의 머리/얼굴에서 직접 획득된다.Digital signal processor 1510 performs digital signal processing using both the digitally filtered horizontal eye movement signal and the digitally filtered vertical eye movement signal to analyze, extract features, and uniquely identify the user's involuntary eye movements. Create a pattern. In this case, unique identifying patterns of involuntary eye movements are obtained directly from the user's head/face without using a video camera or scanner and analyzing the images.

도 16a는 사용자의 안구 움직임 이미지를 획득하는데 사용될 수 있는 비디오 카메라를 구비한 전자장치의 다이어그램이다. 도 16b의 전자장치(1600)는 도 2의 전자장치(200) 또는 도 3의 전자장치(300)일 수 있으며 도 2의 전자장치(200)와 도 3의 전자장치(300)의 구성 부분의 일부의 조합 또는 전부를 포함하거나 본 개시(present disclosure)에 도시 되지 않은 구성요소를 포함할 수 있다. 도 16b는 사용자의 안구 움직임 이미지를 획득하는데 사용될 수 있는 도 16a에 도시된 비디오 카메라를 구비한 전자장치(1600)의 블록도이다.Figure 16A is a diagram of an electronic device with a video camera that can be used to obtain images of eye movements of a user. The electronic device 1600 of FIG. 16B may be the electronic device 200 of FIG. 2 or the electronic device 300 of FIG. 3, and may be a component of the electronic device 200 of FIG. 2 and the electronic device 300 of FIG. 3. It may include a combination of some or all of them, or may include components not shown in the present disclosure. FIG. 16B is a block diagram of an electronic device 1600 equipped with the video camera shown in FIG. 16A that can be used to obtain an image of a user's eye movements.

도 16a 및16B를 참조하면, 비디오 카메라를 갖는 전자장치(1600)는 고정 과정(fixation process) 동안 사용자(1699)의 안구 움직임의 이미지를 획득하는 데 사용된다.16A and 16B, electronic device 1600 with a video camera is used to obtain images of eye movements of user 1699 during a fixation process.

도 16b에서, 전자장치(1600)는 프로세서, 마이크로 컴퓨터 또는 마이크로 프로세서(1601)에 연결된 디스플레이 장치(1607) 및 비디오 카메라(1612)를 포함한다. 전자장치(1600)는 프로그램 명령 및 사용자 관련 데이터를 저장하는 메모리(1602)를 더 포함한다. 전자장치(1600)는 전자장치(1600)와 다른 장치 (무선 주파수 송신기/수신기) 사이의 통신을 제공하기 위해 하나 이상의 (무선 주파수 송신기/수신기) 라디오(1609) 및 하나 이상의 유선 커넥터(1622, 1624) (예를 들어, USB 포트 (1622) 및/또는 네트워크 인터페이스 포트를 포함한다. 전자장치(1600)는 전자장치(1600)를 사용하여 사용자에게 디스플레이 가능한 사용자 인터페이스 UI를 제공하는 터치 스크린 디스플레이 장치(1607)를 더 포함한다. 소프트웨어 제어는 사용자가 전자장치를 제어 할 수 있도록 터치 스크린 디스플레이 장치(1607) 상에 디스플레이될 수 있다. 전자장치(1600)는 사용자가 전자장치를 더 제어 할 수 있게 하는 하나 이상의 하드웨어 버튼(1604)을 선택적으로 포함할 수 있다.In FIG. 16B, the electronic device 1600 includes a processor, microcomputer, or display device 1607 connected to a microprocessor 1601 and a video camera 1612. The electronic device 1600 further includes a memory 1602 that stores program commands and user-related data. Electronic device 1600 includes one or more (radio frequency transmitter/receiver) radios 1609 and one or more wired connectors 1622, 1624 to provide communication between electronic device 1600 and other devices (radio frequency transmitter/receiver). ) (For example, it includes a USB port 1622 and/or a network interface port. The electronic device 1600 is a touch screen display device ( 1607). Software control may be displayed on the touch screen display device 1607 to allow the user to control the electronic device. The electronic device 1600 may be configured to allow the user to further control the electronic device. One or more hardware buttons 1604 may optionally be included.

안구 움직임을 획득하기 위해, 프로세서(1601)는 디스플레이 장치(1607)에 의해 디스플레이되는 고정 타겟(1650)을 생성한다. 비디오 카메라(1612)가, 프로세서(1601)의 제어 하에, 이미지, 비디오, 사용자의 눈의 시계열적인 시퀀스를 획득하는 동안 사용자는 시선을 타겟(1650)에 고정하도록 요청을 받을 수 있다. 비디오 카메라는 프레임단위로 사용자의 한쪽 또는 양쪽 안구의 무의식적인 안구 움직임을 획득한다. 3D 가속도계 데이터는 비디오와 함께 획득되어 카메라(1612) 및 전자장치(1600)의 물리적 움직임을 제거하여 안구의 움직임을 결정한다.To acquire eye movements, processor 1601 generates a fixation target 1650 that is displayed by display device 1607. The user may be asked to fixate their gaze on a target 1650 while a video camera 1612, under the control of processor 1601, acquires a time-series sequence of images, video, and the user's eyes. A video camera captures the user's involuntary eye movements of one or both eyes on a frame-by-frame basis. 3D accelerometer data is acquired along with the video to determine eye movement by eliminating the physical movement of the camera 1612 and electronics 1600.

프로세서(1601)는 신호 프로세서 기능을 제공하거나 포함할 수 있다. 어떤 경우이든, 프로세서는 패턴 인식 소프트웨어 및 신호 처리 소프트웨어의 명령을 실행하여 사용자의 한쪽 또는 양쪽 안구의 무의식적인 안구 움직임을 획득한 비디오를 분석한다. 패턴 인식 소프트웨어는 비디오의 안구 및 홍채 및 동공을 식별하는 데 사용될 수 있다.Processor 1601 may provide or include signal processor functionality. In either case, the processor executes instructions in pattern recognition software and signal processing software to analyze the video obtained for involuntary eye movements of one or both eyes of the user. Pattern recognition software can be used to identify the eye and iris and pupil in the video.

시계열적인 시퀀스의 이미지에서 사용자가 눈을 깜박거렸는지 여부 및 안구 움직임을 검출하기에 충분한 시퀀스가 포착되었는지 여부에 대해 획득된 비디오는 분석된다. 그렇지 않은 경우, 사용자는 고정 과정(fixation process)을 반복하도록 사용자 인터페이스에 요청 받는다. The acquired video is analyzed for whether the user blinked in a time-series sequence of images and whether sufficient sequence is captured to detect eye movements. Otherwise, the user is prompted by the user interface to repeat the fixation process.

충분한 이미지 시퀀스가 획득되면, 이미지들로부터 안구 움직임을 결정하기 위해 추가 분석이 수행된다. 홍채 또는 눈동자와 같은 안구의 기준점은 고정 또는 응시 과정에서 획득한 비디오의 무의식적인 움직임을 결정하는 데 사용된다. 3D 가속도계 데이터는 실제의 안구 움직임 데이터를 형성하기 위해 원시 안구 움직임 데이터로부터 비디오에 획득된 카메라(16812)의 물리적 움직임을 배제하는데 사용된다.Once sufficient image sequences are acquired, further analysis is performed to determine eye movements from the images. Reference points of the eye, such as the iris or pupil, are used to determine involuntary movements in video acquired during fixation or gaze. The 3D accelerometer data is used to subtract the physical movement of the video acquired camera 16812 from the raw eye movement data to form realistic eye movement data.

안구 움직임 데이터는 사용자의 인증 및/또는 고유하게 식별하는데 사용되는 무의식적 안구 움직임 데이터의 유형을 추출하기 위해 추가로 분석된다.The eye movement data is further analyzed to extract the types of involuntary eye movement data used to authenticate and/or uniquely identify the user.

사용자는 전자장치(1600)로 초기화되어, 초기에 획득된 무의식적인 안구 움직임 데이터의 초기 데이터 세트를 저장한다. 초기 데이터 세트로부터, 무의식적인 안구 움직임의 시계열에 링크된 특징이 추출되어 사용자와 연관되어 분류된다. The user is initialized with electronic device 1600 to store an initial data set of initially acquired involuntary eye movement data. From the initial data set, features linked to the time series of involuntary eye movements are extracted and classified in relation to the user.

새롭게 획득된 무의식적인 안구 움직임 데이터의 획득된 데이터 세트로부터 추출된 특징은 사용자를 식별하기 위해 초기 획득된 무의식적인 움직임 데이터로부터 추출되어 저장된 특징과 비교된다. 사용자가 전자장치를 사용할 권한이 있는지를 판별하기 위해 일치 비율을 계산할 수 있다. Features extracted from the acquired data set of newly acquired involuntary eye movement data are compared with features extracted and stored from the initially acquired involuntary movement data to identify the user. A match rate can be calculated to determine whether the user is authorized to use the electronic device.

새롭게 획득된 무의식적인 안구 움직임 데이터는 일치된 결과를 결정하기 위해 초기 획득된 무의식적인 움직임데이터와 비교된다. 일치 결과가 일치 비율 내에 있으면 사용자가 식별되어 장치 사용 권한이 부여된다. 일치 결과가 일치 비율을 벗어나면 사용자는 알 수 없으며 기기 사용 권한이 없게 된다.Newly acquired involuntary eye movement data is compared to initially acquired involuntary movement data to determine a consensus result. If the match is within the match percentage, the user is identified and authorized to use the device. If the match result is outside the match percentage, the user will not be informed and will not have permission to use the device.

무의식적인 안구 움직임 (예를 들어, 떨림)은 약 150 헤르츠 (Hz)의 최대 주파수를 발생할 수 있다. 원추 형상의 직경은 0.5 ~ 4 마이크로 미터이다.Involuntary eye movements (e.g., tremors) can occur with a maximum frequency of approximately 150 hertz (Hz). The cone shape has a diameter of 0.5 to 4 micrometers.

무의식적인 안구 움직임을 포착하기 위해, 전자장치(1600)의 프로세서(1601)에 연결된 비디오 카메라(1612)와 같은 시스템의 적절한 기록 장치는, 최소 프레임 레이트(초당 프레임 수)는 적어도 300 Hz-450 Hz의 범위이거나 최적으로 프레임 레이트가 1000Hz 이상으로 동작한다.To capture involuntary eye movements, a suitable recording device of the system, such as a video camera 1612 connected to processor 1601 of electronics 1600, may have a minimum frame rate (frames per second) of at least 300 Hz-450 Hz. range or optimally operates at a frame rate of 1000Hz or higher.

기 존재하는 전자장치에 있는 카메라 및 프로세서는 소프트웨어 응용 프로그램이나 드라이버에서 재구성하여 일반적인 설정보다 빠르게 실행할 수 있다. 보통 (큰규모의 단속성 운동)은 초당 300도 정도를 보장하며 1/3 초 내에 눈을 다시 정렬 할 수 있다. 무의식적 미세 단속성 운동은 초당 몇 도에서 0.2도 아래까지의 진폭을 보장한다. 따라서, 0.1-0.2 도의 범위 내로 분해될 수 있는 기록 장치의 공간 해상도는 원하는 무의식적 안구 움직임을 획득하는데 최적일 수 있다.Cameras and processors in existing electronic devices can be reconfigured by software applications or drivers to run faster than a typical setup. Normal (large-scale saccades) guarantees about 300 degrees per second and allows the eyes to realign within 1/3 of a second. Involuntary microsaccades range in amplitude from a few degrees per second to less than 0.2 degrees. Accordingly, the spatial resolution of the recording device, which can be resolved within the range of 0.1-0.2 degrees, may be optimal for obtaining the desired involuntary eye movements.

원하는 무의식적인 안구 움직임을 획득하기 위해, 일 유형의 전자장치(1600)가 도 8A 및 도 8B에 도시되어 있지만, 다른 유형의 전자장치가 무의식적인 안구 움직임을 포착하기 위해 사용될 수 있다. Although one type of electronic device 1600 is shown in FIGS. 8A and 8B to obtain the desired involuntary eye movements, other types of electronics may be used to capture involuntary eye movements.

도 17a 내지 도 17c는 사용자 안구 움직임 이미지를 획득하는데 사용될 수 있는 비디오 카메라를 구비한 전자안경의 다이어그램 및 타겟에 대해 도시한다.17A-17C show diagrams and targets of an electronic glasses with a video camera that can be used to acquire images of user eye movements.

도 17a 및 도 17b를 참조하면, 사용자의 안구 움직임의 이미지를 획득하는데 사용될 수 있는 전자안경(1700)이 도시되어 있다. 눈 움직임의 획득된 이미지에서, 작은 규모의 무의식적인 안구 움직임을 추출할 수 있다. 전자안경(1700)은 시스템 또는 장치에 대한 사용자를 식별하고, 인증하고, 인증하기 위해 사용자에 의해 일시적으로 착용 될 수 있다.17A and 17B, electronic glasses 1700 that can be used to obtain images of eye movements of a user are shown. From acquired images of eye movements, small-scale involuntary eye movements can be extracted. Electronic glasses 1700 may be temporarily worn by a user to identify, authenticate, and authenticate the user to a system or device.

전자안경(1700)은 한 쌍의 아이 와이어에 좌측 렌즈(1704L)와 우측 렌즈(1704R)가 장착 된 아이 글래스 프레임(1702)을 포함한다. 일 실시 예에서, 안경테(1702)는 브릿지(1707), 좌측절(1708L), 우측절(1708R), 코 패드, 코 패드 암 및 한 쌍의 아이 와이어를 포함한다. 이들 전자안경(1700)은 안경 처방전에 착용 할 수 있는 안경 클립 일 수 있다. 렌즈(1704L-1704R)는 처방 렌즈 일 수도 있고 아닐 수 도 있다.The electronic glasses 1700 include an eye glass frame 1702 with a left lens 1704L and a right lens 1704R mounted on a pair of eye wires. In one embodiment, eyeglass frame 1702 includes a bridge 1707, a left section 1708L, a right section 1708R, a nose pad, a nose pad arm, and a pair of eye wires. These electronic glasses 1700 may be glasses clips that can be worn with prescription glasses. Lenses (1704L-1704R) may or may not be prescription lenses.

작은 타겟(1706)은 비디오 카메라를 향해 사용자의 눈을 향하게 하기 위해 좌측 렌즈(1704L)의 우측 상부 모서리에 형성될 수 있다. 선택적으로, 타겟(1706)은 사용자의 눈을 비디오 카메라쪽으로 향하게 하기 위해 우측 렌즈(1704R)의 상부 좌측 코너에 형성될 수 있다. 타겟(1706)은 렌즈의 표면 상에 타겟 이미지를 프린트함으로써, 타겟 이미지를 렌즈에 새김으로써, 렌즈의 표면 상에 타겟 광을 비추어서 형성될 수 있다. 또는 투명 표면 상에 이미지를 적용하는 다른 공지 된 수단에 의해 수행 될 수 있다. A small target 1706 may be formed in the upper right corner of the left lens 1704L to point the user's eye toward the video camera. Optionally, a target 1706 can be formed in the upper left corner of right lens 1704R to direct the user's eye toward the video camera. Target 1706 can be formed by shining target light onto the surface of the lens, by printing the target image on the surface of the lens, by etching the target image into the lens. or by other known means of applying the image onto a transparent surface.

도 17c를 참조하면, 타겟(1706)은 중심 개구 또는 홀(1707)을 갖는 짧은 심도의 타겟이다. 렌즈(1704L 또는 1704R)상의 타겟(1706)은 사용자가 초점을 맞추는 데 너무 가까울 수 있다. 그러나, 사용자는 타겟(1706)의 중심 개구(907)를 통해 초점을 맞출 수 있다. 중심 개구(1707)를 갖는 타겟(1706)은 광학 테더와 같이 작용하여 동공이 비디오 카메라와 일직선상에 위치하여 눈 움직임을 더 잘 획득할 수 있다.Referring to Figure 17C, target 1706 is a short depth target with a central opening or hole 1707. Target 1706 on lens 1704L or 1704R may be too close for the user to focus on. However, the user can focus through the central aperture 907 of target 1706. Target 1706 with a central aperture 1707 acts like an optical tether so that the pupil is in line with the video camera to better capture eye movements.

도 17b를 참조하면, 전자안경(1700)은 비디오 카메라(1710), 프로세서(1712), 메모리 장치(1714), 무선 송/수신기(1716) 및 안경 프레임(1702)에 부착된 전원공급부(예를 들어, 배터리)(1720)를 포함할 수 있다. 전자안경(1700)은 프레임(1702) 또는 코 패드 암(1722)에 장착된 선택적인 발광 다이오드(LED)(1718)를 더 포함할 수 있다.Referring to FIG. 17B, the electronic glasses 1700 include a video camera 1710, a processor 1712, a memory device 1714, a wireless transmitter/receiver 1716, and a power supply (for example, a power supply) attached to the glasses frame 1702. For example, it may include a battery) (1720). Electronic glasses 1700 may further include an optional light emitting diode (LED) 1718 mounted on frame 1702 or nose pad arm 1722.

비디오 카메라(1710)는 타겟을 갖고 있는 렌즈, 예를 들어 타겟(1706)을 갖는 좌측 렌즈(1704L), 방향으로 약간 경사진 구조이다. 따라서 타겟에 초점을 맞출 때 눈과 더 정렬될 수 있다. 비디오 카메라(1710) 및 프로세서(1712)는 최대 주파수 150 Hz에서 무의식적인 안구 움직임을 획득하기 위해 초당 300 내지 1000 프레임 범위의 프레임 레이트로 함께 동작한다.The video camera 1710 has a lens with a target, for example, a left lens 1704L with a target 1706, slightly inclined in this direction. Therefore, you can be more aligned with your eyes when focusing on a target. Video camera 1710 and processor 1712 operate together at frame rates ranging from 300 to 1000 frames per second to capture involuntary eye movements at frequencies up to 150 Hz.

무선부(Radio)(1716)는 컴퓨터 또는 서버에 사용자를 인증하기 위해 컴퓨터 또는 서버와 통신하기 위해 프로세서에 의해 사용될 수 있다. 메모리(1714)는 획득된 안구 움직임으로부터 추출 된 초기 무의식적인 안구 움직임의 특징을 포함하는 초기화 데이터를 저장하는데 사용될 수 있다.Radio 1716 may be used by the processor to communicate with a computer or server to authenticate a user to the computer or server. Memory 1714 may be used to store initialization data containing characteristics of initial involuntary eye movements extracted from acquired eye movements.

전자안경(1700)은 일시적으로 사용자가 착용하여 사용자를 시스템에 인증할 수 있다. 선택적으로, 전자 고글을 사용할 수 있다.The electronic glasses 1700 can be temporarily worn by the user to authenticate the user to the system. Optionally, electronic goggles can be used.

도 18a 및 도 18b는 사용자의 안구 움직임의 이미지를 획득하는데 사용될 수 있는 비디오 카메라를 구비한 VR(Virtual Reality) 기기의 다이어그램이다.18A and 18B are diagrams of a Virtual Reality (VR) device with a video camera that can be used to obtain images of a user's eye movements.

도 18a 및 도 18b를 참조하면, 사용자의 눈의 안구 운동을 포착하는데 사용될 수 있는 비디오 카메라를 포함하는 전자 가상 현실 헤드셋 또는 고글(1800)이 도시된다. 전자 가상 현실 헤드셋은 사용자 헤드에 부착된 헤드셋을 유지하기 위해 프레임(1802) 및 헤드 스트랩(1803)을 포함한다. 프레임(1802)은 외부 광이 들어오지 못하도록 두건 영역(1899)을 제공하기 위해 사용자의 눈 주위에 얼굴을 수용하도록 구성된 상측, 하측, 좌측 및 우측의 플렉서블 커튼 또는 블라인더(1804)를 포함한다. 하부 커튼 또는 블라인더(1804B)는 사용자의 코를 수용하기 위한 코 개구(1805)를 포함한다. 18A and 18B, an electronic virtual reality headset or goggles 1800 is shown that includes a video camera that can be used to capture eye movements of a user's eyes. The electronic virtual reality headset includes a frame 1802 and a head strap 1803 to maintain the headset attached to the user's head. Frame 1802 includes upper, lower, left, and right flexible curtains or blinders 1804 configured to accommodate the face around the user's eyes to provide a hooded area 1899 to block external light. Lower curtain or blinder 1804B includes a nose opening 1805 to accommodate the user's nose.

도 18b에서, 헤드셋(1800)은 프레임(1802)에 연결된 비디오 카메라(1810), 좌측 디스플레이 장치(1812L) 및 우측 디스플레이 장치(1812R)를 더 포함한다. 헤드셋(1800)은 함께 연결된 프로세서(1811) 및 메모리(1814)를 더 포함한다. 비디오 카메라(1810) 및 좌측 및 우측 디스플레이 장치(1812L, 1812R)는 프로세서(1811)에 연결된다. 좌측 디스플레이 장치(1812L) 및 우측 디스플레이 장치(1812R)는 다양한 깊이로 인식되는 스테레오 3 차원 이미지를 사용자에게 제공할 수 있다. 비디오 카메라(1810)는 눈 움직임을 포착하기 위해 상이한 위치에서 후드 영역(1899) 내의 프레임(1802)에 연결될 될 수 있다. 비디오 카메라(1810)는 좌측 및 우측 디스플레이 장치(1812L, 1812R)에 의해 디스플레이된 비디오 이미지와의 간섭을 피하기 위해 눈 움직임을 포착하기 위해 도시된 바와 같이 우측에 위치될 수 있다. 다른 실시 예에서, 한쪽 또는 양쪽 눈으로부터 무의식적인 안구의 미세 움직임이 사용자를 인증하는데 사용되도록 좌우 한 쌍의 안구의 움직임을 획득하기 위해 한 쌍의 비디오 카메라(1810)가 반대쪽에 위치될 수 있다.In Figure 18B, headset 1800 further includes a video camera 1810 coupled to frame 1802, a left display device 1812L, and a right display device 1812R. The headset 1800 further includes a processor 1811 and a memory 1814 connected together. Video camera 1810 and left and right display devices 1812L and 1812R are connected to processor 1811. The left display device 1812L and the right display device 1812R can provide stereo three-dimensional images perceived at various depths to the user. Video cameras 1810 may be coupled to frames 1802 within hood area 1899 at different locations to capture eye movements. Video camera 1810 may be positioned on the right side as shown to capture eye movements to avoid interference with video images displayed by left and right display devices 1812L, 1812R. In another embodiment, a pair of video cameras 1810 may be positioned on opposite sides to capture left and right eye movements such that involuntary eye micro-movements from one or both eyes can be used to authenticate the user.

좌측 타겟(1806L) 및 우측 타겟(1806R)을 포함하는 스테레오 3 차원 타겟은 프로세서(1811)에 의해 생성되어 좌측 디스플레이 장치(1812L) 및 우측 디스플레이 장치(1812R) 상에 각각 디스플레이될 수 있다. 좌측 타겟(1806L) 및 우측 타겟 (1806R)은 눈을 먼 거리에 집중시키도록 타겟을 멀리 보이게 할 수 있고, 비디오 카메라(1810)로 무의식적 안구 움직임을 더 잘 획득하기 위해 눈을 고정시킬 수 있다.Stereo three-dimensional targets including left target 1806L and right target 1806R may be generated by processor 1811 and displayed on left display device 1812L and right display device 1812R, respectively. Left target 1806L and right target 1806R can make the target look distant to focus the eyes in the distance and can fix the eyes to better capture involuntary eye movements with the video camera 1810.

프로세서(1811)는 케이블(1850) 및 플러그(1852)에 의해 다른 시스템에 배선 될 수 있다. 선택적으로, 무선 송신기/수신기(1816)는 프로세서 및 헤드셋/고글 헤드셋/고글(1800)의 인증 성능을 사용하기 위해 무선으로 다른 시스템에 연결될 수 있도록 프로세서(1811)에 연결될 수 있다.Processor 1811 can be wired to other systems by cable 1850 and plug 1852. Optionally, a wireless transmitter/receiver 1816 may be coupled to the processor 1811 such that it can be wirelessly connected to another system to utilize the authentication capabilities of the processor and headset/goggles headset/goggles 1800.

도 19a는 사용자의 안구 움직임에 관한 데이터 획득을 돕는 이미터 장치를 구비한 콘택트 렌즈를 포함한 안구의 다이어그램이다. 도 19b 내지 도 19d는 사용자의 안구 움직임에 관한 데이터 획득을 돕는데 사용될 수 있는 다양한 이미터 장치를 구비한 콘택트 렌즈의 다이어그램이다. 도 19e는 능동 이미터 장치의 기능 블록도이다. 도 19f는 사용자의 안구 움직임에 관한 데이터를 획득하는데 사용될 수 있는 안구에 장착된 콘택트 렌즈 근처의 감지장치의 측면도이다.Figure 19A is a diagram of an eye containing a contact lens with an emitter device that helps obtain data regarding the user's eye movements. 19B-19D are diagrams of contact lenses with various emitter devices that can be used to help obtain data regarding a user's eye movements. Figure 19E is a functional block diagram of an active emitter device. Figure 19f is a side view of a sensing device near an eye-mounted contact lens that can be used to obtain data regarding a user's eye movements.

도 19f를 참조하면, 안구 움직임은 렌즈(918) 위의 사용자의 한쪽 또는 양쪽 눈(900)에 장착된 콘택트 렌즈(1900)를 사용함으로써 다른 방식으로 획득될 수 있다. 콘택트 렌즈(1900)는 렌즈 물질(1104)과 연결된(예를 들어, 내장되거나 프린트 되어 연결) 하나 이상의 이미터(1902)를 포함할 수 있다.Referring to FIG. 19F , eye movements can be obtained in another manner by using a contact lens 1900 mounted on one or both eyes 900 of the user over lens 918. Contact lens 1900 may include one or more emitters 1902 connected (e.g., embedded or printed) with lens material 1104.

이미터(emitter)(1902)는, 발광다이오드(LED) 또는 드라이빙 회로와 연관된 무선 비콘(예를 들어, 라디오 송신기/수신기, 다이오드 드라이버)과 같은 능동 장치일 수 있거나, 리플렉터(reflector), 리트로 리플렉터(retro-reflector), 또는 거울과 같은 수동 장치일 수 있다.Emitter 1902 may be an active device, such as a light emitting diode (LED) or a wireless beacon associated with a driving circuit (e.g., radio transmitter/receiver, diode driver), or a reflector, retro reflector. (retro-reflector), or may be a passive device such as a mirror.

능동 이미터 장치의 경우에, 방출된 광 또는 무선 신호를 수신하여 하나의 시점에서 다음 시점까지의 눈의 위치를 결정하여 일정 시간 동안 눈의 움직임을 직접 획득하는 하나 이상의 센서가 사용된다. 전력은 눈 주위의 베이스 안테나로부터 콘택트 렌즈의 능동 이미터 장치에 연결된 안테나로 무선으로 연결될 수 있다. 무선 신호는 또한 능동 집적 회로 장치에 연결된 베이스 안테나와 안테나 사이에 연결될 수 있다. 무의식적인 안구의 미세 움직임을 포함하여 눈 움직임을 포착하기 위해 집적 회로의 일부로서 3 차원 모션 센서가 포함될 수 있다.In the case of active emitter devices, one or more sensors are used that directly obtain eye movements over a period of time by receiving emitted light or wireless signals to determine the eye's position from one viewpoint to the next. Power can be wirelessly routed from a base antenna around the eye to an antenna connected to an active emitter device in the contact lens. A wireless signal may also be coupled between the base antenna and the antenna connected to the active integrated circuit device. A three-dimensional motion sensor may be included as part of the integrated circuit to capture eye movements, including involuntary eye micro-movements.

수동 이미터 장치의 경우, 광원의 광은 수동 이미터 장치로 보내져서 안구 주위의 하나 이상의 포토 다이오드 센서로 다시 광을 반사 시키도록 활성화시킨다. 능동 이미터 장치와 수동 이미터 장치의 조합은 동일한 콘택트 렌즈에서 사용되어 어느 한쪽 또는 양쪽 방법으로 안구 운동을 획득할 수 있다. For passive emitter devices, light from a light source is directed to the passive emitter device, which activates it to reflect the light back to one or more photodiode sensors around the eye. A combination of active and passive emitter devices can be used in the same contact lens to capture eye movements in either or both methods.

도 19b-19d는 각각 콘택트 렌즈(1900A-1900C)에 내장 된 하나의 이미터(1902A), 두 개의 이미터(1902B-11\902C) 및 네 개의 이미터(1902D-1902G)를 도시한다.Figures 19B-19D show one emitter (1902A), two emitters (1902B-11\902C) and four emitters (1902D-1902G) embedded in a contact lens (1900A-1900C), respectively.

도 19b에서, 능동 이미터(1902A)는 콘텍트 렌즈(1900A)의 둘레의 가장자리 부분의 둘 이상의 안테나 라인(1905A-1905B)에 연결된 것으로 도시되어 있다. 능동 이미터(1902A)는 프로세서/제어기 및 그 외부에 결합 된 또는 집적 회로상에 내부적으로 통합된 다른 회로를 갖는 집적 회로(1906)를 포함한다. 선택적으로, 이미터(1902A)는 능동 이미터일 수 있다.In FIG. 19B, active emitter 1902A is shown connected to two or more antenna lines 1905A-1905B at the peripheral edge of contact lens 1900A. Active emitter 1902A includes an integrated circuit 1906 having a processor/controller and other circuitry coupled externally thereto or integrated internally on the integrated circuit. Optionally, emitter 1902A may be an active emitter.

도 19c에서, 한 쌍의 수동 이미터(1902B-1902C)는 컨택드 렌즈(1900B)의 둘레의 가장자리의 부분 주변에 배치되어 도시된다. 선택적으로, 이미터들(1902B-1902C)은 콘택트 렌즈(1900B)의 둘레 가장자리 부근의 부분에서 둘 이상의 안테나 피드(1905A-1905B)를 갖는 능동 이미터일 수 있다.In Figure 19C, a pair of passive emitters 1902B-1902C are shown disposed around a portion of the peripheral edge of contact lens 1900B. Optionally, emitters 1902B-1902C may be active emitters with two or more antenna feeds 1905A-1905B in a portion near the peripheral edge of contact lens 1900B.

도 19d에서, 한 쌍의 능동 이미터들(1902D-1902E) 및 한 쌍의 수동 이미터들(1902F-1902G)이 콘택트 렌즈(1900C)의 둘레의 가장자리 부근에 도시 되어있다. 선택적으로, 모든 이미터(1902D-1902G)는 능동 이미터 또는 수동 이미터일 수 있으며; 단지 다른 하나는 수동적 일 수 있다. 다른 하나는 수동적으로 활성화 될 수 있다.19D, a pair of active emitters 1902D-1902E and a pair of passive emitters 1902F-1902G are shown near the peripheral edge of contact lens 1900C. Optionally, all emitters (1902D-1902G) can be active or passive emitters; Only the other can be passive. The other can be activated passively.

도 19e를 참조하면, 능동 이미터(1902)의 예시의 추가 세부 사항이 도시된다. 능동 이미터(1902A)는 프로세서/제어기(1910) 및 그 외부에 연결되거나 프로세서/제어기(1910)에 연결된 집적 회로 상에 내부적으로 집적된 다른 회로를 갖는 집적 회로(1906)를 포함한다.Referring to Figure 19E, additional details of an example active emitter 1902 are shown. Active emitter 1902A includes an integrated circuit 1906 having a processor/controller 1910 and other circuitry coupled externally thereto or integrated internally on the integrated circuit coupled to the processor/controller 1910.

집적 회로(1906)는 안테나(1905A-1905B)를 통해 프로세서(1910)에 연결된 전력 변환 회로(1912)로 전력을 수신할 수 있다. 발진 무선 주파수 (RF) 신호로부터의 무선 주파수 에너지는 근접한 베이스 안테나에 의해 더 많은 안테나 피드들(1905A-1905B)을 생성한다. 전력 변환 회로(1912)는 AC RF 신호들을 IC(1906) 내의 다른 회로들 뿐만 아니라 IC(1906)에 연결된 회로들에 대한 DC 전원으로 정류(rectify) 및 조절(regulate) 할 수 있다.Integrated circuit 1906 may receive power to power conversion circuit 1912 coupled to processor 1910 via antennas 1905A-1905B. Radio frequency energy from the oscillating radio frequency (RF) signal generates more antenna feeds 1905A-1905B by a nearby base antenna. Power conversion circuit 1912 may rectify and regulate AC RF signals into DC power for other circuits within IC 1906 as well as circuits connected to IC 1906.

집적 회로(1906)에 연결된 발광 다이오드(LED)(1908)에 의해, 내부의 다이오드 드라이버(1918)가 프로세서(1910)와 발광 다이오드(LED)(1908) 사이에 연결된다. 전력이 전력 변환 프로세서는 다이오드 드라이버(1918)를 활성화시키기 위한 신호를 생성 할 수 있다. 프로세서는 전원을 사용하여 다이오드 드라이버(19118)를 활성화시켜 발광 다이오드(1908)에 전력을 공급하여 사용자의 눈으로부터 빛을 방출한다.With a light emitting diode (LED) 1908 connected to the integrated circuit 1906, an internal diode driver 1918 is coupled between the processor 1910 and the light emitting diode (LED) 1908. The power conversion processor may generate a signal to activate the diode driver 1918. The processor uses power to activate diode driver 19118 to power light emitting diode 1908 to emit light from the user's eyes.

선택적으로 또는 부가적으로, 집적 회로(1906)는 안구 움직임을 직접 감지하는 프로세서에 연결된 3D 동작 센서(1917)를 가질 수 있다. 전력으로, 무선 송신기/ 수신기(트랜시버)(1909)에 연결된 프로세서는 안테나 라인(1905A-1195B)을 통해 무선 송수신기(1919)로 무선 신호를 송신 및 수신할 수 있다. 무선 송수신기를 갖는 기본 유닛은 눈 움직임 데이터를 수집하고 추가로 처리할 수 있다Alternatively or additionally, integrated circuit 1906 may have a 3D motion sensor 1917 coupled to the processor that directly senses eye movements. With power, a processor coupled to wireless transmitter/receiver (transceiver) 1909 may transmit and receive wireless signals to wireless transceiver 1919 via antenna lines 1905A-1195B. A basic unit with a wireless transceiver can collect and further process eye movement data.

도 19f를 참조하면, 능동 이미터의 경우, 프레임(1921), 렌즈(1922), 및 렌즈(1922) 둘레에 감겨진 베이스 안테나(1924A-1924B)의 폴을 포함하는 베이스 유닛 (1999)이 도시된다. 베이스 안테나(1924A-1924B)는 베이스 라디오 수신기/송신기 (미도시)에 연결되고, 획득된 안구 움직임 신호를 처리하는 베이스 프로세서 (미도시)에 연결된다.19F, for an active emitter, a base unit 1999 is shown comprising a frame 1921, a lens 1922, and the poles of base antennas 1924A-1924B wrapped around the lens 1922. do. Base antennas 1924A-1924B are connected to a base radio receiver/transmitter (not shown) and to a base processor (not shown) that processes the acquired eye movement signals.

콘택트 렌즈의 안테나 라인들(1905A-1905B) 근처의 베이스 안테나(1124A-1124B)를 가지고, 베이스 유닛(1199)과 콘택트 렌즈(1900C)사이에서 무선 주파수 전력/에너지/무선 주파수 신호들을 함께 전달하도록 유도적으로 연결될(inductively coupled to) 수 있다.With the base antennas 1124A-1124B near the antenna lines 1905A-1905B of the contact lens, they are directed to transmit radio frequency power/energy/radio frequency signals together between the base unit 1199 and the contact lens 1900C. Can be inductively coupled to.

전원이 인가되면, 모션 센서 (1917)에 의해 획득된 안구 움직임은 각각의 무선 송수신기에 의해 콘택트 렌즈 (1900C)로부터 베이스 유닛(1999)으로 전달 될 수 있다.When power is applied, eye movements acquired by motion sensor 1917 can be transmitted from contact lens 1900C to base unit 1999 by the respective wireless transceivers.

수동 이미터의 경우, 베이스 유닛(1999) (부가적으로 또는 선택적으로)은 렌즈(1912)의 가장자리 근처에서 연결된 하나 이상의 포토 다이오드 센서(1934A-1934B)를 포함한다. 베이스 유닛(1999)은 하나 이상의 수동 이미터(1902F, 1902G)를 향해 빛을 비추기 위해 디스플레이 장치와 같은 광원(1932)을 더 포함할 수 있다. 하나 이상의 수동 이미터(1902F, 1902G)에서 반사되는 빛은 하나 이상의 포토 다이오드 센서(1934A-1934B)에 의해 획득되어 시간 경과에 따른 눈의 위치 및 움직임을 결정한다. 포토 다이오드 센서들(1934A-1134B)로 부터의 와이어들(1914)은 획득된 안구 움직임 신호들을 처리하기 위해 베이스 프로세서 (미도시)에 연결된다.For a passive emitter, the base unit 1999 (additionally or alternatively) includes one or more photo diode sensors 1934A-1934B connected near the edge of the lens 1912. Base unit 1999 may further include a light source 1932, such as a display device, to direct light toward one or more passive emitters 1902F, 1902G. Light reflected from one or more passive emitters 1902F, 1902G is captured by one or more photo diode sensors 1934A-1934B to determine eye position and movement over time. Wires 1914 from photo diode sensors 1934A-1134B are connected to a base processor (not shown) to process the acquired eye movement signals.

베이스 유닛(1999)은 안경, VR 고글, 독립적인 안구스캐너, 또는 벽에 장착된 안구스캐너의 형태일 수 있다.The base unit 1999 may be in the form of glasses, VR goggles, a stand-alone eye scanner, or a wall-mounted eye scanner.

전자장치는 안경, 고글, 콘택트 렌즈의 경우와 같이 사용자의 눈 또는 눈에 인접한 사용자에 의해 착용 될 수 있지만, 눈 움직임을 획득하기 위한 전자장치는 사용자가 비디오 카메라, 센서 또는 안테나 근처에 눈 또는 눈을 위치시키면서 무의식적인 안구 움직임을 포함하는 구조 또는 시스템에 의해 처리될 수 있다.Electronic devices may be worn by the user on or near the user's eyes, as in the case of glasses, goggles, or contact lenses, but electronic devices for capturing eye movements may be worn by the user on or near the eyes of a video camera, sensor, or antenna. It can be processed by a structure or system that involves involuntary eye movements while positioning the eye.

도 20a 내지 도 20b는 건물구조물의 접근 제어를 위해 부착되어 안구 움직임을 획득하는 장치를 도시한다.20A to 20B show a device for acquiring eye movements attached for access control of a building structure.

도 20a는 사용자의 무의식적 안구 미세 움직임에 응답하여 하나 이상의 도어(2002)에 대한 접근을 제어하기 위해 건물 구조물(2000)에 부착 된 안구 움직임 획득장치(2001)를 도시한다. 안구 움직임 획득 장치(2001)는 구조물(2000)의 하나 이상의 도어(2002)에 대한 접근을 제어하기 위해 접근(Access) 시스템(2003)에 연결된다. 접근 시스템(2003)은 허가된 사용자의 무의식적 안구의 미세 움직임에 응답하여 하나 이상의 도어 (2002) 잠금해제 제어를 수행할 수 있다. FIG. 20A shows an eye movement acquisition device 2001 attached to a building structure 2000 to control access to one or more doors 2002 in response to a user's involuntary eye micro-movements. Eye movement acquisition device 2001 is coupled to Access system 2003 to control access to one or more doors 2002 of structure 2000. Access system 2003 may perform unlocking control of one or more doors 2002 in response to involuntary eye micro-movements of an authorized user.

도 20b는 좌측 눈 또는 우측 눈 주위의 사용자의 얼굴 영역을 수신하는 눈 움직임 획득장치(2001)의 확대도를 도시한다. 도 18b를 참조하여 앞서 논의 된 바와 같이, 안구 움직임 획득 장치(2001)는 비디오 카메라(1810), 디스플레이 장치(1812R) 및 프로세서에 연결된 메모리(1814)뿐만 아니라 프로세서(1811)의 일부 유사한 구조 및 기능을 포함할 수 있다. 프로세서(1811)는 케이블 및 플러그에 의해 접근 시스템 (2003)에 배선될 수 있다. 선택적으로, 프로세서(1811)는 프로세서(1811)에 결합 된 무선장치(1816)에 의해 접근 시스템(2003)에 무선으로 결합 될 수 있다.Figure 20b shows an enlarged view of the eye movement acquisition device 2001 receiving the user's facial area around the left or right eye. As previously discussed with reference to FIG. 18B, eye movement acquisition device 2001 includes a video camera 1810, a display device 1812R, and a memory 1814 coupled to the processor, as well as some similar structures and functions of processor 1811. may include. Processor 1811 may be wired to access system 2003 by cable and plug. Optionally, processor 1811 may be wirelessly coupled to access system 2003 by a wireless device 1816 coupled to processor 1811.

도 21a 및 도 21b는 사용자를 시스템에 인증하기 위한 독립적인 안구스캐너를 도시한다.Figures 21A and 21B show an independent eye scanner for authenticating a user to the system.

도 21a는 케이블 연결 또는 각각의 무선 송신기/수신기로 무선으로 시스템 (2102)에 연결된 독립형 안구스캐너(2101)를 도시한다. 시스템(2102)은 서버 (2106)에 연결될 수 있다. 서버는 원격일 수 있고 인터넷과 같은 광역 네트워크 (2104)를 통해 접근될 수 있다. 독립형 안구스캐너(2101)는 사용자의 한쪽 또는 양쪽 눈의 안구 미세 움직임에 응답하여 시스템(2102) 및 서버(2106)에 대해 사용자를 비침습적으로 인증하는데 사용될 수 있다.FIG. 21A shows a standalone eye scanner 2101 connected to system 2102 by cable connection or wirelessly with respective wireless transmitters/receivers. System 2102 may be connected to server 2106. The server may be remote and accessible via a wide area network 2104, such as the Internet. Standalone eye scanner 2101 may be used to non-invasively authenticate a user to system 2102 and server 2106 in response to eye micro-movements of one or both eyes of the user.

도 21b는 사용자 얼굴의 눈 영역을 수용하는 독립형 안구스캐너(2101)의 확대도를 도시한다. 도 18b를 참조하여 앞서 논의 된 바와 같이, 안구 움직임 획득 장치(2101)는 프로세서(1811)뿐만 아니라 하나 이상의 비디오 카메라(1810), 좌측 디스플레이 디바이스(1812L), 우측 디스플레이 디바이스(1812R) 및 프로세서에 연결된 메모리(1814)를 포함한다. 프로세서(1811)는 케이블(1850) 및 플러그(1852)에 의해 시스템(2102)에 배선될 수 있다. 좌측 및/또는 우측 디스플레이 장치(1812L, 1812R) 상에 좌측 및/또는 우측 타겟(1806L, 1806R)이 유사하게 생성되어 독립형 안구스캐너(2101)가 사용자의 한쪽 또는 양쪽 눈의 안구 미세 움직임에 응답하여 사용자를 비침습적으로 인증할 수 있다.FIG. 21B shows an enlarged view of a stand-alone eye scanner 2101 that accommodates the eye region of a user's face. As previously discussed with reference to FIG. 18B, eye movement acquisition device 2101 includes a processor 1811 as well as one or more video cameras 1810, a left display device 1812L, a right display device 1812R, and a processor 1812 connected to the processor. Includes memory 1814. Processor 1811 may be wired to system 2102 by cable 1850 and plug 1852. Left and/or right targets 1806L, 1806R are similarly created on the left and/or right display devices 1812L, 1812R so that the stand-alone eye scanner 2101 can respond to eye micro-movements of one or both eyes of the user. Users can be authenticated non-invasively.

Claims (20)

생체 인식 기술을 활용한 전자 안경 장치로서,
적어도 하나의 디스플레이;
상기 디스플레이와 결합되는 프레임(1802);
상기 프레임과 결합되어 사용자 신체의 일부에 착용할 수 있는 고정부(1803);
사전 설정된 샘플링 주파수로 사용자 신체의 부분에서 신경 근육톤(neuro-muscular tone)을 포함하는 사용자의 적어도 하나의 움직임(movement) 정보를 획득(capture)하는 움직임 정보 획득 장치;
상기움직임 정보 획득 장치와 전기적으로 연결되는 프로세서; 및
상기 프로세서와 전기적으로 연결되고, 사용자를 식별하기 위한 고유한 특성값과 연관된 정보를 저장하도록 구성된 저장 장치를 포함하며,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 움직임 정보 획득 장치를 이용하여 제 1 사전 설정된 시간 범위 동안 사전 설정된 샘플링 주파수로 신경 근육톤을 포함하는 사용자의 적어도 하나의 제 1 움직임 정보를 획득하게 하고,
상기 획득된 사용자의 적어도 하나의 제 1 움직임 정보들 중에서, 제 1 움직임 정보 획득 초기 부분의 정보 중에서 제 2 사전 설정된 시간 범위 동안의 신호 정보를 제거하게 하고,
제 2 사전 설정된 시간 범위 동안의 신호 정보가 제거된 적어도 하나의 제 1 움직임 정보들로부터, 신경 근육톤의 의식적인 움직임(voluntary movement)과 연관된 신호 성분을 억제하여, 신경 근육톤의 제 1 무의식적인 움직임(non-voluntary movement) 정보를 획득하게 하고,
상기 획득된 신경 근육톤의 제 1 무의식적인 움직임 정보에 기초하여 신경 근육톤과 연관된, 미리 측정 가능하고 사용자를 식별할 수 있는 수학적 성질을 포함하는 적어도 하나의 제 1 고유한 특성값을 추출하게 하고,
상기 적어도 하나의 제 1 고유한 특성값을 다차원 벡터 형태의 자료로 형성하게 하고,
상기 적어도 하나의 제 1 고유한 특성값에 기초하여 적어도 하나 이상의 예측 모델들을 선택하고, 적어도 하나 이상의 예측 모델들의 제 1 파라미터를 추출하게 하고,
사전에 준비된 고유한 특성값들을 기반으로 하여 상기 적어도 하나 이상의 예측 모델들의 성능 평가를 수행하게 하는
명령어들을 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
An electronic glasses device utilizing biometric recognition technology,
at least one display;
A frame 1802 coupled to the display;
A fixing part 1803 that is coupled to the frame and can be worn on a part of the user's body;
a movement information acquisition device for capturing at least one movement information of a user including neuro-muscular tone in a part of the user's body at a preset sampling frequency;
a processor electrically connected to the movement information acquisition device; and
A storage device electrically connected to the processor and configured to store information associated with a unique characteristic value for identifying a user,
The storage device, when executed, the processor,
Obtain at least one first movement information of the user including neuromuscular tone at a preset sampling frequency during a first preset time range using the movement information acquisition device,
Remove signal information for a second preset time range from among the at least one first motion information of the user obtained, from information in the initial part of acquiring the first motion information,
From the at least one first movement information from which the signal information for a second preset time range has been removed, suppress the signal component associated with the conscious movement of the neuromuscular tone, thereby producing the first involuntary movement of the neuromuscular tone. Obtain non-voluntary movement information,
extract at least one first unique characteristic value associated with the neuromuscular tone based on the obtained first involuntary movement information of the neuromuscular tone, including a mathematical property that is measurable in advance and can identify the user; ,
Forming the at least one first unique characteristic value into data in the form of a multidimensional vector,
Select at least one prediction model based on the at least one first unique characteristic value and extract first parameters of the at least one prediction model,
Performing performance evaluation of the at least one prediction model based on unique characteristic values prepared in advance
storing commands
Electronic glasses device utilizing biometric recognition technology.
제 1 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 제 1 고유한 특성값에 기초하여 제 1 신경-역학적 지문(neuro-mechanical fingerprint)을 생성하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 1,
The storage device, when executed, the processor,
Additional storing instructions for generating a first neuro-mechanical fingerprint based on the first unique characteristic value
Electronic glasses device utilizing biometric recognition technology.
제 1 항에 있어서,
상기 프로세서는, 적어도 하나 이상의 전력 모드를 구비한
생체 인식 기술을 활용한 전자 안경 장치
According to claim 1,
The processor has at least one power mode
Electronic glasses device using biometric technology
제 1 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 예측 모델의 파라미터를 저장하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 1,
The storage device, when executed, the processor,
Additionally storing a command to store the parameters of the prediction model
Electronic glasses device utilizing biometric recognition technology.
제 3 항에 있어서,
상기 프로세서는, 실행시에, 상기 프로세서가,
사전 설정된 시간 동안의 사용자로 부터의 입력 감지에 기반하여 저전력 모드로 진입하는 명령어를 추가로 구비한
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 3,
When running, the processor:
It is additionally equipped with a command to enter low-power mode based on detection of input from the user for a preset period of time.
Electronic glasses device utilizing biometric recognition technology.
제 2 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기움직임 정보 획득 장치를 이용하여 제 3 사전 설정된 시간 범위 동안 사전 설정된 샘플링 주파수로 신경 근육톤을 포함하는 사용자의 적어도 하나의 제 2 움직임 정보를 획득하게 하고,
상기 획득된 사용자의 적어도 하나의 제 2 움직임 정보들 중에서 제 4 사전 설정된 시간 범위 동안의 신호 정보를 제거하게 하고,
제 4 사전 설정된 시간 범위 동안의 신호 정보가 제거된 적어도 하나의 제 2 움직임 정보들로부터, 신경 근육톤의 의식적인 움직임과 연관된 신호 성분을 억제하여, 신경 근육톤의 제 2 무의식적인 움직임 정보를 획득하게 하고,
상기 획득된 신경 근육톤의 제 2 무의식적인 움직임 정보에 기초하여, 신경 근육톤과 연관된, 미리 측정 가능하고 사용자를 식별할 수 있는 수학적 성질을 포함하는 적어도 하나의 제 2 고유한 특성값을 추출하게 하고,
상기 적어도 하나의 제 2 고유한 특성값에 기초하여 예측 모델의 제 2 파라미터를 추출하게 하고,
상기 적어도 하나의 제 2 고유한 특성값에 기초하여 제 2 신경-역학적 지문을 생성하게 하는,
명령어들을 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 2,
The storage device, when executed, the processor,
Obtain at least one second movement information of the user including neuromuscular tone at a preset sampling frequency during a third preset time range using the movement information acquisition device,
remove signal information during a fourth preset time range from the at least one second motion information of the user obtained;
Obtaining second involuntary movement information of neuromuscular tone by suppressing signal components associated with conscious movement of neuromuscular tone from at least one second movement information from which signal information during a fourth preset time range has been removed. Let it be done,
Based on the obtained second involuntary movement information of the neuromuscular tone, extract at least one second unique characteristic value associated with the neuromuscular tone, including a mathematical property that is pre-measureable and can identify the user. do,
extract a second parameter of a prediction model based on the at least one second unique characteristic value,
generate a second neuro-mechanical fingerprint based on the at least one second unique characteristic value,
Save additional commands
Electronic glasses device utilizing biometric recognition technology.
제 6 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 제 1 신경-역학적 지문과 연관된 정보와 상기 제 2 신경-역학적 지문과 연관된 정보와의 일치 비율(matching percentage)을 결정하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 6,
The storage device, when executed, the processor,
Further storing instructions for determining a matching percentage between information associated with the first neuro-mechanical fingerprint and information associated with the second neuro-mechanical fingerprint.
Electronic glasses device utilizing biometric recognition technology.
제 7 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 일치 비율이 사전에 설정된 접근(access) 일치 비율과 같거나 높은 경우에 응답하여, 상기 사용자가 사전에 인증된 사용자인지의 여부를 결정하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 7,
The storage device, when executed, the processor,
In response to the case where the match rate is equal to or higher than a preset access match rate, additionally storing a command to determine whether the user is a pre-authenticated user.
Electronic glasses device utilizing biometric recognition technology.
제 8 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 인증된 사용자에게 전자 장치에 대한 접근(access)을 허가하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 8,
The storage device, when executed, the processor,
Additional storage of commands that allow access to the electronic device to the authenticated user.
Electronic glasses device utilizing biometric recognition technology.
제 2 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 제 1 신경-역학적 지문에 기초한 암호화 키(encryption key)를 사용하여 암호화 알고리즘(encryption algorithm)으로 암호화된 데이터(encryption data)를 생성하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 2,
The storage device, when executed, the processor,
Additional storing instructions for generating encryption data with an encryption algorithm using an encryption key based on the first neuro-mechanical fingerprint.
Electronic glasses device utilizing biometric recognition technology.
제 10 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 움직임 정보 획득 장치를 이용하여 제 3 사전 설정된 시간 범위 동안 사전 설정된 샘플링 주파수로주파수로 신경 근육톤을 포함하는 사용자의 적어도 하나의 제 2 움직임 정보를 획득하게 하고,
상기 획득된 사용자의 적어도 하나의 제 2 움직임 정보들 중에서 제 4 사전 설정된 시간 범위 동안의 신호 정보를 제거하게 하고,
제 4 사전 설정된 시간 범위 동안의 신호 정보가 제거된 적어도 하나의 제 2 움직임 정보들로부터, 신경 근육톤의 의식적인 움직임과 연관된 신호 성분을 억제하여, 신경 근육톤의 제 2 무의식적인 움직임 정보를 획득하게 하고,
상기 획득된 신경 근육톤의 제 2 무의식적인 움직임 정보에 기초하여, 신경 근육톤과 연관된 미리 측정 가능하고 사용자를 식별할 수 있는 수학적 성질을 포함하는 적어도 하나의 제 2 고유한 특성값을 추출하게 하고,
상기 적어도 하나의 제 2 고유한 특성값에 기초하여 예측 모델의 제 2 파라미터를 추출하게 하고,
상기 제 2 고유한 특성값에 기초하여 제 2 신경-역학적 지문을 생성하게 하는,
명령어들을 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 10,
The storage device, when executed, the processor,
acquire at least one second movement information of the user including neuromuscular tone at a preset sampling frequency during a third preset time range using the movement information acquisition device;
remove signal information during a fourth preset time range from the at least one second motion information of the user obtained;
Obtaining second involuntary movement information of neuromuscular tone by suppressing signal components associated with conscious movement of neuromuscular tone from at least one second movement information from which signal information during a fourth preset time range has been removed. Let it be done,
Based on the obtained second involuntary movement information of neuromuscular tone, extract at least one second unique characteristic value associated with the neuromuscular tone and comprising a pre-measurable and user-identifiable mathematical property; ,
extract a second parameter of a prediction model based on the at least one second unique characteristic value,
generating a second neuro-mechanical fingerprint based on the second unique characteristic value,
Save additional commands
Electronic glasses device utilizing biometric recognition technology.
제 11 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 제 1 신경-역학적 지문과 연관된 정보와 상기 제 2 신경-역학적 지문과 연관된 정보와의 일치 비율을 결정하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 11,
The storage device, when executed, the processor,
Additional storing instructions for determining a match rate between information associated with the first neuro-mechanical fingerprint and information associated with the second neuro-mechanical fingerprint.
Electronic glasses device utilizing biometric recognition technology.
제 12 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 일치 비율이 사전에 설정된 접근 일치 비율과 같거나 높은 경우에, 상기 제 1 신경-역학적 지문을 사용하여 상기 암호화된 데이터를 해독(decryption)하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 12,
The storage device, when executed, the processor,
If the match rate is equal to or higher than a preset access match rate, additionally storing instructions for decrypting the encrypted data using the first neuro-mechanical fingerprint.
Electronic glasses device utilizing biometric recognition technology.
제 13 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 암호화된 데이터를 원격 서버에 전송하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 13,
The storage device, when executed, the processor,
Additional storage of commands for transmitting the encrypted data to a remote server
Electronic glasses device utilizing biometric recognition technology.
제 14 항에 있어서,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 암호화된 데이터를 원격 서버로부터 수신하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치
According to claim 14,
The storage device, when executed, the processor,
Additional storage of commands for receiving the encrypted data from a remote server
Electronic glasses device using biometric technology
제 8 항에 있어서,
도어(door)의 잠금(locking) 또는 잠금 해제(door unlocking)를 제어하는 접근 장치를 더 구비하고,
상기 저장 장치는, 실행시에, 상기 프로세서가,
상기 인증된 사용자인지의 여부에 응답하여, 도어의 잠금 또는 잠금 해제를 제어하게 하는 명령어를 추가로 저장하는
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 8,
Further comprising an access device that controls locking or unlocking the door,
The storage device, when executed, the processor,
In response to whether the user is the authenticated user, additionally storing a command to control the locking or unlocking of the door
Electronic glasses device utilizing biometric recognition technology.
제 1 항에 있어서,
상기 프레임과 결합되는 적어도 하나의 렌즈(1704)를 더 구비한
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 1,
Further comprising at least one lens 1704 coupled to the frame
Electronic glasses device utilizing biometric recognition technology.
제 1 항에 있어서,
상기 프로세서와 전기적으로 연결된 무선 통신 장치(280, 332, 1816, 1919)를 더 구비한
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 1,
Further comprising a wireless communication device (280, 332, 1816, 1919) electrically connected to the processor.
Electronic glasses device utilizing biometric recognition technology.
제 18 항에 있어서,
상기 무선 통신 장치와 전기적으로 연결된 적어도 하나의 RF회로(365) 및 무선장치 안테나(1905)를 더 구비한
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 18,
Further comprising at least one RF circuit 365 and a wireless device antenna 1905 electrically connected to the wireless communication device.
Electronic glasses device utilizing biometric recognition technology.
제 1 항에 있어서,
전자 안경 장치에 전력을 공급하는 전원부; 및
상기 전원부와 전기적으로 연결된 배터리를 더 구비한
생체 인식 기술을 활용한 전자 안경 장치.
According to claim 1,
A power supply unit that supplies power to the electronic glasses device; and
Further comprising a battery electrically connected to the power supply unit.
Electronic glasses device utilizing biometric recognition technology.
KR1020230092171A 2019-01-28 2023-07-17 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same KR102611467B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020230092171A KR102611467B1 (en) 2019-01-28 2023-07-17 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same
KR1020230172456A KR102646298B1 (en) 2019-01-28 2023-12-01 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190010816A KR102504526B1 (en) 2019-01-28 2019-01-28 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same
KR1020230023286A KR102558210B1 (en) 2019-01-28 2023-02-22 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same
KR1020230092171A KR102611467B1 (en) 2019-01-28 2023-07-17 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020230023286A Division KR102558210B1 (en) 2019-01-28 2023-02-22 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230172456A Division KR102646298B1 (en) 2019-01-28 2023-12-01 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same

Publications (2)

Publication Number Publication Date
KR20230121964A KR20230121964A (en) 2023-08-22
KR102611467B1 true KR102611467B1 (en) 2023-12-08

Family

ID=72041807

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020190010816A KR102504526B1 (en) 2019-01-28 2019-01-28 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same
KR1020230023286A KR102558210B1 (en) 2019-01-28 2023-02-22 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same
KR1020230092171A KR102611467B1 (en) 2019-01-28 2023-07-17 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same
KR1020230172456A KR102646298B1 (en) 2019-01-28 2023-12-01 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020190010816A KR102504526B1 (en) 2019-01-28 2019-01-28 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same
KR1020230023286A KR102558210B1 (en) 2019-01-28 2023-02-22 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230172456A KR102646298B1 (en) 2019-01-28 2023-12-01 An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same

Country Status (1)

Country Link
KR (4) KR102504526B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533801A (en) 2000-05-16 2003-11-11 スイスコム・モバイル・アクチエンゲゼルシヤフト Biometric identification and authentication methods
US20160241554A1 (en) * 2015-02-04 2016-08-18 Aerendir Mobile Inc. Local user authentication with neuro and neuro-mechanical fingerprints

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544359B2 (en) * 2016-11-08 2023-01-03 Proprius Technolgies S.A.R.L Unique patterns extracted from involuntary eye motions to identify individuals
KR102655737B1 (en) * 2016-11-30 2024-04-05 삼성전자주식회사 Apparatus and method for estimating substance in body

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533801A (en) 2000-05-16 2003-11-11 スイスコム・モバイル・アクチエンゲゼルシヤフト Biometric identification and authentication methods
US20160241554A1 (en) * 2015-02-04 2016-08-18 Aerendir Mobile Inc. Local user authentication with neuro and neuro-mechanical fingerprints

Also Published As

Publication number Publication date
KR20230121964A (en) 2023-08-22
KR20230040962A (en) 2023-03-23
KR20200093392A (en) 2020-08-05
KR102504526B1 (en) 2023-02-28
KR20230169039A (en) 2023-12-15
KR102558210B1 (en) 2023-07-21
KR102646298B1 (en) 2024-03-11

Similar Documents

Publication Publication Date Title
TWI726864B (en) Method to locally authenticate authorized user and control access to an electronic device, method for user authentication, electronic device, physiological authentication controller, method of generating a unique physiological identification of a user, and method of logging into a system or application
EP4024351B1 (en) Biometric system
Li et al. Whose move is it anyway? Authenticating smart wearable devices using unique head movement patterns
US20230083361A1 (en) Unique patterns extracted from involuntary eye motions to identify individuals
AU2015255652B2 (en) Systems and methods for using eye signals with secure mobile communications
US10045718B2 (en) Method and apparatus for user-transparent system control using bio-input
Luo et al. OcuLock: Exploring human visual system for authentication in virtual reality head-mounted display
TWI708205B (en) Method, system, and electronic device for monitoring a user for neurodegenerative diseases, drinking alcohol and heart rhythm variability
US20180103917A1 (en) Head-mounted display eeg device
US20150294149A1 (en) Multivariate Dynamic Biometrics System
KR102132612B1 (en) User authentication method using biometrics technology and authentication device
KR20230058440A (en) Electronic device with static artificial intelligence model for external situations including age blocking for vaping and ignition start using data analysis and its operating method
KR102611467B1 (en) An apparatus related to user identification, authentication, encryption using biometrics technology and method for operation the same
Hanna Wearable Hybrid Brain Computer Interface as a Pathway for Environmental Control
CN117332256A (en) Intention recognition method, device, computer equipment and storage medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant