KR102296838B1 - Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal - Google Patents

Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal Download PDF

Info

Publication number
KR102296838B1
KR102296838B1 KR1020190098066A KR20190098066A KR102296838B1 KR 102296838 B1 KR102296838 B1 KR 102296838B1 KR 1020190098066 A KR1020190098066 A KR 1020190098066A KR 20190098066 A KR20190098066 A KR 20190098066A KR 102296838 B1 KR102296838 B1 KR 102296838B1
Authority
KR
South Korea
Prior art keywords
signal
peripheral nerve
eeg signal
eeg
user
Prior art date
Application number
KR1020190098066A
Other languages
Korean (ko)
Other versions
KR20210019205A (en
Inventor
현정근
박성민
Original Assignee
단국대학교 천안캠퍼스 산학협력단
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 단국대학교 천안캠퍼스 산학협력단, 포항공과대학교 산학협력단 filed Critical 단국대학교 천안캠퍼스 산학협력단
Priority to KR1020190098066A priority Critical patent/KR102296838B1/en
Publication of KR20210019205A publication Critical patent/KR20210019205A/en
Application granted granted Critical
Publication of KR102296838B1 publication Critical patent/KR102296838B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2/72Bioelectric control, e.g. myoelectric
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4029Detecting, measuring or recording for evaluating the nervous system for evaluating the peripheral nervous systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/54Artificial arms or hands or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/60Artificial legs or feet or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2002/5016Prostheses not implantable in the body adjustable
    • A61F2002/5036Prostheses not implantable in the body adjustable self-adjustable, e.g. self-learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2002/704Operating or control means electrical computer-controlled, e.g. robotic control

Abstract

본 발명의 일 실시예에 따른 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법은, 사용자가 기 설정된 동작 수행 시에, 상기 사용자의 말초신경 신호 및 뇌파 신호를 획득하는 단계; 기계학습모델에 의해 상기 말초신경 신호를 기반으로 상기 뇌파 신호를 학습하는 단계; 상기 사용자의 뇌파 신호를 실시간으로 획득하는 단계; 및 상기 기계학습모델에 의해 실시간으로 획득한 뇌파 신호를 이용하여 상기 사용자의 동작 의도를 판별하는 단계를 포함할 수 있다.In accordance with an embodiment of the present invention, there is provided a method for determining an operation intention in conjunction with an EEG signal and a peripheral nerve signal, the method comprising: obtaining a peripheral nerve signal and an EEG signal of the user when a user performs a preset operation; learning the EEG signal based on the peripheral nerve signal by a machine learning model; acquiring the EEG signal of the user in real time; and determining the user's intention to operate by using the EEG signal acquired in real time by the machine learning model.

Description

뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법 및 의지 제어 방법 {Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal}{Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal}

본 출원은 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법 및 의지 제어 방법에 관한 것이다.The present application relates to a method for determining a motion intention in conjunction with an EEG signal and a peripheral nerve signal and a method for controlling the will.

신체의 일부가 절단된 환자들을 위해 의수, 의족 등을 포함하는 의지가 널리 활용되고 있다.A prosthesis including a prosthetic arm, a prosthetic leg, and the like is widely used for patients whose body parts have been amputated.

이와 같은 의지는 제어 방식에 따라 근전 의지(Myoelectric prosthesis), 뇌-기계 인터페이스(Brain-machine interface), 근육 신경재분포술(Targeted muscle reinnervation), 신경조절형 의지(Neural control prosthesis) 등으로 구분될 수 있다.Such a prosthesis can be divided into Myoelectric prosthesis, Brain-machine interface, Targeted muscle reinnervation, Neural control prosthesis, etc. depending on the control method. have.

그러나, 이와 같은 기존의 의지 제어 기술들은 의지의 자연스러운 제어가 어렵거나, 신호 처리가 복잡하거나, 비영구적으로 활용되기 어렵다는 등의 한계가 존재한다.However, such existing prosthetic control techniques have limitations in that natural control of the prosthesis is difficult, signal processing is complicated, or it is difficult to use non-permanently.

공개특허공보 제10-2018-0109451호(2018.10.08. 공개)Publication No. 10-2018-0109451 (published on Oct. 8, 2018) 일본 공표특허공보 특표2014-528800호(2014.10.30. 공표)Japanese Patent Publication No. 2014-528800 (published on October 30, 2014)

따라서, 당해 기술분야에서는 기존의 의지 제어 기술의 한계를 극복하기 위한 방안이 요구되고 있다.Accordingly, there is a need in the art for a method for overcoming the limitations of the existing will control technology.

상기 과제를 해결하기 위해서, 본 발명의 일 실시예는 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법을 제공한다.In order to solve the above problems, an embodiment of the present invention provides a method for determining the intention of operation in conjunction with the EEG signal and the peripheral nerve signal.

상기 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법은, 사용자가 기 설정된 동작 수행 시에, 상기 사용자의 말초신경 신호 및 뇌파 신호를 획득하는 단계; 기계학습모델에 의해 상기 말초신경 신호를 기반으로 상기 뇌파 신호를 학습하는 단계; 상기 사용자의 뇌파 신호를 실시간으로 획득하는 단계; 및 상기 기계학습모델에 의해 실시간으로 획득한 뇌파 신호를 이용하여 상기 사용자의 동작 의도를 판별하는 단계를 포함할 수 있다.The method for determining an operation intention in conjunction with the EEG signal and the peripheral nerve signal includes: acquiring the user's peripheral nerve signal and the EEG signal when the user performs a preset operation; learning the EEG signal based on the peripheral nerve signal by a machine learning model; acquiring the EEG signal of the user in real time; and determining the user's intention to operate by using the EEG signal acquired in real time by the machine learning model.

또한, 본 발명의 다른 실시예는 뇌파신호 및 말초신경신호를 연동한 의지 제어 방법을 제공한다.In addition, another embodiment of the present invention provides a will control method in conjunction with an EEG signal and a peripheral nerve signal.

상기 뇌파신호 및 말초신경신호를 연동한 의지 제어 방법은, 사용자가 기 설정된 동작 수행 시에, 상기 사용자의 말초신경 신호 및 뇌파 신호를 획득하는 단계; 기계학습모델에 의해 상기 말초신경 신호를 기반으로 상기 뇌파 신호를 학습하는 단계; 상기 사용자의 뇌파 신호를 실시간으로 획득하는 단계; 상기 기계학습모델에 의해 실시간으로 획득한 뇌파 신호를 이용하여 상기 사용자의 동작 의도를 판별하는 단계; 및 판별된 상기 사용자의 동작 의도를 기초로 의지 제어 신호를 생성하는 단계를 포함할 수 있다.The will control method interlocking the EEG signal and the peripheral nerve signal includes: acquiring the user's peripheral nerve signal and the EEG signal when the user performs a preset operation; learning the EEG signal based on the peripheral nerve signal by a machine learning model; acquiring the EEG signal of the user in real time; determining the user's intention to operate by using the EEG signal acquired in real time by the machine learning model; and generating a will control signal based on the determined operation intention of the user.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.Incidentally, the means for solving the above problems do not enumerate all the features of the present invention. Various features of the present invention and its advantages and effects may be understood in more detail with reference to the following specific embodiments.

본 발명의 일 실시예에 따르면, 사용자가 특정 동작 수행시에 동시에 획득한 말초신경 신호를 기반으로 뇌파 신호를 학습함으로써, 이후에는 뇌파 신호만을 이용하여 사용자의 동작 의도를 정확하게 판별할 수 있고, 이를 기초로 사용자가 의도하는 바에 따라 자연스럽게 동작하도록 의지를 제어할 수 있다.According to an embodiment of the present invention, by learning an EEG signal based on a peripheral nerve signal simultaneously acquired when a user performs a specific operation, it is possible to accurately determine the user's intention of operation thereafter using only the EEG signal. Based on the user's intention, the will can be controlled to operate naturally.

도 1은 본 발명의 일 실시예에 따른 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법의 흐름도이다.
도 2는 도 1에 도시된 S200 단계의 상세 흐름도이다.
도 3은 본 발명의 일 실시예에 따라 말초신경 신호로부터 제1 특징 인자를 추출하는 과정을 도시하는 도면이다.
도 4는 본 발명의 일 실시예에 따라 뇌파 신호로부터 제2 특징 인자를 추출하는 과정을 도시하는 도면이다.
도 5는 뇌파 신호로부터 시간-주파수 2차원 이미지를 생성한 일 예를 도시하는 도면이다.
도 6는 본 발명의 다른 실시예에 따른 뇌파신호 및 말초신경신호를 연동한 의지 제어 방법의 흐름도이다.
1 is a flowchart of a method for determining an operation intention in conjunction with an EEG signal and a peripheral nerve signal according to an embodiment of the present invention.
FIG. 2 is a detailed flowchart of step S200 shown in FIG. 1 .
3 is a diagram illustrating a process of extracting a first characteristic factor from a peripheral nerve signal according to an embodiment of the present invention.
4 is a diagram illustrating a process of extracting a second characteristic factor from an EEG signal according to an embodiment of the present invention.
5 is a diagram illustrating an example of generating a time-frequency two-dimensional image from an EEG signal.
6 is a flowchart of a will control method in which an EEG signal and a peripheral nerve signal are interlocked according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail so that those of ordinary skill in the art can easily practice the present invention with reference to the accompanying drawings. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the same reference numerals are used throughout the drawings for parts having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is 'connected' with another part, it is not only 'directly connected' but also 'indirectly connected' with another element interposed therebetween. include In addition, 'including' a certain component means that other components may be further included, rather than excluding other components, unless otherwise stated.

도 1은 본 발명의 일 실시예에 따른 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법의 흐름도이고, 도 2는 도 1에 도시된 S200 단계의 상세 흐름도이다.1 is a flowchart of a method for determining an operation intention in conjunction with an EEG signal and a peripheral nerve signal according to an embodiment of the present invention, and FIG. 2 is a detailed flowchart of step S200 shown in FIG.

도 1을 참조하면, 우선, 사용자가 기 설정된 동작 수행 시에 사용자의 말초신경 신호 및 뇌파 신호를 획득할 수 있다(S100). 일 실시예에 따르면, 사용자의 말초신경에 침습 고정되는 침전극에 의해 말초신경 신호를 획득하고, 사용자의 두상부에 비침습적으로 구비되는 전극에 의해 뇌파 신호를 획득할 수 있다. 그러나, 말초신경 신호 및 뇌파 신호를 획득하는 방법이 이로 한정되는 것은 아니며, 통상의 기술자에게 공지된 다양한 방식에 의해 사용자의 말초신경 신호 및 뇌파 신호를 획득할 수 있다.Referring to FIG. 1 , first, when the user performs a preset operation, the user's peripheral nerve signal and EEG signal may be acquired ( S100 ). According to an embodiment, a peripheral nerve signal may be obtained by a precipitation electrode invasively fixed to the user's peripheral nerve, and an EEG signal may be obtained by an electrode provided non-invasively on the user's upper head. However, the method for acquiring the peripheral nerve signal and the EEG signal is not limited thereto, and the user's peripheral nerve signal and the EEG signal may be obtained by various methods known to those skilled in the art.

여기서, 말초신경 신호는 상대적으로 노이즈가 적고 해상도가 높으나 침전극에 의한 말초신경 신호의 침습적 획득은 영구적으로 사용하기 어렵다는 한계가 있다. 이에 반해, 뇌파 신호는 비침습적이고 영구적으로 획득 가능하나 노이즈가 많다는 단점이 있다.Here, although the peripheral nerve signal has relatively low noise and high resolution, there is a limitation in that it is difficult to permanently use the invasive acquisition of the peripheral nerve signal by the precipitation electrode. On the other hand, EEG signals are non-invasive and permanently obtainable, but have a disadvantage in that they contain a lot of noise.

이에, 본 발명에서는 말초신경 신호와 뇌파 신호를 연동하여 양 신호 사이의 상관 관계를 기계학습모델에 의해 분석하고, 이후에는 영구적으로 획득 가능한 뇌파 신호만을 이용하여 동작 의도를 판별하는 기술을 제안한다. 다시 말해, 기계학습모델에 의해 비교적 정확한 말초신경 신호를 기반으로 노이즈가 많은 뇌파 신호를 학습하도록 함으로써 뇌파 신호 학습의 정확도를 보다 향상시킬 수 있다.Therefore, the present invention proposes a technique for analyzing a correlation between a peripheral nerve signal and an EEG signal by linking the two signals by a machine learning model, and then determining an operation intention using only an EEG signal that can be permanently obtained. In other words, the accuracy of EEG signal learning can be further improved by allowing the machine learning model to learn noisy EEG signals based on relatively accurate peripheral nerve signals.

이후, 기계학습모델에 의해 말초신경 신호를 기반으로 뇌파 신호를 학습할 수 있다(S200).Thereafter, the EEG signal may be learned based on the peripheral nerve signal by the machine learning model (S200).

일 실시예에 따르면, 도 2에 도시된 바와 같이, 말초신경 신호 및 뇌파 신호로부터 각각 제1 및 제2 특징 인자를 추출하고(S210), 추출한 제1 및 제2 특징 인자를 각각 이용하여 해당 동작에 대한 제1 및 제2 확률 모델을 생성할 수 있으며(S220), 제1 및 제2 확률 모델을 기초로 기계학습모델에 의해 해당 동작 수행시의 말초신경 신호 및 뇌파 신호의 상관 관계를 분석할 수 있다(S230). 이에 대해서는 도 3 내지 도 5를 참조하여 보다 구체적으로 설명한다.According to an embodiment, as shown in FIG. 2 , the first and second characteristic factors are extracted from the peripheral nerve signal and the EEG signal ( S210 ), and the corresponding operation is performed using the extracted first and second characteristic factors, respectively. It is possible to generate first and second probabilistic models for (S220), and to analyze the correlation between peripheral nerve signals and EEG signals when the corresponding operation is performed by a machine learning model based on the first and second probabilistic models. can be (S230). This will be described in more detail with reference to FIGS. 3 to 5 .

도 3은 본 발명의 일 실시예에 따라 말초신경 신호로부터 제1 특징 인자를 추출하는 과정을 도시하는 도면이다.3 is a diagram illustrating a process of extracting a first characteristic factor from a peripheral nerve signal according to an embodiment of the present invention.

도 3을 참조하면, 말초신경 신호로부터 제1 특징 인자를 추출하기 위해, 우선, 말초신경 신호에 대한 전처리를 수행하여 DC 성분을 제거할 수 있다(S211).Referring to FIG. 3 , in order to extract the first characteristic factor from the peripheral nerve signal, the DC component may be removed by first performing preprocessing on the peripheral nerve signal ( S211 ).

이후, 전처리된 말초신경 신호로부터 전극별 엔트로피를 추출할 수 있다(S212). 구체적으로 설명하면, 정보량은 어떠한 사건 발생 후에 얻는 놀라움의 양(degree of surprise)으로 예측이 불가능할수록(즉, 더 드물게 나타날수록) 정보량은 증가하게 된다. 엔트로피(entropy)는 이러한 정보량의 기대값으로 수학식 1에 따라 산출할 수 있다. 여기서, m은 인자의 집합이고, M은 인자의 개수이며, p는 발생 확률을 나타내고, x는 신호를 나타낸다.Thereafter, entropy for each electrode may be extracted from the preprocessed peripheral nerve signal (S212). Specifically, the amount of information is the amount of surprise obtained after an event occurs, and the more unpredictable (that is, the more rarely it appears), the greater the information amount. Entropy is an expected value of this amount of information and can be calculated according to Equation (1). Here, m is a set of factors, M is the number of factors, p represents the probability of occurrence, and x represents a signal.

[수학식 1][Equation 1]

Figure 112019082328580-pat00001
Figure 112019082328580-pat00001

이후, 전극별 엔트로피를 기초로 엔트로피 히스토그램을 생성할 수 있다(S213). Thereafter, an entropy histogram may be generated based on the entropy of each electrode ( S213 ).

다시 말해, 일 실시예에 따르면, 말초신경 신호로부터 제1 특징 인자로서 엔트로피 히스토그램을 생성할 수 있다. In other words, according to an embodiment, an entropy histogram may be generated from the peripheral nerve signal as the first characteristic factor.

도 4는 본 발명의 일 실시예에 따라 뇌파 신호로부터 제2 특징 인자를 추출하는 과정을 도시하는 도면이다.4 is a diagram illustrating a process of extracting a second characteristic factor from an EEG signal according to an embodiment of the present invention.

도 4를 참조하면, 뇌파 신호로부터 제2 특징 인자를 추출하기 위해, 우선, 뇌파 신호에 대한 전처리를 수행할 수 있다(S214). 예를 들어, 웨이블릿 변환(Wavelet transform) 등에 의해 전처리를 수행하여 노이즈를 제거할 수 있다.Referring to FIG. 4 , in order to extract the second characteristic factor from the EEG signal, preprocessing may be performed on the EEG signal ( S214 ). For example, noise may be removed by performing preprocessing by wavelet transform or the like.

이후, 전처리된 뇌파 신호를 기초로 시간-주파수 2차원 이미지를 생성할 수 있다(S215). 구체적으로, 각 채널별로 획득한 뇌파 신호에 대해 단시간 푸리에 변환(STFT; Short-time Fourier transform)을 적용하고, 주파수 축에서 운동 감각 피질과 관련 있는 채널의 관련 주파수 대역, 즉 mu 대역(8~13Hz), bata 대역(17~30Hz)만을 추출하여 시간-주파수 2차원 이미지를 생성할 수 있다.Thereafter, a time-frequency two-dimensional image may be generated based on the preprocessed EEG signal (S215). Specifically, short-time Fourier transform (STFT) is applied to the EEG signal acquired for each channel, and the frequency band of the channel related to the kinesthetic cortex on the frequency axis, that is, the mu band (8~13Hz) ), it is possible to generate a time-frequency two-dimensional image by extracting only the bata band (17-30Hz).

도 5는 뇌파 신호로부터 시간-주파수 2차원 이미지를 생성한 일 예를 도시하는 도면으로, 도 5의 (a)는 하나의 채널에서 획득한 뇌파 신호에 대해 시간-주파수 분석 결과 이미지를 도시하는 것이고, (b)는 운동 감각 피질과 관련 있는 3개의 채널에서 얻은 2차원 이미지를 결합하여 하나의 2차원 이미지로 구성한 예를 도시한다. 도 5에서 색상은 기준 전극에 대한 주파수 영역에서의 푸리에 변환 후 얻어지는 진폭의 상대적 세기를 나타낸다.5 is a diagram showing an example of generating a time-frequency two-dimensional image from an EEG signal, (a) of FIG. 5 shows a time-frequency analysis result image for an EEG signal obtained from one channel , (b) shows an example in which two-dimensional images obtained from three channels related to the kinesthetic cortex are combined to form one two-dimensional image. In FIG. 5 , the color represents the relative intensity of the amplitude obtained after the Fourier transform in the frequency domain with respect to the reference electrode.

다시 말해, 일 실시예에 따르면, 뇌파 신호로부터 제2 특징 인자로서 시간-주파수 2차원 이미지를 생성할 수 있다.In other words, according to an embodiment, a time-frequency two-dimensional image may be generated from the EEG signal as the second characteristic factor.

한편, S220 단계에서, 추출한 제1 및 제2 특징 인자를 각각 이용하여 해당 동작에 대한 제1 및 제2 확률 모델을 생성하기 위해서, 제1 특징 인자에 대해서는 예를 들어 가우시안 혼합 모델을 적용하여 제1 확률 모델을 생성하고, 제2 특징 인자에 대해서는 예를 들어 CNN(Convolutional Neural Network) 기법을 적용하여 제2 확률 모델을 생성할 수 있다.Meanwhile, in step S220, in order to generate first and second probabilistic models for a corresponding operation using the extracted first and second feature factors, respectively, for the first feature factor, for example, a Gaussian mixture model is applied to A first probabilistic model may be generated, and a second probabilistic model may be generated by applying, for example, a convolutional neural network (CNN) technique to the second feature factor.

이후, S230 단계에서는, 상술한 바에 따라 생성된 제1 확률 모델 및 제2 확률 모델을 기초로 기계학습모델에 의해 말초신경 신호와 뇌파 신호 사이의 상관 관계를 학습할 수 있다.Thereafter, in step S230, the correlation between the peripheral nerve signal and the EEG signal may be learned by the machine learning model based on the first and second probability models generated as described above.

상술한 S100 및 S200 단계는 본 발명에 의해 동작 의도를 판별하고자 하는 복수의 동작에 대해 반복적으로 수행될 수 있다.Steps S100 and S200 described above may be repeatedly performed for a plurality of operations for which operation intention is to be determined according to the present invention.

이후, 사용자의 뇌파 신호를 실시간으로 획득하고(S300), 상술한 기계학습모델에 의해 실시간으로 획득한 뇌파 신호를 이용하여 사용자의 동작 의도를 판별할 수 있다(S400).Thereafter, the user's brain wave signal is acquired in real time (S300), and the user's operation intention can be determined using the brain wave signal acquired in real time by the above-described machine learning model (S400).

도 6는 본 발명의 다른 실시예에 따른 뇌파신호 및 말초신경신호를 연동한 의지 제어 방법의 흐름도이다.6 is a flowchart of a will control method in which an EEG signal and a peripheral nerve signal are interlocked according to another embodiment of the present invention.

도 6을 참조하면, S100 내지 S400 단계는 도 1 내지 도 5를 참조하여 상술한 바와 동일하므로 이에 대한 중복적인 설명은 생략한다.Referring to FIG. 6 , since steps S100 to S400 are the same as those described above with reference to FIGS. 1 to 5 , a redundant description thereof will be omitted.

이후, S100 내지 S400 단계를 거치면서 판별된 상기 사용자의 동작 의도를 기초로 의지 제어 신호를 생성할 수 있다(S500).Thereafter, a will control signal may be generated based on the user's operation intention determined through steps S100 to S400 ( S500 ).

도 1을 참조하여 상술한 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법 및 도 6을 참조하여 상술한 뇌파신호 및 말초신경신호를 연동한 의지 제어 방법은 신호 처리 및 기계학습모델에 의한 학습 및 분석이 가능한 프로세싱 장치에 의해 수행될 수 있다.The method for determining the operation intention in conjunction with the EEG signal and peripheral nerve signal described above with reference to FIG. 1 and the method for controlling the will by interworking the EEG signal and the peripheral nerve signal described above with reference to FIG. 6 are learning by signal processing and machine learning model and a processing device capable of analysis.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above embodiments and the accompanying drawings. For those of ordinary skill in the art to which the present invention pertains, it will be apparent that the components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.

Claims (5)

사용자가 기 설정된 동작 수행 시에, 상기 사용자의 말초신경 신호 및 뇌파 신호를 획득하는 단계;
기계학습모델에 의해 상기 말초신경 신호를 기반으로 상기 뇌파 신호를 학습하여 상기 말초신경 신호와 상기 뇌파 신호의 상관 관계를 분석하는 단계;
상기 사용자의 뇌파 신호를 실시간으로 획득하는 단계; 및
상기 기계학습모델에 의해 실시간으로 획득한 뇌파 신호를 이용하여 상기 사용자의 동작 의도를 판별하는 단계를 포함하는 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법.
acquiring a peripheral nerve signal and an EEG signal of the user when the user performs a preset operation;
analyzing the correlation between the peripheral nerve signal and the EEG signal by learning the EEG signal based on the peripheral nerve signal by a machine learning model;
acquiring the EEG signal of the user in real time; and
A method of determining an operation intention in conjunction with an EEG signal and a peripheral nerve signal, comprising the step of determining the user's operation intention by using the EEG signal obtained in real time by the machine learning model.
제 1 항에 있어서, 상기 말초신경 신호를 기반으로 상기 뇌파 신호를 학습하는 단계는,
상기 말초신경 신호 및 상기 뇌파 신호로부터 각각 제1 및 제2 특징 인자를 추출하는 단계;
상기 제1 및 제2 특징 인자를 각각 이용하여 상기 동작에 대한 제1 및 제2 확률 모델을 생성하는 단계; 및
상기 제1 및 제2 확률 모델을 기초로 상기 기계학습모델에 의해 상기 동작 수행시의 상기 말초신경 신호 및 상기 뇌파 신호의 상관 관계를 분석하는 단계를 포함하는 것을 특징으로 하는 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법.
According to claim 1, wherein the step of learning the EEG signal based on the peripheral nerve signal,
extracting first and second characteristic factors from the peripheral nerve signal and the EEG signal, respectively;
generating first and second probabilistic models for the operation using the first and second characteristic factors, respectively; and
EEG signal and peripheral nerve signal comprising the step of analyzing the correlation between the peripheral nerve signal and the EEG signal when the operation is performed by the machine learning model based on the first and second probabilistic models A method for determining the intention of an operation in conjunction with
제 2 항에 있어서, 상기 제1 및 제2 특징 인자를 추출하는 단계는,
상기 말초신경 신호에 대한 전처리를 수행하는 단계;
전처리된 말초신경 신호로부터 전극별 엔트로피를 추출하는 단계; 및
상기 전극별 엔트로피를 기초로 엔트로피 히스토그램을 생성하는 단계를 포함하는 것을 특징으로 하는 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법.
The method of claim 2, wherein the extracting of the first and second characteristic factors comprises:
performing pre-processing on the peripheral nerve signal;
extracting entropy for each electrode from the preprocessed peripheral nerve signal; and
An operation intention determination method in conjunction with an EEG signal and a peripheral nerve signal, comprising the step of generating an entropy histogram based on the entropy for each electrode.
제 2 항에 있어서, 상기 제1 및 제2 특징 인자를 추출하는 단계는,
상기 뇌파 신호에 대한 전처리를 수행하는 단계; 및
전처리된 뇌파 신호를 기초로 시간-주파수 2차원 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 뇌파신호 및 말초신경신호를 연동한 동작 의도 판별 방법.
The method of claim 2, wherein the extracting of the first and second characteristic factors comprises:
performing pre-processing on the EEG signal; and
Based on the pre-processed EEG signal, the method for determining the operation intention in conjunction with the EEG signal and the peripheral nerve signal, characterized in that it comprises the step of generating a time-frequency two-dimensional image.
사용자가 기 설정된 동작 수행 시에, 상기 사용자의 말초신경 신호 및 뇌파 신호를 획득하는 단계;
기계학습모델에 의해 상기 말초신경 신호를 기반으로 상기 뇌파 신호를 학습하여 상기 말초신경 신호와 상기 뇌파 신호의 상관 관계를 분석하는 단계;
상기 사용자의 뇌파 신호를 실시간으로 획득하는 단계;
상기 기계학습모델에 의해 실시간으로 획득한 뇌파 신호를 이용하여 상기 사용자의 동작 의도를 판별하는 단계; 및
판별된 상기 사용자의 동작 의도를 기초로 의지 제어 신호를 생성하는 단계를 포함하는 뇌파신호 및 말초신경신호를 연동한 의지 제어 방법.
acquiring a peripheral nerve signal and an EEG signal of the user when the user performs a preset operation;
analyzing the correlation between the peripheral nerve signal and the EEG signal by learning the EEG signal based on the peripheral nerve signal by a machine learning model;
acquiring the EEG signal of the user in real time;
determining the user's intention to operate by using the EEG signal acquired in real time by the machine learning model; and
A will control method in conjunction with an EEG signal and a peripheral nerve signal, comprising the step of generating a will control signal based on the determined operation intention of the user.
KR1020190098066A 2019-08-12 2019-08-12 Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal KR102296838B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190098066A KR102296838B1 (en) 2019-08-12 2019-08-12 Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190098066A KR102296838B1 (en) 2019-08-12 2019-08-12 Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal

Publications (2)

Publication Number Publication Date
KR20210019205A KR20210019205A (en) 2021-02-22
KR102296838B1 true KR102296838B1 (en) 2021-09-02

Family

ID=74687642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190098066A KR102296838B1 (en) 2019-08-12 2019-08-12 Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal

Country Status (1)

Country Link
KR (1) KR102296838B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014528800A (en) * 2011-10-04 2014-10-30 トーマス ジェームス オクスレイOXLEY, Thomas James Sensing or stimulating tissue activity
KR101626748B1 (en) 2015-08-03 2016-06-14 숭실대학교산학협력단 Apparatus for measuring movement pattern using brainwave and electromyogram and Method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016517325A (en) * 2013-03-15 2016-06-16 サイモン、アダム、ジェイ. Multifaceted physiological stimulation system and signature, and brain health assessment
KR101948417B1 (en) 2017-03-28 2019-02-14 국방과학연구소 Multiple neuro-physiological signal based animal behavior control system and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014528800A (en) * 2011-10-04 2014-10-30 トーマス ジェームス オクスレイOXLEY, Thomas James Sensing or stimulating tissue activity
KR101626748B1 (en) 2015-08-03 2016-06-14 숭실대학교산학협력단 Apparatus for measuring movement pattern using brainwave and electromyogram and Method thereof

Also Published As

Publication number Publication date
KR20210019205A (en) 2021-02-22

Similar Documents

Publication Publication Date Title
Fahimi et al. Generative adversarial networks-based data augmentation for brain–computer interface
Naik et al. Single-channel EMG classification with ensemble-empirical-mode-decomposition-based ICA for diagnosing neuromuscular disorders
JP7372358B2 (en) Association between intentional and unintentional changes in brain state and brain signals
Yang et al. Accurate EMG onset detection in pathological, weak and noisy myoelectric signals
Fang et al. Extracting features from phase space of EEG signals in brain–computer interfaces
Sobahi Denoising of EMG signals based on wavelet transform
Coyle et al. A time-frequency approach to feature extraction for a brain-computer interface with a comparative analysis of performance measures
Zuo et al. Novel hybrid brain–computer interface system based on motor imagery and P300
JP2013516258A (en) Method for determining artificial limb movements from EEG signals
KR101549325B1 (en) Method for control of machine interface
KR101714708B1 (en) Brain-computer interface apparatus using movement-related cortical potential and method thereof
JP2023113965A (en) Data generation apparatus, biological data measurement system, discriminator generation apparatus, data generation method, discriminator generation method, and program
Fatima et al. Towards a low cost Brain-computer Interface for real time control of a 2 DOF robotic arm
Dash et al. Decoding speech from single trial MEG signals using convolutional neural networks and transfer learning
Dzitac et al. Identification of ERD using fuzzy inference systems for brain-computer interface
KR102296838B1 (en) Motion Intention Discrimination Method and Prosthesis Control Method by Linking EEG Signal and Peripheral Nerve Signal
Sutharsan et al. Electroencephalogram signal processing with independent component analysis and cognitive stress classification using convolutional neural networks
Elgharabawy et al. Decoding of finger movement using kinematic model classification and regression model switching
Gabsteiger et al. ICA-based reduction of electromyogenic artifacts in EEG data: comparison with and without EMG data
Hosni et al. Graph-based recurrence quantification analysis of EEG spectral dynamics for motor imagery-based BCIs
KR102155134B1 (en) Apparatus and method for human identification using gait pattern based on emg
Avci et al. Effective SSVEP Frequency Pair Selection over the GoogLeNet Deep Convolutional Neural Network
Rabby et al. Time-frequency based EEG motor imagery signal classification with deep learning networks
Paulraj et al. Fractal feature based detection of muscular and ocular artifacts in EEG signals
Vařeka et al. Off-line analysis of the P300 event-related potential using discrete wavelet transform

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right