KR20200052209A - Apparatus and method for controlling wearable robot by detecting motion intention of users based on brain machine interface - Google Patents

Apparatus and method for controlling wearable robot by detecting motion intention of users based on brain machine interface Download PDF

Info

Publication number
KR20200052209A
KR20200052209A KR1020190094424A KR20190094424A KR20200052209A KR 20200052209 A KR20200052209 A KR 20200052209A KR 1020190094424 A KR1020190094424 A KR 1020190094424A KR 20190094424 A KR20190094424 A KR 20190094424A KR 20200052209 A KR20200052209 A KR 20200052209A
Authority
KR
South Korea
Prior art keywords
brain
motion
intention
brain signal
wearable robot
Prior art date
Application number
KR1020190094424A
Other languages
Korean (ko)
Other versions
KR102276991B1 (en
KR102276991B9 (en
Inventor
이성환
정지훈
이영은
곽노상
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of KR20200052209A publication Critical patent/KR20200052209A/en
Application granted granted Critical
Publication of KR102276991B1 publication Critical patent/KR102276991B1/en
Publication of KR102276991B9 publication Critical patent/KR102276991B9/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • A61B5/04012
    • A61B5/0476
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]

Abstract

A method for controlling a wearable robot by detecting motion intention based on a brain machine interface performed by a computer device, comprises the steps of: (a) applying different tactile stimuli to left feet and right feet of a user wearing the wearable robot, respectively; (b) acquiring a user′s brain signal presented due to imagine motion and the tactile stimuli; (c) determining motion intention corresponding to the brain signal based on the brain signal and a brain signal classifier; (d) transferring an output value of the brain signal classifier and motion intention with respect to each motion to a control command receiver so that the user confirms the output value of the brain signal classifier and the motion intention; and (e) controlling both feet, a walking speed and a walking width of the wearable robot by the control command receiver so that the wearable robot performs a function corresponding to the motion intention. The brain signal classifier includes a motion noise classifier, a walking start intention classifier, and a motion intention classifier generated based on a brain signal collected from the user, and determines whether the motion intention is one of a plurality of motions by passing the brain signal as an input.

Description

뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING WEARABLE ROBOT BY DETECTING MOTION INTENTION OF USERS BASED ON BRAIN MACHINE INTERFACE}A wearable robot control device and method according to the detection of motion intention based on a brain machine interface TECHNICAL FIELD

본 발명은 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치 및 방법에 관한 것이다.The present invention relates to a wearable robot control apparatus and method according to a motion intention detection based on a brain machine interface.

뇌-기계 인터페이스(Brain-machine interface) 기술은 사람의 뇌에서 일어나는 신경 세포들의 활동에 의해 발생하는 신호들을 측정하여 특정한 입력장치 없이 뇌 신호만으로 컴퓨터 및 기계와 같은 출력장치의 제어가 가능하게 하는 기술이다. 뇌-기계 인터페이스는 주로 신체부위의 동작 상상(Motor imagery, MI), 정상상태유발전위(Steady state evoked potential, SSEP), 사건유발전위(Event related potential, ERP) 등의 특정한 뇌 신호 패턴을 유도하여 사용자의 의도를 인식한다. 이러한 뇌-기계 인터페이스는 운동 능력에 장애가 있는 환자들에게 재활 보조 및 재활 훈련 장치로 사용될 수 있다. 특히, 로봇 기술이 발달함에 따라 인체에 착용되어 보행을 돕는 착용형 로봇이 개발되고 있다. 착용형 로봇은 특정한 입력 장치에 의하여 작동된다. 이러한 착용형 로봇이 뇌-기계 인터페이스 기술에 의해 특정한 입력장치 없이 작동될 수 있다. 하지만 착용형 로봇은 착용 후 움직임에 따라 뇌 신호에 왜곡이 일어나는 등 움직임 잡음 성분이 많이 포함되어 사용자의 의도를 인식하는데 어려움을 겪는다. 따라서 움직임 잡음을 효과적으로 제거할 수 있는 기술이 필요하다. 또한 재활 측면에 있어서, 동작 상상은 신경가소성을 증가시켜 뇌 영역의 치료를 돕는 효과가 규명되고 있다. Brain-machine interface technology is a technology that measures signals generated by the activity of nerve cells occurring in the human brain and allows control of output devices such as computers and machines using only brain signals without specific input devices. to be. The brain-machine interface mainly derives specific brain signal patterns such as motor imagery (MI), steady state evoked potential (SSEP), and event related potential (ERP). Recognize the user's intentions. This brain-machine interface can be used as a rehabilitation aid and rehabilitation training device for patients with mobility impairments. In particular, with the development of robot technology, wearable robots that are worn on the human body to help walking are being developed. The wearable robot is operated by a specific input device. Such wearable robots can be operated without specific input devices by means of brain-machine interface technology. However, the wearable robot has difficulty in recognizing the user's intention because it contains a lot of motion noise components, such as distortion in the brain signal according to movement after wearing. Therefore, there is a need for a technique capable of effectively removing motion noise. In addition, in terms of rehabilitation, the effect of imagining motion is increasing neuroplasticity and helping the treatment of brain regions.

그러나 현재 동작 상상 기술은 주로 왼손, 오른손, 발, 혀의 동작 상상만을 구별 가능하며, 특히 발의 동작 상상의 경우, 대뇌의 운동-감각 피질 구조상 오른발과 왼발의 동작 상상을 구별하지 못하는 한계가 있다. 직관적인 보행 로봇의 제어에서는 움직이는 해당 발의 움직임을 상상하거나 집중하는 등의 사용자 의도 검출이 필요하다. 따라서 효율적인 보행 재활에 있어 양 발의 개별적인 분류 기술이 필요하다.However, the current motion imagination technology is mainly able to distinguish only the motion imagination of the left hand, right hand, foot, and tongue, and in particular, in the case of the motion imagination of the foot, there is a limitation that it cannot distinguish the motion imagination of the right foot and the left foot due to the cerebral movement-sensory cortex structure. In the control of the intuitive walking robot, it is necessary to detect the user's intention, such as imagining or focusing on the movement of the corresponding foot. Therefore, in efficient walking rehabilitation, individual classification techniques of both feet are needed.

이와 관련하여 대한민국 특허등록 제10-0696275호(발명의 명칭: 뇌-기계 인터페이스 작동을 위한 무선 시스템 및 그의 제어방법)는 뇌 신호를 사용하여 움직임을 가진 기계 장치의 기능을 제어하는 종래 인터페이스를 개시하고 있다. 또한, 대한민국 특허등록 제10-1566788호(발명의 명칭: 하지기능 및 보행기능을 위한 뇌-컴퓨터 인터페이스를 기반한 기능적 전기자극치료기)는 뇌-기계 인터페이스를 기반으로 보행 재활 훈련 및 보행 보조를 하는 종래 기술을 개시하고 있으며, 대한민국 특허등록 제10-1656739호(발명의 명칭: 뇌파 기반의 착용형 로봇의 제어 장치 및 방법)는 뇌 신호를 사용하여 착용형 로봇을 제어하는 기술을 개시하고 있다. 또한, 대한민국 특허등록 제10-1518575호(발명의 명칭: BCI를 위한 사용자 의도인지 분석 방법)와 대한민국 특허공개 제10-2018-0036503호(발명의 명칭: 뇌 신호 기반 기기 제어를 위한 뇌-컴퓨터 인터페이스 장치 및 방법)는 사용자의 뇌 신호로부터 사용자의 의도를 분석하는 방법을 개시하고 있다. In this regard, Korean Patent Registration No. 10-0696275 (invention name: wireless system for brain-machine interface operation and control method thereof) discloses a conventional interface for controlling the function of a mechanical device having movement using brain signals. Doing. In addition, Republic of Korea Patent Registration No. 10-1566788 (Invention name: functional electric stimulation therapy device based on brain-computer interface for lower limb function and gait function) is based on the brain-machine interface for walking rehabilitation training and walking aid The technology is disclosed, and Korean Patent Registration No. 10-1656739 (Invention name: EEG-based wearable robot control device and method) discloses a technology for controlling a wearable robot using brain signals. In addition, Korea Patent Registration No. 10-1518575 (invention name: user intention analysis method for BCI) and Republic of Korea Patent Publication No. 10-2018-0036503 (invention name: brain-computer for brain signal-based device control) Interface device and method) discloses a method of analyzing a user's intention from a user's brain signal.

그러나 상기 언급된 기술들은 뇌 신호를 이용해 보행 장치를 제어하고, 뇌파를 이용해 사용자 의도를 분석하고 있으나, 직관적으로 의도를 구분하기 어렵다는 점에서 문제가 있다.However, the above-mentioned techniques control a gait device using brain signals and analyze user intentions using brain waves, but there are problems in that it is difficult to intuitively distinguish intentions.

특허 제10-0696275호의 경우는 뇌 신호를 이용하여 운동성을 가진 기계 장치를 원격으로 조정하기 위한 무선 원격 시스템과 그를 제어하는 방법으로써, 기계 장치의 방향 (전-후, 좌-우), 속도 및 다른 적절한 기능 (경적, 전조등, 엔진음 등)을 포함한다. 특허 제10-1566788호의 경우는 뇌-컴퓨터 인터페이스를 이용하여 환자가 하지 기능 및 보행 기능을 훈련하는 전기자극치료기로써, 환자의 재활 훈련을 보조하는 기술이다. 하지만 기계 장치와 직접적인 상호작용을 하는 착용형 로봇이 아니라는 점에서 직관적인 움직임에 따른 사용이 아니라는 점에서 한계가 있다.In the case of Patent No. 10-0696275, a wireless remote system for remotely controlling a motorized machine using a brain signal and a method for controlling the same, the direction of the machine (front-to-back, left-right), speed and Other appropriate functions (horn, headlight, engine sound, etc.) are included. In the case of Patent No. 10-1566788, it is an electric stimulator that trains the patient's lower extremity function and gait function using the brain-computer interface, and is a technology that assists the patient in rehabilitation training. However, there is a limitation in that it is not a wearable robot that directly interacts with a mechanical device and is not used according to an intuitive movement.

특허 제10-1656739호의 경우는 뇌 신호를 이용하여 착용형 로봇을 제어하는 장치 및 방법으로써, 기계가 움직일 때 발생하는 잡음을 제거하는 기술을 포함한다. 하지만 움직임을 직접적으로 상상하는 등 직관적인 태스크가 아니라는 점에서 한계가 있다. Patent No. 10-1656739 is a device and method for controlling a wearable robot using a brain signal, and includes a technique for removing noise generated when the machine moves. However, there is a limitation in that it is not an intuitive task such as imagining the movement directly.

특허 제10-1518575호의 경우는 뇌 신호를 이용하여 사용자의 의도를 분석하는 방법으로써, 사용자의 움직임 상상에 따라 나타나는 특징을 분석하고 그 의도를 파악하는 기술을 포함한다. 또한 특허 제10-2018-0036503호의 경우는 뇌 신호를 이용하여 복수의 사용자 의도를 분석하는 방법으로써, 기 수집된 데이터로 움직임 상상에 따라 나타나는 특징을 통해 복수의 분류기를 가진 분류기 앙상블 기술을 포함한다. 이 기술들은 왼손, 오른손, 발, 혹은 혀의 움직임 상상을 사용하여 사용자 의도를 분류하지만, 왼발, 오른발의 움직임 상상으로 의도를 구분하기 어렵다는 점에서 한계가 있다.Patent No. 10-1518575 is a method of analyzing a user's intention using a brain signal, and includes a technique of analyzing a feature appearing according to the user's movement imagination and grasping the intention. In addition, Patent No. 10-2018-0036503 is a method of analyzing a plurality of user intentions using a brain signal, and includes a classifier ensemble technology having a plurality of classifiers through features that appear according to motion imagination with pre-collected data. . These techniques classify the user's intentions using the left-hand, right-hand, foot, or tongue movement imagination, but have limitations in that it is difficult to distinguish the intention by the left- and right-foot movement imagination.

보다 직관적인 보행 제어를 위해서는 오른발과 왼발을 움직이고자 하는 의도를 구분하는 것이 중요하다. 따라서 뇌 신호에서 오른발 및 왼발의 움직임 의도 분류가 가능한 뇌 신호 기반 착용형 로봇 제어 시스템이 요구된다.For more intuitive walking control, it is important to distinguish the intention to move the right foot and the left foot. Therefore, there is a need for a wearable robot control system based on a brain signal capable of classifying the intention of the right foot and the left foot from the brain signal.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 착용형 로봇의 움직임에 따른 잡음을 제거하고, 사용자의 뇌 신호에서 오른발 및 왼발의 움직임 의도를 각각 분류하여 인식하고, 이에 따라 착용형 로봇을 제어하는 장치 및 방법을 제공하고자 한다.The present invention is to solve the above-described problems of the prior art, removes noise caused by the movement of the wearable robot, classifies and recognizes the motion intention of the right foot and the left foot in the brain signal of the user, and accordingly, the wearable robot It is intended to provide an apparatus and method for controlling the.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 컴퓨터 장치에 의해 수행되는, 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법은 (a) 착용형 로봇을 착용한 사용자의 왼발과 오른발에 각각 다른 촉각 자극을 제시하는 단계; (b) 움직임 동작 상상과 촉각 자극에 의해 발현되는 사용자의 뇌 신호를 획득하는 단계; (c) 뇌 신호 및 뇌 신호 분류기에 기초하여 뇌 신호에 대응하는 움직임 의도를 판단하는 단계; (d) 각 움직임에 대한 뇌 신호 분류기의 출력 값 및 움직임 의도를 사용자가 확인하도록 제어 명령 수신기에 전달하는 단계; 및 (e) 착용형 로봇이 움직임 의도에 대응하는 기능을 수행하도록 제어 명령 수신기에 의해 착용형 로봇의 양발, 보행 속도 및 보행 보폭을 제어하는 단계를 포함하되, 뇌 신호 분류기는, 사용자로부터 기수집된 뇌 신호에 기초하여 생성된 움직임 잡음 분류기, 보행 시작 의도 분류기 및 움직임 의도 분류기를 포함하고, 뇌 신호를 입력으로 통과시켜 움직임 의도가 복수의 움직임 중 어느 하나인지를 판단한다. As a technical means for achieving the above technical problem, the wearable robot control method according to the motion intention detection based on the brain machine interface, which is performed by the computer device according to the first aspect of the present invention, comprises (a) a wearable robot. Presenting different tactile stimuli to the left and right feet of the worn user; (b) acquiring a brain signal of a user expressed by motion imagination and tactile stimulation; (c) determining a motion intention corresponding to the brain signal based on the brain signal and the brain signal classifier; (d) passing the output value and the intention of movement of the brain signal classifier for each movement to a control command receiver for the user to confirm; And (e) controlling the wearable robot's lift, gait speed and gait stride by a control command receiver so that the wearable robot performs a function corresponding to the intention of movement, wherein the brain signal classifier collects signals from the user. It includes a motion noise classifier, a walking start intention classifier, and a motion intention classifier generated based on the generated brain signal, and determines whether the motion intention is one of a plurality of motions by passing the brain signal as an input.

또한, 본 발명의 제 2 측면에 따른 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치는 움직임 의도 검출에 따른 착용형 로봇 제어 프로그램이 저장된 메모리, 및 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하되, 프로세서는 프로그램의 실행에 따라, 착용형 로봇을 착용한 사용자의 왼발과 오른발에 각각 다른 촉각 자극을 제시하고, 움직임 동작 상상과 촉각 자극에 의해 발현되는 사용자의 뇌 신호를 획득하고, 뇌 신호 및 뇌 신호 분류기에 기초하여 뇌 신호에 대응하는 움직임 의도를 판단하고, 각 움직임에 대한 뇌 신호 분류기의 출력 값 및 움직임 의도를 사용자가 확인하도록 제어 명령 수신기에 전달하고, 착용형 로봇이 움직임 의도에 대응하는 기능을 수행하도록 제어 명령 수신기에 의해 착용형 로봇의 양발, 보행 속도 및 보행 보폭을 제어하되, 뇌 신호 분류기는, 사용자로부터 기수집된 뇌 신호에 기초하여 생성된 움직임 잡음 분류기, 보행 시작 의도 분류기 및 움직임 의도 분류기를 포함하고, 뇌 신호를 입력으로 통과시켜 움직임 의도가 복수의 움직임 중 어느 하나인지를 판단한다. In addition, the wearable robot control apparatus according to the motion intention detection based on the brain machine interface according to the second aspect of the present invention includes a memory in which the wearable robot control program according to the motion intention detection is stored, and a processor for executing a program stored in the memory. Included, but the processor, according to the execution of the program, presents different tactile stimuli to the left and right feet of the user wearing the wearable robot, acquires the brain signals of the user expressed by imagination and tactile stimulation, The motion intention corresponding to the brain signal is determined based on the signal and the brain signal classifier, and the output value and the motion intention of the brain signal classifier for each motion are transmitted to the control command receiver to be confirmed by the user, and the wearable robot moves. The amount of wearable robot by the control command receiver to perform the function corresponding to , Controlling the walking speed and the walking stride, the brain signal classifier includes a motion noise classifier, a walking start intention classifier and a motion intention classifier generated based on a brain signal collected from a user, and passes a brain signal as an input It is determined whether the movement intention is one of a plurality of movements.

본 발명은 뇌-기계 인터페이스 기반의 착용형 로봇을 제어함에 있어 사용자가 오른발 및 왼발을 각각 제어 가능하게 한다. 이는 착용형 로봇의 사용자에게 다양한 보행이 가능하게 한다. 이를 통해 하지 마비 환자들의 재활 훈련에서 더욱 다양한 훈련 방법으로써 적용이 가능하며, 보다 능동적이고 참여율이 높은 하지 재활 훈련이 가능하다. The present invention enables the user to control the right foot and the left foot, respectively, in controlling the wearable robot based on the brain-machine interface. This enables various walking to the user of the wearable robot. Through this, it can be applied as a more diverse training method in the rehabilitation training of patients with paralysis of the lower limbs, and a more active and high participation rate of the lower limb rehabilitation is possible.

또한, 본 발명은 뇌 신호를 사용하기 때문에 환자들뿐만이 아니라 정상인을 대상으로 하는 뇌-기계 인터페이스 기반의 다양한 응용 기술로서 사용이 가능하다.In addition, because the present invention uses brain signals, it can be used as a variety of application technologies based on brain-machine interfaces targeting not only patients but also normal people.

도 1은 본 발명의 일 실시예에 따른 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 움직임 의도 검출에 따른 착용형 로봇 제어 시스템의 세부 구성 요소를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 뇌 신호 처리부의 각 단계 별 분류기 및 분류되는 클래스를 도시한 구성도이다.
도 4는 본 발명의 일 실시예에 따른 뇌 신호 처리부의 학습 과정을 설명하기 위한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 뇌 신호 처리부의 실사용 과정을 설명하기 위한 순서도이다.
도 6은 본 발명의 일 실시예에 따른 잡음 제거부의 움직임 잡음 제거 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 움직임 의도 검출부의 구성을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 다리 움직임 인식부의 분석 과정과 인식된 보행 속도 및 보행 보폭의 예를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법을 설명하기 위한 순서도이다.
1 is a block diagram of a wearable robot control system according to motion intention detection based on a brain machine interface according to an embodiment of the present invention.
2 is a view showing detailed components of a wearable robot control system according to motion intention detection according to an embodiment of the present invention.
3 is a block diagram showing a classifier and a class for each step of the brain signal processing unit according to an embodiment of the present invention.
4 is a flow chart for explaining the learning process of the brain signal processing unit according to an embodiment of the present invention.
5 is a flow chart for explaining the actual use process of the brain signal processing unit according to an embodiment of the present invention.
6 is a view for explaining a method for removing motion noise in a noise removing unit according to an embodiment of the present invention.
7 is a view for explaining the configuration of the motion intention detection unit according to an embodiment of the present invention.
8 is a view for explaining an example of the analysis process of the leg motion recognition unit and the recognized walking speed and walking stride according to an embodiment of the present invention.
9 is a flowchart illustrating a wearable robot control method according to a motion intention detection based on a brain machine interface according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . Also, when a part “includes” a certain component, this means that other components may be further included, rather than excluding other components, unless otherwise specified.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In the present specification, the term “unit” includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be realized by using two or more hardware, and two or more units may be realized by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, '~ unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functions provided within components and '~ units' may be combined into a smaller number of components and '~ units', or further separated into additional components and '~ units'. In addition, the components and '~ unit' may be implemented to play one or more CPUs in the device or secure multimedia card.

이하에서 언급되는 "시스템"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함한다. The "system" mentioned below may be implemented as a computer or a portable terminal capable of accessing a server or another terminal through a network. Here, the computer includes, for example, a laptop equipped with a web browser (WEB Browser), a desktop (desktop), a laptop (laptop), and the like.

휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치이고, 예를 들어 스마트 폰, 태블릿 PC 또는 노트북 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치일 수 있다. The portable terminal is, for example, a wireless communication device that guarantees portability and mobility, and may be, for example, a handheld-based wireless communication device of any kind, such as a smart phone, a tablet PC, or a laptop.

또한, 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.In addition, the network means a connection structure capable of exchanging information between each node such as terminals and servers, and a local area network (LAN), a wide area network (WAN), and the Internet (WWW) : World Wide Web), wired and wireless data communication networks, telephone networks, and wired and wireless television communication networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasound Communication, Visible Light Communication (VLC), LiFi, and the like are included, but are not limited thereto.

한편, 착용형 로봇은 기존의 재활치료사들을 대체 가능하며, 정량적인 보행 훈련이 가능하여 훈련강도 및 방법 등의 다양한 재활 훈련을 가능하게 한다. 이에 따라 최근 하지 마비환자들의 보행 재활 훈련에서 착용형 하지 보행 로봇이 사용되고 있다. On the other hand, the wearable robot can replace existing rehabilitation therapists and quantitative gait training enables various rehabilitation training such as training intensity and method. Accordingly, recently, wearable lower limb walking robots have been used in gait rehabilitation training for paralyzed patients.

또한, 뇌-기계 인터페이스 분야에서 뇌 신호를 기반으로 하여 착용형 로봇을 제어하는 시도들이 증가하고 있다. 이는 사용자의 움직이고자 하는 의도를 이용하여 착용형 로봇을 제어함으로써 뇌의 신경가소성을 증가 시키는 효과가 있다.Also, in the field of brain-machine interface, attempts to control a wearable robot based on brain signals are increasing. This has the effect of increasing the neuroplasticity of the brain by controlling the wearable robot using the user's intention to move.

이하에서는 두피에서 뇌파를 측정하여 신호처리 과정을 거쳐 사용자의 보행 의도를 인식하여 착용형 로봇을 제어할 수 있는 시스템을 구체적으로 설명하도록 한다. Hereinafter, a system capable of controlling a wearable robot by recognizing a user's walking intention through a signal processing process by measuring brain waves on the scalp will be described in detail.

도 1은 본 발명의 일 실시예에 따른 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 시스템의 블록도이다.1 is a block diagram of a wearable robot control system according to motion intention detection based on a brain machine interface according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시예에 따른 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 시스템은 양발 움직임의 의도 검출을 위한 구별적인 뇌파를 유도하기 위해 사용자의 왼발 및 오른발에 각각 부착되어 각기 다른 특정 주파수 진동을 발생시키는 촉각 자극 제시부(10), 발 움직임 동작 상상 및 발 촉각 자극에 의해 발현되는 뇌 신호와 움직임 잡음을 측정하는 뇌 신호 수집부(20), 사용자의 움직임 의도를 검출하기 위해 발 움직임 동작 상상과 발 촉각 자극에 의해 발현되는 뇌 신호를 분석하고 의도를 검출하는 뇌 신호 처리부(30) 및 사용자 의도에 따라 착용형 로봇의 양발과 보행 속도 및 보행 보폭을 제어하기 위한 제어부(40)를 포함한다.Referring to FIG. 1, a wearable robot control system based on brain machine interface-based motion intention detection according to an embodiment of the present invention is provided to each of the user's left and right feet to induce distinct brain waves for detection of intention of both movements. A tactile stimulus presenting unit 10 that is attached to generate different specific frequency vibrations, a brain signal collection unit 20 for measuring brain signals and motion noise expressed by foot motion imagination and foot tactile stimulation, and user's movement intention In order to detect the movement of the brain signal expressed by the imagination of the foot movement and the foot tactile stimulation to detect and detect the intention, the brain signal processing unit 30 and the user's intention for controlling the wearable robot's feet and walking speed and walking stride It includes a control unit 40.

따라서, 본 발명은 착용형 로봇이 움직임에 따라 발생하는 잡음 성분을 제거해 뇌 신호를 명확히 할 수 있고, 사용자의 오른발과 왼발의 움직임에 대한 의도를 각각 검출하여 착용형 로봇을 제어할 수 있다는 효과가 있다. Therefore, the present invention has the effect that the wearable robot can control the wearable robot by removing the noise component generated by the movement to clarify the brain signal, and detecting the intention of the user's right and left feet, respectively. have.

이하에서는 본 발명의 일 실시예에 따른 움직임 의도 검출에 따른 착용형 로봇 제어 시스템에 대하여 구체적으로 설명하도록 한다.Hereinafter, a wearable robot control system according to motion intention detection according to an embodiment of the present invention will be described in detail.

도 2는 본 발명의 일 실시예에 따른 움직임 의도 검출에 따른 착용형 로봇 제어 시스템의 세부 구성 요소를 도시한 도면이다.2 is a view showing detailed components of a wearable robot control system according to motion intention detection according to an embodiment of the present invention.

도 2를 참조하면, 촉각 자극 제시부(10)는 착용형 로봇을 착용한 사용자의 왼발과 오른발에 각각 다른 촉각 자극을 제시한다. 예를 들어, 촉각 자극 제시부(10)는 각각 다른 특정 주파수로 진동하는 두 개의 촉각 자극기가 오른발과 왼발에 각각 부착되도록 구성될 수 있다. Referring to FIG. 2, the tactile stimulus presentation unit 10 presents different tactile stimuli to the left and right feet of a user wearing a wearable robot. For example, the tactile stimulus presentation unit 10 may be configured such that two tactile stimulators vibrating at different specific frequencies are attached to the right and left feet, respectively.

예시적으로, 도 2에 도시된 것처럼, 촉각 자극 제시부(10)는 사용자의 뇌 신호에서 왼발과 오른발에 대한 뇌 신호(특정 주파수 대역)를 유발하기 위한 촉각 자극을 제시하는 역할을 한다. 예를 들어, 촉각 자극은 사용자의 양 발 또는 하지의 체감각 영역에 패드 형상의 촉각 자극기가 각각 부착되어 진동 형태로 제시될 수 있다. 이때 촉각 자극기는 특정 주파수로 일정하게 진동하거나 특정 주파수 패턴으로 변화하도록 진동할 수 있으며, 각기 다른 발에 부착한 촉각 자극의 진동수는 동일하지 않도록 한다. 즉, 촉각 자극 제시부(10)는 사용자의 양 발에 촉각 자극을 발생시키는 장치를 부착하여 사용자의 하지 움직임 상상을 편리하게 하도록 도울 수 있다. 또한 하지의 움직임 동작 상상에 관한 뇌 신호와 촉각 자극에 의해 발현되는 뇌 신호의 발생 시, 진동 자극에 대한 정보(가속도 신호)를 반영하여 사용자가 의도하고 있는 발을 정확하게 추정할 수 있다.For example, as illustrated in FIG. 2, the tactile stimulus presentation unit 10 serves to present tactile stimuli for inducing brain signals (specific frequency bands) for the left and right feet in the user's brain signals. For example, the tactile stimulus may be presented in the form of a vibration by attaching a tactile stimulator in the form of a pad to the body sensation regions of the user's both feet or lower extremities. At this time, the tactile stimulator may vibrate constantly to a specific frequency or change to a specific frequency pattern, and the frequency of the tactile stimuli attached to different feet is not the same. That is, the tactile stimulus presenting unit 10 may help the user to conveniently imagine the movement of the lower limb by attaching a device that generates tactile stimulation to both feet of the user. In addition, when a brain signal related to imagination of motion of the lower limb and a brain signal expressed by a tactile stimulus are generated, the user's intended foot can be accurately estimated by reflecting information (acceleration signal) about the vibration stimulus.

뇌 신호 수집부(20)는 움직임 동작 상상과 촉각 자극에 의해 발현되는 사용자의 뇌 신호를 획득한다. 구체적으로, 뇌 신호 수집부(20)는 하지의 움직임 동작 상상에 따른 뇌 신호와 촉각 자극 제시부(10)의 진동(촉각 자극)에 따른 뇌 신호를 수집할 수 있다. 즉, 뇌 신호는 착용형 로봇(40-3)의 움직임에 의해 발생되는 움직임 잡음을 포함하며, 움직임 동작 상상에 따라 획득된 제1 뇌 신호와 촉각 자극에 따라 획득된 제2 뇌 신호로 구성될 수 있다. 구체적으로, 뇌 신호는 사용자의 움직임 동작 상상 및 촉각 자극에 대한 뇌 신호와 착용형 로봇(40-3)의 움직임에 따른 잡음 성분이 포함된다. 뇌 신호는8~16 Hz 범위(동작 상상 범위)와 촉각 자극의 주파수 범위를 포함하여 대역 통과 필터링되며, 전원 잡음을 제거하기 위해 노치 필터(notch filter)가 사용된다.The brain signal collection unit 20 acquires a user's brain signal expressed by imagination of motion and tactile stimulation. Specifically, the brain signal collection unit 20 may collect brain signals according to the motion motion imagination of the lower limb and brain signals according to the vibration (tactile stimulation) of the tactile stimulus presentation unit 10. That is, the brain signal includes motion noise generated by the movement of the wearable robot 40-3, and may be composed of a first brain signal obtained according to the motion motion imagination and a second brain signal obtained according to tactile stimulation. Can be. Specifically, the brain signal includes a brain signal for imagination and tactile stimulation of the user's movement and a noise component according to the movement of the wearable robot 40-3. Brain signals are band-pass filtered, including the 8-16 Hz range (the range of motion imagination) and the frequency range of tactile stimuli, and a notch filter is used to remove power noise.

예시적으로, 도 2에 도시된 것처럼, 뇌 신호 수집부(20)는 착용형 로봇(40-3)에 적용하기 위해 무선 통신을 이용하는 뇌 신호 무선 전송기(20-1) 및 뇌 신호 무선 수신기(20-2)를 포함할 수 있다. 뇌 신호 무선 전송기(20-1)는 사용자로부터 제1 및 제2 뇌 신호와 참조 신호를 수집하여 후술하는 뇌 신호 처리부(30)와 연결된 뇌 신호 무선 수신기(20-2)로 전송할 수 있다. 여기서, 참조 신호는 착용형 로봇(40-3)의 가속도 또는 각속도를 측정하는 센서로부터 측정한 값일 수 있다. 일 예로, 뇌 신호 수집부(20)는 뇌전도(Electroencephalogram, EEG)를 이용하여 사용자의 오른발 및 왼발의 동작 상상에 대한 제1 뇌 신호와 촉각 자극에 대한 제2 뇌신호, 착용형 로봇(40-3)에 의한 움직임 잡음 및 움직임에 따른 가속도(또는 각속도) 센서의 데이터를 수집할 수 있다. For example, as illustrated in FIG. 2, the brain signal collection unit 20 includes a brain signal radio transmitter 20-1 and a brain signal radio receiver using wireless communication to apply to the wearable robot 40-3 ( 20-2). The brain signal wireless transmitter 20-1 may collect first and second brain signals and reference signals from a user and transmit them to the brain signal wireless receiver 20-2 connected to the brain signal processor 30 described later. Here, the reference signal may be a value measured from a sensor measuring acceleration or angular velocity of the wearable robot 40-3. For example, the brain signal collection unit 20 uses a brain conduction (Electroencephalogram, EEG), the first brain signal for the user's right and left foot motion imagination, the second brain signal for tactile stimulation, and the wearable robot (40- 3) Motion noise and acceleration (or angular velocity) sensor data can be collected.

또한 뇌 신호 수집부(20)는 국제 10-20 전극 배치 방법에 따라 두정엽(Parietal lobe)의 3개의 채널(C1, Cz, C2)을 가능한 포함하도록 32, 64, 128 및 256개의 전극이 대뇌 양반구 위에 거의 같은 간격으로 배치될 수 있으나 이에 한정된 것은 아니다. 또한 샘플링 주파수는 1000Hz의 주파수로 뇌 신호를 수집할 수 있다. 그러나, 채널 위치 또는 샘플링 주파수는 고정된 것은 아니며 상황에 따라 변동될 수 있다.In addition, the brain signal collection unit 20 has 32, 64, 128, and 256 electrodes of the cerebral mass to include three channels (C1, Cz, C2) of the parietal lobe according to an international 10-20 electrode placement method. It may be disposed at substantially the same distance on the sphere, but is not limited thereto. In addition, the sampling frequency is 1000Hz, the brain signal can be collected. However, the channel position or sampling frequency is not fixed and may vary depending on the situation.

예를 들면, 사용자는 하지의 오른발 또는 왼발의 움직임을 동작 상상하거나, 촉각 자극을 받을 수 있으며, 뇌 신호 수집부(20)는 이와 같은 뇌 신호(제1 및 제2 뇌신호)를 수집할 수 있다. For example, the user can imagine the motion of the right or left foot of the lower extremity or receive tactile stimulation, and the brain signal collection unit 20 may collect such brain signals (first and second brain signals). have.

뇌 신호 처리부(30)는 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치를 구성하며, 뇌 신호 및 뇌 신호 분류기에 기초하여 뇌 신호에 대응하는 움직임 의도를 판단움직임 의도 검출에 따른 착용형 로봇 제어 프로그램이 저장된 메모리, 및 메모리에 저장된 프로그램을 실행하는 프로세서를 포함한다. 여기서, 프로세서는 프로그램의 실행에 따라, 다양한 기능을 수행할 수 있는 데, 각 기능에 따라 프로세서에 포함되는 세부 모듈들을 잡음 제거부(310), 보행 시작 의도 검출부(320), 움직임 의도 검출부(330) 및 다리 움직임 인식부(340)로 나타낼 수 있다.The brain signal processing unit 30 constitutes a wearable robot control device for detecting a motion intention based on a brain machine interface, and determines a motion intention corresponding to a brain signal based on a brain signal and a brain signal classifier. And a processor for executing a program stored in the memory and a memory in which the type robot control program is stored. Here, the processor may perform various functions according to the execution of the program. The detailed modules included in the processor according to each function may include a noise removing unit 310, a walking start intention detecting unit 320, and a motion intention detecting unit 330. ) And the leg motion recognition unit 340.

또한 프로세서는 뇌 신호(제1 및 제2 뇌 신호) 및 뇌 신호 분류기에 기초하여 뇌 신호에 대응하는 움직임 의도를 판단할 수 있다. 여기서 뇌 신호 분류기는, 사용자로부터 기수집된 뇌 신호에 기초하여 생성된 움직임 잡음 분류기, 보행 시작 의도 분류기 및 움직임 의도 분류기를 포함하고, 뇌 신호를 입력으로 통과시켜 움직임 의도가 복수의 움직임 중 어느 하나인지를 판단할 수 있다.In addition, the processor may determine a motion intention corresponding to the brain signal based on the brain signal (first and second brain signals) and the brain signal classifier. Here, the brain signal classifier includes a motion noise classifier, a walking start intention classifier, and a motion intention classifier generated based on a brain signal collected from a user, and the intention to move is one of a plurality of movements by passing a brain signal as an input. You can judge cognition.

도 3은 본 발명의 일 실시예에 따른 뇌 신호 처리부(30)의 각 단계 별 분류기 및 분류되는 클래스를 도시한 구성도이다.3 is a block diagram showing a classifier and a class for each step of the brain signal processing unit 30 according to an embodiment of the present invention.

도 3을 참조하면, 뇌 신호 분류기(31)는 뇌 신호 데이터가 움직임 잡음 분류기(311), 보행 시작 의도 분류기(321) 및 움직임 의도 분류기(331) 순으로 직렬로 통과하도록 생성될 수 있다. 예시적으로, 움직임 잡음 분류기(311)는 입력된 뇌 신호 데이터를 잡음/뇌 신호 클래스로 분류할 수 있다. 보행 시작 의도 분류기(321)는 보행 시작/ 멈춤 클래스로 분류할 수 있다. 움직임 의도 분류기(331)는 왼발/오른발 클래스로 분류할 수 있다.Referring to FIG. 3, the brain signal classifier 31 may be generated such that the brain signal data passes in series in the order of the motion noise classifier 311, the walking start intention classifier 321, and the motion intention classifier 331. For example, the motion noise classifier 311 may classify the input brain signal data into a noise / brain signal class. The walking start intention classifier 321 may be classified into a walking start / stop class. The motion intention classifier 331 may be classified into a left foot / right foot class.

도 4는 본 발명의 일 실시예에 따른 뇌 신호 처리부(30)의 학습 과정을 설명하기 위한 순서도이다.4 is a flow chart for explaining the learning process of the brain signal processing unit 30 according to an embodiment of the present invention.

도 4를 참조하면, 뇌 신호 처리부(30)는 기 수집된 제1 및 제2 뇌 신호에서 움직임 잡음을 걸음 단위 기반으로 템플릿을 구성하여 움직임 잡음 분류기(311)를 학습할 수 있다(S410). 이어서, 기 수집된 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 기계학습 알고리즘을 통해 보행 시작 의도 분류기(321)를 학습할 수 있다(S420). 다음으로, 기 수집된 제1 뇌 신호를 시간-주파수 패턴을 이용하여 특징벡터를 생성하고, 제2 뇌 신호를 자극의 주파수 패턴을 이용하여 특징벡터를 생성하고, 추출된 두 특징을 결합한 하나의 특징벡터에 기초하여 기계학습 알고리즘을 통해 움직임 의도 분류기(331)를 학습할 수 있다(S430). 즉, 뇌 신호 처리부(30)는 상술한 학습 과정을 통해 도 3에 도시된 각 클래스로 분류하는 뇌 신호 분류기(31)를 형성할 수 있다. 또한, 후술하는 도 5를 참조하면 뇌 신호 처리부(30)는 실사용 과정을 통해 실시간으로 수집되는 제1 및 제2 뇌 신호에 대해 기 학습된 뇌 신호 분류기(31)를 이용하여 클래스를 분류할 수 있다. 즉, 각 기능을 수행하는 잡음 제거부(310), 보행 시작 의도 검출부(320), 움직임 의도 검출부(330) 및 다리 움직임 인식부(340)가 뇌 신호 분류기(31)를 이용하여 실시간으로 수집되는 제1 및 제2 뇌 신호를 각 클래스로 분류할 수 있다.Referring to FIG. 4, the brain signal processing unit 30 may learn a motion noise classifier 311 by constructing a template based on a step unit based on motion noise from previously collected first and second brain signals (S410). Subsequently, the first brain signal collected may be extracted using a common spatial pattern algorithm, and the walking start intention classifier 321 may be learned through a machine learning algorithm (S420). Next, a feature vector is generated using the time-frequency pattern of the first brain signal collected, a feature vector is generated using the frequency pattern of the stimulus of the second brain signal, and one of the two extracted features is combined. The motion intention classifier 331 may be learned through a machine learning algorithm based on the feature vector (S430). That is, the brain signal processing unit 30 may form a brain signal classifier 31 to classify each class shown in FIG. 3 through the above-described learning process. In addition, referring to FIG. 5 to be described later, the brain signal processing unit 30 classifies classes using the brain signal classifier 31 previously learned about the first and second brain signals collected in real time through a practical use process. Can be. That is, the noise removing unit 310, the walking start intention detection unit 320, the motion intention detection unit 330, and the leg motion recognition unit 340 performing each function are collected in real time using the brain signal classifier 31 The first and second brain signals can be classified into each class.

도 5는 본 발명의 일 실시예에 따른 뇌 신호 처리부(30)의 실사용 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a practical use process of the brain signal processing unit 30 according to an embodiment of the present invention.

도 5를 참조하면, 뇌 신호 처리부(30)는 뇌 신호에 대응하는 움직임 의도를 판단하는 경우 잡음 제거부(310)를 통해 참조 신호에 기초하여 제1 및 제 2 뇌 신호로부터 움직임 잡음을 제거할 수 있다(S510). 이어서 보행 시작 의도 검출부(320)를 통해 제1 뇌 신호에 기초하여 보행 시작 의도를 검출할 수 있다(S520). 또한 움직임 의도 검출부(330)를 통해 제1 및 제2 뇌 신호의 특징을 결합하여 움직임 의도를 검출할 수 있다(S530). 다음으로, 다리 움직임 인식부(340)를 통해 제1 뇌 신호의 변화 주기 및 강도에 기초하여 보행 속도 및 보행 보폭을 결정하고, 착용형 로봇의 다리 움직임을 인식할 수 있다(S540).Referring to FIG. 5, when determining a motion intention corresponding to a brain signal, the brain signal processing unit 30 may remove motion noise from the first and second brain signals based on the reference signal through the noise removal unit 310. It can be (S510). Subsequently, the intention to start walking may be detected based on the first brain signal through the walking intention detecting unit 320 (S520). In addition, the motion intention may be detected by combining characteristics of the first and second brain signals through the motion intention detecting unit 330 (S530). Next, through the leg movement recognition unit 340, the walking speed and the walking stride are determined based on the change period and intensity of the first brain signal, and the leg movement of the wearable robot can be recognized (S540).

예시적으로, 수집된 뇌 신호는 착용형 로봇의 움직임으로 인해 잡음성분이 포함된다. 이에 따라 S510단계에서 잡음 제거부(310)는 사용자의 움직임 의도를 명확하게 검출하기 위해, 수집된 뇌 신호(제1 및 제2 뇌 신호)에서 걸음 단위 기반으로 시간-주파수 특징을 이용한 전처리를 수행하여 움직임 잡음 분류기(311)를 통해 학습하고 불필요한 움직임 잡음을 제거할 수 있다. S520단계에서 보행 시작 의도 검출부(320)는 사용자의 발 움직임 동작 상상 시에 발현되는 뇌 신호(제1 뇌 신호)를 통해 보행 시작 의도 분류기(321)를 학습하고, 공통 공간 패턴(Common spatial pattern) 알고리즘을 통해 공간 정보를 분석하여 하지의 움직임 시작 의도가 발생하는 것을 인식할 수 있다. S530단계에서 움직임 의도 검출부(330)는 발 움직임 동작 상상 시에 발현되는 뇌 신호(제1 뇌 신호)와 촉각 자극의 집중 시에 발현되는 뇌 신호(제2 뇌 신호)를 통해 시간-주파수 분석과 자극의 주파수를 분석하여 움직임 의도 분류기(331)를 학습하고, 움직임 의도를 검출할 수 있다. S540단계에서 다리 움직임 인식부(340)는 왼발 또는 오른발의 움직임 동작 상상 시에 발현되는 뇌 신호(제1 뇌 신호)의 의도가 변화하는 시간(동작 상상을 수행하는 시간에 따른 주파수의 주기 및 변환 시점)과 움직임 동작 상상의 강도 세기의 특징을 이용해서 보행 속도와 보행 보폭의 의도를 인식할 수 있다. For example, the collected brain signal includes noise components due to the movement of the wearable robot. Accordingly, in step S510, the noise removing unit 310 performs pre-processing using a time-frequency feature based on the walking unit in the collected brain signals (first and second brain signals) to clearly detect the user's intention to move. By learning through the motion noise classifier 311, unnecessary motion noise can be removed. In step S520, the gait start intention detector 320 learns the gait start intention classifier 321 through a brain signal (first brain signal) that is expressed when a user's foot motion is imagined, and a common spatial pattern By analyzing the spatial information through the algorithm, it can be recognized that the intention to start the movement of the lower limb occurs. In step S530, the motion intention detecting unit 330 analyzes time-frequency through a brain signal (first brain signal) expressed when imagining a foot motion action and a brain signal (second brain signal) expressed when tactile stimulation is concentrated. By analyzing the frequency of the stimulus, the motion intention classifier 331 may be learned, and the motion intention may be detected. In step S540, the leg motion recognition unit 340 changes the period and frequency of frequency according to the time when the intention of the brain signal (the first brain signal) expressed when imagining the motion of the left foot or the right foot changes. The viewpoint of walking speed and the pace of walking can be recognized by using the characteristics of intensity of imagination and movement motion.

따라서, 뇌 신호 처리부(30)는 시간 영역의 뇌 신호를 주파수 영역으로 변환하여 양 발에 부착한 촉각 자극의 진동수에 대한 주파수 특징과 동작 상상에 의한 뇌 신호의 시간-주파수 특징을 통해 사용자가 움직이고자 하는 특정 하지의 의도를 인식할 수 있다. Accordingly, the brain signal processing unit 30 converts the brain signal in the time domain into the frequency domain, and the user moves through the frequency characteristic of the frequency of the tactile stimulus attached to both feet and the time-frequency characteristic of the brain signal by imagination of motion. You can recognize the intention of a specific lower limb.

이하에서는 도 6 내지 도 8을 참조하여 뇌 신호 및 뇌 신호 분류기(31)에 기초하여 뇌 신호에 대응하는 움직임 의도를 판단하는 각 단계를 구체적으로 설명하도록 한다. Hereinafter, each step of determining a motion intention corresponding to a brain signal based on the brain signal and the brain signal classifier 31 will be described in detail with reference to FIGS. 6 to 8.

도 6은 본 발명의 일 실시예에 따른 잡음 제거부(310)의 움직임 잡음 제거 방법을 설명하기 위한 도면이다.6 is a view for explaining a method of removing motion noise of the noise removing unit 310 according to an embodiment of the present invention.

일 예로, 잡음 제거부(310)는 독립성분 분석(C-ICA)을 통해 근전도(Electromyography, EMG), 안구 움직임(Electro- oculography, EOG) 또는 눈 깜빡임 등에 의한 내부 잡음 성분을 제거하고, 특정 주파수 대역으로 필터링 하는 등의 전처리 과정을 진행할 수 있다. 이때 착용형 로봇의 움직임에 의해 발생되는 움직임 잡음은 뇌 신호를 왜곡시켜 사용자의 의도를 인식하는데 어려움을 주기 때문에 전처리 과정에서 제거해야 한다.For example, the noise removing unit 310 removes internal noise components due to electromyography (EMG), eye movement (Electro-oculography, EOG), or eye blinking through independent component analysis (C-ICA), and a specific frequency Pre-processing, such as filtering by band, can be performed. At this time, the movement noise generated by the movement of the wearable robot must be removed in the preprocessing process because it distorts the brain signal and makes it difficult to recognize the user's intention.

도 6을 참조하면 S510단계에서, 잡음 제거부(310)는 제1 및 제2 뇌 신호와 참조 신호로부터 내부 잡음 성분을 제거하고, 특정 주파수 대역으로 필터링하는 전처리를 수행할 수 있다. 이어서, 참조 신호를 이용한 제약적 독립성분 분석(Constrained independent component analysis, C-ICA)을 통해 제1 및 제2 뇌 신호로부터 추정된 움직임 잡음을 추출할 수 있다. 다음으로, 적응형 필터(Adaptive filter)를 통해 제1 및 제2 뇌 신호로부터 추정된 움직임 잡음을 제거하여 잡음이 제거된 제1 및 제2 뇌 신호를 획득할 수 있다.Referring to FIG. 6, in operation S510, the noise removing unit 310 may perform pre-processing to remove internal noise components from the first and second brain signals and reference signals and to filter to a specific frequency band. Subsequently, the estimated motion noise can be extracted from the first and second brain signals through Constrained independent component analysis (C-ICA) using a reference signal. Next, the first and second brain signals from which noise is removed may be obtained by removing the estimated motion noise from the first and second brain signals through an adaptive filter.

예시적으로, 뇌 신호 처리부(30)는 뇌 신호를 측정할 때 생체 신호가 아닌 가속도 센서 등의 신호를 참조 신호로 측정하며, 이와 같은 가속도 신호가 움직임의 신호를 대표하는 참조 신호의 역할을 한다. 이에 따라, 잡음 제거부(310)는 참조 신호를 이용하여 제약적 독립성분 분석(C-ICA)으로 제1 및 제2 뇌 신호로부터 움직임 잡음을 추정하여 추출할 수 있다. 그리고 적응형 필터를 이용하여 움직임 잡음으로 추정된 제1 및 제2 뇌 신호로부터 잡음을 제거할 수 있다. For example, when measuring the brain signal, the brain signal processing unit 30 measures a signal such as an acceleration sensor, not a biological signal, as a reference signal, and the acceleration signal serves as a reference signal representing a motion signal. . Accordingly, the noise removal unit 310 may estimate and extract motion noise from the first and second brain signals by using the independent independent component analysis (C-ICA) using the reference signal. In addition, noise can be removed from the first and second brain signals estimated as motion noise using an adaptive filter.

S520단계에서, 보행 시작 의도 검출부(320)는 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 기 학습된 보행 시작 의도 분류기(321)를 이용하여 사용자의 보행 시작 의도를 검출할 수 있다.In step S520, the walking start intention detecting unit 320 extracts a feature of the first brain signal using a common spatial pattern algorithm, and detects a user's walking starting intention using the pre-trained walking start intention classifier 321. Can be.

예시적으로, 보행 시작 의도 검출부(320)는 사용자가 보행을 시작할 지에 대한 의도를 검출하기 위해, 먼저 기 수집된 제1 및 제 2뇌 신호를 이용해 보행 시작 의도 분류기(321)를 학습한다. 이때, 동작 상상을 통해 발현되는 뇌파의 특징을 공통 공간 패턴을 이용하여 추출하고, 기계학습 기반의 알고리즘으로 보행 시작 의도 분류기(321)를 학습할 수 있다. 여기서 사용자의 보행 시작 의도를 분류하기 위한 보행 시작 의도 분류기(321)로써, 선형판별분석법(Linear discriminant analysis, LDA), 가우시안 혼합 모델(Gaussian Mixture Model, GMM), 서포트벡터머신(Support vector machine, SVM), 인공신경망(Artificial neural networks, ANN), 및 합성곱 신경망 (Convolutional neural networks, CNN) 중 적어도 하나를 적용할 수 있다. 이후, 보행 시작 의도 검출부(320)는 실시간으로 수신되는 제1 및 제2 뇌 신호에 공통 공간 패턴 알고리즘을 적용하여 발 움직임 상상 특징을 추출하고, 기 학습된 보행 시작 의도 분류기(321)를 이용하여 사용자의 보행 시작 의도를 검출할 수 있다. 보행 시작 의도 분류기(321)는 기 수집된 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 전술한 기계학습 알고리즘을 통해 학습될 수 있다.For example, the gait start intention detecting unit 320 first learns the gait start intention classifier 321 using the first and second brain signals previously collected in order to detect the intention of whether the user starts gait. At this time, the characteristics of the brain waves expressed through the motion imagination can be extracted using a common spatial pattern, and the walking start intention classifier 321 can be learned using a machine learning-based algorithm. Here, as a walking start intention classifier 321 for classifying a user's walking start intention, a linear discriminant analysis (LDA), a Gaussian Mixture Model (GMM), and a support vector machine (SVM) ), Artificial neural networks (ANN), and convolutional neural networks (CNN). Thereafter, the walking start intention detecting unit 320 applies a common spatial pattern algorithm to the first and second brain signals received in real time to extract the foot motion imagination feature, and uses the pre-trained walking start intention classifier 321. A user's intention to start walking may be detected. The gait start intention classifier 321 may extract features using the common spatial pattern algorithm from the pre-collected first brain signals, and learn through the aforementioned machine learning algorithm.

도 7은 본 발명의 일 실시예에 따른 움직임 의도 검출부(330)의 구성을 설명하기 위한 도면이다.7 is a view for explaining the configuration of the motion intention detection unit 330 according to an embodiment of the present invention.

도 7을 참조하면 S530단계에서, 움직임 의도 검출부(330)는 제1 뇌 신호를 시간-주파수 패턴으로 추출한 특징과, 제2 뇌 신호를 주파수 패턴으로 추출한 특징을 결합하고, 기 학습된 움직임 의도 분류기(331)를 이용하여 사용자의 움직임 의도를 검출할 수 있다.Referring to FIG. 7, in step S530, the motion intention detecting unit 330 combines a feature in which the first brain signal is extracted with a time-frequency pattern and a feature in which the second brain signal is extracted as a frequency pattern, and the pre-trained motion intention classifier The user's motion intention may be detected using 331.

예시적으로, 도 7에 도시된 것처럼, 움직임 의도 검출부(330)는 사용자의 보행 의도가 감지되면, 왼발과 오른발의 움직이는 의도를 검출하기 위해, 먼저 기 수집된 동작 상상에 의해 발현되는 제1 뇌 신호를 시간-주파수 패턴을 이용하여 특징벡터를 생성하고(S531-1), 기 수집된 촉각 자극 집중에 의해 발현되는 제2 뇌 신호를 자극의 주파수 패턴을 이용하여 특징벡터를 생성할 수 있다(S531-2). 이때 시간-주파수 패턴은 웨이블렛 변환(Wavelet transform) 또는 단시간 푸리에 변환(Short-term fourier transform)으로 추출할 수 있고, 주파수 패턴은 푸리에 변환(Fourier transform)으로 추출할 수 있다. 그리고 추출된 두 특징을 결합하여 하나의 특징벡터로 형성하고(S532), 이를 이용하여 기계학습 기반의 움직임 의도 분류기(331)를 학습하고, 각 클래스로 분류하여 왼발 및 오른발에 대한 사용자의 움직임 의도를 검출할 수 있다(S533). 이후, 움직임 의도 검출부(330)는 실시간으로 수신되는 제1 뇌 신호를 시간-주파수 패턴으로 추출한 특징과, 실시간으로 수신되는 제2 뇌 신호를 주파수 패턴으로 추출한 특징을 결합하고, 기 학습된 움직임 의도 분류기(331)를 이용하여 사용자의 움직임 의도를 검출할 수 있다. 움직임 의도 분류기(331)는 기 수집된 제1 뇌 신호를 시간-주파수 패턴을 이용하여 특징벡터를 생성하고, 제2 뇌 신호를 자극의 주파수 패턴을 이용하여 특징벡터를 생성하고, 추출된 두 특징을 결합한 하나의 특징벡터에 기초하여 기계학습 알고리즘을 통해 학습될 수 있다.For example, as illustrated in FIG. 7, when the user's walking intention is detected, the motion intention detecting unit 330 detects a moving intention of the left foot and the right foot, and the first brain expressed by the previously collected motion imagination The signal can generate a feature vector using a time-frequency pattern (S531-1), and a second brain signal expressed by the previously collected tactile stimulus concentration can be generated using a frequency pattern of the stimulus ( S531-2). In this case, the time-frequency pattern may be extracted by a wavelet transform or a short-term fourier transform, and the frequency pattern may be extracted by a Fourier transform. Then, the extracted two features are combined to form a single feature vector (S532), and the machine learning-based motion intention classifier 331 is learned using the extracted features, and classified into each class to induce the user's motion toward the left and right feet. It can be detected (S533). Thereafter, the motion intention detecting unit 330 combines a feature in which the first brain signal received in real time is extracted with a time-frequency pattern and a feature in which the second brain signal received in real time is extracted as a frequency pattern, and the pre-trained motion intention The user's intention to move may be detected using the classifier 331. The motion intention classifier 331 generates a feature vector using the time-frequency pattern of the first brain signal collected, generates a feature vector using the frequency pattern of the stimulus of the second brain signal, and extracts the two features. It can be learned through a machine learning algorithm based on one feature vector combining.

도 8은 본 발명의 일 실시예에 따른 다리 움직임 인식부(340)의 분석 과정과 인식된 보행 속도 및 보행 보폭의 예를 설명하기 위한 도면이다. 8 is a view for explaining an example of the analysis process of the leg motion recognition unit 340 and the recognized walking speed and walking stride according to an embodiment of the present invention.

도 8을 참조하면 S540단계에서, 다리 움직임 인식부(340)는 제1 뇌 신호의 지속 시간과 변화하는 시간을 포함하는 주파수의 주기에 따라 특징을 추출하여 보행 속도로 결정하고, 제1 뇌 신호의 강도에 따라 특징을 추출하여 보행 보폭을 결정할 수 있다. Referring to FIG. 8, in step S540, the leg motion recognition unit 340 extracts features according to a period of a frequency including a duration and a changing time of the first brain signal and determines the walking speed, and the first brain signal The gait may be determined by extracting features according to the intensity of.

예시적으로, 도8에 도시된 것처럼, 다리 움직임 인식부(340)는 동작 상상을 통해 발현되는 제1 뇌 신호의 지속 시간과 변화하는 시간 및 신호 강도를 특징으로 이용하여 다리 움직임을 인식할 수 있다. 즉, 다리 움직임은 보행 속도와 보행 보폭에 의해 결정되는데, 보행 속도(주파수의 주기)는 오른발과 왼발 움직임 상상의 의도가 변화하는 시간을 통해 인식될 수 있고, 걸음의 보폭(주파수의 진폭)은 오른발과 왼발에 대한 움직임 상상의 집중 강도를 통해 인식될 수 있다.For example, as illustrated in FIG. 8, the leg motion recognition unit 340 may recognize leg motion by using the duration and the changing time and signal strength of the first brain signal expressed through motion imagination. have. That is, the leg movement is determined by the walking speed and the walking stride, and the walking speed (cycle of frequency) can be recognized through the time when the imagination intention of the right foot and left foot changes, and the step stride (amplitude of the frequency) is Movements on the right and left foot can be perceived through the concentration intensity of the imagination.

다시 도 2를 참조하면 제어부(40)는 뇌 신호 처리부(30)에 의해, 입력된 다리 움직임에 대한 명령을 무선으로 송/수신하는 제어 명령 전송기(40-1) 및 제어 명령 수신기(40-2)를 포함한다. 구체적으로 제어부(40)는 각 움직임에 대한 뇌 신호 분류기의 출력 값 및 움직임 의도를 사용자가 확인하도록 제어 명령 수신기(40-2)에 전달한다. 또한 착용형 로봇(40-3)이 사용자의 움직임 의도에 대응하는 기능을 수행하도록 제어 명령 수신기(40-2)가 착용형 로봇의 양발, 보행 속도 및 보행 보폭을 제어할 수 있다. 즉, 제어부(40)는 뇌 신호 처리부(30)로부터 도출된 각 발의 보행 속도 및 보행 보폭을 포함하는 인식 결과에 따라 착용형 로봇(40-3)에 명령을 전송하고, 착용형 로봇(40-3)이 인식된 특정 하지의 움직임으로 동작할 수 있다. Referring back to FIG. 2, the control unit 40 controls, by the brain signal processing unit 30, a control command transmitter 40-1 and a control command receiver 40-2 that wirelessly transmit / receive commands for the input leg movement. ). Specifically, the control unit 40 transmits the output value of the brain signal classifier for each movement and the intention of movement to the control command receiver 40-2 for the user to confirm. In addition, the control command receiver 40-2 may control the wearable robot's lifting, walking speed, and walking stride length so that the wearable robot 40-3 performs a function corresponding to a user's movement intention. That is, the control unit 40 transmits a command to the wearable robot 40-3 according to the recognition result including the walking speed and the walking stride of each foot derived from the brain signal processing unit 30, and the wearable robot 40- 3) It can operate with the movement of the specific lower limb.

이하의 방법은, 상술한 시스템에 의해 수행되는 것이므로, 이하에서 생략된 내용이 있더라도 상술한 설명으로 갈음하도록 한다. Since the following method is performed by the above-described system, it will be replaced with the above-described description even if there is content omitted below.

도 9는 본 발명의 일 실시예에 따른 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법을 설명하기 위한 순서도이다.9 is a flowchart illustrating a wearable robot control method according to a motion intention detection based on a brain machine interface according to an embodiment of the present invention.

도 9를 참조하면 본 발명은 착용형 로봇을 착용한 사용자의 왼발과 오른발에 각각 다른 촉각 자극을 제시하는 단계(S910), 움직임 동작 상상과 촉각 자극에 의해 발현되는 사용자의 뇌 신호를 획득하는 단계(S920), 뇌 신호 및 뇌 신호 분류기에 기초하여 뇌 신호에 대응하는 움직임 의도를 판단하는 단계(S930), 각 움직임에 대한 뇌 신호 분류기의 출력 값 및 움직임 의도를 사용자가 확인하도록 제어 명령 수신기에 전달하는 단계(S940) 및 착용형 로봇이 움직임 의도에 대응하는 기능을 수행하도록 제어 명령 수신기에 의해 착용형 로봇의 양발, 보행 속도 및 보행 보폭을 제어하는 단계(S950)를 포함하되, 뇌 신호 분류기는 사용자로부터 기수집된 뇌 신호에 기초하여 생성된 움직임 잡음 분류기, 보행 시작 의도 분류기 및 움직임 의도 분류기를 포함하고, 뇌 신호를 입력으로 통과시켜 움직임 의도가 복수의 움직임 중 어느 하나인지를 판단할 수 있다.Referring to FIG. 9, the present invention is to present different tactile stimuli to the left and right feet of a user wearing a wearable robot (S910), and to obtain a brain signal of a user expressed by imagination and tactile stimulation of movement. (S920), determining a motion intention corresponding to the brain signal based on the brain signal and the brain signal classifier (S930), to a control command receiver so that a user can check the output value and the motion intention of the brain signal classifier for each motion It includes a step of transmitting (S940) and a step (S950) of controlling both feet, walking speed and walking stride of the wearable robot by a control command receiver so that the wearable robot performs a function corresponding to a movement intention, but a brain signal classifier Includes a motion noise classifier, a walking start intention classifier, and a motion intention classifier generated based on brain signals collected from a user, and Was passed through the input can be determined whether any of the movement intentions of a plurality of motion.

S920단계에서 뇌 신호는 착용형 로봇의 움직임에 의해 발생되는 움직임 잡음을 포함하는 것이되, 움직임 동작 상상에 따라 획득된 제1 뇌 신호와 촉각 자극에 따라 획득된 제2 뇌 신호를 포함하는 것이고, 착용형 로봇의 가속도 또는 각속도를 측정하는 센서로부터 측정한 값을 참조 신호로서 획득하는 단계를 포함하되, 제1 및 제2 뇌 신호와 참조 신호는 무선 통신을 통해 뇌 신호 전송부 및 뇌 신호 수신부에 의해 획득될 수 있다.In step S920, the brain signal includes movement noise generated by the movement of the wearable robot, and includes a first brain signal obtained according to the motion movement imagination and a second brain signal obtained according to tactile stimulation, And obtaining a value measured from a sensor measuring acceleration or angular velocity of the wearable robot as a reference signal, wherein the first and second brain signals and the reference signal are transmitted to the brain signal transmitting unit and the brain signal receiving unit through wireless communication. Can be obtained by

다시, 도 5를 참조하면 S930단계는 참조 신호에 기초하여 제1 및 제 2 뇌 신호로부터 움직임 잡음을 제거하는 단계(S510), 제1 뇌 신호에 기초하여 보행 시작 의도를 검출하는 단계(S520), 제1 및 제2 뇌 신호의 특징을 결합하여 움직임 의도를 검출하는 단계(S530) 및 제1 뇌 신호의 변화 주기 및 강도에 기초하여 착용형 로봇의 보행 속도 및 보행 보폭을 결정하는 다리 움직임을 인식하는 단계(S540)를 포함한다.Referring back to FIG. 5, step S930 includes removing motion noise from the first and second brain signals based on the reference signal (S510), and detecting the intention to start walking based on the first brain signal (S520). , Combining the features of the first and second brain signals to detect the intention to move (S530) and leg movements to determine the walking speed and walking stride of the wearable robot based on the change period and intensity of the first brain signal Recognizing step (S540).

S510단계는 제1 및 제2 뇌 신호와 참조 신호로부터 내부 잡음 성분을 제거하고, 특정 주파수 대역으로 필터링하는 전처리 단계, 참조 신호를 이용한 제약적 독립성분 분석(Constrained independent component analysis, C-ICA)을 통해 제1 및 제2 뇌 신호로부터 추정된 움직임 잡음을 추출하는 단계 및 적응형 필터(Adaptive filter)를 통해 제1 및 제2 뇌 신호로부터 추정된 움직임 잡음을 제거하여 움직임 잡음이 제거된 제1 및 제2 뇌 신호를 획득하는 단계를 포함하되, 움직임 잡음 분류기는 추정된 움직임 잡음을 걸음 단위 기반으로 템플릿을 구성하여 학습될 수 있다.In step S510, internal noise components are removed from the first and second brain signals and reference signals, and a pre-processing step of filtering to a specific frequency band, through Constrained independent component analysis (C-ICA) using reference signals Extracting motion noise estimated from the first and second brain signals and removing motion noise estimated from the first and second brain signals through an adaptive filter, the first and the first motion noise is removed Including the step of acquiring 2 brain signals, the motion noise classifier may be trained by constructing a template based on the estimated unit of motion noise.

S520단계는 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 기 학습된 보행 시작 의도 분류기를 이용하여 사용자의 보행 시작 의도를 검출하는 단계를 포함하되, 보행 시작 의도 분류기는 기 수집된 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 기계학습 알고리즘을 통해 학습될 수 있다.Step S520 includes extracting features of the first brain signal using a common spatial pattern algorithm, and detecting a user's walking start intention using a pre-trained walking start intention classifier. The extracted first brain signal can be extracted using a common spatial pattern algorithm and learned through a machine learning algorithm.

S530단계는 제1 뇌 신호를 시간-주파수 패턴으로 추출한 특징과, 제2 뇌 신호를 주파수 패턴으로 추출한 특징을 결합하고, 기 학습된 움직임 의도 분류기를 이용하여 사용자의 움직임 의도를 검출하는 단계를 포함하되, 움직임 의도 분류기는 기 수집된 제1 뇌 신호를 시간-주파수 패턴을 이용하여 특징벡터를 생성하고, 제2 뇌 신호를 자극의 주파수 패턴을 이용하여 특징벡터를 생성하고, 추출된 두 특징을 결합한 하나의 특징벡터에 기초하여 기계학습 알고리즘을 통해 학습될 수 있다.Step S530 includes the step of combining the features of extracting the first brain signal with a time-frequency pattern, the features of extracting the second brain signal as a frequency pattern, and detecting a user's motion intention using a pre-trained motion intention classifier. However, the motion intention classifier generates the feature vector using the time-frequency pattern of the first brain signal collected, the feature vector using the frequency pattern of the stimulus to the second brain signal, and extracts the extracted two features. It can be learned through a machine learning algorithm based on one combined feature vector.

S540단계는 제1 뇌 신호의 지속 시간과 변화하는 시간을 포함하는 주파수의 주기에 따라 특징을 추출하여 보행 속도로 결정하고, 제1 뇌 신호의 강도에 따라 특징을 추출하여 보행 보폭을 결정하는 단계를 포함할 수 있다.In step S540, a feature is extracted according to a period of a frequency including a duration and a changing time of the first brain signal to determine a walking speed, and a feature is extracted according to the strength of the first brain signal to determine a walking stride. It may include.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. One embodiment of the present invention can also be implemented in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described in connection with specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration only, and a person having ordinary knowledge in the technical field to which the present invention pertains can understand that it can be easily modified to other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

10: 촉각 자극 제시부
20: 뇌 신호 수집부
20-1: 뇌 신호 무선 전송기 20-2: 뇌 신호 무선 수신기
30: 뇌 신호 처리부 31: 뇌 신호 분류기
310: 잡음 제거부 311: 움직임 잡음 분류기
320: 보행 시작 의도 검출부 321: 보행 시작 의도 분류기
330: 움직임 의도 검출부 331: 움직임 의도 분류기
340: 다리 움직임 인식부
40: 제어부
40-1: 제어 명령 수신기 40-2: 제어 명령 전송기
40-3: 착용형 로봇
10: tactile stimulation presentation unit
20: brain signal collection unit
20-1: brain signal wireless transmitter 20-2: brain signal wireless receiver
30: brain signal processing unit 31: brain signal classifier
310: noise removing unit 311: motion noise classifier
320: walking start intention detection unit 321: walking start intention classifier
330: motion intention detection unit 331: motion intention classifier
340: leg movement recognition unit
40: control
40-1: Control Command Receiver 40-2: Control Command Transmitter
40-3: wearable robot

Claims (14)

컴퓨터 장치에 의해 수행되는, 뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법에 있어서,
(a) 착용형 로봇을 착용한 사용자의 왼발과 오른발에 각각 다른 촉각 자극을 제시하는 단계;
(b) 움직임 동작 상상과 상기 촉각 자극에 의해 발현되는 사용자의 뇌 신호를 획득하는 단계;
(c) 상기 뇌 신호 및 뇌 신호 분류기에 기초하여 상기 뇌 신호에 대응하는 움직임 의도를 판단하는 단계;
(d) 각 움직임에 대한 상기 뇌 신호 분류기의 출력 값 및 상기 움직임 의도를 상기 사용자가 확인하도록 제어 명령 수신기에 전달하는 단계; 및
(e) 상기 착용형 로봇이 상기 움직임 의도에 대응하는 기능을 수행하도록 상기 제어 명령 수신기에 의해 상기 착용형 로봇의 양발, 보행 속도 및 보행 보폭을 제어하는 단계를 포함하되,
상기 뇌 신호 분류기는,
상기 사용자로부터 기수집된 뇌 신호에 기초하여 생성된 움직임 잡음 분류기, 보행 시작 의도 분류기 및 움직임 의도 분류기를 포함하고,
상기 뇌 신호를 입력으로 통과시켜 상기 움직임 의도가 복수의 움직임 중 어느 하나인지를 판단하는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법.
In the wearable robot control method according to the motion intention detection based on a brain machine interface, performed by a computer device,
(a) presenting different tactile stimuli to the left and right feet of the user wearing the wearable robot;
(b) acquiring a brain signal of a user expressed by imagination of movement and tactile stimulation;
(c) determining a motion intention corresponding to the brain signal based on the brain signal and the brain signal classifier;
(d) passing the output value of the brain signal classifier for each movement and the movement intention to a control command receiver for the user to confirm; And
(e) controlling the wearable robot's lifting, walking speed, and walking stride length by the control command receiver so that the wearable robot performs a function corresponding to the movement intention,
The brain signal classifier,
And a motion noise classifier, a walking start intention classifier, and a motion intention classifier generated based on brain signals collected from the user,
Passing the brain signal as an input to determine whether the movement intention is one of a plurality of movements,
Wearable robot control method based on brain machine interface based motion intention detection.
제1항에 있어서,
상기 (b) 단계에서,
상기 뇌 신호는
상기 착용형 로봇의 움직임에 의해 발생되는 움직임 잡음을 포함하는 것이되, 상기 움직임 동작 상상에 따라 획득된 제1 뇌 신호와 상기 촉각 자극에 따라 획득된 제2 뇌 신호를 포함하는 것이고,
상기 착용형 로봇의 가속도 또는 각속도를 측정하는 센서로부터 측정한 값을 참조 신호로서 획득하는 단계를 포함하되,
상기 제1 및 제2 뇌 신호와 참조 신호는 무선 통신을 통해 뇌 신호 전송부 및 뇌 신호 수신부에 의해 획득되는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법.
According to claim 1,
In step (b),
The brain signal
It includes motion noise generated by the movement of the wearable robot, and includes a first brain signal obtained according to the motion motion imagination and a second brain signal obtained according to the tactile stimulus,
Comprising the step of obtaining a value measured from a sensor for measuring the acceleration or angular velocity of the wearable robot as a reference signal,
The first and second brain signals and reference signals are obtained by the brain signal transmitting unit and the brain signal receiving unit through wireless communication,
Wearable robot control method based on brain machine interface based motion intention detection.
제2항에 있어서,
상기 (c) 단계는,
(c-1) 상기 참조 신호에 기초하여 상기 제1 및 제 2 뇌 신호로부터 상기 움직임 잡음을 제거하는 단계;
(c-2) 상기 제1 뇌 신호에 기초하여 보행 시작 의도를 검출하는 단계;
(c-3) 상기 제1 및 제2 뇌 신호의 특징을 결합하여 움직임 의도를 검출하는 단계; 및
(c-4) 상기 제1 뇌 신호의 변화 주기 및 강도에 기초하여 보행 속도 및 보행 보폭을 결정하고, 상기 착용형 로봇의 다리 움직임을 인식하는 단계를 포함하는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법.
According to claim 2,
Step (c) is,
(c-1) removing the motion noise from the first and second brain signals based on the reference signal;
(c-2) detecting an intention to start walking based on the first brain signal;
(c-3) detecting motion intention by combining features of the first and second brain signals; And
(c-4) determining a walking speed and a walking stride based on a change period and intensity of the first brain signal, and recognizing leg movement of the wearable robot,
Wearable robot control method based on brain machine interface based motion intention detection.
제3항에 있어서,
상기 (c-1) 단계는
상기 제1 및 제2 뇌 신호와 상기 참조 신호로부터 내부 잡음 성분을 제거하고, 특정 주파수 대역으로 필터링하는 전처리 단계;
상기 참조 신호를 이용한 제약적 독립성분 분석(Constrained independent component analysis, C-ICA)을 통해 상기 제1 및 제2 뇌 신호로부터 추정된 움직임 잡음을 추출하는 단계; 및
적응형 필터(Adaptive filter)를 통해 상기 제1 및 제2 뇌 신호로부터 상기 추정된 움직임 잡음을 제거하여 상기 움직임 잡음이 제거된 제1 및 제2 뇌 신호를 획득하는 단계를 포함하되,
상기 움직임 잡음 분류기는 상기 추정된 움직임 잡음을 걸음 단위 기반으로 템플릿을 구성하여 학습되는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법.
According to claim 3,
Step (c-1) is
A pre-processing step of removing internal noise components from the first and second brain signals and the reference signal and filtering to a specific frequency band;
Extracting motion noise estimated from the first and second brain signals through constrained independent component analysis (C-ICA) using the reference signal; And
And removing the estimated motion noise from the first and second brain signals through an adaptive filter to obtain first and second brain signals from which the motion noise has been removed.
The motion noise classifier is learned by constructing a template based on the estimated motion noise on a step-by-step basis,
Wearable robot control method based on brain machine interface based motion intention detection.
제3항에 있어서,
상기 (c-2) 단계는
상기 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 기 학습된 상기 보행 시작 의도 분류기를 이용하여 사용자의 보행 시작 의도를 검출하는 단계를 포함하되,
상기 보행 시작 의도 분류기는 기 수집된 상기 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 기계학습 알고리즘을 통해 학습되는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법.
According to claim 3,
Step (c-2) is
And extracting a feature of the first brain signal using a common spatial pattern algorithm, and detecting a user's walking start intention using the pre-trained walking start intention classifier.
The gait start intention classifier extracts features using the common spatial pattern algorithm of the first brain signal, and is learned through a machine learning algorithm.
Wearable robot control method based on brain machine interface based motion intention detection.
제3항에 있어서,
상기 (c-3) 단계는
상기 제1 뇌 신호를 시간-주파수 패턴으로 추출한 특징과, 상기 제2 뇌 신호를 주파수 패턴으로 추출한 특징을 결합하고, 기 학습된 상기 움직임 의도 분류기를 이용하여 사용자의 움직임 의도를 검출하는 단계를 포함하되,
상기 움직임 의도 분류기는 기 수집된 상기 제1 뇌 신호를 시간-주파수 패턴을 이용하여 특징벡터를 생성하고, 상기 제2 뇌 신호를 자극의 주파수 패턴을 이용하여 특징벡터를 생성하고, 추출된 두 특징을 결합한 하나의 특징벡터에 기초하여 기계학습 알고리즘을 통해 학습되는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법.
According to claim 3,
Step (c-3) is
And combining a feature extracted from the first brain signal into a time-frequency pattern, a feature extracted from the second brain signal into a frequency pattern, and detecting a user's motion intention using the pre-trained motion intention classifier. Ha,
The motion intention classifier generates a feature vector using the time-frequency pattern of the first brain signal collected previously, a feature vector using the frequency pattern of stimulation of the second brain signal, and extracts the two features. Learning through machine learning algorithm based on one feature vector that combines
Wearable robot control method based on brain machine interface based motion intention detection.
제3항에 있어서,
상기 (c-4) 단계는
상기 제1 뇌 신호의 지속 시간과 변화하는 시간을 포함하는 주파수의 주기에 따라 특징을 추출하여 보행 속도로 결정하고, 상기 제1 뇌 신호의 강도에 따라 특징을 추출하여 보행 보폭을 결정하는 단계를 포함하는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 방법.
According to claim 3,
Step (c-4) is
Determining a gait speed by extracting features according to a period of a frequency including a duration and a changing time of the first brain signal, and extracting features according to the strength of the first brain signal to determine a walking stride To include,
Wearable robot control method based on brain machine interface based motion intention detection.
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치에 있어서,
움직임 의도 검출에 따른 착용형 로봇 제어 프로그램이 저장된 메모리, 및
상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램의 실행에 따라, 착용형 로봇을 착용한 사용자의 왼발과 오른발에 각각 다른 촉각 자극을 제시하고,
움직임 동작 상상과 상기 촉각 자극에 의해 발현되는 사용자의 뇌 신호를 획득하고,
상기 뇌 신호 및 뇌 신호 분류기에 기초하여 상기 뇌 신호에 대응하는 움직임 의도를 판단하고,
각 움직임에 대한 상기 뇌 신호 분류기의 출력 값 및 상기 움직임 의도를 상기 사용자가 확인하도록 제어 명령 수신기에 전달하고,
상기 착용형 로봇이 상기 움직임 의도에 대응하는 기능을 수행하도록 상기 제어 명령 수신기에 의해 상기 착용형 로봇의 양발, 보행 속도 및 보행 보폭을 제어하되,
상기 뇌 신호 분류기는,
상기 사용자로부터 기수집된 뇌 신호에 기초하여 생성된 움직임 잡음 분류기, 보행 시작 의도 분류기 및 움직임 의도 분류기를 포함하고,
상기 뇌 신호를 입력으로 통과시켜 상기 움직임 의도가 복수의 움직임 중 어느 하나인지를 판단하는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치.
In the wearable robot control device according to the motion intention detection based on the brain machine interface,
Memory in which the wearable robot control program according to motion intention detection is stored, and
It includes a processor for executing a program stored in the memory,
According to the execution of the program, the processor presents different tactile stimuli to the left and right feet of the user wearing the wearable robot,
Acquire the brain signal of the user expressed by the motion imagination and the tactile stimulation,
Based on the brain signal and the brain signal classifier to determine the intention to move corresponding to the brain signal,
The output value of the brain signal classifier for each movement and the movement intention are transmitted to a control command receiver for the user to confirm,
The wearable robot controls both feet, walking speed and gait stride of the wearable robot by the control command receiver so as to perform a function corresponding to the movement intention,
The brain signal classifier,
And a motion noise classifier, a walking start intention classifier, and a motion intention classifier generated based on brain signals collected from the user,
Passing the brain signal as an input to determine whether the movement intention is one of a plurality of movements,
Wearable robot control device based on brain machine interface based motion intention detection.
제8항에 있어서,
상기 뇌 신호는
상기 착용형 로봇의 움직임에 의해 발생되는 움직임 잡음을 포함하는 것이되, 상기 움직임 동작 상상에 따라 획득된 제1 뇌 신호와 상기 촉각 자극에 따라 획득된 제2 뇌 신호를 포함하는 것이고,
상기 프로세서는
상기 착용형 로봇의 가속도 또는 각속도를 측정하는 센서로부터 측정한 값을 참조 신호로서 획득하되,
상기 제1 및 제2 뇌 신호와 참조 신호는 무선 통신을 통해 뇌 신호 전송부 및 뇌 신호 수신부에 의해 획득되는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치.
The method of claim 8,
The brain signal
It includes motion noise generated by the movement of the wearable robot, and includes a first brain signal obtained according to the motion motion imagination and a second brain signal obtained according to the tactile stimulus,
The processor
A value measured from a sensor measuring acceleration or angular velocity of the wearable robot is obtained as a reference signal,
The first and second brain signals and reference signals are obtained by the brain signal transmitting unit and the brain signal receiving unit through wireless communication,
Wearable robot control device based on brain machine interface based motion intention detection.
제9항에 있어서,
상기 프로세서는
상기 뇌 신호에 대응하는 움직임 의도를 판단하는 경우,
상기 참조 신호에 기초하여 상기 제1 및 제 2 뇌 신호로부터 상기 움직임 잡음을 제거하고,
상기 제1 뇌 신호에 기초하여 보행 시작 의도를 검출하고,
상기 제1 및 제2 뇌 신호의 특징을 결합하여 움직임 의도를 검출하고,
상기 제1 뇌 신호의 변화 주기 및 강도에 기초하여 보행 속도 및 보행 보폭을 결정하고, 상기 착용형 로봇의 다리 움직임을 인식하는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치.
The method of claim 9,
The processor
When determining a movement intention corresponding to the brain signal,
Removing the motion noise from the first and second brain signals based on the reference signal,
Walking intention is detected based on the first brain signal,
Combining features of the first and second brain signals to detect movement intention,
The walking speed and the walking stride are determined based on the change period and intensity of the first brain signal, and the leg movement of the wearable robot is recognized.
Wearable robot control device based on brain machine interface based motion intention detection.
제10항에 있어서,
상기 프로세서는
상기 움직임 잡음을 제거하는 경우,
상기 제1 및 제2 뇌 신호와 상기 참조 신호로부터 내부 잡음 성분을 제거하고, 특정 주파수 대역으로 필터링하는 전처리를 수행하고,
상기 참조 신호를 이용한 제약적 독립성분 분석(Constrained independent component analysis, C-ICA)을 통해 상기 제1 및 제2 뇌 신호로부터 추정된 움직임 잡음을 추출하고,
적응형 필터(Adaptive filter)를 통해 상기 제1 및 제2 뇌 신호로부터 상기 추정된 움직임 잡음을 제거하여 상기 움직임 잡음이 제거된 제1 및 제2 뇌 신호를 획득하는 것이되,
상기 움직임 잡음 분류기는 상기 추정된 움직임 잡음을 걸음 단위 기반으로 템플릿을 구성하여 학습되는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치.
The method of claim 10,
The processor
When removing the motion noise,
Preprocessing to remove internal noise components from the first and second brain signals and the reference signal, and to filter to a specific frequency band,
The estimated motion noise is extracted from the first and second brain signals through constrained independent component analysis (C-ICA) using the reference signal,
The first and second brain signals from which the motion noise is removed are obtained by removing the estimated motion noise from the first and second brain signals through an adaptive filter.
The motion noise classifier is learned by constructing a template based on the estimated motion noise on a step-by-step basis,
Wearable robot control device based on brain machine interface based motion intention detection.
제10항에 있어서,
상기 프로세서는
상기 보행 시작 의도를 검출하는 경우,
상기 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 기 학습된 상기 보행 시작 의도 분류기를 이용하여 사용자의 보행 시작 의도를 검출하는 것이되,
상기 보행 시작 의도 분류기는 기 수집된 상기 제1 뇌 신호를 공통 공간 패턴 알고리즘을 이용하여 특징을 추출하고, 기계학습 알고리즘을 통해 학습되는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치.
The method of claim 10,
The processor
When detecting the intention to start walking,
The feature of the first brain signal is extracted using a common spatial pattern algorithm, and the user's gait intention intention classifier is used to detect a user's gait intention.
The gait start intention classifier extracts features using the common spatial pattern algorithm of the first brain signal, and is learned through a machine learning algorithm.
Wearable robot control device based on brain machine interface based motion intention detection.
제10항에 있어서,
상기 프로세서는
상기 움직임 의도를 검출하는 경우,
상기 제1 뇌 신호를 시간-주파수 패턴으로 추출한 특징과, 상기 제2 뇌 신호를 주파수 패턴으로 추출한 특징을 결합하고, 기 학습된 상기 움직임 의도 분류기를 이용하여 사용자의 움직임 의도를 검출하는 것이되,
상기 움직임 의도 분류기는 기 수집된 상기 제1 뇌 신호를 시간-주파수 패턴을 이용하여 특징벡터를 생성하고, 상기 제2 뇌 신호를 자극의 주파수 패턴을 이용하여 특징벡터를 생성하고, 추출된 두 특징을 결합한 하나의 특징벡터에 기초하여 기계학습 알고리즘을 통해 학습되는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치.
The method of claim 10,
The processor
When detecting the movement intention,
Combining the features of extracting the first brain signal with a time-frequency pattern and the features of extracting the second brain signal with a frequency pattern, and detecting a user's motion intention using the previously learned motion intention classifier,
The motion intention classifier generates a feature vector using the time-frequency pattern of the first brain signal collected previously, a feature vector using the frequency pattern of stimulation of the second brain signal, and extracts the two features. Learning through machine learning algorithm based on one feature vector that combines
Wearable robot control device based on brain machine interface based motion intention detection.
제10항에 있어서,
상기 프로세서는
상기 다리 움직임을 인식하는 경우,
상기 제1 뇌 신호의 지속 시간과 변화하는 시간을 포함하는 주파수의 주기에 따라 특징을 추출하여 보행 속도로 결정하고, 상기 제1 뇌 신호의 강도에 따라 특징을 추출하여 보행 보폭을 결정하는 것인,
뇌 기계 인터페이스 기반의 움직임 의도 검출에 따른 착용형 로봇 제어 장치.
The method of claim 10,
The processor
When recognizing the movement of the leg,
It is to determine a gait speed by extracting features according to a period of a frequency including a duration and a changing time of the first brain signal, and extracting features according to the strength of the first brain signal to determine a walking stride. ,
Wearable robot control device based on brain machine interface based motion intention detection.
KR1020190094424A 2018-11-06 2019-08-02 Apparatus and method for controlling wearable robot by detecting motion intention of users based on brain machine interface KR102276991B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180135194 2018-11-06
KR1020180135194 2018-11-06

Publications (3)

Publication Number Publication Date
KR20200052209A true KR20200052209A (en) 2020-05-14
KR102276991B1 KR102276991B1 (en) 2021-07-13
KR102276991B9 KR102276991B9 (en) 2023-09-07

Family

ID=70736921

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190094424A KR102276991B1 (en) 2018-11-06 2019-08-02 Apparatus and method for controlling wearable robot by detecting motion intention of users based on brain machine interface

Country Status (1)

Country Link
KR (1) KR102276991B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111990992A (en) * 2020-09-03 2020-11-27 山东中科先进技术研究院有限公司 Electroencephalogram-based autonomous movement intention identification method and system
CN114795117A (en) * 2022-04-14 2022-07-29 南开大学 Brain signal analysis method based on graph signal processing
CN114795117B (en) * 2022-04-14 2024-05-14 南开大学 Brain signal analysis method based on graph signal processing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150069817A (en) * 2013-12-16 2015-06-24 삼성전자주식회사 Wearable robot and method for controlling the same
WO2018011615A1 (en) * 2016-07-13 2018-01-18 National Institute Of Advanced Industrial Science And Technology System for precise decoding of movement related human intention from brain signal
JP2018521725A (en) * 2015-06-02 2018-08-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System for supporting elderly, frail and / or affected persons
KR20180114692A (en) * 2017-04-11 2018-10-19 재단법인대구경북과학기술원 Brain training simulation system based on behavior modeling

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150069817A (en) * 2013-12-16 2015-06-24 삼성전자주식회사 Wearable robot and method for controlling the same
JP2018521725A (en) * 2015-06-02 2018-08-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System for supporting elderly, frail and / or affected persons
WO2018011615A1 (en) * 2016-07-13 2018-01-18 National Institute Of Advanced Industrial Science And Technology System for precise decoding of movement related human intention from brain signal
KR20180114692A (en) * 2017-04-11 2018-10-19 재단법인대구경북과학기술원 Brain training simulation system based on behavior modeling

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111990992A (en) * 2020-09-03 2020-11-27 山东中科先进技术研究院有限公司 Electroencephalogram-based autonomous movement intention identification method and system
CN114795117A (en) * 2022-04-14 2022-07-29 南开大学 Brain signal analysis method based on graph signal processing
CN114795117B (en) * 2022-04-14 2024-05-14 南开大学 Brain signal analysis method based on graph signal processing

Also Published As

Publication number Publication date
KR102276991B1 (en) 2021-07-13
KR102276991B9 (en) 2023-09-07

Similar Documents

Publication Publication Date Title
Pfurtscheller et al. 15 years of BCI research at Graz University of Technology: current projects
Zhao et al. SSVEP-based brain–computer interface controlled functional electrical stimulation system for upper extremity rehabilitation
Rao et al. Brain-computer interfacing [in the spotlight]
Jacob et al. Artificial muscle intelligence system with deep learning for post-stroke assistance and rehabilitation
CN107981997B (en) A kind of method for controlling intelligent wheelchair and system based on human brain motion intention
RU2683859C1 (en) Method and system for controlling electronic devices by electromyographic reading device
Lange et al. Classification of electroencephalogram data from hand grasp and release movements for BCI controlled prosthesis
KR101549325B1 (en) Method for control of machine interface
Bansal et al. EEG-based brain-computer interfacing (BCI)
JPWO2017213202A1 (en) Exercise teaching system and exercise teaching method
KR102269587B1 (en) Brain-computer interface systems and method for analysing brain wave signals expressed by motor imagery
WO2020065534A1 (en) System and method of generating control commands based on operator's bioelectrical data
US20220187913A1 (en) Neurorehabilitation system and neurorehabilitation method
English et al. EyePhone: A mobile EOG-based human-computer interface for assistive healthcare
CN113040791A (en) Vibration trigger equipment, finger lifting device and touch finger motion rehabilitation system
KR102276991B1 (en) Apparatus and method for controlling wearable robot by detecting motion intention of users based on brain machine interface
Borah et al. A BCI framework for smart home automation using EEG signal
Vinoj et al. IoT-powered deep learning brain network for assisting quadriplegic people
Ullah et al. Providing facilities in health care via brain-computer interface and Internet of Things
KR101607893B1 (en) Apparatus for generating sssep and operating method thereof
Ahmed et al. A writing aid for dysgraphia affected people
RU193501U1 (en) Device for replacing lost human functions using feedback
Abdulwahab et al. A Survey in Implementation and Applications of Electroencephalograph (EEG)-Based Brain-Computer Interface
Talha Ejaz et al. EEG Based Brain Controlled RC Car with Attention Level
Martišius Data acquisition and signal processing methods for brain–computer interfaces

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
G170 Re-publication after modification of scope of protection [patent]