KR101618186B1 - A rehabilitation robot control system and control method based on brain-machine interface - Google Patents

A rehabilitation robot control system and control method based on brain-machine interface Download PDF

Info

Publication number
KR101618186B1
KR101618186B1 KR1020140062653A KR20140062653A KR101618186B1 KR 101618186 B1 KR101618186 B1 KR 101618186B1 KR 1020140062653 A KR1020140062653 A KR 1020140062653A KR 20140062653 A KR20140062653 A KR 20140062653A KR 101618186 B1 KR101618186 B1 KR 101618186B1
Authority
KR
South Korea
Prior art keywords
robot
signal
brain
management unit
movement
Prior art date
Application number
KR1020140062653A
Other languages
Korean (ko)
Other versions
KR20150135018A (en
Inventor
방문석
정천기
김성완
오병모
김유단
김준식
서한길
박성우
김윤재
김원식
염홍기
이용우
박철우
현 최
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020140062653A priority Critical patent/KR101618186B1/en
Publication of KR20150135018A publication Critical patent/KR20150135018A/en
Application granted granted Critical
Publication of KR101618186B1 publication Critical patent/KR101618186B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus ; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/027Electromagnetic sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user
    • A61H2230/08Other bio-electrical signals
    • A61H2230/10Electroencephalographic signals

Abstract

본 발명은 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템에 관한 것으로서, 상세하게는 재활 로봇이 사용자의 의도하고자 하는 목표 지점에 효과적으로 이동할 수 있도록 하는 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템에 관한 것이다.
이러한 목적을 달성하기 위한 본 발명은, 뇌의 특정영역으로 부터 전자기적 신호를 수신하고, 이로부터 특정 신체부위의 이동 목표 지점에 관한 특성을 추출하는 신호관리부와; 상기 신호관리부와 연결되고 상기 특정 신체부위와 연관되는 로봇이 해당 이동 목표 지점에 도달하기 위한 궤적 또는 경로점을 생성하고 관리하는 이동정보 관리부와; 상기 이동 정보 관리부로부터 로봇의 유도신호를 받아서 상기 로봇의 움직임을 제어하는 제어부를 포함하며, 상기 이동정보 관리부는 상기 로봇이 해당 이동 목표 지점에 도달하기 위한 궤적 또는 경로점을 이탈하였는지 여부를 판단하여, 그에 따라서 위치 수정을 위한 유도 신호를 생성할 수 있도록 마련되는 것을 특징으로 하는 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템 및 제어방법을 제공한다.
The present invention relates to a brain-machine interface-based rehabilitation robot control system, and more particularly, to a brain-machine interface-based rehabilitation robot control system that enables a rehabilitation robot to effectively move to a target point intended by a user.
According to an aspect of the present invention, there is provided a mobile communication terminal comprising: a signal management unit for receiving an electromagnetic signal from a specific region of the brain and extracting characteristics relating to a moving target point of a specific body region from the electromagnetic signal; A movement information management unit connected to the signal management unit and generating and managing a locus or path point for the robot to be associated with the specific body part to reach the movement target point; And a control unit for receiving the guidance signal of the robot from the movement information management unit and controlling the movement of the robot, wherein the movement information management unit determines whether the robot has departed from a path or a path point for reaching the movement target point And generating an induction signal for correcting a position of the rehabilitation robot, and a controller for controlling the rehabilitation robot based on the brain-machine interface.

Description

뇌-기계 인터페이스 기반 재활 로봇 제어 시스템 및 제어방법{ A rehabilitation robot control system and control method based on brain-machine interface}Technical Field [0001] The present invention relates to a brain-machine interface-based rehabilitation robot control system and a control method thereof,

본 발명은 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템에 관한 것으로서, 상세하게는 재활 로봇이 사용자의 의도하고자 하는 목표 지점에 효과적으로 이동할 수 있도록 하는 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템에 관한 것이다. The present invention relates to a brain-machine interface-based rehabilitation robot control system, and more particularly, to a brain-machine interface-based rehabilitation robot control system that enables a rehabilitation robot to effectively move to a target point intended by a user.

재활치료는 고령으로 인한 질환 외에 사고 등으로 신체에 손상을 입었을 때, 손상 부위의 기능적 회복을 위해 수행하는 일련의 처치과정을 포함한다.Rehabilitation treatment includes a series of treatment procedures that are performed for the functional recovery of the injured area when the body is damaged due to an accident or the like in addition to the disease caused by the aged.

따라서, 사고가 발생하거나 뇌졸중, 외상성 뇌손상 또는 뇌성마비 등에 의한 신체 기능의 손상, 또는 노화로 인한 근력의 약화, 각종 성인병에 의해 신체 기능이 손상된 환자에 대해서는, 손상된 신체 기능의 일부 혹은 전부를 회복하기 위해 의사나 물리 치료사 등의 전문가에 의해 장기적이고 체계적인 물리적 재활 치료를 제공받아야 한다.  Therefore, for patients suffering from an accident or impairment of body function due to stroke, traumatic brain injury, or cerebral palsy, or weakening of strength due to aging, or physical disability caused by various adult diseases, some or all of the damaged body function is recovered Long-term, systematic physical rehabilitation treatment should be provided by specialists such as doctors and physical therapists.

또한, 재활 치료 과정 동안 재활환자의 재활 훈련 정보를 별도의 데이터베이스 등에 저장하고 이를 활용함으로써 보다 체계적으로 재활 훈련을 수행할 수 있다.In addition, rehabilitation training information of rehabilitation patients can be stored in a separate database during rehabilitation treatment process, and rehabilitation training can be performed more systematically.

그러나, 재활 훈련을 위한 정보를 의사나 물리 치료사가 반복적으로 생성시켜 주어야하고, 또한 재활 훈련을 안전하게 반복적으로 수행하기 위해서는 의사나 물리 치료사의 육체적 노력과 시간 및 숙련도 등이 필요하다.However, physicians and physiotherapists must repeatedly generate information for rehabilitation training. In order to perform rehabilitation training safely and repeatedly, physicians and physical therapists need physical effort, time and proficiency.

이러한 한계를 극복하기 위해 하지(하체) 재활 훈련, 예를 들면, 보행 훈련을 기기적으로 보조해 주는 보행 보조 장치들이 개발되고 있으며, 어깨 등 상지(상체)의 거동을 보조하고 근력을 회복시킬 수 있는 상지 재활기기들도 개발되고 있다.In order to overcome these limitations, gait assist devices are being developed that provide mechanical support to lower (lower) rehabilitation exercises, for example, gait training, and to assist the movement of the upper body (upper body) Upper limb rehabilitation devices are being developed.

특히, 이러한 재활을 위하여 로봇들이 최근 들어 개발되고 있는데, 한국공개특허 10-2012-0057081호에 그러한 재활 로봇이 개시되고 있다.In particular, robots have been recently developed for such rehabilitation, and Korean Patent Laid-Open No. 10-2012-0057081 discloses such rehabilitation robots.

이러한 재활로봇 중에는 해석된 뇌 신호를 이용하여 구동되는 것들이 있으며, 이러한 로봇들이 뛰어난 재활효과를 보여준다고 주장하는 연구들이 최근 보고되고 있다.Some of these rehabilitation robots are driven by the interpreted brain signals, and researches claiming that these robots exhibit excellent rehabilitation effects are being reported recently.

이러한 재활로봇에 있어서, 뇌신호로부터 추정된 상지의 움직임을 그대로 로봇에 적용할 경우, 사람팔과 로봇팔의 위치 차이로 인하여 로봇팔이 사람이 의도한 목적지로 도달하지 못하는 문제가 발생한다. 만약 뇌신호가 목적지에 도달한 후 로봇이 구동 된다면, 불가피하게 시간 지연이 심해지는 단점이 발생한다. In this rehabilitation robot, when the motion of the upper limb estimated from the brain signal is directly applied to the robot, there arises a problem that the robot arm can not reach the intended destination due to the position difference between the human arm and the robot arm. If the robot is driven after the brain signal reaches its destination, there is a disadvantage that the time delay becomes inevitable.

또한, 종래의 재활로봇은 뇌 전극 센서의 노이즈 및 신호 해석능력의 한계로 인해 특정 물체를 정확하게 잡는 등의 임무를 수행하는데 어려움을 겪을 수 있으며, 실제로 많은 경우에 극히 단순한 움직임을 구현하는데 그치고 있다. In addition, the conventional rehabilitation robot may have difficulty in performing tasks such as precisely capturing a specific object due to the noise and signal analysis ability of the brain electrode sensor, and in many cases, it is still practicing extremely simple motion in many cases.

본 발명은 재활 로봇이 사용자의 뇌신호를 효과적으로 추종하여 사용자가 원하는 위치로 이동할 수 있도록 하고, 실시간으로 로봇의 위치를 파악하여 외부의 영향을 최소화 할 수 있는 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템 및 제어방법을 제공하는데 그 목적이 있다. The present invention relates to a brain-machine interface-based rehabilitation robot control system which enables a rehabilitation robot to effectively follow a user's brain signal and move to a desired position by a user, And a control method.

이러한 목적을 달성하기 위한 본 발명은, 뇌의 특정영역으로 부터 전자기적 신호를 수신하고, 이로부터 특정 신체부위의 이동 목표 지점에 관한 특성을 추출하는 신호관리부와;According to an aspect of the present invention, there is provided a mobile communication terminal comprising: a signal management unit for receiving an electromagnetic signal from a specific region of the brain and extracting characteristics relating to a moving target point of a specific body region from the electromagnetic signal;

상기 신호관리부와 연결되고 상기 특정 신체부위와 연관되는 로봇이 해당 이동 목표 지점에 도달하기 위한 궤적 또는 경로점을 생성하고 관리하는 이동정보 관리부와;A movement information management unit connected to the signal management unit and generating and managing a locus or path point for the robot to be associated with the specific body part to reach the movement target point;

상기 이동 정보 관리부로부터 로봇의 유도신호를 받아서 상기 로봇의 움직임을 제어하는 제어부를 포함하며, And a control unit for receiving the guidance signal of the robot from the movement information management unit and controlling the movement of the robot,

상기 이동정보 관리부는 상기 로봇이 해당 이동 목표 지점에 도달하기 위한 궤적 또는 경로점을 이탈하였는지 여부를 판단하여, 그에 따라서 위치 수정을 위한 유도 신호를 생성할 수 있도록 마련되는 것을 특징으로 하는 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템을 제공한다. Wherein the movement information management unit is provided to determine whether the robot has departed from a trajectory or a path point for reaching the movement target point and generate an induction signal for correcting the position accordingly. And provides an interface-based rehabilitation robot control system.

상기 신호 관리부는;뇌로부터 전자기적 신호를 수신하는 신호 수신부와;The signal managing unit includes: a signal receiving unit for receiving an electromagnetic signal from the brain;

상기 전자기적 신호를 필터링 처리하는 신호 처리부와; 상기 신호처리부로부터 특정 신체부위의 이동 목표지점의 위치 및 특정 신체 부위의 속도 및 위치 특징을 추출하는 특징 추출부를 포함하는 것을 특징으로 한다. A signal processor for filtering the electromagnetic signal; And a feature extraction unit for extracting, from the signal processing unit, a position of a moving target point of a specific body part and a velocity and a position characteristic of the specific body part.

상기 이동 정보 관리부는; 상기 특징 추출부에서 추출된 특징을 기반으로 하여 이동 목표 지점의 위치 및 이에 도달할 수 있는 연속적 궤적 또는 단속적인 복수의 경로점을 연산하는 연산부와, 현재 로봇의 위치 상태를 측정하는 위치 또는 속도를 측정하는 특성 추출부와;Wherein the movement information management unit comprises: An operation unit for calculating a position of the moving target point and a continuous trajectory or a plurality of intermittent path points that can reach the position of the moving target point based on the feature extracted by the feature extracting unit; A characteristic extracting unit for measuring the characteristic;

상기 연산부 및 상기 특성 추출부의 정보를 바탕으로 상기 로봇의 동작 유도 신호를 발생하는 유도 신호 발생부를 포함하는 것을 특징으로 한다. And an induction signal generator for generating an operation induction signal of the robot based on the information of the operation unit and the characteristic extractor.

상기 연산부는 상기 특성 측정부로부터 수신된 상기 로봇의 위치를 기반으로 상기 로봇의 현재 위치가 상기 궤적 또는 상기 경로점을 이탈하였는지 판단하고, Wherein the calculation unit determines whether the current position of the robot has deviated from the locus or the route point based on the position of the robot received from the characteristic measurement unit,

상기 궤적 또는 상기 경로점 이탈시 상기 유도 신호 발생부는 위치 수정을 위한 유도 신호를 발생시키는 것을 특징으로 한다. And the induction signal generator generates an induction signal for correcting the position when the path or the path point is deviated.

상기 특성 추출부는 상기 로봇에 마련되어 구동모터의 상태를 엔코딩하는 엔코더 또는 가속도 센서 또는 자이로스코프 또는 상기 로봇 외부의 센서부를 통해서 상기 로봇의 위치 또는 속도를 측정하는 것을 특징으로 한다. Wherein the characteristic extracting unit measures the position or speed of the robot through an encoder or an acceleration sensor or a gyroscope or a sensor unit outside the robot, which is provided in the robot and encodes the state of the driving motor.

상기 센서부는 카메라부로 구성되는 것을 특징으로 한다. The sensor unit may include a camera unit.

또한, 본 발명은 뇌의 특정영역으로부터 전자기적 신호를 수신하고, 이로부터 사용자가 의도한 특정 신체부위의 현재 위치를 추정하여 추정된 위치의 특성을 추출하는 신호관리부와; 상기 신호관리부와 연결되고 상기 추정된 특정 신체부위의 현재 위치에 도달하기 위한 정보를 생성하고 관리하는 이동정보 관리부와; 상기 이동 정보 관리부로부터 로봇의 유도신호를 받아서 상기 로봇의 움직임을 제어하는 제어부를 포함하며, 상기 이동정보 관리부는 상기 로봇이 상기 추정된 특정 신체부위의 현재 위치와 소정거리 이상 떨어진 경우, 상기 추정된 특정 신체부위를 실시간으로 추적할 수 있는 위치 수정을 위한 유도 신호를 생성할 수 있도록 마련되는 것을 특징으로 하는 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템을 제공한다.According to another aspect of the present invention, there is provided an apparatus for analyzing a subject, comprising: a signal management unit for receiving an electromagnetic signal from a specific region of the brain and extracting characteristics of the estimated position by estimating a current position of a specific body part intended by the user; A movement information management unit connected to the signal management unit and generating and managing information for reaching a current position of the estimated specific body part; And a control unit for receiving the guidance signal of the robot from the movement information management unit and controlling the motion of the robot, wherein the movement information management unit, when the robot is away from the current position of the estimated specific body part by a predetermined distance or more, And a controller for generating an induction signal for correcting a position of the body-part to track a specific body part in real time.

또한, 본 발명은 뇌의 특정 영역으로부터 전자기적 신호를 수신하는 단계와; 수신된 신호를 처리하고, 이를 기반으로 사용자의 특정 신체 부위의 이동 목표 지점에 대한 정보를 추출하는 단계와; 추출된 이동 목표 지점과 현재 로봇의 위치를 기반으로 로봇의 이동 궤적을 연산하고, 이에 대응되는 유도 신호를 발생시키는 단계와;상기 유도 신호에 따라서 로봇이 동작하도록 제어 명령을 발생시키는 단계와;상기 로못의 위치 및 속도에 대한 정보를 실시간으로 수신하여 로봇의 위치가 기 제공된 이동 궤적을 이탈하였는지 여부를 판단하고, 이탈한 경우, 상기 이동 궤적으로 복귀할 수 있도록 위치 수정을 위한 제어 신호를 발생시키는 단계를 포함하는 것을 특징으로 한다. The present invention also provides a method comprising: receiving an electromagnetic signal from a specific region of the brain; Processing the received signal and extracting information on a moving target point of a specific body part based on the received signal; Calculating a movement trajectory of the robot on the basis of the extracted moving target point and the position of the current robot and generating an induction signal corresponding to the movement trajectory, generating a control command to operate the robot according to the induction signal, The controller receives the information about the position and speed of the robot in real time to determine whether or not the position of the robot deviates from the provided movement trajectory and generates a control signal for position correction so that the robot can return to the movement trajectory The method comprising the steps of:

상기 이동 궤적은 연속된 선 형태로 구현되거나, 또는 상호 이격되는 복수의 경로점으로 구현되는 것을 특징으로 한다. The movement trajectory may be implemented as a continuous line or as a plurality of path points spaced apart from each other.

상기 유도 신호는 궤적 추종 유도 방식 또는 경로점 유도 방식에 의하여 구현되는 것을 특징으로 한다. The induction signal is implemented by a trajectory tracking induction method or a path point induction method.

상기 로봇의 위치 및 속도에 대한 정보의 실시간 수신은,상기 로봇에 마련되어 구동모터의 상태를 엔코딩하는 엔코더 또는 가속도 센서 또는 자이로스코프 또는 상기 로봇 외부에 마련되는 카메라로 구현된 센서부를 통해서 이루어지는 것을 특징으로 한다. The real-time reception of the information on the position and speed of the robot is performed by an encoder or an acceleration sensor or a gyroscope provided in the robot and encoding the state of the driving motor or a sensor unit implemented by a camera provided outside the robot do.

또한, 본 발명은 뇌의 특정 영역으로부터 전자기적 신호를 수신하는 단계와; 수신된 신호를 처리하고, 이를 기반으로 사용자가 의도한 특정 신체 부위의 현재 위치를 추정하고, 이에 대한 정보를 추출하는 단계와; 추출된 특정 신체 부위의 추정 위치와, 현재 로봇의 위치를 기반으로 로봇의 이동 궤적을 연산하고, 이에 대응되는 유도 신호를 발생시키는 단계와; 상기 유도 신호에 따라서 로봇이 동작하도록 제어 명령을 발생시키는 단계와; 상기 로봇의 위치 및 속도에 대한 정보를 실시간으로 수신하여 로봇의 위치가 추정된 특정 신체 부위의 현재 위치와 소정 거리 이상 이격되었는지 여부를 판단하고, 그러한 경우, 상기 추정된 특정 신체 부위의 현재 위치를 실시간으로 추적할 수 있도록, 상기 로봇의 위치 수정을 위한 제어 신호를 발생시키는 단계를 포함하는 것을 특징으로 하는 뇌-기계 인터페이스 기반 재활 로봇의 제어 방법을 제공한다. The present invention also provides a method comprising: receiving an electromagnetic signal from a specific region of the brain; Processing the received signal, estimating a current position of a specific body part intended by the user based on the received signal, and extracting information on the current position; Calculating a movement locus of the robot on the basis of the estimated position of the extracted specific body part and the position of the current robot and generating an induction signal corresponding thereto; Generating a control command so that the robot is operated according to the induction signal; The controller receives the information about the position and the speed of the robot in real time and determines whether or not the position of the robot is separated from the current position of the estimated specific body part by a predetermined distance or more. And generating a control signal for correcting the position of the robot so as to be able to track the robot in real time. The present invention also provides a control method of a brain-machine interface based rehabilitation robot.

이와 같은 본 발명에 의하여 사용자의 뇌에서 나오는 전자기적 신호를 해석하여 사용자가 의도하는 목표 위치를 인식하고, 이에 따른 이동 궤적을 추출한 후, 이에 대응되는 로봇의 이동 궤적을 산출함으로써, 사용자의 의도에 부합하는 로봇의 움직임을 구현할 수 있다.According to the present invention, an electromagnetic signal emitted from a user's brain is analyzed to recognize a target position intended by a user, and a movement trajectory corresponding to the target position is extracted. Then, the movement trajectory of the robot is calculated, The movement of the matching robot can be realized.

특히, 로봇의 이동 궤적 산출하고 이를 실제 운용에 반영하는 경우, 미사일이나 항공기와 같은 비행체의 이동 궤적을 산출하고 안내할 때 쓰이는 경로점 유도 방식 또는 궤적 추종 방식을 사용함으로써, 로봇이 보다 목표 위치에 효과적으로 도달할 수 있게 되었다. Particularly, when calculating the movement trajectory of the robot and reflecting it to the actual operation, by using the path point guidance method or the trajectory tracking method used for calculating and guiding the movement trajectory of the air vehicle such as a missile or an airplane, I can reach it effectively.

특히, 로봇의 움직임이나, 위치, 속도 등을 실시간을 측정하고, 로봇이 미리 정해진 이동 궤적을 이탈한 경우, 이동 궤적으로 복귀시키기 위한 제어 명령을 내림으로써, 사용자의 일상 생활에서의 편의를 증진시킬 수 있다. Particularly, by real-time measurement of the robot's movement, position, speed, and the like, and when the robot deviates from the predetermined movement locus, a control command for returning to the locus of movement is issued, .

또한, 로봇의 위치가 뇌신호에서 추정된 사람의 손가락의 위치와 차이가 있는 경우, 로봇이 이를 추적하여 그 위치를 보정함으로써, 사용자의 의도에 부합하는 로봇의 위치 제어를 구현할 수 있다.In addition, if the position of the robot is different from the position of the finger of a person estimated from the brain signal, the robot tracks the position of the finger and corrects the position thereof, thereby realizing the position control of the robot in accordance with the user's intention.

도1은 본 발명에 의한 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템의 구성도이다.
도2는 본 발명에 의한 제어부에 적용될 수 있는 일 실시예로서의 PID제어부의 블록도이다.
도3(a)은 본 발명에 의하여 구현되는 경로점 안내 방식을 나타낸 개략도이다.
도3(b)는 발명에 의하여 구현되는 궤적 추종 안내 방식을 나타낸 개략도이다.
도4는 본 발명에서 사용자의 뇌 신호를 분석하여 추정한 사람의 손가락의 위치 궤적과, 이를 실시간으로 추적하는 로봇의 이동 궤적을 도시한 것이다.
도5와 도6은 본 발명에 의한 제어 방법의 흐름도이다.
1 is a block diagram of a brain-machine interface-based rehabilitation robot control system according to the present invention.
2 is a block diagram of a PID controller as an embodiment applicable to a controller according to the present invention.
3 (a) is a schematic view showing a route point guidance method implemented by the present invention.
FIG. 3 (b) is a schematic diagram showing a trajectory tracking guidance method implemented by the invention.
FIG. 4 illustrates a locus of a finger of a person, which is estimated by analyzing a user's brain signal, and a locus of movement of the robot that tracks the finger in real time.
5 and 6 are flowcharts of a control method according to the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예에 대해서 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

몸의 특정 부분을 움직이고자 할 때 사람의 뇌의 운동 기능을 관리하는 영역에서 전자기적 신호(MEG, EEG)가 발생한다. 이 신호를 분석함으로써 그 사람이 어떠한 움직임을 하고자 하는지, 어디로 움직이고자 하는지 그 의도를 파악할 수 있다.Electromagnetic signals (MEG, EEG) occur in areas where the human brain functions to control the movement of a specific part of the body. By analyzing this signal, you can figure out what the person wants to do and where they want to go.

그 신호를 필터링하여 뇌파의 특정 주파수 밴드를 얻은 다음, 이것을 가속도 센서의 데이터와 다중 회귀분석(multiple linear regression) 등의 과정을 거쳐 신체의 움직임의 방향, 목표 등을 예측할 수 있다.The signal is filtered to obtain a specific frequency band of the EEG, which can then be predicted by the data of the acceleration sensor and multiple linear regression.

본 발명은 뇌-기계 인터페이스(Brain Machine Interface) 기반의 로봇 제어 시스템에 관한 것으로, 그 구성은 도1에서 도시한 바와 같다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot control system based on a brain-machine interface, and its configuration is as shown in FIG.

즉, 뇌(B)와 연결되는 신호 관리부(100)와, 신호 관리부(100)와 연결되는 이동정보 관리부(200)와, 제어부(300)와, 로봇(400)과, 센서부(500)를 포함한다. 이들의 구체적인 구성과, 역할은 아래와 같다. That is, the signal management unit 100 connected to the brain B, the movement information management unit 200 connected to the signal management unit 100, the control unit 300, the robot 400, and the sensor unit 500 . The specific structure and role of these are as follows.

신호 관리부(100)는 뇌로부터 전자기적 신호를 수신하고, 이로부터 특정 신체부위(예, 상지)의 이동 목표 지점에 관한 특성을 추출한다. The signal management unit 100 receives an electromagnetic signal from the brain and extracts characteristics relating to a moving target point of a specific body part (e.g., upper limb) from the electromagnetic signal.

한편, 신호 관리부(100)는 이동 목표 지점에 관한 것 뿐만 아니라, 사람의 뇌신호를 판단하여, 사용자가 의도하고자 하는 손가락 끝의 위치를 추적하는 기능도 수행할 수 있다. Meanwhile, the signal management unit 100 may perform not only the moving target point but also a function of determining the human brain signal and tracking the position of the fingertip the user intends.

신호 관리부(100)의 구체적인 구성을 보면, 뇌로부터 전자기적 신호를 수신하는 신호 수신부(110)와, 수신된 전자기적 신호를 필터링 처리하여 뇌파의 특정 주파수 밴드를 얻고, 다중 회귀 분석을 통하여 신호를 처리하는 신호 처리부(120)를 포함한다.The specific structure of the signal management unit 100 includes a signal receiving unit 110 for receiving electromagnetic signals from the brain, a specific frequency band of an EEG by filtering the received electromagnetic signals, And a signal processing unit 120 for processing the signal.

그리고, 신호 관리부(100)는 신호 처리부(120)에서 처리된 신호로부터 특정 신체부위의 이동 목표 지점의 위치 및 이동하고자 하는 신체 부위의 방향, 속도 특징, 또는 현재 의도한 신체(손가락 끝)의 위치를 추정하고 추출하는 특징 추출부(130)를 더 포함한다.The signal management unit 100 detects a position of a moving target point of a specific body part, a direction of a body part to be moved, a velocity characteristic, or a position of a current intended body (fingertip) from a signal processed by the signal processing unit 120 And a feature extraction unit 130 for extracting and extracting the feature extraction unit.

신호 관리부(100)에 의하여, 사용자의 뇌파 분석을 기반으로 그 이동 의도나, 의도한 위치를 파악하고 추정할 수 있는 것이다. The signal management unit 100 can grasp and estimate the intention and the intention of the movement based on the analysis of the user's brain wave.

신호 관리부(100)에 의하여 사용자의 의도가 파악되면, 이 정보는 이동 정보 관리부(200)에 전달된다.When the intention of the user is grasped by the signal management unit 100, the information is transmitted to the movement information management unit 200.

이동 정보 관리부(200)는 특성 측정부(210)와, 연산부(220)와, 유도 신호 발생부(230)를 포함한다.The movement information management unit 200 includes a characteristic measurement unit 210, an operation unit 220, and an induction signal generation unit 230.

특성 측정부(210)는 로봇(400)에 마련되는 가속도 센서(430)나, 자이로스코프(440), 엔코더(420) 등으로부터 전달되는 정보에 기반하여 로봇의 속도, 현재 위치 상태를 측정할 수 있다.The characteristic measuring unit 210 can measure the speed and current position of the robot based on information transmitted from the acceleration sensor 430, the gyroscope 440, and the encoder 420 provided in the robot 400 have.

연산부(220)는 특성 측정부(210)에서 측정된 로봇(400)의 현재 상태 및 특징 추출부(130)에서 추출된 사용자의 의도 목표, 방향, 속도를 기반으로 이동 목표 지점의 좌표를 연산하는 동시에, 이동 궤적을 연산한다.The calculating unit 220 calculates the coordinates of the moving target point based on the current state of the robot 400 measured by the characteristic measuring unit 210 and the intention target, direction, and speed of the user extracted by the feature extracting unit 130 At the same time, the movement locus is calculated.

여기서 연산부(220)에 의하여 연산되는 이동 궤적은 연속적인 선형/비선형 궤적일 수 있고, 또는 상호 이격되는 다수의 경로점에 의하여 구현되는 궤적일 수 있다.The movement locus calculated by the calculation unit 220 may be a continuous linear / non-linear locus, or may be a locus realized by a plurality of spaced-apart path points.

다수의 경로점을 통하여 궤적을 구하고, 이에 따라 안내하는 것을 경로점 유도(Waypoint Guidance)라고 하고, 연속적은 궤적을 구하고, 이에 따라 안내하는 것을 궤적 추종 유도(Trajectory Tracking Guidance)라고 한다. The trajectory is obtained through a plurality of route points, and the route guidance is referred to as "Waypoint Guidance." The continuous trajectory is obtained and the guidance is accordingly referred to as "Trajectory Tracking Guidance".

유도 신호 발생부(230)는 특성 측정부(210)에서 측정된 초기 로봇 특성(초기 위치, 속도) 정보 및 연산부(220)를 통하여 산출된 경로점 궤적 또는 연속 궤적을 정보에 따라 로봇(400)이 이동할 수 있도록 유도 신호를 발생시킨다. The induction signal generating unit 230 generates information on the initial robot position (initial position and velocity) measured by the characteristic measuring unit 210 and the path point trajectory or the continuous trajectory calculated through the calculating unit 220, So that an induction signal is generated.

다만, 연산부(220)는 특성 측정부(210)에서 측정된 로봇(400)의 현재 상태 및 특징 추출부(130)에서 추정된 사용자의 신체 부위(예, 손가락 끝)의 현재 위치를 고려하여, 로봇(400)의 현재 위치와, 사용자의 신체 부위의 추정된 현재 위치의 거리 차이도 연산할 수 있다.The calculation unit 220 may calculate the current state of the robot 400 based on the current state of the robot 400 measured by the characteristic measurement unit 210 and the current position of the user's body part (e.g., fingertip) estimated by the feature extraction unit 130, The distance difference between the current position of the robot 400 and the estimated current position of the user's body part can be calculated.

그리고, 로봇(400)의 현재 위치와, 사용자의 신체 부위의 추정된 현재 위치의 거리 차이가 소정 거리(예, 40mm) 이상이 되는 경우, 로봇(400)이 사용자의 신체 부위의 추정된 현재 위치를 추적하도록 로봇(400)의 이동 궤적을 연산할 수 있다. When the distance between the current position of the robot 400 and the estimated current position of the user's body part is equal to or greater than a predetermined distance (for example, 40 mm), the robot 400 calculates the estimated current position The movement locus of the robot 400 can be calculated.

여기서 연산부(220)에 의하여 연산되는 이동 궤적은 연속적인 선형/비선형 궤적일 수 있고, 또는 상호 이격되는 다수의 경로점에 의하여 구현되는 궤적일 수 있다.The movement locus calculated by the calculation unit 220 may be a continuous linear / non-linear locus, or may be a locus realized by a plurality of spaced-apart path points.

그리고, 유도 신호 발생부(230)는 특성 측정부(210)에서 측정된 초기 로봇 특성(초기 위치, 속도) 정보 및 연산부(220)를 통하여 산출되어, 실시간으로 로봇(400)이 사용자 신체 부위의 추정된 위치를 추적할 수 있게 하는 유도 신호를 발생시킬 수 있다. The induction signal generator 230 calculates the initial robot characteristic (initial position and speed) information measured by the characteristic measuring unit 210 and the calculated information through the calculating unit 220 so that the robot 400 real- It is possible to generate an induction signal that allows the estimated position to be tracked.

제어부(300)는 이러한 유도 신호를 받아서 로봇(400)을 제어한다.The control unit 300 receives the induction signal and controls the robot 400.

제어부(300)는 PID 제어기로 구성되는 것이 바람직하나, 이에만 한정되는 것은 아니다. 이에 따라서, 외란에 견실하며, 응답속도를 개선할 수 있고, 작동 오차도 현저하게 줄일 수 있다.The controller 300 is preferably configured as a PID controller, but the present invention is not limited thereto. Accordingly, it is robust to disturbance, the response speed can be improved, and the operating error can be remarkably reduced.

PID 제어기로 구현되는 제어부(300)의 구성은 도2에서 나타난 바와 같다.The configuration of the controller 300 implemented by the PID controller is as shown in FIG.

P제어기(310)와, I제어기(320)와, D제어기(330)는 상호 병렬적으로 연결된다.P controller 310, I controller 320, and D controller 330 are connected in parallel with each other.

P제어기(310)는 오차를 줄이는 기능을 하고, I제어기(320)는 외란 견실성에 기여하며, D제어기(330)는 응답속도를 높이는데 기여한다. The P controller 310 functions to reduce the error, the I controller 320 contributes to the disturbance robustness, and the D controller 330 contributes to increase the response speed.

PID제어 방식 말고, 선형 최적 제어 방법인 LQR(Linear Quadratic Regulator) 제어 방식도 이용될 수 있다.Besides the PID control method, a linear quadratic regulator (LQR) control method, which is a linear optimal control method, can also be used.

다시 도1로 돌아와서 로봇(400)은 그 외관을 형성하는 프레임(미도시)과, 프레임들을 구동시키는 구동부(410)와, 현재 로봇(400)의 가속도를 측정하는 가속도 센서(430)와, 회전 정보를 측정할 수 있는 자이로스코프(440) 등을 포함한다.1, the robot 400 includes a frame (not shown) for forming an outer appearance thereof, a driving unit 410 for driving the frames, an acceleration sensor 430 for measuring the acceleration of the robot 400, A gyroscope 440 capable of measuring information, and the like.

가속도 센서(430)에 의하여 로봇(400)의 위치를 알 수 있고, 자이로스코프(440)에 의하여 로봇의 단부(end point)의 회전 상태를 알 수 있다.The position of the robot 400 can be known by the acceleration sensor 430 and the rotation state of the end point of the robot can be known by the gyroscope 440. [

그리고, 로봇(400)은 엔코더(410)를 더 포함한다. 엔코더(420)는 구동모터로 구성되는 구동부(410)의 정보를 엔코딩하는 역할을 한다.The robot 400 further includes an encoder 410. The encoder 420 serves to encode the information of the driving unit 410 constituted by the driving motor.

가속도 센서(430) 또는 자이로스코프(440) 또는 엔코딩한 정보는 이동 정보 관리부(200), 제어부(300), 후술할 센서부(500)에 전달되어, 이들이 로봇(400)의 궤적을 수정하는데 사용될 수 있다.The acceleration sensor 430 or the gyroscope 440 or the encoded information is transmitted to the movement information management unit 200, the control unit 300 and the sensor unit 500 to be described later and is used to correct the locus of the robot 400 .

센서부(500)는 현재 로봇(400)의 배치 상태를 외부에서 측정하기 위한 것으로서, 적외선 카메라 또는 일반 카메라 등으로 구현되는 것이 바람직하다.The sensor unit 500 is for measuring the current state of the robot 400 from the outside, and is preferably implemented by an infrared camera, a general camera, or the like.

센서부(500)에서 확보한 정보는 이동 정보 관리부(200), 제어부(300)에 전달되어, 이들이 로봇(400)의 궤적을 수정하는데 사용될 수 있다.The information secured by the sensor unit 500 is transmitted to the movement information management unit 200 and the control unit 300 so that they can be used to correct the locus of the robot 400. [

센서부(500)에서 촬용한 정보는 로봇의 현재 상태, 목표 위치, 목표 물체, 외부 영향을 실시간을 파악한 정보이며, 그 결과가 센서부(500)에서 좌표값으로 변환될 수 있다. The information shot by the sensor unit 500 is information obtained by grasping the current state of the robot, the target position, the target object, and the external influences in real time, and the result can be converted into the coordinate value by the sensor unit 500.

따라서, 센서부(500)가 카메라인 경우, 카메라와 로봇 사이의 좌표변환 행렬을 통해서 목표 물체의 정확한 위치 및 외부 영향을 유도 신호에 반영할 수 있다. Accordingly, when the sensor unit 500 is a camera, the accurate position and external influence of the target object can be reflected in the induction signal through the coordinate transformation matrix between the camera and the robot.

도3은 사용자가 의도한 목표 지점이 설정되고, 로봇의 초기 위치를 아는 경우의 이동 궤적을 설정한 것을 도시한 것이다.Fig. 3 shows that a movement locus is set when a user's intended target point is set and the robot knows the initial position of the robot.

특히, 시작점과 목표점 사이에 장애물이 있는 경우를 상정하였다.In particular, it is assumed that there is an obstacle between the starting point and the target point.

도3(a)는 경로점 안내를 하는 경우를 나타낸다. 이 경우 연산부(도1참조, 220) 및 유도신호 발생부(도1참조, 230)에서는 시작점에서 목표점에 이르는 경로를 연속적인 선으로 구현하지 않고, 상호 간에 이격되는 복수의 중간 경로점으로 구현한다. Fig. 3 (a) shows a case where the route point guidance is performed. In this case, the path from the start point to the target point is not implemented as a continuous line in the operation unit 220 (see FIG. 1) and the induction signal generation unit 230 (see FIG. 1) but is implemented as a plurality of intermediate path points spaced from each other .

도3(b)는 궤적 추종 안내를 하는 경우를 나타낸다. 이 경우 연산부(220) 및 유도신호 발생부(230)에서는 시작점에서 목표점에 이르는 경로를 연속적인 선으로 구현한다. Fig. 3 (b) shows the case of performing the trajectory following guidance. In this case, the calculation unit 220 and the induction signal generator 230 implement a path from the starting point to the target point as a continuous line.

도3(a)와 도3(b)는 현재 지점에서 의도한 목표 지점이 정해진 경우, 그 사이의 궤적을 추정하거나 설정하고, 그 궤적을 로봇이 따라갈 수 있는 제어 방식을 표현한 것이다. Figs. 3 (a) and 3 (b) illustrate a control method in which a trajectory between them is estimated or set when the intended target point is determined at the current point, and the robot can follow the trajectory.

이러한 제어 방식을 GN&C(Guidance, Navigation, & Control) 방식이라고 한다. This control method is called GN & C (Guidance, Navigation, & Control) method.

도4는 도3과 같이 목표 지점까지의 추정된 완전한 궤적을 추종하는 것이 아니라, 사람의 추정된 손가락 끝의 그때 그때의 위치를 로봇이 실시간을 추적할 수 있도록 하는 제어 방식이 적용되는 경우, 추정된 손가락 끝 위치와 로봇의 위치 변화를 도시한 그래프이다. FIG. 4 is a diagram for explaining a case where a control method for enabling a robot to track real time of a position of a fingertip of a person at that time, instead of following an estimated complete trajectory to a target point as shown in FIG. 3, And the position of the robot is changed.

실선으로 표시된 것은 추정된 손가락의 위치 변화를 연결한 것이고, 점을 연결한 선은 로봇의 위치 변화를 연결한 것이다. The solid line shows the connection of the estimated finger position change, and the line connecting the points is the change of the position of the robot.

여기서, 로봇의 위치와 사람의 추정된 손가락의 위치(뇌신호를 분석하여 추정한 위치)가 40mm 이상 차이가 나는 경우, 로봇이 사람의 뇌신호에서 파악된 손가락의 위치를 추적할 수 있도록 한다. Here, when the position of the robot and the position of the estimated finger of the person (the position estimated by analyzing the brain signal) are different by 40 mm or more, the robot can track the position of the finger detected from the human brain signal.

이는 특수한 유도법칙(Guidance Law)를 적용하여 유도 명령(Guidance Command)를 생성한 것으로서, 로봇과 추정된 사람손 끝의 위치가 다른 경우에 로봇이 사람팔을 실시간으로 추적하며 따라갈 수 있도록 한 것이다. This is a guideline command generated by applying a special guiding law. In this case, the robot can track and follow the human arm in real time when the position of the estimated human hand is different.

여기서 유도법칙(Guidance Law)이란 미사일과 같은 비행체가 움직이는 목표물을을 추적하며 따라갈 때 쓰이는 유도명령(Guidance Command)의 종류이며, 대표적인 사례로, 속도 추적 유도(Velocity Pursuit Guidance), 시선 유도(Line-of-Sight Guidance), 비례항법유도(Proportional Navigation Guidance )등이 있다. Guidance Law is a type of Guidance Command used to track and follow a moving object such as a missile. Typical examples are Velocity Pursuit Guidance, Line- of-sight Guidance, and Proportional Navigation Guidance.

도4는 로봇과 추정된 사람 손 끝의 위치가 40mm차이 날 때, 속도 추적 유도(Velocity Pursuit Guidance)를 적용하여 로봇이 추정된 사람 손 끝의 위치를 실시간으로 추적한 결과를 그래프로 나타낸 것이다. FIG. 4 is a graph showing a result of real-time tracking of a position of a human hand estimated by a robot using velocity tracking guidance (Velocity Pursuit Guidance) when the estimated position of the human hand is different by 40 mm.

도5와 도6은 본 발명에 의한 동작을 도시한 것이다. Figures 5 and 6 illustrate operations according to the present invention.

우선, 신호 수신부에서 뇌의 전자기적 신호가 수신되면(S501), 신호 처리부는 이를 처리한다(S502). First, when an electromagnetic signal of the brain is received at the signal receiving unit (S501), the signal processing unit processes the electromagnetic signal (S502).

즉, 필터링 과정 및 다중 선형 회귀법 등을 통하여 신호가 처리되고, 특징추출부를 통하여 특정 신체부위(예, 팔)의 이동 목표 지점의 위치 및 이동하고자 하는 신체 부위의 방향, 속도 특징이 추출된다(S503). That is, the signal is processed through a filtering process and a polynomial regression method, and the position of the moving target point of the specific body part (e.g., arm) and the direction and speed characteristics of the body part to be moved are extracted through the feature extracting part (S503 ).

이와 같이, 사용자의 의도가 파악되면, 이 정보는 이동 정보 관리부에 전달된다.When the intention of the user is thus grasped, this information is transmitted to the movement information management unit.

이동 정보 관리부에서 현재 로봇의 속도 및 현재 위치 상태를 인식하고, 또한, 특징 추출부에서 추출된 사용자의 의도 목표, 방향, 속도를 기반으로 이동 목표 지점의 좌표를 연산하여, 이를 토대로 목표 위치에 다다르기 위한 이동 궤적을 연산한다. The movement information management unit recognizes the current speed and current position state of the robot and also calculates the coordinates of the movement target point based on the intention target, direction and speed of the user extracted from the feature extraction unit, And calculates a movement trajectory to be different.

이때, 이동 궤적은 연속된 선 형태의 연속 궤적일 수 있고(S504), 또는 상호 이격된 복수의 경로점으로 설정된 궤적일 수 있다(S505). At this time, the movement locus may be a continuous locus in the form of a continuous line (S504), or may be a locus set by a plurality of spaced-apart path points (S505).

이를 토대로 유도 신호 발생부가 제어부에 유도 신호를 발생시킨다(S506). Based on this, the induction signal generator generates an induction signal to the controller (S506).

제어부는 수신한 유도신호를 바탕으로 로봇에 구동 명령을 내리면, 로봇은 수신한 이동 궤적을 따라 움직인다(S507).When the control unit issues a driving command to the robot based on the received induction signal, the robot moves along the received movement trajectory (S507).

한편, 외란이나, 노이즈로 인하여 로봇의 위치가 원래 이동하기로 한 궤적을 벗어날 수 있다. On the other hand, due to disturbance or noise, the position of the robot can be displaced from a locus that is supposed to move originally.

로봇의 위치는 특성 측정부나, 제어부, 센서부에 의하여 실시간으로 인식된다.The position of the robot is recognized in real time by the characteristic measurement unit, the control unit, and the sensor unit.

로봇의 위치가 미리 정해진 이동 궤적을 이탈하였는지 판단하여(S508), 그러한 경우에는 현재의 위치 수정을 위한 제어 신호가 발생된다(S601). 이 제어 신호는 상기 유도 신호 발생부에서 발생하여 상기 제어부를 통해서 로봇에 전달된다.In step S508, it is determined whether the position of the robot deviates from the predetermined movement locus in step S508. In this case, a control signal for correcting the current position is generated in step S601. The control signal is generated by the induction signal generator and transmitted to the robot through the controller.

이에 의하여 로봇은 미리 정해진 이동 궤적으로 복귀할 수 있고, 로봇이 목표 지점에 도달하였다고 판단된 경우 전까지 위 과정을 지속적으로 반복하여 로봇이 사용자가 의도한 위치까지 이동할 수 있도록 한다(S602). In this case, the robot can return to the predetermined movement trajectory. If it is determined that the robot has reached the target point, the robot repeats the above process until the robot reaches the target position, so that the robot can move to the position intended by the user (S602).

한편으로는, 이동 목표 지점의 좌표를 연산하는 것 대신에, 사용자가 의도한 현재의 손가락 끝의 위치를 추정할 수 있게 의도한 지점의 좌표를 연산할 수도 있다. On the other hand, instead of calculating the coordinates of the movement target point, coordinates of a point intended to be able to estimate the position of the current fingertip the user intended can be calculated.

그리고, 그리고, 추정된 손가락의 끝 위치와, 현재 로봇의 위치를 비교하여, 두 위치의 차이가 소정 간격(예, 40mm)이상 벌어지는 경우, 로봇이 추정된 손가락 끝을 실시간을 추적할 수 있게 하는 것도 가능하다. Then, the estimated finger end position is compared with the current robot position, and when the difference between the two positions is greater than a predetermined distance (e.g., 40 mm), the robot can track the estimated finger tip in real time It is also possible.

100: 신호 관리부 110: 신호 수신부
120: 신호 처리부 130: 특징 추출부
200: 이동 정보 관리부 210: 특성 추출부
220: 연산부 230: 유도 신호 발생부
300: 제어부 400: 로봇
410: 구동부 420: 엔코더
430: 가속도 센서 440: 자이로스코프
500: 센서부
100: signal management unit 110: signal reception unit
120: signal processor 130: feature extractor
200: movement information management unit 210: characteristic extraction unit
220: operation unit 230: induction signal generator
300: control unit 400: robot
410: Driving unit 420: Encoder
430: Acceleration sensor 440: Gyroscope
500:

Claims (12)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 뇌의 특정영역으로부터 전자기적 신호를 수신하고, 이로부터 사용자가 의도한 특정 신체부위의 현재 위치를 추정하여 추정된 위치의 특성을 추출하는 신호관리부와;
상기 신호관리부와 연결되고 상기 추정된 특정 신체부위의 현재 위치에 도달하기 위한 정보를 생성하고 관리하는 이동정보 관리부와;
상기 이동 정보 관리부로부터 로봇의 유도신호를 받아서 상기 로봇의 움직임을 제어하는 제어부를 포함하며,
상기 이동정보 관리부는 상기 로봇이 상기 추정된 특정 신체부위의 현재 위치와 소정 거리 이상 떨어진 경우, 상기 추정된 특정 신체부위를 실시간으로 추적할 수 있는 위치 수정을 위한 유도 신호를 생성할 수 있도록 마련되는 것을 특징으로 하는 뇌-기계 인터페이스 기반 재활 로봇 제어 시스템.
A signal management unit for receiving an electromagnetic signal from a specific region of the brain and extracting characteristics of the estimated position by estimating a current position of a specific body part intended by the user;
A movement information management unit connected to the signal management unit and generating and managing information for reaching a current position of the estimated specific body part;
And a control unit for receiving the guidance signal of the robot from the movement information management unit and controlling the movement of the robot,
The movement information management unit is configured to generate an induction signal for position correction that can track the estimated specific body part in real time when the robot is away from the estimated current position of the specific body part by a predetermined distance or more Wherein the robot-machine-based rehabilitation robot control system is a brain-machine interface-based rehabilitation robot control system.
삭제delete 삭제delete 삭제delete 삭제delete 뇌의 특정 영역으로부터 전자기적 신호를 수신하는 단계와;
수신된 신호를 처리하고, 이를 기반으로 사용자가 의도한 특정 신체 부위의 현재 위치를 추정하고, 이에 대한 정보를 추출하는 단계와;
추출된 특정 신체 부위의 추정 위치와, 현재 로봇의 위치를 기반으로 로봇의 이동 궤적을 연산하고, 이에 대응되는 유도 신호를 발생시키는 단계와;
상기 유도 신호에 따라서 로봇이 동작하도록 제어 명령을 발생시키는 단계와;
상기 로봇의 위치 및 속도에 대한 정보를 실시간으로 수신하여 로봇의 위치가 추정된 특정 신체 부위의 현재 위치와 소정 거리 이상 이격되었는지 여부를 판단하고, 그러한 경우, 상기 추정된 특정 신체 부위의 현재 위치를 실시간으로 추적할 수 있도록, 상기 로봇의 위치 수정을 위한 제어 신호를 발생시키는 단계를 포함하는 것을 특징으로 하는 뇌-기계 인터페이스 기반 재활 로봇의 제어 방법.
Receiving an electromagnetic signal from a specific region of the brain;
Processing the received signal, estimating a current position of a specific body part intended by the user based on the received signal, and extracting information on the current position;
Calculating a movement locus of the robot on the basis of the estimated position of the extracted specific body part and the position of the current robot and generating an induction signal corresponding thereto;
Generating a control command so that the robot is operated according to the induction signal;
The controller receives the information about the position and the speed of the robot in real time and determines whether or not the position of the robot is separated from the current position of the estimated specific body part by a predetermined distance or more. And generating a control signal for correcting the position of the robot so as to track the robot in real time.
KR1020140062653A 2014-05-23 2014-05-23 A rehabilitation robot control system and control method based on brain-machine interface KR101618186B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140062653A KR101618186B1 (en) 2014-05-23 2014-05-23 A rehabilitation robot control system and control method based on brain-machine interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140062653A KR101618186B1 (en) 2014-05-23 2014-05-23 A rehabilitation robot control system and control method based on brain-machine interface

Publications (2)

Publication Number Publication Date
KR20150135018A KR20150135018A (en) 2015-12-02
KR101618186B1 true KR101618186B1 (en) 2016-05-04

Family

ID=54883359

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140062653A KR101618186B1 (en) 2014-05-23 2014-05-23 A rehabilitation robot control system and control method based on brain-machine interface

Country Status (1)

Country Link
KR (1) KR101618186B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101844301B1 (en) 2017-08-21 2018-04-02 재단법인 대구경북첨단의료산업진흥재단 Brain-machine interface based on object-oriented message and method thereof
KR20220005673A (en) * 2020-07-06 2022-01-14 한국과학기술연구원 Method for controlling moving body based on collaboration between the moving body and human, and apparatus for controlling the moving body thereof

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106716982B (en) * 2016-11-30 2020-07-31 深圳前海达闼云端智能科技有限公司 Method and device for controlling robot, server and robot
CN106983633A (en) * 2017-04-11 2017-07-28 杭州电子科技大学 A kind of embedded convalescence device for apoplexy
KR102014176B1 (en) * 2017-04-11 2019-08-26 재단법인대구경북과학기술원 Brain training simulation system based on behavior modeling
KR102144291B1 (en) * 2018-05-04 2020-08-13 계명대학교 산학협력단 Game-based rehabilitation system that combines brain stimulation and brain-computer interface techniques to maximize activation of mirror nerve cells and its control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086768A (en) 2002-08-28 2004-03-18 Fuji Xerox Co Ltd Object control device, object control method, object control program, and computer-readable recording medium
JP5467267B2 (en) 2010-03-05 2014-04-09 国立大学法人大阪大学 DEVICE CONTROL DEVICE, DEVICE SYSTEM, DEVICE CONTROL METHOD, DEVICE CONTROL PROGRAM, AND RECORDING MEDIUM

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086768A (en) 2002-08-28 2004-03-18 Fuji Xerox Co Ltd Object control device, object control method, object control program, and computer-readable recording medium
JP5467267B2 (en) 2010-03-05 2014-04-09 国立大学法人大阪大学 DEVICE CONTROL DEVICE, DEVICE SYSTEM, DEVICE CONTROL METHOD, DEVICE CONTROL PROGRAM, AND RECORDING MEDIUM

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101844301B1 (en) 2017-08-21 2018-04-02 재단법인 대구경북첨단의료산업진흥재단 Brain-machine interface based on object-oriented message and method thereof
KR20220005673A (en) * 2020-07-06 2022-01-14 한국과학기술연구원 Method for controlling moving body based on collaboration between the moving body and human, and apparatus for controlling the moving body thereof
KR102396163B1 (en) * 2020-07-06 2022-05-12 한국과학기술연구원 Method for controlling moving body based on collaboration between the moving body and human, and apparatus for controlling the moving body thereof
US11687074B2 (en) 2020-07-06 2023-06-27 Korea Institute Of Science And Technology Method for controlling moving body based on collaboration between the moving body and human, and apparatus for controlling the moving body thereof

Also Published As

Publication number Publication date
KR20150135018A (en) 2015-12-02

Similar Documents

Publication Publication Date Title
KR101618186B1 (en) A rehabilitation robot control system and control method based on brain-machine interface
JP2019524284A (en) Perform robot system movements
US11305427B2 (en) Robot system and robot control method
EP2837986A3 (en) Cleaning robot and method for controlling the same
Asokan et al. ARMatron—A wearable gesture recognition glove: For control of robotic devices in disaster management and human rehabilitation
JP2015167863A5 (en)
Lee et al. JAIST Robotic Walker control based on a two-layered Kalman filter
US20160247016A1 (en) Method for recognizing gestures of a human body
CN107077138B (en) Mobile body control device and mobile body
JP2016200858A5 (en)
Petit et al. An integrated framework for humanoid embodiment with a BCI
JP2007130172A (en) Walking assist control method and its walking assist controller
Yang et al. Electric wheelchair hybrid operating system coordinated with working range of a robotic arm
Guanglong et al. Human–manipulator interface using hybrid sensors with Kalman filters and adaptive multi-space transformation
US20200238527A1 (en) An automatic accompanying system
EP2985008B1 (en) Robotic exoskeleton multi-modal control system
KR101790599B1 (en) Apparatus for controlling operation of autonomously travelling service robot
KR20180035669A (en) upper limb multi-joint impedance measurement method and apparatus thereof
KR101632034B1 (en) Surgical Robot System and Method for Controlling Surgical Robot System
KR20190115483A (en) Wearable robot control system using augmented reality and method for controlling wearable robot using the same
Jin et al. Human-robot interaction for assisted object grasping by a wearable robotic object manipulation aid for the blind
WO2017141579A1 (en) Determination device, control device, control system, determination method, and program
JP5539001B2 (en) Control device
Chongyu et al. Deep learning-driven front-following within close proximity: a hands-free control model on a smart walker
Xu et al. Multi-sensor based human motion intention recognition algorithm for walking-aid robot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
GRNT Written decision to grant