KR20180054252A - 뇌-기계 인터페이스 로봇 제어 시스템 - Google Patents

뇌-기계 인터페이스 로봇 제어 시스템 Download PDF

Info

Publication number
KR20180054252A
KR20180054252A KR1020160151968A KR20160151968A KR20180054252A KR 20180054252 A KR20180054252 A KR 20180054252A KR 1020160151968 A KR1020160151968 A KR 1020160151968A KR 20160151968 A KR20160151968 A KR 20160151968A KR 20180054252 A KR20180054252 A KR 20180054252A
Authority
KR
South Korea
Prior art keywords
robot
brain signal
brain
target
user
Prior art date
Application number
KR1020160151968A
Other languages
English (en)
Other versions
KR101934272B1 (ko
Inventor
방문석
김성완
오병모
서한길
남형석
김윤재
이우형
이자호
정천기
현 최
Original Assignee
대한민국(국립재활원장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(국립재활원장) filed Critical 대한민국(국립재활원장)
Priority to KR1020160151968A priority Critical patent/KR101934272B1/ko
Publication of KR20180054252A publication Critical patent/KR20180054252A/ko
Application granted granted Critical
Publication of KR101934272B1 publication Critical patent/KR101934272B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

사용자의 뇌신호를 측정하는 뇌신호측정부; 구동에 의해 목표물과 물리적으로 접촉하는 말단부를 구비하는 로봇; 상기 로봇 주변 물체의 형태와 거리를 감지하는 센서부; 및 상기 뇌신호측정부에서 측정된 상기 뇌신호를 통하여 사용자의 의도를 파악하고, 상기 센서부로부터 감지된 로봇 주변 물체의 형태와 거리 정보를 수신하여 목표물에 대한 위치와 거리 정보인 목표물정보를 생성하며, 상기 뇌신호에 의해 파악된 사용자의 의도와 상기 목표물정보를 통해 상기 로봇의 움직임을 제어하는 제어부;를 포함하는 뇌-기계 인터페이스 로봇 제어 시스템을 제공하여 뇌신호에 의해 사용자의 의도를 파악하되, 센서부를 통해 취득되는 물체의 정보를 통해 목표물을 감지한 목표물정보를 통해 사용자의 의도를 보다 명확하게 파악하도록 함으로써 로봇을 보다 정확히 제어할 수 있다.
또한, 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템은 자기학습 기능을 가지므로, 궁극적으로는 뇌신호만을 통해서도 사용자의 정확한 의도 파악이 가능하여 로봇의 정확한 제어가 가능하다.

Description

뇌-기계 인터페이스 로봇 제어 시스템{Brain-Machine Interface Robot Control System}
본 발명은 뇌-기계 인터페이스 로봇 제어 시스템에 관한 것으로, 보다 상세하게는 로봇과 목표물을 감지하는 센서부를 포함하여 센서부에 의해 취득된 정보를 통해 뇌신호의 정확도를 보완할 수 있는 뇌-기계 인터페이스 로봇 제어 시스템에 관한 것이다.
최근, 사고 또는 뇌졸중, 외상성 뇌손상 또는 뇌성마비 등에 의한 신체 기능의 손상, 또는 노화로 인한 근력의 약화, 각종 성인병에 의해 신체 기능이 손상된 환자를 돕기 위해 뇌-기계 인터페이스를 이용한 로봇 제어에 대한 연구가 국내외적으로 활발히 이루어지고 있다.
한편, 로봇을 미리 설정된 알고리즘에 따라 정밀하게 제어하는 것은 어렵지 않지만, 재활 로봇 등을 사용자, 특히 환자의 의도대로 움직이도록 하여 정밀하게 제어하는 것은 아직 어려운 실정이다.
사용자의 의도는 팔다리 말단의 센서 등을 이용하여 파악할 수도 있지만, 궁극적으로는 뇌신호를 읽어들여서 그 의도를 파악하는 기술이 필요하다. 특히, 각종 재활 또는 보조용 로봇의 실질적인 수요자들인, 상하지가 모두 마비된 중증 장애인의 경우, 중추신경계에서 신호를 받을 수 밖에 없다.
한편, 중추신경계에서 받는 뇌신호를 통해서 사용자의 의도를 파악하고 이를 이용하여 로봇을 제어하는 것이 어느정도 성공을 거두고 있으나, 아직은 정확도 측면에서 한계가 있다.
특히, 사람 뇌에 침습적으로 전극을 심어 측정하는 뇌신호를 이용하는 것보다, 비침습적인 뇌신호 (EEG, MEG 등)을 이용하여 사용자의 의도를 파악하고 로봇을 제어하는 것이 상대적으로 더욱 어려운 실정이다.
따라서, 보다 정확한 사용자의 의도파악과 이를 통한 로봇 제어를 위해서는 뇌신호의 정확도를 보완해 줄 수 있는 보완기술이 필요한 실정이다.
대한민국 공개특허 제10-2015-0135018호 (2015.12.02 공개)
본 발명은 상술한 문제점을 해결하기 위한 것으로, 로봇과 목표물을 감지하는 센서부를 통해 수신되는 로봇과 목표물의 정보를 통해 뇌신호의 정확도를 보완함으로써 사용자의 의도를 명확히 파악하여 로봇을 제어할 수 있는 뇌-기계 인터페이스 로봇 제어 시스템을 제공하는 것을 그 목적으로 한다.
본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템은, 사용자의 뇌신호를 측정하는 뇌신호측정부; 구동에 의해 목표물과 물리적으로 접촉하는 말단부를 구비하는 로봇; 상기 로봇 주변 물체의 형태와 거리를 감지하는 센서부; 및 상기 뇌신호측정부에서 측정된 상기 뇌신호를 통하여 사용자의 의도를 파악하고, 상기 센서부로부터 감지된 로봇 주변 물체의 형태와 거리 정보를 수신하여 목표물에 대한 위치와 거리 정보인 목표물정보를 생성하며, 상기 뇌신호에 의해 파악된 사용자의 의도와 상기 목표물정보를 통해 상기 로봇의 움직임을 제어하는 제어부;를 포함할 수 있다.
본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템에서, 상기 뇌신호는 비침습적으로 측정될 수 있다.
본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템에서, 상기 뇌신호는 뇌파(Electroencephalography, EEG) 또는 뇌자도(Magnetoencephalography, MEG)일 수 있다.
본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템에서, 상기 센서부는, 상기 로봇 주변을 촬영하는 영상센서이고, 촬영된 영상을 통해 물체의 형태와 거리를 감지할 수 있다.
본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템에서, 상기 센서부는, 상기 말단부의 이동방향과 속도를 감지하고, 상기 제어부는, 상기 말단부의 이동방향과 속도를 고려하여 상기 로봇 주변의 여러 물체 중 사용자가 의도하는 목표물을 실시간으로 검출하여, 상기 목표물의 형태와 위치정보를 포함하는 목표물정보를 생성할 수 있다.
본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템에서, 상기 제어부는, 상기 로봇과 상기 목표물과의 거리가 가까울수록 상기 목표물정보의 반영비율을 높여 상기 로봇을 제어할 수 있다.
본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템에서, 상기 제어부는, 상기 제어부는 수신되는 뇌신호와 상기 뇌신호에 따른 상기 로봇의 제어 내용인 제어데이터를 저장하고, 저장된 상기 뇌신호와 유사한 패턴의 뇌신호가 수신된 경우, 해당 제이데이터를 참조하여 상기 로봇을 제어할 수 있다.
본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템에 의하면, 뇌신호에 의해 사용자의 의도를 파악하되, 센서부를 통해 취득되는 물체의 정보를 통해 목표물을 감지한 목표물정보를 통해 사용자의 의도를 보다 명확하게 파악하도록 함으로써 로봇을 보다 정확히 제어할 수 있다.
또한, 본 발명에 의한 뇌-기계 인터페이스 로봇 제어 시스템은 자기학습 기능을 가지므로, 궁극적으로는 뇌신호만을 통해서도 사용자의 정확한 의도 파악이 가능하여 로봇의 정확한 제어가 가능하다.
도 1은 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템의 개념도.
도 2는 로봇이 사용자와 별개로 움직이는 형태로 제공되는 경우의 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템의 개략도.
도 3은 로봇이 사용자가 탑승할 수 있는 형태로 제공되는 경우의 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템의 개략도.
이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명의 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상의 범위 내에 포함된다고 할 것이다.
또한 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
도 1은 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템(100)의 개념도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템(100)은, 뇌신호측정부(110), 로봇(120), 센서부(130), 및 제어부(140)를 포함할 수 있다.
뇌신호측정부(110)는 사용자의 뇌신호를 측정할 수 있다.
이때에, 상기 뇌신호측정부(110)는 침습적 방법 혹은 비침습적 방법으로 뇌신호를 측정할 수 있다.
즉, 상기 뇌신호는 뇌파(Elctroencephalography, EEG), 뇌자도(Magnetoencephaography, MEG)와 같은 비침습적인 뇌신호이거나, 뇌피질전도(Electrocorticography, ECoG)와 같은 덜 침습적인 뇌신호(less-invasive brain signal), 혹은 피질내전극 측정 뇌신호(Intracortical Electrode)와 같은 침습적인 뇌신호 중 어느 하나를 포함하는 것일 수 있다.
다시 말해서, 상기 뇌신호는 뇌파(Elctroencephalography, EEG), 뇌자도(Magnetoencephaography, MEG), 뇌피질전도(Electrocorticography, ECoG), 피질내전극 측정 뇌신호(Intracortical Electrode) 중 어느 하나이거나 이들 중 어느 하나 이상을 포함하는 것일 수 있다.
로봇(120)은 사용자가 의도하는 목표물(T)과 물리적인 접촉을 하는 말단부(121)를 구비할 수 있다.
즉, 상기 말단부(121)는 목표물(T)을 파지, 가압, 이동하는 등의 물리적인 접촉을 할 수 있다.
예를 들어, 상기 목표물(T)은 사용자가 물리적으로 접촉하기를 의도하는 컵, 공, 손잡이, 스위치 등이 될 수 있으며, 상기 말단부(121)는 상기 목표물(T)인 컵이나 손잡이를 파지하거나, 스위치를 가압하여 on/off 하는 등의 물리적인 접촉을 할 수 있다.
한편, 상기 로봇(120)은 독립적으로 작동하는 로봇팔 형태로 구비될 수도 있으며, 사용자가 착용하는 외골격 형태의 로봇일 수도 있다.
아울러, 상기 로봇(120)은 사용자가 탑승하는 형태로도 구비될 수 있다.
센서부(130)는 상기 로봇(120) 주변 물체의 정보를 획득할 수 있다. 즉, 상기 센서부(130)는 상기 로봇(120) 주변 물체의 형태와 거리를 감지할 수 있다.
이때에, 상기 센서부(130)는 상기 로봇(120) 주변을 촬영하는 영상센서일 수 있다.
즉, 상기 센서부(130)는 상기 로봇(120) 주변을 촬영할 수 있으며, 이와 같이 촬영된 영상은 2차원 이미지인 RGB 이미지와 각 물체까지의 거리인 깊이 이미지(Depth Image)를 제공할 수 있다.
이를 통하여, 상기 센서부(130)는 상기 RGB 이미지를 통해서 상기 로봇 주변 물체의 형태를 감지할 수 있으며, 상기 깊이 이미지(Depth Image)를 통해서 상기 로봇(120)의 말단부(121)로부터 상기 로봇(120) 주변 물체까지의 거리를 감지할 수 있다.
또한, 상기 센서부(130)는 상기 로봇(120) 주변을 실시간으로 촬영할 수 있으며, 이를 통해 상기 로봇(120)의 말단부(121)의 이동방향과 속도를 감지할 수 있다.
제어부(140)는 상기 뇌신호측정부(110) 및 상기 센서부(130)로부터 정보를 수신하고, 수신된 정보를 이용하여 상기 로봇(120)을 제어할 수 있다.
즉, 상기 제어부(140)는 상기 뇌신호측정부(110)에 의해 측정된 뇌신호를 수신할 수 있으며, 수신된 뇌신호를 통해 사용자의 의도를 파악하여, 상기 뇌신호에 의해 파악된 사용자의 의도에 따라 상기 로봇(120)을 제어할 수 있다.
다시 말해서, 상기 제어부(140)는 상기 뇌신호측정부(110)에 의해 측정된 뇌신호를 통해서 사용자가 의도하는 목표물(T)이 어떤 것인지와 의도된 목표물(T)을 어떻게 할 것인지에 대한 의도를 파악한 뇌신호정보를 생성할 수 있으며, 상기 뇌신호정보를 이용하여 상기 로봇(120)을 제어할 수 있다.
보다 상세하게는, 상기 제어부(140)는 상기 뇌신호측정부(110)에 의해 측정된 뇌신호를 통해 사용자가 의도하는 목표물(T)의 위치를 파악할 수 있으며, 또한 목표물(T)을 파지하여 이동시킬 것인지, 가압할 것인지 등의 사용자의 의도를 파악할 수 있으며, 이를 통해 상기 로봇(120)을 사용자의 의도에 맞게 움직이도록 제어할 수 있다.
또한, 상기 제어부(140)는 상기 센서부(130)로부터 상기 로봇(120) 주변 물체의 형태 및 거리 정보를 수신할 수 있다.
아울러, 상기 제어부(140)는 상기 센서부(130)로부터 상기 로봇(120)의 말단부(121)의 이동방향과 속도정보를 수신할 수 있다.
이때에, 상기 제어부(140)는 상기 로봇(120) 주변 물체의 형태 및 거리 정보, 그리고 상기 말단부(121)의 이동방향과 속도정보를 고려하여 상기 로봇 주변(120)의 물체 중 특정 물체를 목표물(T)로 검출할 수 있다.
예를 들어, 상기 말단부(121)가 상기 로봇(120) 주변 물체 중 어느 특정물체를 향해 이동하면, 상기 제어부(140)는 해당 특정물체를 목표물(T)로 검출할 수 있다.
이를 통해, 상기 제어부(140)는 검출된 목표물(T)의 형태와 거리정보를 포함하는 목표물정보를 생성할 수 있다.
이때에, 상기 제어부(140)는 상기 목표물정보를 반영하여 상기 로봇(120)을 제어할 수 있다.
다시 말해서, 상기 제어부(140)는 상기 뇌신호에 의해 파악된 사용자의 의도에 상기 목표물정보를 혼합하여 상기 로봇(120)을 제어할 수 있다.
즉, 상기 제어부(140)는 상기 뇌신호에 의해 파악된 사용자의 의도에 따라 상기 로봇(120)을 제어하되 불확실한 요소에 대해서 상기 목표물정보를 반영하여 상기 로봇(120)을 제어할 수 있다.
이를 통하여, 뇌신호에 의해 파악되는 사용자 의도의 불명확성을 보다 명확히 할 수 있어 사용자의 의도에 따른 정확한 로봇의 제어가 가능하다.
한편, 상기 제어부(140)는 인공지능 시스템을 통한 자기학습이 가능할 수 있다.
보다 상세히 설명하면, 상기 제어부(140)는 수신되는 뇌신호에 따른 상기 로봇(120)의 제어 내용인 제어데이터를 저장할 수 있다.
이때에, 상기 제어부(140)는 상기 제어데이터로 저장된 뇌신호와 유사한 패턴의 뇌신호가 입력된 경우 상기 제어데이터를 참조하여 상기 로봇(120)을 제어할 수 있다.
예를 들어, 상기 제어부(140)가 특정 뇌신호를 수신하여 목표물의 위치를 파악하고, 목표물정보를 통해 목표물은 컵이고 사용자의 의도는 컵을 파지하려는 것임을 명확히 파악하여, 상기 로봇(120)을 제어하고 이를 제어데이터로 저장할 수 있다.
이후, 상기 제어부(140)는 유사한 패턴의 뇌신호가 수신되면, 목표물정보를 통하지 않더라도, 제어데이터를 참조하여 사용자의 의도가 컵을 파지하려는 것임을 파악할 수 있어 상기 로봇을 사용자의 의도에 따라 정확하게 제어할 수 있다.
이를 통하여, 상기 제어부(140)는 자기학습이 가능하여 궁극적으로는 상기 목표물정보를 반영하지 않고, 상기 뇌신호만을 이용하여 상기 로봇(120)의 정확한 제어가 가능해질 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템(100)은 뇌신호에 의해 사용자의 의도를 파악하되, 센서부(130)를 통해 취득되는 물체의 정보를 통해 목표물을 감지한 목표물정보를 통해 사용자의 의도를 보다 명확하게 파악하도록 함으로써 로봇(120)을 보다 정확히 제어할 수 있다.
또한, 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템(100)은 자기학습 기능을 가지므로, 궁극적으로는 뇌신호만을 통해서도 사용자의 정확한 의도 파악이 가능하여 로봇의 정확한 제어가 가능하다.
이하에서는, 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템(100)의 구체적인 실시형태에 대해서 예를 들어 설명한다.
도 2는 상기 로봇(120)이 사용자와 별개로 움직이는 형태로 제공되는 경우의 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템(100)의 개략도이고, 도 3은 상기 로봇(120)이 사용자가 탑승할 수 있는 형태로 제공되는 경우의 본 발명의 일 실시예에 따른 뇌-기계 인터페이스 로봇 제어 시스템(100)의 개략도이다.
도 2를 참조하면, 상기 로봇(120)은 소정공간(S)을 이동할 수 있도록 구비되는 이동수단(122), 목표물(T)과 물리적인 상호 작용을 할 수 있도록 하는 말단부(121) 및 상기 이동수단(122)과 상기 말단부(121)를 연결하고 상기 말단부(121)의 위치 및 자세를 조절할 수 있도록 하는 관절부(123)를 구비할 수 있다.
이때에, 센서부(130)는 상기 소정공간(S)을 촬영하는 영상센서일 수 있으며, 상기 제어부(140)는 상기 센서부(130)에 의해 촬영되는 영상을 통하여, 상기 로봇(120)의 이동방향 및 속도, 상기 목표물(T)의 위치 및 거리 정보를 파악할 수 있다.
도 3을 참조하면, 상기 로봇(120)은 사용자가 탑승가능하도록 구비될 수 있다.
즉, 사용자가 탑승하여 이동할 수 있도록 구비되는 이동수단(122), 목표물(T)과 물리적인 상호 작용을 할 수 있도록 하는 말단부(121) 및 상기 이동수단(122)과 상기 말단부(121)를 연결하고 상기 말단부(121)의 위치 및 자세를 조절할 수 있도록 하는 관절부(123)를 구비할 수 있다.
즉, 상기 로봇(120)은 이동수단(122)이 전동휠체어 형태이고, 상기 관절부(123) 및 상기 말단부(121)가 상기 이동수단에 장착된 형태로 제공 될 수 있다.
이때에, 센서부(130)는 상기 로봇(120)에 연결되어 구비될 수 있다.
즉, 상기 센서부(130)는 상기 이동수단(122), 상기 말단부(121), 또는 상기 관절부(123) 중 어느 하나에 연결되어 구비되어 상기 로봇(120) 주변 물체의 형태와 거리 정보를 파악할 수 있다.
아울러, 특별히 도시하지는 않았으나, 본 발명의 일 실시예에 의한 뇌-기계 인터페이스 로봇 제어 시스템(100)에서 상기 로봇(120)은 사용자가 직접 착용하는 의수의 형태로 제공될 수도 있다.
이상에서, 본 발명의 일 실시예에 대하여 상세하게 설명하였지만, 본 발명의 권리범위는 이에 한정되는 것은 아니고, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 수정 및 변형이 가능하다는 것은 당 기술 분야의 통상의 지식을 가진 자에게는 자명할 것이다.
100: 본 발명의 일 실시예에 의한 뇌-기계 인터페이스 로봇 제어 시스템
110: 뇌신호측정부
120: 로봇
121: 말단부
130: 센서부
140: 제어부
T: 목표물

Claims (7)

  1. 사용자의 뇌신호를 측정하는 뇌신호측정부;
    구동에 의해 목표물과 물리적으로 접촉하는 말단부를 구비하는 로봇;
    상기 로봇 주변 물체의 형태와 거리를 감지하는 센서부; 및
    상기 뇌신호측정부에서 측정된 상기 뇌신호를 통하여 사용자의 의도를 파악하고, 상기 센서부로부터 감지된 로봇 주변 물체의 형태와 거리 정보를 수신하여 목표물에 대한 위치와 거리 정보인 목표물정보를 생성하며, 상기 뇌신호에 의해 파악된 사용자의 의도와 상기 목표물정보를 통해 상기 로봇의 움직임을 제어하는 제어부;를 포함하는 뇌-기계 인터페이스 로봇 제어 시스템.
  2. 제1항에 있어서,
    상기 뇌신호는 비침습적으로 측정되는 것을 특징으로 하는 뇌-기계 인터페이스 로봇 제어 시스템.
  3. 제2항에 있어서,
    상기 뇌신호는 뇌파(Electroencephalography, EEG) 또는 뇌자도(Magnetoencephalography, MEG)인 것을 특징으로 하는 뇌-기계 인터페이스 로봇 제어 시스템.
  4. 제1항에 있어서,
    상기 센서부는, 상기 로봇 주변을 촬영하는 영상센서이고, 촬영된 영상을 통해 물체의 형태와 거리를 감지하는 것을 특징으로 하는 뇌-기계 인터페이스 로봇 제어 시스템.
  5. 제1항에 있어서,
    상기 센서부는, 상기 말단부의 이동방향과 속도를 감지하고,
    상기 제어부는, 상기 말단부의 이동방향과 속도를 고려하여 상기 로봇 주변의 여러 물체 중 사용자가 의도하는 목표물을 실시간으로 검출하여, 상기 목표물의 형태와 위치정보를 포함하는 목표물정보를 생성하는 것을 특징으로 하는 뇌-기계 인터페이스 로봇 제어 시스템.
  6. 제5항에 있어서,
    상기 제어부는, 상기 로봇과 상기 목표물과의 거리가 가까울수록 상기 목표물정보의 반영비율을 높여 상기 로봇을 제어하는 것을 특징으로 하는 뇌-기계 인터페이스 로봇 제어 시스템.
  7. 제1항에 있어서,
    상기 제어부는, 상기 제어부는 수신되는 뇌신호와 상기 뇌신호에 따른 상기 로봇의 제어 내용인 제어데이터를 저장하고,
    저장된 상기 뇌신호와 유사한 패턴의 뇌신호가 수신된 경우, 해당 제이데이터를 참조하여 상기 로봇을 제어하는 것을 특징으로 하는 뇌-기계 인터페이스 로봇 제어 시스템.
KR1020160151968A 2016-11-15 2016-11-15 뇌-기계 인터페이스 로봇 제어 시스템 KR101934272B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160151968A KR101934272B1 (ko) 2016-11-15 2016-11-15 뇌-기계 인터페이스 로봇 제어 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160151968A KR101934272B1 (ko) 2016-11-15 2016-11-15 뇌-기계 인터페이스 로봇 제어 시스템

Publications (2)

Publication Number Publication Date
KR20180054252A true KR20180054252A (ko) 2018-05-24
KR101934272B1 KR101934272B1 (ko) 2019-01-02

Family

ID=62296601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160151968A KR101934272B1 (ko) 2016-11-15 2016-11-15 뇌-기계 인터페이스 로봇 제어 시스템

Country Status (1)

Country Link
KR (1) KR101934272B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102396163B1 (ko) * 2020-07-06 2022-05-12 한국과학기술연구원 이동체 및 사람 간의 협력에 기반하여 이동체를 제어하는 방법 및 그에 따른 이동체의 제어 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101656739B1 (ko) * 2014-12-26 2016-09-12 고려대학교 산학협력단 뇌파 기반의 착용형 로봇의 제어 장치 및 방법

Also Published As

Publication number Publication date
KR101934272B1 (ko) 2019-01-02

Similar Documents

Publication Publication Date Title
Guo et al. Human–robot interaction for rehabilitation robotics
US11246786B2 (en) Power assistive device for hand rehabilitation and a method of using the same
Lobo-Prat et al. Non-invasive control interfaces for intention detection in active movement-assistive devices
KR101667179B1 (ko) 사용자-연계 휴먼-머신 인터페이스 시스템 및 그의 외골격 제어 방법
Kim et al. Continuous shared control for stabilizing reaching and grasping with brain-machine interfaces
US20170119553A1 (en) A haptic feedback device
US9662525B2 (en) Upper limb rehabilitation robot for meal assistance or meal rehabilitation training and method thereof
Mouchoux et al. Artificial perception and semiautonomous control in myoelectric hand prostheses increases performance and decreases effort
JP2011516915A (ja) モーションコンテンツベースの学習装置及び方法
Volkmar et al. Improving bimanual interaction with a prosthesis using semi-autonomous control
JP2007319187A (ja) 動作補助装置及びその制御方法
KR101934272B1 (ko) 뇌-기계 인터페이스 로봇 제어 시스템
KR20170107231A (ko) 영상 처리를 통해 정밀 제어하는 상지 재활 로봇 모듈 및 재활 로봇 시스템
KR101383450B1 (ko) 식사보조를 위한 상지 재활로봇 제어방법
KR101697958B1 (ko) 보행 시스템
US20220009104A1 (en) Robot
Mezzina et al. Smart sensors HW/SW interface based on brain-actuated personal care robot for ambient assisted living
Jang et al. Recognition of walking intention using multiple bio/kinesthetic sensors for lower limb exoskeletons
Stefanou et al. Upper limb motion intent recognition using tactile sensing
Perera et al. Electrooculography signal based control of a meal assistance robot
Rehman et al. A Force Myography based HMI for Classification of Upper Extremity Gestures
KR101745860B1 (ko) 능동형 상지 운동 보조장치
US20230068682A1 (en) Neuromuscular electrical stimulation controlled by computer vision
US11493994B2 (en) Input device using bioelectric potential
Aug et al. Haptic Touch: A retrofittable tactile sensing glove and haptic feedback armband for scalable and robust sensory feedback

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant