KR101656739B1 - 뇌파 기반의 착용형 로봇의 제어 장치 및 방법 - Google Patents

뇌파 기반의 착용형 로봇의 제어 장치 및 방법 Download PDF

Info

Publication number
KR101656739B1
KR101656739B1 KR1020140190972A KR20140190972A KR101656739B1 KR 101656739 B1 KR101656739 B1 KR 101656739B1 KR 1020140190972 A KR1020140190972 A KR 1020140190972A KR 20140190972 A KR20140190972 A KR 20140190972A KR 101656739 B1 KR101656739 B1 KR 101656739B1
Authority
KR
South Korea
Prior art keywords
motion
eeg
user
eeg signal
signal
Prior art date
Application number
KR1020140190972A
Other languages
English (en)
Other versions
KR20160079501A (ko
Inventor
이성환
곽노상
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020140190972A priority Critical patent/KR101656739B1/ko
Publication of KR20160079501A publication Critical patent/KR20160079501A/ko
Application granted granted Critical
Publication of KR101656739B1 publication Critical patent/KR101656739B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices

Abstract

본 발명에 따른 뇌파 기반의 착용형 로봇의 제어 방법은 사용자에 의하여 움직임이 유도된 착용형 로봇 및 사용자의 머리 움직임 정보를 수신하는 단계, 움직임이 유도될 때 감지된 사용자의 뇌파 신호를 수집하는 단계, 뇌파 신호를 움직임 정보에 기초하여 움직임 단위로 구분하여 저장하는 단계, 뇌파 신호로부터 사용자의 머리 움직임과 상관도가 높은 뇌파의 독립 성분을 제거하는 단계, 및 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여, 각 뇌파 신호를 움직임 커맨드별로 분류하여 학습 데이터를 생성하는 단계를 포함한다.

Description

뇌파 기반의 착용형 로봇의 제어 장치 및 방법 {METHOD AND APPARATUS FOR CONTROL OF WEARABLE GAIT ROBOT BASED ON EEG}
본 발명은 뇌파 기반의 착용형 로봇의 제어 장치 및 방법에 관한 것이다.
뇌-컴퓨터 인터페이스(Brain-Computer Interface) 기술은 사용자의 뇌에서 일어나는 신경세포들의 활동이 컴퓨터에 연결되어, 마우스나 키보드 등의 입력장치가 없어도 컴퓨터와 소통이 가능하게 만들어 줄 수 있다.
특히, 뇌-컴퓨터 인터페이스 기술은 사고나 질병에 의해 운동신경에 장애가 있는 환자들의 움직임을 보조해 주기 위한 보철 제어나, 의사소통을 할 수 있도록 하는 스펠러 등에 주로 사용되어 왔다.
한편, 로봇 기술이 발달함에 따라 인체에 착용되어 인체의 근력을 지원하는 착용형 로봇이 개발되고 있다. 일반적으로, 이러한 근력 지원을 위한 인체 착용형 로봇은 착용자가 움직이고자 하는 의도에 기초하여 구동된다.
이러한 착용형 로봇이 착용자의 의도에 따라 구동하기 위해서는 사용자의 보행 의도를 실시간으로 정확히 측정하는 기술이 필요하다.
일반적으로 착용형 로봇의 경우, 착용형 로봇의 발바닥에 다수의 압력 센서 또는 접촉 스위치 센서를 설치하고 이러한 센서에서 수집되는 정보를 이용하여 로봇의 발바닥과 지면 사이의 접촉 상태 등에 대한 정보를 획득한다. 그러나 이러한 종래의 방식은 보행 단계를 구분하기 위해서 다수의 센서를 사용해야 한다. 또한, 기존 방식은 발바닥 면 쪽에 센서가 배치되어야 하므로, 지면 상태에 의해 센서가 손상 될 수 있다.
또한, 이와 관련하여 대한민국 공개특허 제10-2014-0005415호(발명의 명칭: 착용형 로봇 및 이를 이용한 착용자의 보행 의도 판단 방법)에서는 사용자의 생체신호 기반의 보행의도를 감지하여 보행 보조로봇을 제어하거나, 착용형 로봇을 제어하는 기술이 개시되어 있다.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 본 발명의 일 실시예에 의한 뇌파 기반의 착용형 로봇의 제어 장치 및 방법을 제공하는 것을 목적으로 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 뇌파 기반의 착용형 로봇의 제어 방법은 사용자에 의하여 움직임이 유도된 착용형 로봇 및 사용자의 머리 움직임 정보를 수신하는 단계, 움직임이 유도될 때 감지된 사용자의 뇌파 신호를 수집하는 단계, 뇌파 신호를 움직임 정보에 기초하여 움직임 단위로 구분하여 저장하는 단계, 뇌파 신호로부터 사용자의 머리 움직임과 상관도가 높은 뇌파의 독립 성분을 제거하는 단계, 및 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여, 각 뇌파 신호를 움직임 커맨드별로 분류하여 학습 데이터를 생성하는 단계를 포함한다.
또한, 본 발명의 제 2 측면에 따른 착용형 로봇의 제어 장치는 데이터 송수신부, 착용형 보행 로봇의 제어 애플리케이션이 저장된 메모리, 및 애플리케이션을 실행하는 프로세서를 포함한다. 이때, 프로세서는 애플리케이션의 실행에 따라, 사용자에 의하여 움직임이 유도된 착용형 로봇 및 사용자 머리 움직임 정보를 수신하고, 움직임이 유도될 때 감지된 사용자의 뇌파 신호를 수집하고, 뇌파신호를 움직임 정보에 기초하여 움직임 단위로 구분하여 저장하고, 뇌파 신호로부터 사용자의 머리 움직임과 상관도가 높은 뇌파의 독립 성분을 제거하고, 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여, 각 뇌파 신호를 움직임 커맨드별로 분류하여 학습 데이터를 생성하되, 착용형 로봇의 움직임 정보는 사용자의 다리 및 머리에 각각 배치된 움직임 센서로부터 수집된다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명의 일 실시예는 뇌파 기반의 착용형 로봇의 제어 장치를 제공하여, 각 뇌파 신호를 움직임 커맨드에 따라 분류하고, 커맨드에 의하여 착용형 로봇을 제어함으로써 뇌파기반의 보행 재활, 보행 보조에 활용될 수 있다.
또한, 본 발명의 일 실시예에 의하면 사용자에 의하여 움직임이 유도될 때의 뇌파 신호와, 머리 움직임 정보의 상관도를 파악하여, 상관도가 높은 뇌파 신호를 제거 할 수 있다. 이로 인하여, 머리 움직임으로 유발된 잡음을 제거할 수 있기 때문에, 사용자의 의도를 정확히 반영한 커맨드를 구성할 수 있다.
도 1은 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 장치를 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 장치의 예시도이다.
도 3은 본 발명의 일 실시예에 따른 중앙처리장치를 설명하기 위한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 애플리케이션의 기능을 설명하기 위한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 움직임 기반의 뇌파 신호 수집 방법의 예시도이다.
도 6은 본 발명의 일 실시예에 따른 다양한 커맨드의 예시도이다.
도 7은 독립 성분 분석법을 이용하여 뇌파 신호의 독립 성분을 얻고, 움직임 데이터와의 상관 관계를 분석하는 방법을 설명한 도면이다.
도 8은 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 장치의 운용 방법을 설명하기 위한 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 본원 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
이하, 도면을 참조하여 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 장치 및 방법에 대하여 자세히 설명한다.
먼저, 도 1 및 도 2를 참조하여 뇌파 기반의 착용형 로봇의 제어 장치를 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 장치를 설명하기 위한 블록도이고, 도 2는 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 장치의 예시도이다.
도 1을 참조하면, 뇌파 기반의 착용형 로봇의 제어 장치(10)는 구동부(100), 중앙처리장치(200), 및 감지부(300)를 포함한다. 구동부(100)와 감지부(300)는 중앙처리장치(200)와 신호를 송수신 할 수 있다. 이때, 구동부(100)와 감지부(300)는 중앙처리장치(200)와 별도로 존재할 수도 있고, 중앙처리장치(200)내에 결합된 형태로 구현될 수도 있다.
도 1에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 뇌파 기반의 착용형 로봇의 제어 장치(10)의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 뇌파 기반의 착용형 로봇의 제어 장치(10)의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.
구동부(100)는 착용형 형태로 사용자가 착용할 수 있고, 동력원을 가지며, 중앙처리장치(200)로부터 신호를 수신하여 구동할 수 있다. 본 발명에서는 착용형태의 구동부(100)를 예시로 사용하고 있지만, 이에 한정된 것은 아니며 사용자의 움직임을 보조해 줄 수 있으며, 동력원을 가지고, 중앙처리장치(200)로부터 신호를 수신하여 구동할 수 있는 장치면 모두 가능하다.
예를 들어, 본 발명의 일 실시예에 의한 구동부(100)는 한 쌍의 다리부재, 한 쌍의 발부재, 다리부재와 발부재를 연결하는 한 쌍의 발목축, 및 동력원을 포함할 수 있다. 이때의 다리부재는 사용자의 움직임이 자연스럽게 구현될 수 있도록 다수개가 연결부재로 결합한 형태일 수 있다.
한편, 구동부(100)에 포함된 각 부재는 중앙처리장치(200)로부터 수신한 제어신호에 따라 구동된다. 수신한 제어신호에 따라 구동부(100)는 앉기, 서기, 걷기, 뒤로걷기, 정지, 우회전, 좌회전 등을 수행할 수 있다. 또한, 별도의 제어신호 및 동력원이 존재하지 않더라도, 사용자가 구동부를 착용한 상태로 움직일 수 있다.
다음으로, 도 2를 참조하여, 감지부(300)를 설명하면, 감지부(300)는 뇌파 감지부(310), 머리 움직임 감지부(320), 및 다리 움직임 감지부(330)를 포함한다.
먼저, 뇌파 감지부(310)는 사용자의 움직임에 대한 반응으로서 생성된 뇌파를 감지하여 중앙처리장치(200)의 송수신부로 전송할 수 있다. 또한, EEG(Electroenceplography)장비를 통해 뇌파 신호를 감지할 수 있다. 이때의 뇌파 신호는 국제 전극 시스템에 따라 최소 1개 이상의 채널에서 추출될 수 있다. 이때, 뇌파 감지부(310)는 비침습적 방식으로 뇌파 신호를 추출한다. 예를 들어, 체감각 영역으로부터 유발된 뇌파 신호를 감지하기 위해서, 감각운동기 피질(Sensory motor cortex) 영역에 마이크로 채널을 부착하는 방식으로 추출될 수 있다.
뇌파 감지부(310)는 사용자의 머리에, 뇌파를 기록할 때 두피상의 전극배치법인 국제 10-20법에 기인하여 위치될 수 있다. 이 방법으로 32, 64, 128 및 256개의 전극이 대뇌 양반구 위에 거의 같은 간격으로 배치될 수 있으나 이에 한정된 것은 아니다.
EEG(Electroenceplography)로부터 추출된 뇌파는 다양한 잡음(Noise)성분을 포함한다. 잡음 성분의 종류에는 근전도(EMG)나 눈의 깜빡임 또는 안구의 움직임(EOG)성분 등이 있다. 이러한 잡음들은 EEG신호에 비해 수배 이상으로 크기 때문에 EEG신호를 얻기 위해서 제거되는 것이 바람직하다. 예를 들어, 사용자의 보행의도를 파악하기 위해서 보행시 뇌파 신호를 측정할 때, 머리의 움직임은 뇌파 신호에 잡음 성분이 될 수 있다.
다음으로, 머리 움직임 감지부(320)는 머리에 부착되어 사용자의 동작 중에 머리 움직임 정보를 추출한다. 머리 움직임 감지부(320)를 통해 감지된 머리 움직임 정보는 이 후에 뇌파 신호와의 상관 관계를 확인할 때 사용된다. 머리 움직임 감지부(320)는 근적외선 센서, 각속도 센서, 가속도 센서, 자이로스코프 등의 속도 측정 센서와 같은 움직임 센서의 형태로 구현될 수 있다.
다음으로, 다리 움직임 감지부(330)는 사용자의 동작 중에 다리 움직임 정보를 추출한다. 다리 움직임 감지부(330)는 구동부(100)에 함께 위치될 수 있고, 전술한 머리 움직임 감지부(320)와 같이, 움직임 센서로 구현될 수 있다. 이때의 움직임 센서로는 근적외선 센서, 각속도 센서, 가속도 센서, 자이로스코프 등의 속도 측정 센서 등을 이용할 수 있다.
또한, 디스플레이가 추가적으로 더 포함될 수 있다. 디스플레이는 각 단계의 필요한 정보를 화면에 표시할 수 있다. 예를 들어, 사용자가 착용형 로봇을 착용하였을 때, 착용형 로봇의 상태가 표시될 수 있다.
한편, 중앙처리장치(200)는 감지부(300)로부터 정보를 수집하고, 이를 이용하여 구동부(100)를 제어할 수 있다. 중앙처리장치(200)의 기능은 도 3 내지 도 4를 참고하여 보다 자세히 설명하도록 한다.
먼저, 도 3은 본 발명의 일 실시예에 따른 중앙처리장치를 설명하기 위한 블록도이다.
도 3을 참조하면, 중앙처리장치(200)는 메모리(210), 프로세서(220), 및 데이터 송수신부(230)를 포함할 수 있다.
메모리(210)는 뇌파 기반의 착용형 로봇의 제어 애플리케이션(211)을 저장한다. 송수신부(230)는 구동부(100) 및 감지부(300)와 데이터를 송수신 하고, 프로세서(220)는 애플리케이션(211)을 실행하며, 송수신된 데이터는 애플리케이션(211)의 실행에 따라 처리될 수 있다. 즉, 중앙처리장치(200)는 애플리케이션(211)의 실행에 따라, 뇌파 기반의 착용형 로봇의 제어를 수행할 수 있다. 애플리케이션(211)의 기능은 도 4의 예를 들어 설명하도록 한다.
도 4는 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 애플리케이션의 기능을 설명하기 위한 블록도이다.
도 4를 참조하면, 애플리케이션(211)은 신호 수집부(2111), 뇌파 신호 저장부(2112), 잡음 제거부(2113), 뇌파 신호 분류부(2114), 및 학습 데이터 생성부(2115)를 포함할 수 있다.
즉, 데이터 송수신부(230)가 사용자에 의하여 움직임이 유도된 착용형 로봇, 및 사용자의 머리 움직임 정보를 수신하면, 신호 수집부(2111)는 움직임이 유도될 때 감지된 사용자의 신호를 수집할 수 있다. 다음으로, 뇌파 신호 저장부(2112)는 감지된 신호 중 뇌파 신호를 움직임 정보에 기초하여 움직임 단위로 구분하여 저장하고, 잡음 제거부(2113)는 뇌파 신호로부터 사용자의 머리 움직임과 상관도가 높은 뇌파의 독립 성분을 제거할 수 있다. 다음으로, 뇌파 신호 분류부(2114)는 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여 각 뇌파 신호를 움직임 커맨드별로 분류하고, 학습 데이터 생성부(2115)는 학습 데이터를 생성할 수 있다. 이때, 착용형 로봇의 움직임 정보는 사용자의 다리 및 머리에 각각 배치된 움직임 센서로부터 수집될 수 있다.
다시 말해, 신호 수집부(2111)는 감지된 사용자의 신호를 수집할 수 있다. 사용자가 착용형 로봇을 착용하여 움직이면, 각각의 감지부(300)에서 사용자의 신호가 추출될 수 있다. 예를 들어, 뇌파 감지부(310)는 뇌파 신호를 추출할 수 있고, 머리 움직임 감지부(320)는 머리의 움직임을 추출할 수 있고, 다리 움직임 감지부(330)는 다리의 움직임을 추출할 수 있다.
한편, 도 5는 본 발명의 일 실시예에 따른 움직임 기반의 뇌파 신호 수집 방법의 예시도이다.
도 5를 참조하면, 감지부(300)는 오른발이 움직(P1)인 후 왼발이 움직(P2)이는 단계를 1주기로 걷기 신호를 인식할 수 있다. 일반적으로 앞으로 걷기의 동작 단계는 8단계로 구분될 수 있는데, P1의 기간에서는, 왼발이 지면에 최초 접지한 후 왼발이 지지된 상태에서 오른발이 지면으로부터 이격되어 허공으로 스윙하는 단계를 거쳐, 허공을 가로질러 지면에 다시 접지되는 단계를 살펴볼 수 있다. 마찬가지로 P2의 기간에서는, 오른발이 지면에 최초 접지한 후 오른발이 지지된 상태에서 왼발이 지면으로부터 이격되어 허공으로 스윙하는 단계를 거쳐, 허공을 가로질러 지면에 다시 접지되는 단계를 살펴볼 수 있다.
즉, 감지부(300)는 사용자에 의하여 움직임이 유도된 착용형 로봇의 움직임 정보를 감지하여, 중앙처리장치(200)로 송신한다.
다음으로, 뇌파 신호 저장부(2112)는 뇌파 신호를 움직임 정보에 기초하여 움직임 단위로 구분하여 저장할 수 있다. 이때의 움직임 단위는 사용자의 의도대로 구분될 수 있다. 다시 도 5를 참조하여 “앞으로 걷기” 동작을 살펴보면, 사용자는 P1과 P2를 각각 움직임 단위로 구분할 수 있고, P1과 P2를 하나의 움직임 단위로 구분할 수도 있다. 예를 들어, P1과 P2를 각각의 움직임 단위로 구분하였을 때, P1과 P2가 결합하여 “앞으로 걷기”라는 커맨드가 형성될 수 있다.
이와 같이, 커맨드는 움직임 단위가 결합되어 형성될 수 있다. 커맨드는 앞으로 걷기, 뒤로 걷기, 정지, 우회전, 좌회전, 앉기, 일어서기 등 다양하게 형성될 수 있다. 움직임 단위는 구동부(100)에 결합된 움직임 센서와 뇌파 신호를 비교하여, 각 움직임 동작의 시작점과 끝점을 분할하여 동작에 대응하는 뇌파 신호로 구분될 수 있다.
여기에서, 도 6는 본 발명의 일 실시예에 따른 다양한 커맨드의 예시도이다.
도 6의 (a)를 참조하면, 사용자의 기준으로 십자가 표지가 되어있는 중심점으로부터 오른쪽 회전을 한 실시예이고, (b)의 경우, 앞으로 걷기를 실시한 예이고, (c)의 경우, 앉기를 한 실시예이고, (d)의 경우, 왼쪽 회전을 한 실시예이다.
다음으로, 잡음 제거부(2113)는 저장된 뇌파 신호를 독립 성분으로 구분하고, 주성분분석법(Principal Component Analysis)과 독립 성분 분석법(Independent Component Analysis)을 이용하여 잡음(Noise)을 제거한다. 이와 같은 방법을 통하여, 잡음 제거부(2113)는 뇌파 신호로부터 사용자의 머리 움직임과 상관도가 높은 뇌파의 독립 성분을 제거한다.
다시 말해, 잡음 제거부(2113)는 사용자의 머리에 부착된 움직임 센서로부터 수신한 머리 움직임 정보와 상관 관계가 임계값 이상인 독립 성분을 뇌파 신호로부터 제거한다. 사용자가 움직일 때, 머리에도 움직임이 발생하기 때문에, 뇌파 신호에 머리 움직임 정보가 포함될 수 있다. 즉, 사용자의 움직임으로 유발된 뇌파 신호만을 추출하기 위해서는, 뇌파 신호를 독립 성분으로 구분하였을 때, 머리 움직임으로 인한 신호와 비교하여 상관 관계가 임계값 이상인 독립 성분이 제거되어야 한다.
또한, 이때의 임계값은 뇌파 신호와 머리 움직임 정보와의 상관분석(Correlation Analysis)을 통해 설정될 수 있다. 잡음 제거부(2113)는 설정된 임계값을 이용하여 상관 관계가 임계값 이상인 성분을 제거할 수 있다.
예를 들어, 잡음 제거부(2113)는 저장된 뇌파 신호에 0.01~4Hz 범위 내에 대역 통과 필터(Band pass filter)를 적용할 수 있고, 전원에 의한 잡음을 제거하기 위해 노치필터(Notch filter)가 사용될 수도 있다. 단, 주파수 범위는 동작에 의한 뇌파 신호의 특징에 맞게 변경될 수 있다.
주파수 성분을 제거하는 방법은 도 7을 예를 들어 설명할 수 있다.
도 7은 독립 성분 분석법을 이용하여 뇌파 신호의 독립 성분을 얻고, 움직임 데이터와의 상관 관계를 분석하는 방법을 설명한 도면이다.
도 7을 참조하면, 도 7의 (a)는 잡음을 제거하기 전 뇌파 신호이다. 예를 들어, 각각의 성분을 분해하면 도 7의 (b)와 같이 독립 성분들로 나타낼 수 있다. 이때, 머리 움직임과의 상관관계가 높은 독립 성분은 머리의 움직임으로 유발된 뇌파 신호로 간주되어 제거될 수 있다. 도 7의 (c)는 머리 움직임으로 유발된 잡음이 제거된 후의 뇌파 신호이다.
다음으로, 뇌파 신호 분류부(2114)는 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여, 각 뇌파 신호를 움직임 단위에 기초한 움직임 커맨드별로 분류할 수 있다.
이때, 뇌파 신호 분류부(2114)는 잡음이 제거된 뇌파 신호를 특징 행렬의 형태로 변환하여, 차원을 축소시키는 단계를 더 수행할 수 있다. 축소된 특징 행렬은 공간 주파수 영역에서 분석될 수 있다.
즉, 뇌파 신호 분류부(2114)는 움직임 별 뇌파 신호의 특징의 차이를 명확히 하기 위하여 데이터 형태를 특징 행렬로 구성할 수 있다. 특징 행렬은 차원 축소 기법으로 차원이 축소된 형태일 수 있고, 이를 선형 판별 분석(Linear Discriminant Analysis), 국부적 피셔 판별 분석(Local Fisher Discriminant Analysis), 또는 주성분분석(Principal Component Analysis)으로 분석할 수 있다. 축소된 데이터를 분류하기 위해 분류기로서, 가우시안 혼합 모델(Gaussian Mixture Model) 또는 서포트 벡터 머신(Support Vector Machine)등을 사용한다.
또한, 뇌파 신호 분류부(2114)는 고속 푸리에 변환(Fast Fourier Transform, FFT)을 이용하여 신호를 주파수 영역으로 변환할 수 있다. 이때, 사용자는 특정한 임계값을 설정하고 임계값 이상의 주파수 대역의 파워값을 갖는 주파수를 특징으로 분류할 수도 있다.
또한, 뇌파 신호 분류부(2114)는 공통 공간 패턴(Common spatial pattern)필터링 기법을 이용하여 신호의 공간상의 특징을 극대화시킨다. 이는 감각운동기 피질 영역의 공간상의 경계가 뚜렷하지 않아 이를 극대화하기 위해 사용하는 기법으로서, 공간상의 특징을 극대화하고 밴드파워를 추출 후, 주파수 성분의 특징을 추출하기 위해 사용될 수 있다.
뇌파 신호 분류부(2114)는 공간 필터링이 적용된 신호의 분산을 구하고 이에 로그를 적용함으로써 시간 영역에서 파워스펙트럼 밀도를 구하는 것과 같은 효과로서 밴드파워를 추출할 수 있다. 뇌파 신호 분류부(2114)는 추출된 주파수 성분의 특징과 공간 필터가 적용된 밴드파워 특징의 차원 결합을 통한 결합 특징을 이용하여 최종특징에 의한 뇌파 신호를 분류할 수 있다.
특히, 추출된 특징을 다계층 선형판별분석(Multiclass Linear discriminant analysis,LDA) 및 분류 알고리즘에 입력으로 넣어주면, 선형 분류기(LDA)는 공분산과 고유벡터를 이용하여 클래스 내의 분산은 최소화하고, 클래스 사이의 공분산은 최대로 하여 분류할 수 있다. 이를 통하여, 신속하게 분류할 수 있기 때문에, 실시간으로 변화하는 뇌파 신호를 감지하여 분류할 때, 시간차를 줄일 수도 있다.
다음으로, 뇌파 신호 분류부(2114)에서 각 뇌파 신호를 움직임 커맨드별로 분류하면, 학습 데이터 생성부(2115)는 학습 데이터를 생성할 수 있다.
또한, 뇌파 신호와 생성된 학습 데이터를 비교하고, 학습 데이터로부터 뇌파신호와 상관도가 가장 높은 움직임 커맨드를 추출할 수 있다. 이와 동시에, 학습 데이터 생성부(2115)는 추출된 움직임 커맨드에 해당하는 구동부(100)를 구동시키는 제어신호를 출력할 수 있다.
다시 말해, 중앙처리장치(200)는 제어 애플리케이션(211)의 실행에 따라, 다양한 사용자의 움직임에 의해 유도된 뇌파 신호의 독립 성분만을 특징으로 분류한 다양한 커맨드를 형성하고, 이로 인하여 후속으로 뇌파 신호를 감지하였을 때, 커맨드별로 분류하여 구동부(100)를 구동시키는 제어신호를 출력할 수 있다. 이처럼 자극을 제시하고 그에 따른 신호를 처리하여, 반응을 확인할 수 있는 반복적인 과정을 학습 프로세서 과정이라 할 수 있고, 여기에서는 이때의 커맨드별로 분류된 뇌파 신호를 학습 데이터라고 부르기로 한다.
또한, 학습 데이터 생성부(2115)는 학습 데이터가 생성된 후에 수신한 뇌파 신호를 학습 데이터에 추가하여, 학습 데이터를 갱신할 수 있다.
다음으로, 도 8은 본 발명의 일 실시예에 따른 뇌파 기반의 착용형 로봇의 제어 장치의 운용 방법을 설명하기 위한 순서도이다.
도 8을 참조하면, 뇌파 기반의 착용형 로봇의 제어 방법은 사용자에 의하여 움직임이 유도된 착용형 로봇 및 사용자의 머리 움직임 정보를 수신하는 단계(S800), 움직임이 유도될 때 감지된 사용자의 뇌파 신호를 수집하는 단계(S810), 뇌파 신호를 움직임 정보에 기초하여 움직임 단위로 구분하여 저장하는 단계(S820), 뇌파 신호로부터 사용자의 머리 움직임과 상관도가 높은 뇌파의 독립 성분을 제거하는 단계(S830), 및 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여, 각 뇌파 신호를 움직임 커맨드별로 분류하여 학습 데이터를 생성하는 단계(S840)를 포함한다.
먼저, 중앙처리장치(200)는 사용자에 의하여 움직임이 유도된 착용형 로봇 및 사용자의 머리 움직임 정보를 수신한다(S800).
이때, 사용자에 의한 움직임은 감지부(300)에서 측정된 신호이며, 특히 구동부(100)인 착용형 로봇의 다리에 각각 배치된 다리 움직임 감지부(330)의 한 형태인 움직임 센서로부터 움직임 정보를 수신할 수 있다. 이때, 머리 움직임 감지부(320)로부터 머리 움직임 정보도 수신할 수 있다. 이때의 움직임 센서로 근적외선 센서, 각속도를 측정하는 속도 측정 센서 등을 이용할 수 있다.
다음으로, 중앙처리장치(200)는 앞선단계(S800)에서 움직임이 유도될 때 감지된 사용자의 뇌파신호를 수집한다(S810). 이때, 뇌파 감지부(310)에서는 EEG장비를 통해 자극에 대한 뇌파 신호를 감지할 수 있다.
다음으로, 중앙처리장치(200)는 앞선단계(S810)에서 수집된 뇌파 신호를 움직임 정보에 기초하여 움직임 단위로 구분하여 저장한다(S820).
이때의 움직임 단위는 앞으로 걷기, 뒤로 걷기, 정지, 우회전, 좌회전, 앉기, 일어서기 등으로 구분될 수 있다.
다음으로, 중앙처리장치(200)는 앞선단계(S820)에서 저장된 뇌파 신호로부터 사용자의 머리 움직임과 상관도가 높은 뇌파의 독립 성분을 제거한다(S830).
잡음 성분은 머리 움직임 감지부(320)로부터 추출될 수 있으며, 뇌파 신호를 독립성분으로 분석하여 머리 움직임과 상관도가 높은 뇌파 신호의 독립 성분을 제거할 수 있다.
다음으로, 중앙처리장치(200)는 앞선단계(S830)에서 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여, 각 뇌파 신호를 움직임 커맨드별로 분류하여 학습 데이터를 생성한다(S840).
여기에서, 세부적으로는 움직임 별 뇌파 신호의 특징의 차이를 명확히 하기 위하여 데이터 형태를 특징 행렬의 형태로 변환하여 축소된 차원을 움직임 커맨드별로 분류하는 단계를 더 포함할 수 있다.
또한, 중앙처리장치(200)는 후속으로 뇌파 신호를 감지할 때, 뇌파 신호와 학습 데이터를 비교하고, 학습 데이터로부터 뇌파 신호와 상관도가 가장 높은 움직임 커맨드를 추출하는 단계 및 추출된 움직임 커맨드에 해당하는 구동부(100)를 구동시키는 제어신호를 출력하는 단계를 더 포함할 수 있다.
또한, 이때의 뇌파 신호를 학습 데이터에 추가하여 학습 데이터를 갱신하는 단계를 더 포함할 수 있다.
한편, 본 발명에 따른 메모리 및 저장장치는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10: 뇌파 기반의 착용형 로봇의 제어 장치
100: 구동부
200: 중앙처리장치
211: 애플리케이션
300: 감지부
310: 뇌파 감지부
320: 머리 움직임 감지부
330: 다리 움직임 감지부

Claims (9)

  1. 뇌파 기반의 착용형 로봇의 제어 방법에 있어서,
    사용자에 의하여 움직임이 유도된 상기 착용형 로봇 및 상기 사용자의 머리 움직임 정보를 수신하는 단계;
    상기 움직임이 유도될 때 감지된 상기 사용자의 뇌파 신호를 수집하는 단계;
    상기 수집된 뇌파 신호를 상기 움직임 정보에 기초하여 움직임 단위로 구분하여 저장하는 단계;
    상기 뇌파 신호를 독립 성분으로 구분하는 단계;
    상기 머리 움직임 정보에 대한 상관 관계가 미리 설정된 임계값 이상인 독립 성분을 상기 뇌파 신호로부터 제거하는 단계; 및
    상기 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여, 각 뇌파 신호를 움직임 커맨드별로 분류하여 학습 데이터를 생성하는 단계를 포함하는 착용형 로봇의 제어 방법.
  2. 제 1 항에 있어서,
    상기 뇌파 신호와 상기 학습 데이터를 비교하고, 상기 학습 데이터로부터 상기 뇌파 신호와 상관도가 가장 높은 움직임 커맨드를 추출하는 단계; 및
    상기 추출된 움직임 커맨드에 해당하는 구동부를 구동시키는 제어신호를 출력하는 단계를 더 포함하는 착용형 로봇의 제어 방법.
  3. 제 2 항에 있어서,
    상기 뇌파 신호를 상기 학습 데이터에 추가하여, 상기 학습 데이터를 갱신하는 단계를 더 포함하는 착용형 로봇의 제어 방법.
  4. 제 1 항에 있어서,
    상기 움직임 정보를 수신하는 단계는
    상기 사용자의 머리에 배치된 움직임 센서로부터 상기 머리 움직임 정보를 수신하고,
    상기 착용형 로봇의 다리에 각각 배치된 움직임 센서로부터 상기 다리 움직임 정보를 수신하는 것인 착용형 로봇의 제어 방법.
  5. 삭제
  6. 제 1 항에 있어서,
    상기 뇌파 신호를 독립 성분으로 구분하는 단계는
    독립 성분 분석법(Independent Component Analysis)을 이용하여 잡음(Noise)을 제거하는 것을 포함하고,
    상기 임계값은
    상기 뇌파 신호와 상기 머리 움직임 정보와의 상관분석(Correlation Analysis)을 통해 설정하고,
    상기 설정된 임계값을 이용하여 상기 상관 관계가 상기 임계값 이상인 성분을 제거하는 것을 포함하는 착용형 로봇의 제어 방법.
  7. 제 6 항에 있어서,
    상기 학습 데이터를 생성하는 단계는
    상기 잡음이 제거된 뇌파 신호를 특징 행렬의 형태로 변환하여 축소된 차원을 움직임 커맨드별로 분류하는 단계를 더 포함하는 착용형 로봇의 제어 방법.
  8. 청구항 1 내지 청구항 4, 청구항 6 및 청구항 7 중 어느 한 항에 기재된 방법을 컴퓨터 상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
  9. 착용형 로봇의 제어 장치에 있어서,
    데이터 송수신부;
    상기 착용형 로봇의 제어 애플리케이션이 저장된 메모리; 및
    상기 애플리케이션을 실행하는 프로세서를 포함하되,
    상기 프로세서는,
    상기 애플리케이션의 실행에 따라, 사용자에 의하여 움직임이 유도된 상기 착용형 로봇 및 상기 사용자의 머리 움직임 정보를 수신하고,
    상기 움직임이 유도될 때 감지된 상기 사용자의 뇌파 신호를 수집하고,
    상기 뇌파 신호를 상기 움직임 정보에 기초하여 움직임 단위로 구분하여 저장하고,
    상기 뇌파 신호를 독립 성분으로 구분하고,
    상기 머리 움직임 정보에 대한 상관 관계가 미리 설정된 임계값 이상인 독립 성분을 상기 뇌파 신호로부터 제거하고,
    상기 독립 성분이 제거된 뇌파 신호의 특징 성분에 기초하여, 각 뇌파 신호를 움직임 커맨드별로 분류하여 학습 데이터를 생성하되,
    상기 착용형 로봇의 움직임 정보는 상기 사용자의 다리 및 머리에 각각 배치된 움직임 센서로부터 수집된 것인 착용형 로봇의 제어 장치.
KR1020140190972A 2014-12-26 2014-12-26 뇌파 기반의 착용형 로봇의 제어 장치 및 방법 KR101656739B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140190972A KR101656739B1 (ko) 2014-12-26 2014-12-26 뇌파 기반의 착용형 로봇의 제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140190972A KR101656739B1 (ko) 2014-12-26 2014-12-26 뇌파 기반의 착용형 로봇의 제어 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20160079501A KR20160079501A (ko) 2016-07-06
KR101656739B1 true KR101656739B1 (ko) 2016-09-12

Family

ID=56502450

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140190972A KR101656739B1 (ko) 2014-12-26 2014-12-26 뇌파 기반의 착용형 로봇의 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101656739B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180009690A (ko) 2016-07-19 2018-01-29 한국비엔에스교육문화진흥원(주) 원격으로 프로토콜 제어가 가능한 뇌파로 제어되는 완구
KR101869713B1 (ko) 2016-12-30 2018-06-21 (주)씽크포비엘 뇌파 정보 기반의 사용성 테스트 방법 및 장치
KR101934272B1 (ko) * 2016-11-15 2019-01-02 대한민국 뇌-기계 인터페이스 로봇 제어 시스템
KR20190027617A (ko) * 2017-09-07 2019-03-15 고려대학교 산학협력단 로봇팔 장치를 제어하기 위한 뇌-컴퓨터 인터페이싱 방법 및 그 뇌-컴퓨터 인터페이스 장치
KR20200098223A (ko) 2019-02-12 2020-08-20 김주원 로봇 제어를 위한 입력장치 및 로봇 제어 시스템
KR102606066B1 (ko) 2022-10-27 2023-11-27 우이준 인공지능 컴퓨터 기반 엔에프티 뇌파정보의 메타버스 아바타를 이용한 거래 시스템 및 그 운용방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102136799B1 (ko) 2018-08-30 2020-07-22 재단법인대구경북과학기술원 뇌파로 타겟 오브젝트를 조작하는 장치 및 방법
KR102161654B1 (ko) 2018-09-18 2020-10-05 재단법인대구경북과학기술원 뇌신호로 레이저 빔을 제어하여 마이크로 오브젝트를 조작하는 장치 및 방법
KR102178789B1 (ko) * 2018-09-19 2020-11-13 고려대학교 산학협력단 능동소음제거와 상관관계 최적화를 이용한 운동심상 분류 장치 및 방법
KR102190458B1 (ko) 2019-01-30 2020-12-11 재단법인대구경북과학기술원 뇌-기계 접속 기술 체험용 교육 장치 및 방법
CN110161900B (zh) * 2019-04-25 2021-04-27 中国人民解放军火箭军工程大学 一个远程操作的穿戴式遥控操作平台
KR102269706B1 (ko) 2019-11-04 2021-06-25 재단법인대구경북과학기술원 적응 광학을 이용한 다채널 광섬유 광도 측정 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140117828A (ko) * 2013-03-27 2014-10-08 인텔렉추얼디스커버리 주식회사 뇌파 신호 보정 장치 및 보정 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180009690A (ko) 2016-07-19 2018-01-29 한국비엔에스교육문화진흥원(주) 원격으로 프로토콜 제어가 가능한 뇌파로 제어되는 완구
KR101934272B1 (ko) * 2016-11-15 2019-01-02 대한민국 뇌-기계 인터페이스 로봇 제어 시스템
KR101869713B1 (ko) 2016-12-30 2018-06-21 (주)씽크포비엘 뇌파 정보 기반의 사용성 테스트 방법 및 장치
KR20190027617A (ko) * 2017-09-07 2019-03-15 고려대학교 산학협력단 로봇팔 장치를 제어하기 위한 뇌-컴퓨터 인터페이싱 방법 및 그 뇌-컴퓨터 인터페이스 장치
KR101962276B1 (ko) 2017-09-07 2019-03-26 고려대학교 산학협력단 로봇팔 장치를 제어하기 위한 뇌-컴퓨터 인터페이싱 방법 및 그 뇌-컴퓨터 인터페이스 장치
KR20200098223A (ko) 2019-02-12 2020-08-20 김주원 로봇 제어를 위한 입력장치 및 로봇 제어 시스템
KR102606066B1 (ko) 2022-10-27 2023-11-27 우이준 인공지능 컴퓨터 기반 엔에프티 뇌파정보의 메타버스 아바타를 이용한 거래 시스템 및 그 운용방법

Also Published As

Publication number Publication date
KR20160079501A (ko) 2016-07-06

Similar Documents

Publication Publication Date Title
KR101656739B1 (ko) 뇌파 기반의 착용형 로봇의 제어 장치 및 방법
US10980466B2 (en) Brain computer interface (BCI) apparatus and method of generating control signal by BCI apparatus
Sipp et al. Loss of balance during balance beam walking elicits a multifocal theta band electrocortical response
Lotte et al. Electroencephalography (EEG)-based brain-computer interfaces
EP3037036B1 (en) Biometric authentication method and apparatus
KR101703547B1 (ko) 기능적 근적외선 분광법의 뇌활성도 측정에 따른 유효 채널 추출 방법 및 장치
US20070173733A1 (en) Detection of and Interaction Using Mental States
Khan et al. Analysis of human gait using hybrid EEG-fNIRS-based BCI system: a review
KR101518575B1 (ko) Bci를 위한 사용자 의도인지 분석 방법
Lange et al. Classification of electroencephalogram data from hand grasp and release movements for BCI controlled prosthesis
Kee et al. Binary and multi-class motor imagery using Renyi entropy for feature extraction
Pendharkar et al. Using blind source separation on accelerometry data to analyze and distinguish the toe walking gait from normal gait in ITW children
SG172262A1 (en) Device and method for generating a representation of a subject's attention level
Prashant et al. Brain computer interface: A review
Tahafchi et al. Freezing-of-Gait detection using temporal, spatial, and physiological features with a support-vector-machine classifier
Sburlea et al. Advantages of EEG phase patterns for the detection of gait intention in healthy and stroke subjects
Lindig-Leon et al. A multi-label classification method for detection of combined motor imageries
KR20200052205A (ko) 뇌-컴퓨터 인터페이스 시스템 및 동작 상상에 의해 발현된 뇌파 신호를 분석하는 방법
KR101998465B1 (ko) 발목에 착용되는 가속도 센서를 이용한 걸음걸이 분석 장치 및 방법
Sharma et al. Recent trends in EEG based Motor Imagery Signal Analysis and Recognition: A comprehensive review.
Hu et al. Multi-feature fusion method based on WOSF and MSE for four-class MI EEG identification
KR101539923B1 (ko) 이중 기계학습 구조를 이용한 생체신호 기반의 안구이동추적 시스템 및 이를 이용한 안구이동추적 방법
Hasan et al. Preliminary study on real-time prediction of gait acceleration intention from volition-associated EEG patterns
CN107854127B (zh) 一种运动状态的检测方法及装置
Bodda et al. Computational analysis of EEG activity during stance and swing gait phases

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190808

Year of fee payment: 4