KR102429231B1 - 웨어러블 장치를 이용한 식사 보조 방법 및 장치 - Google Patents

웨어러블 장치를 이용한 식사 보조 방법 및 장치 Download PDF

Info

Publication number
KR102429231B1
KR102429231B1 KR1020200108937A KR20200108937A KR102429231B1 KR 102429231 B1 KR102429231 B1 KR 102429231B1 KR 1020200108937 A KR1020200108937 A KR 1020200108937A KR 20200108937 A KR20200108937 A KR 20200108937A KR 102429231 B1 KR102429231 B1 KR 102429231B1
Authority
KR
South Korea
Prior art keywords
wearable device
meal
user
sensing data
control signal
Prior art date
Application number
KR1020200108937A
Other languages
English (en)
Other versions
KR20220028213A (ko
Inventor
양기훈
최익수
표동범
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020200108937A priority Critical patent/KR102429231B1/ko
Publication of KR20220028213A publication Critical patent/KR20220028213A/ko
Application granted granted Critical
Publication of KR102429231B1 publication Critical patent/KR102429231B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 웨어러블 장치를 이용한 식사 보조 방법 및 장치에 관한 것으로, 식사보조장치가 웨어러블 장치로부터 센싱데이터를 수신하는 단계, 센싱데이터를 분석하여 웨어러블 장치를 착용한 사용자의 움직임에 대응되는 제어신호를 확인하는 단계 및 제어신호에 매핑된 동작을 수행하여 사용자의 식사를 보조하는 단계를 포함하며 다른 실시 예로도 적용이 가능하다.

Description

웨어러블 장치를 이용한 식사 보조 방법 및 장치{Method and Apparatus for Meal Assistance Using Wearable Apparatus}
본 발명은 웨어러블 장치를 이용한 식사 보조 방법 및 장치에 관한 것이다.
인간의 기대수명은 매년 증가하고 있으며, 국내를 비롯한 세계 각국은 급속하게 노령화 사회로 접어들고 있다. 전 세계적으로 노형화가 진행되고 있는 시점에서 실버산업분야는 생명지원분야, 생활지원분야, 생활활동지원분야 등으로 나뉘어 활발하게 발전하고 있으며, 이에 필요한 생체기능 대행 보조기술, 치료지원기술, 자립지원기술 및 생활지원용 로봇기술 등도 활발하게 개발되고 있는 추세이다.
이러한 실버산업분야는 단순히 노인들에게만 적용되지 않고, 근력이 약해져 자력 거동이 불가능하거나 곤란하여 행동에 많은 제약을 받는 환자들에게도 유용하게 적용될 수 있다. 특히, 식사 보조를 지원하는 로봇의 경우 대부분은 식사 중에 사용자의 근력훈련을 보조하도록 사용자가 버튼이나 조이스틱 등의 조작을 직접적으로 조작하도록 개발되고 있어, 물리적인 접촉을 통한 조작이 불편한 사용자들의 고려가 되어 있지 않은 상황이다. 따라서, 물리적인 접촉 없이도 사용자에게 식사 보조를 제공할 수 있는 기술의 필요성이 대두되고 있는 실정이다.
(특허문헌 1) 미국 특허출원공개공보 US2002/0064438호(2002.05.30.)
이러한 종래의 문제점을 해결하기 위한 본 발명의 실시 예들은 두부 착용형 웨어러블 장치에서 획득되는 사용자 머리의 운동신호를 기반으로 식사 보조 장치를 제어하여 식사 보조 장치와의 물리적인 접촉 없이 사용자에게 식사 보조를 지원할 수 있는 웨어러블 장치를 이용한 식사 보조 방법 및 장치를 제공하는 것이다.
본 발명의 실시 예에 따른 식사 보조 방법은, 식사보조장치가 웨어러블 장치로부터 센싱데이터를 수신하는 단계, 상기 센싱데이터를 분석하여 상기 웨어러블 장치를 착용한 사용자의 움직임에 대응되는 제어신호를 확인하는 단계 및 상기 제어신호에 매핑된 동작을 수행하여 상기 사용자의 식사를 보조하는 단계를 포함하는 것을 특징으로 한다.
또한, 웨어러블 장치는, 두부 착용형 웨어러블 장치인 것을 특징으로 한다.
또한, 웨어러블 장치는, 관성측정센서를 포함하여 3축의 가속도 값 및 3축의 각속도 값을 상기 센싱데이터로 획득하는 것을 특징으로 한다.
또한, 제어신호를 확인하는 단계는, 상기 센싱데이터의 분석을 통해 상기 웨어러블 장치를 착용한 사용자의 머리가 이동하는 방향 및 각도를 확인하는 단계 및 상기 확인된 방향 및 각도를 기반으로 상기 제어신호를 확인하는 단계를 포함하는 것을 특징으로 한다.
또한, 센싱데이터를 수신하는 단계 이전에, 상기 관성측정센서의 캘리브레이션을 수행하는 단계를 더 포함하는 것을 특징으로 한다.
아울러, 본 발명의 실시 예에 따른 식사 보조 장치는, 웨어러블 장치와 통신을 수행하는 통신부, 상기 웨어러블 장치로부터 수신된 센싱데이터를 분석하여 상기 웨어러블 장치를 착용한 사용자의 움직임에 대응되는 제어신호를 확인하는 제어부 및 상기 제어부의 제어에 의해 상기 제어신호에 매핑된 동작을 수행하여 상기 사용자의 식사를 보조하는 구동부를 포함하는 것을 특징으로 한다.
또한, 웨어러블 장치는, 두부 착용형 웨어러블 장치인 것을 특징으로 한다.
또한, 웨어러블 장치는, 관성측정센서를 포함하여 3축의 가속도 값 및 3축의 각속도 값을 상기 센싱데이터로 획득하는 것을 특징으로 한다.
또한, 제어부는, 상기 센싱데이터의 분석을 통해 상기 웨어러블 장치를 착용한 사용자의 머리가 이동하는 방향 및 각도를 확인하고, 상기 확인된 방향 및 각도를 기반으로 상기 제어신호를 확인하는 것을 특징으로 한다.
또한, 제어부는, 상기 관성측정센서의 캘리브레이션을 수행하는 것을 특징으로 한다.
상술한 바와 같이 본 발명에 따른 웨어러블 장치를 이용한 식사 보조 방법 및 장치는, 두부 착용형 웨어러블 장치에서 획득되는 사용자 머리의 운동신호를 기반으로 식사 보조 장치를 제어하여 식사 보조 장치와의 물리적인 접촉 없이 사용자에게 식사 보조를 지원할 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 웨어러블 장치를 이용한 식사 보조를 제공하는 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 식사 보조 장치를 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에 따른 웨어러블 장치를 이용한 식사 보조 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 다른 실시 예에 따른 웨어러블 장치를 이용한 식사 보조 방법을 설명하기 위한 흐름도이다.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략할 수 있고, 명세서 전체를 통하여 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 부호를 사용할 수 있다.
본 발명의 일 실시 예에서, “또는”, “적어도 하나” 등의 표현은 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “A 또는 B”, “A 및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.
도 1은 본 발명의 실시 예에 따른 웨어러블 장치를 이용한 식사 보조를 제공하는 시스템을 나타낸 도면이다.
도 1을 참조하면, 본 발명에 따른 시스템(10)은 웨어러블 장치(100) 및 식사보조장치(200)를 포함한다.
웨어러블 장치(100)는 사용자가 두부에 착용하는 두부 착용 웨어러블 장치를 의미한다. 웨어러블 장치(100)는 웨어러블 장치(100)를 착용한 사용자의 움직임에 대한 센싱데이터를 획득하는 관성측정센서를 구비한다. 이때, 관성측정센서는, 3축의 가속도 값 및 3축의 각속도 값을 포함하는 센싱데이터를 획득한다.
웨어러블 장치(100)는 관성측정센서에서 획득된 센싱데이터를 식사보조장치(200)로 전송하기 위해 식사보조장치(200)와의 통신을 수행한다. 이를 위해, 웨어러블 장치(100)는 블루투스(Bluetooth), BLE(Bluetooth low energy), NFC(near field communication) 등의 무선 통신을 제공할 수 있다. 아울러, 웨어러블 장치(100)는 소형배터리를 구비하여 웨어러블 장치(100)의 동작을 위한 전원을 공급할 수 있고, USB 케이블 등을 이용하여 전원을 공급할 수 있다.
식사보조장치(200)는 웨어러블 장치(100)와의 통신을 통해 웨어러블 장치(100)로부터 수신된 센싱데이터의 분석을 수행하고, 센싱데이터의 분석결과를 기반으로 제어신호를 확인한다. 식사보조장치(200)는 확인된 제어신호에 매핑된 동작을 확인할 후, 해당 동작으로 수행하여 사용자의 식사를 보조한다. 식사보조장치(200)의 보다 구체적인 구성은 하기의 도 2를 이용하여 설명하기로 한다. 도 2는 본 발명의 실시 예에 따른 식사 보조 장치를 나타낸 도면이다.
도 2를 참조하면, 본 발명에 따른 식사보조장치(200)는 통신부(210), 입력부(220), 오디오처리부(230), 표시부(240), 메모리(250), 구동부(260) 및 제어부(270)를 포함한다.
통신부(210)는 무선 통신을 통해 웨어러블 장치(100)와의 통신을 수행한다. 이를 위해, 통신부(210)는 블루투스(Bluetooth), BLE(Bluetooth low energy), NFC(near field communication) 등의 무선 통신을 구생할 수 있다.
입력부(220)는 식사보조장치(200)를 사용하는 사용자 입력에 대응하여 입력 데이터를 발생시킨다. 입력부(220)는 적어도 하나의 입력수단을 포함한다. 입력부(220)는 키보드(keyboard), 마우스(mouse), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key) 및 버튼(button)을 포함한다.
오디오처리부(230)는 오디오 신호를 처리한다. 이때, 오디오처리부(230)는 마이크(MIC)와 스피커(SPK)를 포함한다. 오디오처리부(230)는 마이크에서 발생되는 오디오 신호를 오디오데이터로 변환하여 제어부(270)로 전달한다. 오디오처리부(230)는 제어부(270)에서 출력되는 오디오 신호 등을 스피커를 통해 재생한다.
표시부(240)는 식사보조장치(200)의 동작에 따른 출력 데이터를 출력한다. 이를 위해, 표시부(240)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이 및 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 표시부(240)는 입력부(220)와 결합되어 터치 스크린(touch screen)으로 구현될 수 있다.
메모리(250)는 식사보조장치(200)의 동작 프로그램을 저장한다. 이를 위해, 메모리(250)는 식사보조장치(200)를 제어하기 위한 제어신호를 저장하고, 제어신호에 대응되는 동작을 매핑하여 저장한다. 아울러, 메모리(250)는 웨어러블 장치(100)로부터 수신된 센싱데이터를 분석하기 위한 알고리즘을 저장한다.
구동부(260)는 제어부(270)의 제어에 의해 동작하여 사용자의 식사를 보조하는 로봇팔을 의미한다. 구동부(260)는 제어부(270)의 제어에 의해 식판에 배치된 음식을 잡기 위해 이동하고, 해당 음식을 젓가락으로 집거나 숟가락으로 떠서 사용자의 입으로 넣어주는 동작을 수행한다.
제어부(270)는 사용자의 식사를 보조하기 위해서 웨어러블 장치(100)와 통신 연결을 수행한다. 보다 구체적으로, 제어부(270)는 웨어러블 장치(100)와 무선 통신 연결이 수행된 적이 없으면 웨어러블 장치(100)와 페어링을 수행하고, 웨어러블 장치(100)와 무선 통신 연결을 수행한다. 제어부(270)는 웨어러블 장치(100)에 구비된 관성측정센서의 캘리브레이션이 완료된 상태인지 확인하고, 캘리브레이션이 완료된 상태가 아니면 웨어러블 장치(100)를 착용한 사용자의 기본자세를 기반으로 관성측정센서의 영점을 잡는 캘리브레이션을 수행한다.
이어서, 제어부(270)는 식사 보조를 위해 웨어러블 장치(100)에 구비된 관성측정센서에서 획득된 센싱데이터를 수신하여, 센싱데이터의 분석을 수행한다. 제어부(270)는 센싱데이터의 분석결과를 기반으로 제어신호를 확인하고 제어신호에 매핑된 동작을 확인한다. 보다 구체적으로, 제어부(270)는 웨어러블 장치(100)로부터 수신된 3축의 가속도 값 및 3축의 각속도 값을 포함하는 센싱데이터를 분석하여 사용자의 움직임 즉, 사용자가 머리를 움직인 방향 및 각도를 확인한다. 제어부(270)는 확인된 방향 및 각도에 따라 기설정된 제어신호를 확인한다.
예컨대, 움직임 확인결과, 사용자가 고개를 왼쪽으로 이동한 것으로 확인되면 제어부(270)는 구동부(260)를 현재 위치에서 반시계방향에 있는 반찬의 위치로 이동시킬 수 있는 제어신호인 것으로 확인할 수 있다. 반대로, 사용자가 고개를 오른쪽으로 이동한 것으로 확인되면 제어부(270)는 구동부(260)를 현재 위치에서 시계방향에 있는 반찬의 위치로 이동시킬 수 있는 제어신호인 것으로 확인할 수 있다. 또한, 사용자가 앞으로 고개를 끄덕인 것으로 확인되면 제어부(270)는 구동부(260)가 현재 위치에 담겨있는 반찬을 선택할 수 있는 제어신호인 것으로 확인할 수 있다.
제어부(270)는 확인된 제어신호를 기반으로 구동부(260)의 동작을 제어한다. 제어부(270)는 식사보조 종료신호가 수신될 때까지 웨어러블 장치(100)로부터 센싱데이터를 지속적으로 수신하고, 센싱데이터를 기반으로 구동부(260)를 제어하여 사용자의 식사를 보조한다.
도 3은 본 발명의 일 실시 예에 따른 웨어러블 장치를 이용한 식사 보조 방법을 설명하기 위한 순서도이다.
도 3을 참조하면, 301단계에서 제어부(270)는 식사보조장치(200)의 전원이 온(ON)됨을 확인한다. 제어부(270)는 식사보조장치(200)의 전원이 온되면 303단계를 수행한다. 303단계에서 제어부(270)는 웨어러블 장치(100)와 연결된 상태인지 확인한다. 303단계의 확인결과 웨어러블 장치(100)와 식사보조장치(200)가 연결된 상태가 아니면 제어부(270)는 305단계를 수행하고, 웨어러블 장치(100)와 식사보조장치(200)가 연결된 상태이면 제어부(270)는 307단계를 수행한다. 305단계에서 제어부(270)는 웨어러블 장치(100)와 연결을 수행한다. 보다 구체적으로, 제어부(270)는 웨어러블 장치(100)와 무선 통신 연결을 위해 웨어러블 장치(100)와 페어링을 수행하고, 웨어러블 장치(100)와 무선 통신이 연결되면 제어부(270)는 307단계를 수행한다.
307단계에서 제어부(270)는 웨어러블 장치(100)에 구비된 관성측정센서의 캘리브레이션이 완료된 상태인지 확인한다. 307단계의 확인결과, 캘리브레이션이 완료된 상태이면 제어부(270)는 311단계를 수행하고, 캘리브레이션이 완료된 상태가 아니면 제어부(270)는 309단계를 수행한다. 309단계에서 제어부(270)는 웨어러블 장치(100)를 착용한 사용자의 기본자세를 기반으로 관성측정센서의 영점을 잡는 캘리브레이션을 수행하고 311단계를 수행한다.
311단계에서 제어부(270)는 웨어러블 장치(100)에 구비된 관성측정센서에서 획득된 센싱데이터를 수신하고 313단계를 수행한다. 313단계에서 제어부(270)는 센싱데이터의 분석을 수행하고 315단계를 수행한다. 315단계에서 제어부(270)는 센싱데이터의 분석결과를 기반으로 제어신호를 확인하고 317단계를 수행하여 제어신호에 매핑된 동작을 확인한다. 보다 구체적으로, 웨어러블 장치(100)에 구비된 관성측정센서는 3축의 가속도 값 및 3축의 각속도 값을 센싱데이터로 획득하고, 제어부(270)는 센싱데이터를 분석하여 사용자의 움직임 즉, 사용자가 머리를 움직인 방향 및 각도를 확인한다. 제어부(270)는 확인된 방향 및 각도에 따라 기설정된 제어신호를 확인한다.
예컨대, 움직임 확인결과, 사용자가 고개를 왼쪽으로 이동한 것으로 확인되면 제어부(270)는 구동부(260)를 현재 위치에서 반시계방향에 있는 반찬의 위치로 이동시킬 수 있는 제어신호인 것으로 확인할 수 있다. 반대로, 사용자가 고개를 오른쪽으로 이동한 것으로 확인되면 제어부(270)는 구동부(260)를 현재 위치에서 시계방향에 있는 반찬의 위치로 이동시킬 수 있는 제어신호인 것으로 확인할 수 있다. 또한, 사용자가 앞으로 고개를 끄덕인 것으로 확인되면 제어부(270)는 구동부(260)가 현재 위치에 담겨있는 반찬을 선택할 수 있는 제어신호인 것으로 확인할 수 있다.
317단계에서 제어부(270)는 구동부(260)가 제어신호에 따라 동작하도록 구동부(260)를 제어하여 사용자의 식사를 보조할 수 있도록 한다. 이어서, 321단계에서 제어부(270)는 식사보조 종료신호의 수신여부를 확인한다. 321단계의 확인결과, 식사보조 종료신호가 수신되지 않으면 제어부(270)는 311단계로 회귀하여 센싱데이터를 다시 수신하여 식사보조를 지속적으로 수행하고, 식사보조 종료신호가 수신되면 제어부(270)는 상기의 프로세스를 종료한다.
도 4는 본 발명의 다른 실시 예에 따른 웨어러블 장치를 이용한 식사 보조 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 웨어러블 장치(100)를 착용한 사용자의 움직임을 기반으로 식사보조장치(200)를 제어하여 사용자의 식사를 보조하기 위해서 401단계에서 웨어러블 장치(100)와 식사보조장치(200) 사이에 통신이 연결된다.
403단계에서 웨어러블 장치(100)는 웨어러블 장치(100)에 구비된 관성측정센서로부터 센싱데이터를 획득하고 405단계에서 웨어러블 장치(100)는 획득된 센싱데이터를 분석한다. 이때, 관성측정센서는 3축의 가속도 값 및 3축의 각속도 값을 센싱데이터로 획득하고, 웨어러블 장치(100)는 센싱데이터를 분석하여 사용자의 움직임 즉, 사용자가 머리를 움직인 방향 및 각도를 확인한다. 도시되진 않았으나, 웨어러블 장치(100)는 403단계에서 센싱데이터를 획득하기 이전에 관성측정센서의 캘리브레이션을 수행하는데, 캘리브레이션은 웨어러블 장치(100)와 식사보조장치(200)가 최초로 연결된 시점에 수행될 수 있고 주기적으로 수행될 수 있다.
407단계에서 웨어러블 장치(100)는 확인된 방향 및 각도에 대응되는 제어신호를 확인하고 409단계에서 웨어러블 장치(100)는 제어신호를 식사보조장치(200)로 전송한다. 예컨대, 움직임 확인결과, 사용자가 고개를 왼쪽으로 이동한 것으로 확인되면 웨어러블 장치(100)는 식사보조장치(200)의 구동부(260)를 현재 위치에서 반시계방향에 있는 반찬의 위치로 이동시킬 수 있는 제어신호인 것으로 확인할 수 있다. 반대로, 사용자가 고개를 오른쪽으로 이동한 것으로 확인되면 웨어러블 장치(100)는 식사보조장치(200)의 구동부(260)를 현재 위치에서 시계방향에 있는 반찬의 위치로 이동시킬 수 있는 제어신호인 것으로 확인할 수 있다. 또한, 사용자가 앞으로 고개를 끄덕인 것으로 확인되면 웨어러블 장치(100)는 식사보조장치(200)의 구동부(260)가 현재 위치에 담겨있는 반찬을 선택할 수 있는 제어신호인 것으로 확인할 수 있다.
411단계에서 식사보조장치(200)는 웨어러블 장치(100)로부터 수신된 제어장치에 매핑된 동작을 확인한다. 413단계에서 식사보조장치(200)는 식사보조장치(200)의 구동부(260)가 제어신호에 따라 동작하여 사용자의 식사를 보조할 수 있도록 동작을 수행한다.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (10)

  1. 식사보조장치가 두부 착용형 웨어러블 장치로부터 사용자의 움직임에 따라 측정된 3축의 가속도 값 및 3축의 각속도 값을 센싱데이터로 수신하는 단계;
    상기 센싱데이터를 분석하여 상기 웨어러블 장치를 착용한 사용자가 머리를 움직인 방향 및 각도를 확인하는 단계;
    상기 확인된 방향 및 각도에 대응하는 반찬의 위치로 상기 식사보조장치를 이동시키는 제어신호를 확인하는 단계; 및
    상기 제어신호에 매핑된 동작을 수행하여 상기 사용자의 식사를 보조하는 단계;
    를 포함하는 것을 특징으로 하는 식사 보조 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 센싱데이터를 수신하는 단계 이전에,
    관성측정센서의 캘리브레이션을 수행하는 단계;
    를 더 포함하는 것을 특징으로 하는 식사 보조 방법.
  6. 두부 착용형 웨어러블 장치와 통신을 수행하는 통신부;
    사용자의 식사를 보조하는 구동부; 및
    상기 웨어러블 장치로부터 상기 사용자의 움직임에 따라 측정된 3축의 가속도 값 및 3축의 각속도 값을 센싱데이터로 수신하고, 상기 수신된 센싱데이터를 분석하여 상기 웨어러블 장치를 착용한 사용자가 머리를 움직인 방향 및 각도를 확인하고, 상기 확인된 방향 및 각도에 대응하는 반찬의 위치로 구동부를 이동시키는 제어신호를 확인하고, 상기 제어신호에 매핑된 동작을 수행하여 상기 사용자의 식사를 보조하도록 상기 구동부를 제어하는 제어부;
    를 포함하는 것을 특징으로 하는 식사 보조 장치.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 제6항에 있어서,
    상기 제어부는,
    관성측정센서의 캘리브레이션을 수행하는 것을 특징으로 하는 식사 보조 장치.
KR1020200108937A 2020-08-28 2020-08-28 웨어러블 장치를 이용한 식사 보조 방법 및 장치 KR102429231B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200108937A KR102429231B1 (ko) 2020-08-28 2020-08-28 웨어러블 장치를 이용한 식사 보조 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200108937A KR102429231B1 (ko) 2020-08-28 2020-08-28 웨어러블 장치를 이용한 식사 보조 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220028213A KR20220028213A (ko) 2022-03-08
KR102429231B1 true KR102429231B1 (ko) 2022-08-04

Family

ID=80812546

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200108937A KR102429231B1 (ko) 2020-08-28 2020-08-28 웨어러블 장치를 이용한 식사 보조 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102429231B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020064438A1 (en) * 2000-05-08 2002-05-30 Osborne William Joseph Self-feeding apparatus with hover mode

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101237947B1 (ko) * 2011-03-21 2013-03-05 휴롭 주식회사 사용자의 행동을 인식하여 전기 전자 기기를 작동시키는 핸즈프리 제어 장치 및 방법
KR101380596B1 (ko) * 2012-04-25 2014-04-11 대한민국(국립재활원장) 카메라를 이용한 식사 보조 로봇
KR20160045985A (ko) * 2014-10-17 2016-04-28 경북대학교 산학협력단 식사 보조 로봇, 이를 포함하는 식사 보조 시스템
KR102305093B1 (ko) * 2015-02-26 2021-09-28 삼성전자주식회사 전자 장치 및 전자 장치의 자이로 센서 칼리브레이션 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020064438A1 (en) * 2000-05-08 2002-05-30 Osborne William Joseph Self-feeding apparatus with hover mode

Also Published As

Publication number Publication date
KR20220028213A (ko) 2022-03-08

Similar Documents

Publication Publication Date Title
US11301048B2 (en) Wearable device for detecting light reflected from a user
KR101666096B1 (ko) 강화된 제스처 기반 상호작용 시스템 및 방법
KR101548156B1 (ko) 촉감과 관절 저항감을 동시에 전달하는 무선 외골격 햅틱 인터페이스 장치 및 그 구성 방법
JP2017534985A (ja) 足ジェスチャに基づく制御装置
US20120165704A1 (en) Apparatus for controlling rehabilitation robot
KR101313106B1 (ko) 손가락 착용형 매개 장치 및 상기 장치를 이용한 손가락 동작 인식 방법
Fall et al. A multimodal adaptive wireless control interface for people with upper-body disabilities
US20110234488A1 (en) Portable engine for entertainment, education, or communication
CN110251080A (zh) 检测正在穿戴可穿戴电子设备的肢体
JP2008203911A (ja) ポインティング・デバイス、およびコンピュータ
JP2010158472A (ja) 視覚障害者用歩行支援装置及び視覚障害者用歩行支援システム
EP3190483A1 (en) A spherical hand-held unit for two-dimensional and three-dimensional interaction in a wireless interaction system
Sabuj et al. Human robot interaction using sensor based hand gestures for assisting disable people
Li et al. Design and performance characterization of a soft robot hand with fingertip haptic feedback for teleoperation
KR102429231B1 (ko) 웨어러블 장치를 이용한 식사 보조 방법 및 장치
RU2670649C1 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
KR101383450B1 (ko) 식사보조를 위한 상지 재활로봇 제어방법
JP2001265522A (ja) 爪に装着するセンサ
KR20210051277A (ko) 모션 측정을 수행하는 웨어러블 장치 및 그 제조 방법
RU2673406C1 (ru) Способ изготовления перчатки виртуальной реальности
JP7468785B2 (ja) 近接センサ及びコントローラ
Khan et al. Tongue-supported human-computer interaction systems: a review
WO2023046252A1 (en) Non-invasive tongue based interface
KR20140106309A (ko) 포스피드백 기능을 구비한 가상현실 입력장치
KR102295858B1 (ko) 사용자 인터페이스 컨트롤러 장치 및 그 제어 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant