KR102051946B1 - 스마트 웨어 제어 장치 및 그 방법 - Google Patents

스마트 웨어 제어 장치 및 그 방법 Download PDF

Info

Publication number
KR102051946B1
KR102051946B1 KR1020130036485A KR20130036485A KR102051946B1 KR 102051946 B1 KR102051946 B1 KR 102051946B1 KR 1020130036485 A KR1020130036485 A KR 1020130036485A KR 20130036485 A KR20130036485 A KR 20130036485A KR 102051946 B1 KR102051946 B1 KR 102051946B1
Authority
KR
South Korea
Prior art keywords
motion
user
information
smart wear
controlling
Prior art date
Application number
KR1020130036485A
Other languages
English (en)
Other versions
KR20140120996A (ko
Inventor
박형일
최병건
강성원
형창희
임인기
강태욱
황정환
김경수
김정범
김성은
박경환
강태영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130036485A priority Critical patent/KR102051946B1/ko
Priority to US14/162,294 priority patent/US9987187B2/en
Publication of KR20140120996A publication Critical patent/KR20140120996A/ko
Application granted granted Critical
Publication of KR102051946B1 publication Critical patent/KR102051946B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus ; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0218Drawing-out devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/12Driving means
    • A61H2201/1207Driving means with electric or magnetic drive
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/165Wearable interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5069Angle sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5071Pressure sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5079Velocity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5084Acceleration sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5092Optical sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Abstract

본 발명은 스마트 웨어 제어 장치 및 그 방법에 관한 것이다. 스마트 웨어 제어 방법은 스마트 웨어를 제어하는 장치가 상기 스마트 웨어가 포함하는 센서를 이용하여 사용자의 모션을 캡쳐하는 단계, 기준 모션 정보와 사용자의 모션을 캡쳐한 결과를 이용하여 사용자의 에러 정보를 생성하는 단계, 사용자의 에러 정보를 이용하여 사용자의 다음 모션을 추정하는 단계, 및 추정한 사용자의 다음 모션과 사용자의 에러 정보를 이용하여 사용자의 스마트 웨어를 실시간으로 제어하는 단계를 포함한다.

Description

스마트 웨어 제어 장치 및 그 방법{APPARATUS AND METHOD FOR CONTROLLING SMART WEAR}
본 발명은 스마트 웨어 제어 장치 및 그 방법에 관한 것으로, 특히 재활 학습이나 자세 교정을 위한 표준 모션 정보를 사용자에게 대응하게 변환하고, 변환한 결과에 해당하는 최적화된 모션 정보를 사용자에게 제공함으로써, 사용자의 재활 모션이나 자세를 실시간으로 제어할 수 있는 스마트 웨어 장치 및 그 방법에 관한 것이다.
모션 캡쳐 기술은 3D 애니메이션이나 컴퓨터 그래픽을 통한 가상현실에 적용하여 영상물 제작에 주로 활용된다.
모션 구동 기술은 로보틱스(Robotics) 또는 컴퓨터 그래픽 또는 가상현실 분야에 주로 적용 되었으며, 일부 재활환자를 위한 응용 분야에 적용시킨 사례가 있다.
일반적으로, 모션캡쳐 후에 코치 또는 재활 치료사가 교정이 필요한 부분에 대하여 설명하고 지도하는데 수강자나 환자가 이해하는 것과 행동으로 옮기는 것에는 차이가 있어서 훈련 시간이 길어지기 쉽다.
일부 교육하고자 하는 콘텐츠에 대하여 전무가의 자세와 모션을 데이터 베이스화하여 사용자의 모션과 비교하여 차이점을 알려 주는 시스템이 있다.
한국 등록 특허 제1087135호 "모션 콘텐츠 기반의 학습 장치 및 방법"은 모션 컨텐츠를 바탕으로 사용자로 하여금 계산된 힘을 가함으로써 특정 모션으로 유도하는 방법에 관하여 기재하고 있다.
그러나, 이와 같은 종래의 기술은 각 사용자의 성별, 나이, 신체조건 등에 차이를 해소하여 개별 사용자에게 맞는 목적 데이터 베이스를 만들기가 어려운 문제점이 있다.
본 발명의 목적은 특히 재활 학습이나 자세 교정을 위한 표준 모션 정보를 사용자에게 대응하게 변환하고, 변환한 결과에 해당하는 최적화된 모션 정보를 사용자에게 제공함으로써, 사용자의 재활 모션이나 자세를 실시간으로 제어할 수 있는 스마트 웨어 제어 장치 및 그 방법을 제공하는 것이다. .
상기한 목적을 달성하기 위한 본 발명에 따른 스마트 웨어 제어 방법은 스마트 웨어를 제어하는 장치가 상기 스마트 웨어가 포함하는 센서를 이용하여 사용자의 모션을 캡쳐하는 단계; 기준 모션 정보와 상기 사용자의 모션을 캡쳐한 결과를 이용하여 사용자의 에러 정보를 생성하는 단계; 상기 사용자의 에러 정보를 이용하여 사용자의 다음 모션을 추정하는 단계; 및 추정한 사용자의 다음 모션과 상기 사용자의 에러 정보를 이용하여 상기 사용자의 스마트 웨어를 실시간으로 제어하는 단계를 포함한다.
이 때, 상기 사용자의 에러 정보를 생성하기 이전에, 학습 및 재활의 최종 목표 모델에 해당하는 표준 모션 정보를 선택하는 단계; 상기 표준 모션 정보를 상기 스마트 웨어에 대응하게 변환하는 단계; 및 변환된 표준 모션 정보에 사용자 정보를 적용하여 상기 기준 모션 정보를 생성하는 단계를 더 포함하는 것을 특징으로 한다.
이 때, 상기 사용자 정보는 사용자의 성별, 연령, 키와 같은 신체 정보와 상기 표준 모션 정보에 대응하는 숙련도 정보를 포함하는 것을 특징으로 한다.
이 때, 상기 스마트 웨어를 실시간으로 제어하는 단계는 추정한 사용자의 다음 모션과 상기 사용자의 에러 정보를 이용하여, 사용자 모션의 에러를 실시간으로 제어할 수 있는 모션 제어 신호를 생성하는 단계; 및 상기 모션 제어 신호를 이용하여 사용자 모션의 에러를 실시간으로 피드백하여 상기 스마트 웨어를 제어하는 단계를 포함하는 것을 특징으로 한다.
이 때, 상기 스마트 웨어를 실시간으로 제어하는 단계는 상기 모션 제어 신호를 이용하여 상기 스마트 웨어 내 부착되어 있는 적어도 하나의 액츄에이터를 제어하는 것을 특징으로 한다.
또한, 본 발명의 일실시예에 따른 스마트 웨어 제어 장치는
스마트 웨어가 포함하는 센서를 이용하여 사용자의 모션을 캡쳐하는 모션 캡쳐부; 기준 모션 정보와 상기 사용자의 모션을 캡쳐한 결과를 이용하여 사용자의 에러 정보를 생성하는 에러 정보부; 상기 사용자의 에러 정보를 이용하여 사용자의 다음 모션을 추정하는 모션 추정부; 및 추정한 사용자의 다음 모션과 상기 사용자의 에러 정보를 이용하여 상기 사용자의 스마트 웨어를 실시간으로 제어하는 엑츄에이션부를 포함한다.
이 때, 스마트 웨어 제어 장치는 학습 및 재활의 최종 목표 모델에 해당하는 표준 모션 정보를 선택하는 표준 정보부; 상기 표준 모션 정보를 상기 스마트 웨어에 대응하게 변환하는 정보 변환부; 및 변환된 표준 모션 정보에 사용자 정보를 적용하여 상기 기준 모션 정보를 생성하는 최적화 정보 생성부를 더 포함하는 것을 특징으로 한다.
이 때, 상기 정보 변환부는 상기 스마트 웨어 내 센서 및 엑츄에이터의 위치와 개수를 포함하는 셋업 조건을 정의하는 셋업 조건부; 상기 표준 모션 정보에 추가할 추가 정보를 선택하는 선택부; 및 상기 선택부에서 선택한 추가 정보를 상기 표준 모션 정보에 추가하여 출력하거나, 추가없이 표준 모션 정보 그대로 출력하는 출력부를 포함하는 것을 특징으로 한다.
이 때, 상기 추가 정보는 상기 최종 목표 모델에 해당하는 관절각, 센서 좌표값, 각속도 값, 샘플링 주기 중 적어도 하나를 포함하는 것을 특징으로 한다.
이 때, 상기 센서는 광학식 센서, 가속 센서, 자이로 센서, 지자기 센서, 압력 센서 중 적어도 하나에 해당하는 것을 특징으로 한다.
본 발명에 따르면, 스마트 웨어 제어 장치 및 그 방법은 재활 학습이나 자세 교정을 위한 표준 모션 정보를 사용자에게 대응하게 변환하고, 변환한 결과에 해당하는 최적화된 모션 정보를 사용자에게 제공함으로써, 사용자의 재활 모션이나 자세를 실시간으로 제어할 수 있다.
또한, 본 발명은 사용자의 모션을 예측함으로써, 보다 빠른 피드백을 통하여 코치와 치료사의 부재시에도 정확한 자세 및 재활 모션을 수행할 수 있도록 하는 기술로, 코치 또는 치료사나 수강자 또는 재활 환자 모두에게 도움을 줄 수 있다.
또한, 본 발명은 사용자가 모션 수행 시에 실시간으로 교정하되 모션 예측을 통하여 보다 빠른 피드백이 가능하게 함으로써, 코치나 재활 치료사가 보다 많은 수강생이나 환자의 돌봄이 가능하게 하고, 수강생과 환자가 사후 교정의 한계를 극복하고 학습 및 교정의 정확도를 높일 수 있게 할 뿐만 아니라 시간, 노력 그리고 비용을 절감할 수 있고, 코치 또는 재활 치료사의 시각에 의한 교정의 한계를 뛰어 넘어 보다 정확한 교정 및 재활이 가능하다.
도 1은 본 발명의 실시예에 따른 스마트 웨어 제어 장치를 개략적으로 나타내는 구성도이다.
도 2 는 본 발명의 실시예에 따른 스마트 웨어 제어 장치를 사용자에게 적용하는 것을 나타내는 참고도이다.
도 3은 본 발명의 실시예에 따른 스마트 웨어 제어 장치 중 정보 변환부를 나타내는 구성도이다.
도 4는 본 발명의 실시예에 따른 스마트 웨어를 제어하는 방법을 나타내는 흐름도이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
먼저, 몸으로 배우고 익히는 스포츠 및 재활의 응용에서 자세의 학습과 교정은 많은 시간을 필요로 하는 지루한 과정의 연속이다.
본 발명은 IT와 섬유의 융합을 통하여 사용자의 모션을 실시간으로 파악 또는 교정이 가능한 스마트웨어의 제어 장치 및 그 방법에 관한 것이다.
이하, 본 발명에 따른 바람직한 실시예에 의한 스마트 웨어 제어 장치 및 그 방법에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 스마트 웨어 제어 장치를 개략적으로 나타내는 구성도이다. 또한, 도 2 는 본 발명의 실시예에 따른 스마트 웨어 제어 장치를 사용자에게 적용하는 것을 나타내는 참고도이다.
스마트 웨어는 고기능성 섬유에 디지털 센서, 초소형 컴퓨터 칩 등이 들어 있어 의복 자체가 외부 자극을 감지하고 반응할 수 있는 미래형 의류에 해당한다.
본 발명의 실시예에 따른 스마트 웨어 제어 장치는 몸으로 배우고 익히는 학습 및 재활의 응용분야에서 상기 스마트 웨어를 이용하여 사용자의 모션을 실시간으로 파악하고, 이를 토대로 사용자의 모션을 교정한다. 여기서, 스마트 웨어 제어 장치가 사용자에게 적용되는 경우에는 스마트 웨어가 포함하는 센서와 엑츄에이션이 사용자가 포함하고 있는 것으로 가정한다.
도 1을 참고하면, 스마트 웨어 제어 장치는 표준 정보부(100), 정보 변환부(200), 최적화 정보 생성부(300), 모션 캡쳐부(400), 에러 정보부(500), 모션 추정부(600), 모션 제어부(700) 및 엑츄에이션부(800)를 포함한다.
표준 정보부(100)는 학습 및 재활의 최종 목표 모델에 해당하는 정보 즉, 표준 모션 정보를 포함한다. 여기서, 표준 모션 정보는 예를 들어, 스포츠 분야에서 는 프로선수의 자세에 해당하고, 재활 분야에서는 정상인의 관절운동 가동범위에 해당하는 것을 특징으로 한다.
정보 변환부(200)는 표준 정보부(100)가 포함하는 표준 모션 정보를 스마트 웨어가 포함하는 엑츄에이터 및 센서에 대응하게 변환하거나, 표준 모션 정보에 추가 정보를 적용한다.
최적화 정보 생성부(300)는 정보 변환부(200)에서 변환된 표준 모션 정보에 사용자의 성별, 연령, 키 등과 같은 신체 정보와 숙련도 정보를 적용하여 최적화된 모션 정보를 생성한다.
모션 캡쳐부(400)는 사용자 예를 들어, 수강자 또는 재활 환자의 모션을 캡쳐한다. 이를 위하여, 모션 캡쳐부(400)는 도 2와 같이, 스마트 웨어에 부착되는 센서 예를 들어, 광학식 센서, 가속 센서, 자이로 센서, 지자기 센서, 압력 센서 등을 이용하여 모션을 캡쳐할 수 있다.
에러 정보부(500)는 최적화 정보 생성부(300)에서 최적화된 모션 정보와 모션 캡쳐부(400)에서 사용자의 모션을 캡쳐한 결과 즉, 캡쳐 결과를 비교하여, 비교한 결과에 해당하는 사용자의 에러 정보를 생성한다. 여기서, 사용자의 에러 정보 는 학습 및 재활에 있어서 사용자에게 제시하는 최적화된 모션 정보와 사용자의 모션을 캡쳐한 결과를 비교하여, 사용자의 모션이 최적화된 모션 정보와 다른 점 즉, 잘못된 모션을 의미한다.
또한, 에러 정보부(500)는 생성한 사용자의 에러 정보를 저장한다.
모션 추정부(600)는 에러 정보부(500)가 포함하는 사용자의 에러 정보를 이용하여 사용자의 다음 모션을 추정한다.
본 발명의 실시예에 따른, 스마트 웨어 제어 장치는 모션 추정부(600)에서와 같이 사용자의 다음 모션을 추정함으로써, 추정한 다음 모션의 에러를 미리 보정할 수 있다.
모션 추정부(600)는 사용자의 모션 자체가 너무 느리거나 너무 빠른 경우, 캡쳐 결과를 비교하지 않을 수 있으며, 이에 한정되지 않는다.
모션 제어부(700)는 모션 추정부(600)에서 추정한 사용자의 다음 모션과 에러 정보부(500)가 포함하는 사용자의 에러 정보를 이용하여, 사용자 모션의 에러를 실시간으로 제어할 수 있는 모션 제어 신호를 생성한다. 여기서, 모션 제어 신호는 사용자의 에러 정보에 대응하는 엑츄에이션을 제어하는 기능, 전문가의 지식 기반으로 사용자 모션의 에러에 대한 우선순위를 조정하는 기능 등을 포함한다.
엑츄에이션부(800)는 모션 제어부(700)에서 생성한 모션 제어 신호를 이용하여 사용자 모션의 에러를 실시간으로 피드백하여 사용자의 모션 즉, 사용자가 입고 있는 스마트 웨어를 제어한다. 이를 위하여, 엑츄에이션부(800)는 적어도 하나의 액츄에이터를 포함한다. 엑츄에이션부(800)는 도 2와 같이, 적어도 하나의 엑츄에이터가 부착된 신체 부위의 지각과 감각 인지 능력에 맞도록 조절 가능한 여러 단계의 프로파일을 구성할 수 있다. 여기서, 프로파일은 모션 주파수, 강도, 길이 주기 등을 포함한다.
본 발명의 실시예에 따른, 엑츄에이터는 섬유에 부착 가능한 실린더 타입 및 팬케이크 타입의 리니어 모터나 전기활성 고분자인 PVDF(polyvinylidene fluoride)와 같은 섬유형 액츄에이터일 수 있으며, 이에 한정되지 않는다.
다음, 스마트 웨어 제어 장치 중 정보 변환부(200)를 도 3을 참조하여 상세하게 설명한다.
도 3은 본 발명의 실시예에 따른 스마트 웨어 제어 장치 중 정보 변환부를 나타내는 구성도이다.
먼저, 정보 변환부(200)는 표준 정보부(100)가 포함하는 표준 모션 정보를 스마트 웨어가 포함하는 엑츄에이터 및 센서에 대응하게 변환하거나, 표준 모션 정보에 추가 정보를 적용한다.
도 3을 참고하면, 정보 변환부(200)는 셋업조건부(210), 선택부(220) 및 출력부(230)를 포함한다.
셋업조건부(210)는 도 2와 같이, 스마트 웨어 내 센서 및 엑츄에이터의 위치와 부착되는 센서 및 엑츄에이터의 갯수를 포함하는 셋업 조건을 정의한다.
선택부(220)는 표준 모션 정보에 추가할 추가 정보를 선택한다. 여기서, 추가 정보는 관절각, 센서 좌표값, 각속도 값, 샘플링 주기 등을 포함한다.
출력부(230)는 선택부(220)에서 선택한 추가 정보를 표준 모션 정보에 추가하여 출력하거나, 추가 정보 없이 표준 모션 정보 자체를 출력한다.
다음, 스마트 웨어를 제어하는 방법을 도 4를 참조하여 상세하게 설명한다.
도 4는 본 발명의 실시예에 따른 스마트 웨어를 제어하는 방법을 나타내는 흐름도이다.
도 4를 참고하면, 스마트 웨어 제어 장치는 학습 및 재활의 최종 목표 모델에 해당하는 정보 즉, 표준 모션 정보를 선택한다(S100). 여기서, 표준 모션 정보는 예를 들어, 스포츠 분야에서 는 프로선수의 자세에 해당하고, 재활 분야에서는 정상인의 관절운동 가동범위에 해당하는 것을 특징으로 한다.
스마트 웨어 제어 장치는 표준 모션 정보를 스마트 웨어가 포함하는 엑츄에이터 및 센서에 대응하게 변환하거나, 표준 모션 정보에 추가 정보를 적용하여 변환한다(S200).
스마트 웨어 제어 장치는 S200 단계에서 변환된 표준 모션 정보에 사용자 정보를 적용하여 최적화된 모션 정보를 생성한다(S300). 여기서, 사용자 정보는 성별, 연령, 키 등과 같은 신체 정보와 숙련도 정보를 포함한다.
스마트 웨어 제어 장치는 스마트 웨어가 포함하는 센서를 이용하여 사용자 예를 들어, 수강자 또는 재활 환자의 모션을 캡쳐한다(S400). 여기서, 스마트 웨어는 사용자가 입고 있는 의류에 해당하며, 스마트 웨어가 포함하는 센서는 광학식 센서, 가속 센서, 자이로 센서, 지자기 센서, 압력 센서 등을 포함한다 또한, 최적화된 모션 정보는 S400단계에서 갭쳐한 결과와 비교하여 사용자의 에러 정보를 생성하는데 필요한 기준 모션 정보에 해당한다.
스마트 웨어 제어 장치는 S300 단계에서 생성한 최적화된 모션 정보와 S400단계에서 갭쳐한 결과를 비교하여, 비교한 결과에 해당하는 사용자의 에러 정보를 생성한다(S500). 여기서, 사용자의 에러 정보는 사용자의 모션이 최적화된 모션 정보와 다른 점에 해당하는 정보이며, 사용자의 모션을 최적화된 모션 정보와 동일하게 교정하기 위해 필요한 정보이다.
스마트 웨어 제어 장치는 S500 단계에서 생성한 사용자의 에러 정보를 이용하여 사용자의 다음 모션을 추정한다(S600).
스마트 웨어 제어 장치는 S600 단계에서 추정한 사용자의 다음 모션과 S500 단계에서 생성한 사용자의 에러 정보를 이용하여, 사용자 모션의 에러를 실시간으로 제어할 수 있는 모션 제어 신호를 생성한다(S700). 여기서, 모션 제어 신호는 사용자의 에러 정보에 대응하는 엑츄에이션을 제어하는 기능, 전문가의 지식 기반으로 사용자 모션의 에러에 대한 우선순위를 조정하는 기능 등을 포함한다.
스마트 웨어 제어 장치는 S700 단계에서 생성한 모션 제어 신호를 이용하여 사용자 모션의 에러를 실시간으로 피드백하여 사용자의 모션 즉, 스마트 웨어를 제어한다(S800). S800 단계에서, 스마트 웨어 제어 장치는 적어도 하나의 엑츄에이터가 부착된 신체 부위의 지각과 감각 인지 능력에 맞도록 조절 가능한 여러 단계의 프로파일을 구성할 수 있다. 여기서, 프로파일은 모션 주파수, 강도, 길이 주기 등을 포함한다.
이와 같이, 본 발명의 실시예에 따른 스마트 웨어 제어 장치 및 그 방법은 재활 학습이나 자세 교정을 위한 표준 모션 정보를 사용자에게 대응하게 변환하고, 변환한 결과에 해당하는 최적화된 모션 정보를 사용자에게 제공함으로써, 사용자의 재활 모션이나 자세를 실시간으로 제어할 수 있다.
이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
100; 표준 정보부 200; 정보 변환부
210; 셋업 조건부 220; 선택부
230; 출력부 300; 최적화 정보 생성부
400; 모션 캡쳐부 500; 에러 정보부
600; 션 추정부 700; 모션 제어부
800; 엑츄에이션부

Claims (10)

  1. 스마트 웨어를 제어하는 장치가 상기 스마트 웨어가 포함하는 센서를 이용하여 사용자의 모션을 캡쳐하는 단계;
    학습 및 재활의 최종 목표 모델에 해당하는 표준 모션 정보를 선택하는 단계;
    상기 표준 모션 정보를 상기 스마트 웨어에 대응하게 변환하는 단계;
    변환된 표준 모션 정보에 사용자 정보를 적용하여 기준 모션 정보를 생성하는 단계;
    기준 모션 정보와 상기 사용자의 모션을 캡쳐한 결과를 이용하여 사용자의 에러 정보를 생성하는 단계;
    상기 사용자의 에러 정보를 이용하여 사용자의 다음 모션을 추정하는 단계; 및
    추정한 사용자의 다음 모션과 상기 사용자의 에러 정보를 이용하여 상기 사용자의 스마트 웨어를 실시간으로 제어하는 단계
    를 포함하고,
    상기 스마트 웨어를 실시간으로 제어하는 단계는
    추정한 사용자의 다음 모션과 상기 사용자의 에러 정보를 이용하여, 사용자 모션의 에러를 실시간으로 제어할 수 있는 모션 제어 신호를 생성하는 단계; 및
    상기 모션 제어 신호를 이용하여 사용자 모션의 에러를 실시간으로 피드백하여 상기 스마트 웨어를 제어하는 단계
    를 포함하고,
    상기 스마트 웨어를 제어하는 단계는
    상기 모션 제어 신호에 기반하여 상기 스마트 웨어에 부착된 적어도 하나 이상의 액츄에이터를 제어하여, 상기 엑츄에이터가 부착된 신체 부위의 기정의된 지각 및 감각 인지 정도에 따라 상기 엑츄에이터를 모션 주파수, 강도 및 길이 주기 중 적어도 하나 이상을 단계 별로 제어하여 상기 스마트 웨어를 착용 중인 사용자의 모션을 제어하는 것을 특징으로 하는 스마트 웨어 제어 방법.
  2. 삭제
  3. 청구항 1에 있어서,
    상기 사용자 정보는 사용자의 성별, 연령, 키와 같은 신체 정보와 상기 표준 모션 정보에 대응하는 숙련도 정보를 포함하는 것을 특징으로 하는 스마트 웨어 제어 방법.
  4. 삭제
  5. 청구항 1에 있어서,
    상기 스마트 웨어를 실시간으로 제어하는 단계는
    상기 모션 제어 신호를 이용하여 상기 스마트 웨어 내 부착되어 있는 적어도 하나의 액츄에이터를 제어하는 것을 특징으로 하는 스마트 웨어 제어 방법.
  6. 스마트 웨어가 포함하는 센서를 이용하여 사용자의 모션을 캡쳐하는 모션 캡쳐부;
    기준 모션 정보와 상기 사용자의 모션을 캡쳐한 결과를 이용하여 사용자의 에러 정보를 생성하는 에러 정보부;
    학습 및 재활의 최종 목표 모델에 해당하는 표준 모션 정보를 선택하는 표준 정보부;
    상기 표준 모션 정보를 상기 스마트 웨어에 대응하게 변환하는 정보 변환부;
    변환된 표준 모션 정보에 사용자 정보를 적용하여 상기 기준 모션 정보를 생성하는 최적화 정보 생성부;
    상기 사용자의 에러 정보를 이용하여 사용자의 다음 모션을 추정하는 모션 추정부;
    상기 모션 추정부에서 추정한 사용자의 다음 모션과 상기 에러 정보부가 포함하는 사용자의 에러 정보를 이용하여 사용자 모션의 에러를 실시간으로 제어할 수 있는 모션 제어 신호를 생성하는 모션 제어부; 및
    추정한 사용자의 다음 모션과 상기 사용자의 에러 정보를 이용하여 상기 사용자의 스마트 웨어를 실시간으로 제어하는 엑츄에이션부
    를 포함하고,
    상기 엑츄에이션부는
    상기 모션 제어 신호를 이용하여 사용자 모션의 에러를 실시간으로 피드백하여 상기 스마트 웨어를 제어하고,
    상기 모션 제어 신호에 기반하여 상기 스마트 웨어에 부착된 적어도 하나 이상의 액츄에이터를 제어하여, 상기 엑츄에이터가 부착된 신체 부위의 기정의된 지각 및 감각 인지 정도에 따라 상기 엑츄에이터를 모션 주파수, 강도 및 길이 주기 중 적어도 하나 이상을 단계 별로 제어하여 상기 스마트 웨어를 착용 중인 사용자의 모션을 제어하는 것을 특징으로 하는 스마트 웨어 제어 장치.
  7. 삭제
  8. 청구항 6에 있어서,
    상기 정보 변환부는
    상기 스마트 웨어 내 센서 및 엑츄에이터의 위치와 개수를 포함하는 셋업 조건을 정의하는 셋업 조건부;
    상기 표준 모션 정보에 추가할 추가 정보를 선택하는 선택부; 및
    상기 선택부에서 선택한 추가 정보를 상기 표준 모션 정보에 추가하여 출력하거나, 추가없이 표준 모션 정보 그대로 출력하는 출력부
    를 포함하는 것을 특징으로 하는 스마트 웨어 제어 장치.
  9. 청구항 8에 있어서,
    상기 추가 정보는
    상기 최종 목표 모델에 해당하는 관절각, 센서 좌표값, 각속도 값, 샘플링 주기 중 적어도 하나를 포함하는 것을 특징으로 하는 스마트 웨어 제어 장치.
  10. 청구항 8에 있어서,
    상기 센서는
    광학식 센서, 가속 센서, 자이로 센서, 지자기 센서, 압력 센서 중 적어도 하나에 해당하는 것을 특징으로 하는 스마트 웨어 제어 장치.
KR1020130036485A 2013-04-03 2013-04-03 스마트 웨어 제어 장치 및 그 방법 KR102051946B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130036485A KR102051946B1 (ko) 2013-04-03 2013-04-03 스마트 웨어 제어 장치 및 그 방법
US14/162,294 US9987187B2 (en) 2013-04-03 2014-01-23 Apparatus and method for controlling smart wear

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130036485A KR102051946B1 (ko) 2013-04-03 2013-04-03 스마트 웨어 제어 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20140120996A KR20140120996A (ko) 2014-10-15
KR102051946B1 true KR102051946B1 (ko) 2020-01-09

Family

ID=51654942

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130036485A KR102051946B1 (ko) 2013-04-03 2013-04-03 스마트 웨어 제어 장치 및 그 방법

Country Status (2)

Country Link
US (1) US9987187B2 (ko)
KR (1) KR102051946B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022191435A1 (ko) * 2021-03-09 2022-09-15 삼성전자 주식회사 사용자의 동작을 보조하기 위한 전자 장치 및 시스템

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3030218B1 (fr) 2014-12-18 2016-12-09 Univ Joseph Fourier - Grenoble 1 Systeme et procede de controle du mouvement d'un segment corporel d'un individu
GB2546721B (en) 2015-11-05 2020-08-05 Nurvv Ltd A structure to absorb, dissipate and measure a force
GB2544082A (en) 2015-11-05 2017-05-10 Impact Tech Labs Ltd A wearable garment
US20170296423A1 (en) * 2016-04-19 2017-10-19 Timothy Smith Piezoelectric pressure cuff
US20200008734A1 (en) * 2018-05-07 2020-01-09 Rajneesh Bhandari Method and system for navigating a user for correcting a vestibular condition
IT202000016267A1 (it) 2020-07-16 2022-01-16 Anna Donzella Aaswe – anti-assault smart wearable equipment un sistema online basato su indumenti intelligenti per allertare le autorità in caso di aggressione
KR102652859B1 (ko) * 2021-12-31 2024-04-01 국립공주대학교 산학협력단 반응형 햅틱 피드백 시스템 및 이를 이용한 자세교정, 재활 및 운동치료 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073852A (ja) * 2010-09-29 2012-04-12 Kddi Corp 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
JP2012208548A (ja) * 2011-03-29 2012-10-25 Copcom Co Ltd プログラム、および、当該プログラムを記録したプログラム記録部を備えている画像処理装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5662693A (en) * 1995-06-05 1997-09-02 The United States Of America As Represented By The Secretary Of The Air Force Mobility assist for the paralyzed, amputeed and spastic person
US5919149A (en) * 1996-03-19 1999-07-06 Allum; John H. Method and apparatus for angular position and velocity based determination of body sway for the diagnosis and rehabilitation of balance and gait disorders
US6111577A (en) 1996-04-04 2000-08-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US6113395A (en) 1998-08-18 2000-09-05 Hon; David C. Selectable instruments with homing devices for haptic virtual reality medical simulation
US7918808B2 (en) * 2000-09-20 2011-04-05 Simmons John C Assistive clothing
US20070100666A1 (en) * 2002-08-22 2007-05-03 Stivoric John M Devices and systems for contextual and physiological-based detection, monitoring, reporting, entertainment, and control of other devices
WO2006014810A2 (en) * 2004-07-29 2006-02-09 Kevin Ferguson A human movement measurement system
US20070123997A1 (en) * 2005-03-31 2007-05-31 Massachusetts Institute Of Technology Exoskeletons for running and walking
US10080672B2 (en) * 2005-03-31 2018-09-25 Bionx Medical Technologies, Inc. Hybrid terrain-adaptive lower-extremity systems
US7190141B1 (en) * 2006-01-27 2007-03-13 Villanova University Exoskeletal device for rehabilitation
US20080009771A1 (en) * 2006-03-29 2008-01-10 Joel Perry Exoskeleton
KR101087135B1 (ko) 2008-04-03 2011-11-25 한국전자통신연구원 모션 콘텐츠 기반의 학습 장치 및 방법
JP2011516915A (ja) 2008-04-03 2011-05-26 韓國電子通信研究院 モーションコンテンツベースの学習装置及び方法
EP2349120B1 (en) * 2008-09-04 2017-03-22 Iwalk, Inc. Hybrid terrain-adaptive lower-extremity systems
CN102149318B (zh) * 2008-09-10 2013-03-06 国立大学法人筑波大学 生物体信号测量穿戴用具和穿戴式动作辅助装置
CA2839182C (en) * 2010-07-07 2018-11-27 Simon Fraser University Methods and systems for control of human locomotion
WO2012175211A1 (en) * 2011-06-21 2012-12-27 Sabanci University Exoskeleton
JP5982767B2 (ja) * 2011-09-26 2016-08-31 ソニー株式会社 運動補助装置及び運動補助方法、コンピューター・プログラム、並びにプログラム記録媒体
US9588582B2 (en) * 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
KR101511427B1 (ko) * 2012-08-30 2015-04-10 서울대학교산학협력단 편마비 치료 장치
US20170203432A1 (en) * 2016-01-16 2017-07-20 Konstantinos Andrianesis Actuation apparatus for wearable devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012073852A (ja) * 2010-09-29 2012-04-12 Kddi Corp 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
JP2012208548A (ja) * 2011-03-29 2012-10-25 Copcom Co Ltd プログラム、および、当該プログラムを記録したプログラム記録部を備えている画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022191435A1 (ko) * 2021-03-09 2022-09-15 삼성전자 주식회사 사용자의 동작을 보조하기 위한 전자 장치 및 시스템

Also Published As

Publication number Publication date
US9987187B2 (en) 2018-06-05
US20140303529A1 (en) 2014-10-09
KR20140120996A (ko) 2014-10-15

Similar Documents

Publication Publication Date Title
KR102051946B1 (ko) 스마트 웨어 제어 장치 및 그 방법
US20190126484A1 (en) Dynamic Multi-Sensor and Multi-Robot Interface System
KR101548156B1 (ko) 촉감과 관절 저항감을 동시에 전달하는 무선 외골격 햅틱 인터페이스 장치 및 그 구성 방법
KR101694402B1 (ko) 투사 영상을 이용한 보행 재활 치료 보조 시스템 및 방법
JP6124308B2 (ja) 動作評価装置及びそのプログラム
US20130222565A1 (en) System and Method for Sensor Fusion of Single Range Camera Data and Inertial Measurement for Motion Capture
CN108564643B (zh) 基于ue引擎的表演捕捉系统
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
JP2022546644A (ja) 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法
CN103019386A (zh) 一种人机互动的控制方法及其运用
KR102436906B1 (ko) 대상자의 보행 패턴을 식별하는 방법 및 이를 수행하는 전자 장치
Ben Abdallah et al. Kinect-based sliding mode control for Lynxmotion robotic arm
Campbell et al. Learning whole-body human-robot haptic interaction in social contexts
JP7122090B2 (ja) 熟練動作教示システム
Saegusa et al. Body definition based on visuomotor correlation
Ikemoto et al. Analysis of physical human–robot interaction for motor learning with physical help
KR20210056491A (ko) 가상현실 상에서의 시각변조를 이용한 사용자 공간지각능력 및 적응능력 평가 방법 및 시스템
Grzejszczak et al. Selection of Methods for Intuitive, Haptic Control of the Underwater Vehicle’s Manipulator
WO2023209818A1 (ja) 操作装置、情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム
Thaker Human Motion Imitation Robot
Daphalapurkar Development of Kinect TR applications for assembly simulation and ergonomic analysis
Kim et al. Foot-pedal: Haptic feedback human interface bridging sensational gap between remote places
West Jr Towards a non-invasive measurement of human motion, force, and impedance during a complex physical-interaction task: wire-harnessing
Campbell Probabilistic Imitation Learning for Spatiotemporal Human-Robot Interaction
Wagh et al. Quantifying similarities between MediaPipe and a known standard for tracking 2D hand trajectories

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant