KR102606961B1 - 재활운동로봇의 자세 모니터링 방법 - Google Patents

재활운동로봇의 자세 모니터링 방법 Download PDF

Info

Publication number
KR102606961B1
KR102606961B1 KR1020210163140A KR20210163140A KR102606961B1 KR 102606961 B1 KR102606961 B1 KR 102606961B1 KR 1020210163140 A KR1020210163140 A KR 1020210163140A KR 20210163140 A KR20210163140 A KR 20210163140A KR 102606961 B1 KR102606961 B1 KR 102606961B1
Authority
KR
South Korea
Prior art keywords
robot
posture
elbow joint
rehabilitation
detecting
Prior art date
Application number
KR1020210163140A
Other languages
English (en)
Other versions
KR20230076993A (ko
Inventor
구익모
김종현
황예지
Original Assignee
에이치로보틱스 주식회사
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이치로보틱스 주식회사, 성균관대학교산학협력단 filed Critical 에이치로보틱스 주식회사
Priority to KR1020210163140A priority Critical patent/KR102606961B1/ko
Priority to PCT/KR2021/019691 priority patent/WO2023096016A1/ko
Publication of KR20230076993A publication Critical patent/KR20230076993A/ko
Application granted granted Critical
Publication of KR102606961B1 publication Critical patent/KR102606961B1/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus ; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0274Stretching or bending or torsioning apparatus for exercising for the upper limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus ; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus ; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0274Stretching or bending or torsioning apparatus for exercising for the upper limbs
    • A61H1/0277Elbow
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1635Hand or arm, e.g. handle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/1635Hand or arm, e.g. handle
    • A61H2201/1638Holding means therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5064Position sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5069Angle sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5079Velocity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user
    • A61H2230/70Body fat
    • A61H2230/705Body fat used as a control parameter for the apparatus

Abstract

본 발명은 재활 대상자가 로봇 말단을 움직여 재활운동을 수행하는 재활운동로봇의 자세 모니터링 방법에 관한 것으로, (a) 상기 재활 대상자의 자세가 촬영된 자세 영상이 수신되는 단계와, (b) 상기 자세 영상에 기초하여, 상기 재활 대상자의 보상 움직임 여부가 검출되는 단계를 포함하며; 상기 (b) 단계는 (b1) 상기 로봇 말단에 대한 로봇 말단 위치와, 로봇 말단 속도가 검출되는 단계와, (b2) 상기 로봇 말단 속도에 기초하여, 상기 재활 대상자의 팔꿈치 관절에 대한 팔꿈치 관절 각속도가 예측되는 단계와, (b3) 상기 팔꿈치 관절 각속도에 기초하여, 재추정 구간 여부가 판단되는 단계와, (b4) 상기 (b3) 단계에서 상기 재추정 구간이 아닌 것으로 판단된 경우, 현재 스텝의 자세 영상으로부터 검출된 제1 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여 상기 보상 움직임 여부가 검출되는 단계와, (b5) 상기 (b3) 단계에서 상기 재추정 구간으로 판단된 경우, 이전 스텝의 자세 영상이 현재 스텝의 자세 영상에 반영되어 검출된 제2 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여 상기 보상 움직임 여부가 검출되는 단계를 포함하는 것을 특징으로 한다.

Description

재활운동로봇의 자세 모니터링 방법{POSTURE MONITERING METHOD OF REHABILITATION EXERCISE SYSTEM}
본 발명은 재활운동로봇의 자세 모니터링 방법에 관한 것으로서, 보다 상세하게는, 재활 대상자가 로봇 말단을 움직여 재활운동을 수행하는 재활운동로봇에서 재활 대상자의 자세를 보다 정확하게 모니터링할 수 있는 재활운동로봇의 자세 모니터링 방법에 관한 것이다.
상지의 운동기능이 저하된 환자들은 상지 운동을 위하여 재활운동로봇으로 훈련을 받게 된다. 상지 운동을 위한 재활운동로봇 중 환자가 로봇 말단의 핸들을 잡고 움직이는 형태로 구성된, 예를 들어 말단장치 타입의 재활운동로봇이 임상에서 널리 사용되고 있다. 이와 같은 말단장치 타입의 재활운동로봇은 입는 타입의 재활운동로봇인 외골격 타입보다 부피가 작고 착용도 쉬워 임상 친화적인 특징을 갖는다.
하지만 말단장치 타입의 재활운동로봇은, 도 1에 도시된 바와 같이, 사용자와의 접촉 면적이 핸들로 국한되어 좁기 때문에 사용자의 자세를 알기 어려운 단점이 있다. 따라서 말단장치 타입의 재활운동로봇을 이용하여 재활 운동을 할때에는 재활 대상자가 바람직한 자세로 훈련을 받고 있는지 확인해 줄 의료 인력이 필요하다.
특히 환자의 경우 근력 약화로 인해 특정 움직임을 만들어내지 못할 때, 다른 근육의 힘 또는 다른 관절의 움직임을 사용하여 재활 운동을 수행하게 된다. 예를 들어, 팔을 뻗어야 하는 동작에서 팔을 뻗지 못하는 경우, 몸통을 앞으로 기울여서 앞 방향으로 손을 움직이게 된다. 이를 보상 움직임 또는 보상 운동(이하, '보상 움직임'이라 함)이라고 하며, 보상 움직임을 사용하지 않고 목표하는 동작의 훈련을 수행할 수 있도록 확인해 줄 의료 인력이 필요하다.
상기와 같은 문제를 해결하기 위해, 상완(upper arm)에 관성 센서(IMU; Inertia measurement unit)를 붙여서 재활 대상자의 팔 관절 각도를 알아내기 위한 연구가 있었다. 하지만 몸에 부착하는 방식이기 때문에 초기 세팅에 시간이 더 걸릴 수 있으며, 센서를 관절 방향과 맞지 않게 부착할수록 정확도가 낮아지는 단점이 있다. 또한 팔 관절 이외에 다른 부위의 자세를 알고 싶다면 더 많은 센서를 몸에 부착해야 한다는 단점이 있다.
다른 방법으로, 카메라를 사용하여 몸통의 보상 움직임을 분류한 연구가 있다. 이 연구는 재활 대상자의 몸통 보상 움직임 위주의 분류를 하였으며, 팔 관절의 각도 등은 알아낼 수 없다. 보상 움직임의 여부는 알 수 있으나, 보상 움직임의 정도나 관절각도 등은 알아낼 수 없는 단점이 있다. 또한, 머신러닝 기법을 이용하였기 때문에 훈련용 데이터가 필요하다는 단점이 있다.
또 다른 방법으로, 몸통의 보상 움직임을 의자에 있는 압력 센서로 알아낸 후에 실시간으로 재활 대상자에게 자세에 대한 피드백을 주는 연구도 있었다. 이러한 연구 또한 몸통의 보상 움직임에만 초점을 둔 연구였고, 머신러닝 기법을 이용하였기 때문에 훈련용 데이터가 필요하다는 단점이 있다.
국내등록특허공보 제10-1471805호 국내등록특허공보 제10-1163903호
본 발명은 상기와 같은 점을 감안하여 안출된 것으로서, 본 발명의 목적은 머신러닝 기법을 사용하지 않아 훈련용 데이터가 필요하지 않고, 재활 대상자의 몸에 추가로 부착하는 센서가 없으며, 재활 대상자의 팔과 몸통의 자세를 모두 모니터링할 수 있는 재활운동로봇의 자세 모니터링 방법을 제공하는데 있다.
또한, 보상 움직임 여부를 판단하는데 있어, 보다 정확한 보상 움직임 여부와 정도를 측정할 수 있는 재활운동로봇의 자세 모니터링 방법을 제공하는데 있다.
본 발명의 목적은, 본 발명에 따라, 재활 대상자가 로봇 말단을 움직여 재활운동을 수행하는 재활운동로봇의 자세 모니터링 방법에 있어서, (a) 상기 재활 대상자의 자세가 촬영된 자세 영상이 수신되는 단계와, (b) 상기 자세 영상에 기초하여, 상기 재활 대상자의 보상 움직임 여부가 검출되는 단계를 포함하며; 상기 (b) 단계는 (b1) 상기 로봇 말단에 대한 로봇 말단 위치와, 로봇 말단 속도가 검출되는 단계와, (b2) 상기 로봇 말단 속도에 기초하여, 상기 재활 대상자의 팔꿈치 관절에 대한 팔꿈치 관절 각속도가 예측되는 단계와, (b3) 상기 팔꿈치 관절 각속도에 기초하여, 재추정 구간 여부가 판단되는 단계와, (b4) 상기 (b3) 단계에서 상기 재추정 구간이 아닌 것으로 판단된 경우, 현재 스텝의 자세 영상으로부터 검출된 제1 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여 상기 보상 움직임 여부가 검출되는 단계와, (b5) 상기 (b3) 단계에서 상기 재추정 구간으로 판단된 경우, 이전 스텝의 자세 영상이 현재 스텝의 자세 영상에 반영되어 검출된 제2 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여 상기 보상 움직임 여부가 검출되는 단계를 포함하는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법에 의해서 달성된다.
여기서, 상기 (b2) 단계에서는 상기 팔꿈치 관절 각속도가 상기 로봇 말단 속도와의 자코비언 관계식을 통해 예측될 수 있다.
그리고, 상기 자코비언 관계식은
Figure 112021135595544-pat00001
(
Figure 112021135595544-pat00002
는 상기 로봇 말단 속도이고,
Figure 112021135595544-pat00003
는 상기 팔꿈치 관절 각속도이고,
Figure 112021135595544-pat00004
는 자코비언 행렬로 상기 재활 대상자의 신체가 모델링되어 설정된다)로 정의될 수 있다.
또한, 상기 자코비언 행렬이 특이점(Singularity)에 기 설정된 기준만큼 근접하는 경우, 상기 (b3) 단계의 수행없이, 상기 (b4) 단계가 수행될 수 있다.
그리고, 상기 자코비언 행렬이 특이점(Singularity)에 상기 기준만큼 근접하는지 여부는 조작성 지수(Manipulability measure)가 기 설정된 기준만큼 0에 근접하는지 여부에 따라 판단될 수 있다.
그리고, 상기 (b3) 단계에서는 상기 팔꿈치 관절 각속도가 기 설정된 기준 각속도 이상인 경우, 상기 재추정 구간으로 판단될 수 있다.
그리고, 상기 (b4) 단계는 현재 스텝의 자세 영상으로부터 현재 팔꿈치 위치벡터와, 현재 어깨 위치벡터가 검출되는 단계와; 상기 현재 팔꿈치 위치벡터와, 상기 현재 어깨 위치벡터에 기초하여, 상기 제1 상완 방향벡터가 검출되는 단계와; 상기 제1 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여, 팔꿈치 관절 위치가 검출되는 단계와; 상기 팔꿈치 관절 위치에 기초하여, 팔꿈치 관절 각도가 검출되는 단계와; 상기 팔꿈치 관절 각도에 기초하여, 상기 보상 움직임 여부가 검출되는 단계를 포함할 수 있다.
그리고, 상기 (b5) 단계는 이전 스텝의 자세 영상으로부터 이전 팔꿈치 위치벡터가 검출되는 단계와; 현재 스텝의 자세 영상으로부터 현재 어깨 위치벡터가 검출되는 단계와; 상기 이전 팔꿈치 위치벡터와, 상기 현재 어깨 위치벡터에 기초하여, 상기 제1 상완 방향벡터가 검출되는 단계와; 상기 제1 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여, 팔꿈치 관절 위치가 검출되는 단계와; 상기 팔꿈치 관절 위치에 기초하여, 팔꿈치 관절 각도가 검출되는 단계와; 상기 팔꿈치 관절 각도에 기초하여, 상기 보상 움직임 여부가 검출되는 단계를 포함할 수 있다.
본 발명에 따르면, 머신러닝 기법을 사용하지 않아 훈련용 데이터가 필요하지 않고, 재활 대상자의 몸에 추가로 부착하는 센서가 없으며, 재활 대상자의 팔과 몸통의 자세를 모두 모니터링할 수 있는 재활운동로봇의 자세 모니터링 방법이 제공된다.
또한, 팔꿈치 관절의 속도가 높아 보상 움직임 여부의 판단에 오류가 발생할 수 있는 상황을 재추정 구간으로 분류하고, 재추정 구간 여부에 따라 다른 방법으로 보상 움직임 여부를 판단함으로써, 보다 정확한 보상 움직임 여부의 검출이 가능하게 된다.
도 1은 종래의 상지의 도달운동을 위한 재활운동로봇의 예를 나타낸 사진이고,
도 2는 본 발명의 실시예에 따른 재활운동로봇의 예를 나타낸 사시도이고,
도 3은 본 발명의 실시예에 따른 재활운동로봇의 제어 블록도이고,
도 4 내지 도 6은 본 발명의 실시예에 따른 재활운동로봇의 자세 모니터링 방법을 설명하기 위한 제어 흐름도이고,
도 7은 본 발명의 실시예에 따른 재활운동로봇의 자세 모니터링 방법에서 팔꿈치 관절 위치를 검출하는 원리를 설명하기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부 도면을 참조하여 본 발명에 대해 상세히 설명한다.
도 2는 본 발명의 실시예에 따른 재활운동로봇(100)의 사시도이다.
도 2를 참조하여 설명하면, 본 발명의 실시예에 따른 재활운동로봇(100)는 로봇 베이스(110), 로봇 본체(120), 링크 어셈블리(130), 손 안착부(140)을 포함할 수 있다. 또한, 본 발명의 실시예에 따른 재활운동로봇(100)은 테이블(150)를 더 포함하여 구성될 수 있다.
로봇 베이스(110)는 바닥에 안착된 상태에서 본 발명의 실시예에 따른 재활운동로봇(100) 전체를 지지한다. 도 2에서는 로봇 베이스(110)가 대략 직육면체 형상을 갖는 것을 예로 하고 있으나, 본 발명의 기술적 사상이 이에 국한되지 않음은 물론이다.
로봇 본체(120)는 로봇 베이스(110)의 상부에 설치된다. 여기서, 본 발명의 실시예에 따른 로봇 본체(120)는 로봇 베이스(110)에 상하 방향으로 승강 이동 가능하게 설치되는 것을 예로 하는데, 이를 통해 손 안착부(140)의 높이 조절이 가능하게 된다.
여기서, 로봇 본체(120)는 사용자가 직접 수동으로 승강 이동시키도록 구성될 수 있고, 다른 예로, 모터 등과 같은 모터의 정역 회전이 로봇 본체(120)의 상하 방향으로의 직선 운동으로 전환되도록 구성하는 승강 구동부가 마련될 수도 있다.
본 발명의 실시예에 따른 링크 어셈블리(130)는 로봇 본체(120)로부터 전방을 향해 돌출된다. 여기서, 링크 어셈블리(130)는 적어도 2 자유도로 움직이는 메커니즘으로 구동 가능하게 마련되는 것을 예로 한다. 예컨대, 링크 어셈블리(130)는 수평 방향으로 2 자유도로 움직일 수 있도록 구성될 수 있다. 이를 위해, 링크 어셈블리(130)는 2 이상의 링크로 구성된 링크 구조로 구성될 수 있다.
여기서, 로봇 본체(120)와 로봇 베이스(110) 사이 정도의 높이에 테이블(150)이 설치될 수 있으며, 링크 어셈블리(130)은 테이블(150)의 상부에 위치할 수 있다.
본 발명의 실시예에 따른 손 안착부(140)는 링크 어셈블리(130)의 말단에 결합되어, 본 발명의 실시예에 따른 재활운동로봇(100)의 로봇 말단을 형성하게 된다. 재활 대상자는 손 안착부(140)에 손을 안착시킨 후 재활운동을 진행하게 된다. 여기서, 손 안착부(140)에는 파지 봉이 형성되어 재활 대상자가 파지 봉을 잡고 2 자유도로 움직임을 수행할 수 있으며, 고정 밴드에 의해 손이 고정된 상태로 움직임을 수행할 수도 있다.
상기와 같은 재활운동로봇(100)의 구성은 하나의 실시예에 불과하며, 본 발명의 기술적 사상이 도 2 및 상술한 재활운동로봇(100)의 구성에 한정되어 해석되어서는 아니 된다. 즉, 다양한 구성의 말단장치 타입의 재활운동로봇(100)에 대해서도 후술할 본 발명의 실시예에 따른 재활운동로봇(100)의 자세 모니터링 방법이 적용될 수 있다.
도 3은 본 발명의 실시예에 따른 재활운동로봇(100)의 제어 블록도이다.
도 3을 참조하여 설명하면, 본 발명의 실시예에 따른 재활운동로봇(100)은 로봇 말단 위치 검출부(161), 비접촉 자세 감지부(162), 재추정 구간 검출부(163), 관절 각도 검출부(164), 영상 디스플레이부(165), 재활 구동부(166), 및 제인 제어부를 포함할 수 있다. 또한, 본 발명의 실시예에 따른 재활운동로봇(100)은 사용자 입력부(168)를 더 포함하여 구성될 수 있다.
본 발명의 실시예에 따른 재활 구동부(166)는 링크 어셈블리(130)를 통해 운동 부하를 제공함으로써, 재활 대상자의 재활운동을 보조하게 된다. 예를 들어, 재활 구동부(166)는 한 쌍의 모터로 구성되어 한 쌍의 모터의 회전에 따라 부하가 공급되는 것을 예로 한다.
본 발명의 실시예에 따른 로봇 말단 위치 검출부(161)는 재활 대상자가 손 안착부(140)를 파지한 상태에서, 재활 대상자가 재활운동을 수행할 때, 손 안착부(140)의 위치를 감지한다. 여기서, 손 안착부(140)의 위치는 본 발명의 실시예에 따른 재활운동로봇(100)의 로봇 말단 위치가 된다.
본 발명의 실시예에서는 재활 구동부(166)를 구성하는 각각의 모터의 회전량을 감지하는 휠 엔코더의 감지 결과에 기초하여 손 안착부(140)의 위치, 즉 로봇 말단 위치가 검출되는 것을 예로 하는데, 손 안착부(140)의 위치 검출이 가능한 다양한 센서가 적용될 수 있음은 물론이다.
비접촉 자세 감지부(162)는 비접촉 방식으로 재활 대상자의 자세를 감지한다. 본 발명의 실시예에서는 깊이 정보까지 촬영이 가능한 3D 카메라가 비접촉 자세 감지부(162)로 적용되는 것을 예로 한다. 이하에는, 비접촉 자세 감지부(162)에 의해 촬영된 영상을 자세 영상으로 정의하여 설명한다.
재추정 구간 검출부(163)는 팔꿈치 관절 각속도에 기초하여, 재추정 구간 여부를 판단한다. 본 발명의 실시예에서는 팔꿈치 관절 각속도가, 손 안착부(140)의 움직임 속도, 즉 로봇 말단 속도에 기초하여 예측되는 것을 예로 하는데, 이에 대한 상세한 설명은 후술한다.
본 발명의 실시예에 따른 관절 각도 검출부(164)는 비접촉 자세 감지부(162)에 의해 촬용된 자세 영상으로부터 상완 방향벡터를 검출하고, 상완 방향벡터와 로봇 말단 위치를 이용하여, 팔꿈치 관절 각도를 검출하는데, 이에 대한 상세한 설명은 후술한다.
본 발명의 실시예에 따른 메인 제어부(167)는 본 발명의 실시예에 따른 재활운동로봇(100)의 전체 기능을 제어하며, CPU, 메모리, 그래픽 카드와 같은 하드웨어적 구성과, 운영체계(Operating system), 각종 프로그램과 같은 소프트웨어적 구성을 포함하여 구성될 수 있다.
여기서, 메인 제어부(167)는 재활 대상자의 재활 훈련 과정에서 재활 훈련과 관련된 다양한 정보를 영상 디스플레이부(165)를 통해 제공할 수 있으며, 사용자 입력부(168)를 통해 입력되는 입력 정보를 처리할 수 있다.
또한, 본 발명의 실시예에 따른 메인 제어부(167)는 관절 각도 검출부(164)에 의해 검출된 팔꿈치 관절 각도에 기초하여 보상 움직임 여부를 검출한다. 그리고, 메인 제어부(167)는 보상 움직임으로 판단되는 경우, 이에 대한 조치를 수행할 수 있다.
일 예로, 메인 제어부(167)는 영상 디스플레이부(165)를 통해, 자세 교정 안내를 위한 영상을 표시할 수 있고, 도시되지 않은 스피커를 통해 자세 교정 안내를 위한 음성을 출력할 수 있다.
또한, 메인 제어부(167)는 상기와 같은 자세 교정 안내에도 불구하고, 자세 교정이 이루어지지 않는 경우, 즉, 지속적으로 보상 움직임이 검출되는 경우에는 별도의 교정 조치를 취할 수 있다. 예를 들어, 재활 운동을 멈추거나, 재활 운동을 초기 위치로부터 다시 시작할 수 있다.
이하에서는, 도 4 내지 도 6을 참조하여 본 발명의 실시예에 따른 재활운동로봇(100)의 자세 모니터링 방법에 대해 상세히 설명한다.
본 발명의 실시에에 따른 자세 모니터링 방법은 재활 대상자의 자세가 촬영된 자세 영상을 수신하고, 자세 영상에 기초하여, 재활 대상자의 움직임 보상 여부를 검출하게 된다.
도 4를 참조하여 보다 구체적으로 설명하면, 재활운동이 시작되면(S10), 재활운동 과정에서, 재활 대상자에 대한 자세 영상이 촬영되면서, 실시간으로 재활 대상자의 보상 움직임 여부가 검출된다(S20).
그리고, 보상 움직임이 발생한 것으로 검출되면(S30), 보상 움직임이 기 설정된 기준값 이상인지 여부를 판단한다(S40). 여기서, 본 발명의 실시예에서는 보상 움직임이 재활 대상자의 팔꿈지 관절 각도로 검출되는 것을 예로 하는데, 팔꿈치 관절 각도가 기 설정된 기준값 이상인 경우, 보상 움직임으로 판단할 수 있다. 이 때, 기준값은 재활 대상자의 상태에 따라 의사 등이 설정하여 등록될 수 있으며, 현재의 손의 위치, 즉, 로봇 말단 위치 검출부(161)에 의해 검출된 로봇 말단 위치에 따라 변하도록 구성될 수 있다.
S40 단계에서 보상 움직임이 기준값 이상으로 판단되면, 메인 제어부(167)는 앞서 설명한 바와 같이, 자세 교정 안내를 영상 디스플레이부(165)나 스피커를 통해 출력할 수 있으며, 자세 교정 안내 이후에 자세가 교정되었는지 여부를 판단하여(S60), 이후의 교정 조치를 수행할 수 있다(S70). 여기서, 재활 대상자의 자세가 교정되었는지 여부는 보상 움직임 여부의 검출 과정과 동일하다.
상기와 같은 과정을 재활운동이 종료(S80)될 때까지 수행될 수 있다.
도 5 및 도 6은 도 4의 S20 단계인 보상 움직임 여부를 검출하는 과정의 예를 나타낸 도면이다.
도 5 및 도 6을 참조하여 설명하면, 먼저, 로봇 말단에 대한 로봇 말단 위치가 검출되고(S212), 로봇 말단에 대한 로봇 말단 속도가 산출 또는 검출된다(S213), 여기서, 로봇 말단 속도는 로봇 말단 위치에 기반하여 산출되거나, 별도의 속도 검출 과정을 통해 검출될 수 있다.
그런 다음, 로봇 말단 속도에 기초하여, 재활 대상자의 팔꿈치 관절에 대한 팔꿈치 관절 각속도가 예측된다(S214). 본 발명의 실시예에서는 팔꿈치 관절 각속도가 로봇 말단 속도와의 자코비언 관계식을 통해 예측되는 것을 예로 한다.
여기서, 자코비언 관계식은 [수학식 1]과 같이 정의될 수 있다.
[수학식 1]
Figure 112021135595544-pat00005
[수학식 1]에서,
Figure 112021135595544-pat00006
는 로봇 말단 속도이고,
Figure 112021135595544-pat00007
는 팔꿈치 관절 각속도이다. 그리고,
Figure 112021135595544-pat00008
는 자코비언 행렬로 재활 대상자의 신체가 모델링되어 설정되는데, 자코비언 행렬이 각도에 따른 함수로 설정이 되고, 도5에 도시된 바와 같이, 재활 대상자에 따라 함수로 설정이 된다(S211).
본 발명의 실시예에서는 자코비언 행렬이 특이점(Singularity)에 기 설정된 기준만큼 근접하는 경우, 팔꿈치 관절 각속도 예측 과정이나 후술할 재추정 구간 여부의 판단없이, 팔꿈치 관절 위치와 팔꿈치 관절 각도가 산출(S216,S217)되는 것을 예로 한다. 이는 자코비언 행렬의 특성상 특이점에 가까워지면, 예측되는 팔꿈치 관절 각속도가 발산하기 때문에, 이를 배제하기 위함이다.
본 발명이 실시예에서는 자코비언 행렬이 특이점(Singularity)에 기준만큼 근접하는지 여부는 조작성 지수(Manipulability measure)가 기 설정된 기준만큼 0에 근접하는지 여부에 따라 판단하는 것을 예로 한다.
한편, 상기와 같이 팔꿈치 관절 각속도가 예측되면, 예측된 팔꿈치 관절 각속도에 기초하여, 재추정 구간 여부가 판단된다(S215). 본 발명의 실시예에서는 팔꿈치 관절 위치를 산출하는 과정(S216, S232)에서, 로봇 말단 위치와 상완 방향벡터가 사용되는 것을 예로 하는데, 영상의 상완 방향벡터는 팔꿈치 관절 각속도가 빠를수록 검출 정확도가 떨어지는 바, 팔꿈치 관절 각속도에 따라 재추정 여부를 결정하게 된다. 예컨대, 팔꿈치 관절 각속도가 기 설정된 기준 각속도 이상인 경우를 재추정 구간으로 판단할 수 있다.
즉, 본 발명의 실시예에서는 팔꿈치 관절 각속도를 기준으로 하여, 재추정 구간일 때와, 재추정 구간이 아닐 때 팔꿈치 관절 위치를 산출하는 방법을 달리하여 정확도를 향상시킨다.
먼저, S215 단계에서 재추정 구간이 아닌 것으로 판단된 경우, 로봇 말단 위치와 제1 상완 방향벡터를 이용하여 팔꿈치 관절 위치가 산출된다(S216).
본 발명의 실시예에 따른 제1 상완 방향벡터는 비접촉 자세 감지부(162)에 의해 촬영된 자세 영상의 영상 분석(S221)을 통해 검출되는 것을 예로 한다(S222). 보다 구체적으로 설명하면, 영상 분석을 통해, 팔꿈치 위치벡터와 어깨 위치벡터가 검출되고, 팔꿈치 위치벡터와 어깨 위치벡터를 이용하여 제1 상완 방향벡터가 검출이 될 수 있다.
본 발명의 실시예에서는 재추정 구간이 아닌 경우, 현재 스텝의 자세 영상으로부터 검출된 현재 팔꿈치 위치벡터와 현재 어깨 위치벡터가 제1 상완 방향벡터의 검출에 적용되는 것을 예로 한다.
반면, S215 단계에서 재추정 구간인 것으로 판단된 경우, 상완 방향벡터의 검출 과정(S231)에, 이전 스텝의 자세 영상으로부터 검출되었던 이전 팔꿈치 위치벡터와, 현재 스텝의 자세 영상으로부터 검출된 현재 어깨 위치벡터가 제2 상완 방향벡터의 검출에 적용된다.
그리고, 재추정 구간에서는 제2 상완 방향벡터와 현재의 로봇 말단 위치 정보에 기초하여, 팔꿈치 관절 위치가 검출된다(S232).
상기와 같이, 재추정 구간에서는 팔꿈치 관절의 각속도가 높아, 영상 분석을 통한 팔꿈치 관절에 대한 팔꿈치 위치벡터의 검출의 정확도가 낮아질 수 있는 바, 제2 상완 방향벡터의 검출에, 이전 스텝에서 검출된 이전 팔꿈치 위치벡터를 적용함으로써, 정확도가 낮아질 수 있는 문제점을 보완하게 된다.
상기와 같은 방법으로, 재추정 구간이 아닌 구간 또는 재추정 구간에서 제1 상완 방향벡터 또는 제2 상완 방향벡터가 검출되면(S222,S231), 각각의 구간에서 제1 상완 방향벡터 또는 제2 상완 방향벡터를 이용하여, 팔꿈치 관절 위치가 산출되고(S216,S232), 팔꿈치 관절 위치에 기초하여 팔꿈치 관절 각도가 산출된다(S217,S233).
그런 다음, 팔꿈치 관절 각도가 앞서 설명한 바와 같이, 보상 움직임에 해당하는 기준값이상인 경우(S40), 자세 교정 안내(S50)이나 교정 조치(S70)가 이루어진다.
도 7은 본 발명의 실시예에 따른 재활운동로봇(100)의 자세 모니터링 방법에서, 제1 상완 방향벡터 또는 제2 상완 방향벡터를 이용하여 팔꿈치 관절 위치를 검출하는 원리를 설명하기 위한 도면이다.
도 7의 (a)에서, W, S, E*는 각각 위치벡터로, 손목 위치벡터, 어깨 위치벡터 및 팔꿈치 위치벡터를 나타내고 있다. 그리고, SE*는 앞서 설명한 제1 상완 방향벡터 또는 제2 상완 방향벡터로, 도 7에 도시된 팔꿈치 관절 위치를 산출하는 과정에서 입력값으로 입력되고, 최종적인 팔꿈치 관절 위치로 SE가 출력된다. 여기서, 손목 위치벡터는 앞서 설명한 로봇 말단 위치에 의해 결정되며, 어깨 위치벡터는 영상 분석을 통해 획득될 수 있다. 그리고, 재활 대상자의 팔뚝 길이와 상완 길이는 해당 재활 대상자에 대해 미리 등록된다.
도 6에 도시된 원리를 이용한 팔꿈치 관절 위치의 산출은 논문 "A Novel End-effector Robot System Enabling to Monitor Upper-extremity Posture during Robot-aided Planar Reaching Movements (IEEE ROBOTICS AND AUTOMATION LETTERS. PREPRINT VERSION. ACCEPTED FEBRUARY, 2020)"에 기재되어 있는 바, 그 상세한 설명은 생략한다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100 : 재활운동로봇 110 : 로봇 베이스
120 : 로봇 본체 130 : 링크 어셈블리
140 : 손 안착부 150 : 테이블
161 : 로봇 말단위치 검출부 162 : 비접촉 자세 감지부
163 : 재추정 구간 검출부 164 : 관절 각도 검출부
165 : 영상 디스플레이부 166 : 재활 구동부
167 : 메인 제어부 168 : 사용자 입력부

Claims (8)

  1. 재활 대상자가 로봇 말단을 움직여 재활운동을 수행하는 재활운동로봇의 자세 모니터링 방법에 있어서,
    (a) 상기 재활 대상자의 자세가 촬영된 자세 영상이 수신되는 단계와,
    (b) 상기 자세 영상에 기초하여, 상기 재활 대상자의 보상 움직임 여부가 검출되는 단계를 포함하며;
    상기 (b) 단계는
    (b1) 상기 로봇 말단에 대한 로봇 말단 위치와, 로봇 말단 속도가 검출되는 단계와,
    (b2) 상기 로봇 말단 속도에 기초하여, 상기 재활 대상자의 팔꿈치 관절에 대한 팔꿈치 관절 각속도가 예측되는 단계와,
    (b3) 상기 팔꿈치 관절 각속도에 기초하여, 재추정 구간 여부가 판단되는 단계와,
    (b4) 상기 (b3) 단계에서 상기 재추정 구간이 아닌 것으로 판단된 경우, 현재 스텝의 자세 영상으로부터 검출된 제1 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여 상기 보상 움직임 여부가 검출되는 단계와,
    (b5) 상기 (b3) 단계에서 상기 재추정 구간으로 판단된 경우, 이전 스텝의 자세 영상이 현재 스텝의 자세 영상에 반영되어 검출된 제2 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여 상기 보상 움직임 여부가 검출되는 단계를 포함하는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법.
  2. 제1항에 있어서,
    상기 (b2) 단계에서는 상기 팔꿈치 관절 각속도가 상기 로봇 말단 속도와의 자코비언 관계식을 통해 예측되는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법.
  3. 제2항에 있어서,
    상기 자코비언 관계식은
    Figure 112021135595544-pat00009

    (
    Figure 112021135595544-pat00010
    는 상기 로봇 말단 속도이고,
    Figure 112021135595544-pat00011
    는 상기 팔꿈치 관절 각속도이고,
    Figure 112021135595544-pat00012
    는 자코비언 행렬로 상기 재활 대상자의 신체가 모델링되어 설정된다)로 정의되는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법.
  4. 제3항에 있어서,
    상기 자코비언 행렬이 특이점(Singularity)에 기 설정된 기준만큼 근접하는 경우, 상기 (b3) 단계의 수행없이, 상기 (b4) 단계가 수행되는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법.
  5. 제4항에 있어서,
    상기 자코비언 행렬이 특이점(Singularity)에 상기 기준만큼 근접하는지 여부는 조작성 지수(Manipulability measure)가 기 설정된 기준만큼 0에 근접하는지 여부에 따라 판단되는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법.
  6. 제1항에 있어서,
    상기 (b3) 단계에서는 상기 팔꿈치 관절 각속도가 기 설정된 기준 각속도 이상인 경우, 상기 재추정 구간으로 판단되는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법.
  7. 제1항에 있어서,
    상기 (b4) 단계는
    현재 스텝의 자세 영상으로부터 현재 팔꿈치 위치벡터와, 현재 어깨 위치벡터가 검출되는 단계와;
    상기 현재 팔꿈치 위치벡터와, 상기 현재 어깨 위치벡터에 기초하여, 상기 제1 상완 방향벡터가 검출되는 단계와;
    상기 제1 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여, 팔꿈치 관절 위치가 검출되는 단계와;
    상기 팔꿈치 관절 위치에 기초하여, 팔꿈치 관절 각도가 검출되는 단계와;
    상기 팔꿈치 관절 각도에 기초하여, 상기 보상 움직임 여부가 검출되는 단계를 포함하는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법.
  8. 제1항에 있어서,
    상기 (b5) 단계는
    이전 스텝의 자세 영상으로부터 이전 팔꿈치 위치벡터가 검출되는 단계와;
    현재 스텝의 자세 영상으로부터 현재 어깨 위치벡터가 검출되는 단계와;
    상기 이전 팔꿈치 위치벡터와, 상기 현재 어깨 위치벡터에 기초하여, 상기 제1 상완 방향벡터가 검출되는 단계와;
    상기 제1 상완 방향벡터와, 상기 로봇 말단 위치에 기초하여, 팔꿈치 관절 위치가 검출되는 단계와;
    상기 팔꿈치 관절 위치에 기초하여, 팔꿈치 관절 각도가 검출되는 단계와;
    상기 팔꿈치 관절 각도에 기초하여, 상기 보상 움직임 여부가 검출되는 단계를 포함하는 것을 특징으로 하는 재활운동로봇의 자세 모니터링 방법.
KR1020210163140A 2021-11-24 2021-11-24 재활운동로봇의 자세 모니터링 방법 KR102606961B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210163140A KR102606961B1 (ko) 2021-11-24 2021-11-24 재활운동로봇의 자세 모니터링 방법
PCT/KR2021/019691 WO2023096016A1 (ko) 2021-11-24 2021-12-23 재활운동로봇의 자세 모니터링 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210163140A KR102606961B1 (ko) 2021-11-24 2021-11-24 재활운동로봇의 자세 모니터링 방법

Publications (2)

Publication Number Publication Date
KR20230076993A KR20230076993A (ko) 2023-06-01
KR102606961B1 true KR102606961B1 (ko) 2023-11-30

Family

ID=86539836

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210163140A KR102606961B1 (ko) 2021-11-24 2021-11-24 재활운동로봇의 자세 모니터링 방법

Country Status (2)

Country Link
KR (1) KR102606961B1 (ko)
WO (1) WO2023096016A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017136264A (ja) 2016-02-04 2017-08-10 三菱重工業株式会社 パワーアシストスーツの制御装置及びパワーアシストスーツ

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101163903B1 (ko) 2010-08-13 2012-07-09 한국과학기술원 뇌졸중 환자의 상지 재활을 위한 외골격 로봇
KR101471805B1 (ko) 2014-02-24 2014-12-10 (주)대성마리프 손 운동장치
KR101646914B1 (ko) * 2014-08-27 2016-08-10 대한민국 관절 각 추정을 이용한 편마비 환자의 상지 재활 기기 제어장치 및 그 방법
KR20160066083A (ko) * 2014-12-01 2016-06-10 한국과학기술원 뇌졸중 환자를 위한 재활 로봇 제어방법
KR101567859B1 (ko) * 2014-12-31 2015-11-12 건양대학교산학협력단 사용자 동작을 이용한 재활운동 시스템
KR101850992B1 (ko) * 2015-11-18 2018-04-20 주식회사 시드테크 상지 재활훈련 장치 및 방법
KR20170135459A (ko) * 2016-05-31 2017-12-08 울산과학기술원 환자 맞춤형 재활을 위한 거대자료 기반 지능형 로봇 치료사
KR102246686B1 (ko) * 2019-02-26 2021-04-30 한국과학기술원 근육 시너지 측정 시스템 및 이를 이용한 근육 시너지 분석 방법
KR102292415B1 (ko) * 2019-08-08 2021-08-24 주식회사 엘지유플러스 신체 동작 유사도 측정 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017136264A (ja) 2016-02-04 2017-08-10 三菱重工業株式会社 パワーアシストスーツの制御装置及びパワーアシストスーツ

Also Published As

Publication number Publication date
KR20230076993A (ko) 2023-06-01
WO2023096016A1 (ko) 2023-06-01

Similar Documents

Publication Publication Date Title
US7330775B2 (en) Legged mobile robot controller, legged mobile robot and legged mobile robot control method
EP1645374B1 (en) Gripping hand with strain detecting means for adjusting its gripping force
US9232980B2 (en) Operation input device and method of initializing operation input device
US20210086356A1 (en) Method for controlling a limb motion intention understanding and upper limb rehabilitation training robot based on force sense information and posture information
EP3549725B1 (en) Upper limb motion assisting device and upper limb motion assisting system
Wang et al. Mirror therapy with an exoskeleton upper-limb robot based on IMU measurement system
US10393603B2 (en) Visuo-haptic sensor
US11612803B2 (en) Bilateral limb coordination training system and control method
KR101936850B1 (ko) 손 운동과 연동한 상지부 재활장치
Asker et al. Modeling of natural sit-to-stand movement based on minimum jerk criterion for natural-like assistance and rehabilitation
JP5018136B2 (ja) 筋力評価トレーニングシステム
Bostelman et al. Test methods for exoskeletons—lessons learned from industrial and response robotics
JP4591043B2 (ja) ロボットによる任意形状物体の把持方法
KR102606961B1 (ko) 재활운동로봇의 자세 모니터링 방법
CN115177220A (zh) 一种脉象自动采集装置及方法
Chavez-Romero et al. Inexpensive vision-based system for the direct measurement of ankle stiffness during quiet standing
Hunt et al. Development of a low inertia parallel actuated shoulder exoskeleton robot for the characterization of neuromuscular property during static posture and dynamic movement
CN111588468A (zh) 一种具有定位手术区域功能的外科手术机器人
WO2010082157A1 (en) Method for determining the rotation axis of a joint and device for monitoring the movements of at least one body part
Saraee et al. A therapeutic robotic system for the upper body based on the Proficio robotic arm
Tagliamonte et al. Force control of a robot for wrist rehabilitation: Towards coping with human intrinsic constraints
Geravand et al. Human sit-to-stand transfer modeling for optimal control of assistive robots
Moser et al. A design for an exoskeletal device with reduced reliance on joint alignment
Chang et al. A research on the postural stability of a person wearing the lower limb exoskeletal robot by the HAT model
KR20230136484A (ko) 딥러닝을 활용한 재활치료용 로봇의 절대 위치 예측 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right