KR102607490B1 - 인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치 - Google Patents

인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치 Download PDF

Info

Publication number
KR102607490B1
KR102607490B1 KR1020230044204A KR20230044204A KR102607490B1 KR 102607490 B1 KR102607490 B1 KR 102607490B1 KR 1020230044204 A KR1020230044204 A KR 1020230044204A KR 20230044204 A KR20230044204 A KR 20230044204A KR 102607490 B1 KR102607490 B1 KR 102607490B1
Authority
KR
South Korea
Prior art keywords
robot
data
motion
ergonomic
range
Prior art date
Application number
KR1020230044204A
Other languages
English (en)
Inventor
남기환
성노윤
Original Assignee
주식회사 아임토리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아임토리 filed Critical 주식회사 아임토리
Priority to KR1020230044204A priority Critical patent/KR102607490B1/ko
Application granted granted Critical
Publication of KR102607490B1 publication Critical patent/KR102607490B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 인체공학 기반의 휴머노이드 로봇의 모션 분석 장치 및 방법에 관한 것으로, 인간의 행동 데이터를 수집하는 단계, 상기 수집된 행동 데이터에 기반하여 인간의 운동학적 특성을 분석하여 모델링하는 단계, 인체 공학 로봇의 모션 데이터를 모니터링하는 단계, 상기 모니터링된 모션 데이터에 따라 인체 공학 로봇의 움직임 범위가 상기 모델링된 운동학적 특성에 기반하여 정상 범위 이내인지 판별하여 모션 데이터의 정상 여부를 판단하는 단계 및 상기 판단 결과 로봇의 모션 범위가 정상범위인 로봇 모션 데이터를 분석하는 단계를 포함하는, 인체공학 기반의 휴머노이드 로봇의 모션 분석방법에 의해 실제 인간의 움직임 패턴을 이용하여 인체공학적인 도메인 지식을 적용하여 잘못된 데이터를 필터링하고 휴머노이드 로봇의 모션 분석을 보다 정확히 실시할 수 있다.

Description

인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치{Apparatus and Method for analysising Motion of ergonomic-based humanoid robots}
본 발명은 인체 공학 기술에 관한 것으로 보다 상세하게는 인체공학 기반의 휴머노이드 로봇의 모션 분석 장치 및 방법에 관한 것이다.
인체공학 로봇은 인간의 움직임을 모방하거나 인체공학적 특성을 고려하여 설계되는 로봇이다.
인체 공학 시스템(computing system-assisted ergonomics systems)은 작업과 다른 환경을 분석하는데 이용될 수 있다.
최근에는 로봇공학의 연구가 고도화됨에 따라 실제 사람과 유사한 동작을 하는 로봇에 대한 연구도 활발하게 진행되고 있다.
한편, 인간과 유사한 형태와 움직임을 갖춘 휴머노이드(Humanoid)로봇은 일반적으로 두발로 걷고, 양팔로 물건을 집거나 다양한 동작을 수행할 수 있다. 이는 인간과 비슷한 구조와 움직임을 구현하기 위해 설계된 것으로 우주, 해저, 위험한 환경에서의 탐사, 인간과의 상호작용, 보조적인 일 등 다양한 분야에서 활용될 수 있다.
휴머노이드 로봇의 개발과 연구는 로봇 공학, 인공지능, 제어공학, 로봇시뮬레이션, 컴퓨터 비전 등의 분야에서 이루어지고 있다. 특히, 딥러닝과 같은 인공지능 기술의 발전으로 인해 휴머로이드 로봇의 움직임과 인지 능력은 더욱 발전하고 있다.
KR 10-1398880 B1 KR 10-1099521 B1
본 발명은 이 같은 기술적 배경에서 도출된 것으로, 실제 인간의 움직임 패턴을 이용하여 인체공학적인 도메인 지식을 적용하여 잘못된 데이터를 필터링하고 휴머노이드 로봇의 모션 분석을 보다 정확히 실시할 수 있는 인체공학 기반의 휴머노이드 로봇의 모션 분석장치 및 방법을 제공함에 그 목적이 있다.
나아가 정확도 높은 데이터를 이용하여 로봇의 제어 알고리즘을 설계할 수 있어 보다 안정적이고 정확한 움직임을 구현할 수 있는 인체공학 기반의 휴머노이드 로봇의 모션 분석장치 및 방법을 제공하고자 한다.
상기의 과제를 달성하기 위한 본 발명은 다음과 같은 구성을 포함한다.
즉 본 발명의 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석방법은 인간의 행동 데이터를 수집하는 단계, 상기 수집된 행동 데이터에 기반하여 인간의 운동학적 특성을 분석하여 모델링하는 단계, 인체 공학 로봇의 모션 데이터를 모니터링하는 단계, 상기 모니터링된 모션 데이터에 따라 인체 공학 로봇의 움직임 범위가 상기 모델링된 운동학적 특성에 기반하여 정상 범위 이내인지 판별하여 모션 데이터의 정상 여부를 판단하는 단계 및 상기 판단 결과 로봇의 모션 범위가 정상범위인 로봇 모션 데이터를 분석하는 단계를 포함한다.
한편, 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석장치는 인간의 행동 데이터를 수집하는 데이터 수집부, 상기 데이터 수집부에서 수집된 행동 데이터에 기반하여 인간의 운동학적 특성을 분석하여 모델링하는 모델링부, 인체 공학 로봇의 모션 데이터를 모니터링하는 모니터링부, 상기 모니터링부에서 모니터링된 모션 데이터에 따라 인체 공학 로봇의 움직임 범위가 상기 모델링부에서 모델링된 운동학적 특성에 기반하여 정상 범위 이내인지 판별하여 모션 데이터의 정상 여부를 판단하는 판단부 및 상기 판단부에서의 판단 결과 로봇의 모션 범위가 정상범위인 로봇 모션 데이터를 분석하는 분석부를 포함한다.
본 발명에 의하면 실제 인간의 움직임 패턴을 이용하여 인체공학적인 도메인 지식을 적용하여 잘못된 데이터를 필터링하고 휴머노이드 로봇의 모션 분석을 보다 정확히 실시할 수 있는 인체공학 기반의 휴머노이드 로봇의 모션 분석장치 및 방법을 제공할 수 있는 효과가 도출된다.
뿐만 아니라 정확도 높은 데이터를 이용하여 로봇의 제어 알고리즘을 설계할 수 있어 보다 안정적이고 정확한 움직임을 구현할 수 있는 인체공학 기반의 휴머노이드 로봇의 모션 분석장치 및 방법을 제공할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 장치의 구성을 도시한 블록도이다.
도 2 는 본 발명의 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 방법의 흐름도이다.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.
본 발명의 실시예들에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석장치는 적어도 하나의 컴퓨터 장치에 의해 구현될 수 있으며, 본 발명의 실시예들에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 장치에 포함되는 적어도 하나의 컴퓨터 장치를 통해 수행될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 인체공학 기반의 휴머노이드 로봇의 모션 분석 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 1 은 본 발명의 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 장치의 구성을 도시한 블록도이다.
일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 장치는 예를 들어 보통 사람이 팔을 굽힐 수 없는 방향으로 로봇이 팔을 굽히는 현상이 데이터에서 잡히면 그 현상은 잘못된 데이터로 확인한다. 사람의 움직임 패턴을 분석할 때 인체공학적인 도메인 지식을 적용하여 있을 수 없는 상태의 정보들은 노이즈로 간주하고 데이터 분석을 시도한다.
관리자 단말(30)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 관리자 단말(30)은 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 또한, 관리자 단말(30)은 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 관리자 단말(30)은 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 태블릿 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
일 실시예에 있어서, 관리자 단말(30)은 인체공학 기반의 휴머노이드 로봇의 모션을 제어하고 모션 분석 데이터를 수신하여 전반적인 동작을 관리하는 관리자가 소지하는 단말장치를 포괄하도록 해석된다.
네트워크(20)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(20)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
도 1 에 도시되 바와 같이 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 장치(10)는 통신 인터페이스(110), 메모리(120), 입출력 인터페이스(130), 및 프로세서(140)를 포함한다.
통신 인터페이스(110)는 네트워크(20)를 통해 휴머노이드 로봇의 모션 분석장치(10)가 다른 장치(일례로, 앞서 설명한 저장 장치들)와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 휴머노이드 로봇의 모션 분석장치(10)의 프로세서(140)가 메모리(120)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(110)의 제어에 따라 네트워크(20)를 통해 다른 장치들로 전달될 수 있다.
역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(20)를 거쳐 휴머노이드 로봇의 모션 분석장치(10)의 통신 인터페이스(110)를 통해 휴머노이드 로봇의 모션 분석장치(10)로 수신될 수 있다. 통신 인터페이스(110)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(140)나 메모리(120)로 전달될 수 있고, 파일 등은 휴머노이드 로봇의 모션 분석장치(10)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다
메모리(120)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량기록장치는 메모리(120)와는 구분되는 별도의 영구 저장 장치로서 휴머노이드 로봇의 모션 분석장치(10)에 포함될 수도 있다.
또한, 메모리(120)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(120)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(120)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다.
다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(110)를 통해 메모리(120)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(20)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 휴머노이드 로봇의 모션 분석장치(10)의 메모리(120)에 로딩될 수 있다.
입출력 인터페이스(130)는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(130)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치는 휴머노이드 로봇의 모션 분석장치(10)와 하나의 장치로 구성될 수도 있다.
프로세서(140)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(120) 또는 통신 인터페이스(110)에 의해 프로세서(140)로 제공될 수 있다. 예를 들어 프로세서(140)는 메모리(120)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
보다 상세하게 프로세서(140)는 데이터 수집부(1410), 모델링부(1420), 모니터링부(1430), 판단부(1440) 및 분석부(1450)를 포함한다.
데이터 수집부(1410)는 인간의 행동 데이터를 수집한다.
일 실시예에 있어서 데이터 수집부(1410)는 인간의 행동을 기록한 다양한 형태의 데이터 셋을 수집할 수 있다.
예를 들어 대학교 연구팀에서 수집한 약 13,000개의 비디오 클립으로 구성된 데이터셋으로, 101가지의 행동을 분류하는데 사용되는 UCF101, 인간의 동작을 비디오로 기록한 데이터셋으로, 51가지의 동작을 분류하는데 사용되는 HMDB51, Google에서 수집한 약 300,000개의 비디오 클립으로 구성된 데이터셋으로, 다양한 행동을 분류하는데 사용되는 Kinetics, 대학교 연구팀에서 수집한 약 56,000개의 비디오 클립으로 구성된 데이터셋으로, 다양한 인간의 행동을 분류하는데 사용되는 NTU RGB+D, 집에서 일상 생활을 하는 사람들의 활동을 기록한 데이터셋으로, 걷기, 달리기, 자전거 타기, 앉아있기, 누워있기 등의 활동을 분류하는데 사용되는 ActiLife, 노인들의 일상 생활을 기록한 데이터셋으로, 걷기, 자리에 앉아 있기, 일어서기, 문 열기 등의 활동을 분류하는데 사용되는 OPPORTUNITY등이 있다. 그러나 이에 한정되는 것은 아니다.
또는 웨어러블 디바이스를 통해 수집된 인간의 행동이나 신체활동을 측정하여 행동 데이터를 수집할 수도 있다. 또는 인체에 부착하는 다중모드 센서 등으로부터 측정된 데이터를 딥러닝 처리하여 수집할 수 있다.
다중 모드 센서로부터 계산된 가속도, 각속도, 각도, 고도값을 실시간 병합하여 특정한 동작 자세 및 정적 자세를 정확하게 인식할 수 있는 것이다.
또한 인체의 운동학적 정보를 수집하기 위해 모션캡처(Motion Capture) 시스템을 이용할 수 있다. 인체에 부착된 마커를 추적하여 인간의 움직임을 3차원 공간상에서 측정하여 인간의 관절 각도, 각속도, 가속도 등의 운동학적 정보를 수집할 수 있다.
또한 인간이 수행한 움직임을 영상으로 촬영하여 영상 처리 기술과 기계 학습 기술을 이용하여 움직임을 추정하여 행동 데이터를 수집할 수도 있다.
모델링부(1420)는 데이터 수집부(1410)에서 수집된 행동 데이터에 기반하여 인간의 운동학적 특성을 분석하여 모델링한다.
일 양상에 있어서, 모델링부(1420)는 데이터 수집부(1410)에서 수집된 행동 데이터를 이용하여 LSTM(Long Short-Term Memory) 모델을 학습시켜서 모델링한다.
LSTM(Long Short-Term Memory)은 데이터의 시간적 의존성을 포착할 수 있는 반복 신경망(RNN)이다. 이를 이용하여 신체 일부의 이동 궤적과 같은 데이터 시퀀스를 모델링할 수 있다.
수집된 행동 데이터들을 데이터셋을 LSTM 모델에 학습시키면, LSTM은 과거의 정보를 잘 반영하여 현재의 상태를 파악하고, 다음에 취할 행동을 예측할 수 있다. 또한 인간의 자세를 기록한 데이터셋을 LSTM 모델에 학습시키면 현재 자세를 파악하고 바른 자세 유지 방법을 학습할 수도 있다.
수집된 행동 데이터를 이용하여 운동학적 모델링 방법으로 관절 각도, 각속도, 가속도 등의 운동학적 특성을 분석하여 모델링하고, 운동역학적 모델링 방법으로 힘, 모멘트, 에너지 등의 운동역학적 특성을 분석하여 모델링하여 두 가지 방법을 종합하여 모델링할 수 있다.
즉, 인체의 구조와 기능에 기반하여 움직임을 해석하도록 모델링할 수 있다. 인체의 움직임을 관절 각도, 각속도, 가속도등의 물리적인 양으로 수학적 모델링할 수 있다.
인체를 바디 세그먼트(body segment) 부분으로 나누어 각 세그먼트의 질량, 길이, 무게중심을 고려한다. 그리고 각 세그먼트는 관절(joint)로 연결되어 있으며 각 관절에서 관절 각도를 측정할 수 있다. 관절 각도를 시간에 따라 변화하는 과정을 묘사하기 위해 관절 각속도 및 가속도를 고려한다.
모니터링부(1430)는 인체 공학 로봇의 모션 데이터를 모니터링한다.
모니터링부(1430)는 인체 공학 로봇의 동작을 촬영 영상으로 수집하거나, 인체 공학 로봇의 각 관절에 구비된 센서로 감지 신호를 수신하여 모션 데이터를 취득할 수 있다.
모니터링부(1430)는 인체 공학 로봇의 각 관절의 회전 각도, 관절의 위치와 방향, 로봇이 작동하는 동안 발생하는 힘과 토크, 로봇의 가속도 중 적어도 하나를 측정하는 것으로 구현될 수 있다.
일 실시예에 있어서, 모니터링부(1430)는 로봇에 구비되는 센서로부터 센싱값을 수신하는 것으로 구현될 수 있다. 예를 들어 위치, 속도, 가속도 및 기타 관련 파라미터를 측정할 수 있는 센서가 구비될 수 있다.
또한, 로봇의 모터 또는 관절의 회전을 측정하는 인코더로부터 측정값을 수신할 수 있다. 또한, 가속도계와 자이로스코프로 구성되며 로봇의 선형 및 각도 가속도, 방향 및 각 속도를 측정하는 관성 측정 장치(IMU)로부터 측정값을 수신할 수 있다.
또한, 컴퓨터 비전을 사용하여 로봇의 위치와 움직임을 추적하는 3D 카메라로부터 로봇의 궤적과 속도를 포함하여 로봇의 움직임에 대한 정보들을 수신할 수 있다. 또한 로봇에 의해 가해지는 힘과 토크를 측정하는 힘/토크 센서로부터 측정값을 수신하여 로봇과 물체의 상호작용을 모니터링하고 충돌 등의 이벤트 등을 감지할 수도 있다.
이때 모니터링부(1430)는 딥러닝 방식으로 인체 공학 로봇의 모션 데이터를 분석할 수 있다.
판단부(1440)는 모니터링부(1430)에서 모니터링된 모션 데이터에 따라 인체 공학 로봇의 모션 데이터에 따른 움직임 범위가 모델링부(1420)에서 모델링된 운동학적 특성에 기반하여 인체공학적 도매인 내의 정상 범위 이내인지 판별하여 모션 데이터의 정상 여부를 판단한다.
판단부(1440)는 모델링부(1420)에서의 모델링된 데이터에 기반하여 인체 공학적으로 가능한 관절별 모션 수용 범위 즉 인체공학적 도메인 범위를 인지할 수 있다. 예를 들어 모델링된 데이터에 기반하여 손목, 발목 관절은 360도 회전이 가능한 반면, 무릎관절은 전후 이동만 가능하므로 각 관절들마다 상이한 운동 가능 방향과 이동 각도에 대한 모션 수용 범위를 도출해낼 수 있다. 그리고 모니터링부(1430)에서 모니터링된 로봇의 모션 데이터가 모션 수용 범위 이내인지 여부를 판단하여 정상 여부를 판단할 수 있다.
분석부(1450)는 판단부(1440)에서의 판단 결과 로봇의 모션 범위가 정상범위인 로봇 모션 데이터를 분석한다.
즉, 관절 각도, 관절 속도, 가속도, 힘 등을 측정할 수 있는 다양한 센서를 사용하여 로봇의 움직임을 측정하고, 이를 통해 로봇의 동작을 분석할 수 있다. 분석부(1450)는 이 과정에서 로봇의 모션 범위가 정상인 경우의 모션 데이터만을 필터링하여 분석함으로써 분석 정확도를 높일 수 있다.
그리고 정확도 높은 데이터를 이용하여 로봇의 제어 알고리즘을 설계할 수 있어 보다 안정적이고 정확한 움직임을 구현할 수 있다.
추가적으로 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 장치(10)는 판단부(1440)에서이 판단결과 인체 공학 로봇의 움직임 범위가 정상 범위를 이탈한 경우에, 모션 데이터의 이탈 관절 및 이탈 범위를 파악하여 로봇 제어 데이터를 보정할 수 있다.
이때 보정 결과에 따른 인체 공학 로봇의 모션 데이터를 모니터링하고, 모니터링된 모션 데이터를 딥러닝하여, 보정 결과를 예측할 수도 있다. 반복 수행하여 보정의 정확도를 향상시킬 수 있다.
이하, 도 2 를 참조하여 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 방법을 설명한다.
도 2 는 본 발명의 일 실시예에 따른 인체공학 기반의 휴머노이드 로봇의 모션 분석 방법의 흐름도이다.
일 실시예에 따른 모션 분석 방법은 먼저 인간의 행동 데이터를 수집한다(S200).
일 실시예에 있어서 데이터 수집부(1410)는 인간의 행동을 기록한 다양한 형태의 데이터 셋을 수집할 수 있다. 또는 웨어러블 디바이스를 통해 수집된 인간의 행동이나 신체활동을 측정하여 행동 데이터를 수집할 수도 있다.
또는 인체에 부착하는 힘센서, 모멘트센서, 다중모드 센서등으로부터 측정된 데이터를 이용하여 운동 역학적 정보를 수집할 수 있다. 다중 모드 센서로부터 계산된 가속도, 각속도, 각도, 고도값을 실시간 병합하여 특정한 동작 자세 및 정적 자세를 정확하게 인식할 수 있다.
또한 인체의 운동학적 정보를 수집하기 위해 모션캡처(Motion Capture) 시스템을 이용할 수 있다. 인체에 부착된 마커를 추적하여 인간의 움직임을 3차원 공간상에서 측정하여 인간의 관절 각도, 각속도, 가속도 등의 운동학적 정보를 수집할 수 있다.
또한 인간이 수행한 움직임을 영상으로 촬영하여 영상 처리 기술과 기계 학습 기술을 이용하여 움직임을 추정하여 행동 데이터를 수집할 수도 있다.
그리고 수집된 행동 데이터에 기반하여 인간의 운동학적 특성을 분석하여 모델링한다(S210).
일 양상에 있어서, 모델링하는 단계는 수집된 행동 데이터를 이용하여 LSTM(Long Short-Term Memory) 모델을 학습시켜서 모델링한다.
LSTM(Long Short-Term Memory)은 데이터의 시간적 의존성을 포착할 수 있는 반복 신경망(RNN)이다. 이를 이용하여 신체 일부의 이동 궤적과 같은 데이터 시퀀스를 모델링할 수 있다.
수집된 행동 데이터들을 데이터셋을 LSTM 모델에 학습시키면, LSTM은 과거의 정보를 잘 반영하여 현재의 상태를 파악하고, 다음에 취할 행동을 예측할 수 있다. 또한 인간의 자세를 기록한 데이터셋을 LSTM 모델에 학습시키면 현재 자세를 파악하고 바른 자세 유지 방법을 학습할 수도 있다.
수집된 행동 데이터를 이용하여 운동학적 모델링 방법으로 관절 각도, 각속도, 가속도 등의 운동학적 특성을 분석하여 모델링하고, 운동역학적 모델링 방법으로 힘, 모멘트, 에너지 등의 운동역학적 특성을 분석하여 모델링하여 두 가지 방법을 종합하여 모델링할 수 있다.
운동학적 모델링 방법은 인간의 관절 각도, 각속도, 가속도 등의 운동학적 특성을 분석하여 모델링하는 방법으로 인간의 움직임을 단순하게 모델링할 수 있다. 이는 인간의 움직임을 측정하는 센서를 이용하여 운동학적 특성을 측정하고, 측정된 데이터를 기반으로 인간의 움직임을 수학적으로 모델링한다. 이 모델은 관절 각도, 각속도, 가속도 등을 포함한다.
그리고 운동역학적 모델링 방법은 인간의 힘, 모멘트, 에너지 등의 운동역학적 특성을 분석하여 모델링하는 방법으로 움직임을 더 정확하게 모델링할 수 있다.
일예로 인체의 구조와 기능에 기반하여 움직임을 해석하도록 모델링할 수 있다. 즉 인체의 움직임을 관절 각도, 각속도, 가속도등의 물리적인 양으로 수학적 모델링할 수 있다.
인체를 바디 세그먼트(body segment) 부분으로 나누어 각 세그먼트의 질량, 길이, 무게중심을 고려한다. 그리고 각 세그먼트는 관절(joint)로 연결되어 있으며 각 관절에서 관절 각도를 측정할 수 있다.
관절 각도를 시간에 따라 변화하는 과정을 묘사하기 위해 관절 각속도 및 가속도를 고려한다. 관절 각속도는 간당 관절 각도의 변화율로 정의되고 이는 수학식 1과 같이 나타낼 수 있다.
<수학식 1>
각속도(w) = dθ/dt
여기서 w는 각속도, θ는 관절 각도, t는 시간이다.
그리고 관절 각속도를 시간에 대해 미분하여 관절 각가속도를 구할 수 있다. 관절 각가속도는 시간당 각속도의 변화율로 정의된다. 이를 수식으로 나타내면 수학식 2와 같다.
<수학식 2>
각가속도(a) = d²θ/dt²
여기서 a는 관절 각가속도이다.
수학식 1 및 수학식 2에 의해 산출되는 관절 각도, 각속도, 각가속도를 토대로, 인체의 움직임을 수학적으로 모델링할 수 있다. 예를 들어, 인간이 걷는 모습을 모델링할 경우, 각각의 발은 다리 세그먼트로 나누어지고, 관절 각도, 각속도, 각가속도를 측정하여 인간의 보폭, 걷는 속도, 밸런스 등을 분석할 수 있도록 구현된다.
그리고 인체 공학 로봇의 모션 데이터를 모니터링한다(S220).
이때 모니터링하는 단계는, 인체 공학 로봇의 각 관절의 회전 각도, 관절의 위치와 방향, 로봇이 작동하는 동안 발생하는 힘과 토크, 로봇의 가속도 중 적어도 하나를 측정하는 것으로 구현될 수 있다.
일 실시예에 있어서, 모션 데이터를 모니터링하는 것은 로봇에 구비되는 센서로부터 센싱값을 수신하는 것으로 구현될 수 있다. 예를들어 위치, 속도, 가속도 및 기타 관련 파라미터를 측정할 수 있는 센서가 구비될 수 있다.
또한, 로봇의 모터 또는 관절의 회전을 측정하는 인코더로부터 측정값을 수신할 수 있다. 또한, 가속도계와 자이로스코프로 구성되며 로봇의 선형 및 각도 가속도, 방향 및 각 속도를 측정하는 관성 측정 장치(IMU)로부터 측정값을 수신할 수 있다.
또한, 컴퓨터 비전을 사용하여 로봇의 위치와 움직임을 추적하는 3D 카메라로부터 로봇의 궤적과 속도를 포함하여 로봇의 움직임에 대한 정보들을 수신할 수 있다. 또한 로봇에 의해 가해지는 힘과 토크를 측정하는 힘/토크 센서로부터 측정값을 수신하여 로봇과 물체의 상호작용을 모니터링하고 충돌 등의 이벤트를 감지할 수도 있다.
이후에 모니터링된 모션 데이터에 따라 인체 공학 로봇의 움직임 범위가 모델링된 운동학적 특성에 기반하여 정상 범위 이내인지 판별하여 모션 데이터의 정상 여부를 판단한다(S230).
정상 범위 이내인지 판별하는 것은 모션 데이터에 따라 인체 공학 로봇의 관절 각도, 각속도, 각가속도를 측정하고, 모델링 단계에서의 모델링값과 비교하여 소정 범위 이내의 유사도를 갖는지를 판별하는 것일 수 있다.
판단하는 단계는 모델링된 데이터에 기반하여 인체 공학적으로 가능한 관절별 모션 수용 범위를 인지할 수 있다. 예를 들어 모델링된 데이터에 기반하여 손목, 발목 관절은 360도 회전이 가능한 반면, 무릎관절은 전후 이동만 가능하므로 각 관절들마다 상이한 운동 가능 방향과 이동 각도에 대한 모션 수용 범위를 도출해낼 수 있다. 그리고 모니터링 단계에서 모니터링된 로봇의 모션 데이터가 모션 수용 범위 이내인지 여부를 판단하여 정상 여부를 판단할 수 있다.
그리고 판단 결과 로봇의 모션 범위가 정상 범위 이내이면(S240), 정상범위인 로봇 모션 데이터를 분석한다(S250).
정상 범위 내의 로봇 모션 데이터를 이용하여 로봇의 제어 알고리즘을 설계하면, 보다 안정적이고 정확한 움직임을 구현할 수 있다.
반면, 상기 정상 여부를 판단하는 단계에서 인체 공학 로봇의 움직임 범위가 정상 범위를 이탈한 경우에는, 모션 데이터의 이탈 관절 및 이탈 범위를 파악하여 로봇 제어 데이터를 보정한다(S245).
이때 보정하는 단계는, 보정 결과에 따른 인체 공학 로봇의 모션 데이터를 모니터링하고, 모니터링된 모션 데이터를 딥러닝하여, 보정 결과를 예측하도록 구현될 수도 있다.
로봇 제어 데이터는 기 저장된 디지털맵 및 카메라에 의해 촬영된 영상 중 적어도 하나에 기초하여 지도기반주행(Map-based navigation)방식, 지도작성기반주행방식(Map building-based navigation), 사물인식주행방식 및 재귀 반사 광학 주행방식 중 적어도 하나의 방식으로 휴머노이드 로봇의 동작을 제어할 수 있다. 그러나 이에 한정되는 것은 아니다.
지도기반주행방식은 사전에 제작된 디지털맵을 이용하여 주행하는 방식으로, 무선기반의 위치인식을 통해 디지털맵에 현재 로봇의 위치를 매핑한 후 이동이 가능한 영역에 대하여 이동경로를 설정할 수 있다.
지도작성기반주행방식은 로봇이 미지의 환경에 대한 센싱정보를 바탕으로 주행에 필요한 디지털맵을 스스로 작성하면서 주행하는 방식으로, 주로 SLAM(Simultaneous Localization And Mapping) 이론이 적용되고 있다.
사물인식주행방식은 디지털맵을 이용하지 않는 방식 중 하나로, 로봇에 구성된 센서들을 이용하여 주위 사물을 인식하고 로봇의 움직임과 이동방향을 결정하여 주행하는 방식이다.
재귀반사 광학 주행방식도 디지털맵을 이용하지 않는 방식 중 하나이며, 주변환경 내에 설치된 랜드마크(Landmark)나 반사패턴을 감지하여 주행하는 방식이다.
예를 들어 2족 보행 모듈의 움직임 및 이동경로를 설정하도록 모듈의 제어를 수행하는 제어 데이터일 수 있다.
이때 제어 데이터는 관절 구동 모듈별로 사용자의 신체조건에 대응하여 설정된 제한 동작범위 내에서 각 관절 구동 모듈을 제어할 수 있다.
인체 공학 로봇의 모션 데이터를 모니터링하고 모니터링 결과를 반영하여 그 움직임이 정상 가동 범위를 벗어나는 경우에는 각 관절의 구동 모듈의 제어데이터를 보정할 수 있다.
즉, 실제 신체 조건에서 도출될 수 없는 모션 데이터는 미리 필터링하거나 보정하여 반영함으로써 로봇의 모션 데이터 분석과정에서 로봇의 동작을 분석하고 제어 알고리즘을 설계하는 과정의 정확도를 높일 수 있다. 나아가 보다 안정적이고 정확한 움직임을 구현할 수 있는 효과가 있다.
추가적으로 정상 여부를 판단하는 단계에서 인체 공학 로봇의 움직임이 정상 범위를 이탈한 경우에, 관리자 단말로 이상 감지 메시지를 전송하여 인체 공학 로봇의 비정상적인 운행에 대한 대처를 신속하게 할 수 있다.
어느 관절의 움직임이 정상 범위에서 어느 정도 범위만큼 벗어났는지 관절의 위치 정보와 방향이나 각도 정보를 함께 더 제공할 수 있다. 즉, 인체 공학 로봇의 움직임에 오류가 발생한 경우에 관리자는 신속하게 상황을 인지하고 대처할 수 있다.
전술한 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10 : 모션 분석 장치 20 : 네트워크
30 : 관리자 단말 110 : 통신 인터페이스
120 : 메모리 130 : 입출력 인터페이스
140 : 프로세서 1410 : 데이터 수집부
1420 : 모델링부 1430 : 모니터링부
1440 : 판단부 1450 : 분석부

Claims (6)

  1. 하나의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    인간의 행동 데이터를 수집하는 단계;
    상기 수집된 행동 데이터에 기반하여 인간의 운동학적 특성을 분석하여 모델링하는 단계;
    인체 공학 로봇의 모션 데이터를 모니터링하는 단계;
    상기 모니터링된 모션 데이터에 따라 인체 공학 로봇의 움직임 범위가 상기 모델링된 운동학적 특성에 기반하여 정상 범위 이내인지 판별하여 모션 데이터의 정상 여부를 판단하는 단계; 및
    상기 판단 결과 로봇의 모션 범위가 정상범위인 로봇 모션 데이터를 분석하는 단계;를 포함하고,
    상기 정상 여부를 판단하는 단계에서 인체 공학 로봇의 움직임 범위가 정상 범위를 이탈한 경우에, 모션 데이터의 이탈 관절 및 이탈 범위를 파악하여 로봇 제어 데이터를 보정하는 단계;를 더 포함하며,
    상기 보정하는 단계는,
    보정 결과에 따른 인체 공학 로봇의 모션 데이터를 모니터링하고, 모니터링된 모션 데이터를 딥러닝하여, 보정 결과를 예측하며,
    상기 모니터링하는 단계는,
    각 관절의 회전 각도, 관절의 위치와 방향, 로봇이 작동하는 동안 발생하는 힘과 토크, 로봇의 가속도 중 적어도 하나를 측정하고,
    상기 판단하는 단계는,
    상기 모델링하는 단계에서의 모델링된 데이터에 기반하여 인체 공학적으로 가능한 관절별 모션 수용 범위인 인체공학적 도메인 범위를 인지하며,
    상기 모델링하는 단계는,
    수집된 행동 데이터를 이용하여 운동학적 모델링 방법으로 관절 각도, 각속도, 가속도의 운동학적 특성을 분석하여 모델링하고, 운동역학적 모델링 방법으로 힘, 모멘트, 에너지의 운동역학적 특성을 분석하여 모델링하여 두 가지 방법을 종합하여 모델링하는, 인체공학 기반의 휴머노이드 로봇의 모션 분석방법.
  2. 제 1 항에 있어서,
    상기 모델링하는 단계는,
    상기 수집된 행동 데이터를 이용하여 LSTM(Long Short-Term Memory) 모델을 학습시켜서 모델링하는, 인체공학 기반의 휴머노이드 로봇의 모션 분석방법.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 장치로서,
    인간의 행동 데이터를 수집하는 데이터 수집부;
    상기 데이터 수집부에서 수집된 행동 데이터에 기반하여 인간의 운동학적 특성을 분석하여 모델링하는 모델링부;
    인체 공학 로봇의 모션 데이터를 모니터링하는 모니터링부;
    상기 모니터링부에서 모니터링된 모션 데이터에 따라 인체 공학 로봇의 움직임 범위가 상기 모델링부에서 모델링된 운동학적 특성에 기반하여 정상 범위 이내인지 판별하여 모션 데이터의 정상 여부를 판단하는 판단부; 및
    상기 판단부에서의 판단 결과 로봇의 모션 범위가 정상범위인 로봇 모션 데이터를 분석하는 분석부;를 포함하고,
    상기 프로세서가,
    상기 판단부에서 인체 공학 로봇의 움직임 범위가 정상 범위를 이탈한 경우에, 모션 데이터의 이탈 관절 및 이탈 범위를 파악하여 로봇 제어 데이터를 보정하며, 보정 결과에 따른 인체 공학 로봇의 모션 데이터를 모니터링하고, 모니터링된 모션 데이터를 딥러닝하여, 보정 결과를 예측하며,
    상기 모니터링부는,
    각 관절의 회전 각도, 관절의 위치와 방향, 로봇이 작동하는 동안 발생하는 힘과 토크, 로봇의 가속도 중 적어도 하나를 측정하고,
    상기 판단부는,
    상기 모델링부에서의 모델링된 데이터에 기반하여 인체 공학적으로 가능한 관절별 모션 수용 범위인 인체공학적 도메인 범위를 인지하며,
    상기 모델링부는,
    수집된 행동 데이터를 이용하여 운동학적 모델링 방법으로 관절 각도, 각속도, 가속도의 운동학적 특성을 분석하여 모델링하고, 운동역학적 모델링 방법으로 힘, 모멘트, 에너지의 운동역학적 특성을 분석하여 모델링하여 두 가지 방법을 종합하여 모델링하는, 인체공학 기반의 휴머노이드 로봇의 모션 분석장치.
KR1020230044204A 2023-04-04 2023-04-04 인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치 KR102607490B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230044204A KR102607490B1 (ko) 2023-04-04 2023-04-04 인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230044204A KR102607490B1 (ko) 2023-04-04 2023-04-04 인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치

Publications (1)

Publication Number Publication Date
KR102607490B1 true KR102607490B1 (ko) 2023-11-29

Family

ID=88969202

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230044204A KR102607490B1 (ko) 2023-04-04 2023-04-04 인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치

Country Status (1)

Country Link
KR (1) KR102607490B1 (ko)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007125645A (ja) * 2005-11-04 2007-05-24 Hitachi Ltd ロボット動作編集システム
KR101099521B1 (ko) 2009-12-24 2011-12-27 한국산재의료원 웨어러블 로봇보행 슈트
US20120158174A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co., Ltd. Method to generate humanlike motion of humanoid robot
KR20140009900A (ko) * 2012-07-12 2014-01-23 삼성전자주식회사 로봇 제어 시스템 및 그 동작 방법
KR101398880B1 (ko) 2013-04-24 2014-05-27 국민대학교산학협력단 휴머노이드 기능이 탑재된 웨어러블 로봇 및 그 제어 방법
US9764469B1 (en) * 2013-12-13 2017-09-19 University Of South Florida Generating robotic trajectories with motion harmonics
JP6377266B2 (ja) * 2015-05-13 2018-08-22 国立研究開発法人産業技術総合研究所 ロボット動作生成方法
KR20200059465A (ko) * 2018-11-21 2020-05-29 한국전자통신연구원 영상 기반으로 드로잉 로봇을 제어하는 방법 및 장치
KR20220122201A (ko) * 2021-02-26 2022-09-02 주식회사지능디자인 춤 동작을 학습하여 춤을 추는 스마트 로봇

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007125645A (ja) * 2005-11-04 2007-05-24 Hitachi Ltd ロボット動作編集システム
KR101099521B1 (ko) 2009-12-24 2011-12-27 한국산재의료원 웨어러블 로봇보행 슈트
US20120158174A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co., Ltd. Method to generate humanlike motion of humanoid robot
KR20140009900A (ko) * 2012-07-12 2014-01-23 삼성전자주식회사 로봇 제어 시스템 및 그 동작 방법
KR101398880B1 (ko) 2013-04-24 2014-05-27 국민대학교산학협력단 휴머노이드 기능이 탑재된 웨어러블 로봇 및 그 제어 방법
US9764469B1 (en) * 2013-12-13 2017-09-19 University Of South Florida Generating robotic trajectories with motion harmonics
JP6377266B2 (ja) * 2015-05-13 2018-08-22 国立研究開発法人産業技術総合研究所 ロボット動作生成方法
KR20200059465A (ko) * 2018-11-21 2020-05-29 한국전자통신연구원 영상 기반으로 드로잉 로봇을 제어하는 방법 및 장치
KR20220122201A (ko) * 2021-02-26 2022-09-02 주식회사지능디자인 춤 동작을 학습하여 춤을 추는 스마트 로봇

Similar Documents

Publication Publication Date Title
US10860091B2 (en) Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
US11009941B2 (en) Calibration of measurement units in alignment with a skeleton model to control a computer system
Chen et al. Deep neural network based inertial odometry using low-cost inertial measurement units
Neto et al. 3-D position estimation from inertial sensing: Minimizing the error from the process of double integration of accelerations
US11474593B2 (en) Tracking user movements to control a skeleton model in a computer system
Yan et al. Ronin: Robust neural inertial navigation in the wild: Benchmark, evaluations, and new methods
AU2019207463B2 (en) Determining the location of a mobile device
JP2013531781A (ja) 対象物のゼロ速度状態の検出方法及びシステム
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
Porzi et al. Visual-inertial tracking on android for augmented reality applications
Lin et al. Legged robot state estimation using invariant Kalman filtering and learned contact events
Rao et al. Ctin: Robust contextual transformer network for inertial navigation
Akhavian et al. Integrated mobile sensor-based activity recognition of construction equipment and human crews
Manos et al. Walking direction estimation using smartphone sensors: A deep network-based framework
Palani et al. Real-time joint angle estimation using mediapipe framework and inertial sensors
CN110456902A (zh) 跟踪用户移动以控制计算机系统中的骨架模型
Schindler et al. A wearable interface for topological mapping and localization in indoor environments
KR102607490B1 (ko) 인체공학 기반의 휴머노이드 로봇의 모션 분석방법 및 장치
KR102607493B1 (ko) 로봇의 모션 분석 방법 및 장치
US20230011082A1 (en) Combine Orientation Tracking Techniques of Different Data Rates to Generate Inputs to a Computing System
CN110216675B (zh) 智能机器人的控制方法、装置、智能机器人及计算机设备
Sinha et al. A∗ WRBAS: Space Mobile Robotics Control Conceptual Model Using IoRT Reinforcement Learning and Tracking with Noise Estimation Using EKF
Kovalenko et al. Pluto: Motion detection for navigation in a vr headset
Wang et al. Posture recognition and adaptive step detection based on hand-held terminal
Schmucker et al. Multimodal movement activity recognition using a robot’s proprioceptive sensors

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant