KR20150076798A - 로봇을 이용한 육체 운동 교습 시스템 및 방법 - Google Patents

로봇을 이용한 육체 운동 교습 시스템 및 방법 Download PDF

Info

Publication number
KR20150076798A
KR20150076798A KR1020130165388A KR20130165388A KR20150076798A KR 20150076798 A KR20150076798 A KR 20150076798A KR 1020130165388 A KR1020130165388 A KR 1020130165388A KR 20130165388 A KR20130165388 A KR 20130165388A KR 20150076798 A KR20150076798 A KR 20150076798A
Authority
KR
South Korea
Prior art keywords
user
robot
physical exercise
action plan
action
Prior art date
Application number
KR1020130165388A
Other languages
English (en)
Other versions
KR101697646B1 (ko
Inventor
박천수
이대하
장민수
김재홍
박종현
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130165388A priority Critical patent/KR101697646B1/ko
Publication of KR20150076798A publication Critical patent/KR20150076798A/ko
Application granted granted Critical
Publication of KR101697646B1 publication Critical patent/KR101697646B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0075Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • A63B2024/0068Comparison to target or threshold, previous performance or not real time comparison to other individuals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • A63B2024/0093Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load the load of the exercise apparatus being controlled by performance parameters, e.g. distance or speed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/17Counting, e.g. counting periodical movements, revolutions or cycles, or including further data processing to determine distances or speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

본 발명은, 육체 운동 동작 순서에 따라 동작을 수행하는 로봇을 이용한 운동 교습 방법에 관한 것으로, 로봇이, 카메라를 통한 사용자 인식을 통해 사용자 정보가 존재하는지를 판단하는 단계; 상기 사용자 정보 존재 판단 결과, 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작을 수행을 위한 행위 계획을 생성하는 단계; 및 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행하는 단계를 포함한다.

Description

로봇을 이용한 육체 운동 교습 시스템 및 방법{Physical exercise tutoring system and method using for robot}
본 발명은 로봇을 이용한 육체 운동 교습 시스템 및 방법에 관한 것으로, 더욱 상세하게는 로봇과 사용자와의 상호작용 경험, 행동인식, 사용자 의도 및 상황인식 정보를 기반으로 로봇이 사용자의 상태에 맞는 육체 운동을 교습(지도)할 수 있도록 한 로봇을 이용한 육체 운동 교습 시스템 및 방법에 관한 것이다.
기존의 체조, 요가, 스트레치, 춤과 같은 육체 운동에 대한 교습(지도) 방법은 주로 화면을 통한 교습(지도) 방법을 이용해 왔다. 아바타와 로봇을 이용한 동작을 보여주는 경우도 있으나, 사용자의 흥미, 운동 능력, 의욕, 이해 수준 및 상호작용을 고려하지 않은 일방적인 교습 방법으로 그 활용도가 낮았다. 본 발명에서는 로봇을 이용해 강사가 강습을 하는 것과 같이 사용자의 운동능력, 이해 수준, 상호작용 및 상호작용 경험 정보를 활용하여 개인화된 육체운동 교습을 가능하게 한다. 본 발명에서는 사용자의 상태 및 행동을 인식하기 위해 기반이 되는 카메라 기반의 얼굴인식 및 행동 인식 기술을 이용한다.
본 발명은 상기의 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 로봇을 이용해 사용자와의 상호작용 경험 정보를 활용하여 상호작용 경험을 기반으로 잘하는 동작, 못하는 동작, 좋아하는 동작 등을 저장하여 개인화를 위한 로봇을 이용한 육체 운동 교습 시스템 및 방법을 제공함에 있다.
또한, 본 발명의 다른 목적은 로봇이 강사와 같은 역할을 수행할 수 있도록 사용자의 기분, 상태변화, 흥미, 운동 능력, 이해 수준을 파악하기 위해 사용자가 수행한 동작 인식 및 판단, 사용자의 의도, 상황 이해, 목표기반 계획 수행 및 계획된 행위에 대한 성공 및 실패를 판단할 수 있도록 한 로봇을 이용한 육체 운동 교습 시스템 및 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법은, 육체 운동 동작 순서에 따라 동작을 수행하는 로봇을 이용한 운동 교습 방법에 있어서, 로봇이, 카메라를 통한 사용자 인식을 통해 사용자 정보가 존재하는지를 판단하는 단계; 상기 사용자 정보 존재 판단 결과, 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작 수행을 위한 행위 계획을 생성하는 단계; 및 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행하는 단계;를 포함한다.
반면에, 상기 사용자 인식을 통해 사용자 정보가 존재하는지 판단하는 단계에서, 인식되지 않은 사용자이면, 원하는 사용자에 대해 사용자 등록을 수행하며, 기본적인 수준의 수행 계획을 기반으로 동작을 수행하는 단계;를 더 포함하는 것이 바람직하다.
여기서, 사용자의 상호작용 경험 정보는, 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력과 같은 정보 중 적어도 하나 이상의 정보를 포함하는 것이 바람직하다.
한편, 상기 행위 계획에 따라 육체 운동 동작을 수행하는 단계는, 해당 행위 계획에 따라 육체 운동 동작을 수행하는 단계; 상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 판단하는 단계; 및 육체 운동 동작을 사용자가 모두 수행하면, 다음 동작을 수행할 때 해당 동작을 부가하여 참조하는 단계;를 포함하는 것이 바람직하다.
반면에. 상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 파악하는 단계에서 사용자가 동작을 따라 하지 않으면, 해당 동작에 대한 사용자의 상태를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영하는 단계;를 더 포함하는 것이 바람직하다.
여기서, 상기 사용자의 상태를 파악하는 방법은, 사용자의 동작 인식, 사용자의 표정인식을 통해 사용자의 기분을 파악하는 것이 바람직하다.
그리고, 상기 다음 행위 계획을 생성할 때 반영하는 단계는, 동작, 표정, 행위 계획 성공 실패 여부 등을 파악하여 사용자의 의도(하기 싫음, 지루함, 몰입, 지속)와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 수행하는 단계;를 포함하는 것이 바람직하다.
한편, 생성된 상호작용 경험, 행위 수행 결과, 파악된 의도 및 상황 정보를 저장부에 저장되는 단계를 더 포함하는 것이 바람직하다.
본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템은 육체 운동 동작 순서에 따라 동작을 수행하는 로봇을 이용한 운동 교습 시스템에 있어서, 카메라를 통한 사용자 인식을 통해 사용자 정보가 존재하는지를 확인하는 동작 인식부; 상기 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작 수행을 위한 행위 계획을 생성하는 행위 계획 설정부; 및 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행하는 행위 계획 동작부; 포함하는 것이 바람직하다.
상기 행위 계획 설정부는, 상기 인식되지 않은 사용자이면, 원하는 사용자에 대해 사용자 등록을 수행하며, 가장 기본적인 수준의 수행 계획을 기반으로 동작을 수행하는 것이 바람직하다.
여기서, 사용자의 상호작용 경험 정보는, 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력과 같은 정보 중 적어도 하나 이상의 정보를 포함하는 것이 바람직하다.
한편, 상기 행위 계획 설정부는, 상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행한 것으로 판단되면, 다음 동작을 수행할 때 해당 동작을 부가하여 참조하며, 사용자가 동작을 따라 하지 않으면, 해당 동작에 대한 사용자의 상태(하기 동작을 하기 싫은 상태인지, 지루한 상태)를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영하는 것이 바람직하다.
상기 동작 인식부는, 사용자의 동작 인식, 사용자의 표정인식을 통해 사용자의 기분을 파악하는 것이 바람직하다.
상기 행위 계획 설정부는, 동작, 표정, 행위 계획 성공 실패 여부 등을 파악하여 사용자의 의도(하기 싫음, 지루함, 몰입, 지속)와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 수행하는 것이 바람직하다.
또한, 생성된 상호작용 경험, 행위 수행 결과, 파악된 의도 및 상황 정보를 저장하는 저장부를 더 포함하는 것이 바람직하다.
본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템 및 방법은 기존의 화면을 보며 따라 하는 일방적인 교습 방법에서 로봇이 사용자의 흥미, 능력, 사용자와 로봇의 상호작용 경험 정보를 기반으로 교습(지도)을 수행하기 때문에 사용자의 상태와 수준에 맞는 육체 운동 효과를 볼 수 있다. 또한, 로봇을 통한 교습방법으로 화면을 통한 교습방법에 흥미가 없는 사용자나 사람과 대면을 기피하는 육체적 활동이 부족한 어린이, 독거노인 및 노인복지시설에 있는 노인들에게 효과적일 수 있다.
도 1은 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템을 나타낸 기능 블록도.
도 2는 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법을 나타낸 순서도.
도 3은 도 2에 따른 로봇을 이용한 육체 운동 교습 방법 중 행위 계획 설정의 세부 과정을 나타낸 순서도이다.
이하, 본 발명의 바람직한 실시 예를 첨부된 도면들을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템을 나타낸 기능 블록도이다.
도 1에 도시된 바와 같이 본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템은 사용자와 로봇간의 상호작용을 통한 육체운동을 교습하기 위한 시스템으로 로봇이 강사와 같은 역할을 수행하여 사용자의 상태나 수준에 따라서 로봇이 다르게 반응하도록 하는 것이다.
본 발명에 따른 로봇을 이용한 육체 운동 교습 시스템은 동작 인식부(100), 행위 계획 설정부(200), 행위 계획 동작부(300) 및 행위 계획 판단부(400)를 포함한다.
동작 인식부(100)는 카메라를 통한 사용자 인식을 통해 사용자 정보가 존재하는지를 확인한다.
행위 계획 설정부(200)는 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작을 수행을 위한 행위 계획을 생성한다.
그리고, 행위 계획 동작부(300)는 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행한다. 만약, 목표를 달성하면 새로운 육체 운동의 흐름을 생성하며, 목표가 달성되지 않은 상태면 목표를 달성하기 위해 상호작용 계획을 변경하거나 반복적인 수행을 통해 목표를 달성하도록 행위 계획을 생성한다.
행위 계획 설정부(200)는, 로봇이 어떠한 순서로 사용자와 상호작용을 수행할지를 결정하는 역할을 하며, 주어진 목표를 달성하기 위한 최소 수행 가능한 형태의 행위 계획을 생성하는 역할을 한다. 즉, 사용자의 의도 및 상황 정보, 이전의 행위 경험, 행위 계획의 성공 여부 등의 정보를 활용하여 사용자가 로봇과 육체 운동을 수행하기 위한 흐름을 생성하고 제어한다.
이러한 행위 계획 설정부(200)는 사용자가 인식되지 않은 사용자이면, 원하는 사용자에 대해 사용자 등록을 수행하며, 가장 기본적인 수준의 수행 계획을 기반으로 동작을 수행한다.
여기서, 사용자의 상호작용 경험 정보는 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력과 같은 정보 중 적어도 하나 이상의 정보를 포함한다.
또한, 행위 계획 설정부(200)는 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행한 것으로 판단되면, 다음 동작을 수행할 때 해당 동작을 부가하여 참조한다.
반면에, 사용자가 동작을 따라 하지 않으면, 행위 계획 설정부(200)는 해당 동작에 대한 사용자의 상태(하기 동작을 하기 싫은 상태인지, 지루한 상태)를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영한다.
한편, 본 발명의 일 실시예에서의 동작 인식부(100)는 사용자의 동작 인식, 사용자의 표정인식을 통해 사용자의 기분을 파악한다.
행위 계획 설정부(200)는, 동작 인식부(100)를 통해 동작, 표정, 행위 계획 성공 실패 여부 등을 파악하여 사용자의 의도(하기 싫음, 지루함, 몰입, 지속)와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 설정한다. 만약, 목표를 달성하면 새로운 육체 운동의 흐름을 생성하며, 목표가 달성되지 않은 상태면 목표를 달성하기 위해 상호작용 계획을 변경하거나 반복적인 수행을 통해 목표를 달성하도록 행위 계획을 생성한다.
이러한, 본 발명의 일 실시예에서는, 생성된 상호작용 경험, 행위 수행 결과, 파악된 의도 및 상황 정보를 저장하는 저장부(500)를 더 포함하는 것이 바람직하다.
도 2는 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법을 나타낸 순서도이고, 3은 도 2에 따른 로봇을 이용한 육체 운동 교습 방법 중 행위 계획 설정의 세부 과정을 나타낸 순서도이다.
하기에서는 도 2 및 도 3을 참조하여 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법에 대하여 설명하기로 한다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 로봇을 이용한 육체 운동 교습 방법은 로봇에 의해 수행되는 것이 바람직하다.
먼저, 카메라를 통한 사용자 인식을 통해 사용자 정보가 존재하는지를 확인한다(S1). 여기서, 카메라를 이용하여 얼굴과 표정을 인식하는 방법은 기존의 얼굴인식 방법과 표정인식 방법을 활용하는 것이 바람직하나 이를 한정하지 않고 사용자의 얼굴이나 표정을 인식할 수 있는 장치를 이용할 수 있다. 예를 들면, 맞이하기에서 사용자의 얼굴을 인식하여 사용자를 구분하며, 얼굴인식이 되면 사용자에게 인사를 하고(인사하기 메시지 생성), 육체 운동을 시작하도록 제안 메시지를 생성(이 동작한 번 해 볼까요? 등)하여 수행한다. 사용자가 고개 제스처를 통해 긍정적인 의도를 보내면 로봇은 기본 동작을 수행하게 된다. 그리고 "따라 하세요." "동작을 5회 반복하세요" 등의 메시지를 발화를 통해 수행한다. 이후, 사용자는 로봇의 동작을 보고 따라 하게 된다.
그리고, 동작인식은 커넥트 센서와 같은 3차원 깊이 정보(3D Depth) 정보를 활용하는 것이 바람직하나 이를 한정하는 것은 아니다.
만약, 사용자 정보가 존재하면(YES), 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작을 수행을 위한 행위 계획을 생성한다(S2).
이어서, 사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행한다(S3). 즉, 동작 인식 결과를 통해 잘 따라 했을 경우에 칭찬을 하고, 못 했을 경우에 위로 메시지를 생성하여 수행한다. 이후, 행위 계획에서 수행할 다음 동작을 결정하여 수행하게 된다.
하기에서는 본 발명에 따른 로봇을 이용한 육체 운동 교습 방법에서 상기 행위 계획에 따라 육체 운동 동작을 수행하는 단계(S3)의 세부 과정에 대하여 도 3을 참조하여 설명하기로 한다.
행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 판단한다(S31).
만약, 육체 운동 동작을 사용자가 모두 수행하면(YES), 다음 동작을 수행할 때 해당 동작을 부가하여 참조한다(S32).
한편, 상기 행위 계획에 따른 육체 운동 동작을 사용자가 모두 수행했는지 파악하는 단계(S31)에서 사용자가 동작을 따라 하지 않으면(NO), 해당 동작에 대한 사용자의 상태를 인식하여 다음 행위 계획을 생성할 때 해당 동작을 제거하여 반영한다(S33).
여기서, 사용자의 상태를 파악하는 방법은, 사용자의 동작 인식, 사용자의 표정인식을 통해 사용자의 기분을 파악하는 것이 바람직하다.
사용자의 의도나 상황을 인식하는 상황/의도 인식은 로봇이 사용자와 상호작용 시 발생하는 사용자의 의도(예, 지루함, 하기 싫음, 질문, 지속 등)를 인식기를 통해 입력된 정보와 현재의 상황정보 및 주변 센서에서 얻은 정보를 이용하여 파악한다.
예를 들어, 로봇이 보여 주는 동작을 따라 하지 않고 가만히 서 있거나 전혀 다른 동작을 수행하면 사용자가 하기 싫어하거나 지루해 하는 의도를 파악할 수 있으며, 동작 수행 중에 손을 들면 질문을 하고 싶어하거나 무슨 의도로 손을 들었는지 로봇이 질문을 해서 확인하는 것도 가능하다.
즉, 본 발명의 일 실시예에서의 다음 행위 계획을 생성할 때 반영하는 단계는, 동작, 표정, 행위 계획 성공 실패 여부 등을 파악하여 사용자의 의도(하기 싫음, 지루함, 몰입, 지속)와 수행 능력을 인식하여 상호작용 경험과 행위 계획에 대한 목표 달성 정도를 기반으로 다음 행위 계획을 설정한다.
예를 들어, 체조, 요가, 스트레치, 춤 등과 같은 육체 운동을 수행하다가 지루해 해거나 하기 싫음 등의 예외 상황이 발생하면 흥미를 유발하거나 종료 등의 다른 행위 계획을 생성하여 예외상황을 처리하도록 한다. 이러한 예외 상황은 사용자의 의도뿐 아니라, 로봇의 H/W적 문제나 운용자에 의한 개입되는 경우를 포함한다.
반면에, 상기 사용자 인식을 통해 사용자 정보가 존재하는지 판단하는 단계(S1)에서 인식되지 않은 사용자이면(NO), 원하는 사용자에 대해 사용자 등록을 수행(S4)하며, 기본적인 수준의 수행 계획을 기반으로 동작을 수행한다(S5).
여기서, 사용자의 상호작용 경험 정보는, 사용자의 운동 능력, 잘하는 동작, 못하는 동작, 좋아하는 동작, 싫어하는 동작 및 수행 능력과 같은 정보 중 적어도 하나 이상의 정보를 포함하는 것이 바람직하다.
한편, 생성된 상호작용 경험, 행위 수행 결과, 파악된 의도 및 상황 정보를 저장부(500)에 저장되는 것이 바람직하다.
이러한 본 발명의 일 실시예에 따른 로봇을 이용한 육체 운동 교습 시스템 및 방법은 로봇 표현은 행위계획에서 생성된 상호작용 흐름을 전달받아서 로봇이 표현하는 것으로 발화나 행동 및 표정으로 표현한다. 행위 계획 설정부(200)는 로봇이 수행하기 위한 상호작용 메시지를 보내면 로봇 표현은 이에 해당하는 표정이나 동작을 생성하여 수행하게 된다.
100 : 동작 인식부
200 : 행위 계획 설정부
300 : 행위 계획 동작부
400 : 행위 계획 판단부

Claims (1)

  1. 육체 운동 동작 순서에 따라 동작을 수행하는 로봇을 이용한 운동 교습 방법에 있어서,
    로봇에서, 카메라를 통한 사용자 인식을 통해 사용자 정보가 존재하는지를 판단하는 단계;
    상기 사용자 정보 존재 판단 결과, 사용자 정보가 존재할 경우, 사용자의 상호작용 경험 정보를 파악하여 육체 운동 동작을 수행을 위한 행위 계획을 생성하는 단계; 및
    사용자와의 상호작용에 필요한 목표를 설정하여 목표가 달성될 때까지 행위 계획에 따라 육체 운동 동작을 수행하는 단계;
    를 포함하는 것을 특징으로 하는 로봇을 이용한 육체 운동 교습 방법.
KR1020130165388A 2013-12-27 2013-12-27 로봇을 이용한 육체 운동 교습 시스템 및 방법 KR101697646B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130165388A KR101697646B1 (ko) 2013-12-27 2013-12-27 로봇을 이용한 육체 운동 교습 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130165388A KR101697646B1 (ko) 2013-12-27 2013-12-27 로봇을 이용한 육체 운동 교습 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20150076798A true KR20150076798A (ko) 2015-07-07
KR101697646B1 KR101697646B1 (ko) 2017-01-18

Family

ID=53789692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130165388A KR101697646B1 (ko) 2013-12-27 2013-12-27 로봇을 이용한 육체 운동 교습 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101697646B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110559639A (zh) * 2019-08-02 2019-12-13 焦作大学 体操运动的机器人教学方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050110932A (ko) * 2004-05-20 2005-11-24 조지성 트레이닝 컨설팅 서비스 제공 서버 및 그 방법
KR20120133224A (ko) * 2011-05-31 2012-12-10 (주)로보코 트레이닝 보조용 로봇 장치를 이용한 트레이닝 정보 관리 시스템
JP2013169611A (ja) * 2012-02-20 2013-09-02 Vstone Kk ロボットシステムおよびロボット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050110932A (ko) * 2004-05-20 2005-11-24 조지성 트레이닝 컨설팅 서비스 제공 서버 및 그 방법
KR20120133224A (ko) * 2011-05-31 2012-12-10 (주)로보코 트레이닝 보조용 로봇 장치를 이용한 트레이닝 정보 관리 시스템
JP2013169611A (ja) * 2012-02-20 2013-09-02 Vstone Kk ロボットシステムおよびロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110559639A (zh) * 2019-08-02 2019-12-13 焦作大学 体操运动的机器人教学方法
CN110559639B (zh) * 2019-08-02 2021-08-03 焦作大学 体操运动的机器人教学方法及机器人

Also Published As

Publication number Publication date
KR101697646B1 (ko) 2017-01-18

Similar Documents

Publication Publication Date Title
TWI713000B (zh) 線上學習輔助方法、系統、設備以及電腦可讀取記錄媒體
CN107225578B (zh) 机器人控制装置、机器人、机器人控制方法及系统
US20160180722A1 (en) Systems and methods for self-learning, content-aware affect recognition
Schneider et al. Can you help me with my pitch? Studying a tool for real-time automated feedback
CN112204565B (zh) 用于基于视觉背景无关语法模型推断场景的系统和方法
CN117541445B (zh) 一种虚拟环境交互的口才训练方法、系统、设备及介质
US20210197026A1 (en) Workout-training method
Papaioannou et al. Hybrid chat and task dialogue for more engaging hri using reinforcement learning
US10607504B1 (en) Computer-implemented systems and methods for a crowd source-bootstrapped spoken dialog system
Tam et al. Integrating the Kinect camera, gesture recognition and mobile devices for interactive discussion
CN117541444B (zh) 一种互动虚拟现实口才表达训练方法、装置、设备及介质
KR20160051020A (ko) 사용자와의 상호작용이 가능한 완구 및 그 완구의 사용자와의 상호작용 수행 방법
Spyrou et al. Exploiting IoT technologies for personalized learning
Wagner et al. An empirical evaluation of a vocal user interface for programming by voice
Tozadore et al. Towards adaptation and personalization in task based on human-robot interaction
KR101697646B1 (ko) 로봇을 이용한 육체 운동 교습 시스템 및 방법
Camarillo-Abad et al. A basic tactile language to support leader-follower dancing
Zidianakis et al. Building a sensory infrastructure to support interaction and monitoring in ambient intelligence environments
WO2017136874A1 (en) Advanced learning system
AU2018102139A4 (en) Advanced Learning System
Munje et al. Team3 challenge: Tasks for multi-human and multi-robot collaboration with voice and gestures
Becker-Asano et al. An affective virtual agent providing embodied feedback in the paired associate task: system design and evaluation
CN111179135A (zh) 一种基于学习风格模型的自适应式虚拟现实教学方法及系统
TWI711016B (zh) 具即時互動與記憶回饋的實境教學與測驗之系統
KR102637704B1 (ko) 아동에게 칭찬 메시지를 제공하는 방법 및 그것을 수행하는 서버

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191223

Year of fee payment: 4